Está en la página 1de 562
—— Sif ALGEBRA LINEAL SEGUNDA EDICION Seymour Lipschutz ALGEBRA LINEAL Segunda edicién SEYMOUR LIPSCHUTZ, Ph. D. Temple University Traducci6n: CELIA MARTINEZ ONTALBA Revision: LORENZO ABELLANAS Catedratico Métodos Matemiticos de la Fisica Universidad Complutense de Madrid McGraw-Hill MADRID @ BUENOS AIRES ¢ CARACAS » GUATEMALA @ LISBOA @ MEXICO NUEVA YORK ¢ PANAMA e SAN JUAN e SANTAFE DE BOGOTA e SANTIAGO e SAO PAULO "AUCKLAND # HAMBURGO @ LONORES MILAN « MONTREAL @ NUEVA DELHI @ PARIS "SAN FRANCISCO e SIDNEY # SINGAPUR @ ST. LOUIS e TOKIO @ TORONTO ALGEBRA LINEAL. Segunda edieién No esta permitida la reproduccién total o parcial de este libro, ni su tratamiento informatico, ni la transmision de ninguna forma o por cualquier medio, ya sea electrénico, mecénico, por fotocopia, por registro u otros métodos, sin el permiso previo y por escrito de los titulares del Copyright. DERECHOS RESERVADOS © 1992, respecto a la segunda edicién en espaitol, por McGRAW-HILL/INTERAMERICANA DE ESPANA, S.A, Edificio Oasis-A, 1.* planta Basauri, s/n 28023 Aravaca (Madrid) Traducido de la segunda edicién en inglés de LINEAR ALGEBRA Copyright © MCMXCI, por McGraw-Hill, Inc. ISBN: 0-07-038007-4 ISBN: 84-7615-758-4 Depésito legal: M. 119/193 Cubierta: Juan Garcia ‘Compuesto e impreso en: Fernandez Ciudad, S.L. PRINTED IN SPAIN - IMPRESO EN ESPANA Prdlogo . Capitulo 1. Capitulo 2. Capitulo 3. Capitulo 4, Capitulo 5. Contenido SISTEMAS DE ECUACIONES LINEALES SAGE Power ss oot 1.1. Introduccion.—1.2. Ecuaciones lineales. Soluciones—1.3. Eeuaciones lineales con dos inedgnitas.— 1.4. Sistemas de ecuaciones lincales. Sistemas equivalentes. Operacio~ nes elementales.—1.5. Sistemas en forma triangular y escalonada—1.6. Algoritmo de reduccion.—I.7, Matrices.—1.8. Equivalencia por filas. Operaciones clementales entre filas—1.9. Sistemas de ecuaciones lineales y matrices.—1.10. Sistemas de ecuaciones lineales homogéneos. \VECTORES EN R" Y C!. VECTORES ESPACIALES ... 0-01-20 00- >>> 2.1, Introduccién.—2.2. Vectores en R*—2.3, Suma de vectores y producto por un escalar—2.4, Vectores y ecuaciones lineales.—2.5. Producto escalar—2.6. Norma de tun vector. 2.7, Vectores localizados, hiperplanos y rectas cn R' espaciales. Notacién ijk en R*.—2.9. Niimeros complejos.—2.10. Vectores en C™ MATRICES uve + 2 BEYEROSG $40 + woniclas® ae 3.1, Introduccién-3.2. Matrices—3.3. Suma de matrices y producto por un esca~ lar—3.4, Producto de matrices. —3.5. Traspuesta de una matriz—3.6. Matrices y sistemas de ecuaciones lineales—3.7. Matrices por bloques. MATRICES CUADRADAS. MATRICES ELEMENTALES |... . - Psgasten 4.1, Introduccion —4.2. Matrices cuadradas—4.3, Diagonal y traza. Matriz identi- dad.—4.4, Potencias de matrices. Polinomios de matrices—4.5. Matrices invertibles (no singulares)—4.6. Tipos especiales de matrices cuadradas.—4.7. Matrices comple jas—4.8. Matrices cuadradas por bloques.—4.9. Matrices elementales. Aplicaciones 4.10. Operaciones elementales entre columnas. Equivalencia de matrices.—4.11. Matri- ‘ces simétricas congruentes. Ley de inercia—4.12, Formas cuadraticas—4.13. Simila~ ridad.—4.14, Factorizaci6n LU. ESPACIOS VECTORIALES ..... 000-0 2+0200+ 5 5.1. Introduccidn.—5.2. Espacios veetoriales.—5.3. Ejemplos de espacios veetoriales. 5.4. Subespacios. 5.5. Combinaciones lincales. Envolventes lineales.—5.6. Dependen- 45 87 105 167 vi CONTENIDO Capitulo 6. Capitulo 7. Capitulo 8. Capitulo 9. Capitulo 10. Capitulo 11. Capitulo 12. Capitulo 13, cia e independencia lineal—S.7. Bases y dimension.—S.8. Ecuaciones lineales y espa- cios vectoriales—5.9. Sumas y sumas directas,—S.10. Coordenadas.—5.11. Cambio de base. ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD .. ...--- 6.1. Introduccién.—6.2. Espacios con producto interno.—6.3. Desigualdad de Cauchy- Schwarz. Aplicaciones—6.4. Ortogonalidad.—6.5. Conjuntos ortogonales y bases. Proyecciones—6.6. Proceso de ortogonalizacién de Gram-Schmidt.—6.7. Productos internos y matrices.—6.8. Espacios complejos con producto interno.—6.9. Espacios vectoriales normados. DETERMINANTES : coves eee ee 7.1. Introduccion.—7.2. Determinantes de 6rdenes uno y dos.—7.3, Determinantes de orden tres—7.4. Permutaciones.—7.5. Determinantes de orden arbitrario.—7.6. Pro- piedades de los determinantes.—7.7. Menores y cofactores—7.8. Adjunto clasico. 7.9. Aplicaciones a las ecuaciones lineales. Regla de Cramer—7.10. Submatrices. Menores generales. Menores principales—T.11. Matrices por bloques y determinan- tes.—7.12. Determinantes y volumen.—7.13. Multilinealidad y determinantes. VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION 8.1, Introduccién.—8.2. Polinomios de matrices—8.3. Polinomio caracteristico. Teo- rema de Cayley-Hamilton.—8.4, Valores propios y vectores propios—8.5. Céleulo de valores propios y vectores propios. Diagonalizacion de matrices.—8.6. Diagonalizacion de matrices reales simétricas.—8.7. Polinomio minimo. APLICACIONES LINEALES . . .. - Asem seers persbettamenn 9.1. Introduccién.—9.2. Aplicaciones. 9.3. Aplicaciones lineales.—9.4. Niicleo e ima- gen de una aplicacién lineal—9.5. Aplicaciones lineales singulares y no singulares. Tsomorfismos.—9.6. Operaciones con aplicaciones lineales.—9.7. Algebra de operado- res lineales A(V).—9.8. Operadores invertibles. MATRICES Y APLICACIONES LINEALES sate § 7 SSRN oe 10.1. Introduccion.—10.2. Representacion matricial de un operador lineal —10.3. Cambio de base y operadores lineales—10.4. Diagonalizacion de operadores linea- les.—10.5. Matrices y aplicaciones lineales generales. FORMAS CANONICAS ....6. 5. suk sats ro ok ; ILL. Introduccién —11.2. Forma triangular—I1,3. Invariancia.—11.4. Descomposi- ciones en suma directa invariante—11.5. Descomposicion primaria.—11.6. Operadores nilpotentes.—11.7. Forma canénica de Jordan—I1.8. Subespacios ciclicos.—11.9. Forma canénica racional—1.10. Espacios cociente. FUNCIONALES LINEALES Y ESPACIO DUAL... 0-2. - 0202000 s cee e ees 12.1. Introduccién.—12.2. Funcionales lineales y espacio dual.—12.3. Base dual. 12.4. Espacio segundo dual,—12.5. Aniquiladores.—12.6. Traspuesta de una aplicacién lineal. FORMAS BILINEALES, CUADRATICAS Y HERMITICAS ... .. : 13.1, Introduecién.—13,2, Formas bilineales—13.3. Formas bilineales y matrices. 13.4. Formas bilineales alternadas.—13.5, Formas bilineales simétricas. Formas cua- draticas—13.6. Fornias bilineales simétricas reales. Ley de inercia—t3.7. Formas hermiticas. 290 330 369 406 436 CONTENIDO Capitulo 14. OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO . Apéndice Indice 14.1. Introduccion.—14.2. Operadores adjuntos—14.3. Analogia entre A(V) y C. Operadores especiales—14.4, Operadores autoadjuntos.—14,5, Operadores ortogona- les y unitarios—14.6. Matrices ortogonales y unitarias.—14.7, Cambio de base orto- normal.—14.8. Operadores positivos. Diagonalizacién y formas canénicas en espacios euclideos.—14.10. Diagonalizacién y formas canénicas en espacios unita- rios—14.11. Teorema espectral. CONJUNTOS Y RELACIONES . 0.00.00 0 eee ete teet eee ee ee ee ees Conjuntos, elementos.—Operaciones entre conjuntos—Producto cartesiano de con- juntos.—Relaciones —Relaciones de equivalencia. ESTRUCTURAS ALGEBRAICAS ... : Introduccién.—Grupos.—Anillos, dominios de integridad y cuerpo: POLINOMIOS SOBRE UN CUERPO . . Introduccion. —Divisibilidad. Maximo comin divisor.—Factorizacion, —Médulos. vii 503 528, 535 545 549 Prologo El dlgebra lineal se ha convertido en los tltimos afios en una parte esencial de los conocimientos matematicos requeridos a mateméticos, ingenieros, fisicos y otros cientificos. Este requerimiento refleja la importancia y la amplitud de sus aplicaciones. Este libro se ha proyectado como libro de texto en un curso regular de algebra lineal o como suplemento a los textos clasicos en uso, Su propésito es presentar una introduccién al algebra lineal que todos los lectores encuentren provechosa, cualquiera que sea su campo de especiali- zacién. Se ha incluido mas material del que puede abarcarse en muchos primeros cursos, con objeto de hacer el texto mas flexible, proporcionar un libro de referencia util y estimular el interés futuro en el tema. Cada capitulo comienza con enunciados claros de las definiciones, principios y teoremas pertinentes, junto con ejemplos y otro material descriptivo. A esto siguen colecciones graduadas de problemas resueltos y problemas suplementarios. Los problemas resueltos sirven para ilustrar y ampliar la teoria, coneretan aquellos puntos sutiles cuyo desconocimiento Heva al estudiante a sentirse continuamente en un terreno inseguro, y suministran la repeticién de los principios basicos tan vital para un aprendizaje efectivo. Entre los problemas resueltos se incluyen numerosas demostraciones de teoremas. Los problemas suplementarios sirven como revision completa del material de cada capitulo. El primer capitulo trata los sistemas de ecuaciones lineales. Esto proporciona la motivacién y las herramientas de célculo basicas para el material subsiguiente. Tras haber introducido los Vectores y las matrices, aparecen capitulos sobre espacios vectoriales y subespacios, y sobre productos internos. Siguen capitulos que cubren determinantes, valores propios y vectores propios, y diagonalizacion de matrices (bajo similaridad) y formas cuadraticas (bajo congruen- cia). Los capitulos posteriores abarcan las aplicaciones lineales abstractas y sus formas canénicas. especificamente las formas canénicas triangular, de Jordan y racional. El dltimo capitulo trata las aplicaciones lineales abstractas en espacios con producto interno. Los principales cambios en la segunda edicién han sido por razones pedagogicas (de forma) més que de contenido. Aqui la nocién de aplicacién matricial se introduce al principio del texto, x PROLOGO y los productos internos justo después del capitulo sobre espacios vectoriales y subespacios. ‘Asimismo, se presentan los algoritmos de reduccién por filas, inversién de matrices, calculo de determinantes y diagonalizacion de matrices y formas cuadraticas, usando notacién algoritmica. ‘Ademis, temas tales como matrices elementales, factorizacién LU, coeficientes de Fourier y varias normas en R" se introducen directamente en el texto, en lugar de hacerlo en las secciones de problemas. Por iiltimo, al tratar los aspectos abstractos més avanzados en la parte final del texto, facilitamos el uso de éste en un curso elemental o en uno de dos semestres de algebra lineal. Deseo dar las gracias al personal de McGraw-Hill Schaum Series, especialmente a John Aliano, David Beckwith y Margaret Tobin, por sus inestimables sugerencias y su cooperacion, verdaderamente util. Por diltimo, quiero expresar mi gratitud a Wilhelm Magnus, mi maestro, consejero y amigo, que me introdujo en la belleza de las matematicas. Temple University SEYMOUR LiPSCHUTZ Enero de 1991 CAPITULO 1 Sistemas de ecuaciones lineales 1.1. INTRODUCCION La teoria de las ecuaciones lineales juega un papel importante y motivador en el ambito del Algebra lineal. De hecho, muchos problemas de algebra lineal son equivalentes al estudio de un sistema de ecuaciones lineales, como hallar el micleo de una aplicacién lineal o caracterizar el subespacio generado por un conjunto de vectores. Por cllo, las técnicas introducidas en este capitulo seran aplicables al tratamiento mas abstracto dado posteriormente. Por otra parte, algunos de los resultados del tratamiento abstracto arrojaran nueva luz sobre Ia estructura de Ios sistemas de ecuaciones lineales «concretos». Este capitulo investiga sistemas de ecuaciones lineales y describe detalladamente el algoritmo de eliminacién gaussiano, que se utiliza para hallar su solucién, Aunque seran estudiadas en detalle en el Capitulo 3, las matrices, junto con ciertas operaciones entre ellas, se introducen también aqui, puesto que estén estrechamente relacionadas con los sistemas de ecuaciones lineales y su solucién. Todas nuestras ecuaciones involucraran nimeros especificos denominados constantes 0 esca- ares, Para simplificar, en este capitulo asumimos que todos nuestros escalares pertenecen al cuerpo de los nimeros reales R. Las soluciones de nuestras ecuaciones también involucrarén neplas u = (key, ky. --., ky) de mimeros reales Hamadas vectores. El conjunto de tales n-plas se denota por R". Apuntamos que los resultados de este capitulo son validos asimismo para ecuaciones sobre el cuerpo complejo C, 0 sobre cualquier cuerpo arbitrario K. 1.2. ECUACIONES LINEALES. SOLUCIONES Por una ecuacién lineal con incgnitas x,, x2, ...,%, entendemos una ecuacién que puede escribirse en la forma convencional: on yxy + aa Xa + + OX, 2 ALGEBRA LINEAL donde a, a2, ..., dy, b son constantes. La constante a, se denomina el coeficiente de x, y b se denomina la constante de la ecuacion. Una solucién de la ecuacién lineal anterior es un conjunto de valores de las incdgnitas, digamos x, = ky, Xz = kp, ..., %, = ky, 0 simplemente una n-pla u = (ky, kp, .... k,) de constan- tes, con la propiedad de que es cierta la siguiente expresion (obtenida sustituyendo cada x, por k, en la ecuacién): Ayky + agky +--+ gk, = b Se dice entonces que este conjunto de valores satisface la ecuacién. El conjunto de todas las soluciones se lama conjunto solucién, solucién general o, simple- mente, la solucién de ta ecuacién. Nota: Las nociones anteriores presuponen implicitamente que existe un orden entre las incdg- nitas. Con el fin de evitar los subindices, normalmente utilizaremos variables x, y, z para denotar tres incégnitas, x, y, z, t para denotar cuatro inedgnitas y x, y, 2, s, ¢ para denotar cinco incdgnitas, considerandolas ordenadas. EJEMPLO 1.1 a) La ecuacion 2x—Sy+3xz=4 no es lineal, porque el producto de dos incdgnitas es de segundo grado. 5) La ecuacién x + 2y~ 42 +1 = 3 es lineal en las cuatro incégnitas x, y, x, t. La 4-pla w= (3, 2, 1, 0) es una solucién de la ecuacion porque 3+2@)—4(1)+0=3 0 3=3 es una expresién cierta. Sin embargo, la 4-pla v= (1, 2, 4, 5) no es una solucion de ta ecuacién porque 142Q)-4(4)+5=3 0 -6 no es cierto, ECUACIONES LINEALES CON UNA INCOGNITA El siguiente resultado basico esta probado en el Problema 1.5. Teorema 1. Consideremos la ecuacién lineal ax = b. i) Sia #0, x =b/aes solucion tnica de ax = b. ii) Sia=0, pero b #0, ax = b no tiene solucién, iii) Sia=0 yb =0, todo escalar k es solucién de ax = b. EJEMPLO 1.2 a) Resolvamos 4x —1= x +6. ‘Trasponemos para obtener la ecuacién en forma convencional: 4x — ‘mos por 1/3 para obtener la solucién tinica x = 3 [Teorema 1.1 i). 6+163x= . Multiplica- SISTEMAS DE ECUACIONES LINEALES 3 5) Resolvamos 2x — 5 — x Reescribimos la ecuacién en forma convencional: x — ecuaci6n no tiene solucion (Teorema 1.1 ii). +3,0x— =348,00x=8. La ©) Resolvamos 4 +x —3=2x+1-x Reescribimos la ecuacién en forma convencional: x +1 =x +1, 0x—x escalar k es una solucién [Teorema 1.1 iii] 1=1, 0 0x =0. Todo ECUACIONES LINEALES DEGENERADAS Una ecuacién lineal se dice degenerada si tiene la forma Ox, + Ox, +++ + 0x, = b esto es, si cada coeficiente es igual a cero. La solucién de tal ecuacién se halla como sigue: Teorema 1.2: Consideremos la ecuacion lineal degenerada 0x, + Ox, + + + Ox, i) Si b¥0, la ecuacion no tiene solucién. ii) Si b=0, todo vector w= (ky, ka, «+5 ky) @s una solucién. Demostracion. i) Sea u= (Ky, Kay «+s ky) UN vector cualquiera. Supongamos b#0. Sustituyen- do w en la ecuacién obtenemos: < Ok, +0ky ++ +0K,=b 0 O0F04--4+0=b 0 O=b No es una expresi6n cierta porque 640. Por tanto, ningiin vector u es soluciom. ii) Supongamos b = 0. Sustituyendo u en la ecuacién obtenemos: Ok, + Ok, +--+ + Oky © 0404--+0=0 0 0=0 que es una expresién cierta. Por consiguiente, todo vector u en R" es una solucién, como se pretendia. EJEMPLO 1.3. Describir la solucién de 4y —x —3y +3=2+x—2xty41 La reescribimos en forma convencional agrupando términos y trasponiendo: yox+3=y-x43 0 y x-ytx=3-3 0 Ox +0) La eouacion ¢s degenerada con constante nula; por tanto, todo vector u = (a, 6) en R es una solucién ECUACIONES LINEALES NO DEGENERADAS. PRIMERA INCOGNITA Esta subseccién trata la solucién de una sola ecuacién lineal no degenerada con una o mas incégnitas, digamos yxy 4 yxy Ho + Xp 4 ALGEBRA LINEAL Por la primera incdgnita en tal ecuacién entendemos a primera con coeficiente no nulo. Su posicién p en la ecuacion es entonces el menor valor entero de j para el cual a, #0. En otras palabras, x, es la primera incognita si a, = 0 para j Lj. [Ex] Multiplicar la ecuacién i-ésima por un escalar no nulo k: kL; L;, k #0. [Es] Sustituir la ecuacion i-ésima por ella misma mas k veces la j-ésima: (kL) + L,)> Ly. SISTEMAS DE ECUACIONES LINEALES 9 En la practica efectuamos [E,] y [E,] en un solo paso, 0 sea, Ia operacién [E] Sustituir la ecuacin i-ésima por k (no nulo) veces ella misma mas k’ veces la j-ésima: (KL) + kL) > Ly, k #0 Lo anterior se enuncia formalmente en el siguiente teorema, probado en el Problema 1.46. Teorema 1.4: Supongamos que un sistema de ecuaciones lineales (#) se obtiene de otro (+) mediante una sucesion finita de operaciones elementales. Entonces (#) y (*) tienen el mismo conjunto solucion. Nuestro método para resolver el sistema de ecuaciones lineales [1.3] consta de dos pasos: Paso I. Usar las operaciones elementales anteriores para reducir el sistema a uno equivalente mis simple (en forma triangular o escalonada), Paso 2. Usar la sustitucién hacia atrés para hallar Ia solucién del sistema mas simple. Los dos pasos se ilustran en el Ejemplo 1.9. En cualquier caso, por razones pedagogicas, discutimos en detalle primero el Paso 2 en la Seccidn 1.5 y luego el Paso 1 en la Seccion 1.6. EJEMPLO 1.9, La solucién del sistema xt y- a= -4 5x4 Ly —2z= 22 3x— 2y+ 3r= Mf se obtiene como sigue: Paso I: Primero eliminamos x de la segunda ecuacién mediante la operaci6n elemental (—SLy + La) Lay esto es, multiplicando L, por —5 y sumandola a L,; entonces eliminamos x de la tereera ecuacion Sfectuando la operacion elemental (—3L; + L) + Ly, es decir, multiplicando L, por ~3 y sumandola @ Ly 5x Ly: —Sx—10y+202= 20 3x Ly: —3x— by + 122 = 12 Ly _Sx+ly-2z=-2 Jy: _3x—2y+ 32a nueva La? yo f= 2 nueva Ly: = By + 152 = 23 Por tanto, el sistema original es equivalente al sistema x+2y— 4o=—4 yo z=-2 ty + 1S2= 23 ‘A continuacién eliminamos y de la tercera ecuacién aplicando (8L7 + L,) +> Ls, esto es, multiplicando L, por 8 y sumandola a L3: 8x1, ay 8 = 16 Ly: ~8y+15e= 2B nueva Ly: t= 7 i i 10 ALGEBRA LINEAL Por consiguiente, obtenemos el siguiente sistema triangular equivalente: x4 2y—4z— 4 yr r= 72 a= 7 Paso 2. Ahora resolvemos el sistema triangular mas simple mediante sustitucién hacia atras. La tercera ecuacién da z = 1, Sustituimos z= 1 en la segunda ecuacién obteniendo -2 0 Ahora sustituimos z = 1 e y= —1 en la primera ecuacién para obtener x4+2(-1)-4(I)=-4 0 x-2-4 0 x-6=-4 0 x=2 Entonces x = sistema dado, y= —1, z=, 0, en otras palabras, la terna ordenada (2, —1, 1) es la solucién tinica del El anterior algoritmo de dos pasos para resolver un sistema de ecuaciones lineales se denomina eliminacién gaussiana, El siguiente teorema se utilizaré en el Paso 1 del algoritmo. Teorema 1.5: | Supongamos que un sistema de ecuaciones lineales contiene la ecuacion degenerada L: Ox, + 0x, +++ + 0x, =b 4) Si b=0, L puede suprimirse del sistema sin alterar el conjunto solucién. b) Si b#0, el sistema no tiene solucién. Demostracién, Se obtiene directamente del Teorema 1.2. Esto es, la parte a) se obtiene del hecho de que todo vector en R" es solucién de L,, y la parte b) del hecho de que L no tiene solucién y por tanto tampoco la tiene el sistema. 1.5. SISTEMAS EN FORMA TRIANGULAR Y ESCALONADA Esta seccidn considera dos tipos simples de sistemas de ecuaciones lineales: sistemas en forma triangular y el caso més general de sistemas en forma escalonada. FORMA TRIANGULAR Un sistema de ecuaciones lineales est en forma triangular si el niimero de ecuaciones es igual al ntimero de incégnitas y si x, es 1a primera incdgnita de la k-ésima ecuacién. Por tanto, un sistema de ecuaciones lineales triangular tiene a forma siguiente: BX Faraz tt Be Matt Oa % AaaX2 Fo + aX t any seen aaa (4) y— $.n—1Xn—1 + Opt, Xn = yy Gn Xu = Dy donde ayy 40, a2 £0, +s yg £0. SISTEMAS DE ECUACIONES LINEALES 11 El sistema de ecuaciones lineales triangular anterior tiene una solucion Gnica, que puede cobtenerse mediante el siguiente procedimiento, conocido como sustitucién hacia atras. Primero, resolvemos la ultima ecuacion para la ultima incdgnita, x,: Segundo, sustituimos este valor de x, en la peniiltima ecuacién y la resolvemos para la peniltima incognita, x,_1! = Gn~1, nb x/ ean) Byte Tercero, sustituimos estos valores de x, y X,-1 en la antepeniiltima ecuacién y la resolvemos para la antepeniiltima incdgnita, x, 2: bens = (Onna, i/ y= 1.n— Pam 1 — Bn~ 1,1(Pal an) — (n= 2, 0/ Gand p20? En general, determinamos x; sustituyendo los valores previamente obtenidos de xq. X,—15 - Xk en la ecuacion k-ésima ecuacion: x XL ten Xn actu El proceso finaliza cuando hemos determinado x,. La solucién es iinica puesto que, en cada paso del algoritmo, el valor de x, esta, por el Teorema 1.1 i), univocamente-determinado. EJEMPLO 1.10. Consideremos el sistema dxe+4y—- = i Syt z= 2 = -9 Como el sistema esta en forma triangular, puede resolverse mediante sustitucién hacia atras. 3 i) La Ghima ecuacién proporciona z ii) Sustituimos en la segunda ecuacion para obtener Sy— 3 =2 6 Sy iii) Sustituimos z = —3 ¢ y= 1 en Ia primera ecuacién para obtener dxt4)-(-3= 1 0 xt443=11 0 2x i S Entonces el vector w = (2, 1, —3) es la soluci6n tinica del sistema. 12 ALGEBRA LINEAL FORMA ESCALONADA. VARIABLES LIBRES Un sistema de ecuaciones lineales esta en forma escalonada si ninguna ecuacién es degenerada y la primera incognita de cada ecuacién esté a la derecha de la primera incognita de la ecuacion anterior. El paradigma es: 41% + aya Xp + Gy3X3 + ayy Xy +> 92), %j2 + 92, pri%pasi t* 15) rj, Xi + Op, ipa Xen Hoe donde 1 1, efectuar la operacién (Seccién 1.4) (Esk (ual; + LiL; 0 (EE anh + abi Paso 3, Examinar cada nueva ecuacién L: a) Si L tiene la forma Ox, + 0xz ++ +0x,=0 0 si es un miltiplo de otra ecuacion, suprimirla del sistema. b) Si L tiene la forma Ox, + 0x; + ~~ +0, =b con b #0, abandonar el algoritmo. El sistema no tiene solucion. Paso 4. Repetir los Pasos 1, 2 y 3 con el subsistema formado por todas las ecuaciones, excluyendo la primera. Paso 5. Continuar el proceso anterior hasta que el sistema esté en forma escalonada, o hasta que se obtenga una ecuacién degenerada en el Paso 3b). La justificaci6n del Paso 3 esta en el Teorema 1.5 y en el hecho de que si L = kL’ para alguna otra ecuaci6n L'en el sistema, la operacién —kL’ + LL sustituye L por Ox, + 0x2 +++ + 0%_= 0. que podra ser de nuevo eliminada segin el Teorema 1.5 14 ALGEBRA LINEAL EJEMPLO 1.12 a) b) ) El sistema xt yo2e=10 3x+2y+22= 1 Sxtdy+3c= 4 se resuelve reduciéndolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y tercera efectuamos las operaciones ~3L, +2L, +L, y —SL + 2L,> Ly: =3Ly: -6x—3y+ 62 = —30 =SLy: —10x — Sy + 102 = —50 Dy: Ox t+4yt Ac= 2 2Ly: l0x+8y+ 6e= 8 =3L, + Ly: y+ 102 =—28 =5L, + 2: By + 1 = 2 Esto proporciona el siguiente sistema, en el que y se elimina de la tercera ecuacion mediante la operacién —3L, + Ly > Ly: w+y- 2= 10) 2xty- w= 10 y+ z= —28¢ + y+ 102 = —28 3y + 162 = —42) -Me= 42 EI sistema esti ahora en forma triangular. Por consiguiente, podemos utilizar Ia sustitucién hacia atras para obtener la solucién iinica u = (1, 2, ~3), El sistema x+2y— 3z=1 2x+5y— Brad 3x4 By— 13257 se resuelve reduciéndolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y tercera efectuamos —2L, +L, Lz y —3L, + Ly Ly para obtener x42y-3e—1 wai yoda? —- 2y—42=4 x (La tereera ccuacién se suprime puesto que es un miéltiplo de la segunda.) EI sistema est ahora en forma escalonada con variable libre z. Para obtener la solucién general hacemos 2 = a y resolvemos por sustitucién hacia atrés. Sustituimos z= en la segunda ccuacién para obtener y = 2+ 2a. A continuacién sustituimos z = a e y =2 + 2a en Ia primera ecuacion para obtener x + 2(2 + 2a)—3a=1 0 x= —3—a. Entonces la solucion general es = 3a ya242, 3-a,2+2a, a) donde a es el pardmetro. El sistema x+2y—32=-1 3x— yt2e= 7 Sx+3y—4:= 2 SISTEMAS DE ECUACIONES LINEALES 15. se resuelve reduciéndolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y ter- tera efectuamos las operaciones —3L, +L, +L) ¥ —SL1 + Ly ~ Ls para obtener el sistema equivalente x¢2y- eal —Ty+1lz= 10 —Ty+ize= 7 La operacién —L, + Ls + Ly conduce a la ecuacién degenerada Ox + Oy +02 = Entonces el sistema no tiene solucion. El siguiente resultado basico se menciond previamente, Teorema 1.7: Cualquier sistema de ecuaciones lineales tiene: i) una Gnica solucion, ii) ninguna solucién, o iii) un nimero infinito de soluciones. Demostracién. Aplicando el algoritmo anterior al sistema podemos bien reducirlo a forma escalonada, o bien determinar que no tiene solucién. Si la forma escalonada tiene variables libres, entonces el sistema tiene un némero infinito de soluciones. Nota: Se dice que un sistema es compatible si tiene una 0 mas soluciones [Casos i) 0 iii) en el Teorema 1.7], y se dice que es incompatible si no tiene solucién [Caso ii) en el Teorema 1.7]. La Figura 1-3 ilustra esta situacion ame | Ninguna Solucién Niimero infinito solueion ‘nica de soluciones Figura 1-3. 1.7. MATRICES Sea A una tabla ordenada de nimeros como sigue: ai 16 ALGEBRA LINEAL La tabla A se denomina matriz. Tal matriz se denota pot A= (ay), i= 1, --..m,j= 1 simplemente A = (a,,). Las m n-plas horizontales (yas yas oess @ga)s (days Gazy 204 Gan)o oes mrs ina +++» Onin) son las filas de la matriz, y las n m-plas verticales ay1\ fare! Gn) 21 | | a2 an x \dmif en o con sus columnas. Nétese que el elemento a,» llamado la entrada ij 0 la componente ij, aparece en la fila i-ésima y en la columna j-ésima. Una matriz con m filas y n columnas se Hama matriz m por n, 0 matriz m x n; el par de nimeros (m, n) se lama su tamario. 1-3 0 5 (0, 5, —2); sus columnas son L =3) 4 0,5, -2% 8 i) (meg il La primera entrada no nula en una fila R de una matriz A se llama la entrada principal no nula de R. Si R no tiene entrada principal no nula, es decir, si toda entrada en R es 0, R se denomina una fila nula. Si todas las filas de A son nulas, es decir, si toda entrada en A es 0, A se lama la matriz cero, denotada por 0. a EJEMPLO 1.13. Sea 4 -( ) Entonces A es una matriz 2 x 3. Sus filas son (1, —3, 4) y MATRICES ESCALONADAS Una matriz A se denomina matriz escalonada, 0 se dice que est en forma escalonada, si se cumplen las dos condiciones siguientes: i) Todas las filas nulas, si las hay, estan en la parte inferior de la matriz. ii) Cada entrada principal no nula est4 a la derecha de la entrada principal no nula de la fila precedente Esto es, A = (a,;) es una matriz escalonada si existen entradas distintas de cero Ay, Qajy ev dys — donde jy r En este 480, dj...» dy, Son las entradas principales no nulas de A. SISTEMAS DE ECUACIONES LINEALES 17, EJEMPLO 1.14. Las siguientes son matrices escalonadas cuyas entradas principales no nulas se han rodeado con un circulo: ae 3 oo 4 5 Nig 2 3\ i Oo 3 9 0 3 a 2 ‘ 9 7 Q om o @\lo -o Oo. 0 -3 8 0 0 o/\o 0 0 2 Org momen Pa get a, mw © Se dice que una matriz escalonada A se ha puesto en forma canénica por filas si tiene las dos propiedades adicionales siguientes: iii) Cada entrada principal no nula es 1 iv) Cada entrada principal no nula es la tnica entrada distinta de cero en su columna. La tercera matriz de arriba es un ejemplo de matriz en forma candnica por filas. La segunda no esté en dicha forma porque la entrada principal no nula en la segunda fila no es la nica entrada distinta de cero en su columna; hay un 3 sobre ella. La primera matriz tampoco esta en forma candnica por filas puesto que algunas de las entradas principales no nulas no valen 1 ‘La matriz cero, 0, con cualquier nimero de filas y de columnas, es otro ejemplo de matriz en forma candnica por filas. 1.8. EQUIVALENCIA POR FILAS. OPERACIONES ELEMENTALES ENTRE FILAS Se dice que una matriz A es equivalente por filas a otra B, escrito A ~ B, si B puede obtenerse a partir de A mediante una sucesién finita de las siguientes operaciones, llamadas operaciones elementales entre filas: {E,] Intercambiar las filas i-ésima y j-esima: R, > Ry, [£3] Multiplicar la fila i-ésima por un escalar no nulo k: KR, Ri, k #0. [£3] Sustituir la fila i-ésima por ella misma mas k veces la j-ésima: KR, +R; > Ry En [a practica efectuamos [£3] y [Es] en un solo paso, es decir, la operacion [E] _ Sustituir la fila i-sima por k (no nulo) veces ella misma mis k’ veces Ta j-ésima: KR, +kR,> Ry k #0 Sin duda, el lector reconocera la similitud entre las operaciones anteriores y las utilizadas para resolver sistemas de ecuaciones lineales. El siguiente algoritmo reduce por filas una matriz A a forma escalonada. (La expresion «ceducir por filas> 0, simplemente, «reducit» significara transformar una matriz mediante operaciones elementales entre filas.) Algoritmo 1.84 Aqui A= (a,) es una matriz arbitraria. Paso I. Encontrar la primera columna con una entrada no nula. Supongamos que es la columna j,. 18 ALGEBRA LINEAL Paso 2. Intercambiar las filas de forma que aparezca una entrada no nula en la primera fila de la columna jj, esto es, conseguir que a,,, # 0. Paso 3. Utilizar a,;, como pivote para obtener cero bajo él; esto es, para cada i> | efectuar la operacién entre filas ~ay,R, + ay, Ry > R, 0 (—ay,/ay,)Ry + Ry > Ry. Paso 4, Repetit los Pasos 1, 2 y 3 con la submatriz formada por todas las filas, excluyendo la primera. Paso 5. Continuar el proceso anterior hasta que la matriz quede en forma escalonada, 1 2-3 0 EJEMPLO 1.16. La matriz 4={2 4 —2 2 Jse reduce a forma escalonada mediante el Algo- ritmo 1.8A como sigue: an: Utilizamos a1 = 1 como pivote para obtener ceros bajo a,,, esto es, efectuamos las operaciones entre filas —2R, + Ry -» Ra y —3R, + Ry Ry para obtener la matriz 1 2-3 ol 0 0 4 2 o 0 5 3, Ahora utilizamos a, = 4 como pivote para obtener un cero bajo as, esto es, efectuamos la operacién entre filas —5R + 4R, — Ry, obteniendo la mattiz 1 2-3 0 . 0 0 4 2 0 0 0 x La matriz esté ahora en forma escalonada. El siguiente algoritmo reduce por filas una matriz escalonada a su forma candnica por filas. Algoritmo 1.8B Aqui A = (a) esta en forma escalonada, digamos con entradas principales no nulas Bijs Aris + ys, Paso I. Multiplicar la éltima fila no nula R, por L/a,, de forma que la entrada principal no nula sea 1. Paso 2. Utilizar a,,,=1 como pivote para obtener ceros sobre él; esto es, para i r—2,..., 1, efectuar la operacin 1, —a,,R, +R, > R, Paso 3. Repetir los Pasos | y 2 para las filas R,_,, R,-», Paso 4. Multiplicar Ry por Ia,,,. SISTEMAS DE ECUACIONES LINEALES 19. EJEMPLO 1.16. Utilizando el Algoritmo 1.8B, la matriz escalonada 2 o 0 se reduce a forma candnica por filas como sigue: Multiplicamos Ry por $ An cow cou ous one 345 6 0325 0004 de forma que su entrada principal no nula sea 1; entonees utilizamos a3 = 1 como pivote para obtener ceros sobre él efectuando las operaciones —SR, + Ry > Ry y —6Rs + Ri Ry: 6) (23450 s}~{o 03.20 J \o 0001, ‘Multiplicamos R, por § de modo que su entrada principal no nula sea 1; entonces utilizamos a,, = 1 como pivote para conseguir un 0 encima, con la operacion —4R, + Ry + Riz 2345 A~{o 01 % 0000 Finalmente, multiplicamos R, por 4 obteniendo 1 3 00 0 0 oo) (2305 0 o}~(o o 1 30 i) \o ooo, a) 170 001, Esta matriz es la forma canénica por filas de A. Los Algoritmos 1.8A y 1.8B muestran que cualquier matriz es equivalente por filas a al menos una matriz en forma candnica por filas. En el Capitulo 5 demostraremos que tal matriz es iinica, esto es: Teorema 1.8: Cualquier matriz. A es equivalente por filas a una tinica matriz en forma candnica por filas (llamada la forma candnica por filas de A). Nota: Si una matriz A esta en forma escalonada, sus entradas principales no nulas se denominaran entradas pivote. El termino proviene del algoritmo anterior que reduce por filas una matriz a forma escalonada. 1.9. SISTEMAS DE ECUACIONES LINEALES Y MATRICES La matriz ampliada M del sistema [1.3] de m ecuaciones lineales con n incdgnitas es la siguiente: ain by by My a2 2, aay a2 20 ALGEBRA LINEAL Obsérvese que cada fila de M corresponde a una ecuacién del sistema y cada columna a los coeficientes de una incognita, excepto la iiltima, que corresponde a las constantes del sistema. La matriz de coeficientes A del sistema [1.3] es 41 M2 + 2, ag ay A Gq Gm ss Notese que la matriz de coeficientes A puede obtenerse de la ampliada M omitiendo su éltima columna. Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada. Especificamente, reduciéndola a forma escalonada (lo que nos dice si el sistema es compatible) y luego a su forma canénica por filas. La justificacién de este proceso proviene de los siguientes hechos: 1, Cualquier operacién elemental entre filas en 1a matriz ampliada M del sistema es equivalente a efectuar la operacién correspondiente en el sistema mismo. El sistema tiene soluci6n si y sélo si la forma escalonada de la matriz ampliada no tiene una fila de la forma (0, 0, ..., 0, 6) con b #0. 3. En la forma canénica por filas de la matriz ampliada M (excluyendo filas nulas) el coeficiente de cada variable no libre es una entrada principal no nula igual a uno y es la Gnica entrada distinta de cero en su columna; de aqui la solucién en forma de variables libres se obtiene simplemente transfiriendo los términos de variable no libre al otro miembro. Este proceso se ilustra en el siguiente ejemplo. EJEMPLO 1.17 a) El sistema xt yo2t4r=5 Wx+2y—3e+ t=3 3x4 3y—4e—2tel se resuelve reduciendo su matriz ampliada M a forma escalonada y después a forma canénica por filas como sigue: boi -2 4 S\ ft 1-2 4) 8) 1 ot 0 -10 ~ M=(2 2-3 1 aj-(o 0 1 -7 -J~() 5? eae 3-3-4 -2 1f \o 0 2 -16 -¥ {La tercera fila (en la segunda matriz) se suprime, puesto que es un miltiplo de la segunda y resultaré una fila nula,] Asi la solucién general en forma de variables libres del sistema es como se indica a continuacién: x+y =108=-9 x= -9—y+ 100 r- t=-7 741 Aqui las variables libres son y y 1, y las no libres x y 2. SISTEMAS DE ECUACIONES LINEALES 21 b) El sistema xt X,— 2x tx n4 2x, + 3x, +3x)— 14=3 Sx, + 7x; +4xy3+ x4 =5 se resuelve como sigue. Para empezar, reducimos su matriz ampliada a forma escalonada: 4 1-2 3 4) fi 2-2 3 4 ft 1-2 3 4 M=(2 3 3-1 3}~{o 1 7 -7 -s}~{o 1 7 -7 -S s 7 4 1 3/ \o 2 t4 -14 15/ \0 0 0 0 -5 No hay necesidad de continuar para hallar la forma canénica por filas de la matriz, puesto que la matriz esealonada ya nos indica que el sistema no tiene solucién. Especificamente, la tercera fila en Ia escalonada corresponde a la ecuacion degenerada Ox, + Ox, + 0x3 + Oxy = que no tiene solucién. ©) El sistema xt2yti= 3 2x +Sy—z= 4 Bx-2y-z= 5 se resuelve reduciendo su matriz ampliada a forma escalonada y Iuego a forma canénica por filas como sigue’ 1 2 2 a) ft 2 1° 3) fp 2 1 BD M=(2 5 -1 -4]~(o0 1 -3 -10}~(o 1 -3 -10)~ 3-2 -1 3/ \o -8 -4 -4/ \o 0 -28 84 1 2 1 3) fp 2 0 WN ft 0 0 2 ~{o 1 -3 -10)~fo 1 0 -1}~{o 1 0 -1 o o 1 3 \o o 1 3 lo Oo 4 Y De este modo, el sistema tiene la solucién nica x =2, y= —1, 2=3 0 w= (2, —1, 3). (Notese que la forma escalonada de M ya indicaba que la solucién era tnica, puesto que correspondia a un sistema triangular.) 1.10. SISTEMAS DE ECUACIONES LINEALES HOMOGENEOS Se dice que el sistema de ecuaciones lineales [1.3] es homogéneo si todas las constantes son iguales cero, esto es, si tiene la forma Oy1Xy + 412 %2 $ °° + yg X, =O aan + G,2X2 + °° + Gz_X, =O 16 + Oyen Xp ‘De hecho, [1.6] se denomina el sistema homogéneo asociado con el sistema [1.3]. Ay X + Smo Xo + 22 ALGEBRA LINEAL E| sistema homogéneo [1.6] siempre tiene una solucién, a saber, la n-pla nula 0 = (0, 0, ..., 0) lamada Ia solucién nula o trivial. (Cualquier otra solucién, si existe, se denomina solucién no nula © no trivial.) Siendo asi, el sistema siempre puede reducirse a uno homogéneo equivalente en forma escalonada: yy Xy + yp Xq + yy X3 °° + yy X, =O BajaXjz t+ Ga, jraiXjti t+ AagX%q_ =O (1.7) 1, Xj, + Oe, 4p HO + Oy Ky =O Existen dos posibilidades: i) r=n. En tal caso, el sistema tiene solo la solucién nula, ii) r r=1, y el Teorema 1.1 cuando 1. De este modo, el teorema es valido para r= 1. ‘Ahora supongamos que r > I y que el teorema es vilido para un sistema con r— | ecuaciones. Podemos ver las r — 1 ecuaciones aj, Xj, 4 Ga, js iX pon t+ ManXy = ba Xj, + je Ren FF Om hy Dy 28 ALGEBRA LINEAL 1.14, * ii) Sustituimos como un sistema con incognitas x,,, .... ¥,, Notese que el sistema esta en forma escalonada. Por la hipotesis de induccion, podemos asignar arbitrariamente valores a las (1 — ja + 1) — (* — 1) varia~ bles libres en el sistema reducido para obtener una solucién (digamos x), =k). ..., X= hy). Como en el caso r= |, estos valores, junto con valores arbitrarios de las j, — 2 variables libres adicionales (digamos x3 —1), conducen a una solucion de la primera ecuacién con (by = ak, = Aigky) [Obsérvese que hay (1 — j, + 1) — (r= 1) + (jy — 2) = n =r variables libres.] Ademis, estos valores para x,,...,%, también satisfacen las otras ecuaciones ya que, en éstas, los coeficientes de Xs eee Xj, SON nos. Ahora, si r=n, entonces j, = 2. Asi obtenemos, por induccién, una solucién imica del sub- sistema y por ende una solucién Gnica del sistema completo. De acuerdo con esto, el teorema queda demostrado. Hallar la solucién general del sistema escalonado x—2y—324+5s—2= 4 2 6s+3= 2 5t=10 Como las ecuaciones empiezan con las incgnitas x, z y t, respectivamente, las restantes, y y s, son las variables libres. Para encontrar lu solucidn general asignamos pardmetros a las variables libres, digamos y =a y s = b, y utilizar sustitucién hacia atras para despejar las variables no libres x, 2 y i) La Gitima ecuacién conduce a 1 2, s = ben la segunda ecuacién para obtener 22 — 6b + 312) 0 22 6b +6 0 %2=6b-4 0 iii) Sustituimos = 2, 5 = b, z =3h—2, y =aen la primera ecuacién para obtener X= 2a—3(3b—2)4+5b-22)=4 09 x—2a-9h+645b—-4=4 0 x=2at4h42 Asi 3b-2 2a+4b+2 ya 2=3b-2 s=b ¢ ©, equivalentemente, Qa + 4b +2, a, 3b—2, b, 2) es la forma paramétrica de la solucién general Alternativamente, despejar x, z y t en funcién de las variables libres y y s proporciona la solucién general en forma de variables libres: Qyt4s+2 z=3s-2 tH 2 SISTEMAS DE ECUACIONES LINEALES. ELIMINACION GAUSSIANA. 1.15. Resolver el sistema x-d+ re 7 2x — y+42=17 3x—2y +22 = 14 1.16 1.17. 1.18. SISTEMAS DE ECUACIONES LINEALES 29 Lo reducimos a forma cscalonada. Efectuamos —2L, +L7—>Ly y ~3L;+L3>Ls para climinar x de las ecuaciones segunda y tercera y a continuacién efectuamos —4L3 + 3L3—> Ly para climinar y de la tercera ecuacidn. Estas operaciones conducen a x-2yt z= 7 x-tyt z= 7 Byt2z= 3 oy Byt ee 3 4y— z=-7 — z= -33 EI sistema esti en forma triangular y por tanto tras la sustitucin hacia atris, tiene la solucion nica w= (2, —1, 3). Resolver el sistema 2x Sy+32—4s+20= 4 3x— Ty+22-Ss+4r= 9 5x — ly — 524s + Tt = 22 Lo reducimos a forma escalonada. Efectuamos las operaciones —3L, +2L,+L, y ~5L, + 2Ly>L5 y luego —SL, +L, +L; para obtener x Syt 32— 4s + 2= 4 2x—Sy+32—4st2— 4 yr St +H= 6 y y-Sst2s+2= 6 Sy — 252 + 128 + 40 = 24 2s 6t= —6 El sistema esta ahora en forma escalonada. Despejando las primeras incdgnitas, x, yy s, en términos de las variables libres, 2 y f, obtenemos la solucién general en forma de variables libres: < x=2+1lz—15r ya i2+5z2—-81 s=—343t De ésta se obtiene de una vez la forma paramétrica de Ia solucién general (con =264+Mla—15b y=1245a—8b za s=—343b 0 t=b Resolver el sistema x+ Qy—324+40=2 Qxt+ Sy-2et+ t=1 Sx + 12y— Tz + 6t=7 Reducimos el sistema a forma escalonada, Eliminamos x de las ecuaciones segunda y tercera mediante las operaciones —2L, +L; > Ly ¥ —SLy + Ly +L; esto proporciona el sistema x+2y—3r4 d= 2 y+ae— = 3 2y + 82— lat = -3 La operacién —2L, + Ly Ly proporciona la ecuacién degenerada 0 = 3. Siendo asi, el sistema no tiene solucién (incluso a pesar de tener més incognitas que ecuaciones), Determinar los valores de k para que el siguiente sistema, con incdgnitas x, y, 2, tenga: i) una solucién tinica, ii) ninguna solucién, iii) infinitas soluciones. x+ yo ze 2x + By + ke xt ky +3y=2 30 ALGEBRA LINEAL Reducimos el sistema a forma escalonada. Eliminamos x de las ecuaciones segunda y tercera mediante las operaciones —2L, +L, L, y —Ly + Ly —> Ly para obtener xt yo zal yrk+Qe=t &— Dy + 4: Para eliminar y de la tercera ecuacion efectuamos Ia operacion —(k~1)Ly +Ly—>Ly para obtener 1 xty- zel y+ k+22=1 @G4+W2-kz=2-k EI sistema tiene solucién Gnica si el coeficiente de z en la tercera ecuacién es distinto de cero; esto es, sik #2 y k # —3. Enel caso k = 2, la tercera ecuacion se reduce a 0 = 0 y el sistema tiene un nimero infinito de soluciones (una para cada valor de z). En el caso k = —3, la tercera ecuacion se reduce a 0 = 5 y el sistema no tiene solucion. Resumiendo: i) k #2 y k #3, ii) k= —3, iii) k= 2, 1.19. {Qué condicién debe imponerse a a, b y ¢ para que el siguiente sistema, con incégnitas x,y y 2, tenga solucién? .: xhly- 32-4 2x + 6y— Lz =b x—2y+ Te=c Reducimos el sistema a forma escalonada. Eliminando x de las ecuaciones segunda y tercera mediante las operaciones —2L, +L, -+L, y ~L, + Ly Ly obtenemos el sistema equivalente: x+2y— 3220 2y— Sz=b-—2a —4y+ l0z=c—a Eliminando y de la tercera ecuacién mediante la operacién 2) + Ly —+ Ly obtenemos finalmente cl sistema equivalente x+2y-32=0 2y—Sz=b-2a O=c+2b—5a El sistema no tendra solucién sic + 2b — Sa # 0. Asi el sistema tendré al menos una solucién si ¢ + 2b — Sa =0, 0 Sa = 2b + c. Obsérvese que en este caso el sistema tendré infinitas soluciones. En otras palabras, el sistema no puede tener solucion nica MATRICES. MATRICES ESCALONADAS. REDUCCION POR FILAS. 1.20, Intercambiar las filas én cada una de las matrices siguientes para obtener una matriz escalonada: oO 1-3 4 6 0 0 0 0 oO Ont m2 2 4° 0 2 5 -3 1 2 3 4 5 o 3 1 0 0 o 0 7-2 8 \0 0 5 -4 7 o 0 0 0 4 124, 1.22. 1.23, SISTEMAS DE ECUACIONES LINEALES 31 2) Intercambiamos las filas primera y segunda, es decir, efectuamos la operacion elemental entre filas Ry ++ Ry. 1b) Llevamos la fila nula a ta parte inferior de la matriz, es decir, efectuamos la operacion R, +R y luego Ry = Ry ©) Ningun nimero de intercambios de filas puede producir una matriz escalonada. Reducir por filas la siguiente matriz a forma escalonada: 1 2-3 oO A=|2 4-2 2 3 6 -4 3 Utilizamos a,, = 1 como pivote para obtener ceros bajo él; esto es, efectuamos las operaciones centre filas —2R, +R, R; ¥ —3R, + Ry > Rs para obtener la ma 1 2-3 0 0 0 4 2 09 0 5 3 Ahora utilizamos ay = 4 como pivote para obtener un cero bajo él; esto es, efectuamos la operacion entre filas —5R, + 4R,— Ry para obtener la matriz que esta en forma escalonada, Reducir por filas la siguiente matriz a forma escalonada: -4 1 -6 B 1 2-5 6 3 4) Los célculos manuales suelen ser mas simples si el elemento pivote es igual a 1. Por consiguiente, primero intercambiamos Ry y Ra; luego efectuamos 4R, + Ry» R; y ~6R, + Ry Rss y entonces efectuamos R, + Ry > Ry 1 2-5) fi 2 -s\ ft 2-3 B~(-4 1°-6]~{o0 9 -26]~(0 9 -26 6 3 -4/ \o -9 2/ \o 9 4g, La matriz estd ahora en forma escalonada. Describir el algoritmo de reduccién por filas pivotando. Ademés, describir las ventajas, si las hay, de utilizar este algoritmo. El algoritmo de reduccién por filas se convierte en un algoritmo de pivotar si la entrada de mayor valor absoluto en la columna j se clige como el pivote ay,, y si se utiliza la operacion entre filas (Hay Jay, Ri + RR, 32 ALGEBRA LINEAL La principal ventaja del algoritmo de pivotar es que la operacién entre filas anterior s6lo implica division por el pivote ay,, y en las computadoras los errores de redondeo pueden ser sustancial- mente reducidos cuando se divide por un mimero tan grande en valor absoluto como sea posible. 1.24, Usar el algoritmo de pivotar para reducir la siguiente matriz A a forma escalonada: 2-202 2 A=|-3 6 0 =1 1-7 10 2, Primero intercambiamos R, y R; de modo que —3 pueda ser utilizado como el pivote y entonces efectuamos @)R, +R +R, y G)R, + Ry > Ry’ -3 6 0 -1\ /-3 6 0 -1 A~{ 2-2 2 1)~[ 0 2 2 4 1-7 0 3 0-5 0 § Ahora intercambiamos R, y Ry de modo que —5 pueda ser utilizado como el pivote y efectuamos @R, + Ry > Ry -3 6 o -1\ /-3 6 oO -1 An{ 0 -5 10 $]~{ 0 -5 10 § o 2 2 4 0 0 6 1 Se ha levado la matriz a forma escalonada, FORMA CANONICA POR FILAS 1.25, {Cuales de las siguientes matrices estan en forma candnica por filas? 12-3 0 1 o 1 7-5 0} 1 0 5 0 2 0 0 5 2-4 o 0 0 oO 1 O 1d to 4 o 0 0 7 4 o 0 0 O 4g o oo 0 1 4 La primera matriz no esta en forma candnica por filas puesto que, por ejemplo, dos de las entradas principales no nulas son 5 y 7 en lugar de 1. Ademés, hay entradas distintas de cero sobre las entradas principales no nulas 5 y 7. Las matrices segunda y tercera estan en forma canonica por filas. 1.26. Reducir la siguiente matriz a forma canénica por filas: 1.27. SISTEMAS DE ECUACIONES LINEALES 33 Primero reducimos B a forma escalonada efectuando —2R, + R:+Rz y —3R) + Rs Rs ¥ entonces —R, + Rs + Ry yb 2-1 6 4) (2 2-1 6 4 s~(o 0 3-2 5}~fo 9 3-2 5 o o 3 2 7 \o 0 0 4 4 'A continuacién reducimos la matriz escalonada a forma canénica por filas. Especificamente, multiplicamos primero Ry por 3, de modo que el pivote sea bs, = 1. y entonces efecruamos 2Ry +R Rz y —6Rs + Ri + Ry > 2-1 6 4) f2 2-1 0 2D p~(o o 3 -2 5}~fo 9 3 0 6 o 0 o 1 ¥ lo 09 0 1 4 Ahora multiplicamos R, por 4, haciendo el pivote Finalmente, multiplicamos R, por 4 para obtener la forma canénica por filas Reducir la siguiente matriz a forma canonica por filas: 1-2 3 1 2 A={1 1 4 -1 3 2 5 9 -2 8 Primero reducimos A a forma escalonada efectuando —R, +R2—>Rz y —2R, +Rs~Rs ¥ entonces efectuando —3R2 + Rs > Rs 4-2 3 t 4A ft -2 3 1 2 a~(o 3. 1-2 t]~fo 3 1-2 2 o 9 3 -4 4 \o 0 06 2 4 [Ahora utilizamos sustitucién hacia atrés. Multiplicamos R, por £ para obtener el pivote as = 1 y entonces efectuamos 2R; + Ry > Ra ¥ —Ry + RyRy 1-2 3 2 A ft -2 3 0 F a~{o 3 1-2 I]~fo 3 1 0 2 o o o 1 ¥ lo oO O 1 4 34 ALGEBRA LINEAL Ahora multiplicamos R, por } para obtener el pivote ay, yentonces efectuamos 2R, +R, + Ry: 1-2 3 0 #) f1 o ¥ oF gi A~fo 1 $ 0 Jxfo 1 4 0 3 o o o 1 4 Yo 0 0 1 4 Como ay; = 1, la dltima matriz es Ja forma candnica por filas deseada 1.28. Describir el algoritmo de eliminacién de Gauss-Jordan, que reduce una matriz arbitra- ria A a su forma canénica por filas. El algoritmo de Gauss-Jordan es similar al de climinacién gaussiana, salvo que aqui primero se normaliza una fila para obtener un pivote unidad y a continuacién se utiliza el pivote para situar eros tanto debajo como encima de él antes de obtener el pivote siguiente. 1.29. Utilizar la eliminacién de Gauss-Jordan para obtener la forma can6nica por filas de la matriz del Problema 1.27. Usamos la entrada principal no nula a,, = 1 como pivote para poner ceros debajo, efectuando Ry + RyRy y ~2Ry + Rs > Ry; esto proporciona Multiplicamos R, por } para conseguir el pivote a3, = 1 y obtenemos ceros encima y debajo de a;5 efectuando —9R; + Ry +R; y 2Ry + Ry > R, iL ee a i 2 1 0 Y fg A~fO 1 4-4 S)~fo 1 4 -3 4 o 9 3-4 4/ \» 0 0 2 4 Por iltimo, multiplicamos R, por 4 para conseguir el pivote ayy = efectuando ()Ry + Ry +R, y G)Rs + Ry +R, 1 0 # -$ 8) ft + A~{O 1 4 -$ df~fo 1 4 0 4 o o o 1 3 \o o 0 y obtenemos ceros sobre ay, 1.30. Se habla de «una» forma escalonada de una matriz A y de «la» forma canénica por filas de A. {Por qué? ‘Una matriz arbitraria A puede ser equivalente por filas a muchas matrices escalonadas. Por el contrario, con independencia del algoritmo utilizado, una matriz 4 es equivalente por filas a una ‘inica matriz en forma canénica por filas. (El término «andnico» usualmente connota unicidad.) Por ejemplo, las formas canénicas por filas de los Problemas 1.27 y 1.29 son iguales. SISTEMAS DE ECUACIONES LINEALES 35 1.31. Dada una matriz escalonada n x n en forma triangular, Ce ee Oday ays Gaye Oa A=| 0 0 ay3 con todos los a,, #0, hallar la forma canénica por filas de A. Multiplicando R, por 1/aqe ¥ utilizando el nuevo dyy = 1 como pivote obtenemos la matriz ay, 2 yy os Med 0 0 a2 my ° 0 0 a3 0 0 0 0. Obsérvese que la iiltima columna de A se ha convertido en un vector unitario. Cada sustitucién hacia atras subsiguiente proporciona un nuevo vector columna unitario y el resultado final ¢s ‘fo. 0 01. 0 00... 1 es decir, A tiene la matriz identidad, 1, n % n, como su forma candnica por filas, 1.32, Reducir la siguiente matriz triangular con elementos diagonales no nulos a forma cané- nica por filas: 5-9 6 C=l0 2~ 3 o 0 7 Por el Problema 1.31, C es equivalente por filas a la matriz identidad. De forma alternativa, por sustitucion hacia attas, is 9 6\ /s -9 o\ /s -9 Oo} /s 0 OW fi oO oO c~{o 2 3}~fo 2 ofxfo 1 of~fo 1 O}~fo 1 0 o o 1 \o o vy lo o Y lo o Ff oO Oo Ff SISTEMAS DE ECUACIONES LINEALES EN FORMA MATRICIAL 1.33, Hallar la matriz ampliada M y la matriz de coeficientes A del siguiente sistema: x+2y—32 By 42 + Tx 6 + 8x —9y 36 ALGEBRA LINEAL Empezaremos alineando las inedgnitas del sistema para obtener xt 2y—32—4 Tx + By = 4 8x — 9p + 6% Entonces 1 2-3 4) 12 -3 M=|7 3 -4 5 y A=|7 3 -4 8-9 6 | 8-9 6) 1.34. Resolver, utilizando la matriz ampliada, x—2y+42=2 Reducimos la matriz ampliada a forma escalonada: 1-2 4 Nh ft 2 4 2) 2-3 5 3}[0 1-3 -1 3-4 6 7 \o o 0 3 La tercera fila de la matriz escalonada corresponde a la ecuacién degenerada 0 = 3; en consecuencia, al Sistema no tiene solucién, 1.38. Resolver, utilizando la matriz ampliada, x +2y —3z—2s + 4t 2x +Sy—8e— st6t=4 x+4y—Te+ 55+ 2=8 Reducimos la matriz ampliada a forma escalonada y luego a forma canénica por filas: 1 2--3 -2 4 WN ft 2-3 -2 4 1) ft 2-3 -2 4 205-8 -1 6 4}~fo 1-2 3 -2 2}J~fo 1 -2 3 -2 2|e 14-7 5 2 8 \o 2-4 7-2 74 \o 0 0 1 2 3 12-3 0 8 WN ft o 1 0 2m a ~{O 1-2 0 -8 -7])~(0 1 -2 0 ~8 ~7 o 9 09 1 2 FY \o 0 o 1 2 yg Asi la solucion en forma de variables libres es xt 24+24= 2 21 2-24 Y-%- &=-7 6 T+ 224 8 s+ Ua 3 3-2 donde z y 1 son las variables libres. SISTEMAS DE ECUACIONES LINEALES 37 1.36. Resolver, utilizando la matriz ampliada, x+2y— 2 x+3ye 2 3x + 8y+42=17 Reducimos la matriz ampliada a forma escalonada y luego a forma candnica por filas: ho 2-1 3) fp 2-1 a) ft 2-1-3) fi 2-1 3 3 1 sl~xfo 1 2 2}efo 1 2 2frfo 1 2 2)~ 3 8s 4 i \o 2 7 8 \o 0 3 4 \o o 1 4, 1 2 0 ¥\) ft o 0 ¥ ~{o 1 0 -3}]~{0 1 0 -3 o 0 4] \o o 1 4 El sistema tiene la solucién nica x = 12, y= -3,2=40u= (9. —3, 4). SISTEMAS HOMOGENEOS 1.37. Determinar si cada uno de los sistemas siguientes tiene una solucién no nula. x+2y- 2=0 x—2y + 32-2 =0 x+2y—32=0 2x + Sy +22=0 3x — Ty —22 + 4w =0 Ix + Sy+22=0 x+4y+72=0 4x + 3y + 52+ 2w=0 3x-— y—4z=0 x4 3y4+32=0 a) 6) 9 a) El sistema debe tener una solucién no nula puesto que hay mas inc6gnitas que ecuaciones. b) Reducimos a forma escalonada: x+2y-32—0 x+2y—32=0 a yt8e a y+8 —Ty +52 En forma escalonada hay exactamente tres ecuaciones con tres incdgnitas; por tanto, el sistema tiene una solucién tinica, la solucion nula. c) Reducimos a forma escalonada: x+2y- z=0 2x + Sy +22 a x+2y— 2=0 x+ay+72= y+4r=0 xt 3y432 En forma escalonada hay sdlo dos ecuaciones con tres incégnitas; por consiguiente, el sistem= tiene una solucién no nula, 38 ALGEBRA LINEAL 1.38. Encontrar la dimension y una base para la solucion general W del sistema homogéneo X+ 3y—22+ Ss—3t=0 Ix+ Ty—32+ 7s—St=0 3x + Ily— 42 + 105-91 =0 Mostrar como la base da la forma paramétrica de la solucién general del sistema. Reducimos el sistema a forma escalonada. Efectuamos las operaciones ~2L,+L,~L2 y —3L,+L3+Ly y entonces —2L, + Ly +L, para obtener xt 3y—2z45s—3¢ yt z-3stt 2y +22 — $5 x+3y—2z45s—3t=0 y yt 23st 120 s-2=0 En forma escalonada, cl sistema tiene dos variables libres, z y 1; por ende, dim W=2. Pucde obtenerse una base [u,, 14] para W como sigue: 1. Hacemos 2 = 1, ¢= x= 5, Por tanto, u; La sustitucién hacia atras proporciona s = 0, luego y = —1 y después 5, =1, 1, 0, 0). 2. Hacemos 2=0, t= 1. La sustitucién hacia atrés proporciona s = x= —22. Por consiguiente, u, = (—22, 5, 0, 2, 1), . luego y= 5 y después jamente, obtenemos au; + bu, = a{5, —1, 1, 0, 0) + (22, 5, 0, 2, 1) = (Sa — 22b, —a + 5b, a, 2b, b) Multiplicando los vectores de la base por los parametros a y b, respet Esta es la forma paramétrica de Ia solucion general. 1.39. Hallar la dimension y una base para Ja solucién general W del sistema homogéneo x+2y—37=0 2x + Sy +22 =0 3x— y-4r=0 Reducimos el sistema a forma escalonada. Del Problema 1.37 b) tenemos x4 2y—32 yt8r 61z=0 No hay variables libres (el sistema est en forma triangular). Luego dim W 0 y W no tiene base. Especificamente, W/ consiste sélo en la solucién nula, W = {0} 1.40. Encontrar la dimensién y una base para la solucién general W del sistema homogéneo 2x + 4y— 524+36=0 3x+ 6y— 1z+40=0 Sx + ly — 112 + 6 =0 141. SISTEMAS DE ECUACIONES LINEALES 39. Reducimos el sistema a forma escalonada. Efectuamos —3L, + 2L)-r La y —SLy + 2b + La y entonces —3L, + Ly + Ly para obtener 2x +4y—S24+3r=0 z—t=0 ¥ 32-3=0 2x + 4y— S24 3=0 z- t=0 En forma escalonada, el sistema tiene dos variables libres, y y 1; por consiguiente, dim W = 2. Una base {u,, u,} de W puede obtenerse como sigue: 0. La sustitucion hacia atras proporciona la solucién 1, =2,1, 0, 0), 1. La sustitucion hacia atrés proporciona la solucion u» = (1.0. 1, 1). 1, Tomamos y 2. Tomamos y Considérese el sistema x—3y-2+4r= $ 3x — By — 32 + Br = 18 2x —3y +52 —4t= 1 a) Hallar la forma paramétrica de la solucion general del sistema. b) Mostrar que el resultado de a) puede reescribirse en la forma dada por el Teo- rema 1.11. a) Reducimos el sistema a forma escalonada. Efectuamos ~3L, + Ly Ly y —2L, + Ls Ls y entonces —3L + Ly + Ly para obtener xoBy-2r+ 4s y+3e— Ma 3y+92—12t yet r= 5 yt3e—40=3 ay t=b, donde a y b son 14 — Ta + 8b. En forma escalonada, las variables libres son z yt. Tomamos = pardmetros. La sustitucién hacia atras proporciona y = 3 — 3a + 4b y entonces De este modo, la forma paramétrica de la solucién es 14-7048) y=3—3a+4b ) b) Sea vy = (14, 3, 0, 0) el vector de términos constantes en (#): sea uw, =(—7, —3, 1, 0) el vector de coeficientes de a en.{+), y sea u, = (8, 4, 0, 1) el vector de cveficientes de b en (#). Entonces la solucion general (#) puede reescribirse en forma veetorial como (es Oy tay + buy (+) A continuacidn probamos que (#*) es la solucién general del Teorema 1.11. En primer lugar, notese que v ¢s la solucion del sistema inhomogéneo obtenido haciendo a =0 y b= 0. Consideremos el sistema homogéneo asociado, en forma esealonada: 244 =0 yr3e—4=0 x-3y Las variables libres son = y 1. Hacemo: y t=0 para obtener la solucién 1, =(—7, —3, 1,0). Hacemos ahora z =0 y t = | para obtener la solucién w, = (8, 4, 0, 1). Por el Teorema 1.10, [ur,. uy} €8 una base del espacio solucién del sistema homogéneo asociado. Entonces (++) tiene la forma deseada. 40 ALGEBRA LINEAL PROBLEMAS VARIOS 1.42. 1.43, 1.44. 1.45, Demostrar que cada una de las operaciones elementales [E,], [E:], [Es] tiene una opera- cién inversa del mismo tipo. [£,] Intercambiar las ecuaciones i-ésima y j-ésima: Lj Ly {£,] Multiplicar la ecuacién i-ésima por un escalar no nulo k; kL; Ly, k #0. {Es} Sustituir la ecuacién i-ésima por ella misma mas k veces la j-esima: kL, +L, L, a) Intercambiando el mismo par de ecuaciones dos veces obtenemos el Lier L; es su propia inversa 5) Multiplicando Ia i-ésima ecuacién por ky luego por k~', 0 por k~! y luego por k, obtenemos el sistema original. En otras palabras, las operaciones kL,—> L; y k~!L, + L, son inversas. ©) Efectuando la operacion kL; +L; 1, y luego la —kL; + L;—»L;, 0 viceversa, obtenemos el sistema original. En otras palabras, las operaciones kL; +L,>L; y —kL;,+L,—L; son inversas, istema original. Esto es, Demostrar que el efecto de ejecutar la siguiente operacién [E] puede obtenerse efectuando [£2] y luego [E3] (E] Sustituir la ecuaci6n i-ésima por k (no nulo) veces ella misma mas K’ veces la j-esima: KL, +kL, > L;, k #0. Bfectuar kL;-+ L, y luego k'L, + L;+ L, conduce al mismo resultado que efectuar la operacién RL, + kL, Ly Supongamos que cada ecuacién L; en el sistema [1.3] se multiplica por una constante ¢, Y que las ecuaciones resultantes se suman para dar (xan Hoe Cm dae Ho + (Cnty FoF Cong) Xn = CDE Ho + Cg O] Tal ecuacion se denomina una combinacién lineal de las ecuaciones L,, Demostrar que cualquier solucién del sistema [1.3] es también solucién de la combinacién lineal [1]. ‘Supongamos que w= (ky, Kay... ky) €8 una solucion de [1.3] inky + diaky bo + digky = be E= Lys m) fe] Para probar que u es una solucién de [1] debemos verificar la ecuacién (ends Hoe + eda Rs HoH Cra +t Cin) g = 4B + CP Pero ésta puede arreglarse de la forma e1(@yr ky agg) Fo + egy FE Shy) = 1B, Hm Caw © por [2] Cyby Hoe ted = Crd, Hs CO que es claramente una expresién cierta. Supéngase que un sistema de ecuaciones lineales (#) se obtiene a partir de otro (#) mediante la ejecucién de una sola operacién elemental —[E,], [E,], 0 [E3]—. Demostrar que (#) y (#) tienen todas las soluciones en comin. 1.46. 1.47, SISTEMAS DE ECUACIONES LINEALES 41 Cada ecuacion de (74) es una combinacién lineal de ecuaciones de (+). Por tanto, por el Problema, 1.44, cualquier solucién de («) sera solueién de todas las ecuaciones de (#). Dicho de otro modo, el conjunto solucién de (+) esta contenido en el de (#), Por otra parte, como las ‘operaciones (E,}, [Ea] y [Es] tienen operaciones elementales inversas, el sistema (+) puede obtenerse del (#) por medio de una sola operacion elemental. De acuerdo con ello, ef conjunto solucién de (#) esté contenido en el de (+). Siendo asi, (#) y (#) tienen las mismas soluciones. Demostrar el Teorema 1.4. Por el Problema 1.45, cada paso deja inalterado el conjunto solucién. Por tanto, el sistema original (#) y el final («) tienen el mismo conjunto solucién. Probar que las tres afirmaciones siguientes, relativas a un sistema de ecuaciones lineales, son equivalentes: i) El sistema es compatible (tiene solucién). i) Ninguna combinacién lineal de las ecuaciones es la ecuacion Ox, + 0x; +++ + 0%, = b #0 oy iii) El sistema es reducible a forma escalonada. Si el sistema es reducible a forma escalonada, dicha forma tiene una solucion y por ende la tiene el sistema original. Ast iti) implica i). ‘Si el sistema tiene una solucién, por el Problema 1.44 cualquier combinacién lineal de las ‘ecuaciones tiene también una solucién. Pero (#) no tiene solucién, luego no es combinacion lineal de las ecuaciones. Asi i) implica ii) Finalmente, supongamos que el sistema no es reducible a forma escalonada. Entonces en el algoritmo gaussiano debe dar una ecuacién de la forma (+). Por consiguiente, (+) es una combi- nacion lineal de las ecuaciones. Asi no- iii) implica no- ii) 0, equivalentemente, ii) implica iii. PROBLEMAS SUPLEMENTARIOS RESOLUCION DE ECUACIONES LINEALES 1.48, 1.49, 1.50, Resolver: 2x +3y=1 2x +4y =10 4x —2y satya ax4eynis 9 6x4 3y Resolver: k- y-k= 5 2x +3y-22=5 xt2y+ 32=3 a) 3x—2y+22 5 bd) x—2y+3r—2 ©) we+3yt+ Br=4 Sx—3y-— z= 16 ax— y+ar= 3x+2y+17z=1 Resolver: dx 43y=3 x+2y—324+2t=2 xt2y- 243=3 a x-2y by) 2x + Sy—824+6r=5 co) Ix + 4y +424 3 x 3x4+2y=7 3x ¢4y—Se+2=4 3x+6y— 2+ 81=10 42 ALGEBRA LINEAL L51. Resolver: xtyti= 2 Sx-2y- z= 5 2x — Sy +32= —4 xt4y4+6=0 xtSy+42—13t=3 BD) 3x yet Stem? Ix tIy+32— Atal a) SISTEMAS HOMOGENEOS 1.52. Determinar si cada uno de los siguientes sistemas tiene una soluci6n no nula: x+3y-22=0 x+3y—22=0 xt 2y—S244t=0 a) x—8y+82=0 b) 2x—3y+ 2=0 o) Wx 3y 42 $3 3x—2y+42=0 3x —2y +22 =0 ax —Ty+ 2-61 0 1.53. Hallar la dimension y una base para la solucién general W de cada uno de los sistemas siguientes. xt Byt 2e-s— t=O Ix— dy +32— 5+2t=0 a) + byt Sets— b) 3x- 6y+5z—254+4=0 Sx + 1Sy+ 122 +5—3¢=0 Sx—10y +72 — 38+ MATRICES ESCALONADAS Y OPERACIONES ELEMENTALES ENTRE FILAS 1.54, Reducir A a forma escalonada y luego a su forma canénica por filas, siendo 1 2-1 2 2 2 3-2 5 2 ag A=[2 4 1-2 3 Bb A=(3 -1 2 0 4 3 6 2-6 § 4-5 6-5 ], 1.55. Reducir A a forma escalonada y Iuego a su forma canénica por filas, siendo a 3-1 2 ‘0 1 3-2) Oo Wm -5 3 0 4-1 3 @ Aly a 3) 1 Y4=lo 9 1 1 4 1 1 5) 0 x 4 1.56. escribir todas las matrices 2 x 2 posibles que estén en forma escalonada reducida por filas. 1.57, Supéngase que A es una matriz cuadrada escalonada reducida por filas. Demostrar que si A # J, la matriz identidad, A tiene una fila nula. 1.58. Demostrar que cada una de las operaciones elementales entre filas siguientes tiene una operacién inversa del mismo tipo. [E,] Intereambiar las filas i-ésima y j-tsima: RR, [E,] Multiplicar la fila #-ésima por un escalar no nulo k: kR;-> Ri, k #0. [Es] Sustituir la fila i-ésima por ella misma mas k veces la j-ésima: kR, + R, + Ry SISTEMAS DE ECUACIONES LINEALES 43, 1.59. Demostrar que la equivalencia por filas es una relacién de equivalencia: i) Aes equivalente por filas a A. ii) Si A es equivalente por filas a B, entonces B es equivalente por filas a A. i) Si A es equivalente por filas a B y B es equivalente por filas a C, entonces A es equivalente por filas a C. PROBLEMAS VARIOS « |S® Considérense dos ecuaciones lineales generales con dos incdgnitas x e y sobre el cuerpo real R: ax tby=e extdy=f Demostrar que: ab de—bf i) si-# 7 es decir, si ad — be #0, entonces el sistema tiene la solucién Gnica x adobe’ ad — be face, ad — be’ F ble ; ; i) si a * 7 entonces el sistema no tiene solucién; bie 5 “ iti) si an z entonces el sistema tiene mas de una solucion. 161. Considérese el sistema ax + by extdy= Demostrar que si_ad — be #0, entonces el sistema tiene la solucién tinica x = d/(ad — be), y = —c/(ad — be). Demostrar también que si ad — be = 0, ¢ # 0 0 d # 0, entonces el sistema no tiene solucién. 1.62. Demostrar que una ecuacién de la forma 0x, + Ox, + = + Ox, de un sistema sin alterar el conjunto solucion. 0 puede aftadirse 0 suprimirse 1.63. Considérese un sistema de ecuaciones lineales con el mismo niimero de ecuaciones que de inedgnit yy Xp ya X eb + aye = by 4g, Xy + yg Xp H+ + yg Xy = Dy ete ul gy + ya Xa HF an Xa i) Suponiendo que el sistema homogéneo asociado tiene s6lo la solucién nula, probar que [1] tiene una solucién Gnica para cada eleccin de las constantes by. ii) Suponiendo que el sistema homogéneo asociado tiene una solucién no nula, probar que existen constantes b, para las que [I] no tiene solucidn. Demostrar también que si [1] tiene una solucién, entonces tiene mas de una. 1.64, Suponiendo que en un sistema de ecuaciones lineales homogéneo los coeficientes de una de las incégnitas son todos nulos, demostrar que el sistema tiene solucién no nula, 44 ALGEBRA LINEAL RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 1.48, a) b) —2a,y =a; e) sin solucién. -l-% 1.49. a) (1, ~3, 2); 5) sin solucién; —¢) (~1-7a2+2aa) 0 2420 x= 242 y=t+2: 1.50. a) x=3, y= b) (-a+2b,14+2a—2b,a,b) 0 { 2t ©) G=5b/2—2a, a, 4+b)2,b) 0 f LS1. a) (1-1); b) sin solucién. a) sy 6) no; ¢)._ si, por el Teorema 1.8. 3 =(—3, 1,0, 0, 0), w, 7,0, —3, 1, 0), us = G, 0, —1, 0, 1). . 1, 0, 0, 0), 0, 5, -3, 1). 1204 Bh monexa. ag 3-6 1) y {0 0 1 06 oj; ~6 |, 0 0 o 1 = 205 10 # & # 1 15 ; y fo 1 -B Boe o 0 o 0 0 0 oO -1 10 & # 3 3 oO 1k B o of * Jo o 0 of 0 9 0 0 0 oO 3-2 rr) -B oo 1 0 0 35 P, 0 0 0 1 0 9 0 0 0 9 CAPITULO 2 Vectores en R’ y C’. Vectores espaciales 2.1. INTRODUCCION En varias aplicaciones fisicas aparecen ciertas cantidades, tales como temperatura y rapidez (médulo de la velocidad), que poseen sélo «magnitud». Estas pueden representarse por niimeros reales y se denominan escalares. Por otra parte, también existen cantidades, tales como fuerza y velocidad, que poseen tanto «magnitudy como «direcciém». Estas pueden representarse por lechas (que tienen longitudes y direcciones apropiadas y parten de algiin punto de referencia dado, 0) y se denominan vectores. Comenzamos considerando las siguientes operaciones con vectores. i) Suma: La resultante u+¥ de dos vectores u y v se obtiene por la llamada ley del paralelogramo; esto es, uw + ¥ es la diagonal del paralelogramo determinado por u y v. como se muestra en la Figura 2-1(a). ii) Producto por un escalar: El producto ku de un néimero real k por un vector u se obtiene multiplicando la magnitud de u por k y manteniendo la misma direccién si k > 0, 0 la direccién opuesta si k <0, tal y como se muestra en la Figura 2-1(b). Suponemos que el lector estd familiarizado con la representacion de puntos en el plano mediante pares ordenados de niimeros reales. Si se elige el origen de los ejes como el punto de referencia O mencionado mas arriba, todo vector queda univocamente determinado por las coordenadas de su extremo. La relacién entre las operaciones anteriores y los extremos es la siguiente. i) Suma: Si (a, b) y (¢, d) son Ios extremos de los vectores u y v, entonces (a + ¢, b + d) serd el extremo de u + ¥, como se muestra en la Figura 2-2(a). ii) Producto por un escalar: Si (a, b) es el extremo del vector u, entonces (ka, kb) sera el del vector ku, como se muestra en la Figura 2-2(b). 45 46 ALGEBRA LINEAL Bu 0, y en la direccién opuesta si k <0. 2.4. VECTORES Y ECUACIONES LINEALES Dos importantes conceptos relativos a vectores, las combinaciones lineales y la dependencia lineal, estin estrechamente relacionados con los sistemas de ecuaciones lineales, como se vera a continuacién. COMBINACIONES LINEALES Consideremos un sistema inhomogéneo de m ecuaciones con n incognitas: My Xp + Oy Xy tt yaXy yy Xp + ga Xa too + yg Xy Got X41 + Oyen Xp + °° + Oyun Xq Este sistema es equivalente a la siguiente ecuacién vectorial: a a2! by a, a, b, xa! | +x] “2 =|? ot, ma A 6, esto es, la ecuacién vectorial XyUly + ply H+ + XA, = donde uy, uz, -.., ty, B Son los vectores columna anteriores, respectivamente. ' Si el sistema en cuestién tiene una solucion, se dice que v es una combinacién lineal de los veetores u,. Establezcamos formalmente este importante concepto. VECTORES EN R” Y C”. VECTORES ESPACIALES 49 Definicion: Un vector p es una combinacidn lineal de vectores 1, U2, ...» ty Si existen escalares Ig. Kay sues ky tales que b= kyuy + hyg + + tly esto es, si la ecuacion vectorial » Nyy FXpUy Ho + Nally tiene una solucién cuando los x; son escalares por determinar. La definicion anterior se aplica tanto a vectores columna como a vectores fila, aunque se haya ilustrado en términos de vectores columna. EJEMPLO 2.2. Scan 2 1 1 1 v=| 3}, uy =|}, w,=|1 y us ={0 -4 1, 0) 0 Entonces v es una combinacién lingal de u,, uz ¥ uy ya que la ecuacion vectorial (0 sistema) 2 1 1 1 Dextytz 3}=x1)+t}+0) 0 Bexty -4 i \o \o, -4ex tiene una solucién x = —4, y = 7, 2 = —1. En otras palabras, du, + Tua — uy DEPENDENCIA LINEAL Consideremos un sistema homogéneo de m ecuaciones con n incdgnitas: yy Xp + yap to + ine Gz, X, + Ga2%2 +" Ga X4 + Amz Xz + °° + San Xn Este sistema es equivalente a a siguiente ecuacion vectorial: ayy 412) ain\ [0 50 ALGEBRA LINEAL esto es, aly Hb Natty be + Xytly donde u,, 3, ..., ty, Son los Vectores columna anteriores, respectivamente, Si el sistema homogéneo anterior tiene una solucién no nula, se dice que los vectores Wy, tgs «++» ty SOM linealmente dependientes. Por el contrario, si el sistema tiene s6lo la solucién nula, se dice que los vectores son linealmente independientes. Enunciemos formalmente este importante concepto, Definicion: Los vectores u,, uz, ..., 4, en R" son linealmente dependientes si existen escalares ey, ka, sees hy» NO todos nulos, tales que Kyuy + kt + + kyu, =0 esto es, si la ecuacién vectorial Xl + Xata + + Xylly = 0 tiene una solucién no nula donde los x, son escalares por determinar. En caso contrario, se dice que los vectores son linealmente independientes. La definicién anterior se aplica tanto a vectores fila como a vectores columna, aunque se haya ilustrado en términos de vectores columna: EJEMPLO 2.3 a) La Ginica solucion de fy fy fo xty+ x{t}+oft}+eo}=(0] 0 4x4y 1} \of \of \o, x es la solucién nula x = 0, y= 0, 2 = 0. De aqui los tres vectores son linealmente independientes b) La ecuacién vectorial (o sistema de ecuaciones lineales) r 2 1\ fo x+2y+ 2=0 xt}+y-1}+4-s]=(0] 0 4x- y—sz=0 1 4 3} \o x+3y+32=0 tiene una solucién no nula (3, —2, 1), esto es, x= 3, y son linealmente dependientes. 2, z= 1. De este modo, los tres vectores 2.5. PRODUCTO ESCALAR Sean u y v vectores de R" WE (ys Way coy My) YB yy Bay 205 Uy) VECTORES EN R” YC”. VECTORES ESPACIALES 51 El producto escalar 0 interno de u y v, denotado por u-v, es el escalar obtenido multiplicando las componentes correspondientes de los vectores y sumando los productos resultantes: UD = Uy dy + MD, +o + Dy Se dice que los vectores u y v son ortogonales (o perpendiculares) si su producto escalar es cero, esto ¢s, si uv = 0. EJEMPLO 2.4. Scan w= (I, —2. 3, —4), 0 = (6,7, 1, —2¥ w= (5, —4, 5, 7). Entonces weve 6 + (—2)° 7431+ (4) (2 = 6-14 4348 = wwe l-S4(-2)*(—4) $3154 (497 = 548+ 15-28 = 0 Entonees u y w son ortogonales. Las propiedades basicas del producto escalar en R" (demostradas en ef Problema 2.17) son las siguientes. Teorema 2.2: Para vectores arbitrarios u,v, weR” y cualquier escalar keR, i) tow ii) (ku)-v = k(u-v) iv) weueO,yu-u=Osiysdlosiu=0 wow iii) u-v=o-w Nota: El espacio R", con las operaciones anteriores de suma vectorial, producto por un escalar y producto interno, se suele Hamar n-espacio euclideo 2.6. NORMA DE UN VECTOR Sea u = (Uys Ug) ---5 Uy) UN vector en R*. La norma (0 longitud) del vector u, escrito |u|], se define como la raiz cuadrada no negativa de u-u: ju) = furu= fab dt tu Como uu > 0, la raiz cuadrada existe. Ademas, si u #0, entonces ||ul) > 0; y |i0l| = 0. La definicion anterior de norma de un vector se ajusta a la de longitud de un vector (flecha) en geometria (cuclidea). Concretamente, supongamos que u es un vector (flecha) en el plano R™ con extremo P(a, b), como se indica en la Figura 2-3. Entonces [al y [>| son las longitudes de los lados del tridngulo rectangulo determinado por u y las direcciones horizontal y vertical Por el Teorema de Pitégoras, la longitud [ul de u es {ul Je+P Este valor es igual a la norma de u anteriormente definida. 52° ALGEBRA-LINEAL Figura 2-3. EJEMPLO 2.5. Supongamos u=(3, —12, —4). Para hallar |ul, calculamos primero full? =w-u clevando al cuadrado las componentes de u y suméndolas |ull? = 3? + (—12)? + (-4)? =9 + 144 + 16 = 169 Entonces |ul| = \/169 = 13. Un vector u es unitario si |u|] =1 0, equivalentemente, si u-w=1. Ahora bien, si v es cualquier vector no nulo, entonces s un vector unitario en la misma direccién que v. (El proceso de hallar # se lama normalizar wv.) Por ejemplo, fa v 2 lt 8 = Wel (is Fs 102 Fa) es el vector unitario en la direccién del vector v = (2, —3, 8, —5). Establecemos ahora una relacién fundamental (demostrada en el Problema 2.22) conocida como desigualdad de Cauchy-Schwarz, Teorema 2.3 (Cauchy-Schwarz) Para vectores cualesquiera u, v en R", [uo] < lull oll. Utilizando la desigualdad anterior probaremos (Problema 2.33) el siguiente resultado, conocido como desigualdad triangular 0 de Minkowski. Teorema 2.4 (Minkowski): Para vectores arbitrarios u, v en R’, |\u + ul] < jul) + [lv] DISTANCIA. ANGULOS. PROYECCIONES. Sean w= (uy, tg, 4 th) YU = (01, Pay «+5 Uy) Vectores en R. La distancia entre w y v, denotada por d(u, v), se define como du, 0) = Iu — vf = J(u, — vy)? + (uy — 0? + +H, — VECTORES EN R” Y C”. VECTORES ESPACIALES 53 Probamos que esta definicién corresponde a la nocién usual de distancia euclidea en el plano R®. Consideremos u = (a, b) y v = (¢, d) en R®, Como se muestra en la Figura 2-4, la distancia entre los puntos P(a, b) y Qc, d) es d= f@—-F + 6-aP Por otra parte, utilizando la definicién anterior, du, ») = ju ol = a6 b- dl = Ja- +O Ambas definiciones conducen al mismo valor. Figura 2-4. Usando la desigualdad de Cauchy-Schwarz podemos definir el angulo 0 entre dos vectores no nulos u, ven R® segun uo cos 6 luiihell Nétese que si u-v = 0, entonces @ = 90° (0 @ = n/2). Esto esta de acuerdo con nuestra definicion previa de ortogonalidad. EJEMPLO 2.6. Supongamos =(1, 2,3) yv=G, —5, —7). Entonces du, v) = (1 — 3? + (—2 + 5 + B+ TF = 4 +9 + 100 = /113 Para hallar cos 0, donde @ es el angulo entre u y v, caleulamos primero uro=34+10-21=-8 (uj? =14+449=14 ol? =9 +25 +49 = 83 En tal caso ue =8 tee A, — ull oll J14/83 Sean u y v #0 vectores en R". La proyeccién (vectorial) de u sobre v es el vector net roy (u,v) = al Tol? 54 ALGEBRA LINEAL Probamos ahora que esta definicién se ajusta a la nocién de proyeccién vectorial utilizada en fisica. Consideremos los vectores u y v de la Figura 2-5. La proyeccién (perpendicular) de = sobre v es el vector u*, de magnitud uy wy [u* fully} Iv [cos @ = |u| Para obtener u* multiplicamos su magnitud por el vector unitario en la direccién v: Figura 2-5, EJEMPLO 2.7. Supongamos u = (I, —2, 3) y p= (2, 5, 4). Para encontrar proy (u,v), primero hallamos —10+12=4 y — fol? =44 254+ 16=45 Entonces won nt asgu (8, % #)_(8 4 16 Prey = Tape ag OO Y= (as a5 as) ~ las" O° a5 2.7. VECTORES LOCALIZADOS, HIPERPLANOS Y RECTAS EN R"™ Esta seccién distingue entre una m-pla P(d,, a3, ..., d,) = P(a;) vista como un punto de R" y una n-pla v= [c;, C25... Gq] vista como un vector (flecha) desde el origen O hasta el punto Cle, ¢3, ---5 ¢y). Cualquier par de puntos P = (a,) y Q = (b,) en R" define el vector localizado 0 segmento dirigido de P a Q, escrito PQ. Identificamos PO con el vector = Q— P= by ay, by — ay, 2b, ~ a] ya que PQ y v tienen la misma magnitud y direccién, tal y como se muestra en la Figura 2-6. Un hiperplano H en R" es el conjunto de puntos (x, x3, ..., X,) que satisfacen una ecuacién lineal no degenerada 1X) + agxy t+. =b S VECTORES EN R” Y C”. VECTORES ESPACIALES 55 Figura 2-6. En particular, un hiperplano H en R? es una recta, y un hiperplano H en R3 es un plano. El vector w= [4,, dp, ..., dy] #0 recibe el nombre de normal aH. El término esta justificado por el hecho (Problema 2.33) de que cualquier segmento dirigido PO, en el que Py Q pertenecen a H, ¢s ortogonal al vector normal u. Esta propiedad, en el caso de R®, se muestra en la Figura 2- Figura 2-7. La recta L en R" que pasa por el punto P(a,, a2, ..., a,), en la direccién del vector no nulo = [iy, t135 -++5 gh estd constituida por los puntos X(x;, X3, ...5 X_) que satisfacen X=P+mu 0 donde el pardmetro 1 toma todos los valores reales. (Véase la Figura 2-8.) 56 ALGEBRA LINEAL Figura 2-8. EJEMPLO 2.8 a) Consideremos el hiperplano H en R" que pasa por el punto P(1, 3, —4, 2) y es normal al vector u=[4, —2, 5, 6] Su ecuacidn tiene la forma 4x —2y S24 6t= Sustituyendo P en esta ecuacién obtenemos 4()) — 28) + 5(-4) + 62)=k 0 4=6-20412=k 0 k=-10 Asi 4x — 2y + 52 + 61 = —10 es la ecuacién de H. by Consideremos la recta L en R* que pasa por el punto P(1, 2, 3, —4), en la direccién de w = [5, 6, —7, 8} Una representacion paramétrica de L es la siguiente: mal45e ame (14 51.24 61,3— 7, —4 +80) xy=3-7 eeEGR IT 448 Nétese que = 0 proporciona el punto P en L. CURVAS EN R" Sea D un intervalo (finito o infinito) en la recta real R. Una funcion continua F: D> R® es una curva en R". De este modo, a cada t€D se le asigna el siguiente punto (vector) en R" F(t) = (Fi), Fold)... FO] ‘Ain mas, la derivada de F(t) (si existe) proporciona el vector V(t) = dF(0\/de = [dF ,(o)/de, dF ,(0)/dt, ..., dF ,(0)/dt} VECTORES EN R” Y C”, VECTORES ESPACIALES 57 que es tangente a la curva, y la normalizacion de V(t) conduce a vo Ivo que es el vector unitario tangente a la curva, (Los vectores unitarios se denotan a menudo en negrita, Véase la Seccién 2.8,] T(t) EJEMPLO 2.9. Consideremos la siguiente curva C en R°: F(t) = [sen t, cos 1) Tomando la derivada de F(z) {o de cada componente de F(f)] se obtiene ve = [cos t, —sen t, 1] que es un vector tangente a la curva. Normalizamos V(t). Primero obtenemos |IV(2)|7 = cos? 2 + sen? r+ 1+1=2 Entonces Vv 4 nw ( [= sont 1 “Wwoi Ly" Va que es el vector unitario tangente a la curva. 2.8. VECTORES ESPACIALES. NOTACION ijk EN R® Los vectares en R®, denominados vectores espaciales, aparecen en numerosas aplicaciones, especialmente en fisica. De hecho, frecuentemente se utiliza una notacidn especial para tales veotores, que es la que se da a continuacién: (1, 0, 0) denota el vector unitario en la direccion x (0, 1, 0) denota el vector unitario en Ia direecién y k (0, 0, 1) denota el vector unitario en la direccion z En consecuencia, cualquier vector u = (a, b, c) en R? puede expresarse de forma tinica como sigue: u=(@, b,c) ai + bjt ck Como i, j, k son vectores unitarios y son mutuamente ortogonales, tenemos kek=1 e¢ =0, itk=0, j-k=0 Las diversas operaciones vectoriales discutidas previamente pueden expresarse en la presente notacin como sigue. Supongamos u = ayi + a,j + ask y v= byi + baj + byk. Entonces ut 0 =(a, + bi + (a; + bai + (as + bS)k usv= a,b, + 4;b, + ayb, ca;i + ca,j + cask Wall = furu= fa? +a) + a3 cu donde c es un escalar. 58 ALGEBRA LINEAL EJEMPLO 2.10. Considérense los vectores u = 31 + 5j— 2k y v= 4i— 3 + 7k a) Para hallar u +» sumamos las componentes correspondientes obteniendo ut Ti+ 24 5k b) Para hallar 3u — 20, primero multiplicamos los vectores por los escalares y después los sumamos: 3u~ Iv = (Bi + 15] — 6k) + (—8i + 6j — 14k) = 4i + 215 — 20K ¢) Para hallar w+» multiplicamos las componentes cortespondientes sumindolas después: woe l2-15-14=-17 d)_ Para hallar |u| elevamos al cuadrado cada componente y después las sumamos obteniendo |uj?. Esto es, uJ? =942544=38 yy portanto — [ull = /38 PRODUCTO VECTORIAL Existe una operacién especial para vectores u, v en R*, llamada producto vectorial y denotada por u x v. Especificamente, supongamos u=aitajtak y bit bj + byk Entonces WX v= (a,b — a3 ba)i + (a3 by — a1b3)j + (yb, — a2 by)k Notese que u x v es un vector (de ahi su nombre). u x v también se denomina producto externo dewy a 3 . En notacién de determinantes (Capitulo 7), con 4 ad — be, el producto vectorial puede é expresarse también como sigue: a, 3), a ay uxe 7 + by byl" [by bs? ©, equivalentemente, ijk wibela, axel by by bs Dos importantes propiedades del producto vectorial son las siguientes (véase el Problema 2.56): Teorema 2.5: Sean u, vy w vectores en R® i) El vector w =u x v es ortogonal au y av.

También podría gustarte