Está en la página 1de 562

ALGEBRA

LinEAL
SEGUNDA EOICION
Seymour Lipschutz
ALGEBRA LINEAL
Segunda edici6n
SEYMOUR LIPSCHUTZ, Ph. D.
Temple University
Traducci6n:
CELIA MARTINEZ ONTALBA
Revision:
LORENZO ABELLANAS
Catedratico Metodos Matematicos de Ia Fisica
Universidad Complutense de Madrid
McGraw-Hill
MADRID BUENOS AIRES CARACAS GUATEMALA LISBOA MEXICO
NUEVA YORK PANAMA SAN JUAN SANTAFE DE BOGOTA SANTIAGO SAO PAULO
AUCKLAND HAMBURGO LONDRES MILAN MONTREAL NUEVA DELHI PARIS
SAN FRANCISCO SIDNEY SINGAPUR ST. LOUIS TOKIO TORONTO
'
ALGEBRA LINEAL. Segunda edicion
No esta permitida Ia reproduccion total o parcial de este libro, ni su tratamiento
informatico, ni Ia transmisi6n de ninguna forma o por cualquier medio, ya sea
electr6nico, mecanico, por fotocopia, por registro u otros metodos, sin el permiso
previo y por escrito de los titulares del Copyright.
DERECHOS RESER V ADOS 1991, respecto a Ia segunda edicion en espaiiol, por
McGRA W-HILL/ INTERAMERICANA DE ESPANA, S. A.
Edificio Oasis-A, 1." planta
Basauri, s/ n
28023 Aravaca (Madrid)
Traducido de Ia segunda edicion en ingles de
LINEAR ALGEBRA
Copyright MCMXCI, por McGraw-Hill, Inc.
ISBN: 0-07-038007-4
ISBN: 84-7615-758-4
Deposito legal: M. 119 J 1993
Cubierta: Juan Garcia
Compuesto e impreso en: Fernandez Ciudad, S. L.
PRINTED IN SPAIN- IMPRESO EN ESPANA
Contenido
~ ~ ~ ~ ~
Pr6logo ............ ..... .. .... .. .. . ... . ..... ..... . . . . . . . . . . . . . . . . . . .. . . . . . . . 1x
Capitulo 1. SISTEMAS DE ECUACIONES LINEALES .. . .............. . .... . ..... .
1.1. Introduccion.- 1.2. Ecuaciones lineales. Soluciones.- 1.3. Ecuaciones lineales con
dos incognitas.- 1.4. Sistemas de ecuaciones lineales. Sistemas equivalentes. Operacio-
nes elementales.- 1.5. Sistemas en forma triangular y escalonada.- 1.6. Algoritmo de
reduccion.- 1.7. Matrices.- 1.8. Equivalencia por lilas. Operaciones elementales entre
lilas.- 1.9. Sistemas de ecuaciones lineales y matrices.- 1.10. Sistemas de ecuaciones
lineales homogeneos.
Cap_itulo 2. VECTORES EN R" Y C". VECTORES ESPACIALES.. . . . . . . . . . . . . . . . . . . . . 45
2.1. Introduccion.- 2.2. Vectores en R".- 2.3. Suma de vectores y producto por un
escalar.- 2.4. Vectores y ecuaciones lineales.- 2.5. Producto escalar.- 2.6. Norma de
un vector.-2.7. Vectores localizados, hiperplanos y rectas en R".-2.8. Vectores
espaciales. Notaci6n ijk en R
3
.- 2.9. Numeros complejos.- 2.10. Vectores en C".
Capitulo 3. MATRICES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.1. Jntroduccion.- 3.2. Matrices.-3.3. Suma de matrices y producto por un esca-
lar.- 3.4. Producto de matrices.- 3.5. Traspuesta de una matriz.- 3.6. Matrices y
sistemas de ecuaciones lineales.- 3.7. Matrices por b1oques.
Capitulo 4. MATRICES CUADRADAS. MATRICES ELEMENTALES.......... . ....... 105
4.1. Introduccion.-4.2. Matrices cuadradas.-4.3. Diagonal y traza. Matriz identi-
dad.-4.4. Potencias de matrices. Polinomios de matrices.-4.5. Matrices invertibles
(no singulares).-4.6. Tipos especiales de matrices cuadradas.-4.7. Matrices comple-
jas.-4.8. Matrices cuadradas por bloques.- 4.9. Matrices elementales. Aplicaciones.
4.10. Operaciones elementales entre columnas. Equivalencia de matrices.-4.1 1. Matri-
ces simetricas congruentes. Ley de inercia.-4.12. Formas cuadniticas.-4. 13. Simila-
ridad.-4. 14. Factorizacion LU.
Capitulo 5. ESPACIOS VECTORIALES . . ....... . .. ..... ... . . . .. . .. ...... . . . . . . . 167
5.1. Introduccion.-5.2. Espacios vectoriales.-5.3. Ejemplos de espacios vectoriales.
5.4. Subespacios.- 5.5. Combinaciones lineales. Envo1ventes 1inea1es.-5.6. Dependen-
VI CONTENIDO
cia e independencia lineal.- 5.7. Bases y dimension.-5.8. Ecuaciones lineales y espa-
cios vectoriales.- 5.9. Sumas y sumas directas.- 5. 10. Coordenadas.-5.11. Cambio de
base.
Capitulo 6. ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD . . . . . . . . . . . . . 239
6.1. Introduccion.- 6.2. Espacios con producto interno.- 6.3. Desigualdad de Cauchy-
Schwarz. Aplicaciones.-6.4. Ortogonalidad.-6.5. Conjuntos ortogonales y bases.
Proyecciones.-6.6. Proceso de ortogonalizaci6n de Gram-Schmidt.-6.7. Productos
internos y matrices.- 6.8. Espacios complejos con producto interno.-6.9. Espacios
vectoriales normados.
Capitulo 7. DETER MIN ANTES
7.1. Introduccion.-7.2. Determinantes de 6rdenes uno y dos.-7.3. Determinantes de
orden tres.- 7.4. Permutaciones.-7.5. Determinantes de orden arbitrario.- 7.6. Pro-
piedades de los Menores y cofactores.-7.8. Adjunto clasico.
7.9. Aplicaciones a las ecuaciones lineales. Regia de Cramer.-7. 10. Submatrices.
Menores generales. Menores principales.-7.11. Matrices por bloques y determinan-
tes.-7. 12: Determinantes y volumen.- 7.13. Multilinealidad y determinantes.
290
Capitulo 8. VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION. .... ... 330
8. 1. Introduccion.-8.2. Polinomios de matrices.- 8.3. Polinomio canlcteristico. Teo-
rema de Cayley-Hamilton.-8.4. Valores propios y vectores propios.- 8.5. Calculo de I"\
valores propios y vectores propios. Diagonalizaci6n de matrices.- 8.6. Diagonalizacion
de matrices reales simetricas.- 8. 7. Polinomio minimo.
9. APLICACIONES LINEALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
9. 1. Introduccion.- 9.2. Aplicaciones.-9.3. Aplicaciones lineales.- 9.4. Nucleo e ima-
gen de una aplicaci6n lineal.- 9.5. Aplicaciones lineales singulares y no singulares.
Isomorfismos.-9.6. Operaciones con aplicaciones lineales.- 9,7. Algebra de operado-
1
. res lineales A(V).-9.8. Operadores invertibles. "
Capitulo 10. MATRICES Y APLICACIONES LINEALES..... . ... . .... . ........ . ..... 406
10. 1. Introduccion.- 10.2. Representaci6n matricial de un operador Iineal.- 10.3.
Cambio de base y operadores lineales.- 10.4. Diagonalizaci6n de operadores linea-
les.- 10.5. Matrices y aplicaciones lineales generales.
Capitulo 11. FORMAS CANONICAS .. .. .'. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
11.1. Introduccion.- 11.2. Forma triangular.- 11.3. lnvariancia.- 11.4. Descomposi-
ciones en suma directa invariante.- 11 .5. Descomposici6n primaria.-11.6. Operadores
nilpotentes.- 11.7. Forma can6nica de Jordan.- 11.8. Subespacios ciclicos.-11.9. Forma
canonica racional.- 11.10. Espacios cociente.
Capitulo 12. FUNCIONALES LINEALES Y ESPACIO DUAL . . . . . . . . . . . . . . . . . . . . . . . . . 470
12.1. Introducci6n.- 12.2. Funcionales lineales y espacio dual.- 12.3. Base dual.
12.4. Espacio segundo dual.-12.5. Aniquiladores.-12.6. Traspuesta de una aplicacion
lineal.
Capitulo 13. FORMAS BIUNEALES, CUADRATICAS Y HERMITICAS .. ........ . . ..... 484
13.1. Introduccion.-13.2. Formas bilineales.- 13.3. Formas bilineales y matrices.
13.4. Formas bilineales alternadas.-13.5. Formas bilineales simetricas. Formas cua-
draticas.- 13.6. Fonrtas bilineales simetricas reales. Ley de inercia.-13.7. Formas
hermiticas.
CONTENIDO vii
Capitulo 14. OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO.... . 503
14. I. Operadores adjuntos.-14.3. Analogia entre A(V) y C.
Operadores especia1es.-14.4. Operadores autoadjuntos.-14.5. Operadores ortogona-
Apimdice
les y unitarios.-14.6. Matrices ortogonales y unitarias.-14.7. Cambio de base orto-
normaL- 14.8. Operadores positivos.-14.9. Diagonalizacion y formas can6nicas en
espacios euclideos.- 14.10. Diagonalizacion y formas can6nicas en espacios unita-
rios.- 14.11. Teorema espectraL
CON JUNTOS Y RELACIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 528
Conjuntos, elementos.-Operaciones entre conjuntos.- Producto cartesiano de con-
juntos. - Relaciones.- Relaciones de eq uivalencia.
ESTRUCTURAS ALGEBRAICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535
Introducci6n.-Grupos.-Anillos, dominios de integridad y cuerpos.- M6dulos.
POLINOMIOS SOBRE UN CUERPO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545
Introduccion.-Divisibilidad. Maximo comun divisor.- Factorizaci6n.
Indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 549
Pr61ogo
El algebra lineal se ha convertido en los ultimos afios en una parte esencial de los conocimientos
matematicos requeridos a matematicos, ingenieros, fisicos y otros cientificos. Este requerimiento
refleja Ia importancia y Ia amplitud de sus aplicaciones.
Este libro se ha proyectado como libro de texto en un curso regular de algebra lineal o como
suplemento a los textos clasicos en uso. Su prop6sito es presentar una introducci6n al algebra
lineal que todos los lectores encuentren provechosa, cualquiera que sea su campo de especiali-
zaci6n. Se ha incluido mas material del que puede abarcarse en muchos primeros cursos, con
objeto de hacer el texto mas flexible, proporcionar un libro de referenda uti] y estimular el interes
futuro en el tema.
Cada capitulo comienza con enunciados claros de las definiciones, principios y teoremas
pertinentes, junto con ejemplos y otro material descriptivo. A esto siguen colecciones graduadas
de problemas resueltos y problemas suplementarios. Los problemas resueltos sirven para ilustrar
y ampliar Ia teoria, concretan aquellos puntos sutiles cuyo desconocimiento !leva al estudiante
a sentirse continuamente en un terreno inseguro, y suministran la repetici6n de los principios
basicos tan vital para un aprendizaje efectivo. Entre los problemas resueltos se incluyen
numerosas demostraciones de teoremas. Los problemas suplementarios sirven como revision
completa del material de cada capitulo.
El primer capitulo trata los sistemas de ecuaciones lineales. Esto proporciona la motivaci6n
y las herramientas de calculo basicas para el material subsiguiente. Tras haber introducido los
vectores y las matrices, aparecen capitulos sobre espacios vectoriales y subespacios, y sobre
productos internos. Siguen capitulos que cubren determinantes, valores propios y vectores
propios, y diagonalizaci6n de matrices (bajo similaridad) y formas cuadraticas (bajo congruen-
cia). Los capitulos posteriores abarcan las aplicaciones lineales abstractas y sus formas can6nicas,
especificamente las formas can6nicas triangular, de Jordan y racional. El ultimo capitulo trata
las aplicaciones lineales abstractas en espacios con producto interno.
Los principales cambios en Ia segunda edici6n han sido por razones pedag6gicas (de forma)
mas que de contenido. Aqui la noci6n de aplicaci6n matricial se introduce al principia del texto.
X PROLOGO
y los productos internes justo despues del capitulo sobre espacios vectoriales y subespacios.
Asimismo, se presentan los algoritmos de reduccion por filas, inversion de matrices, calculo de
determinantes y diagonalizacion de matrices y formas cuadraticas, usando notacion algoritmica.
Ademas, temas tales como matrices elementales, factorizacion LU, coeficientes de Fourier y varias
normas en R" se introducen directamente en el texto, en Iugar de hacerlo en las secciones de
problemas. Por ultimo, al tratar los aspectos abstractos mas avanzados en Ia parte final del
texto, facilitamos el uso de este en un curso elemental o en uno de dos semestres de algebra lineal.
Deseo dar las gracias a! personal de McGraw-Hill Schaum Series, especialmente a John
Aliano, David Beckwith y Margaret Tobin, por sus inestimables sugerencias y su cooperacion,
verdaderamente uti!.. Por ultimo, quiero expresar mi gratitud a Wilhelm Magnus, mi maestro,
consejero y amigo, que me introdujo en Ia belleza de las matematicas.
Temple U niuersit y
Enero de 1991
..
SEYMOUR LIPSCHUTZ
CAPITULO 1
Sistemas de ecuaciones lineales
1.1. INTRODUCCION
La teoria de las ecuaciones lineales juega un papel irnportante y motivador en el aq1bito del
algebra lineal. De hecho, muchos problemas de algebra lineal son equivalentes a! estudio de un
sistema de ecuaciones lineales, como hallar el nucleo de una aplicaci6n lineal o caracterizar el
subespacio generado por un conjunto de vectores. Por ello, las tecnicas introducidas en este
capitulo seran aplicables al tratamiento mas abstracto dado posteriormente. Por otra parte,
algunos de los resultados del tratamiento abstracto arrojaran nueva luz sobre Ia estructura de
los sistemas de ecuaciones lineales concretos.
Este capitulo investiga sistemas de ecuaciones lineales y describe detalladamente el algoritmo
de eliminaci6n gaussiano, que se utiliza para hallar su soluci6n. Aunque senin estudiadas en
detalle en el Capitulo 3, las matrices, junto con ciertas operaciones entre elias, se introducen
tambien aqui, puesto que estan estrechamente relacionadas con los sistemas de ecuaciones
lineales y su soluci6n.
Todas nuestras ecuaciones involucraran numeros especificos denominados constantes o esca-
lares. Para simplificar, en este capitulo asumimos que todos nuestros escalares pertenecen at
cuerpo de los numeros reales R. Las soluciones de nuestras ecuaciones tambien involucraran
n-plas u = (k
1
, k
2
, . . , k") de numeros reales llamadas vectores. El conjunto de tales n-plas se
denota por R".
Apuntamos que los resultados de este capitulo son validos asimismo para ecuaciones sobre
el cuerpo complejo C, o sobre cualquier cuerpo arbitrario K.
1.2. ECUACIONES LINEALES. SOLUCIONES
Por una ecuaci6n lineal con incognitas x
1
, x
2
, , x" entendemos una ecuaci6n que puede
escribirse en Ia forma convencional:
[1.1]
1
/
'I
2 ALGEBRA LINEAL
donde a
1
, a
2
, . , an, b son constantes. La constante ak se denomina el coeficiente de xk y b
se denomina Ia constante de Ia ecuaci6n.
Una soluci6n de Ia ecuaci6n lineal anterior es un conjunto de valores de las incognitas,
digamos x
1
= k
1
, x
2
= k
2
, , xn = kn, o simplemente una n-pla u = (k
1
, k
2
, ... , kn) de constan-
tes, con Ia propiedad de que es cierta Ia siguiente expresion (obtenida sustituyendo cada X; por
k; en Ia ecuacion):
Se dice entonces que este conjunto de valores satisface Ia ecuacion.
El conjunto de todas las soluciones se llama conjunto solucion, solucion general o, simple-
mente, Ia soluci6n de Ia ecuacion.
Nota: Las nociones anteriores presuponen implicitamente que existe un orden entre las incog-
nitas. Con el fin de evitar los subindices, normalmente utilizaremos variables x, y, z para denotar
tres incognitas, x, y, z, t para denotar cuatro incognitas y x, y, z, s, t para denotar cinco
incognitas, considerimdolas ordenadas.
EJEMPLO 1.1
a) La ecuacion 2x -5y+ 3xz=4 no es lineal, porque el producto de dos incognitas es de segundo
grado.
b) La ecuaci6n x + 2y - 4z + t = 3 es lineal en las cuatro incognitas x, y, x , t.
La 4-pla u = (3, 2, I, 0) es una solucion de Ia ecuaci6n porque
3 + 2(2)- 4(1) + 0 = 3 0 3= 3
es una expresi6n cierta. Sin embargo, Ia 4-pla v = (1, 2, 4, 5) no es
porque
I + 2(2)- 4(4) + 5 = 3 0 -6=3
no es cierto.
ECUACIONES LINEALES CON UNA INCOGNITA
El siguiente resultado basico esta probado en el Problema 1.5.
Teorema 1.1: Consideremos Ia ecuacion lineal ax = b.
i) Si a -:f. 0, x = b/a es solucion {mica de ax = b.
ii) Si a = 0, pero b -:f. 0, ax = b no tiene soluci6n.
iii) Si a = 0 y b = 0, todo escalar k es soluci6n de ax = b.
EJEMPLO 1.2
a) Resolvamos 4x - I = x + 6.
una soluci6n de Ia ecuacion
Trasponemos para obtener Ia ecuaci6n en forma convencional: 4x - x = 6 + 1 6 3x = 7. Multiplica-
mos por 1/3 para obtener Ia soluci6n t.'mica x = [Teorema 1.1 i)].
SISTEMAS DE ECUACIONES LINEALES 3
b) Reso1vamos 2x - 5 - x = x + 3.
Reescribimos Ia ecuaci6n en forma convenciona1: x - 5 = x + 3, o x - x = 3 + 8, o Ox = 8. La
ecuaci6n no tiene soluci6n [Teorema 1.1 ii)].
c) Reso1vamos 4 + x - 3 = 2x + 1 - x.
Reescribimos Ia ecuaci6n en forma convencional: x + I = x + 1, o x - x = I - 1, o Ox= 0. Todo
escalar k es una so1uci6n [Teorema 1.1 iii)].
ECUACIONES LINEALES DEGENERADAS
Una ecuaci6n lineal se dice degenerada si tiene Ia forma
esto es, si cada coeficiente es igual a cero. La soluci6n de tal ecuaci6n se halla como sigue:
Teorema 1.2: Consideremos Ia ecuaci6n lineal degenerada Ox
1
+ Ox
2
+ ... + Ox,= b.
i) Si b # 0, Ia ecuaci6n no tiene soluci6n.
ii) Si b = 0, todo vector u = (k
1
, k
2
, ... , k,.) es una soluci6n.
Demostraci6n. i) Sea u = (k
1
, k
2
, ... , k,.) un vector cualquiera. Supongamos b0. Sustituyen-
do u en Ia ecuaci6n obtenemos:
Ok
1
+ Ok
2
+ .. + Ok,. = b 0 0 + 0 + .. + 0 = b 0 O= b
No es una expresi6n cierta porque b # 0. Por tanto, ningun vector u es soluci6tt.
ii) Supongamos b = 0. Sustituyendo u en Ia ecuaci6n obtenemos:
0 0 + 0+ .. +0 =0 0
que es una expresi6n cierta. Por consiguiente, todo vector u en R" es una soluci6n, como se
pretendia.
EJEMPLO 1.3. Describir Ia soluci6n de 4y - x- 3y + 3 = 2 + x - 2x + y + l.
La reescribimos en forma convencional agrupa ndo terminos y trasponiendo:
y - x+ 3 = y - x + 3 0 y - x - y + x = 3 - 3 0 Ox + Oy = 0
La ecuacion es degenerada con constante nnla; por tanto, todo vector u = (a, b) en R
2
es una soluci6n.
ECUACIONES LINEALES NO DEGENERADAS. PRIMERA INCOGNITA
Esta subsecci6n trata Ia soluci6n de una sola ecuaci6n lineal no degenerada con una o mas
incognitas, digamos
t
t'
! !
I:
I ~ ~
II
I ~ .
I,, .
I.
I
lu
4 ALGEBRA LINEAL
Por Ia primera incognita en tal ecuacion entendemos Ia primera con coeficiente no nulo.
Su posicion p en Ia ecuacion es entonces el menor valor entero de j para el cual aj = 0.
En otras palabras, xP es Ia primera incognita si ai = 0 para j < p, perc aP = 0.
EJ EM PLO 1.4. Consideremos Ia ecuacion lineal 5y- 2z = 3. A qui y es Ia primer a incognita. Si las
incognitas son ; ~ y y z, entonces p = 2 es su posicion, pero si y y z son las (:micas incognitas, es p = I.
El siguiente teorema, probado en el Problema 1.9, es aplicable.
Teorema 1.3: Consideremos una ecuacion lineal no degenerada a
1
x
1
+ a
2
x
2
+ ... + a"x" = b
con primera incognita xP.
i) Cualquier conjunto de valores de las incognitas xi con j =F p dara una unica solucion
de Ia ecuacion. (Las incognitas xj se Haman variables libres porque se les puede asignar
cualq uier valor.)
ii) Toda solucion de Ia ecuacion se obtiene en i).
(EI conjunto de todas las soluciones se llama solucion general de Ia ecuacion.)
EJEMPLO 1.5
a) Hallar tres soluciones particulares de Ia ecuacion 2x - 4y + z = 8.
Aqui x es Ia primera incognita. De acuerdo con ello, asignamos valores cualesquiera a las variables
libres y y z y entonces despejamos x para obtener una solucion. Por ejemplo:
I. T omemos y = I y z = I. La sustitucion en Ia ecuacion proporciona
2x - 4( I) + I = 0 0 2x-4+1 = 0 0 2x = II
Entonces u
1
= (lj-, I, I) es una solucion.
0 X
- .ll
- 2
2. Tomemos y = I, z = 0. La sustituci6n proporciona x = 6. Por consiguiente, u
2
= (6, I, 0) es una
soluci6n.
3. To memos y = 0, z = l. La sustitucion proporciona x = 1. Por tanto, u
3
= ('i, 0, I) es una soluci6n.
b) La soluci6n general de Ia ecuaci6n anterior, 2x - 4y + z = 8, se obtiene como sigue:
En primer Iugar, asignamos valores arbitrarios (llamados parametros) a las variables libres, digamos
y = a y z = b. A continuaci6n sustituimos en Ia ecuaci6n para obtener
0 2x = 8 + 4a- b 0 x = 4 + 2a- Jb
Entonces
x = 4 + 2a - !b. y = a, z = b 0 u = (4 + 2a - !b, a, b)
es Ia soluci6n general.
1.3. ECUACIONES LINEALES CON DOS INCOGNITAS
Esta secci6n considera el caso especial de las ecuaciones lineales con dos incognitas, x e y,
esto es, ecuaciones que se pueden escribir en Ia forma convencional
ax+ by = c
SISTEMAS DE ECUACJONES LINEALES 5
donde a, b y c son numeros reales. (Supondremos tambien que Ia ecuaci6n es no degenerada,
esto es, que a y b no son ambos nulos.) Cada soluci6n de Ia ecuaci6n es un par de numeros
reales, u = (k
1
, k
2
), que puede hallarse asignando un valor arbitrario a x y despejando y,
o viceversa.
Toda soluci6n u = (k
1
, k
2
) de Ia ecuaci6n anterior determina un punto en el plano cartesia-
no R
2
. Como a y b no son ambos nulos, todas las soluciones tales corresponden precisamente
a los puntos de una linea recta (de ahi el nombre de ecuaci6n lineal). Esta linea se denomina
el grafico de Ia ecuaci6n.
EJ EM PLO 1.6. Consideremos la ecuaci6n lineal 2x + y = 4. Encontramos tres soluciones de Ia ecuaci6n
como sigue. Primero escogemos un valor arbitrario para cualquiera de las incognitas, digamos x = - 2.
Sustituimos x = -2 en Ia ecuacion y obtenemos
2( - 2) + y = 4 0 - 4 + y = 4 0 y= 8
Entonces x = -2, y = 8, o sea, el punto ( -2, 8) en R
2
es una soluci6n. Ahora hallamos el corte con el
eje y, esto es, sustituimos x = 0 en la ecuaci6n para obtener y = 4. Por consiguiente, el punto (0, 4) en el
eje y es una soluci6n. A continuacion encontramos el corte con el eje x, esto es, sustituimos y = 0 en la
ecuaci6n para obtener x = 2. Por tanto, (2, 0) en el eje x es una soluci6n.
Para dibujar el gnifico de Ia ecuaci6n, primero dibujamos las tres soluciones, ( - 2, 8), (0, 4) y (2, 0),
el plano R
2
como se muestra en Ia Figura 1-1. Despues trazamos Ia linea L determinada por dos de
soluciones y constatamos que Ia tercera yace en L tambicn. (De hecho, L es el conjunto de todas las
soluciones de Ia ecuaci6n.) La linea L es el grafico de Ia ecuaci6n.
y
Gralico de 2x+ y = 4
Figura 1-1.
DE DOS ECUACIONES CON DOS INCOGNITAS
subsecci6n considera un sistema de dos ecuaciones lineales (no degeneradas) con las dos

a
1
x+b
1
y=c
1
a
2
x + b
2
y = c
2
[1.2]
6 ALGEBRA LINEAL
(Por tanto, a
1
y b
1
no son simultaneamente nulos, ni tampoco lo son a
2
y b
2
.) Este sistema
simple se trata por separado porque tiene una interpretacion geometrica, y porque sus propie-
dades motivan el caso general.
Un par de numeros reales u = (k
1
, k
2
) que satisface ambas ecuaciones se llama una soluci6n
simultanea de las ecuaciones dadas, o una soluci6n del sistema de ecuaciones. Existen tres casos,
que pueden describirse geometricamente.
l. El sistema tiene exactamente una soluci6n. Aqui los graticos de las ecuaciones lineales
se cortan en un punto, como en Ia Figura l-2(a).
2. El sistema no tiene soluciones. Aqui los graficos de las ecuaciones lineales son paralelos,
como en la Figura l-2(b).
3. El sistema tiene un numero infinito de soluciones. Aqui los graficos de las ecuaciones
lineales coinciden, como en Ia Figura l-2(c).
y
(a)
y
(b)
Figura 1-2.
y
(c)
Los casos especiales 2 y 3 solo pueden ocurrir cuando los coeficientes de x e y en las dos
ecuaciones lineales son proporcionales, es decir,
0
En concreto, el caso 2 o el 3 ocurre si
0
al = bl = cl
a2 b2 c2
respectivamente. A menos que se establezca o sobrentienda otra cosa, suponemos que se trata
con el caso general 1 .
. , la
1
h
1
1
Nota: La expres10n a
2
b
2
, que vale a
1
b
2
- a
2
b
1
, se denomina determinante de orden dos.
Los determinantes se estudiaran en el Capitulo 7. El sistema tiene una soluci0n unica cuando
el determinante de los coeficientes es no nulo.
SISTEMAS DE ECUACIONES LINEALES 7
ALGORITMO DE ELIMINACION
La soluci6n del sistema [1.2] puede obtenerse mediante el proceso conocido como eliminaci6n,
por medio del cual reducimos el sistema a una ecuaci6n sencilla con solo una incognita.
Aceptando que el sistema tiene soluci6n {mica, este algoritmo de eliminaci6n consiste en los dos
pasos siguientes:
Paso I. Sumar un multiplo de una de las ecuaciones a Ia otra (o a un multiplo no nulo
de Ia otra) de forma que una de las incognitas se elimina en Ia nueva ecuacion.
Paso 2. Resolver Ia nueva ecuaci6n para Ia incognita dada y sustituir su valor en una de
las ecuaciones originates para obtener el valor de Ia otra incognita.
EJEMPLO 1.7
a) Consideremos el sistema
L
1
: 2x+5y= 8
L
2
: 3x- 2y =-7
Eliminamos x construyendo Ia nueva ecuacion L = 3L
1
- 2L
2
; esto es, multiplicando L
1
por 3 y L
2
por -2 y sumando las ecuaciones resultantes:
3L
1
: 6x + 15y = 24
-2L
2
: -6x + 4y = 14
Suma: l9y = 38
Resolviendo Ia nueva ecuacion para y se obtiene y = 2. Sustituyendo y = 2 en una de las ecuaciones
originales, digamos en L
1
, se obtiene
2x + 5(2) = 0 0 2x + 10 = 8 0 2x = - 2 0 X = -J
Entonces x = -I e y = 2, o sea, el par (-I, 2) es Ia solucion unica del sistema.
b) Consideremos el sistema
Ll: X- 3y = 4
L
2
: -2x+6y=5
Eliminamos x de las ecuaciones multiplicando L
1
por 2 y sumandola a L
2
; es decir, formando Ia
ecuaci6n L = 2L
1
+ L
2
. Esto nos conduce a Ia nueva ecuaci6n Ox+ Oy = 13. Es una ecuaci6n dege-
nerada, con constante no nula; en consecuencia, el sistema no tiene soluci6n. (Geomi:tricamente
hablando, las lineas son paralelas.)
c) Consideremos el sistema
L
1
: x-3y= 4
L
2
: -2x+6y= -8
Eliminamos x multiplicando L
1
por 2 y sumandola a L
2
. Esto nos proporciona Ia nueva ecuaci6n
Ox + Oy = 0, que es una ecuaci6n degenerada en Ia que el termino constante es nulo tambien. Por
tanto, el sistema tiene un numero infinito de soluciones, que corresponden a soluciones de cada
ecuaci6n. (Geometricamente hablando, las lineas coinciden.) Para encontrar Ia soluci6n general
8 ALGEBRA LINEAL
hacemos y =a y sustituimos en L
1
obteniendo x - 3a = 4 o x = 3a + 4. De acuerdo con esto, Ia
soluci6n general del sistema es
(3a + 4, a)
donde a es un numero real arbitrario.
1.4. SISTEMAS DE ECUACIONES LINEALES.
SISTEMAS EQUIVALENTES. OPERACIONES ELEMENTALES
Esta seccion considera un sistema de m ecuaciones lineales, digamos L
1
, L
2
, , L,, con n
incognitas x
1
, x
2
, , x., que puede ponerse en Ia forma convencional
a
11
x
1
+ a
12
x
2
+ + ahx, = b
1
a
21
x
1
+ a
22
x
2
+ + a
2
,x, = b
2
donde las aii, b; son constantes.
[1.3]
Una. solucibn (o solucibn particular) del sistema anterior es un conjunto de valores de las
incognitas, digamos x
1
= k
1
, x
2
= k
2
, , x. = k., o una n-pla u = (k
1
, k
2
, , k,) de constantes,
que es solucion de cada una de las ecuaciones del sistema. El conjunto de todas las soluciones
tales se denomina el conjunto solucibn o Ia solucion general del sistema.
EJEMPLO 1.8. Considerese el sistema
x
1
+ 2x
2
- 5x
3
+ 4x
4
= 3
2x
1
+ 3x
2
+ x
3
- 2x
4
= I
Determinar si x
1
= -8, x
2
= 4, x
3
= l, x
4
= 2 es una soluci6n del sistema.
Sustituimos en cada ecuaci6n para obtener
I. -8 + 2(4) - 5(1) + 4(2) = 3
2. 2( -8) + 3(4) + I - 2(2) = l
0
0
-8+8 - 5 + 8=3 0 3=3
- 16+12+1-4= 1 0 -7=3
No, no es una soluci6n del sistema porque no es soluci6n de Ia segunda ecuaci6n.
SISTEMAS EQUIVALENTES. OPERACJONES ELEMENTALES
Se dice que dos sistemas de ecuaciones lineales con. las mismas incognitas son equivalentes si
tienen el mismo conjunto solucion. Una forma de producir un sistema que sea equivalente a uno
dado, con ecuaciones lineales L
1
, L
2
, ... , L.,., es efectuar una sucesion de las siguientes operacio-
nes, llamadas operaciones elementa.les:
[E tl Intercambiar las ecuaciones i-esima y j-esima: L; +-+ L j
[
2
] Multiplicar la ecuaci6n i-esima por un escalar no nulo k: kL;-+ L;, k =fo 0.
[
3
] Sustituir Ia ecuaci6n i-esima por ella misma mas k veces Ia j-esima: (kLi + L;) -+ L;.
SISTEMAS DE ECUACIONES LINEALES 9
En Ia pnktica efectuamos (
2
] y (
3
] en un solo paso, o sea, Ia operaci6n
[E) Sustituir Ia ecuaci6n i-esima por k (no nulo) veces ella misma mas k' veces Ia j-esima:
Lo anterior se enuncia formalmente en el siguiente teorema, probado en el Problema 1.46.
Teorema 1.4: Supongamos que un sistema de ecuaciones lineales ( #) se obtiene de otro ( *)
mediante una sucesi6n finita de operaciones elementales. Entonces ( #) y ( *) tienen el mismo
conjunto soluci6n.
Nuestro metodo para resolver el sistema de ecuaciones lineales (1.3) consta de dos pasos:
Paso 1. Usar las operaciones elementales anteriores para reducir el sistema a uno equivalente
mas simple (en forma triangular 0 escalonada).
Paso 2. Usar Ia sustituci6n hacia atn\s para hallar Ia soluci6n del sistema mas simple.
Los dos pasos se ilustran en el Ejemplo 1.9. En cualquier caso, por razones pedag6gicas,
discutimos en detalle primero el Paso 2 en Ia Secci6n 1.5 y luego el Paso 1 en Ia Secci6n 1.6.
EJEMPLO 1.9. La soluci6n del sistema
se obtiene como sigue:
x + 2y- 4z = -4
5x + lly - 21z = -22
3x - 2y + 3z = 11
Paso 1: Primero eliminamos x de Ia segunda ecuaci6n mediante Ia operaci6n elemental ( - 5L
1
+ L
2
) --t L
2
,
esto es, multiplicando L
1
por -5 y sumandola a L
2
; entonces eliminamos x de Ia tercera ecuaci6n
efectuando Ia operaci6n elemental (- 3L
1
+ L
3
)-> L
3
, es decir, multiplicando L
1
por -3 y sumandola a L
3
:
-5 x L
1
: - 5x - lOy + 20z = 20 -3xL
1
: -3x-6y+12z=l2
L
2
: 5x + lly- 2lz = -22 /.
3
: 3x - 2y + 3z = 11
y- z = -2 nueva L
3
:
Por tanto, el sistema original es equivalente al sistema
x + 2y- 4z = -4
y - z = -2
-8y + 15z = 23
- 8y + 15z = 23
A continuaci6n eliminamos y de Ia tercera ecuaci6n aplicando (8L
2
+ L
3
) --t L
3
, esto es, multiplicando L
2
por 8 y sum{tndola a L
3
:
8xL
2
: 8y- 8z=-16
L
3
: -8y + 15z = 23
7z = 7
1 0 ALGEBRA LINEAL
Por consiguiente, obtenemos el siguiente sistema triangular equivalente:
x + 2y- 4z = -4
y- z = -2
7z = 7
Paso 2. Ahora resolvemos el sistema triangular mas simple mediante sustituci6n hacia atnis. La tercera
ecuaci6n da z = I. Sustituimos z = I en Ia segunda ecuaci6n obteniendo
y - I= - 2 0 y = -1
Ahora sustituimos z = I e y = -I en Ia primera ecuaci6n para obtener
x+2(- l) - 4(1) = - 4 0 X- 2-4 = - 4 0 X - 6 = -4 0 x = 2
Entonces x = 2, y = - I, z = I, o, en otras palabras, Ia terna ordenada (2, -I, I) es !a soluci6n (mica del
sistema dado.
El anterior algoritmo de dos pasos para resolver un sistema de ecuaciones lineales se
denomina eliminaci6n gaussiana. EJ siguiente teorema se utilizan1 en el Paso I del algoritmo.
Teorema 1.5: Supongamos que un sistema de ecuaciones lineales contiene Ia ecuacion degenerada
a) Si b = 0, L puede suprimirse del sistema sin alterar el conjunto solucion.
b) Si b i' 0, el sistema no tiene solucion.
Demostraci6n. Se obtiene directamente del Teorema 1.2. Esto es, Ia parte a) se obtiene del
hecho de que todo vector en R" es solucion de Lt> y Ia parte b) del hecho de que L no tiene
solucion y por tanto tampoco Ia tiene el sistema.
1.5. SISTEMAS EN FORMA TRIANGULAR Y ESCALONADA
Esta secci6n considera dos tipos simples de sistemas de ecuaciones lineales: sistemas en forma
triangular y el caso mas general de sistemas en forma escalonada.
FORMA TRIANGULAR
Un sistema de ecuaciones lineales esta en forma triangular si el numero de ecuaciones es igual
al numero de incognitas y si xk es Ia primera incognita de Ia k-esima ecuacion. Por tanto, un
sistema de ecuaciones lineales triangular tiene Ia forma siguiente:
auXt + a12X2 + + +
a
22
x
2
+ + a
2
,,_
1
x, _
1
+
ahx, = b
1
a
2
,x, = b
2
a,-
1
,,.-
1
x, _
1
+ a,-J.,x, = b, _
1
a,.x, = b,
donde a
11
=I= 0, a
22
i' 0, . .. , a i' 0.
[1.4]
SISTEMAS DE ECUACIONES LINEALES 11
El sistema de ecuaciones lineales triangular anterior tiene una soluci6n unica, que puede
tenerse mediante el siguiente procedimiento, conocido como sustitucion bacia atras. Primero,
resolvemos Ia ultima ecuacion para Ia ultima incognita, x.:
Segundo, sustituimos este valor de x" en la penultima ecuaci6n y Ia resolvemos para Ia penultima
incognita, x" _
1
:
Tercero, sustituimos estos valores de x" y x" _
1
en Ia antepenultima ecuaci6n y Ia resolvemos
para Ia antepenultima incognita, x" _
2
:
X
- bn- 2- (a .. - 2. n-tfan- l,n- l)[bn- 1- an-l,n(bJann)] - (an-2, JanJbn
n -2 -
an-2, .. - 2
En general, determinamos xk sustituyendo los val ores previamente obtenidos de x", x"_
1
, . . , xk+
1
en Ia ecuaci6n k-esima ecuacion:
n
bk- L akn,x,..
'" = k+l
xt = _ _ .:.;:_..:;....;-=---
au
El proceso finaliza cuando hemos determinado x
1
La soluci6n es unica puesto que, en cada
paso del algoritmo, el valor de xk esta, por el Teorema 1.1 i), univocamente determinado.
EJEMPLO 1.10. Consideremos el sistema
2x + 4y- z = 11
5y + z = 2
3z = -9
Como el sistema esta en forma triangular, puede resolverse mediante sustituci6n hacia atras.
i) La ultima ecuaci6n proporciona z = - 3.
ii) Sustituimos en Ia segunda ecuaci6n para obtener 5y - 3 = 2 6 5y = 5 6 y = I.
iii) Sustituimos z = - 3 e y = I en Ia primera ecuaci6n para obtener
2x + 4( I ) - ( - 3) = II 0 2x + 4 + 3 =I I 0 2x = 4 0 x =2
Entonces el vector u = (2, I, - 3) es Ia soluci6n unica del sistema.
12 ALGEBRA LINEAL
FORMA ESCALONADA. VARIABLES LIBRES
Un sistema de ecuaciones lineales esta en forma escalonada si ninguna ecuacion es degenerada
y Ia primera incognita de cada ecuacion esta a Ia derecha de Ia primera incognita de Ia ecuaci6n
anterior. El paradigma es:
a
11
x
1
+ a
12
x
2
+ a
13
x
3
+ a14 X4 + + ~ n x = b
1
a
212
x
12
+ a2,
12
+ 1x
12
+ 1 + + a2" x" = b2
donde 1 <j
2
< ... <j, y donde a
11
# 0, a
2
i , # 0, ... , a,ir # 0. Notese que r ~ n.
[1.5]
Una incognita xk en el sistema escalonado anterior [1.5] se denomina variable libre si xk no
es Ia primera incognita de ninguna ecuaci6n, esto es, si xk # x
1
, xk i= xi, ... , xk i= xi.
El siguiente teorema, demostrado en el Problema 1.13, describe el conjunto solucion de un
sistema escalonado.
Teorema 1.6: Consideremos el sistema de ecuaciones lineales en forma escalonada [1 .5]. Existen
dos casas:
i) r = n. Hay tantas ecuaciones 'como incognitas. Entonces el sistema tiene solucion (mica.
ii) r < n. Hay menos ecuaciones que incognitas. Entonces podemos asignar arbitrariamente
valores a las n - r variables libres y obtener una solucion del sistema.
Supongamos que el sistema escalonado [1.5] contiene mas incognitas que ecuaciones. Enton-
ces el sistema tiene un numero infinito de soluciones, porque a cada una de las n - r variables
libres se le puede asignar cualquier numero real. La solucion general del sistema se obtiene como
sigue. Se asignan valores arbitrarios, digamos t
1
, t
2
, ... , tn-r llamados parametros, a I a ~ variables
libres y entonces se emplea Ia sustituci6n bacia atras para obtener los valores de las variables
no libres en terminos de los panimetros. Alternativamente se puede utilizar Ia sustituci6n hacia
atnis para despejar directamente las variables no lib res x
1
, xi.' ... , x ir en terminos de las lib res.
EJEMPLO 1.11 . Consideremos el sistema
x + 4y - 3z + 2t = 5
z- 4t = 2
El sistema esta en forma escalonada. Las primeras incognitas son x y z; en consecuencia, las variables libres
son las otras incognitas, y y t .
Para encontrar Ia soluci6n general del sistema, asignamos valores arbitrarios a las variables libres y y
t, digamos y = a y t = b, y a continuaci6n utilizamos Ia sustituci6n hacia atras para despejar las variables
no libres x y z. Sustituyendo en Ia ultima ecuacion se obtiene z- 4b = 2 o z = 2 + 4b. Sustituimos en Ia
primera ecuaci6n para llegar a
x + 4a - 3(2 + 4b) + 2b = 5
Entonces
0 X+ 4a - 6 - J2b + 2b = 5 0 x = II - 4a + I Ob
x = II - 4a + I Ob, y = a, z = 2 + 4h, t = b 0 (II - 4a + lOb, a, 2 + 4b, b)
SISTEMAS DE ECUACIONES LINEALES 13
es Ia soluci6n general en forma parametrica. Altemativamente podemos usar la sustituci6n bacia atnis para
despejar las variables no libres x y z, directamente, en terminos de las variables libres y y t. La ultima
ecuaci6n da z = 2 + 4t. Sustituimos en Ia primera para obtener
x + 4y - 3(2 + 4t) + 2r = 5 0
De acuerdo con esto,
X + 4 y - 6 - 12l + 2l = 5
X = 11 - 4y + lOt
Z= 2+4t
es otra forma para Ia soluci6n general del sistema.
1.6. ALGORITMO DE REDUCCION
0 X= 11 - 4y + JOt
El siguiente algoritmo (a veces llamado reducci6n por filas) reduce el sistema [1.3] de m
ecuaciones lineales con n incognitas a forma escalonada (posiblemente triangular), o bien
determina que el sistema no tiene soluci6n.
ALGORITMO DE REDUCCION
Paso 1. Intercambiar las ecuaciones de forma que x
1
aparezca con un coeficiente no nulo en
Ia primera ecuaci6n; es decir, conseguir que all # 0.
Paso 2. Utilizar all como pivote para eliminar x
1
de todas las ecuaciones excepto de Ia primera.
Esto es, para cada i > 1, efectuar Ia operaci6n (Secci6n 1.4)
0
Paso 3. Examinar cada nueva ecuaci6n L:
a) Si L tiene Ia forma Ox
1
+ Ox
2
+ + Oxn = 0 o si es un multiple de otra ecuaci6n,
suprimirla del sistema.
b) Si L tiene Ia forma Ox
1
+ Ox
2
+ ... +Ox"= b con b # 0, abandonar el algoritmo. El
sistema no tiene soluci6n.
Paso 4. Repetir los Pasos l, 2 y 3 con el subsistema formado por todas las ecuac10nes,
excluyendo Ia primera.
Paso 5. Continuar el proceso anterior hasta que el sistema este en forma escalonada, o hasta
que se obtenga una ecuaci6n degenerada en el Paso 3 b).
La justificaci6n del Paso 3 esta eu el Teorema 1.5 y en el hecho de que si L = kL' para alguna
otra ecuaci6n L' en el sistema, Ia operaci6n - kL' + L ____. L sustituye L por Ox
1
+ Ox
2
+ + Ox"= 0.
que podni ser de nuevo eliminada segun el Teorema 1.5.
14 ALGEBRA LINEAL
EJEMPLO 1.12
a) El sistema
2x + y- 2z = 10
3x + ly + 2z = I
5x + 4y + 3z = 4
se resuelve reduciendolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y
tercera efectuamos las operaciones - 3L
1
+ 2L
2
..... L
2
y ::. SL1 + 2L
3
..... L
3
:
-6x- 3y + 6z=-30
6x + 4y + 4z = 2
y + lOz = -28
-5L
1
: -lOx- 5y + lOz =-50
2L
3
: lOx + 8y + 6z = 8
Esto proporciona el siguiente sistema, en el que y se elimina de Ia tercera ecuaci6n mediante Ia
operaci6n - 3L
2
+ L
3
..... L
3
:
2x + y - 2z = 10}
y + lOz = -28
3y + 16z = -42
{
2x + y - 2z = 10
..... y + lOz = -28
-14z = 42
El sistema esta ahora en forma triangular. Por consiguiente, podemos utilizar Ia sustituci6n hacia atras
para obtener Ia soluci6n (mica u = (1, 2, -3).
b) El sistema
x + 2y- 3z = 1
2x + 5y- 8z = 4
3x + 8y - 13z = 7
se resuelve reduciendolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y
tercer a efectua mos - 2L
1
+ L
2
..... L
2
y - 3L
1
+ L
3
-> L
3
para obtener
x + 2y- 3z = 1
y-2z =2
2y - 4z = 4
0
x + 2y- 3z = 1
y-2z=2
(La tercera ecuaci6n se suprime puesto que es un multiplo de Ia segunda.) El sistema esta ahora en
forma escalonada con variable libre z.
Para obtener Ia soluci6n general hacemos z =a y resolvemos por sustituci6n hacia atras. Sustituimos
z = a en Ia segunda ecuaci6n para obtener y = 2 + 2a. A continuaci6n sustituimos z = a e y = 2 + 2a
en Ia primera ecuaci6n para obtener x + 2(2 + 2a) - 3a = I o x = -3- a. Entonces Ia soluci6n
generales
x = -3 -a, y = 2 + 2a, z =a
donde a es el parametro.
0
c) El sistema
x + ly- 3z = -1
3x- y + 2z = 7
Sx + 3y- 4z = 2
( -3 - a, 2 + 2a, a)
SISTEMAS DE ECUACIONES LINEALES 15
se resuelve reduciendolo primero a forma escalonada: Para eliminar x de las ecuaciones segunda y ter-
cera efectuamos las operaciones - 3L
1
+ L
2
--. L
2
y - 5L
1
+ L
3
--. L
3
para obtener el sistema equivalente
x+2y- 3z= -l
-7y + llz = 10
- 1y + llz = 7
La operaci6n - L
2
+ L
3
--. L
3
conduce a Ia ecuaci6n degenerada
Ox+Oy+Oz= - 3
Entonces el sistema no tiene soluci6n.
El siguiente resultado basico se mencion6 previamente.
Teorema 1.7: Cualquier sistema de ecuaciones lineales tiene: i) una (mica soluci6n, ii) ninguna
soluci6n, o iii) un numero infinito de soluciones.
Demostracion. Aplicando el algoritmo anterior al sistema podemos bien reducirlo a forma
escalonada, o bien determinar que no tiene soluci6n. Si Ia forma escalonada tiene variables libres,
entonces el sistema tiene un numero infinito de soluciones.
Nota: Se dice que un sistema es compatible si tiene una o mas soluciones [Casos i) o iii) en el
Teorema 1.7], y se dice que es incompatible si no tiene soluci6n [Caso ii) en el Teerema 1.7].
La Figura 1-3 ilustra esta situaci6n.
I
Sistema de ecuaciones lineales
I
J I
l
Incompatible
I l
Compatible
I
I
I
I
l
Ninguna Soluci6n Numero infinito
soluci6n imica de soluciones
Figura 1-3.
1.7. MATRICES
Sea A una tabla ordenada de numeros como sigue:
A = (=::. . ::: .. : : . . ::: l
a,.
1
a,
2
. a,)
16 ALGEBRA LINEAL
La tabla A se denomina matriz. Tal matriz se denota por A= (aii), i = 1, . .. , m, j = 1, ... , n, o
simplemente A = (aii). Las m n-plas horizontales
son las filas de Ia matriz, y las n m-plas verticales
(
a
11
) (au) (a1J
a11 a22 a1.
' , .. ,
4.. ... . ..
a,
1
a.,.
2
a,
con sus columnas. N6tese que el elemento a,i, llamado Ia entrada ij o Ia componente ij, aparece
en Ia fila i-esima y en Ia columna j-esima. Una matriz con m filas y n columnas se llama matriz
m por n, o matriz m x n; el par de numeros (m, n) se llama su tamaiio.
(
1 -3 4)
EJEMPlO 1.13. Sea A= . Entonces A es una matriz 2 x 3. Sus filas son (1, -3, 4) y
0 5 -2
(0, S, -2); sus columnas son G), ( -!) Y ( - ~ .
La, primera entrada no nula en una fila R de una matriz A se llama Ia entrada principal no
nula de R. Si R no tiene entrada principal no nula, es decir, si toda entrada en R es 0, R se
denomina una fila nula. Si todas las filas de A son nulas, es decir, si toda entrada en A es 0, A
se llama Ia matriz cero, denotada por 0.
MATRICES ESCALONADAS
Una matriz A se denomina matriz escalonada, o se dice que esta en forma escalonada, st se
cumplen las dos condiciones siguientes:
i) Todas las filas nulas, si las hay, estan en Ia parte inferior de Ia matriz.
ii) Cada entrada principal no nula esta a Ia derecha de Ia entrada principal no nula de Ia
fila precedente.
Esto es, A = (a,) es una matriz escalonada si existen entradas distintas de cero
donde
con Ia propiedad de que
para y para i > r
En este caso, a
1
i, . .. , a.i, son las entradas principales no nulas de A.
SISTEMAS DE ECUACIONES LINEALES 17
EJEMPLO 1.14. Las siguientes son matrices escalonadas cuyas entradas principales no nulas se han
rodeado con un circulo:
~
3 2 0 4 5
- ~ i ) (!
2
i ) ~
CD
3 0 0
-D
0
CD
I - 3 2
0 0 0
CD
0
o
0 0 0

0 0 0 0
CD
0 0 0 0 0
Se dice que una matriz escalonada A se ha puesto en forma can6nica por filas si tiene las
dos propiedades adicionales siguientes:
iii) Cada entrada principal no nula es 1.
iv) Cada entrada principal no nula es Ia unica entrada distinta de cero en su columna.
La tercera matriz de arriba es un ejemplo de matriz en forma can6nica por filas. La segunda no
esta en dicha forma porque Ia entrada principal no nula en Ia segunda fila no es la unica entrada
distinta de cero en su columna; hay un 3 sobre ella. La primera matriz tampoco esta en forma
can6nica por filas puesto que algunas de las entradas principales no nulas no valen 1.
La matriz cero, 0, con cualquier numero de filas y de columnas, es otro ejemplo de matriz
en forma can6nica por filas.
1.8. EQUIV ALENCIA POR FILAS.
OPERACIONES ELEMENTALES ENTRE FILAS
Se dice que una matriz A es equivalente por filas a otra B, escrito A "' B, si B puede obtenerse
a partir de A mediante una sucesi6n finita de las siguientes operaciones, llamadas operaciones
elementales entre filas:
[Ed Intercambiar las filas i-esima y j-esima: R; <-+ R i'
[
2
] Multiplicar Ia fila i-esima por un escalar no nulo k: kR; ~ R;, k =I= 0.
[
3
) Sustituir Ia fila i-esima por ella misma mas k veces Ia j-esima: kRj + R; ~ R
1

En Ia pni.ctica efectuamos [E
2
] y [
3
) en un solo paso, es decir, Ia operaci6n
[E] Sustituir Ia fila i-esima por k (no nulo) veces ella misma mas k' veces Ia j-esima:
k' Rj + kR; ~ R;, k =!=0
Sin duda, el lector reconocera Ia similitud entre las operaciones anteriores y las utilizadas
para resolver sistemas de ecuaciones lineales.
El siguiente algoritmo reduce por filas una matriz A a forma escalonada. (La expresi6n
reducir por filas o, simplemente, reducir significara transformar una matriz mediante
operaciones elementales entre filas.)
Algoritmo l.SA
Aqui A = (a;) es una matriz arbitraria.
Paso 1. Encontrar Ia primera columna con una entrada no nula. Supongamos que es Ia
columnaj
1
.
1 8 ALGEBRA LINEAL
Paso 2. Intercambiar las filas de forma que aparezca una entrada no nula en la primera fila
de Ia columna j
1
, esto es, conseguir que a
1
i, - 0.
Paso 3. Utilizar a
1
i. como pivote para obtener cero bajo ei; esto es, para cada i > 1 efectuar
Ia operaci6n entre filas - aii,R
1
+ a
1
i . Ri -+Rio (-aii ) a
1
J)R
1
+ R;-+ R;.
Paso 4. Repetir los Pasos 1, 2 y 3 con Ia submatriz formada por todas las filas, excluyendo Ia
primera.
Paso 5. Continuar el proceso anterior hasta que la matriz quede en forma escalonada.
EJEMPLO 1.15. L motel'
ritmo I.&A como sigue: 3
2 - 3
4 -2
6 -4
D" "dure ' fonn ""lo"'da medinte ol Algo-
Utilizamos a
11
= 1 como pi vote para obtener ceros bajo a
11
, esto es, efectuamos las operaciones entre
filas -2R
1
+ R
2
-+R
2
Y -3R
1
+ R
3
-> R
3
para obtener Ia matriz

2 -3
0 4
0 5
Ahora utilizamos a
23
= 4 como pivote para obtener un cero bajo a
2 3
, esto es, efectuamos Ia operaci6n entre
lilas - 5R
2
+ 4R
3
-> R
3
, obteniendo Ia matriz

La matriz esta ahora en forma escalonada.
2 -3
0 4
0 0

El siguiente algoritmo reduce por filas una matriz escalonada a su forma can6nica por filas.
Algoritmo 1.8B
Aqui A = (aii) esta en forma escalonada, digamos con entradas principales no nulas
Paso 1. Multiplicar Ia ultima fila no nula R, por 1/a,i, de forma que la entrada principal no
nula sea 1.
Paso 2. a,i, = 1 como pivote para obtener ceros sobre el; esto es, para i = r- 1,
r - 2, ... , 1, efectuar la operaci6n
Paso 3. Repetir los Pasos 1 y 2 para las filas R, _
1
, R, _
2
, ... , R
2
.
Paso 4. Multiplicar R
1
por 1/a
1
j ,
SISTEMAS DE ECUACIONES LINEALES 19
EJ EM PLO 1 .16. Utilizando el Algoritmo 1.8B, Ia matriz escalonada
se reduce a forma canonica por filas como sigue:
3 4
0 3
0 0
5 6)
2 5
0 4
Multiplicamos R
3
por de forma que su entrada principal no nula sea I; entonces utilizamos a
35
= 1
como pivote para obtener ceros sobre ei efectuando las operaciones - 5R
3
+ R
2
--> R
2
Y - 6R3 + R1--> Rt :
(
2 3 4 5 6) (2 3 4 5 0)
A- 0 0 3 2 5 - 0 0 3 2 0
. 0 0 0 0 l 0 0 0 0 1
Multiplicamos R
2
por d e modo que su entrada principal no nula sea 1; entonces utilizamos a
2 3
= I como
pivote para conseguir un 0 encima, con Ia operacion -4R
2
+ R
1
-+ R
1
:
(
2 3 4 5
A- 0 0 l j
0 0 0 0
Finalmente, multiplicamos R
1
por i obteniendo
Esta matriz es Ia for ma canonica por filas de A.
~ ) - ~ ~ ~ : )
l 0 0 0 0 l
Los Algoritmos 1.8A y 1.88 muestran que cualquier matriz es equivalente por filas a a!
menos una matriz en forma can6nica por filas. En el Capitulo 5 demostraremos que tal matriz
es 1mica, esto es:
Teorema 1.8: Cualquier matriz A es equivalente por filas a una {mica matriz en forma can6nica
por filas (Hamada Ia forma canonica por filas de A).
Nota: Si una matriz A esta en forma escalonada, sus entradas principales no nulas se
denominaran entradas pivote. El termino proviene del algoritmo anterior que reduce por filas
una matriz a forma escalonada.
1.9. SISTEMAS DE ECUACTONES LINEALES Y MATRICES
La matriz ampliada M del sistema [1.3] de m ecuaciones lineales con n incognitas es Ia siguiente:
M = (=:: . _::: .. : .. :::. :.:)
a,.
1
a.,
2
a.... b.,.
20 ALGEBRA LINEAL
Observese que cada fila de M corresponde a una ecuacion del sistema y cada columna a los
coeficientes de una incognita, excepto Ia ultima, que corresponde a las constantes del sistema.
La matriz de coeficientes A del sistema [1.3] es
A = (:.:_:_ . ::: . ::: . :::)
a,.
1
a..,
2
a...,
Notese que la matriz de coeficientes A puede obtenerse de Ia ampliada M omitiendo su ultima
columna.
Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada.
Especificamente, reduciendola a forma escalonada (lo que nos dice si el sistema es compatible)
y luego a su forma canonica por filas. La justificacion de este proceso proviene de los siguientes
hechos:
l. Cualquier operacion elemental entre filas en Ia matriz ampliada M del sistema es
equivalente a efectuar Ia operacion correspondiente en el sistema mismo.
2. El sistema tiene solucion si y solo si la forma escalonada de la matriz ampliada no tiene
una fila de Ia forma (0, 0, ... , 0, b) con b '# 0.
3. En la forma can6nica por filas de Ia matriz ampliada M (excluyendo filas nulas) el
coeficiente de cada variable no libre es una entrada principal no nula igual a uno y es
Ia unica entrada distinta de cero en su columna; de aqui Ia solucion en forma de
variables libres se obtiene simplemente transfiriendo los terminos de variable no libre a!
otro miembro.
Este proceso se ilustra en el siguiente ejemplo.
EJEMPLO 1.17
a) El sistema
x + y - 2z + 4t = 5
2x + 2y - 3z + t = 3
3x + 3 y - 4z - 2t = l
se resuelve reduciendo su matriz ampliada M a forma escalonada y despues a forma can6nica por filas
como sigue:
r
-2
' M = 2 2 -3
3 . 3 -4
4
-2
1
0
0
-2 4
1 -7
2 - 14
- ~ - G
-14
0
0 -10 -9)
1 -7 -7
[La tercera fila (en Ia segunda matriz) se suprime, puesto que es un multiplo de Ia segunda y
resultara una fila nula.] Asi Ia soluci6n general en forma de variables libres del sistema es como se
indica a continuaci6n:
x+y -lOt= -9
z - 7t = -7
0
X= -9 - y +lOt
z = -7 + 1t
Aqui las variables libres son y y r, y las no libres x y z.
SISTEMAS DE ECUACIONES LINEALES 21
b) El sistema
x
1
+ x
1
- 2x
3
+ 3x
4
= 4
2x
1
+ 3x
1
+ 3x
3
- x
4
= 3
5x
1
+ 7x
2
+ 4x
3
+ x
4
= 5
se resuelve como sigue. Para empezar, reducimos su matriz ampliada a forma escalonada:

-2 3

-2 3
(:
-2 3
3 3 -1 7 -7 1 7 -7
7 4 1 2 14 -14 15 0 0 0 0

-5
No hay necesidad de continuar para hallar Ia forma can6nica por filas de Ia matriz, puesto que Ia
matriz escalonada ya nos indica que el sistema no tiene soluci6n. Especificamente, Ia tercera fila en Ia
matriz escalonada corresponde a Ia ecuaci6n degenerada
que no tiene soluci6 n.
c) El sistema
X+ 2y + Z = 3
2x + 5y- z = -4
3x - 2y - z = 5
se resuelve reduciendo su matriz ampliada a forma escalonada y luego a forma can6nica por filas como
sigue:
2
5 -1
-2 -1
3) (1 2
-4 - 0 1
2 1
-3
0
5 0 -8

1
-3
-4
2
1
0

-4 0

0 -28 -84
2
0 0) (1
0 -1 - 0
1 3 0
! -:)
De este modo, el sistema tiene Ia soluci6n (mica x = 2, y = - 1, z = 3 o u = (2, -1, 3). (N6tese que
Ia forma escalonada de M ya indicaba que Ia soluci6n era (mica, puesto que correspondia a un sistema
triangular.)
1.10. SISTEMAS DE ECUACIONES LINEALES HOMOGENEOS
Se dice que el sistema de ecuaciones lineales [1.3] es homogeneo si todas las constantes son iguales
a cero, esto es, si tiene Ia forma
a
11
x
1
+ a
12
x
2
+ + a
1
,.x,. = 0
a
21
x
1
+ a
22
x
2
+ + a
2
,.x,. = 0
[1.6]
De becho, [1.6] se denomina el sistema homogeneo asociado con el sistema [1. 3].
22 ALGEBRA LINEAL
El sistema homogimeo (1 .6) siempre tiene una solucion, a saber, la n-pla nula 0 = (0, 0, ... , 0)
Hamada Ia solucion nula o trivial. (Cualquier otra solucion, si existe, se denomina solucion no
nula o no trivial.) Siendo asi, el sistema siempre puede reducirse a uno homogeneo equivalente
en forma escalonada:
a
11
x
1
+ a
12
x
2
+ a
13
x
3
+ + a
1
,.xft = 0
a2hxh + al.h+lxh+l + ... + al,.xft = 0
a,i.xi, + a,,
1
,+1x,;..+t + + a,,.x,. = 0
Existen dos posibilidades:
i) r = n. En tal caso, el sistema tiene solo la solucion nula.
ii) r < n. Entonces el sistema tiene una solucion no nula.
[1.7)
De acuerdo con esto, si empezamos con menos ecuaciones que incognitas, tendremos, en forma
escalonada, r < n y por consiguiente el sistema tendra una solucion no nula. Esto prueba el
importante teorema siguiente.
Teorema 1.9: Un sistema de ecuaciones lineales homogeneo con mas incognitas que ecuaciones
tiene solucion no nula.
EJEMPLO 1.18
a) ' El sistema homogeneo
x + 2y - 3z + w = 0
x - 3y + z- 2w = 0
2x + y - 3z + 5w = 0
tiene una soluci6n no nula porque hay cuatro incognitas pero solo tres ecuaciones.
b) Reducimos el siguiente sistema a forma escalonada:
x+ y- z=O
2x - 3y + z = 0
x- 4y + 2z = 0
x+y- z=O
-5y+3z=O
-5y + 3z = 0
x+y- z=O
-5y + 3z = 0
El sistema tiene una solucion no nula, puesto que hemos obtenido solo dos ecuaciones para las tres
inc6gnitas en forma escalonada. Por ejemplo, sea z = 5; entonces y = 3 y x = 2. Dicho de otro modo,
Ia terna (2, 3, 5) es una solucion particular no nula.
c) Reducimos el siguiente sistema a forma escalonada:
x+ y- z=O
2x + 4y- z = 0
3x + 2y + 2z = 0
x+y- z = O
2y + z = 0
-y+ 5z = 0
x+y-z=O
2y + z = 0
llz = 0
Como en forma escalonada hay tres ecuaciones y tres incognitas, el sistema dado tiene solo Ia soluci6n
nula {0, 0, 0).
-
SISTEMAS DE ECUACIONES LINEALES 23
BASE PARA LA SOLUCION GENERAL DE UN SISTEMA HOMOGENEO
Denotemos por W Ia soluci6n general de un sistema homogeneo. Se dice que los vectores
soluci6n no nulos u
1
, u
2
, ... , u. forman una base de W si todo vector soluci6n w en W puede
expresarse de forma (mica como combinaci6n lineal de u
1
, u
2
, ... , u . El numero s de tales
vectores base se denomina Ia dimension de W, escrito dim W = s. (Si W = {0}, dim W = 0, por
definicion.)
El siguiente teorema, probado en el Capitulo 5, nos dice como hallar tal base.
Teorema 1.10: Sea W Ia soluci6n general de un sistema homogeneo y supongamos que Ia forma
escalonada del sistema tiene s variables lib res. Sean u
1
, u
2
, . .. , u. las soluciones obtenidas
haciendo una de las variables libres igual a uno (o a cualquier constante distinta de cero) y las
rest antes varia bles libres iguales a cero. Entonces dim W = s y u
1
, u
2
, ... , us forman una base
deW
Nota: La expresi6n combinacion lineal utilizada anteriormente se refiere a suma de productos de
un vector por un escalar , donde tales operaciones se definen segun
(al, al , ... , an)+ (bl, b2, ... ,b.)= (al + bl, a2 + bl, ... ,an+ b.)
k(a
1
, a
2
, ,a.)= (ka
1
, ka
2
, , ka.)
Estas operaciones se estudiaran en detalle en el Capitulo 2.
EJEMPLO 1 .19. Supongamos que queremos encontrar Ia dimension y una base para Ia soluci6n general
W del sistema homogeneo
x + 2y - 3z + 2s - 4t = 0
2x + 4y - 5z + s - 6t = 0
5x +lOy- l3z + 4s- 16t = 0
Para empezar reducimos el sistema a forma escalonada. Efectuando las operaciones - 2L
1
+ L
2
.... L
2
y
- 5L
2
+ L
3
.... L
3
y despues - 2L
2
+ L
3
--> L
3
se obtiene:
x + 2y - 3z + 2s - 4t = 0
z - 3s + 2t = 0
2z- 6s + 4t = 0
y
x + 2y- 3z + 2s- 4t = 0
z-3s+2t = O
En forma escalonada, el sistema tiene t res variables libres, y, s y t; de aqui dim W = 3. Se obticnen trcs
vectores sol ucion que forman base de W como sigue:
I. Hacemos y = I, s = 0, t = 0. La sustituci 6n hacia atras proporciona Ia soluci6n u
1
= (- 2, I, 0, 0, 0).
2. Hacemos y = 0. s = I, t = 0. La sustituci6n hacia atras proporciona Ia soluci6n u
2
= (7, 0, 3. I, 0).
3. Hacemos y = 0, s = 0. t = I. La sustitucion hacia a tnis proporciona Ia sol ucion u
3
= ( - 2, 0, -2, 0, I).
El conjunto {u
1
, u
2
, u
3
] cs una base de W.
Ahora bien, cualquier soluci6n del sistema puede escribirse de Ia forma
au
1
+ bu
2
+ cu
3
=a(- 2, I, 0. 0, 0) + b(7, 0, 3, I, 0) + c( -2, 0, - 2, 0, I) = (- 2a + 7b - 2c, a, 3b - 2c. b. c)
donde a, b y c son constantes arbitrarias. Observese que esto no es mas que Ia forma parametrica de Ia
soluci6n general con Ia elecci6n de parametros y = a, s = b y r = c.
24 ALGEBRA LINEAL
SISTEMAS INHOMOGENEOS Y SUS SISTEMAS HOMOGENEOS ASOCIADOS
La relaci6n entre el sistema inhomogeneo [1.3] y su sistema homogeneo asociado [1. 6] esta con-
tenida en el siguiente teorema, cuya demostraci6n se pospone hasta el Capitulo 3 (Teorema 3.5).
Teorema 1.11: Sean v una soluci6n particular y U la soluci6n general de un sistema inhomo-
geneo de ecuaciones lineales. En tal caso,
U = v
0
+ W = {v
0
+ w : WE W}
donde W es la soluci6n general del sistema homogeneo asociado.
Esto es, U = v
0
+ W puede obtenerse sumando v
0
a cada elemento de W.
EI teorema anterior tiene una interpretacion geometrica en el espacio R
3
De forma especifica,
si W es una recta que pasa por el origen, como se muestra en Ia Figura 1-4, U = v
0
+ W es Ia
recta paralela a W que puede obtenerse sumando v
0
a cada elemento de W. Analogamente,
siempre que W sea un plano por el origen, entonces U = v
0
+ W es un plano paralelo a W.
z
v
0
+ W
X
Figura 1-4.
PROBLEMAS RESUELTOS
ECUACIONES LINEALES. SOLUCIONES
1.1. Determinar si cada una de las siguientes ecuaciones es lineal:
a) 5x + 7y - 8yz = 16 b) x + ny + ez = log 5 c) 3x + ky - 8z = 16
a) No, porque el producto yz de dos incognitas es de segundo grado.
b) Si, puesto que rc, e y log 5 son constantes.
SISTEMAS DE ECUACIONES LINEALES 25
c) Tal y como aparece, hay cuatro incognitas: x, y, z, k. Debido a! termino ky, noes una ecuacion
lineal. No obstante, supuesto que k sea una constante, Ia ecuacion es lineal en las incognitas
X, y, Z.
1.2. Considerese Ia ecuaci6n lineal x + 2y - 3z = 4. Determinar si u = (8, 1, 2) es soluci6n.
Como el orden de las incognitas es x, y, z, u = (8, I, 2) es una abreviatura de x = 8, y = I,
z = 2. Sustituimos en Ia ecuacion para obtener
8 + 2(1)- 3(2) = 4 0 8+2 - 6=4 0 4 = 4
Si, es una solucion.
1.3. Determinar si a) u = (3, 2, 1, 0) y b) v = (1, 2, 4, 5) son soluciones de Ia ecuaci6n
x
1
+ 2x
2
- 4x
3
+ x
4
= 3.
a) Sustituimos para obtener 3 + 2(2)- 4{1) + 0 = 3, o 3 = 3; si, es una solucion.
b) Sustituimos para obtener I + 2(2)- 4 (4) + 5 = 3, o - 6 = 3; no es solucion.
1.4. (,Es u = (6, 4, -2) una solucion de Ia ecuaci6n 3x
2
+ x
3
- x
1
= 4?
Por convenio, las componentes de u est{m ordcnadas de acuerdo con los subindices de las
incognitas. Esto es, u = (6, 4, - 2) es una abreviatura de x
1
= 6, x
2
= 4, x
3
= - 2. Sustituyendo en
Ia ecuacion obtenemos 3(4)- 2- 6 = 4, o 4 = 4. Si, es una solucion.
1.5. Probar el Teorema 1.1.
Supongamos a f. 0. Entonces existe el escalar bia, Sustituyendo bfa en ax = b se obtiene
a(bja) = b, o b = b; por consiguiente, hja es una solucion. Por otra parte, supongamos que x
0
es
solucion de ax = b, de forma que ax
0
= b. Multiplicando ambos miembros por l ja se obtiene
Xo = bja. De aqui b/a es Ia unica soluci6n de ax = h. Por tanto, i) queda demostrado .
. Sea ahora, por el contra rio, a = 0. Entonces, para todo escalar k, tenemos ak = Ok = 0. Si h # 0,
ax # b. De acuerdo con esto, k no es soluci6n de ax = b y queda asi demostrado ii). Si b = 0,
ak = b. Esto es, cualquier escalar k es una soluci6n de ax = b y queda demostrado iii).
1.6. Resolver cada una de las siguientes ecuaciones:
a) ex = log 5 c) 3x - 4 - x = 2x + 3
b) ex= 0 d) 7 + 2x - 4 = 3x + 3 - x
a) Como e t- 0, multiplicamos por 1/e obteniendo x = (log 5)/e.
b) Si c # 0, 0/ c = 0 es Ia unica solucion. Si c = 0, todo escalar k es soluci6n [Teorema I. I iii)).
c) La reescribimos en forma convencional, 2x- 4 = 2x + 3 6 Ox = 7. La ecuaci6n no tiene
solucion [Teorema 1.1 ii)].
d) La reescribimos en forma convencional, 3 + 2x = 2x + 3 6 Ox = 0. Todo escalar k es una
solucion [Teorema 1. 1 iii)].
1.7. Describir las soluciones de Ia ecuaci6n 2x + y + x - 5 = 2y + 3x - y + 4.
La reescribimos en forma convencional, agrupando terminos y trasponiendo:
3x + y - 5 = y + 3x + 4 0 Ox+ Oy = 9
La ecuacion es degencrada con una constante no nula. Sicndo asi, Ia ecuacion no tiene solucion.
26 ALGEBRA LINEAL
1.8. Describir las soluciones de Ia ecuaci6n 2y + 3x - y + 4 = x + 3 + y + 1 + 2x.
La reescribimos en forma convencional. agrupando terminos y trasponiendo:
y + 3x + 4 = 3x + 4 + y 0 Ox + Oy = 0
La ecuacion es degenerada con constante nula; en consecuencia, todo vector u = (a, b) en R
2
es
una solucion.
1.9. Probar el Teorema 1.3.
Probemos primero i). Tomamos xi= k
1
para j i= p. Como a
1
= 0 para j < p. Ia sustitucion en Ia
ecuacion nos conduce a
0
con aP "' 0. Por el Teorema 1.1 i), xp esta univocamente determinado como:
Por tanto, queda probado i).
Probemos ahora ii). Supongamos que u = (k
1
, k
2
, , k.) es una solucion. Entonces
0
De cualquier modo, esta es precisamente Ia solucion
-(k b-ap+lkp+l--a.k. )
u- 1 , kp-1 aP 'ke+l ... , k.
obtenida en i). Queda asi probado ii).
1.10. Considerese Ia ecuaci6n lineal x - 2y + 3z = 4. Hallar: a) tres soluciones particulares,
b) Ia soluci6n general.
a) Aqui x es Ia primera incognita. De acuerdo con ello, asignamos valores cualesquiera a las
variables libres y y z y luego despejamos x para obtener una solucion. Por ejemplo:
I . Tomamos y = 1 y z = 1. La sustitucion en Ia ecuacion nos conduce a
x-2(1}+3{1) = 4 0 x-2+3 =4 0 x=3
Por consiguiente, u
1
= (3, I, I} es una solucion.
2. Tomamos y = I, z = 0. La sustituci6n proporciona x = 6; por tanto, u
2
= {6, I, 0) es una
soluci6n.
3. Tomamos y = 0, z = I. La sustituci6n proporciona x = I; por tanto, u
3
= (1, 0, l) es una
soluci6n.
b) Para hallar Ia soluci6n general asignamos valores arbitrarios a las variables libres, digamos
y = a y z = b. (Llamamos a a y b panimctros de Ia soluci6n.) Despues sustituimos en Ia ecuaci6n
para obtener
x- 2o + 3b = 4 0 x = 4 + 2a- 3b
Asi u = (4 + 2a- 3b, a, b) es Ia soluci6n generaL
SISTEMAS DE ECUACIONES LINEALES 27
SISTEMAS EN FORMA TRIANGULAR Y ESCALONADA
1.11. Resolver el sistema
2x - 3y + Sz - 2t = 9
5y- z + 3t = 1
7z- t = 3
2t = 8
El sistema esta en forma triangular; por tanto, resolvemos por sustitucion hacia atras.
i) La ultima ecuacion proporciona t = 4.
ii) Sustituyendo en Ia tercera sc obtiene 7z - 4 = 3, 7z = 7 o z = I.
iii) Sustituyendo z = I y t = 4 en Ia segunda ecuacion obtenemos
5y- I + 3(4) = I 0 5y- 1 + 12 =I 0 5y = -10 0 y = - 2
iv) Sustituyendo y = -2, z = I, t = 4 en Ia prim era ecuacion tendremos
2x- 3( - 2) + 5(1) - 2(4) = 9 0 2x+6+5-8 = 9
Asi x =:' 3, y = -2, z = I, t = 4 es Ia soluci6n \mica del sistema.
1.12. Determinar las variables libres en cada uno de los sistemas:
3x + 2y- Sz- 6s + 2t = 4
z + Ss- 3t = 6
s - St= 5
a)
5x- 3y + 7z = 1
4y + Sz = 6
4z = 9
b)
0 2x = 6 0
x+2y-3z=,2
2x- 3y + z = 1
Sx - 4y- z = 4
c)
x= 3
a) En forma escalonada, cualquier incognita que no sea primera es variable fibre. Aqui y y t son
las variables libres.
b) Las primeras incognitas son x , y, z. Por consiguientc, no hay variables libres (como en
cualquier sistema triangular).
c) La nocion de variable libre se aplica solo a sistemas en forma escalonada.
1.13. Probar el Teorema 1.6.
Existen dos casos:
i) r = n. Esto es, hay tantas ecuaciones como incognitas. En tal caso, el sistema tiene solucion
unica.
ii) r < n. Esto es, hay menos ecuaciones que incognitas. Entonces podemos asignar valores a las
n - r variables libres arbitrariamente y obtener una soluci6n del sistema.
Se demuestra por induccion en el numero de ecuaciones del sistema, r. Si r = I, tenemos una
sola ecuaci6n lineal, no degenerada, a Ia que se aplica el Teorema 1.3 cuando n > ,. = 1, y el
Teorema 1.1 cuando n = r = I. De este modo, el teorema es valido para r = I.
Ahora supongamos que r > 1 y que el teorema es vatido para un sistema con r - I ecuaciones.
Podemos ver las r - I ecuaciones
28 ALGEBRA LINEAL
como un sistema con incognitas x ~ ... , x". Notese que el sistema esta en forma escalonada. Por Ia
hipotesis de induccion, podemos asignar arbitrariamente valores a las (n - }
2
+ I) - (r - 1) varia-
bles libres en el sistema reducido para obtener una solucion (digamos xi,= ki, . .. , x" = k"). Como
en el caso r = I, estos valores, junto con valores arbitrarios de las }
2
- 2 variables libres adicionales
(digamos x
2
= k
2
, ... , xi, _
1
= ki, _
1
), conducen a una solucion de Ia primera ecuaci6n con
(Observese que hay (n - }
2
+ I) - (r - I) + (}
2
- 2) = n - r variables libres.] Ademas, estos valores
para x
1
, .. , x" tam bien satisfacen las otras ecuaciones ya que, en estas, los coeficientes de
x
1
, . xi,-l son nulos.
Ahara, si r = n, entonces }
2
= 2. Asi obtenemos, por induccion, una solucion \mica del sub-
sistema y por ende una solucion Cmica del sistema completo. De acuerdo con esto, el teorema
queda demostrado.
1.14. Hallar Ia soluci6n general del sistema escalonado
x- 2y - 3z + 5s - 2t = 4
2z - 6s + 3t = 2
5t = 10
Como las ecuaciones empiezan con las incognitas x, z y t, respectivamente, las restantes, y y s, son
las variables libres. Para encontrar Ia solucion general asignamos parametros a las variables libres,
digamos y = a y s = b, y utilizar sustitucion hacia atras para despejar las variables no libres x, z y t.
i) La ultima ecuacion conduce a t = 2.
ii) Sustituimos t = 2, s = b en Ia segunda ecuacion para obtener
2z - 6b + 3(2) = 2 0 2z - 6b + 6 = 2 0 2z = 6b - 4 0 z = 3b- 2
iii) Sustituimos t = 2, s = b, z = 3b - 2, y = a en Ia primera ecuacion para obtener
x- 2a- 3(3b - 2) + 5b- 2(2) = 4 o x - 2a - 9b + 6 + 5b- 4 = 4 o x = 2a + 4b + 2
Asi
x = 2a + 4b + 2 y=a z = 3b- 2 s = h t=2
o. equivalentemente,
u = (2a + 4b + 2, a, 3b - 2, b, 2)
es Ia forma parametrica de Ia soluci6n general.
Alternativamente, despejar x, z y ten funci6n de las variables libres y y s proporciona Ia solucion
general en forma de variables libres:
x = 2y + 4s + 2 z = 3s - 2 t=2
SISTEMAS DE ECUACIONES LINEALES. ELIMINACION GAUSSIANA
1.15. Resolver el sistema
X- 2y + Z = 7
2x- y + 4z = 17
3x - 2y + 2z = 14
SISTEMAS DE ECUACIONES LINEALES 29
Lo reducimos a forma escalonada. Efectuamos - 2L
1
L
2
~ L
2
y - 3L
1
L
3
~ L
3
para
eliminar x de las ecuaciones segunda y tercera y a continuaci6n efectuamos -4L
2
+ 3L
3
-+ L
3
para
eliminar y de Ia tercera ecuaci6n. Estas operaciones conducen a
x - 2y+ z= 7 X - 2y + Z= 7
3y + 2z = 3 y 3y + 2z = 3
4y- z=-1
- llz = -33
El sistema esta en forma triangular y por tanto tras Ia sustituci6n hacia atnis, tiene Ia soluci6n
tinica u = (2, - 1, 3).
1.16 Resolver el sistema
2x - 5 y + 3z - 4s + 2t = 4
3x - 7 y + 2z - Ss + 4t = 9
Sx - lOy - 5z - 4s + 1t = 22
Lo reducimos a forma escalonada. Efectuamos las operaciones - 3L
1
+ ~ - > L
2
y - 5L
1
+ 2L
3
-> L
3
y luego - 5L
2
+ L
3
-> L
3
para obtener
2x - 5 y + 3z - 4s + 2t = 4
y - 5z + 2s + 2t = 6
5y- 25z + l2s + 4t = 24
y
2x - 5 y + 3z - 4s + 2t = 4
y - Sz + 2s + 2t = 6
2s- 6t = - 6
El sistema esta ahora en forma escalonada. Despejando las primeras incognitas, x, y y s, en terminos
de las variables libres, z y r, obtencmos Ia soluci6n general en forma de variables libres:
x = 26 + 11 z - 15r y = 12 + 5z- 8t s = - 3 + 3t
De esta se obtiene de una vez Ia forma parametrica de Ia soluci6n general (con z =a, t = b):
x = 26 + 11 a - i5b
1.17. Resolver el sistema
y = 12 + 5a- 8b z=a
x + 2y - 3z + 4t = 2
2x + 5 y - 2z + t = l
Sx + 12y - 7z + 6r = 7
s = - 3 + 3b t=b
Reducimos el sistema a forma escalonada. Eliminamos x de las ecuaciones segunda y tercera
mediante las operaciones - 2L
1
+ L
1
-> L
1
y - 5L
1
+ L
3
--+ L
3
; esto proporciona e1 sistema
x + 2y - 3z + 4t = 2
y+ 4z - 1t =-3
2y+8z-14t= - 3
La operaci6n - 2L
2
+ 1.
3
-+ L
3
proporciona Ia ecuaci6n degenerada 0 = 3. Siendo asi, el sistema
no tiene solucion (incluso a pesar de tener mas incognitas que ecuaciones).
1.18. Determinar los val ores de k para que el siguiente sistema, con incognitas x, y, z, tenga:
i) una solucion (mica, ii) ninguna solucion, iii) infinitas soluciones.
x+ y- z= l
2x + 3y + kz = 3
X+ ky + 3y = 2
1
r
==
30 ALGEBRA LINEAL
1.19.
Reducimos el sistema a forma escalonada. Eliminamos x de las ecuaciones segunda y tercera
mediante las operaciones - 2L
1
+ L
2
-+ L
2
y - L
1
+ L
3
-+ L
3
para obtener
x+ y- z=i
y + (k + 2)z = 1
(k - l)y + 4z = 1
Para eliminar y de Ia tercera ecuacion efectuamos Ia operacion - (k- 1) L
2
+ L
3
-+ L
3
para obtener
x+y- z=1
y + (k + 2)z = 1
(3 + k)(2 - k)z = 2 - k
El sistema tiene solucion unica si el coeficiente de z en Ia tcrccra ccuaci6n es distinto de cero; esto
es, si k '# 2 y k ,;, -3. En el caso k = 2, Ia tercera ecuaci6n se reduce a 0 = 0 y el sistema tiene un
numero infinito de soluciones (una para cada valor de z). En el caso k = -3, Ia tercera eeuaci6n se
reduce a 0 = 5 y el sistema no tiene soluci6n. Resumiendo: i) k =ft 2 y k =ft 3, ii) k = -3, iii) k = 2.
condicion debe imponerse a a, b y c para que el siguiente sistema, con incognitas
y y z, tenga soluci6n? .!
x +2y- 3z =a
2x + 6y - llz = b
x- 2y + 7z = c
Reducimos el sistema a forma escalonada. Eliminando x de las ecuaciones segunda y tercera
mediante las operaciones - 2L
1
+ L
2
-+ L
2
y - L
1
+ L
3
-+ L
3
obtenemos el sistema equivalente:
x + 2y- ' Jz =a
2y..:... Sz = b- 2a
- 4y + lOz = c- a
Eliminando y de Ia tercera ecuaci6n mediante Ia operacion 2L
2
+ L
3
-+ L
3
obtenemos finalmente
el sistema equivalente
x + 2y- Jz =a
2y- Sz = b- 2a
0 = c + 2b- Sa
El sistema no tendra soluci6n si c + lb - Sa =ft 0. Asi el sistema tendra al menos una soluci6n si
c + lb- Sa= 0, o Sa= lb +c. Observese que en este caso el sistema tendra infinitas soluciones. En
otras palabras, el sistema no puede tener soluci6n U.nica.
MATRICES. MATRICES ESCALONADAS. REDUCCION POR FILAS
1.20. Intercambiar las filas en cada una de las rria trices siguientes para obtener una matriz
escalonada:

1 .-3 4

(!
0 0 0

G
2 2 2

0 2 5 2 3 4 3 1 0
0 7 -2 0 5 -4
o
0 0
a) b) c)
1
SISTEMAS DE ECUACIONES LINEALES 31
a) Intercambiamos las filas primera y segunda, es decir, efectuamos Ia operaci6n elemental entre
filas R
1
<---> R
2

h) Llevamos Ia fila nula a Ia parte inferior de Ia matriz. es decir, efectuamos Ia operaci6n R
1
+-+ R
2
y
luego R
2
...... R
3
.
c) Ningun numero de intercambios de filas puede producir una matriz escalonada.
1.21. Reducir por filas la siguiente matriz a forma escalonada:
2 -3
4 -2
6 -4
~ )
Utilizamos a
11
= I como pi vote para obtener ceros bajo el; esto es, efectuamos las operaciones
entre filas - 2R
1
+ R
2
-> R
2
y - 3R
1
+ R
3
-> R
3
para obtener Ia matriz
~
2 -3
0 4
0 5
~ )
Ahora utilizamos a
23
= 4 como pivote para obtener un cero bajo el; esto es, efectuamos Ia operaci6n
entre filas -5R
2
+ 4R
3
.... R
3
para obtener Ia matriz
~
que esta en forma escalonada.
2 - 3
0 4
0 0
~ )
1.22. Reducir por filas Ia siguiente matriz a forma escalonada:
B ~ ( - ~ ~ =!)
Los calculos manuales suelen ser mas simples si el elemento pi vote es igual a I. Por consiguiente,
primero intercambiamos R
1
y R
2
; luego efectuamos 4R
1
+ R
2
---> R
2
y -6R
1
+ R
3
-> R
3
; y entonces
efectuamos R
2
+ R
3
-> R
3
:
~ = ~ ) ~ ~ ~
3 - 4 0 - 9
-5) (1
-26 ~ 0
26 0
2 -5)
9 -26
0 0
La matriz esta ahora en forma escalonada.
1.23. Describir el algoritmo de reducci6n por filas pivotando. Ademas, describir las ventajas, si
las hay, de utilizar este algoritmo.
El algoritmo de reducci6n por filas se convierte en un algoritmo de pivotar si la entrada de
mayor valor absoluto en Ia columna j se elige como el pi vote a
11
, y si se utiliza Ia operaci6n entre
filas
32 ALGEBRA LINEAL
La principal ventaja del algoritmo de pivotar cs que Ia operaci6n entre filas anterior solo implica
division por el pi vote a tj, y en las computadoras los errores de redondeo pueden ser sustancial-
mente reducidos cuando se divide por un numero tan grande en valor absoluto como sea posible.
1.24. Usar el algoritmo de pivotar para reducir Ia siguiente matriz A a forma escalonada:
- 2
6
-7
2
0
10
Primero intercambiamos R
1
y R
2
de modo que -3 pueda ser utilizado como el pi vote y entonces
efectuamos (1)R
1
+ R
2
-+ R
2
y (i) R
1
+ R
3
_, R
3
:
(
-3
A-
6
-2
-7
0 -1) (-3
2 1 - 0
10 2 0
6
2
- 5
0
2
10
Ahora intercambiamos R
2
y R
3
de modo que - 5 pueda ser utilizado como el pivote y efectuamos
WRz + R3 _, R3:
(
- 3

6
-5
2
Se ha llevado Ia matriz a forma escalonada.
6
-5
0
0
10
6
FORMA CANONICA POR FILAS
1.25.
1.26.
de las siguientes matrices estl'm en forma can6nica por filas?

2 -3 0


1 7 -5
r)

0 5 0

0 5 2 0 0 0 1 2 0
0 0 7 0 0 0 0 0
La primera matriz no esta en forma can6nica por filas puesto que, por ejemplo, dos de las
entradas principales no nulas son 5 y 7 en Iugar de 1. Ademas, hay entradas distintas de cero sobre
las entradas principales no nulas 5 y 7. Las matrices segunda y tercera estan en forma can6nica por
filas.
Reducir Ia siguiente matriz a forma canonica por filas:

2 -1 6

4 1 10
6 0 20 19
1.27.
-
SISTEMAS DE ECUACIONES LINEALES 33
Primero reducimos B a forma escalonada efectuando -2R
1
+R
2
--+R
2
y -3R
1
+R
3
--.R
3
y
entonces -R
2
+ R
3
-> R
3
:
2 -1 6
0 3 -2
0 3 2
2 -1 6
0 3 - 2
0 0 4
~ )
A continuaci6n reducimos Ia matriz escalonada a forma can6nica por lilas. Especificamente.
multiplicamos primero R
3
por . de modo que el pivote sea b
34
= l , y entonces efectuamos
2R
3
+ R
2
-. R
1
y - 6R
3
+ R
1
--+ R
1
:
2
0
0
-1 6
3 -2
0
2 -1
0 3
0 0
0
0

Ahora multiplicamos R
2
por }. hacienda el pivote b
23
= I. y efectuamos R
2
+ R
1
-. R
1
:
2 -1
0 1
0 0
0
0
2
0
0
0
1
0
0
0
~ )
Fi nalmente. multiplicamos R
1
por t para obtener Ia forma can6nica por lilas
1
0
0
0
1
0
0
0
1
Reducir la siguiente matriz a forma can6nica por fil as:
A ~ (i
-2 3 1
1 4 -1
5 9 -2
~ )
~ )
Primero reducimos A a forma escalonada efectuando - R
1
+ R
2
-+ R
2
y - 2R
1
+ R
3
--. R
3
y
entonces efectua ndo -3R
2
+ R
3
--. R
3
:
(
1 -2
A- 0 3
0 9
3
1 -2
3 -4
2) (1 -2
1 - 0 3
4 0 0
3 1
1 -2
0 2
Ahora utilizamos sustituci6n hacia atras. Multiplicamos R
3
por t para obtener el pivote a
34
= l
entonces efectuamos 2R
3
+ R
2
-+ R
2
y - R
3
+ R
1
--. R ,:
A - ~
-2 3 1
1)- ~
-2 3 0
:)
3 1 -2 3 1 0
0 0 0 0 1
y
34 ALGEBRA LINEAL
Ahora multiplicamos R
1
pori para obtener el pivote a
22
= l y entonces efectuamos 2R
2
+ R
1
R
1
:

-2 3 0

0

0
!)
1
1
0 1
1
0
!
0 0 0 0
Como a
11
= I. Ia ultima matriz es Ia forma canonica por filas deseada.
1.28. Describir el algoritmo de eliminaci6n de Gauss-Jordan, que reduce una matriz arbitra-
ria A a su forma can6nica por filas.
El algoritmo de Gauss-Jorda n es simila r a! de eliminacion gaussiana. salvo que aqui primero se
normaliza una lila para obtener un pivote unidad y a continuacion se utiliza el pivote para situar
ceros tanto debajo como encima de el antes de obtener el pivote siguiente.
1.29. Utilizar Ia eliminaci6n de Gauss-Jordan para obtener Ia forma can6nica por filas de la
matriz del Problema 1. 27.
Usamos Ia entrada principal no n ula a
11
= I como pivote para poner ceros debajo. efectuando
-R
1
+ R
2
R
2
y -2R
1
+ R
3
-+ R
3
; esto proporciona
(
1 -2
A- 0 3
0 9
3 1
1 -2
3 -4

Multiplicamos R
2
por i para consegui r el pivote a
22
= I y obtenemos ceros encima y debajo de a
22
efectuando -9R
2
+ R
3
R
3
y 2R
2
+ R
1
R
1
:
A-G
-2 3 1

0

-t
;)
1
t -1
1
1 -1
9 3 - 4 0 0 2
Por ultimo. multiplicamos R
3
por 1 para consegui r el pivote a
34
= I y obtenemos ceros sobre a
34
efectua ndo

+ R
2
R
1
y {1)R
3
+ R
1
R
1
:
A-G
0
-t

0

0
!)
t
_,
1
t
0
0 0
0 0
1.30. Se habla de una forma escalonada de una matriz A y de Ia forma can6nica por filas
de A. <.Por que?
Una matriz arbitraria A puede ser equivalente por filas a muchas matrices escalonadas. Por el
cont ra rio, con independencia del algoritmo utilizado, una matriz A es equivalente por filas a una
unica matriz en forma canonica por filas. (El termino can6nico usua lmente connota unicidad.)
Por ejemplo, las formas canonicas por lilas de los Problemas 1.27 y 1.29 son iguales.
-
SISTEMAS DE ECUACIONES LINEALES 35
1.31. Dada una matriz escalonada n x n en forma triangular,
au au a13 at, -1 ah
0 a22 a23 al,n- 1
A= 0 0
a3J
0
3,,-1
9o" o o. o o o oo 0 0 o 00 0 00
0 0 0 0
a""
con todos los a;; i= 0, hallar Ia forma can6nica por filas de A.
Multiplicando R. por 1/a.,. y utilizando el nuevo a,.. = 1 como pivote obtenemos Ia matriz
all all an al.n- 1
0
U22 a23 a2. n - 1
0 0
a33 a3,n-l
0 0
0 0 0 0 1
Observese que Ia ultima columna de A lie ha convertido en un vector unitario. Cada sustitucion
hacia atras subsiguiente proporciona un nuevo vector columna unitario y el resultado final es

0 0 ... 1
es decir, A tiene Ia matriz identidad, I , n n, como su forma can6nica por lilas.
1.32. Reducir Ia siguiente matriz triangular con elementos diagonales no nulos a forma can6-
nica por fil as:

-9
;)
2
0
Por el Problema 1.31, C es equivalente por lilas a Ia matriz identidad. De forma alternativa,
por sustituci6n hacia atfas,

- 9

- 9
;)-G
- 9

0

0
2 2 1 1
1
0 0 0 0 0
SISTEMAS DE ECUACIONES LINEALES EN FORMA MATRICIAL
1.33. Hallar Ia matriz ampliada M y Ia matriz de coeficientes A del siguiente sistema:
x + 2y - 3z = 4
3y- 4z + 7x = 5
6z + Sx- 9y = 1
;)
36 ALGEBRA LINEAL
Empezaremos alineando las incognitas del sistema para obtener
x + 2y- 3z = 4
Entonces
2 -3
3 -4
-9 6
7x + 3y- 4z = 5
8x - 9y + 6z =I
y
1.34. Resolver, utilizando Ia matriz ampliada,
x - 2y + 4z = 2
2x- 3y + 5z = 3
3x- 4y + 6z = 7
Reducimos Ia matriz ampliada a forma escalonada:
(
1 -2
2 -3
3 -4
4
5
6
2) (1 -2 4
3 - 0 I -3
7 0 2 -6
-2
l
0
La tercera fila de Ia matriz escalonada corresponde a Ia ecuacion degenerada 0 = 3; en consecuencia.
el sistema no tiene soluci6n.
1.35. Resolver, utilizando Ia matriz ampliada ,
x + 2y - 3z - 2s + 4t = 1
2x + 5y- 8z- s + 6t = 4
x + 4y - 7z + 5s + 2t = 8
Reducimos Ia matriz ampliada a forma escalonada y luego a forma canonica por filas:
~
2. - 3 - 2 4
; ) - ~
2 - 3 -2 4
5 - 8 - 1 6 - 2 3 - 2
4 -7 5 2 2 - 4 7 - 2
- ~
2 -3 0 8
- ; ) - ~
-2 0 - 8
0 0 I 2
Asi Ia soluci6n en forma de variables libres es
X+ Z + 24t = 21
y - 2z- 8t = - 7
s+ 2t = 3
donde z y t son las variables libres.
0
~ ) - ~
2 -3
-2
0
0 0 24
1 - 2 0 - 8
0 0
X= 21 - Z - 24t
y = -7 + 2z + 8t
s = 3 - 2t
2
0
-2 4
3 - 2
2
21)
- 7
3
~ ) -
1.36.
SISTEMAS DE ECUACIONES LINEALES
Resolver, utilizando Ia matriz ampliada,
X +2y-
z=3
X+ 3y + Z = 5
3x + 8 y + 4z = 17
Reducimos Ia matriz ampliada a forma escalonada y luego a forma canonica por filas:
(i
2 - 1
!) ~
2 -1
~ ) - ~
2 -1
~ ) - ~
3 2 1 2
8 4 17 0 2 7 0 3
- ~
2 0
~ 1 ) - ~
0 0
~ 1 )
1 0 1 0
0 1 0
El
. I I " l.1 l !i (ll 14)
Sistema t1ene a so uc10n umca x =
3
, y = -
3
, z =
3
o u =
3
, -
3
, 3 .
2 -1
1 2
0
37
~ ) -
SISTEMAS HOMOGENEOS
1.37. Determinar si cada uno de los sistemas siguientes tiene una soluci6n no nula.
x - 2y + 3z - 2w = 0
3x - 7 y - 2z + 4w = 0
4x + 3y + Sz + 2w = 0
a)
x + 2y- 3z = 0
2x + Sy + 2z = 0
3x- y- 4z = 0
b)
X+ 2y- Z = 0
2x + Sy + 2z = 0
x + 4y + 7z = 0
x + 3y + 3z = 0
c)
a) El sistema debe tener una solucion no nula puesto que hay mas incognitas que ecuaciones.
b) Reducimos a forma escalon ada:
x + 2y- 3z = 0
2x + Sy + 2z = 0
3x - y- 4z = 0
a
x + 2y - Jz = 0
y + 8z = 0
- 1y + Sz = 0
a
x + 2y- 3z = 0
y + 8z = 0
61z = 0
En forma escalonada hay exactamente tres ecuaciones con tres incognitas; por tanto, el sistema
tiene una solucion unica, Ia solucion nula.
c) Reducimos a forma escalonada:
X+ 2y- Z = 0
2x + 5y + 2z = 0
x + 4y + 1z = 0
x + 3y + 3z = 0
a
X+ 2y- Z = 0
y + 4z = 0
2y + 8z = 0
y + 4z = 0
a
X+ 2y- Z = 0
y + 4z = 0
En forma escalonada hay solo dos ecuaciones con tres incognitas; por consiguiente, el sis tema
tiene una solucion no nula.
38 ALGEBRA LINEAL
1.38. Encontrar Ia dimension y una base para Ia soluci6n general W del sistema homogeneo
x + 3 y - 2z + 5s - 3t = 0
2x + 1y - 3z + 1s- 5t = 0
3x + lly - 4z + lOs - 9t = 0
Mostrar como Ia base da Ia forma parametrica de Ia soluci6n general del sistema.
Reducimos el sistema a forma escalonada. Efectuamos las operaciones -2L
1
+ L2 -L
2
Y
- 3L
1
+ L
3
-> L
3
y entonces - 2L
2
+ L
3
- L
3
para obtener
x + 3y- 2z + 5s- 3t = 0
y+ z - 3s+ t = O
2y + 2z- 5s = 0
y
x + 3y - 2z + 5s - 3t = 0
y + z- 3s + t = 0
s-2t =0
En forma escalonada, el sistema tiene dos variables libres, z y r; por ende, dim W = 2. Puede
obtenerse una base [u
1
, u
2
] para W como sigue:
I. Hacemos z = I, t = 0. La sustitucion hacia atras proporciona s = 0, luego y = -1 y despues
x = 5. Por tanto, u
1
= (5, - I, 1, 0, 0).
2. Hacemos z = 0, t = I. La sustitucion hacia atnis proporciona s = 2, luego y = 5 y despues
x = -22. Por consiguiente, 11
2
= ( - 22, 5, 0, 2, 1).
Multiplicando los vectores de Ia base por los parametros a y b, respectivamente, obtenemos
au
1
+ bu
2
= a(5, -1, 1, 0, 0) + b( - 22, 5, 0, 2, I)= (Sa - 22b, -a+ 5b, a, 2b, b)
Esta es Ia forma parametrica de Ia solucion general. .
1.39. Hallar Ia dimension y una base para Ia solucion general W del sistema homogeneo
x + 2y- 3z = 0
2x + 5y + 2z = 0
3x - y- 4z = 0
Reducimos el sistema a forma escalonada. Del Problema 1.37 b) tenemos
x + 2y- 3z = 0
y + 8z = 0
61z = 0
No hay variables libres (el sistema esta en forma triangular). Luego dim W = 0 y W no tiene base.
Especificamente, W consiste solo en Ia soluci6n nula, W = {0}.
1.40. Encontrar Ia dimension y una base para Ia soluci6n general W del sistema homogeneo
2x + 4y- 5z + 3t = 0
3x + 6y - 7z + 4t = 0
5x + lOy - llz + 6t = 0
SISTEMAS DE ECUACIONES LINEALES 39
Reducimos el sistema a forma escalonada. Efectuamos -3L
1
+ 2L
2
..... L
2
y - 5L
1
+ 2L
3
-+ L
3
y
entonces - 3L
2
+ L
3
-+ L
3
para obtener
2x + 4y- 5z + 3t = 0
z- l = 0
3z - 3t = 0
y
2x + 4y- 5z + 3t = 0
z- t = 0
En forma escalonada, el sistema tiene dos variables libres. )' y t; por consiguiente. dim W = 2. Una
base { u
1
, u
2
} de W puede obtenerse como sigue:
I. Tomamos y = I. t = 0. La sustituci6n hacia atras proporciona Ia soluci6n u
1
= ( - 2, I. 0. 0).
2. Tom amos y = 0, t = I. La sustituci6n hacia atnis proporciona Ia soluci6n u
2
= ( 1, 0. I. I).
1.41. Considerese el sistema
x - 3 y - 2z + 4t = 5
3x - 8 y - Jz + 8t = 18
2x - 3y + 5z - 4t = 19
a) Hallar la forma parametrica de la soluci6n general del sistema.
b) Mostrar que el resultado de a) puede reescribirse en Ia forma dada por el Teo-
rema 1.11.
a) Reducimos el sistema a forma escalonada. Efectuamos -3L
1
+ L
2
-+ L
2
y -2L
1
+ L.l ...... L
3
y
entonccs - 3L
2
+ L
3
-+ L
3
. para obtener
x - 3y- 2z + 4t = 5
y + 3z- 4t = 3
3y + 9z- 12t = 9
y
x- 3y- 2z + 4t = 5
y + 3z- 4t = 3
En forma escalonada, las variables libres son ;; y 1. Tomamos z = a y t = h, donde a y h son
parametres. La sustituci6n hacia atras proporciona y = 3 - 3a + 4h y entonces x = 14- 7a + 8h.
De este modo, Ia forma pammctrica de Ia soluci6n es
x = 14- 7a + 8h y = 3 - 3a + 4b z = a t=b
h) Sea v
0
= (14, 3, 0, 0) el vector de terminos constantes en (); sea 11
1
= ( -7, - 3, I, 0) el vector
de coeficientes de a en..(), y sea u
2
= (8, 4, 0, I) el vector de weficientes deb en (-). Entonces
Ia soluci6n general ( ) puede reescribirse en forma vectorial como
(x, y, z, t) = v
0
+ au
1
+ hu
2
(u)
A continuaci6n probamos que ( *"') es Ia soluci6n general del Teorema I. II. En primer
Iugar, n6tese que v
0
cs Ia soluci6n del sistema inhomogcneo obtenido haciendo a = 0 y h = 0.
Consideremos el sistema homogeneo asociado, en forma escalonada:
x - 3 y - 2z + 4t = 0
y + 3z- 4t = 0
Las variables librcs son;; y t. Hacemos z = 1 y t = 0 para obtcner Ia soluci6n u
1
= ( - 7, - 3, I, 0).
Hacemos ahora = = 0 y r =I para obtener Ia soluci6n u
2
= (8. 4, 0. 1). Por el Teorema 1.10.
{ 11
1
, u
2
} es una base del espacio soluci6n del sistema homogeneo asociado. Entonces (*"') tiene
Ia forma deseada.
40 ALGEBRA LINEAL
PROBLEMAS V ARIOS
1.42. Demostrar que cada una de las operaciones elementales [
1
]. [
2
), [
3
) tiene una opera-
cion inversa del mismo tipoo
[E,] Intercambiar las ecuaciones i-esima y j-esima: L;.-.Lio
[
2
] Multiplicar la ecuaci6n i-esima por un escalar no nulo k: kL; -t L;. k =1= Oo
[
3
) Sustituir Ia ecuaci6n i-esima por ella misma mas k veces Ia j-esima: kLi + L; -t L;o
a) Intercambiando el mismo par de ecuaciones dos veces obtenemos el sistema original. Esto es,
Li ...... Li es su pro pia inversao
b) Multiplicando Ia i-esima ecuacion porky luego por k-
1
o por k-
1
y luego pork, obtcnemos
eJ sistema original. En otras palabras, las operaciones kL;-+ L; y k -
1
L
1
-+ L; son inversaso
c) Efectuando Ia operacion kLi + L;---> L
1
y luego Ia - kLi + L;---> L;. o viceversa, obtenemos el
sistema original. En otras palabras, las operaciones kLi + L;-+ L, y - kLi + L;-+ L; son
inversaso
1.43. Demostrar que el efecto de ejecutar Ia siguiente operaci6n [E] puede obtenerse efectuando
[
2
] y luego [
3
].
[E] Sustituir Ia ecuaci6n i-esima por k (no nulo) veces ella misma mas k' veces Ia j-esima:
k' Li + kL; -tL;, k =I= Oo
Efectuar kL; --+ L; y fuego k' L
1
+ L; -+ L; conduce al mismo resultado que efectuar Ia operaci6n
k' L
1
+ kL,-+ L
1
o
1.44. Supongamos que cada ecuaci6n L; en el sistema [103) se multiplica por una constante c;
y que las ecuaciones resultantes se suman para dar
(c
1
a
11
+ ooo + c,.a,.
1
)x
1
+
00 0
+ (c
1
a
1
, +
0 0 0
+ c,.a,.,)x, = c
1
b
1
+ + c,b'" [l]
Tal ecuaci6n se denomina una combinaci6n lineal de las ecuaciones L;o Demostrar que
cualquier soluci6n del sistema [l.3) es tambien soluci6n de Ia combinaci6n lineal [1].
Supongamos que u = (k
1
, k
2
, .. o, k.) es una soluci6n de [1.3]:
(i = I, .. 0, m)
Para probar que u es una soluci6n de [1] debemos verificar Ia ecuacion
(c
1
a
11
+ .. o + c.,a ..
1
)k
1
+ .. o + (c
1
a
1
+
000
+ c .. a,..)k. = c
1
b
1
+
000
+ c,.b,.
Pero esta puede arreglarse de Ia forma
c
1
(a
11
k
1
+ ..
0
+ a
1
.k.) +
00 0
+ c,.(a,.
1
+
00 0
+ a.,.k.) = c
1
b
1
+
000
+ c.,b,.
o por [2]
c
1
b
1
+ ooo + c.,b,. = c
1
b
1
+ OOo + c,.b.,
que es claramente una expresi6n ciertao
[2]
1.45. Sup6ngase que un sistema de ecuaciones lineales ( #) se obtiene a partir de otro ( *)
mediante 1a ejecuci6n de una sola operaci6n elemental - [
1
], [
2
], o [
3
)- o Demostrar
que ( #) y ( *) tienen todas las soluciones en cornu no
SISTEMAS DE ECUACIONES LINEALES 41
Cad a ecuaci6n de ( #) es una combinacion lineal de ecuaciones de ( * ). Por tanto, por el
Problema. 1.44. cualquier solucion de () sera solucion de todas las ecuaciones de ( # ). Dicho de
otro modo, el conjunto solucion de () esta contenido en el de(#). Por otra parte, como las
operaciones [
1
], [
2
] y [
3
] tienen operaciones elementales inversas. el sistema () puede obtenerse
del ( #) por medio de una sola operacion elemental. De acuerdo con ello, el conjunto soluci6n de
( #) esta contenido en el de ( * ). Siendo asi, ( #) y ( *) tienen las mismas soluciones.
1.46. Demostrar el Teorema 1.4.
Por el Problema 1.45, cada paso deja inalterado el conjunto soluci6n. Por tanto, el sistema
original ( #) y el final () tienen el mismo conjunto solucion.
1.47. Probar que las tres afirmaciones siguientes, relativas a un sistema de ecuaciones lineales,
son equivalentes: i) El sistema es compatible (tiene solucion). ii) Ninguna combinaci6n
lineal de las ecuaciones es Ia ecuaci6n
Ox
1
+ Ox
2
+ +Ox" = b =I= 0
iii) El sistema es reducible a forma escalonada.
Si el sistema es reducible a forma escalonada, dicha forma tiene una solucion y por endc Ia
tiene el sistema original. Asi iii) implica i).
Si el sistema tiene una solucion, por el Problema 1.44 cualquier combinacion lineal de las
ecuaciones tiene tambien una solucion. Pero () no tiene solucion, luego noes combinacion lineal
de las ecuaciones. Asi i) implica ii).
Finalmente, supongamos que el sistema no es reducible a forma escalonada. Entonces en el
algoritmo gaussiano debe dar una ecuacion de Ia forma (). Por consiguiente, () es una combi-
nacion lineal de las ecuaciones. Asi no- iii) implica no- ii) o, equivalentemente. ii) implica iii).
PROBLEMAS SUPLEMENTARIOS
RESOLUCION DE ECUACIONES LINEALES
1.48. Resolver:
a)
2x + 3y = 1
b)
2x + 4y = 10
c)
4x - 2y = 5
5x + 7y = 3 3x + 6y = 15 - 6x + 3y = 1
1.49. Resolver:
2x- y- 3z = 5 2x + 3y- 2z = 5 X+ 2y + 3z = 3
a) 3x- 2y + 2z = 5 b) x- 2y + 3z = 2 c) 2x + 3y + 8z = 4
5x - 3y- z = 16 4x - y +.4z = l 3x + 2y + 17z = 1
1.50. Resolver:
2x + 3y = 3 x + 2y - 3z + 2t = 2 X +2y- z + 3t = 3
a) X- 2y = 5 b) 2x + 5y - 8z + 6t = 5 c) 2x + 4y + 4z + 3t = 9
3x + 2y = 7 3x + 4 y - 5z + 2t = 4 3x + 6y- z + St = to
42 ALGEBRA LINEAL
1.51. Resolver:
x + 2y + 2z = 2
a) 3x - 2y - z = 5
2x- 5y + 3z = -4
x + 4y + 6z = 0
x + 5 y + 4z - 13t = 3
b) 3x - y + 2z + 5t = 2
2x + 2y + 3z- 4t = l
SISTEMAS HOMOGENEOS
1.52. Determinar si cada uno de los siguientes sistemas tiene una soluci6n no nula:
x + 3y - 2z = 0
a) x- 8y + 8z = 0
3x- 2y + 4z = 0
x + 3y- 2z = 0
b) 2x - 3y + z = 0
3x - 2y + 2z = 0
x + 2y - 5z + 4t = 0
c) 2x - 3y + 2z + 3t = 0
4x - 7y + z- 6t = 0
1.53. Hallar Ia dimension y una base para Ia soluci6n general W de cada uno de los sistemas siguientes.
x + 3y + 2z - s - t = 0
a) 2x + 6y + 5z + s - t = 0
5x + l5y + 12z + s- 3t = 0
2x - 4y + 3z - s + 2t = 0
b) 3x - 6y + 5z - 2s + 4t = 0
5x- lOy+ 7z- 3s + t = 0
MATRICES ESCALONADAS Y OPERACIONES ELEMENTALES ENTRE FlLAS
1.54.
Reducir A a forma escalonada y luego a su forma can6nica por lilas, siendo

2 -1 2
:)

3 -2 5
;)
a) 4 1 -2 b) -1 2 0
6 2 -6 -5 6 - 5
1.55. Reducir A a forma escalonada y luego a su forma can6nica por lilas, siendo

3 -1
!)

3
-!)
11 -5
4 - 1
a)
-5 3
b)
0 1
1 5 -3
1.56. Describir todas las matrices 2 x 2 posibles que estim en forma escalonada reducida por filas.
1.57. Sup6ngase que A es una matriz cuadrada escalonada reducida por filas. Demostrar que si A Ia
matri z identidad, A tiene una fila nula.
1.58. Demostrar que cada una de las operaciones elementales entre fi las siguientes tiene una operaci6n
inversa del mismo tipo.
[
1
) lntercambiar las filas i-esima y j-esima: R;..-. Ri.
[
2
) Multiplicar Ia fila i-esima por un escalar no nulo k: kR;-+ R;, k 0.
[
3
) Sustituir Ia fila i-esima por ella misma mas k veces Ia j -esima: kR
1
+ R
1
-+ R
1

SISTEMAS DE ECUACIONES LINEALES 43
1.59. Demostrar que Ia equivalencia por filas es una relaci6n de equivalencia:
i) A es equivalente por filas a A.
ii) Si A es equivalente por filas a B, entonces B es equivalente por filas a A.
iii) Si A es equivalente por filas a B y B es equivalente por filas a C, entonces A es equivalente por
filas a C.
PROBLEMAS V ARIOS
Considerense dos ecuaciones lineales generales con dos incognitas x e y sobre el cuerpo real R:
ax+ by= e
ex + dy = f
Demostrar que:
i)
.
a b
s1 ~ # d' es
, . de- bf
decir, si ad - be # 0, entonces el sistema tiene Ia solucion umca x = ---
ad - be'
af- ee
y= - --
ad - be'
. a b e
ii) s1 ~ = d # J' entonces el sistema no tiene solucion;
a b e
iii) si - - entonces el sistema tiene mas de una solucion.
~ d ~
1.61. Considerese el sistema
ax+ by= I
ex + dy = 0
Demostra r que si ad- be# 0, entonces el sistema tiene Ia solucion unica X = df(ad- be),
y = - ef(ad - be). Demostrar tambien que si ad - be= 0, c # 0 o d # 0, entonces el sistema no tiene
solucion.
1.62. Demostrar que una ecuacion de Ia forma Ox
1
+ Ox
2
+ ... + Ox.= 0 puede anadirse a o suprimirse
de un sistema sin alterar el conjunto soluci6n.
1.63. Considerese un sistema de ecuaciones lineales con el mismo numero de ecuaeiones que de incognitas:
a
11
x
1
+ aux
2
+ + a
1
.x. = b
1
a
21
x
1
+ a
22
x
2
+ + a2ox. = b
2
[1]
i) Suponiendo que el sistema homogeneo asociado tiene solo Ia solucion nula, probar que [1] tiene
una solucion unica para cada elecci6n de las constantes b;.
ii) Suponiendo que el sistema homogeneo asociado tiene una solucion no nula, probar que existen
constantes b; para las que [I] no tiene soluci6n. Demostrar tambien que si [I] tiene una soluci6n,
entonces tiene mas de una.
1.64. Suponiendo que en un sistema de ecuaciones lineales homogeneo los coeficientes de una de las
incognitas son todos nulos, demostrar que el sistema tiene solucion no nula.
44 ALGEBRA LI NEAL
RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS
1.48. a) x = 2, y = - I; b) x = 5 - 2a, y =a; c) sin soluci6n.
1.49. a) (1. -3, -2); b) sin soluci6n; c) (-1 - 7a, 2 + 2a, a) o
{
x =-I- 7z
y=2+2z
1.50. a) :..:= 3,y= - l; b) (-a + 2b, l +2a - 2b, a, b) o
c) (!- 5bf2 - 2a, a, ! + b/2, b) o
1.51. a) (2, I , - I ); b) sin solucion.
{
X = i- 5t/ 2 - 2y
;; = t + t/ 2
1.52. a) si; b) no; c) si, por el Teorema 1.8.
{
x = - z + 2t
y = I + 2z - 2r
1.53. a) dim W = 3; u
1
= ( - 3, I, 0. 0, 0), u
2
= (7, 0, - 3, I. 0), u
3
= (3, 0, - I, 0, 1).
b) dim W = 2; u
1
= ( - 2, I, 0. 0, 0), u
2
= (5, 0. -5, -3, 1).
1.54. a)
~
I
b) ~
1.55. a)

0 ~
2 - 1 . 2
0 3 -6
0 0 - 6
3 -2 5
- II 10 - 15
0 0 0
3 - 1
I I -5
0 0
0 0
1 3
0 - 13
0 0
0 0
~ )
~ ~ )
35
0
y
y
y
y
~
~
2
0
0
0
I
0
~
~
o -rr
1 - w
0 0
o -rr
l - fi
0 0
0 0
0
0
0 0
0 0
~ )
I I .
0 ,
0
r)
CAPITULO 2
Vectores en Rn y Cn.
Vectores espaciales
2.1. INTRODUCCION
En varias aplicaciones fisicas aparecen ciertas cantidades, tales como temperatura y rapidez
(modulo de Ia velocidad), que poseen solo magnitud. Estas pueden representarse por numeros
reales y se denominan escalares. Por otra parte, tarobien existen cantidades, tales como fuerza
y velocidad, que poseen tanto magnit ud como direcci6n. Estas pueden representarse por
flechas (que tienen longitudes y direcciones apropiadas y parten de algun punto de referenda
dado, 0) y se denominan vectores.
Comenzamos considerando las siguientes operaciones con vectores.
i) Sumo: La resultante u + v de dos vectores u y v se obtiene por Ia Hamada ley del
paralelogramo; esto es, u + v es Ia diagonal del paralelogramo determinado por u y v,
como se muestra en Ia Figura 2-l(a).
ii) Producto por un esca/ar: El producto ku de un numero real k por un vector u se obtiene
multiplicando Ia magnitud de u por k y manteniendo Ia misma direcci6n si k ;;?:: 0, o Ia
direcci6n opuesta si k < 0, tal y como se muestra en Ia Figura 2- l (b).
Suponemos que el lector esta familiarizado con Ia representaci6n de puntos en el plano
mediante pares ordenados de numeros reales. Si se elige el origen de los ejes como el punta de
referencia 0 mencionado mas arriba, todo vector queda univocamente determinado por las
coordenadas de su extrema. La relaci6n entre las operaciones anteriores y los extremos es Ia
siguiente.
i) Suma: Si (a, b) y (c, d) son los extremos de los vectores u y v, entonces (a+ c, b +d)
sera el ext rema de u + v, como se muestra en Ia Figura 2-2(a).
ii) Producto por un escalar: Si (a, b) es el extremo del vector u, entonces (ka, kb) sera el
del vector ku, como se rouestra en Ia Figura 2-2(b).
46 ALGEBRA LINEAL
0
(a)
(b)
Figura 2-1.
-
Matematicamente, identificamos el vector u con su ext rema (a, b) y escribimos u = (a, b).
Ademas llamamos al par ordenado de numeros reales (a, b) punta o vector, dependiendo de su
interpretacion. Generalizando esta noci6n, llamaremos vector a una n-pla (a
1
, a
2
, ... , an) de
numeros reales. En cualquier caso, puede utilizarse una notaci6n particular para los vectores
espaciales en R
3
(Secci6n 2.8).
Presumimos al lector famili arizado con las propiedades elementales del cuerpo de los numeros
reales que denotamos por R.
2.2. VECTORES EN Rn
El conjunto de todas las n-plas de numeros reales, denotado por R", recibe el nombre de
n-espacio. Una n-pla particular en R", digamos
se denomina punta o vector; los reales u
1
son las componentes (o coordenadas) del
vector u. Ademas, al discutir el espacio R", utilizamos el termino escalar para designar a los
elementos de R.
(a + c, b +d)
(ka, kb)
(a) (b)
Figura 2-2.
VECTORES EN Rn Yen. VECTORES ESPACIALES 47
Dos vectores u y v son iguales, escrito u = v, si tienen el mismo numero de componentes, es
decir, pertenecen al mismo espacio, y si las componentes correspondientes son iguales. Los
vectores (1, 2, 3) y (2, 3, 1) no son iguales, puesto que no lo son las componentes correspon-
dientes.
EJEMPLO 2.1
a) Considerense los siguientes vectores
(0, I) (1 , - 3) . (1 , 2, .fi, 4) ( - 5, 1, 0, rr)
Los dos primeros tienen dos componentes y por tanto son puntas en R
2
; los dos ullimos tienen cuatro
componentes y por tanto son puntas en R
4
.
b) Supongase (x- y, x + y, i - I) = (4, 2, 3). Entonces, por definicion de igualdad de vectores,
x - y = 4
x + y=2
z - 1 = 3
Resolviendo el sistema de ecuaciones anterior se obtiene x = 3. y = - I y z = 4.
A veces los vectores de un n-espacio se escriben como columnas en Iugar de como se hizo
anteriormente, como filas. Tales vectores se denominan vectores columna. Por ejemplo,
U)
(
1,2)
- 35
28
son vecto res col umna con 2, 2, 3 y 3 componentes, respectivamente.
2.3. SUMA DE VECTORES Y PRODUCTO POR UN ESCALAR
Sean u y v vectores en Rn:
y
La suma de u y v, escrito u + v, es el vector obtenido sumando las componentes correspondientes
de estos:
El producto de un numero real k por el vector u, escrito ku, es el vector obtenido multiplicando
cada componente de u por k:
ku = (ku
1
, ku
2
, ... , kun)
Observese que u + v y ku son tambien vectores en Rn. Definimos, ademas,
-u = - lu y u- v = u + ( - v)
La suma de vectores con diferente numero de componentes no esta definida.
48 ALGEBRA LINEAL
Las propiedades basicas de los vectores de R" bajo las operaciones de suma vectorial y
producto por un escalar se enuncian en el siguiente teorema (demostrado en el Problema 2.4).
En el teorema, 0 = (0, 0, ... , 0), el vector nulo de R" (o vector cera).
Teorema 2.1: Para vectores arbitrarios u, v, w E Rn y escalares arbitrarios k, k' E R,
i) (u + v) + w = u + (v + w) v) k(u + v) = ku + kv
ii) u+O = u
vi) (k + k')u = ku + k'u
iii) u + (-u) = 0
vii) (kk')u = k(k'u)
iv) u+v= v +u viii) lu = u
Supongamos que u y v son vectores en R" y que u = kv para algun escalar no nulo k E R.
Entonces u se ll ama un mriltiplo de v. Se dice que u esta en Ia misma direccion que v si k > 0, y
en Ia direcci6n opuesta si k < 0.
2.4. VECTORES Y ECUACIONES LINEALES
Dos importantes conceptos relativos a vectores, las combinaciones lineales y Ia dependencia
lineal, estan estrechamente relacionados con los sistemas de ecuaciones lineales, como se vera a
continuaci6n.
COMBINACIONES LINEALES
Consideremos un sistema inhomogeneo de m ecuaciones con n incognitas:
a
11
x
1
+ a
12
x
2
+ + ahx. = b
1
a
21
x
1
+ a
22
x
2
+ + a
2
,.x. = b
2
a,
1
x
1
+ a,
2
x
2
+ +a,,. X,= b,..
Este sistema es equivalente a Ia siguiente ecuaci6n vectorial:
(
a
11
) (a
12
) (a
1
,.) (b
1
)
azt a22 az, b2
x
1
+ x
2
+ .. + x ,. . = .
. . . .
. . . .
a,..
1
a,.
2
a,,. b,.
esto es, _la ecuaci6n vectorial
donde u
1
, u
2
, , u. , v son los vectores columna anteriores, respectivamente.
Si el sistema en cuesti6n tiene una soluci6n, se dice que v es una combinaci6n lineal de los
vectores u;. Establezcamos formalmente este importante concepto.
VECTORES EN Rn Yen VECTORES ESPACIALES 49
Definicion: Un vector v es una combinaci6n lineal de vectores u
1
, u
2
, . , u. si existen escalares
k
1
, k
1
, . , k. tales que
esto es, si Ia ecuaci6n vectorial
tiene una solucion cuando los x,. son escalares por determinar.
La definici on anterior se aplica tanto a vectores columna como a vectores fila, aunque se
haya ilustrado en terminos de vectores columna.
EJEMPLO 2.2. Sean
y
Entonces v es una combinaci6n lineal de u
1
, 11
1
y u
3
ya que Ia ecuaci6n vectorial (o sistema)
0
{
2=x+y+z
3=x+y
-4 =X
tiene una soluci6n x = -4, y = 7, z = - I. En otras palabras,
DEPENDENCIA LINEAL
Consideremos un sistema homogeneo de m ecuaciones con n incognitas:
a
11
x
1
+ a
12
x
2
+ +

= 0
a
21
x
1
+ a
22
x
2
+ + a
2
.x. = 0
a,.lxl + am2x2 + ... + = 0
Este sistema es equivalente a Ia siguiente ecuacion vectorial:
(
a
11
) (a
12
) (atn) (0)
a
21
a
22
a
2
0
x 1 ; + x2 : + + x . : = ;
0
50 ALGEBRA LINEAL
esto es,
donde u
1
, u
2
, ... , un son los vectores columna anteriores, respectivamente.
Si el sistema homogeneo anterior tiene una solucion no nula, se dice que los vectores
u I, Uz, ... ' un son linealmente dependientes. Por el contrario, si el sistema tiene solo Ia solucion
nula, se dice que los vectores son linealmente independientes. Enunciemos formalmente este
importante concepto.
Definicion: Los vectores u
1
, tl
2
, ... , un en R" sou linea/mente dependientes si existen escalares
k
1
, k
2
, ... , k", no todos nulos, tales que
esto es, si Ia ecuacion vectorial
tiene una solucion no nula donde los xi son escalares por determinar. En caso contrario, se dice
que los vectores son linea/mente independientes.
La definicion anterior se aplica tauto a vectores fila como a vectores columna, aunque se
haya ilustrado en terminos de vectores columna.
EJEMPLO 2.3
a) La t'mica soluci6n de
0
{
X+ y + Z = 0
x+ y = 0
X = 0
es Ia soluci6n nula x = 0, y = 0, z = 0. De aqui los tres vectores son linealmente independientes.
b) La ecuaci6n vectorial (o sistema de ecuaciones lineales)
0
{
X+ 2y + Z = 0
x - y- 5z = 0
x + 3y + 3z = 0
tiene una soluci6n no nula (3, -2, 1), esto es, x = 3, y = -2, z = I. De este modo, los tres vectores
son linealmente dependientes.
2.5. PRODUCTO ESCALAR
Sean u y v vectores de R":
y V = (v
1
, V
2
, ... , Vn)
-
VECTORES EN Rn Y en. VECTORES ESPACIALES 51
El producto escalar o interno de u y v, denotado por u v, es el escalar obtenido multiplicando
las componentes correspondientes de los vectores y sumando los productos resultantes:
Se dice que los vectores u y v son ortogonales (o perpendiculares) si su producto escalar es cero,
esto es, si u v = 0.
EJEMPLO 2.4. Sean u = ( 1, - 2, 3, - 4), v = (6, 7, I, -2) y w = (5, - 4, 5, 7). Entonces
u v = 1 6 + (-2) . 7 + 3 l + ( - 4) . (-2) = 6 - 14 + 3 + 8 = 3
u. w = 1 . 5 + (-2) . ( - 4) + 3 . 5 + ( -4). 7 = 5 + 8 + 15- 28 = 0
Entonces u y w son ortogonales.
Las propiedades basicas del product o escalar en Rn en el Problema 2. 17) son
las siguientes.
Teorema 2.2: Para vectores arbitrarios u, v, wE R" y cualquier escal ar k E R,
i) (u + v) w = u w + v w
ii) (ku) v = k(u v)
iii) U" v = v . u
iv) u. u ?: 0, y u. u = 0 si y solo si u = 0
Nota: El espacio Rn, con las operaciones anteriores de suma vectorial, producto por un escalar
y producto interno, se suele Hamar n-espacio euclideo.
2.6. NORMA DE UN VECTOR
Sea u = (u
1
, u
2
, ... , un) un vector en R". La norma (o longitud) del vector u, escrito 1\uii, se define
como Ia raiz cuadrada no negativa de u u:
J ui + + ... + u;
Como u u 0, Ia raiz cuadrada existe. Ademas, si u # 0, entonces ll ull > 0; y 11 011 = 0.
La definicion anterior de norma de un vector se ajusta a la de longitud de un vector (flecha)
en geometria (euclidea). Concretamente, supongamos que u es un vector (flecha) en el plano R
2
con extremo P(a, b), como se indica en la Figura 2-3. Entonces Ia I y lbl son las longitudes
de los !ados del triangulo rectangulo determinado por u y las direcciones horizontal y vertical.
Por el Teorema de Pitagoras, la longitud lui de u es
Este valor es. igual a la norma de u anteriormente definida.
52 ALGEBRA -LINEAL
Figura 2-3.
P(a, b)
I
I
I
l lbl
I
I
EJEMPLO 2.5. Supongarnos u = (3, -12, - 4). Para hallar !lull, calculamos primero llu11
2
= u u
elcvando al cuadrado las componentes de u y sumimdolas:
Jl ull
2
= 3
2
+ (- 12)
2
+ ( - 4? = 9 + 144 + 16 = 169
Entonces !l ull = ji69 = 13.
Un vector u es unitario si llull = 1 o, equivalentemente, si u u = l. Ahora bien, s1 v es
cualquier vector no nulo, entonces
A 1 v
v=-v=-
ll vll ll vll
es un vector unitario en Ia misma direcci6n que v. (El proceso de hallar v se llama normalizar v.)
Por ejemplo,
v- -- -- -- -- --
v ( 2 -3 8 - 5 )
- llvll - Jl02' Ji02' jlo2' J1o2
es el vector unitario en Ia direcci6n del vector v = (2, -3, 8, - 5).
Establecemos ahora una relaci6n fundamental (demostrada en el Problema 2.22) conocida
como desigualdad de Cauchy-Schwarz.
Teorema 2.3 (Cauchy-Schwarz): Para vectores cualesquiera tt, v en R", Ju v ~ llull II vii .
Utilizando Ia desigualdild anterior probaremos (Problema 2.33) el siguiente resultado,
conocido como desigualdad triangular o de Minkowski.
Teorema 2.4 (Minkowski): Para vectores arbitrarios u, v en Rn, llu + vii ~ llull + llvll .
DISTANCIA. ANGULOS. PROYECCIONES
Sean u = (u
1
, U
2
, ... , u.) y v = (v
1
, v
2
, ... , v.) vectores en R". La distancia entre u y v, denotada
por d(u, v), se define como
VECTORES EN Rn Y en VECTORES ESPACIALES 53
Probamos que esta definicion corresponde ala nocion usual de distancia euclidea en el plano R
2
.
Consideremos u = (a, b) y v = (c, d) en R
2
. Como se muestra en Ia Figura 2-4, la distancia entre
los puntos P(a, b) y Q(c, d) es
d = Jca- c)
2
+ (b- d)
2
Por otra parte, utilizando Ia definicion anterior,
d(u, v) = ll u - vii = ll (a - c, b - d)ll = j(a - c)
2
+ (b - d)
2
Ambas definiciones conducen al mismo valor.
I
I
I
- - -------,
I Q(c, d) I
I I
0 ~ I a cf--+1
Figura 2-4.
P(a, b) . .-/
Usando Ia desigualdad de Cauchy-Schwarz podemos definir el angulo 0 entre dos vectores
no nulos u, v en Rn segun
uv
cos () = ll ull llvll
Kotese que si u v = 0, entonces 0 = 90 (o () = n/ 2). Esto esta de acuerdo con nuestra definicion
previa de ortogonalidad.
EJ EMPLO 2.6. Supongamos u =(I , -2, 3) y v = (3, -5, - 7). Entonces
d(u, v) = j o - w + ( -2 + 5)
1
+ (3 + w = j 4 + 9 + 100 =jill
Para hallar cos 8, donde 8 es el angulo entre u y v, calculamos primero
u. v = 3 + 10 .;... 21 = -8 Uull
2
= I + 4 + 9 = 14 llvll
2
= 9 + 25 + 49 = 83
En tal caso
u v -8
cos (} = - - = - = = ~
ll ull ll vll jl4j83
Sean u y v # 0 vectores en Rn. La proyeccion (vectorial) de u sabre v es el vector
uv
proy (u, v) = llvll2 v
54 ALGEBRA LINEAL
Probamos ahara que esta definicion se ajusta a Ia noci6n de proyeccion vectorial utilizada ec
fisica. Consideremos los vectores u y v de Ia Figura 2-5. La proyecci6n (perpendicular) de
sabre v es el vector u*, de magnitud
u. v u. v
lu*l = l ui cos e = lul--=-
1 u llv I . I vI
Para obtener u* multiplicamos su magnitud por el vector unitario en Ia direcci6n v:
v u. v
u* = I u*l - = --v
I vi I vl
2
Esto concuerda con Ia definicion anterior de proy (u, v).
0
Figura 2-5.
EJEMPLO 2.7. Supongamos u = (l, -2, 3) y v = (2, 5, 4). Para encontrar proy (u, v), primero hallamos
uv=2 - IO+ 12 = 4 y
Entonces
u . v 4 ( 8 20 16) ( 8 4 16)
proy (u, v) = ll vll 2 v = 45 (
2
,
5
'
4
) = 45' 45' 45 = 45' 9' 45
-
2.7. VECTORES LOCALIZADOS, HIPERPLANOS Y RECTAS EN Rn
Est a secci6n distingue entre una n-pla P(a
1
, a
2
, .. , an) = P(aJ vista como un pun to de Rn y una
n-pla v = [c
1
, c
2
, ... ,c.] vista como un vector (flecha) desde el origen 0 basta el punto
C(c
1
, c
2
, ... , c"). Cualquier par de puntas P = (ai) y Q = (bi) en R" define el veccor localizado o
segmento dirigido de P a Q, escrito PQ. Identificamos PQ con el vector
ya que PQ y v tienen Ia misma magnitud y direcci6n, tal y como se muestra en Ia Figura 2-6.
Un hiperplano H en R" es el conjunto de puntas (x
1
, x
2
, , x") que satisfacen una ecuaci6n
lineal no degenerada
-
VECTORES EN Rn Yen. VECTORES ESPACIALES 55
Figura 2-6.
En particular, un hiperplano H en R
2
es una recta, y un hiperplano Hen R
3
es un plano. El
.ector u = [a
1
, a
2
, ... , an] ;f 0 recibe el nombre de normal a H. El termino esta justificado por
el hecho (Problema 2.33) de que cualquier segmento dirigido PQ, en el que P y Q pertenecen a H ,
es ortogonal al vector normal u. Esta propiedad, en el caso de R
3
, se muestra en Ia Figura 2-7.
p Q
Figura 2-7.
La rectaL en R" que pasa por.el punto P(a
1
, a
2
, ... ,an), en Ia direcci6n del vector no nulo
u = [u
1
, u
2
, ... , u.], esta constituida por los punt os X(x
1
, x
2
, ... , x.) que satisfacen
X = P + tu . o
{
x
1
= a
1
+ u
1
t
x, ~ ~ ~ . ~ .
x.- a.+ u.t
donde el parametro t toma todos los valores reales. (Yease Ia Figura 2-8.)
56 ALGEBRA LINEAL
Figura 2-8.
EJEMPLO 2.8
a) Consideremos el hiperplano H en R" que pasa por el punto P(l, 3, -4, 2) y es normal a! vector
u = [4, -2, 5, 6]. Su ecuaci6n tiene Ia forma
4x - 2y + 5z + 6t = k
Sustituyendo P en esta ecuacion obtenemos
4(1)- 2(3) + 5( -4) + 6(2) = k 0 4 - 6 - 20 + 12 = k 0 k = - 10
Asi 4x- 2y + 5z + 61 = - 10 es Ia ecuaci6n de H.
b) Consideremos Ia rectaL en R
4
que pasa por el punto P(l, 2, 3, -4), en 1a direcci6n de u = [5, 6, -7, 8].
Una representacion parametrica de L es Ia siguiente:
x
1
= 1 + 5t
x
2
= 2 + 6t
x
3
= 3 -7t
x
4
= -4 + 8t
0 (1 + 5t, 2 + 6t, 3- 7t, -4 + 8t)
N6tese que t = 0 proporciona el punto _P en L.
CURVAS EN R"
Sea D un intervalo (finito o infinito) en la recta real R. Una funci6n continua F: D R" es una
curva en R". De este modo, a cada tED se le asigna el siguiente pun to (vector) en R":
F(t) = [F
1
(t), Fit), ... , F .(t)]
Alm mas, Ia derivada de F(t) (si existe) proporciona el vector
V(t) = dF(t)/dt = [dF
1
(t)/dt, dF
2
(t)fdt, . .. , dF .(t)/dt]
--
VECTORES EN Rn Y en. VECTORES ESPACIALES 57
que es tangente a Ia curva, y Ia normalizacion de V(t ) conduce a
V(t)
T(t) = II V(t) ll
que es el vector unitario tangente a Ia curva. [Los vectores unitarios se denotan a menudo en
negrita. Vease Ia Seccion 2.8.]
EJ EM PLO 2.9. Consideremos Ia siguiente curva C en R
3
:
F(t) = [sent, cos r, t]
Tomando Ia derivada de F(t) [o de cada componente de F(r)] se obtiene
V(t) =(cos 1, - sent, I)
que es un vector tangente a Ia curva. Normalizamos V(t). Primero obtenemos
11 V(t)ll
2
= cos
2
t + sen
1
t + I = I + I = 2
Entonces
V(r) [cos r - sent I J
T(t ) = II V(t)ll = fi ' J2 ' fi
que es el vector unitario tangente a Ia curva.
2.8. VECTORES ESPACIALES. NOTACION ijk EN R
3
Los vectores en R
3
, denominados vectores espaciales, aparecen en numerosas aplicaciones,
especialmente en fisica. De hecho, frecuentemente se utiliza una notaci6n especial para tales
vectores, que es Ia que se da a continuaci6n:
i = (I , 0, 0) denota el vector unitario en Ia direcci6n x
j = (0, 1, 0) de nota el vector unitario en Ia direcci6n y
k = (0, 0, I) de nota el vector unitario en Ia direcci6n z
En consecuencia, cualquier vector u = (a, h, c) en R
3
puede expresarse de forma imica como
sigue:
u = (a, h, c) = ai + bj + ck
Como i, j, k son vectores unitarios y son mutuamente ortogonales, tenemos
i i = I, j j = l, k k = I e ij = 0, ik = 0, jk = 0
Las diversas operaciones vectoriales discutidas previamente pueden expresarse en Ia presente
notaci6n como sigue. Supongamos u = a
1
i + a
2
j + a
3
k y v = h
1
i + b
2
j + b
3
k. Entonces
u + v = (a, + btli + (a
2
+ b
2
)j + (a
3
+ b
3
)k u v = a
1
b
1
+ a
2
b
2
+ a
3
b
3
cu = ca
1
i + ca
2
j + ca
3
k ll ull = .;;;:-;; = J ~ + ai a ~
donde c es un escalar.
58 ALGEBRA LINEAL
EJ EM PLO 2.1 0. Considerense los vectores u = 3i + 5j- 2k y v = 4i- 3j + 7k.
a) Para hallar u + v sumamos las componentes correspondientes obteniendo
u + v = 7i + 2j + Sk
b) Para hallar 3u - 1v, primero multiplicamos los vectores por los escalares y despues los sumamos:
3u - 2t = (9i + 15j- 6k) + (- 8i + 6j- 14k) = 4i + 21j- 20k
c) Para hallar u v multiplicamos las componentes correspondientes sumandolas despues:
u-v= 12-15-14= -17
d) Para hallar llu[[ elevamos al cuadrado cada componente y despues las sumamos obteniendo lluf. Esto es.
II u 11
2
= 9 + 25 + 4 = 38 y por tanto ll ull = .j38
PRODUCTO VECTORIAL
Existe una operaci6n especial para vectores u, v en R
3
, Hamada producto vectorial y denotada
por u x v. Especificamente, supongamos
y
Entonces
N6tese que u x v es un vector (de ahi su nombre). u x v tambien se denomina producto ex terno
de u y v.
En notaci6n de determinantes (Capitulo 7), con \: = ad - be, el producto vectorial puede
expresarse tambien como sigue:
o, equivalentemente,
j k
Dos importantes propiedades del producto vectorial son las siguientes (vease el Problema 2.56):
Teorema 2.5: Sean u, v y w vectores en R
3
.
i) El vector w = u x v es ortogonal a u y a v.
VECTORES EN Rn Y en. VECTORES ESPACIALES 59
X
Figura 2-9.
ii) El valor absolute del producto triple u v x w representa el volumen del paralelepipedo
determinado por los tres vectores (como se muestra en Ia Figura 2-9).
EJEMPLO 2.11
a) Supongamos u = 4i + 3j + 6k y v = 2i + 5j - 3k. Entonces
b)
u X v = I ! i -I j + I ! I k = - 39i + 24j + 14k
- 1, 5) X (3, 7, 6) = = (-41, 3, 17)
(Aqui hallamos el producto vectorial sin utilizar Ia notaci6n ijk.)
c) Los productos vectoriales de i. j, k son los siguientes:
i X j = k, j X k = i , k X i = j y j X i= - k, k X j = - i , j X k = - j
Dicho de otro modo, si vemos !a terna (i, j , k) como una permutaci6n ciclica, esto es, colocada sobre
un circulo en el sentido contrario al de las agujas del reloj como en Ia Figura 2-10, entonces el producto
de dos de los vectores en el sentido dado es el tercero, pero el producto de dos de ellos en el sentido
contrario es el tercero con signo opuesto.
j k
"-..__/
Figura 2-10.
60 ALGEBRA LINEAL
i.9. NUMEROS COMPLEJOS
El conjunto de los numeros complejos se denota por C. Formalmente, un numero complejo es
un par ordenado (a, b) de numeros reales. La igualdad, suma y producto de numeros complejos
se definen como sigue:
(a, b)=(c,d) siys6losi a = c y b=d
(a, b)+ (c, d)= (a+ c, b +d)
(a, b)(c, d)= (ac - bd, ad+ be)
Identificamos cada numero real a con el numero complejo (a, 0):
a ~ a , 0)
Esto es factible debido a que las operaciones de suma y producto de numeros reales se conservan
bajo dicha correspondencia
(a, 0) + (b, 0) = (a + b, 0) y (a, 0) (b, 0) = (ab, 0)
Asi vemos R como un subconjunto de C y reemplazamos (a, 0) por a cuando quiera que sea
conveniente y posible.
El numero complejo (0, 1 }, denotado por i, tiene Ia importante propiedad de que
e =;;=co. t)(o, t) = c - t , o) = _ , 0
i=J=l
Aun mas, utilizando el hecho de que
(a, b)= (a, 0) + (0, b) y (0, b) = (b, 0)(0, l)
tenemos
(a, b)= (a, 0) + (b, 0)(0, 1) = a+ bi
La notaci6n z = a + bi, donde a = Re z y b = Im z se denominan, respectivamente, las partes
real e imaginaria del numero complejo z, es mas conveniente que (a, b). Por ejemplo, Ia suma
y el producto de dos numeros complejos z = a + hi y w = c + di puede obtenerse simplemente
utilizando las propiedades conmutativa y distributiva, adem as de i
2
= -: 1:
z + w = (a + bi) + (c + di) = a + c + bi + di = (a + c) + (b + d)i
zw =(a + bi)(c + di) = ac + bci + adi + bdi
2
= (ac - bd) +(be + ad)i
Advertencia: El uso anterior de Ia letra i para denotar J=l no tiene, en ningun caso, relaci6n
con Ia notaci6n vectorial i = ( l, 0. 0) introd)Jcida en Ia Secci6n 2.8.
EI conjugado del numero complejo z = (a, b) = a+ bi se denota y define por
z = a + bi = a - bi
--
VECTORES EN Rn Y en VECTORES ESPACIALES 61
Entonces zz =(a+ bi) bi) = a
1
- b
2
i
2
= a
2
+ b
2
. Si, ademas, z #- 0, entonces el inverso z'-
1
de z y !a division de w por z vienen dados, respectivamente, por
y
w
= wz-
1
z
donde wE C. Tambien definimos
= lz y w z = w + ( -z)
Asi como los numeros reales pueden representarse por los puntos de una recta, los numeros
complejos pueden representarse por los puntos del plano. Concretamente, el punto (a, b) del
plano representani el numero complejo z = a + bi, es decir, el numero cuya parte real es a y
cuya parte imaginaria es b. (Vease Ia Figura 2-11.) El valor absoluto de z, escrito izl, se define
como Ia distancia de z a[ origen:
N6tese que lzl es igual a Ia norma del vector (a, b). Ademas, lzl = Fz.
b
1;;:1
z =a+ bi
I
I
I
I
a
. Figura 2-11.
EJ EM PLO 2.12. Considerense los vectonis z = 2 + 3i y w = 5 - 2i. Entonces
z + w = (2 + 3i) + (5 - 2i) = 2 + 5 + 3i - 2i = 7 + i
zw = (2 + 3i)(S- 2i) = 10 + lSi- 4i- 6i
2
= 16 + lli
y
w 5 - 2i (5 - 2i)(2 - 3i) 4 - l9i 4 19 .
-=--= =---=---r
z 2 + 3i (2 + 3i)(2 - 3i) 13 13 13
lzl =J4+9 = Ji3 y lwl = J25 + 4 = }29
Nota: En el Apendice definimos Ia estructura algebraica denominada cuerpo. Es oportuno
enfatizar que el conjunto C de los numeros complejos, con las operaciones de suma y producto
anteriores, es un cuerpo.
l
62 ALGEBRA LINEAL
2.10. VECTORES EN en
El conjunto de todas las n-plas de numeros complejos, denotado por C", se llama n-espacio
complejo. Tal como en el caso real, los elementos de C" se Haman puntos o vectores y los de C,
escalares. La suma vectorial y el producto por un escalar en C" vienen dados por
(z
1
, z
2
, , z,.) + (w
1
, w
2
, . , w") = (z
1
+ w
1
, z
2
+ w
2
, .. , z" + w,)
z(z
1
, z
2
, ... , zJ = (zz
1
, zz
2
, . , zzJ
donde z;, w;, z E C.
EJEMPLO 2.13
a) (2 + 3i, 4 - i, 3) + (3 - 2i, 5i, 4 - 6i) = (5 + i, 4 + 4i, 7 - 6i).
b) 2i(2 + 3i, 4- i, 3) = ( -6 + 4i, 2 + 8i, 6i).
Ahora sean u y v vectores arbitrarios en C":
Z;, W; E C
El producto escalar o interno de u y v se define como sigue:
u. v = z 1 wl + z2 w2 + ... + z,. w,
N6tese que esta definicion se reduce a la dada previamente en el caso real, puesto que w
1
= w;
cuando w
1
es real. La norma de u se define como
Observese que u u y por tanto ll ull son reales y positives cuando u =F 0 y 0 cuando u = 0.
EJ EM PLO 2.14. Sean u = (2 + 3i, 4 - i, 2i) y v = (3 - 2i, 5, 4 - 6i). Entonces
u . v = (2 + 31)(3 - 2i) + (4- i)(5) + (2i)(4 - 6i) =
= (2 + 3i)(3 + 2i) + (4 - i)(5) + (2i)(4 + 61) =
= l3i + 20- 5i- 12 + 8i = 8 + 16i
u . u = (2 + 3i)(2 + 31) + (4 - 1)(4- l) + (2i)(2i) =
= (2 + 3i)(2 - 3i) + (4 - i)(4 + I} + (21)(- 2i) =
= 13+17+4=34
llull = .;;;:; = j34
El espacio C", con las operaciones anteriores de suma vectorial, producto por un escalar y
producto escalar, se denomina n-espacio euc/ideo complejo.
Nota: Si u u estuviera definido por u v = z
1
w
1
+ + zn wn, pod ria darse u u = 0 incluso a
pesar de ser u =F 0, como sucederia, por ejemplo, si fuera u = (1, i, 0). De hecho, u u podria no
ser siquiera real.
VECTORES EN Rn Y en. VECTORES ESPACIALES 63
PROBLEMAS RESUELTOS
VECTORES EN R"
2.1. Sean u = (2, - 7, 1), v = ( - 3, 0, 4), w = (0, 5. - 8). Hallar a) 3u- 4v, b) 2u + 3v - 5w.
Primero efectuamos el producto por los escalares y fuego Ia suma de vectores.
a) 3u - 4v = 3(2, -7, 1) - 4(- 3, 0, 4) = (6, - 21, 3) + (12, 0, -16) = (18, - 21, -13).
b) 2u + 3v - 5w = 2(2, - 7, I) + 3(-3, 0, 4)- 5(0, 5, -8) =
= (4, - 14, 2) + ( -9, 0, 12) + (0, -25, 40) =
= (4- 9 + 0, -14 + 0 - 25, 2 + 12 + 40) = ( - 5, -39, 54).
2.2. Calcular:
Primero efectuamos el producto por los escalares y luego Ia suma de vectores.
2.3. Hallar x e y si a) (x, 3) = (2, x + y); b) (4, y) = x(2, 3).
a) Siendo iguales los dos vectores, las componentes correspondientes son iguales entre si:
x =2 3=x+y
Sustituimos x = 2 en Ia segunda ecuacion obteniendo y = I. Asi x = 2 e y = I.
b) Multiplicamos por el escalar x para obtener (4, y) = x(2, 3) = (2x, 3x). lgualamos entre si las
componentes correspondientes:
4 = 2x y = 3x
Resolvemos ahora las ecuaciones lineales para x e y: x = 2 e y = 6.
2.4. Probar el Teorema 2.1.
Sean u
1
, v
1
y w
1
las componentes i-esimas de u, v y w, respectivamente.
i) Por definicion. u
1
+ v
1
es Ia componente i-esima de u + v y por tanto (u, + v;) + w
1
es Ia de
(u + v) + w. Por otra parte, v
1
+ w
1
cs Ia componente i-esima de v + w y en consecuencia
64 ALGEBRA LINEAL
u; + (v
1
+ w;) es Ia de u + (v + w). Pero u;, v; y w; son numeros reales para los que se verifica
Ia ley asociativa, esto es,
(u; + v;) + W; = u; + (v; + w;) para i = 1, ... , n
De acuerdo con esto, (u + v) + w = u + (v + w) ya que sus componentes correspondientes
son iguales.
ii) Aqui 0 = (0, 0, ... , 0); por tanto.
u + 0 = (u
1
, u
1
, . , u.) + (0, 0, ... , 0) =
= (u
1
+ 0, u
2
+ 0, ... , u. + 0) = (u
1
, u
1
, . , u.) = u
iii) Dado que -u = -I (u
1
, u
2
, .... u.) = ( -u
1
, -u
2
, .. , -u.),
u+(-u)=(u
1
,u
1
, .. ,u.) +(-u" -u
1
, .. , -u.) =
= (u
1
- U
1
, u
2
- u
1
, .. . , u.- u.) = (0, 0, ... , 0) = 0
iv) Por definicion, u; + v; es Ia componente i-esima de u + v y vi+ ui es Ia de v + u. Pero u; y
v; son numeros reales para los que se verifica Ia ley conmutativa, esto es,
u
1
+v; =vi+ u; i = l , ... , n
Por tanto, u + v = v + u, puesto que sus componentes correspondientes son iguales.
v) Dado que u; + v; es Ia componente i-esima de u + v, k(u; + v;) es Ia de k(u + v). Como ku; y
kv
1
son las componentes i-esimas de ku y kv, respectivamente, ku; + kv; es Ia de ku + kv. Pero
k, u; y V; son numeros reales. Por tanto,
i = I, ... , n
Asi k(u + v) = ku + kv, porque sus componentes correspondientes son iguales.
vi) Observe.se que el primer signo mas se refiere a Ia suma de dos escalares k y k', mientras que
el segundo se refiere a Ia suma de dos vectores ku y k'u.
Por definicion, (k + k')u; es Ia componente i-esirna del vector (k + k' )u. Dado que ku; y
k'u; son las componentes i-esirnas de ku y k' u, respectivamente, k11; + k' u; es Ia del vector
ku + k'u. Pero k, k' y u; son numeros reales. Entonces
(k + k')u; = ktt; + k'u; i = I , ... , n
De este modo, (k + k')u = ku + k' u ya que sus componentes correspondicntes son iguales.
vii) Como k' u
1
es Ia cornponente i-t!sima de k' u, k(k' u;) es Ia de k(k'u). Pero (kk' )u
1
es Ia
componente i-esirna de (kk')u y, debido a que k, k' y u; son numeros reales,
(kk' )u; = k(k' tt;) i = I , . . . , n
Por consiguiente, (kk')u = k(k' u), puesto que sus componentes correspondientes son iguales.
viii) Ju = l(u
1
, u
2
, . .. , u.) = {lu
1
, lu
2
, ... , Iu. ) = (u
1
, u
2
, .. , u.) = u.
VECTORES Y ECUACIONES LINEALES
2.5. Convertir Ia siguiente ecuacion vectorial en un sistema de ecuaciones lineales equivalente
y resolverlo:
VECTORES EN Rn Y en. VECTORES ESPACIALES 65
Multiplicamos los vectores de Ia derecha por los escalares desconocidos y luego los sumamos:
(
1) ( x) (2y) (3z) ( x + 2y + 3z)
-6 = 2x + 5y + 2z = 2x + 5y + 2z
5 h ~ ~ h ~ ~
Igualamos entre si las componentes correspondientes de los vectores y reducimos el sistema a forma
escalonada:
x + 2y + 3z =
2x + 5y + 2z = -6
3x + 8y + 3z = 5
x + 2y + 3z =
y- 4z = - 8
2y- 6z = 2
x + 2y + 3z =
y - 4z = -8
2z = 18
El sistema es triangula r, y por sustituci6n hacia atni.s se obtiene Ia soluci6n (mica: x = - 82, y = 28,
z = 9.
2.6. Escribir el vector v = (I , - 2, 5) como combinaci6n lineal de los vectores u
1
= (I, I, I),
u
2
= (1 , 2, 3) y u
3
= (2, - 1, 1).
Queremos expresar venIa forma ~ ; = x u
1
+ yu
2
+ zu
3
, con x, y y z aun por detcrminar. Siendo
asi tenemos
(Para formar combinaciones lineales, resulta mas convenient e escribir los vectores como columnas
que como filas.) Igua lando las componentes correspondientes entre si obtenemos:
x + y + 2z = 1 x+y.+2z= x + y + 2z = 1
X+ 2y- Z= - 2 0 y- 3z = - 3 0 y- 3z = - 3
X+ 3y + z= 5 2y- z= 4 5z = 10
La soluci6n U.nica del sistema en forma triangular es x = - 6, y = 3, z = 2; asi v = - 6u
1
+ 3u
2
+ 2u
3

. 2.7. Escribir el vector v=(2, 3, -5) como combinaci6n lineal de u
1
= (1, 2, -3), u
2
=(2, - I, - 4)
y u
3
= (1, 7, -5).
Hallamos el sistema de ecuaciones equivalentes y luego lo resolvemos. En primer Iugar tomamos:
(
2) ( 1) ~ 2) ~ 1) ( x + 2y + z)
3 = x 2 + - 1 + 1 = 2x - y + 1z
- 5 - 3 - 4 -5 -3x - 4y-5z
Igualando entre si las comporientes correspondientes obtenemos
X+ 2y + Z = 2
2x - y + 1z = 3
-3x - 4y-5z =-5
0
X+ 2y + Z = 2
- 5y +5z =-l
2y- 2z = 1
0
X+ 2y + Z = 2
- 5y+5z= - 1
0= 3
La tercera ecuaci6n, 0 = 3, indica que el sistema no tiene soluci6n. Entonces v no puede escribirse
como combinaci6n lineal de los vectores u
1
, u
2
y u
3
.
66 ALGEBRA LINEAL
2.8. Determinar silos vectores u
1
= (1, 1, 1), u
2
= (2, -1, 3) y u
3
= (1, -5, 3) son linealmente
dependientes o Iinealmente independientes.
Recuerdese que u
1
, u
2
, u
3
son linealmente dependientes o linealmente independientes segun que
Ia ecuaci6n vectorial xu
1
+ yu
2
+ zu
3
tenga o no una soluci6n no nula. Asi pues, para empezar
igualamos una combinaci6n lineal de los vectores al vector nulo:
(
0) (i) ~ 2) ( I) (x + 2y + z)
0 =X 1 + -J + Z -5 = X- y- 5z
0 1 3 3 x + 3y + 3z
Igualamos las componentes correspondientes entre si y reducimos el sistema resultante a forma
escalonada:
X+ 2y + Z = 0
x - y- 5z = 0
x + 3y + 3z = 0
0
X+ 2y + Z = 0
-3y -6z = O
y + 2z = 0
0
X+ 2y + Z = 0
y+2z=0
El sistema en forma escalonada tiene una variable libre; por consiguiente, el sistema tiene una
soluci6n no trivial. Siendo asi, los vectores originales son linealmente dependientes. (No necesitamos
resolver el sistema para determinar Ia dependencia o independencia lineal; basta conocer si existe
una soluci6n no nula.)
2.9. Determinar silos vectores (1, - 2, - 3), (2, 3, - 1) y (3, 2, 1) son linealmente dependientes.
lgualamos al vector cero una combinaci6n lineal (con coelicientes x , y, z) de los vectores:
(
0) ( 1) ~ 2) \3) ( x + 2y + 3z)
0 = x -2 + 3 + 2 = - 2x + 3 y + 2z
0 - 3 -1 I - 3x - y + z
lgualamos las componentes correspondientes entre si y reducimos el sistema resultante a forma
escalonada:
x + 2y + 3z = 0
--2x + 3y_+ 2z = 0
-3x - y + z = 0
0
x + 2y + 3z = 0 x + 2y + 3z = 0 x + 2y + 3z = 0
7 y + Sz = 0 o y + 2z = 0
5y + lOz = 0 y + 8z = 0
0 y+2z=0
-6z =- 0
El sistema homogeneo esta en forma triangular, sin variables libres; por tanto, solo tiene Ia soluci6n
trivial. Asi que los vectores originales son linealmente independientes.
2.10. Demostrar la siguiente afirmaci6n: n + 1 o mas vectores arbitrarios en Rn son linealmente
dependientes.
Supongamos que u
1
, u
1
, ... , uq son vectores en R" con q > n. La ecuaci6n vectorial
x
1
u
1
+x
2
u
2
+ +xquq = O
es equivalente a un sistema homog(meo de n ecuaciones con q > n incognitas. De acuerdo con el
Teorema 1.9, este sistema tiene solucion no trivial. Consecuentemente, u
1
, u
2
, , ttq son linealmente
dependientes.
2.11. Demostrar que cualquier conjunto de q vectores que contenga el vector cero es lineal-
mente dependiente.
Denotando los vectores por 0, u
2
, 11
3
, ... , u
9
tenemos I (0) + Ou
2
+ Ou
3
+ + Ouq = 0.
VECTORES EN AnY en VECTORES ESPACIALES 67
PRODUCTOINTERNO.ORTOGONALIDAD
2.12. Calcular u v, donde u = (1, - 2, 3, -4) y v = (6, 7, 1, - 2).
Multiplicamos las componentes correspondientes y sumamos:
u . v = (1)(6) + ( - 2)(7) + (3)(1) + ( - 4)( - 2) = 3
2.13. Sean u = (3, 2, 1), v = (5, -3, 4), w = (1, 6, -7). Hallar: a) (u + v) w, b) u w + v w.
a) Primero calculamos u + v sumando las componentes correspondientes:
u + v = (3 + 5, 2- 3, 1 + 4) = (8, -I, 5)
Luego calculamos
(u + v) w = (8)(1) + ( -1)(6) + (5)( -7) = 8 - 6 - 35 = -33
b) Primero hall amos u w = 3 + 12 - 7 = 8 y u w = 5 - 18 - 28 = -41. Entonces u w + v w =
= 8 -41 =- 33. [Tal y como cabia esperar, por el Teorema 2.2 i), ambos valores son iguales.]
2.14. Sean u = (1, 2, 3, -4), v = (5, -6, 7, 8) y k = 3. Hallar: a) k(u v), b) (ku) v, c) u(kv).
a ) Primero determinamos u v = 5- 12 + 21 - 32 = -18. Entonces k(u v) = 3( - 18) = -54.
b) Primero determinamos ku = (3(1), 3(2), 3(3), 3( - 4)) = (3, 6, 9, -12). Entonces
(ku) v = (3)(5) + (6)( - 6) + (9)(7) + ( - 12)(8) = 15 - 36 + 63 - 96 = -54
c) Primero determinamos kv = ( 15, - 18, 21, 24). Entonces
u (kv) = (1)(15) + (2)( -18) + (3)(21) + ( -4)(24) = 15 - 36 + 63 - 96 = -54
2.15. Sean u = (5, 4, 1), v = (3, - 4, 1) y w = (1, -2, 3). j,Que pares de dichos vectores son
perpendicu1ares?
Hallamos el producto escalar de cada par de vectores:
uv = l5-16+1 = 0 v w = 3 + 8 + 3 = 14 uw=S-8+3 = 0
Por consiguiente, tanto u y v como u y w son ortogonales, pero u y w no lo son.
2.16. Determinar e1 valor de k para que los vectores u y v sean ortogonales, siendo u = (1, k, - 3)
y v = (2, - 5, 4).
Calculamos u v, !o igualamos a 0 y resolvemos para k. u v = (1)(2) + (k) (- 5) + (-3)(4) =
= 2 - 5k - 12 = 0 o - 5k - 10 = 0. Resolviendo, k = - 2.
2.17. Demostrar e1 Teorema 2.2.
(u + v) w = (u
1
+ v
1
)w
1
+ (u
1
+ v
2
)w
2
+ + (uft + . w ~ =
= U1 W 1 + V
1
W
1
+ Uz Wz + Vz Wz + + U w. + V W =
= (u
1
w1 + u
2
w
1
+ + u.w.) + (v
1
w
1
+ v
2
w
2
+ + v.w.) =
= uw+vw
.
68 ALGEBRA LINEAL
ii) Como ku = (ku
1
, ku
2
, . . , ku. ),
(ku) 11 = ku
1
11
1
+ ku
2
v
2
+ + ku. v. = k(u
1
v
1
+ u
2
v
2
+ + u. v.) = k(u v)
iii) U ' II= U
1
11
1
+ U
2
11
2
+ . . + U" V" = V
1
U
1
+ V
2
Uz + .. + V" U" = V ' II .
iv) Como uf es no negativo para cada i, y dado que Ia suma de numeros reales no negativos es
no negativa,
u u = ui + ui + + u;;::: 0
Ademas, u. u = 0 si y solo si U; = 0 para todo i, esto es, si y solo si II = 0.
NORMA (LONGITUD) EN R"
2.18. Hallar ll w\1 si w = ( -3, 1, - 2, 4, - 5).
ll wl\
2
= (-W + 1
2
+ ( - 2)
2
+ 4
2
+ (-W = 9 +I + 4 + 16 + 25 = 55: de aqui ll wll =fl.
2.19. Determina r el valor de k para que \lull = fo, donde u = (1 , k, -2, 5).
iiul\
2
= 1
2
+ e + ( -2)
2
+5
2
= e + 30. Ahora resolvemos k
2
+ 30 = 39 y obtenemos k = 3, - 3.
2.20. Normalizar w = (4, -2, -3, 8).
Primero hallamos ll w11
2
= w w = 4
2
+ ( -2)
2
+ ( -3)
2
+ 8
2
= 16 + 4 + 9 + 64 = 93. Dividimos
cada componente de w por llwll = j93 obteniendo
w--- -- -- -- --
w ( 4 -2 -3 8 )
- llwll - fo' fo' fo' fo
2 21 N I
. - (1 1 !.)
. . orma 1zar v -
2
,
3
, -
4

Notese que tanto v como cualquiera de sus multiplos posJtJvos tendrim Ia misma forma
normalizada. En tal caso, podemos multiplicar primero v por 12 para eliminar los denominadores:
12v = (6, 8, - 3). Entonces
1112vll
2
= 36 + 64 + 9 = 109
y
..---... 12v ( 6 8 -3 )
v =
1211
= ll12vll = ji09' _Ji09' JW9
2.22. Demostrar el Teorema 2.3 (Cauchy-Schwarz).

En su Iugar probaremos el siguiente resultado, mas potente: iu vl::;; I iu
1
v
1
1::;; UuiJ IIvll. Para
i = 1
empezar, si u = 0 o v = 0. Ia desigualdad se reduce a 0 S: 0 S: 0 y es, por tanto. cierta. En
consecuencia, solo necesitamos considerar el caso en el que u i' 0 y v i' 0, esto es, en el que llull i' 0
y llvll -# 0. Adem<is, debido a que
iu vi = II u
1
v;\ S: I lu
1
V
1
\
solo es necesario probar !a segunda desigualdad.
Ahora bien, para dos numeros reales cualesquiea x. y E R, 0 s; (x - y)
1
= x
2
- 2xy + y
2
o,
equivalentemente,
[I]
VECTORES EN Rn Y en. VECTORES ESPACIALES 69
Tomamos x = iuMil ull e y = jv
1
1/ll vll en [I) para obtener, para cualquier i,
2
< I ud
2
+ I vd
2
llull llvll - 11 ull
2
llvll
2
[2]
Pero, por definicion de norma de un vector, ll ull =I uf =I lu,l
2
y llvll =I vf =I lv
1
j
2
Asi,
sumando en (2] respecto a i y utilizando lu;v;l = ju
1
jj v
1
j, tenemos
2
I I u;v;l I vd
2
= ll ull
2
+ llvll
2
=
2
llull ll vll - llullz llvl\
1
llull
1
ll vll
2
esto es,
Multiplicando a ambos !ados por llull llvll obtenemos Ia desigualdad pedida.
2.23. Probar el Teorema 2.4 (Minkowski).
Por Ia desigualdad de CauchySchwarz (Problema 2.22) y el resto de las propiedades del
producto interno,
ll u + vll
2
= (u + v) (u + v) = u u + 2(u v) + v
11ull
2
+ 21iull llvll + llvll
2
= (jjull + ll vll)
2
Tomando las raices cuadradas de ambos miembros se obtiene Ia desigualdad buscada.
2.24. Probar que Ia norma en R" satisface las siguientes leyes:
a) [N d Para cualquier vector u, II u II 0; y II u II =:: 0 si y solo si u = 0.
b) [N
2
] Para cualquier vector u y cualquier escalar k, llkull = Jkl lluJJ .
c) [N
3
] Para dos vectores cualesquiera u y v, ll u + vii 5: llull + ll vJI.
a) Segun el Teorema 2.2, u u 2:: 0 y u u = 0 si y solo si u = 0. Como llull = resulta (N.J.
b) Supongamos u = (u
1
, u
2
, ... , u.) y por tanto ku = (kut> ku
2
, ... , ku.). Entonces
Tomando raices cuadradas se obtiene [N
2
] .
c) (N
3
] se ha demostrado en el Problema 2.23.
2.25. Sean u = (1, 2, - 2), v = (3, - 12, 4) y k = -3. a) Encontrar Jl ull. llvll y llkuiJ . b) Com-
probar que ll kull = lki Jiull y ll u + vii 5: ll ull + ll viJ .
a) llull =
= 9 + 36 + 36 = fo = 9.
b) Dado que lkl = 1- 31 = 3, tenemos lklllull = 3 3 = 9 = llkuj. Ademas u + v = (4, - 10, 2). Asi
llu + vii ==; / 16 + 100 + 4 = .j'i2o 16 = 3 + 13 = llul! + I! vii
70 ALGEBRA LINEAL
DISTANCIA. ANGULOS. PROYECCIONES
2.26. Hallar Ia distancia d(u, v) entre los vectores u y v, donde
a) u = (1, 7), v = (6, - 5).
b) u = (3, - 5, 4), v = (6, 2, - 1).
c) u = (5, 3, -2, - 4, -1), v = (2, -1, 0, -7, 2).
En cada caso utilizamos Ia formula d(u, v) = ll u- vii = j(u
1
- v
1
)
2
+ ... + (u.- v.)
2
.
a) d(u, v) = j(l- W + (7 + W = )25 + 144 = .jl69 = 13.
b) d(u, v) = j(3 - W + (- 5 - 2)
2
+ (4 + 1)
2
= )9 + 49 + 25 = fo.
c) d(u, v) = j(5- 2)
2
+ (3 + W + ( - 2 + W + ( - 4 + 7)
2
+ (-I - 2)
2
= ) 47.
2.27. Encontrar un numero k tal que d(u, v) = 6, siendo u = (2, k, 1, - 4) y v = (3, - 1, 6, - 3).
Primero hallamos
[d(u, v>]Z = (2- W + (k + 1)
2
+(I - 6)
2
+ ( - 4 + 3)
2
= k
2
+ 2k + 28
Ahora resolvemos k
2
+ 2k + 28 = 6
2
obteniendo k = 2, - 4.
2.28. A partir del Problema 2.24, demostrar que Ia funci6n distancia satisface:
[M
1
] d(u, v) ;;;:>: 0; y d(u, v) = 0 si y solo si u = v.
[M
2
] d(u,v)=d(v,u).
[M
3
] d(u, v) s d(u, w) + d(w, v) (desigualdad triangular).
[M
1
] es consecuencia directa de [N d- Segun [N
2
],
d(u, v) = l! u- vii = II( -l)(v- u)ll = 1- ll ll v- ull = ll v - ull = d(v, u)
que es [M
2
]. Segun [N
3
],
d(u, v) = Uu - vU = ll(u- w) + (w- v)ll llu- w!/ + llw -vii = d(u, w) + d(w, v)
que es [M
3
].
2.29. Determinar cos 8, donde 0 es el angulo entre u = (1, 2, - 5) y v = (2, 4, 3).
Primero hallamos
u v = 2 + 8 - 15 = - 5 llull
2
= 1 -1 4 + 25 = 30
llvll
2
= 4 + 16 + 9 = 29
Luego
u . v 5
cos e = --= - --==--=
llullllvll .j30Ji9
2.30. Determinar proy (u, v ), donde u = (1, - 3, 4) y v = (3, 4, 7).
Primero hallamos u v = 3 - 12 + 28 = 19 y ll vll
2
= 9 + 16 + 49 = 74. Luego
u. v !9 (57 76 133) (57 38 133)
proy (u, v) = llv11 2 v = 74 (
3
,
4
'
7
) = 74' 74' 74 = 74' 37' 74
VECTORES EN Rn Y en. VECTORES ESPACIALES 71
PUNTOS, RECTAS E HIPERPLANOS
En esta secci6n se distingue entre una n-pla P(a
1
, a
2
, ... , an) = P(aJ vista como un pun to en R"
y una n-pla v = [c
1
, c
2
, ... , c.] vista como un vector (flecha) desde el origen 0 hasta el punta
C(cl, c2, ... , en).
2.31. Hallar el vector v que se identifica con el segmento dirigido PQ para los puntas a) P(2, 5)
y Q(-3, 4) en R
2
, h) P(l, -2, 4) y Q(6, 0. -3) en R
3
.
a) v = Q- P = [ -3- 2, 4- 5] = [-5, -1].
b) v = Q- p = [6- l, 0 + 2, -3- 4] = [5, 2, -7].
2.32. Considerense los puntas P(3, k, -2) y Q(5, 3, 4) en R
3
. Encontrar un valor de k para el
que PQ sea ortogonal a! vector u = [4, -3, 2].
Primero hallamos v = Q- P = [5-3, 3- k, 4 + 2] = [2, 3- k, 6]. A continuacion calculamos
u v = 4 : 2 - 3(3 - k) + 2 . 6 = 8 - 9 + 3k + 12 = 3k + 11
Por ultimo, imponemos u v = 0 6 3k + II = 0, de donde k = -I 1/3.
2.33. Considerese el hiperplano H en R" identificable con el conjunto soluci6n de Ia ecuaci6n
lineal
[1]
donde u = [a
1
, a
2
, ... , an] i= 0. Demostrar que el segmento dirigido PQ para cualquier par
de puntas P, Q E H es ortogonal al vector de coeficientes u. Se dice que el vector u es
normal al hiperplano H.
Sean w
1
= OP y w
2
= OQ; por consiguiente, v = w
2
- w
1
= PQ. Por [1], u w
1
= b y u w
2
=h.
Pero entonces
u v = u (w
2
- w
1
) = u w
2
- u w
1
= b- b = 0
De este modo, v = PQ es ortogonal al vector normal u.
2.34. Encontrar una ecuaci6n del hiperplano Hen R
4
que pasa por el punto P(3, -2, 1, -4)
y es normal al vector u = (2, 5, -6, - 2).
La ecuaci6n de H es de la forma 2x + 5y- 6z- 2w = k, puesto que es normal au. Sustituyendo P
en esta ecuaci6n obtenemos k = -2. Por consiguiente, una ecuaci6n de H es 2x + 5y- 6z- 2w = -2.
2.35. Hallar una ecuaci6n del plano Hen R
3
que contiene P(l, -5, 2) yes paralelo al plano H'
determinado por 3x- 7y + 4z = 5.
H y H' son paralelos si y solo si sus normales son paralclas o antiparalelas. Por tanto, una
ecuaci6n de H sen\. de Ia forma 3x- 7y + 4z = k. Sustituyendo P(l, -5, 2) en Ia ecuaci6n
obtenemos k = 46. En consecuencia, Ia ecuaci6n requerida es 3x - 7y + 4z = 46.
2.36. Hallar una representaci6n parametrica de Ia recta en R
4
que pasa por el punta P(4, -2, 3, 1).
en Ia direcci6n de u = [2, 5, -7, 11].
72 ALGEBRA LINEAL
La recta L en R" que pasa por el punto P(a;), en Ia direcci6n del vector no nulo u = [u;] consta
de los puntos X = (x;) que satisfacen Ia ecuaci6n
X= P + tu 0 (para i = I, 2, .. , 11)
donde el parametro t toma todos los valores reales. Asi obtenemos
{
X= 4 + 2t
y = -2 + 5t
z = 3- 7t
w = l + llt
0 (4 + 2t, -2 + 5t, 3- 7t, l + llt)
[I]
2.37. Hallar una representaci6n parametrica de Ia recta en R
3
que pasa por los puntos
P(5, 4, -3) y Q(l, - 3, 2).
Primero calculamos u = PQ = [I - 5, - 3 - 4, 2 - (- 3)) = [ -4, - 7, 5]. Entonces utilizamos el
Problema 2.36 para obtener
X = 5 - 4t y = 4 - 7t Z = - 3 + 5t
2.38. Dar una representaci6n no parametrica para Ia recta del Problema 2.37.
Despejamos t de Ia ecuaci6n de cada coordenada e igualamos los resultados llegando a
x - 5 y -4 z+3
-- =-- = --
- 4 - 7 5
oat par de ecuaciones lineales 7x- 4y = 19 y 5x + 4z = 13.
2.39. Encontrar una ecuaci6n parametrica de Ia recta en R
3
perpendicular al plano 2x - 3y+ 7z =4,
que intersecta a! mismo en el punto P(6, 5, 1).
Como Ia recta es perpendicular al plano, debe estar en Ia direcci6n de su vector normal
tl = [2, - 3, 7]. De don de
X= 6 + 2t y = 5 - 3t z = I + 7t
2.40. Considerese Ia siguiente curva C en R
4
, donde 0 t 4:
F(t) = (t
2
, 3t- 2, t
3
, t
2
+ 5)
Determinar el vector tangente unitario T para t = 2.
Tomamos Ia derivada de (cada componente de) F(t) para obtener un vector V que sea tangente
a Ia curva:
dF(t)
V(t) = dt = (2t, 3, 3t
2
, 2t)
Ahora hallamos el valor de V para t = 2. Esto conduce a V = (4, 3, 12, 4). Normalizamos V para
obtener el vector unitario T tangente a Ia curva cuando t = 2. Tenemos
II Vll
2
= 16 + 9 + 144 + 16 = 185
0
II VII =Ji85
Asi
[
4 3 12 4 J
T = .ji85, .ji85, j185' j185
VECTORES EN Rn Y en. VECTORES ESPACIALES 73
2.41. Sea T(t) el vector unitario tangente a una curva C en R". Demostrar que dT(t) /dt es
ortogonal a T(t).
Tenemos T(t) T(t) = 1. Utilizando Ia regia de derivaci6n del producto cscalar, junto con
d( I )/dt = 0, llegamos a
d[T(t) T(t)]jdt = T(t) dT(t)fdt + dT(t)/dt T(t) = 2T(t) dT(t)/dt = 0
De este modo. dT(t)/dt es ortogonal a T(t).
VECTORES ESPACIALES (EN R
3
). PLANOS, RECTAS, CURVAS Y SUPERFICIES EN R
3
Las siguientes formulas se utilizanin en los Problemas 2.42-2.53.
La ecuacion de un plano que pasa por el pun to P
0
(x
0
, y
0
, z
0
) con direcci6n normal
N = ai + bj + ck es
a(x - x
0
) + b(y - y
0
) + c(z - z
0
) = 0 [2.1]
La ecuaci6n parametrica de una recta L que pasa por el punta P
0
(x
0
, y
0
, z
0
) en Ia direcci6n
del vector v = ai + bj + ck es
x =at+ x
0
Y = bt +Yo z = ct + z
0
o, equivalenteniente,
L(t) = (at + x
0
)i + (bt + y
0
)j + (ct + z
0
)k
La ecuaci6n de un vector N normal a una superficie F(x, y, z) = 0 es
N = F) + F Yj + F ,k
[2.2]
[2.3]
2.42. Ha1lar Ia ecuaci6n del plano con direcci6n normal N = 5i - 6j + 7k que contiene el punta
P(3, 4, -2).
Sustituyendo P y N en Ia ecuaci6n [2.l)llegamos a
5(x- 3)- 6(y- 4) + 7(z + 2) = 0 0 Sx - 6y + 7z = -23
2.43. Hallar un vector N normal al plano 4x + 7y - 12z = 3.
Los coeficientes de x, y, z dan una direcci6n normal, luego N = 4i + 7j- 12k. (Cualquier
multiplo de N es tambien normal al plano.)
2.44. Encontrar el plano H paralelo a 4x + 7y- 12z = 3 que contiene el punta P(2, 3, -1).
El plano dado y H tienen Ia misma direcci6n normaL es decir, N = 4i + 7j - 12k es normal a H.
Sustituyendo P y N en Ia ecuaci6n a) se tiene:
4(x - 2) + 7(y- 3)- l2(z + 1) = 0 0 4x + 7y- 12z = 41
2.45. Sean H y K, respectivamente, los pianos x + 2y- 4z = 5 y 2x- y + 3z = 7. Hallar cos 0
siendo 0 el fmgulo entre ambos pianos.
l
74 ALGEBRA LINEAL
El imgulo e entre los pianos H y K es el angulo ent re Ia normal a H. N. y Ia normal a K. N'.
Tenemos
N = i + 2j - 4k y N' = 2i - j + 3k
Entonces
NN' =2-2- 12 = - 12 II NII
2
= 1 + 4 + 16 21
IIN'II
2
= 4 + 1 + 9 = 14
Asi
N N' 12 12
cos
9
= II NIIIIN'II = - j2l ,/14 = -7-ft
2.46. Deducir Ia ecuaci6n [2. 1].
Sea P(x , y, z) un pun to arbitrario. El vector t' de P
0
a P es
v = P - P
0
= (x - x
0
)i + (y - y
0
)j + (z - z
0
)k
Como v es ortogonal a N = ai + bj + ck (Fig. 2- I 2), llegamos a Ia formula requerida
a(x - x
0
) + b(y - Yo) + c(z - z
0
) = 0
/
,.
2.47. Deducir Ia ecuaci6n [2.2].
- y
Figura 2-12.
Sea P(x, y, z) un punto arbitrario en Ia recta L. El vector w de P
0
a Pes
w = P- Po = (x - X
0
)i + (y - y
0
)j + (z - z
0
)k
Dado que w y v tienen Ia misma direcci6n (Fig. 2- 13),
w = tv = t(ai + bj + ck) = ati + btj + ctk
Las ecuaciones (! ] y (2] nos conducen al resultado buscado.
[I)
(2]
VECTORES EN Rn Yen VECTORES ESPACIALES 75
X
I
I
I
I
Figura 2-13.
L
2.48. Hallar Ia ecuaci6n (parametrica) de Ia recta L que pasa por:
a) El punto P(3, 4, -2) en Ia direcci6n de v = 5i - j + 3k.
b) Los puntos P(l, 3, 2) y Q(2, 5, -6).
a) Sustituimos en Ia ecuaci6n [2.2] llegando a
L(t) = (5t + 3)i + (-t + 4)j + (3t - 2)k
b) Determinamos, en primer lugar, el vector v de P a Q: v = Q- P = i + 2j- 8k. A continuaci6n
utilizamos [2.2] con v y uno de los puntos dados, digamos P, obteniendo
L(t) = (t + l)i + (2t + 3)j + (- 8t + 2)k
2.49. Sea H el plano 3x + 5y + 7z = 15. Encontrar Ia ecuaci6n de Ia recta L que, siendo
perpendicular a H, contiene el punto P{l, -2, 4).
Dado que L es perpendicular a H, debe tener Ia misma direcci6n que Ia normal N = 3i + 5j + 7k
a H. Asi utilizando [2.2] con N y P se llega a
L(t) = (3t + l)i + (5t - 2)j + (7t + 4)k
2.50. Considerese un movil B cuya posicion en el instante t viene dada por R(t) = t
3
i + 2t
2
j + 3tk.
[Entonces V(t) = dR(t)/dt denota Ia velocidad de By A(t) = dV(t)/dt su ace1eracion.]
a) Determinar la posicion de B cuando t = l.
b) Determinar Ia ve1ocidad, v, de B cuando t = 1.
c) Determinar la rapidez, s, de B cuando t = 1.
d) Determinar la aceleracion, a, de B cuando t = 1.
a) Sustituimos t = 1 en R(t) y llegamos a R(l) = i + 2j + 3k.
76 ALGEBRA LINEAL
b) Tomamos Ia derivada de R(t) obteniendo
dR(t) . .
V(t) = - - = 3t
2
a + 4tJ + 3k
dt
Susti tuyendo t = I en V(t), v = V(l ) = 3i + 4j + 3k.
c) La rapidez, s, es Ia magnitud de Ia velocidad v. De modo que
s
2
= llvll
2
= 9 + 16 + 9 = 34 y, de aqui, s=fo
d) Tomamos Ia derivada segunda de R(t) o, en otras palabras, Ia derivada de V(t ) llegando a
dV(r)
A(t) = -- = 6ti + 4j
dt
Sustituimos t = t en A(t ) para obtener a = A( I) = 6i + 4j.
2.51. Considerese Ia superficie xy
2
+ 2yz = 16 en R
3
. Encontrar: a) el vector N(x, y, z) normal
a Ia superficie, b) el plano H tangente a Ia superficie en el punto P(l. 2, 3).
a) Calcutamos las derivadas parciales Fx, F)'' F=, donde F(x, y. z) = xy
2
+ 2yz- 16. Tenemos
F x = y
2
F Y = 2x y + 2z F = = 2 y
Asi, segim Ia ecuaci6n [2.3], N(x, y, z) = y
2
i + (2xy + 2z)j + 2yk.
b) La normal a Ia superficie en cl punto P es
N(P) = N(l, 2, 3) = 4i + IOj + 4k
Siendo asi, N = 2i + 5j + 2k es tambien un vector normal en P. Sustituyendo P y N en Ia
ecuaci6n [2.1] se obtiene
2(x - I) + 5(y- 2) + 2(z - 3) = 0 0 2x+5y+2z= 18
2.52. Considerese el elipsoide x
2
+ 2y
2
+ 3z
2
= 15. Determinar el plano H, tangente en el
pun to P(2, 2, 1 ).
Primero hallamos el vector norma l (a partir de Ia ecuaci6n [2.3])
N(x, y, z) = F)+ FYj + F=k = 2xi + 4yj + 6zk
Eva luamos el vector normal N(x, y, z) en el punto P llegando a
N(P) = N(2. 2, I) = 4i + 8j + 6k
Asi N = 2i + 4j + 3k es normal a! elipsoide en P. Sustituyendo P y N en [2. 1] obtendremos Ia
ecuaci6n de H:
2(x - 2) + 4(y - 2) + 3(z - I ) = 0 0 2x + 4y + 3z = 15
2.53. Considerese Ia funci6n f(x, y) = x
2
+ / para Ia que z ~ x
2
+ y
2
representa una superfi-
cie S en R
3
. Determinar: a) el vector N normal a Ia superficie para x = 2, y = 3, b) el
plano H tangente a Ia superficie S para x = 2, y = 3.
a) Utilicemos el hecho de que, si F(x, y, z) = f(x, y) - z, tenemos F x = fx, FY = J;. y F= = - I.
Entonccs
N " ' tfx- ~ - I) = 2xi + 2yj - k = 4i + 6j - k
VECTORES EN Rn Yen VECTORES ESPACIALES 77
b) Si x = 2 e y = 3, entonces z = 4 + 9 = 13; por consiguiente, P(2. 3, 13) es el punto en Ia
superficie S. Sustituimos P y N = 4i + 6j- k en Ia ecuaci6n [2.1] para obtener H.
4(x- 2) + 6(y- 3) - (z- 13) = 0 0 4x+6y-z=l3
PRODUCTO VECTORIAL
El producto vectorial esta definido unicamente para vectores en R
3
.
2.54. Calcular u x v, donde a) u = (1, 2, 3) y v = (4, 5, 6), b) u = (7, 3, 1) y v = (1, 1, 1),
c) u = ( - 4, 12, 2) y v = (6, -18, 3).
El producto vectorial de u = (a
1
, a
2
, a
3
) y v = (b
1
, b
2
, b
3
) puede obtenerse como sigue. Situamos
el vector v = (b
1
, b
2
, b
3
) bajo el u = (a
1
, a
2
, a
3
) construyendo Ia matriz
Entonces
Esto es: tapamos Ia primera columna de Ia matriz y tomamos el determinante para obtener Ia
primera componente de u x v; tapamos Ia segunda columna y tomamos el negative del determinante
para obtener Ia segunda componente. y tapamos Ia tercera columna y tomamos el determinante
para obtener La tercera componente.
uxv=(lm
2
! I - I ~ ~ ! I I:
2
~ I = (12 -15, 12-6,5- 8) = (-3, 6, - 3). a)
5 5
b)
ux v= (IQ
3
~ I -I w I I
3
~ I = (3- 1, 1- 7, 7- 3) = (2, -6, 4).
u x v=(IU
12
21 ,- 4 [d 211-4 12 CJI)
c)
-18
3 , - 6 -18 3 , 6 - 18 - 3 =
= (36 + 36, 12 + 12, 72- 72) = (72, 24, 0).
2.55. Considerense los vectores u = 2i - 3j + 4k, v = 3i + j - 2k, w = i + 5j + 3k. Encontrar:
a) U XV, b) U X W, C) V X W.
Utilizamos
j k
a) u x V = 2 -3 4 = (6- 4)i + (12 + 4)j + (2 + 9)k = 2i + l6j + Ilk.
3 -2
78 ALGEBRA LINEAL
(Nota: Observese que Ia componente j se obtiene tomando el determinante cambiado de signo.
Vease el Problema 2.54.)
j k
b) U X W = 2 - 3 4 = (--9- 20)i + (4- 6)j + (10 + 3)k = -29i- 2j + 13k.
I 5 3
j k
c) VX W= 3 1 -2 = (3 + !O)i + (-2 - 9)j + (15 - l)k = l3i- llj + 14k.
l 5 3
2.56. Demostrar el Teorema 2.5 i): El vector u x v es ortogonal a u y a v.
Supongamos u = (a
1
a
2
, a
3
) y v = (b
1
, b
2
b
3
). Entonces
u (u x v) = a
1
(a
2
b
3
- a
3
b
2
) + a
2
(a
3
b
1
- a
1
b
3
) + aia
1
b
2
- a
2
b
1
) =
= a
1
a
2
b
3
- a
1
a
3
b
2
+ a
2
a
3
b
1
- a
1
a
2
b
3
+ a
1
a
3
b
2
- a
2
a
3
b
1
= 0
De este modo, u x v es ortogonal a u. Analogamentc se demuestra que es ortogonal a v.
2.57. Encontrar un vector unitario u ortogonal a v = (l, 3, 4) y a w = (2, - 6, 5).
Comcnzamos calculando v x w que es ortogonal a ambos vectores. La matriz ~
conduce a
V X W = ( -15 + 24, 8 + 5, - 6- 6) = (9, 13, - 12)
Ahara normalizamos u x w obteniendo u = (9/J394, 13/fl94, -12/J39'4).
2.58. Demostrar la identidad de Lagrange: ll u x vll
2
= (uu)(u v)- (uv)
2

Si u = (a
1
, a
2
, a
3
) y v = (b
1
, b
2
, b
3
) , entonces
3
-6
ll u x vll
2
= (a
2
b
3
- a
3
b
2
)
2
+ (a
3
b
1
- a
1
b
3
)
2
+ (a
1
b
2
- a
2
b
1
)
2
[I]
(u u)(v v) - (u v)
1
= (af + ~ + ~ ) b ~ + bi + ~ ) - (a
1
b1 + a2 b2 + a3 b3)
2
[2]
Desarrollando Ia parte derecha de [l] y [2] se llega a Ia identidad.
NUMEROS COMPLEJOS
2.59. Sup6ngase que z = 5 + 3i y w = 2- 4i. Calcular: a) z + w, b) z - w, c) zw.
Utilizamos las reglas algebraicas ordinari as, junto con Ia igualdad i
2
= - I, para llegar a un
resultado en la forma convencional a + bi.
a) z + w = (5 + 3i) + (2 - 4i) = 7 - i.
b) z- w = (5 + 3i)- (2 - 4i) = 5 + 3i - 2 + 4i = 3 + 7i.
c) zw = (S + 3i)(2 - 4i) = 10- l4i- l2i
2
= 10 - l4i + 12 = 22 - l4i.
VECTORES EN Rn Y en. VECTORES ESPACIALES 79
2.60. Simplificar: a) (5 + 3i)(2 - 7i), b) (4- 3i)
2
, c) (1 + 2i)
3
.
a) (5 + 3i)(2 - 7i) = 10 + 6i- 35i- 21i
2
= 31 - 29i.
b) (4 - 3i)
2
= 16- 24i + 9i
2
= 7 - 24i .
c) (1 + 2i)
3
= 1 + 6i + 12i
2
+ 8i
3
= 1 + 6i - 12- 8i = -11 - 2i .
2.61. Simplificar: a) i
0
, i
3
, i
4
, b) i
5
, i
6
, i
7
, i
8
, c) i
39
, i
174
, i
252
, j3
17
,
a) i
0
= 1, i
3
= i
2
(i) = ( -t)(i) = -i, i
4
= (i
2
)(i
2
) = ( -1)( -1) = 1.
b) ;s = (i4)(1) = (l)(i) = i, ;6 = (i4)(il) = (l)(i2) = ;2 = - 1, ;7 = ;3 = -i, ;s = ;4 = 1.
c) Usando i
4
= I e ;n = i
4
q+r = (i
4
)qir = lqi' = i' dividimos el exponente n por 4 obteniendo el
resto r:
2.62. Determinar el complejo conjugado de cada uno de los siguientes numeros:
a) 6 + 4i, 7 - Si, 4 + i, -3 - i ; b) 6, -3, 4i, - 9i.
a) 6 + 4i = 6 - 4i, 7 - Si = 7 + 5i, 4 + i = 4 - i, - 3 - i = - 3 + i.
- - - -
b) 6 = 6, - 3 = -3, 4i = - 4i, -9i = 9i.
(N6tese.que el conjugado de un numero real es el numero original, pero el conjugado de un numero
imaginario puro es el opuesto del numero original.)
2.63. Hallar zz y lzl, donde z = 3 + 4i.
Para z =a+ bi utilizamos zi = a
2
+ b
2
y z = Jti = J a
2
+ b
2
.
2- 7i
2.64. Simplificar --.
5 + 3i
zz = 9 + 16 = 25 lzl = J25 = 5
Para simplificar una fracci6n zf w de numeros complejos, multiplicamos tanto el numerador como
el denominador por 1v, el conjugado del denominador.
2 - 7i (2 - 7iXS - 3i) - ll-41i 11 41
5 + Jj (5 + 3i)(5 - 3i)
---- = --- - i
34 34 34
2.65. Demostrar las siguientes afirmaciones: Para dos numeros complejos cualesquiera z, wE C,
i) z + w = z + w, ii) zw = z)\, iii) z = z.
Supongamos z =a+ bi y w = c + di, donde a, b, c, dE R.
i) z + w = (a + bi) + (c + di) = (a + c) + (b + d)i =
= ~ ~ - ~ ~ = a c - ~ - ~ =
= (a - b1) + (c - d1) = z + w.
ii) zw = (a + bi)(c + di) = (ac - bd) + (ad + bc)i =
= (ac - bd) - (ad + bc)i = (a - biXc - d1) = zw
iii) ! = a+ bi = a - bi =a- ( - b)i =a+ hi = z.
80 ALGEBRA LINEAL
2.66. Demostrar Ia siguiente afirmacion: Para dos numeros complejos cualesquiera z, wE C,
lzwl = lzllwl.
Supongamos z = a + bi y w = c + di, donde a, b, c. dE R. Entonces
lz!
2
= a
2
+ b
2
lwl
2
= c
2
+ d
2
y zw = (ac- bd) + (ad + bc)i
Asi
I zw 1
2
= (ac- btf}
1
+(ad+ bc)
1
=
= a
2
c
2
- 2abcd + b
2
d
2
+ a
2
d
2
+ 2abcd + b
2
c
1
=
= az(cz + dl) + bz(cz + dz) = (az + bz)(cz + dz) = I z 121 w lz
La raiz cuadrada de ambos miembros proporciona el resultado deseado.
2.67. Demostrar Ia siguiente afirmacion: Para dos numeros complejos cualesquiera z, wE C,
lz + wl lzl + jwj .
Supongamos z =a+ bi y w = c + di, con a, b, c. dE R. Consideremos los vectores u = (a. b) y
v = (c, d) en R
2
Notese que
lzl = Ja
1
+ b
2
= !lull lwl = Jc
2
+ d
2
= llvll
y
lz + wl = l(a +c)+ (b + ti}il = j(a + c)
2
+ (b + ti}
2
= ll(a + c, b + ti}ll = ll u +vii
Segun Ia desigualdad de Minkowski (Problema 2.23). llu + vii :S: 1\ ull + llvll y por tanto.
lz+wl= llu+vll :S: 1\ull + llvll =lzl+lwl
2.68. Hallar los productos escalares u v y u u, donde: a) u = (1 - 2i, 3 + i), u = (4 + 2i, 5 - 6i);
b) u = (3- 2i, 4i, I + 6i), v = (5 + i, 2 - 3i, 7 + 2i).
Recuerdese que los conjugados de las componentes del segundo vector aparecen en el producto
escalar
(z
1
, .. , z.) { w
1
, . , w .) = z
1
w
1
+ + z. w.
a) u v = (1 - 2i)(4 + 21) + (3 + i)(5 - 6i) =
= (1 - 2i)(4- 2i) + (3 + i)(5 + 6i) = -lOi + 9 + 23i = 9 + 13i
- - - -
v u = (4 + 21)(1 - 2i) + (5 - 6i)(3 + i) =
= (4 + 2i)(l + 2i) + (5 - 6i)(3 - i) = lOi + 9- 23i = 9- 13i
b) u . v = (3 - 2i)(5 + i) + (4i)(2- 3i) + (1 + 6i)(7 + 21) =
= (3 - 2i)(5 - i) + (4i)(2 + 3i) + (1 + 6i)(7 - 2i) = 20 + 35i
v. u = (5 + i)(3 - 2i) + (2 - 3i)(4i) + (7 + 2i)(l + 6i) =
= (5 + i)(3 + 21) + {2- 3i)( - 4i) + (7 + 2i)(l - 6i) = 20- 35i
En ambos casos, v u =u-ti. Esto es cierto en general, como se vera en el Problema 2. 70.
VECTORES EN Rn Y en VECTORES ESPACIALES 81
2.69. Sean u = (7- 2i. 2 + 5i) y v = (1 + i , -3- 6i). Calcular:
a) u + v; b) 2iu; c)(3- i )v; d) u v; e) !l ull Y II vii.
a) u + v = (7 - 2i + 1 + i, 2 + Si - 3 - 6i) = (8 - i, - 1 - i) .
b) 2iu = (l4i - 4i
2
, 4i + 10i
2
) = (4 + 14i, - 10 + 4i) .
c) (3 - i)v = (3 + 3i- i- i
2
, -9 - l8i + 3i + 6i
2
) = (4 + 2i, -15- lSi).
d) u v = (7 - 2i)(l + i) + (2 + Si)( - 3 - 6i) =
= (7 - 2i)( 1 - i) + (2 + Si)(- 3 + 6i) = 5 - 9i - 36 - 3i = - 31 - 12i .
e) !lull= J1z + (-2)2 -f- 22 +52= JBz, ll vll = J12 + 12 + ( - 3)2 + ( -6)2 = fo.
2.70. Demostrar las siguientes afirmaciones: Para dos vectores cualesquiera u, v E C" y cualquier
escalar z E C, i) tl v = v u, ii) (zu) v = z(u v), iii) u (zv) = i(u v).
Supongamos u = (z
1
, z
2
, ... , z.) y v = (w
1
, w
2
, ... , w.) .
. i) Usando las propiedades de Ia conjugaci6n,
v u = w
1
z
1
+ w
2
z
2
+ .. + w.z. = w
1
z
1
+ w
2
z
2
+ ... + w.z. =
= wlzl + WzZz + ... + w. z. = zlwl + Zz Wz + .. . + z.w. = u. v
ii) Cc;:>mo zu = (zz
1
, zz
2
, ... , zz.),
(zu) v= zz
1
w
1
+ zz
2
w
2
+ + zz.w. = z(z
1
w
1
+ z
2
w
2
+ + z.w.)= z(u v)
(Comparese con el Teorema 2.2, referente a vectores en R".)
iii) Metodo I. Dado que zv = (zw
1
, zw
2
, ... , zw.),
u (zv) = z
1
zw, + z
2
zw
2
+ + z.zw. = z
1
zw
1
+ z
2
zw
2
+ + z.iw. =
= Z(zl Wt + Zz Wz + .. . + z. wJ = z(u. v)
Metodo 2. Utilizando i) y ii),
u (zv) = (zv) u = z(v u) = z(v u) = z(u v)
PROBLEMAS SUPLEMENTARIOS
VECTORES EN R"
2.71. Sean u = (2, -I, 0, -3), v = ( I, - I, -1, 3), w = ( 1, 3. - 2, 2). Hallar: a) lu- 3v; b) 5u- 3v- 4w;
c) - u + 2v - 2w; d) uv, u w y v w; e) llull. ll vll y Uwl! .
2.72. Dcterminar x e y si: a) x(3, 2) = 2(y, -1); b) x(2, y) = y(l , -2).
2.73. Hallar d(u, v) y proy (11. v) cuando: a) u = (I. - 3), r; = (4, I); b) u = (2, -1, 0, 1). v = (I. - I. 1.1).
82 ALGEBRA LINEAL
COMBINACIONES LINEALES. INDEPENDENCIA LINEAL
2.74. Sean
Expresamos v como cornbinaci6n lineal de u
1
, 11
2
u
3
, donde
2.75. Determinar si los siguientes vectores u, v, w son linealmente independieotes y, en caso de no serlo.
expresar uno de ellos como combinaci6n lineal de los otros.
a) u = (1, 0, 1), v = (1, 2, 3), w = (3, 2, 5) .
b) u = (1, 0, 1), v = (1, 1, 1), w = (0, 1, 1).
c) u = (1, 2), v = (1, - 1), w = (2, 5).
d) U = (1, 0, 0, 1), I ' = (0, 1, 2, 1), W = (1, 2, 3, 4) .
e) u = (1, 0, 0, 1), v = (0, 1, 2, 1), w = (1, 2, 4, 3).
VECfORES LOCALIZADOS. HIPERPLANOS, RECTAS, CURVAS
2.76. Encontrar el vector (localizado) v de a) P(2. 3, -7) a Q( l , - 6, - 5); b) P( l , - 8, - 4. 6) a
Q(3. -5, 2, -4).
2.77. Hallar una ecuaci6n del hiperplano en R
3
que:
a) Pasa por (2, -7, I) yes normal a (3, 1, - II).
b) Contienc (1, -2, 2). (0. 1, 3) y (0, 2, -1).
c) Contiene (1, - 5, 2) yes paralelo a 3x- 7y + 4= = 5.
2.78. Encontrar una representaci6n parametrica de Ia recta que:
a) Pasa por (7, - I, 8) en Ia direcci6n de (1, 3, - 5).
b) Pasa por (1, 9, -4, 5) y (2, -3, 0, 4).
c) Pasa por (4, - I, 9) yes perpendicular al plano 3x - 2y + z = 18.
VECTORES ESPACIALES (EN R
3
) . PLANOS, RECTAS, CURVAS Y SUPERFICIES EN R
3
2.79. Hallar Ia ecuaci6n del plano H:
a) Con normal N = 3i - 4j + 5k, que contiene el punta P(i, 2, - 3).
b) Paralelo a 4x- 3y + 2z = 11, que contiene el pun to P( 1, 2, - 3).
VECTORES EN Rn Y co VECTORES ESPACIALES 83
2.80. Encontrar un vector unitario u que sea normal al plano:
a) 3x-4y-12z= II; b) 2x - y - 2z = 7 .
2.81. Hallar cos 8, siendo (I el angulo entre los pianos:
a) 3x- 2y- 4z = 5 y x + 2y- 6z = 4.
b) 2x + 5 y - 4z = I y 4x + 3 y + 2z = I.
2.82. Determinar Ia ecuaci6n (parametrica) de Ia recta L:
a) Que pasa por el pun to P(2, 5, - 3 ), en Ia direcci6n de v = 4i - 5j + 7k.
b) Que pasa por los puntos P(l, 2. -4) y Q(3, -7, 2).
c) Perpendicular al plano 2x- 3y + 7z = 4 y que contiene el punto P(l, -5, 7).
2.83. Considerese Ia siguiente curva, donde 0 ::; t ::; 5:
F(t) = t
3
i- t
2
j + (2t- 3)k
a) HaJJar F(t) cuando t = 2.
b) Determinar los extremos de Ia curva.
c) Encontrar el vector unitario T tangente a Ia curva cuando t = 2.
2.84. Considerese Ia curva F(r) =(cos t)i +(sen r)j + tk.
a) DeteFminar el vector unitario T(t) tangente a Ia curva.
b) Hallar el vector unitario N(t) normal a Ia curva normalizando U(t) = dT(t)/dt.
c) Encontrar el vector unitario B(t) binormal a Ia curva utilizando B = T x N.
2.85. Considerese un m6vil B cuya posicion en el instante t viene dada por R(t) = r
2
i + t
3
j + 2tk.
[Entonces V(t) = dR(t)jdt denota Ia velocidad de B y A(t) = dV(t )/dt su aceleraci6n.]
a) Determinar Ia posicion de B cuando t = I.
b) Determinar Ia velocidad, v, de B cuando t = I.
c) Determinar Ia rapidez. s. de B cuando t = I.
d) Determinar Ia aceleraci6n, a, de B cuando t = I.
2.86. Hallar el vector normal N y el plano tangente H a Ia superficie en el punto dado:
a) Superficie x
2
y + 3 yz = 20 y pun to P( I, 3, 2).
b) Superficie x
2
+ 3y
2
- 5z
2
= 16 y pun to P(3, -2, l ).
2.87. Dada z = f(x, y) = x
2
+ 2xy, encontrar el vector normal N y el plano tangente H para x = 3, y = I.
PRODUCTO VECTORIAL
El producto vectorial solo est a definido para vectores en R
3
.
2.88. Dados u = 3i- 4j + 2k, v = 2i + 5j- 3k, w = 4i + 7j + 2k. Hallar: a) u x v, b) u x w, c) v x w,
d) V X U.
2.89. Hatlar un vector unitario w ortogonal a a) u = (1, 2, 3) y v =(I, -I, 2); b) u = 3i- j + 2k y
v = 4i- 2j- k.
l
84 ALGEBRA LINEAL
2.90. Demostrar las siguientes propiedades del producto vectorial:
a) uxv= - (vxu) d) u x (v + w) = (u x v) + (u x w)
b) u x u = 0 para todo vector 11 e) (v + w) x u = (v x u) + (w x u)
c) (ku) x v = k(u x v) = u x (kv) f) (u x v) x w = (u w)v- (v w)u
NUMEROS COMPLEJOS
I 9 + 2i
2.91. Simplilicar: a) (4 - 7i)(9 + 2i); h) (3 - 5i)
2
: c) --.; d)-- .; e) (I- i)
3
.
4- 7l 3- 51
2.92. S1mplificar: a) - ; b)-- : c) ;
15
;
2 5
; 3
4
- d) __
I 2 + 3i ( I )
2
2i 7 - 31 , , , 3 - i
2.93. Sean z = 2 - Si y w = 7 + 3i. Calcular: a) z + w; b) zw; c) zfw: d)::, 1<:>; e) lzl. JwJ.
2.94. Sean z = 2 + i y w = 6 - 5i. Calcular: a) z(w; b) ::, 1<:>: c) Jzl, lwJ.
2.95. Demostrar que a) Re z = 3(z + z); b) l m z = (z- ::)(2i.
2.96. Demostrar que zw = 0 implica z = 0 o w := 0.
VECTORES EN en
2.97. Demostrar las siguientes afirmaciones: Para vectores arbitrarios u. v, 11 E C":
i) (u + v) w = u w + v w; ii) w (u + v} = w u + w v.
2.98. Probar que Ia norma en C" satisface:
[N
1
] Para cualquier vector u. !l ull 2: 0: y Jl ull = 0 si y solo si u = 0.
[N
2
] Para cualquier vector u y cualquier numero complejo z, ll:ull = Jzlll ull.
[N
3
] Para veclores cualesquiera 11 y v, ll u + vii :;; !l ull + II vii .
RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS
2.71. a) 2u-3v=(l,l,3,-15)
h) 5u- 3v- 4w = (3, -14, 11, - 32)
c) - u + 2v - 2w = (-2, -7, 2, 5)
d) u. v = -6, u. w = -7, v. w = 6
e) Jl ull = Ji4, llvl! = 2.}3, ll wll = 3.j2
2.72. a) x = - I. y = -!: h) X = 0, _v = 0 0 X = - 2, _II = - 4.
2.73. a) d = 5, proy (u, v) = (n. -0): b) d = Jll. proy (u. v) = ~ . - ~ . 9 .if).
VECTORES EN Rn Y en. VECTORES ESPACIALES 85
2.74. u) v = (!)u
1
- 5u
1
+ 3u
3
.
h) v =u
2
+2u
3
.
c) v = [(a - 2b + c)/ 2]u
1
+(a+ b - c)u
2
+ [(c - a)/2]u
3
.
2.75. a) dependientes; b) independientes; c) dependientes; d) independientes; e) dependientes.
2.76. u) v = ( -1, -9, 2); b) v = (2, 3, 6, - 10) .
2.77. a) 3x+ y -l1z = -12; b) l3x + 4y + z = 7;
2.78. u) x = 7 + t, y = -I + 3t, z = 8- 5t .
h) x
1
= 1 + t, x
2
= 9 - 12t, x
3
= - 4 + 4t, x
4
= 5 - t.
c) X = 4 + 3t, y = - 1 - 2t, :Z = 9 + t .
2.79. a) 3x- 4y + 5z = -20; b) 4x + 3y- 2:z = 16.
2.80. a) u = (Ji - 4j- 12k)/ l3; b) u = (2i - j - 2k)/3.
2.81. a) 23/(.j29 j4t); b) 15/(fo fo>.
2.82. a) X = 2 + 4t, y = 5 - 5, Z = - 3 + 7t.
b) X= 1 + 2t, y = 2- 9t, Z = -4 + 6t.
c) X = 1 + 2t, y = -5 - )t, Z = 7 + 7t.
c) 3x - 7y + 4z = 46.
2.83. a) 8i - 4j + k; b) - 3k y 125i - 25j + 7k; c) T = (6i - 2j + k)/ J4t.
2.84. a) T (c) = ( -sen t) i + (cos t)j + k)/ .j2.
b) N(t) = ( - cos t)i - (sen t)j.
c) B(t) = (sen t)i - (cos t)j + k)/.j2.
2.85. a) i + j+2k; b) 2i+3j+2k; c) fo; d) 2i + 6j.
2.86. a) N = 6i + 7j + 9k, 6x + 7y + 9z = 45.
h) N = 6i - l2j - 10k, 3x - 6y - 5z = 16.
2.87. N = 8i + 6j- k, 8x + 6y -. .z = 15 .
2.88. a) 2i + 13j + 23k c) 3li-16j-6k
b) -22i + 2j + 37k d) - 2i - 13j - 23k
2.89. a) (7, 1, - 3)/ J59; h) (Si + llj - 2k)jjl5o.
2.91. a) 50 - 55i; b) -16 - 30i ; c) (4 + 7i)/65; d) (1 + 3i)/ 2; e) -2- 2i.
2.92. a) - y; b) (5 + 27i)/ 58; c) -i, i, -1 ; d) (4 + 3i)/50 .
86 ALGEBRA LINEAL
2.93.
a) : -r w=9-2i
d) z = 2 + 5i, w = 7 - 3i
b) :1\ = 29- 29i
e) I z I = J29, I w I = J58
.:) : .; = ( -1 - 41 i)/58
2.94. a) = ,,. = (7 + 16i)/61;
b) z = 2 - i, w = 6 + 5i;
2.96. Si zw = 0, entonces lzwl = lzl lwl = 101 = 0. De aqui Jzl = 0 o lwl = 0; y por tanto z = 0 o w = 0.
CAPITULO 3
Matrices
3.1. INTRODUCCION
Las matrices ya se trataron en el Capitulo 1, y sus elementos se relacionaron con los coeficientes
de sistemas de ecuaciones lineales. Aqui introduciremos nuevamente esas matrices y est udiaremos
ciertas operaciones algebraicas definidas sobre elias. El material aqui expuesto esta destinado
principalmente a! calculo. No obstante, tal y como ocurria con las ecuaciones lineales, el
tratamiento abstracto presentado posteriormente nos ayudara a profundizar en Ia estructura de
las matrices.
Las entradas de nuestras matrices procederan de un cuerpo K arbitrario, pero fijo. (Vease
el Apendice.) Los elementos de K reciben el nombre de escalares. No se perdera nada esencial
si el lector supone que K es eJ cuerpo real, R, o el complejo, C.
Por ultimo, advertimos que los elementos de Rn o C" se representaran convenientemente por
vectores fila o vectores columna, que son casos particulates de matrices.
3.2. MATRICES
Una matriz sobre un cuerpo K (o simplemente una matriz, si K viene dado implicitamente) es
una tabla ordenada de escalares ail de Ia forma

~ : _ : _ . ::: . : . . :::)
a..,
1
a..,
2
a...,
La matriz anterior se denota tam bien por (ail), i = l , ... , m,j = I, ... , n, o simplemente por (a;J
Las m n-plas horizontales
87
88 ALGEBRA LINEAL
son las filas de Ia matriz, y las n m-plas verticales
(
a
11
) (a
12
) (at.)
. ~ ~ ~ , ~ ~ ~ , : .. , ~ ~ ~
a.,l a,.2 a""'
son sus columnas. N6tese que el elemento aii llamado entrada ij o componente ij, aparece en Ia
fila i-esima y en Ia columna j-esima. Una matr1z con m filas y n columnas se denomina matriz
m por n, o matriz m x n; el par de numeros (m, n) se llama su tama.no o forma.
Las matrices se denotanin usualmente por letras mayusculas, A, B, ... , y los elementos del
cuerpo K por minusculas, a, b, .... Dos matrices A y B son iguales, escrito A = B, si tienen Ia
misma forma y si sus elementos correspondientes coinciden. Asi Ia igualdad de dos matrices
m x n equivale a un sistema de mn igualdades, una por cada par de componentes.
EJEMPLO 3.1
(
I -3 4)
a) La siguiente es una matriz 2 x 3:
0 5 - 2
Sus filas son (1, - 3, 4) y (0, 5, - 2); sus columnas son G). ( -D y ( - ~ }
b) La aserci6n (x + y
2
z + w) = (
3
4
5
) es equivalente al siguiente sistema de ecuaciones:
x-y z - w 1
{
x+y=3
x-y=l
2z+w=5
z-w=4
La soluci6n del sistema es x = 2, y = I , z = 3, w = - 1.
Nota: Para referirse a una matriz con una sola fila se utiliza tambien Ia expresi6n vector fila;
y para referirse a una con una columna, Ia expresi6n vector columna. En particular, un elemento
del cuerpo K puede verse como una matriz I x I.
3.3. SUMA DE MATRICES Y PRODUCTO POR UN ESCALAR
Sean A y B dos matrices con el mismo tamaiio (esto es, con el mismo numero de filas y de
columnas), digamos dos matrices m x n:
A=(::: __ ::: .. ~ : :
a.,l a,.2 . .. alftft
y
-
MATRICES 89
La suma de A y B, escrito A + B, es Ia matriz obtenida sumando las entradas correspondientes
de ambas:
El producto de un escalar k por Ia matriz A, escrito k A o simplemente kA, es Ia matriz obtenida
multiplicando cada entrada de A por k:
Observese que A + B y kA son matrices m x n tambien. Ademas definimos
- A= - l A y A- B =A+ ( - B)
La suma de matrices con tamanos diferentes no esta definida.
Sean A= G
-2
3) ( 3
0
!) . Entonces
EJEMPLO 3.2. yB-
5 -6 - 7
c +3
-2 + 0
3 + 2) ( 4
-2
D
A+B=
5 + 1
-6+8 = -3 6 4-7
c 1
3. ( - 2)
33) (3
-6
-1:)
3A =
3. 5 3. (-6) = 12
15 34
2A - 3B=G
-4
6) ( -9
0
-6) ( -7
-4
- 3 ~ 10
-12 + 21 -3
- 24 = 29
7
La matriz m x n cuyas entradas son todas nulas se conoce como matriz cero y se denotani por 0,., . o
simplemente por 0. Por ejemplo, Ia matriz cero 2 x 3 es
(
0 0 0)
0 0 0
La matriz cero es similar al escalar 0, y se utilizani el mismo simbolo para ambos. Para cualquier matriz A,
A+O =O+A= A
Las propiedades basicas de las matrices, bajo las operaciones de suma matricial y producto por un
escalar, se enuncian a continuaci6n.
90 ALGEBRA LINEAL
3.1: Sea Vel conjunto de todas las matrices m x n sabre un cuerpo K. En tal caso,
para matrices arbitrarias A, B, Ce V y escalares cualesquiera k
1
, k
2
eK.
i) (A + B) + C = A + (B + C) v) k
1
(A + B) = k
1
A + k
1
B
ii) A +O=A vi) (k
1
+ k
2
)A = k
1
A + k
2
A
iii) A+ ( - A)= 0 vii) (k
1
k
2
)A = k
1
(k
2
A)
iv) A+B=B+A viii) 1 A= A y OA = 0
Utilizando las propiedades vi) y vii) se puede ver tambien que A+ A = 2A, A+ A+ A= 3A, . ..
Nota: Supongamos que los vectores en R" se representan por vectores fila (o vectores columna).
es decir,
y
Entonces, vistos como matrices, la suma u + v y el producto ku son los siguientes:
y ku =(kat> ka
2
, . , kaJ
Pero esto corresponde precisamente a Ia suma y el producto por un escalar, tal y como se
delinieron en el Capitulo 2. Dicho de otro modo, las operaciones sabre matrices anteriores
pueden verse como una generalizaci6n de las operaciones correspondientes introducidas en el
Capitulo 2.
3.4. PRODUCTO DE MATRICES
El producto de dos matrices A y B, escrito AB, es algo complicado. Por esta raz6n, comenzare-
mos con un caso particular.
El producto A B de una matriz fila A = (a;) y una matriz B = (b;), con el mismo
numero de elementos, se define como sigue:
(a,, a,,, , a,b, +a, b, + +a. .t: b,
N6tese que A B es un escalar (o matriz I x 1). El producto A B no esta definido si A y B
tienen numeros diferentes de elementos.
EJEMPLO 3.3
(8, 8. 3 +(-4) 2 + 5 h 11
Hacienda uso de Io anterior, definimos ahara el producto de matrices en general.
Definicion: Supongamos que A = (ai) y B = (bu) son matrices tales que el numero de colum-
nas de A coincide con el numero de filas de B; es decir, A es una matriz m x p y B una
MATRICES 91
mat riz p x n. Entonces el product o AB es Ia matriz m x n cuya entrada ij se obtiene multiplicando
Ia lila i-esima A
1
de A por Ia columna j -esima Bi de B:
Esto es,
a11 alp bll blj blw ell
c'"
a;1 a,P
C;J
a ... amp bpl bpj . ... b,.. c,J
p
donde c
1
i = ail b
1
i + a;
2
b
2
i + + a
1
PbPi =
l:
a;kbki"
k=l
el hecho de que el producto AB no esta definido si A es una matriz m x p y B
una matriz q x n con p -1: q.
EJEMPLO 3.4
a) (r s)(a
1
a2
a3) = ca, + sb,
ra2 + sb
2
ra
3
+ sb
3
)
t u bl b2 b
3
ta
1
+ ub
1
ta
2
+ ub
2
ta
3
+ ub
3
b)
G
l)=C I +2o
2 3 1 + 40
11+ 22) = C
31+42 3
C
0 2 3
2) =c. 1 + 1. 3
4 0 1+2 3
l 2+ 1 4 )=e
02+24 6 !)
EI ejemplo anterior muestra el producto de matrices no es conmutativo, es decir, los
_ productos AB y BA de matrices no son necesariamente iguales.
El producto de matrices satisface, sin embargo, las siguientes propiedades:
Teorema 3.2: i) (AB)C = A(BC) (ley asociativa).
ii) A(B + C) = AB + AC (ley distributiva por Ia izquierda).
iii) (B + C)A = BA + CA (ley distributiva por Ia derecha).
iv) k(AB) = (kA)B = A(kB), si k es un escalar.
Se supone que las sumas y productos del teorema estan delinidos.
Hacemos notar q ue OA = 0 y BO = 0, donde 0 es la matriz cero.
92 ALGEBRA LINEAL
3.5. TRASPUESTA DE UNA MATRIZ
La traspuesta de una matriz A, denotada par AT, es Ia matriz obtenida escribiendo las filas
de A, por arden, como columnas:
(
:.:_: . :::. . :: . :::)T = (::: . _::. : .... ... : )
am1 amz . . . a,.,. aln az,. . . . a..,,.
En otras palabras, si A = (a;) es una matriz m x n, entonces AT = a ~ ) es Ia matriz n x m con
a ~ = a ji para todos los valores de i y j.
Adviertase que Ia traspuesta de un vector fil a es un vector columna y viceversa.
La operaci6n de trasposicion definida sabre ma trices satisface las siguientes propiedades:
Teorema 3.3: i) (A + B)T =AT+ BT.
ii) (A 1')1' = A.
iii) (kA? =kAT (si k es un escalar).
iv) (ABf = BT AT.
Observamos en iv) qne Ia traspuesta de un producto es el producto de .las traspuestas, pero
en arden inverso.
3.6. MATRICES Y SISTEMAS DE ECUACIONES LINEALES
Consideremos nuevamente un sistema de m ecuaciones lineales con n incognitas:
a
11
x
1
+ a
11
x
2
+ + ahx,. = b
1
a
21
x
1
+ anx
2
+ + a
2
,.x,. = b2
El sistema es equivalente a Ia ecuaci6n matricial:
o simplemente AX=B
[3. 1]
donde A = (a;) es Ia Hamada matriz de los coeflcientes, X = (x) la columna de incognitas y
B = (b;) Ia columna de constantes. La afirmacion de que son equivalentes significa que toda
solucion del sistema [3.1] es soluci6n de Ia ecuacion matricial. y viceversa.
MATRICES 93
La matriz ampliada del sistema [3.1] es Ia matriz:
(
::: .. :::_ ......... :_::_. _:: \
a,
1
a.,
2
a,n bj
Esto es, Ia matriz ampliada del sistema AX = B consiste en Ia matriz A de coeficientes, seguida
por Ia columna B de constantes. Observemos que el sistema [3.1] esta completamente determi-
nado por su matriz ampliada.
EJ EM PLO 3.5. A continuaci6n se dan, respectivamente, un sistema de ecuaciones lineales y su ecuaci6n
matricial equivalente.
2x + 3y- 4z = 7
x- 2y- 5z = 3
y
(N6tese que el tamano de Ia columna de incognitas no es igual at tamano de Ia columna de constantes.)
-La matriz ampliada del sistema es
(
2 3 -4 73)
1 -2 -5
AI estudiar ecuaciones lineales, suele ser mas sencillo emplear el lenguaje y Ia teoria de
matrices, como sugieren los siguientes teoremas.
Teorema 3.4: Supongamos que u
1
, u
2
, , u" son soluciones de un sistema de ecuac\ones
lineales homogeneo AX = 0. Entonces toda combinaci6n lineal de los u, de Ia forma
k
1
u
1
+ k
2
u
2
+ + k"u", donde los k; son escalares, es tambien una soluci6n de AX= 0. En
particular, todo multiplo ku de cualquier soluci6n u de AX= 0 es tambien soluci6n del sistema
homogeneo.
Demostracion. Se nos dice que Au
1
= 0, Au
2
= 0, . .. ,Au" = 0. Por consiguiente,
A(ku
1
+ ku
2
+ + ku,J = k
1
Au
1
+ k
2
Au
2
+ + kn Au" =
= k
1
0 + k
2
0 + + k"O = 0
De acuerdo con ello, k
1
u
1
+ + k"u" es una soluci6n del sistema homogeneo AX= 0.
Teorema 3.5: La soluci6n genera.! de un sistema inhomogeneo AX = B puede obtenerse
sumando el espacio soluci6n W del sistema homogeneo AX = 0 a una soluci6n particular v
0
del
sistema inhomogeneo. (Esto es, v
0
+ W es Ia soluci6n general de AX= B.)
Demostracion. Sea w cualquier soluci6n de AX= 0. En tal caso,
A(v
0
+ w) = A(v
0
) + A(w) = B + 0 = B
Es decir, Ia suma v
0
+ w es soluci6n de AX = B.
94 ALGEBRA LINEAL
Por otra parte, supongamos que v es cualquier solucion de AX = B (que puede ser distinta
de v
0
). Entonces
A(v - v
0
) = Av - Av
0
= B - B = 0
Esto es, Ia diferencia v - v
0
es soluci6n del sistema homogeneo AX = 0. Pero
v = v
0
+ (v - v
0
)
De este modo, cualquier solucion de AX = B puede obtenerse sumando una solucion de AX = 0
a Ia solucion particular v
0
de AX = B.
Teorema 3.6: Supongamos que el cuerpo K es infinite (por ejemplo, si K es el cuerpo real R
o el complejo C). En tal caso, el sistema AX = B no tiene solucion, tiene una (mica soluci6n, o
tiene infinitas.
Demostraci6n. Basta probar que si AX = B tiene mas de una solucion, necesariamente tiene
infinitas. Supongamos que u y v son soluciones distintas de AX = B; es decir, Au = B y Av =B.
Entonces, para todo kEK,
A[u + k(u - v)] = Au + k(Au - Av) = B + k(B - B) = B
En otras palabras, para todo kEK, u + k(u- v) es soluci6n de AX= B. Dado que todas las
soluciones tales son distintas (Problema 3.21), AX = B tiene un numero infinite de soluciones.
como se pretendia.
3.7. MATRICES POR BLOQUES
Utilizando un sistema de lineas (discontinuas) horizontales y verticales podemos partir una
matriz A en otras mas pequenas llamadas bloques (o celdas) de A. La matriz A se denomina
entonces una matriz por bloques. Obviamente, una matriz dada puede dividirse en bloques de
diversas maneras; por ejemplo,
~
-2
3
1
0
5
4
I
7
5
La conveniencia de Ia division en bloques reside en el hecho de que el resultado de las
operaciones entre matrices por bloques puede obtenerse llevando a cabo el calculo con estos.
como si realmente fueran los elementos de las matrices. Esto se ilustra a continuaci6n.
Supongamos que A se ha partido en bloques; digamos
A = ~ : : . ~ : : . . . .. : : )
A,
1
A..,
2
A...,
.....
MATRICES 95
Multiplicar cada bloque par un escalar k equivale a hacerlo con cada elemento de A; asi
(
kA
11
kA
12
kA1oo)
kA = .. .
kA,
1
kA,
2
kA..,,.
Supongamos ahara que B es una matriz dividida en el mismo numero de bloques que A; digamos
B = (.::: .. : ... :::)
B,
1
B,
2
... B,..
Aun mas, supongamos que los bloques correspondientes de A y B tienen el mismo tamafio.
Sumar dichos bloques equivale a hacerlo con los elementos correspondientes de A y B, de
acuerdo con lo cual,
El caso del producto de matrices es menos obvio, pero aun cierto. Supongamos que dos
matrices U y V se dividen en bloques como sigue
u = .. .....
u,
1
u,
2
u,p
y
de forma que el numero de columnas en cada bloque uik es igual a! numero de filas en cada
bloque Vkj En tal caso,
donde
W;
1
= uitl-'1
1
+ ui2 V2
1
+ + uip
La demostracion de Ia formula anterior es directa, aunque detallada y larga. Se deja como
problema suplementario.
96 ALGEBRA LINEAL
/
PROBLEMAS RESUELTOS
SUMA DE MATRICES Y PRODUCTO POR UN ESCALAR
3.1. Calcular:
a) A+ B para
A=G
2
!) y B = G
-I
-D
5 3
b) 3A y -5A, donde A= G
-2
-!) s
a) Sumamos los elementos correspondientes:
(
1+1 2+(-l) 3+2) (2 1 51)
A+ B = 4 + 0 5 + 3 6 + ( - 5) = 4 8
b) Multiplicamos cada entrada por el escalar dado:
(
3 . 1 3 . (-2) 3 . 3 ) ( 3 - 6 9)
3
A = 3 4 3 5 3 ( -6) = 12 15 - 18
(
-51 -5(-2) - 53 ) ' ( -5 10 -15)
-5A = -
- 5 4 - 5 5 - 5 ( - 6) - -20 -25 30
3.2. Hallar 2A - 3B, don de A = (
-2
5
3) ( 3.
yB -
- 6 -7
0
2)
8 .
3.3.
Primero efectuamos los productos por los escalares y luego Ia suma de matrices:
2A-3B=G


(Adviertase que multiplicamos B por - 3 y despues suinamos, en Iugar de multiplicar B por 3 :
restar. Esto suele evitar errores.)
. (X y) ( X
Hallar x, y, z y w s1 3 =
z w -1
6) ( 4 X+ y)
lw + z + w 3 .
Comenzamos escribiendo cada miembro como una sola matriz:
(
3X 3y) ( X+ 4 X+ y + 6)
3z 3w = z + w - 1 2w + 3
lgualamos las entradas correspondientes entre si obteniendo el sistema de cuatro ecuaciones
3x = x + 4
3y =X+ y + 6
3z = z + w- 1
3w = 2w + 3
La solucion es: x = 2. y = 4, z = I, w = 3.
0
2x = 4
2y = 6 +X
2z = w - 1
w = 3
MATRICES 97
3.4. Demostrar el Teorema 3.1 v): Sean A y B dos matrices m x n y k un escalar. Entonces
k(A + B) = kA + kB.
Supongamos A = (a;i) y B = (bu) En tal caso, a;i + bii es Ia entrada ij de A+ B, y por tanto
k(a;j + b) es Ia de k(A + B). Por otra parte, ka,j y kbii son las entradas ij de kA y kB, respectiva-
mente, y en consecuencia kau + kb;j es Ia de kA + kB. Pero k, a;i y b,i son escalares en un cuerpo,
de donde
para todos los i, j
Asi k(A + B) = kA + kB, ya que sus entradas correspondientes son iguales.
PRODUCTO DE MATRICES
3.5. Cakulac: a) (3, 8, -2, 4{-~ ) b) (1, 8, 3, 4X6, I, -3, 5).
a) El producto no esta definido cuando las matrices fila y columna tienen numeros diferentes de
elementos.
b) El producto de dos matrices fila no esta definido.
3.6. Sean A = ~
3) y B = (2
-1 3
0
-2
-4)
6
. Hallar a) AB, b) BA.
a) Dado que A es 2 x 2 y B es 2 x 3, el producto AB esta definido y es una matriz 2 x 3. Para
obtener las entradas en Ia primera fila de AB, rnultiplicamos Ia primera fila (1, 3) de A por las
colurnnas G), ( ~ ) y ( -:) de B, respectivamente:
(
I 3)(2 0 -4
6
)=(12+33 10+3(-2) 1( ---4)+36) =
2 - 1 3 -2
= c + 9 0- 6 -4 + 18) = c I
- 6
Para obtener las entradas en Ia segunda fila de AB, rnultiplicamos Ia segunda fila (2, - 1) de A
por las columnas de B, respectivarnente:
Asi
(II
AB=
1
14 )
- 8 - 6
-6 14)
2 -14
b) N6tese que B es 2 x 3 y A es 2 x 2. Como los nurneros interiores 3 y 2 no son iguales, el
producto BA no esta definido.
3.7. Dadas A = ( ~ - ~ ) y B = ~
- 3 4 .
-2
4
-5)
.
, hallar a) AB, b) BA.
0 '
98 ALGEBRA LINEAL
a) Como A es 3 x 2 y B es 2 x 3, el producto AB esta definido y es una matriz 3 x 3. Pan
obtener Ia primera fila de AB, multiplicamos .(a primera de A por cada columna de 8:
- 4 - 4
Para obtener Ia segunda fila de A8, multiplicamos Ia segunda de A por cada columna de 8:
Pa ra obtener Ia tercera fila de AB, multiplicamos Ia tercera de A por cada columna de 8 :
( : ~ G
( -1
-8 -10) (-1
- 8
-tO)
-2
- ~ = -3; 12
4
6 ~ 6 15-:0 = ~
- 2 - S
-3 4 22 IS
(-1
- 8
-10)
Asi
AB = ~
-2 -5
22 15
b) Dado que 8 es 2 x 3 y A es 3 x 2, el producto 8A esta definido yes una matriz 2 x 2. Para
obtener su primera fila, multiplicamos Ia primera de B por cada columna de.A:
Para obtener su segunda fila, multiplicamos Ia segunda de B por cada columna de A:
Asi
8
A = ( 15 -21)
10 - 3
-21)
-3
Nota: Observese que en este problema tant o AB como BA estim definidos, pero no
son iguales; de hecho, ni siquiera tienen la misma forma.
3.8. Determinar AB, siendo
A=G
3
- 2
8 = (!
- I
3
0
- 5
-2
!)
MATRICES 99
Como A es 2 x 3 y B es 3 x 4, el producto esta definido y es una matriz 2 x 4. Multiplicamos
las filas de A por las columnas de B para llegar a:
(
4+3-4 - 2+9 - 1 0-15+2 12+3-2) ( 3 6 - 13
AB- =
- 8 - 2 + 20 - 4 - 6 + 5 0 + I 0 - I 0 24 - 2 + 10 26 - 5 0
13)
32
3.9. Refinimonos at Problema 3.8. Suponiendo que solo Ia tercera columna del producto AB
fuera de interes, {,como podria calcularse de forma independiente?
Segun Ia regia del producto de matrices, Ia columna j-esima de un producto es igual al primer
factor por el jesimo vector col umna del segundo. Siendo asi,
(
2 3 - 1 )(- = ( 0 - 15 + 2 ) = (-13)
4 - 2 5 0+10 - 10 0
-2
De forma similar, Ia fila i-esima de un producto es igual al i-esimo vector fila del primer factor
por el segundo factor.
3.10. Sea A una matriz m x n, con m> I y n > I. Suponiendo que u y v sean vectores, discutir
las condiciones bajo las cuales a) Au, b) vA esta definido.
a) El producto Au esta definido unicamente cuando u es un vector columna con n componentes,
es una matriz n x I. En tal caso. Au es un vector columna con m componentes.
b) El producto vA esta definido solo cuando v es un vector fila con m componentes, en cuyo caso
vA es otro vector fila, con n componentes.
3.11. Calcular: a) ( _ - 4
5) y b) (6 -.4
a) El primer factor es 3 x I y el segundo I x 3, por lo que el producto esta definido como una
matriz 3 x 3:
U} -
(
(2)(6) (2)( -4) (2)(5) ) ( 12
5) = (3)(6) (3)( -4) (3)(5) = 18
(-1)(6) (-1)(-4) (-1)(5) -6

4 -5
-8
-12
b) El primer factor es I x 3 y el segundo 3 x I, de modo que el producto esta definido como
una matriz 1 x 1, que escribimos frecuentemente como un escalar.
(6 -4
(12- 12- 5)- (-5)- _,
3.12. Demostrar el Teorema 3.2 i): (AB)C = A(BC).
Sean A= (a;), B = (bik) y C = (ck
1
). Ademas, sean AB = S = (s;k) y BC = T= (ti
1
). Entonces
..
sl.t = a
11
b
1
t + a
12
blt + + a
1
.,.b..t = L a
11
b./C
J= l
w
t
11
= b
11
c
11
+ b
12
c., + + b
1
.c.1 = L
t=l
100 ALGEBRA LINEAL
Ahora, multiplicando S por C, esto es, AB por C, el elemento en Ia fila i-esima y en Ia columna
1-esima de Ia matriz (AB)C es

s11 c11 +s
12
c
11
++su.c.
1
= Es
11
c
11
= L L(a
11
b
11
)c
11
- t=l Jl
Por otra parte, multiplicando A por T, es decir, A por Be, el elemento en Ia lila i-esima y en Ia
columna /-esima de Ia matriz A(BC) es
. "' .
autu+a,ltl,++a;.,.t..u = :Laijtj,= L ra,jb;tCt,)
J l ) = l -
Siendo iguales las sumas anteriores, el teorema queda probado.
3.13. Demostrar el Teorema 3.2 ii): A(B + C)=AB + AC.
Sean A= (aiJ), B =(bid y C = (ci<). Ademas, sean D = B + C = (dJk), E = AB = (eil<) y F = AC = (};.).
Entonces
..
e11 = a11 b11 + a
12
bu + +

= L aubJl
J= 1
..
fu.=aucu+a,2c2t+ +a,,.,c...,= Eaucit
j= 1
Por tanto, el elemento en Ia fila i-esima y en Ia columna k-esima de Ia matriz AB + AC es
.. . .
e11 +fu.= Ea
11
b
1
.+ Ea
11
c
11
= EaJbJl+cJl)
j = l )l
Por otro !ado, el elemento en Ia fila i-esima yen Ia columna k-esima de Ia matriz AD = A(B + C) es
"' '"
a
11
da + a11 d21 + + = L a
11
d
1
= L a1jb
11
+ c
11
)
j= I J = I
Asi A(B + C) = AB + AC debido a que los elementos correspondientes son iguales.
TRASPUESTA
3.14. Dada A = G
3
-7
Reescribimos las filas de A como columnas para obtener AT y a continuaci6n reescribimos las
filas de AT como columnas para obtener (AT)T:
[Tal y como cabia csperar por el Teorema 3.3 ii), (ATl = A.]
MATRICES 101
3.15. Probar que las matrices AAr y A r A estan definidas para cualquier matriz A.
Si A es una matriz m x n, AT sera una matriz n x m. Por consiguiente, AAT estani delinida
como una matriz m x m y AT A lo estan'l como una matriz n x n.
3.16. Encontrar AAT y Ar A, donde A = G
2
-I
0)
4 .
Obtenemos AT reescribiendo las filas de A como columnas:
G -!)
c 2
-}e
de donde AAT=
3 - 1
-!)G
c9
2-3
0 + 12) ('0 -1 12) 2 0
) = 2-3 4 + 1 0 - 4 = -I 5 -4
-1 4
0 + 12 0 + 16 12 -4 16 0-4
3.17. Demostrar el Teorema 3.3. iv): (ABl = Br Ar.
Si A = (a
1
) y B = (bki), Ia entrada ij de AB es
ail b
1
i + a12 b2i + .. + a;mbmi [I]
De este modo, [I] es Ia entrada ji (orden inverso) de (ABf.
Por otra parte, Ia columna j de B se convierte en Ia fila j de BT y Ia lila de A en
Ia columna i de AT. Consecuentemente, Ia entrada ji de BT AT es
(b,;, b", , .) :::) = b
1
iai1 + b
21
a,
2
+ + b,.ia,,.
\a;,.
Asi (AB)T = BTAT, puesto que las entradas correspondientes son iguales.
MATRICES POR BLOQUES
3.18. Calcular AB empleando multiplicaci6n por bloques, donde
y
Aqui A = ( E F) y B = ( R
0Jx2 G o! X3
tanto,
donde , F, G, R, S y T son los bloques dados. Por
ES ;;r) (C:
12
15)
-(1:

( ER
26 33
12 15
AB = 26 33
o,xJ
(2) 0
0 0
(0 0 0)
102 ALGEBRA LINEAL
3.19. Eval uar CD mediante multiplicaci6n por bloques, sieudo
c ( i -- + --- -- -
3 -2 0 0
2 4 0 0
---- --
y D= 0 0 1 2
0 0 : 3 4 1
0 0 2 - 1
0 0 -4
CD{:
2x3


4 2
01 2
02 . 2
G
4

((3+4
0 ) ('
6 0
j)
= 9 + 8 -6 + 16
2 2 17
10 0
Ol x2
e+2-8
10-3 + 2) = 0 0 -1
3+8-4 6- 12 + 1 0 0 7
PROBLEMAS V ARIOS
3.20. Oemostrar las siguientes afirmaciones: a) Si A tiene una fila nula, entoaces AB Ia tiene
tam bien. b) Si B tiene una columna oula, tam bien Ia tiene AB.
a) Sean R
1
Ia fila nula de A y B
1
, , B" las columnas de B. Entonces Ia fila i-esima de AB es
(R; 8
1
, R; 8
2
, , R; B") = (0, 0, ... , 0)
b) Sean Ci Ia columna nula deB y A
1
, ... ,A, las filas de A. En tal caso, Ia columna j-esima de
AB es
3.21. Sean u y v dos vectores distiotos. Pro bar que, para cada escalar k E K, los vectores
u + k(u - v) son distintos.
Es suficiente probar que si
u + k
1
(u- v) = u + k
2
(u- v)
entonces k
1
= k
2
Supongamos que se verifica [1]. En tal caso,
0
Como u y v son distintos, u - v =I= 0. Por consiguiente; k
1
- k
2
= 0 y k
1
= k
2

[1)
MATRI CES 103
PROBLEMAS SUPLEMENTARIOS
OPERACIONES MATRICl ALES
Los Problemas 3.22-3.25 estan referidos a las siguientes matrices:
B =( 5
-6
~ )
3.22. Ha llar SA- 2B y 2A + 3B .
.!..23. Hallar: a ) AB y (AB)C, b) BC y A( BC). [N6tese que ( AB)C = A(BC).]
'l ' " Hallar AA = A.
2
y AC.
~ - Supongase que e
1
= (1, 0, 0), e
2
= (0, 0, 1), e
3
= (0, 0, I) y A = (:: :: : : ::). Hallar e
1
A,
A A
c
1
c
2
c
3
c
4
el y eJ .
J.r. Sea e; = (0, ... , 0, I, 0, .. . , 0), donde 1 es Ia componente i-esima. Demostrar las siguientes afirmaciones:
a) e; A = A;. Ia i-esima fi la de una matriz A.
b) BeJ = Bi, Ia j -esima columna de B.
c) Si e;A = e;B para todo i, entonces A= B.
d) Si AeJ = BeJ para t od o j , entonces A = B.
3..28. Sea A = ~ ~ ) . Encontrar una matriz 2 x 3 B con entradas distintas tal que AB = 0.
:..3. Demostrar el Teorema 3.2: iii) (B + C) A = BA + CA; iv) k(AB) = (kA )B = A(kB), donde k es un
escalar. [Las partes i) y ii) se probaron en los Problemas 3.12 y 3. 13, respectivamente.]
3.30. Demostrar el Teorema 3.3: i) (A+ B)T = AT + BT; ii) (ATf = A; iii) (kAf = kAT, siendo k un
escalar. [La parte iv) se demostr6 en el Problema 3. 17 .]
3.31. Sup6ngase que A = (A,.) y B = ( B.) son mat rices por bloques para las q ue AB esta definida y que el
numero de columnas de cada bloque A; es igual al numero de filas de C?da bloque Bki Demostrar que
A B = ( C;). donde cij = L Aik Bkj
k
104 ALGEBRA LI NEAL
RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS
3.22.
(-5
27
10) ( 17 4)
-36 ' -12 13
3.23.
(-7 14) ( 21
105
-98) c
- 15
20) ( 21
105
a) 39
-28 , - 17
- 285
296 ; b) 8
60 -59 ' -17 -285
-98)
296
3.24.
G
3) c -6) ( 5
-4 , 0 7 ' to
15)
-40
( 7
- 6) ( 5
9
-6)
3.25.
:?2 , -5
\ - 9 -33 32
3.28.
(
2 4 6)
-1 - 2 - 3
CAPITULO 4
Matrices cuadradas.
Matrices elementales
4.1. INTROD.UCCION
Las matrices con el mismo numero de filas que de columnas se denominan matrices cuadradas.
Son de importancia capital dentro del algebra lineal y se emplearan a lo largo de todo el texto.
Este capitulo introduce dichas matrices junto a un cierto numero de sus propiedades basicas.
Ademas, el capitulo nos presenta las matrices e\ementales, que estim estrechamente Jigadas
a las operaciones elementales entre fil as del Capitulo 1. Las utilizaremos para justificar dos
algoritmos: uno que determina Ia inversa de una matriz, y otro que diagonaliza una forma
cuadnitica.
A menos que se establezca o sobrentienda Jo contrario, los escalares senin numeros reales
en este capitulo. No obstante, discutiremos el caso especial de las matrices complejas y algunas
de sus propiedades.
4.2. MATRICES CUADRADAS
Una matriz cuadrada es Ia que tiene el mismo numero de filas que de columnas. Se dice que una
matriz cuadrada n x n es de arden n y se le asigna el nombre de matriz n-cuadrada.
Recuerdese que no todo par de matrices puede sumarse o multiplicarse. Sin embargo, cuando
nos Iimitamos a considerar las de un orden dado, n, este inconveniente desaparece. Especificando,
las operaciones de suma, producto, producto por un escalar y trasposici6n pueden efectuarse
sobre todas las matrices n x n y el resultado es nuevamente una matriz n x n.

- ~ -! -!) y B = ~ - ~ - ~ )
5 6 7 I 2 -4
EJEMPlO 4.1. Sean A = Entonces A y B son matrices
cuadradas de orden 3. Ademas, '
105
106 ALGEBRA LINEAL
y
(
2+0+3
AB= -8+0 - 4
10 + 0 + 7
son matrices de arden 3.
(
2 4 6)
2A = - 8 -8 - 8
10 12 14
- 5+6+6
20 - 12-8
-25+18+14
1-4- 12) ( 5
-4 + 8 + 16 = -12
5-12 - 28 17
-4
- 4
- 4


7 -35
Nota: Una coleccion no vacia A de matrices se denomina un algebra (de matrices) si es cerrada
bajo las operaciones de suma, producto por un escalar y producto. Asi Ia colecci6n Mn de todas
las matrices n-cuadradas constituye un algebra de matrices.
MATRICES CUADRADAS COMO FUNCIONES
Sea A cualquier matriz n-cuadrada. A puede .verse como una funci6n A : Rn __. Rn de dos formas
diferentes:
1. A(u) = Au, donde u es un vector columna.
2. A(u) = uA, do.nde u es un vector lila.
,.
En este texto se adopta el primer signilicado de A(u), esto es, Ia funci6n definida por Ia matriz A
sera A(u) = Au. De acuerdo con esto, a menos que se establezca o sobrentienaa lo contrari o,
se supondra que los vectores u en Rn son vectores columna (no vectores fila). Por conveniencia
tipografica, tales vectores columna u se presentaran a menudo como . vectores fila

-2
') .
EJEMPLO 4.2. 5 -6 . Si u = (1, - 3, 7V, entonces
0 - 1
('
-2
'X ') c+2l) ( ")
A(u) =Au = ; 5 -6 -3 = 4-15 - 42 = - 53
0 - 1 7 2+0-7 -5
Si w = (2, -I , 4)T, entonces
A(w) Aw (:
- 2
')( ') (' + 2+ ") ( 16)
5 - 6 -1 = 8 -5-24 = - 21
0 - 1 4 . 4+ 0-4 0
Advertencia: En algunos textos se define Ia funci6n A anterior como
A(u) = uA
donde se supone que los vectores u en Rn son vectores lila. Evidentemente, si uno solo trabaja
con vectores en Rn y no con ma trices, carece de importancia Ia forma en que se delinan estos.
MATRICES CUADRADAS. MATRICES ELEMENT ALES 107
MATRICES QUE CONMUT AN
Se dice que las matrices A y B conmutan si AB = BA, condicion solo verificable por matrices
cuadradas del mismo arden. Por ejemplo, supongamos
Entonces
(
5 + 12
. AB = 15 + 24
A=G !)
4 + 22)=(17 26)
12 + 44 39 56
Como AB = BA, las matrices conmutan.
y
y
B = G ~
(
5 + 12
BA = 6 + 33
4.3. DIAGONAL. Y TRAZA. MATRIZ IDENTIDAD
l 0 + 16) = ( 17 26)
12 + 44 \ 39 56
\
Sea A = (cz;j) una matriz n-cuadrada. La diagonal (o diagonal principal) de A consiste en los
elementos a
11
, a
22
, ... , a . La traza de A, escrito tr A, es Ia suma de los elementos diagonales,
es decir,
n
tr A = a
11
+ a
22
+ + ann = La;;
i= l
La matriz n-cuadrada con unos en Ia diagonal y ceros en cualquier otra posicion, denotada
por I. o simplemente por I, -se conoce como matriz identidad (o unidad). La matriz I se asemeja
al escalar l en que, para cualquier matriz A (del mismo orden),
AI= IA =A
Con mayor generalidad, si B es una matriz m x n, BI. == B e ImB = B (Problema 4.9).
Para un escalar arbitrario keK, Ia matriz kl, que contiene k en las posiciones diagonales
y 0 en cualquier otro Iugar, se denomina Ia matriz escalar correspondiente al escalar k.
EJEMPLO 4.3
a) La delta de Kronecker (jij se define como
() .. = {0 si i #- j
'
1
I si i = j
Siendo asi, Ia matriz identidad puede definirse como I = (b;)
b) Las matrices escalares de 6rdenes 2, 3 y 4 correspondientes al escalar k = 5 son, .respectivamente,
(Es pnictica comun el omitir bloques o disposiciones de ceros como se ha hecho en Ia tercera matriz.)
El siguiente teorema se demostrani en el Problema 4.1 0.
108 ALGEBRA LINEAL
Teorema 4.1: Supongamos que A = (aii) y B = (bii) son matrices n-cuadradas y que k es un
escalar. En tal caso,
i) tr (A + B) = tr A + tr B, ii) tr kA = k tr A, iii) tr AB = tr BA.
4.4. POTENCIAS DE MATRICES. POLINOMIOS DE MATRICES
Sea A una matriz n-cuadrada sobre un cuerpo K. Las potencias de A se definen como sigue:
y
Tambien se definen polinomios en Ia matriz A. Concretamente, para cualquier polinomio,
f(x) = a
0
+ a
1
x + a
2
x
2
+ + a,.x"
donde los a; son escalares, f(A) se define como Ia matriz
f(A) = a
0
/ + a
1
A + a
2
A
2
+ +a,. A"
[Notese que f(A) se obtiene de f(x) sustituyendo Ia variable x por Ia matriz A y el escalar a
0
por Ia matriz escalar a
0
/.] En caso de que j(A) sea la matriz cero, A recibe el nombre de cero
o raiz del polinomio f(x).
EJEMPLO 4.4. Sea A= G Entonces
A2 = G = (
y
Si f(x) = 2x
2
- 3x + 5, entonces

Si g(x) = x
2
+ 3x - 10, entonces
Asi A es un cero del polinomio g(x).
La aplicacion anterior del anillo K [x] de los polinomios sobre K en el algebra M. de las
matrices n-cuadradas definida por
f(x) -+ f(A)
se llama aplicacion de evaluacion en A.
Es aplicable el teorema enunciado a continuaci6n (y probado en el Problema 4.11).
MATRICES CUADRADAS. MATRICES ELEMENT ALES 109
Teorema 4.2: Sean j(x) y g(x) dos polinomios y A una matriz n-cuadrada (todos sobre K). Se
cum pie:
i) (f + g)(A) = f(A) + g(A).
ii) (fg)(A) = f(A)g(A).
iii) f(A)g(A) = g(A)f(A).
Dicho de otro modo, i) y ii) establecen que si primero surnames (multiplicamos) los
polinomios f(x) y g(x) y luego evaluamos Ia suma (producto) en A, el resultado coincide con
el que obtendriamos si primero evalmiramos f(x) y g(x) en A y despues sumaramos (multiplica-
ramos) las matrices f(A) y g(A). La parte iii) establece que dos polinomios cualesquiera en A
conmutan.
4.5. MATRICES INVERTIBLES (NO SINGULARES)
Se dice que una matriz cuadrada A es invertible (o no singular) si existe una matriz B con Ia
propiedad de que
AB = BA =I
siendo I Ia matrlz identidad. Tal matriz B es (mica, puesto que
implica
Denominamos a Ia matriz B Ia inver sa de A y Ia de no tamos por A -l. Observemos que Ia relaci6n
anterior es siinetrica, o sea, si B es Ia inversa de A, necesariamente A es Ia inversa de B.
EJEMPLO 4.5
a) Supongamos A = G D y B = ( _ ~ - ~ ) . Entonces
AB=(2 5x 3 -5)=(6-5 -10+10)=(1 o
1
)=l
1 3 -1 2 3-3 -5 + 6 0
(
3 -5)(2 5) ( 6 -5
BA = -1 2 1 3 = -2 + 2
15 - 15) = (1 0) = I
-5 + 6 0 1
De este modo, A y B son invertibles, siendo cada una Ia inversa de Ia otra.
2) ( - II 2 2)
3 y B = -4 0 1 . Entonces
8 6 -1 - 1
b) Supongamos A= ( ~ - ~
4 1
(
-11+0+12 2+0-2
AB = - 22 + 4 + 18 4 + 0 - 3
-44 - 4 + 48 8 + 0 - 8
~ ~ = ~ ) = ( ~ ~ ~ ~ ) =
8+1-8 0 0
11 0 ALGEBRA LINEAL
Por el Problema 4.21, AB =I si y solo si BA =I; por consiguiente, no necesitamos comprobar si
BA = I. Siendo asi, A y B son cada una inversa de Ia otra.
Consideremos ahora una matriz 2 x 2 general
Podemos determinar cuando es A invertible y, en caso de serlo, dar una formula para su inversa.
Para empezar buscamos escalares x, y, z, t tales que
0
(
ax+ bz ay + bt) = (1 0
1
)
ex+ dz cy+dt 0
lo cual se reduce a resolver los dos sistemas:
{
ax+ bz = 1
ex+ dz = 0
{
ay + bt = 0
cy + dt = 1
donde Ia matriz original A es Ia matriz de los coeficientes de cada sistema. Tomemos !AI = ad- be
(el determinante de A). Segun los Problemas 1.60 y 1.61, los dos sistemas son .resolubles y por
ende A es invertible si y solo si !AI #= 0. En ese caso, el primer sistema tiene Ia solucion (mica
x = d/I AI, z = - e/ IAI y el segundo Ia solucion unica y = - b/IAI, t = afiAI. De acuerdo con esto,
A_1 = ( d/IA I
- c/IAI
-b/1 A 1) 1 ( d
a/1 A I = fAi - c
Expresado en palabras: Cuando !AI #= 0, Ia inversa de una matriz 2 x 2 A se obtiene: i) inter-
cambiando los elementos de Ia diagonal principal, ii) tomando los opuestos de los otros
elementos, iii) multiplicando Ia matriz resultante por 1/IAI.
Nota 1: La propiedad de que A es invertible si y solo si su determinante !AI #= 0 es cierta para
matrices cuadradas de cualquier orden. (Vease Capitulo 7.)
Nota 2: Supongase que A y B son invertibles. En tal caso, AB es invertible y (AB) -
1
= s-
1
A -
1
.
Con mayor generalidad, si A
1
, A
2
, .. . , Ak son invertibles, entonces su producto tambien lo es y
'
que es el p.roducto de las inversas en orden inverso.
4.6. TIPOS ESPECIALES DE MATRICES CUADRADAS
Esta seccion describe un cierto numero de clases especiales de matrices que desempefian un papel
importante en el algebra lineal.
MATRICES CUADRADAS. MATRICES ELEMENTALES 111
MATRICES DIAGONALES
Una matriz cuadrada D = (d;) es diagonal si todas sus entradas no diagonales son nulas. Tal
matriz se denota frecuentemente por D = diag (d
11
, d
22
, .. , d""), donde algunos o todos los d,,
pueden ser nulos. Por ejemplo,
~
0
-7
0
~ )
son matrices diagonales que pueden representarse, respectivamente, por
diag(3, -7, 2) diag(4, -5) y diag(6, 0, -9, I)
(Observese que se han omitido disposiciones de ceros en Ia tercera matriz.)
Claramente, Ia suma, producto por un escalar y producto de matrices diagonales son
nuevamente diagonales. De esto modo, todas las matrices diagonales n x n forman un algebra
de matrices. De hecho, las matrices diagonales forman un algebra conmutativa, porque dos
matrices diagonales n x n cualesquiera conmutan.
:\lA TRICES TRIANGULARES
l;na matriz cuadrada A = (a,) es una matriz triangular superior o simplemente una matriz
:riangular si todas las entradas bajo Ia diagonal principal son iguales a cero, esto es, si sii = 0
~ r a i > j. Las matrices triangulares superiores genericas de 6rdenes 2, 3 y 4 son, respectivamente,
(
ell C12 C13 C14)
Czz C23 Cz4
C33 C34
C44
G.:uno con las matrices diagonales, es pnictica comun el omitir disposiciones de ceros.)
Las matrices triangulares superiores tambieh forman un algebra de matrices. De hecho,
-.:-:..;Rma 4.3: Supongamos que A = (aii) y B = (b,) son matrices triangulares supenores.
:::=: .1:1ces
i) A + B es triangular superior, con diag (a
11
+ b
11
, a
22
+ b
22
, ... , a"" + b"").
ii) kA es triangular superior, con diag (ka
11
, ka
22
, ... , ka"").
AB es triangular superior, con diag (a
11
b
11
, a
12
b
22
, ... , annbnn).
Para cualquier polinomio j(x), Ia matriz f(A) es triangular superior, con
A es invertible si y solo si cada elernento diagonal a;; ::/:- 0.
112 ALGEBRA LINEAL
Analogamente, una matriz triangular inferior es una matriz cuadrada cuyas entradas sobre Ia
diagonal principal son todas nulas, y un teorema analogo al 4.3 rige para tales matrices.
MATRICES SIMETRICAS
Una matriz real es simetrica si AT= A. Equivalentemente, A= (a;i) es simetrica si los elementos
simetricos (imagenes especulares respecto a Ia diagonal) son iguales, es decir, si cada aii = ait (N6tese
que A debe ser cuadrada para que pueda ser AT= A.)
Una matriz real A es antisimetrica si AT= -A. Equivalentemente, una matriz A =(a;) es
antisimetrica si cada aii = -a
11
Claramente, los elementos diagonales de una matriz antisimetrica
deben ser nulos, ya que a;; = - a ;; implica ail = 0.
EJ EM PLO 4.6. Consideremos las siguientes matrices:
A = - ~ -! ~ ) B = - ~ ~ - ~ )
5 7 -8 4 -5 0
0
0 ~ )
a) Por simple inspecci6n, vemos que los elementos simetricos de A son iguales, o que AT= A. Siendo
asi, A es simetrica.
b) Por inspecci6n, vemos que los elementos diagonales deB son 0 y que los elementos simetricos son
opuestos entre si. De este modo, B es antisimetrica.
c) Como C no es cuadrada, no es simetrica ni antisimetrica.
Si A y B son matrices simet ricas, A + B y kA tambien to son. Sin embargo, AB no es
necesariamente simetrica. Por ejemplo,
A =G D y B = (; D son simetricas, pero AB = G: ~ ~ ) noes simetrica
Asi las matrices simetricas no forman un algebra de matrices.
El siguiente teorema se demostrani en el Problema 4.29.
Teorema 4.4: Si A es una matriz cuadrada, entonces i) A+ AT es simetrica; ii) A - AT es
antisimetrica; iii) A = B + C para alguna matriz simetrica B y alguna antisimetrica C.
MATRICES ORTOGONALES
Se dice que una matriz real A es ortogonal si AAT = AT A =I. Observemos que una matriz
ortogonal A es necesariamente cuadrada e invertible, con inversa A - l = AT.
MATRICES CUADRADAS. MATRICES ELEMENTALES 113
EJEMPLO 4.7. S<a (i
8 4)

-: -! . Entonces

8
!
4
J) (l+M+16
4- 32 + 28
8 + 8 -16)

4 4
! = _!_ 4 - 32 + 28 16 + 16 + 49 32-4-28 =
-1J - 9 J -9
1 4 4 7

81
8 + 8- 16 32- 4-28 64 + 1 + 16
1J -1J
(" 0

0

= _!_ 0 81
1
81
0 0 81 0 0
Esto significa que AT = A -l y por tanto AT A = I. Asi A es ortogonaL
Consideremos ahora una matriz 3 x 3 arbitraria
(
az
.,)
A= b
1
bz b3
Ct Cz cJ
Si A es ortogonal,
( .,
az
x
bl
c,) (
0

AAT = bl
b2 b3 az b2
c
2
= 0 1
Ct c2 c
3
a
3
bJ
c
3
0 0
Esto proporciona
ai 1
b
1
a
1
+ b
2
a
2
+ b
3
a
3
= 0
c
1
a
1
+ c
2
a
2
+ c
3
a
3
= 0
a
1
b
1
+ a
2
b
2
+ a
3
b
3
= 0
bi + bi + = 1


+ c
2
b
2
+ c
3
b
3
= 0
a
1
c
1
+ a
2
c
2
+ a
3
c
3
= 0
b
1
c
1
+ b
2
c
2
+ b
3
c
3
= 0
o. en otras palabras,
u u. = 1
u
2
u
1
= 0
u
3
u
1
= 0
U
1
u
2
= 0
u
2
u
2
= 1
u
3
u
2
= 0
u
1
u
3
= 0
u
2
u
3
= 0
u
3
u
3
= 1
d+d+d=1
donde u. = (a., Uz, aJ), Uz = (b.' bz, b3), u3 = (c.' Cz, c3) son las filas de A. Asi las lilas u.' Uz
y u
3
son ortogonales entre si y tienen longitudes unidad, o, dicho de otro modo, forman un
conjunto ortonormal de vectores. La condici6n AT A = I muestra, similarmente, que las colum-
::!aS de A constituyen un conjunto ortonormal de vectores. Aim mas, dado que cada paso es
re\ersible, el reciproco es cierto.
El resultado relative a matrices 3 x 3 anterior es valido en general. Esto es,
'J;eorema 4.5: Sea A una matriz real. Son equivalentes las afirmaciones: a) A es ortogonal;
las filas de A forman un conjunto ortonormal; c) las columnas de A forman un conjunto
:-tonormal.
Para n = 2 tenemos el resultado siguiente, probado en el Problema _4.33.
r
114 ALGEBRA LINEAL
(
cos 0
Teorema 4.6: Toda matriz octagonal 2 x 2 tiene Ia forma
- sen e
para algun numero real 0.
sen 0)
0
(cos 0
cos e sen 0
sen 0)
- cos e
Nota: La condici6n de que los vectores u
1
, u
2
, ... , um formen un con junto ortonormal puede
describirse sencillamente como u; ui = bij donde bii es Ia del ta de Kronecker [Ejemplo 4.3 a)).
MATRICES NORMALES
Una matriz real A es normal si conmuta con su traspuesta, esto es, si AAT =AT A. Obviamente,
si A es simetrica, ortogonal o antisimetrica, es necesariamente normal. No obstante, estas no son
las unicas matrices normales.
(
6 -3)
EJEMPLO 4 .8. Sea A=
3 6
. Entonces
T (6 -3)( 6 3) (45 0)
AA = 3 6 - 3 6 = 0 45
Como AA r = A r A, Ia matriz A es normal.
y
ATA = ( 6
-3
3x6 -3) = (45
6 3 6 0
El teorema que sigue, demostrado en el Problema 4.35, caracteriza completamente las
matrices reales normales 2 x 2.
Teorema 4.7: Sea A una matriz real normal 2 x 2. En tal caso, A es bien simetrica o bien Ia
suma de una matriz escalar y otra antisi metrica.
4.7. MATRICES COMPLEJAS
Sea A una matriz compleja, es decir, una matriz cuyas entradas son numeros complejos.
Recordemos (Secci6n 2.9) que si z = a + bi es un numero complejo, z = a - bi es su conjugado.
La conjugada de Ia matriz compleja A, escrito A, es Ia que se obtiene de A tomando el conj ugado
de cada una de sus entradas, esto es, si A = (a;j), entonces.A = (b;), donde bii = aii. [Denotamos
este hecho escribiendo A = (a;J)
Las trasposici6n y conjugaci6n conmutan para cualquier matriz compleja A,
es decir, (Al = (AT). De hecho, para Ia traspuesta conjugada de A, se utiliza Ia notaci6n espe-
cial AH. (N6tese que si A es real, AH =AT.)
EJ EM PLO 4.9. Sea A = . En-tonces
(
2 + 8i 5 - 3i 4 - 7i) .
6i I - 4i 3 + 2i
6i ) (2-8i
1-4i = 5 + 3i
3 + 2i 4 + ?i
-6i)
1 + 4i
3 - 2i
MATRICES CUADRADAS. MATRICES ELEMENTALES 115
MATRICES COMPLEJAS HERMITICAS, UNITARIAS Y NORMALES
Se dice que una matriz cuadrada compleja A es hermitica o antihermitica segun sea
0
Si A = (aij) es hermitica, aii = aii y por tanto cada elemento diagonal aa debe ser real. De
forma similar, si A es antihermitica, cada elemento diagonal au = 0.
Se dice que una matriz cuadrada compleja A es unitaria si
AH =A -1
Una matriz compleja A es unitaria si y solo si sus filas (columnas) forman un conjunto
ortonormal de vectores respecto al producto interno de vectores complejos. (Vease el Proble-
ma 4.39.)
Notese que cuando A es real, hermitica es lo mismo que simetrica y unitaria es lo mismo
que ortogonal.
Se dice que una matriz cuadrada compleja A es normal si
Esta definicion se reduce a la dada para matrices reales cuando A es real.
EJEMPLO 4.10: Consideremos las siguientes matrices:
:
-i
-l+i)

1- 2i
4 + ")
1 1 + i -4 -2i
C=e
1 2)
2
1 + i -1+i 0 4- 7i 2i 2
a) A es unitaria si A H = A-
1
o si AA H = AHA = I. Tal y como se indic6 previamente, solo es necesario
probar que AAn =I:
-j
-1 + j)( l -j 1- i)
1 + j j 1 -1- j =
0 -1-i 1-i 0 -1+i
( 1+1+2
=- i + i- 2i
4
1+i-i - 1+0
De acuerdo con esto, A es unitaria.
-i-i+2i
1 + 1 + 2
-i+1 - 1+i+0
1 i + i - 1 0) (1
z+l-1-l = 0
2+2+0 0
0
0
b) B es hermitica, puesto que sus elementos diagonales 3, -4 y 2 son reales, y los elementos simet ricos
1 - 2i y 1 + 2i, 4 + 7i y 4 - 7i, y - 2i y 2i son conjugados.
c) Para probar que c es normal, evaluamos ccn y C
8
C:
8
-r (2 + 3i
CC =CC =
i
1 ")(2- 3i
1 + 2i 1
8
_ -r _ (2 - 3i -i )(2 + 3i
CC - CC- 1 1-2i i
-i ) ( 14 4 -6 4i)
1- 2i = 4 + 4i
1 ) ( 14 4 -6 4i)
1 + 2i = 4 + 4i
Como ccn = en C, Ia matriz compleja C es normal.
116 ALGEBRA LINEAL
4.8. MATRICES CUADRADAS POR BLOQUES
Una matriz por bloques A se llama matriz cuadrada por bloques si: i) A es cuadrada, ii) los
bloques forman una matriz cuadrada, iii) los bloques diagonales son tambien matrices cuadradas.
Las dos ultimas condiciones se daran si y solo si hay el mismo numero de lineas horizontales y
verticales y estan situadas simetricamente.
Consideremos las dos matrices por bloques:
A=
.1/ 2 : 3
I I
1 I I 1 l I 1
- - - - - - - L - - - - - - - -'- - ..
9 s:1 6:5
-4- --4- :- -4-- -4- -:--4-
1
3 5 I 3
I
B=
2 : 3 4 : 5
I I
1 1
1
1 1
1
1
- - - -.- - - l - - - - - - - _I_ - -
9 s:1 6:5
4 4 ; 4
3- --_5 .. ; - 3- ---5- -; -3-
1 I
A noes una matriz cuadrada por bloques debido a que los bloques diagonales segundo y tercero
no son matrices cuadradas. Por el contrario, B es una matriz cuadrada por bloques.
Una matriz diagonal por bloques M es una matriz cuadrada por bloques en Ia que todos los
no diagonales son matrices cero. La importancia de estas matrices radica en el hecho de que el
algebra de las matrices por bloques se reduce frecuentemente a Ia de los bloques individuates.
Especificamente, supongamos queM es una matriz diagonal por bloques y que f(x) es cualquier
polinomio. En tal caso, M y f(M) tienen Ia siguiente forma:
M=(A" A, ... )
A,.
(
:f(A
11
) )
f(M) = j(A22) . . . .
f(A .. )
(Como de costumbre, empleamos espacios en blanco para disposiciones o bloques de ceros.)
Analogamente, una matriz cuadrada por bloques recibe el nombre de matriz triangular
superior par bloques si los bloques bajo Ia diagonal son matrices cero, y el de matriz triangular
inferior por bloques si lo son los bloques sobre Ia diagonal.
4.9. MATRICES ELEMENTALES. APLICACIONES
Comencemos recordando (Seccion 1.8) las llamadas operaciones elementales entre filas en una
matriz A:
[Ed (Intercambio de filas) Intercambiadas filas i-esima y j -esima:
[
2
] (Cambio de escala de filas) Multiplicar Ia fila i-esima por un escalar no nulo k:
k:;>60
[
3
] (Adici6n de filas) Sustituir Ia fila i-esima por ella misma mas k veces Ia j-esima:
MATRICES CUADRADAS. MATRICES ELEMENTALES 117
Cada una de las operaciones anteriores tiene una in versa del mismo tipo. De forma especifica
(Problema 4.19):
1. Ri R; es su propia inversa.
2. kR;-... R; y k-
1
R; R; son inversas.
3. kRi + R; ~ R; y - kRi + R;-... R; son inversas.
Recordemos tambien (Seccion 1.8) que se dice que una matriz B es equivalente por ji.las a
otra A, escrito A ....... B, si B puede obtenerse de A mediante una sucesi6n finita de operaciones
elementales entre filas. Dado que estas son invertibles, Ia equivalencia por filas es una relaci6n
de equivalencia; es decir: a) A ....... A; b) si A ....... B, entonces B ....... A; c) si A ....... B y B ....... C,
necesariamente A ....... C. Asimismo, establecemos de nuevo el siguiente resultado basico, relativo
a Ia equivalencia por filas:
Teorema 4.8: Toda matriz A es equivalente por filas a una {mica matriz en forma can6nica por
filas.
MATRICES ELEMENT ALES
Denotemos por e una operaci6n elemental entre filas y por e(A) el resultado de efectuarla
sobre una matr1z A. La matriz E obtenida efectuando e sobre Ia matriz identidad,
E = e(I)
se llama Ia matriz elemental correspondiente a Ia operaci6n elemental entre filas e.
EJEMPLO 4.11. Las matrices 3-cuadradas elementales correspondientes a las operaciones elementales
entre filas R
2
....., R
3
, - 6R
2
-> R
2
y -4R
1
+ R
3
-+ R
3
son, respectivamente,
0
0
~
0
l
0
El siguiente teorema, probado en el Problema 4.18, muestra Ia relaci6n fundamental entre
las operaciones elementales entre filas y sus matrices elementales correspondientes.
Teorema 4.9: Sean e una operaci6n elemental entre filas y E Ia matriz m-cuadrada elemental
correspondiente, .es decir, E = e(lm). En tal caso, para cualquier matriz m x nA, e(A) =EA.
Esto es, el resultado de efectuar una operaci6n elemental entre filas e sobre una matriz A
puede obtenerse multiplicando por ra izquierda A por Ia matriz elemental correspondiente E.
Ahora supongamos que e' es Ia inversa de una operaci6n elemental entre filas e. Sean E y
E' las matrices correspondientes. Probaremos en el Problema 4.19 que E es invertible y que E'
es su inversa. Esto quiere decir, en particular, que cualquier producto
de matrices elementales es no singular.
118 ALGEBRA LINEAL
Haciendo uso del Teorema 4.9 podemos, asimismo, demostrar (Problema 4.20) el resultado
fundamental, referente a matrices invertibles, que sigue:
Teorema 4.10: Sea A una matriz cuadrada. Entonces son equivalentes las aserciones:
i) A es invertible (no singular).
ii) A es equivalente por filas a Ia matriz identidad I.
iii) A es producto de matrices elementales.
Tambien utilizaremos el Teorema 4.9 para probar los que se enuncian a continuaci6n:
Teorema 4.11: Si AB =I, necesariamente BA = I y por consiguiente B = A-
1
.
Teorema 4.12: B es equivalente por filas a A si y solo si existe una matriz no singular P tal
que B = PA.
APLICACION AL CALCULO DE INVERSAS
Supongamos que una matriz A es invertible y, digamos, es reducible por filas a la matriz
identidad I mediante la sucesi6n de operaciones elementales e
1
, e
2
, ... , eq. Sea E; la matriz
elemental correspondiente a la operaci6n ei. Segun el Teorema 4.9,
y por Jo que
En otras palabras, A -I puede obtenerse efectuando las operaciones elementales entre filas
e
1
, e
1
, .... , eq sobre Ia matriz identidad I.
La discusi6n anterior nos conduce al siguiente algoritmo (eliminaci6n gaussiana) que bien
halla Ia inversa de una matriz n-cuadrada A, o bien determina que A no es invertible.
Algoritmo 4.9: Inversa de una matriz A
Paso ]. Construir la matriz [por bloques) n x 2n M = (A i I); esto es, A esta en la mitad
izquierda de M y Ia matriz identidad I en la derecha.
Paso 2. Reducir por filas M a forma escalonada. Si el proceso genera una fila nula en Ia
mitad A de M, terminar (A no es invertible). En caso contrario, Ia mitad A adoptani forma
triangular.
Paso 3. Mas aun, reducir M ala forma can6nica por filas (I i B), donde I ha reemplazado a A
en Ia mitad izquierda de Ia matriz.
Paso 4. Tomar A - t =B.
-
MATRICES CUADRADAS. MATRICES ELEMENTALES 119
0
EJEMPLO 4.12.
S"pongmo q"' q"'remoo enoont'" I '"""" de A (:
-1
Pdmew
1
construimos Ia matriz por bloques M = (A! I) y Ia rcducimos a forma cscalonada:
(' 0
2
I
1 0

0
2 I
1 0
:)-(:
0
2 I
0
:)
I
M = 2 -1 3 0 1 -1 -1 : -2 1 -1
-1 I
-2
4 1 8 0 0 1 0 : -4 0 0 -1 -6 1
En forma escalonada, Ia mitad izquierda de M esta en forma triangular; por consiguiente, A cs invertible.
A continuaci6n reducimos M a su forma can6nica por filas:
(
1 0
M- 0 - 1
0 0
0 : -11 2 2) (1
0 : 4 0 -1 - 0
I : 6 -1 -1 0
0
I
0
0 I -ll 2 2)
0 - 4 0 1
1 1 6 -1 -1
La matriz identidad ocupa Ia mitad izquierda de Ia matriz final; de aqui, Ia mitad derecha es A -
1
. Dicho
de otro modo,
(
-11 2 2)
A-
1
= -4 0 1
6 - 1 - 1
4.10. OPERACIONES ELEMENTALES ENTRE COLUMNAS.
EQUIV ALENCIA DE MATRICES
Esta seccion repite parte de Ia discusion de Ia precedente, utilizando las columnas de una matriz
vez de sus filas. (La eleccion de utilizar primero las filas proviene del hecho de que las
entre filas estfm fuertemente ligadas a las operaciones con ecuaciones lineales.)
tambien Ia relacion existente entre las operaciones entre filas y columnas y sus
::aatrices elementales.
Las operaciones elementales entre columnas a las operaciones elementales entre fil as
son las siguientes:
[F
1
] (Intercambio de columnas) lntercambiar las columnas i-esima y j -esima:
[F
2
] (Cambio de escala de columnas) Multiplicar Ia columna i-esima por un escalar no
nulo k:
(k O)
(F
3
] (Adicion de columnas) Sustituir Ia columna i-esima por ella misma mas k veces Ia
j -esima:
120 ALGEBRA LINEAL
Cada una de las operaciones anteriores tiene una inversa del mismo tipo, tal y como sucedia
con las operaciones entre filas correspondientes.
Denotemos por f una operaci6n elemental entre columnas. La matriz F, obtenida efectuando
f sobre Ia matriz identidad I , es decir,
F = f(I)
se conoce como Ia macriz elemental correspondiente a Ia operaci6n elemental entre columnas f.
EJ EM PLO 4.13. Las matrices 3-cuadradas elementales correspondientes a las operaciones elementales
entre columnas C
3
---> C
1
, -2C
3
..... C
3
y -5C
2
+ C
3
---> C
3
son, respectivamente, .
0
~ )
0 1)
1 -5
0 1
0
A Io largo de toda la discusi6n posterior, e y f denotanin, respectivamente, operaciones
elementales entre fil as y columnas correspondientes y E y F sus matrices elementales asociadas.
Lema 4.13: Supongamos que A es cualquier matriz. Entonces
esto es, efectuar Ia operaci6n entre columnas f sabre una matriz A conduce al mismo resultado
que efectuar Ia operaci6n entre filas correspondientes e sabre A ~ y luego tamar la traspuesta.
La demostraci6n del lema se obtiene directamente del hecho de que las columnas de A. son
las filas de AT, y viceversa.
El lema anterior muestra que
En otras palabras,
Corolario 4.14: F es la traspuesta de E.
(De este modo, F es invertible porque E lo es.) Ademas, de acuerdo con ellema precedente.
lo que prueba el siguiente teorema (que es analogo a! Teorema 4.9 relativo a las operaciones
elementales entre filas):
Teorema 4.15: Para cualquier matriz A, f(A) = AF.
Es decir, el resultado de efectuar una operaci6n elemental entre columnas f sabre una ma-
triz A puede obtenerse multiplicando porIa derecha A par Ia matriz elemental correspondiente F.
Se dice que una matriz B es equivalente por columnas a otra A si B puede obtenerse de A
MATRICES CUADRADAS. MATRICES ELEMENTALES 121
mediante una sucesion finita ~ operaciones elementales entre columnas. Usando el argumento
ana.logo al dado para el Teorema 4.12 llegamos a!:
Teorema 4.16: B es equivalente por columnas a A si y solo si existe una matriz no singular Q
tal que B = AQ.
EQUIV ALENCIA DE MATRICES
Se dice que una matriz B es equivalence a otra A si B puede obtenerse de A mediante una sucesion
finita de operaciones elementales entre filas y columnas. Alternativamente (Problema 4.23), B es
equivalente a A si existen matrices no singulares P y Q tales que B = PAQ. AI igual que Ia
equivalencia por filas o por columnas, la equivalencia de matrices es una relacion de equivalencia.
El principal resultado de esta subseccion, demostrado en el Problema 4.25, se enuncia a
continuacion:
Teorema 4.17: Toda matriz m x n A es equivalente a una (mica matriz por bloques de Ia forma
donde I, es Ia. matriz identidad r x r. (El entero no negativo r se llama el rango de A.)
4.11. MATRICES SIMETRICAS CONGRUENTES. LEY DE INERCIA
Se dice que una matriz B es congruente a otra A si existe una matriz no singular (invertible) P
tal ql]e
B = pT AP
Por el Problema 4.123, Ia congruencia es nna relacion de equivalencia.
Supongamos que A es simetrica, o sea, AT= A. En tal caso,
y por tanto B es simetrica tambien. Dado que las matrices diagonales son simetricas, se deduce
que unicamente matrices simetricas son congruentes a matrices diagonales.
El siguiente teorema juega un importante papel en el algebra lineaL
Teorema 4.18 (ley de inercia): Sea A una matriz real simetrica. Entonces existe una matriz no
singular P tal que B = PrAP es diagonal. Aun mas, todas las matrices diagonales B que cumplan
la condicion anterior tienen el mismo numero p de entradas positivas y el mismo numero n de
entradas negativas.
El rango y Ia signatura de Ia matriz anterior A se denotan y definen, respectivamente, por
rango A= p + n y sig A= p - n
122 ALGEBRA LINEAL
Estos estim univocamente definidos, segun el Teorema 4.19. [La nocion de rango se define en
realidad para cualquier matriz (Seccion 5. 7), y Ia definicion precedente concuerda con Ia general.]
ALGORITMO DE DIAGONALIZACION
El algoritmo expuesto a continuacion diagonaliza (bajo congruencia) una matriz real simetrica
A= (a;)
Algoritmo 4.11: Diagonalizacion bajo congruencia de una matriz simetrica
Paso I. Construir Ia matriz [por bloques] n x 2n M = (A i I); esto es, A es Ia mitad izquierda
de M y Ia matriz identidad I, Ia derecha.
Paso 2. Examinar Ia entrada a
11
.
Caso I: a
11
# 0. Efectuar las operaciones entre filas - a;
1
R
1
+ a
11
R; R;, i = 2, ... , n, y
despues las operaciones entre columnas correspondientes - a;
1
C
1
+ a
11
C; C; para reducir Ia
matriz M a Ia forma
0 ..
B I .. :)
[I]
Caso II: a
11
= 0, pero a;;# 0 para algun i > I. Efectuar Ia operacion entre filas R
1
- R, y
luego Ia operacion entre columnas correspondientes C
1
+-+ C; para llevar a;; a Ia primera posicion
diagonal. Esto reduce Ia matriz a Ia del Caso I.
Caso III. Todas las entradas diagonales cumplen a;; = 0. Elegir i, j tales que aij # Q y
efectuar Ia operacion entre fil as Ri + R;....., R; junto a Ia operacion entre columnas correspon-
diente Ci + C; C; para llevar 2a;i # 0 a Ia i-esima posicion diagonal. Con esto se reduce Ia
matriz a Ia del Caso II.
En cada uno de los casas reducimos finalmente M a Ia forma [I] en Ia que B es una matriz
simetrica de orden menor que el de A.
Nota: Las operaciones entre filas varianin las dos mitades de M, pero las operaciones entre
columnas solo cambiaran su mitad izquierda.
Paso 3. Repetir el Paso 2 con cada nueva matriz (despreciando las primeras fila y columna de
Ia precedente) hasta que A este diagonalizada, esto es, hasta que M se transforme en una
M' = (D, Q). donde D es diagonal.
Paso 4. Tomar P = Qr. Entonces D = pr AP.
La justificaci6n del algoritmo anterior se da a continuaci6n. Sean e
1
, e
2
, ... , ek todas las
operaciones elementales entre filas en el algoritmo y j
1
, f
2
, , fk las correspondientes operacio-
nes elementales entre columnas. Supongamos que E; y F; son las matrices elementales asociadas.
Segun el Corolario 4.14,
MATRICES CUADRADAS. MATRICES ELEMENTALES 123
Por el algoritmo anterior,
ya que Ia mitad derecha I de M solo es alterada por las operaciones entre filas. Por otra parte,
Ia mitad izquierda A de M es transformada por las operaciones tanto entre filas como entre
columnas; por consiguiente,
D = Ek E
2
E
1
AF
1
F
2
Fk =
= (Elt E2 E
1
)A(Et E2 E
1
)T =
= QAQT = PTAP
EJEMPLO 4.14. Supo,gamo A ( _: =;),una mat<iHim<t,ica. Pa,aonwntm una mat<i'
no singular P tal que B = pT AP sea diagonal , empezamos construyendo la matriz por bloques (A i I)
(A i I)= (

2
5 0
8 I 0
0
1
0

Efectuamos las operaciones - 2R
1
+ R
2
--> R
2
y 3R
1
+ R
3
---> R
3
para (A i 1) y despues las mrrespondientes


+ C
2
---> C
2
y 3C
1
+ C
3
--> C
3
sobre A obteniendo

2 -3
I
0

I
1 2
:-2
1 y luego
2 -1 I 3 0

0 0 :
2 :-2
2 -1 1 3
0
0
A continuacion efectuamos - 2R
2
+ R
3
---+ R
3
y entonces Ia correspondiente - 2C
2
+ C
3
--> C
3
para obtener
0
01
0 0 0
I
I I
(:
1
2: - 2 1

y Iuego
(:
1 0 :-2
0 5' - I 7 -2 0 -5 I
Se ha diagonalizado A. Tomemos

-2

B
0
1 y entonces 1
0 0
que B ticne p = 2 entradas positivas y n = I entrada negativa.
4.12. FORMAS CUADRATICAS
Una forma cuadratica q en las variables x
1
, x
2
, ... , xn es un polinomio
q(xl, x2, ... , xn) = LC;jX;Xj
i<j
7
0

1
-2

[4.1]
124 ALGEBRA LINEAL
(donde cada termino es de grado dos). Se dice que Ia forma cuadnitica esta diagonalizada si
esto es, si q carece de terminos con productos cruzados x;xi (con i j).
La forma cuadratica [4. I] puede expresarse de modo (mico en Ia forma matricial
q(X) = xr AX
. [4.2]
donde X= (x
1
, x
2
, ... , x.)r y A= (a;) es una matriz simetrica. Las entradas de A pueden
obtenerse a partir de [4.1] tomando
y (para i j)
es decir, A tiene ent rada diagonal a;; igual al coeficiente de xt y entradas aii y aii iguales a Ia
mitad del coeficiente de x;xi. De este modo,
(X) = ( )(::: ::: .. . :::)(=:) =
q XI, ... , X,
. . . . . .. . . .. . .. . . . . :
a,.
1
a,
1
. . . a,. x.
= I.al
1
x;x
1
= auxr +
2 2
x ~ + ... + a,.,.x; + 2 I aux
1
x
1
i.j i<j
La matriz simetrica anterior A se denomina Ia representacion matricial de Ia fo(ma cuadniti-
ca q. Aunque muchas matrices A en [4.2] conducirim a Ia misma forma cuaddttica q, solo una
de elias es simetrica.
Reciprocamente, toda matriz simetrica A define una forma cuadratica q mediante [4.2]. Siendo
asi, existe una correspondencia uno-a-uno entre las formas cuadraticas q y las matrices simetri-
cas A. Aun mas, una forma cuadratica q esta diagonalizada si y solo si Ia matriz simetrica
asociada A es diagonal.
EJEMPLO 4.15
a) La forma cuadratica
q(x, y, z) = x
2
- 6xy + 8y
2
- 4xz + 5yz + 7:
2
puede expresarse en Ia forma matriciat
q(x, y, z) = (x, y, zj ~
\-2
-3
8
1
donde Ia matriz definidora es simetrica. Tambien puede expresarse en Ia forma matricial
q(x, y, ')- (x, y, { ~
en Ia que Ia matriz definidora es triangular superior.
MATRICES CUADRADAS. MATRICES ELEMENTALES 125
(
2 3) . f d ' .
b) La matriz simetrica
3 5
determma Ia orma cua rat1ca
q(x, y) = (x, { ~ !)(;) = 2x
2
+ 6xy + 5y
2
Nota: Por razones de indole te6rica, supondremos siempre que una forma cuadnitica q esta
representada por una matriz simetrica A, Dado que A se obtiene de q mediante division por 2,
tendremos que suponer tambien que l + l i= 0 en nuestro cuerpo K. Esto es siempre cierto si
K es el cuerpo real R o el complejo C.
MATRIZ DE CAMBIO DE VARIABLES
Consideremos un cambio de variables, digamos de x
1
, x
2
, -- x. a fl, Yl .. . , Yn por medio de
una sustit ucion lineal invertible de Ia forma
(i = l , 2, ... , n)
(Aqui invertible significa que se puede despejar cada una de las variables y de forma {mica en
terminos de las x.) Tal sustituci6n lineal puede expresarse en Ia forma matricial
X = PY [4.3]
don de
y
La matriz P recibe el nombre de matriz de cambio de variables; es no singular, puesto que Ia
sustituci6n lineal es invertible.
Reciprocamente, cualquier matriz no singular P define una sustituci6n lineal invertible de
variables, X = PY. Ademas,
proporciona Ia formula que expresa las variables y en terminos de las x.
Existe una interpretacion geometrica de Ia matriz de cambio de variables P, que se ilustra
en el proximo ejemplo.
EJ EM P LO 4, 16. Consideremos el plano cartesian a R
2
con los ejes x e y usuales y Ia matriz no sin-
gular 2 x 2
Las columnas u
1
= (2, 1 )
7
. y u
2
= (- 1, 1 )T de P determinan un nuevo sistema de coordenadas en el plano.
digamos con ejes s y t, como se muestra en Ia Figura 4-1. Esto es:
1. El eje s esta en Ia direcci6n de u
1
y su unidad de longitud es Ia longitud de u
1

2. El eje t esta en Ia direcci6n de u
2
y su unidad de longitud es Ia longitud de u
2
.
126 ALGEBRA LINEAL
y
Figura 4-L
Un punto cualquiera Q en el plano tendra unas coordenadas respecto a cada sistema, digamos Q(a, b)
respecto a los ejes _x e y y Q(a', b' ) respecto a los s y t. Estos vectores de coordenadas estan relacionados
mediante Ia matriz P. Concretamente,
0
donde X = (a. bf e Y =(a', h'V
DIAGONALIZACION DE UNA FORMA CUADRA TICA
Consideremos una forma cuadratica q en las variables x
1
, x
2
, .. , xn, es decir, q(X) = xr AX
(donde A es una matriz simetrica). Supongamos que se efectua un cambia de variables en q
empleando Ia sustitucion lineal [4.3]. Tomando X = PY en q se llega a Ia forma cuadratica
q(Y) = (PY)T A(PY) = YT(pT AP) Y
Asi B = pT AP es Ia representacion matricial de Ia forma cuadn'l.tica en las nuevas variables
y
1
, y
2
, ... , Yn Observemos que la nueva matriz B es congruente a Ia inicial A, que representaba q.
Se dice que Ia sustitucion lineal anterior Y = P X diagonaliza la forma cuadnitica q(X) si q( Y)
es diagonal, esto es, si B = pT AP es una matriz diagonal. Como B es congruente a A y A es
una matriz simetrica, podemos enunciar otra vez el Teorema 4.18 como sigue.
Teorema 4. 19 (ley de inercia): Sea q(X) = xr AX una forma cuadr;itica real. Entonces existe
una sustituci6n lineal invertible Y = P X que diagonaliza q. Aim mas, cualquier otra representa-
cion diagonal de q tiene el mismo numero p de entradas positivas y el mismo numero n de
entradas negativas.
El rango y Ia signatura de una forma cuadratica q se denotan y definen por
rango q = p + n y stg q = p - n
Est{m univocamente definidos, de acuerdo con el Teorema 4.19.
MATRICES CUADRADAS. MATRICES ELEMENTALES 127
Dado que diagonalizar una forma cuadratica q equivale a diagonalizar bajo congruencia una
matriz simetrica, el Algoritmo 4.11 puede utilizarse tambien aqui.
EJ EM PLO 4.17. Consideremos Ia forma cuadnitica
q(x, y, z) = x
1
+ 4xy + sy2 - 6xz - 8yz + 8z
2
La matriz simetrica A que representa q es:
A= ( ~ ~ =!)
-3 - 4 8
Segun el Ejemp!o 4.14, Ia matriz no singular P siguiente diagonaliza A bajo congruencia:
(
1 -2 7.)
p = 0 1 -2
0 0 1
y
De acuerdo con esto, q puede diagonalizarse mediante Ia sustituci6n lineal:
x = r- 2s + 7t
y = s- 2t
z=
De forma especifica, sustituyendo x, y y z en [I] se llega a Ia forma cuadn'ttica:
Aqui p = 2 y n =I; por tanto,
rango q = 3 y sig q =I
[I]
[2)
~ o t a Existe una interpretacion geometrica de Ia ley de inercia (Teorema 4.19) que damos aqui
utilizando Ia forma cuadratica del Ejemplo 4.17. Consideremos Ia siguiente superficie S en R
3
:
q(x, y, z) = x
2
+ 4xy + 5y
2
- 6xz- Syz + 8z
2
= 25
Baja el cambio de variables
x = r- 2s + ?t y=s - 2t z=t
o. equivalentemente, relativa a un nuevo sistema de coordenadas con ejes r, s y t, Ia ecuaci6n
de S se convierte en
q(r, s, t) = r
2
+ s
2
- 5t
2
= 25
De acuerdo con ello, S es un hiperboloide de una hoja, ya que hay dos entradas positivas y una
!:.egativa en Ia diagonal. A lin mas, S sera siempre un hiperboloide de una hoja, con independencia
del sistema de coordenadas. Siendo asi, cualquier representaci6n diagonal de Ia forma cuadratica
qt'<. y, z) contendra dos entradas positivas y una negativa en Ia diagonal.
128 ALGEBRA LINEAL
MATRICES SIMETRICAS Y FORMAS CUADRATICAS DEFINIDAS POSITIVAS
Se dice que una matriz real simetrica A es definida positiva si
xrAX > 0
para todo vector (columna) no nulo X en R". Anatogamente, se dice que una forma cuadn1tica
q es definida positiva si q(v) > 0 para todo vector no nulo en R".
De forma alternativa, una matriz real simetrica A o su forma cuadratica q es definida positiva
si cualquier representaci6n diagonal tiene solo entradas positivas. Tales matrices y formas
cuadraticas desempenan un papel muy importante dentro del algebra lineal. Se estudiaran en
los Problemas 4.54-4.60.
4.13. SIMILARIDAD
Una funci6n f: R"--+ R" puede verse georrietricamente como enviando o aplicando cada
punto Q sobre un punto f(Q) en el espacio R". Supongamos que Ia funci6n f puede representarse
de Ia forma
/(Q) = AQ
donde A es una matriz n x n y las coordenadas de Q se escriben como un vector columna. Aim
mas, supongamos que P es una matriz no singular que puede verse como introduciendo un
nuevo sistema de coordenadas en el espacio R". (Vease Ejemplo 4.16.) Probamos que, referida
a este nuevo sistema de coordenadas, f esta representada por Ia matriz
esto es,
f(Q' ) = BQ'
donde Q' denota el vector columna de las coordenadas de Q respecto al nuevo sistema de
coordenadas.
EJ EM PLO 4.18. Considerernos Ia funci6n f: R
2
-+ R
2
definida por
f(x, y) = (3x- 4y, 5x + 2y)
o, equivalenternente,
don de
A= G -;)
Supongamos que se introduce en R
2
un nuevo sistema de coordenadas con ejes s y t por medio de Ia matriz
no singular
P=G -:)
y por tanto
p - 1 = ( ~
~
MATRICES CUADRADAS. MATRICES ELEMENTALES 129
(Vease Ia Figura 4-l.) Res pee to a este nuevo sistema de coordenadas de R
2
, Ia funci6n f puede representarse
como
don de
l)(3 -4)(2 -1) = ( - ~
j5 211 t
En otras palabras,
f(s, t) = (1s - .1ft, fs + t)
La discusi6n precedente nos conduce a Ia siguiente:
Definicion: Una matriz B es similar a otra A si existe una matriz no singular P tal que
La similaridad, como Ia congruencia, es una relaci6n de equivalencia (Problema 4.125); por
consiguiente, podemos decir que A y B son matrices similares cuando B = P-
1
AP.
Se dice que una matriz A es diayonalizable si existe una matriz no singular P tal que
B = P -
1
APes una matriz diagonal. La cuesti6n de si una matriz dada A es o no diagonalizable
y el hallar Ia matriz P en caso de serlo juegan un papel importante en el algebra lineaL Estas
cuestiones se acometen\.n en el Capitulo 8.
4.14. FACTORIZACION LU
Supongamos que A es una matriz no singular que puede llevarse a forma triangular (superior)
U mediante el uso de operaciones de adici6n de filas exclusivamente, esto es, supongamos que
A puede triangularizarse por medio del siguiente algoritmo, que escribimos empleando Ia
notaci6n caracteristica de los ordenadores.
Algoritmo 4.14. Triangularizacion de Ia matriz A = (aij)
Paso 1. Repetir para i = l, 2, ... , n- 1;
Paso 2. Repetir para j = i + I, ... , n:
a) Tomar mii: =a;) a;;
b) Tomar Ri: = miiRi + Ri.
[Fin del bucle interno Paso 2.]
[Fin del bucle externo Paso 1.]
Paso 3. Salir.
130 ALGEBRA LINEAL
Los numeros m;i se denominan multiplicadore$. A veces seguimos Ia pista de dichos multi-
plicadores a traves de Ia siguiente matriz triangular inferior L:
0
1 .
0
0
1
0 sea, L tiene unos en Ia diagonal, ceros sobre esta y los opuestos de los mii como entradas ij
bajo Ia misma.
La matriz triangular inferior precedente L puede describirse alternativamente como se hace
a continuaci6n. Denotemos por e
1
, e
2
, ... , ek Ia sucesi6n de operaciones elementales ente filas
en el algoritmo anterior. Las inversas de dichas operaciones son las siguientes. Para i = 1.
2, ... , n- I tenemos
(j = i + 1, ... , n)
Efectuar estas operaciones en orden inverso sobre Ia matriz identidad I proporciona Ia matriz L.
Asi pues,
donde E
1
, ... , Ek son las matrices elementales asociadas a las operaciones e
1
, ... , ek.
Por otra parte, las operaciones elementales e
1
, ... , ek transforman Ia matriz original A en Ia
matriz triangular superior U. Siendo asi, Ek ... E
2
E
1
A = U. De acuerdo con esto,
A= (E1
1
E2
1
.. Et"
1
)U = (E1
1
E2
1
.. Et"
1
l)U = LU
Esto nos da Ia factorizaci6n LU clasica de una matriz A. Establezcamos formalmente este
resultado como un teorema.
Teorema 4.20: Sea A una matriz como Ia precedente. Entonces A = LU, donde L es una matriz
triangular inferior con unos en Ia diagonal y U una matriz triangular superior sin ceros en Ia
diagonal.
Nota: Subrayamos el hecho de que el teorema anterior solo se aplica a matrices no singulares A
que pueden llevarse a forma triangular sin ningun intercambio de filas. Se dice que tales matrices
son factorizables L U o que tienen una factorizaci6n L U.
(
1 2 -3)
EJ EM PLO 4.19. Sea A = -3 -4 13 . Entonces A puede reducirse a forma triangular por medio
2 1 - 5
de las operaciones 3R
1
+ R
2
---> R
2
y - 2R
1
+ R
3
---> R
3
, y luego (1)R
2
+ R
3
---> R
3
:
(
1 2
A- 0 2
0 -3
-3) (1
4 0
1 0
MATRICES CUADRADAS. MATRICES ELEMENTALES 131
Esto nos da Ia factorizaci6n A =LV, donde
0
~
-!
Adviertase que las entradas -3. 2 y -1 de L provienen de las operaciones elementales entre filas anteriores
y que U es Ia forma triangular de A.
APLICACIONES A LAS ECUACIONES LINEALES
Consideremos un algoritmo de ordenador, M. Denotemos por C(n) el tiempo de ejecuci6n del
algoritmo en funci6n del tamano n de Ia entrada de datos. [La funci6n C(n) se llama a veces Ia
complejidad temporal o, simplemente, Ia complejidad del algoritmo.] Con frecuencia, C(n) simple-
mente cuenta el numero de multiplicaciones y divisiones efectuadas por M, pero no el numero
de adiciones y sustracciones debido a que se invierte mucho menos tiempo en su ejecuci6n.
Consideremos ahara un sistema de ecuaciones lineales
AX= B
donde A = (aij) tiene factorizaci6n LV y
y
Entonces el sistema puede llevarse a forma triangular (para poder efectuar Ia sustituci6n hacia
atras) aplicando el algoritmo anterior a Ia matriz ampliada M = (A, B) del mismo. La comple-
jidad temporal del algoritmo y de Ia sustituci6n hacia atras son, respectivamente,
y
siendo n el numero de ecuaciones.
Por otra parte, supongamos qne disponemos ya de Ia factorizaci6n A= LU. En tal caso,
para triangularizar el sistema solo es necesario efectuar las operaciones entre filas del algoritmo
(retenidas en Ia matriz L) sobre el vector columna B, con lo que Ia complejidad temporal es
Por supuesto, obtener Ia factorizaci6n LV requiere el uso del algoritmo original, donde
C(n) ~ n
3
j2. De este modo, podria no ganarse na da encontrando primero Ia factorizaci6n LV
cuando se halla implicado un s.olo sistema. No obstante, existen situaciones, ilustradas mas
adelante, en las que Ia factorizaci6n LV resulta uti!.
Supongamos que para una matriz dada A necesitamos resolver el sistema
AX= B
repetidamente, para una sucesi6n de vectores constantes diferentes, digamos B
1
, B
2
, Bt-
Supongamos ademas que algunos de los B; dependen de Ia soluci6n del sistema obtenida al
132 ALGEBRA LINEAL
utilizar los vectores precedentes Bj. En tal caso, resulta mas eficaz hallar primero Ia factoriza-
cion LU de A y despues emplearla para resolver el sistema para cada nuevo B.
EJ EM PLO 4.20. Consideremos el sistema
X- 2y - : =k
1
2x- 5y- :: = k
2
o AX = 8
[I]
-3x + lOy- 3:: = k
3
,0,,, A ~ U ~ ~ =:) y B ~ D
Supongamos que queremos resolverlo para 8
1
, 8
2
, 8
3
, 8
4
, donde 8
1
= ( I, 2, 3)T y
(para j > I)
siendo Xi Ia soluci6n de [I] usando 8i. Aqui es mas eficaz empczar por o btener Ia factorizaci6n LU de A
y luego utilizarla para resolver el sistema con cada uno de los vectores B. (Vease el Problema 4.73.)
PROBLEMAS RESUELTOS
ALGEBRA DE MATRICES CUADRADAS
4. 1. Sea A ~ G = ~ ) . Dete<mina c o) Ia diagonal y Ia ''""' de A; b) A (" ). donde
u = (2, - 3, S)r; c) A(v), siendo v = (1 , 7, -2).
a) La diagonal consiste en los elementos situados desde Ia esquina superior izquierda hasta Ia
inferior derecha de Ia matriz, esto es. los elementos a
11
a
22
a
33
. De este modo. Ia diagonal
de A consiste en los escalares 1, - 5 y 7. La traza de A es Ia suma de los elementos diagonales;
por consiguiente, tr A = I - 5 + 7 = 3.
b)
(
1 3
A(u) = Au = 2 -5
4 - 2
6)( 2) ( 2 -9 + 30 ) (23)
8 - 3 = 4 + 15 + 40 = 59
7 5 8 + 6 + 35 49
c) Segun nuest ro convenio. A(v) no esta definido para un vector fila v.
4.2. Sea A = G
2
). a) Hallar A
2
y A
3
. b) Hall ar f(A), donde f(x) = 2x
3
- 4x + 5.
- 3
MATRICES CUADRADAS. MATRICES ELEMENTALES 133
a) A
2
=AA=G


A3=AA
2
=(! -D(_:
b) Para encontrar f(A), primero sustituimos x por A y Ia constante 5 por 51 en el polinomio
dado, f(x) = 2x
3
- 4x + 5:


Despues multiplicamos cada matriz por su respective escalar:
Por ultimo, sumamos los elementos correspondientes de las matrices:
(
- 14-4+5 60 - 8+0 ) (-13 52)
f(A)= 120-16+0 -134+12+5 = 104 -117
. . (2
4.3. Sea A=
3
2) .
_
1
. Hallar g(A), s1endo g(x) = _x
1
- x - 8.
Al=G
g(A) = Al -A - 8/ = G -D 8G -

Asi A es un cero de g(x).
4.4. Se da Ia matriz A=(: Encontrar un vector columna no nulo u = (:) tal que
A(u) = 3u.
Comenzamos por establecer Ia ecuacion matricial Au = 3u:
Escribimos cada miembro como una sola matriz {vector columna):
(
.X:+ 3y) (3.x:)
4x - 3y = 3y
134 ALGEBRA LINEAL
lgualamos entre si los elementos correspondientes para llegar a un sistema de ccuaciones y lo
red ucimos a forma escalonada:
X+ 3y = 3.x}--+ {2.x - 3y = 0}--* {2.x - 3y = 0}--* l.x _
3
y = O
4x- 3y = 3y 4.x- 6y = 0 0 = 0
El sistema se reduce a una ecuaci6n homogenea con dos incognitas y por tanto tiene un numero
infinito de soluciones. Para obtener una soluci6n no nula, tomemos, por ejemplo, y = 2; entonces
x = 3. Esto es, u = (3. 2f tiene Ia propiedad deseada.
4.5. Sea
2
5
12
-3)
-1 . Hallar todos los vectores u = (x, y, z)T tales que A(u) = 0.
-5
Establecemos Ia ecuaci6n Au = 0 y luego escribimos cada miembro como una sola matriz:
0
(
.x + 2y - 3z) (0)
h + 5y- z = 0
5x + 12y - 5z 0
lgualamos entre si los elementos correspondientes para conseguir un sistema homogenco y redu-
cimos este a forma escalonada:
.x + 2y- 3z = 0} {.x + 2y- . 3z = 0} {
2
3 0
x+ y- z=
h + 5y - z = 0 -+ y + 5z = 0 -+
y + 5z = 0
5x + 12y- 5z = 0 2y + lOz = 0
En Ia forma escalonada, z es Ia variable libre. Para llegar a Ia soluci6n general, tomamos z =.a,
siendo a un panimetro. La sustituci6n hacia atnis conduce a y = -Sa y despues a x = 13a. Siendo
asi, u = (13a. - 5a, a)T representa todos los vectores tales que Au = 0.
4.6. Demostrar que Ia colecci6n M de todas las matrices 2 x 2 de Ia forma (; :) es un
algebra conmutativa de matrices.
Claramente, M es no vacia. Si A = (: :) y B = :) pertenecen a M, entonces
A+B=
(
a+ c d +b)
b+d a+c
kA = (ka kb)
kb ka
(
ac + bd ad + be)
AB=
be+ ad bd + ac
tambien pertenecen a M. Asi M es un algebra de matrices. Ademas,
(
ca+db cb +da)
BA=
da + cb db+ ca
De este modo, AB = BA y en consecuencia M es un algebra conmutativa de matrices.
4.7. Encontrar todas las matrices M = (: conmutan con
MATRICES CUADRADAS. MATRICES ELEMENTALES 135
Primero hallamos
(
X+ Z y + t)
AM=
z t
y
MA = G
Luego imponemos AM = M A para llegar a las cuatro ecuaciones
x + z=x y+r =x +y z= z r = z + t
De Ia primera yo) de Ia ultima, .z = 0; de Ia segunda, x =c. En esc caso. M es cualquier
matriz de Ia fo rma
0
x .
4.8. Sea e; = (0, . .. , 1, ... , Ol, donde i = 1, ... , n, el vector (columna) en R" con 1 en Ia
posicion i-esima y 0 en cualquier otra, y sean A y B dos matrices m x n.
a) Probar que Ae, es Ia i-esima columna de A.
b) Supongase Ae, =Be; para cada i. Probar que A = B.
c) Sup6ngase Au= Bu para todo vector u en R". Demostrar que A = B.
a) Sean A= (aij) y Ae; = (b
1
, . , b.f. Entonces
bk = Rkei =(au, ... , a )(O, ... , I, ... , O)T = aki
donde Rk es Ia lila k-esima de A. Asi
que es Ia columna i-esima de A.
b) Ae, = Be; significa que A y B tienen Ia misma columna i-esima pa ra todo i. Por tanto, A = B.
c) Si Au = Bu para todo vector u en R", necesariamente Ae, = Be; para cada i, con lo que A = B.
4.9. Sup6ngase que A es una matriz m x 11. Mostrar que: a) l mA = A, b) AI"= A. (De este
modo, AI= IA =A cuando A es una matriz cuadrada.)
Utilizamos el hecho de que I = (bii), donde l>ii es Ia delta de Kronecker (Ejemplo 4.3).
a) Suponga mos f ,A = (};). Entonces
hJ = L hu.atJ = hua1i = a
11
t=l
Siendo asi, I ,A = A, ya que las entradas correspondientes coinciden.
b) Supongamos AI.= (g;J Entonces
.
g,i = L a,th
1
i = a,JoJJ =au
1= 1
De este modo, AI . = A, jmesto que las entradas correspondientes son iguales.
4.10. Demostrar el Teorema 4.1.
i) Sea A+ B = (c,J Entonces cii = aij + bii por lo que
. . .
tr (A + B) = L cu = L (au + bu) = L au + I bu = tr A + tr B
k=1 1 = 1 1=1 kt
136 ALGEBRA LINEAL
ii) Sea kA = (ciJ). Entonces ciJ = ka;
1
, y
. ~
tr kA = L ka
11
= k L a
11
= k tr A
n n
iii) Sean AB = (c;) y BA = (dii). Entonces c;
1
= L. aikb
11
y diJ = L. b;
1
a
11
, de donde
k=l k ~ l
n If II 1r It
tr AB = L cu = L L 0
11
b
1
; = L L b
1
; a11 = L du = tr BA
fe;J i ~ l l = l k= l i :m: J i: l
4.11. Demostrar el Teorema 4.2.
r
Supongamos j(x) = L. a;xi y g(x) = L b
1
xi.
i = 1
i) Podemos tomar r = s = n sumando potencias de x con coeficientes nulos. En tal caso,

f(x) + g(x) = L (a; + b;)x
1
f = 1
De aqui
. " .
(f + g)(A) = L. (a
1
+ b;)Ai = L. a
1
Ai + L b
1
A
1
= /(A)+ g(A)
i = l i=l
ii) Tenemos f(x)g(x) = L a,b
1
x'+ i. Entonces
iii) Usando .f(x)g(x) = g(x)f(x) tenemos
f(A)g(A) = (fg)(A) = (gf)(A) = g(A)f(A)
4.12. Sea Dk = kl Ia matriz escalar asociada al escalar k. Probar que: a) DkA = kA, b)
BDk = kB, c) Dk + Dk. = Dk+k' d) DkDk. = Da
a) D
1
A = (ki)A = k(I A) = kA.
b) BDk = B(ki) = k(BI) = kB .
c) D. + D
1
= ki + k' I = (k + k' )l = DHa' .
d) D
1
D
1
= (kl)(k' /) = kk'(ll) = kk' I = Du.
:viA TRlCES INVERTIBLES. INVERSAS
4.13. Hallar Ia inversa de G .
MATRICES CUADRADAS. MATRICES ELEMENTALES 137
Metodo 1. Buscamos escalares x, y, z y w para los que
o que satisfagan
{
3x + 5z = 1
2x + 3z = 0
0
y
(
3x + 5z 3y + 5w) = (1 0)
2x + 3z 2y + 3w 0 1
{
3y + 5w = 0
2y + 3w = 1
La soluci6n del primer sistem(a x = ;)3, z = 2, y Ia del segundo y = 5, w = -3. En ese caso, Ia
inversa de Ia matriz dada es .
2 - 3
Metodo 2. La formula general para Ia inversa de Ia matriz 2 x 2 A = (: cs
_ 1 ( d/IAI -b/IAI) 1 ( d - b)
A = -ell A I a/1 A I = jAj - c a
donde
IAI =ad - be
Asi, si A = G primero hallamos IAI =-(3)(3)- (5)(2) = -I =1= 0. A continuaci6n intercambia-
mos los elementos diagonales, tomamos los opuestos de los otros elementos y multiplicamos
por 1/IAI:
A --1 -
- 1 _ ( 3 -5) _ (-3 5)
. -2 3 2 -3
4.14. Calcula< las inversas de a) A (-i
2
-1
7
-4) (l
5 y b) B = 1
- 3 3
3 -4)
5 -1 .
l3 -6
a) Construimos Ia matriz por bloques M = (A; J) y Ia reducimos por filas a forma cscalonada:

2 -4 1 0

2 -4 0

-1 5
I 0
I 1 1
I
7 -3 I 0 0 3 5 :-2 0

2
-4 I
0

l 1
0 :-5 -3
La mitad izquierda de M esta ahora en forma triangular; por consiguiente, A tiene inversa.
Vamos mas alia, reducicndo por filas lVI a su forma can6nica por filas:

2
01
-9 -6
-!)-
0
01
-16 -11
!r')
I I
0 1
7
0'
s
I 2 I 2
0 1 :
5
0 l :
-1
I .
-2
2
(-16
-11
-:)
Asi A-t=
s
2
3 I
-2
2
138 ALGEBRA LINEAL
b) Formamos Ia matriz por bloques M = (B! I )
y Ia reducimos por filas a forma
(:
3
- 4 I 1 0

3 -4
I
0
-
I
5 -1 0 2 3 : - 1 1
13 -6 I 0 0 4 6 : -3 0

3 -4 I 1 0
;)
I
2 3 : -1
0 0 : -1 -2
En forma escalonada. M tiene una fila nula en su mitad izquierda; es decir, B no es reducible
por filas a forma triangular. De acuerdo con ello. B no es invertible.
4.15. Demostrar las siguientes proposiciones:
a) Si A y B son invertibles, entonces AB tam bien lo es y (A B) - I = n-
1
A-
1
.
b) Si A
1
, A
2
, ... , A" son invertibles, entonces (A
1
A
2
An) -
1
=A;
1
A2
1


c) A es invertible si y solo si lo es AT.
d) Las operaciones de inversion y trasposicion conmutan: (A-r)-
1
= (A-
1
)T_
a) Tenemos
(AB)(B-
1
A -
1
) = A(BB-
1
)A-
1
= A/A-
1
= AA-
1
=I
(B-
1
A -
1
)(AB) = B-
1
(A-
1
A)B = B-
1
IB = B-
1
B =I
Por tanto, B-
1
A- t es Ia in versa de AB.
b) Por inducci6n en n y utilizando Ia parte a),
(A A A)-
1
= [(A A )AJ-
1
=A-
1
(A A )-
1
=A-
1
A2-
1
A
1
-
1
1 ,. - 1 , 1 ... -. " 1 ... -t
c) Si A es invertible, existe una mat riz B tal que AB = BA = 1. En tal caso ,
(AB)T = (BA)T = IT por lo que BT AT = AT BT = I
Por consiguiente, Ar es invertible, con inversa B
1
. El reciproco deriva del hecho de que
(ATf =A.
d) Segun Ia parte c), BT es Ia inversa de AT, esto es, Br = (AT) -
1
Pero B = A-
1
; de aqui
(A- ll= (AT) - I_
4.16. Probar que, si tiene una fi la o columna nula, A no es invertible.
De acuerdo con el Problema 3.20, si A tiene una fila nula, AB tambien Ia tendriL Asi. si A fuera
invertible, AA-
1
= I implicaria que I tiene una lila nula. Por esta raz6n, A no es invertible. Por
otra parte, si A tiene una columna nula, AT debe tener una lila nula. por Io que AT no sera invertible.
De este modo, A tampoco es invertible.
MATRICES ELEMENT ALES
4.17. Encontrar las matrices 3-cuadradas elementales
1
, E
2
,
3
que corresponden, respectiva-
mente, a las operaciones entre fil as R
1
<--+ R
2
, - 7 R
3
-> R
3
y - 3R
1
+ R
2
-> R
2
.
MATRICES CUADRADAS. MATRI CES ELEMENTALES 139
f (1 0 0)
Efectuamos las operaciones sobre Ia ma triz identidad I
3
= 0 1 0 para obtener
0 0 1
(
0 1 0)
E
1
= 1 0 0
0 0 1

0 -7 0
0 0

0
4.18. Demostrar el Teorema 4.9.
Sea R
1
Ia fi la i-esima de A. lo que denotamos escribiendo A= ( R
1
, , R,). Si B es una mat riz
para Ia que AB esta delinida, se sigue directa mente de Ia definicion de producto matricial que
AB = (R
1
B, ... . RmB). Tomamos ademas
e
1
= (0, ... , 0, 1, 0, . . . , 0), = i
Aqui " = i significa que I es Ia componente i-esima. Por el Problema 4.8 sabemos que e
1
A = R
1

Hacemos nota r tam bien que 1 = (e
1
.. e .. ) es Ia mat riz identidad.
i) Sea e Ia opera cion elemental entre lilas R
1
+-+ Ri. Entonces. para " = i y R = j ,
E = e(I ) = (e
1
, , e;, ... , ... . , e...)
y
-"
e(A) = (R
1
, , R
1
, ... , R
1
, , R,J
De estc modo,
,.........,_ ............
EA = (e
1
A, . .. , e
1
A, ... , e
1
A, ... ,e., A) = (R
1
, . , R
1
, .. . , R
1
, , R..J = e(A)
ii) Aho ra sea e Ia operacion elemental entre fi las kR
1
- R
1
, k # 0. En tal caso, para " = i,
/'.. /'..
E = e(I) = (e
1
, , ke
1
, ,e.,) y e(A) = (R" . . . , kR, . . . , R.,)
Asi
/'.. /'..
EA = (e
1
A, ... , ke
1
A, ... ,e .. A) = (R
1
, ... , kR;. ... , R..J = e(A)
iii) Finalmcnte, sea e Ia operacion elemental entre fi las kR
1
+ R
1
--+ R
1
Entonces, para " = i ,
E = e(I) = (e
1
, , , e...) y
Usando (ke
1
+ e
1
) A = k(ei A) + e
1
A + kRi + R
1
tenemos
.......--...... ...............
EA = (e
1
A, .. . , (ke
1
e
1
)A, . .. , e., A) = ... , kR
1
+ R
1
, , R..J = e(A)
Por tanto, el teorema queda dcmostrado.
Probar las siguientes aserciones:
a) Cada una de las operaciones elementales entre filas expuestas a continuaci6n tiene
una operaci6n inversa del mismo ti po.
[ t1 Intercambiar las filas i-esima y j -esima: R
1
+-+ R
1
.
140 ALGEBRA LINEAL
[
2
] Multiplicar Ia fil a i-esima por un escalar no nulo k: kR;-+ Rh k =I= 0.
(
3
] Sustituir la fila i-esima por ella misma mas k veces Ia j -esima: kRi + R;-+ R; .
b) Toda matriz elemental E es invertible y su in versa es una matriz elemental.
a) Se trata cada operaci6n por separado.
I . Intercambiando dos veces el rnismo par de filas obtenemos Ia rnatriz original; esto es.
esta operacion es su propia inversa.
2. Multiplicando Ia fila i-esirna por k y despues por k -
1
, o por k-
1
y luego por k , obtenemos
Ia matriz original. En otras palabras, las operaciones kR;-> R, y k-
1
R; -> R
1
son inversas.
3. Efectuando Ia operacion kRi + R
1
-> R
1
y a continuacion Ia - kRi + R; ..... R
1
, o prirnero
Ia -kRi + R; ..... R; y despues Ia kRi + R; ...... R., tendremos Ia matriz original. Dicho de
otro modo, las operaciones kRi + R
1
-> R; y - kRi + R; ...... R
1
son inversas.
b) Sea E Ia matriz elemental asociada a Ia operacion elemental entre filas e: e(/) = E. Sea e' Ia
operacion inversa de e y ' su matriz elemental correspondiente. Entonccs
1 = e' (e(I)) = e'() = E' E e I = e(e' (l)) = e(E') = EE'
Por consiguientc, E' es Ia inversa de .
4.20. Demostrar el Teorema 4.1 0.
Supongamos que A es invertible y equivalente por filas a una matriz B, en forma canonica por
filas. En tal caso, existen matrices elemcntales
1
,
2
, ,,tales que E, : E
2
E
1
A = B. Dado que
tanto A como cada E; son invert ibles, nccesariamente lo es B. Pero si 8 f:. I, B tiene una fila nula
y por ende no es invertible. En consecuencia, B = I y a) implica b).
Si se verifica b) , existen matrices elementales
1
,
2
, E, tales que E, E
2
E
1
A =I y por
tanto A = (E, E
2
E
1
)-
1
= E
1
2
1
E;
1
Pero las E;-
1
son tambien matrices elernentales. De
este modo, b) implica c).
Si se cumple c), A = E
1

2
, . Las E; son matrices invertibles; de aqui que tam bien lo sea
su producto, A. Asi c) implica a). De acuerdo con ello, el teorema queda demostrado.
4.21. Demostrar el Teorema 4.11.
Supongamos que A no es invertible, de forma que no es equivalente por fi las a Ia matriz
identidad, sino que lo es a una matriz con una fila nula. Dicho de otro modo, existen matrices
elementales
1
, , E, tales que E, E
2
E
1
A tiene una fila nula. Por consiguiente, E, E
2
E
1
AB =
= E,
2

1
, que es una matriz invertible, tiene asimismo una fila nula. Pero las matrices
invertibles no pueden tener filas nulas; por tanto, A es invertible, con inversa A -
1
. Ademas,
B = 1 B = ( r
1
A) 8 = A-
1
(A B) = A -
1
I = A -
1
4.22. Demostrar el Teorema 4.12.
S i B ~ A, entonces 8 = e,( ... (e
2
(e
1
(A))) ... ) = E, E
2
E
1
A = PA, donde P = E, E
2
E
1
es no
singul ar. Reciprocamente, supongamos que B = P A con P no singular. Segun el Teorema 4. 10, P
es un producto de matrices elementales y en consecuencia 8 puede obtenerse a partir de A mediante
una sucesi6n de operaciones elernentales entre fil as, es decir, B ~ A. Queda asi probado el teorema.
4.23. Probar que B es equivalente a A si y solo si existen matrices invertibles P y Q tales que
B = PAQ.
Si 8 es equivalente a A, entonces B = E, E
2
E
1
AF
1
F
2
F, = PAQ, donde P = E, E
2
E
1
y Q = F
1
F
2
F, son invertibles. El reciproco deriva del hecho de que cada paso es reversible.
MATRICES CUADRADAS. MATRICES ELEMENTALES 141
4.24. Proba r que la equivalencia de matrices, escrita ::::: , es una relaci6n de equivalencia:
a) A::::: A. b) Si A ::::: B, entonces B ::::: A. c) Si A ::::: 8 y B::::: C, entonces A :::::C.
a ) A= /AI , donde I es no singular; de aqui A::::: A.
b) Si A ;:::: B, necesariamente A = P BQ, siendo P y Q no singulares. En ese caso, B = P-
1
AQ- 1,
don de P - l y Q-
1
son no singulares. Por consiguiente, B ~ A.
c) Si A ~ By B;:::: C, entonces A = PBQ y B = P'CQ' , donde P, Q, P', Q' son no singulares. En
consecuencia,
A= P(P'CQ' )Q = (PP' )C(QQ' )
siendo PP' y QQ' no singula res. De aqui se Jlega a A:::::: C.
4.25. Demostrar el Teorema 4.17.
La demostracion es constructiva, en forma dt; algoritmo.
Paso I. Reducir A a forma canonica por fil as, con entradas principales no nulas a
11
, a
2
i, ... , a,i,
Paso 2. lntercambiar C
2
y C
1
,. C
3
y Ci, .... y C, y Cj, Esto proporciona una matriz de Ia forma
(
J,; B) d . . I
- -
1
- - , con entra as pnnc1pa es no nul as a
1
1> a
2 2
, .. , a,.
0, 0
Paso 3. Utilizar operaciones entre columnas. con los a
11
como pivotes, para sustituir cada ent rada
de B por un cero: csto es. para
i = I , 2, . .. , r y j = r + I, r + 2, ... , n
efectuar Ia operacion -biiC, + Ci --+ Cr
(
I
1
0)
La matriz final t iene Ia forma deseada: - ~ - : -
0
.
TIPOS ESPECIALES DE MATRICES
4.26. Encontrar una matriz triangular superior A tal que A
3
= ~
-57)
27
(
x y) (x3 *)
To memos A =
0
z . Entonces A
3
tiene Ia forma
0
13
. Asi x
3
= 8, por lo que x = 2;
z
3
= 27, por Io que z = 3. Seguidamente, calculamos A
3
usando x = 2 y z = 3:
Al = (2 yx2 y) = (4 Sy)
0 3 0 "3 0 9
y
Al = (2 yx4 Sy) = (8 19y)
0 3 0 9 0 27
(
2 - 33) Por tanto, 19y = -57, o y = -;- 3. De acuerdo con esto, A =
0
4.27. Demostrar el Teorema 4.3 iii).
Sea AB = (cii). Entonces
y
.
Cu = Lark bu
t=l
142 ALGEBRA LINEAL
Supongamos que i > j. En tal caso. para cualquier k, es i > k o k > j, de modo que bien a;k = 0 o
bien hki = 0. Siendo asi, c;i = 0 y AB es triangular superior. Supongamos ahora que i = j . Entonces.
para k < i , a;k = 0; y para k > i. bk; = 0. Por consiguientc. C;; = aiib;;, como se pretendia.
4.28. j,Que matrices son simultaneamente triangulares superiores e inferiores?
Si A es tanto triangular superior como triangular inferior, 'toda entrada fuera de Ia diagonal
principal debe scr nula. Por tanto. A es diagonal.
4.29. Demostrar el Teorema 4.4.
i) (A+ A
1
Y = A
1
+ (A
1
)
1
=A'/' + A= A+ AT
ii) (A- A
1
)
1
= A
1
-(A
1
l=A" - A=-(A-A
1
).
iii) Elegimos B = i(A + Ar) y C = 1<A -

y recurrimos a i) y ii).
N6tese que no hay otra elccci6n posible.
4.30. Escribir A = G Ia suma de una mat riz simetrica By una antisimetrica C.
CalculamosA
1
= .A+A
1
= yA-AT=
(
2 7) ( 4 10) (0
3 8 10 16 4
-4)
0
. Entonces
l (2 5)
B =-(A+ A
1
) =
2 5 8
C =-(A- A1) =
1 (0 -2)
2 2 0
4.31. Detcrmina. x. y. ' ' t si A (! ; t) es ortogonal.
Denotemos por R
1
R
2
, R
3
las filas de A y por C
2
C
3
sus columnas. Como R
1
es un vector
unitario. x
2
+ +% = I ox = !.Como R
2
es un vector unitario, + + y
1
= I o y = }. Dado
que R
1
R
2
= 0, llegamos a 2x/ 3 + + 2y/3 = 0 o 3x + 3y = -I. La tmica posibilidad es x = t
e y = -i. Asi
Como las columnas son vectores unitarios,
+ l + zl = 1
Por tanto. z = s = 3 y r = t.
Caso i): : = Como C
1
y C
2
son ortogonales. s = -i; como C
1
y C
3
son ortogonales, c = .
Caso ii): z C
1
y C
2
son ortogonales, s = ! ;como C
1
y C
3
son ortogonales. c = -}.
Por consiguiente. hay exactamente dos soluciones posibles:

i
-!)
u
t
-l)
.l
y
I
3 J
2 2
-t
-3
J
MATRICES CUADRADAS. MATRICES ELEMENTALES 143
4.32. Supongamos que A=(:
b) es ortogonal. Probar que a
2
+ b
2
= 1 y
d r
0
Dado que A es ortogonal, sus filas constituyen un conjunto ortonormal. De aqui
ac + bd = 0
Similarmente, las columnas forman un conjunto ortonormal. de modo que
ab+cd=O
Por este motive, c
2
= l - a
2
= b
2
, de donde c = b.
Case i): c = +b. Entonccs b(a +d)= 0 o d = -a; Ia matriz correspondiente es (: _:).
Caso ii): c = - b. Entonces b = (d - a)= 0 o d = a; Ia matriz correspondiente cs ( a b)
- b a
4.33. Demostrar el Teorema 4.6.
a y h cualesquiera numeros reales tales que a
2
+ b
2
= I. En cse case, existe un numero
real (} tal que a = cos (} y b = sen 8. El resultado se obtiene ahara del Problema 4.32.
4.34. Encontrar una matriz ortogonal 3 x 3, P, cuya primera fila sea un multiplo de u
1
= (1, 1, 1)
y cuya segunda fila lo sea de u
2
= (0, - 1, 1).
Primero hallamos un vector ll
3
ortogonal a u
1
y a u
2
, como puede ser (el producto vectorial)
u
3
= ll
1
x u
2
= (2, - I, - 1). Sea A Ia matriz con filas ll
1
, u
2
y u
3
y PIa que se obtiene de A
normalizando sus filas. De este modo.
(
1 1
A= 0 -1
2 -1
4.35. Demostrar el Teorema 4.7.
Supongamos A=(; Entonces
y
AAT = (:
ATA = (:
Dado que AAr = Ar A, llegamos a
(
1/-/3 1/-/3 1/fi)
p = 0 -1/fi. 1/fi.
2/fi - 1/Ji> - 1/Jf>
c) (a
2
+ b
1
ac + bd)
d = ac + bd c
2
+ d
2
ac + bd = ab + cd
144 ALGEBRA LINEAL
La primera ecuacion conduce a b
2
= c
2
; por tanto, b = c o b = -c.
Caso i): b = c (que incluye e1 caso b = -c = 0). Obtenemos Ia matriz simetrica A=(: :).
Caso ii): b = - c 0. Entonces ac + bd = b(d - a) y ah + cd = b(a- d). Asi b(d- a)= b(a- d) y
por tanto 2b(d- a) = 0. Como b ;1: 0, obtenemos a = d. Asi A tiene Ia fo rma
que es Ia suma de una matriz escalar y una antisimetrica.
MATRICES COMPLEJAS
4.36. D
. I . l . (2 + i 3 - 5i 4 + 8i) _
etermmar a conjugada de a matnz A =
6
_
1
.
- 2 - 9i 5 + 6i
Tomamos cl conjugado de cada elcmento (siendo a + bi = a - bi):
_ (2 + i 3 - 5i 4 + Si) (2 - i 3 + 5i 4 - Si)
A = 6 - i 2 - 9i 5 + 6i = 6 + i 2 + 9i 5 - 6i
(
2- 3i 5 + 8i)
4.37. Hallar A
11
cuando A = -4 3- 1i .
4.38.
-6 - i Si
AH = ..:F, Ia t raspuesta conjugada de A. Por tanto,
H _ (2 - 3i -4 -6 - j) _ (2 + 3i - 4
A - ----- -
5 + Si 3 - 7i 5i 5 - Si 3 + 7i
-6 + i)
-5i
. . (2 + 6i
Escnbu A=
9-i
5 + 3i)
4- 2i
en la forma A = B + C, donde B es hermitica y C anti-
hermitica.
Comenzamos calculando
AH = (2- 6i 9 + i)
5 - 3i 4 + 2i
A+AH=
(
4 14 +8 4i)
14 - 4i
H ( l2i -4 + 2i)
A -A =
4 + 2i -4i
En consecuencia, las matrices requeridas son
B =!(A + AH) = ( 2 7 + 2i)
2 7-2i 4
y
I ( 6i - 2 + i)
c = -(A - AH) = . .
2 2 + I -21
4.39. Defi nir un conj unto ortonormal de vectores en C" y demostrar el analogo complejo al
Teorema 4.5:
Teorema: Sea A una matriz compleja. Las siguientes afirmaciones son equivalentes:
a) A es unitaria. b) Las filas de A forman un conjunto ortonormal. c) Las columnas
de A forman un conjunto ortonormal.
4.40.
MATRICES CUADRADAS. MATRICES ELEMENTALES 145
Los vectores u
1
, u
1
, . .. , u, de C" constituyen un conjunto ortonormal si u, ui = oii, don de cl
producto escalar en C" se define segun
{a
1
, a2, ... ,a..) (b
1
, b
2
, .. ,b..)=

+ a
2
b
2
+ + a.b.
y bij es Ia delta de Kronecker. [Vease Ejemplo 4.3 a).]
Denotemos por R
1
, ... , R. las filas de A; entonces .R[, ... , son las column as de A H. Sea
AAH = (cij). De acuerdo con Ia definicion de producto matricial, cii = R,RJ' = R, Ri. En ese caso.
AA u = 1 si y solo si R, R i = o,i, lo que se verifica si y solo si R
1
, R
2
, . .. , R. forman un conj unto
ortonormal. Asia) y b) son equivalentes. De forma similar, A es unitaria si y solo si A
11
es unitaria,
lo que se veri fica si y solo si las filas de A H son ortonormales. para lo que es necesario y suficiente
que lo sean las conjugadas de las columnas de A, lo que se da, finalmente, si y solo si las columnas
de A son ortonormales. De este modo, a) y c) son equivalentes y queda probado el teorema.
2- 3
1
(
.l. l
Mostrar que A = -fi
)I . . 2 )
_
1
_ li es umtana.
3 3
Las filas constituyen un conjunto ortonormal:
(j - ji, ji) . ( t - ji, ji) = + + & = 1
H - ti, ji) <- j;, - t - fi) = + + (- t) = o
(- fi, - t- ti) . (- ji, - t - ji) = + <t + = 1
Siendo' asi, A cs unitaria.
MATRICES CUADRADAS POR BLOQCES
4.41. Determinar cual de las siguientes matrices es cuadrada por bloques:
4.42.
2
'
3 4 5 2
I
3
I
4 5
I I I I
1
I
1
I
1 1
I
1
I
1 1 I I I I
r .. - - --,-- - r .. - . -
A= 9 8
I
7
I
6 5 B= 9 8
I
7
:6
5
-. . - .J - - I_ - - - - 1
3 3
I
3: 3 3 3 3 ' 3
1
3 3
I _ __ _ J .... L ........
3: 5 : 7 9 1 3
I
5
I
7 9 I 1
Aunque A cs una matriz cuadrada 5 x 5 y una matriz por bloques 3 x 3, los bloqucs diagonalcs
segundo y tercero no son matrices cuadradas. Por consiguiente, A no es una matriz cuadrada por
bloques
B es una matriz cuadrada por bloques.
2 3 4 5
1 1 1 1
------------
Completar Ia partici6n de
C= 9 8 7 6

5 en una matriz cuadrada por bloques.
3 3 3 3 3
3 5 7 9
Una de las lineas horizontalcs esta entre las filas segunda y tercera; por tanto, aiiadimos una
linea vertical entre las columnas segunda y tercera. La otra linea horizontal esta entre las filas cuan::.
y quinta; por consiguiente, aiiadimos una linea vertical entre las columnas cuarta y quinta. (l.ls
146 ALGEBRA LINEAL
lineas horizontales y verticales deben situarse simetricamente para obtener una matriz cuadrada por
bloques.] Esto nos conduce a Ia matriz cuadrada por bloqucs
1 2
1
3
1
4 5
I I
I I I I I I I
___ _ ! _ .J _ __ _
C= 9 s : 1 : 6 5
-3--3:3: -3--3-
4.43. Determinar cuales de las matrices cuadradas por bloques siguientes son triangulares
inferiores, triangulares superiores o diagonales:
(
1 2 : 0\
A = 6 -!j
c = ({-f-i-
o: 4 s}.
A es triangular superior porque el bloque bajo Ia diagonal es nulo.
B es triangular inferior porque todos los bloques sobre Ia diagonal son nulos.
C es diagonal porque los bloques sobre y bajo Ia diagonal son nulos.
D no es triangular superior ni inferior. Aun mas. ninguna ot ra partici6n de D hara de ella una
matriz triangular superior o inferior por bloques.
4.44. Considerense las siguientes matrices diagonales por bloques, de las cuales los bloques
diagonales correspondientes tienen el mismo tamaiio:
4.45.
y
Hallar: a) M + N, b) kM, c) MN, d) f(M) para un polinomio dado .f(x).
a) Nos limitamos a sumar los bloques diagonales: M + N = diag(A
1
+ 8
1
, A
2
+ 8
2
, ... , A,+ B,).
b) Simplemente multiplicamos los bloques diagonales pork: kM = diag(kA
1
, kA
2
, , kA,).
c) Simplemente multiplicamos los bloques diagonales correspondientes:
MN = diag(A
1
B
1
, A
2
B
2
.. , A,B,)
d) Determinamos f(A;) para cada bloque diagonal A;. Entonccs f(M) =diag ({(A
1
). f(A
2
} . ,f(A,)).
Enc6ntrar M
2
, siendo M =
1 2:
3 4:
---- .... -
I 5 I
l.- -1- - -- -
: 1 3
:s 7
Dado que M es diagonal por bloques, elevamos at cuadrado cada bloque:
G
10)
22
( 5)( 5) = (25)
G
MATRICES CUADRADAS. MATRICES ELEMENTALES 147
Entonces M
2
=
7 10:
15 22:
- - -- - , 25-1
I_- -L- -- --
: 16 24
: 40 64
MATRICES SIMETRICAS CONGRUENTES. FORMAS CUADRA TICAS
4.46. Sea A ( una matriz simitrica. Hallac a) una matdz no singular P tal
que PTAP sea diagonal, esto es, Ia matriz diagonal B = pT AP, b) Ia signatura de A.
a) Construimos primero Ia matriz por bloques (A l I):
(
1 - 3 2 I
(A i /) = - 3 7 - 5 i 0
2 -5 8 I 0
0
1
0
Efectuamos las operaciones entre filas 3R
1
+ R
2
-+ R
2
y - 2R
1
+ R
3
-+ R
3
sobre (A l /) y luego
las correspondientes operaciones entre columnas 3C
1
+ C
2
-+ C
2
y -2C
1
+ C
3
-+ C
3
sobre A
para obtener
(
1 -3
0 -2
0 1
2 : 1
1 : 3
4 : -2
0
1
0
y despues
(
1 0
0 - 2
0 1
0 I 1
I
1 : 3
4:-2
0

0
.A continuacion efcctuamos Ia operacion entre filas R
2
+ 2R
3
-+ R
3
, seguida de Ia correspon-
diente operacion entre columnas C
2
+ 2C
3
-+ C
3
obteniendo

0
ydo.pui s
Se ha diagonalizado A. Tomamos
3 -1)
1 1
0 2
y entonces
0
-2
0
0


b) B tiene p = 2 elementos diagonales positives y n = l negative, de donde sig A = 2 - I = I .
fORMAS CUADRATICAS
4.47. Deterrninar Ia forma cuadratica q(x, y) correspondiente a Ia rnatriz simetrica A =
(
5 -38).
- 3
q(x, y) = (x, y{ = (5x- 3y, -3x + 8y{;) =
= 5x
2
- 3xy - 3xy + 8y
2
= 5x
2
- 6xy + 8y
2
148 ALGEBRA LINEAL
4.48. Hallar Ia matriz simetrica A que corresponde a Ia forma cuadnitica
q(x, y, z) = 3x
2
+ 4xy - y2 + 8xz - 6yz + z
2
La matriz simetrica A = (a;) que representa q(x
1
.. , x") tiene Ia entrada diagonal aii igual al
coeficiente de xf y las cntradas aii y aii iguales a Ia mitad del coeficiente de x; xi. Por tanto,
=: -:)
4.49. Encontrar Ia matriz simetrica B, asociada a Ia forma cuadratica:
a) q(x, y) = 4x
2
+ Sxy - 7y
2
y b) q(x, y, z) = 4xy + 5y
2
a) Aqu; B =
1
) . (La division por 2 puede introducir fracciones incluso aunque los coefi -
2 -7
cientes en q sean enteros.)
b) A pesar de que solo X e y aparecen en el polinomio, Ia ex presion q(x, )', z) indica que hay tres
varia bles. En otras palabras,
q(x, y, z) = Ox
2
+ 4xy + 5y
2
+ Oxz + Oyz + Oz
2
Asi
4.50. Considerense Ia forma cuadratica q(x, y) = 3x
1
+ 2xy - y
1
y Ia sustituci6n lineal x = s - 3t.
y = 2s + t.
a) Reescribir q(x, y) en notaci6n matricial y hallar Ia matriz A que representa Ia forma
cuadnitica.
b)
c)
d)
Reescribir Ia sustituci6n lineal empleando notaci6n matricial y encontrar Ia matriz P
correspondiente a Ia sustituci6n.
Hallar q(s, t) utilizando sustitucion directa.
Hallar q(s, t ) usando notacion matricial.
a) Aqui q(x, y) = (x, y)(
3 1
)(x) Por tanto, A = (
3 1
) y q(X) = XT AX, dondc X = (x, yl.
I - 1 y I - 1
b) Tenemos G) = G De este modo, P = C
-3)
1
y X= PY, donde X= (x, y)T
e Y = (s, t)T.
c) Sustituimos x e y en q obteniendo
q(s, t) = 3(s - 3t)
2
+ 2(s - 3tX2s + t) - (2s + t)
1
= 3(s
2
- 6st + 9t
2
) + 2(2s
2
- Sst - 3t
2
) - (s
2
+ 4st + e) = 3s
2
- 31st + 20t
2
MATRICES CUADRADAS. MATRICES ELEMENTALES 149
d) Aqui q(X) = XT AX y X = PY. Siendo asi, xr = yT pT_ Por consiguiente,
q(s, t) = q(Y) = yTpT APY = (s, t{ _!
= (s, t{ _
1
! - = 3s
1
- 32st + 20t
2
[Tal y como cabia esperar, los resultados en c) y d) son iguales.)
4.51. Sea L una sustituci6n lineal X = PY, como en el Problema 4.50.
a) es L no singular?, i.S ortogonal?
b) Describir una ventaja esencial de una sustituci6n ortogonal sobre una no singular.
c) Ia sustituci6n lineal del Problema 4.50 no singular?, ortogonal?
a) Se dice que L es singular u ortogonal segun lo sea Ia matriz P que Ia representa.
b) Recordemos que las columnas de Ia matriz P, que representa Ia sustituci6n lineal, introduccn
un nuevo sistema de referencia. Si P es ortogonal, los nuevos ejes son perpendiculares y tienen
las mismas unidades de longitud que los originales.
c) La matriz P = (
1
-
3
) cs no singular, pero noes ortogonal; en consecuencia, Ia sustituci6n
2 1
lineal es no singular, pero no es ortogonal.
4.52. Sea q(x, y, z) = x
2
+ 4xy + 3y
2
- Sxz- 12yz + 9z
2
. Encontrar una sustituci6n lineal no
singular que exprese las variables x, y, z en terminos de las r, s, t, de forma que q(r, s, t)
sea diagonal. Asimismo, hallar la signatura de q.
Formamos Ia matriz por bloques (A i I), siendo A Ia matriz que reprcscnta Ia forma cuadratica:
(A i /) = (
-4
2
3
-6
-4 I 1
-6 0
9 0
0
1
0

Efectuamos -2R
1
+ R
2
-+ R
2
y 4R
1
+ R
4
--> R
3
y las correspondientes operaciones entre columnas
y a continuaci6n 2R
2
+ R
3
"-> R
3
y Ia operacion entre columnas asociada para llegar a
(:
0
-1
2
o:
2: - 2
-7: 4
0
y luego
0
(
1 0
0 -1
0 0
01
0:-2
-3 1 0
0

2
De este modo, Ia sustitucion lineal x = r - 2s, y = s + 1t, z = t proporcionara Ia forma cuadratica
q(r, s, t) = r
2
- s
2
- 3t
2
Ademas, sig q = 1 - 2 = - 1.
4.53. Diagonalizar Ia siguiente forma cuadn\.tica q mediante el metoda conocido como com-
pletar el cuadrado:
q(x, y) = 2x
2
- 12xy + 5y
2
Comenzamos sacando como factor comun de los terminos en x
2
y xy el coef:iciente de x
2
:
q(x, y) = 2(x
2
- 6xy) + Syl
150 ALGEBRA LINEAL
Acto seguido, completamos el cuadrado entre pan!ntesis sumando un multiple apropiado de y
2

restando despues Ia cantidad correspondicntc fuera de los parentesis. Con esto conseguimos
q{x, y) = 2(x
1
- 6xy + 9y
1
) + 5y
1
- l8y
2
= 2(x - 3y)
2
- 13y
2
(El - 18 proviene del hecho de que el 9y
2
dentro de los parentesis se multiplica por 2.) Sean
s = x- 3y, t = y. En tal caso, x = s + 3t, y = t. La sustituci6n li.neal conduce a Ia forma cuadratica
q(s, t) = 2s
2
- 13t
2
.
FOR\1AS CUADRATICAS DEFINIDAS POSITIVAS
4.54. Sea q(x, y. z) = x
2
+ 2y
2
- 4xz- 4yz + 7z
2
i,Es q definida positiva?
Diagonalizamos (bajo congruencia) Ia matriz simetrica A asociada a q (efectuando 2R
1
+ R
3
-+ R
3
y 2C
1
+ C
3
--> C
3
y luego R
2
+ R
3
-+ R
3
y C
2
+ C
3
....,. C
3
):
A = ( ~ ~ = ~ ) - + ~ ~ - ~ ) - + ~
-2 -2 7 0 -2 3 0
0
2
0
~ )
La representacion diagonal de q solo contiene entradas positivas. I, 2 y I, en Ia diagonal, luego q
es definida positiva.
4.55. Sea q(x, y, z) = x
2
+ l + 2xz + 4yz + 3z
2
. (,Es q definida . positiva?
Diagonalizamos (bajo congruencia) Ia matriz simctrica A correspondiente a q:
0
1
2
0
1
2
~ ) - + ~ ~ ~ )
2 0 0 -2
Hay una entrada negativa, - 2, en Ia representaci6n diagonal de q. por lo que q no es dcfinida
positiva.
4.56. Probar que q(x. y) = ax
2
+ bxy + cy
2
es definida posit iva si y solo si el discriminante
D = b
1
- 4ac < 0.
Supongamos v = (x. y) i= 0, digamos y i= 0. Sea t = x;y. Entonces
De cualquier modo, s = at
2
+ bt + c esta par encima del eje x. es decir, es positivo para cualquier
valor de t si y solo si D = b
2
- 4ac < 0. Sicndo asi, q es definida positiva si y solo si D < 0.
-t57. Determinar que forma c_uadratica es definida positiva:
a) q(x, y) = x
2
- 4xy + 5y
2
b) q(x, y) = .x
2
+ 6xy + 3y
2
a) Metodo 1. Diagonalizamos completando el cuadrado:
q(x, y) = x
2
- 4xy + 4y
1
+ 5y
1
- 4y
1
= (x - 2y)
2
+ y
2
= s
2
+ t
2
donde s = x - 2y, t = y. Asi q es definida positiva.
MATRICES CUADRADAS. MATRICES ELEMENTALES 151
Metodo 2. Calculamos el discriminante D = b
2
- 4ac = 16 - 20 = -4. Siendo D < 0, q es
defi nida positiva.
b) Metodo L Oiagonalizamos completando el cuadrado:
q(x, y) = x
2
+ 6xy + 9y
2
+ 3y
2
- 9y
2
= (x + 3y)
2
- 6y
2
= s
2
- 6t
2
donde s = x + 3y, t = y. Como - 6 es negativo. q no es definida positiva.
Metodo 2. Cafculamos D = b
2
- 4ac = 36 - I 2 = 24. Siendo D > 0, no es definida positiva.
4.58. Sea B una matriz no singular arbitraria y sea M = BT B. Demostrar que: a) M es
simetrica, b) M es definida positiva.
a) Mr = (BT Bf = BT

= Br B = M; por consiguiente, M es simetrica.


b) Dado que B es no singular, BX '# 0 para todo X E R" no nulo. En consecuencia, el producto
escalar de BX por el mismo, BX BX = (BX)r (BX), es positivo. Asi
q(X) = XTMX = Xr(BTB)X = (XTBTXBX) = (BX)r(BX) > 0
De este modo, M es definida positiva.
4.59. Demostrar que q(X) = II XII
2
, el cuadrado de Ia norma de un vector X , es una forma
cuadratica definida positiva.
Para X = (x
1
, x
2
, ... , x,) tenemos q(X) =xi+ + ... + x;. Ahora bien, q es un polinomi o
con todos los terminos de grado dos y esta en forma diagonal con todas sus entradas positivas. Por
tanto, q es una forma cuadratica definida positiva.
4.60. Demostrar que las dos definiciones siguientes de forma cuadratica definida positiva son
equivalentes:
a) Las entradas diagonales son todas positivas en cualquier representaci6n diagonal
de q.
b) q(Y) > 0 para todo vector no nulo Yen R".
Supongamos q(Y) = a
1
yi + a
2
yi + ... + Si todos los coeficientes a; son positivos, ciara
mente q(Y) > 0 para todo vector no nulo Yen R", de modo que a) implica b). Reciprocamente,
supongamos ak < 0. Sea ek = (0, ... , I, .. . , 0) el vector cuyas entradas son todas 0 exceptuando un
1 en Ia k-esima posicion. En tal caso, q(ek) = ak < 0 para ek '# 0. Asi b) implica a). De acuerdo
con esto, a) y b) son equivalentes.
SIMILARIDAD DE MATRICES
4.61. Considerese el plano R
2
con los ejes usuales x e y. La matriz 2 x 2 no singular
P=(_; D
determina un nuevo sistema de coordenadas en el plano, digamos con ejes s y t. (Vease
Ejemplo 4.16.)
a) Trazar los nuevos ejes s y r en el plano R
2

b) Hallar las coordenadas de Q( 1, 5) en el nuevo sistema.
152 ALGEBRA LINEAL
y
4
s
Figura 4-2.
a) Trazamos el eje s en Ia direccion de Ia primera columna u
1
= {1, -J)T de P con unidad de
longitud igual a Ia longitud de u
1
De forma similar, trazamos el eje t en Ia direccion de Ia
segunda columna u
2
= (3, 2)T de P con unidad de longitud igual a Ia longitud de u
2
. Vease Ia
Figura 4-2.
b) Encontramos p-I =(! -;) usando, por ejemplo, Ia formula para Ia inversa-de una ma-
triz 2 x 2. Luego multiplicamos eJ vector (columna) de coordenadas de Q por P-
1
:
Asi Q'( -.If, 1) representa Q en el nuevo sistema
4.62. Definase f: R
2
-+ R
2
segun f(x , y) = (2x - 5y, 3x + 4y).
a) Utilizando X = (x, y)r, escribir f en uotaci6n matricial, esto es, hallar la matriz A
tal que f(X) = AX.
b) Refiriendose a los nuevos ejes coordenados s y t de R
2
introducidos en el Proble-
ma 4.61 y usando Y = (s, t)T, hallar f(s, t) encontrando primero la matriz B tal que
f(Y) = BY.
a) Aqui 1(:) = G
-5)(x) (2
4
y ; por consiguiente, A =
3
b) Calculamos B =p-I AP = (! - ~ . Entonces
Asi f(s, t) = (l'fs- -c. ~ s + .1ft).
MATRICES CUADRADAS. MATRICES ELEMENTALES 153
4.63. Considerese el espacio R
3
con los ejes x, y, z usuales. La matriz 3 x 3 no singular
-;)
determina un nuevo sistema de coordenadas para R\ digamos con ejes r, s, 1. [Aiternati-
vamente, P define Ia sustituci6n lineal X= PY, donde X = (x, y, z)r e Y = (r, s, tf.]
Hallar las coordenadas del punto Q(l, 2, 3) en el nuevo sistema.
Empezamos calculando P-
1
Construimos Ia mat riz por bloques M = (P i I) y Ia reducimos a
forma can6nica por lilas:
3 -2 l 3 -2: 0
- 5 2 0
- 2: 2 I

2 I 0
0
l
0

- I 3: - 1 0


3
1
0

0
I
0
De acuerdo con esto,
(-9
-7
p-1 =
3
1
-2
I
I
-2 : 2
l
I
I I
0 I -9
I
01
I
4
1 : 1

0
-7
3
y


Siendo asi, Q'( -47. 16, 6) representa Q en el nuevo sistema.
4.64. Defi nase f: R
3
--+ R
3
segun
3
I
0
0 I
3 2
:) -
0 I
4 3
1 I
-7
3
-4)(1) (-47)
2 2 = 16
1 3 6
f(x, y, z) = (x + 2y - 3z, 2x + z, x - 3y + z)
y sea P Ia matriz no singular de cambio de variables del Problema 4.63. [De este modo,
X = PY, siendo X = (x, y, z)T e Y = (r, s, tf.] Encontrar: a) Ia matriz A tal que
f(X) =AX, b) Ia matriz B tal que f(Y) =BY, c) f(r, s, ).
a) Los coelicientcs de x, y y : proporcionan Ia matriz A:

2
-:)(;)

2
-:)
0 y por tanto 0
- 3 -3
b) B es similar a A con respecto a P, esto es,

15 -11
154 ALGEBRA LINEAL
c) Utilizamos Ia matriz B para llegar a
f(r, s, t) = (r- 19s + 58t, r + 12s - 27t, 5r + l5s- llt)
4.65. Sup6ngase que B es similar a A. Mostrar que tr B = tr A.
Siendo B similar a A, existe una matriz no singular P tal que B = p - t AP. Utilizando el Teo-
rema 4.1,
tr 8 = tr p -
1
AP = tr PP-
1
A = tr A
FACTORIZACION LV
4.66. Encontrar Ia factori zaci6n LU de A = ( ~
-3
3
5
-2
Reducimos A a forma triangular por medio de las operaciones - 2R
1
+ R
2
->R
2
y 3R, + R
3
->R
3
y luego 7R
2
+ R
3
-+ R
3
:
(
1 3
A- 0 -1
. 0 7
2) (1 3
2 - 0 -1
13 0 0
Empleamos los opuestos de los multiplicadores -2, 3 y 7 de las operaciones entre filas precedentes
para construir Ia matriz L, y Ia forma triangular de A para conseguir Ia matriz U: esto es,
L=( ~
-3
0
1
-7
~ )
y
(
1 3
U= 0 -1
0 0
(Como comprobaci6n, multipliquense L y U para verificar que A = LU.)
4.67. Hallar Ia factori zaci6n LDU de Ia matriz A del Problema 4.66.
4.68.
La factorizaci6n A = LDU sc refiere a Ia situacion en Ia que L cs una matriz triangular inferior
con unos en Ia diagonal (como en Ia factorizad6n LU de A), D una matriz diagonal y U una
matriz triangular superior con unos en Ia diagonal. De este modo, bastara sacar como factores las
entradas diagonales de Ia matriz U en Ia factorizaci6n LU anterior para obtener las matrices D
y U. Por consiguiente,
L ~ :
0
;)
D ~ ~
0
~ ) u ~ ~
3
- ~ )
1 -1 1
-3 -7 0 -/, 0
Hallar Ia ractorizaci6n L U de B ~ ( ~
4
-3)
8 1 .
-5 -9 7
4.69.
MATRICES CUADRADAS. MATRICES ELEMENTALES 155
Reducimos B a forma triangular efectuando primero las operacioncs - 2R
1
+ R
2
--+ R
2
y
5R
1
+ R
3
--+ R
3
:
4 -3)
0 7
11 -8
Obscrvese que Ia segunda entrada diagonal es 0. Siendo asi, B no podni llevarse a forma triangular
sin operaciones de intercambio de filas. Dicho de otro modo. B no es factorizablc LV.
Enconuar Ia factorizaci6n LU de (f
2 -3
por un mttodo directo.
3 -8
3 1
8 -I 13
Comenzamos por construir las siguientes matrices L y V:
L+'
0 0
")

uu uu
"")
0 0 u22 un Uz
y V=
131 Ill
l 0 0 0 u3J U34
/41 l.n
1,3 1 0 0 0 u,.
La del producto L V que determina Ia primera fila de A conduce a las cuatro ecuaciones
u
13
= -3
y Ia que determina Ia primera columna a las ecuaciones
0
Llegando a este punto, las matrices L y V presentan Ia fo rma

0 0

("
-3
.:.)
0 0
U = 0 Uzz
Uz3
132
y
0 0
U33 U34
142 143
0 0 0
U44
La parte del producto LV que determina el resto de las entradas en Ia segunda fil a de A proporciona
las ecuaciones
0
4 + u
21
= 3
Uzz = -1
- 6 + u
23
= -8
Uz3 = -2
8 + u
24
= 5
U
2
4 = -3
y Ia que determina el resto de las entradas de Ia segunda columna nos !leva a
2 + l
32
u
22
= 3, 6 + 142 Uzz = 8
0 1
31
=-1, 142 = -2
De este modo, L y V tiencn ahora Ia forma

0 0
;)

2 -3
4)
1 0 -1 -2 -3
-1
y
0
u33 u34
-2 l., 0 0
U44
156 ALGEBRA LINEAL
Continuando con Ia tercera fila, tercera columna y cuarta fila de A obtenemos
t/33 = 2, t/34 =- 1, despues /43 = 2,
y, por ultimo,
t/44 = 3
Asi
L ~ i
0 0
~ )
( 2
-3
_;)
1 0 - 0 . -1 -2
-1 1
y
u- 0 0
2 - 1
-2 2 0 0 0 3
4.70. Hallar Ia factorizaci6n LDU de Ia matriz A del Problema 4.69.
Aqui U debe tener unos en Ia diagonal y D ser una matriz diagonal. Asi, usando Ia factorizaci 6n
LU precedente, sacamos como factores las entradas diagonales de aquella U llegando a
D{
J
u{
2 -3
-;)
-1 2
2
y
La matriz L coincide con Ia del Problema 4.69.
4.71. Se da Ia factorizaci6n A = LU, donde L = Clu) y U = (uii). Considerese el sistema
AX= B. Se pide determinar: a) ei algoritmo para encontrar L - t B, b) el _ algoritmo
que resuelve UX = B via sustituci6n hacia atnis.
a) La entrada lij de Ia matriz L corresponde a Ia operaci6n elemental entre filas - lijRi + Ri-+ Ri.
Por e!lo, el algoritmo que transforma B en B' es:
Afgoritmo P4.88A: Eva/uaci611 de L -lB.
Paso I. Repetir para j = I a 11 - I:
Paso 2. Repetir para i = j + I a 11:
b/= -lub; + bi
[Fin del bucle interne Paso 2.]
[Fin del bucle externo Paso 1.]
Paso 3. Salir.
[La complejidad de este algoritmo es C(n) ~ 11
2
/ 2.]
b) El algoritmo de sustitucion hacia atnl.s es el que se ex pone a continuaci6n:
Afgoritmo P4.88B: Sustituci6n hacia atras para el sistema U X =B.
Paso I. x. = b.fu .
Paso 2. Repetir para j = 11- I, n - 2, ... , I
xi= (bi - uj.j + lxi+
1
- ... - uinx.)fuii
Paso 3. Salir.
[Tambien aqui Ia complejidad es C(n);::; 1!
2
/2.]
4.72.
MATRICES CUADRADAS. MATRICES ELEMENTALES 157
Encontm Ia factorizaci6n L U de Ia matriz A ( ;
2

3
-3 -10
Reducimos A a forma triangular mediante las operaciones
I. -2R
1
+R
2
-+R
2
,
2. 3R
1
+ R
3
-+ R
3
, 3.
-4R
2
+ R
3
-+ R
3

2

2
;)
-1 -1
- 4 0

0


2
;)
Por tanto. 1 y -1
- 3 4 0
Las entradas 2, - 3 y 4 de L son los opuestos de los multiplicadores en las operaciones entre filas
precedentes.
4.73. Resolver el sistema AX= B para B
1
, B
2
y B
3
, donde A es Ia matriz del Problema 4.72
y B
1
= (1, 1, 1), B
2
= B
1
+ X
1
, B
3
= B
2
+ X
2
(aqui Xi es Ia sol uci6n cuando B =B).
a) Calculamos L - t 8
1
o, equivalentemente. efectuamos las operaciones entre lilas (I), (2) y (3)
sobre B
1
, Io que nos conduce a
Resolvemos U X= 8 para 8 = (1 , - I, 8)r por sustituci6n hacia atras obteniendo X
1
= ( - 25, 9, 8l.
b) Hallamos 8
2
= 8
1
+X
1
= (1, I, 1) + ( - 25, 9, 8) = ( - 24, 10, 9). Efectuamos las operaciones
( I), (2) y (3) sobre 8
2
llegando a ( - 24, 58, -63)r y luego a B = (-24, 58, - 295)r.
Resolvemos U X = B por sustituci6n hacia atnis obteniendo X
2
= (943, -353, - 295).
c) Calculamos 8
3
= 8
2
+ X
2
= (-24, 10, 9) + (943, - 353, - 295) = (919, - 343, - 286). Efec-
tuamos las operaciones (1), (2) y (3) sobre 8
3
llegando a (919, -2187, 267l)r y despues a
B = (919, - 2181, 11 .395)T.
Resolvemos UX = B por sustituci6n hacia atnis obteniendo X
3
= ( - 37.628, 13.576, 11.395).
PROBLEMAS SUPLEMENTARIOS
ALGEBRA DE MATRICES
4..:"4. Sea A = G Calcular A" .
..&... -s. Sup6ngase que Ia matriz 2 x 2 B conmuta con cualquier matriz 2 x 2 A. Probar que B =
para algun escalar k, es decir, 8 cs una matriz escalar.
158 ALGEBRA LINEAL
(
5 2) , , d I ,. .
Sea A =
0
k . Encontrar todos los numeros k para los que A es una ratz e po momw
a) f(x) = x
2
- 7x + 10, b) g(x) = x
2
- 25, c) h(x) = x
2
- 4
4.77. Sea B = ( I
0
). Hallar una matriz tal que A
3
= B.
26 27

0010
110
(
0 l 0 0)
Sean A =
0 0 0 1
y B = (o 1 1). Calcular: a)
A" para todos los enteros positives n.
0000
01
b) B" para todos los enteros positivos n.
4.79. Imponer sobre las matrices A y B las condiciones necesarias para que A
2
- B
2
= (A+ B)(A - B).
TRICES INVERTIBLES. INVERSAS. MATRICES ELEMENT ALES
4.80. Hallar Ia inversa de cada una de las matrices:
a)(:
3
-2) (2
1
-1) ('
-2
!)
8
' b)
2
' c)
-3
7 2
4.81. Hallar Ia inversa de cada una de las matrices:

i)b)(t
2

1 1 -1
0 1 3 1
0 0 4 -2
4.82. Expresar cada una de las siguientes matrices como producto de matrices elementales: a) !).
b) ( - :).
4.83.
2 0)
1 3 como producto de matrices elementales.
8 1
4.84. Sup6ngase que A es invertible. Demostrar que si A B = AC, necesariamentc B = C. Dar un ejemplo
de una mat riz no nula A tal que AB = AC pero B =f. C.
4.85. Si A es invertible, demostrar que kA es invertible para k =f. 0. con in versa k -
1
A -
1
.
4.86. Sup6ngase qne A y B son invertibles y que A + B =f. 0. Probar, con un ejemplo, que A + B no es
necesariamente invertible.
MATRICES CUADRADAS. MATRICES ELEMENTALES 159
TIPOS ESPECIALES DE MATRICES CUADRADAS
4.87. Utilizando solo los elementos 0 y I, hallar todas las matrices triangulares superiores 3 x 3 no
singulares.
4.88. Utilizando solo los elementos 0 y I, determinar el numero de: a) matrices diagonales 4 X 4,
b) mat rices triangulares superiores 4 x 4, c) matrices triangulares superiores 4 x 4 no singulares.
Generalizar el resultado a matrices n x n.
4.89. Encontrar todas las matrices reales A tales que A
2
= B, donde: a) 8 = ( b) 8 = ( _ ;) .
4.90. Sea 8 = : Hallar una matriz A con entradas diagonales positivas tal que A
2
= B.
0 0 4
4.91. Supongase A8 = C, siendo A y C triangulares superiores.
a) Demostrar, con un ejemplo, que B noes necesariamente triangular superior, ni siquiera cuando
A y C son matrices no nulas.
b) Demostrar que B es triangular superior cuando A es invertible.
4.92. Probar que AB no es necesariamente simetrica incluso en el caso de que A y 8 io sean.
4.93. Sean A y B matrices simetricas. Demostrar que A8 es simetrica si y solo si A y B conmutan.
4.94. Supongase que A es una matriz simetrica. Pro bar que: a) A
2
y, en general, A" son simetricas;
b) .f(A) es simetrica para cualquier polinomio f(x); c) pr APes simetrica.
4.95. Encontrar una matriz ortogonal 2 x 2 P cuya primera fila sea a) (2/fo, 5/}29), b) un multiplo
de (3, 4).
4.96. Hallar una matriz ortogonal 3 x 3 P cuyas dos primeras lilas sean multiplos de a) (1
1
2, 3)
y (0, - 2, 3), respectivamente; b) (I, 3, I) y (2, 0, - I), respectivamente.
4.97. Supongase que A y 8 son ortogonales. Probar que AT, A-
1
y AB tambien lo son.
4.98. (.Cmiles de las siguientes matrices son normales?
A=(!
B=G
-2)

1

-1

-4) .
1 2
3 , 3 ,
0 1 -3 -1
4.99. Supongase que A cs una inatriz normal. Demostrar que: a) AT, b) A
2
y, en general,
c) B = kl +A tambien lo son.
.1.100. Unz m"dz E " ;d''"P"""" i E' E. Pwb" qo' E (-:
-2
3
- 2
-4)
4 es idempotente.
- 3
Demostrar que si AB = A y BA = B, entonces A y B son idempotentes.
A" ,
160 ALGEBRA LINEAL
4. 102. Una matriz A es nil potence de clase p si AP = 0 pero AP- I 0. Pro bar que A = (
-2
1
2
-1
es nilpotente de clase 3.
4.103. Sup6ngase que A es nilpotente de clase p. Probar que Aq = 0 para q > p pero A q 0 para q < p.
4. 104. Una matriz cuadrada es tridiagonal si las ent radas no nulas aparecen unicamente en Ia diagonal
situada directa mente sabre Ia diagonal principal (en Ia superdiagonal), o directamcnte bajo Ia
diagonal principal (en Ia subdiagonal). Exhibir las matrices tridiagonales genericas de ordenes 4 y 5.
4. 105. Pro bar que el producto de matrices tridiagonales no es necesariamente tridiagonal.
MATRICES COMPLEJAS
4.106.
4.107.
4.108.
4.109.
4.110.
4.11 1.
4.112.
4.113.
Encontrar tres nLlmeros reales x, y y z tales que A sea hermitica, siendo
(
X+ yi ))
a) A =
3 + zi 0 '
b) A = (3 2i X
2
j 1 : zi)
yi 1- xi -1
Supongase que A es una matriz compleja arbitraria. Demostrar que AAH y AHA son ambas
hermiticas.
Sup6ngase que A es cualquier matriz compleja. Demostrar que A + An es hermitica y que A - AH
es antihermitica.
l,Cuales de las siguientes matrices son unitarias?
(
i/ 2
A-
- j3;2
-J3f2) B = (1 + i 1 - i)
- i/ 2 ' 2 l - i I + i '
(
1
1 .
C= - I
2
1 + i
- i
-1 + i)
l+i
0 - 1+i
Sup6ngase que A y B son matrices unitarias. Proba r que: a) AH es unita ria, b) A - L es unita ria,
c) AB es unitaria.
(
3 + 4i l ) ( 1 0)
Determinar cmi les de las siguientes matrices son normales: A = . . , B = . . .
I 2 + )J I - I !
Sup6ngase que A es una matriz normal y U una unitaria. Probar que B = uu AU es tambien
normal.
Recuerdense las siguientes operaciones elementales entre filas:
[E
1
] R
1
+-> R
1
, [E
2
] kR
1
--> R
1
, k 0, [E
3
] kR
1
+ R
1
--> R
1
Para matrices complejas, las respectivas operaciones entre columnas hermiticas correspondientes
son:
[GtJ C
1
+-> C
1
, [G
2
] kC
1
--> C
1
, k # 0, [G
3
] kC
1
+ C
1
-> C,
Demostrar que Ia matriz elemental correspondiente a [G
1
] es Ia traspuesta conjugada de Ia ma triz
elemental asociada a [E
1
].
MATRICES CUADRADAS. MATRICES ELEMENTALES 161
MATRICES CUADRADAS POR BLOQUES
4.114. Usando lineas verticales, completar Ia partici6n de cada una de las siguientes matrices para que sea
una mat riz cuadrada por bloques:

.. -} -i -{- -)
A= 9 8 7 6 5 ,

2 2 2 2 2
3 3 3 3 3

:_
B = 9 8 7 6 5
- -- -- -- -- --
i 2 2 2 2
3 3 3 3 3
4.1 15. Partir cada una de las siguientes matrices para convertirla en una matriz diagonal por bloques. con
Iantos bloques diagonales como sea posible:
1 2 0 0 0

0

3 0 0 0 0

1

0 B = 0 0 4 0 0 0
0 0 0 5 0 0 2
0 0 0 0 6
4. JI6. Calcular M
2
y M
3
para cada matriz M:
(' '0 0'0)
M (
a}

b)
0 0 : 1 2
o . o 0,3
o o:4 5
4. 117. Sean M = diag(A
1
, Ak) y N = diag(B
1
, , Bk) matrices diagonales por bloques, donde cada
par de bloques A;, B; tienen el mismo tamaiio. Pro bar que M N es diagonai por bloques y que
MN = diag (A
1
8
1
, A
2
B
2
, , AkBd
VIATRICES REALES SIMETRICAS Y FORMAS CUADRATICAS
4.1 18. Sea A = ( =:). Hallar una matriz no si ngular P tal que B = p-r AP sea diagonal.
. -2 - 5 6 9
-3 - 1 9 11 .
Asimismo, determinar B y sig A.
4.119. Para cada forma cuadratica q(x, y, z). encontrar una sustitucio n lineal no singular que exprese las
variables x, y, z en lerminos de variables r. s. t tales que q(r, s, r) sea diagonal.
a) q(x, y, z) = x
2
+ 6xy + 8y
2
- 4xz + 2yz - 9z
2
.
b) q(x, y, z) = 2x
2
- 3y
2
+ Sxz + 12yz + 25z
2
.
162 ALGEBRA LINEAL
4.120. Encont ra r aquellos valores de k para los que Ia forma cuadra tica dada es definida positiva:
a) q(x, y) = 2x
2
- 5xy + ky
2

b) q(x, y) = 3x
2
- kxy + l2y
2

c) q(x, y, z) = x
2
+ 2xy + 2y
2
+ 2xz + 6yz + kz
2
.
4.121. Dar un ejemplo de una forma cuadnitica q( x, y) tal que q(u) = 0 y q(v) = 0 pero q(u + v) =I 0.
4.122. Demostrar que cualquier matriz real simetrica A es congruente a una matriz diagonal en Ia que
cada ent rada diagonal es 1, 6 0.
4.123. Demostra r que Ia congruencia de matrices es una relaci6n de equivalencia.
SIMILARIDA[) DE MATRICES
4.124. Considerese el espacio R
3
con los ejes x, y, z usuales. La ma t riz no singular P =
1 1 -7
dett!rmina un nuevo sistema de coordenadas pa ra R
3
, digamos con ejes r. s. t . Hallar:
a) Las coordenadas del punto Q(l, I , I ) en el nuevo sistema.
b) f(r. s, t) cuando f (x, y, z) = (x + y, y + 2z. x - z).
c) g(r, s, t) cuando g(x, y, z) = (x + y- z. x- 3z. 2x + y ).
4.125. Demostr a r qut: Ia similaridad de matrices es una relaci6n de equivalencia.
FACTORIZACION LV
4.126.
4.127.
Hallar las factorizaciones L V y LDU de cada matriz:

3
-1)

3
:)
a) 5
1 '
b) 7
4 2 5
s"
- 1
-1)
- 4 -2 .
-3 -2
a) Encontrar Ia factorizaci6n L U de A.
b) Den6tese por xk Ia soluci6n de AX= Bk. Calcular XI, X 2, X J, x4 cuando Bl = (1, I, l l y
Bt - 1 = Bt + Xt para k > 0.
MATRICES CUADRADAS. MATRICES ELEMENTALES 163
RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS
4.74.
G )
4.76. \a) k = 2, b) k = -5, c) ninguno.
4.77.
G )
4.78.
a) A ~ ( ~
0 1 ) (
0
0 0 1) (
10
n n(n - ~
1
)/
2
)
~ H ' A' H H ' ~ 0 pa" k> 3; b) ~ ~ ~
4.79 . . AB = BA.
( -1
!.1
-!)
( 8 -3
-I) (-8
5
-I)
- l
4.80. a)
~
b) -5 2
1 '
c) -i
t - !
-2 10 -4 -1
-t t
( ~
-1 0
- ~ }
r-IO - 21l 4 ')
1 - 1 - 6 -1 -2
4.81. .a)
0
o) I . 8 - 2 -3
0 0 \ 2 3 - 1 - 1
(
0)(1 - 1)(1 o)
0
(1 Oxl Oxl 2)
4.82. a)
3 1 0 1 0
_
2 3 0 0
_
2 0 1
. b) No hay tal producto: Ia matriz no
tiene inversa.
164 ALGEBRA LINEAL
4.87. Todas las entradas diagonales deben ser I para que sean no singulares. Hay ocho elecciones posibles
para las entradas sobre Ia diagonal:
b) ninguna.
r
2

-4.90. 3
4.91. a)


4.91.
G
2x3 3) ( 9 5)
2 3 1 = 12 8
4.95. a)
( 2/./29
-51./29
5/fo)
2/fo.
b) ( ! !)
-! !
(''fo
2/fo
3/fo )
("fil
3/JTi
tfo)
4.96. a)
12/Jm
- 2/fo 3/.jlj ' b) t;J2 0 -t;J2
-3/fo -2/.jm 3/.fii -2/.fii 3/.fii
4.98. A, C.
c b,
(""
all
bll b2l b23
4.104.
all all all
bJl b33 b34
a 32 a 33 ... )
b43 bu b.,
a43
a
b,. b,



2

4.105. 3
2
4.106. a) x = a(pariunetro), y = 0, z = 0; b) x = 3, y = 0, z = 3.
4..109. A, B, C .
.(.111. A .
MATRI CES CUADRADAS. MATRICES ELEMENTALES 165
4.114.
4.115. i). B =
\o : o 3
(C ya es una matriz diagonal por bloques; no es posible ninguna particion ulterior de C.)
4.116. a)
M'{
9 8
)M'{
25 44
J
4 9 22 25
b) M'{
4
)
15
11 41
9
12
51 18)
24 33 156 213
(' -1
-1
- ('
4.118.
p = 0 1
3
0 0 1
9 ,B-
-7
). ,;g A- 2
0 0 0 7 469
4.119. a) x =r - 3s + 19t,y =s + 1t,z = t ,
q(r, s, t ) = r
2
- s
2
+ 36t
2
, rango q = 3, sig q = I.
b) x = r - 2t, y = s + 2t, z = t ,
q(r, s, t ) = 2r
2
- 3s
2
+ 29t
1
, rango q = 3, sig q = I.
c) x = r - 2s +l8t, y=s - 1t,z= t ,
q(r, s, t) = r
2
+ s
2
- 62t
2
, rango q = 3, sig q = 1.
d) x = r - s - t , y = s - t, z = t,
q(x, y, z) = r
2
+ 1s
2
, rango q = 2, sig q = 2.
4.120. a ) k > lf; b) k < - 12 0 k > 12; c) k > 5.
4.121. q(x, y) = x
2
- yl , u = ( 1, 1), v = ( 1, -1).
4.122. Supongamos
b-={' IM
I I
que A se ha diagonalizado a pr AP = diag (a;) . Oefi nase Q = diag (b
1
) por
a; "*
0
. Entonces B = Qr p r APQ = (PQ)r A(PQ) tiene Ia forma requerida.
s1 a
1
= 0
166 ALGEBRA LINEAL
4.124. a) Q(17, 5, (b) f(r, s, t) = (17r- 61s + 134l, 4r- 41s + 46t, 3r- 25s + 2St),
c) g(r, s, t) = (61r + s - 330t, 16r + 3s- 91t, 9r - 4s - 4t).
4.126 . . a) )(
1
-l x
1

3 s l -10 1
b) 8 G X I -! )C ! ::)
4.127. a) A = = -
2 1 1 0 0 - 1
b) X, = (J. B, B, =(:).X,
CAPITULO 5
Espacios vectoriales
5.1. INTRODUCCION
Este capitulo introduce la estructura algebraica subyacente al algebra lineal, Ia de espacio
vectorial de dimension finita. La definicion de espacio vectorial involucra un cuerpo arbitrario
(vease el Apendice) cuyos elementos se denominan escalares. Se utilizani Ia siguiente notaci6n
(a menos que se establezca o implique otra cosa):
K
a, b, co k
v
u, v, w
el cueq)o -9e escalares
los elemetitos de K
el espacio vectorial dado
los elementos de V
No se perdeni nada esencial si el lector supone que K es el cuerpo real R o el complejo C.
El capitulo no abarca conceptos como longitud y ortogonalidad, ~ m e s t o que no se consideran
parte de Ia estructurafundamental de un espacio vectorial. Se incluiran como estructura adicional
en el Capitulo 6.
5.2. ESP ACIOS VECTORIALES
A continuaci6n se define la noci6n de espacio vectorial o lineal.
Definicion: Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto
por un escalar que asignan a cad a par u, v e V una suma u + v e V y a cada par u e V, k E K un
producto ku E V. V recibe el nombre de espacio vectorial sabre K (y los elementos de V se Haman -
vectores) si se satisfacen los siguientes axiomas (vease el Problema 5.3).
167
168 ALGEBRA LINEAL
[A
1
] Para toda terna de vectores u, v, wE V, (u + v) + w = u + ( v + w).
[A
2
] Existe un vector en V, denotado por 0 y denorninado el vector cero, tal que u + 0 = u
para to do vector u E V.
[A
3
] Para todo vector u e V existe un unico vector en V, denotado por -u, tal que
u+( - u)=O.
[A
4
] Para todo par de vectores u, v e V, u + v = v + u.
[M
1
] Para todo escalar k e K y todo par de vectores u, ve V, k(u + v) = ku + kv.
[M
2
] Para todo par de escalares a, bEK y todo vector U E V, (a+ b)u =au+ bu.
[ M
3
] Para todo par de escalares a, be K y todo vector u e V, ( ab) u = a(bu ).
[ M
4
] EI escalar unidad I e K curnple I u = u para todo vector u e V.
Los axiomas precedentes se desdoblan de forma natural en dos categorias. Los cuatro
primeros atanen unicamente a Ia estructura aditiva de V y pueden resumirse diciendo que V es
un grupo conmutativo (vease el Apendice) bajo Ia surna. De ello se deriva que cualquier suma de
vectores de Ia forma
no requiete parentesis y no depende del orden de los sumandos, que el vector cero, 0, es (mico,
que el opuesto - u de u es unico y que se verifica Ia ley de cancelacion; esto es, para tres vectores
cualesquiera u, v, we V.
u+w=v+w
Asimismo, la resta se define segun
implica
u - v = u + ( - v)
u=v
..
Por otra parte, los cuatro axiomas restantes se refieren a Ia acci6n del cuerpo K sobre V.
Observese que la rotulaci6n de los axiomas refleja este desdoblamiento. Empleando estos
axiomas adicionales probarernos (Problema 5. 1) las siguientes propiedades elementales de un
espacio vectorial.
Teorema 5.1: Sea V un espacio vectorial sobre un cuerpo K.
i) Para todo escalar k EK y Oe V, kO = 0.
ii) Para 0 E K y todo vector u e V, Ou = 0.
iii) Si ku = 0, donde k E K y u E V, entonces k = 0 o u = 0.
iv) Para todo keK y todo ue V, ( - k)u = k(-u) = -ku.
5.3. EJEMPLOS DE ESP ACIOS VECTORIALES
Esta secci6n enumera una serie de ejernplos importantes de espacios vectoriales que se utilizarim
a to largo de todo el texto.
ESPACIOS VECTORIALES 169
ESPACIO K"
Sea K un cuerpo arbitrario. La notaci6n K" se usa frecuentemente para designar el conjunto de
todas las n-plas de elementos de K. Aqui K" se ve como un espacio vectorial sobre K, en el
que Ia suma vectorial y el producto por un escalar se definen segun
y
El vector cero en K" es Ia .n-pla de ceros
0 = (0, 0, .:., 0)
y el opuesto de un vector se define por
La demostraci6n de que K" es un espacio vectorial es identica a Ia del Teorema 2.1, que ahora
puede considerarse como Ia afirmaci6n de que R", con las operaciones alii definidas, es un espacio
vectorial s o ~ e R.
ESPACIO DE MATRICES M,,,.
La notaci6n Mm."n o simplemente M, se utilizani para designar el conjunto de todas las matrices
m x n sobre un cuerpo arbitrario K. Mm.n es un espacio vectorial sobre K con respecto a las
operaciones usuales de suma matricial y producto por un escalar. (Vease el Teorema 3.1.)
ESPACIO DE POLINOMIOS P(t)
Denoteinos por P(t) el conjunto de todos los polinomios
con coeficientes a; en algun cuerpo K. (Vease el Apendice.) P(t) es un espacio vectorial sobre K
con respecto a las operaciones usuales de suma de polinomios y producto de un polinomio por
una constante.
F.SPACIO DE FUNCIONES F(X)
Sean X un conjunto no vacio y K un cuerpo arbitrario. Consideremos el conjunto F(X) de
lodas las funciones de X en K. [N6tese que F(X) es no vacio por serlo X.] La suma de dos
funciones f, g E F(X) es Ia funci6n f + g E F(X) definida por
. (f + g)(x) = f(x) + g(x) VxeX
170 ALGEBRA LINEAL
y ei producto de un escalar k E K por una funci6n f E F(X) es Ia funci6n kf E F(X) definida por
(kf)(x) = kf(x)
.
(EI simbolo '</ significa para todo.) F(X), con las operaciones anteriores, es' un espacio vectorial
sobre K (Problema 5.5).
El vector cero en F(X) es Ia funci6n cero, 0, que a plica cada x EX en 0 E K, es decir,
O(x) = 0 '<lxEX
Asimismo, para cualquier furici6n jE F(X), Ia funci6n - f definida por
( - f)(x) = - f(x) '<lxEX
es Ia opuesta de Ia funci6n f.
CUERPOS Y SUBCUERPOS
Supongamos que E es un cuerpo que contiene un subcuerpo K. E puede verse como un espacio
Yectorial sobre K como sigue. Tomemos como suma vectorial la suma usual en E, y como pro-
ducto kv del escalar k E K por el vector vEE el producto de k y v como elementos del cuerpo E.
En tal caso, E es un espacio vectorial sobre K, esto es, E y K satisfacen los ocho axiomas de
espacio vectorial precedentes.
5.4. SUBESPACIOS
Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un
subespacio de V si es a su vez un espacio vectorial sobre K con respecto a las operaciones
de V, suma vectorial y producto por un escalar. Un criteria simple para identificar subespacios
es el siguiente (vease el Problema 5.4 para su demostraci6n).
Teorema 5.2: Supongamos que W es un subconjunto de un espacio vectorial V. Entonces W
es un subespacio de V si y solo si se cumple:
i) . OE w
ii) W es cerrado bajo Ia suma de vectores, es decir:
Para todo par de vectores u, v E W, la suma u + v E W.
iii) W es cerrado bajo el producto por un escalar, esto es:
Para todo u E w y para todo k E K el multiplo ku E w.
Las condiciones ii) y iii) pueden combinarse en una sola, como se hace, mas abajo, en ii)
(vease Ia demostraci6n en el Problema 5.5).
Corolario 5.3: W es un subespacio de V si y solo si:
i) OE w
ii) au+ br EW para todos los u, vE W y a, bE K.
ESPACIOS VECTORIALES 171
EJEMPLO 5.1
a) Sea V cualquier espacio vectorial. Eotonces, tanto el conjunto {0}, que consiste en el vector cero solo,
como el espacio V entero son subespacios de V.
h) Sea W el plano xy en R
3
consistente en aquellos vectores cuya tercera componente es 0; o, en otras
palabras, W = {(a, b, 0): a, bE R}. N6tese que 0 = (0, 0, 0) E W ya que Ia tercera componente de 0 es 0.
Para todo par de vectores u = (a, b, 0) y v = (c, d, 0) en W y todo escalar k E R tenemos que
u + v = (a + c, b + d, 0) y ku = (ka, kb, 0)
pertenecen a W, luego W es un subespacio de R
3
.
c) Sea V = M . el espacio de las matrices n x 11. El subconjunto W
1
de las matrices triangulares
(superiores) y el W
2
de las matrices simetricas son subespacios de V puesto que son no vacios y cerrados
bajo Ia suma de matrices y el producto por un escalar.
d) Recordemos que P(t) denota el espacio vectorial de los polinomios. Denotemos por P.(c) el subconjun-
to de P(t) que consiste en todos los polinomios de grade 5: n, para un n fijo. En ese caso, P.(t) es un
subespacio de P(t). El espacio vectorial P .(r) aparecen\. muy a menu do en nuestros ejemplos.
EJ EM PLO 5.2. Sean U y W su bespacios de un espacio vectorial V. Probemos que Ia interseccion U n W
es tam bien subespacio de V. Claramente, 0 E U y 0 E W, porque U y W son subespacios, de donde 0 E U n W.
Supongamos ahara que u, vE U n W. Entonces u, v E U y u, vE E y, dado que U y W son subespacios,
u + v, kuEU y . u + v, kuE W
para cualquier escalar k. Asi u + v, ku E U n W y por consiguiente U n W es subespacio de V
El resultado del ejemplo precedente se generaliza como sigue.
Teorema 5.4: La intersecci6n de cualquier numero de subespacios de un espacio vectorial V es
un subespacio de V.
Recuerdese que toda soluci6n de un sistema de ecuaciones lineales con n incognitas AX = B
puede verse como un punta en K" y por tanto el conjunto so lucia n de tal sistema es un
subconjunto de Kn. Supongamos que el sistema es homogeneo, es decir, supongamos que el
sistema tiene Ia forma AX = 0. Denotemos por W su conjunto soluci6n. Como AO = 0, el vector
cera 0 E W. Ademas, si u y v pertenecen a W, esto es, si u y v son soluciones de AX = 0,
. necesariamente Au = 0 y Av = 0. Par esta raz6n, para todo par de escalares a y b en K,
tendremos
A(au + bv) = aAu + bAv = aO + bO = 0 + 0 = 0
De esta' manera, au + bv es tam bien una soluci6n de AX = 0 o, dicho de otro modo, au + bv E w.
. En consecuencia, segun el Corola rio '5.3, hemos demostrado:
Teorema 5.5: El conjunto soluci 6n W de un sistema homogeneo con n incognitas AX = 0 es
un subespacio de K".
Hacemos enfasis en que el conjunto soluci6n de un sistema inhomogeueo AX = B no es
subespacio de K". De hecho, el vector cero, 0, no pertenece a dicho conjunto soluci6n.
1
172 ALGEBRA LINEAL
5.5. COMBINACIONES LINEALES. ENVOLVENTES LINEALES
Sean V un espacio vectorial sabre un cuerpo K y v
1
, v
2
, . , vmE V. Cualquier vector en V de Ia
forma
donde los a;E K, recibe e) nombre de combinacion lineal de v
1
, v
1
, ... , vm. El conjunto de todas
las combinaciones lineales semejantes, denotado por
se denomina envolvente lineal de v
1
, v
2
, ... , v,.
En general, para cualquier subconjunto S de V, lin S = {0} si S es vacio y lin S consiste en
todas las combinaciones lineales de vectores de S.
El siguiente teorema se demostrani en el Problema 5. 16.
- Teorema 5.6: Sea S un subconjunto de un espacio vectorial V.
i) Entonces lin S es un subespacio de V que contiene a S.
ii) Si W es un subespacio de V que contiene a S, necesariamente lin S s;; W
Por otra parte, dado un espacio vectorial V, se dice que los vectores u
1
, u
2
, .. . , u, generan
o forman un conjunto generador de V si
En otras pala bras, u
1
, u
2
, ... , u, generan V si, para todo vE V, existen escalares a
1
, a
2
, ... , a,
tales que
esto es, si v es una combinaci6n lineal de u
1
, u
2
, ... , u,.
EJEMPLO 5.3
a) Consideremos el espacio vectorial R
3
. La envolvente lineal de cualquier vector no nulo uE R
3
consiste
en todos los multiplos escalares de u; geometricamente, lin u es Ia recta que pasa por el origen y por
el extremo de u, tal y como se muestra en Ia Figura 5-l(a). Asimismo, para todo par de vectores u,
v E R
3
que no sean uno multiplo del otro, lin (u, v) es el plano que pasa por el origen ,y los extremos
de u y v, como se muestra en Ia Figura 5-1 (b).
b) Los vectores e
1
= ( 1, 0, 0), e
2
= (0, I, 0) y e
3
= (0, 0, I) generan el espacio vectorial R
3
. Concretamente,
para todo vector 11 = (a, b, c) en R
3
, tenemos
u = (a, b, c) = a(1, 0, 0) + b(O, 1, 0) + c(O, 0, 1) = ae
1
+ be
2
+ ce
3
0 sea, 11 es una combinaci6n line:11. de e
1
, e
2
, e
3
.
ESPACIOS VECTORIALES 173
(a)
(b) .
Figura 5-l.
c) Los polinomios 1, t, t
2
, t
3
, generan el espacio vectorial P(t) de todos los polinomios, es decir,
P(t) =lin(!, t , t
2
, t
3
, . )
Dicho de otro modo, todo polinomio es una combioaci6n lineal de I y poteocias de r. Similarmente,
los polinomios I, t , t
2
, . , t" geoeran el espacio vectorial P.(c) de los polioomios de grado
ESPACIO FILA DE UNA MA TRIZ
Sea A una matriz m x n sobre un cuerpo K arbitraria:
.. :: .. _:::\
a,.
1
a,
2
. aj
Las filas de A,
pueden verse como vectores en Kn y por tanto generan un subespacio de K" llamado el espacio
fila de A y denotado por f-lin A. Esto es,
f-lin A = lin (R
1
, . R
2
, . . . , Rm)
Analogamente, las columnas de A pueden verse como vectores en K'" y por consiguiente generan
.. un subespacio de K'" denominado ei espacio columna de A y denotado por c-lin A. Alternativa-
mente, c-lin A = f-lin AT.
Supongamos ahora que efectuamos una operaci6n elemental entre lilas sabre A,
0
y obtenemos una matriz B. En ese caso, cada fila deB es, claramente, bien una fila de A;o bien
:ma combinaci6n lineal, de filas de A, por lo que el espacio fila de B esta contenido en el de A.
174 ALGEBRA LINEAL
Por otra parte, podemos efectuar Ia operacion elemental entre filas inversa sabre B y obtener A.
Juego eJ espacio fila de A esta contenido en el de B. De acuerdo con esto, A y B tienen el mismo
espacio fila, lo que nos conduce al teorema enunciado a continuacion.
Teorema 5.7: Las matrices equivalentes por filas tienen el mismo espacio fila .
. En particular, demostraremos (Problemas 5.51 y 5.52, respectivamente) los siguientes resulta-
dos fundamentales, referentes a matrices equivalentes por filas.
Teorema 5.8: Dos matrices en forma canonica por filas tienen el mismo espacio fila si y solo
si tienen las mismas filas no nulas.
Teorema 5.9: Toda matriz es equivalente por filas a una unica matriz en forma canonica por
filas.
En el proximo ejemplo aplicamos los resultados anteriores.
EJEMPLO 5.4. Demostremos que el subespacio U de R
4
generado por los vectores
u I = (I' 2, - I. 3) u
2
= (2, 4, I, -2) y u
3
= (3, 6, 3, -7)
y el subespacio W de -R
4
generado por los vectores
t
1
= (1, 2, -4, II) y V
2
= (2, 4, -5, 14)
son iguales, esto es, que U = W.
Metodo 1. Demostramos que cada u; es combinacion lineal de v
1
y v
2
y que cada v; lo es de 11
1
, u
2
y u
3
.
Observese que debemos probar Ia compatibilidad de seis sistemas de ecuaciones lineales.
Metodo 2. Construimos Ia matriz A, cuyas filas son los ui, y Ia reducimos a forma canonica por filas:
~ :
2 -1
- ~ ) - (:
2 -1
-:)-(:
2 0
-!)
4 1 0 3 0 I
6 3 -7 0 0 6 -16 0 0 0
Ahora construimos Ia matriz B, cuyas filas son v
1
y vl, y [a reducimos a forma canonica por filas:
B=G
2 -4
11)-C
2 -4
11)-C
2 0
-D
4 -5 14 0 0 3 -8 0 0 1
Como las filas no nulas de las matrices reducidas son identicas, los espacios fila de A y B son iguales, de
modo que U = W.
5.6. DEPENDENCIA E INDEPENDENCIA LINEAL
A continuacion se definen las nociones de dependencia e independencia lineal. Estos conceptos
juegan un papel esencial dentro de Ia teoria del algebra lineal y de las matematicas en general.
ESPACIOS VECTORIALES 175
Definicion: Sea V un espacio vectorial sabre un cuerpo K. Se dice que los vectores v
1
, ... , v, E V
son linea/mente dependientes sobre K, o simplemente dependientes, si existen escalares at> ... , a., E K,
no todos 0, tales que
En caso contrario se dice que los vectores son linealmente independientes sobre K, o simplemente
independientes.
Observemos que Ia relaci6n ( *) se verificani siempre si los a; son todos 0. Si Ia relaci6n solo
se verifica en este caso, es decir,
implica a
1
= 0, ... , a,= 0
los vectores senin linealmente independientes. Sin embargo, si (*) tambien es valida cuando uno
de los a; no es 0, los vectores seran linealmente dependientes.
Se dice que un con junto { v
1
, v
2
, ... , v,} de vee to res es linealmente dependiente o indepen-
diente segun lo sean los vee to res v
1
, v
2
, ... , v,. Un con junto infinito S de vectores es lineal mente
dependiente si existen vectores u
1
, .. , uk en S que lo son; en caso contrario, S es linealmente
independiente.
Las siguientes observaciones derivan de las definiciones precedentes.
Nota 1: Si 0 es uno de los vectores v
1
, , v,, digamos v
1
= 0, los vectores deben ser lineal mente
dependientes, ya que
lv
1
+ Ov
2
+ ... + Ov, = I 0 + 0 + ... + 0 = 0
y el coeficiente de v
1
es distinto de 0.
Nota 2: Cualquier vector no nulo v es por si solo linealmente independiente, debido a que
kv = 0, v =I= 0 implica k=O
:'-Iota 3: Si dos de los vectores v
1
, v
2
, .. , v, son iguales, o si uno es un multiplo escalar de
otro, digamos v
1
= kv
2
, los vectores son linealmente dependientes, puesto que
y el coeficiente de v
1
no es 0 .
.'\ota 4: Dos vectores VI y v2 son linealmente dependientes si y solo si uno de ellos es multiplo
del otro .
.'\ota 5: Si el conjunto { v
1
, ... , v,} es linealmente independiente, cualquier reordenaci6n de los
.ectores {v;,, v; ..... , v;,.} tambien lo es.
~ o t 6: Si un conjunto S de vectores es linealmente independiente, necesariamente lo es cual-
quier subconj unto deS. Alternativamente, si S contiene un subconjunto Iinealmente dependiente.
S es Iinealmente dependiente.
176 ALGEBRA LINEAL
Nota 7: En el espacio real R
3
, Ia dependencia lineal de vectores puede describirse geometrica-
mente en los siguientes terminos: a) Dos vectores cualesquiera tl y v son linealmente dependien-
tes si y solo si yacen en Ia misma recta que pasa por el origen, como se ilustra en Ia Figura 5-2(a).
b) Tres vectores cualesquiera u, v y w son linealmente dependientes si y solo si yacen en el mismo
plano que pasa por el origen, como se muestra en Ia Figura 5-2(b).
(a) u y v son linealmente dependientes (b) u, v y IV son linealmente dependientes
Figura S-2.
A continuacion se dan otros ejemplos de vectores linealmente dependientes e independientes.
EJEMPLO 5.5
a) Los vectores u = (1, - 1, 0), v = (1, 3, - I) y w = (5, 3, -2) son linealmente dependientes porque
3(1, - I, 0) + 2(1, 3, - 1)- (5, 3, - 2) = (0, 0, 0)
Esto es, 3u + 2v - w = 0.
b) Probamos que los vectores u = (6, 2, 3, 4), v = (0, 5, - 3, 1) y w = (0, 0, 7, -2) son linealmente
independientes. Supongamos que xu + yv + Z IV = 0, donde x, y y z son escalares desconocidos. En tal
caso,
(0, 0, 0, 0) = x(6, 2, 3, 4) + y(O, 5, -3, l) + z(O, 0, 7, -2) =
= (6x, 2x + 5y, 3x - 3y + 1z, 4x + y - 2z)
y asi, por Ia igualdad de las componentes correspondientes,
6x = 0
2x + 5y = 0
3x- 3y + 1z = 0
4x+ y - 2z=0
La primera ecuaci6n conduce a x = 0; la segunda, con x = 0, proporciona y = 0, y Ia tercera, con
x = 0 e y = 0, !leva a z = 0. De este modo,
XU + )IV + ZIV = 0 implica X = 0, y = 0, Z = 0
En consecuencia, u, v y IV son Iinealmente independientes.
ESPACIOS VECTORI ALES 177
COMBINACIONES LINEALES Y DEPENDENCIA LINEAL
Las nociones de combinaci6n lineal y dependencia lineal estan estrechamente relacionadas. De
forma especifica, demostraremos que los vectores v
1
, v
2
, . , vm, cuando hay mas de uno, son
linealmente dependientes si y solo si uno de ellos es una combinaci6n lineal de los otros.
Supongamos, por ejemplo, que V; es una combinaci6n lineal de los otros:
Entonces, sumando - v; a ambos miembros, obtenemos
donde el coeficiente de v; no es 0; por consiguiente, los vectores son linealmente dependientes.
Reciprocamente, supongamos que los vectores son linealmente dependientes, digamos
dondt:4
En ese caso,
de modo que v; es una combinaci6n lineal del resto de los vectores.
Establecemos ahara un resultado algo mas potente que el anterior (vease el Problema 5.36
para su demostraci6n), que tiene numerosas consecuencias importantes.
Lema 5.10: Supongamos que dos o mas vectores no nulos v
1
, v
2
, , vm son linealmente
dependientes. Entonces uno de los vectores es una combinaci6n lineal de los precedentes, esto
es, existe un k > 1 tal que
vk = clvl + CzVz + + ck - lvk-1
EJEMPLO 5.6. Consideremos Ia siguiente matriz en forma escalonada:
0 2 3 4 5 6 7
0 0 4 -4 4 -4 4
A= 0 0 0 0 7 8 9
0 0 0 0 0 6 -6
0 0 0 0 0 0 0
Observemos que las filas R
2
, R
3
y R
4
tie_nen ceros en Ia segunda columna (bajo el elemento pivote de R
1
)
y que, por tanto, cualquier combinaci6n lineal de R
2
, R
3
y R
4
debe tener un cero como segunda
componente. Siendo asi, R
1
no puede ser una combinaci6n lineal de las filas no nulas si tuadas bajo ella.
De forma similar, las filas R
3
y ~ tienen ceros en Ia tercera columna, bajo el elemento pivote de R
2
; por
consiguiente, R
2
no puede ser una combinaci6n lineal de las fi las no nulas situadas bajo ella. Finalmente,
R
3
no puede ser un multiplo de R
4
, puesto que esta tiene un cero en Ia quinta columna, bajo el elemento
pivote de aquella. Mirando las filas no nulas de abajo a arriba, R
4
, R
3
, R
2
, R
1
, constatamos que ninguna
de elias es combinaci6n lineal de las precedentes. De este modo, las filas no nulas son linealmente
independientes, de acuerdo con el Lema 5. 1 0.
178 ALGEBRA LINEAL
El argumento del ejemplo anterior puede aplicarse a las fil:- 5 no nulas de cualquier matriz
escalonada. Asi pues, tenemos el siguiente resultado (demostrado en el Problema 5.37), muy
util.
Teorema 5.11: Las lilas no nulas de una matriz en forma escalonada son linealmente inde-
pendientes.
5.7. BASES Y DIMENSION
Comenzamos estableciendo dos caminos equivalentes (Problema 5.30) para delinir una base de
un espacio vectorial V.
Definicion A: Un con junto S = { u
1
, u
2
, , u"} de vectores es una base de V si se verifican las
dos condiciones:
1. u
1
, u
2
, , u. son linealmente independientes.
2. u
1
, u
2
, , u. generan V.
Definicion B: Un conjunto S = {u
1
, u
2
, ... , u"} de vectores es una base de V si todo vector
v E V puede escribirse de forma unica como combinacion lineal de sus vectores.
Se dice que un espacio vectorial V es de dimension .finita n o que es n-dimensional, escrito
dim V = n
si V tiene una base como Ia anterior, con n elementos. La dimension esta bien definida; a Ia
vista del siguiente teorema (demostrado en el Problema 5.40).
Teorema 5.12: Sea V un espacio vectorial de dimension finita. Entonces todas las bases de V
tienen el mismo numero de elementos.
El espacio vectorial {0} tiene dimension 0, por definicion. Cuando un espacio vectorial no
es de dimension finita, se dice que es de dimension infinita.
EJEMPLO 5.7
a) Consideremos el espacio vectorial M
2

3
de todas las matrices 2 x 3 sobre un cuerpo K. Las seis matrices
siguientes forman una base de M
2

3
:
(
1 0 0)
0 0 0
(
0 1 0)
0 0 0
(
0 0 1)
0 0 0
(
0 0 0)
1 0 0
(
0 0 0)
0 1 0
(
0 0 0)
0 0 1
Con mayor gencralidad, en el espacio vectorial M,,, de las matrices r x s, sea Eij Ia matriz cuya entrada
ij es I, siendo 0 las restantes. Todas las matrices Eij tales constituyen una base de M,.,, denominada
su base usual. Consecuentemente, dim M, .. , = rs. En particular, e
1
= (1, 0, ... , 0), e
2
= (0, I, 0, ... , 0),
... , e. = (0, 0, ... , 0, I) forman Ia base usual de K".
b) Consideremos el espacio vectorial P.(t) de los polinomios de grado 5.n. Los polinomios 1, t, t
2
, .. , t"
forman una base de P.(t) y por tanto dim P.(t) = n + I.
ESPACIOS VECTORIALES 179
El teorema fundamental anterior sobre dimension es una consecuencia del importante lema
de sustituci6n (demostrado en el Problema 5.39) que sigue:
Lema 5.13: Supongamos que {v
1
, v
2
, ... , u.} genera V y que {w
1
, w
2
, . , wm} ~ s linealmente
independiente. En ese caso, m ~ n y Vesta g'erierado por un conjunto de Ia fotni.a '..:
. "
Asi, en particular, n + 1 o mas vectores en V son linealmente dependientes.
Observemos, en el lema precedente, que hemos sustituido m vectores del conjunto generador
por los m vectores independientes y aun conservamos un conjunto geuerador.
Los teoremas enunciados a continuaci6n (y demostrados en los Problemas 5.41, 5.42 y 5.43,
respectivamente) se utilizaran con frecuencia.
Teorema 5.14: Sea V un espacio vectorial de dimension finita n.
i) n + 1 0 mas vectores en v son linealmente dependientes.
ii) Todo conjunto linealmente independiente S = {u
1
, u
2
, , u.}, conn elementos. es una
base de V.
iii) Todo.conjunto generador T = { u
1
, u
2
, .. . , v. } de V, con n elementos, es una base de V.
Teorema 5.15: Supongamos que S genera un espacio vectorial V.
i) Cualquier numero maximo de vectores linealmente independientes en S es una base
de V.
ii) Si se suprime deS todo vector que sea combinaci6n lineal de los precedentes, los vecto-
res que quedan constituyen una base de V.
Teorema 5.16: Sean V un espacio vectorial de dimension finita y S = {u
1
, u
2
, ... , u,} un conjun-
to de vectores linealmente independientes en V. En ese caso, S es parte de una base de V, es
decir, S puede extenderse a una base de V.
EJEMPLO 5.8
a) Consideremos en R
4
los cuatro vectores:
(1, I , I, I) (0, 1, I , I) (0, 0, 1, I) (0, 0, 0, I)
N6tesc que los vectores formaran una matriz escalonada, por lo que son linealmente independientes.
Mas aun, dado que dim R
4
= 4, los vectores constituyen una base de R
4
b) Consideremos los 11 + I polinomios en P.(t):
I, r- I , (t - 1)
1
, ... , (t- I}"
El grado de (t - I )k es k, luego ningun polinomio puede ser combinaci6n lineal de los precedentes.
Ademas, constituyen una base de P ~ t ) porque dim P.(t) = 11 + I.
180 ALGEBRA LINEAL
DIMENSION Y SUBESPACIOS
El siguiente teorema (demostrado en el Problema 5.44) nos da Ia relaci6n basica entre Ia dimen-
sion de un espacio vectorial y Ia de un subespacio.
Teorema 5.17: Sea W un subespacio de un espacio n-dimensional V. Entonces dim W $: n. Si.
en particular, dim W = n, necesariamente W = V.
EJEMPLO 5.9. Sea W un subespacio del espacio real R
3
. Tenemos dim R
3
= 3; por consiguiente, segtin
el Teorema 5.17, Ia dimension deW solo puede ser 0, 1, 2 6 3. Podemos distinguir los casos:
i) dim W = 0, con lo que W = {0}, un punto.
ii) dim W = 1, con lo que W es una recta por el origen.
iii) dim W = 2, con lo que W es un plano por el origen.
iv) dim W = 3, con lo que W es el espacio R
3
entero.
RANGO DE UNA MATRIZ
Sea A una matriz m x n arbitraria sobre un cuerpo K. Recordemos que el espacio fil a de A es
el subespacio de K" generado por sus filas y que el espacio columna de A es el subespacio de K"'
generado por sus columnas.
El ranga par filas de una matriz A es igual al numero maximo de filas linealmente
independientes o, equivalentemente, a Ia dimension del espacio fila de A. Analogamente, el ranga
par calumnas de A es igual al numero m<i'x.imo de columnas linealmente independientes o,
equivalentemente, a Ia dimension del espacio columna de A.
Aunque f-lin A es un subespacio de Kn y c-lin A uno de K"' , donde n puede no coincidir
con m, tenemos el importante resultado (demostrado en el Problema 5.53) que sigue.
Teorema 5.18: Los rangos por filas y por columnas de cualquier matriz A son iguales.
Definicion: El ranga de Ia matriz A, escrito rango A, es el valor comun de su rango por filas
y su rango por columnas.
El rango de una matriz puede calcularse facilmente usando reducci6n por filas, como se
ilustra en el siguiente ejemplo.
EJ EM PLO 5.1 0. Supongamos que queremos hallar una base y Ia dimension del espacio fila de
2 0. -1)
6 -3 -3
10 - 6 -5
Reducimos A a forma escalonada utilizando las operaciones elementales entre filas:.
~ - ~ = ~ ) ~ ~
4 -6 -2 0
~ - ~ = ~ )
0 0 0
ESPACIOS VECTORIALES 181
Recordemos que las matrices equivalentes por fil as tienen el mismo espacio fila. De este modo, las fi las no
nul as de Ia matriz escalonada, que son independientes de acuerdo con el Teorema 5.11, forman una base
del espacio fila de A. Siendo asi, dim f-lin A = 2 y por tanto rango A = 2.
5.8. ECUACIONES LINEALES Y ESPACIOS VECTORIALES
Consideremos un sistema de m ecuaciones lineales conn incognitas x
1
, ... , x. sobre un cuerpo K:
a
11
x
1
+ a
12
x
2
+ + a ... x, = b
1
a
21
x
1
+ a
22
x
2
+ + a2.x, = b2
[5.1)
o la ecuacion matricial equivalente
AX=B
donde A = (aii) es Ia matriz de los coeficientes y X = (xi) y B = (hi) los vectores columna consti-
tuidos par las incognitas y las constantes, respectivamente. Recordemos que Ia matriz ampliada
del sistema se define como Ia matriz
(
all at2 alii b
1
)
(A, B)= . ~ ~ ~ .. ~ ~ ~ .. ::: .. ~ ~ .. ~
a,.1 a,.
2
. a..,, b,
:'lolota l: Se dice que las ecuaciones lineales [5.1] son dependientes o independientes segun lo
sean los vectores correspondientes, esto es, las filas de Ia matriz ampliada.
~ o t a 2: Dos sistemas de ecuaciones lineales son equivalentes si y solo si las matrices ampliadas
correspondientes son equivalentes por filas, es decir, tienen el mismo espacio fila.
:"Jota 3: Siempre podemos reemplazar un sistema de ecuaciones par uno de ecuaciones inde-
pendientes, como por ejemplo un sistema en forma escalonada. El numero de ecuaciones
independientes sera siempre igual al rango de Ia matriz ampliada.
Observemos que el sistema [5.1] es tambien equivalente a Ia ecuacion vectorial
El comentario anterior nos conduce al teorema de existencia basico, enunciado a conti-
:::;uacion.
182 ALGEBRA LINEAL
Teorema 5.19: Las t res afirmaciones siguientes son equivalentes.
a} El sistema de ecuaciones lineales AX = B tiene alguna solucion.
b} B es combinacion lineal de las columnas de A_
-- ----
c) La matriz de coeficientes A y Ia ampliada (A, B) tienen el mismo rango.
Recuerdese que una matriz m x n A puede verse como una funcion A: Kn--. K"'. Asi ut:.
vector B perteneceni a Ia imagen de A si y solo si Ia ecuaci6n AX = B tiene una solucion. Esto
significa q_ue Ia imageo_{Lecorridoj de Ia funcion A, escrito Im A, . es precisamente el espacio
columna de A. En consecuencia,
dim (lm A)= dim (c-Iin A} = rango A
Utilizaremos este hecho para probar (Problema 5.59) el siguiente resultado basico relativo a
sistemas de ecuaciones lineales homogeneos.
Teorema 5.20: La dimension del espacio solucion W del sistema de ecuaciones lineales homo-
geneo AX = 0 es n - r, donde n es el numero de incognitas y r el rango de Ia matriz de los
coeficientes A.
En caso de que el sistema AX = 0 este en forma escalonada, este tendra precisamente n - r
Yariables libres, digamos x;,, x;, ... , x;._, Sea vi Ia solucion obtenida haciendo x;i = l (o
cualquier constante no nula) y el resto de las variables libres iguales a 0. Entonces las soluciones
r
1
, .. . , v._, seran linealmente independientes (Problema 5.58) y formaran una base del espacio
soluci6n.
EJ EM PLO 5.11. Supongamos que queremos hallar Ia dimension y una base del espacio soluci6n, W, del
sistema:
x + 2y + 2z - s + 3t = 0
x + 2y + 3z + s + t = 0
3x + 6y + 8z + s + 5t = 0
Primero reducimos el sistema a forma escalonada:
x + 2y + 2z - s + 3t = 0
z+2s-2t = O
2z + 4s - 4t = 0
0
x + 2y + 2z - s + 3t = 0
z+2s- 2t = 0
El sistema en forma escalonada tiene dos ecuaciones (no nulas) y cinco incognitas y por tanto tiene
5 - 2 = 3 variables libres, que sony, s y t. De cstc modo, dim W = 3. Para obtener una base de W tomemos:
i) y = I, s = 0, t = 0 para llegar a Ia soluci6n v
1
= ( - 2, I, 0, 0, 0).
iil y = 0, s = I, t = 0 para llegar a Ia soluci6n v
2
= (5, 0, -2, I, 0).
iii I y = 0. s = 0. t = 1 para llegar a Ia soluci6n v
3
= ( -7, 0, 2, 0, 1).
E. ~ t o ~ r

r
1
. r
3
} es una base del espacio soluci6n W.
ESPACIOS VECTORtALES 183
DOS ALGORITMOS PARA HALLAR BASES
Supongamos que se nos dan los vectores u
1
, u
2
, ... , u, en K". Sea
W = lin (u
1
, u
2
, . , u,)
el subespacio de K" generado por dichos vectores. Cada uno de los algoritmos expuestos abajo
determinan una base (y por ende Ia dimension) de W.
Algoritmo 5.8A (algoritmo del espacio fila)
Paso 1. Construir una matriz A cuyas fl. /as sean los vectores dados.
Paso 2. Reducir por filas A a forma escalonada.
Paso 3. Extraer las filas no nulas de Ia matriz escalonada.
El algoritmo precedente ya apareci6 en esencia en el Ejemplo 5.10. El proximo se ilustrani
en el Ejemplo 5.12 y utiliza el resultado referente a sistemas de ecuaciones lineales inhomogeneos
que se dio con anterioridad.
Algoritmo 5.8B (algoritmo de expulsion)
Paso 1. Construir una matriz M cuyas columnas sean los ,vectores dados.
Paso 2. Reducir por filas M a forma escalonada.
Paso 3. Para cada columna Ck sin pivote en Ia matriz escalonada, suprimir (expulsar) el
vector vk del conjunto.
Paso 4: Extraer los restantes vectores (correspondientes a columnas con pivote).
EJEMPLO 5 .12. Sea W el subespacio de R
5
generado por los vectores:
v
1
= (1, 2, 1, -2, 3) v
2
= (2, 5, - 1, 3, - 2) v
3
= (1, 3, -2, 5, - 5)
v
4
= (3, 1, 2, -4, 1) v
5
= (5, 6, 1, -1, - 1)
Usamos el Algoritmo 5.8B para hallar Ia dimension y una base de W.
Comenzamos por construir Ia matriz M, cuyas columnas son los vectores dados, y reducirla a forma
escalonada:
l 2 1 3 5 2 1 3 5
2 5 3 1 6 1 - 5 -4
M= -1 -2 2 I -3 - 3 - 1 - 4
3 5 -4 -1 7 7 2 9
3 -2 -5 1 -1 -8 -8 - 8 -16
2 3 5 2 3 5
1 1 7 - 4 1 1 7 -4
0 0 ' -16 -16 0 0 1 1
0 0 37 37 0 0 0 0
0 0 - 48 - 48 0 0 0 0
184 ALGEBRA LINEAL
Observemos que los pivotes de Ia matriz escalonada aparecen en las columnas C
1
, C
2
y C
4
El hecho de
que Ia columna C
3
no tenga pivote significa que el sistema xv
1
+ yv
2
= v
3
tiene una soluci6n y po'
consiguiente v
3
es combinaci6n lineal de v
1
y v
2
De forma similar, el hecho de que C
5
no tenga p v o t ~
significa que v
5
es combinaci6n lineal de los vectores precedentes. De acuerdo con esto, los vectores v
1
r:
y v
4
, correspondientes a las columnas con pi vote en Ia matriz, constituyen una base de W y dim W = 3.
5.9. SUMAS Y SUMAS DIRECT AS
Sean U y W subconjuntos de un espacio vectorial V. La suma de U y W, escrito U + W, consiste
en todas las sumas u +wen las queuE U y wE W. Esto es,
U + W = { u + w: u E U, WE W}
Supongamos ahara que U y W son subespacios de V. N6tese que 0 = 0 + OE U + W, ya que
0 E U y 0 E W. Supongamos, ademas, que u + w y u' + w' pertenecen a U + W, con u, u' E U y w,
w' E W. Entonces
(u + w) + (u' + w') = (u + u') + (w +w')E U + W
y, para todo escalar k,
k(u + w) = ku + kwE U + W
Asi hemos demostrado el siguiente teorema.
Teorema 5.21: La suma U + W de los subespacios U y W de V es tam bien un subespacio de V.
Recordemos que Ia intersecci6n U n W es subespacio de V. El teorema enunciado a conti-
nuaci6n, y demostrado en el Problema 5.69, relaciona las dimensiones de estos subespacios.
Teorema 5.22: Sean U y W subespacios de dimension linita de un espacio vectorial V. En ese
caso, U + W tiene dimension linita y
dim (U + W) =dim U +dim W- dim (U n W)
EJEMPLO 5.13. Supongamos que U y W son los pianos xy e yz en R
3
, respectivamente. Es decir,
U = {(a, b, 0)} y W= {(0, b, c)}
N6tese que R
3
= U + w; por consiguiente, dim (U + W) = 3. Asimismo, dim U = 2 y dim W = 2. Segun
el Teorema 5.22,
3 = 2 + 2 - dim ( U n W) 0 dim (U n W) = I
Esto concuerda con los hechos de que U n W es el eje y (Fig. 5-3) y que dicho eje ticne dimension I.
ESPACIOS VECTORIALES 185
z
Figura 5-3.
SUMAS DIRECT AS
Se dice que el espacio vectorial V es Ia suma directa de sus subespacios U y W, denotado por
si todo vector ve V puede escribirse de una y solo una forma como v = u + w, con u E U y we W.
El teorema que sigue, demostrado en el Problema 5. 70, car acteriza tal descomposicion.
Teorema 5.23: EJ espacio vectorial V es la suma directa de sus subespacios V y W si y solo si
i) V = U + W y ii) U n W = {0}.
EJEMPLO 5.14
a) En el espacio vectorial R
3
, sean U el plano xy y W el yz:
U ={(a, b, 0): a, be R} y W = {(0, b, c): b, ceR}
Entonces R
3
= U + W, puesto que todo vector en R
3
es Ia suma de un vector de U y uno de W. Sin
embargo, R
3
no es Ia suma directa de U y W, ya que dichas sumas no son (micas; por ejemplo,
(3, 5, 7) = (3, I, 0) + (0, 4, 7) y tambien (3, 5, 7} = (3, -4, 0) + (0, 9, 7)
b) En R
3
, sean U el plano xy y W el eje z:
U = {ta, b, 0): a, be R} y W = { (0, 0, c): c E R}
Ahora cualquier vector (a, b, c) E R
3
puede escribirse como la suma de un vector de U y uno de W de
.. una y solo una forma: .
(a, b, c) = (a, b, 0) + (0, 0, c)
En consecuencia, R
3
es Jasuma directa de U y W, o sea, R
3
= U EB W. Alternativamente, R
3
= U EB W
puesto que R
3
= U + W y U n W = {0}.
186 ALGEBRA LINEAL
SUMAS DIRECT AS GENERALES
La nocion de suma directa .se extiende a mas de un sumando de Ia manera obvia. Esto es, V es
Ia suma directa de los subespacios W
1
, W
2
, . , W,, escrito
si todo vector vE V puede escribirse de una y solo una forma como
v = w
1
+ w
2
+ ... + w,
donde w
1
E W
1
, w
2
E W
2
, ... , w,E W,.
Son aplicables los siguientes teoremas.
Teorema 5.24: Sea V = W
1
EB W
2
EB EB W,. Adem as, para cada i, supongamos que S;. es un
subconjunto linealmente independiente de W;. En tal caso,
a) La unionS = U;S; es linealmente independiente en V
b) Si S; es una base de W;, entonces S = U; S; es una base de V.
c) dim v =dim WI +dim w2 + ... +dim w,.
Teorema 5.25: Supongamos que v = WI + w2 + ... + w, (donde v tiene dimension finita) y
que
dim v = dim WI + dim w2 + .. . + dim w,
Eutonces V = W
1
EB W
2
EB EB 1,..
5.10. COORDENADAS
Sean V un espacio vectorial n-dimensional sabre un cuerpo K y
una b s ~ de V. Cualquier vector v E V puede expresarse de forma unica como combinacion lineal
de los vectores de Ia base en S, digamos
Estos n escalares a
1
, a
2
, . .. , an se denominan las coordenadas de v relativas a la base S, y forman
la n-pla [a
1
, a
2
, ... , an] en K", Hamada el vector coordenado de v relativo aS. Denotamos este
vector por [v]
5
, o simplemente [v], cuando S viene dada implicitamente. Asi
Observese que se utilizan corchetes [ .. . ], y no parentesis ( ... ), para designar el vector coordenado.
ESPACIOS VECTORIALES 187
EJEMPLO 5.15
a) Consideremos el espacio vectorial P
2
(t) de los polinomios de grado Los polinomios
p
2
= t- 1 P3 = (t - 1)
2
= t
1
- 2t + 1
forman una base S de P
2
(t ). Sea v = 2t
2
- 5t + 6. El vector coordenado de v relativo a Ia base S se
obtiene como sigue.
Tomemos v = xp
1
+ yp
2
+ zp
3
usando los escalares desconocidos x, y, z y simplifiquemos:
2t
1
- 5t + 6 = x(1) + y(t-:- 1) + z(t
2
- 2t + 1) =
= x + yt - y + zt
2
- 2zt + z =
= zt
2
+ (y - 2z)t + (x - y + z)
A continuaci6n igualemos entre si los coeficientes de las mismas potencias de t:
x-y+ z= 6
y-2z= -5
z = 2
La soluci6n del sistema anterior es: x = 3, y = -I, z = 2. De este modo,
y por tanto [v] = [3, -I, 2]
b) Consideremos el espacio real R
3
Los vectores
u
1
= (1, - I , 0) u
2
= (1, 1,0) u
3
= (0. I , 1)
forman una base S de R
3
Sea v = (5, 3, 4). Las coordenadas de v rclativas a Ia base S se obtienen
como sigue .
. Torriemos v = xu
1
+ yu
2
+ zu
3
, es decir, expresemos v como una combinaci6n lineal de los vectorcs
de Ia base usando escalares desconocidos x, y, z:
(5, 3, 4) = x(1, -1, 0) + y(1, 1, 0) + z(O, 1, 1) =
= (x, -x, 0) + (y, y, 0) + (0, z, z) =
= (x + y, - x + y +. z, z)
Despues igualemos entre si las componentes correspondientes para llegar al sistema de ecuaciones
lineales equivalentes:
x+y=5 -x + y + z = 3 z=4
. .
La soluci6n del sistema es x = 3, y = 2, z = 4. Asi
y por tanto [v)
5
= [3, 2, 4]
Existe una interpretacion geometrica de las coordenadas de un vector v relativas a una
S del espacio real Rn. Ilustramos esto utilizando Ia base de R
3
, que aparece en el Ejem-
plo 5.15:
S = {ut = (1, -1, 0), u
2
= (1, 1, 0), u
3
= (0, 1, 1)}
188 ALGEBRA LINEAL
Consideremos primero el espacio R
3
con los ejes x, y, z usuales. En ese caso, los vectores de la
base determinan un nuevo sistema de coordenadas de R
3
, digamos con ejes x', y', z', tal y como
se muestra en Ia Figura 5-4. 0 sea:
1. El eje x' esta en la direcci6n de u
1
.
2. El eje y' esta en la direcci6n de u
2
.
3. El eje z' esta en Ia direcci6n de u
3
.
Ademas, la unidad de longitud de cada uno de los ejes sera. igual, respectivamente, a la longitud
del vector de Ia base correspondiente. Asi pues, cada vector v = (a, b, c) o, equivalentemente.
cada punto P(a, b, c) en R
3
tendra unas nuevas coordenadas con respecto a los nuevos ejes x'.
y' , z'. Dichas coordenadas son precisamente las de v con respecto a Ia base S.
z
z '
6
6
/
4
/
4
/
/
/
/
/
y
4 6 8
x'
6
X
6
8
}''
v = (5, 3, 4) = [3, 2, 4]
Figura 5-4.
ISOMORFISMO ENTRE VY K"
Consideremos una baseS= {u
1
, u
1
, ... , u.} de un espacio vectorial V sobre un cuerpo K. Hemos
probado con anterioridad que a cada vector ve V le corresponde una tmica n-pla [v]
5
en K". Por
otra parte, a cada n-pla [c
1
, c
2
, ... , c.]eK" le correspondera el vector c
1
u
1
+ c
2
u
2
+ --+ c.u.
ESPACIOS VECTORI ALES 189
en V. Siendo asi, Ia base S induce una correspondencia uno-a-uno entre los vectores de V y las
de K". Mas aun, supongamos
Entonces
y
v + w = (a
1
+ b
1
)u
1
+ (a
2
+ b
2
)u
2
+ +(a,. + b,.)u,.
kv = (ka
1
)u
1
+ (ka
2
)u
2
+ + (ka,.)u,.
siendo k un escalar. De acuerdo con ello,
[v + w]s = [a
1
+ bl> ... , a,.+ b.,]= [a
1
, ... , a,]+ [bl> .. . , bJ = [v]
5
+ [w]
5
y
[kv]
5
= [kal> ka
2
, ... , ka,.] = k[a
1
, a
2
, ... , ka,.] = k[v]
5
. De este modo, Ia correspondencia uno-a-uno anterior, entre V y K", conserva las operaciories
de suma y producto por un escalar del espacio vectorial. Decimos, en tal caso, que V y Kn son
isomorfos, escrito V Kn. Establezcamos formalmente este resultado.
Teorema 5.26. Sea V un espacio vectorial n-dimensional sobre un cuerpo K. Entonces V y K"
son isomorfos.
El proximo ejemplo muestra una aplicaci6n practica de dicho resultado.
EJ EM PlO 5.16. Supongamos que queremos determinar si las siguientes matrices son o no Iinealmente
independientes:
A=(!
2 -3)
0 1
3 -4)
5 4
C=(3
16
8 -11)
10 9
Los vectores coordenados de las matrices anteriores respecto a Ia base usual [Ejemplo 5.7 a)] de M
2
.
3
son:
[A]= (1, 2, -3, 4, 0, 1) [B] = (1, 3, - 4, 6, 5, 4) [C] = (3, 8, -11, 16, 10, 9)
Construirnos Ia matriz M cuyas filas son los vectores coordenados precedentes:
('
2 -3 4 0
:)
M= 1 3 -4 6 5
. 3
8 - 11 16 10
Reducimos por filas M a forma escalonada:

2 -3 4 0

2 - 3 4 0
i)
-1 2 5 1 - 1 2 5
2 -2 4 10 0 0 0 0
Como la forma escalonada solo tiene dos fil as no nulas, los vectores coordenados [A], (B] y [C] generan un
"::bespacio de dimension 2, de modo que son linealmente dependientes. En consecuencia, las matrices
:=:::iales A, B y C son linealmente dependientes.
190 ALGEBRA LINEAL
5.11. CAMBIO DE BASE
En Ia Secci6n 5.10 se demostr6 que es posible representar cada vector de un espacio vectorial r
mediante una n-pla, una vez que se ha seleccionado una base S de V. Surge de forma natural Ia
siguiente preg.unta: ~ o m o varian! nuestra representaci6n si elegimos otra base? Para responder
debemos redefinir algunos terminos. Concretamente, supongamos que a
1
, a
2
, ,a,. son las
coordenadas de un vector v, relativas a una base S de V. En ese caso representaremos v por su
vector columna coordenado, denotado y definido por
Subrayamos el hecho de que en esta secci6n [v]s es una matriz n x 1 y no simplemente un ele-
mento de K". (El significado de [v]s estani siempre claro en este contexto.)
Supongamos que S = {u
1
, u
2
, , un} es una base de un espacio vectorial V y que
S' = { v
1
, v
2
, .. , vn} es otra. Por ser S base, cada vector de S' puede escribirse de forma 1mica
como combinaci6n lineal de los elementos de S. Por ejemplo,
v
1
= c
11
u
1
+ c
12
u
2
+ + ct. u"
V2 = C21u1 + C22U2 + + c2,uN
Denotemos por P Ia traspuesta de Ia matriz de coeficientes anterior:
0 sea, P = (pii), donde Pii = cji Esta P recibe el nombre de matriz de cambia de base (o el de
matriz de transicibn) desde Ia antigua base S hasta Ia nueva base S'.
Nota: Como los vectores v
1
, v
2
, . , v" de S' son lineal mente independientes, Ia matriz P es
invertible (Problema 5.84). De hecho (Problema 5.80), su inversa p-
1
es Ia matriz de cambio
de base desde Ia S', volviendo a Ia S.
EJEMPLO 5.17. Consideremos las dos bases de R
1
:
S = {u
1
= (1, 2), u
2
= (3, 5)} E = {e
1
= (1, 0), e
2
= (0, 1)}
e
1
= -Su
1
+ 2u
2
e
2
= 3u
1
- u
2
ESPACIOS VECTORIALES 191
Escribir los coelicientes de u
1
y u
2
como columnas proporciona Ia matriz de cambio de base P desde Ia
base S hasta Ia base usual E:
Ademas, como E es Ia base usual,
P=(-5 3)
2 - 1
u
1
= (1, 2) = e
1
+ 2e
2
u
2
= (3, 5) = 3e
1
+ 5e
2
Escribir los coe!icientes de e
1
y e
2
como columnas proporciona Ia matriz de cambio de base Q desde Ia
base E, regresando a Ia base S:
Q=G D
Observemos que P y Q son inversas:
~ = I
El siguiente teorema (demostrado en el Problema 5. 19) nos describe como son afectados los
vectores (columna) coordenad.os por un cambia de base.
T eorema 5.27: Sea P Ia matriz de cambia de base des de una base S hasta otra S' en un espacio
vectorial V. En ese caso, para todo vector v E V, tenemos
P[v]s = [v]s y, por consiguiente,
Nota: - A pesar de Ilamarse P Ia matriz de cambio de base desde Ia antigua base S hasta Ia
nueva S', es p -
1
la que transforma las coordenadas de v relativas a S en las coordenadas de v
relativas a S' .
Ilustramos el teorema precedente en el caso dim V = 3. Supongamos que P es Ia matriz de
cambio de base desde Ia base S = {u
1
, u
2
, u
3
} hasta Ia S' = {v
1
, v
2
, v
3
} ; es decir,
Por tanto,
v
1
= a
1
u
1
+ a
2
u
2
+ a
3
u
3
v
2
= b
1
u
1
+
2
u ~ + b
3
u
3
v
3
=.c
1
u
1
+c
2
u
2
+c
3
U
3
S-pongamos ahora que vE V y digamos v = k
1
v
1
+ k
2
v
2
+ k
3
v
3
Expresando lo anterior en
:..."rnlinos de v
1
, v
2
y v
2
obtenemos
V = k1(a1U1 + a2 Uz + a3 U3) + k2(b1U1 + b2 Uz + ~ U3) + k3(C1U1 + C2 Uz + C3 U3) =
= (a
1
k
1
+ b
1
k
2
+ c
1
k
3
)u
1
+ (a
2
k
1
+ b
2
k
2
+ c
2
k
3
)u
2
+ (a
3
k
1
+ b
3
k
2
+ c
3
k
3
)u
3
192 ALGEBRA LINEAL
Asi
y
De acuerdo con esto,
Asimismo, multiplicando Ia ecuacion precedente por p-t,
p -
1
[v]s = p-
1
P[v]s = I[v]s = [v]s
Nota: Supongamos que S = {u
1
, u
2
, , u,.} es una base de un espacio vectorial V sobre un
cuerpo K y que P = (pii) es una matriz no singular arbitraria sobre K. Entonces los n vectores
i=l,2, ... , n
son linealmente independientes (Problema 5.84) y por ende forman otra base S' de V. Mas aun,
P sera Ia matriz de cambio de base desde S hasta Ia nueva base S'.
PROBLEMAS RESUELTOS
ESPACIOS VECIORIALES
5.1. Demostrar el Teorema 5.1.
i) Por el axioma (A
2
] , con u = 0, sabemos que 0 + 0 = 0. Por tanto, segun el axioma [M tJ,
kO = k(O + 0) = kO + kO
Sumando -kO a ambos miembros conseguimos el resultado deseado.
ii) Una pro pied ad de K es qne 0 + 0 = 0. Por consiguiente, de acuerdo con el axioma [M
2
] ,
Ou = (0 + O)u = Ou + Ou. Sumando - Ou a ambos miembros llegamos a! resultado requerido.
iii) Supongamos que ku = 0 y k c# 0. Entonces existe un escalar k-
1
tal que k -
1
k = I , luego
u = !u = (k-
1
k)u = k-
1
(ku) = k-
1
0 = 0
iv) Utilizando u + ( -u) = 0 obtenemos 0 = kO = k(u + ( -u)) = ku + k( -u). Sumando - ku a
ambos miembros, -ku = k( -u).
Usando k + ( -k) = 0 obtenemos 0 = Ou = (k + ( -k))u = ku + ( - k)u. Sumando - ku a
ambos miembros, -ku = ( - k)u. De este modo, ( -k)u = k( - u) = - ku.
ESPACIOS VECTORIALES 193
5.2. Probar que para todo escalar k y todo par de vectores u y v, k(u- v) = ku- kv.
Utilizamos Ia definicion de resta u- v = u + (-v) y el resultado k( - v) = -kv para obtener:
Jd.u- v) = k(u + {-v)) = ku + Jd.-v) = ku + (-kv) = ku- kv
5.3. Sea Vel conjunto de todas las fuociones de un conjunto no vacio X en un cuerpo K.
Para to do par de funciones f, g E V y todo escalar k E K, sean f + g y kf las funciones
en V definidas como sigue:
(f + g)(x) = f(x) + g(x) y (kfXx) = kf(x) '<lx e X
Demostrar que V es un espacio vectorial sobre K.
Como X es no vacio, tambien lo sera V. Necesitamos ahora probar que se verifican todos los
axiomas de un espacio vectorial.
[A
1
] Sean f, g, he V. Para demostrar que (f + g) + h = f + (g + h) es necesario comprobar que
las dos funciones asignan el mismo valor a cad a x eX. Ahora bien,
((f + g) + h)(x) = (f + g)(x) + h(x) = (f(x) + g(x)) + h(x)
(f + (g + h))(x) = f(x) + (g + h)(x) = f(x) + (g(x) + h(x))
'<lx eX
Vxe X
Pero j(x), g(x) y h(x) son escalares en el cuerpo K , donde Ia suma de escalares es asociativa;
de aqui
(f(x) + g{x)) + h(x) = f(x) + (g(x) + h(x))
De acuerdo con esto, (f +g)+ h = f + (g +h).
[A
2
] Denotemos por 0 Ia funci6n cera: 0 (x) = 0, 'he X . Para cada funci6n f e V,
(f + O)(x) = f(x) + O(x) = f(x) + 0 = f(x) Vx e X
Asi pues, f + 0 = f y 0 es el vector cero en V.
[A
3
] Para cada fnnci6n je V, sea -f Ia funci6n defi nida por ( - f)(x) = - f(x). Entonces
(f + ( -f))(x) = f(x) + ( - f)(x) = f(x)- f(x) = 0 = O(x) Vx eX
De aqui f + (-f) = 0.
[A
4
] Sean f, g e V En tal caso,
(f + g)(x) = f(x) + g(x) = g(x) + f(x) = (g + j)(x) VxeX
Por tanto,/+ g = g + f [N6tese quef(x) + g(x) = g(x) + j(x) deriva del hecho de quef(x)
y g(x) son escalares en el cuerpo K, en el que Ia suma es conmutativa.]
[Md Seanf, geK. Tendremos
(k(f + g))(x) = Jd.(f + g)(x)) = k(f(x) + g(x)) = kf(x) + kg(x) =
= (kj)(x) + kg)(x) = (kf + kg)(x) Vx e X
En consecuencia, k(f +g)= kf +kg. [N6tese que k(f(x) + g(x)) = kf{x) + kg(x) se sigue
del hecho de que k, j(x) y g(x) son escalares en el cuerpo K, donde el producto es distributivo
respecto a Ia suma.]
[M
2
] Sean je Vy a, beK. Entonces
((a + b)f)(x) = (a + b)f(x) = af(x) + bj(x) = (tif)(x) + bj(x) =
= (af + bf)(x), Vx e X
Por consiguiente, (a + b)f = af + bf
194 ALGEBRA LINEAL
[M
3
] Scan fe V y a, beK. Entonces
((ab)j)(x) = (ab)/(x) ,.. a(bf(x)) = a(bj)(x) = (a(bf))(x)
Por tanto, (ab )/ = a(bf).
VxeX
[M
4
] ScafeJI. Para Ia unidad leK, {lf}(x) = !f(x))=f(x), VxeX. Asi lf = .f
Como se satisfacen todos los axiomas, V es un espacio vectorial sobre K.
SUBESPACIOS
5.4. Demostrar el Teorema 5.2.
Supongarnos que W satisface i), ii) y iii). Por i), W es no vacio, rnientras que por ii) y iii), las
operaciones de surna vectorial y producto por un escalar estan bien definidas sobre W. Ademas, los
axiomas [A
1
] , [A
4
], [Md, [M
2
), [M
3
] y [M
4
] se verifican en W, puesto que los vectores deW perte-
necen a V. Por tanto, solo necesitamos probar que [A
2
] y [A
3
] tambien se verifican en W Poe i),
W es no vacio, digamos u e W Entonces, por iii), Ou = 0 e W y v + 0 = v para todo L' e W, luego
W satisface [A
2
]. Finalmente, si ve W, necesariamente ( - l)v = - ve W y v + (- v) = 0; por consi-
guiente, W es un subespacio de V. Reciprocarnente, si W es un subespacio de V, es claro que se
verifican i), ii) y iii).
5.5. Dernostrar el Corolario 5.3.
Supongamos que W satisface i) y ii). De acuerdo con i), W es no vacio. Ademas, si v, we W,
entonces, por ii), v + w =tv+ I we W; y si ve W y keK, por ii), kv = kv + Ove W. Asi, segun el
Tcorema 5.2, W es un subespacio de V.
Reciprocamente, si W es un subespacio de V, clararnente se vcrifican i) y ii) en W.
5.6. Probar que Wes un subespacio de R
3
, donde W= {(a, b, c): a+ b + c = 0}, esto es, W
consiste en aquellos vectores con la propiedad de que la suma de sus componentes es cero.
0 = (0, 0, 0) e W porque 0 + 0 + 0 = 0. Supongamos que v = (a, b, c), w = (a', b', c' ) pertenecen
a W, es decir, a + b + c = 0 y a' + b' + c' = 0. Entonces, para dos c ~ c l r e s cualesq_uiera k y k',
kv + k'w = k(a, b, c)+ k'(a', b', c') = (ka, kb, kc) + (k'a', k'b', k'c') = (ka + f<a', kb + k'b', kc + k'c')
y, ademas,
(ka + k'a') + (kb + k'b') + (kc + k'c') = k(a + b +c)+ k'(a' + b' + c') = kO + k'O = 0
De este modo, kv + k'we W y por tanto W es un subespacio de R
3
.
.
5.7. Sea V el espacio vectorial de todas las matrices cuadradas n x n sobre un cuerpo K.
Mostrar que W es un subespacio de V, donde:
a) W consiste en las matrices simetricas, es decir, todas las matrices A = (aii) para las
que ai; = all"
b) W consiste en todas las matrices que conmutan con una matriz dada T; esto es,
W ={A e V : AT= T A}
a) 0 e W, ya que todas las entradas de 0 son 0 y por tanto iguales. Supongamos ahora que
A = (a;i) y B = (h;) per'tenecen a W, o sea, a
11
= ail y bii = b;
1
. Para todo par de escalares a,
ESPACIOS VECTORIALES 195
bE K, a A + bB es Ia matriz cuya entrada ij es aaii + bbiJ. Pero aaii + bbJI = aa,i + bbii. Siendo
asi, aA + bB es tam bien simetrica, de modo que W es un subespacio de V.
b) Oe W. puesto que OT= 0 = TO. Supongamos ahora que A, Be W, es decir, AT= TA y
BT= TB. Para todo par de escalares a, b e K,
(aA + bB)T = (aA)T + (bB)T = a( AT) + b(BT) = a(T A) + b(T B)=
= T(aA) + T(bB) = T(aA + bB)
De este modo. aA + bB cone1uta con T, o sea, pertenece a W; por consiguiente, W es un
subespacio de V.
5.8. Sea Vel espacio vectorial de todas las matrices 2 x 2 sobre el cuerpo real R. Probar que
W no es un subespacio de V si:
a) W consiste en todas las matrices con determinante nulo.
b) W consiste en todas las matrices A para las que A
2
= A.
a) [ Recuerdese que det(; be.] Las matrices A= G y B = G pertenecen
a W, pues det (A)= 0 y det (B) = 0. Sin embargo, A+ B = G no pertenece a W debido
a que det (A + B) = 1. Por tanto, W no es un subespacio de V.
b) La unidad a W, ya que
Il = G = G
Pero 2I = no pertenece a W porque
(2/)
1
= G = G * 21
En consecuencia, W no es un subespacio de V.
5.9. Sea Vel espacio vectorial de todas las funci ones del cuerpo real R en R. Probar que W
es un subespacio de V, donde W consiste en todas las funciones impares, esto es, aquellas
funciones f para las que f( -x) = - f(x).
Denotemos por 0 Ia funci6n cero: O(x)=O para todo xE R. Oe Wpuesto que 0( - x)=O= - 0= -O(x).
Supongamos f, gE W, o sea, f( - x) = - f(x) y g( -x) = -g(x). Para dos numeros reales cuales-
quiera a y b,
(af + bgX -x) = af( -x) + bg( -x) = -af(x) - bg(x) = -(af(x) + bg(x)) = -(af + bgXx)
Asi pues, af + bg E W y por consiguiente W es un subespacio de V.
5.10. Sea Vel espacio vectorial de los polinomios a
0
+ a
1
t + a
2
t
2
+ --- +ant" con coeficientes
reales, es decir, a; E R. Determinar si W es o no un subespacio de V, donde:
a) W consiste en todos los polinomios con coeficientes enteros.
196 ALGEBRA LINEAL
b) W consiste en todos los polinomios de grade
c) W consiste en todos los polinomios en los que solo aparecen potencias pares de r.
d) W consiste en todos los polinomios que tienen por raiz a j=l.
a) No, porque los multiplos escalares de los vectores en W no siempre pertenecen a W. Po::-
ejemplo,
V = 3 + 5t + 7t
2
E W pero
(Observese que W es cerradm> bajo Ia suma vectorial, esto es, las sumas de elementos de W
pertenecen a W. )
b), c) y d) Si , puesto que, en cada caso, W es no vacio, Ia suma de elementos de W pertenccc a W
y los multiplos escalares de cualquier elemento de W pertenecen a W.
5.11. Demostrar el Teorema 5.4.
Sean { W;: i E J} una coleccion de subespacios de v y w = n (I;: i E 1). Dado que cada W; es un
subespacio, 0 E W. para todo i E I. Por tanto, 0 E W Supongamos que tl, ve W. En ese caso, u, v E
para todo i E 1. Como cad a W; es un subespacio, au + bv E W; para cada i E 1. Por consiguiente.
- au+ bvE W. De este modo, W es un subespacio de V.
COMBINACIONES LINEALES. ENVOL VENTES LINEALES
5.12. Expresar v = (1, -2, 5) en R
3
como combinacion lineal de los vectores u
1
, u
2
, u
3
, siendo
u
1
= (1, - 3, 2), u
2
= (2, -4, -1), u
3
= (1 , - 5, 7).
Primero tomamos
(1, -2, 5) = x(1, - 3, 2) + y(2, - 4, -1) + z(l, -5, 7) = (x + 2y + z, -3x- 4y- 5z, 2x- y + 7z)
Foimamos el sistema de ecuaciones cquivalente y Jo reducimos a forma escalonada:
X + 2y + Z = l X + 2y + Z = 1 X + 2y + Z = 1
- 3x - 4y - 5z = -2 o 2y - 2z = 1 o 2y - 2z = 1
2x - y+7z= 5 -5y+5z = 3 0 =11
El sistema no tienc solucion. De aqui que v no sea combinacion lineal de u
1
, u
2
, u
3

5.13. Expresar el polinomio sobre R v = t
2
+ 4t- 3 como combinacion lineal de los polinomios
p
1
= t
2
- 2t + 5, p
2
= 2t
2
- 3t, p
3
= t + 3.
Tomamos v como combinacion lineal de p
1
, p
2
, p
3
utilizando incognitas x, y, z:
t
1
+ 4t - 3 = x(t
2
- 2t + 5) + y(2t
2
- 3t) + z(t + 3) =
= xt
1
- 2xt + 5x + 2yt
2
- 3 yt + zt + 3z =
= (x + 2y)t
2
+ (-2x - 3y + z)t + (Sx + 3z)
lgualamos entre si los coeficientes de las mismas potencias de c y reducimos el sistema a forma
escalonada:
X+ 2y
-2x-3y+ z= 4
5x + 3z = -3
0
X+ 2y 1
y+ z = 6
- 10y+3z = -8
0
X+ 2y = 1
y + z = 6
13z =52
El sistema esta en forma triangular y tiene solucion. por sustitucion hacia atr:.'ls conduce
ax= -3, y = 2, z = 4. Asi pues, v = -3p
1
+ 2p
2
+ 4p
3
.
ESPACIOS VECTORIALES 197
5.14. Escribir Ia matriz E = G
1
) como lineal de las matrices
-1
A=G

B=
(
0
l
y
Tomamos E como combinaci6n lineal de A, B, C usando las incognitas x, y, z: E = xA + yB + zC.
-D=
0) (0 2z) ( x
y + 0 -z = x + y
x + 2z)
y-z
Construimos el sistema de ecuaciones equivalente igualando entre si las entradas correspondientes:
x = 3 x + y = 1 x + 2z = I y - z = -1
Sustituimos x = 3 en las ecuaciones segunda y tercera para obtener y = - 2 y z = - I. Como
estos valores tambien satisfacen Ia ultima ecuaci6n, forman una soluci6n del sistema. Por tanto,
E = 3A - 28- C.
5.15 . . Encontrar una condici6n a imponer sabre a, b, c para que w =(a, b, c) sea combinaci6n
lineal de u = (1, - 3, 2) y v = (2, - 1, 1), esto es, para que w pertenezca a lin (u, v).
Tomamos w = xu + yv utilizando incognitas x e y:
(a, b, c)= x(l, -3, 2) + y(2, -1, 1) = (x + 2y, -3x - y, 2x + y)
Construimos el sistema equivalente y lo reducimos a forma escalonada:
x + 2y =a
- 3x- y = b
2x+ y =c
0
x + 2y = a
Sy = 3a + b
-3y = -2a + c
x + 2y = a
0 Sy = 3a + b
0= -a+ 3b + Sc
El sistema es compatible si y solo si a - 3b - 5c = 0, luego w es combinacional lineal de u y v
cuando a - 3b - 5c = 0.
5.16. Demostrar el Teorema 5.6.
Supongamos que S es vacio. Por definici on, lin S = {0}. Por consiguiente, lin S = {0} es un
subespacio y S,;;;; lin S. Supongamos que S es no vado y que veS. En ese caso, lv = vE iin S; por
tanto, S es un subconjunto de lin S. Siendo asi, lin S es no vacio porque S es no vacio. Supongamos
ahora que v, we lin S, por ejemplo
y
donde V;, wiE S y ai, b
1
son escalares. Entonces
V + W = a
1
V
1
+ ' ' ' + a,. V,. + b
1
WI + ' '. + b. W
0
y, para cualquier escalar k,
kv = k(a
1
v
1
+ + a.,v..) = ka
1
v
1
+ + ka,.v.,.
pertenecen a lin S, puesto que cada uno es combinacion lineal de vectores en S. Asi lin S es un
subespacio de V. ;
198 ALGEBRA LINEAL
Ahora supongamos que W es un subespacio de V que contiene S y que v
1
, , v .. e S c;; W. En
tal caso, todos los multiplos a
1
v
1
, . , a .. v.,e W, donde a;EK, y Ia suma a
1
v
1
+ + a .. v .. e W. Esto
es, W contiene todas las combinaciones lineales de elementos de S. En consecuencia, lin S es un
subespacio de W, como se pretendia.
DEPENDENCIA LINEAL
5.17. Determinar si u = I - 3t + 2t
2
- 3t
3
y v = - 3 + 9t - 6t
2
+ 9t
3
son linealmente depen-
dientes.
Dos vectores son linealrnente dependientes si y solo si uno es un multiplo del otro. En este caso,
v = -3u.
5.18. Determinar si los siguientes vectores en R
3
son o no linealmente dependientes:
u = (1, -2, 1), v = (2, 1, -1), w = (7, -4, 1).
Metodo l. lgualamos a cero una combinaci6n lineal de los vectores con escalares desconocidos x,
y y z:
x(l, -2, 1) + }(2, 1, -1) + z(7, -4, 1) = (0, 0, 0)
Entonces
(x, -2x, x) + (2y, y, - y) + (7z, -4z, z) = (0, 0, 0)
o sea,
(x + 2y + 7z, - 2x + y - 4z, x - y + z) = (0, 0, 0)
lgualarnos entre si las componentes correspondientes para llegar al sistema homogeneo equivalente
y lo reducimos a forma escalonada:
x + 2y + 7z = 0
-2x+ y -4z =0
x- y+ z=O
0
x + 2y + 7z = 0
5y + lOz = 0
-3y- 6z=0
0
x + 2y + 7z = 0
y+2z=O
El sistema, en fo rma escalonada, tiene unicarnente dos ecuaciones no nulas en las tres incognitas,
de aqui que el sistema tenga una solucion no nula. Asi que los vectores originales son linealmente
dependientes.
Metodo 2. Construimos Ia matriz cuyas filas son los vectores dados y Ia reducimos a forma esca-
lonada utilizando las operaciones elementales entre filas:
(
~ - ~ ~ ) - ( ~ -! ~ ) - ( ~ - ~ - ~ )
7 - 4 1 0 10 -6 0 0 0
Dado que Ia matriz escalonada tiene una fila nula, los vectores son linealmente dependientes. (Los
tres vectores dados generan un espacio de dimension 2.)
5. 19. Considerese el espacio vectorial P(t) de los polinomios sabre R. Determinar si los polino-
mios u, v y w son linealmente dependientes, siendo u = t
3
+ 4t
2
- 2t + 3, v = t
3
+ 6t
2
- t + 4,
w = 3t
3
+ 8t
2
- 8t + 7.
ESPACIOS VECTORIALES 199
Igualamos al polinomio cero una combinacion lineal de u, v y w con escalares desconocidos x ,
y y z; esto es, tomamos xu + yv + zw = 0. Entonces
0
0
x(t
3
+ 4t
2
- 2t + 3) + t
3
+ 6t
2
- t + 4) + z(3t
3
+ 8t
2
- 8t + 7) = 0
xt
3
+ 4xt
2
- 2xt + 3x + yt
3
+ 6yt
1
- yt + 4y + 3zt
3
+ 8zt
2
- 8zt + 7z = 0
(x + y + 3z)t
3
+ (4x + 6y + 8z)t
2
+ (-2x- y- 8z)t + (3x + 4y + 7z) = 0
Igualamos a cero los coeficientes de cada potencia del y reducimos el sistema a forma escalonada:
x + y + 3z = 0
4x + 6y + 8z = 0
-2x - y- 8z = 0
3x + 4y + 7z = 0
0
x + y + 3z = 0
2y- 4z = 0
y - 2z = 0
y- 2z = 0
o finalmente
x + y + 3z = 0
y- 2z = 0
El sistema en forma escalonada tiene una variable libre y por tanto alguna soluci6n no nula. Hemos
probado que xu + yv + zw = 0 no implica x = 0, y = 0, z = 0, luego los polinomios son linealmente
independientes.
5.20. Sea V el espacio vectorial de las funciones de R en R. Pro bar que j, g, h E V son
linealmente independientes, donde f(t) = sen t, g(t) = c o ~ t, h(t) = t.
Igualamos a Ia funci6n cero, 0, una combinaci6n lineal de las funciones con escalares desconocidos
x. y y z: xf + yg + zh = 0, para luego demostrar que, necesariamente, x = 0, y = 0, z = 0. Hacemos
enfasis en que xf + yg + xh = 0 quiere decir que, para coda valor de t, xf(t) + yg(t) + xh(t) = 0.
En Ia ecuaci6n x sen t + y cos t + zt = 0 sustituimos
t=O
t = n/2
t=n
para obtener
para obtener
para obtener
x 0 + y I + z 0 = 0 o sea y = 0
x I + y 0 + zn/2 = 0 o sea x + nz/2 = 0
x 0 + y( - 1) + z rr = 0 o sea - y + nz = 0
{
y=O
Resolvemos el sistema x + nz/2 = 0 y conseguimos Ia soluci6n unica: x = 0, y = 0, z = 0.
-y+nz=O
Por consiguiente, f, g y h son linealmente independientes.
5.21. Sea Vel espacio vectorial de las matrices 2 x 2 sabre R. Deterrninar si las matrices A, B,
C E V son linealmente dependientes, siendo:
A=G ~ B=G ~
Igualamos a Ia matriz cero una combinaci6n lineal de A. B y C con escalares desconocidos x, y
y z; es decir, tomamos xA + yB + zC = 0.
(
1
X 1
es decir,
200 ALGEBRA LI NEAL
lgualamos entre si las componentes correspondientes para llegar al sistema de ecuaciones lineales
equivalente:
x+ y + z=O x+ z= O x=O x + y=O
Resolviendo el sistema obtenemos unicamente Ia solucion nula: x = 0, y = 0, z = 0. Hemos demos-
trade que xA + yB + zC = 0 implica x = 0, y = 0, z = 0; por tanto, las matrices A, B y C son
linealmente independientes.
5.22. Sup6ngase que u, v y w son vectores linealmente independientes. Probar que tambien lo
son u + v, u - v y u - 2v + w. -
Supongamos x(u + v) + y(u - v) + z(u - 2v + w) = 0, donde x, y y z son escalares. Entonces
x u + x v + yu - yv + zu - 2zv + zw = 0
o sea,
(x + y + z)u + (x - y - 2z)v + zw = 0
Pero u, v y w son linealmente independientes, por lo que los coe!icientes en Ia relacion anterior son
todos 0:
x+y+ z =O
x - y - 2z = 0
z=O
La (mica solucion del sistema precedente es x = 0, y = 0, z = 0. En consecuencia, u + v, u - v y
u - 2v + w son linealmente independientes.
5.23. Demostrar que los vectores v = (1 + i, 2i) y w = (l , 1 + i) en C
2
son linealmente
dependientes sobre el cuerpo complejo C, pero 1inealmente independientes sobre el cuerpo
real R.
Recordemos que dos vectores son linealmente dependientes (sobre un cuerpo K) si y solo si uno
de ellos es multiplo de otro (por un elemento de K). Como
(1 + i)w = (1 + iXl, 1 + i) = (1 + i, 2i) = v
v y w son linealmente dependientes sobre C. Por el contrario, v y w son linealmente independientes
sobre R, ya que ningun multiplo real de w puede ser igual a v. Concretamente, cuando k es real,
Ia primera componente de k w = (k, k + ki) es real y nunca puede ser igual a Ia primera componente
I + i de v, que es compleja.
BASES Y DIMENSION
5.24. Determinar si (1, 1, 1), (1, 2, 3) y (2, -1, 1) constituyen una base del espacio vectorial R
3
_
Los tres vectores Forman una base si y solo si son linealmente independientes. Construimos Ia
matriz A cuyas filas son los vectores dados y Ia reducimos por !ilas a forma escalonada:
1
2
-1
~ ) - ~ 1 ~ ) - ~ 1 . ~ )
1 0 - 3 -1 0 0 5
La matriz escalonada no tiene fil as nulas, luego los tres vectores son linealmente independientes y
en consecuencia forman una base de R
3
.
ESPACIOS VECTORIALES 201
5.25. Determinar si (1, l, I, 1), (1, 2, 3, 2), (2, 5, 6, 4) y (2, 6, 8, 5) forman una base de R
4
.
Construimos La matriz A cuyas filas son los vectores dados y Ia reducimos por filas a fo rma
escalonada:

1 1

1

1

1
i)
2 3 1 2 1 2 1 2
5 6 3 4 0 - 2 0 2
6 8 4 6 0 -2 -1 0 0 0
La matriz escalonada tiene una fil a nula; por consiguiente, los cuatro vectores son linealmente
dependientes y no constituyen una base de R
4
.
5.26. Considerese el espacio vectorial P"(t) de los polinomios en t de grado S.n. Determinar
si l + t, t + t
2
, t
2
+ t
3
, , tn - t+ tn forman o no una base de Pn(t ).
Los polinomios son linealmente independientes, pues cada uno de ellos es de grado mayor que
los precedentes. Sin embargo, hay solo n polinomios y dim P,(t) =II+ I. Por tanto, los polinomios
no constituyen una base de P,(t).
5.27. Sea Vel espacio vectorial de las matrices reales 2 x 2. Determinar si
D =
constituyen una base de V.
Los vect ores coordenados (vease Ia Seccion 5.10) de las matrices respecto a Ia base usual son,
respectivamente,
[A] = (1, 1, 0, 0) [B] = (0, 1, 1, 0) [C] = (0, 0, 1, 1) [D] = (0, 0, 0, 1)
Estos vectores coordenados forman una matriz en forma escalonada y por consiguiente son .
mente independientes. De este modo, las cuatro matrices correspondientes son linealmente indepen-
dientes. Mas a\m, como dim V = 4, forman una base de V
5.28. Sea Vel espacio vectorial de las matrices simetricas 2 x 2 sobre K. Mostrar que dim V = 3.
[Recuerdese que A = (ai) es simet rica si y solo si A =AT o, equivalentemente, aij = ajil
Una matriz simetrica 2 x 2 arbitraria es de Ia forma A = (:
que hay t res variables.) Tomando
"i) a = 1, b = 0, c = 0, . ii) a = 0, b = 1, c = 0,
obtenemos las respectivas matrices
b) , donde a, b, cEK. (Notese
c .
iii) a = 0, b = 0, c = 1
Demostremos que {E
1
, E
2
, E
3
} es una base de V, o sea, que a) genera V y b) es linealmente
independiente.
202 ALGEBRA LINEAL
a) Para Ia matriz ar bitraria anterior A en V tenemos
A=(: !) = a1 + bE2 + cE3
Asi pues, { E
1
,
2
,
3
} genera V.
b) Supongamos que x
1
+ y
2
+ z
3
= 0, donde x, y, z son escalares desconocidos. Esto es.
supongamos que
Igualando ent re si las componentes correspondientes obtenemos x = 0, y = 0, z = 0. En otras
palabras,
implica X = 0, y = 0, Z = 0
De acuerdo con ello, {
1
,
2
,
3
} es linealmente independiente.
De este modo, {
1
,
2
,
3
} es una base de V y por tanto Ia dimension de V es 3.
5.29. Considerese el cuerpo complejo C que contiene el cuerpo real R que, a su vez, contiene e_I
cuerpo racional Q. (C es un espacio vectorial sobre R y R un espacio vectorial sabre Q.)
a) Probar que C es un espacio de dimension 2 sabre R.
b) Probar que R es un espacio de dimension infinita sobre Q.
a) Afirmamos que {I, i} es una base deC sobre R. Ello se debe a que si veC, v =a + bi =a I+ b i
con a, b E R; es decir, {I, i} genera C sobre R. Ademas, si x l + y i = 0 o x + yi""' 0, donde
x , ye R, necesariamente x = 0 e y = 0; esto es, {I, i} es linealmente independiente sobre R. De
este modo, {I , i} es base de C sobre R y C es de dimension 2 sobre R.
b) Afirma mos que, para todo 11, {1, n, n
2
, ... , n"} es linealmente independiente sobre Q. Supon-
gamos a
0
l +a
1
n+a
2
n
2
+ .. +a.n"=0, donde los ai E Q y no todos los ai son 0. En tal
caso, n es una raiz del siguiente polinomio no nulo sobre Q: a
0
+ a
1
x + a
2
x
2
+ ... + a.x".
Pero puede demostrarse que rr es un numero trascendente, o sea, que no es raiz de ningun
polinomio no nulo sobre Q. En consecuencia, los 11 + I numeros reales I , rr, n
2
, n" son
linealmente independientes sobre Q. Asi, para cualquier 11 finito, R no puede ser de dimension
11 sobre Q; R es de dimension infinita sobre Q.
5.30. Sea S = { u
1
, u
2
, ... , u.} un subconjunto de un espacio vectorial V. Demostrar que las dos
condiciones siguientes son equivalentes: a) S es linealmente independiente y genera V,
b) to do vector v E V puede escribirse de forma unica como combinacion lineal de vectores
deS.
Supongamos que se verifica a). Como S genera V, el vector v sera combinaci6n lineal de los u,;
digamos
Supo ngamos que tenemos tambien
Restando llegamos a
ESPACIOS VECTORIALES 203
Ahora bien, los ui son linealmente independientes; por tanto. los coeficientes en Ia relaci6n anterior
son todos 0:
Por consiguiente, a
1
= b
1
, a
2
= b
2
, ,a"= b"; Iuego Ia representaci6n de v como combinaci6n
lineal de los ui cs (mica. Siendo asi, a) implica b).
Supongamos que se verifica b). Entonces S genera V. Supongamos
No obstante, tenemos
0 = Ou
1
+ Ou
2
+ ... + Ou"
Por hip6tesis, Ia representaci6n de 0 como combinaci6n lineal de los ui es unica, por lo que cada
ci = 0 y los u
1
son linealmente independientes. Asi b) implica a).
DIMENSION Y SUBESPACIOS
5.31. Hallar una base y Ia dimension del subespacio W de R
3
, donde:
a) W = {(a, b, c): a + b + c = 0}, b) W = {(a, b, c): a= b = c},
c) W =(a, b, c): c = 3a}
a) N6tese que W #- R
3
, dado que, por ejemplo, (I, 2, 3) W. Por tanto, dim W < 3. N6tese,
asimismo, que u
1
= (1, 0, -I) y u
2
= (0, 1, -I) son dos vectores linealmente independientes
en W. De este modo, dim W = 2 y 11
1
y u
2
forman una base de W.
b) El vector u = (I, I, l)E W. Todo vector wE W es de Ia forma w = (k, k, k), luego w = ku. Asi
u genera W y dim W = I.
i:) W #- R
3
porque, por ejemplo, (I, I, 1) W. Entonces dim W < 3. Los. vectores u
1
= (1 , 0, 3)
y 11
2
= (0, I, O) pertenecen a W y son linealmente independientes. Por tanto, dim W = 2 y
u
1
y u
2
constituyen una base de W.
5.32. Encontrar una base y Ia dimension del subespacio W de R
4
generado por
u
1
=(I, -4, -2, I), u
2
=(I, - 3, -I, 2), u
3
= (3, -8, -2, 7)
Aplicamos el Algoritmo 5.8A del espacio fila. Construimos una matriz en Ia que las filas son los
vectores dados y Ia reducimos por filas a forma escalonada:
(3
11 -4 -2
-3 -1
-8 -2
1) (1 -4 -2
2 - 0 1 1
7 0 4 4
1) (l -4 -2
1 - 0 1 l
4 0 0 0
i)
Las lilas no nulas de Ia matriz escalonada forman una base de W, de modo que dim W = 2. En
particular, esto significa que los tres vectores originales son linealmente dependientes.
5.33. Sea W el subespacio de R
4
generado por los vectores
u
1
=(I, -2, 5, -3), u
2
= (2, 3, I, -4) u
3
= (3, 8, -3, -5)
a) Hallar una base y Ia dimension de W. b) Extender Ia base de W a una del espacio
R
4
completo.
204 ALGEBRA LINEAL
a) Construimos Ia matriz A cuyas filas son los vectores dados y Ia reducimos por filas a forn:z
escalon ada:
(
1 - 2
A= 2 3
3 8
5 -3) (1
1 -4 - 0
-3 -5 0
-2
- ~ - ~ ) - ~ - ~ - ~ - ~ )
14 -18 4 . 0 0 0 0
7
Las filas no nul as ( I, -2, 5, - 3) y (0, 7, - 9, 2) de Ia matriz escalonada forman una base del
espacio fila de A y por ende W. Asi, en particular, dim W = 2.
b) Buscamos cuatro vectores linealmente independientes que incluyan los dos anteriores. Los
vectores (1 , - 2, 5, -3), (0, 7, - 9. 2), (0, 0, 1, 0) y (0, 0, 0. 1) son linealmente independientes
(porque forman una matriz escalonada) y constituyen, pues, una base de R
4
que es una exten-
sion de Ia de W.
5.34. Sea W el subespacio de R
5
generado por los vectores 11
1
= (1, 2, - 1, 3, 4), u
2
= (2, 4, -2, 6, 8).
u
3
= (1, 3, 2, 2, 6), u
4
= ( 1, 4, 5, 1, 8) y u
5
= (2, 7, 3, 3, 9). Hallar un subconjunto de
los vectores que sea base de W.
Metodo 1. Aqui empleamos el Algoritmo 5.88 de expulsion. Construimos !a matriz cuyas columnas
son los vectores dados y Ia reducimos a forma escalonada:
1 2 1 2 1 2 1 2 2 1 2
2 4 3 4 7 0 0 2 3 0 2 3
- 2 2 5 3 0 0 3 6 5 0 0 0 -4
6 2 1 3 0 0 -1 -2 -3 0 0 0 0
4 8 6 8 9 0 0 2 4 0 0 0 -5
2 1 1 2
0 0 1 2 3
0 0 0 0 -4
0 0 0 0 0
0 0 0 0 0
Las posiciones de los pivotes estan en las columnas C
1
, C
3
y C
5
Por consiguiente, los vectores
correspondientes 11
1
, 11
3
y u
5
forma n una base de W y dim W = 3.
Metodo 2. Aqui utilizamos una ligera modificacio n del Algoritmo 5.8A del espacio fila. Construi-
mos Ia matriz cuyas filas son los vectores dados y Ia reducimos a forma escalo nada pero sin
intercambiar ninguna fila nula:
1 2 - 1 3 2 -1 3 2 -1 3 4
2 4 -2 6 0 0 0 0 0 0 0
3 2 2 3 -1 0 1 3 -1 2
1 4 5 1 8 2 6 -2 0 0 0 0 0
2 7 3 3 0 3 5 -3 0 0 - 4 0 -5
Las filas no nul as son Ia primera, tercera y quinta; lucgo u
1
, u
3
y u
5
forman una base de W. De
este modo, en particular. dim W = 3.
ESPACIOS VECTORIALES 205
5.35. Sea Vel espacio vectorial de las matrices reales 2 x 2. Encontrar Ia dimension y una base
del subespacio W de V generado por
A= ( 1
-1
C=G
~ ~ )
D = ( 3
-2
Los vectores coordenados (vease Ia Secci6n 5.10) de las matrices dadas respecto a Ia base usual
de V son los siguientes:
[A}= [1, 2, -1, 3] [B] = [2, 5, 1, -1] [C] = [5, 12, 1, 1] [D] = [3, 4, - 2, 5]
-Formamos una matriz cuyas filas sean los vectores coordenados y Ia reducimos a forma escalonada:
(j
2 -1
5
12
4 - 2
~ - ~ - ~ )
0 0 0
0 7 -18
} ~
Las lilas no nulas son linealmente independientes, por lo que las matrices asociadas (
1 2
) .
- 1 3
.(
0 1
) y (
0 0
) constituyen una base de W y dim W = 3. (N6tese tambien que A, B y D
3 -7 7 -18
forman una base de W.)
TEOREMAS SOBRE DEPENDENCIA LINEAL, BASES Y DIMENSION
5.36. Demostrar el Lema 5.1 0.
Como los vi son linealmente dependientes, ex is ten escalares a
1
, ... , a.., , no todos 0, tales que
a
1
v
1
+ -- - + a ... v ... = 0. Sea k el mayor entero tal que ak c# 0. En ese caso,
0
Supongamos que k = I ; entonces a
1
v
1
= 0, a
1
c# 0, luego v
1
= 0. Pero los vi son vectores no nulos;
por tanto, k > I y
Esto es, vk es una combinaci6n lineal de los vectores precedentes.
5.37. Demostrar el Teorema 5.11.
Supongamos que R., R._
1
, .. . , R
1
son linealmente dependientes. Una de las lilas, digamos R ... ,
debe ser combinaci6n lineal de las precedentes:
Sea ahora Ia k-esima componente de R., su primera entrada no nula. En tal caso, dado que Ia matriz
esta en forma escalonada, las componentes k-esimas de R,. +
1
, ... , R. son todas 0 y Ia componente
k-esima de ("') es, pues,
a,.,+
1
0 + a,+
2
0 +--+a. 0 = 0
Pero esto contradice Ia suposici6n de que Ia componente k-esima de R,. no es 0. Por consiguiente.
R
10
... , R,. son Jinealmente independientes.
206 ALGEBRA LINEAL
5.38. Sup6ngase que { v
1
, ... , v,} genera un espacio vectorial V. Se pi de demostrar:
a) Si w E V, entonces { w, v
1
, ... , v,} es linealmente dependiente y genera V.
b) Si v
1
es una combinaci6n lineal de los vectores (v
1
, v
2
, . , v
1
_
1
), entonces
{v
1
, ... , v
1
_
1
, v
1
+
1
, ... , v,} genera V.
a) El vector w es una combinacion lineal de los v
1
ya que { v
1
} genera V. De acuerdo con ello.
{w, v
1
, , v,} es linealmente dependiente. Obviamente, w y los v
1
generan V, puesto que ya lo
hacian los v
1
por si mismos. 0 sea, { w, v
1
, , v, } genera V.
b) Supongamos v
1
= k
1
v
1
+ + k
1
_
1
v,_,. Sea u e V. Como { vJ genera V, u es una combinacion
lineal de los V;, por ejemplo, u =a, v, + ... + amv,. Sustituyendo V; obtenemos
u = a
1
v
1
+ + a
1
_
1
v
1
_
1
+ a,{k
1
v
1
+ + k
1
_
1
v
1
_
1
) + ai+
1
vl+
1
+ + a,.v., =
= (a
1
+ a
1
k
1
)v
1
+ + (a
1
_
1
+ a
1
k
1
_
1
)v
1
_
1
+ a;+
1
v
1
+
1
+ + a.,v,.
Asi {v
1
, , v
1
_
1
, v
1
+
1
, , v,} genera V. En otras palabras, podemos suprimir v
1
del conjunto
generador y tener todavia un conjunto generador.
5.39. Demostrar el Lema 5.13.
Basta demostrarlo en el caso de que los v
1
no sean todos 0. (Pruebese.) Como los v, generan V,
tenemos, de acuerdo con el Problema 5.38, que
(1)
es linealmente dependicnte y genera V. Por el Lema 5.10 sabemos que uno de los vectores en (I]
es una combinaci6n lineal de los precedentes. Este vector no puede ser w
1
, luego debe ser uno de
los v, digamos vi. De este modo, segun el Problema 5.38, podemos suprimir vi del conjunto
generador [I] obteniendo el conjunto generador
[2]
Ahora repetimos el argumento con el vector w
2
Es decir, como [2] genera V, el conjunto
[3]
es linealmente dependiente y tambien genera V. De nuevo por el Lema 5.10 uno de los vectores es
combinacion lineal de los precedentes. Subrayamos el hecho de que este vector no puede ser w
1
ni
w
2
, porque {w
1
, .. , w, } es independiente; por consiguiente, debe ser uno de los v, por ejemplo, v k.
En ese caso, segun el problema precedente, podemos suprimir vk del conjunto generador (3]
obteniendo
Repetimos el argumento con w
3
, y asi sucesivamente. En cada paso somos capaces de anadir
uno de los w y suprimir uno de los v en el conjunto generado r. Si m :::;; n, conseguiremos finalmente
un conjunto generador de Ia forma requerida:
Por ultimo, probemos que m > n no es posible. En caso contrario, t ras n de los pasos anteriores,
obtendriamos el conjunto generador {w
1
, ... , w.}. Esto implicaria que w.+, es combinacion lineal
de w
1
, .. , w Io que contradice Ia hipotesis de que {w,} es linealmente independiente.
5.40. Demostrar el Teorema 5.12.
Supongamos que {u
1
, u
2
, . , u.} y {v
1
, v
2
, } son dos bases de V. Dado que {u;} genera V, Ia
base { v
1
, v
2
, . } debe contener n o me nos vectores, o bien ser lineal mente dependiente. de acuerdo

ESPACIOS VECTORIALES 207
con el Problema 5.39 (Lema 5.13). Por otra parte, si Ia base { v
1
, v
2
, .. } tiene menos de 11 elementos,
{u
1
, u
2
, . , u.} es linealmente dependiente, segun el Problema 5.39. Sicndo asi, Ia base {v
1
, v
2
, . }
contiene exactamente n vectorcs y el teorema es, pues, cierto.
5.41. Demostrar el Teorema 5.14.
Supongamos que B = {w
1
, w
2
, . , w.} es una base de V.
i) Como B genera V, 11 + I o mas vectores arbitrarios son linealmente dependientes por el
Lema 5.13.
ii) Segun el Lema 5.13, puedcn anadirse elementos de B a S para formar un conjunto generador
de V con 11 elementos. Dado que S ya tiene n elementos, S es, en si mismo, un conjunto
generador de V. Por tanto, S es una base de V.
iii) Supongamos que T es linealmente dependiente. En esc caso, algun v, es combinaci6n lineal
de los vectores precedentes. Por el Problema 5.38, V estara generado por los vectores de T
sin v;. que son n - I. De acuerdo con el Lema 5. 13, cl conjunto independiente B no puede
tener mas de 11- I elementos. Esto contradice el hecho de que 8 tiene n elementos, luego T
es linealmente independiente y por ende es una base de V.
5.42. Demostrar el Teorema 5.15.
i) Sup<?ngamos que {v
1
, ... , vm} es un subconjunto linealmente independiente maximal de S y
que wES. En consecuencia, {v
1
, ... , v.,., w} es linealmente dependiente. Ningun vk puede ser
combinaci6n lineal de los vectores precedentes, luego w es combinaci6n lineal de los v,. De este
modo, wEiin v; y por consiguiente S s; lin vi. Esto conduce a
V = lin S s; lin l' i s; V
Asi pues. { v
1
} genera V y, como es Iinealmente independiente, es una base de V.
li) Los restantes vectores forman un subconjunto linealmente independiente maximal de S y por
Ia parte i) es una base de V.
5.43. Demostrar el Teorema 5. 16.
Supongamos que B = {w
1
, w
2
, .... w.} es una base de V. Entonces B genera V y por tanto V
esta generado por
De acuerdo con el Teorema 5.15, podemos suprimir de SuB todo vector que sea combinaci6n
lineal de los precedentes para obtencr una base 8' de V. Como S es linealmente independiente,
ningun uk es combinacion lineal de los vectores precedentes. por lo que 8' contiene todos los vectores
de S. Siendo asi, S es parte de Ia base B' de V.
5.44. Demostrar el Teorema 5.17.
Dado que V es de dimension n. 11 + I o mas vectores son linealmente dependientes. Ademas.
como toda base de W consiste en vectores linealmente independientes, no puede contener mas de n
elementos. De acuerdo con esto. dim W s; 11.
En particular, si { w
1
, ... , w.} es una base de W, por ser un con junto independiente con n
elementos, es tambii:n base de V. De este modo, W = V cuando dim W = n.
208 ALGEBRA LINEAL
ESPACIO FILA Y RANGO DE UNA MATRIZ
5.45. Determioar si las siguientes matrices tienen el mismo espacio fila:
A=G
1
3
1D
-1
-2
-2)
-3
-1
-3
-1
-1)
-1
3
Dos matrices tienen el mismo espacio fila si y solo si sus formas can6nicas por fil as tienen las
mismas filas no nulas; por consiguiente, reducimos cada matriz a forma can6nica por filas:
A=G
1
.D-G
1
!)-G
0
3 1
B=G
-1
- 2)-C
-1

0

-2
-3 0 1

-1
-1) (1
- 1
-1) (1
-1
-!)

0

-3
-
3 - 0
l a 1
-1 2 6 0 0 0
Dado que las filas no nulas de las formas reducidas de A y C son las mismas, A y C tienen el
mismo espacio fila. Por el contrario, las filas no nulas de Ia forma reducida de B no coinciden con
las de las otras, por lo que B tiene un espacio fila diferente.
5.46. Pro bar que A (:
3
4
1
2
-3
12
3) .
-4 tienen el mismo espacio columna.
17
Observemos que A y B ticnen el mismo espacio columna si y solo si las traspuestas AT y BT
tienen el mismo espacio fila. Siendo asi, reducimos AT y BT a forma can6nica por filas:
A'
1
i) -!)-

0
-!)
4 1 1 a l
3 - 2 0 0
B'
-2

-2

- 2


0

- 3 1 a 1
- 4 17 0 2 - 4 0 0 0
Como AT y BT tienen el mismo espacio fila, A y B tienen el mismo espacio columna.
5.47. Considerense los subespacios U = lin (u
1
, u
2
, u
3
) y W = lin (w
1
, w
2
, w
3
) de R\ donde:
u
1
= (1, 1, -1),
WI = (1, -1, -3),
u
2
= (2, 3, - 1 ),
w
2
= (3, -2, -8),
u
3
= (3; 1, -5)
W3 = (2, 1, -3)
5.48.
ESPACIOS VECTORIALES 209
Probar que U = W.
Construimos Ia matriz A cuyas filas son los ui y Ia reducimos a forma can6nica por filas:
0 -2)
1 1
0 0
A continuaci6n construimos Ia matriz B cuyas filas son los wi y Ia reducimos a forma can6nica
por filas:
(
1 -1 -3) (1 -1 -3) (1
B = 3 - 2 -8 - 0 1 1 - 0
2 1 -3 0 3 3 0
0 -2)
1 1
0 0
Dado que A y B ticncn Ia misma forma can6nica por filas, sus espacios fila son iguales y en
consecuencia U = W.
Hallar el rango de Ia matriz A, donde:
A ~ ( ~
2
- ~ )
A ~ ( ~
- ~ )
1
a)
-2 - 1
3 '
b)
- 1
-1 4 -2
-2 3
a) Como los rangos por fi las y columnas son iguales, es mas facil tomar Ia traspuesta de A y
despues reducirla por lilas a forma escalonada:
A ~ ( :
2 -2
-1) (1
2 - 2
-1) ('
2 - 2
- ~ )
1 -1
4 - 0
- 3 3
6 - 0
-3 3
- 3 0 3 - 2 0 6 -3 -5 0 0 3
Asi rango A = 3.
b) Las dos columnas son linealmente independientes porque no son una multiplo de Ia otra. Por
tanto, rango A = 2.
5.49. Considerese una matriz ar bitraria A = (aiJ Sup6ngase que u = (b
1
, , b") es una
combinaci6n li neal de las filas R
1
, ... , R, de A; por ejemplo, u = k
1
R
1
+ ... + k, R,.
Demostrar que
(i = l , 2, . .. , n)
donde a
11
, , a mi son las entradas de Ia i-esima columna de A.
Sc nos da u = k
1
R
1
+ + kmRm; por tanto,
(b
1
, .. . , bJ = k
1
(a
1
h ... ,at.)+ .. + k,..(a,..
1
, ... , a_) =
= (k
1
a
11
+ + k.,.a,.,
1
, , k
1
a.
1
+ + k,..a_}
Igualando entre si las componentes correspondientes, obtenemos el resultado deseado.
210 ALGEBRA LINEAL
5.50. Sup6ngase que A = (au) y B = (bu) son matrices escalonadas con entradas pivote:
A=
alit
ali>
y
B=
bll,
bn,
b,.,
Sup6ngase, asimismo, que A y B tienen el mismo espacio fila. Demostrar que las entradas
pivote de A y B estan en las mismas posiciones, esto es, demostrar que j
1
= k
1
,
j2 = k2, ... , jr = k, y r = s.
Claramente, A = 0 si y solo si B = 0, de manera que solo es necesario probar el teorema cuando
r l y s l. Mostramos primero que j
1
= k
1
Supongamos que j
1
< k
1
En tal caso, Ia columna
j
1
-esima de B es cero. Como la primera lila de A est a en el espacio fila de B, tenemos, por el
problema precedente
a
1
il = c
1
0 + c
2
0 + + c.,O = 0
para ciertos escalares c;. Pero esto contradice el hecho de que el elemento pivote a
1
i, # 0. Por
consiguiente, j
1
k
1
y, de forma similar, k
1

Asi pues, j
1
= k
1
.
Sean ahora A' Ia submatriz de A obtenida suprimiendo su primera fila y B' Ia obtenida de B
mediante el mismo procedimiento. Probamos que los espacios lila de A' y B' coinciden. El teorema
se deducira entonces por inducci6n, puesto que A' y B' son tam bien matrices
Sean R = (a
1
, a
2
, . ,a.) cualquier fila de A' y R
1
, . , R'" las filas de B. Dado que R esta en el
espacio fila de B, existen escalares d
1
, , d,., tales que R = d
1
R
1
+ d
2
R
2
+ + d'"R,.,. Puesto
que A esta en forma escalonada y R noes su primera fila, Ia jcesima entrada de R es cero: a;= 0
para i = j
1
= k
1
. Ademas, como B esta en forma escalonada, todas las entradas en su k
1
-esima
columna son 0 salvo Ia primera: ba, * 0, pero b
2
k, = 0, ... , bmk, = 0. Siendo asi,
0 =a.,= d
1
ba, + d
2
0 + + d,.O = d
1
b
11
,
Ahora ba, # 0 y entonces d
1
= 0. De este modo, Res una combinaci6n lineal de R
2
, ... , R, y por
tanto esta en el espacio fila de B' . Como R era cualquier fila de A', el espacio fila de A' esta
contenido en el de B'. Similarmente, el espacio fila de B' esta contenido en el de A'. Asi A' y B'
tienen el mismo espacio fila y queda demostrado el teorema.
5.51. Demostrar el Teorema 5.8.
Obviamente, si A y B tienen las mismas lilas no nulas, necesariamente tienen el mismo espacio
fila, de modo que solo tenemos que demostrar el reciproco.
Supongamos que A y B tienen el mismo espacio fila y que R 0 es Ia i-esima fila de A. En ese
caso existen escalares c
1
, .. , c, tales que
(I]
donde las R; son las filas no nulas de B. El teorema quedara demostrado si probamos que R == R
1
,
o c
1
= l pero ck = 0 para k * i.
Sea ail; Ia entrada pivote de R, o sea, Ia primera entrada no nula de R. Segun [!] y el Proble-
ma 5.49,
[2)
ESPACIOS VECTORIALES 211
Pero por el problema precedente, b;
1
,es una entrada pivote de B y, como B esta reducida por lilas,
es Ia unica entrada distinta de cero en su columna j;-esima. Asi pues, de [2] obtenemos a;
1
, = c;bii,
De cualquier modo, a;it = I y b;
1
, = I porque A y B reducidas por lilas; por consiguiente, C; = I.
Supongamos que k #- i y que bki es Ia entrada pivote de R . De acuerdo con [I ] y con el
Problema 5.49,
[3]
Puesto que B esta reducida por filas, bkJ es Ia unica ent rada distinta de cero en Ia columna jkesima
de B; por tanto, segun [3], aii = ckbk
1
, . Ademas, por el problema precedente, akJ es una entrada
pivote de A y, como A esta reducida por filas, a;
1
, = 0. Siendo asi, ckbkJ = 0 y, dado que bki = l,
ck = 0. En consecuencia, R = R; y el teorema queda demostrado.
5.52. Demostrar el Teorema 5.9.
Supongamos que A es equivalente por Iii as a dos matrices A
1
y A
2
en forma can6nica por lilas.
Entonces f-lin A= f-Iin A
1
y f-lin A= f-lin A
2
Por consiguiente, f-lin A
1
= f-lin A
2
. Como A
1
y A
2
estim en forma can6nica por filas, A
1
= A
2
segun el Teorema 5.8. Queda asi demostrado el teorema.
5.53. Demostrar el Teorema 5. 18.
Sea A una matriz m x n arbitraria:
A = (::: :::_ : : . _::_:)
a.,l am2 . .. a..,.
Denotemos sus filas por R
1
, R
2
, , R'":
R1 = (a
11
, a
12
, ... , a
1
.), . . . , R,. = (a.,
1
, a.,
2
, ... ,a..,)
Supongamos que el rango por fil as es r y que los r vectores que siguen forman una base del espacio
fila:
En tal caso, cada uno de los vectorcs fila es una combinaci6n lineal de los S;:
R
1
= k
11
S
1
+ knS
2
+ .. + k
1
,S,
R
2
= k
21
S
1
+ k
22
S
2
+ + kz,S,
donde los kii son escalares. Igua lando entre si las componentes Jes1mas en cada una de las
ecuaciones vectoriales antcriores llegamos al siguiente sistema de ecuaciones. cada una valida para
i = I , ... , n:
ali= kubu + k12 b2; + +
au= k
21
bli + k
12
b2i + + kz,b,;
21 2 ALGEBRA LINEAL
Asi, para i = I, ... , 11,
En otras palabras, cada una de las columnas de A es combinaci6n lineal de los r vectores
(
k
11
) (k12) (k1,)
k21 kll kl,
' ' ... ,
... ... . ..
k,., k..,, k,.,,
De este modo, Ia dimension del espacio columna de A es a lo sumo r, esto es, el rango por columnas
es menor o igual que r y por ende menor o igual que el rango por filas.
De forma similar (o considerando Ia matriz traspuesta Ar) obtenemos que el rango por filas es
menor o igual que el rango por columnas. Siendo asi. los rangos por filas y columnas son iguales.
5.54. Sup6ngase que R es un vector fila y que A y B son matrices tales que RA y RB. estan
definidos. Demostrar:
a) RB es una combinaci6n lineal de las filas de B.
b) El espacio fila de AB esta contenido en el de B.
c) El espacio columna de AB esta contenido en el de A.
d) rango AB rango By rango AB rango A.
a) Supongamos R = (a
1
, a
2
, ... ,am) y B = (bu)- Denotemos por B
1
, ... , B,.. las filas deB y por
B
1
, , B" sus columnas. Entonces
RB = (R B
1
, R 8
2
, , R 8")=
= (a
1
b
11
+a
2
b
21
+ + a,.b.,.
1
, a
1
b
12
+a
2
b
22
+ + a.,.bm
2
, .. , a
1
b 1n + a
2
b
2
+ +a.,bm.) =
=a
1
{b
11
, b
12
, .. , b
1
.) + a
2
(b
21
, b
22
, . , b
2
.)+ + a.,(bml b.,.
2
, ,b.,,) =
=alB I +a2B2 + ... +amB.,.
y RB es combinacion lineal de las filas de B, como se pretendia.
b) Las filas de AB son R
1
B, donde R
1
es Ia fila i-esima de A. De acuerdo con Ia parte a), cada
lila de AB esta en el espacio fila de B. De este modo, f-lin AB o;:::: f-lin B, como se pretendia.
c) Usando Ia parte b),
c-lin AB = f-lin (AB)r = f-lin Br A
1
. o;:::: f-lin Ar = c-lin A
d) El espacio fila de AB esta 1:ontenido en el de B; por tanto, rango AB::; rango B. Ademas, el
espacio columna de AB est:i contenido en el de A; por consiguiente, rango AB ::; rango A.
5.55. Sea A una matriz n-cuadrada. Probar que A es invertible si y solo si rango A = n..
Notese q ue las lilas de Ia matriz identidad n-cuadrada I. son linealmente independientes ya que
1. esta en forma escalon ada; por tanto, rango 1. = n. Ahora bien, si A es invertible, es equivalente
por Iii as a l .; de a qui ran go A = n. Pero si A no es invertible, es equivalente por filas a una matriz
con una fila nula, con lo que rango A < n. Esto es, A es invertible si y solo si rango A = 11 .
ESPACIOS VECTORIALES 213
APLICACIONES A LAS ECUACIONES LINEALES
5.56. Hallar Ia dimension y una base del espacio soluci6n W del sistema
X + 2y + Z - 3t = 0
2x + 4y + 4z- t = 0
3x + 6y + 7z + t = 0
Reducimos el sistema a forma escalonada:
X + 2y + Z - Jt = 0
2z + St = 0
4z +lOt= 0
0
X + 2y + Z - Jt = 0
2z + 5t = 0
Las variables libres son y y t y dim W = 2. Tomamos:
i) y = l, z = 0 para obtener Ia solucion 11
1
= (- 2, I, 0, 0).
ii) y = 0, t = 2 para obtener Ia solucion u
2
= (I I, 0, -5, 2).
Entonces { u
1
, u
2
} es una base de W. [La eleccion y = 0, t = 1 en ii) introduciria fracciones en Ia
solucion.]
5.57 . . Encontrar un sistema homogeneo cuyo conjunto soluci6n W este generado por
{(1, -2, 0, 3), {1, -1, -1, 4), (1, 0, -2, 5)}
Sea v = (x, y, x, t). Construimos Ia matriz M cuyas primeras filas son los vectores dados y cuya
fila es v y Ia reducimos a forma escalonada:
M =(!
. 1
X
-2 0
-1 -1
0 - 2
y z
3) (1 -2
4 0 1
a
5 0 . 2
t 0 2x+y
0
-1
-2
z
)
2 0 0
-3x+t 0 0
0
-1
2x+y +z
0
Las tres primeras filas originales muestran que w tiene dimension 2, de modo que v E w si y solo
si Ia fila adicional no incrementa Ia dimension del espacio fila. De acuerdo con ello, igualamos a 0
las dos ultimas entradas de Ia tcrcera fil a a Ia derecha para conseguir el sistema homogimeo
requerido
2x+y+z =0
Sx + y -t = 0
5.58. Sean xi , xi , ... , xik las variables libres de un sistema de ecuacioues lineales con n
Sea vi la soluci6n para Ia que xi,. = 1, siendo todas las demas
variables libres iguales a 0. Pro bar que las soluciones v
1
, v
2
, , vk son linealmente
independientes.
Sea A Ia matriz cuyas filas son los vi, respectivamente. Intercambiamos las columnas I e i
1
, luego
las 2 e i
1
, . , y despues las k e ik, obteniendo Ia matriz k x n
B ={I, .. .. .. : .. . ::::::. . . :::)
0 0 0 . . . 0 1 Ct, H 1 C1uo
214 ALGEBRA LINEAL
La matriz anterior 8 esta en forma escalonada y por tanto sus filas son independientes; de aqm
rango 8 = k. Como A y 8 son equivalentes por columnas, tienen el mismo rango, o sea, rango A= C..
I Pero A tiene k filas; por consiguiente, estas filas, es decir, los v
1
, son linealmente independientes..
como se pretendia.
5.59. Demostrar el Teorema 5.20.
Supongamos que u
1
, u
2
, .... u, forman una base del espacio columna de A. (Existen r v e c t o ~
tales, porque rango A = r.) Segun el Teorema 5.19, cada sistema AX = u
1
tiene una solucion..
digamos v
1
De aqui
[11
Supongamos que dim W = s y que w
1
, w
2
, ... , w, forman una base de W. Sea
Afirmamos que 8 es una base de K". Para poder hacerlo debemos probar que B genera K" y es
linealmente independiente.
a) Demostracilm de que B genera K". Supongamos que ve K" y Av = u. En tal caso, u = Av perte-
nece al espacio columna de A y necesariamente es una combinacion lineal de los u
1
Por ejemplo.
Av = k
1
u
1
+ k
2
u
2
+ ... + k,u,
Sea v' = v - k
1
v
1
- k
2
v
2
- ... - k,v,. Usando [11 y [2],
A(v') = A(v - k
1
v
1
- k
1
v
2
- - k, v,) =
= Av- k
1
Av
1
- k
2
Av
1
- - k,Av, =
= Av- k
1
u
1
- k
1
u
1
- - k,u, = Av- Av = 0
(2]
Asi v' pcrtencce a Ia solucion W, por lo que es combinacion lineal de los w
1
Por ejemplo.
v' = C
1
W
1
+ c
2
w
2
+ ... + c
5
w,. Entonces
' . .
v = v' + 2,k
1
v
1
= 2,k
1
v
1
+ 2,cJwJ
~ il )=I
De este modo, v es combinacion lineal de los elementos de 8 y por ende B genera K".
b) Demostracion de que B es linea/mente independience. Supongamos
[3)
Como w
1
e W, cada Aw
1
= 0. Usando este hecho, junto a [I) y [3],
r I
= 2,a
1
u
1
+ L bJO = a
1
u
1
+ a
1
u
1
+ + a,u,
11 j= 1
Dado que u
1
, ... , u, son linealmente independientcs, cada a,= 0. Sustituyendo esto en [3]
llegamos a
b
1
w
1
+ b
2
w
2
+ ... + b,w, = 0
No obstante, w
1
, ... , w, son linealmente indcpendientes, porto que cada bJ = 0. Por esta razon.
8 es linealmente independiente.
ESPACIOS VECTORIALES 215
De acuerdo con esto, B es una base de K". Dado que B tiene r + s elementos, tenemos que
r + s = n. En consecuencia, dim W = s = n - r, como se pretendia.
SUMAS. SUMAS DIRECT AS. INTERSECCIONES
5.60. Sean U y W subespacios de un espacio vectorial V. Probar que: a) U y W estan conte-
nidos en U + W; b) U + W es el menor subespacio de V que contiene U y W, esto es,
U + W =lin (U, W), envolvente lineal de U y W; c) W + W = W.
a) Sea uE U. Por hip6tesis, W es un subespacio de V, por lo que OE W. Por consiguiente,
u u + OE U + W. Segun esto, U estit contenido en U + W. De forma similar, W estit conte-
nido en U + W.
b) Dado que U + W es un subespacio de V que contiene tanto U como W, debe contener tam bien
Ia envolvente lineal de U y W, o sea, lin (U, W) <;; U + W.
Por otra parte, si veU + W, necesariamente v=u +w= lu + lw, donde ueU y weW;
de aqui que v sea combinaci6n lineal de elementos en U v W y por tanto pertenezca a
lin (U, W). En consecuencia, U + W <;; lin (U, W).
c) Como W es un subespacio de V, tenemos que W es cerrado bajo Ia suma vectorial; por este
motivo, W + W <;; W. Por Ia parte a), W <;; W + W. Entonces W + W = W.
5.61. Dar un ejemplo de un subconjunto S de R
1
tal que: a) S + S c S (contenido propia-
merite); b) S c S + S (contenido propiamente); c) S + S =SperoS no es un subespacio
de R
2
a) Sea S = {(0, 5), {0, 6), (0. 7), ... }. En tal caso S + S c S.
b) Sea S = {(0. 0), (0, 1)}. En tal caso S c S + S.
c) Sea S = {(0, 0), (0, I), (0, 2), (0, 3), ... }. En tal caso S + S = S.
5.62. Sup6ngase que U y W son subespacios 4-dimensionales distintos de un espacio vectorial
V con dim V = 6. Hallar todas las dimensiones posibles de U n W.
Como U y W son distintos, U + W contiene propiamente U y W; consecuentemente, dim (U + W) > 4.
Pero dim (U + W) no puede ser mayor que 6, ya que dim V = 6. Por tanto, tenemos dos posi-
bilidades: i) dim (U + W) = 5, o ii) dim (U + W) = 6. Por el Teorema 5.22,
dim (U 11 W) = dim U + dim W - dim (U + W) = 8 - dim (U + W)
Asi, i) dim (U 11 W) = 3, o ii) dim (U 11 W) = 2.
5.63. Considerense los siguientes subespacios de R
4
:
U = lin {(1, l , 0, - 1), (1, 2, 3, 0), (2, 3, 3, -1)}
W = lin {(1, 2, 2, - 2), (2, 3, 2, - 3), (1, 3, 4, -3)}
Hallar: a) dim(U + W), b) dim(U n W).
a) U + W es el espacio generado por los seis vectores. Construimos, pues, Ia matriz cuyas filas
son los seis vectores dados y Ia reducimos por filas a forma escalonada:
216 ALGEBRA LINEAL
0 -1 0 - 1 1 0 - 1
1 2 3 0 0 3 1 0 3 1
2 3 3 -1 0 3 1 0 1 2 -1
1 2 2 -2 0 2 - 1 0 0 0 0
2 3 2 -3 0 2 -1 0 0 0 0
3 4 -3 0 2 4 -2 0 0 0 0
1 0 -1
0 1 3
0 0 -1
0 0 0
0 0 0
0 0 0
Como Ia matriz escalonada tiene tres fil as no nulas, dim ( U + W) = 3.
b) Hallamos pri mero dim U y dim W. Formamos las dos matrices cuyas filas son los generadores
de U y W. respectivamente, y las reducimos por filas a forma escalonada:
(!
1 0
-1) (I
0
-1) (I
0
-l)
2 3 0 "' 0 3 1 "' 0 1 3
3 3 - 1 0 3 1 0 0 0
y
(i
2 2
-2) (I
2 2
-2) (I
2 2
- ~
3 2 -3 "' 0 - 1 -2 1 "' 0
-1 -2
3 4 -3 0 2 -1 0 0 0
Dado que cada una de las matrices escal onadas tiene dos filas no nulas, dim U.= 2 y
dim W = 2. Usando el Teorema 5.22, esto es, dim ( U + W) = dim U + dim W - dim (U n W).
tenemos
3 = 2 + 2- dim (U n W) 0 dim (U n W) = I
5.64. Sean U y W los siguientes subespacios de R
4
:
U = {(a, b, c, d): b + c + d = 0}, W = {(a, b, c, d): a+ b = 0, c = 2d}
Encontrar una base y la dimension de: a) U, b) W, c) U n W, d) U + W.
a) Buscamos una base del conjunto de soluciones (a, b, c, d) de Ia ecuacion
b+c+d=O 0 Oa+ b +c+d =O
Las variables libres son a, c y d. Tomemos:
I. a= I, c = 0, d = 0 para obtener Ia solucion v
1
= ( I, 0, 0, 0).
2. a= 0, c =I , d = 0 para obtener Ia soluci6n v
2
= (0, - I , 1, 0).
3. a = 0, c = 0, d = I para obtener Ia solucion v
3
= (0. - I, 0, 1).
El conjunto {v
1
, v
2
, v
3
} es una base de U y dim U = 3.
b) Buscamos una base del conjunto de soluciones (a, b, c, d) del sistema
a+b=O
c = 2d
0
a+ b =0
c -2d=0
ESPACIOS VECTORIALES 217
Las variables libres son b y d. Tomemos:
I. b = 1, d = 0 para obtener Ia soluci6n v
1
= ( - 1, 1, 0, 0)
2. b = 0, d = I para obtener Ia soluci6n v
2
= (0, 0, 2, I)
El conjunto { v
1
, v
2
} cs una base de W y dim W = 2.
c) U n W consiste en aquellos vcctores (a, b, c, d) que satisfacen las condiciones que definen U
y las que delinen W, es decir, las tres ecuaciones
b+c+d=O
a+b =0
c = 2d
0
a+b =0
b+c+ d=O
c-2d=0
La variable libre es d. Tomemos d = I para obtener Ia soluci6n v = (3, -3, 2, 1). De este
modo, {v} es una base de U n W y dim (U n W) = 1.
d) Segun el Teorema 5.22,
dim (U + W) = dim U + dim W - dim (U n W) = 3 + 2 - 1 = 4
Asi U + W = R
4
. De acuerdo con esto, cualquier base de R\ por ejemplo Ia base usual, sera
una base de U + W.
5.65. Considerense los siguientes subespacios de R
5
:
U = lin {(1, 3, -2, 2, 3), (1, 4, -3, 4, 2), (2, 3, -1, - 2, 9)}
W = lin {(I, 3, 0, 2, 1), (I, 5, -6, 6, 3), (2, 5, 3, 2, l)}
Hallar una base y la dimension de a) U + W, b) U n W.
a) U + W es el espacio generado por los seis vectores. Por tanto, formamos Ia matriz cuyas filas
son los seis vectores dados y despues Ia reducimos por filas a forma escalonada:
3 -2 2 l 3 -2 2 3 1 3 -2 2 3
1 4 -3 4 0 1 -1 2 -1 o . 1 - 1 2 -1
2 3 -1 -2 0 -3 3 -6 3 0 0 0 0 0
1 3 0 2 0 0 2 0 -2 0 0 2 0 - 2
5 - 6 6 0 2 -4 4 0 0 0 -2 0 2
2 5 3 2 0 -1 7 -2 - 5 0 0 6 0 -6
3 - 2 2 3
1 -1 2 -1
0 2 0
0 0 0 0
0 0 0 0
0 0 0 0
El conjunto de filas no nulas de Ia mat riz escalonada,
{(1, 3, -2, 2, 3), (0, 1, -1, 2, -1), (0, 0, 2, 0, -2)}
es una base de U + W, de modo que dim ( U + W) = 3.
b) Hallamos primero los sistemas homogeneos cuyos conjuntos soluci6n sean U y W, respecti-
vamente. Construimos Ia matriz cuyas tres primeras lilas generen U y cuya ultima fila sea
(x, y, z, s, t). Luego Ia reducimos por filas a forma escalonada:
218 ALGEBRA LINEAL
(i
3 -2 2

3 -2 2
3 )
4 -3 4 1 -1 2 - 1
3 -1 -2 - 3 3 -6
-3x
3
+ t
y z s -3x + y 2x + z -2x+s

3 -2 2
3 )
-1 2 -1
0 -X+ y + Z 4x- 2y + s
-6x +; + t .
0 0 0
Igualamos a cero las entradas de Ia tercera fila para conseguir el sistema homogeneo cuyo
espacio soluci6n es U:
-x+y+z=O 4x- 2y + s = 0 -6x + y + t = 0
Ahora formamos Ia matriz cuyas primeras filas generen W, siendo Ia ultima (x, y, z, s, r).
Acto seguido, Ia reducimos por filas a forma escalonada:
(i
3 0 2

3 0 2
5 - 6 6 2 -6 4
2 )
5 3 2 -1 3 -2 -1 -
y z s -3x+ y z - 2x + s -x +t

3 0 2
2x-:y+l)
1 -3 2
0 -9x + 3y + z 4x- 2y + s
0 0 0
9 .
Igualamos a cero las entradas de Ia tercera fila para conseguir el sistema homogeneo .cuyo
espacio soluci6n es W:
-9x + 3y + z = 0 4x- 2y + s = 0 2x -y+t = O
Combinamos los dos sistemas precedentes para obtener un sistema homogeneo cuyo espacio
solucion es U n W y to resolvemos:
-x+ y+z =0 -x+ y+ z =0
4x- 2y +s = 0 2y + 4z + s =0
-6x+ y
+t = O -5y- 6z +t=O
0
-9x + 3y + z
=0 -6y- 8z =0
4x- 2y
+ s =0 2y + 4z + s =0
2x- y
+t=O y + 2z +t=O
-x +y+ z
= 0
2y + 4z + s
= 0
{-x+ y+, -o
0
8z + 5s + 2t = 0 0
2y + 4z + s = 0
4z + 3s =0
8z + 5s + 2t = 0
s-2t=O
s - 2t=O
Hay una variable libre, que es t; por consiguiente, dim (U n W) = 1. Hacienda t = 2 llegamos
a Ia soluci6n x =I , y = 4, z = - 3, s = 4, t = 2. Siendo asi, {(1, 4, -3, 4, 2)} es una base
.
ESPACIOS VECTORIALES 219
5.66. Sean U y W los subespacios de }l
3
definidos segun
U ={(a, b, c): a= b = c} y W= {(0, b, c)}
(N6tese que W es el plano yz.) Probar que R
3
= U EB W.
Adviertase primero que U r1 W = {0}, para v =(a, b, c)e U r1 W implica que
a = b = c y a = 0 lo que implica que a = 0, b = 0, c = 0
Alirmamos tambien que R
3
= U + W. Ello es debido a que si v = (a, b, c)eR
3
,
v = (a, a, a)+ (0, b- a, c- a) donde (a, a, a)e U y (0, b - a, c - a) E W
Am bas condiciones, U r1 W = {0} y R
3
= U + W, implican R
3
= U (3J W.
5.67. Sea Vel espacio vectorial de las matrices n-cuadradas sobre un cuerpo K.
a) Probar que V = U EB W, donde U y W son los subespacios de las matrices simetricas
y antisimetricas, respectivamente. (Recuerdese queM es simetrica si y s6lo si M = M r,
y antisimetrica si y s61o si Mr = -M.)
b) Pro bar que V "# U EB W, donde U y W son los subespacios de las matrices triangu-
lares superiores e inferiores, respectivamente. (N6tese que V = U + W.)
a) Comencemos por demostrar que V = U + W. Sea A una matriz 11-cuadrada arbitraria. Advier-
tase que
A= t(A + Al) +!(A -A')
Afirmamos que !(A+ Ar) e U y que i(A - AT)eW. Esto se debe a que
o sea, !(A + A r) es simetrica. Ademas,
(t(A- AT))T =!(A- A')T =!(AT- A)= -!(A- AT)
esto es, -i{A - AT) es antisimetrica.
A continuaci6n mostremos que U n W = {0}. Supongamos que Me U r1 W. En ese caso,
M = MT y Mr = -M, lo que implica M = - M y por tanto M = 0. Asi U'n W= {0}. En
consecuencia, V = U (3J W.
b) U n W #- {0} porque U n W esta constituido por todas las matrices diagonales. La suma no
puede. pues, ser directa.
5.68. Sup6ngase que U y W son subespacios de un espacio vectorial V, que S = { u;} genera U
y que T = { wi} genera W. Demostrar que S u T genera U + W. (De acuerdo con ella,
por inducci6n, si S; genera W; para i = I, 2, ... , n, S
1
u uSn genera W
1
+ + W,.)
Sea ve U + W. Entonces v = u + w, donde ue U y we W. Puesto que S genera U, 11 es combina-
ci6n lineal de los ui, y dado que T genera W, IV es combinaci6n lineal de los IV/
u = a
1
u
11
+ a
2
u;, + + a.u
1

w = b
1
wJ
1
+ b1 wh + + b.,wJ.
De este modo,
En consecuencia, S u T = { u
1
, vJ} genera U + W.
220 ALGEBRA LINEAL
5.69. Demostrar el Teorema 5.22.
Observemos que U n W es subespacio tanto de U como de W. Supongamos que dim- U = m.
dim W = n y dim U n W= r. Supongamos. asimismo. que {v
1
, . . , v,} es una base de U n W. Segun
el Teorema 5.6, podemos extender { v;} a una base de U y a una de W; por ejemplo, .
y
son bases de U y W, respectivamente. Sea
N6tese que B tiene exactamente .111 + n - r elementos. El teorema quedani demostrado si somos
capaces de pro bar que B es una base de U + W. Como { V;, ui} genera U y { V;, wd genera W, Ia
union B = {v;, ui, wk) generani. U + W. Por tanto, basta demostrar que B es independiente.
Supongamos que
donde a;, bi, ck son escalares. Sea
11 = a
1
v
1
+ + a,11, + b
1
u
1
+ + b, _,u.,_,
Por [I] tenemos tambien que
[I]
[2)
[3]
Como {II;, ui} U, v E U por [2]; y como { wk} W, v E W por [3]. En consecuencia, v E U n W.
Ahora bien, {II;} es una base de U n W, por lo que existen escalarcs d
1
, . . . ; d" para los que
v = d
1
v
1
+ + d, 11,. Asi por [3] tenemos
Pero { v;, wk} es una base de W y necesariamente es independiente. De aqui que Ia ecuaci6n anterior
haga forzoso c
1
= 0, . .. ,c. -. = 0. Sustituyendolo en [11,
Pero { v;, u
1
} es una base de U y por tanto es independiente. De aqui que Ia ecuaci6n anterior haga
forzoso a
1
= 0, .. . , a, = 0, b
1
= 0, . . . , b, _, = 0.
Dado que Ia ecuaci6n [1] implica que los a;, bi y ck son todos 0, B = {u;, ui , wk} es independiente
y qneda probado el teorema.
5.70. Demostrar el Teorema 5.23.
Supongamos V = U EJj W. Cualquier vector v E V puede, pues, escribirse de forma unica como
v = u+w, con u e U y weW. Asi, en particular, V = U + W. Supongamos ahora que II EUn W.
Entonces:
1. v =v +O,donde ii EU, OEW.
2. 11 = 0 + 11; donde Oe U, VE W.
Como tal suma para v debe ser unica, 11 = 0. De acuerdo con ello, U n W = {0}.
Por otra parte, supongamos que V = U + W y U n W = {0}. Sea li E V. Dado que V = U + W,
existen ue U y wE W tales que 11 = u + w. Debemos probar que Ia suma es nnica.- Para ello,
supongamos que 11 = u' + w' tam bien, donde u' E U y w' E W. En tal caso,
u+w = u' + w' y por tanto u-u' = w'- w
ESPACIOS VECTORIALES 221
Pero u- u' E U y w'- wE W; por consiguiente, como U n W = {0},
u - u' = 0, w' - w = 0 y u = u' , w = w'
De este modo, tal suma para vE V es imica y V = U W.
5.71. Demostrar el Teorema 5.24 (para dos sumandos): Supongamos que V = U EEl W. Supon-
gamos que S =.{u
1
, . , um} y S' = {w
1
, .. , w"} son subconjuntos linealmente independien-
tes de U y W, respectivamente. En tal caso: a) S uS' es linealmente independiente en V;
b) si S es una base de U y S' una de W, SuS' es base de V; c) dim V = dim U + dim W.
a) Supongamos a
1
u
1
+ +' amu, + b
1
w
1
+ + b.w. = 0, donde a
1
, bison escalares. Entonces
0 = (a
1
u
1
+ + a,.u.J + (b
1
w
1
++b. w.) = 0 + 0
donde 0, a
1
u
1
+ + a,u, E U y 0, b
1
w
1
+ +b. w.e W. Puesto que tal suma para 0 es \mica,
esto nos conduce a
Como S es linealmente independiente, cada a
1
= 0, y como S' es linealmente independiente,
cada b
1
= 0. Siendo asi, S v S' es lineal mente independiente.
b) PorIa parte a) sabemos que S v S' es linealmente independiente, y por el Problema 5.68 que
S v S' genera V. Por tanto, S v S' es una base de V.
c) Se obtiene directamente de Ia parte b).
VECTORES COORDENADOS
5.72. Sea S Ia base de R
2
consistente en u
1
= (2, 1) y u
2
= {1, - 1). Hallar el vector coorde-
nado [u] de v relativo aS, siendo v =(a, b).
Tomamos v = xu
1
+ yu
2
para obtener (a, b)= (lx + y, x - y). Resolvemos 2x + y =a y x - y = b
para obtener x = (a+ b)/3, y = (a - lb)/3. Asi (v] = [(a+ b)/ 3, (a - 2b)/3].
5.73. Considerese el espacio vectorial P
3
(t ) de los polinomios reales en r de grado ::;;; 3.
a) Probar que S = {1, 1 - .r, ( l - t)
2
, (1 - t)
3
} es una base de P
3
(t).
b) Hallar el vector coordenado [u] de u = 2 - 3t + 3
2
+ 2t
3
respecto a S.
a) El grado de ( I - t )k es k, luego ningun polinomio enS es combinaci6n lineal de los precedentes.
Los polinomios son, pues, linealmente independientes y, dado que dim P
3
(t) = 4, forman una
base de P
3
(t).
b) Tomemos u como c0mbinaci6n lineal de los vectores de Ia base utilizando incognitas x, y, z, s:
u = 2 - 3t + t
2
+ 2t
3
= x(l) + y(l - t) + z(l - t)
2
+ s(l - t)
3
=
x(l) + y(l - t) .f. z(l - 2t + t2) + s(l - 3t + 3t
2
- t
3
) =
= x + y - yt + z - 2zt + zt
2
+ s - 3st + 3st
2
- st
3
=
= (x + y + z + s) + (-y - 2z - 3s)t + (z + 3s)t
2
+ ( -s)t
3
A_ continuaci6n igualamos entre si los coeficientes de las mismas potencias de t:
.x+y+z+s = 2 - y - 2z - 3s = - 3 z+3s=l - s = 2
Resolviendo, x = 2, y = - 5, z = 7, s = - 2. Asi [u] = [2, - 5, 7, - 2].
222
5.74.
ALGEBRA LINEAL
Considerese Ia matriz A = (
2 3
) en el espacio vectorial V de las matrices reales 2 x :.
4 - 7
Determinar el vector coordenado [A] de Ia ma:triz A respecto a
la base usual de V.
Tenemos
De este modo, x = 2, y = 3, z = 4, t = - 7. Por tanto, [A] = [2, 3, 4, - 7], cuyas componentes sa=
los elementos de A escritos fila a fila.
Nota: El resultado anterior es va.lido en general, es decir, si A es cualquier matriz en el espacic
vectorial de las matrices m x n sobre un cuerpo K, el vector coordenado [A] de A relativo a Ia
base usual de V es el vector coordenado mn de K'"n cuyas componentes son los elementos de .-t
escritos fila por fila.
CAMBIO DE BASE
En esta secci6n se representani un vector v e V respecto a una base S de V por su vector columna
coordenado,
(que es una matriz n x 1).
5.75. Considerense las siguientes bases de R
2
:
sl = {ul = (1, -2), u2 = (3, ...:... 4)} y S2 = {vl = (1, 3), Vz = (3, 8)}
a) Encontrar las coordenadas de un vector arbitrario v = (a, b) relativas a Ia base
sl = {ul , u2}.
b) Hallar Ia matriz de cambio de base P desde S
1
basta S
2

c) Encontrar las coordenadas de un vector arbitrario v = (a, b) relativas a Ia base
s2 ={vi, v2}.
d) Determinar la matriz de cambio de base Q desde S
2
basta S
1

. e) Comprobar que Q = p -
1

f) Mostrar que P[v]
5
= [v]s para todo vector v =(a, b). (Vease el Teorema 5.27.)
> '
g) Mostrar que p-t [v]s, = [v]s, para todo vector v =(a, b). (Vease el Teorema 5.27.)
-
ESPACIOS VECTORIALES 223
a) Sea v = xu
1
+ yu
2
para incognitas x e y:
0
x + 3y =a
-2x-4y=b
0
x + 3y =a
2y = 2a + b
Despejamos x e y en terminos de a y b para llegar a x = - 2a -"ib, y = a + !b. Asi pues,
(a, b)= ( -2a- jb)u
1
+(a+ fb)ul
0 [(a, b)]
5
, = [-2a- jb, a+ !bY
b) Usamos a) para escribir cada uno de los vectores v
1
y v
2
de la base S
2
como combinaci6n lineal
de los vectores u
1
y u
2
de S
1
:
11
1
= (1, 3) = (-2- J)u
1
+ (1 + f)u
2
= (-.lf-)u
1
+ (t)u
2
11
2
= (3, S) = (-6 -12)u
1
+ (3 + 4)u
2
= -18u
1
+ 7u
1
Entonces P es Ia matriz cuyas columnas son las coordenadas de v
1
y v
2
respecto a Ia base S
1
,
o sea,
c) Sea v = xv
1
+ yv
2
para escalares desconocidos x e y:
0
x + 3y =a
3x + Sy = b
0
x + 3y =a
-y=b-3a
Resolvemos para x e y llegando ax= -8a + 3b, y = 3a- b. Asi
(a, b) = (-Sa + 3b)v
1
+ (3a - b)v
2
0 [(a, b)]S
1
= [-Sa+ 3b, 3a - bY
d) Usamos c) para escribir cada uno de los vectores u
1
y u
2
de Ia base S
1
como combinaci6n lineal
de los vectores v
1
y v
2
de S
2
:
u
1
= (1, -2) = ( -S- 6)v
1
+ (3 + 2)v
1
= -14v
1
+ 5v
2
u
2
= (3, -4) = ( -24- 12)v
1
+.(9 + 4)v
2
.= -3611
1
+ 13v
1
. (-14 -36)
Escribimos las coordenadas de u
1
y u
2
respecto a S
2
como columnas obteniendo Q =
5 13
e)
~ = I
f) Utilizamos a), b) y c) para obtener
(
-Y -1s)(-8a + 3b) (-2a -ib)
P[v]sl = t 7 3a- b = a+ !b = [v]s,
g) Utilizamos a), c) y d) para obtener
1 (-14 -36x-2a- ib) _(-sa+ 3") _
p - [v]s, = Q[v]s, = 5 13 a+ !b - 3a- b - [v]sl
224 ALGEBRA LINEAL
5.76. Sup6ngase que los siguientes vectores constituyen una base S de Kn:
\
. 1
... ,
Pro bar que la matriz de cambio de base desde la base usual E = { e;} de Kn hasta la base S
es la matriz P cuyas columnas son los vectores v
1
, v
2
, , vn, respectivamente.
Como e
1
, e
2
, ... , e. fo rman Ia base usual E de K",
v
1
= (a
1
, a
2
, .. . , a,.)= a
1
e
1
+ a
2
e
1
+ +a. e.
v
1
= (b
1
, b
1
, .. . , b,.) = b
1
e
1
+ b
1
e
1
+ .. + b.e
Escribiendo las coordenadas como columnas tendremos
p ~ { :: . :: . . : . ::)
\a. b. .. . c.
como se pretendia.
5.77. Considerese Ia baseS = {u
1
= (1, 2, 0), u
2
= (1, 3,' 2), u
3
= (0, 1, 3)} de R
3
. Hallar:
a) La matriz de cambio de base P desde Ia base usual E = {e
1
, e
2
, e
3
} de R
3
hasta Ia
baseS.
b) La matriz de cambio de base Q desde Ia base anterior S regresando hasta Ia base
usual E de R
3
.
a) Dado que E es Ia base usual, escribimos sencillamente los vectores de Ia baseS como columnas:
P = ~ ~ ~ )
0 2 3
b) Metodo I. Expresamos cada vector de Ia base E como combinacion lineal de los vectores de
Ia baseS, calculando primero las coordenadas de un vector arbitrario v = (a, b, c) relativas a Ia
base S. Tenemos:
0
x + y . = a
2x + 3y + z = b
2y + 3z = c
Despej amos x, y, z. llegando a x = 7a - 3b + c. y = -6a + 3b - c, z = 4a - 2b +c. Entonces
v =(a, b, c) = (7a- 3b + c)u
1
+ ( -6a + 3b - c)u
1
+ (4a - 2b + c)u
3
0 [v]s = [(a, b, c)]s = (7a - 3b + c, -6a + 3b- c, 4a - 2b + c]T
Empleando Ia formula para [v]s precedente y escribiendo despues las coordenadas de los e
1
como columnas,
e
1
= (l, 0, 0) = 7u
1
- 6u
1
+ 4u
3
e
1
= (0, l, 0) = -3u
1
+ 3u
1
- 2u
3
e
3
= (0, 0, l) = u
1
- u
2
+ u
3
y
ESPACIOS VECTORIALES 225
Metodo 2. Calculamos p -I reduciendo por lilas M = (P !I) a Ia forma (I! p-l ):
M ~ ~
1 0
1 1
0
~ ) - ~
1
01
0
~ ) -
1
3 1
1 0
1 1 1 : -2 1
2 3 1 0 0 2 3 : 0 0
- ~
0 1
0
~ ) - ~
0 1
0
-:) -
1 1
1 1 : -2 1 0 : -6 3
0 1 : 4 -2 0 1 : 4 -2
- ~
0 0 ' 7 - 3
:)
1
0:-6 3
0 1 : 4 -2
De"" modo, Q r' ( -:
-3
-:)
3
-2
5.78. Sup6ngase que los ejes x e y en el plano R
2
se giran 45 en el sentido contrario at de las
agujas de un reloj, de forma que el nuevo eje x' este a lo largo de Ia recta x = y y el
nuevo eje y' a lo largo de Ia recta x = - y. Encontrar: a) Ia matriz de cambio de base P;
b) las nuevas coordenadas del pun to A (5, 6) bajo Ia rotaci6n dada.
a) Los vectores unitarios en las direcciones de los nuevos ejes x' .e y' son, respectivamente,
y
(Los vectores unitarios en las direcciones de los ejes originates x e y son los vectores de Ia base
usual de R
2
.) Escribimos, pues, las coordenadas de u
1
y u
2
como coiumnas para obtener
p = (-fi/2 - -fi./2)
J212 fil2
b) Multiplicamos las coordenadas del punto por p -
1
:
(
-fi./2 -fi./2X5) = (llfi/2)
- -fi./2 _fi.t2 6 fif2
[Dado que Pes ortogonaJ; p-l es simplemente Ia traspuesta de P.]
5. 79. Considerense las bases S = { l, i} y S' = { l + i, l + 2i} del cuerpo complejo C sobre el
cuerpo real R. Hallar: a) Ia matriz de cambio de base P desde Ia base Shasta Ia S'; b) Ia
matriz del cambio de base Q desde Ia base S' volviendo hasta Ia S.
a) Tenemos
I + i = I (I) + I (i)
I +2i= 1(1)+2(i)
y por tanto
(
2 -1) b) Utilizamos Ia formula para Ia in versa de una matriz 2 x 2 para conseguir Q =p- I =
-1 I
226 ALGEBRA LINEAL
5.80. Supongase que P es Ia matriz de cambio de base desde una base {u;} hasta otra {w
1
}
y que Q es Ia matriz de cambio de base desde Ia { wi} hast a Ia { u;}. Probar que P es inver-
tible y que Q = P-
1

Supongamos, para i = I, 2, ... , n,
y, para j = l , 2, ... , n,
"
w
1
= ailu
1
+ a
12
u
2
+ + a1.u" = I a1iui
J=l
"
u
1
= b
11
w
1
+ b
12
w
2
+ + b i w. = I b
11
w1
t=l
Sean A = {a
11
) y B = (b
1
.). En ese caso, P = Ar y Q = Br. Sustituyendo [2] en [!]
W1 = I aii( I b
1
t w) = I ('. a
11
b
1
.)w1
j v J ll l=J ~ 1
[I]
[2]
Puesto que { w
1
} es una base, I aiibiA = b
11
, don de b;k es Ia delta de Kronecker, esto es, O;k = 1 si
i = k pero b;k = 0 si i # k. Supongamos que AB = (c
1
.). Entonces c
11
= o
1
De acuerdo con ello,
AB =I, luego
Asi pues, Q = p - t.
5.81. Demostrar el Teorema 5.27.
Supongamos que S = {u
1
, ... , u.} y S' = {w
1
, ... , w.}. y que, para i =I , ... , n,
.
w
1
= ailu
1
+ a
12
u
2
+ + a1"u" = Iauu
1
)"'I
Por consiguiente, P es Ia matriz n-cuadrada cuya fila j-esima es
(a
11
, a
21
, ... , a.
1
)
n
Asimismo, supongamos v = k
1
w
1
+ k
2
w
2
+ ... + k.w. =I k
1
w
1
Entonces
i = 1
[vls = [klj kzj ... , k.ir
Sustituyendo los w
1
en Ia ecuaci6n para v obtenemos
"
= I (a
11
k
1
+ a
21
k
2
+ + a"
1
k")u
1
)=J
En consecuencia, [u]
5
es el vector columna cuya entrada j-esima es
a
11
k
1
+ a
21
k
2
+ ... + a.
1
k.
[I]
[2]
[3]
Por otra parte, Ia entrada j-esima de P[v]
8
se obtiene multiplicando Ia j -esima fila de P por [v]
5
., o
sea, [I] por [2). Pero e1 producto de [I] y [2] es [3]; de aqui que P[v]
5
. y [v]s tengan las mismas
entradas. Asi P[v]
5
. = [v]
5
, como se pretendia.
Alm m ~ s multiplicar lo anterior por p-t conduce a P -t [v]
5
= p - t P[vJ
5
= [v]
5
.
ESPACIOS VECTORIALES 227
PROBLEMAS V ARIOS
5.82. Considerese una suceswn fin ita de vectores S = { v
1
, v
2
, ... , v.}. Sea T la suceswn de
vectores que se obtiene de S mediante una de las siguientes operaciones elementales:
i) intercambiar dos vectores, ii) multiplicar un vector por un escalar no nulo, iii) sumar
a un vector un multiple de otro. Probar que S y T generan el mismo espacio W. Probar
tambien que T es independiente si y solo si lo es S.
Observemos que, para cad a optracion, los vectores de T son combinaciones lineales de los de S.
Por otra parte, cada operaci6n tiene una inversa del mismo tipo. (Demuestrese.) En consecuencia,
los vectores de S son combinaciones lineales de los de T. De este modo, S y T generan el mismo
espacio W. Ademas, T es independicnte si y solo si dim W = n, lo que es cierto si y solo si S tam bien
es independiente.
5.83. Sean A = (a;) y B = (b;) matrices m x n sobre un cuerpo K equivalentes por fitas y
v
1
, ... , vn vectores cualesquiera en un espacio vectorial V sobre K. Sean
Ut = allvt + allv2 + . .. + alnv
u
2
= a
21
v
1
+ a
22
v
2
+ + a
2
,.v.
w
1
= b
11
v
1
+ b
12
v
2
+ + b
111
v,.
w
2
= b
21
v
1
+ b
22
v
2
+ + b
2
,.vn
Pro bar que { u;} y { w;} generan el mismo espacio.
Efectuar una operacion elemental de las del Problema 5.82 sobre { u;} equivale a efectuar una
operacion elemental entre lilas sabre Ia matriz A. Como A y B son equivalentes por lilas, 8 puede
obtenerse de A por medio de una sucesi6n de operaciones elementales entre filas; por tanto, { w;}
puede obtenerse de {u;} mediante la sucesion de operaciones correspondiente. De acuerdo con esto,
{ u;} y { w;} generan el mismo espacio.
5.84. Sup6ngase que v
1
, ... , vn pertenecen a un espacio vectorial V sobre un cuerpo K . Sean
w
1
= a
11
t
1
+ a
12
v
2
+ + ahv
w
2
= a
21
v
1
+ a
22
v
2
+ + a
2
,.v.
donde aij E K. Sea P Ia matriz n-cuadrada de los coeficientes, esto es, sea P = (a;)
a) Sup6ngase que P es invertible. Mostrar que { w;} y { v;} generan el mismo espacio
y por en de { w;} es independiente si y solo si lo es { v;}.
b) Sup6ngase que P no es invertible. Mostrar que { w;} es dependiente.
c) Sup6ngase que { w;} es independiente. Mostrar que P es invertible.
a) Como P es invertible, es equivalente por filas a la matriz identidad J. Por tanto, segim el
problema precedente, { w;} y { v;} generan el mismo espacio. Asi uno es independiente si y solo
si lo es el otro.
b) Dado que P no es invertible, es equivalente por filas a una matriz con una fila nula. Esto quiere
decir que { w;} genera un espacio que tiene un conjunto generador con menos de n elementos.
Siendo asi, { w;} es dependiente.
c) Esta es Ia contrarreciproca de la afirmacion b), luego se deduce de b).
228 ALGEBRA LINEAL
5.85. Supongase que A
1
, A
2
, son conjuntos linealmente independientes de vectores y que
A
1
s A
2
s . Probar que Ia union A = A
1
u A
2
u tambien es linealmente indepen-
diente.
Supongamos que A es linealmente dependiente. En ese caso existen vectores v
1
, . . , v" E A y
escalares a
1
, . , a. E K , no todos 0, tales que
aJ vi + azvz + ... + anvn = 0 [1]
Como A= u A
1
y los V;EA, existen conjuntos A;, ... , A
1
" tales que
Sea k el maximo indice de los conjuntos A;J:k = rmh (i
1
, ... ,in). Se sigue entonces, dado que
A
1
<:; A
2
,que cada A
1
j esta contenido en Ak. Por consiguiente, v
1
, v
2
, , v. eAk y asi, de
acuerdo con [1], Ak es linealrnente dependicnte. lo que contradice nuestra hipotesis. De este modo.
A es linealmente independiente.
5.86. Sea K un subcuerpo de un cuerpo L que a su vez es subcuerpo de un cuerpo E; es
decir, K s L s E. (Por tanto, K es subcuerpo de .) Sup6ngase que E es de dimension
n sobre L y L de dimension m sobre K . Demostrar que E es de dimension mn sobre K.
Supongarnos que {v
1
, v.} es una base deE sobre L y {a
1
, , a.,} una deL sobre K.
Afirmamos que {a
1
vi: i = I , ... , m. j = I, ... , n} es una base de E sobre K. Advierlase que {a
1
v
1
}
contiene mn elementos.
Sea w un elemento arbitrario de E. Como {v
1
, . , vn} genera E sobre L, Wes una combinacion
lineal de los v
1
con coeficientes en L:
(I]
Como {a
1
, ... , a.,} genera L sobre K, cada b
1
e L es combinacion lineal de los ai con coeficientes
en K:
b
1
= k
11
a
1
+ k
12
a
2
+ + k
1
.,a.,
b2 = k21at + k22a2 + ... + k2,a.,
donde kiJ E K. Sustituyendo en [I] obtenemos
w = (k
11
a
1
+ +

+ (k
21
a
1
+ + k
2
,.a.,)v
2
+ .. + (k,.
1
a
1
+ .. + k_a.,)v. =
= L ki,{a
1
v
1
)
i,j
donde ki;E K. Siendo asi, w es una combinacion lineal de los a
1
vi con coeficientes en K, por lo que
{a
1
vi} genera E sobre K.
La dernostraci6n sera completa si probarnos que {a
1
vJ es linealmente independiente sobre K.
Supongamos que, para escalares xi
1
E K , I xi
1
(a
1
vi) = 0; esto es,
l.j
ESPACIOS VECTORIALES 229
Dado que { v
1
, . , v. } es lineal mente independiente sobre L y que los anteriores coeficientes de los V;
pertenecen a L , cada uno de los coeficientes debe ser 0:
Pero {a
1
, ... ,a,.} es linealmente independiente sobre K; por consiguiente, como los xi;EK,
x
11
= 0, xu= 0, ... , x
1
= 0, ... , X.t = 0, x.
2
= 0, ... , x_ = 0
En consecuencia, {a,v
1
} es linealmente independiente sobre K y queda demostrado el teorema.
PROBLEMAS SUPLEMENTARIOS
'\.
ESPACIOS VECTORIALES
5.87. Sea Vel conjunto de los pares ordenados (a, b) de numeros reales con suma en V y producto por
un escalar en V definidos segim
(a, b) + (c, d) = (a + c, b + d) y k{a, b) = (lea, 0)
Demostrar que V satisface todos los axiomas de un espacio vectorial excepto [M
4
] : lu = u. Por
tanto, (M
4
] no es consecuencia de los otros axiomas.
5.88. Probar que el siguiente axioma [A
4
] puede derivarse de los otros axiomas de un espacio vectorial.
(A
4
) Para todo par de vectores u, vE V, u + v = v + u.
5.89. Sea Vel conjunto de sucesiones infinitas (a
1
, a
2
, .. ) en un cuerpo K con suma en V y producto
por un escalar en V definidos por
(a" a
2
, ) + (b
1
, b
2
, ... ) = (a
1
+ b
1
, a
2
+ b
2
, ... )
k(a
1
, a
2
, ) = (lea
1
, lea
2
, ... )
donde a;, b
1
, k E K. Pro bar que V es un espacio vectorial sobre K.
SUBESPACIOS
5.90. Determinar si W es o noun subespacio de R
3
, donde W consiste en aquellos vectores (a, b, c) ER
3
para los que a) a= 2b; b) a ~ b ~ c; c) ab = 0; d) a= b = c; e) a= b
2

5.91. Sea Vel espacio vectorial de las matrices n-cuadradas sobre un cuerpo K. Demostrar que W es un
subespacio de V si W consiste en todas las matrices que son a) autisimetricas (AT= -A), b) trian-
gulares (superiores), c) diagonales, d) escalares.
5.92. Sea AX = B un sistema inhomogeneo de ecuaciones lineales con n incognitas sobre un cuerpo K.
Demostrar que el con junto soluci6n del sistema no es un subespacio de K.
230 ALGEBRA LINEAL
5.93. Discutir si R
2
es o no subespacio de R
3
.
5.94. Supongase que U y W son subespacios de V para los que U v W es tam bien subespacio. Probar
que bien U W o bien W U.
5.95. Sea V el espacio vectorial de todas las funciones del cuerpo real R en R. Mostrar que W es un
subespacio de V en cada uno de los siguientes casos.
a) W consiste en todas las funciones acotadas. [Aqui f: R _. R es acotada si existe ME R tal que
lf(x)l M . 'v'xER.)
b) W consiste en todas las funciones pares. [Aqui f: R --. R es pa r si f(-x) = j(x). Vx E R.]
c) W consiste en todas las funciones continuas.
d) W consiste en todas las funciones d iferenciables.
e) W consiste en todas las funciones integrables en, por ejemplo, el intervalo 0 ~ x ~ I.
(Los tres ultimos casos requieren ciertos conocimientos de anatisis.)
5.96. Sea Vel espacio vectorial (Problema 5.89) de las sucesiones inlinitas (a
1
, a
2
, .. . ) en un cuerpo K.
Demostrar que W es un subespacio de V. donde: a ) W consiste en todas las sucesiones con 0 como
primera componente, b) W consiste en todas las sucesiones con solo un numero finito de compo-
nentes no nulas.
COMBINACIONES LINEALES. ENVOLVENTES LINEALES
5.97. Demostra r que los numeros complejos w = 2 + 3i y z = I - 2i generan el cuerpo complejo C como
espacio vectorial sobre e) cuerpo real R.
5.98. Pr'obar que los polinomios (I - t)
3
, (1- r/, 1 - t y I generan el espacio P
3
(t) de los polinomios
de grado ~ 3
5.99. Hallar un vector en R
3
que gcnere Ia interseccion de U y W, siendo U el plano xy: U ={(a, b, 0)}
y W el espacio generado por los vectorcs (I, 2, 3) y ( I, - I, I).
5. 100. Demostrar que lin S es Ia intersecci6n de todos los subespacios de V que contienen S.
5.101. Probar que lin S = lin (Sv {0}). Esto es, anadir o suprimir el vector cero de un conjunto no altera
el espacio generado por este.
5.102. Probar que si S T, necesariamente lin S lin T.
5.103. Probar que lin (lin S) = lin S.
5.104. Sean W
1
, W
2
, ... subespacios de un espacio vectorial Vtales que W
1
W
2
... . Sea W = W
1
v W
2
v ... .
a) Demostrar q ue W es un subespacio de v. b) Supongase que S; genera 1-t; para i = I. 2, .. .
Mostrar que S = S
1
v S
2
v .. . genera W.
DEPENDENCIA E INDEPENDENCIA LINEAL
5.105. Determinar si los siguientes vectores en R
4
son linealmente dependientes o independientes:
a) (1, 3, - l , 4), (3, 8, -5, 7), (2, 9, 4, 23) b) (1, -2, 4, 1), (2, 1, 0, -3), (3, -6, 1, 4)
ESPACIOS VECTORIALES 231
5.106. Sea Vel espacio vectorial de los polinomios de grado s3 sobrc R. Determinar si u, v, wE V son
linealmente dependientes o independientes. donde:
a) u = t
3
- 4t
2
+ 2t + 3, v = t
3
+ 2t
2
+ 4t - 1, w = 2t
3
- t
2
- 3t + 5.
b) u = t
3
- 5t
2
- 2t + 3, v = t
3
- 4r
2
- 3t + 4, w = 2t
3
- 7t
2
- ?t + 9 .
5.107. Probar que a) los vectores (I - i. i) y (2, -I+ i) en C
2
son linealmente dependientes sobre el
cuerpo complejo C pero son linealmente independientes sobre el cuerpo real R; b) los vectores
(3 + fi, I + .j2) y (7, l + 2.j2) en R
2
son linealmente dependientes sobre el cuerpo real R pero
son linealmente independientes sobre el cuerpo racional Q.
5.108. Sup6ngase que {u
1
... , 11,, w
1
, . .. , \1'
5
} es un subconjunto linealmente independiente de V. Demos-
trar que lin II; n lin ll'i = {0}. (Recuerdese que lin u; es el subespacio de V generado por los u;.)
5.109. Sup6ngase que v
1
, v
2
, ... , v. son vectorcs lineal mente independientes. Demostrar las siguientes
afirmaciones:
a) {a
1
v
1
, a
2
v
2
, , a. v.}, donde cada a;# 0 es linealmente independiente.
b) {v
1
, ... , V; _
1
, w, vi + I . , v.}. donde w = b
1
v
1
+ ... + b;v; +. + b.v. y b; # 0 es linealmente /
independiente. '
5.110. Supongas/ que (a
11
, . . . , a
1
.), ... ,(ami .. . , am. ) son vectores linealmente independientes en K" y
que v
1
, .. . , c. son vectores linealmente indcpendientes en un espacio vectorial V sobre K . Pro bar
que los vectores
tambien son linealmente independientes.
5.111. Supongase que A es cualquier matriz n-cuadrada y que u
1
, u
2
, ... , u, son vectores columna 11 x I.
Probar que si Au
1
, Au
2
, ... , Au, son vectores (columna) linealmente independientes, entonces
u
1
u
2
, .. . , u, son linealmente independientes.
BASES Y DIMENSION
5.112. Encontrar un subco njunto de u
1
, u
2
, u
3
, u
4
que sea base de W =lin (u
1
, 11
2
, u
3
, u
4
) de R
5
, donde:
a) u
1
= (1, 1, 1, 2, 3), U
2
= (1, 2, -1, -2, 1), 11
3
= (3, 5, -1, -2, 5), 11
4
= (1, 2, 1, -1, 4).
b) u
1
= (1, -2, 1, 3, -1), u
2
= ( -2, 4, -2, -6, 2), u
3
= (1, -3, 1, 2, !), u
4
= (3, - 7, 3, 8, -1).
c) u
1
= (1, 0, 1, 0,1), u
2
= (1, l, 2, 1, 0), u
3
= (1, 2, 3, 1, 1), 11
4
= (1, 2, 1, l, 1).
d) 11
1
= (1, 0, 1, 1, 1), u
2
= (2, 1, 2, 0, 1), u
3
= (1, l, 2, 3, 4), u
4
= (4, 2, 5, 4, 6).
5.113. Sean U y W los siguientes subespacios de R
4
:
U = {(a, b, c, d): b- 2c + d = 0} W = {(a, b, c, c/): a= d, b = 2c}
Hallar una base y Ia dimension de a) U, b) W, c) U n W.
5.114. Hallar una base y Ia dimension del espacio soluci6n W de cada uno de los sistemas homogeneos:
x + 2y - 2z + ~ - t = 0
x + 2y - z + 3s - 2t = 0
2x + 4y - 7z + s + t = 0
a)
x + 2y - z + 3s - 4t = 0
2x + 4y- 2z- s + 5t =:' 0
2x + 4y- 2z + 4s- 21 = 0
b)
232 ALGEBRA LINEAL
5.115. Encontrar un sistema homogeneo cuyo conjunto solucion W este generado por los tres vectores:
(1, -2,0,3, -1) (2, -3, 2, 5, - 3) (1, - 2, 1, 2, -2)
5.116. Sea Vel espacio vectorial de los polinomios en t de grado Determinar si cada uno de los
siguientes conjuntos es o no una base de V:
a) {1, l + L, 1 + t + t
2
, 1 + t + t
2
+ t
3
, .. , 1 + t + t
2
+ + t -
1
+ tn}.
b) {1 + t, t + t
2
, t
2
+ t
3
, ... , r-l + t"-
1
, t -
1
+ t"}.
5.117. Hallar una base y Ia dimension del subespacio W de P(t) generado por los polinomios
a) u = t
3
+ 2t
2
- 2t + 1, v = t
3
+ 3t
2
- t + 4 . y w = 2t
3
+ t
2
- 1t - 7.
b) u = t
3
+ t
2
- 3t + 2, v = 2t
3
+ t
2
+ t - 4 y w = 4t
3
+ 3t
2
- 5t + 2.
5.118. Sea Vel espacio de las matrices 2 x 2 sobre R. Encontrar una base y !a dimension del subespacio
W de V generado por las matrices
(
1 -5)
-4 2

!)
(
2 -4)
- 5 7
y
ESPACIO FILA Y RANGO DE UNA MATRIZ
5.119. Considerense los siguientes subespacios de R
3
:
U
1
= lin [( 1, I, -I), (2, 3, - 1), (3, l, - 5)]
u2 =lin [(1, - 1, - 3), (3, -2, -8), (2, 1, - 3)]
U
3
=lin [(1, I, 1), (I , -1, 3), (3, - 1, 7)]
Determinar los que son identicos entre si.
5.120. Calcular el rango de cada matriz:
(i
3 -2 5

(i
2 -3 -2


1
4 1 3
3 -2 0 -4 5
4 2 4
8 -7 -2 -11 8
7 -3 6 -9 -10 -3 -2
a) b) c)
(
1 -7)
-5 1
l)
(
-6 1
5 -8
d)
5.121. Demostrar que si se suprime una fila cualquiera de una matriz en forma escalonada (can6nica por
filas), Ia matriz resultante sigue estando en forma escalonada (can6nica por filas).
5.122. Sean A y B matrices m x n arbitrarias. Probar que: rango (A +B) 5 rango A + rango B.
5.123. Dar ejemplos de matrices 2 x 2 A y B tales que:
a) rango (A + B) < rango A, rango B c) rango (A+ B)> rango A, rango B
b) rango (A + B)= rango A= rango B
ESPACIOS VECTORIALES 233
SUMAS. SUMAS INTERSECCIONES
5.124. Supongase que U y W son subespacios bidimcnsionales de R
3
. Demostrar que U !"\ W * {0}.
5.125. Supongasc que U y W son subespacios de V y que dim U = 4, dim W = 5 y dim V = 7. Encontrar
todas las dimensiones posibles de U !"\ W.
5.126. Scan U y W subespacios de R
3
para los que dim U = I. dim W = 2 y U W. Probar que
R
3
= U $ W.
5.127. Sean U el subespacio de R
5
generado por
{(1,3, -3, -1, -4) (1, 4, - 1, - 2, - 2) (2, 9, 0, -5, -2)}
y W el generado por
{(1, 6, 2, -2, 3) (2, 8, - 1' - 6, - 5) (1, 3, - 1, -5, -6)}
Hallar: a) dim( U + W). b) dim(U !"\ W).
5.128. Sea Vel espacio vectorial de los polinomios sobre R. Hallar: a) dim( U + W), b) dim(U !"\ W) ,
donde
U = lin (t
3
+ 4t
2
- t + 3, t
3
+ 5t
2
+ 5. 3t
3
+ l0t
2
- St + 5)
W = lin (t
3
+ 4t
2
+ 6, t
3
+ 2r
2
- t + 5, 2t
3
+ 2t
2
- 3t + 9)
5.129. Sean U el subespacio de R
5
generado por
(1, - 1, - 1, -2, 0) (1, -2, -2, 0, - 3)
y
(1, -1, -2, -2, l)
y W el generado por
(l, - 2, -3, 0, -2) (1, -1, - 3, 2, -4) y (1, -1, -2, 2, -5)
a) Encontrar dos sistemas homogeneos cuyos espacios solucion sean U y W, respectivamente.
b) Encontra r una base y Ia dimension de U !"\ W.
5.130. Sean U
1
U
2
y U
3
los siguientes su hespacios de R
3
:
U
1
= {(a, b, c): a + b + c = 0} V
2
= {(a,b,c): a=c} U3 = {(0, 0, t): c E R}
5.131. Supongase que U. V y W son subespacios de un espacio vectorial. Demostrar que
. (U !"\ V) + (U !"\ W)!:;;; U !"\ (V + W)
Encontrar subespacios de R
2
para los que Ia igualdad no sea cierta.
5. 132. La suma de dos subconjuntos. (no necesariamente subespacios) no vacios arbitrarios S y T de un
espacio vectorial V se define como S + T = {s + r: s E S, t e T}. Pro bar que csta operaci6n satisface:
a) Ley conmutativa_: S + T= T + S c) S + {0} = {0} + S = S
b) Ley asociativa: (S
1
+S
2
)+S
3
=S
1
+(S
2
+S
3
) d) S+V=V+S=V
5.133. Sup6ngase que W,. W
2
, .. . , W, son subespacios de un espacio vectorial V. Pro bar que:
a ) lin (W
1
W
2
... , W,) = W
1
+ W
2
+ ... + W,.
b) SiS; genera W; para i = I .. . .. r. entonces S
1
u S
2
u ... u S, genera W
1
+ W
2
+ ... + W,.
234 ALGEBRA LINEAL
5.134. Demostrar el Teorema 5.24.
5. 135. Demostrar el Teorema 5.25.
5.136. Sean U y W espacios vectoriales sobre un cuerpo K. Sea Vel conjunto de pares ordenados (u, w).
donde u pertenece aU y w a W: ~ {(u, w): u eU, weW}. Probar que Ves un espacio vectorial
sobre K con suma en V y producto por un escalar en V delinldos segun
(u, w) + (u', w') = (u + u', w + w' ) y k(u, w) = (ku, kw)
donde u, u' e U, w, w' e W y k E K. (Este espacio V se denomina Ia suma directa externa de U y W.)
5.137. Sea V Ia suma directa externa de los espacios vectoriales U y W sobre un cuerpo K. (Vease el
Problema 5.136.) Sean 0 = {(u, 0): ue U}, W = {(0. w): we W}. Probar que
a) 0 y W son subespacios de V y que V = 0 Ef> W.
b) U es isomorfo a 0 bajo Ia correspondencia u+-> (u, 0) y que W es isomorfo a W bajo Ia
correspondencia w +-+ (0, w).
c) dim V=dim U +dim W.
5.138. Supc:ingase V = U EB W. Sea VIa suma directa externa de U y W. Probar que V es isomorfo a V
bajo Ia correspondencia v = u + w ...... (u, w ).
VECTORES COORDENADOS
5.139. Considerese Ia baseS= {u
1
= (1, - 2), u
2
= (4, -7)} de R
2
. Hallar el vector coordenado [v] de v
relativo a S, siendo a) v = (3, 5), b) v = (l, 1), c) v = (a, b).
5.140. Considerense el espacio vectorial P
3
(t) de los polinomios de grado :S:3 y Ia baseS= {I, t +I, t
2
+ r,
t
3
+ t
2
} de P
3
(t). Encontrar el vector coordenado de v respecto aS, donde: a) v = 2- 3t + t
2
+ 2t
3
;
b) v = 3- 2t- t
2
; c) v =a+ bt + ct
2
+ dt
3

5. 141. Sea S Ia siguiente base del espacio vectorial W de las matrices 2 x 2 reales simetricas:
Encontrar el
a) A = ( I
-5
CAMBIO DE BASE
vector coordenado de Ia matriz A E W relativo a Ia base anterior S, donde:
-5) (I 2)
5 'b) A= 2 4 .
5.142. Calcular Ia matriz de cambia de base P desde Ia base usual E = {(1 , 0), (0, I)} de R
2
hasta Ia baseS.
Ia matriz de cambio de base Q desde Ia base S regresando hasta Ia base E y el vector coordenado
de 11 = (a, b) relativo a S, donde
a) S = {(1, 2), (3, 5)} c) S = {(2, 5), (3, 7)}
b) s = {(1, - 3), (3, - 8)} d) s = {(2, 3), (4, 5)}
ESPACIOS VECTORIALES 235
5.143. Considerense las siguientes bases de R
2
: S = {u
1
= (1, 2), u
2
= (2, 3)} y S' = {v
1
= (1 , 3), v
2
= (1, 4)}.
Hallar: a) Ia matriz de cambio de base P de S a S', b) Ia matriz de cambio de base Q desde S'
volviendo a S.
5.144. Supongase que los ejes x e y en el plano R
2
se giran 30" en el sentido contrario al de las agujas
de un reloj proporcionando unos nuevos ejes x' e y' para el plano. Hallar: a) los vectores unitarios
en las direcciones de los nuevos ejes, b) Ia matriz de cambio de base P para el nuevo sistema de
coordenadas, c) las nuevas coordenadas de cada uno de los siguientes puntos respecto al nuevo
sistema: A(l, 3), 8(2, -5), C(a, b).
5.145. Calcular Ia matriz de cambio de base P desde Ia base usual E de R
3
hasta Ia base S, Ia matriz de
cambio de base Q desde S hasta E y el vector coordenado de v = (a, b, c) relativo a S, estando S
constituida por los vectores:
a) U
1
= (1, 1, 0), u
2
= (0, 1, 2), u
3
= (0, 1, 1) c) u
1
= (1, 2, 1), u
2
= (1, 3, 4), u
3
= (2, 5, 6)
b) u
1
=(I, 0, 1), u
2
= (1, 1, 2), u
3
= (1, 2, 4)
5.146. Supongase que S
1
, S
2
y S
3
son bases de un espacio vectorial V y que P y Q son las matrices de
cambio de base desde S
1
hasta S
2
y desde S
2
basta S
3
, respectivamente. Demostrar que el pr9duc-
to PQ es Ia matriz de cambio de base desde S
1
hasta S
3
.
PROBLEMAS V ARIOS
5.147. Determinar Ia dimension del espacio vectorial W de las matrices n-cuadradas sobre un cuerpo K:
a) simetricas, b) antisimetricas.
5.148. Sean V un espacio vectorial de dimension n sobre un cuerpo K y K uno de dimension m sobre un
subcuerpo F. (Por tanto, V puede verse tambien como un espacio vectorial sobre el subcuerpo F.)
Demostrar que Ia dimension de V sobre F es mn.
5.149. Sean t
1
, t
2
, ... , t. simbolos y K cualquier cuerpo. Sea Vel conjunto de expresiones
a
1
t
1
+ a
2
t
2
+ ... + a.t. donde
Definase Ia suma en V segun
(a ttl + a2 t2 + .. +a. t.) + (b,t
1
+ b
1
t
2
+ .. +b. t.) = (a
1
+ b
1
}t
1
+ (a
2
+ b
2
)t
2
+ .. +(a. + b.)t.
Definase el producto por un escalar en V segun
k(a
1
t
1
+ a
2
t
2
+ ' +a. t.) = ka
1
t
1
+ ka
2
t
2
+ + ka. t.
Probar que V es un espacio vectorial sobre K con las operaciones anteriores. Probar, asimismo,
que {t
1
, ... , t.} es una base de V; donde, para i = 1, ... , n,
t1 = Ot 1 + + Ot
1
_
1
+ It
1
+ Ot
1
+
1
+ + Ot"
236 ALGEBRA LINEAL
RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS
5.90. a) Si.
b) No; por ejemplo, (1, 2, 3) E W pero - 2(1, 2, 3) W.
c) No; por ejemplo, ( 1, 0, 0), (0, 1, 0) E W, pero no su suma.
d) Si.
e) No; por ejemplo, (9, 3, O) E W pero 2(9, 3, 0) W.
5.92. X = 0 no es soluci6n de AX = B.
5.93. No. Aunque uno pueda identifican> eJ vector (a, b) E R
2
con, digamos (a, b, 0) en el plano xy de R
3

son elementos distintos pertenecientes a conjuntos distintos, disjuntos.
5.95. a) Sean/, gEWcon cotas M
1
y M", respectivamente. En tal caso, para todo par de escalares a.
h e R,
l(af + bgXx)l =I af(x) + bg(x)l laf(x) I+ I bg(x)l =I a II J(x) I+ I b II g(x)l :S I aIM;+ I bl M,
Esto es, lal M
1
+ lbl M g es una cota para Ia funci6n af + bg.
b) (af + bgX -x) = af( -x) + bg( -x) = af(x) + bg(x) = (af + bgXx).
5.99. (2, - 5, 0).
5.105. a) Dependientes, b) Independientes.
5.106. a) Independientes, b) Dependientes.
5.107. a) (2, -1 + i) =(I + iXl - i, i); b) (7, 1 + 2.j2) = (3- J2X3 + J2, 1 + j2).
5.113. a)
b)
c)
5.114. a)
b)
Base, {(1, 0, 0, 0), (0, 2, I , 0), (0, - I , 0, I)}; dim U = 3.
Base, {(1, 0, 0, \), (0, 2, 1, 0)}; dim W = 2.
Base, {(0, 2, I, 0)}; dim (U n W) = I. Indicaci6n: U n W debe satisfacer las tres condiciones
sobre a, b, c y d.
Base, {(2, - I, 0, 0, 0), (4, 0, 1, -1, 0), (3, 0, 1, 0, I)}; dim W = 3.
Base, {(2, -I, 0, 0, 0), (I, 0, 1, 0, 0)}; dim W = 2.
{
5x + y - z - s = 0
5.115.
x+y-z-t=O
5.116. a) Si. b) No, porque dim V = n + I , pero el conjunto contiene solo n elementos.
5.117. a) dim W = 2, b) dim W = 3.
5.118. dim W = 2.
ESPACIOS VECTORIALES 237
5.119. Ut y Uz .
5.120. a) 3. b) 2. c) 3. d) 2.
5.123. a)
A=G
1) = ( -1
0 ' B 0
c) A=G B =

'b)
A=G
B =

5.125. dim (U n W) = 2. 3 6 4.
5.127. a) dim (U + W) = 3, b) dim (U n W) = 2.
5.128. a) dim (U + W) = 3, dim (U n W) = 1.
{
3x + 4y- z - t = 0 {4x + 1y - s = 0
5.129. a) 4x + 2y + s = 0' 9x + 2y + z + r = 0
b) {(1, - 2, - 5, 0, 0), (0, 0, I, 0, -1)}. dim (U n W) = 2.
5.130. La suma es directa en b) y c).
5. 131. En R
2
, sean U, V y W, respectivamente, Ia recta y = x y los ejes x e y.
5.139. a) [ - 41, 11], b) [ -11, 3], c) [-1a- 4b, 2a+b].
5.140. a) [4, -2, - 1, 2], b) [4, - 1,-1,0],
c) [a- b + c- d, b- c + d, c - d, d].
5.141. a) [2-, - 1, 1], b) [3, 1, -2].
5.142. a) P = G !} Q = ( _ [v] = ( !)
p = ( 1 3) = (-8 - 3) v = ( - 8a - 3b)
b) -3 - 8 'Q 3 1 ' [] 3a- b
c) P=G
d) p =G
5.143. a) P = ( _ _
5.144. a) (j3/2, t). (-!. j3;2).
b) p = (fi/2 - t )
t j3;2
3\ [v] = (-1a+3b)
- 2/ 5a- 2b
2), [v] = ((- f)a + 2b)
- 1 (t)a-b
b) -D
238 ALGEBRA LINEAL
c) [A] = [(j3- 3)/2, {1 + 3}3)/ 2],
[B] = [{2j3 + 5)/ 2, {2 - 5}3)/ 2],
[C) = [(j3a- b)/2, (a + j3b)/2].
5.145.
Como E es Ia base usual, sea P sencillamente Ia mat riz cuyas columnas son u
1
, 11
2
u
3
En tal caso.
Q = p - ly (v] = r
1
v = Qv.

0
Q- ( :
0
[] -( a-:+< )
a) 1 -1
2 1 -2 2 - 1 - 2a+2b-c


- 2
') ( -2b +') b) 1 3 - 2 [ v] = 2a + 3b - 2c
2 4 -1 -1 1 -a - b + c
P-(:
') c
2
-1)
c) 3
Q = - ;
4 -1 , [v] = - ?a+ 4b- c
4
-3 1 Sa- 3b + c
5.147. a ) n(n + I )/2, h) n(n - I )/2.
5. 148. Indicacion: La demostracion es casi identica a Ia dada en el Problema 5.86 para el caso especial en
el que V es una extension del cuerpo K .
CAPITULO 6
Espacios con producto interno.
Ortogonalidad
6.1. INTRODUCCION
La definicion de un espacio vectorial V involucra un cuerpo arbitrario K. En este capitulo nos
restringiremos a los cases en que K es el cuerpo real R o el complejo C. En concreto, supondre-
mos primero, a menos que se establezca o sobrentienda lo contrario, K = R, en cuyo caso V se
denomina espacio vectorial real, y en las ultimas secciones extenderemos nuestros resultados al
caso K = C, en cuyo caso V recibe el nombre de espacio vectorial complejo.
Recordemos que los conceptos de longitud y ortogonalidad no aparecian en Ia investi-
gacion de. los espacios vectoriales arbitrarios (aunque lo hicieran en el Capitulo 2, referente a los
espacios Rn y en). En este capitulo establecemos una estructura adicional en un espacio vectorial
V para obtener un espacio con producto interno. Es en este contexto en el que se definen los
conceptos citados.
Como en el Capitulo 5, adoptamos Ia siguiente notacion (a menos que se especifique o venga
implicita otra cosa):
V el espacio vectorial dado
u, v, w vectores en V
K el cuerpo de escalares
a, b, c o k escalares en K
Subrayamos que V denotara un espacio vectorial de dimension finita salvo que se establezca
o sobrentienda lo contrario. De hecho, muchos de los teoremas del capitulo no son validos para
espacios de dimension infinita. Esto se ilustrari en algunos de los ejemplos y problemas.
6.2. ESPACIOS CON PRODUCTO INTERNO
Comenzamos con una definicion.
239
240 ALGEBRA LINEAL
Definicion: Sea V un espacio vectorial real. Supongamos que a cada par de vectores u, v E V
se le asigna un numero real, denotado por ( u, v). Esta funci6n se llama un producto interno
(real) en V si satisface los axiomas:
[I .J (Propiedad lineal) (au
1
+ bu
2
, v) = a(u
1
, v) + b(u
2
, v).
[I
2
] (Propiedad simetrica) (u, v) = (v, u).
[I
3
] (Propiedad definida positiva) (u, u) ~ 0; y (u, u) = 0 si y solo si u = 0.
El espacio vectorial V se denomina entonces espacio (real) con producto interno.
El axioma [I r1 es equivalente a las dos condiciones:
y
b) (ku, v) = k( u, w)
Usando [I
1
] y el axioma de simetria [I
2
] llegamos a
(u, cvl + dv
2
) = (cv
1
+ dv
2
, u) = c(vl> u) + d(v
2
, u) = c(u, v
1
) + d(u, v
2
)
o, equivalentemente, a las dos condiciones
a) (u, v
1
+ v
2
) = (u, v
1
) + (u, v
2
) y
b) (u, kv) = k( u, v)
Esto es, Ia funcion producto interno es tambien lineal en su segunda posicion (variable). Por
inducci6n, tendremos
(a
1
u
1
+ + a,u,, v) = a
1
(u
1
, v) + a
2
(u
2
, v) + + a,(u., v)
y
Combinar estas dos propiedades nos conduce a Ia formula general escrita a continuacion:
Podemos hacer, por orden, las siguientes observaciones:
Nota 1: El axioma [I
1
] por si mismo implica
(0, 0) = ( Ov, 0) = O(v, 0) = 0
En consecuencia, [I .J, [I
2
] e [I
3
] son equivalentes a [I
1
] , [I
2
] y el axioma:
[ I ~ ] Si u # 0, necesariamente (u, u) > 0
0 sea, una funci6n que satisface [I
1
] , [I
2
] e [ I ~ ] es un producto interno.
Nota 2: De acuerdo con [I
3
] , ( u, u) es no negativo y por tanto existe su raiz cuadrada real
positiva. Utilizamos Ia notaci6n
l l u l l ~
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 241
El numero real no negativo llull se denomina Ia norma o longitud de u. Esta funci6n satisface los
axiomas de una norma para un espacio vectorial. (Veanse el Teorema 6.25 y Ia Secci6n 6.9.)
Hacemos notar que Ia relaci6n lluf = (u, u) se empleari con frecuencia.
EJ EM PLO 6.1. Consideremos el espacio vectorial R". El producto escalar en R" se define segun
uv=a1b1 +a
2
b
2
++a"b"
donde u = (a;) y v = (b;). Esta funci6n define un producto interno en R". La norma !lull del vector
u = (a;) en este espacio es:
II u Jaf a;
Por otra parte, por el teorema de Pitagoras sabemos que Ia distancia del origen 0 en R
3
al punta P(a, b, c),
mostrado en Ia Figura 6-1, viene dada por J a
2
+ b
2
+ c
2
Esta coincide precisamente con Ia norma del
vector v = (a, b, c) en R
3
definida anteriormente. Dado que el teorema de Pitagoras es una consecuencia
de los axiomas de Ia Geometria Euclidea, e1 espacio ''ectorial R" con el producto interno y norma
precedentes se conoce como n-espacio euclideo. A pesar de haber muchos otros posibles, supondremos que
este es el product a interno de R", a no ser que se establezca o sobrentienda lo contrario. Se llama el product a
interno usual de R".
/
/
/
/
a
P(a, b, c)
I
I
I
I
I
y
// b
//
Figura 6-1.
Nota: Los vectores en R" se representan frecuentemente por matrices columna n x 1. En tal
caso, el producto interno usual (Ejemplo 6.1) puede definirse segun
(u, V) = UTV
EJEMPLO 6.2
a) Sea V el espacio vectorial de las funciones reales continuas en el intervalo a t b. El siguiente es
un producto en V:
(/,g)= ft(t)g(t) dt
donde f(t) y g(t) son ahara funciones continuas cualesquiera en fa, b].
242 ALGEBRA LINEAL
b) Sea V nuevamente el espacio vectorial de las funciones reales continuas en el intervale a ~ l ~ b Si
w(t) es una funcion continua dada, positiva en [a, b], otro producto interne en V es:
(J, g) = r w(t)J(r)g(t) dt
En este caso, w(t) se denomina una June ion peso para el producto interne.
EJEMPLO 6.3
a) Denotemos por Vel espacio vectorial de las matrices m x n sobre R. Un producto interne en V es:
(A, B) = tr (BT A)
donde tr quiere decir traza o suma de los elementos diagonales. Si A = (ai) y B ;;;; (bu),
m
(A, B) = tr (BT A)= L L aiibli
i= t Jt
que es Ia suma de los productos de las entradas correspondientes. En particular,
"' .
II A 11
2
=(A, A)= L L afJ
l t J=l
que es Ia suma de los cuadrados de los elementos de A.
b) Sea Vel espacio vectorial de las sucesiones infinitas de numeros reales (at, a
2
, . ) que cumplen
<lO
L af = af + ~ + < oo
i = l
esto es, Ia suma converge. La suma y el producte por un escalar se definen por compenentes:
(at. a
1
, .. ) + (b
1
, b
2
, ) = (a
1
+ bt, a
2
+ b
2
, ... )
k(at, a
2
, ... ) = (kat, lw
2
, ... )
Puede definirse un preducto interno en V segun
((a
1
, a
2
, ), (bt, b
2
, )) = a
1
b
1
+ a
2
b
2
+
-
La suma anterior converge absolutamente para todo . par de vectores en V (Problema 6.12); por
consiguiente, el producto interne esta bien definido. Este espacio con producto interne recibe el nombre
de espacio 1
2
(o espacio de Hilbert).
6.3. DESIGUALDAD DE CAUCHY-SCHWARZ. APLICACIONES
La formula escrita abajo (demostrada en el Problema 6. 10) se conoce como desigualdad de
Cauchy-Schwarz, y se emplea en numerosas ramas de las matematicas.
Teorema 6.1 (Cauchy-Schwarz): Para todo par de vectores u, v E V,
(u, v)
2
~ (u, u)(v, v) o, equivalentemente, I ( u, v) ~ II u II II vII
A continuaci6n examinamos Ia desigualdad en casos especificos.
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 243
EJEMPLO 6.4
a) Consideremos reales arbitrarios a
1
, ... , an, b
1
, .. . , b . PorIa desigualdad de Cauchy-Schwarz,
(a
1
b
1
+ a
2
b
2
+ .. + a.b.)
2
a;)(b: + + b;)
es decir, (uv)
1
ll ull
2
11vll
2
, donde u = (a;) y v = (b;).
b) Sean f y g funciones reales continuas arbitrarias definidas en el intervalo unidad 0 t 1. Segun Ia
desigualdad de Cauchy-Schwarz,
Aqui V es el espacio con producto interno del Ejemplo 6.2 a).
El teorema que sigue (demostrado en el Problema 6.11) nos da las propiedades basicas de
una norma; Ia demostraci6n de Ia tercera requiere el uso de Ia desigualdad de Cauchy-Schwarz.
Teorema 6.2: Sea V un espacio con producto interno. La norma en V satisface las propiedades:
(N
1
] llvll 0; y llvll = 0 si y solo si v = 0.
[N2] llkvll = lkl l! vll.
[N3] ll u :t- vii ll ull + llvll.
Las propiedades [N d, [N
2
] y [N
3
] precedentes son las que se han elegido como axiomas de
una norma abstracta en un espacio vectorial (vease Ia Secci6n 6.9). El teorema anterior. dice,
pues, que Ia definida por un producto interno es realmente una norma. La propiedad [N
3
] ,se
llama a menudo desigualdad triangular porque, si vemos u + v como el lado del triangulo
formado con u y v (como se muestra en Ia Figura 6-2), [N
3
] establece que Ia longitud de un Jado
de un triangulo es menor o igual que Ia suma de las longitudes de los otros dos.
tL
Figura 6-2.
Podemos hacer, por orden. una serie de observaciones.
I: Si Jl ull = 1, o, equivalentemente, si ( u, u) = l , u se denomina un vector unitario y 'se
dice que esta normalizado. Todo vector no nulo vE V puede multiplicarse por el inverso de su
longitud para obtener el vector unitario
que es un multiplo positivo de v. Este proceso se conoce como normalizaci6n de v.
244 ALGEBRA LINEAL
Nota 2: El numero real no negativo d(u, v)= llu- vii recibe el nombre de distancia entre u y v;
esta funci6n satisface los axiomas de un espacio metrico (vease el Teorema 6.19).
Nota 3: Para todo par de vectores no nulos u, v E V, el angulo entre u y v se define como el
angulo (J tal que 0 (} n y
(u, v)
cos
0
= II u II II v II.
Segun Ia desigualdad de Cauchy-Schwarz, - 1 cos 0 1 y asi el angulo (J siempre existe y es
unico.
6.4. ORTOGONALIDAD
Sea V un espacio con producto interno. Se dice que los vectores u, vE V son ortogonales y que
u es ortogonal a v si
(u, v) = 0
La relaci6n es claramente simetrica; es decir, si u es ortogonal a v, necesariamente (v, u) = 0 y
por tanto v es ortogonal a u. Hacemos no tar que 0 E V es ortogonal a todo v E V, ya que
(0, v) = (Ov, v) =O(v, v) =0
Reciprocamente, si u es ortogonal a todo v E V, entonces ( u, u) = 0, luego u = 0 por [I
3
].
Observemos que u y v son ortogonales si y solo si cos 8 = 0, siendo 0 el angulo entre u y v, lo
que es cierto si y solo si u y v son perpendiculares, esto es, si (} = n/2 ( o (} = 90.).
EJEMPLO 6.5
a) . Consideremos un vector arbitrario u = (a
1
, a
2
, ,a,) en R". Un vector v = (x
1
, x
2
, .. , x.) es orto-
gonal au si
Dicho de otro modo, v es ortogonal a u si satisface una ecuacion homogenea en Ia que los coeficientes
son los elementos de 11.
b) Supongamos que buscamos un vector no nulo que sea ortogonal a v
1
= (1, 3, 5) y v
2
= (0, I, 4) en R
3
.
Sea w = (x, y, z). Queremos que
0 = (v
1
, w) = x + 3y + 5z y 0 = (v
2
, w) = y + 4z
Asi obtenemos el sistema homogen<:o
x + 3y + 5z = 0 y + 4z = 0
Tomamos z = l llegando a y = -4 y x = 7; por tanto, w = (7, .-4, I) es ortogonal a v
1
y v
2
.
Normalizando w conseguimos
. .
w = w/11 w II = (7/./66, - 4/./66, 1/j66)
que es un vector unitario ortogonal a v
1
y v
2

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 245
COMPLEMENTOS ORTOGONALES
Sea S un subconjunto de un espacio con producto interno V. El complemento ortogonal de S,
denotado por Sj_ (lei do S perp ), consiste en aquellos vectores de V que son ortogonales a todo
vector uES:
S_l_ = {v E V: (v, u) = 0 para todo u E S}
En particular, para un vector dado u en V, tendremos
u.l = {v E V: (v, u) = 0}
Es decir, u_l_ consiste en todos los vectores que son ortogonales al vector dado u.
Probemos que Sj_ es un subespacio de V. Obviamente, OESl., puesto que 0 es ortogonal a todo
vector en V. Supongamos ahora que v, wE S1. . En tal caso, para todo par de escalares a y b y .
todo vector u E S,
( av + bw, u) = a( v, u) + b(w, u) =a 0 + b 0 = 0
. De este modo, av + bw E sj_ y sl. es un subespacio de v.
Establezcamos formalmente este resultado.
Propc)sicion 6.3: Sea S un subconjunto de un espacio con producto interno V. Entonces s1. es
un subespacio de V.
Nota 1: Supongamos que u es un vector no nulo en R
3
: En este caso existe una interpretacion
geometrica de u_l_. De forma especifica, ul. es el plano en R
3
que, pasando por el ongen, es
perpendicular a! vector u, tal y como se muestra en Ia Figura 6-3.
z
X
Figura 6-3.
Nota 2: Consideremos un sistema de ecuaciones lineales homogeneo sobre R:
a
11
x
1
+ a
12
x
2
+ ' + atoox .. = 0
a
21
x
1
+ a
22
x
2
+ : + a
2
,.x,. = 0
246 ALGEBRA LINEAL
Recordemos que el espacio soluci6n W puede verse como la soluci6n de Ia ecuaci6n matricial
equivalente AX = 0, donde A = (a;) y X = (x;). Esto suministra otra interpretacion de W, en Ia
que se usa Ia noci6n de ortogonalidad. Concretamente, cada vector soluci6n v = (x
1
, x
2
, ... , xn)
es ortogonal a todas las filas de A; y, en consecuencia, W es el complemento ortogonal del espacio
fila de A.
EJEMPLO 6.6. Supongamos que queremos hallar una base del subespacio u
1
en R
3
, siendo u = (1, 3, - 4).
N6tese que u.l_ esta formado por todos los vectores (x, y, z) tales que
((x, y, z), (l, 3, -4)) = 0
0 x + 3y-4z=0
Las variables libres son y y z. Tomemos:
l. y = -I, z = 0 para obtener la soluci6n w
1
= (3, - I, 0).
2. y = 0, z = I para obtener Ia soluci6n w
2
= (4, 0, 1).
Los vectores w
1
y w
2
constituyen una base del espacio soluci6n de Ia ecuaci6n y por ende una base de u
1
.
Supongamos que W es un subespacio de V. Wy w.t son ambos subespacios de V. El teorema
enunciado a continuaci6n, cuya demostraci6n (Problema 6.35) requiere el uso de resultados de
las secciones posteriores, es basico dentro del algebra lineal.
Teorema 6.4: Sea W un subespacio de V. Entonces V es Ia suma directa de W y w.t, o sea,
V= WEB w.t.
EJE.MPLO 6.7. Sea Wel eje zen R
3
, esto es, W= {(0, 0, c): ce R}. En ese caso, W
1
es el plano xy o,
en otras palabras, W
1
={(a, b, 0): a, beR}, tal y como se ilustra en Ia Figura 6-4. Como se seiial6
previamente, R
3
= WE) w.t.
w
y
Figura 6-4.
-
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 247
6.5. CONJUNTOS ORTOGONALES Y BASES. PROYECCIONES
Un conjunto de vectores S en V se dice ortogonal si cada par de vectores en S lo son, y S se
dice ortonormal si es ortogonal y cada vector de S tiene longitud unidad. Dicho de otro modo,
S = {u
1
,' u
2
, . , u,} es ortogonal si
y ortonormal si
< >
_ _ {0 para i -:1= j
U1 UJ - U-
' '
1
1 para i = j
La expresi6n norma/izar un conjunto ortogonal S de vectores se refiere al proceso de
multiplicar cada vector de S por el inverso de su longitud con el fin de transformar S en un
conjunto ortonormal de vectores.
Una base S de un espacio vectorial V se llama base ortogonal u ortonormal segun lo sea como
' conjunto de vectores.
Son aplicables los siguientes teoremas, demostrados en los Problemas 6.20 y 6.21, respecti-
vamente.
Teorema 6.5: Supongamos que S es un conjunto ortogonal de vectores no nulos. En tal caso,
S es linealmente independiente.
Teorema 6.6 (Pitagoras): Supongamos que { u
1
, u
2
, , u,} es un con junto ortogonal de vectores.
Entonces
II U1 + U2 + + u, 11
2
= II U1 11
2
+II u
2
11
2
+ .. + li u, 11
2
Probemos aqui el teorema de Pitagoras en el caso especial y familiar de dos vectores. Especi-
ficamente, supongamos (u, v) = 0. Tenemos
II u + v 11
2
= (u + v, u + v) = ( u, u) + 2(u, v) + (v, v) = (u, u) + (v, v) = II u 11
2
+II v li
2
lo que nos lleva a nuestro resultado.
EJEMPLO 6.8
a) Consideremos Ia base usual E del 3-espacio euclideo R
3
:
E = {e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1)}
Es claro que
(e
1
, e
2
) = ( e
1
, e
3
) = (e
2
, e
3
) = 0 y
Asi pues, E es una base ortonormal de R
3
Con mayor generalidad, Ia base usual de R" es ortonormal
para todo n.
b) Sea Vel espacio vectorial de las funciones reales continuas sobre el intervalo -rr.::;; t .::;; n con producto
interno definido por (/, g) = Un ej emplo clasico de subconjunto ortogonal de Ves:
{1_. cos t, cos 2t, ... , sen t, sen 2t, ... }
El conjunto ortogonal precedente juega un papel fundamental en Ia teoria de las series de Fourier.
..
248 ALGEBRA LINEAL
c) Consideremos el conjunto S de vectores en R
4
:
S = {u = (1, 2, -3, 4), v = (3, 4, l , -2), w = (3, -2, l , l }
N6tese que
(u, v) = 3 + 8 - 3 + 8 = 0 . ( u, w) = 3- 4- 3 + 4 = 0 (v, w) = 9 - 8 + 1 - 2 = 0
De este modo, S es ortogonal. Normalizamos S para conseguir un conjunto ortonormal, calculando
primero
II u 11
2
= 1 + 4 + 9 + 16 = 30
11 v 11
2
= 9 + 16 + 1 + 4 = 30
El que sigue es, pues, el conjunto ortonormal de vectores deseado:
u = (l/j30, 2/fo. -3/fo, 4/j30)
i) = (3!j30, 4/fo, 1/ fo, -2/J3Q)
w = (3/fo, -2/fo, lifo, lifo>
ll wll
2
=9+4+1+1 = 15
Tenemos tambien u + u + w = (7, 4, - 1, 3) y lltt + u + wll
2
= 49 + 16 +I + 9 = 75. Siendo asi,
II u 11
2
+II v 11
2
+ II w 11
2
= 30 + 30 + 15 = 75 = II u + v + w 11
2
con lo que se verifica el teorema de Pitagoras para el conjunto ortogonal S.
EJEMPLO 6.9. Consideremos el vector u = (1, I, I, I) en R
4
. Supongamos que queremos encontrar una
base ortogonal de u\ el complemento ortogonal de u. Observemos que u.l. es el espacio soluci6n de Ia
ecuaci6n lineal.
x+y+z+t=O [I]
Hailamos una soluci6n no nula v
1
de [1], digamos v
1
= (0, 0, l , -1 ). Queremos que nuestro segundo vector
de Ia base v
2
sea solucion de [I ) y ademas ortogonal a v
1
, esto es, que sea una soluci6n del sistema
X + y + Z + l = 0 Z - t = 0 (2)
)(, .
Hallamos una soluci6n no nula v
2
de [2], digamos v
2
= (0, 2, - 1, I). Queremos que nuestro tercer vector
de Ia base v
3
sea soluci6n de [I] y ademas ortogonal a v
1
y v
2
, es decir, que sea una soluci6n del sistema
X+ y + Z + t. = 0 2y- Z - t = 0 Z ~ 0 (3)
y_
Hall amos una soluci6n no nul a de [3), por ejemplo v
3
= ( - 3, I, I, I ). Entonces { u
1
, v
2
, v
3
} es una base
ortogonal de u.l. . (Observese que hemos eleg1do las soluciorles intermedias v
1
y v
2
de manera tal que cada
nuevo sistema este ya en forma escalonada. Esto hace los calculos mas sencillos.) Podemos deterrninar una
base ortonormal de ul. normalizando Ia base ortogonal de u.L ante"rior. Tenemos
II VI 11
2
= 0 + 0 + 1 + l = 2 II v
3
11
2
= 9 + 1 + 1 + 1 = 12
De modo que !a siguiente es una base ortonormal de u.L.
v
1
= (0,'0, 1/.fi., -1/./i) u2 = (0, 2/fi, - 1/.,fi, -l/j6)
EJEMPLO 6.10. Supongamos que S consiste en los vectores de R
3
:
u
1
= (1, 2, 1) u
2
= (2, 1, -4) u
3
= (3, -2, 1)
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 249
En tal caso. S es ortogonal, pues u
1
u
2
y u
3
son ortogonales entre si:
Asi S es linealmente independiente y, dado que tiene tres elementos, es una base ortogonal de R
3
.
Supongamos ahora que queremos escribir v = (4, I, 18) como combinacion lineal de u
1
, u
2
y tt
3
.
Comenzamos tomando v como combinacion lineal de u
1
, u
2
y u
3
usando incognitas x, y, z como se hace
a continuacion:
[I]
Metodo 1. Desarrollamos [I] obteniendo
x + 2y + 3z = 4 2x + y- 2z = 1 X - 4y + Z = 18
de donde x = 4, y = - 3, z = 2. De este modo, v = 4u
1
- 3u
2
+ 2tt
3

'
Metodo 2. (Este metodo utiliza el hecho de que los vectores de Ia base son ortogonales, y Ia aritmetica es
mucho mas simple.) Tomamos el producto internode [I] y u
1
para conseguir
. (4, 1, 18) (1, 2, 1) = x(l, 2, 1) (1, 2, 1) 0 24 = 6x 0 x=4
(Los dos ultimos desaparecen porque u
1
es ortogonal a u
2
y a u
3
.) Tomamos el producto interno
de [I] y u
2
llegando a
(4, 1, 18). (2, 1, -4) = y(2, 1, -4). (2, 1, -4) 0 -63 = 21y 0 y= -3
Finalmente,. tomamos el producto interno de [I] y u
3
para obtener
(4, 1, 18). (3, -2, 1) = z(3, -2, 1). (3, -2, 1) 0 28 = 14z 0
z=2
Asi pues, v = 4u
1
- 3u
2
+ 2u
3

El procedimiento del Metodo 2 del Ejemplo 6.10 es valido en general; esto es,
Teorema 6.7: Supongamos que {u
1
, u
2
, ... , u,.} es una base ortogonal de V Para todo vE V,
( v, u
1
) (v, u
2
) (v, u,.)
v = u
1
+ u
2
+ + u,.
(u
1
, u
1
) (u
2
, u
2
) (u,., u,.)
(Vease el Problema 6.4 para su demostraci 6n.)
Nota: Cada escalar
k = (v, u;) _ (v, u;)
1
- (ui, u;)- II ui 11
2
se denomina coeficiente de Fourier de v con respecto a los u
1
, debido a que es analogo a un
coeficiente en Ia serie de Fourie( de una funci6n. Este escalar tiene tambien una interpretacion
geometrica, que se discute mas adelante.
250 ALGEBRA LINEAL
PROYECCIONES
Consideremos un vector no nulo w en un espacio vectorial con producto interno V. Para todo
vE V demostran!mos (Problema 6.24) que
(v, w) (v, w)
c=---=---
( w, w) II w 11
2
.
es el unico escalar tal que v' = v - cw es ortogonal a w. La proyecci6n de v a lo largo de w,
como se indica en la Figura 6-5, se denota y define por
(v, w) (v, w)
proy (v, w) = cw = --- w = --- w
( w,w) llwll
2
El escalar c tambien se llama el coeficiente de Fourier de v con respecto a w o Ia componente
de v a lo largo
\
\
\
\'-CII'
Figura 6-5.
EJEMPLO 6.11
a) Hallemos la comp6nente c y Ia proyecci6n cw de v = (l, 2, 3, 4) a lo largo de w = (l , .:...3, 4, 2)
en R
4
Para ello comenzamos por calcular
(v, w) = 1 - 6 + 12 - 8 = -1 y Uwll
2
= 1 + 9 + 16 + 4 = 30
Entonces c =-fay proy (v, w) = cw = (-fa, fo, - fs, fa).
b) Sea Vel espacio vectorial de los polinomios con producto interno ( f, g) = Jci f(t)g(t)dt. Hallemos Ia
componente (coeficiente de Fourier) c y La proyecci6n cg de f(t) = 2t- I a lo largo de g(t) = t
2

Empezamos calculando
a g)= r
1
(2t
3
_ t
2
) dt =

=
Jo 2 3
0
6 1
1 [tS]l 1
(g, g) = t
4
dt = - =-
0 5 0 5
Entonces c = y proy (f, g)= cg = 5t
2
f6.
La noci6n precedente puede generalizarse como sigue.
Teorema 6.8: Supongamos que w
1
, w
2
, . , w, constituyen un conjunto ortogonal de vectores
no nulos en V. Sea v un vector arbitrario en v. Definamos v' ' = v - c
1
w
1
- c
2
w
2
- .. - c, w,
siendo
.. . ,
En ese caso, v' es ortogonal a w
1
, w
2
... , w,.
(v, w,)

,
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 251
N6tese que los c
1
en el teorema anterior son, respectivamente, las componentes (coeficientes
de Fourier) de v a lo largo de los w
1
Ademas, el teorema enunciado a continuaci6n (probado
en el Problema 6.31) muestra que c
1
w
1
+ ... + c,w, es la aproximaci6n mas cercana a v por
combinaci6n lineal de w
1
, ... , w,.
Teorema 6.9: Supongamos que w
1
, w
2
, ... , w, forman un conjunto ortogonal de vectores no
nulos en V. Sean v cualquier vector en V y C; la componente de v a lo largo de w
1
Para escalares
cualesquiera a
1
, ... , a,,
El siguiente teorema (demostrado en el Problema 6.32) se conoce como !a desigualdad de
Bessel.
Teorema 6.10: Supongamos que {e
1
, e
2
, ... , e,} es un conjunto ortonormal de vectores en V.
Sean v cualquier vector de Vy c; el coeficiente de Fourier de v con respecto a e
1
Entonces
r
~ ~ ~ I I v 11
2
1< =1
Nota: La noci6n de proyecci6n incluye Ia de un vector a lo largo de un subespacio como se
explica a continuaci6n. Supongamos que W es un subespacio de V y que v E V. Por el Teore-
ma 6.4, V = WEB W.L; por consiguiente, v puede expresarse de forma unica como
v = w + w' con w E W, w' E w.L.
Llamamos a.w Ia proyecci6n de v a lo largo de W, Io que denotamos por w = proy (v, W). (Vease
!a Figura 6-6). En particular, si W =lin (w
1
, ... , w,), d o n d ~ los w
1
forman un conjunto ortogonal.
siendo c
1
la componente de v a lo largo de w
1
, como antes.
p
v-proy (v, W)
proy (v, W) Q
Figura 6-6.
252 ALGEBRA LINEAL
6.6. PROCESO DE ORTOGONALIZACION DE GRAM-SCHMIDT
Supongamos que { v
1
, v
2
, ... , v"} es una base de un espacio con producto interno V. Podemos
construir una base ortogonal {w
1
, w
2
, ... , wn} de Vcomo sigue. Tomemos
Dicho de otro modo, para k = 2, 3, ... , n, definamos
donde cki = (vk, wi)/ll will
2
es Ia componente de vk a lo largo de wi. De acuerdo con el Teore-
ma 6.8, cada wk es ortogonal a los precedentes, de modo que w
1
, w
2
, ... , w" forman una base
ortogonal de V, como se pretendia. La normalizaci6n de cada wk proporci.onani una base
ortonormal de V.
La construcci6n anterior se conoce como el proceso de ortogonalizaci6n de Gram-Schmidt. A
continuaci6n hacemos una serie <k observaciones, por orden.
Nota 1: Cada vector wk es combinaci6n lineal de v
1
y de los vectores w precedentes; por
inducci6n, cada wk es combinaci6n lineal de v
1
, v
2
, ... , vk.
Nota 2: Supongamos que w ~ w
2
, ... , w, son linealmente independientes. Formarfm, pues, una
base de U = lin wi. El proceso de ortogonalizaci6n de Gram-Schmidt sobre los wi conduce a
una base ortogonal de U.
Nota 3: En los calculos manuales puede resultar mas sencillo suprimir los denominadores en
cada nuevo wk multiplicando este por un escalar apropiado, lo que no afecta a Ia ortogonalidad
(Problema 6.75).
Los siguientes teoremas, demostrados en los Problemas 6.32 y 6.33, respectivamente, hacen
uso del algoritmo y las notas que acabamos de ver.
Teorema 6.11: Sea {v
1
, v
2
, ... , v"} cualquier base de un espacio con producto interno V. Existe
una base ortonormal {u
1
, u
2
, ... , u"} de V tal que Ia matriz de cambio de base desde {v;}
hasta { u;} es triangular; es decir, para k = I, ... , n,
-.
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 253
Teorema 6.12: Supongamos que S = {w
1
, w
2
, . , w,} es una base ortogonal de un subespacio
W de V. Entonces es posible extender S a una base ortogonal de V, o sea, pueden encontrarse
vectores wr+
1
, .. . , wn, tales que {w
1
, w
2
, .. . , wn} sea una base de V.
EJ EM PLO 6.12. Consideremos el subespacio U de R
4
generado por
V1 = (1, 1, l, 1) v
1
= (1, 2, 4, 5} v
3
= (1, - 3, -4, -2)
Hallemos una base ortonorma l de U, encontrando primero una base ortogonal mediante el a lgorit mo de
Gram-Schmidt. Primero tomamos w
1
= v
1
= (1 , I , I, 1). Despues calculamos
(v
1
, w
1
) 12
V
2
- l W
1
= (1, 2, 4, 5) - -
4
(1, 1, 1, 1) = (- 2, - 1, 1, 2)
llwtll
Tomamos w
2
= ( -2, - I , 1, 2). Luego hallamos
( v
3
, w
1
) ( v
3
, w
2
) -8 - 7
v3- ll w,ll
1
W1 - Uw
1
ll
2
w1 = (1,-3,-4, -2) - 4 (1, 1, 1, 1) - l0(-2, -1, 1, 2) =
= - -
Eliminamos los denominadores obteniendo w
3
= (16, - 17, - 13, 14). Por ultimo, normalizamos Ia base
ortogonal
WI = (1, 1, 1, 1) w
2
= (-2, -1, 1, 2) w
3
= (16, - 17, - 13, 14)
1 .
u
2
= r.i\ ( - 2, -1, 1, 2)
. ....; 10
1
u
3
= ,lil";"i\ (16, - 17,-13, 14)
v' 910
EJEMPLO 6.13. Sea Vel espacio vectorial de los polinomiosf(t) con producto intemo (f, g) = J:
1
f(c)g(c)dt.
Aplicamos el algoritmo de Gram-Schmidt al conj unto { I, c, t
2
, r
3
} para obtener una base ortogonal
{!
0
,f
1
,f
2
,f
3
} , con coeficientes enteros, del subespacio U de los polinomios de grado Aqui utilizamos
el hecho de que si r + s = n,
I
I [c+t]t {2/(n + l)
< t' t') = t" dt = -- =
' - I n + 1 _
1
0
s1 n es par
si 11 es impa r
Empezamos t oma ndo fo = I . Luego halla mos
( t, 1) 0
c - --1 = t -- 1 = t
< 1, 1 > 2
Sea f
1
= t. Entonces calculamos
1
( t
1
, 1) ( c
1
,c)
1
t 0
2
. 1
c - - -1---t= t -- 1 - - t =l - -
( 1, 1) ( c, t ) 2 t 3 ..
por 3 para llegar

= 3t
2
- I. Despues calculamos
( t
3
, l ) ( c
3
,t) ( t
3
, 3t
1
- l ) t 3
r
3
- -- 1 - --t - (3t
2
- 1) = t
3
- 0 I - - t - 0(3c
2
- 1) = c
3
- - t
( 1, 1) ( t,t) (3t
1
- 1, 3t
2
- 1) i 5
254 ALGEBRA LINEAL
Multiplicamos por 5 para llegar a f
3
= 5t
3
- 3t. Esto es, {I, t, 3t
2
- I, 5t
3
- 3t} es Ia base ortogonal de U
requerida.
Nota: La normalizaci6n de los polinomios del Ejemplo 6.13 de forma que p(l)"= 1 para todo
polinomio p(t) conduce a los
1, t, !(3t
2
- 1), t(5t
3
- 3t)
Estos son los cuatro primeros polinomios de Legendre (importantes en el estudio de ecuaciones
d iferenciales).
6.7. PRODUCTOS INTERNOS Y MATRICES
Esta secci6n investiga dos tipos de matrices que desempefian un papel especial en Ia teoria de
espacios reales con producto interne .V: las matrices definidas positivas y las ortogonales. En
este contexte, los vectores en R" se representan'tn por vectores columna (de modo que ( u, v) = uT v
denotani el producto interno usual en R").
MATRICES DEFINIDAS POSITIVAS
Sea A una matriz real simetrica. Recordemos (Secci6n 4.11) que A es congruente a una matriz
diagonal B, es decir, existe una matriz no singular P tal que B = pT AP es diagonal, asi como
que el numero de entradas positivas de B es un invariante de A (Teorema 4.18, ley de inercia).
Se dice que Ia matriz A es definida positiva si todas las entradas diagonales de. B son positivas.
Alternativamente se dice que A es definida positiva si XT AX> 0 para todo vector no nulo X
en R". - - - -- -
. ( 1 0 -1) .
EJEMPLO 6.14. Sea A= 0 1 - 2 . Reducimos A a una matriz (congruente) diagonal (vease Ia
. -1 -2 8 .
Secci6n 4.11) efectuando R
1
+ R
3
--+ R
3
y Ia operaci6n entre columnas correspondiente C
1
+ C
3
-+ C
3
, y
despues 2R
2
+ R
3
--+ R
3
y 2C
2
+ C
3
--+ C
3
:
.. (1 0 0) (1
A- 0 1 -2 - 0
0 - 2 7 0
0
1
0
~
Como Ia matriz diagonal tiene solo entradas positivas, A es una matriz definida positiva.
N U
. . , .
2
(a b) (a b)
ota: na matnz s1metnca x 2 A = = es definida positiva si y solo si las en-
. . c d b d .
tradas ?iagonales a y d son positivas y el determinante det (A) =ad - be = ad - b
2
es positive.
El teorema que sigue, demostrado en el Problema 6.40, es aplicable.
Teorema 6.13: Sea A una matriz real de.finida positiva. La funci6n ( u, v) = uT Av es un pro-
ducto interne en Rn.
-.
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 255
El Teorema 6. 13 dice que toda matriz delinida positiva A determina un producto interno.
La discusion que ahora se inicia y el Teorema 6.15 pueden verse como el reciproco de este
resultado.
Sean V un espacio con producto interno y S = { u
1
, u
2
, ... , u"} una base de V. La matriz A
escrita a continuacion se denomina representaci6n m.atricial del producto interno en V relativa a
Ia baseS:
(
(u1, U1) (u1, Uz ) (ut, u") )
(u
2
,u
1
) (u
2
,u
2
) . .. ( u
2
,u")
A= ............ ....... : ............. .
(u,., u
1
) (u", u
2
) ... (u,., u,)
0 sea, A = (aij), donde au= (u;, ui>
. Observese que A es simetrica por serlo el producto interno, esto es, (u;, u) = (ui, u
1
).
Asimismo, A depende tanto del producto interno en V como de Ia base S de V. Aun mas, si S
es una base ortogonal, A es necesariamente diagonal, y si S es una base ortonormal, A es Ia
matriz identidad.
EJEMPLO 6.15. Los tres vectores siguientes forman una baseS del espacio euclideo R
3
:
" = (l, l, 0)
u
2
= (l, 2, 3)
El calculo de los uj) = <uj, u;) proporciona:
( u
1
, u
1
) = 1 + l + 0= 2
(u
2
, u
2
) = l + 4 + 9 = 14
De este modo,
(u
1
, u
2
) = 1 + 2 + 0 = 3
(u
2
, u
3
) = 1 + 6 + 15 = 22
1! 2;)
4 22 35
u
3
= (l, 3, 5)
( u
1
, u
3
) = l + 3 + 0 = 4
(u
3
, u
3
) = l + 9 + 25 = 35
es Ia representaci6n matricial del producto interno usual en R
3
relativa a Ia base S.
Son aplicables los teoremas enunciados a continuaci6n y demostrados en los Problemas 6.41
y 6.42, respectivamente.
Teorema 6.14: Sea A Ia representaci6n matricial de un producto interno relativa a una base S
de V. Para todo par de vectores u, v E V tenemos
(u, v) = [uY A[v]
donde [u] y [v] denotan los vectores (columna) coordenados respecto a Ia base S.
Teorema 6.15: Sea A Ia representacion matricial de cualquier producto interno en V. Entonces
A es una matriz definida positiva.
MATRICES ORTOGONALES
Recordemos (Seccion 4.6) que una matriz P es ortogonal es no singular y p-
1
= pT, esto es.
si p pT = pT p = I. Esta subsecci6n lleva mas lejos [a investigaci6n de dichas matrices. Empeza-
mos recordando (Teorema 4.5) una importante caracterizaci6n de las matrices ortogonales.
256 ALGEBRA LINEAL
Teorema 6.16: Sea P una matriz real. Son equivalentes las tres propiedades:
i) P es ortogonal, es decir, pr = P-
1
.
.ii) Las filas de P forman un conjunto ortonormal de vectores.
iii) Las columnas de P forman un conjunto ortonormal de vectores.
(El teorema precedente solo es cierto cuando se utiliza el producto interno usual de R", no
cuando R" esta dotado de cualquier otro producto interno.)
(
cos e
Nota: Toda matriz ortogonal 2 x 2 presenta las formas .
-sen e
para algun numero real 8 (Teorema 4.6).
EJEMPLO 6.16
sen 0)
0
(cos tJ
cos e sen 0
sen e)
-cos e
P = (
1
/f - Las filas son ortogonales ent re si y son vectores o sea,
2/}6 - 1/./6 -1/.fi .
constituyen un conjunto ortonormal de vectores. Podemos decir, pues, que P es ortogonal.
Los dos teoremas siguientes, demostrados en los Problemas 6.48 y 6.49, respectivamente,
muestran algunas relaciones importantes entre matrices ortogonales y bases ortonormales de un
espacio con producto interno V.
Teorema 6.17: Supongamos que E = {eJ y E' = {e;} son bases ortonormales en un espacio con
producto interno V. Sea P Ia matriz de cambio de base desde E hasta '. En ese caso, P es
ortogonal.
Teorema 6.18: Sean {e
1
, , e"} una base ortonormal de un espacio con producto interno Vy
P = (ai) una matriz ortogonal. Entonces los n vectores que siguen forman una base ortonormal
de V:
(i = 1, 2, ... , n)
6.8. ESPACIOS COMPLEJOS CON PRODUCTO INTERNO
Esta secci6n considera espacios vectoriales sabre el cuerpo complejo C. Recordemos primero
algunas de las propiedades de los numeros complejos (Secci6n 2.9). Supongamos que z E C, es
decir, z = a + bi, donde a, bE R. En tal caso,
z =a- bi
Asimismo, para z, z
1
, z
2
eC,
Zt + z2 = Zt + zl
. y z es real si y solo si z = z.
y
Z=Z
.
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 257
Definicion: Sea V un espacio vectorial sobre C. Supongamos que a cada par de vectores u, v E V
se le asigna un numero complejo, denotado por (u, v) . Esta funci6n se denomina un producto
interno (complejo) en V si satisface los axiomas:
[Jj] (Propiedad lineal) ( au
1
+ bu
2
, v) = a ( u
1
, v) + b(u
2
, v).
[Ii) (Propiedad simetrica conj ugada) ( u, v) = (v, u) .
[J j] (Propiedad definida positiva) ( u, u) 0; y ( u, u) = 0 si y solo si u = 0.
El espacio V sobre C recibe entonces el nombre de espacio (complejo) con producto interno.
Observemos que un producto interno complejo difiere solo ligeramente de un producto
interne real (unicamente [I!] difiere de [/
2
]). De hecho, muchas de las definiciones y propiedades
de un espacio complejo con producto interne coinciden con las de un espacio con producto
interne real. Sin embargo, algunas de las demostraciones deben adaptarse at caso complej o.
El axioma [/i] es tambien equivalente a las dos condiciones:
a) ( u
1
+ u
2
, v) = (u
1
, v) + ( u
2
, v) y b) ( ku, v) = k(u, v)
En cambio,
( u, kv) = ( kv, u) = k( v, u) =k(v, u) = k( u, v)
(En otras debemos tomar el conjugado de un escalar complejo cuando este se saca de
Ia segunda posicion del producto interne.) Demostraremos (Problema 6.50) que, de hecho, el
producto interno es antilinea/ en Ia segunda posicion, esto es,
( u, av
1
+ bv
2
) = a(u, v
1
) + b( u, v
2
)
Puede probarse (Pro blema 6.95), amilogamente, que
( a
1
u
1
+. a
2
u
2
, b
1
v
1
+ b
2
v
2
) = a
1
b
1
(u
1
, v
1
) + a
1
b
2
( u
1
, v
2
) + a
2
b
1
(u
2
, v
1
) + a
2
b
2
(u
1
, v
1
)
y, por induccion,
Podemos hacer, por orden, las observaciones similares:
Nota 1: El axioma [IiJ por si mismo implica ( 0, 0) = (Ov, 0) = O( v, 0) = 0. En consecuencia,
[Ii], [!!] e [I! ] son equivalentes a [Jj], [I!] y el axioma:
[IrJ Si u =;t:O, necesariamente ( u, u) > 0
0 sea, una funcion que satisface [/j], (li ] e [/j'] es un producto interno (complejo) en V.
:'IJota 2: De acuerdo con [Ii], ( u, u) = ( u, u). Asi (u, u) debe ser real. Por [Jj], ( u, u) debe
ser. no negati ve y por tanto existira su raiz cuadrada. Como haciamos con los espacios con
producto interno reales, definimos Ia norma o longitud de u como llull =
258 ALGEBRA LINEAL
Nota 3: Junto a Ia norma, definimos las nociones de ortogonalidad, complemento ortogonal,
y conjuntos ortogonales y ortonormales como antes. De hecho, las definiciones de distancia,
coeficiente de Fourier y proyeccion son las mismas que en ~ I caso real.
EJEMPLO 6.17. Sean u = (z
1
) y v = (w
1
) vectores en C". Entonces

( u, v) = 2:ztwt=z
1
w
1
+z
2
w
2
++z.w.
t a l
es un producto interno en C" llamado el producto usual o convencional en C". {Supondremos este producto
interno en C" a menos que se establezca o sobrentienda otra cosa.) En caso de que u y _v sean reales.
tenemos k'; = w
1
y
Dicho de otro modo, este producto interno se reduce a su analogo en R" cuando las entradas son reales.
Nota: Aceptando que u y v son vectores columna, el producto interno precedente puede
definirse segun < u, v) = u r v.
EJEMPLO 6.18
a) Sea V el espacio vectorial de las funciones complejas continuas defiuidas sobre el intervalo {real)
a ~ t ~ b. El producto interno usual en V es:
(.f, g) = f f(t )g(t) dt
b) Sea U el espacio vectorial de las matrices m x n sobre C. Supongamos que A = (z
1
) y B = (wli) son
elementos de U. El producto interno usual en U es:
.. .
(A, B)= tr BHA = I I w
1
jzij
i = 1 } = 1
Como de costumbre, BH = liT, o sea, BH es Ia t raspuesta conjugada de B.
A continuacion se presenta una Iista de teoremas para espacios complejos con producto
interno, analogos a los dados para el caso real (el Teorema 6.19 se demuestra en el Proble-
ma 6.53).
Teorema 6.19 (Cauchy-Schwarz): Sea V un espacio complejo con producto interno. Entonces
l( u, v)l :s; II u 1111 vII
Teorema 6.20: Sea W un subespacio de un espacio complejo con producto interno V En tal
caso, V,;, WEB W .L
Teorema 6.21: Supongamos que {u
1
, u
2
, , un} es una base ortogonal de un espacio vectorial
complejo V Para todo v E V,
( v, u
1
) (v, u
2
) (v, u ~
v = WZ ul + ~ u2 + ... + II u.ll2 u.
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 259
Teorema 6.22: Supongamos que {u
1
, u
2
, .. , u"} es una base de un espacio complejo con
producto interno V. Sea A = (aii) Ia matriz compleja definida por aij = (ui, ui). Para todo par
de vectores u, v E V,
( u, v) = [uYA[v]
donde [u] y [v] son los vectores columna coordenados en Ia base {u.} dada. (Nota: Se dice que
esta matriz A representa el producto interno en V.)
Teorema 6.23: Sea A una matriz hermitica (esto es, An = .IF= A) tal que xr AX es real y
positivo para todo vector no nulo X E en. En tal caso, ( u, v) = UT Av es un producto interno
en C".
Teorema 6.24: Sea A Ia matriz que representa un producto interno en V. Entonces A es
hermitica y xr AX es real y positivo para cualquier vector no nulo en en.
,/
6.9. ESPACIOS VECTORIALES NORMADOS
Empecemos con una definicion.
Definicion: Seavun espacio vectorial real o complejo. Supongamos que a cada vE Vse le asigna .
un numero real, denotado por II vii - Esta funci on II II se llama una norma en V si satisface los
axiomas:
[N d II vii 0; y II vii = 0 si y solo si v = 0.
[N
2
] ll kvll = lklllvll.
[N
3
] ll u !lull + IJ vll .
El espacio vectorial V con una norma se denomina espacio vectorial normado.
Se pueden hacer, por orden, una serie de observaciones.
Nota 1: El axioma [N
2
] por si mismo implica 11 011 = II Ovll = 0 II vii = 0. De acuerdo con esto,
[N Jl, [N
2
] y [N
3
] son equivalentes a [N
2
], [N
3
] y el axioma:
[N'd Si v # 0, necesariamente J vll > 0
Es decir, una funci6n 11 11 que satisfaga [N
2
] y [N
3
] es una norma en un espacio vectorial V.
2: Supongamos que V es un espacio con producto interno. La norma en V definida por
vii = satisface [N
1
], [N
2
] y [N
3
]. Asi todo espacio con producto interno Ves un espacio
vectorial normado. No obstante, puede haber normas en un espacio vectorial V que no proven-
gao de un producto interno.
3: Sea V un espacio vectorial normado. La distancia entre los vectores u, VE V se denota
y define por d(u, v) = llu - vii.
/
260 ALGEBRA LINEAL
El teorema enunciado a continuaci6n revela Ia raz6n principal por la que d(u, v) recibe el
nombre de distancia entre u y v.
Teorema 6.25: Sea V un espacio vectorial normado. La funci6n d(u, v) = llu- vii satisface los
tres axiomas de un espacio metrico: .
[MtJ d(u, v) ~ 0; y d(u, v) = 0 si y solo si u = v.
[M
2
] d(u, v) = d(v, u).
[M
3
] d(u, v) ~ d(u. w) + d(w, v).
NORMAS EN R" Y C"
Las siguientes definiciones corresponden a tres importantes normas en R" y C":
ll(al , ... , a.)lloc =max (Ia;!)
ll(al, ... , a.) ll 1 =lad+ lazl + ... + la,l
ll (ap ... , a,)llz = ) lad
2
+ la
2
1
2
+ + la.l
2
(N6tese que se utilizan subindices para distinguir las tres normas.) Las normas II II ""' II 11
1
y
II 11
2
se denominan norma uniforme ( o del supremo), !-norma y 2-norma, respectivamente.
Observemos que II 11
2
es Ia norma en R" (C") inducida por el producto interno usual. (Denotare-
mos por d co d
1
y d
2
las correspondientes funciones distancia.)
EJEMPLO 6.19. Consideremos los vectores u = (1, -5, 3) y v = (4, 2. -3) en R
3
.
a) La norma uniforme elige el maximo de los valores absolutos de las componentes, fuego
Jlu Jic., = 5 Y ll vlloo = 4
b) La 1-norma suma los valores absolutes de las componentes. De cste modo,
Jlu JI I .= I + 5 + 3 = 9 y ll vll
1
= 4 + 2 + 3 = 9
c) La 2-norma es igual a Ia raiz cuadrada de Ia suma de los cuadrados de las componentes (o sea, Ia
norma inducida par el producto interne usual en R
3
). Asi pues,
II u liz= JT+ 25 + 9 = J35 y II v 11
2
= Jt6 + 4 + 9 = J29
d) Dado que u- v = (I - 4, - 5-2, 3 + 3) = ( - 3, -7, 6), tenemos
d..,(u, v) = 7 d
2
(u, v) = j9 + 49 + 36 = .J94
EJEMPLO 6.20 . . Consideremos el plano cartesiano R
2
mostrado en Ia Figura 6-7.
a) Sea D
1
el conjunto de puntas u = (x, y) en R
2
tales que Jl uJI
1
= I. D
1
consiste, pues, en los puntas
(x, y) tales que l u l l ~ = x
1
+ y
2
= I. Siendo asi, D
1
es el circulo unidad , como se muestra en Ia
Figura 6-7.
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 261
b) Sea D
2
el conjunto de puntos u = (x, y) en R
2
tales que ll ull
1
= l. Entonces D
2
consiste en los puntos
(x, y) tales que ll ull
1
= lxl + IYI = I. De este modo, D
2
es el rombo inscrito en el circulo unidad, como
se ilustra en La Figura 6-7.
c) Sea D
3
el conjunto de puntos u = (x, y) en R
2
tales que Hull.,= l. En ese caso, D
3
consiste en los
puntos (x, y) tales que llull oo =max (lxl. IYI ) = 1. Asi pues, DJ es el Cuadrado circunscrito a\ circulo
unidad, como se indica en Ia Figura 6-7.
y
- I
Figura 6-7.
NORMAS EN C[a, bl
Consideremos el espacio vectorial V= C[a, b) de las funciones continuas en el intervalo t
Recordemos que un producto interno en V es:
<J. g) = r f(t)g(t) dt
El producto interno anterior define Ia norma en V = C [a, b] (analoga a Ia II 11
2
en Rn):
. llf ll 2 = r[f(t)]
2
dt
El ejemplo que sigue define otras dos normas en V = C[a, b ].
EJ EM PLO 6.21
a) Sea 11!11
1
= (Esta norma es analoga a Ia 11 11
1
en R".) Existe una descripci6n geometrica de
11!11
1
y Ia distancia d
1
(J, g). Como se ilustra en Ia Figura 6-8, 11!11
1
es el area entre la funci6n 1!1 y el
eje t, mientras que d
1
(f, g) es el area entre las funciones J y g.
262 ALGEBRA LINEAL
a b a b
(a) II f 11
1
est a som breada (b) d
1
(f, g) esta sombreada
Figura 6-8.
b) Sea 11/ll oo = max (1/(t)l). (Esta norma es amiloga a Ia 1111., en R".) Existe una descripci6n geometrica
de 11/lloo y Ia funci6n distancia d
00
(f, g). Como se muestra en Ia Figura 6-9, 11 / lloo es Ia distancia
maxima entre f y el eje t y doo (f, g) Ia distancia maxima entre f y g.
a b b
(a) II f II.., (b) d,.,(J, g)
Figura 6-9.
PROBlEMAS RESUELTOS
PRODUCTOSINTERNOS
6.1. Desarrollar ( 5u
1
+ 8u
2
, 6v
1
- 7v
2
).
Usando Ia linealidad en las dos posiciones,
( Su
1
+ 8u
1
, 6v
1
- 7v
1
) = (Su
1
, 6v
1
) + ( 5u
1
, - 7v
1
) + (8u
2
, 6v
1
) + ( 8u
1
, -7v
2
) =
= 30( u
1
v
1
) - 35(u
1
, v
2
) + 48(u
2
, v
1
) - 56(u
2
, v
2
)
[Nota: Observese Ia similitud entre el desarrollo anterior y el de (5a + Sb)(6c- ?d) en el algebra
ordinaria.)
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 263
6.2. Considerense los vectores en R
3
: u = (1, 2, 4), v = (2, -3, 5), w = (4, 2, -3). Hallar:
a) uv, b) uw, c) vw, d) (u + v) W, e) llull , f) llvll, g) li u +vii.
a) Multiplicamos las componentes correspondientes y las sumamos obteniendo u v=2-6+ 20= 16.
b) u. w = 4 + 4- 12 = -4.
c) vw = 8-6-15= -13.
d) Calculamos primero u + v = (3, -1, 9). En ese caso, (u + v) w = 12- 2-27 = -17. Alter-
nativamente, usando [ld, (u + v) w = u w + v w = -4- 13 = - 17.
e) Calculamos primero llull
2
elevando at cuadrado las componentes de u y sumando:
y asi
f) llvll
2
= 4 + 9 + 25 = 38 y asi ll vll = fo.
g) Segun d), u + v = (3, -1, 9). De aqui llu + vl!
2
= 9 + I + 81 = 91 y l! u +vii = fo.
6.3. Verificar que el siguiente es un producto interno en R
2
:
donde
Metodo 1. Comprobamos que se satisfacen los tres axiomas de un producto interno. Tomando
w = (z
1
, z
2
) encontramos
Asi pues,
au+ bw = a(x
1
, x
2
) + b(z
1
, z
2
) = (ax
1
+ bz
1
, ax
2
+ bz
2
)
(au+ bw, v) = ((ax
1
, ax
2
+ bz
2
), (y
1
, y
2
))=
= (ax
1
+ bz
1
)y
1
- (ax
1
+ bz
1
)y
2
- (ax
2
+ bz
2
)y
1
+ 3(ax
2
+ bz
2
)y
2
=
= a(XtYt- X1Y2- X2Y1 + 3XzY2) + b(ZtYt- Z1Y2- ZzYt + 3z2y2) =
= a(u, v) + b(w, v)
y por tanto se satisface el axiom a [I Jl. Asimismo,
y se satisface [!
2
]. Finalmente,
Ademas, (u, u) = 0 si y solo si x
1
= 0, x
2
= 0, es decir, u = 0. consiguiente, se satisface el
ultimo axioma [I 3].
Metodo 2.
Razonamos con matrices. Esto es, escribimos (u, v) en notaci6n matricial:
. T ( I
( u,v) = u Av=(x
1
,x
2
)
- 1
Como A es real y simetrica, solo necesitamos probar que es delinida pOSJtJva. Efectuando Ia
operaci6n elemental entre filas R
1
+ R
2
-+ R
2
, seguida de Ia correspondiente operaci6n elemental
entre column_as C 1 + C2 -+ C
2
, llevamos A a Ia forma este modo, A es definida
positiva, de acuerdo con lo cual, (u, v) es un producto interno.
264 ALGEBRA LINEAL
6.4. Considerense los vectores u = (1, 5) y v = (3, 4) en R
2
. Hallar:
a) ( u, v) con respecto al producto interne usual en R
2
.
b) (u, v) con respecto al producto interne en R
2
del Problema 6.3.
c) !lvll empleando el producto interne usual en R
2

d) llvll empleando el producto interne en R
2
del Problema 6.3.
a) (u, v) = 3 + 20 = 23.
b) (u, v) = 1 3 - 1 4 - 5 3 + 3 5 4 = 3- 4- 15 + 60 = 44.
c) II v 11
1
= (v, v) = ((3, 4), (3, 4)) = 9 + 16 = 25, Iuego II vII= 5.
d) II v 11
1
= (v, v) = ((3, 4 ~ (3, 4)) = 9- 12- 12 + 48 = 33; Juego II vII = fo.
6.5. Considerense el espacio vectorial V de los polinomios con producto interne definido por
J ~ f(t)g(t)dt y los polinomios f(t) = t + 2, g(t) = 3t- 2 y h(t) = t
2
- 2t- 3. Hallar:
a) (f, g) Y ( f , h) , b) ll .fll y 11 911 - c) Normalizar .f y g.
a) Integramos como sigue:
<!.g)= r(t + 2X3t _ 2) dt = r(3t
1
+ 4t _ 4) dt = [t
3
+ 2t
1
- 4 t ] ~ = -1
<J. h) = (t + 2Xt
1
- 2t- 3) dt = ----6t = --
i
l [t
4
7tl ]1 37
0 4 2 0 4
b) <J.J> = e(t + 2Xt + 2) dt =
19
y II f II= J<j]) + Ji9;3 = ..fi7
Jo 3 3
(g, g)= f(3t- 2X3t- 2) = 1; por tanto, llgll = jl = I
.j57 I 3
c) Siendo 11/11 = -, ]= -!= - (t + 2). N6tese que g ya cs un vector unitario, pues
3 11/11 J57
ll g II = I; por consiguiente, g = g = 3t - 2.
6.6. Sea V el espacio vectorial de las matrices reales 2 x 3 con el producto interne
( A, B) = tr BrA y considerense las matrices
8
5
~
2
5
!)
c = (3 -5 2)
1 0 -4
Calcular: a) (A, B), (A, C) y ( B, C); b) (2A + 38, 4C); c) II All y II BII. d) Norma-
lizar A y B.
a) [ Usamos (A, B) = tr BrA = itl Jt ai)biJ Ia suma de los productos de las entradas corres-
pondientes.J
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 265
( A, B) = 9 + 16 + 21 + 24 + 25 + 24 = 119
( A, C) = 27 - 40 + 14 + 6 + 0- 16 = -9
( B, C)= 3 - 10 + 6 + 4 + 0-24 = - 21
b) Hallamos 2A + 3B = (
21
24
22
25
23) ( 12 - 20 8)
y 4C = . Entonces
26 4 () - 16
(2A + 3B, 4C) = 252- 440 + 184 + 96 + 0 - 416 = -324
Alternativamente, usando Ia propiedad lineal de los productos internes.
(2A + 3B, 4C) = 8( A, C) + 12(B, C) = 8(-9) + 12( - 21) = - 324
c) [ Utilizamos II AII
2
= ( A, A) = J
1
J
1
a0, Ia suma de los cuadrados de los elementos de A. ]
II A 11
2
= ( A, A)= 9
1
+ 8
2
+ 7
2
+ 6
1
+5
2
+ 4
2
= 271 y asi
II B 11
2
= ( B, B) = 1
2
+ 2
2
+ 3
2
+ 4
2
+ 5
2
+ 6
2
= 91 y asi
II AII =fol
II B II =fo
- 1 1 (9/fol 8/fi71 1;.jm)
A= II Ali A = .jlli A= 6/./271 5/.jm 4/.jm
fj = _1_ B = _1_ B = (1/fo 2/j9i 3/fo)
II B II fo 4/fo 5/fo 6Jfo
6.7. Determinar Ia distancia d(u, v) entre los vectores:
a) u= (1 , 3, 5, 7) y v= (4, - 2, 8, I) en R
4

h) u = t + 2 y v = 3t - 2, donde ( u, v) = Jci u(t)v(t)dt.
Usamos d( u, v) = ll u- vii.
a) u ..:... v = ( -3, 5, - 3, 6). De este modo,
ltu- v 11
2
= 9 + 25 + 9 + 36 = 79 por lo que d(u, v) = II u- vII = fi9
b) u - v= - 2t+4. De aqui
II u - v 11
2
= < u - v, u - v > = f (-2t + 4 )(- 2t + 4) dt =
1
1 [4 ]' 28
= 0 (4t
2
- 16t + 16) dt = 3 t
3
- 8t
1
+ 161 0 = 3
Asi pues, d(u, v) = J1f = jfo.
6.8. Hallar cos B, siendo 0 el imgulo entre:
a) u = (1, -3, 2) y v = (2, 1, 5) en R
3
.
b) u = (1, 3, -5, 4) y v = (2, - 3, 4, 1) en R
4
.
266 ALGEBRA LINEAL
c) f(t) = 2t - I y g(t) = t
2
, donde (f, g ~ Jbf(t)g(t)dt.
(
2 1) (0 -1) ..
d) A =
3
_
1
y B =
2 3
, donde (A, B) = tr B
1
A.
(u, v)
Usamos cos e = --.
ll ullll vll
a) Calculamos ( 11, v) = 2- 3 + 10 = 9, ll ull
2
=I+ 9 + 4 = 14, llvl\
2
= 4 +I + 25 = 30. Siendo
asi,
9 9
cos 8= = - -
fo J30 2.Jl05
b) Aqui (u, v) = 2 - 9- 20 + 4 = - 23, ll ull
2
= I+ 9 + 25 + 16 =51, 1\ vl\
2
= 4 + 9 + 16 + I =30.
De este modo,
-23 -23
cos8= =--
J5tfo 3ji70
c) Calculamos
i __ fo
Por tanto, (} = . ;:; fi
O/v3Xl/v5) 6
d) Calculamos ( A, B) = 0 -I+ 6 - 3 = 2, IIAII
2
= 4 + I + 9 + I = 15, 1\ 811
2
= 0 + I + 4 + 9 = 14.
Asi
2 2
cosO= =--
Ji5Ji4 fiiO
6.9. Comprobar:
a) Ley del paralelogramo (Fig. 6-10): Uu + vll
2
+ llu- vll
2
= 211ull
2
+ 211vll
2
.
b) Forma polar de ( u, v) (que muest ra que el producto interno puede obtenerse de la
funci 6n norma): ( u, v) = CII u + vll
2
- ll u- vll
2
) .
Desarrollamos cada una de las expresiones que siguen para obtener:
II u + v il
2
=: ( u + v, u + v) = II u 11
2
+ 2(u, v) + II v 11
2
II u- vll
2
= (u- v, u - v) =II u 11
2
- 2(u, v) +II v 11
2
Sumando [IJ y [2]1legamos a Ia ley del paralelogramo a). Restando [2] a (1],
II u + v H
2
- II u- v 11
2
= 4( u, v)
(I]
[2]
Dividimos por 4 para conseguir Ia forma polar (real) b). (La forma polar en el caso complejo es
diferente.)
'
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 267
u
u
Figura 6-10.
6.10. Demostrar el Teorema 6.1 (Cauchy-Schwarz).
Para cualquier numero real t ,
( tu + v, tu +c) = t
2
( u, u) + 2t(u, v) + (v, v) = t
2
11 u 11
2
+ 2t( u, u) + II v 11
2
Sean a= ll ull
2
, b = 2(u, v) y c = llvV Como ll tu + vll
2
~ 0, tenemos
at
2
+ bt + c ~ 0
para todo valor de t. Esto significa que el polinomio cuadnitico no puede tener dos raices reales.
lo que implica b
2
- 4ac ~ 0 o b
2
~ 4ac. De este modo,
Dividir por 4 nos conduce a nuestro resultado. (Nota: La desigualdad de Cauchy-Schwarz para
espacios compLejos con producto interno se trata en el Problema 6.53.)
6.11. Demostrar el Teorema 6.2.
Si v '# 0, necesariamente (v, v) > 0 y por ende II vii = J<_;;:;;) > 0. Si v = 0, entonces ( 0, 0) = 0 .
. En consecuencia, 11011 = Jo = 0. Siendo asi, [N
1
) es cierto.
Tenemos llkvll
2
= (kv, kv) = k
2
(v, v) = k
2
ll vll
2
Tomando Ia raiz cuadrada de ambos miembros
llegamos a [N
2
).
Empleando Ia desigualdad de Cauchy-Schwarz,
II u + v 11
2
= (u + v, u + v) = (u, u) + (u, v) + (u, v) + (v, v) ~
~ II u 11
2
+ 2 11 u 1111 vII + II v 11
1
=(II u II + II v 11)
2
Tomando La raiz cuadrada de ambos miembros obtenemos [N
3
).
6.12. Sean (a
1
, a
2
, ) y (b
1
, b
2
, ... ) cualquier par de vectores en el espacio 1
2
del Ejem-
plo 6.3 b). Mostrar que el producto interno esta bien definido, es decir, pro bar que Ia
00
suma I a;b; = a
1
b
1
+ a
2
b
2
+ .. converge absolutamente.
j : 1
Segun el Ejemplo 6.4 a) (desiguaLdad de Cauchy-Schwarz),
latbt l + .. l a . b ~ l ~ m m:s;m m
Io que se verifica para todo n. Asi La sucesi6n (mon6tona) de sumas s. = la
1
bd + ... + la. b.l es
acotada y por tanto converge. Podemos decir, pues, que Ia suma infinita converge absolutamente.
268 ALGEBRA LINEAL
ORTOGONALIDAO. COMPLEMENTOS ORTOGONALES.
CONJUNTOS ORTOGONALES
6.13. Determinar k para que los pares que se citan a continuaci6n sean ortogonales:
a) u = (1, 2, k, 3) y v = (3, k, 7, -5) en R
4
.
b) f(t) = t + k y g(t) = t
2
, donde <!.g) = ~ f(t)g(t)dt.
a) Primero hallamos ( u, v) = (1, 2, k, 3) (3, k, 7, - 5) = 3 + 2k + 7k- 15 = 9k- 12: Despues
tomamos ( u, v) = 9k- 12 = 0 para encontrar k = }.
b) Primero hallamos
<J. g) = (t + k)t
2
dt = (t
3
+ kt
2
) dt = - +- =- +-
i
l ll [t4 kt3]1 1 k
o o 4 3
0
43
I k 3
Tomamos ( f, g) = - +- = 0 obteniendo k = --.
4 3 4
6.14. Considerese u = (0, 1, -2, 5) en R
4
. Hallar una base para el complemento ortogonal
u.l de u.
Buscamos todos los vectores (x, y, z, t) de R
4
tales que
((x, y, z, t), (0, 1, -2, 5)) = 0 0 Ox + y - 2z + 5t = 0
Las variables libres son x, z y t. De acuerdo con ello:
1. Tomamos x = I, z = 0, t = 0 para obtener Ia soluci6n w
1
= (1, 0, 0, 0).
2. Tomamos x = 0, z = 1, t = 0 para obtener Ia solucion w
2
= (0, 2, 1, 0).
3. Tomamos x = 0, z = 0, t = I para obtener Ia solucion w
3
= (0, -5, 0, 1).
Los vectores w
1
, w
2
, w
3
constituyen una base del espacio soluci6n de Ia ecuacion y por en de una
base de 11
1
.
6.15. Sea W el subespacio de R
5
generado por u = (1 , 2, 3, - 1, 2) y v = (2, 4, 7, 2, - 1).
Hall ar una base para el complemento ortogonal w.1 de W
Buscamos todos los vectores w = (x, y, z, s, t) tales que
( w, u) = x + 2y + 3z - s + 2t = 0
( w, v) = 2x + 4y + 7z + 2s- t = 0
Despejando x de la segunda ecuacion encontramos el sistema equivalente
x + 2y + 3z - s + 2t = 0
z + 4s- 5t = 0
Las variables libres son y, s y t . Por eso:
I. Tomamos y = - 1, s = 0, t = 0 para obtener Ia solucion w
1
= (2, - I, 0, 0, 0).
2. Tomamos y = 0, s = 1, t = 0 para obtener Ia soluci6n w
2
= (13, 0, - 4, I, 0).
3. Tomamos y = 0, s = 0, t = I para obtener Ia solucion w
3
= ( - 17, 0, 5, 0, 1).
El conjunto {w
1
, w
2
, w
3
} es una base de W
1
.
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 269
6.16. Sea w = (1, 2, 3, 1) un vector en R
4
. Encontrar una base ortogonal de wj_.
Hallamos una solucion no nula de x + 2y + 3z + t = 0; por ejemplo, v
1
= (0, 0, I, -3). Ahora
hallamos una soluci6n no nula del sistema
x + 2y + 3z + l = 0 z- 3t = 0
digamos v
2
= (0, -5, 3, I). Por ultimo, hallamos una solucion no nula del sistema
x + 2y + 3z + t = 0 -5y + 3z + t = 0 z- 3t = 0
como puede ser v
3
= ( - 14, 2, 3, I). De este modo, v
1
, v
2
, v
3
forman una base ortogonal de wj_.
(Comparese con el Problema 6.14, donde Ia base no tenia que ser ortogonal.)
6.17. Sup6ngase que S consiste en los vectores de R
3
:
u, = (l, l, 1) u
2
= (1, 2, -3) IJ3 = (5, -4, - 1)
a) Probar que S es ortogonal y es una base de R
3
.
b) Escribir v = (1 , 5, -7) como combinaci6n lineal de u
1
, u
2
, u
3
.
a) Calculamos
(u
1
, u
2
) = l + 2 - 3 = 0
Dado que cada producto interno es igual a 0, S es ortogonal y debido a ello es linealmente
independiente. Asi S es una base de R
3
, pues tres vectores linealmente independientes cuales-
quiera en R
3
constituyen una base del espacio.
b) Sea v = xu
1
+ yu
2
+ zu
3
para escalares desconocidos x, y, z. esto es,
(1, 5, -7) = x(l , 1, I)+ y(l, 2, -3) + z(5, -4, -1)
[I]
Metodo l. Desarrollamos (I] obteniendo el sistema
x + y + 5z = 1 x + 2y- 4z = 5 X- 3y- Z = -7
Lo resol vemos llegando a x = - 1, y = .if . z = - -fi .
Metodo 2. (Este metodo utiliza el hecho de que los vectores de Ia base son ortogonales, con
lo que Ia aritmetica es mas sencilla.) Tomamos el producto interno de [I) y u
1
para conseguir
(1, 5, -7) ( I, 1, 1) = x(l, 1, 1) (1 , 1, 1) 0 - 1 = 3x 0 X = - t
(Los dos ultimos terminos desaparecen porque Ill es ortogonal a u2 y UJ .) Tomamos el pro-
ducto internode [I] y u
2
obteniendo
(1, 5, - 7)(1,2, - 3) = y(l,2, -3)(1,2, -3) 0 32 = 14y 0 y =.If
Tomamos el producto interno de (1] y u
3
llegando a
(1, 5, - 7) (5, -4, - 1) = z(5, - 4, -1) (5, -4, -1) 0 -8 = 42z 0
z= -n
En cualquiera de los casos conseguimos v = ( - ~ u
1
+ (lf)u
2
- (-fi) u
3
.
270 ALGEBRA LINEAL
6.18. Supongase que S consiste en los vectores de R
4
:
u
1
= (1, 1, 0, -1) u
2
= (1, 2, 1, 3) u
3
= (1, 1, -9, 2) U
4
= (16, -13, 1, 3)
a) Probar que S es ortogonal y es una base de R
4
.
b) Determinar las coordenadas de un vector arbitrario v = (a, b, c, d) en R
4
relativas
a la base S.
a) Calculamos
u
1
u
1
=1+2 + 0-3=0 u
1
u
3
=1 + 1+0-2 = 0
" . " = 16- 13 + 0- 3 = 0
u
2
u
3
= 1 + 2 -9 + 6 = 0 u
2
u
4
= 16-26 + 1 + 9 = 0 u
3
u
4
= 16- 13- 9 + 6 = 0
Siendo asi, S es ortogonal y por tanto linealmente independiente. En consecuencia, S es una
base de R
4
, puesto que cuat ro vectores linealmente independientes arbitrarios en R
4
deben serlo.
b) Dado que S es ortogonal, solo es necesario encontrar los coeficientes de Fourier de v respecto
a los vcctores de Ia base, como en el Teorema 6.7. De este modo,
k
1
= (v, u1) =a + b - d
(u
1
, u
1
) 3
k
3
= (v, u3) = a + b - 9c + 2d
(u
3
, u
3
) 87 .
kz = (v, u2) =a + 2b + c + 3d
(u
2
, u
1
) 15
(1.1, u
4
) 16a- 13b + c +3d
k4 = = -------
<u4, u4) 435
son las coordenadas de v respecto a Ia base S.
6.19. Sup6ngase que S, S
1
y S
2
son subconjuntos de V. Probar las aserciones:
b) Si S
1
s;;; S
2
, necesariamente st s;;; Sf
c) s.J.. =lin s.J.. .
a) Sea weS. Entonces (w, v) = 0 para todo veSJ.; por tanto, wESJ..J... De acuerdo con esto,
sssu.
b) Sea wESi. En tal caso, ( w, v) = 0 para todo veS
2
Como S
1
S S
2
, (w, v) = 0 para todo .
v E S
1
. Luego wESt y por consiguiente Si s; St.
c) Como S s; lin S, tenemos lin s1. s s.1.. . Supongamos que ues1. y velin SJ.. Existen, pues.
vee to res w
1
, w
2
, ... , wk en S tales que
Utilizando ueS\
(u, v) = (u, a1 w
1
+ a
2
w
2
+ +at wt) = a
1
(u, w
1
) + a
1
(u, w
2
) + + at(u, wt) =
=a, 0 + a
2
0 ++at 0 = 0
Asi u E lin S\ y en qmsecuencia S.J.. s; lin SJ.. Ambas inclusiones conducen a S.J.. = lin SJ..
6.20. Demostrar el Teorema 6.5.
Supongamos S = {u,, u
2
, ... , u,} y
(1]
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 271
Tomando el producto interno de [I) y u
1
,
0 = ( 0, u
1
) = ( a
1
u
1
+ a
2
u
2
+ + a,u,, u
1
) =
= a
1
(u
1
, u
1
) + a
2
(u
2
, u
1
) + + a,( u,, 11
1
) =
= a
1
( u
1
, u
1
) + a
2
0 + + a , 0 = a
1
( u
1
, u
1
)
Puesto que u
1
#- 0, ( u
1
, u
1
) #- 0, de forma que a
1
= 0. Similarmente, para i = 2, ... , r, tomando el
producto interno de [I] y u
1
,
0 = (0, u
1
) = ( a
1
u
1
+ + a,u,, u
1
) =
= a
1
( u
1
, u
1
) + + a
1
( u
1
, u
1
) + + a,( u,, u
1
) = a;( u
1
, u
1
)
Pero (u
1
, u;) #- 0 y por tanto a;= 0. Asi pues, S es linealmente independiente.
6.21. Demostrar el Teorema 6.6 (Pitagoras).
Desarrollando el producto interno,
II u
1
+ u
2
+ + u, 11
2
= ( u
1
+ u
2
+ + u,, 11
1
+ u
2
+ + u,) =
= (u
1
, u
1
) + ( u
2
, u
2
) + .. + ( u, u,) + L: <u
1
, u
1
)
i f.J
El teorema se deduce del hecho de que ( u;, u;) = _ju
1
11
2
y ( u
1
, ui) = 0 para i =F j.
6.22. Demostrar el Teorema 6.7.
Supongamos v = k
1
u
1
+ k
2
u
2
+ .. + k.u . Toman do cl producto interno de ambos micmbros
con u
1
(v, u
1
) = ( k
1
u
1
+ k
2
u
2
+ + kwu. , u
1
) =
= k
1
( u
1
, u
1
) + k
2
( u
2
, u
1
) + + kw( u. , u
1
) =
= k
1
( 11
1
, u,) + k2. 0 + + k . O = kt ( llt, llt)
De este modo, k
1
= ( v, u
1
) / (u
1
, u
1
) . Amilogamente, para i = 2, .. . . n.
(v, u;) = (k
1
u
1
+ k
2
u
2
+ + k.u., u
1
) =
= k
1
( u
1
, u
1
) + k
2
( u
2
, u
1
) + + k.(u., u
1
) =
= k
1
.0 + + k,(u
1
, u
1
) + + k,..o = k
1
( u
1
, u
1
)
De este modo, k
1
= ( v, u;) f( u
1
, u;). Sustit uyendo Ia expresion de cada k
1
en Ia ecuaci6n
v = k
1
u
1
+ .. . + k.u. conseguimos el resultado deseado.
6.23. Sup6ngase que E = {e
1
, e
2
, ... , e.} es una base ortonormal de V. Demostrar las afir-
macwnes:
a) Para todo U E V tenemos u = ( u, e
1
)e
1
+ (u, e
2
)e
2
+ ... + ( u, e.) e .
b) ( a
1
e
1
+ ... + a.e. , b
1
e
1
+ ... + b. e. ) = a
1
b
1
+ a
2
b
2
+ ... + a.b .
c) Para todo par de vectores u, vE V tenemos ( u, v) = ( u, e
1
) ( v, e
1
) + .. . + ( u, e.) ( v, e.).
a) Sea u = k
1
e
1
+ k
2
e
2
+ ... + k. e . Tomando el producto internode u y e
1
,
(u, e
1
) = (k
1
e
1
+ k
2
e
2
+ .. + k.e., e
1
) =
= k
1
(e
1
, e
1
) + k
2
(e
2
, e
1
) + + k.(e., e
1
) =
= kl '1 + k2 '0 + ''' + k
0
'0 = k 1
272 ALGEBRA LINEAL
De forma similar, para i = 2, ... , 11,
( u, e
1
) = ( k
1
e
1
+ + k
1
e
1
+ + k,.e,., e
1
) =
= k
1
(e
1
, e
1
) + + k
1
( e
1
, e;) + + k.(e., e,) =
= k
1
0+ +k
1
1 + +k.O=k
1
Sustituyendo k
1
por ( u, e
1
) en Ia ecuacion u = k
1
e
1
+ ... + k.e. llegamos al resultado buscado.
b) Tenemos
(,t
1
a1e1,
1
t/
1
e
1
) =

e
1
) =
1
t
1
a1b1(e1, e;) +

e)
Pero (e
1
, e
1
) = 0 para i - j y eJ) = I para i = j ; por tanto, como se pedia,
j Ia:e
1
, Ib
1
e
1
) = Ia
1
b
1
= a
1
b
1
+ a
2
b
2
+ + a.b.
j=l t= I
c) De acuerdo con Ia parte a),
u = ( u, e
1
)e
1
+ + ( u, e,.)e. y
Y por b),
PROYECCIONES. ALGORITMO DE GRAM-SCHMIDT. APLICACTONES
6.24. Sup6ngase w =I: 0. Sea v cualquier vector en V Mostrar que
(v, w) (v, w)
C=--- =--
(w, w) II w 11
2
es el unico escalar tal que v' = v- cw es ortogonal a w.
Para que v' sea ortogonal a w debe cumplirse
(v- cw, w) = 0 0 (v, w) - c(w, w) = 0 0 (v, w) = c(w, w)
Siendo asi, c = (v, w) / ( w, w). Reeiprocamente, supongamos c = (v, w)/(w, w). En tal caso,
( v, w)
( v- cw, w) = (v, w) - c(w, w) = ( v, w) - -< ) (w, w) = 0
w,w
6.25. Hallar el coeficieute de Fourier c y Ia proyecci6n de v = (1, -2, 3, - 4) a to largo
de w =(I, 2, 1, 2) en R
4
.
Calculamos ( v, w) = I - 4 + 3 - 8 = -8 y llwll
2
= I + 4 + I + 4 = 10. Entonces c = - fo = - !
y proy (v, w) = cw = (- - -!, - t).
6.26. Encontrar una base ortonormal para el subespacio U de R
4
generado por los vectores
v
1
= (l, I , 1, I) v
1
= (1. l , 2, 4) v
3
= (1, 2, -4, - 3)
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDA D 273
Primero hallamos una base o rtogonal de U empleando el algoritmo de Gram-Schmidt. lniciamos
el algoritmo tomando w
1
= u
1
= (1. l. I, 1). A continuaci6n calculamos
( v
2
, w
1
) 8
v
2
-
2
w
1
= (1,1,2, 4) - - (1, 1, 1, 1) = ( - 1, - 1, 0,2)
nw.ll 4
Toma mos w
2
= (-I, - I, 0. 2). Despues calculamos
(v
3
, w
1
) ( v
3
, w
2
) - 4 -9
v
3
-
2
w
1
-
2
w
2
= (1, 2, -4, -3) --(1, I , I, 1)--(-1, - 1, 0, 2)=
II w
1
1J II w
2
11 4 6
= (t, f, -3, I )
Eliminamos los denominadores para obtener w
3
= ( 1. 3, - 6, 2). Por ultimo. normaliz.amos !a base
_ortogonal constituida por w
1
, w
2
, w
3
. Como llw
1
ll
2
= 4, ll w
2
ll
2
= 6 y ll w
3
ll
2
=50, los siguientes
vectores forman una base ortonormal de U:
I
u
3
= 0. (1, 3, -6, 2)
5..,; 2
6.27. Sea Vel espacio vectorial de los polinomiosf(t) con producto interno (j, g) = g f(t)g(t) dt.
Aplicar el algoritmo de Gram-Schmidt al conjunto {1, t, t
2
} para conseguir un conjunto
ortogonal {!
0
, /
1
, f ~ } con coeficientes enteros.
6.28.
Primero tomamos f o = I . A continuaci6n hallamos
( t, 1) t I
t --- 1 = t- - 1 = t - -
< 1, 1 > 1 2
Eliminamos los denominadores obteniendo f
1
= 2t - I. Despues hallamos
(t
2
, 1) ( t \ 2t-1) t i 2 1
e- -- 1 - (2t - I) = t
2
- - I - - (2t - 1) = t - t + -
( 1, 1) ( 21 -- I, 2t - I ) 1 i 6
Eliminamos los denominadores para llegar a f
2
= 6t
2
- 6t + I. De este modo, {I, 2t - I, 6t
2
- 6t + I}
es el conjunto ortogonal requerido.
Sup6ngase v = (1 , 3, 5, 7). Reterminar Ia proyecci6n de v sabre W (o encontrar un vector
we W que minimice !lv- \f,), siendo W el espacio de R
4
generador por:
a) u
1
= (1 , 1, 1, 1) y u
2
= (1, - 3, 4, -2).
b) V
1
= {1, 1, 1, 1) y v
2
= ( l , 2, 3, 2).
a) Dado que u
1
y u
2
son o rtogonales, solo necesitamos calcula r los coeficientes de Fourier:
c = ( v, u1 ) = 1 + 3 + 5 + 7 = 16 =
4
1
II u
1
11
2
1 + 1 + 1 + 1 4
(v, u
1
) 1 - 9 + 20 - 14 - 2 -1
c ----- - ---
1- II u
2
11
2
- 1 + 9 + 16 + 4 - 30 - 15
Entonces
w = proy (v, W) = c
1
u
1
+ c
2
u
2
= 4( 1, 1, I, I ) - fs- (1 , - 3, 4, - 2) = ('fl , !f, . fi>
274 ALGEBRA LINEAL
b) Como v
1
y v
2
no son ortogonales, comenzamos por aplicar el algoritmo de Gram-Schmidt para
hallar una base ortogonal deW Tomemos w
1
= v
1
= (1, I, 1, 1). Despues hallamos
( 11
2
, w
1
) 8
D2 -
2
WI = (1, 2, 3, 2)- - (1, 1, 1, 1) = ( -1, 0, 1, 0)
W
1
4
Tomemos w
2
= ( -1, 0, I, 0). Ahora calculamos
(v, w
1
) 1 + 3 + 5 + 7 16
c =---= = -=4
I II WI 11
2
1 + 1 +I+ 1 4
y
(v, w
2
) -1 + 0 + 5 + 0 -6
c =--- =- = - = -3
2
II w
2
11
2
I + 0 + 1 + 0 2
Por tanto, w = proy (v, W) = c
1
w
1
+ c
2
w
2
= 4(1 , !, I, I)- 3( - 1, 0, !, 0) = (7, 4, 1, 4).
6.29. Sup6ngase que w
1
y w
2
son vectores ortogonales no nulos. Sea v cualquier vector en V.
Encontrar c
1
y c
2
de forma que v' sea ortogonal a w
1
y w
2
, donde v' = v - cw
1
- cw
2

Si v' es ortogonal a w
1
,
0 = (v- c
1
w
1
- c
2
w
2
, w
1
) = (v, w
1
) - c
1
(w
1
, w
1
) - c
2
(w
2
, w
1
) =
= (v, w
1
) - c
1
( w
1
, w
1
)- c
2
0 = ( v, w
1
)- c
1
(w
1
, w
1
)
Siendo asi, c
1
= ( v, w
1
) / ( w
1
, w
1
). (Esto es, c
1
es Ia componente de v a lo largo de w
1
. ) Analo-
gamente, si v' es ortogonal a w
2
,
Asi pues, c
2
= (v, w
2
)/(w
2
, w
2
) . (Esto es, c
2
es Ia componcnte de v a lo largo de w
2
.)
6.30. Demostrar el Teorema 6.8.
Para i = I, 2, ... , r y usando ( w
1
, wi) = 0 para i =I j ,
(v- c
1
w
1
- c
2
w
2
- - c, w, w) = (v, w
1
)- c
1
( w
1
, w
1
)- - c
1
( w
1
w;)- - c, ( w,, w
1
) =
= (v, w;)- c
1
0- - c
1
( w
1
, w
1
)- - c, 0 =
( v, w
1
)
= ( v, w;) - c/w
1
, w
1
) = ( v, w
1
) - ( ( w
1
, w
1
) =
wt, wi)
=0
De este modo queda probado el teorema.
6.31. Demostrar el Teorema 6. 9.
Por el Teorema 6.8, v - l:ct w* es ortogonal a todo w
1
y por ende ortogonal a cualquier
combinaci6n lineal de w
1
, w
2
, ... , w,. Por tanto, usando el teorema de Pitago ras y sumando desde
k = I hasta r ,
II v- L a ~ w ~ 11
2
= II v - L c w + L (ca - a.)w. 11
2
= II v - L c wt 11
2
+ II L c ~ - at)wt 11
2
~
~ II II - L Ct wt r
La raiz cuadrada de ambos miembros nos proporciona nuest ro teorema.
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 275
6.32. Demostrar el Teorema 6.10 (desigualdad de Bessel).
Notese que c
1
= (v, e
1
) puesto que lid = l. Entonces, utilizando (e
1
, e
1
) = 0 para i # j y su-
mando desde k = 1 hasta r,
0 ~ (v- L c
1
e
1
, v- L c
1
, e
1
) = (v, v)- 2(v, L C
1
e
1
) + L c; =
= (v, v)- L 2c
1
(v, e.) + L c; = (v, v)- L 2c; + L c; =
= (v, v)- L c;
Esto nos conduce a nuestra desigualdad.
6.33. Demostrar el Teorema 6.11.
La demostracion hace uso del algoritmo de Gram-Schmidt y de las Notas I y 2 que le siguen
(Seccion 6.6). Concretamente, aplicamos el algoritmo a { v
1
} para conseguir una base ortogonal
{ w
1
, , wn}, y despues normalizamos { w
1
} para obtener una base ortonormal { u;} de V. El algoritmo
garantiza que cada wk es combinacion lineal de v
1
, ... , vk y por consiguiente tam bien lo es cad a uk.
6.34. Demostrar el Teorema 6.12.
Extendemos S a una base S' = {w
1
, ... , w, v, +
1
, v.} de V. Aplicando el algoritmo de
Gram-Schmidt a S' obtenemos primero w, , w
2
, . , w, porque S es ortogonal, y luego vectores
w,+
1
, ... , wn, siendo {w
1
, w
2
, ... , w.} una base ortogonal de V. Queda asi probado el teorema.
6.35. Demostrar el Teorema 6.4.
Segun el Teorema 6.11, existe una base ortogonal {u
1
, ... , u,} de W que, de acuerdo con el
Teo rem a 6.12, podemos.extender a una base ortogonal { ul> u
2
, ... , u.} de V. Por tanto, u, +
1
, ... , u,E W.L.
Si VE V,
don de
De acuerdo con ello, V = W + W.L.
Por otra parte, si wE Wn Wl, necesariamente (w, w) = 0. Esto nos conduce a w = 0; de aqu1
que sea Wn W.L = {0}.
Las dos condiciones, V= W+ W.L y Wn W.L = {0}, llevan al resultado deseado V = WEBW.l.
Adviertase que hemos demostrado el teorema unicamente en el caso en que V tiene dimension
finita. Hacemos notar que el teorema es igualmente valido para espacios de dimension arbitraria.
6.36. Supongase que W es un subespacio de un espacio de dimension finita V. Probar que
W= W
11
.
Segun el Teorema 6.4, V = WEB W.L y tam bien V = W.L EB W.Ll_. Por este motivo,
dim w = dim v -dim w.l y dim W.l.l =dim V- dim WJ_
Esto proporciona dim W= dim wu. Pero ~ W.l.l [Problema 6.19a)], luego W= WH, como se
requeria.
276 ALGEBRA LINEAL
...
PRODUCTOS INTERNOS Y MATRICES DEFINIDAS POSITIVAS
6.37.
(
1 0
Determinar si A es o no definida positiva, donde A = 0 1
1 2
Empleamos el algoritmo de diagonalizaci6n de Ia Secci6n 4.11 para transformar A en una matriz
(congruente) diagonal.
Efectuamos -R
1
+ R
3
-+ R
3
y -C
1
+ C
3
-+ C
3
y despues - 2R
2
+ R
3
-> R
3
y -2C
2
+ C
3
-> C
3
para obtener
0
1
2

2 0 0 -2
Hay una entrada negativa, - 2, en Ia matriz diagonal, luego A no es delinida positiva.
6.38. Hallar Ia matriz A que representa el producto interno usual en R
2
respecto a cada una
de las siguientes bases:
a) {v
1
= (1, 3), v
2
= (2, 5)} , b) {w
1
= (1, 2), w
2
= (4, -2)}.
a) Calculamos ( v
1
, v
1
) =I+ 9 = 10, (v
1
, v
2
) = 2 + 15 = 17, (v
2
, v
2
) = 4 + 25 = 29. Asi
A = (10 17).
17 29
b) Calculamos (w
1
, w
1
) = I + 4 = 5, (w
1
, w
2
) = 4 - 4 = 0, (w
2
, w
2
) = 16 + 4 = 20. De este
modo, A = G . .
(Siendo ortogonales los vectores de Ia base, Ia matriz A es diagonal.)
6.39. Considerese el espacio vectorial V de los polinomios f(t) de grado 2 con producto
internO (j, g)= .
a) Calcular ( f, g) para f(t) = t + 2 y g(t) = t
2
- 3t + 4.
b) Hallar Ia matriz A del producto interno respect a a Ia base { 1, t, t
2
} de V.
c) Comprobar el Teorema 6.14 mostrando que (f, g) = UY A[g] respecto a la base
{1, t, t
2
} .
a) (/,g)= f' (t + 2)(t
2
- 3t + 4) dt = J' (t
3
- t
2
- 2t + 8) dt = t
2
+ 8t]
1
=
46
.
-1 -1 4 3 - 1 3
b) Aqui utilizamos el hecho de que, sir+ s = n,
( t', t' ) = j'' t" dt = [ t"+ 1 ]' = {2/(n + 1)
- 1 n+l_
1
0
si nes par
sines impar
Entonces ( 1, 1) = 2, (1, t ) = 0, (1, t
2
) = t. ( t, t) = t . (t, t
2
) = 0, (t
2
, t
2
) = t. Siendoasi,
(
2 0
2
)
A= 0 i
t 0 i
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 277
c) Tenemos lff = (2, 1, 0) y (gf. = (4, - 3, 1) respecto a Ia base dada. En tal caso,
UJ' AWl ! t.l{ -:) (f, g)
6.40. Demostrar el Teorema 6.13.
Para vectores arbitrarios u
1
, u
2
y v,
(v
1
+ u
2
, v) = (u
1
+ u
2
V Av = (uf + u[}Av = ufAv + uiAv = (u
1
, v) + (u
2
, v)
y, para un escalar k y dos vectores u, v cualesquiera,
(ku, v) = (kuf Av = kuT Av = k( u, v)
De este modo se verifica (1
1
].
Como uT Au es un escalar, (ur Av)
1
= Ademas, A
1
=A, ya que A es simetrica. Por tanto,
( u, v) = uT Av = (u
1
Avf = vT ATtTT = vT Au= (v, u)
Asi pues, se satisface [1
2
].
Final mente, al ser A definida positiva, X
1
AX > 0 para todo X E R" no nulo. Para todo vector
no nulo tendremos, pues, (v, v) = v
1
Au> 0. Ademas, (0, 0) = 0
1
AO = 0. Siendo asi, se veri-
fica [1
3
]. Con todo ello, Ia funci6n (u, u) = uT Av es un producto interno.
6.41. Demostrar el Teorema 6.14.
Supongamos S = {w
1
, w
2
, ... , w.} y A= (k;). En consecuencia, kiJ = (w;, wi) . Supongamos
y
Entonces

( u, v) = L L a
1
b
1
(w;, w
1
) [I]
fz I j= 1
Por otra parte,
[2]
Dado que kii = (w;. wi), las sumas finales de [I] y [2] son iguales, de donde ( u, u) = [uf A[v].
6.42. Demostrar el Teorema 6.15.
Puesto que (w,, w
1
) = (w
1
, IV;) para todo par de vectores de Ia base IV; y IVi, Ia matriz A es
simetrica. Sea X cualquier vector no nulo en R". Entonces (u] =X para algun vector no nulo liE V.
Haciendo uso del Teorema 6.14 tenemos X
1
AX = [ufA [u) = ( u, u) > 0, de modo que A es defi-
nida positiva.
278 ALGEBRA LINEAL
PRODUCTOS INTERNOS Y MATRICES ORTOGONALES
6.43. Encontrar una matriz ortogonal P cuya primera fila sea u
1
= (!, f,
Empezamos por hallar un vector no nulo w
2
= (x, y, z) que sea ortogonal a u
1
, es decir, para
el que
0 x + 2y + 2z = 0
Una de estas soluciones es w
2
= (0, l, - I). Normalizamos w
2
para conseguir Ia segunda fila de P,
esto es, u
2
= (0, 1/fi, - ljj2).
Seguidamente hallamos un vector no nulo w
3
= (x, y, z) que sea ortogonal tanto a u
1
como a
u
2
, o sea, para el que
x 2y 2z
0 = (u w ) = - + - + - = 0
1
'
3
3 3 3
0 x + 2y + 2z = ()
__ z_=O
J2
0 y- z =0
Tomamos z = -1 y encontramos Ia solucion w
3
= (4, -1, -1 ). Norma1izando w
3
obtenemos Ia
tercera fila de P, esto es, u
3
= (4/Ji8, -Jjji8, - l/ji8). Por tanto,
i )
-1/fl
-1/3}2
Subrayamos que Ia matriz anterior no es tmica.
6.44. Sea A ( j - Determinar si: a) las fit as de A son ortogonates. b) A es una
matriz ortogonal, c) las columnas de A son ortogonales.
a) Si, porque
(1, 1, -1). (1, 3, 4) = 1 + 3- 4 = 0 (1, 1, -1)(7, -5,2)=7-5-2=0
(1, 3, 4). (7, -5, 2) = 7- 15 + 8 = 0
b) No, pues las filas de A no son vectores unitarios, por ejemplo, (I, 1. -I )
2
= I + 1 + 1 = 3.
c) No, por ejemplo, (1, 1, 7)(1, 3, -5) =I+ 3-35 = -31 -=I 0.
6.45. Sea B Ia matriz obtenida normalizando cada fila de Ia matriz A del Problema 6.44.
a) Hallar B. b) B una matriz ortogonal? c) las columnas de B ortogonales?
a) Tenemos
II (1, 1, -1)11
2
= 1 + 1 + 1 = 3 II (1, 3, 4) 11
2
= 1 + 9 + 16 = 26
II (7, -5, 2) 11
2
= 49 + 25 + 4 = 78
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 279
Asi pues,
(
t;j3
B= 1/fo
7/fo
1/.fi
3/fi
-s;fo
-1/.fi)
4/fo
2/fo
b) Si, puesto que las filas de B continuan siendo ortogonales y ahora son vectores unitarios.
c) Si, ya que silas fi!as deB forman un conjunto ortonormal de vectores, por el Teorema 6.15,
sus columnas deben formar, automaticamente, un conjunto ortonormal.
6.46. Demostrar las afirmaciones que se hacen a continuacion:
a) P es ortogonal si y solo si Io es Pr.
b) Si Pes ortogonal, necesariamente lo es p-
1

c) Si P y Q son ortogonales, PQ es ortogonal.
a) Sabemos que (PT)T = P. De este modo, p es ortogonal si y solo si ppT =I, si y solo si
pTT pT = I, si y solo si pT es ortogonal.
b) Tenemos pT = P-
1
, por ser P ortogonal. Asi, de acuerdo con a), p-
1
es ortogonal.
c) Tenemos pT = p-t y Qr = Q-
1
, de modo que
(PQ)(PQ)T = PQQTpT = PQQ-tp- t = 1
Siendo asi, (PQf = (PQ) -
1
y PQ es, pues, ortogonal.
6.47. Sup6ngase que P es una matriz ortogonal. Mostrar que:
a) (Pu, Pv) = (u, v) para vectores cualesquiera u, vE V; b) jjPuJI = IJ uJI para todo uE V.
a) Usando pr P =I,
b) Usando prp =I,
Tomar Ia raiz cuadrada de ambos miembros nos conduce a nuestro resultado.
6.48. Demostrar el Teorema 6.17.
Supongamos
i = 1, ... , n
Utilizando el Problema 6.23 b) y el hecho de que E' es ortonormal,
~ ~ = {e;, ej) = b
11
b
11
+ b
12
b
12
+ .. + b
111
b
1

Sea B = (b;j) Ia matriz de coeficientes en [1]. (Entonces P = Br.) Supongamos BBr = (c;),
c
11
= bub
11
+ b
12
b
12
+ : + b
1
b
1

[1]
[2]
(3]
Por [2] y [3), c,
1
= lJu. De este modo, BBT =I. En consecuencia, B es ortogonal y por consiguiente
P = Br lo es tambien.
280 ALGEBRA LINEAL
6.49. Demostrar el Teorema 6. 18.
Como { e;} es ortonormal, obtenemos, segun el Problema 6.23 b),
ej) = a
11
a
1
i + a
2
;a
2
j +: + a.,a.J = (C
1
, CJ)
donde C
1
denota Ia columna i-esima de Ia matriz ortogonal P = (a
1
). Siendo P ortogonal, sus
columnas constituyen un conjunto ortonormal, lo que implica ( e;, ej) = ( C
1
, Ci) = b
1
t Por tanto.
{ e;} es una base ortonormal.
ESPACIOS COMPLEJOS CON PRODUCTO INTERNO
6.50. Sea V un espacio complejo con producto intern a. Comprobar que se verifica Ia relaci6n
(u, av
1
+ bv
2
) = a(u, v
1
) + b(u, v
2
)
Utihzando [I! ], [I!] y luego [/!] encontramos
( U, QV
1
+ bv
2
) = (av
1
+ bVz, U) = a ( vl, U) + b(Vz , U) = a(vt, U) + b(Vz, U) = a(U, Vt) + b(u, Vz)
6.51. Sup6ngase que (u, v) = 3 + 2i en un espacio complejo con producto interno V
a) ((2- 4i)u, v); .b) ( u,(4+3i)v); c) ((3 - 6i)u, (5 - 2i)v)
a) ((2- 4i)u, v) = (2- 4i)( u, v) = (2- 4i)(3 + 21) = 14 - lSi .
b) (u, (4 + 3i)v) = (4 + 3i)( u, v) = (4 - 3i)(3 + 2i) = 18- i .
c) ((3- 6i)u, (5- 2i)v) = (3 - 6i)(5- 2i)( u, v) = (3 - 6i)(5 + 21)(3 + 2i) = 137 - 30i.
6.52. Hallar el coeficiente de Fourier (o componente) c y Ia proyecci6n cw de v = (3. + 4i, 2 - 3i)
a lo largo de w = (5 + i, 2i) en C
2
.
Recuerdese que c = (v, w)/(w, w) . Calculamos
( v, w) = (3 + 4i)(5 + i) + (2 - 3i)(2i) = (3 + 4i)(5- i) + (2 - 3i)(- 2i)=
= 19 + 17i- 6- 4i = 13 + 13i
( w, w) = 25 + 1 + 4 = 30
Asi c = (13 + 13i)f30 = t1 + 13i/30. En consecuencia,
proy (v, w) = cw = (f! + 39i/15, -H + i/ 15)
6.53. Demostrar el Teorema 6.19 (Cauchy-Schwarz).
Si v = 0, Ia desigualdad se reduce a 0 0 y es valida. Supongamos ahora v # 0. Empleando
zz = lzl
2
(para cualquier numero complejo z) y (v, u) = (u, v) desarrollamos ll u- ( 11, v)tvll
2
;::. 0,
donde t es cualquier numero real:
0 II u - ( u, v) tv 11
2
= ( u- ( u, v)tv, u- (u, v)tv) =
= ( u, u) - (u, v) t( u, v)- ( u, v)t(v, u) + ( u, v)(u, v)t
2
( v, v) =
= II u 11
2
- 2tl(u, vW + j( u, v)j
2
t
2
1l v 11
2
i(u,vW
Tomamos t = l fll vll
2
, encontrando que 0 llull
2
-
2
, de donde j(u, v)l
2
ll vll
1
llvll
2
. To-
ll vll
mando Ia raiz cuadrada de ambos miembros obtenemos Ia desigualdad requerida.
~
' .
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 281
6.54. Encontrar una base ortogonal para ul. en C
3
, siendo u = (1, i, 1 + i).
Aqui ul. consiste en todos los vectores w = (x, y, z) tales que
(w, U) =X- iy + (J - IJZ = 0
Hallamos una soluci6n, digamos w
1
= (0, I - i, i). Despues hallamos una soluci6n del sistema
x - iy + (1 - i)z = 0 (1 + i)y- iz = 0
Aqui z es una variable libre. Tomamos z = i para obtener y = i/ (1 + i) = (I + i)/2 y x = (3i - 3)2.
Multiplicando por 2 llegamos a Ia soluci6n w
2
= (3i- 3, I + i, 2). Los vectores w ~ y w
2
forman
una base de u.L.
6.55. Encontrar una base ortonormal del subespacio W de C
3
generado por
v
1
= (1, i, 0) y v
2
= (1, 2, 1 - i).
Aplicamos el algoritmo de Gram-Schmidt. Tomamos w
1
= v
1
= (1, i, 0). Calculamos
(v2 , w1) 1 -2i (1 1 )
V2- ll
2
W
1
= (1, 2, 1 - i)- --(1, i, 0) = - + i, 1 - -i, 1 - i
llw
1
2 2 2
Multiplicamos por 2 para eliminar los dcnominadores obteniendo w
2
= (1 + 2i, 2 - i, 2 - 2i). Acto
seguido halla mos ll w
1
11 = j2 y entonces llw
2
ll = Jl&. Normalizando {w
1
, w
2
} conseguimos Ia base
ortonormal de W requerida:
ESPACIOS VECTORIALES NORMADOS
6.56. Considerense los vectores u = (1, 3, -6, 4) y v = (3, -5, 1, - .2) en R
4
Hallar:
a) llull co Y ll vll,., c) llull
2
Y llvll
2
b) llull
1
Y llvll
1
d) dro(u, v), d
1
(u. v) y d
2
(u, v)
a) La norma del supremo elige el maximo de los valores absolutos de las componentes, luego
y ll vll oo= 5
b) La 1-norma suma los valores absolutos de las componentes. Por tanto,
II u lit= 1 + 3 + 6 + 4 = 14 II v li t = 3 + 5 + 1 + 2 = 11
c) La 2-norma es igual a Ia raiz cuadrada de Ia suma de los cuadrados de las compm,entes (o sea,
Ia norma inducida por el producto interno usual en R
3
). Asi pues,
y
d) Primero hallamos u- v = ( -2, 8, - 7, 6). En ese caso,
d,.,(u, v) = II u- vII..,= 8
d
1
(u, v) = II u- v lit= 2 + 8 + 7 + 6 = 23
d
2
(u, v) =II u- v 11
2
= J4 + 64 + 49 + 36 =Jill
282 ALGEBRA LINEAL
6.57. Considerese Ia funci6n f(t ) = c
2
- 4t en C[O, 3]. a) Hallar 11 /11..,. b) Trazar f(c) en el
plano R
2
. c) Hallar 11!11
1
d) Hallar 11/11
2
.
a) Buscamos ll flloo =max (lf(r)l). Como f(t) es diferenciable en [0, 3], lf(t)J alcanza un maximo
en un pun to critico de f(t), esto es, bien cuando Ia derivada f' (t) = 0, o bien en un extremo
de [0, 3]. Siendo f' (t) = 2t - 4 hacemos 2t - 4 = 0 y obtenemos t = 2 como pun to critico.
Calculamos
f(2) = 4 - 8 = -4
Asi 11! 11,.., = 1[(2)1 = l-41 = 4.
f(O) = 0-0 = 0 [(3) = 9- 12 = -3
b) Calculamos f(r) para varios valores de r en [0, 3], por ejemplo.
t I o 2 3
/(t) 0 -3 -4 - 3
Marcamos los puntos en R
2
y luego dibujamos una curva continua entre ellos, como se muestra
en Ia Figura 611 .
c) Buscamos 11! 11
1
= Wf(t)Jdt. Como se indica en Ia Figura 611, f(t) es negativa en [0. 3]; de
aqui J/(t)J = - (r
2
- 4r) = 4r - t
2
De este modo,
II f H 1 = r (4t - t
2
) dt = [ 2t
2
- = 18 - 9 = 9
d) B f = r [f(t)]
2
dt = f<r" - 8t
3
+ l6r
2
) dt = [ 2t" +


Asi pues, 11[ 11
2
= Ji.
6.58. Demostrar el Teorema 6.25.
Si u v, necesariamente u - v 0, luego d(u. v) = ll u- vii > 0. Ademas, d(u, u) = ll u- ull = 11011 =0.
Siendo asi, se satisface [M Jl. Asimismo tenemos
d(u, v) = II u - v II = II - l(v - u) II = I -11 11 v - u II = II v - u II = d(v, u)
y
d(u, v) = II u - vII = II (u - w) + (w - v) II II u - w II + II w - vII = d(u, w) + d(w, v)
De este modo se satisfacen [M
2
] y [M
3
] .
f(t)
-1 4
-I
-2
-3
- 4
- 5
Figura 6-ll.
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 283
PROBLEMAS SUPLEMENTARIOS
PRODUCTOSINTERNOS
6.59. Verificar que el siguiente es un producto interno en R
2
, donde u = (x
1
, x
2
) y v = (y
1
, Y2):
f(u, v) = XtYt - 2xtYl- 2xlYt + Sxlyz
6.60. Determinar los valores de k para que el que sigue sea un producto interno en R
2
, donde
u = (x
1
, x
2
) Y v = (y
1
, Yz):
6.61. Considerense los vectores u = (1, -3) y v = (2, 5) en R
2
. Hallar:
a) ( u, v) con respecto al producto interno usual en R
2
.
b) ( u, v) con respecto al producto interno en R
2
del Problema 6.59.
c) llvll utilizando el producto interno usual en R
2
.
d) ll vll utilizando el producto interno en R
2
del Problema 6.59.
6.62. Probar que cada uno de los siguientes noes un producto interno en R
2
, siendo u = (x
1
, x
2
, x
3
) y
v = (Yt Y2 Y3):
a) (u,v) =XtYt+X2Yz Y b) (u,v)=XtYzX3+YtXzY3
6.63. Sea Vel espacio vectorial de las matrices m x n sobre R. Mostrar que (A, B) = tr BrA define un
producto interno en V.
6.64. Sea Vel espacio vectorial de los polinomios sobre R. Pro bar que (f, g) = ~ f(t)g(t)dt define un
producto interno en V
6.65. Sup6ngase l(u, v)l = llullllvll . (0 sea, Ia desigualdad de Cauchy-Schwarz se reduce a una igualdad.)
Probar que u y v son linealmente dependientes.
6.66. Sup6ngase que f(u, v) y g(u, v) son productos internos en un espacio vectorial V. Demostrar las
siguientes aserciones:
a) La suma f + g es un producto interno en V, donde (f + g)(u, v) = f(u, v) + g(u, v).
b) El producto por un escalar kf, para k > 0, es un producto interno en V, siendo (kf)(u, v) = kf(u, v).
ORTOGONALIDAD. COMPLEMENTOS ORTOGONALES.
CONJUNTOS ORTOGONALES
6.67. Sea V el espacio vectorial de los polinomios sobre R de grado ~ 2 con producto interno
(f, g) = JJ f(t)g(t)dt. Encontrar una base del subespacio W ortogonal a h(t) = 2t + l.
6.68. Determinar una base del subespacio Wde R
4
ortogonal a u
1
= (1, -2, 3, 4) y u
2
= (3, -5, 7, 8).
284 ALGEBRA LINEAL
6.69. Hallar una base para el subespacio W de R
5
ortogonal a los vectores u
1
= (I, I, 3, 4, I) y
u
1
= (1, 2, I, 2, 1).
6.70. Sea w = (1, - 2, -I, 3) un vector en R
4
Hallar una base: a) ortogonal, b) ortonormal de w1..
6.71. Sea We! subespacio de R
4
ortogonal a u
1
= (1, 1, 2, 2) y u
2
= (0, 1, 2, -1). Encontrar una base:
a) ortogonal, b) ortonormal de W (Comparese con el Problema 6.68.)
6.72. Sup6ngase que S consiste en los vectores de R
4
:
u
1
= (1, 1, 1, 1) u
1
=(1, 1, -1. -1) u
3
= (1; -1, 1, -1) u
4
= (1, -1, -1, 1)
a) Probar que S es ortogonal y es una base de R
4
.
b) Escribir v = (1, 3, - 5, 6) como combinaci6n lineal de u
1
, u
2
, u
3
, u
4
.
c) Encontrar las coordenadas de un vector arbitrario v = (a, b, c, d) de R
4
relativas a Ia base S.
d) Normalizar S para conseguir una base ortonormal de R
4
.
6.73. Sea Vel espacio vectorial de las matrices 2 x 2 sabre R con producto interno (A, B) = tr (BrA).
Mostrar que Ia que se da a continuaci6n es una base ortonormal de V:

6.74. Sea Vel espacio vectorial de las matrices 2 x 2 sobre R con producto interno ( A, B)= tr BrA.
Hallar una base ortogonal para el complemento ortogonal de las matrices a) diagonales y
b) simetricas.
6.75. Sup6ngase que {u
1
, u
2
, , 11,} es un conjunto ortogona1 de vectores. Probar que {k
1
u
1
, k
2
u
2
, ... ,
k,u,} es ortogonal para todo conjunto de escalares k
1
, k
2
, , k,.
6.76. Sean U y W subespacios de un espacio con producto interno V de dimension linita. Mostrar que:
a) (U + W)l. = u1. n w1., b) (U n W)l. = u1. + w1..
PROYECCIONES. ALGORITMO DE GRAM-SCHMIDT. APLICACIONES
6.77. Hallar una base ortogonal y una ortonormal para el subespacio U de R
4
generado por los vectores
u
1
= (1, 1, 1, 1), v
2
= (1, -I, 2, 2), v
3
= (1, 2, -3, -4).
6.78. Sea Vel espacio vectorial de los polinomios f(t) con producto interne ( J, g) = JJ f(t)g(t)dt. Aplicar
el algoritmo de Gram-Schmidt al conjunto {I, t, t
2
} para obtener un con junto ortogonal {!
0
, f
1
}
con coeficientes enteros.
6.79. Sup6ngase v = (1, 2, 3, 4, 6). Hallar Ia proyecci6n de v sobre W(o encontrar un wE Wque minimice
llu-wll), siendo W el subespacio de R
5
generado por:
a) u
1
= (1, 2, 1, 2, 1) y u
1
= (1, -1, 2, -1, 1); b) v
1
= (1, 2, 1, 2, 1) y v
1
= (1, 0, 1, 5, - 1).
6.80. Sean V=C[-1, 1] con producto interne (/, y We! subespacio de Vde los
polinomios de grado Encontrar Ia proyecci6n de f(t) = t
5
sabre W [Indicacion: Utilicense los
polinomios (de Legendre) 1, t, 3t
2
- 1, 5t
3
- 3t del Ejemplo 6.13.]
,
.,
ESPACJOS CON PRODUCTO INTERNO. ORTOGONALIDAD 285
6.81. Sean V = C[O, I] con producto interne (f, g)= y W el subespacio de V formado
por los polinomios de grado Encontrar Ia proyecci6n de f(t) = t
3
sabre W (Indicaciim:
Utilicense los polinomios I, 2t - 1, 6t
2
- 6t + I del Problema 6.27.)
6.82. Sea U el subespacio de R
4
generado por los vectores
v
1
= (1, 1, 1, 1) v
2
= (1, -1, 2, 2) v
3
= (1, 2, -3, -4)
Hallar Ia proyecci6n de v =(I, 2, -3, 4) sobre U. (Indicacion: Hagase uso del Problema 6.77.)
PRODUCTOS INTERNOS Y MATRICES DEFINIDAS POSITIV AS.
MATRICES ORTOGONALES
6.83. Determinar Ia matriz A que representa el producto interno usual en R
2
respecto a cada una de las
bases de R
2
: a) {v
1
= (1, 4), v
2
= (2, -3)}, b) {w
1
= (1, - 3), w
2
= (6, 2)}.
6.84. Considerese el producto interno en R
2
:
f(u, v) = XtYt - 2x1Y2 - 2x2 Yt + 5x2 Y2
Determinar Ia matriz B que representa este producto interno respecto a cada una de las bases del
Problema 6.83.
6.85. Encontrar Ia matriz C que representa el producto interno usual en R
3
respecto a Ia base S consti-
tuida porJos vectores: u
1
= (1, I, 1), u
2
= (1, 2, 1), u
3
= (1, - I , 3).
6.86. Considerese el espacio vectorial V de los polinomios /(t) de grado con producto interno
<f. Y> = SJ f(c)g(t)dt.
a) Calcular (f, g), siendo f(t) = t + 2 y g(t) = (l.- 3t + 4.
b) Hallar Ia matriz A del producto interno respecto a Ia base (1, t, t
2
) de V
c) .Comprobar que se verifica el Teorema 6.14, que dice que <f. g) = lf]r A [g), respecto a Ia base
{1, t, t
2
}.
6.87. Determinar cuales entre las matrices escritas a continuaci6n son definidas positivas:
a) G
D
bl (!

c) G


6.88. Deci?ir si A es o no definida positi va, donde
A+:
-2

b)
:)
a) 3 2
-2 6
6.89. Sup6ngase que A y B son matrices definidas positivas. Probar que: a) A+ B es definida positiva;
b) kA es definida positiva para k > 0.
6.90. Sup6ngase que B es una matriz real no singular. Probar que: a) Br B es simetrica; b) BrB es defi-
nida positiva.
6.91.
(
1 X
2
).
Hallar el numero de matrices ortogonales 2 x 2 de Ia forma y
286 ALGEBRA LINEAL
6.92. Encontrar una matriz ortogonal 3 x 3 P cuyas dos primeras filas sean multiplos de u = (1, I, 1) y
v = (1, -2, 3), respectivamente.
6.93. Encontrar una matriz ortogonal simetrica P cuya primera lila sea Ct, ! , !). (Comparese con el
Problema 6.43.)
6.94. Se dice que dos matrices reales A y B son ortogonalme1ite equivalences si existe una matriz ortogona:
P tal que B = pr AP. Mostrar que esta es una relaci6n de equivalencia.
ESPACIOS COMPLEJOS CON PRODUCTO INTERNO
6.95. Comprobar que se verifica
( a
1
u
1
+ a
2
u
2
, b
1
v
1
+ b
2
v
2
) = a
1
b
1
(u
1
, v
1
) + a
1
b
2
(u
1
, v
2
) + a
2
b
1
(u
2
, v
1
) + a
2
b
2
(u
2
, v
2
)
Con mayor generalidad: pro bar que/ I a,u,, I bJvJ) = L a,bi(u,,' v;).
\1=1 ~ t I,J
6.96. Considerense u =(I + i, 3, 4- i) y v = (3 - 4i, I + i, 2i) en C
3
. Calcular:
a) (u, v), b) (v, u), c) II u Jl, d) II v 11.
e) d(u, v).
6.97. Hallar el coeficiente de Fourier c y Ia proyecci6n cw de:
a) u = (3 + i, 5- 2i) a Io largo dew= (5 + i, I + i) en C
2

b) u = (1 - i, 3i, 1 + i) a to largo de w = (1' 2 - i, 3 + 2i) en C
3
.
6.98. Sean u = (z
1
, z
2
) y v = (w
1
, w
2
) vectores pertenecientes a C
2
Veri!icar que el siguiente es un
producto interno en C
2
:
6.99. Encontrar una base ortogonal y una ortonormal para el subespacio W de C
3
generado por ,
u
1
= (1, i, 1) y u
2
= (1 + i, 0, 2).
6.100. Scan u = (z
1
, z
2
) y v = (w
1
, w
2
) vectores pertenecientes a C
2
,;,Para que valores de a, b, c, deC es
el que sigue un producto interno?
f(u, v) = azlwl + bzlwl + czl wl + dzl wl
6.101. Demostrar Ia forma polar para un espacio complejo con producto interno:
( u, v) =ill u + v 11
2
- ill u- v 11
2
+ill u + iv 11
2
- i ll u - iv 11
2
[Comparese con el Problema 6.9 a).J
6.102. Sea V un espacio real con producto interno. Mostrar que:
i) llull = II vii si y s6lo si (u + v, u- v) = 0.
ii) ll u + vJ1
2
= llull
2
+ ll vll
2
si y s6lo si (u, v) = 0.
Probar, por medio de contraejemplos, que las alirmaciones anteriores no son ciertas para, por
ejemplo, C
2

.,
ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 287
6.103. Una matriz compleja A es unitaria si es invertible y A- t =An. Alternativamente, A es unitaria si
sus filas (columnas) constituyen un conjunto ortonormal de vectores (con respecto al producto
interno usual de C"). Encontrar una matriz unitaria cuya primera lila sea: a) un multiplo de
(1, I, - i); b) (f , !i, f - !i).
ESPACIOS VECTORIALES NORMADOS
6.104. Considerense los vectores u = (1, -3, 4, 1, -2) y v = (3, 1, -2, -3, 1) en R
5
. Calcu1ar:
a) llu II .., y II vII.., c) II u ll2 y II v liz
b) ll u lit y II v lit d) d..,(u, v), d
1
(u, v) y d
2
(u, v)
6.105. Considerense los vectores 11 = (I + i, 2- 4i) y v = (1 - i, 2 + 3i) en C
2
Calcular:
a) llull.., y llvll.., c) llullz Y llvliz
b) llullt y- llvll t
d) d
1
(u, v), d
00
(U, v) y d
2
(u, v)
6.106. Considerense las funciones f(t) = St - t
2
y g(t) = 3t - t
2
en C[O, 4]. Calcular: a) d"" (f, g),
b) d
1
(f, g), c) d
2
(f, g).
6.107. Demostrar que: a) 1111
1
es una norma en R"; b) 1111.., es una norma en R".
6.108. Demostrar que: a) 11 11
1
es una norma en C[a, b]; b) 1111"' es una norma en C[a, b].
RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS
6.60. k > 9.
6.61. a) - 13, 'b) -71, c) .j29,
6.62. Sea u = (0, 0, 1). Entonces <u, u) = 0 en ambos casos.
6.67. {1t
2
- 5t, 12t
1
- 5}.
6.68. {(1, 2, 1, 0), (4, 4, 0, 1)}.
6.69. ( -1, 0, 0, 0, 1), ( -6, 2, 0, 1, 0), ( -5, 2, 1, 0, 0).
6.70. a) (0, 0. 3, 1), (0, 3, -3, 1), (2, 10, -9, 3); b) (0, 0, 3, 1)/Jlo, (0, 3, -3, l)/ji9, (2, 10, -9, 3)jji94.
6.71. a) (0, 2, -1, 0), ( -15, 1, 2, 5); b) (0, 2, -1, 0)/JS, ( -15, 1, 2, 5)/.j2s5.
6.72. b) v = (5u
1
+ 3u
2
- 13u
3
+ 9u
4
)/4.
c) [v] =[a+ b + c + d, a+ b- c- d, a- b + c- d, a -b-c+ d]/4.
288 ALGEBRA LINEAL
6.74. .a)
y
(
0 -1)
b) 1 0
6.77. w, = (1, 1, 1, 1), \412 = (0, -2, 1, 1), \413 = (12, -4, -1, -7).
6.78. /
0
= l,f
1
= t - 1,/
3
= 3t
2
- 6t + 2.
6.79. a) proy (v, W) = (21 , 27, 26, 27, 21)/8.
b) Primero hallamos una base ortogona1 de W: w
1
= {1, 2, 1, 2, 1), w
2
= (0, 2, 0, - 3, 2).
Entonces proy (v, W) = (34, 76, 34, 56, 42)/ 17.
6.80. proy {f, W) = 10t
3
/9- 5tf 21.
6.81. proy {f, W) = 3t
2
/2 - 3t/ 5 + -:Jo.
6.82. proy (v, U) = ( -14, 158, 47, 89)/70.
6.83. a)
( 17
-10
-10)
13 '
b)


6.84. a)
( 65
-68
- 68)
73 ,
b) cs
23

(:
4
,;)
6.85. 6
2
(' . ') 6.86. a)
H.
b) t i *
1 i t
6.87. a) No, b) si, c) no, d) si.
6.88. a) Si, b) no.
6.91. Cuatro:
(}s/ 3
.j8;3) ( ! JS/3) ( t -.fi/3) ( i -.fi/3)
-i , -JS/3 -i , j8;3 i , -Js/3 -1

1/./3

6.92.
P= 1/ji4
-2/fo 3/fo
s;fi
-2/fo -3/fo
693. (!
!
_i)
- j
t
ESPACIOS CON PRODUCTO I NTERNO. ORTOGONALIDAD 289
6.96. a) -4i, b) 4i, c) fo, d) J3t, e) .}59.
6.97. a) c = (19- 5i)/ 28, b) c = (3 + 6i)/ 19.
6.99. {v
1
= (1, i, 1)/J3, v
2
= (2i, 1 - 3i, 3- z)J.j24} .
6.100. a y d reales y positivos, c = b y ad- be positivo.
6. 102. u = (1, 2), v = (i, 2i).
(
1/.fi (1 - i)Jfi)
6.103. a) (1 + i)/J3 _
1
/.fi ,
(
t ti t - fi)
b) ;;fi t 2 -1/fi 0
- ti - t + l i
6.104. a) 4 y 3, b) II y 13, c) J3l y .j24, d) 6, 19 y 9.
6. 105. a) j20 y ji3, b) j2 + J20 y J2 + fo, c) fi2 Y fo, d) 7, 9 Y fi.
6.106. a) 8, b) 16, c)
CAPITULO 7
Determinantes
7.1. INTRODUCCION
A cada matriz n-cuadrada A = (aii) se le asigna un escalar particular denominado el determinante
de A, denotado por det (A), IAI o
au a12 at..
a
21
a:u . . . a
2
,
ad a.,
2
.. . a,.
Seiialamos que una tabla ordenada n x n de escalares situada entre dos Iineas verticales, Hamada
un determinante de arden n, no es una matriz. Es una forma de escribir el determinante de dicha
tabla de escalares o, si se prefiere, de Ia matriz encerrada.
La funcion determinante aparecio por primera vez en la investigacion de los sistemas de
ecuaciones lineales. Veremos que es una herramienta indispensable en el estudio y obtencion de
propiedades de las matrices cuadradas.
La definicion de determinante y muchas de sus propiedades siguen siendo validas cuando las
entradas de Ia matriz proceden de un anillo.
Comenzaremos con el caso especial de los determinantes de 6rdenes uno, dos y tres.
Posteriormente, definiremos un determinante de orden arbitrario. Esta definicion general vendra
precedida por una discusion de las permutaciones, necesaria para Ia misma.
7.2. DETERMINANTES DE ORDENES UNO Y DOS
Los determinantes de ordenes uno y dos se definen como sigue:
laul =au
290
I
au al2 1 = aua22- a12 all
a21 an
DETERMINANTES 291
Asi el determinante de una mat riz I x l A= (a
11
) es el propi o escalar a
11
, es decir,
det (A) = la
11
1 = a
11
. El determinante de orden dos puede recordarse facilmente usando el
diagrama:
Esto es, e1 determinante es igual al producto de los elementos situados en Ia flecha marcada con
un signo mas menos el producto de los elementos situados en Ia flecha marcada con un signo
menos. (Existen un diagrama analogo para determinantes de orden tres, pero no para determi-
nantes de ordenes superiores.)
EJEMPLO 7.1
a) Dado que el determinante de orden uno es el mismo escalar, tenemos det (24) = 24, det ( - 6) = -6
y det (t + 2) = t + 2.
1
5 41 .
b) 2 3 = (5)(3)- (4)(2) = 15 - 8 = 7
y 1-! 1 = (2)(6) _ (1)( -4) = 12 + 4 = 16.
Consideremos dos ecuaciones lineales con dos incognitas:
a
1
x+b
1
y=c
1
a
2
x + b
2
y = c
2
Recordemos (Problema 1.60) que el sistema tiene solucion {mica si y solo si D =a
1
b
2
- a
2
b
1
=1= 0;
y Ia solut ion es
Esta puede expresarse completamente en terminos de determinantes:
Aqui D, el determinante de Ia matriz de los coeficientes, aparece en el denominador de ambos
cocientes. Los numeradores N-" y NY de los cocientes para x e y , respectivamente, pueden
obtenerse sustituyendo Ia columna de coe{icientes de Ia incognita en cuesti6n, en Ia matriz de
los coeficientes, por Ia columna de terminos constantes.
EJ EM PLO 7 .2. Resolvamos por medio de determinantes:
{
2x - 3y = 7.
3x + 5y = I
El determinante D de Ia matriz de los coeficientes es
1
2 -31
D=
3 5
= (2)(5)-(3)(-3)= 10+9= 19
292 ALGEBRA LINEAL
Siendo D #- 0, el sistema tiene soluci6n unica. Para obtener el numerador N" sustituyamos, en Ia matriz
de los coeficientes, los de x por los terminos constantes:
1
7 -31
Nx=
1 5
=(7)(5)-(1)(-3) = 35+3 = 38
Para obtener el numerador N y sustituyamos, en Ia matriz de los coeficientes, los de y por los terminos
constantes:
NY=

~ n = (2)(1) _ (3)(7) = 2 _ 21 = -19


De este modo, Ia soluci6n unica del sistema es
N,. 38
x=-=-=2
D 19
e
Nr -19
y=-=-= -1
D 19
Nota: El resultado del Ejemplo 7. 2 es en realidad valido para cualquier sistema de n ecua-
ciones con n incognitas, como se discutira en Ia Secci6n 7.5. Subrayamos que Ia importancia
de este resultado es de naturaleza te6rica; esto es, en Ia practica, se suele utilizar Ia eli.minaci6n
gaussiana, y no los deter minantes, para hallar Ia soluci6n de un sistema de ecuaciones lineales.
I
7.3. DETERMINANTES DE OR:QEN TRES
Consideremos t.)!)a matriz 3 x 3 arbitraria A = (aiJ). El determinante de A se define. como sigue:
au a12 au
det (A) = Dzl a22 a23 = all a 22 a33 + all a23 a31 + al 3 a21 a32
Observese que hay seis product os, cada uno de tres elementos de Ia ma triz original. Tres de los
productos aparecen con signa mas (conservan su signa), y tres con signa menos (cambian su
signo).
Los diagramas de Ia Figura 7-1 pueden ayudar a recordar los seis productos en det (A). 0
sea, el determinante es igual a Ia suma de los productos de los elementos en las flechas marcadas
con un signo mas de Ia Figura 7-1 mas Ia suma de los opuestos de los productos de los elementos
en las flechas marcadas con un signo menos. Hacemos hincapie en que no existen tales
construcciones esquematicas para recordar los determinantes de orden superior.
EJEMPLO 7.3
2
0 5 -2 = (2)(5)(4) + (1)(- 2)(1) + (1)(- 3)(0) - (1)(5)(1)- (- 3)( - 2)(2)- (4)(1)(0) =
-3 4
= 40 - 2 + 0- 5 - 12- 0 = 21
DETERMINANTES 293
+ + +
(
Figura 7-1.
El determinante de Ia matriz 3 x 3 A = (a;i) puede reescribirse c'omo:
que es una combinaci6n lineal de tres determinantes de orden dos, cuyos coeficientes (con signos
alternantes) constituyen Ia primera fila de Ia matriz dada. Esta combinaci6n lineal puede
indicarse de Ia forma
N6tese que cada ma triz 2 x 2 se obtiene suprimiendo en Ia matriz inicial Ia fila y Ia columna
q ue contienen su coeficiente.
EJEMPLO 7.4
2
4 - 2
0 5
3 2
3 = I 4 - 2
3 2 3 2
3 - 2 4 -2 3 + 3 4 -2
3
3
- 1 0 5 - 1 0 5 - 1 0 5 -1
= 11 - 2 31- 214 31+314 -21 =
5 - 1 0 -1 0 5
= 1(2 - 15) - 2(- 4 + 0) + 3(20 + 0) = -13 + 8 + 60 = 55
7.4. PERMUTACIONES
Una permutaci6n u del conjunt o {I . 2, ... , n} es una aplicaci6n uno-a-uno del conjunto en si
mismo o, equivalentemente, una redistribuci6n de los numeros I, 2 .... , n. Tal permutaci6n a se
denota por
G
l 2
a =
.1 j 2
... ")
... j,
0 donde j; = a(i)
294 ALGEBRA LINEAL
M
El conjunto de todas las permutaciones semejantes se denota por sn, y su nurnero es n!. Si a E sn,
Ia aplicaci6n in versa a -
1
E S,; y si a, -rES n> Ia aplicaci6n cornpuesta a o 1: E S,. Asimisrno, Ia
aplicaci6n identidad e = a o a-
1
pertenece a S". (De hecho, e = 12 .. . n.)
EJEMPLO 7.5
a) Hay 2! = 2 I = 2 permutaciones en S
2
: las permutaciones 12 y 21.
b) Hay 3! = 321 = 6 permutaciones en S
3
:las permutaciones 123, 132,213,231,312,321.
1
Consideremos una permutaci6n arbitraria a en Sn, por ejernplo, a= }
1
}
2
Jn Diremos que a es
una perrnutaci6n par o impar segun suponga un numero par o irnpar de inversiones. Por una
inversion en a entendemos un par de enteros (i, k) tal que i > k pero i precede a ken a. Definirnos
entonces el signo o paridad de a, escrito sgn a, por
EJEMPLO 7.6
sgn a= {
1
- 1
st a es par
si a es impar
a) Consideremos Ia permutaci6n a= 35142 en S
5
. Para cada elemento contamos el numero de elementos
menores situados a su derecha. Asi pues,
3 da Iugar a Ia inversiones (3, 1) y (3, 2);
5 da Iugar a las inversiones (5, 1), (5, 4), (5, 2);
4 da Iugar a Ia invesi6n (4, 2).
(Adviertase que I y 2 no ocasionan inversiones.) Como hay, en total, seis in\'ersiones, O" es par y
sgn a = 1.
b) La permutaci6n identidad s = 12 ... n es par par carecer de inversiones.
c) En S
2
Ia permutaci6n 12 es par y Ia 21 impar.
En S
3
las permutaciones 123, 231 y 312 son pares, mientras que las 132, 213 y 321 son impares.
d) Sea r Ia permutaci6n que intercarnbia dos nurneros i y j dejando el resto de los nurneros fijos, es decir,
r(i) = j r(j) = i r(k) = k k # i,j
Llamamos a r trasposici6n. Si i < j,
r = 12 ... (i- 1)j(i + 1) ... (j- l)i(j + 1) ... n
Existen 2(j - i - 1) + I inversiones en r, indicadas a continuaci6n:
(j, i), (j, x), (x, i) don de x = i + 1, ... , j - I
La trasposici6n r es, pues, impar.
"!
DETERMINANTES 295
7.5. DETERMINANTES DE ORDEN ARBITRARIO
Sea A = (a;) una matriz n-cuadrada sobre un cuerpo K:
A=(::: ::: . : . :::1
a.,
1
a,
2
a.,}
Consideremos un producto den elementos de A tal que uno y solo uno de los elementos proviene
de cada fila y uno y solo uno proviene de cada columna. Tal producto puede escribirse:
donde los factores proceden de filas sucesivas, de modo que los primeros subindices mantienen
el orden natural 1, 2, ... , n. Ahora, como los factores provienen de columnas diferentes, Ia
sucesion de los segundos subindices constituye una permutaci6n (J = j
1
j
2
.. j. de s . Reciproca-
mente, cada permutacion de s. determina un producto de Ia forma anterior. Asi pues, Ia matriz A
origina n! productos semejantes.
Definicion: El determinante de A = (aii), denotado por det (A) o IAI, es Ia suma de los n!
productos precedentes, multiplicado cada uno por sgn (1. Es decir,
I A I = L (sgn (1)a
1
ita
2
h a,i.
tl
0
I A I = L (sgn u)ala(t)a2a(2l . a...,(.,l
trESa
Se dice que el determinante de Ia matriz n-cuadrada A es de arden n.
El siguiente ejemplo muestra que esta definicion concuerda con las definiciones anteriores de
de ordenes uno, dos y tres.
EJEMPLO 7.7
a) Sea A= (a
11
) una matriz I x I. Puesto que S
1
solo tiene una permutaci6n, que es par, det (A) = a
11
,
el propio numero.
J
b) Sea A= (aiJ) una matriz 2 x 2. En S
2
Ia permutacion 12 es par y !a 21 impar. Par tanto,
c) Sea A = (a;) una matriz 3 x 3. En S
3
las permutaciones 123, 231 y 312 son pares y las 321, 213
y 132 impares. Par consiguiente,
a
11
a
11
a
13
det(A)= a
11
a
11
a
13
=a
11
a
11
a
33
+a
12
a
23
a
31
+a
13
a
11
a
32
-a
13
a
21
a
31
- a
12
a
11
a
33
-a
11
a
13
a
32
a31 a32 a33
296 ALGEBRA LINEAL
A medida que 11 crece, el numero de terminos se hace astronomico. Por ella emplearemos
metodos indirectos para evaluar los determinantes mas que su definicion. De hecho demostra-
remos una serie de propiedades de los determinantes que nos permitinin abreviar los calculos
considerablemente. En particular probaremos que un determinante de arden n es igual a una
combinacion lineal de determinantes de arden n - I, como ocurria en el caso n = 3.
7.6. PROPIEDADES DE LOS DETERMINANTES
Enumeramos a continuacion las propiedades basicas del determinante.
Teorema 7.1: El determinante de una matriz A y el de su traspuesta Ar son iguales; o sea,
[A[ = [Ar[.
De acuerdo con este resultado, demostrado en el Problema 7.21, cualquier teorema relative
a una matriz A que concierna a sus filas tendra un analogo concerniente a sus columnas.
El proximo teorema, demostrado en el Problema 7.23, nos descubre ciertas situaciones en las
que el determinante puede obtenerse de manera inmediata.
Teorema 7.2: Sea A una matriz cuadrada.
a) Si A posee una fila (columna) de ceros, necesariamente [A[ = 0.
b) Si A posee dos filas (columnas) iguales, necesariamente [AI = 0.
c) Si A es triangular, esto es, A tiene solo ceros por encima o por debajo de Ia diagonal ,
entonces [A[ es igual al producto de los elementos diagonales. De este m ~ d o en par-
ticular, [/[ = I, siendo I la matriz identidad.
El siguiente teorema, demostrado en el Problema 7.22, muestra como se ve afectado el
determinante de una matriz por las operaciones elementales entre fil as o entre columnas.
Teorema 7.3: Supongamos que B se ha obtenido de A mediante una operacion elemental entre
filas (columnas).
a) Si se han intercambiado dos filas (columnas) de A, [B[ = - [A[.
b) Si se ha multiplicado una fila (columna) de A par un escalar k, [B[ = k[A[.
c) Si se ha sumado un multiplo de una fila (columna) a otra, [BI = [A[.
Ahara enunciamos dos de los teoremas mas importantes y utiles referentes a determinantes.
Teorema 7.4: Sea A cualquier matriz n-cuadrada. Son equivalentes las siguientes aserciones:
i) A es invertible, es decir, A tiene una in versa A -
1
.
ii) AX = 0 tiene unicamente la solucion trivial.
iii) El determinante de A es no nulo: [AI '# 0.
Nota: Dependiendo del autor y del texto, una matriz no singular A se define como una matriz
invertible, como una para Ia que [AI #- 0, o como una para Ia que AX= 0 solo tiene Ia solucion
nula. El teorema anterior muestra que las tres definiciones son equivalentes.
DETERMINANTES 297
Teorema 7.5: El determinante es una funci6n multiplicativa. 0 sea, el determinante del
producto de dos matrices A y B es el producto de los determinantes: IABI = IAI IBI.
Demostraremos los dos teoremas precedentes (Problemas 7.27 y 7.28, respectivamente)
utilizando Ia teoria de las matrices elementales, junto al lema que sigue {demostrado a su vez
en el Problema 7 .25).
Lema 7.6: Sea E una matriz elemental. En tal caso, para toda matriz A, lEAl = IEII AI.
Cabe comentar que es posible probar los dos teoremas directamente, sin necesidad de recurrir
a Ia teoria de las matrices elementales.
Recordemos que dos matrices A y B son similares si existe una matriz no singular P tal que
B = p - t AP. Hacienda uso de la propiedad multiplicativa del determinante (Teorema 7.5) sere-
mas capaces de demostrar (Problema 7.30):
Teorema 7.7: Supongamos que A y B son mat rices similares. Entonces IAI = IBJ.
7.7. MENORES Y COFACTORES
Consideremos una matriz n-cuadrada A= (a;). Denotemos por Mii Ia submatriz (n - 1 )-cuadrada
de A que se obtiene suprimiendo su i-esima fil a y su j-esima columna. El determinante IM;il
recibe el nombre de menor del elemento a;j de A, y definimos el cofactor de aii denotado por
A;i como el menor con signa:
A;i = ( - 1 );+ iJMiil
N6tese que los signos ( -lY+i que acompaii.an a los menores se disponen en forma de tablero
de ajedrez,_ con signos + en Ia diagonal principal:
. ) ..
Subrayamos el hecho de que Mu denota una matriz, mientras que Aii denota un escalar.
Nota: El signa ( - tY+i del cofacto r Au se obtiene frecuentemente utilizando Ia configuraci6n
de tablero de ajedrez citada. Concretamente, empezando con + >> y alternando los signos, esto
es, +, - , +, -, ... , se cuenta desde Ia diagonal principal hasta Ia casilla apropiada.
(
2 3 4)
EJEMPLO 7 .8. Consideremos Ia matriz A = 5 6 7 .
8 9 I
2 3 4 I
I M2JI = 56 1 =:
3
1= 18 -24= -6yportanto A
23
= ( - J) 2+
3
IM
23
1= (-I) ( - 6)=6.
8 9 J
9
Es aplicable el teorema enunciado a continuaci6n, demostrado en el Problema 7.31.
298 ALGEBRA LINEAL
Teorema 7.8. El determinante de Ia matriz A = (aii) es igual a Ia suma de los productos
obtenidos multiplicando los elementos de cualquier fila (columna) por sus correspondientes
cofactores:

1 A 1 =au Au + a;
2
A;
2
I, a;iAii
j = I

y
I A I= a
1
jAii + a
2
j A
2
i + + = I, aljAii
i= I
Estas formulas para IAI se conocen como desarrollos de Laplace del determinante de A por
la i-esima fila y la j-esima columna, respectivamente. Junto con las operaciones elementales entre
filas, ofrecen un metodo de simplificaci6n del calculo de IAI, como se describe mas abajo.
EV ALUACION DE DETERMINANTES
El siguiente algoritmo reduce Ia evaluaci6n de un determinante de orden n a Ia de uno de
orden n- I.
Algoritmo 7.7 (Reduccion del orden de un determinante)
Aqui A = (a;) es una matriz n-cuadrada no nula, con n > 1.
Paso 1. Elegir un elemento a;i = I o, en su defecto, un aii =1= 0.
Paso 2. Usando aii como pivote, efectuar las operaciones elementales entre filas [columnas]
necesarias para colocar ceros en el resto de las posiciones de Ia columna [fila] que contiene aii.
Paso 3. Desarrollar el determinante por la columna [fila] que contiene aijo
Podemos hacer, por orden, las siguientes observaciones.
Nota 1: El Algoritmo 7.7 suele emplearse para determinantes de orden cuatro o mayor. Con
determinantes de orden menor que cuatro se utilizan las formulas del determinante especificaso
Nota 2: La eliminaci6n gaussiana o, equivalentemente, el uso repetido del Algoritmo 707
acompaiiado de intercambios de filas puede servir para transformar una matriz A en otra
triangular superior, cuyo determinante es el producto de las entradas diagonaleso No obstante,
no debe perderse de vista el numero de intercambios de filas, pues cada uno de ellos varia el
signo del determinanteo (Vease el Problema 7o ll.)
EJEMPLO 709. Calculemos el determinante de A= (
- 5
1
4
3
-7
- 2
2 I)
1
-
2
por medio del Algoritmo 7 7
-3 9
-1 4
Utilizamos a
23
= I como pivote para situar ceros en el resto de las posiciones de Ia tercera columna,
esto es, efectuamos las operaciones entre filas -2R
2
+ R
1
-> R
1
, 3R
2
+ R
3
---> R
3
y R
2
+ R
4
-> R
4
Segun el
Teorema 73 c), el valor del determinante no se altera con estas operaciones, es decir,
DETERMINANTES 299
5 4 2 I -2 0 5
2 3 - 2 2 3 I - 2
IAI =
- 5 - 7 -3 9 2 0 3
-2 - 1 4 3 0 2
Si ahora desarrollamos por Ia tercera columna, podemos despreci ar todos los terminos que contienen 0. Asi
I - 2 0 5
I -2 5
2 3 l -2
IA I = 1- 1)
1
<3 -
I 2 3 = - (4- 18 + 5-30 - 3 + 4) = -(- 38) = 38
I 2 0 3
3 0 2
3 2
7 .8. ADJUNTO CLASICO
Consideremos una matriz n-cuadrada A = (aii) sobre un cuerpo K. El adjunto clasico (tradicio-
nalmente llamado adjunto) de A, denotado por adj A, es Ia traspuesta de Ia matriz de cofac-
tores de A:
Decimos <<adjunto clasico en vez de simplemente adjuntm> debido a que este ultimo termino
se suele usar para un concepto completamente diferente.

3
-4)
EJEMPLO 7.10. - 4 . Los cofactores de los nueve elementos de A son
-I
A11 = +
1-4
- I
- 18 A12 =

2


4
A21 = -1-
-41
5
= -II
A
22
= + -:1 =
14

=
5
A3t =+l 3
-4
- 4,
2 = - 10
-41
2 = -4
AJJ =
31 = - 8
- 4
La traspuesta de Ia matriz de los cofactores anteriores proporciona el adjunto clasico de A:
(
- 18 - 11. -10)
adj A= 2 14 -4
4 5 - 8
Es aplicable el siguiente teorema, demostrado en el Problema 7.33.
300 ALGEBRA LINEAL
Teorema 7.9: Para toda matriz cuadrada A,
A (adj A)= (adj A) A = !All
donde I es Ia matriz identidad. De este modo, si IAI 'I= 0,
I
A-
1
=- (adj A)
IAI
Observemos que este teorema pone en nuestras manos otro metodo para hallar la inversa
de una matriz no singular dada.
EJEMPLO 7.11. Consideremos Ia matriz A del Ejemplo 7.10 para Ia cual IAI = - 46. Tenemos
-!


1 -I 5 4 5 -8 o o -46 '\o
= - 461 = I A II
Ademas, de acuerdo con el Teorerna 7.9,
A- = -
1
- (adj A) = 2/( -46)
(
- 18/(-46)
lA I 4/( -46)
- 11/( -46)
14/( -46)
5/( - 46)
- 1 0/(- 46)) '( -fs
- 4/(-46) = -A
-8/(-46) --is
7.9. APLICACIONES A LAS ECUACIONES LINEALES.
REGLA DE CRAMER
Consideremos un sistema de n ecuaciones lineales con n incognitas:
allxl + auxz +
az1X1 + all X 1 +
+ahx,. = b
1
+ a
2
,.x. = b
2
0
I
0
El sistema puede escribirse en Ia forma AX = B, donde A = (a;) es Ia matriz (cuadrada) de
coelicientes y B = (bJ el vector columna de constantes. Sea A; Ia matriz obtenida a partir de A
sustituyendo su columna i-esima por B. Sean D = det (A) y N; = det (AJ para i = 1, 2, ... , n.
La relaci6n fundamental entre los determinantes y Ia soluci6n del sistema es Ia siguiente.
Teorema 7.10: El sistema precedente tiene soluci6n (mica si y solo si D 'I= 0, en cuyo caso Ia
soluci6n viene dada por
x. = N,jD
DETERMINANTES 301
Este teorema, demostrado en el Problema 7.34, se conoce como regia de Cramer>> para Ia
resolucion de sistemas de ecuaciones lineales. Hacemos enfasis en que el teorema solo se refiere
a sistemas con el mismo numero de ecuaciones que de incognitas, y que unicamente da Ia
solucion cuando D =1= 0. De hecho, si D = 0, el teorema no nos dice si el sistema es o no
compatible. A pesar de ello, en el caso de un sistema homogeneo, disponemos del resultado, de
gran utilidad, que se escribe a continuacion (y se demuestra en el Problema 7.65).
Teorema 7.11: El sistema homogeneo AX = 0 tiene solucion no nula si y solo si D = JAI = 0.
{
2x+ y - z=3
EJ EM PLO 7.12. Resolvemos, empleando determinantes: x + y + z = l .
x - 2y - 3z = 4
Comenzamos calculando el determinante D de Ia mat riz de los coeficientes:
2 - 1
D = l l = - 6 + 1 + 2 + l + 4 + 3 = 5
- 2 -3
Como D < 0, el sistema tiene soluci6n unica. Para encont rar N ~ NY y N= sustituimos los coeficientes de
x, y y z en Ia matriz por los terminos constantes:
3 -1
Nx =
1 l = -9 + 4 + 2 + 4 + 6 + 3 = 10
4 -2 - 3
2 3 -1
N =
y
1 = -6+3-4+1-8+9= - 5
4 -3
2 3
N=
.
1 l 1 =8+1 - 6-3+4 - 4=0
-2 4
La soluci6n unica es, pues, X= NxfD = 2, y = N,/D = -I, z = N=JD = 0.
7.10. SUBMATRICES. MENORES GENERALES.
MENORES PRINCIPALES
Sea A= (a;) una matriz n-cuadrada. Cada par de conj untos ordenados i
1
, i
2
, .. , i, de t indices
de fila y j
1
, j
2
, .. . , j, de r indices de columna define Ia submatriz de A de orden r :
302 ALGEBRA LINEAL
El determinante jAf.f !rJ se denomina un menor de A de orden r, y
' ' :z .. 'r
(
-l)it +h+ +i.+ h +)2++ j, I Ah j2. i I
it. 12 , .,.
es el menor con signo correspondiente. (N6tese que un menor de orden n - 1 es un menor en
el sentido de Ia Seccion 7.7, siendo el correspondiente menor con signo un cofactor.) Ademas,
si y denotan, respectivamente, los indices de fila y columna restantes,
I
Aij.
it. '-r
es el menor complementario.
EJEMPLO 7.13. Supongamos que A = (aii) es una matriz 5-cuadrada. Los subindices de fila 3 y 5 y los
de columna I y 4 definen Ia submatriz
y el menor y menor con signo son, respectivamente,
y
Los subindices de fila restantes son I , 2 y 4 y los de columna 2, 3 y 5, luego el menor complementario
de es
MENORES PRINCIPALES
all an ats
= an a23 a35
a42 a43 a4s
Un menor es principal si los indices de fila y de columna coinciden o, en otras palabras, si los
elementos diagonales del menor proceden de Ia diagonal de Ia matriz.
EJ EM PLO 7.14. Consideremos los men ores de una matriz 5-cuadrada A = (au):
al2 al4 azs
Mt = a4l a44 a4s
as2 as4 ass
au au au
M2 = all a23 a2s
as1 as3 ass
M
3
=ian a2s l
as2 ass
Aqui M
1
y M
3
son menores principales, porque todos sus elementos diagonales pertenecen a Ia diagonal
de A. Sin embargo, M
2
no es principal, ya que a
23
pertenece a Ia diagonal de M
2
pero no a Ia de A.
Se pueden hacer, por orden, las siguientes observaciones.
Nota 1: El signo de un menor principal es siempre + 1, puesto que Ia suma de los indices de
fila y los identicos de columna es par.
DETERMINANTES 303
Nota 2: Un menor es principal si y solo si su menor complementario es tambien principal.
Nota 3: Una matriz real simetrica A es definida positiva si y solo si todos sus menores princi-
pales son positivos. -
7.11. MATRICES POR BLOQUES Y DETERMINANTES
A continuaci6n se expone el resultado fundamental de esta secci6n.
Teorema 7.12: Supongamos que M es una matriz triangular superior (inferior) por bloques,
con bloques diagonales A
1
, A
2
, . A ~ . Entonces
La demostraci6n aparece en el Problema 7.35.
2 3 : 4 7 8
I
-1 5 I 3 2 1
-- - -- -- +------- ---
EJEMPLO 7.15. Hallemos IMI, siendo M = 0 0 I 2 1 5
I
0 . 0 : 3 -1
0 0 : 5 2
Notese que M es una matriz triangular superior por bloques. Evaluamos el determinante de cada bloque
diagonal:
! 1 = 10 + 3 = 13
Por tanto, IMI = (13)(29) = 377.
2
3 -1
5 2
5
4 = - 12 + 20 + 30 + 25 - 16 - 18 = 29
6
Nota: Supongamos M = ( ~ . donde A, B, C, D son matrices cuadradas. En general no
sera cierto IMI = IAIIDI - IBIICI- (Vease el Problema 7.77.)
7.12 . . DETERMINANTES Y VOLUMEN
Los determinantes estim ligados a las nociones de area y volumen como sigue. Sean u
1
, u
2
, . , u.
vectores en R" y S el paralelepipedo que determinan; esto es,
304 ALGEBRA LINEAL
(Cuando n = 2, S es un paralelogramo.) Denotemos par V(S) el volumen (o area, sin= 2) deS.
En tal caso,
V(S) = valor absolute de det (A)
don de A es la rna triz con filas uu u
2
, ... , u . En general, V(S) = 0 si y solo si los vectores
u
1
, u
2
, .. . , u. no constituyen un sistema de coordenadas de Rn, es decir, si y solo silos vectores
son linealmente dependientes.
7.13. MULTILINEALIDAD Y DETERMINANTES
Sean V un espacio vectorial sabre un cuerpo K y sf = V", esto es, d consiste en todas las n-plas
en las que los A; son vectores de V. Son pertinentes las definiciones:
Definicion: Se dice que una funcion D: s1 K es multilineal si es lineal en cada uno de sus
argumentos; o sea:
i) Si A; = B + C,
D(A) = D( ... , B + C, ... ) = D( ... , B, ... ) + D( ... , C, ... )
ii) Si A; = kB con kEK,
D(A) = D( ... , kB, ... ) = kD( ... , B, ... )
Tambien se utiliza Ia expresion n-lineal en Iugar de multilineal cuando hay n argumentos.
Definicion: Se dice que una funcion D: s ~ K es alternada si D(A) = 0 siempre que A tenga
dos elementos iguales; es decir,
stempre que A;= Ai, i -:f.j
Denotemos ahara por Mel conjunto de todas las matrices n-cuadradas A sabre un cuerpo K.
Podemos ver A como una n-pla constituida por sus vectores fila A
1
, A
2
, . , An; esto es, podemos
ver A de Ia forma A = (A
1
, A
2
, , A.).
El siguiente resultado basico (demostrado en el Problema 7.36) es aplicable. (I denota Ia
matriz identidad.)
Teorema 7.13: Existe una (mica funcion D: M ~ K tal que
i) D es multilineal, ii) D es alternada, iii) D(I) = 1
Esta funcion D no es otra que Ia funcion determinante; es decir, para toda matriz A EM,
D(A) = IAI.
DETERMINANTES 305
PROBLEMAS RESUELTOS
CALCULO DE DETERMINANTES DE ORDENES DOS Y TRES
7.1. Evaluar el determinante de cada una de las matrices:
.7.2.
(
3 -2)
4 5 '
(
4 -5)
-1 - 2
1 ! 1 = (6)(3) _ (5)(2) = 18 _ 10 = 8,
1
3 -21
= 15 + 8 = 23,
4 5 .
1 ~ = ~ 1 = 8 5 = 1 3
Hallar el determinante de (t -
5 7
)
-1 t+3.
l
l _ 5 7 I
= (t- 5)(c + 3) + 7 = t
2
- 2t- 15 + 7 = t
2
- 2t- 8
- 1 t + 3
7.3. Determinar los valores de k para los que ~ ~ ;kl = 0 .
. Hacemos lk k I = 2k
2
- 4k = 0 o 2k(k - 2) = 0. De aqui k = 0 y k = 2. 0 sea, si k = 0 o
4 2k
k = 2, el determinante es nulo.
7.4. Evaluar los determinantes de las siguientes matrices:
(
1 -2 3)
a) 2 4 -1 ,
1 5 -2
Utilicense los diagramas de Ia Figura 7-1.
-2 3
a) 2 4 -1 =(1)(4)(-2) +(-2)( -1)(1) +(3)(5)(2)-(1)(4)(3) - (5)(-1)(1)-(-2)( - 2)(2)=
5 -2 = - 8 + 2 + 30 - 12 + 5 - 8 = 9
a
1
b
1
c
1
b) a
2
b
2
c
2
=a
1
b
2
c
3
+b
1
c
2
a
3
+c
1
b
3
a
2
-a
3
b
2
c
1
-b
3
c
2
a
1
- c
3
b
1
a
2
a
3
b
3
c
3
306 ALGEBRA LINEAL
7.5. Calcular el determinante d e ~
3 4)
6 7 .
9 1
Comenzamos por simplificar las entradas restando dos veces Ia primera fila a Ia segunda, esto
es, efectuando -2R
1
+ R
1
--> R
1
:
2
5
8
3
6
9
4
7
2
1
8
3 4
0 -1 = 0- 24 + 36- 0 + 18 - 3 = 27
9
7.6. Hallar el determinante de A, donde:
-1
.l
2
- 4
-l
c - 3
-6
a) Primero multiplicamos Ia primera fila por 6 y Ia segunda por 4. Entonces
3 -6 -2
6 41 A I = 241 A I = 3
2 - 4 = 6 + 24 + 24 + 4 - 48 + 18 = 28
- 4
Por tanto, IAI = * = ~ (Observese que las multiplicaciones iniciales eliminaron los denomina-
dores, simplificando Ia aritmetica.)
b) Sumamos Ia segunda columna a Ia primera, y despues Ia tercera a Ia segunda para conseguir
ceros; es decir, efectuamos Cz + c l-+ c I y c3 + c2 -t c 2:
l + 2 0 1
IAI = t+2 t - 2 1
0 t - 2 t+4
Ahora sacamos el factor t + 2 de Ia primera columna y el t - 2 de Ia segunda para llegar a
0
I A I = (t + 2)(t - 2) 1
0 t + 4
Finalmente, restamos Ia primera columna a Ia tercera obteniendo
I A I = (t + 2)(t - 2) l
0
0 0
0 = (t + 2)(t - 2)(t + 4)
t + 4
DETERMINANTES 307
CALCULO DE DETERMINANTES DE ORDENES ARBITRARIOS
7.7.
7.8.
7.9.
( 2
5 - 3
- 2 -3 2
Calcular el determinante de A =
1 3 -2
- I -6 4
-2)
-5
2 .
3
Usamos a
31
= I como pivote y efectuamos las operaciones entre fi las -2R
3
+ R
1
--. R
1

2R
3
+ R
1
- R
2
y R
3
+ R4 - R4 :
2 5 -3 - 2 0 - 1 I - 6
- I I - 6
-2 - 3 2 -5 0 .3 - 2 - 1
3 -2 - I
IAI = =+
I 3 - 2 2 3 - 2 2
- 3 2 5
- I - 6 4 3 0 - 3 2 5
= I 0 + 3 - 36 + 36 - 2 - 15 = - 4
E'31uar el dete,m;nante de A - ~
2 2
- ~ )
0 -2
- 1 l
- 3 0
Usamos a
2 1
= I como pi vote y efectuamos 2C
1
+ C
3
..... C
3
:
2 4
.3 .
2 4 3
1 0 0
IAI =
3
-1 7 - 2 = - (28 + 24 - 24 + 63 + 32 + 8) = -131
- 1 7 - 2
4 - 3 6 2
-3 8 2
6 2 0
2 I -- 2
Halla r el determinante de C = I I 2 --2 3
3 0 2 3 - I
--- 1 - I - 3 4 2
Empezamos reduciendo ICI a un determinante de orden cuatro y luego a uno de orden tres.
Empleamos c
22
=I como pivote y efectuamos - 2R
2
+ R
1
-+ R
1
- R
2
+ R
3
-. R
3
y R
2
+ R
5
..... R
5
:
2
2
ICJ = - 1
3
5
- I
0
I
0
0
0
4
3
2
-I
I
2
- 2
- I
- 5
7
3
2 - I 4 3
I
- I 0 2
2
3 2 3 - I
3 - I
I --2 2 3
2 6
= 2 I + 20 - I 0 - 3 + 10 - 140 = - I 02
I 4 - I
0 0 0
5 2 3 - 5
- I -2 2 7
308 ALGEBRA LINEAL
7.10. Hallar el determinante de cada una de las siguientes matrices:

6 7


6 7
_:)
0 0 -3 5
a)
-3 5
b)
9 -3
9 ,
4 2 7 8 7

3 4
-;)
c)
-3 7
0 5
0 0
a) Como A tiene una fila de ceros, det (A) = 0.
b) Siendo iguales las columnas segunda y cuarta de 8, det (8) = 0.
c) Dado que C es triangular, det (C) es igual al producto de las entradas diagonales. Por consi-
guiente, det (C)= - 120.
7 .11. Describir e1 algoritmo de eliminaci6n gaussian a para el calculo del determinante de una
matriz n-cuadrada A = (a;)
El algoritmo utiliza Ia eliminaci6n gaussiana para transformar A en una matriz triangular
superior (cuyo determinante es el producto de las entradas diagonales). Como el algoritmo implica
intercambios de lilas, con los consiguientes cambios de signo del determinante, debe seguirse Ia pista
de tales cambios empleando para ello alguna variable, digamos SGN. El algoritmo tambien hace
uso del mecanismo de pivotam; esto es, el elemento de mayor valor absoluto sera el que se utilice
como pivote. Exponemos el algoritmo a continuaci6n.
Paso 1. Tomar SGN = 0 [Con esto se inicializa Ia variable SGN.]
Paso 2. Hallar Ia entrada de Ia primera columna ail de mayor valor absoluto.
a) Si a;
1
= 0, hacer det (A) = 0 y SALIR.
b) Si i - I, intercambiar las filas primea e i-esima y hacer SGN = SGN + I.
Paso 3. Usar a
11
como pivote y efectuar operaciones elementales entre filas de Ia forma kRq + RP __, RP
para situar ceros bajo a
11
.
Paso 4. Repetir los Pasos 2 y 3 con Ia submatriz obtenida omitiendo Ia primera fila y columna.
Paso 5. Continuar el proceso anterior hasta que A sea una matriz triangular superior.
Paso 6. Hacer det (A)= ( -l)sGNa
11
a
22
a y SALIR.
N6tese que Ia operaci6n elemental entre filas de La forma kRP-> RP (que multiplica una fila por un
escalar), permitida en el algoritmo de eliminaci6n gaussiana para un sistema de ecuaciones lineales,
esta prohibida aqui, ya que modifica el valor del determinante.
7.12. Utilizando el algoritmo de eliminaci6n gaussiana del Problema 7.11, hallar el determi-
nante de
8
-3
10
7.13.
DETERMINANTES 309
Primero reducimos Ia matriz A a una triangular superior sin perder de vista el numero de
intercambios de filas:
10
- 3
8
15) (5
I - 0
6 0
\5) (5
7 - 0
-3 0
10
2
10
2
15) (5
- ~ - ~
10
2
0
15)
-3
17
T
Ahora A esta forma triangular y SGN = 2 porque ha habido dos intercambios de filas. Por tanto.
A= ( - I)SGN.5 2 (1f) = 85.
I
0.921 0. 185
0.782 0.157
Evaluar I B I =I
0
_
872 0
_
484
0.312 0.555
0.476 0.614
0.527 0.138
0.637 0. 799 .
0.841 0.448
Multiplicamos Ia fila que contiene e1 pivote aij por l{a;i' de forma que el pivote sea igual a 1:
0.782
I B I = 0.921
0.872
0.312
0
= 0.921 0.309
0.492
0.201 0.517 0.667 I 0.201 0.571 0.6(J,
0.157 0.527 0.138 0 0 0.123 -0.384
= 0.921
0.484
0.555
0.123
0.196
0.680
0.637 0. 799 0 0.309 0.196 0.217
0.841 0.448 0 0.492 0.680 0.240
-0 3841 0
0.217 = 0.921(--0.384) 0.309
o.24o 1 , o.492
- 0.320
0.196
0.680
0 0 I
= 0.921( -0.384) 0.309 0.265 0.217 = 0.921( - 0 J84) 1
309 0

265
1 =
0.492 0. 751 0.240
4 9
~
0

757
= 0.921(-0.384WO.I04) = - 0.037
COFACTORES. ADJUNTOS CLASICOS
Considicese Ia matri' A ~ ~
l - 3
- 4 7
7.14.
0 6
3 --2 5
- ~ ) Determinar el cofactor del 7 en A, o
-- ~ .
sea, A
23

Tenemos
2 - 3 4 ,..,
4! , .. I
A23= (-l)l+ 3
5 -4 7 -2
=-I:
I
0
-- 31 =
4 0 6 - 3
-2 21
3 -2 5 2
"' - (0-9 - 32-0 - 12 -8) = - (-61) = 61
El exponente 2 + 3 proviene de que 7 ocupa Ia segunda fila y Ia tercera columna.
310 ALGEBRA LINEAL
7 .IS. Con,idire" Ia matriz B ~ ( ! :) . Halla" a) I Bl, b) adj B, c) B- ' u.ando adj B
a) IBI = 27 + 20 + 16 - 15 - 32 - 18 = -2.
b) Tomamos Ia traspuesta de Ia matriz de cofactores.
adj B =
1
3 41 12 41 12 31 T
8 9 5 9 5 8 (-5
- I ~ ~ I I ~ ~ I - 1 ~ ~ I = -
1
1
I ~ !I - 1 ~ ~ I I ~ !I
! - T = ( ~ - ~ - ~
-2 1 1 -3 1
c) Como IBI #- 0,
(
-5
1 . 1
B-
1
=-(adJ B)=- 2
IBI -2
1
-1 1) ( t t -t)
4 -2 = -1 -2 1
- 3 1 -! i -!
7.16. Considerese una matriz 2-cuadrada arbitraria A=(: :). a) Hallar adj A. b) Mostrar
que adj (adj A) = A.
a) adjA=(+Idl -lci)T =( d -c)T =( d -b)
-lbl +tal -b a -c a
b) adj (adj A) = adj ( d -b) = ( + I a I
-c a -1-bl
- 1 - c I)T = (a ')T = (a b) = A.
+ ldl b d c d
DETERMINANTES Y ECUACIONES LINEALES. REGLA DE CRAMER
7.17. Resolver el sistema que sigue empleando determinantes.
{
ax - 2by = c
donde ab #- 0
3ax - 5by = 2c
I
a -2bl
Comenzamos por calcular D = = - 5ab + 6ab = ab. Dado que D = ab t= 0, el sistema
3a -5b
tiene soluci6n (mica. A continuaci6n calculamos
N = = - Sbc + 4bc = -be
I
c -2bi
" 2c - 5b
y
N -I a '1=.2m:-3ac= -ac
Y 3a 2c
Entonces x = N"/D = -bcjab = - cfa e y = N,/ D = -acfab = -cjb.
DETERMINANTES 311
{
3y + 2x = z + 1
7.18. Resolver, utilizando determinantes: 3x + 2z = 8 - 5y .
3z- 1 = x- 2y
Primero colocamos las ecuaciones en Ia forma convencional:
2x + 3y - z = 1
3x + 5y + 2z = 8
x-2y-3z=-1
Calculamos el determinante D de Ia matriz de los coeficientes:
2
D= 3
3 -1
5 2 = - 30 + 6 + 6 + 5 + 8 + 27 = 22
-2 -3
Siendo D # 0 el sistema tiene solucion unica. Para calcular Nx, N, y Nz sustituimos los coeficientes
de cada incognita en Ia matriz de los coeficientes por los terminos constantes:
1 3 -1
N =
"
8 5 2 = - 15- 6 + 16 - 5 + 4 + 72 = 66
-1 -2 -J
2 1 - 1
N = , 3 8 2 = - 48 + 2 + 3 + 8 + 4 + 9 = - 22
- 1 -3
2 3 1
N =

3 5 8 = -10 + 24 - 6 - 5 + 32 + 9 = 44
-2 -1
Por tanto,
N.. 66
X=- = -=3
D 22
N -22
y=:.:.Z.=-- = - 1
D 22
N, 44
z= - =-=2
D 22
7.19. Resolver el siguiente sistema mediante Ia regia de Cramer:
2x
1
+ x
2
+ 5x
3
+ x
4
= 5
x
1
+ x
2
- 3x
3
- 4x
4
= -1
3x
1
+ 6x
2
- 2x
3
+ x
4
= 8
2x
1
+ 2x
2
+ 2x
3
- 3x
4
= 2
Calculamos
2 5 5
1 1 -3 -4 -1
D=
3 6 - 2
= - 120 Nt=
8
2 2 2 -3 2
5
1 - 3 -4
= -240
6 - 2 l
2 2 -3
7.20. Utilizar determinantes para encontrar los valores de k para los que el sistema escrito a
continuaci6n tiene soluci6n unica:
kx + y+ z = 1
X+ ky + Z = 1
x+ y+kz=1
El sistema tiene soluci6n (mica cuando D if. 0, donde D es el determinante de Ia matriz de los
coeficientes. Calculamos
k 1 1
D "" k 1 = P + 1 + 1 - k - k - k = k
3
- 3k + 2 = (k - 1)
2
(k + 2)
k
Asi el sistema tiene soluci6n imica cuando (k - I)l(k + 2) if. 0, es decir, cuando k if. I y kif. - 2.
(La eliminaci6n gaussiana indica que el sistema no tiene solucion para k = - 2, mientras que para
k = 1 tiene un numero infinito de elias.)
DEMOSTRACION DE LOS TEOREMAS
7.21. Demostrar el Teorema 7.1.
Si A= (a;i), Ar = (b;i ), con bii = ai; Poe consiguiente,
I AT I = L (sgn a)blo(l)b2.,(2) b..,(l = L (sgn a)a.,(l ). la.,(2J, 2 a.,<l.
. ~ s . . ~ E s , .
Sea t = a-
1
Segun el Problema 7.43, sgn 1" = sgn a y a.,
111

1
a.,<
21

2
a.,<> = altll)az,
121
.. . an<(n)
De aqui
IATI = L (sgn t)ahUlalrlll ... a.,,.,
tiES.
No obstante, al recorrer a todos los elementos de s., tambien lo hace T = a -
1
De este modo,
IATI = litl.
DETERMINANTES 313
7.22. Demostrar el Teorema 7.3 a).
Lo demostramos en el caso en que se intercambian dos columnas. Sea -r Ia trasposicion que
intercambia los numeros correspondientes a las dos columnas de A en cuestion. Si A = (a;j) y
B = (biJ), necesariamente biJ = a;,
111
Para cualquier permutacion a tendremos, pues,
Asi pues,
IBI = L (sgn = L (sgn .. cll a., .. t>
(J S,. a t= Sa
Dado que Ia trasposicion -r es una permutacion impar, sgn ra = sgn r sgn a= - sgn tr, de modo
que sgn tr = - sgn -ra, y
IBI = - L (sgn ra)att .. (lla2, ..
121
a., .. 11
tsES,.
Pero al ir recorriendo a todos los elementos de s., tambien lo hace uJ, por lo que IBI = -IAI.
7.23. Demostrar el Teorema 7.2.
a) Cada termino en IAI contiene un factor de cada fila y por tanto uno de Ia fila de ceros. Siendo
asi, cada termino de IAI es cero y por ende IAI = 0.
b) Supongamos que I + I I' 0 en K. Si intercambiamos dos lilas identicas de A, seguiremos tenien-
do Ia matriz A, luego, de acuerdo con el Problema 7.22, IAI = -IAI y por tanto IAI = 0.
Supongamos ahora que I + I = 0 en K. En tal caso, sgn a= I para toda trES . Como A
tiene dos filas identicas, podemos agrupar los ti:rminos de A en pares de terminos iguales.
Siendo nulo cada par, el determinante de A es cero.
c) Supongamos que A = (ail) es triangular inferior, o sea, que las entradas situadas sobre la diago-
nal son todas cero: au= 0 siempre que i <j. Consideremos un termino t del determinante de A:
t = (sgn tr)a li, a
2
;, a.;.
Supongamos i
1
I' I. Entonces I < i
1
, de modo que ali, = 0; por consiguiente, t = 0. Esto es,
todo termino para el que i
1
# I es nulo.
Supongamos ahora i
1
= I pero i
2
I' 2. En ese caso, 2 < i
2
y ali,= 0; por tanto, t = 0. Todo
termino para el que i
1
t:- I o i
2
I' 2 es, pues, nulo.
Similarmente, obtenemos que todo termino para el que i
1
t:- I o i
2
f' 2 o o i. t:- n es
nulo. En consecuencia, IAI = a
11
a
22
a = producto de los elementos diagonales.
7.24. Demostrar el Teorema 7.3.
a) Demostrado en el Problema 7.22.
b) Si se multiplica por k Ia fila j-esima de A, todo termino en IAI aparecera multiplicado por k,
de donde IBI = kiAI. Es decir,
I B I = L (sgn a)a
11
,au
1
(ka Jl) .. k L (sgn a)au,a
211
a.;.= k 1 A I
.. ..
314 ALGEBRA LINEAL
c) Supongamos que se suma a Ia fila j-esima de A c veces Ia k-esima. Usando el simbolo A para
denotar Ia j-esima posicion en un termino del determinante.
----
1 B I = L (sgn o)au,a
21
, (cat
1
, + a
11
) a.
1

"
= c L (sgn o-)ali,a212 a;;: a.1 + L (sgn a)a11,a
212
~ s.1
" "
La primera suma es e1 determinante de una ma triz cuyas filas k-<!sima y j -esima son identicas;
por tanto, segun el Teo rem a 7.2 b), la suma es cero. La segunda suma es el determinante de A.
Asi pues, IBI = c 0 + lA I = I AI.
7.25. Demostrar el Lema 7.6.
Consideremos las operaciones elementales entre las filas siguientes: i) multiplicar una fila por una
constante k -I= 0; ii) intercambiar dos filas; iii) sumac a una fila un multiplo de ot ra. Sean E
1
, E
2
y E
3
las matrices elementales asociadas, esto es, las obtenidas efectuando las operaciones precedentes,
respectivamente, sobre Ia matriz identidad / . Poe el Problema 7.24, ~
IEtl =kill = k
Recordemos (Teorema 4. 12) que E,A es identica a la matriz obtenida efectuando sobre A Ia
operacion correspondiente. Asi, segun el Teorema 7.3,
y queda demostrado el lema.
7.26. Sup6ngase que B es equivalente por filas a una matriz cuadrada A. Prot;ar que IBI = 0
si y solo si IAI = 0.
De acuerdo con el Teorema 7 .3, el efect o de una operaci6n elemental entre filas es cambiar el
signo del determinante o multiplicar este por un escalar no nulo. Por consiguiente, IBI = 0 si y solo
si IAI = 0.
7.27. Demostrar el Teorema 7.4.
La demostraci6n se basa en el algoritmo de eliminaci6n gaussiana. Si A es invertible, es
equivalente por filas a I. Pero Ill -I= 0, luego, segun el Problema 7.26, IAI -I= 0. Si A no es invertible,
es equivalente por filas a una matriz con una fila nula, por lo que det (A)= 0. Entonces i) y iii) son
equivalentes.
Si AX = 0 solo tiene Ia solucion X = 0, A es necesariamente equivalente por filas a I y por ende
invertible. Reciprocamente, si A es inver tible con in versa A-
1
,
es Ia tmica soluci6n de A X = 0. De este modo, i) y ii) son equivalentes.
7.28. Demostrar el Teorema 7.5.
Si A es singular, AB tambien lo es y IABI = 0 = IAIIBI. Por otra parte, si A es no singular,
A = E ... E
2
E
1
, producto de matrices elementales. Haciendo uso del Lema 7.6 y de Ia inducci6n
obtenemos
DETERMINANTES 315
7.29. Sup6ngase que P es invertible. Probar que IP-
1
1 = IPI-
1

p-
1
p =I. De aqui I= II I = IP-
1
PI = IP-
1
IIPI y asi IP-
1
1 = IPI-
1
.
7.30. Demostrar el Teorema 7.7.
Dado que A y B son similares, existe una matriz invertible P tal que B = p -
1
AP. Por el
problema precedente, IBI = IP-
1
API = IP-
1
11AIIPI = IAIIP-'IIPI = IAI.
Hacemos notar que aunque las matrices p -
1
y A pueden no conmutar, sus determinantes IP-
1
1
y IAI si lo hacen, por ser escalares en el cuerpo K.
7.31. Si A= (au), demostrar que IAI = aaAa + ai
2
A;
2
+ ... + a;.A; donde A;j es el cofactor
de aii.
Cada termino en IAI contiene una y solo una entrada de Ia i-6sima fila (ail , a;
2
, ,a;.) de A.
Por tanto, podemos escribir IAI de Ia forma
(N6tese que A;j es una suma de terminos sin entradas de Ia i-esima fila de A.) El teorema quedara
demostrado si probamos que
siendo Mij Ia matriz obtenida suprimiendo Ia fila y Ia columna que contienen Ia entrada aii
(Historicamente, Ia expresi6n A;j se definia como el cofactor de aii por lo que el teorema se reduce
a mostrar que ambas definiciones de cofactor son equivalentes.)
Empecemos considerando e1 caso i = n, j = n. Entonces Ia suma de terminos en IAI que
contienen a es
a A:. = a L (sgn a)ala(l)ala(l) . a. - 1. a(n - 1)
"
don de se sum a sobre todas las permutaciones a e s. para las que a(n) = n. No obstante, esto es
eqU:ivalente (demuestrese) a sumar sobre todas las permutaciones de {1, ... , n- 1}. De este modo,
A:.= IM I = ( - I)"+niM.J
Consideremos ahora unos i y j cualesquiera. Intercambiamos Ia fila i-esima con cada una de las
subsiguientes hasta llevarla a Ia ultima posicion y hacemos to mismo con Ia columna j-esima y las
subsiguientes. Adviertase que el determinante IMul no se ve afectado, puesto que los intercambios
no alteran Ia posicion relativa de las filas y columnas restantes. Sin embargo, e1 signo de IAI y
de At varia n- i y despues n- j veces. En consecuencia,
7.32. Sean A = (a;) y B Ia matriz obtenida de A sustituyendo su fila i-esima por el vector fila
(bit ... , b;.). Probar que
Probar ademas que para j # i,
y
316 ALGEBRA LINEAL
Sea B = (bii). De acuerdo con el Teorema 7.8,
Como Bij no depende de Ia fila i-esima de B, Bii = Aii para j = 1, ... , n. Por consiguiente,
Sea ahora A' Ia matriz obtenida de A sustituyendo su fila i-esima por Ia j-esima. Como A' tiene
dos filas identicas, IA'I = 0. Asi, segun el resultado anterior,
7.33. Demostrar el Teorema 7.9.
Sean A = (a;) y A (adj A) = (bii). La i-esima fila de A es
[I]
Siendo adj A Ia traspuesta de Ia matriz de cofactores, su j-esima columna es Ia traspuesta de los
cofactores de Ia j-esima fila de A:
(Ail Ail ... , Ajn)T
Ahora bien, b;i, Ia entrada ij de A (adj A), se obtiene multiplicando [l] y [2]:
Por el Teorema 7.8 y el Problema 7.32,
b .. = {IAI
'1 0
si i =j
si if=. j
(2)
De acuerdo con esto, A (adj A) es Ia matriz diagonal con cada elemento diagonal igual a IAI. Dicho
de otro modo, A (adj A)= !All. De forma similar, (adj A) A = !All.
7.34. Demostrar el Teorema 7.10.
Por resultados previos sabemos que AX = B tiene solucion (mica si y solo si A es invertible, lo
que se da, a su vez, si y solo si D = IAI f=. 0.
Supongamos D f=. 0. Segun el Teorema 7.9, A-t = (1/D)(adj A). Multiplicando AX = B por
A-
1
conseguimos
X= A-
1
AX = (1/D)(adj A)B [I)
Notese que Ia i-esima fila de (l /D)(adj A) es (1/D)(A
1
;, A
2
;, ... , A.;). Si B = (b
1
, b
2
, ... , b.f,
tendremos, por [I],
No obstante, como en el Problema 7.32, b
1
Au + b
2
Al; + ... + b.A.; = N;, que es el determinante
de Ia matriz obtenida sustituyendo Ia i-esima fila de A por el vector columna B. Asi X;= (1 / D)N;,
como se pedia.
DETERMINANTES 317
7.35. Demostrar el Teorema 7.12.
Solo es necesario probar el teorema para n = 2, esto es, cuando M es una matriz cuadrada por
bloques de Ia forma M = ( La demostraci6n general se deriva facilmente por inducci6n.
Supongamos que A= (aiJ) es r-cuadrada, B = (b;
1
), s-cuadrada y M = (mij), n-cuadrada, con
n = r + s. Por definicion,
det M = I (sgn a)m
1
.,
111
m
2
.,
121
m .,
1

1
tiES,. .
Si i > r y j r, entonces m
11
= 0, de modo que solo es necesario considerar aquellas permutaciones
a tales que
a{r + 1, r + 2, ... , r + s} = {r + 1, r + 2, ... , r + s}
y a{l, 2, ... , r} = {l, 2, ... , r}
Sean a
1
(k) = a(k) para k :S r y u
2
(k) = a(r + k)- r para k :S s. Entonces
(sgn a)m
1
.,
111
m
2
.,
121
mii<J(l = (sgn a
1
)a
1
.,
111
)a:z.,,(:z) a...,
1
(r)(sgn O':z)bt.,
1
(t)b:z.,
1
(l) b ... <l
lo que implica det M = (det A) (det B).
7.36. Demostrar el Teorema 7.13.
Sea D Ia funcion determinante: D(A) = I AI. Debemos pro bar que D satisface i), ii) y iii) y que
es Ia uniC!l funci6n que lo hace.
De acuerdo con el Teo rem a 7 .2, D satisface ii) y iii); por consiguiente, solo necesitamos
mostrar que es multilineal. Supongamos que Ia fila i-esima de A = (a;) es de Ia forma
(bu + C
11
, b,
2
+ c,
2
, , b,. + c,.). En tal caso,
D(A) = ... , B, + C
1
, , AJ =
= I (sgn a)al.,llJ .. a,_ I, + c,.,,,J ... "-<> =
s.
=I (sgn a)al<rlll b1.,
1
n "-<> +I (sgn


c1.,
111
a..,
1
,.
1
=
s. s.
= . .. , Bi> . .. , AJ + D(A
1
, . , C;. ... , AJ
Asimismo, segun el Teorema 7.3 b),
D(A
1
, . . , kAi> ... , AJ = kD(A
1
, , A,, ... , A.)
Asi pues, D es multilineal, es decir, satisface i).
Probemos ahora Ia unicidad de D. Supongamos que D satisface i), ii) y iii). Si {e
1
, . , e.} es Ia
base usual de K", por iii}, D(e
1
, e
2
, , e.)= D(I) = I. Usando ii) tenemos tam bien
D(e;,, e
1
,, , e
1
.) = sgn a [I]
Supongamos ahora A= (a
1
). Observamos que Ia fila k-esima Ak de A es
de modo que
D(A) = D(a
11
e
1
+ + a
21
e
1
+ + a:z,.e,., ... , a,.se
1
+ + a .. e.)
Utilizando Ia multilinealidad de D podemos escribir D(A) como una suma de terminos de Ia forma
D(A) = I D(a
11
,e
1
,, a
212
e
12
, , a.
1
eJ =
= I (ali,a
211
a,.JD(e
1
,, e;,, ... , e
1
J
[2]
318 ALGEBRA LINEAL
donde Ia suma se extiende a todas las sucesiones i
1
i
2
i. con ikE{! , .. . , n}. Si dos de los indices
son iguales. digamos ii = ik pero j -:1- k, por ii),
En consecuencia, solo es necesario efectuar Ia suma en (2] sobre todas las permutaciones 11 = i
1
i
2
.. i .
Haciendo uso de [I] tenemos, finalmente,
=I (sgn u)aH,ali, a.i.
"
Por tanto, D es Ia funcion determinante y queda asi demostrado el teorema.
PERMUT A ClONES
7.37. Determinar Ia paridad de (J = 542163.
Metodo 1. Queremos obtener el numero de pares (i, j) para los que i > j e i precede a j en a. Hay:
3 numeros (5, 4 y 2) mayores que I y precediendolo,
2 numeros (5 y 4) mayores que 2 y precediendolo,
3 numeros (5, 4 y 6) mayores que 3 y precediendolo,
I numero (5) mayor que 4 y precediendolo,
0 numeros mayores que 5 y precediendolo,
0 numeros mayores que 6 y precediendolo.
Como 3 + 2 + 3 + I + 0 + 0 = 9 es impar, a es una permutacion impar y asi sgn CJ = - I.
Metodo 2. Llevamos I 'a Ia primera posicion como sigue:
~ 6 3
Llevamos 2 a Ia segunda posicion:
.q6 3
Llevamos 3 a Ia tercera posicion:
2 ~
Llevamos 4 a Ia cuarta posicion:
1 2 3fs6
a 5 4 2 6 3
a 125463
a 2 3 5 4 6
a
2 3 4 5 6
Notese que 5 y 6 estan en las posiciones correctas. Contamos los numeros sobre los que se
ha saltado: 3 + 2 + 3 + I = 9. Dado que 9 es impar, 11 es una permutaci6 n impar. (N ota: Este
metodo eoincide esencialmente con eJ anterior.)
DETERMINANTES 319
Metodo 3. Un intercambio de dos numeros en una permutaci6n es equivalente a muti plicar esta
por una trasposici6n. Transformemos, pues, a en Ia permutaci6n identidad por medio de trasposi-
ciones, tales como,
Habiendose empleado un numero impar, 5, de trasposiciones (y puesto que impar x impar = impar),
<J es una permutaci6n impar.
7.38. Sean (J = 24513 y -r = 41352 permutaciones en S
5
. Hallar:
a) La permutaci6n compuesta t(J, b) (Jo<:, c) (J -
1
.
Recordemos que a = 24513 y r = 41352 son abreviaturas de
= (1 2 3 4 5)
a 24513
y
lo que significa
a(l) = 2 a(2) = 4 u(3) = 5 u(4) = 1
y u(5) = 3
y
r(l) = 4 r(2) = 1 (3) = 3 r(4) = 5 y t (5) = 2
a) El efecto de a seguida de r sobre I, 2, ... , 5 es:
I 2 3 4 5
a
~ ~ ~ ~ ~
2 4 5 1 3
t
1 ~ l ~ ~
5 2 4 3
Siendo asi, r a = ( ~
2 3 4
~ 0 f o(J = 15243.
5 2 4
b) El efecto de r seguida de <J sobre I, 2, ... , 5 es:
1 2 3 4 5
t
~ ~ ~ l l
4 t 3 5 2
a
l l ~ ~ ~
1 2 5 3 4
Por tanto, <J. r = 12534.
320 ALGEBRA LINEAL
c) Por definicion, a-
1
(j) = k si y solo si a(k) =j, luego
- 1 = (2 4 5 1 3) = (1 2 3 4 5)
u 1 2 3 4 5 4 1 5 2 3
0 (J-l = 41523
7.39. Considerese cualquier permutaci6n a =j
1
j
2
jn. Probar que para cada inversion (i, k)
en a existe una pareja (i*, k*) tal que
i* < k* y a(i*) > a(k*) [1]
y De este modo, a es par o impar segun haya un numero par o impar de parejas
que satisfagan [1].
Elegimos i* y k* de forma que cr(f) = i y cr(k*) = k. En tal caso, i > k si y solo si a(i*) > (J(k*),
e i precede a ken (J si y solo si i* < k*.
7.40. Considerese el polinomio g = g(x 1 , ... , xn) = n (x; - X j). Escribir explicitamente
i<j
El simboto IT se ernplea para un producto de terminos de Ia misma manera que et simbolo I
se usa para una suma de terminos. Esto es, n (X; - xj) significa el producto de todos los terminos
i<.j
(x;- x) para lqs que i <j. Por consiguiente,
7.41. Sea a una permutaci6n arbitraria .. Para el polinomio precedente g del Problema 7.40,
definase a(g) = n (xa(i)- Xa(j)). Probar que
i<j
a(g) = { g
- g
De acuerdo con ello, a(g) = (sgn a)g.
Como a es biyectiva,
si a es par
si a es impar
a(g) =IT (x"(i)- xo(jl) = IT (x; - x)
i <j i<j gi>j
Siendo asi, a(g) = g o a(g) = -g segun haya un numero par o impar de terminos de Ia forma
(x
1
- x
1
) con i > j . Notese que por cada pareja (i, j) para Ia que
i<j y a(i) > a(j) [I)
hay un termino (xa!i)- xa<Jl) en a(g) para el cual a(i) > a(j). Dado que a es par si y solo si existe
un numero par de parejas que satisfacen [1], tenemos a(g) = g si y solo si (J es par; de aqui
a(g) = - g si y solo si a es impar.
7.42. Sean a, r E Sn. Pro bar que sgn (r a) = (sgn r)(sgn o-). De este modo, el producto de dos
permutaciones pares o dos impares es par, mientras que el producto de una permutaci6n
par y una impar es impar.
DETERMINANTES 321
Haciendo uso del Problema 7.41 tenemos
sgn (t o a)g = (t o a)(g) = t(q(g)) = t((sgn a)g) = (sgn T)(sgn a)g
De acuerdo con esto, sgn (-r a)= (sgn -r)(sgn a).
7.43. Considerese Ia perrnutaci6n a =j
1
j
2
j". Probar que sgn a-
1
= sgn a y que, para esca-
Iares aii,
donde a-
1
= k
1
k
2
k".
Sabemos que a-
1
<J = e, Ia permutaci6n identidad. Siendo e par, a-
1
y a son ambas pares o
ambas impares. Por consiguiente, sgn a-
1
= sgn a.
Como <J = j d
1
j. es una permutaci6n, a j,t ai,2 ai = au, a
1
k, a.k. Entonces k
1
, k1, .. . , k.
tienen Ia propiedad de que
Sea-r= k
1
k
1
k . Entonces para i = I, ... , n,
(a o T)(i) = a(t(i)) = a(k
1
) = i
Asi <J t = c:, Ia permutaci6n identidad, luego t = a-
1
.
PROBLEMAS VA.RIOS
1 a b + c
7.44. Sin desarrollar el deterrninante, mostrar que 1 b c + a = 0.
1 c a+ b
Sumamos Ia segunda columna a Ia tercera y sacamos el factor comun de esta ultima, lo que nos
conduce a
a b + c
b c +a
1 c a+ b
a a+b+c 1 a 1
b a + b + c "" (a + b + c) l b 1 = (a + b + c)(O) = 0
c a+b+c 1 c 1
(Utilizamos el hecho de que el determinante de una matriz con dos columnas identicas es nulo.)
7.45. Pro bar que el producto de diferencias g(xp ... , xn) del Problema 7.40 puede representarse
mediante el determinance de Vandermonde de x
1
, x
2
, ... , Xn- t x definido segun:
Xt
V..-
1
(x) = ~
x:- 1
I
1 1
-I
x.-t
Este es un polinomio en x de grado n - I, cuyas raices son x
1
, x
1
, ... , x. _,; mas aim, el
coeliciente dominante (el cofactor de x"-
1
) es igual a V, _
2
(x._
1
). Tendremos, pues, segim un
resultado del algebra,
322 ALGEBRA LINEAL
de modo que, por recurrencia,
De lo anterior se sigue que
V..-l(x.) = n (x,- x) = ( -1)"
1
"- l)/l n (x, - x)
1 :S; i <.js_ PI
Asi pues, g(x I ... , x.) = ( - l)(n-
1
)
12
v.-1 (x.).
7.46. Hallar el volumen V(S) del paralelepipedo S en R
3
determinado por los vectores
u
1
= (1, 2, 4), u
2
= (2, 1, -3) y u
3
= (5, 7, 9).
Evaluamos el determinante 2
5
2 4
- 3 = 9 - 30 + 56 - 20 + 21 - 36 = 0. De este modo.
7 9
V(S) = 0 o, en otras palabras, u
1
, u
2
y u
3
yacen en un plano.
7.47. Hallar el volumen V(S) del paralelepipedo S en R
4
determinado por los vectores
u
1
= (2, -1, 4, -3), u
2
= ( -1, 1, 0, 2), u
3
= (3, 2, 3, - 1) y u
4
= (1 , -2, 2, 3).
7.48.
Evaluamos el siguiente determinante, usando u
22
como pi vote y efectuando C
2
+ C
1
--> C
1
y
-2C
2
+ C4--> C4:
2 -I 4 -3 -1 4 -I
-I 0 2 0 0
4 -I
3 2 3 -I 5 2 3 -5
5 3 -5
-2 2 3 -I -2 2 7
-I 2 7
= 21 + 20 - I 0 - 3 + 10 - 140 = - I 02
De aqui V(S) = 102.
3 4 0 0
2 5 0 0
Calcular det (M), donde M = 0 9 2 0
0 5 0 6
0 0 4 3
Partirnos M en una matriz triangular (inferior) por bloques como sigue:
3 4
1
0
1
0 0
I I
2 s:o:o 0
M = -0-9: l -:-0--0
-o--s:o-:_6 __ 7
I I
0 01413 4
DETERMINANTES 323
Evaluamos el determinante de cada bloque diagonal:
1 ~ :1=15-8=7
121 = 2
Por consiguiente, IMI = 7 2 3 = 42.
7.49. Encontrar el menor, menor con signo y menor complementario de Ai: ~ . siendo
0
2
-4
4
-2
-3
- 5
- ~
- 1
Los subindices de fila son I y 3, y los de columna, 2 y 3; por tanto, e1 menor es
y el menor con signo,
( -1)
1
+3+2+l I AU I = -( -4) = 4
Los subindices de fila que faltan son 2 y 4, y los de columna, I y 4. El menor complementario es,
pues,
7.50. Sea. A = (a;) una matriz 3-cuadrada. Describir Ia suma Sk de los menores principales de
6rdenes a) k = l , b) k = 2, c) k = 3.
a) Los menores principales de orden uno son los elementos diagonales, luego S
1
=a
11
+a
22
+a
33
=tr A,
Ia traza de A.
b) Los men ores principales de orden dos son los cofactores de los elementos diagonales. Asi pues,
S
2
= A
11
+ A
22
+ A
33
, siendo Aii el cofactor de aii.
c) Hay unicamente un menor principal de orden tres, el determinante de A. De este modo,
S
3
= det (A).
7.51. Hallar el numero Nk y Ia suma Sk de todos los menores principales de orden a) k = 1,
b)k = 2, c) k = 3 y d) k = 4 de Ia matriz
. (-!
A=
1
3
3
2
0
- 2
0
5
3
1
- ~
-2
4
Cada subconjunto (no vacio) de Ia diagonal (o, equivalentemente, cada subconjunto no vacio
(
n) n!
de {1, 2, 3, 4}) determina un menor principal de A, y Nk = = de ellos son de orden k.
k k!(n - k)!
324 ALGEBRA LINEAL
c)
d)
st = 111 + 121 + 131 + 141 = 1 + 2 + 3 + 4 = 10
sl =I 1
-4
= 14 + 3 + 7 + 6 + 10 + 14 = 54
NJ = G) = 4 y
3 0 3
sl = -4 2 5
+
-4 2
0 3 3 -2
=57+ 65 + 22 +54= 198
N
4
= 1 y S
4
= det(A) = 378.
-1
1
+
1
4 3
1113 -21=
4 + 1 4
0 -1 2
3 -2 + 0
4 -2
5 1
3 -2
4
7.52. Sea Vel espacio vectorial de las matrices 2 por 2 M = (a b) sobre R. Determinar si
c d -
D: V--. R es o no 2-lineal (con respect a a las filas), donde: a) D(M) =a + d, b) D(M) = ad.
a) No. Por ejemplo, supongamos A = (l , l) y B = (3, 3). Entonces
D(A, B)= DG ~ = 4
y
D(ZA, B) = ~ ~ ~ = 5 "# 2D(A, B)
y
Por tanto, para todo par de escalares s, t e R,
0 sea, D es lineal con respecto a Ia primera fil a.
Ademas,
y
DETERMINANTES 325
luego para todo par de escalares s, t E R,
Es decir, D es lineal con respecto a Ia segunda fila.
Las dos condiciones de linealidad implican que D es 2-lineal.
7.53. Sea D una funci6n 2-lineal, alternada. Mostrar que D(A, B) = -D(B, A). Con mayor
generalidad, probar que si D es multilineal y alternada,
D( ... , A, ... , B, ... ) = -D( ... , B, . .. , A, . .. )
esto es, el signo varia cada vez que se intercambian dos variables.
Siendo D alternada, D(A + B, A + B) = 0. Ademas, como D es multilineal,
0 = D(A + B, A + B) = D(A, A + B) + D(B, A + B) =
= D(A, A) + D(A, B) + D(B, A) + D(B, B)
Pero D(A, A) = 0 y D(B, B) = 0. De aqui
0 = D(A, B) + D(B, A) 0
D(A, B) = - D(B, A)
De forma similar,
0 = D( ... , A + B, ... , A + B, ... ) =
= D( ... , A, ... , A, ... )+ D( ... , A, ... , B, ... ) + D( .. , B, ... ,A, ... )+ D( ... , B, ... , B, ... )=
= D( ... , A, ... , B, .... ) + D( ... , B, ... , A, ... )
y asi D( ... , A, ... , B, ... } = -D( .. . , B, ... , A, ... ).
PROBLEMAS SUPLEMENTARIOS
CALCULO DE DETERMINANTES
7.54. Calcular el determinante de cada matriz:
(2 I
-!).
(' -2
-4)
(-2
-1
- ~ (:
6
:)
a) 0 5 b) 2 . 5 -1 c) 6 -3 ~ > 1 2
1 -3 0 6 1 4 " 1 -2
7.55. Evaluar el deterrninante de cada matriz:
r-2
4
')
c
3
-3)
C'
- 1
.u
a) 1 t + 1 -2 b) -3 t + s -3 c) 7 t-5
0 0
t - 4
-6 6
y-4 '
6 - 6
326 ALGEBRA LINEAL
7.56. Pa ra cada una de las mat rices del Problema 7.55, dcterminar aquellos valores de t para los que el
determinante es nulo.
Evol"" ol dot"m;"'"'' de "d' ma";"
2
7.57.
0
- 1
- 3
7.58. Evaluar cada uno de los determinantes:
1 2 - 1 3 1 3
2 - 1 -2 3 2 4
a) 3 1 0 2
-1'
b) 0 0
5 1 2 -3 4 0 0
- 2 3 -1 -2 0 0
COFACTORES. ADJUNTOS CLASICOS. INVERSAS
7.59. Sea Hallar: a) adj A. b) A-
1
.
l 1 1
2
-i}
b) (1
- 2
l
0
5 7 9
2 4 2
2
3 '
c)
5 6 2
2 3
7.60. Halla r el adjunto chisico de cada una de las matrices del Problema 7.57.
7.61. Determinar !a matriz 2 por 2 general A para Ia q ue A = adj A.
7.62. Supongase que A es diagonal y B triangular; por ejemplo,
0
- 1
2
5
0
0
0
;
0 0 ... a,.
y B = .. :::)
0 0 ... b.
a) Probar que adj A es diagonal y adj B triangular.
3

l
4
3 .
- 1 1
2 3 4
4 3 2
0 6 5
0 0 7
0 0 2
b) Mostrar q ue B es invertible si y solo si todos los b
1
'I 0, de modo que A es inverti ble si y solo
si todos los a
1
'I 0.
c) Pro bar que las inversas de A y B (si existen) son de Ia forma
A- ........ .. ),
0 0 ... a;;
0 sea, los elementos diagonales de A - y 8-
1
son los inversos de los elementos diagonales
correspondientes de A y B.
5
4
3
DETERMINANTES 327
DETERMINANTES Y ECUACIONES LINEALES
7.6.3. Resolver por determinantes: a)
7.64. Resolver por determinantes: a)
7.65. Demostrar el Teorema 7.11.
PERMUT A ClONES
{
3x + Sy = 8'
4x - 2y = 1
b) {2x- 3y = - I_
4x + 7y =-I
{
2x - 5y + 2z = 7
x+2y-4z=3,
3x -4y - 6z = 5
{
2z + 3 = y + 3x
b) x - 3z = 2y + 1 .
3y + z = 2 -2x
7.66. Determinar Ia paridad de las permutaciones de S
5
: a) a = 32154, b) r = 13524, c) n = 42531.
7.67. Para las permutaciones u, r y rr del Problema 7.66,hallar:a) ru, b) rru, c) u-
1
, d) r-
1
.
7.68. Sea rES . Probar que ra recorre s. a medida que lo hace a; es decir, s. = {ra:aES.}.
7.69. Sup6ngase que aES. tiene Ia propiedad de que a(n)=n. Definase a*ES, _
1
por a*(x) = a(x). a)
Probar que sgn (J* = sgn a. b) Probar que a! recorrer lJ s . con lJ(n) = n, u* recorre s. _
1
; esto es,
Sn-l = {cr*:a ES
11
, a(n) = n}.
7.70. Considerese una permutaci6n (J = j
1
j
2
j . Sean {e;} Ia base usual de K" y A Ia matriz cuya lila
i-esima es ej, por ejemplo, A= (ei. ei, ... , eiJ. Mostrar que IAI = sgn a.
PROBLEMAS V ARIOS
7.71. Hallar el volumen V(S) del paralelepipedo S en R
3
determinado por los vectores:
a) U1 = (1, 2, - 3), u
2
= (3, 4, -1), u
3
= (2, -1, 5); b) u
1
= (1, 1, 3), u
2
= (1, -2, -4), u
3
= (4, 1, 2).
7.72. Hallar el volumen V(S) del paralelepipedo S en R
4
determinado por los vectores:
u
1
=(1, -2, 5, -1) u, = (2, 1, -2, 1) u
3
= (3, 0, 1, -2) u
4
= (1, -1, 4, -l)
7.73. Encontrar el menor M
1
, el menor con signo M
2
y el menor complementario M
3
de A ~ : : . donde:
(
1 2
1 0
a) A=
3 -1
4 -3
3
-2
2
0
:) , b) A = ~ =: - :)
-1 3 0 5 -2
7.74. Para k = 1, 2, 3, hallar Ia suma Sk de los menores principales de orden k de:
(
1 3
a) A= 2 -4
5 - 2
(
1 5
b) B = 2 6
3 - 2
(
l -4
c) C = 2 1
4 -7
-4)
1
0
328 ALGEBRA LINEAL
7.75. Para k = I, 2, 3, 4, hallar Ia suma Sk de los menores principales de orden k de:
A=(i - ~ - ~ -:)
4 0 -1 . -3
7.76. Sea A una matriz n-cuadrada. Demostrar que lkAI = k"IA[.
7.77. Sean A, B, C y D matrices n-cuadradas que conmutan. Considerese Ia matriz por bloques
2n-cuadrada M = ( ~ . Demostrar que [M[ = IAIIDI - IBIICI- Pro bar que el resultado puede no
ser cierto si las matrices no conmutan.
7.78. Supongase que A es ortogonal, es decir, AT A= I. Probar que det (A)= I.
7.79. Sea Vel espacio de las matrices 2 x 2 M = (: :) sabre R. Determinar si D: V _, R es o no 2-lineal
(con respecto a las filas), donde: a) D(M) = ac - bd, b) D(M) = ab- cd, c) D(M) = 0, d) D(M) = I.
7.80. Sea Vel espacio de las matrices m-cuadradas vistas como m-plas de vectores fila. Supongase que
D: v .... K es m-lineal y alternada. Mostrar que si A
1
, A
2
, ,A .. son linealmente dependientes, nece-
sariamente D(A
1
, . , A.,)= 0.
7.81. Sea Vel espacio de las matrices m-cuadradas (como arriba) y supongase D: V -. K. Pro bar que Ia
siguiente condici6n mas debit equivale a que D sea alternada:
D(A
1
, A
2
, .. ,A.)= 0 siempre que A;= A
1
+
1
para algun I
7.82. Sea Vel espacio de las matrices n-cuadradas sobre K. Supongase que BE Ves invertible y -por tanto
det (B) #- 0. Delinase D: V .... K por D(A) = det (AB)f det (B), donde A E V, de modo que
D(A
1
, A
2
, , A.)= det (A
1
B, A
2
B, ... , A.B)fdet (B)
donde A
1
es Ia fila i-esima de A y asi A
1
B es Ia de AB. Probar que D es multilineal y alternada y
que D(J) = 1. (Este metoda se utiliza en algunos textos para demostrar que lAB! = IAIIB[.)
7.83. Sea A una matriz n-cuadrada. El rango par determinantes de A es el orden de Ia mayor submatriz
de A (obtenida suprimiendo filas y columnas de Ia misma) cuyo determinante no es nulo. Mostrar
que el rango por determinantes de A es igual a su rango, o sea, al numero maximo de filas (o co-
lumnas) linealmente independientes.
RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS
7.54. a) 21, b) -11, c) 100, d) o.
7.55. .a) (t + 2Xt - 3Xt - 4), b) (l + 2)
2
(t - 4), c) (l + 2)
2
(t- 4).
7.56. a) 3, 4, - 2; b) 4, - 2; c) 4, -2.
DETERMINANTES 329
7.57. a) - 131, b) - 55.
7..58..
a) -12, b) -42, c) - 468 .

0
-2)
r,
0

7.59. -1
6 '
A-
1
= 3
1 -5 -2 -1
( - 16
-29 -26
-2)
( 21
-14 -17
-to)
7.60.
-30 -38 -16 29 -44 11 33 11
a) -8
51 - 13
1
b)
-29 13 21
-13 1 28 - 18 17 7 -19 - 18
7.61.

7.63. a) X=*' y =it ; b) X= -fJ, Y = n.
7.64. a) x = 5, y = I, z = I. b) Como D = 0, el sistema no puede resolverse por determinantes.
7.66. sgn u = 1, sgn t = - I, sgn 1t = -1.
7.67. a) "t 0 (] = 53142, b) 1[ 0 0" = 52413, c) u -
1
= 32154, d) ,-l = 14253.
7.71. a) 30, b) o.
7.72. 17 . .
7.73. a) - 3, -3, - 1; b) -23,-23, -10.
7.74. a) -2, -17, 73; b) 7, 10, 105; c) 13, 54, 0 .
7.75. S
1
= -6, S
2
= 13, S
3
= 62, S
4
= -219.
7.79. a) Si, b) no, c) si, d) no.

CAPITULO 8
Valores propios y vectores propios.
Diagonalizaci6n
8.1. INTRODUCCION
Consideremos una matriz n-cuadrada A sabre un cuerpo K . Recordemos (Secci6n 4.13) que A
induce una funci6n f: K"-+ K" definida segun
/(X)= AX
donde X es cualquier punta (vector columna) en K". (Vemos entonces A como la matriz que
representa Ia funci6n f respecto a Ia base usual E de K".)
Supongamos que se elige una nueva base de K", digamos
S = {u
1
, u
2
, ,
(Geometricamente, S determina un nuevo sistema de coordenadas para K".) Sea P Ia matriz
-cuyas columnas son los Vectores u
1
, u
2
, . . , u . En ese caso (Secci6n 5. 11), Pes Ia matriz de
cambia de base desde Ia usual E basta Ia S. Ademas, en virtud del Teorema 5.27,
x = p - lx
proporciona las coordenadas de X en Ia nueva base S. Asimismo, Ia matriz
B = P -
1
AP
representa Ia funci6n fen S; esto es, f(X' ) = BX'.
En este capitulo se tratara de contestar a las dos preguntas
l. Dada una matriz A, encontrar una matriz no singular P (que represente un
nuevo sistema de coordenadas S) de forma que
B = p-
1
AP
sea una matriz diagonal? Si Ia respuesta es afirmativa, diremos que A es diagonalizable.
330
VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION 331
2. Dada una rnatriz real A, wodemos hallar una matriz ortogonal P (que represente un
nuevo sistema ortonormal S) de forma que
B = P-
1
AP
sea una matriz diagonal? Si Ia respuesta es afirmativa, diremos que A es ortogonalmente
diagonalizable.
Recordemos que se dice que dos matrices A y B son similares (ortogonalmente similares) si
existe una matriz no singular (ortogonal) P tal que B = p-
1
AP. Lo que esta en cuestion es si
una matriz dada A es similar (ortogonalmente similar) a una matriz diagonal.
Las respuestas estan estrechamente relacionadas con las raices de ciertos polinomios asocia-
das a A. EI cuerpo particular subyacente K juega tambien un papel importante en esta teoria,
puesto que Ia existencia de raices de los polinomios depende de K.
8.2. POLINOMIOS DE MATRICES
Consideremos un polinomio f(t) sobre K ; por ejemplo,
f(t) = a. t" + + a
1
t + ao
Recuerdese que si A es una matriz cuadrada sobre K, definimos
donde I es Ia matriz identidad. En particular decirnos que A es una raiz o cero del polinomio
f(t) si f(A) = 0.
EJEMPLO 8.1. Sea. A= G ) y sean f(t) = 2t
2
- 3t + 7, g(r) = t
2
- 5t- 2. Entonces
f(A) = ~ ~ ~ r -3G ~ ) + 7G ~ ) = G ~ ~ : )
y g(A) = G r -
5
G ) -zG ~ ) = ~ ~ )
De este modo, A es un cero de g(t).
Es aplicable el teorema que ahora enunciamos, demostrado en el Problema 8.26.
Teorema 8.1: Seanfy g polinomios sabre K y A una matriz n-cuadrada sobre K. Se cumple:
i) (f + g)( A) = f(A) + g(A),
ii) (fg)(A) = f(A)g(A},
y, para todo escalar k EK ,
iii) (kf)(A) = kf(A) .
332 ALGEBRA LINEAL
Mas a1m, como f(t)g(t) = g(t)f(t) para todo par de polinomios f(t) y g(t),
f(A}g(A} = g(A)f(A)
Es decir, dos polinomios cualesquiera en Ia matriz A conmutan.
8.3. POLINOMIO CARACTERISTICO. TEOREMA
DE CAYLEY-HAMILTON
Consideremos una matriz n-cuadrada sobre un cuerpo K:
La matriz tin - A, donde I. es Ia matriz identidad n-cuadrada y t un escalar indeterminado, se
denomina Ia matriz caracteristica de A:
(
t - au -a12 - at.)
tl,.- A= .. ... ... .. ... ..
- a,.
1
- a,.
2
, t - a,.,.
Su determinante
. .(t) = det (tl,. - A)
que es un polinomio en t, recibe el nombre de polinomio caracteristico de A. Asimismo, llama-
mos a
det (tl,. - A}= 0
Ia ecuaci6n caracteristica de A.
Cada termino en el determinante contiene una y solo una entrada de cada fila y de cada
columna, luego el polinomio caracteristico precedente es de Ia forma
= (t - a
11
)(t - an) (t - a,.,.)+
+ terminos con a lo sumo n - 2 factores de la fo'rma t - aii .
En consecuencia,
t"- (a
11
+ a
22
+ + a,.,.)t"-
1
+ terminos de grado menor
Recordemos que Ia traza de A es Ia suma de sus elementos diagonales. Siendo asi, el polinomio
caracteristico (t) = det (tJ. -A) de A es un polinomio normalizado de grado n y el coeficiente
de t" -
1
es el opuesto de Ia traza de A. (Un polinomio esta normalizado si su coeficiente dominante
es 1.)
VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION 333
Ademas, si tomamos t = 0 en LlA (t), obtenemos
LlA(O) = I -A I = ( -1)" I A I
Pero LlA (0) es el termino constante del polinomio LlA (t), de modo que el termino constante del
polinomio caracteristico de Ia matriz A es ( -l)"IAI, siendo n el orden de A.
Establecemos ahora uno de los teoremas mas importantes del algebra lineal ( demostrado en
el Problema 8.27):
Teorema 8.2 (Cayley-Hamilton): Toda ma triz es un cero de su polinomio caracteristico.
EJEMPLO 8.2. Sea B = G . Su polinomio caracteristico es
1\(t) =I tf- Bl = = (t - l)(t- 2)- 6 = tz - 3t- 4
l
t - 1 -21
- 3 t- 2
Como cabia esperar por el teorema de Cayley-Hamilton, B es un cero de 1\(t):
Supongamos ahora que A y B son matrices similares, digamos B = P-
1
AP, don de P es in-
vertible. Probemos que A y B tienen el mismo polinomio caracteristico. Utilizando tl = p - ! tiP,
I tl - B I = I tl - p -
1
AP I = I p-
1
tl p - p -
1
API =
= IP-
1
(t/- A)PI = IP-
1
IIt1- All PI
Dado que los determinantes son escalares y conmutan y que jP-
1
IIPI = 1, obtenemos finalmente,
I tl - B I = I tl - A I
Asi hemos demostrado
Teorema 8.3: Las matrices similares tienen el mismo polinomio caracteristico.
POLINOMIOS CARACTERISTICOS DE ORDENES DOS Y TRES
Sea A una matriz de orden dos o tres. En tal caso existe una formula sencilla para su polinornio
caracteristico Ll(t ). Concretamente:
1. Supongamos A = (a
11
a2!
a
12
)
a22
. Entonces
aul = t
2
- (tr A)t + det (A)
a22
(Aqui tr A denota Ia traza de A, esto es, Ia suma de sus elementos 'diagonales. )
334 ALGEBRA LINEAL
2.
(
au
Supongamos A = all
all
atz a13)
au a
2
l . Entonces
all all
a
11
a
12
all
au au a
2
l = t
3
- (tr A)t
2
+ (A
11
+ A
22
+ A
33
)t- det (A)
a31 a32 a33
(Aqui A
11
, A
2 2
, A
33
denotan, respectivamente, los cofactores de los elementos diagona-
les all a22 a33)
Consideremos de nuevo una matriz 3-cuadrada A = (a;) Como se indica anteriormente,
S
1
= tr A S
3
= det (A)
son los coeficientes de su polinomio caracteristico, con signos alterriantes. Por otra parte, cada
Sk es Ia suma de los menores principales de orden k de A. El siguiente teorema, cuya demos-
tracion escapa al alcance de este texto, nos dice que este resultado es cierto en general.
Teorema 8.4: Sea A una matriz n-cuadrada. Su polinomio caracteristico es
donde Sk es Ia suma de los menores principales de orden. k.
POLINOMIO CARACTERISTICO Y MATRICES TRIANGULARES POR BLOQUES
Supongamos que M es una matriz triangular por ejemplo, M = (

A
1
y A
2
matrices cnadradas. La matriz caracteristica de M,
-B )
tl- A
2
B) .
, s1endo
Az
es tambien una matriz triangular por bloques, con bloques diagonales tl - A
1
y t l - A
2
De
este modo, segun el Teorema 7. 12,
I
t/- A
ltl - Ml = O
1
Es decir, el polinomio caracteristico de M es el producto de los polinomios caracteristicos de
los bl oques diagonales A
1
y A
2

Por induccion puede obtenerse el uti! resultado .
VALORES PROPIOS Y VECTORES PROPI OS. DIAGONALIZACION 335 .
Teorema 8.5: Supongamos que M es una matriz triangular por bloques, con bloques diagonales
A
1
, A
2
, , A,. EI polinomio caracteristico de M es el producto de los polinomios caracteristicos
de los bloques diagonales Ai, esto es,
EJEMPLO 8 .3. Consideremos Ia matriz
M =
o o ,-t s
(
9 -1) ( 3
M es una matriz triangular por bloques, con bloques diagonales A = y B =
8 3 - 1
6) .
8
. Aqut
trA =9 +3 = 12
trB = 3+8 = 11
det (A) = 27 + 8 = 35
det (B) = 24 + 6 = 30
y asi
y asi
,1A(t) = t
2
- 12t + 35 = (t - 5)(t - 7)
6,(t) = t
1
- llt + 30 = (t - 5)(t - 6)
De acuerdo con ell o, el polinomio caracteristico de M es el producto
-1AAt) = -1.c(t).6Jt) = (t- 5)
1
(t- 6)(t -7)
8.4. V ALORES PRO PI OS Y VECTORES PROPIOS
Sea A una mat riz n-cuadrada sobre un cuerpo K. Un escalar A E K se denomina un valor propio
de A si existe un vector (columna) no nulo v E K" para el que
Av = A.v
Todo vector que satisfaga esta relacion se llama un vector propio de A perteneciente al valor
propio .A. . Notese que cada multiplo escalar kv es a su vez un vector propio, puesto que
A(kv) = k(Av) = k(J.v) = .A.(kv)
El conjunto E._ de todos los vectores propios pertenecientes a A. es un subespacio de K"
(Problema 8. 16), conocido como espacio propio de A.. (Si dim E._= 1, E._ recibe el nombre de
recta pro pia y A se llama factor de escala.)
Los terminos valor caracteristico y vector caracteristico ( o aut ova/or y autovector) se utilizan
con frecuencia en Iugar de valor propio y vector propio.
EJEMPLO 8.4 . A = G D y sean v
1
= (2, 3)T y v
2
= ( 1, -l)T. Entonces .
336 ALGEBRA LINEAL
y
Asi pues, v
1
y v
2
son vectores propios de A pertenecientes, respectivamente, a los valores propios i.
1
= 4 y
i.
2
= - 1 de A.
El teorema enunciado a continuaci6n, demostrado en el Problema 8.28, es Ia herramienta
principal para el calculo de valores propios y vectores propios (Secci6n 8.5).
Teorema 8.6: Sea A una matriz n-cuadrada sobre un cuerpo K. Las siguientes afirmaciones son
equivalentes:
i) Un escalar }. e K es un valor propio de A.
ii) La matriz M = }.J - A es singular.
iii) El escalar A es una raiz del polinomio caracteristico .1(t) de A.
El espacio propio E;.. de}. sera el espacio soluci6n del sistema homogeneo MX = (}./ - A)X = 0._
A veces resulta mas conveniente resolver el sistema (A - A.I )X = 0 que el (),J - A)X = 0,
cuando se calculan vectores propios. Por supuesto, ambos sistemas conducen al mismo espacio
soluci6n.
Algunas matrices pueden no tener valores propios ni, por tanto, vectores propios. No
obstante, haciendo uso del teorema fundamental del algebra (todo polinomio sobre c tiene una
raiz) y del Teorema 8.6, llegamcis al siguiente resultado.
Teorema 8.7. Sea A una matriz n-cuadrada sobre el cuerpo complejo C. Entonces A tiene at
menos un valor propio.
Supongamos ahora que A es un valor propio de Ia matriz A. La multiplicidad algebraica de
}. es Ia multiplicidad de }. como raiz del polinomio caracteristico de A. La multiplicidad geometrica
de }. es Ia dimension de su espacio propio.
Es valido el teorema enunciado a continuaci6n, demostrado en el Problema 10.27.
Teorema 8.8: Sea 2 un valor propio de una matriz A. La multiplicidad geometrica de ). no
excede su multiplicidad algebraica.
MATRICES DIAGONALIZABLES
Se dice que una matriz A es diagonalizable (bajo similaridad) si existe una matriz no singular P
tal que D = P-
1
AP es una mat riz diagonal, o sea, si A es similar a una matriz diagonal D. El
teorema que sigue, demostrado en el Problema 8:29, caracteriza tales ma trices.
Teorema 8.9: Una matriz n-cuadrada A es similar a una matriz diagonal D si y solo si A tiene
n vectores propios linealmente independientes. En tal caso, los elementos diagonales de D son
_ los valores propios y D = p-
1
AP, siendo P Ia matriz cuyas columnas son los
vectores propios.
VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION 337
Supongamos que una matriz A puede diagonalizarse como antes, digamos D = p -
1
AP
con D diagonal. Entonces A tiene Ia factorizaci(m diagonal, extremadamente util.
A= PDP-
1
Empleando esta factorizaci6n, el algebra de A se reduce a Ia de Ia matriz diagonal D, facilmente
manejable. Especificamente, supongamos D = diag (k
1
, k
2
, . , k"). En ese caso,
A"'= (PDP-
1
)"' = PD"'P-
1
= P diag (lei, ... , k':)P-
1
y, con mayor generalidad, para todo polinomio f(t),
j(A) =f(PDP-
1
) = Pf(D)P-
1
= P diag (j(k
1
), . .J(k,.))P-
1
Mas a(m, si las entradas diagonales de D son no negativas, Ia matriz B escrita a continuaci6n
es una raiz cuadrada de A:
B = P diag (A, ... , .jk,.)p-
esto es; B
2
= A.
EJEMPLO 8 .5. Consideremos Ia matriz A= (
1 2
). De acuerdo con el Ejemplo 8.4, A tiene dos
3 2 .
valores propios linealmente indepen.dientes ~ ) y ( _ :) . Tomemos P = ~ . _ ~ ) y, por tanto,
p-
1
= ~ _1). Entonces A es similar a Ia matriz diagonal .
5 5 .
B = p-
1
AP = (* t)(l
t -! 3
Tal y como cabia esperar, los elementos diagonales 4 y -1 de Ia matriz diagonal B son los valores propios
correspondientes a los vectores propios dados. En particular, A tiene Ia factorizaci6n
A. = pop-1 = (23 1x4 oxt *)
-1 0 - 1 i - i
En consecuencia,
Ademas, si f(t) = t
3
- 7t
2
+ 9t - 2,
102)
154
Nota: A lo largo de todo este capitulo utilizamos el hecho de que Ia in versa .de Ia matriz
!)
es '!a matriz
p- 1 = ( d/IPI
-c/IPI
-b/IPI)
afiPI
,...
338 ALGEBRA LINEAL
Esto es, p - l se obtiene intercambiando los elementos diagonales a y d de P, tomando los
opuestos de los elementos no diagonales b y c y dividiendo cada elemento por el determi-
nante !Pl.
Los dos teoremas siguientes, demostrados en los Problemas 8.30 y 8.31, respectivamente, se
utilizanin en lo sucesivo.
Teorema 8.10: Sean v
1
, ... , v. vectores propios no nulos de una matriz A, pertenecientes a
val ores propios distintos ).
1
, ... , J. . Entonces v
1
, ... , v. son linealmente independientes.
'feorema que et caracteri.stico de una matriz n-cuadrada A es un
de n factores distintos, digamos = (t - a
1
) - a
2
) .. (t - a.). En ese caso, A es
similar a una matriz diagonai cuyos elementos diagonales son los a;.
8.5. . CALCULO DE V ALORES PRO PI OS Y VECTORES PRO PI OS.
DIAGONALIZACION DE MATRICES
En esta secci6n se calculan los valores propios y vectores propios de una matriz cuadrada
dada A y se determina si existe o no una matriz no singular P tal que p-l AP sea diagonal. En
concreto, se. aplicara a Ia matriz A el algoritmo que enseguida exponemos.
Algoritmo 8.5 (Diagonalizaci6n}
La entrada es una matriz n-cuadrada A .
. Paso 1. Hallar el polinomio caracteristico de A.
Paso 2. Hallar las raices de Ll(t) para obtener los valores propios de A.
Paso 3. Repetir a) y b) para cada valor propio ). de A:
a) Construir M =A - U restando ). a los elementos diagonales de A, o M' = ).[ - A
sustituyendo t = A. en ti - A.
b) Encontrar una base para el espacio solucion de MX = 0. (Los vectores de Ia base
son vectores propios linealmente independientes de A pertenecientes a J..)
Paso 4. Considerar Ia colecci6n S = { v
1
, v
2
, ... , v'"} de todos los vectores propios obtenidos en
e1 Paso 3:
a) Si m "=P n, A no es diagonalizable.
b) Si m = n, sea P Ia matriz cuyas columnas son los vectores propios v
1
, v
2
, . , v .
Entonces
donde A; es el valor propio correspondiente at vector propio V;.
VALORES PROPI OS Y VECTORES PROPI OS. DIAGONALIZACION 339
EJEMPLO 8 .6. Apliquemos el algoritmo de diagonalizacion a A = ~ _ ~ ) .
I. El polinomio caracteristico 6(t) de A es el determinante
6(t) = I tl - A I = It -
4
-
1
I = t
2
- 3t- 10 = (t - 5)(t + 2)
-3 t+l .
Alternativamente, tr A= 4 - I = 3 y IAI = -4 - 6 = -10, de modo que 6(t) = t
2
- 3t- 10.
2. Hacemos &(t) = (t - 5)(r + 2) = 0. Las raices ),
1
=: 5 y ).
2
= -2 son los valores propios de A.
3. i) Hallemos un vector propio v
1
de A perteneciente a! valor propio ),
1
= 5.
(
-1 2)
Restamos 1.
1
= 5 a los elementos diagonales de A para conseguir Ia matriz M = .
3 - 6
Los vectores propios pertenecientes a i.
1
= 5 forman Ia solucion del sistema homogimeo MX = 0,
es decir,
0
{
-x+2y=O
3x - 6y = 0
0 -x + 2y = 0
El sistema tiene solo una soluci6n independiente; por ejemplo, x = 2, y = 1. Asi v
1
= (2, 1) es un
vector propio que genera el espacio propio de A.
1
= 5.
ii) Hallemos un vector propio v
2
de A perteneciente al valor propio 1
1
= - 2 .
. Restamos -2 (o sumamos 2) a los elementos diagonales de A para conseguir M = ~ ~ )
que conduce a! sistema homogeneo
{
6x + 2y = 0
3x + y = 0
0 3x + y = 0
El sistema tiene solo una soluci6n independiente, digamos x = - I, y = 3. De este modo, v
2
= ( - I, 3)
es un vector propio que genera el espacio propio de l
2
= - 2.
4. Sea P Ia matriz cuyas columnas son los vectores propios precedentes: P -- (
2
1
-
3
1
). Entonces
p - l = ( -! !) y D = P - l AP es Ia matriz diagonal que tiene por entradas diagonales los respectivos
valores propios:
..
D = P-
1
AP=( ; _,
'X4
t 3
2)(2 -1) (5 0)
- 1 1 3 = 0 -2
De acuerdo con ello, A posee Ia factorizacion diagonal:
-1)(5 0)( ~
3 0 -2 -;
Si f(t) = t
4
- 4t
3
- 3t
2
+ 5, podemos calcular f(5) =55 y f( -2) = 41, luego
(
2 -31)(550
f(A) = Pf(D)r
1
=
1
340 ALGEBRA LINEAL
EJEMPLO 8.7. Consideremos Ia matriz B = (
5 1
) . Aqui tr B = 5 +I= 6 y IBI = 5 + 4 = 9. Por
-4 1
tanto, 8(t) = t
2
- t + 9 = (t- 3)
2
es el polinomio caracteristico de B. En consecuencia, A.= 3 es el {mico
valor propio de B.
Restamos ..l = 3 a los elementos diagonales de B obteniendo _Ia matriz M = ( _
al sistema homogeneo
{
2x+ y=O
-4x - 2y = 0
0 2x+y=0
1
) que corresponde
- 2
El sistema tiene unicamente una soluci6n independiente; por ejemplo, X= 1, y = - 2. Siendo asi, v = (1, -2)
es el unico vector propio de Ia matriz B. Podemos decir, pues, que B no es diagonalizable, por no existir
una base constituida por vectores propios de B.
. (2 -5)
EJEMPLO 8.8. Consideremos Ia matriz A= . Aqui tr A= 2 - 2 = 0 y IAI = -4 + 5 = 1. Por
l -2 .
consiguiente, 8(r) = t
2
+ I es el polinomio caracteristico de A. Estudiamos dos casos:
a) A es una matriz sobre el cuerpo real R. Entonces 8(t) no tiene raices (reales), de modo que A no
tiene valores propios ni vectores propios y por ende no es diagonalizable.
b) A es una matriz sobre el cuerpo complejo C. En ese caso, 8(t) = (t - i)(t + i) tiene dos raices, i
y - i. Asi pues, A tiene dos val ores propios diferentes, i y - i, y dos vectores propios independientes.
En consecuencia, existe una matriz no singular P sabre el cuerpo complejo para Ia cual
Por esta raz6n, A es diagonalizable (sobre C).
8.6. DJAGONALIZACION DE MATRICES REALES SIMETRICAS
Hay muchas matrices reales A que no son diagonalizables. De hecho, algunas de elias pueden
no tener ningun valor propio (real). No obstante, si A es una matriz real simetrica, estos
problemas desaparecen. A saber:
Teorema 8.12: Sea A una matriz real simetrica. Toda raiz A. de su polinomio caracteristico es
real.
Teorema 8.13: Sea A una matriz real simetrica. Supongamos que u y v son vectores propios
no nulos de A pertenecientes a valores propios distintos 2
1
y 2
2
. Entonces u y v son ortogonales,
o sea, ( u, v) = 0.
Los dos teoremas anteriores nos Bevan al resultado fundamental:
Teorema 8.14: Sea A una matriz real simetrica. Existe una matriz ortogonal P tal que
. D = p-
1
AP es diagonal.
VALOAES PAOPIOS Y VECTORES PROPIOS. DIAGONALIZACION 341
Podemos elegir las columnas de la matriz P precedente como vectores propios ortogonales
normalizados de A, en cuyo caso las entradas diagonales de D serim los valores propios
correspondientes.
(
2 -2)
EJEM PLO 8.9. Sea A= . Hallemos una matriz ortogonal P tal que p- t AP sea diagonal.
-2 5
Aqui tr A = 2 + 5 = 7 y IAI = 10 - 4 = 6. Por tanto, A(t ) = t
2
- 1t + 6 = (t - 6)(t - I) es el polinomio
de A. Los valores propios de A son 6 y I. Restando A.= 6 de Ia diagonal de A obtenemos el sistema de
ecuaciones lineales homogeneo asociado
-4x- 2y = 0 -2x - y = 0
Una solucion no nula es v
1
= (1, - 2). Acto seguido restamos A.= 1 de Ia diagonal de Ia matriz A para
llegar al sistema homogeneo asociado
X- 2y = 0 -2x + 4y=O
Una soluci6n no nula es v
2
= (2, I). Como podia esperarse por el Teorema 8.13, v
1
y son ortogonales.
Los normalizamos para conseguir los vectores ortonormales
u, = {1/.fi, -2/.fi) Uz = (2/jS, 1/jS)
Finalmente, sea P Ia matriz cuyas columnas son u
1
y u
2
, respectivamente. Entonces
(

P= 1/jS
y
p-'AP =
Como era de esperar, las entradas diagonales de p -
1
A P son los val ores propios correspondientes a las
columnas de P.
APLICACION A LAS FORMAS CUADRATICAS
Recordemos (Seccion 4. 12) que una forma cuadnitica real q(x
1
, x
2
, ... , xn) puede expresarse en
la forma matricial
q(X) = xrAX
donde X= (x
1
, ... , xnl y A es una matriz real simetrica. Recordemos, asimismo, que bajo un
cambi o de variables X = PY, conY= (y
1
, ... , Yn) y Puna matriz no singular, Ia forma cuadnitica
adopta la forma
siendo B = P
7
AP. (Asi B es congruente a A.)
Ahora bien, si Pes una matriz ortogonal, P
7
= p-
1
En tal caso, B = P
7
AP = p - l AP, con
lo que B es ortogonalmente similar a A. En consecuencia, el metodo precedente para diagonalizar
una matriz real simetrica A puede emplearse para diagonalizar una forma cuadnitica q bajo un
cambio de coordenadas ortogonal, como se indica a continuacion.
342 ALGEBRA LINEAL
Algoritmo 8.6 (Diagonalizacion ortogonal)
La entrada es una forma cuadnitica q(X).
Paso 1. Hallar Ia matriz simetrica A que represente q y calcular su polinomio caracteris-
tico
Paso 2. Hallar los valores propios de A, que son las raices de
Paso 3. Encontrar una base ortogonal del espacio propio de cada uno de los valores pro-
pies A del Paso 2.
Paso 4. Normalizar todos los vectores propios del Paso 3, que pasaran asi a formar una base
ortonormal de Rn.
Paso 5. Sea P Ia matriz cuyas columnas son los vectores propios normalizados del Paso 4.
Entonces X= PYes el cambio de coordenadas ortogonal requerido. Las entradas diagonales
de pr AP senin los valores propios A
1
, . , .-ln asociadas a las columnas de P.
8.7. POLINOMIO MINIMO
Sea A una matriz n-cuadrada sobre un cuerpo K y denotemos por J(A) Ia colecci6n de todos
los polinomios f(t) para los cuales f(A) = 0. [N6tese que J(A) noes vacio, ya que el polinomio
caracteristico de A pertenece a J(A).] Sea m(t) el polinomio normalizado de grado minimo
en J(A). Entonces m(t) recibe el nombre de polinomio minima de A. [Tal p.olinomio m(t) existe
y es unico (Problema 8.25).]
Teorema 8.15: El polinomio minimo m(t) de A es divisor de todo polinomio que tenga A como
cero. En particular, m(t) es divisor del polinomio caracteristico de A.
(La demostraci6n se da en el Problema 8.32.) Existe una relacion mas fuerte incluso entre
m(t) y d(t).
Teorema 8.16: Los polinomios caracteristico y minimo de una matriz A tienen los mismos
factores irreducibles.
Este teorema, demostrado en el Problema 8.33 b), no dice que m(t) = sino, unicamente,
que todo factor irreducible de uno debe ser divisor del otro. En particular, como todo factor
lineal es irreducible, m(t) y tienen los mismos factores lineales y por ende las mismas raices.
Asi tenemos:
Teorema 8.17: Un escalar ). es un valor propio de una matriz A si y solo si es una raiz de su
polinomio minimo.
EJEMPLO 8.10. Hallemo< d polinomio minimo m(t) de
2 -5)
7 - 15 .
2 -4
VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION 343
Primero calculamos el polinomio caracteristico 6-(t) de A:
- 2 5 t-2
6-(t) = I tl - A I = -3
-l
t- 7 15 = t
3
- 5t
2
+ 7t- 3 = (t - l)
2
(t- 3)
-2 t + 4
Alternativamente, 6-(t) = t
3
- (tr A)t
2
+ (A
11
+ A
22
+ A
33
)t - lA I = t
3
- 5t
2
+ 7t- 3 = (t - I )
2
(t- 3) (don-
de Aii es el cofactor de aii en A).
El polinomio minimo m(t) debe ser divisor de 6-(t). Ademas, todo factor irreducible de 6-(t), esto es,
t- I y t- 3, debe sera su vez un factor de m(t). De este modo, m(t) es exactamente uno de los siguientes
polinomios:
f(t) = (t - 3)(t - 1) 0 g(t) = (t - 3)(t - 1)
2
Sabemos, por el Teorema de Cayley-Hamilton, que g(A) = 6-(A) = 0, luego solo necesitamos compro-
bar f(t). Tenemos
! - ~ ~ ) - ~ ~ - ~ ~ ) = ~
2 -5 1 2 -7 0
Asi pues, f(t) = m(t) = (t- l)(t- 3) = t
2
- 4t + 3) es el polinomio minimo de A.
EJEMPLO 8.11 . Consideremos Ia matriz n-cuadrada, con a# 0:
). a 0 0
0 ). a 0
M=
0
0
0
~ )
N6tese que los elementos de M son ). en Ia diagonal, a en Ia superdiagonal y 0 en cualquier otra posicion.
Esta matriz es importante en algebra lineal, especialmente cuando a = I. Puede probarse que
' f<t> = cr- A.r
es tanto el polinomio caracteristico como el polinomio minimo de M.
EJEMPLO 8.12. Consideremos un polinomio normalizado arbitrario f(t) = t" + a. _
1
t"-
1
+ + a
1
t + a
0

Sea A Ia matriz n-cuadrada con I en Ia subdiagonal, los opuestos de los coeficientes en Ia ultima columna
y 0 en cualquier otro Iugar:
0 0 -ao
0 0 -a.
A=
0 - a2
0 0 ... 1
Se dice que A es Ia matriz acompafiante del polinomio f(t). El polinomio minimo m(t) y el polinomio
caracteristico 6-(t) de esta matriz acompaiiante A son ambos iguales a f(t).
344 ALGEBRA LINEAL
POLINOMIO MINIMO Y MATRICES DIAGONALES POR BLOQUES
Puede utilizarse el siguiente teorema, demostrado en el Problema 8.34.
Teorema 8.18. Supongamos queM es una matriz diagonal por bloques, con bloques diagonales
A
1
, A
2
, .. , A,. El polinomio minimo de M es igual al m.inimo comun multiplo (MCM) de los
polinomios minimos de los bloques diagonales Ai.
Nota: Subra