Está en la página 1de 402

A

A R MA N D O

0.

ROJ O

IIIIIIII
E L A T E N Ewww.FreeLibros.com
O
www.FreeLibros.com

lgebra II
Armando O. Rojo

D c i m a

III1 1 III
JM U

t e r c e r a

e d ic i n

OBRERIA-EDITORIAL
E L

www.FreeLibros.com

A T E N E O

5 1 2 (0 7 5 )
ROJ

R o jo , A rm a n d o O.
A lg e b ra II. - 13a. ed. - B u e n o s A ire s : El A te n e o ,
1995.
X II, 3 9 6 p .; 2 3 x 16 cm .
IS B N 9 5 0 -0 2 -5 2 0 5 -8
I. T tu lo - 1 . M a te m tic a - E n s e a n z a S e c u n d a ria

A d v e r te n c ia im p o rta n te :
Ei d e r e c h o d e p r o p ie d a d d e e s ta o b ra c o m p re n d e p a ra su a u to r la
fa c u lta d d e d is p o n e r d e elia, p u b lic a rla , tra d u c irla , a d a p ta rla o a u to riz a r
su tra d u c c i n y re p ro d u c irla e n c u a lq u ie r fo rm a , to ta l o p a rc ia lm e n te , po r
m e d io s e le c tr n ic o s o m e c n ic o s , in c lu y e n d o fo to c o p ia s , g ra b a c i n
m a g n e to f n ic a y c u a lq u ie r s is te m a d e a lm a c e n a m ie n to d e in fo rm a ci n .
P o r c o n s ig u ie n te , n a d ie tie n e fa c u lta d a e je rc ita r los d e re c h o s p re cita d o s
s in p e rm is o d e l a u to r y del e d ito r, p o r e scrito.
Los in fra c to re s se r n re p rim id o s c o n la s p e n a s d e l a rtc u lo 172 y
c o n c o rd a n te s del C d ig o P e n a l (a rts . 2 , 9 ,1 0 , 7 1 , 7 2 le y 1 1 .7 2 3 ).
Q ueda hecho el depsito que establece la ley Ns 11.723.
1 9 7 3 , 1975, 1976 (3a y 4 a edicin), 1978, 1980,
1981, 1983, 1985, 1987, 1 99 1 ,1 9 9 3, 1995, "EL ATEN EO " Pedro G arca S. A.
Librera, Editorial e Inm obiliaria, Florida 340, Buenos Aires.
Fundada en 1912 p o r don Pedro Garca.
Im preso en T. G. C O LO R EFE,
Paso 192, Avellaneda, Bs. As.,
el 6 de m arzo de 1995.
Tirada: 2.000 ejemplares.
IM PR ESO EN LA AR G EN TIN A

www.FreeLibros.com

P R O LO G O

Este libro responde a los contenidos de la asignatura ALG EBRA LINEAL, que
figura en los planes de estudios del ciclo bsico de Matemtica de las facultades e
institutos ote profesorado. Se supone adquirido el conocimiento de los temas
relativos al lgebra de conjuntos, relaciones, y funciones, y de las estructuras de
grupo, anillo y cuerpo. Esencialmente se desarrolla a q u la estructura de espacio
vectorial y se estudian los modelos particulares indispensables en la formacin actual
de profesionales y en las aplicaciones a disciplinas de uso cotidiano, entre las que
citamos, por ejemplo, la Estadstica y la Investigacin operativa.
El esquema seguido es anlogo al expuesto en Algebra I, editado por EL
ATENEO en 1972. La teora es ilustrada con el desarrollo de ejemplos en los que el
alumno puede apoyarse. En cada captulo se propone un trabajo prctico cuyas
respuestas se sugieren en el texto.
Agradezco a la editorial EL ATENEO y a su personaI la colaboracin que me
han brindado en todo lo concerniente a esta publicacin.
A R M A N D O O . R O JO

Buenos Aires, m ayo de 1973.

www.FreeLibros.com

aI

pi

)It

www.FreeLibros.com

CONTENIDO
aptulo 1. ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIO

I
!
,
,

1 . 2 . Concepto de espacio vectorial


1 . 3 . Propiedades de los espacios vectoriales
1. 4. Espacio vectorial de funciones
1. 5. Espacio vectorial de
n-uplas
1 . 6 . Espacio vectorial de
matrices
1 . 7. Espacio vectorial de sucesiones
1. 8 . Subespacios
1. 9. Operaciones entre subespacios
Trabajo Prctico I

ptulo 2. DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION


2 . 2 . Combinaciones lineales

2. 3. Subespacio generado
2 . 4. Dependencia e independencia lineal
2. 5. Sistema de generadores
2. 6 . Base de un espacio vectorial
2. 7. Dimensin de un espacio vectorial
2 . 8 . Dimensin de la suma
Trabajo Prctico II

itulo 3. TRASFORMACIONES LINEALES


I

3. 2 . Trasformacin lineal entre dos espacios vectoriales


3. 3. Ncleo e imagen de una trasformacin lineal
3. 4. Dimensiones del ncleo y de la imagen
3. 5. Teorema fundam ental de las trasformaciones lineales
3. 6 . Producto de matrices
3. 7. Matriz asociada a una trasformacin lineal
3. 8 . Composicin de trasformaciones lineales
3. 9. Trasformacin lineal 110 singular
3.10. Composicin de trasformaciones lineales yproducto de matrices
3.11. Espacio vectorial de trasformaciones lineales
3.12. Espacio dual de un espacio vectorial
Trabajo Prctico III

www.FreeLibros.com

1
1
6
7
10
11

13
15

20

27
30
30
34
42
51
^
53

57

60
63
66
66
72
80

83

85
86
92
93

96

98

in i
^

X
Captulo

C O N T E N ID O

4. MATRICES
4. 2. Producto de matrices
4. 3. Anillo de matrices cuadradas
4. 4. Trasposicin de matrices
4. 5. Matrices simtricas y antisimtricas
4. 6 . Matrices triangulares
4. 7. Matrices diagonales
4. 8 . Matrices idempotentes e involutivas
4. 9. Inversa de una m atriz no singular
4.10. Matrices ortogonales
4.11. Matrices hermitianas
4.12. Matrices particionadas
4.13. Espacios fila y columna de una matriz
4.14. Operaciones y matrices elementales
4.15. Equivalencia de matrices
4.16. Mtodo de Gauss Jordn para determinar el rango
4.17. Inversin de matrices por Gauss Jordn
4.18. Inversin de matrices por particin
4.19. Cambio de base y semejanza de matrices
Trabajo prctico IV

Captulo

5. DETERMINANTES
5. 2. Determinantes
5. 3. Propiedades de la funcin determinante
5. 4. Existencia de D
5. 5. Unicidad del determinante
5. 6 . Determinante de la traspuesta
5. 7. Determinante del producto de dos matrices
5. 8 . Adjunta de una m atriz cuadrada
5. 9. Inversin de matrices no singulares
5.10. Regla de Cilio
Trabajo Prctico V

Captulo 6 . SISTEMAS LINEALES


6 . 2. Sistemas lineales
6 . 3. Teorema de Cramer

6. 4. Compatibilidad de sistemas lineales


6. 5. Resolucin de sistemas lineales
6. 6. Sistemas homogneos
6. 7. Conjunto solucin de un sistema lineal
6. 8. Resolucin de sistemas simtricos
6. 9. Mtodo del orlado
Trabajo Prctico VI

www.FreeLibros.com

106
106
109
110

112

114
114

115

1 16
117

118
121
123
130
133

135
138
141

144
149

155
155
157

161
163
166
169
170
172
174
177

181
181
187

188
190

196

198
202
205
210

C O N T E N ID O

Captulo 7. PRODUCTO INTERIOR. GEOMETRIA VECTORIAL


7. 2. Espacio vectorial euclidiano
7. 3. Ortogonalidad
7. 4. Desigualdad de Schwarz
7. 5. Desigualdad triangular
7. 6. Angulo de dos vectores
7. 7. Conjunto ortogonal de vectores
7. 8. Base ortonorm al
7. 9. Complemento ortogonal
7.10. Proyeccin de un vector sobre otro
7.11. Espacio afn Rn
7.12. Ecuaciones vectorial y cartesianas de larecta
7.13. Ecuacin normal vectorial del plano
7.14. Curvas en el espacio
7.15. Superficie cilindrica
7.16. Superficie cnica
7.17. Proyeccin de una curva sobre un plano
Trabajo Prctico VII

Captulo 8. VALORES Y VECTORES PROPIOS. DIAGONALIZACION


8. 2. Valores y vectores propios
8. 3. Polinomio caracterstico de una m atriz
8. 4. Diagonalizacin de matrices
8. 5. Triangulacin de endomorfismos ydematrices
8. 6. Teorema de Hamilton-Cayley
Trabajo Prctico VIII

Captulo 9. FORMAS BILINEALES Y CUADRATICAS


9. 2. Formas bilineales
9. 3. Formas hermitianas
9. 4. Formas cuadrticas
9. 5. Operadores adjuntos y traspuestos
9. 6. Operadores hermitianos y simtricos
9. 7. Operadores unitarios y ortogonales
9. 8. Teorema de Sylvester
9. 9. Diagonalizacin de operadores simtricos
9.10. Matrices simtricas reales y valores propios
9.11. Descomposicin espectral de una matriz
9.12. Congruencia de formas cuadrticas
9.13. Signo de una forma cuadrtica
Trabajo Prctico IX

www.FreeLibros.com

XI
214
214
219
222
223
223
225
225
229
232
233
236
239
246
249
251
253
257

263
263
270
276
279
282
285

289
289
293
294
296
299
300
303
307
310
311
314
318
321

X II

C O N T E N D IO

Captulo 10. CONVEXIDAD. PROGRAMACION LINEAL


10.2. Conjuntos de puntos en Rn
10.3= Segmentos, hiperplanos y semiespacios
10.4. Convexidad en Rn
10.5. Convexidad y trasformaciones lineales
10.6. Hiperplanos soportantes
10.7. Puntos extremos
10.8. Introduccin a la Programacin Lineal
Trabajo Prctico X

325
325
330
336
339
342
344
346
356

BIBLIOGRAFIA

359

RESPUESTAS A LOS TRABAJOS PRACTICOS

361

INDICE

393

www.FreeLibros.com

Captulo 1

ESTRUCTURA D E ESPACIO VECTORIAL


SUBESPACIOS

1.1. INTRODUCCION
La estructura de espacio vectorial, que tratam os en este captulo, es el concepto bsico
del Algebra Lineal. Confiere unidad y precisin a temas esenciales de la matemtica que
tienen vastas aplicaciones en la ciencia y en la tecnologa actuales. Despus de introducir el
sistema axiomtico y de dar las propiedades fundamentales, proponemos los espacios
vectoriales de funciones,de los que se derivan los modelos de los espacios de matrices,
nuplas y sucesiones de elementos de un cuerpo. Se da, finalmente, el concepto de
subespacio.
1.2. CONCEPTO DE ESPACIO VECTORIAL
Sean: V un conjunto no vaco, K un cuerpo, + y . dos funciones, que llamaremos suma y
producto, respectivamente.
Definicin
El objeto (V, + , K , . ) es un espacio vectorial si y slo si se verifican los siguientes:
Aj . La suma es una ley de composicin interna en V.
+ : V2 -> V
O sea
xeV

y e V =>x + y e V

Esto significa que la suma de dos elementos cualesquiera de V es un nico elemento de


V.
A2 . La suma es asociativa en V.
(x + y ) + z = x + (y + z)
cualesquiera que sean x, y, z en V.

www.FreeLibros.com

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

A 3 . Existe un neutro para la suma en V.


El elemento neutro se denota con 0.
30eV /V xeV :x+0-0+x=x
A 4 Todo elemento de V admite inverso aditivo u opuesto en V.
VxeV, 3 y e V / x + y = y + x = 0
Al opuesto de x lo denotam os con x, o sea, y = x.
A 5 . La suma es conmutativa en V.
X+ y =y + x
cualesquiera que sean x, y en V.
A6 . El producto es una ley de composicin externa en V con escalares u operadores
en K.
r
. :KXV->V
De acuerdo con 5.6, A lgeb ra , del mismo autor, la imagen del par (a, x), donde a e K y
x e V, se escribe a x y se llama producto del escalar a por x.
O sea
a eK

x e V =>ax e V

A7 . El producto satisface la asociatividad mixta.


V a e K, V P e K, V x e V : a

(0 x ) - (a p) x

Observamos aqu que los dos productos que figuran en el primer miembro
corresponden a la ley de composicin externa. Pero el producto a p del segundo
miembro se efecta en K.
A8 . El producto es distributivo respecto de la suma en K.
V a e K , V 0 e K , V x e V : ( a + 0 ) x = a x + (}x
La suma a + 0 se efecta en K, pero la suma que figura en el segundo miembro
corresponde a la ley de composicin interna en V.
Ag . El producto es distributivo respecto de la suma en V.
V a e K , V x e V , V y e V ; a,(x + y ) - o , x + o ; y
Las dos sumas se realizan en V.
A ,0 . La unidad dei cuerpo es neutro para el producto.
V x e V : Ix = x
donde 1 denota la identidad en K.
Los axiomas A ,, A2 , A 3, A 4 y As caracterizan a (V , + ) como grupo abeliano. Los
ltimos cinco axiomas son relativos a la ley de composicin externa.
Los elementos de V se llaman vectores; en particular, el elemento neutro para la suma

www.FreeLibros.com

ESPACIO VECTORIAL

recibe el nombre de vector nulo. A menudo hablaremos del espacio vectorial V,


sobrentendiendo que nos referimos a la cuaterna (V, + , K , .). La simplificacin de las
notaciones hace conveniente el uso de los mismos smbolos para nom brar las leyes de
composicin interna en K, la suma en V y el producto de escalares por vectores. O sea, al
decir K nos estamos refiriendo al cuerpo (K, +, .), donde los signos + y
denotan las
dos leyes de composicin interna en K, que no tienen el mismo significado que las que
figuran en (V, + , K , .). Distinguiendo adecuadamente los elementos de K y los de V, no hay
lugar a confusin.
As
a + 3 es una suma en K

x 4- y es una suma en V

a (i es un producto en K

a x es el producto de un escalar por un vector

Ejemplo 1-1.
Sean: V = R2 , K = R, la adicin definida en R 2 por
(a , b) + (c , d ) = (a + c , b + d)

(1)

y el producto de nmeros reales por elementos de R 2 definido mediante


a (a ,

b)

= (oca, ot b )

(2 )

Resulta (R 2 , + , R ,. ) el espacio vectorial de los pares ordenados de nmeros reales


sobre el cuerpo de los nmeros reales.
En efecto, de acuerdo con los ejemplos 5-2 y 5-5 iv) del texto nombrado, es (R2 , +)
un grupo abeliano.
Por otra parte se verifican:
A6 . Por la definicin (2).
= u ( P a , & b ) = (a < p a ), a (P Z) ) - ( (a (3) a , (afl) b ) =

A7 . a
= (a 0) (a , b)

Hemos aplicado la definicin (2), la asociatividad del producto en R y la definicin


( 2).

Aa . (a + (3) (a , b) = ( (a + (i)a, (a+j3) Z>J = ( a a + (3a , a b + (ib) =


= (a a , a b) + (j3 a , 0 b) = a (a , b) + j3 ( a , b)
De acuerdo con (2), la distributividad del producto respecto de la suma en R, y las
definiciones (1) y (2).
A9 . a ^ ( a , b) + ( c , d) J = a (a + c , b + -d)~
= (a a + a c ,

otb

+ a d ) = (Oia,

<x b )

( a (a + c ) , a (b + rf)| =

+ ( ot e, o c d ) ~ a ( a ,

b)

www.FreeLibros.com

+ a ( c , d)

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Segn (1), (2), distributividad de la multiplicacin respecto de la adicin en R y las


definiciones ( I ) y (2).
*
A0 . 1 ( a , b) = (1 a , Ib) = ( a , b)
El significado geomtrico de las operaciones de este espacio vectorial es el siguiente:
la suma de dos vectores no colineales del plano queda representada por la diagonal del
paraleiogramo que forman. El producto de un nmero real a por un vector no nulo
x ~ ( a , b), es el vector a x que tiene la misma direccin que x; el mismo sentido si
<*>0, y sentido opuesto si a < 0 . Corresponde a una dilatacin si la l > 1 y a una
contraccin si I ot I < 1. Si a - 0, entonces se obtiene el vector nulo.

Ejemplo 1-2.
En R2 se definen: la suma, como en el ejemplo anterior, y la ley de composicin
externa mediante

( , * ) = (a , a)

(2)

Se verifica, como antes, que (R 2 , + ) es un grupo abeliano.


En cuanto a ( 2 ) , satisface A6 . Su significado geomtrico es el siguiente: todos los
pares ordenados que tienen la misma absisa, al ser multiplicados por cualquier nmero
real, se proyectan sobre la primera bisectriz paralelamente al eje de ordenadas.

www.FreeLibros.com

ESPACIO VECTORIAL

Tambin se satisface A7 , pues

{$(<*,b)) = <*(a,a) = ( a , a ) = ( a $ ) ( a , b )
No se verifica A8 , ya que
(a + i 3 ) ( a , b ) = (a, a)
pero

a (a , b) + 0 (a , b) = (a , a) + ( a , a) = (2a , 2a)
Este hecho es suficiente para afirmar que no se trata de un espacio vectorial.
El lector puede comprobar que esta interpretacin cumple A9 pero no A 10 .
Observamos aqu que la estructura de espacio vectorial no es inherente exclusivamente
al conjunto V, sino que, adems, depende de K y de las leyes de composicin que se
definan. Aclaramos que toda vez que se mencione al espacio vectorial (R 2, + , R , .) se
sobrentender que la suma y el producto son los definidos en (1) y en (2) del ejemplo

Ejemplo 1-3.
La estructura de espacio vectorial no es un sistema axiomtico independiente, pues As
puede deducirse sobre la base de los restantes axiomas.
En efecto

www.FreeLibros.com

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

x + x + y + y ^ l x + lx + ly + ly = (1 + l ) x + ( l + l )y (1 + 1 ) 0 + y)
= 1 (x + y ) + 1 (x + y ) = l x + ly + l x + ly = x + y + x + y
en virtud de Aio , Ag, A9 , Ag , A9 y A 10 .
O sea
X + x + y +*y - X + y + x + y
Por ley cancelativa en el grupo (V , + ) resulta
x + y =y + x

1.3. PROPIEDADES DE LOS ESPACIOS VECTORIALES


Sea (V, + , K , .) un espacio vectorial.
1.3.1. El producto del escalar O por cualquier vector es el vector nulo.
En efecto, por neutro para la suma en K y A8 es
a x = (a + 0)x = a x + Ox
Por A 3 se tiene
JJHC + O

Ox

Y por ley cancelativa resulta


0x = 0

1.3.2. El producto de cualquier escalar por el vector nulo es el vector nulo.


Por A 3 y A9 es
ax=fl(x + 0 ) = x + a 0
Entonces
ax+aO=oix
Por A3
JX-X-+ a O ~ xh c + O
Y por regularidad en (V, + ), resulta
a O= O

www.FreeLibros.com

PROPIEDADES DE LOS ESPACIOS VECTORIALES

1.3.3.Si el producto de un escalar por un v ectores el vector nulo, entonces el escalar es 0 o


el vector es nulo.
ax=0^a=0vx=0
Se presentan dos posibilidades: a ~ 0, o bien, a 0
En el prim er caso es verdadera la primera proposicin de la disyuncin que figura en la
tesis, y por consiguiente sta es verdadera.
En el segundo caso es necesario probar que x = 0.
En efecto, siendo
0, existe el inverso multiplicativo en K, a 1. Partiendo de la
hiptesis, premultiplicando por a 1, usando A7 , 1.3.2., el producto de inversos en K y A i0
se tiene
a x = 0 => a -1 (a x) = a -1 0 => (a 1 a ) x = 0

lx ~ 0

x=0

1.3.4. El opuesto de cualquier escalar po r un vector es igual al opuesto de su producto.


(--) x = - (a x)
Teniendo en cuenta A4 , 1.3.1., la suma de opuestos en K y A8, es
( a x ) + a x = 0 = 0 x = (a + a ) x = ( - a ) x + a x
De
(

a ) x +-e'X'= - ( a x) + jxjc

despus de cancelar, resulta


( - a ) x = - (a x)
En particular se tiene
( 1) x = --(1 x) = - x

1.4. ESPACIO VECTORIAL DE FUNCIONES


El sm bolo Kx denota el conjunto de todas las funciones con dominio un conjunto X # 0
y codominio un cuerpo K, o sea
Kx = { f / f : X - > K |
En Kx definimos la suma de funciones y el producto de escalares por funciones mediante
i ) Si f y g son dos elementos cualesquiera de Kx , entonces f + g : X -K es tal que
(f + g) (x) = f (*) + g (x )

VjccX

ii) Si a es cualquier elemento de K y f es cualquier elemento de Kx , entonces


a f : X -> K es tal que
(a f) (x) = a f (x)

VxeX

www.FreeLibros.com

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Tanto la suma de funciones con dominio X = 0 y codominio K, como el producto de


escalares por funciones, se llaman leyes de composicin punto a punto.
Resulta (KX , + , K , . ) un espacio vectorial. Para ello, veamos que se verifican los
axiomas.
A(

.f e Kx

g e Kx => f + g e Kx por la definicin i)

A 2 .Sean f, g y h en Kx . Cualquiera que sea x e X se verifica, teniendo en cuenta la


definicin i) y la asociatividad de la suma en K:
( ( f + g) + h ) (x) = (f + g )(x ) + h ( x ) = ( f ( x ) + g ( x ) j

+ h (x) =

= f (x) 4- ( g (X) + h (x) J = f (x) + (g + h) (x) - ( f + (g + h) (x)


Y por definicin de funciones iguales resulta
(f + g) + h = f + (g + h)
A 3 . El vector nulo es la funcin nula
e: X

K definida por e (x) = 0

cualquiera que sea x e X .

Sea f e Kx . Teniendo en cuenta i), la definicin de e y la suma en K, es


(f + e) 0 ) = f (x) + e (x) = f (x) + 0 = f (x) .
Luego
f+ e = f
Anlogamente se verifica que e + f - f.
A4 Inverso aditivo de f e Kx es la funcin - f : X -+ K definida por (~ f) (x) = - f (x)
En efecto, para todo x e X se verifica
( - f + f) (x) = ( f) (x) + f (x ) - - f (x) + f (x) = 0 = e (x)
O sea
(-f) + f = e
Anlogamente se prueba que
f + (-f) = e
A s . La suma en Kx es conmutativa, ya que
(f + g) O ) = f ( x) + g (x) = g (x ) + f (x) = (g + 0 (x)
Luego
f + g = g + f cualesquiera que sean f y g en Kx .
A 6

.a e K

A 7

. S e a n a e K ,/3 e K y f e K x .

A f e K x

=> a f e K x

p o r la d e f i n i c i n i i ) .

www.FreeLibros.com

ESPACIO VECTORIAL DE FUNCIONES

Entonces
(a<JJf)) W = ( ( O W ) = ( p f ( x ) ) = (a fl) f(je ) = ( ( a f t j (x)
Luego
a (/3 f) = (a /? )f
A8 . Considerando
a e K , 0 e K y f e K x es
(( + P) f j (*) = (a + p) f (x) = a f (x) + p f (X) =
= (a f) (jc) + (/i f) (x) = (a f + p f) (x)
en k ) i r " 3 tenend CUe,,ta i0 13 dS,ributiVdad ^ 13 asociatividad del producto
Entonces es

(a + |3)f = a f + 0 f
A9 . Sean a e K , f e K x y g e K x .
y 0 r2 e 0, distdbutividad del pr0duct0 resP de la suma en K y por las definiciones ii)

( (f+g)J (*) = <* ((f + g ) W ) = , ( f W + g W ) =


= a f W + g W = (oif) (A:) + (a g)(*) = (a f + a g ) w
O sea
a (?+g)~a:f+ag
AI0 . Cualquiera que sea f en Kx se verifica
(lf)C * ) = 1 f (* ) = f(je)
Luego
1f = f
no
este espacio

IZltZl

Vedt0rial de laS funci0nes definidas 61


^ C mP S1Cn PUn 3 P - Los

La figura siguiente explica la situacin en el caso particular en que K = R y X = [0,1 ]

www.FreeLibros.com

<.

10

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

1.5. ESPACIO VECTORIAL DE -UPLAS DE ELEMENTOS DE K


Con relacin al espacio vectorial de funciones (Kx , +, K , .) consideremos el caso
particular en que X es el intervalo natural inicial I. Toda funcin f: ln -*f es una n-upla de
elementos de K, y escribiendo K1" = K" es (K ", + , K , .) el espacio vectorial de las n-uplas de
elementos de K.
Las definiciones i) y ii) dadas en 1.4. se traducen aqu de la siguiente manera:
i ) Si f y g denotan elementos de K", entonces f + g es la funcin de 1 en K definida
por
(f + g) 0 f ( 0 + g ( 0 cualquiera que sea i e l
Es decir
c i = ( f + g) (0 = f (0 + g (0 = a + bi
donde au b y c son las imgenes de i dadas por f, g y f + g, respectivamente.
En consecuencia, dos n-uplas de elementos de K se suman componente a componente.
ii) Si o e K y f e K " , entonces a f es la funcin de I en K definida por
(a f) (?) = a f (/) cualquiera que sea / e In .
Denotando mediante c,- la imagen de i dada por a f es
Ci = (a 0

(0 = oc f (/) = a a

www.FreeLibros.com

ESPACIOS DE N -U P L A S Y DE MATRICES

jx

Es decir, el producto de un elemento de K por una n-upla se realiza multiplicando en K a


dicho elemento por cada com ponente de la n-upla.
En particular (K, +, K , .) es el espacio vectorial donde los vectores se identifican con los
elementos del cuerpo K. En este caso, la ley de composicin externa es interna.
En consecuencia, (R, + , R , .) es el espacio vectorial de los nmeros reales sobre el cuerpo
de los reales. Este es u n caso particular del espacio vectorial de las n-uplas de nmeros reales
sobre el cuerpo de los reales, que denotamos mediante (Rn, + , R , .).
(C", +, C ,.) es el espacio vectorial de las n-uplas de nmeros complejos sobre el cuerpo de
los complejos.

1.6. ESPACIO VECTORIAL DE MATRICES n x m


Particularizando nuevamente con relacin al espacio vectorial tratado en 1.4., considere
mos X = I X l m , o sea, el producto cartesiano de los dos intervalos naturales iniciales:
e
Im
Llamamos m atriz n x m con elementos en K a toda funcin

La imagen del elemento ( /, /) perteneciente al dominio se denota por aj.

La matriz f queda caracterizada por el conjunto de las imgenes


11

12
22

. . . a Xm
a2m

www.FreeLibros.com

12

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

y suele escribirse como un cuadro de n.m elementos de K dispuestos en n filas y m columnas.


En cada fila o rengln se escriben las imgenes de todos los pares ordenados que tienen la
misma primera com ponente, y en cada columna se anotan las imgenes de todos los pares
ordenados que tienen la misma segunda com ponente. El elemento de la matriz que figura en
la fila i y en la columna j se denota por aj, y es la imagen dada por f, del par (i, /). Llamando
A a la matriz cuyo elemento genrico es ay, escribiremos

A=

11

12

13

21

22

23

ni

n2

i,
l2m

a n3

Tanto las filas como las columnas de A se llaman lneas de la matriz.


Abreviando, puede escribirse
A = (aj) donde / = 1, 2 ,. . ., n y / = 1, 2 , . . m
El conjunto de todas las matrices n x m con elementos en K. es K!XIm y se denota
mediante KnXm.
Las definiciones i) y ii) dadas en 1.4, se traducen aqu de la siguiente manera: si A y B son
dos matrices de K x m , su suma es C e K" x m , tal que
cj = (f + g) (i, j) = f (/,/) + g (/, /) = au + bj
y el producto del escalar a e K por la m atriz A es la m atriz de Kn x m cuyo elemento genrico
cu es tal que
ci = (a f) ( i , J) = a f (/ , f ) ~ a au
O sea, dos matrices del tipo n x m se suman elemento a elemento; y para multiplicar un
escalar por una matriz n x m se m ultiplica dicho escalar por todos los elementos de la matriz.
La cuaterna (Kn Xm, + , K , .) denota el espacio vectorial de las matrices n x m con
elementos en K. En este espacio, los vectores son matrices.
En particular ( KnXn, + , K , .) es el espacio vectorial de las matrices cuadradas, es decir,
de n filas y n columnas.
El vector nulo del espacio K" x m se llama m atriz nula; la denotaremos mediante N, y est
definida por y = 0 V i V /.
La matriz inversa aditiva u opuesta de A = (aj) es B, cuyo elemento genrico satisface la
relacin b = -aj. Escribiremos B = A.
Por definicin de funciones iguales resulta A = B si y slo si aj = bj V/ V /.

www.FreeLibros.com

13

ESPACIO DE SUCESIONES

Ejemplo 1-4.
En R2 x 3 se consideran las matrices A y B cuyos elementos genricos son a a = 2i - j y
j .j = 1 i2 . Obtenemos C = A 2B.
La expresin de C es C = A + ( 2)B, y como
1

0 -1

B=

1/

resulta
1

0 -1

C=

1.7. ESPACIO VECTORIAL DE SUCESIONES


Sean: X = N y KN el conjunto de todas las funciones de N en K. Los elementos de KN
son todas las sucesiones de elementos de K, y retomando lo expuesto en 1.4. resulta
(Kn , + , K, .) un espacio vectorial.
Las definiciones i) y ii) de 1.4. se interpretan ahora de la siguiente manera:
Ci = (f + g) (0 = f (0 + g (0 =

+ bi V i e N

c = (a f) (/) = a f (i) = a a V i e N
O sea
(j, a 2,

+ ( i, b 2, bn, . . .) = (fli + b i, a 2 + b 2, . .

an

.)

a (fl|, a2, at . . .) = ( a a i , cta2, ocaUi . . .)

El vector nulo es la sucesin


0 = ( 0 , 0 , . . . , 0 , . . .)
Ejemplo 1-5
Sea R [X] el conjunto de los polinomios reales en la indeterminada X. La suma en
R [X] se define como en 12.2.2., Algebra 1, del mismo autor. El producto de escalares

www.FreeLibros.com

14

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

reales por polinomios es el habitual, o sea si c x e K y P e R [X ], entonces a P es la


funcin de N0 en R definida por (ccP) (i) = a P (i), cualquiera que sea i e N0.
Res ta (R [ X ] ,+ , R , .) el espacio vectorial de los polinomios reales en la indetermina
da X sobre el cuerpo de los nmeros reales.
El conjunto de los polinomios reales de grado 2 no es un espacio vectorial sobre el
cuerpo de los reales, porque la suma no es una ley de composicin interna en dicho
conjunto. Pero el conjunto de los polinomios reales de grado m enor o igual que 2 y el
polinomio nulo constituye un espacio vectorial sobre R.

Ejemplo 1-6
Sea S el conjunto de las funciones reales definidas en [0,1 ] tales que f (0) = 0, es decir
S = f : [ 0 , l ] ^ R / f ( 0 ) = 0j
Como todo elemento de S pertenece a R f0,1

es S C R l0-1)

Considerando las leyes de composicin definidas en 1.4., se verifican

A, feSAges^f( 0)=OAg(0)= 0=f(0) + g(0)=c^(f + g)(o) = o=f + geS

www.FreeLibros.com

SUBESPACIOS

A2

15

Como la suma de funciones es asociativa en R ]0,1' , tambin lo es en S.

A 3 . La funcin nula es el vector nulo de S.


A4 . Todo elemento de S admite u n opuesto en S.
Si f e S, entonces f e S, pues (f) (0) = f (0) = 0.
As . Cualesquiera que sean f y g en S, se tiene
f+ g = g + f
pues S C R^0,1 ^

A6 a e R a f e S ^ a e R a f ( 0 ) = 0 = > a f ( 0 ) = 0 = > ( a f ) ( 0 ) = 0 = o t f e S
Los restantes axiomas, lo mismo que A 2 y A5 , por ser identidades en Rla se
cumplen en S ya que S C R ^01 J.
En consecuencia, (S, + , R , .) es un espacio vectorial.

1.8. SUBESPACIOS
1.8.1.

Concepto

Dados el espacio vectorial (V, + , K , .) y el conjunto no vaco S C V, si S es un espacio


vectorial sobre el mismo cuerpo K y con las mismas leyes de composicin que en V, diremos
que (S, + , K , .) es un subespacio de (V, + , K , .), o simplemente, que S es u? subespacio de
V.
Definicin
S es un subespacio de (V, + , K , .) si y slo si (S, + , K, .) es un espacio vectorial.
Cualquiera que sea (V, + , K , .), tan to V como j 0} son subespacios de V, llamados
triviales.
Ejemplo 1'7
Consideremos el espacio vectorial (R 2 , + , R , .) y los subconjuntos
T = (x, y ) e R 2 i y = x + 1

S = {(x, y ) e R 2 f y = 2 x )

T no es u n subespacio, pues el vector nulo (0,0) T .


En cambio, S es un subespacio de R2 , ya que
1 (S, + ) es un subgrupo de (R 2 , + ). En efecto, de acuerdo con la condicin suficiente
demostrada en 8.4.2., Algebra I, del mismo autor.se verifica
( x , y ) e S a ( x , y r) e S ^ y = 2x a y = 2 x ^ y - y = 2 ( x -* )= >
(x - x \ y - y 1) e S => (x, y ) + ( - x -y* ) e S

www.FreeLibros.com

16

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS


2o Respecto de la ley de composicin externa consideramos

Los axiomas A ,, A ,, A , y A , , por ser igualdades en R 2, se cumplen en S ya que


SC R

De la definicin se deduce que (S, + , K , .) es un subespacio de (V, + , K, .) si y slo si


(S, + ) es un subgrupo de (V, + ) y S es cerrado para el producto por escalares.

1.8.2. Condicin suficiente


e n t L l T(a,s ^t K
? un
Csubespacio
^ V de
Cr ?(V,
v + ,Para
entonces
, K ,n^
.) es
K , .).la SUma y Para 61 Pr0duct0 P0r

e s c a la r c s .

Hiptesis) (V, + , K , .) es u n espacio vectorial


^ S C V
1 . x e S a y eS=>x + y e S
2.
o e K a x e S => a x e S
Tesis) (S, + , K , .) es un subespacio de (V, + , K , .)
Demostracin)
1 Consideremos dos vectores cualesquiera x e y en S. De acuerdo con la condicin 2 de
la hiptesis, por 1.3.4. y por la condicin 1. de la hiptesis,se tiene

www.FreeLibros.com

SUBESPACIOS
x e S A y e S = > x e S A ( - l ) y e S = ^ x e S A - y e S =>

17

x + (-y )e S

En consecuencia,(S, + ) es un subgrupo de (V, + ).


T S es cerrado para el producto por escalares, de acuerdo con la condicin 2 de la
hiptesis.
La aplicacin del teorem a demostrado es esencial para determinar si un conjunto S es un
subespacio de (V, + , K, .). Para que lo sea, deben verificarse las condiciones que figuran en la
hiptesis del mismo, a saber:
1. S =f=4>
2. S C V
3. x e S A y e S = > x + y e S
4. aeK A xeS=*axeS

Estas condiciones son, adems, necesarias. Es decir, sabiendo que S es un subespacio son
proposiciones verdaderas.
Ejemplo 1-8
Sean: el espacio vectorial (R 3 , + , R , .), y el conjunto S de las ternas ordenadas de R
tales que la tercera com ponente es igual a la suma de las dos primeras.
O sea

S= { ( x ^ ^ ^ e R 3 l x z = *i + *2 f
Afirmamos que S es un subespacio de R 3 , pues
1. (1, 2, 3) e S => S =0
2. S C R3 por la definicin de S.
3. (x,

X 2 , X 3)

e S A O i , ^ 2, ^ 3) e S

=>X3 = X t

+ X2 A y 3 - y l + y 2

="^3 + ^ 3 = (* 1 + V l ) + (* 2 + 7 2 ) =>0Cl + y 1 , X 2 + y 2 , X 3 + J ' 3) e S = >

^ ( x If x 2, x 3) + ( y l t y 2, y 3) e S
Hemos aplicado sucesivamente: la definicin de S, la adicin en R, la definicin de S y
la definicin de suma de ternas.
4. a e R a (xj, x 2l x 3) e S ^ a e R a x j =a : 1 + x 2 =>
^ax

+ otx 2 :* ( o i x 1 , a x 2 , a x 3) e S = * o c ( x l , x 2, x 3) e $

Por definicin de S, multiplicacin en R, definicin de S y la definicin de producto


de escalares por ternas.
Al subespacio S pertenecen las ternas { xx, x 2, x 3) e R 3 que satisfacen la condicin
x \ +x2 - x3=0
Esta ecuacin define un plano que pasa por el origen.

www.FreeLibros.com

18

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS


Ejemplo 1-9
Considerando el espacio vectorial de las funciones reales definidas en [0 11 aue
denotamos m ediante (R , + , R, .), sean los subconjuntos
1. S = { f e R V /(0 ) = 0 )
2. S = {f e RV/tO) = 1 }

f l e\ CT
tiene Un subesPacio de R l. como fue tratado en detalle en el eiemolo
1-6. Independientem ente del anlisis realizado en el ejemplo citado se U a f
misma conclusion aplicando el teorem a demostrado, pero en forma m s'staple
En cuanto alcaso 2., S no es un subespacio, pues no es cerrado m ra l
p
efecto, las funciones f y g de I
en R definidas por
P" a a SUma' E"
f(r) = j ; + l

g (^ )==x2 + 1

satisfacen las condiciones


f()=l

g(0) = 1

o sea, son elementos de S. Pero la suma f + g est definida por


( f + g) (x ) = f(x) + g ( x ) = x 2 + x + 2
y no pertenece a S, ya que
(f + g )(0 ) = 2
Ejemplo 1-10
Dado el espacio vectorial (R 4 , + , R , .) consideramos
S-

j ( x l t x 2, x 3, * 4) e R 4 /x1 + x 2 + x 3 + x 4 = 1 j

Se verifica que
1.

pues (1, 0 ,0 , 0 ) e S

2. S C R 4 por la definicin de S
3. S 110 es cerrado para la suma ya que
(1, 1 , - 1 , 0 ) e S a (I, 1, - 1 , 0) e S pero

(1, 1, 1, 0) +(1, 1, 1, o) = (2, 2, 2, 0)^S


s Vy eesto
^ o hbasta
! T para
a Sque
n 68
Por otri> porte, el vector nulo no pertenece
noUn
seaSUbeSpacioun subespacio.
fenece aa
Ejemplo 1 - 11 .
cd u m n a s" + R ' ^

* t o matdCeS CUadradas

www.FreeLibros.com

filas y

19

SUBESPACIOS

Si A e R *n escribimos
au a n
#21 #22

ln

a2n

A=

\ &n 1

nn

Por definicin, traza .de una m atriz cuadrada es la suma de los elementos de su
diagonal. La notacin es
tr A = a n + 22 + . . . + ann - 2^ ati
El conjunto
S = ( A e R nx" / fr A = 0
es el conjunto de las matrices de traza nula de R nxn, y constituye un subespacio, pues
se verifica:
1. S =0, pues la matriz nula N es de traza nula, y en consecuencia es un elemento
de S.
2. S e Rnx" por definicin de S.
3. S es cerrado para la adicin.
Sean A y B dos matrices cualesquiera de S. Entonces
n

A e S A B e S = > t r A = 0 / \ t r B = 0=>'E a H = 0 a 2 b = 0 =>


i- 1

= i a + i bu = 0
= i
=i

(= 1

(a + b u) = 0=>
ii

=> tr (A + B) = 0 => A + B e S
4. S es cerrado para el producto por escalares. En efecto
n
a e R A A e S = >a e R A - A = 0=> a e R A 2 t- = 0=>
=i
n

=> a 2 a a - 0 =S
i= l

i 1

a ai = 0 *=> tr (a A) = 0 =* a A e S

Ejemplo 1-12.
Consideremos S =

j ( x u x 2) e R2/* i > x 2 e investiguemos si S es un subespacio de

( R2 ,+> R, .)
Se ve de inmediato que no se verifica A4, pues no todo elemento de S admite
opuesto en S. As
(0, - l ) e S p e r o (0, 1 ) S

www.FreeLibros.com

>

ESTRUCTURA DE l-SPACIO VECTORIAL. SUBESPACIOS

Analizando la situacin en trminos de la condicin suficiente demostrada, se verifica:


1. S * f )
2. S C R 2
3. S es cerrado para la suma.

O i , x 2)eSAOi , ^ 2)eS=>xl > x 2/ \ y x > y 2 =*


^*1 + y i > x 2 + y 2 * ( X l + y i ! x 2 + y 2 ) e s = > ( x i , x 2) +

(ylty 2 ) e s

p t a Cerrad Pari> d Pr dUCt0 P r eSC!areS' C0m0Io

^ siguiente

(2,1) e S A (-2 ) (2,1) = (_ 4 , -2 )j^ S


En consecuencia, S no es un subespacio de R 2 .

t *2

1.9. OPERACIONES CON SUBESPACIOS

1.9.1. Interseccin de subespacios


Sea I S, |

con i e l una familia de subespacios de (V, +, K, .). Denotaremos con S la

interseccin de dicha familia, o sea, S = .H S,. Resulta S un subespacio de V.


ir. Tet iela ^1; a " l e c c i n de toda familia de subespacios de V, es un subespacio de V
Hiptesis) (V, + , K, .) es un espacio vectorial
( Sf ) con i e I es una familia de subespacios de V

www.FreeLibros.com

INTERSECCION DE SUBESPACIOS
Tesis)

21

S = .Qj S,- es un subespacio de V.

Demostracin) De acuerdo con la condicin suficiente 1.8.2. se verifica


1. S no es vaco, pues
0 e S , Vi e I => 0 e H s =>
el

r io

i el

Por ser cada Sf un subespacio y por definicin de interseccin.


2. S est incluido en V, ya que

sfcv,v/ei=>

16 I

sfcv=>scv

Por ser cada S, un subespacio de V y porque la interseccin de toda familia de


subconjuntos de V es una parte de ste.
3. S es cerrado para la suma. En efecto
x e S A y e S = ^ x e >nl ss,
, a
Ay
y eei n
lS/=>
el

=>X S

i el

y e S i , Vi e I => x + y e S, Vi e I ==>

^ x + y e P s ^ x + yeS
ie l

Por definicin de interseccin, y porque todo S es un subespacio.


4. S es cerrado para el producto por escalares.
Consideremos ex e K y x e S. Ahora bien
aeKAxeS=*aeKAxefis=*
el

=>a e K a x e S , V/'e I =>a x e S f , V/ e I =*


^ a x e H s.-^axeS
i el

Ejemplo 1-13
En (R 3, + , R , .) consideramos los subespacios
Si = j ( x , , x 2 x 3) e R 3/x3 = 0 j

S2 = j ( x I l x 2 l x 3) e R 3/ x I= 0

La interseccin de estos es
S = Si n S2 = j (X|, x 2, x 3) e R 3/ x i = 0 a x 3 = 0 }

www.FreeLibros.com

22

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Esto significa que un vector genrico de S es una terna del tipo ( 0 , x 2, 0) que puede
expresarse mediante (0, a , 0) para algn ol en R.
Entonces
S = ((0 , a, 0) e R3 /a e R )
O sea, S es el eje x 2

Subespacios de R3 son: R 3 , {0 }, todas las rectas que pasan por el origen y todos los
planos que pasan por dicho punto. Dos rectas distintas que pasan por e! origen son
subespacios cuya interseccin es el vector nulo, y se llaman disjuntos.
1.9.2. Unin de subespacios
Si Si y S2 son dos subespacios de (V, + , K , .), entonces S i U S2, no es necesariamente un
subespacio de V, como lo prueba el siguiente ejemplo:
Consideremos en (R 2 , + , R , .) los subespacios Sj y S2 de la figura

www.FreeLibros.com

SUMA DE SUBESPACIOS

23

La unin de ambos es el par de rectas, y eligiendo x e S , , y e S2, distintos del vector nulo,
se tiene
x e S j =>xeS! U S 2
y e S 2 =>y e S i u s 2
pero
x + y / S ! U S2
1.9.3. Suma de subespacios
Sean Si y S2 dos subespacios de (V, + , K , .). Definimos el conjunto
S = ( x e V / x = xj + x 2 a x i e S i a x 2 e S 2 1
O sea
S = | x e V / 3 x 1 e S 1A 3 x 2 e S 2 A x = x! + x 2 )
El conjunto S se llama suma de los subespacios S t y S2 y se indica
|
j
!

S = S1 + S 2
Teorema. La suma de dos subespacios de V es un subespacio de V.
Hiptesis) Sj y S2 son dos subespacios de (V, + , K , .)
S= S!+S2
Tesis) (S, + , K , .) es un subespacio de (V, + , K ,.)
Demostracin) Se verifican las condiciones expuestas en 1.8.2., a saber
1. S es no vaco, pues
O e S i A 0 e S 2 ^ 0 + 0 = 0 e S i + S2 = > 0 e S
2. S es una parte de V, por la definicin de S.
3. S es cerrado para la suma, ya que

xeSAy es=*x = xi + x 2Ay = y_x + y JAxl yl eSjAXa.ya2 =eS

^ x + y = (Xl + y , ) + (x2 + y 2)AXt + y i e Si a x2 + y 2 6 S2 =*


=*x + y e S
4. S es cerrado para el producto por escalares, porque
a e K A x e S = >a e K A x = x 1 + x2 axi e S j A x 2 e S 2 =>
=>Q:x = a!x , + a x 2 A f t x 1 e S l A a x 2 e S 2 = > a x e S
Por consiguiente, la suma de subespacios es un subespacio.
Un caso particular im portante se presenta cuando los subespacios Si y S2 son disjuntos,
es decir, si Sj n S2 = { 0 j . En esta situacin, el subespacio S = Sj + S2recibe el nombre de
suma directa de Si y S2 , y se utiliza la notacin
S = S, S2

www.FreeLibros.com

24

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Sintetizamos esto en la siguiente definicin


s = s j s2 ^ S = S! + s 2 a Si n s 2 = f o }

Ejemplo 1-14
Consideremos primero los subespacios de R 3
S , = ( a , 3, 0 ) / a RA( J c R |

S2 = j ( 0 , 0 ", y ) / r e R a t e R )

El subespacio suma S = Si + S2 est formado por todas las ternas del tipo
(a, 0 +

y ) = (<*,(}, y )

y es R 3. Ambos subespacios son los planos indicados en la figura, y como su


interseccin es el eje x 2 , la suma S = S, + S2 R 3 no es directa.

En cambio, si
St H ( t t , 0 , 0 ) / a e R [

S2 = j (0 J , O)/0 e R )

se tiene
S = S , + S2 ~

0 )/a e R A / 3 e R )

O sea, la suma es directa y se identifica con el plano horizontal

www.FreeLibros.com

OPERACIONES ENTRE SUBESPACIOS

Extendemos la definicin de suma de subespacios al caso en que n > 2.


Definicin
Suma de los subespacios S j , S2, . .

Sn de (V, +, K , .) es el conjunto

S ~ 2 S = ( x e V/x = S xax e S , ( V/' = 1,


2 , . . n)
n

Resulta S = 2

S un subespacio de (V, + , K , .).

Adems, si tales subespacios son disjuntos dos a dos, o sea


i ^ / ^ s , - n S j = {o}
entonces diremos que S es la suma directa de ellos, y escribiremos
S = SX S2 . . . S*

Ejemplo 1-15
Sean S, T y U subespacios de (V, + , K , .), tales que T C S . Entonces se verifica que
s n ( T + u) = T + ( s n u )
I o. x e S n ( T + U ) = > x e S A x e T + U=>

www.FreeLibros.com

25

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

= * x e S A x = x 1 -f-XjAXi e T A x 2 eU=
=^(xi + x 2 e S A X ] e S ) a x2 e U a Xi e T =>
^ X j T a x 2 e S A x 2 eU=>
=> x t e T a x 2 e S n U =xi + x 2 e T + (S n U) =
=>xeT + (SnU )
O sea
sn(T + u)cT + (snu)

(i)

2o. x e T + (S n U) => x = xj + x2A x t c T a x 2 e S n u = >


^ X ! e T A x 2 6 S a x 2 e U =>
=>xj e T A x ! c S a x 2 e S A x 2 eU=>
=*Xi + x 2 eSAX! + x 2 e T + U=>
= > x , + x a e S n ( T + l J ) = > x e S n ( T + U)
Luego
T + (S O U) C S n (T + U)
De (1) y (2) resulta la igualdad.

www.FreeLibros.com

(2)

TRABAJO PRACTICO I

1-16. Determinar si las cuaternas que se indican denotan espacios vectoriales con las
operaciones que se indican
i

) (R, + , Q ,.)

i) (Q} + j r

iv) (R, +, Z , .)

i i ) (Q, +, Q , .)

1-17. Sea (V, + , K , .) un espacio vectorial. Demostrar


i) x + a y = x + a z y ^ 0 ^ y = z
iv) ax = b x y x ^0
=b

i ) x + y = 0 = > y ~ x
i i ) x + y = x = >y = 0
1-18. Determinar ct sabiendo que y ^ 0 y que

(1 - a ) x + a ( x y) = x y
1'19. Considerando V = Rr , o sea, el conjunto de las funciones reales con una variable real,
y K = R, investigar si son espacios vectoriales sobre R:
i ) El conjunto de las funciones continuas,
i i ) El conjunto de las funciones derivables.
i) El conjunto de las funciones pares, o sea, las funciones f e R R tales que
f 0 0 = f (-x).
iv) El conjunto de las funciones impares, es decir, las aplicaciones f c R R que
verifican f (x) = f (-x ) .
v ) El conjunto de las funciones constantes,
vi) El conjunto de las funciones no negativas.
1-20. Sean V = R2 y K = R. Determinar si las siguientes operaciones definen sobre V una
estructura de espacio vectorial.
( a , b ) + (a , b ,) = ( l a + l a l } + l f
2

oc ( a , b) ~ (ota, ab)
1-21. Determinar si (C2 , + , C ,.) es un espacio vectorial, definiendo
( z , , z 2) + ( z l r z 2) ^ ( z 1 + z l t z 2 + z 2)
z ( z i , z 2) = ( z z l , z z 2)

www.FreeLibros.com

})
'

28

ESTRU
CTURA DE ESPACIO VECTORIAL. SUBESPACIOS

1-22. Considerando el espacio vectorial (R 3 , + , R , .), investigar si los siguientes conjuntos


son subespacios de R3
i

) S = ( ( x 1, x 2f x 3) e R 3/ x 1 + x 3 = 0 J

i i ) S = ( ( x 1, X 2 , x 3) e R 3/ i x 1 1= 1^2 l)
iii) S = | (x 1( x 2, x 3) e R 3/ x 3 =X i + 2 )
1-23. Sea el espacio vectorial ( R " ,+ , R , .). Determinar si los siguientes conjuntos son
subespacios de R"
i ) S = ((Xi, x 2, . - - x n) e K n x n e Z \

ii) S = ( ( x i , x 2, ..

x)eR ^S

iXi^O Aai

eR}

1-24. Demostrar que S = {(z , w) e C2/z = iw } es un subespacio de (C2, + , C , ,).


1-25. Sean C2 y S = | ( z , w ) e C2/z - z + w = 0 }. Determinar si son subespacios (S, +, C , .)
y ( S , + , R , .).
1-26. Sean S y T subespacios de (V, + , K , .). En el producto cartesiano S XT se definen
(x , y) + (x * , y ) = (x + x , y + y )
<x (x , y ) = (ax , ay)
Demostrar que ( S X T , + , K , .) es un espacio vectorial. El espacio S X T se llama
producto directo de S por T.
1-27. (R x", + , R , .) denota el espacio vectorial de las matrices reales n x n.
Por definicin, la matriz A e R nx n se llama triangular superior si y slo si
i> j

=>aj

Demostrar que ( S ,+ , R , .) es un subespacio de R nx", siendo S el conjunto de las


matrices triangulares superiores.
1-28. Dado (R 2 , + , R , .), determ inar si los siguientes subconjuntos son subespacios
0

S - ( ( x , ^ ) / ( x - ^ ) 2 = (x + ^ )2)

ii) T = ( ( x , y ) / - ^ x + y = x ~ ^ y \
1'29. Considerando (C2 , + , R , .) el espacio vectorial de los pares ordenados de nmeros
complejos sobre el cuerpo de los reales, investigar si los siguientes conjuntos son
subespacios del mismo.
1 ) S = j (z , u ) e C2/z 2 + u 2 = 0 J
i i ) S = |(z , u) e C2z + 2 e R |
iii) S = {(z , u) e C2/ R e (z) = R e ())
iv) S = J (z , u ) e C2 / Im (z) = 0

R e (z - u) = Im (z) f

www.FreeLibros.com

TRABAJO PRACTICO I

29

v ) S = j ( z , i / ) e C 2/z= u |
vi) S = I (z , u) e C 2 / m (z) - /m () = 0)
1-30. Sean S, T y U subespacios de (V, + , K, .) Demostrar
i

) S + T = T+S.

i i ) S + (T + U) = (S + T) + U.
iii) S C S + T .
1-31. Demostrar que si el subespacio S de (V, + , K , .) es la suma directa de los subespacios
Si y S2 , entonces todo vector de S puede expresarse demodo nico como la suma de
un vector de S t y uno de S2 .
1-32. Sean ( Rnxn , +, R , .) y los subconjuntos
S = { A e R nKn

V/ V/ )

T = 1 A e R,,Xl I a = - a Jt Vi V ;)
Por definicin, los elementos de S se llaman matrices simtricas, y los de T se llaman
matrices antisimtricas.
Demostrar
I o. S y T son subespacios de R " xr*
2 . R " X" = S T

www.FreeLibros.com

C apitulo 2
D EPEN D EN C IA E IN D E P E N D E N C IA LINEAL,
B A S E Y D IM E N S IO N

2.1. INTRODUCCION
En esta unidad introducimos las definiciones de combinacin lineal de un conjunto no
vacio de un espado vectorial y de subespacio generado por el mismo. Se estudian la
dependencia e independencia lineal y los sistemas de generadores, a fin de caracterizar los
conceptos de base y de dimensin en el caso finito.

2.2. COMBINACIONES LINEALES


2.2.1. Concepto
A ^ Vr,V2 ' - ;v" j una familia 0 conjunto de vectores del sepacio V + K 1

"

* "

Definicin
Combinacin lineal de la familia A C V es todo vector del tipo
n
.2
o b t t e P

r n u l o '

= a , Vl + 2 v2 + . . . + tt vn I oc g K. a v c A
S n nUl S h C mb aC"

* >vial
tri y se

Definicin
El vector v e V es combinacin lineal de la familia A c V si y slo si exist
,
<*i, <*2 , . .
tales que
y
ten escalares

www.FreeLibros.com

31

COMBINACIONES LINEALES
Ejemplo 2-1.
Sean los vectores v, = ( - 1 , 0, 2) y v2 = ( - 1 , 2 ,4 ) en R 3 . Determinamos si los vectores
v = ( - 1 , 1, 3) y u - (1, 2, 2) son combinacin lineal de Vj y v2 .
1. Para que v sea combinacin lineal de v t y v2 deben existir escalares oi y a 2 tales
que
i V! + a 2 v2 = v
O sea
a , ( - 1 , 0 , 2) + o2 ( - 1 , 2 ,4 ) = (1, 1, 3)
Por definicin de ley externa es
( - a j , 0, 2

) + ( - a 2 , 2 a a , 4 a a) - ( - 1 , -1,3)

Por suma de ternas


(-(*! - 0:2 , 20 :2 , 20 !! + 4ota ) = ( - l , 1, 3)
Por igualdad de temas resulta
O! C2 = 1
2 0*2 = 1

2 ai + 4 a 2 =3

Entonces
01 +

q2

= 1

1
ct2 - -

a t + 2o^ = -

Sustituyendo a 2 = en la primera ecuacin, se tiene


. 1

Oj + - =

1 =*0 ti =
.

Como ambos valores a , = ~ y a 7 = satisfacen la tercera relacin es v = v


2

O sea, v puede expresarse como combinacin lineal nica de Vj y v2.


2. Si u = (1, 2, 2), entonces procediendo anlogamente se llega a

www.FreeLibros.com

1 + v2.
2

32

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

- Ci! 2

0i2 - -1

O! +

0i2 = l
<*2 = 2

o bien

a2 =

O'!

+ 2<*2 =

2i + 4<2 = 2
De donde

0i2 - 1 =>-0!, + 1 = - 1 => o! = - 2


Al sustituir en la tercera ecuacin
-2+ 2.1= 0^1
Entonces u no es combinacin lineal de Vi y v2 .
Ejemplo 2-2.
En el espacio vectorial de las funciones reales de una variable real (Rr , + , R , .) sean las
funciones f y g definidas por
f ( 0 = e

g ( 0 = e 3

Determinar todas las combinaciones lineales, es decir, los escalares a y b, tales que
a i + >g = 0
donde 0 denota la funcin nula, definida por 0 () = 0 , V t R.
Por definicin de funciones iguales, suma de funciones y producto de escalares por
funciones (vase 1.4.) se tiene
a f (?) + b g (f) = 0 cualquiera que sea t e R
O sea
aet + b e ^ t = 0

(1)

El propsito es obtener los escalares a y b que satisfagan a (1) para todo t e R.


Derivando (1) se tiene

Y como e 3 nunca es cero, resulta b = 0, que sustituido en (1) nos da


a e =0
En consecuencia es a = 0.
Luego, la nica combinacin lineal de f y g que da la funcin nula es la trivial. Toda vez
que esto ocurra, diremos que los vectores, en este caso f y g, son linealmente
independientes.

www.FreeLibros.com

COMBINACIONES LINEALES

Ejemplo 2-3-1.
D ecidim os si el vector v = (1, 2 ,3 ) es com binacin lineal de la fam ilia cuyos elementos
son los vectores de R 3

Vl = ( 1 , 0 , - 1 )

va = ( 0 , 1 , - 1 )

v 3 = ( 1 , 1, 2)

Investigamos si existen escalares reales a , b y c , tales que

a Vi + / j v 2 +

cv3

Entonces, debe ser


a (1 ,0 , 1) +

(0, , 1) + c (1, 1, 2) = ( 1 ,2 ,3 )

Efectuando operaciones
(a, 0, - a ) + (0, b, - b ) + (c, ct - 2 c ) = (1 ,2 , 3)
(a + c, b + c, ~ a - ft- 2 c ) - ( l , 2 ,3 )
Por igualdad de ternas es
a+ c- 1
b + c=2
a b - 2 c = 3
Sumando las tres relaciones se tiene
0

lo que es imposible.
En consecuencia, v no es combinacin lineal de Vi , v2 , y v 3 .
Ejemplo 2-3-2.
En el espacio vectorial (R 2X2, + , R , .) se consideran las matrices

Determinar todas las combinaciones lineales de A, B y C que den la m atriz nula N.


Hay que obtener a, 0 y y en R , tales que
aA+0B+7C=N

www.FreeLibros.com

33

34

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION


Por producto de escalares p o r matrices es

W ) + / . u

a)

\ 0

\y

0 /

Por suma en R 2* 2 se tiene


/< * + 0

\0 + 7 a + y)

/o

\0

0 \

0/

Por igualdad de matrices resulta


a

0 +

0 =

oc + y = 0

De las dos primeras se deduce


0f = _ 0

<y = _ 0

Sustituyendo en la tercera es
-2 0

O sea
0 = 0
Luego a = 0 = 7 = O y l a nica combinacin lineal que satisface la relacin propuesta es
la trivial.
v

2.3. SUBESPACIO GENERADO


2 .3 .1. Conjunto de combinaciones lineales
Sea A un conjunto no vaco de vectores del espacio (V, +, K , .). A expensas de A
podemos form ar el subconjunto de V cuyos elementos sean todas las combinaciones lineales
de los vectores de A. A este conjunto lo denotaremos con el smbolo A, que se lee A raya
Si A = { V i, v2, . .

v } , entonces escribiremos
^ = (i? i a v* / e K A vi e A )

Ejemplo 2-4.
El conjunto de todas las combinaciones lineales de los vectores

v, = ( 1 , 0 , 1 )

v2 = ( 0 , 1 , l ) d e R 3

www.FreeLibros.com

SUBESPACIO GENERADO

35

es
= { i ( 1 , 0 , 1 ) + o2 ( 0 ,1 , l ) / *! e RA (*2 e R
O sea
= j ( a j , o t a , ! + <*2 ) /<*i c R a a 2 e R |
En consecuencia, a A pertenecen todas las tem as cuya tercera componente es la suma
de las dos primeras.
Podemos escribir
A = ) (x i, x 2, x 3) e R 3 1 x 3 =Xi + x 2 )
2.3.2. Subespacio generado por una familia de vectores
Teorema. El conjunto de las combinaciones lineales de toda familia no vaca de un
espacio vectorial es un subespacio del mismo.
Hiptesis) (V, + , K , .) es un espacio vectorial
A = ( v i, va, .,v C V
Tesis) (A, + , K , .) es un subespacio de V
Demostracin)
1. Siendo Vi = 1 v t + 0 v2 + . . . + 0 v se deduce que Vi e A, o sea, A
2. Por definicin, se tiene
n

v e A =>3 a t , <x2 , . . Q e K / v = 2 a v a v e A =>


=i
n
=>v = .2^ a v a dj e K a v e V, pues A C V
Luego
ve^veV
O sea
ACV
3. A es cerrado para la suma.
Sean v y u en A.

www.FreeLibros.com

36

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

4. A es cerrado para_el producto p o r escalares.


Sean a e K y v e A.
a e K A v e A = > a e K A v = 2 a, v- =>
=i 1
<*/ v, = 2 a (a, v,) = 2 (a a f) v, =

0, v , = a v e

Como se cumplen las hiptesis del teorema 1.8.2., resulta (A, +, K ,.), un subespacio de
1 5 i, IV,
Definicin
El subespacio de las combinaciones lineales de la familia no vaca A C V se llama
subespacio generado por A.
Ejemplo 2-5.
Determinar el subespacio de (R 3 , + , R ,.) generado por la familia A cuyos elementos
son los vectores
v, = ( 2 , 1 , 2 )

v2 = ( 1 , 2 , 1 )

Por definicin, el subespacio A es el conjunto de las temas { x u x 2, x 3) e R 3 tales que


( x i , x 2 l x 3) = a 1 (2, 1, 2) + 2 ( 1, 2, 1)

= (2

, i , 2 a!) + (a2i 2a2, a 2)

= (2 a , + a 2 ( a , + 2a2, 2a t + a 2)
Por igualdad de ternas es
2 aj + a 2 = x t
a i + 2a2 ~ x 2
2 aj +

a 2 =x

De la primera y tercera relacin se deduce


x i =x 3
y x 2 es cualquier nm ero real.
En consecuencia
A - ( x l , x 2, x 1 ) / x l e R A x , e R
A es el plano de ecuacin
x , - x* = 0

www.FreeLibros.com

SUBESPACIO GENERAD O

Ejemplo 2-6.
Obtener el subespacio de (R2 x 2 , + ,.) R
generado
,
por las matrices
1

0\

/O I

V, =

Vl~ ' o - i ) Vs(~0 0


A = | o V /o e K
\ /= i

0 0
1 0

V,- e A )

'

Todo vector de A es una m atriz I ^ I ta^ 1ue

0'

0 0

0)1 o - i / + 2lo o / + 3 U 0,
Realizando operaciones en R2x2es

www.FreeLibros.com

c d

38

DEPENDEN
CIA E INDEPENDENCIA LINEAL. BSE Y DIMENSION

En consecuencia
- a , oc2 = b , a 3 = c , - a , - d
Luego
d - a y b y c
son nmeros reales cualesquiera.
Los vectores de A son matrices del tipo

( : .* )
Es decir, es el subespacio de matrices de traza n ula.
2.3.3. Propiedad
El subespacio generado por una familia no vaca de un espacio vectorial es la interseccin
de todos los subcspaeios que incluyen dicha familia.
Hiptesis)

(V, + , K , .) es un espacio vectorial.

(> ^A = j v j , v 2 l . . ., v j C V
( S,- J con i e I es la familia de tocios los subespacios que incluyen A.
Tesis) A = D S,iel

Demostracin)
Probaremos lasao s inclusiones que conducen a la igualdad.

1. c ne l s
En efecto
n

x e A =>x = 2 <xj Vj
n

=>x = 2 dj \ j

a y

eK

dj e K

e A =>

v;- e Sf , Vi e I =>

=*x e S f , V i'e l =* xe f l S.ie I

2. i ne l s1 c
Como todo v,- de A es combinacin lineal de los elementos de A, pues
vf = 0 v, + 0 v2 + . . . + lv (- + . . . + 0 v,

www.FreeLibros.com

SUBESPACIO GENERADO

39

se tiene que.
ACA
Ysiendo A un subespacio que incluye a A, se identifica con algn S e s decir, existe; en
I tal que S;- = .
Por otra parte, como la interseccin est incluida en cualquiera de los conjuntos que se
intersecan, es

s.- Cc S,Si V,UieI


lO
\ Si
En consecuencia
n
ie l

s' c

Por lo tanto
A =n
el

s,

En virtud del teorema demostrado, observamos que el subespacio generado por una
familia no vaca de vectores de V z> ei m nim o subespacio, en el sentido de inclusin, que
incluye a A.
Ejemplo 2-7.
Demostrar que los siguientes conjuntos de vectores generan el mismo subespacio de
R 3.
A = j (1, 1, 1) , (3, 0, 1) |

B = j ( - 2 ,- 1 ,0 ) ,(5,-2,3 ))

Determinaremos y B.
1.A A pertenecen las ternas (x, y , z), tales que
( x , y , z ) = t ( 1, 1, 1) + ( 3 , 0 , i)
Entonces
(x, y , z) = (t, - t , t) + (3u, 0, )
(x, y , z) = (t + 3 , - t , t + u)
Luego
x = t + 3u
y --t
z-t +u
Como t = - y , se tiene
x = - y + 3u

www.FreeLibros.com

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

O sea
= - y + 3u

3 2 = - 3 y + 3u
Restando
x - 3z = 2y
Resulta
A = j ( x , y , z ) e R 3 x - 2y - 3 z - 0
2. Procediendo anlogamente para obtener B es
(x, y, z) = t ( - 2, 1 ,0 ) + u (5, 2, 3)
(x, y, z) = ( - 2 1, - t , 0) + (5m, 2, 3)
(x, _v, z) = (2t + Su, t 2u, 3)
O sea
x = 2 1 4- 5
y = - t - 2U
z = 3u
Como u - z , se tiene
3
x = - 2t+7 *

y ~ - t ----- - z
3
O bien
x

= 2 H z
3

2y

= - 2 t ----- - z
3

Restando
x 2y - 3z
Luego
B = \ ( x , y , z ) e R 3 l x ~-2y -3z = 0
Resulta
A=B
La ecuacin x - 2 y - 3 z = 0 corresponde a un plano que pasa por el origen.

www.FreeLibros.com

SUBESPACIO GENERADO

Ejemplo 2-8.
El subespacio de (V, + , K , .) generado por un vector v es, en particular, el conjunto de
todos los mltiplos escalares de v, o sea
{ b / j k e K
Determinamos el subespacio de R2 generado por v = (1,2).
Llamando S a tal subespacio, se tiene
S = ( ( x l , x 2) l ( x l , x 2) := k ( l , 2)
En consecuencia
{ x t , x 2) = (k,

2 k)

O sea
Xi=k

x 2 = 2k

Eliminando el parmetro k entre ambas relaciones, resulta


*2=2*!
O lo que es lo mismo

2x - x 2 = 0
Entonces
S - j ( X , x 2) e R 2 / 2 x i ~ x 2 = 0

S es la recta que pasa por el origen representada en la figura

www.FreeLibros.com

41

42

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

2.4. DEPENDENCIA E INDEPENDENCIA LINEAL


2.4.1. Conjunto linealmente independente
En el ejemplo 2-2 hemos dem ostrado que la nica combinacin lineal de los vectores f y
g, cuyo resultado es el vector nulo, es la trivial. O sea
a f + b g = 0 =>a=:b = Q
En este caso, los vectores son las funciones de R en R definidas por
f(t) = et

g ( ) = e 3f

y la funcin que asigna a todo nm ero real t, el valor 0, es el vector nulo. Este hecho se
traduce diciendo que los vectores f y g son linealmente independientes, o bien que el
conjunto {f, g } es linealmente independiente.
Sea A = | v j , v2 , . . . , vr | una familia de vectores del espacio (V, + , K ,.).
Definicin
La familia A C V es linealmente independiente si y slo si la nica combinacin
lineal de dicha familia, cuyo resultado sea el vector nulo, es la trivial.
En smbolos
>
A es linealmente independiente o Vz: .2 a v = 0 = a = 0.
La independencia lineal de un conjunto finito y no vaco de vectores significa que no
puede darse una combinacin lineal de dicho conjunto que d el vector nulo, con algn
escalar distinto de cero.
Para investigar la independencia lineal de un conjunto de vectores, se propone una
combinacin lineal de stos, con escalares a determinar, que sea igual al vector nulo. Si los
escalares son necesariamente nulos, entonces el conjunto es linealmente independiente.
Convenimos en que el conjunto vaco es linealmente independiente.
Definicin
El conjunto A C V es linealmente independiente si y slo si todo subconjunto finito de
A es linealmente independiente.
Esta definicin extiende el concepto de independencia lineal a toda familia de vectores de
un espacio V.

www.FreeLibros.com

INDEPENDENCIA LINEAL

Ejemplo 2-9.
Dado el espacio vectorial (R 3 , +, R , . ) determinar si los siguientes conjuntos de
vectores son linealmente independientes.
i ) A = ( ( 1 , 0 , 0 ) , ( 0 , 1 , 0 ) , ( 0 , 0 , 1)|
ii) B = 1 ( 1 , - 1 , 0 ) , ( 1 , 1 , 2 ) , ( 1 , 0 , 1))
i ) Sea
1 ( 1 , 0 , 0 ) +

( 0 , 1 , 0 ) + *3 ( 0 , o, 1 ) = ( 0 , 0 , 0 )

( i , 0, 0 ) + ( 0 , 0 2 , 0 ) + (0, 0, a 3) = (0, 0 ,0 )
( 1 , 0 2 . 3 ) = ( 0 , 0 , 0 )
Por igualdad de ternas resulta
oi = a 2 = a 3 = 0
Luego
A es linealmente independiente
ii) Procediendo anlogamente
oi (1, 1, 0) + a 2 (1 ,1 , 2 ) +ce3 ( 1 ,0 ,1 ) = (0 ,0 , 0)
(a,,

, 0) + (a 2 , Os, 22) + (a 3 , 0 , a 3) = ( 0 ,0 ,0 )

(<*! + o2 + a 3 _ a i +

*2 a 2 + 0 3 ) = ( 0 , 0 , 0 )

Entonces
gi + a 2 + o3 = 0
- a , + <*2

=0=>a1 = a2
a-i + a 3 = 0 =a 3 = - 2o2

2
Las infinitas soluciones de este sistema de ecuaciones son
<Xx~k
<*2 = k

ot3 = 2 k

c o n fc e R

En consecuencia, B no es linealmente independiente, ya que los escalares no son


necesariamente nulos. Ms an, existen infinitas combinaciones lineales no triviales
cuyos resultados son el vector nulo.
Ejemplo 2 10.
En (R1, + , R , .), donde I = [0, 1 ], los vectores v t = sen y v2 = eos son linealmente
independientes.

www.FreeLibros.com

44

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION


Sea
a , sen + a 2 eos = 0

V e [0,1 ] es

(aj sen + oc2 eos) (f) = O (?)


Por definicin de suma de funciones y de funcin nula
( a ^ e n ) (t) + (a 2 eos) () = 0
Por definicin de producto de escalares por funciones

i sen

t + a2 c o s t ^ O

( 1) V i el

Derivando
oi eos t - a 2 sen t = 0

(2)

Resolvemos el sistema respecto de a i y a 2 :

A=

Aa, =

sen t

eos t

eos t - sen t
0

= -se n t - c o s 2 / = - 1

eos t

0 - sen t

-0

A a2

sen t 0
eos t 0

= 0

Y la nica solucin es
= o 2 = 0

O sea
V], v2 } es linealmente independiente
Ejemplo 2-11.
Sabiendo que dos vectores vj y v2 son linealmente independientes en ( V , +, K )
demostrar que Vj + v2 y v2 son linealmente independientes.
Consideremos una combinacin lineal de la familia ( v t + v 2 , v 2 } que sea igual al
vector nulo, con escalares a y b, que determinaremos:
a (v i + v2 ) + b v2 = 0
Por distributividad respecto de la suma en V
a Vi + a v 2 + b v 2 = 0

www.FreeLibros.com

DEPENDENCIA LINEAL

45

Por distributividad respecto de la suma en K


a Vj + (a + b) x-i = 0
Como, por hiptesis, Vj y v2 son linealmente independientes, se deduce
a = 0 y a + b=0
En consecuencia
a=b=0
Por

consiguiente, Vi + v2 y v2 son linealmente independientes.

2.4.2. Propiedad.
Si un vector es combinacin lineal de una familia linealmente independiente, entonces
dicha combinacin lineal es nica.
Sea v e V

combinacin lineal de la familia j Vi , v 2 , . . .,v r } , y sta linealmente

independiente. Entonces existen escalares a tales que


r

V = 2 0f v
1=1 1

Suponemos que existen escalares

tales que

v = 2fi vf
1=1

Entonces
.2

i=i

v f = 2 fr v
ii

O sea

2 ai Vf - 2

=i

1=1

/3v = 0

Luego
.2 ( a f - f c ) v , = 0

1= 1

Y como la familia es linealmente independiente, se deduce que


a - (3 = 0 = a ~ (3 Vi' = 1, 2, . . r
En consecuencia, la combinacin lineal es nica.
2.4.3. Conjunto linealmente dependiente
En el ejemplo 2-9 ii) hemos probado que existen escalares no simultneamente nulos a i ,
a2, a 3 tales que

www.FreeLibros.com

46

DEPENDEN
CIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

a , ( 1 , - 1 , 0 ) + 0 2 (1, 1 , 2 ) + a 3 ( 1 , 0 , 1 ) - ( 0 , 0 ,0 )
Diremos que los vectores (1, - 1 , 0 ) , (1, 1, 2) y (1 ,0 , 1) son linealmente dependientes.
Definicin
La familia A C V es linealmente dependiente si y slo si no es linealmente
independiente.
La familia A = {Vi , v2, . . . , vr [ es un conjunto linealmente dependiente de vectores
de V si y slo si existe una combinacin lineal no trivial de dicha familia cuyo
resultado sea el vector nulo.
Negando las dos proposiciones que figuran en la definicin de independencia lineal, se
tiene

A es linealmente dependiente o 3

/ /2

a, v- =
=i 1 '

0 a

a = 0

La dependencia lineal de un conjunto finito de vectores significa que tiene que existir, al
menos, una combinacin lineal de stos que d el vector nulo y que no sea trivial.
Para investigar
la dependencia lineal de una familia de vectores, se propone una
combinacin lineal de dicha familia, con escalares a determinar, que sea igual alvector nulo.
Si algn escalar es distinto de 0, entonces la familia es linealmente dependiente.
Ejem plo 2-12.

Los vectores (2 ,4 ) y (1, - 2 ) son linealmente dependientes en ( R2>+, R, )


En efecto, sea
<*! ( - 2 , 4 ) + a 2 (1, 2) ~ (0, 0)
Por definicin de producto de escalares por pares y por suma de pares es
( - 2 0-! +<*2,4 0!! - 2 o2) = (0 ,0 )
Por igualdad de pares resulta

2 <*! + a 2 = 0
4 a] - 2 a 2 = 0
Dividiendo la segunda relacin por - 2 , el sistema se reduce a la nica ecuacin

2 a! + a 2 = 0
Esta admite infinitas soluciones, dadas por
a 1 =k
a2 = 2 k

ke R

www.FreeLibros.com

47

DEPENDENCIA E INDEPENDENCIA LINEAL

Ejemplo 213.
Las matrices
/ 1
En =

0\
)

O
/
^12 = |

Vo o/

\o

1\
|

o/

/O
Eai = |

\i

\
j

/O
E22 = i

o'

'o

son vectores linealmente independientes del espacio vectorial (K2x2, + , K ,.), pues
cualquiera que sea la combinacin lineal de los mismos con escalares en K, cuyo
resultado sea la matriz nula, es la trivial. En efecto
a i E n + ct2 E 12 + a 3 E2l + a 4 E22 = N =>
a i

0\

i0

lo

0/

\o

0C2\
0 /

/ O0

0^
0 \i

/O

Va3
3 00 /'/

a2\

a 4 / i \0

\^o0

0\
a4/

0^
0;

Luego
a 1 = a2 a 3 = a4 =0

www.FreeLibros.com

/O
\ 0

0
0

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION


En cambio, las matrices

A - r

0
1

y B=

\_ ,

o
o

son linealmente dependientes, pues

<*i A + a 2 B = N =>
1 -0 2

0\

/O

ai

0 /

\0

02

O
0.

O sea
a i - a 2 = 0 ^ oti~cx.2 = k

\/ke K

Por consiguiente, existen escalares n o simultneamente nulos que satisfacen la relacin


anterior, lo que prueba la dependencia lineal.
2.4.3. Propiedades
indep en d ien te n nU' ^

eSPaC VeC rial C n5tUye

' m e n te

Sea v * O en (V, + , K , .). Consideremos

l i n e l r e m e independiente. C m # " de UCe qUe =" y e" c - c ia | v | es


^dependiente!^0 ^
en

CUaqUer

t 0 M C nSttUye un

ta lm e n te

En efecto, cualquier escalar, nulo o no, satisface la relacin O = O, segn lo demostrado


ni) Todo conjunto al que pertenezca el vector nulo es linealmente dependiente.
Sea A
O sea

Vj , v2, . .

vr J con vy = 0. Se verifica que


Ovi + 0v2 + . . . + <xj vj + . .. + Ovr = O

a j v j = ocj O = O

con dj no necesariamente nulo.

www.FreeLibros.com

DEPENDENCIA E INDEPENDENCIA LINEAL

49

iv) Un conjunto finito y no vaco de vectores es linealmente dependiente si y slo si algn


vector es combinacin lineal de los dems.
Sea A = {v j , v2). vr una familia de vectores de ( V , + , K , . ) . Demostramos las dos
condiciones en que se desdobla el enunciado: necesaria y suficiente.
n
I o. A es linealmente dependiente => 3 / / v = ,S & v.
Por definicin de dependencia lineal
A es linealmente dependiente =>
r

=2 ct \ = 0 a ocj = 0 =>
=i
n
=> Uj \ j + %. a v = 0 a otj ^ 0 =>

rt

=>OtjVj = ^2

tt/V/ A

Premultiplicando por a / 1, inverso multiplicativo en K, de oc

0, se tiene

<*/* (jV;) = ( - a / i ) . Vi
Por A7 y propiedad de la sumatoria
n

(ocf1
Por inversos en K y A 7 es

n
1 v; =
( - a / 1 a*)*.1 i*}

Teniendo en cuenta A io, y llamando (3/ a 1ott se deduce


V;
Vi*!
' l*)
En consecuencia, existe
n

2.Vj = 2

e A, que es combinacin lineal de los restantes vectores de A.

a v => A es linealmente dependiente.

Por hiptesis y trasposicin de trminos se tiene


n

V,- 2 a vf => S
J ij
Como <Xj

a,- Vj V/ = 0 con a;- = - 1

0, el conjunto A es linealmente dependiente.

v ) Un conjunto finito y no vaco de vectores es linealmente independiente si y slo si


ningn vector es combinacin lineal de los dems.

www.FreeLibros.com

50

y Ss

DEPENDEN
CIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

: ; ^

En smbolos

strar pues bas,a ,,egar ias dos propsidnes de **

A es linealmente independiente V : v;- = {J y t


En lo sucesivo, y en algunas ocasiones, abreviaremos las expresiones' linealmente
independiente y linealmente dependiente mediante L.I. y L.D. , respectivamente.
vi) Un conjunto finito y ordenado de vectores al que no pertenece el vector nulo es
pTectdemes.

P6ndiente S1 V SOl si aln vector es combinacin lineal de los

10- A - { v , , v3 , . .

vr } es LD

0 /A =* 3 k j 2 < k < r

vh -

Demostracin) Sea k el primer entero positivo tal que


| v j , v 2, . . . , Vft ) esL.D.
k existe por el principio de buena ordenacin.
Por definicin se tiene

fe

Si

= 0 , entonces j Vl, v2 , . .

0/Vf - O y algn

yh^ sera LD, contra lo supuesto.

Luego $h j= 0, y procediendo como en iv) 1? se deduce que


fc-i
vft = , 2 a v
O sea, vk es combinacin lineal de los precedentes, y k es tal que 2 < k < r.
2?. El recproco es obvio y puede ser demostrado como ejercicio.
o

l S

105 COn PtOS

P dem0S afrmar

hS Siuie"

a) A es L.I.
b) Toda combinacin lineal de la familia A, cuyo resultado sea el vector nulo, as la trivial.
c) Ningn vector de A es combinacin lineal de ios dems.
Anlogamente son equivalentes:
a ) A es L.D .
re s u d t e r e , c ^ o ? : b, o aCn ' nea

c ) Algn vector de A es combinacin lineal de los dems.

www.FreeLibros.com

SISTEMA DE GENERADORES

51

Ejemplo 2-14.
En el espacio vectorial de los polinomios reales sobre el cuerpo de los reales, P y Q
definidos por
P (x) = x 2 + x

Q 0 ) = -2 x

son linealmente independientes.


Sea
a? + bQ = 0

donde 0 denota el polinomio nulo

Cualquiera que sea x e R se verifica


(P + 6 Q )(x ) = 0 ( x )
Por definicin de suma de funciones y de polinomio nulo es
(flP) (x) + (bQ) (x) = 0

VxeR

Por definicin de producto de escalares por polinomios, se tiene


aP (x) + bQ (x) = 0
O sea
a (x 2 + x ) + b (- 2x ) = 0
Luego
a x 2 + (a - 2b) x ~ 0

Vx e R

S ix = - l , s e verifica a - a + 2b = 0 , y en consecuencia b = 0 .
Entonces es ax 2 + a x = 0 , y haciendo x = 1, resulta 2a = 0, o sea, a = 0.

2.5. SISTEMA DE GENERADORES


2.5.1. Concepto
Si un conjunto no vaco de vectores de un espacio (V, + , K , .) es tal que todo vector de V
puede expresarse como combinacin lineal de dicho conjunto, entonces se dice que ste es
un sistema de generadores de V. Esto equivale a decir que el subespacio de V generado por
tal conjunto es el mismo V. El concepto de sistema-de generadores de un espacio vectorial es
independiente de la dependencia o independencia lineal del sistema. O sea, un sistema de
generadores puede ser linealmente independiente o no.
Definicin
La familia A = {v , , v2, . . . , vr ) es un sistema de generadores de V si y slo si todo
vector de V puede expresarse como combinacin lineal de los vectores de A. O bien, A
es un sistema de generadores de V si y slo si el subespacio generado por A es V.
Las notaciones S.G. y C.L. son abreviaturas de sistema de generadores y
combinacin lineal , respectivamente.

www.FreeLibros.com

52

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

La traduccin simblica de la definicin anterior es


r

A es un S.G. de V o v e V => v = 2 a v,=i 1


O bien
A es un S.G. de V o A = V
Ejemplo 2-15.
El conjunt A = j (1, 0) , ( 0 ,1 ) , (1, 1) } es un sistema de generadores de R2.
En efecto, si ( a , b ) es cualquier vector de R2 , deben existir escalares a, 0 y y tales que
a (1, 0) 4- 0 (0, 1) + 7 (1, 1) = ( a , )
O sea
(a + y , 0 + 7 ) = (a , b)
Luego
a + y =a

0+7 =

En consecuencia
ot = a - k

p -b -k

y =k

V keR

Este resultado nos dice que, efectivamente, A es un S.G. de R2, y adems, que
cualquier vector del espacio puede expresarse de infinitas maneras como C.L. de los
vectores de A. Por otra parte, es fcil verificar que A constituye una familia L.D.
En el ejemplo 2-6 est demostrado que las matrices V 1} V2 y V 3 constituyen un
sistema de generadores del espacio vectorial de las matrices reales de traza nula del tipo
2 X 2 . Adems, tales matrices son linealmente independientes.
2.5.2. Propiedad
Si la familia A = { v 1 }v 2 , . . .
A - |v ;- | es un S.G. de V.

vr } es un S.G. L.D. de V, entonces existe

e A , tal que

Demostracin) Por ser A un sistema de generadores de V, se verifica


v e V =>v = 2 a v

( 1)

Como A es linealmente dependiente, por 2.4.3. iv), algn vector de A, digamos v/, es
combinacin lineal de los restantes, o sea
3 Vy tal que vy = 2

*/

(i

Teniendo en cuenta (1) y (2 ) podemos escribir

www.FreeLibros.com

( 2)

BASE
r

53
r

\ = cc4y,- + 2 a y,- = a 2 & v +

3 1 *j 1 1

1 t*r* '

a, v, =

*i ' 1

= 2f j V
(pj; p
2 ynt \ ii
r, + ot)
V v
i = iJ

{ v j es un sistema de generadores de V.

En consecuencia, A Ejemplo 2-17.

Determinamos si los vectores Vj = ( 1 , 1 , 1v2


),
=(1,1,0
y )v3 = ( 1 , 0 , 0
de)
(R 3, + , R , .) constituyen un sistema de generadores de R 3.
El problema se reduce a investigar si existen escalares reales a, (3 y y, tales que
cualquiera que sea (a , b , c) e R 3 se verifique
a ( l f l, 1) + 0 ( 1 , 1 , 0 ) + -y (1 , 0 , 0 ) = (a , 6 , c)
(a + P + y , a +

0 , ) = (a , b , c)

Luego
a + P + y =a
a+ p
a

=b
=c

De donde resulta
a =c , p =b - c , y ~ a - b
En consecuencia, todo vector de R 3 puede expresarse como C.L. de los vectores
propuestos. Observamos, adems, que tal C.L. es nica para c a d a v e R 3,
En el caso en que ( a , b , c) sea el vector nulo, los escalares son nulos, y en
consecuencia los vectores v t , v 2 y v 3, adems de constituir un S.G., son L.I.
Por este motivo se dice que tales vectores son una base de (R 3, + , R , .).

2.6. BASE DE UN ESPA


CIO VECTORIAL

2,6.1. Concepto de base


Sea A = {Vj , v2 , . . . , vn } una familia de vectores de (V, 4-, K , .).
Definicin

La familia A C V es una base de(V, + , K,.) si y slo si es


un. conjunto linealmcnte
independiente y sistema de generadores de V.
A C V es una base de V o A es L.I. y A = V

www.FreeLibros.com

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Ejem plo 2-18.

Una base de (K", +, K, .) es el conjunto de vectores


ej = ( 1 , 0 , 0 , . . . , 0 )

e2 = (0, 1,0,...,0)
e = (0 , 0 , . . . , 0 , 1 )
El lector puede com probar que la familia { , e 2 , . . e | es linealmente
independiente y un sistema de generadores de K \ Tal familia recibe el nombre de base
cannica.
Ejem plo 2-19.

En el ejemplo 2-13 se demostr que las matrices E n , E 12 , E 21 y E 22 constituyen


una familia linealmente independiente del espacio (K * , + , K , .).
Adems, tal conjunto es un sistema de generadores de dicho espacio, y en consecuencia
es una base del mismo. La llamaremos tambin base cannica de K 2 *2 .
Ejem plo 2-20.

Determinar una base del subespacio de (R 3 , + , R, ) estudiado en el ejemplo

1-8.

Tal subespacio es
S = { ( x u x 2, x 3) e R 3 x 3 = x x + x 2 |

Si (a , b , c) es un vector genrico de S, entonces se tiene c = a + b , y en consecuencia


podemos escribir, en virtud de las leyes de composicin en S:
(a, b, c) = (a, b ,a + b ) = (a, 0 ,fl) + (0, b, b)

(1, 0 ,1) + b (0, 1, 1)

Este resultado nos dice que los vectores de R


vi = ( 1 , 0 , l ) y v2 = ( 0 , 1 , 1 )
constituyen un sistema de generadores de S.
pues

A d e m s,

son linealmente independientes,

a ( 1 , 0 , l ) + 6 ( 0 , 1 , 1 ) = ( 0 , 0 , 0)=>a = b = 0

Por consiguiente, Vi y v 2 constituyen una base de S.


2.6.2. Coordenadas o componentes de un vector
En este texto consideraremos nicamente espacios vectoriales de bases finitas. En
algunas ocasiones, para indicar que | v v 2, . . .,v | es una base del espacio vectorial
(V + K ) utilizaremos el smbolo [v] para hacer referencia a ella.
Si |v i, v2 , . . v f es una base de (V, + , K, .), entonces cada vector de V puede

www.FreeLibros.com

COORDENADAS

55

expresarse de m odo nico como combinacin lineal de la base, ya que los vectores de sta
son linealmente independientes y sistema de generadores, de acuerdo con 2.4.2.
O sea, s ix e V, entonces existen y son nicos los escalares x t , x 2, . . x n tales que
n
X = *1 V, + x 2 V2 + . . . + x n v n = 2 x Vi
i- 1

Respecto de la base dada, el vector x e V queda caracterizado por los coeficientes de la


combinacin lineal, o sea, por la n -u p la de elementos de K: (* ,, x 2 ,. . x). Los escalares
x se llaman coordenadas o componentes del vector x e V, respecto de la base dada. Si se
elige otra base en el espacio V, entonces el mismo vector x admite otras coordenadas o
componentes:
2, . .
Demostraremos ms adelante que dos bases cualesquiera de un mismo espacio vectorial
son coordinables, es decir, tienen el mismo nm ero de vectores.
Dada la base [v] = |v j v2,
, . . v ) del espacio (V, + , K , .), podemos expresar a cada
vector x e V como una matriz columna, cuyos elementos sean las coordenadas de x respecto
de [v]; en tal caso escribiremos

Ejemplo 2-21.
Determinar las coordenadas de x = ( - 2 , 3) perteneciente a (R 2 , + , R , .), respecto de
las bases:
i

) [v] 1 ( 1 , 1 ) , ( 1 , 0)1

ii ) [w] = | ( - 2 , 3 ) (, 1 , 2 ) |
iii) cannica
En el primer caso, planteamos la relacin lineal
a ( U l ) + 6 (1 ,0 ) = ( - 2 , 3)
Efectuando las operaciones, y resolviendo respecto de a y b, se tiene
(a + b ,a ) = (--2, 3) =*a + b = - 2 y a = 3 =>
=>a = 3 y b = - 5
En consecuencia, las coordenadas de x, respecto de la base [v], son: 3 y - 5
Y puede escribirse

www.FreeLibros.com

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

56

En el segundo caso, procediendo anlogamente, se llega a que las coordenadas de x son


1 y 0 , y por lo tanto

Finalmente, respecto de la base cannica, es


( 2, 3) = ( - 2 , 0) + (0, 3) = - 2 (1, 0) + 3 (0, 1)
O sea, las coordenadas de x son precisamente los elementos del par ordenado, y
escribiremos simplemente

2.6.3. Teorema de extensin a una base


[v j = | V l , v 2 ,

v |

es

una

b a se

del

espacio

ctorial
ve

V,

[w ] = { w t , w2 , . . wm } es un conjunto linealmente independiente, pero no de generado


res

de

V,

e n to n c e s

e x is te n

vectores

w,n + i> w fn + 2 > >wm+p,

ta^es

^ue

i w 1 ,w 2 , . . , w m , w m+I, . . . f w m+pj es una base de V.


Si [w] n [vj = 0, consideramos el conjunto
A = [w]U [ v ] = ( w i , w2 , . . . , w m , v i ! v 3 , . . . , v )
Como cada w,- es combinacin lineal de los vectores de la base [v], A es un conjunto
linealmente dependiente por 2.4.3. iv). De acuerdo con 2.4.3. vi), siendo A un conjunto
finito y linealmente dependiente al que no pertenece el vector nulo, algn vector es
combinacin lineal de los precedentes. Tal vector es un elemento de [v], ya que [w] es
linealmente independiente. Por otra parte, como A es un sistema de generadores linealmente
dependiente de V, y v,- es combinacin lineal de los precedentes, resulta
A - A - ( v | = jWl , w 2, . . . , w m, v , , . . .,vM ,v f+1, ..

. ,v)

un sistema de generadores de V, segn 2.5.2.


Si A es linealmente independiente, el teorema est demostrado. Si A es linealmente
dependiente, se reitera el proceso, y a lo sumo, al cabo de (1) etapas se obtiene un
conjunto linealmente independiente que es sistema de generadores de V, o sea, una base.
2.6.4. Coordinabilidad de las bases
Dos bases cualesquiera de un mismo espacio vectorial son coordinables.
Hiptesis) (V, + , K , .) es un espacio vectorial.
[v ]= ) v l5v2, . . . v y [w ]= (W! , w2, . . . , w j

www.FreeLibros.com

son bases de V.

DIMENSION

57

Tesis) [v] ~ [ w ] ,o sea, n = m.


Demostracin) Consideremos

A = | wm, v l ! v2 , . . . ,vJ
Este conjunto, al que no pertenece el vector nulo, es un sistema de generadores (pues [ v ]
es una base), y linealmente dependiente (ya que w m es C.L. de la familia [v]). La propiedad
2 .4 .3 . nos dice que algn v es C.L. de los precedentes, y, de acuerdo con 2.5.2,, es
A - { v } un sistema de generadores de V.

Sea

A i I wm _j, w m, Vj, . . ., v,-_i, V[+i, . . ., vfl f

Este conjunto es un sistema de generadores linealmente dependiente, y en consecuencia,


algn vy es combinacin lineal de los precedentes. Lo mismo que en la etapa anterior, se lo
extrae y se agrega wm.2 , obtenindose
A 2 = | Wm.2l Wm. h

. .,VM ! Vi + 1 , . . Vy. ^Vy+i, . . -,Vn |

que es un sistema de generadores y linealmente dependiente.

Reiterando el procedimiento, afirmamos que no es po


sible que los se "agoten untes
que los wk , ya que en este caso los wfe sobrantes serian combi
nacin lineal de los
considerados.En consecuencia es
m<n

( 1)

Anlogamente, a partir de

B = | vb ,W1 i W2 ....... wm|


se prueba que
n Km

(2)

De (1) y (2), por la antisim etra de la relacin de m enor o igual, resulta


n -m

2.7. DIMENSION DE UN ESPACIO VECTORIAL


2.7.1.Concepto
En 2.6.4. hemos demostrado que si [v] es una base finita del espacio vectorial (V, + , K ,.),

entonces toda otra base de V es coordinable a [v].


Esto significa que dos bases cualesquiera
de un mismo espacio vectorial tienen el mismo nm ero de vectores. Tal nmero se llama la
dimensin del espacio.
Definicin

Dimensin de un espacio vectorial V es el nm ero cardinal de cualquiera de sus bases.


Si V consiste nicamente en el vector nulo, diremos que su dimensin es 0.

www.FreeLibros.com

DEPENDENCIA F. INDEPENDENCIA LINEAL. BASE Y DIMENSION

58

En ambos casos, V es un espacio de dimensin finita.


Si [v] = { V i, v2 , . . v } es una base de (V, + , K, .), escribiremos
diniR V =
Ejemplo 2-22.
Analizando ejemplos propuestos anteriorm ente se tiene que
dimKKn =

dimKK2 x 2 = 4

dimRR rt =

dim RS = 2

siendo S el subespacio del ejemplo 2-20

El lector puede verificar que { 1, X, X2 | constituye una base del espacio vectorial de
los polinomios reales en la indeterm inada X, de grado menor o igual que 2 y el
polinomio nulo, sobre el cuerpo de los reales. En consecuencia, su dimensin es 3.
2.7.2.

Propiedad

Un conjunto de vectores de un espacio vectorial -dimensional es una base si y slo si es


linealmente independiente o sistema de generadores.
I o. Si [v] = { V j, v2 , . . vn } es una base de V y dimKV = , entonces [v] es linealmente
independiente y sistema de generadores.
2o Si dim KV = y [v] = V j, v2 , . . v } es L.I., entonces [v] es S.G.
En efecto, si [v] no fuera un sistema de generadores, por el teorema de extensin, podr
completarse hasta formar una base de V, en cuyo caso sera dimK V > n, io que es absurdo
Si dimKV = n y [v] = V j, v2 , . . v es S.G., entonces [v] es L.I.
Si [ v ] , que es S.G., fuera L.D., entonces existira \ tal que [v]
v ) es S.G. de V,
segn 2.5.2. Si este conjunto de n 1 vectores fuera L.I. constituira una base de V. S:
[v] - {\j } no fuera L.I. se reitera el procedimiento, y en todo caso se llega a una base de \
2.
cuyo cardinal es m enor que , lo que tambin es absurdo.
En consecuencia afirmamos que:
1
. vectores linealmente independientes de un espacio vectorial -dimensional constitu
yen una base del mismo.

2. Todo sistema de generadores de n vectores de un espacio vectorial -dimensional e


una base del mismo.
3 . Todo conjunto de ms de n vectores de un espacio vectorial -dimensional e
ve
linealmente dependiente.
La dimensin de un espacio vectorial (V, +, K, .) depende no slo de V, sino tambin de!
cuerpo K. Seguidamente aclaramos esta observacin.
Ejemplo 2-23.
Sean (V, + , R , .) y (V, +, C , .) dos espacios vectoriales, donde el conjunto de vectores
es el mismo en ambos casos y C es el cuerpo de los complejos.

www.FreeLibros.com

Ei
y,

DIMENSION

59

Supongamos que dim c V = n. E ntonces es dim RV = 2n.

En efecto, si

[v] = | Vj,v2 , . . ., vn )

[W]= {vi >v 2 , . . . , v n>/vI ,rv


Para ello probaremos que

es una

base

de

(V, + , C , .), entonces

| es una base de (V, + , R, .).

1 [w] es L.I.
Sea
n

a /V.-+

;= i ;= i

1 1

i\, = 0=>

n
(<Xj + i p j )

;= i

v ;= 0=>O /+ i/3y= 0

V/=*

=> (Xj = fy = 0 , V/
2 . [w] es S.G.

Por ser [v] una base de (V, 4-, C, .), para todo v e V, existen escalares a + i ty e C tales
que
v = j=.i
.ent;

+ 1 & v ^ v =

ai vj +

0 ' v/>

Luego [w] es una base de (V, + , R , . ), y en consecuencia


dimR V = 2 dimc V
En particular, es
dimRC" = 2 dim cC " = 2 n
y

dim RC = 2 dim cC = 2
2.7.3. Propiedad

stiti
lal

Sea S un subespacio de V. Se verifica que:


dim S = dim V o S = V
1. Si el subespacio S es el mismo V, entonces es obvio que dim S = dim V.

2. Supongamos ahora que S es un subespacio de V que verifica dim S = dim V.


^ j.
Si la dimensin comn es 0, entonces tanto S como V tienen como nico elemento al
*vector nulo y son idnticos.
Sea dim S = dim V = n > 0. Consideremos una base de S:

[w]=

w1 ,w2, . . w}

Los n vectores de [w] son L.I. en V, y de acuerdo con 2.6.3. constituyen una base de V.
Entonces son un S.G. de V, lo que nos dice que todo vector de V pertenece a S, o sea, V C S,
es y, como por definicin de subespacio es S C V, resulta S = V.

www.FreeLibros.com

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

60

2.8. DIMENSION DE LA SUMA


2.8.1. Propiedad
Si S 4 y S 2 son dos subespacios de (V, + , K , .) y la dimensin de V es finita, entonces se
verifica que
dim (Sj + S2) = dim Si + dim S2 - dim (Si n S2)
Sean:

dim V = .

dimS,=

d i m ( s 1 n s 2) = p

d i mS2 = /2

d i m S ! + S 2 =q

Se trata de probar que


q

u + n" - f>

Consideremos S , O S 2 ^ j o ) y fx] = [X l , x 2 , . . xp ) una base de St n s 2 .


Teniendo en cuenta que Si n S2 es un subespacio de Sj y de S2, completamos la base [x
a una base en cada uno de stos.
Sean
{ x , , x 2 , . . . , x p>y I , y ; t ) . . . , y n ._J, J
I

x , x2 , . .

y
xp , z , , z2 , . . . , z p

Si y en S2 , respectivamente.
El conjunto
A = I X j, x 2 , . . Xp, y i , . . ., y n p , z , , , . ,
es una base de S i + S2 , pues:
I o. Ae s S. G. d e S ! + S 2 .
En efecto, sea v e Sj + S2 . Por definicin de subespacio suma es
v=x + y

xeSi

y eS2

Entonces

71 -p
v = ,?i X i + g
b y ' + M 'X +I . 2
( z ,=
P
n'-p
n"-p
^ . 2 (a + a \ ) x +
pi Y i + S
p. z .

2o. A es L.I.
Consideremos
i*

t*

.Sa.x.+ Z

t\ y

p ,y +

7Zi = 0

Entonces

www.FreeLibros.com

( 1)

| bases

DIMENSION DE LA SUMA

61

y n -P
2 y i z, que pertenece a S2 , tambin pertence a S i , o sea
n - p

TjZieSinSj

z=i
En consecuencia es
n "-p

t=i 7,' Z = / l i a

x*

O sea
p

n -p

2 oc' x { - 2
i=i
=i

y z = 0, y por la independencia lineal de la base de S2, se tiene :


a'i=

0 ,

y =

Teniendo en cuenta (1) es


p

-i

n '- p

0Ci x +

.2

i=i

P y i = 0

Luego
o = 0 , /3j = 0
Siendo A una base de Si + S2 , resulta
j r + ( n - j r ) + ( n -p )= < i
Es decir
q = n + n - p
Lo que se traduce en
d im (S i + S 2) = d i mSi + dim S2 - dim ( S ^ n S2)
2.8.2. Dimensin de la suma directa
Si Si y S2 son dos subespacios disjuntos de (V, +, K , .), entonces la dimensin de la suma
directa es igual a la suma de las dimensiones de S t y S2 .
En este caso es Si n S 2 = {0} , y en consecuencia, dim (Si n S2) = 0.
El teorema anterior es vlido tambin en esta situacin, y por consiguiente resulta
dim (Si S2) = dim Si + dim S 2
Ejemplo 2-24.
Determinar la dimensin de la suma de los siguientes subespacios de (R 3, +, R , .).
51 = (pe, y , z) e R 3 / x + y - z - 0 j
52 =

i (x ,y , z ) e R 3 / * ~ z = 0 )

www.FreeLibros.com

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

62

Sj y S 2 son planos y la dimensin de cada uno de ellos es 2.


Si n S 2 = { (x ,y , z ) e R 3 / x - z a y ~ 0
Todo vector de Si O S 2 es del tipo
(a,

0,

a) = a

(1,0,1)

Va eR

Luego
dim Si n S 2 "
En consecuencia
dim (S i + S 2) = 2 + 2 1 = 3
O sea
S, + S 2 = R 3

www.FreeLibros.com

TRABAJO PRACTICO ||

2-25. Expresar en cada caso, si es posible, al vector v como combinacin lineal de vt y v2. El
espacio vectorial es (R 2 , + , R , .).
i ) v = ( V 2 " , - l ) , V l = ( > / 3 , 2 ) , v2 = (

, 2)

) v = (2 , 4 ) , V! = ( - 1 , 3 ) , v 2 = (2, - 6 )
2-26. Comprobar que los vectores de R 3
V = ( - 1 , 3 , 1 ) va = ( 3 , - 1 , 1) y v 3 = ( 4 , 0 , 2 )
son linealmente dependientes, y expresar a v 3 como combinacin lineal de Vj y v2.
2-27. En (R 2 *3 , + , R , .) se consideran las matrices

Probar que son linealmente independientes.


2-28. l'siudiar la dcpendoiu-ui o iklepemlencu liin.\il de los vectores
V ! = 2 1/2 y

v2 = 3 1/4

en cada uno de los espacios vectoriales (R, + , R , .) y (R , + , Q, .)


2-29. Dados los vectores (1, - 4 , 6 ) , ( 1 , 4 , 4 ) y (0, - 4 , x ) , del espacio R 3 sobre el cuerpo de
los reales, determ inar* para que sean linealmente dependientes.
2-30. Demostrar que si a, b y c son tres nmeros reales distintos, entonces los vectores
(1, a, a 2) , (1, b, b 2 ) y (1, c, c 2 ) de (R 3 , + , R , .) son linealmente independientes.
2-31. En el espacio vectorial de las funciones reales definidas en R, se consideran las
funciones f, g y h, definidas por
f (f) = t 2 + 2 1 - 1 , g (?) = t 2 + 1 , h ( t ) - t 2 + t
Demostrar que son linealmente dependientes.
2-32. En el espacio vectorial (R r \ + ,R ,.) se dan las funciones f y g definidas por
f ( 0 = f . e ( 0 = j-

www.FreeLibros.com

64

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Probar que son linealmente independientes.


2-33. En ( R2, + , R , .), los vectores (a, b) y (<c , d ) verifican la condicin a d - b c 4 o
Demostrar que son linealmente independientes.
2-34. Determinar si los vectores ( 1, 1, 1), ( 1 , 1 , 0) y (0, 1, - 1 ) son linealmente independien
tes en (R 3 , + , R , .) y en (C3 ,
C ,.).
2-35. Sabiendo que v 1} v 2 y v 3 son vectores linealmente independientes del espacio
(V, + , K , .), investigar la dependencia o independencia lineal de los siguientes
conjuntos de vectores:
i

{ v, + V2 + >V3 , V2 + Cl> 3 , V3 )

ii) { V!, V2 + av 3 , v 3 + bv 2
donde a, b y c son elementos de K.
2'36. Sean:

| x , , x2 , . . ., x ) un conjunto L.I. de (V, + , K , .) y k e K .

es L .u ., entonces u es comoinacion lineal de la tamilia A.


2-38. Sabiendo que el conjunto A, a que se refiere el ejercicio anterior, es L.I. en (V, + , K, )
y que x n o e s combinacin lineal de dicho conjunto, entonces A U { x} es L.I.
2-39. Demostrar que si el conjunto A = j X l, x 2 , . .
se verifica que el vector X

x )

es L.I. en (V, +, K ,.), entonces

ix =0 .

2-40. Demostrar la independencia lineal de los vectores f ,, f2, y f 3 del espacio (R 1, +, R, .),
donde I es el intervalo cerrado de extremos 0 y 1 , sabiendo que

2siQ < x< l


fi (x) =

Osi < x < 1


3

0 s ix e [ ,11

f 3 (x) = 2 - x s ix e [0 , lj
2-41. Proponer una base en cada uno de los siguientes espacios vectoriales:
i ) (R, + , R , .)

iii) (R 2 x 3 , + , R , .)

i i ) (R 4 , + , R, .)

iv) ( C . + X , )

v ) (C, +, R, .)

2-42. Determinar el subespacio de (R 3 , + , R , .) generado por los vectores v, = (1, - 1 , 2),


v 2 = (0. 1, 1) y v 3 = (1 ,1 ,0 ) . O btener una base de dicho subespacio.

www.FreeLibros.com

TRABAJO PRACTICO II

65

2-43. Demostrar que los siguientes conjuntos de vectores de (R 3, + , R , .) generan el mismo


subespacio
A = ((1, 0 , - 1 ) , ( 0 , - 2 , 1))

B = j (1,-2,0),(2,-2,-1)|

2-44. Determinar una base y la dimensin del subespacio de matrices de traza nula de
(R 2 x2, + , R, .)
245. En (C2 , + , R , .) se considera el subespacio S = { (z, u ) e C 2 / z - 2u = 0 }
Obtener una base y la dimensin de S.
2-46. En ( R2x2, + , R, .) se considera S = ( A e R 2x2 / 12 (a n + a 22) = 0 }
Investigar si S es un subespacio, y en caso afirmativo obtener una base delmismo.
2-47. Investigar si S = \ ( z , u ) e C2 / z - J + u = 0} es un subespacio en (C2 , + , C , . ) y
(C 2 , + , R, .) Si lo es, determinar una base y la dimensin.
2-48. Determinar el subespacio S de ( R3, + , R , .) generado por los vectores ( 2 ,0 ,1 ) y
( - 1 , 0 , 1 ) . Hallar una base de S y su dimensin. Proponer un subespacio T que no
contenga a los vectores dados.
2-49. Dados los subespacios de (R 4 , + , R , .)
51 = { ( X

x , X 7 , X - i , X A )

5 2 = I ( X l , X 2 , X 3, X 4 ) / X i

x + X 2

- *

+ * 4 =0)

- x 2 - X 3 - x 4 =o)

Obtener la dimensin de S! + S2 .
2-50. Sea j v l(
v2 , . . vn )una familia de vectores de (V, + , K , .) y r < n . Por definicin, el
conjunto jV! , v 2, . . vr J es un subconjunto maximal de vectores L.I. si yslo si
i>r=> j V j, v2, . . . , vr, v* J es L.D.
Demostrar que si { V j, v2 , . . v} es un S.G. de V y { Vj, v2,. . vr} es un sub
conjunto maximal de vectores L.I., entonces ste es una base de V.
2-51. Demostrar que si V es un espacio de dimensin finita y V = Sj S2, entonces se
verifica que dim V = dim S x + dim S2 .

www.FreeLibros.com

C aptulo 3

TRA SFO R M AC IO N E S LIN E A LE S

3.1. INTRODUCCION
Exponemos en este captulo el concepto de trasformacin lineal entre dos espacios
vectoriales sobre un mismo cuerpo, las propiedades generales y los tipos especiales de
trasformaciones lineales. Se introducen las estructuras de ncleo y de imagen de una
trasformacin lineal y se da la relacin entre sus dimensiones. Fijada una base en cada
espacio, siempre en el caso finito, se determina la matriz asociada a una trasformacin lineal.
Despus del estudio de la composicin de trasformaciones lineales, se conecta este concepto
con el producto de matrices. Finalmente, se mencionan los espacios vectoriales de
trasformaciones lineales y el espacio dual de un espacio vectorial.

3.2. TRASFORMACION LINEAL ENTRE DOS ESPACIOS VECTORIALES


SOBRE UN MISMO CUERPO
Sean (V, + , K, .) y (W, + , K , .) dos espacios vectoriales sobre un mismo cuerpo K.
3.2.1. Concepto
La funcin / : V -*W es una trasformacin lineal u homomorfismo si y slo si
i ) l a imagen de la suma de dos vectores cualesquiera de V es igual a la suma de sus
imgenes en W
/(*+y)=/(x)+/(y)
ii)

la imagen del producto de cualquier escalar por todo vector de V es igual al producto
del escalar por la imagen de dicho vector.
f (a x) = a f (x)

www.FreeLibros.com

TRASFORMACiON LINEAL

67

Las condiciones i) y ii) se pueden reducir a la nica siguiente:


/ : V -*W es una trasformacin lineal si y slo si
f ( a x + 0 y ) = a / ( x ) + |3 /(y )
cualesquiera que sean a y 0 en K, y x e y en V.
El lector puede dem ostrar por induccin completa que si / : V -> W es una trasformacin
lineal, entonces se verifica que
/ ( J cc x () =
1=1

i= i

a f/(x )

cualquiera que sea n e N.


Esto nos permite afirmar que las trasformaciones lineales preservan las combinaciones
lineales.
Ejemplo 3-1
Sean los espacios vectoriales (R3 , +, R , .) y (R2 , +, R, .)
La funcin / : R3 -* R2 definida por
f ( x u x 2, x 3) = (Xt - x 3, x 2 - x 3)
es una trasformacin lineal, ya que se verifican las condiciones:

i ) f [ ( x i , x 2, x 3) + ( y1, y 2, y 3) ] = f ( x l + y u x 2 + ya , x 3 + y 3) =
= ( x i + y i ~ x 3 - y 3, x 2 + y 2 - x 3 ~ y 3)

(1)

por suma en R 3 y definicin d e /. Por otra parte, teniendo en cuenta la definicin d e /


y la suma en R2 , es

f ( x\ , x 2, X 3 ) + f ( y u V2 , y 3 ) = (xi - x 3 , x 2 - x 3)

+ O i

= (*1 - x 3 + V j - y 3, x 2 - x 3 + y 2 - y 3)

y 3, y 2 - y

3) =

(2)

De ( 1) y ( 2 ) se deduce que la imagen de la suma es igual a la suma de las imgenes.


ii)P o r

definicin de producto de escalares por ternas, definicin de / , propiedad

www.FreeLibros.com

68

TRASFORMACIONES LINEALES

distributiva del producto en R, producto de escalares por pares, y por definicin de


/ .e s
f [ c c ( x lt x 2, x 3) ] = f ( a x l , a x 2, a * 3) = (o:jct ~ a x 3, a x 2 - a x 3) =
= a ( x t - x 3, x 2 ~ x 3) = a f ( x 1, x 2, x 3)
0 sea, la imagen del producto de cualquier escalar por todo vector es igual al producto
del escalar por la imagen del vector.
Ejemplo 3-2.
La funcin / : R3 R 2 tal que / ( * , , x 2, x 3) = ( x t - x 3,x 2 - x 3 + 1) no es una
trasformacin lineal, pues
f [ ( x l l x 2, x 3) + ( y 1, y 2l y 3) ] = f ( x 1 + y i , x 2 + y 2 l x
= (*i + y i - x

3 + y 3) =

3 - y 3t x 2 + y 2 ~ x 3 - y 3 + 1 )

pero
f ( x i , x 2 , x 3) + f ( y u y 2, y 3) ^ ( x x - x 3, x 2 - X
= (* i ~ x

3 + 1) + (y x ~ y 3, y 2 - y 3 + 1) =

3 + y x - y 3, x 2 - x 3 + ^ 2 - y 3 + 2 )

Ejemplo 3-3.
Supongamos q u e / : R 2 -* R 3 es una trasformacin lineal que verifica
/ ( ! > 0) = (1, 2, 3)

/(O , 1) = (0, - 1 , 2)

Podemos obtener la imagen de (2, 3) de la siguiente manera


/ ( 2 , - 3 ) = / [(2, 0) + (0, 3)]= / [ 2 (1, 0) 4* ( - 3 ) (0, 1)] =
2 / ( 1 , 0 ) + ( 3 ) / ( 0 , 1) = 2 ( 1 , 2 , 3 ) + ( 3) (0 , - 1, 2 ) =
= ( 2, 4, 6 ) + ( 0 , 3 , - 6 ) = (2, 7, 0)
3.2.2. Propiedades y clasificacin de las trasformaciones lineales
Sea / : V - * W una trasformacin lineal. Denotaremos mediante 0V y 0W a los vectores
nulos en V y en W, respectivamente.
1 . La imagen del vector nulo del primer espacio por toda trasformacin lineal es el vector
nulo del segundo espacio.
Teniendo en cuenta que el producto del escalar 0 por cualquier vector es el vector nulo, y
la condicin ii) de la definicin de trasformacin lineal, se tiene
/ (0 V) = / (0 x) = 0/ (x) = 0 W
II. La imagen del opuesto de todo vector del primer espacio es igual al opuesto de su
imagen.

www.FreeLibros.com

PROPIEDADES

69

Considerando la propiedad I.3.4., y la definicin de trasformacin lineal, es


/ ( - X ) = / [ ( - l)x ] =
( - l ) / ( x ) = - /( X )
De acuerdo con la definicin, una funcin / : V W es una trasformacin lineal si y slo
si satisface las condiciones i) y ii), pero nada se exige a / , salvo que sea una aplicacin. En
particular diremos que
/ es un monomorfismo < */es inyectiva
/ es un epimorfismo *>f es sobreyectiva
/ es un isomorfismo o / e s biyectiva
Si W = V, entonces la trasformacin lineal / se llama un endomorfismo, y si ste es
biyectivo recibe el nombre de automorfismo. O sea, un automorfismo es toda trasformacin
lineal biyectiva de un espacio vectorial en s mismo.
Ejemplo 3-4.
La aplicacin / : R3 -> R 3 definida por
f ( x i , x 2, x 3) = {x2, - x u x 3)
es un automorfismo en R 3 .
Debemos probar que / es una trasformacin lineal biyectiva.
1 . / e s una trasformacin lineal, ya que verifica:

i ) La imagen de la suma es igual a la suma de las imgenes

f [ ( x \ > x i , x 3) + ( yl , y 2 l y?i) \ = f ( x l + y i , x 2 + y 2, x 3 + y 3) =
= (*2 + y 2, - * i ~ y l t x 3 + y ) = ( x 2, - x u x 3) + ( y 2, - y l t y 3) =
= f ( X i , x 2l x 3) + f ( y l l y 2l y 3)
ii) La imagen del producto de cualquier escalar por todo vector es igual al producto
del escalar por la imagen del vector.
f [ a ( X t , x 2, x 3) ] = f ( a x i , a x 2, a x 3) ~

(<*x2, - a x u u x 3) =

~<x (x 2l - x , x 3) = a f ( x u x-2, x 3)

2 . f e s inyectiva.
Sean (* ], x 2l x 3) y { y {, y 2, y 3) en el dominio, tales que
f ( x i, x 2, x 3) = f ( y f y 2, y 3)
O sea

(x2, - x, x 3)= (y2l - y i, y 3)


Por lo tanto es
x -2 = y 2 , *1 = V, , x 3 = y 3

www.FreeLibros.com

70

TRASFORMACIONES LINEALES

Luego
( x , x 2, x 3) = ( y l , y i , y 3)
3. f e s sobreyectiva.
Cualquiera que sea (a, b, c) en el codominio, existe ( - b, a, c) en el dominio, tal que
/ ( -b , a, c) = (a, b, c)
Queda probado as que f es un autom orfism o en R 3. La trasformacin lineal/puede
interpretarse como una trasformacin del espacio en s mismo que corresponde ana
rotacin de 90 alrededor del eje x 3 .

Ejemplo 3-5.
1. La funcin / : V W que asigna a todo vector de V e l vector nulo en W es una
trasformacin lineal, pues
/ ( x + y) = 0 w = (V + 0 w = / ( x ) + / (y)
/ ( x ) a O w - 0w a / ( x )
f se llama trasformacin lineal nula.
2. La f u n c i n /: V -> V tal que / (x) =ax cualquiera que sea x e V, y a un escalar dado
en K, es una trasformacin lineal.

www.FreeLibros.com

PROPIEDADES

71

En efecto:
f (x + y ) = a ( x + y ) = a x + a y = / ( x ) + / ( y )
f (a x) = a (a x) a (a x) = a / (x)
La trasformacin lineal / as definida se llama homotecia de razn a.
Ejemplo 3-6.
Sea/ : R 2 - >R 2x2 definida por

/ es una trasformacin lineal, pues


f [ ( a . 6 ) + ( c , d)) = / ( + c , b + d)

a+c+ b + d
0

a+b+c+d

/ n o es inyectiva ni sobreyectiva.
Ejemplo 3-7.
Si (V, +, R , .) denota el espacio vectorial de los polinomios reales en la indeterminada
X, entonces la funcin
/ : V -* V,

www.FreeLibros.com

72

TRASFORMACIONES LINEALES
trasfoTmacin lineal, pueT"*0 *

V *

P r e m i o derivado, es una

/ ( P + Q ) = (p + Q ) p . + q , ^ / ( p ) + / ( Q )

f { a ) = {ay = a?' =af ( V)


El endoinorfismo / no es inyectivo.

3.3. NUCLEO E IMAGEN DE UNA TRASFORMACION LINEAL


Consideremos una trasformacin lineal / : V - W.
3.3.1. Concepto de ncleo
cuerpo^es

del codominio.

VeC*riaks

d0mmi CUyaS inia^enes P / s o n el vector nulo

El smbolo N (f) se lee ncleo de f. Por definicin es


N ( / ) = j x e V / / ( x )= 0
El ncleo de toda trasformacin lineal es la
p re imagen del vector nulo del segundo
espacio. O sea

K ( j ) = f l ( ( 0 W| )
Por definicin, un vector perteneciente a V es un elemento del ncleo si v slo
imagen es el vector nulo de W.
y so!o SJ su
x e N (/) ^ / ( x ) = Ow

www.FreeLibros.com

NUCLEO

73

Ejemplo 3-8.
Determinamos el ncleo de la trasformacin lineal definida en el ejemplo 3-1.
N ( 0 = { (x 1, * 2 , x 3 ) e R 3 / / ( * ! , *2 l x 3) = ( 0 - )
Se tiene
(*i.

e N ( f ) o f ( x u x 2, x 3) = ( 0 , 0) <>

^ (*1 ~ * 3. *2 - * 3) = (O , 0) O X j - JC3 = O A x 2 - *3 = 0 o
^ X i =X i = x 2 =a
Luego
N (/) = ( ( a , a , a ) a e R )
Por definicin de ley de composicin extem a en R 3 se tiene
N(/)={fl(l,l,l)/eR|
Esto nos dice que el ncleo de / es el conjunto de todos los mltiplos escalares del
vec t or ( l , 1, 1). La representacin d e l N ( / ) e s t dada en el grfico siguiente

Volviendo a la definicin de ncleo de una trasformacin l i ne a l / V -> W, observamos que


NO)C V
Por otra parte, de acuerdo con 3 .2 .2 .1., es
/ ( 0 V) = 0 W
En consecuencia
Ov e N ( / )
Luego, el ncleo de toda trasformacin lineal / es novaco.

www.FreeLibros.com

TRASFORMACIONES LINEALES

74

3.3.2. Propiedad del ncleo


El ncleo de toda trasformacin lineal entre dos espacios vectoriales es un subespacio del
primero.
Hiptesis) f : V -* W es una trasformacin lineal.
Tesis)

( N (f), + , K, . ) es un subespacio de (V, +, K, .).

Demostracin) Ya hemos visto que el ncleo de toda trasformacin lineal entre dos
espacios vectoriales es una parte no vaca del dominio. De acuerdo con la condicin
suficiente, demostrada en 1 .8 .2 ., falta demostrar:
1. N (/) es cerrado para la suma.
Sean x e y dos vectores cualesquiera de N (/).
x e N ( / )A y e N ( / ) = > /(x ) = 0 W
=>x + y e N (f)

/ ( y ) = Ow =>

=>/'(x +y)== 0 w =>

Por definicin de ncleo, suma en W, definicin de t rasformacin lineal y definicin de


ncleo.
2. N (f) es cerrado para el producto por escalares.
Sean a e K y x e V

a e KAx e V=> a e KA/( x ) = Ow

s> a f ( x ) =

a ) ^ =

= /(a x) = 0W ^ a x e N (/)
Por definicin de ncleo, producto de escalares por elementos de W, definicin de trasformacin lineal, propiedad 1.3.2. y definicin de ncleo.
3.3.3. Concepto de imagen
Imagen de una trasformacin lineal / : V -+ W es el conjunto imagen del dominio, o sea, es
la totalidad de las imgenes de los vectores del primer espacio.
El sm bolo I (/) se lee: imagen de f.
I</)={/(x)/xeV|
Tambin
1(0=1 y W / 3 x e V

/(x ) = y j

www.FreeLibros.com

IMAGEN

75

Sabemos que f (0V) ~ 0W. En consecuencia, 0 W e I (f), lo que significa que


1 (0 * 0

Adems, de acuerdo con la definicin, es


I(/)C W

3.3.4. Propiedad de la imagen


La imagen de toda trasformacin lineal entre dos espacios vectoriales es un subespacio del
codominio.
Hiptesis) / : V - W es una trasformacin lineal.
Tesis)

f I (f), + , K , . ) es un subespacio de (W, + , K, .).

Demostracin) Sabemos que la imagen de toda trasformacin lineal entre dos espacios
vectoriales es una parte no vaca del segundo. Teniendo en cuenta la condicin suficiente
para la existencia de subespacio, probaremos:
1 . I (/) es cerrado para la suma.

Sean u y v dos vectores de (/).


u e I (/) a v e I ( / ) ^ 3 x ^ y e n V / / ( x )= u a / ( y ) = v =>
= > /(x) + / (y) = u + va x e V a y e V ^
= > /(x + y) = u + v a x + y e V ^ u + v e l ( / )
Hemos aplicado la definicin de imagen, de trasformacin lineal y de imagen.
2 . I (f) es cerrado para el producto por escalares.

Consideremos a e K y u e I (f)
a e K a u e I (/) => a e K a / (x) = u a x e V =>
=> a / (x) = a u a x e V = > / ( a x ) = a u a a x e V = >
=> a u e I (f)

www.FreeLibros.com

TRASFORMACIONES LINEALES

76

magen> P r dUCt0

W>

trasformacin

Ejemplo 3-9.
* '* ma8en "* " trasformaci" lta^ / : 2R- R 2 * 2 definida

eDe7eT em pto31
1.

N ( / ) =(x\,
| x 2) R . 2 / f ( x l , * 2) = N}
/O
( ^ i , x 2 ) e N ( / ) / ( XliJCjj = J

0 \

\0
xi

+ *2

0 /

/O 0 \
+ x 2 = 0^

,
)=
J
x , +x 2f
\0 o /

* x t = -x

Luego

N (J) = f ( - a, a ) / a e R )
o sea, ei ncleo de / es el conjunto de los pares ordenados de componentes opuestas.

1 0 ) = |A e R 2 / / ( * , . * 2) = A}
A=

(c

*i

e I W <>3 f e . ^ ) e R 2 / / ( I l | ! ) = A
ja

b\

] =[
x x + x 2 I \c

d J

+ * 2 = a= d

b=c=O

Luego a (f) pertenecen las matrices del tipo


a

\0

Ejemplo 3-10.
Dada la trasformacin lineal del ejemplo 3-9, determinamos las dimensiones de N (/) e

www.FreeLibros.com

NUCLEO E IMAGEN

77

1. Hemos visto que


N (0 = (-a , a) / a e R
Teniendo en cuenta la definicin de ley de composicin externa en R 2 , es
N(/)= (-1, l) / e R l
Esto significa que N (f) est generado por el vector ( - 1 , 1), es decir, este vector
constituye un sistema de generadores del ncleo. Adems es linealmente independiente
segn 2.4.3. i). Por consiguiente, { ( - 1 , 1) } es una base del ncleo.
Entonces
dim N (f) = 1
2. Como

podemos escribir, por definicin de producto de escalares por matrices:

O sea, la matriz

es un sistema de generadores de I (/), y adems linealmente independiente. En


consecuencia, constituye una base.
Luego
dim I ( 0 = 1
3.3.5. Ncleo de un monomorfismo
Una trasformacin lineal / : V -> W es inyectiva si y slo si el nico elemento del ncleo es
el vector nulo del dominio.
1. Sea / : V -> W un monomorfismo. Debemos probar qu e N (f) = { 0 V |

Ov eN

(f)=>

{0V( CN(/) (1)

www.FreeLibros.com

TRASFORMACIONES LINEALES

78

Sea x e N (J). Se tiene


x e N ( j ) = > f ( x ) ~ O w = f ( O v )=>x = Ov

=>xe j 0V}

Por definicin de ncleo, 3.2.2. 1. y por ser/ inyectiv a.


Entonces
N ( 0 C |0 V

(2)

De (1) y (2) resulta


N ( 0 = | 0 V)
2. Sean / : V -> W una trasformacin lineal y N (f) = ( Oy )
Para demostrar que / es inyectiva consideremos dos vectores cualesquiera x e y en V, tales
q u e /( x ) = / (y).
Ahora bien, por suma en W, definiciones de trasforma cin lineal y de ncleo, por
hiptesis y suma en V, se tiene
/ ( x ) =/ ( y ) ^ / ( x ) - / ( y ) O
- w =* / ( x y) = 0 W =>
^x-yeN C O ^x-y^O v^x^y
O sea, basta que el ncleo tenga un nico elemento para que la trasformacin sea
inyectiva.
Ejemplo 3-11.
La imagen de cualquier conjunto linealmente dependiente, por toda trasformacin
lineal, es linealmente dependiente.
Sea / : V W una trasformacin lineal,y { Vi, v 2 , . . vr } un conjunto linealmente
dependiente en V. Debemos probar que { / (v ^ , / ( v 2) , . . . , / ( v r) } es linealmente
dependiente en W.
En efecto, por definicin de dependencia lineal se verifica que
r
3 i l .2 a v -

0 V a c tj i= 0

Aplicando / es
/ ( .2

^ v ^ /O M a ^ O

Por s e r / u n a trasformacin lineal y por imagen del vector nulo se tiene


r

2 O!|/(Vi) = 0wA
1=1
En consecuencia
/ ( V i ) , / ( V2 ) , . . . , / ( v r)
es linealmente dependiente.

www.FreeLibros.com

IMAGEN

Ejemplo 3-12.
Si / : V -*W es una trasformacin lineal y V i, v2, . . -, vr son vectores de V tales que
sus imgenes constituyen un conjunto linealmente independiente en W, entonces
v , , v2 , . . . , vr son linealmente independientes.
En efecto., consideremos una combinacin lineal, con escalares a determinar, de los
vectores Vj , v2 , . . vr, que sea el vector nulo de V
r

i 1

a, v,- = 0 V

Entonces, por definicin de funcin, es


/ ( S a f v) = / (O v )
i=i
Por s e r /u n a trasformacin lineal y por imagen del vector nulo, se tiene
.2

i= i

i / (Vf) = 0 W

Como los v ecto res/(v ,), /= 1, 2 ,. . r s o n linealmente independientes en W, resulta


ot, = 0 V / = l , 2 , . . . , r
Luego
Vi , v2 f . .

vr

son linealmente independientes en V.


Ejemplo 3-13.
La imagen de todo conjunto linealmente independiente, dada por cualquier trasforma
cin lineal inyectiva, es un conjunto linealmente independiente.
Hiptesis) / '. V-> W es una trasformacin lineal 1-1.
{ Vj, v2 , . .

vr ) es L.I. en V.

Tesis) ( f (yi \ f (v2) , . . . , / ( v ,) es L.I. en W.


Demostracin) Sea
.J 1 /( v ) = 0 w
Por ser / una trasformacin lineal es
/ ( 2 ai v,) = 0 w
1=1

Por definicin de ncleo se tiene

www.FreeLibros.com

TRASFORMACIONES LINEALES

80

Y c o m o /e s inyectiva, el ncleo se reduce al vector nulo de V, o sea


r

.2 ,

= 0V

Aplicando la definicin de independencia lineal a los vectores de la hiptesis es


a = 0 V - 1 , 2, . . . , r
En consecuencia
/ ( V l ) , / ( v 2), . . . , / ( v r)}
es un conjunto linealmente independiente.

3.4. DIMENSIONES DEL NUCLEO Y DE LA IMAGEN


La trasformacin lineal / : R2 ^ R 2 * 2 , estudiada en los ejemplos 3-9 y 3-10, verifica
dim N (/) = 1

dim I (f) = 1

O sea
dim N (/) + dim 1 (/) = 2 = dim R 2
Este hecho se verifica cualquiera que sea la trasformacin lineal definida en un espacio
vectorial de dimensin finita.
Propiedad
Si (V, + , K , .) es un espacio vectorial de dimensin finita y / : V - > W es una
trasformacin lineal, entonces la suma de las dimensiones del ncleo y de la imagen es igual a
la dimensin del primer espacio.
Hiptesis) / : V - W es una trasformacin lineal
dim V = n
Tesis) dim N (f) + dim I (f) ~ dim V
Demostracin)
1 . I (f) tiene dimensin finita

Sabiendo que cualquier base de V es finita, se deduce que I (f) tiene dimensin finita. En
efecto si I w , , w 2 , . . wr } es un conjunto L.I. en I {/), entonces existe un conjunto L 1
en V :( vj , v 2, . . vr j tal que
/(v ) = w

i = 1 , 2 , .. .,r

de acuerdo con el ejemplo 3-12. Esto significa que si 1 (f) no tuviera dimensin finita
entonces V no tendra dimensin finita.
2. Sea ( x , , x2 , . . xp ) una base de N (J).
S i n - p , entonces N (/) = V y dim I (f) = 0, pues en este caso es I (f)= j 0W J .

www.FreeLibros.com

81

DIMENSIONES DEL NUCLEO Y DE LA IMAGEN

Si p < , entonces, por el teorema de extensin, existen y , , y2 , . .

ys en V, tales que

A_ | xj,Xj, . . Xp,yi, y2, - -,ys }


es una base de V.
V

Se tiene p + s = n, y el teorema se reduce a probar que dim I (f) - s.


Consideremos las imgenes de los vectores y i , y2 ,. . ., ys. Sean stas
Z /= /(y ) c o n / = 1 , 2 ,

( 1)

Demostraremos que | z , z 2 , . . zg } es una base de I {/). En efecto:


i)

( z ! , z 2, . . . , zs ) es L.I.

Sea

=i

a Z =

P o r (1)
. 2 a f ( y ) = *>w

a y ; ) = w ^

y. e n ( o =>

=>2^ a y = 2 j3;-Xj =* 2^ (3;-x;- - 2^ ot y = 0 V => (3,- = 0

ii)

= 0 V V/

I z l , z 2, . . ., z s } es S.G. de l ( f )

Sea z cualquier vector de I (f). Por definicin deconjunto imagen se verifica


z e I ( 0 = > 3 x e V / / ( x ) = z ^ z = / ( x ) a x = 2 a x + . 2
P

www.FreeLibros.com

13, y =

82

TRASFORMACIONES LINEALES

En i) hemos tenido en cuenta q u e /e s una trasformaci n lineal, la definicin de ncleo, la


base de ste, suma en V, y el hecho de que A es una base de V.
En ii) hemos expresado a x como combinacin lineal de la base de V, se ha tenido en
cuenta que / es una trasformacin lineal, que todo x es un elemento del ncleo, y que el
producto de cualquier escalar por el vector nulo es el vector nulo.
Queda demostrado entonces que
dim N (f) + dim I (f) ~ dim V
Ejemplo 3-14.
Consideremos la trasformacin lin eal/: R4 -R 2 definida por
f ( x u x 2, x 3, x 4) = ( x l - x

2 - x 3 + * 4 ) 0)

Determinamos:
1. El N (/), una base del mismo y su dimensin
(* i, * 2 . * 3 , * 4 ) e N /)*/(*,, * 2l x 3, * 4) = ( 0 , 0 ) o
o (* i ~ x

2-

* 3 + x 4 , 0 ) = (O, 0 ) o Xl - x 2 - x 3 + x 4 = 0 o

ojcj ~ x 2 + * 3 - * 4
En consecuencia, los vectores del ncleo .son del tipo (a + b - c, a, b, c), y por
definicin de suma en R 4 y producto de escalares por cuaternas, se tiene
(a + b - c , a , b, c) - (a, a, 0 , 0 ) + (b, O, b, 0 ) + ( - c , O, O, c) ~
= a ( 1 , 1, 0 , 0 ) + 6 ( 1 , O, 1 , 0 ) + c ( - 1 , O, 0 , 1 )
O sea, los vectores
V ! = ( l , 1, 0 , 0)

v2 = ( 1 , 0 , 1 , 0 )

v 3 = ( - 1 , 0 , 0 , 1)

son un sistema de generadores de N (f). Adems, son linealmente independientes y por


lo tanto constituyen una base del mismo. Luego
dim N (f) = 3
2. Una base de I (f).
De acuerdo con el teorema anterior es
dim N (f) + dim I (/) = 4
O sea
dim I (f) = 1
Entonces, toda base de 1 (J) tiene un nico vector.
Como
1 ( f ) = f (o ~ b - c + d , 0) / a , b , c y d e R

se verifica que

www.FreeLibros.com

TEOREMA FUNDAMENTAL

O . y i ) e I (f)

83

O , y i ) = (a - b - c + d , 0 ) o

^ (y 1 , y 2 ) = (a , 0 ) + ( - b , 0 ) + ( - C , 0 ) + ( d , 0 ) o
( yi . >a) = ( l , 0 ) - ( l , 0 ) - c ( l , 0 ) + d ( l , 0 ) o
^ 0 1 . ^ 2 ) = ( a - 6 - c + c ) ( l , 0 ) o ( y l i ^ 2 ) = 0 ( i , 0 )
Luego
( 1 , 0 ) es una base de I (f).
En consecuencia
dim I (/) 1

3.5. TEOREMA FUNDAMENTAL DE LAS TRASFORMACIONES LINEALES


Sean (V, + , K , .) y (W, +, K , .) dos espacios vectoriales y [v]= jv j , v 2 , . . v ) una
base de V. Si W j, w2 , . . wn son n vectores cualesquiera de W, entonces existe una ni ca
trasformacin lineal / : V W tal que f (v,) = w,- V/ = 1 , 2 , . . . , n.
Hiptesis) (V, 4-, K , .) y (W, +, K , .) son espacios vectoriales
[v] = { v , ,v2 , . .

vn | es una base de V

cw
Tesis) Existe f : V -W trasformacin lineal nica, tal que / (v ) = w, Vi = 1, 2, . . ., n
Demostracin) Sea cualquier vector x e V. Entonces existen y son nicos los escalares o!,
a 2 , . . 0n , tales que
n

X= 2

=1

di V;
'

ya que todo vector del espacio puede expresarse de m odo nico como combinacin lineal de
los vectores de la base, segn 2.4.2.
Definimos

f : V -*W

mediante

/ (x) = 2

1=1

cc wf

La asignacin (1) caracteriza a / como una funcin de V en W.


Necesitamos probar las siguientes afirmaciones:
1.

/ e s una trasformacin lineal

Si x e y son dos vectores cualesquiera de V, y a e K, entonces


n
x = ? i ai v<

n
A

www.FreeLibros.com

84

TRASFORMACIONES LINEALES

y se verifica
i ) / ( x + y ) = / ( | aiV +
= .2

, w( + |

") r x > =/( g

(a+ft)v) = |

( a, + WW( =

ft w , = / (x ) + / ( y)

v,) = / ( . 2

C / ) W , - t t S

2 . / - 1, 2 , . .

= > /(v .) ^ w .

f tv ,) = / ( |

(aa,.) v , ) =

ttW = / ( * )

En efecto
vf = 0 v, + . . . + o vM + j v . +

Luego

f(y ) = 0 w, + . . . + o wM

+ 0

+ 1 Wi + . . . + o W)j =

= 1 wf = w,
3. Bajo la co n d ici n /(v ,) = w,. / e s nica.
S ig : V -> W es una trasformacin lineal tal que g (y.) - w . y / = 1 ?
& \ o wt, vi
i , / , . . . , n, entonces
g ( x ) = g ( . , V) = . aig (V)
" A a i f (y)

a . w. =

/| 1a v, ) - / ( X)

cualquiera que sea x e V.


Luego

del primero.

neal sobre
entre cualquier
dos
determinada poi los valores que toma
base

Ejemplo 3-15.
Definimos la trasformacin lineal / : R3
R 2 0hp 1tion,
i
O 1 . 1) , (1 1 0 )
(i 0 r 3 ,
q
gna a los vect res de la base
/v.
en R , losvectores (T 2) ( \
v ( i n
2
respectivamente.
y ( - 1 , 1) en R 2,
Necesitamos determinar la imagen de un vector genrico (a b
este como combinacin lineal de la base dada

www.FreeLibros.com

p
' A s a mo s a

PRODUCTO DE MATRICES

(a,b,c)=

85

a , ( 1 , 1 , \ ) + a 2 ( 1, 1 , 0 ) + o3 ( 1 , 0 , 0 ) -

= (<*i + a 2 + a 3 , a , + <x2 , ctj) =>


^

= c , ot2 = b c , a 3 = a -- b

Entonces
( f f , , c ) = c ( l , 1 , 1) + (> - c ) ( l , 1 , 0 ) + (a - b) ( i , 0 , 0 )
f ( a , b , c ) = c ( 1,

2) +

= ( c>2 c) + (b

- c) ( 1, 2)+
c, 2b 2 c)

>) ( 1, | ) =

+ (a + b, a b) =

= (2 b - a , b + a )

3.6. PRODUCTO DE MATRICES


Sean las matrices A e Kmxjs y B e K p x". Llamaremos producto de las matrices A y B en
ese orden, a la matriz C cuyo elem ento genrico c u es la suma de los productos d e los
elementos de la fila i de A, por los correspondientes elementos de la columna / de B.
Escribiremos
C = AB
donde
c = *i b u + a i2 b 2j + . . . + aip bpj
O sea
c

a k b h}

cualesquiera que sean /' =1 , 2 , . . ., m y / = 1 , 2 , . . . n.


De acuerdo con la definicin, para que dos matrices se puedan multiplicar, el nmero de
columnas de la primera debe ser igual al nm ero de filas de la segunda.
Por ejemplo, si

- 2 /

'0 - 1

1 -2

--I

entonces

www.FreeLibros.com

86

TRASFORMACIONES LINEALES

Si A es la misma que en el caso anterior y B =


entonces
AB = I

0 -1 \

2 -2 /

f-2 \
2
\ 3 /

i -5
\ -4

En ninguno de los dos casos existe BA


En particular, si m = n, los elementos de K " xn se llaman matrices cuadradas y se verifica
que (K 'IXrt, + , .) es un anillo no conm utativo, con divisores de cero y con identidad. El tema
est tratado en el captulo 9 del texto Algebra I ya citado, y se estudiar en detalle en el
captulo siguiente.
El elemento unidad o identidad en Knxn es la matriz I definida por
aj = 1 si / = /

c y =0 si /=/

y verifica
Al = IA

cualquiera que sea A e K nx",

3.7. MATRIZ ASOCIADA A UNA TRASFORMACION LINEAL


Consideremos una trasformacin lineal / : V W, entre los espacios V y W de
dimensiones finitas n y m , respectivamente. Probaremos que si se fija una base en cada
espacio, entonces la trasformacin lineal / queda caracterizada por una matriz del tipo mx n,
que llamaremos matriz de la trasformacin lineal respecto del par de bases dado.
Sean entonces
[v] = | V j, 2v , . . ., vn ) una base de V

y
[w] = ( w , , w2 , . .

w m I una base de W

Si x es cualquier vector de V, por ser [v] una base, existen escalares a , , a 2>-,a n>
nicos, tales que
x = ^

a i vi

0 )

Tales escalares caracterizan a x respecto de la base de V, y segn vimos en 2.6.2. se llaman


las coordenadas de x respecto de dicha base. Podemos escribir

www.FreeLibros.com

MATRIZ DE UNA TRASFORMACION LINEAL

87

Si la imagen de x e V es y e W, se tiene

y= /(x )
Como y es un vector de W, puede expresarse de m odo nico como combinacin lineal de
la base [w], o sea
m
y = . 2 a ,w , (2 )
donde a i , a 2, . .
consecuencia

a m son las coordenadas de la imagen de x, respecto de la base [w].En

Por el teorema fundamental de las trasformaciones lineales, / queda caracterizada


unvocamente por los valores que toma sobre cualquier base de V. O seaes suficiente
obtener lasimgenes, por / , de cada vector de la base [v].Ahora bien, para cada
/ - 1,2,...,
e W, y por consiguiente puede expresarse como combina cin lineal de la
base [w].
O sea
m

f(vj) =

.2

aj

W( (3) V/ = 1, 2, ..

Asignamos a cada escalar aj un doble subndice; el primero, asociado a cada vector de la


base { W i, w2 , .. w m ) , y el segundo, en correspon dencia con el vector de la base fvl
As
/(vi) = a u

wi + f l 2i w2 + . . . + a ml wm

f (y-i) ~ a n

w 1 + ^ 2 2 w2 + .

f (vn)

+ a mi wm

n Wx + a2n w 2 -K . . + a mn wm

Los n.m escalares au , que figuran en las combinaciones de los vectores que son imgenes
de los elementos de la base de V, constituyen una m atriz cuya traspuesta, que denotamos
con A, recibe el nombre de matriz de la trasformacin lin eal/resp ecto de las bases [v] y [wj.
O sea

www.FreeLibros.com

88

TRASFORMACIONES LINEALES

La matriz de la trasformacin lineal es del tipo m x n , donde m es la dimensin del


segundo espacio y n la del primero.
Por consiguiente, para hallar la m atriz de una trasformacin lineal f respecto de una base
en cada espacio, se determinan las imgenes dadas por / de los vectores de la base del primer
espacio. Se expresan estas imgenes en trminos de la base del segundo espacio, o sea, como
combinaciones lineales de los vectores de la segunda base. La traspuesta de la matriz de
coeficientes es la matriz de la trasformacin lineal respecto de las bases dadas en ambos
espacios.
Probaremos ahora si A es la m atriz de la trasformacin lineal f , respecto de las bases [v] y
[w], y si X[vj denota la matriz columna correspondiente al vector x e V, cuyos elementos
son las coordenadas de ste respecto de la base de V, entonces la imagen de x , expresada en
trminos de la base de W, se obtiene premultiplican do por A al vector columna X[v], o sea
/ ( x ) = A X[v) = Y[wj
En efecto, dado x e V, es

=2

(!)

aJ

y /(x ) = y = 2

a i

w, (2)

En consecuencia, teniendo en cuenta (1) y la definicin de trasformacin lineal, es


f(*)=f

<Xj vy) = 2

aj f (v;)

Por (3) resulta


n

f (x) = ;2 aj 2 ^ aj w
Introduciendo ot en la segunda sumatoria, por ser constante respecto del ndice i, y
permutando las dos sumatorias, se tiene
n

/O O ^ . S

a aj w,- = ,2 ^ 2

a) w

(4)

De (2) y (4), por la unicidad de la combinacin lineal que expresa a f ( x ) entrminos de


la base [w], es
n

otj

Se deduce de esto que la i-sima fila o com ponente de Y [ w j, o sea


es igual a la suma de
los productos de los elementos de la fila i de A por los correspondientes elementos de la
nica columna de X[vj, y por la definicin de producto de matrices resulta

www.FreeLibros.com

MATRIZ DE UNA TRASI ORMACION LINEAL

a >.. " . 2

a i

<*i2

. ain

ai\

<a{

/2

On, /

am I a m 2 &ntnJ

89

O bien

Reiterando lo enunciado, afirmamos que la imagen de cualquier vector del primer espacio
es igual al producto de la m atriz de la trasformacin lineal por la matriz de coordenadas de
dicho vector, respecto de la base [v].Tal imagen resulta expresada en trminos de la base del
segundo espacio.
Ejemplo 3-16.
Consideremos la trasformacin lineal / : R3 -> R 2 tal que
f ( X \ , X 2 , JC3 ) ( # 1

J 3 )

( 1)

1. Determinamos la matriz de f respecto de las bases


M = | (1 , 1 , 1 ) , ( 1, 1 , 0 ) , ( 1 , 0 0 )}

enR 3

[ w ] = | 2(, 0 ) , ( 0 , 1) |

en R 2

Mediante (1) obtenemos las imgenes de los vectores de la base [v], y expresamos
dichas imgenes como combinaciones lineales de los vectores de la segunda base
/ ( 1 , 1 , 1 ) = ( 2 , 0 ) = 1 ( 2 , 0 ) + 0 ( 0 , 1)
/ ( l f 11 0 ) = ( 1 , 1) = (2 , 0 ) + 1 ( 0 , 1 )
/ ( 1 , 0 , 0 ) = ( 1 , 0 ) =_~ ( 2 , 0 ) + 0 ( 0 , 1)
Se tiene

2 ~2

0 1 0

A es la matriz de la trasformacin lineal / , respecto de las bases [v] y [w].


2. Utilizando la matriz A, obtenemos la imagen de x = (1, 2, 3).

www.FreeLibros.com

90

TRASFORMACIONES LINEALES

Para ello es necesario determ inar las coordenadas de x respecto de la base en R 3, o sea,
a i >a2 y a 3 tales que
( 1 , 2 , 3 ) = *! ( l . l . O + a a ( 1 , 1 , 0 ) + a 3 ( 1 , 0 , 0 ) =
= ( a, + a2 + 0 :3 , 0 :, +<x2, (*
Resulta
a i = 3 , a2 = - 1

, a 3 = -1

Entonces

Su imagen es

/ l \

Los escalares 2 y

l son las componentes d e / ( x ) respecto de la base [w].

Si aplicamos directamente / a la tem a (1, 2 ,3 ), se tiene


/(1 > 2, 3) = (4, - 1 )
Expresando esta imagen como combinacin lineal de la base [w] es
(4, 1) = 2 (2, 0) + (--1) (0, 1)
Ejemplo 3-17.
Obtenemos la m atriz

de

la

trasformacin

jx i

lineal / : R2 *2 - +R

x2\

\ x3

(*1

+ * 4 , X 2 - X 3)

x j

respecto de la base cannica en ambos espacios.


Las imgenes delos vectores de la base cannica de R 2 * 2 son
/

(
'0

'0

0/

0/

) = (1 , 0 ) = 1 ( 1 , 0 ) + 0 ( 0 , 1)

) =(0,1) = 0 ( 1 , 0 ) + 1 ( 0 , 1 )

www.FreeLibros.com

definida

por

MATRIZ DE UNA TRASFORMACION LINEAL

f
\1

0 /

\0

1/

= ( 0 , - 1) = 0 ( 1 , 0 ) + ( - 1) ( 0 , 1)

= (1 , 0 ) = 1 ( 1 , 0 ) + 0 ( 0 , 1)

Resulta

/I

\ 0

1 1

Ntese que, en el caso de la base cannica, los coeficientes de la combinacin lineal


son los elementos de la matriz, o las componentes del par.
As, la matriz
P=

/2
' i

-i

es un vector de R 2 * 2 cuyas coordenadas, respecto de la base cannica


[v] ~ { E n , E j2 , E2i , E 22 } , son 2, 3, 1 y 1. De m odo tal que la matriz puede
expresarse as

Su imagen p o r /, utilizando A, es

/ ( P ) A P (V] = / 1
\0

Tal imagen resulta expresada en la base cannica de R 2 y se identifica con la que se


obtiene al aplicar directamente la definicin d e /. As

| ^

j =( 2 - l , - 3 - l ) = ( l , - 4 )

www.FreeLibros.com

91

TRASFORMACIONES LINEALES

92

3.8.

COMPOSICION DE TRASFORMACIONES LINEALES

Sean / : V - > U y g : U - * W
compuesta

dos trasformaciones o aplicaciones lineales. La funcin


/ : V- W

se define como en 4.6., Algebra I, o sea

( 0/) ( x ) = [ /( x )]
Demostramos que la composicin de dos trasformaciones lineales en las condiciones
dadas, es una trasformacin lineal.
En efecto:
1- ( f f / ) ( x + y ) = * | / ( x + y ) ] ^ [ / ( x ) + / ( y ) ] -

=8 |/ ( x ) ] +g [/(y )] =(g o J) (X) + (g o f ) ( y )


2- f e / ) ( M ) ^ [ f ( a x ) ] = g [ a / ( x ) l = f t [ f ( x )] =

a (S f ) (x)
Hemos aplicado sucesivamente la definicin de composicin, las hiptesis ( f y g son
trasformaciones lineales) y la definicin de composicin.
Ejemplo 3-18.
Consideremos las trasformaciones lineales
/ :R 3

g :R

R2

definidas por
f ( x lt x 2 , x 3) = x 1 - x 2 + X3

g ( y ) = (y 0 )

Determinamos el ncleo de g f . Para ello caracterizamos primero la ley de asignacin,


utilizando la definicin de composicin

f e 0 / ) ( ^ 1 ^ 2 , ^ 3 ) = ( / ( x 1, X 2 , X 3 ) ] - ^ ( x 1

= (x\ - x

+ X 3) =

2 + x 3 , 0)

Por definicin de ncleo, se tiene


( Xi , x 2 l X 3) e N f e o / ) o ^ o / ) ( Xl i X2 ) ^ 3) = (0) 0 ) o
^ ( * 1 - * 2 + x 3 >0 ) = ( 0 , 0 ) o Xl - X 2 + X 3 = q &

*Xx =x 2 ~ x

Entonces
N (/) = { ( b ~ c , b , c ) / b e R

accR)

Como

( b - c , b , c ) = ( b , b , 0) + (c, 0, c) = 6 ( 1 , l , 0 ) + c ( - 1 , 0 , 1 )

www.FreeLibros.com

COMPOSICION DE TRASFORMACIONES LINEALES

93

es
{ ( 1 , 1 , 0 ) , ( - 1 , 0 , 1 ))
un S.G. del ncleo de g / . Como adems es L.I., tal conjunto es una base del ncleo,
y por consiguiente su dimensin es 2 .

3.9. TRASFORMACION LINEAL NO SINGULAR


3.9.1. Concepto
La trasformacin lineal / : V -> W es no singular, reg ular o inversible si y slo si es
biyectiva.
En smbolos
/ : V -W es no singular o / e s un isomorfismo.
O bien
/ : V -* W es trasformacin lineal no singular o / e s biyectiva.
Sabemos que una funcin / : V - * W es biyectiva si y slo si admite inversa. En
consecuencia, podemos escribir
Una trasformacin lineal / : V -> W es no singular o E xiste f ~ l .
3.9.2. Propiedad
La inversa de una trasformacin lineal no singular es una trasformacin lineal.
Sea / : V -+ W una trasformacin lineal no singular, es decir, un isomorfismo de V en W.
Probaremos que / 1 : W -> V es una trasformacin lineal.

www.FreeLibros.com

94

TRASFORMACIONES LINEALES

Consideremos y i y y 2 en W. Por se r/b iy ectiv a, existen y son nicos los ve ctores x t y x 2


en V, tales que
/ ( x i ) = yi

/ ( x 2) = y2

Se verifica que
1. r

(y, + y 2) = / [ f M + f ( x 2) ] = r [T(Xl + x2)] = t r f ) ( x i + x 3) =

= V (xi + x 2) = Xl + x 2 - r 1 ( y O + r 1 (y 2 )
2. S e a n a e K y y i e W
Entonces
/"* ( y i ) = r 1 [ a / ( x1 ) ] = r I [ / ( oc Xi ) ] ^
= (f ~ l / ) ( a x 1) = i'v ( a xO ^ a x j - a / ' 1( yt )
/ y / 1 se llaman trasformaciones lineales inversas, y se verifica que
/ " f = h

/ r 1 = w

donde /v e *w denotan las identidades en V y en W, r espectivamente.


Ejemplo 3-19.
La trasformacin lineal / : R2

R 2 definida por
f(a,b) =(a,-b)

es no singular, por ser biyectiva.


En efecto
1. Sean ( a , b) y (a*, b 0 en el dominio, tales que f ( a , b) ~ f ( a , h*).
Entonces es
( a , - b ) = (a , ~ b )
En consecuencia
a =a'

b =b

O sea, f e s inyectiva.
2. Sea ( a , b ) cualquier vector del codominio.
Existe (a , - b ) en el dominio, tal que
f ( a , - b ) = ( a , b)
Y, por consiguiente, f e s sobreyectiva.
El significado geomtrico de esta trasformacin lineal es una simetra respecto del eje
de abscisas

www.FreeLibros.com

96

TRASFORMACIONES LINEALES

1. Hiptesis) / : V -*V es una trasformacin lineal inyectiva


dim V = rt
Tesis) / e s sobreyectiva.
Demostracin) Por h ip te sis,/e s inyectiva. En consecuencia, por 3.3.5., es
N ( 0 = | 0 V)

dim N (J) = 0
Como
dim N (/) + dim I (f) = dim V
resulta
dim I (f) = n = dim V
En consecuencia, I (f) ~ V, o s e a ,/e s sobreyectiva.
2. Hiptesis) / : V -*V es una trasformacin lineal sobreyectiva
dim V = n
Tesis) / e s inyectiva.
Demostracin) Sea ( W j, w2 , . . w ) una base
sobreyectiva, existen V!, v2 , . . v en V, tales que
/ ( v ) = w

del codominio

V. Por ser /

Vf = 1 , 2 , . . . ,

Los n vectores V j, v 2 , . . v son linealmente independientes en V, y de acuerdo con


2.7.2. constituyen una base de V.
Consideremos ahora un vector x cualquiera perteneciente al ncleo de / . Se verifica que
xeN(/)=*x= 2
=>oti =

a vf a / ( x ) = 0 => / ( x ) -

ctt f ( y t) = 0 =*

w, = 0 =>

0 , Vi = 1,2.......n

Siendo N (f) = Oy, resulta/inyectiva.


3.10. COMPOSICION DE TRASFORMACIONES LINEALES
Y PRODUCTO DE MATRICES
Consideremos las trasformaciones lineales
/ : V-+ U

y ^:U ^W

y sean
M = ( v i , v 2 , . . v } , [ u] = ( u ! , u2 , . . up J y [w ]= {wl t w2 ) ----- , w m J
bases de U, V y W, respectivamente.

www.FreeLibros.com

MATRIZ DE LA COMPOSICION

97

Las trasformaciones lineales / y g quedan caracterizadas por las matrices


A Kp Xl y B e Km xp
respecto de las bases dadas en cada espacio.
Se verifica que la trasformacin lineal compuesta
g o f : V ^W
est asociada a la matriz
C = BA e K mxn
respecto de las bases [v] y [w].
En efecto, sabemos que para determ inar C se necesita obtener las imgenes de los vectores
de la base [v] y expresarlas en funcin de los vectores de [w], o sea
m

(g /)(v j) =. 2

w,

( 1)

Por otra parte, teniendo en cuenta la definicin de composicin de funciones, que f y g


son trasformaciones lineales de matrices A y B, respectivamente, y propiedades de la
sumatoria, se deduce
(g f ) (V})= 8 \f( y j)] = g (fcS x akj u ft) = X ^a hJ g (ufe) =
=

akj , 2

b ik w, - 2 ^

. 2 akj b ik w, = . 2 ( ^

b ik ahj) wf

De (1) y (2), por unicidad de la imagen, se deduce que


p

c ij H1 bih ahj
En consecuencia, por definicin de producto de matrices, resulta
C = BA
Ejemplo 3-20.
Sean / : R 3 - + R y : R - - R 2 trasformaciones lineales definidas por
f ( x l , x 2, x 3) ^ x l + x 2 ~ x

g ( y ) = (y. t y )
Se consideran las bases
[v] = { ( 1 , 0 , 0 ) ,( 0 , 1 , 0 ) , ( 0 , 0 , 1 ) 1 e n R 3
[u] = ( 1 )

en R

[w ]= (2 , 0 ) , ( 0 , 2 ))

enR 2

www.FreeLibros.com

( 2)

98

TRASFORMACIONES LINEALES

Determinamos las matrices asociadas a f g y g f , y verificamos el teorema anterior


/ ( l , 0, 0) =

1 = 1.1

A 0,1,0)=

1= 1.1

U A = (l

1 -1)

/ (0 , 0 , 1) = 1 = ( 1 ) 1 J
L
(1) = (1, 2) = - ~ (2, 0) + 1 (0, 2) =* B = ( 2
1

Resulta
1\

C = B A = ( 2 j (1

/I

-1

_ 1 ) = ^2

_2J

Definimos ahora
/ : R3 - * R 2
(g f ) (Xi, * 2 - *3> = 8 [ f ( x u x 2> x 3)] =

= (* i +

*2

~ x 3) = (xt + x 2 - x 3, 2 x ! + 2 x 2 - 2 x 3)

Luego
< * / ) (1 , 0 , 0 ) = ( 1 ,

2 ) = -^- ( 2 , 0 ) + 1 ( 0 , 2 )

< r /)(0 , 1 , 0 ) = ( 1 ,

2) = ~ ( 2 , 0 ) + 1 (0 , 2)

(?/ )(0 , 0 , l ) = ( _ i f _ 2 ) = - i . ( 2 f 0 ) + ( ^ I ) ( 0 , 2 )
O sea

C=|

I
2

11

-1

3.11. ESPACIO VECTORIAL DE TRASFORMACIONES LINEALES


3.11.1. Concepto
Con el smbolo L (V, W) denotaremos el conjunto de todas las trasform aciones lineales
entre los espacios vectoriales V y W, sobre el cuer po K, o sea

www.FreeLibros.com

ESPACIO DE TRASFORMACIONES

99

(V , W) = { / : V -> W f e s trasformacin lin e a l}


En L (V, W) definimos la suma de funciones y el producto de escalares por funciones
mediante las asignaciones
<y+r)(x)=/(x)+g(x)

(i)

(a f ) (x) = o f (x )

(2)

Demostraremos las siguientes afirmaciones:


1. La suma de dos trasformaciones lineales de V en W e s una trasformacin lineal de V en
W.

En efecto:
i ) ( / + ) (x + y) = / ( x + y) + # (x + y) =
= / ( x ) + / ( y ) + g (x) + g ( y ) = ( f + ) (x) + ( f + g ) (y)
) / + ) ( a x ) = / ( o : x ) + g - ( o x ) =
= a / ( x ) + a g ( x ) = a [ / ( x ) + (x)] =
= Ot(f + g)(x )

2. El producto de cualquier escalar por cualquier trasformacin lineal de V en W es una


trasformacin lineal de V en W.
Utilizando la definicin (2), y con procedimiento anlogo al utilizado en 1., el lector
puede probar que
( a f ) (x + y ) = ( a f ) (x) + ( a f ) (y)
(a f ) (0 x ) = 0 ( a / ) ( x )
Adems, las definiciones (1) y (2) perm iten comprobar que el conjunto L (V, W) tiene
estructura de espacio vectorial sobre el cuerpo K.
La cuaterna [,L (V, W), + K , . ) denota el espacio vectorial de las t rasformaciones
lineales de V en W, sobre el cuerpo K.
El vector nulo de este espacio es la trasformacin lineal nula
e : V ~> W definida por e (x) = Ow

V x eV

3.11.2. Isomorfismo de L (V, W) en Kmx


Sean (V, + , K , .) y (W, + , K , .) dos espacios vectoriales de dimensiones finitas n y m,
respectivamente, y las bases

[V]= | v , , v2 . . . , v n }

enV

[ w ] = | w , , w2 ) . . , w m )

en W

Entonces, L (V, W) es isomorfo a Km Xfl

www.FreeLibros.com

100

TRASFORMACIONES LINEALES

En efecto, definimos
F : Z, (V, W)
mediante
F</) = A
donde A es la matriz d e /re sp e c to de las bases [v ]y w].
[
De acuerdo con el teorema fundamental de las trasformaciones lineales, A queda
unvocamente determinada para cada f e L (V, W), respecto de las bases [v] y [w]. O sea, la
definicin dada satisface las condiciones de existencia y unicidad de toda funcin. Adems,
se verifica que:
1.

F e s inyectiva, pues s i / y g s o n dos vectores d e l (V, W) que satisfacen


FC 0 = FGr)

entonces sus matrices respecto de las bases [v] y [w] on


s iguales, lo que significa
/ ( v) = ^ ( v)

V ,= l f 2 , . . . f

En consecuencia
n

/ ( x ) = / ( . 2 a, V/) = 2 a , / ( v f) = . 2 a t g ( v t) ^
O

g ( f2 a (V|) = ? ( x )

sea
f=S

2. F es sobreyectiva, ya que, cualquiera que sea A e K mxn>e x is te /: V -+W definida por


m

f (Vj) = 2 a u w,
tal que
F tf)= A
3. F es una trasformacin lineal.
' En efecto:
F ( / + ) = A + B = F ( / ) + F( g)
F(af) =a A =aF(f)
donde A y B son las matrices de / y g respecto de las bases [v] y [w].
En consecuencia
F : L ( V , W ) ^ K mxn
es un isomorfismo para cada eleccin de una base en V y una en W.
Resulta entonces que
dim L (V , W) = dim K m Xl= mn

www.FreeLibros.com

ESPACIO DUAL

101

3.12. ESPACIO DUAL DE UN ESPACIO VECTORIAL


Llamaremos espacio dual de un espacio vectorial (V, + , K , .), al espacio vectorial de las
trasformaciones lineales de V en K.
V* denota al espacio dual de (V, + , K , .), o sea
V* = L (V, K) = { f : V

K / / e s trasformacin lineal )

Los espacios dominio y codominio son, respectivamente


(V, + , K , .)

(K, +, K , .)

Los elementos de V*, es decir, las trasformaciones lineales de V en K, se llaman formas


lineales o funcionales.
De acuerdo con el teorema fundam ental de las trasformaciones lineales, toda forma lineal
queda unvocamente determinada por los valores que
tom a sobre cualquierbasede V.Es
decir, si [v] = { V i, v2 , . . v f es una base de V,
y x 1( x 2,
. . , , x nson nelementos
cualesquiera de K, entonces la funcin
/ : V -*K definida por
f ( x ) = f ( i ai v i) = i ai x
es un elemento de V* = L (V, K), donde a lt c 2, ,an son las coordenadas de x respecto de
la base [v].

www.FreeLibros.com

TRABAJO PRACTICO III

3-21. Determinar cules de las siguientes aplicaciones de R 3 en R 3 son trasformaciones


lineales, donde K = R.
1. f

( X\ , X 2,

X3 ) =

( X 2l

Xi,

JC3 )

2 . g ( x l , x 2 , x 3) = ( x l + l , x 2 + 2 , 0 )
3. T ( x 1 , x 2 , x 3) = ( 0 , x 1 + x
4. T (.Vi,

X3 )

,0)

X 2 , .X3 , A!] )

3-22. Investigar cules de las siguientes aplicaciones/son lineales.


1. / : R3 -* R 2definida por f ( x , y , z) = (y, x )
2. / ; R2
3. / : R 2
4. f : R 2

->R 3definida p o r / ( * 1(x 2) = ( x lt x 2 ,0 ) + ( - 1 , 0 , 0 )


R 3definida p o r / ( x lt x 2) = (2x ~ x 2, X l )
- >R definida p o r / ( ^ i , x 2) = x i x 2

3-23. Sea / : V -+ W una trasformacin lineal y sean x e y en V tales que / ( x ) *=z. Sabiendo
que / (y) = 0 W, dem ostrar que / (x + y ) = z,
3-24. Sea la funcin / : R 2 -* R 2 definida por f ( x lt x 2) = ( ~ x lf ~ x 2). Demostrar que es
lineal, clasificarla e interpretarla geomtricamente.
3-25. La funcin / : R2 -R 3 es lineal, y verifica
/ ( 1, 2 ) ( - 1, 0 , 2 )

/ ( 2 , 1 ) = (0 , 2 , 1)

Determinar las imgenes de los vectores (3, 3) y (0, - 1 ).


3-26. Consideremos un espacio vectorial V sobre un cuerpo K, y dos trasformaciones lineales
/ : V -K
Sea F : V

: V -> K

K 2 tal que F ( v ) = ( / (v ),^ ( v ) )

Demostrar que F es una trasformacin lineal.


3-27. Sea T una aplicacin lineal de R 2 en s mismo, tal que
T (1, 0) = (1, 1)

T (0, 1) = ( 1, 2)

www.FreeLibros.com

TRABAJO PRACTICO III

103

Determinar la imagen del cuadrado de vrtices ( 0 , 0 ) , (1, 0 ) , (1, 1) y (0, 1).


3'28. Investigar si existe una trasformacin lineal / : R2 - R tal que
/( 1 ,2 ) = 3 , / ( 2 , 2 ) = - l

/( 2 ,5 ) =
2

3-29. Sean / : R2 -R 3 y g: R 3 -> R 2 definidas por


f ( a , b) *= ( a , a + b , b)

g ( a , b , c) = (a + b , c)

1. Probar que f y g son trasformaciones lineales.


2. Clasificar f y g.
3. Definir / y / og,
3-30. Demostrar que si / : V -*W es un epimorfismo, entonces / trasforma sistemas de
generadores de V, en sistemas de generadores de W.
3-31. Consideremos (C, 4- , R, .) y / : C -> C definida por / (z ) = z + Im (z).
Determinar s i / e s una trasformacin lineal, y en caso afirmativo clasificarla.
3.32. Sea/ : R 2

R 3x3 definida por


/ *i
/ ( * 1>*2) =

( - X 1 *1
\ 0 x2

0
*2

Xi - x 2

V
)
I

Probar que / es lineal y determ inar el conjunto de los vectores de R 2 cuyas imgenes
p o r /s o n la matriz nula.
3-33. Demostrar que si / : V -W es una trasformacin li neal y S es un subespacio de I (f),
entonces / _1 (S) es un subespacio de V.
3-34. Determinar el ncleo, la imagen y las dimensiones de ambos en las siguientes
trasformaciones lineales.
1. / :

R 3 -+R2 de finida p o r/(x , ,x 2 ,x 3) = (xj + x 2 +x 3, x 2 + x 3)

2. / :

R 2 ~R definida p o r / ( x lfx 2) = X l 2 x 2

3'35. Definir una trasformacin lineal / : R4 -+ R para un n conveniente, de m odo que


N C/)=

* 3, x 4 ) e R 4 f x x + x 2 = 0 , ^ ! - x 4= 0 , x 2 + x 3 + x 4= o )

Obtener despus una base y la dimensin del ncleo.


3-36. Una trasformacin lineal / : R3 -* R 2 est definida por
f ( x I , x 2, x 3 ) = ( x i - 2 x 3, x 2 + x 3)
' 1. Hallar la matriz A de / , respecto de las base
s
1(1, 1, 1 ), (2, 2 , 0 ) , ( 3 ,0 ,0 ) ) e n R 3
1 ( 2 , 0 ) , ( 0 , 2 ) | e n R2

www.FreeLibros.com

104

TRASFORMACIONES LINEALES

2. Mediante A, obtener la imagen de ( - 2 , 2, - 2 ) e R3 .


3. Determinar la m atriz B d e / , respecto de las bases cannicas en ambos espacios.
4. Obtener la matriz C de la misma trasformacin lineal, respecto de la base cannica
en R 3 y la base del punto 1 . en R2 .
3-37. Sea la trasformacin lineal/ : R2 -* R 3 definida por
/ ( * 1* 2 ) = (*1 + x 2 , x { - x

2, x x +

2 x 2 )

1. Determinar N (J) , I (/), una base en cada uno y sus dimensiones.


2. Hallar la matriz de / respecto de las bases
( ( 1, 2 ) , ( 2 , 0 ) )

enR 2

j (1, , 0 ) , (0, 2, 0) >(0, 0 , 3) ) e n R 3


3-38. La trasformacin lineal / : R3 -> R3 est caracterizada por la matriz

respecto de la base cannica. Determinar N (f), I (f) y siis dimensiones.


3-39. Determinar la matriz de la trasformacin lineal del ejercicio 3-32, respecto de las bases
cannicas en R 2 y en R 3x3
3-40. Dada la trasformacin lineal / : R2 x2 -> R 3 definida por
/
1. Obtener la matriz d e /re sp e c to de las bases

1 ( 0 , 2 , 1) , ( 2 , 0 , 1 ) , ( 0 , 1 , l)}en R 3

2. Utilizando la matriz hallada, obtener la imagen de


2

3-41. Definir la trasformacin lineal / : R3 -R2 , tal que respecto de las bases
((0 , 1 , 1 ) , ( 1 , 0 , 1 ) , ( 1 , 1 , 0 ) )

enR3

1(1, 2 ) , ( 2 , 1 ) ) en R 2

www.FreeLibros.com

TRABAJO PRACTICO III

105

su matriz sea

/1
\ 1

0
-1

0
1

3-42. Hallar la matriz de la trasformacin lineal g o / d e l ejercicio 3-29, respecto de las bases
( ( 1, 1) , ( 0 , 1)}

en el dominio

{ (2 , 0 ) , ( 2 ,

en el codominio

2)

3-43. Determinar la m atriz de la rotacin del plano de ngulo 0, respecto de la base cannica,
con centro en el origen.
3-44. Sea la trasformacin lineal f 0 : R 2 -> R 2 representada por la matriz

6 - sen Q
sen 6
eos 6
eos

respecto de la base cannica.


Demostrar que si Q y 6' son nmeros reales cualesquiera, entonces
f o ' 0 fe = fe + o '
f

- f-e

3-45. Demostrar que si [v ]= f v ltva , . . .,v } es una base de ( V , +, K , .), y si f con


/ = 1 , 2 , . . . , n son las formas lineales definidas mediante
f (v;) ~
entonces f

es una base de L (V, K), o sea, del espacio dual de V.

3-46. En (V, + , K , .) sean los subespacios S x y S 2 tales que V = S! S2. Se considera la


funcin
P t : V-> V
definida por
P i ( x ) = x!
Siendo x = x t + x 2 y x 1 e S 1 , x 2 6 S2 .
La funcin Pj se llama proyeccin sobre S t , segn S2.
Demostrar:
1 . Pj es una trasformacin lineal.

2. P, es idem potente, o sea P2 = P, o Pj = P,


3. Si P2 es la proyeccin sobre S2 , entonces P , + P 2 = 1

www.FreeLibros.com

C aptulo 4

M ATRICES

4.1. INTRODUCCION
Hemos credo oportuno dedicar un captulo al estudio de las matrices con elementos en
un cuerpo K, dado el rol fundamental que este tema desempea en todos los campos de la
Matemtica y en las aplicaciones. Conocido el espacio vectorial (Kmxn, +, K , .), se trata
ahora el producto de matrices, anticipado en el captulo anterior, y el anillo de matrices
cuadradas. Sin pretender agotar el tema, se estudian la trasposicin y algunos tipos de
matrices especiales: simtricas, antisimtricas, triangulares, diagonales, idempotentes, involutivas, hermitianas, etctera. Se trata, adems, la inversin de matrices, el concepto de
matrices particionadas, el rango de una matriz y su invarianza frente a operaciones
elementales. Despus de dar m todos para la determinacin de la inversa de una matriz se
estudian la equivalencia de matrices y los cambios de bases en espacios vectoriales.

4.2. PRODUCTO DE MATRICES


4.2.1. Concepto
Recordemos la definicin de producto de matrices dada en 3.6. y su conexin con la
composicin de trasformaciones lineales estudiada en 3.10. Si V, U y W son tres
espacios vectoriales sobre un mismo cuerpo K, de dimensiones finitas, con bases
[ v]= V l t v 2 , . . .,v j , [u] = j u , , u 2 l . . .,u p j y [w]= I W l ) w 2 , . . w m j
respecti
vamente, y B e Kpxn y A e Kmx;> son las matrices asociadas a las trasformacio nes lineales
/:V-> U

g:U-*W

entonces la trasformacin lineal compuesta


g o f : V -W
est caracterizada por la matriz producto C = AB e Kmx" cuyo elemento genrico es

www.FreeLibros.com

PRODUCTO

107

Observamos que para que exista el producto de dos matrices, el nmero de columnas de la
primera debe ser igual al nm ero de filas de la segunda.
Si A e K mx " y B e K n x m, entonces coexisten los productos A B e K mxm y B A e K ' 1*",
pero son distintos si mi=-n.
En el caso en que m = n , tanto AB como BA son matrices del tipo n x n, es decir,
cuadradas y pertenecientes a KMX , pero en general se verifica que
AB^BA
O sea, el producto de matrices no es conmutativo.
Ejemplo 4-1.
Verificamos la no conmutatividad del producto de matrices en el siguiente caso:

Este hecho es coherente con lo que sabemos: la composicin de trasformaciones


lineales, que son funciones, no es conmutativa.
Si AB = BA entonces diremos que A y B son matrices permutables.
4.2.2. Asociatividad del producto de matrices
Sean V, U, S y W espacios vectoriales de dimensiones n, p, q, m respectivamente, y una
base en cada uno. Si
/:V-U

:U

y h : S-W

son trasformaciones lineales, C e K p x ", B e K 9xp y A e K mxfl son las correspondientes


matrices,

www.FreeLibros.com

MATRI CES

108

entonces, teniendo en cuenta la asociatividad de la composicin de funciones es


h o g o f = (h o g ) o / = h o ( g o / )

Denotando con D a la m atriz m x rt, asociada a la composicin, es


D = (AB) C = A (BC)
Escribiremos entonces D = ABC
Ejemplo 4-2.
Calculamos ABC, siendo
A= ' 3 " 1 0
1 2

-1

C
0/

ABC

2X3

2 X 4

3 X 4

4 X 1

4X1

2X1

4.2.3, Matriz identidad


En K "xn la matriz I cuyo elemento genrico es 5y, o sea, es 1 si i = / y es 0 si / # ; , es
neutro para el producto.
I se llama matriz identidad n x n, y verifica
AI = IA = A
cualquiera que sea A K71.
En efecto, el elemento genrico de la m atriz producto AI es
n
cj ^2 ^ a ik 8kj aj
= a
En consecuencia, por definicin de producto, es
AI = A
Anlogamente se prueba que IA = A.

www.FreeLibros.com

A N I L L O D E M A T R I C E S nXn

Si A e Km xn, entonces la identidad mx m

109

verifica
IA = A

y la identidad n x n

satisface
AI = A

Ejem plo 4-3.

Calculamos AB - I, siendo
1 0 -2
A=

/ 1 0 -2
AB=

0 1

\0 0

Luego
AB - I = N
donde N denota la matriz nula de R3 x 3 .
4.2.4. Distributividades del producto
Si A y B son elementos de K "xp y C e K p xm , entonces es
(A + B) C - AC + BC
Esto significa que el producto de matrices es distributivo a derecha, respecto de la suma.
Para demostrar esta afirmacin, consideremos el elemento genrico dj, de la matriz
(A + B) C. Por las definiciones de suma y producto y propiedades de la sumatoria es
p
^>1 ~

ckj =

a iU c h + f _1 b k c k j

O sea
(A + B) C = AC + BC
Si C e Km xn y A y B son las matrices anteriores, entonces se verifica la distributividad a
izquierda.
C (A + B) = CA + CB
4.3. ANILLO DE MATRICES CUADRADAS
En K "x el producto es una ley de composicin interna, asociativa, con elemento neutro
igual a la identidad nx n.

www.FreeLibros.com

110

MATRI CES

Por otra parte, sabemos que (K "x" f + ) es grupo abeliano, y de acuerdo con 4.2.4. el
producto es doblemente distributivo respecto de la suma.
En consecuencia (K "xn, + , .) es el anillo no conmutativo, con unidad, de las matrices
cuadradas n x n con elementos en K.
Este anillo tiene divisores de cero; es decir, existen matrices no nulas cuyo producto es la
matriz nula.
Por ejemplo:

A = l l o r N y B=( i i l#N
pero
AB

0 0
0 0

Considerando en el espacio vectorial (R 2 , + , R, .) la base cannica, la matriz B representa


una trasformacin del plano en s mismo que asigna a cada vector (x, y ) la imagen (0 ,x + y ),
y A caracteriza la aplicacin lineal que trasforma cada vector (x , y ) en ( x , x), ya que
0
x +y

La trasformacin lineal compuesta, asigna a todo vector el vector nulo. Es decir, es la


trasformacin lineal nula.

4.4. TRASPOSICION DE MATRICES


4.4.1. Concepto
Sean los espacios vectoriales (K x , + , K , .) y (Km* \ +, K ,.). Por definicin, la matriz
B e Kmxn es la traspuesta de A K "xm si y slo si b j = a ji, y se escribe B = A '.
El smbolo A* se lee: A traspuesta .

/ - i

0 \

\ 1 2 3 ] entonces es A

~ l

l\

I 2 2 )

En consecuencia, para hallar la traspuesta de una matriz, se cambian filas por columnas.
Observamos, adems, que toda m atriz 1 X 1 es igual a su traspuesta.

www.FreeLibros.com

TRASPOSICION

111

4.4.2. Traspuesta de ia suma y del producto por escalares


La funcin f : Knxm -> Kmxn que asigna a cada m atriz del dominio su traspuesta en el
codominio, es decir, definida por
/ (A) = A*

/ ( A + B) = (A + B )'= A t + Bt - f (A ) + / ( B )
2. La traspuesta del producto de un escalar por cualquier matriz es igual al producto del
escalar por la traspuesta de la matriz.
Teniendo en cuenta que si C = (a A )4 entonces cy = a aj, resulta
f ( a A ) = (a A)* = o A* = ct/ ( A )
Ejemplo 4-4.

Dadas las matrices A =

calculamos (Bf A)*.

Como B( A = (a b c)

= (-a

c b), resulta

4.4.3. Traspuesta del producto


La traspuesta de u n producto de matrices es igual al producto de las traspuestas en orden
permutado.
Sean A e K "xp y B e Kp x m . Demostraremos que
(A B )' - Bf Af

www.FreeLibros.com

112

MATRI CES

Si C = AB, entonces

cti "

aih K i ~ ai b u + ai2 b2j +. ,. + aip bpj

es el elemento de la fila / y de la colum na i de Ct = (AB)f.


Los elementos b ljt b 2}, . . bpj de la columnaj-sima de B, son los de la fila / de Bf
Anlogamente, an , a i2.......... aip son los elementos de la columna i-sima de Af
entonces, el elemento de la filaj y de la columna i de BfA* es
b li ai + b V an + - - - + bpj aip =

aik bkj

En consecuencia.
(AB) = BA
Ejem plo 4-5.

La trasposicin verifica ( A ') ' = A. Teniendo en cuen


t a este resultado y el teorema
anterior, calculamos (B<A ), en el caso del ejemplo 4-4.
(BA) = A '( B ') '= A 'B =(

o V

i : \ f l

4.S. MATRICES SIMETRICAS Y ANTISIMETRICAS


4.5.1. Matriz simtrica
Una m atriz cuadrada es simtrica si y slo si es igual a su traspuesta.
A e K "xn es simtrica o A = Af o a - n .. w.- w.y

En R3*3, la matriz
1 -1
-1
2
0 3

0
3 J
0

/i

vj

es simtrica

4.5.2. Matriz antisimtrica


Una m atriz cuadrada es antisimtrica si y slo si es igual a la opuesta de su traspuesta.
A e K n x " es antisimtrica o A = - A t ^ a iJ= - a ji

Vi V/

Los elementos de la diagonal de toda m atriz antisimtrica son nulos, pues


A es antisimtrica =^au ~ - a u . Vi=> 2 a = 0 , V / ^ fl = 0 t W

www.FreeLibros.com

MATRI CES SIMETRICAS Y ANTISIMETRICAS

113

La matriz

1 -2

A = ( 1
O 3
2 3 O / es antisimtrica
Ejemplo 4-5.
Demostraremos las siguientes propiedades:
i

) El producto de toda m atriz por su traspuesta es una m atriz simtrica.


En efecto:
( A A y ^ i A * ) * A ( = AA(
Luego, por ser igual a su traspuesta,
AA* es simtrica

Observamos que no es necesario que A sea cuadrada para que existan AA* y A*A, las
que son, en todos los casos, matrices cuadradas.
i i ) La suma de toda matriz cuadrada y de su traspuesta es simtrica.
Sea A e K nxn. Se verifica que
(A + A ) = A* + (A*)* = Af + A ~ A + Af
Es decir, A 4- A* es simtrica.
iii) La diferencia de toda matriz cuadrada con su traspuesta es antisimtrica.
Si A e K "xn, entonces, aplicando propiedades anteriores, se verifica
(A - A f) ( - A( - (A ()f = A* - A = - ( A - A*)
En consecuencia, A A 1 es antisimtrica.
iv) Toda matriz cuadrada es la suma de una matriz simtrica y de una matriz
antisimtrica.
j
A e K ',xn =* A + A 1 es simtrica y A - A* es antisimtrica =* (A + A*) es
simtrica y (A A*) es antisimtrica => A = (A + A f) + - - (A Af) es lasuma
2
2
2
de una matriz simtrica y de una antisimtrica.
Ejemplo 4-6.
Sean A e K nx,! una m atriz simtrica, X e K xl y Y e K " x l . Desarrollaremos el
producto (X Y / A (X Y).
Teniendo en cuenta que la trasposicin es una trasformacin lineal, la distributividad
del producto respecto de la suma y que X*AY es del tipo 1 X 1, o sea, simtrica,
tenemos

www.FreeLibros.com

MATRI CES

114

(X - Y )' A (X - Y)

= (X f - Y ') (AX - AY) - X (AX - X (AY - Y AX + Y '.W = X fAX

(X 'A Y )' - Y*AX i- > 1AY -

= X*AX - Y tA t(X t) t - Y fAX + Y(AY =


- X AX - Y'A X - Y t X + Y (AY =
= X 'A X - 2 Y tA X + Y tA Y

4.6. MATRICES TRIANGULARES


La matriz A e K "xn es triangular superior si y slo si i > /'
En R 3x3

=0.

1 -2 3 \
0 0 2
es una matriz triangular superior.
0 0 5 1
Anlogamente
Ae

Krtxnes triangular inferior si

y slo si i < / =>a = 0.

El lector puede dem ostrar que el conjunto S de las matrices triangulares superiores o
inferiores de (K "Xf,>+ , K, .) e s u n subespacio de KMXn.
Ejemplo 4-7.
Efectuamos el producto de las matrices triangulares A y B pertenecientes a R 3x3, tales
que o/y = 0si i > j, aj = i + / s i / < / ,b tj = 0 si i > j, bj ~ i - 2 / si i </.

AB=

/ 2 3 4 \ / - I 3 - 5 \
0 4 5
0 -2 -4
\ 0 0 6/ \ 0 0 -3 I

= 0 - 8 - 3 1
\ 0
0 -1 8 /

f 2 - 1 2 34 \

Observamos que el producto de matrices triangulares es una matriz triangular.

4.7. MATRICES DIAGONALES


4.7.1. Concepto
La matriz A e K ,,x" es diagonal si y slo si i =j =>aj = 0.
Toda matriz diagonal tiene nulos los elementos que no figuran en la diagonal.
Para denotar que A es una matriz diagonal, escribiremos

www.FreeLibros.com

MATRI CES TRIANGULARES

! O . . . O
O o2 o

A=

c O

...

115

= diag (a 1 ,a-2, . . . , a n)

an

En particular, en Knxn, I y N son matrices diagonales.


Si todos los elementos de la diagonal son iguales, o sea, si a = a, Vi, entonces la matriz
diagonal se llama escalar. Siendo A una matriz escalar, se verifica
A= al
4.7.2. Propiedad
El conjunto S de las matrices diagonales de (K "x , + , K , .) es un subespacio de Knx", y
su dimensin es n.
La demostracin se propone como ejercicio.
4.7.3. Propiedad
El conjunto S de las matrices diagonales de Knxn es un subanillo de (K "xn, + ,.).
Para demostrar esta afirmacin es suficiente probar que el producto de matrices
diagonales es una ley de composicin interna en S.

4.8. MATRICES IDEMPOTENTES EINVOLUT1VAS


4.8.1. Concepto
Una matriz cuadrada es idem potente si y slo si es igual a su cuadrado.
A e K nxn es idem potente o A2 - A

verifica A2 = A, es decir, es idempotente.

Una matriz cuadrada es involutiva si y slo si su cuadrado es la identidad.


A e KnxM es involutiva o A2 = I
La matriz A =

es involutiva, pues A2 =

www.FreeLibros.com

=1

MATRI CES

118

4.10.3. Propiedad
El producto de dos matrices ortogonales es ortogonal.
A y B son ortogonales => AB es ortogonal
En efecto:
(AB) (AB)4 = ABBfA( = AIA* - AA* = I
por traspuesta del producto y 4.10.2.
Anlogamente es
(AB)'(AB) = I
En consecuencia, por 4.10.2. resulta AB ortogonal.
Ejemplo 4-10.
Toda matriz
cos a -s e n a
sen a
0

cos a
0

donde a e R

i/

es ortogonal.
En efecto:
eos a
AA* = | sen a
0

-s e n a 0 \
co sa 0
0
1 /

c o s a sena
-s e n a c o sa
\
0
0

0
0
1

4.11. MATRICES HERMITIANAS


4.11.1. Matrices complejas
(Cnxm , + , R , .) y (Crtxm, 4-, C , .) denotan los espacios cuyos elementos son las matrices
complejas del tipo x m, sobre el cuerpo de los reales y de los complejos, respectivamente.
-/
/

1+i
-2

\
1 es una matriz compleja del tipo 2 X 3.

3 -2 (/

Matriz compleja conjugada de A e Cnxm es la matriz B e Cn*m tal que by = a


O
sea, dada una matriz, su conjugada se obtiene sustituyendo cada elemento por e
complejo conjugado.

www.FreeLibros.com

MATRIZ HERMITIANA

119

Para denotar la m atriz conjugada de A, escribiremos A.


Si A es la matriz anterior, entonces

\-i

-2

1)

3 + 2i j

Diremos que A y A son matrices conjugadas, una de la otra, pues A = A.


Dado_el espacio vectorial (C'ixm , +, R , .), la funcin / : Cnxm -> cnxm definida por
(A) = A es una trasformacin lineal, puesto que se verifica
i ) la conjugada de la suma es igual a la suma de las conjugadas,

ii) la conjugada del producto de un escalar por una matriz es igual al producto del escalar
por la conjugada de la matriz.
El lector puede demostrar que / es un automorfismo.
Se verifica que la traspuesta de la conjugada de cualquier matriz es igual a la conjugada de
su traspuesta, o sea
a'

- *

Para designar esta matriz, escribiremos A*.


En el caso ya tratado es
A* = \
\

- i
2

-2 ]
3 + 2i /

El operador * satisface las siguientes propiedades:


1 (A*)* = a
2. (A + B)*= A + B * ^ (A + B)* = A* + B* = A* + B*
3. (A B)* - B* A*
Para demostrar esta afirmacin es necesario probar que la matriz conjugada de un
producto es igual al producto de las conjugadas.
Sean A e C nxp y B e C J5Xm. Si C = AB, entonces el elemento genrico de C es

p
c ij

j aik bkj

y teniendo en cuenta que el conjugado de una suma es la suma de los conjugados y que el
conjugado de un producto es el producto de los conjugados, se tiene
___

ca =

ak H j

O sea
AB = B

www.FreeLibros.com

MATRI CES

120

Retom ando nuestro propsito


(AB)* = B* = ( S)f =WA* = B* A*
4.11.2. Matriz hermitiana
La matriz A e Cnxn es herm itiana si y slo si es igual a la traspuesta de su conjugada.
A es hermitiana A = , A = A * o f f j= /

Vi V/.

Los elementos de la diagonal de toda matriz hermitiana son nmeros reales, pues
A es hermitiana =*au = ai

a e R.

La matriz

2+i
- 3 - 2 i | es hermitiana

-i
-2

/ 1
A= ( i

\ 2 z 3 + 2/

Toda matriz simtrica y real es hermitiana, ya que verifica ay = aj{ = j7


Ejemplo 4-11.
Si a e C y A e C " xm , entonces (a A)* = a A*.
En efecto:
( a A *) - a A 1 = ( a ) ~ a A f = 0A*

Ejemplo 4-12.
Dadas las matrices X = (

) yA= [

\ 1 + i f

i ) X*X =

(1

- i) ^

.j =

\ 1 -

(1 -

(1

+ () =

) , calculamos

- i2 = 3

o x 'A x ^ 1

Ejemplo 4-13.
Si H = { A e C 3X3/ A es h e rm itia n a } , entonces H no es un subespacio de
(C3 x 3 , + , C , .), ya que H no es cerrado para el producto por escalares.
En efecto:

www.FreeLibros.com

PARTICION

/ e (.:

iA =

121

y A=

/
1
1
1 - i -2 i

-1 +

0 2 / 1 ^ H , puesladiagonalno esr

3i

El lector puede comprobar que H es un subespacio de (C3x3, + , R , .).

4.12. MATRICES PARTICIONADAS


4.12.1. Submatrices de A e Kn x
Eliminando r filas y s columnas de la m atriz A e K " xm se obtiene una submatriz de A,
que denotaremos as:
A ( i , i 4, - . , i r | A , / 2 i . . . ,/ ,)
donde /', es el nmero de la primera fila eliminada,/ , es el nmero de la primera columna
eliminada, etctera.
Si eliminamos las filas indicadas en
an

a 4

Cht^ 2^23^ & T


a 31 8.2 O-n a ;S

2#43j t<?; y

entonces

Si se mencionan las filas y columnas que se conservan, la notacin es

4.12.2. Particin de una matriz


nxm

Sean A e K xm , n - v x + v ^ y m - Mi + M >y consideremos las submatrices


A n = A [1, 2 ,. . Ui 1 1 , 2 , . . . , Mi]
A i2 = A [1, 2 , . . . , v x l^ i + 1, Mi + 2 , . . m]

www.FreeLibros.com

MATRI CES

122

A21 = A [ v + l , V i + 2
A 22 A
Escribiremos A=

Ah

n lMi + 1,M + 2 ,. . .,m j

+ l , ^ i + 2 ,. .
A 12

' A2i

I 1, 2, . . .,Mi]

A22 /

y diremos que A est particionada en cuatro submatrices

o bloques. Las descomposiciones n = v x + v 2 y rn = li + fh se denominan esquemas de la


particin para filas y columnas, respectivamente.
Por ejemplo, la particin de A que se indica a continuacin

1 -1 0 3
0 4 \
1 0
2 3 3 2
1
1 1 3
2 2
-3 0 0 3 1 2 4
1 0 2 -2 3 /
l --1 0

corresponde al esquema
n

= V\

+ ^2 = 2

m = Mi + h

3
= 2 + 3+2

y se obtiene
A-

/
\ A2i

^ 12 ^ 13

A22 A23

donde cada bloque A e s un elemento de la m atriz particionada.


En general, siA e K ,lxm, n ~
+ v2 + . . . + vry m = Mi + M2 + >+
entonces
las submatrices Aycon / = 1,2, . . ., r, / = 1, 2 ,. . ., s son loselementos de Aparticionada en
bloques, y se escribe
An

A t2 . , . A |,

A2i

A22 . . A2s

A=
Ari

Ar2

A,

4.12.2. Operaciones con matrices particionadas


I. Adicin
Sean A y B matrices en K "xm y los esquemas de particin n s* v l + v 2 + . . . + v r,
m = Mi + Ih + +
Si A = (Ay) y B - (By) son las notaciones de A y B particionadas,
entonces es
A + B = (A u + BJ)
c o n / = 1 ,2 , . . . , r y / = 1 ,2 , . . .,5.

www.FreeLibros.com

ESPACIOS FILA Y COLUMNA

123

II. Producto por escalares


Se define de la siguiente manera:
A = (a Ay)
III. Multiplicacin
Sean las matrices A e Knxp , B e Kpxm y los esquemas de particin
n-

Vi

P = 7r1 +7r2 + .. . + 7 T ,m = jLl+M


2 + . . . + jLs

v2 + . . . + vr ,

r, j = 1, 2, . .

osea, A = (Aife) y B = (BW) donde / = 1 ,2 , . .


El producto en forma particionada es

5 y k = 1, 2, . .

t.

A B = ((2 i A lk Bw )
Ejemplo 4-14.

1
0

V -l

2\

1 2

-1

2 3 2

0
1
1\
1
2
2
1 -2
2
2
3 -1
1
0
0 /
El producto en forma particionada es
/ I
0
-1
1
\o

AB =

, An

A j2

A2i

A22

B2j b 22

An

A 12

A2i

A 22

Bu

B12

b 21

b 22

CO

Consideremos las matrices A y B particionadas como se indica

Bu

+ A i2

+ A 22 B 2 i

/ i

0 \

An

B 12 + A 12

A 2i

B l 2 + A 22

As:
1 0
C n - A n B u 4- A i2 B2i
0

\o

-G:)*(: i

)-/

1 /

/
\ l

1 2'

~ l

1 2

l\

1 ./ V o i /

r \ 1 7/

Anlogamente se calculan C J2 , C22 y C2J , que son los restantes bloques del producto.

4.13. ESPACIOS FILA Y COLUMNA DE UNA MATRIZ


Sea A e K'1Xfn y sean los esquemas de particin r t = i' i , m = : l + l + . . . + l.

www.FreeLibros.com

MATRI CES

124

Entonces A queda particonada en matrices columnas y se escribe


A - ( A n A12 . . . A iwl ) ( A i A2 . . . A,,,)
donde k e K" y / = 1 , 2 , . .m.
Definicin
Espacio columna de la m atriz A e K "xm es el subespacio de K" generado por las m
columnas de A.
Denotamos el espacio columna de la m atriz A mediante SC(A). Los elementos de Sc(A)
son todas las combinaciones lineales de las m columnas de A.
O sea
SC(A)

X oij A j I oij e K

;=1

Definicin
Rango columna de una matriz es la dimensin del espacio columna de dicha matriz.
p c (A) se lee: rango columna de A, y es
iOc (A) = dim S c(A )
Si A es una m atriz nula, el espacio columna es un vector nulo y el rango columna es 0. Si
A # , entonces el rango columna de A es el mximo n mero de vectores columnas
linealmente independientes.
Anlogamente se definen el espacio fila y el rango fila de una matriz A, y se indican
mediante Sp(A) y P f (A), respectivamente.
SF(A) es el subespacio de Km generado por las n filas de A y dimSp(A) es el mximo
nmero de vectores filas linealmente independientes de A.
La particin de A Knxm en vectores filas se indica as:
AiN
A2
, donde A e Kw ;i - 1, 2 , . . ., n .

Si es necesario, para referirnos a la submatriz columna de lugar r escribiremos A r, y para


indicar la submatriz fila de lugar k, pondremos A*.. El punto en A r significa que el primer
ndice vara desde 1 hasta n. En el segundo caso, el punto indica que el segundo ndice es
variable desde 1 hasta m.
Ejemplo 4-15.
Determinamos los rangos fila y columna de la matriz

www.FreeLibros.com

RANGO

A=

125

2 0 -1
4 \
0 4
1 -2

\1 2

1/

Observamos que las dos primeras filas son linealmente independientes y que la tercera
es combinacin lineal de aqullas: A 3> = A j. + - A 2 .. En consecuencia, el rango fila

de A es 2. El lector puede com probar que el m ximo nm ero de vectores columnas


linealmente independientes de A tam bin es 2.
Ambos rangos, fila y columna, coinciden.
4.13.2.

Propiedad

Los rangos fila y colum na de toda m atriz son iguales


Hiptesis) A e K " Km
Tesis) P c (A) = P f (A)
Demostracin)
Si A = N, entonces p c (A ) = 0 = p F(A).
Sea A ^ N y pc(A ) = r. Probaremos que p F(A) = r.
Podemos suponer,sin prdida de generalidad, que las r primeras columnas de A son L.I.
/ \\

a i 2 d \ r l >r + 1 a , r + h ^ l m

i2 . Or tfj,r + l

+ aim

a n \ a n2 & n r a r t , r + 1

& n ,r+ k

a nm

Particionando A en vectores columnas es


A = (A .i A_2 A r . . . A.f+ft . . . A.m)
Por lo supuesto, las r primeras columnas de A constituyen una base de SC(A). En
consecuencia
A.r+fe =o.\k A ., + ct2k A.2 + . . . + a rk A.r =
r

= ,12 a # A J (1) V k = 1 , 2 , . . ., m-r


Sea { e t e J t . . ., e m } la base cannica de Km . Como las filas de A son vectores de
Km , se verifica que
m
A = g i e i + a 2 2 + + a r e r + o r + 1 r + 1 +

V / = 1 ,2 ,...,

www.FreeLibros.com

em 2

h =1

,t, e /j

(2 )

126

MATRI CES

De (1) y (2) resulta


A i, ~a,'i ej + a2 e2 + . . . + <*,> er +
+ ( a u a n + 021 a 2 + . . . + <xr i atr) e r+l +
+ (a l2 an + a 22 a i2 + . . . + a r2 air) er+2 +
+ ...+

0C2 m.f- a 12 + + &r,m-r &ir ) m


= a ! (e! + 0 -1 , er + | + a 12 er+2 + .. . + 1>m.r e m) +
+ a i2 (e2 + a 21 er+1 + a 2 2 er+2 + . . . + a 2>m.r em) +
(^1 ,m-r ^ il

+ ar (er + a rl er+ x 4- <xr2 er+ 2 + . .. + a r^m ,r em) = rfl ei + a 2 e*2 + . . . + a ir eV


En consecuencia { ej , e 2j . .
Si P f(A ) = r \ entonces es

e r } es un sistemade generadores de las filas de A.


(3)

ya que el
mximo nm ero de filas L.I. de A es menor o igual que elcardinal
sistema de
generadores de las filas de A.
Anlogamente, razonando a partir del rango fila de A, se prueba que

detodo

r < r (4)
De (3) y (4) resulta
r = r
O sea
P c (A) = P f (A)
4.13.3. Rango de una matriz
Hemos demostrado que los rangos fila y columna de toda matriz son iguales. Este
nmero se llama rango de la matriz. Para denotar el rango de una matriz A, escribiremos
P (A)
Definicin
Rango de una matriz es su rango fila o su rango columna.
p (A) = Pc(A ) = P f(A )
Dos matrices traspuestas tienen igual rango, pues
P (A) = Pe (A) = P f(A ') =p (A ')
Si I e K n *rt, entonces es p (I) = , ya que los n vectores columna de I son linealmente
independientes.

www.FreeLibros.com

RANGO

127

4.13.4. Rango del producto


Propiedad
El rango del producto de dos matrices es m enor o igual que el m nim o de los rangos.
Hiptesis) A e K "x p ,B e K p5<m
Tesis)

p (AB) < m n j p (A) , p (B) }

Para probar esta afirmacin, demostraremos que el rango del producto es menor o igual
que los rangos de cada una de las dos matrices, es decir
p (A B) < p (A) y p ( A B ) < p ( B )
Consideremos B particionada en los p vectores filas, y efectuemos el producto en forma
particionada

AB =

a i

a{i

...

a ip

an i

ani

. . . anp

B;

1J

l
P

\j= !aV

B"

Este resultado nos indica que las filas de AB son combinaciones lineales de las filas de B
con coeficientes en A. En consecuencia, todo vector del espacio fila de AB pertenece al
espacio fila de B, y por consiguiente
SF(A B )C S F (B)
Entonces, resulta
dim SF(AB) < dim SF(B)
Luego
p (A B )< p (B )

(1)

Esta relacin nos dice que el rango del producto de dos matrices es menor o igual.que el
rango de la segunda matriz.
Adems, teniendo en cuenta que la trasposicin no modifica el rango y (1), es
p (AB) = p (AB) = p (B f A() < p (A ') = p (A)
Luego
p (A B )< p (A )

(2)

Es decir, el rango del producto de dos matrices es menor o igual que el rango de la
primera matriz.

www.FreeLibros.com

128

MATRI CES

De (1) y (2) resulta


p ( A B ) < m n j p ( A ) , p ( B ) |

4.13.4. Invarianza del rango


Propiedad

'

Si en un producto de dos matrices una de ellas es no singular, entonces el rango del


producto es igual al rango de la otra matriz.

Hiptesis) A e K nxm
B e K nx esnosingular
Tesis)

p (B A) = p (A)

Demostracin) Sabemos que


p ( B A ) < p (A)

(1)

pues el rango del producto es m enor o igual que el rango de cada factor.
Como B es no singular, existe B"1 tal que BB'1 = B"1
B=I
Ahora bien
A = IA = (B_1 B)A = B"1(BA)
Por consiguiente
P (A) = p [B"1 (B A)]
Y por rango del producto, es
p (A )< p (B A )

(2)

De (1) y (2) se deduce que


p (B A) - p (A)
Anlogamente se demuestra que si B e K mxm es no singular, entonces
p (A B) = p (A )
Una consecuencia inmediata del teorema anterior es la siguiente: si A e K nxm, P e K " xn y
Q e K mxm son dos matrices no singulares, entonces
P (P A Q) = p (P A) - p (A)
4.13.5. Propiedad
Una matriz A e Knxn es no singular si y slo si su rango es n.
A e K "x " es no singular

p (A) = n

Io. A e KriXfl es no singular => 3 A-1 / A A"1 = I=>


=>p (A A"1) = p (I) => p (A) = n

www.FreeLibros.com

OPERACIONES ELEMENTALES

129

Hemos utilizado la propiedad 4.13.4., teniendo en cuenta que A"1 es no singular, y


p (I) = .
2o. Sea A e K Xfl tal que p ( A ) = n. Entones las n columnas de A son linealmente
independientes, y constituyen una base del espacio columna de A.
Sea la trasformacin lineal / : K" -+K ", definida por la matriz A respecto de la base
cannica en K".
Si x e K ", entonces e s / ( x ) = Ax.
Como el espacio columna de A es el subespacio de Kn generado por las n columnas de A,
y stas son linealmente independientes, se verifica que
dim Sc (A) = n
Por otra parte, I (f) = SC(A), es decir, la imagen de la trasformacin lineal es igual al
espacio columna de A. Luego
dim I (f) = n
y, en consecuencia,/es sobreyectiva.
De acuerdo con 3 . 9 . 4 . / es biyectiva, y por lo tanto A es no singular.
4.14. OPERACIONES Y MATRICES ELEMENTALES
4.14.1. Operaciones elementales
Operaciones elementales sobre una matriz A e K xm son las siguientes:
1. Permutacin de dos filas entre s, o de dos columnas entre s.
2. Adicin de una fila a otra, o adicin de una columna a otra.
3. Multiplicacin de una fila o de una columna por un escalar no nulo.
Si se efectan operaciones elementales sobre las filas o columnas de una matriz, se obtiene
otra m atriz; pero demostraremos que su rango no vara .
4.14.2. Propiedad
Toda operacin elemental sobre las filas de una matriz A e K nxm puede realizarse
premultiplicando A por una matriz no singular del tipo n xn.
Antes de probar esta afirmacin definimos Ehfe e K nxn mediante
1 i h / \ j = k
0 si / =h v / =k
Por ejemplo, en K4 x4 es
0
0
0
0

0
0
0
0

0
1
0
0

0
0
0
0

www.FreeLibros.com

130

MATRI CES

1.
La perm utacin de las filas i y j puede obtenerse premultiplicando A por la matriz no
singular
P y - I - E - E + E U + En e n K " :
En K4x4 es
10 0 0
0 0 10

P 23 ~

0 10

0 0 0

Py se deduce de la matriz identidad perm utando las filas o columnas i y j.


Particionando A en vectores filas, se tiene

,i

}
/A .
/ am

/A i
/ a2

A;

A;

A,

Af
_

0 ___ 0 _______ 1 ____ 0


P kA =
0 ____ 1_______ 0 _____0

\k

i0 0

En consecuencia, la premultiplicacin de A p o r Pj permuta las filas i y /.


Adems, como en ? u se tienen exactamente n vectores columna linealmente indepen
dientes, es p (Pj) = n, y en consecuencia
Pj es no singular
2.
La adicin de la fila i a la fila / puede obtenerse premultiplicando A por la matriz no
singular
Ay = I + E,-f
En K4x4 es
10

0 0

0 10 0

1 1 0

0 0 0

Ay se deduce de la m atriz identidad al sustituir 0 por 1 en el lugar (J, ).


Se verifica

www.FreeLibros.com

MATRI CES ELEMENTALES

131

/ Al \

/ A1\

/1 0
0 1
AyA -

\
0

_0_ 0_1
<

lo 0

A2 1
:

d -.0
i
i _0

.0_-0_1

A;

Af + Ay

, : 1

1/

\ Anl

O sea, la premultiplicacin de A por Ay suma a la fila / la fila i.


Se sabe que las filas de la matriz identidad-.ei, e 2 , . . e f>. . . ,
conjunto linealmente independiente. En consecuencia

e constituyen un

e i >e 2 >e > .,e ;- + e , . . .,e f


es un conjunto linealmente independiente, o sea
P (Ay) = fi
Luego
Ay es no singular
3.
El producto de la fila i de A p o r el escalar a i= 0 puede obtenerse premultiplicando A
por la matriz no singular
MKcO-I+Ca-OEy
E nK 4 *4 es
M3 (a) =

1 0

0 0

0 0
0 0

a
0

0 10

0
1

Mj(a) se obtiene m ultiplicando por a el elemento de lugar (/,*) de la matriz identidad.


Se verifica

h o

Ai
A2

_ 0_ 0 _ a _ 0

A,-

Ai
A2

M ^a). A
a

0 0
An i
Como p (M (a)) = n, es M,- (a) no singular.

www.FreeLibros.com

132

MATRI CES

Anlogamente, se demuestra que toda operacin elemental sobre lascolumnas


de una
matriz A e K nxm puede obtenerse posmultiplicando A por una matriz no singular del tipo
m xm .
Definicin
Las matrices que realizan las operaciones elementales sobre las lneas de una matriz se
llaman elementales.
Como las matrices elementales son no singulares, de acuerdo con 4.13.4., se deduce que el
rango de una matriz no vara frente a las operaciones elementales.
Ejemplo 4-16.
Mediante operaciones elementales determinamos el rango de A, siendo
/I

1 -1

A=[ 1
lo 1
\2

1
2 - 1
2

-1 2

Efectuamos, sucesivamente, las operaciones elementales que trasforman las primeras


filas y columnas de A en vectores cannicos:
0
0
0
-1 - 1
3
1
2 -1
2 - 3
4

A la segunda columna de A se le sum la primera multiplicada


por - 2 .
A la tercera columna de A se le sum la primera multiplicada
p o r 1. .
A la cuarta columna se le sum la primera.

0
0
0
- 1 -1
3
1
2 -1
-2
-3
4

A la segunda fila de la matriz anterior se le sum la primera


multiplicada p o r - 1 .
A la cuarta fila se le sum la primera multiplicada por - 2 .

0
0
0
1
1 -3
1
2 -1
- 2 3
4,

Se multiplic la segunda fila de la matriz anterior por - 1 .

0
0
0
1
0
0
1
1
2
- 2 -1 - 2

A la tercera columna se le rest la segunda, o sea, se le sum la


segunda m ultiplicando por 1.
A la cuarta columna se le sum el triplo de la segunda.

0
0
0
1
0
0
0
1
2
0 -1 - 2

A la tercera fila se le rest la segunda.


A la cuarta fila se le sum el duplo de la segunda.

www.FreeLibros.com

EQUIVALENCIA

1
0
0
0

0 0
1 0
0
1
0 -1

0
0
0
0

A la cuarta columna se le rest el duplo de la tercera.

1
0
0
0

0
1
0
0

0
0
1
0

0
0
0
0

A la cuarta fila se le sum la tercera.

133

Esta matriz tiene tres columnas linealmente independientes, o sea, su rango es 3, y


como es igual al de A, resulta
p (A ) = 3

4.15. EQUIVALENCIA DE MATRICES


4.15.1. Concepto
Sean A y B dos matrices pertenecientes a K " x m. Diremos que B es equivalente a A si y
slo si B puede obtenerse efectuando un nm ero finito de operaciones elementales sobre A.
El sm bolo B ~ A se lee: B es equivalente a A .
La equivalencia de matrices es reflexiva, simtrica y transitiva, o sea, es una relacin de
equivalencia en Kn x m.
La matriz

B=

1
0
0
0

0 0 0
1 0 0
0 10
0 0 0

obtenida a partir de A, en el ejemplo 4-16, mediante un nm ero finito de operaciones


elementales, es equivalente a A y recibe el nom bre de forma cannica de A. La forma
cannica de la m atriz nula en Knxm es dicha matriz.
4.15.2. Propiedad
Toda matriz no nula A e K "xm de rango r es equivalente a la matriz
B=
N(n-r)xr

N ( m . r j X( _ r j

donde B es la forma cannica de A.


La demostracin es sencilla, y el lector puede hacerla basndose en la definicin de
matrices equivalentes y teniendo en cuenta lo realizado en el ejemplo 4-16.

www.FreeLibros.com

MATRI CES

134

Si A es una matriz no singular en Knx", entonces su forma cannica es la matriz


identidad.
A e Knxn es no singular o F.C.(A) = I
El sm bolo F.C.(A) se lee: forma cannica de A .
4.15.3. Propiedad
Las siguientes proposiciones son equivalentes:
i ) A ~B
) P (A) = p (B)
iii)

F.C.(A) = F.C.(B)

1. A ~ B = * p ( A ) = p (B )
Si A ~ B , entonces B puede obtenerse efectuando un nmero finito de operaciones
elementales sobre A, y de acuerdo con lo afirmado en 4.14.2. el rango se conserva. En
consecuencia es p (A) = p (B).
2. p ( A ) = p (B) => F.C.(A) = F.C.(B)
Es inmediato por la propiedad 4.15.2.
3. F.C.(A) = F.C.(B) =>A ~ B
Por la propiedad 4.15.2. es F.C.(A) ~ A y F.C.(B) ~ B. Como A y B son equivalentes a
una misma m atriz, resulta A ~ B.
4.15.4. Propiedad
Si A e K " x m, entonces existen matrices no singulares P e K nxn y Q e K mxm tales que
F.C.(A) = PAQ.
En efecto, la forma cannica de A se obtiene premultiplicando A por un nmero finito de
matrices elementales del tipo n x n y posmultiplicndola por un nmero finito de matrices
elementales pertenecientes a K mx m. Como tales matrices elementales son no singulares, sus
productos P y Q, respectivamente, tambin lo son, y a que las matrices no singulares forman
grupo multiplicativo.
4.15.5. Propiedad
Toda matriz no singular es un producto de matrices elementales.
En efecto, si A e K nxn es no singular, entonces su forma cannica es la identidad, y de
acuerdo con 4.15.4. existen P y Q no singulares (am bas son productos de matrices
elementales) tales que
PAQ = I

www.FreeLibros.com

DETERMINA CION DEL RANGO

135

En consecuencia
P"1PAQQ1 = F l Q " !
Luego
A = P_1 Q1
El segundo miembro es un producto de matrices elementales, ya que la inversa de toda
matriz elemental es una m atriz elemental o un producto de stas.
4.15.6. Propiedad
Las matrices A y B pertenecientes a K "Xfn son equivalentes si y slo si existen matrices
no singulares P e K nx" y Q e K mxm tales que B =PAQ.
1. A ~ B => F.C.(A) = F.C.(B) =3 K, L, M, R no singul ares / KAL = MBR =>
=> B =

K A L R " 1 => B = P A Q donde P = M-1 K y Q - L R"1

Hemos aplicado 4.15.3., 4.15.4., premultiplicado p or M '1 y posmultiplicado por R"1.


2. Supongamos que A y B son matrices n x m , y que existen P y Q no singulares tales que
B = P A Q. Por 4.15.5., P y Q son productos de matri ces elementales, l oque significa que B
se obtiene efectuando un nmero finito de operaciones elementales sobre A. En
consecuencia, A ~ B.

4.16. METODO DE GAUSS JORDAN PARA DETERMINAR EL RANGO


El m todo que exponemos a continuacin nos perm ite determ inar el rango de una matriz
mediante un nmero finito de operaciones elementales del tipo: multiplicacin de una fila
por un escalar no nulo y adicin de una fila a otra. Sealamos que se opera exclusivamente
sobre las filas de la matriz, y que adems el m todo se hace extensivo a la determinacin de
la inversa de una m atriz no singular y a la resolucin de sistemas lineales.
Esencialmente, mediante las operaciones elementales indicadas, se trata de formar el
mximo nmero posible de vectores cannicos linealmente independientes. Tal nmero es,
precisamente, el rango de la matriz.
Sea A una matriz no nula. Se elige cualquier elemento distinto de cero, al cual se lo llama
pivote. Para fijar ideas, sin prdida de generalidad, supongamos que el pivote es au =a, y sea
la matriz

....

....

de la que se han indicado slo algunos elementos.

www.FreeLibros.com

136

MATRI CES

Dividiendo la primera fila por a = 0, o sea, multiplicndola por el recproco del pivote, se
obtiene
1
d

....

En la etapa siguiente, se reducen a cero los restantes elementos que figuran en la columna
del pivote. Entonces, a la segunda fila se le suma la primera multiplicada por - . De este
a
modo, d se trasforma en 0, e se trasforma e n e - , y / s e trasforma en / - . Se obtiene
a
a

Si a 31 = g, en la misma etapa, al sumarle a la tercera fila la primera multiplicada por - - , g


a
g- b
se trasforma en 0. Ysiz32 = h, entonces h se trasforma en h --------a
En las dos etapas descritas se ha obtenido un vector cannico en la columna del pivote.
Observamos en la m atriz dada que todo elemento que no figure en la fila, ni en la
columna del pivote, forma con ste una diagonal de un rectngulo . Los otros dos vrtices
determinan lo que llamaremos la contradiagonal . Por ejemplo, asociado al elemento e se
tiene

Como el trasformado de e es e ------- , operaremos as: el trasformado de cada elemento


a

www.FreeLibros.com

GAUSS JORDAN

137

que no figure en la fila y columna del pivote es igual a la diferencia entre dicho elemento y el
producto contradiagonal dividido p o r el pivote.
En las etapas siguientes se reitera el procedim iento eligiendo un pivote que no figure ni en
las filas ni en las columnas de los pivotes anteriores. De este modo las operaciones
elementales indicadas preservan los vectores cannicos.
l procedimiento se termina cuando no es posible ob tener ningn pivote (distinto de
cero) en las condiciones ya sealadas.
Ejemplo 4-17.
Mediante el m todo de Gauss Jordn, obtener el rango de

El pivote puede ser cualquier elemento no nulo. Si algn elemento es la unidad, se lo


elegir como pivote para evitar clculos.
Procedemos de acuerdo con el siguiente esquema:
f f i 2 - 1 - 1
1- 1 -- 0
2
0
1
2 -1
2
2 -1
2

El trasform ado de a 23 = 0 es
0

1. 1
1

1
2
1 -1
0 -1 -1
3
0 C O -2 -1
0 - 2 - -3
4

El trasformado de a43 = 3 es

1
0
0
0

0 -3
1
0
-2
1
0
1 --2

El trasformado d e a 44 = 2 es

1
0
0
0

0
0
1
0

2 - i ^ = 0

0
7
1
2
0 5
0
0

El procedimiento ha terminado, ya que no es posible elegir un nuevo pivote.


El rango de A es el nmero de vectores cannicos, o sea, 3. El cuarto vector columna

www.FreeLibros.com

138

MATRICES

es combinacin lineal de los tres primeros, pues es la suma de los productos de ellos
por 7, - 5 y 2, respectivamente.
Si en alguna etapa intermedia se eligiera com o pivote un elemento no nulo que figure
en la fila de algn pivote ya seleccionado, la columna que entonces se trasform en un
vector cannico dejara de serlo.
Resumimos la mecnica del procedimiento:
1. Se elige com o pivote cualquier elemento no nulo de la matriz dada, y se divide por l
la fila correspondiente.
2. Los restantes elementos de la columna del pivote se trasforman en ceros.
3. El trasformado de todo elemento que n o figure en la fila ni en la columna del pivote se
determina siguiendo la regla del rectngulo , es decir, es igual a su diferencia con el
producto contradiagonal dividido por el pivote.
4. Se reitera el mecanismo eligiendo como pivote un elemento no nulo que no pertenezca
ni a las filas ni a las columnas de los pivotes anteriores.
5. El nm ero de vectores cannicos linealmente independientes es el rango de la matriz.

4.17. INVERSION DE MATRICES POR GAUSS JORDAN


El m todo explicado en 4.16. perm ite determ inar la inversa de una m atriz no singular. Sea
A e K'lx'1 no singular; a su derecha se escribe ladentidad
i
en KrtXr*.
A

La matriz as indicada es del tipo n x 2 n , y a ella se le aplica el m todo de Gauss Jordn


hasta lograr que A se trasforme en la identidad. La identidad que figura en el esquema
anterior queda trasformada en una m atriz B e K "*n .
A

La trasformacin de A en la identidad siempre es posible, ya que, siendo A no singular, su


rango es n, y en consecuencia es posible obtener n vectores cannicos linealmente
independientes mediante las operaciones elementales indicadas en 4.16. Si los vectores
cannicos obtenidos no resultan ordenados de m odo que constituyan una matriz diagonal, la
identidad se logra m ediante una adecuada perm utacin de filas de la matriz completa. La
m atriz resultante a la derecha es la inversa pedida.
Las operaciones elementales realizadas sobre las filas de A, que la convierten en la
identidad, son las mismas que las efectuadas sobre las filas de I y que la trasforman en B. Si E

www.FreeLibros.com

INVERSION

139

es el producto de las matrices elementales correspondientes a las sucesivas operaciones


elementales, entonces se verifica que
E A = I (1) y E I = B (2)
De (2) resulta E = B, y considerando (1) es
BA= I
Luego
B = A"1
Como en general- no se sabe a priori si A es inversible, igualmente el m todo puede ser
utilizado. En el caso en que A no tenga inversa no ser posible formar la identidad, por ser su
rango menor que n. Es decir, con el m todo de Gauss Jordn se determina la existencia de la
inversa o no, y en caso afirmativo se la obtiene.
Ejemplo 4-18.
Utilizando el m todo de Gauss Jordn, obtenemos la inversa de
/I
0 1\
A= J 1
2 -2
\ 2 -1
1/
Aplicamos el procedim iento mencionado a la matriz del tipo 3 X 6 que se forma
escribiendo la identidad 3 X 3 a la derecha de A, y convertimos a sta en la identidad

1 0 0
0 1 0
0 0 1

1 0 0
-1 1 0
-2 0 1

- 1

1
2
2 -1

- 2

1
0

- 1
-1

0 - 1

-1

~
2

0 ( 1 ] - i l l
\2 j 2 2

-1 1 1

1 0 0
l

2 2

i l
5 5
i

5
5

Los pivotes han sido sealados en


cada etapa.
El trasform ado de 3 es:

(-1X-1), 3 _ 1 = !
2

El trasform ado de a2$ = es:

ti
A

l
5
5

www.FreeLibros.com

= + 1
2

10

MATRI CES

140

La matriz inversa de A es

/o

i
5

-i

2
5

-1

1
5

T
i

5
2
5

Ejem plo 4-19.

Determinamos la inversa de

-1
ffi
0
0
1 2

1
1
1

1
0
0

0
1
0

0
0
1

0
1
0

0
0
1

1
0
0

-1
0
3

1
(1)
0

1
0
-1

1
0
0

-1
0
(3)

0
1
0

1
0
-1

2
3
0
1
3

1
0
-1

0
0
1
1
3
0
1
3

Para trasformar A en la identidad, es necesario an perm utar las dos ltimas filas de
toda la matriz. Resulta

www.FreeLibros.com

INVERSION

1 2_
3

141

y
0

1
3

o 1

4.18. INVERSION DE MATRICES POR PARTICION


Consideremos una m atriz no singular M e K n xn, La particionamos en cuatro bloques
segn la descomposicin
n ~ p + q para filas y para columnas
/ A
M=

' C D

En consecuencia A e Kp xp, D e K QXQ, B e Kpx y C e K q x p .


Supongamos que D sea no singular. Proponemos el mismo esquema de particin para la
inversa de M:
M1 =

/ X

\ Z

donde X, Y, Z y U son matrices a determ inar y del mismo tipo que A, B, C y D,


respectivamente.
La matriz D, que hemos supuesto no es singular, se elegir de modo tal que su inversa
pueda obtenerse con facilidad.
Siendo M"1 1a inversa de M, debe verificarse que
A

B \ /X

Y \

D/ ' Z

U '

lp

N\

' N qI !

O sea
A X + B Z - I P (1)

A Y + B U = N (3)

CX + D Z=N

c Y + D U = 1Q (4)

(2)

De (2) se deduce
D Z " C X
Y premultiplicando por D '1
Z ~ D-1 C X

(5)

www.FreeLibros.com

142

MATRICES

Sustituyendo (5) en (1)


Por distributividad

A X - B D"! C X = Ip
(A - B D '1 C) X = lp

Luego
De (4)

X = (A B D"1 c y l

d u

(6)

= i9 - c y

En consecuencia
U = D"1 - D"1 c Y

(7)

Sustituyendo en (3)
A Y + B D~' - B D 1C Y = N
Por distributividad y /trasposicin
(A B D"1 C) Y = - B D"1
Premultipcando por ( A - B D '1 C )'1 = X, resulta
Y - X B D"1

(8)

Las relaciones (6), (5), (7) y (8) permiten la determinacin


respectivamente, en funcin de los datos y de la inversa de D.
Ejemplo 4-20.
Utilizando el m todo de particiones, invertir la matriz
/I

M=[ *
2
\1

-1 0

11

1 1 0
-2 0

Particionamos en cuatro bloques del tipo 2 X 2, y consideramos

\o

V . - D .
1

Resulta

l . X = ( A - B D - > e ) '1 = (A B C)"1

www.FreeLibros.com

INVERSION

Calculamos

Obtenemos la inversa de sta por Gauss Jordan

-1
-1
0

1
0

0
1

1 -1
0 0

1
1

0
1

1
0

0
1

0 -1
-1 -1

Luego

www.FreeLibros.com

MATRI CES

144

Con los cuatro bloques obtenidos formamos la matriz inversa


0 -1
1
- -1
1
1
3 -2
-2 -1
1

0
0
0
1

4.19. CAMBIO DE BASE Y SEMEJANZA DE MATRICES


4.19.1. Matrices de pasaje
En el espacio vectorial (V, + , K , .), de dimensin finita, consideramos las bases
[v]= IV ! , V 2 , . . . , V } y |V] = V( * ! , V *2 , . . v* }
Definimos dos endomorfismos:
1. g : V - V tal que g (v;) v

V/ = 1, 2, . . n

Expresando cada imagen como combinacin lineal de la base [v], se tiene


0)
La matriz P de esta trasformacin lineal respecto de la base [v] en cada espacio es
P = (* /)'
P recibe el nombre de matriz de pasaje de la base [v] a la base [v].
2. h : V -> V tal que h (v;-) = v;- V/' = 1, 2, . .n. ,
Procediendo como en el caso anterior es
vj = A P U yi
p=
es la matriz de h respecto de la base
matriz de pasaje de la base [vj a la base [v].

(2)
[vjen cada espacio, y diremos que es la

4.19.2. Propiedad
Las matrices de pasaje P y P son inversas entre s.
Demostraremos que P P* = P P = I.
Teniendo en cuenta (1 ) y (2 ) escribimos

www.FreeLibros.com

CAMBIO DE BASE

Como

145

Vj = 0 Vj + 0 v2 + . . . + 1 \ j + . . . + 0 v

resulta que el nico trm ino no nulo de la sumatoria anterior se obtiene para i = /, y vale 1
Luego
n
S
H1 Pik p kj = <7
Por definicin de producto de matrices y de matriz identidad resulta
PP= I
Anlogamente se deduce que
P P = I
En consecuencia, ambas matrices de pasaje son inversibles, y cada una es la inversa de la
otra.
4.19.3. Trasformacin de coordenadas
Sea P la matriz de pasaje de la base [v] a la base [v],
y sea x e V.
Demostraremos que

X,v, - P X j v.j
donde X[v] y X[v.j son las matrices de las coordenada s de x e V en las bases [v] y [v]
respectivamente.
En efecto, expresando a x como combinacin lineal de cada base y teniendo en cuenta (1)
de 4.19.1., escribimos
n
n
n
x = j S 1 ai>v,} = jS 1 Ci'i

Pero

n
x= 2

Pi}V"

Vi

Por la unicidad de la C.L. es


~

pj cCj

Vi = 1, 2, . .

Por definicin de producto de matrices, de las relaciones anteriores se deduce

www.FreeLibros.com

146

MATRI CES

O sea

Xt v r P X [v.| (3)
Y como P es no singular, premultiplicando por P"1 resulta
X [V. , = P - X [V| (4)
(3) y (4) se llaman frmulas de trasformacin de coordenadas.
4.19.4. Matrices de una trasformacin lineal y cambio de bases.
Sea / : V -> W una trasformacin lineal de m atriz A e K mxn respecto de las bases
[ v] ~ v i , v 2, . . .,v } e n V y [ w ] = ( w , , w 2 , . . , w m ) enW.
Si se efecta un cambio de base en cada espacio, entonces la misma trasformacin lineal/
est caracterizada por una matriz B e Kmxn respecto del nuevo par de bases fv] y [wl.
Sean P e K.nxn y Q e K1X"1 las matrices de pasaje de [v] a [vJ y de [w
] a [w].
Demostraremos que las matrices A y B de la trasformacin lineal /re sp e c to de los dos
pares de bases verifican
B = Q '1 A P
es decir, son equivalentes.
Para ello consideremos el diagrama

V, [v]

W, [w]

V, [v]

W, [wl

Se verifica que
l . Xj vj = P X [v.j por 4.19.4. (3)
2 Y(w] = Q Y [w,, por4.1 9 .4 . (3)
3. Y,t (w] - A X[v] por ser / trasformacin lineal de matrizA respecto de las bases [v] y
[w].
4. Y[w.j - B X|v ,, pues / e s trasformacin lineal de m
atriz B respecto de las bases [v] y
[w].
De 2., 3. y 1. se deduce
Y [W]
. . . . -n -O'
m Y (wj = Q- 1 A X [v) = Q- A P X(v,|

www.FreeLibros.com

SEMEJANZA

147

De esta relacin y de 4 resulta


B = Q 1 AP
0 sea, B ~ A.

R e c p r o c a m e n t e , si A y B son matrices equivalentes en K mx", y V y W son e s p a c io s


ectoriales sobre K, de dimensiones n y m , respectivamente, entonces A y B caracterizan a
una misma trasformacin l i n e a l / : V -> W respecto de dos pares de bases.

4.19.5. Matrices semejantes


Consideremos el caso particular del endom orsm o
/ : V >V
siendo dim V = n y A la matriz d e /re sp e c to de la base [v] = [w] en cada
espacio.
Si se efecta un cambio a la nueva base [v*] = [w]
con matriz de pasaje P = Q, entonces se
tiene
B = P '1 A P
donde B es la matriz d e /re sp e c to de la nueva base [v*].
Las matrices A y B de Kn x n , que representan el mismo endomorfismo respecto de las
bases [v] y [w], se llaman semejantes.
Diremos que
A es semejante a B o 3 P no singular / B = P '1 A P
La semejanza de matrices es una relacin de equivalencia.
Ejemplo 4-21.
Sea la trasformacin lineal / : R 3 *R3 definida por
f(a,b,c)-(a + b , a - b + c , a - c )
1 ) Determinamos la m atriz A de / , respecto de labase cannica [v] en cada espac
io
/ ( 1 ,0 ,0 ) = (1, 1, 1)

le ,+l e 2 + l e 3

/ ( 0 , 1 , 0 ) = (1, 1 , 0 ) =

1 ej - 1 e2 + 0 e 3

/ ( 0 , 0 , 1) = (0, l , - l ) = 0 e t + 1 e2 - l e 3
Entonces
\

A = ( 1 -1
1
\l
0 -1
ii)

Obtenemos la matriz P de pasaje


[v] = f ( l , 1 , 1 ) , ( 1 , 1 , 0 ) , ( 1, 0, 0)}

de la

( 1, 1 , 1 ) = l e , + 1 e2 + 1 e 3

www.FreeLibros.com

base

cannica [v] a la base

148

MATRI CES

( 1 , 1 0 ) = 1 e, + 1 e2 + Oe3
(1, 0 ,0 ) = 1 e, + 0 e2 + 0 e3
Luego
P=

m\ " T f n ada,e<: ; : i Ultad


OS
Se sabe que

/ 1 i i
1 1 0
\ 1 o o
CakUlam0S riZ B

de la base

B = P"1 A P
Empleando Gauss Jordan resulta

Luego

1 -1

0/

\i
1
1
1

o
1
1
0

?)/:

1/ \ 1

1\
/o
0 ]= [ 1
0 /
\ 1

1
1
2

o
1
o
0

El lector puede verificar este resultado obteniendo directamente B, como en i).

www.FreeLibros.com

TRABAJO PRACTICO IV

4-22. Calcular la m atriz A 2 B, sabiendo que

4-23. Determinar la m atriz X = / X ^ ) sabiendo que X + ( ^


M =I
\.z u f
\ 2 -2 /
4-24. Sean las matrices
1
1
1

1\

B=

2/

1 -1
0
0
\ -2
2
/

Obtener: A2 , A B C y B fAt ,
4-25. Desarrollar
i ) (A + I) (A I)
ii)

(A + B) (A - B)

Sabiendo que A, I y B son matrices cuadradas n x n.


4-26. Siendo
PQ

q2

-P2

~PQ

Calcular A2 .

www.FreeLibros.com

-3
-3

MATRI CES

150

4-27. Obtener A2 sabiendo que


A=
0

4-28. Dada la matriz


A=
calcular A2 , A3 , A4 , etctera, y vincular los elementos resultantes con los trminos de
la sucesin de Fibonacci: 1, 1, 2, 3, 5, 8, 1 3 , . . . donde, a partir del tercero, cada uno
es igual a la suma de los dos anteriores.
4-29. Demostrar que A (B C) = (A B) C, sabiendo que los productos indicados existen.
4-30. Demostrar po r induccin completa que

4-31. Sabiendo que

demostrar

4-32. Resolver la ecuacin A2 + X2 = I, donde A, X, l'son matrices 2 X 2 y

4-33. Siendo B e Knxn, C e K " xn, C2 = N y B C = C B, demostrar


A = B + C ^ A ftti = B** ( B + (fc + 1) C )
4-34. Sabiendo que en K nxn se verifica X A = I y A Y = I, demostrar que X = Y.
4-35. D eterm inarlas matrices X e R2x2 tales que X2 = N .
4-36. Demostrar que si A y B son matrices diagonales en K "x'!, entonces ABes diagonal y
AB = BA.

www.FreeLibros.com

TRABAJO PRACTICO IV

151

4-37. Demostrar
A A =N = > A = N

4.38 Demostrar que si A y B son matrices idem potentes y permutables en Kxn , entonces
A B es idempotente.

4.39 Demostrar que si una matriz es simtrica, idem potente y con algn elemento nulo en la
diagonal, entonces la fila y la colum na de dicho elemento son el vector nulo.
440. Demostrar que si A es idem potente y B es ortogonal, entonces B* A B es idempotente.
441. Demostrar
A2 = A a A + B = I=>B2 = B a AB = BA = N
442. Demostrar
A + B = I A A B = N = >A y B son idempotentes
443. Demostrar
A B = A a B A = B => A, B, A f, B* son idempotentes
444. Demostrar que si A es simtrica, entonces Bf A B es simtrica cualquiera que sea
B e K x".
445. Sean A y B dos matrices simtricas en K nxn. Demostrar
A B es simtrica 0 A y B son permutables
446. Demostrar que la m atriz A e K nx" es involutiva si y slo si (I - A) (1 + A) = N.
447. Demostrar que A y B son permutables si y slo si A al y B - a l son permutables,
cualquiera que sea el escalar a.
448. En K3 x 3 se consideran una matriz cualquiera B y A tal que a = 1
Analizar las filas de AB y las columnas de BA.

Vi V/

449. Demostrar que si A y B son no singulares y permutables, entonces sus inversas son
permutables y sus traspuestas tambin lo son.
4'50. Demostrar que si A es una matriz diagonal y todos los elementos de la diagonal son no
nulos, entonces A es no singular y su inversa es la m atriz diagonal formada por los
inversos de tales elementos no nulos en la diagonal.
4-51. Demostrar que si A es no singular e idem potente, entonces A = I.
4-52. Verificar que las siguientes matrices forman grupo multiplicativo.

www.FreeLibros.com

MATRI CES

152

4-53. Mediante una particin adecuada efectuar el producto

2 0 0\
0
0

1 0 0 \
0 0 1 j
0 2 2/

/O 0 0 1

/ 0 0 2 0
1 1 0 0 0
'0 1 0 0

4-54. Determinar una base del espacio fila de

4'55. Demostrar que si A es no singular y B A = N, entonces B = N.


4-56. Siendo A e K nxn no singular y X e Y matrices en K nx 1 tales que A X = Y, entonces c
X = A"1 Y.
4-57. Demostrar que si A y B son matrices de K nxn tales que A B = N , entonces A = N i
B = N o A y B son singulares.
4-58. Determinar los rangos de
-2
4 -2 -2
A = f 1 1 1 0 |
-2
1 2 - 1

4-59. Obtener, si existen, las inversas de


A=

/ 1 -1
0\
0
1 -1
1 0
1/

/ 1 -1
0
B= | 0
1 -1
V 1
0
2

4-60. Sea

2
1
-7

3
4

Verificar que p (A) = p (A A*)


4'61. Demostrar que el rango de la suma de dos matrices es m enor o igual que la suma de su
rangos.
4-62. Demostrar las siguientes propiedades relativas a la traza de matrices en K" x n :
i ) r(A B )= tr (BA).
ii)

tr (ABC) = tr (CAB) = tr (BCA), o sea, la traza no vara frente a permutaci


cclicas.

www.FreeLibros.com

TRABAJO PRACTICO IV

153

iii) Si C es ortogonal, entonces tr (C*AC) = tr A.


4-63. Sea A una m atriz idem potente en R " xn, y sea X un vector no nulo de R n que verifica
AX *=aX, con a e R. Demostrar que a = 0 o a s s l.
4-64. Si A e Rnxn es involutiva y X e R " es no nulo y verifica AX = aX, entonces a = 1 o
a ~ -1 .
4-65. Sea X e R " x 1. Se define el escalar X (X raya) mediante
i n
X=- 2
n i=i

Determinar las matrices A e Rnxn que verifican


i

) X( A X = X2

)X AX = nX2
iii) X^ A X = ( X i - X f
=i
4-66. Sea T e JC estrictamente triangular superior. Demostrar que
(I _ t )- i =1 + T + T 2 + . . . + T fl_l
4-67. Sean
'0
.

1 0
0

1i o o o I
, 0 1 0 0

y b=

donde C y D son matrices 2 X 4 . Verificar que A B

\ C

4-68. S e a /u n a trasformacin lineal de V en V caracterizada por la matriz A.


Sabiendo que A verifica la relacin A3 + A2 - A + I = N, demostrar que / es no
singular.
4-69. Determinar la inversa de

A=

4-70. Sean A = |

1 -v 0 0
0 1 -p 0
0 0 1 -p
0 0 0 1

) y B e R2 x2.Dem ostranA y B son permutables o B = a A + J31


0 3,

www.FreeLibros.com

154

MATRI CES

4-71. Las matrices A y B de Km xm son tales que A y (A B - B A) son permutables.


Demostrar que
A B ~ B A " = n A'1-1 (A B - B A)

VeN

4-72. S e a / : R3 - R2 una trasformacin lineal definida por


f ( a , b , c) ~ (a + b - c , a - t)
i ) Hallar la matriz de /re sp e c to de las bases cannicas en R 3 y en R2.
ii ) Obtener las matrices de pasaje de las bases anteriores a las bases
[V] = 1 ( 0 , 1 , 1 ) , ( 1 , - 1 , - 2 ) , ( 1 , - 1 , - 1 ) )
[w] = 1(1, 3 ) , (0, - 2 ) |
iii)

Calcular la matriz B d e /, respecto del nuevo par de bases.

www.FreeLibros.com

Captulo 5

DETERMINANTES

5.1. INTRODUCCION
En esta seccin se define axiomticamente la funcin determinante de orden n y se
demuestran las propiedades que se derivan de tales axiomas. Se encara despus el problema
de la existencia del determ inante y se llega al desarrollo por los elementos de una fila. A
continuacin, y sobre la base del concepto de inversiones de una permutacin, se da el
desarrollo del determ inante en funcin de los elementos de la matriz, y se demuestra la
igualdad de los determinantes de dos matrices cuadradas y traspuestas. Se encara el
desarrollo de los determinantes por los elementos de una lnea cualquiera, y se demuestra el
teorema relativo al determinante del producto de dos matrices. Despus de exponer el
concepto de matriz adjunta de una matriz cuadrada, se da un m todo para invertir matrices
no singulares.

5.2. DETERMINANTES
En lo que sigue, supondremos que K es tal que 1 + 1 =0, y si A e K " x", escribiremos
A = (Aj 2 . . . A), donde A con 1 < / ' < denota la columna de lugar i de la matriz
cuadrada.
Definicin
Determinante de orden n es toda funcin
D : Knxn - K
que verifica
1 . D ( A , . . . a ; + a ; \ . . a ) - d ( a i . . . a ; . . . a ) + d ( a .1. . a ? . . . a )
cualquiera que s e a / = 1, 2 , . . . , n.
2.

D (Aj . . . a A ; . . . A ) = f tD ( A 1 . . . A , . . . A )
para todo / = 1, 2 , . . .,n.

www.FreeLibros.com

DETERMINANTES

156

3. A ~ AJ + ! => D (A i . . . A; Aj + 1 . . . A ) - O
cualquiera que sea / = 1, 2 , . . n - 1.
4. D (I) = 1 .
Haremos algunas aclaraciones acerca de la notacin usada y de los axiomas propuestos en
la definicin. La funcin D asigna a cada matriz n x n un escalar llamado determinante de la
matriz. As, el sm bolo D (A) se lee determinante de A , y es un elemento de K.
Los axiomas 1. y 2. caracterizan a D como una funcin lineal respecto de cada columna
de la matriz.
El axioma 3. establece que si dos columnas consecutivas de una matriz son idnticas,
entonces su determ inante es nulo.
El axioma 4. expresa que el determ inante de la identidad vale 1.
Si

A=

an

an

a \n

a 2l

a 22

an1

a n2

@2n

flfin

escribiremos
11 d \1 . . . d \ n
a21 22 a2 n

&n 1

0 -n 2

a nn

Ejemplo 5-1.
La funcin D : K2*2 ->K definida por
D (A) =

= ad - be

es un determinante.
En efecto:
1.

b +

d + d

a b
c
2.

d
aa b
ac d

= a (d + d ,T) - ( b , + b ) c = ( a d , - b c) + ( a d - b c) =

a b
c d
a a d - b a c ~ a .( a d - b c ) =a

a b
c d

www.FreeLibros.com

r
PROPIEDADES

3_ a a

c c

=a c - a c = 0

4- D(I)= | o
os en

157

= u

~ 00=1

Anlogamente lo es la funcin D : K 1x 1 -K definida por

D (A) = \a\ = a

d e la
im na

5.3. PROPIEDADES DE LA FUNCION DETERMINANTE

ticas,

5.3.1. Teorema
Si se perm utan dos columnas de una m atriz, entonces los correspondientes determinantes
son opuestos.
Razonamos inductivamente:
i ) Las columnas que se perm utan son consecutivas.
Sea A = (A i . . . Ay Ay+i . . . An)
Por 3. es
D (Aj . . . Ay + A/+i Ay+i + Ay . . . An)

Aplicando 2. se tiene
D (Aj . . . Ay Ay+i . . . A n) + D iA J_ _ ^ A r -Ar^ r A ) - +
4- D_( A i . .

Ay+i . . . A ny + D (A i . . . Ay+ i A . . . A n) 0

Los dos trm inos centrales son nulos por 3.


Luego
D (A i . . . Ay Ay+i . . . A ) = D (Ai . . . Ay+j Ay . . . A)
ii) Suponemos vlida la propiedad para h - j = k y la demostramos para h - j = k + \
D (A! . . . Ay Ay+1 . . . Ah . . . A)
= D (A i . . . Ay+1 A y . . . A h . . . A )
= D (A j . . . Ay+1 Ah . . . Ay . . . A)
= D (A , . . . A h Ay+i . . . Ay . . . A )

P o ri)
Por hiptesis
Por i)

5.3.2. Teorema
El determ inante de toda matriz que tenga dos columnas idnticas es nulo.
ii= j a A = Ay => D (A i A2 . . . A . . . A y. . . A ) = 0

www.FreeLibros.com

158

DETERMINANTES
En efecto, perm utando tales columnas idnticas por 5.3.1. es
n)

O sea
D (A) = - D (A) pues A* = A,

Luego

1 D (A) + 1 D (A) = 0

En consecuencia

(1 + 1) D (A) = 0

Y como l + l ^ o , resulta

D (A ) = 0

5.3.3. Teorema

Hem os aplicado 1.3.1. y el axiom a 2. de la funcin determ inante.

5.3.4. Teorema
linfa! de

ante

S a

- u Se le suma una com bi nacin

/ ^ ^ D ( A 1 . . . A J. . . . A , . . . A ) = D ( A 1 . . . A ; . . . A f c + a A .
A plicando los axiom as 1. y 2., y teniendo en cuenta 5.3.2., resulta

' " '

D (A, A , . . . A * + a A / . . . A ) =
l >I A'

' A - -A.

(A, . . . A ; . . . A / . . . A ) =

= D ( A. . . . A j . . . A k . . . A n) +

a .0 =

= D ( A 1 Aj . . . A k . , . A)
Ejemplo 5 -2,
Sea
/
A- ^

l\

1 / eR3X3

www.FreeLibros.com

. ,

PROPIEDADES

Calculamos D (A) de la siguiente manera:


i

) A la tercera columna le sumamos la primera multiplicada por - 1 .


1
-1
2

D.(A) =

1
0
1 0
1 -1

1
-1
2

0 0
1 1
1 -3

i i ) A la primera columna le sumamos la segunda.

D (A) =

1
0
3

0
0
1
1
1 -3

iii) A la tercera columna le sumamos la segunda multiplicada por - 1

D (A) =

1
0
3

0
0
1 0
1 -4

iv) De la tercera columna extraemos el factor - 4 .


1
D (A ) = ( - 4 ) 0
3

0 0
1 0
1 1

v ) A la primera columna le restamos el triplo de la tercera.


1

D (A) = ( - 4 )

0 0
01 0
0 1 1

vi) A la segunda columna le restamos la tercera


(1 0 0
D (A) = ( 4 ) '0 1 0
0 0 1
Por 4. resulta
D (A) = ( - 4 ) . 1 = - 4

Ejemplo 5-3.
S i a e K y A e K " * " , entonces
D ( a A ) = a " D (A)

www.FreeLibros.com

160

DETERMINANTES

En efecto:
D ( a A ) = D [ a (A 1 A2 . . . A ) ] =
= D(o: Aj a A2 . . .a A n) =
= a n D (A)
Ejemplo 5-4.
Sl Alx^2
A" son vectores columnas de K n tales que D (Ai A2 . . . A)
B e K" x es combinacin lineal de aqullos, o sea
B = ; ? i * A ' con x e K , i =

1 , 2 ,. .

0 y

.,n,

entonces

D(At . . . B . . . A )
D (A )

donde B es la columna de lugar j.


En efecto:
D (Ai . . . B . . . Am) = D (A , . . . x
- * i D (A t . . . Ai . . . A) + * 2 D (Ai

. An) =
A2 . . . A2 . . . A ) +

+ xj D (Ai . . . Ay . . . A ) + . . . + Xn D (Aj . . . An . .. A) : Xj D (A)


Luego

. _ D ( A i ...B ...A 1
D( A)

5.3.5. Teorema
D ( A , A i ' * AAa ) = o " A "

S n U n e a l m e n t e

dependientes

en

K n,

entonces

Siendo por hiptesis A t l Aa........ A | un conjunto Unealmente dependiente algn


vector, digamos A;-, es combinacin lineal de los restantes, o sea
A,- = S / A f
En consecuencia resulta

D ( A ) - D ( A j A2 . . . . S ft AI. . . . A ) = 0

www.FreeLibros.com

EXISTENCIA

161

El teorema contrarrecproco expresa


D (A) =0 => A i, A2 , . . A son L.I.
Por consiguiente
D (A)

0 => { A j , A2 , . . A ) es una base de K"

5.4. EXISTENCIA DE D
Definiremos los determinantes p o r induccin sobre n. Sea A e K " x", Para cada
(/ /)e l n X I consideramos la m atriz A ( / 1f) del tipo (n - 1) X (n - 1), que se deduce de
A al suprimir la fila i y la columna;.

d\\

..

. . .

a in

...

a,

ay

an 1 an 1

Denotaremos con Ay al producto de ( - l ) w por el determ inante de A (i \j), o sea


A = ( - 1 ) w D ( a ( I/))
El determinante Ay recibe el nom bre de cofactor del elemento (/, /') de la matriz A.
Por ejemplo, si A = J

1 2
3
1
0 2
2
1 -3

'w

1 -3

II

0 -2

>

A n ( l) 2

1!
to

entonces los cofactores de los nueve elementos de A, son


1 -2
2 -3

Probaremos la existencia de D procediendo inductivamente.


i ) Sean n = 1 y A = (a) e K 1x 1. Definiendo
D : K l xl - K mediante
D (A) = a
se satisfacen los axiomas propuestos en 5.2.
ii) Supongamos definido D : K(" 1>x(fl 1) K.
Esto significa que se satisfacen los axiomas 1 2 . , 3. y 4.

www.FreeLibros.com

= - 1 , etctera.

162

d e t e r m in a n t e s

Daremos ahora una expresin para ]a funcin

* j

determinante de orden - i. Para ello definimos, para cada fla / = 1 , 2 . ^ 6XPenSaS deI
D : K n x n ~>K

mediante la asignacin

D (A ) = . 1 au A

(i)

donde Aj ( - 1 ) d f A ( / / ) ) .
0 sea

D ( A ) - s A fl + a 2 A + . . . + an An V ; e l .

Probarem os que la definicin (1 ) satisface los axiom as nom brados

! D (A, A2 . . . A ' k + Afe . , . A ) =


n
"
~ j S x aa A y = aik A ik + X aj Ay =
j&h
= (a k + a \ ) A ik + 2 a a =
j^ k w u

2. D ( A i

2 . . .a Ak . .

. A )=

n)

a ..

a* Av

-=

an

puede extraerse en virtu d de l U p t e t d u c t v a

^ u ta " 3 ^

D ( A 1 A2 . . . a Af t . . . A) = a D ( A i A 2
3 . A = A * +1 =>D( A, . . . A *

4. v

a atk Aik 4 ^ 2 ay Atf.

Aft

1U8" * ^ faC r

A* + 1 . . . A ) =

=St aH A = a ik A ik + ai

h+1 At h+ =

- ( D1)A
(1D*}!
a**+D^ i*4 c D14+
)()/ 1*) J = 0 =
ath
( A (;+(_1)i"
Ik ) ) ++1
(_!)<**,
( A>
4- D W = , 4 ( ~ l ) w 5i D ( l ( | / ) j =

( - I ) +i Su D f I (/ [ /) J= 1

Entonces, Vn e N , V/ e l n , la funcin
D : Knx

www.FreeLibros.com

qUe

UNICIDAD

163

definida por
D ( A ) = . |i a ; Ai;es un determinante de orden n.
La frmula anterior corresponde al desarrollo del determinante por la i-sima fila y expresa
que todo determinante es la suma de los productos de los elementos de la fila i por sus
correspondientes cofactores.
5,5. UNICIDAD DEL DETERMINANTE
Expondremos primero algunos conceptos relativos a permutaciones e inversiones de una
permutacin, sin entrar en detalles de demostraciones. Despus hallaremos una expresin del
determinante en trminos de los elementos de la m atriz, de modo tal que se satisfagan los
cuatro axiomas de la definicin.
5.5.1. Permutaciones
Sea el intervalo natural inicial

= {1

Definicin
Permutaciones de I son todas las funciones biyectivas de I en s mismo.
Si o : I -*I n es una perm utacin, entonces O queda caracterizada por el conjunto
ordenado de las imgenes
a~ {a(l)

a ( 2 ) . . . ff(tt))

Como o es biyectiva, existe la perm utacin inversa de a, a 1 : ln + definida por


a

1 ( O = / si o ( j ) ~ i

Como la composicin de funciones biyectivas de I en l n es tambin una funcin


biyectiva, resulta que la composicin de dos permutaciones de I es una permutacin de l n.
Permutacin idntica es la funcin identidad en I.
5.5.2. Trasposiciones
Sea e l

i Trasposicin /-sima de la perm utacinO es la permutacin


Ja : I/j

ln

definida por
i

o ( i)

si i

+ } a / =/ + 1

www.FreeLibros.com

164

DETERMINANTES

Por ejemplo, dada la permutacin de l 5


a = ( 2 1 3 4 5)
entonces es
2CT (2 3 1 4 5)
Toda trasposicin de una perm utacin intercambia dos imgenes consecutivas y deja fijas
a las restantes.

Se verifica que la perm utacin inversa de una trasposicin es una trasposicin. Por
ejemplo, la permutacin inversa de la trasposicin
20 = (2 3 1 4 5)
es la trasposicin

!
2' = (3 1 2 4 5)

Se demuestra que si o es una perm utacin de I y n > 1,entonces existe un nmero finito
de trasposiciones cuya composicin es la identidad.
Por ejemplo, si

o = (2 3 1 4 5)

2(j = (2 1 3 4 5)

entonces

l2 0 = ( l 2 ) 0 = ( i 2 3 4 5) = I

5.5.3. Signo de una perm utacin


Sea a una permutacin de l n . El smbolo e(ff) denota el m nim o nmero de
trasposiciones que trasforman a o en la identidad. Convenimos en que e (I) = 0.
Diremos que o es par si e (a ) es par. Si e (a ) es impar, entonces a es impar.
A cada perm utacin a de I se le puede asignar el signo + si a es par, y el signo menos si
es impar. Tal signo queda caracterizado por ( -- l ) e(0)
Se verifica que dos permutaciones inversas tienen la misma paridad. O sea
(_ !) *> = ( ~ i ) e ^ >
5.5.4. Teorema
Los determinantes estn unvocam ente determinados por los axiomas 1., 2., 3. y 4. El
determinante satisface la expresin
D (A) = S ( ~ l ) e (CT) ao0 M

-aa{n) n

donde la suma se realiza sobre todas las permutaciones de I.

www.FreeLibros.com

UNICIDAD

165

Considerem os A = (A , A2 . . . An) e K " x". Si E j , E2 , . . E rt son los vectores columnas


de la base cannica de K", entonces
n

A2 ~ a 2 E
1=1

A = 2 ain E,
=i

O sea

D (A) = D (A , A i . . . A ) = D ( i a E,
1=1

2 a 2 E , . . . J

1 =1

l-l

ain E,)

Mediante 1. podemos expresarlo como una suma de trminos del tipo


D ( a ff( i ) ti E0(1)

fla (2),2 Eg( 2 ) . . . a a (),n Ea ())

donde o( 1), o(2 ) , . . o() denota una eleccin de n enteros entre 1 y n.


Por 2. se tienen trminos de la forma
# < 7 ( 1 ) , ! a o { 2),2 a a { n ) sn D

(ECT(i) E ff(2) . . . ECT(n))

Si algn o asigna el mismo entero a valores distintos i y /, el determinante es nulo en


virtud de 5.3.2. Esto significa que debemos considerar slo las permutaciones de In.
Luego
D (A) = 2 70 (1^1

J 2 . . . n a(n),n L) (E C(1 ) Ea (2 ) . . . ECT())

Los vectores cannicos ECT(1), ECT(2


Ea () constituyen en cada trmino una
permutacin de E j, E2 , . . En . Si e ( a ) denota el nm ero mnim o de trasposiciones
necesarias para obtener la perm utacin identidad es
D (E *d) Eaia)- **(>) = ( - 1 y <a) D (Ei E2 . . . E)
donde ( l) e(a) es el signo de la permutacin.
Por 4. resulta
D (E (1, E0(2>. . . E (n)) = ( - 1 ) <> D (I) = ( - l ) e<7)
Por consiguiente es
D (A) = 2 (l ) e<7 0 (i

0(2),2 ao(n),n

Este desarrollo del determ inante no es til para el clculo, pero s lo es desde el punto de
vista terico.

www.FreeLibros.com

166

DETERMINANTES
5.6. DETERMINANTE DE LA TRASPUESTA
k " x"

Sabemos que
D (A ) ~~ ^

1 ) eCT)fla ( l ) , i

* -

( I ) ,2 a a{n) n

Sea una perm utacin de I S i o (j) = k, entonces a 1 (*) = /

En todo producto del tipo

ao(j)J=ak,o~l (k)
ao (i),i a<ji

2 ) t 2

cada entero k e \ n figura una sola vez entre los enteros a ( f t P



puede escribirse as:
^
consiguiente, tal producto

y la suma es

ya que
( - l ) c< > = (-I)e< cT ')

permutacin caracteriza unvocamente a su inversa.


Por consiguiente, la suma es igual a
2

^ l > a l . a(l )2, a(2>. . . a n,0(n) = D (A )

Ejemplo 5-5.
Calculamos, segn 5.5.4., el determinante de C = (A B ) siendo

Efectuamos primero

-ri).

www.FreeLibros.com

DETERMINANTE DE LA TRASPUESTA

167

Entonces
C ~ (A B)( -

/ 3 -3
-2
2
\ 5 -5

-4
0
-2

Para obtener los seis trminos del desarrollo 5.5.4. podem os aplicar la conocida regla
de Sarros, repitiendo debajo del determ inante las dos primeras filas de la matriz, y
efectuando los productos indicados
= 3 . 2 . (-2 ) + (-2 ) . (-5 ) . (-4 ) + 5 . (-3 ) . 0 5 . 2 . ( - 4 ) - 3 . ( - 5 ) . 0 - ( - 2 ) . ( - 3 ) . ( - 2 )
= - 1 2 - 4 0 + 4 0 + 12 = 0

D (C) =

En el caso de un determinante de orden 4, esta regla no es aplicable, y la obtencin de


los 24 trminos del desarrollo es m uy penosa. En todos los casos de clculo es
preferible el desarrollo del determ inante por los elementos de una fila o columna,
como se indica en 5.3.5.
En este sentido, primero extraemos el factor 2 de la segunda fila, y despus sumamos a
la segunda columna la primera:

D (C) - 2

3 -3 - 4
-1
1
0 =2
5 -5 -2

3
-1
5

0 -4
0
0
0 -2

= 0 por tener una columna de ceros.

El lector puede verificar que


D (C) = D (A B)
Ejemplo 5-6.
Calculamos el siguiente determinante:
D (A) =
A la primera fila le sumamos las dos ltimas y extraemos el factor 9
D (A) =

9 9 9
3 5
3
5

=9

1 1 1
3 5 1
5 1 3

A la segunda y tercera columnas les restamos la primera


, 1 0
D (A) = 9

0
2

-4

www.FreeLibros.com

168

DETERMINANTES

Desarrollamos por la primera fila, segn 5.3.5.


D (A) = 9 . 1 .

-2

-4

-2

= 9 ( - 4 - 8 ) = -1 0 8

Teniendo en cuenta que los determinantes de dos matrices traspuestas son iguales, los
axiomas y propiedades relativos a las columnas son vlidos para las filas.
En consecuencia, el desarrollo de un determ inante por los elementos de una fila
propuesto en 5.3.5., se hace extensivo a los elementos de una columna. Podemos decir
entonces, que todo determ inante es igual a la suma de los productos de los elementos de um
lnea (fila o columna) por sus respectivos cofactores.
Ejemplo 5-7.
Desarrollamos por los elementos de la primera columna.
D ( A) =

1 1 1 1
a
c d
a2 b2 c2 d 2
a3 b3 c 3 d 3 .

Antes de efectuar el desarrollo pedido reduciremos a 0 los tres ltimos elementos de la


primera columna, para lo cual restaremos a cada fila la anterior multiplicada pora.

D (A) =

1
1
1
b -a
ca
d -a
0 b 2 -a b c2 - a c d 2 -a d
0 b : -ab2 c 3- a c 2 d 3- ad 2

Desarrollando por la primera columna y factoreando


D (A) =

ba
b(b~a)
b 2(b - a )

c -a
c (c -a )
c 2 (c -a )

d -a
d (d -a )
d 2(d -a )

Extrayendo factores en cada columna


D (A) = (b - a ) (c -a ) (d -a )

1
b
b2

El determinante de orden 3 que resulta es del mismo tipo que el primero. Ahora
restamos a cada fila la anterior po r b
D (A) = (b -a ) (c -a ) (d -a )

1
1
1
0 c-b
d -b
0 c2- b c d 2~bd

Desarrollando por la primera columna y extrayendo factores se obtiene


D (A) - (b -a ) (c - a) (d a) ( c - b ) (d -b )

www.FreeLibros.com

DETERMINANTE DEL PRODUCTO

169

0 sea

D (A) = (b - )( c - a) (d - a )( c - t) (d ~ b ) ( d - c)
El determinante propuesto recibe el nombre de determinante de Vandermonde, y
considerando la fila de elementos a, b, c y d,su desarrollo es igual al producto de los
binomios que se obtienen restando cada elemento de la misma de todos los que le
siguen.

5.7. DETERMINANTE DEL PRODUCTO DE DOS MATRICES


Demostraremos que si A y B son matrices n , entonces se verifica que
D (A B) = D (A) D (B)
O
sea, el determ inante del producto de dos matrices es igual al producto de sus
determinantes.
Considerando la m atriz A particionada en vectores columnas, se tiene

C = A B = (A 1 A 2 . . . A n)

b 11 b 12 b 1
21 b 22 . . . b 2 n

bni
A j

b n2 . . .

j = i b i2 A i y ? !

b nn
b jn A i)

Luego
D (A B) = D ( 2 yi Ay .2 bj 2
= 2 D (^0(1 >,1 Aff( i)

.. . .2 bjn A}) =

6 a (2),2 Act(2) ^ ( n ) ,n A 0(n) ) =

^ ^<7(1 ),1 b a ( 2),2 ^ ( i) ,nD (A(j(i ) A(j(2 ) - Aff(n))


= (

>o(1 J(1 6 0 (2),2 ^a(n),n D (A ( A2 . . . Art)

= D (A) 2 ( l ) et> 0(1 ),i ^o(2 ),2 &(r(n),n =


= D (A) D (B)

www.FreeLibros.com

170

d e t e r m in a n t e s

5.8. ADJUNTA DE UNA MATRIZ CUADRADA


5.8.1. Definicin
- - >

Si

* -

I a n a 12 . . .
an

<*22

a ln
a2n

...

an 1 a n2 . . .

ann>

entonces la matriz adjunta de A se denota mediante el smbolo Adj A,


/ An
Adj A =

A 12

A:
k2 i
A 22

A ln

A2 . . .

Anl
. . . A 2

Ann

Por ejemplo, la matriz adjunta de


- 1 0
2
A=[ 2
1
3
1 2 3

es

39 - 5 \ '

Adj A = - 4

-2

3 -4

_2

-2

=[ 9 1 7
,-5 - 2 -1

7 -1

5.8.2. Propiedad

Sea
rn

a i2

A=

a1n

a \2

...

ff;.
donde h=i

ah\

a h2

. . .

www.FreeLibros.com

y es

ADJUNTA

171

Sum ando a la fila h la fila i, el determ inante de esta m atriz no vara, es decir

tuir

#11

#12

an

a 2

a ln

...

air

D (A ) =
ah l+ a

^ h 2 ^ i2

ni

D esarrollando el segundo m iem bro po r los elem entos de la fila h, se tiene

D (A ) = .2 {ahj + au) A hj
Entonces
n

D (A) = 2 ah A hj + .2 a 3 A hj
La primera sumatoria es D (A), y en consecuencia
D (A ) = D ( A ) + J i f l f f Aw
Luego
.2 aj A hj = 0
Esta propiedad tam bin es vlida para columnas. A continuacin demostraremos que el
producto de toda m atriz cuadrada a izquierda y a derecha por su adjunta es igual al
determinante de dicha matriz por la identidad.
OS

5.8.3. Teorema
Cualquiera que sea A e K "xn se verifica que
A . Adj A = Adj A . A = D (A) . I
En efecto, aplicando la definicin de adjunta de una matriz cuadrada, el producto de
matrices, 5.4. y 5.8.2. se tiene

A Adj A =

#11 #12 #1*


#21 #22 a 1 n

A u A 21 Ai
Aj2 a 22 A2

&n l

Aln A2 n * An

#r2

a nn

www.FreeLibros.com

172

DETERMINANTES
n

n
a H A 2;

' ' }S x lJ
n

A 2 j

av

'

D (A )
O

= D (A )

O
...
D (A) . . .

...

1 0 ... 0
0 1 ... 0
o 0

...

A ni

a n j A nj

O
O

D (A )

= D(A).I

En forma anloga se prueba que


Adj A . A = D (A) I

5.9. INVERSION DE MATRICES NO SINGULARES


d isto to de cerrom0S
Sea A e K nxn.

matZ

nVerSWe

* sl * -> determinante es

1. Supongamos que A es inversible. Entonces existe B e K nxn tal que


Luego

AB=BA= I
D (A B) = D (B A) = D (I)

Por determinante del producto y de la identidad es


D(A)D(B) = D ( B ) D ( A ) = I
Resulta D (A) * 0, pues en caso contrario su producto por D (B) sera 0, y no 1.
2. Sea A e K *" tal que D (A) * 0. Demostraremos que A es inversible
detenriinante

* * * - A . Adj A = Adj A . A = D (A) . I

www.FreeLibros.com

173

INVERSION DF, MATRICES

Por hiptesis, el escalar D (A) es distinto de cero, y dividiendo por l resulta


Adj A _ Adj A

A-F (x r^ (X )
Entonces, por definicin, existe A 1 y es

A-l - Ad A

D( A)

Se obtiene de este modo otro m todo efectivo para el clculo de la inversa de una matriz
110 singular.

Ejemplo 5-8.
Obtenemos la inversa de la m atriz del ejemplo 5-6.
/I
A= I 3
V5

3 5
5 1
1 3

Como D (A) = -1 0 8 , existe A-1.


Primero obtenemos la '
Adj A =

- 4 -2 2
14
14
- 4 -2 2
14 - 4
\ -2 2

- 4 --22 \*
14
14
- 4 -2 2
4
/
14
-2 2

Luego
A"1 =

/ 14

~ 108 \ - 2 2

- 4 -2 2 \
-22
14
14 - 4 /

O sea
7
~ 54
2
54
11

2
54
11

11
54
7

54 54
2
7

54 ~ 54

54

Ejemplo 5-9.
Demostramos que los determinantes de dos matrices inversas son escalares recprocos.
Sea A e K nx'' no singular, es decir, tal que existe A 1.
Entonces se tiene
A A"1 = I

www.FreeLibros.com

174

d e t e r m in a n t e s

D (A A_1) = D (I)
Por determinante del producto y de la identidad es
D ( A ) D ( A ~ 1) = 1

O sea

D (A " ') = [D ( A ) r '


Ejem plo 5 10.

qs - ^ S
K CeS Semejanfes
determinantes iguaies.
' SlBeK
CS SemCJ;1,' te a A - 0 " ' " existe P no singular ltaque
B = P '1 A P

Entonces

D (B) = D (P~* ) D (A) D (P)


Como K es conmutativo
D ( B ) = D ( P - ' ) D ( P ) D (A )
Por determ inante del producto
D (B) = D (P"1 P) D (A)

O sea

D (B ) = D ( I ) D ( A )

Y resulta

D (B ) = D( A )
5.10. REGLA DE CfflO
det

n :
de rminaaC
nteta;eel
T O a^atai^ ^

E.

Pr P rCOna el mtodo de Gauss ^ r d a n para la determinacin

Sea
12 . . .

u
2i

a 22

ai2 . (a

am

an2

...

au ...
a 2j . . .

a ln
a 2n

D (A) =

. . . anj

...

a nn

www.FreeLibros.com

175

REGLA DE CHIO

Fledm os como pivote un elemento no nulo, digamos


Despus de extraerlo como
facwr de la fra i, reduciremos a cero los dems elementos de la columna del pivote.
a n a 12 <1*/ a in
a 21 a 22 . . . a2 a2n

D (A) = a a

d j\

a i2

aj

aj

d n \ a n 2 anj ar
A cada fila A, con h * i, le restamos la fila i multiplicada por aHh y resulta

au -

& t]a n

Q i j a 2

012

. .

(*i2

D (A ) = fly

...

..

ai -

fllj
y

din

an 1

anan
ai

a n2

Gni &

ana i 2

Al desarrollar por los elementos de la columna / resulta un determinante de orden n

t f i n d w X t o M i r a l l a o la columna del pivote por l. En el segundo caso se reducen a


Es indistinto
^
m
. te En ambas situaciones el procedimiento
mecnico consiste en aplicar el m todo de Gauss Jordn teniendo en cuenta, adems, el
factor ( - 1 ) '+* y
Ejemplo 5-11.
Calcular, usando la regla de Chio.
D (A) -

2
3
0

0 - 1 2
2 - 2 - 3
-2

(3)

0 -1

del pivote se anulan, y a los elementos del determ inante que no figuran ni en la

www.FreeLibros.com

176

d e t e r m in a n t e s

en h columna del pivote se los trasfonna de acuerdo con la regla del -rectngulo

2
3
0
2

1
4

0
1
0 -5
1 -1
0 -1

Desarrollando por la tercera columna resulta

D (A ) = ( - 2 )

4
3

1
-5
-1

Tomando como pivote u = i , y reiterando el procedim iento se obtiene


D (A ) = ( - 2 )

2
-5
-4

1 1 l1
0 -9
0 -4

Desarrollando por la tercera columna resulta


D (A ) = 2

-5

-9

-4

-4

= 2 (20 - 3 6 )= 32

www.FreeLibros.com

TRABAJO PRACTICO V

$.12 Calcular los siguientes determ inantes desarrollando por los elementos de una linea,
reduciendo a ceros todos los elementos de la misma, salvo uno:
2 4 3
2
2 1
1
3 1
D
(B)
=
1
0 3
D (A) =
4
1 2
1
4 1

D (C) =

-2

4
1
3
0
1
2 --1

1
1
0
1
2 -1
3
4

-1
0
1
3

D (E ) =

1
3
4
1

2
1
2 -1
2
1
3
2

5-13. Demostrar que el determ inante de toda matriz triangular es igual al producto de los
elementos de su diagonal.
5-14. Demostrar que si u n determinante tiene dos lneas proporcionales, entonces es nulo.
5-15. Resolver las siguientes ecuaciones:
0
1

1 -X
0

-2

-2
0 =0
4 -X

2 -x
4
2

-3
1
-1

5.16. Sea la matriz

Resolver la ecuacin D (A - X 1) - 0
5-17. Resolver la ecuacin D (A - X I) = 0 siendo

A=

j_

J_

i'
2

www.FreeLibros.com

6
-2
2 +x

178

DETERMINANTES

5-18. Demostrar que el determ inante de toda m atriz ortogonal vale 1 o 1.


5-19. Sea A e K n x n. Demostrar que
D (Adj A) = [D (A)]-1
5-20. Demostrar que
1

1
x2

x i)

5-21. S e a n /y g funciones reales de una variable real con derivadas primeras y segundas.
Demostrar que si

entonces

5-22. Demostrar que si n vectores columnas de K" son Unealmente independientes, entonces
el determinante de la matriz cuyas columnas son tales vectores es no nulo.
5-23. Determinar los signos de las permutaciones de I3 , y la inversa de cada una.
5-24. Sean a x , a2 , . .
definidas por

an escalares distintos. Demostrar que las n funciones f x, jf2, . .


f i ( t ) = eaif

son linealmente independientes sobre el cuerpo de los complejos.


5-25. Obtener las matrices inversas de
(a y b son no nulos)
5-26. Determinar, si existen, las inversas de

www.FreeLibros.com

179

TRABAJO PRACTICO V

$.27. Sean las matrices


y B=

Hallar X sabiendo que AX - B.


$-28. Verificar las siguientes identidades en K
i )

ii)

iii)

iv)

x y 2
y z xz xy

=(x-y)(y~ z)(z-x)

X y z t
y z t X
z t X y
X y z

(x

+y +z + 0

1 X y z +1
1 y z X+t =0
1 z t x +y
1 t X y +z
X-

y z
^y
2z

2x

y - x - z

2z

2x
2y

(x + y + z )3

z-x -y

5-29. Efectuar, mediante el determ inante del producto de dos matrices,


1 --1
2
0
2 --1

2
3
1

5-30. Calcular
0
1
1

1
0
1
1
1

1
1
0
1
1

1
1
1
0
1

1
1
1
0

5-31. Dadas las frmulas de trasformacin de coordenadas esfricas a cartesianas


[ x = p eos ip eos 8
I y = p sen eos Q
1 z = p sen 6

www.FreeLibros.com

180

DETERMINANTES

obtener el jacobiano de la trasformacin, es decir, el determinante cuyas filas son h*


derivadas parciales de x, y y z, respecto de p, v?y 0, respectivamente.
5-32. Obtener el jacobiano de la trasformacin
U= X + Y
X
V =~

donde X > 0 , Y > 0 .

5-33. Demostrar que el detenninante de toda m atriz antisimtrica de orden impar es nulo.
5-34. Demostrar que
A
B

C
D

= lAl ID - B A '1 Cl

donde A y D son cuadradas y A es no singular.


5-35. Si A y D son simtricas e inversibles, entonces
^A
B

B\ 1

/a - i + F E " 1 F

D/

-FE"1

- E ' 1 F

donde E = D - Bf A '1 B y F = A"1 B.


5-36. Sean A e Knxn no singular. U y V en K "x 1. Demostrar
(A + U V*)1 = A '1 - A 1 Uy t A~*
l + V'AU

www.FreeLibros.com

E"1

Captulo 6

SISTEMAS LINEALES

6.1. INTRODUCCION
En este captulo se estudian los sistemas de ecuaciones lineales sobre la base de su
estrecha relacin con las trasformaciones lineales, y se analizan los espacios soluciones de los
sistemas lineales y homogneos. Despus de la demostracin del teorema de Cramer, se trata
la compatibilidad de los sistemas lineales generales. Se dan, finalmente, los siguientes
mtodos directos de resolucin: de Gauss Jordn, de la raz cuadrada y del orlado.

6.2. SISTEMAS LINEALES


6.2.1. Concepto
Consideremos A e Knxm y la funcin
/ : Km ~>K"
definida por
/(X ) = AX (1)
donde X denota cualquier vector columna de K w .
Afirmamos que la asignacin (1) caracteriza a / como una trasformacin lineal de K m en
K . En efecto:
1 /(X + Y ) A ( X + Y ) = A X + A Y = /(X ) + f(Y ).
2. /(aX ) = A (aX) = a A X = o^X ).
Por consiguiente, toda matriz A e Knxm determina una trasformacin lineal / : Km -> Krt
definida p o r/(X ) = A X.

www.FreeLibros.com

SISTEMAS LINEALES

182

K"

Sea B e K " . La igualdad


AX) = B
o lo que es lo mismo
AX-B
recibe el nombre de sistema de ecuaciones lineales.
La traduccin de tal igualdad es

21

11 12 lm '
22 2 m

*1 '
*2

/ti n2 Jim

Xm

bi
b-i

bn

Efectuando el producto y aplicando la definicin de matrices iguales se obtiene la forma


escalar del sistema de n ecuaciones lineales con m variables:
11*1 + 12*2 + + a l m x m = b x
2 1*1 + 2 2*2 + +2rn*m = 2

tl* l "^n2*2 + . +nm*m


La matriz A, cuyos elementos son los coeficientes de las variables del sistema, recibe el
nombre de matriz del sistema. Los escalares que figuran en el segundo miembro se llaman
trminos independientes. La matriz de coeficientes ampliada con los trminos independien
tes se denota mediante
A* = (A B)

www.FreeLibros.com

SISTEMAS LINEALES

Conjunto solucin del sistema lineal es la preimagen por / , de {B } C K ".

0
sea, cada m-upla de elementos de K que satisface a todas las ecuaciones del sistema es
una solucin del mismo.
Entonces
a = (a i , <*2 , ,

es una solucin o a e f 1 | { B | )

Si la preimagen de B e Kn es el conjunto vaco diremos que el sistema lineal


A X = B (I)
es incompatible. Si el conjunto solucin es no vaco, entonces se dice que el sistema es
compatible.
Afirmamos que
A X = B tiene solucin - B e l(f)
y

A X = B es incompatible o B l ( f )
En particular, si B es el vector nulo de K n , entonces
AX=0

(II)

recibe el nombre de sistema lineal y homogneo. En la forma escalar, los trminos


independientes son nulos.
Como 0 e Km satisface a (II), todo sistema lineal y homogneo es compatible. El vector
nulo de Km se llama solucin trivial del sistema lineal y homogneo.
Denotaremos con S al conjunto solucin de (II). S es la preimagen p o r / d e Oe K " . En
consecuencia, el conjunto solucin del sistema homogneo es el ncleo de / Resolver el
sistema (II) es determinar el N(/). Por lo tanto, S es un subespacio de Km, llamado espacio
solucin del sistema lineal y homogneo.

www.FreeLibros.com

SISTEMAS LINEALES

6.2.2. Rango de la m atriz de coeficientes


Sea A e K nxm la matriz de coeficientes de un sistema lineal. Consideremos la
trasformacion lineal
f : K m - +Kn
definida por
f(X ) = A X

Afirmamos que el rango de A es igual a la dimensin de la imagen de f. En efecto: la


imagen d e / e s el espacio columna de A, pues
m

= I /(X ) / X e Km ) =

= j (A i 2 . . . Am)

(AX/XeK"*|

/ ^ 1\
2 J / Xj - eK con i = 1, 2___,
xm f

I m
t
= j .X x tA / jr e K J = SC(A)
Por consiguiente es
dim l(f) = dim SC(A) = p (A)

www.FreeLibros.com

j=

r
ESPACIO SOLUCION

185

6 2.3. Dimensin del espacio solucin de un sistema homogneo


Consideremos el sistema lineal y homogneo

AX = 0
y sea S el espacio solucin, es decir

s=m
donde f es la trasformacin lineal a que nos hemos referido.
De acuerdo con 3.4. se verifica que
dim N (/) 4- dim \(f) = dim Km
En consecuencia
dim S + p (A) = m
O sea
dim S = m - p (A)
Luego, la dimensin del espacio solucin de todo sistema lineal y homogneo es igual al
nmero de variables menos el rango de la matriz de coeficientes.
En particular, si p (A) = m , entonces es dim S = dim N(/) = 0. En consecuencia

Es decir, si el rango de la m atriz de coeficientes de un sistema lineal y homogneo es igual


al nmero de variables, entonces dicho sistema admite como nica solucin la trivial.
Ejemplo 6-1
Interpretamos el siguiente sistema lineal en trminos de una trasformacin lineal y
determinamos la dimensin de su imagen
2*1
*1

*2

+*3 +

~ *2

*3

3*! - 2*2

*4

= 1

+ 2*4

=0

+ 3*4 = 1

La matriz del sistema lineal es


2
A=

-1

1 - 1 - 1
3

2
3

El vector de los trminos independientes es

www.FreeLibros.com

SISTEMAS LINEALES

Definiendo la trasformacin lineal


/ : R4

R3

mediante
AX) = A X
el sistema lineal propuesto nos conduce a la determinacin de la preimagen de

Para hallar dim 1(0 obtenemos el p (A) por el m todo de Gauss Jordn

-2

-1

-1

3
-3
2

-3

- 3

1
0

Resulta dim 1(0 = p (A) - 2


Ejemplo 6-2
Si consideramos el sistema homogneo
2*1 -

x 2 + *3 + *4 = 0

www.FreeLibros.com

TEOREMA DE CRAMER

18^

entonces la trasformacin lineal asociada es la misma del ejemplo anterior. Resolver el


sistema homogneo significa determ inar el ncleo de / , cuya dimensin es
dim S = m - p (A) = 3 - 2 = 1
6.3. TEOREMA DE CRAMER
Si A e Kfix'1 es no singular y B e K " , entonces el sistema lineal A X = B admite solucin
nica, y el valor de cada variable es el cociente entre el determinante que se obtiene al
sustituir, en el determinante del sistema, la columna de coeficientes de la variable por la
columna de los trminos independientes, y el determ inante del sistema.
Sea el sistema lineal
A X= B
Como A es no singular, premultiplicamos por su inversa
A-1 ( A X ) = A 1 B
Asociando
(A-1 A) X = A-1 B
Luego

I X = AM B
En consecuencia
X = A1 B

es la nica solucin del sistema.


De acuerdo con 5.3.5., como D (A ):/ : 0, las n columnas de A son linealmente
independientes y constituyen una base de K". Por consiguiente, cualquiera que sea B eK",
existen escalares*!, x 2, .. . , x n, nicos, tales que
B = 2 x A
= i '
y por lo demostrado en el ejemplo 5-4 resulta
AI

_ D(A j A3 . . . B . . . A )
........
D(A)

para todo 7 = 1 , 2 , . . . , , donde B es la columna de lugar /.


Los sistemas de n ecuaciones con n variables se llaman cuadrados, y si el determinante de
la matriz de coeficientes es distinto de cero, entonces reciben el nombre de cramerianos.
Ejemplo 6-3
Resolvemos mediante el teorema de Cramer el siguiente sistema:
i Xi
I

-V 3 = 1

+ 2 x 2 2x 3 = 1

2 x, -

x2 + x3 -

www.FreeLibros.com

SISTEMAS LINEALES

188

La matriz de coeficientes es

y su inversa, determinada en el ejemplo 4-18, es

Como la solucin es X = A 1 B, se tiene

1
_ 1

/ 1
=

- 1
0

6.4. COMPATIBILIDAD DE SISTEMAS LINEALES


6.4.1. Teorema de Rouche Frobenius o de Kronecker
Un sistema de ecuaciones lineales es compatible si y slo si la matriz de coeficientes y la
matriz ampliada con los trminos independientes tienen igual rango.
Sea el sistema lineal A X = B, donde A eK" *, X e K mxl y B e K iXl, y sea A la matriz
de coeficientes ampliada con la columna de los trminos independientes.
El teorema afirma que
A X = B es compatible o p (A) = p (A )

www.FreeLibros.com

TEOREMA DE ROUCHE

189

En efecto:
A X = B es compatible 3 a e Kmx 1 / A a = B
I ai \
......... K / (A j A2 . . . A m )

4 > 3 % a 2 , . . . , a m e K / B = | i a ( A
B es combinacin lineal de las m columnas de A o
^ B e SC(A) o- p (A) = p (A)
Por definicin de sistema compatible, producto de matrices en forma particionada,
definicin de combinacin lineal, definicin de espacio colum na de una matriz y de rango de
una matriz.
Denotando con T el conjunto solucin del sistema lineal A X = B, el teorema demostrado
puede expresarse as:
T = 0 < * p ( A ) = p ( A )
En consecuencia
T = 0 o p (A) =p (A)
0
sea, un sistema de ecuaciones lineales es incompatible si y slo si los rangos de la matriz
de coeficientes, y de la m atriz ampliada con la columna de los trminos independientes, son
distintos.
6.4.2. Conjunto solucin de un sistema lineal compatible
Sea A X = B un sistema lineal compatible, es decir, tal que p ( A ) = p ( A ), donde
A e Knxm, X e Kmxl y B e K n x i . Se presentan las siguientes situaciones:
1. El rango de ambas matrices es igual al nm ero de variables.
Si p (A) = p (A) = m, entonces las m columnas de A son linealmente independientes y, en
consecuencia, B es combinacin lineal nica de tales columnas. Esto significa que existen
escalares
, . . . , ccm e K, nicos, tales que

O sea, ot =

i
0i2

B = S tt/A ;
i= i
es la nica solucin del sistema.

2. El rango de ambas matrices es menor que el nm ero de variables.

www.FreeLibros.com

SISTEMAS LINEALES

190

Supongamos que p ( A ) = p ( A ) = r < m . Podemos suponer, sin prdida de generalidad


que las filas y columnas linealmente independientes de A son las r primeras. Las r variables
asociadas a las columnas linealmente independientes se llaman principales, y las m-r restantes
se llaman secundarias. Las m-r ecuaciones no principales son combinaciones lineales de las,
primeras, y el sistema es equivalente a un sistema lineal de r ecuaciones con m variables
Trasponiendo al segundo miembro de cada ecuacin las m-r incgnitas secundarias, para cada
sistema de valores asignados a stas, se tiene un sistema lineal crameriano de r ecuaciones con
r variables con solucin nica, ya que la matriz de coeficientes es no singular.
En este caso se dice que el sistema es indeterminado.

6.5. RESOLUCION DE SISTEMAS LINEALES


El m todo de Gauss Jordn perm ite no slo la discusin del sistema en el sentido de
decidir si es compatible o no, sino tambin la resolucin efectiva de l en el caso de
compatibilidad. Esto significa determinar el conjunto solucin.
Esencialmente se basa en la determinacin de los rangos de A y de A \ para lo cual se
escribe a la derecha de la matriz A la columna formada con los trminos independientes, y se
opera de acuerdo con lo expuesto oportunam ente.
Ejemplo 6-4
Discutimos y resolvemos por el m todo de Gauss Jordn el siguiente sistema:
*1 +

X2

+ *3 =

2x , - x 2 - *3 = 1
+ 2 x 2 - *3 - 3

2
1

1
-1
2

-1

-1

1
-

3
2

1
-3

- 2

0
1

( -)

- 18

-3

-2

www.FreeLibros.com

RESOLUCION DE SISTEMAS

191

Desde el punto de vista geomtrico, cada ecuacin es la representacin analtica de un


plano, y la solucin nica caracteriza al vrtice del triedro que forman dichos planos.
Ejemplo 6-5
Verificamos que el siguiente sistema es incompatible:

+ x2 -

*3 =

- x 2 + 3x 3 - - 3
I xt
+ X3 =
1

Investigamos para ello, los rangos de A y de A :

1
1

3
1

- 1

- 2

(r* )
0

0
0
1

Ejemplo

-1

-1

-2
0

El nico elemento que puede ser tomado


como pivote es - 4 . Esto significa que el
rango de A es 3, pero el rango de A es 2, y
en consecuencia el sistema es incompatible.
La ltim a etapa es innecesaria y ha sido
realizada para poner en evidencia los vecto
res cannicos.

6-6

Determinamos una base del espacio solucin del sistema lineal y homogneo
(A - X I) X - 0
para cada X tal que
D (A - X I) = 0
siendo

y X e R3 x 1.

www.FreeLibros.com

192

SISTEMAS LINEALES

Resolvemos primero la ecuacin D (A - X I) = 0, o sea


1 -X

2 X

1 -X

Como la matriz es triangular, el determ inante de la misma es el producto de los


elementos de su diagonal

(1 -X )2 (2 X) = 0
Las races son

\ - X2 = 1 y X3 =2
1. Para \

= X^ = 1 se obtiene el sistema homogneo

Es decir
0*! + x 2 + * 3 = 0
0*! + x 2 + * 3 = 0
0*1 + 0*2 + 0*3 = 0
V * ! e R se verifica
*2 + * 3 = 0

O sea
*2

~ *3

Las infinitas soluciones son las ternas del tipo

www.FreeLibros.com

RESOLUCION DE SISTEMAS

193

Una base del espacio solucin est formada por los vectores

Al mismo resultado se llega utilizando el mtodo de Gauss Jordn

0
0
0
0
0
0

1
1
0

0
0
0

1
0
0

1
0
0

0
0
0

Como p (A) = p (A) = 1 y este valor es menor que el nmero de variables, el sistema
tiene infinitas soluciones. La dimensin del espacio solucin es
3-p(A) = 2
Las dos primeras ecuaciones caracterizan un plano que pasa por el origen y que
contiene al eje x x. La tercera ecuacin se satisface para todo ( * i, x 2, x 3) e R3, o sea,
representa a R 3 . La interseccin de estos dos subespacios es el plano de ecuacin
*2 + *3 = 0Ejemplo 6-7
Considerando las matrices

li
A=

~4

4"

2~

*1
>

x=

*2

^
*r

*3

3 i

resolvemos el sistema lineal


X* A = Xf
? f X= l

www.FreeLibros.com

-y
1=

l
\ i

SISTEMAS LINEALES
Efectuamos primero las operaciones matriciales

l . ( * l * 2 * 3)

(*i X% * 3 )

j *x .> ++l ' * 2 + J X 3

i * . + ^ a + f r ,

j x 2 + ^ X

Por igualdad de matrices

'*' + 4 Xi + J a:3 = * ,
i

+ ~ * 2 + T * 3 =X 2
I9 r 2 +4 --1* 3 = * 3

Eliminamos los denominadores

6x + 3*2 + 4 * 3 = 12*1
6x t + 3 * 2 + 4*3 = 12.*2
3*2

Reduciendo trminos

+ 2*3 =

6x 3

I 6*1 -3*2 - 4*3 = 0

6*! - 9*2 + 4*3 = 0

(
2* * X = 1 => (l

!)/

'

3*2 - 4* 3 = o

~ 1 ^* 1 +*2 + * 3 = 1

Teniendo en cuenta 1. y 2 ., el sistema a resolver es


6*! - 3 * 2 - 4 * 3 = 0
6*, - 9*2 + 4*3 = o
3*2 - 4 * 3 = 0
*1 + * 2 + * 3 = 1

www.FreeLibros.com

(*1 * 2 * 3)

RESOLUCION DE SISTEMAS

195

Aplicamos Gauss Jordan

-1 0

C 22 )

-"2 2
4

15

0
1

3
7
3

0
1
3
11
0
4
11

11

Se tiene: p (A) = p (A) = 3 y la nica solucin es


(

4
Xi ~
11
4

La matriz A de este ejemplo es tal que sus elementos son no negativos y la suma de los
elementos de cada fila vale 1. Esto significa que los vectores filas caracterizan una
distribucin discreta de probabilidades, y por tal motivo la matriz se llama estocstica.

www.FreeLibros.com

SISTEMAS LINEALES

196

El vector solucin define tambin una distribucin de probabilidades, llamada


estacionaria. Este tipo de distribuciones se estudia en las cadenas finitas de Markov.

6.6. SISTEMAS HOMOGENEOS


6.6.1. Espacio solucin de un sistema lineal y homogneo
Dado el sistema lineal y homogneo
AX=0
donde A e K " x m, X e K mxl y O e K n x l , como p ( A ) ~ p ( A ) = r , ocurre que tal sistema
siempre es compatible, de acuerdo con 6.4.1.
En cuanto al espacio solucin del mismo, son vlidas las conclusiones obtenidas en 6.4.2.,
o sea
1 .r = m=> existe solucin nica => S = { 0 }
En este caso la nica solucin del sistema es la trivial.
2. r < m =>el sistema es indeterminado.
6.6.2. Sistemas homogneos cuadrados
Sea el sistema lineal y homogneo
AX-0
donde A e K " x ", X e Knxl y O e K x l .
Propiedad
Un sistema lineal y homogneo de n ecuaciones con n variables tiene solucin nica si
y slo si el determ inante de la matriz de coeficientes es no nulo.
1. Si A X = 0, con A e K nx", tiene solucin nica, entonces es p (A) = n. En consecuen
cia, las n columnas de A son linealmente independientes, y de acuerdo con el ejercicio
5-22 resulta D(A) = 0.
2. Supongamos que D (A) = 0. Segn 5.3.5., las n columnas de A constituyen una base de
K". Por lo tanto, 0 es combinacin lineal nica y trivial de tales vectores columnas.
Los teoremas contrarrecprocos de 1. y 2. nos permiten afirmar que un sistema lineal y
homogneo de ecuaciones con n variables es indeterminado si y slo si el determinante de
los coeficientes es nulo.
Ejemplo

6-8

Determinamos los espacios soluciones de los siguientes sistemas homogneos y


cuadrados:

www.FreeLibros.com

SISTEMAS HOMOGENEOS
i )

197

X ! - 2*2 + * 3 = 0
-

X i

*2

3=0

- 2*2 - 2*3 = 0

D(A) =

-2

- 1

-2

- 1

- 3

=3*0

Luego la nica solucin es


*i =*2 - * 3 = 0
S~

{0 |

Los tres planos forman un triedro cuyo vrtice es el origen.


ii)

*! - x 2 + 3 x 3
I X t + X 2 - *3 = 0
( *1
+ *3 = 0

=0

Como

D(A) =

- 1

- 1

= 1

- 1

0, el sistema es indeterminado.

Lo resolvemos segn Gauss Jordan

www.FreeLibros.com

SISTEMAS LINEALES

198

Se tiene:
/* ,
+*3=0
i
x 2 - 2*3 = 0
Despejando las variables principales
= -*3

X2 = 2 *3
Las infinitas soluciones estn dadas por
i Xi

= - a

| x 2 = 2a
[ *3 = 0

Va eR

El espacio solucin es la recta de ecuaciones


_ X j_

-1
O

_X2_

_ _*3_

sea
S = { ( a, 2a, a ) / a e R

Geomtricamente, este sistema admite la siguiente interpretacin: las ecuaciones


corresponden a tres planos que pasan por el origen y forman un haz cuyo eje es el
espacio solucin, o sea, la recta mencionada.

6.7. CONJUNTO SOLUCION DE UN SISTEMA LINEAL


Sea T el conjunto solucin del sistema lineal A X = B, y sea S el espacio solucin del
sistema lineal y homogneo asociado. Si t es una solucin particular del sistema A X = B, y
t + S denota la suma de esa solucin particular y todas las soluciones del sistema homogneo
asociado, entonces se verifica que
T~ + S
En efecto:
1. Consideremos cualquier solucin u de A X ~ B, y sea t una solucin particular de este
sistema.
u e T A e T = > A(w - t) = Au

Af = B

B = O =>

=>u - t eS=>u t = s A. 5eS=>u = + s A s e S = > e / + S


O

sea
T C + S (1)

2. Sean: t , una solucin particular de AX = B, y s cualquier solucin de A X = 0.


= + s e + S=; AM = A(/ + s) = A + As = B + 0 =B =i' Me T.

www.FreeLibros.com

CONJUNTO SOLUCION

199

Luego
f + SCT

(2)

D e ( l ) y ( 2 ) resulta
T= + S
En consecuencia, toda solucin de un sistema lineal es igual a una solucin particular de
dicho sistema, ms una solucin del sistema homogneo asociado. En otras palabras, el
conjunto solucin de un sistema lineal es igual a la suma de una solucin particular con todas
las soluciones del sistema lineal y homogneo correspondiente.
Ejemplo 6'9
Interpretamos geomtricamente el significado del teorema anterior considerando el
sistema lineal de una ecuacin con dos variables
2*i - * 2 = 1
En este caso es A = (2 1) y A = (2
sistema tiene infinitas soluciones.

-1

1). Ambas matrices tienen rango 1 y el

El sistema homogneo asociado es

2x j - * 2 = 0
y corresponde a una recta que pasa por el origen. Una solucin particular del sistema
dado es (1 ,1 ) = t. Sumando a t los vectores correspondientes a todos los puntos de la
recta de ecuacin 2 x x - x 2 ~ 0, se obtiene la recta T, paralela a S.

www.FreeLibros.com

SISTEMAS LINEALES

200

Ejemplo 6-10
Dado el sistema lineal
/ *j +
J 3*!

X2 +

+ 2x 2

* 3

* 3 +

* 4

+ X5 = 7

* 4 3* 5 = -

|
* 2
+ 2*3 + 2*4 + 6*5 ~
^ 5 * t + 4*2 + 3*3 + 3*4 * 5 =

23
12

determinamos: el espacio solucin del sistema homogneo correspondiente, una base y


la dimensin de ste, una solucin particular y el conjunto solucin de aqul.

1
0
0
0

0)

-2

0
0

23

12

-6

-2 3

23

-23

- 16

- 2

-3

- 6

- 5

23

p (A) = p (A ) = 2 => el sistema dado tiene infinitas soluciones.


Resolvemos el sistema homogneo, cuyo espacio solucin tiene dimensin 3.
5 - p (A) = 5 2 = 3
*j -

* 3 - * 4 - 5*5 = 0

* 2 + 2*3 4- 2*4 + 6*5 = 0

Trasponiendo las variables secundarias


*1 =
* 3 + * 4 + 5* 5
*2 = - 2*3 2*4 6*s

El espacio solucin est dado por

www.FreeLibros.com

CONJUNTO SOLUCION

201

= a + p + 5y

* 2 = - 2a 2/3 6-y
*3 = a
*4

=0

*5=7
cualesquiera que sean a, 0 y y e R.
Luego
1

*1
*2

-2

= Oi

*3

*4
1

XS

5 1

~2

-6
+ 7

+ 0

Una base de S est formada por


'

1 \

-2

-2
1

-6

51

0
1 /

Obtenemos una solucin particular del sistema dado haciendo x 2 = *3 = * 4 = 0


- 16
23
t=

0
0
0

Luego, la solucin general es


/ - 16 '

23
0

+ a

_ 2

+0

'

1
2

0/

www.FreeLibros.com

-6

+7

0
0

1/

202

SISTEMAS LINEALES

O sea

16 + a + 0 + 5y
6y

* 2 = 23 - loe - 2)3 -

* 3 = 0:
x 4 =p
*5=7
6.8. RES
OLUCION DE SISTEMAS SIMETRICOS POR EL METODO DE
LA RAIZ CUADRADA

E StomsL t o V terativ o s para, 13 r esohi d" de

convergencia, y mediante Z
l
1 reqUl eren el anlisis *> cuestiones *
que se desee. A diferencia de stos los mtodos8 * 0 ? " 6'1 S 1UC10nes con la aProximacin
^ n e r o finito de operaciones aritmticas elementales.

AX-B

(i)

tal que A = A* en Knx", X e K x l , B e K nxi y a


J=o
Probaremos que existe una matriz triangular T tal que
A -T 'T
Proponiendo la forma escalar de (2), debe ser
1h i

? 12

?22

*1 "

hn

I tu
0

t3n . . .

tn n j

(2)

f 12

hn

*2 2

h n

o ...

al 2

1 n

2 1

22

2 n

n 1

.n 2

Por igualdad de matrices, despus de efectuar el producto indicado, resulta:


1. Considerando la primera fila:
u i = t , =>ru = V u
S i / > 1, entonces
t u t u = a J

www.FreeLibros.com

..

SISTEMAS SIMETRICOS

203

Luego

A
lL

_ L
t ti =

t\ i

V11

O sea, la primera fila de T se deduce de la de A de la siguiente manera: el primer elemento


es la raz cuadrada del primero de A, y los restantes se obtienen dividindolos por esta raz
cuadrada.
2.

Considerando cualquier fila distinta de la primera, es decir, tal que / > 1, se tiene:
-i
i = i=>au = 2 tl = X j , = r j + 2 tl,* > tt
h- 1
h= l
h= 1
/ >i^au = ^

thi t hj = ^

ia-u 2 t\
h= 1
i~i
th thj = t u tu +
t hi h i

i'-l
a -

2 h i thi
/!= 1

La determinacin de los elementos de la matriz triangular se realiza en una sola etapa y


por filas sucesivas.
La traduccin de las frmulas obtenidas es la siguiente: todo elemento diagonal, a partir
de la segunda fila, es igual a la raz cuadrada de la diferencia entre el elemento ai
correspondiente y la suma de los cuadrados de los elementos de la misma columna de la
matriz triangular. Todo elemento no diagonal tj es igual a ia diferencia entre ay y la suma de
los productos, fila por fila, de los elementos de las columnas correspondientes, dividida por
el elemento tu de la diagonal.
Retomando el propsito original, de (1) y (2) se deduce
Tf T X - B
Haciendo
T K = B (3)
se determina el vector K, y considerando
T X = K (4)

conocido K, se obtiene X.
La determinacin de las com ponentes del vector K se efecta de la misma manera que las
columnas de la matriz T. En efecto, considerando (3), es

1 12

22

Iti

t-in

t n n

i ^
k-i

knj

de donde resulta, por producto e igualdad de matrices:

www.FreeLibros.com

l
=

b' '
b2

bn 1
,

204

SISTEMAS LINEALES

1. ti j Aj = b x, o sea

i> \^ b i

2.

2 th l k h - X
thikhn=I
h= i

- A : f + S t h k h => ki =
h=i

i-1
bi ~ ^ {hi ^ h
/!= 1

Finalmente, obtenidos T y K en una nica etapa, se resuelve fcilmente el sistema


triangular
T X=K
Ejemplo 6-11
Resolvemos el siguiente sistema simtrico por el m todo de la raz cuadrada:

Trasformamos, de acuerdo con el esquema propuesto, las filas de la matriz de


coeficientes ampliada con la columna de los trminos independientes:
2
2
2

5
-

2
-

1
33

- 5

0
-8
4
0
-8
- 18

En consecuencia:
+ 2x 2 + 2x 3 =

x2 -

5x 3 =

2x 3 = 1 8

Luego
*3 = - 9

*2 = -5 3

x i=

124

www.FreeLibros.com

MET ODO DEL ORLADO

205

La solucin es
/
X=

124
-

53

\ -

Las condiciones para que el m todo sea aplicable son: tu

*0,

\/i

= 1, 2 , . . .

,n.

Ejemplo 6'12
Resolvemos por el mismo mtodo

x 2 - 2x 3 = 2
+3*3 = - 5
2x i + 3;c2 2 x 3 = - 1
No es necesario multiplicar la primera ecuacin por - 1 para obtener elementos reales
en T.
1

- 2

-5

- 1

- 2

-i

2i

-2 i

0
0

-3

-2

Entonces

x3 = - 2

x2 = ~ 1

x, -

6.9. METODO DEL ORLADO


Este m todo, que es directo, permite obtener la inversa de una matriz no singular
M e KnXfl. Particionamos M de acuerdo con el esquema

1) + 1

n = (n para filas y para columnas, y se tiene


M=

A
C

B
ann

donde A e K ^ '1>x<n- >, B e K (n l ) x l , C e K 1 x(i' 1 > y(ann) e K 1X1.


Suponemos conocida la inversa A1 del primer bloque y proponemos, para la inversa de
M, el mismo esquema de particin.

www.FreeLibros.com

206

SISTEMAS LINEALES

M"1 =

Y
an

donde an e K - ( 0 )
Considerando que
M M ' 1 =1

se tiene

i ,

O sea
A X + BZ = I
a y

0)

+-2. = n

(2 )

C X + ann Z = N

(3)

C Y +^2^i
Oi

(4)

De (2)
Y

- ^

(S)

Sustituimos (5) en (4):


C A ' 1 B ,a
ot

un

Luego

= * - C A ' 1 B (6)

De(l)

A X - I - B Z = X = A^1 - A1 B Z (7)
Teniendo en cuenta esta relacin, (6) y (3), es
C (A 1 - A~! BZ) + ann Z = N
C A ' 1 C A"1 B Z +ann Z = N
C

~(<*nn - a n) Z - b a nn 2 = N

C A 1 ann Z + an Z + ann Z = N
n Z = - C A"1

www.FreeLibros.com

MET ODO DEL ORLADO

207

a -1
Z = _-J r'_A_
(8)

De (7) y (8)
X - A ' 1 + A 1 B C A 1 (9)
Entonces

M"1 =

A- , , A"1 B C A '1
A + -------- --------a,

A"1 B

CA
dir,

Se trata de un caso particular de la inversion por particin estudiada en 4.18.


Este m todo se utiliza para invertir matrices por orlados sucesivos, construyendo las
inversas de
(i,)
, i 11 a i 2 )
'
\ #21 fl22/

etctera
, etc

Conociendo la inversa de A e Kn"1 )x(n-1 \ se calcula M*1 e K nxn, para lo cual es


preciso obtener:
1.

-A "1B
bn-1 ,n

2.

-- C A

(c n i

C,j2

C n , n -l)

bi n
3-

0tn = a nn - C A1 B = ann + C

ann + (an \ an 2 an,n -1 )

bn-l,n

&n- l,M
an =an n + X

}= i

I b ln
b2n

an j bj

www.FreeLibros.com

SISTEMAS LINEALES

208

Tambin:

I &ln
ann " C A 1 B

ann + (cn>1 C2 . . . cn n ., )

2 n

n-l,n
^nn

n-I
^ in *'<
/= 1

4. Los elementos xj de la submatriz A -i1 +. A '1B C A ' 1 son, llamando x \ a los


correspondientes elementos de A"1:

.>

x j = x ij +

bin Cni
in ni
O

i< n -\,]< n -\

Adems
' in

ni

El siguiente esquema denota una etapa del proceso;

Ejemplo 6-12
Calculamos la inversa de A por el m todo del orlado, siendo

www.FreeLibros.com

METODO DEL ORLADO

209

Siguiendo el esquema anterior, y aplicando las frm ulas desarrolladas, resulta:

- 1

- 1

- 2

- 1

-2

- A"1 B

-1
- - C A"

11
5

14

14

14

14
1

14
3

14
5

" 14

14

14

Conocida M"1 es posible resolver sistemas del tipo


MX = K
donde M es no singular.

www.FreeLibros.com

TRABAJO PRACTICO VI
6-13. Sea

i>2

una

S a c ia n

lineal

caracterizada

( I J _ 2J respecto de la base cannica en cada espacio Determinar I


preimagen p o r / d e l vector ( - i i )

r11 ; *r1
1

7' * 2 + 2 V ,=do
1 de ^
3

* i + * 2 + * 3 =2

2x

*1 - * 2 +

^.

2- i x + 3 y + z = 6

)3x~2y~8z=

*3 = 5

El m todo de Gauss reducido consiste en t j f h ^


^ =
que / > / , y en unos los elementosa,
ar er OS los eIenren os a,- tales
sistemas homogneo0" S bre ^

1-

2.

*! +

j 2xl

* 2 ~ * 3=0

I X1 +

i2 * (

+ x 2 - * 3 =()
X1 + *3

3.

eSPaC0 S ludn de cada de los s iguientes

=0

* 3= 0

+ 2*2 + 2at3 = o

5*

=0

'

X1 + * 2 + * 3 ~ 0
*1 * 2

*2 +

*1 +

*2 -

* 3= 0

3*1 + 4 * 2

=0

5* 1 +

*2 + * 3 = 0

anterior, en los c z s o X Z ^ T p o Z L

*2 +

=: Q
*

3=0

U" ^

C3SOSdeIejerci

siguientes casos"810" V na b3Se d d eSpaCio soIucin *bre C en cada uno de los

u l x + y - z =0
|
, > +z = o

,
1

ll + 1
(I + 0 * - , , + * = o
x + y ^ z = 0

www.FreeLibros.com

TRABAJO PRACTICO VI

211

./8: En el anillo de las clases de restos m dulo 3, determ inar una base del espacio solucin
de! sistema

_
Xi + *2 + * 3 = 0
Xi

+2*2

=0

6-19. Discutir y hallar el conjunto solucin de


Xi

+ 2x:2 = 5

3*1 + *2 = - 5
i 2xt + 3 * 2 = - 8
6-20. Resolver por el mtodo de Cramer el sistema del ejercicio 6-14. 1.
6-21. Resolver el sistema homogneo X (A I) = 0, donde X e R

1
. 3

A
3

6-22. Obtener el conjunto solucin del sistema


f 3*i + 2 s 2

+*4=0

*1 + 2*2 + *3

= 1

5*! + 6*2 + 2*3 + * 4 = 2


6-23. Determinar si existe X e R 3x3 tal que X A = B, siendo
/
A=

2 4
-1

6 \

B=

-1 1 /

-2
\

5
3

6-24. Discutir y hallar los conjuntos soluciones de los siguientes sistemas:


1.

( * 1 2*2
2 *!

*2

+ *3
~ * 3

4 * i - 3*2 + * 3
2.

*1 +
2xt +

*J +

*4 *5 =

*5 =

2*4-

3*5 =

3*3= -

*2- 2*3 =

*2

*2

*1 + 2*2

+ *3= 3

3*3 =

www.FreeLibros.com

212

SISTEMAS LINEALES

3.

xx +x2-3x3
*1 - *2 +
Txi

2*i

- x s =0

*3 - *4

+2*3 -

x4

=0

- * 5 =0

*4 *5 = 0

6-25. En el caso de compatibilidad, obtener el conjunto solucin del sistema


*1 + * 2 + 2*3 = 1

2*i - * 2 + 2*3 = 4
4* i + * 2 + 6x3 - 6
en trminos de una solucin particular y del espacio solucin del sistema homogneo
asociado.
6-26. Siendo
- 3
A=

-4
4

obtener X tal que D(A - X I) = 0. Despus resolver el sistema (A - XI) X = 0 para cada
valor de X.
6-27 Determinar para qu valores de k el siguiente sistema tiene soluciones distintas de la
trivial:
* + (& + l)_y +

z=0

y { k + 1)2 = 0

*+

y +

(+1)*+

z=0

En cada caso, estudiar el espacio solucin, e interpretar geomtricamente.


6'28. Determinar la inversa de M por el mtodo del orlado, siendo
/I
M=

1
&29. Resolver el sistema X*A ~ x \ siendo
n

1 -1
- 1
1
1

www.FreeLibros.com

TRABAJO PRACTICO V

6-30. Obtener todas las soluciones de

+ >1y + ci 2 - 0
a2 x + b 2 y + c2 z = 0
sabiendo que
bi

Ci

b2

c-i

=0

6-31. Discutir el siguiente sistema segn los valores de a:


ax x

3*

y + 2z = 1 + a

+ ay -

z = 1

+ y + z =a

6-32. Estudiar el sistema


2x - a y +
* +

z = ~ 2a + 5

y - az =1

4x + y - a z = a
para los distintos valores de a
6-33. Discutir la compatibilidad de
axi + bx2 + * 3
bx1 + ax2 +

~a + b

+ x 4 =a - b

x 2 + bx 3 + ax 4 = a + 1
Xi

+ o x 3 + bx4 = 0 - 1

6-34 Determinar el sistema lineal cuyo espacio solucin


admita la base
(3,-2,8)

(4,-11,7)}

6-35. Probar que el sistema


bx + ay
ex

~c
+ az = b

cy + bz = a
tiene solucin nica si abe = 0. Hallar la solucin.
6-36. Resolver por el mtodo de la raz cuadrada
-

xx + x2
Xi
2xt

+ 2x3

2 x 3 =
2x 2

+ x3

=7
5
=1

www.FreeLibros.com

213

Captulo 7

PRODUCTO INTERIOR EN ESPACIO S VECTORIALES


GEOMETRIA VECTORIAL.

7.1. INTRODUCCION
En este captulo introducimos, sobre la base de un producto interior, el concepto de
mtrica en un espacio vectorial real. Se estudian temas relativos a distancias, longitudes,
ortogonalidad y ngulos entre vectores. Se desarrolla el procedimiento de Gram-Schmidt
para la construccin de bases ortonormales en espacios de dimensin finita. Despus de dar
una idea del espacio afn R ", se tratan algunos temas bsicos de geometra: rectas, planos,
superficies y curvas elementales.

7.2. ESPACIO VECTORIAL EUCLIDIANO


Sea (V, + , R , .) un espacio vectorial sobre el cuerpo de los nmeros reales.
7.2.1. Producto interior
El smbolo <x , y ) se lee: producto interior entre los vectores x e y .
Definicin
Producto interior en V, es toda funcin
<, > : V2

que satisface las condiciones de simetra, de linealidad respecto del primer argumento
y de definida positiva:
i ) < x , y > = < y , x > cualesquiera que sean x e y en V.
i i ) ( x + y , z } = ( x , z > + < y , z > cualesquiera que sean x, y y z en V.
iii)<ax,y>
iv) <x , x >> 0
( x , x >= 0

= a<x,y)

V x e V , V y e V , V a e R.

VxeV
x=0

www.FreeLibros.com

ESPACIO VECTORIAL EUCLIDIANO

215

Todo producto interior en un espacio vectorial real asigna a cada par de vectores un nico
escalar real.
Espacio euclidiano es todo espacio vectorial real con producto interior.
La adjuncin de un producto interior a un espacio vectorial permite establecer una
mtrica en l; o sea, los conceptos de distancia entre pares de vectores, m dulo de un vector,
ortogonalidad y ngulo entre dos vectores. Estas nociones no son intrnsecas al espacio
vectorial, sino que dependen del producto interior que en l se considere. O sea, dos vectores
de un espacio,ortogonales con un producto interior, pueden perder este carcter si se define
otro producto interior.
Ejemplo 7-1
En (R ", + , R> ), la funcin
<, >: R " X R " -+ R
definida por
< X , Y > = X*Y

(1)

donde

X~

*1
x2

Y=

Xn

y2
yn,

es un producto interior. Para probar esta afirmacin verificamos los axiomas de la


definicin.
i ) < X , Y > = X Y = ( XY) = Y X =< Y , X )
Por (1), por ser X*Y un escalar, por traspuesta de un producto y por (1).
) < X + Y , Z > = ( X + Y) Z = ( X + Y ) Z = X Z + Y f Z = < X , Z ) + ( Y , Z )
Por (1), traspuesta de la suma, distributividad y (1).
iii) <a X , Y >= (ex X y Y = a X * Y = a < X , Y )
Por (1), traspuesta de un escalar por una m atriz y (1).
iv)<X,X> = X X = x j > O
=i
Por (1), producto de matrices y suma de nmeros reales no negativos.
Adems
n
( X , X > = 0 2 x j = Q*>X = 0 , Vi <*X = 0
;=i *
'
La definicin (1) caracteriza un producto interior en R , llamado tambin producto
interior usual. Efectuando la operacin indicada en (1) es

www.FreeLibros.com

216

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

< X, Y ) = g 1 x iy i
0 sea, el producto interior de dos n*uplas de nmeros reales es igual a la suma de los
productos de las com ponentes correspondientes.
En el caso n = 2 esta definicin se traduce en
<X , > = * ! y

+ *2y

Ejemplo 7-2.
Consideremos ( R2, + , R, ) y la m atriz A = |

La funcin
( , ) : R 2 X R - >R
tal que
<X,Y>=X( AY

(1)

es un producto interior. En efecto


1 ) < X , Y ) = X A Y - ( X A Y ) = Y A X = Y A X <=Y , X>
Por (1), por ser X f A Y un escalar, por traspuesta de un producto, por ser A* = A y por
i i ) ( X + Y , Z > = ( X + Y) ( A Z = ( Xf + Y f) A Z = X A Z + Y A Z = ( X , Z > + ( Y , Z>
iii)

( a X , Y ) = (a X)* A Y = a X ( A Y = a <X , Y >

i v ) < X , X > = X ' A X = ( * , * 2) | j


(*! 2x2) * ( + (2*! + 5* 2)

~ s ) ( * j

*2 ~ x \

= <* 1

4*1

X2

2*2 - 2x + 5* 2 ) ,

x2

+ 5*2 =

= x \ - 4 * ! * 2 + 4*1 + * ! = (*! - 2 * 2 )2 + * i > 0


Adems
(X , X > ~ O ( * j - 2 * 2)2 + * = 0<*
<**! - 2 * 2 = 0 a * 2 = 0 ^
*>xx = * 2 = 0<>X = 0
Ejemplo 7-3.
Sea C [ - 1 , 1 ] el conjunto de las funciones reales continuas definidas en el intervalo
cerrado de extremos - 1 y 1.
El lector puede verificar, considerando el espacio vectorial
(C [1 , 1 ], + ,R , .)

www.FreeLibros.com

PRODUCTO INTERIOR

217

que la funcin definida por


<f , g >= / j f (*) g (x ) dx
caracteriza un producto interior en dicho espacio. Para ello es suficiente probar que se
cumplen los axiomas de la definicin teniendo en cuenta propiedades elementales de la
integral definida.
7.2.2. Producto interior de dos combinaciones lineales
Sea (V, + , R , .) un espacio con producto interior, y sean las combinaciones lineales
n

x " a ''x

y =jS [

y>

donde
ctiJjeK

x,y; eV

De acuerdo con los axiomas de la definicin, se tiene


n

<x , y >= (.2 ctt x ,.2 fy y ) =


n

= .2 < ot x f ,.2
n

= lS 1

y >= 2

a <x ,5 ^ fy y )-

y> X i ) " d i v ? !

<yy >xi >=

n m
=

( x y/ >

Hemos aplicado sucesivamente:ii), iii), i), ii), iii), propiedades dela


En particular es

sumatoria e i).

< a x + y , x + y) = a2 <x,x) + a ( x , y ) + a < y , x > +


+ ( y , y > = a2 ( x , x ) + 2 a < x , y ) + <y, y>
7.2.3. Propiedad
En todo espacio con producto interior, el producto interior de cualquier vector y el
vector nulo es cero.
En efecto, por ser 0 neutro para la suma en R, por el axioma A3 de espacio vectorial y
por el axioma de linealidad del producto interior, se tiene
0 + ( 0 >x ) = ( 0 , x ) = <0 + 0 , x ) ~
=<0,x>+<0,x>
Por ley cancelativa en (R , + ) resulta
0 = <0 , x >

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

218

Luego
<x,0>=<0,x> = 0
7.2.4. Mdulo o longitud de un vector
Definicin
Mdulo de un vector en un espacio con producto interior es la raz cuadrada no
negativa del producto interior de dicho vector por s mismo.
El smbolo llxli se lee: m dulo o longitud de x.
De acuerdo con la definicin es

II XI = V <x ,x >
En R2 , con la definicin dada en el ejemplo 7-1, si x = (3,4), entonces
11x11 = \ / 3 2_+ 4 2 =\ 2 S = 5

Al mdulo de x se lo llama tambin norm a de x.


Se verifica que el cuadrado del m dulo de todo vector es igual al producto interior de
dicho vector consigo mismo, es decir
11x II2 = < X , x >
Definicin
Distancia entre dos vectores x e y, en u n espacio con producto interior, es el mdulo
de su diferencia.
d (x, y) = II x

y II

www.FreeLibros.com

M ODULO

219

El lector puede com probar que esta definicin satisface los axiomas de la funcin
distancia.
7 2 5. Mdulo del producto entre un escalar y un vector
En todo espacio con producto interior, el m dulo del producto entre un escalar y un
vector es igual al valor absoluto del escalar por el m dulo del vector.
il a x l l = I a l II x l l

En efecto:
a x il2 = ( a x
=

, a x > = a2 < x , x > =

l a i 2 IIxi!2 = ( l a l I!xll)2

O sea
llax!2 = ( l a l II xll)2
Y como las bases son no negativas resulta
IIa xi l = lal IIxll
El producto de un vector no nulo por el recproco de su m dulo, o lo que es lo mismo, el
cociente entre un vector no nulo y su m dulo, es un vector de mdulo 1.
X

En efecto, sea x = 0. Considerando se verifica


IIxll
X
II x l l

X
Ilxll

Ilxll

llxll=
ti X 1

xll=l

S i x - ( 1 , 1 , \ / 2 ), entonces es, con el producto interior usual,


- \ / l M - ( - l ) 2 + ( n/ 2)2 = 2
y resulta
Ilxll

= [.L
\2

V?
2 2

un vector de m dulo 1, llamado vector unitario


7.3. ORTOGONAUDAD
Sea (V, + , R , .) un espacio vectorial con producto interior.
Definicin
Dos vectores son ortogonales si y slo si su producto interior es nulo.
El smbolo x i y se lee: x es ortogonal a y.
Entonces
xly*<x,y )= 0

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

220
Ejemplo 74.

1. En R2 , con el producto interior usual, los vectores


x = (2 , 3)

y = (3 , 2)

son ortogonales, pues


< x , y >= ( - 2 ) ( 3) + 3 ( 2) = 0

2. Determinamos a R para que los vectores


x = ( - 3 a , - 4 , 1)

y = (-a , a, 1)

sean ortogonales, con el producto interior habitual.


De acuerdo con la condicin de ortogonalidad, hay que determinar a de modo que
< x , y >= 0
O sea
( - 3 a) ( - a ) + ( - 4 ) a + 1 . 1 = 0
3a2 - 4 a + 1= 0

www.FreeLibros.com

ORTOGONALIDAD

221

Las races son:

Los pares de vectores de R 3 que satisfacen la condicin son


x ^ C - 3 ,- 4 ,1 )

y ' =( - l , 1, 1)

x = ( - l , - 4 , l )

y = ( - 1 ,1 ,1 )

Ejemplo 7-5
D em ostram os el teorema de Pitgoras: si x e y son dos vectores ortogonales, entonces

llx + yll2 = Ibdl2 + II yII2

En efecto:
llx + yl2 = < x + y , x + y > = < x , x ) + ( x , y > +
+ <y , x ) + <y , y ) = II x lt2 + 0 + 0 + II y II2 =
= llxll2 + II y II2
Ejemplo 7-6.
En el espacio vectorial de los polinomios reales de grado menor o igual que 2 y el
polinomio nulo, donde el producto interior se define como en el ejemplo 7-3, los
polinomios
y/2

s /
y -^7=*
s fl

son ortogonales, pues

www.FreeLibros.com

222

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

,
y/3 x 2
x d x = -i-------

2 2

7.4. DESIGUALDAD DE SCHWARZ


En todo espacio vectorial euclidiano, el valor absoluto del producto interior de dos
vectores cualesquiera es m enor o igual que el producto de los mdulos de dichos vectores.
Demostraremos que
<x ,y > l < llxll IIyII
cualesquiera que sean x e y en V, donde est definido un producto interior.
Se presentan dos situaciones:
1. y = 0.
En este caso, de acuerdo con 7.2.3., se verifica que
( x , y >= 0

II y II = 0

Luego
I<x , y > 1= llxll IIyII
En consecuencia
K x , y > K llxll II y II
2.y^0.
es

Cualesquiera que sean t y u en R, por el axioma iv) de la definicin de producto interior


(tx + u y , tx + u y

) >0

Desarrollando el prim er miembro


t2 ( x , x ) +

2 t u ( x , y ) + u 2 ( y , y )> 0

Haciendo
t=(y,y)

w= - < x , y >

se tiene
( < y , y > ) 2 < x , x > - 2 < y , y > ( < x , y > ) 2 + ( <x , y > )2 <y , y > > 0
Por definicin de m dulo y reduccin de trminos
llyff4

llxll2

- IIyII2 ( < x , y > ) 2 > 0

Dividiendo por II y II2 , que es no nulo, resulta


IIyII2 Hxll2 - ( < x , y > ) 2 > 0
Teniendo en cuenta que el cuadrado de un nmero rea! es igual al cuadrado de su valor
absoluto, y trasponiendo trminos
II y II2 II x II2 > l <x , y >P

www.FreeLibros.com

DESIGUALDAD DE SCHWARZ

223

O sea
I

<x , y > I2 < ( II x 11 II y II )2

Y, como las bases son n o negativas, resulta


I <x , y > K II x II II y II
7.5. DESIGUALDAD TRIANGULAR
En todo espacio con producto interior, el m dulo de la suma de dos vectores cualesquiera
es menor o igual que la suma de sus mdulos,
probaremos que
Hx + y l K 11x11+ II y II
En efecto, por definicin de m dulo y de producto interior es
| l x + y l l 2 ~ < x + y , x + y> = < x , x > + 2 < x , y > + < y , y >

(1)

Teniendo en cuenta la desigualdad de Schwarz y propiedades del valor absoluto en R, se


verifica
- Ilxll l l y l l < ( x , y X

llxll llyll

Luego
2 ( x , y > < 2

llxll llyll

(2)

D e ( l ) y ( 2 ) resulta
11 x +

y II2 <

II x II2 + 2

II x II 11 y II +

II y II2

O sea
llx +

yll2 < (

11x11+

llyll)2

En consecuencia
II x

yll <

II x l l +

II y l l

7.6. ANGULO DE DOS VECTORES


Sean

dos vectores n o nulos en un espacio con producto interior. De ia desigualdad

de Schwarz
l < x , y >

l <

llxll llyll

se deduce que
-

llxll H y l K < x , y > <

Dividiendo por el producto de los mdulos de

< x , y >

y,

que es positivo, se tiene

www.FreeLibros.com

llxll

llyll

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

224

Definicin
Angulo de dos vectores no nulos x e y es el nm ero real y?que satisface:
1. 0 < p < 7 T
2. 0 8 *=

llxll IIyII

De la relacin 2. se deduce la siguiente expresin del producto interior en funcin del


ngulo de los vectores y de los m dulos de stos:
<x ,y > = llxll IIyeos v?
Ejemplo 7-7.
Los vectores x e y forman un ngulo de 60 y el mdulo de x es 3. Determinamos el
mdulo de y para que y x sea ortogonal a x.
y-x

Hay que determinar II y II de modo que


y

x 1 x

, x >= O

O sea
<y

Luego
< y , x ) - < x , x > = 0

En consecuencia
y il II x II

eos

II y II

eos

II x l l 2

Por ley cancelativa del producto


<>= II x l l

Resulta
II y II. = 3
2

De donde

www.FreeLibros.com

BASE ORTONORMAL

225

7.7. CONJUNTO ORTOGONAL DE VECTORES


7.7.1. Definicin
Un conjunto de vectores | X i,x2, . . xr } en un espacio con producto interior es
ortogonal si y slo si dos vectores cualesquiera y distintos son ortogonales.
{Xi , x 2, . .., xr } es un conjunto ortogonal / # /=> <x f , x;- >= 0
7.7.2. Propiedad
Todo conjunto ortogonal de vectores, al que no pertenece el vector nulo, es linealmente
independiente.
Sea I Xj, x 2,
combinacin lineal

x r | un conjunto ortogonal tal quex = 0 , Vi - 1, 2 , . .

y sea la

2 a x, = 0
i =i 1 3
Para cada / = 1, 2 ,. . ., r consideramos
< .2^

oi j X j

, x ) - <0 , x ) = 0

Entonces
r

.2^

/=

a.j

< X j , x > = 0

Como i=j =>( X j , x >= 0, la sumatoria se reduce a un nico trmino que se obtiene si
o sea
a <Xf, x ) = 0
Siendo x # 0 resulta < x , x ) # 0, y en consecuencia
a~0

V i= 1, 2,

Luego
x , , x 2, . . . , x r } esL .I.
7.8. BASE ORTONORMAL
7.8.1. Concepto
Sea (V, + , R , .) un espacio con producto interior y sea A = { X j, x 2, . . . , x } una base
del mismo.
Definicin
Diremos que A es una base ortonormal si y slo si A es un conjunto ortogonal de
vectores de mdulo 1.

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

226

A es ortonorm al o A es ortogonal y II x< II= 1 , Vi = 1, 2 ,. .

Una base ortonormal es tal que


i =; =*<x , x j >= 0
i

e I

<x , x >= 1

En consecuencia, integrando estas dos expresiones en una sola, se tiene


A es una base ortonorm al o ( x

,Xj) =

5y

Ejemplo 7-8.
En R ", con el producto interior usual, la base cannica j e l t e2, . . . , e ) es
ortonormal.
En R 2, con el mismo producto interior, la base formada por*
X* T T 7

(' ^

X2 = \ 2 -

es ortonorm al, pues


<X! , X* > = <X2 , X2 > = 1

x*

,X 2

>= 0

7.8.2. Ortonormalizacin de una base


Todo espacio euclidiano de dimensin finita admite una base ortonormal.
Nos proponemos obtener, a partir de una base cualquiera { X i, x2 , . . . , xn } una base
ortonormal. En efecto:
1 _Xl

o por ser un vector de la base dada. En consecuencia


II X ! II =0

El vector
Xl

y i = 7 ItXj7 II
de acuerdo con 7.2.5., es unitario.
2.

Supongamos que | y , , y2 , . . y fe es un conjunto ortonorm al. Se trata de obtener

yfc+i tal que


{ y i . y a . - - -.y*+i)
sea ortonormal.
Consideramos el vector
zft + i = x ft + i - 2

( x 4.1 j y ) y /

www.FreeLibros.com

BASE ORTONORMAL

227

Se verifica que z + 1 es ortogonal a y , , V/ = 1, 2 , . . k.


k

En efecto
( zfe+i >y i ^ =

+i

^Xft+ 1 >y ^

y/

= <xfe+i ,yy> - S ^ X f e + i ,yf><yi,yy> =


~ <Xft + i ,

yj

>

<xfe+ 1 , y,-)

= <xh + i , y/>-<Xft + i ,y,->- 1 = 0


Definiendo

Se deduce que

IIy&+ 1 II 1>y en consecuencia


(yi , y 2 ---.yfc+i|

es un conjunto ortonormal.

Este proceso, llamado de Gram-Schmidt, nos permite construir una base ortonormal a

partir de una base dada.


Ejemplo 7-9
En (R2, + , R, ) se considera la base formada por

x, =(1, 1)

xa =(-1,2 )

Construimos una base ortonorm al siguiendo el procedimiento desarrollado en el


teorema anterior.

www.FreeLibros.com

228

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

- i ^

-H-)

La base f y , , y 2 | es ortonormal.
Ejemplo 7-10
^ ,

, n. , .) se aeiine un producto
mediante
r interior
r grado

< P Q> = / !
Gram-SchmidlJ * '
1.

pW Q W *

C m ,ruin,0s una base rtonormalmediante el proceso de

x i = m 2 = < i >i > = ^ i . i d * = *


II l i - V T
yi

2.

*i

=2
-i

___ 1 = V2^_

Xi II V 2

z2 = x 2 - < x a , y, >yi

Como <x2 , y , > = < x , X ) =


22 '
1

vT

* dx

VT

= 0,

resulta
Adems

Z2
' Z2 11' <Z2 , Z2 ) = ( X ' X > = j 1 2 dx =
x3 l1 2

Entonces

3 J -i 3

www.FreeLibros.com

COMPLEMENTO ORTOGONAL

Luego

3.

Z3

= x 3 - . s

z2

Il z 2 ti

- V 3 -,
V2

, y > y =>

<*3

= >z3 = x 3 ' < x 3 ,

y i

> y i

- < x 3 , y 2 > y 2

v - l ^ v 2 Wv =

( x 3 , yi > ~ l i

229

( i)

-i

i \/3
De (1 ) re s u lta

Como
II z 3 f ^ < Z 3 , Z3 > ^ 1 | * 2 ~ j j 2 fe =
= P (x4
J_i
5

+ i ) & = -- - X 3 + i x l ^
9
5
9
9 J~i

1 + 1 = ^ - - - =
9
9
5
9
45

resulta
1

, 1

3 > /r

Y en consecuencia

y3 ~
La base

= 2^

Z3
II z 3

/ 2 _ i ) = 3^

2 y /l l

3 /

Vf
2 s/2

/
4

2_i)
\

3 /

3Vio / 2 1

es ortononnal.
7.9. COMPLEMENTO ORTOGONAL
7.9.1. Com plem ento ortogonal de un subespacio
Sea (V, + , R , .) un espacio con producto interior, y sea S un subespacio de V.

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

230

Definicin
Complemento ortogonal del subespacio S de V, es el conjunto de los vectores de V que
son ortogonales a todos los vectores de S.
El smbolo S1 se lee: com plem ento ortogonal de S.
S1 = j x e V / x l y , V y e S
Ejemplo 7-11
En R 3, con el producto interior ordinario, si
S = { (0, 0 , x 3) / * 3 e R |

entonces el complemento ortogonal de S es


S1 ~ f (* lf x 2, * 3) 6 R 3 / * 3 = o )

7.9.2. Propiedad
El complemento ortogonal del subespacio S de (V, + , R , .) es un subespacio de V.
Debemos probar que S1 es un subconjunto no vaco de V, cerrado para la suma y para el
producto por escalares.
1. S1 C V por definicin de S1.
2 . y e S = > < 0 , y > = O ^ O e S 1 =>Si v(/>
S . x e S 1 a y e S1 => <x , z> = 0 A ( y , z >= 0, Vz e S =>
=><x,z) + <y,

z >= 0 , V z e S ^

^ ( x + y , z ) = 0 , V z e S =>x + y e S i

www.FreeLibros.com

COMPLEMENTO ORTOGONAL

231

4. a e R A x e S !^ e R A ( x ,y> = 0 , V y e S = >

= < a x , y > = : 0 , V y e S = >,o : x e S i


Por consiguiente
(S1, + , R, .) es un subespacio de V.

9.7.3. Propiedad
Si V es un espacio euclidiano de dimensin finita y si S es un subespacio de dimensin r,
entonces la dimensin del complem ento ortogonal de S es n - r .
Se trata de probar que
dim S + dim S1 = dim V
En efecto:
Si S = {0 } o S = V, la propiedad es obvia. Consideremos, pues, el caso en que S
S = V, y sea

{01 y

\ X i,X 2, . . .,xr )

una base ortonormal de S.


Entonces existen vectores x r + 1, xr + 2 , . ., x , tales que
(X !,

X 2 -------- , X r , X r + l , . . , , X n l

es una base ortonorm al de V.


Afirmamos que
(Xr +

i , X r + 2 > X n

es una base ortonorm al de S1.


Para ello es suficiente probar que este conjunto es un sistema de generadores de S1. Sea
entonces un vector cualquiera u e S1.
n

u e S i = > u e V =* 3 a > , a 2, . .., oMe R / u = 2 a,- x, =i


Como u es ortogonal a todos los vectores de S, considerando el producto interior entre
u y x , i = 1, 2 , . . r, resulta
n

0 = <u , x >=.2^ (oijXj , x,- >=.2^ o 5y = a


O sea
n

u =.2

i=r+ 1

ax

Esto prueba que

iX r +

, Xr+2, ) X n }

es un sistema de generadores de S1.

www.FreeLibros.com

PRODUCTO IN T E R IO R . GEOM ETRIA VECTORIAL

232

com o estos vectores son ortogonales y de m dulo 1 , constituyen una base ortonormal de
S1 , y se tie n e

O sea

dim S1 = n - r
dim S + dim S1 dim V

El lector puede comprobar, como consecuencia de esta propiedad, que V es la

suma

directa de S y de su complemento ortogonal.


7.10. PROYECCION DE UN VECTOR SOBRE OTRO
Sean x e y dos vectores de un espacio con producto interior, e y * 0. Entonces existe un
ue
escalar a, tal que
En efecto

x - a y ly
< x - f l y , y > = 0=*<x,y> a < y , y > - 0
=>a =

(x ,y >

<y >y >

El vector

_ <x ,y > _ < x , y > X -

y <y ,y>y_ y

yl

se llama p r o y e c c i n o r to g o n a l d e x s o b re y .

Identificaremos la proyeccin ortogonal de x sobre y con el numero real


<x ,y>
y escribiremos
<x ,y>

www.FreeLibros.com

ESPACIO AFIN

233

O
sea, la proyeccin de un vector x sobre un vector y es igual al producto interior de
ambos, dividido por el m dulo del vector sobre el cual se proyecta.
En particular, si y es un vector de mdulo 1, se tiene
Py x = <x ,y >
por lo tanto, la proyeccin de un vector sobre un vector de mdulo 1 es igul al producto
interior de ambos.
Ejemplo 7-12
Comprobamos que las proyecciones de un vector de R3, con el producto interior
usual, sobre los vectores de una base ortonorm al, son las componentes de dicho vector
respecto de la base.

= 2 a <e , e;- >= 2 a y ~ a

7.11. ESPACIO AFIN R"


7.11.1. Concepto
Sea (R n , + , R , .) el espacio real n-dimensional.

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

234

Para cada A e R " definimos una suma en R " y un producto de escalares por elementos de
Rn , mediante
X Y = X + Y A
a X = a ( X - A ) + A
Estas definiciones hacen de la cuaterna (R n , , R, ) un espacio vectorial con origen A.
El vector nulo de este espacio es A.
La suma y el producto de este espacio pueden obtenerse llevando las flechas AX y AY
al origen 0, operando en (R n , + , R , .), y desplazando el resultado al origen A. En R 2 esta
situacin queda indicada por las figuras siguientes:

Definicin
Espacio afn R " es el conjunto de todas las n*uplas de nmeros reales, y una estructura
de espacio vectorial para cada A e R " , con las operaciones definidas.
7.11.2. Vectores fijos
Consideremos V = R ", X e R" e Y e R n . El par de puntos (X, Y) se llama vector fijo de
origen X y extrem o Y.'Se lo denota mediante XY*.
Sean los elementos de R :

A~(fJ( #2,

#n)

x ~ ( x i, x2> >% n}

www.FreeLibros.com

(yi>y2> >yn)

VECTORES UBR ES

235

Entonces la suma de X e Y, en el espacio de origen A, es


X Y = AX + Y = X + Y A
Siendo
X + Y - A = (xi +>i - a u X i + y 2 - a 7 ........ x n + y n - a)
Si a e R , entonces
ti0X = a A X = ( X - A ) + A = X - - ( t t - l ) A
donde

a A - (a - 1) A = ( a x j - (a -

. ..,a

xn

- (a - 1))

7.11.3. Espacio de los vectores libres


Consideremos el espacio afn R ", es decir, el conjunto de todas las n-uplas de nmeros
reales y las estructuras de espacios de los vectores aplicados en cada punto de R " .
En el espacio afn Rn definimos la siguiente relacin de equivalencia:
A X ~ B Y > A Y = XB = A X A B
Escribiremos
A X AJB = A ) ? + A B

Cada clase de equivalencia se llama un vector libre, y el conjunto cociente es el conjunto


de los vectores libres de R".
Un vector X e R" se denota:
"X si se lo considera como vector del espacio de orig en A.
X s i pertenece al espacio de origen 0.
En el ltim o caso se escribe directamente X.
Para operar en el espacio de los vectores libres se considera como conjunto de ndices una

www.FreeLibros.com

236

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

estructura de espacio vectorial fija, con origen 0. Entonces el vector fijo XY es equivalente al
vector Y - X, con origen 0, y se escribe
H ed ien te aJ
3t v = y x
Y - X

escaT aresiT seT ^

por
reaCn ^ eqUValenCa es compatible con la suma y el producto
nr

a x

- bV

A~X + AX' ~ T y + B V

A X ~ B Y

A X ~ B Y A a e R = > X ~ a B Y*

En consecuencia existen en el conjunto cociente, de ios vectores libres, dos leves de


composicion inducidas que lo caracterizan como espacio vectorial.
Resulta as el espacio vectorial de los vectores libres de R"

7.12. ECUACIONES VECTORIAL Y CARTESIANAS DE LA RECTA


En lo que sigue nos referiremos a vectores libres del espacio euclidiano tridimensional
sideiaremos una estructura de espacio vectorial, con origen en 0, y la base ortonormal
I = (1, 0. 0)

J = (0, 1, 0)

K = (0,0,1)

Los subespacios correspondientes a los ejes coordenados sern denotados por * y z


>ea A un vector no nulo de componentes /, m y n, es decir
A=/I+mJ-l-K
po X ; s r r :

adas ( x

' Zo)> entonces existe

www.FreeLibros.com

o p -

RECTA

237

El vector O P0, de origen 0, ser denotado por P0 . Sea X un punto genrico de la recta, de
coordenadas (x, y , z).
Se verifica que
^
X - P o + P qX
Y como P0X es equivalente a t A, para algn t e R, resulta
X = P0 + A

(1)

Para cada t e R se tiene un punto perteneciente a la recta. La igualdad (1) es la ecuacin


vectorial paramtrica de la recta que pasa por P0 y es paralela al vector A. La variable X
depende de t, que es el parmetro.
Expresando (1) en trminos de coordenadas es
(x, y, z ) = (x 0, y o, z 0) + t (l, m, n )
Efectuando el producto por r, sumando e igualando las componentes, resulta
x = x 0 + It
(2 )

y=y

0 +mt

z = z 0 + nt

Las ecuaciones (2) reciben el nombre de ecuaciones cartesianas paramtricas de la recta.


Las componentes l, m y n del vector A suelen llamarse coeficientes directores de la recta.
Si son distintos de cero, eliminando t, se obtiene
* -* o =
/

-y o _
m

2 ~Zq
n

Las ecuaciones (3) reciben el nombre de ecuaciones cartesianas de la recta.


Considerando la recta en un plano, la forma de la ecuacin vectorial no se modifica, pero
las ecuaciones cartesianas quedan simplificadas, ya que la tercera componente no figura.

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

238

Ejemplo 7-13
Determinamos las ecuaciones vectorial y cartesianas de la recta que pasa por
p0 (_ } ?o, 2) y es paralela al vector A, siendo A = 3 I J + 2 K .
La ecuacin vectorial es
X = P0 + t A
O sea

x I + y J + z K - I + 2K + ( 3 l J + 2K)

Efectuando las operaciones

xI

+ ;> J + z K = (- 1

+ 3 01 - t J + (2 + 2 t) K

Igualando componentes
(x=

3t

\y =-t
\ z= 2 +

Las relaciones anteriores constituyen el sistema de ecuaciones cartesianas paramtricas


de la recta, y eliminando el parm etro t resulta

x + 1 __
3

_ z- 2

Observamos que los sustraendos de los numeradores son las coordenadas del punto
dado, y los denominadores son las componentes del vector A.
Ejemplo 7-14
Obtenemos las ecuaciones cartesianas de la recta r que pasa por P0 ( 1 ,2 ,3 ) y es
paralela al vector A = 2 1 + K.
Como
X = P0 + t A
se tiene
x I + _ v J + z K = I + 2 J + 3 K + f ( 2 I + K)
O sea

x = 1+ 2 t
y = 2

z= 3+
Eliminando el parmetro entre la primera y la tercera ecuacin, resulta

x" 1 = z- 3
2

1
y =2

www.FreeLibros.com

PLANO

239

E fectuando operaciones en la primera de estas ecuaciones se tiene

j x - 2z = 5
i

y =2

Este es el sistema de ecuaciones cartesianas no paramtricas de la recta, y se interpreta


de la siguiente manera: r es la interseccin de los planos cuyas ecuaciones son
x _ 2z = - 5 (paralelo al eje y ) a y = 2 (paralelo al plano x z , por el punto (0, 2, 0 )).

7.13. ECUACION NORMAL VECTORIAL DEL PLANO


Consideremos un vector unitario N

t I + n 2S + n 3K

www.FreeLibros.com

240

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Sus proyecciones sobre los ejes son


n l = <N , I ) = II Nll IIIII eos a = 1 . 1 eos a = eos a
Anlogamente
n 2 = eos 0

n 3 = eos y

Los nmeros eos a, eos 0, eos y se llaman cosenos directores del vector N, y se identifican
con sus coordenadas, o sea
N = eos a I + eos 0 J + eos y K
Como el mdulo de N es 1, se verifica que
eos2 a + eos2 P 4- eos2 y = 1
Esta propiedad es vlida para todo vector del espacio. Es decir, la suma de los cuadrados
de los cosenos directores de un vector es igual a 1.
Dados un vector unitario N y un nmero p e R , estamos interesados en determinar la
ecuacin del plano perpendicular a la direccin de N y tal que la distancia del origen al plano
sea p.
El vector N y el nmero p se llaman parmetros normales del plano.

Sea 7r el plano en cuestin. Cualquiera que sea X e 7Tse verifica que


PNX = p

(1)

Es decir
<X,N>-p=0
Para denotar el producto interior o escalar <X , N > escribiremos X . N.

www.FreeLibros.com

241

PLANO

Entonces
X . N - p = 0

(2)

Tanto (1) como (2) son la ecuacin normal vectorial del plano.
En trminos de coordenadas se tiene
(x \ + y J + 2 K) (eos a I + eos j3 J + eos 7 K - p) = 0
Efectuando el p ro d u cto interior resulta

x eos a + y eos 0 + z eos y - p = 0

(3)

La relacin (3) recibe el nombre de ecuacin normal cartesiana del plano. Los coeficientes
de las variables son los cosenos directores del vector normal al plano, y el termino
independiente cambiado de signo es la distancia del origen al plano.
M u ltip lic a n d o la e c u a c i n

(3) p o r k i = 0, r e s u lta
ax + by + cz + d = 0

Esta relacin recibe el nombre de ecuacin general del plano.


D e s a rro lla m o s a c o n ti n u a c i n el m t o d o q u e n o s p e r m ite p a s a r d e la e c u a c i n g e n era l del
plano a la ecuacin normal cartesiana.
Sea el plano 7Tde ecuacin
ax + by + cz + d = 0

(4)

El plano 7Tadmite la ecuacin normal


x eos a + y eos /3 + z eos 7 p = 0

(3)

cuyos coeficientes hay que determinar.


Como ambas ecuaciones corresponden al mismo plano, para algn k e R se verifica que
a ~ k eos a
b = k eos 0
( 5)

c = k eos 7
d = k(-p)

Sea d 0; como p es positivo, - p es negativo y, en consecuencia, el signo de k es distinto


del de d.
Elevando al cuadrado las tres primeras relaciones y sumndolas, se tiene
a2 + b 2 + c2 = k 2 (eos 2 a + eos2 0 + eos 2 7 )
O sea

k 2 = 2 + b 2 + c 1

En consecuencia
k = V a2 + b 2 + c 2

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

242

donde el signo de k, por lo observado anteriorm ente, debe tomarse distinto del de d.
De (5) resulta
a
eos a =
k

Q b
c
y eos p = eos y ~
k
k

d
k

- p =

Sustituyendo en (3), la ecuacin normal vectorial es


ax + by + cz + d

_^

s /a 2 + b 2 + c 2
Luego, para trasformar la ecuacin general del plano a la forma normal, se divide el
primer miembro de aquella por la raz cuadrada de la suma de los cuadrados de los
coeficientes de las variables, la que se tom a con signo distinto al del trmino independiente.
Ejemplo 7-16
Determinamos la ecuacin normal cartesiana del plano cuya ecuacin general es
x - y +z -

1 =0

De acuerdo con la frmula de pasaje, la ecuacin normal cartesiana es


x -y

+ z -

_ n

Vi 2 + (- )i2 + i2 ~
O sea

x-y+z^l

=Q

y /T
O bien
3

_.V L o
3

Los tres cosenos directores son


V

y la distancia del origen al plano es


3

3
Observamos que el vector cuyas componentes son los coeficientes de las variables de la
ecuacin general del plano es normal al mismo, ya que se deduce del vector normal
unitario multiplicndolo por k.
Ejemplo 7-17
Obtenemos la ecuacin del plano que pasa por P0 ( 1 ,2 ,2 ) , sabiendo que es
perpendicular al vector A = 3 I + J + K.

www.FreeLibros.com

PLANO

Cualquiera que sea X perteneciente al plano pedido es


P qX 1 A
En consecuencia
P0X . A = 0
es la ecuacin vectorial del plano.
En trminos de coordenadas se tiene
P0X - (x - 1) I + O - 2) J + (z - 2) K
Efectuando el producto interior
3 ( * - l ) + 0 2) + ( z 2) = 0
O sea
3 x + y + z 7 = 0

Ejemplo 7-18
Determinamos la distancia entre el plano de ecuacin
2 x -j'-2 z + 3-0
y el punto P0( l , 2, 3)
Sea 7Tel plano cuya ecuacin normal es
PN X - p = 0
y sea P0(^ 0 . yo> z 0) un punto dado.

www.FreeLibros.com

243

244

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

La distancia entre el plano 7Ty el punto P0 es


d ~

- p\

O sea la distancia entre un plano y un punto es el valor absoluto del primer miembro
Pian0 CUand " SUSt Uye h
Determinamos primero la ecuacin normal del plano dado
J l x - y O sea

2z +3

- V 2 + ( - l ) + ( 2)2
2

X1

? " +? v + I 2 - 1 =o
Sustituyendo x, y , z por las coordenadas de Pft es

d | - f 1 + r 2f - 3 -

Ejemplo 7-19
Dados los puntos A ( - i 3 2l v R f _ i

i n\ a *

Plano perpendicular a la recta AB, sabiendo que d i d l o T 08


^ r8en 31
del segmento AB.
piano pasa por el punto medio
Las coordenadas del punto medio de un sem iento nn u
coordenadas de los extremos de dicho segmento
En efecto:

www.FreeLibros.com

S<!miSUmaS de laS

DISTANCIA

245

M = A + AM
B = M + MB
Restando
M _ fi = A - M pues M y MB son equivalentes
Entonces

2M = A + B

0 sea
m

= 1 ( a + b)
2

En nuestro caso, las coordenadas de M son ( - 1 , 2, 1), y un vector normal al plano es


~B = B - A = - 2 J - 2 K
La ecuacin vectorial del plano es
M~ X . B = 0
Donde
M~X = (x + 1)1 + 0 - 2 ) J + (z - 1) K
Efectuando el producto

O . (x + 1 ) 2 (y 2) 2 (z 1) = O

www.FreeLibros.com

246

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

O sea

2y + 2 z - 6=0
es la ecuacin del plano pedido. Este plano es ortogonal al vector 2J - 2K, es decir,
al plano y z ; en consecuencia, es paralelo al eje x.
Observamos que si el coeficiente de una variable de la ecuacin de un plano es cero,
entonces dicho plano es paralelo al eje correspondiente a esa variable.
La ecuacin normal del plano hallado es

2y + 2 z - 6

=0

2 s2

O sea
\/2
, y/2
y + z
2

Y la distancia pedida es
d= ^ . 0
2

+ ^ . 0

_ 3y / 2

7.14. CURVAS EN EL ESPACIO


Sea I un intervalo real. Toda funcin
X : I -> R 3
se llama curva paramtrica en el espacio.
Cualquiera que sea r e l , X ( f ) es un vector cuyas coordenadas dependen de t. O sea,
existen funciones x, y , z de I en R, tales que
X ( 0 = (*(0>.v(0z(0j

www.FreeLibros.com

CURVAS

247

La ecuacin vectorial paramtrica de la curva C es


X = jc () 1 + y () J + z (t) K
Las ecuaciones cartesianas paramtricas de C son
x ~ x ()

y=y{t)
Z ~

()

La curva cuya ecuacin paramtrica es


X (f) = eos 1 1 + sen t J + K
es tal que sus ecuaciones cartesianas paramtricas son
/ x = eos t
| y - sen t
\ z~ 1
cualquiera que sea t e R.
Elevando al cuadrado las dos primeras y sumando eliminamos el parmetro
x2 + y2= 1
z - 1
La representacin de C est caracterizada por la interseccin de dos superficies: la
superficie cilindrica cuya directriz es la circunferencia de radio 1 centrada en el origen e
incluida en el plano horizontal y cuyas generatrices son paralelas al eje z, y el plano de
ecuacin z = 1.
Se trata de la circunferencia indicada en el grfico siguiente:

www.FreeLibros.com

248

PR
O DUCTO INTERIOR. GEOMETRIA VECTORIAL

La representacin de una curva com o interseccin de dos superficies se llama implcita, y


en general se denota mediante
C

[ F (x , y , z ) = 0
( G (x , y , z) = 0

Donde el sistema anterior es tal que se cumplen las condiciones de regularidad dadas por
el teorema de Cauchy Dini, relativo a la existencia de funciones definidas por sistemas de
ecuaciones.
Ejemplo 7-20
Deducimos la ecuacin vectorial de la hlice circular, definida como la trayectoria de
un punto que gira alrededor de un eje y adems se traslada paralelamente a l, siendo
ambos movimientos uniformes.

www.FreeLibros.com

SUPERFICIE CILINDRICA

249

que en el in stante t = 0 e l p u n to m v il est en A (a, 0, 0), y que al cabo del


t est en X (x , y , 2).

Suponem os
tiem po

Se verifica que

wt

z = vt

Siendo w la velocidad angular del movimiento circular uniforme, y v la velocidad (en


mdulo) del movimiento rectilneo y uniforme.
Las ecuaciones paramtricas en coordenadas cilindricas de la hlice circular son
p =a
<p= w t
Z -V t
Se tiene as el sistema de ecuaciones horarias de la curva.
Haciendo
(= w t ~ u
Resulta
y
z = v t w t = b u
w
Las ecuaciones cartesianas paramtricas son
X ~ eos u
y - a sen u
z = bu
La ecuacin vectorial paramtrica de la hlice es
X = a c o s I + 6 s e n J + Z>wK

7.15. SUPERFICIE CILINDRICA


Sean: una curva C y una direccin del espacio caracterizada por un vector no nulo
A = / I + m J + K.
Definicin
Superficie cilindrica de directriz C y direccin A, es el conjunto de puntos de las
paralelas a A, que pasan por todos los puntos de C.

www.FreeLibros.com

r
250

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Las paralelas a A se llaman generatrices

La ecuacin vectorial es, entonces

x= q + \ a
Ejemplo 721
Determinamos la ecuacin de la superficie cilindrica de directriz
x = eos t
y = sen t
z =0
y cuyas generatrices son paralelas
1. Al eje z , o sea, al vector A = K.
X = 2 + Xa
Como 12 (eos t, sen t, 0), de (1) resulta
Luego

(l)

x I + y J + z K = cos ? I + sen / J + \ K
x = eos t
y = sen t
z =\

www.FreeLibros.com

SUPERFIC IE CONICA

251

es el sistema de ecuaciones paramtricas de la superficie, siendo t y Xlos parmetros.


De las dos primeras ecuaciones resulta
1

x2 + y 2 ~

siendo z cualquier nm ero real.


2. Al vector A = I + J + K
De (1 )
x

l + y J + z K = eos 1 1 + sen ? J + X ( I + J + K )

Luego

x = X + eos

= X + sen

= X

Eliminamos los parm etros


X z =

eos

y -

sen

z =

Y resulta
ito

(x - z )2

un

{y -

z )2 = 1

7.16. SUPERFICIE CONICA


Consideremos una curva C, llamada directriz, y un punto V no perteneciente a C, llamado
vrtice.
Definicin
Superfcie cnica de directriz C y vrtice V es el conjunto de puntos de las rectas
determinadas por V y todos los puntos de la directriz.

O
I

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

252

Las rectas consideradas se llaman generatrices.


Sea X un punto genrico de la superficie cnica; X pertenece a una generatriz, la c
corta a la directriz en un punto 2.
Entonces la ecuacin vectorial de la superficie cnica es

x=v+xvn

O bien
X = 2 + XV 2

Ejemplo 7-22
Obtenemos la ecuacin de la superficie cnica de directriz
x 2 + y2 - 1 = 0
z =1
y vrtice V ( 0 ,0 ,0 )

Como
V 2= (a O )I + (0 O )J = a I + 0 J

y
resulta

= V + \V ~2,

x I + 7 J + 2 K = X ( a I + 0 J + K)

www.FreeLibros.com

PROYECCION

253

Luego
x = Xa

y = \(3
z~ \
De donde
z

(3 =
z

Sustituyendo e n ( l )
*2 + y2 - z

2=0,

se obtiene la ecuacin cartesiana im plcita de la superficie cnica.

7.17. PROYECCION DE UNA CURVA SOBRE UN PLANO COORDENADO


En el clculo de integrales mltiples suelen utilizarse a menudo las ecuaciones de la
proyeccin de una curva sobre uno de los planos coordenados.

Sea la curva C, definida por el sistema de ecuaciones


F(x,>,z) = 0

(1)

G (x,y,z) =0

(2)

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

^ L a superficie cilindrica de generatrices paralelas al eje z y de directriz C, se llama 7,**,


proyectante de C sobre el plano horizontal. Su ecuacin es del tipo

d e X d r o proyectante con el plano de ecuacin z = 0, es la proyecci,

de C sobre el plano horizontal.


O seaC ' = P*=oC

f(x,y) = 0
2

aproyeccin
Aa r cnhr?deel Colano
que
Para obtener ,la
sobrev 2el hay
piano
y eliminar
no* 4 x entre (1) y (2)j
cortar el cilindro proyectante con el plano de ecuacin x 0.
Ejemplo 7-23
Determinamos las proyecciones, sobre los planos * j y * z, de la curva
x * + y 2 + 2* = l
c

1. Eliminamos z entre (1) y (2)

x2 + / = 2

(1)
(2)

+ y 2 + ( x 2 + y 2)2 - 1

Pasando a coordenadas polares


p2 + p 4 = l
Entonces

p4 4- p2 1 = 0

Resolviendo respecto de p2
^
- 1 VT
P2 = ;
La nica solucin es

O sea

La proyeccin sobre el plano horizontal es la circunferencia de ecuac.ones.


V 5- 1

www.FreeLibros.com

PROYECCION

Su radio es

255

______

2. Si proyectamos sobre el plano y z, se elimina x entre (1) y (2) restndolas


z2 = 1 - z
Se obtiene

z 2 + z 1 = 0

O sea

-1 >/5
z --------------

Y como 2 > 0 , se tiene


2

Resulta

P*=0 C {

y/5 - 1

jc = 0
Ejemplo 7-24
Obtenemos la proyeccin de C sobre los planos x y y x z , siendo
C

Ix2 + y2 +z2 = 1

(1)

( x2 + y 2 - x

(2)

=0

1. La ecuacin del cilindro proyectante de C sobre el plano horizontal es


x2 +y2 - x

~0

(2)

ya que z no figura.
Luego
x2 +y2 - x = 0

P ,= o C

z=0

es la circunferencia de radio -^-y centro

, 0 j del plano horizontal.

2. Restando (1) y (2)


z2 + x = l

www.FreeLibros.com

256

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Luego

( Z2 = X + 1
py = o c \

_ n

\y-0

es la parbola de vrtice (1, 0) y eje - x del plano x z.

www.FreeLibros.com

TRABAJO PRACTICO VII

= Xf A Y no es un producto interior en (R 2 , +, R, .)
7-26. Considerar la misma cuestin siendo A =
7-27. En (V, + , R , .) se sabe que v es ortogonal a v 1( v2 y v3. Demostrar que v es ortogonal
al subespacio generado por ellos.
7-28. En un espacio con producto interior el ngulo de los vectores y y z es a. Sabiendo que
y = x + z, demostrar que
II xll2 = llyli2 + llzll2 - 2 II yl l . II zll c o sa
7-29. Demostrar
<x , y > 1= II xll II yll

e y son L.D.

7-30. En Rn se considera el producto interior definido por


<X , Y >= X f Y
Demostrar

7-5/. En un espacio euclidiano n-dimensional los vectores v 4, v2, . .


<V( , V, >= 6y . Demostrar que tales vectores forman una base.

v son tales que

7-32. En un espacio euclidiano se considera la funcin


d : V2 -R
definida por d (x , y) = II x - y II. Demostrar que (V, d) es un espacio mtrico.
7-33. Sea (V, + , R, .) un espacio vectorial con producto interior, y sea y e V. Demostrar que
la funcin
/ : V - R

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

258

definida por
/(x)= < x, y)
es una forma lineal.
7-34. Sea < , ) un producto interior en (V, + , R , .), y sea / : V ^ V una T. L. Demostrar que
: V2 -*R
tal que ( p ( x , y ) = < /(x ), /(y)> es un producto interior en V, s i / es 1 - 1.
7-35. Sea (V, + , R , .) un espacio euclidiano. Demostrar que la funcin
N :V ^R
definida por
N (x) = ( x , x > f
verifica:
1 . N ( a x ) - a 2 N (x )
2.

N (x + y) - N (x) - N (y) = 2 <x , y >

3. N (x + y) - - N (x - y ) = <x , y >
4
4
7-36, Demostrar que en

todo espacio euclidiano las diagonales de un rombo son

perpendiculares.
7-37. Sea (V, + , R , .) un espacio vectorial con producto interior.
Demostrar
1. ! l x - y l l > | l l xl l - Uyll|
2. llxll2 + IIyII2 = IIx +y l l 2 = > x l y
3. I l x - y l ! > l l xl l - llyll
4. x l y

II x + a y II > II x II, V a e R

7-38. Sean: V un espacio vectorial euclidiano y A C V. Por definicin, x e V es ortogonal a A


si y solo si
yeA ^xly
Demostrar que si x es ortogonal a A, entonces x es ortogonal a A.
7-39. Demostrar que si V es un espacio euclidiano n-dimensional y S es un subespacio de
dimensin m , tal que m < n , entonces existe un vector x e V y x / S tal que x es
ortogonal a S.
7-40. Sean V y S como en el ejercicio anterior. Demostrar que existe un nico subespacio T
tal que

l.x eT ^x lS

www.FreeLibros.com

TRABAJO PRACTICO VII

259

2. dim T = - W
3. V = S T
j 4 l En (R 3 , + . R >)se considera el producto interior ha bitual.
1 Obtener un vector unitario ortogonal a
V! = (1 , 1, 3) y v2 = ( 2 , 4 , 3)
2. Obtener dos vectores unitarios ortogonales entre s y ortogonales a
v = (1, 1 ,3 )
3. Sea la base
[v ]= ( 1 , 1 , 1 ) , ( 1 , 1 , 0 ) , ( 1 , 0 , 0)(
Construir una base ortonorm al a partir de [v] mediante el proceso de Gram Schmidt
742. Sea ( , va , . . v ) un conjunto ortogonal en (V, + , R ,.) y sea
n

v .S

1=1

a v

Demostrar que

7-43. Sean (V, + , R , .) un espacio euclidiano y { Vi, v2 , . .., vn } una base de V tal que
n
x e V a y e V=><x , y >= x t y t
n
n
donde x = 2 x f vf y y =. 2) y \ i
i
ii
Demostrar que la base { v , , v2 , . . v } es ortonormal.
7-44. Sean: V un espacio euclidiano y A C V. Si 2(A) denota el conjunto de todos los
vectores ortogonales a A, entonces
fi(2 (A )) = A
7-45. Demostrar que si / V i,v2 , . .

v | es una base ortonorm al de (V, + , R , .), entonces


n
<x,y>=

746. En (V, + , C , .), la funcin


< , ) : V2

es un producto interior o hermitiano si y slo si


i ) < x , y >= <y , x>
ii)<x

+ y,z> = <x,y>+<x,z>

www.FreeLibros.com

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

260

iii) < a x , y > = a ( x , y >


iv) <x , x ) > 0
( x ) x ) = 0 < - x - 0
Un espacio vectorial sobre C, con producto interior, se llama unitario.
Definiendo
II x ii= v T x T x ) ,
demostrar que
I<x , y ) l < llxil IIyII
7-47. Sean P i ( l , - 1 , 1) y P2( - l , 1 ,0 ). Obtener:
1. Las ecuaciones vectorial y cartesiana del plano perpendicular a la recta Pi P2 en Pj.
2. Las ecuaciones vectorial y cartesianas de la recta perpendicular al plano anterior,
sabiendo que dicha recta pasa por Po(0, 2, - 3 ) .
7-48. Determinar el conjunto de los puntos del espacio que equidistan del plano
x +y = 1
y del punto F (2, 2, 1).
7-49. Obtener las ecuaciones vectorial y cartesiana del plano paralelo al plano
a x + y -0=0
que pasa por P0(a, a, 3).
7-50. Hallar la distancia entre el plano que contiene a las rectas
x =y =z
x 1 =y +

2 =z

y el punto P0(1, 0, 1).


7-51. Obtener las ecuaciones de la recta determinada por los planos

2x - y + z 2=0
y
x +

2 y - z + 1= 0

7-52. Hallar las ecuaciones de la recta que pasa por el origen y es paralela a la interseccin de
los planos

2 x + y ~ z =0
y
x 2y + z = 5
7-53. Obtener la ecuacin de la superficie cilindrica de directriz

www.FreeLibros.com

TRABAJO PRACTICO VII

261

C
y cuyas generatrices son paralelas al vector A = I + J 4- K.
7-54. Determinar la ecuacin de la superficie cnica cuya directriz es la curva del ejercicio
7-53, y cuyo vrtice es V (0, - 1 , 1 ) .
7. 55 . Obtener las proyecciones de la curva

sobre los tres planos coordenados.


7-56. Por cada punto de la recta
r

x + z=2
y =0

Se considera la perpendicular a la recta

Obtener la ecuacin del conjunto de puntos de tales perpendiculares.


7-57. Hallar las ecuaciones vectorial y cartesiana del helicoide recto, que se define como el
conjunto de puntos de las rectas que pasan por todos los puntos de una hlice circular
y que son perpendiculares al eje de sta.
7-58. Sea (V, + , C, .) un espacio unitario, y sea { V j, v2 , ..
mismo.
Demostrar que
siendo X = X x
i - il

y Y 2
. ii
=

v } una base ortonormal del

7-59. Sea P e Rnxn una matriz ortogonal. Demostrar que las lneas de P constituyen una base
ortonormal de R", considerando el producto interior habitual.

n
i < /' = > 2

P U = 0

7-61. Sea dimK V = n > 1 y sea ( , > un producto interior en V.


Demostrar que si / e V * , entonces existe un nico vector x e V , tal que / ( y) =
= < x , y > , VyeV.

www.FreeLibros.com

262

PR
O DUCTO INTERIOR. GEOMETRIA VECTORIAL

7-62. Sean: un espacio unitario V de dimensin finita y [v] = { Vi, v2,. .


ortonorm al del mismo.
Demostrar que
n
x e V =>x = 2 ( x , v ) v
j= i
'

www.FreeLibros.com

v una base

Captulo 8

VALOR ES Y VECTORES PROPIOS .


D IAGO NALIZAC ION
8.1. INTRODUCCION
Desarrollamos en este captulo los conceptos de valores y vectores propios de un
endomorfismo en un espacio vectorial y de la matriz asociada en el caso de dimensin finita.
Demostramos las propiedades fundamentales de los mismos y su determinacin a partir del
polinomio caracterstico. Encaramos despus el problema de la diagorializacin de
trasformaciones lineales y matrices, as como tambin el de la triangulacin. Por ltimo,
demostramos el teorema de Hamilton-Cayley.
8.2. VALORES Y VECTORES PROPIOS
8.2.1. Concepto
Consideremos un espacio vectorial (V, + , K , .) y un endomorfismo
/ : V-> V
Definicin
El escalar X e K es un valor propio de / si y slo si existe un vector no nulo x e V, tal
que / ( x ) = Xx.
Todo vector no nulo que satisfaga la condicin anterior se llama vector propio de f,
asociado al valor propio X.
En consecuencia, un vector propio de un endomorfismo es un vector no nulo cuya imagen
es un mltiplo escalar del mismo.
Las expresiones valor propio , valor caracterstico y autovalor son sinnimas.
Tambin lo son vector propio , vector caracterstico y autovector .
Ejemplo 8-1
Considerando (R 2 , + , R , .) y la trasformacin lineal
/ : R2

R2

www.FreeLibros.com

264

VALORES Y VECTORES PROPIOS. DIAGONALIZACION

definida por
f ( x i , x 2) = (2jc 1 , 7 x 1 - 2 x 2) ,
el escalar X = 2 es un valor propio de / , ya que el vector no nulo (2, 1) es tal que
/ ( 2 , 1 )= (4 , 2) = 2 ( 2 ,1 )
(2, 1) es un vector propio asociado al valor propio 2.
8.2.2. Propiedad
Si X es un valor propio de una trasformacin lineal / : V V, y si S \ es el conjunto de l0s
vectores propios asociados a X, entonces S* = S \ U {0 } es un subespacio de V
En efecto:
1.QeSx^Sx^j).
2.

S \ C V por definicin de S^.

3. Sean x e y pertenecientes a S^.


Si x = 0 v y = 0, entonces x + y e S^.
Supongamos que x = 0 e y = 0
xv=0 A y ^ 0 ^ x e S \ A y e S \ = >
(x) = Xx A / ( y ) = Xy =>f (x) + / ( y ) = Xx + Xy =
=>/ (x + y ) = X (x + y) => x + y e S:\ =>x + y e S K
4. Sean f t e K y x e S ^ .
Si x = 0 o a = 0, entonces a x e S \ .
Consideremos el caso en que x = 0 y a = 0:
aeKA x^O ^ae

a x

e S \ =>aeK a

/ (

) -

Xx

=>

=a / ( x ) = a (X x) = > /(a x) = X ( a x ) = > a x e S ^


^axeS^
En consecuencia, (Sx , + , K , .) es un subespacio de (V, +, K, .).
De acuerdo con lo demostrado en 4., afirmamos que si x es un vector propio de/asociado
a X, y a = 0, entonces a x es un vector propio asociado al mismo valor propio.
Observamos tambin que la restriccin d e / a
es una homotecia de razn X
8.2.3. Valores y vectores propios de una matriz
Definicin
El escalar X es un valor propio de la m atriz A e Knxn si y solo si existe un vector no
n u lo X e K " * 1 tal que AX=- a X

www.FreeLibros.com

VALORES PROPIOS

265

0 vector no nulo que satisfaga la relacin AX ~ X X se llama vector propio de A asociado

al valor
entonCes que, un vector propio de una m atriz A e Knxn es un vector propio de
sformacin lineal de Kn en K" representada por A en la base cannica.
Ejemplo 8-2.
V es el espacio vectorial sobre el cuerpo de los nmeros reales, de las funciones
R R infinitamente derivables y
D :
es

el endomorfismo definido por


di

D (f)

dx

_ .

entonces la funcin f e V, tal que f (x) = e A * es un vector propio de la trasformacin


lineal D, pues
D (f) = = X e X V X e R
dx
Ejemplo 8-3
Si A e K nxn es una matriz diagonal, entonces cualquier vector cannico E e K x l ,
donde i = 1, 2
,
es un vector propio de A.
En efecto, sea

A=

Id i
0
0

0
d2
0

Entonces
0 . ..
d2

'o

0
. o

A E =

. o

di

di

dt Et

. dn

\ i

\ol

Los valores propios de A son los elementos de la diagonal.


8.2.4. Propiedad
Los vectores propios asociados a valtres propios distintos son linealmente independientes.
Sean
/ : V -> V

www.FreeLibros.com

266

VAL
O RES Y VECTORES PROPIOS. DIAGONALIZACION

una trasformacin lineal y x , , x2, . . x vectores propios asociados X ,, \ ,.


que
i i= j

Demostraremos que X i, x 2 , . .

t6 A,-

=> \

x son linealmente independientes.

1 . M- 1 ^ x i ^ O ^ x j esL .I.
2.

{ X j, x 2 , . .

Xj, ) es L.I. ^ { X j, x 2 , . xh, x^ +1 | es L.I.

En efecto, consideremos

h+1

aixi= 0

(1 )

Multiplicamos por X>, + 1


tti X/,+ 1 Xj + . . . + a /i X* + l Xj,+ h + l \ j + i x h+i
A p lic a n d o /a (1)
\ i X! + . . . + oth

x t + 0h + l \ j + i x ft + i 0

Restamos estas dos igualdades


i (\i + i - M

x i + +

h i + i - b i ) x h = 0

Por la hiptesis inductiva resulta


cl

( \ +i - \ ) = 0

V /= 1 , 2 , . . .,h

Y como \ , + 1 X,- ^ 0, resulta


= 0

V /= 1 , 2 , . . .,h

Sustituyendo en (1), se tiene


h +1 x h + i = 0
O s e a a ft +i = 0 , ya q u e xh + i ^ 0
En consecuencia
d i = a-i

= . .. =

oth = a h

+! = 0

Y por lo tanto
( x , , x 2 , . . . , x } esL .I.
8.2.5. Propiedad
Si / es una trasformacin lineal del espacio vectorial V , de dimensin finita,
entonces A e K es un valor propio de / s i y slo si / - Ai es singular.
i denota la trasformacin identidad en V.
1. Sea X un valor propio d e /. Entonces existe x ^O en V, tal q u e /( x ) = Ax

www.FreeLibros.com

VECTORES PROPIOS

267

Ahora bien
/ ( x ) = X x = */(x) - X i (x) = 0 =/(x ) - (X) (x) = 0 => ( f - M) (x) = 0.
En consecuencia, N ( f - Ai)

{0 ) , o s e a , / - A/ es singular.

2. Supongamos ahora que / - A i es singular, o sea, no inversible. Esto significa que


/ - A /: V - V es tal queN ( f A/) ={0} . En consecuencia, existe x e V, x = 0 tal
que ( f - A) (x) = 0. De acuerdo con el lgebra de las trasformaciones lineales, se tiene
/ ( x ) (Xi) (x ) = 0
Es decir
/ ( x ) = X (x ) = X x
y por consiguiente Xes un valor propio d e /.
En trminos de matrices esta propiedad se traduce de la siguiente manera:
Si A e K nxn , entonces X e K es un valor propio de A si y slo si A - XI es singular.
Equivalentemente
Xes un valor propio de A g K nx "

D (A - Xl ) = 0

Ejemplo 8-4
El lector podr demostrar, al realizar el trabajo prctico, que todo endomorfismo en V,
donde V es un espacio vectorial de dimensin finita y mayor o igual que 1 sobre el
cuerpo de los complejos, admite un vector propio.
Pero si el cuerpo no es C, entonces pueden no existir vectores propios. En efecto, sea
(R2, + , R , .) y sea

entonces

6 - x 2 sen 0 = X x i
x 1 sen 6 + x 2 eos 6 = \ x 2
Xi eos
O sea

(X - eos 6) x ! + x 2 sen 6

- x i sen 0 + (X - eos 6) x 2 = 0

www.FreeLibros.com

268

VAL
O RES Y VECTORES PROPIOS. DIAGONALIZACION

Si el sistema admite soluciones no triviales debe ser


X eos 0

sen 0

sen 0

X eos 0

Luego
(X - eos 0)2 + sen2 0 = 0
X2 2 Xcos 0

+ 1= 0

X= eos 0 \Jeos2 0 1
Si 0 = 60, entonces
\ = +V " R
Slo existen vectores propios si 0 - n ir.
Considerando (R 2 , + , C , .) existen valores y vectores propios. El endomorfismo f
representa una rotacin del plano de ngulo 0 alrededor del origen.
8.2.6. Propiedad
Si / : V - ^ V es una trasformacin lineal, y si adems existe una base
jyj = j Vl ( v2 ........ v form ada por los vectores propios de/correspondientes a los valores
propios X j,
., X n , entonces la matriz de / respecto de esta base es la matriz diagonal

D=

I X,
0
;

0 ...
Xa . . .
;

0
0
;

o ... K

En efecto, la m atriz de / respecto de [v] se obtiene determinando las imgenes de los


vectores de dicha base, y teniendo en cuenta la definicin de vector propio es
/ ( v i ) = Xi Vi = Xi vj + 0 v2 + . . . + 0 vn
/ (V2 ) = Xa v2 = 0 V! + X2 v2 + . . . + 0 v
/ ( v ) = Xfl vM= 0 v i + 0 v 2 + . . . + X* v
En consecuencia, resulta

D=

X! 0
0 X2
0

...

www.FreeLibros.com

VECTORES PROPIOS

269

En este caso diremos que la trasformacin lineal / es diagonalizable.


Una consecuencia del teorema demostrado es la siguiente:
Si dim V = n y / : V-> V es un endomorfismo que admite n valores propios distintos
entonces/ es diagonahzable.
Esta afirmacin es obvia en virtud del teorema anterior y de 8 2 4
En trminos de matrices diremos que si A e K " x " admite v alores propios distintos
entonces existe P K
no singular, tal que
P 1 A P es diagonal
Ejemplo 8-5
Determinamos los valores y vectores propios de A, siendo
3

A=

-2

De acuerdo con 8.2.5., consideremos


D(A-X1) = 0
0 sea
3- X
-1

- 2
=

2- X

Resolvemos respecto de X
(3 -

X) ( 2 -

X) -

2 = 0

X2 - 5 X + 4 = 0
5 V 25 - 16
os

_ 5 3

Las races son:


Para cada X resolvemos el sistema
(A - XI) X = 0

2xi - 2x 2 =0
~ X :

-X j + * 2 = 0

El sistema es equivalente a
x i - x2= 0
De donde
x x x 2

www.FreeLibros.com

VALORES Y VECTORES PROPIOS. DIAGONALIZACION

270

Luego
1

Xi =
X i es un vector propio asociado a \
2. a2 = 4 - ( : |

:j)

,1

= 1.

= ( ) * - * . - 2 * , + 2 , a =o

= - 2 x 2 =>X2 = ^ ^
X2 es un vector propio asociado a X2
Los vectores X j y X2 son L.I. y forman una base de R2.
A es diagonalizable, y su forma diagonal es
D=

Si P es la matriz cuyas columnas son los vectores propios, entonces es


P1 A P = D

8.3. POLINOMIO CARACTERISTICO DE UNA MATRIZ


8.3.1. N ota sobre polinomios
Sea K [X] el anillo de polinomios del cuerpo K (vase captulo 12 deA lgebral, del mismo
autor).
Si P e K [X], escribimos
P ( X ) = 2 a.-X1'
v ' i=0 '
donde a e K y an =0, o sea# P = n.
Dada la matriz cuadrada A, definimos
P (A )= a A'
v ' i=0 1
Haciendo A = 1, se tiene
P C A )- ,! A" + a n~l A "-' 1 -f . . . + t A + a 0 I
La matriz P (A) es la especializacin de X por A.
Ejemplo

8-6

En R [X] consideremos
P (X ) = 2 X 2 - X - l

www.FreeLibros.com

POLINOMIO CARACTERISTICO

271

y sea

A=

Entonces
P (A) = 2 A2 - A - I =
1 1 \ / 1 1 \

2, 1 I U

, ,

0 2/ \

0 4/

0 2/

I - 1 +
- 1 =

10-3/

1\
0 2 /

- 1

\ 0 -2

2 2 +/
0 8/

/-I

/ 1 0
\0 1

0 1

1
0 5

Se verifica que
1. (P + Q) (A) = P (A) + Q (A)
2.

(P . Q) (A) = P (A) . Q (A)

3. (a P )(A ) = a P ( A )
Si i , <*2 , >On son elementos de K y
P (X ) = ( X - a 1) ( X - a 1) . . . ( X - a II),
entonces es
P (A) = (A otl I) (A - a 2 I) . . . (A - an I)

Ejemplo 8-7
Si A k " xm, entonces existe un polinomio no nulo P K [X]tal que P (A) = N, donde
N denota la matriz nula del tipo n x n.
En efecto, la dimensin de (K x , + , K , .) es n 2 . Esto significa que las matrices
I,

A, A2 ,. .

son linealmente dependientes si m > n 2 .


En consecuencia, existen escalares a lt a2, . .
Am + V

am , no todos nulos, tales que

i A 11 + . . . + ! A + a0 I = N

O sea, existe
P ( X ) = im X m + a m-l Xm_1 + . . . + a i X + a 0
en K [X], que satisface
P(A)=N

www.FreeLibros.com

Am

VALORES Y VECTORES PROPIOS. DIAGONALIZACION

272

8.3.2. Polinomio caracterstico


Definicin
Polinomio caracterstico de una m atriz A e K " Xl es el determinante de la matriz
XI A.
O sea
X \\
~~ #12 . . .
#21 ^ a22

P (X) = D (X I A) =

Q\n
~ ^In

a n2 . . .

~ ni

nn

Desarrollando por los elementos de la primera columna y reiterando el procedimiento en


los sucesivos cofactores, se obtiene una suma del tipo
( X - fu) . . . ( X - a nn) + . . .
donde los trminos, a partir del1 primero, son de grado menor que n.
Resulta
P (X) = X" + c n-1 X""1 + . .. + ci X + c0

Ejemplo

8-8

Determinamos el polinomio caracterstico de A, siendo


1 2
A=

X -t-1 2
X 2
-2
6
3

P (X) = D (XI A) =
X- 2
= (X + 1 )

-2
A+ 6

+ 2

-2
2
X+ 6

-2
6

-2
X+ 6

+ 3

= (X + 1) (X2 + 4 X) + 2 ( - 2 X ) + 3 . 2 X
= X3 + 5 X2 + 4 X - 4 X + 6 X = X 3 + 5 X2 + 6 X
Una raz es \

= 0. Las otras dos lo son de


X2 + 5 X + 6

O sea
X=

1
2

www.FreeLibros.com

-2
X- 2

2
- 2

POLINOMIO CARACTERISTICO

273

Resulta
X2 = 3

X3 = 2

8.3.3. Propiedad
El escalar X es un valor propio de A e K nxn si y slo si X es raz del polinomio
caracterstico de A.
1 . Sea Xun valor propio de A. Entonces, de acuerdo con 8.2.5., A - XI es singular, y por

consiguiente tambin lo es XI - A, o sea, D (XI - A) = 0.


En consecuencia, Xes una raz del polinomio caracterstico.

2. Supongamos que Xsea una raz del polinomio caracterstico de A. Entonces es


D ( X l A) = 0
O sea, XI - A y A XI son singulares. Esto significa que X es un valor propio de A,
por 8.2.5.
Usualmente, la determinacin de los valores propios de una matriz, es decir, de las races
de su polinomio caracterstico, no es simple. Los m todos adecuados a este fin son temas de
Clculo Numrico, que no trataremos en este texto.
Ejemplo 8-9
Determinamos los valores y vectores propios de A e C2 x2, siendo

El polinomio caracterstico es
P(X) = D (XI A) =

= (X 2)2 + 4

X 2

P(X) = 0 ^ ( X - 2)2 + 4 = 0 = > X ~ 2 = 2 / = * X=2 2i


Los valores propios de A son
X, = 2 + 2/

Xj = 2 -

2i

Para determinar un vector propio asociado a X resolvemos el sistema lineal


(X I - A )X = 0
En efecto, si X es un vector propio asociado a X, por 8.2.3. se tiene
A X = XX

De donde
X X A X = 0
O sea
XIX-AX =0

www.FreeLibros.com

274

VAL
O RES Y VECTORES PROPIOS. DIAGONALIZACION.

Por distributividad es
(XI - A ) X = 0
1. Xt = 2 + 2?=*

2i 2 \ / x A

\ 22i j \ x 2j

0\
\0 /

2i x 1 - 2 x 2 =Q

2 x i + 2 i x 2 =0

=>x2 = ix i
Un vector propio es X j

'1

1/

2. X2 = 2 - a -

( * | ) = ( ) - | 2*. - 2 /* , = 0 - x , = i* 2

Un vector propio asociado a X2 es


'i
X2=' i
\
Si P = [
\i

i\

I , entonces es
1/
P"1 A P =

/ 2 + 2i
\

0
2 - 2i

La matriz A ha sido diagonalizada.


Ejemplo 8-10
Probaremos ahora que los valores propios de toda matriz involutiva son 1 o 1.
Sea A e KflXfl, tal que A2 =1.
Si X e K71x 1 es un vector propio asociado al valor propio X, entonces
A X = XX

(1)

Premultiplicando por A
A2 X = X A X
Como A2 = I, se tiene

ix =Xa x

O sea

X = XA X

(2)

De (1) y (2) se deduce


X = XXX
Es decir
(1 - X 2) X = 0

www.FreeLibros.com

POLINIMIO CARACTERISTICO

275

Como X = 0, resulta 1 - X2 = 0, y en consecuencia X= 1.

Con procedimiento anlogo el lector podr com probar que los valores propios de toda
matriz idempotente son 0 o 1, es decir
A2 - A =* X - 1 . X = 0
8.3.4. Propiedad
Dos matrices semejantes tienen el mismo polinomio caracterstico, y en consecuencia los
mismos valores propios.
Hiptesis) A ~ B e n K lXfl
Tesis)

D( X I - A ) = D ( X l B)

Demostracin)

A ~ B =>3 P n o singular / B = P 1 A P

Por 4.19.5.

Entonces es
D (XI B) = D (XP1 I P - P ' 1A P ) =
= D [P_1 (X I - A) P] ~D (P"1) D (X I - A) D (P) =
= D (P-1) D (P) D (XI A) = D (P*1 P) D (XI A) =
= D (I) D (X I - A) = 1 . D (XI - A) = D (X I - A)
La recproca no es cierta, ya que dos matrices pueden tener los mismos valores propios y
no ser semejantes.
Un contraejemplo se presenta considerando las matrices
il
A-(o

i 1

0\
.)

y B = (o

3
.

8.3.5. Polinomio caracterstico de una trasformacin lineal


Sea / : V -*V una trasformacin lineal y sea [v] = { Vj, v2, . . v } una base de V.
E ntonces/est caracterizada por una m atriz A e Knxn respecto de [v].
Si [v] = { v \ , v2 , . . . , vn f es otra base de V,
entonces existe una matriz no singular
P e K.nxn tal que la matriz d e / , respecto de la base [v]} verif
ica
B ^ F 1 AP
Las matrices A y B admiten el mismo polinomio caracterstico, de acuerdo con 8.3.4. El
polinomio caracterstico de cualquiera de las matrices que caracterizan a / se llama
polinomio caracterstico de la trasformacin lineal.

www.FreeLibros.com

276

VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

8.4. DIAGONALIZACION DE MATRICES


8.4.1. Definicin
Una matriz A e K nxn es diagonalizable si y slo si es semejante a una matriz diagona]
O sea
A e Knx" es diagonalizable o 3 P no singular / P"1 A P = D
donde D es diagonal.
8.4.2. Propiedad
6y), donde \ C0(

Si A e K "xn es diagonalizable, entonces su forma diagonal es D


i = 1 ,2 , . . n son los valores propios de A.
En efecto:

A es diagonalizable = > A ~ D = > D ( M D) =

di
0
0

0
\ - d

\- d y

=.7^ (A - d )
El polinomio caracterstico de A es
P (k) = ( \ - d l ) ( K - d 2 ) . . . ( k ~ d tl)
En consecuencia, los elementos de la m atriz diagonal son los valores propios de A.
8.4.2. Propiedad

ele

Una matriz A e K nx" es diagonalizable si y slo si A admite n vectores propio


ind
linealmente independientes.
1. Sea A diagonalizable.
A es diagonalizable = > A ~ D = * 3 P n o singular /P " 1A P = D=> A P = P D
Particionando P en vectores columna, o sea
P = (X 1 X2 . . . X),
es

P D = (Xj X2 . . . X)

/ Xj 0
0 ^
0

...

0
0

...

www.FreeLibros.com

(1)

dia
lo i
hoi

DIAG ONALIZACION

277

Adems
A P = A ( X , X2 . . . X ) = ( A X , A X 2 . . . A X j

(3)

De (1). (2), y (3) resulta


A X \ X

i = 1, 2, . .

Luego las columnas de P son n vectores propios de A, y como P es no singular, tales


columnas son L.I.
En consecuencia, A admite n vectores propios L.I.
2. A admite n vectores propios L.I.
Sean tales vectores propios: X j , X 2, , . X.
Por definicin es

P - (X! X 2 . . . X) y D - (\ - 5a)
Se tiene
A P = (A X A X2 . . . A X * ) ^ , X t

%2 X2 . . . X,, X j,)^

= (x i X2 . . . X ) (A; 5jj) = P D
Como P es no singular resulta
P"1 A P = D
0 sea, A es diagonalizable.
8.4.3. Races del polinomio caracterstico y diagonaizacin
De acuerdo con 8.2.4., si los valores propios del polinomio caracterstico de A e K nxn son
elementos distintos de K, entonces los vectores propios asociados son nealmente
independientes, y, por 8.4.2.2., A es diagonalizable.
En general, si el polinomio caracterstico de A tiene races mltiples, la matriz no es
diagonalizable. Para que lo sea, debe cumplirse la condicin suficiente demostrada en 8.4.2.,
lo que significa que a toda raz mltiple de orden p debe corresponderle un sistema lineal y
homogneo cuyo espacio solucin tenga dimensin p.
Ejemplo 8-11
La matriz

no es diagonalizable

www.FreeLibros.com

VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

278

D eterm inam os los valores propios

= (X

1
0
0

P(A) = D ( X l - A ) =

-1
X -l
0

l ) 3 ^ Xi X2 *- X3

o
-i
X -l
1.

Los vectores propios asociados a esta raz triple satisfacen a


( X I - A) X = 0
O sea
0 -1
OWXj
0
1 - 1 |( ^2
0

Luego
0 * ! - x-i + 0 x 3 0
Oxj +

0x 2 - X 3 = 0

El rango de la matriz de coeficiente es 2, y en consecuencia es


dim S = 3 - 2 = 1
O sea, hay un solo vector propio linealmente independiente de la matriz A.
Por consiguiente, A no es diagonalizable.
Ejemplo 8-12
La matriz

es diagonalizable y sus valores propios no son todos distintos.


En efecto:

P (X) = D (X I - A) =

C X - 1)

X+3
-4
-2

X+3

X- 3

0
X -l
0

4
-4
X- 3

= ( X - 1)(X2 - 1)=*

=>Xi =X 3 = 1 , X3 = - 1

www.FreeLibros.com

TRIANGUALCION

1. Xi -

279

- 1 =*

La matriz del sistema tiene rango i , o sea


diro S = 3 - 1 = 2
2. A Aj = 1 le corresponde un vector propio linealmente independiente. Luego A es
diagonalizable y su forma diagonal es
'l 0
o
D=| 0 1
0
0 0 -1

8.5. TRIANGULACION DE ENDOMORFISMOS Y DE MATRICES


Hemos visto que no siempre es posible diagonalizar una trasformacin lineal o una matriz
cuadrada. Cabe preguntarse si es posible determinar una base tal que, respecto de ella, la
matriz de una trasformacin lineal de un espacio de dimensin fmita en s mismo sea
triangular. La respuesta es afirmativa si el cuerpo es el de los nmeros complejos.
Consideremos un endomorfismo
/ : V -> V
donde ditrtK V = n > 1.
En lo que sigue, introduciremos el vocablo fa n , cuya traduccin es abanico, para denotar
una familia de subespacios de V que satisface ciertas condiciones.
8.5.1. Concepto
Un fan d e / e n V es unan-upla de subespacios de V: S i ,S2 , . .

Sn , tales que

i ) Son crecientes en el sentido de inclusin:


S, C S 2 C S 3 C . . . C S
i i ) dim S,- = i , Vi = 1 , 2 , . . n
iii) Son invariantes, o sea
x e S =*-/(x)e Sf

Vi = 1 , 2 , . . . , n

Esta condicin equivale a


/( S ) C S

Vi = 1, 2 , . . . ,

Es obvio que Sn = V.
Definicin
Si { S i , S 2, . . . , S j

es un fan de / en V, entonces la familia [v] = ( Vi, v2, , v }

www.FreeLibros.com

280

VA LO RES Y VECTORES PROPIOS. DIAGONALIZACION

es una base fan de V si y slo si { v j . v * , . .,v f \ es una base de Sf para todo


/ =1,2,...,.
El teorema de extensin 2.6.3. nos permite afirmar que existe una base fan.
8.5.2. Propiedad
Si [v] es una base fan de V, entonces la matriz asociada a todo endom orfism o/ : V -+ V es
triangular superior.
Sabemos aue para obtener la m atriz de / respecto de una base, hay que determinar las
imgenes'de los vectores de la misma y expresarlos como combinaciones lineales de tal
vectores. Teniendo en cuenta adems la definicin de subespacio invariante, resulta

Vi eSi =>/(vi)esi =>/(vi) = fln vi

v2 e S 2 =>/(v2) e S 2 = * /(v 2) = 0 n Vi+ a 22 v2


vn e S =>f(y) e S n = > /(vn) - (i Vi + a2n v2 + + n v

Por consiguiente, la m atriz de / respecto de la base fan es

A=

011
^
0 022 Q'in
0

. . . a nn

Si f : V -*v es una trasformacin lineal y si existe una base respecto de la cual la matri
de fe s triangular, entonces diremos q u e /e s triangula ble.

En trminos de matrices, diremos que A e K 'lxn es triangulable y solo si exis


P e KrtXfl no singular, tal que P '1 A P es triangula r. Demostraremos que toda matriz pued
ser triangulada sobre el cuerpo C.
8.5.3. Propiedad
Si V es u n espacio vectorial de dimensin finita m ayor o igual que 1, sobre el cuerpo
los complejos, y si / : V -> V es una trasformacin lineal, entonces existe un fan de / en .
Demostramos esta afirmacin inductivamente.
1 Si dim V = 1, entonces nada hay que probar.
2.

Supongamos que la propiedad es vlida si dim V = - 1. Demostraremos que lo esj

dim V = n.
Sea V, un vector propio de / , el cual existe de acuerdo con el ejercicio 8-46, y sea S,
subesoacio generado por V i. Resulta dim S i 1.
,, ,
c _
Siendo Sr un subespacio de V, existe un subespacio W cuya suma directa con S,
(ejercicio 7-40), o sea
V = Si w

www.FreeLibros.com

TRIANGULACION

2gl

C o n sid e re m o s las proyecciones p , y p 2 de V sobre S t y W, respectivamente.


La composicin p 2 f e s una trasformacin lineal de V en V tal que si x e W, entonces
/ ( x ) e W. Restringiendo el dominio a W, podemos consi derar a p 2 f como una
tra s fo rm a c i n lineal de W en W.
De acuerdo con la hiptesis inductiva, existe un fa n de
p 2 o / e n W. Sea ste

( W , , w 2 .........w ^ )

Consideremos ahora los subespacios


Sf = Si + W M

para?= 2, 3 , . . . , n.
Se verifica que dim Sf = i, ya que si | Wj , w2 , . . ., wn_, J es una base de W, entonces
{Vi, Wi , . . WM } es una base de S,-, i 2 , 3 , . . n.
Adems, S C S+1 para todo / = 1 , 2 , . . . , .
Para demostrar que {
/( V ) c V(,

, S2, . .

S } es un fan de / en V, es suficiente probar que

Observamos que
f = i v f = ( p i + p 2) f = p 1 f + p 2 f
puespi + p 2 = i y (v e r3 4 6 )
Sea x un vector cualquiera de S,-:

(1)

x e S,- => x = av^ + w , donde a e C y w e W


Teniendo en cuenta (1) es
/ ( X ) = (P ! o f + p 2 o f ) ( x ) = ( p 1 o f ) ( x ) + ( p 2 0 / ) ( x )

(2)

Ahora bien
P i 0 f ) (x) = p i f (x)] e S i , y en consecuencia
(Pif)(x)eS

(3)

Por otra parte


(P2 f ) (x ) = ip2 o f )(av1) + ( p 2 o f ) ( w) ^ a p 2 ( / ( v ! ) j +( p2 / ) (w,')

= a p 2 (Xi v O + (p2 / ) ( wi) = a \ i p 2 (y1) + (p2 /) (wt) = 0 -t-<>2 / )( w ,) =


= (P2 f) (W,)

de acuerdo con la descomposicin de x, la definicin de trasformacin lineal, y considerando


que Vj es un vector propio de / . Por la hiptesis inductiva se sabe que (p 2 f ) (W,) C W,-, y
por consiguiente
(Pi o f ) (x) = ( p 2 f ) (w) e W,
O sea
(P 2 o f ) (x ) e S,

(4 )

www.FreeLibros.com

282

VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

Considerando (2), (3) y (4) resulta


/( x ) e S ,Es decir
x e S ^ / ( x ) eS
Luego | S i, S2, . . S } es un fan d e / e n V.
Son consecuencias inmediatas de este teorem a de existencia y de 8.5.2., las siguientes:
I. Si dimc V = n > 1 y f : V ->V es una trasformacin lineal, entonces existe una base de
V tal que la matriz de f respecto de dicha base es triangular superior.
II. Si A e C n xn, entonces existe P e C nx", no singular, tal que P '1 A P es triangular
superior.

8.6. TEOREMA DE HAMILTONCAYLEY


El teorema de Hamilton-Cayley, fundamental en la teora de la resolucin de ecuaciones
matriciales, afirma que toda m atriz cuadrada es raz de su polinomio caracterstico, esto es,
siP (X ) es el polinomio caracterstico de A e K " Xfl, entonces P (A) = N.
Desarrollaremos primero una demostracin en el caso particular que se presenta si la
matriz A, del tipo n x n , admite n vectores propios.
Para esto utilizaremos la siguiente propiedad que se propone como ejercicio del trabajo
prctico: si X,- es un vector propio de la m atriz A, asociado al valor propio X, entonces X es
un vector propio de la m atriz A , correspondiente al valor propio X .
Consideremos el polinomio caracterstico de A
P (X) = Xn 4- c n_i X" 1 + . . . + Ci X + cq
Entonces
P (A) = A" +

A 1 + . . . + c 1 A + c0 l

Multiplicando a derecha por el vector propio X,- asociado al valor propio X, y teniendo en
cuenta la propiedad mencionada, es
P (A )X f = A X, + cn_, A""1 X/ +. . . + c 1 A X i + c 0 X r
= X? X, + e_, XT1 X, + . . . + c , X X + c0 X =
= (X? + c . i X T + . . . + C, X, + c0)X =
= 0X,. = 0

Vi = 1 ,2 ........ n

(1)

Sea P = (X x X2 . . . X M) la matriz cuyas columnas son los vectores propios de A.


Considerando (1), se tiene
P ( A ) . P = ( P ( A ) X , P (A )X 2 . . . P ( A ) X ) = N
Y como P es no singular, resulta
P ( A ) . P . P1 = N . P' 1

www.FreeLibros.com

TEOREMA D E HAMILTON - CAYLEY

283

0 sea

P (A) = N
Ejemplo 8-13
Utilizando el teorem a de Hamilton-Cayley, determinamos la inversa de la matriz A del
ejemplo 8-5.
A=
,

-2

El polinomio caracterstico de A, es
P (X) = X2 - 5 X + 4
Entonces es
P (A ) = A2 ~ 5 A + 4 I = N
O sea

i
I = (A2 - 5 A)

En consecuencia, multiplicando por A ;


A '1 =-----(A - 5 I)
Como
A- 5I

-2

-2

-1

-3

Resulta

A '1 =

_L 1
4

4 I

Demostraremos ahora que toda m atriz A e Cnx,t satisface a su polinomio caracterstico, o


sea
A e Cnxn =>P (A) = N
En efecto, sea el polinomio caracterstico de A:
P (X) = D (X I A)

(1)

Sabemos que el producto de toda matriz cuadrada por su adjunta es igual al determinante
de aquella por la matriz identidad (5,8.3.). Entonces
(X I - A) Adj (X I - A) = D (XI A) . I

www.FreeLibros.com

VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

Teniendo en cuenta (1) es


(X I A) Adj (X I A) = P (X) . I

(2)

Los elementos de Adj (X I - A), por ser los cofactores de (XI - A), son polinomios de
grado menor o igual que n - 1, y en consecuencia
Adj (X I - A) = A n^ X*'1 + A n.2 X"-a + . . . + A1 X + A0

(3)

De (2) y (3) resulta


An_i X" + (A_2 - A A_i) X""1 + (A_3 - A An J ) X"-*+. . . +
+ (A0 - A

A O X - A Ao = X" I + c_i X""1 I + .. . + XI + c0 I

O sea

An-j = I
An-2 ~ A An_i Cn-1 I
An_3 A An_2 Cf-2 ^

Ao

A Aj
A Aq =

Luego de premultiplicar por A ", A n 1, . .

Cj I

Cq

A e I, respectivamente, se tiene

A A n_i = A"
A" 1 A_2 A*1 A n_i c n_i A n 1

A""2 Ajj3 - A""1 A_i = Cd_2A-2


A A0 - A2 A | =Cj A
--

A Aq

Cq

Sumando, despus de reducir, es


N = A n 4- cn. i A"1 + . . . + C , A + c0 I
O sea
P (A) = N

www.FreeLibros.com

TRABAJO PRACTICO VIII


8-14. Determinar los valores y vectores propios de las siguientes trasformaciones lineales:
1. / : R 2 ~>R2 definida porf ( x u x 2) = (4x + 3 * 2 , 3 ^ - 4 x 2)
2. / : R 3 -* R 3 tal q u e /(x, y, z )= (2y ~ z , 2 x - z , 2 x ~ y )
8-15. Obtener los valores y vectores propios, si existen, de las matrices siguientes con
elementos en R:

8-16. Demostrar que si X es un valor propio de A e K "x " y sta es no singular, entonces X es
no nulo.
8-17. Demostrar que si X es un valor propio de la m atriz no singular A, entonces X'1 es un
valor propio de A"1.
8-18. Demostrar que si X, es un vector propio de la matriz A asociado al valor propio X,
entonces X es un vector propio de A n correspondiente al valor propio Xf
8-19. Demostrar que si X! es un vector propio de la matriz A, correspondiente al valor
propio X j, entonces Y = S"1 X , es un vector propio de la matriz S"1 A S, asociado a
X!.
8-20. Determinar el polinomio caracterstico, los valores y vectores propios de cada una de
las siguientes matrices complejas:

8-21. Demostrar que si P (X) es el polinomio caracterstico de la m atriz A e C nxn entonces


cn-1
el opuesto de la suma de los valores propios y el trmino independiente es igual
al producto de ( - l ) n y el producto de los valores propios.

www.FreeLibros.com

VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

286

8-22. Demostrar que si A e Cnx' \ entonces la traza de A es igual a la suma de os


l valores
propios y el determ inante de A es igual al producto de los valores propios.
8-23. Demostrar que los valores propios de toda matriz idempotente son 0 1.
8-24. Demostrar que dos matrices traspuestas tienen el mismo polinomio caracterstico.
8-25. Investigar si la siguiente matriz es diagonalizable

8-26. Sea una matriz A e Cnxn tal que A k = I. Demostrar que si X es un valor propio de A,
entonces Xfe = 1.
8-27. Demostrar que los valores propios de una matriz triangular son los elementos de la
diagonal.
8-28. Por definicin, una matriz cuadrada A es nilpotente si y slo si existe un entero
positivo k, tal que A k = N. Demostrar que los valores propios de toda matriz
nilpotente son nulos.
8-29. Demostrar las siguientes propiedades:
1. Dos matrices semejantes tienen sus trazas iguales.
2. Si k es un entero positivo, entonces tr A h = 2 X?.
3. La traza de toda matriz idempotente es igual a su rango.
4. La traza de una suma es igual a la suma de las trazas.
5. Las trazas de dos matrices traspuestas son iguales.
6. Las matrices A B y B A tienen trazas iguales.
7. tr (ABC) = tr (BCA) = tr (CAB)
8. Si P es ortogonal, entonces tr (Pf A P) = tr A.
8-30. Considerando el producto interior habitual en R2, determinar una base ortonormal de
vectores propios de A, siendo

8-31. Demostrar que si todos los valores propios de una matriz son no nulos, entonces dicha
matriz es no singular.
8-32. Calcular P (A), siendo P (X) = X3 X + 1 y

www.FreeLibros.com

TRABAJO PRACTICO VIII

287

8-33. D em ostrar que si A es u na m atriz sim trica y P e R [X], entonces P (A) es una matriz
simtrica.

8-34. D em ostrar que si A es h erm itiana y P e R [X],entonces P (A) es herm itiana.


8-35 Sean A y P elementos de Knxn, tales que P es no singular. Demostrar que
(P 't a P)ft = P"1A h P
8-36. Considerando dos matrices A y B como en el ejercicio anterior, demostrar que si
P e K [X], entonces
P (B 1 A B) = B~ P (A) B
8-37. Verificar que la matriz
' eos

A=

sen y?

sen i/? eos

admite un vector propio en R 2 , cualquiera que sea


X tal que A X = X.

e R. Probar que existe un vector

8-38. Con relacin al ejercicio anterior, demostrar que si Y es un vector de R2 ortogonal a X,


entonces A Y = Y. Interpretar geomtricamente.
8-39. Demostrar que si P es una m atriz ortogonal del tipo 2 X 2 y D (P) = - 1 , entonces
existe un nmero real y? tal que
/

P=

0\

\ 0

-1 /

/ eos v? -s e n
\ sen

eos

8-40. Sean X un valor propio de A e K Hxn y f un polinomio de K [X]. Demostrar q u e/(X ) es


un valor propio d e /(A ) .
8-41. Obtener una base fan de los endomorfismos de C2 caracterizados por las matrices

*-(::) h i :

8'42. Demostrar que si X es un valor propio de A e K "xn, entonces a + Xes un valor propio
de a I + A , V a K.
8-43. Demostrar que una m atriz A e Cnxn es singular si y slo si admite algn valor propio
igual a cero.
8-44. Diagonalizar, si es posible, las matrices
A=

1
0

l+ i
1

e C 2x2

www.FreeLibros.com

288

VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

___

A -

1
0
2

8-45. Sean A =

-2
2

j_
2

_1_
2

e R 3x3

0
2

y P (X ) = X2 - l.

Diagonalizar P (A), si es posible.


8-46, Sabiendo que dimc V > 1 y que / : V
un vector propio de / .

V es un endomorfismo, demostrar que existe

www.FreeLibros.com

Captulo 9

FO R M AS

BILIN EALES Y CUADRATICAS

9.1. INTRODUCCION
Presentamos en este captulo los conceptos de forma bilineal sobre un espacio vectorial,
de forma cuadrtica asociada, y sus conexiones con la matriz de cada una respecto de una
base en el caso de dimensin finita. Se estudian los operadores adjuntos, traspuestos,
hermitianos y simtricos, as como tambin algunas propiedades de sus valores propios. Esta
situacin se reitera en el caso de operadores unitarios y ortogonales. Despus de la
demostracin del teorema de Sylvester, se trata el tem a de la diagonalizacin de operadores
simtricos y de las matrices correspondientes. Adems de la descomposicin espectral de una
matriz diagonalizable, se estudia la congruencia de formas cuadrticas reales, la reduccin a
la forma cannica y el signo de una forma cuadrtica.

9.2. FORMAS BILINEALES


9.2.1. Concepto
Sean: (V, + , K , .) un espacio vectorial y / una funcin de V2 en K.
Definicin
La funcin / : V 2 -+ K es una forma bilineal sobre V si y slo si es lineal respecto de los
dos argumentos.
O sea
/ : V2

K es una forma bilineal sobre V si y slo si satisface:

1. Linealidad respecto del primer argumento


f( a x + b x \ y ) =a f(x,y) + b f ( x \ y )
2. Linealidad respecto del segundo argumento
/ ( x . c y + d y ) =c f ( x t y ) + d f (x, y )
cualesquiera que sean x, x , y, y en V ya, b, c, d, en K.

www.FreeLibros.com

FORMAS BILINEAI.ES Y CUADRATICAS

290

S i / e s una forma bilineal sobre V, entonces se verifica que


f ( a x , y ) = a f ( x , y ) = / ( x , a y)
El lector puede demostrar que el conjunto de las formas bilineales sobre V es un espacio
vectorial sobre el cuerpo K, com probando que s i / y g son dos formas bilineales cualesquiera
y si oc e K, e n to n c e s/ + g y a f son formas bilineales.
Ejemplo 9-1
Considerando (K n , + , K , .), la funcin
/:K "X K "^K
definida por
f ( x , y ) = i i x t y
es una forma bilineal sobre Kn , ya que verifica las condiciones 1. y 2. de la definicin.
Ejemplo 9-2
Asociada a la matriz A e K nXtt, la funcin
/:K nx r ^ K
definida por
/ (X, Y) = X( A Y

(1)

es una forma bilineal en K ", donde la imagen / ( X , Y ) e K l xl se identifica con un


escalar en virtud del isomorfismo entre K 1x 1 y K.
En efecto:
f ( a X -f b Y, Z) = (a X + b Y)* A Z = (a X* + b Y*) A Z =
- a X* A Z + b Y* A Z = a f (X, Z) + b f (Y, Z)
Anlogamente se prueba la linealidad d e /re sp e c to del segundo argumento.
La expresin escalar de (1), efectuando el producto de matrices, es

011 12 . . . flih
#22 O-i

a 2\

/( X , Y ) = X A Y = (X l X 2 . . . Xn)

1 #n2 flfm
y

( 2 XfOn 2 x a 2 . . . 2 * 0 ^ )
i - i

y 2

i= i

y n

=2

i-i

y, 2

1 i= l

xau

1 y

= 2 2

i= l)= l

auXtyi

www.FreeLibros.com

FORMAS BILINEALKS SIMETRICAS

291

9 2.2. Matriz de una forma bilineal

Sea V un espacio de dimensin n > 1. Consideremos una base [v] = { vt ,v2,. . v ) de


V y la forma bilineal / : V2 K.
E ntonces / e s t caracterizada por los valores
a y = / ( v i , v /)

son los elementos de la m atriz A e K nx n, llamada matriz de /re sp e c to de la base [v].


En efecto, si x e y son dos vectores cualesquiera de V, expresndolos en trminos de la
base [v], es
/ ( x ^ / C . I x t v t . j i y j v j ) * % f x iy j f ( v [ , v]) =
= 2 S ffx >/ = Xt A Y
donde X e Y son las matrices columnas cuyos elementos son las coordenadas de x e y
respecto de la base [v].
9.2.3. Form a bilineal simtrica
Sea / : V2 -> K una forma bilineal.
Definicin
La forma bilineal / es simtrica si y slo si
/(x ,y ) = / ( y , x )
cualesquiera que sean x e y en V.
Si K = R, y ( , >es un producto interior en V, entonces / : V2
/ ( x , y) = < x, y > (1)
es una forma bilineal simtrica.
Si [v] = { V |,v2, . . vn es una base ortogonal de V, o sea
i # / ^ / ( v , v/)= ay = 0
entonces la matriz A de la forma bilineal (1) es diagonal

A=

ax 0
0 a-i
0

...
...

0 '
0

...

&ri

y la form a se dice diagonalizada.


Resulta
/ ( x , y ) - l

1 ai x yi

www.FreeLibros.com

R definida por
^

292

FORMAS BIUNEALES Y CUADRATICAS

Si [v] es oronorm al resulta


/ ( x , y) = x , y l
9.2.4. Propiedad

unaform
aM
inealsiratricasiys,sAes

T. 2
T la
X forma
l T bilineal
reT simtrica
nta
>ea/
asociada a A.

/ e s simtrica / ( X , Y) = / ( Y X)
, =>X, A Y = Y A X

Como

Y ' A X = (Y'AX) = X A ' Y

por ser Y A X un escalar y por traspuesta de un producto, resulta


O sea
En consecuencia

X t A Y = X Af Y

V X , Y e K"

X* (A - A' ) Y = 0

V X . Y e K 11

A - A* - N

Y por lo tanto

A-A

2. Sea A simtrica. Entonces

/ Y ) = X ' A Y = (Xl AY)t = Yf A ' x = Y, A X = / ( Y X)

Luego / es simtrica.
Ejemplo 9-3.

Desarrollamos la forma bilineal simtrica asociada a la m a t e A, siendo


A
Resulta

l
-1

/ (X ,Y ) = Xl AY = (I l J l 3 )

-l
3

1 - 2

(\
\

.= ( * i ~ * 2 + 2x3 - * , + 3 x 2 + * 3

? ' y i|

1 _2

2x , + x 2 ~ 2

73
x

3)

www.FreeLibros.com

M ATRIZ D E UNA FORM A HERMITIANA

293

9.3. FORMAS HERMITIANAS


9.3.1- Concepto
Sea V un espacio vectorial sobre el cuerpo de los complejos.
Definicin
La funcin / : V2 C es una forma hermitiana sobre V si y slo s i / satisface las
condiciones de linealidad respecto del primer argumento y de simetra conjugada.
0 sea
i ) f ( a x + b x \ y) = a f (x, y) + b f ( x \ y)
i) / ( x , y ) = / ( y , x)
Ejemplo 9-4
En ( C " , +, C , .) la funcin
/ : Cn X Cn -v C
definida por
/ ( X , Y ) = X t Y (S

* ,7 ,

es una forma hermitiana definida positiva, ya que satisface los axiomas del producto
interior usual en un espacio unitario (vase el ejercicio 7-46).

9.3.2. Matriz de una forma hermitiana


Sea (V, + , C , .) un espacio unitario, es decir, un espacio vectorial sobre el cuerpo C,
donde est definido un producto interior como en el ejercicio 7-46.
La funcin
/ : V2 -+ C
tal que
/(x,y) = <x,y)
es una forma hermitiana. Si V es de dimensin n > 1, y [v]= { Vj , V2 , . .
base, entonces
- n

/(x,y) = <x,y> = <2 'xfVi.S


ll

I x,7,<v,,v,> =

JT=1i-!-/ i

au x yj = x t A Y

www.FreeLibros.com

v J es una

FORMAS BILINEALES Y CUADRATICAS

294

Respecto de la base elegida, la forma hermitiana est caracterizada por la matriz A,


cuyo elemento genrico
a = Vf , v;- )
es tal que
0 y = <vi ,v/ >= <v/ , v l->= a;-

En consecuencia, la m atriz A verifica


A - f = A*
o sea, A es hermitiana.

9.4. FORMAS CUADRATICAS


9.4.1. Concepto
Sean: (V, + , K , .) un espacio vectorial de dimensin finita y g : V2
bilineal simtrica sobre V.

K una forma

Definicin
Form a cuadrtica asociada a la forma bilineal simtrica g es la funcin
/ : V- >K
definida por
/(x)=*(x,x)
Como la form a bilineal sim trica# verifica los axiomas i), ii) y iii) del producto interior
definido en 7.2.1., es usual escribir
S (Xj x ) = ( x, x )
Si V = K" y si A e Knxn es la matriz simtrica de la forma bilineal#, entonces la forma
cuadrtica asociada est definida por
/( X ) = X A X = ,2

Observamos que el desarrollo de una forma cuadrtica, en trminos de las variables


* i, * 2 . >x n> corresponde a un polinomio homogneo de grado 2, donde los coeficientes
de los trminos cuadrticos son los elementos de la diagonal de la matriz simtrica
correspondiente, y cada coeficiente de un trmino rectangular x t xj es el duplo del elemento
aj de la misma.
Definicin
Una forma cuadrtica X* A X es no degenerada si y slo si A es no singular.

www.FreeLibros.com

FORMAS CUADRATICAS

295

Ejemplo 9-5
La matriz correspondiente a la forma cuadrtica
f : R3 - R
definida por
f ( x ) =x \ +

2 x\ + 2x 1 - 2 x xx 2 + 4*! x 3

es
A=
Como
D (A) =

-1

1 1 0

=2

11

= - 6 = 0

resulta A no singular, y en consecuencia/es no degenerada.


9.4.2. Formas cuadrticas y cambio de base
Sea / : V -> K una forma cuadrtica caracterizada por la matriz A e K" xn respecto de la
base [v].
Se tiene entonces
/ (x) = X* A X
donde X es la matriz columna cuyos elementos son las coordenadas de x respecto de la base
lvlSi en V se considera una base [v*], respecto de sta, el vector x se representa mediante X.
Se verifica que
X=PX
donde P es la matriz de pasaje definida en 4.19.
Sustituyendo en la primera igualdad
/ ( x ) = (P X) f A (P X) - X*
P'APX
La matriz de / respecto de la nueva base es
B=P'AP
Las matrices A y B se llaman congruentes.
Definicin
A e K "*M es congruente a B e K xn si y slo si existe P no singular tal que B = Pf A P.
Sabemos que el rango de una matriz no vara si se la multiplica por matrices no singulares.
En consecuencia, si dos matrices son congruentes tienen el mismo rango.

www.FreeLibros.com

296

FORMAS BILINEALES Y CUADRATICAS

Definicin
Rango de una forma cuadrtica es el rango de cualquiera de h* m t
representan.
siquiera ae las matrices que la
En consecuencia, una forma cuadrtica es no degenerada si v
dimensin del espacio. Una forma cuadrtir*
a
/
la dimensin del espacio.
* degenerada S1V

SU rang0 es ^ ual a
si su rango es menor que

Ejemplo 9-6.
La forma cu ad rtica/est caracterizada por la matriz
/ JO

0
\ 2

6
0

0
7

respecto de la base cannica en R3


Determinamos la matriz de / respecto de la base
1
La matriz de pasaje es

La matriz B de la forma cu adrtica/respecto de la nueva base es


B= P'AP=

/ 6
( 0
0

0
6

0
0

0 11

9.5. OPERADORES ADJUNTOS Y TRASPUESTOS


Una trasformacin lineal f V -> V spr \ u mt,An * u operador en V.
llamada tambin operador lineal o simplemente

Propiedad
un

en
</(x),y> = <x,/*(y)>

www.FreeLibros.com

OPERADORES

297

Demostracin)

Sea y cualquier elemento de V. Definimos la funcin


F : V - C
mediante
F (x ) = < / ( x ) , y )

(1)

La definicin (1) caracteriza un funcional, es decir, u n elemento de V*. De acuerdo con el


enunciado del ejercicio 7-60, existe en V un elemento y , nico, tal que
F ( x ) = < x , y > (2)
cualquiera que sea x e V.
De (1) y (2) resulta
< / ( x ) > y > = ( x , y > (3)
En consecuencia, para cada y e V, existe y e V, nico, que satisface (3). Podemos definir
entonces la funcin
f* : V-> V
mediante
/* ( y ) = y
La funcin/* satisface la condicin
< / ( x ) , y >= < x , / * (y)>

VxVyeV

Adems es lineal, pues


< x , /* (a y + b y )> = < / ( x ) , a y + b y ) = a < / ( x ) ,y > + b < /(x ) , y ) =
= < x , f* (y) > + b < x , J* (y) >= <x , a f* ( y ) ) + ( x , b f* (y) ) -< x , a f* (y) + b f* (y )>
Esta relacin se verifica cualquiera que sea x e V. En consecuencia

/*(fly + *y,)=Sfl/*
(y) + */*(y)
O sea
f* es un operador lineal.
La unicidad de f* se justifica porque para cada y e V existe y =f * (y), nico, tal que
F(x) = < x , / * ( y ) >
El operador f * a que se refiere el teorema anterior, se llama adjunto d e /.

www.FreeLibros.com

FORMAS BILINEALES Y CUADRATICAS

298

Definicin
En un espacio de dimensin finita con producto interior, un operador f * se llama
adjunto d e / s i y slo si
< /(x ) ,y > = <x, f * (y)>
cualesquiera que sean x e y en V.
Si el cuerpo es R, el operador /* se llama traspuesto de f y se denota

r=f
9.5.2. Matriz del operador adjunto
Si A es la matriz del operador f respecto de una base ortonormal, entonces B = * e s la
matriz del operador adjunto f *.
En efecto, sea [v] = ( Vi , v*, . . . , v } una base ortonormal de V. De acuerdo con el
ejercicio 7-61, se verifica que
/ ( v j) = < /(vj) ,v , >vx+ ( f ( v j ) , v 2 >v2 + . . . + < /(v;-) ,v >vn V/ =1 , 2 , . . . ,
En consecuencia, el elemento genrico de la matriz A es
ay = < / ( V; ) Jvf >
Si B es la matriz d e /* respecto de [vj, entonces
=

y)

Se verifica que
btj = <f* (v>), Vf) = ( v u f * (v;-) >= ( f ( V i \ v j ) =
Luego
B = A *^ Af
Observamos que si f y g son dos operadores sobre V y a e C, entonces
( f + g)* = f * + g *
(/* )* = f

(otf)* = f *
( f g)* = g* f*

Los operadores f y f * se llaman adjuntos entre s.


Ejemplo 9-7
Determinamos el operador adjunto de
/ : C2

C2

tal que
/ ( z , u) = (z + 2i'u, (1 +)z + u)

www.FreeLibros.com

OPERADORES

299

La matriz de / respecto de la base cannica, que es ortonorm al, es


2i

A=

1+i

por consiguiente, la matriz de f * es

'-2 /

Resulta
/ * (z, u ) = (z + (1 i) u , 2iz + u)
9.6. OPERADORES HERMITIANOS Y SIMETRICOS
9.6.1. Concepto
S e a / u n operador lineal sobre V, de dimensin finita, con producto interior, y sea f * el
operador adjunto.
En el caso complejo, V es un espacio unitario, y en el caso real, V es euclidiano.
Definicin

Un operador / sobre un espacio unitario se llama herm itiano si y slo si es igual a su


adjunto.
/ e s herm itiano o </ (x), y ) = < x , / ( y ) >
La matriz asociada a un operador herm itiano respecto de una base ortonormal es
hermitiana.
Definicin

El operador / sobre un espacio euclidiano se llama sim trico si y slo si es igual a su


traspuesto.
La matriz asociada a un operador simtrico respecto de una base ortonormal es simtrica.
Los operadores simtricos y hermitianos suelen llamarse tambin autoadjuntos.
9.6.2. Propiedad
Un o p e ra d o r/e s herm itiano si y slo si <x , / ( x ) >e R, V x e V.
1. Sea / un operador hermitiano. Entonces
< x , / ( x ) > = < / ( x ) ,x> = < x , / ( x ) >
Luego
< x , / (x) > e R
2. Sea/ tal que V x e V : < x, /( x ) > e R

www.FreeLibros.com

300

FORMAS BILINEALES Y CUADRATICAS

Se tiene
< / ( x ) , x > = < x , / ( x ) ) - < / * ( x ) , x > = >

=>< / ( x ) - / * ( x ) , x > =0 =>


=* < < / -/ * ) (x) , x >=O . V x e V ^
f * ~ e, donde e denota el operador nulo.
Luego
f=f*

O sea, / es hermitiano
9.6.3. Propiedad

Los valores propios de todo operador herm itiano son reales.


Sea X un valor propio asociado al vector propio x. Se tiene:

X<x , x >= <\ x ,x> = < / (x ), x> = <x ,/ (x)> =


^ ( x , Xx ) = \ < x , x >
Cancelando { x , x >
O sea

0 resulta X= X
X eR

Una consecuencia inmediata es la siguiente: los valores propios de toda matriz hermitiana
son reales. En particular, los valores propios de toda matriz simtrica y real por ser
hermitiana, son reales.

9.7. OPERADORES UNITARIOS Y ORTOGONALES


9.7.1. Concepto
Sean (V, + , C , .) un espacio unitario de dimensin finita, y / u n operador sobre V.
Definicin
El operador / : V

V es unitario si y slo si preserva el producto interior


/ es unitario o < x , y >= < / ( x ) , / ( y ) >

Sean (V, + , R , .) un espacio euclidiano de dimensin finita, y / u n operador sobre V.


Definicin
El o p e r a d o r /: V

V es ortogonal si y slo si preserva el producto interior.

En este caso, en que K = R, el operador se llama tambin real unitario.

www.FreeLibros.com

OPERADORES

3Q1

Ejemplo 9 'T
El operador / : R2 -> R2 definido por

f ( x , y) = (x eos 8 - y sen 8, x sen 8 + y eos 8)


es ortogonal, considerando ei producto interior usual.
En efecto, el producto interior entre (xx, y x) y (x 2, y 2 ) es

( ( x x, y x) ,{x2, y 2) ) ^ x i x 2 + y x y 2
y el producto interior entre sus imgenes es

( f ( x u y i ) , f ( x 2ty 2) ) ^

= { (Xi eos 0 - yx sen 8, x x sen 8 + y x eos 8),(x2 eos 8 - y 2 sen 8, x 2 sen0 + y 2 eos 0)) =
- X i x 2 eos2 8 + y x y 2 sen2 8 - x xy 2 sen 8 eos 8 - x 2 y i sen 9 eos 8 +
+ Xi x 2 sen2 8 + y y 2 eos2 8 + x x y 2 sen 8 eos 8 + x 2 y t sen

= Xi

X2

6 eos 8 =

+ y 1 y 2 =<(xl , y l )i(x2, y 2))

f representa una rotacin del plano de ngulo 8, con centro en el origen,


9.7.2. Propiedad
Si V es un espacio vectorial real con producto interior y / es un operador, entonces/es
ortogonal si y slo si preserva las longitudes de los vectores.
1. Supongamos que / e s ortogonal. Entonces
/e so rto g o n a l =><x , x > = < / ( x ) , / ( x ) > =* IIxII2=

ll/(x)ll2

=>

=> 11x11= II/ (x) II


2. S e a /u n operador que conserva las longitudes de los vectores.
Entonces es

</(x+y),/(x+y)>-</( x-y),/(x-y)> = <x+y,x+y><x-y,x -y)


Desarrollando ambos miembros resulta
< / ( x ) , / ( y ) > = <x, y>
L u e g o /e s ortogonal.
Una consecuencia inmediata es la siguiente: los operadores ortogonales trasforman
vectores unitarios en vectores unitarios.
9.7.3. Propiedad
Los operadores ortogonales conservan la ortogonalidad.
En efecto, s e a / : V

V un operador ortogonal, y sea x ortogonal a y.

www.FreeLibros.com

302

FORM AS BILINEALES Y CUADRATICAS

Resulta
< / ( x ) >/ ( y ) > = <x , y >= 0
Luego / (x ) es ortogonal a / (y).
Observamos que no toda trasformaein lineal que preserve la ortogonalidad eoperador ortogonal. En efecto, si
/ : V->V
es tal q u e / ( . * ) - 3a:, en tonces/conserva la ortogonalidad, pero no es un operador ortogt
9.7.4. Propiedad
Sea V un espacio euclidiano de dimensin finita. Un operador lineal / : V -M
ortogonal si y slo si/* / = iv .
En efecto:
/ es ortogonal ^ <x , y >= < / ( x ) , /( y )>
* < x , y > = < x , (/*<>/) (y) ) o
f* denota el operador adjunto de / , que en el caso real es su traspuesto.
Luego
/ es ortogonal

/v

En trminos de matrices se verifica que un operador es ortogonal si y slo si la m;


asociada respecto de una base ortonorm al es ortogonal.
Sea A tal matriz. Entonces
/ es ortogonal >Af A = I
Observamos que todo operador ortogonal es inversible, y se verifica que
r =

O sea
A1 = A*
9.7.5. Propiedad
Sea V un espacio unitario, y s e a /u n operador sobre V.
Como en el caso real, se verifica que un operador es unitario si y slo si preserva
longitudes de los vectores.
Se demuestra anlogamente q u e /e s unitario si y slo si/* / = iv .
Adems, si A e C l xn es la matriz de / respecto de una base ortonormal, en to n c e s/e s
operador unitario si y slo si A* = A"1.
Una matriz compleja que satisface la condicin anterior se llama unitaria.

www.FreeLibros.com

TEOREMA DE SYLVESTER

3Q3

Definicin
A e Cf,Xfl es unitaria

A* A = I

A* = A"1.

Toda matriz unitaria de elementos reales es ortogonal.


Observamos que los operadores y las matrices unitarias son una generalizacin de los
operadores y matrices ortogonales de los espacios euclidianos.
9.7.6. Propiedad
Los valores propios de todo operador unitario tienen mdulo 1.
En efecto, sea X un valor propio del operador unitario f , y sea x un vector propio asociado
a X. Entonces
< x , x > ~ < / ( x ) , / ( x ) > = < x , \ x> =
= \ \ ( x , x>
Como < x , x > # 0 resulta
\ = 1
O sea
IX

P= 1

Luego
I Xl= 1

9.8. TEOREMA DE SYLVESTER


9,8.1. Ampliacin del concepto de base ortogonal
Sea V un espacio vectorial de dimensin finita sobre un cuerpo K, y sea una forma
bilineal simtrica que denotamos con <, > sobre V. Se d emuestra que si dim V > 1. entonces
existe una base ortogonal respecto de <, > (ejercicio 9*41).
Ejemplo 9-8
En R2 definimos ( , ) mediante
<x ,y > = Xi x 2 - y i y 2
donde x - ( x j , x 2) e y = ( y , y 2).
Esta forma no es definida positiva, pues, por ejemplo
x = (1, 1)=> <x , x >=

x = ( , 3) => <x , x )= 8
Los vectores
dada.

= (1, 3) y v 2 = (3, 1) forman una base ortogonal respecto de la forma

www.FreeLibros.com

FORMAS BILINEALES Y CUADRATICAS

304

La base formada por x = ( l , 2) e y = ( 1 ,3 ) no es ortogonal. Para ortogonalizarla,


procedemos as:
Seav! = x = (1, 2) y sea
Vi
V2 = y - < Vi , y > <Vi , Vi >
Es decir

Entonces ( Vj , v2 } es una base ortogonal de V respecto de la forma dada.


9.8.2. Generalizacin del concepto de base ortonormal
Sea V un espacio de dimensin finita sobre el cuerpo de los nmeros reales, y sea <, > una
forma bilineal simtrica sobre V. De acuerdo con 9 . 8 . 1 siempre es posible obtener una base
ortogonal. La forma no es necesariamente definida positiva, ya que pueden existirvectores
x e V tales que ( x , x >= 0 ( x , x ) { 0 .
Diremos que una base es ortonormal respecto de la forma < ,) si y slo si
< Vi , v ) = 1

{ V,- , V/) = 1

< v , v >= 0

donde v e [v] = { v , ,va , . . v | .


A partir de una base ortogonal [vJ = {vi , v 2 } . . v*n \ es fcil construir una base
ortonormal asociada.
En efecto, denotando <v5 v > mediantea, se obtiene una base ortonormal haciendo
v = v,-

sia = 0

vi

si a > 0

V -

v=^

si a < 0

La base [v] resulta ortonormal.


Sea [v] una base ortogonal ordenada de m odo que
ax, a2, . . . , a p > 0

Si / es la forma cuadrtica asociada a la forma bilineal simtrica <,), entonces, respecto de


esta base ortogonal, es
/ ( X ) = i x \ + . . . + a p x l

+ i x } + + . . . + a r x]. 2

www.FreeLibros.com

TEOREMA DE SYLVESTER

3Q5

En este desarrollo figuran p trminos positivos, r - p negativos, y n - r variables se han


eliminado.
Si la base se ortonormaliza, entonces se tiene

Los nmeros p y r son independientes de la base ortogonal elegida. El entero p se llama


ndice de positividad de la forma. Indice de nulidad de la form a es el entero n - r . Signatura
de la forma cuadrtica es s = p - (r - p ) = 2p - r.
Ejemplo 9-9
Sea la forma bilineal simtrica sobre R2 definida por la matriz

Los vectores v, - (1, 0) y v2 - (1, 1) constituyen una base ortonorm al y se verifica que
< v: , Vi > = - 2 < y 2 , v2 >= 0
9.8.3. Propiedad
Sea < ,) una forma bilineal simtrica en el espacio Y de dimensin finita,sobre el cuerpo
R, y sea el subespacio
S0 = | x e V / ( x , y > = 0 , V y e V |
Si [v] = { v j , v2 , . . v },es una base ortogonal, entonces la dimensin de S0 es igual al
nmero de enteros i, tales que = 0.
Demostracin)
Sea [v] ordenada de m odo que
a i &O si / = 1 ,2........ /*
a = 0 si i > r
Por ser [v] ortogonal, se verifica que
i > r = * ( v ,-,y> = 0 , V y e V
En consecuencia
^r +1, Vr -f2 >'<<>V
son elementos d e S 0.
Sea un elemento cualquiera x e S0 , y escribamos
x =x

1 y l + . . . + x r vr + . . . + x n y n

Entonces
/ < r => 0 = <x ,

) = Xj < v j ,

) = xj a

www.FreeLibros.com

306

O
F RMAS BILINEALES Y CUADRATICAS

Como a ^ 0, resultax = O s i / < r


Luego
x = x r+1 vr+1 + ... + x n vn
O sea
f ^ r+ 1 ) Vfl )
es una base de S0 . Es decir, dim S0 = n - r.

9.8.4. Teorema de Sylvester


Sea (V , + , R , .) un espacio tal que dim V = n > 1, y sea < ,) una forma bilineal simtri.
sobre V. Si [v] es una base ortogonal cualquiera de V, entonces existen exactam ente
enteros positivos ta le s que < , v > > 0.
Demostracin)
Sean [v] y [w] dos bases ortogonales de V ordenadasde modo que si <v ,v, >= a.
( w,-, w) ~ b, entonces
1
a> 0

si z = 1, 2, . . , p

bf> 0

si i = 1 , 2 , . . . , p'

a < 0

i ^ p + l,...,r

b< 0

s r = p + 1 , . .

a = 0

si = r + 1,. .

bt- 0

s i i = r + 1 , . . n

Demostraremos que p = p \ Para ello observamos que los vectores


Vi j v2 , . .

Vp, wp . + 1, . .

son linealmente independientes, pues considerando la relacin lineal

(5 1 * ' v' + , = + 1 J' w' = 0


se tiene
n

, ' i xy = - ,= ? .+
y efectuando
<

i X, V, , 1

X,. V, >= < J

. +1

W; ,

J , + 1y, W, >

se deduce
a, * ? + . . . + ap Xp = bP+1 y j ,'+1 + . . . + bry l
El primer miembro es m ayor o igual que cero, y el segundo miembro es menor o igual qt
cero, o sea, ambos son nulos. Entonces es
= *2 = = x p = Q

yr'+i=...=yn = 0

www.FreeLibros.com

DIAG ONALIZACION

307

Como dim V = n, de lo anterior se deduce que


p + ( n - p r) < n
osea
p<p
Anlogamente se prueba q u e p < p, y en consecuencia resultap ~ p \
Lo expuesto en 9.8.2., 9.8.3. y 9.8.4. nos perm ite afirmar que s i / e s la forma cuadrtica
asociada a una forma bilineal sobre ( V , + , R , .) y d i m V = w > i , entonces / est
representada por una matriz diagonal respecto de cualquier base ortogonal. Toda
representacin de este tipo admite exactamente p trminos positivos y r - p trminos
negativos.

9.9. DIAGONALIZACION DE OPERADORES SIMETRICOS


Sea (V, + , R , .) un espacio euclidiano de dimensin finita.
9.9.1. Propiedad
Sea / : V -> V un operador simtrico y x un vector propio de / . Si x es ortogonal a y,
entonces x es ortogonal a / ( y ) .
En efecto
< x , / ( y ) > = < /(x ) , y> = < \ x ,y > = X < x , y >= 0
O sea
xl/(y)
9.9.2. Propiedad
Sea / : V -*V un operador simtrico y dim V = n > 1. Entonces existe una base ortogonal
de vectores propios de /.
Demostracin)
1. Si dim V = 1, entonces la propiedad se cumple obviamente.
2. Supongamos que d i m V > l , y sea vt un vector propio de / . Consideremos el
subespacio
Se verifica que
dim S = dim V - 1 = n 1
Por 9.9.1., / es un operador simtrico sobre S, donde el producto interior es el inducido
por el producto definido en V.

www.FreeLibros.com

308

FORMAS BILINEALES Y CUADRATICAS

verifica q u ^ ' ' '


"

1 "

S de VeC reS Pr0 P0s de ce. se


n

V/ i V c o n / =2, 3 , . .

En consecuencia \ Vl, v2 ........ v ) es la base ortogonal en V, de vectores propios de f


Ortonormahzando los vectores de la base ortogonal, se verifica bajo las L d ic io n e d e ,
teorema, que existe una base ortonorm al de vectores propios de / e n V.
9.9.3. Consecuencia
Traduciendo la propiedad anterior en trminos de matrices, se verifica que si A es
"

bolos: y re d ent nCeS 6XSte Una matdZ P rt0g0


nal- ^

di~

Una

A e R nx " a A = A ; > 3 P ortogonal/ P* A P = D


Los elementos de D son los valores propios de A. Observamos, adems que t oda ma t m
smietnca y real n X n admite n vectores propios ortogonales. Las columnas de P son los n
vectores propios de A, ortonormalizados.
Ejemplo 9-10
y/2

Dada la matriz A -= /. 2
a A.
\ n/ 2

determinamos una matriz ortogonal que diagonalice

1. Calculamos los valores propios de A.

X- 2

D (X 1 A)

\2

y/2 X - 1

= (X 2 )(X - 1 )-2 =

= X2 - 3 X
Resulta
Xi - 0

\2= 3

2 Determinamos los vectores propios ortonormales de A


a) \ = 0 .
(Xi i - a > x = o ^ a x = o ^

2 V 2 \ /x, \ _ /O
y/2

1 l\x2l

(o

2 * j + y /2 x 2 - 0

y/2xt +

x 2 =0

2 xx + x 2 = 0

>x2 = - \ / 2 x l

www.FreeLibros.com

DIAG ONALIZACION

309

C o m o x \ + x j = 1, se tiene

2x\ = 1

x\ +
Luego
X

v f

= y

x-y

_ \/6"

= + ----3

Entonces

X, =

V i
3
b) Aa = 3. Con el mismo procedimiento se obtiene
v r 3

X, =

VT
3

3. Resulta

P=

V3
~3

V 6_
3~

y/6

y/3

3 ~
tal que
P"1 A P = P* A P =

Ejemplo 9-11
Efectuamos una trasformacin de coordenadas que diagonalice la forma cuadrtica / ,
definida por
f ( x l , x 2 ) = 3 x j + 1 0 JCj x 2 + 3 x \
La matriz de esta forma cuadrtica es

\S

35

Sus valores propios son:


Xj = 8

=-

www.FreeLibros.com

FORMAS BILINEALES Y CUADRATICAS

310

Resolviendo en cada caso el sistema homogneo (A l - A) X = 0 y normalizando los


correspondientes vectores propios, se obtiene la matriz ortogonal
2

P=

y/2

V2"
2

La trasformacin ortogonal de coordenadas est dada por


X= PX
O sea
V2

X . = -------- X , -

X2

_ V2

-------- X
2

y/2

---------*

y/2

X 2

Mediante este cambio, / se convierte en


f ( x \ , x 2) = Sxl - 2 x ' l
donde los coeficientes de las variables son los valores propios de la matriz de la forma
cuadrtica.

9.10. MATRICES SIMETRICAS REALES Y VALORES PROPIOS


9.10.1. Matriz definida positiva
Sea A una matriz, simtrica y real del tipo xn.
Definicin
Una matriz simtrica y real es definida positiva si y slo si sus valores propios son
positivos.
Tal es el caso de la matriz del ejemplo 9-6.
9.10.2. Propiedad
Una matriz real y simtrica es definida positiva si y slo si existe una matriz Q, no
singular, tal que A = Q Qf.
Demostracin)
1.
Sea A simtrica real del tipo n x n y definida positiva. Por definicin, sus valores propios
son positivos. Por 9.9.3. existe P ortogonal tal que
P"l A P = P A P = D

(1)

www.FreeLibros.com

MATRIZ DEFINIDA POSITIVA

311

d nde D es la matriz diagonal formada por los n valores propios de A, o sea


D= d

i a

; K )

Consideremos la matriz diagonal

, s/K , . . >A)

Dj = diag
Se verifica que

Di = D
T e n ie n d o e n c u e n ta

(2)

(1) y (2) e s

a = P D P 1 = P D P = P D P* = P D , d [ p ^ c p d o c p d , ) *

(3 )

Haciendo
Q = (PDi)
re su lta

A=QQ(
donde Q es no singular por ser producto de dos matri ces no singulares.
2. Sea A simtrica y real. Supongamos que existe Q no s ingular tal que A - Q Q * .
Por 9.9.3., existe P ortogonal tal que
P( A P = D = diag ( Xi , \ K

Entonces
Pt Q Q , P = D
O sea
(Pf Q )(P ( Q ) = D
Llamando Xf a la i-sima fila de P( Q, y por lo tanto a la i-sima columna de (P( Q )', se
tiene, considerando el producto interior habitual en Rn
Xi Xf = X . > o
Si fuera \ = 0, resultara X, = 0, y en consecuencia P{ Q sera singular, lo que es absurdo.
Luego
\> 0

V /= 1 , 2 , . .

Por lo tanto, A es definida positiva


9.11. DESCOMPOSICION ESPECTRAL DE UNA MATRIZ
Teorema, Si A e R nx" es una m atriz diagonalizable, y \ , X 1,
son los valores
propios distintos de A con multiplicidades m f m 2, -. m s, entonces A puede expresarse en
la forma

www.FreeLibros.com

FORMAS BILINEALES Y CUADRATICAS

312

A=2 \ A t
i=l 1 '
de m odo tal que se verifica
1 . f = A V/ = 1 ,2........ s
i ^ j => A A = N

2.
3.

i=i

A = I

'

4 . A A = A,- A V = 1, 2 , . .

Demostracin)
Por ser A diagonalizable existe P no singular tal que
P

AP = D

(1)

donde D es la m atriz diagonal formada con lo s n valores propios de A, que suponemos


ordenados segn las multiplicidades.
O sea

donde los elementos no diagonales, que no figuran, son nulos.


Denotando con
la matriz identidad del tipo w xw,-, la forma bloque-diagonal de D es
^2

D
Considerando las matrices
N,

para / = 1 , 2 , . .

www.FreeLibros.com

DESCOMPOSICION ESPECTRAL
Se verifica, por ser matrices diagonales,

a)

E? = Ef

b)

i j => Ef E; = N

c)

2 E,- = I, donde I es la identidad n x n


i=i

Adems
D = S \ E ,

(2)

De (1) resulta
A = P D P"1
Considerando esta relacin y (2), se tiene
A = p ( . f i Xi E 1) P"1
O sea
A = 2 \ P E P -i
=i
Haciendo
A = P E, P"
resulta
A= 2
Ai
i -1 n
Se verifican las siguientes proposiciones
1. A \ = P E f P '1 P Ej
2.

= P E? P"1 = P E P"1 = A

Af A = P E( P '1 P E P 1 = P E Ey F 1 = P N P '1 = N

3"! _ D T D _1 ~
3. 2 A,-= 2 P E f P1 = P ( 2 E,) P"1
= P I P _1 =1
=i
=i
-i

4. A A = A P E, P 1 = P D E( P"J = P ( . 2 A, E) E, F 1 = P ( . 2 ^ E, E) F 1 ^ ? ( \ E ) F

1 = \ ? E P-1 ^ \ A (3)

Aj A = P E P"1 A = P E i D P 1 = P E f ( . 2
-AfPEiP-^XfAi

A, E,) F 1 = P \ Ef F 1 =

(4)

De (3) y (4) resulta


A A = A t- A

V< = 1 ,2 , . . n

www.FreeLibros.com

313

314

FORMAS BIUNEALES Y CUADRATICAS

9.12. CONGRUENCIA DE FORMAS CUADRATICAS


9.12.1. Concepto
Sean f y g dos formas cuadrticas reales caracterizdas por las matrices simtricas A vfi
pertenecientes a R"x".
O sea
/ (X) = X*A X
g (Y) - Y f B Y
Definicin
Las formas cuadrticas / y g son congruentes si y slo si existe P no singular, tal que
B ~ P* A P
Las formas cuadrticas / y g son ortogonalmente congruentes si y slo si existe P or
togonal, tal que
B = Pf A P = F 1 A P
Las matrices A y B se llaman, respectivamente, congruentes y o rtog on alm en te
congruentes.

9.12.2. Propiedad

Dos formas ' cuadrticas reales / y g, de matrices A y B respectivamente, son


ortogonalmente congruentes si y slo si A y B admiten los mismos valores propios con las
mismas multiplicidades.

Demostracin)
1. Sean f y g ortogonalmente congruentes. Entonces existe P ortogonal, tal que
B = P* A P ~ P"1 A P
En consecuencia, A y B son semejantes y admiten el mismo polinomio caracterstico.
2. Sean A y B con la misma forma diagonal. O sea, existen Q y R ortogonales tales que
Q-J A Q = R1 B R = D

(1)

donde D es la matriz diagonal formada por los valores propios.


De (1) resulta
A = Q R 1 B R Q"1
Luego
A ~ (Q R() B (Q R f) f
P

La matriz P = Q R es ortogonal, ya que Q y R son ortogonales. Premul tiplicando por


- P , y posmultiplicando por P, resulta

www.FreeLibros.com

CONGRUENCIA

315

B = P 'AP
O s e a ,/y g son ortogonalmente congruentes.
9.12.3. Propiedad
Si / es una forma cuadrtica real, entonces es ortogonalmente congruente a la forma
cuadrtica g, tal que
g 0 0 = 1=1
4 hyl
siendo At >X2 , . . A los valores propios de A.
En efecto, sean D la matriz diagonal formada por los valores propios de A, y Y e Rn* 1.
Consideremos la forma cuadrtica g definida por
g ( Y) = Y D Y
Sabemos, por 9.9.3., que existe P ortogonal tal que
D = P"1 A P = P<A P
Luego f y g son ortogonalmente congruentes.
9.12.4. Propiedad
Toda forma cuadrtica real f es congruente con la forma cuadrtica g, tal que
g(Y ) = ^ i y l + . . . + y l - y l + i
. y \ , siendo r el rango de A y p el ndice de
positividad de la forma.
Demostracin)
La matriz simtrica y real A admite exactamente r valores propios no nulos, ya que
p (A) = r. Ordenamos los valores propios de modo que
son positivos
V + i , . . . , A,.

son negativos

Ar+1 > >

son nulos

Consideremos
Xi
D=
Xn
Definimos la matriz diagonal

www.FreeLibros.com

316

FORMAS BILINEALES Y CUADRATICAS

P=

V \ j+ i

Como existe Q ortogonal, tal que


Q* A Q = D
resulta
(Q P )' A (Q P) = P* (Q ( A Q ) P = P( D P
donde
P( D P =

=B

Sea ahora la trasformacin de coordenadas de matriz Q P, es decir


X - QPY
Se verifica que
/ ( X ) = X f A X = ( Q P Y ) f A ( Q P Y ) = Y (Q P) ( A ( Q P ) Y
En consecuencia, f e s congruente a la forma cuadrtica g, definida por
g (Y) = Y ( B Y
donde
B = ( Q P ) ' A ( Q P)
Por la definicin de B es
( Y ) = 7 i + y + . . . + y l - y +i - . . .

y r2

La forma cuadrtica g se llama forma cannica de f. Se verifica que dos formas


cuadraticas son congruentes si y slo si tienen la misma forma cannica.

www.FreeLibros.com

FORMA CANONICA

317

Ejemplo 9-12.
Reducimos a la forma cannica la forma cuadrtica / : R2

R definida por

f ( x i , x 2) = x' - Tx x 2 + x l
1 La matriz de la forma cuadrtica es

1
A=

-1

El polinomio caracterstico es
X- 1

D (X l A) =

= X2 1

X -

2 X

Los valores propios son, entonces


Xi ~ 2

X = 0

2. Como el nm ero de valores propios positivos es 1, la forma cannica congruente es


g, definida por
g ( y i , y 2)= y
Efectuamos el procedimiento indicado en el teorema anterior para obtenerla.
Calculando los vectores propios asociados a \
X, = (

y X2 se obtiene

1) y
-1

X2 =

La matriz ortogonal correspondiente es


1

Se verifica que
Q'AQ

La forma cuadrtica ortogonalmente congruente a / esh, tal que


h ( z 1 , z 2) Sea

1
P=

vxr
0

2 z'
^

2
0

www.FreeLibros.com

FORMAS BILINEALES Y CUADRATICAS

318

Entonces, haciendo X = Q P Y, se tiene


( Y ) = Y f (Q P) A ( Q P ) Y =
= Y* P* Q* A Q P Y = Y ' P D P Y =
- Y* B Y
donde

B = P* D P =

0
y/2

2
0

2
0

1 0

O sea
g ( y i , y i ) = y 2i
9.13. SIGNO DE UNA FORMA CUADRATICA
Sea / una forma cuadrtica real definida por
/ ( X ) = X rA X
donde A es una matriz simtrica real del tipo nx n.
9.13.1. Definiciones
1 ./ e s definida positiva si y slo si
X* A X > 0
2 ./

VX^O

es semidefnida positiva si y slo si


X'a X > 0 a 3X^O/X'AX=O

3. f e s definida negativa si y slo si la forma cuadrtica g definida por


g (X) - X* ( - A ) X
es definida positiva.
4. / es semidefnida negativa si y slo sig tal que
^ ( X ) = X ( - A ) X
es semidefnida positiva.

www.FreeLibros.com

FORMA DEFINIDA POSITIVA

319

Ejemplo 9-13.
|

Determinamos el signo de la forma cuadrtica / : R2-+ R definida por


/ ( X ) = 3*1 - 2 x x 2 + 2 x \
Se verifica que
/(X)= 2x\ + x l - 2xi x2 + x2 + x 2

0 sea

|
!

AX) =
C om o/(X ) > 0, V X
9,13.2.

2 x \ + (x i ~ x 2f + x \

0, resu lta/d efin id a positiva.

Propiedad

La forma cuadrtica real / , tal que / (X) = X* A X, es definida positiva si y slo si los
valores propios de A son positivos.
En efecto, sabemos que toda forma cuadrtica real es ortogonalmente congruente a una
forma cuadrtica g tal que

0 0 =J i
siendo Xj , X2 , . . . , X los valores propios de A. Como ejercicio del trabajo prctico se
propone la demostracin de que el signo de una forma cuadrtica no vara frente a
trasformaciones de coordenadas. Esto significa que el signo de / es igual al deg. Luego
/ es definida positiva<*g es definida positiva o \ ( > 0, Vi

'

Diremos, entonces, que una forma cuadrtica es definida positiva si y slo si la


correspondiente matriz es definida positiva.

Anlogamente se demuestra que: / es definida negativa si y slo si sus valores propios son
negativos; / es semidefinida positiva si y slo si sus valores propios son mayores o iguales que
0 y alguno de ellos es 0; / es semidefinida negativa si y slo si sus valores propios son
menores o iguales que cero, pero alguno de ellos es 0. Si existen valores propios positivos y
negativos, diremos que la forma cuadrtica es indefinida.
El lector podr demostrar como ejercicio del trabajo prctico que una forma cuadrtica
real / , definida por / ( X ) = X* A X, es definida positiva si y slo si los menores principales de
la matriz A son positivos.
Ejemplo 9-14
Analizamos, utilizando el criterio de los menores principales, si la forma cuadrtica/,
definida por

www.FreeLibros.com

320

FORMAS BILNEALES Y CUADRATICAS

/ ( *u x 2>x z ) = 2 x \ + x \ +

3 * i

+ 2 Xl

es definida positiva.
La matriz de la forma cuadrtica dada es
/ 2
A =

11 - 1

\ 0

-1

Sus menores principales son


an = 2 > 0
an

a l2

a 21

a 22

D(A)= 1 > 0
Luego, / es definida positiva.

www.FreeLibros.com

x2

- 2

TRABAJO PRACTICO IX
9-15. Sea (V, + , K , .) un espacio vectorial. Dem ostrar que el conjunto B (V) de todas las
formas b ilin e a le s /: V2 - K es un espacio vectorial sobre K, como se indica en 9.2.1.
9-16. Sea : V2 -+ K una forma bilineal. Demostrar que gy : V -> K, definida por
gy (x) = g (x, y), es una forma lineal.
9-17. Una forma bilineal / sobre R 3 est caracterizada por la matriz

i) O b te n e r/(x , y).
ii) Determinar la matriz d e / respecto de la base
1 ( 1. 1, 1) ,

( 1, 1, 0) , ( 1, 0 , 0)1

9-18. Determinar la forma escalar de las formas cuadrticas asociadas a las formas bilineales
S (X , Y) = X* A Y, en los siguientes casos:

9-19. S e a /la forma cuadrtica real definida por


/ ( X ) = X2
donde X = 2 Xf =
n =i
n
O btenerla matriz d e /re sp e c to de la base cannica en R".
9-20. Determinar las matrices de las formas cuadrticas sobre R definidas por
i) / ( X ) = X2

ii) / ( X ) -

(X,. - X)2

Investigar la idempotencia de tales matrices.

www.FreeLibros.com

FORMAS BILINEALES y CUADRATICAS

322

92 1 . Sean g una forma bilineal simtrica sobre V v f 1 r


Demostrar que
V, y / ia forma cuadrtca
i ) y ( x , y ) = - i ( / ( x

y ) _ / ( x _

y ) j

>f(x,y) = - -(/(x + y ) - / (x)_ /(y )j


9-22. Determinar la m atriz de la forma cuadrtica sobre R3 definida por
/ ( * i .x 2, x 3) = x j ~ 4 Xl x 2 +

2 x%

^ (x >y ) = / ( x + y) - / (x)- f (y)


Suponiendo que g es bilineal, y que f i a x \ = a2 f ( n \

forma';uadrticayi

sean [y] y {J

^ i i > r lac L ; : i ? ostrarque

Pro^ t o interior y

/(V ) - w e n to n c e s/e s ortogonal.


W

^v

^ ^

que

operador que Venfca

" COn

{/(.%)} es una base ortonorm al de V.

*> * * * Amostra,

/e S Un Operador M to8onaI en V, entonces

* . Sea P una matriz ortogonal diagonal. Demostrar que ,os Cementos de ,a diagona, son ,
9m27. Sean las matrices
/ eos 6 -s e n Q \
\ sen 0

'

eos 0 )

/ je
Q=

ew

Demostrar que existe una m atriz unitaria U tal que Q = I T1 P u.


9-28. Demostrar que toda matriz simtrica y real admite un vector propio.
9-29. Obtener, en cada caso, una base ortogonal de R 2 fn rm ^ o i
las siguientes matrices:
P f
0

/3

0\

A= \0

3 /

)
A

9-30. Comprobar que la matriz

www.FreeLibros.com

vectores propios de

TRABAJO PRACTICO IX

* - (\ y / 2

323

*2 ) I

es definida positiva y obtener Q no singular, tal qu e A = Q Q*.

9 3 O btener una trasform acin ortogonal que diagonalice a la form a cuadrtica


/(X )

+ 2 \ f 6 Xl x 2 + 2 x \

9 32 Dem ostrar que el signo de una forma cuadrtica real no vara si se efecta un cambio
de base.
9-33. D em ostrar que si / ( X ) - X !A X es definida positiva, entonces g (Y) = Y*A-1 Y es
definida positiva.
9-34. Determinar el rango y la signatura de las formas cuadrticas definidas por

i)/(*i,*a.*a) = *i + 2 *2 + 6 *3 - 2

X 3 + 4 x 2 x3

i i ) f ( x , x 2) r ( x - x 2f
9-35. Obtener la descomposicin espectral de la matriz C del ejercicio 8-15.
8

9-36. Sea 2 \ A la descomposicin espectral de la m atriz A. Demostrar


=i
i ) A y B son permutables si y slo si B perm uta con cada A,-.
ii) Si A es no singular, entonces la descomposicin espectral de A1 es
V A
9-37. Demostrar que toda m atriz cuadrada real no singular puede expresarse como producto
de una matriz ortogonal y una matriz definida positiva.
9-38. Expresar la matriz
1 / - 1
k ~

V5"\n/T

^
2

como producto entre una m atriz ortogonal y una m atriz definida positiva.
9-39. Demostrar que una form a cuadrtica real / (X) = Xf A X es definida positiva si y slo si
los menores principales de A son positivos.
9-40. Sean dos formas cuadrticas f y g en R definidas por f (X) = X t A X y g (X) = X B X.
Sabiendo que f es definida positiva, demostrar que existe una trasformacin de
congruencia que las reduce a

OL) =y +yl + +yl

www.FreeLibros.com

324

O
F RMAS BILINEALES Y CUADRATICAS

Si (Z )= X ! z \ + X 2 z \ + . . . + \

zn

9-41. Sean (V, + , K, .) un espacio vectorial de dimensin finita, y < , ) una forma bilineal
simtrica sobre V. Una base [v] es ortogonal respecto de <,> si y slo si
i =/ =*<*,v; >= 0.
Demostrar que si V

{ 0 } , entonces V admite una base ortogonal.

www.FreeLibros.com

Captulo 10

CONVENXIDAD. PR O G R AM AC IO N LINEAL

10.1. INTRODUCCION
A partir de la distancia definida sobre la base del producto interior habitual, se estudian y
se clasifican puntos y subconjuntos de R . Se generalizan las nociones de recta, plano,
semiplano y semiespacio estudiadas en el captulo 7. Se presenta una introduccin a los
conjuntos convexos en R ", y se estudian sus propiedades fundamentales. Despus de
relacionar la convexidad con las trasformaciones lineales, se desarrollan los conceptos de
hiperplano soportante y de puntos extremos. Finalmente, y en conexin con o anterior, se
esboza una introduccin al problema general de la Programacin Lineal, y al mtodo
simplex.
10.2. CONJUNTOS DE PUNTOS EN R"
En lo que sigue consideraremos el espacio vectorial (R n, +, R , .) con el producto interior
habitual, es decir, definido por
< x , y > = 2 x j' , = Xt Y
i=i
donde X e Y denotan las matrices columnas asociadas a los vectores x e y.
10.2.1. Esfera abierta en R"
Definicin
Esfera abierta de centro a e R " y radio r > 0 es el conjunto de puntos de Rn cuyas
distancias a a son menores que r.
El smbolo S ( a , r) se lee: esfera abierta de centro a y radio r\
S ( a , /) = x e R" /d (x , a) < r }
O sea
S(a,r)= x e R "/ !lx-aii< r|

www.FreeLibros.com

326

CONVEXIDAD. PROGRAMACION LINEAL

O bien
< r2

S(a,r)=( xeR"

En particular, si = i , se ene el segmento abierto de lo n g ta d ^ ^

s far)
S (a, *)= f x e R / I x - a l O } ={ x e R / a - f < x < a +
En R2 , S (a, r) es el interior del crculo de centro a y radio r.

Sfar)

S (a, r ) = j x e R 2 / II x - all < ,

(*i >x 2) i ( x x - axf + (x 2 - a2 )2 < r 2\

10.2.2. Punto interior


Sea C un subconjunto de R".
Definicin
a e C es un punto interior de C si y slo si existp -->n *i
centro a yv radio
radio rr est
est incluida
mohA en nC.
ta ^ ue ,a esfera abierta

de

a e C es interior d e C * > 3 r > 0 / S ( a , r ) C C


Los puntos de todo intervalo abierto en R son interiore o +
,
sus puntos, salvo los extremos ,n
S' Sl el lnte,yal0 es ce do, todos
extremos, son interiores.
10.2.3. Punto frontera
SeaCCR".

www.FreeLibros.com

CLAS IFICAC ION DE PUNTOS

327

Definicin
a e R" es un Pu nto frntera de C si y slo si toda esfera abierta de centro a tiene
intersecciones no vacas con C y Cc.
a e R n es frontera d e C - V / - > O : S ( a , r ) n c ^ 0A S ( a , r) n C * 0

El punto a 'C , pero es Si C = A U a 1 , entoncesel punto aisfrontera de C.


lado a es frontera de C.
10.2.4. Punto de acumulacin
Sea C C R ". El smbolo S* (a, r) se lee: esfera reducida de centro a y radio r" e indica la
diferencia entre S (a, r) y { a ) . Es decir, S* (a, r) denota la esfera abierta de centro a y radio
r, excluido el centro.
Definicin
a e R" es un punto de acumulacin de C si y slo si la interseccin entre C y cualquier
esfera reducida de centro a es no vaca.
a e Rn es de acumulacin de C ^ V r > 0: S* ( a , r) n C # 0
Los puntos de acumulacin de un conjunto suelen llamarse puntos lmites.
Observamos que un punto de acumulacin de C C Rn no pertenece necesariamente a C.
Tal es el caso de la figura siguiente:

www.FreeLibros.com

CONVEXIDAD. PROGRAMACION LINEAL

328

..
J
p e s p u n t o frontera y tam bin de acumulacin de C
Si consideramos

a e C es punto frontera de C, pero no es de acumulacin de C.


contiene infinitos puntos de

redUClda' " rada en unpunto de acumulacin de C,

10.2.5. Conjunto abierto


Sea C C R"
Definicin

c es abierto si y slo si todos sus puntos son interiores.


c es abierto " ^ V a e C , 3 r > o / S ( a , / ' ) n c= S ( a r)

- f

. "

qus i ,

,1

- > - . .

M a n S ' de la

; 'K l " :

10.2.6. Conjunto cerrado


Consideremos C C Rn.
Definicin
c es cerrado si y slo si todo punto de acumulacin de C pertenece a C

derivado de C. Diremos entonces que


La siguiente figura

r r pun, os de

S e acumulaein de C, se llama

C es cerrado ^ C C C

www.FreeLibros.com

DERIVADO Y CLAUSURA

329

C
representa un conjunto cerrado, donde C = A . Los conceptos de abierto y cerrado no son
' cluyentes, ya que existen conjuntos que no son abie rtos ni cerrados.
6XEste es el caso de un conjunto formado por la unin de un disco abierto y un punto
aislado. Observamos, adems, que un segmento abierto es un conjunto abierto en R, pero no
lo es en R2 ; o sea, el concepto de abierto es relativo al espacio mtrico que se considere.
El lector podr demostrar, como ejercicio del trabajo prctico, que un conjunto es

cerrado si y slo si su complementario es abierto.


Se verifica que la interseccin de toda familia de cerrados es cerrada, y que la unin de
toda familia finita de cerrados es un conjunto cerrado. Estas proposiciones son consecuencia
de la propiedad anterior.
10.2.7. Clausura de un conjunto
S e a CC R".
Definicin
Clausura de C es la unin entre C y su derivado.
El smbolo C se lee: clausura de C .
Se tiene

c-cuc
O sea, la clausura de C es la unin entre C y el conjunto de sus puntos de acumulacin. Se
demuestra que la clausura de un conjunto cualquiera es cerrada. Ms an, que la clausura de
un conjunto C es la interseccin de todos los cerrados que inlcuyen a C. En este sentido, la
clausura de C es el m nim o cerrado, en el sentido de inclusin, que contiene a C.
10.2.8. Conjunto acotado
SeaCCR".
Definicin
C es acotado si y slo si existe r > 0 tal que
a e C ^ IIa I l <r

www.FreeLibros.com

330

CONVEXIDAD. PROGRAMACION LINEAL

O sea, C es acotado si y slo si existe r > 0 tal que


CCS(0,r)
Definicin
C est acotado por debajo si y slo si existe a e R " tal que
xfC=>a<x
La notacin vectorial a < x significa que a{ < x, Vi = 1, 2 , . . n.
Definicin
C est acotado por arriba si y slo si existe a e R " tal que
xeC^x<a
El conjunto C C R 2 indicado en la siguiente figura est acotado por debaio
arriba

10.3. SEGMENTOS, HIPERPLANOS Y SEMIESPACIOS


10.3.1. Rectas y segmentos en R"
Sean Pj y P2 dos puntos distintos de R". La ecuacin vectorial de la recta P ( P2
. X = P i + r ( P 2 Pj )

donde e R

www.FreeLibros.com

RECTA Y SEGMENT O EN R"

331

Por distributividad respecto de la suma en Rn y en R, se tiene


X

= P 2 + ( l - O ^ i

coneR

La recta determinada por Pj y P2 es el conjunto


P , P2 = { X e R" / X = r P2 + (1 - ) P , )
El segmento Pi P2 se obtiene haciendo variar el parmetro t entre 0 y 1, o sea
X
1 - t ) ?1 a 0 < < l
si. ek.Px ,j P2
* 2 <*X = ? P2 +1 (V*
Observamos que cualquier punto del segmento determinado por Pj y P2 puede expresarse
como combinacin lineal de stos, con escalares no negativos y cuya suma es 1.
Ejemplo 10-1
La ecuacin vectorial paramtrica de la recta determinada por P j ( 3 , 0) y P2(0, 4) es
(x 1 ,

2 ) -( 3 ,

0) +

f ( - 3 ,

4)

El sistema de ecuaciones cartesianas paramtricas es


I X i

= 3 -

|x2

= 4

Eliminando el parmetro resulta la ecuacin cartesiana

* i = 3 3
4
O sea
4 x i

= 12

(1)

www.FreeLibros.com

CONVEXIDAD. PROGRAM ACION LINEAL

La representacin es

El vector c = 41 + 3 j

es normal a #. En notacin matricial, la ecuacin ( 1) se escribe


Ct X = l

La distancia entre 0 y r es
(0 , r ) = lpc p 1 1

|
IIC II

La igualdad

=
5

c 'x *
direccin d e '
Ejemplo

10-2

dEI ~

Pl

por

! rt o c

^ V o r t r y t drectaPara' elamen,e3 ^ misma en la

dete nado p o r P, y P2 , con las

coordenadas del ejemplo anterior, est

(0. 4) + ( l _ r) (3, 0) con 0 < r < 1

( 2 . 2)

(.4f)+(3-3/,0) =(3_3/,4)

de donde resulta t =
2'

www.FreeLibros.com

HIPERPLANOS

333

10.32. Hiperplanos en R rt
pefinicitt
Un hiperplano en R es un conjunto de puntos de R tales que
C *X = k
donde C denota un vector columna de n componentes y k es un nmero real.

El vector C es ortogonal a 7r. En efecto, sean Pj y P2 pertenecientes a ir. Entonces es


C( P , ^ a C( P 2 =A
Luego
Ct (P2 - P , ) = 0
O sea, el producto interior entre C y cualquier vector de tt es cero.
Luego
CJ.7T
La ecuacin de un hiperplano que pase por el origen es
C( X = 0
La ecuacin normal vectorial se obtiene dividiendo por IIC li y considerando k en valor
absoluto, o sea
C*
CU

x =

liti

Esta igualdad puede escribirse


Nf X = p

www.FreeLibros.com

334

CONVEXIDAD. PROGRAMACION LINEAL

donde N es un vector unitario normal al plano. El nmero


es, en valor absoluto
II CII

distancia del origen al plano.


Los hiperplanos de ecuaciones C{ X = k , y C$ X = k 2 son paralelos si y slo si C, = a C
En R2 un hiperplano es una recta. En R 3 es un plano.
La ecuacin cartesiana del hiperplano cuya ecuacin vectorial es
C *X = k,
se escribe
n
2 Ci X i = k

1=1

'

Consideremos el caso de un hiperplano cuyas intersecciones con los ejes sean positivas I
siguiente figura ilustra la situacin en R2
'
u

La ecuacin es
C* X = k
donde k > 0. Mostraremos que si el hiperplano se traslada paralelamente a s mismo en la
direccin del vector normal, entonces el trmino independiente de la ecuacin crece En
etecto, el hiperplano que pasa por X ! , de vector normal C, est definido por
Cf X -f c i
Si consideramos el hiperplano con el mismo vector normal, que pasa por
X2 = Xj + a C, con a > 0,
se tiene
C *X = k 2

www.FreeLibros.com

SEMIESPACIOS

335

Como
Ct X 2 ^ C t ( X l + ttC ) = C X 1 + a C t C = k l + o: Il CIP
resulta
&2 ^ k x
Todos los puntos del hiperplano de ecuacin Ct X = k 2 verifican C* X > k
Se propone como ejercicio del trabajo prctico la demostracin de la siguiente propiedad*
todo hiperplano es un conjunto cerrado.
10.3.3 Semiespacios
Un hiperplano 7Tde ecuacin
C( X = A
determina una particin de R " en tres conjuntos: el hiperplano 7r y dos semiespacios
abiertos de borde 7T.
Ilustramos esta situacin en R2 .

Definicin
Semiespacios abiertos de borde tt son los conjuntos
S, = ( X e R n / C X < / c
S2 = ( X e R n / C f X>ifc
Definicin
Semiespacios cerrados de borde 7r son los conjuntos

www.FreeLibros.com

336

CONVEXIDAD. PROGRAMACION LINEAL

Si = I X e R n / C t X < k \

- j u n t o s Aabiertos, y que los semiespacil

10.4. CONVEXIDAD EN R"


10.4.1. Conjuntos convexos
SeaCCR.
Definicin
p u n id a C l
Sabemos que

n CY ^

* * Se8men

par de

C C R es convexo o Pi e C ^ P2 e C ^ p T p , c e

Pi P2 ~ f X e R n j X = t V 2 + ( i _ ) Pl

A0< ? < i|

oonve*. de dos puntos c a f c * ^ de C ..e. teQece a c


f " nll,l,ac"
combinaciones convexas de P V P p s p I ca
conjunto de todas
convexas ae P , y P2 es el segmento cuyos extremos son estos puntos.

las

10.4.2. Propiedad
La interseccin de dos conjuntos convexos es un conjunto convexo
y ^ p e rte n e c ie n te s

C nVeX0S' C mderem S d " - 'i^e r a P,

P,_eC_A P2 e C =* P ^ e C a P , e C j A P2 e c , a P2 e C 2 *
^ P > P2 c c , A P , p 2 c c 2 =p , p 2 c c , n c 2 ^ p 7 p c e

esta incluido en la interseccin de stos.


10.4.3. Combinaciones convexas
Sean P , , P2 , . . .,P m pertenecientes a R".

www.FreeLibros.com

conjuntos, entonces

CONVEXIDAD EN RM

337

Definicin
Combinacin convexa de los puntos P t , P 2 , . . Pm es todo vector del tipo
.2 di Pf
i=i

cioj
donde

oc = 1 y a.- > 0, V/ = 1 , 2 , . . . , m.

2
=i
propiedad

El conjunto de las combinaciones convexas de los puntos P j , P2 , . . . , Pm , es convexo.


Hiptesis)

de

j P i , P 2 ........ P | C R "
i m
m
>
Tesis) C = { .2^ cf Pf / 2^~ 1 a > 0 J es convexo
Demostracin)
Se trata de probar que toda combinacin convexa de dos puntos cualesquiera de C,
pertenece a C. Sean P y P pertenecientes a C. Ahora bien
P e C a P e C =P = 2

=i

12
in
las

a) P a P = 2 a , P,

f=i

' 1

donde
0 < aj-, 0 <
y 2 a|- = .2 a ) = 1
V
' *-1 f=i
Como
ni

t P + (1 - 0 P = t .2 a} Pf + ( i - 0 2 a ;. Pf =
m
= 2 ( a ; + ( l - O /) Pf
1-1

resulta t P + (1 -- i) P una combinacin convexa de los m puntos dados, pues


0

< => 0 < t

0 < a ;-= > 0 < ( 1 - i )


Luego
lt0

-0

Adems
m
2 t a + (1 i=l

m
m
i) a = t 2 a- + (1- t) 2
a =
' 1 1=1 ' v
1=1
1

El conjunto C, representado en la figura siguiente, es el conjunto de las combinaciones


convexas de los puntos P*, P2 , P 3 y P 4 pertenecientes a R 2

www.FreeLibros.com

338

CONVEXIDAD. PROGRAMACION LINEAL

Sea C un conjunto no vaco de R ".


Definicin
Casco convexo de C es la interseccin de todos ios convexos que incluyen a C.
incluye a

C nVeX ^

C C R eI m nim convexo (en el sentid de inclusin), qu,

Sea C el casco convexo de C. Entonces

c = n c,donde f Cf / i e IJ es la familia de todos los convexos que incluyen a C.


Ejemplo 10-3
s e s e n ta

C nVeX

C n jU n t

C=

' d nde P >

En R 3, si C es la superficie esfrica de radio 2 con centro en el origen, entonces C es


la esfera correspondiente. En trminos analticos, se tiene
C = ( X e R 3 / IIXII = 2 J
C=. X e R 3 / IIXII < 2
10.4.5. Propiedad
co
El casco convexo de un nmero finito de puntos de R " es el conjunto de 1
Hi
combinaciones convexas de ellos.
Sean P , P2, . . Pm pertenecientes a R ". En 10.4.3. hemos demostrado que el conjunl
de las combinaciones convexas de estos puntos es convexo.
Te
Este conjunto que denotam os mediante S, es un convexo que incluye De
_

de todos'eHos : ^

CU3lqUera

' S

de

Consideremos ahora la interseccin de la familia de todos los convexos que incluyen a


O S63
C = n C- / C D C a C,- es convexo

www.FreeLibros.com

CONVEXIDAD EN Rrt

339

Debemos probar que


C C A y A es convexo =S C A
Razonamos inductivamente sobre m.
1 Si tn = 1, Ia proposicin se verifica obviamente, y a que S = C.

2 Suponemos la validez p a ra m - 1 . Se tiene


m

P e S =* P = 2 a* Pf a 0 <

a 2

=i

Sea

=i

a =

entonces
p = ( i - o (

\ 1 - am

c|

1 '

p, + ^

1 - am

fti
dm _i
vector ------ Pi + . . . + ^ ^ P m - i
1 - Otm
* - m

2 + . . . + - ^ i - P m n ) +<*m P,

1 - am

es

una

combinacin

convexa

de

P P2, . Pm -i > y Por


hiptesis inductiva pertenece a A. Como ste es convexo, P, que
es una combinacin convexa de dos puntos de A, pertenece a A.
En consecuencia
S CA
O sea, C = S.
Definicin
Poliedro convexo generado por un nm ero finito de puntos es el casco convexo que
ellos determinan.
El tringulo representado en 10.4.3. es el poliedro convexo generado por P j , P2, P 3 y P4.
10.5. CONVEXIDAD Y TRASFORMACIONES LINEALES
10,5.1. Imagen de un conjunto convexo
La imagen de un conjunto convexo, por toda trasformacin lineal / : R " - +Rm , es un
conjunto convexo.
1; Hiptesis) / : Rn - Rm es trasformacin lineal
unt

C C R " es convexo
Tesis) /( C ) es convexo en Rm

re Demostracin) Sean Q y Q pertenecientes a f (C). Por definicin de imagen, existen P y


icio P en C, tales que
i a(

/ ( P ) = Q*

/ ( P ) = Q

Como C es convexo, se verifica que


P + ( l - r) P e C

www.FreeLibros.com

340

CONVEXIDAD. PROGRAMACION LINEAL

Luego
? / ( n + ( l ~ 0 / ( P ) e / ( C )

O sea

' Q + ( l - ? ) Q e / ( C )
En consecuencia,/(C ) es convexo.
10.5.2. Preimagen de un conjunto convexo
c o m eZ I x o de Un C njUnt0 C nVeX0 P r *da ' d a c i n n e a l / : R ^ * esin
Hiptesis) f : R n -> R m es trasformacin lineal
C C R m es convexo
Tesis) / 1 (C) es convexo en R".
Demostracin) Consideremos dos puntos cualesquiera P v P
i
definicin de preimagen, de t r a s l a c i n lineal y T e convexMad, L t
Pe f 1 (C) a P e n

* C

(C) ^ / ( P ) e C a / ( P) e C

=>t f {P) + ( i _ ,) /( ? > ) e c = > /(? p + (1 _ r) F ) e c ^


=> P + ( 1 - 0 P e f

'1 (C)

En consecuencia,/ 1 (C) es un conjunto convexo.


10.5.3. Convexidad de hiperplanos y de semiespacios
1. Todo hiperplano es un conjunto convexo.
Consideremos C e R " y la funcin /

R " - R definida por


/ ( X ) = C*X

Rn

elemento e s * e R e s'to n v e x c f T L ' e r i n lO s ^ ' ^ C njUnt Uy


convexo en R ". Tal preimagen es el conjunto
Prem agen por / , es u

www.FreeLibros.com

CONVEXIDAD Y TRASFORMACIONES LINEALES

341

( X e R " / f ( X ) = Ct X = &}
0 sea, el hiperplano de ecuacin C* X = k,
!

El conjunto C = 1 * e R / x > f c | es convexo.


Pi

P2

x1

*2

________________ o------------------------------------------------ --------k

Bn efecto:
Pj e C a P2 e C =>x4 > k A x 2 >k=>
=* t x 2 + ( 1 - t ) x i > t k + { 1 f) fr - fc
]II Todo semiespacio abierto es un conjunto convexo.
Considerando la trasformacin lineal f : R " -> R definida por

/ ( X ) = C* X,
y que el conjunto
{x e R / x > k }
es convexo, entonces su preimagen, o sea
j x e R / / ( X ) = C * X >&} ,
es un conjunto convexo, de acuerdo con 10.5.2.
Tal preimagen es el semiespacio de inecuacin
C*X>k
IV. Con criterio anlogo se prueba que todo semiespacio cerrado es un conjunto
convexo.
V . La interseccin de un nmero finito de semiespacios, por ser stos conjuntos
convexos, es un conjunto convexo. Tal interseccin, como lo muestran las siguientes
figuras, puede ser acotada o no.

www.FreeLibros.com

342

CONVEXIDAD. PROGRAMACION LINEAL


10.6. h i p e r p l a n o s s o p o r t a n t e s

10.6.1. Propiedad
Si C es un subconjunto cerrado y convexo HP R
pertenece a C, o bien existe un hiperplano tt T a u l J L
en uno de los dos semiespacios a b ie rta de borde *

T *
Y

dem ostrarem os^ue6existe un h i p e ^ l a n o ^ ^ e ^ e r i f ^ l 110^ 611*0^ 068 ^


C o n sid erem o s la fu n c i n

^
pUnto
q# C 6St * * 4
f * C' en ^

afirm a d o en el enunciado.

definida por
f P (X)=

IIX-PIJ

La funcin f p es continua y alcanza el mnim o en C. O sea


p , .
3 A e C / X e C = % ( A ) < / (X)
t s decir, existe A e C tal que
IIA P (|< Hx P|| v X e C
Sea N = A - P. Se verifica que N * 0, pues A e C v P ^ r Af
ortogonal a
N que pasa p o r P es tal que C est incL rf Af
0s que el hiperplan
abiertos determinados por l.
incluido en uno de los dos semiespacio
La ecuacin de tal hipeiplano es
O sea

N ( X - P ) = 0

semiabierto (o, ] se v e rific ^ q u e ^ 1 10 ^ A ent0nces para todo Perteneciente al inte!


1 A ~ P < IA - / (B - A) _ P , = , (A _ p) + , (

www.FreeLibros.com

HIPERPLANO SOPORTANTE

343

do al cuadrado y teniendo en cuenta la expresin del cuadrado del mdulo y la


E-bltfridad del producto interior, en notacin matricial, resulta
II A - Pll2 < I A - Pli 2 + 2 t (A - P)* (B - A) + t% II B - Ail2

dStri
D espus

de cancelar y dividir por V.


0 < 2 (A - P)( (B - A) + t II B - AII2

Para t -+ 0 es

< ( A - P)f (B - A) = N f (B - A) = N B - N A =

= N* B - N* A + N* P - N* P = N ( (B - P) - N f (A - P)
Osea

De donde

0 < N f (B - P) - N N
N N < N t ( B - P )

Y como N N > , pues N * 0, resulta


0 <N ( (B-P)
Es decir

N B > N P

En consecuencia, B pertenece al semiespacio de inecuacin


N X > N P
O sea, C est incluido en el semiespacio abierto determinado por la inecuacin
N*X>N*P

10.6.2. Hiperplano soportante


Sea P un punto frontera del subconjunto convexo C C R ,
Definicin
7r es un hiperplano soportante del conjunto convexo C en el punto frontera P si y solo
si C est incluido en uno de los dos semiespacios cerrados de borde ir.
Queda como ejercicio del trabajo prctico la demost racin de la siguiente propiedad: si P
es un punto frontera de un conjunto convexo C, entonces existe un hiperplano soportante de
CenP.
Ejemplo 10-4
ni

Consideremos un conjunto convexo C y el hiperplano de ecuacin


N*X = k

www.FreeLibros.com

344

CONVEXIDAD. PROGRAMACION LINEAL

Sabiendo que

X eC ^N 'x >

afirm am os que to d o p u n to perteneciente a r n *

Bn efecto, S1 P no J

(i)

ra un

"

P-eNeC

Luego

N ' ( P ' e N ) = N t P ^ e N ' N = ; - e N <N < j t


lo que es imposible, ya que todo punto de C satisface <1>
soportante de c en

10.7. PUNTOS EXTREMOS

Sea P un punto del conjunto convexo C C R "


D e fin ici n

p e rte n e c ie m e fa c S q u Y ^

S ^

-p2 + ( l - / ) P 1

GXStm dos Pu n to s t i n t o s P, y P

donde 0 < < j

determinadc^po^dos punto^disntos d e ^ l "*0 C nVeX n PerteneCe aI

-bta*

. *
Se dem uestra que to d o p u n to extrem o de '
Propiedad
U" C njUnt C nVeX" PUnt0 f era.
Todo hipeiplano soportante de
contiene un p u n to extrem o.

C nVeX

www.FreeLibros.com

y acotado p o r debajo,

PUNTOS EXTREMOS

345

r est a afirmacin consideremos un hiperplano soportante de C en un punto


Para pr *
taJ ^perplan o , y su ecuacin
n! x
C on si

derem os el
1

= n ' p0

semiespacio cerrado definido por

Nf X > N Po

sea

VXe C

A - ttn c
cu erd o

De ac
debajo.
por

con las hiptesis y propiedades anteriores, A es convexo, cerrado y acotado

Probaremos que todo punto extrem o de A es un punto extrem o de C. En consecuencia, el


problema queda reducido a la determinacin de los puntos extremos de A.
Supongamos que P sea un punto extrem o de A no perteneciente a C; entonces existen Ch
y Q 2 en C tales que
P = Q 2 + (1 O Q i

A 0< < l

(1)

Ahora bien
P e 7 T ^ N P = N P0

(2)

De (1) se deduce
N P = N Q 2 + ( 1 - ) N ( Qj
De esta igualdad y de (2) resulta
N P0 = N ( Qa + ( l - ) N Qi

(3)

Adems
Q t e C a Q 2 e C = > N f Qi > N ( P 0 a N Q 2 > N P 0
Supongamos que se verifica alguna desigualdad estricta, por ejemplo, N ( Q 2 > N( P0 .

www.FreeLibros.com

346

CONVEXIDAD. PROGRAMACION LINEAL

Entonces, considerando (3) se tiene


N P0 > / N p o + ( l - / ) N P0 = N Pn
lo que es absurdo. En consecuencia, se verifica que
N Q 1 = N P0

O sea

Nf Q2

N* P0

y esto contradice la suposicin de que P es un punto extrem o de A


extrem

C m e je rd d "

p u n tt

qUe t0d C njUn,

* " b* > * * determinacin efectiva de un punto


aCOtad y convexo es el casco convexo de j

de que un ~

10.8. INTR
ODUCCION A LA PROGRAMACION UNEAL

10.8.1. Concepto

r r s ?

- r

i r

r * ? - -

aphcable a sistemas complejos en los que in te J e e n T e rso


dinero. Su objetivo es el asesoramiento a fin de adornar L
La Programacin Lineal es un m ^ e l o n a r t i . l
Los problemas que trata la Programacin Lineal s o ^ 6 "n

fsirtZ'SE.rr.'rr'

^ E iH n 6 relac^ones **neales que vinculan las variabies corlos datos16 PUeden "

soluciones posibles y optimizacin del objetivo.

SU P

www.FreeLibros.com

etC,era'
e s > materia prima y
T c o m ^ e s.
^ Investi6acin Operativa.
eXPreSadS

estrucura lineal,

PROGRAMACION LINEAL

347

oroducir una unidad del producto A x , el dinero insumido por los recursos es, en pesos,
pa?0 y 4 respectivamente. En el caso del segundo producto las cantidades son 6 ,2 0 y 4.
5 Esta situacin queda indicada en la siguiente tabla o matriz
A)

a2

Mano de obra

Materia prima

10

20

Equipos

El dinero disponible para cada uno de los tres recursos es, respectivamente, 15.000,
20.000 y 6.000 pesos.

.
.
.
La ganancia o beneficio neto por cada unidad del producto A! es 3 pesos, y por cada
unidad del producto A2 es 4 pesos. Se supone que el mercado puede absorber sin
competencia estos productos.
Con esta informacin completamos el cuadro anterior:

^ ^ ^ P r o ducto s
Disponibilidades

Recursos^''''' ' ^ ^ A!

a2

Mano de obra

15.000

Materia prima

10

20

20.000

Equipos

6.000

Beneficio

El problema consiste en determ inar las cantidades a producir, Xi y x 2, de los productos


Ai y A2 respectivamente, a fin de obtener el mximo beneficio. El objetivo es, entonces,
maximizar el beneficio.
Las variables x t y x 2 deben satisfacer las siguientes restricciones:
1. Condiciones de vnculo

5jcx + 6x2 <15.000


10 x i + 20 x 2 < 2 0 .0 0 0
4 x i + 3 jc2 <

6.000

2. Condiciones de no negatividad

\Xl >0

www.FreeLibros.com

348

CONVEXIDAD. PROGRAMACION LINEAL

El nmero de unidades producidas de cada producto no puede ser negativo.


El conjunto solucin S del sistema formado por las inecuaciones anteriores es
interseccin de los cinco semiespacios (en este caso semiplanos), que tales inecuacio
determinan.
nes
Para obtenerlo, representamos primero las rectas cuyas ecuaciones son:
5 x i + 6 x 2 = 15.000

10 X !

+ 20x2 =

4*i+

20.000

4 * 2 = 6.000

Las condiciones de no negatividad restringen el problema al prim er cuadrante. Obtenemos


las intersecciones de las rectas con los ejes escribiendo las ecuaciones en la f0rm
segmentaria, o sea, dividiendo por cada trm ino independientemente:
3.000
2.000
1.500

2.500

*2
1.000

*2
1.500

La representacin de las tres rectas y del conjunto S, interseccin de los cinco


semiespacios, queda indicada en la siguiente figura

www.FreeLibros.com

PROGRAMACION LINEAL

349

conjUnto solucin S es el cuadriltero cuyos punto s (x x, x 2) satisfacen las condiciones


'nculo y de no negatividad. S recibe el nombre de conjunto de soluciones posibles o
f 6 [bles De l hay que elegir el subconjunto cuyos elementos maximicen la funcin objetivo
f ( x l t x 2) = 3 * ! + 4 x 2
y

x ) representa el beneficio neto que se obtiene al v e n d e r;^ unidades del producto A!


unidades del producto A2 .
La relacin
3 * i + 4 x2

re p re se n ta

una familia de rectas paralelas, de pendiente m =

llamadas rectas de

isobeneficio.
De stas, interesa aquella cuya interseccin con S sea no vacia y cuya distancia al origen,
es decir, , sea mxima. Esto es, hay que determinar la recta de la familia de mayor k y de
interseccin no vaca con S.

www.FreeLibros.com

350

CONVEXIDAD. PROGRAMACION LINEAL

En la figura se ha representado la recta de la familia que Dasa n n r .1


ecuacin es
3 que pasa P0r el gcn y CUya

3*, +4*2 =0
origDeeSP,aZand Sta reC,a

18 direcci0n dcl vector >"> 31 + 4 J cace la distancia a,

b e n e L r ^ r i " : ; : er: r

dee al p u n to a o o - 5 o o )- p

m x f

2) ~ 3 .

-* ^

^ *. y

1000 +4 500 = 5000

u n id a d e sdel p ro d u cto ^ T ^ r i n T d a d e s ^ ? V ^ C u T

P1' duci
cnd 1-000

Con relacin al problema expuesto, utilizando notacin matrcial, se tiene


AM

10

20 I

* =

2 O.OOO )

6.000

1. Condiciones de vnculo:

c =

AX< B
2. Condiciones de no negatividad:
X>0
3. Funcin objetivo (a optimizar):
/(X)-Cfx
Ejemplo 10-5
Desarrollamos el siguiente problema expuesto por Tucker en el Se, ,
Royaumont, cuyo enunciado figura en la publicacin nmero 26 escrita 2
7
r
LU A. Santal, de la coleccin La Escuela en el T i e m p o S c S ^ a
9^

U n chacarero tiene a su disposicin 100 hectreas de tierra

i f.a

i'

cultivarlo y 1 , 0 0 pesos para invertir. Desea s e l r a r dfcu, titos


requiere un da-hombre por hectrea y produce un beneficio de 40 pesos or lie

www.FreeLibros.com

* **

PROGRAMACION LINEAL

Cultivos
R e c u r s o s ^ ''\.

Ci

c,

Disponibilidades

Hectreas
Das-hombre
Inversin por ha.

1
1
40

1
4
20

100
160
1.100

Benefcio

40

120

351

Si x j y x 2 son las hectreas que deben destinarse a los cultivos Ci y C2 , el problema


consiste en maximizar la funcin objetivo
4 0 * ! '+ 1 2 0 x 2
sujeta a las restricciones
*1 +
*1 +

* 2 < 100

4*2 ^

160

10x i + 2 0 x 2 < 1 . 1 0 0
>0

x2 > 0
En el grfico siguiente estn representados el conjunto S de soluciones posibles, y el
punto de coordenadas (60, 25) que optimiza la funcin objetivo:

www.FreeLibros.com

CONVEXIDAD. PROGRAMACION LINEAL

352

El m ximo beneficio se obtiene sembrando 6 0 hectreas del cultivo 1 y 25 hect


del cultivo 2, o sea, dejando 15 hectreas sin cultivar.
eas
10.8.2. Problem a general de Program acin lineal

Un problema de programacin lineal puede expresarse de la siguiente manera:


/ ( X ) = C ' X = | ct X ,

minimizar

(funcin objetivo)

sujeta a las restricciones:


AX< B
X> 0
donde X e R " x l , A e R m x", B e

(condiciones de vnculo)
(condiciones de no negatividad)

Definicin
Solucin posible o factible de un problema de programacin lineal es todo vector de
K que satisfaga las restricciones.
r de
El conjunto S, de las soluciones posibles es c o n v e n
semiespacios cerrados. Si alguna condicin de vncnln p
interviene un hiperplano, que es convexo y cerrado.

^ ^ intersecci de
eCUaC10n en tal interseccin

Definicin
"

na S 1Udn P Sble

en este caso) ,a

Propiedad

tiene p u n to s interiores al conjunto d f s d u c to n e s p ^ iM e s 0 ^

S de soluciones posibles.

1 en nCeS hiperP Iano n

31 m nim o de ia * *
que es intenor al conjunto

Por definicin de pun to interior, existe e > 0, tal que


El p u n to

S (P0 , e) C S

Pi=P0 -

3 II CU

pertenece a S, y a que es un elem ento de la esfera abierta de ce n tro P0 y radio e, pues

r f ( P a ,P ,) = IIP, - P 0 II=-1
3

www.FreeLibros.com

SOLUCIONES OPTIMAS Y PUNTOS EXTREMOS

353

El vector Pi verifica, adems


pfp_/-ip
^ C C _ T_
c P ~ c P # ' 7 i d ^

e l l e II , ,
~
a

lo que es contradictorio con la hiptesis de que la funcin objetivo alcanza el mnimo en P0.
En consecuencia, podemos afirmar que un hiperplano correspondiente a una solucin
ptima es un hiperplano soportante de S en el punto de solucin ptima.
10.8.3. Soluciones ptim as y puntos extremos
propiedad
La funcin objetivo tom a el valor ptimo en un punto extremo del conjunto de
soluciones posibles. Si tom a dicho valor en ms de un punto extremo, entonces lo toma en
toda combinacin convexa de tales puntos.
Consideremos un problema genrico de Programacin Lineal, consistente en maximizar la
funcin objetivo
/( X ) = C* X
sujeta a un nmero finito de restricciones del tipo habitual. Entonces S admite un nmero
finito de puntos extremos, y se identifica con el poliedro convexo generado por ellos. Es
decir, S es el casco convexo de sus puntos extremos, y por consiguiente toda solucin posible
puede expresarse como combinacin convexa de los mismos.
Sean P i , P 2 , . Pfc los puntos extremos, y sea P0 un punto de solucin ptima, es decir,
que maximiza la funcin objetivo.
Se verifica que
P e S = > / ( P ) < / ( P 0)

Debemos probar que existe un punto extremo, en


P0 e S, s e tiene
k
P0 = 2 oc, P; con 0 < oc a
u 1=1 * 1
'

el q u e /t o m a el v a lo r/(P 0). Como


k
2 a = 1
=i

La funcin
/ : RH

definida por
/ ( X ) = C X
es una trasformacin lineal, y en consecuencia

Consideremos

/ ( P 0)= = / ( P )
i=i

(0

/( P * ) = mx j / ( P ) /i ~ 1>2........ * )
i

www.FreeLibros.com

CONVEXIDAD. PROGRAMACION LINEAL

354

Como P* es un punto extrem o de S, y / tom a el m ximo en P0, es

/ ( P * ) < /( P 0)

(2)

Por definicin de mximo se tiene

/( P * ) > /( P ,)

Entonces

V/ = 1, 2 ,. .

O f/(P * )> a //(P i)

i =i , 2 , . . . , A

Realizando la sumatoria respecto de i, es


x l <xi n n > 1 <xi f ( p i)
O sea
/ ( P * ) . 2 a,
k
Como^S

a , f ( P,)

<Xi = 1 , resulta
/ ( ? * ) > 2 a,/-(Pj)

(3)

De ( I ) y (3) se deduce
/(P * )> /(P )

De esta relacin y de (2), por la antisim etra, se verifica que


/(P o ) = /( P * )

m S n a Cr
P,

PM eX tK

e CUai Ia funcin obj eti

qUe / 41031123 d Ptm0 d S PUnt0S extremos

el valor
y sean stos

/(P )= /(P y ) = M

Consideremos una combinacin convexa


P=P,-+U

/ ) P,

Como
/ ( P t = f / ( P ;-j + (l r j / ( P )- / M + ( l

/) M = M

de p j y p bad qUe d Va' r p,im alCanZad en e' PU'ltU


P' 4Ue eS combMC " cnvexa
10.8.4. Observacin
Sabemos, por 10.6.2., que todo conjunto convexo, cerrado y acotado por debajo tiene
puntos extremos en cada hiperplano soportante. El conjunto de soluciones posibles de un

www.FreeLibros.com

SOLUCIONES OPTIMAS Y PUNTOS EXTREMOS

355

problema de Programacin Lineal es convexo, cerrado y acotado por debajo por el vector
nulo ya que X > 0. El teorema anterior asegura que si existe ptimo de la funcin objetivo,
tal valor es alcanzado al menos en u n punto extremo. En R ", S tiene un nmero finito de
puntos extremos.
. .
El problema se reduce entonces a examinar el valor de la funcin objetivo en los puntos
extremos a fin de hallar el ptimo. El m todo Simplex permite determinar analticamente
los puntos extremos y pasar de uno a otro analizando el valor d e /, hasta obtener el ptimo.

www.FreeLibros.com

TRABAJO PRACTICO X
m S e a A ^ J ^ . ^ e R ' / U i K i A ^ K ! )

j (2 , i ) |

Determinar la frontera y el derivado de A.


0-7. Dados los siguientes subconjuntos de R2
A= \(xi,xi)l2 x\ +3*1 < 6
B = \ ( x l t x 2) x 1 > 1 a x 2 < 2
C ~ j ( x l f X2) / X i X 2 ^ 2 A X ^ 0

Ax2 ^ l }

clasificar los puntos del plano respecto de ellos, determinar sus fronteras y derivados e
investigar si son abiertos o cerrados.
10'8' a b

qUC Un C njUnt0 A C R " Cerrad S y S1 Si su nphm entario es

10-9. Demostrar que un hiperplano es un conjunto cerrado.


10-10. Investigar si los conjuntos de los ejercicios 10-6 y 10-7 son convexos o no.
10-11. Demostrar que la unin de una familia numerable de abiertos es un conjunto abierto.

10-12 . Demostrar que la interseccin de una familia finita de abiertos es un conjunto abierto.
10-13. Demostrar que la interseccin de una familia numerable de cerrados es un conjunto
cerrado, y que la unin de una familia finita de cerrados es un conjunto cerrado.
10-14. Determinar el casco convexo generado por los puntos (1, 2) (1 _ n ( l i w

, n

( - 1 , 2 ) , (2, 3), ( - 1 , - 1), (1 ,0 ). Investigar si (0, 0) es combinacin convexa (1, - 1 ) y


10-15. Sea/ : R " -* R" la traslacin definida p o r / ( x ) = x+ a, donde a e R"
Demostrar que
S es convexo =>f (S) es convexo
Demostrar que el conjunto solucin del sistema lineal A X = B, donde A e R
o eK
yXeR
, es convexo.
10-17. Sea O C R " . Por definicin
C es un cono ^ x e C ^ a x e C A a > 0

www.FreeLibros.com

357

TRABAJO PRACTICO X

Demostrar que si A C R*1, entonces el conjunto


C = i a x /a > 0

xeA )

es un cono. C recibe el nombre de cono generado por A.


048. Determinar el cono C C R3 generado por la interseccin de
A l = {( x i , x 2, x 3) l x 21 + x < 2
y el plano de ecuacin x 3 = 2 .
1049. Sabiendo que C es un cono, demostrar que
C = j -x / x e C |
es un cono. C recibe el nombre de cono opuesto de C.
10-20. Demostrar que si C es un cono, entonces
C1 = j y / { y , x> = 0 , V x e C j
es un cono. Cx se llama cono ortogonal a C.
10-21. Demostrar que el cono ortogonal al cono C C R" es un subespacio de R.
10-22. Sean los conos Cj y C2 . Demostrar que
C = c 1 + C 2 = |x + y / x e C 1

yeC2|

es un cono.
10-23. Plantear el siguiente problema de programacin lineal:
* Ao
Un mezclador de licores importa licores de tres grados: A, B y C. Mediante mezclas de
stos, atenindose a las indicaciones especificadas en la tabla siguiente, obtiene tres
productos finales: L, M y N.

Mezcla

Especificacin

Precio de venta
por litro

No menos del 60 % de A
No ms del 20 % de C

68 $

No ms del 60 % de C
No menos del 15 % de A

57$

No ms del 50 % de C

45 $

Las disponibilidades de los tres licores bsicos y sus costos son

www.FreeLibros.com

358

CONVEXIDAD. PROGRAMACION LINEAL

Licor

Disponibilidad mxima
mensual en litros

A
B
C

Costo por litro

6.000
7.500
3.600

63 $
45 $
36$

r i " ; : : . saber cutoo debe produdr de ,os


^^ ^ s i^ ie m e s ^ p e d id o s /3^1^ 31 ^

L, M y N> a & de m a x i.

Pr dUCe r0,1 S e 82 * ancho. Se han recibido ios


60 rollos de 58 cm
85 rollos de 26 cm
85 rollos de 24 cm
50 rollos de 23 cm

y t S i z ? ; dt p e 3rdfciC
om0 C rta r 108 r I,0S de 82

www.FreeLibros.com

<>-tisfa c e r ios pedidos

W"

BIBLIOGRAFA

Bouteloup, J.: Clculo de Matrices, EUDEBA, Buenos Aires, 1965.


C otlar-S adosky: Introduccin al Algebra, EUDEBA, Buenos Aires, 1962.

pieudonn J.: Fundamentos de Anlisis Moderno. Editorial Revert S.A., Barcelona, 1966.
Faddeeva, N. A.: Mtodos de Clculo de Algebra Lineal, Editorial Paraninfo, Madrid, 1967.
F aure-K aufm an-D enis: Matemtica Moderna. Editorial Paraninfo, Barcelona, 1966.

Gass S.: Programacin Lineal. Editorial CECSA, Mxico, 1961.


Gentile E. R.: Espacios Vectoriales. C.E.D.Q., Buenos Aires, 1965.
Graybill, F. A.: A n Introduction to Lineal Statistical Models. Mac Graw-Hill, New York,
1961.

Hadley, G.: Linear Algebra. Addison-Wesley Publishing Company, Inc., 1967.


Johnson R.: Algebra Lineal. CECSA, Mxico, 1969.
Lang S.: Linear Algebra. Addison-Wesley Publishing Company Inc., 1967.
Lentin-Rivaud: Lecons d A lgebra Moderne. Libraire Vuibert, Paris, 1961.
Lipschutz, S.: Teora y Problemas de Algebra Lineal. Serie de Compendios Schaum,
Colombia, 1963.
Lipschutz, S.: Theory and Problems o f Finite Mathematics. Schaum, New York, 1966.
Marcus-Minc: Introduccin al Algebra Lineal. CECSA, Mxico, 1969.
Pettofrezzo A. J.: Matrices and Transformations. Prentice-Hall, Inc., New Yersey, 1966.
Rao C. R.: Linear Satistical Inference and its Applications. John Wesley and Sons, Inc., New
York, 1968.
Rojo A.: Algebra I. Editorial El Ateneo, Buenos Aires, 1972.
Rudin W.:

P r in c ip le s

o f Mathematical Analysis. Mac Graw-Hill Book, 1963.

www.FreeLibros.com

360

B IB L IO G R A F IA

Simmons G. F ;: m tro a u cn o n to Topology a ndM odem Analy^

TUm o ^ Vi

;, L L L T 19I

Mac ^

* /flS

Villamayor O..- N otes de Geometra /, Buenos Aires, 1966


Villamayor O , Algebra Lineal. Monografa Cientfica Nmero 5, O.E.A.

www.FreeLibros.com

h & ****

Tr

RESPUESTAS A LOS TRABAJOS PRACTICOS

TRABAJO PRACTICO I

j - i 6. i ) si

i i ) s

iii) no

iv)no.

17. i ) sumar el opuesto de y.


i i ) sumar el opuesto de x.
iii) despus de cancelar y de trasponer, aplicar A9 y 1.3.3.
iv) trasponer y aplicar A8 y 1.3.3.
1-18. Despus de utilizar As y A9 , y de cancelar, mediante 1.3.3. se obtiene a = 1.
149. i ) s

i i ) s

iii) s

iv )s

v)s

vi) no.

20. No, ya que no existe neutro para la suma en V.


1-21. S. El lector debe probar que se verifican los axiomas.
22. i ) s
i i ) no, pues (1, 1, 2) e S y (1, - 1 , 3) e S pero la suma (2, 0, 5) S
iii) no, porque S no es cerrado para la suma.
1-23. i ) no, pues no se verifica A6
ii) s. Verificar las condiciones suficientes.
1-24. Aplicar 1.8.2.
1-25. S no es subespacio de (C2 , + , C, .) pues no es cerrado para el producto por escalares.
As, por ejemplo
( 1 + / , - 2 ) e S pero / ( l + / , - 2 ) t f S .
En cambio S es un subespacio de (C2 , + , R , .).
1-26. Ai y A6 se verifican por definicin de cada ley de composicin. Mostramos, a modo de
ejemplo, la validez de A2 :
{(x, y) + ( x \ y ') | + (x\ y ) = (x + x, y + y ) + ,(xy ) =
= (x + x + x , y + y + y ) - (x, y ) + (x* + x , y+ y ) =
= ( x , y ) + l ( x \ y ) +

(x

, y ))

www.FreeLibros.com

RESPUESTAS A LOS TRABAJOS PRACTICOS

1-27. A p licar 1.8.2.


A

i ) (* , ) e S -

+ , )2

S e. el conjunto unin de los dos ejes, o sea, no es un subespacio


U) T es el subespacio definido por la ecuacin * - 3, = 0.
1-29. i ) 0 , ya que no es cerrado para la suma; por ejemplo
i i ) s

( l , 0 e S y ( , l ) e S pero (1 + t 1 + A / s

iii) si

iv) si.
v ) s

s= j (a, a + b) j a e R

a b eR i

Vi) s.

1-30 Tee, en cuenta las definiciones de suma de subespac.os y de inclusin


1-31. Suponer que x e S admite dos descomposiciones del p L = x
y tener en cuenta la definicin de suma directa.
1-32. I o, Aplicar 1.8.2.
2 . Tener en cuenta el ejemnlo 4-5 iV or i

x v

suma de una m atriz simtrica y de una^ntisim trica^3

www.FreeLibros.com

m ,t*

TRABAJO PRACTICO II
2-25. i ) se determinan a y b tales que
a ( v S ,2 ) + 6 ( - V 6 ,2 ) = (V 2,l)
Aplicando las leyes de composicin habituales se resuelve, despus de igualar
componentes, un sistema lineal de dos ecuaciones respecto de a y b.
ii) procediendo anlogamente, el sistema resultante carece de soluciones y en
consecuencia v no es combinacin lineal de Vi y v2 .
2-26. Considerar la relacin lineal
a x ( - 1 , 3, 1) + a 2 (3, - 1 , 1) + a 3 (4, 0, 2) - (0 ,0 , 0)
y despus de aplicar las leyes de composicin usuales y de igualar las componentes de
las ternas se llega a un sistema lineal cuyas infinitas soluciones estn dadas por
o^i = k , 0=2 = 3 k , a 3 = 2 k
En la segunda parte, a partir de
(4, 0, 2) = o ( - 1 , 3, 1) + 0 (3, 1, 1)
1
3
se llega a un sistema lineal cuya solucin es a = , 0 = . Luego
2

(4, 0 , 2 ) = ~ ( - l , 3 , l ) + | ( 3 , - l , 1)
2-27. Considerar a A + 0 B = N. Resulta a = (3 = 0,
2-28. En (R , + , R , .) son L.D., pero en (R , + , Q, .) son L.I.
2-29. x = l .
2-30. Considerar
<* ( 1 , a , a 2 ) + I K M , &2 ) + 7 0 , c , c 2 ) = ( 0 , 0 , 0 )

En -el sistema resultante, restar a cada ecuacin la anterior multiplicada por a, y


despus, a la tercera restar la segunda multiplicada por b.
2-31. A partir de la relacin lineal
a f + 0 g + 7 h=e

www.FreeLibros.com

RESPUESTAS A LOS TRABAJOS PRACTICOS

364

al S! 2CnSdera ]a

de cualquier f e R; derivando

2-32. Se plantea una combinacin lineal cuyo resultado


i t
>
ejercicio anterior, que se verifica para todo e R Drndo f*ncion la. com <* el
ejemplo 1 y 2 , se llega a un sistema con la solucion un a a 4 ^ = 1
2-33. Considerar a (a, b ) + 0 (c, d ) = (0, 0).
2-34. Son L.I. en ambos espacios.
2-35. i ) son L.I.
) son L.I. si ab * 1, y son L.D. si ab = 1.
2-36. Aplicar la definicin de independencia lineal.
2-37. Considerar la relacin lineal
y probar que 0

a i xi + - - . + a n x + ^ u = 0

0.

2-38. A partir d e a , x , + .

+ <* x

x seria C.L. de los vectores de^. Te* er"en cuenta^desp^s la "hiptesis ^ aS contrar*

n se puede hacer por inducci6n cmpkta ^

2-41. i ) cualquier nm ero real no nulo

>

i i ) la base cannica
iii) la base cannica

v) ! i +i i
y ) i + i, i -/ .
2-42. El subespacio pedido es el plano de ecuacin * - y _ , = n
1 0 , l .o ) , ( 1, 0 , 1) ) . y a q u e
> y u base del mismo es
( x . y . z ) e S * ( y + z , y , z ) e S ~ ( y , : ,< o) + ( 2 o , z ) e S ~

2-43

y 1 1 0) + Z0 0 e s - 0 sea" los dos vectores son un S.G. de S, y adems L I

* *
2-44. Una base es

r "
//*

\0

' - * b *
\

- .i.

\ I

-~l) \o 0 / \l 0/

la dim ensin es 3.

2-45. Una base de S es f (2, 1) , (2 4 0 , y la dimensin es 2.


2-46. S no es un subespacio ya que no es cerrado para la suma.

www.FreeLibros.com

TRABAJO PRACTICO II

365

47 . Est propuesto en 1-2S, y la respuesta es afirmativa si el cuerpo es R. Una base es


11 + , 2 ) .

248. S es el plano de ecuacin = 0. Una base de S est formada por los vectores (1 0 01 v
(0, 0, 1). T puede ser el plano de ecuacin z = 0.

49. La dimensin de S, n S2 es 2; aplicando


dim Si - dim S2 = 3, resulta dim (Si + S2) = 4.

2.8.1.,

y considerando

2-50. Primero, demostrar


i > r =* vf es C . L . d e v i , v 2 ) . . . , v r .
Luego, probar que ( Vj, v2, . .

vr | esun sistema de generadores de V.

2-5L Considerar dos bases: una en Si y otra en S2, y tener en cuenta el ejercicio 1-31

www.FreeLibros.com

gue

TRABAJO PRACTICO III


3-21.1, s.

2. no.

3. s.

4. no.

3-22. l . s .

2. no.

3. s.

4. no.

3-23. Aplicar la definicin de T.L. a / ( x + y).


^

Pr bar

!a sta e tn a del p,ano

3-2S. Expresar los veetores (3, 3) y (0, - 1 ) com o C.L. de (1, 2) y de (2,1). Apliear deSp
la definicin de T.L. R e s u lta /(3 , 3) = ( -1 , 2, 1) y /(O , - 1) =

3-26. Considerar F (v + v) y F (a v).


3-27. Se obtiene el paralelogramo de vrtices (1 ,1 ), (0, 3), ( - 1 2) y (0 0)
S-28. S.

3-29. 1. Aplicar la definicin de T.L.


2 . / e s inyectiva, pero no so b rey ectiv a^cs sobreycctiv a. pero no inyectiva.
3 -( S f ) ( a , b ) =

(2a + b, b) y (/-g ) {a, b)

(a

+ b, a +

b + c, c).

3-30. Aplicar la definicin de imagen, el hecho de que / v. v2


v J es S c
definicin de T.L.
1
2 * " '

rf* v
i
de V y la

3-31. f es trasformacin lineal biyectiva.


3-32. Aplicar la definicin de T.L. El nico vector cuya imagen es la matriz nula, es (0, 0).
3-33. Considerar 1.8.2., la definicin de preimagen y de T.L.
* . l . N ( 0 = ( < U , - * ) / * e R j . Una base de N (f) es ( 0 , 1 , - ! ) )
! I,(f) es R2 .
*

1 ( 2 k ' k) 1 k S ^ 1 ' ^ b3Se ^


If) ~ R> y su dimensin es 1.

3-35. n = 3. Se define / ; R4

y su dimensin el

N W 65 ( (2 - 'M y ^ dimensin es 1.

R 3 mediante

f { X\ , X2, X 3, XA) ^ { Xl + ^ 2 , ^! - X 4, X2 + x 3 +X4),

www.FreeLibros.com

TRABAJO PRACTICO III

367

probar que f e s T.L.


N ( / ) = (* > -* , 0 , * ) / * e R | .
Una base es { ( 1 , - 1 , 0 , 1 ) } y d i m N ( / ) =L

2 . / ( 2, 2, - 2 ) =

3-36. l . A =

3. B =

1 0
0 1

3-37. 1. N (f) - (0 ,0 ) ) ; dim N (f) = 0 . 1 (f) = { (x, y , z) / 3 x - y - 2z = 0 j ; una base de la


imagen est formada por los vectores (1, 3, 0) y (0, - 2 , 1); su dimensin es 2.
3

2\

2. A =

1
2
3

3-38. Multiplicando A por el vector colum na de componentes genricas x lt x 2 y * 3, se


deduce que f ( x u x 2, x 3) = ( x 1 + x 2 - x 3, 3 x , - 3 x 2 - 3 x 3 , - ^ ! + 4 x 2 + 2 x 3).
N (f) - { (k, 0, k) / k e R f ; N (f) es la bisectriz del plano xz ; su dimensin es l . l ( f )
es el plano de ecuacin x - y z = 0, y su dimensin es 2.
1 1 0 - 1 1 0 0 0 1

3-39. La matriz es la traspuesta de

- 0
3-40. 1. A =

0 0 0

0 0 1 0 1 -1

-i \

0
4

2. La imagen de la matriz

-1 3
2

-3
0 ) expresado en trminos de la
10

es el vector

base dada.
3-41. f ( x l f x 2( * 3 ) = ( - - * ! + - x
**
L

2 + ~ x 3 i - - Xl

+ - x 2 + 2 x 3).

www.FreeLibros.com

368

RESPUESTAS A L
OS TRABAJOS PRACTICOS

3-42. A

J_
\ 2

2 /

3-43. Hallar las imgenes de los vectores de la base cannica de R 2 ; se obtiene


eos

6 -se n

sen 9

eos

3-44 Considerar que la m atriz de la composicin de dos trasformaciones lineales es el


producto de las correspondientes matrices. En el segundo caso, comprobar qUe
fe 0 f-Q = f-e f e = i, donde denota la funcin identidad.
3-45. Probar que ( f u f 2, . . . , f n J e s un sistema de generadores de V considerando
cualquier elemento ^ e V y definiendo a - g (i>,); resulta entoncesg - Xaf. Probar
despus la independencia lineal a partir de la relacin lineal

= e donde e denota

la funcin nula; obteniendo la imagen de cada


se prueba que a, = 0, para todo
* 1> 2 , . . n. Ambos espacios, V y su dual, tienen la misma dimensin.
3-46. 1. Probar que se cumple la definicin de trasformacin lineal, y tener en cuenta el
ejercicio 1-31.
2. Utilizar la definicin de composicin de funciones.
3. Aplicar las definiciones de suma de funciones y de proyecciones; I denota la funcin
identidad en V.

www.FreeLibros.com

TRABAJO PRACTICO IV

el
ue

5 2- U

do
)ar

>ta ,

- .

4 2 4

= | 0

o ) ;ABC = f 0 I

B 'A ^

do

-1
1

ii) A 2 - AB + BA - B
el
2\

,4 _ / 5 3

4-29. Considerar, por ejemplo, que A, B y C son de los tipos nx p, p x q y qx m,


respectivamente; expresar la fila i de A, y la colum na/ de BC, para formar el elemento
(i, j) de A (BC). Proceder anlogamente con el segundo miembro.
4-30. Demostrar que la propiedad se cumple para n = 1, y que si se verifica para n = h,
entonces se verifica para n = h + 1.
4-31. Demostrarlo por induccin completa, como el ejercicio anterior.
4-32. X - 1.
4-33. Demostrar por induccin sobre k.
4-34. Considerar X = X I.
4-35. Plantear el sistema de ecuaciones no lineales.
4-36. Aplicar la definicin de producto de matrices y la conmutatividad del producto en K.
4-37. Utilizar la definicin de trasposicin y de producto de matrices.
4-38. Partir de (A B)2 .

www.FreeLibros.com

370

RESPUESTAS A LOS TRABAJOS PRACTICOS

n
n
4-39. Q = X a i k aki = ^ a ^ k =>a[k = 0 , V k. Anlogamente se prueba que la columna de
lugar i es el vector nulo.
4-40. Efectuar (B f A B)2
4-41. Premultiplicar A + B = I por A, y posmultiplicar por B.
4-42. Como en el ejercicio anterior.
4-43. Determinar el cuadrado de cada una de las cuatro matrices y aplicar las hiptesi-i,
propiedades de la trasposicin.
^
4-44. Verificar que se cumple la definicin de matriz simtrica.
4-45. Para la condicin necesaria, considerar A B = ( A B ) ' . Para la condicin suficiente
partir de (A B ) \
me>
4-46. Desarrollar el producto indicado.
4-47. Desarrollar (A - a 1) (B - a I) y utilizar la hiptesis de que A y B son pemiutables
cancelar"011

suriclente> consid a r que A - al y B - al son permutables; despus

4-48. Las filas de AB son iguales entre s, y cada elemento es igual a la suma de los
elementos de la correspondiente columna.
4-49. Tener en cuenta las propiedades relativas a la inversa de un producto y a la traspuesta
de un producto.
4-50. Se considera la matriz diagonal B cuyos elementos diagonales son los inversos de los
correspondientes de A ,y se verifica que A B = B A = I.
4 '5 l, Considerar A2 = A y multiplicar p o r A"1.
4-52. Probar que se verifican los cuatro axiomas de grupo.
4-53. Utilizando el mismo esquema de particin en ambas matrices, en bloques de dos filas y
dos columnas, se obtiene
0 0
4 1
0 0
2 0
0 1 0
0
.2 2
0 0,
4-54. Las dos primeras filas constituyen una base del espacio fila de A.
4-55. Multiplicar a derecha B A = N por la inversa de A.
4-56. Premultiplicar por la inversa de A.
4-57. Tener en cuenta que hay que probar la verdad de una disyuncin.
4 -5 8 .p { A) = 2 ;p (B ) = 3.
/2 2 1
4-59. La inversa de A no existe. B '1 = [ 1 2 1
1

1 1

www.FreeLibros.com

TRABAJO PRACTICO IV

371

4 0 Determinar los rangos de A y de AA* por Gauss Jordn.


D em ostrar primero que Sc (A + B) C Sc (A) + Sc (B). Al pasar a la relacin entre sus
dimensiones, tener en cuenta 2 .8 . 1 .

462 i ) considerar el elemento genrico de la diagonal de AB y de la diagonal de BA.


) asociar y aplicar i).
iii) aplicar ii).

443 Premultiplicar por A la relacin A X = a X, y tener en cuenta que A 2 = A.


4-64. Realizar la misma multiplicacin que en el ejercicio anterior y considerar que A2 = I.
4-65. i ) Expresar X como producto de matrices, calcular su cuadrado y tener en cuenta que
T donde T es la m atriz n x 1 formada por unos, es un escalar, y por lo tanto igual a
su traspuesta.
Resulta A = 1 1 f . o sea, una matriz n x m cuyos elementos son iguales a
n2
n2
1
-*t
i i ) Se obtiene A = 1 1 .
n

iii) Despus de

desarrollar la sumatoria y reducir trminos, se llega a que

A = - 7 1 *. El lector puede comprobar que esta matriz es idempotente.


n
4-66. Efectuar el producto entre I - T y la suma indicada. Considerar que T" = N.
4-67. Particionar A en dos bloques del tipo 4 X 2, y efectuar el producto.
4-68. Trasponiendo trminos se prueba que A admite inversa.
4-69. Por Gauss Jordn se obtiene
1 p p 2 P3
0
p
p2
0 0 1 p
0 0 0
1 1

4-70. Para la condicin necesaria, efectuar los productos AB y BA, e igualarlos para obtener
a y ($. Para la condicin suficiente, efectuar ambos productos sustituyendo B por su
expresin.

4-71. Aplicar induccin completa.

S
/1
; 4*72. i ) A = ! 1
\0

1 -1
-1 0
1
1

www.FreeLibros.com

RESPUESTAS A LOS TRABAJOS PRACTICOS

www.FreeLibros.com

TRABAJO PRACTICO V
$.12. D (A) = - 2 0 . D (B) = 10. D (C) = -1 3 5 . D (E) = 57.
$.3. Desarrollar por los elementos de la primera columna.
$.14. Considerar que la fila h, con h # / , es el producto del escalar por la fila i.
5-15. i )

~ ^2 ~ 0, X3 = 5

ii)* i = 0 >*2 = 2 , x 3 = - 3 .
5-16, \

- 1 >^2 = 10-

5-17. \

- 1,

5-18. Tener en cuenta la definicin de matriz ortogonal y 5.7.


5-19. Considerar 5.8.3.
5-20. Tener en cuenta el ejemplo 5-7.
5-21. Desarrollar el determ inante y? y derivar.
5-22. Expresar los vectores cannicos E i , E 2, . . En de K"x 1, como combinaciones lineales
de A i , A2 , . .., A , y aplicar los axiomas de la funcin determinante.
5-23. Aplicar 5.5.1. y 5.5.3.
5-24. Considerar una relacin lineal que sea igual a la funcin nula, expresar la igualdad
obtenida para cualquier t y derivar 1 veces. Resulta un sistema lineal y homogneo
dando a t el valor 0. El determinante de los coeficientes es de Vandermonde.

$-26. En cada caso, examinar el valor del determ inante, y si es distinto de cero, aplicar 5.9.

www.FreeLibros.com

374

RESPUESTAS A L
OS TRABAJOS PRACTICOS

5-28, i ) Restar a cada una de las dos primeras columnas, la siguiente.


i i ) Sumar a la primera columna las restantes; factorear; a la cuarta fila sumarle ,
segunda y restarle las otras dos; sacar factor comn; a la segunda columna sumarie '
tercera, y a esta, sumarle la cuarta. Desarrollar.
le la
iii) A la cuarta columna sumarle la segunda y la tercera.

r i i u i l Z Z * SUmarle 13 SE8Unda y ^ terCera; faCt rear; a 18


5-29. Agregar el vector de componentes 0 ,0 , 1, com o tercera fila y tercera columna
segundo determinante. El producto es - 1 8 .
^ m m n a del
5-30. El valor del determ inante es 4.
5-31. El jacobiano es p 2 eos 6.
5-32. El jacobiano es - + ^
U
5-33. C o n sid e ra r(-l)" D (A), y multiplicar el escalar -1 por cada una de lasn columnas.
5-34, Multiplicar el determinante de la matriz particionada por 1 =
El lector puede verificar que

N R

I
-B A -1 I

IPIIRI.

5-35. Multiplicar las dos matrices y verificar que se obtiene la identidad.


5-36. Proceder como en el ejercicio anterior.

www.FreeLibros.com

TRABAJO PRACTICO Vi
./i. La preimagen del vector (1 ,1 ) es j ( 2 - k , 3 + 3k, k ) / k e R } .
6-14. El sistema 1. adm tela solucin nica X \ = 5 , x 2 = l , x 3 = 4.
El sistema 2. tiene infinitas soluciones, dadas por x = 3 + 2fc, y ~ 1 k ,z = k.
6-15. Las dimensiones de los espacios soluciones de los sistemas homogneos, son,
respectivamente: 2 , 1 , 0 , 2, 0.
6- 16 . 1 . { ( 1 , 0 , 1 ) , ( 0 , 1 , 1 ) ) .

2. ( ( 1 , - 1 , 1 ) ) .
4. ( ( - 1 , 1 , 0 ) , ( - 1 , 0 , 1 ) ) .

6-17. 1. Una base de S es { ( 1 /,/, 1) } y la dimensines 1.


1
;

2. Una base de S es { (1, 3 + /, 1


2i) | y la dimensin es 1.
6-18. Una base es { ( I , T , 1 ) J .
6-/9. Como

p (A ) = 2,

el sistema

tiene

solucin nica. El conjunto

T= ((-1 ,-2 )) .

6-20. Tener en cuenta que X = A"1 B.


6-21. T - j k (2 ,3 ) / k e R ) .
6-22. El sistema tiene infinitas soluciones, dadas por
X i =oc
x 2 =(i
x

3= 1 -

c -

2{}

x 4 - 3 a 2 0 con a e R, (3 e R,

1 /

S -10

o\

6-23. Posmultiplicar por la inversa de A. Se obtiene X = -


4 4 12 .
20\-l
6
s)
6-24. 1. p (A ) = p ( A) = 2 < 5. El sistema tiene infinitas soluciones, dadas por

www.FreeLibros.com

solucin

es

376

RESPUESTAS A L
OS TRABAJOS PRACTICOS

*l = 2 ~ 3 a + 2 { 3 - y
x2 =a

3 =/3

X4 = y

xs - 8 - 5 a + 3

2 -y con a, 0, y e R .

2. Como p (A) = 3 y p (A) = 4, el conjunto solucin es vaco


3- P (A) = p (A-) = 3 < 5. Existen infinitas soluciones, del tipo
*1 = a + 0

x 2 =a
x3=0

x 4 =0
x s = 2ec + (3

6-25. El sistema es compatible porque p ( ) = o fAl = 1


44

solucinson

22 H \i \

+ * /
*
W
1 ). k e R .
'
\ ^
/
6-26. Las races de la ecuacin son: \ , = \ , = 1 A = _ i p
-x _ i
soluciones son del tip o * , = - a x , = h v - \ 3Ai - A* - 1 las infinitas
p

ara A, - - 1 , se obtiene ^

(7,

= - 2 k , * 2 = 2k , x 3 = k.

k = o T * = 13.Vp a raSestosA;
ambas situaciones. Para * = o

el e s a d o

C efidentes- Se obti
" * 1 * * 1

6-28.

M '1 =

y ' ^ u c i r t n n in o s , se

Xl =

www.FreeLibros.com

TRABAJO PRACTICO VI

3??

0 0 . Trasponer ai segundo miembro los trm inos en z y aplicar el teorema de Cramer. Si los
tres determinantes son no nulos, puede escribirse
X

bt

cx

b 2 c2

at

Ci

ax bx

a2 c3

a2 b2

6-31. Proceder com o en 6-27. Para a distinto de 2 y de 3, se obtiene solucin nica. Para
a = 2 existen infinitas soluciones y para a = 3 no existe solucin.
6-32. Para a # 1 existe solucin nica. Para a = 1 el conjunto solucin es infinito y para
a = 1 el conjunto solucin es vaco.
(>33. Analizar qu relacin vincula a a y a b para que exista solucin nica, ninguna solucin
e infinitas soluciones.
(.34. Un sistema lineal y homogneo es 74xj + 1 \ x 2 25* 3 = 0.
6-35. Analizar el determ inante de los coeficientes. La solucin nica es
b 2 + c 2 - a2
a2 + c z - b 2
a2 + b2 - c 2
x ~ ------------------ , y - ------------------ . z = -----------------2 be
2 ac
2a b
6-36. La solucin e s x x = l , x 2 = 2 , x 3 = 3 .

www.FreeLibros.com

TRABAJO PRACTICO VII


7-25. Se verifican los tres primeros axiomas de la definicin, pero no el cuarto.
El vector de com ponentes - y i es no nulo, pero <X, X > < 0.
7-26. No se verifica el axioma de simetra.
7' 27- 1 : ;: i

definicin de orto8onaiidad y

7-28. Es el teorema del coseno; despejar x y considerar el producto interior <x , x >.
7-29. Para la condicin necesaria proponer una combinacin lineal de x e y que sea im.ai ,
vector nulo y considerar el producto interior entre dicha combinacin H . J 1

misma. Suponer que ambos vectores son no nulos.


y
Para probar la condicin suficiente, siendo los dos v e c to ra nn n u
ellos como mltiplo escalar del otro, por ejemplo y = x . C a s t o r li x y II ^ *
7-30. Partir de la desigualdad de Schwarz y elevar al cuadrado
*"

o ) e7 (nx cuye)n = < r , x T i ? T ;i r

d(x,y) = \ = y

( )

"

* -

C.L. que sea

- R **

m 6 n d ' v 2
(X. * ) + < f f e y ) .
( 3 ) d ( x , y ) >

'7-33. Probar que / e s una trasformacin lineal.


^ ^ t r n T

c ^ l i ^

108 aX0maS ^

Pr dUCto nteriOT> * > que / es una

7-35. Utilizar la definicin de N.


736. L im an d o x e y a doB W o , del rombo que sean consecutivos, las dia gonales son
de rombo, o sea II x I = II y T
7-37. Demostrar 3 haciendo x

Pr<

y ten" CUenta la deflnici"

y = z; despejar x y apUcar 7.5.

p r o l i x / - V y l l ) . eSSUflCente demM tr

www.FreeLibros.com

~ V x - yII y para esto,

TRABAJO PRACTICO VII

379

Para probar 2., partir de llx + yll2 .


para demostrar 4., considerar II x 4- a y II2 .
7-38. Tener en cuenta la definicin de subespacio generado por un conjunto de vectores
A = { X j, x 2 , . . x r } , y probar que el producto interior entre x y cualquier vector de
A es cero.

7.39. Considerar un vector en el complemento ortogonal de S.


1 740. Tener en cuenta 7.9.
741. 1 Considerar v = (x, y , z ) y resolver el sistema que se obtiene de las relaciones v 1 vt ,
v l v 2 y II vi

2 . Vi

3. y x = ( 1 , 0, 0), y 2 = (0, 1 ,0 ) y y 3 = ( 0 , 0 , 1 ) son los vectores de la base ortonormal


pedida.
742. Efectuar el producto interior entre v y v.
' 743. Considerar el producto interior entre v y

7.44. Probar que el conjunto de todos los vectores ortogonales a A es un subespacio de V, y


tener en cuenta las definiciones correspondientes.
1 745. Expresar cada uno de los dos vectores como combinacin linealde la base.
746. Desarrollar 0 < <a x + 0 y, a x + |3y>, hacer a =<y , y >y
que < x, y > < x Ty > = K x , y > I2 .
747.

j3= - ( x, y >, y considerar

1. Pj X . P x P2 - 0; 2x - 2y + z - 5 = 0.

2. X = P0 + X A ; ~ = - - = z + 3 .
2
2
748.
Es el paraboloide de ecuacin x 2 + y 2 + 2z2 - 2x y -

6x - 6v - 4z + 1 = 0.

7-49. P ^ X . A = Q\ax + a y - 2a2 =0.


7-50. d ^ L
y/H

'

7 .v * . - y ~ 1 - z ~ 3

7-53. 2 ( x ~ y + 2)2 + ( z - y + 2)2 - 2.


7-54. 18 x 2 + [ 3 ( z - 1) + 0 + l) ] 2 ~ 2 ( y + l )2

www.FreeLibros.com

380

RESPUESTAS AOS
L TRABAJOS PRACTICOS

[z = +^
p*=oc r
U =0

~ P y=o C

2'

I Z = 4 JL
- ^__
"
1^-0

7-5<. 2* = ( 2 - ^ ) (2 z).
7-57. X = M + X M 2 ; z = > aretg.
*
7-55. Desarrollar el producto hermitiano.
7-59. Efectuar el producto PP* = I.
7-60. Considerar el producto interior entre cualquier fila i, con i < n , y tener en cuenta de
acuerdo con el ejercicio anterior, que tal producto es 0.
7-61. Probar que la funcin F : V
isomorfismo.
n
7-62. Desarrollar E ( x , v >v,-.

V definida por F (x) = / , donde / x (y) = <x y ) es un

www.FreeLibros.com

TRABAJO PRACTICO VIII


8-14. 1. Xt = - 5 , X2 = 5 son los valores propios.
Vectores propios son X : = |

*j , X2 =

2. N o existen en R.
8-15. 1. Valores propios: 2 y 3.
Vectores propios:

y | j

2. No existen en R.
3. X1 = X2 =: 6, X3 = 11. Vectores propios asociados a 6 son

2\

X3 = 11, corresponde ( 0 j .
8-16. Suponer que existe algn valor propio nulo.
8-17. Considerar A X = X X y premultiplicar por la inversa de A y por el recproco de X .
8-18. Probarlo por induccin.
8-19. Partir de S '1 A S Y.
8-20. 1. Para A, es X* = 1 + i, X2 = 1 i. Los vectores propios asociados son ^
1
1- i
2. Para B, los valores propios son 1, 1,

i.

8-21. Considerar P (X )- X + c n^ X1 + . . . + C i X - f c 0
P(X) = ( X - X 1) . . . ( X - \ l).

www.FreeLibros.com

RESPUESTAS A LOS TRABAJOS PRACTICOS

* '2Z X : v l 0 eXPleSn e P(X) = D (X 1 " A); t a e r

d * " * * > * ;dar a

8-23. Partir de A X = X X y premultiplicar por A.


Tenel' CUe'lta

los t o o n n t a m t., de dos matrices aspuestas


tr
son iguales

8-25. Los tres valores propios son iguales a 1 y a ste le corresponde


cuyo espacio solucion tiene dimensin 1. No es diagonalizable.
8-26. Considerar 8-18.

un sistema h o rn o s

8-27. Sea T una m atriz triangular superior; considerar el valo r de D (X - T)


8-28. Tener en cuenta 8-18 y la definicin de matriz nilpotente.
8-29. 1. Aplicar 8.3.4.
2. Aplicar 8-18.

^ T u V

ceros. Aplicar despus 7.


4. Aplicar la definicin de traza.

"

t iz T
anZ

'-r

nces

r unos *

5. Considerar 8-24.
6. Expresar los valores de tr AB y tr BA.
7. Asociar y aplicar 6.
8. Aplicar 7.

8-30.

Hallar los valores y los vectores propios y ortono


rmalizar stos. Se obtiene
/

1
v r
2

2
V5-

P2 =

1
y /s /

Considerar 8^5.3, II 0 sea, la existencia de unatriz


ma P no smgular, tal que
A P I . Aplicai determinantes y tener en cuenta.8-27
' 3l '

8-32.

P (A)

8-33,

Considerar P(A) -

8-34.
8-35.

Por ser A hermitiana, es A = (. Proceder como en 8-33.


Puede demostrarse por induccin sobrek.

8-36.

Partir de (B'1
P A B) - .2 a (B~J A B); y aplicar 8-35.

1 6
a

A' y tener en cuenta que Af = A.

www.FreeLibros.com

TRABAJO PRACTICO VIII

383

W 7 . X - | i1 CO
MPS ip
8-38. Y - ( 1 cos ^ ) . Respecto de los vectores Y, / representa una simetra.
\ sen /
*
/
cos p sen k \
*
. . . .
S'39' P = \ - sen l - cos l ) y representa la P<> n de una rotacin de ng ulo y
una sim etra axial.
8-40. Segn 8.5.3. II, existe P n o singular tal que P 1 A P es triangular superior. Resulta
/( P " 1 A P ) triangular superior cuya diagonal est formada por / ( X j ) , .
Adems f ( P 1 A P) = P"1 / ( A ) P es la forma triangular de /(A ).
8-41. Tener en cuenta 8.5.
8-42. Considerar (a I + A) X.
8-43. Relacionar con 8-16.
8-44. * ^ "j" *) n0 es diagonalizable.
- 0 0
La matriz 3 X 3 es diagonalizable y su forma diagonal es D =

o l
0 0

8-45. Los valores propios de A son 1 y 4. Los valores propios de P (A) son 0 y 15. La forma
diagonal de P (A ) es ( ^
\0

^
15

8-46. De acuerdo con 8-7 existe P e C [X] no nulo, tal que P (A ) = N, donde A es la matriz
de / . Adems, es
n
P (i) = 7T ( - X), donde X,- e C.
O sea
N =P(A )=(A -M )
3 tal que A X,-1 es singular, pues si no, P (A ) sera inversible. En consecuencia,
existe X ^ 0 tal que
(A - X I ) X = 0
O

sea
A X = XfX

Luego, existe un vector propio de /.

www.FreeLibros.com

TRABAJO PRACTICO IX
9-15 D esarrollar

( f + g) (ax + b x \ y ) ,

( /+ ) ( x c v + ^

, A,

( f ) ( x , c y + d y \ definiendo la suma de funciLneTv( / (< + 4x',y)

fundones de aeuerdo con las leyes de composicin punto a pumo ' 0


9-16. Desarrollar gy (x + x ) y g r (ax).

9-17 - >
^

680313165 por

3 +X2y 1 - 2 X 2 y 3 + X 3 y 2 + X 3 ^

B = P( A P =

/ i 4 2
\ 2 3 17
donde P es la matriz de pasaje de la base dada a la base cannica
W*

, ) X) = * X) = X 'A X = 3 I ! + ^

)/ ( X ) = * ? - * 2 + , .

I^

2^

9-19.

I
A

f '=
1

\ 2 ti2

Ver 4-65, i).


9 -2 fti)A = -!-lI,

ii) Desarrollar e, cuadrado, ^aplicar el operador sumatoria, tener en cuenta que


x , = x = 1 X y que 2

X? = t f X . Se obtiene A = J __ - T 1

Ambas matrices son idempotentes.

www.FreeLibros.com

TRABAJO PRACTICO IX

385

9-21. i ) Expresar en trminos de g a / ( x + y) - / (x y).


ii) Lo mismo respecto de / (x + y) / (x) / (y).

9-23. La funcin h : V2

K definida por h (x, y ) = ~ g (x, y) es una forma bilineal si


simtrica

y la forma cuadrtica asociada es f.


9-24. Aplicar 9.7.1., desarrollando < /(x ),/(y )> y probando que es igual a <x, y >.
n
n
9-25. A partir de S ocf (v-) = 0, considerar { X i/( v /) ,/( v ;)
>= 0.
Se prueba que ocj^O para todo /, o sea, / ( v j ) , / ^ ) , ... J ( v n) son linealmente
independientes y en consecuencia constituyen una base
de V que
verifica
</(v,) ,/(vy) >= (y, Vy >= 5 j, o sea, es ortonormal.
9-26. Tener en cuenta que P Pf = I y que Pf = P.
9-27. Considerar 9.7.5. y que U Q = P U.

U=

9-28. Sea A la matriz de / : C -* C "; de acuerdo con el eje


rcicio 8-46, A admite un vector
propio, o sea existe X e C tal que A Z = X Z. Observar que X e R , segn 9.6.3.
Considerar que Z = X + ?Y, donde X e Y pertenecen a R " y premultiplicar por A.

9-30. Xi = 1, X$ = 4 ; por 9.10.1. A es definida positiva. La matriz de vectores ortonormales


es
/

V2

VT '

www.FreeLibros.com

386

RESPUESTAS.A LOS TRABAJOS PRACTICOS


Siguiendo 9.10.2. se form a D , = ^

0 j y resul(a

1
V3

0 = PD, =

2 ^
V3

2
V6
9-31. La

mat ri z

/V 3
V \ y /2

o rto g o n al
-V 2

de

vectores

2
V T/

propios

de

1 y/6
- y /6
2

A=

'

es

La trasformacin de coordenadas est dada por X = P Y, o sea


*1

- V

2y t )

1
9-32. Sea / ( X ) = X ' A X definida positiva y sea X = P V h
S (Y ) = Yf B Y y es ta l q u e B = P ' A P T a L / '
eS n Si 8ular; e n to n c
su fic ie n te p ro b a r q u e Y ' B Y= 0 = Y = . C o n s i d e r a ^ Y ^ V ^ X " ^ mSma agen; es
9-33. Tener en cuenta el ejercicio 8-17 y 9 .1 3 2
9-34. i ) p ( A ) = 3; s = 3.
ii) p (A) *= l ; s = ].
9-35. Considerar 9.11, Se obtiene
/1

A=S

5
0
2

\ Ai = 6
1 n 1
.

9-36. i ) Considerar 9.11.

2
5
0
4

/
+ 11

5 /

2~

1
2
0
1

4 /

ii) Considerar el ejercicio 8-17.


9-37. A es no singular y A A* es simtrica. Segn 9 10 2 A A f *> h r
ortogonal tal que Q* A A* Q = D = diae ( \ \
defimda positiva. Existe Q
Jos valores propios de A A f son positivo, Vy/ V ** T d acuerd<Lcon 9.9.3., donde

www.FreeLibros.com

TRABAJO PRACTICO IX

387

9-38. Aplicando 9-37 se obtiene A S P, donde S j |

positiva y P =

j_
V3

V i
\/T

V?
V3

J V3

jes simtrica definida

es ortogonal.

9 -P. Probar que si / es definida positiva, existe una trasformacin no singular X = T Y

donde

es

triangular

superior

D (T) = 1,

que

la

reduce

a la forma

(Y)=YfD
g (Y) = Y ( D Y

y l donde a f > 0 , siendo D = ( T 1)* A T"1. En consecuencia,

D (D) = D (A) > 0.


Haciendo x = 0, f se convierte en una form a cuadrtica respecto de n - lque sigue
siendo definida positiva; la correspondiente matriz se obtiene prescindiendo de la
ltima fila y de la ltima columna de A. Reiterar el procedimiento.
Para la suficiencia, utilizar el m todo de Lagrange, que consiste en completar
cuadrados. Siendo a n > 0 , existe una trasformacin no singular, triangular superior,
con determinante igual a 1, que la reduce a
m

a l l z \ "*"f? 2_=2^;' Z

Probar que b 22 > 0 , haciendo x J - z J = 0 para i = 2 , 3 , . .

n, y reiterar el proce

dimiento.
9-40. Por ser / definida positiva, segn 9.12.4., existe una trasformacin de coordenadas
n

X = P Y que la reduce a la forma 2 y i


1
i=i
Se tiene Pf A P = 1, o sea A = (P P*)-1 La trasformacin aplicada a g es tal que
X* B X = Y f (Pf B P) Y, donde P{ B P es simtrica. En consecuencia, existe una
trasformacin ortogonal Y Q Z que la reduce a una suma de cuadrados cuyos
coeficientes son los valores propios de P* B P.
X B X = Z( (P Q)( B (P Q) Z = 2 \ z\
n

Esta trasformacin aplicada a Y( I Y la reduce a


trasformaciones: X = (P Q) Z, reduce ambas formas.
9-41. Demostrarlo por induccin sobre n = dim V.

www.FreeLibros.com

z? . La composicin de las dos

TRABAJO PRACTICO X
10-6. Frontera de A es el conjunto
I (x i, x 2) e R 2 / f j j j | = i A j ; 2 1< 2 j

u (i

2) i

vrtices ( - 1, _ 2X (If _ 2)( (1 (

r ; : : * * -

&

interiores. Puntos exteriores a A son los que satisfacen1

El derivado de A es A; o sea, A es cerrado

......................... ...

Todos los puntos de acumulacin de B pertenecen a n


todos los elementos de B son puntos de acumulacin d i b "
3 ' condiciones^0 6

3 SU
XI X2

L<*

" Cerrad ' AdemS

interiores de

satisfacen las

< 2 y X l > o y X2 > 1

10-8. 1. Sea A cerrado. Considerar un p u n to a e A c 're.nl,


A. Luego, existe S (a, e) / s (a e) n A - a p
^ 3 0 CS de acumulacin de
tanto, A es abierto.
^ 1 >'
E" con*encia, S (a, 6) C A ' y por lo
' a " lleg rru n aS! o T a d iqccinXSte

PU' t0 d aCUmulaci
* A que pertenece a

>0-9. Sean: el hiperp,ano de ecuacin N ' X = *, a e , y Ia esfera abierta S (a e).


C o n sid e ra n d o b = a + -

b i e n N b > *

, 2 "N"

*P wrif

i3 6) P" Mb - = f < Ahora

www.FreeLibros.com

TRABAJO PRACTICO X

389

10-10. El conjunto del ejercicio 10-6 no es convexo. Los tres conjuntos de 10-7 son
convexos.
10*11. Probar primero que el conjunto vaco es abierto. Sea | A i e N } una familia
numerable de abiertos. Si esta familia es vaca, entonces A = U A es el conjunto vaco,
ie N
y en consecuencia es abierto. Si la familia no es vaca, cada abierto de la misma es una
unin de esferas abiertas. De este modo, A es la unin de tales esferas abiertas, y por lo
tanto es un conjunto abierto.
Se ha utilizado la siguiente propiedad: un subconjunto C C R" es abierto si y slo si es
una unin de esferas abiertas.
10-12. Sea

{ A / i e In } una familia finita de abiertos. Si esta familia es vaca, entonces

A = O A; es el espacio total, que es abierto (probarlo). Supongamos ahora que la


i=i
familia es no vaca; si A es vaco, entonces es abie rto. Consideremos entonces que A es
no vaco y sea a e A.
Se tiene
a e A =a e A, Vi => 3 ef / S (a, e) C Af, para cada i.
Sea e el m nim o del conjunto { e x, e2 , . . . , en | . Entonces para cadai se verifica que
S (a, e) C S (a, e)
en consecuencia, para cada i es
S (a, e) C A
por lo tanto S (a, e) C A. Luego, A es abierto.
10-13. Aplicar 10-11, 10-12 y las leyes de De Morgan.
10-14. El casco convexo generado por los puntos dados, es el pentgono convexo de vrtices
( - 1 , - 1 ) , ( - 1 , 2), (1 ,3 ), (2, 3), (1, - 1 ). Adems, (0, 0) es combinacin convexa de
( 1 , - 1 ) y ( - 1 , 1 ) , donde t = - ^ .
10-15. Aplicar la definicin de convexidad y de la funcin dada.
10-16. Tener en cuenta que el conjunto solucin del sistema es la interseccin de n
hiperplanos de Rn , y que stos son convexos.
10-17. Considerar que
y e C = * y = a x donde a > 0 , x e A.
Multiplicar por /3 > 0.
10-18. El cono generado por la interseccin de los dos conjuntos est caracterizado por
4x2 + 4y

2- z 2<0
z> 0

10-19. Utilizar la definicin de cono y de C".

www.FreeLibros.com

390

RESPUESTAS A LOS TRABAJOS PRACTICOS

10-20. Aplicar Ja definicin de C1 y multiplicar por a > 0

10-21 utilizar la deflnicn de CQno ortogonal y Ja cond cin su& iente ^


conos

31 Un VeC r 2 6 C mUltP,Car P

O- y e re n cuenta que Cl y C_
2 son

/ M i . Sea X , ^ a n u d a d de litros de licor / que se destina a la mezcla/, donde / = i , 2,3

N.
1
2

3
Precio
de venta
por litro

* 11

x 12

j f J3

*21

* 22

* 23

*31

*32

*33

68

57

Disponibilidades
en litros
6 .0 0 0
7 .5 0 0
3 .6 0 0

Costo por
litro
63
45
36

--------- -------------- 1

45

Objetivo: maximizar
F = 5 * n - & . 2 - l & 1 3 + 2 3 * 2,
Sujeta a las restricciones:

+12**2+32*3, + 2 1 ^ + 9 . ^

* n + * 1 2 + * i 3 < 6 .0 0 0
*21

+*22 +*23

< 7 .5 0 0

*31

+ * 32 + * 3 3

< 3 .6 0 0

*11 > 0 . 6 ( x n
*31 <
*32

0 .2

(* jj

+ x 2i + * 3 1 )
+ x 21 + x 3 l )

< 0 . 6 ( x 12 + ^ 22 + ^ 23)

* 1 2 ^ 0 .1 5 ( x 12 + x 22 + X 32)
*33 <

0 .5 ( * i 3 + X 23 + X 33)

XU > 0

1,2,3, j = 1,2,3

especifica el nmero de rollos del c t r t e / .V o b f e n e faTigfente tabla-'' ^ able

www.FreeLibros.com

TRABAJO PRACTICO X

nmero
rollos

391

ancho

*1

*2

*3

*4

* 5

*6

*7

*8

x9

*10

58

26

24

23

10

10

Desperdido
en cm

* 11

*12

0
2

11

12

13
..

Minimizar
F = x 2 + 4 * 3 + 6 * 4 + 7 * s + &x 6 + 9 x n + 10*8 + 1 0 x 9 + 1 U 10 + 12xn + 13x12
Sujeta a las restricciones:
*1

+ * 2 > 60

x , + x 4 + 2 * 6 + * 7 + 3 * 9 + 2 x 10 + * 1 1 > 8 5

*2 + * 5 + * 7 + 2 * 8 + * 1 0 + 2 * u + 3 * 12 > 5 0

*j > 0 , 7 = 1 , 2 , . . . , 12.

www.FreeLibros.com

www.FreeLibros.com

INDICE

Adjunta de una m atriz, 170


Angulo entre vectores, 223
Anillo de matrices, 109
Automorfismo, 69
Base, 53, 54, 58
cambio de, 146
fan, 280
ortogonal, 303
ortonormal, 225,3 0 4
teorema de extensin, 56
Cambio de base, 146, 295
Casco convexo, 338
Chio, regla de, 174
Clausura, 329
Combinacin lineal, 30, 217
convexa, 336
Composicin de trasformaciones, 92
Complemento ortogonal, 229
Condiciones de vnculo, 352
de no negatividad, 352
Congruencia de formas cuadrticas, 314
de matrices, 295
Conjunto abierto, 328
acotado, 329
cerrado, 328
convexo, 336
de combinaciones lineales, 34
derivado, 328

linealmente dependiente, 45, 78


linealmente independiente, 42, 79
maximal, 65
ortogonal, 225
solucin de un sistema, 189
Cono, 356
ortogonal, 357
Convexidad en R ", 376
Coordenadas, 44
esfricas, 179
trasformacin de, 145
Cramer, teorema de, 187
Curvas, 246

Dependencia lineal, 45, 78,160


Descomposicin espectral, 311
Desigualdad de Schwarz, 222
triangular, 223
Determinante, 155
de la traspuesta, 166
del producto, 169
de Vandermonde, 168, 178
existencia de, 161
propiedades de, 157
unicidad de, 163
Diagonalizacin de matrices, 308
de operadores simtricos, 307
Dimensin, 57, 59
de la imagen, 80

www.FreeLibros.com

394

INDICE

de la suma, 60
del ncleo, 80
Fan, 279
Form a bilineal, 289, 291
cuadrtica, 2 9 4 ,3 0 5 ,3 1 4 ,3 1 8
hermitiana, 293
lineal, 101,257
Funcional, 101
Funcin objetivo, 349, 352
G au ss-Jo rd an , m to d o de, 135 186
G ram -S ch m id t, 228

Hamilton-Cayley, teorem a de, 282


Hlice circular, 248
Helicoide recto, 261
Hiperplano, 233
soportante, 343
Imagen de una trasformacin lineal 7 4 80
propiedades de, 75

Independencia lineal, 42, 58
Indice de positividad, 305
de nulidad, 305
Inversin de matrices, 138, 1 4 1 , 172
Investigacin Operativa, 346
Isomorfismo, 69
Jacobiano, 178
Matrices equivalentes, 133
producto de, 8 5 ,9 6 ,1 0 6
permutables, 107
semejantes, 147, 275
triangulacin de, 279
Matriz, 1 1 ,3 3 , 71
adjunta, 170
ampliada, 182
antisimtrica, 2 9 ,112
compleja conjugada, 118
definida positiva, 310
de pasaje, 144

de una forma, 291,293


de traza nula, 19,38, 65
de una T.L., 8 6 , 146
de un sistema lineal, 182
elemental, 114
forma cannica de, 133
hermitiana, 120
idem potente, 115
identidad, 108
inversa, 116 ,1 4 1 ,1 7 2
involutiva, 115, 274
no singular, 134
particionada, 121
rango de, 126,138
rango columna de, 124
rango fila de, 125
simtrica, 29, 112
traspuesta de, 110
traza de, 19, 152, 286
triangular, 28,114
Mtodo de Gauss-Jordan, 135, 138
de Gauss reducido, 210
de la raz cuadrada, 202
del orlado, 205
Menores principales, 319
Mdulo, 2 1 8
Monomorfismo, 69, 77
Norma, 218
Ncleo de unaT .L ., 72, 80, 183
de un monomorfismo, 77
Operaciones elementales, 129
Operadores adjuntos, 298
autoadjuntos, 299
hermitianos, 299
ortogonales, 300
simtricos, 399, 307
traspuestos, 298
unitarios, 300
Ortogonalidad, 219, 225
Ortonormal, base, 225
complemento, 229

www.FreeLibros.com

INDICE

Particin de matrices, 121


Permutaciones, 163
Plano, 239
Polinomio caracterstico, 270, 277
Producto interior, 214
hermitiano, 259
Programacin Lineal, 346
Proyeccin, 105, 232
de una curva, 253
de un subespacio, 281
Punto de acumulacin, 327
extremo, 344
frontera. 326
Interior 326
Rango columna, 124
de una matriz. 126,135, 184
del producto, 127
fila, 124
Recta, 236,3 3 0
Rotacin, 268
Rouche-Frobenius, 188
Segmento, 330
Semiespacio, 335
Semejanza, 147
Signatura, 305
Simplex, 355
Sistema de ecuaciones, 181, 190, 198, 202
compatible, 183,188
incompatible, 183
Sistema de generadores, 51, 58
Schwarz, desigualdad de, 222
Suma de subespacios, 23, 2 9 ,6 0 , 231
directa, 2 5 ,6 1 , 105
Solucin ptima, 352
posible, 352
Subespacio, 15, 35
Subespacios, interseccin de, 20
suma de, 23
unin de, 22

395

Sylvester, teorema de, 306


Trasformacin lineal, 6 6 ,6 8
biyectiva, 69
composicin, 96
diagonalizacin de, 269, 276
imagen de, 74
inversa, 93
matriz de, 86
no singular, 93
ncleo de, 72
polinomio caracterstico de, 275
Teorema de Cramer, 257
de Hamilton-Cayley, 282
del coseno, 257
de Rouche-Frobenius, 188
de Pitgoras, 221
de Sylvester, 306
de extensin, 56
fundamental de las T.L., 83
Trasformacin de coordenadas, 145, 309
de matrices, 279
Trasposicin de matrices, 110
de una permutacin, 163
Unin de subespacios, 22
Valores propios, 263
de un operador hermitiano, 300
de un operador unitario, 303
Vectores, 2
ngulo entre, 223
combinacin lineal de, 30
cosenos directores, 240
fijos, 234
linealmente dependientes, 45, 78, 160
linealmente independientes, 42, 58
mdulo de, 218
ortogonales, 225
propios, 263

www.FreeLibros.com

ISBN 950-02-5205-8

www.FreeLibros.com

También podría gustarte