Está en la página 1de 402

www.FreeLibros.

com
A L G E B R A I I
ARMANDO 0. ROJ O
IIIIIIII
E L A T E N E O www.FreeLibros.com
www.FreeLibros.com
lgebra II
Armando O. Rojo
D c i m a t e r c e r a e d i c i n
I I I 1 1 I I I OBRERIA-EDITORIAL
J M U E L A T E N E O
www.FreeLibros.com
www.FreeLibros.com
512 (075) Rojo, Armando O.
ROJ Algebra II. - 13a. ed. - Buenos Aires: El Ateneo,
1995.
XII, 396 p.; 23 x 16 cm.
ISBN 950-02-5205-8
I. T tulo - 1 . Matemtica - Enseanza Secundaria
A d v e r t e n c i a i m po rt an t e:
Ei d e r e c h o de p r o p i e d a d de esta obra comprende para su autor la
facultad de disponer de elia, publicarla, traducirla, adaptarla o autorizar
su traduccin y reproducirla en cualquier forma, total o parcialmente, por
medios electrnicos o mecnicos, incluyendo fotocopias, grabacin
magnetofnica y cualquier sistema de almacenamiento de informacin.
Por consiguiente, nadie tiene facultad a ejercitar los derechos precitados
sin permiso del autor y del editor, por escrito.
Los infractores sern reprimidos con las penas del artculo 172 y
concordantes del Cdigo Penal (arts. 2, 9 , 1 0 , 71, 72 ley 11.723).
Queda hecho el depsito que establece la ley Ns 11.723.
1973, 1975, 1976 (3ay 4 a edicin), 1978, 1980,
1981, 1983, 1985, 1987, 1991,1993, 1995, "EL ATENEO" Pedro Garca S. A.
Librera, Editorial e Inmobiliaria, Florida 340, Buenos Aires.
Fundada en 1912 por don Pedro Garca.
Impreso en T. G. COLOR EFE,
Paso 192, Avellaneda, Bs. As.,
el 6 de marzo de 1995.
Tirada: 2.000 ejemplares.
IMPRESO EN LA ARGENTINA
www.FreeLibros.com
www.FreeLibros.com
PROLOGO
Este libro responde a los contenidos de la asignatura ALGEBRA LINEAL, que
figura en los planes de estudios del ciclo bsico de Matemtica de las facultades e
institutos ote profesorado. Se supone adquirido el conocimiento de los temas
relativos al lgebra de conjuntos, relaciones, y funciones, y de las estructuras de
grupo, anillo y cuerpo. Esencialmente se desarrolla aqu la estructura de espacio
vectorial y se estudian los modelos particulares indispensables en la formacin actual
de profesionales y en las aplicaciones a disciplinas de uso cotidiano, entre las que
citamos, por ejemplo, la Estadstica y la Investigacin operativa.
El esquema seguido es anlogo al expuesto en Algebra I, editado por EL
ATENEO en 1972. La teora es ilustrada con el desarrollo de ejemplos en los que el
alumno puede apoyarse. En cada captulo se propone un trabajo prctico cuyas
respuestas se sugieren en el texto.
Agradezco a la editorial EL ATENEO y a su personaI la colaboracin que me
han brindado en todo lo concerniente a esta publicacin.
Buenos Aires, mayo de 1973.
A R M A N D O O. ROJO
www.FreeLibros.com
www.FreeLibros.com
aI
pi
)It
www.FreeLibros.com
www.FreeLibros.com
CONTENIDO
aptulo 1. ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIO
1 . 2 . Concepto de espacio vectorial
1 . 3 . Propiedades de los espacios vectoriales
I 1. 4. Espacio vectorial de funciones
! 1. 5. Espacio vectorial de n-uplas
, 1. 6. Espacio vectorial de matrices
, 1. 7. Espacio vectorial de sucesiones
1. 8 . Subespacios
1. 9. Operaciones entre subespacios
Trabajo Prctico I
ptulo 2. DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
2 . 2 . Combinaciones lineales
2. 3. Subespacio generado
2 . 4. Dependencia e independencia lineal
2. 5. Sistema de generadores
2. 6 . Base de un espacio vectorial ^
2. 7. Dimensin de un espacio vectorial 57
2 . 8 . Dimensin de la suma
Trabajo Prctico II
itulo 3. TRASFORMACIONES LINEALES
3. 2 . Trasformacin lineal entre dos espacios vectoriales 66
I 3. 3. Ncleo e imagen de una trasformacin lineal 72
3. 4. Dimensiones del ncleo y de la imagen 80
3. 5. Teorema fundamental de las trasformaciones lineales 83
3. 6 . Producto de matrices 85
3. 7. Matriz asociada a una trasformacin lineal 86
3. 8 . Composicin de trasformaciones lineales 92
3. 9. Trasformacin lineal 110 singular 93
3.10. Composicin de trasformaciones lineales y producto de matrices 96
3.11. Espacio vectorial de trasformaciones lineales 98
3.12. Espacio dual de un espacio vectorial i ni
Trabajo Prctico III ^
1
1
6
7
10
11
13
15
20
27
30
30
34
42
51
53
60
63
66
www.FreeLibros.com
www.FreeLibros.com
X CONTENIDO
Captulo 4. MATRICES 106
4. 2. Producto de matrices 106
4. 3. Anillo de matrices cuadradas 109
4. 4. Trasposicin de matrices 110
4. 5. Matrices simtricas y antisimtricas 112
4. 6 . Matrices triangulares 114
4. 7. Matrices diagonales 114
4. 8. Matrices idempotentes e involutivas 115
4. 9. Inversa de una matriz no singular 116
4.10. Matrices ortogonales 117
4.11. Matrices hermitianas 118
4.12. Matrices particionadas 121
4.13. Espacios fila y columna de una matriz 123
4.14. Operaciones y matrices elementales 130
4.15. Equivalencia de matrices 133
4.16. Mtodo de Gauss Jordn para determinar el rango 135
4.17. Inversin de matrices por Gauss Jordn 138
4.18. Inversin de matrices por particin 141
4.19. Cambio de base y semejanza de matrices 144
Trabajo prctico IV 149
Captulo 5. DETERMINANTES 155
5. 2. Determinantes 155
5. 3. Propiedades de la funcin determinante 157
5. 4. Existencia de D 161
5. 5. Unicidad del determinante 163
5. 6 . Determinante de la traspuesta 166
5. 7. Determinante del producto de dos matrices 169
5. 8 . Adjunta de una matriz cuadrada 170
5. 9. Inversin de matrices no singulares 172
5.10. Regla de Cilio 174
Trabajo Prctico V 177
Captulo 6. SISTEMAS LINEALES 181
6. 2. Sistemas lineales 181
6 . 3. Teorema de Cramer 187
6. 4. Compatibilidad de sistemas lineales 188
6. 5. Resolucin de sistemas lineales 190
6. 6. Sistemas homogneos 196
6. 7. Conjunto solucin de un sistema lineal 198
6. 8. Resolucin de sistemas simtricos 202
6. 9. Mtodo del orlado 205
Trabajo Prctico VI 210
www.FreeLibros.com
www.FreeLibros.com
CONTENIDO
XI
Captulo 7. PRODUCTO INTERIOR. GEOMETRIA VECTORIAL 214
7. 2. Espacio vectorial euclidiano 214
7. 3. Ortogonalidad 219
7. 4. Desigualdad de Schwarz 222
7. 5. Desigualdad triangular 223
7. 6. Angulo de dos vectores 223
7. 7. Conjunto ortogonal de vectores 225
7. 8. Base ortonormal 225
7. 9. Complemento ortogonal 229
7.10. Proyeccin de un vector sobre otro 232
7.11. Espacio afn Rn 233
7.12. Ecuaciones vectorial y cartesianas de la recta 236
7.13. Ecuacin normal vectorial del plano 239
7.14. Curvas en el espacio 246
7.15. Superficie cilindrica 249
7.16. Superficie cnica 251
7.17. Proyeccin de una curva sobre un plano 253
Trabajo Prctico VII 257
Captulo 8. VALORES Y VECTORES PROPIOS. DIAGONALIZACION 263
8. 2. Valores y vectores propios 263
8. 3. Polinomio caracterstico de una matriz 270
8. 4. Diagonalizacin de matrices 276
8. 5. Triangulacin de endomorfismos y de matrices 279
8. 6. Teorema de Hamilton-Cayley 282
Trabajo Prctico VIII 285
Captulo 9. FORMAS BILINEALES Y CUADRATICAS 289
9. 2. Formas bilineales 289
9. 3. Formas hermitianas 293
9. 4. Formas cuadrticas 294
9. 5. Operadores adjuntos y traspuestos 296
9. 6. Operadores hermitianos y simtricos 299
9. 7. Operadores unitarios y ortogonales 300
9. 8. Teorema de Sylvester 303
9. 9. Diagonalizacin de operadores simtricos 307
9.10. Matrices simtricas reales y valores propios 310
9.11. Descomposicin espectral de una matriz 311
9.12. Congruencia de formas cuadrticas 314
9.13. Signo de una forma cuadrtica 318
Trabajo Prctico IX 321
www.FreeLibros.com
www.FreeLibros.com
XII
CONTENDIO
Captulo 10. CONVEXIDAD. PROGRAMACION LINEAL
325
10.2. Conjuntos de puntos en Rn
325
10.3= Segmentos, hiperplanos y semiespacios
330
10.4. Convexidad en Rn
336
10.5. Convexidad y trasformaciones lineales
339
10.6. Hiperplanos soportantes
342
10.7. Puntos extremos
344
10.8. Introduccin a la Programacin Lineal
346
Trabajo Prctico X
356
BIBLIOGRAFIA
359
RESPUESTAS A LOS TRABAJOS PRACTICOS
361
INDICE
393
www.FreeLibros.com
www.FreeLibros.com
Captulo 1
ESTRUCTURA DE ESPACIO VECTORIAL
SUBESPACIOS
1.1. INTRODUCCION
La estructura de espacio vectorial, que tratamos en este captulo, es el concepto bsico
del Algebra Lineal. Confiere unidad y precisin a temas esenciales de la matemtica que
tienen vastas aplicaciones en la ciencia y en la tecnologa actuales. Despus de introducir el
sistema axiomtico y de dar las propiedades fundamentales, proponemos los espacios
vectoriales de funciones,de los que se derivan los modelos de los espacios de matrices,
nuplas y sucesiones de elementos de un cuerpo. Se da, finalmente, el concepto de
subespacio.
1.2. CONCEPTO DE ESPACIO VECTORIAL
Sean: V un conjunto no vaco, K un cuerpo, + y . dos funciones, que llamaremos suma y
producto, respectivamente.
Definicin
El objeto (V, + , K , . ) es un espacio vectorial si y slo si se verifican los siguientes:
Aj . La suma es una ley de composicin interna en V.
+ : V2 -> V
O sea
x e V a y e V =>x + y e V
Esto significa que la suma de dos elementos cualesquiera de V es un nico elemento de
V.
A2 . La suma es asociativa en V.
(x + y) + z = x + (y + z)
cualesquiera que sean x, y, z en V.
www.FreeLibros.com
www.FreeLibros.com
A3 . Existe un neutro para la suma en V.
El elemento neutro se denota con 0.
3 0 e V / V x e V : x + 0 - 0 + x = x
A4 Todo elemento de V admite inverso aditivo u opuesto en V.
Vx e V, 3 y e V / x + y = y + x = 0
Al opuesto de x lo denotamos con x, o sea, y = x.
A5 . La suma es conmutativa en V.
X + y = y + x
cualesquiera que sean x, y en V.
A6 . El producto es una ley de composicin externa en V con escalares u operadores
en K. r
. : KXV- > V
De acuerdo con 5.6, Algebra, del mismo autor, la imagen del par (a, x), donde a e K y
x e V, se escribe a x y se llama producto del escalar a por x.
O sea
a e K a x e V =>ax e V
A7 . El producto satisface la asociatividad mixta.
V a e K, V P e K, V x e V : a (0 x) - (a p) x
Observamos aqu que los dos productos que figuran en el primer miembro
corresponden a la ley de composicin externa. Pero el producto a p del segundo
miembro se efecta en K.
A8 . El producto es distributivo respecto de la suma en K.
Va e K, V 0 e K , V x e V : ( a + 0 ) x = a x + (}x
La suma a + 0 se efecta en K, pero la suma que figura en el segundo miembro
corresponde a la ley de composicin interna en V.
Ag . El producto es distributivo respecto de la suma en V.
Va e K, V x e V , V y e V ; a,(x + y ) - o , x + o ; y
Las dos sumas se realizan en V.
A,0. La unidad dei cuerpo es neutro para el producto.
V x e V : Ix =x
donde 1 denota la identidad en K.
Los axiomas A,, A2, A3, A4 y As caracterizan a (V , + ) como grupo abeliano. Los
ltimos cinco axiomas son relativos a la ley de composicin externa.
Los elementos de V se llaman vectores; en particular, el elemento neutro para la suma
2 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
www.FreeLibros.com
www.FreeLibros.com
ESPACIO VECTORIAL
3
recibe el nombre de vector nulo. A menudo hablaremos del espacio vectorial V,
sobrentendiendo que nos referimos a la cuaterna (V, + , K , .). La simplificacin de las
notaciones hace conveniente el uso de los mismos smbolos para nombrar las leyes de
composicin interna en K, la suma en V y el producto de escalares por vectores. O sea, al
decir K nos estamos refiriendo al cuerpo (K, +, .), donde los signos + y denotan las
dos leyes de composicin interna en K, que no tienen el mismo significado que las que
figuran en (V, +, K , .). Distinguiendo adecuadamente los elementos de K y los de V, no hay
lugar a confusin.
As
a + 3es una suma en K x 4- y es una suma en V
a (i es un producto en K a x es el producto de un escalar por un vector
Ejemplo 1-1.
Sean: V = R2, K = R, la adicin definida en R2 por
(a , b) + (c , d) = (a + c , b + d) (1)
y el producto de nmeros reales por elementos de R2 definido mediante
a(a , b ) = (oca, ot b ) ( 2 )
Resulta (R2, +, R , . ) el espacio vectorial de los pares ordenados de nmeros reales
sobre el cuerpo de los nmeros reales.
En efecto, de acuerdo con los ejemplos 5-2 y 5-5 iv) del texto nombrado, es (R2 , +)
un grupo abeliano.
Por otra parte se verifican:
A6 . Por la definicin (2).
A7 . a = u ( Pa , &b ) = (a<pa), a (P Z) ) - ( (a (3) a , (afl) b ) =
= (a 0) (a , b)
Hemos aplicado la definicin (2), la asociatividad del producto en R y la definicin
( 2).
Aa . (a + (3) (a , b) = ( (a + (i)a, (a+j3) Z>J = ( aa + (3a , a b + (i b) =
= (a a , a b) + (j3 a , 0 b) = a (a , b) + j3 ( a , b)
De acuerdo con (2), la distributividad del producto respecto de la suma en R, y las
definiciones (1) y (2).
A9 . a ^ ( a , b) + ( c , d) J = a (a + c , b +-d)~ ( a (a + c ) , a (b + rf)| =
= (aa + a c , o t b + a d ) = (Oia, <xb) + ( ot e, o c d ) ~a ( a , b ) + a( c , d)
www.FreeLibros.com
www.FreeLibros.com
4
ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
Segn (1), (2), distributividad de la multiplicacin respecto de la adicin en R y las
definiciones ( I ) y (2). *
A0. 1 ( a, b) = (1 a , Ib) = ( a, b)
El significado geomtrico de las operaciones de este espacio vectorial es el siguiente:
la suma de dos vectores no colineales del plano queda representada por la diagonal del
paraleiogramo que forman. El producto de un nmero real a por un vector no nulo
x ~ ( a , b), es el vector a x que tiene la misma direccin que x; el mismo sentido si
<*>0, y sentido opuesto si a < 0 . Corresponde a una dilatacin si l a l > 1 y a una
contraccin si Iot I < 1. Si a - 0, entonces se obtiene el vector nulo.
Ejemplo 1-2.
En R2 se definen: la suma, como en el ejemplo anterior, y la ley de composicin
externa mediante
( , * ) = (a, a) (2)
Se verifica, como antes, que (R2 , +) es un grupo abeliano.
En cuanto a ( 2) , satisface A6. Su significado geomtrico es el siguiente: todos los
pares ordenados que tienen la misma absisa, al ser multiplicados por cualquier nmero
real, se proyectan sobre la primera bisectriz paralelamente al eje de ordenadas.
www.FreeLibros.com
www.FreeLibros.com
ESPACIO VECTORIAL
Tambin se satisface A7, pues
{$(<*, b)) = <*(a, a) = ( a, a) = ( a$) ( a, b)
No se verifica A8, ya que
(a +i 3) ( a, b) = (a, a)
pero
a (a , b) + 0 (a , b) = (a , a) + ( a, a) = (2a , 2a)
Este hecho es suficiente para afirmar que no se trata de un espacio vectorial.
El lector puede comprobar que esta interpretacin cumple A9 pero no A10 .
Observamos aqu que la estructura de espacio vectorial no es inherente exclusivamente
al conjunto V, sino que, adems, depende de K y de las leyes de composicin que se
definan. Aclaramos que toda vez que se mencione al espacio vectorial (R2, +, R , .) se
sobrentender que la suma y el producto son los definidos en (1) y en (2) del ejemplo
Ejemplo 1-3.
La estructura de espacio vectorial no es un sistema axiomtico independiente, pues As
puede deducirse sobre la base de los restantes axiomas.
En efecto
www.FreeLibros.com
www.FreeLibros.com
x + x + y + y ^ l x + l x + ly + ly = (1 + l ) x + ( l + l )y (1 + 1 ) 0 + y)
= 1 (x + y) + 1 (x + y) = l x + ly + l x + ly = x + y + x + y
en virtud de Aio , Ag, A9, Ag, A9 y A10 .
O sea
X + x + y +*y - X + y + x + y
Por ley cancelativa en el grupo (V , +) resulta
x + y = y + x
1.3. PROPIEDADES DE LOS ESPACIOS VECTORIALES
Sea (V, +, K , .) un espacio vectorial.
1.3.1. El producto del escalar O por cualquier vector es el vector nulo.
En efecto, por neutro para la suma en K y A8 es
a x = (a + 0)x = ax + Ox
Por A 3 se tiene
JJHC + O Ox
Y por ley cancelativa resulta
0 x = 0
1.3.2. El producto de cualquier escalar por el vector nulo es el vector nulo.
Por A 3 y A9 es
a x = f l ( x + 0 ) = x + a 0
Entonces
a x + a O = o i x
Por A3
JX-X-+ a O ~xhc + O
Y por regularidad en (V, +), resulta
a O = O
5 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
www.FreeLibros.com
www.FreeLibros.com
1.3.3.Si el producto de un escalar por un vectores el vector nulo, entonces el escalar es 0 o
el vector es nulo.
a x = 0 ^ a = 0 v x = 0
Se presentan dos posibilidades: a ~ 0, o bien, a 0
En el primer caso es verdadera la primera proposicin de la disyuncin que figura en la
tesis, y por consiguiente sta es verdadera.
En el segundo caso es necesario probar que x = 0.
En efecto, siendo 0, existe el inverso multiplicativo en K, a 1. Partiendo de la
hiptesis, premultiplicando por a 1, usando A7, 1.3.2., el producto de inversos en K y Ai0
se tiene
a x = 0 => a -1 (a x) = a-1 0 =>(a1 a ) x = 0 lx ~ 0 x = 0
1.3.4. El opuesto de cualquier escalar por un vector es igual al opuesto de su producto.
(--) x = - (a x)
Teniendo en cuenta A4, 1.3.1., la suma de opuestos en K y A8, es
( a x ) + a x = 0 = 0 x = (a + a) x = ( - a ) x + a x
De
( a) x +-e'X'= - ( a x) +jxjc
despus de cancelar, resulta
( - a) x = - (a x)
En particular se tiene
( 1) x = --(1 x) = - x
PROPIEDADES DE LOS ESPACIOS VECTORIALES 7
1.4. ESPACIO VECTORIAL DE FUNCIONES
El smbolo Kx denota el conjunto de todas las funciones con dominio un conjunto X # 0
y codominio un cuerpo K, o sea
Kx = { f / f : X - > K |
En Kx definimos la suma de funciones y el producto de escalares por funciones mediante
i ) Si f y g son dos elementos cualesquiera de Kx , entonces f + g : X -K es tal que
(f + g) (x) = f (*) + g (x) Vj c c X
ii) Si a es cualquier elemento de K y f es cualquier elemento de Kx , entonces
a f : X -> K es tal que
(a f) (x) = a f (x) V x e X
www.FreeLibros.com
www.FreeLibros.com
Tanto la suma de funciones con dominio X =0 y codominio K, como el producto de
escalares por funciones, se llaman leyes de composicin punto a punto.
Resulta (KX, + , K , . ) un espacio vectorial. Para ello, veamos que se verifican los
axiomas.
A( . f e Kx a g e Kx => f + g e Kx por la definicin i)
A2 .Sean f, g y h en Kx . Cualquiera que sea x e X se verifica, teniendo en cuenta la
definicin i) y la asociatividad de la suma en K:
( ( f + g) + h ) (x) = (f + g)(x) + h ( x ) = ( f ( x) + g ( x ) j + h (x) =
= f (x) 4- ( g (X) + h (x) J = f (x) + (g + h) (x) - ( f + (g + h) (x)
Y por definicin de funciones iguales resulta
(f + g) + h = f + (g + h)
A3 . El vector nulo es la funcin nula
e: X K definida por e (x) = 0 cualquiera que sea x e X .
Sea f e Kx . Teniendo en cuenta i), la definicin de e y la suma en K, es
(f + e) 0 ) = f (x) + e (x) = f (x) + 0 = f (x) .
Luego
f + e = f
Anlogamente se verifica que e + f - f.
A4 Inverso aditivo de f e Kx es la funcin - f : X -+ K definida por (~f) (x) = - f (x)
En efecto, para todo x e X se verifica
( - f + f) (x) = ( f) (x) + f (x) - - f (x) + f (x) = 0 = e (x)
O sea
( - f ) + f = e
Anlogamente se prueba que
f + ( - f ) = e
As . La suma en Kx es conmutativa, ya que
(f + g) O) = f ( x) + g (x) = g (x) + f (x) = (g + 0 (x)
Luego
f + g = g + f cualesquiera que sean f y g en Kx .
8 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
A 6 . a e K A f e K x => a f e K x p o r l a d e f i n i c i n i i ) .
A 7 . S e a n a e K , / 3 e K y f e K x .
www.FreeLibros.com
www.FreeLibros.com
Entonces
(a<JJf)) W = ( ( O W ) = ( p f ( x) ) = (a f l ) f ( j e ) = ( ( a f t j (x)
Luego
a(/3f) = (a/?)f
A8 . Considerando
a e K , 0 e K y f e K x es
(( + P) f j (*) = (a + p) f (x) = a f (x) + p f (X) =
= (a f) (jc) + (/i f) (x) = (a f + p f) (x)
en K ) i r " 3 tenend CUe,,ta i0 13 dS,ributiVdad ^ 13 asociatividad del producto
Entonces es
(a + |3)f = a f + 0f
A9 . Sean a e K, f e Kx y g e K x .
y 0 r2 e 0, distdbutividad del pr0duct0 resP de la suma en K y por las definiciones ii)
( (f+g)J (*) = <* ((f + g) W) = , ( f W + g W ) =
= a f W + g W = (oif) (A:) + (a g)(*) = (a f + a g ) w
O sea
a ( ? + g ) ~ a : f + a g
AI0 . Cualquiera que sea f en Kx se verifica
(lf)C*) = 1 f ( * ) = f(je)
Luego
1f = f
no Vedt0rial de laS funci0nes definidas 61
este espacio IZltZl ^ ^ C mP S1Cn PUn 3 P - Los
La figura siguiente explica la situacin en el caso particular en que K = R y X = [0,1 ]
ESPACIO VECTORIAL DE FUNCIONES <.
www.FreeLibros.com
www.FreeLibros.com
10 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
1.5. ESPACIO VECTORIAL DE -UPLAS DE ELEMENTOS DE K
Con relacin al espacio vectorial de funciones (Kx , +, K, .) consideremos el caso
particular en que X es el intervalo natural inicial I. Toda funcin f: ln -*f es una n-upla de
elementos de K, y escribiendo K1" = K" es (K", +, K , .) el espacio vectorial de las n-uplas de
elementos de K.
Las definiciones i) y ii) dadas en 1.4. se traducen aqu de la siguiente manera:
i ) Si f y g denotan elementos de K", entonces f + g es la funcin de 1 en K definida
por
(f + g) 0 f ( 0 + g ( 0 cualquiera que sea i e l
Es decir
ci = ( f + g) (0 = f (0 + g (0 = a + bi
donde au b y c son las imgenes de i dadas por f, g y f + g, respectivamente.
En consecuencia, dos n-uplas de elementos de K se suman componente a componente.
ii) Si o e K y f e K", entonces a f es la funcin de I en K definida por
(a f) (?) = a f (/) cualquiera que sea / e In.
Denotando mediante c,- la imagen de i dada por a f es
Ci = (a 0 (0 = oc f (/) = a a
www.FreeLibros.com
www.FreeLibros.com
Es decir, el producto de un elemento de K por una n-upla se realiza multiplicando en K a
dicho elemento por cada componente de la n-upla.
En particular (K, +, K , .) es el espacio vectorial donde los vectores se identifican con los
elementos del cuerpo K. En este caso, la ley de composicin externa es interna.
En consecuencia, (R, +, R , .) es el espacio vectorial de los nmeros reales sobre el cuerpo
de los reales. Este es un caso particular del espacio vectorial de las n-uplas de nmeros reales
sobre el cuerpo de los reales, que denotamos mediante (Rn, +, R , .).
(C", +, C , .) es el espacio vectorial de las n-uplas de nmeros complejos sobre el cuerpo de
los complejos.
ESPACIOS DE N-UPLAS Y DE MATRICES j x
1.6. ESPACIO VECTORIAL DE MATRICES n x m
Particularizando nuevamente con relacin al espacio vectorial tratado en 1.4., considere
mos X = I X l m, o sea, el producto cartesiano de los dos intervalos naturales iniciales: e
Im
Llamamos matriz n x m con elementos en K a toda funcin
La imagen del elemento ( / , /) perteneciente al dominio se denota por aj.
La matriz f queda caracterizada por el conjunto de las imgenes
11 12 . . . aXm
22 a2m
www.FreeLibros.com
www.FreeLibros.com
12
ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
y suele escribirse como un cuadro de n.m elementos de K dispuestos en n Iilas y m columnas.
En cada fila o rengln se escriben las imgenes de todos los pares ordenados que tienen la
misma primera componente, y en cada columna se anotan las imgenes de todos los pares
ordenados que tienen la misma segunda componente. El elemento de la matriz que figura en
la fila i y en la columna j se denota por aj, y es la imagen dada por f, del par (i, /). Llamando
A a la matriz cuyo elemento genrico es ay, escribiremos
11 12 13
21 22 23
A =
i,
l 2m
n i n 2 a n3
Tanto las filas como las columnas de A se llaman lneas de la matriz.
Abreviando, puede escribirse
A = (aj ) donde / = 1, 2 , . . . , n y / = 1, 2 , . . m
El conjunto de todas las matrices n x m con elementos en K. es K!XIm y se denota
mediante KnXm.
Las definiciones i) y ii) dadas en 1.4, se traducen aqu de la siguiente manera: si A y B son
dos matrices de K x m , su suma es C e K" x m, tal que
cj = (f + g) (i, j) = f (/,/) + g (/, /) = au + bj
y el producto del escalar a e K por la matriz A es la matriz de Kn x m cuyo elemento genrico
cu es tal que
ci = (a f) ( i , J) = a f (/ , f ) ~ a au
O sea, dos matrices del tipo n x m se suman elemento a elemento; y para multiplicar un
escalar por una matriz n x m se multiplica dicho escalar por todos los elementos de la matriz.
La cuaterna (KnXm, + , K , .) denota el espacio vectorial de las matrices nx m con
elementos en K. En este espacio, los vectores son matrices.
En particular ( KnXn, +, K , .) es el espacio vectorial de las matrices cuadradas, es decir,
de n filas y n columnas.
El vector nulo del espacio K" x m se llama matriz nula; la denotaremos mediante N, y est
definida por y = 0 V i V /.
La matriz inversa aditiva u opuesta de A = (aj ) es B, cuyo elemento genrico satisface la
relacin b = -aj. Escribiremos B = A.
Por definicin de funciones iguales resulta A = B si y slo si aj = bj V/ V /.
www.FreeLibros.com
www.FreeLibros.com
ESPACIO DE SUCESIONES
13
Ejemplo 1-4.
En R2 x 3 se consideran las matrices A y B cuyos elementos genricos son a a = 2i - j y
j .j =1 i2. Obtenemos C = A 2B.
La expresin de C es C = A + ( 2)B, y como
1 0 - 1
3 2 1 /
resulta
1 0 - 1
C =
+
B =
1.7. ESPACIO VECTORIAL DE SUCESIONES
Sean: X = N y KN el conjunto de todas las funciones de N en K. Los elementos de KN
son todas las sucesiones de elementos de K, y retomando lo expuesto en 1.4. resulta
(Kn , +, K, .) un espacio vectorial.
Las definiciones i) y ii) de 1.4. se interpretan ahora de la siguiente manera:
Ci = (f + g) (0 = f (0 + g (0 = + bi V i e N
c = (a f) (/) = a f (i) = a a Vi e N
O sea
(j, a2, + (i, b2, bn, . . .) = (fli + b i, a2 + b2, . . an .)
a (fl|, a2, at . . .) = ( aai , cta2, ocaUi . . .)
El vector nulo es la sucesin
0 = ( 0 , 0 , . . . , 0, . . .)
Ejemplo 1-5
Sea R [X] el conjunto de los polinomios reales en la indeterminada X. La suma en
R [X] se define como en 12.2.2., Algebra 1, del mismo autor. El producto de escalares
www.FreeLibros.com
www.FreeLibros.com
14
ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
reales por polinomios es el habitual, o sea si cxeK y PeRuX, entonces a P es la
Iuncion de N0 en R deIinida por (ccP) (i) =a P (i), cualquiera que sea i e N0.
Res ta (R u X,, R , .) el espacio vectorial de los polinomios reales en la indetermina
da X sobre el cuerpo de los numeros reales.
El conjunto de los polinomios reales de grado 2 no es un espacio vectorial sobre el
cuerpo de los reales, porque la suma no es una ley de composicin interna en dicho
conjunto. Pero el conjunto de los polinomios reales de grado menor o igual que 2 y el
polinomio nulo constituye un espacio vectorial sobre R.
Ejemplo 1-6
Sea S el conjunto de las funciones reales definidas en [0,1 ] tales que f (0) = 0, es decir
S = f : [ 0 , l ] ^ R / f ( 0 ) = 0j
Como todo elemento de S pertenece a Rf0,1 es S C Rl0-1)
Considerando las leyes de composicin definidas en 1.4., se verifican
A, feSAges^f(0)=OAg(0)=0=f(0) + g(0)=c^(f + g)(o) = o=f + geS
www.FreeLibros.com
www.FreeLibros.com
SUBESPACIOS
15
A2 Como la suma de funciones es asociativa en R]0,1' , tambin lo es en S.
A3 . La funcin nula es el vector nulo de S.
A4 . Todo elemento de S admite un opuesto en S.
Si f e S, entonces f e S, pues (f) (0) = f (0) = 0.
As . Cualesquiera que sean f y g en S, se tiene
f+ g = g + f
pues S C R^0,1 ^
A6 a e R a f e S ^ a e R a f ( 0 ) = 0 =>a f ( 0 ) = 0=>( af ) ( 0) = 0=ot f eS
Los restantes axiomas, lo mismo que A2 y A5, por ser identidades en Rl a se
cumplen en S ya que S C R^01 J.
En consecuencia, (S, +, R , .) es un espacio vectorial.
1.8. SUBESPACIOS
1.8.1. Concepto
Dados el espacio vectorial (V, +, K , .) y el conjunto no vaco S C V, si S es un espacio
vectorial sobre el mismo cuerpo K y con las mismas leyes de composicin que en V, diremos
que (S, +, K , .) es un subespacio de (V, +, K , .), o simplemente, que S es UI? subespacio de
V.
Definicin
S es un subespacio de (V, +, K , .) si y slo si (S, +, K, .) es un espacio vectorial.
Cualquiera que sea (V, +, K , .), tanto V como j 0} son subespacios de V, llamados
triviales.
Ejemplo 1'7
Consideremos el espacio vectorial (R2, +, R , .) y los subconjuntos
T = (x, y ) e R2 i y =x + 1 S = {(x, y ) e R2 f y = 2 x )
T no es un subespacio, pues el vector nulo (0,0) T.
En cambio, S es un subespacio de R2, ya que
1 (S, +) es un subgrupo de (R2, +). En efecto, de acuerdo con la condicin suficiente
demostrada en 8.4.2., Algebra I , del mismo autor.se verifica
( x , y ) e S a ( x , y r) e S ^ y = 2x a y =2 x ^ y - y = 2 ( x -*)=>
(x - x \ y - y 1) e S => (x, y) + ( - x -y*) e S
www.FreeLibros.com
www.FreeLibros.com
16 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
2o Respecto de la ley de composicion externa consideramos
Los axiomas A,, A , , A, y A, , por ser igualdades en R2, se cumplen en S ya que
S C R
De la deIinicion se deduce que (S, , K , .) es un subespacio de (V, , K, .) si y solo si
(S, ) es un subgrupo de (V, ) y S es cerrado para el producto por escalares.
1.8.2. Condicion suIiciente
e n t L l T s ` K n` Co ` V Cr v o Para la SUma y Para 61 Pr 0duct0 P0r e s c a l a r c s .
entonces (a, T , K , .) es un subespacio de (V, , K , .).
Hipotesis) (V, , K , .) es un espacio vectorial
` S C V
1 . x e S a y eS~x y e S
2. o e K a x e S ~ a x e S
Tesis) (S, , K , .) es un subespacio de (V, , K , .)
Demostracion)
1o Consideremos dos vectores cualesquiera x e y en S. De acuerdo con la condicion 2 de
la hipotesis, por 1.3.4. y por la condicion 1. de la hipotesis,se tiene
www.FreeLibros.com
www.FreeLibros.com
SUBESPACIOS
x e S Ay e S ~ x e S A ( - l ) y e S ` x e S A - y e S ~ x ( - y ) e S
En consecuencia,(S, ) es un subgrupo de (V, ).
T S es cerrado para el producto por escalares, de acuerdo con la condicion 2 de la
hipotesis.
La aplicacion del teorema demostrado es esencial para determinar si un conjunto S es un
subespacio de (V, , K, .). Para que lo sea, deben veriIicarse las condiciones que Iiguran en la
hipotesis del mismo, a saber:
1. S =f=4>
2. S C V
3. x e S Ay e S~ x y eS
4 . a e K A x e S z a x e S
Estas condiciones son, ademas, necesarias. Es decir, sabiendo que S es un subespacio son
proposiciones verdaderas.
Ejemplo 1-8
Sean: el espacio vectorial (R3, , R , .), y el conjunto S de las ternas ordenadas de R
tales que la tercera componente es igual a la suma de las dos primeras.
O sea
S= { ( x ^ ^ ^ e R 3 l x z = *i + *2 f
AIirmamos que S es un subespacio de R3, pues
1. (1, 2, 3) e S ~ S 0
2. S C R3 por la deIinicion de S.
3. (x, X 2 , X 3 ) eS A O i , ` 2, ` 3) e S = > X 3 = X t + X 2 A y 3 - y l + y 2
`3 ` 3 =(*1 Vl ) (*2 7 2 ) ~0Cl + y 1 , X 2 + y 2, X 3 J 3) e S~
` ( x II x 2, x 3) + ( yl t y 2, y 3) e S
Hemos aplicado sucesivamente: la deIinicion de S, la adicion en R, la deIinicion de S y
la deIinicion de suma de ternas.
4. a e R a (xj , x 2l x 3) e S ` a e R a x j a: 1 + x 2 =>
^ a x 3 + ot x2 :* ( o i x 1, a x 2, a x 3) eS=*oc( xl , x 2, x 3) e $
Por deIinicion de S, multiplicacion en R, deIinicion de S y la deIinicion de producto
de escalares por ternas.
Al subespacio S pertenecen las ternas {xx, x 2, x 3) e R3 que satisIacen la condicion
x \ + x 2 - x 3 = 0
Esta ecuacion deIine un plano que pasa por el origen.
17
www.FreeLibros.com
www.FreeLibros.com
18 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
Ejemplo 1-9
Considerando el espacio vectorial de las Iunciones reales deIinidas en u0 11 aue
denotamos mediante (R , , R, .), sean los subconjuntos
1. S I e RVq(0 ) 0 )
2. S I e RVqtO) 1
I l e\ CT tiene Un subesPacio de Rl. como Iue tratado en detalle en el eiemolo
1-6. Independientemente del analisis realizado en el ejemplo citado se Uw a I
misma conclusion aplicando el teorema demostrado, pero en Iorma masstaple
En cuanto al caso 2., S no es un subespacio, pues no es cerrado mra l i p
eIecto, las Iunciones I y g de I en R deIinidas por P a a SUma E
I(r) j s l g( `) x2 1
satisIacen las condiciones
I ( o ) l g(0) 1
o sea, son elementos de S. Pero la suma I g esta deIinida por
( I g) (x) = f(x) g( x ) =x 2 + x 2
y no pertenece a S, ya que
(I g)(0) 2
Ejemplo 1-10
Dado el espacio vectorial (R4, , R , .) consideramos
S- j ( x l t x 2, x 3, * 4) e R 4/x1 + x 2 + x 3 + x 4 = 1 j
Se veriIica que
1. pues (1, 0,0, 0 ) e S
2. S C R4 por la deIinicion de S
3. S 110 es cerrado para la suma ya que
(1, 1 , - 1 , 0 ) e S a (I, 1, - 1 , 0) e S pero
(1, 1, 1, 0) +(1, 1, 1, o) = (2, 2, 2, 0)^S
s V e ` o h ! T i a S no 68 Un SUbeSpacio- Por otri~porte, el vector nulo no pertenece a
y esto basta para que no sea un subespacio. Ienece a
Ejemplo 1-11.
cdumnas R o ^ ` z t o matdCeS CUadradas Iilas y
www.FreeLibros.com
www.FreeLibros.com
SUBESPACIOS 19
Si A e R zn escribimos
A
au an
21 22
ln \
a 2 n
\&n 1 nn
Por deIinicion, traza .de una matriz cuadrada es la suma de los elementos de su
diagonal. La notacion es
tr
El conjunto
A a n u22 . . . ann - 2` ati
S ( A e R nx q Ir A 0
es el conjunto de las matrices de traza nula de R nxn, y constituye un subespacio, pues
se veriIica:
1. S 0, pues la matriz nula N es de traza nula, y en consecuencia es un elemento
de S.
2. S e Rnx por deIinicion de S.
3. S es cerrado para la adicion.
Sean A y B dos matrices cualesquiera de S. Entonces
n n
A e S A B e S =>t r A = 0/ \ t r B = 0=>'E aH= 0 a 2 b = 0 ~
i - 1 (=1
wi a i bu = 0 (a + bu) = 0=>
ii i ii
~tr (A B) 0 ~ A B e S
4. S es cerrado para el producto por escalares. En eIecto
n
a e R A Ae S ~a e RAi i - A 0~a e R A 2 it- 0~
ii
n n
~ a 2 a a - 0 S a ai = 0 z~tr (a A) 0 z a A e S
i = l i 1
Ejemplo 1-12.
Consideremos S j ( x u x 2) e R2qz i > x 2 e investiguemos si S es un subespacio de
( R2, ~ R, .)
Se ve de inmediato que no se veriIica A4, pues no todo elemento de S admite
opuesto en S. Asi
(0, - l ) e S p e r o (0, 1) S
www.FreeLibros.com
www.FreeLibros.com
Analizando la situacion en terminos de la condicion suIiciente demostrada, se veriIica:
1. S * f )
2. S C R 2
3. S es cerrado para la suma.
Oi , x2)eSAOi , ^2)eS=>xl > x 2/ \ y x > y 2=*
^*1 + y i > x 2+ y 2 * ( Xl + y i ! x 2+ y 2 ) e s = > ( x i , x 2) + ( yl t y 2 ) e s
p t a o Cerrado Pari~ d Pro dUCt0 Po r eSC!areS C0m0 Io ` siguiente
(2,1) e S A(-2) (2,1) ( 4, -2) j `S
En consecuencia, S no es un subespacio de R2.
~ ESTRUCTURA DE l-SPACIO VECTORIAL. SUBESPACIOS
t z2
1.9. OPERACIONES CON SUBESPACIOS
1.9.1. Interseccion de subespacios
Sea I S, x con i e l una Iamilia de subespacios de (V, , K, .). Denotaremos con S la
interseccion de dicha Iamilia, o sea, S .H S,. Resulta S un subespacio de V.
ir. Tetoiela`1s a l e c c i o n de toda Iamilia de subespacios de V, es un subespacio de V
Hipotesis) (V, , K, .) es un espacio vectorial
( SI ) con i e I es una Iamilia de subespacios de V
www.FreeLibros.com
www.FreeLibros.com
INTERSECCION DE SUBESPACIOS
21
Tesis) S . j S,- es un subespacio de V.
Demostracion) De acuerdo con la condicion suIiciente 1.8.2. se veriIica
1. S no es vacio, pues
0 e S , Vi e I ~ 0 e H s
=>
e l
r i o
i e l 1 r r
Por ser cada SI un subespacio y por deIinicion de interseccion.
2. S esta incluido en V, ya que
sfcv,v/ei=> sfcv=>scv
16 I
Por ser cada S, un subespacio de V y porque la interseccion de toda Iamilia de
subconjuntos de V es una parte de este.
3. S es cerrado para la suma. En eIecto
x e S A y e S ` x e ~ l s , Ay e i l S q ~
el i el
n s, A y en
el 7 i el
=>X S a y e Si , Vi e I ~ x y e S, Vi e I ~
` x y e P s ` x y e S
i e l
Por deIinicion de interseccion, y porque todo S es un subespacio.
4. S es cerrado para el producto por escalares.
Consideremos ex e K y x e S. Ahora bien
a e K A x e S z a e K A x e I i s z
el 1
=>a e K a x e S , Vq e I =>a x e SI , Vq e I z
^ a x e H s . - ` a x e S
i el
Ejemplo 1-13
En (R3, , R , .) consideramos los subespacios
Si j ( x , , x 2i x 3) e R 3qx3 0 j S2 j ( xI l x 2l x 3) e R 3q x I0
La interseccion de estos es
S Si n S2 j (Xx, x 2, x 3) e R 3/ xi = 0 a x 3 0
www.FreeLibros.com
www.FreeLibros.com
22 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
Esto signiIica que un vector generico de S es una terna del tipo ( 0, x2, 0) que puede
expresarse mediante (0, a, 0) para algun ol en R.
Entonces
S ((0, a, 0) e R3 qa e R )
O sea, S es el eje x 2
Subespacios de R3 son: R3, 0 , todas las rectas que pasan por el origen y todos los
planos que pasan por dicho punto. Dos rectas distintas que pasan por e! origen son
subespacios cuya interseccion es el vector nulo, y se llaman disjuntos.
1.9.2. Union de subespacios
Si Si y S2 son dos subespacios de (V, , K , .), entonces Si U S2, no es necesariamente un
subespacio de V, como lo prueba el siguiente ejemplo:
Consideremos en (R2, , R , .) los subespacios Sj y S2 de la Iigura
www.FreeLibros.com
www.FreeLibros.com
La union de ambos es el par de rectas, y eligiendo x e S, , y e S2, distintos del vector nulo,
se tiene
x e S j ~xeS! US 2
y e S 2 ~y e Si u s 2
pero
x y q S ! U S2
1.9.3. Suma de subespacios
Sean Si y S2 dos subespacios de (V, , K , .). DeIinimos el conjunto
S ( x e V q x xj + x2 axi e Si a x2 e S2 1
O sea
S x x e V q 3 x 1 e S 1A 3 x 2 e S 2 Ax x! x 2)
El conjunto S se llama suma de los subespacios St y S2 y se indica
x S S1 S 2
j Teorema. La suma de dos subespacios de V es un subespacio de V.
! Hipotesis) Sj y S2 son dos subespacios de (V, , K , .)
S S ! S 2
Tesis) (S, , K , .) es un subespacio de (V, , K , . )
Demostracion) Se veriIican las condiciones expuestas en 1.8.2., a saber
1. S es no vacio, pues
Oe Si A 0 e S 2 ` 0 0 0 e S i S2 ~0eS
2. S es una parte de V, por la deIinicion de S.
3. S es cerrado para la suma, ya que
eSA es=* = A = A eSAo.o eS 2=
` x y (Xl y , ) (x2 y 2)AXt y i e Si a x2 y2 6 S2 z
=*x + y eS
4. S es cerrado para el producto por escalares, porque
a e K A x e S i~a e KAx x 1 + x2 axi e S j Ax 2 e S 2 ~
~ :x a!x, a x 2AI t x1 e S l Aa x 2 e S2 ~a x e S
Por consiguiente, la suma de subespacios es un subespacio.
Un caso particular importante se presenta cuando los subespacios Si y S2 son disjuntos,
es decir, si Sj n S2 0 j . En esta situacion, el subespacio S Sj S2 recibe el nombre de
suma directa de Si y S2, y se utiliza la notacion
S S, S2
SUMA DE SUBESPACIOS 23
www.FreeLibros.com
www.FreeLibros.com
Sintetizamos esto en la siguiente deIinicion
s s j s2 ` S S! s 2 a Si n s 2 I o
24 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
Ejemplo 1-14
Consideremos primero los subespacios de R3
S , = ( a , 3, 0) / a RA( J c R | S2 = j( 0 , 0 ", y ) / r eR a t eR )
El subespacio suma S Si S2 esta Iormado por todas las ternas del tipo
(a, 0 y) = (<*,(}, y)
y es R3. Ambos subespacios son los planos indicados en la Iigura, y como su
interseccion es el eje x 2, la suma S S, S2 R3 no es directa.
En cambio, si
St H ( t t , 0 , 0 ) q a e R u y S2 j (0 J , O)/0e R )
se tiene
S S, S2 0)qa e RAq3e R )
O sea, la suma es directa y se identiIica con el plano horizontal
www.FreeLibros.com
www.FreeLibros.com
OPERACIONES ENTRE SUBESPACIOS
25
Extendemos la deIinicion de suma de subespacios al caso en que n ~ 2.
Definicin
Suma de los subespacios S j , S2, . . Sn de (V, , K , .) es el conjunto
S 2 S ( x e Vqx S xax eS, ( Vq 1, 2 , . . n)
n
Resulta S 2 S un subespacio de (V, , K , .).
Ademas, si tales subespacios son disjuntos dos a dos, o sea
i ` q ` s , - nSj = o
entonces diremos que S es la suma directa de ellos, y escribiremos
S SX S2 . . . Sz
Ejemplo 1-15
Sean S, T y U subespacios de (V, , K , .), tales que T CS . Entonces se veriIica que
s n ( T u ) T ( s n u )
I o. x e S n ( T U) ~x e SAx e T U~
www.FreeLibros.com
www.FreeLibros.com
ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS
z xe SAx x 1 -I-XjAXi e TAx2 eUw
`(xi x2 e SAX eS) a x2 e U a Xi e T ~
` Xj T a x 2 e SAx2 eU~
~ x t e Ta x2 e S n U xi x 2 e T (S n U)
~xe T ( S n U)
O sea
s n ( T u ) c T ( s n u ) ( i )
2o. x e T (S n U) ~ x xj x2Ax t c T a x 2 e S n u ~
` X! e TAx 2 6S a x 2 e U ~
~xj e TAx! c S a x 2 e SAx2 eU~
zXi x 2 eSAX! x 2 e T U~
~ x , x a e S n ( T l J ) ~ x e S n ( T U)
Luego
T (S O U) C S n (T U) (2)
De (1) y (2) resulta la igualdad.
www.FreeLibros.com
www.FreeLibros.com
f
I
TRABAJO PRACTICO I
1-16. Determinar si las cuaternas que se indican denotan espacios vectoriales con las
operaciones que se indican
i ) (R, +, Q , .) i) (Q} + j R )
i i ) ( , , , .) iv) (R, , Z , .)
1-17. Sea (V, , K , .) un espacio vectorial. Demostrar
i ) x y 0 ~ y x i ) x +ay x a z y ` 0 ` y z
i i ) x y x~y 0 iv) ax bx y x ^0 b
1-18. Determinar ct sabiendo que y ` 0 y que
(1 - a ) x a ( x y) x y
1'19. Considerando V Rr , o sea, el conjunto de las Iunciones reales con una variable real,
y K R, investigar si son espacios vectoriales sobre R:
i ) El conjunto de las Iunciones continuas,
i i ) El conjunto de las Iunciones derivables.
i ) El conjunto de las Iunciones pares, o sea, las Iunciones f e R R tales que
I 0 0 I ( - x) .
iv) El conjunto de las Iunciones impares, es decir, las aplicaciones I c R R que
veriIican I (x) I ( - x) .
v ) El conjunto de las Iunciones constantes,
vi) El conjunto de las Iunciones no negativas.
1-20. Sean V R2 y K R. Determinar si las siguientes operaciones deIinen sobre V una
estructura de espacio vectorial.
( a, b ) + (a , b ,) = ( l a + l a l } + l f })
2 2 2 2 '
oc ( a , b) ~ (ota, ab)
1-21. Determinar si (C2, , C , .) es un espacio vectorial, deIiniendo
( z , , z 2) + ( z l r z 2) ^ ( z 1 + z l t z 2 + z 2)
z ( z i , z 2) = ( z z l , z z 2)
www.FreeLibros.com
www.FreeLibros.com
1-22. Considerando el espacio vectorial (R3, , R , .), investigar si los siguientes conjuntos
son subespacios de R3
i ) S= ( ( x1, x 2I x 3) e R 3q x 1+ x 3 = 0 J
i i ) S ( ( x 1, X2, x3) e R 3q i x 1 1 1`2 l)
iii) S x ( x 1( x 2, x 3) e R 3qx 3 Xi 2 )
1-23. Sea el espacio vectorial ( R , , R , .). Determinar si los siguientes conjuntos son
subespacios de R
i ) S ((Xi, x 2, . - - x n) e K n xn e Z \
n
ii) S ( ( xi , x2, .. x ) e R ` S i X i ^ O A a i eR
1-24. Demostrar que S (z , w) e C2qz iw es un subespacio de (C2, , C , ,).
1-25. Sean C2 y S x( z, w) e C2qz - z w 0 . Determinar si son subespacios (S, , C, .)
y ( S, , R , .).
1-26. Sean S y T subespacios de (V, , K , .). En el producto cartesiano S X T se deIinen
(x , y) (xz , y ) (x x , y y)
<x(x , y) (ax , ay)
Demostrar que ( S X T , , K , .) es un espacio vectorial. El espacio SXT se llama
producto directo de S por T.
1-27. (R x , , R , .) denota el espacio vectorial de las matrices reales n x n.
Por deIinicion, la matriz A e Rnx n se llama triangular superior si y solo si
i > j ~aj = 0
Demostrar que ( S , , R , .) es un subespacio de Rnx , siendo S el conjunto de las
matrices triangulares superiores.
1-28. Dado (R2, , R , .), determinar si los siguientes subconjuntos son subespacios
0 S - ( ( x , ^ ) / ( x - ^ ) 2 = ( x + ^ ) 2 )
ii) T( ( x , y ) / - ^ x + y = x ~ ^ y \
1'29. Considerando (C2, , R , .) el espacio vectorial de los pares ordenados de numeros
complejos sobre el cuerpo de los reales, investigar si los siguientes conjuntos son
subespacios del mismo.
1 ) S j (z , u) e C2qz 2 u 2 0 J
i i ) S x (z , u) e C2z + 2 e R x
iii) S (z , u) e C2/ Re (z) Re ( ))
iv) S J (z , u) e C2 q Im (z) 0 a Re (z - u) = Im (z) I
E T CTURA DE ESPACIO VECTORIAL. SUBESPACIOS
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO I
29
v ) S j ( z , i q ) e C2qz u x
vi) S I (z , u) e C2 q m (z) - qm ( ) 0)
1-30. Sean S, T y U subespacios de (V, , K, .) Demostrar
i ) S T T S .
i i ) S (T U) (S T) U.
iii) S C S T .
1-31. Demostrar que si el subespacio S de (V, , K , .) es la suma directa de los subespacios
Si y S2, entonces todo vector de S puede expresarse de modo unico como la suma de
un vector de St y uno de S2.
1-32. Sean ( Rnxn, , R , .) y los subconjuntos
S A e R nKn VqVq)
T 1 A e R,,Xil I a = - a Jt Vi Vs )
Por deIinicion, los elementos de S se llaman matrices simetricas, y los de T se llaman
matrices antisimetricas.
Demostrar
I o. S y T son subespacios de R xrz
2o. R X S T
www.FreeLibros.com
www.FreeLibros.com
Capitulo 2
DEPENDENCIA E INDEPENDENCIA LINEAL,
BASE Y DIMENSION
2.1. INTRODUCCION
En esta unidad introducimos las deIiniciones de combinacion lineal de un conjunto no
vacio de un espado vectorial y de subespacio generado por el mismo. Se estudian la
dependencia e independencia lineal y los sistemas de generadores, a Iin de caracterizar los
conceptos de base y de dimension en el caso Iinito.
2.2. COMBINACIONES LINEALES
2.2.1. Concepto
A ` Vr, V2 - s v j una Iamilia 0 conjunto de vectores del e spacio i V K 1
r e : t z
Definicin
Combinacion lineal de la Iamilia A C V es todo vector del tipo
n
. 2 a , Vl + 2 v2 . . . tt vn I oc g K. a v c A
o b t t e P r n u l o So n nUlo S h Combi aCi z ~ tri vial y se
Definicin
El vector v e V es combinacion lineal de la Iamilia A c V si y solo si exist ,
vzi, vz2 , . . tales que y ten escalares
www.FreeLibros.com
www.FreeLibros.com
COMBINACIONES LINEALES 31
Ejemplo 2-1.
Sean los vectores v, ( - 1 , 0, 2) y v2 ( - 1 , 2 , 4 ) en R3. Determinamos si los vectores
v ( - 1 , 1, 3) y u - (1, 2, 2) son combinacion lineal de Vj y v2.
1. Para que v sea combinacion lineal de vt y v2 deben existir escalares oi y a 2 tales
que
i V! a2 v2 v
O sea
a , ( - 1 , 0 , 2) o2 ( - 1 , 2 , 4 ) (1, 1, 3)
Por deIinicion de ley externa es
( - a j , 0, 2 ) ( - a 2, 2aa , 4aa) - ( - 1 , -1,3)
Por suma de ternas
(-(z! - 0:2 , 20:2 , 20!! 4ota) ( - l , 1, 3)
Por igualdad de temas resulta
Oi ! C2 1
2 0*2 = 1
2a i + 4 a 2 = 3
Entonces
01 + q2 = 1
1
ct2 - -
a t + 2 o ^ = -
Sustituyendo a2 en la primera ecuacion, se tiene
. 1 1
Oj + - = 1 =* 0 t i =
2 . 2
Como ambos valores a , y a7 satisIacen la tercera relacion es v v 1 v2.
2 2 2 2
O sea, v puede expresarse como combinacion lineal unica de Vj y v2.
2. Si u (1, 2, 2), entonces procediendo analogamente se llega a
www.FreeLibros.com
www.FreeLibros.com
9 DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
- Ci! - 0i2 =l
2 vz2 2 o bien
2ui 4<2 = 2
Oi! 0i2 - - 1
a2 = 1
O! 2vz2 1
De donde
0i2 - 1 ~-0!, 1 - 1 ~ o! - 2
Al sustituir en la tercera ecuacion
- 2 2 . 1 0 ` 1
Entonces u no es combinacion lineal de Vi y v2.
Ejemplo 2-2.
En el espacio vectorial de las Iunciones reales de una variable real (Rr , , R , .) sean las
Iunciones I y g deIinidas por
I ( 0 ei y g ( 0 e3i
Determinar todas las combinaciones lineales, es decir, los escalares a y b, tales que
a i + ~g 0
donde 0 denota la Iuncion nula, deIinida por 0 (i) 0 , V t R.
Por deIinicion de Iunciones iguales, suma de Iunciones y producto de escalares por
Iunciones (vease 1.4.) se tiene
El proposito es obtener los escalares a y b que satisIagan a (1) para todo t e R.
Derivando (1) se tiene
En consecuencia es a 0.
Luego, la unica combinacion lineal de I y g que da la Iuncion nula es la trivial. Toda vez
que esto ocurra, diremos que los vectores, en este caso I y g, son linealmente
independientes.
a I ( ) b g (I) 0 cualquiera que sea t e R
O sea
aet + b e ^ t = 0 (1)
Y como e3i nunca es cero, resulta b 0, que sustituido en (1) nos da
a e = 0
www.FreeLibros.com
www.FreeLibros.com
COMBINACIONES LINEALES 33
Ejemplo 2-3-1.
Decidimos si el vector v (1, 2 , 3 ) es combinacion lineal de la Iamilia cuyos elementos
son los vectores de R3 ,
Vl ( 1 , 0 , - 1 ) va ( 0 , 1 , - 1 ) v3 ( 1 , 1, 2)
Investigamos si existen escalares reales a , b y c , tales que
a Vi + / j v2 + cv3 = v
Entonces, debe ser
a (1 , 0 , 1) (0, i , 1) c (1, 1, 2) ( 1 , 2 , 3 )
EIectuando operaciones
(a, 0, - a ) (0, b, - b ) (c, ct - 2 c ) (1 , 2 , 3)
(a c, b + c, ~a - It- 2 c ) - ( l , 2,3)
Por igualdad de ternas es
a c - 1
b + c = 2
a b - 2 c 3
Sumando las tres relaciones se tiene
0 = 6
lo que es imposible.
En consecuencia, v no es combinacion lineal de Vi , v2, y v3.
Ejemplo 2-3-2.
En el espacio vectorial (R2X2, , R , .) se consideran las matrices
Determinar todas las combinaciones lineales de A, B y C que den la matriz nula N.
Hay que obtener a, 0 y y en R, tales que
a A 0 B 7 C N
www.FreeLibros.com
www.FreeLibros.com
34 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
Por producto de escalares por matrices es
W ) + / . u
0 a ) \ 0 0 / \ y y ) [ Q q
Por suma en R2z 2 se tiene
/ < * + 0 0 \ / o 0 \
0 7 a + y ) 0 0 q
Por igualdad de matrices resulta
a + 0 = 0
0 + 7 = 0
oc y = 0
De las dos primeras se deduce
Sustituyendo en la tercera es
O sea
f = _ 0 y <y = _ 0
- 2 0 = 0
0 0
Luego a 0 7 Oy l a unica combinacion lineal que satisIace la relacion propuesta es
la trivial. v
2.3. SUBESPACIO GENERADO
2.3.1. Conjunto de combinaciones lineales
Sea A un conjunto no vacio de vectores del espacio (V, , K , .). A expensas de A
podemos Iormar el subconjunto de V cuyos elementos sean todas las combinaciones lineales
de los vectores de A. A este conjunto lo denotaremos con el simbolo A, que se lee A raya
Si A Vi, v2, . . v , entonces escribiremos
^ = (i ?i a vz q i e K A vi e A )
Ejemplo 2-4.
El conjunto de todas las combinaciones lineales de los vectores
v, ( 1, 0, 1) y v2 ( 0, 1, l ) d e R 3
www.FreeLibros.com
www.FreeLibros.com
E CIO GENERADO 35
es
i ( 1, 0, 1) o2 ( 0 , 1 , l ) q z ! e RA(z2 e R
O sea
j ( aj , ot a, ! vz2) qvzi c R a a2 e R x
En consecuencia, a A pertenecen todas las temas cuya tercera componente es la suma
de las dos primeras.
Podemos escribir
A ) (xi, x 2, x 3) e R3 1 x 3 Xi + x 2 )
2.3.2. Subespacio generado por una familia de vectores
Teorema. El conjunto de las combinaciones lineales de toda Iamilia no vacia de un
espacio vectorial es un subespacio del mismo.
Hipotesis) (V, , K , .) es un espacio vectorial
A ( vi, va, .,v C V
Tesis) (A, , K , .) es un subespacio de V
Demostracion)
1. Siendo Vi = 1 vt 0 v2 + . . . + 0 v se deduce que Vi e A, o sea, A 0
2. Por deIinicion, se tiene
_ n
v e A =>3 a t , <x2, . . e K q v 2 a v a v e A =>
ii
n
~ v .2` a v a dj e K a v e V, pues A C V
Luego
v e ` v e V
O sea
A C V
3. A es cerrado para la suma.
Sean v y u en A.
www.FreeLibros.com
www.FreeLibros.com
9
4. A es cerrado para el producto por escalares.
Sean a e K y v e A.
a e K A v e A ~ a e K A v 2 a, v- ~
ii 1
DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
vzq v, 2 a (a, v,) 2 (a a I) v, 0, v, wa v e
Como se cumplen las hipotesis del teorema 1.8.2., resulta (A, , K , .), un subespacio de
1 5i , IV,
Definicin
El subespacio de las combinaciones lineales de la Iamilia no vacia A C V se llama
subespacio generado por A.
Ejemplo 2-5.
Determinar el subespacio de (R3, , R ,.) generado por la Iamilia A cuyos elementos
son los vectores
v, ( 2 , 1 , 2 ) y v2 ( 1 , 2, 1)
Por deIinicion, el subespacio A es el conjunto de las temas {xu x 2, x 3) e R3 tales que
( x i , x 2l x 3) = a 1 (2, 1, 2) 2 ( 1, 2, 1)
(2 , i , 2a!) (a2i 2a2, a 2)
(2 a, a2( a, 2a2, 2a t a 2)
Por igualdad de ternas es
2 aj a 2 = x t
ai 2a2 ~ x 2
2 a j a 2 = x 3
De la primera y tercera relacion se deduce
x i = x 3
y x 2 es cualquier numero real.
En consecuencia
A - ( x l , x 2, x 1) / x l e R A x , e R
A es el plano de ecuacion
x, - x* 0
www.FreeLibros.com
www.FreeLibros.com
SUBESPACIO GENERADO
Ejemplo 2-6.
Obtener el subespacio de .) generado por las matrices
1 0 q O I
s o ) s ( 0 0
V,
0 0
1 0
A x o V q o e K a V,- e A )
qi
Todo vector de A es una matriz I ` I ta`1ue
1 0
0 1 0 0
0)1 o - i / + 2l o o / +3U 0,
a b
c d
Realizando operaciones en es
www.FreeLibros.com
www.FreeLibros.com
En consecuencia
- a , oc2 =b , a3 = c , - a , - d
Luego
d - a y b y c
son numeros reales cualesquiera.
Los vectores de A son matrices del tipo
( : . * )
Es decir, es el subespacio de matrices de traza n ula.
.9 .9 . I
El subespacio generado por una Iamilia no vacia de un espacio vectorial es la interseccion
de todos los subcspaeios que incluyen dicha Iamilia.
Hipotesis) (V, , K , .) es un espacio vectorial.
(>^A= j vj , v2 l . . ., v j C V
( S,- J con i e I es la Iamilia de tocios los subespacios que incluyen A.
Tesis) A D S,-
i e l
Demostracion)
Probaremos lasaos inclusiones que conducen a la igualdad.
. AC g s
e l
En eIecto
_ n
x e A =>x 2 <xj Vj a dj e K a e A ~
n
=>x 2 dj \ j a y e K a vs- e SI , Vi e I ~
zx e S I , Viel z xe I l S.-
i e I
. g s c
i e l 1
Como todo v,- de A es combinacion lineal de los elementos de A, pues
vI 0 v, 0 v2 . . . lv(- . . . 0 v,
9 DE ENDENCIA E INDEPENDENCIA LINEAL. BSE Y DIMENSION
www.FreeLibros.com
www.FreeLibros.com
E CIO GENERADO
39
se tiene que.
A C A
Y siendo A un subespacio que incluye a A, se identiIica con algun S e s decir, existes en
I tal que Ss- .
Por otra parte, como la interseccion esta incluida en cualquiera de los conjuntos que se
intersecan, es
C s. c S e
En consecuencia
Por lo tanto
l \ Si C S, V,
n s c a
iel '
A n s,
iel
En virtud del teorema demostrado, observamos que el subespacio generado por una
Iamilia no vacia de vectores de V z>ei minimo subespacio, en el sentido de inclusion, que
incluye a A.
Ejemplo 2-7.
Demostrar que los siguientes conjuntos de vectores generan el mismo subespacio de
R3.
A j (1, 1, 1) , (3, 0, 1) x B j ( - 2 , - 1 , 0 ) , ( 5 , - 2 , 3 ) )
Determinaremos y B.
1. A A pertenecen las ternas (x, y , z), tales que
Entonces
Luego
Como t = - y , se tiene
( x , y , z ) = t ( 1, 1, 1) ( 3 , 0 , i )
(x, y, z) (t, - t , t) (3u, 0, )
(x, y, z) (t 3 , - t , t u)
x = t + 3u
y - - t
z - t + u
x = - y + 3u
www.FreeLibros.com
www.FreeLibros.com
DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
O sea
Restando
Resulta
x - y + 3u
3 2 - 3 y 3 u
x - 3z = 2y
A j ( x, y, z ) e R 3 x - 2y - 3 z - 0
2. Procediendo analogamente para obtener B es
(x, y, z) t ( - 2, 1,0) + u (5, 2, 3)
(x, y, z) = ( - 2 1, - t , 0) (5m, 2, 3w)
(x, v, z) (2t Su, t 2u, 3)
O sea
Como u - z , se tiene
3
O bien
Restando
Luego
Resulta
x 21 4- 5
y - t - 2U
z = 3u
x = - 2 t + 7 *
y ~ - t ----- - z
3
x 2 H z
3
2y = - 2 t ----- - z
3
x 2y - 3z
B \ ( x , y , z ) e R 3 l x ~-2y -3z = 0
A B
La ecuacion x - 2 y - 3 z = 0 corresponde a un plano que pasa por el origen.
www.FreeLibros.com
www.FreeLibros.com
E CIO GENERADO 41
Ejemplo 2-8.
El subespacio de (V, , K , .) generado por un vector v es, en particular, el conjunto de
todos los multiplos escalares de v, o sea
{ b / j k e Ki
Determinamos el subespacio de R2 generado por v (1,2).
Llamando S a tal subespacio, se tiene
S ( ( x l , x 2) l ( x l , x 2) := k ( l , 2)
En consecuencia
{ xt , x 2) = (k, 2k)
O sea
X i = k y x 2 = 2k
Eliminando el parametro k entre ambas relaciones, resulta
z 22z !
O lo que es lo mismo
2x - x 2 = 0
Entonces
S - j ( X i , x 2) e R 2 q 2 x i ~ x 2 0
S es la recta que pasa por el origen representada en la Iigura
www.FreeLibros.com
www.FreeLibros.com
E
DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
2.4. DEPENDENCIA E INDEPENDENCIA LINEAL
2.4.1. Conjunto linealmente independente
En el ejemplo 2-2 hemos demostrado que la unica combinacion lineal de los vectores f y
g, cuyo resultado es el vector nulo, es la trivial. O sea
a f + b g = 0=>a=: b = Q
En este caso, los vectores son las Iunciones de R en R deIinidas por
f ( t ) = et y g ( i ) e3I
y la Iuncion que asigna a todo numero real t, el valor 0, es el vector nulo. Este hecho se
traduce diciendo que los vectores f y g son linealmente independientes, o bien que el
conjunto f, g es linealmente independiente.
Sea A x v j , v2 , . . . , vr x una Iamilia de vectores del espacio (V, , K ,.).
Definicin
La Iamilia A C V es linealmente independiente si y solo si la unica combinacion
lineal de dicha Iamilia, cuyo resultado sea el vector nulo, es la trivial.
En simbolos
~
A es linealmente independiente o Vz: . 2 a v 0 a 0.
La independencia lineal de un conjunto Iinito y no vacio de vectores signiIica que no
puede darse una combinacion lineal de dicho conjunto que de el vector nulo, con algun
escalar distinto de cero.
Para investigar la independencia lineal de un conjunto de vectores, se propone una
combinacion lineal de estos, con escalares a determinar, que sea igual al vector nulo. Si los
escalares son necesariamente nulos, entonces el conjunto es linealmente independiente.
Convenimos en que el conjunto vacio es linealmente independiente.
Definicin
El conjunto AC Ves linealmente independiente si y solo si todo subconjunto Iinito de
A es linealmente independiente.
Esta deIinicion extiende el concepto de independencia lineal a toda Iamilia de vectores de
un espacio V.
www.FreeLibros.com
www.FreeLibros.com
INDEPENDENCIA LINEAL
Ejemplo 2-9.
Dado el espacio vectorial (R3, , R , . ) determinar si los siguientes conjuntos de
vectores son linealmente independientes.
i ) A ( ( 1 , 0 , 0 ) , ( 0 , 1 , 0 ) , ( 0 , 0 , 1)x
ii) B 1 ( 1 , - 1 , 0 ) , ( 1 , 1 , 2 ) , ( 1 , 0 , 1))
i ) Sea
1 ( 1, 0 , 0 ) ( 0 , 1, 0 ) z3 ( 0 , o, 1) (0 , 0 , 0)
( i , 0, 0 ) ( 0 , 0 2 , 0 ) (0, 0, a 3) (0, 0 ,0)
( 1, 0 2 . 3) (0 , 0 , 0)
Por igualdad de ternas resulta
oi a2 a 3 0
Luego
A es linealmente independiente
ii) Procediendo analogamente
oi (1, 1, 0) a 2 (1,1, 2 ) ce3 ( 1 , 0 , 1 ) (0,0, 0)
( a , , , 0) (a2, Os, 22) (a3, 0 , a 3) ( 0 , 0 , 0 )
(vz! o2 a 3w a i *2a2 0 3 ) (0 , 0 , 0 )
Entonces
gi a2 o3 0
- a , vz2 0 ~a 1 a 2
2 a-i a 3 0 a 3 - 2o2
Las inIinitas soluciones de este sistema de ecuaciones son
<Xx~k
vz2 k
ot3 = 2 k conIceR
En consecuencia, B no es linealmente independiente, ya que los escalares no son
necesariamente nulos. Mas aun, existen inIinitas combinaciones lineales no triviales
cuyos resultados son el vector nulo.
Ejemplo 210.
En (R1, , R , .), donde I u0, 1 , los vectores vt sen y v2 eos son linealmente
independientes.
www.FreeLibros.com
www.FreeLibros.com
44 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
Sea
a , sen + a 2 eos = 0
e 0,1 es
(aj sen oc2 eos) (I) O ( )
Por deIinicion de suma de Iunciones y de Iuncion nula
( a^ e n ) (t) + (a2 eos) (i) 0
Por deIinicion de producto de escalares por Iunciones
sen t + a2c o s t ^ O (1) e
Derivando
oi eos t - a2 sen t = 0 (2)
Resolvemos el sistema respecto de a i y a2 :
A
sen t eos t
eos t - sen t
= - s e n t - c o s 2 q - 1
Aa ,
0
eos t
sen t 0
0
- 0 Aa2
- sen t
eos t 0
= 0
Y la unica solucion es
= o 2 = 0
O sea
V, v2 es linealmente independiente
Ejemplo 2-11.
Sabiendo que dos vectores vj y v2 son linealmente independientes en ( V, , K )
demostrar que Vj v2 y v2 son linealmente independientes.
Consideremos una combinacion lineal de la Iamilia ( v t v 2, v2 que sea igual al
vector nulo, con escalares a y b, que determinaremos:
a (v i v2) b v2 0
Por distributividad respecto de la suma en V
a V i + a v 2 + b v 2 = 0
www.FreeLibros.com
www.FreeLibros.com
DEPENDENCIA LINEAL
45
Por distributividad respecto de la suma en K
a Vj (a + b) x-i 0
Como, por hipotesis, Vj y v2 son linealmente independientes, se deduce
a 0 y a + b = 0
En consecuencia
a = b = 0
Por consiguiente, Vi v2 y v2 son linealmente independientes.
2.4.2. Propiedad.
Si un vector es combinacion lineal de una Iamilia linealmente independiente, entonces
dicha combinacion lineal es unica.
Sea v e V combinacion lineal de la Iamilia j Vi , v2, . . .,vr , y esta linealmente
independiente. Entonces existen escalares a tales que
r
V 2 0iI v
11 1
Suponemos que existen escalares tales que
v 2Ii vI
=
Entonces
.2 vI 2 Ir v
i i i i
O sea
2 ai VI - 2 q3v 0
i =
Luego
.2 ( a I - I c ) v , 0
=
Y como la Iamilia es linealmente independiente, se deduce que
a - (3 0 a ~ (3 Vi 1, 2, . . r
En consecuencia, la combinacion lineal es unica.
2.4.3. Conjunto linealmente dependiente
En el ejemplo 2-9 ii) hemos probado que existen escalares no simultaneamente nulos a i ,
a2, a 3 tales que
www.FreeLibros.com
www.FreeLibros.com
a , ( 1 , - 1 , 0 ) 0 2 (1, 1 , 2 ) a 3 ( 1 , 0 , 1 ) - ( 0 , 0,0)
Diremos que los vectores (1, - 1 , 0 ) , (1, 1, 2) y ( 1 , 0 , 1) son linealmente dependientes.
Definicin
La Iamilia A C V es linealmente dependiente si y solo si no es linealmente
independiente.
La Iamilia A Vi , v2, . . . , vr u es un conjunto linealmente dependiente de vectores
de V si y solo si existe una combinacion lineal no trivial de dicha Iamilia cuyo
resultado sea el vector nulo.
Negando las dos proposiciones que Iiguran en la deIinicion de independencia lineal, se
tiene
r
A es linealmente dependiente o 3 q q 2 a, v- 0 a a 0
i 1 1
La dependencia lineal de un conjunto Iinito de vectores signiIica que tiene que existir, al
menos, una combinacion lineal de estos que de el vector nulo y que no sea trivial.
Para investigar la dependencia lineal de una Iamilia de vectores, se propone una
combinacion lineal de dicha Iamilia, con escalares a determinar, que sea igual al vector nulo.
Si algun escalar es distinto de 0, entonces la Iamilia es linealmente dependiente.
Ejemplo 2-12.
Los vectores (2,4) y (1, - 2 ) son linealmente dependientes en ( R2~, R, )
En eIecto, sea
vz! ( - 2 , 4) a 2 (1, 2) (0, 0)
Por deIinicion de producto de escalares por pares y por suma de pares es
( - 2 0-! +<*2, 4 0!! - 2 o2) = (0,0)
Por igualdad de pares resulta
2 vz! a 2 0
4 a - 2 a2 0
Dividiendo la segunda relacion por - 2 , el sistema se reduce a la unica ecuacion
2 a! a 2 0
Esta admite inIinitas soluciones, dadas por
a 1 =k
a2 = 2 k y k e
E DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
www.FreeLibros.com
www.FreeLibros.com
DE ENDENCIA E INDEPENDENCIA LINEAL 47
Ejemplo 213.
Las matrices
q 1 0 q O 1 qO o qO O
En i ) `12 x x Eai x j E22 i
o of o of os so
son vectores linealmente independientes del espacio vectorial (K2x2, , K , .), pues
cualquiera que sea la combinacion lineal de los mismos con escalares en K, cuyo
resultado sea la matriz nula, es la trivial. En eIecto
a i E n ct2 E 12 a 3 E2l a 4 E22 N ~
a i 0 i 0 0C2 qO 0 qO 0 \ qO 0
l o 0 q o 0 q Va3 0 q `0 a 4 q 0 0
0 0`
i
q o

3
0
q
o
a2 0 0`
a4 q
i
0 0s
Luego
a 1 a 2 a 3 a 4 0
www.FreeLibros.com
www.FreeLibros.com
DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
En cambio, las matrices
A - r 0
1 o
y B
1 0 / \ _ , o
son linealmente dependientes, pues
vzi A a 2 B N ~
1 - 0 2 0 \ / O O
a i - 02 0 / \ 0 0 .
O sea
a i - a 2 0 ^ oti~cx.2 =k \ / k e K
Por consiguiente, existen escalares no simultaneamente nulos que satisIacen la relacion
anterior, lo que prueba la dependencia lineal.
.E.9 . I
independiente no nUo ` eSPaCi o VeCo rial Con5i tUye a m e n t e
Sea v z O en (V, , K , .). Consideremos
l i n e l r e m e independiente. Co mo o de UCe qUe o y e c - wci a x v x es
`dependiente!`0 ` CUaqUi er t 0 M Co nSti tUye un talmente
En eIecto, cualquier escalar, nulo o no, satisIace la relacion O O, segun lo demostrado
ni) Todo conjunto al que pertenezca el vector nulo es linealmente dependiente.
Sea A i Vj , v2, . . vr J con vy 0. Se veriIica que
Ovi 0v2 . . . <xj vj + . . . Ovr O
O sea
a j v j = ocj O = O
con dj no necesariamente nulo.
en
www.FreeLibros.com
www.FreeLibros.com
iv) Un conjunto Iinito y no vacio de vectores es linealmente dependiente si y solo si algun
vector es combinacion lineal de los demas.
Sea A v j , v2). vr i una Iamilia de vectores de ( V, , K, . ) . Demostramos las dos
condiciones en que se desdobla el enunciado: necesaria y suIiciente.
n
I o. A es linealmente dependiente ~ 3 q q v ,S v.
Por deIinicion de dependencia lineal
A es linealmente dependiente ~
r
2 ct \ 0 a ocj =0 ~
ii
n
~ Uj \ j + . a v 0 o otj ` 0 ~
rt
=>OtjVj = ^2 f f A
Premultiplicando por a q 1, inverso multiplicativo en K, de oc 0, se tiene
n
vzqz (wjVs ) ( - a q i ) . Vi
Por A7 y propiedad de la sumatoria
n
(ocf1
Por inversos en K y A7 es
n
1 vs ( - a q 1 az)z.-
1 i*}
Teniendo en cuenta A io, y llamando (3q a 1ott se deduce
Vs Vi *!
l*)
En consecuencia, existe e A, que es combinacion lineal de los restantes vectores de A.
n
2. Vj 2 a v =>A es linealmente dependiente.
Por hipotesis y trasposicion de terminos se tiene
n n
V,- 2 a vI ~ S a,- Vj Vq 0 con as- - 1
J i j
Como <Xj 0, el conjunto A es linealmente dependiente.
v ) Un conjunto Iinito y no vacio de vectores es linealmente independiente si y solo si
ningun vector es combinacion lineal de los demas.
DE ENDENCIA E INDEPENDENCIA LINEAL 49
www.FreeLibros.com
www.FreeLibros.com
y Ss : ; ^ r strar pues bas,a ,,egar ias dos propsidnes de ** ^
En simbolos
A es linealmente independiente V : vs- {J yt
En lo sucesivo, y en algunas ocasiones, abreviaremos las expresiones linealmente
independiente y linealmente dependiente mediante L.I. y L.D. , respectivamente.
vi) Un conjunto Iinito y ordenado de vectores al que no pertenece el vector nulo es
pTectdemes. P6ndiente S1 V SOlo si alun vector es combinacion lineal de los
. DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
10- A - v , , v3, . . vr es LD a 0 qA z 3 k j 2 v k v r a vh - v
Demostracion) Sea k el primer entero positivo tal que
x v j , v 2, . . . , VIt ) esL.D.
k existe por el principio de buena ordenacion.
Por deIinicion se tiene
fe
0qVI - O y algun 0
Si 0 , entonces j Vl, v2 , . . yh^ seria LD, contra lo supuesto.
Luego $h j= 0, y procediendo como en iv) 1 se deduce que
Ic-i
vIt , 2 a v
O sea, vk es combinacion lineal de los precedentes, y k es tal que 2 v k v r.
2 . El reciproco es obvio y puede ser demostrado como ejercicio.
o n l S r 105 COn PtOS P dem0S afrmar hS Siuie"
a) A es L.I.
b) Toda combinacion lineal de la Iamilia A, cuyo resultado sea el vector nulo, as la trivial.
c) Ningun vector de A es combinacion lineal de ios demas.
Analogamente son equivalentes:
a) A es L.D.
re s u d t e r e , c ` o : b, o aCi n i nea ` A
c ) Algun vector de A es combinacion lineal de los demas.
www.FreeLibros.com
www.FreeLibros.com
I TE DE ENE DORES
51
Ejemplo 2-14.
En el espacio vectorial de los polinomios reales sobre el cuerpo de los reales, P y
deIinidos por
P (x) x 2 x 0 ) - 2 x
son linealmente independientes.
Sea
a? bQ 0 donde 0 denota el polinomio nulo
Cualquiera que sea x e R se veriIica
(P 6 )(x) 0( x)
Por deIinicion de suma de Iunciones y de polinomio nulo es
(IlP) (x) + (bQ) (x) 0 V x e R
Por deIinicion de producto de escalares por polinomios, se tiene
aP (x) bQ (x) 0
O sea
a (x2 + x ) + b (- 2x) 0
Luego
ax2 (a - 2b) x ~ 0 V x e R
Six - l , s e veriIica a - a + 2b 0 , y en consecuencia b 0 .
Entonces es ax2 +ax = 0 , y haciendo x 1, resulta 2a 0, o sea, a 0.
2.5. SISTEMA DE GENERADORES
2.5.1. Concepto
Si un conjunto no vacio de vectores de un espacio (V, , K , .) es tal que todo vector de V
puede expresarse como combinacion lineal de dicho conjunto, entonces se dice que este es
un sistema de generadores de V. Esto equivale a decir que el subespacio de V generado por
tal conjunto es el mismo V. El concepto de sistema-de generadores de un espacio vectorial es
independiente de la dependencia o independencia lineal del sistema. O sea, un sistema de
generadores puede ser linealmente independiente o no.
Definicin
La Iamilia A v , , v2, . . . , vr ) es un sistema de generadores de V si y solo si todo
vector de V puede expresarse como combinacion lineal de los vectores de A. O bien, A
es un sistema de generadores de V si y solo si el subespacio generado por A es V.
Las notaciones S.G. y C.L. son abreviaturas de sistema de generadores y
combinacion lineal , respectivamente.
www.FreeLibros.com
www.FreeLibros.com
52 DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
La traduccion simbolica de la deIinicion anterior es
r
A es un S.G. de V o v e V ~ v 2 a v,-
i 1
O bien
A es un S.G. de V o A V
Ejemplo 2-15.
El conjunto A j (1, 0) , ( 0 , 1 ) , (1, 1) es un sistema de generadores de R2.
En eIecto, si ( a , b) es cualquier vector de R2, deben existir escalares a, 0 y y tales que
a (1, 0) 4- 0 (0, 1) 7 (1, 1) ( a , )
O sea
(a y , 0 7 ) (a , b)
Luego
a + y = a A 0 7
En consecuencia
ot = a - k , p - b - k , y = k V k e R
Este resultado nos dice que, eIectivamente, A es un S.G. de R2, y ademas, que
cualquier vector del espacio puede expresarse de inIinitas maneras como C.L. de los
vectores de A. Por otra parte, es Iacil veriIicar que A constituye una Iamilia L.D.
En el ejemplo 2-6 esta demostrado que las matrices V1 V2 y V3 constituyen un
sistema de generadores del espacio vectorial de las matrices reales de traza nula del tipo
2 X2 . Ademas, tales matrices son linealmente independientes.
2.5.2. Propiedad
Si la Iamilia A v1v2 , . . . vr es un S.G. L.D. de V, entonces existe e A, tal que
A - xvs- x es un S.G. de V.
Demostracion) Por ser A un sistema de generadores de V, se veriIica
v e V ~v 2 av ( 1)
Como A es linealmente dependiente, por 2.4.3. iv), algun vector de A, digamos vq, es
combinacion lineal de los restantes, o sea
3 Vytal que vy 2 (i ( 2)
wzq
Teniendo en cuenta (1) y (2) podemos escribir
www.FreeLibros.com
www.FreeLibros.com
E
9
r r r
\ = cc4y,- 2 a y,- a 2 v 2 a, v, =
3 1 *j 1 1 1t*r* ' *i ' 1
r r
2 (pj p + ot) v 2 y t \ i
f j Vs r, V i iJ n i
En consecuencia, A - v j es un sistema de generadores de V.
Ejemplo 2-17.
Determinamos si los vectores Vj v2 . y v3 . . de
(R3, , R , .) constituyen un sistema de generadores de R3.
El problema se reduce a investigar si existen escalares reales a, (3 y y, tales que
cualquiera que sea (a, b , c) e R3 se veriIique
a ( l I l , 1) 0 ( 1 , 1, 0) -y (1, 0 , 0) (a , 6 , c)
(a + P + y , a + 0 , ) = ( a, b , c)
Luego
a + P + y =a
a + p = b
a = c
De donde resulta
a =c , p = b - c , y ~ a - b
En consecuencia, todo vector de R3 puede expresarse como C.L. de los vectores
propuestos. Observamos, ademas, que tal C.L. es unica para c a d a v e R3,
En el caso en que ( a , b , c) sea el vector nulo, los escalares son nulos, y en
consecuencia los vectores vt , v2 y v3, ademas de constituir un S.G., son L.I.
Por este motivo se dice que tales vectores son una base de (R3, , R , .).
2.6. E DE N E CIO VECTORIAL
2,6.1. Concepto de base
Sea A Vj , v2, . . . , vn una Iamilia de vectores de (V, 4-, K , .).
Definicin
o foo A es go ose , e (, , ,.) s s. o s es un. coggo geocge
g, e eg, ege sseo, e gege o, o es , e .
A C V es una base de V o A es L.I. y A V
www.FreeLibros.com
www.FreeLibros.com
Ejemplo 2-18.
go ose , e ( , , , .) es e coggo , e eeco es
ej ( 1, 0 , 0 , . . . , 0)
e = (, , ,...,)
DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
e (0 , 0 , . . . , 0 , 1)
El lector puede comprobar que la Iamilia , e 2 , . . e x es linealmente
independiente y un sistema de generadores de K Tal Iamilia recibe el nombre de base
canonica.
Ejemplo 2-19.
En el ejemplo 2-13 se demostro que las matrices E n , E12 , E21 y E22 constituyen
una Iamilia linealmente independiente del espacio (K z , , K , .).
Ademas, tal conjunto es un sistema de generadores de dicho espacio, y en consecuencia
es una base del mismo. La llamaremos tambien base canonica de K2 z2 .
Ejemplo 2-20.
Determinar una base del subespacio de (R3 , , R, ) estudiado en el ejemplo .
Tal subespacio es
S = { ( x u x 2, x 3) e R 3 x 3 = x x + x 2 |
Si (a , b , c) es un vector generico de S, entonces se tiene c = a + b , y en consecuencia
podemos escribir, en virtud de las leyes de composicion en S:
(a, b, c) = (a, b , a + b) = (a, 0,fl) + (0, b, b) (1, 0,1) + b (0, 1, 1)
Este resultado nos dice que los vectores de R
vi ( 1, 0 , l ) y v2 ( 0 , 1, 1)
constituyen un sistema de generadores de S. A , e s , son linealmente independientes,
pues
a ( 1, 0 , l ) 6 (0 , 1, 1) (0 , 0 , 0)=>a = b = 0
Por consiguiente, Vi y v2 constituyen una base de S.
2.6.2. Coordenadas o componentes de un vector
En este texto consideraremos unicamente espacios vectoriales de bases Iinitas. En
algunas ocasiones, para indicar que x v v 2, . . .,v x es una base del espacio vectorial
(V K ) utilizaremos el simbolo [v] para hacer reIerencia a ella.
Si x vi, v2, . . v I es una base de (V, , K, .), entonces cada vector de V puede
www.FreeLibros.com
www.FreeLibros.com
COORDENADAS
55
expresarse de modo unico como combinacion lineal de la base, ya que los vectores de esta
son linealmente independientes y sistema de generadores, de acuerdo con 2.4.2.
O sea, six e V, entonces existen y son unicos los escalares x t , x 2, . . x n tales que
n
X z1 V, x 2 V2 . . . x n vn 2 x Vi
i- 1
Respecto de la base dada, el vector x e V queda caracterizado por los coeIicientes de la
combinacion lineal, o sea, por la n-upla de elementos de K: (z ,, x 2 , . . x). Los escalares
x se llaman coordenadas o componentes del vector x e V, respecto de la base dada. Si se
elige otra base en el espacio V, entonces el mismo vector x admite otras coordenadas o
componentes: 2, . .
Demostraremos mas adelante que dos bases cualesquiera de un mismo espacio vectorial
son coordinables, es decir, tienen el mismo numero de vectores.
Dada la base uv xv j , v2, . . v ) del espacio (V, , K , .), podemos expresar a cada
vector x e V como una matriz columna, cuyos elementos sean las coordenadas de x respecto
de uvs en tal caso escribiremos
Ejemplo 2-21.
Determinar las coordenadas de x ( - 2 , 3) perteneciente a (R2, , R , .), respecto de
las bases:
i ) uv 1( 1, 1) , ( 1, 0)1
i i ) uw x ( - 2 , 3 ) , ( 1 , 2 ) x
iii) canonica
En el primer caso, planteamos la relacion lineal
a ( U l ) 6(1,0) ( - 2 , 3)
EIectuando las operaciones, y resolviendo respecto de a y b, se tiene
(a b,a) = (--2, 3) za b - 2 y a = 3 ~
=>a = 3 y b - 5
En consecuencia, las coordenadas de x, respecto de la base uv, son: 3 y - 5
Y puede escribirse
www.FreeLibros.com
www.FreeLibros.com

DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION


En el segundo caso, procediendo analogamente, se llega a que las coordenadas de x son
1 y 0 , y por lo tanto
Finalmente, respecto de la base canonica, es
( 2, 3) ( - 2 , 0) (0, 3) - 2 (1, 0) 3 (0, 1)
O sea, las coordenadas de x son precisamente los elementos del par ordenado, y
escribiremos simplemente
2.6.3. Teorema de extensin a una base
uv j x V l , v2 , v x es una base del espacio ve ctorial V, y
uw wt , w2 , . . wm es un conjunto linealmente independiente, pero no de generado
res de V, e n t o n c e s e x i s t e n vectores w,n i~ wIn 2 ~ ~wmp, ta`es `ue
i w1, w 2 , . . , w m, wmI, . . . I wmpj es una base de V.
Si uw n uvj 0, consideramos el conjunto
A uw U u v ( w i , w2 , . . . , w m, v i ! v3, . . . , v )
Como cada w,- es combinacion lineal de los vectores de la base uv, A es un conjunto
linealmente dependiente por 2.4.3. iv). De acuerdo con 2.4.3. vi), siendo A un conjunto
Iinito y linealmente dependiente al que no pertenece el vector nulo, algun vector es
combinacion lineal de los precedentes. Tal vector es un elemento de uv, ya que uw es
linealmente independiente. Por otra parte, como A es un sistema de generadores linealmente
dependiente de V, y v,- es combinacion lineal de los precedentes, resulta
A - A - ( v x j e l , w2, . . . , wm, v , , . . .,vM , v I1, . . . , v)
un sistema de generadores de V, segun 2.5.2.
Si A es linealmente independiente, el teorema esta demostrado. Si A es linealmente
dependiente, se reitera el proceso, y a lo sumo, al cabo de ( 1) etapas se obtiene un
conjunto linealmente independiente que es sistema de generadores de V, o sea, una base.
2.6.4. Coordinabilidad de las bases
Dos bases cualesquiera de un mismo espacio vectorial son coordinables.
Hipotesis) (V, , K , .) es un espacio vectorial.
uv ) vl5v2, . . . vi y uw ( ! , w2, . . . , w j son bases de V.
www.FreeLibros.com
www.FreeLibros.com
Tesis) uv uw,o sea, n = m.
Demostracion) Consideremos
A x wm, v l ! v2, . . . , vJ
Este conjunto, al que no pertenece el vector nulo, es un sistema de generadores (pues u v
es una base), y linealmente dependiente (ya que wm es C.L. de la Iamilia uv). La propiedad
2.4 .3. nos dice que algun v es C.L. de los precedentes, y, de acuerdo con 2.5.2,, es
A - v un sistema de generadores de V.
Seo
Ai I wm j , wm, Vj , . . ., v,- i, Vui, . . ., vIl I
Este conjunto es un sistema de generadores linealmente dependiente, y en consecuencia,
algun vy es combinacion lineal de los precedentes. Lo mismo que en la etapa anterior, se lo
extrae y se agrega wm.2, obteniendose
A2 x em.2l em. h . . ,VM ! Vi 1, . . Vy. `Vyi , . . -,Vn x
que es un sistema de generadores y linealmente dependiente.
ee og, o e oce, ego, of oos e go es o se e os se ogoeg ges
e os wk , o e eg ese coso os fe so oges se og co goc. g geo , e os
cogs, e o, os. En consecuencia es
m < n ( 1)
Analogamente, a partir de
8 = | v8, W I W....... wm|
se prueba que
n K m ( 2)
De (1) y (2), por la antisimetria de la relacion de menor o igual, resulta
n - m
2.7. DIMENSION DE UN ESPACIO VECTORIAL
... Concepto
En 2.6.4. hemos demostrado que si uv es una base Iini ta del espacio vectorial (V, , K , .),
egogces o, o o o ose , e es coo , goe oe. so sggfco e , os oses coes e o
de un mismo espacio vectorial tienen el mismo numero de vectores. Tal numero se llama la
dimension del espacio.
Definicin
Dimension de un espacio vectorial V es el numero cardinal de cualquiera de sus bases.
Si V consiste unicamente en el vector nulo, diremos que su dimension es 0.
DIMENSION 57
www.FreeLibros.com
www.FreeLibros.com
DE ENDENCIA F. INDEPENDENCIA LINEAL. BASE Y DIMENSION
En ambos casos, V es un espacio de dimension Iinita.
Si uv Vi, v2 , . . v es una base de (V, , K, .), escribiremos
diniR V
Ejemplo 2-22.
Analizando ejemplos propuestos anteriormente se tiene que
dimKKn di mKK2 x 2 4
dimRRrt dimRS 2 siendo S el subespacio del ejemplo 2-20
El lector puede veriIicar que 1, X, X2 x constituye una base del espacio vectorial de
los polinomios reales en la indeterminada X, de grado menor o igual que 2 y el
polinomio nulo, sobre el cuerpo de los reales. En consecuencia, su dimension es 3.
2.7.2. Propiedad
Un conjunto de vectores de un espacio vectorial -dimensional es una base si y solo si es
linealmente independiente o sistema de generadores.
I o. Si uv Vj, v2 , . . vn es una base de V y dimKV , entonces uv es linealmente
independiente y sistema de generadores.
2o Si dimKV y uv Vj, v2 , . . v es L.I., entonces uv es S.G.
En eIecto, si uv no Iuera un sistema de generadores, por el teorema de extension, podru
completarse hasta Iormar una base de V, en cuyo caso seria dimK V ~ n, io que es absurdo
Si dimKV n y uv Vj, v2, . . v es S.G., entonces uv es L.I.
Si uv, que es S.G., Iuera L.D., entonces existiria \ tal que uv v ) es S.G. de V,
segun 2.5.2. Si este conjunto de n 1 vectores Iuera L.I. constituiria una base de V. S:
uv - \ j no Iuera L.I. se reitera el procedimiento, y en todo caso se llega a una base de
cuyo cardinal es menor que , lo que tambien es absurdo.
En consecuencia aIirmamos que:
1 . vectores linealmente independientes de un espacio vectorial -dimensional constitu
yen una base del mismo.
2. Todo sistema de generadores de n vectores de un espacio vectorial -dimensional e
una base del mismo.
3 . Todo conjunto de mas de n vectores de un espacio vectorial -dimensional e
linealmente dependiente.
La dimension de un espacio vectorial (V, , K, .) depende no solo de V, sino tambien de!
cuerpo K. Seguidamente aclaramos esta observacion.
Ejemplo 2-23.
Sean (V, , R , .) y (V, , C, .) dos espacios vectoriales, donde el conjunto de vectores
es el mismo en ambos casos y C es el cuerpo de los complejos.
2.
ve
Ei
y,
www.FreeLibros.com
www.FreeLibros.com
DIEN ION
59
.ents
s
o
Supongamos que dimc V n. Entonces es dimRV 2n.
En eIecto, si uv x Vj, v2 , . . ., vn ) es una base de (V, , C , .), entonces
ue vi ~v2 , . . . , v n~qvI , rvi x es una base de (V, , R, .).
Para ello probaremos que
1 [w] es L.I.
Sea
n n n
2 a qV.- 2 i \ , = 0 = > 2 (<Xj + i p j ) vs 0~Oq iq3y 0 , Vqz
s i s i 1 1 s i
~ (Xj = fy 0 , Vq
2 . uw es S.G.
Por ser uv una base de (V, 4-, C, .), para todo v e V, existen escalares a + i t y e C tales
que
v j=.i + 1 & vi ` v ai vj 0 vq~
Luego uw es una base de (V, , R , . ), y en consecuencia
dimR V 2 dimc V
En particular, es
dimRC 2 dimcC 2 n
y
dimRC 2 dimcC 2
2.7.3. Propiedad
Sea S un subespacio de V. Se veriIica que:
dim S dim V o S V
1. Si el subespacio S es el mismo V, entonces es obvio que dim S dim V.
2. Supongamos ahora que S es un subespacio de V que veriIica dim S dim V.
` j. Si la dimension comun es 0, entonces tanto S como V tienen como unico elemento al
zvector nulo y son identicos.
Sea dim S dim V n > 0. Consideremos una base de S:
. . w}
Los n vectores de uw son L.I. en V, y de acuerdo con 2.6.3. constituyen una base de V.
Entonces son un S.G. de V, lo que nos dice que todo vector de V pertenece a S, o sea, V C S,
es y, como por deIinicion de subespacio es S C V, resulta S V.
www.FreeLibros.com
www.FreeLibros.com
.
DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
2.8. DIMENSION DE LA SUMA
2.8.1. Propiedad
Si S4 y S2 son dos subespacios de (V, , K , .) y la dimension de V es Iinita, entonces se
veriIica que
dim (Sj S2) dim Si dim S2 - dim (Si n S2)
Sean:
dim V . d i m S , di mS2 q2
di m( s 1 n s 2) p y d i m S ! S 2 =q
Se trata de probar que
q u + n" - f>
Consideremos S, OS2 ` j o ) y Ix u Xl , x2 , . . xp ) una base de St n s 2.
Teniendo en cuenta que Si n S2 es un subespacio de Sj y de S2, completamos la base ux
a una base en cada uno de estos.
Sean
x , , x 2 , . . . , x p~y I , y s t ) . . . , y n . J, J y
I x , x2, . . xp , z , , z2, . . . , z p x bases en
Si y en S2, respectivamente.
El conjunto
A I Xj, x2, . . Xp, y i , . . ., y np , z , , , . ,
es una base de S i S2, pues:
I o. AesS. G. deS! S 2.
En eIecto, sea v e Sj S2. Por deIinicion de subespacio suma es
v x y a x e S i a y e S 2
Entonces
71 -p
v , i i X i g b y ' + M X I . 2 i ( z,
P n'-p n"-p
` . 2 (a + a \ ) x + pi Y i + S p. z .
2o. A es L.I.
Consideremos
Entonces
i* t* t\ y
. S a . x . Z p , y + 7Zi 0 ( 1)
www.FreeLibros.com
www.FreeLibros.com
DIEN ION DE LA SUMA
61
y
n -P
2 y i z, que pertenece a S2, tambien pertence a S i , o sea
n - p
2 T j Z i e S i n S j
zi
En consecuencia es
t=i 7, Zi q l i a xz
n " - p p
O sea
p n -p
2 oc' x{ - 2 y z 0, y por la independencia lineal de la base de S2, se tiene:
ii i
a ' i = 0 , y = 0
Teniendo en cuenta (1) es
p n ' - p
2 0Ci x + . 2 P y i 0
- i ii
Luego
o = 0 , q3j 0
Siendo A una base de Si S2 , resulta
j r + ( n - j r ) + ( n - p ) = < i
Es decir
q = n + n - p
Lo que se traduce en
dim(Si S 2) di mSi dim S2 - dim ( S` n S2)
2.8.2. Dimension de la suma directa
Si Si y S2 son dos subespacios disjuntos de (V, , K , .), entonces la dimension de la suma
directa es igual a la suma de las dimensiones de S t y S2.
En este caso es Si n S2 0 , y en consecuencia, dim (Si n S2) 0.
El teorema anterior es valido tambien en esta situacion, y por consiguiente resulta
dim (Si S2) dim Si dim S 2
Ejemplo 2-24.
Determinar la dimension de la suma de los siguientes subespacios de (R3, , R , .).
51 (pe, y, z) e R 3 / x + y - z - 0 j
52 i ( x , y , z ) e R 3 q z z 0)
www.FreeLibros.com
www.FreeLibros.com
62 DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
Sj y S2 son planos y la dimension de cada uno de ellos es 2.
Si n S2 (x , y , z) e R3 / x - z a y ~ 0
Todo vector de Si O S2 es del tipo
(a, 0, a ) = a ( 1, 0, 1) Va eR
Luego
dim Si n S2 i
En consecuencia
dim (Si S 2) 2 2 1 3
O sea
S, S 2 R 3
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO ||
2-25. Expresar en cada caso, si es posible, al vector v como combinacion lineal de vt y v2. El
espacio vectorial es (R2, , R , .).
i ) v ( V 2 , - l ) , Vl ( ~q 3, 2) , v2 ( , 2)
) v (2 , 4) , V! ( - 1 , 3 ) , v2 (2, - 6 )
2-26. Comprobar que los vectores de R3
Vi ( - 1 , 3 , 1 ) va ( 3 , - 1 , 1) y v3 ( 4, 0, 2)
son linealmente dependientes, y expresar a v3 como combinacion lineal de Vj y v2.
2-27. En (R2 z3, , R , .) se consideran las matrices
Probar que son linealmente independientes.
2-28. l siudiarla dcpendoiu-ui o ilepemlencu liin. il de los vectores
V ! 2 1q2 y v2 31q4
en cada uno de los espacios vectoriales (R, , R , .) y (R, , , .)
2-29. Dados los vectores (1, - 4 , 6 ) , ( 1, 4, 4) y (0, - 4 , x ) , del espacio R3 sobre el cuerpo de
los reales, determinarz para que sean linealmente dependientes.
2-30. Demostrar que si a, b y c son tres numeros reales distintos, entonces los vectores
(1, a, a2 ) , (1, b, b2 ) y (1, c, c2 ) de (R3 , , R , .) son linealmente independientes.
2-31. En el espacio vectorial de las Iunciones reales deIinidas en R, se consideran las
Iunciones I, g y h, deIinidas por
I (I) t2 21 - 1 , g ( ) t 2 1 , h ( t ) - t 2 t
Demostrar que son linealmente dependientes.
2-32. En el espacio vectorial (Rr , R , .) se dan las Iunciones I y g deIinidas por
I ( 0 I . e ( 0 = j -
www.FreeLibros.com
www.FreeLibros.com
E
DE ENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
Probar que son linealmente independientes.
2-33. En ( R2, , R , .), los vectores (a, b) y (vc , d ) veriIican la condicion a d - b c 4 o
Demostrar que son linealmente independientes.
2-34. Determinar si los vectores ( 1, 1, 1), ( 1, 1, 0) y (0, 1, - 1 ) son linealmente independien
tes en (R3, , R , .) y en (C3, C ,.).
2-35. Sabiendo que v1 v2 y v3 son vectores linealmente independientes del espacio
(V, , K , .), investigar la dependencia o independencia lineal de los siguientes
conjuntos de vectores:
i ) v, V2 ~V3 , V2 Clc , V3 )
ii) V!, V2 av3 , v3 bv2
donde a, b y c son elementos de K.
2'36. Sean: x x , , x2, . . ., x ) un conjunto L.I. de (V, , K, .) y k eK.
es L.u., entonces u es comoinacion lineal de la tamilia A.
2-38. Sabiendo que el conjunto A, a que se reIiere el ejercicio anterior, es L.I. en (V, , K, )
y que x no e s combinacion lineal de dicho conjunto, entonces A U x es L.I.
se veriIica que el vector X ix =0 .
2-40. Demostrar la independencia lineal de los vectores I , , I2, y I 3 del espacio (R1, , R, .),
donde I es el intervalo cerrado de extremos 0 y 1, sabiendo que
2-42. Determinar el subespacio de (R3, , R , .) generado por los vectores v, (1, - 1 , 2),
v2 (0. 1, 1) y v3 ( 1 , 1 , 0 ) . Obtener una base de dicho subespacio.
2-39. Demostrar que si el conjunto A j Xl, x2 , . . x ) es L.I. en (V, , K , .), entonces
2 s i Q < x < l
3
Ii (x) =
0 six e u ,11
3 1
Osi v x v 1
3
I 3 (x) 2 - x six e u0, lj
2-41. Proponer una base en cada uno de los siguientes espacios vectoriales:
i ) (R, , R , .)
i i ) (R4, , R, .)
iii) (R2 x3 , , R, .)
iv) ( C. +X, )
v ) (C, , R, .)
www.FreeLibros.com
www.FreeLibros.com
2-43. Demostrar que los siguientes conjuntos de vectores de (R3, , R , .) generan el mismo
subespacio
A ((1, 0 , - 1 ) , ( 0 , - 2 , 1)) B j ( 1 , - 2 , 0 ) , ( 2 , - 2 , - 1 ) x
2-44. Determinar una base y la dimension del subespacio de matrices de traza nula de
(R2 x2, , R, .)
245. En (C2 , , R, .) se considera el subespacio S (z, u) e C2 q z - 2u = 0
Obtener una base y la dimension de S.
2-46. En ( R2x2, , R, .) se considera S ( A e R2x2 q 12 (an +a 22) 0
Investigar si S es un subespacio, y en caso aIirmativo obtener una base del mismo.
2-47. Investigar si S \ ( z , u) e C2 / z - J + u 0 es un subespacio en (C2 , , C , . ) y
(C2 , , R, .) Si lo es, determinar una base y la dimension.
2-48. Determinar el subespacio S de ( R3, , R , .) generado por los vectores ( 2 , 0 , 1 ) y
( - 1, 0, 1 ) . Hallar una base de S y su dimension. Proponer un subespacio T que no
contenga a los vectores dados.
2-49. Dados los subespacios de (R4 , , R , .)
51 ( X x , X 7 , X - i , X A ) X x + X 2 * z 4 0)
5 2 = I ( Xl , X 2 , X 3, X 4 ) / X i - x 2 - X 3 - x 4 = o )
Obtener la dimension de S! S2.
2-50. Sea j T v2 , . . vn ) una Iamilia de vectores de (V, , K , .) y r <n . Por deIinicion, el
conjunto j V! , v2, . . vr J es un subconjunto maximal de vectores L.I. si y solo si
i>r=> j Vj, v2, . . . , vr, vz J es L.D.
Demostrar que si Vj, v2 , . . T es un S.G. de V y Vj, T , . . T es un sub
conjunto maximal de vectores L.I., entonces este es una base de V.
2-51. Demostrar que si V es un espacio de dimension Iinita y V Sj S2, entonces se
veriIica que dim V dim S x + dim S2.
T DO PRACTICO II 65
www.FreeLibros.com
www.FreeLibros.com
Captulo 3
TRA SFORMACIONES LINEALES
9 .. INTODUCCION
Exponemos en este capitulo el concepto de trasIormacion lineal entre dos espacios
vectoriales sobre un mismo cuerpo, las propiedades generales y los tipos especiales de
trasIormaciones lineales. Se introducen las estructuras de nucleo y de imagen de una
trasIormacion lineal y se da la relacion entre sus dimensiones. Fijada una base en cada
espacio, siempre en el caso Iinito, se determina la matriz asociada a una trasIormacion lineal.
Despues del estudio de la composicion de trasIormaciones lineales, se conecta este concepto
con el producto de matrices. Finalmente, se mencionan los espacios vectoriales de
trasIormaciones lineales y el espacio dual de un espacio vectorial.
3.2. TRASFORMACION LINEAL ENTRE DOS ESPACIOS VECTORIALES
SOBRE UN MISMO CUERPO
Sean (V, , K, .) y (e, , K, .) dos espacios vectoriales sobre un mismo cuerpo K.
3.2.1. Concepto
La Iuncion q : V -ze es una trasIormacion lineal u homomorIismo si y solo si
i ) l a imagen de la suma de dos vectores cualesquiera de V es igual a la suma de sus
imagenes en e
q ( z y ) q ( x ) q ( y )
ii) la imagen del producto de cualquier escalar por todo vector de V es igual al producto
del escalar por la imagen de dicho vector.
f (a x) = a f (x)
www.FreeLibros.com
www.FreeLibros.com
T ORMACiON LINEAL
67
Las condiciones i) y ii) se pueden reducir a la unica siguiente:
q : V -*e es una trasIormacion lineal si y solo si
f ( a x 0 y ) a q ( x ) x3q(y)
cualesquiera que sean a y 0 en K, y x e y en V.
El lector puede demostrar por induccion completa que si q : V -~ e es una trasIormacion
lineal, entonces se veriIica que
q ( J cc x() a Iq(x )
11 ii
cualquiera que sea n e N.
Esto nos permite aIirmar que las trasIormaciones lineales preservan las combinaciones
lineales.
Ejemplo 3-1
Sean los espacios vectoriales (R3, , R , .) y (R2, , R, .)
La Iuncion q : R3 -z R2 deIinida por
f ( x u x 2, x 3) = (Xt - x 3, x 2 - x 3)
es una trasIormacion lineal, ya que se veriIican las condiciones:
i ) f [ ( x i , x 2, x 3) + ( y1, y 2, y 3) ] =f ( x l + y u x 2 + ya , x 3 + y 3) =
= ( x i + y i ~ x 3 - y 3, x 2 + y 2 - x 3 ~ y 3) (1)
por suma en R3 y deIinicion d e q. Por otra parte, teniendo en cuenta la deIinicion d e q
y la suma en R2, es
f (x\ , x2, ) + f ( y u V2 , y 3 ) = (xi - x 3 , x 2 - x 3) C y 3, y 2 - y ) =
= (* - x 3 + V j - y 3, x 2 - x 3 +y 2 - y 3) (2)
De ( 1) y (2) se deduce que la imagen de la suma es igual a la suma de las imagenes.
ii)Por deIinicion de producto de escalares por ternas, deIinicion de q, propiedad
www.FreeLibros.com
www.FreeLibros.com
68
T ORMACIONES LINEALES
distributiva del producto en R, producto de escalares por pares, y por deIinicion de
q. e s
f [ cc( xlt x 2, x 3) ] = f ( a x l , a x 2, a z 3) (o:jct ~ a x 3, a x 2 - a x 3) =
= a ( x t - x 3, x 2 ~ x 3) = a f ( x 1, x 2, x 3)
0 sea, la imagen del producto de cualquier escalar por todo vector es igual al producto
del escalar por la imagen del vector.
Ejemplo 3-2.
La Iuncion q : R3 R2 tal que q ( z , , x 2, x 3) ( x t - x 3, x 2 - x 3 1) no es una
trasIormacion lineal, pues
f [ ( x l l x 2, x 3) + ( y 1, y 2l y 3) ] =f ( x 1 + y i , x 2 + y 2l x 3 + y 3) =
(z i + y i - x 3 - y 3t x 2 + y 2 ~ x 3 - y 3 + 1)
pero
f ( x i , x 2, x 3) + f ( y u y 2, y 3) ^ ( x x - x 3, x 2 - X 3 1) + (yx ~ y 3, y 2 - y 3 1)
(z i ~ x 3 + y x - y 3, x 2 - x 3 ` 2 - y 3 2)
Ejemplo 3-3.
Supongamos q u e q :R2 -z R3 es una trasIormacion lineal que veriIica
q( ! ~ 0) (1, 2, 3) y q(O, 1) (0, - 1 , 2)
Podemos obtener la imagen de (2, 3) de la siguiente manera
q( 2 , - 3 ) q u(2, 0) (0, 3) q u 2(1, 0) 4z ( - 3 ) (0, 1)
2 q ( 1, 0) ( 3) q (0 , 1) 2 ( 1 , 2, 3) ( 3) (0 , - 1, 2)
( 2, 4, 6 ) ( 0 , 3 , - 6) (2, 7, 0)
3.2.2. Propiedades y clasificacin de las trasformaciones lineales
Sea q : V- z una trasIormacion lineal. Denotaremos mediante 0V y 0 a los vectores
nulos en V y en , respectivamente.
1 . La imagen del vector nulo del primer espacio por toda trasIormacion lineal es el vector
nulo del segundo espacio.
Teniendo en cuenta que el producto del escalar 0 por cualquier vector es el vector nulo, y
la condicion ii) de la deIinicion de trasIormacion lineal, se tiene
q (0 V) q (0x) 0q (x) 0e
II. La imagen del opuesto de todo vector del primer espacio es igual al opuesto de su
imagen.
www.FreeLibros.com
www.FreeLibros.com
OPIEDADES
69
Considerando la propiedad I.3.4., y la deIinicion de trasIormacion lineal, es
q( - X ) q u ( - l)x ( - l ) q ( x ) - q( X )
De acuerdo con la deIinicion, una Iuncion q : V es una trasIormacion lineal si y solo
si satisIace las condiciones i) y ii), pero nada se exige a q, salvo que sea una aplicacion. En
particular diremos que
q es un monomorIismo vz qes inyectiva
q es un epimorIismo *>f es sobreyectiva
q es un isomorIismo o q e s biyectiva
Si e V, entonces la trasIormacion lineal q se llama un endomorIismo, y si este es
biyectivo recibe el nombre de automorIismo. O sea, un automorIismo es toda trasIormacion
lineal biyectiva de un espacio vectorial en si mismo.
Ejemplo 3-4.
La aplicacion q : R3 -~ R3 deIinida por
f ( x i , x 2, x 3) = {x2, - x u x 3)
es un automorIismo en R3.
Debemos probar que q es una trasIormacion lineal biyectiva.
1. qe s una trasIormacion lineal, ya que veriIica:
i ) La imagen de la suma es igual a la suma de las imagenes
f [( x \ >x i , x 3) + ( yl , y 2l y?i) \ =f ( x l + y i , x 2 + y 2, x 3 + y 3) =
(z2 + y 2, - z i ~ y l t x 3 + y ) = ( x2, - x u x 3) + ( y2, - y l t y 3) =
= f ( X i , x 2l x 3) + f ( y l l y 2l y 3)
ii) La imagen del producto de cualquier escalar por todo vector es igual al producto
del escalar por la imagen del vector.
f [ a ( Xt , x 2, x 3) ] = f ( a x i , a x 2, a x 3) ~ (<*x2, - a x u u x 3) =
~<x (x2l - x , x 3) a f ( x u x-2, x 3)
2. f e s inyectiva.
Sean (z , x 2l x 3) y {y{, y 2, y 3) en el dominio, tales que
f ( x i, x 2, x 3) = f ( y f y 2, y 3)
O sea
(x2, - x, x 3)= (y2l - y i, y 3)
Por lo tanto es
x -2 = y 2 , z 1 V, , x 3 =y 3
www.FreeLibros.com
www.FreeLibros.com
.
T ORMACIONES LINEALES
Luego
( x , x 2, x 3) = ( y l , y i , y 3)
3. f e s sobreyectiva.
Cualquiera que sea (a, b, c) en el codominio, existe ( - b, a, c) en el dominio, tal que
q ( -b, a, c) (a, b, c)
ueda probado asi que f es un automorIismo en R3. La trasIormacion linealqpuede
interpretarse como una trasIormacion del espacio en si mismo que corresponde auna
rotacion de 90o alrededor del eje x 3.
Ejemplo 3-5.
1. La Iuncion q : V e que asigna a todo vector de V e l vector nulo en e es una
trasIormacion lineal, pues
q ( x y) 0w (V 0w q( x ) q (y)
q ( x ) a O w - 0w a q ( x )
f se llama trasIormacion lineal nula.
2. La I u n c i o n q: V -~ V tal que q (x) ax cualquiera que sea x e V, y a un escalar dado
en K, es una trasIormacion lineal.
www.FreeLibros.com
www.FreeLibros.com
OPIEDADES
71
En eIecto:
f (x + y) = a ( x + y) = a x + a y q( x ) q( y )
f (a x) a (a x) a (a x) a q (x)
La trasIormacion lineal q asi deIinida se llama homotecia de razon a.
Ejemplo 3-6.
Seaq : R2 - ~R2x2 deIinida por
qn o es inyectiva ni sobreyectiva.
Ejemplo 3-7.
Si (V, , R , .) denota el espacio vectorial de los polinomios reales en la indeterminada
X, entonces la Iuncion
q es una trasIormacion lineal, pues
f [ ( a . 6) ( c , d)) q( + c , b + d)
a c b d 0
0 a + b + c + d
y
q : V -z V,
www.FreeLibros.com
www.FreeLibros.com
72
es una
TRASFORMACIONES LINEALES
trasIoTmacion lineal, pueT z0 z V z P r e m i o derivado,
/ ( P + Q ) = ( p + Q ) p . + q , ^ / ( p ) + / ( Q )
f { a ) = { ay = a?' =af ( V)
El endoinorIismo q no es inyectivo.
9 .9 . NCLEO E IMAGEN DE UNA TRASFORMACION LINEAL
Consideremos una trasIormacion lineal q : V -we.
3.3.1. Concepto de ncleo
cuerpo`es VeCzori as -
del codominio. d0mmio CUyaS inia`enes P q s o n el vector nulo
El simbolo N (f ) se lee ncleo de f. Por deIinicion es
N( q ) j x e V q q ( x ) 0
El nucleo de toda trasIormacion lineal es la
espacio. O sea
p re imagen del vector nulo del segundo
K( j ) =f l ( ( 0 x )
Por deIinicion, un vector perteneciente a V es un elemento del nucleo si v solo
imagen es el vector nulo de . y so!o SJ su
x e N (q) ` q( x ) Ow
www.FreeLibros.com
www.FreeLibros.com
N CLEO
73
Ejemplo 3-8.
Determinamos el nucleo de la trasIormacion lineal deIinida en el ejemplo 3-1.
N ( 0 ( x1, z 2, x 3) e R 3 q q ( z ! , z2l x 3) ( 0 - o) i
Se tiene
(*i . e N ( f ) o f ( x u x 2, x 3) = ( 0, 0) <>
` (* z . * - z ) (O , 0) OXj - JC3 OA x 2 - * 0 o
^ X i =Xi = x 2 =a
Luego
N (q) ( ( a , a , a ) a e R )
Por deIinicion de ley de composicion extema en R3 se tiene
N ( q ) I l ( l , l , l ) q e R x
Esto nos dice que el nucleo de q es el conjunto de todos los multiplos escalares del
vect or ( l , 1, 1). La representacion del N( q) es t a dada en el graIico siguiente
Volviendo a la deIinicion de nucleo de una trasIormacion l i neal qV ->, observamos que
NO) C V
Por otra parte, de acuerdo con 3.2.2.1., es
q (0 V) 0
En consecuencia
Ov e N( q )
Luego, el nucleo de toda trasIormacion lineal q es no vacio.
www.FreeLibros.com
www.FreeLibros.com
E T ORMACIONES LINEALES
3.3.2. Propiedad del ncleo
El nucleo de toda trasIormacion lineal entre dos espacios vectoriales es un subespacio del
primero.
Hipotesis) f : V -z e es una trasIormacion lineal.
Tesis) ( N (f), , K, . ) es un subespacio de (V, , K, .).
Demostracion) Ya hemos visto que el nucleo de toda trasIormacion lineal entre dos
espacios vectoriales es una parte no vacia del dominio. De acuerdo con la condicion
suIiciente, demostrada en 1.8 .2 ., Ialta demostrar:
1. N (q) es cerrado para la suma.
Sean x e y dos vectores cualesquiera de N (q).
x e N ( q )A y e N ( q ) ~q(x) 0 a q( y ) Ow ~
~q(x y)0 w ~
~x y e N (f)
Por deIinicion de nucleo, suma en , deIinicion de t rasIormacion lineal y deIinicion de
nucleo.
2. N (f) es cerrado para el producto por escalares.
Sean a e K y x e V
oe Ae=c oe Af ( ) = C s> a f ( x ) = o ) ^ =
=/(a x) 0 ` a x e N (q)
Por deIinicion de nucleo, producto de escalares por elementos de , deIinicion de tras-
Iormacion lineal, propiedad 1.3.2. y deIinicion de nucleo.
3.3.3. Concepto de imagen
Imagen de una trasIormacion lineal q : V -+ es el conjunto imagen del dominio, o sea, es
la totalidad de las imagenes de los vectores del primer espacio.
El simbolo I (q) se lee: imagen de f.
I v q ) q ( x ) q x e V x
Tambien
1 ( 0 1 y e q 3 x e V a q( x ) y j
www.FreeLibros.com
www.FreeLibros.com
I EN
Sabemos que f (0V) 0. En consecuencia, 0e e I (f), lo que signiIica que
1 (0 z 0
Ademas, de acuerdo con la deIinicion, es
I ( / ) C W
3.3.4. Propiedad de la imagen
La imagen de toda trasIormacion lineal entre dos espacios vectoriales es un subespacio del
codominio.
Hipotesis) q : V -w e es una trasIormacion lineal.
Tesis) f I (f), , K, . ) es un subespacio de (W, , K, .).
Demostracion) Sabemos que la imagen de toda trasIormacion lineal entre dos espacios
vectoriales es una parte no vacia del segundo. Teniendo en cuenta la condicion suIiciente
para la existencia de subespacio, probaremos:
1. I (q) es cerrado para la suma.
Sean u y v dos vectores de i (q).
u e I (q) a v e I ( q ) ` 3 x ` y e n V q q ( x ) u a q( y ) v ~
~q(x) q (y) u v a x e V a y e V `
~q(x y) u v a x y e V ` u v e l ( q )
Hemos aplicado la deIinicion de imagen, de trasIormacion lineal y de imagen.
2 . I (f) es cerrado para el producto por escalares.
Consideremos a e K y u e I (f)
a e K a u e I (q) ~ a e K a q (x) u a x e V ~
~ a q (x) a u a x e V ~ q ( a x ) a u a a x e V~
~ a u e I (f)
www.FreeLibros.com
www.FreeLibros.com
` i magen~ Pr o dUCt0 ~ - trasIormacion
Ejemplo 3-9.
eDe7eTem ptoo31 * z i ma8en z trasIormacio lta` q : R 2 - R2 z 2 deIinida
1.
N (x\ , x 2) R. 2 / f ( x l N
qO 0
( ` i , x 2) e N ( q ) wq ( Xl i JCj j J
0 0 q
x i + *2 0 , qO 0
, ) J + x 2 = 0^
o x , + x 2 f 0 o q
* x t = - x 2
Luego
N (J) I ( - a, a) q a e R )
o sea, ei nucleo de q es el conjunto de los pares ordenados de componentes opuestas.
76 T ORMACIONES LINEALES
1 0 ) xA e R 2wq q ( z , . z 2) A
(cJ e I e v~3 I e . ` ) e R 2 q q ( I l x i ! ) A
A
z i 0 j a b \
u z 2 =a= d a b = c = O
O x x + x 2 I \ c d J
Luego a i (f) pertenecen las matrices del tipo
a O
0 a
Ejemplo 3-10.
Dada la trasIormacion lineal del ejemplo 3-9, determinamos las dimensiones de N (q) e
www.FreeLibros.com
www.FreeLibros.com
N CLEO E IMAGEN
77
1. Hemos visto que
N ( 0 ( - a , a) q a e R i
Teniendo en cuenta la deIinicion de ley de composicion externa en R2 , es
N ( q ) i ( - 1 , l ) q e R l
Esto signiIica que N (f) esta generado por el vector ( - 1 , 1), es decir, este vector
constituye un sistema de generadores del nucleo. Ademas es linealmente independiente
segun 2.4.3. i). Por consiguiente, ( - 1, 1) es una base del nucleo.
Entonces
es un sistema de generadores de I (q), y ademas linealmente independiente. En
consecuencia, constituye una base.
Luego
dim N (f) = 1
2. Como
podemos escribir, por deIinicion de producto de escalares por matrices:
O sea, la matriz
dim I (0 1
3.3.5. Nucleo de un monomorIismo
Una trasIormacion lineal q : V -~ es inyectiva si y solo si el unico elemento del nucleo es
el vector nulo del dominio.
1. Sea q : V -~ un monomorIismo. Debemos probar qu e N (f) 0V x
Ce e (f)=> ( () ()
www.FreeLibros.com
www.FreeLibros.com

T ORMACIONES LINEALES
Sea x e N (J). Se tiene
x e N( j ) =>f ( x ) ~ Ow =f ( Ov )=>x = Ov =>xe j 0V}
Por deIinicion de nucleo, 3.2.2. 1. y por serq inyectiva.
Entonces
N ( 0 C x 0 V (2)
De (1) y (2) resulta
N ( 0 x 0 V)
2. Sean q : V -~ una trasIormacion lineal y N (f) = ( Oy )
Para demostrar que q es inyectiva consideremos dos vectores cualesquiera x e y en V, tales
q u e q( x ) q (y).
Ahora bien, por suma en e, deIiniciones de trasIorma cion lineal y de nucleo, por
hipotesis y suma en V, se tiene
q( x ) q ( y ) ` q ( x ) - q ( y ) - O w z q ( x y) 0 ~
` x - y e N C O ` x - y ` O v ` x ` y
O sea, basta que el nucleo tenga un unico elemento para que la trasIormacion sea
inyectiva.
Ejemplo 3-11.
La imagen de cualquier conjunto linealmente dependiente, por toda trasIormacion
lineal, es linealmente dependiente.
Sea q : V e una trasIormacion lineal,y Vi, v 2 , . . vr un conjunto linealmente
dependiente en V. Debemos probar que q (v`, q ( v 2) , . . . , q( v r) es linealmente
dependiente en .
En eIecto, por deIinicion de dependencia lineal se veriIica que
r
3 i l . 2 a v - 0 V a ctj i = 0
Aplicando q es
q ( . 2 ` v ` q O M a ` O
Por s er quna trasIormacion lineal y por imagen del vector nulo se tiene
r
2 O!xq(Vi) 0w A
1=1
En consecuencia
i q ( Vi ) , q ( V2) , . . . , q ( v r)
es linealmente dependiente.
www.FreeLibros.com
www.FreeLibros.com
I EN
Ejemplo 3-12.
Si q : V -* es una trasIormacion lineal y Vi, v2, . . -, vr son vectores de V tales que
sus imagenes constituyen un conjunto linealmente independiente en , entonces
v , , v2, . . . , vr son linealmente independientes.
En eIecto., consideremos una combinacion lineal, con escalares a determinar, de los
vectores Vj , v2, . . vr, que sea el vector nulo de V
r
2 a, v,- 0 V
i1
Entonces, por deIinicion de Iuncion, es
q ( S a I vi) q (O v )
ii
Por s e r qu n a trasIormacion lineal y por imagen del vector nulo, se tiene
. 2 i q (VI) 0
ii
Como los vectoresq(v,), q 1, 2 , . . r s on linealmente independientes en , resulta
ot, = 0 V q l , 2 , . . . , r
Luego
Vi , v2 I . . vr
son linealmente independientes en V.
Ejemplo 3-13.
La imagen de todo conjunto linealmente independiente, dada por cualquier trasIorma
cion lineal inyectiva, es un conjunto linealmente independiente.
Hipotesis) q . V -> e es una trasIormacion lineal 1-1.
Vj, v2, . . vr ) es L.I. en V.
Tesis) ( f (yi \ f (v2) , . . . , q( v , ) es L.I. en e.
Demostracion) Sea
. J 1 i q( v i ) 0 w
Por ser q una trasIormacion lineal es
q ( 2 ai v,) 0w
11
Por deIinicion de nucleo se tiene
www.FreeLibros.com
www.FreeLibros.com
Y comoqes inyectiva, el nucleo se reduce al vector nulo de V, o sea
r
.2 , 0 V
Aplicando la deIinicion de independencia lineal a los vectores de la hipotesis es
a = 0 Vi - 1 , 2, . . . , r
En consecuencia
i q ( Vl ) , q ( v 2), . . . , q ( v r)
es un conjunto linealmente independiente.
3.4. DIMENSIONES DEL NUCLEO Y DE LA IMAGEN
La trasIormacion lineal q : R2 ` R2 z 2 , estudiada en los ejemplos 3-9 y 3-10, veriIica
dim N (q) 1 y dim I (f ) = 1
O sea
dim N (q) dim 1(q) 2 = dim R2
Este hecho se veriIica cualquiera que sea la trasIormacion lineal deIinida en un espacio
vectorial de dimension Iinita.
Propiedad
Si (V, , K, .) es un espacio vectorial de dimension Iinita y q : V - ~ e es una
trasIormacion lineal, entonces la suma de las dimensiones del nucleo y de la imagen es igual a
la dimension del primer espacio.
Hipotesis) q : V -we es una trasIormacion lineal
dim V = n
Tesis) dim N (f ) dim I (f) ~ dim V
Demostracion)
1. I (f) tiene dimension Iinita
Sabiendo que cualquier base de V es Iinita, se deduce que I (f) tiene dimension Iinita. En
eIecto si I w , , w2 , . . wr es un conjunto L.I. en I q), entonces existe un conjunto L 1
en V:( vj , v2, . . vr j tal que
q(v ) w i = 1, 2 , . . . , r
de acuerdo con el ejemplo 3-12. Esto signiIica que si 1 (f) no tuviera dimension Iinita
entonces V no tendria dimension Iinita.
2. Sea ( x , , x2, . . xp ) una base de N (J).
Si n - p , entonces N (q) V y dim I (f) 0, pues en este caso es I (f)= j 0 D.
80 T ORMACIONES LINEALES
www.FreeLibros.com
www.FreeLibros.com
DIEN IONES DEL NUCLEO Y DE LA IMAGEN 81
Si p v , entonces, por el teorema de extension, existen y , , y2, . . ys en V, tales que
A ,, . . ,, , ,s
es una base de V.
V

Se tiene p s n, y el teorema se reduce a probar que dim I (f) - s.


Consideremos las imagenes de los vectores y i , y2, . . . , ys. Sean estas
Zqq(y) c o n q 1, 2 , s ( 1)
Demostraremos que x z , z2 , . . zg es una base de I q). En eIecto:
i ) ( z ! , z 2, . . . , zs ) es L.I.
Sea

i a Z
Por (1)
. 2 a f ( y) = z~w ay s ) ow ` y. e n ( o ~
~2` a y 2 j3s- Xj z 2` (3s-xs- - 2` ot y 0V ~ (3,- 0 a 0 Vi Vq
ii) I z l , z 2, . . . , z s es S.G. de l ( f )
Sea zcualquier vector de I (f). Por deIinicion de conjunto imagen se veriIica
z e I ( 0 ~ 3 x e V q q ( x ) z ` z q ( x ) a x 2 a x . 2 13, y w
P s P S
www.FreeLibros.com
www.FreeLibros.com

T ORMACIONES LINEALES
En i) hemos tenido en cuenta q u e qe s una trasIormacion lineal, la deIinicion de nucleo, la
base de este, suma en V, y el hecho de que A es una base de V.
En ii) hemos expresado a x como combinacion lineal de la base de V, se ha tenido en
cuenta que q es una trasIormacion lineal, que todo x es un elemento del nucleo, y que el
producto de cualquier escalar por el vector nulo es el vector nulo.
ueda demostrado entonces que
dim N (f ) dim I (f ) ~ dim V
Ejemplo 3-14.
Consideremos la trasIormacion linealq: R4 -R 2 deIinida por
f ( x u x 2, x 3, x 4) = ( xl - x 2 - x 3 z 4 ) 0)
Determinamos:
1. El N (q), una base del mismo y su dimension
(z i, z 2. z 3, z 4) e N q)zq(z,, z 2l x 3, z 4) (0, 0) o
o ( z i ~ x 2 - z 3 x 4 , 0) (O, 0) o Xl - x 2 - x 3 x 4 0 o
oj cj ~ x 2 z 3 - z 4
En consecuencia, los vectores del nucleo .son del tipo (a b - c, a, b, c), y por
deIinicion de suma en R4 y producto de escalares por cuaternas, se tiene
(a + b - c , a , b, c) - (a, a, 0 , 0 ) (b, O, b, 0) ( - c , O, O, c) ~
= a ( 1, 1, 0 , 0) 6 ( 1, O, 1, 0 ) c ( - 1, O, 0 , 1)
O sea, los vectores
V! ( l , 1, 0 , 0) v2 ( 1, 0 , 1, 0) v3 ( - 1, 0 , 0 , 1)
son un sistema de generadores de N (f). Ademas, son linealmente independientes y por
lo tanto constituyen una base del mismo. Luego
dim N (f) = 3
2. Una base de I (f).
De acuerdo con el teorema anterior es
dim N (f) dim I (q) 4
O sea
dim I (f) = 1
Entonces, toda base de 1(J) tiene un unico vector.
Como
1 ( f ) = I (o ~ b - c d , 0) q a , b , c y d e R i
se veriIica que
www.FreeLibros.com
www.FreeLibros.com
TEOREMA FUNDAMENTAL
83
O i . y i ) e I (f) O i , y i ) = (a - b - c d , 0) o
` (y 1, y 2) (a , 0) ( - b , 0) ( - C , 0 ) ( d , 0) o
( yi . ~a) ( l , 0) - ( l , 0) - c ( l , 0) d ( l , 0 ) o
` 0 1 . ` 2 ) ( a - 6 - c c i ) ( l , 0 ) o ( y l i ` 2) 0 ( i , 0 )
Luego
( 1, 0) es una base de I (f).
En consecuencia
dim I (q) 1
3.5. TEOREMA FUNDAMENTAL DE LAS TRASFORMACIONES LINEALES
Sean (V, , K , .) y (e, , K , .) dos espacios vectoriales y uv j vj , v2 , . . v ) una
base de V. Si e j, w2, . . wn son n vectores cualesquiera de e, entonces existe una uni ca
trasIormacion lineal q : V e tal que f (v,) w,- Vq 1 , 2 , . . . , n.
Hipotesis) (V, 4-, K , .) y (e, , K , .) son espacios vectoriales
uv v , , v2, . . vn x es una base de V
c w
Tesis) Existe f : V -we trasIormacion lineal unica, tal que q (v ) w, Vi 1, 2, . . ., n
Demostracion) Sea cualquier vector x e V. Entonces existen y son unicos los escalares ow!,
a2, . . 0n, tales que
n
X 2 di Vs
= 1
ya que todo vector del espacio puede expresarse de modo unico como combinacion lineal de
los vectores de la base, segun 2.4.2.
DeIinimos
f : V -* mediante q (x) 2 cc wI
11
La asignacion (1) caracteriza a q como una Iuncion de V en e.
Necesitamos probar las siguientes aIirmaciones:
1. qe s una trasIormacion lineal
Si x e y son dos vectores cualesquiera de V, y a e K, entonces
n n
x i i ai vv A
www.FreeLibros.com
www.FreeLibros.com
y se veriIica
E
T ORMACIONES LINEALES
i ) q ( x y ) q ( x aiV I t v , ) q ( x ( a I t ) v ) x ( a, (
= . 2 , w( + | ft w , = / (x ) + / ( y)
) r x ~q( g v,) q ( . 2 (a a,.) v , )
V
C q ) , - t t S ttii q( z )
2 . q - 1, 2 , . . ~q(v.) ` w.
En eIecto
vI 0 v, . . . o vM j v. 0
Luego
f ( y ) = 0w, + . . . + owM + 1 Wi + . . . + oW)j =
1 wI w,
3. Bajo la condicionq(v,) w,. qe s unica.
Sig : V -~ e es una trasIormacion lineal tal que g (y.) - w. yq 1 ?
&\ o wt , vi i , / , . . . , n, entonces
g ( x ) =g ( . , Vi) . ai g (Vi) a . w.
" A ai f (yi) qx 1a v, ) - q ( X)
cualquiera que sea x e V.
Luego
neal entre dos
del primero. determinada poi los valores que toma sobre cualquier base
Ejemplo 3-15.
DeIinimos la trasIormacion lineal q : R3 R2 0hp 1t ion, i
Ow 1. 1) , (1 1 0) (i 0 iw r 3 , q gna a los vect o res de la base
w qwv. en R , los vectores (T 2) ( \ v ( i n 2
respectivamente. y ( - 1, 1) en R2,
Necesitamos determinar la imagen de un vector generico (a b p
este como combinacion lineal de la base dada A s a mo s a
www.FreeLibros.com
www.FreeLibros.com
Entonces
( a , b , c ) = a, ( 1, 1, \ ) + a 2 ( 1, 1, 0 ) o3 ( 1, 0 , 0) -
(vzi a2 a 3 , a , vx2 , ctj) ~
` c , ot2 = b c , a 3 a -- b
( I I , , c ) c ( l , 1, 1) (~- c ) ( l , 1, 0) (a - b) ( i , 0 , 0)
f ( a, b , c ) = c ( , ) ( c) ( , ) ( ~) ( , x)
( c>2c) (b c, 2b 2c) (a b, a b)
(2 b - a , b +a )
ODUCTO DE MATRICES 85
3.6. PRODUCTO DE MATRICES
Sean las matrices A e Kmxjs y B e K px . Llamaremos producto de las matrices A y B en
ese orden, a la matriz C cuyo elemento generico cu es la suma de los productos d e los
elementos de la Iila i de A, por los correspondientes elementos de la columna q de B.
Escribiremos
C AB
donde
c izii b u ai2 b2j . . . aip bpj
O sea
c ak bh}
cualesquiera que sean q 1, 2 , . . ., m y q 1, 2 , . . . n.
De acuerdo con la deIinicion, para que dos matrices se puedan multiplicar, el numero de
columnas de la primera debe ser igual al numero de Iilas de la segunda.
Por ejemplo, si
y 1 o 1 - 2
1 2 - 2 q 0 - 1 --I l
entonces
www.FreeLibros.com
www.FreeLibros.com
86
T ORMACIONES LINEALES
Si A es la misma que en el caso anterior y B
entonces
1 0 - 1 f - 2 \ i - 5
AB I 2
1 2 - 2 q 3 q - 4
En ninguno de los dos casos existe BA
En particular, si m n, los elementos de K xn se llaman matrices cuadradas y se veriIica
que (KIXrt, , .) es un anillo no conmutativo, con divisores de cero y con identidad. El tema
esta tratado en el capitulo 9 del texto Algebra I ya citado, y se estudiara en detalle en el
capitulo siguiente.
El elemento unidad o identidad en Knxn es la matriz I deIinida por
aj = 1 si q q y c y 0 si qq
y veriIica
Al IA cualquiera que sea A e K nx ,
3.7. MATRIZ ASOCIADA A UNA TRASFORMACION LINEAL
Consideremos una trasIormacion lineal q : V e, entre los espacios V y e de
dimensiones Iinitas n y m, respectivamente. Probaremos que si se Iija una base en cada
espacio, entonces la trasIormacion lineal q queda caracterizada por una matriz del tipo mx n,
que llamaremos matriz de la trasIormacion lineal respecto del par de bases dado.
Sean entonces
uv x Vj, v 2 , . . ., vn ) una base de V

uw ( w , , w2, . . wm I una base de e


Si x es cualquier vector de V, por ser uv una base, existen escalares a , , a 2~-, a n~
unicos, tales que
x = ^ ai vi 0 )
Tales escalares caracterizan a x respecto de la base de V, y segun vimos en 2.6.2. se llaman
las coordenadas de x respecto de dicha base. Podemos escribir
www.FreeLibros.com
www.FreeLibros.com
Si la imagen de x e V es y e , se tiene
y=/(x)
Como y es un vector de , puede expresarse de modo unico como combinacion lineal de
la base uw, o sea
m
y . 2 a ,w, (2)
donde a i , a 2, . . a m son las coordenadas de la imagen de x, respecto de la base uw. En
consecuencia
T I DE N T ORMACION LINEAL 87
Por el teorema Iundamental de las trasIormaciones lineales, q queda caracterizada
univocamente por los valores que toma sobre cualquier base de V. O sea es suIiciente
obtener las imagenes, por q, de cada vector de la base uv. Ahora bien, para cada
q - 1 , 2 , . . . , e e, y por consiguiente puede expresarse como combina cion lineal de la
base uw.
O sea
m
f ( vj ) = . aj ( () f = , , . . n
Asignamos a cada escalar aj un doble subindices el primero, asociado a cada vector de la
base e i, w2, . . wm ) , y el segundo, en correspon dencia con el vector de la base Ivl
Asi
q ( v i ) a u wi I l 2i w2 . . . +a ml wm
f (y-i) ~ an w 1 ` 2 2 w2 . a mi wm
f (vn) n ex a2n w2 -K . . +amn wm
Los n.m escalares au, que Iiguran en las combinaciones de los vectores que son imagenes
de los elementos de la base de V, constituyen una matriz cuya traspuesta, que denotamos
con A, recibe el nombre de matriz de la trasIormacion linealqrespecto de las bases uv y uwj.
O sea
www.FreeLibros.com
www.FreeLibros.com
88 T ORMACIONES LINEALES
La matriz de la trasIormacion lineal es del tipo mx n , donde m es la dimension del
segundo espacio y n la del primero.
Por consiguiente, para hallar la matriz de una trasIormacion lineal f respecto de una base
en cada espacio, se determinan las imagenes dadas por q de los vectores de la base del primer
espacio. Se expresan estas imagenes en terminos de la base del segundo espacio, o sea, como
combinaciones lineales de los vectores de la segunda base. La traspuesta de la matriz de
coeIicientes es la matriz de la trasIormacion lineal respecto de las bases dadas en ambos
espacios.
Probaremos ahora si A es la matriz de la trasIormacion lineal f , respecto de las bases uv y
uw, y si Xuvj denota la matriz columna correspondiente al vector x e V, cuyos elementos
son las coordenadas de este respecto de la base de V, entonces la imagen de x, expresada en
terminos de la base de e, se obtiene premultiplican do por A al vector columna Xuv, o sea
q( x ) A Xuv) Yuwj
En eIecto, dado x e V, es
. m
x 2 aJ (!) y q(x) y 2 a i w, (2)
En consecuencia, teniendo en cuenta (1) y la deIinicion de trasIormacion lineal, es
f ( * ) = f <Xj vy) 2 aj f (vs )
Por (3) resulta
n m
f (x) s 2 aj 2` aj w
Introduciendo ot en la segunda sumatoria, por ser constante respecto del indice i, y
permutando las dos sumatorias, se tiene
n m m n
qO O ` . S a aj w,- , 2 ` 2 a) w (4)
De (2) y (4), por la unicidad de la combinacion lineal que expresa a f ( x ) en terminos de
la base uw, es
n
otj
Se deduce de esto que la i-sima Iila o componente de [ o sea es igual a la suma de
los productos de los elementos de la Iila i de A por los correspondientes elementos de la
unica columna de Xuvj, y por la deIinicion de producto de matrices resulta
www.FreeLibros.com
www.FreeLibros.com
T I DE N T I ORMACION LINEAL
89
a >.. . 2 a i
\
f
<a{

\
\
ai\ <*i2 . ain
\
am I am2 &ntn
J
O,
n /
/
O bien
Reiterando lo enunciado, aIirmamos que la imagen de cualquier vector del primer espacio
es igual al producto de la matriz de la trasIormacion lineal por la matriz de coordenadas de
dicho vector, respecto de la base uv. Tal imagen resulta expresada en terminos de la base del
segundo espacio.
Ejemplo 3-16.
Consideremos la trasIormacion lineal q : R3 -~ R2 tal que
f ( X \ , X 2 , JC3 ) ( 1 J 3 ) ( 1)
1. Determinamos la matriz de f respecto de las bases
M x (1, 1, 1) , ( 1, 1, 0 ) , ( 1, 0 0 ) e n R3
Mediante (1) obtenemos las imagenes de los vectores de la base uv, y expresamos
dichas imagenes como combinaciones lineales de los vectores de la segunda base
u w x ( 2 , 0 ) , (0 , 1) x
en R2
q ( 1, 1, 1) (2 , 0) 1 ( 2 , 0 ) 0 (0 , 1)
q ( l I11 0 ) ( 1, 1) (2 , 0 ) 1 (0 , 1)
q ( 1, 0 , 0 ) ( 1, 0) ( 2 , 0 ) 0 (0 , 1)
Se tiene
2 ~2
0 1 0
A es la matriz de la trasIormacion lineal q, respecto de las bases uv y uw.
2. Utilizando la matriz A, obtenemos la imagen de x (1, 2, 3).
www.FreeLibros.com
www.FreeLibros.com
Para ello es necesario determinar las coordenadas de x respecto de la base en R3, o sea,
a i ~a2 y a 3 tales que
( 1, 2, 3) z! ( l . l . O a a ( 1, 1, 0) a 3 ( 1, 0 , 0)
( a, + a2 : , :, +<x2, ( *
9. T ORMACIONES LINEALES
a i 3 , a 2 - 1 , a 3 - 1
Resulta
Entonces
Su imagen es
f
2
1
Los escalares 2 y l son las componentes d e q( x ) respecto de la base uw.
Si aplicamos directamente q a la tema (1, 2,3), se tiene
q(1~ 2, 3) (4, - 1 )
Expresando esta imagen como combinacion lineal de la base uw es
(4, 1) 2 (2, 0) (--1) (0, 1)
Ejemplo 3-17.
Obtenemos la matriz de la trasIormacion lineal q : R2z2 - R deIinida por
j x i x2\
/ ( * 1 + * 4 , X 2 - X 3 )
\ x 3 x j
respecto de la base canonica en ambos espacios.
Las imagenes de los vectores de la base canonica de R2z 2 son
q ( ) (1, 0) 1 ( 1, 0 ) 0 (0 , 1)
0 0 q
f I ) ( 0, 1) 0 ( 1 , 0 ) 1 ( 0 , 1 )
0 0 q
www.FreeLibros.com
www.FreeLibros.com
T I DE N T ORMACION LINEAL
91
f I ) (0 , - 1) 0 ( 1, 0 ) ( - 1) (0 , 1)
1 0 q
1 \
q (1, 0) 1 ( 1, 0 ) 0 (0 , 1)
0 1 q
Resulta
q I 0 0 1
H
0 1 1 o
Notese que, en el caso de la base canonica, los coeIicientes de la combinacion lineal
son los elementos de la matriz, o las componentes del par.
Asi, la matriz
/ 2
P
i - i
es un vector de R2 z 2 cuyas coordenadas, respecto de la base canonica
uv En , Ej2 , E2i , E22 , son 2, 3, 1 y 1. De modo tal que la matriz puede
expresarse asi
Su imagen p o r q, utilizando A, es
q ( P ) A P (V q 1
0
Tal imagen resulta expresada en la base canonica de R2 y se identiIica con la que se
obtiene al aplicar directamente la deIinicion d e q. Asi
q x ` j ( 2 - l , - 3 - l ) ( l , - 4 )
www.FreeLibros.com
www.FreeLibros.com
3.8. COMPOSICION DE TRASFORMACIONES LINEALES
Sean q : V - ~ U y g : U- z e dos trasIormaciones o aplicaciones lineales. La Iuncion
compuesta
o q : V- we
se deIine como en 4.6., Algebra I, o sea
(toj )(X) = t [ j ( X)]
Demostramos que la composicion de dos trasIormaciones lineales en las condiciones
dadas, es una trasIormacion lineal.
En eIecto:
1- ( I I o q ) ( x y ) z x q ( x y ) ` u q ( x ) q ( y ) -
=8 xq( x ) g uq(y) (g o J) (X) (g o f ) ( y)
2- I e q ) ( M ) ` u I ( a x ) g u a q ( x ) l I t i uI ( x )
a (S f ) (x)
Hemos aplicado sucesivamente la deIinicion de composicion, las hipotesis ( f y g son
trasIormaciones lineales) y la deIinicion de composicion.
Ejemplo 3-18.
Consideremos las trasIormaciones lineales
q : R 3 R y g : R R2
deIinidas por
f ( x lt x 2, x 3) = x 1 - x 2 X3 y g( y ) = (y 0 )
Determinamos el nucleo de g o f . Para ello caracterizamos primero la ley de asignacion,
utilizando la deIinicion de composicion
f e 0 / ) ( ^ 1 ^ 2 , ^ 3 ) = ( / ( x 1 , X 2 , X 3 ) ] - ^ ( x 1 + X 3 ) =
= (x\ - x 2 + x 3 , 0)
Por deIinicion de nucleo, se tiene
( Xi , x2l X3) e N I e o q ) o ` o q ) ( Xl i X2) ` 3) (0) 0 ) o
` ( z 1 - z 2 x 3~0) (0 , 0 ) o Xl - X 2 + X 3 = q &
* Xx =x 2 ~ x 3
Entonces
N ( o q ) { ( b ~ c , b , c ) / b e R a c c R )
Como
( b - c , b , c ) = ( b , b , 0) (c, 0, c) 6( 1, l , 0 ) c ( - 1 , 0 , 1 )
92 T ORMACIONES LINEALES
www.FreeLibros.com
www.FreeLibros.com
COMPOSICION DE TRASFORMACIONES LINEALES
93
es
(1, 1, 0 ) , ( - 1, 0 , 1))
un S.G. del nucleo de g q. Como ademas es L.I., tal conjunto es una base del nucleo,
y por consiguiente su dimension es 2 .
3.9. TRASFORMACION LINEAL NO SINGULAR
3.9.1. Concepto
La trasIormacion lineal q : V -~ e es no singular, reg ular o inversible si y solo si es
biyectiva.
En simbolos
q : V -we es no singular o q e s un isomorIismo.
O bien
q : V -z es trasIormacion lineal no singular o q e s biyectiva.
Sabemos que una Iuncion q : V - z es biyectiva si y solo si admite inversa. En
consecuencia, podemos escribir
Una trasIormacion lineal q : V -~ e es no singular o E xiste f ~l .
3.9.2. Propiedad
La inversa de una trasIormacion lineal no singular es una trasIormacion lineal.
Sea q : V -+e una trasIormacion lineal no singular, es decir, un isomorIismo de V en e.
Probaremos que q 1 : e -~ V es una trasIormacion lineal.
www.FreeLibros.com
www.FreeLibros.com
9E T ORMACIONES LINEALES
Consideremos yi y y 2 en . Por serqbiyectiva, existen y son unicos los ve ctores x t y x2
en V, tales que
q ( x i ) yi y q ( x 2) y2
Se veriIica que
1. r (y, +y2) = / [ f M + f ( x 2) ] = r uT(Xl +x2)] t r f ) ( x i x 3)
iV (xi x 2) Xl x 2 - r 1 ( y O r 1 (y2)
2. S e a n a e Ky y i e
Entonces
q z ( y i ) r 1 u a q ( x1) r I [/ ( ocXi ) ]^
(f ~l o q ) ( a x 1) iv ( a xO ` a x j - a q 1( yt )
q y q 1 se llaman trasIormaciones lineales inversas, y se veriIica que
q f = h y q o r 1 iw
donde qv e zw denotan las identidades en V y en , r espectivamente.
Ejemplo 3-19.
La trasIormacion lineal q : R2 R2 deIinida por
f ( a , b ) = ( a , - b )
es no singular, por ser biyectiva.
En eIecto
1. Sean ( a , b) y (az, b 0 en el dominio, tales que f ( a , b) ~ f ( a , h*).
Entonces es
( a , - b ) = (a , ~ b )
En consecuencia
a =a' y b = b
O sea, f e s inyectiva.
2. Sea ( a , b) cualquier vector del codominio.
Existe (a , - b ) en el dominio, tal que
f ( a , - b ) = ( a , b)
Y, por consiguiente, f e s sobreyectiva.
El signiIicado geometrico de esta trasIormacion lineal es una simetria respecto del eje
de abscisas
www.FreeLibros.com
www.FreeLibros.com
9
T ORMACIONES LINEALES
1. Hipotesis) q : V -zV es una trasIormacion lineal inyectiva
dim V rt
Tesis) qe s sobreyectiva.
Demostracion) Por hipotesis,qes inyectiva. En consecuencia, por 3.3.5., es
N ( 0 x 0 V)

dim N (J) = 0
Como
dim N (q) dim I (f) = dim V
resulta
dim I (f) = n = dim V
En consecuencia, I (f) ~ V, o s e a , qe s sobreyectiva.
2. Hipotesis) q : V -*V es una trasIormacion lineal sobreyectiva
dim V n
Tesis) qe s inyectiva.
Demostracion) Sea ( j, w2, . . w ) una base del codominio V. Por ser q
sobreyectiva, existen V!, v2 , . . v en V, tales que
q( v i) wi VI 1, 2 , . . . ,
Los n vectores Vj, v2 , . . v son linealmente independientes en V, y de acuerdo con
2.7.2. constituyen una base de V.
Consideremos ahora un vector x cualquiera perteneciente al nucleo de q. Se veriIica que
x e N( q ) z x 2 a vI a q( x ) 0 ~ q( x ) - ctt f ( y t) = 0 z w, 0 ~
=>oti = , = ,.......g
Siendo N (f) = Oy, resultaqinyectiva.
3.10. COMPOSICION DE TRASFORMACIONES LINEALES
Y PRODUCTO DE MATRICES
Consideremos las trasIormaciones lineales
q : V- U y ` : U ` e
y sean
M ( v i , v 2 , . . v , uu ( u ! , u2 , . . up J y uw wl t w2 ) ----- , wm J
bases de U, V y e, respectivamente.
www.FreeLibros.com
www.FreeLibros.com
T I DE COMPOSICION
97
Las trasIormaciones lineales q y g quedan caracterizadas por las matrices
A Kp Xil y B e Km xp
respecto de las bases dadas en cada espacio.
Se veriIica que la trasIormacion lineal compuesta
g o f : V ` e
esta asociada a la matriz
C BA e Kmxn
respecto de las bases uv y uw.
En eIecto, sabemos que para determinar C se necesita obtener las imagenes de los vectores
de la base uv y expresarlas en Iuncion de los vectores de uw, o sea
m
( g oq) ( v j ) . 2 w, ( 1)
Por otra parte, teniendo en cuenta la deIinicion de composicion de Iunciones, que f y g
son trasIormaciones lineales de matrices A y B, respectivamente, y propiedades de la
sumatoria, se deduce
(g f ) (V})=8 \ f ( y j ) = g (IcS x akj uIt) X^ahJ g (uIe)
p m p m m p
akj , 2 bik w, - 2` . 2 akj bik w, . 2 ( ` bik ahj) wI ( 2)
De (1) y (2), por unicidad de la imagen, se deduce que
p
cij bih ahj
H1
En consecuencia, por deIinicion de producto de matrices, resulta
C BA
Ejemplo 3-20.
Sean q : R 3 - Ry : R- w- R2 trasIormaciones lineales deIinidas por
f ( x l , x 2, x 3) ^ x l + x 2 ~ x 3
g( y ) = (y. t y)
Se consideran las bases
uv ( 1, 0, 0) ,( 0, 1, 0) , ( 0, 0, 1) 1 e n R3
[u] = ( 1 ) en R
uw (2 , 0 ) , (0 , 2)) enR2
www.FreeLibros.com
www.FreeLibros.com
98 T ORMACIONES LINEALES
Determinamos las matrices asociadas a f g y g f , y veriIicamos el teorema anterior
q ( l , 0 , 0 ) 1 1 . 1 x
A 0 , 1 , 0 ) 1 1 . 1 U A ( l 1 - 1)
q (0 , 0 , 1) 1 ( 1) 1J
L
i (1) (1, 2) - (2, 0) 1 (0, 2) z B ( 2
1
1 q I 1 - 1
Resulta
C B A ( 2 j (1 ! 1 ) `2 2 _ 2 J
DeIinimos ahora
o q : R3 - z R2
(g f ) (Xi, z 2 - z3~ = 8 [ f ( x u x 2>x 3)
(* + z 2 ~ x 3) = (xt +x 2 + )
Luego
O sea
v z q ) ( 1, 0 , 0) ( 1, 2) -`- (2 , 0 ) 1 (0 , 2)
v roq)(0 , 1, 0) ( 1, 2) ( 2 , 0 ) 1 (0 , 2)
( wq)(0 , 0 , l ) ( i I 2) - i . ( 2I 0) ( ` I ) ( 0 , 2)

C = | 2 2 2
1 1 - 1
3.11. ESPACIO VECTORIAL DE TRASFORMACIONES LINEALES
3.11.1. Concepto
Con el simbolo L (V, e) denotaremos el conjunto de todas las trasIorm aciones lineales
entre los espacios vectoriales V y e, sobre el cuer po K, o sea
www.FreeLibros.com
www.FreeLibros.com
E CIO DE TRASFORMACIONES
99
(V, ) q : V -~ f e s trasIormacion lineal
En L (V, e) deIinimos la suma de Iunciones y el producto de escalares por Iunciones
mediante las asignaciones
v y r ) ( x ) q ( x ) g ( x ) ( i )
(a f ) (x) = o f (x) (2)
Demostraremos las siguientes aIirmaciones:
1. La suma de dos trasIormaciones lineales de V en e e s una trasIormacion lineal de V en
e.
En eIecto:
i ) ( q ) (x y) q( x y) (x y)
q( x ) q( y ) + g (x) + g( y) = ( f ) (x) + ( f +g) (y)
) i q i ) ( a x ) q( o : x ) g - ( o x )
a q( x ) a g ( x ) a u q ( x ) i (x)
Ot(f + g)(x)
2. El producto de cualquier escalar por cualquier trasIormacion lineal de V en e es una
trasIormacion lineal de V en e.
Utilizando la deIinicion (2), y con procedimiento analogo al utilizado en 1., el lector
puede probar que
( af ) (x y) ( af ) (x) + ( af ) (y)
(a f ) (0 x) 0 ( a q) ( x )
Ademas, las deIiniciones (1) y (2) permiten comprobar que el conjunto L (V, e) tiene
estructura de espacio vectorial sobre el cuerpo K.
La cuaterna [, L (V, e), K , . ) denota el espacio vectorial de las t rasIormaciones
lineales de V en e, sobre el cuerpo K.
El vector nulo de este espacio es la trasIormacion lineal nula
e : V ~ e deIinida por e (x) Ow V x eV
3.11.2. IsomorIismo de L (V, ) en Kmx
Sean (V, , K , .) y (, , K , .) dos espacios vectoriales de dimensiones Iinitas n y m,
respectivamente, y las bases
x v , , v2 i . . . , v n enV
u w x w , , w2 ) . . , w m) en
Entonces, L (V, e) es isomorIo a Km XIl
www.FreeLibros.com
www.FreeLibros.com
100
T ORMACIONES LINEALES
En eIecto, deIinimos
F : Z, (V, e)
mediante
Fv q ) A
donde A es la matriz deqrespecto de las bases uvy u w.
De acuerdo con el teorema Iundamental de las trasIormaciones lineales, A queda
univocamente determinada para cada f e L (V, e), respecto de las bases uv y uw. O sea, la
deIinicion dada satisIace las condiciones de existencia y unicidad de toda Iuncion. Ademas,
se veriIica que:
1. Fes inyectiva, pues s i q y g s o n dos vectores d e l (V, e) que satisIacen
FC0 FGr)
entonces sus matrices respecto de las bases uv y uw s on iguales, lo que signiIica
/ ( v) = ^ ( v) V, l I 2 , . . . I
En consecuencia
n n n n
q( x) q ( . 2 a, Vq) 2 a , q( v I) . 2 at g ( v t) ^ g ( I2 a (Vx) ( x )
O sea
f = S
2. F es sobreyectiva, ya que, cualquiera que sea A e Kmxn~e x i s t e q: V -e deIinida por
m
f (Vj) 2 au w,
tal que
F t I ) A
3. F es una trasIormacion lineal.
En eIecto:
F ( q ) A B F ( q ) F( g)
F( a f ) = a A = a F( f )
donde A y B son las matrices de q y g respecto de las bases uv y uw.
En consecuencia
F : L ( V, W ) ^ K mxn
es un isomorIismo para cada eleccion de una base en V y una en e.
Resulta entonces que
dim L (V , e) dim Km Xil mn
www.FreeLibros.com
www.FreeLibros.com
E CIO DUAL
101
Llamaremos espacio dual de un espacio vectorial (V, , K , .), al espacio vectorial de las
trasIormaciones lineales de V en K.
Vz denota al espacio dual de (V, , K , .), o sea
Vz L (V, K) f : V K q qe s trasIormacion lineal )
Los espacios dominio y codominio son, respectivamente
(V, , K , .) y (K, , K , .)
Los elementos de Vz, es decir, las trasIormaciones lineales de V en K, se llaman Iormas
lineales o Iuncionales.
De acuerdo con el teorema Iundamental de las trasIormaciones lineales, toda Iorma lineal
queda univocamente determinada por los valores que toma sobre cualquier base de V. Es
decir, si uv Vi, v2, . . v f es una base de V, y x 1( x 2, . . , , x n son n elementos
cualesquiera de K, entonces la Iuncion
q : V -*K deIinida por
f ( x ) = f ( i ai vi) = i ai x
es un elemento de Vz =L (V, K), donde a lt c2, , an son las coordenadas de x respecto de
la base uv.
3.12. ESPACIO DUAL DE UN ESPACIO VECTORIAL
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO III
3-21. Determinar cuales de las siguientes aplicaciones de R3 en R3 son trasIormaciones
lineales, donde K R.
1. f ( X \ , X 2 , X3) = ( X2l Xi, JC3 )
2 . g ( x l , x 2, x 3) =( x l l , x 2 2, 0 )
3. T ( x , x , x 3) = ( 0 , x + x , 0)
4. T (.Vi, X ) X , .X , A!] )
3-22. Investigar cuales de las siguientes aplicacionesqson lineales.
1. q : R3 -z R2 deIinida por f ( x , y , z) = (y, x)
2. q s R2 -~R3 deIinida p o r q( z 1( x 2) = ( x lt x 2, 0 ) ( - 1 , 0, 0)
3. q : R2 R3 deIinida p o r q ( x lt x 2) (2x ~ x 2, Xl )
4. f : R 2 - >R deIinida p o r q( ` i , x 2) =x i x 2
3-23. Sea q : V - una trasIormacion lineal y sean x e y en V tales que q( x ) zz. Sabiendo
que q (y) 0 , demostrar que q (x y) z,
3-24. Sea la Iuncion q : R2 -z R2 deIinida por f ( x lt x 2) = ( ~x lf ~ x 2). Demostrar que es
lineal, clasiIicarla e interpretarla geometricamente.
3-25. La Iuncion q : R2 -wR 3 es lineal, y veriIica
q ( 1, 2) ( - 1, 0 , 2) q ( 2 , 1) (0 , 2 , 1)
Determinar las imagenes de los vectores (3, 3) y (0, - 1).
3-26. Consideremos un espacio vectorial V sobre un cuerpo K, y dos trasIormaciones lineales
q : V -wK y : V -~ K
Sea F : V K2 tal que F ( v) ( q (v),` ( v ) )
Demostrar que F es una trasIormacion lineal.
3-27. Sea T una aplicacion lineal de R2 en si mismo, tal que
T (1, 0) (1, 1) y T (0, 1) ( 1, 2)
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO III
103
Determinar la imagen del cuadrado de vertices ( 0, 0) , (1, 0) , (1, 1) y (0, 1).
3'28. Investigar si existe una trasIormacion lineal q : R2 -wR tal que
q( 1 , 2 ) 3 , q ( 2 , 2 ) - l y q( 2 , 5 )
2
3-29. Sean q : R2 -wR 3 y g: R3 -~ R2 deIinidas por
f ( a , b) z( a , a + b , b) y g ( a , b , c) (a b , c)
1. Probar que f y g son trasIormaciones lineales.
2. ClasiIicar f y g.
3. DeIinir o q y q o g,
3-30. Demostrar que si q : V -* es un epimorIismo, entonces q trasIorma sistemas de
generadores de V, en sistemas de generadores de .
3-31. Consideremos (C, 4- , R, .) y q : C -~ C deIinida por q(z ) z Im (z).
Determinar s i qe s una trasIormacion lineal, y en caso aIirmativo clasiIicarla.
3.32. Seaq : R2 R3x3 deIinida por
q z i 0 V
q( z 1~z2) ( - X 1 z 1 z 2 )
0 x 2 Xi - x 2 I
Probar que q es lineal y determinar el conjunto de los vectores de R2 cuyas imagenes
p o r qs o n la matriz nula.
3-33. Demostrar que si q : V - es una trasIormacion li neal y S es un subespacio de I (f),
entonces q 1 (S) es un subespacio de V.
3-34. Determinar el nucleo, la imagen y las dimensiones de ambos en las siguientes
trasIormaciones lineales.
1. R3 -+R2 deIinida p o r q( x , ox 2 ,x3) (xj +x 2 x 3, x 2 +x 3)
2. q : R2 wR deIinida p o r q( x lI x 2) = Xl 2x2
3'35. DeIinir una trasIormacion lineal q : R4 -+ R para un n conveniente, de modo que
N Cq) i z 3, x 4) e R 4 f x x + x 2 0 , `! - x4 0 , x 2 x 3 + x 4 o)
Obtener despues una base y la dimension del nucleo.
3-36. Una trasIormacion lineal q : R3 -z R2 esta deIinida por
f ( x I , x 2, x 3 ) = ( xi - 2x 3, x 2 + x 3)
1. Hallar la matriz A de q, respecto de las base s
1(1, 1, 1) , (2, 2 , 0 ) , ( 3 , 0 , 0 ) ) e n R 3
1(2 , 0) , ( 0 , 2) x e n R2
www.FreeLibros.com
www.FreeLibros.com
. E T ORMACIONES LINEALES
2. Mediante A, obtener la imagen de ( - 2 , 2, - 2 ) e R3.
3. Determinar la matriz B d e q, respecto de las bases canonicas en ambos espacios.
4. Obtener la matriz C de la misma trasIormacion lineal, respecto de la base canonica
en R3 y la base del punto 1. en R2.
3-37. Sea la trasIormacion linealq : R2 -z R3 deIinida por
respecto de la base canonica. Determinar N (f), I (f) y siis dimensiones.
3-39. Determinar la matriz de la trasIormacion lineal del ejercicio 3-32, respecto de las bases
canonicas en R2 y en R3x3
3-40. Dada la trasIormacion lineal q : R2 x2 -~ R3 deIinida por
q ( z 1wz 2) (z1 + x 2, x { - x 2, x x + 2 x 2 )
1. Determinar N (J) , I (q), una base en cada uno y sus dimensiones.
2. Hallar la matriz de q respecto de las bases
( ( 1, 2) , ( 2 , 0) ) e n R 2
j (1, , 0) , (0, 2, 0) ~(0, 0, 3) ) e n R 3
3-38. La trasIormacion lineal q : R3 -~ R3 esta caracterizada por la matriz
q
1. Obtener la matriz deqrespecto de las bases
1(0 , 2 , 1) , ( 2, 0 , 1) , (0 , 1, l )en R3
2. Utilizando la matriz hallada, obtener la imagen de
2 2
3-41. DeIinir la trasIormacion lineal q : R3 -R2, tal que respecto de las bases
((0, 1 , 1 ) , ( 1 , 0 , 1 ) , ( 1 , 1 , 0 ) ) e n R3
1(1, 2) , ( 2, 1) ) en R2
www.FreeLibros.com
www.FreeLibros.com
su matriz sea
/ 1 0 0
1 - 1 1
3-42. Hallar la matriz de la trasIormacion lineal g o qd e l ejercicio 3-29, respecto de las bases
( ( 1, 1) , (0 , 1) en el dominio
(2 , 0) , ( 2 , 2) i en el codominio
3-43. Determinar la matriz de la rotacion del plano de angulo 0, respecto de la base canonica,
con centro en el origen.
3-44. Sea la trasIormacion lineal f 0 : R2 -~ R2 representada por la matriz
eos 6 - sen Q
sen 6 eos 6
respecto de la base canonica.
Demostrar que si Q y 6' son numeros reales cualesquiera, entonces
f o ' 0 f e f e o'
f 1 - f-e
3-45. Demostrar que si uv I v lt va, . . .,v es una base de ( V, , K , .), y si f con
q 1, 2 , . . . , n son las Iormas lineales deIinidas mediante
f (vs )
entonces I es una base de L (V, K), o sea, del espacio dual de V.
3-46. En (V, , K , .) sean los subespacios Sx y S2 tales que V S! S2. Se considera la
Iuncion
Pt : V-~ V
deIinida por
Pi ( x) x!
Siendo x x t x2 y x1 e S 1, x 2 6 S2.
La Iuncion Pj se llama proyeccion sobre St , segun S2.
Demostrar:
1. Pj es una trasIormacion lineal.
2. P, es idempotente, o sea P2 P, o Pj P,
3. Si P2 es la proyeccion sobre S2, entonces P, P2 1
T DO PRACTICO III 105
www.FreeLibros.com
www.FreeLibros.com
Captulo 4
MATRICES
4.1. INTRODUCCION
Hemos creido oportuno dedicar un capitulo al estudio de las matrices con elementos en
un cuerpo K, dado el rol Iundamental que este tema desempea en todos los campos de la
Matematica y en las aplicaciones. Conocido el espacio vectorial (Kmxn, , K, .), se trata
ahora el producto de matrices, anticipado en el capitulo anterior, y el anillo de matrices
cuadradas. Sin pretender agotar el tema, se estudian la trasposicion y algunos tipos de
matrices especiales: simetricas, antisimetricas, triangulares, diagonales, idempotentes, involu-
tivas, hermitianas, etcetera. Se trata, ademas, la inversion de matrices, el concepto de
matrices particionadas, el rango de una matriz y su invarianza Irente a operaciones
elementales. Despues de dar metodos para la determinacion de la inversa de una matriz se
estudian la equivalencia de matrices y los cambios de bases en espacios vectoriales.
4.2. PRODUCTO DE MATRICES
4.2.1. Concepto
Recordemos la deIinicion de producto de matrices dada en 3.6. y su conexion con la
composicion de trasIormaciones lineales estudiada en 3.10. Si V, U y e son tres
espacios vectoriales sobre un mismo cuerpo K, de dimensiones Iinitas, con bases
uv V l t v 2 , . . .,v j , uu j u , , u 2 l . . . , u p j y uw = I W l ) w 2 , . . wm j respecti
vamente, y B e Kpxn y A e Kmxs~ son las matrices asociadas a las trasIormaciones lineales
q : V - ~ U g : U- z e
entonces la trasIormacion lineal compuesta
g o f : V - e
esta caracterizada por la matriz producto C AB e Kmx cuyo elemento generico es
www.FreeLibros.com
www.FreeLibros.com
ODUCTO
107
Observamos que para que exista el producto de dos matrices, el numero de columnas de la
primera debe ser igual al numero de Iilas de la segunda.
Si A e K mx y B e Knxm, entonces coexisten los productos ABe Kmxm y BAe K 1z ,
pero son distintos si mi=-n.
En el caso en que m = n, tanto AB como BA son matrices del tipo n x n, es decir,
cuadradas y pertenecientes a KMX , pero en general se veriIica que
AB` BA
O sea, el producto de matrices no es conmutativo.
Ejemplo 4-1.
VeriIicamos la no conmutatividad del producto de matrices en el siguiente caso:
Este hecho es coherente con lo que sabemos: la composicion de trasIormaciones
lineales, que son Iunciones, no es conmutativa.
Si AB BA entonces diremos que A y B son matrices permutables.
4.2.2. Asociatividad del producto de matrices
Sean V, U, S y e espacios vectoriales de dimensiones n, p, q, m respectivamente, y una
base en cada uno. Si
q : V - wU : U S y h : S- we
son trasIormaciones lineales, Ce Kpx , B e K 9xp y A e K mxIl son las correspondientes
matrices,
www.FreeLibros.com
www.FreeLibros.com
.
T I CES
entonces, teniendo en cuenta la asociatividad de la composicion de Iunciones es
h o g o f = ( h o g ) o / = h o ( g o / )
Denotando con D a la matriz m x rt, asociada a la composicion, es
D (AB) C A (BC)
Escribiremos entonces D ABC
Ejemplo 4-2.
Calculamos ABC, siendo
A 3 1 0
1 2
- 1 1 0
0 1 2 C
3 2 1
0 q
ABC
2 X 3 3 X 4 4 X 1
2 X 4 4 X 1 2 X 1
4.2.3, Matriz identidad
En K xn la matriz I cuyo elemento generico es 5y, o sea, es 1 si i q y es 0 si q s , es
neutro para el producto.
I se llama matriz identidad n x n, y veriIica
AI IA A
cualquiera que sea A K71 .
En eIecto, el elemento generico de la matriz producto AI es
n
cj `2 ` aik 8kj aj a
En consecuencia, por deIinicion de producto, es
AI A
Analogamente se prueba que IA A.
www.FreeLibros.com
www.FreeLibros.com
ANI LLO DE MATRI CES
Si A Km xn, entonces la identidad veriIica
. 9
y la identidad satisIace
IA A
AI A
Ejemplo 4-3.
Calculamos AB - I, siendo
1 0 - 2
A
q 1 0 - 2
AB 0 1 3
0 0 1
Luego
AB - I N
donde N denota la matriz nula de R3 x3.
4.2.4. Distributividades del producto
Si A y B son elementos de K xp y C eKpxm, entonces es
(A B) C - AC BC
Esto signiIica que el producto de matrices es distributivo a derecha, respecto de la suma.
Para demostrar esta aIirmacion, consideremos el elemento generico dj, de la matriz
(A B) C. Por las deIiniciones de suma y producto y propiedades de la sumatoria es
p p p
^>1 ~ c k j = a iU c h + f _1 b k c k j
O sea
(A B) C AC BC
Si C e Km xn y A y B son las matrices anteriores, entonces se veriIica la distributividad a
izquierda.
C (A B) CA CB
4.3. ANILLO DE MATRICES CUADRADAS
En K x el producto es una ley de composicion interna, asociativa, con elemento neutro
igual a la identidad
www.FreeLibros.com
www.FreeLibros.com
110
T I CES
Por otra parte, sabemos que (K x I ) es grupo abeliano, y de acuerdo con 4.2.4. el
producto es doblemente distributivo respecto de la suma.
En consecuencia (K xn, , .) es el anillo no conmutativo, con unidad, de las matrices
cuadradas nx n con elementos en K.
Este anillo tiene divisores de ceros es decir, existen matrices no nulas cuyo producto es la
matriz nula.
Por ejemplo:
A = o =(
pero
AB
0 0
0 0
Considerando en el espacio vectorial (R2, , R, .) la base canonica, la matriz B representa
una trasIormacion del plano en si mismo que asigna a cada vector (x, y ) la imagen (0,x y),
y A caracteriza la aplicacion lineal que trasIorma cada vector (x , y ) en ( x , x), ya que
0
x y
La trasIormacion lineal compuesta, asigna a todo vector el vector nulo. Es decir, es la
trasIormacion lineal nula.
4.4. TRASPOSICION DE MATRICES
4.4.1. Concepto
Sean los espacios vectoriales (Kwx, , K , .) y (Kmz , K , .). Por deIinicion, la matriz
B e Kmxn es la traspuesta de A K xm si y solo si bj = a j i , y se escribe B A.
El simbolo A* se lee: A traspuesta .
~ l l \
1 2 3 entonces es A I 2 2 )
En consecuencia, para hallar la traspuesta de una matriz, se cambian Iilas por columnas.
Observamos, ademas, que toda matriz 1 X 1 es igual a su traspuesta.
www.FreeLibros.com
www.FreeLibros.com
T OSICION 111
4.4.2. Traspuesta de ia suma y del producto por escalares
La Iuncion f : Knxm -~ Kmxn que asigna a cada matriz del dominio su traspuesta en el
codominio, es decir, deIinida por
2. La traspuesta del producto de un escalar por cualquier matriz es igual al producto del
escalar por la traspuesta de la matriz.
Teniendo en cuenta que si C (a A)4entonces cy a aj, resulta
4.4.3. Traspuesta del producto
La traspuesta de un producto de matrices es igual al producto de las traspuestas en orden
permutado.
Sean A e K xp y B e Kpxm. Demostraremos que
(AB) - BI AI
q (A) A*
q( A B) (A B) = A t + Bt - f (A) q( B )
f ( a A) = (a A)z = oA* = ctq( A )
Ejemplo 4-4.
Dadas las matrices A
calculamos (BI A)*.
Como B( A (a b c) ( - a c b), resulta
www.FreeLibros.com
www.FreeLibros.com
Si C AB, entonces
T I CES
cti aih Ki ~ ai bu ai2 b2j +. ,. + aip bpj
es el elemento de la Iila q y de la columna i de Ct = (AB)I.
Los elementos b ljt b2}, . . bpj de la columnaj-sima de B, son los de la Iila q de BI
Analogamente, an , ai2.......... aip son los elementos de la columna i-sima de AI
entonces, el elemento de la Iilaj y de la columna i de BI A* es
b li ai bV an + - - - + bpj aip = aik bkj
En consecuencia.
(AB)i Bi Ai
Ejemplo 4-5.
La trasposicion veriIica ( A ) A. Teniendo en cuen ta este resultado y el teorema
anterior, calculamos (BvA)i , en el caso del ejemplo 4-4.
(BA) A ( B ) A B ( o V j i : \ f l
4.S. MATRICES SIMETRICAS Y ANTISIMETRICAS
4.5.1. Matriz simtrica
Una matriz cuadrada es simetrica si y solo si es igual a su traspuesta.
A e K xn es simetrica o A AI o a - n . . w.- w.-
En R3*3, la matriz
1 - 1
-1 2
0 3
4.5.2. Matriz antisimtrica
Una matriz cuadrada es antisimetrica si y solo si es igual a la opuesta de su traspuesta.
A e K nx es antisimetrica o A - A t ^ a iJ= - a ji Vi Vq
Los elementos de la diagonal de toda matriz antisimetrica son nulos, pues
A es antisimetrica =^au ~ - a u . Vi~ 2a 0 , V q ` Il 0 t e
y qi vj
0
3 J es simetrica
0
www.FreeLibros.com
www.FreeLibros.com
T I CES SIMETRICAS Y ANTISIMETRICAS
113
La matriz
O 1 - 2
A ( 1 O 3
2 3 O q es antisimetrica
Ejemplo 4-5.
Demostraremos las siguientes propiedades:
i ) El producto de toda matriz por su traspuesta es una matriz simetrica.
En eIecto:
( A A y ^ i A * ) * A( AA(
Luego, por ser igual a su traspuesta,
AAz es simetrica
Observamos que no es necesario que A sea cuadrada para que existan AAz y AzA, las
que son, en todos los casos, matrices cuadradas.
i i ) La suma de toda matriz cuadrada y de su traspuesta es simetrica.
Sea A e K nxn. Se veriIica que
(A Ai) i Az (Az)z AI A A AI
Es decir, A 4- A* es simetrica.
iii) La diIerencia de toda matriz cuadrada con su traspuesta es antisimetrica.
Si A e K xn, entonces, aplicando propiedades anteriores, se veriIica
(A - AI) ( - A( - (A()I Az - A - ( A - Az)
En consecuencia, A A 1 es antisimetrica.
iv) Toda matriz cuadrada es la suma de una matriz simetrica y de una matriz
antisimetrica. j
A e K ,xn z A A 1 es simetrica y A - A* es antisimetrica z(A Az) es
simetrica y (A A*) es antisimetrica ~ A (A AI) - - (A AI) es la suma
2 2 2
de una matriz simetrica y de una antisimetrica.
Ejemplo 4-6.
Sean A e K nx,! una matriz simetrica, X e K xl y Y e K x l . Desarrollaremos el
producto (X Y q A (X Y).
Teniendo en cuenta que la trasposicion es una trasIormacion lineal, la distributividad
del producto respecto de la suma y que XzAY es del tipo 1 X 1, o sea, simetrica,
tenemos
www.FreeLibros.com
www.FreeLibros.com
E T I CES
(X - Y) A (X - Y) (XI - Y) (AX - AY) - X(AX - X(AY - YAX Y.e -
XIAX (XAY) - YzAX i- ~ 1AY -
XzAX - Y tA t(Xt) t - YIAX Y(AY
- XAX - YAX - Y tX + Y(AY
XAX - 2 Y tAX + Y tAY
4.6. MATRICES TRIANGULARES
La matriz A e K xn es triangular superior si y solo si i ~ q 0.
En R3x3
1 - 2 3
0 0 2 es una matriz triangular superior.
0 0 5 1
Analogamente
A e ges triangular inIerior si y solo si i v q ~ a 0.
El lector puede demostrar que el conjunto S de las matrices triangulares superiores o
inIeriores de (K XI,~ , K, .) e s u n subespacio de KMXn.
Ejemplo 4-7.
EIectuamos el producto de las matrices triangulares A y B pertenecientes a R3x3, tales
que o/y = 0 si i > j, aj = i q s i q v q , btj = 0 si i > j, bj ~ i - 2 q si i </.
q 2 3 4 q - I 3 - 5 f 2 - 1 2 34
A B 0 4 5 0 - 2 - 4 0 - 8 - 3 1
0 0 6 / \ 0 0 - 3 I \ 0 0 - 1 8 q
Observamos que el producto de matrices triangulares es una matriz triangular.
4.7. MATRICES DIAGONALES
4.7.1. Concepto
La matriz A e K,,x es diagonal si y solo si i =j ~aj = 0.
Toda matriz diagonal tiene nulos los elementos que no Iiguran en la diagonal.
Para denotar que A es una matriz diagonal, escribiremos
www.FreeLibros.com
www.FreeLibros.com
T I CES TRIANGULARES
115
c
! O . . . O
O o2 o
A
diag (a1,a-2, . . . , a n)
O O . . . an
En particular, en Knxn, I y N son matrices diagonales.
Si todos los elementos de la diagonal son iguales, o sea, si a = a, Vi, entonces la matriz
diagonal se llama escalar. Siendo A una matriz escalar, se veriIica
A =al
4.7.2. Propiedad
El conjunto S de las matrices diagonales de (K x , , K , .) es un subespacio de Knx , y
su dimension es n.
La demostracion se propone como ejercicio.
4.7.3. Propiedad
El conjunto S de las matrices diagonales de Knxn es un subanillo de (K xn, ,.).
Para demostrar esta aIirmacion es suIiciente probar que el producto de matrices
diagonales es una ley de composicion interna en S.
4.8. MATRICES IDEMPOTENTES EINVOLUT1VAS
4.8.1. Concepto
Una matriz cuadrada es idempotente si y solo si es igual a su cuadrado.
A e K nxn es idempotente o A2 - A
veriIica A2 A, es decir, es idempotente.
Una matriz cuadrada es involutiva si y solo si su cuadrado es la identidad.
A e KnxM es involutiva o A2 I
La matriz A es involutiva, pues A2
1
www.FreeLibros.com
www.FreeLibros.com
T I CES
4.10.3. Propiedad
El producto de dos matrices ortogonales es ortogonal.
A y B son ortogonales ~ AB es ortogonal
En eIecto:
(AB) (AB)4 ABBI A( AIAz - AAz I
por traspuesta del producto y 4.10.2.
Analogamente es
(AB)(AB) I
En consecuencia, por 4.10.2. resulta AB ortogonal.
Ejemplo 4-10.
Toda matriz
cos a -sen a
o
sen a cos a
0
donde a e R
0 0
i q
es ortogonal.
En eIecto:
eos a -sen a 0 c o s a sena 0
AAz x sena cosa 0 -se n a cosa 0
0 0 1 q 0 0 1
4.11. MATRICES HERMITIANAS
4.11.1. Matrices complejas
(Cnxm, , R , .) y (Crtxm, 4-, C , .) denotan los espacios cuyos elementos son las matrices
complejas del tipo x m, sobre el cuerpo de los reales y de los complejos, respectivamente.
- q 1 i 2
1 es una matriz compleja del tipo 2 X 3.
q - 2 3 - 2 ( q
Matriz compleja conjugada de A e Cnxm es la matriz B e Cn*m tal que by = a
O sea, dada una matriz, su conjugada se obtiene sustituyendo cada elemento por el
complejo conjugado.
www.FreeLibros.com
www.FreeLibros.com
T I E ITI N
9
Para denotar la matriz conjugada de A, escribiremos A.
Si A es la matriz anterior, entonces
1)
- i - 2 3 2i j
Diremos que A y A son matrices conjugadas, una de la otra, pues A A.
Dado el espacio vectorial (Cixm, , R , .), la Iuncion q : Cnxm ->cnxm deIinida por
(A) A es una trasIormacion lineal, puesto que se veriIica
i ) la conjugada de la suma es igual a la suma de las conjugadas,
ii) la conjugada del producto de un escalar por una matriz es igual al producto del escalar
por la conjugada de la matriz.
El lector puede demostrar que q es un automorIismo.
Se veriIica que la traspuesta de la conjugada de cualquier matriz es igual a la conjugada de
su traspuesta, o sea
a ' - *
Para designar esta matriz, escribiremos Az.
En el caso ya tratado es
Az \ - i - 2
2 3 2 i /
El operador z satisIace las siguientes propiedades:
1 (A*)* = a
2. (A B)z A B *^ (A B)z A* Bz Az Bz
3. (A B)z - Bz Az
Para demostrar esta aIirmacion es necesario probar que la matriz conjugada de un
producto es igual al producto de las conjugadas.
Sean A e C nxp y B eCJ5Xm. Si C AB, entonces el elemento generico de C es
p
cij j aik bkj
y teniendo en cuenta que el conjugado de una suma es la suma de los conjugados y que el
conjugado de un producto es el producto de los conjugados, se tiene
p
ca = ak H j
O sea
AB B
www.FreeLibros.com
www.FreeLibros.com
120
T I CES
Retomando nuestro proposito
(AB)z Bz ( S)I =WA* = Bz Az
4.11.2. Matriz hermitiana
La matriz A e Cnxn es hermitiana si y solo si es igual a la traspuesta de su conjugada.
A es hermitiana A i , A A z o I I j i q Vi Vq.
Los elementos de la diagonal de toda matriz hermitiana son numeros reales, pues
A es hermitiana =*au = ai a e R.
La matriz
q 1 - i 2 + i
A ( i - 2 - 3 - 2 i x es hermitiana
2 z 3 2q 3
Toda matriz simetrica y real es hermitiana, ya que veriIica ay aj{ = j7
Ejemplo 4-11.
Si a e C y A e C xm, entonces (a A)z a Az.
En eIecto:
( a Az) - a A 1 = ( a )i ~ a AI 0iAz
Ejemplo 4-12.
Dadas las matrices X ( ` ) y A u ) , calculamos
\ 1 + i f \ 1 - i 2 /
i ) XzX ( 1 1 - i) ` . j 1 ( 1 - 0 ( 1 () 1 1 - i2 = 3
o x A x ` 1
Ejemplo 4-13.
Si H A e C 3X3qA es hermitiana, entonces H no es un subespacio de
(C3 x3, , C , .), ya que H no es cerrado para el producto por escalares.
En eIecto:
www.FreeLibros.com
www.FreeLibros.com
TICION
121
q e (. : y A
iA =
(
1 - i - 2 i 3 i
1 0 2 q 1 ` H , pues la diagonal no es real.
q 1 - 1 i
El lector puede comprobar que H es un subespacio de (C3x3, , R , .).
4.12. MATRICES PARTICIONADAS
4.12.1. Submatrices de A e Kn x
Eliminando r Iilas y s columnas de la matriz A e K xm se obtiene una submatriz de A,
que denotaremos asi:
A ( i i , i 4, - . , i r x A , q2 i . . . , q, )
donde q, es el numero de la primera Iila eliminada,q, es el numero de la primera columna
eliminada, etcetera.
Si eliminamos las Iilas indicadas en
(
an a 2 a 4
Cht` 2`23` i& T
a31 8.2 O-n a sS
243iij tvs y
entonces
Si se mencionan las Iilas y columnas que se conservan, la notacion es
4.12.2. Particion de una matriz
Sean A e K xm, n - v x + v ^ y m - Mi Mi ~y consideremos las submatrices
An A u1, 2 , . . Ui 1 1 , 2 , . . . , Mi
Ai2 A u1, 2 , . . . , vx l`i 1, Mi 2 , . . m]
n x m
www.FreeLibros.com
www.FreeLibros.com
122
T I CES
Escribiremos A
A21 = A [ v + l , V i 2 I 1, 2, . . .,Mi
A22 A l , ` i 2 , . . n lMi 1,Mi 2 , . . .,mj
Ah A12
A2i A22 q
o bloques. Las descomposiciones n= v x v2 y rn = li + fh se denominan esquemas de la
particion para Iilas y columnas, respectivamente.
Por ejemplo, la particion de A que se indica a continuacion
y diremos que A esta particionada en cuatro submatrices
f

=




f
n =
V\

`2
2 3
m
Mi

h
2 3 2
corresponde al esquema
y se obtiene
A - q ^ ^
\ A2i A22 A23
donde cada bloque A e s un elemento de la matriz particionada.
En general, si A e K ,lxm, n ~ + v2 . . . vr y m Mi M2 ~ entonces
las submatrices Ay con q 1, 2, . . ., r, q 1, 2 , . . ., s son los elementos de A particionada en
bloques, y se escribe
An At2 . , . Ax,
A2i A22 . . A2s
A
A Ar2
A,
4.12.2. Operaciones con matrices particionadas
I. Adicion
Sean A y B matrices en K xm y los esquemas de particion n s*vl + v 2 + . . . + v r,
m Mi Ih Si A (Ay) y B - (By) son las notaciones de A y B particionadas,
entonces es
A B (A u BJ)
conq 1,2, . . . , r y q 1,2, . . .,5.
www.FreeLibros.com
www.FreeLibros.com
E CIOS FILA Y COLUMNA
123
II. Producto por escalares
Se deIine de la siguiente manera:
A (a Ay)
III. Multiplicacion
Sean las matrices A e Knxp , B e Kpxm y los esquemas de particion
n - Vi v2 + . . . + vr , ) = . . . , = . . . s
osea, A (AiIe) y B (Be) donde q 1,2, . . r, j = 1, 2, . . 5 y k = 1, 2, . . t.
El producto en Iorma particionada es
AB ( (2 i Alk Bw )
Ejemplo 4-14.
Consideremos las matrices A y B particionadas como se indica
An A12
A2i A 22
1
0 0 2
0 1 1 2 1
V-l
- 1 2 3
2
q I
0 1
1
0 1 2 2
- 1 1 - 2
2
1 2 3 - 1
o 1 0
0 q
Bu B12
b21 b22
El producto en Iorma particionada es
, An Aj2
AB
A2i A22 8z1 b22
Asi:
Cn - An Bu 4- Ai2 B2i
1 0
0 1
A l z

C
A g
A
A 8 z l A zl A
f
0

q o
1 2
~ l l \


o f 2 1 .f o f
) f
2
r \
7 q
-G:)*(: i
Analogamente se calculan CJ2 , C22 y C2J , que son los restantes bloques del producto.
4.13. ESPACIOS FILA Y COLUMNA DE UNA MATRIZ
Sea A e K1XIn y sean los esquemas de particion r t i i , m : l l . . . l.
www.FreeLibros.com
www.FreeLibros.com
E
T I CES
Entonces A queda particionada en matrices columnas y se escribe
A (Ag A . . . A ) ( A A . . . A,,,)
donde k e K y q 1 , 2 , . .m.
Definicin
Espacio columna de la matriz A e K xm es el subespacio de K generado por las m
columnas de A.
Denotamos el espacio columna de la matriz A mediante SC(A). Los elementos de Sc(A)
son todas las combinaciones lineales de las m columnas de A.
O sea
SC(A)
X oij A j I oij e K
s 1
Definicin
Rango columna de una matriz es la dimension del espacio columna de dicha matriz.
pc (A) se lee: rango columna de A, y es
iOc (A) dimSc(A)
Si A es una matriz nula, el espacio columna es un vector nulo y el rango columna es 0. Si
A , entonces el rango columna de A es el maximo n umero de vectores columnas
linealmente independientes.
Analogamente se deIinen el espacio Iila y el rango Iila de una matriz A, y se indican
mediante Sp(A) y Pf (A), respectivamente.
SF(A) es el subespacio de Km generado por las n Iilas de A y dimSp(A) es el maximo
numero de vectores Iilas linealmente independientes de A.
La particion de A Knxm en vectores Iilas se indica asi:
AiN
A2
, donde A e Kw s i - 1, 2 , . . ., n .
Si es necesario, para reIerirnos a la submatriz columna de lugar r escribiremos A r, y para
indicar la submatriz Iila de lugar k, pondremos Az.. El punto en A r signiIica que el primer
indice varia desde 1 hasta n. En el segundo caso, el punto indica que el segundo indice es
variable desde 1 hasta m.
Ejemplo 4-15.
Determinamos los rangos Iila y columna de la matriz
www.FreeLibros.com
www.FreeLibros.com
NO 125
2 0 - 1 4
A 0 4 1 - 2
\ 1 2 0 1/
Observamos que las dos primeras Iilas son linealmente independientes y que la tercera
es combinacion lineal de aquellas: A3~ Aj. - A 2.. En consecuencia, el rango Iila
2 2
de A es 2. El lector puede comprobar que el maximo numero de vectores columnas
linealmente independientes de A tambien es 2.
Ambos rangos, Iila y columna, coinciden.
4.13.2. Propiedad
Los rangos Iila y columna de toda matriz son iguales
Hipotesis) A e K Km
Tesis) Pc(A) = Pf (A)
Demostracion)
Si A N, entonces pc (A) 0 pF(A).
Sea A ` N y pc(A) r. Probaremos que pF(A) r.
Podemos suponer, sin perdida de generalidad, que las r primeras columnas de A son L.I.
/ \ \ a i d \ r l c a , r +h ^ l m
A I i2 . Or tIj,r l aim
a n \ a n2 & n r a r t , r & n , r + k a nm
Particionando A en vectores columnas es
A (A.i A2 A r . . . A.IIt . . . A.m)
Por lo supuesto, las r primeras columnas de A constituyen una base de SC(A). En
consecuencia
A.rIe =o.\k A., ct2k A.2 + . . . + ark A.r
r
,12 a# AJ (1) Vk= 1 , 2 , . . ., m-r
Sea { e t eJ t . . . , e m la base canonica de Km. Como las Iilas de A son vectores de
Km, se veriIica que
m
A = g i e i + a 2 * + + a r er + o r r + em 2 ,t, e/j ( 2 )
h 1
V q 1 , 2 , . . . ,
www.FreeLibros.com
www.FreeLibros.com
De (1) y (2) resulta
A i, a,i ej + a 2 e2 . . . vz,~er
( a u an 021 a2 + . . . vxr i atr) e r+l +
(al2 an + a22 ai2 + . . . ar2 air) er2
. . .
(`1 ,m-r ^il 0C2 m.I-a 12 r,m-r &ir ) m
= a! (e! 0-1, er x + a 12 er2 . . . 1~m.r em)
+ ai2 (e2 a21 er1 a 22er2 . . . a 2~m.r em)
T I CES
ar (er a rl er x 4- <xr2 er 2 . . . ar^m ,r em ) -
rIl ei +a2 ez2 . . . air eV
En consecuencia ej , e2j . . er es un sistemade generadores de las Iilas de A.
Si PI(A) = r \ entonces es
(3)
ya que el maximo numero de Iilas L.I. de A es menor o igual que el cardinal de todo
sistema de generadores de las Iilas de A.
Analogamente, razonando a partir del rango Iila de A, se prueba que
r < r (4)
De (3) y (4) resulta
r = r
O sea
Pc(A) = Pf (A)
4.13.3. Rango de una matriz
Hemos demostrado que los rangos Iila y columna de toda matriz son iguales. Este
numero se llama rango de la matriz. Para denotar el rango de una matriz A, escribiremos
P (A)
Definicin
Rango de una matriz es su rango Iila o su rango columna.
p (A) Pc(A) PI(A)
Dos matrices traspuestas tienen igual rango, pues
P (A) Pe (A) PI(A ) p (A)
Si I e K nzrt, entonces es p (I) , ya que los n vectores columna de I son linealmente
independientes.
www.FreeLibros.com
www.FreeLibros.com
NO 127
4.13.4. Rango del producto
Propiedad
El rango del producto de dos matrices es menor o igual que el minimo de los rangos.
Hipotesis) A e K xp,B eKp5vm
Tesis) p (AB) v min j p (A) , p (B)
Para probar esta aIirmacion, demostraremos que el rango del producto es menor o igual
que los rangos de cada una de las dos matrices, es decir
p (A B) v p (A) y p ( A B ) v p ( B )
Consideremos B particionada en los p vectores Iilas, y eIectuemos el producto en Iorma
particionada
AB
p
a i a { i . . . a ip B ;
j ^
P
a n i a n i . . . a n p
1
\ j = ! a V B"
Este resultado nos indica que las Iilas de AB son combinaciones lineales de las Iilas de B
con coeIicientes en A. En consecuencia, todo vector del espacio Iila de AB pertenece al
espacio Iila de B, y por consiguiente
Entonces, resulta
Luego
SF(AB)CSF(B)
dim SF(AB) v dim SF(B)
p ( A B ) v p ( B ) (1)
Esta relacion nos dice que el rango del producto de dos matrices es menor o igual.que el
rango de la segunda matriz.
Ademas, teniendo en cuenta que la trasposicion no modiIica el rango y (1), es
p (AB) p (AB) p (BI A() v p (A) p (A)
Luego
p ( A B ) v p ( A ) (2)
Es decir, el rango del producto de dos matrices es menor o igual que el rango de la
primera matriz.
www.FreeLibros.com
www.FreeLibros.com
T I CES
De (1) y (2) resulta
p ( A B ) v m i n j p ( A ) , p ( B ) x I
4.13.4. Invarianza del rango
Propiedad '
Si en un producto de dos matrices una de ellas es no singular, entonces el rango del
producto es igual al rango de la otra matriz.
Hipotesis) A e K nxm
B e K nx esnosingular
Tesis) p(B A) p (A)
Demostracion) Sabemos que
p ( B A ) v p (A) (1)
pues el rango del producto es menor o igual que el rango de cada Iactor.
Como B es no singular, existe B 1 tal que BB1 B 1 B I
Ahora bien
A IA (B1B)A B 1(BA)
Por consiguiente
P (A) p uB 1 (B A)
Y por rango del producto, es
p ( A ) v p ( B A ) (2)
De (1) y (2) se deduce que
p (B A) - p (A)
Analogamente se demuestra que si B e Kmxm es no singular, entonces
p (A B) p(A)
Una consecuencia inmediata del teorema anterior es la siguiente: si A e Knxm, P e K xn y
e Kmxm son dos matrices no singulares, entonces
P (P A ) p (P A) - p (A)
4.13.5. Propiedad
Una matriz A e Knxn es no singular si y solo si su rango es n.
A e K x es no singular p (A) n
I o. A e KriXIl es no singular ~ 3 A-1 q A A 1 I =>
~ p (A A 1) p (I) ~ p (A) n
www.FreeLibros.com
www.FreeLibros.com
Hemos utilizado la propiedad 4.13.4., teniendo en cuenta que A 1 es no singular, y
p ( I ) .
2o. Sea A e K XIl tal que p ( A ) = n. Entones las n columnas de A son linealmente
independientes, y constituyen una base del espacio columna de A.
Sea la trasIormacion lineal q : K -K , deIinida por la matriz A respecto de la base
canonica en K .
Si x e K , entonces e s q( x ) Ax.
Como el espacio columna de A es el subespacio de Kn generado por las n columnas de A,
y estas son linealmente independientes, se veriIica que
dim Sc (A) n
Por otra parte, I (f) SC(A), es decir, la imagen de la trasIormacion lineal es igual al
espacio columna de A. Luego
dim I (f) = n
y, en consecuencia,qes sobreyectiva.
De acuerdo con 3 . 9 . 4 . qes biyectiva, y por lo tanto A es no singular.
4.14. OPERACIONES Y MATRICES ELEMENTALES
4.14.1. Operaciones elementales
Operaciones elementales sobre una matriz A e Kxm son las siguientes:
1. Permutacion de dos Iilas entre si, o de dos columnas entre si.
2. Adicion de una Iila a otra, o adicion de una columna a otra.
3. Multiplicacion de una Iila o de una columna por un escalar no nulo.
Si se eIectuan operaciones elementales sobre las Iilas o columnas de una matriz, se obtiene
otra matrizs pero demostraremos que su rango no varia.
4.14.2. Propiedad
Toda operacion elemental sobre las Iilas de una matriz A e K nxm puede realizarse
premultiplicando A por una matriz no singular del tipo nxn.
Antes de probar esta aIirmacion deIinimos EhIe e Knxn mediante
1 i h / \ j = k
0 si q h v q k
Por ejemplo, en K4 x4 es
0 0 0 0
0 0 1 0
0 0 0 0
0 0 0 0
OPERACIONES ELEMENTALES 129
www.FreeLibros.com
www.FreeLibros.com
9 .
T I CES
1. La permutacion de las Iilas i y j puede obtenerse premultiplicando A por la matriz no
singular
P y - I - E - E w + EU+ En e nK :
En K4x4 es
P23
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
Py se deduce de la matriz identidad permutando las Iilas o columnas i y j.
Particionando A en vectores Iilas, se tiene
}
, i 0
0 1
PkA =
0 0 1 0
0 1 0 0
i0 0
qA . / A i
/ a m
/ a 2
As
As
A, AI

\ k
En consecuencia, la premultiplicacion de A por Pj permuta las Iilas i y q.
Ademas, como en ?u se tienen exactamente n vectores columna linealmente indepen
dientes, es p (Pj) n, y en consecuencia
Pj es no singular
2. La adicion de la Iila i a la Iila q puede obtenerse premultiplicando A por la matriz no
singular
Ay I E,-I
En K4x4 es
1 0 0 0
0 1 0 0
0 1 1 0
0 0 0 1
Ay se deduce de la matriz identidad al sustituir 0 por 1 en el lugar (J, ).
Se veriIica
www.FreeLibros.com
www.FreeLibros.com
T I CES ELEMENTALES
131
AyA - i
f 1
0

0 1 0
00_1 ,

-.0
.00_1 _0
o
<
0
1f
q A1 q Al
I
q A2 1
s
A
:
As
, : 1
AI Ay

\ Anl
u q
O sea, la premultiplicacion de A por Ay suma a la Iila q la Iila i.
Se sabe que las Iilas de la matriz identidad-.ei, e2 , . . eI~. . . , e constituyen un
conjunto linealmente independiente. En consecuencia
i e i ~e2 ~we~ .,es- e , . . .,e I
es un conjunto linealmente independiente, o sea
P (Ay) fi
Luego
Ay es no singular
3. El producto de la Iila i de A por el escalar a i= 0 puede obtenerse premultiplicando A
por la matriz no singular
M K c O - I C a - O E y
EnK4z4 es
M3 (a)
1 0 0 0
0 1 0 0
0 0 a 0
0 0 0 1
Mj(a) se obtiene multiplicando por a el elemento de lugar (q,z) de la matriz identidad.
Se veriIica
M`a). A
h o
0 1
_0_0_a_0
0 0
Ai
A2
A,-
A ni
Ai
A2
a
I
Como p (M (a)) n, es M,- (a) no singular.
www.FreeLibros.com
www.FreeLibros.com
9
T I CES
Analogamente, se demuestra que toda operacion elemental sobre las columnas de una
matriz A e K nxm puede obtenerse posmultiplicando A por una matriz no singular del tipo
mxm.
Definicin
Las matrices que realizan las operaciones elementales sobre las lineas de una matriz se
llaman elementales.
Como las matrices elementales son no singulares, de acuerdo con 4.13.4., se deduce que el
rango de una matriz no varia Irente a las operaciones elementales.
Ejemplo 4-16.
Mediante operaciones elementales determinamos el rango de A, siendo
q I 2 1 - 1
A u 1 1 o 2
o
\ 2 2 - 1 2 .
EIectuamos, sucesivamente, las operaciones elementales que trasIorman las primeras
Iilas y columnas de A en vectores canonicos:
A la segunda columna de A se le sumo la primera multiplicada
por - 2 .
A la tercera columna de A se le sumo la primera multiplicada
p o r 1. .
A la cuarta columna se le sumo la primera.
A la segunda Iila de la matriz anterior se le sumo la primera
multiplicada por - 1 .
A la cuarta Iila se le sumo la primera multiplicada por - 2 .
Se multiplico la segunda Iila de la matriz anterior por - 1 .
A la tercera columna se le resto la segunda, o sea, se le sumo la
segunda multiplicando por 1.
A la cuarta columna se le sumo el triplo de la segunda.
A la tercera Iila se le resto la segunda.
A la cuarta Iila se le sumo el duplo de la segunda.
0 0
0
- 1 - 1 3
1 2 - 1
2 - 3 4
0 0 0
- 1 - 1 3
1 2 - 1
- 2 -3 4
0 0 0
1 1 - 3
1 2 - 1
- 2 3 4,
0 0 0
1 0 0
1 1 2
- 2 - 1 - 2
0 0 0
1 0 0
0 1 2
0
- 1 - 2
www.FreeLibros.com
www.FreeLibros.com
E I ENCIA
133
1
0 0 0
0
1 0
0
0
0 1
0
0
0 -1
0
1
0
0 0
0
1 0
0
0
0
1 0
0
0 0 0
A la cuarta columna se le resto el duplo de la tercera.
A la cuarta Iila se le sumo la tercera.
Esta matriz tiene tres columnas linealmente independientes, o sea, su rango es 3, y
como es igual al de A, resulta
p(A) 3
4.15. EQUIVALENCIA DE MATRICES
4.15.1. Concepto
Sean A y B dos matrices pertenecientes a K xm. Diremos que B es equivalente a A si y
solo si B puede obtenerse eIectuando un numero Iinito de operaciones elementales sobre A.
El simbolo B A se lee: B es equivalente a A .
La equivalencia de matrices es reIlexiva, simetrica y transitiva, o sea, es una relacion de
equivalencia en Knxm.
La matriz
B
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 0
obtenida a partir de A, en el ejemplo 4-16, mediante un numero Iinito de operaciones
elementales, es equivalente a A y recibe el nombre de Iorma canonica de A. La Iorma
canonica de la matriz nula en Knxm es dicha matriz.
4.15.2. Propiedad
Toda matriz no nula A e K xm de rango r es equivalente a la matriz
B
N( nw- r ) xr N ( m . r j X( r j
donde B es la Iorma canonica de A.
La demostracion es sencilla, y el lector puede hacerla basandose en la deIinicion de
matrices equivalentes y teniendo en cuenta lo realizado en el ejemplo 4-16.
www.FreeLibros.com
www.FreeLibros.com
134
T I CES
Si A es una matriz no singular en Knx , entonces su Iorma canonica es la matriz
identidad.
A e Knxn es no singular o F.C.(A) I
El simbolo F.C.(A) se lee: Iorma canonica de A.
4.15.3. Propiedad
Las siguientes proposiciones son equivalentes:
i ) A B
) P (A) p (B)
iii) F.C.(A) F.C.(B)
1. A B z p ( A) p(B)
Si A B, entonces B puede obtenerse eIectuando un numero Iinito de operaciones
elementales sobre A, y de acuerdo con lo aIirmado en 4.14.2. el rango se conserva. En
consecuencia es p (A) p (B).
2. p ( A ) = p (B) ~ F.C.(A) F.C.(B)
Es inmediato por la propiedad 4.15.2.
3. F.C.(A) F.C.(B) ~A B
Por la propiedad 4.15.2. es F.C.(A) A y F.C.(B) B. Como A y B son equivalentes a
una misma matriz, resulta A B.
4.15.4. Propiedad
Si Ae K xm, entonces existen matrices no singulares P e K nxn y e K mxm tales que
F.C.(A) PA .
En eIecto, la Iorma canonica de A se obtiene premultiplicando A por un numero Iinito de
matrices elementales del tipo n x n y posmultiplicandola por un numero Iinito de matrices
elementales pertenecientes a Kmxm. Como tales matrices elementales son no singulares, sus
productos P y , respectivamente, tambien lo son, y a que las matrices no singulares Iorman
grupo multiplicativo.
4.15.5. Propiedad
Toda matriz no singular es un producto de matrices elementales.
En eIecto, si A e Knxn es no singular, entonces su Iorma canonica es la identidad, y de
acuerdo con 4.15.4. existen P y no singulares (am bas son productos de matrices
elementales) tales que
P A I
www.FreeLibros.com
www.FreeLibros.com
DETE IN CION DEL RANGO
135
En consecuencia
P 1PA 1 F l !
Luego
A P1 1
El segundo miembro es un producto de matrices elementales, ya que la inversa de toda
matriz elemental es una matriz elemental o un producto de estas.
4.15.6. Propiedad
Las matrices A y B pertenecientes a K XIn son equivalentes si y solo si existen matrices
no singulares P e K nx y e Kmxm tales que B PA .
1. A B ~ F.C.(A) F.C.(B) 3 K, L, M, R no singul ares q KAL MBR ~
~ B KAL R 1 ~ B P A donde P M-1 K y - L R 1
Hemos aplicado 4.15.3., 4.15.4., premultiplicado por M1 y posmultiplicado por R 1.
2. Supongamos que A y B son matrices nxm, y que existen P y no singulares tales que
B P A . Por 4.15.5., P y son productos de matri ces elementales, l oque signiIica que B
se obtiene eIectuando un numero Iinito de operaciones elementales sobre A. En
consecuencia, A B.
4.16. METODO DE GAUSS JORDAN PARA DETERMINAR EL RANGO
El metodo que exponemos a continuacion nos permite determinar el rango de una matriz
mediante un numero Iinito de operaciones elementales del tipo: multiplicacion de una Iila
por un escalar no nulo y adicion de una Iila a otra. Sealamos que se opera exclusivamente
sobre las Iilas de la matriz, y que ademas el metodo se hace extensivo a la determinacion de
la inversa de una matriz no singular y a la resolucion de sistemas lineales.
Esencialmente, mediante las operaciones elementales indicadas, se trata de Iormar el
maximo numero posible de vectores canonicos linealmente independientes. Tal numero es,
precisamente, el rango de la matriz.
Sea A una matriz no nula. Se elige cualquier elemento distinto de cero, al cual se lo llama
pivote. Para Iijar ideas, sin perdida de generalidad, supongamos que el pivote es au =a, y sea
la matriz
b
c . . . .
d e f . . . .
de la que se han indicado solo algunos elementos.
www.FreeLibros.com
www.FreeLibros.com
9 T I CES
Dividiendo la primera Iila por a 0, o sea, multiplicandola por el reciproco del pivote, se
obtiene
1
b c
a a
d e
f . . . .
En la etapa siguiente, se reducen a cero los restantes elementos que Iiguran en la columna
del pivote. Entonces, a la segunda Iila se le suma la primera multiplicada por - . De este
a
modo, d se trasIorma en 0, e se trasIorma ene - , y q s e trasIorma en q - . Se obtiene
a a
Si a 31 g, en la misma etapa, al sumarle a la tercera Iila la primera multiplicada por - - , g
a
g- b
se trasIorma en 0. Ysiz32 =h, entonces h se trasIorma en h ---------
a
En las dos etapas descritas se ha obtenido un vector canonico en la columna del pivote.
Observamos en la matriz dada que todo elemento que no Iigure en la Iila, ni en la
columna del pivote, Iorma con este una diagonal de un rectangulo . Los otros dos vertices
determinan lo que llamaremos la contradiagonal . Por ejemplo, asociado al elemento e se
tiene
b c
e f
Como el trasIormado de e es e ------- , operaremos asi: el trasIormado de cada elemento
a
www.FreeLibros.com
www.FreeLibros.com
GAUSS JORDAN
137
que no Iigure en la Iila y columna del pivote es igual a la diIerencia entre dicho elemento y el
producto contradiagonal dividido por el pivote.
En las etapas siguientes se reitera el procedimiento eligiendo un pivote que no Iigure ni en
las Iilas ni en las columnas de los pivotes anteriores. De este modo las operaciones
elementales indicadas preservan los vectores canonicos.
al procedimiento se termina cuando no es posible ob tener ningun pivote (distinto de
cero) en las condiciones ya sealadas.
Ejemplo 4-17.
Mediante el metodo de Gauss Jordan, obtener el rango de
El pivote puede ser cualquier elemento no nulo. Si algun elemento es la unidad, se lo
elegira como pivote para evitar calculos.
Procedemos de acuerdo con el siguiente esquema:
I I i 2-1 - 1
1- 1-- 0 2
0 1 2 - 1
2 2 - 1 2
1 2 1 - 1
0 - 1 - 1 3
0 C O - 2 - 1
0 - 2 - - 3 4
1 0 - 3 1
0
0
0
1 t
- 2
0 0 1 - - 2
1 0 0 7
0 0 1 2
0 1 0 5
0 0 0 0
El trasIormado de a23 0 es
1 . 1
0
1
El trasIormado de a43 = 3 es
1
El trasIormado dea44 2 es
2 - i ` 0
El procedimiento ha terminado, ya que no es posible elegir un nuevo pivote.
El rango de A es el numero de vectores canonicos, o sea, 3. El cuarto vector columna
www.FreeLibros.com
www.FreeLibros.com
9
MATRICES
es combinacion lineal de los tres primeros, pues es la suma de los productos de ellos
por 7, - 5 y 2, respectivamente.
Si en alguna etapa intermedia se eligiera como pivote un elemento no nulo que Iigure
en la Iila de algun pivote ya seleccionado, la columna que entonces se trasIormo en un
vector canonico dejaria de serlo.
Resumimos la mecanica del procedimiento:
1. Se elige como pivote cualquier elemento no nulo de la matriz dada, y se divide por el
la Iila correspondiente.
2. Los restantes elementos de la columna del pivote se trasIorman en ceros.
3. El trasIormado de todo elemento que no Iigure en la Iila ni en la columna del pivote se
determina siguiendo la regla del rectangulo , es decir, es igual a su diIerencia con el
producto contradiagonal dividido por el pivote.
4. Se reitera el mecanismo eligiendo como pivote un elemento no nulo que no pertenezca
ni a las Iilas ni a las columnas de los pivotes anteriores.
5. El numero de vectores canonicos linealmente independientes es el rango de la matriz.
4.17. INVERSION DE MATRICES POR GAUSS JORDAN
El metodo explicado en 4.16. permite determinar la inversa de una matriz no singular. Sea
A e Klx1no singulars a su derecha se escribe la i dentidad en KrtXrz.
A I
La matriz asi indicada es del tipo nx2n, y a ella se le aplica el metodo de Gauss Jordan
hasta lograr que A se trasIorme en la identidad. La identidad que Iigura en el esquema
anterior queda trasIormada en una matriz B e K z n.
A I
I B
La trasIormacion de A en la identidad siempre es posible, ya que, siendo A no singular, su
rango es n, y en consecuencia es posible obtener n vectores canonicos linealmente
independientes mediante las operaciones elementales indicadas en 4.16. Si los vectores
canonicos obtenidos no resultan ordenados de modo que constituyan una matriz diagonal, la
identidad se logra mediante una adecuada permutacion de Iilas de la matriz completa. La
matriz resultante a la derecha es la inversa pedida.
Las operaciones elementales realizadas sobre las Iilas de A, que la convierten en la
identidad, son las mismas que las eIectuadas sobre las Iilas de I y que la trasIorman en B. Si E
www.FreeLibros.com
www.FreeLibros.com
IN E ION
139
es el producto de las matrices elementales correspondientes a las sucesivas operaciones
elementales, entonces se veriIica que
E A I (1) y E I B (2)
De (2) resulta E B, y considerando (1) es
B A I
Luego
B A 1
Como en general- no se sabe a priori si A es inversible, igualmente el metodo puede ser
utilizado. En el caso en que A no tenga inversa no sera posible Iormar la identidad, por ser su
rango menor que n. Es decir, con el metodo de Gauss Jordan se determina la existencia de la
inversa o no, y en caso aIirmativo se la obtiene.
Ejemplo 4-18.
Utilizando el metodo de Gauss Jordan, obtenemos la inversa de
q I 0 1
A J 1 2 - 2
2 - 1 1q
Aplicamos el procedimiento mencionado a la matriz del tipo 3 X 6 que se Iorma
escribiendo la identidad 3 X 3 a la derecha de A, y convertimos a esta en la identidad

1
2
1
0
0
1
0 *

1
- 1
- 2
1
0 ~
2
0 (
\ 2 j
1
o
2

2
1
0
0
o



- 1

Los pivotes han sido sealados en
cada etapa.
El trasIormado de 3 es:
3 ( - 1X- 1) , 3 _ 1 = !
2 2 2
El trasIormado de a2$ es:
ti
A
2
1
2 10
www.FreeLibros.com
www.FreeLibros.com
E.
T I CES
La matriz inversa de A es
q o i
2
5
- i 2
5
i
5
- 1 1
5
2
5
Ejemplo 4-19.
Determinamos la inversa de
I I i
- 1
1 1 0 0
0 0 1 0 1 0
1
2 1 0 0 1
1 - 1 1 1 0 0
0 0
(1) 0 1 0
0 3
0
- 1 0
1
1 - 1 0 1
1
0
0 0
1 0
0
0
(3)
0 - 1 0 1
2 1
1 U 0
- 1
3
3
0 0 1 0
0
0
1 0
1
0
1
3
3
Para trasIormar A en la identidad, es necesario aun permutar las dos ultimas Iilas de
toda la matriz. Resulta
www.FreeLibros.com
www.FreeLibros.com
IN E ION
141
1 2_
i
1
3 3
0
1
y 3
0
1
o 1
4.18. INVERSION DE MATRICES POR PARTICION
Consideremos una matriz no singular Me Knxn, La particionamos en cuatro bloques
segun la descomposicion
n ~ p + q para Iilas y para columnas
q A B
M
C D
En consecuencia A e Kp xp, D e KX, B e Kpxii y C e K qxp.
Supongamos que D sea no singular. Proponemos el mismo esquema de particion para la
inversa de M:
/ X Y
M1
\ Z U
donde X, Y, Z y U son matrices a determinar y del mismo tipo que A, B, C y D,
respectivamente.
La matriz D, que hemos supuesto no es singular, se elegira de modo tal que su inversa
pueda obtenerse con Iacilidad.
Siendo M 1 1a inversa de M, debe veriIicarse que
A B qX Y l p N
C Dq Z U N I q !
O sea
AX B Z - I P (1) AY B U N (3)
C X D Z N (2) c Y D U 1Q (4)
De (2) se deduce
D Z C X
Y premultiplicando por D1
Z D-1 C X (5)
www.FreeLibros.com
www.FreeLibros.com
Sustituyendo (5) en (1)
142 MATRICES
Por distributividad
Luego
De (4)
En consecuencia
Sustituyendo en (3)
A X - B D ! C X Ip
(A - B D1 C) X lp
X (A B D 1 c y l (6)
d u = i 9 - c y
U D 1 - D 1c Y (7)
AY B D - B D 1C Y N
Por distributividad y qtrasposicion
(A B D 1 C) Y - B D 1
Premultip cando por ( A - B D 1 C)1 X, resulta
Y - X B D 1 (8)
Las relaciones (6), (5), (7) y (8) permiten la determinacion
respectivamente, en Iuncion de los datos y de la inversa de D.
Ejemplo 4-20.
Utilizando el metodo de particiones, invertir la matriz
qI - 1 0 0
M = [ * 11 0
2 1 1 0
1 - 2 0 1
Particionamos en cuatro bloques del tipo 2 X 2, y consideramos
V . - D .
o 1
Resulta
l . X ( A- BD- ~ e ) 1 (A B C) 1
www.FreeLibros.com
www.FreeLibros.com
IN E ION
Calculamos
Obtenemos la inversa de esta por Gauss Jordan
- 1
- 1 0
1 0
0 1
1 - 1
0 0
1 0
1 1
1 0
0 1
0 - 1
- 1 - 1
Luego
www.FreeLibros.com
www.FreeLibros.com
EE
T I CES
Con los cuatro bloques obtenidos Iormamos la matriz inversa
0 - 1 1
0
- i - 1 1 0
1 3 - 2 0
- 2 - 1 1
1
4.19. CAMBIO DE BASE Y SEMEJANZA DE MATRICES
4.19.1. Matrices de pasaje
En el espacio vectorial (V, , K , .), de dimension Iinita, consideramos las bases
uv I V ! , V 2 , . . . , V y xV ( V* ! , Vz2 , . . vz
DeIinimos dos endomorIismos:
1. g : V -wV tal que g (vs ) v Vq 1, 2, . . n
Expresando cada imagen como combinacion lineal de la base uv, se tiene
0 )
La matriz P de esta trasIormacion lineal respecto de la base uv en cada espacio es
P ( z q)
P recibe el nombre de matriz de pasaje de la base uv a la base uv.
2. h : V -> V tal que h (vs-) vs- Vq 1, 2, . . . , n
Procediendo como en el caso anterior es
vj A P Uyi (2)
p es la matriz de h respecto de la base uvj en cada espacio, y diremos que es la
matriz de pasaje de la base uvj a la base uv.
4.19.2. Propiedad
Las matrices de pasaje P y P son inversas entre si.
Demostraremos que P Pz P P I.
Teniendo en cuenta (1) y (2) escribimos
www.FreeLibros.com
www.FreeLibros.com
CAMBIO DE BASE
145
Como
Vj = 0 Vj 0 v2 . . . 1 \ j . . . 0 v
resulta que el unico termino no nulo de la sumatoria anterior se obtiene para i q, y vale 1
En consecuencia, ambas matrices de pasaje son inversibles, y cada una es la inversa de la
otra.
4.19.3. TrasIormacion de coordenadas
Sea P la matriz de pasaje de la base uv a la base uv, y sea x e V.
Demostraremos que
donde Xuv y Xuv.j son las matrices de las coordenadas de x e V en las bases uv y uv
respectivamente.
En eIecto, expresando a x como combinacion lineal de cada base y teniendo en cuenta (1)
de 4.19.1., escribimos
Luego
n
S Pik p kj v7
H1
Por deIinicion de producto de matrices y de matriz identidad resulta
P P I
Analogamente se deduce que
P P I
X,v, - P X j v.j
n n n
x = j S1 ai>v,} =jS1 Ci'i Pi}V"
Pero
n
x 2 Vi
Por la unicidad de la C.L. es
~ pj cCj Vi 1, 2, . . n
Por deIinicion de producto de matrices, de las relaciones anteriores se deduce
www.FreeLibros.com
www.FreeLibros.com
E T I CES
O sea
e ) e. ()
Y como P es no singular, premultiplicando por P 1 resulta
XuV. , P- XuVx (4)
(3) y (4) se llaman Iormulas de trasIormacion de coordenadas.
4.19.4. Matrices de una trasformacin lineal y cambio de bases.
Sea q : V -~ una trasIormacion lineal de matriz A e K mxn respecto de las bases
uv i v i , v2, .. .,v e n V y u w ( w , , w 2, . . , w m ) ene.
Si se eIectua un cambio de base en cada espacio, entonces la misma trasIormacion linealq
esta caracterizada por una matriz B e Kmxn respecto del nuevo par de bases Iv y uwl.
Sean P e K.nxn y e K1X 1las matrices de pasaje de uv a uvJ y de uw a uw.
Demostraremos que las matrices A y B de la trasIormacion lineal qrespecto de los dos
pares de bases veriIican
es decir, son equivalentes.
Para ello consideremos el diagrama
B 1 A P
V, uv
P
V, uv
A
e, uw

e, uwl
Se veriIica que
l . Xj vj P X uv.j por 4.19.4. (3)
2 Y(w Yuw,, por4.19.4. (3)
3. Yi,t -
uw.
(w - A Xuv por ser q trasIormacion lineal de matriz A respecto de las bases uv y
[w].
4. Yuw.j - B Xxv,, pues q e s trasIormacion lineal de matriz B respecto de las bases uv y
De 2., 3. y 1. se deduce
Y . . . . n - m
u - O Y(wj - 1 A Xuv) - A P X(v,x
www.FreeLibros.com
www.FreeLibros.com
EED N
E
De esta relacion y de 4 resulta
B 1 AP
0 sea, B A.
R e c i p r o c a m e n t e , si A y B son matrices equivalentes en Kmx , y V y e son e s p a c i o s
ectoriales sobre K, de dimensiones n y m, respectivamente, entonces A y B caracterizan a
una misma trasIormacion l i n e a l q: V-~ e respecto de dos pares de bases.
4.19.5. Matrices semejantes
Consideremos el caso particular del endomorsmo
q : V ~V
siendo dim V n y A la matriz deqrespecto de la base uv uw en cada espacio.
Si se eIectua un cambio a la nueva base uvz uw con matriz de pasaje P , entonces se
tiene
B P 1 A P
donde B es la matriz deqrespecto de la nueva base uvz.
Las matrices A y B de Knxn, que representan el mismo endomorIismo respecto de las
bases uv y uw, se llaman semejantes.
Diremos que
A es semejante a B o 3 P no singular q B P 1 A P
La semejanza de matrices es una relacion de equivalencia.
Ejemplo 4-21.
Sea la trasIormacion lineal q : R3 zR3 deIinida por
f ( a , b , c ) - ( a + b , a - b + c , a - c )
1 ) Determinamos la matriz A de q, respecto de la base canonica uv en cada espac io
q ( 1 , 0 , 0 ) (1, 1, 1) l e , l e 2 l e 3
q ( 0 , 1 , 0 ) (1, 1, 0) 1 ej - 1 e2 0 e 3
q( 0 , 0 , 1) (0, l , - l ) 0 e t 1 e2 - l e 3
Entonces
\ 1 0
A ( 1 - 1 1
\ l 0 - 1
i i ) Obtenemos la matriz P de pasaje de la base canonica uv a la base
uv I ( l , 1, 1) , ( 1 , 1 , 0 ) , ( 1, 0, 0)
( 1 , 1 , 1 ) l e , 1 e2 1 e 3
www.FreeLibros.com
www.FreeLibros.com
E
( 1, 1w0 ) 1 e, 1 e2 Oe3
(1, 0 , 0 ) 1 e, 0 e2 0 e3
T I CES
Luego
q 1 i i
P 1 1 0
1 o o
m T I n adoa,ev: s : i Ultad OS CaUlam0S riZ B de la base
Se sabe que
Empleando Gauss Jordan resulta
Luego
B P 1 A P
h ? ) / : ; :
1 - 1 0 / i o 1 q 1 o o
1 1 1 q o 1 1
1 1 0 u 1 1 o
1 0 0 q 1 2 0
El lector puede veriIicar este resultado obteniendo directamente B, como en i).
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO IV
4-22. Calcular la matriz A 2 B, sabiendo que
2
y B
4-23. Determinar la matriz X q X ^ ) sabiendo que X ( ` M I
\.z u f \ 2 - 2 q
4-24. Sean las matrices
1
1 q
1 - 1
1
0
B 0 0
1 2 q - 2 2
- 3
- 3
Obtener: A2, A B C y B IAt ,
4-25. Desarrollar
i ) (A I) (A I)
ii) (A B) (A - B)
Sabiendo que A, I y B son matrices cuadradas n x n.
4-26. Siendo
PQ q 2
- P 2 ~PQ
Calcular A2.
www.FreeLibros.com
www.FreeLibros.com
. T I CES
4-27. Obtener A2 sabiendo que
A
0
0
4-28. Dada la matriz
A
calcular A2, A3, A4, etcetera, y vincular los elementos resultantes con los terminos de
la sucesion de Fibonacci: 1, 1, 2, 3, 5, 8, 13, . . . donde, a partir del tercero, cada uno
es igual a la suma de los dos anteriores.
4-29. Demostrar que A (B C) (A B) C, sabiendo que los productos indicados existen.
4-30. Demostrar por induccion completa que
4-33. Siendo B e Knxn, C e K xn, C2 N y B C C B, demostrar
AB C ` A Itti Bzz ( B (Ic 1) C )
4-34. Sabiendo que en Knxn se veriIica XA I y A Y I, demostrar que X Y.
4-35. Determinarlas matrices X e R2x2 tales que X2 N.
4-36. Demostrar que si A y B son matrices diagonales en K x!, entonces AB es diagonal y
4-31. Sabiendo que
demostrar
4-32. Resolver la ecuacion A2 X2 I, donde A, X, lson matrices 2 X 2 y
AB BA.
www.FreeLibros.com
www.FreeLibros.com
4-37. Demostrar
AAi N~AN
4.38 Demostrar que si A y B son matrices idempotentes y permutables en Kxn, entonces
A B es idempotente.
4.39 Demostrar que si una matriz es simetrica, idempotente y con algun elemento nulo en la
diagonal, entonces la Iila y la columna de dicho elemento son el vector nulo.
440. Demostrar que si A es idempotente y B es ortogonal, entonces Bz A B es idempotente.
441. Demostrar
A2 = A a A + B = I=>B2 = B a AB = BA = N
442. Demostrar
A B I A A B N ~A y B son idempotentes
443. Demostrar
A B = A a B A B ~ A, B, AI, Bz son idempotentes
444. Demostrar que si A es simetrica, entonces BI A B es simetrica cualquiera que sea
B e Kx .
445. Sean A y B dos matrices simetricas en Knxn. Demostrar
A B es simetrica 0 A y B son permutables
446. Demostrar que la matriz A e Knx es involutiva si y solo si (I - A) (1 A) N.
447. Demostrar que A y B son permutables si y solo si A al y B - al son permutables,
cualquiera que sea el escalar a.
448. En K3 x 3 se consideran una matriz cualquiera B y A tal que a 1 Vi Vq
Analizar las Iilas de AB y las columnas de BA.
449. Demostrar que si A y B son no singulares y permutables, entonces sus inversas son
permutables y sus traspuestas tambien lo son.
4'50. Demostrar que si A es una matriz diagonal y todos los elementos de la diagonal son no
nulos, entonces A es no singular y su inversa es la matriz diagonal Iormada por los
inversos de tales elementos no nulos en la diagonal.
4-51. Demostrar que si A es no singular e idempotente, entonces A I.
4-52. VeriIicar que las siguientes matrices Iorman grupo multiplicativo.
T DO PRACTICO IV 151
www.FreeLibros.com
www.FreeLibros.com

T I CES
4-53. Mediante una particion adecuada eIectuar el producto
f C
1 0 0 q 0 0 2 0
0 0 0 1 j 1 1 0 0 0
0 0 2 2 q 0 1 0 0
4-54. Determinar una base del espacio Iila de
4'55. Demostrar que si A es no singular y B A N, entonces B N.
4-56. Siendo A e Knxn no singular y X e Y matrices en Knx 1 tales que A X Y, entonces c
X A 1 Y.
4-57. Demostrar que si A y B son matrices de Knxn tales que ABN, entonces A N i
B N o A y B son singulares.
4-58. Determinar los rangos de
- 2 4 - 2 - 2
A I 1 1 1 0 x B
- 2 1 2 - 1
4-59. Obtener, si existen, las inversas de
q 1 - 1 0 q 1 - 1 0
A 0 1 - 1 B x 0 1 - 1
4-60. Sea
1 0 1 q V1 0 2
2 3
1 4
2 - 7
VeriIicar que p (A) p (A Az)
4'61. Demostrar que el rango de la suma de dos matrices es menor o igual que la suma de su
rangos.
4-62. Demostrar las siguientes propiedades relativas a la traza de matrices en K xn:
i ) ir(AB) tr (BA).
i i ) tr (ABC) tr (CAB) tr (BCA), o sea, la traza no varia Irente a permutacione
ciclicas.
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO IV
153
iii) Si C es ortogonal, entonces tr (CzAC) tr A.
4-63. Sea A una matriz idempotente en R xn, y sea X un vector no nulo de Rn que veriIica
AX zaX, con a e R. Demostrar que a = 0 o a ssl.
4-64. Si A e Rnxn es involutiva y X e R es no nulo y veriIica AX = aX, entonces a 1 o
a ~ - 1 .
4-65. Sea X e R x 1. Se deIine el escalar X (X raya) mediante
i n
X - 2
n ii 1
Determinar las matrices A e Rnxn que veriIican
i ) X( A X X2
) Xi AX n X2
iii) X` A X ( X i - X f
ii
4-66. Sea T e JC estrictamente triangular superior. Demostrar que
(I _ t )-i =1 + T + T 2 . . . T Ill
4-67. Sean
0 0 1 0
. . o o 0 1 .
A 1 i o o o I y b
, 0 1 0 0
donde C y D son matrices 2 X4 . VeriIicar que A B
C
4-68. Seaquna trasIormacion lineal de V en V caracterizadapor la matriz A.
Sabiendo que A veriIica la relacion A3 A2 - A I N, demostrar que q es no
singular.
4-69. Determinar la inversa de
A
4-70. Sean A x ) y B e R2 x2. DemostranA y B son permutables o B a A J31
0 3,
1
- v
0 0
0 1
-p
0
0 0 1
-p
0 0 0 1
www.FreeLibros.com
www.FreeLibros.com
E T I CES
4-71. Las matrices A y B de Km xm son tales que A y (A B - B A) son permutables.
Demostrar que
A B B A n A1-1(A B - B A) V e N
4-72. S e a q : R3 -wR2 una trasIormacion lineal deIinida por
f ( a , b , c) ~ (a b - c , a - t)
i ) Hallar la matriz de qrespecto de las bases canonicas en R3 y en R2.
ii ) Obtener las matrices de pasaje de las bases anteriores a las bases
uV 1 ( 0 , 1 , 1 ) , ( 1 , - 1 , - 2 ) , ( 1 , - 1 , - 1 ) )
uw 1(1, 3 ) , (0, - 2 ) x
iii) Calcular la matriz B d e q, respecto del nuevo par de bases.
www.FreeLibros.com
www.FreeLibros.com
Captulo 5
DETERMINANTES
5.1. INTRODUCCION
En esta seccion se deIine axiomaticamente la Iuncion determinante de orden n y se
demuestran las propiedades que se derivan de tales axiomas. Se encara despues el problema
de la existencia del determinante y se llega al desarrollo por los elementos de una Iila. A
continuacion, y sobre la base del concepto de inversiones de una permutacion, se da el
desarrollo del determinante en Iuncion de los elementos de la matriz, y se demuestra la
igualdad de los determinantes de dos matrices cuadradas y traspuestas. Se encara el
desarrollo de los determinantes por los elementos de una linea cualquiera, y se demuestra el
teorema relativo al determinante del producto de dos matrices. Despues de exponer el
concepto de matriz adjunta de una matriz cuadrada, se da un metodo para invertir matrices
no singulares.
5.2. DETERMINANTES
En lo que sigue, supondremos que K es tal que 1 1 0, y si A e K x , escribiremos
A (Aj 2 . . . A), donde A con 1 v q v denota la columna de lugar i de la matriz
cuadrada.
Definicin
Determinante de orden n es toda Iuncion
D : Knxn -w K
que veriIica
1. D( A, . . . a s a s . . a ) - d ( a i . . . a s . . . a ) d ( a 1 . . . a ? . . . a )
cualquiera que s e a q 1, 2 , . . . , n.
2. D (Aj . . . a A s . . . A ) I t D ( A 1 . . . A , . . . A)
para todo q 1, 2 , . . .,n.
www.FreeLibros.com
www.FreeLibros.com

DETE IN NTE
3. A ~ AJ! ~ D (Ai . . . As Aj 1 . . . A) - O
cualquiera que sea q 1, 2 , . . n - 1.
4. D (I) 1.
Haremos algunas aclaraciones acerca de la notacion usada y de los axiomas propuestos en
la deIinicion. La Iuncion D asigna a cada matriz n x n un escalar llamado determinante de la
matriz. Asi, el simbolo D (A) se lee determinante de A , y es un elemento de K.
Los axiomas 1. y 2. caracterizan a D como una Iuncion lineal respecto de cada columna
de la matriz.
El axioma 3. establece que si dos columnas consecutivas de una matriz son identicas,
entonces su determinante es nulo.
El axioma 4. expresa que el determinante de la identidad vale 1.
Si
A
an a n a\n
a 2l a 22 @2n
escribiremos
a n 1 a n 2 IlIin
I11 d \1 . . . d \ n
a21 22 a2n
&n 1 0-n2 a n n
Ejemplo 5-1.
La Iuncion D : K2z 2 -~K deIinida por
a b
D (A)
c d
= ad - be
es un determinante.
En eIecto:
1.
a b b
c d + d
a b

a b
c d c d
2.
a a b
a c d
a ( d + d ,T) - ( b , + b ) c = ( a d , - b c) + ( a d - b c) =
a b
c d
a a d - b a c ~ a . ( a d - b c ) = a
www.FreeLibros.com
www.FreeLibros.com
r
OPIEDADES
157
3 a a =a c - a c 0
c c
4- D( I ) x o i u 0 0 1
os en
de la
Analogamente lo es la Iuncion D : K1x 1 -K deIinida por
D (A) \a\ = a
imna
5.3. PROPIEDADES DE LA FUNCION DETERMINANTE
ticas,
5.3.1. Teorema
Si se permutan dos columnas de una matriz, entonces los correspondientes determinantes
son opuestos.
Razonamos inductivamente:
i ) Las columnas que se permutan son consecutivas.
Sea A (Ai . . . Ay Ayi . . . An)
D (Aj . . . Ay Aqi Ayi Ay . . . An) 0
Aplicando 2. se tiene
D (Aj . . . Ay Ayi . . . A n) DiAJ ` A r -Ar` r A i i ) -
4- D( A i . . Ayi . . . A ny D (Ai . . . Ay i A . . . A n) 0
Los dos terminos centrales son nulos por 3.
Luego
D (Ai . . . Ay Ayi . . . A) D (Ai . . . Ayj Ay . . . A)
ii) Suponemos valida la propiedad para h - j = k y la demostramos para h - j = k + \
Por 3. es
D (A! . . . Ay Ay1 . . . Ah . . . A)
D (Ai . . . Ay1 Ay . . . Ah . . . A ) Pori)
D (Aj . . . Ay1 Ah . . . Ay . . . A) Por hipotesis
D (A, . . . A h Ayi . . . Ay . . . A) Por i)
5.3.2. Teorema
El determinante de toda matriz que tenga dos columnas identicas es nulo.
ii = j a A Ay ~ D (Ai A2 . . . A. . . Ay. . . A) 0
www.FreeLibros.com
www.FreeLibros.com
158 DETERMINANTES
En eIecto, permutando tales columnas identicas por 5.3.1. es
O sea n)
D (A) - D (A) pues Az A,
Luego
1 D (A) 1 D (A) 0
En consecuencia
(1 1) D (A) 0
Y como l l ` o , resulta
D (A) 0
5.3.3. Teorema
Hemos aplicado 1.3.1. y el axioma 2. de la Iuncion determinante.
5.3.4. Teorema
linIa! de ante no S a w- u w Se le suma una combi nacion
q ` ` D ( A 1 . . . A J. . . . A , . . . A ) D ( A 1 . . . A s . . . A I c a A . . ,
Aplicando los axiomas 1. y 2., y teniendo en cuenta 5.3.2., resulta
D (A, A , . . . A z a A q . . . A )
l ~I A A - -Aw. (A, . . . A s . . . Aq . . . A)
D ( A. . . . A j . . . A k . . . A n) + a .0 =
D( A 1 Aj . . . Ak . , . A)
Ejemplo 5-2,
Sea
q 1 o l
A - ` 1 o q eR3X3
www.FreeLibros.com
www.FreeLibros.com
OPIEDADES
Calculamos D (A) de la siguiente manera:
i ) A la tercera columna le sumamos la primera multiplicada por - 1 .
1 0 1 1
0 0
- 1 1 0
- 1 1 1
2 1 - 1 2
1 - 3
D.(A)
i i ) A la primera columna le sumamos la segunda.
D (A)
iii) A la tercera columna le sumamos la segunda multiplicada por - 1
D (A)
1 0 0
0 1 1
3 1 - 3
1 0 0
0 1 0
3 1 - 4
iv) De la tercera columna extraemos el Iactor - 4 .
1 0 0
D(A) ( - 4 ) 0 1 0
3 1 1
v ) A la primera columna le restamos el triplo de la tercera.
1 0 0
D (A) ( - 4 ) 0 1 0
0 1 1
vi) A la segunda columna le restamos la tercera
( 1 0 0
D (A) ( 4)
Por 4. resulta
0 1 0
0 0 1
D (A) ( - 4 ) . 1 - 4
Ejemplo 5-3.
S i a e K y A e K z , entonces
D( a A) a D (A)
www.FreeLibros.com
www.FreeLibros.com
160
DETE IN NTE
En eIecto:
D ( a A ) D u a (A 1 A2 . . . A )
D(o: Aj a A2 . . . a An) =
= an D (A)
Ejemplo 5-4.
Sl Alx`2 A son vectores columnas de Kn tales que D (Ai A2 . . . A) 0 y
B e K x es combinacion lineal de aquellos, o sea
B s i z i A con x e K , i = , ,. . .,n,
entonces
D( At . . . B . . . A )
D(A)
donde B es la columna de lugar j.
En eIecto:
D (Ai . . . B . . . Am) D (A, . . . x . An)
- z i D (At . . . Ai . . . A) z 2 D (Ai A2 . . . A2 . . . A)
+ xj D (Ai . . . Ay . . . A) . . . + Xn D (Aj . . . An . . . A) -
: Xj D (A)
Luego
5.3.5. Teorema
. _ D( Ai ...B...A1
D( A)
D( A, Ai z AAa ) o A So n Une a l me nt e dependientes en Kn, entonces e
Siendo por hipotesis i At l Aa........ A x un conjunto Unealmente dependiente algun
vector, digamos As-, es combinacion lineal de los restantes, o sea
A,- S qAI
En consecuencia resulta
D( A) - D( Aj A2 . . . . S It AI. . . . A ) 0
www.FreeLibros.com
www.FreeLibros.com
EI TENCIA
161
El teorema contrarreciproco expresa
D (A) 0 ~ Ai, A2, . . A son L.I.
Por consiguiente
D (A) 0 ~ A j , A2, . . A ) es una base de K
5.4. EXISTENCIA DE D
DeIiniremos los determinantes por induccion sobre n. Sea A e K x , Para cada
(q q) e l n X I consideramos la matriz A ( q 1f) del tipo (n - 1) X (n - 1), que se deduce de
A al suprimir la Iila i y la columnas .
q
d\ \ . . .
. . . ain
ay
an 1 an1
. . . a,
Denotaremos con Ay al producto de ( - l ) w por el determinante de A (i \j), o sea
A ( - 1 ) w D ( a ( I/))
El determinante Ay recibe el nombre de coIactor del elemento (q, q) de la matriz A.
1 2 3
Por ejemplo, si A J 1 0 2
2 1 - 3
entonces los coIactores de los nueve elementos de A, son
An ( l ) 2
0 - 2
1
!
t
o
~
I
I

w
1 - 2
1 - 3
2 - 3
- 1 , etcetera.
Probaremos la existencia de D procediendo inductivamente.
i ) Sean n = 1 y A (a) e K1x 1. DeIiniendo
D : Kl xl - wK mediante
D (A) a
se satisIacen los axiomas propuestos en 5.2.
ii) Supongamos deIinido D : K( 1~x(Il 1) K.
Esto signiIica que se satisIacen los axiomas 1 2 . , 3. y 4.
www.FreeLibros.com
www.FreeLibros.com
Daremos ahora una expresion para a Iuncion z j
determinante de orden w - i. Para ello deIinimos, para cada I la q 1 , 2 . ` 6XPenSaS deI
D : K n x n ~>K
mediante la asignacion
D (A ) =. 1 au A ( i )
donde Aj ( - 1 ) d I A( i qq) ) .
0 sea
, D ( A ) - s AIl +a2 A . . . + an An Vs e l .
Probaremos que la deIinicion (1) satisIace los axiomas nombrados
! D (A, A2 . . . A ' k AIe . , . A )
n
~ j S x aa Ay =aik Aik + X aj Ay
j&h
(a k a \ ) Aik 2 a a =
j ^ k w u
2. D ( A i 2 . . . a . A ) 2 a -= A 4. v
n) a* Av a atk Aik 4 ` 2 ay AtI.
puede extraerse en virtud de la U p o t e i t d u c t i v a ` u ta 3 ` 1U8 z ` IaCo r qUe
D( A1 A2 . . . a AI t . . . A) a D( Ai A2 AIt `
9 . D . . . . . .
n
=St aHA = a ik Aik + ai h+1 At h+
A ( 1* (_1)i" +1o** *( c ( c)) =
( 1) ath D ( A (s Ik) ) ( !)v zz, ` D ( A ( q 1z) J 0
4- D , 4 ( l ) w 5i i D ( l ( x q ) j
- ( - I ) i Su D I I (q uq) J 1
Entonces, Vn e N , Vq e l n, la Iuncion
D : Knx K
162 d e t e r m i n a n t e s
www.FreeLibros.com
www.FreeLibros.com
NICIDAD 163
deIinida por
D ( A ) . xi ai s Ais-
es un determinante de orden n.
La Iormula anterior corresponde al desarrollo del determinante por la i-sima Iila y expresa
que todo determinante es la suma de los productos de los elementos de la Iila i por sus
correspondientes coIactores.
5,5. UNICIDAD DEL DETERMINANTE
Expondremos primero algunos conceptos relativos a permutaciones e inversiones de una
permutacion, sin entrar en detalles de demostraciones. Despues hallaremos una expresion del
determinante en terminos de los elementos de la matriz, de modo tal que se satisIagan los
cuatro axiomas de la deIinicion.
5.5.1. Permutaciones
Sea el intervalo natural inicial 1 , 2 .
Definicin
Permutaciones de I son todas las Iunciones biyectivas de I en si mismo.
Si o : I -zI n es una permutacion, entonces O queda caracterizada por el conjunto
ordenado de las imagenes
a ~ a ( l ) a ( 2 ) . . . II(tt))
Como o es biyectiva, existe la permutacion inversa de a, a 1 : l n deIinida por
a 1 ( O q si o ( j ) ~ i
Como la composicion de Iunciones biyectivas de I en l n es tambien una Iuncion
biyectiva, resulta que la composicion de dos permutaciones de I es una permutacion de l n.
Permutacion identica es la Iuncion identidad en I.
5.5.2. Trasposiciones
Sea e l i Trasposicion q-sima de la permutacion O es la permutacion
Ja : Iqj l n
deIinida por
i o ( i ) si i + } a / = / + 1
www.FreeLibros.com
www.FreeLibros.com
E DETE IN NTE
Por ejemplo, dada la permutacion de l 5
a ( 2 1 3 4 5)
entonces es
2CT (2 3 1 4 5)
Toda trasposicion de una permutacion intercambia dos imagenes consecutivas y deja Iijas
a las restantes. ,
Se veriIica que la permutacion inversa de una trasposicion es una trasposicion. Por
ejemplo, la permutacion inversa de la trasposicion
20 (2 3 1 4 5)
es la trasposicion !
2 (3 1 2 4 5) i
Se demuestra que si o es una permutacion de I y n > 1, entonces existe un numero Iinito I
de trasposiciones cuya composicion es la identidad.
Por ejemplo, si i
o = (2 3 1 4 5) s
entonces
2(j (2 1 3 4 5)
y !
l20 ( l o 2 ) 0 ( i 2 3 4 5) I !
5.5.3. Signo de una permutacion
Sea a una permutacion de l n. El simbolo e(II) denota el minimo numero de
trasposiciones que trasIorman a o en la identidad. Convenimos en que e (I) 0.
Diremos que o es par si e (a) es par. Si e (a) es impar, entonces a es impar.
A cada permutacion a de I se le puede asignar el signo si a es par, y el signo menos si
es impar. Tal signo queda caracterizado por ( -- l ) e(0)
Se veriIica que dos permutaciones inversas tienen la misma paridad. O sea
( !) z~ ( i ) e ` ~
5.5.4. Teorema
Los determinantes estan univocamente determinados por los axiomas 1., 2., 3. y 4. El
determinante satisIace la expresion
D (A) S ( l ) e (CT) ao0 M - aa{n) n
donde la suma se realiza sobre todas las permutaciones de I.
www.FreeLibros.com
www.FreeLibros.com
Consideremos A (A, A2 . . . An) e K x . Si Ej , E2, . . Ert son los vectores columnas
de la base canonica de K , entonces
NICIDAD 165
n
A2 a 2 E
11
A 2 ain E,
ii
O sea
D (A) D (A, Ai . . . A) D ( i a E, 2 a2 E , . . . J ain E,)
11 1=1 l - l
Mediante 1. podemos expresarlo como una suma de terminos del tipo
D( a II( i ) ti E0(1) Ila (2),2 Eg( 2) . . . aa(),n Ea())
donde o( 1), o(2 ) , . . o() denota una eleccion de n enteros entre 1 y n.
Por 2. se tienen terminos de la Iorma
#<7( 1) , ! a o{ 2),2 a a { n ) sn D (ECT(i) EII(2) . . . ECT(n))
Si algun o asigna el mismo entero a valores distintos i y q, el determinante es nulo en
virtud de 5.3.2. Esto signiIica que debemos considerar solo las permutaciones de In.
Luego
D (A) 2 i 70(1 `1 J 2 . . . na(n),n L) (EC(1 ) Ea (2 ) . . . ECT())
Los vectores canonicos ECT(1), ECT(2 Ea() constituyen en cada termino una
permutacion de E j , E2, . . En. Si e ( a ) denota el numero minimo de trasposiciones
necesarias para obtener la permutacion identidad es
D (E*d) Eaia)- **(>) = ( - 1 y <a) D (Ei E2 . . . E)
donde ( l ) e(a) es el signo de la permutacion.
Por 4. resulta
D (E(1, E0(2~. . . E(n)) ( - 1 ) vo~ D (I) ( - l ) eiv7)
Por consiguiente es
D (A) 2 (l ) eiv7i 0(i 0(2),2 ao(n),n
Este desarrollo del determinante no es util para el calculo, pero si lo es desde el punto de
vista teorico.
www.FreeLibros.com
www.FreeLibros.com
166 DETERMINANTES
5.6. DETERMINANTE DE LA TRASPUESTA
x z - .
Sabemos que
D (A) ` 1 ) ei CT)Ila ( l ) , i ( I ) ,2
Sea una permutacion de I S i o(j) = k, entonces a 1 (z) q
ao(j)J=ak,o~l (k)
En todo producto del tipo
2 ) t 2
cada entero k e \ n Iigura una sola vez entre los enteros a( f t P
puede escribirse asi: ` consiguiente, tal producto
y la suma es
ya que
( - l ) cvo~(-I)evcT)
permutacion caracteriza univocamente a su inversa. a
Por consiguiente, la suma es igual a
2 ` l ~oa l . a(l ) 2, a(2~. . . a n,0(n) D(Ai)
Ejemplo 5-5.
Calculamos, segun 5.5.4., el determinante de C (A B)i siendo
-ri).
EIectuamos primero
www.FreeLibros.com
www.FreeLibros.com
DETE IN NTE DE T E T

Entonces
q 3 - 3 - 4
C (A B)( - - 2 2 0
5 - 5 - 2
Para obtener los seis terminos del desarrollo 5.5.4. podemos aplicar la conocida regla
de Sarros, repitiendo debajo del determinante las dos primeras Iilas de la matriz, y
eIectuando los productos indicados
D (C)
3 . 2 . ( - 2 ) ( - 2 ) . ( - 5 ) . ( - 4 ) 5 . ( - 3 ) . 0 -
5 . 2 . ( - 4 ) - 3 . ( - 5 ) . 0 - ( - 2 ) . ( - 3 ) . ( - 2 )
- 1 2 - 4 0 4 0 12 0
En el caso de un determinante de orden 4, esta regla no es aplicable, y la obtencion de
los 24 terminos del desarrollo es muy penosa. En todos los casos de calculo es
preIerible el desarrollo del determinante por los elementos de una Iila o columna,
como se indica en 5.3.5.
En este sentido, primero extraemos el Iactor 2 de la segunda Iila, y despues sumamos a
la segunda columna la primera:
3 - 3 - 4 3 0 - 4
D (C) - 2 - 1 1 0 2 - 1 0 0
5 - 5 - 2 5 0 - 2
0 por tener una columna de ceros.
El lector puede veriIicar que
D (C) D (A B)
Ejemplo 5-6.
Calculamos el siguiente determinante:
D (A)
A la primera Iila le sumamos las dos ultimas y extraemos el Iactor 9
9 9 9 1 1 1
D (A) 3 5 9 3 5 1
5 3 5 1 3
A la segunda y tercera columnas les restamos la primera
, 1 0 0
D (A) 9 2
- 4
www.FreeLibros.com
www.FreeLibros.com
DETE IN NTE
Desarrollamos por la primera Iila, segun 5.3.5.
2 - 2
D (A) 9 . 1 .
- 4 - 2
9 ( - 4 - 8 ) -108
Teniendo en cuenta que los determinantes de dos matrices traspuestas son iguales, los
axiomas y propiedades relativos a las columnas son validos para las Iilas.
En consecuencia, el desarrollo de un determinante por los elementos de una Iila
propuesto en 5.3.5., se hace extensivo a los elementos de una columna. Podemos decir
entonces, que todo determinante es igual a la suma de los productos de los elementos de um
linea (Iila o columna) por sus respectivos coIactores.
Ejemplo 5-7.
Desarrollamos por los elementos de la primera columna.
1 1 1 1
D ( A)
a c d
c2 d2 a2 b2
a3 b3 c 3 d 3 .
Antes de eIectuar el desarrollo pedido reduciremos a 0 los tres ultimos elementos de la
primera columna, para lo cual restaremos a cada Iila la anterior multiplicada pora.
D (A)
1
b - a
1
ca
1
d - a
0 b2 -ab c2 - a c d2 - a d
0 b :
-ab2 c3- a c 2
Desarrollando por la primera columna y Iactoreando
ba c-a
D (A) b(b~a) c(c-a)
b2( b - a) c2(c-a)
Extrayendo Iactores en cada columna
d 3- ad2
d - a
d(d-a)
d2(d-a)
D (A) ( b- a) (c-a) (d-a)
1
b
b2
El determinante de orden 3 que resulta es del mismo tipo que el primero. Ahora
restamos a cada Iila la anterior por b
1 1 1
D (A) ( b-a) (c-a) (d-a) 0 c - b d - b
0 c2- b c d 2~bd
Desarrollando por la primera columna y extrayendo Iactores se obtiene
D (A) - ( b-a) (c- a) (d a) ( c - b ) ( d - b )
www.FreeLibros.com
www.FreeLibros.com
DETE IN NTE DE ODUCTO
169
D (A) = (b - ) ( c - a) (d - a) ( c - t) (d ~ b ) ( d - c)
El determinante propuesto recibe el nombre de determinante de Vandermonde, y
considerando la Iila de elementos a, b, c y d,su desarrollo es igual al producto de los
binomios que se obtienen restando cada elemento de la misma de todos los que le
siguen.
0 sea
5.7. DETERMINANTE DEL PRODUCTO DE DOS MATRICES
Demostraremos que si A y B son matrices n , entonces se veriIica que
D (A B) D (A) D (B)
O sea, el determinante del producto de dos matrices es igual al producto de sus
determinantes.
Considerando la matriz A particionada en vectores columnas, se tiene
C AB (A1 A2 . . . A n)
b 11 b 12 b 1
21 b22 . . . b2 n
bni bn2 . . . bnn
A j j = i b i 2 A i y ! b j n A i )
Luego
D (A B) D ( 2 yi Ay . 2 bj2 . . . .2 bjn A}) =
2 D (`0(1 ~,1 AII( i ) 6a(2),2 Act(2) ` ( n ) , n A 0(n) )
` `v7(1 ),1 ba(2),2 ` ( i ) , n D (A(j(i ) A(j(2) - AII(n))
( ~o(1 J(1 60(2),2 `a(n),n D (A( A2 . . . Art)
D (A) 2 ( l ) eto~ 0(1 ),i `o(2 ),2 (r(n),n
D (A) D (B)
www.FreeLibros.com
www.FreeLibros.com
.
d e t e r m i n a n t e s
5.8. ADJUNTA DE UNA MATRIZ CUADRADA
5.8.1. DeIinicion
Si
- - ~ w z - - z
Ian a 12 . . . a
an <*22 . . . a2n
ln
an ag . . . ann>
entonces la matriz adjunta de A se denota mediante el simbolo Adj A,
q An A:
y es
Adj A
Por ejemplo, la matriz adjunta de
2i Anl
A 12 A22 . . . A2
Aln A2 . . . Ann
es
- 1 0 2
A u 2 1 3
1 2 3
3 9 - 5
Adj A - 4 j 2
-2 7 - 1
5.8.2. Propiedad
3 - 4 - 2
u 9 1 7
, - 5 - 2 - 1
Sea
rn a \2 a
1 n
ai2 . . . IIs.
A
donde h=i
ah\ ah2 . . .
www.FreeLibros.com
www.FreeLibros.com
DD NT
tuir
OS
Sumando a la Iila h la Iila i, el determinante de esta matriz no varia, es decir
11 12 aln
D(A)
an
a 2 . . . air
ahl+a `h2 ` i 2
ni
Desarrollando el segundo miembro por los elementos de la Iila h, se tiene
D(A) . 2 {ahj + au) A hj
Entonces
n n
D (A) 2 ah Ahj . 2 a3A hj
La primera sumatoria es D (A), y en consecuencia
D(A) D ( A ) J i I l I I Aw
Luego
. 2 aj Ahj 0
Esta propiedad tambien es valida para columnas. A continuacion demostraremos que el
producto de toda matriz cuadrada a izquierda y a derecha por su adjunta es igual al
determinante de dicha matriz por la identidad.
5.8.3. Teorema
Cualquiera que sea A e K xn se veriIica que
A . Adj A Adj A . A D (A) . I
En eIecto, aplicando la deIinicion de adjunta de una matriz cuadrada, el producto de
matrices, 5.4. y 5.8.2. se tiene
A Adj A
11 12 1z
Au A
Ai
21
22 a 1n
Aj2 a22 A2
&n l r2
a nn Aln A2 n z
An
www.FreeLibros.com
www.FreeLibros.com

DETE IN NTE
n
n
a H A -
} S x l J
n
n
A
a v A n i
n
n
a n j A nj
D(A) O . . . O
O D (A) . . . O
0 O . . . D(A)
D(A)
1 0 . . . 0
0 1 . . . 0
D( A) . I
o 0 . . . 1
En Iorma analoga se prueba que
Adj A . A D (A) I
5.9. INVERSION DE MATRICES NO SINGULARES
distoto de cerrom0S matoZ i nVerSi ee z solo z -~ det erminante es
Sea A e K nxn.
1. Supongamos que A es inversible. Entonces existe B e Knxn tal que
A B B A I
Luego
D (A B) D (B A) D (I)
Por determinante del producto y de la identidad es
D( A) D( B) D( B) D( A) I
Resulta D (A) * 0, pues en caso contrario su producto por D (B) seria 0, y no 1.
2. Sea A e Kwz tal que D (A) z 0. Demostraremos que A es inversible
detenriinante z z z - -
A . Adj A Adj A . A D (A) . I
www.FreeLibros.com
www.FreeLibros.com
IN E ION DF, MATRICES
173
Por hipotesis, el escalar D (A) es distinto de cero, y dividiendo por el resulta
Adj A Adj A T
A - F ( x r ` ( X )
Entonces, por deIinicion, existe A 1 y es
A-l - Ad A
D( A)
Se obtiene de este modo otro metodo eIectivo para el calculo de la inversa de una matriz
110 singular.
Ejemplo 5-8.
Obtenemos la inversa de la matriz del ejemplo 5-6.
q I 3 5
A I 3 5 1
V5 1 3
Como D (A) -108, existe A-1.
Primero obtenemos la i
Adj A
Luego
O sea
14 - 4 --22 \*
q 14
- 4 - 2 2
- 4
- 2 2 14 -
- 4 - 2 2 14
- 2 2 14 - 4 q
- 2 2 14 - 4
q 14
- 4 - 2 2

A 1
1
-22 14
108
- 2 2 14 - 4
q
7 2
11
54 54 54
2 11 7
54 54 54
11 7 2
54 54
54
Ejemplo 5-9.
Demostramos que los determinantes de dos matrices inversas son escalares reciprocos.
Sea A e Knx no singular, es decir, tal que existe A 1.
Entonces se tiene
A A 1 I
www.FreeLibros.com
www.FreeLibros.com
E
d e t e r m i n a n t e s
D(A A1) D(I)
Por determinante del producto y de la identidad es
D ( A ) D ( A ~ 1) = 1
O sea
Ejemplo 510.
D(A ) uD ( A ) r
qs - ` SK i CeS SemejanIes determinantes iguaies.
S l Be K CSSemCJs1, te a A- 0 w existe P no singular ta l que
Entonces
Como K es conmutativo
B P 1 A P
D (B) D (Pz ) D (A) D (P)
D( B) D( P- ) D( P) D(A)
Por determinante del producto
D (B) D (P 1 P) D (A)
D(B) D( I ) D( A)
O sea
Y resulta
D(B) D( A)
5.10. REGLA DE CIIlO
det n :
de rminaaCntetaseel 7 E.
TOa`atai` ` ProPo rCi Ona el metodo de Gauss ` r d a n para la determinacion
Sea
D (A)
u . . . a u . . . a ln
i a22 . . . a2j . . . a2n
ai2 . (a
am an2 . . . anj . . . ann
www.FreeLibros.com
www.FreeLibros.com
E DE CHIO
175
Fledmos como pivote un elemento no nulo, digamos Despues de extraerlo como
Iacwr de la Iria i, reduciremos a cero los demas elementos de la columna del pivote.
an a 12 vz 1q ain
a21 a22 . . . a2 a2n
D (A) a a
d j \ a i 2
aj aj
. 1
dn\ an2 anj ar
A cada Iila A, con h * i, le restamos la Iila i multiplicada por aHh y resulta
D(A) Ily
a u -
&t]an
an 1
anan
a i
012
Q i j a 2
(*i2
y
an2
anai2
. . 0 . . . a i -
Illj
y
i . . .
din
Gni &
Al desarrollar por los elementos de la columna q resulta un determinante de orden n 1
t I i n d w X t o M i r i a l l a o la columna del pivote por el. En el segundo caso se reducen a
Es indistinto ^ m . te En ambas situaciones el procedimiento
mecanico consiste en aplicar el metodo de Gauss Jordan teniendo en cuenta, ademas, el
Iactor ( - 1 ) z y
Ejemplo 5-11.
Calcular, usando la regla de Chio.
D (A) -
2 0 - 1 2
3 2 - 2 - 3
0 - 2 (3) 2
2 3 0 - 1
del pivote se anulan, y a los elementos del determinante que no Iiguran ni en la
www.FreeLibros.com
www.FreeLibros.com

d e t e r m i n a n t e s
en h columna del pivote se los trasIonna de acuerdo con la regla del -rectangulo
2
1
0 1
3
4 0 - 5
0
1
- 1
2
3
0 -1
Desarrollando por la tercera columna resulta
D(A) ( - 2 )
*
1
4 - 5
3 - 1
Tomando como pivote u i , y reiterando el procedimiento se obtiene
2 1 l
D(A) ( - 2 )
Desarrollando por la tercera columna resulta
- 5 - 9
2 1 1
-5 0 - 9
-4 0 - 4
D(A) 2
- 4 - 4
2 (20 - 36) 32
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO V
$.12 Calcular los siguientes determinantes desarrollando por los elementos de una linea,
reduciendo a ceros todos los elementos de la misma, salvo uno:
2 1 2
2 4 3
D (A) 0 3
1 D (B)
- 1 3 1
4 1 1
4 1 2
1 1 - 2 4 - 1 1 2 1
0 1
1 3 0 3 2 - 1
D (C)
2 - 1
1 0
D(E)
1 4
2 1
3 4 2 --1
3 1 3 2
5-13. Demostrar que el determinante de toda matriz triangular es igual al producto de los
elementos de su diagonal.
5-14. Demostrar que si un determinante tiene dos lineas proporcionales, entonces es nulo.
5-15. Resolver las siguientes ecuaciones:
1 - X 0 - 2 )
2 - x - 3 6
0
1
0 0
4 1 - 2
- 2 0 4 - X
2 - 1 2 + x
0
5.16. Sea la matriz
Resolver la ecuacion D (A - X1) - 0
5-17. Resolver la ecuacion D (A - XI) 0
j
3
A 1
= 0
siendo
J
3
0
i'
2
www.FreeLibros.com
www.FreeLibros.com
DETE IN NTE
5-18. Demostrar que el determinante de toda matriz ortogonal vale 1 o 1.
5-19. Sea A e Knxn. Demostrar que
D (Adj A) uD (A)-1
5-20. Demostrar que
1 1
x 2
1
i x i)
5-21. S e a n qy g Iunciones reales de una variable real con derivadas primeras y segundas.
Demostrar que si
5-22. Demostrar que si n vectores columnas de K son Unealmente independientes, entonces
el determinante de la matriz cuyas columnas son tales vectores es no nulo.
5-23. Determinar los signos de las permutaciones de I3, y la inversa de cada una.
5-24. Sean ax, a2 , . . an escalares distintos. Demostrar que las n Iunciones f x, jI2, . .
deIinidas por
entonces
f i ( t ) = eaif
son linealmente independientes sobre el cuerpo de los complejos.
5-25. Obtener las matrices inversas de
( a y b son no nulos)
5-26. Determinar, si existen, las inversas de
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO V
179
$.27. Sean las matrices
y B
Hallar X sabiendo que AX - B.
$-28. VeriIicar las siguientes identidades en K
i )
1 1 1
x y 2
yz xz xy
= ( x - y ) ( y ~ z ) ( z - x )
i i )
X
y
z t
y
z t X
(x y z 0
z t X
y
X
y
z
iii) X
y
z +1

y
z X + t
0
z t x +y
t X
y
+ z
iv) X
- y
z 2x
2x
^y
y - x - z 2y
2 z
2 z
z - x - y
(x +y + )
5-29. EIectuar, mediante el determinante del producto de dos matrices,
5-30. Calcular
1 --1 2
1 1
0 2 3
2 --1 1
2 0
0 1 1 1 1
0 1 1 1
1 1 0 1 1
1 1 0
1 1 1 1 0
5-31. Dadas las Iormulas de trasIormacion de coordenadas esIericas a cartesianas
u x p eos ip eos 8
I y p sen eos Q
z p sen 6
www.FreeLibros.com
www.FreeLibros.com
.
DETE IN NTE
obtener el jacobiano de la trasIormacion, es decir, el determinante cuyas Iilas son hz
derivadas parciales de x, y y z, respecto de p, v y 0, respectivamente.
5-32. Obtener el jacobiano de la trasIormacion
U X Y
X
V donde X ~ 0 , Y ~ 0 .
5-33. Demostrar que el detenninante de toda matriz antisimetrica de orden impar es nulo.
5-34. Demostrar que
A C
B D
lAl ID - B A1 Cl
donde A y D son cuadradas y A es no singular.
5-35. Si A y D son simetricas e inversibles, entonces
^A B \ 1 /a -i + F E " 1 F - F E " 1
Bi D / ( - E 1 Fi E 1
donde E D - BI A1 B y F A 1 B.
5-36. Sean A e Knxn no singular. U y V en K x 1. Demostrar
(A U Vz)1 A1 - A 1 U y t Az
l V AU
www.FreeLibros.com
www.FreeLibros.com
Captulo 6
SISTEMAS LINEALES
6.1. INTRODUCCION
En este capitulo se estudian los sistemas de ecuaciones lineales sobre la base de su
estrecha relacion con las trasIormaciones lineales, y se analizan los espacios soluciones de los
sistemas lineales y homogeneos. Despues de la demostracion del teorema de Cramer, se trata
la compatibilidad de los sistemas lineales generales. Se dan, Iinalmente, los siguientes
metodos directos de resolucion: de Gauss Jordan, de la raiz cuadrada y del orlado.
6.2. SISTEMAS LINEALES
6.2.1. Concepto
Consideremos A e Knxm y la Iuncion
q : Km ~K
deIinida por
q(X) AX (1)
donde X denota cualquier vector columna de Kw.
AIirmamos que la asignacion (1) caracteriza a q comouna trasIormacion lineal de Km en
K . En eIecto:
1q(X Y) A ( X Y ) AX AY q(X) +f(Y).
2. q(aX) A (aX) a A X o`X).
Por consiguiente, toda matriz A e Knxm determina una trasIormacion lineal q : Km -~ Krt
deIinida porq(X) A X.
www.FreeLibros.com
www.FreeLibros.com

SISTEMAS LINEALES
K
Sea Be K . La igualdad
AX) B
o lo que es lo mismo
A X - B
recibe el nombre de sistema de ecuaciones lineales.
La traduccion de tal igualdad es
11 12 lm z1 bi
21 22 2 m z2

b-i
qti n2 Jim
X m
bn .
EIectuando el producto y aplicando la deIinicion de matrices iguales se obtiene la Iorma
escalar del sistema de n ecuaciones lineales con m variables:
11z1 12z2 +a l mx m = b x
2 1z1 2 2z2 2rnz m 2
tlz l `n2z2 . nmzm
La matriz A, cuyos elementos son los coeIicientes de las variables del sistema, recibe el
nombre de matriz del sistema. Los escalares que Iiguran en el segundo miembro se llaman
terminos independientes. La matriz de coeIicientes ampliada con los terminos independien
tes se denota mediante
Az (A B)
www.FreeLibros.com
www.FreeLibros.com
Conjunto solucion del sistema lineal es la preimagen por q, de B C K .
I TE INE E
0 sea, cada m-upla de elementos de K que satisIace a todas las ecuaciones del sistema es
una solucion del mismo.
Entonces
a (a i , vz2 , , es una solucion o a e I 1 x B x )
Si la preimagen de B e Kn es el conjunto vacio diremos que el sistema lineal
A X B (I)
es incompatible. Si el conjunto solucion es no vacio, entonces se dice que el sistema es
compatible.
AIirmamos que
A X B tiene solucion - wBe l(f)
y
A X B es incompatible o B l ( f )
En particular, si B es el vector nulo de Kn, entonces
A X 0 (II)
recibe el nombre de sistema lineal y homogeneo. En la Iorma escalar, los terminos
independientes son nulos.
Como 0 e Km satisIace a (II), todo sistema lineal y homogeneo es compatible. El vector
nulo de Km se llama solucion trivial del sistema lineal y homogeneo.
Denotaremos con S al conjunto solucion de (II). S es la preimagen p o r q d e OeK . En
consecuencia, el conjunto solucion del sistema homogeneo es el nucleo de q Resolver el
sistema (II) es determinar el N(q). Por lo tanto, S es un subespacio de Km, llamado espacio
solucion del sistema lineal y homogeneo.
www.FreeLibros.com
www.FreeLibros.com
I TE INE E
6.2.2. Rango de la matriz de coeIicientes
Sea A e K nxm la matriz de coeIicientes de un sistema lineal. Consideremos la
trasIormacion lineal
f : K m - +Kn
deIinida por
f (X) A X
AIirmamos que el rango de A es igual a la dimension de la imagen de f. En eIecto: la
imagen de q e s el espacio columna de A, pues
m = I q(X) q X e Km ) ( A X q X e K z x -
i q ` 1 1
j (Ai 2 . . . Am) 2 JqXj - eK con i 1, 2 , m
xmf I
I m t
j . X x tA q jr e K J SC(A)
Por consiguiente es
dim l(f) = dim SC(A) p (A)
www.FreeLibros.com
www.FreeLibros.com
r
E CIO SOLUCION
185
6 2.3. Dimension del espacio solucion de un sistema homogeneo
Consideremos el sistema lineal y homogeneo
AX 0
y sea S el espacio solucion, es decir
s =m
donde f es la trasIormacion lineal a que nos hemos reIerido.
De acuerdo con 3.4. se veriIica que
dim N(q) 4- dim \(f) dim Km
En consecuencia
dim S p (A) m
O sea
dim S = m - p (A)
Luego, la dimension del espacio solucion de todo sistema lineal y homogeneo es igual al
numero de variables menos el rango de la matriz de coeIicientes.
En particular, si p (A) m, entonces es dim S dim N(q) 0. En consecuencia
Es decir, si el rango de la matriz de coeIicientes de un sistema lineal y homogeneo es igual
al numero de variables, entonces dicho sistema admite como unica solucion la trivial.
Ejemplo 6-1
Interpretamos el siguiente sistema lineal en terminos de una trasIormacion lineal y
determinamos la dimension de su imagen
2 * 1 - * 2 z 3 * 4 1
* 1 ~ * 2 - * 3 + 2 * 4 0
3z! - 2z 2 3z4 1
La matriz del sistema lineal es
2 - 1
A 1 - 1 - 1 2
3 - 2 0 3
El vector de los terminos independientes es
www.FreeLibros.com
www.FreeLibros.com
DeIiniendo la trasIormacion lineal
q : R4 R3
I TE INE E
mediante
AX) AX
el sistema lineal propuesto nos conduce a la determinacion de la preimagen de
Para hallar dim 1(0 obtenemos el p (A) por el metodo de Gauss Jordan
2
1
1

- 1 - 1
2
3 - 2
0 3
0
*
3 - 3
1 - 1
- 1 2
0 1 3 - 3
0
1 3 - 3
1 0 2 - 1
0
.
0 0 0
Resulta dim 1(0 p (A) - 2
Ejemplo 6-2
Si consideramos el sistema homogeneo
2z1 - x 2 z3 z 4 0
www.FreeLibros.com
www.FreeLibros.com
entonces la trasIormacion lineal asociada es la misma del ejemplo anterior. Resolver el
sistema homogeneo signiIica determinar el nucleo de q, cuya dimension es
dim S = m - p (A) 3 - 2 1
6.3. TEOREMA DE CRAMER
Si A e KIix1 es no singular y B e K , entonces el sistema lineal A X B admite solucion
unica, y el valor de cada variable es el cociente entre el determinante que se obtiene al
sustituir, en el determinante del sistema, la columna de coeIicientes de la variable por la
columna de los terminos independientes, y el determinante del sistema.
Sea el sistema lineal
A X B
Como A es no singular, premultiplicamos por su inversa
A-1 ( AX) A1 B
Asociando
(A-1 A) X A-1 B
Luego
I X AM B
En consecuencia
X A 1 B
es la unica solucion del sistema.
De acuerdo con 5.3.5., como D(A):q : 0, las n columnas de A son linealmente
independientes y constituyen una base de K . Por consiguiente, cualquiera que sea B eK ,
existen escalaresz !, x 2, . . . , x n, unicos, tales que
B 2 x A
i i
y por lo demostrado en el ejemplo 5-4 resulta
_ D(Aj A3 . . . B . . . A )
A I ........
D(A)
para todo 7 1 , 2 , . . . , , donde B es la columna de lugar q.
Los sistemas de n ecuaciones con n variables se llaman cuadrados, y si el determinante de
la matriz de coeIicientes es distinto de cero, entonces reciben el nombre de cramerianos.
Ejemplo 6-3
Resolvemos mediante el teorema de Cramer el siguiente sistema:
i X i -V 3 = 1
I + 2 x 2 2x 3 = 1
2x, - x 2 x 3 - 3
TEOREMA DE CRAMER 18^
www.FreeLibros.com
www.FreeLibros.com
I TE INE E
La matriz de coeIicientes es
y su inversa, determinada en el ejemplo 4-18, es
Como la solucion es X A 1 B, se tiene
1
/ 1
_ 1
- 1
3
0
.E. COMPATIBILIDAD DE SISTEMAS LINEALES
6.4.1. Teorema de Rouche Frobenius o de Kronecker
Un sistema de ecuaciones lineales es compatible si y solo si la matriz de coeIicientes y la
matriz ampliada con los terminos independientes tienen igual rango.
Sea el sistema lineal AX B, donde A eK z , X e K mxl y B e KiiXl, y sea A la matriz
de coeIicientes ampliada con la columna de los terminos independientes.
El teorema aIirma que
A X B es compatible o p (A) p (A)
www.FreeLibros.com
www.FreeLibros.com
TEOREMA DE ROUCHE
189
En eIecto:
A X B es compatible 3 a e Kmx 1 q A a = B
I a i \
......... K q (A j A 2 . . . A m )
4 ~ 3 a 2, . . . , a m e K q B x i a ( A
B es combinacion lineal de las m columnas de A o
` B e SC(A) o- p (A) p (A)
Por deIinicion de sistema compatible, producto de matrices en Iorma particionada,
deIinicion de combinacion lineal, deIinicion de espacio columna de una matriz y de rango de
una matriz.
Denotando con T el conjunto solucion del sistema lineal A X B, el teorema demostrado
puede expresarse asi:
T 0vz p( A) p ( A )
En consecuencia
T 0 o p (A) =p (A)
0 sea, un sistema de ecuaciones lineales es incompatible si y solo si los rangos de la matriz
de coeIicientes, y de la matriz ampliada con la columna de los terminos independientes, son
distintos.
6.4.2. Conjunto solucin de un sistema lineal compatible
Sea AX B un sistema lineal compatible, es decir, tal que p ( A) p ( A ), donde
A e Knxm, X e Kmxl y B e Kn x i . Se presentan las siguientes situaciones:
1. El rango de ambas matrices es igual al numero de variables.
Si p (A) p (A) m, entonces las m columnas de A son linealmente independientes y, en
consecuencia, B es combinacion lineal unica de tales columnas. Esto signiIica que existen
escalares , . . . , ccm e K, unicos, tales que
O sea, ot =
i
0i2
B S ttqAs
i i
es la unica solucion del sistema.
2. El rango de ambas matrices es menor que el numero de variables.
www.FreeLibros.com
www.FreeLibros.com
9.
I TE INE E
Supongamos que p ( A) p ( A ) r < m. Podemos suponer, sin perdida de generalidad
que las Iilas y columnas linealmente independientes de A son las r primeras. Las r variables
asociadas a las columnas linealmente independientes se llaman principales, y las m-r restantes
se llaman secundarias. Las m-r ecuaciones no principales son combinaciones lineales de las,
primeras, y el sistema es equivalente a un sistema lineal de r ecuaciones con m variables
Trasponiendo al segundo miembro de cada ecuacion las m-r incognitas secundarias, para cada
sistema de valores asignados a estas, se tiene un sistema lineal crameriano de r ecuaciones con
r variables con solucion unica, ya que la matriz de coeIicientes es no singular.
En este caso se dice que el sistema es indeterminado.
6.5. RESOLUCION DE SISTEMAS LINEALES
El metodo de Gauss Jordan permite no solo la discusion del sistema en el sentido de
decidir si es compatible o no, sino tambien la resolucion eIectiva de el en el caso de
compatibilidad. Esto signiIica determinar el conjunto solucion.
Esencialmente se basa en la determinacion de los rangos de A y de A para lo cual se
escribe a la derecha de la matriz A la columna Iormada con los terminos independientes, y se
opera de acuerdo con lo expuesto oportunamente.
Ejemplo 6-4
Discutimos y resolvemos por el metodo de Gauss Jordan el siguiente sistema:
z1 X 2 z3 2
2x , - x 2 - z3 1
2x2 - z3 - 3

1 1 2
2 - 1 - 1 1
1 2 - 1 - 3
1 1 1 2
0 - 3 - 3 - 3
0
*
- 2 - 5
1 0 3 7
0 0
( )
- 18
0 1 - 2 - 5
1 0 0 1
0 0 1 2
0 1 0 - 1
www.FreeLibros.com
www.FreeLibros.com
E OLUCION DE SISTEMAS
191
Desde el punto de vista geometrico, cada ecuacion es la representacion analitica de un
plano, y la solucion unica caracteriza al vertice del triedro que Iorman dichos planos.
Ejemplo 6-5
VeriIicamos que el siguiente sistema es incompatible:
+ x 2 - *3 =
x - x 2 + 3x 3 - - 3
I x t + X =
Investigamos para ello, los rangos de A y de A:

1 - 1
1
1 - 1 3 3
1 0 1 1
1
1 - 1 1
0 - 2 4 4
0
0
2 0
1 0 1 1
0 0 0 ( r z )
0 1 - 2 0
1 0 1 0
0 0 0 1
0 1 2 0
El unico elemento que puede ser tomado
como pivote es - 4 . Esto signiIica que el
rango de A es 3, pero el rango de A es 2, y
en consecuencia el sistema es incompatible.
La ultima etapa es innecesaria y ha sido
realizada para poner en evidencia los vecto
res canonicos.
Ejemplo 6-6
Determinamos una base del espacio solucion del sistema lineal y homogeneo
(A - XI) X - 0
para cada X tal que
D (A - XI) 0
siendo
y X e R3 x 1.
i
www.FreeLibros.com
www.FreeLibros.com
9
I TE INE E
Resolvemos primero la ecuacion D (A - XI) 0, o sea
1 - X 1 1
0 2 X 1
0 0 1 - X
= 0
Como la matriz es triangular, el determinante de la misma es el producto de los
elementos de su diagonal
(1 -X)2 (2 X) 0
Las raices son
\ - X2 1 y X3 2
1. Para \ X` 1 se obtiene el sistema homogeneo
Es decir
O sea
0z! x 2 z 3 0
0z! x 2 z 3 0
0z1 0z2 0z3 0
Vz ! e R se veriIica
* 2 + * 3 = 0
* 2 ~ * 3
Las inIinitas soluciones son las ternas del tipo
www.FreeLibros.com
www.FreeLibros.com
RESOLUCION DE SISTEMAS
Una base del espacio solucion esta Iormada por los vectores
99
Al mismo resultado se llega utilizando el metodo de Gauss Jordan
0

1 0
0 1 0
0 0 0 0
0 1 1 0
0 0 0 0
0 0 0 0
Como p (A) p (A) 1 y este valor es menor que el numero de variables, el sistema
tiene inIinitas soluciones. La dimension del espacio solucion es
3 - p ( A ) 2
Las dos primeras ecuaciones caracterizan un plano que pasa por el origen y que
contiene al eje x x. La tercera ecuacion se satisIace para todo ( z i , x 2, x 3) e R3, o sea,
representa a R3. La interseccion de estos dos subespacios es el plano de ecuacion
z2 z3 0-
Ejemplo 6-7
Considerando las matrices
l i

z1 ^

A
4 ~4

~
= *
-y
1
zr

i
*
resolvemos el sistema lineal
Xz A XI
I X l
www.FreeLibros.com
www.FreeLibros.com
SISTEMAS LINEALES
EIectuamos primero las operaciones matriciales
l . ( z l z 2 z 3)
i i
(zi X%z 3)
i z . ` a I r , j x . +l
Por igualdad de matrices
z ~ z 2 J X 3 j x 2 + ^ X
'*' + 4 Xi J a:3 z ,
i z 2 Tz 3 =X2
I r 4 - 1
9 2 - z 3 z 3
Eliminamos los denominadores
Reduciendo terminos
6x 3z 2 4 z 3 12z1
6x t 3 z 2 4z 3 12.z2
3 * 2 + 2 z 3 = 6x 3
I * -3*2 - * =
6z! - 9z2 4z3 0
( 3z2 - 4z 3 o
2z iz X 1 ~ ( l ! ! ) q
1 ` z 1 z 2 z 3 1
Teniendo en cuenta 1. y 2., el sistema a resolver
es
6z! - 3 z 2 - 4 z 3 0
6z , - 9z2 4z 3 o
3z 2 - 4z 3 0
z1 z 2 z 3 1
(z1 z 2 z 3)
www.FreeLibros.com
www.FreeLibros.com
E OLUCION DE SISTEMAS
195
Aplicamos Gauss Jordan
6 - 3 - 4 0
6 - 9 4 0
0 3
_ 4 0
*
1 1 1
0 - 9 - 1 0 - 6
0 - 15 - 2 - 6
0
*
- 4 0
1 1 1 1
0 0 C 22) - 6
0 0 - 22 - 6
0 1
4
3
0
1 0
7
3
1
0 0 1
3
11
0 0 0 0
0 1 0
4
11
1 0 0

11
Se tiene: p (A) p (A) 3 y la unica solucion es
( 4
Xi ~
11
4
La matriz A de este ejemplo es tal que sus elementos son no negativos y la suma de los
elementos de cada Iila vale 1. Esto signiIica que los vectores Iilas caracterizan una
distribucion discreta de probabilidades, y por tal motivo la matriz se llama estocastica.
www.FreeLibros.com
www.FreeLibros.com
9
I TE INE E
El vector solucion deIine tambien una distribucion de probabilidades, llamada
estacionaria. Este tipo de distribuciones se estudia en las cadenas Iinitas de Marov.
6.6. SISTEMAS HOMOGENEOS
6.6.1. Espacio solucion de un sistema lineal y homogeneo
Dado el sistema lineal y homogeneo
A X 0
donde A e K xm, X e K mxl y Oe Kn x l , como p ( A ) ~ p ( A ) = r , ocurre que tal sistema
siempre es compatible, de acuerdo con 6.4.1.
En cuanto al espacio solucion del mismo, son validas las conclusiones obtenidas en 6.4.2.,
o sea
1 . r = m=> existe solucion unica ~ S 0
En este caso la unica solucion del sistema es la trivial.
2. r v m =>el sistema es indeterminado.
6.6.2. Sistemas homogeneos cuadrados
Sea el sistema lineal y homogeneo
A X - 0
donde A e K x , X e Knxl y O e K x l .
Propiedad
Un sistema lineal y homogeneo de n ecuaciones con n variables tiene solucion unica si
y solo si el determinante de la matriz de coeIicientes es no nulo.
1. Si AX 0, con A e K nx , tiene solucion unica, entonces es p (A) = n. En consecuen
cia, las n columnas de A son linealmente independientes, y de acuerdo con el ejercicio
5-22 resulta D(A) 0.
2. Supongamos que D (A) 0. Segun 5.3.5., las n columnas de A constituyen una base de
K . Por lo tanto, 0 es combinacion lineal unica y trivial de tales vectores columnas.
Los teoremas contrarreciprocos de 1. y 2. nos permiten aIirmar que un sistema lineal y
homogeneo de ecuaciones con n variables es indeterminado si y solo si el determinante de
los coeIicientes es nulo.
Ejemplo 6-8
Determinamos los espacios soluciones de los siguientes sistemas homogeneos y
cuadrados:
www.FreeLibros.com
www.FreeLibros.com
SISTEMAS HOMOGENEOS
9
i )
X! - 2z2 z 3 0
- z 2 + * 3 0
X i - 2z2 - 2z3 0
- 2 1 1 2 1
D(A) 0 - 1 1 0 - 1 1
1 2 - 2
0 0 - 3
3 z 0
Luego la unica solucion es
z i z 2 - z 3 0
S~ { 0 |
Los tres planos Iorman un triedro cuyo vertice es el origen.
i i ) i z ! - x 2 3 x 3 0
I Xt X2 - z3 0
( z1 z3 0
Como
1 - 1 3 1 - 1 3
D(A) 1 1 - 1 2 0 2
1 0 1 1 0 1
1
0, el sistema es indeterminado.
Lo resolvemos segun Gauss Jordan
www.FreeLibros.com
www.FreeLibros.com
9
I TE INE E
Se tiene:
q z , z 3 0
i x 2 - 2z 3 0
Despejando las variables principales
- z 3
X2 *
Las inIinitas soluciones estan dadas por
i -
x x 2 = 2a
u z 3 0 V a e R
El espacio solucion es la recta de ecuaciones
_Xj _ _ _X2_ _ *
- 1 2 1
O sea
S ( a, 2a, a) q a e R i
Geometricamente, este sistema admite la siguiente interpretacion: las ecuaciones
corresponden a tres planos que pasan por el origen y Iorman un haz cuyo eje es el
espacio solucion, o sea, la recta mencionada.
6.7. CONJUNTO SOLUCION DE UN SISTEMA LINEAL
Sea T el conjunto solucion del sistema lineal AX B, y sea S el espacio solucion del
sistema lineal y homogeneo asociado. Si t es una solucion particular del sistema A X B, y
t S denota la suma de esa solucion particular y todas las soluciones del sistema homogeneo
asociado, entonces se veriIica que
T i S
En eIecto:
1. Consideremos cualquier solucion u de A X B, y sea t una solucion particular de este
sistema.
u e T Ai e T~ A(w - t) = Au AI B B O~
=>u - t eS=>u t = s A. 5eS~u i s As e S ~ e q S
O sea
T C i S (1)
2. Sean: t , una solucion particular de AX B, y s cualquier solucion de A X 0.
i s e i SsAM A(q s) Ai As B 0 B i MeT.
www.FreeLibros.com
www.FreeLibros.com
CONJUNTO SOLUCION
199
Luego
I S C T (2)
De ( l ) y ( 2 ) resulta
T i S
En consecuencia, toda solucion de un sistema lineal es igual a una solucion particular de
dicho sistema, mas una solucion del sistema homogeneo asociado. En otras palabras, el
conjunto solucion de un sistema lineal es igual a la suma de una solucion particular con todas
las soluciones del sistema lineal y homogeneo correspondiente.
Ejemplo 6'9
Interpretamos geometricamente el signiIicado del teorema anterior considerando el
sistema lineal de una ecuacion con dos variables
2z i - z 2 1
En este caso es A (2 1) y A (2 - 1 1). Ambas matrices tienen rango 1 y el
sistema tiene inIinitas soluciones.
El sistema homogeneo asociado es
2x j - z 2 0
y corresponde a una recta que pasa por el origen. Una solucion particular del sistema
dado es (1 ,1) t. Sumando a t los vectores correspondientes a todos los puntos de la
recta de ecuacion 2xx - x 2 ~ 0, se obtiene la recta T, paralela a S.
www.FreeLibros.com
www.FreeLibros.com
200
I TE INE E
Ejemplo 6-10
Dado el sistema lineal
q z j + X 2 + * * X 7
J 3 * ! + 2x 2 + z 3 + z 4 3 z 5 = - 2
x * * * * 23
` 5z t 4z2 3z3 3z 4 z 5 12
determinamos: el espacio solucion del sistema homogeneo correspondiente, una base y
la dimension de este, una solucion particular y el conjunto solucion de aquel.

1 1 1 1 0 7
3 2 1 1 - 3 0 - 2
0 1 2 0 23
5 4 3 3
_
0 12
1
1 1 0 7
0 - 2
- 2 - 6 0 - 2 3
0
0)
2 2 0
23
0 - 0 - 2 3
0 - - - 5 0 - 16



23

p (A) p (A) 2 ~ el sistema dado tiene inIinitas soluciones.
Resolvemos el sistema homogeneo, cuyo espacio solucion tiene dimension 3.
5 - p (A) 5 2 3
z j - z 3 - z 4 - 5z5 0
z 2 2z3 4- 2z 4 6z 5 0
Trasponiendo las variables secundarias
z1 z 3 z 4 5z 5
z2 - 2z3 2z4 6z s
El espacio solucion esta dado por
www.FreeLibros.com
www.FreeLibros.com
CONJUNTO SOLUCION
201
a p + 5y
z 2 - 2a 2q3 6-y
z 3 a
* 4 =0
z 5 7
cualesquiera que sean a, 0 y y e R.
Luego
*
/ 5
*
~ 2
* 3
=Oi
+
+
*

X S

Una base de S esta Iormada por


1 1 q 51
- 2 - 2 - 6
1 , 0
y
0
0 1 0
0 0 ,
1 q
Obtenemos una solucion particular del sistema dado haciendo x 2 z 3 z 4 0
Luego, la solucion general es
t =
- 16
23
0
0
0
q - 16
q z
1

5
23
_ 2 _ 2
- 6
0
a
1
0
0 7 0
0 0 3 0
0 0
0 q 1 f
www.FreeLibros.com
www.FreeLibros.com
O sea
202
I TE INE E
16 a 0 5y
z 2 23 - loe - 2)3 - 6y
z 3 0:
x 4 =p
z 5 7
.. EOLUCION DE SISTEMAS SIMETRICOS POR EL METODO DE
LA RAIZ CUADRADA
EStomseL t o V terativos para, 13 r esohi do de
convergencia, y mediante Z l 1 - reqUl eren el analisis z~ cuestiones z
que se desee. A diIerencia de estos los metodos8z 0 61 So 1UC10nes con la aProximacion
` n e r o Iinito de operaciones aritmeticas elementales.
A X - B ( i )
tal que A Az en Knx , X e K x l , B e Knxi y a J=o
Probaremos que existe una matriz triangular T tal que
A - T T (2)
Proponiendo la Iorma escalar de (2), debe ser
1h i
12
0
22
I t u
0
z1 h n t3n . . . tnnj o o . . . I
f 12
z2 2
h n
h n
U
2 1
a l 2
2 2
1 n
2 n
n 1 .
n 2
. . ,
Por igualdad de matrices, despues de eIectuar el producto indicado, resulta:
1. Considerando la primera Iila:
i u
S i q ~ 1, entonces
i t , ~ru V u
t u t u = a J
www.FreeLibros.com
www.FreeLibros.com
I TE IET ICOS
203
Luego
t ti =
L l AL
t\ i V11
O sea, la primera Iila de T se deduce de la de A de la siguiente manera: el primer elemento
es la raiz cuadrada del primero de A, y los restantes se obtienen dividiendolos por esta raiz
cuadrada.
2. Considerando cualquier Iila distinta de la primera, es decir, tal que q ~ 1, se tiene:
i-i
i = i=>au = 2 t l= X i j , r j 2 t l , * > t t
h - 1 h = l h 1
ia-u 2 t\
h= 1
n i i~i
q ~ i ^ a u ` t hi t hj = ` th thj = t u t u t hi h i
i-l
a- 2 h i thi
q! 1
La determinacion de los elementos de la matriz triangular se realiza en una sola etapa y
por Iilas sucesivas.
La traduccion de las Iormulas obtenidas es la siguiente: todo elemento diagonal, a partir
de la segunda Iila, es igual a la raiz cuadrada de la diIerencia entre el elemento ai
correspondiente y la suma de los cuadrados de los elementos de la misma columna de la
matriz triangular. Todo elemento no diagonal tj es igual a ia diIerencia entre ay y la suma de
los productos, Iila por Iila, de los elementos de las columnas correspondientes, dividida por
el elemento tu de la diagonal.
Retomando el proposito original, de (1) y (2) se deduce
TI T X - B
Haciendo
Ti K B (3)
se determina el vector K, y considerando
T X K (4)
conocido K, se obtiene X.
La determinacion de las componentes del vector K se eIectua de la misma manera que las
columnas de la matriz T. En eIecto, considerando (3), es
oo
i ^ l b ' '
112 22 0
k-i
= b 2
I t i t -in t nn
k n j b n 1
,
de donde resulta, por producto e igualdad de matrices:
www.FreeLibros.com
www.FreeLibros.com
. E I TE INE E
1. t i j Aj b x, o sea
2.
i > \ ^ b i 2 th l k h - X t h i k h -
n = I h i
i - 1
- i A: I S t h k h ~ ki =
h=i
bi ~ ` {hi ^h
q! 1
Finalmente, obtenidos T y K en una unica etapa, se resuelve Iacilmente el sistema
Ejemplo 6-11
Resolvemos el siguiente sistema simetrico por el metodo de la raiz cuadrada:
TrasIormamos, de acuerdo con el esquema propuesto, las Iilas de la matriz de
coeIicientes ampliada con la columna de los terminos independientes:
2 2 0
2 5 - 1 - 8
2 - 1 33 4
1 2 2 0
0 1 - 5 - 8
0 0 2 - 18
En consecuencia:
triangular
T X K
+ 2x 2 + 2 x 3 = 0
x 2 - 5x 3 = 8
2x 3 = 18
Luego
z3 - 9 z 2 - 5 3 x i = 124
www.FreeLibros.com
www.FreeLibros.com
ET ODO DEL ORLADO
205
La solucion es
q 124
X - 53
9
Las condiciones para que el metodo sea aplicable son: tu *, \ / i = 1, , . . . ,n.
Ejemplo 6'12
Resolvemos por el mismo metodo
x 2 - 2 = z
3z 3 - 5
2x i 3sc2 2x3 - 1
No es necesario multiplicar la primera ecuacion por - 1 para obtener elementos reales
en T.
_
1 - 2 2
0 3 - 5
- 2 3
_ 2
- 1
i i 2 i - 2 i
0 1 1 - 3
0 0 1 - 2
Entonces
= x 2 = ~ 1 x, -
6.9. METODO DEL ORLADO
Este metodo, que es directo, permite obtener la inversa de una matriz no singular
M e KnXIl. Particionamos M de acuerdo con el esquema
n =(n - )
para Iilas y para columnas, y se tiene
A B
M .
C ann
donde A e K ` 1~xvn- ~, B e K(n l ) x l , C e K1x(ii 1~y (ann) e K1X1.
Suponemos conocida la inversa A1 del primer bloque y proponemos, para la inversa de
M, el mismo esquema de particion.
www.FreeLibros.com
www.FreeLibros.com
.
I TE INE E
X Y
M 1
donde an e K - ( 0 )
Considerando que
an
MM 1 1
se tiene
I N
N i ,
O sea
A X + BZ = I
a y +- 2. = n
C X ann Z N
C Y ` 2 ` i
Oi
0 )
(2)
(3)
(4)
De (2)
Sustituimos (5) en (4):
Luego
De( l )
Y - ` (S)
C A 1 B , a
ot
u n
w z - C A 1 B (6)
A X - I - B Z wX A`1 - A1 B Z (7)
Teniendo en cuenta esta relacion, (6) y (3), es
C (A 1 - A! BZ) ann Z N
C A 1 C A 1 B Z ann Z N
C ~(<*nn - a n) Z - b a nn 2 N
C A 1 ann Z an Z ann Z N
n Z - C A 1
www.FreeLibros.com
www.FreeLibros.com
ET ODO DEL ORLADO
207
De (7) y (8)
- r a-1
Z JA (8)
X - A 1 A 1 B C A 1 (9)
Entonces
M 1
A- , , A 1B C A 1
A -------- ---------
a,
C A
dir,
A 1 B
Se trata de un caso particular de la inversion por particion estudiada en 4.18.
Este metodo se utiliza para invertir matrices por orlados sucesivos, construyendo las
inversas de
( i , ) , i 11 a i 2 ) , etce
21 Il22q
etcetera
Conociendo la inversa de A e Kin 1)x(n-1 \ se calcula Mz1 e Knxn, para lo cual es
preciso obtener:
1.
- A 1 B
bn-1,n
2. -- C A (cni C,j2 Cn,n-l)
bi n
I b ln
b2n
3- 0tn=ann - C A 1 B =ann C ann (an \ an2 an,n-1 )
&n- l,M
bn-l,n
an =an n + X an j bj
}= i
www.FreeLibros.com
www.FreeLibros.com
. I TE INE E
Tambien:
ann C A 1 B ann (cn>1 C2 . . . cn n ., )
I &ln
2 n
n j on
n-I
`nn ` in zv
q 1
4. Los elementos xj de la submatriz A 1
correspondientes elementos de A 1:
.> i bin Cni
-i . A 1B C A 1
son, llamando x\ a los
x j = x ij in ni i < n - \ , ] < n - \
Oiw
Ademas
' i n
ni
El siguiente esquema denota una etapa del procesos
Ejemplo 6-12
Calculamos la inversa de A por el metodo del orlado, siendo
www.FreeLibros.com
www.FreeLibros.com
METODO DEL ORLADO
Siguiendo el esquema anterior, y aplicando las Iormulas desarrolladas, resulta:
. 9
- 1
1
2
- 1
2
- 1
1
_ 1
2
M
1 2 - 2
2 - 1
- 2 5
3 5 1
14 14 14
5 1 3
14 14 14
1 3 5
14 14 14
11
5
- A 1 B
- - C A
M
Conocida M 1 es posible resolver sistemas del tipo
MX K
donde M es no singular.
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO VI
6-13. Sea f i~2
^ una S a c i a n lineal caracterizada ` ` `
( I J respecto de la base canonica en cada espacio Determinar I
preimagen p o r qd e l vector ( - i i )
7 ,o,e^ ^
* s * ,= .
1 3 2- i x +3y + z = 6
* * * = L f
2x v , ) 3 x ~ 2 y ~ 8 z = 7
* * * =
El metodo de Gauss reducido consiste en t j I h ` `
que q ~ q, y en unos los elementos a, ar oer OS los eIenrenos a,- tales
sistemas homogeneo 0 So bre ` eSPaC0 So ludon de cada o de los s iguientes
1- z ! * 2 ~ * 3=0
. x 2 x l * =()
X 1 + * 3 0
3.
X1 z 2 z 3 0
z1 z 2 0
z2 z 3 0
4 I X1 z 2 z 3 0
2z ( 2z2 2at3 o
5z i 0
z 1 z 2 - z 3 0
3z 1 4 z 2 :
5z 1 z 2 z =
anterior, en los c z s o X Z ^ T p o Z L ^ U o ^ C3SOS deI ej erci o
siguientes casos 810 V na b3Se dd eSpaCio soIucion zobre C en cada uno de los
u l x + y - z = 0 , l i l
x , ~ z o 1 ( I 0 z - , , z o
I x + y ^ z = 0
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO VI 211
.q: En el anillo de las clases de restos modulo 3, determinar una base del espacio solucion
de! sistema
z 2 z 3 0
X i + 2 * 2 = 0
6-19. Discutir y hallar el conjunto solucion de
X i + 2x:2 = 5
3z1 z2 - 5
i 2xt 3 z 2 - 8
6-20. Resolver por el metodo de Cramer el sistema del ejercicio 6-14. 1.
6-21. Resolver el sistema homogeneo Xi (A I) 0, donde X e R y

2 2
1 A
. 3 3
6-22. Obtener el conjunto solucion del sistema
I 3zi 2 s 2 + * 4 = 0
z1 2z2 z3 1
5z! 6z2 2z3 z 4 2
6-23. Determinar si existe X e R 3x3 tal que X A B, siendo
q 2 4 6 q 3 5
A - 1 2 3 B - 2 3
1 - 1 1 q 3 2 3
6-24. Discutir y hallar los conjuntos soluciones de los siguientes sistemas:
1. ( * 1 2 * 2 + * 3 * 4 * 5 = 2
2 * ! + * 2 ~ * 3 - * 5 = 4
4z i - 3z2 z 3 2 * 4 - 3z5 1
2 .
z1 z 2 3z3 - 1
2x t + *- 2*3 = 1
*J + *2 + *3 =
* 1 + 2 * 2 3 * 3 = 1
www.FreeLibros.com
www.FreeLibros.com
212 I TE INE E
3. x x + x 2 - 3 x - x s =0
z1 - z2 z3 - z4 0
T x i 2 z 3 - x 4 - z 5 0
*i * * =
6-25. En el caso de compatibilidad, obtener el conjunto solucion del sistema
z1 z 2 2z3 1
2zi - * 2z3 4
4z i * 6x3 - 6
en terminos de una solucion particular y del espacio solucion del sistema homogeneo
asociado.
6-26. Siendo
- 3 0 - 4
A 4 4
2 0 3
obtener X tal que D(A - XI) 0. Despues resolver el sistema (A - XI) X 0 para cada
valor de X.
6-27 Determinar para que valores de k el siguiente sistema tiene soluciones distintas de la
trivial:
z ( l) y z = 0
z y { k + 1)2 0
( 1 ) z y + z 0
En cada caso, estudiar el espacio solucion, e interpretar geometricamente.
6'28. Determinar la inversa de M por el metodo del orlado, siendo
q I 1 - 1
M
1 - 1
1 1
&29. Resolver el sistema XzA x \ siendo
n
1
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO V
213
6-30. Obtener todas las soluciones de
+ >1y + ci 2 - 0
a2 x + b2 y + c2 z 0
sabiendo que
b i
b2
Ci
c-i
0
6-31. Discutir el siguiente sistema segun los valores de a:
a x - y 2z 1 a
x + a y - z 1
3z y + z = a
6-32. Estudiar el sistema
2x - a y z 2 a + 5
z y - a z = 1
4x + y - az a
para los distintos valores de a
6-33. Discutir la compatibilidad de
axi + bx2 z 3 ~a b
bx 1 +ax2 + x 4 =a - b
x 2 bx 3 ax 4 a 1
Xi o x 3 bx4 0 - 1
6-34 Determinar el sistema lineal cuyo espacio solucion
admita la base
( 3 , - 2 , 8 ) , ( 4 , - 1 1 , 7 )
6-35. Probar que el sistema
bx + ay ~ c
ex +az = b
cy bz a
tiene solucion unica si abe 0. Hallar la solucion.
6-36. Resolver por el metodo de la raiz cuadrada
- x x x 2 + 2x3 7
Xi 2x3 5
2 x t 2x 2 + x 3 1
www.FreeLibros.com
www.FreeLibros.com
Captulo 7
PRODUCTO INTERIOR EN ESPACIOS VECTORIALES
GEOMETRIA VECTORIAL.
7.1. INTRODUCCION
En este capitulo introducimos, sobre la base de un producto interior, el concepto de
metrica en un espacio vectorial real. Se estudian temas relativos a distancias, longitudes,
ortogonalidad y angulos entre vectores. Se desarrolla el procedimiento de Gram-Schmidt
para la construccion de bases ortonormales en espacios de dimension Iinita. Despues de dar
una idea del espacio aIin R , se tratan algunos temas basicos de geometria: rectas, planos,
superIicies y curvas elementales.
7.2. ESPACIO VECTORIAL EUCLIDIANO
Sea (V, , R , .) un espacio vectorial sobre el cuerpo de los numeros reales.
7.2.1. Producto interior
El simbolo vx , y ) se lee: producto interior entre los vectores x e y .
Definicin
Producto interior en V, es toda Iuncion
v, ~: V2 R
que satisIace las condiciones de simetria, de linealidad respecto del primer argumento
y de deIinida positiva:
i ) v x , y ~ vy, x~ cualesquiera que sean x e y en V.
i i ) ( x y , z ( x , z ~ v y , z ~ cualesquiera que sean x, y y z en V.
i i i ) va x, y~ a v x , y ) V x e V , V y e V , V a e R.
iv) vx , x ~~ 0 V x e V
( x , x ~ 0 x 0
www.FreeLibros.com
www.FreeLibros.com
E CIO VECTORIAL EUCLIDIANO
215
Todo producto interior en un espacio vectorial real asigna a cada par de vectores un unico
escalar real.
Espacio euclidiano es todo espacio vectorial real con producto interior.
La adjuncion de un producto interior a un espacio vectorial permite establecer una
metrica en els o sea, los conceptos de distancia entre pares de vectores, modulo de un vector,
ortogonalidad y angulo entre dos vectores. Estas nociones no son intrinsecas al espacio
vectorial, sino que dependen del producto interior que en el se considere. O sea, dos vectores
de un espacio,ortogonales con un producto interior, pueden perder este caracter si se deIine
otro producto interior.
Ejemplo 7-1
En (R , , R~ ), la Iuncion
v, ~: R X R - R
deIinida por
vX, Y~ XzY (1)
donde
z1
x 2
y 2
X Y
Xn
yn,
es un producto interior. Para probar esta aIirmacion veriIicamos los axiomas de la
deIinicion.
i ) v X, Y~ Xi Y ( XY) i Yi X v Y, X)
Por (1), por ser XzY un escalar, por traspuesta de un producto y por (1).
) v X Y, Z ~ ( X Y) i Z ( Xi Y i) Z X i Z Y I Z v X, Z) ( Y, Z )
Por (1), traspuesta de la suma, distributividad y (1).
iii) va X , Y ~ (ex X y Y a X* Y a vX , Y )
Por (1), traspuesta de un escalar por una matriz y (1).
i v) vX, X~ Xi X x j > O
ii
Por (1), producto de matrices y suma de numeros reales no negativos.
Ademas
n
( X, X~ 0 2 x j = Q*>X = 0 , Vi vzX 0
s i z
La deIinicion (1) caracteriza un producto interior en R , llamado tambien producto
interior usual. EIectuando la operacion indicada en (1) es
www.FreeLibros.com
www.FreeLibros.com
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
v X, Y ) =g 1 x i y i
0 sea, el producto interior de dos nzuplas de numeros reales es igual a la suma de los
productos de las componentes correspondientes.
En el caso n 2 esta deIinicion se traduce en
vX , i ~ z ! y i z 2 y 2
Ejemplo 7-2.
Consideremos ( R2, , R, ) y la matriz A x z `
La Iuncion
( , ) : R 2 X R i - ~R
tal que
v X, Y~ X( AY (1)
es un producto interior. En eIecto
1 ) v X, Y) Xi A Y - ( X i AY) i Yi Ai X Yi AX vY, X~
Por (1), por ser XI A Y un escalar, por traspuesta de un producto, por ser Az A y por
i i ) ( X Y, Z ~ ( X Y) ( A Z ( XI YI) A Z X i A Z Y i A Z ( X , Z ~ ( Y , Z~
iii) ( a X , Y ) (a X)z A Y a X( A Y a vX , Y ~
i v ) v X, X~ X A X ( z , z 2) x j s ) ( z j vz
(z ! 2x2) z ( (2z ! z ) * ~ x \ 4 z 1 X 2 5z2
= x \ - 4 z ! z 2 4z 1 z ! (z! - 2z 2)2 z i ~ 0
Ademas
(X , X ~ O ( z j - 2 z 2)2 z 0vz
<**! - 2 * 2 = 0 a * 2 = 0 ^
*>xx z 2 0v~X 0
Ejemplo 7-3.
Sea C u - 1 , 1 el conjunto de las Iunciones reales continuas deIinidas en el intervalo
cerrado de extremos - 1 y 1.
El lector puede veriIicar, considerando el espacio vectorial
(C u1 , 1, , R , .)
1 2z2 - 2x 5z 2) ,
x 2
www.FreeLibros.com
www.FreeLibros.com
que la Iuncion deIinida por
vI , g ~ q j I (z) g (x) dx
caracteriza un producto interior en dicho espacio. Para ello es suIiciente probar que se
cumplen los axiomas de la deIinicion teniendo en cuenta propiedades elementales de la
integral deIinida.
7.2.2. Producto interior de dos combinaciones lineales
Sea (V, , R , .) un espacio con producto interior, y sean las combinaciones lineales
n m
x a''x y =j S [ y~
donde
c t i J j e K y x , y s e V
De acuerdo con los axiomas de la deIinicion, se tiene
n m
vx , y ~ (.2 ctt x ,.2 fy y )
n m n m
= .2 vot xI , . 2 y ~ 2 a vx , 5 ` fy y )-
n m n m
lS 1 y~ Xi ) " d i v ! vyy ~xi ~
n m
= ( x wyq ~
Hemos aplicado sucesivamente: ii), iii), i), ii), iii), propiedades de la sumatoria e i).
En particular es
v a x y , x y) a 2 vx, x) a ( x , y ) a v y , x ~
( y , y ~ a 2 ( x , x ) 2 a v x , y ) vy, y~
7.2.3. Propiedad
En todo espacio con producto interior, el producto interior de cualquier vector y el
vector nulo es cero.
En eIecto, por ser 0 neutro para la suma en R, por el axioma A3 de espacio vectorial y
por el axioma de linealidad del producto interior, se tiene
0 ( 0 ~x) ( 0 , x ) v0 0 , x )
v 0 , x ~ v 0 , x ~
Por ley cancelativa en (R, ) resulta
0 v0 , x ~
ODUCTO INTERIOR 217
www.FreeLibros.com
www.FreeLibros.com

ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Luego
v x , 0 ~ v 0 , x ~ 0
7.2.4. Modulo o longitud de un vector
Definicin
Modulo de un vector en un espacio con producto interior es la raiz cuadrada no
negativa del producto interior de dicho vector por si mismo.
El simbolo llxli se lee: mdulo o longitud de x.
De acuerdo con la deIinicion es
() V vx ,x~
En R2, con la deIinicion dada en el ejemplo 7-1, si x (3,4), entonces
11x11 q3 2 42 \ 2 S 5
Al modulo de x se lo llama tambien norma de x.
Se veriIica que el cuadrado del modulo de todo vector es igual al producto interior de
dicho vector consigo mismo, es decir
11x II2 vX , x ~
Definicin
Distancia entre dos vectores x e y, en un espacio con producto interior, es el modulo
de su diIerencia.
d (x, y) IIx y II
www.FreeLibros.com
www.FreeLibros.com
ODULO
219
El lector puede comprobar que esta deIinicion satisIace los axiomas de la Iuncion
distancia.
7 2 5. Mdulo del producto entre un escalar y un vector
En todo espacio con producto interior, el modulo del producto entre un escalar y un
vector es igual al valor absoluto del escalar por el modulo del vector.
il a x l l = I a l II x l l
En eIecto:
O sea
a x i l 2 = ( a x , a x > = a 2 < x , x > =
= l a i 2 I I x i ! 2 = ( l a l I ! x l l ) 2
ll axi !2 ( l al II xll)2
Y como las bases son no negativas resulta
IIaxi l l al IIxll
El producto de un vector no nulo por el reciproco de su modulo, o lo que es lo mismo, el
cociente entre un vector no nulo y su modulo, es un vector de modulo 1.
X
En eIecto, sea x =0. Considerando se veriIica
IIxll
X 1 1
l l x l l = X
II x l l I l x l l I l x l l ti X 1
xl l l
Si x - ( 1, 1 , q2 ), entonces es, con el producto interior usual,
y resulta
- q l M - ( - l ) 2 + ( n/ 2)2 = 2
u.L V
Ilxll 2 2 2
un vector de modulo 1, llamado vector unitario
7.3. ORTOGONAUDAD
Sea (V, , R , .) un espacio vectorial con producto interior.
Definicin
Dos vectores son ortogonales si y solo si su producto interior es nulo.
El simbolo x i y se lee: x es ortogonal a y.
Entonces
x l y * < x , y ) = 0
www.FreeLibros.com
www.FreeLibros.com
220
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Ejemplo 74.
1. En R2, con el producto interior usual, los vectores
x (2 , 3) e y (3 , 2)
son ortogonales, pues
v x , y ~ ( - 2 ) ( 3) 3 ( 2) 0
2. Determinamos a R para que los vectores
x ( - 3 a , - 4 , 1) e y = (-a, a, 1)
sean ortogonales, con el producto interior habitual.
De acuerdo con la condicion de ortogonalidad, hay que determinar a de modo que
v x , y ~ 0
O sea
( - 3 a) ( - a ) ( - 4 ) a 1. 10
3a2 - 4 a + 1 = 0
www.FreeLibros.com
www.FreeLibros.com
ORTOGONALIDAD
221
Las raices son:
Los pares de vectores de R3 que satisIacen la condicion son
x ` C - 3 , - 4 , 1 ) e y ( - l , 1, 1)
x ( - l , - 4 , l ) e y ( - 1 , 1 , 1 )
Ejemplo 7-5
Demostramos el teorema de Pitagoras: si x e y son dos vectores ortogonales, entonces
llx yll2 Ibdl2 II yII2
En eIecto:
llx yil2 vx y , x y ~ v x , x ) ( x , y ~
vy , x ) vy , y ) IIx lt2 0 0 IIy II2
llxll2 IIy II2
Ejemplo 7-6.
En el espacio vectorial de los polinomios reales de grado menor o igual que 2 y el
polinomio nulo, donde el producto interior se deIine como en el ejemplo 7-3, los
polinomios
y 2 s /
y -`7z
2 s f l
son ortogonales, pues
www.FreeLibros.com
www.FreeLibros.com
222 ODUCTO INTERIOR. GEOMETRIA VECTORIAL
= 0
7.4. DESIGUALDAD DE SCHeARZ
En todo espacio vectorial euclidiano, el valor absoluto del producto interior de dos
vectores cualesquiera es menor o igual que el producto de los modulos de dichos vectores.
Demostraremos que
i vx , y ~ l v llxll IIyII
cualesquiera que sean x e y en V, donde esta deIinido un producto interior.
Se presentan dos situaciones:
1. y 0.
En este caso, de acuerdo con 7.2.3., se veriIica que
( x , y ~ 0 y IIy II 0
Luego
Ivx , y ~ 1 llxll IIyII
En consecuencia
Kx , y ~ K llxll IIy II
2 . y ` 0 .
Cualesquiera que sean t y u en R, por el axioma iv) de la deIinicion de producto interior
es *
( t x + u y , t x + u y >0
Desarrollando el primer miembro
t2 ( x , x ) + 2 t u ( x , y ) + u2 ( y , y )>0
Haciendo
t = ( y , y ) y w - v x , y ~
se tiene
( v y , y ~ ) 2 v x , x ~ - 2 v y , y ~ ( v x , y ~ ) 2 ( vx , y ~)2 vy , y ~~ 0
Por deIinicion de modulo y reduccion de terminos
llyII4 l l x l l 2 - IIyII2 ( v x , y ~ ) 2 ~ 0
Dividiendo por IIy II2, que es no nulo, resulta
IIyII2 Hxll2 - ( v x , y ~ ) 2 ~ 0
Teniendo en cuenta que el cuadrado de un numero rea! es igual al cuadrado de su valor
absoluto, y trasponiendo terminos
IIy II2 II x II2 ~ l vx , y ~P
2
, y/ 3 x 2
x d x -i-------
2 2
www.FreeLibros.com
www.FreeLibros.com
DE I D D DE CHWARZ
223
O sea
I vx , y ~ I2 v ( II x 11IIy II) 2
Y, como las bases son no negativas, resulta
I vx , y ~ K IIx II IIy II
7.5. DESIGUALDAD TRIANGULAR
En todo espacio con producto interior, el modulo de la suma de dos vectores cualesquiera
es menor o igual que la suma de sus modulos,
probaremos que
Hx y l K 11x11 II y II
En eIecto, por deIinicion de modulo y de producto interior es
x l x y l l 2 v x y , x y~ vx, x ~ 2 v x , y ~ vy, y~ (1)
Teniendo en cuenta la desigualdad de Schwarz y propiedades del valor absoluto en R, se
veriIica
- Ilxll l l y l l v ( x , y X llxll llyll
Luego
De ( l ) y ( 2 ) resulta
O sea
En consecuencia
2 ( x , y ~ v 2 l l x l l l l y l l ( 2 )
11 x y II2 v II x II2 2 II x II 11 y II II y II2
l l x y l l 2 v ( 1 1 x 1 1 l l y l l ) 2
II x y l l v II x l l II y l l
7.6. ANGULO DE DOS VECTORES
Sean x e y dos vectores no nulos en un espacio con producto interior. De ia desigualdad
de Schwarz
l v x , y ~ l v l l x l l l l y l l
se deduce que
- l l x l l H y l K v x , y ~ v l l x l l l l y l l
Dividiendo por el producto de los modulos de x e y , que es positivo, se tiene
v x , y ~ `
www.FreeLibros.com
www.FreeLibros.com
E ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Definicin
Angulo de dos vectores no nulos x e y es el numero real y que satisIace:
1. 0vi pv7T
2 . 0 8 z
llxll IIyII
De la relacion 2. se deduce la siguiente expresion del producto interior en Iuncion del
angulo de los vectores y de los modulos de estos:
vx ,y~ llxll IIyiieos v
Ejemplo 7-7.
Los vectores x e y Iorman un angulo de 60o y el modulo de x es 3. Determinamos el
modulo de y para que y x sea ortogonal a x.
y - x
Hay que determinar II y II de modo que
O sea
Luego
En consecuencia
Por ley cancelativa del producto
Resulta
De donde
y - x 1 x
v y - x , x ~ O
v y , x ) - v x , x ~ 0
y il II x II eos II x l l 2 O
II y II eos v ~ II x l l
IIy II. 3
2
www.FreeLibros.com
www.FreeLibros.com
E ORTONORMAL
225
7.7.1. DeIinicion
Un conjunto de vectores x Xi, x2, . . xr en un espacio con producto interior es
ortogonal si y solo si dos vectores cualesquiera y distintos son ortogonales.
Xi , x2, . . . , xr es un conjunto ortogonal w q q~ vx I , xs- ~ 0
7.7.2. Propiedad
Todo conjunto ortogonal de vectores, al que no pertenece el vector nulo, es linealmente
independiente.
Sea I Xj, x2, xr x un conjunto ortogonal tal que x 0 , Vi - 1, 2 , . . y sea la
combinacion lineal
r
2 a x, 0
i i 1 3
Para cada q 1, 2 , . . ., r consideramos
<.2^ oi j X j , x ) - <0 , x ) = 0
Entonces
r
.2^ a.j <Xj , x >= 0
Como i=j =>( X j , x ~ 0, la sumatoria se reduce a un unico termino que se obtiene si
q o sea
a vXI, x ) = 0
Siendo x 0 resulta vx , x ) 0, y en consecuencia
a ~ 0 Vi 1, 2,
Luego
x , , x 2, . . . , xr esL.I.
7.8. BASE ORTONORMAL
7.8.1. Concepto
Sea (V, , R , .) un espacio con producto interior y sea A Xj, x2, . . . , x una base
del mismo.
Definicin
Diremos que A es una base ortonormal si y solo si A es un conjunto ortogonal de
vectores de modulo 1.
7.7. CONJUNTO ORTOGONAL DE VECTORES
www.FreeLibros.com
www.FreeLibros.com
A es ortonormal o A es ortogonal y IIxv II 1 , Vi 1, 2 , . . n
Una base ortonormal es tal que
i s zvx , xj ~ 0
i e I vx , x ~ 1
En consecuencia, integrando estas dos expresiones en una sola, se tiene
A es una base ortonormal o ( x , X j ) = 5y
Ejemplo 7-8.
En R , con el producto interior usual, la base canonica j e l t e2, . . . , e ) es
ortonormal.
En R2, con el mismo producto interior, la base Iormada porz
(' `
es ortonormal, pues
226 ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Xz T T 7 X2 2 - 2
< X ! , X * > = < X 2 , X 2 > = 1
i xz , X 2 ~ 0
7.8.2. Ortonormalizacion de una base
Todo espacio euclidiano de dimension Iinita admite una base ortonormal.
Nos proponemos obtener, a partir de una base cualquiera Xi, x2, . . . , xn una base
ortonormal. En eIecto:
1 Xl o por ser un vector de la base dada. En consecuencia
IIX ! II0
El vector
X l
yi 7 7
ItXj II
de acuerdo con 7.2.5., es unitario.
2. Supongamos que x y , , y2 , . . yIe es un conjunto ortonormal. Se trata de obtener
yIci tal que
y i . y a . - - - . yz i )
sea ortonormal.
Consideramos el vector
k
zIt i xIt i - 2 ( x 4.1 j y ) yq
www.FreeLibros.com
www.FreeLibros.com
Se veriIica que z es ortogonal a y, , Vq 1, 2 , . . k.
En eIecto k
( zIei ~y i ` i `XIt1 ~y ` yq
k
vxIei ,yy~ - S`XI ei , yI~vyi , yy~
k
vXIt i , y j ~ vxIe 1 , y,-)
vxhi , yq~-vXIt i ,y,-~- 10
DeIiniendo
E ORTONORMAL 227
Se deduce que IIy& 1 II 1~y en consecuencia
(yi , yw---. yIcix
[] un conjunto ortonormal.
Este proceso, llamado de Gram-Schmidt, nos permite construir una base ortonormal a
partir de una base dada.
Ejemplo 7-9
En (R2, , R, ) se considera la base Iormada por
, =(, ) o=(,)
Construimos una base ortonormal siguiendo el procedimiento desarrollado en el
teorema anterior.
www.FreeLibros.com
www.FreeLibros.com

ODUCTO INTERIOR. GEOMETRIA VECTORIAL
^
-H-)
La base I y , , y2 x es ortonormal.
Ejemplo 7-10
r r grado
` , , n. , .) se aeiine un producto interior mediante
vP ~q ! p e e z
Gram-SchmidlJ z Com,ruin,0s una base rtonormalmediante el proceso de
1.
2.
x i i wm 2 v i ~i ~ ` i . i d z z
II i l i - V T
z i 1 V2`
Xi II V2 2
z2 x 2 - v x a , y, ~yi
2
-i
yi
Como vx2 , y , ~vx , X i )
22
1 v T
z dx
VT
0 ,
resulta
Ademas
Entonces
Z2
Z2 11 vZ2 , Z2 ) = ( X ' X>= j 1 2 dx =
x l 1 2

www.FreeLibros.com
www.FreeLibros.com
COMPLEMENTO ORTOGONAL
229
Luego
3.
V z2 - V 3 -,
Il z2 ti V2
= x 3 - . s < * 3 , y > y =>
Z3
~ z 3 x 3 v x 3 , y i ~ y i - v x 3 , y 2 ~ y 2 ( i )
v- l ` v 2 ev
( x3 , yi > ~ l i 2 6
i q3
-i
De (1) resulta
3 3 2 3
Como
II z3 I
` vZ3 , Z3 ~ ` 1 x z 2 j j 2 iIe
P (x4 i ) i -- - X 3 i x l `
J i 3 9 5 9 9 Ji
1 1 ` - - -
5 9 9 5 9 45
resulta
1 , 1 4
3 ~ q r
Y en consecuencia
Z3
y3
II z3
2 ` q 2 i ) 3` q 2 i )
2 y / l l 3 q 4 3 q
La base
es ortononnal.
f o f
2 s/2 4
7.9. COMPLEMENTO ORTOGONAL
7.9.1. Complemento ortogonal de un subespacio
Sea (V, , R , .) un espacio con producto interior, y sea S un subespacio de V.
www.FreeLibros.com
www.FreeLibros.com
9 .
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Definicin
Complemento ortogonal del subespacio S de V, es el conjunto de los vectores de V que
son ortogonales a todos los vectores de S.
El simbolo S1 se lee: complemento ortogonal de S.
S1 j x e V q x l y , V y e S i
Ejemplo 7-11
En R3, con el producto interior ordinario, si
S= { (0, 0 , x 3) / * 3 e R x
entonces el complemento ortogonal de S es
S1 I ( z lI x 2, z 3) 6 R 3 q z 3 o)
7.9.2. Propiedad
El complemento ortogonal del subespacio S de (V, , R , .) es un subespacio de V.
Debemos probar que S1 es un subconjunto no vacio de V, cerrado para la suma y para el
producto por escalares.
1. S1 C V por deIinicion de S1.
2 . y e S ~v 0 , y ~ O ` O e S 1 ~Si v(q~
S . x e S 1 a y e S1 ~ vx , z~ 0 A ( y , z ~ 0, Vz e S ~
~vx, z) vy, z ~ 0 , V z e S `
` ( x y , z ) 0 , V z e S ~x y e S i
www.FreeLibros.com
www.FreeLibros.com
4 . a e R A x e S i ! ` e R A ( x , y~ 0 , Vy e S ~
wva x, y~: 0 , V y e S ~,o : x e Si
Por consiguiente
(S1, , R, .) es un subespacio de V.
9.7.3. Propiedad
Si V es un espacio euclidiano de dimension Iinita y si S es un subespacio de dimension r,
entonces la dimension del complemento ortogonal de S es n - r .
Se trata de probar que
dim S dim S1 dim V
En eIecto:
Si S 0 o S V, la propiedad es obvia. Consideremos, pues, el caso en que S 0 1 y
S =V, y sea
\ X i , X 2 , . . . , x r )
una base ortonormal de S.
Entonces existen vectores xr 1, xr 2, . ., x, tales que
( X ! , X 2 -------- , X r , X r + l , . . , , X n l
es una base ortonormal de V.
AIirmamos que
( X r + i , Xr + 2 > X n
es una base ortonormal de S1.
Para ello es suIiciente probar que este conjunto es un sistema de generadores de S1. Sea
entonces un vector cualquiera u e S1.
n
u e S i ~u e V =* 3 a ~, a 2, . . . , oMe R q u 2 a,- x,-
I=i
Como u es ortogonal a todos los vectores de S, considerando el producto interior entre
u y x , i 1, 2 , . . r, resulta
n n
0 vu , x ~.2` (oi j Xj , x,- ~.2` o 5y a
O sea
n
u . 2 ax
i r 1
Esto prueba que
X r + i oXr+2, )X n
es un sistema de generadores de S1.
COMPLEMENTO ORTOGONAL 231
www.FreeLibros.com
www.FreeLibros.com
9
PRODUCTO INTERIOR. GEOMETRIA VECTORIAL
como estos vectores son ortogonales y de modulo 1, constituyen una base ortonormal de
S1 , y se tiene
O sea
dim S1 n - r
so
dim S dim S1 dim V
El lector puede comprobar, como consecuencia de esta propiedad, que V es la
directa de S y de su complemento ortogonal.
7.10. PROYECCION DE UN VECTOR SOBRE OTRO
Sean x e y dos vectores de un espacio con producto interior, e y * 0. Entonces existe un
ue
x - a y l y
escalar a, tal que
En eIecto
v x - I l y , y ~ 0z vx, y~ a v y , y ~ - 0
( x , y ~
=>a =
<y>y>
El vector
_ <x ,y > _ <x , y > X -
,c
se j j ama p r o y e c c i o n o r t o g o n a l de x s obre y.
IdentiIicaremos la proyeccion ortogonal de x sobre y con el numero real
vx ,y~
y escribiremos
vx ,y~
www.FreeLibros.com
www.FreeLibros.com
E CIO AFIN 233
O sea, la proyeccion de un vector x sobre un vector y es igual al producto interior de
ambos, dividido por el modulo del vector sobre el cual se proyecta.
En particular, si y es un vector de modulo 1, se tiene
por lo tanto, la proyeccion de un vector sobre un vector de modulo 1 es igual al producto
interior de ambos.
Ejemplo 7-12
Comprobamos que las proyecciones de un vector de R3, con el producto interior
usual, sobre los vectores de una base ortonormal, son las componentes de dicho vector
respecto de la base.
Py x vx , y ~
3 3
3 3
2 a ve , es- ~ 2 a y ~ a
7.11. ESPACIO AFIN R
7.11.1. Concepto
Sea (Rn, , R , .) el espacio real n-dimensional.
www.FreeLibros.com
www.FreeLibros.com
9 E
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Para cada Ae R deIinimos una suma en R y un producto de escalares por elementos de
Rn, mediante
X Y X Y A
a X a ( X - A ) A
Estas deIiniciones hacen de la cuaterna (Rn, , R, ) un espacio vectorial con origen A.
El vector nulo de este espacio es A.
La suma y el producto de este espacio pueden obtenerse llevando las Ilechas AX y AY
al origen 0, operando en (Rn, , R , .), y desplazando el resultado al origen A. En R2 esta
situacion queda indicada por las Iiguras siguientes:
Definicin
Espacio aIin R es el conjunto de todas las nzuplas de numeros reales, y una estructura
de espacio vectorial para cada Ae R , con las operaciones deIinidas.
7.11.2. Vectores Iijos
Consideremos V R , X e R e Y e Rn. El par de puntos (X, Y) se llama vector Iijo de
origen X y extremo Y.Se lo denota mediante XYz.
Sean los elementos de R :
A~(fJ( #2, #n) x ~ ( x i , x2> >%n} ^ (yi>y2> >yn)
www.FreeLibros.com
www.FreeLibros.com
ECTORES UBRES
235
Entonces la suma de X e Y, en el espacio de origen A, es
X Y AX Y X Y A
Siendo
X Y - A (xi ~wi - a u X i + y 2 - a 7........x n + y n - a)
Si a eR, entonces
t i 0 X a A X ( X - A ) A X - - ( t t - l ) A
a A - (a - 1) A ( a xj - (a - . . . , a x n - (a - 1))
7.11.3. Espacio de los vectores libres
Consideremos el espacio aIin R , es decir, el conjunto de todas las n-uplas de numeros
reales y las estructuras de espacios de los vectores aplicados en cada punto de R .
En el espacio aIin Rn deIinimos la siguiente relacion de equivalencia:
donde
Escribiremos
A X B Y ~ A Y X B AX AB
AX AJB A) AB
Cada clase de equivalencia se llama un vector libre, y el conjunto cociente es el conjunto
de los vectores libres de R .
Un vector X e R se denota:
X si se lo considera como vector del espacio de origen A.
X s i pertenece al espacio de origen 0.
En el ultimo caso se escribe directamente X.
Para operar en el espacio de los vectores libres se considera como conjunto de indices una
www.FreeLibros.com
www.FreeLibros.com
9
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
estructura de espacio vectorial Iija, con origen 0. Entonces el vector Iijo XY es equivalente al
vector Y - X, con origen 0, y se escribe Hediente aJ
3t v = y x
Y - X
escaTaresiTseT ` reaCi n ` eqUi ValenCi a es compati ble con la suma y el nr y el producto por
a x - b V
AX AX' i Ty B V
A X B Y
A X ~ B Y A a e R = > X ~ a B Y*
En consecuencia existen en el conjunto cociente, de ios vectores libres, dos leves de
composicion inducidas que lo caracterizan como espacio vectorial.
Resulta asi el espacio vectorial de los vectores libres de R
7.12. ECUACIONES VECTORIAL Y CARTESIANAS DE LA RECTA
En lo que sigue nos reIeriremos a vectores libres del espacio euclidiano tridimensional
sideiaremos una estructura de espacio vectorial, con origen en 0, y la base ortonormal
I (1, 0. 0) J (0, 1, 0) K ( 0, 0, 1)
Los subespacios correspondientes a los ejes coordenados seran denotados por z y z
~ea A un vector no nulo de componentes q, m y n, es decir
A q I m J - l - K
po X ; s r r : adas ( x ' Zo)~ entonces existe o w p -
www.FreeLibros.com
www.FreeLibros.com
ECTA
237
El vector O P0, de origen 0, sera denotado por P0. Sea X un punto generico de la recta, de
coordenadas (x, y , z).
Se veriIica que `
X - P o + P qX
Y como P0X es equivalente a t A, para algun t e R, resulta
X P0 i A (1)
Para cada t e R se tiene un punto perteneciente a la recta. La igualdad (1) es la ecuacion
vectorial parametrica de la recta que pasa por P0 y es paralela al vector A. La variable X
depende de t, que es el parametro.
Expresando (1) en terminos de coordenadas es
(x, y, z ) (x0, y o, z 0) + t (l, m, n)
EIectuando el producto por r, sumando e igualando las componentes, resulta
x x 0 + It
( 2 ) y yy 0 + mt
z = z 0+ nt
Las ecuaciones (2) reciben el nombre de ecuaciones cartesianas parametricas de la recta.
Las componentes l, m y n del vector A suelen llamarse coeIicientes directores de la recta.
Si son distintos de cero, eliminando t, se obtiene
z - z o y - y o 2 ~Zq
q m n
Las ecuaciones (3) reciben el nombre de ecuaciones cartesianas de la recta.
Considerando la recta en un plano, la Iorma de la ecuacion vectorial no se modiIica, pero
las ecuaciones cartesianas quedan simpliIicadas, ya que la tercera componente no Iigura.
www.FreeLibros.com
www.FreeLibros.com
9
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Ejemplo 7-13
Determinamos las ecuaciones vectorial y cartesianas de la recta que pasa por
p0 ( o, 2) y es paralela al vector A, siendo A 3 I J 2K.
La ecuacion vectorial es
X P0 t A
O sea
( J )
EIectuando las operaciones
I s~ J K = ( 1 t J ( t) K
Igualando componentes
( t
\ y = - t
=
Las relaciones anteriores constituyen el sistema de ecuaciones cartesianas parametricas
de la recta, y eliminando el parametro t resulta

3 - 1 2
Observamos que los sustraendos de los numeradores son las coordenadas del punto
dado, y los denominadores son las componentes del vector A.
Ejemplo 7-14
Obtenemos las ecuaciones cartesianas de la recta r que pasa por P0 ( 1 , 2 , 3 ) y es
paralela al vector A 2 1 K.
Como
X P0 + t A
se tiene
x I v J z K I 2 J 3 K I ( 2 I K)
O sea
= t
2
=
Eliminando el parametro entre la primera y la tercera ecuacion, resulta
=
2 1
y = 2
www.FreeLibros.com
www.FreeLibros.com
NO 239
EIectuando operaciones en la primera de estas ecuaciones se tiene
j x - 2z 5
i y = 2
Este es el sistema de ecuaciones cartesianas no parametricas de la recta, y se interpreta
de la siguiente manera: r es la interseccion de los planos cuyas ecuaciones son
x 2z - 5 (paralelo al eje y ) a y 2 (paralelo al plano x z, por el punto (0, 2, 0)).
7.13. ECUACION NORMAL VECTORIAL DEL PLANO
Consideremos un vector unitario N t I n2S + n 3K
www.FreeLibros.com
www.FreeLibros.com
E. ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Sus proyecciones sobre los ejes son
n l vN , I ) IINll IIIII eos a 1 . 1 eos a eos a
Analogamente
n2 = eos 0 n3 eos y
Los numeros eos a, eos 0, eos y se llaman cosenos directores del vector N, y se identiIican
con sus coordenadas, o sea
N eos a I eos 0 J eos y K
Como el modulo de N es 1, se veriIica que
eos2 a + eos2 P 4- eos2 y 1
Esta propiedad es valida para todo vector del espacio. Es decir, la suma de los cuadrados
de los cosenos directores de un vector es igual a 1.
Dados un vector unitario N y un numero p e R , estamos interesados en determinar la
ecuacion del plano perpendicular a la direccion de N y tal que la distancia del origen al plano
sea p.
El vector N y el numero p se llaman parametros normales del plano.
Sea 7r el plano en cuestion. Cualquiera que sea X e 7Tse veriIica que
PNX p (1)
Es decir
v X , N ~ - p 0
Para denotar el producto interior o escalar vX , N ~escribiremos X . N.
www.FreeLibros.com
www.FreeLibros.com
NO 241
Entonces
Tanto (1) como (2) son la ecuacion normal vectorial del plano.
En terminos de coordenadas se tiene
(x \ + y J 2 K) (eos a I eos j3 J eos 7 K - p) 0
EIectuando el producto interior resulta
x eos a y eos 0 z eos y - p 0 (3)
La relacion (3) recibe el nombre de ecuacion normal cartesiana del plano. Los coeIicientes
de las variables son los cosenos directores del vector normal al plano, y el termino
independiente cambiado de signo es la distancia del origen al plano.
Multiplicando l a e c u a c i o n (3) p o r 0, r e su l ta
ax by cz d 0
Esta relacion recibe el nombre de ecuacion general del plano.
Desarrollamos a c o n t i n u a c i o n el m e t o d o que n o s p e r m i t e pa sa r de la ecuacion general del
plano a la ecuacion normal cartesiana.
Sea el plano 7Tde ecuacion
ax by cz d 0 (4)
El plano 7Tadmite la ecuacion normal
x eos a + y eos q3 z eos 7 p 0 (3)
cuyos coeIicientes hay que determinar.
Como ambas ecuaciones corresponden al mismo plano, para algun k e R se veriIica que
X . N - p = 0 ( 2)
( 5)
a ~ k eos a
b = k eos 0
c k eos 7
d = k ( - p )
Sea d 0s como p es positivo, - p es negativo y, en consecuencia, el signo de k es distinto
del de d.
Elevando al cuadrado las tres primeras relaciones y sumandolas, se tiene
a2 + b2 + c2 = k 2 (eos2 a eos2 0 eos2 7)
O sea
k2 = 2 b2 + c1
En consecuencia
k V a2 b2 +c 2
www.FreeLibros.com
www.FreeLibros.com
E
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
donde el signo de k, por lo observado anteriormente, debe tomarse distinto del de d.
De (5) resulta
a Q b c d
eos a y eos p eos y ~ w - p
k k k k
Sustituyendo en (3), la ecuacion normal vectorial es
ax + by + cz + d _ `
s/a2 + b2 + c2
Luego, para trasIormar la ecuacion general del plano a la Iorma normal, se divide el
primer miembro de aquella por la raiz cuadrada de la suma de los cuadrados de los
coeIicientes de las variables, la que se toma con signo distinto al del termino independiente.
Ejemplo 7-16
Determinamos la ecuacion normal cartesiana del plano cuya ecuacion general es
x - y + z - 1 0
De acuerdo con la Iormula de pasaje, la ecuacion normal cartesiana es
x - y + z - 1 n
Vi2 + ( )
O sea
x - y + z ^ l =Q
y / T
O bien
_ . V L o
3 3 3 3
Los tres cosenos directores son y la distancia del origen al plano es
V T 3 3 3
3
Observamos que el vector cuyas componentes son los coeIicientes de las variables de la
ecuacion general del plano es normal al mismo, ya que se deduce del vector normal
unitario multiplicandolo por k.
Ejemplo 7-17
Obtenemos la ecuacion del plano que pasa por P0 ( 1 ,2 , 2 ) , sabiendo que es
perpendicular al vector A 3 I J K.
www.FreeLibros.com
www.FreeLibros.com
NO 243
Cualquiera que sea X perteneciente al plano pedido es
PqX 1 A
En consecuencia
es la ecuacion vectorial del plano.
En terminos de coordenadas se tiene
P0X. A 0
P0X - (x - 1) I O - 2) J (z - 2) K
EIectuando el producto interior
3 ( z - l ) 0 2) ( z 2) 0
O sea
3 x + y z 7 0
Ejemplo 7-18
Determinamos la distancia entre el plano de ecuacion
2 x - j - 2 z 3 - 0
y el punto P0( l , 2, 3)
Sea 7Tel plano cuya ecuacion normal es
PN X - p 0
y sea P0(`0. yo> z0) un punto dado.
www.FreeLibros.com
www.FreeLibros.com
EE
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
La distancia entre el plano 7Ty el punto P0 es
d ~ - p\
O sea la distancia entre un plano y un punto es el valor absoluto del primer miembro
Pian0 CUando SUSt Uye h
Determinamos primero la ecuacion normal del plano dado
J l x - y - 2 z 3
- V 2 ( - l ) ( 2)2 o
O sea
2 X 1 2
e =o
Sustituyendo x, y, z por las coordenadas de PIt es
, f f - 3 - 1
Ejemplo 7-19
Dados los puntos A ( - i 3 2l v RI i i n\ a *
Plano perpendicular a la recta AB, sabiendo que d i d l o T 08 ` o ri 8en 31
del segmento AB. piano pasa por el punto medio
Las coordenadas del punto medio de un semiento nn u
coordenadas de los extremos de dicho segmento Sv!miSUmaS de laS
En eIecto:
www.FreeLibros.com
www.FreeLibros.com
DI T NCIA 245
Restando
Entonces
0 sea
M = A + AM
B = M + MB
M Ii A - M pues M y MB son equivalentes
2M = A + B
M 1 ( A + B)
2
En nuestro caso, las coordenadas de M son ( - 1 , 2, 1), y un vector normal al plano es
~B = B - A = - 2 J - 2 K
La ecuacion vectorial del plano es
M X. B 0
Donde
MX (x 1)1 0 - 2 ) J +(z - 1) K
EIectuando el producto
O . (x 1) 2 (y 2) 2 (z 1) O
www.FreeLibros.com
www.FreeLibros.com
E
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
O sea
2 y + 2 z - 6 = 0
es la ecuacion del plano pedido. Este plano es ortogonal al vector 2J - 2K, es decir,
al plano yz; en consecuencia, es paralelo al eje x.
Observamos que si el coeIiciente de una variable de la ecuacion de un plano es cero,
entonces dicho plano es paralelo al eje correspondiente a esa variable.
La ecuacion normal del plano hallado es
2 y + 2 z - 6 0
2s 2
O sea
Y la distancia pedida es
d =
q2 , y/ 2
y z
2 2
` . 0 ` . 0
2 2
3y/ 2
7.14. CURVAS EN EL ESPACIO
Sea I un intervalo real. Toda Iuncion
X : I -~ R3
se llama curva parametrica en el espacio.
Cualquiera que sea r e l , X( I ) es un vector cuyas coordenadas dependen de t. O sea,
existen Iunciones x, y, z de I en R, tales que
X ( 0 ( z ( 0 ~. v ( 0 wz ( 0 j
www.FreeLibros.com
www.FreeLibros.com
C1

La ecuacion vectorial parametrica de la curva C es
X jc (i) 1 + y (i) J z (t) K
Las ecuaciones cartesianas parametricas de Cson
x ~ x (i)
y=y{t)
Z ~ 2 (i)
La curva cuya ecuacion parametrica es
X (I) eos 1 1 sen t J K
es tal que sus ecuaciones cartesianas parametricas son
q x eos t
x y - sen t
\ z ~ 1
cualquiera que sea t e R.
Elevando al cuadrado las dos primeras y sumando eliminamos el parametro
x 2 + y 2 = 1
z - 1
La representacion de C esta caracterizada por la interseccion de dos superIicies: la
superIicie cilindrica cuya directriz es la circunIerencia de radio 1 centrada en el origen e
incluida en el plano horizontal y cuyas generatrices son paralelas al eje z, y el plano de
ecuacion z 1.
Se trata de la circunIerencia indicada en el graIico siguiente:
www.FreeLibros.com
www.FreeLibros.com
La representacion de una curva como interseccion de dos superIicies se llama implicita, y
en general se denota mediante
u F (x , y , z) 0
C
( G(x , y , z) 0
E ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Donde el sistema anterior es tal que se cumplen las condiciones de regularidad dadas por
el teorema de Cauchy Dini, relativo a la existencia de Iunciones deIinidas por sistemas de
ecuaciones.
Ejemplo 7-20
Deducimos la ecuacion vectorial de la helice circular, deIinida como la trayectoria de
un punto que gira alrededor de un eje y ademas se traslada paralelamente a el, siendo
ambos movimientos uniIormes.
www.FreeLibros.com
www.FreeLibros.com
SUPERFICIE CILINDRICA
249
Suponemos que en el instante t 0 el punto mvil est en A (a, 0, 0), y que al cabo del
tiempo t est en X (x , y , 2).
Se veriIica que
w t y z = v t
Siendo w la velocidad angular del movimiento circular uniIorme, y v la velocidad (en
modulo) del movimiento rectilineo y uniIorme.
Las ecuaciones parametricas en coordenadas cilindricas de la helice circular son
p = a
<p= w t
Z - V t
Se tiene asi el sistema de ecuaciones horarias de la curva.
Haciendo
( w t ~ u
Resulta
y
z v t w t = b u
w
Las ecuaciones cartesianas parametricas son
X ~ eos u
y - a sen u
z = bu
La ecuacion vectorial parametrica de la helice es
X a c o s I 6 s e n J Z~wK
7.15. SUPERFICIE CILINDRICA
Sean: una curva C y una direccion del espacio caracterizada por un vector no nulo
A q I m J K.
Definicin
SuperIicie cilindrica de directriz C y direccion A, es el conjunto de puntos de las
paralelas a A, que pasan por todos los puntos de C.
www.FreeLibros.com
www.FreeLibros.com
r
.
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Las paralelas a A se llaman generatrices
La ecuacion vectorial es, entonces
=Q A
Ejemplo 721
Determinamos la ecuacion de la superIicie cilindrica de directriz
x eos t
y sen t
z 0
y cuyas generatrices son paralelas
1. Al eje z , o sea, al vector A K.
X = 2 + X a ( l )
Como 12 (eos t, sen t, 0), de (1) resulta
Luego
x I + y J z K cos I sen q J
K
x = eos t
y sen t
z = \
www.FreeLibros.com
www.FreeLibros.com
E ICIE CONICA
251
ito
un
es el sistema de ecuaciones parametricas de la superIicie, siendo t y Xlos parametros.
De las dos primeras ecuaciones resulta
x 2 + y 2 ~ 1
siendo z cualquier numero real.
2. Al vector A I J K
De ( 1 )
x l + y J + z K = eos 1 1 sen J X ( I J K )
Luego
Eliminamos los parametros
Y resulta
x X eos t
y X sen t
z X
X z = eos t
y - z = sen t
( x - z ) 2 { y - z)2 1
7.16. SUPERFICIE CONICA
Consideremos una curva C, llamada directriz, y un punto V no perteneciente a C, llamado
vertice.
Definicin
SuperI cie conica de directriz C y vertice V es el conjunto de puntos de las rectas
determinadas por V y todos los puntos de la directriz.
K
O
I
www.FreeLibros.com
www.FreeLibros.com

ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Las rectas consideradas se llaman generatrices.
Sea X un punto generico de la superIicie conicas X pertenece a una generatriz, la c
corta a la directriz en un punto 2.
Entonces la ecuacion vectorial de la superIicie conica es
=eeg
O bien
X 2 XV 2
Ejemplo 7-22
Obtenemos la ecuacion de la superIicie conica de directriz
x 2 + y 2 - 1 0
y vertice V ( 0 , 0 , 0 )
Como

resulta
z = 1
V 2 (a O)I (0 O)J a I 0 J
X V V 2,
x I 7 J 2 K X ( a I 0 J K)
www.FreeLibros.com
www.FreeLibros.com
OYECCION
253
Luego
De donde
x = X a
y = \(3
z ~ \
A (3=
z z
Sustituyendo e n( l )
z 2 + y 2 - z 2 = 0 ,
se obtiene la ecuacion cartesiana implicita de la superIicie conica.
7.17. PROYECCION DE UNA CURVA SOBRE UN PLANO COORDENADO
En el calculo de integrales multiples suelen utilizarse a menudo las ecuaciones de la
proyeccion de una curva sobre uno de los planos coordenados.
Sea la curva C, deIinida por el sistema de ecuaciones
F( x , ~ , z ) 0 (1)
G ( x , y , z ) = 0 (2)
www.FreeLibros.com
www.FreeLibros.com
` L a superIicie cilindrica de generatrices paralelas al eje z y de directriz C, se llama 7,zz,
proyectante de C sobre el plano horizontal. Su ecuacion es del tipo
y d e i X d r o proyectante con el plano de ecuacion z 0, es la proyeccio,
de C sobre el plano horizontal.
O sea-
f ( x , y ) = 0
E ODUCTO INTERIOR. GEOMETRIA VECTORIAL
C PzoC
2 = 0
, a Aa r cnhr el olano v 2 hay que eliminar x entre (1) y (2)j
Para obtener la proyeccion de C sobre el piano y noz 4
cortar el cilindro proyectante con el plano de ecuacion x 0.
Ejemplo 7-23
Determinamos las proyecciones, sobre los planos z j y z z, de la curva
c
1. Eliminamos z entre (1) y (2)
x * + y 2 + 2* = l (1)
x 2 q 2 (2)
+ y 2 +( x 2 + y 2)2 - 1
Pasando a coordenadas polares
Entonces
Resolviendo respecto de p2
La unica solucion es
O sea
p2 p 4 l
p4 4- p2 1 0
` - 1 V T
P2 s
La proyeccion sobre el plano horizontal es la circunIerencia de ecuac.ones.
V 5 - 1
www.FreeLibros.com
www.FreeLibros.com
OYECCION
255
Su radio es
2. Si proyectamos sobre el plano y z, se elimina x entre (1) y (2) restandolas
z 2 1 - z
Se obtiene
O sea
Y como 2 > 0 , se tiene
Resulta
z 2 z 1 0
-1 ~q5
z --------------
2
y/5 - 1
z
Pz0 C{ 2
jc 0
Ejemplo 7-24
Obtenemos la proyeccion de C sobre los planos x y y x z , siendo
I x 2 + y 2 + z 2 = 1 (1)
C ( x 2 + y 2 - x = 0 (2)
1. La ecuacion del cilindro proyectante de C sobre el plano horizontal es
x 2 + y 2 - x ~0 (2)
ya que z no Iigura.
Luego
P , o C
x 2 + y 2 - x 0
z 0
es la circunIerencia de radio -`-y centro , 0 j del plano horizontal.
2. Restando (1) y (2)
z 2 + x = l
www.FreeLibros.com
www.FreeLibros.com

ODUCTO INTERIOR. GEOMETRIA VECTORIAL
Luego
( Z2 X 1
y y n
\ y - 0
es la parabola de vertice (1, 0) y eje - x del plano x z.
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO VII
XI A Y no es un producto interior en (R2, , R, .)
7-26. Considerar la misma cuestion siendo A
7-27. En (V, , R , .) se sabe que v es ortogonal a v 1( v2 y v3. Demostrar que v es ortogonal
al subespacio generado por ellos.
7-28. En un espacio con producto interior el angulo de los vectores y y z es a. Sabiendo que
y x z, demostrar que
II xll2 llyli2 llzll2 - 2 II yl l . II zll cosa
7-29. Demostrar
7-5q. En un espacio euclidiano n-dimensional los vectores v4, v2, . . v son tales que
vV( , V, ~ 6y. Demostrar que tales vectores Iorman una base.
7-32. En un espacio euclidiano se considera la Iuncion
deIinida por d (x , y) II x - y II. Demostrar que (V, d) es un espacio metrico.
7-33. Sea (V, , R, .) un espacio vectorial con producto interior, y sea y e V. Demostrar que
vx , y ~ 1 IIxll IIyll e y son L.D.
7-30. En Rn se considera el producto interior deIinido por
vX , Y ~ XI Y
Demostrar
d : V2 -R
la Iuncion
q : V -wR
www.FreeLibros.com
www.FreeLibros.com

ODUCTO INTERIOR. GEOMETRIA VECTORIAL
deIinida por
q ( x ) v x , y )
es una Iorma lineal.
7-34. Sea v , ) un producto interior en (V, , R , .), y sea q : V ` V una T. L. Demostrar que
: V2 -*R
tal que ( p( x, y) vq(x), f()c es un producto interior en V, s i q es 1 - 1.
7-35. Sea (V, , R , .) un espacio euclidiano. Demostrar que la Iuncion
N : V ` R
deIinida por
N (x) ( x , x ~I
veriIica:
1 . N ( a x ) - a 2 N(x)
2. N (x y) - N (x) - N (y) 2 vx , y ~
3.N (x y) - - N (x - y) vx , y ~
4 4
7-36, Demostrar que en todo espacio euclidiano las diagonales de un rombo son
perpendiculares.
7-37. Sea (V, , R , .) un espacio vectorial con producto interior.
Demostrar
1. ! l x - y l l ~ x l l xl l - Uyllx
2. llxll2 IIyII2 IIx yl l 2 ~xl y
3. I l x - y l ! ~ l l xl l - llyll
4. x l y IIx a y II~ II x II, V a e R
7-38. Sean: V un espacio vectorial euclidiano y A C V. Por deIinicion, x e V es ortogonal a A
si y solo si
y e A ` x l y
Demostrar que si x es ortogonal a A, entonces x es ortogonal a A.
7-39. Demostrar que si V es un espacio euclidiano n-dimensional y S es un subespacio de
dimension m, tal que m < n , entonces existe un vector x e V y x q S tal que x es
ortogonal a S.
7-40. Sean V y S como en el ejercicio anterior. Demostrar que existe un unico subespacio T
tal que
l . x e T ` x l S
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO VII
259
2. dim T - e
3. V S T
j l En (R3, . R~)se considera el producto interior ha bitual.
1 Obtener un vector unitario ortogonal a
V! (1, 1, 3) y v2 ( 2, 4, 3)
2. Obtener dos vectores unitarios ortogonales entre si y ortogonales a
v (1, 1,3)
3. Sea la base
uv ( 1 , 1 , 1 ) , ( 1 , 1 , 0 ) , ( 1 , 0 , 0)(
Construir una base ortonormal a partir de uv mediante el proceso de Gram Schmidt
742. Sea ( , va , . . v ) un conjunto ortogonal en (V, , R , . ) y sea
n
v . S a v
11
Demostrar que
7-43. Sean (V, , R , .) un espacio euclidiano y Vi, v2, . . . , vn una base de V tal que
n
x e V a y e V~vx , y ~ x t y t
n n
donde x 2 x I vI y y . 2) y \ i
ii ii
Demostrar que la base v , , v2, . . v es ortonormal.
7-44. Sean: V un espacio euclidiano y A C V. Si 2(A) denota el conjunto de todos los
vectores ortogonales a A, entonces
I i ( i 2 ( A ) ) A
7-45. Demostrar que si q Vi, v2, . . v x es una base ortonormal de (V, , R , .), entonces
n
v x , y ~
746. En (V, , C , .), la Iuncion
v, ) : V2 C
es un producto interior o hermitiano si y solo si
i ) v x , y ~ vy , x~
i i ) vx y , z ~ v x , y ~ v x , z ~
www.FreeLibros.com
www.FreeLibros.com
.
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
iii) v a x , y ~ a ( x , y ~
iv) vx , x ) ~ 0
( x ) x ) 0 v i- x - 0
Un espacio vectorial sobre C, con producto interior, se llama unitario.
DeIiniendo
IIx ii v T x T x ) ,
demostrar que
Ivx , y ) l v llxil IIyII
7-47. Sean Pi ( l , - 1 , 1) y P2( - l , 1,0). Obtener:
1. Las ecuaciones vectorial y cartesiana del plano perpendicular a la recta Pi P2 en Pj.
2. Las ecuaciones vectorial y cartesianas de la recta perpendicular al plano anterior,
sabiendo que dicha recta pasa por Po(0, 2, - 3 ) .
7-48. Determinar el conjunto de los puntos del espacio que equidistan del plano
x + y = 1
y del punto F (2, 2, 1).
7-49. Obtener las ecuaciones vectorial y cartesiana del plano paralelo al plano
a x + y - 0 0
que pasa por P0(a, a, 3).
7-50. Hallar la distancia entre el plano que contiene a las rectas
x =y z
x 1 = y + 2 = z
y el punto P0(1, 0, 1).
7-51. Obtener las ecuaciones de la recta determinada por los planos
2 x - y + z 2 = 0
y
x + 2 y - z + 1=0
7-52. Hallar las ecuaciones de la recta que pasa por el origen y es paralela a la interseccion de
los planos
2 x + y ~ z =0
y
x 2 y + z = 5
7-53. Obtener la ecuacion de la superIicie cilindrica de directriz
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO VII
261
C
y cuyas generatrices son paralelas al vector A I J 4- K.
7-54. Determinar la ecuacion de la superIicie conica cuya directriz es la curva del ejercicio
7-53, y cuyo vertice es V (0, - 1 , 1 ) .
7.55. Obtener las proyecciones de la curva
Obtener la ecuacion del conjunto de puntos de tales perpendiculares.
7-57. Hallar las ecuaciones vectorial y cartesiana del helicoide recto, que se deIine como el
conjunto de puntos de las rectas que pasan por todos los puntos de una helice circular
y que son perpendiculares al eje de esta.
7-58. Sea (V, , C, .) un espacio unitario, y sea Vj, v2, . . v una base ortonormal del
mismo.
Demostrar que
7-61. Sea dimK V = n > 1 y sea ( , ~un producto interior en V.
Demostrar que si q eVz , entonces existe un unico vector x e V, tal que q ( y)
sobre los tres planos coordenados.
7-56. Por cada punto de la recta
r
x z 2
y = 0
Se considera la perpendicular a la recta
i - i ii
7-59. Sea P e Rnxn una matriz ortogonal. Demostrar que las lineas de P constituyen una base
ortonormal de R , considerando el producto interior habitual.
siendo X X x y Y 2 v
i - l .
n
i f s = c P U =
v x , y ~, Vye V.
www.FreeLibros.com
www.FreeLibros.com
7-62. Sean: un espacio unitario V de dimension Iinita y uv { Vi, v2, . . v una base
ortonormal del mismo.
Demostrar que
n
x e V ~x 2 ( x , v ) v
j=i '
ODUCTO INTERIOR. GEOMETRIA VECTORIAL
www.FreeLibros.com
www.FreeLibros.com
Captulo 8
VALORES Y VECTORES PROPIOS.
DIAGONALIZACION
8.1. INTRODUCCION
Desarrollamos en este capitulo los conceptos de valores y vectores propios de un
endomorIismo en un espacio vectorial y de la matriz asociada en el caso de dimension Iinita.
Demostramos las propiedades Iundamentales de los mismos y su determinacion a partir del
polinomio caracteristico. Encaramos despues el problema de la diagorializacion de
trasIormaciones lineales y matrices, asi como tambien el de la triangulacion. Por ultimo,
demostramos el teorema de Hamilton-Cayley.
8.2. VALORES Y VECTORES PROPIOS
8.2.1. Concepto
Consideremos un espacio vectorial (V, , K , .) y un endomorIismo
q : V-~ V
Definicin
El escalar X e K es un valor propio de q si y solo si existe un vector no nulo x e V, tal
que q( x ) Xx.
Todo vector no nulo que satisIaga la condicion anterior se llama vector propio de f,
asociado al valor propio X.
En consecuencia, un vector propio de un endomorIismo es un vector no nulo cuya imagen
es un multiplo escalar del mismo.
Las expresiones valor propio , valor caracteristico y autovalor son sinonimas.
Tambien lo son vector propio, vector caracteristico y autovector .
Ejemplo 8-1
Considerando (R2, , R , .) y la trasIormacion lineal
q : R2 R2
www.FreeLibros.com
www.FreeLibros.com
E
ORES Y VECTORES PROPIOS. DIAGONALIZACION
deIinida por
f ( x i , x 2) = (2jc1, 7 x 1 - 2 x 2) ,
el escalar X 2 es un valor propio de q, ya que el vector no nulo (2, 1) es tal que
q( 2 , 1) (4, 2) 2 ( 2,1)
(2, 1) es un vector propio asociado al valor propio 2.
8.2.2. Propiedad
Si X es un valor propio de una trasIormacion lineal q : V V, y si S es el conjunto de l0s
vectores propios asociados a X, entonces Sz S U 0 es un subespacio de V
En eIecto:
1 . Qe S x ^ S x ^ j ) .
2. S C V por deIinicion de S`.
3. Sean x e y pertenecientes a S`.
Si x 0 v y 0, entonces x y e S`.
Supongamos que x =0 e y =0
xv0 A y ` 0 ` x e S A y e S ~
(x) Xx Aq( y ) Xy =>f (x) q( y ) Xx Xy
~q (x y) X (x y) ~ x y e S:\ =>x y e S K
4. Sean I t e Ky x e S ` .
Si x 0 o a 0, entonces a x e S .
Consideremos el caso en que x =0 y a 0:
a e K A x ` O ` a e K a x e S ~a e K a / ( x ) - Xx =>
a q( x ) a (Xx) ~q(a x) X ( a x ) ~ a x e S `
` a x e S `
En consecuencia, (Sx, , K , .) es un subespacio de (V, , K, .).
De acuerdo con lo demostrado en 4., aIirmamos que si x es un vector propio deqasociado
a X, y a 0, entonces a x es un vector propio asociado al mismo valor propio.
Observamos tambien que la restriccion d e q a es una homotecia de razon X
8.2.3. Valores y vectores propios de una matriz
Definicin
El escalar X es un valor propio de la matriz A e Knxn si y solo si existe un vector no
n u l o X e K z 1 tal que AX- a X
www.FreeLibros.com
www.FreeLibros.com
0 vector no nulo que satisIaga la relacion AX X X se llama vector propio de A asociado
al valor entonCes que, un vector propio de una matriz A e Knxn es un vector propio de
sIormacion lineal de Kn en K representada por A en la base canonica.
Ejemplo -2.
V es el espacio vectorial sobre el cuerpo de los numeros reales, de las Iunciones
R R inIinitamente derivables y
ORES PROPIOS 265
es
el endomorIismo deIinido por
D : V
d i
D (I)
d x
_ .
entonces la Iuncion I e V, tal que I (x) e Az es un vector propio de la trasIormacion
lineal D, pues
D (I) = X e X VXe R
d x
Ejemplo 8-3
Si Ae Knxn es una matriz diagonal, entonces cualquier vector canonico Ei e Kx l ,
donde i = 1, 2 , es un vector propio de A.
En eIecto, sea
A
I d i 0
0 d2
0 0
Entonces
di
0 . . . 0
.
od2
.
o


o
0 .
dn
1

di
- dt Et
\ i
\ o l
A E
Los valores propios de A son los elementos de la diagonal.
8.2.4. Propiedad
Los vectores propios asociados a valtires propios distintos son linealmente independientes.
Sean
q : V -~ V
www.FreeLibros.com
www.FreeLibros.com
una trasIormacion lineal y x , , x2, . . x vectores propios asociados X,, , .
que
i i = j ~ t6 A,-
Demostraremos que Xi, x2, . . x son linealmente independientes.
1. M- 1 ` x i ` O ` x j esL.I.
2. Xj, x2, . . Xj, ) es L.I. ` Xj, x2, . xh, x` 1 x es L.I.
En eIecto, consideremos
h + 1
a i x i = 0 (1)
Multiplicamos por X~, 1
tti Xq, 1 Xj . . . aqi Xz l Xj, h l \ j+ i xhi
Aplicandoqa (1)
i X! . . . oth xit 0h l \ j + i xIt i 0
Restamos estas dos igualdades
i ( \ i + i - M x i + + h i +i - b i ) x h = 0
Por la hipotesis inductiva resulta
cl ( \ + i - ) 0 Vq 1, 2 , . . .,h
Y como , 1 X,- ` 0, resulta
0 Vq 1, 2, . . .,h
Sustituyendo en (1), se tiene
h 1 xh i 0
Os e a a It i 0, yaque xh i ` 0
En consecuencia
d i = a-i . . . oth = a h ! 0
Y por lo tanto
( x , , x 2 , . . . , x w esL.I.
8.2.5. Propiedad
Si q es una trasIormacion lineal del espacio vectorial V, de dimension Iinita,
entonces A e K es un valor propio de qs i y solo si q - Ai es singular.
i denota la trasIormacion identidad en V.
1. Sea Xun valor propio d e q. Entonces existe x `O en V, tal q u e q( x ) Ax
ORES Y VECTORES PROPIOS. DIAGONALIZACION
www.FreeLibros.com
www.FreeLibros.com
ECTORES PROPIOS
267
Ahora bien
q( x ) X x z q(x) - X i (x) 0 q(x) - (Xi) (x) 0 ~ ( f - M) (x) 0.
En consecuencia, N ( f - Ai) {0 ) , o s e a , q - Aq es singular.
2. Supongamos ahora que q - A i es singular, o sea, no inversible. Esto signiIica que
q - Aq: V -w V es tal que N ( f Aq) {0 . En consecuencia, existe x e V, x 0 tal
que ( f - A) (x) 0. De acuerdo con el algebra de las trasIormaciones lineales, se tiene
y por consiguiente Xes un valor propio de q.
En terminos de matrices esta propiedad se traduce de la siguiente manera:
Si Ae K nxn, entonces XeK es un valor propio de A si y solo si A - XI es singular.
Equivalentemente
Ejemplo 8-4
El lector podra demostrar, al realizar el trabajo practico, que todo endomorIismo en V,
donde V es un espacio vectorial de dimension Iinita y mayor o igual que 1 sobre el
cuerpo de los complejos, admite un vector propio.
Pero si el cuerpo no es C, entonces pueden no existir vectores propios. En eIecto, sea
(R2, , R , .) y sea
q( x ) (X i) (x) 0
Es decir
q( x ) Xi (x) Xx
Xes un valor propio de A gKnx D (A - Xl ) 0
entonces
Xi eos - x 2 sen 0 = Xxi
x 1 sen 6 + x 2 eos 6 = \ x 2
O sea
(X - eos 6) x ! x 2 sen 6 = 0
- x i sen 0 + (X - eos 6) x 2 0
www.FreeLibros.com
www.FreeLibros.com
Si el sistema admite soluciones no triviales debe ser
ORES Y VECTORES PROPIOS. DIAGONALIZACION
X eos 0
sen 0
sen 0
X eos 0
= 0
Luego
Si 0 60o, entonces
(X - eos 0)+ sen2 0 = 0
X2 2 Xcos 0 1 = 0
X= eos 0 \Jeos2 0 1
V R
Solo existen vectores propios si 0 - n ir.
Considerando (R2, , C , .) existen valores y vectores propios. El endomorIismo f
representa una rotacion del plano de angulo 0 alrededor del origen.
8.2.6. Propiedad
Si q : V- `V es una trasIormacion lineal, y si ademas existe una base
jyj j Vl ( v2........ v Iormada por los vectores propios deqcorrespondientes a los valores
propios Xj, ., X n , entonces la matriz de q respecto de esta base es la matriz diagonal
I X, 0 . . . 0
0 Xa . . . 0
D s s s
o o ... K
En eIecto, la matriz de q respecto de uv se obtienedeterminando las imagenes de los
vectores de dicha base, y teniendo en cuenta la deIinicion de vector propio es
q( v i ) Xi Vi Xi vj 0 v2 . . . 0 vn
q (V2) Xa v2 0 V! X2 v2 . . . 0 v
q( v ) XIl vM 0 v i 0 v 2 . . . Xz v
En consecuencia, resulta
D
X! 0
0 X2
0 0 . . . X
www.FreeLibros.com
www.FreeLibros.com
m
ECTORES PROPIOS
269
En este caso diremos que la trasIormacion lineal q esdiagonalizable.
Una consecuencia del teorema demostrado es la siguiente:
Si dim V = n y q : V-~ V es un endomorIismo que admite n valores propios distintos
entoncesq es diagonahzable.
Esta aIirmacion es obvia en virtud del teorema anterior y de 8 2 4
En terminos de matrices diremos que si A e K x admite valores propios distintos
entonces existe P K no singular, tal que
P 1 A P es diagonal
os
Ejemplo 8-5
Determinamos los valores y vectores propios de A, siendo
3 - 2
A
1
De acuerdo con 8.2.5., consideremos
D ( A - X 1 ) 0
0 sea
3 - X - 2
- 1 2 - X
= 0
Resolvemos respecto de X
( 3 - X) ( 2 - X) - 2 0
X2 - 5 X 4 0
5 V 25 - 16 5 3
2 2
Las raices son:
Para cada X resolvemos el sistema
~ X :
El sistema es equivalente a
De donde
(A - XI) X 0
2 x i - 2 x 2 0
- X j z 2 0
x i - x 2 0
x x x 2
www.FreeLibros.com
www.FreeLibros.com
.
ORES Y VECTORES PROPIOS. DIAGONALIZACION
Luego
1
Xi
o1
Xi es un vector propio asociado a \ 1.
2. a2 4 - ( : x : j ) ( ) z - z . - 2 z , 2 , a o
= - 2 x2 ~X2 `
X2 es un vector propio asociado a X2
Los vectores Xj y X2 son L.I. y Iorman una base de R2.
A es diagonalizable, y su Iorma diagonal es
1 0
D
0 4
Si P es la matriz cuyas columnas son los vectores propios, entonces es
P1 AP D
8.3. POLINOMIO CARACTERISTICO DE UNA MATRIZ
8.3.1. Nota sobre polinomios
Sea K uX el anillo de polinomios del cuerpo K (vease capitulo 12 deAlgebral, del mismo
autor).
Si P e K uX, escribimos
P( X) 2 a.-X1
v i0
donde a e K y an 0, o sea P n.
Dada la matriz cuadrada A, deIinimos
P (A) a A
v i0 1
Haciendo Ao 1, se tiene
PCA)- ,! A +an~l A - 1 -I . . . t A a 0 I
La matriz P (A) es la especializacion de X por A.
Ejemplo
En R uX consideremos
P(X) 2 X 2 - X - l
www.FreeLibros.com
www.FreeLibros.com
OLINOMIO CARACTERISTICO
271
y sea
Entonces
1 1
A
0 2
P (A) 2 A2 - A - I
1 1 q 1 1 q - I 1 q 1 0
2 . o o o o
0 2 q 0 2 q 0 2 q 0 1
= 2, 1 I U I - 1 + - 1
0 4 q 0 - 2 0 1
2 2 +/ - 1 = 2 1
0 8 q 1 0 - 3 q 0 5
Se veriIica que
1. (P ) (A) P (A) (A)
2. (P . ) (A) P (A) . (A)
3. (a P)(A) a P ( A)
Si i , vz2 , ~On son elementos de K y
P(X) ( X - a 1) ( X - a 1) . . . ( X - a II),
entonces es
P (A) (A otl I) (A - a2 I) . . . (A - an I)
Ejemplo 8-7
Si A xm, entonces existe un polinomio no nulo P K uX tal que P (A) N, donde
N denota la matriz nula del tipo n x n.
En eIecto, la dimension de (K x , , K , .) es n2. Esto signiIica que las matrices
I, A, A2 , . . A m
son linealmente dependientes si m ~ n2.
En consecuencia, existen escalares alt a2, . . am, no todos nulos, tales que
Am V i A1 1 . . . ! A a0 I N
O sea, existe
P ( X ) i i m X m +a m-l Xm1 + . . . + a i X + a 0
en K uX, que satisIace
P( A) N
www.FreeLibros.com
www.FreeLibros.com

ORES Y VECTORES PROPIOS. DIAGONALIZACION
8.3.2. Polinomio caracteristico
Definicin
Polinomio caracteristico de una matriz A e K Xil es el determinante de la matriz
XI A.
O sea
P (X) D (XI A)
X \\ ~~#12 . . . Q\n
21 ` 22 ~ ^In
~ ni
an2 . . . X nn
Desarrollando por los elementos de la primera columna y reiterando el procedimiento
los sucesivos coIactores, se obtiene una suma del tipo
en
( X - Iu) . . . ( X- ann) . . .
1primero, son de grado menor
P (X) X cn-1 X 1 . . . ci X c0
donde los terminos, a partir del primero, son de grado menor que n.
Resulta
Ejemplo 8-8
Determinamos el polinomio caracteristico de A, siendo
1 2 2
A
P (X) D (XI A)
X - 2 - 2
= ( X + 1 ) 6 A + 6
(X 1) (X2 4 X) 2 ( - 2 X) 3 . 2 X
X3 5 X2 4 X - 4 X 6 X X 3 5 X2 6 X
Una raiz es \ 0. Las otras dos lo son de
X2 5 X 6
O sea
5 1
X-t-1
2 - 2
- 2 X2 2
3 6 X + 6
2
- 2 - 2
6 X+ 6
3
- 2 2
X - 2 - 2
X =
2
www.FreeLibros.com
www.FreeLibros.com
Resulta
X2 3 X3 2
OLINOMIO CARACTERISTICO
273
8.3.3. Propiedad
El escalar X es un valor propio de A e K nxn si y solo si X es raiz del polinomio
caracteristico de A.
1. Sea Xun valor propio de A. Entonces, de acuerdo con 8.2.5., A - XI es singular, y por
consiguiente tambien lo es XI - A, o sea, D (XI - A) 0.
En consecuencia, Xes una raiz del polinomio caracteristico.
2. Supongamos que Xsea una raiz del polinomio caracteristico de A. Entonces es
O sea, XI - A y A XI son singulares. Esto signiIica que X es un valor propio de A,
por 8.2.5.
Usualmente, la determinacion de los valores propios de una matriz, es decir, de las raices
de su polinomio caracteristico, no es simple. Los metodos adecuados a este Iin son temas de
Calculo Numerico, que no trataremos en este texto.
Ejemplo 8-9
Determinamos los valores y vectores propios de A e C2 x2, siendo
P(X) 0 ` ( X - 2)2 4 0~X 2 2qz X2 2i
Los valores propios de A son
X, 2 2q Xj 2 - 2i
Para determinar un vector propio asociado a X resolvemos el sistema lineal
(XI - A)X 0
En eIecto, si X es un vector propio asociado a X, por 8.2.3. se tiene
D ( X l A) 0
El polinomio caracteristico es
P(X) D (XI A) X 2 2 (X 2)2 4
2 X 2
A X XX
De donde
X X A X 0
O sea
X I X - A X 0
www.FreeLibros.com
www.FreeLibros.com
Por distributividad es
(XI - A) X 0
2i 2 / x A 0 \ 2i x 1 - 2 x 2 =Q
1. Xt 2 2 z U
\ 2 2i j \ x 2j f 2 x i + 2 i x 2 =0
=>x2 = ix i
' 1
E ORES Y VECTORES PROPIOS. DIAGONALIZACION.
X 2 i
Un vector propio es Xj
1 /
2. X2 2 - a - 2 ( z x ) ( o ) - x 2z . - 2 qz , 0 - x , i z 2
Un vector propio asociado a X2 es
' i
\ i \
Si P u I , entonces es
\ i 1 q
q 2 2i 0
P 1 A P
0 2 - 2 i
La matriz A ha sido diagonalizada.
Ejemplo 8-10
Probaremos ahora que los valores propios de toda matriz involutiva son 1 o 1.
Sea A e KIlXIl, tal que A2 1.
Si X e K71x 1 es un vector propio asociado al valor propio X, entonces
A X XX (1)
Premultiplicando por A
Como A2 I, se tiene
O sea
De (1) y (2) se deduce
Es decir
A2 X X A X
= Xa
X XA X (2)
X XXX
(1 - X 2) X 0
www.FreeLibros.com
www.FreeLibros.com
OLINIMIO CARACTERISTICO
275
Como X 0, resulta 1 - X2 0, y en consecuencia X 1.
Con procedimiento analogo el lector podra comprobar que los valores propios de toda
matriz idempotente son 0 o 1, es decir
A2 - A z X - 1 . X0
8.3.4. Propiedad
Dos matrices semejantes tienen el mismo polinomio caracteristico, y en consecuencia los
mismos valores propios.
Hipotesis) A B e n K ilXIl
Tesis) D( XI - A) D( Xl B)
Demostracion)
A B =>3 Pno singular q B P 1 A P Por 4.19.5.
Entonces es
D (XI B) D (XP1 I P - P 1AP)
D uP1 (XI - A) P D (P 1) D (XI - A) D (P)
D (P-1) D (P) D (XI A) D (Pz1 P) D (XI A)
D (I) D (XI - A) 1 . D (XI - A) D (XI - A)
La reciproca no es cierta, ya que dos matrices pueden tener los mismos valores propios y
no ser semejantes.
Un contraejemplo se presenta considerando las matrices
i l 0 i 1 3
A - ( o . ) y B ( o .
8.3.5. Polinomio caracterstico de una trasformacin lineal
Sea q : V -*V una trasIormacion lineal y sea uv Vj, v2, . . v una base de V.
Entoncesqesta caracterizada por una matriz A e Knxn respecto de uv.
Si uv v , v2, . . . , vn I es otra base de V, entonces existe una matriz no singular
P e K.nxn tal que la matriz d e q, respecto de la base uvveriI ica
B ` F 1 AP
Las matrices A y B admiten el mismo polinomio caracteristico, de acuerdo con 8.3.4. El
polinomio caracteristico de cualquiera de las matrices que caracterizan a q se llama
polinomio caracteristico de la trasIormacion lineal.
www.FreeLibros.com
www.FreeLibros.com

ORES Y VECTORES PROPIOS. DIAGONALIZACION.
8.4. DIAGONALIZACION DE MATRICES
8.4.1. DeIinicion
Una matriz A e Knxn es diagonalizable si y solo si es semejante a una matriz diagona
O sea
A e Knx es diagonalizable o 3 P no singular q P 1 A P D
donde D es diagonal.
8.4.2. Propiedad
Si A e K xn es diagonalizable, entonces su Iorma diagonal es D 6y), donde \
i = 1 , 2 , . . n son los valores propios de A.
En eIecto:
C0(
di 0
0 \ - d 2
0 0 \ - d y
A es diagonalizable ~A D ~D( M D)
.7` (A - d )
El polinomio caracteristico de A es
P (k) = ( \ - d l ) ( K - d 2) . . . ( k ~ d tl)
En consecuencia, los elementos de la matriz diagonal son los valores propios de A.
8.4.2. Propiedad
Una matriz A e K nx es diagonalizable si y solo si A admite n vectores propio
linealmente independientes.
1. Sea A diagonalizable.
A es diagonalizable ~A D z 3 P n o singular qP 1AP D~ AP PD (1)
Particionando P en vectores columna, o sea
P (X1 X2 . . . X),
es
P D (Xj X2 . . . X)
q Xj 0 . . . 0
0 ` 0
0 0 . . .
ee
ind
,o
o
o
www.FreeLibros.com
www.FreeLibros.com
DI ONALIZACION
277
Ademas
AP A( X, X2 . . . X ) ( AX, AX2 . . . AXj (3)
De (1). (2), y (3) resulta
AX \ X i 1, 2, . . n
Luego las columnas de P son n vectores propios de A, y como P es no singular, tales
columnas son L.I.
En consecuencia, A admite n vectores propios L.I.
2. A admite n vectores propios L.I.
Sean tales vectores propios: X j , X2, , . X.
Por deIinicion es
0 sea, A es diagonalizable.
8.4.3. Raices del polinomio caracteristico y diagonaiizacion
De acuerdo con 8.2.4., si los valores propios del polinomio caracteristico de A e Knxn son
elementos distintos de K, entonces los vectores propios asociados son nealmente
independientes, y, por 8.4.2.2., A es diagonalizable.
En general, si el polinomio caracteristico de A tiene raices multiples, la matriz no es
diagonalizable. Para que lo sea, debe cumplirse la condicion suIiciente demostrada en 8.4.2.,
lo que signiIica que a toda raiz multiple de orden p debe corresponderle un sistema lineal y
homogeneo cuyo espacio solucion tenga dimension p.
Ejemplo 8-11
P - (X! X2 . . . X) y D - ( - 5 a)
Se tiene
A P (A X A X2 . . . A X z ) ` , X t 2 X2 . . . X,, Xj,)`
(x i X2 . . . X) (As 5jj) P D
Como P es no singular resulta
P 1 A P D
La matriz
no es diagonalizable
www.FreeLibros.com
www.FreeLibros.com

VALORES Y VECTORES PROPIOS. DIAGONALIZACION.
Determinamos los valores propios
P(A) D ( X l - A )
X 1 - 1 o
0 X - l - i
0 0 X - l
(X l ) 3 ` Xi X2 z- X3 1.
Los vectores propios asociados a esta raiz triple satisIacen a
( X I - A) X 0
O sea
Luego
0 - 1 O Xj
0 1 - 1 x( `2
0 0 0
0 z ! - x-i 0 x 3 0
Oxj 0x 2 - X3 0
El rango de la matriz de coeIiciente es 2, y en consecuencia es
dim S 3 - 2 1
O sea, hay un solo vector propio linealmente independiente de la matriz A.
Por consiguiente, A no es diagonalizable.
Ejemplo 8-12
La matriz
es diagonalizable y sus valores propios no son todos distintos.
En eIecto:
P (X) D (XI - A)
CX- 1)
X 3 0 4
- 4 X - l - 4
- 2 0 X - 3
X 3 4
2 X - 3
~Xi X3 1 , X3 - 1
( X - 1)(X2 - 1)z
www.FreeLibros.com
www.FreeLibros.com
T I N CION
279
1. Xi - - 1 z
La matriz del sistema tiene rango i , o sea
diro S 3 - 1 2
2. A Aj 1 le corresponde un vector propio linealmente independiente. Luego A es
diagonalizable y su Iorma diagonal es
l 0 o
D x 0 1 0
0 0 - 1
8.5. TRIANGULACION DE ENDOMORFISMOS Y DE MATRICES
Hemos visto que no siempre es posible diagonalizar una trasIormacion lineal o una matriz
cuadrada. Cabe preguntarse si es posible determinar una base tal que, respecto de ella, la
matriz de una trasIormacion lineal de un espacio de dimension Imita en si mismo sea
triangular. La respuesta es aIirmativa si el cuerpo es el de los numeros complejos.
Consideremos un endomorIismo
q : V -~ V
donde ditrtK V n > 1.
En lo que sigue, introduciremos el vocablo fan, cuya traduccion es abanico, para denotar
una Iamilia de subespacios de V que satisIace ciertas condiciones.
8.5.1. Concepto
Un Ian d e qe n V es unan-upla de subespacios de V: S i ,S2, . . Sn, tales que
i ) Son crecientes en el sentido de inclusion:
S, C S 2 C S 3 C . . . C S
i i ) dim S,- i , Vi 1, 2, . . n
iii) Son invariantes, o sea
x e S z-q(x) e SI Vi 1 , 2 , . . . , n
Esta condicion equivale a
q( S ) C S Vi 1, 2 , . . . ,
Es obvio que Sn V.
Definicin
Si Si , S2, . . . , S j es un Ian de q en V, entonces la Iamilia uv ( Vi , v2, , v
www.FreeLibros.com
www.FreeLibros.com
es una base Ian de V si y solo si vj . vz , . . , v I \ es una base de SI para todo
q 1 , 2 , . . . , w.
El teorema de extension 2.6.3. nos permite aIirmar que existe una base Ian.
8.5.2. Propiedad
Si uv es una base Ian de V, entonces la matriz asociada a todo endomorIismoq : V - V es
triangular superior.
Sabemos aue para obtener la matriz de q respecto de una base, hay que determinar las
imagenesde los vectores de la misma y expresarlos como combinaciones lineales de tal
vectores. Teniendo en cuenta ademas la deIinicion de subespacio invariante, resulta
Vi eSi ~q(vi)esi ~q(vi) Iln vi
v2 e S 2 ~q(v2) e S 2 z q(v2) 0 n Vi + a22 v2
vn e S =>f(y) e Sn ~q(vn) - (i Vi a2n v2 wn v
Por consiguiente, la matriz de q respecto de la base Ian es
011 ^
0 022 Q'in
280 VALORES Y VECTORES PROPIOS. DIAGONALIZACION
A
0 0 . . . ann
Si f : V -z e es una trasIormacion lineal y si existe una base respecto de la cual la matri
de Ies triangular, entonces diremos q u e qe s triangulable.
En terminos de matrices, diremos que A eKlxn es triangulable y solo si exis
P e KrtXIl no singular, tal que P1 A P es triangul ar. Demostraremos que toda matriz pued
ser triangulada sobre el cuerpo C.
8.5.3. Propiedad
Si V es un espacio vectorial de dimension Iinita mayor o igual que 1, sobre el cuerpo
los complejos, y si q : V -~ V es una trasIormacion lineal, entonces existe un Ian de q en .
Demostramos esta aIirmacion inductivamente.
1 Si dim V 1, entonces nada hay que probar.
2. Supongamos que la propiedad es valida si dim V w - 1. Demostraremos que lo esj
dim V n.
Sea V, un vector propio de q, el cual existe de acuerdo con el ejercicio 8-46, y sea S,
subesoacio generado por Vi. Resulta dim Si 1. ,, , c
Siendo Sr un subespacio de V, existe un subespacio cuya suma directa con S,
(ejercicio 7-40), o sea
V Si w
www.FreeLibros.com
www.FreeLibros.com
Consideremos las proyecciones p , y p 2 de V sobre S t y , respectivamente.
La composicion p 2 f e s una trasIormacion lineal de V en V tal que si x e e, entonces
q( x ) e e. Restringiendo el dominio a e, podemos consi derar a p 2 f como una
trasIormacion lineal de e en e. De acuerdo con la hipotesis inductiva, existe un Ian de
p 2 o q e n . Sea este
( e , , w 2 ......... w ` )
Consideremos ahora los subespacios
Sf=Si + W M
para 2, 3 , . . . , n.
Se veriIica que dim SI i, ya que si x ej , w2, . . ., wn , J es una base de e, entonces
Vi, ei , . . eM es una base de S,-, i 2 , 3 , . . n.
Ademas, S C Si1 para todo q 1 , 2 , . . . , .
Para demostrar que , S2, . . S es un Ian de q en V, es suIiciente probar que
/ ( V ) c V(,
Observamos que
f = i v f = ( p i + p 2) f = p 1 f + p2 f (1)
puespi + p 2 =i y (ver346)
Sea x un vector cualquiera de S,-:
x e S,- ~ x av^ + w , donde a e Cy we
Teniendo en cuenta (1) es
q ( X ) ( P! o f + p 2 o f ) ( x ) = ( p1 o f ) ( x ) + ( p 2 0 q ) ( x ) ( 2 )
Ahora bien
P i 0 f ) (x) p i f (x) e S i , y en consecuencia
( Pi f ) ( x ) e S (3)
Por otra parte
(P2 o f ) (x) i p2 o f )(av1) +( p2 of ) ( w) ^ a p 2 ( q ( v ! ) j +( p2 o q ) (w,)
= a p 2 (Xi vO + (p2 oq) ( wi) = a \ i p 2 (y1) + (p2 o q) (wt) 0 -t-v~2 oq) ( w, )
=(P2 f) (W,)
de acuerdo con la descomposicion de x, la deIinicion de trasIormacion lineal, y considerando
que Vj es un vector propio de q. Por la hipotesis inductiva se sabe que (p2 f ) (e,) C e,-, y
por consiguiente
(Pi o f ) (x) ( p2 o f ) (w) e e,
O sea
(P 2 of)(x ) eS, (4)
T I N CION 2gl
www.FreeLibros.com
www.FreeLibros.com

ORES Y VECTORES PROPIOS. DIAGONALIZACION.
Considerando (2), (3) y (4) resulta
q( x ) e S , -
Es decir
x e S ` q ( x ) eS
Luego x S i , S2, . . S es un Ian d e qe n V.
Son consecuencias inmediatas de este teorema de existencia y de 8.5.2., las siguientes:
I. Si dimc V = n > 1 y f : V ->V es una trasIormacion lineal, entonces existe una base de
V tal que la matriz de f respecto de dicha base es triangular superior.
II. Si Ae C nxn, entonces existe P e C nx , no singular, tal que P 1 AP es triangular
superior.
8.6. TEOREMA DE HAMILTONCAYLEY
El teorema de Hamilton-Cayley, Iundamental en la teoria de la resolucion de ecuaciones
matriciales, aIirma que toda matriz cuadrada es raiz de su polinomio caracteristico, esto es,
siP(X) es el polinomio caracteristico de A e K XIl, entonces P (A) N.
Desarrollaremos primero una demostracion en el caso particular que se presenta si la
matriz A, del tipo n x n , admite n vectores propios.
Para esto utilizaremos la siguiente propiedad que se propone como ejercicio del trabajo
practico: si X,- es un vector propio de la matriz A, asociado al valor propio X, entonces X es
un vector propio de la matriz A , correspondiente al valor propio X .
Consideremos el polinomio caracteristico de A
P (X) Xn 4- cn i X 1 . . . Ci X cq
Entonces
P (A) A A1+ . . . + c 1 A + c0 l
Multiplicando a derecha por el vector propio X,- asociado al valor propio X, y teniendo en
cuenta la propiedad mencionada, es
P(A)XI A X, cn , A 1 Xq . . . c 1 A Xi c 0 X r
X X, e , XT1 X, . . . c, X X c0 X
(X c . i X T . . . C, X, c0)X
0X,. 0 Vi 1 , 2 ........ n (1)
Sea P (Xx X2 . . . XM) la matriz cuyas columnas son los vectores propios de A.
Considerando (1), se tiene
P ( A) . P ( P( A) X, P(A)X2 . . . P( A) X ) N
Y como P es no singular, resulta
P ( A) . P . P 1 N . P 1
www.FreeLibros.com
www.FreeLibros.com
TEOREMA DE HAMILTON - CAYLEY
283
0 sea
P (A) N
A
Ejemplo 8-13
Utilizando el teorema de Hamilton-Cayley, determinamos la inversa de la matriz A del
ejemplo 8-5.
3 - 2
, 1 2
El polinomio caracteristico de A, es
P (X) X2 - 5 X 4
Entonces es
P(A) A2 5 A 4 I N
O sea i
I (A2 - 5 A)
En consecuencia, multiplicando por A s
A1 -----(A - 5 I)
Como
Resulta
A - 5 I
A1
- 2 - 2
- 1 - 3
M i
2 2
1
4 4 I
Demostraremos ahora que toda matriz A e Cnx,t satisIace a su polinomio caracteristico, o
sea
A e Cnxn =>P (A) N
En eIecto, sea el polinomio caracteristico de A:
P (X) D (XI A) (1)
Sabemos que el producto de toda matriz cuadrada por su adjunta es igual al determinante
de aquella por la matriz identidad (5,8.3.). Entonces
(XI - A) Adj (XI - A) D (XI A) . I
www.FreeLibros.com
www.FreeLibros.com
ORES Y VECTORES PROPIOS. DIAGONALIZACION.
Teniendo en cuenta (1) es
(XI A) Adj (XI A) P (X) . I (2)
Los elementos de Adj (XI - A), por ser los coIactores de (XI - A), son polinomios de
grado menor o igual que n - 1, y en consecuencia
Adj (XI - A) An^ Xz1 A 2 X -a . . . A1 X A0 (3)
De (2) y (3) resulta
An i X (A 2 - A A i) X 1 (A 3 - A An J ) X -z . . .
(A0 - A AOX - A Ao X I c i X 1I . . . XI c0 I
O sea
An-j I
An-2 ~ A An i Cn-1 I
An3 A An2 CIi-2 `
A o A Aj Cj I
A Aq Cq I
Luego de premultiplicar por A , An 1, . . A e I, respectivamente, se tiene
A A n_i = A
A 1 A 2 Az1An i cn i A n 1
A""2 Ajj3 - A 1A i Cd2 A-2
A A0 - A2 Ax Cj A
A Aq C q I
Sumando, despues de reducir, es
N A n 4- cn. i A 1 . . . C , A c0 I
O sea
P (A) N
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO VIII
8-14. Determinar los valores y vectores propios de las siguientes trasIormaciones lineales:
1. q : R2 ~R2 deIinida por f ( x u x 2) = (4x 3z 2 , 3 ` - 4x2)
2. q : R3 -z R3 tal q u e q(x, y, z)= (2y ~ z , 2 x - z , 2x~y)
8-15. Obtener los valores y vectores propios, si existen, de las matrices siguientes con
elementos en R:
8-16. Demostrar que si X es un valor propio de A e K x y esta es no singular, entonces X es
no nulo.
8-17. Demostrar que si X es un valor propio de la matriz no singular A, entonces X1 es un
valor propio de A 1.
8-18. Demostrar que si X, es un vector propio de la matriz A asociado al valor propio X,
entonces X es un vector propio de A n correspondiente al valor propio XI
8-19. Demostrar que si X! es un vector propio de la matriz A, correspondiente al valor
propio Xj, entonces Y S 1 X, es un vector propio de la matriz S 1 A S, asociado a
X!.
8-20. Determinar el polinomio caracteristico, los valores y vectores propios de cada una de
las siguientes matrices complejas:
8-21. Demostrar que si P (X) es el polinomio caracteristico de la matriz A eCnxn entonces
cn-1 el opuesto de la suma de los valores propios y el termino independiente es igual
al producto de ( - l ) n y el producto de los valores propios.
www.FreeLibros.com
www.FreeLibros.com

ORES Y VECTORES PROPIOS. DIAGONALIZACION.
8-22. Demostrar que si A e Cnx entonces la traza de A es igual a la suma de l os valores
propios y el determinante de A es igual al producto de los valores propios.
8-23. Demostrar que los valores propios de toda matriz idempotente son 0 o 1.
8-24. Demostrar que dos matrices traspuestas tienen el mismo polinomio caracteristico.
8-25. Investigar si la siguiente matriz es diagonalizable
8-26. Sea una matriz A e Cnxn tal que Ak I. Demostrar que si X es un valor propio de A,
entonces XIe 1.
8-27. Demostrar que los valores propios de una matriz triangular son los elementos de la
diagonal.
8-28. Por deIinicion, una matriz cuadrada A es nilpotente si y solo si existe un entero
positivo k, tal que Ak N. Demostrar que los valores propios de toda matriz
nilpotente son nulos.
8-29. Demostrar las siguientes propiedades:
1. Dos matrices semejantes tienen sus trazas iguales.
2. Si k es un entero positivo, entonces tr Ah 2 X .
3. La traza de toda matriz idempotente es igual a su rango.
4. La traza de una suma es igual a la suma de las trazas.
5. Las trazas de dos matrices traspuestas son iguales.
6. Las matrices A B y B A tienen trazas iguales.
7. tr (ABC) tr (BCA) tr (CAB)
8. Si P es ortogonal, entonces tr (PI A P) tr A.
8-30. Considerando el producto interior habitual en R2, determinar una base ortonormal de
vectores propios de A, siendo
8-31. Demostrar que si todos los valores propios de una matriz son no nulos, entonces dicha
matriz es no singular.
8-32. Calcular P (A), siendo P (X) X3 X 1 y
www.FreeLibros.com
www.FreeLibros.com
8-33. Demostrar que si A es una matriz simetrica y P e R uX, entonces P (A) es una matriz
simetrica.
8-34. Demostrar que si A es hermitiana y P e R uX, entonces P (A) es hermitiana.
8-35 Sean A y P elementos de Knxn, tales que P es no singular. Demostrar que
(Pt a P)It P 1Ah P
8-36. Considerando dos matrices A y B como en el ejercicio anterior, demostrar que si
P eK uX, entonces
P (B 1 A B) B P (A) B
8-37. VeriIicar que la matriz
eos sen y
T DO PRACTICO VIII 287
A
sen iq eos
admite un vector propio en R2, cualquiera que sea e R. Probar que existe un vector
X tal que A X X.
8-38. Con relacion al ejercicio anterior, demostrar que si Y es un vector de R2 ortogonal a X,
entonces A Y Y. Interpretar geometricamente.
8-39. Demostrar que si P es una matriz ortogonal del tipo 2 X 2 y D (P) - 1 , entonces
existe un numero real y tal que
q 1 0 q eos v -sen
P =
0 - 1 q sen eos
8-40. Sean X un valor propio de A e KHxn y f un polinomio de K uX. Demostrar queq(X) es
un valor propio d e q(A) .
8-41. Obtener una base Ian de los endomorIismos de C2 caracterizados por las matrices
*-(::) h i :
8'42. Demostrar que si X es un valor propio de A e K xn, entonces a Xes un valor propio
de a I A , V a K.
8-43. Demostrar que una matriz A e Cnxn es singular si y solo si admite algun valor propio
igual a cero.
8-44. Diagonalizar, si es posible, las matrices
1 l i
A x ) eC2x2
0 1
www.FreeLibros.com
www.FreeLibros.com

ORES Y VECTORES PROPIOS. DIAGONALIZACION.
A -
/ 1
___
0
2
0
1
2
1 1
2 2
j
2
1
2
0
e R
3x3
8-45. Sean A
- 2
2
y P(X) X2 - l.
Diagonalizar P (A), si es posible.
8-46, Sabiendo que dimc V ~ 1 y que q : V V es un endomorIismo, demostrar que existe
un vector propio de q.
www.FreeLibros.com
www.FreeLibros.com
Captulo 9
FORMAS BILINEALES Y CUADRATICAS
9.1. INTRODUCCION
Presentamos en este capitulo los conceptos de Iorma bilineal sobre un espacio vectorial,
de Iorma cuadratica asociada, y sus conexiones con la matriz de cada una respecto de una
base en el caso de dimension Iinita. Se estudian los operadores adjuntos, traspuestos,
hermitianos y simetricos, asi como tambien algunas propiedades de sus valores propios. Esta
situacion se reitera en el caso de operadores unitarios y ortogonales. Despues de la
demostracion del teorema de Sylvester, se trata el tema de la diagonalizacion de operadores
simetricos y de las matrices correspondientes. Ademas de la descomposicion espectral de una
matriz diagonalizable, se estudia la congruencia de Iormas cuadraticas reales, la reduccion a
la Iorma canonica y el signo de una Iorma cuadratica.
9.2. FORMAS BILINEALES
9.2.1. Concepto
Sean: (V, , K , .) un espacio vectorial y q una Iuncionde V2 en K.
Definicin
La Iuncion q : V2 -+ K es una Iorma bilineal sobre V si y solo si es lineal respecto de los
dos argumentos.
O sea
q : V2 K es una Iorma bilineal sobre V si y solo si satisIace:
1. Linealidad respecto del primer argumento
f ( a x + b x \ y ) = a f ( x , y ) + b f ( x \ y )
2. Linealidad respecto del segundo argumento
q ( x . c y d y ) c f ( x t y ) + d f (x, y)
cualesquiera que sean x, x, y, y en V y a, b, c, d, en K.
www.FreeLibros.com
www.FreeLibros.com
9.
ORMAS BILINEAI.ES Y CUADRATICAS
S i qe s una Iorma bilineal sobre V, entonces se veriIica que
f ( a x , y) = a f ( x , y) q( x , a y)
El lector puede demostrar que el conjunto de las Iormas bilineales sobre V es un espacio
vectorial sobre el cuerpo K, comprobando que s i qy g son dos Iormas bilineales cualesquiera
y si oc e K, entoncesq g y a f son Iormas bilineales.
Ejemplo 9-1
Considerando (Kn, , K , .), la Iuncion
q : K X K ` K
deIinida por
f ( x , y ) = i i x t y
es una Iorma bilineal sobre Kn, ya que veriIica las condiciones 1. y 2. de la deIinicion.
Ejemplo 9-2
Asociada a la matriz A e KnXtt, la Iuncion
q : K n x r ` K
deIinida por
q (X, Y) X( AY (1)
es una Iorma bilineal en K , donde la imagen q( X , Y) e Kl xl se identiIica con un
escalar en virtud del isomorIismo entre K1x 1 y K.
En eIecto:
f ( a X -I b Y, Z) (a X b Y)* A Z (a Xz b Y*) A Z
- a X* A Z b Yz A Z a f (X, Z) b f (Y, Z)
Analogamente se prueba la linealidad deqrespecto del segundo argumento.
La expresion escalar de (1), eIectuando el producto de matrices, es
q( X , Y) = X A Y = (X l X2 . . . Xn)
011 12 . . . Ilih
y i
a 2 \ 22 O-i
y
1 n2 IlIm y
( 2 Xf On 2 x a2 . . . 2 z 0 ` )
' = l =
y i
y 2
y n
n n
y, x a u a u X t y i
i - i 1 il 1 y i =l ) =l u
www.FreeLibros.com
www.FreeLibros.com
ORMAS BILINEALKS SIMETRICAS
291
Sea V un espacio de dimension n > 1. Consideremos una base uv vt , v2, . . v ) de
V y la Iorma bilineal q : V2 K.
Entoncesqe s t a caracterizada por los valores
a y q ( v i , v q )
son los elementos de la matriz A e K nxn, llamada matriz de qrespecto de la base uv.
En eIecto, si x e y son dos vectores cualesquiera de V, expresandolos en terminos de la
base uv, es
q ( x ` q C . I x t v t . j i y j v j ) * % f x i y j f ( v [ , v]) =
2 S iIIx i~q Xt AY
donde X e Y son las matrices columnas cuyos elementos son las coordenadas de x e y
respecto de la base uv.
9.2.3. Forma bilineal simetrica
Sea q : V2 -~ K una Iorma bilineal.
Definicin
La Iorma bilineal q es simetrica si y solo si
q( x , y ) q ( y , x )
cualesquiera que sean x e y en V.
Si K R, y ( , ~es un producto interior en V, entonces q : V2 R deIinida por
q( x , y) vx, y ~ (1) `
es una Iorma bilineal simetrica.
Si uv Vx, v2, . . vn es una base ortogonal de V, o sea
i q ` q ( v i, vq) ay 0
entonces la matriz A de la Iorma bilineal (1) es diagonal
ax 0 . . . 0
9 2.2. Matriz de una Iorma bilineal
A
0 a-i . . . 0
0 0 . . . &ri
y la Iorma se dice diagonalizada.
Resulta
q ( x , y ) - l 1 ai x yi
www.FreeLibros.com
www.FreeLibros.com
292 FORMAS BIUNEALES Y CUADRATICAS
Si uv es orionormal resulta
q ( x, y) = x , y l
9.2.4. Propiedad
T 2 T X l T reT nta unaformaMineal siratricasiys,sAes
. i~eaq la Iorma bilineal simetrica asociada a A.
qe s simetrica q( X , Y) q( Y , X) ~X, AY Yi AX
Como
Y AX (Y AX) Xi A Y
por ser Y A X un escalar y por traspuesta de un producto, resulta
Xt AY Xi AI Y V X , Y e K
O sea
Xz (A - A ) Y 0 V X . Y e K 11
En consecuencia
A - A* - N
Y por lo tanto
A - A
2. Sea A simetrica. Entonces
q Y ) X A Y (Xl AY)t YI A x Y, AXq( Y X)
Luego q es simetrica.
Ejemplo 9-3.
Desarrollamos la Iorma bilineal simetrica asociada a la m a t e A, siendo
/ l - l 2
A - 1 3 1
\ 2 1 - 2
Resulta
q( X, Y) Xl AY (I l J l 3 ) ( \ ? '
2 1 _ 2
. ( z i z 2 2x3 - z , 3 x 2 z 3 2x , + x 2 ~ 2 )
y
x
73
www.FreeLibros.com
www.FreeLibros.com
MATRIZ DE UNA FORMA HERMITIANA
9.3. FORMAS HERMITIANAS
99
9.3.1- Concepto
Sea V un espacio vectorial sobre el cuerpo de los complejos.
Definicin
La Iuncion q : V2 C es una Iorma hermitiana sobre V si y solo s i q satisIace las
condiciones de linealidad respecto del primer argumento y de simetria conjugada.
0 sea
i ) f ( ax b x \ y) a f (x, y) b f ( x y)
i) q( x , y ) q ( y , x)
Ejemplo 9-4
En ( C , , C, .) la Iuncion
q : Cn X Cn -v C
deIinida por
( ( ) ( ( *
es una Iorma hermitiana deIinida positiva, ya que satisIace los axiomas del producto
interior usual en un espacio unitario (vease el ejercicio 7-46).
9.3.2. Matriz de una Iorma hermitiana
Sea (V, , C , .) un espacio unitario, es decir, un espacio vectorial sobre el cuerpo C,
donde esta deIinido un producto interior como en el ejercicio 7-46.
La Iuncion
q : V2 - C
tal que
q ( x , y ) v x , y )
es una Iorma hermitiana. Si V es de dimension n ~ 1, y uv Vj , V, . . v J es una
base, entonces

/(x,y) = <x,y> = <2 ' xfVi.S I x,7,<v,,v,> =
l l J T1i -!-q i
au x yj = x t A Y
www.FreeLibros.com
www.FreeLibros.com
9E
ORMAS BILINEALES Y CUADRATICAS
Respecto de la base elegida, la Iorma hermitiana esta caracterizada por la matriz A,
cuyo elemento generico
a i VI , vs- )
es tal que
0y vvi , vq ~ vvq , vl-~ as-
En consecuencia, la matriz A veriIica
A - I Az
o sea, A es hermitiana.
9.4. FORMAS CUADRATICAS
9.4.1. Concepto
Sean: (V, , K , .) un espacio vectorial de dimension Iinita y g : V2 K una Iorma
bilineal simetrica sobre V.
Definicin
Forma cuadratica asociada a la Iorma bilineal simetrica g es la Iuncion
q : V- ~K
deIinida por
q ( x ) z ( x , x )
Como la Iorma bilineal simetrica veriIica los axiomas i), ii) y iii) del producto interior
deIinido en 7.2.1., es usual escribir
S (Xj x ) ( x, x )
Si V K y si A e Knxn es la matriz simetrica de la Iorma bilineal, entonces la Iorma
cuadratica asociada esta deIinida por
/ ( X ) = X A X = , 2
Observamos que el desarrollo de una Iorma cuadratica, en terminos de las variables
z i , z 2. ~x n> corresponde a un polinomio homogeneo de grado 2, donde los coeIicientes
de los terminos cuadraticos son los elementos de la diagonal de la matriz simetrica
correspondiente, y cada coeIiciente de un termino rectangular x t xj es el duplo del elemento
aj de la misma.
Definicin
Una Iorma cuadratica Xz A X es no degenerada si y solo si A es no singular.
www.FreeLibros.com
www.FreeLibros.com
ORMAS CUADRATICAS
295
La matriz correspondiente a la Iorma cuadratica
f : R3 - R
Ejemplo 9-5
deIinida por
f ( x ) = x \ + 2 x \ + 2 x 1 - 2 x x x 2 4 z ! x 3
es
Como
A
D (A) - 1 2 0 =2 - 6 0
1 1 0 1 1
resulta A no singular, y en consecuenciaqes no degenerada.
9.4.2. Formas cuadraticas y cambio de base
Sea q : V -~ K una Iorma cuadratica caracterizada por la matriz A e K xn respecto de la
base uv.
Se tiene entonces
q (x) Xz AX
donde X es la matriz columna cuyos elementos son las coordenadas de x respecto de la base
lvl-
Si en V se considera una base uvz, respecto de esta, el vector x se representa mediante X.
Se veriIica que
X P X
donde P es la matriz de pasaje deIinida en 4.19.
Sustituyendo en la primera igualdad
q( x ) (P X) I A (P X) - Xz P A P X
La matriz de q respecto de la nueva base es
B P A P
Las matrices A y B se llaman congruentes.
Definicin
A e K z Mes congruente a B e Kxn si y solo si existe P no singular tal que B PI A P.
Sabemos que el rango de una matriz no varia si se la multiplica por matrices no singulares.
En consecuencia, si dos matrices son congruentes tienen el mismo rango.
www.FreeLibros.com
www.FreeLibros.com
9
FORMAS BILINEALES Y CUADRATICAS
Rango de una Iorma cuadratica es el rango de cualquiera de h* m t
representan. siquiera ae las matrices que la
En consecuencia, una Iorma cuadratica es no degenerada si v
dimension del espacio. Una Iorma cuadratirz a q SUrang0 es ` ual a
la dimension del espacio. z degenerada S1V si su rango es menor que
Definicin
Ejemplo 9-6.
La Iorma cuadraticaqesta caracterizada por la matriz
q JO 0 2
0 6 0
2 0 7
respecto de la base canonica en R3
Determinamos la matriz de q respecto de la base
1
La matriz de pasaje es
La matriz B de la Iorma cuadraticaqrespecto de la nueva base es
q 6 0 0
B P A P ( 0 6 0
0 0 11
9.5. OPERADORES ADJUNTOS Y TRASPUESTOS
Una trasIormacion lineal f V -~ V spra \ u mt,An z u -
operador en V. llamada tambien operador lineal o simplemente
Propiedad
un en ^
v q ( x ) , y~ v x, q z ( y) ~
www.FreeLibros.com
www.FreeLibros.com
Demostracion)
Sea y cualquier elemento de V. DeIinimos la Iuncion
F : V -wC
mediante
F (x) v q ( x ) , y ) (1)
La deIinicion (1) caracteriza un Iuncional, es decir, un elemento de Vz. De acuerdo con el
enunciado del ejercicio 7-60, existe en V un elemento y, unico, tal que
F ( x) vx , y~ (2)
cualquiera que sea x e V.
De (1) y (2) resulta
v q ( x ) ~y~ ( x , y ~ (3)
En consecuencia, para cada y e V, existe y e V, unico, que satisIace (3). Podemos deIinir
entonces la Iuncion
f* : V-~ V
mediante
qz ( y ) y
La Iuncionqz satisIace la condicion
vq( x) , y ~ vx , q z (y)~ Vx Vy e V
Ademas es lineal, pues
vx , qz (a y b y)~ v q ( x ) , a y b y) a v q ( x ) ,y ~ b v q(x) , y )
vx , f * (y) ~ b vx , J* (y) ~ vx , a f * ( y) ) ( x , b f* (y) ) -
-v x , a f * (y) + b f * (y)~
Esta relacion se veriIica cualquiera que sea x e V. En consecuencia
f *(f *,)=Sff * () *f *()
O sea
f* es un operador lineal.
La unicidad de f * se justiIica porque para cada y e V existe y =f * (y), unico, tal que
F( x) vx, qz ( y) ~
El operador f * a que se reIiere el teorema anterior, se llama adjunto deq.
OPERADORES 297
www.FreeLibros.com
www.FreeLibros.com
9
ORMAS BILINEALES Y CUADRATICAS
En un espacio de dimension Iinita con producto interior, un operador f * se llama
adjunto d e qs i y solo si
v q(x) ,y~ vx, f * (y)~
cualesquiera que sean x e y en V.
Si el cuerpo es R, el operador qz se llama traspuesto de f y se denota
r = f
9.5.2. Matriz del operador adjunto
Si A es la matriz del operador f respecto de una base ortonormal, entonces B z e s la
matriz del operador adjunto f *.
En eIecto, sea uv ( Vi , vz , . . . , v una base ortonormal de V. De acuerdo con el
ejercicio 7-61, se veriIica que
q( v j ) vq(vj) , v , ~vx+ ( f ( v j ) , v 2 ~v2 . . . vq(vs-) ,v ~vn Vq 1 , 2 , . . . ,
En consecuencia, el elemento generico de la matriz A es
ay vq( Vs ) JvI ~
Si B es la matriz deqz respecto de uvj, entonces
= y)
Se veriIica que
btj = <f* (v~), VI) ( v u f * (vs-) ~ ( f ( Vi \ v j ) =
Luego
B A z ` AI
Observamos que si f y g son dos operadores sobre V y a e C, entonces
( f + g)* =f * +g * (otf)* = f *
(/*)*= f ( f g)* = g* f*
Los operadores f y f * se llaman adjuntos entre si.
Ejemplo 9-7
Determinamos el operador adjunto de
q : C2 C2
tal que
q ( z , u) (z 2iu, (1 )z + u)
Definicin
www.FreeLibros.com
www.FreeLibros.com
OPERADORES 299
La matriz de q respecto de la base canonica, que es ortonormal, es
1 2 i
A
1 + i 1
por consiguiente, la matriz de f * es
-2q 1 q
Resulta
qz (z, u) (z (1 i) u , 2iz u)
9.6. OPERADORES HERMITIANOS Y SIMETRICOS
9.6.1. Concepto
Se a q un operador lineal sobre V, de dimension Iinita, con producto interior, y sea f * el
operador adjunto.
En el caso complejo, V es un espacio unitario, y en el caso real, V es euclidiano.
Definicin
Un operador q sobre un espacio unitario se llama hermitiano si y solo si es igual a su
adjunto.
qe s hermitiano o vq (x), y ) vx , q( y ) ~
La matriz asociada a un operador hermitiano respecto de una base ortonormal es
hermitiana.
Definicin
El operador q sobre un espacio euclidiano se llama simetrico si y solo si es igual a su
traspuesto.
La matriz asociada a un operador simetrico respecto de una base ortonormal es simetrica.
Los operadores simetricos y hermitianos suelen llamarse tambien autoadjuntos.
9.6.2. Propiedad
Un operadorqes hermitiano si y solo si vx , q( x ) ~e R, V x e V.
1. Sea q un operador hermitiano. Entonces
v x , q( x ) ~ vq( x) , x~ vx, q( x) ~
Luego
vx , q (x) ~e R
2. Seaq tal que V x e V : vx, q( x ) ~ e R
www.FreeLibros.com
www.FreeLibros.com
300 FORMAS BILINEALES Y CUADRATICAS
Se tiene
v q ( x ) , x ~ v x , q ( x ) ) - v q z ( x ) , x ~ ~
~v q( x ) - qz ( x ) , x ~ ~
z vvq- qz ) (x) , x ~ O. V x e V`
f * ~ e, donde e denota el operador nulo.
Luego
f = f *
O sea, q es hermitiano
9.6.3. Propiedad
Los valores propios de todo operador hermitiano son reales.
Sea Xun valor propio asociado al vector propio x. Se tiene:
Xvx , x ~ v x , x~ vq( x) , x~ vx, q( x) ~
` ( x , Xx) v x , x ~
Cancelando x , x ~ 0 resulta X X
O sea
XeR
Una consecuencia inmediata es la siguiente: los valores propios de toda matriz hermitiana
son reales. En particular, los valores propios de toda matriz simetrica y real por ser
hermitiana, son reales.
9.7. OPERADORES UNITARIOS Y ORTOGONALES
9.7.1. Concepto
Sean (V, , C , .) un espacio unitario de dimension Iinita, y q u n operador sobre V.
Definicin
El operador q : V V es unitario si y solo si preserva el producto interior
q es unitario o vx , y ~ v q( x ) , q( y ) ~
Sean (V, , R , .) un espacio euclidiano de dimension Iinita, y q u n operador sobre V.
Definicin
El o p e r a d o r q: V V es ortogonal si y solo si preservael producto interior.
En este caso, en que K R, el operador se llama tambien real unitario.
www.FreeLibros.com
www.FreeLibros.com
Ejemplo 9'T
El operador q : R2 -~ R2 deIinido por
f ( x , y) (x eos 8 y sen 8, x sen 8 + y eos 8)
es ortogonal, considerando ei producto interior usual.
En eIecto, el producto interior entre (xxoy x) y (x 2, y 2) es
( ( xx, y x) , {x2, y 2) ) ^ xi x 2 +y x y 2
y el producto interior entre sus imagenes es
( f ( x u y i ) of ( x 2ty 2) ) ^
t(( eos 0 - yx sen 8, x x sen 8 + y x eos 8),(x2 eos 8 - y 2 sen 8, x 2 sen0 +y2 eos 0))
- X i x 2 eos2 8 + y xy 2 sen2 8 - x xy 2 sen 8 eos 8 - x 2 y i sen 9 eos 8
+ Xi x 2 sen2 8 + y y 2 eos2 8 + x xy 2 sen 8 eos 8 +x 2y t sen eos 8 =
= Xi X 2 +y y 2 =<(xl , y l )i(x2, y 2))
f representa una rotacion del plano de angulo 8, con centro en el origen,
9.. . I
Si V es un espacio vectorial real con producto interior y q es un operador, entoncesqes
ortogonal si y solo si preserva las longitudes de los vectores.
1. Supongamos que qe s ortogonal. Entonces
qesortogonal ~vx, x~ vq( x) , q( x) ~ z IIxII2 l l q ( x ) l l 2 ~
=>11x11 IIq (x) II
2. S e a qu n operador que conserva las longitudes de losvectores.
Entonces es
f(),f()c f(),f()c = ,c , )
Desarrollando ambos miembros resulta
v q ( x ) , q ( y ) ~ vx, y~
Luegoqes ortogonal.
Una consecuencia inmediata es la siguiente: los operadores ortogonales trasIorman
vectores unitarios en vectores unitarios.
9.7.3. Propiedad
Los operadores ortogonales conservan la ortogonalidad.
En eIecto, s e a q: V V un operador ortogonal, y sea x ortogonal a y.
OPERADORES 31
www.FreeLibros.com
www.FreeLibros.com
Resulta
v q( x) ~q ( y ) ~ vx , y ~ 0
Luego q (x) es ortogonal a q (y).
Observamos que no toda trasIormaeion lineal que preserve la ortogonalidad e-
operador ortogonal. En eIecto, si
q : V- ~V
es tal queq( . z ) - 3a:, entoncesqconserva la ortogonalidad, pero no es un operador ortogt
9.7.4. Propiedad
Sea V un espacio euclidiano de dimension Iinita. Un operador lineal q : V -M
ortogonal si y solo siqz o q iv .
En eIecto:
q es ortogonal ` vx , y ~ v q ( x ) , q( y) ~
z v x , y ~ v x , (qzv~q) (y) ) o
f * denota el operador adjunto de q, que en el caso real es su traspuesto.
Luego
q es ortogonal qv
En terminos de matrices se veriIica que un operador es ortogonal si y solo si la ms
asociada respecto de una base ortonormal es ortogonal.
Sea A tal matriz. Entonces
q es ortogonal ~AI A I
Observamos que todo operador ortogonal es inversible, y se veriIica que
r = f
O sea
A1 Az
9.7.5. Propiedad
Sea V un espacio unitario, y s e a qu n operador sobre V.
Como en el caso real, se veriIica que un operador es unitario si y solo si preserva
longitudes de los vectores.
Se demuestra analogamente q u e qe s unitario si y solo siqz o q iv .
Ademas, si A e Cl xn es la matriz de q respecto de una base ortonormal, entoncesqes
operador unitario si y solo si Az A 1.
Una matriz compleja que satisIace la condicion anterior se llama unitaria.
302 FORMAS BILINEALES Y CUADRATICAS
www.FreeLibros.com
www.FreeLibros.com
Definicin
A e CI,XIl es unitaria Az A I Az A 1.
Toda matriz unitaria de elementos reales es ortogonal.
Observamos que los operadores y las matrices unitarias son una generalizacion de los
operadores y matrices ortogonales de los espacios euclidianos.
9.7.6. Propiedad
Los valores propios de todo operador unitario tienen modulo 1.
En eIecto, sea X un valor propio del operador unitario f , y sea x un vector propio asociado
a X. Entonces
v x , x ~ v q ( x) , q ( x) ~ v x , x~
( x , x~
Como vx , x ~ 0 resulta
1
O sea
IX P 1
Luego
I Xl 1
9.8. TEOREMA DE SYLVESTER
9,8.1. Ampliacion del concepto de base ortogonal
Sea V un espacio vectorial de dimension Iinita sobre un cuerpo K, y sea una Iorma
bilineal simetrica que denotamos con v, ~ sobre V. Se demuestra que si dim V ~ 1. entonces
existe una base ortogonal respecto de v, ~(ejercici o 9z41).
Ejemplo 9-8
En R2 deIinimos ( , ) mediante
vx ,y~ Xi x 2 - y i y 2
donde x - ( x j , x 2) e y ( y, y 2).
Esta Iorma no es deIinida positiva, pues, por ejemplo
x (1, 1)~ vx , x ~ 0
x ( i , 3) ~ vx , x ) 8
Los vectores (1, 3) y v2 = (3, 1) Iorman una base ortogonal respecto de la Iorma
dada.
TEOREMA DE SYLVESTER 3 3
www.FreeLibros.com
www.FreeLibros.com
La base Iormada por x ( l , 2) e y ( 1 , 3 ) no es ortogonal. Para ortogonalizarla,
procedemos asi:
Seav! x (1, 2) y sea
Vi
V2 y - vVi , y ~ -
vVi , Vi ~
Es decir
Entonces ( Vj , v2 es una base ortogonal de V respecto de la Iorma dada.
9.8.2. Generalizacion del concepto de base ortonormal
Sea V un espacio de dimension Iinita sobre el cuerpo de los numeros reales, y sea v, ~una
Iorma bilineal simetrica sobre V. De acuerdo con 9 . 8 . 1 siempre es posible obtener una base
ortogonal. La Iorma no es necesariamente deIinida positiva, ya que pueden existir vectores
x e V tales que ( x , x ~ 0 o ( x , x ) 0 .
Diremos que una base es ortonormal respecto de la Iorma v,) si y solo si
vVi , v ) 1 o V,- , Vq) 1 o vv , v ~ 0
donde v e uv v , , va , . . vx.
A partir de una base ortogonal uvJ vi , v 2. . v*n \ es Iacil construir una base
ortonormal asociada.
En eIecto, denotando vvi 5v~mediante a, se obtiene una base ortonormal haciendo
v v,- si a 0
304 ORMAS BILINEALES Y CUADRATICAS
- v i si a > 0
Vw
si a v 0
v `
La base uv resulta ortonormal.
Sea uv una base ortogonal ordenada de modo que
ax, a2, . . . , ap ~ 0
Si q es la Iorma cuadratica asociada a la Iorma bilineal simetrica v, ), entonces, respecto de
esta base ortogonal, es
q( X ) i x \ . . . +a p x l i x } + . . . +a r x]
. 2
www.FreeLibros.com
www.FreeLibros.com
En este desarrollo Iiguran p terminos positivos, r - p negativos, y n - r variables se han
eliminado.
Si la base se ortonormaliza, entonces se tiene
Los numeros p y r son independientes de la base ortogonal elegida. El entero p se llama
indice de positividad de la Iorma. Indice de nulidad de la Iorma es el entero n - r . Signatura
de la Iorma cuadratica es s p - (r - p) = 2p - r.
Ejemplo 9-9
Sea la Iorma bilineal simetrica sobre R2 deIinida por la matriz
TEOREMA DE SYLVESTER 35
Los vectores v, - (1, 0) y v2 - (1, 1) constituyen una base ortonormal y se veriIica que
vv: , Vi ~ - 2 vy2 , v2 ~ 0
9.8.3. Propiedad
Sea v,) una Iorma bilineal simetrica en el espacio Y de dimension Iinita,sobre el cuerpo
R, y sea el subespacio
S0 x x e V q ( x , y ~ 0 , V y e V x
Si uv v j , v2, . . v ,es una base ortogonal, entonces la dimension de S0 es igual al
numero de enteros i, tales que = 0.
Demostracion)
Sea uv ordenada de modo que
ai &O si q 1 , 2........ qz
a 0 si i > r
Por ser uv ortogonal, se veriIica que
i >r =* ( v , -, y~ 0 , V y e V
En consecuencia
`r 1, Vr -I2 ~ vv~V
son elementos de S0.
Sea un elemento cualquiera x e S0 , y escribamos
x = x 1 yl +. . . + x r vr . . . + x n yn
Entonces
q v r ~ 0 vx , ) = Xj vv j , ) xj a
www.FreeLibros.com
www.FreeLibros.com
Como a ` 0, resultax O s i q v r
Luego
x x r1 vr+1 ... x n vn
O sea
I `r1w ) VIl )
es una base de S0. Es decir, dim S0 n - r.
9.8.4. Teorema de Sylvester
Sea (V, , R , .) un espacio tal que dim V n > 1, y sea v,) una Iorma bilineal simetri.
sobre V. Si uv es una base ortogonal cualquiera de V, entonces existen exactamente
enteros positivos tales que v , v ~~ 0.
Demostracion)
Sean uv y uw dos bases ortogonales de V ordenadas de modo que si vv ,v, ~ a.
( w,-, w) b, entonces 1
a > 0 si z 1, 2, . . , p b f > 0 si i 1, 2, . . . , p'
a < 0 i ^ p + l , . . . , r b < 0 si r = p + 1, . . r
a = 0 si i r 1, . . bt - 0 s i i r + 1 , . . n
Demostraremos que p =p \ Para ello observamos que los vectores
Vi j v2, . . Vp, wp . 1, . . w
son linealmente independientes, pues considerando la relacion lineal
(5 1 z v , 1J w 0
9 . ORMAS BILINEALES Y CUADRATICAS
se tiene
y eIectuando
se deduce
* n
, i xy = - , .
v i X, V, , 1 X,. V, ~ vJ . + 1 s , J , + 1y, , ~
a, z . . . + ap Xp = bP+1 y j ,'+1 + . . . + bry l
El primer miembro es mayor o igual que cero, y el segundo miembro es menor o igual qt
cero, o sea, ambos son nulos. Entonces es
= * 2 = = x p = Q
y r ' + i = . . . = y n = 0
www.FreeLibros.com
www.FreeLibros.com
DI ONALIZACION
307
Como dim V n, de lo anterior se deduce que
p +( n - p r) < n
osea
p < p
Analogamente se prueba quep v p, y en consecuencia resultap ~ p \
Lo expuesto en 9.8.2., 9.8.3. y 9.8.4. nos permite aIirmar que s i qe s la Iorma cuadratica
asociada a una Iorma bilineal sobre ( V, , R , .) y di mV w ~ i , entonces q esta
representada por una matriz diagonal respecto de cualquier base ortogonal. Toda
representacion de este tipo admite exactamente p terminos positivos y r - p terminos
negativos.
9.9. DIAGONALIZACION DE OPERADORES SIMETRICOS
Sea (V, , R , .) un espacio euclidiano de dimension Iinita.
9.9.1. Propiedad
Sea q : V -~ V un operador simetrico y x un vector propio de q. Si x es ortogonal a y,
entonces x es ortogonal a q( y ) .
En eIecto
v x, q( y ) ~ v q(x) , y~ v x , y ~Xvx , y ~ 0
O sea
x l q ( y )
9.9.2. Propiedad
Sea q : V -*V un operador simetrico y dim V n > 1. Entonces existe una base ortogonal
de vectores propios de q.
Demostracion)
1. Si dim V 1, entonces la propiedad se cumple obviamente.
2. Supongamos que d i m V ~ l , y sea vt un vector propio de q. Consideremos el
subespacio
Se veriIica que
dim S dim V - 1 n 1
Por 9.9.1., q es un operador simetrico sobre S, donde el producto interior es el inducido
por el producto deIinido en V.
www.FreeLibros.com
www.FreeLibros.com
9 .
ORMAS BILINEALES Y CUADRATICAS
veriIica q u ` 1 S de VeCo reS Pr 0Pi 0s de wce. se
Vqi Vi c o nq 2, 3, . . n
En consecuencia \ Vl, v2 ........ v ) es la base ortogonal en V, de vectores propios de f
Ortonormahzando los vectores de la base ortogonal, se veriIica bajo las L dicioneide,
teorema, que existe una base ortonormal de vectores propios de qe n V.
9.9.3. Consecuencia
Traduciendo la propiedad anterior en terminos de matrices, se veriIica que si A es
bolos: y red ento nCeS 6Xi Ste Una matdZ P o rt0g0 nal- ^ di a A Una
A e R nx a A Ai s ~ 3 Portogonalq Pz AP D
Los elementos de D son los valores propios de A. Observamos, ademas que t odamat m
smietnca y real n X n admite n vectores propios ortogonales. Las columnas de P son los n
vectores propios de A, ortonormalizados.
Ejemplo 9-10
Dada la matriz A .
a A. \ n/ 2 1
1. Calculamos los valores propios de A.
- q 2 y/ 2
determinamos una matriz ortogonal que diagonalice
D (X1 A)
X - 2 \2
y/2 X - 1
= X2 - 3 X
Resulta
Xi - 0 y \ 2 3
2 Determinamos los vectores propios ortonormales de A
a) \ 0 .
(Xi i - a ~ x o ` a x o `
f , fC
y/2 l\x2l (o
2z j + y / 2 x 2 - 0
y/ 2xt + x 2 =0
>x2 = - \ / 2 x l
= ( X 2 ) ( X - 1 ) - 2 =
V 2xx + x 2 0
www.FreeLibros.com
www.FreeLibros.com
DI ONALIZACION
309
Comox\ + x j 1, se tiene
Luego
Entonces
x \ + 2 x \ 1
v I q6
X y x - y -----
3 3
( o
V i
3
b) Aa 3. Con el mismo procedimiento se obtiene
v r -
3
V T
3
( o
3. Resulta
P
V3 V 6_
~ 3 3
y/6 y/3
3 ~
tal que
P 1 A P Pz A P
0 0
0 3
Ejemplo 9-11
EIectuamos una trasIormacion de coordenadas que diagonalice la Iorma cuadratica q,
deIinida por
f ( x l , x 2) = 3 x j + 10JCj x 2 3 x \
La matriz de esta Iorma cuadratica es
- C 5
\ S 3
Sus valores propios son:
Xj 8 y \ = - 2
www.FreeLibros.com
www.FreeLibros.com
9 .
ORMAS BILINEALES Y CUADRATICAS
Resolviendo en cada caso el sistema homogeneo (Al - A) X 0 y normalizando los
correspondientes vectores propios, se obtiene la matriz ortogonal
2 2
P
V2 y 2
2 2
La trasIormacion ortogonal de coordenadas esta dada por
X P X
O sea
V2 , y/2 ,
X . = -------- X , - ---------* 2
2 2
V2 , y/2
X 2 -------- X X 2
2 2
Mediante este cambio, q se convierte en
f ( x \ , x 2) = Sxl - 2 x ' l
donde los coeIicientes de las variables son los valores propios de la matriz de la Iorma
cuadratica.
9.10. MATRICES SIMETRICAS REALES Y VALORES PROPIOS
9.10.1. Matriz deIinida positiva
Sea A una matriz, simetrica y real del tipo xn.
Definicin
Una matriz simetrica y real es deIinida positiva si y solo si sus valores propios son
positivos.
Tal es el caso de la matriz del ejemplo 9-6.
9.10.2. Propiedad
Una matriz real y simetrica es deIinida positiva si y solo si existe una matriz , no
singular, tal que A I.
Demostracion)
1. Sea A simetrica real del tipo n x n y deIinida positiva. Por deIinicion, sus valores propios
son positivos. Por 9.9.3. existe P ortogonal tal que
P l A P P i A P D (1)
www.FreeLibros.com
www.FreeLibros.com
T I DEINID OSITIVA
311
d nde D es la matriz diagonal Iormada por los n valores propios de A, o sea
D d i a g ; K )
Consideremos la matriz diagonal
Dj diag , s/K , . . ~A)
Se veriIica que
Di D (2)
Teniendo e n c u e n t a (1) y (2) es
a P D P 1 P D P i PDi Pz PD, d [ p ` c p d o c p d , ) z
Haciendo
Q = ( PDi )
resulta
A (
donde es no singular por ser producto de dos matri ces no singulares.
2. Sea A simetrica y real. Supongamos que existe no s ingular tal que A
Por 9.9.3., existe P ortogonal tal que
P( A P D diag ( Xi , \ K )
Entonces
Pt , P D
O sea
(PI )(P( )i D
Llamando XI a la i-sima Iila de P( , y por lo tanto a la i-sima columna de (P( ), se
tiene, considerando el producto interior habitual en Rn
Xi XI X. ~ o
Si Iuera \ = 0, resultaria X, 0, y en consecuencia P seria singular, lo que es absurdo.
Luego
~ 0 Vq 1, 2, . .
Por lo tanto, A es deIinida positiva
9.11. DESCOMPOSICION ESPECTRAL DE UNA MATRIZ
Teorema, Si A e R nx es una matriz diagonalizable, y \ , X 1, son los valores
propios distintos de A con multiplicidades miI m2, -. ms, entonces A puede expresarse en
la Iorma
(3)
- z .
www.FreeLibros.com
www.FreeLibros.com
9 ORMAS BILINEALES Y CUADRATICAS
A 2 \ A t
il 1
de modo tal que se veriIica
1. f = A Vq 1 , 2........ s
2 . i ^ j =>A A N
3 . A I
ii
4. A A A,- A Vi 1, 2 , . . s
Demostracion)
Por ser A diagonalizable existe P no singular tal que
P AP D (1)
donde D es la matriz diagonal Iormada con los n valores propios de A, que suponemos z
ordenados segun las multiplicidades.
O sea
D
donde los elementos no diagonales, que no Iiguran, son nulos.
Denotando con la matriz identidad del tipo wxw,-, la Iorma bloque-diagonal de D es
D
`2
Considerando las matrices
N,
para q 1, 2, . .
www.FreeLibros.com
www.FreeLibros.com
DESCOMPOSICION ESPECTRAL
Se veriIica, por ser matrices diagonales,
a) E EI
b) i j ~ EI Es N
Ademas
c) 2 E,- I, donde I es la identidad nx n
ii
D iS E , (2)
De (1) resulta
A P D P 1
Considerando esta relacion y (2), se tiene
A p ( . I i Xi E1) P 1
O sea
Haciendo
resulta
A 2 P E P
i
A P E, P
A 2 A i
i -1 n
-i
Se veriIican las siguientes proposiciones
1. A \ P EI P1 P Ej P E P 1 P E P 1 A
2. AI A P E( P1 P E P 1 P E Ey F 1 -
P N P 1 N

3. 2 A,- 2 P EI P1 P ( 2 E,) P 1 P I P 1 1
ii ii -i
4. A A A P E, P 1 P D E( P J P ( . 2 A, E) E, F 1 P ( . 2 ` E, E) F 1 -
^ ? ( \ E ) F 1 = \ ? E P-1 ^ \ A (3)
Aj A P E P 1 A P E i DP 1 P E I ( . 2 A, E,) F 1 P EI F 1
- AI P E i P - ` XI Ai (4)
De (3) y (4) resulta
A A At- A Vv 1 , 2 , . . n
313
www.FreeLibros.com
www.FreeLibros.com
9 E ORMAS BIUNEALES Y CUADRATICAS
9.12. CONGRUENCIA DE FORMAS CUADRATICAS
9.12.1. Concepto
Sean f y g dos Iormas cuadraticas reales caracterizadas por las matrices simetricas AvIi
pertenecientes a R"x".
O sea
q (X) Xz A X
g ( ) f
Definicin
Las Iormas cuadraticas q y g son congruentes si y solo si existe P no singular, tal que
B Pz AP
Las Iormas cuadraticas q y g son ortogonalmente congruentes si y solo si existe P or
togonal, tal que
B PI A P F 1 A P
Las matrices A y B se llaman, respectivamente, congruentes y ortogonalmente t
congruentes.
9.12.2. Propiedad j
Dos Iormas cuadraticas reales q y g, de matrices A y B respectivamente, son !
ortogonalmente congruentes si y solo si A y B admiten los mismos valores propios con las
mismas multiplicidades.
Demostracion)
1. Sean f y g ortogonalmente congruentes. Entonces existe P ortogonal, tal que
B Pz A P P 1 A P
En consecuencia, A y B son semejantes y admiten el mismo polinomio caracteristico.
2. Sean A y B con la misma Iorma diagonal. O sea, existen y R ortogonales tales que
-J A R1 B R D (1)
donde D es la matriz diagonal Iormada por los valores propios.
De (1) resulta
A R 1 B R 1
Luego
A ( R() B ( RI) I
La matriz P R i es ortogonal, ya que y R son ortogonales. Premul tiplicando por
P - P , y posmultiplicando por P, resulta
www.FreeLibros.com
www.FreeLibros.com
CONGRUENCIA
315
B P AP
O s e a , qy g son ortogonalmente congruentes.
9.12.3. Propiedad
Si q es una Iorma cuadratica real, entonces es ortogonalmente congruente a la Iorma
cuadratica g, tal que
g 0 0 4 h y l
11
siendo At ~X2, . . A los valores propios de A.
En eIecto, sean D la matriz diagonal Iormada por los valores propios de A, y Y e Rnz 1.
Consideremos la Iorma cuadratica g deIinida por
g ( Y) Yi DY
Sabemos, por 9.9.3., que existe P ortogonal tal que
D P 1 AP PvAP
Luego f y g son ortogonalmente congruentes.
9.12.4. Propiedad
Toda Iorma cuadratica real f es congruente con la Iorma cuadratica g, tal que
g(Y) ` i y l . . . + y l - y l + i . y , siendo r el rango de A y p el indice de
positividad de la Iorma.
Demostracion)
La matriz simetrica y real A admite exactamente r valores propios no nulos, ya que
p (A) r. Ordenamos los valores propios de modo que
son positivos
V i
, . . . , A,.
Ar1 ~ ~
son negativos
son nulos
Consideremos
D
Xi
Xn
DeIinimos la matriz diagonal
www.FreeLibros.com
www.FreeLibros.com
316
ORMAS BILINEALES Y CUADRATICAS
P
7 \ J +
Como existe ortogonal, tal que
resulta
donde
z A D
( P) A ( P) Pz ( ( A ) P P( DP
P( DP
B
Sea ahora la trasIormacion de coordenadas de matriz P, es decir
X - P Y
Se veriIica que
q( X ) XI A X ( P Y ) I A ( P Y ) Y i ( P) ( A( P) Y
En consecuencia, f e s congruente a la Iorma cuadratica g, deIinida por
g (Y) Y( BY
donde
B ( P) A( P)
Por la deIinicion de B es
( Y) 7i + y + . . . + y l - y + i - . . .
y 2 r
La Iorma cuadratica g se llama Iorma canonica de f . Se veriIica que dos Iormas
cuadraticas son congruentes si y solo si tienen la misma Iorma canonica.
www.FreeLibros.com
www.FreeLibros.com
ORMA CANONICA
317
Ejemplo 9-12.
Reducimos a la Iorma canonica la Iorma cuadratica q : R2 R deIinida por
f ( x i , x 2) = x' - Tx x 2 +x l
1 La matriz de la Iorma cuadratica es
A
1 - 1
1 1
El polinomio caracteristico es
D (Xl A)
X - 1 1
1 X - 1
X2 - 2 X
Los valores propios son, entonces
Xi 2 y X 0
2. Como el numero de valores propios positivos es 1, la Iorma canonica congruente es
g, deIinida por
g ( y i , y 2) =y
EIectuamos el procedimiento indicado en el teorema anterior para obtenerla.
Calculando los vectores propios asociados a \ y X2 se obtiene
X, ( 1 ) y X2
- 1
La matriz ortogonal correspondiente es
Se veriIica que
A
1 1
1 1
2 0
0 0
La Iorma cuadratica ortogonalmente congruente a q es h, tal que
h ( z 1, z 2) - 2 z'
Sea
P
1 0
` 0
v x r
2
0 1 0 1
www.FreeLibros.com
www.FreeLibros.com
Entonces, haciendo X P Y, se tiene
i ( Y ) Y I ( P)i A( P ) Y
Yz P* Q* A P Y Y Pe D P Y
- Yz B Y
donde
318 ORMAS BILINEALES Y CUADRATICAS
B Pz D P
O sea
^ 0 2 0
0
2
2
0 1
0 0
0 I
y/2 0
0 0
^ 0
1 0
2
0 1
oo
g ( y i , y i ) = y 2i
9.13. SIGNO DE UNA FORMA CUADRATICA
Sea q una Iorma cuadratica real deIinida por
q ( X ) X r AX
donde A es una matriz simetrica real del tipo nx n.
9.13.1. DeIiniciones
1 . qe s deIinida positiva si y solo si
Xz A X ~ 0 V X ` O
2 . q es semideIinida positiva si y solo si
X ' a X > 0 a 3 X ^ O / X ' A X = O
3. f e s deIinida negativa si y solo si la Iorma cuadratica g deIinida p
g (X) - Xz ( - A ) X
es deIinida positiva.
4. q es semideIinida negativa si y solo si g tal que
` ( X) Xi ( - A) X
es semideIinida positiva.
or
www.FreeLibros.com
www.FreeLibros.com
ORMA DEFINIDA POSITIVA
319
Ejemplo 9-13.
x Determinamos el signo de la Iorma cuadratica q : R2 - R deIinida por
q( X ) 3z1 - 2 x x 2 + 2 x \
Se veriIica que
q ( X) 2 x \ + x l - 2 x i x 2 + x 2 + x 2
! 0 sea
x A X ) 2 x \ ( x i ~ x 2f +x \
! Comoq(X) ~ 0, V X 0, resultaqdeIinida positiva.
9,13.2. Propiedad
La Iorma cuadratica real q, tal que q (X) Xz A X, es deIinida positiva si y solo si los
valores propios de A son positivos.
i En eIecto, sabemos que toda Iorma cuadratica real es ortogonalmente congruente a una
Iorma cuadratica g tal que
0 0 J i
siendo Xj , X2, . . . , X los valores propios de A. Como ejercicio del trabajo practico se
propone la demostracion de que el signo de una Iorma cuadratica no varia Irente a
trasIormaciones de coordenadas. Esto signiIica que el signo de q es igual al deg. Luego
q es deIinida positiva <*g es deIinida positiva o \ ( > 0, Vi
Diremos, entonces, que una Iorma cuadratica es deIinida positiva si y solo si la
correspondiente matriz es deIinida positiva.
Analogamente se demuestra que: q es deIinida negativa si y solo si sus valores propios son
negativoss q es semideIinida positiva si y solo si sus valores propios son mayores o iguales que
0 y alguno de ellos es 0s q es semideIinida negativa si y solo si sus valores propios son
menores o iguales que cero, pero alguno de ellos es 0. Si existen valores propios positivos y
negativos, diremos que la Iorma cuadratica es indeIinida.
El lector podra demostrar como ejercicio del trabajo practico que una Iorma cuadratica
real q, deIinida por q ( X) Xz A X, es deIinida positiva si y solo si los menores principales de
la matriz A son positivos.
Ejemplo 9-14
Analizamos, utilizando el criterio de los menores principales, si la Iorma cuadraticaq,
deIinida por
www.FreeLibros.com
www.FreeLibros.com
q ( z u x 2>x z ) = 2 x \ +x \ 3 * i + 2 Xl x 2 - 2 x 2 x 3
es deIinida positiva.
La matriz de la Iorma cuadratica dada es
q 2 l 0
A = f
0 - 1 3
Sus menores principales son
an 2 ~ 0
320 ORMAS BILNEALES Y CUADRATICAS
a n
a l2 2 1
a21 a 22 1 1
D( A) 1 ~ 0
Luego, q es deIinida positiva.
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO IX
9-15. Sea (V, , K , .) un espacio vectorial. Demostrar que el conjunto B (V) de todas las
Iormas bilinealesq: V2 -wK es un espacio vectorial sobre K, como se indica en 9.2.1.
9-16. Sea : V2 - K una Iorma bilineal. Demostrar que gy : V -~ K, deIinida por
gy (x) g (x, y), es una Iorma lineal.
9-17. Una Iorma bilineal q sobre R3 esta caracterizada por la matriz
9-18. Determinar la Iorma escalar de las Iormas cuadraticas asociadas a las Iormas bilineales
S (X , Y) Xz A Y, en los siguientes casos:
Obtenerla matriz deqrespecto de la base canonica enR .
9-20. Determinar las matrices de las Iormas cuadraticas sobre R deIinidas por
i) Obtenerq(x, y).
ii) Determinar la matriz deq respecto de la base
1( 1. 1, 1) , ( 1, 1, 0) , ( 1, 0, 0)1
9-19. S e a ql a Iorma cuadratica real deIinida por
q( X ) X2
donde X 2 XI
n i n
i) q( X ) X2 ii) q( X ) - (X,. - X)2
Investigar la idempotencia de tales matrices.
www.FreeLibros.com
www.FreeLibros.com
921. Sean g una Iorma bilineal simetrica sobre V v f 1 r
Demostrar que V, y q ia Iorma cuadratca
i ) y ( x , y ) - i ( q ( x y ) q ( x y ) j
~ I ( x , y ) - - ( q ( x y ) - q ( x ) q ( y ) j
9-22. Determinar la matriz de la Iorma cuadratica sobre R3 deIinida por
q ( z i .x 2, x 3) = x j ~ 4 Xl x 2 + 2x%
` (x~y) q( x y) - q (x) - f (y)
Suponiendo que g es bilineal, y que f i a x \ a2 f ( n\ ` v w
r r forma';uadrticayi r i ^ i i > r lac L ; : i ? ostrarque
sean uy y {J ^ Pro` t o interior y
/ (V) - w entoncesqes ortogonal. ` ` operador que VenIica
que COn z ~z z z Amostra,
{/ (. %)} es una base ortonormal de V. qeS Un Operador Mto8onaI en V, entonces
z . Sea P una matriz ortogonal diagonal. Demostrar que ,os Cementos de ,a diagona, son ,
9m27. Sean las matrices
q eos 6 -se n Q \ / j e
i
sen 0 eos 0 ) 0 e w
Demostrar que existe una matriz unitaria U tal que I T1 P u.
9-28. Demostrar que toda matriz simetrica y real admite un vector propio.
9-29. Obtener, en cada caso, una base ortogonal de R2 Inrm`o i
las siguientes matrices: PoI vectores propios de
0 q 3 0 )
A A
0 3 q
9-30. Comprobar que la matriz
322 ORMAS BILINEALES y CUADRATICAS
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO IX 323
* - ( * )
\ y / 2 2 I
es deIinida positiva y obtener no singular, tal qu e A z.
9 3 Obtener una trasIormacion ortogonal que diagonalice a la Iorma cuadratica
q( X ) + 2 \ f 6 Xl x 2 + 2 x \
9 32 Demostrar que el signo de una Iorma cuadratica real no varia si se eIectua un cambio
de base.
9-33. Demostrar que si q ( X ) - X !AX es deIinida positiva, entonces g (Y) YzA-1 Y es
deIinida positiva.
9-34. Determinar el rango y la signatura de las Iormas cuadraticas deIinidas por
i)/(*i,*a.*a) = *i + 2 *2 + 6 *3 - 2 x X3 + 4 x 2 x3
i i ) f ( x , x 2) r ( x - x 2f
9-35. Obtener la descomposicion espectral de la matriz C del ejercicio 8-15.
8
9-36. Sea 2 \ A la descomposicion espectral de la matriz A. Demostrar
ii
i ) A y B son permutables si y solo si B permuta con cada A,-.
ii) Si A es no singular, entonces la descomposicion espectral de A 1 es
V A
9-37. Demostrar que toda matriz cuadrada real no singular puede expresarse como producto
de una matriz ortogonal y una matriz deIinida positiva.
9-38. Expresar la matriz
1 q - 1 ` \
k ~ V 5 n q T 2 q
como producto entre una matriz ortogonal y una matriz deIinida positiva.
9-39. Demostrar que una Iorma cuadratica real q (X) XI A X es deIinida positiva si y solo si
los menores principales de A son positivos.
9-40. Sean dos Iormas cuadraticas f y g en R deIinidas por f (X) = X t A X y g (X) X B X.
Sabiendo que f es deIinida positiva, demostrar que existe una trasIormacion de
congruencia que las reduce a
OL) = y +yl ++yl
www.FreeLibros.com
www.FreeLibros.com
9 E ORMAS BILINEALES Y CUADRATICAS

Si (Z)X! z \ Xz \ . . . + \ z n
9-41. Sean (V, , K, .) un espacio vectorial de dimension Iinita, y v , ) una Iorma bilineal
simetrica sobre V. Una base uv es ortogonal respecto de v,~ si y solo si
i q zvi z , vs ~ 0.
Demostrar que si V 0 , entonces V admite una base ortogonal.
www.FreeLibros.com
www.FreeLibros.com
Captulo 10
CONVENXIDAD. PROGRAMACION LINEAL
10.1. INTRODUCCION
A partir de la distancia deIinida sobre la base del producto interior habitual, se estudian y
se clasiIican puntos y subconjuntos de R . Se generalizan las nociones de recta, plano,
semiplano y semiespacio estudiadas en el capitulo 7. Se presenta una introduccion a los
conjuntos convexos en R , y se estudian sus propiedades Iundamentales. Despues de
relacionar la convexidad con las trasIormaciones lineales, se desarrollan los conceptos de
hiperplano soportante y de puntos extremos. Finalmente, y en conexion con io anterior, se
esboza una introduccion al problema general de la Programacion Lineal, y al metodo
simplex.
10.2. CONJUNTOS DE PUNTOS EN R
En lo que sigue consideraremos el espacio vectorial (Rn, , R , .) con el producto interior
habitual, es decir, deIinido por
v x , y ~ 2 x j , Xt Y
ii
donde X e Y denotan las matrices columnas asociadas a los vectores x e y.
10.2.1. EsIera abierta en R
Definicin
EsIera abierta de centro a e R y radio r > 0 es el conjunto de puntos de Rn cuyas
distancias a a son menores que r.
El simbolo S ( a , r) se lee: esIera abierta de centro a y radio r\
S ( a , q) x e R q d (x , a) v r
O sea
S ( a , r ) x e R q ! l x - a i i v r x
www.FreeLibros.com
www.FreeLibros.com
9
CONVEXIDAD. PROGRAMACION LINEAL
O bien
S ( a , r ) ( x e R < r2
En particular, si i , se ene el segmento abierto de longtad ` ` ` ` `
O
s far)
R
S (a, iz) I x e R q I x - a l O ={ x e R q a - I v x v a
En R2, S (a, r) es el interior del circulo de centro a y radio r.
S f a r )
S (a, r ) j x e R 2 q II x - all v ,
(zi >x2) i ( x x - axf (x2 - a2 )2 < r 2\
10.2.2. Punto interior
Sea C un subconjunto de R .
Definicin
a e C es un punto interior de C si y solo si existp i--~n zi i r
centro a v radio r esta mohA n tai `ue ,a esIera abierta de
sus
y radio r esta incluida en C.
a e C es interior d e C z ~ 3 r ~ 0 q S ( a , r ) CC
Los puntos de todo intervalo abierto en R son interiore o + ,
puntos, salvo los extremos ,n S Sl el lnte,yal0 es ce do, todos
extremos, son interiores.
10.2.3. Punto Irontera
Se a CCR .
www.FreeLibros.com
www.FreeLibros.com
C1 IICC ION DE PUNTOS 327
a e R es un Punto Irontera de C si y solo si toda esIera abierta de centro a tiene
intersecciones no vacias con C y Cc.
a e Rn es Irontera d e C - V q - ~ O : S ( a , r ) n c ` 0A S ( a , r) n C z 0
Definicin
El punto a i C , pero es Si C A U a 1 , entoncesel punto ais-
Irontera de C. lado a es Irontera de C.
10.2.4. Punto de acumulacion
Sea C C R . El simbolo Sz (a, r) se lee: esIera reducida de centro a y radio r" e indica la
diIerencia entre S (a, r) y a ) . Es decir, Sz (a, r) denota la esIera abierta de centro a y radio
r, excluido el centro.
Definicin
a e R es un punto de acumulacion de C si y solo si la interseccion entre C y cualquier
esIera reducida de centro a es no vacia.
a e Rn es de acumulacion de C ` V r ~ 0: Sz ( a , r) n C 0
Los puntos de acumulacion de un conjunto suelen llamarse puntos limites.
Observamos que un punto de acumulacion de C C Rn no pertenece necesariamente a C.
Tal es el caso de la Iigura siguiente:
www.FreeLibros.com
www.FreeLibros.com
. . J p e s p u n t o Irontera y tambien de acumulacion de C
Si consideramos
CONVEXIDAD. PROGRAMACION LINEAL
a e C es punto Irontera de C, pero no es de acumulacion de C.
contiene inIinitos puntos de redUClda rada en un punto de acumulacion de C,
10.2.5. Conjunto abierto
Sea C C R
Definicin
c es abierto si y solo si todos sus puntos son interiores.
c es abierto ` Va e C, 3 r ~ o q S ( a , q ) n c S( a r)
- f . " K z t r s r - > - . .
qus i , , 1 M a n i S de la s K l :
10.2.6. Conjunto cerrado
Consideremos C C Rn.
Definicin
c es cerrado si y solo si todo punto de acumulacion de C pertenece a C
r r pun, os de
derivado de C. Diremos entonces que P o S e acumulaeion de C, se llama
C es cerrado ` C CC
La siguiente Iigura
www.FreeLibros.com
www.FreeLibros.com
DE I DO Y CLAUSURA 329
C
representa un conjunto cerrado, donde C A. Los conceptos de abierto y cerrado no son
cluyentes, ya que existen conjuntos que no son abi ertos ni cerrados.
6XEste es el caso de un conjunto Iormado por la union de un disco abierto y un punto
aislado. Observamos, ademas, que un segmento abierto es un conjunto abierto en R, pero no
lo es en R2s o sea, el concepto de abierto es relativo al espacio metrico que se considere.
El lector podra demostrar, como ejercicio del trabajo practico, que un conjunto es
cerrado si y solo si su complementario es abierto.
Se veriIica que la interseccion de toda Iamilia de cerrados es cerrada, y que la union de
toda Iamilia Iinita de cerrados es un conjunto cerrado. Estas proposiciones son consecuencia
de la propiedad anterior.
10.2.7. Clausura de un conjunto
SeaCC R .
Definicin
Clausura de C es la union entre C y su derivado.
El simbolo C se lee: clausura de C .
Se tiene
c - c u c
O sea, la clausura de C es la union entre C y el conjunto de sus puntos de acumulacion. Se
demuestra que la clausura de un conjunto cualquiera es cerrada. Mas aun, que la clausura de
un conjunto C es la interseccion de todos los cerrados que inlcuyen a C. En este sentido, la
clausura de C es el mnimo cerrado, en el sentido de inclusion, que contiene a C.
10.2.8. Conjunto acotado
Se a CCR .
Definicin
C es acotado si y solo si existe r ~ 0 tal que
a e C ` IIa I l vr
www.FreeLibros.com
www.FreeLibros.com
O sea, C es acotado si y solo si existe r ~ 0 tal que
C C S ( 0 , r )
Definicin
C esta acotado por debajo si y solo si existe a e R tal que
x I C ~ a v x
La notacion vectorial a v x signiIica que a{ v x, Vi 1, 2 , . . n.
Definicin
C esta acotado por arriba si y solo si existe a e R tal que
x e C ` x v a
El conjunto C C R2 indicado en la siguiente Iigura esta acotado por debaio
arriba
9 9 . CONVEXIDAD. PROGRAMACION LINEAL
10.3. SEGMENTOS, HIPERPLANOS Y SEMIESPACIOS
10.3.1. Rectas y segmentos en R
Sean Pj y P2 dos puntos distintos de R . La ecuacion vectorial de la recta P( P2
. X Pi r ( P 2 Pj ) donde i e R
www.FreeLibros.com
www.FreeLibros.com
ECT EENTO EN R"
331
Por distributividad respecto de la suma en Rn y en R, se tiene
X i P 2 ( l - O ` i c o n i e R
La recta determinada por Pj y P2 es el conjunto
P, P2 X e R q X r P2 (1 - i) P , )
El segmento Pi P2 se obtiene haciendo variar el parametro t entre 0 y 1, o sea
Xe P , P2 vzX P2 ( 1 - t1 a 0 v i v l
como
si. k. x j * 1 V*
Observamos que cualquier punto del segmento determinado por Pj y P2 puede expresarse
combinacion lineal de estos, con escalares no negativos y cuya suma es 1.
Ejemplo 10-1
La ecuacion vectorial parametrica de la recta determinada por Pj ( 3, 0) y P2(0, 4) es
( x 1 , x ) ( , ) f ( , )
El sistema de ecuaciones cartesianas parametricas es
X i = -
x x 2 = t
Eliminando el parametro resulta la ecuacion cartesiana
O sea
z i 3 3
4
4 x i + 3 x 2 12 (1)
www.FreeLibros.com
www.FreeLibros.com
La representacion es
CONVEXIDAD. PROGRAMACION LINEAL
El vector c 41 3 j
es normal a . En notacion matricial, la ecuacion ( 1) se escribe
Ct X = l 2
La distancia entre 0 y r es
La igualdad
( 0, r ) = l pc p 1 1 x
I I CI I 5
c x z
direccion d e ! rt o c ` V o r t r y t drectaPara elamen,e 3 `
misma en la
Ejemplo 10-2
dEI o dete nado por P, y P2, con las
por coordenadas del ejemplo anterior, esta
Pl , (0. 4) ( l r) (3, 0) con 0 v r v 1
( 2 . 2) ( o . 4 I ) ( 3 - 3 q , 0 ) ( 3 3 q , 4 i )
de donde resulta t
2
www.FreeLibros.com
www.FreeLibros.com
r
10.32. Hiperplanos en Rrt
pefinicitt
Un hiperplano en R es un conjunto de puntos de R tales que
C*X = k
donde C denota un vector columna de n componentes y k es un numero real.
I E NOS
333
El vector C es ortogonal a 7r. En eIecto, sean Pj y P2 pertenecientes a ir. Entonces es
C( P , ^ a C( P2 =A
Luego
Ct (P2 - P , ) 0
O sea, el producto interior entre C y cualquier vector de tt es cero.
Luego
CJ.7T
La ecuacion de un hiperplano que pase por el origen es
C( X 0
La ecuacion normal vectorial se obtiene dividiendo por IIC li y considerando k en valor
absoluto, o sea
Cz
CU
=
l i t i
Esta igualdad puede escribirse
NI X = p
www.FreeLibros.com
www.FreeLibros.com
9 9 E
CONVEXIDAD. PROGRAMACION LINEAL
donde N es un vector unitario normal al plano. El numero es, en valor absoluto
II CII
distancia del origen al plano.
Los hiperplanos de ecuaciones C X k , y CX k2 son paralelos si y solo si C, a C
En R2 un hiperplano es una recta. En R3 es un plano.
La ecuacion cartesiana del hiperplano cuya ecuacion vectorial es
C *X = k,
se escribe
n
2 Ci Xi = k
11
Consideremos el caso de un hiperplano cuyas intersecciones con los ejes sean positivas I
siguiente Iigura ilustra la situacion en R2 u
La ecuacion es
C *X = k
donde k > 0. Mostraremos que si el hiperplano se traslada paralelamente a si mismo en la
direccion del vector normal, entonces el termino independiente de la ecuacion crece En
etecto, el hiperplano que pasa por X ! , de vector normal C, esta deIinido por
CI X - I c i
Si consideramos el hiperplano con el mismo vector normal, que pasa por
X2 Xj a C, con a > 0,
se tiene
C *X = k 2
www.FreeLibros.com
www.FreeLibros.com
EIE CIOS
335
Como
resulta
Ct X2 ^ C t ( Xl ttC) Ci X1 + a C t C = k l o: Il CIP
2 ` k x
Todos los puntos del hiperplano de ecuacion Ct X = k 2 veriIican C* X ~ k
Se propone como ejercicio del trabajo practico la demostracion de la siguiente propiedadz
todo hiperplano es un conjunto cerrado.
10.3.3wSemiespacios
Un hiperplano 7Tde ecuacion
C ( X A
determina una particion de R en tres conjuntos: el hiperplano 7r y dos semiespacios
abiertos de borde 7T.
Ilustramos esta situacion en R2.
Definicin
Semiespacios abiertos de borde TT son los conjuntos
S, ( X e R n q C i Xv q c
S2 ( X e R n q C I X~i Ic
Definicin
Semiespacios cerrados de borde 7r son los conjuntos
www.FreeLibros.com
www.FreeLibros.com
9 9
CONVEXIDAD. PROGRAMACION LINEAL
Si I X e R n / C t X < k \
- j u n t o s Aabiertos, y que los semiespacil
10.4. CONVEXIDAD EN R
10.4.1. Conjuntos convexos
S e a CCR .
Definicin
p u n i d a C a l n CY ` z z Se8menio ` par de
C C R es convexo o Pi e C ` P2 e C ` p T p , c e
Sabemos que
Pi P2 I X e R n j X = t V 2 ( i i ) Pl A 0 v v i x
oonvez. de dos puntos c a I c z ` de C ..e. te ece a c I nll,il,acio
combinaciones convexas de P VP pspI ca conjunto de todas las
convexas ae P, y P2 es el segmento cuyos extremos son estos puntos.
10.4.2. Propiedad
La interseccion de dos conjuntos convexos es un conjunto convexo
y `pertenecientes Co nVeX0S Comi deremo Sd w - ` i e r a P,
P, eC A P2 eC =*P^eC a P, e C j A P2 e c , a P2 e C2 z
`P~ P2 c c , AP, p 2 c c 2 =p , p2 c c , n c 2 ^ p 7 p c e
esta incluido en la interseccion de estos. conjuntos, entonces
10.4.3. Combinaciones convexas
Sean P , , P2, . . . , P m pertenecientes a R .
www.FreeLibros.com
www.FreeLibros.com
CONVEXIDAD EN RM
337
Definicin
Combinacion convexa de los puntos Pt , P2 , . . Pm es todo vector del tipo
cioj . 2 di PI
ii
donde
2 oc = 1 y a.- > 0, Vq 1 , 2 , . . . , m.
ii
propiedad
El conjunto de las combinaciones convexas de los puntos P j , P2, . . . , Pm, es convexo.
Hipotesis) j P i , P 2........ P wx C R
i m m ~
de Tesis) C .2` cI PI q 2` 1a ~ 0 J es convexo
Demostracion)
Se trata de probar que toda combinacion convexa de dos puntos cualesquiera de C,
pertenece a C. Sean P y P pertenecientes a C. Ahora bien
donde
12
ion
P e C a P e C P 2 a) Pa P 2 a , P,
ii Ii 1
0 v aj-, 0 v y 2 ax- .2 a ) 1
las V z-1 Ii
Como
ni m
t P (1 - 0 P t .2 a PI ( i - 0 2 a s. PI
m
2 ( i as ( l - O q) PI
M 1-1
resulta t P (1 -- i) P una combinacion convexa de los m puntos dados, pues
0 v ~ 0 v t
0 v as - ~0v( 1 - i )
Luego
lt0 - 0
Ademas
m m m
2 t a (1 - i) a = t 2 a- (1 - t) 2 a 1
il 1 11 v 11 1
El conjunto C, representado en la Iigura siguiente, es el conjunto de las combinaciones
convexas de los puntos Pz, P2, P3 y P4 pertenecientes a R2
www.FreeLibros.com
www.FreeLibros.com
9 9
CONVEXIDAD. PROGRAMACION LINEAL
Sea C un conjunto no vacio de R .
Definicin
Casco convexo de C es la interseccion de todos ios convexos que incluyen a C.
incluye a Co nVeXo ` C C R eI mnim convexo (en el sentido de inclusion), qu,
Sea C el casco convexo de C. Entonces
c n c,-
donde I CI q i e IJ es la Iamilia de todos los convexos que incluyen a C.
Ejemplo 10-3
s e s e n t a Co nVeXo Co njUnto C d o nde P~
En R3, si C es la superIicie esIerica de radio 2 con centro en el origen, entonces C es
la esIera correspondiente. En terminos analiticos, se tiene
C ( X e R 3 q IIXII 2 J
C. X e R 3 q IIXII v 2 i
10.4.5. Propiedad
El casco convexo de un numero Iinito de puntos de R es el conjunto de 1
combinaciones convexas de ellos.
Sean P, P2, . . Pm pertenecientes a R . En 10.4.3. hemos demostrado que el conjunl
de las combinaciones convexas de estos puntos es convexo.
Este conjunto que denotamos mediante S, es un convexo que incluye
de todoseHos : ` CU3lqUi era o S de
Consideremos ahora la interseccion de la Iamilia de todos los convexos que incluyen a
O S63
C n C- q C D C a C,- es convexo
co
Hi
Te
De
P
www.FreeLibros.com
www.FreeLibros.com
CONVEXIDAD EN Rrt
339
1s
unt
re
icio
i a(
Debemos probar que
C C A y A es convexo S C A
Razonamos inductivamente sobre m.
1 Si tn 1, Ia proposicion se veriIica obviamente, ya que S C.
2 Suponemos la validez par a m- 1. Se tiene

P e S =* P = 2 a* Pf a 0 < a 2 a = 1
i 1 i 1
Sea entonces
p ( i - o ( p, ` P 2 . . . - ` i - P m n ) vzm P,
1 - am 1 - am 1 - am J
Iti dm i
cx vector ------ Pi . . . ` ` P m - i es una combinacion convexa de
1 - Otm z - m
P P2, . Pm -i ~y Por hipotesis inductiva pertenece a A. Como este es convexo, P, que
es una combinacion convexa de dos puntos de A, pertenece a A.
En consecuencia
S CA
O sea, C S.
Definicin
Poliedro convexo generado por un numero Iinito de puntos es el casco convexo que
ellos determinan.
El triangulo representado en 10.4.3. es el poliedro convexo generado por P j , P2, P3 y P4.
10.5. CONVEXIDAD Y TRASFORMACIONES LINEALES
10,5.1. Imagen de un conjunto convexo
La imagen de un conjunto convexo, por toda trasIormacion lineal q : R - Rm, es un
conjunto convexo.
Hipotesis) q : Rn -wRm es trasIormacion lineal
C C R es convexo
Tesis) q( C ) es convexo en Rm
Demostracion) Sean y pertenecientes a f (C). Por deIinicion de imagen, existen P y
P en C, tales que
q ( P ) z y q ( P )
Como C es convexo, se veriIica que
i P ( l - r) P e C
www.FreeLibros.com
www.FreeLibros.com
Luego
O sea
9 E.
CONVEXIDAD. PROGRAMACION LINEAL
q ( n ( l 0 q ( P ) e q ( C)
( l - ) e q( C )
En consecuencia,q(C) es convexo.
10.5.2. Preimagen de un conjunto convexo
c o m o eZ I x o de Un Co njUnt0 Co nVeX0 Po r zoda d a c i o n n e a l q: R w` z
Hipotesis) f : R n ->Rm es trasIormacion lineal
C C Rm es convexo
Tesis) q 1 (C) es convexo en R .
Demostracion) Consideremos dos puntos cualesquiera P v P i
deIinicion de preimagen, de t r a s l a c i o n lineal yTe convexMad, L t z C
P e f 1 (C) a P e n (C) ` q ( P ) e C a q ( P) e C
=>t f {P) ( i ,) q( ~) e c ~q( p (1 r) F ) e c `
~i P ( 1 - 0 P e f 1 (C)
En consecuencia,q 1 (C) es un conjunto convexo.
10.5.3. Convexidad de hiperplanos y de semiespacios
1. Todo hiperplano es un conjunto convexo.
Consideremos C e R y la Iuncion q R -wR deIinida por
q( X ) CzX
Rn
esin
elemento e s z e R estonvexcI T L e r i n lO s ` ` ConjUnto oUyo
convexo en R . Tal preimagen es el conjunto Premagen por q, es uw
www.FreeLibros.com
www.FreeLibros.com
CONVEXIDAD Y TRASFORMACIONES LINEALES
341
( Xe R / f ( X) = Ct X
0 sea, el hiperplano de ecuacion Cz X k,
! El conjunto C 1z e R q x ~ I c x es convexo.
Pi P2
________________ o------------------------------------------------ ---------
k x 1 z 2 R
Bn eIecto:
Pj eC a P2 eC ~x4 > k A x 2 >k=>
=*t x2 ( 1 - t ) x i > t k + { 1 I) Ir - Ic
II Todo semiespacio abierto es un conjunto convexo.
Considerando la trasIormacion lineal f : R -~ R deIinida por
q( X ) Cz X,
y que el conjunto
x e R / x ~ k
es convexo, entonces su preimagen, o sea
j x e R q q ( X ) Cz X~ ,
es un conjunto convexo, de acuerdo con 10.5.2.
Tal preimagen es el semiespacio de inecuacion
C * X > k
IV. Con criterio analogo se prueba que todo semiespacio cerrado es un conjunto
convexo.
V . La interseccion de un numero Iinito de semiespacios, por ser estos conjuntos
convexos, es un conjunto convexo. Tal interseccion, como lo muestran las siguientes
Iiguras, puede ser acotada o no.
www.FreeLibros.com
www.FreeLibros.com

342
10.6.1. Propiedad
CONVEXIDAD. PROGRAMACION LINEAL
10.6. h i p e r p l a n o s sopo r t a n t e s
Si C es un subconjunto cerrado y convexo HP R
pertenece a C, o bien existe un hiperplano tt T a u l J L T * ^ pUnto
en uno de los dos semiespacios abierta de borde z Y q C 6Sta z z 4
demostraremos`ue6existe un h i p e ` l a n o ` ` e ` e r i I i ` l 110` 611z0` 068 ` f * C' en ^ z
Consideremos la Iuncion aIirmado en el enunciado.
deIinida por
f P ( X) = )
La Iuncion f p es continua y alcanza el minimo en C. O sea
p , . 3 A e C q X e C ( A ) v q (X)
t s decir, existe A e C tal que
IIA P ( xv Hx Pxx e e
Sea N A - P. Se veriIica que N z 0, pues A e C v P ` r AI
ortogonal a N que pasa por P es tal que C esta incLrI AI 0s que el hiperplan
abiertos determinados por el. incluido en uno de los dos semiespacio
La ecuacion de tal hipeiplano es
Ni ( X - P ) 0
O sea
semiabierto (o, se veriIic`que`1 10 ` A ent0nces para todo Perteneciente al inte!
I I
www.FreeLibros.com
www.FreeLibros.com
do al cuadrado y teniendo en cuenta la expresion del cuadrado del modulo y la
E-bltIridad del producto interior, en notacion matricial, resulta
di Stri II A - Pll2 v I A - Pli2 2 t (A - P)z (B - A) t%II B - Ail2
Despues de cancelar y dividir por V.
0 v 2 (A - P)( (B - A) t II B - AII2
Para t -+ 0 es
0 v ( A - P)I (B - A) NI (B - A) Ni B - N i A
Nz B - Nz A Nz P - Nz P N( (B - P) - NI (A - P)
Osea
0 v N I (B - P) - N N
De donde
Ni N v N t ( B - P )
Y como Ni N ~ , pues N z 0, resulta
0 v N ( ( B - P )
Es decir
Ni B ~ N i P
En consecuencia, B pertenece al semiespacio de inecuacion
Ni X ~ N i P
O sea, C esta incluido en el semiespacio abierto determinado por la inecuacion
Nz X~Nz P
HIPERPLANO SOPORTANTE
10.6.2. Hiperplano soportante
Sea P un punto Irontera del subconjunto convexo C C R ,
Definicin
7r es un hiperplano soportante del conjunto convexo C en el punto Irontera P si y solo
si C esta incluido en uno de los dos semiespacios cerrados de borde ir.
ueda como ejercicio del trabajo practico la demost racion de la siguiente propiedad: si P
es un punto Irontera de un conjunto convexo C, entonces existe un hiperplano soportante de
CenP.
Ejemplo 10-4
ni Consideremos un conjunto convexo C y el hiperplano de ecuacion
N *X = k
www.FreeLibros.com
www.FreeLibros.com
344
CONVEXIDAD. PROGRAMACION LINEAL
Sabiendo que
X e C ` N x ~ ( i )
aIirmamos que todo punto perteneciente a r n z
Bn eIecto, S1 P no J ra un
Luego
P - e N e C
N ( P e N) Nt P ` e N N i s - e N vNv j t
lo que es imposible, ya que todo punto de C satisIace <1~
soportante de c en
10.7. PUNTOS EXTREMOS
Sea P un punto del conjunto convexo CCR
Definicin
perteneciemeIa c S q u i o Y ` S ^ GXStm dos Puntos t i n t o s P, y P
P i -p2 ( l - q ) P1 donde 0 v i v j
determinadc`po`dos punto`dis ntos d e ` l z0 Co nVeXo no PerteneCe aI -btaz
. z
Se demuestra que todo punto extremo de
Propiedad U Co njUnto Co nVeXo PUnt0 I era.
Todo hipeiplano soportante de
contiene un punto extremo. ConVeXo y acotado
por debajo,
www.FreeLibros.com
www.FreeLibros.com
PUNTOS EXTREMOS
345
r est a aIirmacion consideremos un hiperplano soportante de C en un punto
Para pro z taJ `perplano, y su ecuacion
n! x = n' p0
7 1
sea
deremos el semiespacio cerrado deIinido por
NI X~N Po VXeC
A - ttn c
c u e r d o con las hipotesis y propiedades anteriores, A es convexo, cerrado y acotado
-J
De ac
debajo.
Probaremos que todo punto extremo de A es un punto extremo de C. En consecuencia, el
problema queda reducido a la determinacion de los puntos extremos de A.
Supongamos que P sea un punto extremo de A no perteneciente a Cs entonces existen Ch
y 2 en C tales que
P i 2 ( 1 O i A 0 v i v l (1)
Ahora bien
De (1) se deduce
Pe 7 T ` Ni P N P0 (2)
Ni P i N i 2 ( 1 - i ) N ( j
De esta igualdad y de (2) resulta
N P0 i N ( a ( l - i ) N i (3)
Ademas
t eC a 2 e C~NI i ~ N ( P0 a N 2 ~ N e P0
Supongamos que se veriIica alguna desigualdad estricta, por ejemplo, N( 2 ~ N( P0.
www.FreeLibros.com
www.FreeLibros.com
346 CONVEXIDAD. PROGRAMACION LINEAL
Entonces, considerando (3) se tiene
Ni P0 ~ q N i p o ( l - q ) N i P0 Ni Pn
lo que es absurdo. En consecuencia, se veriIica que
Ni 1 N i P0 a NI 2 = Nz P0
O sea
y esto contradice la suposicion de que P es un punto extremo de A
extrem Co mo ejerddo z bz o ~ z * determinacion eIectiva de un punto
p u n t t qUe t0do Co njUn,o aCOtado y convexo es el casco convexo de j
^ r de que un ~ - *
. .. INTODUCCION A LA PROGRAMACION UNEAL
10.8.1. Concepto
r r s ? x s - r i r r * ? - - - -
aphcable a sistemas complejos en los que i n t e J e e n T e rso etCe,era w
dinero. Su objetivo es el asesoramiento a Iin de adornar L e o s ~ materia prima y
La Programacion Lineal es un m ` e l o n a r t i . l T com^ e s.
Los problemas que trata la Programacion Lineal s o ` 6 n ^ Investi6acion Operativa.
^EiHn6 relac`ones zzneales que vinculan las variabies corolos datos16 PUeden eXPreSadoS
fsirtZ'SE. rr.rr
soluciones posibles y optimizacion del objetivo. SU P estruciura lineal,
www.FreeLibros.com
www.FreeLibros.com
OGRAMACION LINEAL 347
oroducir una unidad del producto A x , el dinero insumido por los recursos es, en pesos,
pa 0 y 4 respectivamente. En el caso del segundo producto las cantidades son 6, 2 0 y 4.
5 Esta situacion queda indicada en la siguiente tabla o matriz
A)
a 2
Mano de obra
5 6
Materia prima
10 20
Equipos
4 4
El dinero disponible para cada uno de los tres recursos es, respectivamente, 15.000,
20.000 y 6.000 pesos. . . .
La ganancia o beneIicio neto por cada unidad del producto A! es 3 pesos, y por cada
unidad del producto A2 es 4 pesos. Se supone que el mercado puede absorber sin
competencia estos productos.
Con esta inIormacion completamos el cuadro anterior:
` ` ` P r o ducto s
Recursos` ` ` A!
a 2
Disponibilidades
Mano de obra
5 6 15.000
Materia prima
10
20
20.000
Equipos
4 4
6.000
BeneIicio
3 4
El problema consiste en determinar las cantidades a producir, Xi y x 2, de los productos
Ai y A2i respectivamente, a Iin de obtener el maximo beneIicio. El objetivo es, entonces,
maximizar el beneIicio.
Las variables x t y x 2 deben satisIacer las siguientes restricciones:
1. Condiciones de vinculo
5jcx .
10 x i 20 x 2 v20.000
4 x i + 3 jc2 v .
2. Condiciones de no negatividad
\Xl >0
www.FreeLibros.com
www.FreeLibros.com
9 E CONVEXIDAD. PROGRAMACION LINEAL
El numero de unidades producidas de cada producto no puede ser negativo.
El conjunto solucion S del sistema Iormado por las inecuaciones anteriores es
interseccion de los cinco semiespacios (en este caso semiplanos), que tales inecuacio
determinan. nes
Para obtenerlo, representamos primero las rectas cuyas ecuaciones son:
5 x 6 x 2 15.000
10 X! 2 0 x 2 20.000
4 z i 4z 2 6.000
Las condiciones de no negatividad restringen el problema al primer cuadrante. Obtenemos
las intersecciones de las rectas con los ejes escribiendo las ecuaciones en la I0rm
segmentaria, o sea, dividiendo por cada termino independientemente:
3.000

2.500

z2
2.000 1.000

z2
1.500 1.500
La representacion de las tres rectas y del conjunto S, interseccion de los cinco
semiespacios, queda indicada en la siguiente Iigura
www.FreeLibros.com
www.FreeLibros.com
OGRAMACION LINEAL
349
conj Unto solucion S es el cuadrilatero cuyos punto s (x x, x 2) satisIacen las condiciones
nculo y de no negatividad. S recibe el nombre de conjunto de soluciones posibles o
I 6 ubles De el hay que elegir el subconjunto cuyos elementos maximicen la Iuncion objetivo
f ( x l t x 2) = 3 z ! + 4 x 2
x ) representa el beneIicio neto que se obtiene al venders ` unidades del producto A!
y unidades del producto A2.
La relacion
3 z i 4 x2
e e s e g o una Iamilia de rectas paralelas, de pendiente m = llamadas rectas de
isobeneIicio.
De estas, interesa aquella cuya interseccion con S sea no vacia y cuya distancia al origen,
es decir,, sea maxima. Esto es, hay que determinar la recta de la Iamilia de mayor k y de
interseccion no vacia con S.
www.FreeLibros.com
www.FreeLibros.com
9 .
CONVEXIDAD. PROGRAMACION LINEAL
En la Iigura se ha representado la recta de la Iamilia que Dasa n n r .1
ecuacion es 3 que pasa P0r el ogcn y CUya
*, * =
origDeeSP,aZando oSta reC,a 18 direcci0n dcl vector ~ w~ 31 4 J cace la distancia a,
b e n e L r ` r i : s : er: r dee al punto a o o o - 5oo)- pw -z w ` ` z . y
x z) ~ 3 . =
unidadesdel producto ` T ` r i n T d a d e s ` V ` C u T P1oduci cndo 1-000
Con relacion al problema expuesto, utilizando notacion matricial, se tiene
A M 10 20 I z w i 2O.OOO )
1. Condiciones de vnculo:
2. Condiciones de no negatividad:
3. Funcin objetivo (a optimizar):
Ejemplo 10-5
6.000 /
c
A X v B
X ~ 0
q ( X ) - C I x
Desarrollamos el siguiente problema expuesto por Tucer en el Se,w- ,
Royaumont, cuyo enunciado Iigura en la publicacion numero 26 escrita 2 7 r
LUwA. Santalo, de la coleccion La Escuela en el T i e m p o S c S ` a 9 `
Un chacarero tiene a su disposicion hectareas de tierra i f.a a - i ' [
cultivarlo y 1 , 0 0 pesos para invertir. Desea s e l r a r dIcu, titos
requiere un dia-hombre por hectarea y produce un beneIicio de 40 pesos or lie * zz
www.FreeLibros.com
www.FreeLibros.com
OGRAMACION LINEAL
351
Cultivos
Re c u r so s` .
Ci c ,
Disponibilidades
Hectareas 1 1 100
Dias-hombre 1 4 160
Inversion por ha. 40 20 1.100
BeneIcio 40 120
Si x j y x 2 son las hectareas que deben destinarse a los cultivos Ci y C2, el problema
consiste en maximizar la Iuncion objetivo
4 0 z ! 120x2
sujeta a las restricciones
z1 z 2 v 100
z 1 4z 2 ` 160
10xi 2 0 x 2 v1. 100
~ 0
x2 ~ 0
En el graIico siguiente estan representados el conjunto S de soluciones posibles, y el
punto de coordenadas (60, 25) que optimiza la Iuncion objetivo:
www.FreeLibros.com
www.FreeLibros.com
El maximo beneIicio se obtiene sembrando 60 hectareas del cultivo 1 y 25 hecta
del cultivo 2, o sea, dejando 15 hectareas sin cultivar. eas
10.8.2. Problema general de Programacion lineal
Un problema de programacion lineal puede expresarse de la siguiente manera:
minimizar q( X ) C X xct X, (Iuncion objetivo)
sujeta a las restricciones:
A X v B (condiciones de vinculo)
X > 0 (condiciones de no negatividad)
donde X e R x l , A e Rmx , B e
Definicin
Solucion posible o Iactible de un problema de programacion lineal es todo vector de
K que satisIaga las restricciones. r de
El conjunto S, de las soluciones posibles es conven a
semiespacios cerrados. Si alguna condicion de vincnln p ^ ` interseccio de
interviene un hiperplano, que es convexo y cerrado. eCUaC10n en tal interseccion
Definicin
na So 1Udn Po Si ble en este caso) ,a
Propiedad
tiene puntos interiores al conjunto d I sd u c t o n e s p`iMes0` 1 eno nCeS hiperPIano no
t - i z o 31 minimo de ia z z
S de soluciones posibles. 0 que es intenor al conjunto
Por deIinicion de punto interior, existe e ~ 0, tal que
S (P0 , e) C S
352 CONVEXIDAD. PROGRAMACION LINEAL
El punto
P i P 0 -

3 II CU
pertenece a S, ya que es un elemento de la esIera abierta de centro P0 y radio e, pues
r I ( P a , P , ) IIP, - P 0 II-1
3
www.FreeLibros.com
www.FreeLibros.com
OLUCIONES OPTIMAS Y PUNTOS EXTREMOS 353
El vector Pi veriIica, ademas
p I p q - i i p ` C C T e l l e II , ,
c P c P 7 i d ` a
lo que es contradictorio con la hipotesis de que la Iuncion objetivo alcanza el minimo en P0.
En consecuencia, podemos aIirmar que un hiperplano correspondiente a una solucion
optima es un hiperplano soportante de S en el punto de solucion optima.
10.8.3. Soluciones optimas y puntos extremos
propiedad
La Iuncion objetivo toma el valor optimo en un punto extremo del conjunto de
soluciones posibles. Si toma dicho valor en mas de un punto extremo, entonces lo toma en
toda combinacion convexa de tales puntos.
Consideremos un problema generico de Programacion Lineal, consistente en maximizar la
Iuncion objetivo
q( X ) C* X
sujeta a un numero Iinito de restricciones del tipo habitual. Entonces S admite un numero
Iinito de puntos extremos, y se identiIica con el poliedro convexo generado por ellos. Es
decir, S es el casco convexo de sus puntos extremos, y por consiguiente toda solucion posible
puede expresarse como combinacion convexa de los mismos.
Sean P i , P2, . PIc los puntos extremos, y sea P0 un punto de solucion optima, es decir,
que maximiza la Iuncion objetivo.
Se veriIica que
P e S ~ q ( P ) v q ( P 0 )
Debemos probar que existe un punto extremo, en el q u e qt o m a el v al orq(P0). Como
P0 eS, se tiene
k k
P0 2 oc, Ps con 0 v oc a 2 a 1
u 11 z 1 i
La Iuncion
deIinida por
/ : RH R
q( X ) Ci X
es una trasIormacion lineal, y en consecuencia
/ ( P 0)== / ( P ) ( 0
ii
Consideremos
q( P z ) max j q( P ) q i ~ 1~2........ z )
i
www.FreeLibros.com
www.FreeLibros.com
Como Pz es un punto extremo de S, y q toma el maximo en P0, es
q( P z ) v q( P 0) (2)
Por deIinicion de maximo se tiene
q( P z ) ~ q( P , ) Vq 1, 2 , . .
Entonces
OIq(Pz )~aqq(Pi) i i , 2, . . . , A
Realizando la sumatoria respecto de i, es
x l <xi n n > 1 <xi f ( p i)
354 CONVEXIDAD. PROGRAMACION LINEAL
O sea
k
Como`S <Xi 1, resulta
De ( I ) y (3) se deduce
q( P z ) . 2 a, a , f ( P,)
/ ( ? * ) > 2 a,/-(Pj) (3)
q( P z ) ~ q ( P )
De esta relacion y de (2), por la antisimetria, se veriIica que
q( P o ) q( P z )
m a S n a Ci r PM eXtK e CUai Ia Iuncion obj eti el valor
P, qUe q 41031123 d Pti m0 do SPUnt0S extremos y sean estos
q ( P i ) q ( P y ) M
Consideremos una combinacion convexa
P i P , - U q) P,
Como
q( Pt I q( P s-j (l r j q( P )- q M ( l q) M M
de pj y p bado qUe d Va o r p,imo alCanZado en e PUltU P 4Ue eS combi MCo convexa
10.8.4. Observacion
Sabemos, por 10.6.2., que todo conjunto convexo, cerrado y acotado por debajo tiene
puntos extremos en cada hiperplano soportante. El conjunto de soluciones posibles de un
www.FreeLibros.com
www.FreeLibros.com
OLUCIONES OPTIMAS Y PUNTOS EXTREMOS 355
problema de Programacion Lineal es convexo, cerrado y acotado por debajo por el vector
nulo ya que X ~ 0. El teorema anterior asegura que si existe optimo de la Iuncion objetivo,
tal valor es alcanzado al menos en un punto extremo. En R , S tiene un numero Iinito de
puntos extremos. . .
El problema se reduce entonces a examinar el valor de la Iuncion objetivo en los puntos
extremos a Iin de hallar el optimo. El metodo Simplex permite determinar analiticamente
los puntos extremos y pasar de uno a otro analizando el valor d e q, hasta obtener el optimo.
www.FreeLibros.com
www.FreeLibros.com
AAC ) A C
m S e a A ` J ` . ` e R q U i K i A ` K ! ) y j (2 , i ) x
Determinar la Irontera y el derivado de A.
0-7. Dados los siguientes subconjuntos de R2
A \ ( x i , x i ) l 2 x \ 3 z 1 v 6 i
B \ ( x l t x 2) x 1 > 1 a x 2 v 2 i
C j ( x l I X2) q X i X 2 ` 2 A X ` 0 Ax 2 ` l
clasiIicar los puntos del plano respecto de ellos, determinar sus Ironteras y derivados e
investigar si son abiertos o cerrados.
10' 8' ab qUC Un Co njUnt0 A C R Cerrado Si y S1o Si su wnphmentario es
10-9. Demostrar que un hiperplano es un conjunto cerrado.
10-10. Investigar si los conjuntos de los ejercicios 10-6 y 10-7 son convexos o no.
10-11. Demostrar que la union de una Iamilia numerable de abiertos es un conjunto abierto.
10-12. Demostrar que la interseccion de una Iamilia Iinita de abiertos es un conjunto abierto.
10-13. Demostrar que la interseccion de una Iamilia numerable de cerrados es un conjunto
cerrado, y que la union de una Iamilia Iinita de cerrados es un conjunto cerrado.
10-14. Determinar el casco convexo generado por los puntos (1, 2) (1 n ( l i w , n
( - 1 , 2 ) , (2, 3), ( - 1 , - 1), (1,0). Investigar si (0, 0) es combinacion convexa (1, - 1 ) y
10-15. Seaq : R -z R l a traslacion deIinida p o r q( x ) x a, donde a e R
Demostrar que
S es convexo =>f (S) es convexo
Demostrar que el conjunto solucion del sistema lineal A X B, donde A e R
o e K y X e R , es convexo.
10-17. Sea OCR . Por deIinicion
C es un cono ` x e C ` a x e C A a ~ 0
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO X 9
Demostrar que si A C Rz1, entonces el conjunto
C i a x qa ~ 0 a x e A )
es un cono. C recibe el nombre de cono generado por A.
048. Determinar el cono C C R3 generado por la interseccion de
( x i , x 2, x 3) l x 21 + x < 2
y el plano de ecuacion x 3 2.
1049. Sabiendo que C es un cono, demostrar que
C j - x q x e C x
es un cono. C recibe el nombre de cono opuesto de C.
10-20. Demostrar que si C es un cono, entonces
C1 j y q y , x~ 0 , V x e C j
es un cono. Cx se llama cono ortogonal a C.
10-21. Demostrar que el cono ortogonal al cono C C R es un subespacio de Rw.
10-22. Sean los conos Cj y C2. Demostrar que
C c 1 C 2 x x y q x e C 1 a y e C 2 x
es un cono.
10-23. Plantear el siguiente problema de programacion lineal: * Ao
Un mezclador de licores importa licores de tres grados: A, B y C. Mediante mezclas de
estos, ateniendose a las indicaciones especiIicadas en la tabla siguiente, obtiene tres
productos Iinales: L, M y N.
Mezcla
EspeciIicacion
Precio de venta
por litro
L
No menos del 60 ' de A
No mas del 20 % de C
68
M
No mas del 60 % de C
No menos del 15 ' de A
57
N
No mas del 50 ' de C
45
Las disponibilidades de los tres licores basicos y sus costos son
www.FreeLibros.com
www.FreeLibros.com
9
CONVEXIDAD. PROGRAMACION LINEAL
Licor
A
B
C
Disponibilidad maxima
mensual en litros
6.000
7.500
3.600
Costo por litro
63
45
36
r i " ; : : . saber cutoo debe produdr de ,os L, M y N> a& de m axi.
`` `si`iemes`pedidosq3`1` 31 ` Pro dUCe r0,1o S e 82 z ancho. Se han recibido i os
60 rollos de 58 cm
85 rollos de 26 cm
85 rollos de 24 cm
50 rollos de 23 cm
y t S i z s dt p e 3rdIciCom0 Co rtar 108 ro I,0S de 82 a v~ -tisIacer ios pedidos
www.FreeLibros.com
www.FreeLibros.com
W "
BIBLIOGRAFA
Bouteloup, J.: Clculo de Matrices, EUDEBA, Buenos Aires, 1965.
Cotlar-Sadosy: Introduccin al Algebra, EUDEBA, Buenos Aires, 1962.
pieudonne J.: Fundamentos de Anlisis Moderno. Editorial Reverte S.A., Barcelona, 1966.
Faddeeva, N. A.: Mtodos de Clculo de Algebra Lineal, Editorial ParaninIo, Madrid, 1967.
Faure-KauIman-Denis: Matemtica Moderna. Editorial ParaninIo, Barcelona, 1966.
Gass S.: Programacin Lineal. Editorial CECSA, Mexico, 1961.
Gentile E. R.: Espacios Vectoriales. C.E.D. ., Buenos Aires, 1965.
Graybill, F. A.: An Introduction to Lineal Statistical Models. Mac Graw-Hill, New Yor,
1961.
Hadley, G.: Linear Algebra. Addison-eesley Publishing Company, Inc., 1967.
Johnson R.: Algebra Lineal. CECSA, Mexico, 1969.
Lang S.: Linear Algebra. Addison-eesley Publishing Company Inc., 1967.
Lentin-Rivaud: Lecons d Algebra Moderne. Libraire Vuibert, Paris, 1961.
Lipschutz, S.: Teora y Problemas de Algebra Lineal. Serie de Compendios Schaum,
Colombia, 1963.
Lipschutz, S.: Theory and Problems o f Finite Mathematics. Schaum, New Yor, 1966.
Marcus-Minc: Introduccin al Algebra Lineal. CECSA, Mexico, 1969.
PettoIrezzo A. J.: Matrices and Transformations. Prentice-Hall, Inc., New Yersey, 1966.
Rao C. R.: Linear Satistical Inference and its Applications. John esley and Sons, Inc., New
Yor, 1968.
Rojo A.: Algebra I. Editorial El Ateneo, Buenos Aires, 1972.
Rudin e.: P r i n c i p l e s o f Mathematical Analysis. Mac Graw-Hill Boo, 1963.
www.FreeLibros.com
www.FreeLibros.com
BIBLIOGRAFIA
360
Simmons G. Fs: mtroaucnon to Topology andModem Analy^ Mac ` ` ` `
TUm o ` Vi s , L L L T I z qIlS h z z z z
Villamayor O..- Notes de Geometra q, Buenos Aires, 1966
Villamayor O, Algebra Lineal. MonograIia CientiIica Numero 5, O.E.A.
www.FreeLibros.com
www.FreeLibros.com
Tr
RESPUESTAS A LOS TRABAJOS PRACTICOS
TRABAJO PRACTICO I
j - i . i ) si i i ) si iii) no iv)no.
17. i ) sumar el opuesto de y.
i i ) sumar el opuesto de x.
iii) despues de cancelar y de trasponer, aplicar A9 y 1.3.3.
iv) trasponer y aplicar A8 y 1.3.3.
1-18. Despues de utilizar As y A9, y de cancelar, mediante 1.3.3. se obtiene a 1.
149. i ) si i i ) si iii) si iv)si v ) s i vi) no.
20. No, ya que no existe neutro para la suma en V.
1-21. Si. El lector debe probar que se veriIican los axiomas.
22. i ) si
i i ) no, pues (1, 1, 2) e S y (1, - 1 , 3) e S pero la suma (2, 0, 5) S
iii) no, porque S no es cerrado para la suma.
1-23. i ) no, pues no se veriIica A6
ii) si. VeriIicar las condiciones suIicientes.
1-24. Aplicar 1.8.2.
1-25. S no es subespacio de (C2, , C, .) pues no es cerrado para el producto por escalares.
Asi, por ejemplo
( 1 q , - 2 ) e S pero q ( l q , - 2 ) t I S .
En cambio S es un subespacio de (C2, , R , .).
1-26. Ai y A6 se veriIican por deIinicion de cada ley de composicion. Mostramos, a modo de
ejemplo, la validez de A2 :
(x, y) ( x y ) x (x y) (x x, y y) (x , y )
(x x x , y y y) - (x, y) (xz x , y y )
( x , y ) l ( x y ) ( x , y ) )
www.FreeLibros.com
www.FreeLibros.com
A i ) (z , ) e S - , )2
S e. el conjunto union de los dos ejes, o sea, no es un subespacio
U) T es el subespacio deIinido por la ecuacion z - 3, 0.
1-29. i ) 0, ya que no es cerrado para la sumas por ejemplo
( l , 0 e S y ( i , l ) e S pero (1 + t 1 A q s
i i ) s i
iii) si
iv) si. j (a, a + b) j a e R a b e R i
v ) si
Vi) si.
1-30 Tee, en cuenta las deIiniciones de suma de subespac.os y de inclusion
1-31. Suponer que x eS admite dos descomposiciones del p L x x v
y tener en cuenta la deIinicion de suma directa.
1-32. I o, Aplicar 1.8.2.
2 . Tener en cuenta el ejemnlo 4-5 iV or i ,
suma de una matriz simetrica y de una`ntisimetrica`3 m , t z
RESPUESTAS A LOS TRABAJOS PRACTICOS
1-27. Aplicar 1.8.2.
www.FreeLibros.com
www.FreeLibros.com
AAC ) A C
2-25. i ) se determinan a y b tales que
a ( v S , 2 ) 6 ( - V 6 , 2 ) ( V 2 , l )
Aplicando las leyes de composicion habituales se resuelve, despues de igualar
componentes, un sistema lineal de dos ecuaciones respecto de a y b.
ii) procediendo analogamente, el sistema resultante carece de soluciones y en
consecuencia v no es combinacion lineal de Vi y v2.
2-26. Considerar la relacion lineal
a x ( - 1 , 3, 1) a 2 (3, - 1 , 1) a 3 (4, 0, 2) - (0,0, 0)
y despues de aplicar las leyes de composicion usuales y de igualar las componentes de
las ternas se llega a un sistema lineal cuyas inIinitas soluciones estan dadas por
o`i k , 02 3 k , a 3 2 k
En la segunda parte, a partir de
(4, 0, 2) o ( - 1 , 3, 1) 0 (3, 1, 1)
1 3
se llega a un sistema lineal cuya solucion es a , 0 . Luego
2 2
(4, 0 , 2 ) ( - l , 3 , l ) x ( 3 , - l , 1)
2-27. Considerar a A 0 B N. Resulta a = (3= 0,
2-28. En (R, , R , .) son L.D., pero en (R, , , .) son L.I.
2-29. x = l .
2-30. Considerar
<* ( 1 , a, a 2 ) + I K M , &2 ) + 7 0 , c, c 2 ) = ( 0 , 0 , 0 )
En -el sistema resultante, restar a cada ecuacion la anterior multiplicada por a, y
despues, a la tercera restar la segunda multiplicada por b.
2-31. A partir de la relacion lineal
a I 0 g 7 h e
www.FreeLibros.com
www.FreeLibros.com
` al S! 2C nSdera a de cualquier I e Rs derivando
2-32. Se plantea una combinacion lineal cuyo resultado i t >
ejercicio anterior, que se veriIica para todo i e R Drndo Izncion la. como vz el
ejemplo 1 y 2, se llega a un sistema con la solucion un a a 1
2-33. Considerar a (a, b) + 0 (c, d) = (0, 0).
2-34. Son L.I. en ambos espacios.
2-35. i ) son L.I.
) son L.I. si ab * 1, y son L.D. si ab = 1.
2-36. Aplicar la deIinicion de independencia lineal.
2-37. Considerar la relacion lineal
a i xi - - . a n x ` u 0
y probar que 0 0.
2-38. A partir dea, x, . vz x ,
x seria C.L. de los vectores de`i. Tez er en cuenta`desp`es la hipotesis ` oaSo contrarzo
r : n sepuede hacer por inducci6n cmpkta ^ >
2-41. i ) cualquier numero real no nulo 3 3
i i ) la base canonica
iii) la base canonica
e) ! i i
y ) i i, q .
2-42. El subespacio pedido es el plano de ecuacion z - y , n
1 0 , l . o ) , ( 1, 0 , 1) ) . yaque o~ y u base del mismo es
( x . y . z ) e S * ( y + z , y , z ) e S ~ ( y , : ,<o) + (2o , z ) e S ~
2-43 y 1 1 0) Z 0 o 0 e s - 0 sea los dos vectores son un S.G. de S, y ademas LI
z z r - z b z - . - . i . w
2-44. Una base es q q z M I
0 - ~ l ) \ o 0 q l 0 q la dimension es 3.
2-45. Una base de S es I (2, 1) , (24 0 , y la dimension es 2.
2-46. S no es un subespacio ya que no es cerrado para la suma.
RESPUESTAS A LOS TRABAJOS PRACTICOS
www.FreeLibros.com
www.FreeLibros.com
. Esta propuesto en 1-2S, y la respuesta es aIirmativa si el cuerpo es R. Una base es
11 i, 2i ) .
248. S es el plano de ecuacion 0. Una base de S esta Iormada por los vectores (1 0 01 v
(0, 0, 1). T puede ser el plano de ecuacion z 0.
49. La dimension de S, n S2 es 2s aplicando 2.8.1., y considerando gue
dim Si - dim S2 3, resulta dim (Si S2) 4.
2-50. Primero, demostrar
i > r z vI es C. L. de vi , v2 ) . . . , vr .
Luego, probar que ( Vj, v2, . . vr x es un sistema de generadores de V.
2-5L Considerar dos bases: una en Si y otra en S2, y tener en cuenta el ejercicio 1-31
TRABAJO PRACTICO II 365
www.FreeLibros.com
www.FreeLibros.com
AAC ) A C
3-21.1, si. 2. no. 3. si. 4. no.
3-22. l . s i . 2. no. 3. si. 4. no.
3-23. Aplicar la deIinicion de T.L. a q( x y).
` Pro bar !a staetna del p,ano
3-2S. Expresar los veetores (3, 3) y (0, - 1 ) como C.L. de (1, 2) y de (2, 1). Apliear deSpe
la deIinicion de T.L. Resultaq(3, 3) ( -1, 2, 1) y q(O , - 1) J
3-26. Considerar F (v v) y F (a v).
3-27. Se obtiene el paralelogramo de vertices (1,1), (0, 3), ( - 1 2) y (0 0)
S-28. Si.
3-29. 1. Aplicar la deIinicion de T.L.
2 . qe s inyectiva, pero no sobreyectiva`cs sobreycctiva. pero no inyectiva.
( S f ) ( a , b ) = (a b, b) y ( g) {a, b) (a b, a + b + c, c).
3-30. Aplicar la deIinicion de imagen, el hecho de que q v. v2 v Jes S c rIz v i
deIinicion de T.L. 1 2 z ' de V y la
3-31. f es trasIormacion lineal biyectiva.
3-32. Aplicar la deIinicion de T.L. El unico vector cuya imagen es la matriz nula, es (0, 0).
3-33. Considerar 1.8.2., la deIinicion de preimagen y de T.L.
z . l . N ( 0 i ( v U , - z ) q z e R j . Una base de N (f) es ( 0 , 1 , - ! ) ) y su dimension el
! I,(I) es R2.
1 ( 2k' k) 1 k S ^ 1 ` b3Se ` N 65 ( (2- M y ` dimension es 1.
z If) ~ R~ y su dimension es 1.
3-35. n = 3. Se deIine q s R4 R3 mediante
f { X\ , X2, X3, XA) ^ { Xl + - X 4, X2 +x 3 +X4),
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO III
367
probar que f e s T.L.
N ( q) i (z ~-z , 0 , z ) q z e R x .
Una base es ( 1, - 1 , 0, 1) y d i mN ( q ) L
3-36. l . A
3. B
2 . q ( 2, 2, - 2 )
1 0
0 1
3-37. 1. N (f) - ( 0,0) ) s dim N (f) = 0 . 1 (f) = { (x, y, z) q 3x - y - 2z = 0 j s una base de la
imagen esta Iormada por los vectores (1, 3, 0) y (0, - 2 , 1)s su dimension es 2.
3 2
1
2. A
\
1
2
3 1
3-38. Multiplicando A por el vector columna de componentes genericas x lt x 2 y z 3, se
deduce que f ( x u x 2, x 3) = ( x1 + x 2 - x 3, 3x, - 3 x 2 - 3 x 3 , - ` ! +4 x 2 +2 x 3).
N (f) - (k, 0, k) / k e R I s N (f) es la bisectriz del plano xz; su dimension es l . l ( f )
es el plano de ecuacion x - y z = 0, y su dimension es 2.
1 1 0 - 1 1 0 0 0 1
3-39. La matriz es la traspuesta de
0 0 0 0 0 1 0 1 - 1
3-40. 1. A
- 0 0
-i \
0
4
2. La imagen de la matriz
base dada.
-1 3
2 2
es el vector
- 3
0 ) expresado en terminos de la
10
3-41. f ( x l f x ( * )=( - - * ! + - x 2 + ~ x 3 i - - Xl + - x + 2x 3).
** L 0 ,
www.FreeLibros.com
www.FreeLibros.com
9
E E T OS TRABAJOS PRACTICOS
1 0
3-42. A

J
2 /
3-43. Hallar las imagenes de los vectores de la base canonica de R2s se obtiene
eos -sen
sen 9 eos
3-44 Considerar que la matriz de la composicion de dos trasIormaciones lineales es el
producto de las correspondientes matrices. En el segundo caso, comprobar qUe
f e 0 f-Q =f-e f e = i, donde denota la Iuncion identidad.
3-45. Probar que ( f u f 2, . . . , f n J es un sistema de generadores de V considerando
cualquier elemento ` e V y deIiniendo a - g (i~,)s resulta entonces g - Xaf . Probar
despues la independencia lineal a partir de la relacion lineal e donde e denota
la Iuncion nulas obteniendo la imagen de cada se prueba que a, 0, para todo
z 1~ 2 , . . n. Ambos espacios, V y su dual, tienen la misma dimension.
3-46. 1. Probar que se cumple la deIinicion de trasIormacion lineal, y tener en cuenta el
ejercicio 1-31.
2. Utilizar la deIinicion de composicion de Iunciones.
3. Aplicar las deIiniciones de suma de Iunciones y de proyeccioness I denota la Iuncion
identidad en V.
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO IV
el
ue ` I 5 2 - U
do
)ar
co, . A 2 o ) ABC = f I B A `
do
1 0 - 1
1 0 1
ii) A2 - AB BA - B
2 , 4 q 5 3
el
4-29. Considerar, por ejemplo, que A, B y C son de los tipos nxp, p x q y qxm,
respectivamentes expresar la Iila i de A, y la columnaq de BC, para Iormar el elemento
(i, j) de A (BC). Proceder analogamente con el segundo miembro.
4-30. Demostrar que la propiedad se cumple para n = 1, y que si se veriIica para n = h,
entonces se veriIica para n = h + 1.
4-31. Demostrarlo por induccion completa, como el ejercicio anterior.
4-32. X - 1.
4-33. Demostrar por induccion sobre k.
4-34. Considerar X XI.
4-35. Plantear el sistema de ecuaciones no lineales.
4-36. Aplicar la deIinicion de producto de matrices y la conmutatividad del producto en K.
4-37. Utilizar la deIinicion de trasposicion y de producto de matrices.
4-38. Partir de (A B)2.
www.FreeLibros.com
www.FreeLibros.com
370 RESPUESTAS A LOS TRABAJOS PRACTICOS
n n
4-39. Q = X a i k aki = ^ a ^ k =>a[k 0, V k. Analogamente se prueba que la columna de
lugar i es el vector nulo.
4-40. EIectuar (BI A B)2
4-41. Premultiplicar A B I por A, y posmultiplicar por B.
4-42. Como en el ejercicio anterior.
4-43. Determinar el cuadrado de cada una de las cuatro matrices y aplicar las hipotesi-i,
propiedades de la trasposicion. `
4-44. VeriIicar que se cumple la deIinicion de matriz simetrica.
4-45. Para la condicion necesaria, considerar AB ( AB ) . Para la condicion suIiciente
partir de (A B ) me~
4-46. Desarrollar el producto indicado.
4-47. Desarrollar (A - a 1) (B - a I) y utilizar la hipotesis de que A y B son pemiutables
cancelar 011 suriclente~consid a r que A - al y B - al son permutabless despues
4-48. Las Iilas de AB son iguales entre si, y cada elemento es igual a la suma de los
elementos de la correspondiente columna.
4-49. Tener en cuenta las propiedades relativas a la inversa de un producto y ala traspuesta
de un producto.
4-50. Se considera la matriz diagonal B cuyos elementos diagonales son los inversos de los
correspondientes de A, y se veriIica que AB B A I.
4'5l , Considerar A2 A y multiplicar por A 1.
4-52. Probar que se veriIican los cuatro axiomas de grupo.
4-53. Utilizando el mismo esquema de particion en ambas matrices, en bloques de dos Iilas y
dos columnas, se obtiene
0 0 4 1
0 0 2 0
0 1 0 0
. 2 2 0 0 ,
4-54. Las dos primeras Iilas constituyen una base del espacio Iila de A.
4-55. Multiplicar a derecha B A N por la inversa de A.
4-56. Premultiplicar por la inversa de A.
4-57. Tener en cuenta que hay que probar la verdad de una disyuncion.
4-58.p{A) 2s p(B) 3.
q 2 2 1
4-59. La inversa de A no existe. B1 u 1 2 1
1 1 1
www.FreeLibros.com
www.FreeLibros.com
0 Determinar los rangos de A y de AAz por Gauss Jordan.
Demostrar primero que Sc (A B) C Sc (A) Sc (B). Al pasar a la relacion entre sus
dimensiones, tener en cuenta 2 .8 . 1.
462 i ) considerar el elemento generico de la diagonal de AB y de la diagonal de BA.
) asociar y aplicar i).
iii) aplicar ii).
Premultiplicar por A la relacion A X = a X, y tener en cuenta que A2 A.
4-64. Realizar la misma multiplicacion que en el ejercicio anterior y considerar que A2 I.
4-65. i ) Expresar X como producto de matrices, calcular su cuadrado y tener en cuenta que
T donde T es la matriz nx 1 Iormada por unos, es un escalar, y por lo tanto igual a
su traspuesta.
Resulta A 1 1 I . o sea, una matriz nxm cuyos elementos son iguales a
n2 n2
1 -*t
i i ) Se obtiene A 1 1 .
n
iii) Despues de desarrollar la sumatoria y reducir terminos, se llega a que
A i - 7 1 *. El lector puede comprobar que esta matriz es idempotente.
n
4-66. EIectuar el producto entre I - T y la suma indicada. Considerar que T N.
4-67. Particionar A en dos bloques del tipo 4 X 2, y eIectuar el producto.
4-68. Trasponiendo terminos se prueba que A admite inversa.
4-69. Por Gauss Jordan se obtiene
T DO PRACTICO IV 371
1
p p 2 P3
0
p p2
0 0 1
p
0 0 0
1 1
4-70. Para la condicion necesaria, eIectuar los productos AB y BA, e igualarlos para obtener
a y ($. Para la condicion suIiciente, eIectuar ambos productos sustituyendo B por su
1 expresion.
J 4-71. Aplicar induccion completa.
S q 1 1 - 1
s 4*72. i ) A ! 1 - 1 0
0 1 1
www.FreeLibros.com
www.FreeLibros.com
RESPUESTAS A LOS TRABAJOS PRACTICOS
www.FreeLibros.com
www.FreeLibros.com
AAC ) A C
$.12. D (A) - 2 0 . D (B) 10. D (C) -135. D (E) 57.
$.3. Desarrollar por los elementos de la primera columna.
$.14. Considerar que la Iila h, con h q , es el producto del escalar por la Iila i.
5-15. i ) `2 0, X3 5
ii ) z i 0 ~z2 2 , x 3 - 3 .
5-16, \ - 1 ~`2 10-
5-17. \ - 1 , \
5-18. Tener en cuenta la deIinicion de matriz ortogonal y 5.7.
5-19. Considerar 5.8.3.
5-20. Tener en cuenta el ejemplo 5-7.
5-21. Desarrollar el determinante y y derivar.
5-22. Expresar los vectores canonicos E i , E2, . . En de 1, como combinaciones lineales
de A i , A2, . . . , A, y aplicar los axiomas de la Iuncion determinante.
5-23. Aplicar 5.5.1. y 5.5.3.
5-24. Considerar una relacion lineal que sea igual a la Iuncion nula, expresar la igualdad
obtenida para cualquier t y derivar 1 veces. Resulta un sistema lineal y homogeneo
dando a t el valor 0. El determinante de los coeIicientes es de Vandermonde.
$-26. En cada caso, examinar el valor del determinante, y si es distinto de cero, aplicar 5.9.
www.FreeLibros.com
www.FreeLibros.com
5-28, i ) Restar a cada una de las dos primeras columnas, la siguiente.
i i ) Sumar a la primera columna las restantess Iactorears a la cuarta Iila sumarle ,
segunda y restarle las otras doss sacar Iactor comuns a la segunda columna sumarie
tercera, y a esta, sumarle la cuarta. Desarrollar. le la
iii) A la cuarta columna sumarle la segunda y la tercera.
r i i u i l Z Z z SUmarle 13 SE8Unda y ` terCeras IaCto rears a 18
5-29. Agregar el vector de componentes 0, 0 , 1, como tercera Iila y tercera columna
segundo determinante. El producto es - 1 8 . `mmna del
5-30. El valor del determinante es 4.
5-31. El jacobiano es p2 eos 6.
5-32. El jacobiano es - `
U
5-33. Considerar(-l) D (A), y multiplicar el escalar -1 por cada una de lasn columnas.
5-34, Multiplicar el determinante de la matriz particionada por 1
374 E E T OS TRABAJOS PRACTICOS
I N
-BA-1 I
El lector puede veriIicar que
P
N R
IPIIRI.
5-35. Multiplicar las dos matrices y veriIicar que se obtiene la identidad.
5-36. Proceder como en el ejercicio anterior.
www.FreeLibros.com
www.FreeLibros.com
AAC ) A C
. qi . La preimagen del vector (1,1) es j ( 2- k , 3 3k, k) q k e .
6-14. El sistema 1. admitela solucion unica X\ 5 , x 2 l , x 3 4.
El sistema 2. tiene inIinitas soluciones, dadas por x 3 2Ic, y ~ 1 k,z = k.
6-15. Las dimensiones de los espacios soluciones de los sistemas homogeneos, son,
respectivamente: 2, 1, 0 , 2, 0.
6-16. 1. ( 1 , 0 , 1 ) , ( 0 , 1 , 1 ) ) .
2. ( ( 1 , - 1 , 1 ) ) .
4. ( ( - 1 , 1 , 0 ) , ( - 1 , 0 , 1) ) .
6-17. 1. Una base de S es ( 1 q,q, 1) y la dimension es 1.
1 2. Una base de S es (1, 3 q, 1 2i) | y la dimension es 1.
s 6-18. Una base es ( I , T, 1) J .
6-q9. Como p(A) 2, el sistema tiene solucion unica. El conjunto solucion es
T ( ( - 1 , - 2 ) ) .
6-20. Tener en cuenta que X A 1 B.
6-21. T - j k ( 2,3) q k e R ) .
6-22. El sistema tiene inIinitas soluciones, dadas por
Xi =oc
x 2 =(i
x 3 = 1 - c - 2 { }
x4 - 3 a 2 0 con a e R, (3 e R,
1 q S - 1 0 o
1 6-23. Posmultiplicar por la inversa de A. Se obtiene X - 4 4 12 .
2 0 - l 6 s )
6-24. 1. p(A) p ( A) 2 v 5. El sistema tiene inIinitas soluciones, dadas por
www.FreeLibros.com
www.FreeLibros.com
9
zl = 2 ~ 3 a + 2 { 3- y
x 2 = a
x =/3
X 4 = y
x s - 8 - 5 a + 3 2 -y con a, 0, y eR.
2. Como p (A) 3 y p (A) 4, el conjunto solucion es vacio
3- P (A) p (A-) 3 v 5. Existen inIinitas soluciones, del tipo
z 1 a 0
x 2 =a
x 3 = 0
x 0
x s = 2ec + (3
E E T OS TRABAJOS PRACTICOS
6-25. El sistema es compatible porque p ( ) o IAl 1 T i
solucionson z q 4 2 H \ \ z e
4 2 i
1). k e R .
' \ ^ /
6-26. Las raices de la ecuacion son: , , 1 A i p -x i
soluciones son del tipoz , - a x , h v - \ 3 Ai - Az - 1 las inIinitas
p \ _ r 1 (7,
ara A, - - 1 , se obtiene ` - 2 k , z 2 2k , x 3= k.
k o T z 1o3.VpaoraSestosAs ^ CoeIidentes- Se obtii
ambas situaciones. Para z o el e s a d o i T z 1 z z 1
6-28.
M1
y ` u c i r t e n n i n o s , se
Xl =
www.FreeLibros.com
www.FreeLibros.com
0 0 . Trasponer ai segundo miembro los terminos en z y aplicar el teorema de Cramer. Si los
tres determinantes son no nulos, puede escribirse
T DO PRACTICO VI 3??
X
y
z
bt c x at Ci a x b x
b 2 c2 a2 c3 a2 b2
6-31. Proceder como en 6-27. Para a distinto de 2 y de 3, se obtiene solucion unica. Para
a = 2 existen inIinitas soluciones y para a 3 no existe solucion.
6-32. Para a 1 existe solucion unica. Para a 1 el conjunto solucion es inIinito y para
a 1 el conjunto solucion es vacio.
(>33. Analizar que relacion vincula a a y a b para que exista solucion unica, ninguna solucion
e inIinitas soluciones.
(.. Un sistema lineal y homogeneo es 74xj 1 \ x 2 25z 3 0.
6-35. Analizar el determinante de los coeIicientes. La solucion unica es
b2 + c2 - a2 a2 +cz - b2 a2 b2 - c2
x ~ ------------------ , y - ------------------ . z =------------------
2 b e 2 a c 2 a b
6-36. La solucion e s x x l , x 2 = 2 , x 3 3.
www.FreeLibros.com
www.FreeLibros.com
AAC ) A C
7-25. Se veriIican los tres primeros axiomas de la deIinicion, pero no el cuarto.
El vector de componentes - y i es no nulo, pero vX, X ~v 0.
7-26. No se veriIica el axioma de simetria.
7 27- 1 : s: i deIinicion de orto8onaiidad y `
7-28. Es el teorema del cosenos despejar x y considerar el producto interior vx , x ~.
7-29. Para la condicion necesaria proponer una combinacion lineal de x e y que sea im.ai ,
vector nulo y considerar el producto interior entre dicha combinacion H . J 1
misma. Suponer que ambos vectores son no nulos. y
Para probar la condicion suIiciente, siendo los dos vectora nn n u
ellos como multiplo escalar del otro, por ejemplo y x. C a s t o r li x y II ` z
7-30. Partir de la desigualdad de Schwarz y elevar al cuadrado
z - z - C.L. que sea
o ) e7 (nx cuye)n v r , x T i ? T i ; r m 6 n d ' v 2 - R zz
d( x, y) = \ = y ( ) ` ( X. z ) v I I e y ) . ( 3 ) d ( x , y ) ~ 0 y
'7-33. Probar que qe s una trasIormacion lineal.
` ` t r n T c ` l i ` 108 aX0maS ` Pro dUCto i nteri OT~ z ~ que q es una
7-35. Utilizar la deIinicion de N.
736. Limando x e y a doB e o , del rombo que sean consecutivos, las dia gonales son
de rombo, o sea IIx I II yT Prv y ten CUenta la deIlnicio
7-37. Demostrar 3 haciendo x y zs despejar x y apUcar 7.5.
p a r o l i x q- V y l l ) . eSSUIlCi ente demMtr wVw wx - y IIy para esto,
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO VII
379
Para probar 2., partir de llx yll2.
para demostrar 4., considerar II x 4- a y II2.
7-38. Tener en cuenta la deIinicion de subespacio generado por un conjunto de vectores
A Xj, x2, . . xr , y probar que el producto interior entre x y cualquier vector de
A es cero.
.. Considerar un vector en el complemento ortogonal de S.
1 740. Tener en cuenta 7.9.
741. 1 Considerar v (x, y , z) y resolver el sistema que se obtiene de las relaciones v 1 vt ,
3. y x ( 1, 0, 0), y 2 (0, 1,0) y y3 ( 0, 0, 1 ) son los vectores de la base ortonormal
pedida.
742. EIectuar el producto interior entre v y v.
743. Considerar el producto interior entre v y
7.44. Probar que el conjunto de todos los vectores ortogonales a A es un subespacio de V, y
tener en cuenta las deIiniciones correspondientes.
1 745. Expresar cada uno de los dos vectores como combinacion lineal de la base.
746. Desarrollar 0 v <a x 0 y, a x x3y~, hacer a <y , y ~y j3 - ( x, y ~, y considerar
que vx, y ~vxTy ~ Kx , y~ I2 .
v l v 2 y IIvi
2 . Vi
(
747. 1. Pj X . Px P2 - 0s 2x - 2y z - 5 0.
2. X P0 X A s - - z 3.
2 2
748. Es el paraboloide de ecuacion x 2 + y 2 2z2 - 2xy - 6x - 6v - 4z 1 0.
7-49. P`X. A = Q\ax +ay - 2a2 =0.
7-50. d ^ L
y / H '
7 . v * . - y 1 - z 3
1 3 5
7-53. 2 ( x ~ y + 2)2 + ( z - y + 2)2 - 2.
7-54. 18 x 2 u 3 ( z - 1) 0 l ) 2 ~ 2 ( y + l )2
www.FreeLibros.com
www.FreeLibros.com
uz `
pz oc r - 2 '
U 0
I 4 - `
Z JL
oo
1 ` - 0
7-5vi. 2z ( 2 - ` ) (2 z).
7-57. X M XMi 2s z ~ are tg.
z
7-55. Desarrollar el producto hermitiano.
7-59. EIectuar el producto PPz I.
7-60. Considerar el producto interior entre cualquier Iila i, con i < n , y tener en cuenta de
acuerdo con el ejercicio anterior, que tal producto es 0.
7-61. Probar que la Iuncion F : V V deIinida por F (x) q , donde q x (y) vx y ) es un
isomorIismo.
n
7-62. Desarrollar E ( x , v ~v,-.
9 . E E T OS TRABAJOS PRACTICOS
www.FreeLibros.com
www.FreeLibros.com
AAC ) A C
8-14. 1. Xt - 5 , X2 5 son los valores propios.
Vectores propios son X: x z , X2
2. No existen en R.
8-15. 1. Valores propios: 2 y 3.
Vectores propios: y x j
2. No existen en R.
3. X1 X2 : 6, X3 11. Vectores propios asociados a 6 son
2\
X3 11, corresponde ( 0 j .
8-16. Suponer que existe algun valor propio nulo.
8-17. Considerar A X X X y premultiplicar por la inversa de A y por el reciproco de X .
8-18. Probarlo por induccion.
8-19. Partir de S1 AS Y.
8-20. 1. Para A, es Xz 1 i, X2 1 i. Los vectores propios asociados son ` `
1
1 - i
2. Para B, los valores propios son 1, 1, i.
8-21. Considerar P(X)- X + c n` X 1 . . . Ci X- I c 0
P(X) ( X - X 1) . . . ( X - l).
www.FreeLibros.com
www.FreeLibros.com
z 2Z X : i v l 0 eXPleSi n e P(X) D (X 1 A)s t a e r d z z z ~ z ws dar a
8-23. Partir de A X X X y premultiplicar por A.
Tenel CUe lta los t o o n n t a m t . , de dos matrices tr aspuestas son iguales
8-25. Los tres valores propios son iguales a 1 y a este le corresponde gsistema hornos
cuyo espacio solucion tiene dimension 1. No es diagonalizable.
8-26. Considerar 8-18.
8-27. Sea T una matriz triangular superiors considerar el valor de D (X i - T)
8-28. Tener en cuenta 8-18 y la deIinicion de matriz nilpotente.
8-29. 1. Aplicar 8.3.4.
2. Aplicar 8-18.
^ T u V m t i z T '- r nces p
ceros. Aplicar despues 7. anZ r unos z
4. Aplicar la deIinicion de traza.
5. Considerar 8-24.
6. Expresar los valores de tr AB y tr BA.
7. Asociar y aplicar 6.
8. Aplicar 7.
RESPUESTAS A LOS TRABAJOS PRACTICOS
0. oo os eoo es os eeco es o os o ogo oo sos. Se oege
q 1 q 2
v r
V5-
P2
2
1
y/s q
ogs, e o ^., seo, o esegco , e go o ) go sgo , o e
A ) . A co , ee goges ege egcego .
3 l
1 6
8-32. ) (A)
8-33, ogs, e o ) (A) a As ege eg cego e Af = A.
8-34. )o se A e ogo, es A = (. oce, e coo eg .
8-35. )e, e , eos o se o g, cc. g so e k.
8-36. )o , e ) ( A ) . a ( A ) o co .
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO VIII
383
7 . X - x i MP
1 COS ip
8-38. Y - ( 1 cos ` ) . Respecto de los vectores Y, q representa una simetria.
sen q z
q cos p sen k\ * . . . .
S' 39' P - sen l - cos l ) y representa la oo Pvw~ on de una rotacion de ang ulo y
una simetria axial.
8-40. Segun 8.5.3. II, existe P no singular tal que P 1 A P es triangular superior. Resulta
q( P 1 AP) triangular superior cuya diagonal esta Iormada por q( X j ) , .
Ademas f ( P 1 A P) P 1 q( A ) P es la Iorma triangular de q( A) .
8-41. Tener en cuenta 8.5.
8-42. Considerar (a I A) X.
8-43. Relacionar con 8-16.
8-44. z ` z[ z ) n0 es diagonalizable.
La matriz 3 X 3 es diagonalizable y su Iorma diagonal es D
- 0 0
o l o
0 0 1
8-45. Los valores propios de A son 1 y 4. Los valores propios de P (A) son 0 y 15. La Iorma
diagonal de P (A) es ( ` `
0 15
8-46. De acuerdo con 8-7 existe P e C uX no nulo, tal que P (A) N, donde A es la matriz
de q. Ademas, es
n
P (i) 7T (i - X), donde X,- e C.
O sea
N P ( A ) ( A - M )
3 t al que A X,-1 es singular, pues si no, P(A) seria inversible. En consecuencia,
existe X ` 0 tal que
(A - Xi I ) X 0
O sea
AX XIX
Luego, existe un vector propio de q.
www.FreeLibros.com
www.FreeLibros.com
AAC ) A C
9-15 Desarrollar ( f + g) (ax +bx\ y) , ( q ) ( x c v + ^ , A ,
( f ) ( x , c y + d y \ deIiniendo la suma de IunciLneTv ( qw(v 4x, y) y
Iundones de aeuerdo con las leyes de composicion punto a pumo 0 680313165 por
9-16. Desarrollar gy (x x) y gr (ax).
-17- >^ y ^ ^ y , ^ y 3 +X2y 1 - 2 X 2 y 3 + X 3 y 2 + X 3 ^
B = P( AP = / i 4 2
\ 2 3 17
donde P es la matriz de pasaje de la base dada a la base canonica
z , ) X) z X) X A X 3 I ! ` I ` 2 `
)/ ( X ) = * ? - * 2 + , .
9-19.
I
A
i I
1 1
Ver 4-65, i).
9 - 2 I t i ) A - ! - l I , i
2 ti2
ii) Desarrollar e, cuadrado, `aplicar el operador sumatoria, tener en cuenta que
x , w 1 y que 2 X f . Se obtiene A - T 1
Ambas matrices son idempotentes.
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO IX
385
9-21. i ) Expresar en terminos de g a q ( x y) - q (x y).
ii) Lo mismo respecto de q (x y) q (x) q (y).
9-23. La Iuncion h : V2 K deIinida por h (x, y) = ~ g (x, y) es una Iorma bilineal si
simetrica
y la Iorma cuadratica asociada es f.
9-24. Aplicar 9.7.1., desarrollando v q(x),q(y)~ y probando que es igual a vx, y ~.
9-25. A partir de S oc f (v-) 0, considerar X i q( v q) , q( v s ) ~ 0.
Se prueba que ocj^O para todo q, o sea, q ( v j ) , q ` ) , .. . J ( v n) son linealmente
independientes y en consecuencia constituyen una base de V que veriIica
vq(v,) ,q(vy) ~ ( y, Vy~ 5j, o sea, es ortonormal.
9-26. Tener en cuenta que P PI I y que PI P.
9-27. Considerar 9.7.5. y que U P U.
9-28. Sea A la matriz de q : C -z C s de acuerdo con el eje rcicio 8-46, A admite un vector
propio, o sea existe XeC tal que AZ XZ. Observar que Xe R, segun 9.6.3.
Considerar que Z X Y, donde X e Y pertenecen a R y premultiplicar por A.
n n
U
9-30. Xi 1, X4s por 9.10.1. A es deIinida positiva. La matriz de vectores ortonormales
es
q V2 V T
www.FreeLibros.com
www.FreeLibros.com
9
RESPUESTAS.A LOS TRABAJOS PRACTICOS
Siguiendo 9.10.2. se Iorma D, ` 0 j y resul(a
0 P D ,
9-31. La ma t r i z ortogonal de vectores propios
/ V 3 - V 2 '
1
2 `
V3
V3
2
2
V6
V T q
de A
1 y
- y 2
V \ y /2
La trasIormacion de coordenadas esta dada por X P Y, o sea
- V 2y t )
1
es
z1
9-32. Sea q( X ) X A X deIinida positiva y sea X P V h
S (Y) YI B Y y es tal que B P A P T a L q eS n o Si8ulars entonc
suIiciente probar que Y B Y 0 wY . C o n s i d e r a ` Y ` V ` X ` mi Sma agens es
9-33. Tener en cuenta el ejercicio 8-17 y 9.13 2
9-34. i ) p ( A) 3s s 3.
ii) p (A) zl ; s = .
9-35. Considerar 9.11, Se obtiene
\ Ai 6
1 n 1
9-36. i ) Considerar 9.11.
ii) Considerar el ejercicio 8-17.
9-37. A es no singular y A Az es simetrica. Segun 9 10 2 A A f *> h r
ortogonal tal que Q* A A* D diae ( \ \ deIimda positiva. Existe
Jos valores propios de A AI son positivo, Vy/ V zz i T dacuerdvLcon 9.9.3., donde
q 1
5
0
2
5
q
1
0
1
2
0
0
11 0
0 0
2
5
.
0
4
5 q
2
0
1
4 /
www.FreeLibros.com
www.FreeLibros.com
TRABAJO PRACTICO IX
9
9-38. Aplicando 9-37 se obtiene A S P, donde S j es simetrica deIinida
positiva y P
es ortogonal.
j V i
V3 qT
V J -
V3 V3
9-i P. Probar que si q es deIinida positiva, existe una trasIormacion no singular X T Y
donde T es triangular superior y D (T) 1, que la reduce a la Iorma
i ( Y ) Y I D
g (Y) Y( DY y l wdonde a I ~ 0 , siendo D ( T 1)z A T 1. En consecuencia,
D (D) D (A) ~ 0.
Haciendo x 0, f se convierte en una Iorma cuadratica respecto de n - lque sigue
siendo deIinida positivas la correspondiente matriz se obtiene prescindiendo de la
ultima Iila y de la ultima columna de A. Reiterar el procedimiento.
Para la suIiciencia, utilizar el metodo de Lagrange, que consiste en completar
cuadrados. Siendo an ~ 0 , existe una trasIormacion no singular, triangular superior,
con determinante igual a 1, que la reduce a
m
a l l z \
Probar que b22 ~ 0 , haciendo x J - z J =0 para i 2, 3, . . n, y reiterar el proce
dimiento.
9-40. Por ser q deIinida positiva, segun 9.12.4., existe una trasIormacion de coordenadas
n
X P Y que la reduce a la Iorma 2 y i
1 ii
Se tiene PI A P 1, o sea A (P Pz)-1 La trasIormacion aplicada a g es tal que
Xz B X YI (PI B P) Y, donde P B P es simetrica. En consecuencia, existe una
trasIormacion ortogonal Y Z que la reduce a una suma de cuadrados cuyos
coeIicientes son los valores propios de Pz B P.
X BX Z( (P )( B (P ) Z 2 z\
n
Esta trasIormacion aplicada a Y( I Y la reduce a z . La composicion de las dos
trasIormaciones: X (P ) Z, reduce ambas Iormas.
9-41. Demostrarlo por induccion sobre n dim V.
www.FreeLibros.com
www.FreeLibros.com
AAC ) A C
10-6. Frontera de A es el conjunto
I (x i, x 2) e R / f j j j | = i A j ; 1<2 j u ( i 2) i
vertices ( - 1, 2X (II 2)( (1 (
r ; : : * *- & *
interiores. Puntos exteriores a A son los que satisIacen1 S
El derivado de A es As o sea, A es cerrado
* = P = s S = = H ......................... ...
Todos los puntos de acumulacion de B pertenecen a n d
todos los elementos de B son puntos de acumulacion di b" Cerrado AdemaS
3 condiciones`0 6 3 SU Lvz interiores de C satisIacen las
2 v 2 y X l > o y X2 > 1
10-8. 1. Sea A cerrado. Considerar un g o a e A c re.nl,
A. Luego, existe S (a, e) q s (a e) n A - a p ` 3 0 CSde acumulacion de
tanto, A es abierto. ` 1 >' E con z encia, S (a, 6) C A y por lo
a llegrrunaS! o T a d i qccionXi Ste PU t0 do aCUmulaci owz A que pertenece a
>0-9. Sean: el hiperp,ano de ecuacion N X z, a e , y Ia esIera abierta S (a e).
Considerando b a - zP wrif
bi enN b ~ z , 2 N ` i 3 6) P M b - I v Ahora
www.FreeLibros.com
www.FreeLibros.com
10-10. El conjunto del ejercicio 10-6 no es convexo. Los tres conjuntos de 10-7 son
convexos.
10*11. Probar primero que el conjunto vacio es abierto. Sea x A i e N una Iamilia
numerable de abiertos. Si esta Iamilia es vacia, entonces A UA es el conjunto vacio,
i e N
y en consecuencia es abierto. Si la Iamilia no es vacia, cada abierto de la misma es una
union de esIeras abiertas. De este modo, A es la union de tales esIeras abiertas, y por lo
tanto es un conjunto abierto.
Se ha utilizado la siguiente propiedad: un subconjunto C C R es abierto si y solo si es
una union de esIeras abiertas.
10-12. Sea A / i e In una Iamilia Iinita de abiertos. Si esta Iamilia es vacia, entonces
n
A O As es el espacio total, que es abierto (probarlo). Supongamos ahora que la
ii
Iamilia es no vacias si A es vacio, entonces es abierto. Consideremos entonces que A es
no vacio y sea a e A.
Se tiene
a e A a e A, Vi =>3 eI q S (a, e) C AI, para cada i.
Sea e el minimo del conjunto ex, e2, . . . , en x . Entonces para cada i se veriIica que
S (a, e) C S (a, e)
en consecuencia, para cada i es
S (a, e) C A
por lo tanto S (a, e) C A. Luego, A es abierto.
10-13. Aplicar 10-11, 10-12 y las leyes de De Morgan.
10-14. El casco convexo generado por los puntos dados, es el pentagono convexo de vertices
( - 1 , - 1 ) , ( - 1 , 2), (1,3), (2, 3), (1, - 1) . Ademas, (0, 0) es combinacion convexa de
( 1 , - 1 ) y ( - 1 , 1 ) , donde t - ` .
10-15. Aplicar la deIinicion de convexidad y de la Iuncion dada.
10-16. Tener en cuenta que el conjunto solucion del sistema es la interseccion de n
hiperplanos de Rn, y que estos son convexos.
10-17. Considerar que
y e Cz y a x donde a ~ 0 , x e A.
Multiplicar por q3 ~ 0.
10-18. El cono generado por la interseccion de los dos conjuntos esta caracterizado por
4 x 2 4 y 2 - z 2 v 0
z ~ 0
10-19. Utilizar la deIinicion de cono y de C .
T DO PRACTICO X 389
www.FreeLibros.com
www.FreeLibros.com
390 RESPUESTAS A LOS TRABAJOS PRACTICOS
10-20. Aplicar Ja deIinicion de C1 y multiplicar por a ~ 0
10-21 utilizar la deIlnicon de C no ortogonal y Ja cond cion suiente `
conos 31 Un VeCor 2 6C mUlti P,i Car P w O- y eren cuenta que Cl y C
q M i . Sea X , ` a n u d a d de litros de licor q que se destina a la mezclaq, donde q i , 2,3
y
2 son
/
i N.
1 2 3
Disponibilidades
en litros
Costo por
litro
1
2
3
* x j I
z 2 1 z 22 z 23
z 3 1 * 3 2 *
6.000
7.500
3.600
63
45
36
Precio
--------- -------------- 1
de venta
68 57 45
por litro
Objetivo: maximizar
F 5 z n - . 2 - l 132 3 z 2, 12z z 232z 3, 2 1 ` 9 . `
Sujeta a las restricciones:
z n z 12 z i 3 v6.000
z21 z 2 2 + * 2 3 v 7 . 5 0 0
* 3 1 z 32 z 3 3 v 3 . 6 0 0
* > 0 . 6 ( x n + x 2i + * 31 )
* 3 1 < 0.2 ( * j j + x 21 + x 3 l )
* 3 2 v 0 . 6 ( x 12 ` 22 ` 23)
* ^ 0.15 ( x 12 + x 22 + X 32)
* 3 3 < 0.5 ( * i 3 + X 23 + X 33)
XU > 0 1, 2, 3, j = 1, 2, 3
especiIica el numero de rollos del c t r t e q. V o b I e n e IaTig Iente tabla- ` i able
www.FreeLibros.com
www.FreeLibros.com
T DO PRACTICO X
391
numero
rollos
ancho * z 2 * * z z 6
z 7
z 8
x 9
* * z12
58
1 1 0 0 0 0 0 0 0 0 0 0
26
0 0 3 2 2 1 1 1 0 0 0 0
24
1 0 0 1 0 2 1 0 3
2
0
23
0 1 0 0 1 0 1 2 0 2 3
Desperdido
en cm
0 1 4 6 7 8 9 10 10 11 12 13
.. . .
Minimizar
F = x 2 4 z 3 6z 4 7 z s x6 +9 x n 10z8 1 0 x 9 1 U 10 12xn 13x12
Sujeta a las restricciones:
* * ~ 60
x , + x 4 + 2 * 6 + * 7 + 3 * 9 + 2 x 10 * > 8 5
* * * 2 z 8 * 2 z u 3 z 12 ~ 5 0
zj ~ 0 , 7 1 , 2 , . . . , 12.
www.FreeLibros.com
www.FreeLibros.com www.FreeLibros.com
www.FreeLibros.com
INDICE
Adjunta de una matriz, 170
Angulo entre vectores, 223
Anillo de matrices, 109
AutomorIismo, 69
Base, 53, 54, 58
cambio de, 146
Ian, 280
ortogonal, 303
ortonormal, 225,304
teorema de extension, 56
Cambio de base, 146, 295
Casco convexo, 338
Chio, regla de, 174
Clausura, 329
Combinacion lineal, 30, 217
convexa, 336
Composicion de trasIormaciones, 92
Complemento ortogonal, 229
Condiciones de vinculo, 352
de no negatividad, 352
Congruencia de Iormas cuadraticas, 314
de matrices, 295
Conjunto abierto, 328
acotado, 329
cerrado, 328
convexo, 336
de combinaciones lineales, 34
derivado, 328
linealmente dependiente, 45, 78
linealmente independiente, 42, 79
maximal, 65
ortogonal, 225
solucion de un sistema, 189
Cono, 356
ortogonal, 357
Convexidad en R , 376
Coordenadas, 44
esIericas, 179
trasIormacion de, 145
Cramer, teorema de, 187
Curvas, 246
Dependencia lineal, 45, 78,160
Descomposicion espectral, 311
Desigualdad de Schwarz, 222
triangular, 223
Determinante, 155
de la traspuesta, 166
del producto, 169
de Vandermonde, 168, 178
existencia de, 161
propiedades de, 157
unicidad de, 163
Diagonalizacion de matrices, 308
de operadores simetricos, 307
Dimension, 57, 59
de la imagen, 80
www.FreeLibros.com
www.FreeLibros.com
9 9E
de la suma, 60
del nucleo, 80
Fan, 279
Forma bilineal, 289, 291
cuadratica, 294,305,314,318
hermitiana, 293
lineal, 101,257
Funcional, 101
Funcion objetivo, 349, 352
Gauss-Jordan, met odo de, 135 186
Gram-Schmidt, 228
Hamilton-Cayley, teorema de, 282
Helice circular, 248
Helicoide recto, 261
Hiperplano, 233
soportante, 343
Imagen de una trasIormacion lineal 74 80
propiedades de, 75
Independencia lineal, 42, 58
Indice de positividad, 305
de nulidad, 305
Inversion de matrices, 138, 141, 172
Investigacion Operativa, 346
IsomorIismo, 69
Jacobiano, 178
Matrices equivalentes, 133
producto de, 85,96,106
permutables, 107
semejantes, 147, 275
triangulacion de, 279
Matriz, 11,33, 71
adjunta, 170
ampliada, 182
antisimetrica, 29,112
compleja conjugada, 118
deIinida positiva, 310
de pasaje, 144
INDICE
de una Iorma, 291,293
de traza nula, 19,38, 65
de una T.L., 8 6 , 146
de un sistema lineal, 182
elemental, 114
Iorma canonica de, 133
hermitiana, 120
idempotente, 115
identidad, 108
inversa, 116,141,172
involutiva, 115, 274
no singular, 134
particionada, 121
rango de, 126,138
rango columna de, 124
rango Iila de, 125
simetrica, 29, 112
traspuesta de, 110
traza de, 19, 152, 286
triangular, 28,114
Metodo de Gauss-Jordan, 135, 138
de Gauss reducido, 210
de la raiz cuadrada, 202
del orlado, 205
Menores principales, 319
Modulo, 218
MonomorIismo, 69, 77
Norma, 218
Nucleo de unaT.L., 72, 80, 183
de un monomorIismo, 77
Operaciones elementales, 129
Operadores adjuntos, 298
autoadjuntos, 299
hermitianos, 299
ortogonales, 300
simetricos, 399, 307
traspuestos, 298
unitarios, 300
Ortogonalidad, 219, 225
Ortonormal, base, 225
complemento, 229
www.FreeLibros.com
www.FreeLibros.com
INDICE
395
Particion de matrices, 121
Permutaciones, 163
Plano, 239
Polinomio caracteristico, 270, 277
Producto interior, 214
hermitiano, 259
Programacion Lineal, 346
Proyeccion, 105, 232
de una curva, 253
de un subespacio, 281
Punto de acumulacion, 327
extremo, 344
Irontera. 326
Interior 326
Rango columna, 124
de una matriz. 126,135, 184
del producto, 127
Iila, 124
Recta, 236,330
Rotacion, 268
Rouche-Frobenius, 188
Segmento, 330
Semiespacio, 335
Semejanza, 147
Signatura, 305
Simplex, 355
Sistema de ecuaciones, 181, 190, 198, 202
compatible, 183,188
incompatible, 183
Sistema de generadores, 51, 58
Schwarz, desigualdad de, 222
Suma de subespacios, 23, 29,60, 231
directa, 25,61, 105
Solucion optima, 352
posible, 352
Subespacio, 15, 35
Subespacios, interseccion de, 20
suma de, 23
union de, 22
Sylvester, teorema de, 306
TrasIormacion lineal, 66,68
biyectiva, 69
composicion, 96
diagonalizacion de, 269, 276
imagen de, 74
inversa, 93
matriz de, 86
no singular, 93
nucleo de, 72
polinomio caracteristico de, 275
Teorema de Cramer, 257
de Hamilton-Cayley, 282
del coseno, 257
de Rouche-Frobenius, 188
de Pitagoras, 221
de Sylvester, 306
de extension, 56
Iundamental de las T.L., 83
TrasIormacion de coordenadas, 145, 309
de matrices, 279
Trasposicion de matrices, 110
de una permutacion, 163
Union de subespacios, 22
Valores propios, 263
de un operador hermitiano, 300
de un operador unitario, 303
Vectores, 2
angulo entre, 223
combinacion lineal de, 30
cosenos directores, 240
Iijos, 234
linealmente dependientes, 45, 78, 160
linealmente independientes, 42, 58
modulo de, 218
ortogonales, 225
propios, 263
www.FreeLibros.com
www.FreeLibros.com
ISBN 950-02-5205-8
www.FreeLibros.com