Está en la página 1de 402

A L G E B R A I I

A R MA N D O 0. ROJ O

IIIIIIII
www.FreeLibros.com
E L A T E N Ewww.FreeLibros.com
O
álgebra II
Armando O. Rojo

D é c i m a t e r c e r a e d ic ió n

III1 1 III OBRERIA-EDITORIAL


JM U Ü Í E L A T E N E O

www.FreeLibros.com
5 1 2 (0 7 5 ) R o jo , A rm a n d o O.
ROJ A lg e b ra II. - 13a. ed. - B u e n o s A ire s : El A te n e o ,
1995.
X II, 3 9 6 p .; 2 3 x 16 cm .

IS B N 9 5 0 -0 2 -5 2 0 5 -8

I. T ítu lo - 1 . M a te m á tic a - E n s e ñ a n z a S e c u n d a ria

A d v e r te n c ia im p o rta n te :

Ei d e r e c h o d e p r o p ie d a d d e e s ta o b ra c o m p re n d e p a ra su a u to r la
fa c u lta d d e d is p o n e r d e elia, p u b lic a rla , tra d u c irla , a d a p ta rla o a u to riz a r
su tra d u c c ió n y re p ro d u c irla e n c u a lq u ie r fo rm a , to ta l o p a rc ia lm e n te , po r
m e d io s e le c tró n ic o s o m e c á n ic o s , in c lu y e n d o fo to c o p ia s , g ra b a c ió n
m a g n e to fó n ic a y c u a lq u ie r s is te m a d e a lm a c e n a m ie n to d e in fo rm a ció n .

P o r c o n s ig u ie n te , n a d ie tie n e fa c u lta d a e je rc ita r los d e re c h o s p re cita d o s


s in p e rm is o d e l a u to r y del e d ito r, p o r e scrito.

Los in fra c to re s se rá n re p rim id o s c o n la s p e n a s d e l a rtíc u lo 172 y


c o n c o rd a n te s del C ó d ig o P e n a l (a rts . 2 , 9 ,1 0 , 7 1 , 7 2 le y 1 1 .7 2 3 ).

Q ueda hecho el depósito que establece la ley Ns 11.723.


© 1 9 7 3 , 1975, 1976 (3a y 4 a edición), 1978, 1980,
1981, 1983, 1985, 1987, 1 99 1 ,1 9 9 3, 1995, "EL ATEN EO " Pedro G arcía S. A.
Librería, Editorial e Inm obiliaria, Florida 340, Buenos Aires.
Fundada en 1912 p o r don Pedro García.

Im preso en T. G. C O LO R EFE,
Paso 192, Avellaneda, Bs. As.,
el 6 de m arzo de 1995.
Tirada: 2.000 ejemplares.

IM PR ESO EN LA AR G EN TIN A

www.FreeLibros.com
P R O LO G O

Este libro responde a los contenidos de la asignatura ALG EBRA LINEAL, que
figura en los planes de estudios del ciclo básico de Matemática de las facultades e
institutos ote profesorado. Se supone adquirido el conocimiento de los temas
relativos al álgebra de conjuntos, relaciones, y funciones, y de las estructuras de
grupo, anillo y cuerpo. Esencialmente se desarrolla a q u í la estructura de espacio
vectorial y se estudian los modelos particulares indispensables en la formación actual
de profesionales y en las aplicaciones a disciplinas de uso cotidiano, entre las que
citamos, por ejemplo, la Estadística y la Investigación operativa.
El esquema seguido es análogo al expuesto en Algebra I, editado por EL
ATENEO en 1972. La teoría es ilustrada con el desarrollo de ejemplos en los que el
alumno puede apoyarse. En cada capítulo se propone un trabajo práctico cuyas
respuestas se sugieren en el texto.
Agradezco a la editorial EL ATENEO y a su personaI la colaboración que me
han brindado en todo lo concerniente a esta publicación.

A R M A N D O O . R O JO

Buenos Aires, m ayo de 1973.

www.FreeLibros.com
aI

pi

)It

www.FreeLibros.com
CONTENIDO

apítulo 1. ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIO


1
1 . 2 . Concepto de espacio vectorial
1
1 . 3 . Propiedades de los espacios vectoriales
6
I 1. 4. Espacio vectorial de funciones
7
! 1. 5. Espacio vectorial de n-uplas
10
, 1 . 6 . Espacio vectorial de matrices 11
, 1 . 7. Espacio vectorial de sucesiones
13
1. 8 . Subespacios
15
1. 9. Operaciones entre subespacios
20
Trabajo Práctico I
27
pítulo 2. DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION 30
2 . 2 . Combinaciones lineales
30
2. 3. Subespacio generado
34
2 . 4. Dependencia e independencia lineal
42
2. 5. Sistema de generadores
51
2. 6 . Base de un espacio vectorial ^
53
2. 7. Dimensión de un espacio vectorial 57
2 . 8 . Dimensión de la suma
60
¡ Trabajo Práctico II
63
iítulo 3. TRASFORMACIONES LINEALES
66
3. 2 . Trasformación lineal entre dos espacios vectoriales 66
I 3. 3. Núcleo e imagen de una trasformación lineal 72
3. 4. Dimensiones del núcleo y de la imagen 80
3. 5. Teorema fundam ental de las trasformaciones lineales 83
3. 6 . Producto de matrices 85
3. 7. Matriz asociada a una trasformación lineal 86
3. 8 . Composición de trasformaciones lineales 92
3. 9. Trasformación lineal 110 singular 93
3.10. Composición de trasformaciones lineales yproducto de matrices 96
3.11. Espacio vectorial de trasformaciones lineales 98
3.12. Espacio dual de un espacio vectorial in i
Trabajo Práctico III ^

www.FreeLibros.com
X C O N T E N ID O

Capítulo 4. MATRICES 106

4. 2. Producto de matrices 106


4. 3. Anillo de matrices cuadradas 109
4. 4. Trasposición de matrices 110
4. 5. Matrices simétricas y antisimétricas 112
4. 6 . Matrices triangulares 114
4. 7. Matrices diagonales 114
4. 8 . Matrices idempotentes e involutivas 115
4. 9. Inversa de una m atriz no singular 1 16
4.10. Matrices ortogonales 117
4.11. Matrices hermitianas 118
4.12. Matrices particionadas 121
4.13. Espacios fila y columna de una matriz 123
4.14. Operaciones y matrices elementales 130
4.15. Equivalencia de matrices 133
4.16. Método de Gauss Jordán para determinar el rango 135
4.17. Inversión de matrices por Gauss Jordán 138
4.18. Inversión de matrices por partición 141
4.19. Cambio de base y semejanza de matrices 144
Trabajo práctico IV 149

Capítulo 5. DETERMINANTES 155

5. 2. Determinantes 155
5. 3. Propiedades de la función determinante 157
5. 4. Existencia de D 161
5. 5. Unicidad del determinante 163
5. 6 . Determinante de la traspuesta 166
5. 7. Determinante del producto de dos matrices 169
5. 8 . Adjunta de una m atriz cuadrada 170
5. 9. Inversión de matrices no singulares 172
5.10. Regla de Cilio 174
Trabajo Práctico V 177

Capítulo 6 . SISTEMAS LINEALES 181

6 . 2. Sistemas lineales 181


6 . 3. Teorema de Cramer 187
6. 4. Compatibilidad de sistemas lineales 188
6. 5. Resolución de sistemas lineales 190
6. 6. Sistemas homogéneos 196
6. 7. Conjunto solución de un sistema lineal 198
6. 8. Resolución de sistemas simétricos 202
6. 9. Método del orlado 205
Trabajo Práctico VI 210

www.FreeLibros.com
C O N T E N ID O XI

Capítulo 7. PRODUCTO INTERIOR. GEOMETRIA VECTORIAL 214

7. 2. Espacio vectorial euclidiano 214


7. 3. Ortogonalidad 219
7. 4. Desigualdad de Schwarz 222
7. 5. Desigualdad triangular 223
7. 6. Angulo de dos vectores 223
7. 7. Conjunto ortogonal de vectores 225
7. 8. Base ortonorm al 225
7. 9. Complemento ortogonal 229
7.10. Proyección de un vector sobre otro 232
7.11. Espacio afín Rn 233
7.12. Ecuaciones vectorial y cartesianas de larecta 236
7.13. Ecuación normal vectorial del plano 239
7.14. Curvas en el espacio 246
7.15. Superficie cilindrica 249
7.16. Superficie cónica 251
7.17. Proyección de una curva sobre un plano 253
Trabajo Práctico VII 257

Capítulo 8. VALORES Y VECTORES PROPIOS. DIAGONALIZACION 263

8. 2. Valores y vectores propios 263


8. 3. Polinomio característico de una m atriz 270
8. 4. Diagonalización de matrices 276
8. 5. Triangulación de endomorfismos ydematrices 279
8. 6. Teorema de Hamilton-Cayley 282
Trabajo Práctico VIII 285

Capítulo 9. FORMAS BILINEALES Y CUADRATICAS 289

9. 2. Formas bilineales 289


9. 3. Formas hermitianas 293
9. 4. Formas cuadráticas 294
9. 5. Operadores adjuntos y traspuestos 296
9. 6. Operadores hermitianos y simétricos 299
9. 7. Operadores unitarios y ortogonales 300
9. 8. Teorema de Sylvester 303
9. 9. Diagonalización de operadores simétricos 307
9.10. Matrices simétricas reales y valores propios 310
9.11. Descomposición espectral de una matriz 311
9.12. Congruencia de formas cuadráticas 314
9.13. Signo de una forma cuadrática 318
Trabajo Práctico IX 321

www.FreeLibros.com
X II C O N T E N D IO

Capítulo 10. CONVEXIDAD. PROGRAMACION LINEAL 325

10.2. Conjuntos de puntos en Rn 325


10.3= Segmentos, hiperplanos y semiespacios 330
10.4. Convexidad en Rn 336
10.5. Convexidad y trasformaciones lineales 339
10.6. Hiperplanos soportantes 342
10.7. Puntos extremos 344
10.8. Introducción a la Programación Lineal 346
Trabajo Práctico X 356
BIBLIOGRAFIA 359

RESPUESTAS A LOS TRABAJOS PRACTICOS 361


INDICE 393

www.FreeLibros.com
Capítulo 1

ESTRUCTURA D E ESPACIO VECTORIAL


SUBESPACIOS

1.1. INTRODUCCION

La estructura de espacio vectorial, que tratam os en este capítulo, es el concepto básico


del Algebra Lineal. Confiere unidad y precisión a temas esenciales de la matemática que
tienen vastas aplicaciones en la ciencia y en la tecnología actuales. Después de introducir el
sistema axiomático y de dar las propiedades fundamentales, proponemos los espacios
vectoriales de funciones,de los que se derivan los modelos de los espacios de matrices,
n—uplas y sucesiones de elementos de un cuerpo. Se da, finalmente, el concepto de
subespacio.

1.2. CONCEPTO DE ESPACIO VECTORIAL

Sean: V un conjunto no vacío, K un cuerpo, + y . dos funciones, que llamaremos suma y


producto, respectivamente.

Definición
El objeto (V, + , K , . ) es un espacio vectorial si y sólo si se verifican los siguientes:

Aj . La suma es una ley de composición interna en V.


+ : V2 -> V
O sea
xeV a y e V =>x + y e V
Esto significa que la suma de dos elementos cualesquiera de V es un único elemento de
V.

A2 . La suma es asociativa en V.

(x + y ) + z = x + (y + z)
cualesquiera que sean x, y, z en V.

www.FreeLibros.com
2 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

A 3 . Existe un neutro para la suma en V.


El elemento neutro se denota con 0.

30eV /V xeV :x+0-0+x=x


A 4 • Todo elemento de V admite inverso aditivo u opuesto en V.
VxeV, 3 y e V / x + y = y + x = 0
Al opuesto de x lo denotam os con —x, o sea, y = —x.
A 5 . La suma es conmutativa en V.

X+ y =y + x

cualesquiera que sean x, y en V.

A6 . El producto es una ley de composición externa en V con escalares u operadores


en K. r

. :KXV->V
De acuerdo con 5.6, A lgeb ra í, del mismo autor, la imagen del par (a, x), donde a e K y
x e V, se escribe a x y se llama producto del escalar a por x.
O sea

a eK a x e V =>ax e V
A7 . El producto satisface la asociatividad mixta.

V a e K, V P e K, V x e V : a (0 x ) - (a p) x
Observamos aquí que los dos productos que figuran en el primer miembro
corresponden a la ley de composición externa. Pero el producto a p del segundo
miembro se efectúa en K.

A8 . El producto es distributivo respecto de la suma en K.

V a e K , V 0 e K , V x e V : ( a + 0 ) x = a x + (}x
La suma a + 0 se efectúa en K, pero la suma que figura en el segundo miembro
corresponde a la ley de composición interna en V.

Ag . El producto es distributivo respecto de la suma en V.


V a e K , V x e V , V y e V ; a,(x + y ) - o , x + o ; y
Las dos sumas se realizan en V.

A ,0 . La unidad dei cuerpo es neutro para el producto.


V x e V : Ix = x
donde 1 denota la identidad en K.
Los axiomas A ,, A2 , A 3, A 4 y As caracterizan a (V , + ) como grupo abeliano. Los
últimos cinco axiomas son relativos a la ley de composición externa.
Los elementos de V se llaman vectores; en particular, el elemento neutro para la suma

www.FreeLibros.com
ESPACIO VECTORIAL 3

recibe el nombre de vector nulo. A menudo hablaremos del espacio vectorial V,


sobrentendiendo que nos referimos a la cuaterna (V, + , K , .). La simplificación de las
notaciones hace conveniente el uso de los mismos símbolos para nom brar las leyes de
composición interna en K, la suma en V y el producto de escalares por vectores. O sea, al
decir K nos estamos refiriendo al cuerpo (K, +, .), donde los signos “ + ” y denotan las
dos leyes de composición interna en K, que no tienen el mismo significado que las que
figuran en (V, + , K , .). Distinguiendo adecuadamente los elementos de K y los de V, no hay
lugar a confusión.
Así

a + ¡3 es una suma en K x 4- y es una suma en V


a (i es un producto en K a x es el producto de un escalar por un vector

Ejemplo 1-1.
Sean: V = R2 , K = R, la adición definida en R 2 por

(a , b) + (c , d ) = (a + c , b + d) (1)

y el producto de números reales por elementos de R 2 definido mediante


a (a , b) = (oca, ot b ) (2 )

Resulta (R 2 , + , R ,. ) el espacio vectorial de los pares ordenados de números reales


sobre el cuerpo de los números reales.

En efecto, de acuerdo con los ejemplos 5-2 y 5-5 iv) del texto nombrado, es (R2 , +)
un grupo abeliano.

Por otra parte se verifican:


A6 . Por la definición (2).

A7 . a = u ( P a , & b ) = (a ¡< p a ), a (P Z») ) - ( (a (3) a , (afl) b ) =

= (a 0) (a , b)

Hemos aplicado la definición (2), la asociatividad del producto en R y la definición


( 2).

Aa . (a + (3) (a , b) = ( (a + (i)a, (a+j3) Z>J = ( a a + (3a , a b + (ib) =


= (a a , a b) + (j3 a , 0 b) = a (a , b) + j3 ( a , b)
De acuerdo con (2), la distributividad del producto respecto de la suma en R, y las
definiciones (1) y (2).

A9 . a ^ ( a , b) + ( c , d) J = a (a + c , b + -d)~ ( a (a + c ) , a (b + rf)| =
= (a a + a c , otb + a d ) = (Oia, <x b ) + ( ot e, o c d ) ~ a ( a , b) + a ( c , d)

www.FreeLibros.com
4
ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Según (1), (2), distributividad de la multiplicación respecto de la adición en R y las


definiciones ( I ) y (2). ’*

A¡0 . 1 ( a , b) = (1 a , Ib) = ( a , b)

El significado geométrico de las operaciones de este espacio vectorial es el siguiente:


la suma de dos vectores no colineales del plano queda representada por la diagonal del
paraleiogramo que forman. El producto de un número real a por un vector no nulo
x ~ ( a , b), es el vector a x que tiene la misma dirección que x; el mismo sentido si
<*>0, y sentido opuesto si a < 0 . Corresponde a una dilatación si la l > 1 y a una
contracción si I ot I < 1. Si a - 0, entonces se obtiene el vector nulo.

Ejemplo 1-2.

En R2 se definen: la suma, como en el ejemplo anterior, y la ley de composición


externa mediante

« ( « , * ) = (a , a) (2’)

Se verifica, como antes, que (R 2 , + ) es un grupo abeliano.


En cuanto a ( 2 ) , satisface A6 . Su significado geométrico es el siguiente: todos los
pares ordenados que tienen la misma absisa, al ser multiplicados por cualquier número
real, se proyectan sobre la primera bisectriz paralelamente al eje de ordenadas.

www.FreeLibros.com
ESPACIO VECTORIAL

También se satisface A7 , pues

« {$(<*,b)) = <*(a,a) = ( a , a ) = ( a $ ) ( a , b )
No se verifica A8 , ya que

(a + i 3 ) ( a , b ) = (a, a)

pero

a (a , b) + 0 (a , b) = (a , a) + ( a , a) = (2a , 2a)

Este hecho es suficiente para afirmar que no se trata de un espacio vectorial.


El lector puede comprobar que esta interpretación cumple A9 pero no A 10 .
Observamos aquí que la estructura de espacio vectorial no es inherente exclusivamente
al conjunto V, sino que, además, depende de K y de las leyes de composición que se
definan. Aclaramos que toda vez que se mencione al espacio vectorial (R 2, + , R , .) se
sobrentenderá que la suma y el producto son los definidos en (1) y en (2) del ejemplo

Ejemplo 1-3.

La estructura de espacio vectorial no es un sistema axiomático independiente, pues As


puede deducirse sobre la base de los restantes axiomas.
En efecto

www.FreeLibros.com
5 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

x + x + y + y ^ l x + lx + ly + ly = (1 + l ) x + ( l + l )y —(1 + 1 ) 0 + y)

= 1 (x + y ) + 1 (x + y ) = l x + ly + l x + ly = x + y + x + y

en virtud de Aio , Ag, A9 , Ag , A9 y A 10 .

O sea
X + x + y +*y - X + y + x + y
Por ley cancelativa en el grupo (V , + ) resulta
x + y =y + x

1.3. PROPIEDADES DE LOS ESPACIOS VECTORIALES

Sea (V, + , K , .) un espacio vectorial.

1.3.1. El producto del escalar O por cualquier vector es el vector nulo.

En efecto, por neutro para la suma en K y A8 es


a x = (a + 0)x = a x + Ox

Por A 3 se tiene
JJHC + O Ox
Y por ley cancelativa resulta
0x = 0

1.3.2. El producto de cualquier escalar por el vector nulo es el vector nulo.

Por A 3 y A9 es
ax=fl(x + 0 ) = « x + a 0

Entonces
ax+aO=oix

Por A3
JX-X-+ a O ~ xh c + O

Y por regularidad en (V, + ), resulta


a O= O

www.FreeLibros.com
PROPIEDADES DE LOS ESPACIOS VECTORIALES 7

1.3.3.Si el producto de un escalar por un v ectores el vector nulo, entonces el escalar es 0 o


el vector es nulo.

ax=0^a=0vx=0
Se presentan dos posibilidades: a ~ 0, o bien, a 0
En el prim er caso es verdadera la primera proposición de la disyunción que figura en la
tesis, y por consiguiente ésta es verdadera.
En el segundo caso es necesario probar que x = 0.
En efecto, siendo 0, existe el inverso multiplicativo en K, a ’1. Partiendo de la
hipótesis, premultiplicando por a 1, usando A7 , 1.3.2., el producto de inversos en K y A i0
se tiene
a x = 0 => a -1 (a x) = a -1 0 => (a ’1 a ) x = 0 lx ~ 0 x=0

1.3.4. El opuesto de cualquier escalar po r un vector es igual al opuesto de su producto.

(--«) x = - (a x)
Teniendo en cuenta A4 , 1.3.1., la suma de opuestos en K y A8, es
— ( a x ) + a x = 0 = 0 x = (—a + a ) x = ( - a ) x + a x
De
( a ) x +-e¿'X'= - ( a x) + jxjc
después de cancelar, resulta
( - a ) x = - (a x)
En particular se tiene
( —1) x = --(1 x) = - x

1.4. ESPACIO VECTORIAL DE FUNCIONES

El sím bolo Kx denota el conjunto de todas las funciones con dominio un conjunto X # 0
y codominio un cuerpo K, o sea
Kx = { f / f : X - > K |
En Kx definimos la suma de funciones y el producto de escalares por funciones mediante

i ) Si f y g son dos elementos cualesquiera de Kx , entonces f + g : X -»■K es tal que

(f + g) (x) = f (*) + g (x ) VjccX


ii) Si a es cualquier elemento de K y f es cualquier elemento de Kx , entonces
a f : X -> K es tal que
(a f) (x) = a f (x) VxeX

www.FreeLibros.com
8 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Tanto la suma de funciones con dominio X =É 0 y codominio K, como el producto de


escalares por funciones, se llaman leyes de composición punto a punto.

Resulta (KX , + , K , . ) un espacio vectorial. Para ello, veamos que se verifican los
axiomas.

A( .f e Kx a g e Kx => f + g e Kx por la definición i)

A 2 .Sean f, g y h en Kx . Cualquiera que sea x e X se verifica, teniendo en cuenta la


definición i) y la asociatividad de la suma en K:
( ( f + g) + h ) (x) = (f + g )(x ) + h ( x ) = ( f ( x ) + g ( x ) j + h (x) =

= f (x) 4- ( g (X) + h (x) J = f (x) + (g + h) (x) - ( f + (g + h) (x)

Y por definición de funciones iguales resulta


(f + g) + h = f + (g + h)
A 3 . El vector nulo es la función nula
e: X K definida por e (x) = 0 cualquiera que sea x e X .
Sea f e Kx . Teniendo en cuenta i), la definición de e y la suma en K, es
(f + e) 0 ) = f (x) + e (x) = f (x) + 0 = f (x) .
Luego
f+ e = f
Análogamente se verifica que e + f - f.
A4 • Inverso aditivo de f e Kx es la función - f : X -+ K definida por (~ f) (x) = - f (x)
En efecto, para todo x e X se verifica
( - f + f) (x) = ( f) (x) + f (x ) - - f (x) + f (x) = 0 = e (x)
O sea
(-f) + f = e
Análogamente se prueba que
f + (-f) = e
A s . La suma en Kx es conmutativa, ya que
(f + g) O ) = f ( x) + g (x) = g (x ) + f (x) = (g + 0 (x)
Luego

f + g = g + f cualesquiera que sean f y g en Kx .

A 6 .a e K A f e K x => a f e K x p o r la d e f i n i c i ó n i i ) .

A 7 . S e a n a e K ,/3 e K y f e K x .

www.FreeLibros.com
ESPACIO VECTORIAL DE FUNCIONES <.

Entonces

(a<JJf)) W = « ( ( Í O W ) = « ( p f ( x ) ) = (a fl) f(je ) = ( ( a f í t j (x)

Luego

a (/3 f) = (a /? )f
A8 . Considerando

a e K , 0 e K y f e K x es

((« + P) f j (*) = (a + p) f (x) = a f (x) + p f (X) =

= (a f) (jc) + (/i f) (x) = (a f + p f) (x)

en k “ ¡)“ i r “ " 3 tenÍend° “ CUe,,ta i0 ’ 13 d¡S,ributiVÍdad ^ 13 asociatividad del producto


Entonces es

(a + |3)f = a f + 0 f

A9 . Sean a e K , f e K x y g e K x .

y 0 » r2 e 0, distdbutividad del pr0duct0 resP“ ‘° de la suma en K y por las definiciones ii)

( “ (f+g)J (*) = <* ((f + g ) W ) = , ( f W + g W ) =


= a f W + « g W = (oif) (A:) + (a g)(*) = (a f + a g ) w

O sea

a (?+g)~a:f+ag

AI0 . Cualquiera que sea f en Kx se verifica

(lf)C * ) = 1 f (* ) = f(je)

Luego

1f = f

no
este espacio IZltZl ^
Vedt0rial de laS funci0nes definidas “ 61
^ C° mP° S1CÍÓn PUn‘° 3 P“ ‘°- Los
La figura siguiente explica la situación en el caso particular en que K = R y X = [0,1 ]

www.FreeLibros.com
10 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

1.5. ESPACIO VECTORIAL DE «-UPLAS DE ELEMENTOS DE K

Con relación al espacio vectorial de funciones (Kx , +, K , .) consideremos el caso


particular en que X es el intervalo natural inicial I„. Toda función f: ln -*■fí es una n-upla de
elementos de K, y escribiendo K1" = K" es (K ", + , K , .) el espacio vectorial de las n-uplas de
elementos de K.
Las definiciones i) y ii) dadas en 1.4. se traducen aquí de la siguiente manera:

i ) Si f y g denotan elementos de K", entonces f + g es la función de 1„ en K definida


por

(f + g) Í0 ” f ( 0 + g ( 0 cualquiera que sea i e l„


Es decir

c i = ( f + g) (0 = f (0 + g (0 = a¡ + bi
donde au b¡ y c¡ son las imágenes de i dadas por f, g y f + g, respectivamente.
En consecuencia, dos n-uplas de elementos de K se suman componente a componente.
ii) Si oí e K y f e K " , entonces a f es la función de I„ en K definida por
(a f) (?) = a f (/) cualquiera que sea / e In .
Denotando mediante c,- la imagen de i dada por a f es
Ci = (a 0 (0 = oc f (/) = a a¡

www.FreeLibros.com
ESPACIOS DE N -U P L A S Y DE MATRICES jx

Es decir, el producto de un elemento de K por una n-upla se realiza multiplicando en K a


dicho elemento por cada com ponente de la n-upla.

En particular (K, +, K , .) es el espacio vectorial donde los vectores se identifican con los
elementos del cuerpo K. En este caso, la ley de composición externa es interna.
En consecuencia, (R, + , R , .) es el espacio vectorial de los números reales sobre el cuerpo
de los reales. Este es u n caso particular del espacio vectorial de las n-uplas de números reales
sobre el cuerpo de los reales, que denotamos mediante (Rn, + , R , .).
(C", +, C ,.) es el espacio vectorial de las n-uplas de números complejos sobre el cuerpo de
los complejos.

1.6. ESPACIO VECTORIAL DE MATRICES n x m

Particularizando nuevamente con relación al espacio vectorial tratado en 1.4., considere­


mos X = I„ X l m , o sea, el producto cartesiano de los dos intervalos naturales iniciales: e
Im •
Llamamos m atriz n x m con elementos en K a toda función

La imagen del elemento ( /, /) perteneciente al dominio se denota por a¡j.

La matriz f queda caracterizada por el conjunto de las imágenes

«11 «12 . . . a Xm
«22 • • • a2m

www.FreeLibros.com
12 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

y suele escribirse como un cuadro de n.m elementos de K dispuestos en n filas y m columnas.


En cada fila o renglón se escriben las imágenes de todos los pares ordenados que tienen la
misma primera com ponente, y en cada columna se anotan las imágenes de todos los pares
ordenados que tienen la misma segunda com ponente. El elemento de la matriz que figura en
la fila i y en la columna j se denota por a¡j, y es la imagen dada por f, del par (i, /). Llamando
A a la matriz cuyo elemento genérico es ay, escribiremos

«11 «12 «13 «i,


«21 «22 « 23 l2m
A=

« ni «n2 a n3

Tanto las filas como las columnas de A se llaman líneas de la matriz.


Abreviando, puede escribirse

A = (a¡j) donde / = 1, 2 ,. . ., n y / = 1, 2 , . . m

El conjunto de todas las matrices n x m con elementos en K. es K!»XIm y se denota


mediante KnXm.
Las definiciones i) y ii) dadas en 1.4, se traducen aquí de la siguiente manera: si A y B son
dos matrices de K” x m , su suma es C e K" x m , tal que
c¡j = (f + g) (i, j) = f (/,/) + g (/, /) = au + b¡j
y el producto del escalar a e K por la m atriz A es la m atriz de Kn x m cuyo elemento genérico
cu es tal que
c¡i = (a f) ( i , J) = a f (/ , f ) ~ a au
O sea, dos matrices del tipo n x m se suman elemento a elemento; y para multiplicar un
escalar por una matriz n x m se m ultiplica dicho escalar por todos los elementos de la matriz.
La cuaterna (Kn Xm, + , K , .) denota el espacio vectorial de las matrices n x m con
elementos en K. En este espacio, los vectores son matrices.

En particular ( KnXn, + , K , .) es el espacio vectorial de las matrices cuadradas, es decir,


de n filas y n columnas.

El vector nulo del espacio K" x m se llama m atriz nula; la denotaremos mediante N, y está
definida por «y = 0 V i V /.

La matriz inversa aditiva u opuesta de A = (a¡j) es B, cuyo elemento genérico satisface la


relación b¡¡ = -a¡j. Escribiremos B = —A.

Por definición de funciones iguales resulta A = B si y sólo si a¡j = b¡j V/ V /.

www.FreeLibros.com
ESPACIO DE SUCESIONES 13

Ejemplo 1-4.

En R2 x 3 se consideran las matrices A y B cuyos elementos genéricos son a a = 2i - j y

¡j .j = 1 — i2 . Obtenemos C = A — 2B.
La expresión de C es C = A + ( —2)B, y como

1 0 -1
B=
3 2 1/

resulta

1 0 -1
C= +

1.7. ESPACIO VECTORIAL DE SUCESIONES

Sean: X = N y KN el conjunto de todas las funciones de N en K. Los elementos de KN


son todas las sucesiones de elementos de K, y retomando lo expuesto en 1.4. resulta
(Kn , + , K, .) un espacio vectorial.
Las definiciones i) y ii) de 1.4. se interpretan ahora de la siguiente manera:

Ci = (f + g) (0 = f (0 + g (0 = + bi V i e N
c¡ = (a f) (/) = a f (i) = a a¡ V i e N
O sea

(«j, a 2, + (¿ i, b 2, ■■ bn, . . .) = (fli + b i, a 2 + b 2, . . an .)


a (fl|, a2, ■■ a»t . . .) = ( a a i , cta2, ■■ ocaUi . . .)

El vector nulo es la sucesión


0 = ( 0 , 0 , . . . , 0 , . . .)

Ejemplo 1-5
Sea R [X] el conjunto de los polinomios reales en la indeterminada X. La suma en
R [X] se define como en 12.2.2., Algebra 1, del mismo autor. El producto de escalares

www.FreeLibros.com
14 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

reales por polinomios es el habitual, o sea si c x e K y P e R [X ], entonces a P es la


función de N0 en R definida por (ccP) (i) = a P (i), cualquiera que sea i e N0.

Res ta (R [ X ] ,+ , R , .) el espacio vectorial de los polinomios reales en la indetermina­


da X sobre el cuerpo de los números reales.

El conjunto de los polinomios reales de grado 2 no es un espacio vectorial sobre el


cuerpo de los reales, porque la suma no es una ley de composición interna en dicho
conjunto. Pero el conjunto de los polinomios reales de grado m enor o igual que 2 y el
polinomio nulo constituye un espacio vectorial sobre R.

Ejemplo 1-6

Sea S el conjunto de las funciones reales definidas en [0,1 ] tales que f (0) = 0, es decir
S = í f : [ 0 , l ] ^ R / f ( 0 ) = 0j

Como todo elemento de S pertenece a R f0,1 es S C R l0-1)

Considerando las leyes de composición definidas en 1.4., se verifican

A, •feSAges^f( 0)=OAg(0)= 0=»f(0) + g(0)=c^(f + g)(o) = o=»f + geS

www.FreeLibros.com
SUBESPACIOS 15

A2 Como la suma de funciones es asociativa en R ]0,1' , también lo es en S.


A 3 . La función nula es el vector nulo de S.
A4 . Todo elemento de S admite u n opuesto en S.
Si f e S, entonces —f e S, pues (—f) (0) = —f (0) = 0.

As . Cualesquiera que sean f y g en S, se tiene


f+ g = g + f
pues S C R^0,1 ^
A6 a e R a f e S ^ a e R a f ( 0 ) = 0 = > a f ( 0 ) = 0 = > ( a f ) ( 0 ) = 0 = » o t f e S

Los restantes axiomas, lo mismo que A 2 y A5 , por ser identidades en Rl°a í se


cumplen en S ya que S C R ^0’1 J.
En consecuencia, (S, + , R , .) es un espacio vectorial.

1.8. SUBESPACIOS

1.8.1. Concepto
Dados el espacio vectorial (V, + , K , .) y el conjunto no vacío S C V, si S es un espacio
vectorial sobre el mismo cuerpo K y con las mismas leyes de composición que en V, diremos
que (S, + , K , .) es un subespacio de (V, + , K , .), o simplemente, que S es uí? subespacio de
V.
Definición
S es un subespacio de (V, + , K , .) si y sólo si (S, + , K, .) es un espacio vectorial.
Cualquiera que sea (V, + , K , .), tan to V como j 0} son subespacios de V, llamados
triviales.

Ejemplo 1'7
Consideremos el espacio vectorial (R 2 , + , R , .) y los subconjuntos
T = ¡ (x, y ) e R 2 i y = x + 1 ¡ S = {(x, y ) e R 2 f y = 2 x )

T no es u n subespacio, pues el vector nulo (0,0) ¿ T .


En cambio, S es un subespacio de R2 , ya que
1° (S, + ) es un subgrupo de (R 2 , + ). En efecto, de acuerdo con la condición suficiente
demostrada en 8.4.2., Algebra I, del mismo autor.se verifica
( x , y ) e S a ( x ’, y r) e S ^ y = 2x a y ’= 2 x ’ ^ y - y ’= 2 ( x -* •)= >

(x - x \ y - y 1) e S => (x, y ) + ( - x -y* ) e S

www.FreeLibros.com
16 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

2o Respecto de la ley de composición externa consideramos

Los axiomas A ,, A ,, A , y A ,„ , por ser igualdades en R 2, se cumplen en S ya que


SC R

De la definición se deduce que (S, + , K , .) es un subespacio de (V, + , K, .) si y sólo si


(S, + ) es un subgrupo de (V, + ) y S es cerrado para el producto por escalares.

1.8.2. Condición suficiente

e n t L l T(a,s ^t K
entonces , K ,n^ ? un
.) es C‘°subespacio
^ V “ de Cr ?(V,
v °+ ,Para
K , .).la SUma y Para 61 Pr0duct0 P0r e s c a la r c s .

Hipótesis) (V, + , K , .) es u n espacio vectorial


^ S C V
1 . x e S a y eS=>x + y e S
2. oí e K a x e S => a x e S
Tesis) (S, + , K , .) es un subespacio de (V, + , K , .)

Demostración)

1° Consideremos dos vectores cualesquiera x e y en S. De acuerdo con la condición 2 de


la hipótesis, por 1.3.4. y por la condición 1. de la hipótesis,se tiene

www.FreeLibros.com
SUBESPACIOS
17

x e S A y e S = > x e S A ( - l ) y e S = ^ x e S A - y e S => x + (-y )e S


En consecuencia,(S, + ) es un subgrupo de (V, + ).
T S es cerrado para el producto por escalares, de acuerdo con la condición 2 de la
hipótesis.
La aplicación del teorem a demostrado es esencial para determinar si un conjunto S es un
subespacio de (V, + , K, .). Para que lo sea, deben verificarse las condiciones que figuran en la
hipótesis del mismo, a saber:
1. S =f=4>
2. S C V
3. x e S A y e S = > x + y e S
4. aeK A xeS=*axeS

Estas condiciones son, además, necesarias. Es decir, sabiendo que S es un subespacio son
proposiciones verdaderas.

Ejemplo 1-8
Sean: el espacio vectorial (R 3 , + , R , .), y el conjunto S de las ternas ordenadas de R
tales que la tercera com ponente es igual a la suma de las dos primeras.
O sea

S= { ( x ^ ^ ^ e R 3 l x z = *i + *2 f

Afirmamos que S es un subespacio de R 3 , pues


1. (1, 2, 3) e S => S =£0
2. S C R3 por la definición de S.
3. (x¡, X 2 , X 3) e S A O i , ^ 2, ^ 3) e S =>X3 = X t + X2 A y 3 - y l + y 2

="^3 + ^ 3 = (* 1 + V l ) + (* 2 + 7 2 ) =>0Cl + y 1 , X 2 + y 2 , X 3 + J ' 3) e S = >


^ ( x If x 2, x 3) + ( y l t y 2, y 3) e S
Hemos aplicado sucesivamente: la definición de S, la adición en R, la definición de S y
la definición de suma de ternas.
4. a e R a (xj, x 2l x 3) e S ^ a e R a x j =a : 1 + x 2 =>
^ax 3 + otx 2 :* ( o i x 1 , a x 2 , a x 3) e S = * o c ( x l , x 2, x 3) e $
Por definición de S, multiplicación en R, definición de S y la definición de producto
de escalares por ternas.
Al subespacio S pertenecen las ternas { xx, x 2, x 3) e R 3 que satisfacen la condición

x \ +x2 - x3=0

Esta ecuación define un plano que pasa por el origen.

www.FreeLibros.com
18 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Ejemplo 1-9

Considerando el espacio vectorial de las funciones reales definidas en [0 11 aue


denotamos m ediante (R , + , R, .), sean los subconjuntos

1. S = { f e R V /(0 ) = 0 )
2. S = {f e RV/tO) = 1 }

f l e\ CT tiene Un subesPacio de R l. como fue tratado en detalle en el eiemolo


1-6. Independientem ente del análisis realizado en el ejemplo citado se U » a f
misma conclusion aplicando el teorem a demostrado, pero en forma m ás'staple
En cuanto alcaso 2., S no es un subespacio, pues no es cerrado m ra l í p
efecto, las funciones f y g de I en R definidas por P" a ‘a SUma' E"
f(r) = j ; + l g (^ )==x2 + 1
satisfacen las condiciones

f(°)=l g(0) = 1

o sea, son elementos de S. Pero la suma f + g está definida por


( f + g) (x ) = f(x) + g ( x ) = x 2 + x + 2
y no pertenece a S, ya que

(f + g )(0 ) = 2

Ejemplo 1-10

Dado el espacio vectorial (R 4 , + , R , .) consideramos

S- j ( x l t x 2, x 3, * 4) e R 4 /x1 + x 2 + x 3 + x 4 = 1 j

Se verifica que
1. pues (1, 0 ,0 , 0 ) e S
2. S C R 4 por la definición de S
3. S 110 es cerrado para la suma ya que
(1, 1 , - 1 , 0 ) e S a (I, 1, - 1 , 0) e S pero

(1, 1, —1, 0) +(1, 1, —1, o) = (2, 2, —2, 0)^S


s Vy eesto
^ o hbasta
! T para
Ía’ Sque
n ° 68
noUn
seaSUbeSpacio- Por otri> porte, el vector nulo no pertenece
un subespacio. fenece aa

Ejemplo 1 - 11 .

cd u m n a s"’ + ’ R ' ° ^ ^ * t o matdCeS CUadradas „ filas y „

www.FreeLibros.com
SUBESPACIOS 19

Si A e R” *n escribimos
au a n • « ln \
#21 #22 • a2n

A=

\ &n 1 • • • ®nn

Por definición, traza .de una m atriz cuadrada es la suma de los elementos de su
diagonal. La notación es

tr A = a n + ú¡22 + . . . + ann - 2^ ati

El conjunto
S = ( A e R nx" / fr A = 0

es el conjunto de las matrices de traza nula de R nxn, y constituye un subespacio, pues


se verifica:
1. S =£0, pues la matriz nula N es de traza nula, y en consecuencia es un elemento
de S.
2. S e Rnx" por definición de S.
3. S es cerrado para la adición.
Sean A y B dos matrices cualesquiera de S. Entonces
n n
A e S A B e S = > t r A = 0 / \ t r B = 0=>'E a H = 0 a 2 bü = 0 =>
i- 1 (= 1

=» i a„ + i bu = 0 ¿ (aü + b u) = 0=>
í= i «=i i—i
=> tr (A + B) = 0 => A + B e S
4. S es cerrado para el producto por escalares. En efecto
n
a e R A A e S = >a e R A í í - A = 0=> a e R A 2 «ít- = 0=>
í=i
n n
=> a 2 a a - 0 =►S a a¡i = 0 *=> tr (a A) = 0 =* a A e S
i= l i —1

Ejemplo 1-12.

Consideremos S = j ( x u x 2) e R2/* i > x 2 ¡ e investiguemos si S es un subespacio de


( R2 ,+> R, .)■
Se ve de inmediato que no se verifica A4, pues no todo elemento de S admite
opuesto en S. Así
(0, - l ) e S p e r o (0, 1 ) ¿ S

www.FreeLibros.com
> ESTRUCTURA DE l-SPACIO VECTORIAL. SUBESPACIOS

Analizando la situación en términos de la condición suficiente demostrada, se verifica:


1. S * f )
2. S C R 2
3. S es cerrado para la suma.

O i , x 2)eSAOi , ^ 2)eS=>xl > x 2/ \ y x > y 2 =*


^*1 + y i > x 2 + y 2 * ( X l + y i ! x 2 + y 2 ) e s = > ( x i , x 2) + (ylty 2 ) e s

£ p t a ° “ Cerrad° Pari> d Pr° dUCt0 P° r eSC!ÜareS' C0m0Io ^ siguiente

(2,1) e S A (-2 ) (2,1) = (_ 4 , -2 )j^ S


En consecuencia, S no es un subespacio de R 2 .

t *2

1.9. OPERACIONES CON SUBESPACIOS

1.9.1. Intersección de subespacios

Sea I S, | con i e l una familia de subespacios de (V, +, K, .). Denotaremos con S la


intersección de dicha familia, o sea, S = .H S,. Resulta S un subespacio de V.

ir. Tet° ie”la ^1; a ¡ " l e c c i ó n de toda familia de subespacios de V, es un subespacio de V


Hipótesis) (V, + , K, .) es un espacio vectorial
( Sf ) con i e I es una familia de subespacios de V

www.FreeLibros.com
INTERSECCION DE SUBESPACIOS 21

Tesis) S = .Qj S,- es un subespacio de V.

Demostración) De acuerdo con la condición suficiente 1.8.2. se verifica


1. S no es vacío, pues

0 e S ¡ , Vi e I => 0 e H s¿ =>
¿el

r io
i el 1 r r

Por ser cada Sf un subespacio y por definición de intersección.


2. S está incluido en V, ya que
sfcv,v/ei=>
‘ 16 I
sfcv=>scv
Por ser cada S, un subespacio de V y porque la intersección de toda familia de
subconjuntos de V es una parte de éste.
3. S es cerrado para la suma. En efecto

x e S A y e S = ^ x e >nl ss, Ay
, a y eei n
lS/=>
¿ el 7 i el

=>X € S¡ a y e S i , Vi e I => x + y e S¿, Vi e I ==>

^ x + y e P s ^ x + yeS
ie l

Por definición de intersección, y porque todo S¡ es un subespacio.


4. S es cerrado para el producto por escalares.
Consideremos ex e K y x e S. Ahora bien
aeKAxeS=*aeKAxefis¿=*
¿el 1

=>a e K a x e S ¡ , V/'e I =>a x e S f , V/ e I =*

^ a x e H s.-^axeS
i el

Ejemplo 1-13
En (R 3, + , R , .) consideramos los subespacios
Si = j ( x , , x 2 í x 3) e R 3/x3 = 0 j S2 = j ( x I l x 2 l x 3) e R 3/ x I= 0
La intersección de estos es
S = Si n S2 = j (X|, x 2, x 3) e R 3/ x i = 0 a x 3 = 0 }

www.FreeLibros.com
22 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Esto significa que un vector genérico de S es una terna del tipo ( 0 , x 2, 0) que puede
expresarse mediante (0, a , 0) para algún ol en R.
Entonces
S = ((0 , a, 0) e R3 /a e R )
O sea, S es el eje x 2

Subespacios de R3 son: R 3 , {0 }, todas las rectas que pasan por el origen y todos los
planos que pasan por dicho punto. Dos rectas distintas que pasan por e! origen son
subespacios cuya intersección es el vector nulo, y se llaman disjuntos.

1.9.2. Unión de subespacios

Si Si y S2 son dos subespacios de (V, + , K , .), entonces S i U S2, no es necesariamente un


subespacio de V, como lo prueba el siguiente ejemplo:
Consideremos en (R 2 , + , R , .) los subespacios Sj y S2 de la figura

www.FreeLibros.com
SUMA DE SUBESPACIOS 23

La unión de ambos es el par de rectas, y eligiendo x e S , , y e S2, distintos del vector nulo,
se tiene
x e S j =>xeS! U S 2
y e S 2 =>y e S i u s 2
pero
x + y / S ! U S2

1.9.3. Suma de subespacios

Sean Si y S2 dos subespacios de (V, + , K , .). Definimos el conjunto

S = ( x e V / x = xj + x 2 a x i e S i a x 2 e S 2 1
O sea
S = | x e V / 3 x 1 e S 1A 3 x 2 e S 2 A x = x! + x 2 )
El conjunto S se llama suma de los subespacios S t y S2 y se indica
| S = S1 + S 2
j Teorema. La suma de dos subespacios de V es un subespacio de V.
! Hipótesis) Sj y S2 son dos subespacios de (V, + , K , .)
¡ S= S!+S2
Tesis) (S, + , K , .) es un subespacio de (V, + , K ,.)
Demostración) Se verifican las condiciones expuestas en 1.8.2., a saber
1. S es no vacío, pues

O e S i A 0 e S 2 ^ 0 + 0 = 0 e S i + S2 = > 0 e S

2. S es una parte de V, por la definición de S.


3. S es cerrado para la suma, ya que

xeSAy es=*x = xi + x 2Ay = y_x + y JAxl í yl eSjAXa.ya2 =eS



^ x + y = (Xl + y , ) + (x2 + y 2)AXt + y i e Si a x2 + y 2 6 S2 =*
=*x + y e S
4. S es cerrado para el producto por escalares, porque
a e K A x e S = í>a e K A x = x 1 + x2 axi e S j A x 2 e S 2 =>
=>Q:x = a!x , + a x 2 A f t x 1 e S l A a x 2 e S 2 = > a x e S
Por consiguiente, la suma de subespacios es un subespacio.
Un caso particular im portante se presenta cuando los subespacios Si y S2 son disjuntos,
es decir, si Sj n S2 = { 0 j . En esta situación, el subespacio S = Sj + S2recibe el nombre de
suma directa de Si y S2 , y se utiliza la notación
S = S, ©S2

www.FreeLibros.com
24 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Sintetizamos esto en la siguiente definición

s = s j © s2 ^ S = S! + s 2 a Si n s 2 = f o }

Ejemplo 1-14
Consideremos primero los subespacios de R 3

S , = ¡ ( a , ¡3’, 0 ) / a £RA( J ’ c R | S2 = j ( 0 , 0 ", y ) / r e R a t e R )

El subespacio suma S = Si + S2 está formado por todas las ternas del tipo

(a, 0’ + y ) = (<*,(}, y )

y es R 3. Ambos subespacios son los planos indicados en la figura, y como su


intersección es el eje x 2 , la suma S = S, + S2 “ R 3 no es directa.

En cambio, si

St H ( t t , 0 , 0 ) / a e R [ y S2 = j (0 J , O)/0 e R )
se tiene
S = S , + S2 ~ 0 )/a e R A / 3 e R )

O sea, la suma es directa y se identifica con el plano horizontal

www.FreeLibros.com
OPERACIONES ENTRE SUBESPACIOS 25

Extendemos la definición de suma de subespacios al caso en que n > 2.

Definición
Suma de los subespacios S j , S2, . . Sn de (V, +, K , .) es el conjunto

S ~ 2 S¿ = ( x e V/x = S x¡ax¿ e S , ( V/' = 1,


2 , . . n)

n
Resulta S = 2 S¡ un subespacio de (V, + , K , .).

Además, si tales subespacios son disjuntos dos a dos, o sea

i ^ / ^ s , - n S j = {o}

entonces diremos que S es la suma directa de ellos, y escribiremos

S = SX ©S2 ®. . . ©S*

Ejemplo 1-15
Sean S, T y U subespacios de (V, + , K , .), tales que T C S . Entonces se verifica que

s n ( T + u) = T + ( s n u )

I o. x e S n ( T + U ) = > x e S A x e T + U=>

www.FreeLibros.com
ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

= * x e S A x = x 1 -f-XjAXi e T A x 2 eU=»
=^(xi + x 2 e S A X ] e S ) a x2 e U a Xi e T =>
^ X j € T a x 2 e S A x 2 eU=>
=> x t e T a x 2 e S n U =►xi + x 2 e T + (S n U) =►
=>xeT + (SnU )
O sea
sn(T + u)cT + (snu) (i)

2o. x e T + (S n U) => x = xj + x2A x t c T a x 2 e S n u = >

^ X ! e T A x 2 6 S a x 2 e U =>
=>xj e T A x ! c S a x 2 e S A x 2 eU=>
=*Xi + x 2 eSAX! + x 2 e T + U=>
= > x , + x a e S n ( T + l J ) = > x e S n ( T + U)
Luego
T + (S O U) C S n (T + U) (2)
De (1) y (2) resulta la igualdad.

www.FreeLibros.com
f
I

TRABAJO PRACTICO I

1-16. Determinar si las cuaternas que se indican denotan espacios vectoriales con las
operaciones que se indican

i ) (R, + , Q ,.) iü) (Q} + j r )


i i ) (Q, +, Q , .) iv) (R, +, Z , .)

1-17. Sea (V, + , K , .) un espacio vectorial. Demostrar


i ) x + y = 0 = > y ~ —x iü) x + a y = x + a z y ^ 0 ^ y = z
i i ) x + y = x = >y = 0 iv) ax = b x y x ¥^0 =b

1-18. Determinar ct sabiendo que y ^ 0 y que


(1 - a ) x + a ( x —y) = x —y
1'19. Considerando V = Rr , o sea, el conjunto de las funciones reales con una variable real,
y K = R, investigar si son espacios vectoriales sobre R:
i ) El conjunto de las funciones continuas,
i i ) El conjunto de las funciones derivables.
iü) El conjunto de las funciones pares, o sea, las funciones f e R R tales que
f 0 0 = f (-x).
iv) El conjunto de las funciones impares, es decir, las aplicaciones f c R R que
verifican f (x) = —f (-x ) .
v ) El conjunto de las funciones constantes,
vi) El conjunto de las funciones no negativas.
1-20. Sean V = R2 y K = R. Determinar si las siguientes operaciones definen sobre V una
estructura de espacio vectorial.
( a , b ) + (a’ , b ,) = ( l a + l a ’ l ¡ } + l f }’)
2 2 2 2 '

oc ( a , b) ~ (ota, ab)

1-21. Determinar si (C2 , + , C ,.) es un espacio vectorial, definiendo


( z , , z 2) + ( z ’l r z ’2) ^ ( z 1 + z ’l t z 2 + z ’2)
z ( z i , z 2) = ( z z l , z z 2)

www.FreeLibros.com
28 ESTRU
CTURA DE ESPACIO VECTORIAL. SUBESPACIOS

1-22. Considerando el espacio vectorial (R 3 , + , R , .), investigar si los siguientes conjuntos


son subespacios de R3
i ) S = ( ( x 1, x 2f x 3) e R 3/ x 1 + x 3 = 0 J
i i ) S = ( ( x 1, X 2 , x 3) e R 3/ i x 1 1= 1^2 l)
iii) S = | (x 1( x 2, x 3) e R 3/ x 3 =X i + 2 )

1-23. Sea el espacio vectorial ( R " ,+ , R , .). Determinar si los siguientes conjuntos son
subespacios de R"
i ) S = ((Xi, x 2, . - - x n) e K n¡ x n e Z \
n
ii) S = ( ( x i , x 2, .. x„)eR ^S üiXi^O Aai eR}

1-24. Demostrar que S = {(z , w) e C2/z = iw } es un subespacio de (C2, + , C , ,).


1-25. Sean C2 y S = | ( z , w ) e C2/z - z + w = 0 }. Determinar si son subespacios (S, +, C , .)
y ( S , + , R , .).
1-26. Sean S y T subespacios de (V, + , K , .). En el producto cartesiano S XT se definen
(x , y) + (x * , y ’) = (x + x’ , y + y ’)
<x (x , y ) = (ax , ay)
Demostrar que ( S X T , + , K , .) es un espacio vectorial. El espacio S X T se llama
producto directo de S por T.
1-27. (R ” x", + , R , .) denota el espacio vectorial de las matrices reales n x n.
Por definición, la matriz A e R nx n se llama triangular superior si y sólo si
i> j =>a¡j = 0
Demostrar que ( S ,+ , R , .) es un subespacio de R nx", siendo S el conjunto de las
matrices triangulares superiores.
1-28. Dado (R 2 , + , R , .), determ inar si los siguientes subconjuntos son subespacios
0 S - ( ( x , ^ ) / ( x - ^ ) 2 = (x + ^ )2)

ii) T = ( ( x , y ) / - ^ x + y = x ~ ^ y \

1'29. Considerando (C2 , + , R , .) el espacio vectorial de los pares ordenados de números


complejos sobre el cuerpo de los reales, investigar si los siguientes conjuntos son
subespacios del mismo.
1 ) S = j (z , u ) e C2/z 2 + u 2 = 0 J
i i ) S = |(z , u) e C2¡z + 2« e R |
iii) S = {(z , u) e C2/ R e (z) = R e («))
iv) S = J (z , u ) e C2 / Im (z) = 0 a R e (z - u) = Im (z) f

www.FreeLibros.com
TRABAJO PRACTICO I 29

v ) S = j ( z , i / ) e C 2/z= u |

vi) S = I (z , u) e C 2 / ím (z) - /m («) = 0)

1-30. Sean S, T y U subespacios de (V, + , K, .)• Demostrar


i ) S + T = T+S.
i i ) S + (T + U) = (S + T) + U.
iii) S C S + T .
1-31. Demostrar que si el subespacio S de (V, + , K , .) es la suma directa de los subespacios
Si y S2 , entonces todo vector de S puede expresarse demodo único como la suma de
un vector de S t y uno de S2 .
1-32. Sean ( Rnxn , +, R , .) y los subconjuntos

S = { A e R nKn V/ V/ )

T = 1 A e R,,Xíl I a¡¡ = - a Jt Vi V ;)

Por definición, los elementos de S se llaman matrices simétricas, y los de T se llaman


matrices antisimétricas.
Demostrar
I o. S y T son subespacios de R " xr*
2 ° . R " X" = S ©T

www.FreeLibros.com
C apitulo 2

D EPEN D EN C IA E IN D E P E N D E N C IA LINEAL,
B A S E Y D IM E N S IO N

2.1. INTRODUCCION

En esta unidad introducimos las definiciones de combinación lineal de un conjunto no


vacio de un espado vectorial y de subespacio generado por el mismo. Se estudian la
dependencia e independencia lineal y los sistemas de generadores, a fin de caracterizar los
conceptos de base y de dimensión en el caso finito.

2.2. COMBINACIONES LINEALES


2.2.1. Concepto

A ^ Vr,V2’ ■' - ;v" j una familia 0 conjunto de vectores del sepacio ÍV + K 1

“ r e " : “ t í * " “ ■ ¿
Definición

Combinación lineal de la familia A C V es todo vector del tipo


n
.2 = a , Vl + ü 2 v2 + . . . + tt„ vn I oc¡ g K. a v¡ c A

o b t t e P“ r n u l o '“ S° n nUl° S’ h C° mbÍ” aCÍÓ" * « “ >•vial


tri y se

Definición

El vector v e V es combinación lineal de la familia A c V si y sólo si exist™ ,


<*i, <*2 , . . tales que y ten escalares

www.FreeLibros.com
COMBINACIONES LINEALES 31

Ejemplo 2-1.
Sean los vectores v, = ( - 1 , 0, 2) y v2 = ( - 1 , 2 ,4 ) en R 3 . Determinamos si los vectores

v = ( - 1 , 1, 3) y u - (1, 2, 2) son combinación lineal de Vj y v2 .


1. Para que v sea combinación lineal de v t y v2 deben existir escalares o¡i y a 2 tales
que
« i V! + a 2 v2 = v

O sea
a , ( - 1 , 0 , 2) + o¡2 ( - 1 , 2 ,4 ) = (—1, 1, 3)
Por definición de ley externa es

( - a j , 0, 2 ) + ( - a 2 , 2 a a , 4 a a) - ( - 1 , -1,3)

Por suma de ternas

(-(*! - 0:2 , 20 :2 , 20 !! + 4ota ) = ( - l , 1, 3)


Por igualdad de temas resulta
—OÍ! —C¿2 = —1
2 0*2 = 1

2 ai + 4 a 2 =3

Entonces
0¡1 + q¡2 = 1

1
ct2 - -

a t + 2o^ = -

Sustituyendo a 2 =— en la primera ecuación, se tiene

. 1 1
Oíj + - = 1 =*0 ti = —
2 . 2

Como ambos valores a , = ~ y a 7 = — satisfacen la tercera relación es v = —v 1 + —v2.


2 2 2 2
O sea, v puede expresarse como combinación lineal única de Vj y v2.
2. Si u = (1, 2, 2), entonces procediendo análogamente se llega a

www.FreeLibros.com
32 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

- Ci! - 0i2 = l Oí! + 0i2 - -1


2 <*2 = 2 o bien a2 = 1
2ú¡i + 4<¡í2 = 2 O'! + 2<*2 = 1
De donde
0i2 - 1 =>-0!, + 1 = - 1 => o¡! = - 2
Al sustituir en la tercera ecuación
-2+ 2.1= 0^1
Entonces u no es combinación lineal de Vi y v2 .

Ejemplo 2-2.
En el espacio vectorial de las funciones reales de una variable real (Rr , + , R , .) sean las
funciones f y g definidas por

f ( 0 = eí y g ( 0 = e 3í

Determinar todas las combinaciones lineales, es decir, los escalares a y b, tales que

a i + ¿>g = 0

donde 0 denota la función nula, definida por 0 (í) = 0 , V t € R.


Por definición de funciones iguales, suma de funciones y producto de escalares por
funciones (véase 1.4.) se tiene
a f (?) + b g (f) = 0 cualquiera que sea t e R
O sea
aet + b e ^ t = 0 (1)
El propósito es obtener los escalares a y b que satisfagan a (1) para todo t e R.
Derivando (1) se tiene

Y como e 3í nunca es cero, resulta b = 0, que sustituido en (1) nos da

a e =0

En consecuencia es a = 0.
Luego, la única combinación lineal de f y g que da la función nula es la trivial. Toda vez
que esto ocurra, diremos que los vectores, en este caso f y g, son linealmente
independientes.

www.FreeLibros.com
COMBINACIONES LINEALES 33

Ejemplo 2-3-1.
D ecidim os si el vector v = (1, 2 ,3 ) es com binación lineal de la fam ilia cuyos elementos
son los vectores de R 3 ,
Vl = ( 1 , 0 , - 1 ) va = ( 0 , 1 , - 1 ) v 3 = ( 1 , 1, —2)
Investigamos si existen escalares reales a , b y c , tales que
a Vi + / j v 2 + cv3 = v

Entonces, debe ser


a (1 ,0 , —1) + (0, í , —1) + c (1, 1, —2) = ( 1 ,2 ,3 )
Efectuando operaciones
(a, 0, - a ) + (0, b, - b ) + (c, ct - 2 c ) = (1 ,2 , 3)
(a + c, b + c, ~ a - ft‘- 2 c ) - ( l , 2 ,3 )
Por igualdad de ternas es
a+ c- 1
b + c=2
—a —b - 2 c = 3
Sumando las tres relaciones se tiene
0 = 6

lo que es imposible.
En consecuencia, v no es combinación lineal de Vi , v2 , y v 3 .

Ejemplo 2-3-2.
En el espacio vectorial (R 2X2, + , R , .) se consideran las matrices

Determinar todas las combinaciones lineales de A, B y C que den la m atriz nula N.


Hay que obtener a, 0 y y en R , tales que
aA+0B+7C=N

www.FreeLibros.com
34 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Por producto de escalares p o r matrices es

“ ° W í ° ) + /° ° . u ° °
0 a) \ 0 0 / \y y ) [ Q q

Por suma en R 2* 2 se tiene

/< * + 0 0 \ /o 0 \

\0 + 7 a + y) \0 0/

Por igualdad de matrices resulta


a + 0 = 0

0 + 7 = 0

oc + y = 0
De las dos primeras se deduce
0f = _ 0 y <y = _ 0

Sustituyendo en la tercera es

-2 0 = 0

O sea

0 = 0
Luego a = 0 = 7 = O y l a única combinación lineal que satisface la relación propuesta es
la trivial. v

2.3. SUBESPACIO GENERADO

2 .3 .1. Conjunto de combinaciones lineales

Sea A un conjunto no vacío de vectores del espacio (V, +, K , .). A expensas de A


podemos form ar el subconjunto de V cuyos elementos sean todas las combinaciones lineales
de los vectores de A. A este conjunto lo denotaremos con el símbolo A, que se lee “A raya”
Si A = { V i, v2, . . v„ } , entonces escribiremos

^ = (i? i a¡ v* / “ í e K A vi e A )

Ejemplo 2-4.

El conjunto de todas las combinaciones lineales de los vectores


v, = ( 1 , 0 , 1 ) y v2 = ( 0 , 1 , l ) d e R 3

www.FreeLibros.com
SUBESPACIO GENERADO 35

es
Á = { « i ( 1 , 0 , 1 ) + o¡2 ( 0 ,1 , l ) / «*! e RA (*2 e R ¡
O sea
Á = j ( a j , o t a , « ! + <*2 ) /<*i c R a a 2 e R |
En consecuencia, a A pertenecen todas las tem as cuya tercera componente es la suma
de las dos primeras.
Podemos escribir
A = ) (x i, x 2, x 3) e R 3 1 x 3 =Xi + x 2 )

2.3.2. Subespacio generado por una familia de vectores

Teorema. El conjunto de las combinaciones lineales de toda familia no vacía de un


espacio vectorial es un subespacio del mismo.
Hipótesis) (V, + , K , .) es un espacio vectorial

A = ( v i, va, ■■.,v „ ¡ C V

Tesis) (A, + , K , .) es un subespacio de V


Demostración)
1. Siendo Vi = 1 v t + 0 v2 + . . . + 0 v„ se deduce que Vi e A, o sea, A 0
2. Por definición, se tiene
_ n
v e A =>3 a t , <x2 , . . Q¡„ e K / v = 2 a¡ v¿ a v¿ e A =>
í=i
n
=>v = .2^ a¡ v¡ a dj e K a v¡ e V, pues A C V

Luego
veÁ^veV

O sea
ACV

3. A es cerrado para la suma.


Sean v y u en A.

www.FreeLibros.com
36 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

4. A es cerrado para_el producto p o r escalares.


Sean a e K y v e A.

a e K A v e A = > a e K A v = 2 a, v- =>
í=i 1 ‘

<*/ v, = 2 a (a, v,) = 2 (a a f) v, = 0, v , = » a v e Á

Como se cumplen las hipótesis del teorema 1.8.2., resulta (A, +, K ,.), un subespacio de
1 ’ 5 i“, IV,

Definición

El subespacio de las combinaciones lineales de la familia no vacía A C V se llama


subespacio generado por A.

Ejemplo 2-5.

Determinar el subespacio de (R 3 , + , R ,.) generado por la familia A cuyos elementos


son los vectores

v, = ( 2 , 1 , 2 ) y v2 = ( 1 , 2 , 1 )
Por definición, el subespacio A es el conjunto de las temas { x u x 2, x 3) e R 3 tales que

( x i , x 2 l x 3) = a 1 (2, 1, 2) + ü2 ( 1, 2, 1)
= (2 , « i , 2 a!) + (a2i 2a2, a 2)
= (2 a , + a 2 ( a , + 2a2, 2a t + a 2)
Por igualdad de ternas es

2 aj + a 2 = x t
a i + 2a2 ~ x 2
2 aj + a 2 =x 3

De la primera y tercera relación se deduce

x i =x 3
y x 2 es cualquier núm ero real.
En consecuencia

A - ¡ ( x l , x 2, x 1 ) / x l e R A x , e R
A es el plano de ecuación

x , - x* = 0

www.FreeLibros.com
SUBESPACIO GENERAD O

Ejemplo 2-6.
Obtener el subespacio de (R2 x 2 , + ,.) R ,
generado por las matrices

1 0\ /O I 0 0
V, =
Vl~ ' o - i ) Vs(~0 0 1 0

A = | £ o¡¡ V¿ /oíí e K a V,- e A )


\ /= i '

Todo vector de A es una m atriz I ^ ¿ I ta^ 1ue

1 0' 0 1 0 0 a b

0)1 o - i / + “2lo o / + “3 U 0, c d

Realizando operaciones en R2x2es

www.FreeLibros.com
38 DEPENDEN
CIA E INDEPENDENCIA LINEAL. BÁSE Y DIMENSION

En consecuencia
- a , oc2 = b , a 3 = c , - a , - d
Luego

d —- a y b y c
son números reales cualesquiera.

Los vectores de A son matrices del tipo

( : .* )

Es decir, Á es el subespacio de matrices de traza n ula.

2.3.3. Propiedad

El subespacio generado por una familia no vacía de un espacio vectorial es la intersección


de todos los subcspaeios que incluyen dicha familia.

Hipótesis) (V, + , K , .) es un espacio vectorial.

(¡> ^A = j v j , v 2 l . . ., v„ j C V

( S,- J con i e I es la familia de tocios los subespacios que incluyen A.

Tesis) A = D S,-
iel

Demostración)

Probaremos lasao s inclusiones que conducen a la igualdad.


1. á c «ne l s¿

En efecto
_ n
x e A =>x = 2 <xj Vj a dj e K a e A =>

n
=>x = 2 dj \ j a «y eK a v;- e Sf , Vi e I =>

=*x e S f , V i'e l =* xe f l S.-


ie I

2. i ne l s¡1 c á
Como todo v,- de A es combinación lineal de los elementos de A, pues
vf = 0 v, + 0 v2 + . . . + lv (- + . . . + 0 v„,

www.FreeLibros.com
SUBESPACIO GENERADO 39

se tiene que.
ACA
Ysiendo A un subespacio que incluye a A, se identifica con algún S e s decir, existe; en
I tal que S;- = Á.
Por otra parte, como la intersección está incluida en cualquiera de los conjuntos que se
intersecan, es
lO s.- Cc S,Si V,UieI
\ Si

En consecuencia
n
ie l
s¡' c a

Por lo tanto
A =n
íel
s,‘
En virtud del teorema demostrado, observamos que el subespacio generado por una
familia no vacía de vectores de V z¡> ei “m ínim o” subespacio, en el sentido de inclusión, que
incluye a A.

Ejemplo 2-7.
Demostrar que los siguientes conjuntos de vectores generan el mismo subespacio de
R 3.
A = j (1, —1, 1) , (3, 0, 1) | B = j ( - 2 ,- 1 ,0 ) ,(5,-2,3 ))
Determinaremos Á y B.
1.A A pertenecen las ternas (x, y , z), tales que

( x , y , z ) = t ( 1, —1, 1) + « ( 3 , 0 , i)

Entonces
(x, y , z) = (t, - t , t) + (3u, 0, «)
(x, y , z) = (t + 3« , - t , t + u)
Luego
x = t + 3u

y --t
z-t +u
Como t = - y , se tiene
x = - y + 3u

www.FreeLibros.com
DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

O sea
x = - y + 3u
3 2 = - 3 y + 3u

Restando
x - 3z = 2y

Resulta
A = j ( x , y , z ) e R 3 ¡ x - 2y - 3 z - 0

2. Procediendo análogamente para obtener B es


(x, y, z) = t ( - 2, —1 ,0 ) + u (5, —2, 3)

(x, y, z) = ( - 2 1, - t , 0) + (5m, —2«, 3»)


(x, _v, z) = (—2t + Su, —t —2u, 3«)
O sea
x = —2 1 4- 5«
y = - t - 2U
z = 3u

Como u - — z , se tiene
3

x = - 2t+7 *

y ~ - t ----- - z
3

O bien

x = —2 H — ■z
3

2y = - 2 t ----- - z
3

Restando
x — 2y - 3z

Luego
B = \ ( x , y , z ) e R 3 l x ~-2y -3z = 0

Resulta
A=B
La ecuación x - 2 y - 3 z = 0 corresponde a un plano que pasa por el origen.

www.FreeLibros.com
SUBESPACIO GENERADO 41

Ejemplo 2-8.
El subespacio de (V, + , K , .) generado por un vector v es, en particular, el conjunto de
todos los múltiplos escalares de v, o sea
{ b / j k e KÍ
Determinamos el subespacio de R2 generado por v = (1,2).
Llamando S a tal subespacio, se tiene
S = ( ( x l , x 2) l ( x l , x 2) := k ( l , 2)¡
En consecuencia
{ x t , x 2) = (k, 2 k)
O sea
Xi=k y x 2 = 2k
Eliminando el parámetro k entre ambas relaciones, resulta
*2=2*!
O lo que es lo mismo
2x ¡ - x 2 = 0
Entonces
S - j ( X í , x 2) e R 2 / 2 x i ~ x 2 = 0 ¡

S es la recta que pasa por el origen representada en la figura

www.FreeLibros.com
42 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

2.4. DEPENDENCIA E INDEPENDENCIA LINEAL

2.4.1. Conjunto linealmente independíente

En el ejemplo 2-2 hemos dem ostrado que la única combinación lineal de los vectores f y
g, cuyo resultado es el vector nulo, es la trivial. O sea

a f + b g = 0 =>aí=:b = Q

En este caso, los vectores son las funciones de R en R definidas por


f(t) = et y g ( í) = e 3f
y la función que asigna a todo núm ero real t, el valor 0, es el vector nulo. Este hecho se
traduce diciendo que los vectores f y g son linealmente independientes, o bien que el
conjunto {f, g } es linealmente independiente.

Sea A = | v j , v2 , . . . , vr | una familia de vectores del espacio (V, + , K ,.).

Definición

La familia A C V es linealmente independiente si y sólo si la única combinación


lineal de dicha familia, cuyo resultado sea el vector nulo, es la trivial.
En símbolos

>•
A es linealmente independiente o Vz: .2 a¡ v¡ = 0 =► a¡ = 0.

La independencia lineal de un conjunto finito y no vacío de vectores significa que no


puede darse una combinación lineal de dicho conjunto que dé el vector nulo, con algún
escalar distinto de cero.
Para investigar la independencia lineal de un conjunto de vectores, se propone una
combinación lineal de éstos, con escalares a determinar, que sea igual al vector nulo. Si los
escalares son necesariamente nulos, entonces el conjunto es linealmente independiente.
Convenimos en que el conjunto vacío es linealmente independiente.

Definición
El conjunto A C V es linealmente independiente si y sólo si todo subconjunto finito de
A es linealmente independiente.
Esta definición extiende el concepto de independencia lineal a toda familia de vectores de
un espacio V.

www.FreeLibros.com
INDEPENDENCIA LINEAL

Ejemplo 2-9.
Dado el espacio vectorial (R 3 , +, R , . ) determinar si los siguientes conjuntos de
vectores son linealmente independientes.
i ) A = ( ( 1 , 0 , 0 ) , ( 0 , 1 , 0 ) , ( 0 , 0 , 1)|

ii) B = 1 ( 1 , - 1 , 0 ) , ( 1 , 1 , 2 ) , ( 1 , 0 , 1))
i ) Sea
«1 ( 1 , 0 , 0 ) + ( 0 , 1 , 0 ) + £*3 ( 0 , o, 1 ) = ( 0 , 0 , 0 )
( « i , 0, 0 ) + ( 0 , 0 2 , 0 ) + (0, 0, a 3) = (0, 0 ,0 )
(« 1 , 0 2 . « 3 ) = ( 0 , 0 , 0 )
Por igualdad de ternas resulta
o¡i = a 2 = a 3 = 0
Luego
A es linealmente independiente
ii) Procediendo análogamente

o¡i (1, —1, 0) + a 2 (1 ,1 , 2 ) +ce3 ( 1 ,0 ,1 ) = (0 ,0 , 0)


(a,, , 0) + (a 2 , Os, 2«2) + (a 3 , 0 , a 3) = ( 0 ,0 ,0 )
(<*! + o¿2 + a 3 »_ a i + *2 a 2 + 0 3 ) = ( 0 , 0 , 0 )
Entonces

g¡i + a 2 + o¿3 = 0
- a , + <*2 =0=>a1 = a2
2 a-i + a 3 = 0 =►a 3 = - 2o¿2
Las infinitas soluciones de este sistema de ecuaciones son
<Xx~k
<*2 = k

ot3 = —2 k c o n fc e R
En consecuencia, B no es linealmente independiente, ya que los escalares no son
necesariamente nulos. Más aún, existen infinitas combinaciones lineales no triviales
cuyos resultados son el vector nulo.

Ejemplo 2 ‘10.
En (R1, + , R , .), donde I = [0, 1 ], los vectores v t = sen y v2 = eos son linealmente
independientes.

www.FreeLibros.com
44 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Sea

a , sen + a 2 eos = 0
V í e [0,1 ] es
(aj sen + oc2 eos) (f) = O (?)
Por definición de suma de funciones y de función nula

( a ^ e n ) (t) + (a 2 eos) (í) = 0


Por definición de producto de escalares por funciones

«i sen t + a2 c o s t ^ O ( 1) V i el
Derivando

o¡i eos t - a 2 sen t = 0 (2)

Resolvemos el sistema respecto de a i y a 2 :

sen t eos t
A= = -se n í t - c o s 2 / = - 1
eos t - sen t

0 eos t sen t 0
Aa, = -0 A a2 “ = 0
0 - sen t eos t 0

Y la única solución es

= o ¡2 = 0
O sea

¡ V], v2 } es linealmente independiente

Ejemplo 2-11.

Sabiendo que dos vectores vj y v2 son linealmente independientes en ( V , +, K )


demostrar que Vj + v2 y v2 son linealmente independientes.

Consideremos una combinación lineal de la familia ( v t + v 2 , v 2 } que sea igual al


vector nulo, con escalares a y b, que determinaremos:

a (v i + v2 ) + b v2 = 0
Por distributividad respecto de la suma en V
a Vi + a v 2 + b v 2 = 0

www.FreeLibros.com
DEPENDENCIA LINEAL 45

Por distributividad respecto de la suma en K


a Vj + (a + b) x-i = 0
Como, por hipótesis, Vj y v2 son linealmente independientes, se deduce
a = 0 y a + b=0

En consecuencia
a=b=0
Por consiguiente, Vi + v2 y v2 son linealmente independientes.

2.4.2. Propiedad.

Si un vector es combinación lineal de una familia linealmente independiente, entonces


dicha combinación lineal es única.
Sea v e V combinación lineal de la familia j Vi , v 2 , . . .,v r } , y ésta linealmente

independiente. Entonces existen escalares a¡ tales que


r
V = 2 0íf v¡
1=1 1

Suponemos que existen escalares tales que

v = 2fi¡ vf
1=1

Entonces

.2 v f = 2 fr v¿
i=i i—i

O sea

2 ai Vf - 2 /3¡v¡ = 0
«=i 1=1

Luego

.2 ( a f - f c ) v , = 0
1= 1

Y como la familia es linealmente independiente, se deduce que


a¡ - (3¿ = 0 =► a¡ ~ (3¡ Vi' = 1, 2, . . r
En consecuencia, la combinación lineal es única.

2.4.3. Conjunto linealmente dependiente


En el ejemplo 2-9 ii) hemos probado que existen escalares no simultáneamente nulos a i ,
a2, a 3 tales que

www.FreeLibros.com
46 DEPENDEN
CIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

a , ( 1 , - 1 , 0 ) + 0 2 (1, 1 , 2 ) + a 3 ( 1 , 0 , 1 ) - ( 0 , 0 ,0 )
Diremos que los vectores (1, - 1 , 0 ) , (1, 1, 2) y (1 ,0 , 1) son linealmente dependientes.

Definición

La familia A C V es linealmente dependiente si y sólo si no es linealmente


independiente.

La familia A = {Vi , v2, . . . , vr [ es un conjunto linealmente dependiente de vectores


de V si y sólo si existe una combinación lineal no trivial de dicha familia cuyo
resultado sea el vector nulo.

Negando las dos proposiciones que figuran en la definición de independencia lineal, se


tiene

r
A es linealmente dependiente o 3 / /2 a, v- = 0 a a • =£ 0
¿=i 1 ' 1

La dependencia lineal de un conjunto finito de vectores significa que tiene que existir, al
menos, una combinación lineal de éstos que dé el vector nulo y que no sea trivial.
Para investigar la dependencia lineal de una familia de vectores, se propone una
combinación lineal de dicha familia, con escalares a determinar, que sea igual alvector nulo.
Si algún escalar es distinto de 0, entonces la familia es linealmente dependiente.

Ejem plo 2-12.

Los vectores (—2 ,4 ) y (1, - 2 ) son linealmente dependientes en ( R2>+, R, •)•


En efecto, sea
<*! ( - 2 , 4 ) + a 2 (1, —2) ~ (0, 0)
Por definición de producto de escalares por pares y por suma de pares es

( - 2 0-! +<*2,4 0!! - 2 oí2) = (0 ,0 )


Por igualdad de pares resulta
—2 <*! + a 2 = 0
4 a] - 2 a 2 = 0
Dividiendo la segunda relación por - 2 , el sistema se reduce a la única ecuación
—2 a! + a 2 = 0
Esta admite infinitas soluciones, dadas por
a 1 =k
a2 = 2 k y ke R

www.FreeLibros.com
DEPENDENCIA E INDEPENDENCIA LINEAL 47

Ejemplo 2‘13.
Las matrices

/ 1 0\ O/ 1\ /O ° \ /O O
En = í ) ^12 = | | Eai = | j E22 = i
Vo o/ \o o/ \i o' 'o 1
son vectores linealmente independientes del espacio vectorial (K2x2, + , K ,.), pues
cualquiera que sea la combinación lineal de los mismos con escalares en K, cuyo
resultado sea la matriz nula, es la trivial. En efecto

a i E n + ct2 E 12 + a 3 E2l + a 4 E22 = N =>

¡a i 0\ i0 0C2\ / O0 0^
0 \i /O

0\ /O 0
+
lo 0/ \o 0 / «3 00 /'/
Va3 \^o0 a4/ \ 0 0

a2\ 0 0^

a 4 / i \0 0;

Luego
a 1 = a2 “ a 3 = a4 =0

www.FreeLibros.com
DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

En cambio, las matrices

1 o
A - r 0 y B=
1 0 / \_ , o

son linealmente dependientes, pues

<*i A + a 2 B = N =>

« 1 -0 2 0\ /O O

ai - 02 0 / \0 0.

O sea

a i - a 2 = 0 ^ oti~cx.2 = k \/ke K
Por consiguiente, existen escalares n o simultáneamente nulos que satisfacen la relación
anterior, lo que prueba la dependencia lineal.

2.4.3. Propiedades

‘ indep en d ien te n ° nU'° ^ eSPaCÍ° VeC‘° rial C° n5‘ÍtUye “ ' “ á m e n te


Sea v * O en (V, + , K , .). Consideremos

l i n e l r e m e independiente.’ C° m ° ’ # ° ’ " de“ UCe qUe =" ° ’ y e" c™ - ™ » c ia | v | es

” ^dependiente!^0 ^ CUa‘qUÍer ™ t 0 M C° nStÍtUye un « ta lm e n te

En efecto, cualquier escalar, nulo o no, satisface la relación « O = O, según lo demostrado


en

ni) Todo conjunto al que pertenezca el vector nulo es linealmente dependiente.


Sea A í Vj , v2, . . vr J con vy = 0. Se verifica que
Ovi + 0v2 + . . . + <xj vj + . .. + Ovr = O
O sea

a j v j = ocj O = O
con dj no necesariamente nulo.

www.FreeLibros.com
DEPENDENCIA E INDEPENDENCIA LINEAL 49

iv) Un conjunto finito y no vacío de vectores es linealmente dependiente si y sólo si algún


vector es combinación lineal de los demás.
Sea A = {v j , v2). • vr í una familia de vectores de ( V , + , K , . ) . Demostramos las dos
condiciones en que se desdobla el enunciado: necesaria y suficiente.
n
I o. A es linealmente dependiente => 3 / / v¡ = ,S & v¡.

Por definición de dependencia lineal


A es linealmente dependiente =>
r
=►2 ct¡ \¡ = 0 a ocj ¥= 0 =>
í=i
n
=> Uj \ j + %. a¡ v¡ = 0 a otj ^ 0 =>

rt
=>OtjVj = —^2 tt/V/ A

Premultiplicando por a / 1, inverso multiplicativo en K, de oc¡ 0, se tiene

n
<*/* (»jV;) = ( - a / i ) £ . «¡Vi

Por A7 y propiedad de la sumatoria


n
(ocf1

Por inversos en K y A 7 es
n
1 v; = ( - a / 1 a*)*.-
1 i*}

Teniendo en cuenta A io, y llamando (3/ a — 1ott se deduce

V; “ Vi*!
' l*)
En consecuencia, existe e A, que es combinación lineal de los restantes vectores de A.
n
2°.Vj = 2 a¡ v¡ => A es linealmente dependiente.

Por hipótesis y trasposición de términos se tiene


n n
V,- — 2 a vf => S a,- Vj —V/ = 0 con a;- = - 1
J i¿j
Como <Xj 0, el conjunto A es linealmente dependiente.

v ) Un conjunto finito y no vacío de vectores es linealmente independiente si y sólo si


ningún vector es combinación lineal de los demás.

www.FreeLibros.com
50 DEPENDEN
CIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

y Ss : ‘; ^ r ° strar’ pues bas,a ,,egar ias dos prop°sid°nes de ** ^


En símbolos

A es linealmente independiente «■ V¿ : v;- =£ £ {J¡ y t

En lo sucesivo, y en algunas ocasiones, abreviaremos las expresiones' “linealmente


independiente y linealmente dependiente” mediante “L.I.” y “ L.D.” , respectivamente.

vi) Un conjunto finito y ordenado de vectores al que no pertenece el vector nulo es


pTectdemes. P6ndiente S1 V SOl° si al®ún vector es combinación lineal de los

10- A - { v , , v3 , . . vr } es LD a 0 /A =* 3 k j 2 < k < r a vh - v¡

Demostración) Sea k el primer entero positivo tal que


| v j , v 2, . . . , Vft ) esL.D.
k existe por el principio de buena ordenación.
Por definición se tiene
fe
0/Vf - O y algún 0

Si = 0 , entonces j Vl, v2 , . . yh^ ¡ sería LD, contra lo supuesto.

Luego $h j= 0, y procediendo como en iv) 1? se deduce que


fc-i
vft = , 2 a ¡ v¡

O sea, vk es combinación lineal de los precedentes, y k es tal que 2 < k < r.


2?. El recíproco es obvio y puede ser demostrado como ejercicio.

■o n l S r 105 COn“ PtOS P° dem0S af¡rmar hS Si®uie"‘“


a) A es L.I.

b) Toda combinación lineal de la familia A, cuyo resultado sea el vector nulo, as la trivial.
c) Ningún vector de A es combinación lineal de ios demás.
Análogamente son equivalentes:
a ’) A es L.D .

re s u ¿ d t e r e , ™ c ^ o ? : b, o aCÍÓn ' Ínea‘ ^ A “ “


c ) Algún vector de A es combinación lineal de los demás.

www.FreeLibros.com
SISTEMA DE GENERADORES 51

Ejemplo 2-14.
En el espacio vectorial de los polinomios reales sobre el cuerpo de los reales, P y Q
definidos por
P (x) = x 2 + x Q 0 ) = -2 x
son linealmente independientes.
Sea
a? + bQ = 0 donde 0 denota el polinomio nulo
Cualquiera que sea x e R se verifica
(«P + 6 Q )(x ) = 0 ( x )
Por definición de suma de funciones y de polinomio nulo es
(flP) (x) + (bQ) (x) = 0 VxeR
Por definición de producto de escalares por polinomios, se tiene
aP (x) + bQ (x) = 0

O sea
a (x 2 + x ) + b (- 2x ) = 0
Luego
a x 2 + (a - 2b) x ~ 0 Vx e R
S ix = - l , s e verifica a - a + 2b = 0 , y en consecuencia b = 0 .
Entonces es ax 2 + a x = 0 , y haciendo x = 1, resulta 2a = 0, o sea, a = 0.

2.5. SISTEMA DE GENERADORES

2.5.1. Concepto

Si un conjunto no vacío de vectores de un espacio (V, + , K , .) es tal que todo vector de V


puede expresarse como combinación lineal de dicho conjunto, entonces se dice que éste es
un sistema de generadores de V. Esto equivale a decir que el subespacio de V generado por
tal conjunto es el mismo V. El concepto de sistema-de generadores de un espacio vectorial es
independiente de la dependencia o independencia lineal del sistema. O sea, un sistema de
generadores puede ser linealmente independiente o no.

Definición
La familia A = {v , , v2, . . . , vr ) es un sistema de generadores de V si y sólo si todo
vector de V puede expresarse como combinación lineal de los vectores de A. O bien, A
es un sistema de generadores de V si y sólo si el subespacio generado por A es V.
Las notaciones “S.G.” y “C.L.” son abreviaturas de “ sistema de generadores” y
“combinación lineal” , respectivamente.

www.FreeLibros.com
52 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

La traducción simbólica de la definición anterior es


r
A es un S.G. de V o v e V => v = 2 a¡ v,-
¿=i 1 ‘
O bien
A es un S.G. de V o A = V

Ejemplo 2-15.
El conjuntó A = j (1, 0) , ( 0 ,1 ) , (1, 1) } es un sistema de generadores de R2.

En efecto, si ( a , b ) es cualquier vector de R2 , deben existir escalares a, 0 y y tales que


a (1, 0) 4- 0 (0, 1) + 7 (1, 1) = ( a , ¿)
O sea
(a + y , 0 + 7 ) = (a , b)
Luego
a + y =a A 0+7 =
En consecuencia
ot = a - k , p -b -k , y =k V keR
Este resultado nos dice que, efectivamente, A es un S.G. de R2, y además, que
cualquier vector del espacio puede expresarse de infinitas maneras como C.L. de los
vectores de A. Por otra parte, es fácil verificar que A constituye una familia L.D.
En el ejemplo 2-6 está demostrado que las matrices V 1} V2 y V 3 constituyen un
sistema de generadores del espacio vectorial de las matrices reales de traza nula del tipo
2 X 2 . Además, tales matrices son linealmente independientes.

2.5.2. Propiedad

Si la familia A = { v 1 }v 2 , . . . vr } es un S.G. L.D. de V, entonces existe e A , tal que


A - |v ;- | es un S.G. de V.

Demostración) Por ser A un sistema de generadores de V, se verifica

v e V =>v = 2 a ¡ v¡ ( 1)

Como A es linealmente dependiente, por 2.4.3. iv), algún vector de A, digamos v/, es
combinación lineal de los restantes, o sea

3 Vy tal que vy = 2 (i¡ ( 2)


»*/

Teniendo en cuenta (1) y (2 ) podemos escribir

www.FreeLibros.com
BASE 53

r r r
\ = cc4y,- + 2 a¡ y,- = a¡ 2 & v¿ + 2 a, v, =
3 1 ¡*j 1 1 1 t*r* ' ¡*i ' 1
r r
(píj; p¡
= ¡2f j V r, + ot¡)
V v¿ 2 ynt \ ii
i = i¥¡J

En consecuencia, A - { v¡ j es un sistema de generadores de V.

Ejemplo 2-17.
Determinamos si los vectores Vj = ( 1 , 1 , 1v2 ),=(1,1,0
y )v3 = ( 1 , 0 , 0
de)
(R 3, + , R , .) constituyen un sistema de generadores de R 3.
El problema se reduce a investigar si existen escalares reales a, (3 y y, tales que
cualquiera que sea (a , b , c) e R 3 se verifique
a ( l f l, 1) + 0 ( 1 , 1 , 0 ) + -y (1 , 0 , 0 ) = (a , 6 , c)
(a + P + y , a + 0 ,á ) = (a , b , c)
Luego
a + P + y =a
■a+ p =b
a =c
De donde resulta
a =c , p =b - c , y ~ a - b
En consecuencia, todo vector de R 3 puede expresarse como C.L. de los vectores
propuestos. Observamos, además, que tal C.L. es única para c a d a v e R 3,
En el caso en que ( a , b , c) sea el vector nulo, los escalares son nulos, y en
consecuencia los vectores v t , v 2 y v 3, además de constituir un S.G., son L.I.
Por este motivo se dice que tales vectores son una base de (R 3, + , R , .).

2.6. BASE DE UN ESPA


CIO VECTORIAL

2,6.1. Concepto de base

Sea A = {Vj , v2 , . . . , vn } una familia de vectores de (V, 4-, K , .).

Definición
La familia A C V es una base de(V, + , K,.) si y sólo si es
un. conjunto linealmcnte
independiente y sistema de generadores de V.
A C V es una base de V o A es L.I. y A = V

www.FreeLibros.com
DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Ejem plo 2-18.


Una base de (K", +, K, .) es el conjunto de vectores
ej = ( 1 , 0 , 0 , . . . , 0 )
e2 = (0, 1,0,...,0)

e„ = (0 , 0 , . . . , 0 , 1 )

El lector puede com probar que la familia { , e 2 , . . e„ | es linealmente


independiente y un sistema de generadores de K \ Tal familia recibe el nombre de base
canónica.

Ejem plo 2-19.


En el ejemplo 2-13 se demostró que las matrices E n , E 12 , E 21 y E 22 constituyen
una familia linealmente independiente del espacio (K * , + , K , .).
Además, tal conjunto es un sistema de generadores de dicho espacio, y en consecuencia
es una base del mismo. La llamaremos también base canónica de K 2 *2 .

Ejem plo 2-20.


Determinar una base del subespacio de (R 3 , + , R, ■) estudiado en el ejemplo 1-8.
Tal subespacio es
S = { ( x u x 2, x 3) e R 3 ¡ x 3 = x x + x 2 |
Si (a , b , c) es un vector genérico de S, entonces se tiene c = a + b , y en consecuencia
podemos escribir, en virtud de las leyes de composición en S:
(a, b, c) = (a, b ,a + b ) = (a, 0 ,fl) + (0, b, b) (1, 0 ,1) + b (0, 1, 1)
Este resultado nos dice que los vectores de R
vi = ( 1 , 0 , l ) y v2 = ( 0 , 1 , 1 )
constituyen un sistema de generadores de S. A d e m á s, son linealmente independientes,
pues
a ( 1 , 0 , l ) + 6 ( 0 , 1 , 1 ) = ( 0 , 0 , 0)=>a = b = 0
Por consiguiente, Vi y v 2 constituyen una base de S.

2.6.2. Coordenadas o componentes de un vector

En este texto consideraremos únicamente espacios vectoriales de bases finitas. En


algunas ocasiones, para indicar que | v „ v 2, . . .,v „ | es una base del espacio vectorial
(V + K ) utilizaremos el símbolo [v] para hacer referencia a ella.
Si ’ |’v i,’ v2 , . . v„ f es una base de (V, + , K, .), entonces cada vector de V puede

www.FreeLibros.com
COORDENADAS 55

expresarse de m odo único como combinación lineal de la base, ya que los vectores de ésta
son linealmente independientes y sistema de generadores, de acuerdo con 2.4.2.
O sea, s ix e V, entonces existen y son únicos los escalares x t , x 2, . . x n tales que

n
X = *1 V, + x 2 V2 + . . . + x n v n = 2 x¡ Vi
i- 1

Respecto de la base dada, el vector x e V queda caracterizado por los coeficientes de la


combinación lineal, o sea, por la n -u p la de elementos de K: (* ,, x 2 ,. . x„). Los escalares
x¡ se llaman coordenadas o componentes del vector x e V, respecto de la base dada. Si se
elige otra base en el espacio V, entonces el mismo vector x admite otras coordenadas o
componentes: 2, . .

Demostraremos más adelante que dos bases cualesquiera de un mismo espacio vectorial
son coordinables, es decir, tienen el mismo núm ero de vectores.
Dada la base [v] = |v j v2, , . . v„ ) del espacio (V, + , K , .), podemos expresar a cada
vector x e V como una matriz columna, cuyos elementos sean las coordenadas de x respecto
de [v]; en tal caso escribiremos

Ejemplo 2-21.
Determinar las coordenadas de x = ( - 2 , 3) perteneciente a (R 2 , + , R , .), respecto de
las bases:

i ) [v] —1 ( 1 , 1 ) , ( 1 , 0)1
ii ) [w] = | ( - 2 , 3 ) (, 1 , 2 ) |
iii) canónica

En el primer caso, planteamos la relación lineal


a ( U l ) + 6 (1 ,0 ) = ( - 2 , 3)
Efectuando las operaciones, y resolviendo respecto de a y b, se tiene
(a + b ,a ) = (--2, 3) =*■a + b = - 2 y a = 3 =>
=>a = 3 y b = - 5
En consecuencia, las coordenadas de x, respecto de la base [v], son: 3 y - 5
Y puede escribirse

www.FreeLibros.com
DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION
56

En el segundo caso, procediendo análogamente, se llega a que las coordenadas de x son


1 y 0 , y por lo tanto

Finalmente, respecto de la base canónica, es


( —2, 3) = ( - 2 , 0) + (0, 3) = - 2 (1, 0) + 3 (0, 1)
O sea, las coordenadas de x son precisamente los elementos del par ordenado, y
escribiremos simplemente

2.6.3. Teorema de extensión a una base

[v j = | V l , v 2 , • • v„ | es una b a se del espacio ctorial


ve V, y
[w ] = { w t , w2 , . . wm } es un conjunto linealmente independiente, pero no de generado­
res de V, e n to n c e s e x is te n vectores w,n + i> w fn + 2 >• • •>wm+p, ta^es ^ue
i w 1 ,w 2 , . . , w m , w m+I, . . . f w m+pj es una base de V.

Si [w] n [vj = 0, consideramos el conjunto

A = [w]U [ v ] = ( w i , w2 , . . . , w m , v i ! v 3 , . . . , v „ )
Como cada w,- es combinación lineal de los vectores de la base [v], A es un conjunto
linealmente dependiente por 2.4.3. iv). De acuerdo con 2.4.3. vi), siendo A un conjunto
finito y linealmente dependiente al que no pertenece el vector nulo, algún vector es
combinación lineal de los precedentes. Tal vector es un elemento de [v], ya que [w] es
linealmente independiente. Por otra parte, como A es un sistema de generadores linealmente
dependiente de V, y v,- es combinación lineal de los precedentes, resulta
A¡ - A - ( v¡ | = jWl , w 2, . . . , w m, v , , . . .,vM ,v f+1, .. . ,v„)
un sistema de generadores de V, según 2.5.2.
Si A¡ es linealmente independiente, el teorema está demostrado. Si A¿ es linealmente
dependiente, se reitera el proceso, y a lo sumo, al cabo de («—1) etapas se obtiene un
conjunto linealmente independiente que es sistema de generadores de V, o sea, una base.

2.6.4. Coordinabilidad de las bases

Dos bases cualesquiera de un mismo espacio vectorial son coordinables.


Hipótesis) (V, + , K , .) es un espacio vectorial.
[v ]= ) v l5v2, . . . v „ í y [w ]= (W! , w2, . . . , w j son bases de V.

www.FreeLibros.com
DIMENSION 57

Tesis) [v] ~ [ w ] ,o sea, n = m.


Demostración) Consideremos

A = | wm, v l ! v2 , . . . ,v„J
Este conjunto, al que no pertenece el vector nulo, es un sistema de generadores (pues [ v ]
es una base), y linealmente dependiente (ya que w m es C.L. de la familia [v]). La propiedad
2 .4 .3 . nos dice que algún v¡ es C.L. de los precedentes, y, de acuerdo con 2.5.2,, es
A - { v¡ } un sistema de generadores de V.
Sea
A i — I wm _j, w m, Vj, . . ., v,-_i, V[+i, . . ., vfl f
Este conjunto es un sistema de generadores linealmente dependiente, y en consecuencia,
algún vy es combinación lineal de los precedentes. Lo mismo que en la etapa anterior, se lo
extrae y se agrega wm.2 , obteniéndose
A 2 = | Wm.2l Wm. h . .,VM ! Vi + 1 , . . „Vy. ^Vy+i, . . -,Vn |
que es un sistema de generadores y linealmente dependiente.
Reiterando el procedimiento, afirmamos que no es po
sible que los se "agoten untes”
que los wk , ya que en este caso los wfe sobrantes serian combi nación lineal de los
considerados.En consecuencia es
m<n ( 1)
Análogamente, a partir de
B = | vb ,W1 i W2 ....... wm|
se prueba que
n Km (2)
De (1) y (2), por la antisim etría de la relación de m enor o igual, resulta
n -m

2.7. DIMENSION DE UN ESPACIO VECTORIAL

2.7.1.Concepto

En 2.6.4. hemos demostrado que si [v] es una base finita del espacio vectorial (V, + , K ,.),
entonces toda otra base de V es coordinable a [v].
Esto significa que dos bases cualesquiera
de un mismo espacio vectorial tienen el mismo núm ero de vectores. Tal número se llama la
dimensión del espacio.

Definición

Dimensión de un espacio vectorial V es el núm ero cardinal de cualquiera de sus bases.

Si V consiste únicamente en el vector nulo, diremos que su dimensión es 0.

www.FreeLibros.com
58 DEPENDENCIA F. INDEPENDENCIA LINEAL. BASE Y DIMENSION

En ambos casos, V es un espacio de dimensión finita.


Si [v] = { V i, v2 , . . v„ } es una base de (V, + , K, .), escribiremos
diniR V = «

Ejemplo 2-22.
Analizando ejemplos propuestos anteriorm ente se tiene que
dimKKn = « dimKK2 x 2 = 4
dimRR rt = « dim RS = 2 siendo S el subespacio del ejemplo 2-20

El lector puede verificar que { 1, X, X2 | constituye una base del espacio vectorial de
los polinomios reales en la indeterm inada X, de grado menor o igual que 2 y el
polinomio nulo, sobre el cuerpo de los reales. En consecuencia, su dimensión es 3.

2.7.2. Propiedad

Un conjunto de « vectores de un espacio vectorial «-dimensional es una base si y sólo si es


linealmente independiente o sistema de generadores.
I o. Si [v] = { V j, v2 , . . vn } es una base de V y dimKV = «, entonces [v] es linealmente
independiente y sistema de generadores.
2o • Si dim KV = « y [v] = ¡ V j, v2 , . . v„ } es L.I., entonces [v] es S.G.
En efecto, si [v] no fuera un sistema de generadores, por el teorema de extensión, podrú
completarse hasta formar una base de V, en cuyo caso sería dimK V > n, io que es absurdo
• Si dimKV = n y [v] = ¡ V j, v2 , . . v„ ¡ es S.G., entonces [v] es L.I.
Si [ v ] , que es S.G., fuera L.D., entonces existiría \¡ tal que [v] ¡v ¡ ) es S.G. de V,
según 2.5.2. Si este conjunto de n —1 vectores fuera L.I. constituiría una base de V. S:
[v] - {\j } no fuera L.I. se reitera el procedimiento, y en todo caso se llega a una base de \
cuyo cardinal es m enor que «, lo que también es absurdo. 2.
En consecuencia afirmamos que:
1 . « vectores linealmente independientes de un espacio vectorial «-dimensional constitu
yen una base del mismo.
2. Todo sistema de generadores de n vectores de un espacio vectorial «-dimensional e¡
una base del mismo.
3 . Todo conjunto de más de n vectores de un espacio vectorial «-dimensional e¡
linealmente dependiente. ve

La dimensión de un espacio vectorial (V, +, K, .) depende no sólo de V, sino también de!


cuerpo K. Seguidamente aclaramos esta observación.
Ejemplo 2-23.
Ei
Sean (V, + , R , .) y (V, +, C , .) dos espacios vectoriales, donde el conjunto de vectores
y,
es el mismo en ambos casos y C es el cuerpo de los complejos.

www.FreeLibros.com
DIMENSION 59

Supongamos que dim c V = n. E ntonces es dim RV = 2n.


En efecto, si [v] = | Vj,v2 , . . ., vn ) es una base de (V, + , C , .), entonces
[W]= {vi >v 2 , . . . , v n>/vI ,rví | es una base de (V, + , R, .).
Para ello probaremos que
1 [w] es L.I.
Sea
n n n
2 a /V.-+ 2 i\, = 0=> 2 (<Xj + i p j ) v ;= 0=>O /+ i/3y= 0 , V/=*
;= i ;= i 1 1 ;= i

=> (Xj = fy = 0 , V/

2 . [w] es S.G.
Por ser [v] una base de (V, 4-, C, .), para todo v e V, existen escalares a¡ + i ty e C tales
que

v = j=.i + 1 & ví ^ v = £ ai vj + 0 ' v/>

.ent; Luego [w] es una base de (V, + , R , . ), y en consecuencia


dimR V = 2 dimc V
En particular, es
dimRC" = 2 dim cC " = 2 n

y
dim RC = 2 dim cC = 2

2.7.3. Propiedad

Sea S un subespacio de V. Se verifica que:


stiti dim S = dim V o S = V

lal 1. Si el subespacio S es el mismo V, entonces es obvio que dim S = dim V.


2. Supongamos ahora que S es un subespacio de V que verifica dim S = dim V.
^ j. Si la dimensión común es 0, entonces tanto S como V tienen como único elemento al
*vector nulo y son idénticos.
Sea dim S = dim V = n > 0. Consideremos una base de S:
[w]= í w1 ,w2, . . w„}
Los n vectores de [w] son L.I. en V, y de acuerdo con 2.6.3. constituyen una base de V.
Entonces son un S.G. de V, lo que nos dice que todo vector de V pertenece a S, o sea, V C S,
es y, como por definición de subespacio es S C V, resulta S = V.

www.FreeLibros.com
60 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

2.8. DIMENSION DE LA SUMA

2.8.1. Propiedad

Si S 4 y S 2 son dos subespacios de (V, + , K , .) y la dimensión de V es finita, entonces se


verifica que
dim (Sj + S2) = dim Si + dim S2 - dim (Si n S2)
Sean:
dim V = « . dimS,=«’ d i mS2 = /2”

d i m ( s 1 n s 2) = p y d i m S ! + S 2 =q
Se trata de probar que
q u ’ + n" - f>

Consideremos S , O S 2 ^ j o ) y fx] = [X l , x 2 , . . xp ) una base de St n s 2 .


Teniendo en cuenta que Si n S2 es un subespacio de Sj y de S2, completamos la base [x
a una base en cada uno de éstos.
Sean

{ x , , x 2 , . . . , x p>y I , y ; t ) . . . , y n ._J, J y
I x ¡ , x2 , . . xp , z , , z2 , . . . , z p | bases
Si y en S2 , respectivamente.
El conjunto

A = I X j, x 2 , . . Xp, y i , . . ., y n ’—p , z , , , . ,
es una base de S i + S2 , pues:
I o. Ae s S. G. d e S ! + S 2 .
En efecto, sea v e Sj + S2 . Por definición de subespacio suma es
v=x + y a xeSi a y eS2
Entonces
71 -p
v = ,?i “í X i + ¡ g b y ' + M “ ’'X +I . 2 í ’( z ,=
P n'-p n"-p
^ . 2 (a¡ + a \ ) x¡ + pi Y i + S p’. z .

2o. A es L.I.
Consideremos
i* •» t* t\ ” y
.Sa.x.+ Z p ,y ¡ + 7¡Zi = 0 ( 1)

Entonces

www.FreeLibros.com
DIMENSION DE LA SUMA 61

y’ n -P
2 y i z¿, que pertenece a S2 , también pertence a S i , o sea

n ’’- p
2 TjZieSinSj
z=i
En consecuencia es
n "-p p

t=i 7,' Zí = / l i a x*
O sea
p n ” -p
2 oc'¡ x { - 2 y ¡ z¡ = 0, y por la independencia lineal de la base de S2, se tiene :
i=i ¿=i
a'i= 0 , y¡ = 0
Teniendo en cuenta (1) es
p n '- p
2 0Ci x¡ + .2 P¡ y i = 0
¡-i i=i
Luego
o¿¡ = 0 , /3j = 0
Siendo A una base de Si + S2 , resulta
j r + ( n ’ - j r ) + ( n ” -p )= < i
Es decir
q = n’ + n ” - p
Lo que se traduce en
d im (S i + S 2) = d i mSi + dim S2 - • dim ( S ^ n S2)

2.8.2. Dimensión de la suma directa

Si Si y S2 son dos subespacios disjuntos de (V, +, K , .), entonces la dimensión de la suma


directa es igual a la suma de las dimensiones de S t y S2 .
En este caso es Si n S 2 = {0} , y en consecuencia, dim (Si n S2) = 0.
El teorema anterior es válido también en esta situación, y por consiguiente resulta
dim (Si © S2) = dim Si + dim S 2

Ejemplo 2-24.
Determinar la dimensión de la suma de los siguientes subespacios de (R 3, +, R , .).

51 = ¡ (pe, y , z) e R 3 / x + y - z - 0 j
52 = i (x ,y , z ) e R 3 / * ~ z = 0 )

www.FreeLibros.com
62 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Sj y S 2 son planos y la dimensión de cada uno de ellos es 2.


Si n S 2 = { (x ,y , z ) e R 3 / x - z a y ~ 0
Todo vector de Si O S 2 es del tipo
(a, 0, a) = a (1,0,1) Va eR
Luego
dim Si n S 2 " í
En consecuencia
dim (S i + S 2) = 2 + 2 — 1 = 3
O sea
S, + S 2 = R 3

www.FreeLibros.com
TRABAJO PRACTICO ||

2-25. Expresar en cada caso, si es posible, al vector v como combinación lineal de vt y v2. El
espacio vectorial es (R 2 , + , R , .).
i ) v = ( V 2 " , - l ) , V l = ( > / 3 , 2 ) , v2 = ( — , 2)
ü) v = (2 , 4 ) , V! = ( - 1 , 3 ) , v 2 = (2, - 6 )

2-26. Comprobar que los vectores de R 3


Ví = ( - 1 , 3 , 1 ) va = ( 3 , - 1 , 1) y v 3 = ( 4 , 0 , 2 )
son linealmente dependientes, y expresar a v 3 como combinación lineal de Vj y v2.
2-27. En (R 2 *3 , + , R , .) se consideran las matrices

Probar que son linealmente independientes.


2-28. l'siudiar la dcpendoiu-ui o ¡iklepemlencu liin.\il de los vectores
V ! = 2 1/2 y v2 = 3 1/4
en cada uno de los espacios vectoriales (R, + , R , .) y (R , + , Q, .)•
2-29. Dados los vectores (1, - 4 , 6 ) , ( 1 , 4 , 4 ) y (0, - 4 , x ) , del espacio R 3 sobre el cuerpo de
los reales, determ inar* para que sean linealmente dependientes.
2-30. Demostrar que si a, b y c son tres números reales distintos, entonces los vectores
(1, a, a 2) , (1, b, b 2 ) y (1, c, c 2 ) de (R 3 , + , R , .) son linealmente independientes.
2-31. En el espacio vectorial de las funciones reales definidas en R, se consideran las
funciones f, g y h, definidas por
f (f) = t 2 + 2 1 - 1 , g (?) = t 2 + 1 , h ( t ) - t 2 + t
Demostrar que son linealmente dependientes.
2-32. En el espacio vectorial (R r \ + ,R ,.) se dan las funciones f y g definidas por
f ( 0 = f . e ( 0 = j-

www.FreeLibros.com
64 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Probar que son linealmente independientes.


2-33. En ( R2, + , R , .), los vectores (a, b) y (<c , d ) verifican la condición a d - b c 4 o
Demostrar que son linealmente independientes.
2-34. Determinar si los vectores ( 1, 1, 1), ( 1 , 1 , 0) y (0, 1, - 1 ) son linealmente independien­
tes en (R 3 , + , R , .) y en (C3 , C ,.).
2-35. Sabiendo que v 1} v 2 y v 3 son vectores linealmente independientes del espacio
(V, + , K , .), investigar la dependencia o independencia lineal de los siguientes
conjuntos de vectores:
i ) { v, + ÜV2 + ¿>V3 , V2 + Cl> 3 , V3 )
ii) { V!, V2 + av 3 , v 3 + bv 2 ¡
donde a, b y c son elementos de K.
2'36. Sean: | x , , x2 , . . ., x„ ) un conjunto L.I. de (V, + , K , .) y k e K .

es L .u ., entonces u es comoinacion lineal de la tamilia A.


2-38. Sabiendo que el conjunto A, a que se refiere el ejercicio anterior, es L.I. en (V, + , K, )
y que x n o e s combinación lineal de dicho conjunto, entonces A U { x} es L.I.
2-39. Demostrar que si el conjunto A = j X l, x 2 , . . x„ ) es L.I. en (V, +, K ,.), entonces
se verifica que el vector X ix¡ ¥=0 .

2-40. Demostrar la independencia lineal de los vectores f ,, f2, y f 3 del espacio (R 1, +, R, .),
donde I es el intervalo cerrado de extremos 0 y 1 , sabiendo que

2siQ < x< l


3
fi (x) =
Osi — < x < 1 0 s ix e [ — ,11
3 3 1

f 3 (x) = 2 - x s ix e [0 , lj

2-41. Proponer una base en cada uno de los siguientes espacios vectoriales:

i ) (R, + , R , .) iii) (R 2 x 3 , + , R , .) v ) (C, +, R, .)


i i ) (R 4 , + , R, .) iv) ( C . + X , ■)

2-42. Determinar el subespacio de (R 3 , + , R , .) generado por los vectores v, = (1, - 1 , 2),


v 2 = (0. —1, 1) y v 3 = (1 ,1 ,0 ) . O btener una base de dicho subespacio.

www.FreeLibros.com
TRABAJO PRACTICO II 65

2-43. Demostrar que los siguientes conjuntos de vectores de (R 3, + , R , .) generan el mismo


subespacio
A = ((1, 0 , - 1 ) , ( 0 , - 2 , 1)) B = j (1,-2,0),(2,-2,-1)|

2-44. Determinar una base y la dimensión del subespacio de matrices de traza nula de
(R 2 x2, + , R, .)•
245. En (C2 , + , R , .) se considera el subespacio S = { (z, u ) e C 2 / z - 2u = 0 }
Obtener una base y la dimensión de S.
2-46. En ( R2x2, + , R, .) se considera S = ( A e R 2x2 / á 12 (a n + a 22) = 0 }
Investigar si S es un subespacio, y en caso afirmativo obtener una base delmismo.
2-47. Investigar si S = \ ( z , u ) e C2 / z - J + u = 0} es un subespacio en (C2 , + , C , . ) y
(C 2 , + , R, .)• Si lo es, determinar una base y la dimensión.
2-48. Determinar el subespacio S de ( R3, + , R , .) generado por los vectores ( 2 ,0 ,1 ) y
( - 1 , 0 , 1 ) . Hallar una base de S y su dimensión. Proponer un subespacio T que no
contenga a los vectores dados.
2-49. Dados los subespacios de (R 4 , + , R , .)
51 = { ( X x , X 7 , X - i , X A ) ¡X x + X 2 - * 3 + * 4 =0)

5 2 = I ( X l , X 2 , X 3, X 4 ) / X i - x 2 - X 3 - x 4 =o)

Obtener la dimensión de S! + S2 .

2-50. Sea j v l(
v2 , . . vn )una familia de vectores de (V, + , K , .) y r < n . Por definición, el
conjunto jV! , v 2, . . vr J es un subconjunto maximal de vectores L.I. si ysólo si
i>r=> j V j, v2, . . . , vr, v* J es L.D.
Demostrar que si { V j, v2 , . . v„} es un S.G. de V y { Vj, v2,. . vr} es un sub­
conjunto maximal de vectores L.I., entonces éste es una base de V.
2-51. Demostrar que si V es un espacio de dimensión finita y V = Sj ®S2, entonces se
verifica que dim V = dim S x + dim S2 .

www.FreeLibros.com
C apítulo 3

TRA SFO R M AC IO N E S LIN E A LE S

3.1. INTRODUCCION

Exponemos en este capítulo el concepto de trasformación lineal entre dos espacios


vectoriales sobre un mismo cuerpo, las propiedades generales y los tipos especiales de
trasformaciones lineales. Se introducen las estructuras de núcleo y de imagen de una
trasformación lineal y se da la relación entre sus dimensiones. Fijada una base en cada
espacio, siempre en el caso finito, se determina la matriz asociada a una trasformación lineal.
Después del estudio de la composición de trasformaciones lineales, se conecta este concepto
con el producto de matrices. Finalmente, se mencionan los espacios vectoriales de
trasformaciones lineales y el espacio dual de un espacio vectorial.

3.2. TRASFORMACION LINEAL ENTRE DOS ESPACIOS VECTORIALES


SOBRE UN MISMO CUERPO

Sean (V, + , K, .) y (W, + , K , .) dos espacios vectoriales sobre un mismo cuerpo K.

3.2.1. Concepto

La función / : V -*■W es una trasformación lineal u homomorfismo si y sólo si


i ) l a imagen de la suma de dos vectores cualesquiera de V es igual a la suma de sus
imágenes en W

/(*+y)=/(x)+/(y)

ii) la imagen del producto de cualquier escalar por todo vector de V es igual al producto
del escalar por la imagen de dicho vector.

f (a x) = a f (x)

www.FreeLibros.com
TRASFORMACiON LINEAL 67

Las condiciones i) y ii) se pueden reducir a la única siguiente:


/ : V -*■W es una trasformación lineal si y sólo si
f ( a x + 0 y ) = a / ( x ) + |3 /(y )
cualesquiera que sean a y 0 en K, y x e y en V.
El lector puede dem ostrar por inducción completa que si / : V -> W es una trasformación
lineal, entonces se verifica que

/ ( J cc¡ x () = ¿ a f/(x ¿ )
1=1 i= i

cualquiera que sea n e N.


Esto nos permite afirmar que las trasformaciones lineales preservan las combinaciones
lineales.

Ejemplo 3-1
Sean los espacios vectoriales (R3 , +, R , .) y (R2 , +, R, .)•
La función / : R3 -*■ R2 definida por
f ( x u x 2, x 3) = (Xt - x 3, x 2 - x 3)
es una trasformación lineal, ya que se verifican las condiciones:

i ) f [ ( x i , x 2, x 3) + ( y1, y 2, y 3) ] = f ( x l + y u x 2 + ya , x 3 + y 3) =
= ( x i + y i ~ x 3 - y 3, x 2 + y 2 - x 3 ~ y 3) (1)

por suma en R 3 y definición d e /. Por otra parte, teniendo en cuenta la definición d e /


y la suma en R2 , es
f ( x\ , x 2, X 3 ) + f ( y u V2 , y 3 ) = (xi - x 3 , x 2 - x 3) + O i —y 3, y 2 - y 3) =

= (*1 - x 3 + V j - y 3, x 2 - x 3 + y 2 - y 3) (2)
De ( 1) y ( 2 ) se deduce que la imagen de la suma es igual a la suma de las imágenes.
ii)P o r definición de producto de escalares por ternas, definición de / , propiedad

www.FreeLibros.com
68 TRASFORMACIONES LINEALES

distributiva del producto en R, producto de escalares por pares, y por definición de


/ .e s
f [ c c ( x lt x 2, x 3) ] = f ( a x l , a x 2, a * 3) = (o:jct ~ a x 3, a x 2 - a x 3) =
= a ( x t - x 3, x 2 ~ x 3) = a f ( x 1, x 2, x 3)

0 sea, la imagen del producto de cualquier escalar por todo vector es igual al producto
del escalar por la imagen del vector.

Ejemplo 3-2.
La función / : R3 R 2 tal que / ( * , , x 2, x 3) = ( x t - x 3,x 2 - x 3 + 1) no es una
trasformación lineal, pues
f [ ( x l l x 2, x 3) + ( y 1, y 2l y 3) ] = f ( x 1 + y i , x 2 + y 2 l x 3 + y 3) =
= (*i + y i - x 3 - y 3t x 2 + y 2 ~ x 3 - y 3 + 1 )
pero

f ( x i , x 2 , x 3) + f ( y u y 2, y 3) ^ ( x x - x 3, x 2 - X 3 + 1) + (y x ~ y 3, y 2 - y 3 + 1) =
= (* i ~ x 3 + y x - y 3, x 2 - x 3 + ^ 2 - y 3 + 2 )

Ejemplo 3-3.

Supongamos q u e / : R 2 -* R 3 es una trasformación lineal que verifica


/ ( ! > 0) = (1, 2, 3) y /(O , 1) = (0, - 1 , 2)
Podemos obtener la imagen de (2, —3) de la siguiente manera
/ ( 2 , - 3 ) = / [(2, 0) + (0, —3)]= / [ 2 (1, 0) 4* ( - 3 ) (0, 1)] =
“ 2 / ( 1 , 0 ) + ( —3 ) / ( 0 , 1) = 2 ( 1 , 2 , 3 ) + ( —3) (0 , - 1, 2 ) =
= ( 2, 4, 6 ) + ( 0 , 3 , - 6 ) = (2, 7, 0)

3.2.2. Propiedades y clasificación de las trasformaciones lineales

Sea / : V - * W una trasformación lineal. Denotaremos mediante 0V y 0W a los vectores


nulos en V y en W, respectivamente.
1 . La imagen del vector nulo del primer espacio por toda trasformación lineal es el vector
nulo del segundo espacio.

Teniendo en cuenta que el producto del escalar 0 por cualquier vector es el vector nulo, y
la condición ii) de la definición de trasformación lineal, se tiene
/ (0 V) = / (0 x) = 0/ (x) = 0 W

II. La imagen del opuesto de todo vector del primer espacio es igual al opuesto de su
imagen.

www.FreeLibros.com
PROPIEDADES 69

Considerando la propiedad I.3.4., y la definición de trasformación lineal, es


/ ( - X ) = / [ ( - l)x ] =
( - l ) / ( x ) = - /( X )

De acuerdo con la definición, una función / : V W es una trasformación lineal si y sólo


si satisface las condiciones i) y ii), pero nada se exige a / , salvo que sea una aplicación. En
particular diremos que

/ es un monomorfismo < */es inyectiva


/ es un epimorfismo *>f es sobreyectiva
/ es un isomorfismo o / e s biyectiva
Si W = V, entonces la trasformación lineal / se llama un endomorfismo, y si éste es
biyectivo recibe el nombre de automorfismo. O sea, un automorfismo es toda trasformación
lineal biyectiva de un espacio vectorial en sí mismo.

Ejemplo 3-4.
La aplicación / : R3 -> R 3 definida por

f ( x i , x 2, x 3) = {x2, - x u x 3)
es un automorfismo en R 3 .
Debemos probar que / es una trasformación lineal biyectiva.
1 . / e s una trasformación lineal, ya que verifica:

i ) La imagen de la suma es igual a la suma de las imágenes


f [ ( x \ > x i , x 3) + ( yl , y 2 l y?i) \ = f ( x l + y i , x 2 + y 2, x 3 + y 3) =
= (*2 + y 2, - * i ~ y l t x 3 + y ¡ ) = ( x 2, - x u x 3) + ( y 2, - y l t y 3) =
= f ( X i , x 2l x 3) + f ( y l l y 2l y 3)

ii) La imagen del producto de cualquier escalar por todo vector es igual al producto
del escalar por la imagen del vector.

f [ a ( X t , x 2, x 3) ] = f ( a x i , a x 2, a x 3) ~ (<*x2, - a x u u x 3) =

~<x (x 2l - x ¡ , x 3) = a f ( x u x-2, x 3)
2 . f e s inyectiva.
Sean (* ], x 2l x 3) y { y {, y 2, y 3) en el dominio, tales que
f ( x i, x 2, x 3) = f ( y í f y 2, y 3)
O sea

(x2, - x¡, x 3)= (y2l - y i, y 3)


Por lo tanto es

x -2 = y 2 , *1 = V, , x 3 = y 3

www.FreeLibros.com
70 TRASFORMACIONES LINEALES

Luego

( x í , x 2, x 3) = ( y l , y i , y 3)

3. f e s sobreyectiva.

Cualquiera que sea (a, b, c) en el codominio, existe ( - b, a, c) en el dominio, tal que


/ ( -b , a, c) = (a, b, c)

Queda probado así que f es un autom orfism o en R 3. La trasformación lineal/puede


interpretarse como una trasformación del espacio en sí mismo que corresponde aúna
rotación de 90° alrededor del eje x 3 .

Ejemplo 3-5.

1. La función / : V W que asigna a todo vector de V e l vector nulo en W es una


trasformación lineal, pues

/ ( x + y) = 0 w = (V + 0 w = / ( x ) + / (y)
/ ( « x ) a O w - « 0w « a / ( x )
f se llama trasformación lineal nula.

2. La f u n c ió n /: V -> V tal que / (x) =ax cualquiera que sea x e V, y a un escalar dado
en K, es una trasformación lineal.

www.FreeLibros.com
PROPIEDADES 71

En efecto:
f (x + y ) = a ( x + y ) = a x + a y = / ( x ) + / ( y )
f (a x) = a (a x) « a (a x) = a / (x)

La trasformación lineal / así definida se llama homotecia de razón a.

Ejemplo 3-6.

Sea/ : R 2 - >R 2x2 definida por

/ es una trasformación lineal, pues

a+c+ b + d 0
f [ ( a . 6 ) + ( c , d)) = / ( « + c , b + d)
0 a+b+c+d

/ n o es inyectiva ni sobreyectiva.

Ejemplo 3-7.
Si (V, +, R , .) denota el espacio vectorial de los polinomios reales en la indeterminada
X, entonces la función
/ : V -* V,

www.FreeLibros.com
72
TRASFORMACIONES LINEALES

trasfoTmación lineal, pueT"*0 * V * P r e m i o derivado, es una

/ ( P + Q ) = (p + Q )’ „ p . + q , ^ / ( p ) + / ( Q )

f { a ¥ ) = {a¥y = a?' =af ( V)


El endoinorfismo / no es inyectivo.

3.3. NUCLEO E IMAGEN DE UNA TRASFORMACION LINEAL

Consideremos una trasformación lineal / : V -» W.

3.3.1. Concepto de núcleo

cuerpo^es VeC*°riaks «-
del codominio. d0mmi° CUyaS inia^enes P” / s o n el vector nulo

El símbolo N (f) se lee núcleo de f. Por definición es

N ( / ) = j x e V / / ( x )= 0

El núcleo de toda trasformación lineal es la


espacio. O sea p re imagen del vector nulo del segundo

K ( j ) = f l ( ( 0 W| )

Por definición, un vector perteneciente a V es un elemento del núcleo si v sólo «■


imagen es el vector nulo de W. y so!o SJ su

x e N (/) ^ / ( x ) = Ow

www.FreeLibros.com
NUCLEO 73

Ejemplo 3-8.
Determinamos el núcleo de la trasformación lineal definida en el ejemplo 3-1.
N ( 0 = { (x 1, * 2 , x 3 ) e R 3 / / ( * ! , *2 l x 3) = ( 0 - ° ) í
Se tiene
(*i. e N ( f ) o f ( x u x 2, x 3) = ( 0 , 0) <>
^ (*1 ~ * 3. *2 - * 3) = (O , 0) O X j - JC3 = O A x 2 - *3 = 0 o
^ X i =X i = x 2 =a
Luego
N (/) = ( ( a , a , a ) ¡ a e R )
Por definición de ley de composición extem a en R 3 se tiene
N(/)={fl(l,l,l)/«eR|
Esto nos dice que el núcleo de / es el conjunto de todos los múltiplos escalares del
vec t or ( l , 1, 1). La representación d e l N ( / ) e s t á dada en el gráfico siguiente

Volviendo a la definición de núcleo de una trasformación l i ne a l / V -> W, observamos que

NO)C V
Por otra parte, de acuerdo con 3 .2 .2 .1., es

/ ( 0 V) = 0 W
En consecuencia
Ov e N ( / )
Luego, el núcleo de toda trasformación lineal / ’es novacío.

www.FreeLibros.com
74 TRASFORMACIONES LINEALES

3.3.2. Propiedad del núcleo

El núcleo de toda trasformación lineal entre dos espacios vectoriales es un subespacio del
primero.
Hipótesis) f : V -*• W es una trasformación lineal.

Tesis) ( N (f), + , K, . ) es un subespacio de (V, +, K, .).


Demostración) Ya hemos visto que el núcleo de toda trasformación lineal entre dos
espacios vectoriales es una parte no vacía del dominio. De acuerdo con la condición
suficiente, demostrada en 1 .8 .2 ., falta demostrar:

1. N (/) es cerrado para la suma.


Sean x e y dos vectores cualesquiera de N (/).

x e N ( / )A y e N ( / ) = > /(x ) = 0 W a / ( y ) = Ow =>

=>/'(x +y)== 0 w =>


=>x + y e N (f)

Por definición de núcleo, suma en W, definición de t rasformación lineal y definición de


núcleo.
2. N (f) es cerrado para el producto por escalares.

Sean a e K y x e V

a e KAx e V=> a e KA/( x ) = Ow s> a f ( x ) = a ) ^ =►


= »/(a x) = 0W ^ a x e N (/)

Por definición de núcleo, producto de escalares por elementos de W, definición de tras-


formación lineal, propiedad 1.3.2. y definición de núcleo.

3.3.3. Concepto de imagen

Imagen de una trasformación lineal / : V -+ W es el conjunto imagen del dominio, o sea, es


la totalidad de las imágenes de los vectores del primer espacio.
El sím bolo I (/) se lee: imagen de f.
I</)={/(x)/xeV|

También
1(0=1 y € W / 3 x e V a /(x ) = y j

www.FreeLibros.com
IMAGEN 75

Sabemos que f (0V) ~ 0W. En consecuencia, 0 W e I (f), lo que significa que

1 (0 * 0

Además, de acuerdo con la definición, es

I(/)C W

3.3.4. Propiedad de la imagen

La imagen de toda trasformación lineal entre dos espacios vectoriales es un subespacio del
codominio.
Hipótesis) / : V -»• W es una trasformación lineal.
Tesis) f I (f), + , K , . ) es un subespacio de (W, + , K, .).

Demostración) Sabemos que la imagen de toda trasformación lineal entre dos espacios
vectoriales es una parte no vacía del segundo. Teniendo en cuenta la condición suficiente
para la existencia de subespacio, probaremos:
1 . I (/) es cerrado para la suma.
Sean u y v dos vectores de í (/).
u e I (/) a v e I ( / ) ^ 3 x ^ y e n V / / ( x )= u a / ( y ) = v =>
= > /(x) + / ‘(y) = u + va x e V a y e V ^
= > /(x + y) = u + v a x + y e V ^ u + v e l ( / )
Hemos aplicado la definición de imagen, de trasformación lineal y de imagen.
2 . I (f) es cerrado para el producto por escalares.

Consideremos a e K y u e I (f)
a e K a u e I (/) => a e K a / (x) = u a x e V =>
=> a / (x) = a u a x e V = > / ( a x ) = a u a a x e V = >
=> a u e I (f)

www.FreeLibros.com
76 TRASFORMACIONES LINEALES

^ Ímagen> P r ° dUCt0 “ W> - trasformación


Ejemplo 3-9.

eD„e7eT em pto°31 * '* Íma8en "* " trasformació" lta^ / : 2R- R 2 * 2 definida
1.

N ( / ) =(x\,
| x 2) € R . 2 / f ( x l , * 2) = N}

/O 0 \
( ^ i , x 2 ) e N ( / ) » / ( XliJCjj = J
\0 0 /

xi + *2 0 , /O 0 \
, )= J + x 2 = 0^
o x , +x 2f \0 o /

* x t = -x 2
Luego

N (J) = f ( - a, a ) / a e R )
o sea, ei núcleo de / es el conjunto de los pares ordenados de componentes opuestas.

1 0 ) = |A e R 2 » / / ( * , . * 2) = A}

A=
(c J e I W <>3 f e . ^ ) e R 2 / / ( I l | Í ! ) = A

*i 0 \ ja b\
] =[ + * 2 = a= d a b=c=O
O x x + x 2 I \c d J

Luego a í (f) pertenecen las matrices del tipo

¡a O

\0 a
Ejemplo 3-10.

Dada la trasformación lineal del ejemplo 3-9, determinamos las dimensiones de N (/) e

www.FreeLibros.com
NUCLEO E IMAGEN 77

1. Hemos visto que

N (0 = ¡ (-a , a) / a e R í
Teniendo en cuenta la definición de ley de composición externa en R 2 , es
N(/)=í «(-1, l) /« e R l
Esto significa que N (f) está generado por el vector ( - 1 , 1), es decir, este vector
constituye un sistema de generadores del núcleo. Además es linealmente independiente
según 2.4.3. i). Por consiguiente, { ( - 1 , 1) } es una base del núcleo.
Entonces
dim N (f) = 1
2. Como

podemos escribir, por definición de producto de escalares por matrices:

O sea, la matriz

es un sistema de generadores de I (/), y además linealmente independiente. En


consecuencia, constituye una base.
Luego
dim I ( 0 = 1

3.3.5. Núcleo de un monomorfismo

Una trasformación lineal / : V -> W es inyectiva si y sólo si el único elemento del núcleo es
el vector nulo del dominio.
1. Sea / : V -> W un monomorfismo. Debemos probar qu e N (f) = { 0 V | •
Ov eN (f)=> {0V( CN(/) (1)

www.FreeLibros.com
78 TRASFORMACIONES LINEALES

Sea x e N (J). Se tiene


x e N ( j ) = > f ( x ) ~ O w = f ( O v )=>x = Ov =>xe j 0V}
Por definición de núcleo, 3.2.2. 1. y por ser/ inyectiv a.
Entonces
N ( 0 C |0 V¡ (2)
De (1) y (2) resulta
N ( 0 = | 0 V)

2. Sean / : V -> W una trasformación lineal y N (f) = ( Oy )


Para demostrar que / es inyectiva consideremos dos vectores cualesquiera x e y en V, tales
q u e /( x ) = / (y).
Ahora bien, por suma en W, definiciones de trasforma ción lineal y de núcleo, por
hipótesis y suma en V, se tiene

/ ( x ) =/ ( y ) ^ / ( x ) - / ( y ) O
- w =* / ( x —y) = 0 W =>
^x-yeN C O ^x-y^O v^x^y
O sea, basta que el núcleo tenga un único elemento para que la trasformación sea
inyectiva.

Ejemplo 3-11.
La imagen de cualquier conjunto linealmente dependiente, por toda trasformación
lineal, es linealmente dependiente.

Sea / : V W una trasformación lineal,y { Vi, v 2 , . . vr } un conjunto linealmente


dependiente en V. Debemos probar que { / (v ^ , / ( v 2) , . . . , / ( v r) } es linealmente
dependiente en W.

En efecto, por definición de dependencia lineal se verifica que


r
3 i l .2 a ¡ v¡ - 0 V a c tj i= 0

Aplicando / es

/ ( .2 ^ v ^ /O M a ^ O

Por s e r / u n a trasformación lineal y por imagen del vector nulo se tiene


r
2 O!|/(Vi) = 0wA
1=1
En consecuencia
í / ( V i ) , / ( V2 ) , . . . , / ( v r) ¡
es linealmente dependiente.

www.FreeLibros.com
IMAGEN

Ejemplo 3-12.
Si / : V -*■W es una trasformación lineal y V i, v2, . . -, vr son vectores de V tales que
sus imágenes constituyen un conjunto linealmente independiente en W, entonces
v , , v2 , . . . , vr son linealmente independientes.

En efecto., consideremos una combinación lineal, con escalares a determinar, de los


vectores Vj , v2 , . . vr, que sea el vector nulo de V
r
2 a, v,- = 0 V
i —1

Entonces, por definición de función, es

/ ( S a f ví) = / (O v )
i=i
Por s e r /u n a trasformación lineal y por imagen del vector nulo, se tiene

.2 «i / (Vf) = 0 W
i= i
Como los v ecto res/(v ,), /= 1, 2 ,. . r s o n linealmente independientes en W, resulta

ot, = 0 V / = l , 2 , . . . , r
Luego
Vi , v2 f . . vr
son linealmente independientes en V.

Ejemplo 3-13.
La imagen de todo conjunto linealmente independiente, dada por cualquier trasforma­
ción lineal inyectiva, es un conjunto linealmente independiente.
Hipótesis) / '. V-> W es una trasformación lineal 1-1.
{ Vj, v2 , . . vr ) es L.I. en V.

Tesis) ( f (yi \ f (v2) , . . . , / ( v ,) ¡ es L.I. en W.


Demostración) Sea

.J 1 « í/( v í) = 0 w

Por ser / una trasformación lineal es

/ ( 2 ai v,) = 0 w
1=1

Por definición de núcleo se tiene

www.FreeLibros.com
80 TRASFORMACIONES LINEALES

Y c o m o /e s inyectiva, el núcleo se reduce al vector nulo de V, o sea


r
.2 «, = 0V

Aplicando la definición de independencia lineal a los vectores de la hipótesis es


a¡ = 0 V í - 1 , 2, . . . , r
En consecuencia

í / ( V l ) , / ( v 2), . . . , / ( v r)}
es un conjunto linealmente independiente.

3.4. DIMENSIONES DEL NUCLEO Y DE LA IMAGEN

La trasformación lineal / : R2 ^ R 2 * 2 , estudiada en los ejemplos 3-9 y 3-10, verifica


dim N (/) = 1 y dim I (f) = 1
O sea

dim N (/) + dim 1 (/) = 2 = dim R 2


Este hecho se verifica cualquiera que sea la trasformación lineal definida en un espacio
vectorial de dimensión finita.

Propiedad

Si (V, + , K , .) es un espacio vectorial de dimensión finita y / : V - > W es una


trasformación lineal, entonces la suma de las dimensiones del núcleo y de la imagen es igual a
la dimensión del primer espacio.
Hipótesis) / : V -» W es una trasformación lineal

dim V = n
Tesis) dim N (f) + dim I (f) ~ dim V
Demostración)
1 . I (f) tiene dimensión finita
Sabiendo que cualquier base de V es finita, se deduce que I (f) tiene dimensión finita. En
efecto si I w , , w 2 , . . wr } es un conjunto L.I. en I {/), entonces existe un conjunto L 1
en V :( vj , v 2, . . vr j tal que

/(v ¿ ) = w¿ i = 1 , 2 , .. .,r
de acuerdo con el ejemplo 3-12. Esto significa que si 1 (f) no tuviera dimensión finita
entonces V no tendría dimensión finita.
2. Sea ( x , , x2 , . . xp ) una base de N (J).
S i n - p , entonces N (/) = V y dim I (f) = 0, pues en este caso es I (f)= j 0W J .

www.FreeLibros.com
DIMENSIONES DEL NUCLEO Y DE LA IMAGEN 81

Si p < « , entonces, por el teorema de extensión, existen y , , y2 , . . ys en V, tales que


A_ | xj,Xj, . . Xp,yi, y2, - •-,ys }
es una base de V.

V W

Se tiene p + s = n, y el teorema se reduce a probar que dim I (f) - s.


Consideremos las imágenes de los vectores y i , y2 ,. . ., ys. Sean éstas

Z /= /(y ¡) c o n / = 1 , 2 , s ( 1)

Demostraremos que | z ¡ , z 2 , . . zg } es una base de I {/). En efecto:


i) ( z ! , z 2, . . . , zs ) es L.I.
Sea
£
¡=i a ‘ Z‘ =

P o r (1)

. 2 a ¡ f ( y ¡ ) = *>w a ¡ y ; ) = °w ^ «¿ y. e n ( o =>

=>2^ a¡ y ¡ = 2 j3;-Xj =*• 2^ (3;-x;- - 2^ ot¡ y¡ = 0 V => (3,- = 0 a = 0 Ví V/

ii) I z l , z 2, . . ., z s } es S.G. de l ( f )
Sea z cualquier vector de I (f). Por definición deconjunto imagen se verifica

z e I ( 0 = > 3 x e V / / ( x ) = z ^ z = / ( x ) a x = 2 a¡ x¡ + . 2 13, y ¡ =»
P s P S

www.FreeLibros.com
82 TRASFORMACIONES LINEALES

En i) hemos tenido en cuenta q u e /e s una trasformació n lineal, la definición de núcleo, la


base de éste, suma en V, y el hecho de que A es una base de V.
En ii) hemos expresado a x como combinación lineal de la base de V, se ha tenido en
cuenta que / es una trasformación lineal, que todo x¡ es un elemento del núcleo, y que el
producto de cualquier escalar por el vector nulo es el vector nulo.
Queda demostrado entonces que
dim N (f) + dim I (f) ~ dim V

Ejemplo 3-14.
Consideremos la trasformación lin eal/: R4 -►R 2 definida por
f ( x u x 2, x 3, x 4) = ( x l - x 2 - x 3 + * 4 ) 0)
Determinamos:
1. El N (/), una base del mismo y su dimensión
(* i, * 2 . * 3 , * 4 ) e N £/)■*■/(*,, * 2l x 3, * 4) = ( 0 , 0 ) o
o (* i ~ x 2- * 3 + x 4 , 0 ) = (O, 0 ) o Xl - x 2 - x 3 + x 4 = 0 o
ojcj ~ x 2 + * 3 - * 4
En consecuencia, los vectores del núcleo .son del tipo (a + b - c, a, b, c), y por
definición de suma en R 4 y producto de escalares por cuaternas, se tiene
(a + b - c , a , b, c) - (a, a, 0 , 0 ) + (b, O, b, 0 ) + ( - c , O, O, c) ~
= a ( 1 , 1, 0 , 0 ) + 6 ( 1 , O, 1 , 0 ) + c ( - 1 , O, 0 , 1 )
O sea, los vectores
V ! = ( l , 1, 0 , 0) v2 = ( 1 , 0 , 1 , 0 ) v 3 = ( - 1 , 0 , 0 , 1)
son un sistema de generadores de N (f). Además, son linealmente independientes y por
lo tanto constituyen una base del mismo. Luego
dim N (f) = 3
2. Una base de I (f).

De acuerdo con el teorema anterior es

dim N (f) + dim I (/) = 4


O sea
dim I (f) = 1
Entonces, toda base de 1 (J) tiene un único vector.
Como

1 ( f ) = f (o ~ b - c + d , 0) / a , b , c y d e R Í
se verifica que

www.FreeLibros.com
TEOREMA FUNDAMENTAL 83

O í . y i ) e I (f) O í , y i ) = (a - b - c + d , 0 ) o
^ (y 1 , y 2 ) = (a , 0 ) + ( - b , 0 ) + ( - C , 0 ) + ( d , 0 ) o
«■( yi . >a) = « ( l , 0 ) - ¿ ( l , 0 ) - c ( l , 0 ) + d ( l , 0 ) o
^ 0 1 . ^ 2 ) = ( a - 6 - c + c í ) ( l , 0 ) o ( y l i ^ 2 ) = 0¡ ( i , 0 )

Luego
( 1 , 0 ) es una base de I (f).
En consecuencia
dim I (/) —1

3.5. TEOREMA FUNDAMENTAL DE LAS TRASFORMACIONES LINEALES

Sean (V, + , K , .) y (W, +, K , .) dos espacios vectoriales y [v]= jv j , v 2 , . . v„ ) una


base de V. Si W j, w2 , . . wn son n vectores cualesquiera de W, entonces existe una úni ca
trasformación lineal / : V W tal que f (v,) = w,- V/ = 1 , 2 , . . . , n.
Hipótesis) (V, 4-, K , .) y (W, +, K , .) son espacios vectoriales
[v] = { v , ,v2 , . . vn | es una base de V
cw
Tesis) Existe f : V -»■W trasformación lineal única, tal que / (v¿ ) = w¿, Vi = 1, 2, . . ., n

Demostración) Sea cualquier vector x e V. Entonces existen y son únicos los escalares o»!,
a 2 , . . 0ín , tales que
n
X= 2 di V;
¿=1 '
ya que todo vector del espacio puede expresarse de m odo único como combinación lineal de
los vectores de la base, según 2.4.2.
Definimos

f : V -*■W mediante / (x) = 2 cc¡ wf


1=1
La asignación (1) caracteriza a / como una función de V en W.
Necesitamos probar las siguientes afirmaciones:
1. / e s una trasformación lineal

Si x e y son dos vectores cualesquiera de V, y a e K, entonces


n n
x = í? i ai v< A

www.FreeLibros.com
84
TRASFORMACIONES LINEALES

y se verifica

i ) / ( x + y ) = / ( | aiV¡ + ¿ f tv ,) = / ( | (a¡+ft)v¡) = | ( a, + WW( =

= .2 «, w( + | ft w , = / (x ) + / ( y)

") r x > =/■(“ g v,) = / ( . 2 (aa,.) v , ) =

- V ”
C“ « / ) W , - t t S ttíWí = « / ( * )

2 . / - 1, 2 , . . « = > /(v .) ^ w .
En efecto

vf = 0 v, + . . . + o vM + j v . + + 0
Luego

f(y ¡) = 0 w, + . . . + o wM + 1 Wi + . . . + o W)j =

= 1 wf = w,
3. Bajo la co n d ició n /(v ,) = w,. / e s única.

S ig : V -> W es una trasformación lineal tal que g (y.) - w . y / = 1 ?


& \ o wt, vi i , / , . . . , n, entonces
g ( x ) = g ( . £ «,■ Ví) = . £ aig (Ví) a . w. =

" A a i f (yí) /| 1a¡ v, ) - / ( X)


cualquiera que sea x e V.
Luego

del primero. determinada poi los valores que “toma


neal sobre
entre cualquier
dos base

Ejemplo 3-15.

Definimos la trasformación lineal / : R3 R 2 0hp 1tion, i


O» 1 . 1) , (1 1 0 ) (i 0 í» ™ r 3 , q gna a los vect ° res de la base
» /»v. en R , losvectores (T 2) ( \ v ( i n «2
respectivamente. y ( - 1 , 1) en R 2,
Necesitamos determinar la imagen de un vector genérico (a b p
este como combinación lineal de la base dada ' A s a mo s a

www.FreeLibros.com
PRODUCTO DE MATRICES 85

(a,b,c)= a , ( 1 , 1 , \ ) + a 2 ( 1, 1 , 0 ) + o¡3 ( 1 , 0 , 0 ) -
= (<*i + a 2 + a 3 , a , + <x2 , ctj) =>
^ = c , ot2 = b —c , a 3 = a -- b
Entonces

( f f , ¿ , c ) = c ( l , 1 , 1) + (¿> - c ) ( l , 1 , 0 ) + (a - b) ( i , 0 , 0 )

f ( a , b , c ) = c ( 1, 2) + (¿ - c) ( 1, 2)+ (« - £>) ( —1, | ) =


= ( c>2 c) + (b — c, 2b — 2 c) + (—a + b, a — b) =
= (2 b - a , b + a )

3.6. PRODUCTO DE MATRICES

Sean las matrices A e Kmxjs y B e K p x". Llamaremos producto de las matrices A y B en


ese orden, a la matriz C cuyo elem ento genérico c u es la suma de los productos d e ’los
elementos de la fila i de A, por los correspondientes elementos de la columna / de B.
Escribiremos

C = AB
donde

c ü = í*íi b u + a i2 b 2j + . . . + aip bpj


O sea

cü a ¡k b h}

cualesquiera que sean /' =1 , 2 , . . ., m y / = 1 , 2 , . . . n.


De acuerdo con la definición, para que dos matrices se puedan multiplicar, el número de
columnas de la primera debe ser igual al núm ero de filas de la segunda.
Por ejemplo, si

y 1 o 1 -2
1 2 - 2 / '0 - 1 --I l

entonces

www.FreeLibros.com
86 TRASFORMACIONES LINEALES

Si A es la misma que en el caso anterior y B =

entonces
1 0 -1 \ f-2 \ i -5
AB = I 2
1 2 -2 / \ 3 / \ -4

En ninguno de los dos casos existe BA


En particular, si m = n, los elementos de K " xn se llaman matrices cuadradas y se verifica
que (K 'IXrt, + , .) es un anillo no conm utativo, con divisores de cero y con identidad. El tema
está tratado en el capítulo 9 del texto Algebra I ya citado, y se estudiará en detalle en el
capítulo siguiente.
El elemento unidad o identidad en Knxn es la matriz I definida por
a¡j = 1 si / = / y c y =0 si /=£/
y verifica
Al = IA cualquiera que sea A e K nx",

3.7. MATRIZ ASOCIADA A UNA TRASFORMACION LINEAL

Consideremos una trasformación lineal / : V W, entre los espacios V y W de


dimensiones finitas n y m , respectivamente. Probaremos que si se fija una base en cada
espacio, entonces la trasformación lineal / queda caracterizada por una matriz del tipo mx n,
que llamaremos matriz de la trasformación lineal respecto del par de bases dado.
Sean entonces
[v] = | V j, 2v , . . ., vn ) una base de V
y
[w] = ( w , , w2 , . . w m I una base de W
Si x es cualquier vector de V, por ser [v] una base, existen escalares a , , a 2>■■-,a n>
únicos, tales que

x = ^ a i vi 0 )

Tales escalares caracterizan a x respecto de la base de V, y según vimos en 2.6.2. se llaman


las coordenadas de x respecto de dicha base. Podemos escribir

www.FreeLibros.com
MATRIZ DE UNA TRASFORMACION LINEAL 87

Si la imagen de x e V es y e W, se tiene

y= /(x )
Como y es un vector de W, puede expresarse de m odo único como combinación lineal de
la base [w], o sea
m
y = . 2 a ’,w , (2 )

donde a ’i , a ’2, . . a ’m son las coordenadas de la imagen de x, respecto de la base [w].En


consecuencia

Por el teorema fundamental de las trasformaciones lineales, / queda caracterizada


unívocamente por los valores que toma sobre cualquier base de V. O seaes suficiente
obtener lasimágenes, por / , de cada vector de la base [v].Ahora bien, para cada
/ - 1,2,..., e W, y por consiguiente puede expresarse como combina ción lineal de la
base [w].
O sea
m
f(vj) = .2 a¡j W( (3) V/ = 1, 2, .. n

Asignamos a cada escalar a¡j un doble subíndice; el primero, asociado a cada vector de la
base { W i, w2 , .. w m ) , y el segundo, en correspon dencia con el vector de la base fvl
Así

/(vi) = a u wi + f l 2i w2 + . . . + a ml wm
f (y-i) ~ a n w 1 + ^ 2 2 w2 + . + a mi wm

f (vn) n Wx + a2n w 2 -K . . + a mn wm
Los n.m escalares au , que figuran en las combinaciones de los vectores que son imágenes
de los elementos de la base de V, constituyen una m atriz cuya traspuesta, que denotamos
con A, recibe el nombre de matriz de la trasformación lin eal/resp ecto de las bases [v] y [wj.
O sea

www.FreeLibros.com
88 TRASFORMACIONES LINEALES

La matriz de la trasformación lineal es del tipo m x n , donde m es la dimensión del


segundo espacio y n la del primero.
Por consiguiente, para hallar la m atriz de una trasformación lineal f respecto de una base
en cada espacio, se determinan las imágenes dadas por / de los vectores de la base del primer
espacio. Se expresan estas imágenes en términos de la base del segundo espacio, o sea, como
combinaciones lineales de los vectores de la segunda base. La traspuesta de la matriz de
coeficientes es la matriz de la trasformación lineal respecto de las bases dadas en ambos
espacios.
Probaremos ahora si A es la m atriz de la trasformación lineal f , respecto de las bases [v] y
[w], y si X[vj denota la matriz columna correspondiente al vector x e V, cuyos elementos
son las coordenadas de éste respecto de la base de V, entonces la imagen de x , expresada en
términos de la base de W, se obtiene premultiplican do por A al vector columna X[v], o sea

/ ( x ) = A X[v) = Y[wj
En efecto, dado x e V, es

« . m
x =2 aJ (!) y /(x ) = y = 2 a ’i w, (2)

En consecuencia, teniendo en cuenta (1) y la definición de trasformación lineal, es

f(*)=f <Xj vy) = 2 aj f (v;)

Por (3) resulta

n m
f (x) = ;2 aj 2 ^ a¡j w¡

Introduciendo ot¡ en la segunda sumatoria, por ser constante respecto del índice i, y
permutando las dos sumatorias, se tiene

n m m n
/O O ^ . S a¡ a¡j w,- = ,2 ^ 2 a¡) w¡ (4)

De (2) y (4), por la unicidad de la combinación lineal que expresa a f ( x ) entérminos de


la base [w], es

n
otj

Se deduce de esto que la i-sima fila o com ponente de Y [ w j, o sea es igual a la suma de
los productos de los elementos de la fila i de A por los correspondientes elementos de la
única columna de X[vj, y por la definición de producto de matrices resulta

www.FreeLibros.com
MATRIZ DE UNA TRASI ORMACION LINEAL 89

\ \
a >.. " . 2 ••• a i„ <a{
/■«2 \
ai\ <*i2 ■■. ain

\ am I a m 2 • • ■ &ntnJ Oín, / /
O bien

Reiterando lo enunciado, afirmamos que la imagen de cualquier vector del primer espacio
es igual al producto de la m atriz de la trasformación lineal por la matriz de coordenadas de
dicho vector, respecto de la base [v].Tal imagen resulta expresada en términos de la base del
segundo espacio.

Ejemplo 3-16.
Consideremos la trasformación lineal / : R3 -> R 2 tal que

f ( X \ , X 2 , JC3 ) — ( # 1 — J Í3 ) ( 1)

1. Determinamos la matriz de f respecto de las bases


M = | (1 , 1 , 1 ) , ( 1, 1 , 0 ) , ( 1 , 0 0 )} enR 3
[ w ] = | 2(, 0 ) , ( 0 , 1) | en R 2
Mediante (1) obtenemos las imágenes de los vectores de la base [v], y expresamos
dichas imágenes como combinaciones lineales de los vectores de la segunda base
/ ( 1 , 1 , 1 ) = ( 2 , 0 ) = 1 ( 2 , 0 ) + 0 ( 0 , 1)

/ ( l f 11 0 ) = ( 1 , 1) = “ (2 , 0 ) + 1 ( 0 , 1 )

/ ( 1 , 0 , 0 ) = ( 1 , 0 ) =_~ ( 2 , 0 ) + 0 ( 0 , 1)

Se tiene

2 ~2

0 1 0

A es la matriz de la trasformación lineal / , respecto de las bases [v] y [w].


2. Utilizando la matriz A, obtenemos la imagen de x = (1, 2, 3).

www.FreeLibros.com
90 TRASFORMACIONES LINEALES

Para ello es necesario determ inar las coordenadas de x respecto de la base en R 3, o sea,
a i >a2 y a 3 tales que
( 1 , 2 , 3 ) = *! ( l . l . O + a a ( 1 , 1 , 0 ) + a 3 ( 1 , 0 , 0 ) =
= ( a, + a2 + 0 :3 , 0 :, +<x2, (*ü
Resulta
a i = 3 , a2 = - 1 , a 3 = -1
Entonces

Su imagen es

/ l ü \
2

Los escalares 2 y l son las componentes d e / ( x ) respecto de la base [w].

Si aplicamos directamente / a la tem a (1, 2 ,3 ), se tiene


/(1 > 2, 3) = (4, - 1 )
Expresando esta imagen como combinación lineal de la base [w] es
(4, —1) = 2 (2, 0) + (--1) (0, 1)

Ejemplo 3-17.
Obtenemos la m atriz de la trasformación lineal / : R2 *2 - +R definida por
jx i x2\
/ “ (*1 + * 4 , X 2 - X 3)

\ x3 x j

respecto de la base canónica en ambos espacios.


Las imágenes delos vectores de la base canónica de R 2 * 2 son

/ ( ) = (1 , 0 ) = 1 ( 1 , 0 ) + 0 ( 0 , 1)
'0 0/

f f
'0 0/
) =(0,1) = 0 ( 1 , 0 ) + 1 ( 0 , 1 )

www.FreeLibros.com
MATRIZ DE UNA TRASFORMACION LINEAL 91

f f ) = ( 0 , - 1) = 0 ( 1 , 0 ) + ( - 1) ( 0 , 1)
\1 0 /

/
1° °\
= (1 , 0 ) = 1 ( 1 , 0 ) + 0 ( 0 , 1)
\0 1/

Resulta

H
/I 0 0 1

\ 0 1 —1 o

Nótese que, en el caso de la base canónica, los coeficientes de la combinación lineal


son los elementos de la matriz, o las componentes del par.
Así, la matriz

P= /2
' i -i
es un vector de R 2 * 2 cuyas coordenadas, respecto de la base canónica
[v] ~ { E n , E j2 , E2i , E 22 } , son 2, —3, 1 y —1. De m odo tal que la matriz puede
expresarse así

Su imagen p o r /, utilizando A, es

/ ( P ) « A P (V] = / 1
\0

Tal imagen resulta expresada en la base canónica de R 2 y se identifica con la que se


obtiene al aplicar directamente la definición d e /. Así

/ | ^ j =( 2 - l , - 3 - l ) = ( l , - 4 )

www.FreeLibros.com
92 TRASFORMACIONES LINEALES

3.8. COMPOSICION DE TRASFORMACIONES LINEALES

Sean / : V - > U y g : U - * W dos trasformaciones o aplicaciones lineales. La función


compuesta

£ ° / : V- » W
se define como en 4.6., Algebra I, o sea

(£ 0/) ( x ) = £ [ /( x )]
Demostramos que la composición de dos trasformaciones lineales en las condiciones
dadas, es una trasformación lineal.
En efecto:

1- ( f f ° / ) ( x + y ) = * | / ( x + y ) ] ^ [ / ( x ) + / ( y ) ] -
=8 |/ ( x ) ] +g [/(y )] =(g o J) (X) + (g o f ) ( y )
2- f e “ / ) ( M ) ^ [ f ( a x ) ] = g [ a / ( x ) l = f t í [ f ( x )] =
“ a (S ° f ) (x)

Hemos aplicado sucesivamente la definición de composición, las hipótesis ( f y g son


trasformaciones lineales) y la definición de composición.

Ejemplo 3-18.
Consideremos las trasformaciones lineales
/ :R 3 R y g :R R2
definidas por

f ( x lt x 2 , x 3) = x 1 - x 2 + X3 y g ( y ) = (y¡ 0 )
Determinamos el núcleo de g ° f . Para ello caracterizamos primero la ley de asignación,
utilizando la definición de composición ’

f e 0 / ) ( ^ 1 ^ 2 , ^ 3 ) = í ( / ( x 1, X 2 , X 3 ) ] - ^ ( x 1 + X 3) =

= (x\ - x 2 + x 3 , 0)
Por definición de núcleo, se tiene
( Xi , x 2 l X 3) e N f e o / ) o ^ o / ) ( Xl i X2 ) ^ 3) = (0) 0 ) o
^ ( * 1 - * 2 + x 3 >0 ) = ( 0 , 0 ) o Xl - X 2 + X 3 = q &
*Xx =x 2 ~ x 3
Entonces

N (¿°/) = { ( b ~ c , b , c ) / b e R accR)
Como

( b - c , b , c ) = ( b , b , 0) + (—c, 0, c) = 6 ( 1 , l , 0 ) + c ( - 1 , 0 , 1 )

www.FreeLibros.com
COMPOSICION DE TRASFORMACIONES LINEALES 93

es
{ ( 1 , 1 , 0 ) , ( - 1 , 0 , 1 ))
un S.G. del núcleo de g « / . Como además es L.I., tal conjunto es una base del núcleo,
y por consiguiente su dimensión es 2 .

3.9. TRASFORMACION LINEAL NO SINGULAR

3.9.1. Concepto

La trasformación lineal / : V -> W es no singular, reg ular o inversible si y sólo si es


biyectiva.
En símbolos
/ : V -»■W es no singular o / e s un isomorfismo.
O bien
/ : V -*• W es trasformación lineal no singular o / e s biyectiva.
Sabemos que una función / : V - * W es biyectiva si y sólo si admite inversa. En
consecuencia, podemos escribir
Una trasformación lineal / : V -> W es no singular o E xiste f ~ l .

3.9.2. Propiedad

La inversa de una trasformación lineal no singular es una trasformación lineal.

Sea / : V -+ W una trasformación lineal no singular, es decir, un isomorfismo de V en W.


Probaremos que / 1 : W -> V es una trasformación lineal.

www.FreeLibros.com
94 TRASFORMACIONES LINEALES

Consideremos y i y y 2 en W. Por se r/b iy ectiv a, existen y son únicos los ve ctores x t y x 2


en V, tales que
/ ( x i ) = yi y / ( x 2) = y2
Se verifica que

1. r (y, + y 2) = / ‘ ‘ [ f M + f ( x 2) ] = r [T(Xl + x2)] = t r ‘ ° f ) ( x i + x 3) =


= íV (xi + x 2) = Xl + x 2 - r 1 ( y O + r 1 (y 2 )

2. S e a n a e K y y i e W
Entonces

/"* ( « y i ) = r 1 [ a / ( x1 ) ] = r I [ / ( oc Xi ) ] ^
= (f ~ l ° / ) ( a x 1) = i'v ( a xO ^ a x j - a / ' 1( yt )

/ y / 1 se llaman trasformaciones lineales inversas, y se verifica que


/ " ‘° f = h y / ° r 1 = íw
donde /v e *w denotan las identidades en V y en W, r espectivamente.

Ejemplo 3-19.
La trasformación lineal / : R2 R 2 definida por
f(a,b) =(a,-b)
es no singular, por ser biyectiva.
En efecto
1. Sean ( a , b) y (a*, b 0 en el dominio, tales que f ( a , b) ~ f ( a ’, h*).
Entonces es
( a , - b ) = (a’ , ~ b ’)
En consecuencia
a =a' y b =b ’
O sea, f e s inyectiva.

2. Sea ( a , b ) cualquier vector del codominio.


Existe (a , - b ) en el dominio, tal que

f ( a , - b ) = ( a , b)

Y, por consiguiente, f e s sobreyectiva.


El significado geométrico de esta trasformación lineal es una simetría respecto del eje
de abscisas

www.FreeLibros.com
96 TRASFORMACIONES LINEALES

1. Hipótesis) / : V -*■V es una trasformación lineal inyectiva


dim V = rt

Tesis) / e s sobreyectiva.
Demostración) Por h ip ó te sis,/e s inyectiva. En consecuencia, por 3.3.5., es
N ( 0 = | 0 V)
y
dim N (J) = 0
Como
dim N (/) + dim I (f) = dim V
resulta
dim I (f) = n = dim V
En consecuencia, I (f) ~ V, o s e a ,/e s sobreyectiva.

2. Hipótesis) / : V -*■V es una trasformación lineal sobreyectiva

dim V = n

Tesis) / e s inyectiva.
Demostración) Sea ( W j, w2 , . . w„ ) una base del codominio V. Por ser /
sobreyectiva, existen V!, v2 , . . v„ en V, tales que
/ ( v í) = w í Vf = 1 , 2 , . . . , «
Los n vectores V j, v 2 , . . v„ son linealmente independientes en V, y de acuerdo con
2.7.2. constituyen una base de V.
Consideremos ahora un vector x cualquiera perteneciente al núcleo de / . Se verifica que

xeN(/)=*x= 2 a¡ vf a / ( x ) = 0 => / ( x ) - ctt f ( y t) = 0 =* w, = 0 =>

=>oti = 0 , Vi = 1,2.......n
Siendo N (f) = Oy, resulta/inyectiva.

3.10. COMPOSICION DE TRASFORMACIONES LINEALES


Y PRODUCTO DE MATRICES

Consideremos las trasformaciones lineales


/ : V-+ U y ^:U ^W
y sean

M = ( v i , v 2 , . . v„ } , [ u] = ( u ! , u2 , . . up J y [w ]= {wl t w2 ) ----- , w m J
bases de U, V y W, respectivamente.

www.FreeLibros.com
MATRIZ DE LA COMPOSICION 97

Las trasformaciones lineales / y g quedan caracterizadas por las matrices


A £ Kp Xíl y B e Km xp
respecto de las bases dadas en cada espacio.
Se verifica que la trasformación lineal compuesta
g o f : V ^W
está asociada a la matriz
C = BA e K mxn
respecto de las bases [v] y [w].

En efecto, sabemos que para determ inar C se necesita obtener las imágenes de los vectores
de la base [v] y expresarlas en función de los vectores de [w], o sea
m
(g ° /)(v j) =. 2 w, ( 1)

Por otra parte, teniendo en cuenta la definición de composición de funciones, que f y g


son trasformaciones lineales de matrices A y B, respectivamente, y propiedades de la
sumatoria, se deduce

(g ° f ) (V})= 8 \f( y j)] = g (fcS x akj u ft) = X ^a hJ g (ufe) =


p m p m m p
= akj , 2 b ik w, - 2 ^ . 2 akj b ik w, = . 2 ( ^ b ik ahj) wf ( 2)

De (1) y (2), por unicidad de la imagen, se deduce que


p
c ij “ H—1 bih ahj

En consecuencia, por definición de producto de matrices, resulta


C = BA

Ejemplo 3-20.
Sean / : R 3 - + R y £ : R - » - R 2 trasformaciones lineales definidas por
f ( x l , x 2, x 3) ^ x l + x 2 ~ x 3
g ( y ) = (y. t y )
Se consideran las bases
[v] = { ( 1 , 0 , 0 ) ,( 0 , 1 , 0 ) , ( 0 , 0 , 1 ) 1 e n R 3
[u] = ( 1 ) en R
[w ]= ¡ (2 , 0 ) , ( 0 , 2 )) enR 2

www.FreeLibros.com
98 TRASFORMACIONES LINEALES

Determinamos las matrices asociadas a f g y g ° f , y verificamos el teorema anterior


/ ( l , 0, 0) = 1 = 1.1 |
A 0,1,0)= 1= 1.1 U A = (l 1 -1)
/ (0 , 0 , 1) = —1 = ( —1 ) 1 J

¡L
í (1) = (1, 2) = - ~ (2, 0) + 1 (0, 2) =* B = ( 2
1
Resulta

1\ /I 1 -1
C = B A = ( 2 j (1 ! _ 1 ) = ^2 2 _2J

Definimos ahora
£ ° / : R3 - * R 2
(g ° f ) (Xi, * 2 - *3> = 8 [ f ( x u x 2> x 3)] =
= £ (* i + *2 ~ x 3) = (xt + x 2 - x 3, 2 x ! + 2 x 2 - 2 x 3)
Luego

< * • / ) (1 , 0 , 0 ) = ( 1 , 2 ) = -^- ( 2 , 0 ) + 1 ( 0 , 2 )

< ¿ r° /)(0 , 1 , 0 ) = ( 1 , 2) = ~ ( 2 , 0 ) + 1 (0 , 2)

(?«»/ )(0 , 0 , l ) = ( _ i f _ 2 ) = - i . ( 2 f 0 ) + ( ^ I ) ( 0 , 2 )

O sea

I l i
C=| 2 2 2
11 -1

3.11. ESPACIO VECTORIAL DE TRASFORMACIONES LINEALES

3.11.1. Concepto
Con el símbolo L (V, W) denotaremos el conjunto de todas las trasform aciones lineales
entre los espacios vectoriales V y W, sobre el cuer po K, o sea

www.FreeLibros.com
ESPACIO DE TRASFORMACIONES 99

¿ (V , W) = { / : V -> W ¡ f e s trasformación lin e a l}


En L (V, W) definimos la suma de funciones y el producto de escalares por funciones
mediante las asignaciones
<y+¿r)(x)=/(x)+g(x) (i)

(a f ) (x) = o í f (x ) (2)

Demostraremos las siguientes afirmaciones:


1. La suma de dos trasformaciones lineales de V en W e s una trasformación lineal de V en
W.
En efecto:
i ) ( / + £ ) (x + y) = / ( x + y) + # (x + y) =
= / ( x ) + / ( y ) + g (x) + g ( y ) = ( f + £ ) (x) + ( f + g ) (y)

ü) í / + í ) ( a x ) = / ( o : x ) + g - ( o ¡ x ) =
= a / ( x ) + a g ( x ) = a [ / ( x ) + í (x)] =
= Ot(f + g)(x )

2. El producto de cualquier escalar por cualquier trasformación lineal de V en W es una


trasformación lineal de V en W.
Utilizando la definición (2), y con procedimiento análogo al utilizado en 1., el lector
puede probar que
( a f ) (x + y ) = ( a f ) (x) + ( a f ) (y)
(a f ) (0 x ) = 0 ( a / ) ( x )
Además, las definiciones (1) y (2) perm iten comprobar que el conjunto L (V, W) tiene
estructura de espacio vectorial sobre el cuerpo K.
La cuaterna [,L (V, W), + K , . ) denota el espacio vectorial de las t rasformaciones
lineales de V en W, sobre el cuerpo K.
El vector nulo de este espacio es la trasformación lineal nula
e : V ~> W definida por e (x) = Ow V x eV

3.11.2. Isomorfismo de L (V, W) en Kmx”

Sean (V, + , K , .) y (W, + , K , .) dos espacios vectoriales de dimensiones finitas n y m,


respectivamente, y las bases

[V]= | v , , v2 í . . . , v n } enV
[ w ] = | w , , w2 ) . . , w m ) en W

Entonces, L (V, W) es isomorfo a Km Xfl

www.FreeLibros.com
100 TRASFORMACIONES LINEALES

En efecto, definimos

F : Z, (V, W)
mediante

F</) = A
donde A es la matriz d e /re sp e c to de las bases [v ]y w].
[
De acuerdo con el teorema fundamental de las trasformaciones lineales, A queda
unívocamente determinada para cada f e L (V, W), respecto de las bases [v] y [w]. O sea, la
definición dada satisface las condiciones de existencia y unicidad de toda función. Además,
se verifica que:

1. F e s inyectiva, pues s i / y g s o n dos vectores d e l (V, W) que satisfacen

FC 0 = FGr)
entonces sus matrices respecto de las bases [v] y [w] on
s iguales, lo que significa
/ ( ví) = ^ ( v¡) V ,= l f 2 , . . . f «
En consecuencia

n n n n
/ ( x ) = / ( . 2 a, V/) = 2 a , / ( v f) = . 2 a t g ( v t) ^ g ( f2 a (V|) = ? ( x )

O sea

f=S

2. F es sobreyectiva, ya que, cualquiera que sea A e K mxn>e x is te /: V -+W definida por


m
f (Vj) = 2 a u w,

tal que
F tf)= A

3. F es una trasformación lineal.


' En efecto:
F ( / + £) = A + B = F ( / ) + F( g)
F(af) =a A =aF(f)
donde A y B son las matrices de / y g respecto de las bases [v] y [w].
En consecuencia
F : L ( V , W ) ^ K mxn
es un isomorfismo para cada elección de una base en V y una en W.
Resulta entonces que
dim L (V , W) = dim K m Xíl= mn

www.FreeLibros.com
ESPACIO DUAL 101

3.12. ESPACIO DUAL DE UN ESPACIO VECTORIAL

Llamaremos espacio dual de un espacio vectorial (V, + , K , .), al espacio vectorial de las
trasformaciones lineales de V en K.
V* denota al espacio dual de (V, + , K , .), o sea
V* = L (V, K) = { f : V K / / e s trasformación lineal )
Los espacios dominio y codominio son, respectivamente
(V, + , K , .) y (K, +, K , .)
Los elementos de V*, es decir, las trasformaciones lineales de V en K, se llaman formas
lineales o funcionales.
De acuerdo con el teorema fundam ental de las trasformaciones lineales, toda forma lineal
queda unívocamente determinada por los valores que tom a sobre cualquierbasede V.Es
decir, si [v] = { V i, v2 , . . v„ f es una base de V, y x 1( x 2, . . , , x nson nelementos
cualesquiera de K, entonces la función
/ : V -*■K definida por

f ( x ) = f ( £ i ai v i) = Í i ai x ¡

es un elemento de V* = L (V, K), donde a lt c 2, • • •,an son las coordenadas de x respecto de


la base [v].

www.FreeLibros.com
TRABAJO PRACTICO III

3-21. Determinar cuáles de las siguientes aplicaciones de R 3 en R 3 son trasformaciones


lineales, donde K = R.
1. f ( X\ , X 2, X3 ) = ( X 2l Xi, JC3 )

2 . g ( x l , x 2 , x 3) = ( x l + l , x 2 + 2 , 0 )
3. T ( x 1 , x 2 , x 3) = ( 0 , x 1 + x 2 ,0)

4. T (.Vi, X3 ) — X 2 , .X3 , A!] )

3-22. Investigar cuáles de las siguientes aplicaciones/son lineales.


1. / : R3 -* R 2definida por f ( x , y , z) = (y, x )
2. / ; R2 ->R 3definida p o r / ( * 1(x 2) = ( x lt x 2 ,0 ) + ( - 1 , 0 , 0 )
3. / : R 2 R 3definida p o r / ( x lt x 2) = (2x¡ ~ x 2, X l )
4. f : R 2 - >R definida p o r / ( ^ i , x 2) = x i x 2

3-23. Sea / : V -+ W una trasformación lineal y sean x e y en V tales que / ( x ) *=z. Sabiendo
que / (y) = 0 W, dem ostrar que / (x + y ) = z,
3-24. Sea la función / : R 2 -* R 2 definida por f ( x lt x 2) = ( ~ x lf ~ x 2). Demostrar que es
lineal, clasificarla e interpretarla geométricamente.
3-25. La función / : R2 -»■R 3 es lineal, y verifica

/ ( 1, 2 ) « ( - 1, 0 , 2 ) / ( 2 , 1 ) = (0 , 2 , —1)

Determinar las imágenes de los vectores (3, 3) y (0, - 1 ).


3-26. Consideremos un espacio vectorial V sobre un cuerpo K, y dos trasformaciones lineales
/ : V -»■K y £ : V -> K
Sea F : V K 2 tal que F ( v ) = ( / (v ),^ ( v ) )

Demostrar que F es una trasformación lineal.


3-27. Sea T una aplicación lineal de R 2 en sí mismo, tal que
T (1, 0) = (1, 1) y T (0, 1) = ( —1, 2)

www.FreeLibros.com
TRABAJO PRACTICO III 103

Determinar la imagen del cuadrado de vértices ( 0 , 0 ) , (1, 0 ) , (1, 1) y (0, 1).


3'28. Investigar si existe una trasformación lineal / : R2 -»■ R tal que
/( 1 ,2 ) = 3 , / ( 2 , 2 ) = - l y /( 2 ,5 ) = —
2

3-29. Sean / : R2 -»■R 3 y g: R 3 -> R 2 definidas por


f ( a , b) *= ( a , a + b , b) y g ( a , b , c) = (a + b , c)
1. Probar que f y g son trasformaciones lineales.
2. Clasificar f y g.
3. Definir £ ° / y / og,

3-30. Demostrar que si / : V -*■W es un epimorfismo, entonces / trasforma sistemas de


generadores de V, en sistemas de generadores de W.
3-31. Consideremos (C, 4- , R, .) y / : C -> C definida por / (z ) = z + Im (z).
Determinar s i / e s una trasformación lineal, y en caso afirmativo clasificarla.
3.32. Sea/ : R 2 R 3x3 definida por

/ *i 0 V
/ ( * 1>*2) = ( - X 1 *1 *2 )
\ 0 x2 Xi - x 2 I

Probar que / es lineal y determ inar el conjunto de los vectores de R 2 cuyas imágenes
p o r /s o n la matriz nula.
3-33. Demostrar que si / : V -►W es una trasformación li neal y S es un subespacio de I (f),
entonces / _1 (S) es un subespacio de V.
3-34. Determinar el núcleo, la imagen y las dimensiones de ambos en las siguientes
trasformaciones lineales.
1. / : R 3 -+R2 de finida p o r/(x , ,x 2 ,x 3) = (xj + x 2 +x 3, x 2 + x 3)
2. / : R 2 ~»R definida p o r / ( x lfx 2) = X l — 2 x 2

3'35. Definir una trasformación lineal / : R4 -+ R” para un n conveniente, de m odo que


N C/)= í * 3, x 4 ) e R 4 f x x + x 2 = 0 , ^ ! - x 4= 0 , x 2 + x 3 + x 4= o )
Obtener después una base y la dimensión del núcleo.
3-36. Una trasformación lineal / : R3 -* R 2 está definida por
f ( x I , x 2, x 3 ) = ( x i - 2 x 3, x 2 + x 3)
•' 1. Hallar la matriz A de / , respecto de las base
s
1(1, 1, 1 ), (2, 2 , 0 ) , ( 3 ,0 ,0 ) ) e n R 3
1 ( 2 , 0 ) , ( 0 , 2 ) | e n R2

www.FreeLibros.com
104 TRASFORMACIONES LINEALES

2. Mediante A, obtener la imagen de ( - 2 , 2, - 2 ) e R3 .


3. Determinar la m atriz B d e / , respecto de las bases canónicas en ambos espacios.
4. Obtener la matriz C de la misma trasformación lineal, respecto de la base canónica
en R 3 y la base del punto 1 . en R2 .

3-37. Sea la trasformación lineal/ : R2 -* R 3 definida por


/ ( * 1»* 2 ) = (*1 + x 2 , x { - x 2, x x + 2 x 2 )

1. Determinar N (J) , I (/), una base en cada uno y sus dimensiones.


2. Hallar la matriz de / respecto de las bases
( ( 1, 2 ) , ( 2 , 0 ) ) enR 2
j (1, Ó, 0 ) , (0, 2, 0) >(0, 0 , 3) ) e n R 3

3-38. La trasformación lineal / : R3 ->• R3 está caracterizada por la matriz

respecto de la base canónica. Determinar N (f), I (f) y siis dimensiones.


3-39. Determinar la matriz de la trasformación lineal del ejercicio 3-32, respecto de las bases
canónicas en R 2 y en R 3x3
3-40. Dada la trasformación lineal / : R2 x2 -> R 3 definida por

1. Obtener la matriz d e /re sp e c to de las bases

1 ( 0 , 2 , 1) , ( 2 , 0 , 1 ) , ( 0 , 1 , l)}en R 3

2. Utilizando la matriz hallada, obtener la imagen de


2 2

3-41. Definir la trasformación lineal / : R3 -►R2 , tal que respecto de las bases
((0 , 1 , 1 ) , ( 1 , 0 , 1 ) , ( 1 , 1 , 0 ) ) enR3
1(1, 2 ) , ( 2 , 1 ) ) en R 2

www.FreeLibros.com
TRABAJO PRACTICO III 105

su matriz sea
/1 0 0
\ 1 -1 1

3-42. Hallar la matriz de la trasformación lineal g o / d e l ejercicio 3-29, respecto de las bases
( ( 1, 1) , ( 0 , —1)} en el dominio
{ (2 , 0 ) , ( 2 , 2) í en el codominio

3-43. Determinar la m atriz de la rotación del plano de ángulo 0, respecto de la base canónica,
con centro en el origen.
3-44. Sea la trasformación lineal f 0 : R 2 -> R 2 representada por la matriz
eos 6 - sen Q
sen 6 eos 6
respecto de la base canónica.
Demostrar que si Q y 6' son números reales cualesquiera, entonces

f o ' 0 fe = fe + o '
f 1 - f-e

3-45. Demostrar que si [v ]= f v ltva , . . .,v „ } es una base de ( V , +, K , .), y si f¡ con


/ = 1 , 2 , . . . , n son las formas lineales definidas mediante

f¡ (v;) ~
entonces f ¡ es una base de L (V, K), o sea, del espacio dual de V.

3-46. En (V, + , K , .) sean los subespacios S x y S 2 tales que V = S! ®S2. Se considera la


función
P t : V-> V
definida por

P i ( x ) = x!
Siendo x = x t + x 2 y x 1 e S 1 , x 2 6 S2 .
La función Pj se llama proyección sobre S t , según S2.
Demostrar:
1 . Pj es una trasformación lineal.

2. P, es idem potente, o sea P2 = P, o Pj = P,


3. Si P2 es la proyección sobre S2 , entonces P , + P 2 = 1

www.FreeLibros.com
C apítulo 4

M ATRICES

4.1. INTRODUCCION

Hemos creído oportuno dedicar un capítulo al estudio de las matrices con elementos en
un cuerpo K, dado el rol fundamental que este tema desempeña en todos los campos de la
Matemática y en las aplicaciones. Conocido el espacio vectorial (Kmxn, +, K , .), se trata
ahora el producto de matrices, anticipado en el capítulo anterior, y el anillo de matrices
cuadradas. Sin pretender agotar el tema, se estudian la trasposición y algunos tipos de
matrices especiales: simétricas, antisimétricas, triangulares, diagonales, idempotentes, involu-
tivas, hermitianas, etcétera. Se trata, además, la inversión de matrices, el concepto de
matrices particionadas, el rango de una matriz y su invarianza frente a operaciones
elementales. Después de dar m étodos para la determinación de la inversa de una matriz se
estudian la equivalencia de matrices y los cambios de bases en espacios vectoriales.

4.2. PRODUCTO DE MATRICES

4.2.1. Concepto

Recordemos la definición de producto de matrices dada en 3.6. y su conexión con la


composición de trasformaciones lineales estudiada en 3.10. Si V, U y W son tres
espacios vectoriales sobre un mismo cuerpo K, de dimensiones finitas, con bases
[ v]= ¡ V l t v 2 , . . .,v„ j , [u] = j u , , u 2 l . . .,u p j y [w]= I W l ) w 2 , . . w m j respecti­
vamente, y B e Kpxn y A e Kmx;> son las matrices asociadas a las trasformacio nes lineales
/:V-> U g:U-*W
entonces la trasformación lineal compuesta
g o f : V -W
está caracterizada por la matriz producto C = AB e Kmx" cuyo elemento genérico es

www.FreeLibros.com
PRODUCTO 107

Observamos que para que exista el producto de dos matrices, el número de columnas de la
primera debe ser igual al núm ero de filas de la segunda.
Si A e K mx " y B e K n x m, entonces coexisten los productos A B e K mxm y B A e K ' 1*",
pero son distintos si mi=-n.
En el caso en que m = n , tanto AB como BA son matrices del tipo n x n, es decir,
cuadradas y pertenecientes a KMX” , pero en general se verifica que
AB^BA
O sea, el producto de matrices no es conmutativo.

Ejemplo 4-1.
Verificamos la no conmutatividad del producto de matrices en el siguiente caso:

Este hecho es coherente con lo que sabemos: la composición de trasformaciones


lineales, que son funciones, no es conmutativa.
Si AB = BA entonces diremos que A y B son matrices permutables.

4.2.2. Asociatividad del producto de matrices

Sean V, U, S y W espacios vectoriales de dimensiones n, p, q, m respectivamente, y una


base en cada uno. Si
/:V-»U £ :U S y h : S-»W
son trasformaciones lineales, C e K p x ", B e K 9xp y A e K mxfl son las correspondientes
matrices,

www.FreeLibros.com
108 MATRI CES

entonces, teniendo en cuenta la asociatividad de la composición de funciones es


h o g o f = (h o g ) o / = h o ( g o / )

Denotando con D a la m atriz m x rt, asociada a la composición, es


D = (AB) C = A (BC)
Escribiremos entonces D = ABC

Ejemplo 4-2.
Calculamos ABC, siendo

-1 1 0
A= ' 3 " 1 0
1 2 0 1 2 C

3 2 1 0/

ABC

2X3 3 X 4 4X1

2 X 4 4 X 1 2X1

4.2.3, Matriz identidad

En K "xn la matriz I cuyo elemento genérico es 5y, o sea, es 1 si i = / y es 0 si / # ; , es


neutro para el producto.
I se llama matriz identidad n x n, y verifica
AI = IA = A
cualquiera que sea A € K71™.
En efecto, el elemento genérico de la m atriz producto AI es
n
c¡j —^2 ^ a ik 8kj —a¡j = a¡¡

En consecuencia, por definición de producto, es


AI = A
Análogamente se prueba que IA = A.

www.FreeLibros.com
A N I L L O D E M A T R I C E S nXn 109

Si A e Km xn, entonces la identidad mx m verifica


IA = A
y la identidad n x n satisface
AI = A

Ejem plo 4-3.

Calculamos AB - I, siendo

1 0 -2
A=

/ 1 0 -2
AB= 0 1 3
\0 0 1
Luego
AB - I = N

donde N denota la matriz nula de R3 x 3 .

4.2.4. Distributividades del producto

Si A y B son elementos de K "xp y C e K p xm , entonces es


(A + B) C - AC + BC
Esto significa que el producto de matrices es distributivo a derecha, respecto de la suma.
Para demostrar esta afirmación, consideremos el elemento genérico d¡j, de la matriz
(A + B) C. Por las definiciones de suma y producto y propiedades de la sumatoria es
p p p

^>1 ~ ckj = a iU c h ¡ + f £_1 b ¡k c k j

O sea
(A + B) C = AC + BC
Si C e Km xn y A y B son las matrices anteriores, entonces se verifica la distributividad a
izquierda.
C (A + B) = CA + CB

4.3. ANILLO DE MATRICES CUADRADAS

En K "x” el producto es una ley de composición interna, asociativa, con elemento neutro
igual a la identidad nx n.

www.FreeLibros.com
110 MATRI CES

Por otra parte, sabemos que (K "x" f + ) es grupo abeliano, y de acuerdo con 4.2.4. el
producto es doblemente distributivo respecto de la suma.
En consecuencia (K "xn, + , .) es el anillo no conmutativo, con unidad, de las matrices
cuadradas n x n con elementos en K.
Este anillo tiene divisores de cero; es decir, existen matrices no nulas cuyo producto es la
matriz nula.
Por ejemplo:

A = l l o r N y B=( i i l#N
pero

0 0
AB
0 0
Considerando en el espacio vectorial (R 2 , + , R, .) la base canónica, la matriz B representa
una trasformación del plano en sí mismo que asigna a cada vector (x, y ) la imagen (0 ,x + y ),
y A caracteriza la aplicación lineal que trasforma cada vector (x , y ) en ( x , x), ya que

0
x +y

La trasformación lineal compuesta, asigna a todo vector el vector nulo. Es decir, es la


trasformación lineal nula.

4.4. TRASPOSICION DE MATRICES

4.4.1. Concepto

Sean los espacios vectoriales (K »x ™, + , K , .) y (Km* \ +, K ,.). Por definición, la matriz


B e Kmxn es la traspuesta de A € K "xm si y sólo si b ¡j = a ji, y se escribe B = A '.
El símbolo A* se lee: “A traspuesta” .

/ - i 2 0 \ ¡~ l l\
\ 1 2 3 ]’ entonces es A I 2 2 )

En consecuencia, para hallar la traspuesta de una matriz, se cambian filas por columnas.
Observamos, además, que toda m atriz 1 X 1 es igual a su traspuesta.

www.FreeLibros.com
TRASPOSICION 111

4.4.2. Traspuesta de ia suma y del producto por escalares

La función f : Knxm -> Kmxn que asigna a cada m atriz del dominio su traspuesta en el
codominio, es decir, definida por
/ (A) = A*

/ ( A + B) = (A + B )'= A t + Bt - f (A ) + / ( B )

2. La traspuesta del producto de un escalar por cualquier matriz es igual al producto del
escalar por la traspuesta de la matriz.
Teniendo en cuenta que si C = (a A )4 entonces cy = a aj¡, resulta

f ( a A ) = (a A)* = o¿ A* = ct/ ( A )

Ejemplo 4-4.

Dadas las matrices A =

calculamos (Bf A)*.

Como B( A = (a b c) = (-a c b), resulta

4.4.3. Traspuesta del producto

La traspuesta de u n producto de matrices es igual al producto de las traspuestas en orden


permutado.
Sean A e K "xp y B e Kp x m . Demostraremos que
(A B )' - Bf Af

www.FreeLibros.com
112 MATRI CES

Si C = AB, entonces

cti " aih K i ~ a¡i b u + ai2 b2j +. ,. + aip bpj


es el elemento de la fila / y de la colum na i de Ct = (AB)f.
Los elementos b ljt b 2}, . . bpj de la columnaj-sima de B, son los de la fila / de Bf
Análogamente, an , a i2.......... aip son los elementos de la columna i-sima de Af
entonces, el elemento de la filaj y de la columna i de BfA* es

b li a¡i + b V an + - - - + bpj aip = aik bkj


En consecuencia.

(AB)Í = BÍA Í

Ejem plo 4-5.

La trasposición verifica ( A ') ' = A. Teniendo en cuen t a este resultado y el teorema


anterior, calculamos (B<A )Í, en el caso del ejemplo 4-4.

(B‘A)‘ = A '( B ') '= A 'B =( o V j i : \ f l

4.S. MATRICES SIMETRICAS Y ANTISIMETRICAS


4.5.1. Matriz simétrica

Una m atriz cuadrada es simétrica si y sólo si es igual a su traspuesta.


A e K "xn es simétrica o A = Af o a „ - n .. w.- w.-
y “/i vj
En R3*3, la matriz

1 -1 0
-1 2 3 J es simétrica
0 3 0

4.5.2. Matriz antisimétrica

Una m atriz cuadrada es antisimétrica si y sólo si es igual a la opuesta de su traspuesta.


A e K n x " es antisimétrica o A = - A t ^ a iJ= - a ji Vi V/
Los elementos de la diagonal de toda m atriz antisimétrica son nulos, pues
A es antisimétrica =^au ~ - a u . Vi=> 2 a „ = 0 , V / ^ fl„ = 0 t W

www.FreeLibros.com
MATRI CES SIMETRICAS Y ANTISIMETRICAS 113

La matriz
O 1 -2
A = ( —1 O 3
2 —3 O / es antisimétrica

Ejemplo 4-5.
Demostraremos las siguientes propiedades:
i ) El producto de toda m atriz por su traspuesta es una m atriz simétrica.
En efecto:

( A A y ^ i A * ) * A ( = AA(
Luego, por ser igual a su traspuesta,
AA* es simétrica
Observamos que no es necesario que A sea cuadrada para que existan AA* y A*A, las
que son, en todos los casos, matrices cuadradas.
i i ) La suma de toda matriz cuadrada y de su traspuesta es simétrica.
Sea A e K nxn. Se verifica que
(A + A í) í = A* + (A*)* = Af + A ~ A + Af
Es decir, A 4- A* es simétrica.
iii) La diferencia de toda matriz cuadrada con su traspuesta es antisimétrica.
Si A e K "xn, entonces, aplicando propiedades anteriores, se verifica
(A - A f) ( - A( - (A ()f = A* - A = - ( A - A*)
En consecuencia, A — A 1 es antisimétrica.
iv) Toda matriz cuadrada es la suma de una matriz simétrica y de una matriz
antisimétrica. j
A e K ',xn =* A + A 1 es simétrica y A - A* es antisimétrica =*— (A + A*) es

simétrica y — (A — A*) es antisimétrica => A = — (A + A f) + - - (A— Af) es lasuma


2 2 2
de una matriz simétrica y de una antisimétrica.

Ejemplo 4-6.
Sean A e K nx,! una m atriz simétrica, X e K ” xl y Y e K " x l . Desarrollaremos el
producto (X —Y / A (X —Y).
Teniendo en cuenta que la trasposición es una trasformación lineal, la distributividad
del producto respecto de la suma y que X*AY es del tipo 1 X 1, o sea, simétrica,
tenemos

www.FreeLibros.com
114 MATRI CES

(X - Y )' A (X - Y) = (X f - Y ') (AX - AY) - X (AX - X (AY - Y £AX + Y '.W -


= X fAX (X 'A Y )' - Y*AX i- > 1AY -
= X*AX - Y tA t(X t) t - Y fAX + Y(AY =
- X £AX - Y'A X - Y tÁ X + Y (AY =
= X 'A X - 2 Y tA X + Y tA Y

4.6. MATRICES TRIANGULARES

La matriz A e K "xn es triangular superior si y sólo si i > /' =0.


En R 3x3
1 -2 3 \
0 0 2 es una matriz triangular superior.
0 0 5 1
Análogamente
Ae Krtxnes triangular inferior si y sólo si i < / =>a¡¡ = 0.
El lector puede dem ostrar que el conjunto S de las matrices triangulares superiores o
inferiores de (K "Xf,>+ , K, .) e s u n subespacio de KMXn.

Ejemplo 4-7.
Efectuamos el producto de las matrices triangulares A y B pertenecientes a R 3x3, tales
que o/y = 0si i > j, a¡j = i + / s i / < / ,b tj = 0 si i > j, b¡j ~ i - 2 / si i </.

/ 2 3 4 \ / - I —3 - 5 \ f —2 - 1 2 —34 \
AB= 0 4 5 0 -2 -4 = 0 - 8 - 3 1
\ 0 0 6/ \ 0 0 -3 I \ 0 0 -1 8 /

Observamos que el producto de matrices triangulares es una matriz triangular.

4.7. MATRICES DIAGONALES

4.7.1. Concepto

La matriz A e K ,,x" es diagonal si y sólo si i ¥=j =>a¡j = 0.


Toda matriz diagonal tiene nulos los elementos que no figuran en la diagonal.
Para denotar que A es una matriz diagonal, escribiremos

www.FreeLibros.com
MATRI CES TRIANGULARES 115

«! O . . . O
O o2 •• • o
A= = diag (a 1 ,a-2, . . . , a n)

c O O ... an

En particular, en Knxn, I y N son matrices diagonales.


Si todos los elementos de la diagonal son iguales, o sea, si a¡ = a, Vi, entonces la matriz
diagonal se llama escalar. Siendo A una matriz escalar, se verifica
A= al

4.7.2. Propiedad

El conjunto S de las matrices diagonales de (K "x” , + , K , .) es un subespacio de Knx", y


su dimensión es n.
La demostración se propone como ejercicio.

4.7.3. Propiedad

El conjunto S de las matrices diagonales de Knxn es un subanillo de (K "xn, + ,.).


Para demostrar esta afirmación es suficiente probar que el producto de matrices
diagonales es una ley de composición interna en S.

4.8. MATRICES IDEMPOTENTES EINVOLUT1VAS

4.8.1. Concepto

Una matriz cuadrada es idem potente si y sólo si es igual a su cuadrado.


A e K nxn es idem potente o A2 - A

verifica A2 = A, es decir, es idempotente.

Una matriz cuadrada es involutiva si y sólo si su cuadrado es la identidad.


A e KnxM es involutiva o A2 = I

La matriz A = es involutiva, pues A2 = =1

www.FreeLibros.com
118 MATRI CES

4.10.3. Propiedad
El producto de dos matrices ortogonales es ortogonal.
A y B son ortogonales => AB es ortogonal
En efecto:
(AB) (AB)4 = ABBfA( = AIA* - AA* = I
por traspuesta del producto y 4.10.2.
Análogamente es
(AB)'(AB) = I
En consecuencia, por 4.10.2. resulta AB ortogonal.

Ejemplo 4-10.
Toda matriz
cos a -s e n a
°\
sen a cos a donde a e R
0
0 0 i/
es ortogonal.
En efecto:

eos a -s e n a 0 \ ¡ c o s a sena 0
AA* = | sen a co sa 0 -s e n a c o sa 0
0 0 1 / \ 0 0 1

4.11. MATRICES HERMITIANAS

4.11.1. Matrices complejas

(Cnxm , + , R , .) y (Crtxm, 4-, C , .) denotan los espacios cuyos elementos son las matrices
complejas del tipo «x m, sobre el cuerpo de los reales y de los complejos, respectivamente.

-/ 1+i 2 \
1 es una matriz compleja del tipo 2 X 3.
/ -2 3 -2 (/

Matriz compleja conjugada de A e Cnxm es la matriz B e Cn*m tal que by = a¡¡


O sea, dada una matriz, su conjugada se obtiene sustituyendo cada elemento por e
complejo conjugado.

www.FreeLibros.com
MATRIZ HERMITIANA 119

Para denotar la m atriz conjugada de A, escribiremos A.


Si A es la matriz anterior, entonces

\-i -2
1)
3 + 2i j

Diremos que A y A son matrices conjugadas, una de la otra, pues A = A.


Dado_el espacio vectorial (C'ixm , +, R , .), la función / : Cnxm -> cnxm definida por
f (A) = A es una trasformación lineal, puesto que se verifica
i ) la conjugada de la suma es igual a la suma de las conjugadas,
ii) la conjugada del producto de un escalar por una matriz es igual al producto del escalar
por la conjugada de la matriz.
El lector puede demostrar que / es un automorfismo.
Se verifica que la traspuesta de la conjugada de cualquier matriz es igual a la conjugada de
su traspuesta, o sea
a' - á*
Para designar esta matriz, escribiremos A*.
En el caso ya tratado es

A* = í \ - i -2 ]
\ 2 3 + 2i /

El operador * satisface las siguientes propiedades:


1 (A*)* = a

2. (A + B)*= A + B * ^ (A + B)* = A* + B* = A* + B*
3. (A B)* - B* A*

Para demostrar esta afirmación es necesario probar que la matriz conjugada de un


producto es igual al producto de las conjugadas.
Sean A e C nxp y B e C J5Xm. Si C = AB, entonces el elemento genérico de C es
p
c ij j aik bkj

y teniendo en cuenta que el conjugado de una suma es la suma de los conjugados y que el
conjugado de un producto es el producto de los conjugados, se tiene
p ___
ca = a¡k H j

O sea
AB = Á B

www.FreeLibros.com
120 MATRI CES

Retom ando nuestro propósito


(AB)* = ÁB* = (Á S)f =WA* = B* A*

4.11.2. Matriz hermitiana


La matriz A e Cnxn es herm itiana si y sólo si es igual a la traspuesta de su conjugada.

A es hermitiana « A = Á í «, A = A * o f f ¡ j= í/¡ Vi V/.

Los elementos de la diagonal de toda matriz hermitiana son números reales, pues
A es hermitiana =*au = a¡i a e R.

La matriz
/ 1 -i 2+i
A= ( i -2 - 3 - 2 i | es hermitiana
\ 2 — z —3 + 2/ 3

Toda matriz simétrica y real es hermitiana, ya que verifica ay = aj{ = áj¡7

Ejemplo 4-11.
Si a e C y A e C " xm , entonces (a A)* = a A*.
En efecto:

( a A *) - a A 1 = ( a Á )í ~ a A f = 0íA*

Ejemplo 4-12.

Dadas las matrices X = ( ^ ) yA= [ ) , calculamos


\ 1 + i f \ 1 - i 2 /

i ) X*X = (1 1 - i) ^ .j = 1 + (1 - 0 (1 + () = 1 + 1 - i2 = 3

• o x 'A x ^ 1

Ejemplo 4-13.
Si H = { A e C 3X3/ A es h e rm itia n a } , entonces H no es un subespacio de
(C3 x 3 , + , C , .), ya que H no es cerrado para el producto por escalares.
En efecto:

www.FreeLibros.com
PARTICION 121

/ e (.: y A=

/ 1 -1 + í
iA =
( —1
1 - i -2 i 3i
0 —2 / 1 ^ H , puesladiagonalno esr

El lector puede comprobar que H es un subespacio de (C3x3, + , R , .).

4.12. MATRICES PARTICIONADAS

4.12.1. Submatrices de A e Kn x

Eliminando r filas y s columnas de la m atriz A e K " xm se obtiene una submatriz de A,


que denotaremos así:
A ( í i , i 4, ■- . , i r | A , / 2 i . . . ,/ ,)
donde /', es el número de la primera fila eliminada,/ , es el número de la primera columna
eliminada, etcétera.
Si eliminamos las filas indicadas en

an a 2 a 4 $
■Cht—^ 2—^23—^ í— & T
a 31 8.2 O-n a ;S
2—#43—ííj ¡t—<?; y
(

entonces

Si se mencionan las filas y columnas que se conservan, la notación es

4.12.2. Partición de una matriz


nxm
Sean A e K xm , n - v x + v ^ y m - Mi + Mí >y consideremos las submatrices
A n = A [1, 2 ,. . Ui 1 1 , 2 , . . . , Mi]
A i2 = A [1, 2 , . . . , v x l^ i + 1, Mi + 2 , . . m]

www.FreeLibros.com
122 MATRI CES

A21 = A [ v í + l , V i + 2 I 1, 2, . . .,Mi]
A 22 “ A + l , ^ i + 2 ,. . n lMi + 1,Mí + 2 ,. . .,m j
Ah A 12
Escribiremos A= y diremos que A está particionada en cuatro submatrices
' A2i A22 /
o bloques. Las descomposiciones n = v x + v 2 y rn = l¿i + fh se denominan esquemas de la
partición para filas y columnas, respectivamente.
Por ejemplo, la partición de A que se indica a continuación

/ 1 -1 0 3 0 —4 \
2 3 3 2 1 0
= 2 2 1 1 1 3
-3 0 0 3 1 2 4
1 0 2 -2 3 /
l --1 0
corresponde al esquema
n = V\ + ^2 = 2 + 3
m = Mi + íh = 2 + 3+2
y se obtiene

A- / ^ 12 ^ 13
\ A2i A22 A23
donde cada bloque A e s un elemento de la m atriz particionada.
En general, siA e K ,lxm, n ~ + v2 + . . . + vry m = Mi + M2 + • •■>+ entonces
las submatrices Aycon / = 1,2, . . ., r, / = 1, 2 ,. . ., s son loselementos de Aparticionada en
bloques, y se escribe
An A t2 . , . A |,
A2i A22 . . • A2s
A= ‘

Ari Ar2 A,

4.12.2. Operaciones con matrices particionadas

I. Adición
Sean A y B matrices en K "xm y los esquemas de partición n s* v l + v 2 + . . . + v r,
m = Mi + Ih + • ■ ■ + Si A = (Ay) y B - (By) son las notaciones de A y B particionadas,
entonces es
A + B = (A u + B¿J)
c o n / = 1 ,2 , . . . , r y / = 1 ,2 , . . .,5.

www.FreeLibros.com
ESPACIOS FILA Y COLUMNA 123

II. Producto por escalares


Se define de la siguiente manera:
“ A = (a Ay)

III. Multiplicación
Sean las matrices A e Knxp , B e Kpxm y los esquemas de partición
n- Vi + v2 + . . . + vr , P = 7r1 +7r2 + .. . + 7 T í ,m = jLíl+M
2 + . . . + jLís

osea, A = (Aife) y B = (BW) donde / = 1 ,2 , . . r, j = 1, 2, . . 5 y k = 1, 2, . . t.


El producto en forma particionada es

A B = ((2 i A lk Bw )

Ejemplo 4-14.
Consideremos las matrices A y B particionadas como se indica

í 1 0 0 2\
An A 12
0 1 1 2 1
A2i A 22
V -l -1 2 3 2 Ì

0 1
/ I 1\
1 20 2
Bu B12
1 -2-1 2
2 1
3 -1 b 21 b 22

1 \o0 0 /
El producto en forma particionada es
, An A j2
CO

Bu + A i2 An B 12 + A 12
AB =
A2i A22 B2j b 22 B„ + A 22 B 2 i A 2i B l 2 + A 22
Así:
1 0 / i 0 \ 1 2'
/° \ í~ l l\
C n - A n B u 4- A i2 B2i — + 1 2
0 1 \o 1 / \ l 2 1 ./ V o i /

-G:)*(: i
2
)-/
r \ 1 7/
Análogamente se calculan C J2 , C22 y C2J , que son los restantes bloques del producto.

4.13. ESPACIOS FILA Y COLUMNA DE UNA MATRIZ

Sea A e K'1Xfn y sean los esquemas de partición r t = i' i , m = : l + l + . . . + l.

www.FreeLibros.com
124 MATRI CES

Entonces A queda particíonada en matrices columnas y se escribe


A - ( A n A12 . . . A iwl ) —( A i A2 . . . A,,,)

donde k¡ e K" y / = 1 , 2 , . .m.

Definición
Espacio columna de la m atriz A e K "xm es el subespacio de K" generado por las m
columnas de A.
Denotamos el espacio columna de la m atriz A mediante SC(A). Los elementos de Sc(A)
son todas las combinaciones lineales de las m columnas de A.
O sea

SC(A) X oij A j I oij e K


;=1

Definición
Rango columna de una matriz es la dimensión del espacio columna de dicha matriz.
p c (A) se lee: rango columna de A, y es
iOc (A) = dim S c(A )

Si A es una m atriz nula, el espacio columna es un vector nulo y el rango columna es 0. Si


A # Ñ, entonces el rango columna de A es el máximo n úmero de vectores columnas
linealmente independientes.
Análogamente se definen el espacio fila y el rango fila de una matriz A, y se indican
mediante Sp(A) y P f (A), respectivamente.
SF(A) es el subespacio de Km generado por las n filas de A y dimSp(A) es el máximo
número de vectores filas linealmente independientes de A.
La partición de A € Knxm en vectores filas se indica así:

AiN
A2
, donde A¡ e Kw ;i - 1, 2 , . . ., n .

Si es necesario, para referirnos a la submatriz columna de lugar r escribiremos A r, y para


indicar la submatriz fila de lugar k, pondremos A*.. El punto en A r significa que el primer
índice varía desde 1 hasta n. En el segundo caso, el punto indica que el segundo índice es
variable desde 1 hasta m.

Ejemplo 4-15.
Determinamos los rangos fila y columna de la matriz

www.FreeLibros.com
RANGO 125

2 0 -1 4 \
A= 0 4 1 -2
\1 2 0 1/
Observamos que las dos primeras filas son linealmente independientes y que la tercera

es combinación lineal de aquéllas: A 3> = “ A j. + - A 2 .. En consecuencia, el rango fila


2 2
de A es 2. El lector puede com probar que el m áximo núm ero de vectores columnas
linealmente independientes de A tam bién es 2.
Ambos rangos, fila y columna, coinciden.

4.13.2. Propiedad

Los rangos fila y colum na de toda m atriz son iguales


Hipótesis) A e K " Km
Tesis) P c (A) = P f (A)
Demostración)
Si A = N, entonces p c (A ) = 0 = p F(A).
Sea A ^ N y pc(A ) = r. Probaremos que p F(A) = r.
Podemos suponer,sin pérdida de generalidad, que las r primeras columnas de A son L.I.
/ ü \\ a i 2 • • • d \ r Æl >r + 1 • • • a ï , r + h ■ ■ ■ ^ l m

A— I Üi2 ■. ■ Oír tfj,r + l ■■■ + ■• ■ aim

a n \ a n2 ■ ■ ■ & n r a r t , r + 1 • • • & n ,r+ k ■ ■ ■ a nm

Particionando A en vectores columnas es


A = (A .i A_2 ••• A r . . . A.f+ft . . . A.m)
Por lo supuesto, las r primeras columnas de A constituyen una base de SC(A). En
consecuencia
A.r+fe =o¡.\k A ., + ct2k A.2 + . . . + a rk A.r =
r
= ,12 a # A J (1) V k = 1 , 2 , . . ., m-r

Sea { e í t e J t . . ., e m } la base canónica de Km . Como las filas de A son vectores de


Km , se verifica que
m
A ¡ = g ¡ i e i + a ¡2 ©2 + • • • + a ¡ r e r + o ¡ r + 1 ® r + 1 + • • • em — 2 æ,t, e /j (2 )
h =1
V / = 1 ,2 ,...,«

www.FreeLibros.com
126 MATRI CES

De (1) y (2) resulta


A i, ~a,'i ej + a¡2 e2 + . . . + <*,> er +
+ ( a u a n + 0¡21 a ¡2 + . . . + <xr i atr) e r+l +
+ (a l2 an + a 22 a i2 + . . . + a r2 air) er+2 +
+ ...+

(^1 ,m-r ^ il 0C2 m.f- a 12 + • • • + &r,m-r &ir ) ®m


= a ¡! (e! + 0 -1 , er + | + a 12 er+2 + .. . + « 1>m.r e m) +
+ a i2 (e2 + a 21 er+1 + a 2 2 er+2 + . . . + a 2>m.r em) +

+ a¡r (er + a rl er+ x 4- <xr2 er+ 2 + . .. + a r^m ,r em) -


= ¿rfl e’i + a ¡2 e*2 + . . . + a ir eV
En consecuencia { e’j , e ’2j . . e ’r } es un sistemade generadores de las filas de A.
Si P f(A ) = r \ entonces es
(3)
ya que el máximo núm ero de filas L.I. de A es menor o igual que elcardinal detodo
sistema de generadores de las filas de A.
Análogamente, razonando a partir del rango fila de A, se prueba que
r < r ’ (4)
De (3) y (4) resulta
r = r’
O sea
P c (A) = P f (A)

4.13.3. Rango de una matriz

Hemos demostrado que los rangos fila y columna de toda matriz son iguales. Este
número se llama rango de la matriz. Para denotar el rango de una matriz A, escribiremos
P (A)

Definición
Rango de una matriz es su rango fila o su rango columna.
p (A) = Pc(A ) = P f(A )
Dos matrices traspuestas tienen igual rango, pues

P (A) = Pe (A) = P f(A ') =p (A ')


Si I e K n *rt, entonces es p (I) = « , ya que los n vectores columna de I son linealmente
independientes.

www.FreeLibros.com
RANGO 127

4.13.4. Rango del producto

Propiedad
El rango del producto de dos matrices es m enor o igual que el m ínim o de los rangos.
Hipótesis) A e K "x p ,B e K p5<m
Tesis) p (AB) < m ín j p (A) , p (B) }
Para probar esta afirmación, demostraremos que el rango del producto es menor o igual
que los rangos de cada una de las dos matrices, es decir
p (A B) < p (A) y p ( A B ) < p ( B )
Consideremos B particionada en los p vectores filas, y efectuemos el producto en forma
particionada

p
AB = a¡ i a{i ... a ip B; j lì

P
an i ani . . . anp¡ 1»J \j= !aV B"

Este resultado nos indica que las filas de AB son combinaciones lineales de las filas de B
con coeficientes en A. En consecuencia, todo vector del espacio fila de AB pertenece al
espacio fila de B, y por consiguiente

SF(A B )C S F (B)

Entonces, resulta
dim SF(AB) < dim SF(B)

Luego
p (A B )< p (B ) (1)
Esta relación nos dice que el rango del producto de dos matrices es menor o igual.que el
rango de la segunda matriz.
Además, teniendo en cuenta que la trasposición no modifica el rango y (1), es
p (AB) = p (AB)‘ = p (B f A() < p (A ') = p (A)
Luego
p (A B )< p (A ) (2)

Es decir, el rango del producto de dos matrices es menor o igual que el rango de la
primera matriz.

www.FreeLibros.com
128 MATRI CES

De (1) y (2) resulta


p ( A B ) < m ín j p ( A ) , p ( B ) | I

4.13.4. Invarianza del rango

Propiedad '

Si en un producto de dos matrices una de ellas es no singular, entonces el rango del ¡


producto es igual al rango de la otra matriz.
Hipótesis) A e K nxm
B e K nx” esnosingular

Tesis) p (B A) = p (A)
Demostración) Sabemos que
p ( B A ) < p (A) (1)
pues el rango del producto es m enor o igual que el rango de cada factor.
Como B es no singular, existe B"1 tal que BB'1 = B"1 B=I
Ahora bien
A = IA = (B_1 B)A = B"1(BA)
Por consiguiente
P (A) = p [B"1 (B A)]
Y por rango del producto, es
p (A )< p (B A ) (2)
De (1) y (2) se deduce que
p (B A) - p (A)
Análogamente se demuestra que si B e K mxm es no singular, entonces
p (A B) = p (A )
Una consecuencia inmediata del teorema anterior es la siguiente: si A e K nxm, P e K " xn y
Q e K mxm son dos matrices no singulares, entonces
P (P A Q) = p (P A) - p (A)

4.13.5. Propiedad

Una matriz A e Knxn es no singular si y sólo si su rango es n.


A e K "x " es no singular p (A) = n
Io. A e KriXfl es no singular => 3 A-1 / A A"1 = I=>
=>p (A A"1) = p (I) => p (A) = n

www.FreeLibros.com
OPERACIONES ELEMENTALES 129

Hemos utilizado la propiedad 4.13.4., teniendo en cuenta que A"1 es no singular, y


p (I) = «.
2o. Sea A e K ” Xfl tal que p ( A ) = n. Entones las n columnas de A son linealmente
independientes, y constituyen una base del espacio columna de A.
Sea la trasformación lineal / : K" -+K ", definida por la matriz A respecto de la base
canónica en K".
Si x e K ", entonces e s / ( x ) = Ax.
Como el espacio columna de A es el subespacio de Kn generado por las n columnas de A,
y éstas son linealmente independientes, se verifica que
dim Sc (A) = n

Por otra parte, I (f) = SC(A), es decir, la imagen de la trasformación lineal es igual al
espacio columna de A. Luego
dim I (f) = n
y, en consecuencia,/es sobreyectiva.
De acuerdo con 3 . 9 . 4 . / es biyectiva, y por lo tanto A es no singular.

4.14. OPERACIONES Y MATRICES ELEMENTALES

4.14.1. Operaciones elementales

Operaciones elementales sobre una matriz A e K” xm son las siguientes:


1. Permutación de dos filas entre sí, o de dos columnas entre sí.
2. Adición de una fila a otra, o adición de una columna a otra.
3. Multiplicación de una fila o de una columna por un escalar no nulo.
Si se efectúan operaciones elementales sobre las filas o columnas de una matriz, se obtiene
otra m atriz; pero demostraremos que su rango no varía .

4.14.2. Propiedad

Toda operación elemental sobre las filas de una matriz A e K nxm puede realizarse
premultiplicando A por una matriz no singular del tipo n xn.
Antes de probar esta afirmación definimos Ehfe e K nxn mediante
1 ú i —h / \ j = k
0 si / =£h v / =£k
Por ejemplo, en K4 x4 es
0 0 0 0
0 0 1 0
0 0 0 0
0 0 0 0

www.FreeLibros.com
130 MATRI CES

1. La perm utación de las filas i y j puede obtenerse premultiplicando A por la matriz no


singular

P y - I - E « - E » + E U + En e n K " :
En K4x4 es

10 0 0
0 0 10
P 23 ~
0 10 0
0 0 0 1
Py se deduce de la matriz identidad perm utando las filas o columnas i y j.
Particionando A en vectores filas, se tiene

}
,i 0
0 1 /A . /A i
/ am / a2
0 ___ 0 _______ 1 ____ 0
A; A;
P kA =

0 ____ 1_______ 0 _____0 A, Af


_■

\k ¡
i0 0

En consecuencia, la premultiplicación de A p o r P¡j permuta las filas i y /.


Además, como en ? u se tienen exactamente n vectores columna linealmente indepen­
dientes, es p (P¡j) = n, y en consecuencia
P¡j es no singular
2. La adición de la fila i a la fila / puede obtenerse premultiplicando A por la matriz no
singular

Ay = I + E,-f
En K4x4 es

10 0 0
0 10 0
0 1 1 0
0 0 0 1
Ay se deduce de la m atriz identidad al sustituir 0 por 1 en el lugar (J, í).
Se verifica

www.FreeLibros.com
MATRI CES ELEMENTALES 131

/ A1\ / Al \
/1 0 °\ f
/ A2 1
0 1 0 ; :
A¿ A;
AyA - i _0_ 0_1 d -.0
i
.0_-0_1 i _0 Af + Ay
< •
lo 0 , : 1
1/
\ Anl u /

O sea, la premultiplicación de A por Ay suma a la fila / la fila i.


Se sabe que las filas de la matriz identidad-.ei, e 2 , . . e f>. . . , e„ constituyen un
conjunto linealmente independiente. En consecuencia
í e i >e 2 >■■■»e ¿> ■• .,e ;- + e ¿ , . . .,e „ f
es un conjunto linealmente independiente, o sea
P (Ay) = fi
Luego
Ay es no singular

3. El producto de la fila i de A p o r el escalar a i= 0 puede obtenerse premultiplicando A


por la matriz no singular
MKcO-I+Ca-OEy

E nK 4 *4 es
1 0 0 0’
0 10 0
M3 (a) =
0 0 a 0
0 0 0 1
Mj(a) se obtiene m ultiplicando por a el elemento de lugar (/,*) de la matriz identidad.
Se verifica

Ai Ai
h o A2 A2
0 1
M ^a). A
_ 0_ 0 _ a _ 0 A,- a

0 0
An i I

Como p (M¿ (a)) = n, es M,- (a) no singular.

www.FreeLibros.com
132 MATRI CES

Análogamente, se demuestra que toda operación elemental sobre lascolumnas de una


matriz A e K nxm puede obtenerse posmultiplicando A por una matriz no singular del tipo
m xm .

Definición

Las matrices que realizan las operaciones elementales sobre las líneas de una matriz se
llaman elementales.

Como las matrices elementales son no singulares, de acuerdo con 4.13.4., se deduce que el
rango de una matriz no varía frente a las operaciones elementales.

Ejemplo 4-16.
Mediante operaciones elementales determinamos el rango de A, siendo
/I 2 1 -1

A=[ 1 1 ° 2
lo 1 2 - 1
\2 2 -1 2 .

Efectuamos, sucesivamente, las operaciones elementales que trasforman las primeras


filas y columnas de A en vectores canónicos:
0 0 0 A la segunda columna de A se le sumó la primera multiplicada
-1 - 1 3 por - 2 .
1 2 -1 A la tercera columna de A se le sumó la primera multiplicada
—2 - 3 4 p o r —1. .
A la cuarta columna se le sumó la primera.
0 0 0 A la segunda fila de la matriz anterior se le sumó la primera
- 1 -1 3 multiplicada p o r - 1 .
1 2 -1 A la cuarta fila se le sumó la primera multiplicada por - 2 .
-2 -3 4
0 0 0
1 1 -3 Se multiplicó la segunda fila de la matriz anterior por - 1 .
1 2 -1
- 2 —3 4,
0 0 0 A la tercera columna se le restó la segunda, o sea, se le sumó la
1 0 0 segunda m ultiplicando por —1.
1 1 2 A la cuarta columna se le sumó el triplo de la segunda.
- 2 -1 - 2

0 0 0 A la tercera fila se le restó la segunda.


1 0 0 A la cuarta fila se le sum ó el duplo de la segunda.
0 1 2
0 -1 - 2

www.FreeLibros.com
EQUIVALENCIA 133

1 0 0 0 A la cuarta columna se le restó el duplo de la tercera.


0 1 0 0
0 0 1 0
0 0 -1 0

1 0 0 0 A la cuarta fila se le sum ó la tercera.


0 1 0 0
0 0 1 0
0 0 0 0

Esta matriz tiene tres columnas linealmente independientes, o sea, su rango es 3, y


como es igual al de A, resulta
p (A ) = 3

4.15. EQUIVALENCIA DE MATRICES

4.15.1. Concepto

Sean A y B dos matrices pertenecientes a K " x m. Diremos que B es equivalente a A si y


sólo si B puede obtenerse efectuando un núm ero finito de operaciones elementales sobre A.
El sím bolo B ~ A se lee: “B es equivalente a A” .
La equivalencia de matrices es reflexiva, simétrica y transitiva, o sea, es una relación de
equivalencia en Kn x m.
La matriz
1 0 0 0
0 1 0 0
B=
0 0 10
0 0 0 0
obtenida a partir de A, en el ejemplo 4-16, mediante un núm ero finito de operaciones
elementales, es equivalente a A y recibe el nom bre de forma canónica de A. La forma
canónica de la m atriz nula en Knxm es dicha matriz.

4.15.2. Propiedad

Toda matriz no nula A e K "xm de rango r es equivalente a la matriz

B=
N(n»-r)xr N ( m . r j X( „ _ r j
donde B es la forma canónica de A.
La demostración es sencilla, y el lector puede hacerla basándose en la definición de
matrices equivalentes y teniendo en cuenta lo realizado en el ejemplo 4-16.

www.FreeLibros.com
134 MATRI CES

Si A es una matriz no singular en Knx", entonces su forma canónica es la matriz


identidad.
A e Knxn es no singular o F.C.(A) = I
El sím bolo F.C.(A) se lee: “ forma canónica de A” .

4.15.3. Propiedad

Las siguientes proposiciones son equivalentes:


i ) A ~B
ü ) P (A) = p (B)
iii) F.C.(A) = F.C.(B)

1. A ~ B = * p ( A ) = p (B )
Si A ~ B , entonces B puede obtenerse efectuando un número finito de operaciones
elementales sobre A, y de acuerdo con lo afirmado en 4.14.2. el rango se conserva. En
consecuencia es p (A) = p (B).

2. p ( A ) = p (B) => F.C.(A) = F.C.(B)


Es inmediato por la propiedad 4.15.2.

3. F.C.(A) = F.C.(B) =>■A ~ B


Por la propiedad 4.15.2. es F.C.(A) ~ A y F.C.(B) ~ B. Como A y B son equivalentes a
una misma m atriz, resulta A ~ B.

4.15.4. Propiedad

Si A e K " x m, entonces existen matrices no singulares P e K nxn y Q e K mxm tales que


F.C.(A) = PAQ.
En efecto, la forma canónica de A se obtiene premultiplicando A por un número finito de
matrices elementales del tipo n x n y posmultiplicándola por un número finito de matrices
elementales pertenecientes a K mx m. Como tales matrices elementales son no singulares, sus
productos P y Q, respectivamente, también lo son, y a que las matrices no singulares forman
grupo multiplicativo.

4.15.5. Propiedad

Toda matriz no singular es un producto de matrices elementales.


En efecto, si A e K nxn es no singular, entonces su forma canónica es la identidad, y de
acuerdo con 4.15.4. existen P y Q no singulares (am bas son productos de matrices
elementales) tales que

PAQ = I

www.FreeLibros.com
DETERMINA CION DEL RANGO 135

En consecuencia
P"1PAQQ”1 = F l Q " !
Luego
A = P_1 Q”1
El segundo miembro es un producto de matrices elementales, ya que la inversa de toda
matriz elemental es una m atriz elemental o un producto de éstas.

4.15.6. Propiedad

Las matrices A y B pertenecientes a K "Xfn son equivalentes si y sólo si existen matrices


no singulares P e K nx" y Q e K mxm tales que B =PAQ.
1. A ~ B => F.C.(A) = F.C.(B) =►3 K, L, M, R no singul ares / KAL = MBR =>
=> B = K A L R " 1 => B = P A Q donde P = M-1 K y Q - L R"1
Hemos aplicado 4.15.3., 4.15.4., premultiplicado p or M '1 y posmultiplicado por R"1.

2. Supongamos que A y B son matrices n x m , y que existen P y Q no singulares tales que


B = P A Q. Por 4.15.5., P y Q son productos de matri ces elementales, l oque significa que B
se obtiene efectuando un número finito de operaciones elementales sobre A. En
consecuencia, A ~ B.

4.16. METODO DE GAUSS JORDAN PARA DETERMINAR EL RANGO

El m étodo que exponemos a continuación nos perm ite determ inar el rango de una matriz
mediante un número finito de operaciones elementales del tipo: multiplicación de una fila
por un escalar no nulo y adición de una fila a otra. Señalamos que se opera exclusivamente
sobre las filas de la matriz, y que además el m étodo se hace extensivo a la determinación de
la inversa de una m atriz no singular y a la resolución de sistemas lineales.
Esencialmente, mediante las operaciones elementales indicadas, se trata de formar el
máximo número posible de vectores canónicos linealmente independientes. Tal número es,
precisamente, el rango de la matriz.
Sea A una matriz no nula. Se elige cualquier elemento distinto de cero, al cual se lo llama
pivote. Para fijar ideas, sin pérdida de generalidad, supongamos que el pivote es au =a, y sea
la matriz

® b c ....
d e f ....

de la que se han indicado sólo algunos elementos.

www.FreeLibros.com
136 MATRI CES

Dividiendo la primera fila por a =£ 0, o sea, multiplicándola por el recíproco del pivote, se
obtiene

b c
1
a a
d e f ....

En la etapa siguiente, se reducen a cero los restantes elementos que figuran en la columna
del pivote. Entonces, a la segunda fila se le suma la primera multiplicada por - — . De este
a
modo, d se trasforma en 0, e se trasforma e n e - — , y / s e trasforma en / - — . Se obtiene
a a

Si a 31 = g, en la misma etapa, al sumarle a la tercera fila la primera multiplicada por - - , g


a
g- b
se trasforma en 0. Ysi¿z32 = h, entonces h se trasforma en h ---------
a
En las dos etapas descritas se ha obtenido un vector canónico en la columna del pivote.
Observamos en la m atriz dada que todo elemento que no figure en la fila, ni en la
columna del pivote, forma con éste una diagonal de un “ rectángulo” . Los otros dos vértices
determinan lo que llamaremos la “ contradiagonal” . Por ejemplo, asociado al elemento e se
tiene

b c

e f

Como el trasformado de e es e ------- , operaremos así: el trasformado de cada elemento


a

www.FreeLibros.com
GAUSS JORDAN
137

que no figure en la fila y columna del pivote es igual a la diferencia entre dicho elemento y el
producto contradiagonal dividido p o r el pivote.
En las etapas siguientes se reitera el procedim iento eligiendo un pivote que no figure ni en
las filas ni en las columnas de los pivotes anteriores. De este modo las operaciones
elementales indicadas preservan los vectores canónicos.
Él procedimiento se termina cuando no es posible ob tener ningún pivote (distinto de
cero) en las condiciones ya señaladas.

Ejemplo 4-17.
Mediante el m étodo de Gauss Jordán, obtener el rango de

El pivote puede ser cualquier elemento no nulo. Si algún elemento es la unidad, se lo


elegirá como pivote para evitar cálculos.
Procedemos de acuerdo con el siguiente esquema:

f f i — 2 -— 1 - 1 El trasform ado de a 23 = 0 es
1-— 1 -- 0 2
1. 1
0 1 2 -1 0
2 1
2 -1 2

1 2 1 -1 El trasformado de a43 = —3 es
0 -1 -1 3
0 C O -2 -1
1
0 - 2 - -3 4

1 0 -3 1 El trasformado d e a 44 = 2 es
0
0
0
0
1
0
t -2

1 --2
2 - i ^ = 0

1 0 0 7
0 0 1 2
0 1 0 —5
0 0 0 0

El procedimiento ha terminado, ya que no es posible elegir un nuevo pivote.


El rango de A es el número de vectores canónicos, o sea, 3. El cuarto vector columna

www.FreeLibros.com
138 MATRICES

es combinación lineal de los tres primeros, pues es la suma de los productos de ellos
por 7, - 5 y 2, respectivamente.
Si en alguna etapa intermedia se eligiera com o pivote un elemento no nulo que figure
en la fila de algún pivote ya seleccionado, la columna que entonces se trasformó en un
vector canónico dejaría de serlo.
Resumimos la mecánica del procedimiento:
1. Se elige com o pivote cualquier elemento no nulo de la matriz dada, y se divide por él
la fila correspondiente.
2. Los restantes elementos de la columna del pivote se trasforman en ceros.
3. El trasformado de todo elemento que n o figure en la fila ni en la columna del pivote se
determina siguiendo la regla del “rectángulo” , es decir, es igual a su diferencia con el
producto contradiagonal dividido por el pivote.
4. Se reitera el mecanismo eligiendo como pivote un elemento no nulo que no pertenezca
ni a las filas ni a las columnas de los pivotes anteriores.
5. El núm ero de vectores canónicos linealmente independientes es el rango de la matriz.

4.17. INVERSION DE MATRICES POR GAUSS JORDAN

El m étodo explicado en 4.16. perm ite determ inar la inversa de una m atriz no singular. Sea
A e K'lx'1 no singular; a su derecha se escribe ladentidad
i en KrtXr*.

A I

La matriz así indicada es del tipo n x 2 n , y a ella se le aplica el m étodo de Gauss Jordán
hasta lograr que A se trasforme en la identidad. La identidad que figura en el esquema
anterior queda trasformada en una m atriz B e K "*n .

A I
I B

La trasformación de A en la identidad siempre es posible, ya que, siendo A no singular, su


rango es n, y en consecuencia es posible obtener n vectores canónicos linealmente
independientes mediante las operaciones elementales indicadas en 4.16. Si los vectores
canónicos obtenidos no resultan ordenados de m odo que constituyan una matriz diagonal, la
identidad se logra m ediante una adecuada perm utación de filas de la matriz completa. La
m atriz resultante a la derecha es la inversa pedida.
Las operaciones elementales realizadas sobre las filas de A, que la convierten en la
identidad, son las mismas que las efectuadas sobre las filas de I y que la trasforman en B. Si E

www.FreeLibros.com
INVERSION
139

es el producto de las matrices elementales correspondientes a las sucesivas operaciones


elementales, entonces se verifica que
E A = I (1) y E I = B (2)
De (2) resulta E = B, y considerando (1) es
BA= I
Luego
B = A"1
Como en general- no se sabe a priori si A es inversible, igualmente el m étodo puede ser
utilizado. En el caso en que A no tenga inversa no será posible formar la identidad, por ser su
rango menor que n. Es decir, con el m étodo de Gauss Jordán se determina la existencia de la
inversa o no, y en caso afirmativo se la obtiene.

Ejemplo 4-18.
Utilizando el m étodo de Gauss Jordán, obtenemos la inversa de
/I 0 “ 1\
A= J 1 2 -2
\ 2 -1 1/
Aplicamos el procedim iento mencionado a la matriz del tipo 3 X 6 que se forma
escribiendo la identidad 3 X 3 a la derecha de A, y convertimos a ésta en la identidad

® 0 - 1 1 0 0 Los pivotes han sido señalados en


1 2 - 2 0 1 0 cada etapa.
2 -1 1 0 0 1 El trasform ado de 3 es:

1 0 - 1 1 0 0 3 (-1X-1), 3 _ 1 = !
0 © -1 -1 1 0 2 2 2
0 - 1 3 -2 0 1

1 0 -1 1 0 0 El trasform ado de a2$ = —es:


0 1 ~— “l i o
2 2 2
0 0 ( 1 ] - i l l
\2 j 2 2 tiA
=± + 1
2 10
1 0 0 o i l 2
5 5

0 1 0 - i l l
5 5

0 0 1 -1 1 1
5 5

www.FreeLibros.com
140 MATRI CES

La matriz inversa de A es

2
/o i
5 T
i
-i 2
5 5
2
-1 1
5 5

Ejem plo 4-19.

Determinamos la inversa de

ffi -1 1 1 0 0
0 0 1 0 1 0
1 • 2 1 0 0 1
1 -1 1 1 0 0
0 0 (1) 0 1 0
0 3 0 -1 0 1
1 -1 0 1 „1 0
0 0 1 0 0
0 (3) 0 -1 0 1
2 1
1 U 0 -1
3 3
0 0 1 0 0
„1 1
0 1 0 0
3 3

Para trasformar A en la identidad, es necesario aún perm utar las dos últimas filas de
toda la matriz. Resulta

www.FreeLibros.com
INVERSION 141

1 2_ —i 1
3 3
1
0
y 3
0 1 o 1

4.18. INVERSION DE MATRICES POR PARTICION

Consideremos una m atriz no singular M e K n xn, La particionamos en cuatro bloques


según la descomposición
n ~ p + q para filas y para columnas

/ A B
M=
' C D
En consecuencia A e Kp xp, D e K QXQ, B e Kpxíí y C e K q x p .
Supongamos que D sea no singular. Proponemos el mismo esquema de partición para la
inversa de M:

/ X Y
M”1 =
\ Z U
donde X, Y, Z y U son matrices a determ inar y del mismo tipo que A, B, C y D,
respectivamente.
La matriz D, que hemos supuesto no es singular, se elegirá de modo tal que su inversa
pueda obtenerse con facilidad.
Siendo M"1 1a inversa de M, debe verificarse que
A B \ /X Y \ ¡lp N\

C D/ ' Z U ' ' N qI !

O sea
A X + B Z - I P (1) A Y + B U = N (3)
CX + D Z=N (2) c Y + D U = 1Q (4)
De (2) se deduce
D Z " —C X
Y premultiplicando por D '1
Z ~ —D-1 C X (5)

www.FreeLibros.com
142 MATRICES

Sustituyendo (5) en (1)

A X - B D"! C X = Ip
Por distributividad

(A - B D '1 C) X = lp
Luego

X = (A —B D"1 c y l (6)
De (4)

d u = i9 - c y
En consecuencia

U = D"1 - D"1 c Y (7)


Sustituyendo en (3)

A Y + B D~' - B D ’ 1C Y = N
Por distributividad y /trasposición

(A — B D"1 C) Y = - B D"1
PremultipÜcando por ( A - B D '1 C )'1 = X, resulta

Y “ - X B D"1 (8)
Las relaciones (6), (5), (7) y (8) permiten la determinación
respectivamente, en función de los datos y de la inversa de D.
Ejemplo 4-20.

Utilizando el m étodo de particiones, invertir la matriz

/I -1 0 0
M=[ * 11 0
2 1 1 0
\1 -2 0 1

Particionamos en cuatro bloques del tipo 2 X 2, y consideramos

V . - D .
\o 1
Resulta

l . X = ( A - B D - > e ) '1 = (A —B C)"1

www.FreeLibros.com
INVERSION

Calculamos

Obtenemos la inversa de ésta por Gauss Jordan

© -1 1 0
-1 0 0 1

1 -1 1 0
0 0 1 1

1 0 0 -1
0 1 -1 -1

Luego

www.FreeLibros.com
144 MATRI CES

Con los cuatro bloques obtenidos formamos la matriz inversa

0 -1 1 0
- í -1 1 0
1 3 -2 0
-2 -1 1 1

4.19. CAMBIO DE BASE Y SEMEJANZA DE MATRICES

4.19.1. Matrices de pasaje

En el espacio vectorial (V, + , K , .), de dimensión finita, consideramos las bases


[v]= IV ! , V 2 , . . . , V „ } y |V’] = V( * ! , V *2 , . . v*„ }
Definimos dos endomorfismos:
1. g : V -» V tal que g (v;) “ v¿ V/ = 1, 2, . . n

Expresando cada imagen como combinación lineal de la base [v], se tiene

0)
La matriz P de esta trasformación lineal respecto de la base [v] en cada espacio es

P = (* /)'
P recibe el nombre de matriz de pasaje de la base [v] a la base [v’].
2. h : V -> V tal que h (v’;-) = v;- V/' = 1, 2, . .n. ,
Procediendo como en el caso anterior es

vj = A P U y’i (2)

p’= es la matriz de h respecto de la base [v’jen cada espacio, y diremos que es la


matriz de pasaje de la base [v’j a la base [v].

4.19.2. Propiedad

Las matrices de pasaje P y P ’ son inversas entre sí.


Demostraremos que P P* = P’ P = I.
Teniendo en cuenta (1 ) y (2 ) escribimos

www.FreeLibros.com
CAMBIO DE BASE
145

Como
Vj = 0 Vj + 0 v2 + . . . + 1 \ j + . . . + 0 v„

resulta que el único térm ino no nulo de la sumatoria anterior se obtiene para i = /, y vale 1
Luego
n
H—1 Pik p ’kj = ô <7
S

Por definición de producto de matrices y de matriz identidad resulta


PP’= I
Análogamente se deduce que
P’ P = I
En consecuencia, ambas matrices de pasaje son inversibles, y cada una es la inversa de la
otra.

4.19.3. Trasformación de coordenadas

Sea P la matriz de pasaje de la base [v] a la base [v’],


y sea x e V.
Demostraremos que
X,v, - P X j v.j
donde X[v] y X[v.j son las matrices de las coordenada s de x e V en las bases [v] y [v’]
respectivamente.
En efecto, expresando a x como combinación lineal de cada base y teniendo en cuenta (1)
de 4.19.1., escribimos
n n n
x = j S 1 ai>v,} = jS 1 Ci'i Á Pi}V¡"

Pero
n
x= 2 Vi

Por la unicidad de la C.L. es

~ p¡j cCj Vi = 1, 2, . . n

Por definición de producto de matrices, de las relaciones anteriores se deduce

www.FreeLibros.com
146 MATRI CES

O sea

Xt v r P X [v.| (3)
Y como P es no singular, premultiplicando por P"1 resulta

X [V. , = P - ‘ X [V| (4)


(3) y (4) se llaman fórmulas de trasformación de coordenadas.

4.19.4. Matrices de una trasformación lineal y cambio de bases.

Sea / : V -> W una trasformación lineal de m atriz A e K mxn respecto de las bases
[ v] ~ í v i , v 2, . . .,v„ } e n V y [ w ] = ( w , , w 2 , . . , w m ) enW.
Si se efectúa un cambio de base en cada espacio, entonces la misma trasformación lineal/
está caracterizada por una matriz B e Kmxn respecto del nuevo par de bases fv’] y [w’l.
Sean P e K.nxn y Q e K”1X"1 las matrices de pasaje de [v] a [v’J y de [w ] a [w’].
Demostraremos que las matrices A y B de la trasformación lineal /re sp e c to de los dos
pares de bases verifican

B = Q '1 A P
es decir, son equivalentes.
Para ello consideremos el diagrama

A
V, [v] W, [w]

P
Q

V, [v’] W, [w’l

Se verifica que
l . Xj vj = P X [v.j por 4.19.4. (3)
2 Y(w] = Q Y [w,, por4.1 9 .4 . (3)
3. Yí,„t -
(w] - A X[v] por ser / trasformación lineal de matrizA respecto de las bases [v] y
[w].

4. Y[w.j - B X|v ,, pues / e s trasformación lineal de m


atriz B respecto de las bases [v’] y
[w’].

De 2., 3. y 1. se deduce
Y [W]
. . . . -n -O'
m Y (wj = Q- 1 A X [v) = Q-‘ A P X(v,|

www.FreeLibros.com
SEMEJANZA 147

De esta relación y de 4 resulta


B = Q 1 AP

0 sea, B ~ A.
R e c í p r o c a m e n t e , si A y B son matrices equivalentes en K mx", y V y W son e s p a c io s
ectoriales sobre K, de dimensiones n y m , respectivamente, entonces A y B caracterizan a
una misma trasformación l i n e a l / : V -> W respecto de dos pares de bases.

4.19.5. Matrices semejantes

Consideremos el caso particular del endom orñsm o

/ : V —>V
siendo dim V = n y A la matriz d e /re sp e c to de la base [v] = [w] en cadaespacio.
Si se efectúa un cambio a la nueva base [v*] = [w’] con matriz de pasaje P = Q, entonces se
tiene
B = P '1 A P
donde B es la matriz d e /re sp e c to de la nueva base [v*].
Las matrices A y B de Kn x n , que representan el mismo endomorfismo respecto de las
bases [v] y [w], se llaman semejantes.
Diremos que
A es semejante a B o 3 P no singular / B = P '1 A P
La semejanza de matrices es una relación de equivalencia.

Ejemplo 4-21.
Sea la trasformación lineal / : R 3 —*R3 definida por
f(a,b,c)-(a + b , a - b + c , a - c )
1 ) Determinamos la m atriz A de / , respecto de labase canónica [v] en cada espac
io
/ ( 1 ,0 ,0 ) = (1, 1, 1) = le ,+l e 2 + l e 3

/ ( 0 , 1 , 0 ) = (1, —1 , 0 ) = 1 ej - 1 e2 + 0 e 3

/ ( 0 , 0 , 1) = (0, l , - l ) = 0 e t + 1 e2 - l e 3
Entonces
¡\ 1 0
A = ( 1 -1 1
\l 0 -1

ii) Obtenemos la matriz P de pasaje de la base canónica [v] a la base


[v’] = f ( l , 1 , 1 ) , ( 1 , 1 , 0 ) , ( 1, 0, 0)}
( 1, 1 , 1 ) = l e , + 1 e2 + 1 e 3

www.FreeLibros.com
148
MATRI CES

( 1 , 1» 0 ) = 1 e, + 1 e2 + Oe3

(1, 0 ,0 ) = 1 e, + 0 e2 + 0 e3

Luego

/ 1 i i
P= 1 1 0
\ 1 o o

m\ " T f n “ ad°a,e<: ; : i Ultad


OS CakUlam0S “ ™ ‘riZ B de la base
Se sabe que

B = P"1 A P
Empleando Gauss Jordan resulta

Luego

h » ?)/: ; :
1 -1 0/ \i o 1/ \ 1 o o

1 1 1\ /o 1 1
1 1 0 ]= [ 1 —1 o
1 0 0 / \ 1 2 0

El lector puede verificar este resultado obteniendo directamente B, como en i).

www.FreeLibros.com
TRABAJO PRACTICO IV

2
4-22. Calcular la m atriz— A — 2 B, sabiendo que

y B

4-23. Determinar la m atriz X = / X ^ ) sabiendo que X + ( ^ M =I


\.z u f \ 2 -2 /
4-24. Sean las matrices

1 1\ / 1 -1 -3
1 B= 0 0
0
1 2/ \ -2 2 -3

Obtener: A2 , A B C y B fAt ,
4-25. Desarrollar
i ) (A + I) (A —I)
ii) (A + B) (A - B)
Sabiendo que A, I y B son matrices cuadradas n x n.
4-26. Siendo

PQ q2

-P2 ~PQ

Calcular A2 .

www.FreeLibros.com
150 MATRI CES

4-27. Obtener A2 sabiendo que

A= 0
0

4-28. Dada la matriz

A=

calcular A2 , A3 , A4 , etcétera, y vincular los elementos resultantes con los términos de


la sucesión de Fibonacci: 1, 1, 2, 3, 5, 8, 1 3 , . . . donde, a partir del tercero, cada uno
es igual a la suma de los dos anteriores.
4-29. Demostrar que A (B C) = (A B) C, sabiendo que los productos indicados existen.
4-30. Demostrar po r inducción completa que

4-31. Sabiendo que

demostrar

4-32. Resolver la ecuación A2 + X2 = I, donde A, X, l'son matrices 2 X 2 y

4-33. Siendo B e Knxn, C e K " xn, C2 = N y B C = C B, demostrar


A = B + C ^ A ftti = B** ( B + (fc + 1) C )

4-34. Sabiendo que en K nxn se verifica X A = I y A Y = I, demostrar que X = Y.


4-35. D eterm inarlas matrices X e R2x2 tales que X2 = N .
4-36. Demostrar que si A y B son matrices diagonales en K "x'!, entonces ABes diagonal y
AB = BA.

www.FreeLibros.com
TRABAJO PRACTICO IV 151

4-37. Demostrar
A A Í =N = > A = N

4.38 Demostrar que si A y B son matrices idem potentes y permutables en K”xn , entonces
A B es idempotente.
4.39 Demostrar que si una matriz es simétrica, idem potente y con algún elemento nulo en la
diagonal, entonces la fila y la colum na de dicho elemento son el vector nulo.
440. Demostrar que si A es idem potente y B es ortogonal, entonces B* A B es idempotente.
441. Demostrar
A2 = A a A + B = I=>B2 = B a AB = BA = N

442. Demostrar
A + B = I A A B = N = >A y B son idempotentes

443. Demostrar
A B = A a B A = B => A, B, A f, B* son idempotentes

444. Demostrar que si A es simétrica, entonces Bf A B es simétrica cualquiera que sea


B e K” x".
445. Sean A y B dos matrices simétricas en K nxn. Demostrar
A B es simétrica 0 A y B son permutables

446. Demostrar que la m atriz A e K nx" es involutiva si y sólo si (I - A) (1 + A) = N.


447. Demostrar que A y B son permutables si y sólo si A —al y B - a l son permutables,
cualquiera que sea el escalar a.
448. En K3 x 3 se consideran una matriz cualquiera B y A tal que a¡¡ = 1 Vi V/
Analizar las filas de AB y las columnas de BA.
449. Demostrar que si A y B son no singulares y permutables, entonces sus inversas son
permutables y sus traspuestas también lo son.
4'50. Demostrar que si A es una matriz diagonal y todos los elementos de la diagonal son no
nulos, entonces A es no singular y su inversa es la m atriz diagonal formada por los
inversos de tales elementos no nulos en la diagonal.
4-51. Demostrar que si A es no singular e idem potente, entonces A = I.
4-52. Verificar que las siguientes matrices forman grupo multiplicativo.

www.FreeLibros.com
152 MATRI CES

4-53. Mediante una partición adecuada efectuar el producto


2 0 0\ /O 0 0 1
1 0 0 \ / 0 0 2 0
0 0 0 1 j 1 1 0 0 0
0 0 2 2/ '0 1 0 0

4-54. Determinar una base del espacio fila de

4'55. Demostrar que si A es no singular y B A = N, entonces B = N.


4-56. Siendo A e K nxn no singular y X e Y matrices en K nx 1 tales que A X = Y, entonces c
X = A"1 Y.
4-57. Demostrar que si A y B son matrices de K nxn tales que A B = N , entonces A = N i
B = N o A y B son singulares.
4-58. Determinar los rangos de
-2 4 -2 -2
A = f —1 —1 1 0 | B
-2 1 2 - 1

4-59. Obtener, si existen, las inversas de

/ 1 -1 0\ / 1 -1 0
A= 0 1 -1 B= | 0 1 -1
1 0 1/ V —1 0 2

4-60. Sea

2 3
1 4
2 -7

Verificar que p (A) = p (A A*)


4'61. Demostrar que el rango de la suma de dos matrices es m enor o igual que la suma de su
rangos.
4-62. Demostrar las siguientes propiedades relativas a la traza de matrices en K" x n :
i ) ír(A B )= tr (BA).
ii) tr (ABC) = tr (CAB) = tr (BCA), o sea, la traza no varía frente a permutaci
cíclicas.

www.FreeLibros.com
TRABAJO PRACTICO IV 153

iii) Si C es ortogonal, entonces tr (C*AC) = tr A.

4-63. Sea A una m atriz idem potente en R " xn, y sea X un vector no nulo de R n que verifica
AX *=aX, con a e R. Demostrar que a = 0 o a s s l.
4-64. Si A e Rnxn es involutiva y X e R " es no nulo y verifica AX = aX, entonces a = 1 o
a ~ -1 .
4-65. Sea X e R " x 1. Se define el escalar X (X raya) mediante
— i n
X=- 2
n i=i 1
Determinar las matrices A e Rnxn que verifican
i ) X( A X = X2
Ü)XÍ AX = nX2

iii) X^ A X = £ ( X i - X f
í=i

4-66. Sea T e JC™” estrictamente triangular superior. Demostrar que


(I _ t )- i =1 + T + T 2 + . . . + T fl_l

4-67. Sean

'0 0 1 0
. . ° ° 0 1 .
A 1i o o o I y b=
, 0 1 0 0

donde C y D son matrices 2 X 4 . Verificar que A B


\ C
4-68. S e a /u n a trasformación lineal de V en V caracterizada por la matriz A.
Sabiendo que A verifica la relación A3 + A2 - A + I = N, demostrar que / es no
singular.
4-69. Determinar la inversa de
1 -v 0 0
A=
0 1 -p 0
0 0 1 -p
0 0 0 1

4-70. Sean A = | ) y B e R2 x2.Dem ostranA y B son permutables o B = a A + J31


0 3,

www.FreeLibros.com
154 MATRI CES

4-71. Las matrices A y B de Km xm son tales que A y (A B - B A) son permutables.


Demostrar que

A” B ~ B A " = n A'1-1 (A B - B A) V«eN

4-72. S e a / : R3 -» R2 una trasformación lineal definida por


f ( a , b , c) ~ (a + b - c , a - tí)

i ) Hallar la matriz de /re sp e c to de las bases canónicas en R 3 y en R2.


ii ) Obtener las matrices de pasaje de las bases anteriores a las bases
[V] = 1 ( 0 , 1 , 1 ) , ( 1 , - 1 , - 2 ) , ( 1 , - 1 , - 1 ) )

[w’] = 1(1, 3 ) , (0, - 2 ) |

iii) Calcular la matriz B d e /, respecto del nuevo par de bases.

www.FreeLibros.com
Capítulo 5

DETERMINANTES

5.1. INTRODUCCION

En esta sección se define axiomáticamente la función determinante de orden n y se


demuestran las propiedades que se derivan de tales axiomas. Se encara después el problema
de la existencia del determ inante y se llega al desarrollo por los elementos de una fila. A
continuación, y sobre la base del concepto de inversiones de una permutación, se da el
desarrollo del determ inante en función de los elementos de la matriz, y se demuestra la
igualdad de los determinantes de dos matrices cuadradas y traspuestas. Se encara el
desarrollo de los determinantes por los elementos de una línea cualquiera, y se demuestra el
teorema relativo al determinante del producto de dos matrices. Después de exponer el
concepto de matriz adjunta de una matriz cuadrada, se da un m étodo para invertir matrices
no singulares.

5.2. DETERMINANTES

En lo que sigue, supondremos que K es tal que 1 + 1 =£0, y si A e K " x", escribiremos
A = (Aj Á2 . . . A„), donde A¡ con 1 < / ' < « denota la columna de lugar i de la matriz
cuadrada.

Definición
Determinante de orden n es toda función
D : Knxn -» K
que verifica
1 . D ( A , . . . a ; + a ; \ . . a „ ) - d ( a i . . . a ; . . . a „ ) + d ( a .1. . a ? . . . a »)
cualquiera que s e a / = 1, 2 , . . . , n.

2. D (Aj . . . a A ; . . . A „ ) = f tD ( A 1 . . . A , . . . A „)
para todo / = 1, 2 , . . .,n.

www.FreeLibros.com
156 DETERMINANTES

3. A¡ ~ AJ + ! => D (A i . . . A; Aj + 1 . . . A „) - O
cualquiera que sea / = 1, 2 , . . n - 1.

4. D (I) = 1 .

Haremos algunas aclaraciones acerca de la notación usada y de los axiomas propuestos en


la definición. La función D asigna a cada matriz n x n un escalar llamado determinante de la
matriz. Así, el sím bolo D (A) se lee “ determinante de A” , y es un elemento de K.
Los axiomas 1. y 2. caracterizan a D como una función lineal respecto de cada columna
de la matriz.
El axioma 3. establece que si dos columnas consecutivas de una matriz son idénticas,
entonces su determ inante es nulo.
El axioma 4. expresa que el determ inante de la identidad vale 1.
Si

an an • ■■ a \n
a 2l a 22 ■ ■ ■ @2n
A=

an1 a n2 ■■■ flfin

escribiremos
Û11 d \1 . . . d \ n
a21 Û22 • • • a2 n

&n 1 0 -n 2 ■■■ a nn

Ejemplo 5-1.
La función D : K2*2 ->K definida por
a b
D (A) = = ad - be
c d
es un determinante.
En efecto:

a b’ + b”
1. = a (d ’ + d ,T) - ( b , + b ”) c = ( a d , - b ’c) + ( a d ’’ - b ”c) =
c d’ + d”

a b’ a b”
+
c d’ c d”
aa b a b
2. a a d - b a c ~ a .( a d - b c ) =a
ac d c d

www.FreeLibros.com
r

PROPIEDADES 157

3_ a a =a c - a c = 0
c c

4- D(I)= | o i = u ~ 00=1

Análogamente lo es la función D : K 1x 1 -►K definida por


os en
d e la D (A) = \a\ = a

im na
5.3. PROPIEDADES DE LA FUNCION DETERMINANTE
ticas,
5.3.1. Teorema

Si se perm utan dos columnas de una m atriz, entonces los correspondientes determinantes
son opuestos.
Razonamos inductivamente:
i ) Las columnas que se perm utan son consecutivas.
Sea A = (A i . . . Ay Ay+i . . . An)

Por 3. es
D (Aj . . . Ay + A/+i Ay+i + Ay . . . An) 0
Aplicando 2. se tiene
D (Aj . . . Ay Ay+i . . . A n) + D iA J_ _ ^ A r -Ar^ r A í í ) - +

4- D_( A i . ■. —Ay+i . . . A ny + D (A i . . . Ay+ i A¡ . . . A n) —0


Los dos térm inos centrales son nulos por 3.
Luego
D (A i . . . Ay Ay+i . . . A „) = —D (Ai . . . Ay+j Ay . . . A„)

ii) Suponemos válida la propiedad para h - j = k y la demostramos para h - j = k + \


D (A! . . . Ay Ay+1 . . . Ah . . . A„)

= —D (A i . . . Ay+1 A y . . . A h . . . A „ ) P o ri)

= D (A j . . . Ay+1 Ah . . . Ay . . . A„) Por hipótesis

= — D (A , . . . A h Ay+i . . . Ay . . . A „) Por i)

5.3.2. Teorema

El determ inante de toda matriz que tenga dos columnas idénticas es nulo.
ii= j a A¡ = Ay => D (A i A2 . . . A ¡. . . A y. . . A „) = 0

www.FreeLibros.com
158 DETERMINANTES

En efecto, perm utando tales columnas idénticas por 5.3.1. es

O sea n)

D (A) = - D (A) pues A* = A,


Luego

1 D (A) + 1 D (A) = 0
En consecuencia

(1 + 1) D (A) = 0
Y como l + l ^ o , resulta

D (A ) = 0

5.3.3. Teorema

Hem os aplicado 1.3.1. y el axiom a 2. de la función determ inante.

5.3.4. Teorema

linfa! de“ ante n° S¡ a ™ “ » - u » Se le suma una com bi nación

/ ^ ^ D ( A 1 . . . A J. . . . A , . . . A „ ) = D ( A 1 . . . A ; . . . A f c + a A . . ,
A plicando los axiom as 1. y 2., y teniendo en cuenta 5.3.2., resulta ' " '
D (A, • ■ • A , . . . A * + a A / . . . A „ ) =

l >I A' ' A - -A». (A, . . . A ; . . . A / . . . A„ ) =


= D ( A. . . . A j . . . A k . . . A n) + a .0 =
= D ( A 1 ■■■Aj . . . A k . , . A„)

Ejemplo 5 -2,
Sea

/ 1 ° l\
A- ^ 1 ° / eR3X3

www.FreeLibros.com
PROPIEDADES

Calculamos D (A) de la siguiente manera:


i ) A la tercera columna le sumamos la primera multiplicada por - 1 .

1 0 1 1 0 0
D.(A) = -1 1 0 = -1 1 1
2 1 -1 2 1 -3

i i ) A la primera columna le sumamos la segunda.

1 0 0
D (A) = 0 1 1
3 1 -3

iii) A la tercera columna le sumamos la segunda multiplicada por - 1

1 0 0
D (A) = 0 1 0
3 1 -4

iv) De la tercera columna extraemos el factor - 4 .


1 0 0
D (A ) = ( - 4 ) 0 1 0
3 1 1

v ) A la primera columna le restamos el triplo de la tercera.


1
0 0
D (A) = ( - 4 ) 01 0
0 1 1

vi) A la segunda columna le restamos la tercera


(1 0 0
D (A) = ( —4 ) '0 1 0
0 0 1

Por 4. resulta
D (A) = ( - 4 ) . 1 = - 4

Ejemplo 5-3.

S i a e K y A e K " * " , entonces


D ( a A ) = a " D (A)

www.FreeLibros.com
160 DETERMINANTES

En efecto:

D ( a A ) = D [ a (A 1 A2 . . . A „ ) ] =

= D(o: Aj a A2 . . .a A n) =

= a n D (A)

Ejemplo 5-4.

Sl Al«x^2 ’ ‘ A" son vectores columnas de K n tales que D (Ai A2 . . . A„) 0 y


B e K" x es combinación lineal de aquéllos, o sea

B = ; ? i * íA ‘' con x ¡ e K , i = 1 , 2 ,. . .,n,


entonces

„ D(At . . . B . . . A „ )
D (A )
donde B es la columna de lugar j.
En efecto:

D (Ai . . . B . . . Am) = D (A , . . . ¿ x¡ . An) =

- * i D (A t . . . Ai . . . A„) + * 2 D (Ai A2 . . . A2 . . . A „) +
+ xj D (Ai . . . Ay . . . A „) + . . . + Xn D (Aj . . . An . .. A„) -
: Xj D (A)

Luego

. _ D ( A i ...B ...A „1
D( A)

5.3.5. Teorema

D ( A , A i ' * AAa ) = o " A " S° n U n e a l m e n t e dependientes en K n, entonces e

Siendo por hipótesis Í A t l Aa........ A „ | un conjunto Unealmente dependiente algún


vector, digamos A;-, es combinación lineal de los restantes, o sea

A,- = S « / A f

En consecuencia resulta

D ( A ) - D ( A j A2 . . . . S ft¡ AI. . . . A „ ) = 0

www.FreeLibros.com
EXISTENCIA 161

El teorema contrarrecíproco expresa


D (A) =£0 => A i, A2 , . . A„ son L.I.

Por consiguiente
D (A) 0 => { A j , A2 , . . A„ ) es una base de K"

5.4. EXISTENCIA DE D

Definiremos los determinantes p o r inducción sobre n. Sea A e K " x", Para cada
(/ /)e l n X I„ consideramos la m atriz A ( / 1f) del tipo (n - 1) X (n - 1), que se deduce de
A al suprimir la fila i y la columna;.
/
d\\ .. . . . . a in \

ay

an 1 an 1 ... a,

Denotaremos con Ay al producto de ( - l ) w por el determ inante de A (i \j), o sea


A„ = ( - 1 ) w D ( a ( í I/))
El determinante Ay recibe el nom bre de cofactor del elemento (/, /') de la matriz A.

1 2 3
Por ejemplo, si A = J 1 0 —2
2 1 -3

entonces los cofactores de los nueve elementos de A, son


0 -2 1 -2
'“w

A n —( —l) 2 = - 1 , etcétera.
to

II
1!

>

1 -3 2 -3
Probaremos la existencia de D procediendo inductivamente.
i ) Sean n = 1 y A = (a) e K 1x 1. Definiendo
D : K l xl - »K mediante
D (A) = a
se satisfacen los axiomas propuestos en 5.2.
ii) Supongamos definido D : K(" 1>x(fl 1) K.
Esto significa que se satisfacen los axiomas 1 2 . , 3. y 4.

www.FreeLibros.com
162 d e t e r m in a n t e s

Daremos ahora una expresión para ]a función * j


determinante de orden » - i. Para ello definimos, para cada fla / = 1 , 2 . ^ 6XPenSaS deI

D : K n x n ~>K
mediante la asignación

D (A ) = . § 1 au A ¡í (i)
donde A¡j « ( - 1 ) « d f A ( í / / ) ) .
0 sea

„ , D ( A ) - s „ A fl + a ¡2 A „ + . . . + a¡n A¡n V ; e l „ .
Probarem os que la definición (1 ) satisface los axiom as nom brados
!• D (A, A2 . . . A ' k + A”fe . , . A „ ) =
n "
~ j S x aa A y = aik A ik + X a¡j Ay =
j&h

= (a ¡k + a \ ) A ik + 2 a a =
j^ k w u

2. D ( A i Á2 . . .a Ak . . . A „)= 2 a .. a -= an A 4. v
n) Á a* Av a atk Aik 4 ^ 2 ay Atf.

puede extraerse en virtu d de lá U p ó t e Í t d u c t í v a “ ^ u ta “ " 3 ^ 1U8" * ^ faC‘° r qUe


D ( A 1 A2 . . . a Af t . . . A„) = a D ( A i A 2 Aft ^

3 . A » = A * +1 =>D( A, . . . A * A* + 1 . . . A „ ) =
n

=¡St aH A ü = a ik A ik + a¡i h+1 At h+ í =

- (““ D1)ÍA(í1D*}!
ath ( A (;+(_1)i"
Ik ) ) ++1 a**+■D^ i*4 c D14+
(_!)<♦**, ( A>
)()/ 1*) J = 0 =

4- D W = , 4 ( ~ l ) w 5i í D ( l ( ¡ | / ) j =

- ( - I ) ‘+i Su D f I (/ [ /) J= 1

Entonces, Vn e N , V/ e l n , la función

D : Knx” K

www.FreeLibros.com
UNICIDAD 163

definida por

D ( A ) = . |i a í ; Ai;-

es un determinante de orden n.
La fórmula anterior corresponde al desarrollo del determinante por la i-sima fila y expresa
que todo determinante es la suma de los productos de los elementos de la fila i por sus
correspondientes cofactores.

5,5. UNICIDAD DEL DETERMINANTE

Expondremos primero algunos conceptos relativos a permutaciones e inversiones de una


permutación, sin entrar en detalles de demostraciones. Después hallaremos una expresión del
determinante en términos de los elementos de la m atriz, de modo tal que se satisfagan los
cuatro axiomas de la definición.

5.5.1. Permutaciones

Sea el intervalo natural inicial = {1 , 2 .

Definición
Permutaciones de I„ son todas las funciones biyectivas de I„ en sí mismo.
Si o : I„ -*■I n es una perm utación, entonces O queda caracterizada por el conjunto
ordenado de las imágenes
a~ {a(l) a ( 2 ) . . . ff(tt))
Como o es biyectiva, existe la perm utación inversa de a, a 1 : ln ■ + definida por

a 1 ( O = / si o ( j ) ~ i
Como la composición de funciones biyectivas de I„ en l n es también una función
biyectiva, resulta que la composición de dos permutaciones de I„ es una permutación de l n.

Permutación idéntica es la función identidad en I„.

5.5.2. Trasposiciones
Sea ¡ e l —i • Trasposición /-sima de la perm utaciónO es la permutación

Ja : I/j ln

definida por
i o ( i) si i + } a / =£/ + 1

www.FreeLibros.com
164 DETERMINANTES

Por ejemplo, dada la permutación de l 5

a = ( 2 1 3 4 5)
entonces es

2CT “ (2 3 1 4 5)
Toda trasposición de una perm utación intercambia dos imágenes consecutivas y deja fijas
a las restantes. ,
Se verifica que la perm utación inversa de una trasposición es una trasposición. Por
ejemplo, la permutación inversa de la trasposición
20 = (2 3 1 4 5)
es la trasposición !

2'¿ = (3 1 2 4 5) i
Se demuestra que si o es una perm utación de I„ y n > 1,entonces existe un número finito I
de trasposiciones cuya composición es la identidad.
Por ejemplo, si i
o = (2 3 1 4 5) ;
entonces

2(j = (2 1 3 4 5) ¡

y !
l2 0 = ( l ° 2 ) 0 = ( i 2 3 4 5) = I !

5.5.3. Signo de una perm utación

Sea a una permutación de l n . El símbolo e(ff) denota el m ínim o número de


trasposiciones que trasforman a o en la identidad. Convenimos en que e (I) = 0.
Diremos que o es par si e (a ) es par. Si e (a ) es impar, entonces a es impar.
A cada perm utación a de I„ se le puede asignar el signo + si a es par, y el signo menos si
es impar. Tal signo queda caracterizado por ( -- l ) e(0)
Se verifica que dos permutaciones inversas tienen la misma paridad. O sea

(_ !)« «*> = ( ~ i ) e « ^ >

5.5.4. Teorema

Los determinantes están unívocam ente determinados por los axiomas 1., 2., 3. y 4. El
determinante satisface la expresión
D (A) = S ( ~ l ) e (CT) ao0 M • • -aa{n) n

donde la suma se realiza sobre todas las permutaciones de I„.

www.FreeLibros.com
UNICIDAD 165

Considerem os A = (A , A2 . . . An) e K " x". Si E j , E2 , . . E rt son los vectores columnas


de la base canónica de K", entonces
n

A2 ~ £ a ¡2 E¡
1=1

A„ = 2 ain E,
í=i
O sea

D (A) = D (A , A i . . . A „) = D ( i a„ E, 2 a ¡2 E , . . . J ain E,)


1=1 1 =1 l-l

Mediante 1. podemos expresarlo como una suma de términos del tipo

D ( a ff( i ) ti E0(1) fla (2),2 Eg( 2 ) . . . a a („),n Ea („))

donde o( 1), o(2 ) , . . o(«) denota una elección de n enteros entre 1 y n.


Por 2. se tienen términos de la forma

# < 7 ( 1 ) , ! a o { 2),2 • • • a a { n ) sn D (ECT(i) E ff(2) . . . ECT(n))

Si algún o asigna el mismo entero a valores distintos i y /, el determinante es nulo en


virtud de 5.3.2. Esto significa que debemos considerar sólo las permutaciones de In.
Luego
D (A) = 2 Í70 (1^1 J 2 . . . n a(n),n L) (E C(1 ) Ea (2 ) . . . ECT(„))

Los vectores canónicos ECT(1), ECT(2 Ea („) constituyen en cada término una
permutación de E j, E2 , . . En . Si e ( a ) denota el núm ero mínim o de trasposiciones
necesarias para obtener la perm utación identidad es

D (E *d) Eaia)- ■■**(»>)■ = ( - 1 y <a) D (Ei E2 . . . E„)


donde ( —l) e(a) es el signo de la permutación.
Por 4. resulta
D (E „(1, E0(2>. . . E „(n)) = ( - 1 ) £<°> D (I) = ( - l ) eí<7)
Por consiguiente es
D (A) = 2 (—l ) eí<7í ü0 (i «0(2),2 ■■■ ao(n),n

Este desarrollo del determ inante no es útil para el cálculo, pero sí lo es desde el punto de
vista teórico.

www.FreeLibros.com
166 DETERMINANTES

5.6. DETERMINANTE DE LA TRASPUESTA

“ k " x" — * - — .
Sabemos que

D (A ) ~~ ^ _ 1 ) eÍCT)fla ( l ) , i « „ ( I ) ,2 ■ ■• a a{n) n

Sea una perm utación de I S i o (j) = k, entonces a 1 (*) = /

ao(j)J=ak,o~l (k)
En todo producto del tipo

ao (i),i a<ji 2 ) t 2 ■■■

cada entero k e \ n figura una sola vez entre los enteros a ( f t P™ • •


puede escribirse así: ^ consiguiente, tal producto

y la suma es

ya que

( - l ) c< °> = (-I)e< cT ')

permutación caracteriza unívocamente a su inversa. ’ a


Por consiguiente, la suma es igual a

2 ^ l > ° a l . a(l )«2, a(2>. . . a n,0(n) = D (A í)

Ejemplo 5-5.

Calculamos, según 5.5.4., el determinante de C = (A B )í siendo

Efectuamos primero
-■íri).

www.FreeLibros.com
DETERMINANTE DE LA TRASPUESTA 167

Entonces
/ 3 -3 -4
C ~ (A B)( - -2 2 0
\ 5 -5 -2
Para obtener los seis términos del desarrollo 5.5.4. podem os aplicar la conocida regla
de Sarros, repitiendo debajo del determ inante las dos primeras filas de la matriz, y
efectuando los productos indicados

D (C) = = 3 . 2 . (-2 ) + (-2 ) . (-5 ) . (-4 ) + 5 . (-3 ) . 0 -


—5 . 2 . ( - 4 ) - 3 . ( - 5 ) . 0 - ( - 2 ) . ( - 3 ) . ( - 2 )
= - 1 2 - 4 0 + 4 0 + 12 = 0

En el caso de un determinante de orden 4, esta regla no es aplicable, y la obtención de


los 24 términos del desarrollo es m uy penosa. En todos los casos de cálculo es
preferible el desarrollo del determ inante por los elementos de una fila o columna,
como se indica en 5.3.5.
En este sentido, primero extraemos el factor 2 de la segunda fila, y después sumamos a
la segunda columna la primera:

3 -3 - 4 3 0 -4
D (C) - 2 -1 1 0 =2 -1 0 0 = 0 por tener una columna de ceros.
5 -5 -2 5 0 -2

El lector puede verificar que


D (C) = D (A B)

Ejemplo 5-6.
Calculamos el siguiente determinante:

D (A) =

A la primera fila le sumamos las dos últimas y extraemos el factor 9


9 9 9 1 1 1
D (A) = 3 5 =9 3 5 1
5 3 5 1 3
A la segunda y tercera columnas les restamos la primera
, 1 0 0
D (A) = 9 2
-4

www.FreeLibros.com
168 DETERMINANTES

Desarrollamos por la primera fila, según 5.3.5.


2 -2
D (A) = 9 . 1 . = 9 ( - 4 - 8 ) = -1 0 8
-4 -2
Teniendo en cuenta que los determinantes de dos matrices traspuestas son iguales, los
axiomas y propiedades relativos a las columnas son válidos para las filas.
En consecuencia, el desarrollo de un determ inante por los elementos de una fila
propuesto en 5.3.5., se hace extensivo a los elementos de una columna. Podemos decir’
entonces, que todo determ inante es igual a la suma de los productos de los elementos de um
línea (fila o columna) por sus respectivos cofactores.

Ejemplo 5-7.
Desarrollamos por los elementos de la primera columna.
1 1 1 1
a c d
D ( A) =
a2 b2 c2 d 2
a3 b3 c 3 d 3 .
Antes de efectuar el desarrollo pedido reduciremos a 0 los tres últimos elementos de la
primera columna, para lo cual restaremos a cada fila la anterior multiplicada pora.

1 1 1
b -a c—a d -a
D (A) =
0 b 2 -a b c2 - a c d 2 -a d
0 b : -ab2 c 3- a c 2 d 3- ad 2

Desarrollando por la primera columna y factoreando


b—a c -a d -a
D (A) = b(b~a) c (c -a ) d (d -a )
b 2(b - a ) c 2 (c -a ) d 2(d -a )
Extrayendo factores en cada columna
1
D (A) = (b - a ) (c -a ) (d -a ) b
b2
El determinante de orden 3 que resulta es del mismo tipo que el primero. Ahora
restamos a cada fila la anterior po r b
1 1 1
D (A) = (b -a ) (c -a ) (d -a ) 0 c-b d -b
0 c2- b c d 2~bd
Desarrollando por la primera columna y extrayendo factores se obtiene

D (A) - (b -a ) (c - a) (d a) ( c - b ) (d -b )

www.FreeLibros.com
DETERMINANTE DEL PRODUCTO 169

0 sea
D (A) = (b - á )( c - a) (d - a )( c - tí) (d ~ b ) ( d - c)
El determinante propuesto recibe el nombre de determinante de Vandermonde, y
considerando la fila de elementos a, b, c y d,su desarrollo es igual al producto de los
binomios que se obtienen restando cada elemento de la misma de todos los que le
siguen.

5.7. DETERMINANTE DEL PRODUCTO DE DOS MATRICES

Demostraremos que si A y B son matrices n «, entonces se verifica que


D (A B) = D (A) D (B)

O sea, el determ inante del producto de dos matrices es igual al producto de sus
determinantes.
Considerando la m atriz A particionada en vectores columnas, se tiene

b 11 b 12 • • • b 1„
¿21 b 22 . . . b 2 n
C = A B = (A 1 A 2 . . . A n)

bni b n2 . . . b nn

A j j = i b i2 A i • ■ ■ y ? ! b jn A i)

Luego

D (A B) = D ( 2 ò yi Ay .2 bj 2 .. . .2 bjn A}) =

= 2 D (^0(1 >,1 Aff( i) 6 a (2),2 Act(2) • • • ^ ( n ) ,n A 0(n) ) =

“ ^ ^<7(1 ),1 b a ( 2),2 • • • ^ ( iì) ,nD (A(j(i ) A(j(2 ) - • • Aff(n)) ■

= £ (— ¿>o(1 J(1 6 0 (2),2 • • ■ ^a(n),n D (A ( A2 . . . Art)

= D (A) 2 ( —l ) et°> ¿0(1 ),i ^o(2 ),2 ■■■&(r(n),n =

= D (A) D (B)

www.FreeLibros.com
170
d e t e r m in a n t e s

5.8. ADJUNTA DE UNA MATRIZ CUADRADA


5.8.1. Definición

- - >— » * - — - — *
Si

I a n a 12 . . . a ln
an <*22 ... a2n

an 1 a n2 . . . ann>

entonces la matriz adjunta de A se denota mediante el símbolo Adj A,


y es

/ An A:
k2 i ••• Anl
A 12 A 22 . . . A „2
Adj A =

A ln A2 „ . . . Ann
Por ejemplo, la matriz adjunta de

- 1 0 2
A=[ 2 1 3
es 1 —2 —3

39 - 5 \ ' 3 -4 -2
Adj A = ¡ - 4 j _2
=[ 9 1 7
-2 7 -1 ,-5 - 2 -1
5.8.2. Propiedad

Sea

rn a \2 a1n

a i2 ... ff;.
A=
donde h¥=i
ah\ a h2 . . .

www.FreeLibros.com
ADJUNTA 171

Sum ando a la fila h la fila i, el determ inante de esta m atriz no varía, es decir
#11 #12 • • • a ln

tuir
an a¡ 2 ... air

D (A ) =

ah l+ a Ü ^ h 2 ^ i2

•ni

D esarrollando el segundo m iem bro po r los elem entos de la fila h, se tiene

D (A ) = .2 {ahj + au) A hj

Entonces
n n
D (A) = 2 ah¡ A hj + .2 a ¡3 A hj

La primera sumatoria es D (A), y en consecuencia

D (A ) = D ( A ) + J i f l f f Aw

Luego

.2 a¡j A hj = 0

Esta propiedad tam bién es válida para columnas. A continuación demostraremos que el
producto de toda m atriz cuadrada a izquierda y a derecha por su adjunta es igual al
determinante de dicha matriz por la identidad.
OS
5.8.3. Teorema

Cualquiera que sea A e K "xn se verifica que


A . Adj A = Adj A . A = D (A) . I
En efecto, aplicando la definición de adjunta de una matriz cuadrada, el producto de
matrices, 5.4. y 5.8.2. se tiene
#11 #12 • •■ #1* ’ A u A 21 • •■ A„i
#21 #22 • •• a 1 n Aj2 a 22 • • • A„2
A Adj A =

&n l #r«2 ■■ ■ a nn Aln A2 n * • A„n

www.FreeLibros.com
172
DETERMINANTES

n n
a H A 2; -
' ' }S x ü lJ
n n
A 2 j • ■■ av A ni

n n
' a n j A nj

D (A ) O ... O
O D (A) . . . O

0 O ... D (A )

1 0 ... 0
0 1 ... 0
= D (A ) = D(A).I

o 0 ... 1
En forma análoga se prueba que

Adj A . A = D (A) I

5.9. INVERSION DE MATRICES NO SINGULARES

d isto to de cerrom0S matóZ “ ÍnVerSÍWe * sól° ■* -> determinante es


Sea A e K nxn.

1. Supongamos que A es inversible. Entonces existe B e K nxn tal que


AB=BA= I
Luego

D (A B) = D (B A) = D (I)
Por determinante del producto y de la identidad es

D(A)D(B) = D ( B ) D ( A ) = I
Resulta D (A) * 0, pues en caso contrario su producto por D (B) sería 0, y no 1.
2. Sea A e K »*" tal que D (A) * 0. Demostraremos que A es inversible

detenriinante ■ * * « * - -

A . Adj A = Adj A . A = D (A) . I

www.FreeLibros.com
INVERSION DF, MATRICES 173

Por hipótesis, el escalar D (A) es distinto de cero, y dividiendo por él resulta


Adj A _ Adj A T
A-F (x r^ (X )
Entonces, por definición, existe A 1 y es
A-l - AdÍ A
D( A)
Se obtiene de este modo otro m étodo efectivo para el cálculo de la inversa de una matriz
110 singular.

Ejemplo 5-8.
Obtenemos la inversa de la m atriz del ejemplo 5-6.
/I 3 5
A= I 3 5 1
V5 1 3

Como D (A) = -1 0 8 , existe A-1.


Primero obtenemos la í '
14 - 4 --22 \* - 4 -2 2
/ 14
- 4 -2 2 14 - - 4 -2 2 14
Adj A =
-2 2 14 - 4 / \ -2 2 14 - 4

Luego
- 4 -2 2 \
1 / 14
A"1 = -22 14
~ 108 \ - 2 2 14 - 4 /

O sea

7 2 11
~ 54 54 54
2 11 7
54 54 ” 54
11 7 2
54 ~ 54 54

Ejemplo 5-9.
Demostramos que los determinantes de dos matrices inversas son escalares recíprocos.
Sea A e K nx'' no singular, es decir, tal que existe A 1.
Entonces se tiene
A A"1 = I

www.FreeLibros.com
174
d e t e r m in a n t e s

D (A A_1) = D (I)
Por determinante del producto y de la identidad es

D ( A ) D ( A ~ 1) = 1
O sea

D (A " ') = [D ( A ) r '


Ejem plo 5 ’10.

qs - ^ S
K ™ ÍCeS Semejanfes determinantes iguaies.
' SlBeK CS SemCJ;1,' te a A - 0 " '« " « » existe P no singular ltaque
B = P '1 A P
Entonces

D (B) = D (P~* ) D (A) D (P)


Como K es conmutativo

D ( B ) = D ( P - ' ) D ( P ) D (A )
Por determ inante del producto

D (B) = D (P"1 P) D (A)


O sea

D (B ) = D ( I ) D ( A )
Y resulta

D (B ) = D( A )

5.10. REGLA DE CfflO

det“ n :

™ de“ rminaaC
nteta;eel “ 7 E.
T O a^atai^ ^ Pr° P° rCÍOna el método de Gauss ^ r d a n para la determinación
Sea

«u «12 . . . au ... a ln
« 2i a 22 ... a 2j . . . a 2n

D (A) =
«« ai2 • •. (a

am an2 . . . anj ... a nn

www.FreeLibros.com
REGLA DE CHIO 175

Fledm os como pivote un elemento no nulo, digamos Después de extraerlo como


facwr de la fría i, reduciremos a cero los demás elementos de la columna del pivote.
a n a 12 • • • <1*/ • • • a in
a 21 a 22 . . . a2¡ • • • a2n

D (A) = a a
d j\ a i2 . 1
a¡j a¡j

d n \ a n 2 • • • anj ■■■ ar
A cada fila A, con h * i, le restamos la fila i multiplicada por aHh y resulta

fllj
& t]a n 012
Q i j a ¡2 . . 0 ... ai„ -
au - «y

(*i2 din
i . ..
D (A ) = fly
«y

Gni &
an¡an an¡a i 2
an 1 a n2
ai

Al desarrollar por los elementos de la columna / resulta un determinante de orden n 1

“ t f i n d w X t o M i r í a l l a o la columna del pivote por él. En el segundo caso se reducen a


Es indistinto ^ m . te En ambas situaciones el procedimiento
mecánico consiste en aplicar el m étodo de Gauss Jordán teniendo en cuenta, además, el
factor ( - 1 ) '+* «y•

Ejemplo 5-11.
Calcular, usando la regla de Chio.
2 0 - 1 2
3 2 - 2 - 3
D (A) - 0 -2 (3) 2
2 3 0 -1

del pivote se anulan, y a los elementos del determ inante que no figuran ni en la

www.FreeLibros.com
176
d e t e r m in a n t e s

en h columna del pivote se los trasfonna de acuerdo con la regla del -rectángulo’

2 1 0 1
3 4 0 -5
0 1 -1
2 3 0 -1

Desarrollando por la tercera columna resulta

D (A ) = ( - 2 )
© 1
4 -5
3 -1

Tomando como pivote « u = i , y reiterando el procedim iento se obtiene


2 1 1 l1
D (A ) = ( - 2 ) -5 0 -9
-4 0 -4
Desarrollando por la tercera columna resulta
-5 -9
D (A ) = 2 = 2 (20 - 3 6 )= —32
-4 -4

www.FreeLibros.com
TRABAJO PRACTICO V

$.12 Calcular los siguientes determ inantes desarrollando por los elementos de una linea,
reduciendo a ceros todos los elementos de la misma, salvo uno:
2 1 2 2 4 3
D (A) = 0 3 1 D (B) = - 1 3 1
4 1 1 4 1 2

1 1 -2 4 -1 1 2 1
0 1 1 3 0 3 2 -1
D (C) = D (E ) = 2 1
2 -1 1 0 1 4
3 4 2 --1 3 1 3 2

5-13. Demostrar que el determ inante de toda matriz triangular es igual al producto de los
elementos de su diagonal.
5-14. Demostrar que si u n determinante tiene dos líneas proporcionales, entonces es nulo.
5-15. Resolver las siguientes ecuaciones:
1 -X 0 -2 ü) 2 -x -3 6
0
0 =0 4 1 -2 = 0
1
0

-2 0 4 -X 2 -1 2 +x

5.16. Sea la matriz

Resolver la ecuación D (A - X 1) - 0
5-17. Resolver la ecuación D (A - X I) = 0 siendo
j_
3
J_
3 i'
A= 1 0
2

www.FreeLibros.com
178 DETERMINANTES

5-18. Demostrar que el determ inante de toda m atriz ortogonal vale 1 o —1.
5-19. Sea A e K n x n. Demostrar que
D (Adj A) = [D (A)]”-1

5-20. Demostrar que

1 1 1
x2

í x i)

5-21. S e a n /y g funciones reales de una variable real con derivadas primeras y segundas.
Demostrar que si

entonces

5-22. Demostrar que si n vectores columnas de K" son Unealmente independientes, entonces
el determinante de la matriz cuyas columnas son tales vectores es no nulo.
5-23. Determinar los signos de las permutaciones de I3 , y la inversa de cada una.

5-24. Sean a x , a2 , . . an escalares distintos. Demostrar que las n funciones f x, jf2, . .


definidas por

f i ( t ) = eaif
son linealmente independientes sobre el cuerpo de los complejos.
5-25. Obtener las matrices inversas de

(a y b son no nulos)

5-26. Determinar, si existen, las inversas de

www.FreeLibros.com
TRABAJO PRACTICO V 179

$.27. Sean las matrices

y B=

Hallar X sabiendo que AX - B.


$-28. Verificar las siguientes identidades en K

i ) 1 1 1
x y 2 =(x-y)(y~ z)(z-x)
y z xz xy

ii) X y z t
y z t X (x +y +z + 0
z t X y
X y z

iii) 1 X y z +1
1 y z X+t =0
1 z t x +y
1 t X y +z
iv) X- y —z 2x 2x
2y (x + y + z )3
^y y - x - z
2z 2z z-x -y

5-29. Efectuar, mediante el determ inante del producto de dos matrices,

1 --1 2 1 1
0 2 3
2 0
2 --1 1

5-30. Calcular
0 1 1 1 1
0 1 1 1
1 1 0 1 1
1 1 0
1 1 1 1 0

5-31. Dadas las fórmulas de trasformación de coordenadas esféricas a cartesianas


[ x = p eos ip eos 8
I y = p sen eos Q
1 z = p sen 6

www.FreeLibros.com
180 DETERMINANTES

obtener el jacobiano de la trasformación, es decir, el determinante cuyas filas son h*


derivadas parciales de x, y y z, respecto de p, v?y 0, respectivamente.
5-32. Obtener el jacobiano de la trasformación
U= X + Y
X
V =~ donde X > 0 , Y > 0 .

5-33. Demostrar que el detenninante de toda m atriz antisimétrica de orden impar es nulo.
5-34. Demostrar que

A C
B D = lAl ID - B A '1 Cl

donde A y D son cuadradas y A es no singular.


5-35. Si A y D son simétricas e inversibles, entonces

^A B\ 1 /a - i + F E " 1 F í -FE"1
Bí D/ ( - E ' 1 FÍ E"1

donde E = D - Bf A '1 B y F = A"1 B.


5-36. Sean A e Knxn no singular. U y V en K "x 1. Demostrar

(A + U V*)”1 = A '1 - A 1 Uy t A~*


l + V'AU

www.FreeLibros.com
Capítulo 6

SISTEMAS LINEALES

6.1. INTRODUCCION

En este capítulo se estudian los sistemas de ecuaciones lineales sobre la base de su


estrecha relación con las trasformaciones lineales, y se analizan los espacios soluciones de los
sistemas lineales y homogéneos. Después de la demostración del teorema de Cramer, se trata
la compatibilidad de los sistemas lineales generales. Se dan, finalmente, los siguientes
métodos directos de resolución: de Gauss Jordán, de la raíz cuadrada y del orlado.

6.2. SISTEMAS LINEALES

6.2.1. Concepto

Consideremos A e Knxm y la función

/ : Km ~>K"

definida por

/(X ) = AX (1)

donde X denota cualquier vector columna de K w .


Afirmamos que la asignación (1) caracteriza a / como una trasformación lineal de K m en
K” . En efecto:
1■ /(X + Y ) “ A ( X + Y ) = A X + A Y = /(X ) + f(Y ).
2. /(aX ) = A (aX) = a A X = o^X ).
Por consiguiente, toda matriz A e Knxm determina una trasformación lineal / : Km -> Krt
definida p o r/(X ) = A X.

www.FreeLibros.com
182 SISTEMAS LINEALES

K"

Sea B e K " . La igualdad


AX) = B
o lo que es lo mismo
AX-B
recibe el nombre de sistema de ecuaciones lineales.
La traducción de tal igualdad es

«11 «12 • ■• «lm ' *1 ' bi


«21 «22 • • • «2 m *2 b-i
=

«/ti «n2 • • • «Jim Xm bn .

Efectuando el producto y aplicando la definición de matrices iguales se obtiene la forma


escalar del sistema de n ecuaciones lineales con m variables:

’ «11*1 + « 12*2 + •• •+ a l m x m = b x

«2 1*1 + « 2 2*2 + •• •+«2rn*m =¿ 2

« t¡l* l "^«n2*2 + • . • +«nm*m

La matriz A, cuyos elementos son los coeficientes de las variables del sistema, recibe el
nombre de matriz del sistema. Los escalares que figuran en el segundo miembro se llaman
términos independientes. La matriz de coeficientes ampliada con los términos independien­
tes se denota mediante

A* = (A B)

www.FreeLibros.com
SISTEMAS LINEALES

Conjunto solución del sistema lineal es la preimagen por / , de {B } C K ".

0 sea, cada m-upla de elementos de K que satisface a todas las ecuaciones del sistema es
una solución del mismo.
Entonces

a = (a i , <*2 , • ••, es una solución o a e f 1 | { B | )

Si la preimagen de B e Kn es el conjunto vacío diremos que el sistema lineal

A X = B (I)

es incompatible. Si el conjunto solución es no vacío, entonces se dice que el sistema es


compatible.
Afirmamos que

A X = B tiene solución - » B e l(f)


y
A X = B es incompatible o B ¿ l ( f )
En particular, si B es el vector nulo de K n , entonces

AX=0 (II)

recibe el nombre de sistema lineal y homogéneo. En la forma escalar, los términos


independientes son nulos.
Como 0 e Km satisface a (II), todo sistema lineal y homogéneo es compatible. El vector
nulo de Km se llama solución trivial del sistema lineal y homogéneo.
Denotaremos con S al conjunto solución de (II). S es la preimagen p o r / d e Oe K " . En
consecuencia, el conjunto solución del sistema homogéneo es el núcleo de / Resolver el
sistema (II) es determinar el N(/). Por lo tanto, S es un subespacio de Km, llamado espacio
solución del sistema lineal y homogéneo.

www.FreeLibros.com
SISTEMAS LINEALES

6.2.2. Rango de la m atriz de coeficientes

Sea A e K nxm la matriz de coeficientes de un sistema lineal. Consideremos la


trasformacion lineal

f : K m - +Kn
definida por

f(X ) = A X

Afirmamos que el rango de A es igual a la dimensión de la imagen de f. En efecto: la


imagen d e / e s el espacio columna de A, pues

m = I /(X ) / X e Km ) = (AX/XeK"*| -

í / ^ 1\ 1
= j (A i Á2 . . . Am) •2 J / Xj - eK con i = 1, 2___, m j=
■xm f I
I m t
= j .X x tA ¡ / jr¡ e K J = SC(A)

Por consiguiente es

dim l(f) = dim SC(A) = p (A)

www.FreeLibros.com
r
ESPACIO SOLUCION
185

6 2.3. Dimensión del espacio solución de un sistema homogéneo

Consideremos el sistema lineal y homogéneo

AX = 0
y sea S el espacio solución, es decir

s=m
donde f es la trasformación lineal a que nos hemos referido.
De acuerdo con 3.4. se verifica que
dim N (/) 4- dim \(f) = dim Km
En consecuencia
dim S + p (A) = m
O sea
dim S = m - p (A)
Luego, la dimensión del espacio solución de todo sistema lineal y homogéneo es igual al
número de variables menos el rango de la matriz de coeficientes.
En particular, si p (A) = m , entonces es dim S = dim N(/) = 0. En consecuencia

Es decir, si el rango de la m atriz de coeficientes de un sistema lineal y homogéneo es igual


al número de variables, entonces dicho sistema admite como única solución la trivial.

Ejemplo 6-1
Interpretamos el siguiente sistema lineal en términos de una trasformación lineal y
determinamos la dimensión de su imagen

2*1 - *2 +*3 + *4 = 1
*1 ~ *2 - *3 + 2*4 =0
3*! - 2*2 + 3*4 = 1
La matriz del sistema lineal es

2 -1
A= 1 - 1 - 1 2
3 - 2 0 3

El vector de los términos independientes es

www.FreeLibros.com
¡ SISTEMAS LINEALES

Definiendo la trasformación lineal


/ : R4 R3

mediante
AX) = A X
el sistema lineal propuesto nos conduce a la determinación de la preimagen de

Para hallar dim 1(0 obtenemos el p (A) por el m étodo de Gauss Jordán

2 1 1

-1 -1 2
®
3 -2 0 3

0 © 3 -3

1 - 1 - 1 2

0 1 3 -3

0 1 3 - 3

1 0 2 - 1

0 0 0 0
.

Resulta dim 1(0 = p (A) - 2

Ejemplo 6-2
Si consideramos el sistema homogéneo
2*1 - x 2 + *3 + *4 = 0

www.FreeLibros.com
TEOREMA DE CRAMER 18^

entonces la trasformación lineal asociada es la misma del ejemplo anterior. Resolver el


sistema homogéneo significa determ inar el núcleo de / , cuya dimensión es
dim S = m - p (A) = 3 - 2 = 1

6.3. TEOREMA DE CRAMER

Si A e Kfix'1 es no singular y B e K " , entonces el sistema lineal A X = B admite solución


única, y el valor de cada variable es el cociente entre el determinante que se obtiene al
sustituir, en el determinante del sistema, la columna de coeficientes de la variable por la
columna de los términos independientes, y el determ inante del sistema.
Sea el sistema lineal
A X= B
Como A es no singular, premultiplicamos por su inversa
A-1 ( A X ) = A‘ 1 B
Asociando
(A-1 A) X = A-1 B
Luego
¡ I X = AM B
En consecuencia
X = A“1 B
es la única solución del sistema.
De acuerdo con 5.3.5., como D (A ):/ : 0, las n columnas de A son linealmente
independientes y constituyen una base de K". Por consiguiente, cualquiera que sea B eK",
existen escalares*!, x 2, .. . , x n, únicos, tales que

B = 2 x¡ A¡
í= i ' ‘
y por lo demostrado en el ejemplo 5-4 resulta
_ D(A j A3 . . . B . . . A „ )
AI ........ ““
D(A)
para todo 7 = 1 , 2 , . . . , « , donde B es la columna de lugar /.
Los sistemas de n ecuaciones con n variables se llaman cuadrados, y si el determinante de
la matriz de coeficientes es distinto de cero, entonces reciben el nombre de cramerianos.
Ejemplo 6-3
Resolvemos mediante el teorema de Cramer el siguiente sistema:
i Xi “ -V 3 = — 1
I + 2 x 2 — 2x 3 = — 1
2 x, - x2 + x3 - 3

www.FreeLibros.com
188 SISTEMAS LINEALES

La matriz de coeficientes es

y su inversa, determinada en el ejemplo 4-18, es

Como la solución es X = A 1 B, se tiene

1 / 1
_ 1 = - 1

3 0

6.4. COMPATIBILIDAD DE SISTEMAS LINEALES

6.4.1. Teorema de Rouche Frobenius o de Kronecker

Un sistema de ecuaciones lineales es compatible si y sólo si la matriz de coeficientes y la


matriz ampliada con los términos independientes tienen igual rango.
Sea el sistema lineal A X = B, donde A eK" *™, X e K mxl y B e K íiXl, y sea A’ la matriz
de coeficientes ampliada con la columna de los términos independientes.
El teorema afirma que

A X = B es compatible o p (A) = p (A ’)

www.FreeLibros.com
TEOREMA DE ROUCHE 189

En efecto:

A X = B es compatible «■ 3 a e Kmx 1 / A a = B «•

I ai \
......... € K / (A j A2 . . . A m )

4 > 3 % a 2 , . . . , a m e K / B = | i a ( A¡ «■

B es combinación lineal de las m columnas de A o


^ B e SC(A) o- p (A’) = p (A)
Por definición de sistema compatible, producto de matrices en forma particionada,
definición de combinación lineal, definición de espacio colum na de una matriz y de rango de
una matriz.
Denotando con T el conjunto solución del sistema lineal A X = B, el teorema demostrado
puede expresarse así:
T = ¿ 0 < * p ( A ) = p ( A ’)
En consecuencia
T = 0 o p (A) ¥=p (A’)
0 sea, un sistema de ecuaciones lineales es incompatible si y sólo si los rangos de la matriz
de coeficientes, y de la m atriz ampliada con la columna de los términos independientes, son
distintos.

6.4.2. Conjunto solución de un sistema lineal compatible

Sea A X = B un sistema lineal compatible, es decir, tal que p ( A ) = p ( A ’), donde


A e Knxm, X e Kmxl y B e K n x i . Se presentan las siguientes situaciones:
1. El rango de ambas matrices es igual al núm ero de variables.
Si p (A) = p (A’) = m, entonces las m columnas de A son linealmente independientes y, en
consecuencia, B es combinación lineal única de tales columnas. Esto significa que existen
escalares , . . . , ccm e K, únicos, tales que

B = S tt/A ;
i= i
«i
0i2
O sea, ot = es la única solución del sistema.

2. El rango de ambas matrices es menor que el núm ero de variables.

www.FreeLibros.com
190 SISTEMAS LINEALES

Supongamos que p ( A ) = p ( A ’) = r < m . Podemos suponer, sin pérdida de generalidad


que las filas y columnas linealmente independientes de A son las r primeras. Las r variables
asociadas a las columnas linealmente independientes se llaman principales, y las m-r restantes
se llaman secundarias. Las m-r ecuaciones no principales son combinaciones lineales de las,
primeras, y el sistema es equivalente a un sistema lineal de r ecuaciones con m variables
Trasponiendo al segundo miembro de cada ecuación las m-r incógnitas secundarias, para cada
sistema de valores asignados a éstas, se tiene un sistema lineal crameriano de r ecuaciones con
r variables con solución única, ya que la matriz de coeficientes es no singular.
En este caso se dice que el sistema es indeterminado.

6.5. RESOLUCION DE SISTEMAS LINEALES

El m étodo de Gauss Jordán perm ite no sólo la discusión del sistema en el sentido de
decidir si es compatible o no, sino también la resolución efectiva de él en el caso de
compatibilidad. Esto significa determinar el conjunto solución.
Esencialmente se basa en la determinación de los rangos de A y de A \ para lo cual se
escribe a la derecha de la matriz A la columna formada con los términos independientes, y se
opera de acuerdo con lo expuesto oportunam ente.

Ejemplo 6-4
Discutimos y resolvemos por el m étodo de Gauss Jordán el siguiente sistema:
*1 + X2 + *3 = 2
2x , - x 2 - *3 = 1
+ 2 x 2 - *3 - —3

® 1 1 2
2 -1 -1 1
1 2 -1 - 3
1 1 1 2
0 -3 -3 - 3
0 © - 2 - 5

1 0 3 7
0 0 - 18
( -)
0 1 -2 - 5

1 0 0 1
0 0 1 2
0 1 0 - 1

www.FreeLibros.com
RESOLUCION DE SISTEMAS 191

Desde el punto de vista geométrico, cada ecuación es la representación analítica de un


plano, y la solución única caracteriza al vértice del triedro que forman dichos planos.

Ejemplo 6-5
Verificamos que el siguiente sistema es incompatible:
í + x2 - *3 = 1
| - x 2 + 3x 3 - - 3
I xt + X3 = 1
Investigamos para ello, los rangos de A y de A ’:

1 -1 1
©
1 -1 3 —3
1 0 1 1
El único elemento que puede ser tomado
1 1 - 1 1
como pivote es - 4 . Esto significa que el
0 -2 4 —4
rango de A ’ es 3, pero el rango de A es 2, y
0 2 0 en consecuencia el sistema es incompatible.
0
1 0 1 1 La últim a etapa es innecesaria y ha sido
realizada para poner en evidencia los vecto­
0 0 0 (r* )
res canónicos.
0 1 - 2 0

1 0 1 0
0 0 0 1
0 1 —2 0

Ejemplo 6-6
Determinamos una base del espacio solución del sistema lineal y homogéneo
(A - X I) X - 0
para cada X tal que
D (A - X I) = 0

siendo

y X e R3 x 1.

www.FreeLibros.com i
192 SISTEMAS LINEALES

Resolvemos primero la ecuación D (A - X I) = 0, o sea


1 -X 1 1

0 2 —X 1 = 0

0 0 1 -X

Como la matriz es triangular, el determ inante de la misma es el producto de los


elementos de su diagonal

(1 -X )2 (2 —X) = 0
Las raíces son

\ - X2 = 1 y X3 =2
1. Para \ = X^ = 1 se obtiene el sistema homogéneo

Es decir

0*! + x 2 + * 3 = 0
0*! + x 2 + * 3 = 0
0*1 + 0*2 + 0*3 = 0

V * ! e R se verifica
*2 + * 3 = 0
O sea

*2 ~ *3

Las infinitas soluciones son las ternas del tipo

www.FreeLibros.com
RESOLUCION DE SISTEMAS 193

Una base del espacio solución está formada por los vectores

Al mismo resultado se llega utilizando el método de Gauss Jordán

0 © 1 0
0 1 0
0 0 0 0

0 1 1 0
0 0 0 0
0 0 0 0

Como p (A) = p (A’) = 1 y este valor es menor que el número de variables, el sistema
tiene infinitas soluciones. La dimensión del espacio solución es
3-p(A) = 2
Las dos primeras ecuaciones caracterizan un plano que pasa por el origen y que
contiene al eje x x. La tercera ecuación se satisface para todo ( * i, x 2, x 3) e R3, o sea,
representa a R 3 . La intersección de estos dos subespacios es el plano de ecuación
*2 + *3 = 0-

Ejemplo 6-7
Considerando las matrices

\
0 *1 ^ \
li 2
-y
A= •> x= *2 *r 1= l
4" ~4 2~
*3 \ i
3 3 i¡

resolvemos el sistema lineal


X* A = Xf
? f X= l

www.FreeLibros.com
SISTEMAS LINEALES

Efectuamos primero las operaciones matriciales

i i «
l . ( * l * 2 * 3) (*i X% * 3 )

i * . + ^ a + f r , j *x .> ++l ' * 2 + J X 3 j x 2 + ^ X¡


(*1 * 2 * 3)
Por igualdad de matrices

■'*' + 4 Xi + J a:3 = * ,

i + ~ * 2 + T * 3 =X 2

I9 r 2 +4 --1* 3 = * 3

Eliminamos los denominadores

6x í + 3*2 + 4 * 3 = 12*1
6x t + 3 * 2 + 4*3 = 12.*2
3*2 + 2*3 = 6x 3
Reduciendo términos

I 6*1 -3*2 - 4*3 = 0


6*! - 9*2 + 4*3 = 0
( 3*2 - 4* 3 = o

2* í* X = 1 => (l ! !)/ '


~ 1 ^* 1 +*2 + * 3 = 1

Teniendo en cuenta 1. y 2 ., el sistema a resolver es

6*! - 3 * 2 - 4 * 3 = 0
6*, - 9*2 + 4*3 = o
3*2 - 4 * 3 = 0
*1 + * 2 + * 3 = 1

www.FreeLibros.com
RESOLUCION DE SISTEMAS 195

Aplicamos Gauss Jordan

6 - 3 - 4 0
6 - 9 4 0
0 3 _ 4 0
© 1 1 1

0 - 9 -1 0 - 6
0 - 15 - 2 - 6
0 © - 4 0
1 1 1 1

0 0 C 22 ) - 6
0 0 -"2 2 - 6
4
0 1 0
3
7
1 0 1
3
3
0 0 1
11
0 0 0 0
4
0 1 0
11

1 0 0 ±
11

Se tiene: p (A) = p (A’) = 3 y la única solución es

( 4
Xi ~ —
11
4

La matriz A de este ejemplo es tal que sus elementos son no negativos y la suma de los
elementos de cada fila vale 1. Esto significa que los vectores filas caracterizan una
distribución discreta de probabilidades, y por tal motivo la matriz se llama estocástica.

www.FreeLibros.com
196 SISTEMAS LINEALES

El vector solución define también una distribución de probabilidades, llamada


estacionaria. Este tipo de distribuciones se estudia en las cadenas finitas de Markov.

6.6. SISTEMAS HOMOGENEOS

6.6.1. Espacio solución de un sistema lineal y homogéneo

Dado el sistema lineal y homogéneo


AX=0
donde A e K " x m, X e K mxl y O e K n x l , como p ( A ) ~ p ( A ’) = r , ocurre que tal sistema
siempre es compatible, de acuerdo con 6.4.1.
En cuanto al espacio solución del mismo, son válidas las conclusiones obtenidas en 6.4.2.,
o sea
1 .r = m=> existe solución única => S = { 0 }
En este caso la única solución del sistema es la trivial.
2. r < m =>el sistema es indeterminado.

6.6.2. Sistemas homogéneos cuadrados

Sea el sistema lineal y homogéneo


AX-0
donde A e K " x ", X e Knxl y O e K ” x l .
Propiedad
Un sistema lineal y homogéneo de n ecuaciones con n variables tiene solución única si
y sólo si el determ inante de la matriz de coeficientes es no nulo.
1. Si A X = 0, con A e K nx", tiene solución única, entonces es p (A) = n. En consecuen­
cia, las n columnas de A son linealmente independientes, y de acuerdo con el ejercicio
5-22 resulta D(A) =£ 0.
2. Supongamos que D (A) =£ 0. Según 5.3.5., las n columnas de A constituyen una base de
K". Por lo tanto, 0 es combinación lineal única y trivial de tales vectores columnas.
Los teoremas contrarrecíprocos de 1. y 2. nos permiten afirmar que un sistema lineal y
homogéneo de « ecuaciones con n variables es indeterminado si y sólo si el determinante de
los coeficientes es nulo.

Ejemplo 6-8
Determinamos los espacios soluciones de los siguientes sistemas homogéneos y
cuadrados:

www.FreeLibros.com
SISTEMAS HOMOGENEOS 197

i ) X ! - 2*2 + * 3 = 0

- *2 + * 3=0

X i - 2*2 - 2*3 = 0

-2 1 1 —2 1
D(A) = 0 - 1 1 - 0 - 1 1 =3*0
1 —2 -2 0 0 - 3

Luego la única solución es


*i =*2 - * 3 = 0

S~ {0 |
Los tres planos forman un triedro cuyo vértice es el origen.
ii) í *! - x 2 + 3 x 3 =0
I X t + X 2 - *3 = 0
( *1 + *3 = 0
Como

1 - 1 3 1 - 1 3
D(A) = 1 1 - 1 = 2 0 2
1 0 1 1 0 1

= 1 0, el sistema es indeterminado.

Lo resolvemos según Gauss Jordan

www.FreeLibros.com
198 SISTEMAS LINEALES

Se tiene:
/* , +*3=0
i x 2 - 2*3 = 0
Despejando las variables principales

= -*3
X2 = 2 *3
Las infinitas soluciones están dadas por
i Xi = - a
| x 2 = 2a
[ *3 = 0 Va eR

El espacio solución es la recta de ecuaciones


_ X j_ _ _X2_ _ _*3_
-1 2 1
O sea
S = { ( a, 2a, a ) / a e R í
Geométricamente, este sistema admite la siguiente interpretación: las ecuaciones
corresponden a tres planos que pasan por el origen y forman un haz cuyo eje es el
espacio solución, o sea, la recta mencionada.

6.7. CONJUNTO SOLUCION DE UN SISTEMA LINEAL

Sea T el conjunto solución del sistema lineal A X = B, y sea S el espacio solución del
sistema lineal y homogéneo asociado. Si t es una solución particular del sistema A X = B, y
t + S denota la suma de esa solución particular y todas las soluciones del sistema homogéneo
asociado, entonces se verifica que
T~í + S
En efecto:
1. Consideremos cualquier solución u de A X ~ B, y sea t una solución particular de este
sistema.
u e T A í e T = > A(w - t) = Au Af = B B = O =>
=>u - t eS=>u — t = s A. 5eS=>u = í + s A s e S = > « e / + S
O sea
T C í + S (1)
2. Sean: t , una solución particular de AX = B, y s cualquier solución de A X = 0.
« = í + s e í + S=;’ AM = A(/ + s) = A í + As = B + 0 =B =i' Me T.

www.FreeLibros.com
CONJUNTO SOLUCION
199

Luego

f + SCT (2)
D e ( l ) y ( 2 ) resulta
T=í + S
En consecuencia, toda solución de un sistema lineal es igual a una solución particular de
dicho sistema, más una solución del sistema homogéneo asociado. En otras palabras, el
conjunto solución de un sistema lineal es igual a la suma de una solución particular con todas
las soluciones del sistema lineal y homogéneo correspondiente.

Ejemplo 6'9
Interpretamos geométricamente el significado del teorema anterior considerando el
sistema lineal de una ecuación con dos variables
2*i - * 2 = 1
En este caso es A = (2 —1) y A’ = (2 -1 1). Ambas matrices tienen rango 1 y el
sistema tiene infinitas soluciones.

El sistema homogéneo asociado es


2x j - * 2 = 0
y corresponde a una recta que pasa por el origen. Una solución particular del sistema
dado es (1 ,1 ) = t. Sumando a t los vectores correspondientes a todos los puntos de la
recta de ecuación 2 x x - x 2 ~ 0, se obtiene la recta T, paralela a S.

www.FreeLibros.com
200 SISTEMAS LINEALES

Ejemplo 6-10
Dado el sistema lineal
/ *j + X2 + * 3 + * 4 + X5 = • 7
J 3*! + 2x 2 + * 3 + * 4 — 3* 5 = - 2
| * 2 + 2*3 + 2*4 + 6*5 ~ 23
^ 5 * t + 4*2 + 3*3 + 3*4 — * 5 = 12
determinamos: el espacio solución del sistema homogéneo correspondiente, una base y
la dimensión de éste, una solución particular y el conjunto solución de aquél.

® 1 1 1 1 0 7
3 2 1 1 -3 0 - 2
0 1 2 2 6 0 23
5 4 3 3 _ 1 0 12
1 1 1 0 7
0 - —2 -2 -6 0 -2 3
0 0) 2 2 6 0 23
0 - - 2 —2 - 6 0 -23
1 0 - - 1 - 5 0 - 16
0 0 0 0 0 0 0

0 2 2 6 0 23
0 0 0 0 0 0 0

p (A) = p (A ’) = 2 => el sistema dado tiene infinitas soluciones.

Resolvemos el sistema homogéneo, cuyo espacio solución tiene dimensión 3.

5 - p (A) = 5 —2 = 3
*j - * 3 - * 4 - 5*5 = 0
* 2 + 2*3 4- 2*4 + 6*5 = 0

Trasponiendo las variables secundarias

*1 = * 3 + * 4 + 5* 5
*2 = - 2*3 — 2*4 — 6*s

El espacio solución está dado por

www.FreeLibros.com
CONJUNTO SOLUCION 201

= a + p + 5y
* 2 = - 2a —2/3 —6-y
*3 = a
*4 =0
*5=7

cualesquiera que sean a, 0 y y e R.


Luego

*1 1 / 1 5 1

*2 ~2 -2 -6
*3 = Oi 1 + 0 0 + 7 0
*4 0 1 0
XS■ 1 0 0 1

Una base de S está formada por

1 \ ' 1 / 51
-2 -2 -6
1 , 0 y 0
0 1 0
0 0 ,
1 /

Obtenemos una solución particular del sistema dado haciendo x 2 = *3 = * 4 = 0

- 16
23
t= 0
0
0

Luego, la solución general es

'
/ - 16 ' / * 1 5
23 _ 2 _ 2 -6
0 + a 1 +0 0 +7 0
0 0 3 0
0 0 0/ 1/

www.FreeLibros.com
202 SISTEMAS LINEALES

O sea

— 16 + a + 0 + 5y
* 2 = 23 - loe - 2)3 - 6y
* 3 = 0:
x 4 =p
*5=7

6.8. RES
OLUCION DE SISTEMAS SIMETRICOS POR EL METODO DE
LA RAIZ CUADRADA

E StomséL t o V terativ o s para, 13 r esohi dó" de


convergencia, y mediante Z l „ 1 - reqUl eren el análisis *> cuestiones *
que se desee. A diferencia de éstos los métodos8 * 0™ ? " 6'1 S° 1UC10nes con la aProximación
^ n e r o finito de operaciones aritméticas elementales.

AX-B (i)

tal que A = A* en Knx", X e K ” x l , B e K nxi y a J=o


Probaremos que existe una matriz triangular T tal que

A -T 'T (2)
Proponiendo la forma escalar de (2), debe ser

1h i 0
I tu f 12 hn
? 12 ?22 «U al 2 «1 n
0 *2 2 h n «2 1 «22 «2 n

*1 " hn t3n . . . tn n j o o ... I


«n 1 «.n 2 .. «,

Por igualdad de matrices, después de efectuar el producto indicado, resulta:


1. Considerando la primera fila:

í u i = «« t , =>ru = V « u
S i / > 1, entonces

t u t u = a ÍJ

www.FreeLibros.com
SISTEMAS SIMETRICOS 203

Luego

_ ÜL
t ti = A
lL
t\ i V«11
O sea, la primera fila de T se deduce de la de A de la siguiente manera: el primer elemento
es la raíz cuadrada del primero de A, y los restantes se obtienen dividiéndolos por esta raíz
cuadrada.
2. Considerando cualquier fila distinta de la primera, es decir, tal que / > 1, se tiene:

í-i
i = i=>au = 2 tl¡ = X í j , = r j + 2 tl,* > tít ia-u — 2 t\¡
h- 1 h= l h= 1 h= 1
n i i~i
/ >i^au = ^ thi t hj = ^ th¡ thj = t u tu + t hi h i
i'-l
aÜ - 2 h i thi
/!= 1

La determinación de los elementos de la matriz triangular se realiza en una sola etapa y


por filas sucesivas.
La traducción de las fórmulas obtenidas es la siguiente: todo elemento diagonal, a partir
de la segunda fila, es igual a la raíz cuadrada de la diferencia entre el elemento ai¿
correspondiente y la suma de los cuadrados de los elementos de la misma columna de la
matriz triangular. Todo elemento no diagonal t¿j es igual a ia diferencia entre ay y la suma de
los productos, fila por fila, de los elementos de las columnas correspondientes, dividida por
el elemento tu de la diagonal.
Retomando el propósito original, de (1) y (2) se deduce
Tf T X - B
Haciendo
T Í K = B (3)
se determina el vector K, y considerando
T X = K (4)
conocido K, se obtiene X.
La determinación de las com ponentes del vector K se efectúa de la misma manera que las
columnas de la matriz T. En efecto, considerando (3), es
o

i ^ l b' '
1 12 ¿22 ••• 0 k-i = b2

¡Iti t-in ■■ ■ t n n knj bn 1


,
de donde resulta, por producto e igualdad de matrices:

www.FreeLibros.com
204 SISTEMAS LINEALES

1. ti j Aj = b x, o sea

2. i> \^ b i 2 th l k h - X thikh-
n=I h= i

i-1
bi ~ ^ {hi ^ h
/!= 1
- í « A : f + S t h¡ k h => ki =
h=i

Finalmente, obtenidos T y K en una única etapa, se resuelve fácilmente el sistema


triangular
T X=K

Ejemplo 6-11
Resolvemos el siguiente sistema simétrico por el m étodo de la raíz cuadrada:

Trasformamos, de acuerdo con el esquema propuesto, las filas de la matriz de


coeficientes ampliada con la columna de los términos independientes:

2 2 0
2 5 - 1 -8
2 - 1 33 4
1 2 2 0
0 1 - 5 -8
0 0 2 - 18

En consecuencia:

+ 2x 2 + 2x 3 = 0
x2 - 5x 3 = —8
2x 3 = — 1 8

Luego

*3 = - 9 *2 = -5 3 x i= 124

www.FreeLibros.com
MET ODO DEL ORLADO 205

La solución es

/ 124
X= - 53
\ - 9
Las condiciones para que el m étodo sea aplicable son: tu *0, \/i = 1, 2 , . . . ,n.

Ejemplo 6'12
Resolvemos por el mismo método
- + x 2 - 2x 3 = 2
+3*3 = - 5
— 2x i + 3;c2 — 2 x 3 = - 1
No es necesario multiplicar la primera ecuación por - 1 para obtener elementos reales
en T.

_ 1 - 2 2
0 3 -5
- 2 3 _ 2 - 1
i -i 2i -2 i
0 1 1 -3
0 0 1 -2

Entonces
x3 = - 2 x2 = ~ 1 x, -

6.9. METODO DEL ORLADO

Este m étodo, que es directo, permite obtener la inversa de una matriz no singular
M e KnXfl. Particionamos M de acuerdo con el esquema
n = (n - 1) + 1
para filas y para columnas, y se tiene
A B
M= .
C ann

donde A e K ^ '1>x<n-‘ >, B e K (n l ) x l , C e K 1 x(íi' 1 > y(ann) e K 1X1.


Suponemos conocida la inversa A”1 del primer bloque y proponemos, para la inversa de
M, el mismo esquema de partición.

www.FreeLibros.com
206
SISTEMAS LINEALES

X Y
M"1 =

an
donde an e K - ( 0 )
Considerando que

M M ' 1 =1
se tiene

I N

N i ,

O sea

A X + BZ = I 0)
a y +-2. = n (2 )
C X + ann Z = N (3)
C Y +^2^i (4)
Oi„
De (2)

Y = - ^ (S)

Sustituimos (5) en (4):

C A ' 1 B ,a
ot„ un
Luego

« » = « * « - C A ' 1 B (6)
De(l)

A X - I - B Z = » X = A^1 - A”1 B Z (7)


Teniendo en cuenta esta relación, (6) y (3), es

C (A 1 - A~! BZ) + ann Z = N


C A ' 1 —C A"1 B Z +ann Z = N
C ~(<*nn - a n) Z - b a nn 2 = N
C A 1 “ ann Z + an Z + ann Z = N

«n Z = - C A"1

www.FreeLibros.com
MET ODO DEL ORLADO 207

Z = _-J r'_A_
a -1
(8)

De (7) y (8)

X - A ' 1 + A 1 B C A 1 (9)

Entonces

A- , , A"1 B C A '1 A"1 B


A + -------- ---------
a,
M"1 =
CA
dir,

Se trata de un caso particular de la inversion por partición estudiada en 4.18.


Este m étodo se utiliza para invertir matrices por orlados sucesivos, construyendo las
inversas de

(«i,) , i “ 11 a i 2 ) etcétera
, etcé
' \ #21 fl22/

Conociendo la inversa de A e Kín"1 )x(n-1 \ se calcula M*1 e K nxn, para lo cual es


preciso obtener:

1.
-A "1B

bn-1 ,n

2. -- C A (c n i C,j2 • • •C n , n -l)

bi n I b ln
b2n
3- 0tn = a nn - C A“1 B = ann + C ann + (an \ an 2 ■• ■an,n -1 )

&n- l,M bn-l,n

an =an n + X an j bj
}= i

www.FreeLibros.com
208 SISTEMAS LINEALES

También:
I &ln
«2 n
ann " C A 1 B ann + (cn>1 C„2 . . . cn n ., )

«n-l,n

n-I
^nn ^ «in *'«<
/= 1

4. Los elementos x¡j de la submatriz A -i1 +. A '1B C A ' 1 son, llamando x \¡ a los

correspondientes elementos de A"1:


.> i bin Cni
x ¡j = x ’ij + in ni úi< n -\,]< n -\
Oí»
Además

' in

ni

El siguiente esquema denota una etapa del proceso;

Ejemplo 6-12
Calculamos la inversa de A por el m étodo del orlado, siendo

www.FreeLibros.com
METODO DEL ORLADO 209

Siguiendo el esquema anterior, y aplicando las fórm ulas desarrolladas, resulta:

1 2 _ 1
2 - 1 M
- 1 1 2

1 2 - 2
2 - 1

-2 5

- A"1 B

-1
- - C A"
11
5

3 5 1
14 14 14

5 1 3
M‘
14 14 14
1 3 5
" 14 14 14

Conocida M"1 es posible resolver sistemas del tipo


MX = K

donde M es no singular.

www.FreeLibros.com
TRABAJO PRACTICO VI

6-13. Sea f ‘ i>2


^ una S a c ia n lineal caracterizada ^ ^ ^

( I J _ 2J respecto de la base canónica en cada espacio Determinar I


preimagen p o r / d e l vector ( - i i )

r11 ;¿ *r1 7' * 2“ + 2 V ,=do


1 de ^ ^. —
1 3 2- i x + 3 y + z = 6
* i + * 2 + * 3 =2 L /
2x v , )3x~2y~8z= 7
¿*1 - * 2 + *3 = 5

El m étodo de Gauss reducido consiste en t j f h ^ ^ =


que / > / , y en unos los elementosa„, ™ ar “ °er OS los eIenren ‘os a¡,- tales

sistemas homogéneo™0" S° bre ” ^ eSPaC¡0 S° ludón de cada ™ ° de los s iguientes


1- *! + * 2 ~ * 3=0
4‘ I X1 + *2 + * 3= 0

2. j 2xl + x 2 - * 3 =()
i2 * ( + 2*2 + 2at3 = o

X1 + *3 =0
5* í =0

3. ' *1 + *2 - * 3= 0
X1 + * 2 + * 3 ~ 0
3*1 + 4 * 2 =: Q
*1 —* 2 =0
*2 + * 3 = 0 5* 1 + *2 + * 3=0

anterior, en los c z s o X Z ^ ó T p o Z L ™ ^ U" ° ^ ‘“ C3SOSdeIejerci“ °

siguientes casos"810" V “ na b3Se d d eSpaCio soIución *°bre C en cada uno de los

u l ‘x + y - z =0 , líl + 1
| , > +z = o 1 (I + 0 * - , , + * = o
I ¿x + ¡ y ^ z = 0

www.FreeLibros.com
TRABAJO PRACTICO VI 211

¿ ./8: En el anillo de las clases de restos m ódulo 3, determ inar una base del espacio solución
de! sistema _
Xi + *2 + * 3 = 0

Xi +2*2 =0

6-19. Discutir y hallar el conjunto solución de


Xi + 2x:2 = — 5

3*1 + *2 = - 5
i 2xt + 3 * 2 = - 8

6-20. Resolver por el método de Cramer el sistema del ejercicio 6-14. 1.


6-21. Resolver el sistema homogéneo Xí (A — I) = 0, donde X e R y

1 i
2 2

1 A
. 3 3

6-22. Obtener el conjunto solución del sistema


f 3*i + 2 s 2 +*4=0
*1 + 2*2 + *3 = 1
5*! + 6*2 + 2*3 + * 4 = 2

6-23. Determinar si existe X e R 3x3 tal que X A = B, siendo


/ 2 4 6 \ / 3 5
A= -1 2 3 B= -2 3
\ 1 -1 1 / \ 3 2 3
6-24. Discutir y hallar los conjuntos soluciones de los siguientes sistemas:

1. ( * 1 — 2*2 + *3 — *4 — *5 = 2
2 *! + *2 ~ * 3 - *5 = 4

4 * i - 3*2 + * 3 2*4- 3*5 = 1

2. *1 + *2 3*3= - 1
2xt + *2- 2*3 = 1

*J + *2 + *3= 3
*1 + 2*2 — 3*3 = 1

www.FreeLibros.com
212 SISTEMAS LINEALES

3. xx +x2-3x3 - x s =0
*1 - *2 + *3 - *4 =0
Txi +2*3 - x4 - * 5 =0
2*i — *4 — *5 = 0

6-25. En el caso de compatibilidad, obtener el conjunto solución del sistema


*1 + * 2 + 2*3 = — 1
2*i - * 2 + 2*3 = —4
4* i + * 2 + 6x3 - —6
en términos de una solución particular y del espacio solución del sistema homogéneo
asociado.
6-26. Siendo
- 3 0 -4

A= 4 4

2 0 3
obtener X tal que D(A - X I) = 0. Después resolver el sistema (A - XI) X = 0 para cada
valor de X.
6-27 Determinar para qué valores de k el siguiente sistema tiene soluciones distintas de la
trivial:
* + (& + l)_y + z=0
*+ y ± { k + 1)2 = 0
(£+1)*+ y + z=0
En cada caso, estudiar el espacio solución, e interpretar geométricamente.
6'28. Determinar la inversa de M por el método del orlado, siendo
/I 1 -1

M= 1 - 1

1 1
&29. Resolver el sistema X*A ~ x \ siendo
1
n

www.FreeLibros.com
TRABAJO PRACTICO V 213

6-30. Obtener todas las soluciones de


+ ¿>1y + ci 2 - 0
a2 x + b 2 y + c2 z = 0
sabiendo que
bi Ci
=£0
b2 c-i

6-31. Discutir el siguiente sistema según los valores de a:


ax - y + 2z = 1 + a

x + ay - z = —1
3* + y + z =a

6-32. Estudiar el sistema


2x - a y + z = ~ 2a + 5
* + y - az =1
4x + y - a z = a

para los distintos valores de a


6-33. Discutir la compatibilidad de
axi + bx2 + * 3 ~a + b
bx1 + ax2 + + x 4 =a - b
x 2 + bx 3 + ax 4 = a + 1
Xi + o x 3 + bx4 = 0 - 1

6-34 Determinar el sistema lineal cuyo espacio solución


admita la base
¡(3,-2,8) , (4,-11,7)}

6-35. Probar que el sistema


bx + ay ~c
ex + az = b
cy + bz = a
tiene solución única si abe =£ 0. Hallar la solución.
6-36. Resolver por el método de la raíz cuadrada
- xx + x2 + 2x3 =7
Xi —2 x 3 = — 5
2xt — 2x 2 + x3 =1

www.FreeLibros.com
Capítulo 7

PRODUCTO INTERIOR EN ESPACIO S VECTORIALES


GEOMETRIA VECTORIAL.

7.1. INTRODUCCION

En este capítulo introducimos, sobre la base de un producto interior, el concepto de


métrica en un espacio vectorial real. Se estudian temas relativos a distancias, longitudes,
ortogonalidad y ángulos entre vectores. Se desarrolla el procedimiento de Gram-Schmidt
para la construcción de bases ortonormales en espacios de dimensión finita. Después de dar
una idea del espacio afín R ", se tratan algunos temas básicos de geometría: rectas, planos,
superficies y curvas elementales.

7.2. ESPACIO VECTORIAL EUCLIDIANO

Sea (V, + , R , .) un espacio vectorial sobre el cuerpo de los números reales.

7.2.1. Producto interior

El símbolo <x , y ) se lee: producto interior entre los vectores x e y .

Definición
Producto interior en V, es toda función
<, > : V2 R
que satisface las condiciones de simetría, de linealidad respecto del primer argumento
y de definida positiva:
i ) < x , y > = < y , x > cualesquiera que sean x e y en V.
i i ) ( x + y , z } = ( x , z > + < y , z > cualesquiera que sean x, y y z en V.
iii)<ax,y> = a<x,y) V x e V , V y e V , V a e R.
iv) <x , x >> 0 VxeV
( x , x >= 0 x=0

www.FreeLibros.com
ESPACIO VECTORIAL EUCLIDIANO 215

Todo producto interior en un espacio vectorial real asigna a cada par de vectores un único
escalar real.
Espacio euclidiano es todo espacio vectorial real con producto interior.
La adjunción de un producto interior a un espacio vectorial permite establecer una
métrica en él; o sea, los conceptos de distancia entre pares de vectores, m ódulo de un vector,
ortogonalidad y ángulo entre dos vectores. Estas nociones no son intrínsecas al espacio
vectorial, sino que dependen del producto interior que en él se considere. O sea, dos vectores
de un espacio,ortogonales con un producto interior, pueden perder este carácter si se define
otro producto interior.

Ejemplo 7-1
En (R ", + , R> ■), la función
<, >: R " X R " -+ R

definida por
< X , Y > = X*Y (1)
donde
*1
x2 y2
X~ Y=

Xn yn,
es un producto interior. Para probar esta afirmación verificamos los axiomas de la
definición.
i ) < X , Y > = XÍ Y = ( X£Y) Í = Y Í X =< Y , X )
Por (1), por ser X*Y un escalar, por traspuesta de un producto y por (1).
ü ) < X + Y , Z > = ( X + Y) í Z = ( Xí + Y í) Z = X í Z + Y f Z = < X , Z ) + ( Y , Z )

Por (1), traspuesta de la suma, distributividad y (1).


iii) <a X , Y >= (ex X y Y = a X * Y = a < X , Y )
Por (1), traspuesta de un escalar por una m atriz y (1).
iv)<X,X> = Xí X = £ x j > O
í=i
Por (1), producto de matrices y suma de números reales no negativos.
Además
n
( X , X > = 0 « 2 x j = Q*>Xí = 0 , Vi <*X = 0
;=i * '
La definición (1) caracteriza un producto interior en R ” , llamado también producto
interior usual. Efectuando la operación indicada en (1) es

www.FreeLibros.com
216 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

< X, Y ) = g 1 x iy i

0 sea, el producto interior de dos n*uplas de números reales es igual a la suma de los
productos de las com ponentes correspondientes.
En el caso n = 2 esta definición se traduce en
<X , ¥ > = * ! y i + *2y 2

Ejemplo 7-2.

Consideremos ( R2, + , R, •) y la m atriz A = | * ^

La función
( , ) : R 2 X R Í - >R
tal que

<X,Y>=X( AY (1)
es un producto interior. En efecto
1 ) < X , Y ) = X Í A Y - ( X Í A Y ) Í = Y Í A Í X = YÍ A X <=Y , X>
Por (1), por ser X f A Y un escalar, por traspuesta de un producto, por ser A* = A y por

i i ) ( X + Y , Z > = ( X + Y) ( A Z = ( Xf + Y f) A Z = X Í A Z + Y Í A Z = ( X , Z > + ( Y , Z>


iii) ( a X , Y ) = (a X)* A Y = a X ( A Y = a <X , Y >

i v ) < X , X > = X ' A X = ( * , * 2) | j ~ s ) ( * j = <* 1 2*2 - 2x¡ + 5* 2 ) ,


x2

“ (*! — 2x2) * ( + (—2*! + 5* 2) *2 ~ x \ — 4*1 X2 + 5*2 =

= x \ - 4 * ! * 2 + 4*1 + * ! = (*! - 2 * 2 )2 + * i > 0

Además
(X , X > ~ O ( * j - 2 * 2)2 + * ¡ = 0<*
<**! - 2 * 2 = 0 a * 2 = 0 ^
*>xx = * 2 = 0<>X = 0

Ejemplo 7-3.

Sea C [ - 1 , 1 ] el conjunto de las funciones reales continuas definidas en el intervalo


cerrado de extremos - 1 y 1.
El lector puede verificar, considerando el espacio vectorial
(C [—1 , 1 ], + ,R , .)

www.FreeLibros.com
PRODUCTO INTERIOR 217

que la función definida por

<f , g >= / j f (*) g (x ) dx

caracteriza un producto interior en dicho espacio. Para ello es suficiente probar que se
cumplen los axiomas de la definición teniendo en cuenta propiedades elementales de la
integral definida.

7.2.2. Producto interior de dos combinaciones lineales

Sea (V, + , R , .) un espacio con producto interior, y sean las combinaciones lineales
n m

x " ü a ''x¡ y =jS [ y>

donde
ctiJjeK y x¡,y; eV
De acuerdo con los axiomas de la definición, se tiene
n m
<x , y >= (.2 ctt x¡ ,.2 fy y¡ ) =

n m n m
= .2 < ot¡ x f ,.2 § y¿ >= 2 a¡ <x ¿ ,5 ^ fy y ¡ )-

n m n m

= lS 1 y> ’ X i ) " d i “ v ? ! <yy >xi >=


n m
= ( xí »y/ >

Hemos aplicado sucesivamente:ii), iii), i), ii), iii), propiedades dela sumatoria e i).
En particular es
< a x + y , « x + y) = a2 <x,x) + a ( x , y ) + a < y , x > +
+ ( y , y > = a2 ( x , x ) + 2 a < x , y ) + <y, y>

7.2.3. Propiedad

En todo espacio con producto interior, el producto interior de cualquier vector y el


vector nulo es cero.
En efecto, por ser 0 neutro para la suma en R, por el axioma A3 de espacio vectorial y
por el axioma de linealidad del producto interior, se tiene
0 + ( 0 >x ) = ( 0 , x ) = <0 + 0 , x ) ~
=<0,x>+<0,x>
Por ley cancelativa en (R , + ) resulta
0 = <0 , x >

www.FreeLibros.com
218 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Luego
<x,0>=<0,x> = 0

7.2.4. Módulo o longitud de un vector

Definición
Módulo de un vector en un espacio con producto interior es la raíz cuadrada no
negativa del producto interior de dicho vector por sí mismo.
El símbolo llxli se lee: m ódulo o longitud de x.
De acuerdo con la definición es
II XÍI = V <x ,x >
En R2 , con la definición dada en el ejemplo 7-1, si x = (3,4), entonces
11x11 = \ / 3 2_+ 4 2 =\ ¡ 2 S = 5

Al módulo de x se lo llama también norm a de x.


Se verifica que el cuadrado del m ódulo de todo vector es igual al producto interior de
dicho vector consigo mismo, es decir
11x II2 = < X , x >

Definición
Distancia entre dos vectores x e y, en u n espacio con producto interior, es el módulo
de su diferencia.
d (x, y) = II x y II

www.FreeLibros.com
M ODULO
219

El lector puede com probar que esta definición satisface los axiomas de la función
distancia.
7 2 5. Módulo del producto entre un escalar y un vector

En todo espacio con producto interior, el m ódulo del producto entre un escalar y un
vector es igual al valor absoluto del escalar por el m ódulo del vector.
il a x l l = I a l II x l l

En efecto:
a x il2 = ( a x , a x > = a2 < x , x > =

= l a i 2 IIxi!2 = ( l a l I!xll)2

O sea
llaxí!2 = ( l a l II xll)2
Y como las bases son no negativas resulta
IIa xi l = lal IIxll
El producto de un vector no nulo por el recíproco de su m ódulo, o lo que es lo mismo, el
cociente entre un vector no nulo y su m ódulo, es un vector de módulo 1.
X
En efecto, sea x ¥= 0. Considerando — se verifica
IIxll
X 1 1
— X llxll= — xll=l
II x l l Ilxll Ilxll ti X 1

S i x - ( 1 , —1 , \ / 2 ), entonces es, con el producto interior usual,

■ - \ / l M - ( - l ) 2 + ( n/ 2)2 = 2
y resulta

= [.L V?
Ilxll \2 ’ 2 ’ 2

un vector de m ódulo 1, llamado vector unitario

7.3. ORTOGONAUDAD

Sea (V, + , R , .) un espacio vectorial con producto interior.

Definición
Dos vectores son ortogonales si y sólo si su producto interior es nulo.
El símbolo x i y se lee: x es ortogonal a y.
Entonces
xly«*<x,y )= 0

www.FreeLibros.com
220 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Ejemplo 74.
1. En R2 , con el producto interior usual, los vectores
x = (—2 , 3) e y = (—3 , —2)

son ortogonales, pues


< x , y >= ( - 2 ) ( —3) + 3 ( —2) = 0

2. Determinamos a € R para que los vectores


x = ( - 3 a , - 4 , 1) e y = (-a , a, 1)
sean ortogonales, con el producto interior habitual.
De acuerdo con la condición de ortogonalidad, hay que determinar a de modo que
< x , y >= 0
O sea
( - 3 a) ( - a ) + ( - 4 ) a + 1 . 1 = 0

3a2 - 4 a + 1= 0

www.FreeLibros.com
ORTOGONALIDAD 221

Las raíces son:

Los pares de vectores de R 3 que satisfacen la condición son


x ^ C - 3 ,- 4 ,1 ) e y ' =( - l , 1, 1)

x” = ( - l , - 4 , l ) e y ” = ( - 1 ,1 ,1 )

Ejemplo 7-5
D em ostram os el teorema de Pitágoras: si x e y son dos vectores ortogonales, entonces

llx + yll2 = Ibdl2 + II yII2

En efecto:

llx + yíl2 = < x + y , x + y > = < x , x ) + ( x , y > +


+ <y , x ) + <y , y ) = II x lt2 + 0 + 0 + II y II2 =
= llxll2 + II y II2

Ejemplo 7-6.
En el espacio vectorial de los polinomios reales de grado menor o igual que 2 y el
polinomio nulo, donde el producto interior se define como en el ejemplo 7-3, los
polinomios
y/2 s /í
—— y -^7=*
2 s fl
son ortogonales, pues

www.FreeLibros.com
222 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

, y/3 x 2
x d x = -i------- = 0
2 2 2

7.4. DESIGUALDAD DE SCHWARZ


En todo espacio vectorial euclidiano, el valor absoluto del producto interior de dos
vectores cualesquiera es m enor o igual que el producto de los módulos de dichos vectores.
Demostraremos que
í <x ,y > l < llxll IIyII
cualesquiera que sean x e y en V, donde está definido un producto interior.
Se presentan dos situaciones:
1. y = 0.
En este caso, de acuerdo con 7.2.3., se verifica que
( x , y >= 0 y II y II = 0
Luego
I<x , y > 1= llxll IIyII
En consecuencia
K x , y > K llxll II y II

2.y^0.

Cualesquiera que sean t y u en R, por el axioma iv) de la definición de producto interior


es *

(tx + u y , tx + u y ) >0
Desarrollando el prim er miembro

t2 ( x , x ) + 2 t u ( x , y ) + u 2 ( y , y )> 0
Haciendo

t=(y,y) y w= - < x , y >


se tiene

( < y , y > ) 2 < x , x > - 2 < y , y > ( < x , y > ) 2 + ( <x , y > )2 <y , y > > 0
Por definición de m ódulo y reducción de términos
llyff4 llxll2 - IIyII2 ( < x , y > ) 2 > 0
Dividiendo por II y II2 , que es no nulo, resulta
IIyII2 Hxll2 - ( < x , y > ) 2 > 0
Teniendo en cuenta que el cuadrado de un número rea! es igual al cuadrado de su valor
absoluto, y trasponiendo términos
II y II2 II x II2 > l <x , y >P

www.FreeLibros.com
DESIGUALDAD DE SCHWARZ 223

O sea
I <x , y > I2 < ( II x 11 II y II )2
Y, como las bases son n o negativas, resulta
I <x , y > K II x II II y II

7.5. DESIGUALDAD TRIANGULAR

En todo espacio con producto interior, el m ódulo de la suma de dos vectores cualesquiera
es menor o igual que la suma de sus módulos,
probaremos que
Hx + y l K 11x11+ II y II
En efecto, por definición de m ódulo y de producto interior es
| l x + y l l 2 ~ < x + y , x + y> = < x , x > + 2 < x , y > + < y , y > (1)
Teniendo en cuenta la desigualdad de Schwarz y propiedades del valor absoluto en R, se
verifica
- Ilxll l l y l l < ( x , y X llxll llyll

Luego
2 ( x , y > < 2 llxll llyll (2)

D e ( l ) y ( 2 ) resulta
11 x + y II2 < II x II2 + 2 II x II 11 y II + II y II2

O sea
llx + yll2 < ( 11x11+ llyll)2

En consecuencia
II x + yll < II x l l + II y l l

7.6. ANGULO DE DOS VECTORES

Sean x e y dos vectores n o nulos en un espacio con producto interior. De ia desigualdad


de Schwarz
l < x , y > l < llxll llyll

se deduce que
- llxll H y l K < x , y > < llxll llyll

Dividiendo por el producto de los módulos de x e y, que es positivo, se tiene


< x , y > ^

www.FreeLibros.com
224 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Definición
Angulo de dos vectores no nulos x e y es el núm ero real y?que satisface:
1. 0 < í p < 7 T

2. 0 8 *=
llxll IIyII
De la relación 2. se deduce la siguiente expresión del producto interior en función del
ángulo de los vectores y de los m ódulos de éstos:
<x ,y > = llxll IIyííeos v?

Ejemplo 7-7.
Los vectores x e y forman un ángulo de 60° y el módulo de x es 3. Determinamos el
módulo de y para que y —x sea ortogonal a x.

y-x

Hay que determinar II y II de modo que


y - x 1 x

O sea

<y - x , x >= O

Luego

< y , x ) - < x , x > = 0

En consecuencia
y il II x II eos II x l l 2 = O

Por ley cancelativa del producto


II y II eos <¿>= II x l l

Resulta

II y II.— = 3
2
De donde

www.FreeLibros.com
BASE ORTONORMAL 225

7.7. CONJUNTO ORTOGONAL DE VECTORES

7.7.1. Definición
Un conjunto de vectores | X i,x2, . . xr } en un espacio con producto interior es
ortogonal si y sólo si dos vectores cualesquiera y distintos son ortogonales.
{Xi , x 2, . .., xr } es un conjunto ortogonal • » • / # /=> <x f , x;- >= 0

7.7.2. Propiedad

Todo conjunto ortogonal de vectores, al que no pertenece el vector nulo, es linealmente


independiente.
Sea I Xj, x 2, • • x r | un conjunto ortogonal tal quex¿ =£ 0 , Vi - 1, 2 , . . y sea la
combinación lineal
r
2 a¡ x, = 0
i =i 1 3
Para cada / = 1, 2 ,. . ., r consideramos

< .2^ oi j X j , x ¡) - <0 , x ¿) = 0

Entonces
r
.2^ a.j < X j , x¿ > = 0

Como i=£j =>( X j , x¡ >= 0, la sumatoria se reduce a un único término que se obtiene si
/= o sea
a¿ <Xf, x ¡ ) = 0
Siendo x¡ # 0 resulta < x ¡ , x ¿) # 0, y en consecuencia
a¡~0 V i= 1, 2,
Luego
¡ x , , x 2, . . . , x r } esL .I.

7.8. BASE ORTONORMAL

7.8.1. Concepto

Sea (V, + , R , .) un espacio con producto interior y sea A = { X j, x 2, . . . , x„ } una base


del mismo.

Definición
Diremos que A es una base ortonormal si y sólo si A es un conjunto ortogonal de
vectores de módulo 1.

www.FreeLibros.com
226 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

A es ortonorm al o A es ortogonal y II x< II= 1 , Vi = 1, 2 ,. . n

Una base ortonormal es tal que


i =£; =*■<x ¡ , x j >= 0
i e I„ <x ¡ , x¡ >= 1
En consecuencia, integrando estas dos expresiones en una sola, se tiene
A es una base ortonorm al o ( x ¡ ,Xj) = 5y

Ejemplo 7-8.
• En R ", con el producto interior usual, la base canónica j e l t e2, . . . , e „ ) es
ortonormal.
• En R 2, con el mismo producto interior, la base formada por*

('■ ^
X* T T “ 7 X2 = \ 2 - 2
es ortonorm al, pues
<X! , X* > = <X2 , X2 > = 1

íx* ,X 2 >= 0

7.8.2. Ortonormalización de una base

Todo espacio euclidiano de dimensión finita admite una base ortonormal.


Nos proponemos obtener, a partir de una base cualquiera { X i, x2 , . . . , xn } una base
ortonormal. En efecto:
1 _Xl o por ser un vector de la base dada. En consecuencia
II X ! II =£0

El vector
Xl
y i = 7 ItXj7 II

de acuerdo con 7.2.5., es unitario.


2. Supongamos que | y , , y2 , . . y fe ¡ es un conjunto ortonorm al. Se trata de obtener
yfc+i tal que
{ y i . y a . - - -.y*+i)
sea ortonormal.
Consideramos el vector
k
zft + i = x ft + i - 2 ( x¡¡ 4.1 j y ¡ ) y /

www.FreeLibros.com
BASE ORTONORMAL 227

Se verifica que z„ + 1 es ortogonal a y , , V/ = 1, 2 , . . k.


En efecto k
( zfe+i >y i ^ = +i ^Xft+ 1 >y¿ ^ ’ y/
k
= <xfe+i ,yy> - S ^ X f e + i ,yf><yi,yy> =
k
~ <Xft + i , yj >— <xfe+ 1 , y,-) =

= <xh + i , y/>-<Xft + i ,y,->- 1 = 0

Definiendo

Se deduce que IIy&+ 1 II“ 1>y en consecuencia


(yi , y 2 »---.yfc+i|
es un conjunto ortonormal.
Este proceso, llamado de Gram-Schmidt, nos permite construir una base ortonormal a
partir de una base dada.

Ejemplo 7-9
En (R2, + , R, •) se considera la base formada por
x, =(1, 1) xa =(-1,2 )
Construimos una base ortonorm al siguiendo el procedimiento desarrollado en el
teorema anterior.

www.FreeLibros.com
228
PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

M - i ^

-H-í)
La base f y , , y 2 | es ortonormal.

Ejemplo 7-10

^ , , n. , .) se aeiine un producto
r interior
r grado mediante

< P ’ Q> = / ! pW Q W *

Gram-SchmidlJ ’ ’ * ' C° m ,ruin,0s una base «rtonormalmediante el proceso de


1.
x i« í = » m 2 = < i >i > = ^ i . i d * = * =2
■II í l i - V T -i

*i ___ 1 = V2^_
yi
Xi II V 2 2
2. z2 = x 2 - < x a , y, >yi

Como <x2 , y , > = < x , X Í ) =


22 '

1 vT VT
* dx = 0,

resulta

Z2
Además

' Z2 11'“ <Z2 , Z2 ) = ( X ' X > = j 1 2 dx =

x3 l1 2
3 J -i 3
Entonces

www.FreeLibros.com
COMPLEMENTO ORTOGONAL 229

Luego
V = z2 - V 3 -,
Il z 2 ti V2

= x 3 - . s <*3 , y ¡ > y ¡ =>


3. Z3
= >z3 = x 3 ' < x 3 , y i > y i - < x 3 , y 2 > y 2 ( i)

v - í l ^ v 2 Wv =
( x 3 , yi > ~ l i 2 6 -i
i \/3

De (1 ) re s u lta

3 3 2 3

Como

II z 3 f ^ < Z 3 , Z3 > ^ 1 | * 2 ~ j j 2 ífe =

= P (x4 + i ) í & =— -- - X 3 + i x l ^
J_i 3 9 5 9 9 J~i

1 + 1 = ^ - - - = —
5 9 9 5 9 45

resulta

1 , 1 4
3 > /r

Y en consecuencia
Z3 = 2^ / 2 _ i ) = 3^ / 2_i)
y3 ~ 2 y /l l 3 / 4 \ 3 /
II z 3
La base
Vf 3Vio / 2 1
2 ’ s/2 ’ 4

es ortononnal.

7.9. COMPLEMENTO ORTOGONAL

7.9.1. Com plem ento ortogonal de un subespacio

Sea (V, + , R , .) un espacio con producto interior, y sea S un subespacio de V.

www.FreeLibros.com
230 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Definición
Complemento ortogonal del subespacio S de V, es el conjunto de los vectores de V que
son ortogonales a todos los vectores de S.
El símbolo S1 se lee: com plem ento ortogonal de S.

S1 = j x e V / x l y , V y e S Í

Ejemplo 7-11
En R 3, con el producto interior ordinario, si
S = { (0, 0 , x 3) / * 3 e R |
entonces el complemento ortogonal de S es
S1 ~ f (* lf x 2, * 3) 6 R 3 / * 3 = o )

7.9.2. Propiedad

El complemento ortogonal del subespacio S de (V, + , R , .) es un subespacio de V.


Debemos probar que S1 es un subconjunto no vacío de V, cerrado para la suma y para el
producto por escalares.
1. S1 C V por definición de S1.
2 . y e S = > < 0 , y > = O ^ O e S 1 =>Si v¿(/>
S . x e S 1 a y e S1 => <x , z> = 0 A ( y , z >= 0, Vz e S =>
=><x,z) + <y, z >= 0 , V z e S ^
^ ( x + y , z ) = 0 , V z e S =>x + y e S i

www.FreeLibros.com
COMPLEMENTO ORTOGONAL 231

4. a e R A x e S Í!^ « e R A ( x ,y> = 0 , V y e S = >


= » < a x , y > = : 0 , V y e S = >,o : x e S i

Por consiguiente
(S1, + , R, .) es un subespacio de V.

9.7.3. Propiedad
Si V es un espacio euclidiano de dimensión finita y si S es un subespacio de dimensión r,
entonces la dimensión del complem ento ortogonal de S es n - r .
Se trata de probar que
dim S + dim S1 = dim V
En efecto:
Si S = {0 } o S = V, la propiedad es obvia. Consideremos, pues, el caso en que S {01 y
S ¥= V, y sea
\ X i,X 2, . . .,xr )

una base ortonormal de S.


Entonces existen vectores x r + 1, xr + 2 , . • ., x „, tales que
(X !, X 2 -------- , X r , X r + l , . . , , X n l

es una base ortonorm al de V.


Afirmamos que
(Xr + i , X r + 2 » • • •> X n }
es una base ortonorm al de S1.
Para ello es suficiente probar que este conjunto es un sistema de generadores de S1. Sea
entonces un vector cualquiera u e S1.
n
u e S i = > u e V =* 3 a > , a 2, . .., o¡Me R / u = 2 a,- x,-
í =i

Como u es ortogonal a todos los vectores de S, considerando el producto interior entre


u y x ¡ , i = 1, 2 , . . r, resulta
n n
0 = <u , x¡ >=.2^ (oijXj , x,- >=.2^ oí¡ 5y = a ¿

O sea
n
u =.2 a¡x¡
i=r+ 1

Esto prueba que


iX r + i , Xr+2, ■■■ ) X n }
es un sistema de generadores de S1.

www.FreeLibros.com
PRODUCTO IN T E R IO R . GEOM ETRIA VECTORIAL
232

com o estos vectores son ortogonales y de m ódulo 1 , constituyen una base ortonormal de
S1 , y se tie n e
dim S1 = n - r

O sea
dim S + dim S1 —dim V
El lector puede comprobar, como consecuencia de esta propiedad, que V es la suma
directa de S y de su complemento ortogonal.

7.10. PROYECCION DE UN VECTOR SOBRE OTRO

Sean x e y dos vectores de un espacio con producto interior, e y * 0. Entonces existe un


ue
escalar a, tal que
x - a y ly

En efecto
< x - f l y , y > = 0=*<x,y> —a < y , y > - 0
(x ,y >
=>a =
<y >y >

El vector
_ <x ,y > _ < x , y > X -
“y <y ,y>y_ «y» «yl
se llama p r o y e c c ió n o r to g o n a l d e x s o b re y .
Identificaremos la proyección ortogonal de x sobre y con el numero real
<x ,y>

y escribiremos
<x ,y>

www.FreeLibros.com
ESPACIO AFIN 233

O sea, la proyección de un vector x sobre un vector y es igual al producto interior de


ambos, dividido por el m ódulo del vector sobre el cual se proyecta.
En particular, si y es un vector de módulo 1, se tiene
Py x = <x ,y >
por lo tanto, la proyección de un vector sobre un vector de módulo 1 es iguál al producto
interior de ambos.

Ejemplo 7-12
Comprobamos que las proyecciones de un vector de R3, con el producto interior
usual, sobre los vectores de una base ortonorm al, son las componentes de dicho vector
respecto de la base.

3 3

3 3
= 2 a¡ <e ¡ , e;- >= 2 a¡ óy ~ a¡

7.11. ESPACIO AFIN R"

7.11.1. Concepto

Sea (R n , + , R , .) el espacio real n-dimensional.

www.FreeLibros.com
PRODUCTO INTERIOR. GEOMETRIA VECTORIAL
234

Para cada A e R " definimos una suma en R " y un producto de escalares por elementos de
Rn , mediante
X ©Y = X + Y —A
a© X = a ( X - A ) + A
Estas definiciones hacen de la cuaterna (R n , ©, R, ®) un espacio vectorial con origen A.
El vector nulo de este espacio es A.
La suma y el producto de este espacio pueden obtenerse “llevando” las flechas AX y AY
al origen 0, operando en (R n , + , R , .), y desplazando el resultado al origen A. En R 2 esta
situación queda indicada por las figuras siguientes:

Definición
Espacio afín R " es el conjunto de todas las n*uplas de números reales, y una estructura
de espacio vectorial para cada A e R " , con las operaciones definidas.

7.11.2. Vectores fijos

Consideremos V = R ", X e R" e Y e R n . El par de puntos (X, Y) se llama vector fijo de


origen X y extrem o Y.'Se lo denota mediante XY*.
Sean los elementos de R ” :
A~(¿fJ( #2, #n) x ~ ( x i, x2> •••>% n} ^ (yi>y2> •••>yn)

www.FreeLibros.com
VECTORES UBR ES 235

Entonces la suma de X e Y, en el espacio de origen A, es


X ® Y = AX + ÁY = X + Y —A

Siendo
X + Y - A = (xi +>»i - a u X i + y 2 - a 7 ........ x n + y n - a»)

Si a e R , entonces
ti0X = a A X =« ( X - A ) + A = « X - - ( t t - l ) A

donde
a A - (a - 1) A = ( a x j - (a - . ..,a xn - (a - 1)«„)

7.11.3. Espacio de los vectores libres

Consideremos el espacio afín R ", es decir, el conjunto de todas las n-uplas de números
reales y las estructuras de espacios de los vectores aplicados en cada punto de R " .
En el espacio afín Rn definimos la siguiente relación de equivalencia:

A X ~ B Y « > A Y = X®B = A X © A B

Escribiremos
A X ® AJB = A ) ? + A B

Cada clase de equivalencia se llama un vector libre, y el conjunto cociente es el conjunto


de los vectores libres de R".
Un vector X e R" se denota:
Á"X si se lo considera como vector del espacio de orig en A.
Ó X s i pertenece al espacio de origen 0.
En el últim o caso se escribe directamente X.
Para operar en el espacio de los vectores libres se considera como conjunto de índices una

www.FreeLibros.com
236 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

estructura de espacio vectorial fija, con origen 0. Entonces el vector fijo XY es equivalente al
vector Y - X, con origen 0, y se escribe H ed ien te aJ

3t v = y x

Y - X

escaT aresiT seT ^ re‘aCÍÓn ^ eqUÍValenCÍa es compatible con la suma y el producto


nr por

a x - bV
A~X + AX' ~ ÍT y + B V ’
A X’ ~ B Y’
A X ~ B Y A a e R = > « ÀX ~ a B Y*

En consecuencia existen en el conjunto cociente, de ios vectores libres, dos leves de


composicion inducidas que lo caracterizan como espacio vectorial.
Resulta así el espacio vectorial de los vectores libres de R"

7.12. ECUACIONES VECTORIAL Y CARTESIANAS DE LA RECTA

En lo que sigue nos referiremos a vectores libres del espacio euclidiano tridimensional
sideiaremos una estructura de espacio vectorial, con origen en 0, y la base ortonormal

I = (1, 0. 0) J = (0, 1, 0) K = (0,0,1)

Los subespacios correspondientes a los ejes coordenados serán denotados por * y z


¿>ea A un vector no nulo de componentes /, m y n, es decir

A=/I+mJ-l-«K

po X ; s r ¿ r : “ adas ( x ° ' Zo)> entonces existe — o» p -

www.FreeLibros.com
RECTA 237

El vector O P0, de origen 0, será denotado por P0 . Sea X un punto genérico de la recta, de
coordenadas (x, y , z).
Se verifica que ^
X - P o + P qX
Y como P0X es equivalente a t A, para algún t e R, resulta
X = P0 + íA (1)
Para cada t e R se tiene un punto perteneciente a la recta. La igualdad (1) es la ecuación
vectorial paramétrica de la recta que pasa por P0 y es paralela al vector A. La variable X
depende de t, que es el parámetro.
Expresando (1) en términos de coordenadas es
(x, y, z ) = (x 0, y o, z 0) + t (l, m, n )
Efectuando el producto por r, sumando e igualando las componentes, resulta
x = x 0 + It
(2 ) ■y=y 0 +mt
z = z 0 + nt
Las ecuaciones (2) reciben el nombre de ecuaciones cartesianas paramétricas de la recta.
Las componentes l, m y n del vector A suelen llamarse coeficientes directores de la recta.
Si son distintos de cero, eliminando t, se obtiene
* -* o = y -y o _ 2 ~Zq
/ m n
Las ecuaciones (3) reciben el nombre de ecuaciones cartesianas de la recta.
Considerando la recta en un plano, la forma de la ecuación vectorial no se modifica, pero
las ecuaciones cartesianas quedan simplificadas, ya que la tercera componente no figura.

www.FreeLibros.com
238 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Ejemplo 7-13
Determinamos las ecuaciones vectorial y cartesianas de la recta que pasa por
p0 (_ } ?o, 2) y es paralela al vector A, siendo A = 3 I — J + 2 K .
La ecuación vectorial es
X = P0 + t A
O sea
x I + y J + z K - —I + 2K + í( 3 l —J + 2K)
Efectuando las operaciones
xI + ;> J + z K = (- 1 + 3 01 - t J + (2 + 2 t) K
Igualando componentes
(x= —1 + 3t
\y =-t
\ z= 2 + 2í
Las relaciones anteriores constituyen el sistema de ecuaciones cartesianas paramétricas
de la recta, y eliminando el parám etro t resulta
x + 1 __ y _ z- 2
3 - 1 2
Observamos que los sustraendos de los numeradores son las coordenadas del punto
dado, y los denominadores son las componentes del vector A.

Ejemplo 7-14
Obtenemos las ecuaciones cartesianas de la recta r que pasa por P0 ( 1 ,2 ,3 ) y es
paralela al vector A = 2 1 + K.
Como
X = P0 + t A
se tiene
x I + _ v J + z K = I + 2 J + 3 K + f ( 2 I + K)
O sea
x = 1+ 2 t
y = 2
z= 3+ í
Eliminando el parámetro entre la primera y la tercera ecuación, resulta
x" 1 = z- 3
2 1
y =2

www.FreeLibros.com
PLANO 239

E fectuando operaciones en la primera de estas ecuaciones se tiene


j x - 2z = —5
i y =2
Este es el sistema de ecuaciones cartesianas no paramétricas de la recta, y se interpreta
de la siguiente manera: r es la intersección de los planos cuyas ecuaciones son
x _ 2z = - 5 (paralelo al eje y ) a y = 2 (paralelo al plano x z , por el punto (0, 2, 0 )).

7.13. ECUACION NORMAL VECTORIAL DEL PLANO

Consideremos un vector unitario N t I + n 2S + n 3K

www.FreeLibros.com
240 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Sus proyecciones sobre los ejes son


n l = <N , I ) = II Nll IIIII eos a = 1 . 1 eos a = eos a
Análogamente
n 2 = eos 0 n 3 = eos y
Los números eos a, eos 0, eos y se llaman cosenos directores del vector N, y se identifican
con sus coordenadas, o sea
N = eos a I + eos 0 J + eos y K
Como el módulo de N es 1, se verifica que
eos2 a + eos2 P 4- eos2 y = 1
Esta propiedad es válida para todo vector del espacio. Es decir, la suma de los cuadrados
de los cosenos directores de un vector es igual a 1.
Dados un vector unitario N y un número p e R , estamos interesados en determinar la
ecuación del plano perpendicular a la dirección de N y tal que la distancia del origen al plano
sea p.
El vector N y el número p se llaman parámetros normales del plano.

Sea 7r el plano en cuestión. Cualquiera que sea X e 7Tse verifica que


PNX = p (1)
Es decir
<X,N>-p=0
Para denotar el producto interior o escalar <X , N > escribiremos X . N.

www.FreeLibros.com
PLANO 241

Entonces
X . N - p = 0 (2)

Tanto (1) como (2) son la ecuación normal vectorial del plano.
En términos de coordenadas se tiene
(x \ + y J + 2 K) (eos a I + eos j3 J + eos 7 K - p) = 0
Efectuando el p ro d u cto interior resulta
x eos a + y eos 0 + z eos y - p = 0 (3)
La relación (3) recibe el nombre de ecuación normal cartesiana del plano. Los coeficientes
de las variables son los cosenos directores del vector normal al plano, y el termino
independiente cambiado de signo es la distancia del origen al plano.
M u ltip lic a n d o la e c u a c ió n (3) p o r k i = 0, r e s u lta
ax + by + cz + d = 0
Esta relación recibe el nombre de ecuación general del plano.
D e s a rro lla m o s a c o n ti n u a c i ó n el m é t o d o q u e n o s p e r m ite p a s a r d e la e c u a c ió n g e n era l del
plano a la ecuación normal cartesiana.
Sea el plano 7Tde ecuación
ax + by + cz + d = 0 (4)
El plano 7Tadmite la ecuación normal
x eos a + y eos /3 + z eos 7 — p = 0 (3)

cuyos coeficientes hay que determinar.


Como ambas ecuaciones corresponden al mismo plano, para algún k e R se verifica que

a ~ k eos a
b = k eos 0
( 5) c = k eos 7
d = k(-p)

Sea d ± 0; como p es positivo, - p es negativo y, en consecuencia, el signo de k es distinto


del de d.
Elevando al cuadrado las tres primeras relaciones y sumándolas, se tiene
a2 + b 2 + c2 = k 2 (eos 2 a + eos2 0 + eos 2 7 )

O sea
k 2 = ü2 + b 2 + c 1

En consecuencia

k = ± V a2 + b 2 + c 2

www.FreeLibros.com
242 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

donde el signo de k, por lo observado anteriorm ente, debe tomarse distinto del de d.
De (5) resulta
a Q b c d
eos a = — y eos p = — ’ eos y ~ —» - p =—
k k k k
Sustituyendo en (3), la ecuación normal vectorial es
ax + by + cz + d _^

± s /a 2 + b 2 + c 2

Luego, para trasformar la ecuación general del plano a la forma normal, se divide el
primer miembro de aquella por la raíz cuadrada de la suma de los cuadrados de los
coeficientes de las variables, la que se tom a con signo distinto al del término independiente.

Ejemplo 7-16
Determinamos la ecuación normal cartesiana del plano cuya ecuación general es
x - y +z - 1 =0
De acuerdo con la fórmula de pasaje, la ecuación normal cartesiana es

x -y + z - 1 _ n
Vi 2 + (- )i2 + i2 ~
O sea
x-y+z^l =Q
y /T

O bien

_.V L o
3 3 3 3

Los tres cosenos directores son y la distancia del origen al plano es


V T 3 3 ’ 3

3
Observamos que el vector cuyas componentes son los coeficientes de las variables de la
ecuación general del plano es normal al mismo, ya que se deduce del vector normal
unitario multiplicándolo por k.

Ejemplo 7-17
Obtenemos la ecuación del plano que pasa por P0 ( 1 ,2 ,2 ) , sabiendo que es
perpendicular al vector A = 3 I + J + K.

www.FreeLibros.com
PLANO 243

Cualquiera que sea X perteneciente al plano pedido es

P qX 1 A

En consecuencia
P0X . A = 0

es la ecuación vectorial del plano.


En términos de coordenadas se tiene

P0X - (x - 1) I + O - 2) J + (z - 2) K

Efectuando el producto interior


3 ( * - l ) + 0 —2) + ( z — 2) = 0

O sea
3 x + y + z —7 = 0

Ejemplo 7-18
Determinamos la distancia entre el plano de ecuación
2 x -j'-2 z + 3-0
y el punto P0( l , 2, 3)
Sea 7Tel plano cuya ecuación normal es

PN X - p = 0

y sea P0(^ 0 . yo> z 0) un punto dado.

www.FreeLibros.com
244
PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

La distancia entre el plano 7Ty el punto P0 es

d ~ - p\
O sea la distancia entre un plano y un punto es el valor absoluto del primer miembro

Pian0’ CUand° " SUSt“ Uye h


Determinamos primero la ecuación normal del plano dado
J l x - y - 2z +3
- V 2 ‘ + ( - l ) ‘ + ( —2)2 ~°
O sea

2 X1 2
? " +? v + I 2 - 1 =o
Sustituyendo x, y , z por las coordenadas de Pft es

d“ | - f 1 + r 2f - 3 - 1

Ejemplo 7-19
Dados los puntos A ( - i 3 2l v R f _ i i n\ a *
Plano perpendicular a la recta AB, sabiendo que d i d l o T 08 ^ ° rÍ8en 31
del segmento AB. piano pasa por el punto medio
Las coordenadas del punto medio de un sem iento «nn u
coordenadas de los extremos de dicho segmento S<!miSUmaS de laS
En efecto:

www.FreeLibros.com
DISTANCIA 245

M = A + AM
B = M + MB

Restando
M _ fi = A - M pues ÀM y MB son equivalentes

Entonces
2M = A + B

0 sea
m = 1 ( a + b)
2
En nuestro caso, las coordenadas de M son ( - 1 , 2, 1), y un vector normal al plano es
Á~B = B - A = - 2 J - 2 K

La ecuación vectorial del plano es


M~ X . Á B = 0

Donde
M~X = (x + 1)1 + 0 - 2 ) J + (z - 1) K

Efectuando el producto
O . (x + 1 ) — 2 (y — 2) — 2 (z — 1) = O

www.FreeLibros.com
246 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

O sea
2y + 2 z - 6=0
es la ecuación del plano pedido. Este plano es ortogonal al vector —2J - 2K, es decir,
al plano y z ; en consecuencia, es paralelo al eje x.
Observamos que si el coeficiente de una variable de la ecuación de un plano es cero,
entonces dicho plano es paralelo al eje correspondiente a esa variable.
La ecuación normal del plano hallado es
2y + 2 z - 6 =0
2 s¡2
O sea
\/2 , y/2
—— y + —— z
2 2
Y la distancia pedida es
_ 3y / 2
d= ^ . 0 + ^ . 0
2 2

7.14. CURVAS EN EL ESPACIO

Sea I un intervalo real. Toda función


X : I -> R 3
se llama curva paramétrica en el espacio.
Cualquiera que sea r e l , X ( f ) es un vector cuyas coordenadas dependen de t. O sea,
existen funciones x, y , z de I en R, tales que

X ( 0 = (*(0>.v(0»z(0j

www.FreeLibros.com
CURVAS 247

La ecuación vectorial paramétrica de la curva C es


X = jc (í) 1 + y (í) J + z (t) K
Las ecuaciones cartesianas paramétricas de C son
x ~ x (í)

y=y{t)
Z ~ 2 (í)
La curva cuya ecuación paramétrica es
X (f) = eos 1 1 + sen t J + K
es tal que sus ecuaciones cartesianas paramétricas son
/ x = eos t
| y - sen t
\ z~ 1
cualquiera que sea t e R.
Elevando al cuadrado las dos primeras y sumando eliminamos el parámetro
x2 + y2= 1
z - 1
La representación de C está caracterizada por la intersección de dos superficies: la
superficie cilindrica cuya directriz es la circunferencia de radio 1 centrada en el origen e
incluida en el plano horizontal y cuyas generatrices son paralelas al eje z, y el plano de
ecuación z = 1.
Se trata de la circunferencia indicada en el gráfico siguiente:

www.FreeLibros.com
248 PR
O DUCTO INTERIOR. GEOMETRIA VECTORIAL

La representación de una curva com o intersección de dos superficies se llama implícita, y


en general se denota mediante
[ F (x , y , z ) = 0
C
( G (x , y , z) = 0

Donde el sistema anterior es tal que se cumplen las condiciones de regularidad dadas por
el teorema de Cauchy Dini, relativo a la existencia de funciones definidas por sistemas de
ecuaciones.
Ejemplo 7-20
Deducimos la ecuación vectorial de la hélice circular, definida como la trayectoria de
un punto que gira alrededor de un eje y además se traslada paralelamente a él, siendo
ambos movimientos uniformes.

www.FreeLibros.com
SUPERFICIE CILINDRICA 249

Suponem os que en el in stante t = 0 e l p u n to m ó v il está en A (a, 0, 0), y que al cabo del


tiem po t está en X (x , y , 2).
Se verifica que

wt y z = vt

Siendo w la velocidad angular del movimiento circular uniforme, y v la velocidad (en


módulo) del movimiento rectilíneo y uniforme.
Las ecuaciones paramétricas en coordenadas cilindricas de la hélice circular son

p =a
<p= w t
Z -V t

Se tiene así el sistema de ecuaciones horarias de la curva.


Haciendo

(£= w t ~ u

Resulta
y
z = v t —— w t = b u
w
Las ecuaciones cartesianas paramétricas son

X ~ Ü eos u
y - a sen u
z = bu

La ecuación vectorial paramétrica de la hélice es


X = a c o s « I + 6 s e n « J + Z>wK

7.15. SUPERFICIE CILINDRICA

Sean: una curva C y una dirección del espacio caracterizada por un vector no nulo
A = / I + m J + «K.

Definición
Superficie cilindrica de directriz C y dirección A, es el conjunto de puntos de las
paralelas a A, que pasan por todos los puntos de C.

www.FreeLibros.com
r
250
PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Las paralelas a A se llaman generatrices

La ecuación vectorial es, entonces

x= q + \ a
Ejemplo 7‘21

Determinamos la ecuación de la superficie cilindrica de directriz


x = eos t
y = sen t
z =0
y cuyas generatrices son paralelas
1. Al eje z , o sea, al vector A = K.

X = Í2 + Xa (l)
Como 12 (eos t, sen t, 0), de (1) resulta

x I + y J + z K = cos ? I + sen / J + \ K
Luego

x = eos t
y = sen t
z =\

www.FreeLibros.com
SUPERFIC IE CONICA 251

es el sistema de ecuaciones paramétricas de la superficie, siendo t y Xlos parámetros.


De las dos primeras ecuaciones resulta
x2 + y 2 ~ 1
siendo z cualquier núm ero real.
2. Al vector A = I + J + K
De (1 )

x l + y J + z K = eos 1 1 + sen ? J + X ( I + J + K )
Luego
x = X + eos t

y = X + sen t

z = X
Eliminamos los parám etros
X — z = eos t

y - z = sen t

Y resulta
ito
(x - z )2 + {y - z )2 = 1
un

7.16. SUPERFICIE CONICA

Consideremos una curva C, llamada directriz, y un punto V no perteneciente a C, llamado


vértice.

Definición
Superfìcie cónica de directriz C y vértice V es el conjunto de puntos de las rectas
determinadas por V y todos los puntos de la directriz.

www.FreeLibros.com
PRODUCTO INTERIOR. GEOMETRIA VECTORIAL
252

Las rectas consideradas se llaman generatrices.


Sea X un punto genérico de la superficie cónica; X pertenece a una generatriz, la c
corta a la directriz en un punto £2.
Entonces la ecuación vectorial de la superficie cónica es
x=v+xvn
O bien
X = £2 + XV £2

Ejemplo 7-22
Obtenemos la ecuación de la superficie cónica de directriz
x 2 + y2 - 1 = 0
z =1

y vértice V ( 0 ,0 ,0 )

Como
V £2= (a — O )I + (0 —O )J = a I + 0 J

y
X = V + \V ~£2,

resulta
x I + 7 J + 2 K = X ( a I + 0 J + K)

www.FreeLibros.com
PROYECCION 253

Luego
x = Xa

y = \(3
z~ \

De donde

A (3 = £
z z

Sustituyendo e n ( l )
*2 + y2 - z 2=0,
se obtiene la ecuación cartesiana im plícita de la superficie cónica.

7.17. PROYECCION DE UNA CURVA SOBRE UN PLANO COORDENADO

En el cálculo de integrales múltiples suelen utilizarse a menudo las ecuaciones de la


proyección de una curva sobre uno de los planos coordenados.

Sea la curva C, definida por el sistema de ecuaciones

F(x,>’,z) = 0 (1)
G (x,y,z) =0 (2)

www.FreeLibros.com
4 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

^ L a superficie cilindrica de generatrices paralelas al eje z y de directriz C, se llama «7,**,


proyectante de C sobre el plano horizontal. Su ecuación es del tipo

y d e Í X d r o proyectante con el plano de ecuación z = 0, es la proyecció,

de C sobre el plano horizontal.


O sea-
f(x,y) = 0
C ' = P*=oC
2 = 0

Para obtener ,la Aa r cnhr?deel Colano


a«proyección sobrev 2el hay que
piano no* 4 x entre (1) y (2)j
y ¿eliminar
cortar el cilindro proyectante con el plano de ecuación x 0.

Ejemplo 7-23
Determinamos las proyecciones, sobre los planos * j y * z, de la curva
x * + y 2 + 2* = l (1)
c
x2 + / = 2 (2)

1. Eliminamos z entre (1) y (2)


+ y 2 + ( x 2 + y 2)2 - 1

Pasando a coordenadas polares


p2 + p 4 = l

Entonces
p4 4- p2 — 1 = 0

Resolviendo respecto de p2
^ - 1 ±VT
P2 = — ; —

La única solución es

O sea

La proyección sobre el plano horizontal es la circunferencia de ecuac.ones.


V 5- 1

www.FreeLibros.com
PROYECCION 255

Su radio es ______

2. Si proyectamos sobre el plano y z, se elimina x entre (1) y (2) restándolas


z2 = 1 - z

Se obtiene
z 2 + z —1 = 0

O sea
-1 ±>/5
z --------------

Y como 2 > 0 , se tiene

Resulta
y/5 - 1
z“ —
P*=0 C { 2
jc = 0

Ejemplo 7-24
Obtenemos la proyección de C sobre los planos x y y x z , siendo
Ix2 + y2 +z2 = 1 (1)
C ( x2 + y 2 - x =0 (2)
1. La ecuación del cilindro proyectante de C sobre el plano horizontal es
x2 +y2 - x ~0 (2)
ya que z no figura.
Luego

x2 +y2 - x = 0
P ,= o C
z=0

es la circunferencia de radio -^-y centro , 0 j del plano horizontal.

2. Restando (1) y (2)


z2 + x = l

www.FreeLibros.com
PRODUCTO INTERIOR. GEOMETRIA VECTORIAL
256

Luego
( Z2 = —X + 1
py = o c \ _ n
\y-0
es la parábola de vértice (1, 0) y eje - x del plano x z.

www.FreeLibros.com
TRABAJO PRACTICO VII

= Xf A Y no es un producto interior en (R 2 , +, R, .)•

7-26. Considerar la misma cuestión siendo A =

7-27. En (V, + , R , .) se sabe que v es ortogonal a v 1( v2 y v3. Demostrar que v es ortogonal


al subespacio generado por ellos.
7-28. En un espacio con producto interior el ángulo de los vectores y y z es a. Sabiendo que
y = x + z, demostrar que
II xll2 = llyli2 + llzll2 - 2 II yl l . II zll c o sa

7-29. Demostrar
<x , y > 1= II xll II yll e y son L.D.

7-30. En Rn se considera el producto interior definido por


<X , Y >= X f Y
Demostrar

7-5/. En un espacio euclidiano n-dimensional los vectores v 4, v2, . . v„ son tales que
<V( , V, >= 6y . Demostrar que tales vectores forman una base.
7-32. En un espacio euclidiano se considera la función
d : V2 -►R
definida por d (x , y) = II x - y II. Demostrar que (V, d) es un espacio métrico.
7-33. Sea (V, + , R, .) un espacio vectorial con producto interior, y sea y e V. Demostrar que
la función
/ : V -»■ R

www.FreeLibros.com
PRODUCTO INTERIOR. GEOMETRIA VECTORIAL
258

definida por
/(x)= < x, y)

es una forma lineal.


7-34. Sea < , ) un producto interior en (V, + , R , .), y sea / : V ^ V una T. L. Demostrar que
: V2 -*■R
tal que ( p ( x , y ) = < /(x ), /(y)> es un producto interior en V, s i / es 1 - 1.
7-35. Sea (V, + , R , .) un espacio euclidiano. Demostrar que la función
N :V ^R

definida por
N (x) = ( x , x > f

verifica:
1 . N ( a x ) - a 2 N (x )
2. N (x + y) - N (x) - N (y) = 2 <x , y >

3.— N (x + y) - - N (x - y ) = <x , y >


4 4
7-36, Demostrar que en todo espacio euclidiano las diagonales de un rombo son
perpendiculares.
7-37. Sea (V, + , R , .) un espacio vectorial con producto interior.
Demostrar

1. ! l x - y l l > | l l xl l - Uyll|
2. llxll2 + IIyII2 = IIx +y l l 2 = > x l y
3. I l x - y l ! > l l xl l - llyll
4. x l y II x + a y II > II x II, V a e R

7-38. Sean: V un espacio vectorial euclidiano y A C V. Por definición, x e V es ortogonal a A


si y solo si
yeA ^xly
Demostrar que si x es ortogonal a A, entonces x es ortogonal a A.
7-39. Demostrar que si V es un espacio euclidiano n-dimensional y S es un subespacio de
dimensión m , tal que m < n , entonces existe un vector x e V y x / S tal que x es
ortogonal a S.
7-40. Sean V y S como en el ejercicio anterior. Demostrar que existe un único subespacio T
tal que
l.x eT ^x lS

www.FreeLibros.com
TRABAJO PRACTICO VII 259

2. dim T = « - W
3. V = S ® T

j 4 l En (R 3 , + . R >■)se considera el producto interior ha bitual.


1 Obtener un vector unitario ortogonal a
V! = (1 , —1, 3) y v2 = ( 2 , 4 , 3)
2. Obtener dos vectores unitarios ortogonales entre sí y ortogonales a
v = (1, —1 ,3 )
3. Sea la base
[v ]= ¡ ( 1 , 1 , 1 ) , ( 1 , 1 , 0 ) , ( 1 , 0 , 0)(
Construir una base ortonorm al a partir de [v] mediante el proceso de Gram Schmidt
742. Sea ( , va , . . v „ ) un conjunto ortogonal en (V, + , R ,.) y sea
n
v« .S a ¡v ¡
1=1

Demostrar que

7-43. Sean (V, + , R , .) un espacio euclidiano y { Vi, v2 , . .., vn } una base de V tal que
n
x e V a y e V=><x , y >= £ x t y t

n n
donde x = 2 x f vf y y =. 2) y ¡ \ i
í—i i—i
Demostrar que la base { v , , v2 , . . v„ } es ortonormal.
7-44. Sean: V un espacio euclidiano y A C V. Si £2(A) denota el conjunto de todos los
vectores ortogonales a A, entonces
fi(í2 (A )) = A
7-45. Demostrar que si / V i,v2 , . . v„ | es una base ortonorm al de (V, + , R , .), entonces
n
<x,y>=

746. En (V, + , C , .), la función


< , ) : V2 C
es un producto interior o hermitiano si y sólo si

i ) < x , y >= <y , x>


ii)<x + y,z> = <x,y>+<x,z>

www.FreeLibros.com
260 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

iii) < a x , y > = a ( x , y >


iv) <x , x ) > 0
( x ) x ) = 0 < í- x - 0
Un espacio vectorial sobre C, con producto interior, se llama unitario.
Definiendo
II x ii= v T x T x ) ,
demostrar que
I<x , y ) l < llxil IIyII

7-47. Sean P i ( l , - 1 , 1) y P2( - l , 1 ,0 ). Obtener:


1. Las ecuaciones vectorial y cartesiana del plano perpendicular a la recta Pi P2 en Pj.
2. Las ecuaciones vectorial y cartesianas de la recta perpendicular al plano anterior,
sabiendo que dicha recta pasa por Po(0, 2, - 3 ) .

7-48. Determinar el conjunto de los puntos del espacio que equidistan del plano
x +y = 1
y del punto F (2, 2, 1).
7-49. Obtener las ecuaciones vectorial y cartesiana del plano paralelo al plano
a x + y -0=0
que pasa por P0(a, a, 3).
7-50. Hallar la distancia entre el plano que contiene a las rectas
x =y =z
x —1 =y + 2 =z
y el punto P0(—1, 0, 1).
7-51. Obtener las ecuaciones de la recta determinada por los planos
2x - y + z —2=0
y
x + 2 y - z + 1= 0
7-52. Hallar las ecuaciones de la recta que pasa por el origen y es paralela a la intersección de
los planos
2 x + y ~ z =0
y
x —2y + z = 5

7-53. Obtener la ecuación de la superficie cilindrica de directriz

www.FreeLibros.com
TRABAJO PRACTICO VII 261

y cuyas generatrices son paralelas al vector A = I + J 4- K.


7-54. Determinar la ecuación de la superficie cónica cuya directriz es la curva del ejercicio
7-53, y cuyo vértice es V (0, - 1 , 1 ) .
7. 55 . Obtener las proyecciones de la curva

sobre los tres planos coordenados.


7-56. Por cada punto de la recta
x + z=2
r
y =0
Se considera la perpendicular a la recta

Obtener la ecuación del conjunto de puntos de tales perpendiculares.


7-57. Hallar las ecuaciones vectorial y cartesiana del helicoide recto, que se define como el
conjunto de puntos de las rectas que pasan por todos los puntos de una hélice circular
y que son perpendiculares al eje de ésta.
7-58. Sea (V, + , C, .) un espacio unitario, y sea { V j, v2 , .. v„ } una base ortonormal del
mismo.
Demostrar que

siendo X = X x¡ y Y —2 v¡
i - il í=
. „ ii

7-59. Sea P e Rnxn una matriz ortogonal. Demostrar que las líneas de P constituyen una base
ortonormal de R", considerando el producto interior habitual.

n
i < /' = > 2 P U = 0

7-61. Sea dimK V = n > 1 y sea ( , > un producto interior en V.


Demostrar que si / ’e V * , entonces existe un único vector x e V , tal que / ( y) =
= < x , y > , VyeV.

www.FreeLibros.com
262 PR
O DUCTO INTERIOR. GEOMETRIA VECTORIAL

7-62. Sean: un espacio unitario V de dimensión finita y [v] = { Vi, v2,. . v„ ¡ una base
ortonorm al del mismo.
Demostrar que
n
x e V =>x = 2 ( x , v ¿ ) v ¿
j= i '

www.FreeLibros.com
Capítulo 8

VALOR ES Y VECTORES PROPIOS .


D IAGO NALIZAC ION

8.1. INTRODUCCION

Desarrollamos en este capítulo los conceptos de valores y vectores propios de un


endomorfismo en un espacio vectorial y de la matriz asociada en el caso de dimensión finita.
Demostramos las propiedades fundamentales de los mismos y su determinación a partir del
polinomio característico. Encaramos después el problema de la diagorialización de
trasformaciones lineales y matrices, así como también el de la triangulación. Por último,
demostramos el teorema de Hamilton-Cayley.

8.2. VALORES Y VECTORES PROPIOS

8.2.1. Concepto

Consideremos un espacio vectorial (V, + , K , .) y un endomorfismo


/ : V-> V

Definición
El escalar X e K es un valor propio de / si y sólo si existe un vector no nulo x e V, tal
que / ( x ) = Xx.
Todo vector no nulo que satisfaga la condición anterior se llama vector propio de f,
asociado al valor propio X.
En consecuencia, un vector propio de un endomorfismo es un vector no nulo cuya imagen
es un múltiplo escalar del mismo.
Las expresiones “valor propio” , “valor característico” y “autovalor” son sinónimas.
También lo son “vector propio” , “vector característico” y “ autovector” .

Ejemplo 8-1
Considerando (R 2 , + , R , .) y la trasformación lineal
/ : R2 R2

www.FreeLibros.com
264 VALORES Y VECTORES PROPIOS. DIAGONALIZACION

definida por

f ( x i , x 2) = (2jc 1 , 7 x 1 - 2 x 2) ,
el escalar X = 2 es un valor propio de / , ya que el vector no nulo (2, 1) es tal que
/ ( 2 , 1 )= (4 , 2) = 2 ( 2 ,1 )
(2, 1) es un vector propio asociado al valor propio 2.

8.2.2. Propiedad

Si X es un valor propio de una trasformación lineal / : V V, y si S \ es el conjunto de l0s


vectores propios asociados a X, entonces S* = S \ U {0 } es un subespacio de V
En efecto:
1.QeSx^Sx^íj).

2. S \ C V por definición de S^.


3. Sean x e y pertenecientes a S^.
Si x = 0 v y = 0, entonces x + y e S^.
Supongamos que x ¥= 0 e y ¥= 0

xv¿=0 A y ^ 0 ^ x e S \ A y e S \ = >
(x) = Xx A / ( y ) = Xy =>f (x) + / ( y ) = Xx + Xy =►
=>/ (x + y ) = X (x + y) => x + y e S:\ =>x + y e S K

4. Sean f t e K y x e S ^ .
Si x = 0 o a = 0, entonces a x e S \ .
Consideremos el caso en que x ¥= 0 y a =£ 0:

aeKA x^O ^ae K a x e S \ =>aeK a / ( x ) - Xx =>

=►a / ( x ) = a (X x) = > /(a x) = X ( a x ) = > a x e S ’^


^axeS^

En consecuencia, (Sx , + , K , .) es un subespacio de (V, +, K, .).


De acuerdo con lo demostrado en 4., afirmamos que si x es un vector propio de/asociado
a X, y a =£ 0, entonces a x es un vector propio asociado al mismo valor propio.
Observamos también que la restricción d e / a es una homotecia de razón X

8.2.3. Valores y vectores propios de una matriz

Definición

El escalar X es un valor propio de la m atriz A e Knxn si y solo si existe un vector no


n u lo X e K " * 1 tal que AX=- a X

www.FreeLibros.com
VALORES PROPIOS 265

0 vector no nulo que satisfaga la relación AX ~ X X se llama vector propio de A asociado

al valor entonCes que, un vector propio de una m atriz A e Knxn es un vector propio de
sformación lineal de Kn en K" representada por A en la base canónica.

Ejemplo 8-2.
V es el espacio vectorial sobre el cuerpo de los números reales, de las funciones
R R infinitamente derivables y
D : V
el endomorfismo definido por
es
di
D (f)
dx
_ . á í
entonces la función f e V, tal que f (x) = e A * es un vector propio de la trasformación
lineal D, pues

D (f) = — = X e ÁX V X e R
dx

Ejemplo 8-3
Si A e K nxn es una matriz diagonal, entonces cualquier vector canónico Eí e K ”x l ,
donde i = 1, 2 , es un vector propio de A.

En efecto, sea
Id i 0
0 d2
A=

0 0
Entonces
di 0 . .. 0 1°
d2
. o

. o

A E¿ = = di - dt Et
'o

0 . • • dn
\ ó i \ol
Los valores propios de A son los elementos de la diagonal.

8.2.4. Propiedad

Los vectores propios asociados a valtíres propios distintos son linealmente independientes.
Sean
/ : V -> V

www.FreeLibros.com
266 VAL
O RES Y VECTORES PROPIOS. DIAGONALIZACION

una trasformación lineal y x , , x2, . . x„ vectores propios asociados « X ,, \ ,.


que
i i= j => \ t6 A,-

Demostraremos que X i, x 2 , . . x„ son linealmente independientes.


1 . M- 1 ^ x i ^ O ^ x j esL .I.
2. { X j, x 2 , . . Xj, ) es L.I. ^ { X j, x 2 , . ■ xh, x^ +1 | es L.I.
En efecto, consideremos
h+1
aixi= 0 (1 )

Multiplicamos por X>, + 1


tti X/,+ 1 Xj + . . . + a /i X* + l Xj,+ « h + l \ j + i x h+i

A p lic a n d o /a (1)
\ i X! + . . . + oth x ít + 0¡h + l \ j + i x ft + i “ 0

Restamos estas dos igualdades


«i (\i + i - M x i + ■■• + íh i + i - b i ) x h = 0

Por la hipótesis inductiva resulta


cl¡ ( \ +i - \ ) = 0 V /= 1 , 2 , . . .,h

Y como \ , + 1 — X,- ^ 0, resulta


«¿ = 0 V /= 1 , 2 , . . .,h
Sustituyendo en (1), se tiene
®h +1 x h + i = 0
O s e a a ft +i = 0 , ya q u e xh + i ^ 0

En consecuencia
d i = a-i = . .. = oth = a h +! = 0

Y por lo tanto
( x , , x 2 , . . . , x » } esL .I.

8.2.5. Propiedad
Si / es una trasformación lineal del espacio vectorial V , de dimensión finita,
entonces A e K es un valor propio de / s i y sólo si / - Ai es singular.
i denota la trasformación identidad en V.
1. Sea X un valor propio d e /. Entonces existe x ^O en V, tal q u e /( x ) = Ax

www.FreeLibros.com
VECTORES PROPIOS
267

Ahora bien
/ ( x ) = X x = */(x) - X i (x) = 0 =►/(x ) - (Xí) (x) = 0 => ( f - M) (x) = 0.

En consecuencia, N ( f - Ai) {0 ) , o s e a , / - A/ es singular.


2. Supongamos ahora que / - A i es singular, o sea, no inversible. Esto significa que
/ - A /: V -»• V es tal queN ( f — A/) =£{0} . En consecuencia, existe x e V, x =£ 0 tal
que ( f - A¿) (x) = 0. De acuerdo con el álgebra de las trasformaciones lineales, se tiene
/ ( x ) —(Xi) (x ) = 0
Es decir
/ ( x ) = Xí (x ) = X x
y por consiguiente Xes un valor propio d e /.
En términos de matrices esta propiedad se traduce de la siguiente manera:
Si A e K nxn , entonces X e K es un valor propio de A si y sólo si A - XI es singular.
Equivalentemente

Xes un valor propio de A g K nx " D (A - Xl ) = 0

Ejemplo 8-4
El lector podrá demostrar, al realizar el trabajo práctico, que todo endomorfismo en V,
donde V es un espacio vectorial de dimensión finita y mayor o igual que 1 sobre el
cuerpo de los complejos, admite un vector propio.
Pero si el cuerpo no es C, entonces pueden no existir vectores propios. En efecto, sea
(R2, + , R , .) y sea

entonces

Xi eos 6 - x 2 sen 0 = X x i
x 1 sen 6 + x 2 eos 6 = \ x 2
O sea

(X - eos 6) x ! + x 2 sen 6 = 0
- x i sen 0 + (X - eos 6) x 2 = 0

www.FreeLibros.com
268 VAL
O RES Y VECTORES PROPIOS. DIAGONALIZACION

Si el sistema admite soluciones no triviales debe ser

X — eos 0 sen 0
= 0
—sen 0 X — eos 0

Luego

(X - eos 0)2 + sen2 0 = 0


X2 —2 Xcos 0 + 1= 0
X= eos 0 ± \Jeos2 0 —1
Si 0 = 60°, entonces

\ = — +V " —¿ R

Sólo existen vectores propios si 0 - n ir.


Considerando (R 2 , + , C , .) existen valores y vectores propios. El endomorfismo f
representa una rotación del plano de ángulo 0 alrededor del origen.

8.2.6. Propiedad

Si / : V - ^ V es una trasformación lineal, y si además existe una base


jyj = j Vl ( v2 ........ v„ ¡ form ada por los vectores propios de/correspondientes a los valores
propios X j, ., X n , entonces la matriz de / respecto de esta base es la matriz diagonal
I X, 0 ... 0 ’
0 Xa . . . 0
D= ; ; ;

o o ... K
En efecto, la m atriz de / respecto de [v] se obtiene determinando las imágenes de los
vectores de dicha base, y teniendo en cuenta la definición de vector propio es
/ ( v i ) = Xi Vi = Xi vj + 0 v2 + . . . + 0 vn
/ (V2 ) = Xa v2 = 0 V! + X2 v2 + . . . + 0 v„

/ ( v „ ) = Xfl vM= 0 v i + 0 v 2 + . . . + X* v„

En consecuencia, resulta
X! 0
0 X2
D=

0 0 ... X„

www.FreeLibros.com
m

VECTORES PROPIOS
269

En este caso diremos que la trasformación lineal / es diagonalizable.


Una consecuencia del teorema demostrado es la siguiente:
Si dim V = n y / : V-> V es un endomorfismo que admite n valores propios distintos
entonces/ es diagonahzable.
Esta afirmación es obvia en virtud del teorema anterior y de 8 2 4
En términos de matrices diremos que si A e K " x " admite « v alores propios distintos
entonces existe P € K no singular, tal que
P 1 A P es diagonal

Ejemplo 8-5
Determinamos los valores y vectores propios de A, siendo
3 -2
A=
1
De acuerdo con 8.2.5., consideremos

D(A-X1) = 0
0 sea

3- X - 2
= 0
-1 2- X
Resolvemos respecto de X

(3 - X) ( 2 - X) - 2 = 0

X2 - 5 X + 4 = 0
5 ± V 25 - 16 _ 5 ±3
2 2
os Las raíces son:

Para cada X resolvemos el sistema

(A - XI) X = 0

2xi - 2x 2 =0
~ X : -X j + * 2 = 0

El sistema es equivalente a
x i - x2= 0
De donde

x x —x 2

www.FreeLibros.com
270 VALORES Y VECTORES PROPIOS. DIAGONALIZACION

Luego
1
Xi =
,1

X i es un vector propio asociado a \ = 1.

2. a2 = 4 - ( : | :j) = ( “ ) ■ * - * . - 2 * , + 2 , a =o

= - 2 x 2 =>X2 = ^ ^

X2 es un vector propio asociado a X2 •


Los vectores X j y X2 son L.I. y forman una base de R2.
A es diagonalizable, y su forma diagonal es
1 0
D=
0 4
Si P es la matriz cuyas columnas son los vectores propios, entonces es
P”1 A P = D

8.3. POLINOMIO CARACTERISTICO DE UNA MATRIZ

8.3.1. N ota sobre polinomios

Sea K [X] el anillo de polinomios del cuerpo K (véase capítulo 12 deA lgebral, del mismo
autor).
Si P e K [X], escribimos

P ( X ) = 2 a.-X1'
v ' i=0 '
donde a¡ e K y an =£0, o sea# P = n.
Dada la matriz cuadrada A, definimos

P (A )= £ a¡ A'
v ' i=0 1
Haciendo A° = 1, se tiene
P C A )-« ,! A" + a n~l A "-' 1 -f . . . + ü t A + a 0 I
La matriz P (A) es la especialización de X por A.

Ejemplo 8-6
En R [X] consideremos
P (X ) = 2 X 2 - X - l

www.FreeLibros.com
POLINOMIO CARACTERISTICO 271

y sea
1 1
A=
0 2

Entonces
P (A) = 2 A2 - A - I =
—1 1 \ / —1 1 \ /-I 1\ / 1 0
- 2 . , , , ,
0 2/ \ 0 2/ \ 0 2 / \0 1

= 2, 1 I U I - 1 + - 1 °
0 4/ \ 0 -2 \ 0 —1

2 2 +/° - 1 = 2 1
0 8/ 10-3/ 0 5
Se verifica que
1. (P + Q) (A) = P (A) + Q (A)
2. (P . Q) (A) = P (A) . Q (A)
3. (a P )(A ) = a P ( A )
Si « i , <*2 , • • •>Oín son elementos de K y

P (X ) = ( X - a 1) ( X - a 1) . . . ( X - a II),
entonces es
P (A) = (A —otl I) (A - a 2 I) . . . (A - an I)

Ejemplo 8-7
Si A € k " xm, entonces existe un polinomio no nulo P € K [X]tal que P (A) = N, donde
N denota la matriz nula del tipo n x n.

En efecto, la dimensión de (K” x” , + , K , .) es n 2 . Esto significa que las matrices


I, A, A2 ,. . Am
son linealmente dependientes si m > n 2 .
En consecuencia, existen escalares a lt a2, . . am , no todos nulos, tales que
Am + V i A ”1“1 + . . . + « ! A + a0 I = N
O sea, existe
P ( X ) = íim X m + a m-l Xm_1 + . . . + a i X + a 0
en K [X], que satisface
P(A)=N

www.FreeLibros.com
VALORES Y VECTORES PROPIOS. DIAGONALIZACION
272

8.3.2. Polinomio característico

Definición
Polinomio característico de una m atriz A e K " Xíl es el determinante de la matriz
XI — A.
O sea
X —ü\\ ~~ #12 . . . Q\n
— #21 ^ —a22 • • • ~ ^In
P (X) = D (X I — A) =

~ «ni a n2 . . . X ünn

Desarrollando por los elementos de la primera columna y reiterando el procedimiento en


los sucesivos cofactores, se obtiene una suma del tipo
( X - ¿fu) . . . ( X - a nn) + . . .
donde los términos, a partir del1 primero, son de grado menor que n.
Resulta
P (X) = X" + c n-1 X""1 + . .. + ci X + c0

Ejemplo 8-8
Determinamos el polinomio característico de A, siendo
■ 1 2 2
A= ‘

X -t-1 — 2 -2
P (X) = D (XI — A) = -2 X —2 —2
3 6 X+ 6

X- 2 -2 -2 -2 -2 —2
+ 2 + 3
= (X + 1 ) 6 A+ 6 6 X+ 6 X- 2 - 2

= (X + 1) (X2 + 4 X) + 2 ( - 2 X ) + 3 . 2 X
= X3 + 5 X2 + 4 X - 4 X + 6 X = X 3 + 5 X2 + 6 X
Una raíz es \ = 0. Las otras dos lo son de
X2 + 5 X + 6

O sea
—5 ± 1
X=
2

www.FreeLibros.com
POLINOMIO CARACTERISTICO 273

Resulta
X2 = —3 X3 = —2

8.3.3. Propiedad

El escalar X es un valor propio de A e K nxn si y sólo si X es raíz del polinomio


característico de A.
1 . Sea Xun valor propio de A. Entonces, de acuerdo con 8.2.5., A - XI es singular, y por
consiguiente también lo es XI - A, o sea, D (XI - A) = 0.
En consecuencia, Xes una raíz del polinomio característico.
2. Supongamos que Xsea una raíz del polinomio característico de A. Entonces es
D ( X l —A) = 0
O sea, XI - A y A — XI son singulares. Esto significa que X es un valor propio de A,
por 8.2.5.
Usualmente, la determinación de los valores propios de una matriz, es decir, de las raíces
de su polinomio característico, no es simple. Los m étodos adecuados a este fin son temas de
Cálculo Numérico, que no trataremos en este texto.

Ejemplo 8-9
Determinamos los valores y vectores propios de A e C2 x2, siendo

El polinomio característico es

P(X) = D (XI — A) = X 2 2 = (X — 2)2 + 4


2 X —2
P(X) = 0 ^ ( X - 2)2 + 4 = 0 = > X ~ 2 = ± 2 / = * X=2 ± 2i
Los valores propios de A son
X, = 2 + 2/ Xj = 2 - 2i
Para determinar un vector propio asociado a X resolvemos el sistema lineal
(X I - A )X = 0
En efecto, si X es un vector propio asociado a X, por 8.2.3. se tiene
A X = XX
De donde
X X —A X = 0
O sea
XIX-AX =0

www.FreeLibros.com
274 VAL
O RES Y VECTORES PROPIOS. DIAGONALIZACION.

Por distributividad es
(XI - A ) X = 0
¡ 2i — 2 \ / x A ¡0\ 2i x 1 - 2 x 2 =Q
1. Xt = 2 + 2?=* = U
\ 22i j \ x 2j \0 / 2 x i + 2 i x 2 =0
=>x2 = ix i
'1
Un vector propio es X j
1/ ■

2. X2 = 2 - a - 2 ( * | ) = ( ° ) - | 2*. - 2 /* , = 0 - x , = i* 2

Un vector propio asociado a X2 es


'i
X2=' i
¡\ i\
Si P = [ I , entonces es
\i 1/
/ 2 + 2i 0
P"1 A P =
\ 0 2 - 2i
La matriz A ha sido diagonalizada.

Ejemplo 8-10
Probaremos ahora que los valores propios de toda matriz involutiva son 1 o —1.
Sea A e KflXfl, tal que A2 =1.
Si X e K71x 1 es un vector propio asociado al valor propio X, entonces
A X = XX (1)
Premultiplicando por A
A2 X = X A X
Como A2 = I, se tiene
ix =Xa x
O sea

X = XA X (2)
De (1) y (2) se deduce
X = XXX
Es decir
(1 - X 2) X = 0

www.FreeLibros.com
POLINIMIO CARACTERISTICO 275

Como X =£ 0, resulta 1 - X2 = 0, y en consecuencia X= ± 1.


Con procedimiento análogo el lector podrá com probar que los valores propios de toda
matriz idempotente son 0 o 1, es decir
A2 - A =* X - 1 . X = 0

8.3.4. Propiedad

Dos matrices semejantes tienen el mismo polinomio característico, y en consecuencia los


mismos valores propios.
Hipótesis) A ~ B e n K ílXfl
Tesis) D( X I - A ) = D ( X l — B)
Demostración)

A ~ B =>3 P n o singular / B = P 1 A P Por 4.19.5.

Entonces es

D (XI —B) = D (XP’1 I P - P ' 1A P ) =


= D [P_1 (X I - A) P] ~D (P"1) D (X I - A) D (P) =
= D (P-1) D (P) D (XI —A) = D (P*1 P) D (XI —A) =
= D (I) D (X I - A) = 1 . D (XI - A) = D (X I - A)

La recíproca no es cierta, ya que dos matrices pueden tener los mismos valores propios y
no ser semejantes.
Un contraejemplo se presenta considerando las matrices
il 0\ i 1 3
A-(o .) y B = (o .

8.3.5. Polinomio característico de una trasformación lineal

Sea / : V -*■V una trasformación lineal y sea [v] = { Vj, v2, . . v„ } una base de V.
E ntonces/está caracterizada por una m atriz A e Knxn respecto de [v].
Si [v’] = { v \ , v’2 , . . . , v’n f es otra base de V,
entonces existe una matriz no singular
P e K.nxn tal que la matriz d e / , respecto de la base [v’]} verif
ica
B ^ F 1 AP
Las matrices A y B admiten el mismo polinomio característico, de acuerdo con 8.3.4. El
polinomio característico de cualquiera de las matrices que caracterizan a / se llama
polinomio característico de la trasformación lineal.

www.FreeLibros.com
276 VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

8.4. DIAGONALIZACION DE MATRICES

8.4.1. Definición

Una matriz A e K nxn es diagonalizable si y sólo si es semejante a una matriz diagona]


O sea
A e Knx" es diagonalizable o 3 P no singular / P"1 A P = D
donde D es diagonal.

8.4.2. Propiedad

Si A e K "xn es diagonalizable, entonces su forma diagonal es D 6y), donde \ C0(


i = 1 ,2 , . . n son los valores propios de A.
En efecto:
di 0
0 \ - d 2
A es diagonalizable = > A ~ D = > D ( M — D) =

0 0 \- d y
=.7^ (A - d ¡ )

El polinomio característico de A es
P (k) = ( \ - d l ) ( K - d 2 ) . . . ( k ~ d tl)
En consecuencia, los elementos de la m atriz diagonal son los valores propios de A.

8.4.2. Propiedad

Una matriz A e K nx" es diagonalizable si y sólo si A admite n vectores propio


ele
ind
linealmente independientes.
1. Sea A diagonalizable.
dia
A es diagonalizable = > A ~ D = * 3 P n o singular /P " 1A P = D=> A P = P D (1) lo i
hoi
Particionando P en vectores columna, o sea
P = (X 1 X2 . . . X„),
es

/ Xj 0 ... 0
0 ^ 0
P D = (Xj X2 . . . X„)

0 0 ...

www.FreeLibros.com
DIAG ONALIZACION
277

Además
A P = A ( X , X2 . . . X „ ) = ( A X , A X 2 . . . A X „ j (3)
De (1). (2), y (3) resulta
A X ¡ —\ X ¡ i = 1, 2, . . n
Luego las columnas de P son n vectores propios de A, y como P es no singular, tales
columnas son L.I.
En consecuencia, A admite n vectores propios L.I.
2. A admite n vectores propios L.I.
Sean tales vectores propios: X j , X 2, , . X„.
Por definición es

P - (X! X 2 . . . X„) y D - (\ - 5a)


Se tiene
A P = (A X ¡ A X2 . . . A X * ) ^ , X t %2 X2 . . . X,, X j,)^
= (x i X2 . . . X „) (A; 5jj) = P D
Como P es no singular resulta
P"1 A P = D
0 sea, A es diagonalizable.

8.4.3. Raíces del polinomio característico y diagonaíización

De acuerdo con 8.2.4., si los valores propios del polinomio característico de A e K nxn son
elementos distintos de K, entonces los vectores propios asociados son Ünealmente
independientes, y, por 8.4.2.2., A es diagonalizable.
En general, si el polinomio característico de A tiene raíces múltiples, la matriz no es
diagonalizable. Para que lo sea, debe cumplirse la condición suficiente demostrada en 8.4.2.,
lo que significa que a toda raíz múltiple de orden p debe corresponderle un sistema lineal y
homogéneo cuyo espacio solución tenga dimensión p.

Ejemplo 8-11
La matriz

no es diagonalizable

www.FreeLibros.com
VALORES Y VECTORES PROPIOS. DIAGONALIZACION.
278

D eterm inam os los valores propios


X 1 -1 o
P(A) = D ( X l - A ) = 0 X -l -i
0 0 X -l
= (X l ) 3 ^ Xi —X2 *- X3 1.
Los vectores propios asociados a esta raíz triple satisfacen a
( X I - A) X = 0

O sea
0 -1 OWXj
0 1 - 1 |( ^2
0 0 0

Luego
0 * ! - x-i + 0 x 3 “ 0
Oxj + 0x 2 - X 3 = 0
El rango de la matriz de coeficiente es 2, y en consecuencia es
dim S = 3 - 2 = 1
O sea, hay un solo vector propio linealmente independiente de la matriz A.
Por consiguiente, A no es diagonalizable.

Ejemplo 8-12
La matriz

es diagonalizable y sus valores propios no son todos distintos.


En efecto:

X+3 0 4
P (X) = D (X I - A) = -4 X -l -4
-2 0 X- 3

X+3 4
« C X - 1) = ( X - 1)(X2 - 1)=*
—2 X- 3
=>Xi =X 3 = 1 , X3 = - 1

www.FreeLibros.com
TRIANGUALCION 279

1. Xi - - 1 =*

La matriz del sistema tiene rango i , o sea


diro S = 3 - 1 = 2
2. A Aj = • 1 le corresponde un vector propio linealmente independiente. Luego A es
diagonalizable y su forma diagonal es
'l 0 o’
D=| 0 1 0
0 0 -1

8.5. TRIANGULACION DE ENDOMORFISMOS Y DE MATRICES

Hemos visto que no siempre es posible diagonalizar una trasformación lineal o una matriz
cuadrada. Cabe preguntarse si es posible determinar una base tal que, respecto de ella, la
matriz de una trasformación lineal de un espacio de dimensión fmita en sí mismo sea
triangular. La respuesta es afirmativa si el cuerpo es el de los números complejos.
Consideremos un endomorfismo
/ : V -> V
donde ditrtK V = n > 1.
En lo que sigue, introduciremos el vocablo fa n , cuya traducción es abanico, para denotar
una familia de subespacios de V que satisface ciertas condiciones.

8.5.1. Concepto

Un fan d e / e n V es unan-upla de subespacios de V: S i ,S2 , . . Sn , tales que


i ) Son crecientes en el sentido de inclusión:

S, C S 2 C S 3 C . . . C S «
i i ) dim S,- = i , Vi = 1 , 2 , . . n
iii) Son invariantes, o sea
x e S¿ =*-/(x)e Sf Vi = 1 , 2 , . . . , n
Esta condición equivale a
/( S ¿ ) C S¡ Vi = 1, 2 , . . . , «
Es obvio que Sn = V.
Definición
Si { S i , S 2, . . . , S j es un fan de / en V, entonces la familia [v] = ( Vi, v2, • • •, v„ }

www.FreeLibros.com
280 VA LO RES Y VECTORES PROPIOS. DIAGONALIZACION

es una base fan de V si y sólo si { v j . v * , . ■.,v f \ es una base de Sf para todo


/ =1,2,...,».
El teorema de extensión 2.6.3. nos permite afirmar que existe una base fan.

8.5.2. Propiedad
Si [v] es una base fan de V, entonces la matriz asociada a todo endom orfism o/ : V -+ V es
triangular superior.
Sabemos aue para obtener la m atriz de / respecto de una base, hay que determinar las
imágenes'de los vectores de la misma y expresarlos como combinaciones lineales de tal«
vectores. Teniendo en cuenta además la definición de subespacio invariante, resulta

Vi eSi =>/(vi)esi =>/(vi) = fln vi


v2 e S 2 =>/(v2) e S 2 = * /(v 2) = 0 n Vi+ a 22 v2

vn e S„ =>f(y») e S n = > /(vn) - ¿(i „ Vi + a2n v2 + ■■• + «»n v„

Por consiguiente, la m atriz de / respecto de la base fan es


011 ^
0 022 • • • Q'in
A=

0 0 . . . a nn
Si f : V -*•v es una trasformación lineal y si existe una base respecto de la cual la matri
de fe s triangular, entonces diremos q u e /e s triangula ble. ■
En términos de matrices, diremos que A e K 'lxn es triangulable « y solo si exis
P e KrtXfl no singular, tal que P '1 A P es triangula r. Demostraremos que toda matriz pued
ser triangulada sobre el cuerpo C.

8.5.3. Propiedad
Si V es u n espacio vectorial de dimensión finita m ayor o igual que 1, sobre el cuerpo
los complejos, y si / : V -> V es una trasformación lineal, entonces existe un fan de / en .
Demostramos esta afirmación inductivamente.
1 Si dim V = 1, entonces nada hay que probar.
2. Supongamos que la propiedad es válida si dim V = » - 1. Demostraremos que lo esj
dim V = n.
Sea V, un vector propio de / , el cual existe de acuerdo con el ejercicio 8-46, y sea S,
subesoacio generado por V i. Resulta dim S i — 1. ,, , c _
Siendo Sr un subespacio de V, existe un subespacio W cuya suma directa con S,
(ejercicio 7-40), o sea
V = Si ® w

www.FreeLibros.com
TRIANGULACION 2gl

C o n sid e re m o s las proyecciones p , y p 2 de V sobre S t y W, respectivamente.


La composición p 2 ° f e s una trasformación lineal de V en V tal que si x e W, entonces
/ ( x ) e W. Restringiendo el dominio a W, podemos consi derar a p 2 ° f como una
tra s fo rm a c ió n lineal de W en W. De acuerdo con la hipótesis inductiva, existe un fa n de
p 2 o / e n W. Sea éste
( W , , w 2 .........w „ ^ )
Consideremos ahora los subespacios

Sf = Si + W M

para?= 2, 3 , . . . , n.
Se verifica que dim Sf = i, ya que si | Wj , w2 , . . ., wn_, J es una base de W, entonces
{Vi, Wi , . . WM } es una base de S,-, i « 2 , 3 , . . n.
Además, S¡ C Sí+1 para todo / = 1 , 2 , . . . , « .
Para demostrar que { , S2, . . S„ } es un fan de / en V, es suficiente probar que
/( V í) c V(,
Observamos que
f = i v ° f = ( p i + p 2) f = p 1 ° f + p 2 ° f (1)
puespi + p 2 = i y (v e r3 4 6 )
Sea x un vector cualquiera de S,-:
x e S,- => x = av^ + w¡ , donde a e C y w ¡e W¡
Teniendo en cuenta (1) es
/ ( X ) = (P ! o f + p 2 o f ) ( x ) = ( p 1 o f ) ( x ) + ( p 2 0 / ) ( x ) (2)

Ahora bien
ÍP i 0 f ) (x) = p i ¡f (x)] e S i , y en consecuencia
(Pi°f)(x)eS¡ (3)
Por otra parte
(P2 ° f ) (x ) = ip2 o f )(av1) + ( p 2 o f ) ( w¡) ^ a p 2 ( / ( v ! ) j +( p2 ° / ) (w,') —
= a p 2 (Xi v O + (p2 ° / ) ( wi) = a \ i p 2 (y1) + (p2 ° /) (wt) = 0 -t-<>2 ° / )( w ,) =
= (P2 ° f) (W,)

de acuerdo con la descomposición de x, la definición de trasformación lineal, y considerando


que Vj es un vector propio de / . Por la hipótesis inductiva se sabe que (p 2 ° f ) (W,) C W,-, y
por consiguiente
(Pi o f ) (x) = ( p 2 ° f ) (w¡) e W,
O sea

(P 2 o f ) (x ) e S, (4 )

www.FreeLibros.com
282 VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

Considerando (2), (3) y (4) resulta


/( x ) e S ,-
Es decir
x e S ¡ ^ / ( x ) eS¡

Luego | S i, S2, . . S„ } es un fan d e / e n V.


Son consecuencias inmediatas de este teorem a de existencia y de 8.5.2., las siguientes:
I. Si dimc V = n > 1 y f : V ->V es una trasformación lineal, entonces existe una base de
V tal que la matriz de f respecto de dicha base es triangular superior.
II. Si A e C n xn, entonces existe P e C nx", no singular, tal que P '1 A P es triangular
superior.

8.6. TEOREMA DE HAMILTON—CAYLEY

El teorema de Hamilton-Cayley, fundamental en la teoría de la resolución de ecuaciones


matriciales, afirma que toda m atriz cuadrada es raíz de su polinomio característico, esto es,
siP (X ) es el polinomio característico de A e K " Xfl, entonces P (A) = N.
Desarrollaremos primero una demostración en el caso particular que se presenta si la
matriz A, del tipo n x n , admite n vectores propios.
Para esto utilizaremos la siguiente propiedad que se propone como ejercicio del trabajo
práctico: si X,- es un vector propio de la m atriz A, asociado al valor propio X¡, entonces X¡ es
un vector propio de la m atriz A” , correspondiente al valor propio X“ .
Consideremos el polinomio característico de A
P (X) = Xn 4- c n_i X" 1 + . . . + Ci X + cq
Entonces
P (A) = A" + A” ”1 + . . . + c 1 A + c0 l
Multiplicando a derecha por el vector propio X,- asociado al valor propio X¿, y teniendo en
cuenta la propiedad mencionada, es
P (A )X f = A” X, + cn_, A""1 X/ +. . . + c 1 A X i + c 0 X r
= X? X, + e„_, XT1 X, + . . . + c , X¡ X¡ + c0 X¡ =
= (X? + c „ . i X T + . . . + C, X, + c0)X ¡ =
= 0X,. = 0 Vi = 1 ,2 ........ n (1)
Sea P = (X x X2 . . . X M) la matriz cuyas columnas son los vectores propios de A.
Considerando (1), se tiene
P ( A ) . P = ( P ( A ) X , P (A )X 2 . . . P ( A ) X „ ) = N
Y como P es no singular, resulta
P ( A ) . P . P“1 = N . P' 1

www.FreeLibros.com
TEOREMA D E HAMILTON - CAYLEY
283

0 sea
P (A) = N

Ejemplo 8-13
Utilizando el teorem a de Hamilton-Cayley, determinamos la inversa de la matriz A del
ejemplo 8-5.
3 -2
A=
, 1 2
El polinomio característico de A, es
P (X) = X2 - 5 X + 4
Entonces es
P (A ) = A2 ~ 5 A + 4 I = N
O sea i
I = ——(A2 - 5 A)

En consecuencia, multiplicando por A ;

A '1 =-----(A - 5 I)

Como
-2 -2
A- 5I
-1 -3
Resulta

M i
2 2
A '1 =
_L 1
4 4 I

Demostraremos ahora que toda m atriz A e Cnx,t satisface a su polinomio característico, o


sea
A e Cnxn =>P (A) = N
En efecto, sea el polinomio característico de A:
P (X) = D (X I — A) (1)
Sabemos que el producto de toda matriz cuadrada por su adjunta es igual al determinante
de aquella por la matriz identidad (5,8.3.). Entonces
(X I - A) Adj (X I - A) = D (XI —A) . I

www.FreeLibros.com
VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

Teniendo en cuenta (1) es


(X I — A) Adj (X I — A) = P (X) . I (2)
Los elementos de Adj (X I - A), por ser los cofactores de (XI - A), son polinomios de
grado menor o igual que n - 1, y en consecuencia
Adj (X I - A) = A n^ X*'1 + A n.2 X"-a + . . . + A1 X + A0 (3)

De (2) y (3) resulta


An_i X" + (A„_2 - A A„_i) X""1 + (A„_3 - A An J ) X"-*+. . . +
+ (A0 - A A O X - A Ao = X" I + c„_i X""1 I + .. . + XI + c0 I

O sea
An-j = I
An-2 ~ A An_i —Cn-1 I
An_3 — A An_2 —Cfí-2 ^

Ao —A Aj Cj I
—A Aq = Cq I
Luego de premultiplicar por A ", A n 1, . . A e I, respectivamente, se tiene
A” A n_i = A"
A" 1 A„_2 — A*1 A n_i —c n_i A n 1
A""2 Ajj„3 - A""1 A„_i = Cd_2A”-2

A A0 - A2 A | =Cj A
-- A Aq — Cq I
Sumando, después de reducir, es
N = A n 4- cn. i A”"1 + . . . + C , A + c0 I

O sea
P (A) = N

www.FreeLibros.com
TRABAJO PRACTICO VIII

8-14. Determinar los valores y vectores propios de las siguientes trasformaciones lineales:

1. / : R 2 ~>R2 definida porf ( x u x 2) = (4x¡ + 3 * 2 , 3 ^ - 4 x 2)


2. / : R 3 -* R 3 tal q u e /(x, y, z )= (2y ~ z , 2 x - z , 2 x ~ y )

8-15. Obtener los valores y vectores propios, si existen, de las matrices siguientes con
elementos en R:

8-16. Demostrar que si X es un valor propio de A e K "x " y ésta es no singular, entonces X es
no nulo.
8-17. Demostrar que si X es un valor propio de la m atriz no singular A, entonces X'1 es un
valor propio de A"1.
8-18. Demostrar que si X, es un vector propio de la matriz A asociado al valor propio X¿,
entonces X¡ es un vector propio de A n correspondiente al valor propio Xf
8-19. Demostrar que si X! es un vector propio de la matriz A, correspondiente al valor
propio X j, entonces Y = S"1 X , es un vector propio de la matriz S"1 A S, asociado a
X!.
8-20. Determinar el polinomio característico, los valores y vectores propios de cada una de
las siguientes matrices complejas:

8-21. Demostrar que si P (X) es el polinomio característico de la m atriz A e C nxn entonces


cn-1 el opuesto de la suma de los valores propios y el término independiente es igual
al producto de ( - l ) n y el producto de los valores propios.

www.FreeLibros.com
286 VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

8-22. Demostrar que si A e Cnx' \ entonces la traza de A es igual a la suma de os l valores


propios y el determ inante de A es igual al producto de los valores propios.
8-23. Demostrar que los valores propios de toda matriz idempotente son 0 ó 1.
8-24. Demostrar que dos matrices traspuestas tienen el mismo polinomio característico.
8-25. Investigar si la siguiente matriz es diagonalizable

8-26. Sea una matriz A e Cnxn tal que A k = I. Demostrar que si X es un valor propio de A,
entonces Xfe = 1.
8-27. Demostrar que los valores propios de una matriz triangular son los elementos de la
diagonal.
8-28. Por definición, una matriz cuadrada A es nilpotente si y sólo si existe un entero
positivo k, tal que A k = N. Demostrar que los valores propios de toda matriz
nilpotente son nulos.
8-29. Demostrar las siguientes propiedades:
1. Dos matrices semejantes tienen sus trazas iguales.
2. Si k es un entero positivo, entonces tr A h = 2 X?.

3. La traza de toda matriz idempotente es igual a su rango.


4. La traza de una suma es igual a la suma de las trazas.
5. Las trazas de dos matrices traspuestas son iguales.
6. Las matrices A B y B A tienen trazas iguales.
7. tr (ABC) = tr (BCA) = tr (CAB)
8. Si P es ortogonal, entonces tr (Pf A P) = tr A.

8-30. Considerando el producto interior habitual en R2, determinar una base ortonormal de
vectores propios de A, siendo

8-31. Demostrar que si todos los valores propios de una matriz son no nulos, entonces dicha
matriz es no singular.
8-32. Calcular P (A), siendo P (X) = X3 — X + 1 y

www.FreeLibros.com
TRABAJO PRACTICO VIII 287

8-33. D em ostrar que si A es u na m atriz sim étrica y P e R [X], entonces P (A) es una matriz
simétrica.
8-34. D em ostrar que si A es h erm itiana y P e R [X],entonces P (A) es herm itiana.
8-35 Sean A y P elementos de Knxn, tales que P es no singular. Demostrar que
(P 't a P)ft = P"1A h P

8-36. Considerando dos matrices A y B como en el ejercicio anterior, demostrar que si


P e K [X], entonces
P (B 1 A B) = B~‘ P (A) B

8-37. Verificar que la matriz

' eos sen y?


A=
sen i/? —eos

admite un vector propio en R 2 , cualquiera que sea e R. Probar que existe un vector
X tal que A X = X.
8-38. Con relación al ejercicio anterior, demostrar que si Y es un vector de R2 ortogonal a X,
entonces A Y = —Y. Interpretar geométricamente.
8-39. Demostrar que si P es una m atriz ortogonal del tipo 2 X 2 y D (P) = - 1 , entonces
existe un número real y? tal que

/ 1 0\ / eos v? -s e n
P= \ 0 -1 / \ sen eos

8-40. Sean X un valor propio de A e K Hxn y f un polinomio de K [X]. Demostrar q u e/(X ) es


un valor propio d e /(A ) .
8-41. Obtener una base fan de los endomorfismos de C2 caracterizados por las matrices

*-(::) h i :
8'42. Demostrar que si X es un valor propio de A e K "xn, entonces a + Xes un valor propio
de a I + A , V a K.
8-43. Demostrar que una m atriz A e Cnxn es singular si y sólo si admite algún valor propio
igual a cero.
8-44. Diagonalizar, si es posible, las matrices
1 l+ i
•A= | ) e C 2x2
0 • 1

www.FreeLibros.com
288 VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

/ 1
___
j_
0
2 2

_1_
e R 3x3
1
A - 0
2 2
1 1
— 0
2 2
-2
8-45. Sean A = y P (X ) = X2 - l.
2
Diagonalizar P (A), si es posible.
8-46, Sabiendo que dimc V > 1 y que / : V V es un endomorfismo, demostrar que existe
un vector propio de / .

www.FreeLibros.com
Capítulo 9

FO R M AS BILIN EALES Y CUADRATICAS

9.1. INTRODUCCION

Presentamos en este capítulo los conceptos de forma bilineal sobre un espacio vectorial,
de forma cuadrática asociada, y sus conexiones con la matriz de cada una respecto de una
base en el caso de dimensión finita. Se estudian los operadores adjuntos, traspuestos,
hermitianos y simétricos, así como también algunas propiedades de sus valores propios. Esta
situación se reitera en el caso de operadores unitarios y ortogonales. Después de la
demostración del teorema de Sylvester, se trata el tem a de la diagonalización de operadores
simétricos y de las matrices correspondientes. Además de la descomposición espectral de una
matriz diagonalizable, se estudia la congruencia de formas cuadráticas reales, la reducción a
la forma canónica y el signo de una forma cuadrática.

9.2. FORMAS BILINEALES

9.2.1. Concepto

Sean: (V, + , K , .) un espacio vectorial y / una función de V2 en K.

Definición
La función / : V 2 -+ K es una forma bilineal sobre V si y sólo si es lineal respecto de los
dos argumentos.
O sea
/ : V2 K es una forma bilineal sobre V si y sólo si satisface:
1. Linealidad respecto del primer argumento
f( a x + b x \ y ) =a f(x,y) + b f ( x \ y )
2. Linealidad respecto del segundo argumento
/ ( x . c y + d y ’) =c f ( x t y ) + d f (x, y ’)
cualesquiera que sean x, x ’, y, y ’ en V ya, b, c, d, en K.

www.FreeLibros.com
290 FORMAS BILINEAI.ES Y CUADRATICAS

S i / e s una forma bilineal sobre V, entonces se verifica que


f ( a x , y ) = a f ( x , y ) = / ( x , a y)
El lector puede demostrar que el conjunto de las formas bilineales sobre V es un espacio
vectorial sobre el cuerpo K, com probando que s i / y g son dos formas bilineales cualesquiera
y si oc e K, e n to n c e s/ + g y a f son formas bilineales.
Ejemplo 9-1
Considerando (K n , + , K , .), la función
/:K "X K "^K
definida por

f ( x , y ) = i§ i x t y ¡

es una forma bilineal sobre Kn , ya que verifica las condiciones 1. y 2. de la definición.

Ejemplo 9-2
Asociada a la matriz A e K nXtt, la función
/:K nx r ^ K
definida por
/ (X, Y) = X( A Y (1)
es una forma bilineal en K ", donde la imagen / ( X , Y ) e K l xl se identifica con un
escalar en virtud del isomorfismo entre K 1x 1 y K.
En efecto:
f ( a X -f b Y, Z) = (a X + b Y)* A Z = (a X* + b Y*) A Z =
- a X* A Z + b Y* A Z = a f (X, Z) + b f (Y, Z)
Análogamente se prueba la linealidad d e /re sp e c to del segundo argumento.
La expresión escalar de (1), efectuando el producto de matrices, es
011 «12 . . . flih y i
a 2\#22 • • • O-i „ y 2
/( X , Y ) = X ‘ A Y = (X l X 2 . . . Xn)

1 #n2 ••• flfm y « ¡

y i
y 2
( 2 XfOn 2 x ¡ a ¡2 . . . 2 * ¿ 0 ^ )
i - i j = i i= i

y n

n n
=2 y, 2 x¡au = 2 2 auXtyi
i-i 1 i= l 1 y i= l)= l u

www.FreeLibros.com
FORMAS BILINEALKS SIMETRICAS 291

9 2.2. Matriz de una forma bilineal

Sea V un espacio de dimensión n > 1. Consideremos una base [v] = { vt ,v2,. . v„ ) de


V y la forma bilineal / : V2 K.
’E ntonces / e s t á caracterizada por los valores
a y = / ( v i , v /)

son los elementos de la m atriz A e K nx n, llamada matriz de /re sp e c to de la base [v].


En efecto, si x e y son dos vectores cualesquiera de V, expresándolos en términos de la
base [v], es

/ ( x ^ / C . I x t v t . j i y j v j ) * % f x iy j f ( v [ , v]) =

= 2 S ¿ íffx í>/ = Xt A Y

donde X e Y son las matrices columnas cuyos elementos son las coordenadas de x e y
respecto de la base [v].

9.2.3. Form a bilineal simétrica

Sea / : V2 -> K una forma bilineal.

Definición
La forma bilineal / es simétrica si y sólo si
/(x ,y ) = / ( y , x )
cualesquiera que sean x e y en V.
Si K = R, y ( , >es un producto interior en V, entonces / : V2 R definida por
/ ( x , y) = < x, y > (1) ^

es una forma bilineal simétrica.


Si [v] = { V |,v2, . . vn ¡ es una base ortogonal de V, o sea
i # / ^ / ( v í, v/)= ay = 0
entonces la matriz A de la forma bilineal (1) es diagonal
ax 0 ... 0 '
0 a-i ... 0
A=

0 0 ... &ri

y la form a se dice diagonalizada.


Resulta

/ ( x , y ) - l¡ 1 ai x ¡yi

www.FreeLibros.com
292 FORMAS BIUNEALES Y CUADRATICAS

Si [v] es oríonorm al resulta

/ ( x , y) = ¡£ x , y l

9.2.4. Propiedad

T. 2 T la
í>ea/ X forma
l T ¿bilineal
reT simétrica
nta unaform
aM
inealsiraétricasiysó,°s¡Aes
asociada a A.

/ e s simétrica « / ( X , Y) = / ( Y X)
, =>X, A Y = YÍ A X
Como

Y ' A X = (Y'AX)« = Xí A ' Y


por ser Y A X un escalar y por traspuesta de un producto, resulta

X t A Y = X í Af Y V X , Y e K"
O sea

X* (A - A' ) Y = 0 V X . Y e K 11
En consecuencia

A - A* - N
Y por lo tanto

A-A¿
2. Sea A simétrica. Entonces

/ « Y ) = X ' A Y = (Xl AY)t = Yf A ' x = Y, A X = / ( Y X)


Luego / es simétrica.

Ejemplo 9-3.

Desarrollamos la forma bilineal simétrica asociada a la m a t e A, siendo

/ l -l 2
A« -1 3 1
\ 2 1 - 2
Resulta

/ (X ,Y ) = Xl AY = (I l J ¡ l 3 ) (\ ? ' y i| =
\ 2 1 _2
73

.= ( * i ~ * 2 + 2x3 - * , + 3 x 2 + * 3 2x , + x 2 ~ 2 x 3)

www.FreeLibros.com
M ATRIZ D E UNA FORM A HERMITIANA 293

9.3. FORMAS HERMITIANAS

9.3.1- Concepto
Sea V un espacio vectorial sobre el cuerpo de los complejos.

Definición
La función / : V2 C es una forma hermitiana sobre V si y sólo s i / satisface las
condiciones de linealidad respecto del primer argumento y de simetría conjugada.

0 sea

i ) f ( a x + b x \ y) = a f (x, y) + b f ( x \ y)
¡i) / ( x , y ) = / ( y , x)

Ejemplo 9-4
En ( C " , +, C , .) la función

/ : Cn X Cn -v C
definida por

/ ( X , Y ) = X t Y « (S * ,7 ,

es una forma hermitiana definida positiva, ya que satisface los axiomas del producto
interior usual en un espacio unitario (véase el ejercicio 7-46).

9.3.2. Matriz de una forma hermitiana

Sea (V, + , C , .) un espacio unitario, es decir, un espacio vectorial sobre el cuerpo C,


donde está definido un producto interior como en el ejercicio 7-46.
La función
/ : V2 -+ C
tal que
/(x,y) = <x,y)
es una forma hermitiana. Si V es de dimensión n > 1, y [v]= { Vj , V2 , . . v„ J es una
base, entonces
- n n n n
/(x,y) = <x,y> = <2 'xfVi.S I x,7,<v,,v,> =
l—l JT=1i““-!-/“ i

au x ¡yj = x t A Y

www.FreeLibros.com
294 FORMAS BILINEALES Y CUADRATICAS

Respecto de la base elegida, la forma hermitiana está caracterizada por la matriz A,


cuyo elemento genérico

aü = í Vf , v;- )
es tal que
0 y = <vi ,v/ >= <v/ , v l->= a;-¿

En consecuencia, la m atriz A verifica


A - Áf = A*
o sea, A es hermitiana.

9.4. FORMAS CUADRATICAS

9.4.1. Concepto

Sean: (V, + , K , .) un espacio vectorial de dimensión finita y g : V2 K una forma


bilineal simétrica sobre V.

Definición
Form a cuadrática asociada a la forma bilineal simétrica g es la función
/ : V- >K
definida por
/(x)=*(x,x)
Como la form a bilineal sim étrica# verifica los axiomas i), ii) y iii) del producto interior
definido en 7.2.1., es usual escribir
S (Xj x ) = ( x, x )
Si V = K" y si A e Knxn es la matriz simétrica de la forma bilineal#, entonces la forma
cuadrática asociada está definida por

/( X ) = X‘ A X = ,2

Observamos que el desarrollo de una forma cuadrática, en términos de las variables


* i, * 2 . • • •>x n> corresponde a un polinomio homogéneo de grado 2, donde los coeficientes
de los términos cuadráticos son los elementos de la diagonal de la matriz simétrica
correspondiente, y cada coeficiente de un término rectangular x t xj es el duplo del elemento
a¡j de la misma.

Definición
Una forma cuadrática X* A X es no degenerada si y sólo si A es no singular.

www.FreeLibros.com
FORMAS CUADRATICAS 295

Ejemplo 9-5
La matriz correspondiente a la forma cuadrática
f : R3 - R
definida por
f ( x ) =x \ + 2 x\ + 2x 1 - 2 x xx 2 + 4*! x 3
es

A=

Como

D (A) = -1 2 0 =2 = - 6 =£ 0
1 1 0 11
resulta A no singular, y en consecuencia/es no degenerada.

9.4.2. Formas cuadráticas y cambio de base

Sea / : V -> K una forma cuadrática caracterizada por la matriz A e K" xn respecto de la
base [v].
Se tiene entonces
/ (x) = X* A X
donde X es la matriz columna cuyos elementos son las coordenadas de x respecto de la base
lvl-
Si en V se considera una base [v*], respecto de ésta, el vector x se representa mediante X’.
Se verifica que

X=PX’
donde P es la matriz de pasaje definida en 4.19.
Sustituyendo en la primera igualdad
/ ( x ) = (P X’) f A (P X’) - X’*
P'APX’
La matriz de / respecto de la nueva base es
B=P'AP
Las matrices A y B se llaman congruentes.

Definición
A e K "*M es congruente a B e K” xn si y sólo si existe P no singular tal que B = Pf A P.
Sabemos que el rango de una matriz no varía si se la multiplica por matrices no singulares.
En consecuencia, si dos matrices son congruentes tienen el mismo rango.

www.FreeLibros.com
296
FORMAS BILINEALES Y CUADRATICAS

Definición

Rango de una forma cuadrática es el rango de cualquiera de h* m t


representan. siquiera ae las matrices que la

En consecuencia, una forma cuadrática es no degenerada si v ■


dimensión del espacio. Una forma cuadrátir* a / SU rang0 es ^ ual a
la dimensión del espacio. * degenerada S1V si su rango es menor que

Ejemplo 9-6.

La forma cu ad rática/está caracterizada por la matriz


/ JO 0 2
0 6 0
\ 2 0 7
respecto de la base canónica en R3
Determinamos la matriz de / respecto de la base
1

La matriz de pasaje es

La matriz B de la forma cu adrática/respecto de la nueva base es

/ 6 0 0
B= P'AP= ( 0 6 0
0 0 11

9.5. OPERADORES ADJUNTOS Y TRASPUESTOS

Una trasformación lineal f • V -> V sprá \ u mt,An * u -


operador en V. llamada también operador lineal o simplemente

Propiedad

un en ^

</(x),y> = <x,/*(y)>

www.FreeLibros.com
OPERADORES 297

Demostración)
Sea y cualquier elemento de V. Definimos la función
F : V -» C

mediante
F (x ) = < / ( x ) , y ) (1)
La definición (1) caracteriza un funcional, es decir, u n elemento de V*. De acuerdo con el
enunciado del ejercicio 7-60, existe en V un elemento y ’, único, tal que
F ( x ) = < x , y ’ > (2)

cualquiera que sea x e V.


De (1) y (2) resulta
< / ( x ) > y > = ( x , y ’ > (3)
En consecuencia, para cada y e V, existe y ’e V, único, que satisface (3). Podemos definir
entonces la función
f* : V-> V

mediante
/* ( y ) = y ’
La función/* satisface la condición
< / ( x ) , y >= < x , / * (y)> VxVyeV

Además es lineal, pues

< x , /* (a y + b y ’)> = < / ( x ) , a y + b y ’ ) = a < / ( x ) ,y > + b < /(x ) , y ’ ) =

= á < x , f* (y) > + b < x , J* (y’) >= <x , a f* ( y ) ) + ( x , b f* (y’) ) -

-< x , a f* (y) + b f* (y ’)>

Esta relación se verifica cualquiera que sea x e V. En consecuencia

/*(fly + *y,)=Sfl/*
(y) + */*(y’)
O sea
f* es un operador lineal.

La unicidad de f* se justifica porque para cada y e V existe y ’ =f * (y), único, tal que

F(x) = < x , / * ( y ) >

El operador f * a que se refiere el teorema anterior, se llama adjunto d e /.

www.FreeLibros.com
298 FORMAS BILINEALES Y CUADRATICAS

Definición
En un espacio de dimensión finita con producto interior, un operador f * se llama
adjunto d e / s i y sólo si
< /(x ) ,y > = <x, f * (y)>

cualesquiera que sean x e y en V.


Si el cuerpo es R, el operador /* se llama traspuesto de f y se denota
r=f

9.5.2. Matriz del operador adjunto

Si A es la matriz del operador f respecto de una base ortonormal, entonces B = Á* e s la


matriz del operador adjunto f *.
En efecto, sea [v] = ( Vi , v*, . . . , v„ } una base ortonormal de V. De acuerdo con el
ejercicio 7-61, se verifica que

/ ( v j) = < /(vj) ,v , >vx+ ( f ( v j ) , v 2 >v2 + . . . + < /(v;-) ,v „ >vn V/ =1 , 2 , . . . , «

En consecuencia, el elemento genérico de la matriz A es


ay = < / ( V; ) Jvf >
Si B es la matriz d e /* respecto de [vj, entonces
= y¡)

Se verifica que
btj = <f* (v>), Vf) = ( v u f * (v;-) >= ( f ( V i \ v j ) = á¡¡
Luego
B = A *^ Af
Observamos que si f y g son dos operadores sobre V y a e C, entonces
( f + g)* = f * + g * (otf)* = á f *
(/* )* = f ( f ° g)* = g* ° f*
Los operadores f y f * se llaman adjuntos entre sí.

Ejemplo 9-7
Determinamos el operador adjunto de
/ : C2 C2
tal que
/ ( z , u) = (z + 2i'u, (1 +í)z + u)

www.FreeLibros.com
OPERADORES 299

La matriz de / respecto de la base canónica, que es ortonorm al, es


1 2i
A=
1+i 1
por consiguiente, la matriz de f * es

'-2 / 1 /

Resulta
/ * (z, u ) = (z + (1 —i) u , —2iz + u)

9.6. OPERADORES HERMITIANOS Y SIMETRICOS

9.6.1. Concepto
S e a / u n operador lineal sobre V, de dimensión finita, con producto interior, y sea f * el
operador adjunto.
En el caso complejo, V es un espacio unitario, y en el caso real, V es euclidiano.

Definición
Un operador / sobre un espacio unitario se llama herm itiano si y sólo si es igual a su
adjunto.
/ e s herm itiano o </ (x), y ) = < x , / ( y ) >
La matriz asociada a un operador herm itiano respecto de una base ortonormal es
hermitiana.

Definición
El operador / sobre un espacio euclidiano se llama sim étrico si y sólo si es igual a su
traspuesto.
La matriz asociada a un operador simétrico respecto de una base ortonormal es simétrica.
Los operadores simétricos y hermitianos suelen llamarse también autoadjuntos.

9.6.2. Propiedad

Un o p e ra d o r/e s herm itiano si y sólo si <x , / ( x ) >e R, V x e V.


1. Sea / un operador hermitiano. Entonces
< x , / ( x ) > = < / ( x ) ,x> = < x , / ( x ) >
Luego
< x , / (x) > e R
2. Sea/ tal que V x e V : < x, /( x ) > e R

www.FreeLibros.com
300 FORMAS BILINEALES Y CUADRATICAS

Se tiene

< / ( x ) , x > = < x , / ( x ) ) - < / * ( x ) , x > = >

=>< / ( x ) - / * ( x ) , x > =0 =>


=* < < / -/ * ) (x) , x >=O . V x e V ^
—f * ~ e, donde e denota el operador nulo.
Luego

f=f*
O sea, / es hermitiano

9.6.3. Propiedad

Los valores propios de todo operador herm itiano son reales.

Sea X un valor propio asociado al vector propio x. Se tiene:


X<x , x >= <\ x ,x> = < / (x ), x> = <x ,/ (x)> =
^ ( x , Xx ) = \ < x , x >
Cancelando { x , x > 0 resulta X= X
O sea

X eR
Una consecuencia inmediata es la siguiente: los valores propios de toda matriz hermitiana
son reales. En particular, los valores propios de toda matriz simétrica y real por ser
hermitiana, son reales. ’

9.7. OPERADORES UNITARIOS Y ORTOGONALES


9.7.1. Concepto

Sean (V, + , C , .) un espacio unitario de dimensión finita, y / u n operador sobre V.


Definición

El operador / : V V es unitario si y sólo si preserva el producto interior


/ es unitario o < x , y >= < / ( x ) , / ( y ) >
Sean (V, + , R , .) un espacio euclidiano de dimensión finita, y / u n operador sobre V.
Definición

El o p e r a d o r /: V V es ortogonal si y sólo si preserva el producto interior.


En este caso, en que K = R, el operador se llama también real unitario.

www.FreeLibros.com
OPERADORES 3Q1

Ejemplo 9 'T
El operador / : R2 ->• R2 definido por

f ( x , y) = (x eos 8 - y sen 8, x sen 8 + y eos 8)

es ortogonal, considerando ei producto interior usual.


En efecto, el producto interior entre (xx, y x) y (x 2, y 2 ) es
( ( x x, y x) ,{x2, y 2) ) ^ x i x 2 + y x y 2
y el producto interior entre sus imágenes es

( f ( x u y i ) , f ( x 2ty 2) ) ^
= { (Xi eos 0 - yx sen 8, x x sen 8 + y x eos 8),(x2 eos 8 - y 2 sen 8, x 2 sen0 + y 2 eos 0)) =
- X i x 2 eos2 8 + y x y 2 sen2 8 - x xy 2 sen 8 eos 8 - x 2 y i sen 9 eos 8 +
+ Xi x 2 sen2 8 + y í y 2 eos2 8 + x x y 2 sen 8 eos 8 + x 2 y t sen 6 eos 8 =
= Xi X2 + y 1 y 2 =<(xl , y l )i(x2, y 2))

f representa una rotación del plano de ángulo 8, con centro en el origen,

9.7.2. Propiedad

Si V es un espacio vectorial real con producto interior y / es un operador, entonces/es


ortogonal si y sólo si preserva las longitudes de los vectores.

1. Supongamos que / e s ortogonal. Entonces


/e so rto g o n a l =><x , x > = < / ( x ) , / ( x ) > =* IIxII2= ll/(x)ll2 =>
=> 11x11= II/ (x) II

2. S e a /u n operador que conserva las longitudes de los vectores.


Entonces es

</(x+y),/(x+y)>-</( x-y),/(x-y)> = <x+y,x+y>—<x-y,x -y)


Desarrollando ambos miembros resulta

< / ( x ) , / ( y ) > = <x, y>


L u e g o /e s ortogonal.
Una consecuencia inmediata es la siguiente: los operadores ortogonales trasforman
vectores unitarios en vectores unitarios.

9.7.3. Propiedad

Los operadores ortogonales conservan la ortogonalidad.


En efecto, s e a / : V V un operador ortogonal, y sea x ortogonal a y.

www.FreeLibros.com
302 FORM AS BILINEALES Y CUADRATICAS

Resulta

< / ( x ) >/ ( y ) > = <x , y >= 0


Luego / (x ) es ortogonal a / (y).
Observamos que no toda trasformaeión lineal que preserve la ortogonalidad e-
operador ortogonal. En efecto, si

/ : V->V
es tal q u e / ( . * ) - 3a:, en tonces/conserva la ortogonalidad, pero no es un operador ortogt

9.7.4. Propiedad

Sea V un espacio euclidiano de dimensión finita. Un operador lineal / : V -M


ortogonal si y sólo si/* ° / = iv .
En efecto:

/ es ortogonal ^ <x , y >= < / ( x ) , /( y )> «■

* < x , y > = < x , (/*<>/) (y) ) o

f* denota el operador adjunto de / , que en el caso real es su traspuesto.


Luego

/ es ortogonal /v

En términos de matrices se verifica que un operador es ortogonal si y sólo si la m;


asociada respecto de una base ortonorm al es ortogonal.
Sea A tal matriz. Entonces

/ es ortogonal «>Af A = I
Observamos que todo operador ortogonal es inversible, y se verifica que
r = f
O sea

A”1 = A*

9.7.5. Propiedad

Sea V un espacio unitario, y s e a /u n operador sobre V.


Como en el caso real, se verifica que un operador es unitario si y sólo si preserva
longitudes de los vectores.
Se demuestra análogamente q u e /e s unitario si y sólo si/* ° / = iv .
Además, si A e C l xn es la matriz de / respecto de una base ortonormal, en to n c e s/e s
operador unitario si y sólo si A* = A"1.
Una matriz compleja que satisface la condición anterior se llama unitaria.

www.FreeLibros.com
TEOREMA DE SYLVESTER 3Q3

Definición
A e Cf,Xfl es unitaria A* A = I A* = A"1.
Toda matriz unitaria de elementos reales es ortogonal.
Observamos que los operadores y las matrices unitarias son una generalización de los
operadores y matrices ortogonales de los espacios euclidianos.

9.7.6. Propiedad

Los valores propios de todo operador unitario tienen módulo 1.


En efecto, sea X un valor propio del operador unitario f , y sea x un vector propio asociado
a X. Entonces
< x , x > ~ < / ( x ) , / ( x ) > = < Áx , \ x> =
= \ \ ( x , x>
Como < x , x > # 0 resulta
\Á = 1
O sea
IX P= 1
Luego
I Xl= 1

9.8. TEOREMA DE SYLVESTER

9,8.1. Ampliación del concepto de base ortogonal

Sea V un espacio vectorial de dimensión finita sobre un cuerpo K, y sea una forma
bilineal simétrica que denotamos con <, > sobre V. Se d emuestra que si dim V > 1. entonces
existe una base ortogonal respecto de <, > (ejercicio 9*41).

Ejemplo 9-8
En R2 definimos ( , ) mediante
<x ,y > = Xi x 2 - y i y 2
donde x - ( x j , x 2) e y = ( y¡ , y 2).
Esta forma no es definida positiva, pues, por ejemplo
x = (1, 1)=> <x , x >= 0
x = ( í , 3) => <x , x )= —8
Los vectores = (1, 3) y v 2 = (3, 1) forman una base ortogonal respecto de la forma
dada.

www.FreeLibros.com
304 FORMAS BILINEALES Y CUADRATICAS

La base formada por x = ( l , 2) e y = ( 1 ,3 ) no es ortogonal. Para ortogonalizarla,


procedemos así:
Seav! = x = (1, 2) y sea
Vi
V2 = y - < Vi , y > — — -
<Vi , Vi >

Es decir

Entonces ( Vj , v2 } es una base ortogonal de V respecto de la forma dada.

9.8.2. Generalización del concepto de base ortonormal

Sea V un espacio de dimensión finita sobre el cuerpo de los números reales, y sea <, > una
forma bilineal simétrica sobre V. De acuerdo con 9 . 8 . 1 siempre es posible obtener una base
ortogonal. La forma no es necesariamente definida positiva, ya que pueden existirvectores
x e V tales que ( x , x >= 0 ó ( x , x ) { 0 .
Diremos que una base es ortonormal respecto de la forma < ,) si y sólo si
< Vi , v ¡ ) = 1 ó { V,- , V/) = ” 1 ó < v¿ , v¡ >= 0
donde v¿ e [v] = { v , ,va , . . v „ | .

A partir de una base ortogonal [v’J = {v’i , v ’2 } . . v*n \ es fácil construir una base
ortonormal asociada.
En efecto, denotando <v’Í5 v ’¿> mediantea¡, se obtiene una base ortonormal haciendo
v ¿= v’,- sia¡ = 0

V» - vi si a¡ > 0

si a¡ < 0
■ v=^
La base [v] resulta ortonormal.
Sea [v] una base ortogonal ordenada de m odo que
ax, a2, . . . , a p > 0

Si / es la forma cuadrática asociada a la forma bilineal simétrica <,), entonces, respecto de


esta base ortogonal, es
/ ( X ) = «i x \ + . . . + a p x l + i x } + í + . . . + a r x]. 2

www.FreeLibros.com
TEOREMA DE SYLVESTER 3Q5

En este desarrollo figuran p términos positivos, r - p negativos, y n - r variables se han


eliminado.
Si la base se ortonormaliza, entonces se tiene

Los números p y r son independientes de la base ortogonal elegida. El entero p se llama


índice de positividad de la forma. Indice de nulidad de la form a es el entero n - r . Signatura
de la forma cuadrática es s = p - (r - p ) = 2p - r.

Ejemplo 9-9
Sea la forma bilineal simétrica sobre R2 definida por la matriz

Los vectores v, - (1, 0) y v2 - (1, 1) constituyen una base ortonorm al y se verifica que

< v: , Vi > = - 2 < y 2 , v2 >= 0

9.8.3. Propiedad

Sea < ,) una forma bilineal simétrica en el espacio Y de dimensión finita,sobre el cuerpo
R, y sea el subespacio
S0 = | x e V / ( x , y > = 0 , V y e V |
Si [v] = { v j , v2 , . . v „ },es una base ortogonal, entonces la dimensión de S0 es igual al
número de enteros i, tales que = 0.
Demostración)
Sea [v] ordenada de m odo que
a i &O si / = 1 ,2........ /*
a¡ = 0 si i > r
Por ser [v] ortogonal, se verifica que
i > r = * ( v ,-,y> = 0 , V y e V
En consecuencia
^r +1, Vr -f2 >•'<<>V„
son elementos d e S 0.
Sea un elemento cualquiera x e S0 , y escribamos
x =x 1 y l + . . . + x r vr + . . . + x n y n
Entonces
/ < r => 0 = <x , ) = Xj < v j , ) = xj a¡

www.FreeLibros.com
306 O
F RMAS BILINEALES Y CUADRATICAS

Como a ¡ ^ 0, resultax¡ = O s i / < r


Luego
x = x r+1 vr+1 + ... + x n vn
O sea

f ^ r+ 1» • • •) Vfl )
es una base de S0 . Es decir, dim S0 = n - r.

9.8.4. Teorema de Sylvester

Sea (V , + , R , .) un espacio tal que dim V = n > 1, y sea < ,) una forma bilineal simétri.
sobre V. Si [v] es una base ortogonal cualquiera de V, entonces existen exactam ente
enteros positivos ta le s que < , v¡ > > 0.
Demostración)
Sean [v] y [w] dos bases ortogonales de V ordenadasde modo que si <v¿ ,v, >= a.
( w,-, w¿) ~ b¡, entonces 1
a¡> 0 si z = 1, 2, „ . . , p bf> 0 si i = 1 , 2 , . . . , p'
a¡ < 0 ú i ^ p + l,...,r b¡< 0 sí r = p ’ + 1 , . . r’
a¡ = 0 sií = r + 1,. . bt- 0 s i i = r ’+ 1 , . . n
Demostraremos que p = p \ Para ello observamos que los vectores
Vi j v2 , . . Vp, wp . + 1, . . w„
son linealmente independientes, pues considerando la relación lineal

(5 1 * ' v' + , = £ + 1 J’' w' = 0


se tiene
*» n

, ' i x¡y¡ = - ,= ? .+
y efectuando

< i X, V, , 1 X,. V, >= < J . +1„ W; , J , + 1y, W, >


se deduce

a, * ? + . . . + ap Xp = bP’+1 y j ,'+1 + . . . + bry l

El primer miembro es m ayor o igual que cero, y el segundo miembro es menor o igual qt
cero, o sea, ambos son nulos. Entonces es

= *2 =• • • = x p = Q

yr'+i=...=yn = 0

www.FreeLibros.com
DIAG ONALIZACION
307

Como dim V = n, de lo anterior se deduce que


p + ( n - p r) < n

osea
p<p’
Análogamente se prueba q u e p ’ < p, y en consecuencia resultap ~ p \
Lo expuesto en 9.8.2., 9.8.3. y 9.8.4. nos perm ite afirmar que s i / e s la forma cuadrática
asociada a una forma bilineal sobre ( V , + , R , .) y d i m V = w > i , entonces / está
representada por una matriz diagonal respecto de cualquier base ortogonal. Toda
representación de este tipo admite exactamente p términos positivos y r - p términos
negativos.

9.9. DIAGONALIZACION DE OPERADORES SIMETRICOS

Sea (V, + , R , .) un espacio euclidiano de dimensión finita.

9.9.1. Propiedad

Sea / : V -> V un operador simétrico y x un vector propio de / . Si x es ortogonal a y,


entonces x es ortogonal a / ( y ) .
En efecto
< x , / ( y ) > = < /(x ) , y> = < \ x ,y > = X < x , y >= 0
O sea
xl/(y)

9.9.2. Propiedad

Sea / : V -*■V un operador simétrico y dim V = n > 1. Entonces existe una base ortogonal
de vectores propios de /.

Demostración)
1. Si dim V = 1, entonces la propiedad se cumple obviamente.
2. Supongamos que d i m V > l , y sea vt un vector propio de / . Consideremos el
subespacio

Se verifica que
dim S = dim V - 1 = n — 1
Por 9.9.1., / es un operador simétrico sobre S, donde el producto interior es el inducido
por el producto definido en V.

www.FreeLibros.com
308 FORMAS BILINEALES Y CUADRATICAS

verifica q u ^ ’ ' ' '


" 1 " ““ “ S de VeC‘° reS Pr0 PÍ0s de ¿ “ ‘•» ce. se

V/ i Ví c o n / =2, 3 , . . n
En consecuencia \ Vl, v2 ........ v„ ) es la base ortogonal en V, de vectores propios de f
Ortonormahzando los vectores de la base ortogonal, se verifica bajo las L d ic io n e íd e ,
teorema, que existe una base ortonorm al de vectores propios de / e n V.

9.9.3. Consecuencia

Traduciendo la propiedad anterior en términos de matrices, se verifica que si A es „„

" “ nal- ^
bolos: y re d ’ ent° nCeS 6XÍSte Una matdZ P ’ ° rt0g0 di~ a A Una

A e R nx " a A = AÍ ; > 3 P ortogonal/ P* A P = D


Los elementos de D son los valores propios de A. Observamos, además que t oda ma t m
smietnca y real n X n admite n vectores propios ortogonales. Las columnas de P son los n
vectores propios de A, ortonormalizados.

Ejemplo 9-10

Dada la matriz A -= /. 2 y/2


determinamos una matriz ortogonal que diagonalice
a A. \ n/ 2 1
1. Calculamos los valores propios de A.

X- 2 — \¡2
D (X 1 —A)
= (X— 2 )(X - 1 )-2 =
— y/2 X - 1
= X2 - 3 X
Resulta

Xi - 0 y \2= 3
2 Determinamos los vectores propios ortonormales de A
a) \ = 0 .

(Xi i - a > x = o ^ a x = o ^
2 V 2 \ /x, \ _ /O
y/2 1 l\x2l (o
2 * j + y /2 x 2 - 0
V 2 xx + x 2 = 0
y/2xt + x 2 =0
>x2 = - \ / 2 x l

www.FreeLibros.com
DIAG ONALIZACION 309

C o m o x \ + x j = 1, se tiene
x\ + 2x\ = 1
Luego
v f _ \/6"
X ì = ± —— y x-y = + -----
3 3
Entonces

X, =
V i
3
b) Aa = 3. Con el mismo procedimiento se obtiene

v r -
3
X, =
VT
3
3. Resulta
V3 V 6_
~3 3~
P=
y/6 y/3
3 ~
tal que
0 0
P"1 A P = P* A P =
0 3

Ejemplo 9-11
Efectuamos una trasformación de coordenadas que diagonalice la forma cuadrática / ,
definida por
f ( x l , x 2 ) = 3 x j + 1 0 JCj x 2 + 3 x \
La matriz de esta forma cuadrática es

- C \S 35
Sus valores propios son:
Xj = 8 y \ =- 2

www.FreeLibros.com
310 FORMAS BILINEALES Y CUADRATICAS

Resolviendo en cada caso el sistema homogéneo (A l - A) X = 0 y normalizando los


correspondientes vectores propios, se obtiene la matriz ortogonal

2 2
P=
V2" y/2
2 2
La trasformación ortogonal de coordenadas está dada por

X= PX ’
O sea
V2 , y/2 ,
X . = -------- X , - ---------* 2
2 2

_ V2 , y/2
X2 -------- X 1 •X 2
2 2
Mediante este cambio, / se convierte en
f ( x \ , x ’2) = íSx’l - 2 x ' l
donde los coeficientes de las variables son los valores propios de la matriz de la forma
cuadrática.

9.10. MATRICES SIMETRICAS REALES Y VALORES PROPIOS

9.10.1. Matriz definida positiva

Sea A una matriz, simétrica y real del tipo «xn.

Definición
Una matriz simétrica y real es definida positiva si y sólo si sus valores propios son
positivos.
Tal es el caso de la matriz del ejemplo 9-6.

9.10.2. Propiedad

Una matriz real y simétrica es definida positiva si y sólo si existe una matriz Q, no
singular, tal que A = Q Qf.
Demostración)
1. Sea A simétrica real del tipo n x n y definida positiva. Por definición, sus valores propios
son positivos. Por 9.9.3. existe P ortogonal tal que
P"l A P = P í A P = D (1)

www.FreeLibros.com
MATRIZ DEFINIDA POSITIVA 311

d nde D es la matriz diagonal formada por los n valores propios de A, o sea


D= d i a g ■; K )
Consideremos la matriz diagonal
Dj = diag , s/K¡ , . . >Añ)

Se verifica que
Di = D (2)
T e n ie n d o e n c u e n ta (1) y (2) e s
a = P D P “1 = P D P Í = P D Í P* = P D , d [ p ^ c p d o c p d , ) * (3 )

Haciendo
Q = (PDi)

re su lta
A=QQ(
donde Q es no singular por ser producto de dos matri ces no singulares.
2. Sea A simétrica y real. Supongamos que existe Q no s ingular tal que A - Q Q * .
Por 9.9.3., existe P ortogonal tal que
P( A P = D = diag ( Xi , \ K )

Entonces
Pt Q Q , P = D

O sea
(Pf Q )(P ( Q )Í = D
Llamando Xf a la i-sima fila de P( Q, y por lo tanto a la i-sima columna de (P( Q )', se
tiene, considerando el producto interior habitual en Rn
Xi Xf = X . > o
Si fuera \ = 0, resultaría X, = 0, y en consecuencia P{ Q sería singular, lo que es absurdo.
Luego
\> 0 V /= 1 , 2 , . .
Por lo tanto, A es definida positiva

9.11. DESCOMPOSICION ESPECTRAL DE UNA MATRIZ

Teorema, Si A e R nx" es una m atriz diagonalizable, y \ , X 1, ■■ son los valores


propios distintos de A con multiplicidades m íf m 2, -. m s, entonces A puede expresarse en
la forma

www.FreeLibros.com
312 FORMAS BILINEALES Y CUADRATICAS

A=2 \ A t
i=l 1 '
de m odo tal que se verifica
1 . Á f = A¡ V/ = 1 ,2........ s
2. i ^ j => A¡ A¡ = N

3. ¿ A¡ = I
i=i '
4 . A A ¡ = A,- A Ví = 1, 2 , . . s

Demostración)
Por ser A diagonalizable existe P no singular tal que

P AP = D (1)
donde D es la m atriz diagonal formada con lo s n valores propios de A, que suponemos *
ordenados según las multiplicidades.
O sea

donde los elementos no diagonales, que no figuran, son nulos.


Denotando con ¿ la matriz identidad del tipo w ¿xw,-, la forma bloque-diagonal de D es

^2
D

Considerando las matrices

N,

para / = 1 , 2 , . .

www.FreeLibros.com
DESCOMPOSICION ESPECTRAL 313

Se verifica, por ser matrices diagonales,


a) E? = Ef
b) i ± j => Ef E; = N

c) 2 E,- = I, donde I es la identidad n x n


i=i
Además

D = íS \ E , (2)

De (1) resulta
A = P D P"1
Considerando esta relación y (2), se tiene

A = p ( . f i Xi E 1) P"1

O sea

A = 2 \ P E P -i
¿=i
Haciendo
A¿ = P E, P"
resulta

A= 2 Ai
i -1 n

Se verifican las siguientes proposiciones


1. A \ = P E f P '1 P Ej = P E? P"1 = P E¡ P"1 = A¡

2. Af A¡ = P E( P '1 P E¡ P 1 = P E¡ Ey F 1 -
= P N P '1 = N

3. 2 A,-= 2 P E f P”1 = P ( 2 E,) P"1 = P I P _1 =1


3"! _ D T D _1 ~

í=i í=i ¿-i

4. A A¿ = A P E, P 1 = P D E( P"J = P ( . 2 A, E¡) E, F 1 = P ( . 2 ^ E, E¿) F 1 -

^ ? ( \ E ¡) F 1 = \ ? E Í P-1 ^ \ A ¡ (3)
Aj A = P E¡ P"1 A = P E i D P “1 = P E f ( . 2 A, E,) F 1 = P \ Ef F 1 =
-AfPEiP-^XfAi (4)
De (3) y (4) resulta
A A¡ = A t- A V< = 1 ,2 , . . n

www.FreeLibros.com
314 FORMAS BIUNEALES Y CUADRATICAS

9.12. CONGRUENCIA DE FORMAS CUADRATICAS

9.12.1. Concepto

Sean f y g dos formas cuadráticas reales caracterizádas por las matrices simétricas A vfi
pertenecientes a R"x".
O sea
/ (X) = X*A X
g (Y) - Y f B Y
Definición

Las formas cuadráticas / y g son congruentes si y sólo si existe P no singular, tal que
B ~ P* A P
Las formas cuadráticas / y g son ortogonalmente congruentes si y sólo si existe P or­
togonal, tal que

B = Pf A P = F 1 A P
Las matrices A y B se llaman, respectivamente, congruentes y o rtog on alm en te t
congruentes.

9.12.2. Propiedad j

Dos formas ' cuadráticas reales / y g, de matrices A y B respectivamente, son !


ortogonalmente congruentes si y sólo si A y B admiten los mismos valores propios con las
mismas multiplicidades.
Demostración)
1. Sean f y g ortogonalmente congruentes. Entonces existe P ortogonal, tal que
B = P* A P ~ P"1 A P
En consecuencia, A y B son semejantes y admiten el mismo polinomio característico.
2. Sean A y B con la misma forma diagonal. O sea, existen Q y R ortogonales tales que
Q-J A Q = R’1 B R = D (1)
donde D es la matriz diagonal formada por los valores propios.
De (1) resulta
A = Q R “1 B R Q"1
Luego

A ~ (Q R() B (Q R f) f
La matriz P = Q R Í es ortogonal, ya que Q y R son ortogonales. Premul tiplicando por
P - P , y posmultiplicando por P, resulta

www.FreeLibros.com
CONGRUENCIA 315

B = P 'AP

O s e a ,/y g son ortogonalmente congruentes.

9.12.3. Propiedad

Si / es una forma cuadrática real, entonces es ortogonalmente congruente a la forma


cuadrática g, tal que

g 0 0 = 1=1
4 hyl

siendo At >X2 , . . A„ los valores propios de A.


En efecto, sean D la matriz diagonal formada por los valores propios de A, y Y e Rn* 1.
Consideremos la forma cuadrática g definida por

g ( Y) = Y Í D Y

Sabemos, por 9.9.3., que existe P ortogonal tal que

D = P"1 A P = P<A P
Luego f y g son ortogonalmente congruentes.

9.12.4. Propiedad

Toda forma cuadrática real f es congruente con la forma cuadrática g, tal que
g(Y ) = ^ i ± y l + . . . + y l - y l + i . —y \ , siendo r el rango de A y p el índice de
positividad de la forma.
Demostración)
La matriz simétrica y real A admite exactamente r valores propios no nulos, ya que
p (A) = r. Ordenamos los valores propios de modo que
son positivos

V + i , . . . , A,. son negativos


Ar+1 >• • •> son nulos
Consideremos
Xi

D=

Xn

Definimos la matriz diagonal

www.FreeLibros.com
316 FORMAS BILINEALES Y CUADRATICAS

P=
V —\ j+ i

Como existe Q ortogonal, tal que


Q* A Q = D
resulta

(Q P )' A (Q P) = P* (Q ( A Q ) P = P( D P
donde

P( D P = =B

Sea ahora la trasformación de coordenadas de matriz Q P, es decir


X - QPY
Se verifica que

/ ( X ) = X f A X = ( Q P Y ) f A ( Q P Y ) = Y Í (Q P) ( A ( Q P ) Y
En consecuencia, f e s congruente a la forma cuadrática g, definida por
g (Y) = Y ( B Y
donde

B = ( Q P ) ' A ( Q P)
Por la definición de B es

( Y ) = 7 i + y í + . . . + y l - y í +i - . . . y r2
La forma cuadrática g se llama forma canónica de f. Se verifica que dos formas
cuadraticas son congruentes si y sólo si tienen la misma forma canónica.

www.FreeLibros.com
FORMA CANONICA 317

Ejemplo 9-12.
Reducimos a la forma canónica la forma cuadrática / : R2 R definida por
f ( x i , x 2) = x'¡ - Txí x 2 + x l
1 La matriz de la forma cuadrática es
1 -1
A=
1 1
El polinomio característico es
X- 1 1
D (X l — A) = = X2 - 2 X

1 X - 1

Los valores propios son, entonces


Xi ~ 2 y X¿ = 0
2. Como el núm ero de valores propios positivos es 1, la forma canónica congruente es
g, definida por
g ( y i , y 2)= yí
Efectuamos el procedimiento indicado en el teorema anterior para obtenerla.
Calculando los vectores propios asociados a \ y X2 se obtiene

X, = ( 1) y X2 =
-1
La matriz ortogonal correspondiente es
1 1

1 1

Se verifica que
2 0
Q'AQ
0 0
La forma cuadrática ortogonalmente congruente a / esh, tal que
h ( z 1 , z 2) - 2 z'¡
Sea
1 0
^ 0
vxr 2
P=
0 1 0 1

www.FreeLibros.com
318 FORMAS BILINEALES Y CUADRATICAS

Entonces, haciendo X = Q P Y, se tiene

í ( Y ) = Y f (Q P)Í A ( Q P ) Y =
= Y* P* Q* A Q P Y = Y ' Pé D P Y =
- Y* B Y
donde

^ 0 2 0 0
2 2
B = P* D P =
0 1 0 0 0 I

y/2 0 ^ 0 1 0
2

0 0 0 1

o
o
O sea

g ( y i , y i ) = y 2i

9.13. SIGNO DE UNA FORMA CUADRATICA

Sea / una forma cuadrática real definida por

/ ( X ) = X rA X
donde A es una matriz simétrica real del tipo nx n.

9.13.1. Definiciones

1 ./ e s definida positiva si y sólo si

X* A X > 0 VX^O
2 ./ es semidefínida positiva si y sólo si

X'a X > 0 a 3X^O/X'AX=O


3. f e s definida negativa si y sólo si la forma cuadrática g definida por
g (X) - X* ( - A ) X
es definida positiva.

4. / es semidefínida negativa si y sólo sig tal que

■^ ( X ) = X Í ( - A ) X
es semidefínida positiva.

www.FreeLibros.com
FORMA DEFINIDA POSITIVA 319

Ejemplo 9-13.
| Determinamos el signo de la forma cuadrática / : R2-+ R definida por
/ ( X ) = 3*1 - 2 x ¡ x 2 + 2 x \

Se verifica que
/(X)= 2x\ + x l - 2xi x2 + x2 + x 2

! 0 sea
| AX) = 2 x \ + (x i ~ x 2f + x \
! C om o/(X ) > 0, V X 0, resu lta/d efin id a positiva.

9,13.2. Propiedad

La forma cuadrática real / , tal que / (X) = X* A X, es definida positiva si y sólo si los
valores propios de A son positivos.
i En efecto, sabemos que toda forma cuadrática real es ortogonalmente congruente a una
forma cuadrática g tal que

£ 0 0 =J i

siendo Xj , X2 , . . . , X„ los valores propios de A. Como ejercicio del trabajo práctico se


propone la demostración de que el signo de una forma cuadrática no varía frente a
trasformaciones de coordenadas. Esto significa que el signo de / es igual al deg. Luego
' / es definida positiva<*g es definida positiva o \ ( > 0, Vi
Diremos, entonces, que una forma cuadrática es definida positiva si y sólo si la
correspondiente matriz es definida positiva.
¡ Análogamente se demuestra que: / es definida negativa si y sólo si sus valores propios son
negativos; / es semidefinida positiva si y sólo si sus valores propios son mayores o iguales que
0 y alguno de ellos es 0; / es semidefinida negativa si y sólo si sus valores propios son
menores o iguales que cero, pero alguno de ellos es 0. Si existen valores propios positivos y
negativos, diremos que la forma cuadrática es indefinida.
El lector podrá demostrar como ejercicio del trabajo práctico que una forma cuadrática
real / , definida por / ( X ) = X* A X, es definida positiva si y sólo si los menores principales de
la matriz A son positivos.

Ejemplo 9-14
Analizamos, utilizando el criterio de los menores principales, si la forma cuadrática/,
definida por

www.FreeLibros.com
320 FORMAS BILÍNEALES Y CUADRATICAS

/ ( *u x 2>x z ) = 2 x \ + x \ + 3 * i + 2 Xl x2 - 2 x 2 x 3

es definida positiva.
La matriz de la forma cuadrática dada es

/ 2 l 0
A = f 11 - 1
\ 0 -1 3
Sus menores principales son

an = 2 > 0
an a l2 2 1

a 21 a 22 1 1

D(A)= 1 > 0
Luego, / es definida positiva.

www.FreeLibros.com
TRABAJO PRACTICO IX

9-15. Sea (V, + , K , .) un espacio vectorial. Dem ostrar que el conjunto B (V) de todas las
formas b ilin e a le s /: V2 -» K es un espacio vectorial sobre K, como se indica en 9.2.1.
9-16. Sea § : V2 -+ K una forma bilineal. Demostrar que gy : V -> K, definida por
gy (x) = g (x, y), es una forma lineal.

9-17. Una forma bilineal / sobre R 3 está caracterizada por la matriz

i) O b te n e r/(x , y).

ii) Determinar la matriz d e / respecto de la base

1 ( 1. 1, 1) , ( 1, 1, 0) , ( 1, 0 , 0)1
9-18. Determinar la forma escalar de las formas cuadráticas asociadas a las formas bilineales
S (X , Y) = X* A Y, en los siguientes casos:

9-19. S e a /la forma cuadrática real definida por

/ ( X ) = X2

donde X = — 2 Xf =
n «=i n
O btenerla matriz d e /re sp e c to de la base canónica en R".
9-20. Determinar las matrices de las formas cuadráticas sobre R” definidas por

i) / ( X ) = « X2 ii) / ( X ) - (X,. - X)2

Investigar la idempotencia de tales matrices.

www.FreeLibros.com
322 FORMAS BILINEALES y CUADRATICAS

92 1 . Sean g una forma bilineal simétrica sobre V v f 1 r


Demostrar que V, y / ia forma cuadrát¡ca

i ) y ( x , y ) = - i ( / ( x + y ) _ / ( x _ y ) j

“>f(x,y) = -± -(/(x + y ) - / (x)_ /(y )j

9-22. Determinar la m atriz de la forma cuadrática sobre R3 definida por

/ ( * i .x 2, x 3) = x j ~ 4 Xl x 2 + 2 x%

^ (x >y ) = / ( x + y) - / (x)- f (y)


Suponiendo que g es bilineal, y que f i a x \ = a2 f ( n \ ^v w

r r forma';uadráticayií“ r i ^ i i > r lac L ; : i ? ostrarque


sean [y] y {J¡ ^ Pro^ t o interior y
/(V í) - w„ e n to n c e s/e s ortogonal. ^ ^ operador que Venfíca

W que "• COn *> * * * • Amostra,


{/(.%)} es una base ortonorm al de V. /e S Un Operador M to8onaI en V, entonces

« * . Sea P una matriz ortogonal diagonal. Demostrar que ,os Cementos de ,a diagona, son ,

9m27. Sean las matrices

/ eos 6 -s e n Q \ / je

' Q= í
\ sen 0 eos 0 ) \ 0 ew
Demostrar que existe una m atriz unitaria U tal que Q = I T1 P u.
9-28. Demostrar que toda matriz simétrica y real admite un vector propio.
9-29. Obtener, en cada caso, una base ortogonal de R 2 fn rm ^ o „ i
las siguientes matrices: P° f vectores propios de

0 /3 0\ ü)

A= \0 3 / A

9-30. Comprobar que la matriz

www.FreeLibros.com
TRABAJO PRACTICO IX 323

* - (\ y / ’2 *2 ) I
es definida positiva y obtener Q no singular, tal qu e A = Q Q*.
9 3¡ O btener una trasform ación ortogonal que diagonalice a la form a cuadrática

/(X ) + 2 \ f 6 Xl x 2 + 2 x \

9 32 Dem ostrar que el signo de una forma cuadrática real no varía si se efectúa un cambio
de base.
9-33. D em ostrar que si / ( X ) - X !A X es definida positiva, entonces g (Y) = Y*A-1 Y es
definida positiva.
9-34. Determinar el rango y la signatura de las formas cuadráticas definidas por

i)/(*i,*a.*a) = *i + 2 *2 + 6 *3 - 2 x í X 3 + 4 x 2 x3
i i ) f ( x í , x 2) r ( x í - x 2f

9-35. Obtener la descomposición espectral de la matriz C del ejercicio 8-15.


8

9-36. Sea 2 \ A¡ la descomposición espectral de la m atriz A. Demostrar


í=i
i ) A y B son permutables si y sólo si B perm uta con cada A,-.
ii) Si A es no singular, entonces la descomposición espectral de A“1 es

¿ V A ¿

9-37. Demostrar que toda m atriz cuadrada real no singular puede expresarse como producto
de una matriz ortogonal y una matriz definida positiva.
9-38. Expresar la matriz

1 / - 1 ^ \
k ~ V5"\n/T 2 /

como producto entre una m atriz ortogonal y una m atriz definida positiva.
9-39. Demostrar que una form a cuadrática real / (X) = Xf A X es definida positiva si y sólo si
los menores principales de A son positivos.
9-40. Sean dos formas cuadráticas f y g en R” definidas por f (X) = X t A X y g (X) = X¿ B X.
Sabiendo que f es definida positiva, demostrar que existe una trasformación de
congruencia que las reduce a
OL) =yí +yl +■ ■•+yl

www.FreeLibros.com
324 O
F RMAS BILINEALES Y CUADRATICAS

y
Si (Z )= X ! z \ + X 2 z \ + . . . + \ zn

9-41. Sean (V, + , K, .) un espacio vectorial de dimensión finita, y < , ) una forma bilineal
simétrica’ sobre V. Una base [v] es ortogonal respecto de <,> si y sólo si
i =£/ =*•<¥*,v; >= 0.
Demostrar que si V { 0 } , entonces V admite una base ortogonal.

www.FreeLibros.com
Capítulo 10

CONVENXIDAD. PR O G R AM AC IO N LINEAL

10.1. INTRODUCCION

A partir de la distancia definida sobre la base del producto interior habitual, se estudian y
se clasifican puntos y subconjuntos de R” . Se generalizan las nociones de recta, plano,
semiplano y semiespacio estudiadas en el capítulo 7. Se presenta una introducción a los
conjuntos convexos en R ", y se estudian sus propiedades fundamentales. Después de
relacionar la convexidad con las trasformaciones lineales, se desarrollan los conceptos de
hiperplano soportante y de puntos extremos. Finalmente, y en conexión con ío anterior, se
esboza una introducción al problema general de la Programación Lineal, y al método
simplex.

10.2. CONJUNTOS DE PUNTOS EN R"

En lo que sigue consideraremos el espacio vectorial (R n, +, R , .) con el producto interior


habitual, es decir, definido por

< x , y > = 2 x ¡ j' , = Xt Y


i=i
donde X e Y denotan las matrices columnas asociadas a los vectores x e y.

10.2.1. Esfera abierta en R"

Definición
Esfera abierta de centro a e R " y radio r > 0 es el conjunto de puntos de Rn cuyas
distancias a a son menores que r.
El símbolo S ( a , r) se lee: “ esfera abierta de centro a y radio r’\
S ( a , /■) = ¡ x e R" /d (x , a) < r }
O sea
S(a,r)= ¡ x e R "/ !lx-aii< r|

www.FreeLibros.com
326
CONVEXIDAD. PROGRAMACION LINEAL

O bien

S(a,r)=( xeR" < r2 ¡

En particular, si „ = i , se üene el segmento abierto de lo n g ta d ^ ^ ^ ^ ^

O
R
s far)
S (a, í*)= f x e R / I x - a l O } ={ x e R / a - f < x < a +

En R2 , S (a, r) es el interior del círculo de centro a y radio r.

Sfar)

S (a, r ) = j x e R 2 / II x - all < ,


(*i >x 2) i ( x x - axf + (x 2 - a2 )2 < r 2\

10.2.2. Punto interior

Sea C un subconjunto de R".

Definición

a e C es un punto interior de C si y sólo si existp í-->n *«i i r


radio rr está
centro a yv radio mohúA» en nC.
está incluida taí ^ ue ,a esfera abierta de

a e C es interior d e C * > 3 r > 0 / S ( a , r ) C C


Los puntos de todo intervalo abierto en R son interiore« oí • + ,
sus puntos, salvo los extremos ,n „ S' Sl el lnte,yal0 es ce™ do, todos
extremos, son interiores.

10.2.3. Punto frontera

SeaCCR".

www.FreeLibros.com
CLAS IFICAC ION DE PUNTOS 327

Definición
a e R" es un Pu nto fr°ntera de C si y sólo si toda esfera abierta de centro a tiene
intersecciones no vacías con C y Cc.
a e R n es frontera d e C « - V / - > O : S ( a , r ) n c ^ 0A S ( a , r) n C * 0

El punto a í'C , pero es Si C = A U ¡ a 1 , entoncesel punto ais-


frontera de C. lado a es frontera de C.

10.2.4. Punto de acumulación

Sea C C R ". El símbolo S* (a, r) se lee: “esfera reducida de centro a y radio r" e indica la
diferencia entre S (a, r) y { a ) . Es decir, S* (a, r) denota la esfera abierta de centro a y radio
r, excluido el centro.

Definición
a e R" es un punto de acumulación de C si y sólo si la intersección entre C y cualquier
esfera reducida de centro a es no vacía.
a e Rn es de acumulación de C ^ V r > 0: S* ( a , r) n C # 0
Los puntos de acumulación de un conjunto suelen llamarse puntos límites.
Observamos que un punto de acumulación de C C Rn no pertenece necesariamente a C.
Tal es el caso de la figura siguiente:

www.FreeLibros.com
328 CONVEXIDAD. PROGRAMACION LINEAL

.. J “ p e s p u n t o frontera y tam bién de acumulación de C


Si consideramos

a e C es punto frontera de C, pero no es de acumulación de C.

contiene infinitos puntos de redUClda' “ " ‘rada en unpunto de acumulación de C,

10.2.5. Conjunto abierto

Sea C C R"

Definición

c es abierto si y sólo si todos sus puntos son interiores.


c es abierto " ^ V a e C , 3 r > o / S ( a , / ' ) n c= S ( a r)

- f . "“ K z t í r s r •“ « - > - . .

qus i , ■ ,1 M a n íS ' de la ; 'K l " :

10.2.6. Conjunto cerrado

Consideremos C C Rn.

Definición

c es cerrado si y sólo si todo punto de acumulación de C pertenece a C

„ ■ r ° r pun, os de—
derivado de C. Diremos entonces que P ° S e acumulaeión de C, se llama

C es cerrado ^ C ’ C C
La siguiente figura

www.FreeLibros.com
DERIVADO Y CLAUSURA 329

representa un conjunto cerrado, donde C’ = A . Los conceptos de abierto y cerrado no son


' cluyentes, ya que existen conjuntos que no son abie rtos ni cerrados.
6XEste es el caso de un conjunto formado por la unión de un disco abierto y un punto
aislado. Observamos, además, que un segmento abierto es un conjunto abierto en R, pero no
lo es en R2 ; o sea, el concepto de abierto es relativo al espacio métrico que se considere.
El lector podrá demostrar, como ejercicio del trabajo práctico, que un conjunto es
cerrado si y sólo si su complementario es abierto.
Se verifica que la intersección de toda familia de cerrados es cerrada, y que la unión de
toda familia finita de cerrados es un conjunto cerrado. Estas proposiciones son consecuencia
de la propiedad anterior.

10.2.7. Clausura de un conjunto

S e a CC R".

Definición
Clausura de C es la unión entre C y su derivado.
El símbolo C se lee: “ clausura de C” .
Se tiene
c-cuc
O sea, la clausura de C es la unión entre C y el conjunto de sus puntos de acumulación. Se
demuestra que la clausura de un conjunto cualquiera es cerrada. Más aún, que la clausura de
un conjunto C es la intersección de todos los cerrados que inlcuyen a C. En este sentido, la
clausura de C es el m ínim o cerrado, en el sentido de inclusión, que contiene a C.

10.2.8. Conjunto acotado

SeaCCR".

Definición
C es acotado si y sólo si existe r > 0 tal que
a e C ^ IIa I l <r

www.FreeLibros.com
330 CONVEXIDAD. PROGRAMACION LINEAL

O sea, C es acotado si y sólo si existe r > 0 tal que


CCS(0,r)

Definición
C está acotado por debajo si y sólo si existe a e R " tal que

xfC=>a<x
La notación vectorial a < x significa que a{ < x¡, Vi = 1, 2 , . . n.

Definición
C está acotado por arriba si y sólo si existe a e R " tal que
xeC^x<a
El conjunto C C R 2 indicado en la siguiente figura está acotado por debaio
arriba

10.3. SEGMENTOS, HIPERPLANOS Y SEMIESPACIOS

10.3.1. Rectas y segmentos en R"

Sean Pj y P2 dos puntos distintos de R". La ecuación vectorial de la recta P ( P2


. X = P i + r ( P 2 — Pj ) donde í e R

www.FreeLibros.com
RECTA Y SEGMENT O EN R"
331

Por distributividad respecto de la suma en Rn y en R, se tiene


X = íP 2 + ( l - O ^ i coníeR
La recta determinada por Pj y P2 es el conjunto

P , P2 = { X e R" / X = r P2 + (1 - í) P , )
El segmento Pi P2 se obtiene haciendo variar el parámetro t entre 0 y 1, o sea
X
si. ek.Px ,j P2 1 - t ) ?1 a 0 < í‘ < l
* 2 <*X = ? P2 +1 (V*

Observamos que cualquier punto del segmento determinado por Pj y P2 puede expresarse
como combinación lineal de éstos, con escalares no negativos y cuya suma es 1.

Ejemplo 10-1
La ecuación vectorial paramétrica de la recta determinada por P j ( 3 , 0) y P2(0, 4) es
(x 1 , x 2 ) -( 3 , 0) + f ( - 3 , 4)

El sistema de ecuaciones cartesianas paramétricas es


I X i = 3 - 3 í

|x2 = 4 t
Eliminando el parámetro resulta la ecuación cartesiana

* i = 3 —3—
4
O sea
4 x i + 3 x 2 = 12 (1)

www.FreeLibros.com
CONVEXIDAD. PROGRAM ACION LINEAL

La representación es

El vector c = 41 + 3 j
es normal a #■. En notación matricial, la ecuación ( 1) se escribe
Ct X = l 2

La distancia entre 0 y r es

(0 , r ) = lpc p 1 1 = | =
IIC II 5
La igualdad

c 'x « *

dirección d e '“ ! rt o „ c “ ^ V o r t r y t drectaPara' elamen,e3 ^ misma en la

Ejemplo 10-2
dEI ~ ° dete™ ¡nado p o r P, y P2 , con las
por coordenadas del ejemplo anterior, está

Pl , „ (0. 4) + ( l _ r) (3, 0) con 0 < r < 1

( 2 . 2) (°.4f)+(3-3/,0) =(3_3/,4í)

de donde resulta t = —
2'

www.FreeLibros.com
r HIPERPLANOS 333

10.32. Hiperplanos en R rt

pefiniciótt
Un hiperplano en R” es un conjunto de puntos de R ” tales que
C *X = k
donde C denota un vector columna de n componentes y k es un número real.

El vector C es ortogonal a 7r. En efecto, sean Pj y P2 pertenecientes a ir. Entonces es


C( P , ^ a C( P 2 =A
Luego
Ct (P2 - P , ) = 0
O sea, el producto interior entre C y cualquier vector de tt es cero.
Luego
CJ.7T
La ecuación de un hiperplano que pase por el origen es
C( X = 0
La ecuación normal vectorial se obtiene dividiendo por IIC li y considerando k en valor
absoluto, o sea
C* liti
x =
CU
Esta igualdad puede escribirse
Nf X = p

www.FreeLibros.com
334 CONVEXIDAD. PROGRAMACION LINEAL

donde N es un vector unitario normal al plano. El número — es, en valor absoluto


II CII ’
distancia del origen al plano.
Los hiperplanos de ecuaciones C{ X = k , y C$ X = k 2 son paralelos si y sólo si C, = a C
En R2 un hiperplano es una recta. En R 3 es un plano.
La ecuación cartesiana del hiperplano cuya ecuación vectorial es
C *X = k,
se escribe
n
2 Ci X i = k
1=1 ‘ '

Consideremos el caso de un hiperplano cuyas intersecciones con los ejes sean positivas I
siguiente figura ilustra la situación en R2 ' ‘u

La ecuación es

C* X = k
donde k > 0. Mostraremos que si el hiperplano se traslada paralelamente a sí mismo en la
dirección del vector normal, entonces el término independiente de la ecuación crece En
etecto, el hiperplano que pasa por X ! , de vector normal C, está definido por

Cf X -f c i
Si consideramos el hiperplano con el mismo vector normal, que pasa por
X2 = Xj + a C, con a > 0,
se tiene

C *X = k 2

www.FreeLibros.com
SEMIESPACIOS
335

Como
Ct X 2 ^ C t ( X l + ttC ) = Cí X 1 + a C t C = k l + o: Il CIP
resulta
&2 ^ k x
Todos los puntos del hiperplano de ecuación Ct X = k 2 verifican C* X > k
Se propone como ejercicio del trabajo práctico la demostración de la siguiente propiedad*
todo hiperplano es un conjunto cerrado.

10.3.3» Semiespacios

Un hiperplano 7Tde ecuación


C( X = A
determina una partición de R " en tres conjuntos: el hiperplano 7r y dos semiespacios
abiertos de borde 7T.
Ilustramos esta situación en R2 .

Definición
Semiespacios abiertos de borde tt son los conjuntos
S, = ( X e R n / C í X < / c
S2 = ( X e R n / C f X>ifc

Definición
Semiespacios cerrados de borde 7r son los conjuntos

www.FreeLibros.com
336
CONVEXIDAD. PROGRAMACION LINEAL

Si = I X e R n / C t X < k \

“ “ - j u n t o s Aabiertos, y que los semiespacil

10.4. CONVEXIDAD EN R"


10.4.1. Conjuntos convexos

SeaCCR”.

Definición

p u n id a C ¿ á l “ n CY ^ * * Se8mení° ^ par de

C C R ” es convexo o Pi e C ^ P2 e C ^ p T p , c e
Sabemos que

Pi P2 ~ f X e R n j X = t V 2 + ( i _ í ) Pl A0< ? < i|

oonve*. de dos puntos c a f c * ^ de C ..e. teQece a c ‘f " “ nll,íl,acíó"


combinaciones convexas de P V P p s p I ca conjunto de todas las
convexas ae P , y P2 es el segmento cuyos extremos son estos puntos.

10.4.2. Propiedad

La intersección de dos conjuntos convexos es un conjunto convexo

y ^ p e rte n e c ie n te s C° nVeX0S' C° mÍderem° S d“ «“ " « » - 'i^e r a P,

P,_eC_A P2 e C =* P ^ e C¡ a P , e C j A P2 e c , a P2 e C 2 *
^ P > P2 c c , A P , p 2 c c 2 =»p , p 2 c c , n c 2 ^ p 7 p ¡ c e

esta incluido en la intersección de éstos. conjuntos, entonces

10.4.3. Combinaciones convexas

Sean P , , P2 , . . .,P m pertenecientes a R".

www.FreeLibros.com
CONVEXIDAD EN RM 337

Definición
Combinación convexa de los puntos P t , P 2 , . . Pm es todo vector del tipo

cioj .2 di Pf
i=i
donde

2 oc¡ = 1 y a.- > 0, V/ = 1 , 2 , . . . , m.


í=i
propiedad

El conjunto de las combinaciones convexas de los puntos P j , P2 , . . . , Pm , es convexo.


Hipótesis) j P i , P 2 ........ P » | C R "
i m m >
de Tesis) C = { .2^ c¡f Pf / 2^~ 1 a > 0 J es convexo

Demostración)
Se trata de probar que toda combinación convexa de dos puntos cualesquiera de C,
pertenece a C. Sean P’ y P” pertenecientes a C. Ahora bien

P’ e C a P” e C =►P’ = 2 a) P¿ a P” = 2 a ”, P,
í=i f=i ' 1
donde
12‘
ión
0 < aj-, 0 < y 2 a|- = .2 a ’) = 1
las V ' *-1 ‘ f=i
Como
ni m
t P” + (1 - 0 P’ = t .2 a} Pf + ( i - 0 2 a ’;. Pf =
m
= 2 ( í a ; + ( l - O « /’) Pf
M 1-1
resulta t P” + (1 -- i) P’ una combinación convexa de los m puntos dados, pues
0 < á¡ => 0 < t
0 < a ;-’= > 0 < ( 1 - i ) « ”
Luego
lt0 + -0 « ”
Además
m m m
2 t a¿ + (1 - i) a ” = t 2 a- + (1- t) 2 a” = 1
i=l ' 1 1=1 ' v 1=1 1
El conjunto C, representado en la figura siguiente, es el conjunto de las combinaciones
convexas de los puntos P*, P2 , P 3 y P 4 pertenecientes a R 2

www.FreeLibros.com
338 CONVEXIDAD. PROGRAMACION LINEAL

Sea C un conjunto no vacío de R ".

Definición

Casco convexo de C es la intersección de todos ios convexos que incluyen a C.

incluye a “ C° nVeX° ^ C C R” “ eI m ínim ° convexo (en el sentid° de inclusión), qu,


Sea C el casco convexo de C. Entonces

c = n c,-
donde f Cf / i e IJ es la familia de todos los convexos que incluyen a C.

Ejemplo 10-3

s e s e n ta C° nVeX° “ C° n jU n t° C= ' d ° nde P >

• En R 3, si C es la superficie esférica de radio 2 con centro en el origen, entonces C es


la esfera correspondiente. En términos analíticos, se tiene
C = ( X e R 3 / IIXII = 2 J
C=. ¡ X e R 3 / IIXII < 2 í

10.4.5. Propiedad
co
El casco convexo de un número finito de puntos de R " es el conjunto de 1
combinaciones convexas de ellos. Hi

Sean P , P2, . . Pm pertenecientes a R ". En 10.4.3. hemos demostrado que el conjunl


de las combinaciones convexas de estos puntos es convexo. Te
Este conjunto que denotam os mediante S, es un convexo que incluye De
P”
_ de todos'eHo’s : ^ CU3lqUÍera '° S de
Consideremos ahora la intersección de la familia de todos los convexos que incluyen a
O S63

C = n C¡- / C¡ D C a C,- es convexo

www.FreeLibros.com
CONVEXIDAD EN Rrt 339

Debemos probar que


C C A y A es convexo =►S C A
Razonamos inductivamente sobre m.
1 Si tn = 1, Ia proposición se verifica obviamente, y a que S = C.
2 Suponemos la validez p a ra m - 1 . Se tiene
m m
P e S =*• P = 2 a* Pf a 0 < a 2 a¡ = 1
¿=i 1 ‘ ' «=i 1

Sea entonces

• p = ( i - o ( — — p, + — ^ P 2 + . . . + - ^ i - P m n ) +<*m P„,
\ 1 - am 1 - am 1 - am J
fti dm _i
c| vector ------ — Pi + . . . + — ^ ^ P m - i es una combinación convexa de
1 - Otm * - “m
P P2, . • Pm -i > y Por hipótesis inductiva pertenece a A. Como éste es convexo, P, que
es una combinación convexa de dos puntos de A, pertenece a A.
En consecuencia
S CA
O sea, C = S.

Definición
Poliedro convexo generado por un núm ero finito de puntos es el casco convexo que
ellos determinan.
El triángulo representado en 10.4.3. es el poliedro convexo generado por P j , P2, P 3 y P4.

10.5. CONVEXIDAD Y TRASFORMACIONES LINEALES

10,5.1. Imagen de un conjunto convexo

La imagen de un conjunto convexo, por toda trasformación lineal / : R " - +Rm , es un


conjunto convexo.
¡ 1; Hipótesis) / : Rn -» Rm es trasformación lineal

C C R " es convexo
unt
Tesis) /( C ) es convexo en Rm

re Demostración) Sean Q’ y Q” pertenecientes a f (C). Por definición de imagen, existen P’ y


icio P” en C, tales que

/ ( P ’) = Q* y / ( P ” ) = Q”
i a(
Como C es convexo, se verifica que
í P ” + ( l - r) P’ e C

www.FreeLibros.com
340
CONVEXIDAD. PROGRAMACION LINEAL
Luego

? / ( n + ( l ~ 0 / ( P ’) e / ( C )
O sea

' Q ” + ( l - ? ) Q ’e / ( C )
En consecuencia,/(C ) es convexo.

10.5.2. Preimagen de un conjunto convexo

c o ¿ m ó eZ I x o de Un C° njUnt0 C° nVeX0’ P° r *°da ' d a c i ó nü n e a l / : R » ^ * « esin

Hipótesis) f : R n -> R m es trasformación lineal


C C R m es convexo
Tesis) / 1 (C) es convexo en R".

Demostración) Consideremos dos puntos cualesquiera P’ v P” i


definición de preimagen, de t r a s l a c i ó n lineal y T e convexMad, L t ™ “ * C
P’e f 1 (C) a P” e n (C) ^ / ( P ’) e C a / ( P”) e C
=>t f {P”) + ( i _ ,) /( ? > ) e c = > /(? p „ + (1 _ r) F ) e c ^
=>í P” + ( 1 - 0 P ’e f '1 (C)
En consecuencia,/ 1 (C) es un conjunto convexo.

10.5.3. Convexidad de hiperplanos y de semiespacios

1. Todo hiperplano es un conjunto convexo.


Consideremos C e R " y la función / R " -» R definida por

/ ( X ) = C*X

Rn

elemento e s * e R e s'to n v e x c f ü T L ' e r i ™ n ‘ lO s “ ^ ' ^ C° njUnt° °Uy° Ú“ “


convexo en R ". Tal preimagen es el conjunto Prem agen por / , es u»

www.FreeLibros.com
CONVEXIDAD Y TRASFORMACIONES LINEALES 341

( X e R " / f ( X ) = Ct X = &}
0 sea, el hiperplano de ecuación C* X = k,
!¡ El conjunto C = 1 * e R / x > f c | es convexo.

Pi P2
________________ o-------------------•-----------------------------• ■ --------- »
k x1 *2 R

Bn efecto:
Pj e C a P2 e C =>x4 > k A x 2 >k=>
=* t x 2 + ( 1 - t ) x i > t k + { 1 —f) fr - fc

]II Todo semiespacio abierto es un conjunto convexo.


Considerando la trasformación lineal f : R " -> R definida por
/ ( X ) = C* X,
y que el conjunto
{x e R / x > k }
es convexo, entonces su preimagen, o sea
j x e R ” / / ( X ) = C * X >&} ,
es un conjunto convexo, de acuerdo con 10.5.2.
Tal preimagen es el semiespacio de inecuación
C*X>k

IV. Con criterio análogo se prueba que todo semiespacio cerrado es un conjunto
convexo.
V . La intersección de un número finito de semiespacios, por ser éstos conjuntos
convexos, es un conjunto convexo. Tal intersección, como lo muestran las siguientes
figuras, puede ser acotada o no.

www.FreeLibros.com
1

342
CONVEXIDAD. PROGRAMACION LINEAL

10.6. h i p e r p l a n o s s o p o r t a n t e s
10.6.1. Propiedad

Si C es un subconjunto cerrado y convexo HP R«


pertenece a C, o bien existe un hiperplano tt T a u l J L T * ^ pUnto
en uno de los dos semiespacios a b ie rta de borde * Y “ q“# C 6Stá * * 4

dem ostrarem os^ue6existe un h i p e ^ l a n o ^ ^ e ^ e r i f í ^ l 110^ 611*0^ 068 ^ f * C' en ^ *


C o n sid erem o s la fu n c ió n afirm a d o en el enunciado.

definida por

f P (X)= IIX-PIJ

La función f p es continua y alcanza el mínim o en C. O sea

p , . 3 A e C / X e C = % ( A ) < / (X)
t s decir, existe A e C tal que

IIA —P (|< Hx —P|| v X e C


Sea N = A - P. Se verifica que N * 0, pues A e C v P ^ r Af
ortogonal a N que pasa p o r P es tal que C está incL rf Af™ 0s que el hiperplan
abiertos determinados por él. incluido en uno de los dos semiespacio
La ecuación de tal hipeiplano es

NÍ ( X - P ) = 0
O sea

semiabierto (o,’ ] se v e rific ^ q u e ^ 1” 10 ^ A’ ent0nces para todo ‘ Perteneciente al inte™!

1 A ~ P ■< IA - / (B - A) _ P , = , (A _ p) + , (

www.FreeLibros.com
HIPERPLANO SOPORTANTE 343

do al cuadrado y teniendo en cuenta la expresión del cuadrado del módulo y la


E-bltfridad del producto interior, en notación matricial, resulta
dÍStri II A - Pll2 < ¡I A - Pli 2 + 2 t (A - P)* (B - A) + t% II B - Ail2
D espués de cancelar y dividir por V.
0 < 2 (A - P)( (B - A) + t II B - AII2

Para t -+ 0 es
0 < ( A - P)f (B - A) = N f (B - A) = N Í B - N í A =
=¡ N* B - N* A + N* P - N* P = N ( (B - P) - N f (A - P)

Osea
0 < N f (B - P) - N N

De donde
Ní N < N t ( B - P )

Y como N í N > ü, pues N * 0, resulta


0 <N ( (B-P)

Es decir
NÍ B > N Í P
En consecuencia, B pertenece al semiespacio de inecuación
NÍ X > N Í P
O sea, C está incluido en el semiespacio abierto determinado por la inecuación
N*X>N*P

10.6.2. Hiperplano soportante


Sea P un punto frontera del subconjunto convexo C C R ,

Definición
7r es un hiperplano soportante del conjunto convexo C en el punto frontera P si y solo
si C está incluido en uno de los dos semiespacios cerrados de borde ir.
Queda como ejercicio del trabajo práctico la demost ración de la siguiente propiedad: si P
es un punto frontera de un conjunto convexo C, entonces existe un hiperplano soportante de
CenP.

Ejemplo 10-4
ni Consideremos un conjunto convexo C y el hiperplano de ecuación
N*X = k

www.FreeLibros.com
344
CONVEXIDAD. PROGRAMACION LINEAL

Sabiendo que

X eC ^N 'x > ¿ (i)


afirm am os que to d o p u n to perteneciente a r n *
Bn efecto, S1 P no J ra un "

P-eNeC
Luego

N ' ( P ' e N ) = N t P ^ e N ' N = í ; - e N <N < j t


lo que es imposible, ya que todo punto de C satisface <1■>

soportante de c en

10.7. PUNTOS EXTREMOS

Sea P un punto del conjunto convexo C C R "


D e fin ició n

p e rte n e c ie m e fa c S q u Í ° “ Y ^ SÍ ^ GXÍStm dos Pu n to s t i n t o s P, y P¡

P í -p2 + ( l - / ) P 1 donde 0 < í < j

determinadc^po^dos punto^disüntos d e ^ l“ "*0 C° nVeX° n° PerteneCe aI -bta*

■ ■■— — . *
Se dem uestra que to d o p u n to extrem o de '
Propiedad U" C° njUnt° C° nVeX°" “ PUnt0 f™ ‘era.

Todo hipeiplano soportante de


contiene un p u n to extrem o. C° nVeX° ’ “ y acotado p o r debajo,

www.FreeLibros.com
PUNTOS EXTREMOS 345

r est a afirmación consideremos un hiperplano soportante de C en un punto


Para pr° * taJ ^perplan o , y su ecuación
n! x = n ' p0
•derem os el semiespacio cerrado definido por
C on si 1
Nf X > N ‘ Po VXe C

sea
A - ttn c
¿cu erd o con las hipótesis y propiedades anteriores, A es convexo, cerrado y acotado
De ac
por
debajo.

Probaremos que todo punto extrem o de A es un punto extrem o de C. En consecuencia, el


problema queda reducido a la determinación de los puntos extremos de A.
Supongamos que P sea un punto extrem o de A no perteneciente a C; entonces existen Ch
y Q 2 en C tales que
P = í Q 2 + (1 — O Q i A 0< í< l (1)

Ahora bien
P e 7 T ^ N í P = N P0 (2)

De (1) se deduce
N í P = í N í Q 2 + ( 1 - í ) N ( Qj
De esta igualdad y de (2) resulta
N ‘ P0 = í N ( Qa + ( l - í ) N ‘ Qi (3)

Además
Q t e C a Q 2 e C = > N f Qi > N ( P 0 a N ‘ Q 2 > N é P 0
Supongamos que se verifica alguna desigualdad estricta, por ejemplo, N ( Q 2 > N( P0 .

www.FreeLibros.com
346 CONVEXIDAD. PROGRAMACION LINEAL

Entonces, considerando (3) se tiene

N í P0 > / N í p o + ( l - / ) N í P0 = N í Pn
lo que es absurdo. En consecuencia, se verifica que

N Í Q 1 = N Í P0 a Nf Q2 = N* P0
O sea

y esto contradice la suposición de que P es un punto extrem o de A

extrem“ C° m ° e je rd d ° " * " b* ° • > * « “ * determinación efectiva de un punto

p u n tt“ qUe t0d° C° njUn,° aCOtad° y convexo es el casco convexo de j

^ “ r ° de que un ~ - « *

10.8. INTR
ODUCCION A LA PROGRAMACION UNEAL
10.8.1. Concepto

• r ¡ r s ? x s - r i r r * ? - ••- — - -
aphcable a sistemas complejos en los que in te J e ñ e n T e ’rso etCé,era' »
dinero. Su objetivo es el asesoramiento a fin de adornar L • e« ° s > materia prima y
La Programación Lineal es un m ^ e l o n a r t i . l T “ c o m ^ e s.
Los problemas que trata la Programación Lineal s o ^ 6 "n ^ Investi6ación Operativa.

¿fsirtZí'SE.rr.'rr“'
^ E iH n 6 relac^ones **neales que vinculan las variabies corólos datos16 PUeden " eXPreSad°S

soluciones posibles y optimización del objetivo. SU P ’ estrucíura lineal,

www.FreeLibros.com
PROGRAMACION LINEAL 347

oroducir una unidad del producto A x , el dinero insumido por los recursos es, en pesos,
pa?0 y 4 respectivamente. En el caso del segundo producto las cantidades son 6 ,2 0 y 4.
5’ Esta situación queda indicada en la siguiente tabla o matriz

A) a2

Mano de obra 5 6
Materia prima 10 20
Equipos 4 4

El dinero disponible para cada uno de los tres recursos es, respectivamente, 15.000,
20.000 y 6.000 pesos. . . .
La ganancia o beneficio neto por cada unidad del producto A! es 3 pesos, y por cada
unidad del producto A2 es 4 pesos. Se supone que el mercado puede absorber sin
competencia estos productos.
Con esta información completamos el cuadro anterior:

^ ^ ^ P r o ducto s
Recursos^''“''“' ' « ^ ^ A! a2 Disponibilidades

Mano de obra 5 6 15.000

Materia prima 10 20 20.000

Equipos 4 4 6.000

Beneficio 3 4

El problema consiste en determ inar las cantidades a producir, Xi y x 2, de los productos


Ai y A2í respectivamente, a fin de obtener el máximo beneficio. El objetivo es, entonces,
maximizar el beneficio.
Las variables x t y x 2 deben satisfacer las siguientes restricciones:
1. Condiciones de vínculo

5jcx + 6x2 <15.000


■ 10 x i + 20 x 2 < 2 0 .0 0 0
4 x i + 3 jc2 < 6.000
2. Condiciones de no negatividad
\Xl >0

www.FreeLibros.com
348 CONVEXIDAD. PROGRAMACION LINEAL

El número de unidades producidas de cada producto no puede ser negativo.


El conjunto solución S del sistema formado por las inecuaciones anteriores es
intersección de los cinco semiespacios (en este caso semiplanos), que tales inecuacio
determinan. nes
Para obtenerlo, representamos primero las rectas cuyas ecuaciones son:
5 x i + 6 x 2 = 15.000
10 X ! + 20x2 = 20.000
4*i+ 4 * 2 = 6.000
Las condiciones de no negatividad restringen el problema al prim er cuadrante. Obtenemos
las intersecciones de las rectas con los ejes escribiendo las ecuaciones en la f0rm
segmentaria, o sea, dividiendo por cada térm ino independientemente:

+
3.000 2.500

+ *2
2.000 1.000
*2
+
1.500 1.500
La representación de las tres rectas y del conjunto S, intersección de los cinco
semiespacios, queda indicada en la siguiente figura

www.FreeLibros.com
PROGRAMACION LINEAL 349

■conjUnto solución S es el cuadrilátero cuyos punto s (x x, x 2) satisfacen las condiciones


'nculo y de no negatividad. S recibe el nombre de conjunto de soluciones posibles o
f 6 [¡bles De él hay que elegir el subconjunto cuyos elementos maximicen la función objetivo
f ( x l t x 2) = 3 * ! + 4 x 2
x ) representa el beneficio neto que se obtiene al v e n d e r;^ unidades del producto A!
y unidades del producto A2 .
La relación
3 * i + 4 x2

re p re se n ta una familia de rectas paralelas, de pendiente m = llamadas rectas de

isobeneficio.
De éstas, interesa aquella cuya intersección con S sea no vacia y cuya distancia al origen,

es decir,— , sea máxima. Esto es, hay que determinar la recta de la familia de mayor k y de

intersección no vacía con S.

www.FreeLibros.com
350
CONVEXIDAD. PROGRAMACION LINEAL

En la figura se ha representado la recta de la familia que Dasa n n r .1 •


ecuación es 3 que pasa P0r el °«gcn y CUya

3*, +4*2 =0
origDee„SP,aZand° °Sta reC,a “ 18 direcci0n dcl vector “ >"■»> 31 + 4 J cace la distancia a,

b e n e L r ^ r i " : ; : er: r „ dee al p u n to a o o ° - 5 o o )- p » -* « » ^ ^ *. y „

má x f x 2) ~ 3 . 1000 +4 •500 = 5000

u n id a d e s’del p ro d u cto ^ T ^ r i n T d a d e s ^ ? V ^ C u T P1'° duci


cnd° 1-000

Con relación al problema expuesto, utilizando notación matrícial, se tiene

20 I
/
AM 10 * = »= Í 2 O.OOO ) c =
6.000
1. Condiciones de vínculo:

AX< B
2. Condiciones de no negatividad:

X>0
3. Función objetivo (a optimizar):

/(X)-Cfx

Ejemplo 10-5

Desarrollamos el siguiente problema expuesto por Tucker en el Se,»- ■ ,


Royaumont, cuyo enunciado figura en la publicación número 26 escrita 2 7 r
LU» A. Santaló, de la colección La Escuela en el T i e m p o S c S ^ a 9^ ”
U n chacarero tiene a su disposición 100 hectáreas de tierra i f.a a - i' [
cultivarlo y 1 , 0 0 pesos para invertir. Desea s e l r a r dÓfcu, ’titos
requiere un día-hombre por hectárea y produce un beneficio de 40 pesos ñor lie * **

www.FreeLibros.com
PROGRAMACION LINEAL 351

Cultivos
Ci c, Disponibilidades
R e c u r s o s ^ ''\.

Hectáreas 1 1 100
Días-hombre 1 4 160
Inversión por ha. 40 20 1.100
Benefìcio 40 120

Si x j y x 2 son las hectáreas que deben destinarse a los cultivos Ci y C2 , el problema


consiste en maximizar la función objetivo
4 0 * ! '+ 1 2 0 x 2
sujeta a las restricciones
*1 + * 2 < 100
*1 + 4*2 ^ 160
10x i + 2 0 x 2 < 1 . 1 0 0
>0
x2 > 0
En el gráfico siguiente están representados el conjunto S de soluciones posibles, y el
punto de coordenadas (60, 25) que optimiza la función objetivo:

www.FreeLibros.com
352 CONVEXIDAD. PROGRAMACION LINEAL

El m áximo beneficio se obtiene sembrando 6 0 hectáreas del cultivo 1 y 25 hectá


del cultivo 2, o sea, dejando 15 hectáreas sin cultivar. eas

10.8.2. Problem a general de Program ación lineal

Un problema de programación lineal puede expresarse de la siguiente manera:

minimizar / ( X ) = C ' X = | ct X , (función objetivo)


sujeta a las restricciones:

AX< B (condiciones de vínculo)

X> 0 (condiciones de no negatividad)


donde X e R " x l , A e R m x", B e

Definición

Solución posible o factible de un problema de programación lineal es todo vector de


K que satisfaga las restricciones. r de
El conjunto S, de las soluciones posibles es c o n v e n a
semiespacios cerrados. Si alguna condición de víncnln p ^ ^ intersecció« de
interviene un hiperplano, que es convexo y cerrado. eCUaC10n’ en tal intersección

Definición

" “ na S° 1UdÓn P° SÍble en este caso) ,a

Propiedad

tiene p u n to s interiores al conjunto d f s d u c to n e s p ^ iM e s 0 ^ 1™ ’ en ‘° nCeS “ hiperP Iano n°

t - í * “ ° 31 m ínim o de ia * “ * ■
S de soluciones posibles. 0 ’ que es intenor al conjunto
Por definición de pun to interior, existe e > 0, tal que

S (P0 , e) C S
El p u n to


Pi=P0 -
3 II CU

pertenece a S, y a que es un elem ento de la esfera abierta de ce n tro P0 y radio e, pues

r f ( P a ,P ,) = IIP, - P 0 II=-1
3

www.FreeLibros.com
SOLUCIONES OPTIMAS Y PUNTOS EXTREMOS 353

El vector Pi verifica, además


pfp_/-iíp ^ C C _ T_ e l l e II , ,
c P‘ ~ c P # ' 7 i d ‘ ^ ~ a
lo que es contradictorio con la hipótesis de que la función objetivo alcanza el mínimo en P0.
En consecuencia, podemos afirmar que un hiperplano correspondiente a una solución
óptima es un hiperplano soportante de S en el punto de solución óptima.

10.8.3. Soluciones óptim as y puntos extremos

propiedad

La función objetivo tom a el valor óptimo en un punto extremo del conjunto de


soluciones posibles. Si tom a dicho valor en más de un punto extremo, entonces lo toma en
toda combinación convexa de tales puntos.
Consideremos un problema genérico de Programación Lineal, consistente en maximizar la
función objetivo
/( X ) = C* X
sujeta a un número finito de restricciones del tipo habitual. Entonces S admite un número
finito de puntos extremos, y se identifica con el poliedro convexo generado por ellos. Es
decir, S es el casco convexo de sus puntos extremos, y por consiguiente toda solución posible
puede expresarse como combinación convexa de los mismos.
Sean P i , P 2 , • . Pfc los puntos extremos, y sea P0 un punto de solución óptima, es decir,
que maximiza la función objetivo.
Se verifica que
P e S = > / ( P ) < / ( P 0)

Debemos probar que existe un punto extremo, en el q u e /t o m a el v a lo r/(P 0). Como


P0 e S, s e tiene
k k
P0 = 2 oc, P; con 0 < oc¡ a 2 a¡ = 1
u 1=1 * 1 ' «=i
La función
/ : RH R
definida por
/ ( X ) = Cí X
es una trasformación lineal, y en consecuencia

/ ( P 0)= = £ « í / ( P í) (0
i=i
Consideremos
/( P * ) = máx j / ( P ¡ ) /i ~ 1>2........ * )
i

www.FreeLibros.com
354 CONVEXIDAD. PROGRAMACION LINEAL

Como P* es un punto extrem o de S, y / tom a el m áximo en P0, es

/ ( P * ) < /( P 0) (2)
Por definición de máximo se tiene

/( P * ) > /( P ,) V/ = 1, 2 ,. . £
Entonces

O f/(P * )> a //(P i) i =i , 2 , . . . , A


Realizando la sumatoria respecto de i, es

x l <xi n n > ¡§ 1 <xi f ( p i)


O sea

/ ( P * ) . 2 a, a , f ( P,)
k
Como^S <Xi = 1 , resulta

/ ■ ( ? * ) > 2 a,/-(Pj) (3)


De ( I ) y (3) se deduce

/(P * )> /(P „ )


De esta relación y de (2), por la antisim etría, se verifica que

/(P o ) = /( P * )

m á S n a CÍr’ PüM° eX tK ™ ’ e‘ CUai Ia función obj eti™ el valor

P, qUe / 41031123 d ÓPtÍm0 “ d ° S PUnt0S extremos y sean éstos

/(P í)= /(P y ) = M


Consideremos una combinación convexa

P=íP,-+U / ) P,
Como

/ ( P t = f / ( P ;-j + (l —r j / ( P ¿ )- / M + ( l /) M = M

de p j y p “ bad° qUe d Va'° r Óp,im° “ alCanZad° en e' PU'ltU


P' 4Ue eS combÍMC’° " c°nvexa

10.8.4. Observación

Sabemos, por 10.6.2., que todo conjunto convexo, cerrado y acotado por debajo tiene
puntos extremos en cada hiperplano soportante. El conjunto de soluciones posibles de un

www.FreeLibros.com
SOLUCIONES OPTIMAS Y PUNTOS EXTREMOS 355

problema de Programación Lineal es convexo, cerrado y acotado por debajo por el vector
nulo ya que X > 0. El teorema anterior asegura que si existe óptimo de la función objetivo,
tal valor es alcanzado al menos en u n punto extremo. En R ", S tiene un número finito de
puntos extremos. . .
El problema se reduce entonces a examinar el valor de la función objetivo en los puntos
extremos a fin de hallar el óptimo. El m étodo Simplex permite determinar analíticamente
los puntos extremos y pasar de uno a otro analizando el valor d e /, hasta obtener el óptimo.

www.FreeLibros.com
TRABAJO PRACTICO X

m S e a A ^ J ^ . ^ e R ' / U i K i A ^ K ! ) y j (2 , i ) |

Determinar la frontera y el derivado de A.


¡0-7. Dados los siguientes subconjuntos de R2

A= \(xi,xi)l2 x\ +3*1 < 6 í


B = \ ( x l t x 2) ¡ x 1 > 1 a x 2 < 2 Í

C ~ j ( x l f X2) / X i X 2 ^ 2 A X ¡ ^ 0 Ax2 ^ l }
clasificar los puntos del plano respecto de ellos, determinar sus fronteras y derivados e
investigar si son abiertos o cerrados.

10'8' a b “ qUC Un C° njUnt0 A C R " “ Cerrad° SÍ y SÓ1° Si su «»nphm entario es

10-9. Demostrar que un hiperplano es un conjunto cerrado.


10-10. Investigar si los conjuntos de los ejercicios 10-6 y 10-7 son convexos o no.
10-11. Demostrar que la unión de una familia numerable de abiertos es un conjunto abierto.
10-12 . Demostrar que la intersección de una familia finita de abiertos es un conjunto abierto.
10-13. Demostrar que la intersección de una familia numerable de cerrados es un conjunto
cerrado, y que la unión de una familia finita de cerrados es un conjunto cerrado.
10-14. Determinar el casco convexo generado por los puntos (1, 2) (1 _ n ( l i w , n
( - 1 , 2 ) , (2, 3), ( - 1 , - 1), (1 ,0 ). Investigar si (0, 0) es combinación convexa (1, - 1 ) y

10-15. Sea/ : R " -*• R" la traslación definida p o r / ( x ) = x+ a, donde a e R"


Demostrar que

S es convexo =>f (S) es convexo

Demostrar que el conjunto solución del sistema lineal A X = B, donde A e R “


o eK yXeR , es convexo. ’
10-17. Sea O C R " . Por definición

C es un cono ^ x e C ^ a x e C A a > 0

www.FreeLibros.com
TRABAJO PRACTICO X 357

Demostrar que si A C R*1, entonces el conjunto


C = i a x /a > 0 a xeA )
es un cono. C recibe el nombre de cono generado por A.
¡048. Determinar el cono C C R3 generado por la intersección de
A l = {( x i , x 2, x 3) l x 21 + x ¡ < 2 ¡

y el plano de ecuación x 3 = 2 .
1049. Sabiendo que C es un cono, demostrar que
C = j -x / x e C |

es un cono. C‘ recibe el nombre de cono opuesto de C.

10-20. Demostrar que si C es un cono, entonces

C1 = j y / { y , x> = 0 , V x e C j

es un cono. Cx se llama cono ortogonal a C.


10-21. Demostrar que el cono ortogonal al cono C C R" es un subespacio de R».

10-22. Sean los conos Cj y C2 . Demostrar que


C = c 1 + C 2 = |x + y / x e C 1 a yeC2|

es un cono.
10-23. Plantear el siguiente problema de programación lineal: * Ao
Un mezclador de licores importa licores de tres grados: A, B y C. Mediante mezclas de
éstos, ateniéndose a las indicaciones especificadas en la tabla siguiente, obtiene tres
productos finales: L, M y N.

Mezcla Especificación Precio de venta


por litro

L No menos del 60 % de A 68 $
No más del 20 % de C
M No más del 60 % de C 57$
No menos del 15 % de A

N No más del 50 % de C 45 $

Las disponibilidades de los tres licores básicos y sus costos son

www.FreeLibros.com
358
CONVEXIDAD. PROGRAMACION LINEAL

Licor
Disponibilidad máxima Costo por litro
mensual en litros
A
6.000
B 63 $
7.500 45 $
C
3.600
36$

“ r i " ; : : . saber cutoo debe produdr de ,os L, M y N> a & de m a x i.

^^ ^ s i^ ie m e s ^ p e d id o s /3^1^ 31 ^ Pr° dUCe r0,1° S “ e 82 « * ancho. Se han recibido ios

60 rollos de 58 cm
85 rollos de 26 cm
85 rollos de 24 cm
50 rollos de 23 cm

y t S i z ? ; dt p e 3rdfciC
oÓm0 C° rta r 108 r° I,0S de 82 a <>•-tisfa c e r ios pedidos

www.FreeLibros.com
W"

BIBLIOGRAFÍA

Bouteloup, J.: Cálculo de Matrices, EUDEBA, Buenos Aires, 1965.


C otlar-S adosky: Introducción al Algebra, EUDEBA, Buenos Aires, 1962.
pieudonné J.: Fundamentos de Análisis Moderno. Editorial Reverté S.A., Barcelona, 1966.
Faddeeva, N. A.: Métodos de Cálculo de Algebra Lineal, Editorial Paraninfo, Madrid, 1967.
F aure-K aufm an-D enis: Matemática Moderna. Editorial Paraninfo, Barcelona, 1966.

Gass S.: Programación Lineal. Editorial CECSA, México, 1961.


Gentile E. R.: Espacios Vectoriales. C.E.D.Q., Buenos Aires, 1965.
Graybill, F. A.: A n Introduction to Lineal Statistical Models. Mac Graw-Hill, New York,
1961. ■
Hadley, G.: Linear Algebra. Addison-Wesley Publishing Company, Inc., 1967.
Johnson R.: Algebra Lineal. CECSA, México, 1969.
Lang S.: Linear Algebra. Addison-Wesley Publishing Company Inc., 1967.
Lentin-Rivaud: Lecons d ’A lgebra Moderne. Libraire Vuibert, Paris, 1961.
Lipschutz, S.: Teoría y Problemas de Algebra Lineal. Serie de Compendios Schaum,
Colombia, 1963.
Lipschutz, S.: Theory and Problems o f Finite Mathematics. Schaum, New York, 1966.
Marcus-Minc: Introducción al Algebra Lineal. CECSA, México, 1969.
Pettofrezzo A. J.: Matrices and Transformations. Prentice-Hall, Inc., New Yersey, 1966.
Rao C. R.: Linear Satistical Inference and its Applications. John Wesley and Sons, Inc., New
York, 1968.
Rojo A.: Algebra I. Editorial El Ateneo, Buenos Aires, 1972.
Rudin W.: P r in c ip le s o f Mathematical Analysis. Mac Graw-Hill Book, 1963.

www.FreeLibros.com
360
B IB L IO G R A F IA

Simmons G. F ;: m tro a u cn o n to Topology a ndM odem Analy^ Mac ^ ^ ^ ^

TUm o ^ Vi“ ;, L L L T 19I “ “ * /flS « h & **«**


Villamayor O..- N otes de Geometría /, Buenos Aires, 1966
Villamayor O , Algebra Lineal. Monografía Científica Número 5, O.E.A.

www.FreeLibros.com
T«r

RESPUESTAS A LOS TRABAJOS PRACTICOS

TRABAJO PRACTICO I

j - i 6. i ) si i i ) sí iii) no iv)no.
¡‘17. i ) sumar el opuesto de y.
i i ) sumar el opuesto de x.
iii) después de cancelar y de trasponer, aplicar A9 y 1.3.3.
iv) trasponer y aplicar A8 y 1.3.3.

1-18. Después de utilizar As y A9 , y de cancelar, mediante 1.3.3. se obtiene a = 1.


149. i ) sí i i ) sí iii) sí iv )sí v)sí vi) no.
¡■20. No, ya que no existe neutro para la suma en V.
1-21. Sí. El lector debe probar que se verifican los axiomas.
¡•22. i ) sí
i i ) no, pues (1, 1, 2) e S y (1, - 1 , 3) e S pero la suma (2, 0, 5) £ S
iii) no, porque S no es cerrado para la suma.

1-23. i ) no, pues no se verifica A6


ii) sí. Verificar las condiciones suficientes.

1-24. Aplicar 1.8.2.


1-25. S no es subespacio de (C2 , + , C, .) pues no es cerrado para el producto por escalares.
Así, por ejemplo
( 1 + / , - 2 ) e S pero / ( l + / , - 2 ) t f S .
En cambio S es un subespacio de (C2 , + , R , .).
1-26. Ai y A6 se verifican por definición de cada ley de composición. Mostramos, a modo de
ejemplo, la validez de A2 :
{(x, y) + ( x \ y ') | + (x’\ y ” ) = (x + x’, y + y ’) +” ,(xy” ) =
= (x + x’ + x ” , y + y ’ + y ” ) - (x, y ) + (x* + x” , y’+ y” ) =
= ( x , y ) + l ( x \ y ’) + (x” , y ” ))

www.FreeLibros.com
RESPUESTAS A LOS TRABAJOS PRACTICOS
1-27. A p licar 1.8.2.

« A i ) (* , ) e S - + , )2

S e. el conjunto unión de los dos ejes, o sea, no es un subespacio


U) T es el subespacio definido por la ecuación * - 3, = 0.

1-29. i ) „ 0 , ya que no es cerrado para la suma; por ejemplo

( l , 0 e S y ( í , l ) e S pero (1 + ¡t 1 + A / s
i i ) sí
iii) si
iv) si. s= j (a, a + bí) j a e R a b eR i
v ) sí
Vi) sí.

1-30 Teñe, en cuenta las definiciones de suma de subespac.os y de inclusión


1-31. Suponer que x e S admite dos descomposiciones del üp L = x x v
y tener en cuenta la definición de suma directa.
1-32. I o, Aplicar 1.8.2.

2 . Tener en cuenta el ejemnlo 4-5 iV í or «i ,


suma de una m atriz simétrica y de una^ntisim étrica^3 m ,t*

www.FreeLibros.com
TRABAJO PRACTICO II

2-25. i ) se determinan a y b tales que


a ( v S ,2 ) + 6 ( - V 6 ,2 ) = (V 2,l)
Aplicando las leyes de composición habituales se resuelve, después de igualar
componentes, un sistema lineal de dos ecuaciones respecto de a y b.
ii) procediendo análogamente, el sistema resultante carece de soluciones y en
consecuencia v no es combinación lineal de Vi y v2 .
2-26. Considerar la relación lineal
a x ( - 1 , 3, 1) + a 2 (3, - 1 , 1) + a 3 (4, 0, 2) - (0 ,0 , 0)
y después de aplicar las leyes de composición usuales y de igualar las componentes de
las ternas se llega a un sistema lineal cuyas infinitas soluciones están dadas por
o^i = k , 0=2 = 3 k , a 3 = —2 k
En la segunda parte, a partir de
(4, 0, 2) = o¿ ( - 1 , 3, 1) + 0 (3, —1, 1)
1 3
se llega a un sistema lineal cuya solución es a = — , 0 = —. Luego
2 2

(4, 0 , 2 ) = ~ ( - l , 3 , l ) + | ( 3 , - l , 1)

2-27. Considerar a A + 0 B = N. Resulta a = (3 = 0,


2-28. En (R , + , R , .) son L.D., pero en (R , + , Q, .) son L.I.
2-29. x = l .
2-30. Considerar
<* ( 1 , a , a 2 ) + I K M , &2 ) + 7 0 , c , c 2 ) = ( 0 , 0 , 0 )

En -el sistema resultante, restar a cada ecuación la anterior multiplicada por a, y


después, a la tercera restar la segunda multiplicada por b.
2-31. A partir de la relación lineal
a f + 0 g + 7 h=e

www.FreeLibros.com
364 RESPUESTAS A LOS TRABAJOS PRACTICOS

^ al S! 2C“nS¡dera ]a de cualquier f e R; derivando

2-32. Se plantea una combinación lineal cuyo resultado i t ■>


ejercicio anterior, que se verifica para todo í e R Drndo f*ncion ™la. com° <* el
ejemplo 1 y 2 , se llega a un sistema con la solucion un” a a 4 ^ = 1
2-33. Considerar a (a, b ) + 0 (c, d ) = (0, 0).
2-34. Son L.I. en ambos espacios.
2-35. i ) son L.I.

ü) son L.I. si ab * 1, y son L.D. si ab = 1.

2-36. Aplicar la definición de independencia lineal.


2-37. Considerar la relación lineal

a i xi + - - . + a n x „ + ^ u = 0
y probar que 0 0.

2-38. A partir d e a , x , + . + <* x ,


x seria C.L. de los vectores de^í. Te* er"en cuenta^desp^és la "hipótesis ^ °aS° contrar*°

™ r : “ n se puede hacer por inducci6n c°mpkta ° ^ ■>

2-41. i ) cualquier núm ero real no nulo 3 3


i i ) la base canónica
iii) la base canónica
ív) ! i +i i
y ) í i + i, i -/ ¡ .

2-42. El subespacio pedido es el plano de ecuación * - y _ , = n


1 0 , l .o ) , ( 1, 0 , 1) ) . y a q u e °> y u™ base del mismo es

( x . y . z ) e S * ( y + z , y , z ) e S ~ ( y , : ,< o) + ( 2 ¡ o , z ) e S ~

2-43 y 1 ’ 1 ’ 0) + Z0 ’ ° ’0 e s - 0 sea" los dos vectores son un S.G. de S, y además L I

* * r " ' “ - * ™ b“ * — - . - .i.» ™

2-44. Una base es //* ®\ ® M ® ®\ I


¡ \0 -~l)’ \o 0 / ’ \l 0/ ’ la dim ensión es 3.
2-45. Una base de S es f (2, 1) , (2 4 0 ¡ , y la dimensión es 2.
2-46. S no es un subespacio ya que no es cerrado para la suma.

www.FreeLibros.com
TRABAJO PRACTICO II 365

¡47 . Está propuesto en 1-2S, y la respuesta es afirmativa si el cuerpo es R. Una base es


11 + í, —2í ) .

248. S es el plano de ecuación = 0. Una base de S está formada por los vectores (1 0 01 v
(0, 0, 1). T puede ser el plano de ecuación z = 0. ’ ’
¡49. La dimensión de S, n S2 es 2; aplicando 2.8.1., y considerando gue
dim Si - dim S2 = 3, resulta dim (Si + S2) = 4.
2-50. Primero, demostrar
i > r =* vf es C . L . d e v i , v 2 ) . . . , v r .
Luego, probar que ( Vj, v2, . . vr | esun sistema de generadores de V.
2-5L Considerar dos bases: una en Si y otra en S2, y tener en cuenta el ejercicio 1-31

www.FreeLibros.com
TRABAJO PRACTICO III

3-21.1, sí. 2. no. 3. sí. 4. no.


3-22. l . s í . 2. no. 3. sí. 4. no.
3-23. Aplicar la definición de T.L. a / ( x + y).

^ Pr° bar !a sta e tn a del p,ano

3-2S. Expresar los veetores (3, 3) y (0, - 1 ) com o C.L. de (1, 2) y de (2,1). Apliear deSp„é¡
la definición de T.L. R e s u lta /(3 , 3) = ( -1 , 2, 1) y /(O , - 1) = J

3-26. Considerar F (v + v’) y F (a v).


3-27. Se obtiene el paralelogramo de vértices (1 ,1 ), (0, 3), ( - 1 2) y (0 0)
S-28. Sí. ’
3-29. 1. Aplicar la definición de T.L.

2 . / e s inyectiva, pero no so b rey ectiv a^cs sobreycctiv a. pero no inyectiva.


3 -( S ° f ) ( a , b ) = (2a + b, b) y (/•-g ) {a, b) (a + b, a + b + c, c).

3-30. Aplicar la definición de imagen, el hecho de que / v. v2 v J es S c rf* v i


definición de T.L. 1 2 ’ *‘ ” " ' de V’ y la
3-31. f es trasformación lineal biyectiva.

3-32. Aplicar la definición de T.L. El único vector cuya imagen es la matriz nula, es (0, 0).
3-33. Considerar 1.8.2., la definición de preimagen y de T.L.
* « . l . N ( 0 = í ( < U , - * ) / * e R j . Una base de N (f) es ¡ ( 0 , 1 , - ! ) ) y su dimensión el
!■ I,(f) es R2 .

*
1 ( 2 k '¿ k) 1 k S ^ 1 ' ^ b3Se ^
If) ~ R> y su dimensión es 1.
N W 65 ( (2 - 'M • y ^ dimensión es 1.

3-35. n = 3. Se define / ; R4 R 3 mediante

f { X\ , X2, X 3, XA) ^ { Xl + ^ 2 , ^! - X 4, X2 + x 3 +X4),

www.FreeLibros.com
TRABAJO PRACTICO III
367

probar que f e s T.L.

N ( / ) = í (* > -* , 0 , * ) / * e R | .
Una base es { ( 1 , - 1 , 0 , 1 ) } y d i m N ( / ) =L

3-36. l . A = ■2 . / ( —2, 2, - 2 ) =

1 0
3. B =
0 1

3-37. 1. N (f) - ¡ (0 ,0 ) ) ; dim N (f) = 0 . 1 (f) = { (x, y , z) / 3 x - y - 2z = 0 j ; una base de la


imagen está formada por los vectores (1, 3, 0) y (0, - 2 , 1); su dimensión es 2.
3 2\
1
2. A = 1

2
\ 3 1
3-38. Multiplicando A por el vector colum na de componentes genéricas x lt x 2 y * 3, se
deduce que f ( x u x 2, x 3) = ( x 1 + x 2 - x 3, 3 x , - 3 x 2 - 3 x 3 , - ^ ! + 4 x 2 + 2 x 3).
N (f) - { (k, 0, k) / k e R f ; N (f) es la bisectriz del plano xz ; su dimensión es l . l ( f )
es el plano de ecuación x - y — z = 0, y su dimensión es 2.
1 1 0 - 1 1 0 0 0 1
3-39. La matriz es la traspuesta de
0 0 0 0 0 1 0 1 -1

- 0 0 -i \

3-40. 1. A = 0

-3
-1 3
2. La imagen de la matriz es el vector 0 ) expresado en términos de la
2 2
10

base dada.

3-41. f ( x l f x 2( * 3 ) = ( - - * ! + - x 2 + ~ x 3 i - - Xl + - x 2 + 2 x 3).
** L ¿é ¿0 ¿,

www.FreeLibros.com
368 RESPUESTAS A L
OS TRABAJOS PRACTICOS

1 0
3-42. A
J_
\ 2 2 /
3-43. Hallar las imágenes de los vectores de la base canónica de R 2 ; se obtiene
eos 6 -se n
sen 9 eos

3-44 Considerar que la m atriz de la composición de dos trasformaciones lineales es el


producto de las correspondientes matrices. En el segundo caso, comprobar qUe
fe 0 f-Q = f-e ° f e = i, donde ¿denota la función identidad.
3-45. Probar que ( f u f 2, . . . , f n J e s un sistema de generadores de V considerando

cualquier elemento ^ e V y definiendo a¡ - g (i>,); resulta entoncesg - Xa¡f¡. Probar

después la independencia lineal a partir de la relación lineal = e donde e denota

la función nula; obteniendo la imagen de cada se prueba que a, = 0, para todo


*” 1> 2 , . . n. Ambos espacios, V y su dual, tienen la misma dimensión.
3-46. 1. Probar que se cumple la definición de trasformación lineal, y tener en cuenta el
ejercicio 1-31.
2. Utilizar la definición de composición de funciones.

3. Aplicar las definiciones de suma de funciones y de proyecciones; I denota la función


identidad en V.

www.FreeLibros.com
TRABAJO PRACTICO IV

el
ue ^ “ I 5— 2- U

do

)ar

>ta , - .
4 2 4 A 2 = | 0 i o ) ;ABC = f 0 I ¡B 'A ^ 1 0 -1
1 0 1
do
ii) A 2 - AB + BA - B
el

2\ ,4 _ / 5 3

4-29. Considerar, por ejemplo, que A, B y C son de los tipos nx p, p x q y qx m,


respectivamente; expresar la fila i de A, y la colum na/ de BC, para formar el elemento
(i, j) de A (BC). Proceder análogamente con el segundo miembro.
4-30. Demostrar que la propiedad se cumple para n = 1, y que si se verifica para n = h,
entonces se verifica para n = h + 1.
4-31. Demostrarlo por inducción completa, como el ejercicio anterior.
4-32. X - 1.
4-33. Demostrar por inducción sobre k.
4-34. Considerar X = X I.
4-35. Plantear el sistema de ecuaciones no lineales.
4-36. Aplicar la definición de producto de matrices y la conmutatividad del producto en K.
4-37. Utilizar la definición de trasposición y de producto de matrices.
4-38. Partir de (A B)2 .

www.FreeLibros.com
370 RESPUESTAS A LOS TRABAJOS PRACTICOS
n n
4-39. Q = X a i k aki = ^ a ^ k =>a[k = 0 , V k. Análogamente se prueba que la columna de
lugar i es el vector nulo.
4-40. Efectuar (B f A B)2„
4-41. Premultiplicar A + B = I por A, y posmultiplicar por B.
4-42. Como en el ejercicio anterior.

4-43. Determinar el cuadrado de cada una de las cuatro matrices y aplicar las hipótesi-i,
propiedades de la trasposición. ^
4-44. Verificar que se cumple la definición de matriz simétrica.
4-45. Para la condición necesaria, considerar A B = ( A B ) ' . Para la condición suficiente
partir de (A B ) \ me>
4-46. Desarrollar el producto indicado.

4-47. Desarrollar (A - a 1) (B - a I) y utilizar la hipótesis de que A y B son pemiutables


cancelar"011 suriclente> consid« a r que A - al y B - al son permutables; después

4-48. Las filas de AB son iguales entre sí, y cada elemento es igual a la suma de los
elementos de la correspondiente columna.
4-49. Tener en cuenta las propiedades relativas a la inversa de un producto y a la traspuesta
de un producto.

4-50. Se considera la matriz diagonal B cuyos elementos diagonales son los inversos de los
correspondientes de A ,y se verifica que A B = B A = I.
4 '5 l, Considerar A2 = A y multiplicar p o r A"1.
4-52. Probar que se verifican los cuatro axiomas de grupo.
4-53. Utilizando el mismo esquema de partición en ambas matrices, en bloques de dos filas y
dos columnas, se obtiene
0 0 4 1
0 0 2 0
0 1 0 0
.2 2 0 0,
4-54. Las dos primeras filas constituyen una base del espacio fila de A.
4-55. Multiplicar a derecha B A = N por la inversa de A.
4-56. Premultiplicar por la inversa de A.
4-57. Tener en cuenta que hay que probar la verdad de una disyunción.
4 -5 8 .p { A) = 2 ;p (B ) = 3.

/2 2 1
4-59. La inversa de A no existe. B '1 = [ 1 2 1
1 1 1

www.FreeLibros.com
TRABAJO PRACTICO IV 371

4 0 Determinar los rangos de A y de AA* por Gauss Jordán.


D em ostrar primero que Sc (A + B) C Sc (A) + Sc (B). Al pasar a la relación entre sus
dimensiones, tener en cuenta 2 .8 . 1 .
462 i ) considerar el elemento genérico de la diagonal de AB y de la diagonal de BA.
Ü) asociar y aplicar i).
iii) aplicar ii).

443 Premultiplicar por A la relación A X = a X, y tener en cuenta que A 2 = A.


4-64. Realizar la misma multiplicación que en el ejercicio anterior y considerar que A2 = I.
4-65. i ) Expresar X como producto de matrices, calcular su cuadrado y tener en cuenta que
T donde T es la m atriz n x 1 formada por unos, es un escalar, y por lo tanto igual a
su traspuesta.
Resulta A = — 1 1 f . o sea, una matriz n x m cuyos elementos son iguales a —
n2 n2
1 -*t
i i ) Se obtiene A = — 1 1 .
n

iii) Después de desarrollar la sumatoria y reducir términos, se llega a que

A = í — - 7 1 *. El lector puede comprobar que esta matriz es idempotente.


n

4-66. Efectuar el producto entre I - T y la suma indicada. Considerar que T" = N.


4-67. Particionar A en dos bloques del tipo 4 X 2, y efectuar el producto.
4-68. Trasponiendo términos se prueba que A admite inversa.
4-69. Por Gauss Jordán se obtiene

1 p p 2 P3
0 p p2
0 0 1 p
0 0 0 1 1

4-70. Para la condición necesaria, efectuar los productos AB y BA, e igualarlos para obtener
a y ($. Para la condición suficiente, efectuar ambos productos sustituyendo B por su
1 expresión.
J 4-71. Aplicar inducción completa.

S /1 1 -1
; 4*72. i ) A = ! 1 -1 0
\0 1 1

www.FreeLibros.com
RESPUESTAS A LOS TRABAJOS PRACTICOS

www.FreeLibros.com
TRABAJO PRACTICO V

$.12. D (A) = - 2 0 . D (B) = 10. D (C) = -1 3 5 . D (E) = 57.


$.¡3. Desarrollar por los elementos de la primera columna.
$.14. Considerar que la fila h, con h # / , es el producto del escalar Á por la fila i.
5-15. i ) ~ ^2 ~ 0, X3 = 5
ii)* i = 0 >*2 = 2 , x 3 = - 3 .

5-16, \ - 1 >^2 = 10-

5-17. \ - 1, \ ~ —•

5-18. Tener en cuenta la definición de matriz ortogonal y 5.7.


5-19. Considerar 5.8.3.
5-20. Tener en cuenta el ejemplo 5-7.
5-21. Desarrollar el determ inante y? y derivar.
5-22. Expresar los vectores canónicos E i , E 2, . . En de K"x 1, como combinaciones lineales
de A i , A2 , . .., A „ , y aplicar los axiomas de la función determinante.
5-23. Aplicar 5.5.1. y 5.5.3.
5-24. Considerar una relación lineal que sea igual a la función nula, expresar la igualdad
obtenida para cualquier t y derivar « —1 veces. Resulta un sistema lineal y homogéneo
dando a t el valor 0. El determinante de los coeficientes es de Vandermonde.

$-26. En cada caso, examinar el valor del determ inante, y si es distinto de cero, aplicar 5.9.

www.FreeLibros.com
374 RESPUESTAS A L
OS TRABAJOS PRACTICOS

5-28, i ) Restar a cada una de las dos primeras columnas, la siguiente.


i i ) Sumar a la primera columna las restantes; factorear; a la cuarta fila sumarle ,
segunda y restarle las otras dos; sacar factor común; a la segunda columna sumarie '
tercera, y a esta, sumarle la cuarta. Desarrollar. le la
iii) A la cuarta columna sumarle la segunda y la tercera.

r i i u i l Z Z “ * SUmarle 13 SE8Unda y ^ terCera; faCt° rear; a 18

5-29. Agregar el vector de componentes 0 ,0 , 1, com o tercera fila y tercera columna


segundo determinante. El producto es - 1 8 . ^ m m n a del
5-30. El valor del determ inante es 4.
5-31. El jacobiano es p 2 eos 6.

5-32. El jacobiano es - — + ^
U
5-33. C o n sid e ra r(-l)" D (A), y multiplicar el escalar -1 por cada una de lasn columnas.

5-34, Multiplicar el determinante de la matriz particionada por 1 = I N


-B A -1 I
El lector puede verificar que P Q
IPIIRI.
N R

5-35. Multiplicar las dos matrices y verificar que se obtiene la identidad.


5-36. Proceder como en el ejercicio anterior.

www.FreeLibros.com
TRABAJO PRACTICO Vi

¿ ./i. La preimagen del vector (—1 ,1 ) es j ( —2 - k , 3 + 3k, k ) / k e R } .


6-14. El sistema 1. adm ítela solución única X \ = 5 , x 2 = l , x 3 = —4.
El sistema 2. tiene infinitas soluciones, dadas por x = 3 + 2fc, y ~ 1 — k ,z = k.
6-15. Las dimensiones de los espacios soluciones de los sistemas homogéneos, son,
respectivamente: 2 , 1 , 0 , 2, 0.
6- 16 . 1 . { ( 1 , 0 , 1 ) , ( 0 , 1 , 1 ) ) .

2. ( ( 1 , - 1 , 1 ) ) .
4. ( ( - 1 , 1 , 0 ) , ( - 1 , 0 , 1 ) ) .

6-17. 1. Una base de S es { ( —1 —/,/, 1) } y la dimensiónes 1.


1 2i) | y la dimensión es 1.
2. Una base de S es { (1, —3 + /, —1 —

; 6-18. Una base es { ( I , T , 1 ) J .


6-/9. Como p (A ) = 2, el sistema tiene solución única. El conjunto solución es
T= ((-1 ,-2 )) .
6-20. Tener en cuenta que X = A"1 B.
6-21. T - j k (2 ,3 ) / k e R ) .
6-22. El sistema tiene infinitas soluciones, dadas por
X i =oc
x 2 =(i
x 3= 1 - cí - 2{}
x 4 - —3 a —2 0 con a e R, (3 e R,

1 / S -10 o\
1 6-23. Posmultiplicar por la inversa de A. Se obtiene X = - — 4 — 4 —12 .
20\-l 6 s)

6-24. 1. p (A ) = p ( A’) = 2 < 5. El sistema tiene infinitas soluciones, dadas por

www.FreeLibros.com
376
RESPUESTAS A L
OS TRABAJOS PRACTICOS

*l = 2 ~ 3 a + 2 { 3 - y
x2 =a
x 3 =/3
X4 = y

xs - 8 - 5 a + 3 2 -y con a, 0, y e R .
2. Como p (A) = 3 y p (A’) = 4, el conjunto solución es vacío
3- P (A) = p (A-) = 3 < 5. Existen infinitas soluciones, del tipo

*1 = a + 0
x 2 =a
x3=0
x 4 =0
x s = 2ec + (3

6-25. El sistema es compatible porque p ( Á ) = o fA’l = 1 T™ i


soluciónson + * / 44 22 H \i \
* W
1 ). k e R .
' \ ^ ¿ /
6-26. Las raíces de la ecuación son: \ , = \ , = 1 A = _ i p -x _ i
soluciones son del tip o * , = - a x , = h v - \ 3Ai - A* - 1 las infinitas
p \ _ r 1 — (7,
ara A, - - 1 , se obtiene ^ = - 2 k , * 2 = 2k , x 3 = k.

k = o T * = 1°3.Vp a° raSestosA; ^ C° efidentes- Se obtií®


ambas situaciones. Para * = o el e s a d o í T “ “ " * 1 * * 1

6-28.

M '1 =

y ' ^ u c i r té n n in o s , se

Xl =

www.FreeLibros.com
TRABAJO PRACTICO VI 3??

0 0 . Trasponer ai segundo miembro los térm inos en z y aplicar el teorema de Cramer. Si los
tres determinantes son no nulos, puede escribirse
X y z
bt cx at Ci ax bx
b 2 c2 a2 c3 a2 b2

6-31. Proceder com o en 6-27. Para a distinto de 2 y de 3, se obtiene solución única. Para
a = 2 existen infinitas soluciones y para a = 3 no existe solución.
6-32. Para a # ± 1 existe solución única. Para a = 1 el conjunto solución es infinito y para
a = —1 el conjunto solución es vacío.
(>•33. Analizar qué relación vincula a a y a b para que exista solución única, ninguna solución
e infinitas soluciones.
(¡.34. Un sistema lineal y homogéneo es 74xj + 1 \ x 2 — 25* 3 = 0.
6-35. Analizar el determ inante de los coeficientes. La solución única es
b 2 + c 2 - a2 a2 + c z - b 2 a2 + b2 - c 2
x ~ ------------------ , y - ------------------ . z = ------------------
2 be 2 ac 2a b
6-36. La solución e s x x = l , x 2 = 2 , x 3 = 3 .

www.FreeLibros.com
TRABAJO PRACTICO VII

7-25. Se verifican los tres primeros axiomas de la definición, pero no el cuarto.


El vector de com ponentes - ¿ y i es no nulo, pero <X, X > < 0.

7-26. No se verifica el axioma de simetría.

7' 27- 1 “ : ;: i “ definición de orto8onaiidad y ~ ^

7-28. Es el teorema del coseno; despejar x y considerar el producto interior <x , x >.
7-29. Para la condición necesaria proponer una combinación lineal de x e y que sea im.ai ,
vector nulo y considerar el producto interior entre dicha combinación H . J 1 „
misma. Suponer que ambos vectores son no nulos. y
Para probar la condición suficiente, siendo los dos v e c to ra nn n „ u
ellos como múltiplo escalar del otro, por ejemplo y = « x . C a s t o r li x y II ^ *
7-30. Partir de la desigualdad de Schwarz y elevar al cuadrado

*"• - “ “ * - C.L. que sea

o ) e7 (nx cuye)n = < r , x T i ? T ;i r í m á 6 n d ' v 2 - R **•


d(x,y) = ó í \ = y ( ) " ^ (X. * ) + < f f e y ) . ( 3 ) d ( x , y ) > 0 y

'7-33. Probar que / e s una trasformación lineal.

^ ^ t r n T c ^ l i ^ “ 108 aX¡0maS ^ Pr° dUCto ÍnteriOT> “ « « * > que / es una


7-35. Utilizar la definición de N.

736. L im an d o x e y a doB W o , del rombo que sean consecutivos, las dia gonales son

de rombo, o sea II x I = II y T Pr< y ten" “ CUenta la deflnició"


7-37. Demostrar 3 haciendo x y = z; despejar x y apUcar 7.5.

p á r o l i x / - V y l l ) . eSSUflCÍente demM tr“ ~ »V» « »x - yII y para esto,

www.FreeLibros.com
TRABAJO PRACTICO VII 379

Para probar 2., partir de llx + yll2 .


para demostrar 4., considerar II x 4- a y II2 .
7-38. Tener en cuenta la definición de subespacio generado por un conjunto de vectores
A = { X j, x 2 , . . x r } , y probar que el producto interior entre x y cualquier vector de
A es cero.
7.39. Considerar un vector en el complemento ortogonal de S.
1 740. Tener en cuenta 7.9.
741. 1• Considerar v = (x, y , z ) y resolver el sistema que se obtiene de las relaciones v 1 vt ,

v l v 2 y II vi

2 . Vi
(
3. y x = ( 1 , 0, 0), y 2 = (0, 1 ,0 ) y y 3 = ( 0 , 0 , 1 ) son los vectores de la base ortonormal
pedida.
742. Efectuar el producto interior entre v y v¿.
' 743. Considerar el producto interior entre v¡ y
7.44. Probar que el conjunto de todos los vectores ortogonales a A es un subespacio de V, y
tener en cuenta las definiciones correspondientes.
1 745. Expresar cada uno de los dos vectores como combinación linealde la base.
746. Desarrollar 0 < <a x + 0 y, a x + |3y>, hacer a =<y , y >y j3= - ( x, y >, y considerar
que < x, y > < x Ty > = K x , y > I2 .
747. 1. Pj X . P x P2 - 0; 2x - 2y + z - 5 = 0.
2. X = P0 + X A ; ~ = - — - = z + 3 .
2 —2
748. Es el paraboloide de ecuación x 2 + y 2 + 2z2 - 2x y - 6x - 6v - 4z + 1 = 0.
7-49. P ^ X . A = Q\ax + a y - 2a2 =0.

7-50. d ^ —L
y/H '

7 .v * . - y ~ 1 - z ~ 3

1 3 5
7-53. 2 ( x ~ y + 2)2 + ( z - y + 2)2 - 2.
7-54. 18 x 2 + [ 3 ( z - 1) + 0 + l) ] 2 ~ 2 ( y + l )2

www.FreeLibros.com
380 RESPUESTAS AOS
L TRABAJOS PRACTICOS

[z = +^
p*=oc r - 2'
U =0
I Z = ±4 JL
- ^__
"
~ P y=o C 2
1^-0

7-5<í. 2* = ( 2 - ^ ) (2 —z).

7-57. X = M + X M í 2 ; z = ¿ > aretg—.


*
7-55. Desarrollar el producto hermitiano.
7-59. Efectuar el producto PP* = I.

7-60. Considerar el producto interior entre cualquier fila i, con i < n , y tener en cuenta de
acuerdo con el ejercicio anterior, que tal producto es 0.
7-61. Probar que la función F : V V definida por F (x) = /„ , donde / x (y) = <x y ) es un
isomorfismo. ’
n
7-62. Desarrollar E ( x , v¡ >v,-.

www.FreeLibros.com
TRABAJO PRACTICO VIII

8-14. 1. Xt = - 5 , X2 = 5 son los valores propios.

Vectores propios son X : = | *j , X2 =

2. N o existen en R.
8-15. 1. Valores propios: 2 y 3.

Vectores propios: y | j

2. No existen en R.

3. X1 = X2 =: 6, X3 = 11. Vectores propios asociados a 6 son

2\
X3 = 11, corresponde ( 0 j .

8-16. Suponer que existe algún valor propio nulo.


8-17. Considerar A X = X X y premultiplicar por la inversa de A y por el recíproco de X .
8-18. Probarlo por inducción.

8-19. Partir de S '1 A S Y.

8-20. 1. Para A, es X* = —1 + i, X2 = —1 —i. Los vectores propios asociados son ^ ^

1
1- i
2. Para B, los valores propios son —1, 1, i.
8-21. Considerar P (X )- X” + c n^ X”“1 + . . . + C i X - f c 0
P(X) = ( X - X 1) . . . ( X - \ l).

www.FreeLibros.com
RESPUESTAS A LOS TRABAJOS PRACTICOS

* '2Z X : í v l 0 eXPleSÍÓn “e P(X) = D (X 1 " A); t a e r “ d * " * * > « “ • * » ;dar a


8-23. Partir de A X = X X y premultiplicar por A.

Tenel' “ CUe'lta los t o o n n t a m t., de dos matrices aspuestas


tr son iguales
8-25. Los tres valores propios son iguales a 1 y a éste le corresponde un sistema h o rn o s
cuyo espacio solucion tiene dimensión 1. No es diagonalizable.
8-26. Considerar 8-18.

8-27. Sea T una m atriz triangular superior; considerar el valo r de D (X í - T)


8-28. Tener en cuenta 8-18 y la definición de matriz nilpotente.
8-29. 1. Aplicar 8.3.4.
2. Aplicar 8-18.

^ T u V m t iz T '-’r nces — p
ceros. Aplicar después 7. " a‘nZ r unos *
4. Aplicar la definición de traza.
5. Considerar 8-24.
6. Expresar los valores de tr AB y tr BA.
7. Asociar y aplicar 6.
8. Aplicar 7.

8-30. Hallar los valores y los vectores propios y ortono


rmalizar éstos. Se obtiene
/ 1 / 2
v r V5-
P2 =
2 1
y /s /
Considerar 8^5.3, II 0 sea, la existencia de unatrizma P no smgular, tal que
A P I . Aplicai determinantes y tener en cuenta.8-27
' 3l '
8-32. P (A)
1 6

8-33, Considerar P(A) - a¡ A' y tener en cuenta que Af = A.


8-34. Por ser A hermitiana, es A = (Á. Proceder como en 8-33.
8-35. Puede demostrarse por inducción sobrek.
8-36. Partir de (B'1
P A B) - .2 a¡ (B~J A B); y aplicar 8-35.

www.FreeLibros.com
TRABAJO PRACTICO VIII
383

W 7 . X - | i1 ”— CO
MPS ip

8-38. Y - ( 1 cos ^ ) . Respecto de los vectores Y, / representa una simetría.


\ “ sen / *
/ cos ¡p —sen kú \ * . . . .
S'39' P = \ - sen l - cos l ) y representa la °°™P<»>“ ° n de una rotación de áng ulo „ y
una sim etría axial.
8-40. Según 8.5.3. II, existe P n o singular tal que P 1 A P es triangular superior. Resulta
/( P " 1 A P ) triangular superior cuya diagonal está formada por / ( X j ) , .
Además f ( P 1 A P) = P"1 / ( A ) P es la forma triangular de /(A ).
8-41. Tener en cuenta 8.5.
8-42. Considerar (a I + A) X.
8-43. Relacionar con 8-16.

8-44. ¡ * ^ "j" *) n0 es diagonalizable.

- 0 0

La matriz 3 X 3 es diagonalizable y su forma diagonal es D = o l °

0 0 1
8-45. Los valores propios de A son 1 y 4. Los valores propios de P (A) son 0 y 15. La forma

diagonal de P (A ) es ( ^ ^
\0 15
8-46. De acuerdo con 8-7 existe P e C [X] no nulo, tal que P (A ) = N, donde A es la matriz
de / . Además, es
n
P (i) = 7T (í - X¡), donde X,- e C.

O sea

N =P(A )=¿(A -M )

3 ¿tal que A — X,-1 es singular, pues si no, P (A ) sería inversible. En consecuencia,


existe X ^ 0 tal que
(A - X í I ) X = 0
O sea
A X = XfX
Luego, existe un vector propio de /.

www.FreeLibros.com
TRABAJO PRACTICO IX

9-15 D esarrollar ( f + g) (ax + b x \ y ) , ( /+ „ ) ( x c v + ^ , A,


( « f ) ( x , c y + d y \ definiendo la suma de funciLneTv(“ /» (< « + 4x',y) y
fundones de aeuerdo con las leyes de composición punto a pumo“ ' 0 680313165 por
9-16. Desarrollar gy (x + x ’) y g r (ax).

9-17 - >
^ y ^ ^ y , ^ y 3 +X2y 1 - 2 X 2 y 3 + X 3 y 2 + X 3 ^

B = P( A P =
/ i 4 2
\ 2 3 17
donde P es la matriz de pasaje de la base dada a la base canónica
W* , ) « X) = * « X) = X 'A X = 3 I ! + ^ I^ 2^
ü )/ ( X ) = * ? - * 2 + , ¡ .
9-19.

A í f '=

1 1
\ «2 ti2
Ver 4-65, i).

9 -2 fti)A = -!-lI, í

ii) Desarrollar e, cuadrado, ^aplicar el operador sumatoria, tener en cuenta que


x , = » x = 1 X y que 2 X? = t f X . Se obtiene A = J __ - T í 1
Ambas matrices son idempotentes. ”

www.FreeLibros.com
TRABAJO PRACTICO IX
385

9-21. i ) Expresar en términos de g a / ( x + y) - / (x —y).


ii) Lo mismo respecto de / (x + y) —/ (x) —/ (y).

9-23. La función h : V2 K definida por h (x, y ) = ~ g (x, y) es una forma bilineal si


simétrica
y la forma cuadrática asociada es f.
9-24. Aplicar 9.7.1., desarrollando < /(x ),/(y )> y probando que es igual a <x, y >.
n n
9-25. A partir de S oc¡f (v¡-) = 0, considerar { X « i/( v /) ,/( v ;)
>= 0.

Se prueba que ocj^O para todo /, o sea, / ( v j ) , / ^ ) , ... J ( v n) son linealmente


independientes y en consecuencia constituyen una base de V que verifica
</(v,) ,/(vy) >= (y¡, Vy >= 5 ¡j, o sea, es ortonormal.

9-26. Tener en cuenta que P Pf = I y que Pf = P.


9-27. Considerar 9.7.5. y que U Q = P U.

U=

9-28. Sea A la matriz de / : C” -* C "; de acuerdo con el eje


rcicio 8-46, A admite un vector
propio, o sea existe X e C tal que A Z = X Z. Observar que X e R , según 9.6.3.
Considerar que Z = X + ?Y, donde X e Y pertenecen a R " y premultiplicar por A.

9-30. Xi = 1, X$ = 4 ; por 9.10.1. A es definida positiva. La matriz de vectores ortonormales


es
/ V2 VT '

www.FreeLibros.com
386
RESPUESTAS.A LOS TRABAJOS PRACTICOS

Siguiendo 9.10.2. se form a D , = ^ 0 j y resul(a

1
2 ^
“V3 V3
0 = PD, =
2 2
V6 V T/

9-31. La mat ri z o rto g o n al de vectores propios 1 —y/6


de A=
es
± /V 3 -V 2 ' - y /6 2
V ¡ \ y /2
La trasformación de coordenadas está dada por X = P Y, o sea

*1 - V 2y t )
1

9-32. Sea / ( X ) = X ' A X definida positiva y sea X = P V h


S (Y ) = Yf B Y y es ta l q u e B = P ' A P T a L / ' eS n ° Si” 8ular; e n to n c «
su fic ie n te p ro b a r q u e Y ' B Y= 0 =» Y = Ó. C o n s i d e r a ^ Y ^ V ^ X " ^ mÍSma ™ agen; es
9-33. Tener en cuenta el ejercicio 8-17 y 9 .1 3 2
9-34. i ) p ( A ) = 3; s = 3.
ii) p (A) *= l ; s = ].

9-35. Considerar 9.11, Se obtiene

/1 2 / 1
0 1 0
5 5 2
A=S \ Ai = 6 0 0 + 11 0
í—1 n 1 0 0
2 4
0 1
5 0
5 / 2~
9-36. i ) Considerar 9.11.
.
4 /

ii) Considerar el ejercicio 8-17.

9-37. A es no singular y A A* es simétrica. Según 9 10 2 A A f *> h r


ortogonal tal que Q* A A* Q = D = diae ( \ \ defimda positiva. Existe Q
Jos valores propios de A A f son positivo, Vy/ ’ V ** ÍT d® acuerd<Lcon 9.9.3., donde

www.FreeLibros.com
TRABAJO PRACTICO IX 387

9-38. Aplicando 9-37 se obtiene A S P, donde S —j | ^ jes simétrica definida

j_ V i
V3 \/T es ortogonal.
positiva y P =
V? J -
V3 V3
9 -ÍP. Probar que si / es definida positiva, existe una trasformación no singular X = T Y
donde T es triangular superior y D (T) = 1, que la reduce a la forma
í(Y)=YfD
g (Y) = Y ( D Y y l » donde a f > 0 , siendo D = ( T 1)* A T"1. En consecuencia,

D (D) = D (A) > 0.


Haciendo x„ = 0, f se convierte en una form a cuadrática respecto de n - lque sigue
siendo definida positiva; la correspondiente matriz se obtiene prescindiendo de la
última fila y de la última columna de A. Reiterar el procedimiento.
Para la suficiencia, utilizar el m étodo de Lagrange, que consiste en completar
cuadrados. Siendo a n > 0 , existe una trasformación no singular, triangular superior,
con determinante igual a 1, que la reduce a
m n

a l l z \ "*"f? 2_í=2^í;' Z ‘

Probar que b 22 > 0 , haciendo x J - z J = 0 para i = 2 , 3 , . . n, y reiterar el proce­


dimiento.
9-40. Por ser / definida positiva, según 9.12.4., existe una trasformación de coordenadas
n
X = P Y que la reduce a la forma 2 y i ■
1 i=i
Se tiene Pf A P = 1, o sea A = (P P*)-1 • La trasformación aplicada a g es tal que
X* B X = Y f (Pf B P) Y, donde P{ B P es simétrica. En consecuencia, existe una
trasformación ortogonal Y —Q Z que la reduce a una suma de cuadrados cuyos
coeficientes son los valores propios de P* B P.

X ‘ B X = Z( (P Q)( B (P Q) Z = 2 \ z\
n
Esta trasformación aplicada a Y( I Y la reduce a z? . La composición de las dos

trasformaciones: X = (P Q) Z, reduce ambas formas.


9-41. Demostrarlo por inducción sobre n = dim V.

www.FreeLibros.com
TRABAJO PRACTICO X

10-6. Frontera de A es el conjunto

I (x i, x 2) e R 2 / f j j j | = i A ¡ j ; 2 1< 2 j u ¡(i 2) i

vértices ( - 1, _ 2X (If _ 2)( (1 (

„ r ; : : ° • * *■ - — « • • « » & *

interiores. Puntos exteriores a A son los que satisfacen1 S™

El derivado de A es A; o sea, A es cerrado

* = P = s S = = H ......................... ...
Todos los puntos de acumulación de B pertenecen a n d
todos los elementos de B son puntos de acumulación d i b "“ ’ " Cerrad° ' AdemáS’

3 ' condiciones^0 6 3 SU L<* interiores de C satisfacen las

XI X2 < 2 y X l > o y X2 > 1


10-8. 1. Sea A cerrado. Considerar un p u n to a e A c 're.nl,
A. Luego, existe S (a, e) / s (a e) n A - a p ^ 3 ” 0 CS de acumulación de
tanto, A es abierto. ^ 1 >' E" con«*«encia, S (a, 6) C A ' y por lo

' a " £ lleg rru n aS! o T a d iqcciónXÍSte PU‘' t0 d° aCUmulaci


ó» * A que pertenece a

>0-9. Sean: el hiperp,ano „ de ecuación N ' X = *, a e , y Ia esfera abierta S (a e).


C o n sid e ra n d o b = a + - — *P wrifí

b i e n N‘ b > * , 2 "N" ^ i3’ 6) ’ P" Mb - « = f <«■ Ahora

www.FreeLibros.com
TRABAJO PRACTICO X 389

10-10. El conjunto del ejercicio 10-6 no es convexo. Los tres conjuntos de 10-7 son
convexos.
10*11. Probar primero que el conjunto vacío es abierto. Sea | A ¡¡ i e N } una familia
numerable de abiertos. Si esta familia es vacía, entonces A = U A ¡ es el conjunto vacío,
ie N
y en consecuencia es abierto. Si la familia no es vacía, cada abierto de la misma es una
unión de esferas abiertas. De este modo, A es la unión de tales esferas abiertas, y por lo
tanto es un conjunto abierto.
Se ha utilizado la siguiente propiedad: un subconjunto C C R" es abierto si y sólo si es
una unión de esferas abiertas.
10-12. Sea { A ¡ / i e In } una familia finita de abiertos. Si esta familia es vacía, entonces
n
A = O A; es el espacio total, que es abierto (probarlo). Supongamos ahora que la
i=i
familia es no vacía; si A es vacío, entonces es abie rto. Consideremos entonces que A es
no vacío y sea a e A.
Se tiene
a e A =►a e A¡, Vi => 3 ef / S (a, e¡) C Af, para cada i.
Sea e el m ínim o del conjunto { e x, e2 , . . . , en | . Entonces para cadai se verifica que
S (a, e) C S (a, e¡)
en consecuencia, para cada i es
S (a, e) C A¿
por lo tanto S (a, e) C A. Luego, A es abierto.
10-13. Aplicar 10-11, 10-12 y las leyes de De Morgan.
10-14. El casco convexo generado por los puntos dados, es el pentágono convexo de vértices
( - 1 , - 1 ) , ( - 1 , 2), (1 ,3 ), (2, 3), (1, - 1 ). Además, (0, 0) es combinación convexa de

( 1 , - 1 ) y ( - 1 , 1 ) , donde t = - ^ .

10-15. Aplicar la definición de convexidad y de la función dada.


10-16. Tener en cuenta que el conjunto solución del sistema es la intersección de n
hiperplanos de Rn , y que éstos son convexos.
10-17. Considerar que
y e C = * y = a x donde a > 0 , x e A.
Multiplicar por /3 > 0.
10-18. El cono generado por la intersección de los dos conjuntos está caracterizado por
4x2 + 4y 2- z 2<0
z> 0

10-19. Utilizar la definición de cono y de C".

www.FreeLibros.com
390 RESPUESTAS A LOS TRABAJOS PRACTICOS

10-20. Aplicar Ja definición de C1 y multiplicar por a > 0


10-21 utilizar la deflnic¡ón de CQno ortogonal y Ja cond ¡ción su& iente ^

conos 31 Un VeC‘° r 2 6 C ’ mUltÍP,ÍCar P » O- y ‘“ e re n cuenta que Cl y C_


2 son

/ M i . Sea X , ^ a n u d a d de litros de licor / que se destina a la mezcla/, donde / = i , 2,3


y

/
1 2 3
Disponibilidades
i N. Costo por
en litros litro
1 * 11 x 12 j f J3
6 .0 0 0 63
2
*21 * 22 * 23 7 .5 0 0 45
3 *31 *32 *33 3 .6 0 0 36
--------- -------------- 1
Precio
de venta 68 57 45
por litro

Objetivo: maximizar

F = 5 * n - & . 2 - l & 1 3 + 2 3 * 2, +12**2+32*3, + 2 1 ^ + 9 . ^


Sujeta a las restricciones:

* n + * 1 2 + * i 3 < 6 .0 0 0
*21 +*22 +*23 < 7 .5 0 0
*31 + * 32 + * 3 3 < 3 .6 0 0
*11 > 0 . 6 ( x n + x 2i + * 3 1 )

*31 < 0 .2 (* jj + x 21 + x 3 l )

*32 < 0 . 6 ( x 12 + ^ 22 + ^ 23)

* 1 2 ^ 0 .1 5 ( x 12 + x 22 + X 32)

*33 < 0 .5 ( * i 3 + X 23 + X 33)

XU > 0 1,2,3, j = 1,2,3

especifica el número de rollos del c t r t e / .V o b f e n e faTigÚfente tabla-'' ^ ™ Íable “ “

www.FreeLibros.com
TRABAJO PRACTICO X 391

número
rollos
*3 *4 * 5 *6 *7 *8 x9 *10 * 11 *12
ancho *1 *2

1 1 0 0 0 0 0 0 0 0 0 0
58
0 0 3 2 2 1 1 1 0 0 0 0
26
0 0 1 0 2 1 0 3 2 0
24 1

0 1 0 0 1 0 1 2 0 2 3
23

Desperdido
en cm 4 6 7 8 9 10 10 11 12 13
0 1
.. . .

Minimizar
F = x 2 + 4 * 3 + 6 * 4 + 7 * s + &x 6 + 9 x n + 10*8 + 1 0 x 9 + 1 U 10 + 12xn + 13x12
Sujeta a las restricciones:
*1 + * 2 > 60

x , + x 4 + 2 * 6 + * 7 + 3 * 9 + 2 x 10 + * 1 1 > 8 5

*2 + * 5 + * 7 + 2 * 8 + * 1 0 + 2 * u + 3 * 12 > 5 0
*j > 0 , 7 = 1 , 2 , . . . , 12.

www.FreeLibros.com
www.FreeLibros.com
INDICE

Adjunta de una m atriz, 170 linealmente dependiente, 45, 78


Angulo entre vectores, 223 linealmente independiente, 42, 79
Anillo de matrices, 109 maximal, 65
Automorfismo, 69 ortogonal, 225
solución de un sistema, 189
Base, 53, 54, 58 Cono, 356
cambio de, 146 ortogonal, 357
fan, 280 Convexidad en R ", 376
ortogonal, 303 Coordenadas, 44
ortonormal, 225,3 0 4 esféricas, 179
teorema de extensión, 56 trasformación de, 145
Cramer, teorema de, 187
Cambio de base, 146, 295 Curvas, 246
Casco convexo, 338
Chio, regla de, 174
Clausura, 329 Dependencia lineal, 45, 78,160
Combinación lineal, 30, 217 Descomposición espectral, 311
convexa, 336 Desigualdad de Schwarz, 222
Composición de trasformaciones, 92 triangular, 223
Complemento ortogonal, 229 Determinante, 155
Condiciones de vínculo, 352 de la traspuesta, 166
de no negatividad, 352 del producto, 169
Congruencia de formas cuadráticas, 314 de Vandermonde, 168, 178
de matrices, 295 existencia de, 161
Conjunto abierto, 328 propiedades de, 157
acotado, 329 unicidad de, 163
cerrado, 328 Diagonalización de matrices, 308
convexo, 336 de operadores simétricos, 307
de combinaciones lineales, 34 Dimensión, 57, 59
derivado, 328 de la imagen, 80

www.FreeLibros.com
394
INDICE

de la suma, 60
del núcleo, 80 de una forma, 291,293
de traza nula, 19,38, 65
Fan, 279 de una T.L., 8 6 , 146
Form a bilineal, 289, 291 de un sistema lineal, 182
elemental, 114
cuadrática, 2 9 4 ,3 0 5 ,3 1 4 ,3 1 8
hermitiana, 293 forma canónica de, 133
lineal, 101,257 hermitiana, 120
Funcional, 101 idem potente, 115
Función objetivo, 349, 352 identidad, 108
inversa, 116 ,1 4 1 ,1 7 2
involutiva, 115, 274
G au ss-Jo rd an , m é to d o de, 135 186
G ram -S ch m id t, 228
no singular, 134
particionada, 121
Hamilton-Cayley, teorem a de, 282 rango de, 126,138
Hélice circular, 248 rango columna de, 124
rango fila de, 125
Helicoide recto, 261
Hiperplano, 233 simétrica, 29, 112
soportante, 343 traspuesta de, 110
traza de, 19, 152, 286
triangular, 28,114
Imagen de una trasformación lineal 7 4 80
propiedades de, 75 ’ ’ Método de Gauss-Jordan, 135, 138
Independencia lineal, 42, 58 de Gauss reducido, 210
Indice de positividad, 305 de la raíz cuadrada, 202
de nulidad, 305 del orlado, 205
Inversión de matrices, 138, 1 4 1 , 172 Menores principales, 319
Investigación Operativa, 346 Módulo, 2 1 8
Isomorfismo, 69 Monomorfismo, 69, 77

Jacobiano, 178 Norma, 218


Núcleo de unaT .L ., 72, 80, 183
Matrices equivalentes, 133 de un monomorfismo, 77
producto de, 8 5 ,9 6 ,1 0 6
permutables, 107 Operaciones elementales, 129
semejantes, 147, 275 Operadores adjuntos, 298
triangulación de, 279 autoadjuntos, 299
Matriz, 1 1 ,3 3 , 71 hermitianos, 299
adjunta, 170 ortogonales, 300
ampliada, 182 simétricos, 399, 307
antisimétrica, 2 9 ,112 traspuestos, 298
unitarios, 300
compleja conjugada, 118
definida positiva, 310 Ortogonalidad, 219, 225
de pasaje, 144 Ortonormal, base, 225
complemento, 229

www.FreeLibros.com
INDICE 395

Partición de matrices, 121 Sylvester, teorema de, 306


Permutaciones, 163
Plano, 239 Trasformación lineal, 6 6 ,6 8
Polinomio característico, 270, 277 biyectiva, 69
Producto interior, 214 composición, 96
hermitiano, 259 diagonalización de, 269, 276
Programación Lineal, 346 imagen de, 74
Proyección, 105, 232
inversa, 93
de una curva, 253 matriz de, 86
de un subespacio, 281
no singular, 93
Punto de acumulación, 327
núcleo de, 72
extremo, 344
polinomio característico de, 275
frontera. 326
Teorema de Cramer, 257
Interior 326
de Hamilton-Cayley, 282
del coseno, 257
Rango columna, 124
de Rouche-Frobenius, 188
de una matriz. 126,135, 184
de Pitágoras, 221
del producto, 127
de Sylvester, 306
fila, 124 de extensión, 56
Recta, 236,3 3 0
fundamental de las T.L., 83
Rotación, 268
Trasformación de coordenadas, 145, 309
Rouche-Frobenius, 188
de matrices, 279
Trasposición de matrices, 110
Segmento, 330 de una permutación, 163
Semiespacio, 335
Semejanza, 147
Unión de subespacios, 22
Signatura, 305
Simplex, 355
Sistema de ecuaciones, 181, 190, 198, 202 Valores propios, 263
compatible, 183,188 de un operador hermitiano, 300
incompatible, 183 de un operador unitario, 303
Sistema de generadores, 51, 58 Vectores, 2
Schwarz, desigualdad de, 222 ángulo entre, 223
Suma de subespacios, 23, 2 9 ,6 0 , 231 combinación lineal de, 30
directa, 2 5 ,6 1 , 105 cosenos directores, 240
Solución óptima, 352 fijos, 234
posible, 352 linealmente dependientes, 45, 78, 160
Subespacio, 15, 35 linealmente independientes, 42, 58
Subespacios, intersección de, 20 módulo de, 218
suma de, 23 ortogonales, 225
unión de, 22 propios, 263

www.FreeLibros.com
ISBN 950-02-5205-8

www.FreeLibros.com

También podría gustarte