Está en la página 1de 232

APUNTES DE MATEMATICAS IV

Autor:Jorge Garc Nieva a Tecnolgico de Estudios Superiores o del Oriente del Estado de Mxico e 29 de julio de 2010

INTRODUCCION
El Algebra Lineal es el estudio de los espacios vectoriales y de los conceptos derivados de ellos, como son las combinaciones lineales, los conjuntos bases y la representacin de los elementos o de un espacio vectorial mediante ellas, las bases ortogonales , las transformaciones lineales y sus representacin matricial, los espao cios asociados a los autovalores y vectores propios de una transformacin lineal(descomposicin espectral), etc. o o El conocimiento de los conceptos anteriores y su interrelacin, o proporciona a los estudiantes de las reas de ingenier una slida a a o base para trabajar en la modelacin matemtica de los fenmenos o a o f sicos dentro de sus respectivas reas.En efecto,la teor de los a a espacios vectoriales tiene amplias aplicaciones , interviniendo por ejemplo en la resolucin matemtica de problemas de optimizacin, o a o como sucede con el mtodo simplex en la Ingenier Industrial, o e a bien en el tratamiento simplicado y elegante de la teor de la a regresin lineal y multilineal, la estad o stica avanzada , la teor a del control de calidad, la teor de la simulacin, la teor de las a o a ecuaciones diferenciales,etc. Por lo anterior, es muy importante proporcionar a los estudiantes material didctico de calidad, que no se reduzca a la reproa duccin sin sentido de clculos, sino que tenga un nivel adecuado o a de la exposicin de la parte terica. Es con este n como el autor o o de estas notas ha recolectado una serie de resultados importantes dentro del Algebra Lineal que han sido considerados tradicionalmente como fundamentales por los especialistas de esta rea y que a son consideradas bsicas dentro de un curso bsico de eta asiga a natura. Estas notas comienzan con una exposicin acerca de los nmeros o u

complejos, lo cual es importante para abordar el tema de las matrices ortogonales y sus aplicaciones en la descripcin geomtrio e ca de fenmenos f o sicos,amn de que interviene en el tratamiento e algebraico de la diagonalizacin de la representacin de transforo o maciones lineales mediante matrices y su ulterior aplicacin en el o tratamiento de sistemas dinmicos. a El cap tulo 2,trata de las matrices , sus propiedades y conceptos fundamentales asociados.Los conceptos estudiados en este cap tulo tienen relacin directa con el cap o tulo 3, el cual trata sobre los sistemas lineales y su resolucin mediante matrices, expresao do esto en el procedimiento de Gauss-Jordan , en el mtodo de e Cramer y en el mtodo de la inversa de la matriz de coecientes e de un sistema lineal. Cabe notar que los conceptos estudiados en las unidades 2 y 3 son de amplia apliacacin en varios campos deno tro de la ingenier a,como por ejemplo,las ecuaciones diferenciales, la Investigacin de operaciones y la estad o stica multivariable. En la unidad 4 se estudian los espacios vectoriales, los cuales representan una generalizacin de la geometr plana y del espacio a o a espacios multidimensionales, as como a espacios con objetos no necesariamente geomtricos, como lo son los espacios de matrie ces o de soluciones de un sistema de ecuaciones ya sea algebraico lineal o de ecuaciones diferenciales lineales , y que en ingenier a son de suma importancia para estudiar fenmenos o sistemas de o tipo lineal. En la unidad 5 se estudian las transformaciones lineales, las cuales aparecen en la prctica en el anlisis de objetos a a que se pueden ampliar, reducir,transladar o rotar; desde luego,su aplicacin a la robtica es ineludible,as como en la programacin o o o de grcos. a

Indice general
Introduccin o
1 Nmeros Complejos complejos. u 1.1. Denicin y origen de los nmeros complejos. . . o u 1.2. Operaciones fundamentales con nmeros complejos u 1.3. Potencias de i, mdulo o valor absoluto de un o nmero complejo. . . . . . . . . . . . . . . . . . . u 1.4. Forma polar y exponencial de un nmero complejo u 1.5. Teorema de De Moivre, potencias y extraccin de o ra de un nmero complejo. . . . . . . . ces u 2 Matrices y determinantes.

2 6 6 6 11 12 13 20

2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7. 2.8.

Denicin de matriz, notacin y orden. . . . . . . . 20 o o Clasicacin de las matrices. . . . . . . . . . . . o 22 Operaciones con matrices. . . . . . . . . . . . . . 23 Transformaciones elementales por rengln. Escalonamiento o de una matriz. Rango de una matriz. . 38 Clculo de la inversa de una matriz. . . . . . . . . . a 45 Denicin de determinante de una matriz. . . . . . o 46 Inversa de una matriz cuadrada a travs de la adjunta. 49 e Aplicacin de matrices y determinantes . . . . . . . o 66

3 Sistemas de ecuaciones Lineales. 3.1. Denicin de sistemas de ecuaciones lineales. . . . . o 3.2. Clasicacin de los sistemas de ecuaciones lineales y o tipos de solucin. . . . . . . . . . . . . . . . . . . o 3.3. Interpretacin geomtrica de las soluciones. . . . . . o e

71 71 72 81

5
Indice general 3.4. Mtodos de solucin de un sistema de ecuaciones e o lineales: Gauss, Gauss-Jordan, inversa de una matriz y regla de Cramer. . . . . . . . . . . . . . . . 101 3.5. Aplicaciones. . . . . . . . . . . . . . . . . . . . . . 124 4 Espacios vectoriales. 128 4.1. Denicin de espacio vectorial. . . . . . . . . . . . 128 o 4.2. Denicin de subespacio vectorial y sus propiedades. 135 o 4.3. Combinacin lineal. Independencia lineal. . . . . . . 140 o 4.4. Base y dimensin de un espacio vectorial, cambio de o base. . . . . . . . . . . . . . . . . . . . . . . . 153 4.5. Espacio vectorial con producto interno y sus propiedades. 179 4.6. Base ortonormal, proceso de ortonormalizacin de o Gram-Schmidt. . . . . . . . . . . . . . . . . . . . 183 5 Transformaciones lineales. 5.1. Introduccin a las transformaciones lineales. . . . . o 5.2. Ncleo e imagen de una transformacin lineal. . . . u o 5.3. La matriz de una transformacin lineal o 5.4. Aplicacin de las transformaciones lineales: reexin, o o dilatacin, contraccin y rotacin . . . . . . . o o o 15 193 193 212 205

219

UNIDAD I. Los nmeros complejos


Origen y definicin. Operaciones con complejos. Forma polar. Teorema de DeMoivre. Potencias y races de complejos

1.1.

Definicin y origen de los nmeros complejos.

Los nmeros complejos aparecieron histricamente cuando Cardano,en 1539,trat ecuaciones como x2 + 1 = 0 ,la cual no tiene solucin en R. Posteriormente Gauss desarroll la teora con mayor formalidad. La imposibilidad de resolver estaclase de ecuaciones en el campo real crea la necesidad de ampliar R construyendo un supercuerpo conmutativo K en el que todo elemento admita una raz cuadrada y, en consecu.encia, que la ecuacin anterior tenga solucin. Supongamos que K existe y sea i un elemento de K que satisface i2 + 1 = 0. Vamos a ver que el subconjunto K 0 de K engendrado por R {i} y descrito por los elementos de la forma

a + bi en donde a, b R es un cuerpo. Es evidente que a + bi = 0 =a = b = 0

ya que de lo contrario, para b 6= 0 se deducira que i es un elemento de R y esto no es posible.

1.2. Operaciones fundamentales con nmeros complejos.


Por otro lado, de las reglas de clculo en el cuerpo conmutativo K y teniendo en cuenta que i2 = 1, se deduce Las igualdades demuestran que: (a + bi) + (c + di) = (a + b) + (b + d)i a + bi = c + di a = b y c = d y , que: (a + bi) (a bi) = a2 + b2 Puesto que en R se cumple a2 + b2 = 0 a=b=0

UNIDAD I. LOS NMEROS COMPLEJOS

entonces, si a + bi 6= 0 1 a + bi = = = a bi (a + bi) (a bi) a bi a2 + b2 a b + 2 i 2 + b2 a a + b2

Luego, si K existe y i2 + 1 = 0, entonces K0 = {a + bi : a, b R} es un cuerpo. No obstante, si existe otro elemento i1 K tal que i2 + 1 = 0, entonces 1 podemos determinar K0 = {a + bi1 : a, b R} 1 y es claro que K0 y K0 son isomorfos. Por tanto, K0 es nico salvo un isomorsmo. 1 Por otra parte, si K0 existe, (22.4) muestra que hay una biyeccin entre K0 y RR f : R R K0 (a, b) 7 a + bi

Adems, es claro que f es un isomorsmo de grupos aditivos, en donde R R est dotado con la siguiente adicin (a, b) + (c, d) = (a + b, c + d) pues, se cumple f ((a, b) + (c, d)) = f (a, b) + f (c, d)
Podemos dotar a RR con la siguiente multiplicacin (a, b)(c, d) = (ac bd, ad

+ bc) y entonces demuestra que f ((a, b) (c, d)) = f (a, b) f (c, d) De este modo, si demostramos que R R dotado con las operaciones suma y multiplicacin es un cuerpo, habremos probado la existencia de K0 .

En el conjunto R R denimos las dos operaciones siguientes (a, b) + (c, d) = (a + b, c + d) y (a, b) (c, d) = (ac bd, ad + bc) Es fcil comprobar las siguientes propiedades:

UNIDAD I. LOS NMEROS COMPLEJOS

1. (R R, +) es un grupo conmutativo de elemento neutro (0, 0), en el que (a, b) es el simtrico de (a, b). 2. La multiplicacin es distributiva respecto a la suma . 3. (R R {(0, 0)}, ) es un grupo conmutativo de elemento neutro (1, 0), en el que el simtrico de (a, b) es a b , a2 + b2 a2 + b2 Como consecuencia, (R R, +, ) es un cuerpo conmutativo al que denominaremos cuerpo de los nmeros complejos y designamos por C. Un nmero complejo es un elemento de C, o lo que es lo mismo, un par ordenado de nmeros reales. Identicamos el nmero real a con el nmero complejo (a, 0), pues la aplicacin f : R C a 7 (a, 0) es un homomorsmo inyectivo entre (R, +, ) y (C, +, ). En efecto, f (a + b) = (a + b, 0) = (a, 0) + (b, 0) = f (a) + f (b) f (a b) = (ab, 0) = (a, 0) (b, 0) = f (a) f (b) y f (a) = f (b) (a, 0) = (b, 0) a = b Como consecuencia, podemos considerar R como un subcuerpo de C, y entonces es natural armar que C es una extensin de R. Puesto que (0, 1) (0, 1) = (1, 0)

es natural escribir (0, 1) = i, cumplindose entonces que i2 = 1, y, por tanto, 1 posee raz cuadrada en C. Adems, si b es un nmero real, entonces se cumple (0, 1) (b, 0) = (0, b) y podemos escribir ib en lugar de (0, b). De este modo, si z es el nmero complejo (a, b), entonces podemos escribirlo de manera nica bajo la forma (a, b) = (a, 0) + (0, b) y, en consecuencia, es natural escribir z como a + ib. Esta manera de representar un nmero complejo se llama forma binmica. Entonces, a a se le llama parte real de z y se escribe Re z = a, y a b se le llama parte imaginaria de z y se escribe Im z = b. Si b = 0, se dice que z es un nmero imaginario puro

UNIDAD I. LOS NMEROS COMPLEJOS

ysi a =0,sediceque z es un nmero real.Alnmerocomplejo i se le llama unidad imaginaria. Las operaciones (22.7) y (22.8), pueden escribirse en forma binmica, operando como en el caso de nmeros reales, sin ms que tener en cuenta que i2 = 1. (a + ib) + (c + id) = (a + b) + i(b + d) (a + ib) (c + id) = (ac bd) + i(ad + bc) Observacin. El conjunto C de los nmeros complejos puede ordenarse de varias maneras. Sin embargo, no existe relacin de orden total sobre C de manera que C seauncuerpo ordenado(como lo es R), pues, 1=12 y 1= i2 son cuadrados en C y entonces los dos deberan ser mayores que cero, no siendo nulos. Ahora bien, 1 y 1 son opuestos y, por tanto, no es posible que los dos sean estrictamente mayores que cero.

El cuerpo de los nmeros complejos dotado con las dos operaciones siguientes (a + ib) + (c + id) = (a + c) + i(b + d) y (a + ib) = a + ib ( R) es un espacio vectorial sobre R. Es inmediato comprobarlo. Adems, (1, i) forman una base de este espacio, pues son generadores a + ib = a 1 + b i
Adems , son linealmente independientes

1 + i = 0 + 0 i = = 0

La geometra ordinaria del plano proporciona una imagen adecuada del cuerpo de los nmeros complejos. Consideremos en el plano eucldeo un origen O y unos ejes rectngulares Ox y Oy. Sean e1 , e2 los vectores de la base ortonormal correspondiente. Entonces, entre el espacio vectorial de los vectores libres del plano y el cuerpo de los nmeros complejos, considerado como espacio vectorial real de base (1, i), existe un isomorsmo denido por la aplicacin x + yi 7 xe1 + ye2 Al vector v = xe1 + ye2 corresponde un representante de origen O y extremo el punto P de coordenadas (x, y) que se llama ajo del nmero complejo x + iy. En forma breve, el vector imagen de z = x + iy es el vector

UNIDAD I.LOS NMEROS COMPLEJOS

v = OP , siendo P el ajo de z. De este modo, entre el plano eucldeo y el cuerpo de los nmeros complejos queda establecida una biyeccin que lo convierte en el plano complejo. Los complejos que son nmeros reales tienen por ajos los puntos del eje Ox, y los que son nmeros imaginarios puros, los puntos del eje Oy. Esta es la razn por la cual estos ejes se denominan entonces eje real y eje imaginario del plano complejo, respectivamente. Sin embargo, estas denominaciones son un abuso del lenguaje, pues, tanto el eje Oy como el plano Oxy estn descritos por puntos de coordenadas reales. Esta representacin geomtrica de los nmeros complejos permite interpretar fcilmente la adicin de los nmeros complejos: si P y Q son los ajos de z1 y z2 y se tiene, OP + OQ = OR entonces R es el ajo de z1 + z2 , ya que para sumar vectores de origen O basta con sumar sus componentes respecto de los ejes de coordenadas; obsrvese que z1 + z2 es por tanto la diagonal del paralelogramo que determinan z1 y z2 .

En particular, los ajos de los nmeros complejos z y z son dos puntos simtricos respecto a O. Con la representacin geomtrica, aparecen de manera natural los conceptos de mdulo y argumento de un nmero complejo.

10

UNIDAD I. LOS NMEROS COMPLEJOS

1.3. Valor absoluto de un nmero complejo.


Se llama mdulo de un nmero complejo z = x + iy y se denota por |z| a la norma del vector imagen correspondiente xe1 + ye2 , es decir, p |z| = kxe1 + ye2 k = x2 + y 2

De las propiedades de la norma eucldea se deducen enseguida las propiedades del mdulo de un nmero complejo: 1. |z| = 0 si y slo si z = 0 2. |zz 0 | = |z| |z 0 | 3. |z + z 0 | |z| + |z 0 | y de este modo la aplicacin C R+ z 7 |z|

es un valor absoluto en C. Podemos entonces llamar a |z| valor absoluto de z, pero la costumbre hace que se preera el trmino mdulo.

Se llama argumento de un nmero complejo z = x + iy no nulo y se denota por arg z, la medida del ngulo que determinan los vectores e1 y xe1 + ye2 . Recordemos que esta medida es un nmero real mdulo 2, es decir, si 0 es una medida de dicho ngulo, tambin lo son 0 + 2k para k Z. Para evitar ambigedades, a menudo es conveniente utilizar el valor principal para el argumento de z, el cual se dene mediante 0 < 2. Si un nmero complejo z 6= 0 tiene mdulo r y argumento , se denomina forma polar o mdulo-argumental de z al par (r, ), representado a menudo por r . De este modo, tenemos (r, ) = (r0 , 0 ) r = r0 y 0 = + k 2 Dado un nmero complejo z = x + iy no nulo, entonces las siguientes relaciones + 2 p x2 y r=

11

UNIDAD I. LOS NMEROS COMPLEJOS

y = arctan

(x 6= 0) x permiten determinar la forma polar de z. Si x = 0, podemos tomar = /2 si y > 0, y = 3/2 cuando y < 0.

1.4.Formas trigonomtrica y exponencial de un nmero complejo


Dado un nmero complejo z = (r, ) en forma polar, la siguiente gura

muestra que se cumplen las siguientes relaciones x = r cos y y = r sin

de manera que cualquier nmero complejo no nulo de mdulo r y argumento se puede escribir como z = r cos + ir sin = r(cos + i sin )

que se llama forma trigonomtrica de z. Obsrvese que si z 6= 0 est dado en forma binmica, entonces las siguientes relaciones p r = x2 + y 2 y y sin = p 2 + y2 x y cos = p x x2 + y2

permiten determinar la forma trigonomtrica. La forma trigonomtrica nos permite dar una interpretacin geomtrica del producto de dos nmeros complejos. En efecto, si z1 = r1 (cos 1 + i sin 1 ) y z2 = r2 (cos 2 + i sin 2 ) entonces z1 z2 = r1 r2 (cos 1 + i sin 1 )(cos 2 + i sin 2 ) = r1 r2 [(cos 1 cos 2 sin 1 sin 2 ) + i(cos 1 sin 2 + sin 1 cos 2 )] = r1 r2 [cos(1 + 2 ) + i sin(1 + 2 )]

12

UNIDAD I. LOS NMEROS COMPLEJOS

Por tanto, |z1 z2 | = |z1 | |z2 | y arg(z1 z2 ) = arg z1 + arg z2

Este resultado se interpreta de la siguiente manera: el ajo del producto z1 z2 se construye como tercer vrtice del tringulo que tenga uno en O, otro en el ajo de z2 y sea semejante al tringulo que tiene como vrtices homlogos respectivamente el ajo de z1 , O y el ajo de e1 . Dicho de otro modo, se aplica una homotecia de centro el origen y razn r2 al tringulo de vrtices O, el ajo de z1 y el de e1 , y despus un giro de centro el origen y ngulo 2 , formndose el tringulo semejante de vrtices O, el ajo de z1 z2 y el de z2 . De la misma forma se interpretan las relaciones siguientes 1 1 z = |z| y arg z 1 = arg z que se obtienen al hacer en (22.9) z1 = z y z2 = z 1 , y tambin z1 = |z1 | y arg z1 = arg z1 arg z2 z2 |z2 | z2

1.5.Teorema de DeMoivre.Clculo de potencias .


Es claro que (22.9) se extiende por induccin a un producto de un nmero nito de nmeros complejos, cumplindose ! n n n n Y Y X Y zi = |zi | y arg zi = arg zi
i=1 i=1 i=1 i=1

En particular, para n Z tenemos

z n = rn [cos(n) + i sin(n)] y si, adems r = 1, entonces tenemos la frmula de De Moivre (cos + i sin )n = cos n + i sin n Puesto que ex = X xn n!

n0

13

UNIDAD I. LOS NMEROS COMPLEJOS

para todo x R, podemos escribir formalmente ei = 1 + i obteniendo Re ei = 1 y Im ei =

3 4 5 2 i + + i 2! 3! 4! 5!

X (1)n 2 4 = + 2n = cos 2! 4! (2n)!


n0

De este modo, deducimos que

X (1)n 2n+1 3 5 + = = sin 3! 5! (2n + 1)!


n0

ei = cos + i sin De aqu, como un nmero complejo z se expresa en forma trigonomtrica como z = r(cos + i sin ) tenemos z = rei que se llama forma exponencial del nmero complejo z.

Nmeros complejos conjugados


Con la ayuda de la representacin geomtrica vamos a considerar una transformacin de C que deja invariante R, elemento a elemento. Esto resulta de la simetra respecto del eje real entre ajos

es decir, C z = x + iy C 7 z = x iy

El complejo z se llama conjugado de z. Es claro que se trata de una biyeccin y, adems, transforma la suma y el producto en la suma y producto de los conjugados. Se tiene entonces que z=z zz 0 = zz 0 z + z0 = z + z0

14

UNIDAD I. LOS NMEROS COMPLEJOS

Es evidente que Re z = Re z Re z = 1 (z + z) 2 Im z = Im z Im z =
1 2i (z

z)

Tambin es claro que un nmero complejo z es real si y slo si z = z, y es imaginario puro si y slo si z + z = 0. Si z = x + iy, entonces zz = (x + iy) (x iy) = x2 + y 2

es decir, zz es un nmero real positivo. Adems, se cumple |z| = zz y, para todo nmero complejo z 6= 0, z 1 = z z = 2 zz |z|

En particular, de aqu se deduce que un nmero complejo z es unitario (tiene mdulo 1) si y slo si z 1 = z. Ejemplo. Efectuar las siguientes operaciones con nmeros complejos, expresando el resultado en forma binmica: a)
(i1)3 i+1

b)

5+3i (1+i)2

c) (2 + i)(8 + 5i)i

d)

1+i 2+i

1+i 2+i

Solucin: (a) Expresando z1 = 1 + i en forma polar tenemos r1 = 2 y 1 = arctan(1) = 3 4

Del mismo modo, para z2 = 1 + i tenemos r2 = 2 y 2 = arctan 1 = 4 Por tanto,


3 z1

3 = (( 2)3 , 3 ) 4 9 = (2 2, ) 4 2 2 9 ) = ( , 4 2 4 = (2, 2)
3 z1 =2 z2

y, en consecuencia,
3 z1 z2

o bien, en forma binmica

15

UNIDAD I. LOS NMEROS COMPLEJOS

(b) Tenemos 5 + 3i (1 + i)2 5 + 3i (1 i)2 5 + 3i = 2i 5i 3 = 2 3 5 = i 2 2 =

(c) Tenemos (2 + i)(8 + 5i)i = (11 + 18i)i = 18 + 11i (d) Tenemos 1 + i 1 + i 2 + i 2 + i = = = = (1 + i)(2 + i) (2 + i)(1 + i) 3 i 3 i 3 + i 3 i 8 + 6i 10 4 3 + i 5 5

Ejemplo Utilizando la frmula de De Moivre, expresar cos 5x en trminos de sin x y cos x. Solucin: Segn esta frmula, tenemos (cos x + i sin x)5 = cos 5x + i sin 5x Por tanto, cos 5x = Re(cos x + i sin x)5 Mediante la frmula del binomio de Newton, obtenemos cos 5x = cos5 x 10 cos3 x sin2 x + 5 cos x sin4 x

1.6 . Ecuaciones polinmicas .


Un nmero complejo z 0 = r0 (cos 0 + i sin 0 ) se llama raz n-sima de un nmero complejo z = r(cos + i sin ) si (z 0 )n = z Por consiguiente, tenemos 0 n r (cos 0 + i sin 0 ) = r(cos + i sin ) 0 0 0 n (r ) (cos n + i sin n ) = r(cos + i sin )

16

UNIDAD I. LOS NMEROS COMPLEJOS

y, por tanto, (r0 )n = r o de forma equivalente, r0 = n r y 0 = 2k + (k = 0, 1, 2, ..., n 1) n n y n0 (mod 2)

Como consecuencia, todo nmero complejo z = r(cos + i sin ) no nulo tiene n races n-simas + 2k + 2k n (k = 0, 1, 2, ..., n 1) + i sin zk = r cos n n Es evidente que se cumple |zk+1 | = |zk | y arg zk+1 arg zk + 2 (mod 2) n

y, por tanto, para n > 2, las n races n-simas de un nmero complejo no nulo son los ajos de los vrtices de un polgono regular de lados. Estos ajos se n encuentran sobre la circunferencia de centro O y radio n r. Observacin. 1. En el caso particular de n = 2, tenemos z0 = y z1 = r cos + + i sin + 2 2 = r( cos i sin ) 2 2 = z0 r(cos + i sin ) 2 2

es decir, encontramos que las dos races son opuestas y, como consecuencia, son los ajos de dos puntos simtricos respecto al origen. 2. En particular, las races n-simas de la unidad son las soluciones de la ecuacin z n = 1. Vienen dadas por la frmula zk = cos 2k 2k + i sin n n (k = 0, 1, 2, ..., n 1)

En este caso el polgono que forman sus ajos est inscrito en la circunferencia de radio 1, siendo uno de sus vrtices el punto z0 = 1. 3. Las races n-simas de un nmero complejo cualquiera son los productos de una de ellas por las races n-simas de la unidad, pues, si u0 es una raz particular de orden n de z, y u es una cualquiera de las otras, se tiene n u =1 un = un = z = 0 u0 y el cociente u/u0 es una cualquiera de las races n-simas de la unidad.

17

UNIDAD I. LOS NMEROS COMPLEJOS

p 5 Ejemplo. Calcular 1 3i. Solucin: Expresando z = 1 3i en forma polar, obtenemos |z| = 2 y 5 arg z = arctan( 3) = 3

En consecuencia, las races quintas de z vienen dadas por 5/3 + 2k 5/3 + 2k 5 (k = 0, 1, 2, 3, 4) zk = 2 cos + i sin 5 5 es decir, z1 z2 z3 z4 z5 = = = = = 5 3 + 2 cos 11 i sin 3 11 5 15 15 2 cos 17 + i sin 17 5 2 cos 15 + i sin 15 5 23 23 15 15 2 cos 29 + i sin 29 5 2 cos 15 + i sin 15

Ejemplo. Hallar las races de la ecuacin (1 + i)z 3 2i = 0 Solucin: Es claro que z3 2i 1+i 1i 2i = 1+i 1i 2 + 2i = 2 = 1+i =

Por tanto, z = 3 1 + i. Para determinar las races cbicas de este complejo, determinamos primero el mdulo y el argumento de z 0 = 1 + i. Obtenemos |z 0 | = 2 y arg z 0 = arctan 1 = 4 Por lo tanto, tenemos /4 + 2k /4 + 2k 3 zk = 2 cos 3 + i sin 3 3 es decir, 3 z1 = 2 cos 12 + i sin 12 3 9 9 z2 = 2 cos 12 + i sin 12 z3 = 3 2 cos 17 + i sin 17 12 12

(k = 0, 1, 2)

Ejemplo. Expresar en forma binmica e i . Solucin: Puesto que /2 + 2k /2 + 2k i = cos + i sin (k = 0, 1) 2 2

18

UNIDAD I. LOS NMEROS COMPLEJOS

obtenemos i= Por tanto, e


i

cos + i sin = 22 + i 22 4 4 cos 5 + i sin 5 = 22 i 22 4 4


2 2 2 2

2 2 2 +i 2

=e

ei

2 2

=e

2 2 2 i 2

= e

ei

2 2

cos 22 + i sin 22 2 = e 2 cos 22 i sin 22


2 2

Ejemplo. Dados los nmeros complejos z1 = 1 + i y z = 2 + 3i, calcular dos nmeros complejos z2 , z3 tales que los ajos de z1 , z2 y z3 formen un tringulo equilatero de centro el ajo de z. Solucin: Sabemos que los ajos de las races cbicas de un nmero complejo w son los vrtices de un tringulo equilatero inscrito en una circunferencia p de centro el origen y radio 3 |w|. Puesto que nuestro tringulo ha de estar centrado en el ajo de z, deberemos efectuar una traslacin de vector el asociado a z. De este modo, se tiene zi = z + 3 w (i = 1, 2, 3) Como una de las races cbicas de w es z1 z, podemos obtener las races cbicas de w multiplicando z1 z por las races cbicas de la unidad. Las races cbicas de la unidad son u1 = 1 u2 = cos 2 + i sin 2 = 1 + i 3 3 3 2 2 u3 = cos 4 + i sin 4 = 1 i 23 3 3 2 Por tanto, las races cbicas de w son w1 = 1 2i w2 = (1 2i) 1 + i 23 = 1 + 3 + i 23 + 1 2 2 1 3 w3 = (1 2i) 2 i 2 = 1 3 + i 23 + 1 2 z1 = z + w1 = 1 + i z2 = z + w2 = 5 + 3 + i 23 + 4 2 z3 = z + w3 = 5 3 + i 23 + 4 2

y, en consecuencia, los nmeros complejos que buscamos son

19

Unidad II. Matrices y Determinantes


Operaciones con matrices. Matrices especiales . Operaciones por filas. Matrices escalonadas. Determinantes

2.1.

Definicin de matriz.Notacin y orden.

Denicin 1.1. Sean m, n Z+ . Una matriz real A de orden m por n (m n) es un o arreglo bidimensional de nmeros reales dispuestos en m las y n columnas como sigue u a11 a12 a1n a11 a12 a1n

A = (aij )mn =

donde aij R para cada i {1, . . . , m} y cada j {1, . . . , n}, el cual es llamado componente ij-sima de A. e Para cada i {1, . . . , m} la i-sima la de A la denotaremos por A(i) y est dada por e a A(i) = ai1 ai2 ain Para cada j {1, . . . , n} la j-sima columna de A la denotaremos por A(j) y est dada por e a a1j a 2j A(j) = . amj componentes a11 , a22 , . . . , ann forman lo que llamaremos diagonal principal de A. Cuando m = 1, diremos que A es una matriz la y cuando n = 1, diremos que A es una matriz columna. nente es aij para cada i {1, . . . , m} y cada j {1, . . . , n}. La notacin A = (aij )mn , signica que A es la matriz de orden m n cuya ij-sima compoo e

a a22 a2n a21 a22 a2n 21 = . . . . . . . . . . . . am1 am2 amn am1 am2 amn

Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las

El conjunto formado por todas las matrices reales de orden mn lo denotaremos por Mmn (R).

20

UNIDAD II. MATRICES Y DETERMINANTES


Observacin 1.1. Podemos considerar matrices sobre un campo K ,l, por ejem plo K = o C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son elementos de K. Observacin 1.2. Se debe tener cuidado cuando se usa la notacin (aij )mn , el cambio de o o ndices no signica que se trata de otra matriz, los ndices son mudos, esto es (aij )mn = (akr )mn = (apq )mn = (aji )mn Ejemplo 2.1. 1. A = 2 0
2 3

5 1

es una matriz real de orden 2 3, la componente 2, 1 de A es a2,1 = 2 , 3


2 3

la la 2 de A es A(2) = 1 4 0

4 1 , la columna 3 de A es A

(3)

5 1

2. B =

5 12 3 es una matriz cuadrada real de orden 3, las componentes de la 0 2 8 diagonal principal son a1,1 = 1, a2,2 = 12, a3,3 = 8. 1 si i = j

3. La matriz In = (ij )nn , donde ij =

, para cada i, j {1, . . . , n}, es llamada 0 si i = j matriz identidad de orden n, esto es, 1 0 0 0 1 . . . . In = . . .. ... 0 . 0 0 1
nn

/ 4. La matriz 0mn = (ij )mn , donde ij = 0 para cada i {1, . . . , m} y cada j {1, . . . , n},

es llamada matriz nula de orden m n, es decir 0 0 . . / 0mn = . 0 0

mn

21

UNIDAD II. MATRICES Y DETERMINANTES


/ Cuando m = n, slo escribiremos 0n en lugar de o 0 . . / 0n = . . . 0 / 0nn , es decir, 0 . . 0

nn

2.2.Clasificacin de las matrices.


Denicin 2.2 Sea A Mnn (R). Diremos que A = (aij )nn es o 1. Triangular superior si aij = 0 para i, j {1, . . . , n} con i > j. 2. Triangular inferior si aij = 0 para i, j {1, . . . , n} con i < j. 3. Diagonal si aij = 0 para i, j {1, . . . , n} con i = j, es decir, A es triangular superior e inferior simultneamente. a 4. Escalar si es diagonal y existe R tal que aii = para i {1, . . . , n}. Observacin 2.3. Una matriz cuadrada es triangular superior (respectivamente inferior) si y o slo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales a o cero. Observacin 2.4. Cuando A Mnn (R) es diagonal y las componentes en la diagonal principal o son 1 , 2 , . . . , n R, entonces escribiremos A = diag( 1 , 2 , . . . , n ) Ejemplo 2.2
/ 1. Para cada n Z+ , In y 0n son matrices escalares, y por lo tanto diagonales y consecuente-

2. A =

mente triangulares superior e inferior. 5 4 0 7 0 3 12 0 0 0 0 5 0 9 0 4 2 0 0

5 es triangular superior. 1

0 0

3. A =

0 1

13 3 8

0 0 es triangular inferior. 0 0

22

Unidad II.Matrices y Determinantes


6 0 0 0

0 0 0 3 es diagonal, en cuyo caso podemos escribir A = diag(6, 3, 5, 0). 0 0 5 0 0 0 0 0 8 0 0 0 0 8 0 0 5. A = es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8). 0 0 8 0 0 0 0 8 4. A = Denicin 2 .3 Sean A, B Mmn (R). Diremos que A y B son matrices iguales, lo cual o

denotaremos por A = B, si la componente ij-sima de A es igual a la componente ij-sima de e e B para cada i {1, . . . , m} y cada j {1, . . . , n}, es decir, si A = (aij )mn y B = (bij )mn , diremos que A y B son iguales si aij = bij para cada i {1, . . . , m} y cada j {1, . . . , n}

Observacin 2.5. Ntese que para que dos matrices sean iguales, en primer lugar deben ser o o del mismo orden. 5 1 0

0 y y C = 0 3 , entonces A = B 6 8 3 2 4 2 4 pues ni siquiera son del mismo orden; B = C si y slo si x = 5 e y = 3. o Ejemplo 2.3 Si A = El siguiente teorema es una consecuencia directa de la denicin de igualdad de matrices, su o demostracin la dejamos como ejercicio. o Teorema.2.1 Sean A, B Mmn (R). Entonces las siguientes proposiciones son equivalentes 1. A = B. 2. A(i) = B(i) para cada i {1, . . . , m}. 3. A(j) = B (j) para cada j {1, . . . , n}. Demostracin. Hacerlo como ejercicio . o

;B=

5 7

23

UNIDAD II. MATRICES Y DETERMINANTES

2.3.

Operaciones con matrices.

En esta seccin deniremos dos operaciones con matrices que dotarn al conjunto Mmn (R) o a de una estructura algebraica conocida como espacio vectorial , dicha estructura ser tratada a en el capulo 2 del presente trabajo. t Definicin 2.4. Sean A, B Mmn(R) con A = (aij)mn y B = (bij)mn. Deniremos la matriz

suma de A con B, como la matriz A + B Mmn(R) cuya ij-esima componente viene dada por cij = aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}.

aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}, esto es, si A + B = (cij)mn, entonces Observacin 2.6. Para poder sumar dos matrices estas deben ser o 4 9 0 8 3 9 Ejemplo 2.4. Si A = 7 3 5 12 y B = 1 13 1 0 6 2 10 4 4 9 0 8 3 9 5 4 del mismo orden. 5 4 3 9 , entonces 7 11

A + B = 7 3 5 12 + 1 13 3 9 1 0 6 2 10 4 7 11 4 + (3) 9 + 9 0 + 5 8 + (4) 1 0 5 4 = 7 + 1 3 + (13) 5 + 3 12 + 9 = 6 10 8 3 1 + 10 0 + 4 6 + 7 2 + 11 11 4 1 13 Denicin 2.5. Sean A Mmn (R) y R ( es llamado escalar), con A = (aij )mn . o

Deniremos la multiplicacin de por A ( multiplicacin por escalar) como la matriz o o A o simplemente A cuya ij-esima componente es aij para cada i {1, . . . , m} y cada j {1, . . . , n}, esto es, si A = (bij)mn, entonces bij = aij para cada i {1, . . . , m} y cada j {1, . . . , n}. Observacin 2.7. La notacin de multiplicacin por escalar es A o A y no A ni A o o o , se debe colocar primero el escalar luego la matriz. Observacin 2.8. Toda matriz escalar de orden n es un mltiplo escalar de In , ms an, A o u Mnn (R) es una matriz escalar si y slo si existe R tal que A = In . o

24

UNIDAD II. MATRICES Y DETERMINANTES


Ejemplo 2.5. Sea A la matriz del 2.4, entonces ejemplo 4 9 0 8 2 4 2(9) 20 28 2 A = 2 7 3 5 12 = 2(7) 23 2 5 2(12) 1 0 6 2 21 2 0 2(6) 22 8 18 0 16 = 14 6 10 24 2 0 12 4 Teorema 2.2 Sean A, B, C Mmn (R) y cualesquiera. Entonces 1. A + B = B + A (conmutatividad de la suma). 2. (A + B) + C = A + (B + C) (asociatividad de la suma).
/ / 3. A + 0mn = A = 0mn +A (neutro aditivo). /

, R

mn

= D + A (opuesto aditivo).

4. Existe una matriz D Mmn (R) tal que A + D = 0 5. (A + B) = A + (distributividad de la multiplicacin por escalar respecto a B o la suma matricial). 6. ( + )A = a la suma escalar). 7. (A) = ()A = (A) (asociatividad de la multiplicacin por escalar). o 8. 1 A = A (neutro de la multiplicacin por escalar). o Demostracin. Sean A = (aij )mn , B = (bij )mn y C = (cij )mn . o 1. Hagamos A + B = E = (eij )mn y B + A = F = (fij )mn . Por denicin de suma de o matrices, tenemos que para cada i {1, . . . , m} y cada j {1, . . . , n} eij = aij + bij = bij + aij = fij Luego A + B = E = F = B + A (denicin de igualdad de matrices). o A + A (distributividad de la multiplicacin por escalar respecto o

25

UNIDAD II. MATRICES Y DETERMINANTES


2. Hagamos A + B = E = (eij )mn , (A + B) + C = E + C = F = (fij )mn , B + C = G = (gij )mn y A + (B + C) = A + G = H = (hij )mn . As que por denicin de suma de o matrices fij = eij + cij = (aij + bij ) + cij = aij + (bij + cij ) = aij + gij = hij De donde (A + B) + C = F = H = A + (B + C) (denicin de igualdad de matrices). o
/ 3. Recordemos que 0mn = (ij )mn donde ij = 0 para cada i {1, . . . , m} y cada j

/ o {1, . . . , n}. As que si A + 0mn = E = (eij )mn , entonces, por denicin de suma de

matrices, para cada i {1, . . . , m} y cada j {1, . . . , n}

eij = aij + ij = aij + 0 = aij


/ Por lo tanto A + 0mn = E = A y por conmutatividad / / A + 0mn = A = 0mn +A

4. Denamos D = (dij )mn con dij = aij para cada i {1, . . . , m} y cada j {1, . . . , n}. Hagamos A + D = E = (eij )mn . Entonces, por denicin de suma de matrices, para cada o i {1, . . . , m} y cada j {1, . . . , n} eij = aij + dij = aij + (aij ) = 0
/ Por lo tanto A + D = E = 0mn y por conmutatividad / A + D = 0mn = D + A

5. Hagamos A + B = E = (eij )mn , (A + B) = G = (gij )mn , B = H = (hij )mn y P = (pij )mn . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n} tenemos que fij = eij A+

E = F = (fij )mn , A = B = G+H =

(denicin de multiplicacin por escalar) o o

= (aij + bij ) (denicin de suma de matrices) o = gij + hij = pij Luego (A + B) = F = P = A+ B (denicin de multiplicacin por escalar) o o

(denicin de suma de matrices) o

26

UNIDAD II. MATRICES Y DETERMINANTES


6. Hagamos ( + )A = E = (eij )mn , se tiene que A = F = (fij )mn , A = G = (gij )mn

F + G = H = (hij )mn . En consecuencia, para cada i {1, . . . , m} y cada j {1, . . . , n} eij = (+ )aij = aij + aij = fij + gij = hij De donde E=H= 7. Hagamos (gij )mn . j {1, . . . , n} obtenemos A+ A (denicin de multiplicacin por escalar) o o (denicin de multiplicacin por escalar) o o

(denicin de suma de matrices) o

A = E = (eij )mn , E = F = (fij )mn y ()A = G =

As que, por denicin de multiplicacin de por escalar, para cada i {1, . . . , m} y cada o o fij = eij = ()A= (aij ) = ()aij = gij

Luego (A) = F = G = ()A y en consecuencia (A) = ()A = ()A Por lo tanto (A) = ()A = (A) 8. Hagamos 1 A = E = (eij )mn . As que al usar la denicin de multiplicacin por escalar, o o se tiene que para cada i {1, . . . , m} y cada j {1, . . . , n} eij = 1 aij = aij En consecuencia 1A=E =A

27

UNIDAD II. MATRICES Y DETERMINANTES


2. Para cada matriz A Mmn (R), existe una unica matriz D Mmn (R) tal que A + D =
/ 0mn = D + A, tal matriz D es llamada matriz opuesta de A y se denota por A.

/ Demostracin. La parte 3 del teorema 1.2 garantiza que la matriz nula 0mn satisface que para o / / cada A Mmn (R) se cumple que A + 0mn = A = 0mn +A. Adems, la existencia de la matriz a

D es garantizada en la parte 4 del mismo teorema. Slo faltar probar la unicidad de ambas o a matrices.

1. Supongamos que P Mmn (R) es tal que A + P = A = P + A para cada A Mmn (R), luego

/ P = P + 0mn / = 0mn

(por la parte 3 del teorema 1.2)

(hiptesis) o

2. Sea A Mmn (R) cualquiera. Supongamos que existen D, E Mmn (R) tales que
/ A + D = 0mn = D + A / A + E = 0mn = E + A

(2.1) (2.2)

En consecuencia
/ D = D + 0mn

(teorema 1.2 parte 3)

= D + (A + E) (por la ecuacin 1.2) o = (D + A) + E


/ = 0mn +E

(teorema 1.2 parte 2)

(por la ecuacin 1.1) o

= E

(teorema 1.2 parte 3)

Teorema 2.4. Sean A, B, C Mmn (R) tales que A + B = A + C. Entonces B = C. Demostracin. Hacer como ejercicio. o

28

UNIDAD II. MATRICES Y DETERMINANTES


/ / 2. 0mn = 0mn .

3. (1)A = A.
/ / 4. Si A = 0mn , entonces = 0 A = 0mn . o

Demostracin. o 1. Sabemos que


/ 0 A + 0mn = 0 A (por qu?) e

adems a 0 A = (0 + 0)A = 0 A + 0 A as que


/ 0 A + 0 A = 0 A + 0mn / y por el teorema 1.4, se tiene que 0 A = 0mn

2. Por un lado
/ / 0mn = 0mn + 0 mn

por otro lado


/ / / / / 0mn = (0mn + 0mn ) = 0mn + 0mn

luego
/ / / / 0mn + 0mn = 0mn + 0mn / / y nuevamente, usando el teorema 1.4, tenemos que 0mn = 0mn

/ 3. Basta probar que A + (1)A = 0mn , y por unicidad, obtendr amos el resultado. Veamos

A + (1)A = 1 A + (1)A (teorema 2.2 parte 8) = (1 + (1))A (teorema 2.2 parte 6) = 0A


/ = 0mn

(por la parte 1)

Luego, por unicidad de la matriz opuesta, (1)A = A

29

UNIDAD II. MATRICES Y DETERMINANTES


/ 4. Supongamos que A = 0mn . Si = 0, no hay nada que probar, supongamos entonces que

= 0, as que A = 1 A (teorema 2.2 parte 8) = (1 )A

A =

( A) (teorema 2.2 parte 7)

(por hiptesis) o = 0 Con lo cual, se concluye la prueba. (por la parte 2)

Denicin 2.6. Sean A, B Mmn (R). Deniremos A B = A + (B). o 4 12 0 5 10 6 Ejemplo 2.6. Si A = 6 6

5 3 6 1 11 yB= , entonces 1 2 4 0 5 7 0 1 2 6 1 4 12 0 5 10 6 6 5 3 6 1 11 A B = A + (B) = + 6 1 2 4 0 5 7 0 1 2 6 1 4 12 0 5 10 6 1 2 6 6 6 1 11 12 5 3 6 14 = + = 6 1 2 4 0 5 2 1 3 7 0 1 2 6 1 9 6 2

Producto de Matrices
A diferencia de las dos operaciones denidas en la seccin anterior, la multiplicacin de matrices o o no se dene de manera natural, como veremos luego, no por ello deja de ser importante dicha operacin. o

30

UNIDAD II. MATRICES Y DETERMINANTES


Denicin.2.7. Sean A = (aij)mn Mmn(R) y B = (bjk)np Mnp(R). Deniremos el propara cada i {1, . . . , m} y cada k {1, . . . , p} se tiene que
n

ducto de A por B como la matriz C = (cik)mp Mmp(R), denotada por AB o A B, tal que

cik =
j=1

aij bjk = ai1 b1k + ai2 b2k + + ain bnk

Observacin 2.9Ntese que para poder denir el producto AB, la cantidad de columnas d o o A debe coincidir con la cantidad de las de B, adems, la matriz resultante, es una matriz cuya a cantidad de las coincide con la cantidad de las de A y su cantidad de columnas es igual a la cantidad de columnas de B. 2 1 0 0

Ejemplo 2.7. Sean A =

3 1

yB=

2 1 2 . Entonces 4 2 3

AB = A B 2 3 + (1)2 + 0(4) 2 1 + (1)(1) + 0(2) 2 0 + (1)(2) + 0 3 = 0 3 + 3 2 + 1(4) 0 1 + 3(1) + 1(2) 0 0 + 3(2) + 1 3 = 62+0 2+1+0 0+2+0 0+64 032 06+3 = 4 3 2 2 5 3

Observacin 2.10. Ntese que en el ejemplo anterior, el producto BA no est denido, esto o o a nos dice que el producto de matrices no es conmutativo, ms an, a pesar de que ambos a u productos estn denidos, AB y BA, no necesariamente son ambos del mismo orden, adems, siendo ambos a a productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando AB = BA, se dice que A y B son matrices que conmutan. A continuacin enunciaremos un teorema que expone las principales propiedades del producto o de matrices Teorema 2.6. Sean A Mmn (R); B, C Mnp (R); C Mpq (R) y R. Entonces 1. (AB)D = A(BD) (asociatividad del producto de matrices). 2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).

31

UNIDAD II. MATRICES Y DETERMINANTES


3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices). 4. (AB) = (A)B = A(B) (asociatividad del producto de matrices y la multiplicacin por o escalar). 5. Im A = A = AIn (neutros del producto de matrices).
/ / / / 6. B 0pq = 0nq y 0mn B = 0mp .

Demostracin. Sean A = (aij )mn ; B = (bjk )np ; C = (cjk )np y D = (dkl )pq . o 1. Hagamos AB = E = (eik )mp ; (AB)D = ED = F = (fil )mq ; BD = G = (gjl )nq y A(BD) = AG = H = (hil )mq . Entonces, usando la denicin de producto matricial, para o cada i {1, . . . , m} y cada k {1, . . . , p}
n

eik =
j=1

aij bjk

para cada j {1, . . . , n} y cada l {1, . . . , q}


p

gjl =
k=1

bjk dkl

y para cada i {1, . . . , m} y cada l {1, . . . , q}


p n

fil =
k=1

eik dkl ;

hil =
j=1

aij gjl

Luego
p p n p n n p

fil =
k=1 n

eik dkl =
k=1 p j=1

aij bjk
n

dkl =
k=1 j=1

aij bjk dkl =


j=1 k=1

aij bjk dkl

=
j=1

aij
k=1

bjk dkl

=
j=1

aij gjl = hil

Por lo tanto, usando la denicin de igualdad de matrices o (AB)D = F = H = A(BD)

32

UNIDAD II. MATRICES Y DETERMINANTES


2. Hagamos B + C = E = (ejk )np ; A(B + C) = AE = F = (fik )mp ; AB = G = (gik )mp ; AC = H = (hik )mp y AB + AC = G + H = R = (rik )mp . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , p} n fik = =
j=1 n j=1 n

aij ejk

(denicin de producto de matrices) o

aij (bjk + cjk ) (denicin de suma de matrices) o


n n

=
j=1

(aij bjk + aij cjk ) =


j=1

aij bjk +
j=1

aij cjk

= gik + hik = rik En consecuencia

(denicin de producto de matrices) o

(denicin de suma de matrices) o

A(B + C) = F = R = AB + AC 3. Anlogo a la demostracin de la parte 2. a o 4. Sean AB = E = (eik )mp ; (AB) = (gij )mn y ( A)B = E = F = (fik )mp ; A=G=

GB = H = (hik )mp . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , p} fik = n b (denici aijn o jk
j=1 n

(d nicin de pron por escalar) d multiplicaci ducto de matrices) o e


n

eik

=
j=1 n

(aij bjk ) =
j=1

(aij )bjk

= gij bjk
j=1

(denicin de multiplicacin por escalar) o o

= hik

(denicin de producto de matrices) o

De donde (AB) = F = H = (A)B. De manera anloga se prueba que (AB) = A( a B), as que (AB) = (A)B = A(B)

(2.3)

33

UNIDAD II. MATRICES Y DETERMINANTES

Hagamos AIn = E = (eik )mn . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , n}
n

eik =
j=1

aij jk

(denicin de producto de matrices) o

= ai1 1k + + ai(k1) (k1)k + aik kk + ai(k+1) (k+1)k + + ain nk = ai1 0 + + ai(k1) 0 + aik 1 + ai(k+1) 0 + + ain 0 (por 1.3) = aik Por lo tanto AIn = E = A, anlogamente puede probarse que Im A = A, en consecuencia a AIn = A = Im A

Ejercicio 2.1. Pruebe que si A Mmn (R) y B Mnp (R), entonces 1. AB = AB (1) AB (2) AB (p) (desarrollo por columnas del producto AB), es decir,

la k-sima columna de AB, que es (AB)(k) , es igual a A por la k-sima columna de B, e e AB (k) , para cada k {1, . . . , p}. A(1) B

2. AB =

A(2) B (desarrollo por las del producto AB), es decir, la i-sima la de AB, e . . A(m) B que es (AB)(i) , es igual a la i-sima la de A por B, A(i) B, para cada i {1, . . . , m}. e

Denicin 2.8. Una matriz N Mnn (R) es llamada nilpotente si existe p N tal que o
/ / N p = 0n , adems, si p es tal que N p1 = 0n , diremos que N es nilpotente de orden p. a

34

UNIDAD II. MATRICES Y DETERMINANTES


Observacin 2.11. La matriz nula de orden n es nilpotente y conveninos en que es nilpotente o de orden 0. Ejemplo 2.8. Las siguientes matrices son nilpotentes 1 1 0 0 0 1 0 0

N1 =

1 0 1 0 1 0 1 0 1 0 1 0

N2 =

0 0 1 0 0 0 0 1 0 0 0 0

N1 es de orden 3 y N2 es de orden 4 (Probarlo como ejercicio)

Transposicin de Matrices o
Denicin 2.9. Sea A = (aij )mn Mmn (R). Deniremos la transpuesta o traspuesta de o A como la matriz AT = (bji )nm Mnm (R) tal que bji = aij Ejemplo 2.9. Sea

para cada i {1, . . . , m} 2 5 0

y cada j {1, . . . , n} 7

Entonces

A=

1 6 5 12 2 9 3 0 2 5 0 3 5 0 12

AT =

1 2 7 6 9

Observacin 2.12. Ntese que las las de A pasan a ser las columnas de AT y las columnas o o de A pasan a ser las las de AT , ms propiamente a A(i) A(j)
T

= AT = AT

(i)

para cada i {1, . . . , m} para cada j {1, . . . , n}

(j)

Teorema 2.7. Sean A, B Mmn (R), C Mnp (R) y R. Entonces

35

UNIDAD II. MATRICES Y DETERMINANTES


1. AT
T

= A (propiedad de involucin de la transposicin de matrices) o o

2. (A + B)T = AT + B T (transpuesta de la suma) 3. (A)T = AT (transpuesta de la multiplicacin por escalar) o 4. (AC)T = C T AT (transpuesta del producto matricial)
/ / 5. (In )T = In y (0mn )T = 0nm

Demostracin. Sean A = (aij )mn ; B = (bij )mn y C = (cjk )np . o 1. Hagamos AT = D = (dji)nm y AT
T

= D T = E = (eij )mn . Entonces, para cada

i {1, . . . , m} y cada j {1, . . . , n}, por denicin de transpuesta o eij = dji = aij Luego AT
T

=E=A

2. Sean A + B = D = (dij )mn ; (A + B)T = D T = E = (eji)nm ; AT = F = (fji )nm ; B T = G = (gji)nm y AT +B T = F +G = H = (hji )nm . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n} eji = dij (denicin de transpuesta) o (denicin de suma de matrices) o (denicin de transpuesta) o

= aij + bij = fji + gji = hji Por lo tanto

(denicin de suma de matrices) o

(A + B)T = E = H = AT + B T 3. Hagamos A = D = (dij )mn ; (A)T = D T = E = (eji )nm ; AT = F = (fji )nm ; y AT = F = G = (gji)nm . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n} eji = dij = aij = fji = gji (denicin de transpuesta) o (denicin de multiplicacin por escalar) o o (denicin de transpuesta) o (denicin de multiplicacin por escalar) o o

36

UNIDAD II. MATRICES Y DETERMINANTES


As que (A)T = E = G = AT 4. Sean AC = D = (dik )mp ; (AC)T = D T = E = (eki )pm ; C T = F = (fkj )pn ; AT = G = (gji)nm y C T AT = F G = H = (hki )pm . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , p} eki = dik
n

(denicin de transpuesta) o aij cjk (denicin de producto) o (denicin de transpuesta) o (denicin de producto) o

=
j=1 n

=
j=1 n

gjifkj

=
j=1

fkj gji = hki

De donde (AC)T = E = H = C T AT Denicin 2.10. Sea A Mnn (R). Diremos que o 1. A es simtrica si AT = A. e 2. A es antisimtrica si AT = A. e Ejemplo 2.10. 1. In es simtrica para todo n N. e
/ 2. 0n es simtrica y antisimtrica para todo n N existe alguna otra matriz que sea simtrica e e e

y antisimtrica simultneamente? e a

3. La matriz

A= 0 5 0 4 7 6 0

5 7

6 8 12

8 12 0

37

UNIDAD II. MATRICES Y DETERMINANTES


es antisimtrica pues e

0 5 7 5 6 0 8 7 4

6 8

AT =

4. La matriz

0 12 12 0 3 0 0 13

= A

A=

9 0

5 9 3 1

2 1

13 3 0

es simtrica ya que e

AT =

7 7 3 0 13 =A 7

5 9 3 1 0

2 1

13

7 3

Teorema 2.8. Sea A Mnn (R). Entonces 1. A es simtrica si y slo si aij = aji para cualesquiera i, j {1, . . . , n}. e o 2. A es antisimtrica si y slo si aij = aji para cualesquiera i, j {1, . . . , e o n}. 3. Si A es antisimtrica, entonces aii = 0 para cualquiera i {1, . . . , n}. e Demostracin. Ejercicio! o

2.4 Operaciones Elementales por Filas.Escalonamiento de una matriz.


Las operaciones elementales por las son herramientas usadas con mucha frecuencia en la resolucin de los sistemas de ecuaciones lineales al igual que en clculo de la inversa o a de una matriz cuadrada. Estas operaciones las usaremos a lo largo de todo el curso, por ello deben ser manejadas con la mayor perfeccin posible por parte del estudiante que desee aprender o la materia. Comencemos por denir dichas operaciones. Denotemos por Fm (R) el conjunto formado por todas las matrices reales con m las.

38

UNIDAD II. MATRICES Y DETERMINANTES


Denicin 2.11. Una operacin elemental por las (OEF) es una funcin f : Fm (R) o o o Fm (R) la cual es de uno de los siguientes tipos

OEF Tipo 1. Si f (A) = B, entonces existen s {1, . . . , m} y = 0 tales que B(i) = A(i) para cada i {1, . . . , m}, con i = s, y adems B(s) = A(s) , esto es, una de las a las

de A es multiplicada por un escalar no nulo y el resto de las las permanecen iguales. A(1) A(1) . . . A(s1) A(s1) f (A) = f = =B A(s) A(s) A(s+1) . . A(m) A(s+1) . A(m)

Por comodidad, en lugar de escribir B = f (A), escribiremos A

Fs Fs

B.

OEF Tipo 2. Si f (A) = B, entonces existen s, t {1, . . . , m}, con s = t, y R tales que B(i) = A(i) para cada i {1, . . . , m}, con i = s, y adems B(s) = A(s) + A(t) , a es decir, a una la de A le sumamos un mltiplo escalar de alguna otra la de A, u distinta de la primera, dejando el resto de las las intactas. A(1) . A(s1) A(s) A(s+1) . . A(m) A(1) . A(s1) A(s) + A(t) A(s+1) . . A(m)

f (A) = f

=B

Al igual que antes, en lugar de escribir B = f (A), escribiremos A

Fs Fs + Ft

B.

OEF Tipo 3. Si f (A) = B, entonces existen s, t {1, . . . , m} tales que B(i) = A(i) para otra manera, intercambiamos dos las de A y dejamos el resto sin alterar.

cada i {1, . . . , m}, con i = s e i = t y adems B(s) = A(t) y B(t) = A(s) , dicho de a

39

UNIDAD II. MATRICES Y DETERMINANTES


A(1) . .

A(1) .

A(s+1) A(s+1) . . f (A) = f = =B . . A(t1) A(t1) A(t) A(t+1) . . A(m) A(t+1) . A(m) A(s)

A(s1) A(s)

A(s1) A(t)

Nuevamente, en lugar de escribir B = f (A), escribiremos A

Fs Ft

B.

Observacin 1.1.3. Ntese que si A Mmn (R) y f : Fm (R) Fm (R) es una OEF, o o entonces f (A) Mmn (R). Ejercicio 2.1.3. Pruebe que toda OEF f : Fm (R) Fm (R) es una funcin invertible y que o su inversa f 1 : Fm (R) Fm (R) es tambin una OEF del mismo tipo que f . e 2 4 5 Ejemplo 2.1.1. Sea 6 3 4 A= Entonces 2 4 3 5 6 2 1 8 21 15 8 4

F1 F3 6 A= 2 1 8 (OEF 3) 2 6 21 15 6 2 1 8 6 4 F3 F3 + F1 (OEF 2) 6 0 2 3 3 7 5 4 =B 3

2 1

F4 1 F4 6 3 4 5 (OEF 1) 2 21 15 2 3

2 1

8 4

4 5 7 5

40

UNIDAD II. MATRICES Y DETERMINANTES

Observacin 2.14. Se pueden aplicar ms de dos operaciones por las en un solo paso, lo nico que debemos cuidar es no transformar, en el mismo paso, una la ms de una vez y no transformar, en el mismo paso, una la que va ser usada para transformar a otra(s). Observacin 2.15. De manera anloga a como se denieron las operaciones elementales por las, pueden denirse operaciones elementales por columnas (OEC), sin embargo, estas ltimas slo se usarn para el clculo de determinantes y no para la resolucin de sistemas de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos ltimos dos problemas slo usaremos las operaciones elementales por las. Denicin 2.12. Sea A = (aij )mn Mmn (R). Diremos que A es una matriz o Escalonada 1. Si todas las las nulas de A, si las hay, estan ubicadas en las timas posiciones, esto es, si A(i) es una la no nula de A, entonces A(s) tambin es no nula para cada 1 s < i. 2. Si A(i) y A(i+1) son dos las no nulas de A, entonces la primera componente no nula de A(i) (contada de izquierda a derecha) est mas a la izquierda de la primera componente no nula de A(i+1), es decir, si j, k {1, . . . , n} son tales que aij = 0; a(i+1)k = 0 y ais = 0 = a(i+1)t para cada 1 s < j y cada 1 t < k, entonces j < k. Reducida por Filas (RF) 1. Si A(i) es una la no nula de A, entonces la primera componente no nula de A(i) es igual a 1 (uno), dicha componente es llamada pivote, es decir, si j {1, . . . , n} es tal que aij = 0 y ais = 0 para cada 1 s < j, entonces aij = 1. 2. Si A(j) es una columna de A que tiene un pivote, entonces el resto de las componentes de A(j) son iguales a 0 (cero), esto es, si i {1, . . . , m} es tal que aij = 1 y ais = 0 para cada 1 s < j, entonces akj = 0 para cada k {1, . . . , m} con k = i.

Escalonada Reducida por Filas (ERF) si es escalonada y reducida por las simultnea a mente. Ejemplo 2.12.

41

UNIDAD II. MATRICES Y DETERMINANTES


1. Para cualesquiera 2 1 3 0 5 1 2. E = 0 0 0 0 0 0 1 0 0 0 0 0 3. R = 0 0 0 1 0 1 0
/ m, n Z+ , In y 0mn son matrices escalonadas reducidas por las. 8 3 6 4 es escalonada pero no es reducida por las. 8 7 0 0 7

0 1 9 es reducida por las pero no es escalonada. 0 0 6 1 0 5 0 1 8 3 0 1 0 1 2 0 0 0 0 0 0

4. F =

0 0 0 0 0 0

es escalonada reducida por las.

Ejercicio 2.4. Sea A Mmn (R). Pruebe que: 1. Si A es una matriz escalonada, entonces la cantidad de las no nulas de A es, a lo sumo, el m nimo entre m y n. 2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mnimo entre m y n. Ejercicio 2.5. Pruebe que si A Mnn (R) es una matriz escalonada, entonces A es triangular superior. Denicin 2.13. Sean A, B Mmn (R). Diremos que B es equivalente por las a A si o

existen OEF f1 , f2 , . . . , fr : Fm (R) Fm (R) tales que B = (f1 f2 fr )(A)

Ejemplo 2.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente por las a A (por qu?). e Teorema 2.9. Sean A, B, C Mmn (R). Tenemos que

42

UNIDAD II. MATRICES Y DETERMINANTES


1. A es equivalente por las a A. 2. Si B es equivalente por las a A, entonces A es equivalente por las a B. 3. Si C es equivalente por las a B y B es equivalente por las a A, entonces C es equivalente por las a A. Demostracin. Ejercicio! o

Observacin 2.16. La parte 2 del teorema 2.9, nos permite decir A y B son equivalentes por o las en lugar de B es equivalente por las a A A es equivalente por las a B. o Teorema 2.10. Toda matriz A Mmn (R) es equivalente por las a 1. Una matriz escalonada. 2. Una matriz reducida por las. 3. Una unica matriz escalonada reducida por las, la cual llamaremos la forma escalonada reducida por las (FERF) de A. Demostracin. o

Observacin 2.17. A Mnn (R) es equivalente por las a In si y slo si In es la FERF de A. o o El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz. Ejemplo 2.14. Hallar la FERF de 1 7 6 1 15 0 0 3 9 2 0 13 2 1 3 3 9 10

A=

1 11

Solucin. o 6 1 15 2 13

A=

0 1 0 3 7

1 11

2 1 3 F1 F2 9 0 9 3 10

6 1 15 0 3 7 9

2 1 3 2 3 0

1 11

13 9 10

43

UNIDAD II. MATRICES Y DETERMINANTES


1 0 2 1 3 1 0 2 1 3

F1 F1

F2 F2

F2 F2 6F1 0 1 3 4 5 6 1 15 2 13 0 9 0 3 9 0 9 F4 F4 7F1 0 3 9 7 1 11 3 10 0 1 3 4 11 1 0 2 1 3 1 0 2 1 3 1 3 0 0 3 9 0 1 4 5

F3

1 F 12 3

As que la FERF de A es

0 0 0

F3 F3 + 3F2 0 1 3 4 5 0 9 F4 F4 F2 0 0 0 12 24 1 3 4 11 0 0 0 8 16 0 2 1 3 1 0 2 0 1 F1 F1 F3 1 3 4 5 0 1 3 0 3 F2 F2 4F3 0 0 1 2 0 1 2 F F + 8F 0 0 4 4 3 0 0 8 16 0 0 0 0 0

C=

0 1 0 0 0 0

1 0 2 0

3 0 3 0 1 2 0 0 0

Denicin 2.14. Una matriz E Mnn (R) es llamada matriz elemental si existe una OEF o f : Fn (R) Fn (R) tal que E = f (In ), es decir, E se obtiene de In por medio de una unica OEF. Ejemplo 1.15. 1 0 1. E1 = 5 0 1 0 I4 =

0 0 0

1 0 0 0 1 0 0 0 1 0 0

es elemental, pues

0 1 0 0 0 1 0 0 F3 F3 5F1 = E1 5 0 1 0 0 0 1 0 0 0 0 1 0 0 0 1

1 0 0 0

44

.UNIDAD II. MATRICES Y DETERMINANTES 1 0 0

2. E2 = 0 0 1 I3 = 0 0 1 0 3. E3 = 0 0 0 1 0

4 0 es elemental, ya que 0 1 0 0 1 0 0 1 0 F2 4F2 0 4 0 = E2 0 1 0 0 1 0 0 0 0 0 0 0 1 0 1 0 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0 0 es elemental, dado que

I5 =

0 0 1 0 0 F2 F5 0 0 1 0 0 = E3 0 0 0 1 0 0 0 0 1 0 0 0 0 0 1 0 1 0 0 0

0 0 0 0 1

1 0 0 0 0

Teorema 2.11. Sean A Mmn (R), B Mnp (R) y f : Fm (R) Fm (R) una OEF. Entonces 1. f (AB) = f (A)B. 2. (f (A))(j) = f A(j) para cada j {1, . . . , n} de donde f (A) = f A(1) f A(2) f A(n) es decir, la la j-sima de f (A) es igual a f aplicada a la j-sima la de A. e e

2.5. Inversa de una matriz


Otra consecuencia del mismo teorema, en conjuncin con el corolario anterior, o es la siguiente. Corolario 2.13. Sean A, B Mmn (R) dos matrices equivalentes por las. Entonces existen matrices elementales E1 , E2 , . . . , Er Mmm (R) tales que B = E1 E2 Er A

45

/ As que la unica solucin del sistema homogneo Bx = 0n1 es la trivial, y en virtud del teorema o e

1.22, B es invertible. Adems a A = AIn (teorema 1.6 parte 5)

= A(BB 1 ) (denicin de matriz inversa) o = (AB)B 1 = In B 1 = B 1 (teorema 1.6 parte 1)

(por hiptesis) o (teorema 1.6 parte 5)

Por lo tanto BA = In (denicin de inversa) y como consecuencia de la parte 1 del teorema 3.20 o A1 = (B 1 )1 = B.

Observacin 3.22. El teorema 1.23 nos permite garantizar que A1 = B slo con probar que o o AB = In BA = In . o Ejercicio 3.7. Sean A, B Mnn (R). Pruebe que si AB es invertible, entonces A y B tambin e son invertibles

2.6.

Definicin de determinante de una matriz

En esta seccin trataremos los determinantes y algunas de sus propiedades, en primer lugar o deniremos los determinantes de orden 2, continuando luego con los determinantes de orden 3, para nalmente denir los determinantes de orden n. Denicin 2.17. Sea A = o a11 a12 M22 (R). Deniremos el determinante de A, como

a21 a22 el nmero real det(A) = |A|, dado por u det(A) = |A| =

a11 a12 a21 a22

= a11 a22 a12 a21

este tipo de determinante se suele llamar determinante de orden 2. Ejemplo 2.22. Hallar det(A) para A = 6 5 7 6

46

UNIDAD II. MATRICES Y DETERMINANTES


6 5 7 6

Solucin. det(A) = o

= (6)6 5(7) = 36 + 35 = 1

Ejercicio 2.8. Pruebe que A =

a11 a12 a21 a22

M22 (R) es invertible si y slo si det(A) = 0. o 1 det(A) a22 a12 a11

Adems, si A es invertible, entonces A1 = a Denicin 2.18. Dada la matriz o

a21

Deniremos el determinante de A, denotado por det(A) |A|, como o a11 a12 a13 det(A) = |A| = a21 a22 a23 a31 a32 a33 = a11 a22 a23 a32 a33 a12 a21 a23 a31 a33 + a13 a21 a22 a31 a32

A = a21 a22 a23 M33 (R) a31 a32 a33

a11 a12 a13

este tipo de determinante es llamado determinante de orden 3. Observacin 2.23. Ntese que estamos deniendo el determinante de orden 3 en funcin de o o o determinantes de orden 2. Ejemplo 2.23. Hallar det(A) para A = 6 7 2 3 1 1 0 2 3 1 1 0 5 6

Solucin. o

det(A) = |A| =

6 7

5 6

= 2

1 5 0 6

(3)

6 5 7 6

+ (1)

6 1 7 0

= 2(6 0) + 3(36 + 35) (0 + 7) = 2

47

UNIDAD II. MATRICES Y DETERMINANTES


Observacin 2.24. Una forma muy sencilla recordar la frmula de determinantes de orden 3 o o es la siguiente a11 a21 a31 a12 a22 a32 a13 a23 a33 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 a13 a22 a31 a23 a32 a11 a33 a12 a21

a11 a21

a12 a22

a13 a23

Los productos generados por las echas rojas () se colocan con signo positivo, los que son generados por las echas azules () se colocan con signo negativo. Puede vericar que la igualdad anterior es cierta. Tambin se puede hacer el clculo si en lugar e a de colocar las dos primeras las al nal, se colocan las dos ultimas las en la parte superior, las dos primeras columnas a la derecha o las dos ultimas columnas a la izquierda. Este mtodo se conoce como la mtodo de Sarrus para el clculo de determinantes de orden e e a 3 y slo es aplicable a determinantes de orden 3. o Ejemplo 2.24. Calculemos el determinante del ejemplo 2.23 usando este mtodo. e Solucin. o 2 3 1 1 0

no es parte del determinante, es slo para o ayudar a recordar la frmula o

6 7 6 6 7

5 6

= 2 1 6 + (6)0(1) + (7)(3)5 (1)1(7) 5 0 2 6(3)(6)

2 3 1 1

2 3 1 1 0

5 6

= 12 + 0 + 105 7 0 108 = 2

Compare este resultado con el obtenido en el ejemplo 2.23.

48

UNIDAD II. MATRICES Y DETERMINANTES

2.7. Propiedades de los determinantes.


A Denicin 2.19. Sea A = Mnn (R). Para cada i, j {1, . . . , n} denamos la matriz Mij o

M(n1)(n1) (R) que se obtiene de A al eliminar su i-sima la y su j-sima columna, dicha e e

matriz es llamada ij-simo menor de A. e Observacin 2.25. Si en lugar de eliminar una la y una columna de A, eliminamos dos las o y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A estas matrices se denotan por Mij,kl , lo que signica que se han eliminado las las i e j

(con i = j) y las columnas k y l (con k = l) de A. De manera anloga se pueden denir a menores de A Mnn (R) hasta de orden n 1.
A A A A Observacin 2.26. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l {1, . . . , o

n} con i = j y k = l.

Ejemplo 2.25. Consideremos la matriz 9 2 1 A=


A A A Hallar M23 ; M42 y M22 .

0 8 5 1 6

4 1

7 3 6 0 3

Solucin. o A M23 = 1 6 6 ; 4 1 3 9 2 4 A M42 = 9 1 0 5 1 7 3 6 4 A y M22 = 9 1 1 4 3 6 0 3 4

Denicin 2.20. Sea A Mnn (R). Para cada i, j {1, . . . , n} deniremos el ij-simo coo e
A factor de A como el nmero real Cij dado por u Ejemplo 2.26. Para la matriz del ejemplo 2.25 se tiene que A A Cij = (1)i+j det Mij

49

UNIDAD II. MATRICES Y DETERMINANTES

A C23

= (1)

2+3

det

A M23

9 2 4 1

4 = (162 + 4 + 48 + 96 54 6) = 74 3 4 7 = 270 + 0 7 + 20 + 189 0 = 68

1 6 6

A C42

= (1)

4+2

det

A M42

9 1 0 5 1

3 6 4 = 81 + 0 24 + 48 0 + 3 = 54 3 3 6 0

A C22

= (1)

2+2

det

A M22

9 1 1 4

Pasemos ahora a denir los determinantes de orden n. En primer lugar notemos que la frmula o dada en la denicin 2.18 puede ser escrita como o
A A A det(A) = |A| = a11 C11 + a12 C12 + a13 C13

La idea es generalizar esta frmula para una matriz A de orden n. o Denicin 2.21. Sea A Mnn (R). Deniremos el determinante de A, determinante de o orden n, como el nmero real det(A) = |A| dado por u a21 a22 a2n det(A) = |A| = . . .. . = . . . . an1 an2 ann Ejemplo 2.27. Hallar el determinante de la matriz del ejemplo 2.25 Solucin. o 9 2 1 det(A) = |A| = 0 8 5 1 6 4 1 4 7 3 a11 a12 a1n
n A a1j C1j j=1 n

=
j=1

A a1j (1)1+j det M1j

3 6 0

A A A = (9)(1)1+1 det M11 + 2(1)1+2 det M12 + (1)(1)1+3 det M13 A +4(1)1+4 det M14

50

UNIDAD II. MATRICES Y DETERMINANTES


8 5 1 7 3 0 5 1 4 7 3 0 8 4 1 7 3 0 8 5 1 6 4 1

det(A) = 9 6

3 6 2 0

3 6 0

1 6 6 4

3 0

= 9(72 + 0 + 30 21 0 + 90) 2(0 + 0 120 + 84 0 + 15) = 1539 + 42 343 + 884 = 956

(0 + 7 + 192 + 168 0 24) 4(0 5 96 120 0 0)

Ejemplo 2.28. Calcular el determinante de la matriz 2 0 0 0 12 1 0 A= 3 9 5 8 0 3 6 7 0 7 1

0 0 0

Solucin. Notemos primero que A es triangular inferior. o 2 12 det(A) = |A| = 3 9 0 1 0 0 0 0 0 0 0 0 0

0 0 6

5 8

0 3 6 7

7 1

A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15 A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15

0 6

1 = 2 8

0 0

0 0 0

0 3 6 7

7 1

0 6

51

UNIDAD II. MATRICES Y DETERMINANTES


3 7 0 0 0 + 0(1)
1+2

det(A) = 2 1(1)1+1

0 6

0 0

7 1

0 6 8 0 3 0 7

8 1

0 6 8 0 3 0

+0(1)

1+3

0 + 0(1)

1+4

6 7 6

= 21

3 7

0 0

7 1 6 7 0

7 1

0 6 1 0 0 6 + 0(1)1+2 7 0 7 6 + 0(1)1+3 7 7 1 0

= 2 1 (3)(1)1+1 = 2 1(3) 1 0

= 2 1(3)(1)(6) = 36 El determinante de A es el producto de las componentes de la diagonal principal. Este resultado se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.

0 6

= 2 1(3)((1)(6) 0 0)

La demostracin del teorema que enunciaremos a continuacin escapa del objetivo del curso, o o sin embargo, de l se derivan el resto de las propiedades que sern enunciadas ms adelante, en e a a el apndice D se puede encontrar una demostracin de este. e o Teorema 2.24. Si A = (aij )nn Mnn (R), entonces
n n A aij Cij = j=1 j=1 A aij (1)i+j det Mij para cada i {1, . . . , n} (Desarrollo del

1. det(A) =

determinante de A mediante la la i-sima). e


n n A aij Cij = i=1 i=1 A aij (1)i+j det Mij para cada j {1, . . . , n} (Desarrollo del

2. det(A) =

determinante de A mediante la columna j-sima). e

52

UNIDAD II. MATRICES Y DETERMINANTES


Ejemplo 2.29. Calcular el determinante de la matriz A del ejemplo 1.23 al desarrollar el de terminante mediante la tercera la y mediante la segunda columna. Solucin. En primer lugar hallemos el determinante de A desarrollndolo mediante la tercera o a la. 2 3 1 1 0

det(A) = |A| =

6 7

5 6 + 0(1)3+2 2 1 + 6(1)3+3 2 3

= 7(1)3+1

3 1 1

= 7(15 + 1) + 0 + 6(2 18) = 2

Ahora desarrollemos el determinante de A mediante la segunda columna. 2 3 1 1 0

det(A) = |A| =

6 7

5 6

= 3(1)1+2

6 5 7 6

+ 1(1)2+2

= 3(36 + 35) + (12 7) + 0 = 2

2 1

+ 0(1)3+2

2 1

Teorema 2.25. Si A Mnn (R), entonces det AT = det(A). Demostracin. (Ejercicio) o Sugerencia: proceder por induccin sobre n y usar el teorema 1.24 o

Teorema 2.26. Si A = (aij )nn Mnn (R) una matriz triangular (superior o inferior), entonces det(A) = a11 a22 ann . Demostracin. Procedamos por induccin sobre n. Supongamos, sin perder generalidad que o o A es una matriz triangular superior. Veriquemos que la tesis se cumple para n = 2. Sea A= a11 a12 0 a22

53

UNIDAD II. MATRICES Y DETERMINANTES


Entonces det(A) = a11 a22 a12 0 = a11 a22 matriz triangular superior A = (aij )(n1)(n1) M(n1)(n1) (R) se cumple que det(A) = a11 a22 a(n1)(n1) (Hiptesis Inductiva). o Probemos ahora que se cumple para n. Sea a11 a12 A= 0 . . 0 0 Supongamos ahora que la tesis se cumple para n 1, esto es, supongamos que para cualquier

a1n

a22 .. .. . .

Entonces, al desarrollar el determinante de A mediante la la n, obtenemos

a2n . . ann

A A A A A det(A) = 0 Cn1 + + 0 Cn(n1) + ann Cnn = ann (1)n+n det(Mnn ) = ann det Mnn

Pero a11 a12 a1(n1) a2(n1) . a(n1)(n1)

A Mnn =

A es decir, Mnn es una matriz triangular superior de orden (n1), por lo tanto, usando la Hiptesis o A Inductiva, se tiene que det Mnn = a11 a22 a(n1)(n1) . Luego

0 . . 0

a22 .. .. . . 0

det(A) = ann a11 a22 a(n1)(n1) = a11 a22 a(n1)(n1) ann Lo cual concluye la prueba.

Los teoremas que enunciaremos a continuacin, nos presentan las propiedades bsicas del o a determinante, estas propiedades nos permitirn hallar el determinante de una matriz sin hacer a demasiados clculos. Los enunciados de estas propiedades se darn slo para las, sin embargo, a a o en virtud del teorema 1.25, se pueden enunciar propiedades anlogas para columnas. a
/ Teorema 2.27. Sea A Mnn (R). Si existe s {1, . . . , n} tal que A(s) = 01n , entonces

det(A) = 0, es decir, si A tiene una la nula, su determinante es cero.

54

UNIDAD II. MATRICES Y DETERMINANTES


/ Demostracin. Sea A = (aij )nn . Como A(s) = 01n , entonces asj = 0 para cada j {1, . . . , n}. o

As que, al desarrollar el determinante de A por medio de la la s, se tiene que


n n A asj Csj j=1

det(A) =

=
j=1

A 0 Csj = 0

Teorema 2.28. Sean A, B Mnn(R) y R. Si existe s {1, . . . , n} tal que B(s) = A(s) y escalar , entonces el determinante de la matriz resultante es igual al determinante de A multiplicado por . Demostracin. Sean A = (aij )nn y B = (bij )nn . Como B(s) = A(s) y B(i) = A(i) para i = s, o

B(i) = A(i) para i = s, entonces det(B) = det(A), esto es, si multiplicamos una la de A por un

A B la s de B coincide con la matriz que se obtiene al eliminar la la s de A. Luego Msj = Msj para

entonces bsj = asj para cada j {1, . . . , n} y adems, la matriz que se obtiene al eliminar la a

cada j {1, . . . , n} (por qu?). e Por lo tanto


B B A A Csj = (1)s+j det(Msj ) = (1)s+j det(Msj ) = Csj

para cada j {1, . . . , n}.

As al desarrollar el determinante de B por medio de la la s, obtenemos ,


n n B bsj Csj j=1 n A asj Csj j=1

det(B) =

=
j=1

A asj Csj = det(A)

Ejemplo 2.30. Sea

Entonces 2 det(A) = 2 1 2

A = 12 16 4 2 0 3 2 = 2 1 2 = 4 3 2 1 2 2 3 4 1 0 3

1 2

12 16 4

0 3

4 3 4(4) 4 1 0

= 4[2(4)3 + 3 0 2 + (2)(1)1 2(4)(2) 1 0 2 3(1)3] = 4[24 + 0 + 2 16 0 + 9] = 4(29) = 116

55

UNIDAD II. MATRICES Y DETERMINANTES


Teorema 2.29. Sean A, B, C Mnn(R). Si existe s {1, . . . , n} tal que C(s) = A(s) + B(s) y C(i) tres matrices A, B, C cuyas las son identicas excepto la la s, y que la la s de C es igual a la suma de la la s de A con la la s de B, entonces el determinante de C es igual a la suma del determinante de A con el determinante de B. Demostracin. Sean A = (aij )nn , B = (bij )nn y C = (cij )nn . Sean A, B, C Mnn (R). o Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces csj = asj + bsj para cada
A B C iguales, as que Msj = Msj = Msj para cada j {1, . . . , n}.

= B(i) = A(i) para i = s, entonces det(C) = det(A) + det(B), dicho de otra manera, si tenemos

j {1, . . . , n} y adems, las matrices que se obtienen al eliminar la la s de A, B y C son a Por lo tanto

C B A Csj = Csj = Csj

para cada j {1, . . . , n} (por qu?). e En consecuencia


n n C csj Csj j=1 n n n C asj Csj j=1

det(C) = =
j=1

=
j=1 n

(asj +

C bsj )Csj

+
j=1

C bsj Csj

A asj Csj + j=1

B bsj Csj = det(A) + det(B)

Ejemplo2.31. Sea A la matriz del ejemplo 1.30. Entonces 2 det(A) = 2 1 2 4 + (2) = 1 + (3) 1 2 0 3 4 = 1 1 2 2 3 1 2

12 16 4

0 3

6 + 6 16 4

6 16 4 + 0 3

6 16 4

0 3

= [4(16)3 + 6 0 2 + 1(1)4 2(16)1 4 0 4 3(1)6] + = [192 + 0 4 + 32 0 + 18] + [96 + 0 + 12 96 0 + 18] = 146 + 30 = 116

[2(16)3 + 6 0 2 + (3)(1)4 2(16)(3) 4 0(2) 3(1)6]

Teorema 2.30. Sean A, B Mnn(R). Si existen s, t {1, . . . , n} tales que s = t, B(s) = A(t), intercambiamos dos las distintas de A, el determinante de la matriz resultante es igual al determinante de A multiplicado por 1.

B(t) = A(s) y B(i) = A(i) para i = s y i = t, entonces det(B) = det(A), en otras palabras, si

56

UNIDAD II. MATRICES Y DETERMINANTES


Demostracin. Ejercicio o

Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las la 2 de B es igual a la la 2 de A. Adems a 2 det(B) = 3 1 2 12

Ejemplo 2.32. Sea A la matriz del ejemplo 2.30 y sea 2 1 2 B = 4 16 12 3 0 2

4 16

= 2(16)(2) + 4 0 2 + 3(1)12 2(16)3 12 0 2 (2)(1)4 = 64 + 0 36 + 96 0 8 = 116 = det(A)

0 2

Teorema 2.31. Sea A Mnn (R). Si existen s, t {1, . . . , n} tales que s = t y A(s) = A(t) , entonces det(A) = 0, es decir, si A tiene dos las iguales, su determinante es igual a cero. Demostracin. Sea B Mnn (R) la matriz que se obtiene al intercambiar las las s y t de A. o Como A(s) = A(t) , entonces B = A y as det(B) = det(A). Por otro lado, dado que s = t y seg n el teorema 1.30, det(B) = u

det(A). As que det(A) = det(B) = det(A) y en consecuencia det(A) = 0.

Ejemplo 2.33. Sea

2 2

4 16 Entonces 2 det(A) = 2 4 16 1 2 1 2 A=

1 2

12 1 2

12

= 2(16)(2) + 4(1)(2) + 2(1)12 (2)(16)2 12(1)2 (2)(1)4 = 64 + 8 24 64 + 24 8 = 0

57

UNIDAD II. MATRICES Y DETERMINANTES

Teorema 2.32. Sean A Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s = t y A(s) = A(t) , entonces det(A) = 0, esto es, si una la de A es un mltiplo escalar de alguna otra u la de A, su determinante es igual a cero. Demostracin. Sea B Mnn (R) tal que B(i) = A(i) para cada i {1, . . . , n} con i = s y o Por otro lado, como A(s) = A(t) = B(t) = B(s) , entonces, usando el teorema 2.28, se tiene que det(A) = det(B) = 0 = 0.

B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 2.31, se tiene que det(B) = 0.

Ejemplo 2.34. Sea

Entonces la columna A(2) = 4A(1) , adems a 2 det(A) = 3 8 2 1

4 16 1 A= 3 12 2

4 16

= 2(16)(2) + (4)12 2 + 3 8 1 2(16)3 1 12 2 (2)8(4) = 64 96 + 24 + 96 24 64 = 0

12 2

= A(s) + A(t) y B(i) = A(i) para i = s, entonces det(B) = det(A), dicho de otra forma, si a una la de A le sumamos un multiplo escalar de alguna otra la de A, el determinante de la matriz resultante es igual al determinante de A. Demostracin. Sea C Mnn (R) tal que C(i) = B(i) = A(i) para i = s y C( s) = A(t) . Por lo o tanto, dado que s = t y en virtud del teorema 1.32, det(C) = 0. Adems, como B(s) = A(s) + A(t) = A(s) + C(s) y en virtud del teorema 1.29 a det(B) = det(A) + det(C) = det(A) + 0 = det(A)

Teorema 2.33. Sean A, B Mnn(R) y R. Si existen s, t {1, . . . , n} tales que s = t, B(s)

58

UNIDAD II. MATRICES Y DETERMINANTES


Ejemplo 2.35. Sea A la matriz del ejemplo 2.30 y sea 2 1 2 B = 2 9 10 2 0 3 As que B(2) = A(2) 7A(1) (verifquelo!). Adems a det(B) = 2 9 10 2 0 2 1 2 3

= 2(9)3 + (2)0 2 + (2)(1)(10) 2(9)(2) (10)0 2 3(1)(2) = 54 + 0 20 36 0 6 = 116 = det(A)

El siguiente ejemplo nos da un mtodo para calcular el determinante de una matriz A haciendo e uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el clculo resulta a mucho ms sencillo que al usar la denicin. a o Como se dijo en la observacin 1.15, usaremos tanto OEF como operaciones elementales por o columnas (OEC) para el clculo de determinantes, estas operaciones las indicaremos de manera a anloga a las OEF, salvo que en lugar de usar F usaremos C. a Ejemplo 2.36. Hallar el determinante de la matriz 6 1 2 13 A= 1 2 0 3 = 7 0 3 0 3 4 1

2 0

0 1 3 1 9 12

0 2

Solucin. o 6 1 0 3 7 0 2 2 0 4 13 9

3 1 3 2 0 10 0 2 0 3 C4 C4 + 3C2 1.2.33

det(A) =

0 1 3 1 1 3 12

6 1 0 3 7 0 2

0 1 3 1 1 3 15

por teorema 2.33

1 3

4 5 3

59

UNIDAD II. MATRICES Y DETERMINANTES


6 det(A) = 3(1)3+2 7 0 2 3 10 15 2 desarrollando el determinante mediante la tercera la 3

1 1 3 1 4 5 3

= 3

1 1 3 1 F3 F3 + 7F2 0 4 6 4 por teorema 1.33 0 4 5 3 4 8 4 desarrollando el determinante

0 4 8 4

F1 F1 + 6F2

mediante la primera columna 4 5 3 0 13 7 F1 F1 + F3 = 3 0 11 7 F2 F2 + F3 4 5 3 por teorema 1.33 = 3 4(1)3+1 13 7 11 7 desarrollando el determinante mediante la primera columna

= 3(1)(1)2+1 4 6 4

= 12(13(7) (7)(11)) = 12 14 = 168 Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos mtodos cul de los dos e a le parece ms sencillo? a Teorema 2.34. Sea A = (aij )nn Mnn (R). Entonces para cualesquiera s, t {1, . . . , n} con s = t se tiene que
n A ask Ctk = 0 y k=1 k=1 n A aks Ckt = 0

para cada i {1, . . . , n} con i = t y B(t) = A(s) . As que, usando el teorema 1.31, det(B) = 0.

Demostracin. Sea s, t {1, . . . , n} con s = t. Denamos B = (bij )nn tal que B(i) = A(i) o Por otro lado, las matrices que se obtienen al eliminar la la t de B y la la t de A, son iguales,

B A B A por lo tanto Mtk = Mtk para cada k {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el

determinante de B mediante la la t, se tiene que


n

n B btk Ctk

det(B) =
k=1 n A ask Ctk k=1

=
k=1

A ask Ctk n

En consecuencia

= 0, anlogamente se prueba que a


k=1

A aks Ckt = 0.

60

UNIDAD II. MATRICES Y DETERMINANTES

Teorema 2.35. Si E Mnn (R) es una matriz elemental, entonces para cada A Mnn (R) se tiene que det(EB) = det(E) det(B). Demostracin. Como E Mnn (R) es una matriz elemental, existe una OEF f : Fn (R) o Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A = Debemos proceder por casos sobre el tipo de OEF. Caso 1. f es una OEF tipo 1. As que existen s {1, . . . , n} y = 0 tales que E(s) = (In )(s) (donde (In )(s) es la la s de In ) y para i = s se tiene que E(i) = (In )(i) . Luego (f (A))(s) = A(s) y para i = s tenemos (f (A))(i) = A(i) . Por lo tanto, seg n el teorema 1.28, u det(E) = det(In ) = 1 = y det(EA) = det(f (A)) = det(A) = det(E) det(A). Caso 2. f es una OEF tipo 2. Luego existen s, t {1, . . . , n}, con s = t, y R tales que E(s) = (In )(s) + In )(t) y E(i) = (In )(i) para i = s. As que (f (A))(s) = A(s) + (t) y ( A (f (A))(i) = A(i) para i = s. Usando el teorema 1.33, tenemos que det(E) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E) det(A) Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t {1, . . . , n} tales que E(s) = (In ) (t) , E(t) = (In )(s) y E(i) = (In )(i) para i = s e i = t. De donde (f (A))(s) = A(s) + (t) y A (f (A))(i) = A(i) para i = s e i = t. Si s = t, entonces E = In y f (A) = A, as que det(E) = det(In ) = 1 f (A).

61

UNIDAD II. MATRICES Y DETERMINANTES


y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E) det(A) Si s = t, podemos usar el teorema 1.30 y obtenemos det(E) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = (1) det(A) = det(E) det(A)

Observacin 2.27. De la prueba del teorema 1.35, se tiene que si E Mnn (R) es una matriz o elemental, entonces det(E) = 0. Corolario 2.36. Sean E1 , E2 , . . . , Er Mnn (R) matrices elementales. Entonces, para cada A Mnn (R), se tiene que det(E1 E2 Er A) = det(E1 ) det(E2 ) det(Er ) det(A). Demostracin. Hacerlo como ejercicio. o

Teorema 2.37. Si A Mnn (R) es una matriz ERF, entonces det(A) = 0 si y slo si A = In . o Demostracin. Sea A = (aij )nn . Como A es ERF, entonces A es triangular superior (ver o ejercicio 1.5), as que aij = 0 para i > j y det(A) = a11 a22 ann . Supongamos que det(A) = 0. Luego aii = 0 para cada i {1, . . . , n}. Como aij = 0 para i > j,

entonces para cada i {1, . . . , n}, la primera componente no nula en la i-esima la es aii, y por por lo tanto aij = 0 para i = j (por que?). En resumen aij = Es decir, A = In . Rec procamente, si A = In , entonces det(A) = 1 = 0.

ser A una matriz ERF, se tiene que aii = 1 para cada i {1, . . . , n}, es decir, aii es un pivote y 1 si i = j 0 si i = j

En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz cuadrada.

62

UNIDAD II. MATRICES Y DETERMINANTES


Teorema 2.38. Sea A Mnn (R). Entonces A es invertible si y slo si det(A) = 0. o Demostracin. Sea B Mnn (R) la FERF A. Entonces existen matrices elementales E1 , E2 , . . . , Er o Mnn (R) tales que B = E1 E2 Er A. Como det(Ei ) = 0 para cada i {1, . . . , r}, entonces det(A) = 0 si y slo si la FERF de A es In , lo cual concluye la prueba. o det(A) = 0 si y slo si det(B) = 0; y usando el teorema 1.37 se tiene que B = In . Por lo tanto o

Teorema 2.39. Sean A, B Mnn (R). Entonces det(AB) = det(A) det(B). Demostracin. o Caso 1. det(A) = 0. As que, en virtud del teorema 1.38, A no es invertible. Luego, usando el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se tiene que det(AB) = 0. Por lo tanto det(AB) = 0 = 0 det(B) = det(A) det(B) Caso 2. det(A) = 0. Luego A es invertible, en virtud del teorema 1.38. As que, al usar el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que A = E1 E2 Er . Luego, por el corolario 1.36

det(A) = det(E1 E2 Er ) = det(E1 ) det(E2 ) det(Er ) y det(AB) = det(E1 E2 Er B) = det(E1 ) det(E2 ) det(Er ) det(B) = det(A) det(B)

2.8.

Inversa de una matriz cuadrada a travs de la adjunta.

En esta seccin deniremos la adjunta de una matriz y enunciaremos la regla de Cramer , o que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicacin o de los determinantes. Denicin 2.22. Sea A Mnn (R). Se dene la matriz adjunta de A como la matriz adj(A) o
A decir, si adj(A) = (bij )nn , entonces bij = Cji para cualesquiera i, j {1, . . . , n}.

Mnn (R) cuya ij-sima componente es el ji-simo cofactor de A para cada i, j {1, . . . , n}, es e e

63

UNIDAD II. MATRICES Y DETERMINANTES


A Observacin 2.28. Si C = (Cij )nn , es decir, si C es la matriz real cuadrada cuya ijo

sima componente es el ij-simo cofactor de A para cada i, j {1, . . . , n}, entonces adj(A) = e e CT . Ejemplo 2.37. Hallar la adjunta de

2 1 3 1

Solucin. Necesitamos hallar cada uno de los cofactores de A. Veamos o

0 2 4 1 7

A C11 = (1)1+1

0 2 1 7 1 3 1 7 1 3 0 2

= 2;

A C12 = (1)1+2

1 2 4 7 2 3 4 7 2 3 1 2

= 1;

A C13 = (1)1+3

4 1 2 1 4 1 1

= 1;

A C21 = (1)2+1

= 4;

A C22 = (1)2+2

= 2;

A C23 = (1)2+3

= 2; = 1;

A C31 = (1)3+1

= 2;

A C32 = (1)3+2

= 1; 2 1

A C33 = (1)3+3

2 1

As que

A A A adj(A) = C12 C22 C32 A A A C13 C23 C33

A A A C11 C21 C31

2 1 1 2 1

4 2

Teorema 2.40. Sea A Mnn (R). Entonces A adj(A) = det(A)In = adj(A)A. Demostracin. Hagamos adj(A) = (bjk )nn . As que para cada j, k {1, . . . , n}, se tiene que o
A bjk = Ckj .

Si hacemos A adj(A) = D = (dik )nn , entonces, para cada i, k {1, . . . , n}, tenemos que
n n

dik =
j=1

aij bjk =
j=1

A aij Ckj .

Pero

n A aij Cij = det(A) j=1

64

UNIDAD II. MATRICES Y DETERMINANTES


y seg n el teorema 2.34, si i = k, u entonces

n A aij Ckj = 0 j=1

Por lo tanto dik = det(A) si i = k 0 si i = k 1 si i = k 0 si i = k

= det(A) = det(A)ik

donde In = (ik )nn . En consecuencia A adj(A) = det(A)In . De manera anloga se prueba que a adj(A)A = det(A)In , lo cual concluye la prueba. 1 1 y A1 = adj(A). det(A) det(A)

Teorema 2.41. Si A Mnn (R) es invertible, entonces det(A1 ) =

A1 A, y por el teorema 1.39

Demostracin. Como A es invertible, entonces existe A1 Mnn (R) tal que AA1 = In = o det(A) det(A1 ) = det(AA1 ) = det(In ) = 1.

Luego det(A1 ) =

1 . det(A)

Por otro lado, usando el teorema 1.40, se tiene que A De donde A1 = 1 adj(A) det(A) = 1 1 A adj(A) = det(A)In = In . det(A) det(A) 1 adj(A). det(A)

Ejercicio 2.9. Sea A Mnn (R) una matriz invertible. Pruebe que adj(A) tambin es invertible e y adems (adj(A))1 = adj(A1 ). a

65

2.9 APLICACIONES .
Si A es invertible, entonces la unica solucin de dicha ecuacin est dada por x = A1 b, o o a as que, una forma de hallar la solucin de la ecuacin en cuestin, es calcular la inversa de A y multiplicarla por b, pero quizs o o o a esto es mucho ms complicado y costoso (en trminos de clculos) que hallar la FERF de la a e a matriz [A|b]. En el siguiente teorema presentaremos una herramienta que permite resolver la ecuacin an o terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha herramienta se conoce con el nombre de la regla de Cramer . Teorema 2.42 (Regla de Cramer). Sea A Mnn (R) una matriz invertible y b Mn1 (R). Si x1 x2 det(Ab ) j , es la solucin de la ecuacin Ax = b, entonces, para cada j {1, . . . , n}, xj = o o x= . det(A) . xn donde Ab es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es, j Ab = j A(1) A(j1) b A(j+1) A(n)

Demostracin. Como A = (aij )nn es invertible, entonces la unica solucin del sistema Ax = b o o es x = A1 b, pero A1 b1 b 1 1 2 = adj(A), as que x = adj(A)b, por lo tanto, si b = , . det(A) det(A) bn

1 entonces xj = C A bi para cada j {1, . . . , n}. det(A) i=1 ij Por otro lado, para cada j {1, . . . , n}, se tiene que a1(j1) a1(j+1) a11 b1 . . . . . . . . Ab = j ai1 ai(j1) bi ai(j+1)

a1n .

a(i1)1 a(i1)(j1) bi1 a(i1)(j+1) a(i1)n a(i+1)1 a(i+1)(j1) bi+1 a(i+1)(j+1) a(i+1)n . . . . . . . . . . an(j+1) ann an1 an(j1) bn
Ab A A Cij j = (1)i+j det Mij j = (1)i+j det Mij = Cij Ab Ab

ain

A Por lo tanto, para cada i {1, . . . , n}, tenemos que Mij j = Mij y as

66

UNIDAD II. MATRICES Y DETERMINANTES


Luego, al desarrollar el determinante de Ab por medio de la j-sima columna, obtenemos e j
n

det(Ab ) = j
i=1

Cij j bi =
i=1

Ab

n A Cij bi

En consecuencia, para cada j {1, . . . , n} tenemos que xj = det(Ab ) j det(A)

Ejemplo 2.38. Vericar que la matriz del sistema +2z w = 3 x x +y +2z +w = 2 es invertible y usar la regla de Cramer para hallar la solucin del sistema. o Solucin. La matriz del sistema es o 4x +2y +2z 3w = 1 2y +z +4w = 1

1 0 2 1 1 1 2

A=

hallemos su determinante 1 0 2 1 det(A) = 1 1 2 0 2 1 = 4 2 2 3 6 3 1

4 2 2 3 0 2 1 4 2 1 0 1 1 4 1 = 2 0 2 = 1 4 1 2 0 1 0 0

1 0 = 0 1 0 2

1 4

0 2 6

2 6 1

2 6 3

= 3 = 0.

Por lo tanto la matriz del sistema es invertible, as que podemos aplicar la regla de Cramer para resolverlo. En este caso la matriz de trminos independientes es e 3 b= 2 1 1

67

UNIDAD II. MATRICES Y DETERMINANTES


Luego 3 0 2 1 det Ab 1 = 2 1 2 1 2 1 1 2 2 3 0 6 1 13 = 0 3 0 1 0 0 2 1 1 7 7 6 1 13 0 1 0 7 7

1 4

= 3

= 3 0 0 1

6 0 20 7 7

6 20 3 7

= 42 60 = 18.

1 3 2 1 det Ab 2 = 1 2 2 0 1 1 1 4 1 2 3 0 1

1 = 0 0 0 = 6

3 1

1 4

2 1 1

2 4

0 11 6 1

11 6 1 1

0 2 1 4

11 6 21 1

6 21 1

= (36 + 21) = 15.

1 0 3 1 det Ab 3 = 1 1 2 0 2 1 = 4 2 1 3 9 3 3

1 0 = 0 1 0 2

1 4

0 2 11

2 1

2 1 4

1 = 2

2 11 1

1 2

1 4

0 9 3 0 3

1 1

2 0

= 9.

1 0 2 3 det Ab 4 = 1 1 2 2 4 2 2 1 0 2 1 1 = 6 9 1 =

1 0 0 1 0 2

2 0 1

3 1 =

1 2

0 1

0 2 6 11

2 6 11

1 = 2

0 1

0 3

2 6 9

= 18 + 9 = 9.

68

UNIDAD II. MATRICES Y DETERMINANTES


det Ab det Ab det Ab 18 15 9 1 2 3 = = 6; y = = = 5; z = = = 3; det(A) 3 det(A) 3 det(A) 3

En consecuencia x =

det Ab 9 4 w= = = 3, es decir, la solucin del sistema dado es: o det(A) 3 x 6 y 5 = z 3 w 3 Ejemplo 2.39. Una fbrica produce tres tipos de productos, mezclando para ello tres materias primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la materia prima 2; nalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la fbrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de la materia prima 2 y seis millones de la materia prima 3 cuntas unidades de cada producto puede producir la fabrica usando el total de las materias primas? Solucin. Para cada i {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede o producir la fbrica. a Por lo tanto, la cantidad de unidades (en millones) que se usarn es: a x1 + x2 + 3x3 3x1 + 3x2 + 3x3 2x1 + 2x3 de la materia 1 de la materia 2

de la materia 3

Como se quiere usar el total de las materias primas, entonces x1 +x2 +3x3 = 6 3x +3x2 +3x3 = 12 1 2x +2x = 6
1 3

69

UNIDAD II. MATRICES Y DETERMINANTES


En este caso, la matriz del sistema, la matriz de incgnitas y la matriz de trminos o e independientes son, respectivamente: 1 1 3 A = 3 3 3 ; 2 0 2 matriz del sistema. 1 1 3 det(A) = 3 3 3 2 0 2 = 1 1 2 0 3 = 2 0 6 2

x1

Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la

x = x2 x3

y b = 12 6

0 0 6

= 12 = 0.

Como la matriz del sistema es invertible, podemos usar la regla de Cramer. 6 1 3 det Ab 1 = 12 3 3 6 0 2 1 det Ab 2 = 2 6 3 = 6 2 1 1 det Ab = 3 2 0 Por lo tanto x1 = 6 = 6 = 6 1 6 0 1 3 = 2 3 = 6 6 6

6 0 6

= (12 + 36) = 24.

3 12 3

0 6 6 0 6 4 1 1 2 0

6 6 6 4

= 24 36 = 12.

6 = 6

3 3 12

0 0 6

0 6 2

= 12.

24 12 12 = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de 12 12 12 la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un milln de o unidades de cada uno de los productos 2 y 3.

70

Unidad III.Sistemas de Ecuaciones Lineales


Concepto.Clasificacin de los sistemas lineales.Tipos de solucin.Mtodo de Gauss-Jordan.

La presente seccin esta muy relacionada con las OEF y las matrices, y es quizs, junto con la o a seccin anterior, la ms importante del presente obra por su relacin con otras materias. o a

3.1.Definicin de Sistemas de Ecuaciones Lineales

de

Denicin 3.1. Un sistema de ecuaciones lineales con m ecuaciones y n incgnitas es o o un conjunto de ecuaciones de la forma

a11 x1 + a12 x2 + + a1n xn . . . . .

= b 1 . . . (3.1)

am1 x1 + am2 x2 + + amn xn = bm a21 x1 + a22 x2 + + a2n xn = b2

donde x1, x2, . . . , xn son las incgnitas del sistema 3.4 y toman valores en R; aij R son n sistema 3.4 y b1, b2, . . . , bm R son jos y son los terminos independientes del sistema 3.4. diremos que es no homogneo. e

umeros jos para cada i {1, . . . , m} y cada j {1, . . . , n} y los llamaremos coecientes del Si b1 = b2 = = bm = 0, diremos que el sistema 3.4 es homogneo, en caso contrario e Cuando m = n, se dice que el sistema 3.1 es un sistema cuadrado.

71

III. Sistemas de Ecuaciones Lineales


Si hacemos a11
21

a12 a22 .

A = (aij )mn =

a1n

am1 am2

el sistema 3.1 puede escribirse como la ecuacin matricial Ax = b (comprobarlo), que llamare o mos representacin matricial del sistema 3.1. La matriz A es llamada matriz de coeo cientes o matriz del sistema 3.1, la matriz a11 a12

a2n ; . amn

b=

b1
2

. bm

x=

x1
2

. xn

es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz incgnita o o matriz de incgnitas y b es conocida como matriz de trminos independientes. o e El sistema a11 x1 + a12 x2 + + a1n xn a21 x1 + a22 x2 + + a2n xn . . . . . . es llamado sistema homogneo asociado al sistema 3.1. e = 0 = 0 . . . . (3.2)

a21 a22 a2n b2 [A|b] = . . . . . . . am1 am2 amn bm

a1n

b1

am1 x1 + am2 x2 + + amn xn = 0

3.2. Clasificacin de los sistemas de ecuaciones lineales y sus soluciones


Diremos que c1 , c2 , . . . , cn es una solucin del sistema 2.4 si al sustituir x1 = c1 , x2 = o c2 , . . . , xn = cn en 3.4, las igualdades son satisfechas. Se dice que el sistema 3.4 es Inconsistente si no tiene solucin alguna. o Consistente si tiene al menos una solucin, cuando tiene una unica solucin, se dice que o o es consistente determinado, si tiene ms de una solucin, se dice que es consistente a o indeterminado. Observacin 3.18. En general, no haremos diferencia al referirnos al sistema y a su repre o sentacin matricial. o

72

III. Sistemas de Ecuaciones Lineales


/ o Observacin 3.1. Todo sistema homogneo Ax = 0 /m1 es consistente, x = 0n1 es solucin o e

de ste, la cual es llamada solucin trivial. e o x1

Observacin 3.2. Es claro si A Mmn (R) y x = o

Ax = x1 A(1) + x2 A(2) + + xn A(n) Ejemplo 3.1. 1. 3x1 +2x2 6x3 = 0

x2 Mn1 (R), entonces . . xn

es un sistema de ecuaciones lineales de dos ecuaciones y tres incgnitas, es no homogneo, o e su representacin matricial es o x1 x2 = x3

x1 +5x2 7x3 = 4

1 5 7

3 2 6

0 4

La matriz es y la matriz ampliada del sistema son, respectivamente 3 2 6 3 2 6 0

1 5 7

1 5 7 4

las matrices incgnitas y de trminos independientes son, respectivamente o e x1

2.

x2 x3 6x x 5x +12y 3z = 2 6z = 2y +9z = 1 6

0 4

es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incgnitas, es no o homogneo y su representacin matricial es e o

73

UNIDAD III. SISTEMAS DE ECUCIONES LINEALES


El sistema homogneo asociado a este sistema es e 6x x 5x +12y 3z = 0 6z = 0 2y +9z = 0

5 1

6 2

12 3 y = 2 0 6 z 6

Una pregunta que surge de manera inmediata es cmo garantizar que un sistema de ecuaciones o lineales es consistente o inconsistente? y en caso de que sea consistente cmo resolver dicho o sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes daremos las bases tericas que nos permitan usar dichas herramientas. o Teorema 3.1. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de ecuaciones lineales con m ecuaciones y n incgnitas. Supongamos que las matrices [A|b] y [C|d] o son equivalentes por las. Entonces ambos sistemas tienen exactamente las mismas soluciones o ninguno tiene solucin. o Demostracin. Dado que las matrices [A|b] y [C|d] son equivalentes por las, entonces existen o OEF f1 , f2 , . . . , fr : Fm (R) Fm (R) tales que (f1 f2 fr )([A|b]) = [C|d] por la parte 3 del corolario 3.1 (f1 f2 fr )(A) = C y (f1 f2 fr )(b) = d

y por la parte 2 del mismo corolario, tenemos que (f1 f2 fr )(Ax) = (f1 f2 fr )(A)x As que, si Ax = b, entonces Cx = (f1 f2 fr )(A)x = (f1 f2 fr )(Ax) = (f1 f2 fr )(b) = d

74

UNIDAD III. SISTEMAS DE ECUACIONES LINEALES


1 1 1 Adems, en virtud del ejercicio 1.3, f1 , f2 , . . . , fr son invertibles y f1 , f2 , . . . , fr a

son tambin OEF sobre Fm (R), luego, si Cx = d, entonces e


1 1 1 Ax = (f1 f2 fr )1 (C)x = (fr f2 f1 )(C)x 1 1 1 1 1 1 = (fr f2 f1 )(Cx) = (fr f2 f1 )(d) = (f1 f2

Por lo tanto Ax = b si y slo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o o ambos tienen la(s) misma(s) solucin(es). o

fr )1 (d) = b

Observacin 3.2. Cuando la matriz del sistema es una matriz ERF, es fcil decidir si el sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) solucin(es) de este. La idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 3.14, resolver, de manera sencilla, el sistema dado. Corolario 3.1. Sean A, C Mmn (R) y b, d Mm1 (R) tales que [C|d] es la FERF de [A|b].

El sistema Ax = b tiene solucin si y slo si el nmero de las no nulas de [C|d] es igual al o o u nmero de las no nulas de C. u Demostracin. Reralizarlo como ejercicio. o

Ejemplo 3.2. Decidir cul de los siguientes sistemas son consistentes y cules no, en caso de a a serlo, mostrar su(s) solucin(es). o 2x +y z = 1 2x y +5z = 5 1. y +3z = 2 2 2x +y z = x 2y +4z = 3 2. 5x 4y +8z = 9 y +3z = 2 x +y 2z +w = 1 3. 4x +2y +2z = 2 2y 10z +3w = 3

75

III. Sistemas de Ecuaciones Lineales


x +y 2z +w = 1 3

4.

4x +2y

+2z

2y 10z +4w =

= 2

Solucin. o 1. La matriz ampliada del sistema es 2 1 0 1 Hallemos su FERF 2 1 1 1 1


1 2

1 1 1

5 5 3 2

2 1 0 1

5 5 F1 1 F1 2 1 5 5 F2 2 3 2 0 1 3 2 1 1 1 1 2 2 2 F1 F1 1 F2 2 1 F1 2 F1 0 1 3 2 F3 F3 + F2 0 1 3 2

1 2

1 2

aporta nada a la solucin. As que el sistema dado es equivalente al sistema o x +z =


3 2

La ultima la de esta ultima matriz equivale a la ecuacin 0 x + 0 y + 0 z = 0, que no o

F2 2F1 0 2 0 1 3 1 0 1 2 0 1 3 2 0 0 0 0

1 2

1 2

6 4 3 2

1 2

y 3z = 2 que a su vez equivale a x = z + y =


3 2

3z 2

Luego el sistema dado es consistente indeterminado. Haciendo z = , con R, obtenemos 3 x = + ; 2 y = 3 2

En consecuencia la solucin del sistema dado viene dada por o 3 x = + ; 2 y = 3 2; z = ; con R

76

III. Sistemas de Ecuaciones Lineales


o bien

2. En este caso la matriz del sistema es

y = 3 2 = z 2

+ 3 2

3 + 2 ; 1 0 2

3 2

con R

Vamos a hallar su FERF 2 1 1 2

1 2 5 4 0 1

1 1

4 3 8 9 3 2

1 2 5 4 0 1

4 3 8 9 3 2

F1 F2 1 2

0 0 1 F2 F2 2F1 5 F2 F4 0 6 12 6 6 F3 F3 5F1 0 0 1 3 2 0 5 1 2 4 3 1 0 F F1 + 2F2 0 1 0 1 1 3 2 F2 F2 F3 F3 6F2 0 6 12 6 0 0 F4 F4 5F2 0 5 9 8 0 0 1 0 2 7 1 0 0 F1 F1 + 2F3 0 1 3 2 0 1 0 F3 1 F3 F2 F2 + 3F3 6 0 0 1 3 0 0 1 F4 F4 6F3 0 0 6 18 0 0 0 Luego, el sistema dado es equivalente al sistema x = 1 = z =

5 4 0 1 4 3 9 8

1 2

1 1

4 3

8 9 3 2

1 2

4 3 3 12 9 2 7 6 6 1 7 3 0

2 6 8

3 2 18 18

7 3

77

III. Sistemas de Ecuaciones Lineales


Por lo tanto el sistema es consistente determinado y su solucin es o x = 1; o bien x y = 7; z=3

3. Hallemos la FERF de la matriz ampliada del sistema que es 1 1 2 1 1 4 2 2 0 2 0 2 10 3 3 1 1 2 1 1 1 1 2 1 1

y = z

7 3

4 2 2 0 2 F2 F2 4F1 0 2 10 4 6 0 2 10 3 3 0 2 10 3 3 1 1 2 1 1 1 0 3 1 2 F1 F1 F2 F2 1 F2 0 1 5 2 3 0 1 5 2 3 2 F3 F3 2F2 0 2 10 3 3 0 0 0 1 3 1 0 3 1 2 1 0 3 0 1 F1 F1 + F3 F3 F3 0 1 5 2 3 0 1 5 0 3 F2 F2 2F3 0 0 0 1 3 0 0 0 1 3 En consecuencia el sistema dado es equivalente al sistema x o equivalentemente +3z y 5z = w = 1 3

= 3

x = 3z + 1 y = 5z 3 w = 3

78

III. Sistemas de Ecuaciones Lineales


Por lo tanto el sistema original es consistente indeterminado. Haciendo z = , con R, tenemos que la solucin del sistema es o x 3 +1 3 1 3 5 3 5 y = = + ; z 1 0 w 3 0 3 4 2 2 0 2 0 2 10 4 3 1 1 2 1 1

con R

4. Hallemos la FERF de la matriz

que es la matriz ampliada del sistema 1 1 2 1 1 1 1 2 1 1 4 2 2 0 2 F2 F2 4F1 0 2 10 4 6 0 2 10 4 3 0 2 10 4 3 1 1 2 1 1 F3 F3 + F2 0 2 10 4 6 0 0 0 0 3 matriz equivale a la ecuacin o 0 x + 0 y + 0 z + 0 w = 3

Sin necesidad de llegar a la FERF de la matriz, vemos que la ultima la de esta ultima

la cual es contradictoria, en consecuencia, el sistema original es inconsistente.

/ si m < n, esto es, si el sistema homogneo Ax = 0m1 tiene ms incgnitas que ecuaciones, e a o

Teorema 3.4. El sistema homogneo Ax = 0 /m1 , con A Mmn (R), tiene innitas soluciones e

entonces es consistente indeterminado. Demostracin. Hacerlo como ejercicio. o

79

III. Sistemas de Ecuaciones Lineales


Teorema 3.2. Sea A Mmn (R). Supongamos que x1 , x2 Mn1 (R) son soluciones del tambin soluciones del sistema. e

/ sistema homogneo Ax = 0m1 . Entonces, para cada R, se tiene que x1 + x2 y x1 son e

Demostracin. Hacerlo como ejercicio. o

Teorema 3.3. Sean A Mmn (R) y b Mm1 (R). Supongamos que xp es una solucin del o
/ Ax = 0m1 tal que xg = xh + xp .

sistema Ax = b. Entonces, para cada solucin xg del sistema Ax = b, existe una solucin xh de o o

Demostracin. Dado que xp es solucin del sistema Ax = b, tenemos que Axp = b. o o Sea xg una solucin cualquiera de Ax = b. Entonces Axg = b. Sea o Axh = A(xg xp ) = Axg Axp = b b = 0
/ es decir, xp es solucin del sistema homogneo Ax = 0m1 y adems xg = xh + xp . o e a

xh = xg xp . As que

Ejemplo 3.3. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que 3 1 2 xp = 2 ; xh = 3 ; con R 0 1 Para el sistema de la parte 2 del mismo ejemplo, se tiene que 1 0 xh = 0 0

Ntese que en este caso xg = xp . o

xp =

7 ; 3

Finalmente, para el sistema de la parte 3 del ejemplo en cuestin o 1 3 xp = 3 ; 0 3 xh = 5 ; 1 0

con R

Ejercicio 3.1. Sea A Mmn (R). Pruebe que si el sistema Ax = b tiene solucin para cada o b Mm1 (R), entonces m n.

80

3.3. Interpretacin geomtrica de las soluciones. o e

Se denomina ecuacin lineal a aquella que tiene la forma de un polinomio de primer grado. o Es decir, que las incgnitas no esten elevadas a alguna potencia. o Por ejemplo, 3x + 2y + 6z = 6 es una ecuacin lineal con tres incgnitas. o o Como es bien sabido, las ecuaciones lineales con 2 incgnitas representan una recta en el plao no. Si la ecuacin lineal tiene 3 incgnitas, su representacin grca es un plano en el espacio. o o o a Un ejemplo de ambas representaciones puede observarse en la gura:

Figura 3.1: Representacin grca de la recta x + 2y = 3 en el plano y del del plano x + y + z = 1 o a en el espacio. El objetivo del tema es el estudio de los sistemas de ecuaciones lineales, es decir, un conjunto de varias ecuaciones lineales. Diremos que dos ecuaciones son equivalentes si tienen las mismas soluciones, o geomtricamente representan la misma recta o plano.

81

III. Sistemas de Ecuaciones Lineales

En general,buscaremos las soluciones de los sistemas en los nmeros reales R. Dependiendo u del posible nmero de tales soluciones reales que tenga un sistema, stos de pueden clasicar en: u e * INCOMPATIBLES (No tienen solucin) S.I. o * COMPATIBLES (Tienen solucin) o * DETERMINADOS (Solucin unica) S.C.D. o * INDETERMINADOS (Innitas soluciones) S.C.I.

La geometra de los sistemas con dos inc ognitas

Los sistemas ms sencillos son aquellos en los que slo hay dos incgnitas y 2 ecuaciones, y que ya a o o son conocidos de cursos pasados. Hay varios sistemas para resolverlos, los ms habituales: a * Reduccin o * Igualacin o * Sustitucin o en los que ya no nos entretendremos. Como cada ecuacin lineal con 2 incgnitas se interpreta geomtricamente como una recta, el estudio o o e de la solucin del sistema se limita a estudiar la posicin de 2 rectas en el plano. o o Veamos algunos ejemplos con los tres casos que se pueden presentar. Resolver e interpretar el x + 2y = 3 sistema: . 2x + y = 1 Por reduccin: o 2x+4y=-6 -2x+ y=1 5y=-5 de donde y = -1 y sustituyendo x + 2(-1) = -3, x = -1. Es decir, la solucin del sistema es unica, x = -1, y = -1 lo que signica que el sistema es compatible o y determinado, y que las rectas se cortan en un punto, precisamente el (-1,-1):

Figura 3.2: Solucin del sistema, punto (-1,-1) o

82

III. Sistemas de Ecuaciones Lineales


x + 2y = 3 . 2x 4y = 5

Resolver e interpretar el sistema:

x = 3 2y 5 + 4y Por igualacin: o de donde: x= 2 3 2y =

5 + 4y = 4y + 6 = 5 + 4y = 0y = 1 = 0 = 1 2

lo cul es imposible y por tanto el sistema no tiene solucin, es un sistema incompatible y por a o tanto las rectas son paralelas. Geomtricamente: e

Figura 3.3: Sistema sin solucin. Rectas paralelas o x + 2y = 3 . 3x + 6y = 9

Resolver e interpretar el sistema:

Por sustitucin, como x = 2y 3 resulta 3(2y 3) + 6y = 9, es decir 6y 9 + 6y = 9, por o tanto 0y = 0, 0 = 0. Como 0 = 0 es una igualdad siempre cierta, quiere decir que el sistema tiene innitas soluciones, es compatible indeterminado, o que las rectas son la misma.

Figura 3.4: Innitas soluciones. Las rectas coinciden Lo expresaremos as Como x = 2y 3, dando valores a y se obtiene x. . As si le damos a y el valor arbitrario de (lambda), entonces expresaremos la solucin como: o x = 2 3 siendo R y= y como puede ser cualquier nmero real, hay innitas soluciones. u Estos son los unicos casos que pueden darse con dos ecuaciones y dos incgnitas, y su interpretacin o o geomtrica. e

83

III. Sistemas de Ecuaciones Lineales


Ejercicio 3.2 Estudiar la solucin de los siguientes sistemas e interpretarla geom o tricamente: e x+y = 5 2x + y = 1 x + 2y = 3 b) c) 2x y = 7 3x + 2y = 4 xy = 4 a)

Discucin de sistemas de 2 ecuaciones con 2 incgnitas o o


ax + 3y = 5 , no estamos 2x y = 6 ante un slo sistema, sino ante innitos, uno para cada valor de a, y cada sistema ser distinto en o a funcin del valor que tome dicha letra (llamada parmetro). o a Para estudiarlo, se resuelve el sistema como habitualmente y se estudian los distintos casos que se pueden dar. Por ejemplo , por reduccin: o Si alguno de los coecientes del sistema es desconocido, por ejemplo, ax+3y=5 6x-3y=18 ax+6x =23 por tanto, x(6 + a) = 23. Entonces, si 6 + a = 0 no podremos despejar x, es decir si a = 6, obtenemos una ecuacin del tipo 0 = 23, es decir, imposible. o Por tanto, si a = 6 el sistema es incompatible. 23 En cualquier otro caso, podemos despejar x,x = , y se puede sacar y sustituyendo, por tanto, 6+a si a = 6, el sistema es compatible determinado. Ejercicio 3.3 Discutir los sistemas en funcin del parmetro o a desconocido: a) x+y =5 ax + 2y = 10 b) ky + x = 2 3x+y=1

3.4.Mtodo de Gauss-Jordan e ecuaciones lineales: Gauss, Gauss-Jordan, Podemos aadir a los clsicos sistemas de 2 ecuaciones y 2 incgnitas cuantas ecuaciones queramos n a o inversa dediferentes tiposyde sistemas con 3, 4, 5 o ms ecuaciones. una matriz regla de Cramer. a para obtener
En cualquier caso, los tipos de sistemas a los que dan lugar son los mismos reseados anteriormente. n Al aumentar el nmero de ecuaciones, la resolucin del sistema por alguno de los tres mtodos u o e clsicos se vuelve ms farragoso, por lo que conviene aplicar ya el conocido mtodo de Gauss para a a e determinar el tipo de sistema. Para ello expresaremos el sistema en la forma matricial, analizando la matriz ampliada asociada, que tendr 2 columnas y tantas las como ecuaciones tengamos. a Analizaremos tan slo aquellos sistemas con 3 ecuaciones y 2 incgnitas. o o La matriz ampliada genrica es: e a11 a12 b1 (A|B) = a21 a22 b2 a31 a32 b3 Aplicar el mtodo de Gauss consiste en realizar transformaciones elementales mediante las las de la e matriz para obtener la matriz escalonada siguiente: a11 a12 b1 (A|B) = 0 a b 22 2 0 0 b 3

Recordemos que las operaciones elementales permitidas en las las de la matriz (ecuaciones del sistema) eran:

84

III. Sistemas de Ecuaciones Lineales


T1) Multiplicar o dividir una la por un nmero real distinto de cero. u T2) Sumar o restar a una la otra multiplicada por un nmero real no nulo. u T3) Intercambiar el lugar de dos las entre s . Utilizando estas transformaciones, los sucesivos sistemas que se obtienen son equivalentes al primero, es decir, tienen las mismas soluciones. Debemos eliminar, en este orden, el elemento a21 utilizando la la 1, el elemento a31 , utilizando tambin la la 1, y por ultimo el elemento a32 utilizando la la 2, de modo anlogo al mtodo de e a e Gauss-Jordan para la inversa. Adems, es conveniente en cada paso indicar la operacin realizada con las las, poniendo en a o primer lugar aquella que se va a sustituir por otra. Llegados a la matriz ampliada escalonada al nal del proceso, pueden darse los casos siguientes: 1. a = 0. Entonces hay dos posibilidades: 22 a) b = 0. Sistema incompatible (hay una ecuacin del tipo 0=k), sin solucin. o o 3 Geomtricamente, puede ocurrir que: e a) Dos rectas sean paralelas y la otra las corte. b) Las rectas se corten dos a dos (formen un tringulo). a

b) b = 0. Aparece una ecuacin 0=0 que no inuye en la resolucin del sistema, que redu o o 3 cido a las dos ecuaciones iniciales tiene solucin unica, es decir, el Sistema es o Compatible Determinado. Geomtricamente: e a) Dos rectas son coincidentes y la otra las corta. b) Las tres rectas se cortan en un mismo punto.

2. a = 0. Entonces hay tres posibilidades: 22 a) Si b = b = 0, aparecen dos ecuaciones 0=0, que no inuyen en la resolucin del sisteo 2 3 ma, que ahora tiene innitas soluciones (1 ecuacin y dos incgnitas). Sistema compatible o o indeterminado.

85

III. Sistemas de Ecuaciones Lineales

Geomtricamente, las tres rectas coinciden (son la misma): e

b) Si b = 0, b = 0 o b ien b = 0, b = 0, aparece una ecuacin 0=0 (que no inuye) y o 2 3 2 3 otra 0=k (que es imposible). El sistema es incompatible. Geomtricamente: e a) Dos rectas son paralelas y la otra las corta. b) Dos rectas coinciden y la otra es paralela.

c) Si b = 0, b = 0, hay dos ecuaciones 0=k que son imposibles, el sistema es incompatible. 2 3 Geomtricamente, las tres rectas son paralelas o dos son coincidentes y una paralela. e

En cada uno de los casos, para determinar la posicin concreta de las rectas, basta representarlas. o Ejemplo 3.4 Estudiar el sistema siguiente, dando la interpretacin geomtrica: o e x + 2y = 5 3x + y = 7 2x + 3y = 12

86

III. Sistemas de Ecuaciones Lineales


A partir de la matriz ampliada 1 (A|B) = 3 2 y aplicando el mtodo e 2 5 1 F2 +3F1 1 7 0 F3 +2F1 3 12 0 de Gauss, obtenemos: 2 5 1 2 5 F F2 7 22 3 0 7 22 7 22 0 0 0

En este caso aparece una ecuacin 0=0 que no inuye y el elemento a es no nulo. El sistema es o 22 compatible determinado, tiene solucin unica. o Geomtricamente, puede ocurrir que: e a) Dos rectas son coincidentes y la otra las corta. b) Las tres rectas se cortan en un mismo punto. Resolviendo y dibujando, obtenemos: x + 2y = 5 7y = 22

22 9 De donde y = y sustituyendo es x = (comprubalo). e 7 7 Dibujando las rectas:

Figura 3.5: SS olucin geomtrica del sistema. o

Se observa que las rectas se cortan en un punto, precisamente el punto solucin del sistema: P = o 9 22 , . 7 7

Ejercicios 3.4 a) Resuelve e interpreta geomtricamente los sistemas: e x+y =0 x y = 2 a) x + y = 2 b) x + 2y = 1 x + 3y = 2 4x 10y = 14

b) Discute y resuelve en funcin del parmetro: o a xy = 1 2x + y = 3 a) x + 2y = 1 b) x + 3y = 0 2x + my = 0 mx + 4y = 3


87

2x + y = 2 c) x + y = 3 y = 2x

III. Sistemas de Ecuaciones Lineales

utilizando las transformaciones conocidas, y de la forma indicada en ocasiones anteriores. Los tipos de sistema que pueden obtenerse dependiendo del n mero de soluciones son los reseados u n en apartados anteriores. Al aplicar el mtodo de Gauss podemos encontrarnos con distintos casos: e * Si se obtiene un sistema escalonado con coecientes no nulos, el sistema es compatible determinado, tiene solucin unica. o * Si se obtiene una o ms las en las que todos los elementos sean cero, el sistema tiene innitas a soluciones, y hay que despejar una o varias incgnitas en funcin de otras, es un sistema compatible o o indeterminado. * Si se obtiene una o ms las de ceros, salvo el elemento correspondiente al trmino independiente, a e que es distinto de cero, digamos k, entonces como la la en cuestin corresponder a una ecuacin o a o del tipo 0 = k , lo que es imposible, el sistema no tiene solucin y por tanto es incompatible. o Veamos un ejemplo: 2x + y z = 11 Ejemplo 3.5. Resolver por Gauss: x 3y = 20 . 4x + 2y + 5z = 8 2 1 1 11 La matriz ampliada es (A|B) = 1 3 0 20. Aplicando el mtodo de Gauss: e 4 2 5 8 2 1 1 11 2 1 1 11 2x + y z = 11 2F2 1 3 0 20 F1 0 7 1 51 = 7y + z = 51 F3 2F1 4 2 5 8 0 0 7 14 7z = 14

para dejar dicha matriz escalonada, es decir, del tipo: a11 a12 a13 b1 0 a a b 22 23 2 0 0 a b 33 3

Cuando los sistemas tienen ms de dos ecuaciones y tres o ms incgnitas se utilizar el ya conocido a a o a mtodo de Gauss. e Ahora partiremos de la matriz ampliada: a11 a12 a13 b1 (A|B) = a21 a22 a23 b2 a31 a32 a33 b3

obtenemos un sistema escalonado, que es compatible y determinado, pus podemos despejar z, e obteniendo z = 2, y luego 7y 2 = 51, de donde 7y = 49 es decir y = 7 y sustituyendo en la primera ecuacin es 2x + 7 + 2 = 11, luego 2x = 2 , es decir x = 1. o La solucin es (1, 7, 2). o Este proceso de resolucin, que comienza calculando z y permite calcular las dems incgnitas o a o sustituyendo en las ecuaciones anteriores se denomina sustitucin regresiva. o

Interpretacin geomtrica de los sistemas con 3 ecuaciones y 3 incgnitas o e o


Como cada ecuacin lineal con 3 incgnitas corresponde a un plano en el espacio, la solucin del o o o sistema correspoder a la posicin en que dichos planos estn en el espacio. a o e Lo ms sencillo es saber que ocurre con los planos 2 a 2, pues en el espacio dos planos slo pueden a o estar en 3 posiciones:

88

III. Sistemas de Ecuaciones Lineales


* Son coincidentes: Lo cul es fcil de saber porque sus correspondientes ecuaciones tienen coea a cientes de las incgnitas y los trminos independientes proporcionales, es decir, si los planos son: o e Ax + By + Cz = D Ax+B y+C z =D A B C D = = = A B C D (siempre que se puedan realizar las divisiones). Por ejemplo, los planos 2x + 3y z = 5, y 10x 15y + 5z = 15 son coincidentes. * Son paralelos: Tambin es sencillo de saber porque los coecientes de las incgnitas son propore o cionales, pero los trminos independientes NO. Es decir, en este caso: e Ax + By + Cz = D Ax+B y+C z =D entonces se verica: A B C D = = = A B C D (siempre que se puedan realizar las divisiones). Por ejemplo, los planos 2x + 3y z = 5 y 10x 15y + 5z = 7 son paralelos. * Son secantes: Simplemente los coecientes no son proporcionales, es decir: Ax + By + Cz = D Ax+B y+C z =D entonces se verica: A B C D = = = A B C D (siempre que se puedan realizar las divisiones, y basta con que un par de ellas correspondientes a las incgnitas sean diferentes). o Por ejemplo, los planos 7x + 3y z = 5 y 10x 15y + 5z = 7 son secantes. Puesto que podemos determinar la posicin de los planos 2 a 2, podemos determinar en qu posicin o e o se encuentran los 3 a la vez, jndonos en los casos: a 1. Si el sistema es S.C.D. (Solucin unica), es que los tres planos se cortan en un punto, que es la o solucin del sistema. o entonces se verica:

2. Si el sistema es S.C.I. (Innitas soluciones), puede ocurrir que: a) Los tres planos se corten en una recta.

b) Dos planos son coincidentes y el otro los corta en una recta. c) Los tres planos son coincidentes.

89

III. Sistemas de Ecuaciones Lineales

Y determinaremos la opcin correspondiente estudindolos de dos en dos. o a 3. Si el sistema es S.I. (Sin solucin), puede ocurrir que: o a) Los planos se cortan dos a dos.

b) Dos planos son paralelos y el otro los corta. c) Los tres planos son paralelos. d ) Dos planos son paralelos y el otro coincidente con uno de ellos.

Y determinaremos la opcin correspondiente estudindolos de dos en dos. o a Ejemplo 3.6 .Estudiar el sistema e interpretarlo geomtricamente: e 2x + y z = 6 3x y + z = 5 4x + 2y 2z = 1

2 1 1 6 Aplicando Gauss a (A|B) = 3 1 1 5, se obtiene: 4 2 2 1

Lo que indica que el sistema es incompatible y por tanto no tiene solucin, los planos no tienen puntos o comunes.

2 1 1 6 2 1 1 6 2x + y z = 6 2F2 3F 3 1 1 5 1 0 5 5 8 = 5y + 5z = 8 F3 2F1 4 2 2 1 0 0 0 11 0 = 11

90

III. Sistemas de Ecuaciones Lineales


Si estudiamos la posicin de los planos 2 a 2, se obtiene que el primero y el segundo tienen o coecientes que no son proporcionales, luego se cortan. El primero y el tercero tienen coecientes proporcionales pero no los trminos independientes, e luego son paralelos. Y el segundo y el tercero no tienen coecientes proporcionales, por lo que se cortan. Concluimos por tanto que los planos primero y tercero son paralelos y son cortados por el segundo plano, sta es la interpretacin geomtrica: e o e

Ejercicios 3.7 Estudiar e interpretar geomtricamente los e sistemas: x + y z = 2 c) 2x y + 3z = 1 b) x + y + z = 2 a) 4x 2y + 6z = 5 2x + y + 3z = 1 2x y + 3z = 5 x + 2y + z = 4 2x + y 3z = 7 3x + 2z = 7

x+y+z = 8 d) 7x + y + 6z = 7 x + 7y + z = 1

Si aparece algn coeciente desconocido,aplicaremos el mtodo de Gauss e investigaremos seg n u e u los valores del parmetro la posibilidad de que aparezca o no una la de ceros. a x + y + z = m+1 x + y + (m 1)z = m x + 7y + z = 1 m+1 F F1 m2 3 1 1 m+1 1 m2 1 m m2

Ejemplo 3.7. Discutir segn los valores de m u

Debemos, llegados a este punto, jarnos en dos aspectos: a) El desarrollo anterior slo es posible si m = 0, luego el caso m = 0 debe estudiarse por separado. o b) En el sistema escalonado nal, hay problemas cuando el valor 1 m = 0, es decir, cuando m = 1. En cualquier otro caso, no hay problemas. De modo que, resumiendo, si m = 0 y m = 1, el sistema es S.C.D. Estudiemos ahora cada caso por separado: Si m = 0, al aplicar Gauss, queda: 1 1 1 1 1 1 1 1 1 1 1 1 F F1 F +F2 0 1 1 0 3 0 1 1 0 3 0 1 1 0 1 0 1 1 0 1 0 0 0 0 1 0
91

Aplicando Gauss a la matriz ampliada: 1 1 1 m+1 1 1 1 F mF m 1 m 1 m 2 1 0 1 m 1 (m=0) 1 m 1 1 1 7 1 1 1 1 m+1 1 1 F3 F1 F +F2 0 1 m 1 m2 3 0 1 m 0 m 1 0 m 0 0

III. Sistemas de Ecuaciones Lineales

3.4.1. Inversa de una Matriz Cuadrada


En la presente seccin, presentaremos un breve estudio sobre las matrices invertibles y o sus aplicaciones en la resolucin de los sistemas de ecuaciones, cabe destacar que se pueden o denir inversas laterales de matrices no cuadradas, sin embargo, slo estudiaremos el caso de o matrices cuadradas. Denicin 3.1 sea A Mnn (R). diremos que A es invertible si existe una matriz B o Mnn (R) tal que AB = In = BA Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A. Ejemplo 3.8. Si A = 2 2 , entonces B = 2 1
3 2

2 1
3 2

3 3

1 22

es una inversa de A ya que 1 0 0 1 1 0 0 1

AB =

2 2

43

3 3 3 + 4 4 3 4 + 4 3 3 3 + 4

= I2

AB =

2 1
3 2

2 2

= I2

Teorema 3.5. Si A Mnn (R) es invertible, entonces A tiene slo una inversa, es decir, o Demostracin. Supongamos que A Mnn (R) es invertible y que B, C Mnn (R) son o inversas de A. Entonces AB = In = BA AC = In = CA Luego C = CIn = C(AB) = (CA)B = In B = B

existe una unica matriz B Mnn (R) tal que AB = In = BA, tal matriz es denotada por A1 .

(3.6) (3.7)

92

III. Sistemas de Ecuaciones Lineales

Teorema 3.6. Sean A, B Mnn (R) dos matrices invertibles y R con = 0. Entonces 1. A1 es invertible y (A1 )
1

= A (propiedad involutiva de la inversa)

2. AB es invertible y (AB)1 = B 1 A1 (inversa del producto matricial) 3. A es invertible y (A)1 = 1 A1 (inversa del mltiplo escalar) u 4. AT es invertible y (AT Demostracin. o 1. Se deduce directamente de la denicin de matriz invertible. o 2. En primer lugar (AB)(B 1 A1 ) = ABB 1 A1 = A(BB 1 )A1 = AIn A1 = (AIn )A1 = AA1 = In Adems a (B 1 A1 )(AB) = B 1 A1 AB = B 1 (A1 A)B = B 1 In B= (B 1 In )B B 1 B = In (denicin de matriz inversa) o Luego, por el teorema 2.19, tenemos que AB es invertible y (AB)1 = B 1 A1 . = (denicin de matriz inversa) o
1

= (A1 ) (inversa de la transpuesta)

93

III. Sistemas de Ecuaciones Lineales


3. Veamos
1

( A))A1 (A)(1A1 ) = ( = (( 1 )A)A1 = (1 A)A1 = AA1 = In

Anlogamente, se prueba que ( 1 A1 )( A) = In . Nuevamente, usando el teorema a 2.19,se tiene que A es invertible y (A)1 = 1 A1 . 4. Por un lado AT (A1 )T = (A1 A)T = (In )T = In Por otro lado (A1 )T AT = (AA1 )T = (In )T = In

Teorema 3.6. Toda matriz elemental es invertible y su inversa es tambin una matriz elemen e tal. Demostracin. Sea E Mnn (R) una matriz elemental. Entonces existe una OEF f : Fn (R) o

Fn (R) tal que E = f (In ). El ejercicio 2.3 garantiza que f es invertible y su inversa f 1 es tambin e una OEF sobre Fn (R), as que F = f 1 (In ) es una matriz elemental, adems a EF = f (In )f 1 (In ) = f (f 1(In )) = In

94

III. Sistemas de Ecuaciones Lineales


y F E = f 1 (In )f (In ) = f 1 (f (In )) = In Luego, E es invertible y E 1 = F , es decir, (f (In ))1 = f 1 (In ).

Ahora bien cmo saber si una matriz cuadrada A es o no invertible? y en caso de que lo o sea cmo hallar A1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento o unico. Daremos un ejemplo sencillo que ilustrar tal procedimiento. a Ejemplo 3.9. En cada uno de los siguientes casos decidir si A es o no invertible, en caso armativo, hallar A1 . 1. A = 2 2 2 8

3 3

2. A = Solucin. o

12

1. Supongamos que A es invertible y sea B= tal que AB = I2 , as que A x z = 1 0 y A y w = 0 1 x y z w

como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera simultnea considerando la siguiente matriz 2 veces ampliada a [A|I2 ] = 2 2 1 0

4 0 1

95

III Sistemas de Ecuaciones Lineales


Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos darn, respectivamente, a las soluciones del primer y segundo sistema, si existen, que a su vez nos darn, respectia vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de esta matriz. [A|I2 ] = 3 2 2 1 0 4 0 1 1 1 0 F1 1 F1 2
1 2 3 2

1 1

1 2

4 0 1 1 0 2 1 0 1
3 2

F2 F2 + 3F1 Por lo tanto

0 1

F1 F1 + F2 B= 2 1
3 2

El lector puede vericar que BA = I2 , por lo tanto, A es invertible y A1 = B = 2 1


3 2

2. Como en el caso anterior, supongamos que existe B= x y z w

tal que AB = I2 , al igual que antes, hallemos la FERF de la matriz [A|I2 ] [A|I2 ] = 3 2 8 1 0 12 0 1 1 1 0 F1 1 F1 2
1 2 3 2

1 4

1 2

12 0 1

F2 F2 + 3F1

0 1

La ultima la de esta ultima matriz equivale a las ecuaciones 0x+0z = 3 2 0y+0w =1

Por lo tanto, no existe matriz B tal que AB = I2 , en consecuencia, A no es invertible.

96

III. Sistemas de Ecuaciones Lineales


Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una matriz cuadrada A es o no invertible, adems, en caso armativo, nos permite hallar A1 . a Algoritmo para decidir si una matriz A Mnn (R) es o no invertible, y en caso

armativo mostrar la matriz A1 .

Paso 1. Formar la matriz ampliada [A|In ]. Paso 2. Hallar la FERF de la matriz en el paso previo. Paso 3. Si la matriz en el paso previo es [In |B], entonces A es invertible y A1 = B, sino A no es invertible.

Ejemplo 3.10. Decidir si la matriz 2 0 3 1 1

A=

es invertible o no, en caso armativo, hallar A1 . Solucin. o 2 0 1 3 1 1 1 0 0 0

1 1 1 1 0

1 1

3 2 2 2

F1 2 2 0 0 1 0 0 1 1 2 0 0 0 1 1 1 2 2 0 F2 F2 + F1 0 3 1 2 1 5 F3 F3 2F1 0 1 1

3 0 1 0 0

F3 0 0 0 1

1 1 0

1 1 2 0

1 0

2 2 0 0 1 0 1 3

1 1

1 1 0 0 0 2 0 0 0 1

3 0 1 0 0

1 0 2 0 0 1 1 2 0 0 0 1 1 1 2 2 0 0 1 0 1 1 2 0 0 0 1 0 F2 F4 0 2 1 5 1 0 2 0 0 0 3 1 0 1 1 0

1 0

97

Matrices y Sistemas de Ecuaciones Lineales 1 0 0 1 0 0 0 1 0 1 1

F4 1 F4 2

F1 F1 + F2 0 F3 F3 + 2F2 0 0 1 F1 F1 F3 0 F2 F2 + F3 0 F4 F4 3F3 0 1 0 0 0 1 F1 F1 + F4 0 F2 F2 3F4 0 F3 F3 F4 0

1 1 2 0 0 0 1 0

0 0 1 1 0 3 0 1 1

1 1 1 0 2 2 3 1 0 1 1 0 3 3

0 0 2 3 1 0 1 1 3 1 1 1 1
3 2 1 2 7 2 1 2 3 2

1 0 2 1 1 0 2 2 7 0 3 3 0 2 1 0 2 2 1 2 3 2 1 2 1 2 1 2 17 2 3 2 7 2 0 6

0 1 0 0 0 1 0

1 7 3 2 2

0 0 0 1 0 0 0 1 0 0 0 1

Luego A es invertible y
1 2 7 2 1 2 3 2

8 1 1 1 1 0

A1 =

1 2 3 2 1 2 1 2

1 2 17 2 3 2 7 2

8 1 7 3 17 16 = 1 2 1 1 3 2 3 3 1 7 6

El siguiente teorema nos ser muy util a la hora de saber si una matriz es o no a invertible. Teorema 3.7. Sea A Mnn (R). Entonces las siguientes proposiciones son equivalentes. 1. A es invertible. 2. El sistema Ax = b tiene una unica solucin para cada b Mn1 (R). o
/ 3. El sistema homogneo Ax = 0n1 tiene como unica solucin la trivial. e o

4. A es equivalente por las a In .

98

III. Sistemas de Ecuaciones Lineales


5. Existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que A = E1 E2 Er . Demostracin. o (1. 2.) Supongamos que A es invertible. Entonces, por denicin de matriz inversa, existe o A1 Mnn (R) tal que AA1 = In = A1 A x0 = In x0 = (A1 A)x0 = A1 (Ax0 ) = A1 b (pues x0 es solucin del sistema Ax = b) o As que el sistema Ax = b tiene como unica solucin x0 = A1 b. o (2. 3.) Supongamos que el sistema Ax = b tiene una unica solucin para cada b o Sean b Mn1 (R) cualquiera y x0 Mn1 (R) una solucin del sistema Ax = b. Entonces o

Mn1 (R). Entonces el sistema Ax = 0 tiene una unica solucin, pero sabemos que o
/ x = 0n1 es solucin de este sistema (observacin 2.19), as que la unica solucin de o o o

dicho sistema es la solucin trivial. o


/ (3. 4.) Supongamos que el sistema homogneo Ax = 0n1 tiene como unica solucin la trivial. o o

Procederemos por reduccin al absurdo. Supongamos que A no es equivalente por las a o In . Por lo tanto, usando la observacin 2.17, si CA es la FERF de A, entonces CA debe o tener alguna la nula, la cual debe estar ubicada en la ultima posicin pues CA es escal o onada reducida por las, esta la equivale a la ecuacin o 0 x1 + 0 x2 + + 0 xn = 0 donde x1

x=

/ y en consecuencia no aporta ninguna informacin a la solucin del sistema Ax = 0n1 . o o

x 2 . . xn

Denamos DA M(n1)n (R) la matriz que se obtiene al eliminar la ultima la de CA .


/ / Luego el sistema homogneo Ax = 0n1 es equivalente al sistema homogneo DA x = 0(n1)1 e e

99

III. Sistemas de Ecuaciones Lineales


/ el cual, en virtud del teorema 2.16, tiene innitas soluciones, de donde, el sistema Ax = 0n1

tiene innitas soluciones, lo cual contradice la hiptesis, por lo tanto A es equivalente por o las a In . (4. 5.) Supongamos que A es equivalente por las a In . Entonces existen OEF f1 , f2 , . . . , fr : Fn (R) Fn (R) tales que A = (f1 f2 fr )(In )

Luego, usando recursivamente el corolario 2.12 partes 1 y 2, tenemos que A = f1 (In )f2 (In ) fr (In ) As que la matriz Ei = fi (In ) es elemental para cada i {1, . . . , r} y adems a A = E1 E2 Er (5. 1.) Supongamos que A = E1 E2 Er donde E1 , E2 , . . . , Er Mnn (R) son matrices elementales. Dado que toda matriz elemental es invertible (teorema 2.21) y usando recursivamente la parte 2 del teorema 2.20, se tiene que A es invertible. Lo cual concluye la prueba.

Teorema 3.8.Sean A, B Mnn (R). Si AB = In , entonces BA = In ; y en consecuencia A1 = B. Demostracin. Supongamos que AB = In . Sea xh una solucin del sistema homogneo Bx = o o e
/ 0n1 . Entonces / Bxh = 0n1

(3.8)

Luego xh = In xh = (AB)xh = A(Bxh ) =


/ A 0n1

100

III. Sistemas de Ecuaciones Lineales


/ As que la unica solucin del sistema homogneo Bx = 0n1 es la trivial, y en virtud del teorema o e

2.22, B es invertible. Adems a


A = AIn = A(BB 1 ) = (AB)B 1 = In B 1 = B 1 Por lo tanto BA = In (denicin de inversa) y como consecuencia A1 = (B 1 )1 = B. o

Observacin 3.1. El teorema 2.23 nos permite garantizar que A1 = B slo con probar que o o AB = In BA = In . o Ejercicio 3.5. Sean A, B Mnn (R). Pruebe que si AB es invertible, entonces A y B tambin e son invertibles.

3.4. Metodos de solucion de un sistema. de ecuaciones lineales.


En esta seccin trataremos los determinantes y algunas de sus propiedades, en primer lugar o deniremos los determinantes de orden 2, continuando luego con los determinantes de orden 3, para nalmente denir los determinantes de orden n. Denicin 3.2. Sea A = o a11 a12 M22 (R). Deniremos el determinante de A, como

a21 a22 el nmero real det(A) = |A|, dado por u det(A) = |A| =

a11 a12 a21 a22

= a11 a22 a12 a21

este tipo de determinante se suele llamar determinante de orden 2. Ejemplo 3.11. Hallar det(A) para A = 6 5 7 6

101

III. Sistemas de Ecuaciones Lineales


6 5 7 6

Solucin. det(A) = o

= (6)6 5(7) = 36 + 35 = 1

Ejercicio 3.6. Pruebe que A =

a11 a12 a21 a22

M22 (R) es invertible si y slo si det(A) = 0. o 1 det(A) a22 a12 a11

Adems, si A es invertible, entonces A1 = a Denicin 3.2. Dada la matriz o

a21

Deniremos el determinante de A, denotado por det(A) |A|, como o a11 a12 a13 det(A) = |A| = a21 a22 a23 a31 a32 a33 = a11 a22 a23 a32 a33 a12 a21 a23 a31 a33 + a13 a21 a22 a31 a32

A = a21 a22 a23 M33 (R) a31 a32 a33

a11 a12 a13

este tipo de determinante es llamado determinante de orden 3. Observacin 3.1Ntese que estamos deniendo el determinante de orden 3 en funcin de o o o determinantes de orden 2. Ejemplo 3.12. Hallar det(A) para A = 6 7 2 3 1 1 0 2 3 1 1 0 5 6

Solucin. o

det(A) = |A| =

6 7

5 6

= 2

1 5 0 6

(3)

6 5 7 6

+ (1)

6 1 7 0

= 2(6 0) + 3(36 + 35) (0 + 7) = 2

102

III. Sistemas de Ecuaciones Lineales


Observacin 3.2. Una forma muy sencilla recordar la frmula de determinantes de orden 3 o o es la siguiente a11 a21 a31 a12 a22 a32 a13 a23 a33 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 a13 a22 a31 a23 a32 a11 a33 a12 a21

a11 a12 a13 a21 a22 a23

no es parte del determinante, es slo para o ayudar a recordar la frmula o

Los productos generados por las echas rojas () se colocan con signo positivo, los que son generados por las echas azules () se colocan con signo negativo. Puede vericar que la igualdad anterior es cierta. Tambin se puede hacer el clculo si en lugar e a de colocar las dos primeras las al nal, se colocan las dos ultimas las en la parte superior, las dos primeras columnas a la derecha o las dos ultimas columnas a la izquierda. Este mtodo se conoce como la mtodo de Sarrus para el clculo de determinantes de orden e e a 3 y slo es aplicable a determinantes de orden 3. o Ejemplo 3.12. Calculemos el determinante del ejemplo 1.23 usando este mtodo. e Solucin. o 2 3 1 1 0

6 7 6 6 7

5 6

= 2 1 6 + (6)0(1) + (7)(3)5 (1)1(7) 5 0 2 6(3)(6)

2 3 1 1

2 3 1 1 0

5 6

= 12 + 0 + 105 7 0 108 = 2

Que es lo mismo que el resultado obtenido antes.

103

III. Sistemas de Ecuaciones Lineales


Antes de denir determinantes de orden n, daremos dos deniciones previas.
A Denicin 3.3. Sea A = Mnn (R). Para cada i, j {1, . . . , n} denamos la matriz Mij o

M(n1)(n1) (R) que se obtiene de A al eliminar su i-sima la y su j-sima columna, dicha e e matriz es llamada ij-simo menor de A. e Observacin 3.4. Si en lugar de eliminar una la y una columna de A, eliminamos dos las o y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A estas matrices se denotan por Mij,kl , lo que signica que se han eliminado las las i e j

(con i = j) y las columnas k y l (con k = l) de A. De manera anloga se pueden denir a menores de A Mnn (R) hasta de orden n 1.
A A A A Observacin 3.5. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l {1, . . . , o

n} con i = j y k = l.

Ejemplo 3.14. Consideremos la matriz A=

9 2 1 0 8 5 1 6 4 1

A A A Hallar M23 ; M42 y M22 .

7 3 6 0 3

Solucin. o A M23 = 1 6 6 ; 4 1 3 9 2 4 A M42 = 9 1 0 5 1 7 3 6 4 A y M22 = 9 1 1 4 3 6 0 3 4

Denicin 3.4. Sea A Mnn (R). Para cada i, j {1, . . . , n} deniremos el ij-simo coo e
A factor de A como el nmero real Cij dado por u A A Cij = (1)i+j det Mij

Ejemplo 3.13 Para la matriz del ejemplo 2.25 se tiene que

104

III. Sistemas de Ecuaciones Lineales

A C23

= (1)

2+3

det

A M23

9 2 4 1

4 = (162 + 4 + 48 + 96 54 6) = 74 3 4 7 = 270 + 0 7 + 20 + 189 0 = 68

1 6 6

A C42

= (1)

4+2

det

A M42

9 1 0 5 1

3 6 4 = 81 + 0 24 + 48 0 + 3 = 54 3 3 6 0

A C22

= (1)

2+2

det

A M22

9 1 1 4

Pasemos ahora a denir los determinantes de orden n. En primer lugar notemos que la frmula o dada en la denicin 2.18 puede ser escrita como o
A A A det(A) = |A| = a11 C11 + a12 C12 + a13 C13

La idea es generalizar esta frmula para una matriz A de orden n. o Denicin 3.5. Sea A Mnn (R). Deniremos el determinante de A, determinante de o orden n, como el nmero real det(A) = |A| dado por u a21 a22 a2n det(A) = |A| = . . .. . = . . . . an1 an2 ann Ejemplo 3.14. Hallar el determinante de la matriz del ejemplo 2.25 Solucin. o 9 2 1 0 8 5 1 6 4 1 4 7 3 a11 a12 a1n
n A a1j C1j j=1 n

=
j=1

A a1j (1)1+j det M1j

det(A) = |A| =

3 6 0

A A A = (9)(1)1+1 det M11 + 2(1)1+2 det M12 + (1)(1)1+3 det M13 A +4(1)1+4 det M14

105

III. Sistemas de Ecuaciones Lineales


8 5 1 7 3 0 5 1 4 7 3 0 8 4 1 7 3 0 8 5 1 6 4 1

det(A) = 9 6

3 6 2 0

3 6 0

1 6 6 4

3 0

= 9(72 + 0 + 30 21 0 + 90) 2(0 + 0 120 + 84 0 + 15) = 1539 + 42 343 + 884 = 956

(0 + 7 + 192 + 168 0 24) 4(0 5 96 120 0 0)

Ejemplo 3.15. Calcular el determinante de la matriz 2 0 0 0 12 1 0 A= 3 9 5 8 0 3 6 7 0 7 1

0 0 0

Solucin. Notemos primero que A es triangular inferior. o 2 12 det(A) = |A| = 3 9 0 1 0 0 0 0 0 0 0 0 0

0 0 6

5 8

0 3 6 7

7 1

A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15 A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15

0 6

1 = 2 8

0 0

0 0 0

0 3 6 7

7 1

0 6

106

III. Sistemas de Ecuaciones Lineales


3 7 0 0 0 + 0(1)
1+2

det(A) = 2 1(1)1+1

0 6

0 0

7 1

0 6 8 0 3 0 7

8 1

0 6 8 0 3 0

+0(1)

1+3

0 + 0(1)

1+4

6 7 6

= 21

3 7

0 0

7 1 6 7 0

7 1

0 6 1 0 0 6 + 0(1)1+2 7 0 7 6 + 0(1)1+3 7 7 1 0

= 2 1 (3)(1)1+1 = 2 1(3) 1 0

= 2 1(3)(1)(6) = 36 El determinante de A es el producto de las componentes de la diagonal principal. Este resultado se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.

0 6

= 2 1(3)((1)(6) 0 0)

La demostracin del teorema que enunciaremos a continuacin escapa del objetivo del curso, o o sin embargo, de l se derivan el resto de las propiedades que sern enunciadas ms adelante.el e a a Teorema 3.9. Si A = (aij )nn Mnn (R), entonces 1. det(A) =
n A aij Cij = j=1 j=1 n A aij (1)i+j det Mij para cada i {1, . . . , n} (Desarrollo del

determinante de A mediante la la i-sima). e


n n A aij Cij = i=1 i=1 A aij (1)i+j det Mij para cada j {1, . . . , n} (Desarrollo del

2. det(A) =

determinante de A mediante la columna j-sima). e Demostracin. Investigarlo . o

107

III. Sistemas de Ecuaciones Lineales


Ejemplo 3.16. Calcular el determinante de la matriz A del ejemplo 2.23 al desarrollar el de terminante mediante la tercera la y mediante la segunda columna. Solucin. En primer lugar hallemos el determinante de A desarrollndolo mediante la tercera o a la. 2 3 1 1 0

det(A) = |A| =

6 7

5 6 + 0(1)3+2 2 1 + 6(1)3+3 2 3

= 7(1)3+1

3 1 1

= 7(15 + 1) + 0 + 6(2 18) = 2

Ahora desarrollemos el determinante de A mediante la segunda columna. 2 3 1 1 0

det(A) = |A| =

6 7

5 6

= 3(1)1+2

6 5 7 6

+ 1(1)2+2

= 3(36 + 35) + (12 7) + 0 = 2

2 1

+ 0(1)3+2

2 1

Teorema 3.10. Si A Mn (R), entonces Demostracin. Se deja como ejercicio. o

det= det(A).

Sugerencia: proceder por induccin sobre n y usar el teorema 2.24 o

Teorema 3.11. Si A = (aij )nn Mnn (R) una matriz triangular (superior o inferior), entonces det(A) = a11 a22 ann . Demostracin. Procedamos por induccin sobre n. Supongamos, sin perder generalidad que o o A es una matriz triangular superior. Veriquemos que la tesis se cumple para n = 2. Sea A= a11 a12 0 a22

108

III. Sistemas de Ecuaciones Lineales


Entonces det(A) = a11 a22 a12 0 = a11 a22 matriz triangular superior A = (aij )(n1)(n1) M(n1)(n1) (R) se cumple que det(A) = a11 a22 a(n1)(n1) (Hiptesis Inductiva). o Probemos ahora que se cumple para n. Sea a11 a12 A= 0 . . 0 0 Supongamos ahora que la tesis se cumple para n 1, esto es, supongamos que para cualquier

a1n

a22 .. .. . .

Entonces, al desarrollar el determinante de A mediante la la n, obtenemos

a2n . . ann

A A A A A det(A) = 0 Cn1 + + 0 Cn(n1) + ann Cnn = ann (1)n+n det(Mnn ) = ann det Mnn

Pero a11 a12 a1(n1) a2(n1) . a(n1)(n1)

A Mnn =

A es decir, Mnn es una matriz triangular superior de orden (n1), por lo tanto, usando la Hiptesis o A Inductiva, se tiene que det Mnn = a11 a22 a(n1)(n1) . Luego

0 . . 0

a22 .. .. . . 0

det(A) = ann a11 a22 a(n1)(n1) = a11 a22 a(n1)(n1) ann Lo cual concluye la prueba.

Los teoremas que enunciaremos a continuacin, nos presentan las propiedades bsicas del o a determinante, estas propiedades nos permitirn hallar el determinante de una matriz sin hacer a demasiados clculos. Los enunciados de estas propiedades se darn slo para las, sin embargo, a a o en virtud del teorema 2.25, se pueden enunciar propiedades anlogas para columnas. a
/ Teorema 3.12. Sea A Mnn (R). Si existe s {1, . . . , n} tal que A(s) = 01n , entonces

det(A) = 0, es decir, si A tiene una la nula, su determinante es cero.

109

III. Sistemas de Ecuaciones Lineales


/ Demostracin. Sea A = (aij )nn . Como A(s) = 01n , entonces asj = 0 para cada j {1, . . . , n}. o

As que, al desarrollar el determinante de A por medio de la la s, se tiene que


n n A asj Csj j=1

det(A) =

=
j=1

A 0 Csj = 0

Teorema 3.14. Sean A, B Mnn (R) y R. Si existe s {1, . . . , n} tal que B(s) = A(s) y B(i) = A(i) para i = s, entonces det(B) = det(A), esto es, si multiplicamos una la de A multiplicado por . Demostracin. Sean A = (aij )nn y B = (bij )nn . Como B(s) = A(s) y B(i) = A(i) para i = o s, entonces bsj = asj para cada j {1, . . . , n} y adems, la matriz que se obtiene al eliminar a
A B la la s de B coincide con la matriz que se obtiene al eliminar la la s de A. Luego Msj = Msj

por un escalar , entonces el determinante de la matriz resultante es igual al determinante de A

para cada j {1, . . . , n} Por lo tanto


B B A Csj = (1)s+j det(Msj ) = (1)s+j det(Msj ) = A Csj para cada j {1, . . . , n}.

Ejemplo 3.17. Sea

Entonces 2 det(A) = 2 1 2

A = 12 16 4 2 0 3 2 = 2 1 2 = 4 3 2 1 2 2 3 4 1 0 3

1 2

12 16 4 0 3

4 3 4(4) 4 1 0

= 4[2(4)3 + 3 0 2 + (2)(1)1 2(4)(2) 1 0 2 3(1)3] = 4[24 + 0 + 2 16 0 + 9] = 4(29) = 116

110

III. Sistemas de Ecuaciones Lineales


Teorema 3.15. Sean A, B, C Mnn (R). Si existe s {1, . . . , n} tal que C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces det(C) = det(A) + det(B), dicho de otra manera, si tenemos tres matrices A, B, C cuyas las son idnticas excepto la la s, y que la la s de C es e igual a la suma de la la s de A con la la s de B, entonces el determinante de C es igual a la suma del determinante de A con el determinante de B. Demostracin. Sean A = (aij )nn , B = (bij )nn y C = (cij )nn . Sean A, B, C Mnn (R). o

Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces csj = asj + bsj para cada
A B C iguales, as que Msj = Msj = Msj para cada j {1, . . . , n}.

j {1, . . . , n} y adems, las matrices que se obtienen al eliminar la la s de A, B y C son a Por lo tanto

C B A Csj = Csj = Csj

para cada j {1, . . . , n} En consecuencia


n n C csj Csj j=1 n n n C asj Csj j=1

det(C) = =
j=1

=
j=1 n

(asj +

C bsj )Csj

+
j=1

C bsj Csj

A asj Csj + j=1

B bsj Csj = det(A) + det(B)

Ejemplo 3.18 Sea A la matriz del ejemplo 2.30. Entonces 2 det(A) = 2 1 2 4 + (2) = 1 + (3) 1 2 0 3 4 = 1 1 2 2 3 1 2

12 16 4 0 3

6 + 6 16 4

6 16 4 + 0 3

6 16 4 0 3

= [4(16)3 + 6 0 2 + 1(1)4 2(16)1 4 0 4 3(1)6] + = [192 + 0 4 + 32 0 + 18] + [96 + 0 + 12 96 0 + 18] = 146 + 30 = 116

[2(16)3 + 6 0 2 + (3)(1)4 2(16)(3) 4 0(2) 3(1)6]

Teorema 3.16. Sean A, B Mnn (R). Si existen s, t {1, . . . , n} tales que s = t, B(s) = A(t) , si intercambiamos dos las distintas de A, el determinante de la matriz resultante es igual al determinante de A multiplicado por 1.

B(t) = A(s) y B(i) = A(i) para i = s y i = t, entonces det(B) = det(A), en otras palabras,

111

III. Sistemas de Ecuaciones Lineales


Ejemplo 3.19. Sea A la matriz del ejemplo 2.30 sea

2 B=

4 16

3 2

Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las la 2 de B es igual a la la 2 de A. Adems a 2 det(B) = 3 1 2 12

12 -2

4 16

= 2(16)(2) + 4 0 2 + 3(1)12 2(16)3 12 0 2 (2)(1)4 = 64 + 0 36 + 96 0 8 = 116 = det(A)

0 2

Teorema 3.17. Sea A Mnn (R). Si existen s, t {1, . . . , n} tales que s = t y A(s) = A(t) , entonces det(A) = 0, es decir, si A tiene dos las iguales, su determinante es igual a cero. Demostracin. Sea B Mnn (R) la matriz que se obtiene al intercambiar las las s y t de A. o Como A(s) = A(t) , entonces B = A y as det(B) = det(A). Por otro lado, dado que s = t y seg n el teorema 1.30, det(B) = det(A). u As que det(A) = det(B) = det(A) y en consecuencia det(A) = 0. Ejemplo 3.20. Sea

Entonces 2 det(A) = 2 4 16 1 2 1 2

2 1 2 A = 4 16 12 2 1 2

12

= 2(16)(2) + 4(1)(2) + 2(1)12 (2)(16)2 12(1)2 (2)(1)4 = 64 + 8 24 64 + 24 8 = 0

112

III. Sistemas de Ecuaciones Lineales

Teorema 3.18. Sean A Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s = t y la de A, su determinante es igual a cero.

A(s) = A(t) , entonces det(A) = 0, esto es, si una la de A es un mltiplo escalar de alguna otra u

Demostracin. Sea B Mnn (R) tal que B(i) = A(i) para cada i {1, . . . , n} con i = s y o B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 1.31, se tiene que det(B) = 0. Por otro lado, como A(s) = A(t) = B(t) = B(s) , entonces, usando el teorema 2.28, se tiene que det(A) = det(B) = 0 = 0.

Ejemplo 3.21. Sea

Entonces la columna A(2) = 4A(1) , adems a 2 det(A) = 3 8 2 1

1 4 16 A= 3 12 2

4 16

= 2(16)(2) + (4)12 2 + 3 8 1 2(16)3 1 12 2 (2)8(4) = 64 96 + 24 + 96 24 64 = 0

12 2

B(s) = A(s) + A(t) y B(i) = A(i) para i = s, entonces det(B) = det(A), dicho de otra forma, si a una la de A le sumamos un mltiplo escalar de alguna otra la de A, el determinante de la u matriz resultante es igual al determinante de A. Demostracin. Sea C Mnn (R) tal que C(i) = B(i) = A(i) para i = s y C( s) = A(t) . Por o lo tanto, dado que s = t y en virtud del teorema 1.32, det(C) = 0. Adems, como B(s) = A(s) + A(t) = A(s) + C(s) y en virtud del teorema 1.29 a det(B) = det(A) + det(C) = det(A) + 0 = det(A)

Teorema 3.19.Sean A, B Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s = t,

113

III. Sistemas de Ecuaciones Lineales


Ejemplo 3.22. Sea A la matriz del ejemplo 2.30 y sea 2 1 2 B = 2 9 10 2 0 3 As que B(2) = A(2) 7A(1) .Adems a det(B) = 2 9 10 2 0 2 1 2 3

= 2(9)3 + (2)0 2 + (2)(1)(10) 2(9)(2) (10)0 2 3(1)(2) = 54 + 0 20 36 0 6 = 116 = det(A)

El siguiente ejemplo nos da un mtodo para calcular el determinante de una matriz A haciendo e uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el clculo resulta a mucho ms sencillo que al usar la denicin. a o Como se dijo en la observacin 2.15, usaremos tanto OEF como operaciones elementales por o columnas (OEC) para el clculo de determinantes, estas operaciones las indicaremos de manera a anloga a las OEF, salvo que en lugar de usar F usaremos C. a Ejemplo 3.23. Hallar el determinante de la matriz 6 1 2 13 2 1 0 1 3 1 A= 2 0 3 = 7 0 3 0 4 9 1 3 12 0 2 3 1 3 2 0 10 0 2 0 3 C4 C4 + 3C2 0

Solucin. o 6 1 0 3 7 0 2 2 0 4 13 9

det(A) =

0 1 3 1 1 3 12

6 1 0 3 7 0 2

0 1 3 1 1 3 15

por teorema 2.33

1 3

4 5 3

114

III. Sistemas de Ecuaciones Lineales


6 det(A) = 3(1)3+2 7 0 2 3 10 15 2 desarrollando el determinante mediante la tercera la 3

1 1 3 1 4 5 3

= 3

1 1 3 1 F3 F3 + 7F2 0 4 6 4 por teorema 1.33 0 4 5 3 4 8 4 desarrollando el determinante

0 4 8 4

F1 F1 + 6F2

mediante la primera columna 4 5 3 0 13 7 F1 F1 + F3 = 3 0 11 7 F2 F2 + F3 4 5 3 por teorema 1.33 = 3 4(1)3+1 13 7 11 7 desarrollando el determinante mediante la primera columna

= 3(1)(1)2+1 4 6 4

= 12(13(7) (7)(11)) = 12 14 = 168 Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos mtodos cul de los dos e a le parece ms sencillo? a Teorema 3.19. Sea A = (aij )nn Mnn (R). Entonces para cualesquiera s, t {1, . . . , n} con s = t se tiene que
n A ask Ctk = 0 y k=1 k=1 n A aks Ckt = 0

para cada i {1, . . . , n} con i = t y B(t) = A(s) . As que, usando el teorema 1.31, det(B) = 0.

Demostracin. Sea s, t {1, . . . , n} con s = t. Denamos B = (bij )nn tal que B(i) = A(i) o Por otro lado, las matrices que se obtienen al eliminar la la t de B y la la t de A, son iguales,

B A B A por lo tanto Mtk = Mtk para cada k {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el

determinante de B mediante la la t, se tiene que


n

n B btk Ctk

det(B) =
k=1 n A ask Ctk k=1

=
k=1

A ask Ctk n

En consecuencia

= 0, anlogamente se prueba que a


k=1

A aks Ckt = 0.

115

III. Sistemas de Ecuaciones Lineales

Teorema 3.20. Si E Mnn (R) es una matriz elemental, entonces para cada A Mnn (R) se tiene que det(EB) = det(E) det(B). Demostracin. Como E Mnn (R) es una matriz elemental, existe una OEF f : Fn (R) o f (A). Debemos proceder por casos sobre el tipo de OEF. Caso 1. f es una OEF tipo 1. As que existen s {1, . . . , n} y = 0 tales que E(s) = (In )(s) (donde (In )(s) es la la s de In ) y para i = s se tiene que E(i) = (In )(i) . Luego (f (A))(s) = A(s) y para i = s tenemos (f (A))(i) = A(i) . Por lo tanto, seg n el teorema 2.28, u det(E) = det(In ) = 1 = y det(EA) = det(f (A)) = det(A) = det(E) det(A). Caso 2. f es una OEF tipo 2. Luego existen s, t {1, . . . , n}, con s = t, y R tales que E(s) = (In )(s) + In )(t) y E(i) = (In )(i) para i = s. As que (f (A))(s) = A(s) + (t) y ( A (f (A))(i) = A(i) para i = s. Usando el teorema 2.33, tenemos que det(E) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E) det(A) Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t {1, . . . , n} tales que E(s) = (In ) (t) , E(t) = (In )(s) y E(i) = (In )(i) para i = s e i = t. De donde (f (A))(s) = A(s) + (t) y A (f (A))(i) = A(i) para i = s e i = t. Si s = t, entonces E = In y f (A) = A, as que det(E) = det(In ) = 1

Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A =

116

III. Sistemas de Ecuaciones Lineales


y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E) det(A) Si s = t, podemos usar el teorema 1.30 y obtenemos det(E) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = (1) det(A) = det(E) det(A)

Observacin De la prueba del teorema 1.35, se tiene que si E Mnn (R) es una matriz o elemental, entonces det(E) = 0. Corolario Sean E1 , E2 , . . . , Er Mnn (R) matrices elementales. Entonces, para cada A

Mnn (R), se tiene que det(E1 E2 Er A) = det(E1 ) det(E2 ) det(Er ) det(A). Demostracin. Ejercicio! o

orema 3.21. Si A Mnn (R) es una matriz ERF, entonces det(A) = 0 si y slo si A = In . o Demostracin. Sea A = (aij )nn . Como A es ERF, entonces A es triangular superior (ver o ejercicio 1.5), as que aij = 0 para i > j y det(A) = a11 a22 ann . Supongamos que det(A) = 0. Luego aii = 0 para cada i {1, . . . , n}. Como aij = 0 para i > j,

entonces para cada i {1, . . . , n}, la primera componente no nula en la i-sima la es aii , y por e ser A una matriz ERF, se tiene que aii = 1 para cada i {1, . . . , n}, es decir, aii es un pivote y por lo tanto aij = 0 para i = j (por qu?). En resumen e aij = Es decir, A = In . Rec procamente, si A = In , entonces det(A) = 1 = 0. 1 si i = j 0 si i = j

En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz cuadrada.

117

III. Sistemas de Ecuaciones Lineales


Teorema 3.22. Sea A Mnn (R). Entonces A es invertible si y slo si det(A) = 0. o Demostracin. Sea B Mnn (R) la FERF A. Entonces existen matrices elementales E1 , E2 , . . . , Er o Mnn (R) tales que B = E1 E2 Er A. Como det(Ei ) = 0 para cada i {1, . . . , r}, entonces det(A) = 0 si y slo si la FERF de A es In , lo cual concluye la prueba. o det(A) = 0 si y slo si det(B) = 0; y usando el teorema 1.37 se tiene que B = In . Por lo tanto o

Teorema 3.23 Sean A, B Mnn (R). Entonces det(AB) = det(A) det(B). Demostracin. o Caso 1. det(A) = 0. As que, en virtud del teorema 1.38, A no es invertible. Luego, usando el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se tiene que det(AB) = 0. Por lo tanto det(AB) = 0 = 0 det(B) = det(A) det(B) Caso 2. det(A) = 0. Luego A es invertible, en virtud del teorema 1.38. As que, al usar el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que A = E1 E2 Er . Luego, por el corolario 1.36

det(A) = det(E1 E2 Er ) = det(E1 ) det(E2 ) det(Er ) y det(AB) = det(E1 E2 Er B) = det(E1 ) det(E2 ) det(Er ) det(B) = det(A) det(B)

Regla de Cramer
En esta seccin deniremos la adjunta de una matriz y enunciaremos la regla de Cramer , o que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicacin o de los determinantes. Denicin 3.22. Sea A Mnn (R). Se dene la matriz adjunta de A como la matriz adj(A) o
A decir, si adj(A) = (bij )nn , entonces bij = Cji para cualesquiera i, j {1, . . . , n}.

Mnn (R) cuya ij-sima componente es el ji-simo cofactor de A para cada i, j {1, . . . , n}, es e e

118

Sistemas de Ecuaciones Lineales


A Observacin Si C = (Cij )nn , es decir, si C es la matriz real cuadrada cuya ij-sima o e

componente es el ij-simo cofactor de A para cada i, j {1, . . . , n}, entonces adj(A) = C T . e Ejemplo 3.24 Hallar la adjunta de A= 1 2 1 3 0 2 4 1 7

Solucin. Necesitamos hallar cada uno de los cofactores de A. Veamos o

A C11 = (1)1+1

0 2 1 7 1 3 1 7 1 3 0 2

= 2;

A C12 = (1)1+2

1 2 4 7 2 3 4 7 2 3 1 2

= 1;

A C13 = (1)1+3

4 1 2 1 4 1 1

= 1;

A C21 = (1)2+1

= 4;

A C22 = (1)2+2

= 2;

A C23 = (1)2+3

= 2; = 1;

A C31 = (1)3+1

= 2;

A C32 = (1)3+2

= 1; 2 1

A C33 = (1)3+3

2 1

As que

A A A adj(A) = C12 C22 C32 A A A C13 C23 C33

A A A C11 C21 C31

2 1 1 2 1

4 2

Teorema 3.24 Sea A Mnn (R). Entonces A adj(A) = det(A)In = adj(A)A. Demostracin. Hagamos adj(A) = (bjk )nn . As que para cada j, k {1, . . . , n}, se tiene que o
A bjk = Ckj .

Si hacemos A adj(A) = D = (dik )nn , entonces, para cada i, k {1, . . . , n}, tenemos que
n n

dik =
j=1

aij bjk =
j=1

A aij Ckj .

Pero

n A aij Cij = det(A) j=1

119

III. Sistemas de Ecuaciones Lineales


, si i = k, entonces
n A aij Ckj = 0 j=1

Por lo tanto dik = det(A) si i = k 0 si i = k 1 si i = k 0 si i = k

= det(A) = det(A)ik

donde In = (ik )nn . En consecuencia A adj(A) = det(A)In . De manera anloga se prueba que a adj(A)A = det(A)In , lo cual concluye la prueba. 1 1 y A1 = adj(A). det(A) det(A)

Teorema 3.25. Si A Mnn (R) es invertible, entonces det(A1 ) =

A1 A, y por el teorema 1.39

Demostracin. Como A es invertible, entonces existe A1 Mnn (R) tal que AA1 = In = o det(A) det(A1 ) = det(AA1 ) = det(In ) = 1.

Luego det(A1 ) =

1 . det(A)

Por otro lado, usando el teorema 1.40, se tiene que A De donde A1 = 1 adj(A) det(A) = 1 1 A adj(A) = det(A)In = In . det(A) det(A) 1 adj(A). det(A)

Ejercicio Sea A Mnn (R) una matriz invertible. Pruebe que adj(A) tambin es invertible y e adems (adj(A))1 = adj(A1 ). a

120

III. Sistemas de Ecuaciones Lineales


Consideremos la ecuacin matricial Ax = b, donde A Mnn (R). Si A es invertible, entonces o

la unica solucin de dicha ecuacin est dada por x = A1 b, as que, una forma de hallar la o o a solucin de la ecuacin en cuestin, es calcular la inversa de A y multiplicarla por b, pero quizs o o o a esto es mucho ms complicado y costoso (en trminos de clculos) que hallar la FERF de la a e a matriz [A|b]. En el siguiente teorema presentaremos una herramienta que permite resolver la ecuacin ano terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha herramienta se conoce con el nombre de la regla de Cramer . Teorema 3.25(Regla de Cramer). Sea A Mnn (R) una matriz invertible y b Mn1 (R). Si x1 x2 det(Ab ) j es la solucin de la ecuacin Ax = b, entonces, para cada j {1, . . . , n}, xj = o o , x= . det(A) xn donde Ab es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es, j Ab = j A(1) A(j1) b A(j+1) A(n) b1

Demostracin. Como A = (aij )nn es invertible, entonces la unica solucin del sistema Ax = b o o es x = A b, pero A
1 1

1 entonces xj = C A bi para cada j {1, . . . , n}. det(A) i=1 ij Por otro lado, para cada j {1, . . . , n}, se tiene que a11 a1(j1) b1 a1(j+1) . . . . . . . . Ab = j ai1 ai(j1) bi ai(j+1)

b 1 1 2 = adj(A), as que x = adj(A)b, por lo tanto, si b = . , det(A) det(A) . bn

a1n . . ain

a(i1)1 a(i1)(j1) bi1 a(i1)(j+1) a(i1)n a(i+1)1 a(i+1)(j1) bi+1 a(i+1)(j+1) a(i+1)n . . . . . . an1 an(j1) bn an(j+1) ann
Ab Ab Ab

A Por lo tanto, para cada i {1, . . . , n}, tenemos que Mij j = Mij y as

A A Cij j = (1)i+j det Mij j = (1)i+j det Mij = Cij

121

III. Sistemas de Ecuaciones Lineales


Luego, al desarrollar el determinante de Ab por medio de la j-sima columna, obtenemos e j
n

det(Ab ) = j
i=1

Cij j bi =
i=1

Ab

n A Cij bi

En consecuencia, para cada j {1, . . . , n} tenemos que xj = det(Ab ) j det(A)

Ejemplo 3.25. Vericar que la matriz del sistema +2z x

2y +z +4w = 1 es invertible y usar la regla de Cramer para hallar la solucin del sistema. o Solucin. La matriz del sistema es o 1 0 2 1

x +y +2z +w = 2 4x +2y +2z 3w = 1

w = 3

A=

hallemos su determinante 1 0 2 1 det(A) = 1 1 2 0 2 1 = 4 2 2 3 6 3 1

1 1 1 2 4 2 2 3 0 2 1 4 2 1 0 1 1 = 2 0 2 = 1 4 1 2 0 1 0 0

1 0 = 0 1 0 2

1 4

2 4

0 2 6

2 6 1

2 6 3

= 3 = 0.

Por lo tanto la matriz del sistema es invertible, as que podemos aplicar la regla de Cramer para resolverlo. En este caso la matriz de trminos independientes es e 3 b= 2 1 1

122

III. Sistemas de Ecuaciones Lineales


Luego 3 0 2 1 det Ab 1 = 2 1 2 1 2 1 1 2 2 3 0 6 1 13 = 0 3 0 1 0 0 2 1 1 7 7 6 1 13 0 1 0 7 7

1 4

= 3

= 3 0 0 1

6 0 20 7 7

6 20 3 7

= 42 60 = 18.

1 3 2 1 det Ab 2 = 1 2 2 0 1 1 1 4 1 2 3 0 1

1 = 0 0 0 = 6

3 1

1 4

2 1

2 4

0 11 6 1

11 6 1 1

0 2 1 4

11 6 21 1

6 21 1

= (36 + 21) = 15.

1 0 3 1 det Ab 3 = 1 1 2 0 2 1 = 4 2 1 3 9 3 3

1 0 = 0 1 0 2

1 4

0 2 11

2 1

2 1 4

1 = 2

2 11 1

1 2

1 4

0 9 3 0 3

1 1

2 0

= 9.

1 0 2 3 det Ab 4 = 1 1 2 2 4 2 2 1 0 2 1 1 = 6 9 1 =

1 0 0 1 0 2

2 0 1

3 1 =

1 2

0 1

0 2 6 11

2 6 11

1 = 2

0 1

0 3

2 6 9

= 18 + 9 = 9.

123

Sistemas de Ecuaciones Lineales det Ab det Ab det Ab 18 15 9 1 2 3 = = 6; y = = = 5; z = = = 3; det(A) 3 det(A) 3 det(A) 3

En consecuencia x =

3.5.

det Ab 9 4 w= = = 3, es decir, la solucin del sistema dado es: o det(A) 3 x 6 y 5 = z 3 w 3

Aplicaciones

Ejemplo 3.26 Una fbrica produce tres tipos de productos, mezclando para ello tres materias a primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la materia prima 2; nalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la fbrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de a la materia prima 2 y seis millones de la materia prima 3 cuntas unidades de cada producto a puede producir la fbrica usando el total de las materias primas? a Solucin. Para cada i {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede o producir la fbrica. a Por lo tanto, la cantidad de unidades (en millones) que se usarn es: a x1 + x2 + 3x3 3x1 + 3x2 + 3x3 2x1 + 2x3 de la materia 1 de la materia 2

de la materia 3

Como se quiere usar el total de las materias primas, entonces x1 +x2 +3x3 = 6 3x +3x2 +3x3 = 12 1 2x +2x = 6
1 3

124

III. Sistemas de Ecuaciones Lineales


En este caso, la matriz del sistema, la matriz de incgnitas y la matriz de trminos indepeno e dientes son, respectivamente:

Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la matriz del sistema. 1 1 3 det(A) = 3 3 3 2 0 2 = 1 1 2 0 3 = 2 0 6 2

A = 3 3 3 ; 2 0 2

1 1 3

x = x2 x3

x1

y b = 12 6

0 0 6

= 12 = 0.

Como la matriz del sistema es invertible, podemos usar la regla de Cramer. 6 1 3 det Ab 1 = 12 3 3 6 0 2 1 det Ab 2 = 2 6 3 = 6 2 1 1 det Ab = 3 2 0 Por lo tanto x1 = 6 = 6 = 6 1 6 0 1 3 = 2 3 = 6 6 6

6 0 6

= (12 + 36) = 24.

3 12 3

0 6 6 0 6 4 1 1 2 0

6 6 6 4

= 24 36 = 12.

6 = 6

3 3 12

0 0 6

0 6 2

= 12.

24 12 12 = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de 12 12 12 la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un milln de o unidades de cada uno de los productos 2 y 3.

Los sistemas de ecuaciones, en conjuncin con las matrices son ampliamente usados en el planteamiento y resolucin de problemas que aparecen en la tecnologa; por ejemplo en el anlisis de circuitos elctricos, problemas de qumica como dce mezclado y de determinacin de los coeficientes en las ecuaciones qumicas. Aparte de los problemas mencionados, el uso de sistemas de ecuaciones es comn en la ingeniera civil en el anlisis de fuerzas que intervienen en estructuras. Tambin encontramos aplicaciones en el anlisis de sistemas econmicos.

125

UNIDAD III.. SISTEMAS DE ECUACIONES LINEALES

En un curso de Algebra Lineal elemental, no es posible dar una visin amplia acerca de las extensas aplicaciones que tendran los sistemas lineales y las matrices o sus derivados que son los determinantes; ms bien, en un cursos de este estilo, es convenienete adaptarse a la enseanza y manejo de los principios bsicos. Desde luego, lo anterior no significa que los ejemplos simples que se den en este curso no tengan posteriormente que ver con la formulacin de sistemas en problemas de Investigacin de Operaciones, o en la teora de la Regresin Lineal y Multilineal, materias fundamentales de los ingenieros industriales o en sistemas computacionales.

Las matrices se utilizan en el contexto de las ciencias como elementos que sirven para clasicar valores numricos atendiendo a dos criterios o variables. e Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F). Todos ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en euros) indicado por la tabla siguiente: A Color N Color F 2 unid. 004 00 4 003 5 unid. 008 005 10 unid. 012 008

Sabiendo que en un ao se venden el siguiente nmero de paquetes: n u 2 unid. 5 unid. 10 unid. Color N 700000 600000 500000 Color F 50000 40000 500000

Resumir la informacin anterior en 2 matrices A y B, de tama o respectivo 2x3 y 3x2 que recojan las o n ventas en un ao (A) y los precios (B). n Nos piden que organicemos la informacin anterior en dos matrices de tama o concreto. Si nos jamos o n en las tablas, es sencillo obtener las matrices: N 2 ud 5 ud 10 ud 0 04 700000 600000 500000 N 0 08 B= 50000 40000 500000 F 0 12 F 0 03 2 ud 0 05 5 ud 0 08 10 ud

A=

Estas matrices se denominan matrices de informacin, y simplemente recogen los datos numricos del o e problema en cuestin. o Otras matrices son las llamadas matrices de relacin, que indican si ciertos elementos estn o no o a relacionados entre s En general, la existencia de relacin se expresa con un 1 en la matriz y la ausencia . o de dicha relacin de expresa con un 0. o Estas matrices se utilizan cuando queremos trasladar la informacin dada por un grafo y expresarla o numricamente. e

126

UNIDAD III.. SISTEMAS DE ECUACIONES LINEALES

En Matemticas, un grafo es una coleccin cualquiera de puntos conectados por lineas. a o Existen muchos tipos de grafos. Entre ellos, podemos destacar: * Grafo simple: Es el grafo que no contiene ciclos, es decir, lineas que unan un punto consigo mismo, ni lineas paralelas, es decir, lineas que conectan el mismo par de puntos. * Grafo dirigido: Es el grafo que indica un sentido de recorrido de cada linea, mediante una echa. Estos tipos de grafo pueden verse en la gura:

Fig. Grafo, Grafo simple y Grafo dirigido.

Relacionadas con los grafos se pueden denir algunas matrices. Entre todas ellas, nosotros nos jaremos en la llamada matriz de adyacencia, que es aquella formada por ceros y unos exclusivamente, de tal forma que: * un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la la i hasta el punto de la columna j mediante una linea que los una directamente. * un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante una linea que los una directamente. La matriz de adyacencia del grafo dirigido de la gura anterior ser: a A A 0 B 0 C 1 D 0 B 1 0 0 0 C 0 1 0 0 D 1 0 0 0

Ejercicio 1) Escribe las correspondientes matrices de adyacencia de los grafos:

2) Dibuja los grafos dirigidos que correspondan a las matrices de adyacencia: A A 0 B 1 C 0 B 1 0 0 C 0 1 0 A A 0 B 0 C 1 D 0 B 1 0 0 1 C 1 0 0 1 D 1 1 0 0

127

UNIDAD IV

Espacios Vectoriales
Espacios Vectoriales, subespacios, combinaciones lineales y bases.

4.1.Definicin de espacio vectorial o


DdenEspacios Vectoriales Denicin 4.1. Un espacio vectorial real es una terna (V, +, ) formada por un o
V V conjunto no vaco V, cuyos elementos llamaremos vectores, y dos operaciones binarias + :

V, llamada adicin vectorial, y : R V V, llamada multiplicacin por escalar, o o satisfaciendo las siguientes condiciones

A0. u + v V para cualesquiera u, v V (cerradura de la adicin vectorial) o A1. u + v = v + u para cualesquiera u, v V (conmutatividad de la adicin vectorial) o A2. (u + v) + w = u + (v + w) para cualesquiera u, v, w V (asociatividad de la adicin o o A3. neutro para la adicin vectorial) Existe 0 vectorial) / / V V tal que v + 0V = v para cada v V (existencia de un elemento

/ A4. Para cada v V existe v V tal que v + v = 0V (existencia de un elemento

opuesto para la adicin vectorial) o

M0. v V para cualesquiera R y v V (cerradura de la multiplicacin por o escalar) M1. ( + ) v = v + v para cualesquiera , R y v V (distributividad

de la multiplicacin por escalar respecto a la adicin escalar) o o

M2. (u + v) = u + v para cualesquiera R y u, v V (distributividad de la multiplicacin por escalar respecto a la adicin vectorial) o o

128

IV.Espacios Vectoriales
M3. () v = ( v) = ( v) para cualesquiera , R y v V

(asociatividad de la multiplicacin escalar y la multiplicacin por escalar) o o

M4. 1 v = v para cada v V (existencia de un elemento neutro para la multiplicacin por escalar) o

Observacin 4.1. Es de hacer notar que las expresiones a la derecha de las igualdades en o M1. y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operacin + tiene mayor jerarqu o a que la operacin , esto es, ( u) + v puede ser escrito como u + v pero en la expresi o o n (u + v) no pueden suprimirse los parntesis. e Observacin 4.2. La denicin 2.1 se puede extender considerando un campo cualquiera K o o (ver apndices A y B) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial e y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en este caso V es llamado espacio vectorial complejo. En lo que resta del curso, slo consideraremos espacios vectoriales reales, salvo que se diga o lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de espacios vectoriales reales, a menos que haya error a confusin. o Observacin 4.3. En adelante, siempre que no haya error a confusin, en lugar de o o escribir v escribiremos v.

Observacin 4.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no o se ), sobrentendiendo las operaciones + y tienda a confusin, en lugar de la terna (V, +, o Ejemplo 4.1. 1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi R para cada i {1, . . . , n}} junto con las operaciones + y dadas como sigue

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) (x1 , x2 , . . . , xn ) = (x1 , x 2 , . . . , x n ) donde R y (x1 , x2 , . . . , xn ), (y1 , y2, . . . , yn ) Rn , es un espacio vectorial (verifquelo!)

129

IV.Espacios Vectoriales
2. El conjunto Mmn (R) junto con las operaciones + y , dadas en las deniciones 1.4 y 1.5 respectivamente, del cap tulo 1, es un espacio vectorial

3. Consideremos una matriz A Mmn (R). Los conjuntos


/ S = {x Mn1 (R) : Ax = 0m1 }

junto con las operaciones + y denidas en el captulo 1, son espacios vectoriales (prube e lo!) S es llamado espacio solucin del sistema homogneo Ax = 0 o e / y en detalle en la seccin 2.6 del presente captulo. o 4. Sea n N. Denamos Pn [x] = {a0 + a1 x + + an xn : a0 , a1 , . . . , an R} Es decir, Pn [x] est formado por todos los polinomios con coecientes reales en la variable a x de grado menor o igual a n incluyendo el polinomio nulo. Sobre Pn [x] consideremos las operaciones usuales de adicin de polinomios y multiplicacin de un nmero real por un o o u polinomio. Entonces Pn [x] es un espacio vectorial (prubelo!) e En general, si denimos el conjunto P[x] = {p(x) : p(x) es un polinomio en la variable x} entonces P[x] es un espacio vectorial junto con las operaciones usuales antes mencionadas (prubelo!) e Es de hacer notar que el polinomio nulo O(x) = 0 no tiene grado! (por qu?), adems, e a o espacio nulo de

R = {y Mm1 (R) : Ax = y para algn x Mn1 (R)} u

m1

A, y R es llamado el espacio imagen de A. Estos espacios sern tratados formalmente a

para cada n N se tiene que Pn [x] = (por qu?) y Pn [x] Pn+1 [x] P[x] (por qu?) e e

5. Sean a, b R con a < b. Denamos el conjunto F [ a , b ] de todas las funciones reales funciones y multiplicacin de una funcin por un nmero real, entonces F [ a , b ] o o u es un espacio vectorial (prubelo!) e

denidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adicin de o

130

Espacios Vectoriales 6. El conjunto V = {(x, y) R2 : y = x + 1} junto con las operaciones denidas en la parte 1 de este ejemplo, no es un espacio vectorial ya que (2, 3), (0, 1) V (por qu?) pero e (2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) V / pues 4 = 3 = 2 + 1, es decir, la adicin no es cerrada en V o V no es cerrado bajo la o adicin. o Sin embargo, si denimos sobre V las operaciones (x, y) + (z, w) = (x + z, y + w 1) (x, y) = (x, (y 1) + 1) entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) V y , R cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1. De donde y + w 1 = x + 1 + z + 1 1 = (x + z) + 1 y por lo tanto (x, y) + (z, w) = (x + z, y + w 1) V cumplindose A0. e (x, y) + (z, w) = (x + z, y + w 1) = (z + x, w + y 1) = (z, w) + (x, y) por lo que A1. es satisfecha. ((x, y) + (z, w)) + (a, b) = (x + z, y + w 1) + (a, b) = ((x + z) + a, (y + w 1) + b 1) = (x + (z + a), y + (w + b 1) 1) = (x, y) + (z + a, w + b 1) = (x, y) + ((z, w) + (a, b)) as que A2. se cumple.

131

IV. Espacios Vectoriales


/ / Denamos 0V = (0, 1). Entonces 0V V (por qu?) y adems e a

(x, y) + (0, 1) = (x + 0, y + 1 1) = (x, y) luego se satisface A3. Si (x, y) V, entonces (x, y + 2) V ya que y + 2 = (x + 1) + 2 (por qu?) e

= x 1 + 2 = x + 1 Adems a
/ (x, y) + (x, y + 2) = (x + (x), y + (y + 2) 1) = (0, 1) = 0V

en consecuencia se cumple A4. Verique que se cumple el resto de la propiedades en la denicin 2.1. Qu podra concluir o e a partir de este ejemplo?
/ 7. Dado un espacio vectorial V. Es fcil probar que el conjunto {0V }, junto con las operaciones a

+ y denidas sobre V, es un espacio vectorial.

/ Teorema 4.1. Los elementos 0V y v dados en A3. y A4. respectivamente, son unicoselementos de V que satisfacen dichas propiedades.

Demostracin. Supongamos que existe x V tal que v + x = v para cada v V. Luego, para o / V, se tiene que v = 0V / / (4.1) 0V +x = 0V Por lo tanto
/ x = x + 0V

(por A3.)

/ = 0V +x (por A1.) / = 0V

(por (2.1))

/ Lo que prueba la unicidad de 0V .

Supongamos ahora que para v V existen v , v V tales que


/ v + v = 0V / v + v = 0V

(4.2) (4.3)

132

IV.Espacios Vectoriales
Luego
/ v = v + 0V

(por A3.)

= v + (v + v ) (por 4.2) = (v + v) + v = (v + v) + v
/ = 0V +v / = v + 0V

(por A2.) (por A1.)

(por 4.3) (por A1.)

= v

(por A3.)

con lo cual se obtiene la unicidad del opuesto aditivo.

/ Observacin 4.5. Al vector 0V se le denomina vector nulo y el vector v es llamado opuesto o

(aditivo) de v y es denotado por v. sigue.

Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como

/ / A3. Existe un unico 0V V tal que v + 0V = v para cada v V (existencia y unicidad

del elemento neutro para la adicin vectorial) o

/ A4. Para cada v V existe un unico v V tal que v + (v) = v v = 0V (existencia

y unicidad del elemento opuesto para la adicin vectorial) o

Denicin 4.2. Sean V un espacio vectorial y u, v V cualesquiera. Deniremos el o vector u v, vector diferencia de u con v, como u v = u + (v) cualesquiera. Pruebe que Ejercicio 4.1. Sean V un espacio vectorial, v1 , v2 , . . . , vn , v V y 1 , , . . . , , R 2 n

1. ( 1 + 2 + + n )v = 1 v + 2 v + + n v. 2. (v1 + v2 + + vn ) = v1 + v2 + + vn . Ejercicio 4.2 (Ley de Cancelacin). Sea V un espacio vectorial y u, v, w V. Si u + v = u + o w, entonces v = w.

133

IV. Espacios Vectoriales


Teorema 4.2. Sea V un espacio vectorial. Entonces
/ / 1. 0V = 0V para cada R. / 2. 0v = 0V para cada v V. / 3. Si v = /V , entonces = 0 v = 0V . 0 o 4. ()v = (v) = (v) para cualesquiera R y v V. En consecuencia (1)v = v.

Demostracin. o 1. Sea R cualquiera. Entonces


/ / / / 0V + 0V = (0V + 0V ) (por M2.) / = 0V

(por A3.) (por A3.)

/ / = 0V + 0V

/ / Y por la ley de cancelacin (ejercicio 2.2) se tiene que 0V = 0V . o

2. Ejercicio!
/ 3. Supongamos que v = 0V . / Si = 0, no hay nada que probar, supongamos entonces que = 0 y probemos que v = 0V .

Por ser = 0, existe 1 R tal que 1 = 1 = 1 . Por lo tanto v = 1v (por M4.)

= (1 )v = 1 (v) (por M3.)


/ = 1 0V (por hiptesis) o / (por la parte 1) V = 0 Con lo que culmina la prueba de la parte 3.

4. Sean R y v V cualesquiera. Entonces v + ()v = ( + ())v = 0v


/ = 0V

(por M1.)

(por la parte 2)

134

IV. Espacios Vectoriales


Luego, por A4. (unicidad del opuesto aditivo), se tiene que ()v = (v). De manera anloga se prueba que (v) = (v). Finalmente, haciendo = 1 y por M4., obtenemos a (1)v = (1v) = v.

Observacin 4.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos o escribir v en lugar de ( v) sin error a confusin. o

4.2.

Definicion de subespaciovectorial y sus propiedades.

Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, considerando sobre ellos las operaciones + y de V. En esta seccin nos ocuparemos de dichos espacios o vectoriales los cuales son llamados subespacios vectoriales de V. Denicin 4.3. Sea W un subconjunto no vac de un espacio vectorial V. Diremos que W o o es un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones + y de V es un espacio vectorial. Ejemplo 4.2.1. Dado un espacio vectorial V, entonces W = {0 / } es un subespacio de V, el cual es llamado V son llamados subespacios triviales de V. Cualquier otro subespacio de V, distinto de estos dos, es llamado subespacio no trivial. Un subespacio de V distinto de V es llamado subespacio propio. 2. Dada una matriz real A Mmn (R). Los espacios S y R, dados en la parte 3 del ejemplo

espacio vectorial nulo, as como tambin V (ver ejemplo 4.1 parte 7). Estos subespacios e

4.1, son subespacios de Mn1 (R) y Mm1 (R) respectivamente.

3. De la parte 4 del ejemplo 4.1 podemos garantizar que para cada n N se tiene que Pn [x] es un subespacio de Pn+1 [x] y de P[x]. 4. El conjunto C [ a , b ] formado por todas las funciones reales continuas sobre el intervalo cerrado [ a , b ], es un subespacio de F [ a , b ]. En efecto, es claro que C [ a , b ] F [ a , b ] (por qu?) y adems, la funcin nula est en e a o a C [ a , b ] (por qu?), por lo tanto C [ a , b ] es un subconjunto no vac de F [ a , b ]. e o

135

IV. Espacios Vectoriales


Si f, g C [ a , b ] y R, entonces, por un resultado de Clculo, f + g, f C [ a , b ], a cumplindose A0. y M0. e Finalmente, no es difcil probar que el resto de las propiedades en la denicin 2.1 son o satisfechas, con lo cual se obtiene que C [ a , b ] es un subespacio de F [ a , b ]. Antes de dar alg n otro ejemplo de subespacio vectorial, debemos hacer notar que en u realidad, para probar que un subconjunto no vac de un espacio vectorial es un subespacio de este ultimo, o slo es necesario probar que satisface las propiedades A0. y M0. como veremos en el siguiente o teorema. Teorema 4.3. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio vectorial de V si y slo si o 1. W = . 2. u + v W para cualesquiera u, v W, es decir, W es cerrado bajo la adicin vectorial o (denida sobre V). 3. v W para cualesquiera R y v V, es decir, W es cerrado bajo la multiplicacin o por escalar (denida sobre V).

Demostracin. Sean V un espacio vectorial y W V. o

ademas W es un espacio vectorial con las operaciones + y denidas sobre V, por lo tanto u + v, v W para cualesquiera R y u, v W. Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.

Supongamos que W es un subespacio de V. Entonces por denicin 4.3 tenemos que W = y o

Debemos probar que W junto con las operaciones + y denidas sobre V es un espacio vectorial.

Segun las hipotesis las condiciones A0. y M0. se satisfacen. Por otro lado, debido a que W V

y las condiciones A1., A2., M1., M2., M3. y M4. se satisfacen para cualesquiera u, v, w V,
0 0

/ / / 2 del teorema 4.2 se tiene que 0v0 = 0V , as que 0V W y en consecuencia existe 0V W tal que

entonces dichas condicionesqu v W pa s cumplen r cua lesquiera u, v, w W y , / e ada v W. W W y R. As que , olo resta W. Entonces, en virtud de la condicin 3, 0v W, pero por la parte Como W = s existe v probar que 0 o

/ para cada v W se tiene que v + 0V = v, es decir, la condicin A3. se satisface si sustituimos V o / / por W. Esto ultimo signica que 0W = 0V , es decir, el vector nulo en todos los subespacios de V

es el mismo.

136

IV. Espacios Vectoriales


Finalmente, sea v W cualquiera. Entonces, por la condicin 3, tenemos que (1)v W y dado o
/

que (1)v = v (por la parte 4 del teorema 4.2), entonces v W, en consecuencia para cada v W existe v W tal que v + (v) = 0
V,

es decir, la condicin A4. se satisface si o

sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector opuesto aditivo de cualquier vector en un subespacio, es tambin un vector del subespacio. e

Observacin 4.7. Segn la demostracin del teorema 4.3, si W es un subespacio vectorial o u o de / V W. unAs que para probar que un subconjunto W de un espacio vectorial V es un subespacio de este espacio vectorial V, entonces 0
/ ultimo, lo primero que debemos probar es que 0V W, esto a su vez garantiza que W = . Si / 0V W, entonces W no es un subespacio de V. /

El teorema 4.3 permite probar que un subconjunto de un espacio vectorial V es un subespacio de este slo con probar tres condiciones, sin embargo, el corolario siguiente nos permite hacer la o misma pruebo con slo vericar dos condiciones. o Corolario 4.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V si y slo si o 1. W = . 2. u + v W para cualesquiera R y u, v W. Demostracin. Supongamos primero que W es un subespacio vectorial de V y probemos que o las condiciones 1 y 2 se cumplen. En primer lugar W = por denicion 2.3. Sean R y u, v W cualesquiera. Entonces, por la parte 3 del teorema 2.3, tenemos que v W, luego, por la parte 2 del mismo teorema, se tiene que u + v W. vectorial de V. Como W del teorema 2.3. de la hiptesis). o Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio = , slo debemos probar que se satisfacen las condiciones 2 y 3 o

Sean u, v W cualesquiera. Entonces u + v = u + 1v W (tomando = 1 en la condicin 2 o


/ Por otro lado, sean R y v W cualesquiera. Entonces 0V = v + (v) = v + (1)v W / + vV= 0 vW (tomando

(tomando = 1 y u = v en la condicin 2 de la hiptesis) as que o o


/ u = 0V en la condicin 2 de la hiptesis). Lo cual concluye la prueba. o o

137

IV. Espacios Vectoriales


Observacin 4.8. Segn la observacin 2.7, la condicin 1 en el teorema 2.3 y la condicin o u o o o 1 en el corolario 2.4, pueden ser sustituidas por la siguiente condicin. o / V W. 1. 0 Observacin 4.9. Recordemos que para probar que los conjuntos S y R, denidos en la parte 3 o

del ejemplo 4.1, son subespacios de Mn1 (R) y Mm1 (R), respectivamente (ver parte 2 del ejemplo

4.2), fue necesario probar que eran espacios vectoriales (se dej como ejercicio), sin embargo, al o
usar el teorema 4.3 o el corolario 4.4, vemos que no es necesario. Ejercicio 4.3. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de V y V es un subespacio de U, entonces W es un subespacio de U. Ejemplo 4.3. Pruebe que W = {a+bx+cx2 +dx3 P3 [x] : 2ab+3cd = 0; a+b4c2d = 0} es un subespacio de P3 [x]. Solucin. Es claro que W P3 [x]. o a W ya que

Por otro lado, el polinomio nulo O(x) = 0 = 0 + 0x + 0x2 + 0x3 (vector nulo de P3 [x]) pertenece

2 0 0 +3 0

0 +0 4 0 2 0 = 0

0 = 0

Sean p(x) = a1 + b1 x + c1 x2 + d1 x3 y q(x) = a2 + b2 x + c2 x2 + d2 x3 polinomios cualesquiera en W y R cualquiera. Entonces 2a1 b1 +3c1 d1 = 0 y 2a2 b2 +3c2 d2 = 0

a1 +b1 4c1 2d1 = 0

a2 +b2 4c2 2d2 = 0

Seg n el corolario 2.4 y la observacin 2.8, slo falta probar que p(x) + q(x) W. Pero u o o p(x) + q(x) = (a1 + b1 x + c1 x2 + d1 x3 ) + (a2 + b2 x + c2 x2 + d2 x3 ) = (a1 + a2 ) + (b1 + b2 )x + (c1 + c2 )x2 + (d1 + d2 )x3 Adems a 2(a1 + a2 ) (b1 + b2 ) + 3(c1 + c2 ) (d1 + d2 ) = 2a1 + 2a2 b1 b2 + 3c1 + 3c2 d1 d2 = (2a1 b1 + 3c1 d1 ) + (2a2 b2 + 3c2 d2 ) = 0 (por qu?) e

138

IV. Espacios Vectoriales


y (a1 + a2 ) + (b1 + b2 ) 4(c1 + c2 ) 2(d1 + d2 ) = a1 + a2 + b1 + b2 4c1 4c2 2d1 2d2 = (a1 + b1 4c1 2d1) + (a2 + b2 4c2 2d2 ) = 0 (por qu?) e Por lo tanto p(x) + q(x) W y en consecuencia, W es un subespacio de P3 [x]. Teorema 4.5. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1 W2 es un subespacio de V. Demostracin. Dado que W1 , W2 V (ya que W1 y W2 son subespacios de V), entonces o
/ tanto 0V W1 W2 .

/ / W1 W2 V, adems, debido a la observacin 4.7, se tiene que 0V W1 y 0V W2 y por lo a o

son subespacios de V, tenemos que u + v W1 y u + v W2 y por lo tanto u + v W1 W2 . de V. Luego, en virtud del corolario 4.4 y la observacin 4.8, tenemos que W1 W2 es un subespacio o

Sean R, u, v W1 W2 cualesquiera. Entonces u, v W1 y u, v W2 y dado que W1 y W2

Ejercicio 4.4. Dados dos subconjuntos A y B de un espacio vectorial V, denamos el conjunto A + B = {a + b : a A y b B} Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio de V.
/ Ejercicio 4.5. Sean W1 y W2 dos subespacios de un espacio vectorial V tales que W1 W2 = {0V }

y V = W1 + W2 . Pruebe que para cada v V existen unicos vectores w1 W1 y w2 W2 tales que v = w1 + w2 . Ejercicio 4.6. Sean W1 , W2, . . . , Wn subespacios de un espacio vectorial V. Demuestre que W1 W2 Wn es un subespacio de V. Sugerencia: Proceda por induccin matemtica sobre n y use el teorema 4.5. o a

139

IV. Espacios Vectoriales

4.3.

Combinacin Lineal.Indepencia Lineal. o

Consideremos una matriz real cuadrada de orden 2 a b c d Entonces a b c d =a 1 0 0 0 +b 0 1 0 0 +c 0 0 1 0 +d 0 0 0 1

Esta expresin es llamada combinacin lineal , denamos formalmente este concepto. o o Denicin 4.4. Sean V un espacio vectorial y v1 , v2 , . . . , vn , v V. Diremos que v es o

combinacin lineal de v1 , v2 , . . . , vn si existen escalares 1 , 2 , . . . , n R tales que o v = 1 v1 + 2 v2 + + n vn .

Observacin 4.10. En la denicin 2.4, podemos escoger una cantidad innita de vectores en o o V, en lugar de v1 , v2 , . . . , vn V, para denir combinacin lineal (ver apndice B). o e Ejemplo 4.4. 1. El ejemplo hecho al comienzo de la seccin nos dice que cualquier matriz real cuadrada de o orden 2 es combinacin lineal de las matrices o 1 0 0 0 , 0 1 0 0 , 0 0 1 0 , 0 0 0 1 .

En general, si para cada i {1, . . . , m} y cada j {1, . . . , n} denimos la matriz Eij entonces toda matriz A Mmn (R) es combinacin lineal de las matrices o E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn

Mmn (R) como aquella matriz cuya ij-sima componente es igual a 1 y el resto es 0, e

2. Cualquier vector p(x) Pn [x] es combinacin lineal de los polinomios 1, x, . . . , xn (por o qu?) e

140

Espacios Vectoriales 3. Cualquier vector (x1 , x2 , . . . , xn ) Rn es combinacin lineal de los vectores de Rn o e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)

Ejemplo 4.5. Determine si el vector v = (9, 5, 6) es combinacin lineal o no de los vectores o v1 = (3, 2, 6) y v2 = (1, 3, 2) Solucin. Supongamos que el vector v es combinacin lineal de los vectores v1 y v2 . Entonces o o existen 1 , 2 R tales que v = 1 v1 + 2 v2 , es decir, (9, 5, 6) = 1 (3, 2, 6) + 2 (1, 3, 2) = (3 1 2 , 21 32 , 61 + 22 ) de donde 31 2 = 9

21 32 = 5 61 +22 = 6

Hallemos la FERF de esta matriz 3 1 9

Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es 3 1 9 2 3 5 6 2 6

2 3 5 F1 F1 + F2 2 3 5 6 2 6 6 2 6 1 4 14 F1 F1 + 4F2 1 F2 11 F2 0 1 3 F3 F3 26F2 0 26 78 v1 y v2 .

1 4 14

Obteniedo 1 = 2 y 2 = 3, por lo tanto v = 2v1 3v2 , es decir, v es combinacin lineal de o

F2 F2 + 2F1 0 11 33 F3 F3 6F1 0 26 78 1 0 2 0 1 3 0 0 0

14

Ejemplo 4.6. Consideremos los polinomios p(x) = 5 4x + 9x2 , p1 (x) = 2 x + 2x2 , p2 (x) = 2 2x + 6x2 y p3 (x) = x 4x2 Es p combinacin lineal de p1 , p2 y p3 ? o

141

IV. Espacios Vectoriales


Solucin. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pregunta o es s, entonces existen 1 , 2 , 3 R tales que p(x) = 1 p1 (x) + 2 p2 (x) + 3 p3 (x), para cada x R, esto es, 5 4x + 9x2 = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 ) (para cada x R) obteniendo el sistema de ecuaciones 21 +22 = 5 1 22 +3 = 4 2 +6 4 = 9 1 2 3

La matriz ampliada de este sistema es equivalente por las a la matriz 1 0 1 9 1 (verif quelo!) 0 1 1 2 0 0 0 12 nacin lineal de p1 , p2 y p3 . o

por lo tanto, el sistema original no tiene solucin (por qu?), en consecuencia, p no es combi o e Si consideramos el polinomio p4 (x) = 1 2x + 3x2 Es p combinacin lineal de p1 , p2 , p3 y o p4 ?

Observacin 4.11. En trminos generales, el problema de decidir si un vector v en un espacio o e vectorial V es combinacin lineal de algunos vectores v1 , v2 , . . . , vn V, est relacionado con la o a resolucin de un sistema de ecuaciones adecuado, como vimos en los dos ejemplos 4.5 y 4.6. o Ejercicio 4.7. Pruebe que si A, B Mmn (R) son equivalentes por las, entonces cada la de B es combinacin lineal de las las de A y viceversa. o Denicin 4.5. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. El conjunto o para algunos escalares 1 , 2 , . . . , n R} vn {w V : w = 1 v1 + 2 v2 + + n es llamado el espacio generado por los vectores v1 , v2 , . . . , vn . Es decir, gen({v1 , v2 , . . . , vn }) es el conjunto formado por todas las combinaciones lineales de v1 , v2 , . . . , vn . gen({v1 , v2 , . . . , vn }) =

142

IV. Espacios Vectoriales


1. Segn la parte 1 del ejemplo 4.4 se tiene que u Mmn (R) = gen({E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn }) y segn las partes 2 y 3 del mismo ejemplo, tenemos que u Pn [x] = gen({1, x, . . . , xn }) y Rn = gen({e1 , e2 , . . . , en })

2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, 2, 6), (1, 3, 2)}) (ver ejemplo 4.5)

3. Del ejemplo 4.6 podemos garantizar que 5 4x + 9x2 gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) /

Ejemplo 4.8. Hallar gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) Solucin. Ntese primero que a + bx + cx2 gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) si y slo o o o si existen escalares 1 , 2 , 3 R tales que, para cada x R, a + bx + cx2 = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 ) = (2
1

+ 22 ) + (1 22 + 3 )x + (21 + 62 43 )x2

Lo que equivale a decir que el sistema de ecuaciones 21 +22 1 22 tiene al menos una solucin. o Resolvamos este sistema. La matriz ampliada del sistema es 2 2 0 a 1 2 1 b 2 6 4 c = a +3 = b

21 +62 43 = c

143

IV. Espacios Vectoriales


Hallemos la FERF de esta matriz 2 2 0 a 1 0 1 a+b

1 2 1 b F1 F1 + F2 1 2 1 b 2 6 4 c 2 6 4 c 1 0 1 a+b 1 0 1 a+b F2 F2 + F1 1 F2 1 F2 0 1 1 0 2 2 a + 2b 2a b 2 F3 F3 2F1 0 6 6 2a 2b + c 0 6 6 2a 2b + c 1 0 1 a+b F3 F3 6F2 0 1 1 1 a b 2 0 0 0 a + 4b + c si y slo si a + 4b + c = 0. o En consecuencia gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) = {a + bx + cx2 P3 [x] : a + 4b + c = 0}

Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene solucin o

Es de hacer notar que el conjunto W, hallado en el ejemplo 4.8, es un subespacio de P3 [x] . Este resultado no es casual, como veremos en el siguiente teorema. Teorema 4.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. Entonces gen({v1 , v2 , . . . , vn }) es un subespacio de V. Demostracin. Denamos S = {v1 , v2 , . . . , vn }. Por denicin, gen(S) = gen({v1 , v2 , . . . , vn }) o o es un subconjunto de V. Adems, por la parte 2 del teorema 4.2 y la parte 2 del ejercicio 4.1 a
/ 0V = 0(v1 + v2 + + vn ) = 0 v1 + 0 v2 + + 0 vn gen(S).

existen 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que u = 1 v1 + 2 v2 + + n vn Por lo tanto

Finalmente, sean R y u, v gen(S) cualesquiera. Entonces, por denicin de gen(S), o y v = 1 v1 + 2 v2 + + n vn

u + v = (1 v1 + 2 v2 + + n vn ) + (1 v1 + 2 v2 + + n vn ) = (1 + 1 )v1 + (2 + 2 )v2 + + (n + n )vn

144

IV. Espacios Vectoriales


As que u + v gen(S) y en consecuencia gen(S) es un subespacio de V. Denicion 2.6. Sean V un espacio vectorial y v1, v2, . . . , vn V. Diremos que v1, v2, . . . , vn

generan a V o que el conjunto S = {v1, v2, . . . , vn} genera a V o que S es un conjunto generador de V si V = gen(S) = gen({v1, v2, . . . , vn}). Ejemplo 4.9. Por la parte 1 del ejemplo 4.7 podemos decir que: 1. Los vectores (matrices) E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan a Mmn (R). 2. El conjunto {1, x, . . . , xn } genera a Pn [x]. 3. {e1 , e2 , . . . , en } es un conjunto generador de Rn . Ejemplo 4.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo 2.3 Solucin. Sabemos que o W = {a + bx + cx2 + dx3 P3 [x] : 2a b + 3c d = 0; a + b 4c 2d = 0} As que a + bx + cx2 + dx3 W si y slo si o 2a b +3c a +b 4c 2d = 0 d = 0

resolvamos este sistema homogneo. La matriz del sistema es e 2 1 1 La FERF de esta matriz es 1 0 1 1 3 (verif quelo!) 3 1

1 4 2

0 1 11 1 3 Por lo tanto, a + bx + cx2 + dx3 W si y slo si o a

b 11 c d = 0 3

1 c d = 0 3

145

IVEspacios Vectoriales
o equivalentemente a = b =
1 c 3 11 c 3

+d +d

Haciendo c = 3 y d = , con , R, obtenemos a + bx + cx2 + dx3 = ( + ) + (11 + )x + 3x2 + x3 = (1 + 11x + 3x2 ) + (1 + x + x3 ) para cada x R. Luego

W = gen({1 + 11x + 3x2 , 1 + x + x3 })

En consecuencia {1 + 11x + 3x2 , 1 + x + x3 } es un conjunto generador de W. Teorema 4.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn , u V. Si u gen({v1 , v2 , . . . , vn }), entonces gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }) 1 , 2 , . . . , n , R tales que v = 1 v1 + 2 v2 + + n vn + u. u = 1 v1 + 2 v2 + + n vn . Luego Demostracin. Escojamos un vector v gen({v1 , v2 , . . . , vn , u}) cualquiera. Entonces existen o Pero por hiptesis u gen({v1 , v2 , . . . , vn }), entonces existen 1 , 2 , . . . , n R tales que o

v = 1 v1 + 2 v2 + + n vn + (1 v1 + 2 v2 + + n vn ) = (1 + 1 )v1 + + (n + n )vn en consecuencia v gen({v1 , v2 , . . . , vn }) por lo tanto gen({v1 , v2 , . . . , vn , u}) gen({v1 , v2 , . . . , vn }) tales que v = 1 v1 + 2 v2 + + n vn as que es decir, v gen({v1 , v2 , . . . , vn , u}) de donde gen({v1 , v2 , . . . , vn }) gen({v1 , v2 , . . . , vn , u}) De (4.4) y (4.5) obtenemos que gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }) (4.5) (4.4)

Por otro lado, sea v gen({v1 , v2 , . . . , vn }) cualquiera. Entonces existen 1 , 2 , . . . , n R

/ v = 1 v1 + 2 v2 + + n vn = 1 v1 + 2 v2 + + n vn + 0V = 1 v1 + 2 v2 + + n vn + 0u

146

IV. Espacios Vectoriales

Independencia y Dependencia Lineal


Uno de los conceptos ms importantes en espacios vectoriales, y en el lgebra lineal en general, a a es el de independencia lineal , por lo que pedimos se estudie con mucha detenimiento y cuidado la presente seccin del cap o tulo. Daremos una variedad de ejemplos para tratar de explicar lo mejor posible dicho concepto.
/ decir, siempre podemos escribir el vector nulo 0V como combinacin lineal de cualquier cantidad o / Dados un espacio vectorial V y vectores v1 , v2 , . . . , vn V, entonces 0V = 0v1 +0v2 + +0vn , es

nita de vectores en V. Ahora bien, en M23 (R) escojamos los vectores A1 = entonces 0 0 0 0 0 0 = 2 A1 3 A2 A3 = 2 1 0 2 3 2 3 4 1 4 9 8 1 0 2 , A2 = 2 3 4 1 y A3 = 4 9 8

2 5 3

1 7 6

2 5 3

1 7 6

En conclusin, la unica manera de escribir al vector nulo, como combinacin lineal de o o una cantidad nita de vectores, no necesariamente es unica. Estos dos ejemplos dan pie a la siguiente denicin. o Denicin 4.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. Diremos v1 , v2 , . . . , vn son o
/ diente si la unica manera de escribir el vector nulo 0V, como combinacion lineal de los vec

linealmente independientes o que {v1 , v2 , . . . , vn } es un conjunto linealmente indepen

tores v1, v2, . . . , vn, es aquella en la cual todos los escalares son iguales a cero (0), esto es, si 1v1 + 2v2 + + nvn = 0
n

junto linealmente dependiente si v1 , v2 , . . . , vn no son linealmente independientes, es de=0

Diremos que v1 , v2 , . . . , vn son linealmente dependientes o que {v1 , v2 , . . . , vn } es un con-

= 0. /V , entonces 1 = 2 = =

cir, existen escalares 1 , 2 , . . . , n R, no todos nulos, tales que 1 v1 + 2 v2 + + /n vn V. Ejemplo 4.11.

1. Segn el ejemplo dado previamente a la denicin 4.7, se tiene que A1 , A2 , A3 son lineal u o mente dependientes.

147

IV. Espacios Vectoriales


2. No es difcil probar que los conjuntos {1, x, . . . , xn }, {e1 , e2 , . . . , en } y

{E11 , E12 , . . . , E1 n, E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn } son linealmente independientes (en sus correspondientes espacios).
/ 3. Dados un espacio vectorial V y v1 , v2 , . . . , vn V, entonces {v1 , v2 , . . . , vn , 0V } es linealmen-

te dependiente pues

/ / 0V = 0v1 + 0v2 + + 0vn + 1 0V

es decir, en un espacio vectorial, cualquier conjunto nito de vectores que contenga al vector nulo, es linealmente dependiente. 4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v} es linealmente
/ / independiente ya que si v = 0V y dado que v = 0V , entonces = 0 (en virtud de la parte

3 del teorema 4.2). Antes de dar alg n otro ejemplo, debemos hacer notar que para determinar si un conjunto de u vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o dependiente,
n.
/ debemos plantearnos la ecuacin 1 v1 + 2 v2 + + n vn = 0V , la cual conduce, en general, a o

Si la solucin de 2 , . . . , un sistema de ecuaciones homogneo con n incgnitas, a saber, 1 , o e o

este sistema es unica, y en consecuencia 1 = 2 = = n = 0, entonces {v1 , v2 , . . . , vn } es un dependiente.

conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn } es un conjunto linealmente Ejemplo 4.12. Consideremos los vectores p1 (x), p2 (x), p3 (x), p4 (x) P2 [x] dados en el ejemplo

4.6. Decidir si estos vectores son o no linealmente independientes.


Solucin. Como se coment antes del ejemplo, debemos estudiar la ecuacin o o o (para todo x R) 1 p1 (x) + 2 p2 (x) + 3 p3 (x) + 4 p4 (x) = 0 Pero 1 p1 (x) + 2 p2 (x) + 3 p3 (x) + 4 p4 (x) = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 ) +4 (1 2x + 3x2 ) = (21 + 2 2 + 4 ) + (1 2 2 + 3 2
4 )x

+(21 + 6 2 4 3 + 3 4 )x2

148

IV. Espacios Vectoriales


Obteniendo el siguiente sistema de ecuaciones homogneo e +4 = 0 21 +22 El cual sabemos tiene innitas soluciones (por qu?) y en consecuencia los polinomios p1 (x), e p2 (x), p3 (x) y p4 (x) son linealmente dependientes. 1 22 +3 24 = 0 2 +6 4 +3 = 0 1 2 3 4

Ejemplo 4.13. Consideremos los polinomios p1 (x), p2 (x) y p4 (x) del ejemplo anterior son linealmente independientes? Solucin. Como en el ejemplo anterior, debemos plantearnos la ecuacin o o 1 p1 (x) + 2 p2 (x) + 4 p4 (x) = 0 Obteniendo el sistema (para todo x R) (4.6)

La matriz de este sistema es

21 +22 +4 = 0 1 22 24 = 0 2 +6 +3 = 0 1 2 4 1 2 2 2 6 3 1 0 1 1 0 1 2 2 1

Hallemos su FERF. 2 2 1

1 2 2 F1 F1 + F2 1 2 2 2 6 3 2 6 3 1 0 1 1 1 3 F F 6F F2 2 F2 0 1 3 2 2 3 0 0 6 5 0 1 0 0 F1 F1 + F3 0 1 0 F2 F2 3 F3 2 0 0 1

F2 F2 + F1 0 2 F3 F3 2F1 0 6 0 1 1 1 3 F F 0 1 4 3 2 3 0 4 0

0 1 1 0
3 2

3 5

149

IV. Espacios Vectoriales


De donde 1 = 2 = 4 = 0 En consecuencia la ecuacin 4.6 tiene como unica solucin la trivial y por lo tanto p1 (x), p2 (x) o o y p4 (x) son linealmente independientes. 5 4 , A2 = 3 1 y A3 = 1 1 . Es

2 1 1 Ejemplo 4.14. Sean A1 = {A1 , A2 , A3 } un conjunto linealmente independiente?

/ Solucin. Sean 1 , 2 , 3 R tales que 1 A1 + 2 A2 + 3 A3 = 02 . Entonces o

51 + 32 + 3

21 + 2 43 1 + 32 + 53 De donde 51 +32 4 2 1

41 2 3

0 0 0 0

+3 = 0 3 = 0

Resolvamos este sistema. La matriz del sistema es 5 3 1 3

21 +2 43 = 0 +3 +5 = 0 1 2 3 1 4 1 1 2 1 4 5

Hallemos su FERF. 5 3 1

4 1 1 F1 F1 F2 2 1 4 3 0 0 5 1 4 7 2

4 1 1 2 1 4 3 5 1 4

F2 F4

7 1 0 F2 1 F2 7 0 7 7 8 0 17 9 0 17

F2 F2 4F1 0 F3 F3 2F1 0 F4 F4 + F1 0 2 F1 F1 4F2 1 F3 F3 + 7F2 8 F4 F4 + 17F2 9

17 9 7 8 7 7

1 0 1 0 0 1 0 0 8

1 0 2

150

IV. Espacios Vectoriales

F3 F3

Por lo tanto 1 = 2 = 3 = 0 y en consecuencia {A1 , A2 , A3 } es linealmente independiente. Teorema 4.8. Sean V un espacio vectorial y u, v V. Los vectores u, v son linealmente depen dientes si y slo si existe R tal que u = v v = u. o o Demostracin. Supongamos que u, v son linealmente dependientes. Entonces existen , o R, / noSi = 0, entonces uque v. Haciendo = , obtenemos que u = v. ambos nulos, tales = u + v = 0V . / / Si = 0, entonces v = 0V y adems, por hiptesis, = 0 y en consecuencia v = 0V = 0u. a o Haciendo = 0, obtenemos v = u.
/ o u + (1)v = 0V , en cualquier caso, concluimos que u, v son linealmente dependientes. / Supongamos ahora que existe R tal que u = v v = u. En consecuencia 1u+()v = 0V o

0 1 0 0 0 0

1 0 2

1 0 F1 F1 + 2F3 1 0 1 F2 F2 F3 1 F F 8F 0 0 4 4 3 8 0 0

0 0

1 0

Teorema 4.9. Sea A Mmn (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
/ dependientes en Mm1 (R) si y slo si el sistema Ax = 0m1 tiene soluciones no triviales. o

Demostracin. Sea A Mmn (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente dependientes o si y slo si existen escalares 1 , 2 , . . . , n R, no todos nulos, tales que o
/ 1 A(1) + 2 A(2) + + n A(n) = 0m1

Por la observacin 4.20 o 1

1 A(1) + 2 A(2) + + n A(n) = A

/ As que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y slo si el sistema Ax = 0m1 tiene o

2 . . n

soluciones no triviales.

151

IV. Espacios Vectoriales


Como consecuencia del teorema 4.9 obtenemos los siguientes corolarios. Corolario 4.10. Sea A Mnn (R). Entonces las siguientes proposiciones son equivalentes. 1. det(A) = 0. 2. Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes. 3. Las las de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes. Demostracin. (Ejercicio) o

Corolario 4.11. Sea A Mmn (R). Si F es la FERF de A, entonces las columnas de F

con los pivotes, representan las columnas de A que son linealmente independientes, es decir, si F (j1 ) , F (j2 ) , . . . , F (jr ) son las columnas de F con los pivotes, entonces A(j1 ) , A(j2 ) , . . . , A(jr ) son las columnas de A que son linealmente independientes. Demostracin. (Ejercicio) o

Teorema 4.12. Sean {v1 , v2 , . . . , vn } un subconjunto linealmente independiente de un espacio independiente.

vectorial V y u V tal que u gen({v1 , v2 , . . . , vn }). Entonces {v1 , v2 , . . . , vn , u} es linealmente / Demostracin. Sean 1 , 2 , . . . , n , R tales que o
/ 1 v1 + 2 v2 + + n vn + u = 0V

Si = 0, entonces u=

1 2 n v1 + v2 + + vn

lo que contradice la hiptesis de que u gen({v1 , v2 , . . . , vn }). Por lo tanto = 0, de donde o /


/ 1 v1 + 2 v2 + + n vn = 0V

y dado que {v1 , v2 , . . . , vn } es linealmente independiente, se tiene que 1 = 2 = = n = 0. En consecuencia {v1 , v2 , . . . , vn , u} es linealmente independiente.

152

IV. Espacios Vectoriales

4.4.Base y dimensin un espacio o vectorial,cambio de base.


Seg n el ejemplo 4.9 y la parte 2 del ejemplo 4.11 tenemos que: u 1. {1, x, . . . , xn } es un conjunto generador de Pn [x] y adems es linealmente independiente. a 2. {e1 , e2 , . . . , en } es un conjunto linealmente independiente y genera a Rn . 3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador de Mmn (R) y es linealmente independiente.

Conjuntos con estas caracter sticas nos son de mucha utilidad en el estudio de los espacios vectoriales y dan pie a la siguiente denicin. o Denicin 4.8. Sea V un espacio vectorial. Un conjunto {v1 , v2 , . . . , vn } V es una base de o V si gen({v1 , v2 , . . . , vn }) = V, es decir, {v1 , v2 , . . . , vn } es un conjunto generador de V.2. {v1 , v2 , . . . , vn } es linealmente independiente.

Ejemplo 4.15. 1. {1, x, . . . , xn } es una base de Pn [x]. 2. {e1 , e2 , . . . , en } es una base de Rn . 3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mmn (R).

Cada una de estas bases es llamada base cannica o estndar del correspondiente espacio. o a Ejemplo 4.16. Ningn conjunto nito de polinomios en x es una base de P[x], en efecto, consi u deremos un conjunto nito cualquiera de polinomios, digamos {p1 (x), p2 (x), . . . , pn (x)}, entonces a lo sumo de grado k, donde k es el mximo entre los grados de los polinomios p1 , p2 , . . . , pn , a para cualesquiera 1 , 2 , . . . , n R tenemos que 1 p1 (x)+2 p2 (x)+ +n pn (x) es un polinomio es decir, cualquier combinacin lineal de los polinomios p1 , p2 , . . . , pn es un polinomio a lo sumo o

153

IV. Espacios Vectoriales


de grado k, en consecuencia p(x) = xk+1 P[x] pero p(x) gen({p1 (x), p2 (x), . . . , pn (x)}), de / donde gen({p1 (x), p2 (x), . . . , pn (x)}) = P[x]. Lo cual prueba lo armado al principio. las bases innitas (ver apndice B), armamos que una base para P[x] es e {1, x, x2 , . . . , xn , . . .} Lo anterior nos dice que P[x] no tiene una base nita. Aunque en este captulo no trataremos

Ejemplo 4.17. Hallar una base del subespacio W= a b c d : 5a + 6b + 4c 2d = 0

Solucin. o As que a b c d

a b c d

5 W si y slo si 5a+ 6b+ 4c 2d = 0 o bien, si y slo si d = a+ 3b+ 2c. o o 2

W si y slo si o a b c d a b 1 0 0 1 0 3 0 0 1 2

c 5 a + 3b + 2c 2 1

=a

0 5 2 0 1 0 3

+b

+c

Por lo tanto W = gen No es dif probar que cil 1 0 0 5 2 , 0 1 0 3 , 0 0 1 2 0 0 5 2 , , 0 0 1 2

es linealmente independiente, y en consecuencia es una base de W.

Ejemplo 4.18. Considere los polinomios p1 (x), p2 (2), p4 (x) P2 [x] del ejemplo 4.13. Pruebe que = {p1 (x), p2 (x), p4 (x)} es una base de P2 [x]. Solucin. Sabemos que el conjunto = {p1 (x), p2 (x), p4 (x)} es linealmente independiente, en o bx + cx2 P2 [x] cualquiera, queremos probar que la ecuacin 1 p1 (x) + 2 p2 (x) + 4 p4 (x) = o p(x),

virtud del ejemplo 4.13, as que slo falta probar que dicho conjunto genera a P2 [x]. Sea p(x) = a+ o

154

IV. Espacios Vectoriales


para todo x R, tiene solucin para 1 , 2 , 4 R. Pero dicha ecuacin es equivalente al sistema o o de ecuaciones 21 +22 +4 = a 1 22 24 = b 2 +6 +3 = c 1 2 4

La matriz de este sistema es

y por el ejemplo 4.13, sabemos que es equivalente por las a I3 , en consecuencia, el sistema en cuestin, tiene solucin ( nica), lo cual concluye la prueba. o o u

2 2 1 1 2 2 2 6 3

Ejemplo 4.19. Considere los polinomios p1 (x), p2 (x), p3 (x) y p4 (x) del ejemplo 2.12. Entonces es un conjunto generador de P2[x]. El conjunto {p1(x), p2(x)} tampoco es una base de P2[x], por no ser un conjunto generador de P2[x], pero es linealmente independiente. La unicidad de los escalares en el ejemplo 4.18 es una regla la cual enunciaremos en el siguiente teorema. Teorema 4.13. Sea = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para cada v V existen unicos escalares 1 , , . . . , R tales que v = 1 v1 + 2 v2 + + n vn . 2 n Demostracin. Sea v V un vector cualquiera. Dado que = {v1 , v2 , . . . , vn } es una base o est garantizada. Supongamos que existen escalares 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que a v = 1 v1 + 2 v2 + + n vn Luego
/ 0V = v v

{p1(x), p2(x), p3(x), p4(x)} no es una base de P2[x], por ser linealmente dependiente, sin embargo

de V, entonces genera a V, as que la existencia de los escalares en el enunciado del teorema

y v = 1 v1 + 2 v2 + + n vn

= (1 v1 + 2 v2 + + n vn ) (1 v1 + 2 v2 + + n vn ) = (1 1 )v1 + (2 2 )v2 + + (n n )vn Como = {v1 , v2 , . . . , vn } es una base, entonces es linealmente independiente, por lo tanto 1 1 = 2 2 = = n n = 0

155

IV. Espacios Vectoriales


es decir, 1 = 1 , 2 = 2 , . . . , n = n con lo cual obtenemos la unicidad de los escalares.

base = {p1(x), p2(x), p4(x)} del ejemplo 4.18, y ambas tienen la misma cantidad de vectores, en este caso tres (3), esta situacion no es para nada casual, como veremos en el siguiente teorema. Teorema 4.14.Sean 1 = {u1 , u2 , . . . , un } y
2

Notese que hemos hallado dos bases de P2[x], a saber la base canonica c = {1, x, x2} y la

espacio vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base nita,entonces todas sus bases tienen la misma cantidad de elementos.

= {v1 , v2 , . . . , vm } dos bases de un

Demostracin. Supongamos que m < n. Dado que 2 es una base de V, entonces, para o cada
1j , , . . . , 2j mj

R tales que j {1, . . . , n}, existen escalares uj = 1j v1 + 2j v2 + + mj vm

Sean 1 , 2 , . . . , n R tales que Luego

1 u1 + 2 u2 + + n un = 0

/ 0V = 1 (11 v1 + 21 v2 + + m1 vm ) + 2 (12 v1 + 22 v2 + + m2 vm ) + +

+n (1n v1 + 2n v2 + + mn vm ) = (11 1 + 12 2 + + 1n n )v1 + (21 1 + 22 2 + + 2n n )v2 + + +(m1 1 + m2 2 + + mn n )vm Pero 2 = {v1 , v2 , . . . , vm } es linealmente independiente, por 11 1 + 12 2 + + 1n n + ++ 21 1 22 2 2n n . . . . m1 1 + m2 2 + + mn n ser una base de V, as que = 0 = 0 . . . = 0

Este es un sistema de ecuaciones lineales con m ecuaciones y n incgnitas que son 1 , 2 , . . . , n . o Como m < n, al usar el teorema 4.16, concluimos que el sistema anterior tiene soluciones no triviales, es decir, existen 1 , 2 , . . . , n R, no todos nulos, tales que
/ 1 u1 + 2 u2 + + n un = 0V

156

IV. Espacios Vectoriales


es decir, 1 = {u1 , u2 , . . . , un } es linealmente dependiente, lo que contradice el hecho de que 1

es una base de V, por lo tanto m n. Anlogamente se prueba que m n y por lo tanto m = n. a El teorema 2.14 da pie a la siguiente denicin. o Denicin 4.9. Sea V un espacio vectorial. Diremos que V tiene dimensin cero dimen o o o
/ o sin nula si V = {0V }, diremos que la dimensin de V es n si V tiene una base con n elementos, o

en ambos casos diremos que V tiene dimensin nita. Si V no posee una base nita, diremos o que V tiene dimensin innita. En todos los casos la dimensin de V se denota por dim(V). o o Ejemplo 4.20. 1. Del ejemplo 4.15 podemos garantizar que dim(Pn [x]) = n + 1, dim(Mmn (R)) = mn y dim(Rn ) = n. 2. Si W es el subespacio del ejemplo 4.17, entonces dim(W) = 3. 3. El espacio vectorial P[x] es un espacio de dimensin innita (ver ejemplo 4.16). o Observacin 4.13. El problema de encontrar la dimensin de un espacio vectorial est rela o o a cionado con la bsqueda de una base de dicho espacio, como vimos en el ejemplo 4.20. u Teorema 4.15. Sean V un espacio vectorial de dimensin n y v1 , v2 , . . . , vm V. o 1. Si {v1 , v2 , . . . , vm } es linealmente independiente, entonces m n. 2. Si {v1 , v2 , . . . , vm } genera a V, entonces m n. Demostracin. Sea = {u1 , u2 , . . . , un } una base de V. o 1. Suponga que m > n y haga una prueba anloga a la del teorema 4.14. a 2. Ejercicio!

Como consecuencia del teorema 4.15 se tiene el siguiente teorema.

157

IV. Espacios Vectoriales


Teorema 4.16. Sean V un espacio vectorial de dimensin n y S = {v1 , v2 , . . . , vn } V. o 1. Si S es linealmente independiente, entonces S es una base de V. 2. Si S genera a V, entonces S es una base de V. Demostracin. Ejercicio! o Sugerencia: En ambos casos suponga que S no es una base, luego para la parte 1 use el teorema 4.12 y para la parte 2 use el teorema 4.7.

Teorema 4.17. Sea W un subespacio de un espacio vectorial de dimensin nita V. Entonces o dim(W) dim(V). Adems, si dim(W) = dim(V), entonces W = V. a Demostracin. Sean dim(V) = n y W una base de W. Entonces W es linealmente o indepen diente en W, luego W es linealmente independiente en V (por qu?). Por lo tanto, por la e parte 1 el teorema 2.15, W tiene a lo sumo n elementos, esto es, dim(W) n = dim(V). Adems, si dim(W) = dim(V), entonces W es un conjunto linealmente independiente con a n

elementos. Por lo tanto W es una base de V (por qu?). En consecuencia W = gen( W ) = V. e

Observacin 4.14. Todo espacio vectorial que contenga un subespacio de dimensin innita, o e es tambin de dimensin innita. e o Ejemplo 4.21. Sean a, b R cualesquiera. Entonces P[x] puede verse como un subespacio de C [ a , b ] (por qu?) y como P[x] tiene dimensin nita (ver parte 3 de ejemplo 4.20), entonces, e o por la observacin 4.14, C [ a , b ] de dimensin innita. o o Teorema 4.18. Sea V un espacio vectorial de dimensin n y S = {v1 , v2 , . . . , vm } V. o 1. Si S es linealmente independiente, entonces existe una base de V tal que S . 2. Si S genera a V, entonces existe una base de V tal que S. Demostracin. o 1. Dado que S es linealmente independiente, entonces m n, seg n la parte 1 del u teorema 2.15.

158

IV. Espacios Vectoriales


Si S genera a V, entonces S es una base de V, as que = S es una base de V que contiene a S. De lo contrario, existe un vector vm+1 V tal que vm+1 gen({v1 , v2 , . . . , vm }). Luego / {v1 , v2 , . . . , vm , vm+1 } es linealmente independiente, en virtud del teorema 4.12. Si {v1 , v2 , . . . , vm , vm+1 } genera a V, entonces = {v1 , v2 , . . . , vm , vm+1 } es una base de V y al igual que antes {v1 , v2 , . . . , vm , vm+1 , vm+2 } es linealmente independiente.

tal que S . Sino, podemos escoger vm+2 V tal que vm+2 gen({v1 , v2 , . . . , vm , vm+1 }) / Continuamos con este proceso hasta completar un conjunto linealmente independiente = {v1 , v2 , . . . , vm , vm+1 , . . . , vn }, el cual es, por lo tanto, una base de V y adems S . a 2. Ejercicio! Sugerencia: Si S es linealmente independiente, entonces = S es la base buscada, de lo contrario existe k {1, . . . , m} tal que vk gen({v1 , v2 , . . . , vk1, vk+1 , . . . , vm }). Continuar este proceso hasta obtener la base buscada.

4.4.2

Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz

En la observacin 4.9 se arm que en la presente seccin se probar formalmente, usando el o o o a corolario 2.4, que los conjuntos S y R, denidos en la parte 3 del ejemplo 2.1, son subespacios conjuntos. Denicin 4.10. Consideremos una matriz A Mmn (R). El conjunto o
/ N(A) = Ker(A) = {x Mn1 (R) : Ax = 0m1 }

de Mn1 (R) y Mm1 (R), respectivamente. Antes que nada deniremos ms formalmente dichos a

es llamado espacio nulo, ncleo o kernel de A; y el conjunto u Im(A) = {y Mm1 (R) : Ax = y se conoce como imagen o recorrido de A. Observacin 4.15. Notemos que por denicin y Im(A) si y slo si existe x Mn1 (R) tal o o o que Ax = y. para algn x Mn1 (R)} u

159

IV. Espacios Vectoriales


1 0 2 3

F1 F2 0 1 1 0 0 0 x1 As que x2 x3 x4

4 0

N(A) si y slo si o

x1 x2

+2x3 3x4 = 0 x3 +4x4 = 0

o bien x1 = 2x3 + 3x4 x2 = De donde x1 x3 4x4 2 3

Por lo tanto

x2 = x3 x4

2x3 + 3x4 x3 4x4 x3 x4

= x3

No es dif probar que el conjunto cil

3 2 1 4 N(A) = gen , 1 0 0 1 2 3 1 4 , 1 0 0 1

1 4 + x4 1 0 0 1

es linealmente independiente (prubelo!) y por lo tanto es una base de N(A). As que n(A) = 2. e x1 y1 x2 Por otro lado, sea y = y2 M31 (R). Entonces y Im(A) si y slo si existe x = o x3 y3 x4 M41 (R) tal que Ax = y, es decir, y Im(A) si y slo si el sistema Ax = y tiene solucin. o o

160

IV. Espacios Vectoriales


Resolvamos entonces este sistema, la matriz ampliada de este sistema es 2 3 7 18 y1 [A|y] = 2 0 4 6 y2 2 9 13 42 y3

La cual es equivalente por las a la matriz (verif quelo!) 1 0 2 3 1 y2 2 1 0 1 1 4 3 y1 1 y2 3 0 0 0 0 3y1 2y2 + y3 Por lo tanto y Im(A) si y slo si o 3y1 2y2 + y3 = 0 (por qu?) e o equivalentemente y3 = 3y1 + 2y2 En consecuencia y1 y1 1

y por lo tanto

y = y2 = = y1 0 + y1 1 y2 y3 3y1 + 2y2 3 2 1 0 Im(A) = gen 0 , 1 3 2

Al igual que antes, no es dif probar que cil 1 0 0 , 1 3 2

es linealmente independiente y en consecuencia una base de Im(A). Luego r(A) = 2.

Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A estn en las a columnas 1 y 2, por lo tanto las columnas 1 y 2 2 2 , 2 de A, 3 0 9

161

IV. Espacios Vectoriales


son linealmente independientes (use el corolario 2.11) y adems a 1 1 2 3 7 18 2 0 0 A = 2 = 2 0 4 6 0 0 2 9 13 42 2 0 0 y 1 0 0 0 2 3 7 18 0 3

= 2

2 9 2

0 4

es decir

y por lo tanto

2 , 0 Im(A) 2 9 2 3 2 , 0 2 9 2 3 2 , 0 2 9

1 = 0 6 0 13 42 9 0 3

es un subconjunto linealmente independiente de Im(A). Al usar la parte 1 del teorema 4.16 tenemos que

es una base para Im(A).

Este procedimiento es vlido al momento de hallar una base para Im(A) y es una manera ms a a sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A), no es necesario saber para que valores de y el sistema Ax = y tiene solucin. o Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A). Algoritmo para hallar bases para N(A) e Im(A), donde A Mmn (R). Paso 1. Hallar la FERF de la matriz A.

162

IV. Espacios Vectoriales


Paso 2. La matriz hallada en el paso previo, nos permite escribir la solucin del sistema o
/ Ax = 0m1 como combinacin lineal de ciertos vectores linealmente independientes, o

dichos vectores forman un base para N(A). Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan las columnas de A que forman una base para Im(A). Antes de dar un ejemplo de como aplicar este algoritmo, daremos algunos resultados. Concolumnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio generado por las las de A, el cual es llamado espacio la de A, esto es C(A) = gen({A(1) , A(2) , . . . , A(n) }) y R(A) = gen({A(1) , A(2) , . . . , A(m) }) Teorema 4.20. Si A, B Mmn (R) son tales que A y B son equivalentes por las, entonces 1. C(A) = Im(A). 2. R(A) = R(B). 3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A). 4. r(A) = r(B) y n(A) = n(B). 5. r(A) + n(A) = n. Demostracin. o 1. Por denicin de Im(A) sabemos que y Im(A) si y slo si existe x Mn1 (R) tal que o o Ax = y. x1 sideremos una matriz A Mmn (R). Denotaremos por C(A) al espacio generado por las

Si hacemos x =

y = Ax = x1 A(1) + x2 A(2) + + xn A(n) En consecuencia C(A) = Im(A).

x2 . , entonces . xn

(ver observacin 1.20) o

es decir, y Im(A) si y slo si y gen({A(1) , A(2) , . . . , A(n) }) = C(A). o

163

IV. Espacios Vectoriales


2. Como A y B son equivalentes por las, entonces cada la de B es combinacin lineal de o las las de A y viceversa (ver ejercicio 4.7), es decir, para cada i {1, . . . , m} se tiene que B(i) gen({A(1) , A(2) , . . . , A(m) }) y A(i) gen({B(1) , B(2) , . . . , B(m) }). En consecuencia R(A) = R(B) 3. Sea F Mmn (R) la FERF de A. Entonces las las no nulas de F son linealmente indepen

dientes (por qu?) y en consecuencia forman una base para R(F ), por lo tanto, si k es el e n mero de las no nulas de F , entonces dim(R(F )) = k, pero por la parte 2 R(A) = R(F u ), as que dim(R(A)) = dim(R(F )) = k.

Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son linealmente independientes (en virtud del corolario 4.11) y que en consecuencia forman una base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) = k = dim(R(A)) y por la parte 1 tenemos que dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A) 4.Queda como ejercicio. 5.Queda como ejercicio.

Corolario 4.21. A Mnn (R) es invertible si y slo si r(A) = n. o Demostracin. Ejercicio! o

Corolario 4.22. Sean A Mmn (R) y b Mm1 (R). Entonces el sistema Ax = b tiene al menos una solucin si y slo si r([A|b]) = r(A). o o Demostracin. Ejercicio! o

Ejemplo 4.23. Hallar el espacio la, el espacio columna, el espacio nulo, la imagen, y una base para cada uno de estos espacios; y la nulidad y 2 2 4 1 A= 1 1 2 4 el rango de la matriz 6 1 8 3 2 19 16 3 1 3 6 14

164

IV. Espacios Vectoriales


Solucin. Slo hace falta hallar la FERF de A. o o 2 2 6 1 8 1 1 3 1 6

A=

4 1 3 2 19 F1 F3 2 1 1 3 1 6 2 6 1 8 2 4 16 3 14 2 4 16 3 14 1 1 3 1 6 1 1 3 1 6 F2 F2 + 4F1 0 1 5 0 3 15 2 5 1 3 F2 F2 F4 F3 F3 2F1 0 0 0 0 0 1 4 0 1 4 F4 F4 2F1 0 2 10 1 2 0 2 10 1 2 1 0 2 0 3 1 0 2 0 3 F1 F1 F2 0 1 5 1 3 F2 F2 + F3 0 1 5 0 1 0 1 4 F4 F4 F3 0 0 0 1 4 F4 F4 2F2 0 0 0 0 0 1 4 0 0 0 0 0 1 0 2 0 3 0 1 5 0 1 F3 F3 0 0 0 1 4 0 0 0 0 0 x1 4 1 x2 As que o x3 N(A) si y slo si x4 x5 x1 +2x3 x2 5x3 +3x5 = 0 x4 +4x5 = 0 x5 = 0

3 2 19

o equivalentemente

x1 = 2x3 3x5 x = 5x3 + x5 2 x = 4x 4 5

165

IV. Espacios Vectoriales


Luego

x1

y as

Por lo tanto, una base para el espacio nulo de A es: 2 3 1 5 1 , 0 0 4 0 1 2 5

x3 = x4 x5

x2

2x3 3x5 5x3 + x5 x3 4x5 x5

= x3

5 1 0 0

+ x5

0 4 1

N(A) = gen

Adems, una base para el espacio la de A es: a 1 0 2 0 3 luego R(A) = gen 1 0 2 0 3 , ,

1 1 , 0 0 4 0 1 , 0 0 0 1 4

0 1 5 0 1

0 1 5 0 1

0 0 0 1 4

Como los pivotes de la FERF de A estn en las columnas 1,2 y 4, entonces las columnas 1,2 y a 4 de A forman una base para el espacio imagen o 2 2 4 1 , 1 1 2 4 espacio columna de A, es decir, 1 2 , 1 3

es una base para C(A) = Im(A) y en consecuencia

166

IV. Espacios Vectoriales


2 2 1 4 1 2 C(A) = Im(A) = gen , , 1 1 1 2 4 3

Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) = dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.

Ejercicio 4.8. Pruebe que si A Mnn (R), entonces existe k n tal que para cada r k se cumple 1. N (A ) = N A 2. Im (Ar ) = Im Ak e Im Ak Im(A2 ) Im(A) Mn1 (R). Adems, si A no es invertible, entonces todas las contenciones en 1 y 2 son propias. a
r k
/ y {0n1 } N(A) N(A2 ) N Ak .

167

IV. Espacios Vectoriales

Matriz de Cambio de Base.

En este cap tulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales reales, salvo que se indique lo contrario, sin embargo, muchas de las deniciones y teoremas expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales reales.

muchas formas de ordenar los vectores en , a saber n! formas distintas, haremos una diferencia entre unas y otras deniendo lo que llamaremos base ordenada. Denicin 4.3.1. Sea V un espacio vectorial de dimensin n. Una base ordenada de V es o o una n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V. Observacin 4.3.1. Para no recargar mucho la notacin escribiremos {v1 , v2 , . . . , vn } en o o lugar de (v1 , v2 , . . . , vn ) y para no caer en confusin diremos {v1 , v2 , . . . , vn } es una base o ordenada de

Sea V un espacio vectorial de dimensin n. Dada una base = {v1 , v2 , . . . , vn } de V, existen o

V. Ejemplo 4.3.1. 1. En R2 dos bases ordenadas distintas son: c = {(1, 0), (0, 1)} y = {(0, 1), (1, 0)} la primera 2. se denomina la base cannica ordenada. , simplemente . base .cannica0, 1)} 2 .yNtese En Rn las bases ordenadas c = {(1, 0, . o 0), (0, 1, 0, . . , 0), . . , (0, . . . , de R . o o o = {(0, . que . . ,y0, 1), (0,iguales 1, 0), . .bases de. R.2,,0)} son distintas, pero como bases son iguales. c son . . . , 0, como . , (1, 0, . pero distintas como bases ordenadas.
c

es llamada base cannica ordenada simplemente base cannica de Rn . o o o

3. En Pn [x] las siguientes bases c = {1, x, . . . , xn } y = {xn , . . . , x, 1} son bases ordenadas distintas, pero como bases iguales. c es llamada base cannica ordenada o o simplemente base cannica de Pn [x]. o

168

IV. Espacios Vectoriales


4. En el espacio de las matrices Mmn (R), para cada i {1, . . . , n} y j {1, . . . , m}, con(cero). La base c = {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn } es llamada la base cannica ordenada simplemente base cannica de Mmn (R). Las o o o siguientes son bases ordenadas de Mmn (R), distintas entre si y distintas de c : a) 1 = {E11 , E21 , . . . , Em1 , E12 , E22 , . . . , Em2 , . . . , E1n , E2n , . . . , Emn } b) 2 = {Emn , . . . , Em2 , Em1 , . . . , E2n , . . . , E22 , E21 , E1n , . . . , E12 , E11 } c) 3 = {Emn , . . . , E2n , E1n , . . . , Em2 , . . . , E22 , E12 , Em1 , . . . , E21 , E11 } d) 4 = {E1n , . . . , E12 , E11 , E2n , . . . , E22 , E21 , . . . , Emn , . . . , Em2 , Em1 } Dada una base {v1 , v2 , . . . , vn } de V, sabemos que para cada v V existen unicos escalares Todas estas bases son iguales como bases (no ordenadas). 1 , 2 , . . . , n R tales que v = 1 v1 + 2 v2 + + n vn . estn ordenados de forma unica, lo que da pie a la siguiente denicin. a o Si {v1 , v2 , . . . , vn } es una base ordenada, entonces los escalares 1 , 2 , . . . , n R son unicos y

sideremos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales a 0

Denicin 4.3.2. Sea = {v1 , v2 , . . . , vn } una base ordenada de V y sea v V. Deniremos o la matriz de coordenadas de v en la base como la unica matriz 1 2 [v] = . . n tal que v = 1 v1 + 2 v2 + + n vn .

Ejemplo 4.3.2. El conjunto = {1 + x, x + x2 , 1 + x2 } es una base de P2 [x] (prubelo!). e Para cualquier p(x) P2 [x], encuentre [p(x)] . Solucin. Sea p(x) = a0 + a1 x + a2 x2 con a0 , a1 , a2 R y sea o 1 [p(x)] = 2 3

169

IV. Espacios Vectoriales


Entonces, para cada x R, tenemos p(x) = 1 (1 + x) + 2 (x + x2 ) + 3 (1 + x2 ) = (1 + 3 ) + (1 + 2 )x + (2 + 3 )x2 De donde se obtiene el sistema 1 Resolvemos el sistema 1 0 1 a0 +3 = a0 = a1 2 +3 = a2

1 +2

1 1 0 a1 F2 F2 F1 0 1 1 a0 + a1 0 1 1 a3 0 1 1 a2 1 0 1 a0 1 1 F3 F3 F2 0 1 1 a0 + a1 F3 2 F3 0 0 0 2 a0 a1 + a2 0 1 0 0 1 a0 + 1 a1 1 a2 2 2 2 F1 F1 F3 1 1 1 0 1 0 2 a0 + 2 a1 + 2 a2 F2 F2 + F3 0 0 1 1 a0 1 a1 + 1 a2 2 2 2 Luego 1 1 1 a0 + 2 a1 2 a2 2 2 1 [p(x)] = [a0 + a1 x + a2 x ] = 2 a0 + 1 a1 + 1 a2 2 2 1 a0 1 a1 + 1 a2 2 2 2 1 1 1 a0 1 1 1 1 = 1 1 1 a1 = 1 1 2 2 1 1 1 a2 1 1

1 0

a0

0 0

1 1
1 a 2 0

a0 a0 + a1 1 a1 + 1 a2 2 2

1 1

a0 + a1 a2 1 = a0 + a1 + a2 2 a0 a1 + a2 1 1 [p(x)]c 1

Teorema 4.3.1. Sea una base ordenada de un espacio vectorial V de dimensin n. Para o cualesquiera u, v V y R se cumple que 1. [u + v] = [u] + [v]

170

IV. Espacios Vectoriales

2. [u] = [u] Demostracin. Ejercicio! o

Teorema 4.3.2. Sean 1 = {v1 , v2 , . . . , vn } y

espacio vectorial V. Entonces existe una unica matriz A Mnn (R) tal que [v]2 = A[v]1 para cada v V

= {u1 , u2, . . . , un } bases ordenadas de un

(4.1)

Demostracin. Para cada j {1, . . . , n} hagamos o 1j [vj ]2 =

Entonces

2j . . nj

vj = 1j u1 + 2j u2 + + nj un Sea v V cualquiera. Hagamos

[v]1

Entonces 1 u1 + 2 u2 + + n un = v

2 = . . n

y [v]2

2 = . . n

= 1 v1 + 2 v2 + + n vn = 1 (11 u1 + 21 u2 + + n1 un ) + 2 (12 u1 + 22 u2 + + n2 un ) + + +n (1n u1 + 2n u2 + + nn un ) = (11 1 + 12 2 + + 1n n )u1 + (21 1 + 22 2 + + 2n n )u2 + + +(n1 1 + n2 2 + + nn n )un

171

IV. Espacios Vectoriales

Por lo tanto

1
2

De donde

. n

+ + + 2n 2 21 1 22 2 2n n 21 22 = . . . . . . n1 1 + n2 2 + + nn n n1 n2 nn n 11 12 1n 2n 21 22 = [v] . . . 1 n1 n2 nn 1n

11 1 + 12 2 + + 1n n

11 12

1n

[v]2

Haciendo

A = [ij ]nn =

obtenemos la existencia de la matriz A que satisface (3.1) Para probar la unicidad de A, notemos primero que la j-sima columna de A est dada por e a 1j 2j (j) A = = [vj ]2 . . nj

2n 21 22 = . . . . . . n1 n2 nn

11 12

[v1 ]2 [v2 ]2 [vn ]2

Supongamos que B Mnn (R) es tal que

[v]2 = B[v]1 As que, para cada j {1, . . . , n}, tenemos que

para cada v V

[vj ]2 = B[vj ]1

172

IV. Espacios Vectoriales

Pero

[vj ]1

0 = 1 j-sima la e 0 . 0

0 . .

Luego

0 . . 0 A
(j)

= [vj ]2 = B[vj ]1 = B 1 = B (j) 0 . . 0

Por lo tanto B = A.

Denicin 4.4.3. La matriz A en el teorema anterior es llamada matriz de transicin o o o matriz de cambio de base de 1 a 2 y se denota por M 1 , 2 . Como su nombre lo indica, la matriz M1 ,2 permite hallar la matriz de coordenadas de un vector v V en la base 2 conociendo la matriz de coordenadas de v en la base 1 . Ntese o del j-simo vector de 1 respecto a la base 2 , esto es, si 1 = {v1 , v2 , . . . , vn }, entonces e M1 ,2 = . Ejemplo 4.3.3. Sea la base ordenada de P2 [x] dada en el ejemplo 3.2. Entonces, segn el u ejemplo en cuestin, tenemos que o 1 1 1 2 1 1 1 1 1 [v1 ]2 [v2 ]2 [vn ]2 adems que por su denicin, la columna j-sima de M1 ,2 , representa la matriz de coordenadas a o e

Mc , =

1 1

(por qu?) e

173

IV. Espacios Vectoriales


donde c es la base cannica ordenada de P2 [x]. o Antes de dar alg n otro ejemplo, enunciaremos un primer resultado que involucra matrices u de transicin. o Teorema 4.3.3. Si V es un espacio vectorial de dimensin n y 1 y 2 son dos bases o ordenadas de V, entonces la matriz M 1 , 2 es invertible y su inversa es M 2 , 1 . y Demostracin. Sea v V cualquiera. Entonces [v]1 = M2 ,1 [v]2 o
1 Por lo tanto, si 2 = {v1 , v2[v]. . ,=nMentonces para cada j {1, . . . , n} se tiene que , . 2 v }, 1 , 2 [v] 0 .

0 j-sima la 1 = [vj ]2 = M1 ,2 [vj ]1 = M1 ,2 M2 ,1 [vj ]2 = C (j) e 0 . . 0

donde C (j) es la j-sima columna de M1 ,2 M2 ,1 . e En consecuencia M1 ,2 M2 ,1 = In y por lo tanto (M1 ,2 )1 = M2 ,1 .

Ejemplo 4.3.4. Consideremos las siguientes bases ordenadas de R3 1 = {(1, 2, 0), (3, 1, 1), (0, 1, 3)} 2 = {(0, 2, 1), (1, 0, 1), (3, 1, 2)} c la base cannica. o Hallar M1 ,2 , Mc ,2 y M2 ,1 . Solucin. Para hallar M1 ,2 debemos hallar las matrices de coordenadas de cada uno de los o vectores de 1 respecto a la base 2 . Sean 11 12 [(1, 2, 0)]2 = 21 , [(3, 1, 1)]2 = 22 31 32 13 = 23 33

y [(0, 1, 3)]2

174

IV. Espacios Vectoriales

Entonces (1, 2, 0) =
21 (1, 0, 1)

+ 31 (3, 1, 2)
11

11 (0, 2, 1)

= (21 + 3 , 2 31

, 31

11

+ + 2 31 ) 21

(3, 1, 1) =
32 )

12 (0, 2, 1)

+ (1, 0, 1) + (3, 1, 2) 22 32
12

= (22 + 3 , 2 32

, 32

12

+ + 2 22

De donde

(0, 1, 3) =

13 (0, 2, 1)

+ (1, 0, 1) + (3, 1, 2) 23 33

211 11

= (23 + 3 , 2 13 , 13 + + 2 33 33 23 21 +331 = 1 22 +332 = 3 33 ) 31 = 2 , 212 32 = 1 +21 +231 = 0 1 12 +22 +232 = y 213 33 = 1 13 +23 +233 = 3 23 +333 = 0

Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de manera simultnea considerando la siguiente matriz tres veces ampliada a 0 1 3 1 3 0

Ntese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de o cada uno de los vectores de la base 2 respecto a la base cannica, y las tres ultimas colum o nas, son las matrices de coordenadas de cada uno de los vectores de la base 1 respecto a la base cannica. Este procedimiento es estndar cada vez que busquemos una matriz de cambio de base. o a 3 1 3 0 1 1 2 0 1 3 0 1 2 0 1 2 1 1 F1 F3 2 0 1 2 1 1 1 1 2 0 1 3 0 1 3 1 3 0

2 1

0 1 2 1 1 1 2 0 1 3

175

IV. Espacios Vectoriales


F2 F2 2F1 0 0 1 1 F2 F2 0 1 0 2 1 0 1 F3 11 F3 0 1 0 0 As que

2 5 2 3 5 F2 F3 0 1 3 1 3 0 1 3 1 3 0 0 2 5 2 3 5 2 0 1 3 1 0 5 1 4 3 F1 F1 F2 3 1 3 0 0 1 3 1 3 0 F3 F3 + 2F2 5 2 3 5 0 0 11 4 9 5 9 1 8 5 1 4 3 1 0 0 11 11 11 F1 F1 5F3 1 6 3 1 3 0 0 1 0 11 15 11 11 F2 F2 + 3F3 4 9 5 4 9 5 1 11 11 11 0 0 1 11 11 11


9 1 11 11 1 11 4 11 6 11 9 11 8 11 15 11 5 11

Hallemos ahora Mc ,2 . En este caso la matriz aumentada que obtenemos es 0 1 3 1 0 0

M1 ,2 =

1 = 11

9 1

1 6 15 4 9 5

Vemos que para obtener Mc ,2 necesitamos aplicar, en el mismo orden, las mismas OEF que aplicamos anteriormente (por qu?), y obtenemos e 1 0 0
1 11 5 11 2 11 5 11 3 11 1 11 1 11 6 11 2 11

2 1

0 1 0 1 0 1 2 0 0 1

Por lo tanto

0 1 0 0 0 1
1 11 5 11 2 11 5 11 3 11 1 11

1 5 1

Ntese que la matriz obtenida no es mas que la inversa de o 0 1 3

Mc ,2 =

1 11 6 11 2 11

= 1 5 3 6 11 2 1 2

M2 ,c = 2 1

0 1 1 2

176

IV. Espacios Vectoriales

Finalmente (verif quelo!) 15 14


1 2 1 2 1 2 3 14 13 14 5 14

M2 ,1 = (M1 ,2 )1 =

5 14 3 14

1 = 14

15

5 7 13 3 7 5

Algoritmo para hallar la matriz de transicin M1 ,2 , donde 1 y 2 son bases ordenadas o de un espacio vectorial V de dimensin n y c es la base cannica ordenada de V. En general o o V = Rn , V = Pn1 [x] V = Mpq (R) con pq = n. o Paso 1. Hallar las matrices M2 ,c y M1 ,c . Paso 2. Formar la la matriz ampliada [M2 ,c |M1 ,c ]. Paso 3. Hallar la FERF de la matriz en el paso previo. Paso 4. La matriz hallada en el paso previo tiene la forma [In |B]. Entonces M1 ,2 = B. Ejemplo 3.5. Sean 1 , 2 y c como en el ejemplo anterior. Dado (x, y, z) R3 , hallar [(x, y, z)]2 y [(x, y, z)]1 . x = y por lo tanto z 1

Solucin. Sabemos que [(x, y, z)]c o

[(x, y, z)]2 = Mc ,2 [(x, y, z)]c

x x + 5y + z 1 1 = 5 3 6 y = 5x 3y + 6z 11 11 2 1 2 z 2x y + 2z 5 1 1 14 1 5 7 13 5x 3y + 6z 11 3 7 5 2x y + 2z 4x 9y + 3z 1 = 6x + 3y z 14 2x y + 5z 15 7 3 x + 5y + z

[(x, y, z)]1 = M2 ,1 [(x, y, z)]2 =

[(x, y, z)]1

177

IV. Espacios Vectoriales


En este ultimo ejemplo se verica que 1 14 15 1 5 7 13 5 3 6 11 3 7 5 2 1 2 4 9 6 3 1 2 1 5 3 7 3 1 5 1

Mc ,1 = M2 ,1 Mc ,2 =

Mc ,1

Este resultado no es casual, como se puede ver en el siguiente teorema Teorema 4.4.4. Sean 1 , 2 y 3 bases ordenadas de un espacio vectorial V de dimensi o n n. Entonces M1 ,3 = M2 ,3 M1 ,2 Demostracin. Sea v V cualquiera. Entonces o [v]3 = M2 ,3 [v]2 Luego [v]3 = M2 ,3 [v]2 = M2 ,3 M1 ,2 [v]1 Por unicidad de la matriz M1 ,3 concluimos que M1 ,3 = M2 ,3 M1 ,2 y [v]2 = M1 ,2 [v]1

1 = 14

Teorema 4.4.5. Sea una base ordenada de un espacio vectorial V de dimensin n. o Entonces es [vj ] , tiene determinante distinto de cero. {v1 , v2 , . . . , vn } es una base de V si y slo si la matriz cuadrada de orden n, cuya j-sima columna o e

Demostracin. Sea A Mnn (R) la matriz cuya j-sima columna es [vj ] . Sean 1 , 2 , . . . , n o e R tales que As que 1 v1 + 2 v2 + + n vn = 0

178

IV. Espacios Vectoriales

/ / 0n1 = [0V ] = [1 v1 + 2 v2 + + n vn ] = 1 [v1 ] + 2 [v2 ] + + n [vn ] 1 1 2 2 = [[v1 ] [v2 ] [vn ] ] =A . . n n

2 / = 0n1 tiene como unica solucin la trivial, es o . n decir, si y slo si {v1 , v2 , . . . , vn } es linealmente independiente que a su vez, dado que dim(V) = n, o Pero det(A) = 0 si y slo si el sistema A o equivale a que {v1 , v2 , . . . , vn } es una base de V.

en un espacio vectorial de dimensin n, es una base para dicho espacio. o

El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },

4.5.

Espacio vectorial con producto interno y sus propiedades.

Denicin 4.5.4. Sea V un espacio vectorial real. Un producto interno sobre V, es una funci o o n que asocia, a cada par de vectores u, v V, un unico nmero real denotado por u , v , u v u o uv satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w V y cada R 1. u , v = v , u . 2. u + v , w = u , w + v , w . 3. u , v = u , v .. / v , v 0 y adems v , v = 0 si y slo si v = 0V . a o Un espacio vectorial real, en el cual se dene un producto interno, es llamado espacio (vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a los productos internos son producto interior, producto escalar y producto punto. Ejemplo 4.5.6. Las siguientes funciones son productos internos sobre Rn

179

IV. Espacios Vectoriales


n

1. u , v =
i=1

ui vi donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ).

En efecto, sean u, v, w Rn y R con u = (u1 , u2, . . . , un ); v = (v1 , v2 , . . . , vn ) y w = (w1 , w2 , . . . , wn ). Entonces


n n

u, v =
i=1

ui vi =
i=1

vi ui = v , u

u + v = (u1 , u2 , . . . , un ) + (v1 , v2 , . . . , vn ) = (u1 + v1 , u2 + v2 , . . . , un + vn ), as que


n n n n

u+v, w =
i=1

(ui + vi )wi =
i=1

(ui wi + vi wi ) =
i=1

u i wi +
i=1

vi wi = u , w + v , w

u = (u1, u2 , . . . , un ) = (u1 , u2, . . . , un ), luego


n n

u , v =
i=1

uivi =
i=1

uivi = u , v

Finalmente u, u =

ui ui =
i=1 i=1

u2 0 i

Adems, u , u = 0 si y slo si a o
/ slo si u = 0Rn . o

u2 i

= 0 para cada i {1, . . . , n} (por qu?), esto es, si y e

Este producto interno es llamado producto interno euclidiano, usual o estndar de a Rn , salvo que se indique lo contrario, este es el producto interno que consideraremos sobre Rn .
n

2. u , v =
i=1

pi ui vi donde p1 , p2 , . . . , pn son nmeros reales positivos jos, u = (u1 , u2, . . . , un ) u

y v = (v1 , v2 , . . . , vn ). Este producto interno es lo que se denomina producto interno ponderado, si p1 = = pn = 1, este producto interno coincide con el producto interno euclidiano. Pruebe que esta funcin es un producto interno. o Ejemplo 4.5.7. En Mmn (R) la siguiente funcin dene un producto interno (prubelo!), el o e cual se conoce como producto interno euclidiano, usual o estndar, al igual que en el caso de a Rn , salvo que se indique otra cosa, este es el productoninterno que consideraremos sobre Mmn (R). m aij bij A, B = donde A = (aij )mn y B = (bij )mn .
i=1 j=1

180

IV. Espacios Vectoriales


Ejemplo 4.5.8. En el espacio de las funciones reales continuas en el intervalo [ a , b ], C [ a,b], la funcin o
b

f,g =
a

f (x)g(x)dx

es un producto interno, en efecto, sean f, g, h C [ a , b ] y R. Entonces


b b

f,g =
a

f (x)g(x)dx =
a

g(x)f (x)dx = g , f

f +g, h

=
a b

(f (x) + g(x))h(x)dx =
a b

(f (x)h(x) + g(x)h(x))dx

=
a

f (x)h(x)dx +
a b

g(x)h(x)dx = f , h + g , h
b

f , g =
a

f (x)g(x)dx =
a b

f (x)g(x)dx = f , g
b

f,f =
a

f (x)f (x)dx =
a

[f (x)]2 dx 0

si f = O, donde O es la funcin nula sobre [ a , b ], esto es, O(x) = 0 para todo x [ a , b ]. o C [ a , b ]. Ejemplo 4.5.9. En Pn [x] las siguientes funciones son productos internos.

Adems f , f = 0 si y slo si f (x) = 0 para cada x [ a , b ] (por qu?), es decir, si y slo a o e o Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre

1. Como Pn [x] es un subespacio de C [ a , b ], entonces el producto interno denido en el ejemplo anterior, es un producto interno sobre Pn [x].
n

2. p , q =
i=0 n

p(i)q(i). En Efecto, sean p, q, r Pn [x] y R. Entonces


n

p, q =
i=0

p(i)q(i) =
i=0 n

q(i)p(i) = q , p .
n

p+q, r =
i=0 n

[p(i) + q(i)]r(i) =
n i=0

[p(i)r(i) + q(i)r(i)]

=
i=0

p(i)r(i) +
i=0

q(i)r(i) = p , r + q , r .

181

IV. Espacios Vectoriales


n n

p, p =
i=0

p(i)p(i) =
i=0

[p(i)]2 0.

Adems, p , p = 0 si y slo si p(i) = 0 para cada i {0, . . . , n}. a o Pero el unico polinomio en Pn [x], que tiene ms de n races, es el polinomio nulo (por a qu?), es decir, p , p = 0 si y slo si p es el polinomio nulo. e o
n

3. p , q =
i=0

ai bi , con p(x) = a0 + a1 x + + an xn y q(x) = b0 + b1 x + + bn xn . (prubee

lo!). Teorema 4.5.6. Sea V un espacio con producto interno , . Entonces 1. u , v + w = u , v + u , w para cualesquiera u, v, w V. 2. u , v = u , v para cualesquiera u, v V y R. 3. u v , w = u , w v , w para cualesquiera u, v, w V. 4. u , v w = u , v u , w para cualesquiera u, v, w V. / / V = 0 = 0V , v para todo v V. 5. v , 0 / 6. Si u , v = 0 para cada v V, entonces u = 0V . Demostracin. o 1. Sean u, v, w V cualesquiera. Entonces u, v +w = v +w, u = v, u + w, u = u, v + u, w . 2. Sean u, v V y R cualesquiera. As que ello debemos hallar la FERF de A. u , v = v , u = v , u = u , v . 3. A =Sean u, v, w V cualesquiera. Luego uv, w = = u + (v) , w = u , w + v , w u , w + (1) v , w = = u , w + (1)v , w

u, w v, w .

182

IV. Espacios Vectoriales


4. Sean u, v, w V cualesquiera. As que u, v w = v w, u = v, u w, u = u, v u, w . 5. Sea v V cualquiera. Entonces
/ / / / / v , 0V = v , 0V + 0V = v , 0V + v , 0V .

/ / As que v , 0V = 0 y adems 0V , v = v , 0V = 0. a /

/ 6. Como u , v = 0 para cada v V, entonces u , u = 0 (tomando v = u), luego u = 0V

(por qu?). e

4.6.

Bases Ortonormales . Proceso de Ortonormalizacin o de Gram-Schmidt

Denicin 4.6.5. Sea , o

V. Diremos que u es ortogonal a v si u , v = 0, en cuyo caso escribiremos u v.

un producto interno sobre un espacio vectorial V y sean u, v

Observacin 4.6.2. Si u es ortogonal a v, entonces v es ortogonal a u. En consecuencia, o podemos escribir u y v son ortogonales en lugar de u es ortogonal a v. Ejemplo 4.6.10. 1. Sean x = (2, 1, 3) e y = (3, 3, 1). Entonces x , y = (2)(3) + (1)(3) + (3)(1) = 6 3 3 = 0 as que x y. 2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto mismo teorema, nos dice que el unico vector que es ortogonal a todo vector v V, es el vector nulo. 3. Las funciones f (x) = sen(x) y g(x) = cos(x), en C [ , ], son ortogonales.
/ interno, el vector nulo 0V es ortogonal a cualquier vector v V, adems, la parte 6 de este a

183

IV. Espacios Vectoriales


4. En P2 [x], los polinomios p(x) = 1+2x2 y q(x) = 2+x2 son ortogonales si consideramos el

producto interno denido en la parte 3 del ejemplo 3.9 (verif quelo!), pero si consideramos el producto interno denido en la parte 2 del mismo ejemplo, estos polinomios no son ortogonales (verifquelo!).

Denicin 4.6.6. Sea o

un producto interno sobre el espacio vectorial V. Deniremos la

nor-ma, magnitud, mdulo o longitud (inducida por el producto interno) de v V, o como el nmero real v dado por u v = Diremos que v V es unitario si v = 1. Observacin 4.6.3. La norma de un vector no siempre est denida en trminos del o a e producto interno (ver B), sin embargo, en este captulo nos ocuparemos de las normas inducidas por un producto interno. Dado que v , v 0 para cada v V, entonces la denicin anterior est bien fundada. o a Ejemplo 4.6.11. Consideremos sobre R4 el producto interno euclidiano. Entonces 0, 3, 2) , (1, 0, 3, 2) = 12 + 02 + (3)2 + 22 = 14 (1, 0, 3, 2) = (1, Ejem. 4.6.12. En P2 [x] consideremos el polinomio p(x) = 3 x2 . Hallar p considerando: 1. El producto interno denido en la parte 1 del ejemplo 3.9 con a = 1 y b = 1. 2. El producto interno denido en la parte 2 del ejemplo 3.9. 3. El producto interno denido en la parte 3 del ejemplo 3.9. Solucin. o
1 1

v, v

1. p =
1

(3

x2 )2 dx

=
1

(9 2

6x2

x4 )dx 2 5

9x

2x3

x5 + 5

1 1

= 2. p =

2 92+

1 5

36 =6 5

[p(0)]2 + [p(1)]2 + [p(2)]2 =

32 + 22 + (1)2 =

14

184

IV. Espacios Vectoriales


3. p = 32 + 02 + (1)2 = 10

A continuacin enunciaremos un teorema donde se dan a conocer algunas propiedades de la o norma, y que son consecuencia directa las propiedades del producto interno, su demostracin se o deja como ejercicio. Teo.4.6.7. Sea V un EPI. Entonces para cada R y cualesquiera u, v V se cumple que:
/ 1. u 0 y u = 0 si y slo si u = 0V . o

2. u = || u . 3. u v
2

= u

2 u , v + v 2.

El siguiente lema nos permitir demostrar el teorema que le sigue. a Lema 4.6..1. Sean u y v dos vectores unitarios en un EPI. Entonces | u , v | 1. Demostracin. Usando la parte 3 del teorema 3.7, tenemos que o 0 u+v As que u , v 1 Nuevamente, por la parte 3 del teorema 4.6.7, obtenemos 0 uv luego u, v 1 En consecuencia | u, v | 1
2 2

= u

+2 u, v + v

= 1 + 2 u , v + 1 = 2[1 + u , v ]

= u

2 u, v + v

= 1 2 u , v + 1 = 2[1 u , v ]

En el teorema que enunciaremos a continuacin, se dan dos propiedades muy importantes de o la norma.

185

IV. Espacios Vectoriales


Teo-4.6.8. Sean u y v dos vectores en un EPI. Entonces 1. | u , v | u v (Desigualdad de Cauchy-Schwarz). 2. u + v u + v (Desigualdad Triangular). Las igualdades se cumplen si y slo si uno de los vectores es mltiplo escalar del otro (pru o u belo!) e Demostracin. o
/ / 1. Si u = 0V o v = 0V , entonces | u , v | = 0 = u v . u v / yv= son unitarios, V = v y por lo tanto los vectores u = u v En caso lema 4.1 y por el contrario, u = 0

| u, v | 1 Pero u, v = Por lo tanto 1 u v u v , u v = 1 u v u, v

u , v 1, es decir, u , v u v .

2. Por la parte 3 del teorema 4.7 tenemos que u+v


2

= u

+2 u, v + v

y por la parte 1 (desigualdad de Cauchy-Schwarz) u, v | u, v | u v As que u+v


2

+2 u v + v

= ( u + v )2

Luego u + v u + v .

Def.4.6.7. Sea V un EPI y sean u, v V vectores no nulos. Deniremos el ngulo entre u y a v como el nmero real (u, v) [ 0 , ] tal que u es decir, u, v cos((u, v)) = u v u, v u v

(u, v) = arc cos

186

IV. Espacios Vectoriales


Ejem. 4.6.13. Hallar el ngulo entre los vectores u = (0, 3, 3) y v = (2, 2, 1) a Solucin. u , v = 0 2 + (3)2 + 3(1) = 9 o u = 02 + (3)2 + 32 = 18 = 3 2 v 22 + 22 + (1)2 = 9 = 3 As que (u, v) = arc cos u, v u v 9 = arc cos 3 23 = arc cos 2 2 = 3 4

Def.4.6.8. Sea V un EPI y sea S = {v1, v2, . . . , vk} V. Diremos que S es un conjunto ortogonal si vi vj para cualesquiera i, j {1, . . . , k} con i = j. Si adicionalmente vi es unitario para cada i {1, . . . , k}, diremos que S es un conjunto ortonormal. Ejem. 4.6.14. Consideremos las siguientes matrices en M22 (R) A1 = 1 0 0 0 ; A2 = 0 2 2 0 y A3 = 0 1 1 3

Es S = {A1 , A2 , A3 } un conjunto ortogonal? Es S ortonormal? Solucin. o A1 , A2 = 1 0 + 0 2 + 0(2) + 0 0 = 0 A1 , A3 = 1 0 + 0 1 + 0 1 + 0 3 = 0 A2 , A3 = 0 0 + 2 1 + (2)1 + 0 3 = 0 As que S es ortogonal. Pero A2 = 02 + 22 + (2)2 + 02 = 2 2 = 1

Por lo tanto S no es ortonormal, sin embargo, S0 = {B1 , B2 , B3 }, donde 1 1 A2 = A2 A2 2 2 s es un conjunto ortonormal (verif quelo!). B1 = B2 = 1 A1 = A1 , A1 1 1 A3 = A3 y B3 = A3 11

Teorema4.6.9. Todo conjunto ortogonal nito de vectores no nulos en un EPI es linealmente independiente.

187

IV. Espacios Vectoriales


Demostracin. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } V un conjunto ortogonal de vectores o no nulos. Sean 1 , 2 , . . . , k R tales que
/ 1 v1 + 2 v2 + + k vk = 0V

Entonces, para cada j {1, . . . , k}, se tiene que 0 = vj , 0V = vj , 1 v1 + 2 v2 + + k vk =


/

vj , i vi =
i=1 i=1

i vj , vi = j vj , vj

= j vj

y dado que vj es no nulo, entonces j = 0. Por lo tanto S es linealmente independiente.

Def.4.6.9. Sean V un .EPI y = {v1 , v2 , . . . , vn } una base de V. Diremos que es una ortonormal). Ejemplo 4.6.15. 1. Las bases cannicas de Rn y Mmn (R) son bases ortonormales. o 2. Una base ortogonal de M22 (R) es = pero no es ortonormal. 1 0 0 0 ; 0 2 2 0 ; 0 1 1 3 ; 0 3

base ortogonal (respectivamente ortonormal) si es un conjunto ortogonal (respectivamente

3 2

3. Una base ortonormal de P2 [x], considerando el producto interno denido en la parte 1 del ejemplo 4.6 .9 con a = 1 y b = 1, es = En efecto, 1 2 3 x 2
2

1 , 2 1 2 3 2
2

3 5 x , 1 + 3x2 2 2 2
2

1 x
2

1 = 2
1

1 dx = 2 = 1 2 1
1 2

3 = 2

3 x3 x dx = 2 3 1

=1
1

188

IV. Espacios Vectoriales


5 1 + 3x2 2 2
2

= 5 = 8

5 2 2
1 1

1 + 3x2 1 6x + 9x
2 4

5 8

1 1

1 + 3x2
3

dx
1

5 dx = 8

9 x 2x + x5 5

dx = 1
1

Adems a

3 3 1 1, x = xdx = 0 2 2 1 1 5 1 5 5 1 2 2 , 1 + 3x = 1 , 1 + 3x = 1 + 3x2 dx 4 1 2 2 2 22 2 5 1 = x + x3 1 = 0 4 3 5 3 5 15 1 2 2 x , 1 + 3x = x , 1 + 3x = x 1 + 3x2 dx = 0 2 22 2 4 1 2 2 1 , 2 3 x 2 1 = 2

Para nalizar esta seccin, nos plantearemos y solucionaremos el problema de hallar una base o ortonormal para un EPI de dimensin nita o para un subespacio de dimensin nita de un EPI, o o comenzaremos con un ejemplo el cual ilustrar un procedimiento, conocido como proceso de a ortonormalizacin de Gram-Schmidt, que nos permite encontrar tal base. o Ejem. 4.6.16. En P2 [x] consideremos el producto interno dado en el ejemplo 3.15 y considere. mos la base de P2 [x] = {1 , x , x2 }. Hallar una base ortonormal de P2 [x] partiendo de la base

Solucin. Hagamos o v1 = 1 , Entonces


1

v2 = x y v3 = x2

v1 =
1

dx =

Sea u1 = As que u1 = 1. Ahora hagamos

1 1 v1 = v1 2

w2 = v2 v2 , u1 u1

189

IV. Espacios Vectoriales


Pero v2 , u1 = Luego w2 = v2 = x, adems a
1

1 x, 2

1 1 = x, 1 = 2 2

xdx = 0.
1

w2 =
1

x2 dx

x3 3

=
1

2 3

Si hacemos u2 =

1 w2 = w2

3 x 2

entonces u2 = 1 y u1 u2 (ver ejemplo 3.15). Consideremos w3 = v3 v3 , u1 u1 v3 , u2 u2 Pero v3 , u1 = 1 x2 , 2


2

1 1 = x2 , 1 = 2 2 3 x 2 =

1 x3 x2 dx = 2 3 1 3 2
1

1 1

2 = 3 2

v3 , u2 = De donde

x ,

3 2 x ,x = 2

x3 dx = 0
1

2 1 1 w3 = x2 = + x2 3 3 2 2 1 + x2 3 1 8 2 2 = 45 3 5
1 2 1

y w3 = = dx =
1

1 2 2 x + x4 dx = 9 3

1 2 x5 x x3 + 9 9 5

1 1

Finalmente, hagamos 1 3 5 u3 = w3 = w3 2 2 1 + x2 3 5 = 1 + 3x2 2 2

Entonces u3 = 1 , u3 u1 y u3 u2 (ver ejemplo 3.15). Por lo tanto {u1 , u2 , u3} = 1 , 2 3 5 x , 1 + 3x2 2 2 2

es una base ortonormal de P2 [x], la cual se obtuvo de .

190

IV. Espacios Vectoriales

El teorema siguiente generaliza el procedimiento que se us en ejemplo anterior. o Teo.4.6.10 (Proceso de Ortonormalizacin de Gram-Schmidt). Sea V un EPI. Si W es un o subespacio de dimensin nita de V, entonces W posee una base ortonormal. En Particular, si o V tiene dimensin nita, entonces V posee una base ortonormal. o Demostracin. Sea W = {v1 , v2 , . . . , vm } una base de W. Procederemos a construir la base o
/ En primer lugar, notemos que vi = 0V para cada i {1, . . . , m}.

ortonormal de W a partir de W .

Paso 1. Sea u1 =

1 v1 v1 = . Entonces gen({u1 }) = gen({v1 }) (por qu?) y e v1 v1 u1 = v1 v1 = 1 v1 v1 = 1

/ Paso 2. Sea w2 = v2 v2 , u1 u1 . Entonces w2 = 0V , pues de lo contrario

v2 = v2 , u1 u1 =

v2 , u1 v1 v1

lo cual contradice el hecho de que {v1 , v2 } es linealmente independiente. Adems a w2 , u1 = v2 v2 , u1 u1 , u1 = v2 , u1 v2 , u1 u1 , u1 Con lo que w2 u1 . Paso 3. Sea u2 =

= v2 , u1 v2 , u1 u1 , u1 = v2 , u1 v2 , u1 = 0

1 w2 w2 = . Entonces u2 = 1 y u1 u2 . As que {u1 , u2} es un w2 w2 conjunto ortonormal. Adems gen({u1, u2 }) = gen({v1 , v2 }). En efecto, sea v gen({u1, u2 } cualquiera. a Entonces existen 1 , 2 R tales que v = 1 u1 + 2 u2 . Luego v = 1 u1 + 2 u2 1 1 = 1 v1 + 2 w2 v1 w2 1 2 = v1 + (v2 v2 , u1 u1 ) v1 w2 1 2 1 = v1 + v2 v2 , u1 v1 v1 w2 v1 1 2 v2 , u1 2 = v1 + v2 v1 w2 v1 w2

191

IV. Espacios Vectoriales


De donde v gen({v1 , v2 }), por tanto gen({u1 , u2 }) gen({v1 , v2 }) y as gen({u1 , u2}) consecuencia linealmente independiente (por qu?), entonces dim(gen({u1, u2 })) = e 2 = dim(gen({v1 , v2 })), as que gen({u1 , u2 }) = gen({v1 , v2 }) (por qu?) e De manera recursiva, para k < m, obtenemos un conjunto ortonormal {u1 , u2 , . . . , uk } tal que gen({u1 , u2, . . . , uk }) = gen({v1 , v2 , . . . , vk }) Paso 4. Sea wk+1 = vk+1 vk+1 , u1 u1 vk+1 , u2 u2 vk+1 , uk uk
k

es un subespacio de gen({v1 , v2 }), como {u1 , u2} es un conjunto ortonormal, y en

= vk+1

vk+1 , ui ui
i=1

/ Entonces wk+1 W, wk+1 = 0V y para cada j {1, . . . , k} tenemos que

wk+1 , uj

= = = =

vk+1

vk+1 , ui ui , uj
i=1 k

vk+1 , uj
k

vk+1 , ui ui , uj
i=1

vk+1 , uj vk+1 , uj

vk+1 , ui ui , uj
i=1 k

i=1

vk+1 , ui ui , uj (por qu?) e uj , uj (por qu?) e

= =

vk+1 , uj vk+1 , uj vk+1 , uj vk+1 , uj

= 0 es decir, wk+1 uj para cada j {1, . . . , k}. 1 wk+1 =

Paso 5. Hagamos uk+1 = qu?). e

wk+1 . Entonces {u1 , u2, . . . , uk , uk+1} es un wk+1 wk+1 conjunto ortonormal y gen({u1 , u2 , . . . , uk , uk+1}) = gen({v1 , v2 , . . . , vk , vk+1}) (por

en W, y por lo tanto, una base ortonormal de W.

Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos {u1 , u2 , . . . , um}

192

Cap tulo V
Transformaciones Lineales. Autovalores y Autovectores de una Matriz

5.1.

Introduccin a lasTransformaciones Lineales o

Denicin 5.1. Sean V y W dos espacios vectoriales y T : V W una funcin. Diremos que o o T es una transformacin lineal si para cualesquiera u, v V y R se cumple que o 1. T (u + v) = T (u) + T (v). 2. T (u) = T (u). Ejemplo 5.11. Sean V y W dos espacios vectoriales. La transformacin O : V W, dada por o O(v) = 0
/

para cada v V, es una transformacin lineal (prubelo!), llamada transformacin nula. o e o

2. Sea V un espacio vectorial. Denamos IV : V V como sigue, IV (v) = v para cada v V. identidad sobre V.

Entonces IV es una transformacin lineal (prubelo!), la cual es llamada transformacin o e o

3. Sean V un espacio vectorial de dimensin n y una base ordenada de V. Entonces T : o V Mn1 (R) dada por T (v) = [v] es una transformacin lineal (ver teorema 3.1 en el o captulo anterior). 4. T : R3 R2 , dada por T (x, y, z) = (2x + y, x z), es una transformacin lineal, en o efecto, dados (x, y, z), (a, b, c) R3 y R, se tiene que T ((x, y, z) + (a, b, c)) = T (x + a, y + b, z + c) = (2(x + a) + (y + b), (x + a) (z + c)) = (2x + 2a + y + b, x + a z c) = (2x + y, x z) + (2a + b, a c) = T (x, y, z) + T (a, b, c)

193

V.Transformaciones Lineales.
T ((x, y, z)) = T (x, y, z) = (2(x) + (y), (x) (z)) = ((2x + y), (x z)) = (2x + y, x z) = T (x, y, z)

5. La funcin T : R2 R3 dada por o T (x, y) = (x2 , x + y, xy) no es una transformacin lineal, en efecto, o T (1, 0) = (12 , 1 + 0, 1 0) = (1, 1, 0) T (2(1, 0)) = T (2, 0) = (22 , 2 + 0, 2 0) = (4, 2, 0) 2T (1, 0) = 2(1, 1, 0) = (2, 2, 0) = (4, 2, 0) = T (2(1, 0)) 6. T : P2 [x] R2 dada por T (a + bx + cx2 ) = (2a + c + 3, b c) no es una transformacin o lineal, en efecto, T (0) = (2 0 + 0 + 3, 0 0) = (3, 0) T (0) + T (0) = (3, 0) + (3, 0) = (6, 0) T (0 + 0) = T (0) = (3, 0) = (6, 0) = T (0) + T (0) 7. Consideremos T : M22 (R) P3 [x] dada por T a b c d = a + bx + cx2 + dx3

Entonces T es lineal (prubelo!). e 8. T : R3 P3 [x] dada por T (a, b, c) = b + (2a + c)x + (b 3c)x3

194

V. Transformaciones Lineales.
es lineal. En efecto, sean u, v R3 y R cualesquiera, con u = (a1 , b1 , c1 ) y v = (a2 , b2 , c2 ). Entonces

T (u + v) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 )) = T (a1 + a2 , b1 + b2 , c1 + c2 ) = (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) 3(c1 + c2 )]x3 = (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 3c1 3c2 )x3 = [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 3c2 )x3 ] = T (a1 , b1 , c1 ) + T (a2 , b2 , c2 ) = T (u) + T (v)

T (u) = T ((a1 , b1 , c1 ))
1,

c)= T (a1 , b

= b1 + (21 + 1 )x + (b1 31 )x3 a c c = b1 + 2a1 + c1 )x + b1 3c1 )x3 ( ( = [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ] = T (a1 , b1 , c1 ) = T (u)

9. Sea A Mmn (R). Denamos T : Mn1 (R) Mm1 (R) como T (x) = Ax. No es dif cil probar que T es una transformacin lineal . o Este ultimo ejemplo nos dice que toda matriz dene una transformacion lineal, mas adelante veremos que toda transformacion lineal, entre espacios vectoriales de dimension nita, esta asociada con una matriz. El siguiente teorema nos ser de gran utilidad a la hora de decidir si una funcin T es una a o transformacin lineal. o Teorema 5.1. Sean V y W dos espacios vectoriales. Una funcin T : V W es una transo formacin lineal si y slo si para cualesquiera u, v V y R se cumple que T (u + v) o o =T (u) + T (v) T (u) + T (v).

195

V.Transformaciones Lineales.
Demostracin. Supongamos que T : V W es una transformacin lineal. Sean u, v V y o o R cualesquiera. Entonces T (u + v) = T (u) + T (v) (por la condicin 1 de la denicin 4.1) o = T (u) + T (v) (por la condicin 2 de la denicin 4.1) o Supongamos ahora que T : V W es tal que para cualesquiera u, v V y R se cumple T (u + v) = T (u) + T (v) Sean u, v V y R cualesquiera. Entonces T (u + v) = T (u + 1 v) = T (u) + 1 T (v) = T (u) + T (v) y adems a
/ / T (0V ) = T (u + (1)u) = T (u) + (1)T (u) = 0W

que

luego
/ / / T (v) = T (0V +v) = T (0V ) + T (v) = 0W +T (v) = T (v)

Por lo tanto T es lineal.

De ahora en adelante, gracias a este ultimo teorema, cuando queramos probar que una fun cin T, entre espacios vectoriales, es una transformacin lineal, no ser necesario probar las dos o o a condiciones en la denicin 4.1, slo bastar probar la condicin en el teorema anterior. o o a o Teorema 5.2. Sean V y W dos espacios vectoriales y T : V W una transformacin lineal. o

Entonces, para cualesquiera u, v, v1 , v2 , . . . , vn V y 1 , 2 , . . . , n R, se cumple que


/ / 1. T (0V ) = 0W .

2. T (u v) = T (u) T (v). 3. T (1 v1 + 2 v2 + + n vn ) = 1 T (v1 ) + 2 T (v2 ) + + n T (vn ) Demostracin. o 1. Sea v0 V cualquiera pero jo. Entonces
/ / T (0V ) = T (0 v0 ) = 0 T (v0 ) = 0W

196

V.Transformaciones Lineales.
2. En virtud del teorema 4.1 T (u v) = T (u + (1)v) = T (u) + (1)T (v) = T (u) T (v) 3. Procederemos por induccin. o a) Veamos que se cumple para n = 2. T (1 v1 + 2 v2 ) = T (1 v1 ) + T (2 v2 ) = 1 T (v1 ) + 2 T (v2 ) b) (Hiptesis Inductiva) Supongamos que se cumple para n 1, esto es, supongamos que o T (1 v1 + 2 v2 + + n1 vn1 ) = 1 T (v1 ) + 2 T (v2 ) + + n1 T (vn1 ) c) Probemos que se cumple para n. T (1 v1 + 2 v2 + + n1 vn1 + n vn ) = T ((1 v1 + 2 v2 + + n1 vn1 ) + n vn ) = T (1 v1 + 2 v2 + + n1 vn1 ) + T (n vn ) (Hiptesis Inductiva) = 1 T (v1 ) + 2 T (v2 ) + + n1 T (vn1 ) + n T (vn ) o

Teorema 5.3. Sean U, V y W espacios vectoriales y L : U V y T : V W dos transformaciones lineales. Entonces T L : U W es tambin una transformacin lineal. e o Demostracin. Sean u1 , u2 U y R cualesquiera. Entonces o (T L)(u1 + u2 ) = T (L(u1 + u2)) (denicin de composicin de funciones) o o = T (L(u1 ) + L(u2 )) (ya que L es lineal) = T (L(u1 )) + T (L(u2)) (ya que T es lineal) = (T L)(u1 ) + (T L)(u2 ) (denicin de composicin de funciones) o o Por lo tanto T L es lineal. Teorema 5.4. Sean V y W dos espacios vectoriales, T, L : V W dos transformaciones

lineales y R. Entonces T + L : V W es tambin una transformacin lineal. e o

197

V.Transformaciones Lineales.
Demostracin. Sean v1 , v2 V y R cualesquiera. Entonces o (T + )(v1 + 2 ) = T (v1 + 2 ) + L v v (L)(v1 + 2 ) (denicin de suma de funciones) v o

= T (v1 + 2 ) + 1 + 2 ) v L(v v (denicin de m ltiplo escalar de funciones) o u = T (v1 ) + (v2 ) + L(v1 ) + 2 )) (pues T y L son lineales) T ( L(v = T (v1 ) + (v2 ) + (v1 ) + 2 ) T L L(v = T (v1 ) + (v1 ) + (v2 ) + (v2 ) L T L = T (v1 ) + (v1 ) + T (v2 ) + (v2 )) L ( L = T (v1 ) + (L)(v1 ) + T (v2 ) + (L)(v2 )) ( (denicin de m ltiplo escalar de funciones) o u = (T + )(v1 ) + T + )(v2 ) (denicin de suma de funciones) L ( L o En consecuencia T + es lineal. L

Dado dos espacios vectoriales V y W, este ultimo teorema nos dice que el conjunto formado por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de funciones y multiplicacin por escalar, forman un espacio vectorial. o Teorema 5.5. Sean V y W dos espacios vectoriales y = {v1 , v2 , . . . , vn } una base de V. Supongamos que T y L son dos transformaciones lineales de V en W tales que T (vi ) = L(vi ) para cada i {1, . . . , n}. Entonces T = L, esto es, T (v) = L(v) para cada v V.
1, 2, . . . , n

R tales que Demostracin. Sea v V cualquiera. Existen ( nicos) escalares o u


n vn

v = 1 v1 + 2 v2 + +

as que
n vn )

(teorema 5.2 parte 3) T (v) = T (1 v1 + 2 v2 + + = 1 L(v1 ) + 2 L(v2 ) + + n L(vn ) (hiptesis) o = 1 T (v1 ) + 2 T (v2 ) + + n T (vn ) = L( 1 v1 + 2 v2 + + n vn ) (teorema 5.2 parte 3) = L(v)

198

V.Transformaciones Lineales.
Luego T = L.

dimensin nita, basta con conocer como act a T en una base cualquiera de V, para saber como o u act a T en cualquier v V. u Ejemplo 5.2. Hallar la transformacin lineal T de P2 [x] en R2 tal que o T (1) = (2, 1); Solucin. o T (a0 + a1 x + a2 x2 ) = T (a0 1 + a1 x + a2 x2 ) = a0 T (1) + a1 T (x) + a2 T (x2 ) = a0 (2, 1) + a1 (3, 4) + a2 (1, 5) = (2a0 + 3a1 a2 , a0 + 4a1 + 5a2 ) T (x) = (3, 4); T (x2 ) = (1, 5)

El teorema anterior nos dice que si T : V W es una transformacin lineal y V tiene o

Teorema 5.6 (Existencia y Unicidad de una Transformacin Lineal). Sean V y W dos espacios o unica transformacin lineal T : V W tal que T (vi ) = wi para cada i {1, . . . , n}. o vectoriales, = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn W. Entonces existe una Demostracin. Dado v V cualquiera, existen unicos escalares, 1 , 2 , . . . , n R, tales que o
n

v = 1 v1 + 2 v2 + + n vn = Denamos

i vi
i=1 n

T (v) = 1 w1 + 2 w2 + + n wn =

i wi
i=1

La unicidad de los escalares 1 , 2 , . . . , n R, garantiza que T es una funcin, adems, dado o a que w1 , w2 , . . . , wn W y W es un espacio vectorial, se tiene que T (v) W, por lo tanto T es una funcin de V en W. o
n

Por otro lado, para cada j {1, . . . , n}, se tiene que vj = j = 1, as que T (vj ) =
i=1 n

i vi , donde i = 0 si i = j y
i=1

i w i = j w j = w j

199

V. Transformaciones Lineales.
Probemos ahora que T es lineal. Sean u, v V y R cualesquiera, entonces existen unicos
n

escalares 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que

u = 1 v1 + 2 v2 + + n vn = v = 1 v1 + 2 v2 + + n vn = As que

i vi
i=1 n

i vi
i=1 n

T (u) = 1 w1 + 2 w2 + + n wn = T (v) = 1 w1 + 2 w2 + + n wn = Adems a u + v =


i=1 n n n

i wi
i=1 n

i wi
i=1

i vi +
i=1

i vi =
i=1

(i + i )vi

Por lo tanto
n n n

T (u + v) =
i=1

(i + i )wi =
i=1

i wi +
i=1

i wi = T (u) + T (v)

En consecuencia T es lineal. Finalmente, probemos que T es unica. Supongamos que existe otra transformacin lineal L : o V W tal que L(vi ) = wi para cada i {1, . . . , n}. Luego, por el teorema 5.5, se tiene que L = T .

Ejemplo 5.3. Hallar una transformacin lineal T : R3 M22 (R) (si existe) tal que o T (2, 2, 1) = T (2, 1, 2) = 2 0 1 2 2 1 3 5 ; T (0, 1, 3) = T (1, 1, 0) = 0 1 4 3 ;

4 2 1

Solucin. Veamos cuales de los vectores (2, 2, 1), (0, 1, 3), (2, 1, 2), (1, 1, 0) son linealo mente independientes, para ello, consideremos la matriz 2 0 2 1 1 1 1 2 1 3 2 0

200

V. Transformaciones Lineales.
y hallemos su FERF. 2 0 2 1 1 1 3 2 0 1 3 2 0

1 1 F1 F3 2 1 1 1 F1 F1 2 1 1 1 1 3 2 0 2 0 2 1 2 0 2 1 1 3 2 0 1 3 2 0 F2 F2 2F1 0 5 5 1 F2 F2 + F3 0 1 1 0 F3 F3 + 2F1 0 6 6 1 0 6 6 1 1 0 1 0 F1 F1 3F2 0 1 1 0 F3 F3 6F2 0 0 0 1 Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores 2 (2, 2, 1), (0, 1, 3), (1, 1, 0)

son linealmente independientes, y en consecuencia, forman una base para R3 y por el teorema 4.6, concluimos que existe una unica transformacin lineal tal que o T (2, 2, 1) = 2 0 ; T (0, 1, 3) = 4 2 1 0 1 4 ;

1 2

T (1, 1, 0) =

Hallemos T . Sea (x, y, z) R3 cualquiera. Hagamos = {(2, 2, 1), (0, 1, 3), (1, 1, 0)} debemos hallar [(x, y, z)] , para ello hallemos la matriz Mc , . 2 0 1 1 0 0 1 3 2 0 0 0 1

1 1 0 1 0 F1 1 3 0 0 0 1 1 3 0 0 F1 F1 2 1 1 0 2 0 1 1 2

F3

1 1 0 1 0 2 0 1 1 0 0 0 1 1 3 0 0 0 1 F2 F2 2F1 0 5 1 0 1 1 0 2 F3 F3 + 2F1 0 0 0 6 1 1 0 2

201

V. Transformaciones Lineales.
1 3 0 0 0 1 1 0 0 3 3 1

En consecuencia

F1 F1 3F2 F2 F2 + F3 0 1 0 1 1 0 0 1 0 1 1 0 F3 F3 6F2 0 6 1 1 0 2 0 0 1 5 6 2 Por lo tanto 3 3 1 Mc , = 1 1 0 5 6 2 [(x, y, z)] = Mc , [(x, y, z)]c = 3 3 1 1 1 0 y = x+y 5 6 2 z 5x 6y 2z x 3x 3y z

Es decir

(x, y, z) = (3x 3y z)(2, 2, 1) + (x + y)(0, 1, 3) + (5x 6y 2z)(1, 1, 0) De donde T (x, y, z) = (3x 3y z)T (2, 2, 1) + (x + y)T (0, 1, 3) +(5x 6y 2z)T (1, 1, 0) = (3x 3y z) 2 0 1 2 1 + (x + y) 0 1 4 3

+(5x 6y 2z) = Por ultimo T (2, 1, 2) =

4 2

26x 30y 10z 9x + 11y + 4z 4x 5y 3z 9x + 9y + 2z

26(2) 30(1) 10(2) 9(2) + 11(1) + 4(2) 4(2) 5(1) 3(2) 9(2) + 9(1) + 2(2)

3 5

Por lo tanto, T es la transformacin lineal requerida (adems, es unica). o a

Ejemplo 5.4. Hallar una transformacin lineal (si existe) T : R4 M31 (R) tal que o 1 0 T (1, 2, 1, 1) = 2 ; T (2, 1, 3, 0) = 1 3 2

202

V.Transformaciones Lineales.
2 3

Solucin. Veamos si el conjunto S = {(1, 2, 1, 1); (2, 1, 3, 0); (0, 5, 1, 2); (1, 7, 0, 3)} es lio nealmente independiente, para ello consideremos la matriz 1 2 0 1 2 1 1 3 1 5 1 7 0 2 0 3

T (0, 5, 1, 2) = 5 ; 8

T (1, 7, 0, 3) =

7 11

y hallemos su FERF 1 2 0 1

2 1 1 3

5 7 5 5 5 1 1 1 0 0 F2 F3 F3 F3 F1 0 1 0 0 1 1 1 5 5 5 F4 F4 F1 1 0 2 3 0 2 2 2 0 2 2 2 1 0 2 3 F1 F1 2F2 1 1 0 1 F3 F3 5F2 0 0 0 0 F4 F4 + 2F2 0 0 0 0 Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos

F2 F2 + 2F1

proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R4 partiendo de estos dos vectores (el teorema de completacin de bases nos lo permite) cmo hacerlo?, o o escojamos estos vectores entre los cannicos, para saber cul de ellos escoger, consideremos la o a siguiente matriz 1 2 1 0 0 0

2 1 0 1 0 0 hallemos su FERF. 1 3 0 0 1 0 1 0 0 0 0 1

203

V. Transformaciones Lineales.
1 2 1 0 0 0 1 2 1 0 0 0

5 2 1 0 0 2 1 0 1 0 0 0 F3 F3 F1 1 1 0 1 0 1 3 0 0 1 0 F F F 0 4 4 1 1 0 0 0 0 1 0 2 1 0 0 1 1 2 1 0 0 0 1 0 3 0 F1 F1 2F2 1 1 0 1 0 0 0 1 1 0 F2 F3 F3 F3 5F2 0 5 2 1 0 0 7 1 F F + 2F 0 0 4 4 2 0 2 1 0 0 1 0 0 3 0 1 0 3 0 2 0 1 0 0 3 7 F1 F1 3F3 1 1 0 0 1 0 0 1 1 0 7 F3 1 F3 F2 F2 + F3 7 1 5 1 0 0 1 0 0 1 7 7 0 7 F4 F4 + 3F3 3 0 0 3 0 2 1 0 0 0 7 de R4 son (1, 0, 0, 0); (0, 1, 0, 0), es decir, = {(1, 2, 1, 1); (2, 1, 3, 0); (1, 0, 0, 0); (0, 1, 0, 0)} es una base de R4 , haciendo 0

F2 F2 + 2F1

2 0

1 0

5 0 2 1 1 0 7
2 7 5 7 1 7

Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base

0 0 1

garantizamos, seg n el teorema 4.6, que existe una unica transformacin lineal u o T : R4 M13 (R) que satisface las dos primeras igualdades en el enunciado del ejercicio y 0 T (1, 0, 0, 0) = T (0, 1, 0, 0) = 0 0 base , obtenemos (vericarlo!)

T (1, 0, 0, 0) = T (0, 1, 0, 0) = 0 0

Hallemos T . Al calcular la matriz de coordenadas de (x, y, z, w) R4 cualquiera, respecto a la w


1 z 1w 3 3 2 3z 1w 3 1 7 3z + 3w

(x, y, z, w)

x y

204

V. Transformaciones Lineales.
Por lo tanto T (x, y, z, w) = T 1 1 z w (2, 1, 3, 0) 3 3 2 1 1 7 + x z (1, 0, 0, 0) + y z + w (0, 1, 0, 0) 3 3 3 3 1 1 = wT (1, 2, 1, 1) + z w T (2, 1, 3, 0) 3 3 2 1 1 7 + x z T (1, 0, 0, 0) + y z + w T (0, 1, 0, 0) 3 3 3 3 1 0 0 1 1 1 1 = w 2 + z w 1 + z w 0 3 3 3 3 3 2 0 0 1 7 + y z+ w 0 3 3 0 w(1, 2, 1, 1) + w

Se puede vericar que T satisface las ultimas dos igualdades en el enunciado del ejercicio, as que T es la transformacin buscada, pero a diferencia de la transformacin hallada en el o o ejercicio anterior, esta no es unica, depende de la escogencia de los vectores que completan la base del espacio de partida y la escogencia de las imgenes de estos. a

T (x, y, z, w) = 1 z + 7 w 3 3 2 11 z 3w 3

5.2.

Matriz de una Transformacin Lineal o

de Mn1 (R) en Mm1 (R), adems, se coment que toda transformacin lineal, entre espacios a o o demostraremos un teorema que garantiza esta ultima armacin. o

En la seccin anterior, vimos que toda matriz A Mmn (R), dene una transformacin lineal o o

vectoriales de dimensin nita, est asociada con una matriz, a continuacin enunciaremos y o a o

205

V. Transformaciones Lineales.
Teorema 5.7. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada de V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformacin o lineal.

Entonces existe un unica matriz A Mmn (R) tal que para cada v V [T (v)]W = A[v] V
1j , 2j , . . . , mj

R tales que Demostracin. Para cada j {1, . . . , n}, existen escalares o mj wm T (vj ) = 1j w1 + 2j w2 + + 1j 2j . . mj 1

es decir

Dado v V cualquiera, hagamos

[T (vj )]W = [v]V =

es decir

2 . . n

v = 1 v1 + 2 v2 + + n vn De donde n vn ) T (v) = T (1 v1 + 2 v2 + +
n T (vn )

= 1 T (v1 ) + 2 T (v2 ) + +

= 1 (11 w1 + 21 w2 + + m1 wm ) + 2 (12 w1 + 22 w2 + + m2 wm ) + +
mn wm )

+ n (1n w1 + 2n w2 + +

[T (v)]W = Por lo tanto

= (11 1 + 12 2 + + 1n n )w1 + (21 1 + 22 2 + + 2n n )w2 + + 12 1n 1 11 1 + +( + 1 + n mn n )wm 12 2 m1 + 1n2 + + 11 m2

21 1 + 22 2 + + 2n n 21 22 2n 2 = A[v]V = . . . . . m1 1 + m2 2 + + mn n m1 m2 mn n

206

V. Transformaciones Lineales.
donde

11

12

A=

Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos ahora su unicidad. Supongamos que B Mmn (R) es tal que para cada v V [T (v)]W = B[v]V Luego, para cada j {1, . . . , n}, tenemos que [T (vj )]W = B[vj ]V Pero 0 . . 0 . . 0

21 22 2n = . . . . . . m1 m2 mn

1n

[T (v1 )]W [T (vn )]W

[vj ]V

0 = 1 j-sima la e

Luego

A(j) = [T (vj )]W = B[vj ]V = B (j) Por lo tanto B = A.

Denicin 5.2. La matriz A en el teorema anterior, se denomina representacin matricial o o de T respecto a las bases V y W , y la denotaremos por [T ]V ,W . Observacin 5.1. Cuando W = V y W = V = , escribiremos [T ] en lugar de [T ],. o Ejemplo 5.5. 1. Si Ves un espacio vectorial de dimensin n, W es un espacio vectorial de dimensin m, o o
V

y W son bases ordenadas de V y W respectivamente, entonces [O] V , W = /0 , donde O mn es la transformacin nula de V en W. o

207

V. Transformaciones Lineales.
2. Si V es un espacio vectorial de dimensin n y es una base ordenada de V, entonces o [IV ] = In , donde IV es la transformacin identidad sobre V. o Ejemplo 5.6. Denamos T : M22 (R) R3 como sigue T x y z w = (2y z, x y + w, 3x y z + w)

no es dif probar que T es lineal (prubelo!). Consideremos las bases cannicas ordenadas V cil e o de M22 (R) y W de R3 . Hallar [T ]V ,W . Solucin. En primer lugar o T 1 0 0 0 0 0 1 0 = (0, 1, 3) ; T 0 1 0 0 T = (2, 1, 1) = (0, 1, 1)

= (1, 0, 1) ;

0 0 0 1

y as, por denicin de la matriz [T ]V ,W o 1 0 [T ]V ,W = T T 0 0


W

0 1 0 0
W

0 0 1 0
W

0 0 0 1
W

[(0, 1, 3)]W [(2, 1, 1)]W [(1, 0, 1)]W [(0, 1, 1)]W 0 2 1 0 = 1 1 0 1 3 1 1 1 =

Ejemplo 5.7. Consideremos la transformacin lineal T : M22 (R) P2 [x] dada por o T a b c d = (a + b c) + (a + 2b + c + d)x + (a 3b 3c 2d)x2

Sean V la base cannica ordenada de M22 (R), W la base cannica ordenada de P2 [x] y o o V = 1 2 1 0 ; 1 0 1 1 ; 2 3 ; 2 1 3 2

1 1

W = 1 + x; x + x2 ; 1 2x2 bases ordenadas de M22 (R) y P2 [x], respectivamente. Hallar [T ]V ,W y [T ]V ,W . b b

208

V. Transformaciones Lineales.
Solucin. En primer lugar, hallaremos las imgenes, a travs de T , de cada uno de los vectores o a e de la base cannica V . o 1 0 0 0 0 0 1 0 = 1 + x x2 ; = 1 + x 3x2 ; 0 1 0 0 T = 1 + 2x 3x2 = x 2x2

0 0 0 1

Al igual que en ejemplo 4.6, por denicin de la matriz [T ]V ,W o 1 0 0 1 0 0 [T ]V ,W = T T T 0 0 0 0 1 0


W W

T
W W

0 0 0 1
W W

Anlogamente, para hallar [T ]V ,W , hallemos primero las imgenes, a travs de T , de cada uno a a e b b de los vectores de la base V . 1 2 1 0 2 3 1 1 = 4 + 4x 4x2 ; = 4 + 8x 12x2 ; 1 0 1 1 2 1 3 2 = 2 + x 4x2 = 4 + 5x 14x2

1 + 2x 3x2 1 1 1 0 = 1 2 1 1 1 3 3 2 =
W

1 + x x2

1 + x 3x2

x 2x2

Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base W . Para ello consideremos la siguiente matriz cuatro veces ampliada (por qu?). e 1 0 1 4 2 4 4

las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base W , respecto a la base cannica W , el resto de las columnas, son las coordenadas de los vectores, o hallados previamente, respecto a la base cannica W , esto es, las tres primeras columnas de esta o matriz representan la matriz MW ,W y las ultimas 4 columnas reperesentan la matriz [T ]V ,W . b b La FERF de esta matriz es

1 1 0 4 1 8 5 0 1 2 4 4 12 14

209

V. Transformaciones Lineales.

Por lo tanto

0 1 0 4 0 0 1 4

1 0 0 0 9 12 27 10 7 20 16

32 23

[T ]V ,W = 4 b b 4

0 9 12 27 10 7 20 16

32 23

El ejemplo 5.7 nos permite escribir el siguiente algoritmo. V = {v1 , v2 , . . . , vn } es una base ordenada de V; W es una base ordenada del espacio vectorial o W = Mpq (R) con pq = m. Paso 1. Hallar T (v1 ), T (v2 ), . . . , T (vn ).
c c Paso 2. Hallar las matrices MW ,W y [T ]V ,W .

Algoritmo para hallar la matriz [T ]V ,W , donde T : V W es una transformacin lineal; o

c W de dimensin m; y W es la base cannica ordenada de W. En general W = Rm , W = Pm1 [x] o o

c c Paso 3. Formar la la matriz ampliada MW ,W |[T ]V ,W .

Paso 4. Hallar la FERF de la matriz en el paso previo. Paso 5. La matriz hallada en el paso previo tiene la forma [Im |B]. Entonces [T ]V ,W = B. Teorema 5.8. Sean U, V y W espacios vectoriales, L : U V y T : V W dos trans-

formaciones lineales y U , V y W bases ordenadas de U, V y W respectivamente. Entonces [T L]U ,W = [T ]V ,W [L]U ,V Demostracin. Sea u U cualquiera. Entonces o ([T ]V ,W [L]U ,V )[u]U = [T ]V ,W ([L]U ,V [u]U ) = [T ]V ,W [L(u)]V ([T ]V ,W [L]U ,V )[u]U = [T (L(u))]W = [(T L)(u)]W .

210

V. Transformaciones Lineales.
Luego, por unicidad de la matriz [T L]U ,W , se tiene que [T L]U ,W = [T ]V ,W [L]U ,V

Teorema 5.9. Sean V y W dos espacios vectoriales de dimensin nita; V y V bases ordenadas o de V; W y W bases ordenadas de W y T : V W una transformacin lineal. Entonces o [T ]V ,W = MW ,W [T ]V ,W MV ,V b b b b Demostracin. Sea v V cualquiera. Entonces o [T (v)]W = [T ]V ,W [v]V [v]V = MV ,V [v]V b b Luego [T (v)]W = MW ,W [T (v)]W = MW ,W [T ]V ,W [v]V = MW ,W [T ]V ,W MV ,V [v]V b b b b b b Por unicidad de la matriz [T ]V ,W , se tiene que b b [T ]V ,W = MW ,W [T ]V ,W MV ,V b b b b

Ejemplo 5.8. Consideremos T , V , W , V y W como en el ejemplo 5.7. Vericar el teorema

5.9.
Solucin. Sabemos que o

[T ]V ,W = 4 b b 4 [T ]V ,W Por otro lado, fcilmente obtenemos que a

32 7 16 23 1 1 1 0 = 1 2 1 1 1 3 3 2 10 20 1 1 2 2 2 3 1

0 9 12 27

MV ,V = b

0 1

1 0

1 1

1 3

211

V. Transformaciones Lineales.
y haciendo algunos clculos (no muchos ni muy complicados) obtenemos a 2 1 1 MW ,W , = 2 2 1 b 1 1 1 Al sustituir, se obtiene que [T ]V ,W = MW ,W [T ]V ,W MV ,V b b b b

Corolario 5.10. Sea V un espacio vectorial de dimensin nita; V y V dos bases ordenadas o de V y T : V V una transformacin lineal. Entonces o [T ]V = MV ,V [T ]V MV ,V b b b Demostracin. Ejercicio! o

5.3.

N cleo e Imagen de una Transformacin Lineal u o

Denicin 5.3. Sean V y W dos espacios vectoriales y T : V W una transformacin lineal. o o Deniremos

1. El ncleo o kernel de T como el conjunto u


/ N(T ) = Ker(T ) = {v V : T (v) = 0W }

2. La imagen o recorrido de T como el conjunto Im(T ) = {w W : T (v) = w para algn v V} u

Observacin 5.2. w Im(T ) si y slo si existe v V tal que T (v) = w. o o Teorema 5.11. Sean V y W dos espacios vectoriales y T : V W una transformacin lineal. o Entonces N(T ) es un subespacio vectorial de V e Im(T ) es un subespacio vectorial de W.

212

V. Transformaciones Lineales.
Demostracin. Es claro que N(T ) V e Im(T ) W. o donde, N(T ) = e Im(T ) = .

/ / / / Por la parte 1 del teorema 4.2, se tiene que T (0V ) = 0W , as que 0V N(T ) y 0W Im(T ), de

Por otro lado, sean v1 , v2 N(T ) y R cualesquiera. Entonces


/ T (v1 ) = 0W = T (v2 )

As que
/ / / T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0W + 0W = 0W

Por lo tanto v1 + v2 N(T ), en consecuencia, N(T ) es un subespacio de V. T (v1 ) = w1 y T (v2 ) = w2 .

Finalmente, sean w1 , w2 Im(T ) y R cualesquiera. Entonces, existen v1 , v2 V tales que Consideremos v = v1 + v2 . As que v V y T (v) = T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2

De donde w1 + w2 Im(T ), luego Im(T ) es un subespacio de W. Denicin 5.4. Sean V y W dos espacios vectoriales y T : V W una transformacin lineal. o o Deniremos

1. La nulidad de T , denotada por n(T ), como n(T ) = dim(N(T )). 2. El rango de T , denotado por r(T ), como r(T ) = dim(Im(T )). Ejemplo 5.9.
/ 1. Consideremos la transformacin nula O : V W. Entonces N(O) = V e Im(O) = {0W } o

(prubelo!). e

2. Para la transformacin identidad sobre V, IV : V V, se puede probar que Im(IV ) = V o


/ y N(IV ) = {0V } (prubelo!). e

Ejemplo 5.10. Sea T la transformacin dada en el ejemplo 4.6. Hallar n(T ) y r(T ). o

213

V. Transformaciones Lineales.
Solucin. Por denicin o o N(T ) = x y M22 (R) : T x y = (0, 0, 0)

z w

z w

Pero T

z w

= (0, 0, 0) si y slo si o y 2y z = 0 (5.1)

Es decir

z w

N(T ) si y slo si se satisface el sistema (4.1). Resolvamos este sistema. o 1 1 0 1 1 1 0 1 F2 0 2 1 0 F3 F3 3F1 0 2 1 0 3 1 1 1 0 2 1 2 0 1 1 0 1 1 2 F1 F1 + F2 1 0 0 1 1 0 2 2 F3 F3 2F2 1 2 0 0 0 2 1 1 1 0 1 0 2 2 1 2 0 F1 F1 F3 0 1 1 0 2 0 1 0 0 0 1 1z 2 1z 2 = 0 = 0 ; w = 0 o bien x = y = w = 1 1 2 0
1 z 2 1 z 2

x y +w = 0 3x y z +w = 0

0 2 1 0 0 1 F1 1 1 3 1 1 1 1 1 1 F2 2 F2 0 1 0 2 1 0 F3 1 F3 0 1 2 0 0 De donde

Haciendo z = 2, con R, obtenemos x y z w Por lo tanto N(T ) = gen 1 1 2 0 = =

2 0

214

V. Transformaciones Lineales.
y la nulidad de T es n(T ) = dim(N(T )) = 1 Por otro lado Im(T ) = (a, b, c) R3 : T y x y = (a, b, c) para alg n u x y M22 (R)

z w

z w

Pero T

z w

= (a, b, c) si y slo si o 2y z = a (5.2)

sistema, obtenemos x

En consecuencia (a, b, c) Im(T ) si y slo si el sistema (4.2) tiene solucin. Al resolver este o o x = y = w =

x y +w = b 3x y z +w = c

1z 2 1z 2

= = w =
1 a 2

1b 2

+ 3b 2

1 c 2 1 a 2 1 c 2

1 z 2

o bien

1b + 1c 2 2
1 z+ 2 3 + 2b 1 a 2 1 c 2

1 a 2

y r(T ) = 3.

Por lo tanto, el sistema (4.2) tiene solucin para cada (a, b, c) R3 , en consecuencia Im(T ) = R3 o

Observaci 5.3. Ntese que la matriz de los sistemas (5.2) y (5.1) no es otra que la que la matco n o riz [T ]V,W, donde V y W son las bases cannicas de lo5 espacios M22(R) y R3 respectivamente . o

Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz de este sistema nos da toda la informacin, pero a diferencia del caso matricial, los pivotes de esta o matriz nos dan las coordenadas, respecto a la base cannica de R3, de los vectores que forman una o base para Im(T ). Para entender bien este comentario, consideremos el siguiente ejemplo. Ejemplo 5.11. Hallar el ncleo, la nulidad, la imagen y el rango de la transformacin lineal u o T dada en el ejemplo 4.7. Solucin. o a b c d N(T ) si y slo si o

215

V. Transformaciones Lineales.
La matriz de este sistema es

+b

a +2b +c +d = 0 a 3b 3c 2d = 0 [T ]V ,W = 1 1 1 1 2 0 1

= 0 (5.3)

donde V y W son las bases cannicas de M22 (R) y P2 [x] respectivamente. Su FERF es o 1 0 3 1 2 0

1 1 3 3 2

Por lo tanto a As que a b c d En consecuencia N(T ) = gen y una base para N(T ) es =

0 1 0 0 3c d = 0

1 0 a = 3c + d

b +2c +d = 0

o bien

b = 2c d 3 2 1 +d 1 1 0

3c + d 2c d c d

=c

3 2 1 3 2 1

1 1

1 1 0

luego n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, estn en las columa nas 1 y 2, as que las columnas 1 y 2 de la matriz original, son las matrices de coordenadas, respecto a W , de dos vectores que forman una base para Im(T ), por lo tanto r(T ) = dim(Im(T )) = 2, adems a Im(T ) = gen 1 + x x2 ; 1 + 2x 3x2

216

V. Transformaciones Lineales.
y una base para Im(T ) es 1 + x x2 ; 1 + 2x 3x2

La observacin 5.3 puede ser generalizada de la siguiente manera. o Teorema 5.12. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada de V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformacin lineal. o

Entonces 1. {u1 , u2 , . . . , uk } es una base para N(T ) si y slo si {[u1 ] V , [u2 ] , . . . , [uk ] } es una base o V V para N([T ] W ) V , 2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y slo si {[z1 ] W , [z2 ] , . . . , [zr ] } es una base o W W para Im([T ] W ) V ,

Demostracin. Ver Apndice D. o e Corolario 5.13. Sean V, W, V , W y T como en el teorema 5.12. Entonces 1. n(T ) = n ([T ] W ) V , 2. r(T ) = r ([T ] W ) V , 3. n(T ) + r(T ) = n = dim(V) Demostracin. Ejercicio! o

El siguiente ejemplo ilustra estos resultados. Sean V y W como en el ejemplo 5.7. Usar la matriz [T ]V , b W para hallar el b ncleo, la nulidad, la imagen y el rango de la transformacin lineal T . u o Ejemplo En primer lugar, recordemos que Solucin.4.12. Sean T , o V = 1 2 1 0 ; 1 0 1 1 ; 2 3 ; 2 1 3 2

1 1

217

V. Transformaciones Lineales.

W = 1 + x; x + x2 ; 1 2x2 Sabemos que 0 9 12 27 10 7 20 16

Sin mucha dicultad, obtenemos que la FERF de esta matriz es 1 0 5 1 3 2 4 0 1 3 3 0 0 0 0 Luego una base para N [T ]V ,W b b es 5 1 4 6 ; 3 0 0 2

[T ]V ,W = 4 b b 4

32 23

y usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coordenadas resdpecto a la base V de dos vectores que forman una base para N(T ), hallemos estos vectores. (5) 1 2 1 0 1 2 1 0 + (4) 1 0 1 1 +3 2 3 +0 2 1 3 2 = 5 1 4 7 1 0

1 1 2 3

(1)

+ (6)

1 0 1 1

+0

1 1

+2

2 1 3 2

1 2

Luego, una base para N(T ) es 5 1 4 7 y as N(T ) = gen y n(T ) = 2. 5 1 4 7 ; 1 0 1 2 ; 1 0

1 2

Calcular el conjunto imagen y su dimensise queda como ejercicio.

218

5.4. Aplicaciones de las transformaciones: reflexin, dilatacin,contraccin y rotacin.


Dilatacin o escalamiento 2D

El escalamiento 2D implica el cambio de tamao de un polgono, donde cada punto


p = ( x1 , x 2 ) es transformado por la multiplicacin de dos factores de escalamiento: s1 y s2 a

lo largo de los ejes X1 y X2 respectivamente, de esta forma, las coordenadas del nuevo punto
p ' = ( x1 ' , x 2 ' ) se obtienen como:

x1 ' = x1 s1 x2 ' = x2 s2 Sea s = ( s1 , s 2 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en coordenadas homogneas el escalamiento de un punto p en 2D se puede expresar como el producto matricial p' = p S ( s ) , es decir:
s1 1] 0 0 0 s2 0 0 0 1

[x1 '

x 2 ' 1] = [x1

x2

Ecuacin 5.1: Expresin matricial para el escalamiento 2D.

La Figura 5.1 muestra el efecto de escalamiento de una figura con s1 = 1.5 y s2 = 2.


X2 X2
5 4 3 2 1 5 4 3 2 1

X1
1 2 3 4 5 1 2 3 4 5

X1

Figura 5.1: Ejemplo de escalamiento 2D.

219

V. Transformaciones Lineales.

Dilatacin o escalamineto 3D

Extendiendo la idea anterior a 3D, el escalamiento implica el cambio de tamao de un poliedro, donde cada punto p = ( x1 , x 2 , x3 ) es transformado por la multiplicacin de tres factores de escalamiento: s1, s2 y s3 a lo largo de los ejes X1, X2 y X3 respectivamente, de esta forma, las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) se obtienen como: x1 ' = x1 s1 x2 ' = x2 s2 x3 ' = x3 s 3 Sea s = ( s1 , s 2 , s3 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en coordenadas homogneas el escalamiento de un punto p en 3D se puede expresar como el producto matricial p' = p S ( s ) , es decir: s1 0 1] 0 0 0 s2 0 0 0 0 s3 0 0 0 0 1

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

Ecuacin 5.2: Expresin matricial para el escalamiento 3D.

La Figura 5.2 muestra el efecto de escalamiento de una figura con s1 = 2, s2 = 2.5 y s3 = 1.5.

220

V. Transformaciones Lineales.

X2
5 4 3 2 1 5 4 3 2 1

X2

1 2 3 4 5

X1
1 2 3 4 5

X1

X3

X3

Figura 5.2: Ejemplo de escalamiento 3D.

Escalamiento o dilatacin 4D

Extendiendo nuevamente la idea anterior a 4D, el escalamiento implica el cambio de tamao de un politopo 4D, donde cada punto p = ( x1 , x 2 , x3 , x 4 ) es transformado por la multiplicacin de cuatro factores de escalamiento: s1, s2, s3 y s4 a lo largo de ejes que forman el espacio 4D, de esta forma, las coordenadas del nuevo punto

p ' = ( x1 ' , x 2 ' , x3 ' , x 4 ' ) se obtienen como: x1 ' = x1 s1 x2 ' = x2 s2 x3 ' = x3 s 3 x4 ' = x4 s4 Sea s = ( s1 , s 2 , s3 , s 4 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en coordenadas homogneas el escalamiento de un punto p en 4D se puede expresar como el producto matricial p' = p S ( s ) , es decir:
221

V. Transformaciones Lineales.

[x1 '

x 2 ' x3 ' x 4 ' 1] = [x1

x2

x3

x4

s1 0 1] 0 0 0

0 s2 0 0 0

0 0 s3 0 0

0 0 0 s4 0

0 0 0 0 1

Ecuacin 5.3: Expresin matricial para el escalamiento 4D.

Escalamiento o dilatacin nD

De esta forma, el escalamiento nD implica el cambio de tamao de un politopo nD en todas sus dimensiones, como se observ anteriormente, se puede representar el escalamiento nD en su forma matricial, donde los factores de escalamiento se localizan en la diagonal principal, cada uno colocado en la columna que le corresponde a su respectivo eje. As, se obtiene la expresin matricial de escalamiento para cualquier dimensin: s1 0 0 1] M 0 0 0 s2 0 M 0 0 0 0 s3 M 0 0
K 0 K 0 K 0 O M K sn K 0

[x1 '

x 2 ' x3 ' K x n ' 1] = [x1

x2

x3 K x n

0 0 0 M 0 1

Ecuacin 5.4: Expresin matricial para el escalamiento nD.

En general, la matriz de escalamiento S(s) para nD en coordenadas homogneas tendr un tamao de (n+1) (n+1), en la cual, si se sustituyen los valores para n=2 y n=3, se obtienen las matrices de escalamiento 2D y 3D respectivamente.

Translacin
La translacin permite desplazar un objeto a lo largo de sus dimensiones, como resultado se obtiene un cambio de posicin.

222

V. Transformaciones Lineales Lineales. Translacin 2D

La translacin 2D implica el desplazamiento de un polgono, donde cada punto


p = ( x1 , x 2 ) es trasladado d1 unidades en el eje X1 y d2 unidades en el eje X2, de esta forma,

las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' ) , se obtienen como: x1 ' = x1 + d1 x2 ' = x2 + d 2 Sea d = (d 1 , d 2 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas homogneas la translacin de un punto p en 2D se puede expresar como el producto matricial p' = p T (d ) , es decir:
1 1] 0 d1 0 1 d2 0 0 1

[x1 '

x 2 ' 1] = [x1

x2

Ecuacin 5.5: Expresin matricial para la translacin 2D.

La Figura 3.3 muestra el efecto de translacin de una figura con d1 = 1 y d2 = 2.


X2
5 4 3 2 1 5 4 3 2 1

X2

X1

X1

Figura 5.3: Ejemplo de translacin 2D.

Translacin 3D

Basndose en la idea anterior, se tiene que la translacin 3D implica el desplazamiento de un poliedro, donde cada punto p = ( x1 , x 2 , x3 ) es trasladado d1 unidades
223

V. Transformaciones Lineales.

en el eje X1 , d2 unidades en el eje X2 y d3 unidades en el eje X3, de esta forma, las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) se obtienen como: x1 ' = x1 + d1 x2 ' = x2 + d 2 x3 ' = x 3 + d 3 Sea d = (d1 , d 2 , d 3 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas homogneas la translacin de un punto p en 3D se puede expresar como el producto matricial p' = p T (d ) , es decir:
1 0 1] 0 d1 0 1 0 d2 0 0 1 d3 0 0 0 1

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

Ecuacin 5.6: Expresin matricial para la translacin 3D.

La Figura 5.4 muestra el efecto de translacin de una figura con d1 = 2, d2 = 0 y d3 = 2.


X2
5 4 3 2 1 5 4 3 2 1

X2

1 2 3 4 5

X1
1 2 3 4 5

X1

X3

X3

Figura 5.4: Ejemplo de translacin 3D.

224

V. Transformaciones Lineales. Translacin 4D

Nuevamente tomando como base esta idea, se tiene que la translacin 4D implica el desplazamiento de un politopo 4D, donde cada punto p = ( x1 , x 2 , x3 , x 4 ) es trasladado por la suma de cuatro distancias: d1, d2, d3, d4 a cada uno de los ejes que forman el espacio 4D, de esta forma, las coordenadas del nuevo punto p ' = ( x1 ' , x 2 ' , x3 ' , x 4 ' ) se obtiene como: x1 ' = x1 + d1 x2 ' = x2 + d 2 x3 ' = x 3 + d 3 x4 ' = x4 + d 4 Sea d = (d1 , d 2 , d 3 ,d 4 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas homogneas la translacin de un punto p en 4D se puede expresar como el producto matricial p' = p T (d ) , es decir:
1 0 1] 0 0 d1 0 1 0 0 d2 0 0 1 0 d3 0 0 0 1 d4 0 0 0 0 1

[x1 '

x 2 ' x3 ' x 4 ' 1] = [x1

x2

x3

x4

Ecuacin 5.7: Expresin matricial para la translacin 4D.

Translacin nD

De esta forma, la translacin nD implica el desplazamiento de un politopo nD sumando parmetros de distancias a todas sus dimensiones, como se observ anteriormente, se puede representar la translacin nD en su forma matricial, donde los parmetros de distancia se localizan en el ltimo rengln de la matriz, cada uno colocado en la columna que le corresponde a su respectivo eje, y colocando valores de 1 en la diagonal principal. As, se obtiene la expresin matricial de translacin para cualquier dimensin:

225

V. Transformaciones Lineales.
1 0 0 1] M 0 d1 0 1 0 M 0 d2 0 0 1 M 0 K K K O K 0 0 0 M 1 0 0 0 M 0 1

[x1 '

x 2 ' x3 ' K x n ' 1] = [x1

x2

x3 K x n

d3 K d n

Ecuacin 5.8: Expresin matricial para la translacin nD.

En general, la matriz de translacin T(d) para nD en coordenadas homogneas tendr un tamao de (n+1) (n+1), en la cual, si se substituyen los valores para n=2 y n=3, se obtienen las matrices de translacin 2D y 3D respectivamente.

Rotacin
La rotacin permite girar un objeto sobre un eje de rotacin, dado un valor de ngulo de rotacin y su direccin.

Rotaciones 2D

La rotacin de un objeto en 2D se lleva a cabo alrededor de un punto, que es el eje puntual (cero-dimensional) de rotacin. Las rotaciones principales 2D son aquellas que se llevan a cabo alrededor del origen, las rotaciones sobre cualquier otro punto arbitrario se llaman rotaciones generales 2D. En esta Seccin 5.5 , se analizan slo las rotaciones principales para todas las dimensiones, en la Seccin 5.6 se discuten las rotaciones generales. Para generar una rotacin, se especifica el ngulo de rotacin , y el punto de rotacin (pivote) sobre el cul el objeto ser rotado. Los ngulos de rotacin positivos definen una rotacin en sentido contrario a las manecillas del reloj sobre el punto pivote (del eje X1 al eje X2), entonces los ngulos de rotacin negativos producen una rotacin en el sentido de

226

V. Transformaciones Lineales.

las manecillas (del eje X2 al eje X1). [Hearn 95] describe la rotacin 2D como el giro sobre el eje de rotacin que es perpendicular al plano X1X2 (mejor conocido como plano XY) y que pasa a travs del punto pivote. Si el punto pivote se encuentra sobre el origen (Figura 5.5), se tiene que: r es la distancia del punto p = ( x1 , x 2 ) al origen, define la posicin angular del punto p desde la horizontal, y el ngulo de rotacin de p para producir el nuevo punto p ' = ( x1 ' , x 2 ' ) .
X2

p=(x1,x2)

r
p=(x1,x2)

r
X1

Figura 5.5: Rotacin de un punto en 2D alrededor del origen.

Utilizando coordenadas polares, el punto p = ( x1 , x 2 ) se puede escribir como p = (r , ) y el punto p ' = ( x1 ' , x 2 ' ) como p ' = (r , + ) . Pasando despus estos puntos de coordenadas polares a rectangulares se tiene que:
x1 = r cos( ) x1 ' = r cos( + ) x 2 = r sin( ) x 2 ' = r sin( + )

Aplicando algunas propiedades trigonomtricas:


x1 ' = r cos( + ) = r cos cos r sin sin x 2 ' = r sin( + ) = r cos sin + r sin cos

Substituyendo los valores de x1 = r cos( ) y x 2 = r sin( ) se obtienen las ecuaciones para rotar un punto p = ( x1 , x 2 ) alrededor del origen dado un ngulo :

227

V. Transformaciones Lineales.

x1 ' = x1 cos x 2 sin

x2 ' = x1 sin + x2 cos


Ecuacin 5.9: Frmulas para la rotacin 2D alrededor del origen.

Sea R() la matriz de rotacin sobre el origen, en coordenadas homogneas la rotacin de un punto p alrededor del origen en 2D se puede expresar como el producto matricial p = pR , es decir:
cos 1] sin 0 sin cos 0 0 0 1

[x1 '

x 2 ' 1] = [x1

x2

Ecuacin 5.10: Expresin matricial para la rotacin 2D.

La Figura 5.6 muestra el efecto de rotacin de una figura con = 45.


X2
2 1 2 1

X2

X1
-1 -2 -1 -2 1 2 -1 -2 -1 -2 1 2

X1

Figura 5.6: Ejemplo de rotacin 2D.

Rotaciones 3D

A diferencia de la rotacin en el espacio 2D, donde para hacer rotar un objeto se necesita un punto (cero-dimensional), en 3D para hacer rotar un objeto se necesitan dos puntos no coincidentes que determinan un segmento de recta, cuya lnea de soporte define un eje lineal (uni-dimensional) de rotacin.
228

V. Transformaciones Lineales.

Las rotaciones principales 3D, son aquellas cuando el eje de rotacin se encuentra sobre alguno de los tres ejes principales: X1, X2 o X3, las rotaciones sobre cualquier otro eje arbitrario son llamadas rotaciones generales 3D. Se recuerda que inicialmente, se analizan las rotaciones principales. Por convencin, los ngulos de rotacin positivos producen rotaciones en contra de las manecillas del reloj sobre el eje de rotacin, esto es si se observa el giro desde la parte positiva del eje hacia el origen. Otra forma de determinar la direccin de un giro positivo es mediante la regla de la mano derecha (Figura 5.7), que dice que: Si se coloca el dedo pulgar de la mano derecha sobre el eje de rotacin apuntando hacia la parte positiva de dicho eje, el giro natural del resto de los dedos indica la direccin positiva del giro.
X2 X2 X2

X1 X3 X3

X1 X3

X1

Figura 5.7: Regla de la mano derecha para obtener la direccin de un giro positivo en 3D.

Para entender el concepto de rotacin en 3D como una extensin de la rotacin 2D, hay que recordar que la rotacin 2D es el giro sobre el eje de rotacin, que es perpendicular al plano X1X2, el cual en 3D corresponde al eje X3, entonces se tiene la primera de las rotaciones principales . De esta forma, por cada punto p = ( x1 , x 2 , x3 ) dado un ngulo , puede ser rotado sobre el eje X3 en sentido contrario a las manecillas del reloj, obteniendo las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) de la misma forma en como se analiz en el espacio 2D

229

V. Transformaciones Lineales.

quedando la coordenada x3 sin cambio, entonces, se extienden las formulas para la rotacin 2D (Ecuacin 3.9) a 3D como:
x1 ' = x1 cos x 2 sin x 2 ' = x1 sin + x 2 cos
x3 ' = x3
Ecuacin 5.11: Frmulas para la rotacin 3D alrededor del eje X3.

Sea R3() la matriz de rotacin alrededor del eje X3, en coordenadas homogneas la rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial ( ) ' p = p R3 , es decir: cos sin 1] 0 0 sin cos 0 0 0 0 1 0 0 0 0 1

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

Ecuacin 5.12: Expresin matricial para la rotacin 3D alrededor del eje X3.

La Figura 5.8 muestra el efecto de rotacin sobre el eje X3 de una figura con = 20.
X2
5 4 3 2 1 5 4 3 2 1

X2

1 2 3 4 5

X1
1 2 3 4 5

X1

X3

X3

Figura 5.8: Ejemplo de rotacin 3D sobre el eje X3.

230

V. Transformaciones Lineales.

Las ecuaciones para las rotaciones sobre el eje X1, y eje X2, pueden ser obtenidas mediante las permutaciones cclicas de los parmetros x1, x2, x3:
x1 x2 x3 x1

como se muestra en la Figura 3.9


X2 X3 X1

X1 X3 X1

X2 X2

X3

Figura 5.9: Permutaciones cclicas de los ejes coordenados

Entonces, aplicando estas substituciones cclicas en la Ecuacin 5.11, se obtienen las ecuaciones para la rotacin alrededor del eje X1 dado un ngulo .
x 2 ' = x 2 cos x 3 sin x 3 ' = x 2 sin + x 3 cos x1 ' = x1
x1 ' = x1

x 2 ' = x 2 cos x 3 sin x 3 ' = x 2 sin + x 3 cos

Ecuacin 5.13: Frmulas para la rotacin 3D alrededor del eje X1.

Sea R1() la matriz de rotacin alrededor del eje X1, en coordenadas homogneas la rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial
p = p R1 , es decir:

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

0 1 0 cos 1] 0 sin 0 0

0 sin cos 0

0 0 0 1

Ecuacin 5.14: Expresin matricial para la rotacin 3D alrededor del eje X1.

231

V. Transformaciones Lineales.

Aplicando nuevamente las substituciones cclicas en la Ecuacin 3.13, se obtienen las frmulas para la rotacin alrededor del eje X2 dado un ngulo .
x 3 ' = x 3 cos x1 sin x1 ' = x 3 sin + x1 cos
x2 ' = x2

x1 ' = x1 cos + x 3 sin


x2 ' = x2

x 3 ' = x1 sin + x 3 cos

Ecuacin 5.15: Frmulas para la rotacin 3D alrededor del eje X2.

Sea R2() la matriz de rotacin alrededor del eje X2, en coordenadas homogneas la rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial
p = p R2 , es decir:

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

cos 0 1] sin 0

0 sin 1 0 0 cos 0 0

0 0 0 1

Ecuacin 3.16: Expresin matricial para la rotacin 3D alrededor del eje X2.

232

También podría gustarte