Está en la página 1de 124

Felipe Zaldvar

Introduccion al algebra lineal

29 de octubre de 2015
c 2000, 2001, 2015, Felipe Zaldvar.
fzaldivar.wordpress.com
Indice general

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VII

1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6. Bases y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.1. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2. Nucleo e imagen de una transformacion lineal . . . . . . . . . . . . . . . . . . 53
2.3. Transformacion lineal asociada a una matriz . . . . . . . . . . . . . . . . . . . . 61
2.4. Matriz asociada a una transformacion lineal . . . . . . . . . . . . . . . . . . . . 75
2.5. Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

3. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89


3.1. Solucion de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . 89
3.2. Operaciones elementales y el rango de una matriz . . . . . . . . . . . . . . . 92
3.3. El metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

4. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.1. Expansion por menores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.2. Permutaciones y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.3. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

5. Diagonalizacion de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139


5.1. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.2. Subespacios invariantes y subespacios cclicos . . . . . . . . . . . . . . . . . . 151
5.3. Polinomios de matrices y de operadores . . . . . . . . . . . . . . . . . . . . . . . . 154
5.4. Sumas directas y diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

V
VI Indice general

5.5. El teorema fundamental del algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

6. Formas canonicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179


6.1. Triangulacion de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
6.2. La forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
6.3. La exponencial de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
6.4. Ecuaciones diferenciales ordinarias lineales . . . . . . . . . . . . . . . . . . . . . 209

7. Espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213


7.1. Productos internos y hermitianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
7.2. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
7.3. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224

8. Los teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233


8.1. La adjunta de una transformacion lineal . . . . . . . . . . . . . . . . . . . . . . . . 233
8.2. Operadores autoadjuntos y normales . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
8.3. Los teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
8.4. Operadores ortogonales y unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
8.5. La descomposicion de Schur y la exponencial de una matriz . . . . . . . 252

9. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255


9.1. Funciones y formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
9.2. Formas cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
9.3. Formas cuadraticas sobre R. El teorema de Sylvester . . . . . . . . . . . . . 263
9.4. Aplicaciones a la geometra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266

10. Funciones multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277


10.1. Funciones bilineales y el producto tensorial . . . . . . . . . . . . . . . . . . . . . 277
10.2. Funciones multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
10.3. Espacios cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
10.4. Funciones multilineales simetricas y tensores simetricos . . . . . . . . . . 288
10.5. Funciones multilineales alternantes y tensores alternantes . . . . . . . . . 292
10.6. Bases para potencias exteriores y potencias simetricas . . . . . . . . . . . . 295
10.7. Dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
10.8. Notacion clasica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309

A. El campo de numeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319


A.1. El campo de numeros reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
A.2. El campo de numeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
A.3. Forma polar de un numero complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . 327

Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333

Indice alfabetico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335


Prefacio

Estas son las notas de los cursos de algebra lineal que he ensenado en la licen-
ciatura en matematicas en anos recientes. Los prerequisitos son mnimos: un curso
introductorio de algebra superior que incluya las estructuras numericas basicas es
mas que suficiente. La primera parte del libro es el estudio de la matematica alre-
dedor del problema de resolver sistemas de ecuaciones lineales. El libro comienza
motivado por esto y avanza introduciendo las ideas y metodos necesarios para en-
tender el algoritmo usual para resolver sistemas de ecuaciones, el metodo de elimi-
nacion gaussiana. Este es un curso para estudiantes de matematicas y, aunque es
elemental, todos los resultados y metodos se justifican. No es un curso de recetas,
por el contrario, es un estudio de algunas de las ideas necesarias para entender el
problema considerado. En cada momento se enfatizan los conceptos y su relacion
con el problema de resolver sistemas de ecuaciones. En el captulo 3, usando to-
das las herramientas introducidas previamente, se estudia el metodo de Gauss para
resolver sistemas de ecuaciones, justificando el conjunto de conceptos e ideas que
tuvieron que introducirse en los dos captulos anteriores. La segunda parte del li-
bro es un estudio elemental de los operadores lineales en un espacio vectorial de
dimension finita y abarca desde el captulo 4 donde se introduce la nocion de de-
terminante de una matriz, generalizando los casos 2 2 y 3 3 ya conocidos desde
otros cursos, para probar todas las propiedades de los determinantes que se usaran
en los captulos 5 y 6 donde se estudian formas especiales de algunos operadores
lineales: diagonalizables, triangulables o en forma canonica de Jordan, todas ellos
de importancia capital en la matematica. En la tercera parte del libro se introducen
estructuras especiales en los espacios vectoriales: productos internos y productos
hermitianos en el captulo 7, para despues estudiar aquellos operadores lineales que
tienen ciertas simetras con respecto a los productos internos o hermitianos consi-
derados, en particular se obtienen criterios para la diagonalizabilidad de algunos de
estos operadores culminando en el captulo 8 con la demostracion de los teoremas
espectrales correspondientes. En el captulo 9 se hace un estudio elemental de fun-
ciones y formas bilineales, en especial formas cuadraticas, para terminar con una
aplicacion a la geometra de conicas en R2 y cuadricas en R3 . El captulo 10 es una
introduccion al algebra multilineal.

VII
VIII Prefacio

Agradecimientos. Varios colegas usaron versiones preliminares de este libro en sus


cursos y agradezco a quienes tuvieron la amabilidad de opinar sobre ellas. En espe-
cial, agradezco a R. Quezada su lectura cuidadosa de algunas partes y a tres arbitros
anonimos por sus sugerencias y correcciones que han contribuido a mejorar la pre-
sentacion del libro.
Captulo 1
Espacios vectoriales

De las ecuaciones que hemos estudiado hasta ahora, las mas sencillas son ecua-
ciones en una variable, por ejemplo del estilo ax = b. En forma natural uno puede
considerar ecuaciones en mas de una variable y las mas simples de ellas son las ecua-
ciones polinomiales de primer grado, a las que llamaremos ecuaciones lineales. Por
ejemplo, en una variable son de la forma ax = b; en dos variables son ecuaciones de
la forma ax + by = c; en tres variables son ecuaciones de la forma ax + by + cz = d.
En general, si tenemos n variables x1 , . . . , xn , una ecuacion lineal en n variables es
una igualdad de la forma

() a1 x1 + + an xn = b

con los coeficientes a1 , . . . , an y el termino independiente b elementos del campo de


los numeros reales R. La pregunta importante, en este contexto, es que valores de
las variables son soluciones de ()?, es decir, que valores de las variables x j = a j 2
R son tales que al substituirlos en () la convierten en una igualdad en el campo R?
Veamos unos ejemplos:
Ejemplo 1.1. Para la ecuacion 2x + 3y = 5, si ponemos x = 1, y = 1, se tiene que
2(1) + 3(1) = 5 es una igualdad verdadera (digamos, en el campo R). Diremos
entonces que x = 1, y = 1 son una solucion de la ecuacion 2x + 3y = 5. Observe que
pueden existir mas soluciones, por ejemplo x = 10, y = 5 es una solucion ya que
2(10) + 3( 5) = 20 15 = 5. Note tambien que si intercambiamos los valores de x
y y, poniendo x = 5, y = 10, ya no se tiene una solucion ya que 2( 5) + 3(10) =
10 + 30 = 20 6= 5. El punto aqu es que una solucion de 2x + 3y = 5 es un par
ordenado (x0 , y0 ) de elementos del campo K (en nuestro ejemplo K = R) tal que
2x0 + 3y0 = 5. As, (10, 5) es solucion de 2x + 3y = 5, pero ( 5, 10) no lo es.
Resumiendo, las soluciones de 2x + 3y = 5 son pares ordenados (x0 , y0 ) 2 R R.

Ejemplo 1.2. En forma analoga, si consideramos una ecuacion de la forma () en


tres variables, digamos con coeficientes reales:

2x 3y + 5z = 10

1
2 1 Espacios vectoriales

y nos preguntamos por sus soluciones, observe que x = 3, y = 2, z = 2 es una solu-


cion de la ecuacion anterior, ya que

2(3) 3(2) + 5(2) = 10.

As, la terna ordenada (3, 2, 2) es una solucion de 2x 3y + 5z = 10, pero (2, 3, 2)


no lo es ya que
2(2) 3(3) + 5(2) = 5 6= 10.
Es decir, las soluciones de 2x 3y + 5z = 10 son ternas ordenadas de numeros reales
(x0 , y0 , z0 ).

Las observaciones hechas en los ejemplos anteriores se pueden resumir, en el


caso general, como sigue: para la ecuacion lineal

() a1 x1 + + an xn = b,

si los coeficientes a j y el termino independiente b son numeros reales y si queremos


soluciones reales, entonces el conjunto de soluciones S de () es un subconjunto de
R R (n factores).
Convenciones. Asumiremos que el lector esta familiarizado con las propiedades
aritmeticas de los numeros reales, cuyo conjunto estamos denotando por R, y que
se resumen en la seccion A.1 del apendice A. Recordemos que los numeros reales se
pueden sumar, restar, multiplicar y dividir (excepto por cero), sin embargo las races
cuadradas de numeros reales negativos no son reales y para solventar lo anterior se
introduce el conjunto de numeros complejos, denotado por C, cuyas propiedades
aritmeticas basicas se resumen en la seccion A.2 del apendice A. Los numeros com-
plejos se pueden sumar, restar, multiplicar, dividir (excepto por cero) y se pueden
extraer races, de cualquier ndice, de numeros complejos. Mas aun, se tiene una
inclusion natural R C. En varios contextos matematicos se tienen ecuaciones li-
neales como () con los coeficientes a j y b numeros complejos, y su estudio es
similar al caso cuando los coeficientes son reales. A lo largo de todo el libro denota-
remos por K a uno de los campos R o C y cuando sea necesario distinguir entre ellos
lo haremos explcitamente, notablemente del captulo 5 en adelante. La mayora de
los resultados y conceptos que encontraremos en los captulos iniciales permanecen
validos para cualquier campo, sin embargo en este nivel inicial conviene restringir-
nos al campo de numeros reales R y al campo de numeros complejos C, evitando
abstracciones innecesarias ahora. Resumiendo lo que hemos discutido, con la con-
vencion de que K denota a R o C, si los numeros a j , b pertenecen al campo K y si
queremos soluciones con valores en K, entonces el conjunto de soluciones S de ()
es un subconjunto de
K K (n factores).
La pregunta importante en este contexto es: como encontrar todas las soluciones
de una ecuacion lineal de la forma ()? y, para comenzar, como sabemos si una
ecuacion de la forma () tiene o no soluciones?
1.1 Sistemas de ecuaciones lineales 3

En los captulos siguientes desarrollaremos metodos para responder a las dos


preguntas anteriores y comenzamos, en la seccion siguiente, planteando el problema
anterior en un contexto un poco mas general.

1.1. Sistemas de ecuaciones lineales

Hemos considerado ecuaciones lineales de la forma

() a1 x1 + + an xn = b,

y vimos que sus soluciones son un subconjunto S del producto cartesiano K K


(n factores) al que denotaremos por K n . Ahora, ademas de considerar una sola ecua-
cion lineal a1 x1 + + an xn = b, podemos considerar dos o mas tales ecuaciones.
Por ejemplo, podemos considerar dos ecuaciones, con coeficientes en R, de la forma

2x + 3y = 5
4x 2y = 6

y preguntarnos por las soluciones (pares ordenados en R2 ) que sean solucion si-
multanea de la primera y de la segunda ecuacion. En el ejemplo anterior, (1, 1) es
solucion de la primera ecuacion ya que 2(1) + 3(1) = 5, pero no lo es de la segunda
ecuacion ya que 4(1) 2(1) = 2 6= 6. Similarmente, (3, 3) es solucion de la segunda
ecuacion pero no lo es de la primera. Observe ahora que el par ordenado (7/4, 1/2)
es solucion de ambas ecuaciones ya que

2(7/4) + 3(1/2) = 5
4(7/4) 2(1/2) = 6.

El ejemplo anterior muestra que algunas soluciones de una ecuacion no tienen


por que ser soluciones de la otra y que puede haber soluciones que lo sean de ambas
ecuaciones.
En este marco general, estudiaremos el problema de encontrar todas las solucio-
nes de un conjunto de m ecuaciones lineales en n variables de la forma (), requi-
riendo que las soluciones lo sean de todas las ecuaciones dadas. Diremos en este
caso que tenemos un sistema de m ecuaciones lineales en n incognitas y usaremos
la notacion siguiente para denotar a un tal sistema:

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xn = bm
4 1 Espacios vectoriales

donde los coeficientes ai j y los terminos independientes bi son elementos de un cam-


po K. Recordemos que las soluciones buscadas son n-adas ordenadas (x1 , . . . , xn ),
es decir, son elementos de K n .
Antes de comenzar a buscar soluciones de un sistema de ecuaciones como el
anterior, debemos preguntarnos si estas soluciones existen, ya que puede suceder
que el conjunto de soluciones de uno de estos sistemas sea el conjunto vaco. Por
ejemplo, mas adelante veremos que el sistema de ecuaciones

2x + 3y = 5
4x + 6y = 1

no tiene soluciones. Si la lectora o lector recuerda su curso de geometra, podra re-


conocer por que el sistema anterior no tiene soluciones, por ejemplo recordando que
el conjunto de soluciones en R2 de una ecuacion de la forma ax + by = c representa
una recta L en R2 :

6 L

y que las dos rectas del sistema anterior son paralelas distintas.
Conviene entonces, para comenzar, considerar sistemas de ecuaciones lineales de
los cuales sepamos que siempre tienen soluciones. Algunos de estos sistemas son
aquellos de la forma:

a11 x1 + a12 x2 + + a1n xn = 0


a21 x1 + a22 x2 + + a2n xn = 0
..
.
am1 x1 + am2 x2 + + amn xn = 0

donde todos los terminos independientes son bi = 0. Llamaremos homogeneos a es-


tos sistemas de ecuaciones y observamos que siempre tienen la solucion (0, . . . , 0) 2
K n . As, el conjunto Sh K n de soluciones de un sistema homogeneo es no
vaco ya que contiene al elemento 0 = (0, . . . , 0) 2 K n . Supongamos ahora que
u = (u1 , . . . , un ) y v = (v1 , . . . , vn ) son dos elementos de Sh , i.e., son soluciones del
sistema homogeneo. Entonces, substituyendo los u j en el sistema de ecuaciones se
obtienen las igualdades

(1) ai1 u1 + ai2 u2 + + ain un = 0 para 1 i m

y similarmente, substituyendo los v j se obtienen las igualdades


1.1 Sistemas de ecuaciones lineales 5

(2) ai1 v1 + ai2 v2 + + ain vn = 0 para 1 i m.

Observe ahora que si definimos la suma de las n-adas u y v componente a com-


ponente:

u + v := (u1 , . . . , un ) + (v1 , . . . , vn ) = (u1 + v1 , . . . , un + vn )

esta n-ada tambien es un elemento de K n ya que cada componente u j + v j 2 K


porque el campo K es cerrado bajo sumas. Se tiene ademas que u + v tambien es
solucion del sistema homogeneo dado ya que

ai1 (u1 + v1 ) + ai2 (u2 + v2 ) + + ain (un + vn ) = (ai1 u1 + + ain un )


+ (ai1 v1 + + ain vn )
= 0+0
=0

por (1) y (2). Hemos mostrado as que el conjunto Sh de soluciones de un sistema


de ecuaciones homogeneo es cerrado bajo sumas.
Tambien, si u = (u1 , u2 , . . . , un ) 2 Sh y l 2 K es cualquier elemento del campo
K, entonces definiendo

l u := (l u1 , l u2 , . . . , l un )

observamos que l u 2 K n ya que cada l ui 2 K porque el campo K es cerrado


bajo productos. Se tiene ademas que l u sigue siendo una solucion del sistema ho-
mogeneo ya que

ai1 (l u1 ) + ai2 (l u2 ) + + ain (l un ) = l (ai1 u1 + ai2 u2 + + ain un ) = l (0) = 0

factorizando a l y usando (1). Hemos mostrado as que el conjunto Sh de soluciones


de un sistema de ecuaciones homogeneo es cerrado bajo productos por elementos
del campo K. De ahora en adelante a los elementos de un campo K los llamaremos
escalares. Resumiendo, si Sh K n es el conjunto de soluciones de un sistema de
ecuaciones lineales homogeneas, hemos probado que Sh satisface:
(1). Sh contiene al elemento 0 2 K n .
(2). Sh es cerrado bajo sumas componente a componente.
(3). Sh es cerrado bajo producto por escalares.
Notese como en la demostracion de las propiedades anteriores se uso fuertemente
el hecho de que los terminos independientes de las ecuaciones lineales del sistema
sean 0, porque este numero satisface que 0 + 0 = 0 y l 0 = 0 en K. Si algun termino
independiente no fuera 0, el conjunto de soluciones no sera cerrado bajo ninguna
de las dos operaciones anteriores e incluso podra ser vaco como observamos en un
ejemplo previo en la pagina ??. Ademas, en el caso de un sistema homogeneo, el
conjunto Sh satisface las propiedades siguientes:
6 1 Espacios vectoriales

Proposicion 1.1. El conjunto Sh K n de soluciones de un sistema de ecuaciones


homogeneas, junto con las operaciones de suma y producto por un escalar, satisface
las propiedades siguientes:
(1) La suma es asociativa, es decir, si u, v, w 2 Sh , entonces

u + (v + w) = (u + v) + w.

(2) La suma es conmutativa, es decir, para todo u, v 2 Sh se tiene que

u + v = v + u.

(3) El elemento 0 2 Sh es neutro aditivo, es decir, para cualquier u 2 Sh se tiene que

u + 0 = u.

(4) Para cada elemento u 2 Sh existe un elemento u0 2 Sh tal que u + u0 = 0. Al


elemento u0 se le llama un inverso aditivo del elemento u.
El producto por un escalar del campo K y un elemento de Sh satisface:
(5) Para cualesquiera u, v 2 Sh y l 2 K se tiene que

l (u + v) = l u + l v.

(6) Para cualesquiera u 2 Sh y l , g 2 K se tiene que

(l + g)u = l u + gu.

(7) Para cualesquiera u 2 Sh y l , g 2 K se tiene que

(l g)u = l (g u).

(8) Para todo u 2 Sh y para el neutro multiplicativo 1 2 K se tiene que

1 u = u.

Demostracion. Probaremos algunas de las propiedades anteriores, dejando las otras


como parte del ejercicio 1.1. Para (2), si u = (u1 , . . . , un ) y v = (v1 , . . . , vn ) son dos
elementos arbitrarios de Sh , entonces

u + v = (u1 , . . . , un ) + (v1 , . . . , vn )
= (u1 + v1 , . . . , un + vn ) por definicion de suma en Sh
= (v1 + u1 , . . . , vn + un ) porque ui + vi = vi + ui en K
= v+u por definicion de suma en Sh .

Para (3), si u = (u1 , . . . , un ) 2 Sh , entonces


1.1 Sistemas de ecuaciones lineales 7

u + 0 = (u1 , . . . , un ) + (0, . . . , 0)
= (u1 + 0, . . . , un + 0) por definicion de suma en Sh
= (u1 , . . . , un ) porque ui + 0 = ui en K
= u.

Para (4), si u = (u1 , . . . , un ) 2 Sh , entonces el elemento

u0 := ( u1 , . . . , un )

pertenece a Sh y ademas satisface que u + u0 = 0. En efecto, como u0 = ( 1)u y


como Sh es cerrado bajo multiplicacion por escalares, entonces u0 2 Sh . Ahora,

u + u0 = (u1 , . . . , un ) + ( u1 , . . . , un )
= (u1 u1 , . . . , un un )
= (0, . . . , 0)
= 0.

Para (6), si u = (u1 , . . . , un ) 2 Sh y l , g 2 K, entonces

(l + g)u = (l + g)(u1 , . . . , un )
= (l + g)u1 , . . . , (l + g)un
= (l u1 + gu1 , . . . , l un + gun )
= (l u1 , . . . , l un ) + (gu1 , . . . , gun )
= l u + gu.

t
u

Ejercicio 1.1. Demuestre las propiedades (1), (5), (7) y (8) de la proposicion 1.1
anterior.

El lector habra notado que hasta ahora no hemos dado algun metodo para hallar
soluciones (diferentes de la solucion obvia 0) de un sistema homogeneo de ecuacio-
nes lineales. Tan solo hemos probado algunas propiedades del conjunto de solucio-
nes de un tal sistema homogeneo. Por el momento tendremos que conformarnos con
esto; mas adelante desarrollaremos un metodo general para hallar todas las solucio-
nes de un sistema de ecuaciones lineales homogeneo o no y sera hasta ese momento
cuando las propiedades que acabamos de demostrar muestren su importancia de-
bida. As, despues de pedir la confianza del lector en este punto, lo anterior sirva
unicamente como motivacion para el estudio de los conjuntos V que satisfacen las
mismas propiedades que Sh . El lector notara sin embargo que el tema de las solu-
ciones de sistemas de ecuaciones lineales estara siempre presente en los desarrollos
que haremos y en algunos puntos lo haremos explcito cuando convenga.
8 1 Espacios vectoriales

1.2. Espacios vectoriales

En la seccion 1.1 anterior vimos como el conjunto Sh de soluciones de un sistema


de ecuaciones lineales homogeneas es cerrado bajo sumas y producto por escalares
del campo dado y ademas satisface las propiedades listadas en la proposicion 1.1. En
general existen muchos conjuntos V que tienen operaciones como las del conjunto
Sh y satisfacen propiedades analogas; en esta seccion comenzamos su estudio.

Definicion 1.2. Si K es un campo,1 a cuyos elementos llamaremos escalares, un


espacio vectorial sobre K (o K-espacio vectorial) es un conjunto no vaco V , a cuyos
elementos llamaremos vectores, junto con dos operaciones:
Suma de vectores. Si u, v 2 V se tiene definido otro vector u + v 2 V y decimos que
la operacion suma es cerrada.
Producto de un escalar por un vector. Si u 2 V y l 2 K se tiene definido otro vector
lu 2 V.
Se requiere que estas operaciones satisfagan las propiedades siguientes:
(1) La suma es asociativa, es decir, si u, v, w 2 V , entonces

u + (v + w) = (u + v) + w.

(2) La suma es conmutativa, es decir, para todo u, v 2 V se tiene que

u + v = v + u.

(3) Existe un neutro aditivo, es decir, existe un elemento 0V 2 V tal que para cual-
quier u 2 V se tiene que
u + 0V = u.
(4) Para cada elemento u 2 V existe un elemento u0 2 V tal que u + u0 = 0V . Al
elemento u0 se le llama un inverso aditivo del elemento u.
El producto por un escalar del campo K y un elemento de V satisface:
(5) Para cualesquiera u, v 2 V y l 2 K se tiene que

l (u + v) = l u + l v.

(6) Para cualesquiera u 2 V y l , g 2 K se tiene que

(l + g)u = l u + gu.

(7) Para cualesquiera u 2 V y l , g 2 K se tiene que

(l g)u = l (g u).

1 Recuerde que nuestra convencion es que K = R o K = C.


1.2 Espacios vectoriales 9

(8) Para todo u 2 V y para el neutro multiplicativo 1 2 K se tiene que

1 u = u.

Ejemplo 1.3. Con esta terminologa, el conjunto Sh de soluciones de un sistema de


ecuaciones lineales homogeneas es un K-espacio vectorial.
Ejemplo 1.4. Si K es un campo y V := K n = K K (n factores), los elementos
de V son todas las n-adas ordenadas u = (a1 , . . . , an ) con entradas a j 2 K. Recuerde
que dos n-adas ordenadas u = (a1 , . . . , an ) y v = (b1 , . . . , bn ) de V = K n son iguales,
denotado u = v, si y solo si a j = b j para todas las j = 1, . . . , n.
En V = K n se define una suma mediante la regla

u + v = (a1 , . . . , an ) + (b1 , . . . , bn ) := (a1 + b1 , . . . , an + bn ),

observando que, como a j + b j 2 K, entonces u + v 2 V , es decir, la suma anterior es


cerrada en V .
En V = K n se define el producto por un escalar mediante la regla siguiente: si
l 2 K y u = (a1 , . . . , an ) 2 V , se define

l u = l (a1 , . . . , an ) := (l u1 , . . . , l un )

observando que, como l a j 2 K, entonces l u 2 V .


Ejercicio 1.2. Verifique que V = K n , con las operaciones anteriores, es un K-espacio
vectorial.
Ejemplo 1.5. Si K es cualquier campo y V = K[x] es el conjunto de polinomios en
una variable x, con coeficientes en K, los elementos de V = K[x] son las expresiones
de la forma
f = f (x) = a0 + a1 x + a2 x2 + + am xm
con los a j 2 K y m 0 un entero. Recuerde que dos polinomios f (x) = a0 + a1 x +
a2 x2 + + am xm y g(x) = b0 + b1 x + b2 x2 + + bn xn son iguales, denotado f = g,
si y solo si m = n y a j = b j para cada j.
En V = K[x] se tiene la suma usual de polinomios

f + g := (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + + (ak + bk )xk +

(sumando los coeficientes de los terminos correspondientes) y observamos que a j +


b j 2 K por lo que f + g 2 V = K[x].
Se define el producto de un escalar l 2 K y un polinomio f = a0 + a1 x + a2 x2 +
+ am xm 2 V = K[x], denotado l f , como

l f = l (a0 + a1 x + a2 x2 + + am xm ) = (l a0 ) + (l a1 )x + (l a2 )x2 + + (l am )xm

y se observa que, como l a j 2 K, entonces l f 2 V = K[x].


Ejercicio 1.3. Verifique que V = K[x] es un K-espacio vectorial.
10 1 Espacios vectoriales

Ejemplo 1.6. Para K = R pongamos

V := { f : [a, b] ! R : f es una funcion},

i.e., V es el conjunto de funciones del intervalo real [a, b] a la recta real R. En V


se define una suma de funciones en la forma usual: si f , g 2 V se define la funcion
f + g : [a, b] ! R mediante la regla

( f + g)(a) := f (a) + g(a) para a 2 [a, b].

Tambien, si f 2 V y l 2 R, se define el producto l f : [a, b] ! R mediante la regla

(l f )(a) = l f (a) para a 2 [a, b].

Ejercicio 1.4. Compruebe que el conjunto de funciones V anterior, con las opera-
ciones definidas antes, es un R-espacio vectorial.

Ejemplo 1.7. Si K = R, consideremos el conjunto

V := {s : N ! R : s es una funcion},

es decir, V es el conjunto de funciones con dominio los naturales y codominio los


reales. Una funcion s : N ! R se suele llamar una sucesion con valores reales. Dada
una sucesion s : N ! R, para cada natural n 2 N se tiene un unico valor real s(n) 2 R.
Es costumbre usar la notacion sn := s(n) 2 R y a la sucesion s : N ! R se le denota
{sn } sobreentendiendo su dominio, N, y su codominio, R. En el conjunto V de
sucesiones reales se tiene la suma usual: si {an } y {bn } son dos elementos de V se
define:
{an } + {bn } := {an + bn },
y, si l 2 R y {an } 2 V , se define

l {an } := {l an }.

Ejercicio 1.5. Demuestre que el conjunto de sucesiones reales V , con las operacio-
nes anteriores, es un R-espacio vectorial.

Ejemplo 1.8 (Matrices). Este es un ejemplo muy importante: si K es cualquier cam-


po y m, n 2 N son dos naturales dados, una matriz m n con entradas en el campo
K, es un arreglo rectangular de la forma:
0 1
a11 a12 a1n
B a21 a22 a2n C
B C
B .. .. .. C
@ . . . A
am1 am2 amn
donde cada entrada ai j 2 K, para 1 i m y 1 j n. En una matriz m n
distinguiremos sus renglones y sus columnas:
1.2 Espacios vectoriales 11

Columna C j

?
0 1
a11 a12 a1 j a1n
B a21 a22 a2 j a2n C
B C
B .. .. .. C
B . . . C
B C
Renglon Ri - B
B ai1 ai2 ai j ain CC
B . .. .. C
@ .. . . A
am1 am2 am j amn

de tal forma que una matriz m n tiene m renglones Ri , 1 i m y n columnas C j ,


1 j n, dados por
0 1
a1 j
B a2 j C
B C
Ri = (ai1 , ai2 , . . . , ain ) y Cj = B . C.
@ .. A
am j

Observe entonces que los renglones Ri son vectores de K n y, salvo la notacion,


las columnas son vectores de K m . Usaremos letras mayusculas como A, B, C para
denotar a matrices m n y, en ocasiones, usaremos la abreviacion A = (ai j )mn para
denotar una matriz m n con entradas ai j .
Si A = (ai j )mn y B = (bi j )mn son dos matrices del mismo tamano m n, con
entradas en el campo K, diremos que la matriz A es igual a la matriz B, denotado
A = B, si y solo si ai j = bi j para todo i = 1, . . . , m y todo j = 1, . . . , n. Es decir, dos
matrices son iguales si y solo si entrada por entrada son iguales.
Denotaremos mediante Matmn (K) al conjunto de matrices de tamano m n con
entradas en el campo K. En este conjunto se tienen las operaciones:
Suma de matrices. Si A = (ai j )mn y B = (bi j )mn son matrices en Matmn (K), se
define su suma mediante:

A + B = (ai j ) + (bi j ) := (ai j + bi j )

sumando entrada a entrada. Es claro que A + B 2 Matmn (K), por lo que la suma es
cerrada.
Producto de un escalar por una matriz. Si A = (ai j )mn es una matriz en Matmn (K)
y l 2 K es un escalar, se define l A mediante:

l A = l (ai j ) := (l ai j )

multiplicando el escalar l por cada una de las entradas de A. Es claro que l A 2


Matmn (K).
Nota: usaremos el smbolo 0 para denotar a la matriz m n con todas sus entradas
ai j = 0 y la llamaremos la matriz cero.
12 1 Espacios vectoriales

Ejercicio 1.6. Demuestre que el conjunto de matrices Matmn (K), con las opera-
ciones anteriores, es un K-espacio vectorial.
Ejercicio 1.7. Sea V := { f : R ! R : f es una funcion par} (recuerde que una f
es una funcion par si y solo si f (x) = f ( x) para todo x 2 R). Con la suma y
producto por un escalar usuales, vea el ejemplo 1.6, demuestre que V es un R-
espacio vectorial.
Ejercicio 1.8. Sean K = R y V = Cn con la suma coordenada a coordenada y pa-
ra un escalar l 2 R se define el producto por un vector de V = Cn coordenada a
coordenada. Es V un R-espacio vectorial?
Propiedades elementales de los espacios vectoriales. Las primeras propiedades de
los espacios vectoriales son aquellas que uno podra esperar:
Lema 1.3 (Ley de cancelacion para la suma). Si V es un K-espacio vectorial y
u, v, w 2 V son tales que
u + v = u + w,
entonces v = w.
Demostracion. Sea u0 2 V un inverso aditivo de u (el cual existe por la propiedad 4
de la definicion 1.2). Entonces, sumado u0 a ambos lados de la igualdad u+v = u+w
se obtiene la primera igualdad en

u0 + (u + v) = u0 + (u + w)
(u0 + u) + v = (u0 + u) + w por asociatividad
0V + v = 0V + w ya que u0 + u = 0V (un neutro aditivo)
v = w.

t
u
Lema 1.4. Si V es un K-espacio vectorial, entonces:
(1) El neutro aditivo de V es unico.
(2) Para cada u 2 V su inverso aditivo es unico.
Demostracion. (1) Supongamos que 0V y 0V0 son dos neutros aditivos de V . Enton-
ces,

0V = 0V + 0V0 ya que 0V0 es neutro aditivo


= 0V0 ya que 0V es neutro aditivo.

(2) Sea u 2 V y supongamos que u0 y u00 son ambos inversos aditivos de u. Entonces,

u + u0 = 0V ya que u0 es inverso aditivo de u


00
= u+u ya que u00 es inverso aditivo de u,

por lo que u + u0 = u + u00 y, por la ley de cancelacion 1.3, se sigue que u0 = u00 . t
u
1.2 Espacios vectoriales 13

Al (unico) inverso aditivo de u 2 V lo denotaremos mediante u 2 V.


Proposicion 1.5. Sea V un K-espacio vectorial. Entonces,
(1) l 0V = 0V , para cualquier l 2 K y el vector 0V 2 V .
(2) 0 u = 0V , para el escalar 0 2 K y cualquier u 2 V .
Nota. En la igualdad anterior el 0 en el lado izquierdo denota al escalar 0 2 K y en el
lado derecho se tiene al neutro aditivo 0V 2 V . Algunas veces denotaremos al vector
0V mediante un 0 y el contexto debe indicar cual es el significado correcto y no debe
causar confusion.
(3) ( 1)u = u, para el escalar 1 2 K y cualquier u 2 V .

Demostracion. (1) Si l 2 K y 0 2 V ,

l 0 = l (0 + 0) ya que 0 es neutro aditivo


= l 0 + l 0,

y, por la ley de cancelacion 1.3, se sigue que l 0 = 0.


(2) Si u 2 V y 0 2 K,

0 u = (0 + 0) u ya que 0 2 K es neutro aditivo


= 0 u + 0 u,

y, por la ley de cancelacion 1.3, se sigue que 0 u = 0.


(3) Si u 2 V y 1 2 K,

u + ( 1) u = 1 u + ( 1) u ya que 1 u = u
= (1 1) u
= 0u
= 0 por la propiedad (2) anterior.

Se sigue que u + ( 1) u = 0 y, por la unicidad 1.4 del inverso aditivo de u, la


igualdad anterior implica que ( 1) u = u. t
u

Ejercicio 1.9. Sea V un K-espacio vectorial. Si u 2 V y l 2 K, demuestre que

( l ) u = l ( u) = (l u).

Ejercicio 1.10. Sea V un K-espacio vectorial. Si u, v 2 V son tales que u + v = v,


demuestre que u = 0.

Ejercicio 1.11. Sea V un K-espacio vectorial y sea l 2 K un escalar 6= 0. Si u 2 V


es tal que l u = 0, demuestre que u = 0.
14 1 Espacios vectoriales

1.3. Subespacios vectoriales

Al estudiar sistemas de m ecuaciones lineales homogeneas en n incognitas con


coeficientes, digamos en R, mostramos en la seccion 1.1 que el conjunto de so-
luciones Sh de un tal sistema es un R-espacio vectorial contenido en Rn . Por el
ejemplo 1.4 de la seccion 1.2, se tiene que Rn tambien es un R-espacio vectorial y
las operaciones de Sh y de Rn son las mismas y tenemos as dos espacios vectoriales
Sh Rn con las mismas operaciones.

Definicion 1.6. Si V es un K-espacio vectorial y W V es un subconjunto, diremos


que W es un subespacio vectorial de V si W es un K-espacio vectorial con las
operaciones de V restringidas a W .

Observe que, si W V es un subespacio vectorial, en particular se satisface que:


(i) W debe contener al vector 0V de V ,
(ii) W es cerrado bajo la suma de vectores de V ,
(iii) W es cerrado bajo el producto por escalares de K, y
(iv) para cada w 2 W su inverso aditivo w tambien debe estar en W .
Recprocamente, si W V es un subconjunto no vaco que satisface las condicio-
nes (i), (ii), (iii) y (iv) anteriores, entonces W es un subespacio vectorial de V ya que
todas las propiedades de espacio vectorial de V se heredan a W . Hemos as probado:

Lema 1.7. Sean V un K-espacio vectorial y W V un subconjunto no vaco. En-


tonces, W es un subespacio vectorial de V si y solo si W satisface las condiciones
(i), (ii), (iii) y (iv) anteriores. t
u
Observemos ahora que si W V satisface las condiciones (i), (ii), (iii), entonces
tambien satisface la condicion (iv) ya que si w 2 W , entonces para el escalar 1 2 K
se tiene por (iii) que ( 1) w 2 W ; pero por la proposicion 1.5 (3) se tiene que
( 1) w = w y por lo tanto (iv) se satisface. Hemos as probado la simplificacion
siguiente del lema 1.7 anterior:
Lema 1.8. Sean V un K-espacio vectorial y W V un subconjunto no vaco. En-
tonces, W es un subespacio vectorial de V si y solo si W satisface las condiciones
(i), (ii) y (iii) anteriores. t
u

Ejemplo 1.9. Si V es cualquier K-espacio vectorial, entonces el subconjunto W =


{0V } V es un subespacio vectorial. El subconjunto W = V V tambien es un
subespacio vectorial.

Ejemplo 1.10. Si V = K[x] es el espacio vectorial de polinomios en una variable


con coeficientes en el campo K, sea Pn (K) el subconjunto de V formado por los
polinomios de grado n, para n 0 un entero fijo. Como el polinomio constante 0
tiene grado gr(0) = < n, entonces 0 2 Pn (K). Claramente Pn (K) es cerrado bajo
sumas y producto por escalares. Se sigue que Pn (K) es un subespacio de K[x].
1.3 Subespacios vectoriales 15

Ejemplo 1.11. Si V = F([a, b], R) es el R-espacio vectorial de las funciones f :


[a, b] ! R y W = C([a, b], R) es el subconjunto de funciones continuas de [a, b] en
R, entonces W es un subespacio vectorial de V ya que las funciones constantes son
continuas (en particular, la funcion 0 es continua), la suma de funciones continuas
es continua y el producto de un escalar real por una funcion continua es continua.

Ejemplo 1.12. Si V = R2 , podemos visualizarlo como el plano cartesiano:

- W = eje X

y si W = eje X = {(a, 0) : a 2 R}, se tiene que W es un subespacio vectorial de R2 .


Lo mismo es cierto para el eje Y .

Matrices. Para poder dar ejemplos de subespacios del (importante) espacio vectorial
de matrices Matmn (K) necesitaremos algunas definiciones:
() Una matriz A = (ai j )mn se dice que es una matriz cuadrada si m = n.
() Dada una matriz cuadrada en Matnn (K):
0 1
a11 a12 a1n
Ba21 a22 a2n C
B C
A = (ai j )nn = B . .. .. C
@ .. . . A
an1 an2 ann

a las entradas de la forma aii se les llama los elementos de la diagonal de A.


() Una matriz cuadrada A = (ai j )nn se dice que es una matriz diagonal si todas
sus entradas fuera de la diagonal son 0, i.e., si ai j = 0 siempre que i 6= j. As, una
matriz diagonal se ve como:
0 1
a11 0 0
B 0 a22 0 0 C
B C
B 0 0 a33 0 0 C
B C
B .. .. .. . C
@ . . . .. A
0 0 0 ann

Note que no estamos pidiendo que los elementos de la diagonal sean 6= 0, bien
puede suceder que algunos o todos los elementos de la diagonal tambien sean 0. En
particular, la matriz 0 2 Matnn (K) es una matriz diagonal.
16 1 Espacios vectoriales

() Una matriz cuadrada A = (ai j )nn se dice que es una matriz triangular superior
si todas sus entradas abajo de la diagonal son 0, i.e., si ai j = 0 siempre que i > j.
As, una matriz triangular superior se ve como:
0 1
a11 a12 a1n
B 0 a22 a2n C
B C
B .. .. . . .. C
@ . . . . A
0 0 ann

() Una matriz cuadrada A = (ai j )nn se dice que es una matriz triangular inferior
si todas sus entradas arriba de la diagonal son 0, i.e., si ai j = 0 siempre que i < j.
As, una matriz triangular inferior se ve como:
0 1
a11 0 0
Ba21 a22 0 0 C
B C
B .. .. . . .. C
@ . . . . A
an1 an2 ann

() Si 0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A = (ai j )mn = B . .. .. C
@ .. . . A
am1 am2 amn mn

es una matriz m n, su transpuesta, denotada AT es la matriz n m que se obtiene


intercambiando renglones y columnas de A, i.e.,
0 1
a11 a21 am1
B a12 a22 am2 C
B C
AT = (a ji )nm = B . . .. C
@ .. .. . A
a1n a2n amn nm

Por ejemplo, si
1 24
A=
130 23
entonces 0 1
1 1
AT = @ 2 3 A
4 0 32

() Una matriz cuadrada A = (ai j )nn se dice que es una matriz simetrica si es igual
a su transpuesta, i.e., si A = AT . Es decir, si ai j = a ji para todas las entradas de A.
1.3 Subespacios vectoriales 17

Por ejemplo, la matriz 0 1


101
A = @0 2 0A
1 0 3 33
es simetrica.

Ejercicio 1.12. Si V = Matnn (K) y W V es el subconjunto de las matrices dia-


gonales, demuestre que W es un subespacio vectorial de V .

Ejercicio 1.13. Si V = Matnn (K) y W V es el subconjunto de las matrices trian-


gulares superiores, demuestre que W es un subespacio vectorial de V .

Ejercicio 1.14. Si V = Matnn (K) y W V es el subconjunto de las matrices trian-


gulares inferiores, demuestre que W es un subespacio vectorial de V .

Ejercicio 1.15. Si V = Matnn (K) y W V es el subconjunto de las matrices


simetricas, demuestre que W es un subespacio vectorial de V .
Nota: tendra que probar que si A, B 2 Matnn (K), entonces
(i) (A + B)T = AT + BT .
(ii) (l A)T = l (AT ), para toda l 2 K.

() Si A = (ai j )nn es una matriz, su traza, denotada Tr(A), es la suma de los ele-
mentos de su diagonal. Es decir,

Tr(A) = Tr(ai j ) = aii .


i

Note que la traza de una matriz es un escalar.


Ejercicio 1.16. Si V = Matnn (K) y W V es el subconjunto de todas las matrices
cuya traza es 0, demuestre que W es un subespacio vectorial de V .

Ejercicio 1.17. Sea V = R2 como R-espacio vectorial. Demuestre que los conjuntos
siguientes son subespacios vectoriales de V :
(i) W = {(x, y) 2 R2 : x = y}.
(ii) W = {(x, y) 2 R2 : x + y = 0}.
(iii) W = {(x, y) 2 R2 : x + 4y = 0}.

Ejercicio 1.18. Sea V = R3 como R-espacio vectorial. Demuestre que los conjuntos
siguientes son subespacios vectoriales de V :
(i) W = {(x, y, z) 2 R3 : x + y + z = 0}.
(ii) W = {(x, y, z) 2 R3 : x = y & 2y = z}.
(iii) W = {(x, y, z) 2 R3 : x + y = 3z}.

Ejercicio 1.19. Sea V = Matnn (K). Demuestre que el subconjunto W V de ma-


trices cuya diagonal consiste de ceros, es un subespacio vectorial de V .
18 1 Espacios vectoriales

Operaciones con subespacios vectoriales. Dado un K-espacio vectorial V , sus


subespacios vectoriales son subconjuntos de V y as podemos considerar su intersec-
cion y su union pensandolos como conjuntos. La pregunta natural en este contexto
es: dados W1 ,W2 subespacios vectoriales de V , sera cierto que W1 \W2 o W1 [W2
tambien son subespacios vectoriales de V ? La respuesta es afirmativa en el caso de
la interseccion y negativa en general para la union:
Lema 1.9. Si V es un K-espacio vectorial y W1 ,W2 subespacios vectoriales de V ,
entonces W1 \W2 tambien es un subespacio vectorial de V .

Demostracion. Como W1 y W2 son subespacios de V , entonces 0V 2 W1 \ W2 . Si


u, v 2 W1 \W2 , entonces por definicion de interseccion u, v 2 W1 y u, v 2 W2 , por lo
que u + v 2 W1 y u + v 2 W2 ya que W1 y W2 son cerrados bajo la suma de vectores.
Se sigue que u + v 2 W1 \ W2 . Similarmente, si w 2 W1 \ W2 , entonces w 2 W1 y
w 2 W2 y as, para cualquier escalar l se tiene que l w 2 W1 y l w 2 W2 ya que
ambos son subespacios. Se sigue que l w 2 W1 \W2 . t
u

Ejercicio 1.20. Si Wa , para a 2 I, es una familia de subespacios vectoriales de un


K-espacio vectorial V , demuestre que
\
Wa
a2I

es un subespacio vectorial de V .

Ejemplo 1.13. Si V = R2 , W1 = eje X y W2 = eje Y son los subespacios vectoriales del


ejemplo 1.12, entonces W1 [ W2 consiste de los dos ejes coordenados de R2 . Note
ahora que W1 [W2 no es cerrado bajo sumas de vectores, por ejemplo, si (2, 0) 2 W1
y (0, 3) 2 W2 se tiene que (2, 0) + (0, 3) = (2, 3) 62 W1 [W2 .

Suma de subespacios. Habiendo observado que la union de subespacios en general


no es un subespacio del espacio vectorial V dado y pensando en el ejemplo 1.13,
es facil notar que la union de dos subespacios vectoriales contiene al vector 0V y es
cerrado bajo el producto por escalares, siendo lo unico que falla la cerradura bajo la
suma de vectores. Entonces si agrandamos la union W1 [ W2 anadiendo las sumas
de vectores de la forma w1 + w2 con w1 2 W1 y w2 2 W2 , debemos obtener un subes-
pacio vectorial de V . La definicion formal es como sigue: dados dos subespacios
vectoriales W1 y W2 de V , se define el conjunto

W1 +W2 := {w1 + w2 : w1 2 W1 y w2 2 W2 }

notando que como w1 , w2 2 V , entonces w1 + w2 2 V , por lo que W1 + W2 es un


subconjunto de V .
Lema 1.10. Sean W1 y W2 subespacios vectoriales de V . Entonces, W1 + W2 es un
subespacio vectorial de V y contiene a la union W1 [W2 .

Demostracion. Note que W1 W1 +W2 ya que si w1 2 W1 , entonces w1 = w1 +0V 2


W1 +W2 . Similarmente W2 W1 +W2 . Se sigue que W1 [W2 W1 +W2 , en particular
1.3 Subespacios vectoriales 19

0V 2 W1 +W2 . Probaremos que W1 +W2 es cerrado bajo sumas. En efecto, si w1 +w2


y u1 + u2 son dos elementos de W1 +W2 , entonces

(w1 + w2 ) + (u1 + u2 ) = (w1 + u1 ) + (w2 + u2 )

con w1 + u1 2 W1 y w2 + u2 2 W2 y as W1 +W2 es cerrado bajo sumas. Probaremos


ahora que W1 +W2 es cerrado bajo el producto de escalares: sean l 2 K y w1 + w2 2
W1 +W2 ; entonces,

l (w1 + w2 ) = l w1 + l w2 2 W1 +W2

ya que l w1 2 W1 y l w2 2 W2 porque estos son subespacios. t


u

Ejemplo 1.14. En V = R3 considere los subespacios vectoriales siguientes: U el


plano XY y W el plano Y Z, es decir,

U = {(x, y, 0) 2 R3 } y W = {(0, y, z) 2 R3 }.

Entonces, R3 = U +W ya que si v = (a, b, c) 2 R3 es cualquier vector,

v = (a, b, c) = (a, b, 0) + (0, 0, c) con (a, b, 0) 2 U y (0, 0, c) 2 W .

Suma directa de subespacios. Note que, en el ejemplo 1.14, la descomposicion de


v como suma de un vector de U y de un vector de W , en general, no es unica; por
ejemplo,
v = (1, 2, 3) = (1, 2, 0) + (0, 0, 3) = (1, 1, 0) + (0, 1, 3).

Proposicion 1.11. Sea V un K-espacio vectorial y sean U,W subespacios de V .


Entonces, todo elemento v 2 V se puede escribir en forma unica como v = u + w
con u 2 U y w 2 W si y solo si se satisfacen las dos condiciones:
(i) U +W = V .
(ii) U \W = {0V }.

Demostracion. Supongamos que (i) y (ii) son ciertas. Como V = U +W , entonces


para todo v 2 V existen u 2 U y w 2 W tales que v = u + w. Supongamos ahora que
se tiene otra descomposicion de v como v = u0 + w0 con u0 2 U y w0 2 W . Entonces,
u + w = u0 + w0 y as
u u0 = w0 w,
con u u0 2 U y w0 w 2 W . La igualdad anterior nos dice que u u0 = w0 w 2 W
por lo que u u0 2 W y as u u0 2 U \W = {0V }. Similarmente, w0 w 2 U \W =
{0V }. Se sigue que u u0 = 0V = w0 w y por lo tanto u = u0 y w = w0 , i.e., las dos
descomposiciones de v eran la misma.
Supongamos ahora que todo vector v 2 V se puede escribir en forma unica como
v = u + w con u 2 U y w 2 W , entonces (i) se satisface. Para probar (ii), supongamos
que v 2 U \W . Entonces, v 2 U y v 2 W por lo que
20 1 Espacios vectoriales

v = v + 0V con v 2 U y 0V 2 W
= 0V + v con 0V 2 U y v 2 W

y como la descomposicion de v debe ser unica, se sigue que v = 0V , y por lo tanto


U \W = {0V }. t
u

Definicion 1.12. Si U,W son subespacios de un K-espacio vectorial V tales que:


(i) U +W = V .
(ii) U \W = {0V },
diremos que V es suma directa de los subespacios U y W , y lo denotaremos me-
diante
V = U W.

Ejercicio 1.21. Sean V = K[x], U V el conjunto de polinomios f (x) = a0 + a1 x +


a2 x2 + + an xn tales que ai = 0 para todos los ndices i pares, y W V el conjunto
de polinomios g(x) = a0 + a1 x + a2 x2 + + am xm tales que ai = 0 para todos los
ndices j impares.
(i) Muestre que U y W son subespacios vectoriales de V .
(ii) Demuestre que V = U V .

Ejercicio 1.22. Recuerde que una matriz cuadrada A se dice que es simetrica si su
transpuesta es ella misma: AT = A. La matriz A se dice que es semisimetrica si
AT = A.
(i) Sean V = Mat22 (K), U V el subconjunto de matrices 2 2 simetricas y
W V el subconjunto de matrices semisimetricas.
(a) Muestre que U y W son subespacios vectoriales de V .
(b) Demuestre que V = U W .
(ii) Sean V = Matnn (K), U V el subconjunto de matrices simetricas y W V
el subconjunto de matrices semisimetricas.
(a) Muestre que U y W son subespacios vectoriales de V .
(b) Demuestre que V = U W .
Sugerencia: si A 2 Matnn (K), muestre que 12 (A + AT ) es simetrica.

Ejercicio 1.23. Sea V = Matnn (K) y considere los subconjuntos

U := {(ai j ) 2 Matnn (K) : ai j = 0 para todo i > j}

y
W := {(bi j ) 2 Matnn (K) : bi j = 0 para todo i j}.
(i) Muestre que U y W son subespacios vectoriales de V .
(ii) Demuestre que V = U W .
1.4 Combinaciones lineales 21

1.4. Combinaciones lineales

Si en el R-espacio vectorial R3 fijamos un vector u = (a, b, c) distinto de 0 y


consideramos el conjunto de todos los multiplos escalares de u:

L := {l u : l 2 R},

este subconjunto es una lnea recta en R3 que pasa por el origen en la direccion del
vector u:

6
L

-

y, de hecho, L es un subespacio vectorial de R3 , como se comprueba facilmente.


Si ahora consideramos dos vectores u y v en R3 , digamos no colineales, y consi-
deramos el conjunto de todas las sumas de los multiplos escalares de u y los multi-
plos escalares de v:
P := {l u + gv : l , g 2 R},
este subconjunto es un plano en R3 que pasa por el origen y contiene a los extremos
de los vectores u y v:

6 P
@ @

@
-
@
@

@

y, de hecho, P es un subespacio vectorial de R3 , como se comprueba facilmente.


Definicion 1.13. Si V es un K-espacio vectorial y v1 , . . . , vn es un conjunto finito de
vectores de V , una combinacion lineal de los vectores v1 , . . . , vn es un vector de la
forma:
a1 v1 + a2 v2 + + an vn 2 V
con escalares a j 2 K. Un vector v 2 V se dice que es combinacion lineal de los
vectores v1 , . . . , vn , si existen escalares a1 , . . . , an en K tales que

v = a1 v1 + a2 v2 + + an vn .

Ejemplo 1.15. El vector 0V 2 V es combinacion lineal de cualquier conjunto (finito)


de vectores v1 , . . . , vn de V ya que
22 1 Espacios vectoriales

0V = 0 v1 + + 0 vn .

Ejemplo 1.16. Si V = R2 y v1 = (1, 0), v2 = (1, 1), entonces el vector u = (3, 4) es


combinacion lineal de v1 y v2 ya que

u = (3, 4) = 1 (1, 0) + 4 (1, 1) = 1 v1 + 4 v2 .

Ejemplo 1.17. Si V = Pn (K) es el espacio vectorial de los polinomios en una variable


x, con coeficientes en un campo K y de grado n, y si v0 = 1, v1 = x, v2 = x2 , . . . ,
vn = xn son vectores de Pn (K), entonces todo polinomio f (x) = a0 + a1 x + a2 x2 +
+ an xn 2 Pn (K) es combinacion lineal de los vectores v0 , . . . , vn , ya que

f (x) = a0 1 + a1 x + a2 x2 + + an xn

es la combinacion lineal requerida, con los coeficientes a j del polinomio dado como
escalares.

Ejemplo 1.18. Si V = R2 y e1 = (1, 0), e2 = (0, 1), entonces todo vector u = (a, b) 2
R2 es combinacion lineal de e1 y e2 ya que

u = (a, b) = (a, 0) + (0, b) = a (1, 0) + b (0, 1) = a e1 + b e2 .

Sistemas de ecuaciones lineales y combinaciones lineales. Si consideramos un


sistema de ecuaciones lineales, digamos con coeficientes en R, pero valido para
cualquier campo K:

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xn = bm

considerando los vectores columna (en Rm o K m ) dados por los coeficientes ai j del
sistema anterior y el vector columna de los terminos independientes bi :
0 1 0 1 0 1 0 1
a11 a12 a1n b1
B a21 C B a22 C B a2n C B b2 C
B C B C B C B C
C1 = B . C ,C2 = B . C , ,Cn = B . C ,b = B . C
@ .. A @ .. A @ .. A @ .. A
am1 am2 amn bm
y pensando a las incognitas x1 , . . . , xn como escalares de R (o de K), en notacion
vectorial el sistema de ecuaciones anterior se puede escribir como
1.4 Combinaciones lineales 23
0 1 0 1 0 1 0 1
a11 a12 a1n b1
B a21 C B a22 C B a2n C B b2 C
B C B C B C B C
x1 B . C + x2 B . C + + xn B . C = B .. C ,
@ .. A @ .. A @ .. A @ . A
am1 am2 amn bm
o, denotando a las columnas de coeficientes mediante C1 , . . . , Cn y a la columna
de terminos independientes por b, la combinacion lineal anterior se puede escribir
como

() x1C1 + x2C2 + + xnCn = b

y cuando nos preguntamos si el sistema de ecuaciones dado tiene o no soluciones, en


terminos de la combinacion lineal () nos estamos preguntando si el vector columna
de terminos independientes b es o no combinacion lineal de los vectores columna
de coeficientes C1 , . . . , Cn . As, el problema de resolver un sistema de ecuaciones li-
neales se ha convertido en el problema de determinar cuando un vector dado es o no
combinacion lineal de otros vectores dados, y los dos problemas son equivalentes.
Conviene entonces saber quien es el subconjunto formado por todas las combina-
ciones lineales de los vectores C1 , . . . , Cn , para saber si el vector b pertenece o no a
este conjunto.
Antes de continuar, notemos que todava no hemos encontrado un metodo para
resolver sistemas de ecuaciones lineales, pero hemos reinterpretado el problema en
un contexto que nos sera util para el procedimiento que daremos mas adelante.
Subespacios generados por un subconjunto de vectores. Al principio de esta sec-
cion vimos dos ejemplos en R3 donde todas las combinaciones lineales de un vector
(respectivamente, dos vectores) de R3 generaban un subespacio vectorial de R3 , a
saber, una lnea recta L (respectivamente, un plano P). Que esto es cierto en general
es el contenido de la proposicion siguiente:
Proposicion 1.14. Sean V un K-espacio vectorial y v1 , . . . , vn vectores dados de V .
Si K(v1 , . . . , vn ) es el subconjunto de V dado por las todas las combinaciones linea-
les de los vectores v1 , . . . , vn :

K(v1 , . . . , vn ) := {a1 v1 + + an vn : ai 2 K} V,

entonces K(v1 , . . . , vn ) es un subespacio vectorial de V . Al subespacio K(v1 , . . . , vn )


se le llamara el subespacio generado por los vectores v1 , . . . , vn .

Demostracion. El vector 0V 2 K(v1 , . . . , vn ) ya que 0V = 0v1 + + 0vn . Ahora, si


u 2 K(v1 , . . . , vn ), entonces u es de la forma u = a1 v1 + + an vn y as, para l 2 K
se tiene que

l u = l (a1 v1 + + an vn ) = (l a1 )v1 + + (l an )vn

y por lo tanto l u 2 K(v1 , . . . , vn ). Finalmente, si u, w 2 K(v1 , . . . , vn ), entonces u y


w son de la forma
24 1 Espacios vectoriales

u = a1 v1 + + an vn y w = b1 v1 + + bn vn

y as

u + w = (a1 v1 + + an vn ) + (b1 v1 + + bn vn )
= (a1 + b1 )v1 + + (an + bn )vn

con a j + b j 2 K, y por lo tanto u + w tiene la forma requerida y as u + w 2


K(v1 , . . . , vn ). t
u

De acuerdo a la interpretacion que hicimos antes acerca de la solubilidad de un


sistema de ecuaciones lineales, escrito en la forma

() x1C1 + x2C2 + + xnCn = b

con C j los vectores columna del sistema y b el vector columna de los terminos
independientes, todos ellos elementos del espacio vectorial K n , la proposicion 1.14
anterior tiene la consecuencia inmediata siguiente:
Corolario 1.15. El sistema de ecuaciones lineales

() x1C1 + x2C2 + + xnCn = b

tiene solucion en K n si y solo el vector columna b pertenece al subespacio vectorial


K(C1 , . . . ,Cn ) generado por los vectores columna de los coeficientes del sistema.
t
u
La construccion anterior, del subespacio vectorial generado por un conjunto finito
de vectores v1 , . . . , vn , se puede generalizar para considerar el subespacio generado
por un subconjunto arbitrario de vectores de V : dado un subconjunto no vaco S V ,
denotamos con K(S) al subconjunto de combinaciones lineales finitas de vectores
de S, i.e.,

K(S) := {l1 w1 + + lk wk : l j 2 K y w1 , . . . , wk 2 S}.

Observe que S K(S) ya que cada w 2 S se puede escribir como la combinacion


lineal w = 1 w con w 2 S. Note que aun cuando S puede tener un numero infinito
de vectores, K(S) se define con combinaciones lineales de subconjuntos finitos de
S. Consecuentemente, la demostracion de la proposicion 1.14 anterior sigue siendo
valida para K(S) y por lo tanto K(S) es un subespacio vectorial de V . Mas aun, K(S)
es el menor subespacio vectorial de V que contiene a S:
Proposicion 1.16. Si V es un K-espacio vectorial y S V es cualquier subconjunto,
entonces \
K(S) = W,
SW V

donde la interseccion es sobre todos los subespacios vectoriales W de V que con-


tienen a S.
1.4 Combinaciones lineales 25

Demostracion. Como K(S) es un subespacio vectorial que contiene a S, entonces


K(S) es uno de los intersectandos y por lo tanto K(S) contiene a la interseccion
de la proposicion. Recprocamente, si W es un subespacio vectorial tal que S W ,
entonces para cualquier elemento v = l1 w1 + + lk wk de K(S), como los w j 2 S
W y como W es subespacio vectorial, entonces W contiene a cualquier combinacion
lineal de elementos de W , y por lo tanto v 2 W . Hemos as mostrado que
\ K(S) W
para cualquier subespacio W que contiene a S. Se sigue que K(S) W , como
SW V
se quera. t
u

Definicion 1.17. Si S V es cualquier subconjunto no vaco, al subespacio vectorial


K(S) de la proposicion anterior se le llama el subespacio vectorial generado por S.
Si S = 0,
/ se extiende la definicion anterior poniendo K(0)/ := {0V }, el subespacio
que consta solo del vector cero.

Ejemplo 1.19. Al principio de esta seccion, para V = R3 , vimos que el subespacio


generado por un vector v 6= 0 es una recta que pasa por el origen: R(v) = L. Tambien
vimos que si u y v son dos vectores no colineales de R3 , el subespacio generado por
estos dos vectores es un plano que pasa por el origen: R(u, v) = P.

Ejemplo 1.20. Si V = R2 y e1 = (1, 0), e2 = (0, 1), en el ejemplo 1.18 vimos que el
subespacio generado por e1 y e2 es todo R2 .

Definicion 1.18. Sea V un K-espacio vectorial. Si para un subconjunto S V se


tiene que K(S) = V , diremos que S genera al espacio vectorial V . Tambien diremos
que los vectores de S son generadores de V .

Con esta definicion, el ejemplo 1.20 nos dice que los vectores e1 = (1, 0) y e2 =
(0, 1) generan R2 .
Ejemplo 1.21. Si V = R3 , los vectores e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) son
generadores de R3 . El argumento es similar al del ejemplo 1.20.

Ejemplo 1.22. En general, en Rn , los vectores e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . .),


. . . , en = (0, . . . , 0, 1) (donde ek tiene un 1 en el lugar k y ceros en las otras compo-
nentes), generan Rn .

Ejemplo 1.23. Si V = K[x], los vectores 1, x, x2 , . . . , xn , . . ., generan K[x] ya que todo


polinomio f (x) = a0 + a1 x + a2 x2 + + an xn es combinacion lineal de algunos de
los vectores 1, x, x2 , . . . , xn , . . . usando los coeficientes de f (x) como los escalares de
la combinacion lineal, como en el ejemplo 1.17.

Ejemplo 1.24. Los vectores v1 = (1, 0, 0), v2 = (0, 1, 0) y v3 = (1, 1, 0) no generan


a R3 , ya que cualquier combinacion lineal de ellos tiene la tercera coordenada igual
a cero y por lo tanto ningun vector de R3 cuya tercera coordenada sea 6= 0 es com-
binacion lineal de v1 , v2 , v3 .

Ejemplo 1.25. Si V es cualquier K-espacio vectorial, el conjunto S = V genera a V


ya que todo v 2 V se puede escribir como la combinacion lineal v = 1 v.
26 1 Espacios vectoriales

Ejercicio 1.24. Sea V un K-espacio vectorial. Si S T son dos subconjuntos de V ,


demuestre que K(S) K(T ).

Ejercicio 1.25. Si S V genera a V y T V es otro conjunto tal que S T , de-


muestre que T tambien genera a V .

Ejercicio 1.26. Si W es un subespacio vectorial de un K-espacio vectorial V , de-


muestre que K(W ) = W .

Ejercicio 1.27. Sea V = Mat22 (R). Demuestre que las matrices siguientes generan
a V:
10 01 00 00
, , , .
00 00 10 01

Ejercicio 1.28. Sea V = P2 (K) el espacio vectorial de los polinomios con coeficien-
tes en un campo K y de grado 2. Muestre que los polinomios 1, 1 + x, 1 + x + x2 ,
generan a V .

Ejercicio 1.29. Si V es cualquier K-espacio vectorial, cual es el subespacio gene-


rado por S = {0V }?

Ejercicio 1.30. Si V = K (el campo K, considerado como K-espacio vectorial),


muestre que 1 2 K genera a V . Puede dar otros subconjuntos que generan a V ?
Explique.

Ejercicio 1.31. Sea V = R2 .


(i) Si U = R(2, 1) es el subespacio de V generado por (2, 1) y W = R(0, 1) es el
subespacio de V generado por (0, 1), demuestre que R2 = U W .
(ii) Si U 0 = R(1, 1) es el subespacio de V generado por (1, 1) y W 0 = R(1, 0) es
el subespacio de V generado por (1, 0), demuestre que R2 = U 0 W 0 .

Ejercicio 1.32. Sea V = R3 . Sean U = R(1, 0, 0) el subespacio de V generado por


(1, 0, 0) y W = R{(1, 1, 0), (0, 1, 1)} el subespacio de V generado por (1, 1, 0) y
(0, 1, 1).
(i) Grafique estos subespacios.
(ii) Demuestre que R3 = U W .

1.5. Dependencia e independencia lineal

El ejemplo 1.25 de la seccion 1.4 nos dice que dado cualquier K-espacio vectorial
V , siempre hay un conjunto de generadores S de V , a saber S = V . El ejercicio 1.25
por su parte nos dice que si S genera al espacio V , entonces cualquier conjunto que
contenga a S tambien genera a V ; as, el problema no es agrandar un conjunto que
genere a V , sino por el contrario, sabiendo que un conjunto S genera al espacio V , el
problema es hallar el conjunto con el menor numero de elementos que genere a V .
1.5 Dependencia e independencia lineal 27

Por ejemplo, quisieramos hallar un subconjunto B S tal que B siga generando a V


pero que B sea mnimo en el sentido de que si le quitamos cualquier vector v 2 B, el
conjunto diferencia B {v} ya no genera a V . Con esto en mente, consideremos lo
que nos dice el ejercicio 1.25: si S V genera a V y S T V , entonces T tambien
genera a V . Esta afirmacion se sigue del ejercicio 1.24. Ahora, como K(S) = V y T
V , entonces todos los elementos de T pertenecen a K(S), i.e., son combinaciones
lineales de elementos de S. As, los elementos de T que se anadieron a S, i.e., T S,
ya eran combinaciones lineales de elementos de S y por lo tanto cada vez que un
vector v de K(T ) se expresa como combinacion lineal de elementos de T , digamos

() v = a1 w1 + + ak wk con a j 2 K, w j 2 T ,

si sucediera que alguno de los vectores w j de T esta en T S, escribiendolo como


combinacion lineal de elementos de S:

w j = a1 u1 + + ar ur con ui 2 S

y substituyendo esta expresion para w j en (), tendremos que v es combinacion li-


neal de elementos de S. En otras palabras, los elementos de T S no aportan nuevos
vectores al considerar combinaciones lineales donde aparezcan porque los elemen-
tos de T S ya son combinaciones lineales de S. Para expresar esto diremos que los
vectores de T S son linealmente dependientes de S; en forma precisa:
Definicion 1.19. Sea T V un subconjunto2 no vaco de un espacio vectorial V .
Diremos que T es linealmente dependiente si existe algun vector v 2 T que es com-
binacion lineal de los otros vectores de T , es decir, si v 2 K(T {v}).

Observacion 1.20. (1). Note que no estamos pidiendo que todos los vectores u 2 T
sean elementos del correspondiente subespacio K(T {u}); lo que estamos pidien-
do es que algun vector v 2 T satisfaga que v 2 K(T {v}).
(2). En la definicion 1.19 anterior, al decir que v sea combinacion lineal de los otros
vectores de T , la redaccion se preciso diciendo que esto significa que v 2 K(T
{v}). Esta precision es necesaria para tomar en cuenta el caso extremo cuando T =
{0V } en el ejemplo siguiente:

Ejemplo 1.26. Si V es un K-espacio vectorial y T V es un subconjunto tal que


0V 2 T , entonces T es linealmente dependiente. En efecto, si T = {0V }, se tiene
que
0V 2 {0V } = K(0)
/ = K(T {0V }),
donde se uso la convencion de que K(0) / = {0V }. Si T 6= {0V }, entonces existe un
v 6= 0V en T y se tiene que 0V = 0 v es combinacion lineal de v 2 T {0V }.

2 En realidad, en lugar de decir que T es un subconjunto, deberamos decir que T es una lista de
vectores, porque pueden haber vectores repetidos en T . Cuando se trate del concepto de dependen-
cia lineal, asumiremos al decir conjunto que lo tenemos es una lista.
28 1 Espacios vectoriales

Ejemplo 1.27. En R2 el conjunto de vectores v1 = (1, 0), v2 = (0, 1), v3 = (3, 4) es


linealmente dependiente ya que

v3 = (3, 4) = 3(1, 0) + 4(0, 1) = 3v1 + 4v2 .

Ejemplo 1.28. En R2 el conjunto de vectores v1 = (1, 0), v2 = (0, 1), v3 = (3, 0) es


linealmente dependiente ya que

v3 = (3, 0) = 3(1, 0) + 0(0, 1) = 3v1 + 0v2 .

Note que aqu v2 = (0, 1) no es combinacion lineal de v1 y v3 ya que cualquier


combinacion de estos tiene la segunda coordenada igual a 0.

La proposicion siguiente nos da una caracterizacion muy util de los conjuntos


linealmente dependientes:
Proposicion 1.21. Sean V un K-espacio vectorial y T V un subconjunto. Las afir-
maciones siguientes son equivalentes:
(1) El conjunto T es linealmente dependiente.
(2) El vector 0V se puede expresar como combinacion lineal de algunos vectores
v1 , . . . , vn en T :
0V = a1 v1 + + an vn ,
con alguno de los escalares a j 6= 0 .
Nota: dado cualquier conjunto finito de vectores v1 , . . . , vn , el vector 0V siempre es
combinacion lineal de estos vectores ya que

() 0V = 0v1 + + 0vn ,

y decimos que la combinacion lineal (), donde todos los escalares son 0, es la
combinacion lineal obvia o trivial. Lo que la parte (2) de la proposicion pide es que
0V se pueda expresar como una combinacion lineal no trivial, es decir, que no todos
los coeficientes sean el escalar 0.

Demostracion. (1) ) (2): Si 0V 2 T , se tiene la combinacion lineal no trivial 0V =


1 0V con 0V 2 T . Si 0V 62 T , como T es linealmente dependiente, existe un v 6= 0V
en T que es combinacion lineal de los otros elementos de T , i.e., v 2 K(T {v}).
Note que K(T {v}) 6= {0V } ya que v 2 T K(T {v}). As, existen vectores
v1 , . . . , vm 2 T {v} tales que

v = a1 v1 + + am vm

y por lo tanto
0V = ( 1)v + a1 v1 + + am vm
es una combinacion lineal con el coeficiente 1 de v 2 T distinto de 0.
1.5 Dependencia e independencia lineal 29

(2) ) (1): Supongamos ahora que existen vectores v1 , . . . , vn 2 T y escalares a1 , . . .,


an en K no todos cero, tales que

() 0V = a1 v1 + + an vn .

Reordenando si hiciera falta, podemos suponer que a1 6= 0; multiplicando () por


a1 1 2 K se tiene que

0V = a1 1 0V = a1 1 (a1 v1 + + an vn )
= v1 + (a1 1 a2 )v2 + + (a1 1 an )vn

de donde, despejando,

v1 = ( a1 1 a2 )v2 + + ( a1 1 an )vn ,

es decir, v1 es combinacion lineal de v2 , . . . , vn 2 T {v1 }. t


u

Ejemplo 1.29. En R2 los vectores e1 = (1, 0) y e2 = (0, 1) no son linealmente de-


pendientes ya que si 0 = l1 e1 + l2 e2 , entonces

(0, 0) = l1 (1, 0) + l2 (0, 1) = (l1 , 0) + (0, l2 ) = (l1 , l2 )

y por lo tanto l1 = 0 y l2 = 0. Es decir, la unica combinacion lineal de e1 y e2 que


da el vector 0 es la combinacion lineal trivial.

Definicion 1.22. Sea V un K-espacio vectorial. Si T V es un subconjunto, diremos


que T es linealmente independiente si T no es linealmente dependiente. Tambien
diremos que los vectores de T son linealmente independientes.

En vista de la proposicion 1.21 la definicion anterior es equivalente a:


Corolario 1.23. Sea V un K-espacio vectorial. Si T V es un subconjunto, enton-
ces T es linealmente independiente si y solo si la unica representacion del vector
0V como combinacion lineal de elementos de T es la trivial, i.e., si

0V = a1 v1 + + an vn , con v j 2 T ,

entonces a1 = = an = 0. t
u
El ejemplo 1.29 nos dice que e1 y e2 son linealmente independientes en R2 .
Ejemplo 1.30. Sea V un K-espacio vectorial. Si v 2 V con v 6= 0V , entonces {v} es
linealmente independiente ya que si l v = 0V es cualquier combinacion lineal de v
que da el vector 0V , y si sucediera que l 6= 0, entonces multiplicando por l 1 2 K
se obtiene que
v = l 1 (l v) = l 1 0V = 0V ,
en contradiccion con v 6= 0V .
30 1 Espacios vectoriales

Ejemplo 1.31. Al conjunto vaco 0/ lo consideraremos linealmente independiente ya


que para que un conjunto sea linealmente dependiente tiene que tener vectores.

Ejemplo 1.32. En K[x] los vectores 1, x, x2 , . . . , xn son linealmente independientes,


ya que si

() a0 1 + a1 x + a2 x2 + + an xn = 0

es cualquier combinacion lineal de ellos que nos da el vector 0 2 K[x], como el vec-
tor 0 de K[x] es el polinomio cero y como en () a la izquierda se tiene el polinomio
a0 + a1 x + a2 x2 + + an xn , este es cero si y solo si todos sus coeficientes son 0,
i.e., a j = 0 para toda j y por lo tanto los vectores 1, x, x2 , . . . , xn son linealmente
independientes.

Las propiedades siguientes son inmediatas:


Proposicion 1.24. Sea V un K-espacio vectorial.
(1) Si T1 T2 V son subconjuntos y T1 es linealmente dependiente, entonces T2
tambien lo es.
(2) Si T1 T2 V son subconjuntos y T2 es linealmente independiente, entonces T1
tambien lo es.

Demostracion. (1): Como T1 es linealmente dependiente, el vector 0V se puede ex-


presar como

() 0V = a1 v1 + + an vn

con algun a j 6= 0 y los v j 2 T1 . Pero como T1 T2 , entonces los v j 2 T2 y as () nos


dice que T2 es linealmente dependiente. La parte (2) se sigue de (1). t
u

Ejercicio 1.33. Muestre que los vectores de R2 siguientes son linealmente indepen-
dientes:
(i) u = (1, 0), v = (1, 1).
(ii) u = (2, 1), v = (1, 0).
(iii) u = (1, 2), v = (1, 3).
(iv) u = (3, 1), v = (0, 2).

Ejercicio 1.34. Muestre que los vectores de R3 siguientes son linealmente indepen-
dientes:
(i) u = (1, 1, 1), v = (0, 1, 2).
(ii) u = ( 1, 1, 0), v = (0, 1, 2).
(iii) u = (1, 1, 0), v = (1, 1, 1), w = (0, 1, 1).
(iv) u = (0, 1, 0), v = (0, 2, 1), w = (1, 5, 3).

Ejercicio 1.35. Muestre que los vectores de R2 siguientes son linealmente depen-
dientes, expresando a v como combinacion lineal de a y b:
1.5 Dependencia e independencia lineal 31

(i) v = (1, 0); a = (1, 1), b = (0, 1).


(ii) v = (2, 1); a = (1, 0), b = (1, 1).
(iii) v = (1, 2); a = (2, 1), b = (1, 1).
(iv) v = (3, 4); a = (0, 12), b = (6, 0).

Ejercicio 1.36. Sea V = F(R, R) el R-espacio vectorial de funciones f : R ! R,


t 7! f (t). Muestre que los vectores siguientes son linealmente independientes:
(i) v = 1, w = t.
(ii) v = t, w = t 2 .
(iii) v = t, w = et .
(iv) v = sent, w = cost.
(v) v = sent, w = t.
(vi) v = sent, w = sen(2t).
(vii) v = cost, w = cos(3t).
(viii) v = t 2 , w = et .

Ejercicio 1.37. Sea V como en el ejercicio 1.36. Demuestre que las funciones

v1 = sent, v2 = sen(2t), v3 = sen(3t), . . . , vn = sen(nt)

son linealmente independientes, para cualquier natural n 2 N.

Ejercicio 1.38. Sea V cualquier K-espacio vectorial. Si u, v 2 V con v 6= 0V y si u, v


son linealmente dependientes, demuestre que existe un escalar l 2 K tal que u = l v.

Ejercicio 1.39. En el R-espacio vectorial P3 (R), determine si el polinomio f (x)


dado se puede expresar como combinacion lineal de g(x) y h(x):
(i) f (x) = x3 3x + 5; g(x) = x3 + 2x2 x + 1, h(x) = x3 + 3x2 1.
(ii) f (x) = 4x3 + 2x2 6; g(x) = x3 2x2 + 4x + 1, h(x) = 3x3 6x2 + x + 4.
(iii) f (x) = x3 + x2 + 2x + 13; g(x) = 2x3 3x2 + 4x + 1, h(x) = x3 x2 + 2x + 3.
(iv) f (x) = x3 8x2 + 4x; g(x) = x3 2x2 + 3x 1, h(x) = x3 2x + 3.

Ejercicio 1.40. Sea V un K-espacio vectorial y sea T V . Demuestre que T es


linealmente independiente si y solo si todo subconjunto de T es linealmente inde-
pendiente.

Ejercicio 1.41. Sea V = C (R, R) el conjunto de funciones f : R ! R tales que f es


diferenciable (i.e., para todo x 2 R, existen todas las derivadas f 0 (x), f 00 (x), f 000 (x),
. . . , f (k) (x), . . .). Muestre que V es un R-espacio vectorial. Si f (t) = ert y g(t) = est ,
con r 6= s en R, demuestre que { f , g} es linealmente independiente.

Ejercicio 1.42. Sea A = (ai j )nn una matriz cuadrada con entradas en un campo
K y suponga que A es una matriz triangular superior. Demuestre que los vectores
columna de A, vistos como vectores en K n , son linealmente independientes.
32 1 Espacios vectoriales

Ejercicio 1.43. Sea Pn (R) el R-espacio vectorial de polinomios de grado n con


coeficientes reales y sea f (x) 2 Pn (R) un polinomio de grado n. Demuestre que

f (x), f 0 (x), f 00 (x), . . . , f (n) (x)

generan Pn (R).

Ejercicio 1.44. Si V = K[x], sea S = { f1 , . . . , fn } V un conjunto de polinomios no


nulos tales que sus grados son distintos: gr( fi ) 6= gr( f j ) para toda i 6= j. Demuestre
que S es linealmente independiente.

1.6. Bases y dimension

Si V es un K-espacio vectorial, sabemos que siempre existe un subconjunto T


V que genera a V , a saber T = V , y sabiendo que T genera a V quisieramos encontrar
un subconjunto B T tal que B siga generando a V pero que B sea mnimo en el
sentido de que si le quitamos cualquier vector v 2 B, el conjunto B {v} ya no
genera a V . Segun lo que hemos estudiado en la seccion anterior, si T es linealmente
dependiente, le podemos quitar vectores y el conjunto que resulta sigue generando
a V . El lema siguiente captura lo que esta detras de las observaciones anteriores:
Lema 1.25. Sea V un K-espacio vectorial. Si B V es un subconjunto mnimo de
generadores de V , entonces B es linealmente independiente.

Demostracion. Si B fuera linealmente dependiente, existira un vector v 2 B que


es combinacion lineal de los otros elementos de B, i.e., v 2 K(B {v}). Ahora,
como B {v} K(B {v}), entonces B K(B {v}) y como K(B) = V , entonces
K(B {v}) = V , es decir, B {v} genera a V , en contradiccion con la minimalidad
de B. t
u

Definicion 1.26. Si V es un K-espacio vectorial, una base de V es un subconjunto


B V tal que:
(i) B genera a V ,
(ii) B es linealmente independiente.

As, el lema 1.25 anterior nos dice que todo subconjunto mnimo de generadores
de V es una base. El recproco tambien es cierto:
Proposicion 1.27. Sean V un K-espacio vectorial y B V un subconjunto. Enton-
ces, B es subconjunto mnimo de generadores de V si y solo si B es base de V .

Demostracion. Para probar la implicacion faltante, supongamos que B es una base


de V pero que no es un subconjunto mnimo de generadores. Entonces, existe v 2 B
tal que B {v} genera a V y por lo tanto v 2 K(B {v}) = V y consecuentemente
B no sera linealmente independiente. Una contradiccion. t
u
1.6 Bases y dimension 33

En terminos de subconjuntos de vectores linealmente independientes de V , se


tiene una caracterizacion de bases analoga a la de la proposicion anterior, pero antes
necesitaremos un resultado preliminar:
Lema 1.28. Sean V un K-espacio vectorial y T V un subconjunto linealmente
independiente. Sea v 2 V T . Entonces, T [ {v} es linealmente dependiente si y
solo si v 2 K(T ).
Demostracion. Si T [ {v} es linealmente dependiente, entonces existen vectores
u1 , . . ., un en T [ {v} tales que

(1) a1 u1 + + an un = 0V

con algun coeficiente a j 6= 0. Como T es linealmente independiente, no puede su-


ceder que todos los vectores u j anteriores esten en T y por lo tanto alguno de ellos
debe ser v. Sin perder generalidad, supongamos que u1 = v. As, la igualdad (1) es:

(2) a1 v + a2 u2 + + an un = 0V ,

con algun a j 6= 0. De nuevo, no puede suceder que a1 = 0 ya que (2) implicara


entonces que u2 , . . . , un es linealmente dependiente, en contradiccion con el hecho
de que T es linealmente independiente. Se sigue que a1 6= 0 y as

v = a1 1 (a1 v) = a1 1 ( a2 u2 an un )
1 1
= ( a1 a2 )u2 + + ( a1 an )un

y por lo tanto v 2 K(T ). Recprocamente, si v 2 K(T ), como T = (T [ {v}) {v},


entonces T [ {v} es linealmente dependiente por la definicion 1.19. t
u
Supongamos ahora que B es una base de un espacio vectorial V ; entonces B es
un subconjunto maximo de vectores linealmente independientes de V (en el sentido
de que al agregarle cualquier otro vector de V a B, el conjunto resultante es lineal-
mente dependiente) ya que si v 2 V B, como v 2 V = K(B), el conjunto B [ {v} es
linealmente dependiente por el lema 1.28 anterior. El recproco tambien es cierto:
Proposicion 1.29. Sean V un K-espacio vectorial y B V un subconjunto. Enton-
ces, B es un subconjunto maximo linealmente independiente de V si y solo si B es
base de V .
Demostracion. Para probar la implicacion faltante, supongamos que B es maximo
linealmente independiente. Para probar que B es base solo falta probar que B genera
a V . Supongamos que esto es falso, es decir, que existe un vector v 2 V tal que
v 62 K(B). Entonces, el lema 1.28 implica que B [ {v} es linealmente independiente,
en contradiccion con la maximalidad de B. t
u
Espacios vectoriales de dimension finita. A pesar de que existen espacios vecto-
riales con bases infinitas, en este libro trataremos con mas detalle el caso de espacios
vectoriales con bases finitas y el teorema siguiente nos dice cuando existe una tal
base finita para ciertos espacios vectoriales.
34 1 Espacios vectoriales

Teorema 1.30. Si V es un K-espacio vectorial generado por un conjunto finito de


vectores T V , entonces algun subconjunto de T es una base de V y, por lo tanto,
V tiene una base finita.
Demostracion. Si T = 0/ o T = {0V }, entonces V = {0V } y el subconjunto 0/ T
es una base finita de V . Supongamos ahora que T contiene un vector distinto de 0V ,
digamos u1 6= 0V . Entonces, {u1 } es linealmente independiente. Si {u1 } es base de V
ya acabamos. Si {u1 } no es base de V , entonces existe un u2 2 T {u1 } tal que u2 no
es combinacion lineal de u1 y as {u1 , u2 } es linealmente independiente. Si es base
de V , ya acabamos. Si no lo es, procediendo inductivamente supongamos que B =
{u1 , . . . , un } T es linealmente independiente y que es maximo con esta propiedad,
es decir, para cualquier v 2 T B se tiene que B [ {v} es linealmente dependiente.
Mostraremos que B es base de V y para esto basta probar que B genera a V . Ahora,
como T genera a V , basta entonces mostrar que T K(B). Para esto, sea v 2 T . Si
v 2 B, entonces v 2 K(B). Si v 62 B, entonces por la hipotesis de maximalidad sobre
B se tiene que B [ {v} es linealmente dependiente y por el lema 1.28 esto implica
que v 2 K(B) como se quera. t
u
El teorema siguiente captura la propiedad mas importante de los espacios vecto-
riales que tienen una base finita:
Teorema 1.31. Sea V un K-espacio vectorial y supongamos que B = {v1 , . . . , vn }
es un subconjunto finito de V . Entonces, B es una base de V si y solo si cada vector
v 2 V se puede expresar en forma unica como combinacion lineal de los vectores
de B, i.e., existen escalares unicos l1 , . . . , ln en K tales que

() v = l1 v1 + + ln vn .

Demostracion. Si B es base de V y v 2 V , como B genera a V , entonces v es com-


binacion lineal de los elementos de B, digamos

(1) v = l1 v1 + + ln vn .

Supongamos que

(2) v = g1 v1 + + gn vn

es otra expresion de v en terminos de B, con los g j 2 K. Restando (1) y (2) se


obtiene:

() 0V = (l1 g1 )v1 + + (ln gn )vn

y como los vectores v1 , . . . , vn son linealmente independientes, la igualdad () im-


plica que l j g j = 0 para toda j , y por lo tanto l j = g j , para toda j; es decir, la
expresion () para v es unica.
Recprocamente, si cada v 2 V se puede expresar en forma unica de la forma (),
entonces B genera a V y solo falta probar que B es linealmente independiente. Pero
esto es directo ya que si
1.6 Bases y dimension 35

(3) 0V = l1 v1 + + ln vn

con los l j 2 K, como

(4) 0V = 0v1 + + 0vn ,

la unicidad de la expresion de 0V como combinacion lineal de los v j , implica que


los escalares en (3) y (4) son iguales, i.e., l j = 0 para toda j, y por lo tanto v1 , . . . , vn
son linealmente independientes. t
u

El teorema 1.30 nos dice que todo espacio vectorial con un conjunto finito de ge-
neradores (a veces decimos, finitamente generado para indicar lo anterior), tiene una
base finita. A continuacion probaremos uno de los resultados mas importantes de la
teora que estamos desarrollando: todas las bases de un espacio vectorial finitamen-
te generado tienen el mismo numero de elementos. La demostracion esencialmente
considera dos bases del espacio dado y reemplaza los vectores de una base con los
de la otra. Para ver como se hace esto necesitaremos el lema siguiente, cuyo nombre
proviene del metodo en su demostracion:
Lema 1.32 (Lema de reemplazamiento). Sea V un K-espacio vectorial generado
por un conjunto finito de vectores v1 , . . . , vn . Supongamos que w1 , . . . , wm son m
vectores de V con m > n. Entonces, los vectores w1 , . . . , wm son linealmente depen-
dientes. Equivalentemente, si w1 , . . . , wm son linealmente independientes, entonces
m n.

Demostracion. Supongamos que w1 , . . . , wm son linealmente independientes. Como


v1 , . . . , vn generan V , para el vector w1 2 V existen escalares a1 , . . . , an en K tales que

(1) w1 = a1 v1 + + an vn .

Ahora, como estamos asumiendo que los w j son linealmente independientes, en-
tonces w1 6= 0V y as en (1) algun ai 6= 0. Renumerando si hiciera falta podemos
suponer que a1 6= 0 y as podemos despejar v1 de (1) para obtener:

v1 = a1 1 w1 a1 1 a2 v2 a1 1 an vn ,

por lo que v1 2 K(w1 , v2 , . . . , vn ) y as

V = K(v1 , v2 , . . . , vn ) K(w1 , v2 , . . . , vn ) V

y consecuentemente V = K(w1 , v2 , . . . , vn ), es decir, ya reemplazamos a v1 por w1


en un conjunto de generadores de V . La idea es continuar inductivamente el proceso
anterior hasta reemplazar todos los vectores v1 , v2 , . . . , vn por vectores w1 , . . . , wn de
tal forma que {w1 , . . . , wn } todava genere a V . La base de la induccion es la subs-
titucion de v1 por w1 que hicimos antes. Supongamos ahora que ya reemplazamos
k vectores de {v1 , . . . , vn } por k vectores de {w1 , . . . , wn } con 1 k < n. Renume-
rando si hiciera falta podemos pensar que reemplazamos v1 , . . . , vk por w1 , . . . , wk de
tal forma que {w1 , . . . , wk , vk+1 , . . . , vn } genera V . Entonces, para el vector wk+1 2 V
36 1 Espacios vectoriales

existen escalares b1 , . . . , bk , ck+1 , . . . , cn en K tales que

(2) wk+1 = b1 w1 + + bk wk + ck+1 vk+1 + + cn vn .

Observe ahora que en (2) no se puede tener que todos los c j = 0, ya que si esto
sucediera (2) dira que w1 , . . . , wk , wk+1 son linealmente dependientes (el coeficiente
de wk+1 es 1 6= 0), en contradiccion con la suposicion inicial de que los wi son
linealmente independientes. Se sigue que algun ci 6= 0. Renumerando si hiciera falta
podemos suponer que ck+1 6= 0 y as se puede despejar a vk+1 de (2) para obtener
vk+1 como combinacion lineal de w1 , . . . , wk , wk+1 , vk+2 , . . . , vn , i.e.,

vk+1 2 K(w1 , . . . , wk+1 , vk+2 , . . . , vn ),

y como, por hipotesis de induccion K(w1 , . . . , wk , vk+1 , vk+2 , . . . , vn ) = V , se sigue


que w1 , . . . , wk+1 , vk+2 , . . . , vn genera V . As, ya reemplazamos a vk+1 por wk+1 . Por
induccion se sigue que podemos reemplazar a todos los v1 , . . . , vn por w1 , . . . , wn de
tal forma que w1 , . . . , wn todava genere a V . Finalmente, si sucediera que m > n,
entonces wm 2 K(w1 , . . . , wn ) se puede escribir como

w = a1 w1 + + an wn

con los a j 2 K, y por lo tanto {w1 , . . . , wn , . . . , wm } sera linealmente dependiente.


t
u
La consecuencia mas importante del lema de reemplazamiento 1.32 es:
Teorema 1.33. Sea V un K-espacio vectorial finitamente generado y supongamos
que A = {v1 , . . . , vn } y B = {w1 , . . . , wm } son bases de V . Entonces, m = n.
Demostracion. Como A genera V y como B es linealmente independiente, el lema
1.32 dice que m n. Cambiando los papeles de A y B se sigue que n m y por lo
tanto m = n. t
u
Gracias a este teorema tiene sentido la definicion siguiente:
Definicion 1.34. Sea V un K-espacio vectorial y supongamos que B = {v1 , . . . , vn }
es una base de V . Por el teorema 1.33 anterior el numero n esta unvocamente de-
terminado por V . Al numero n de vectores en cualquier base de V se le llama la
dimension del espacio vectorial V y se denota n = dimK (V ). Tambien decimos que
V es un K-espacio vectorial de dimension finita n.
Ejemplo 1.33. Si V = K n , entonces dimK (K n ) = n. En efecto, solo tenemos que
mostrar una base de K n con n vectores. Para esto, pongamos

e1 = (1, 0, . . . , 0); e2 = (0, 1, 0, . . . , 0); . . . ; en = (0, . . . , 0, 1)

en K n . Entonces,
(i) Los vectores e1 , . . . , en generan K n ya que si v = (a1 , . . . , an ) es cualquier vector
de K n , se tiene que
1.6 Bases y dimension 37

v = (a1 , . . . , an ) = (a1 , 0, . . . , 0) + + (0, . . . , 0, an )


= a1 (1, 0, . . . , 0) + + an (0, . . . , 0, 1)
= a1 e1 + + an en .

(ii) Los vectores e1 , . . . , en son linealmente independientes ya que si a1 , . . . , an son


escalares tales que

0 = (0, . . . , 0) = a1 e1 + + an en
= (a1 , 0, . . . , 0) + + (0, . . . , 0, an )
= (a1 , . . . , an ),

entonces a1 = 0, a2 = 0, . . . , an = 0, por definicion de igualdad de vectores en K n .


A la base {e1 , . . . , en } de K n algunas veces se le llama la base canonica de K n .
Corolario 1.35. Sea V un K-espacio vectorial de dimension finita n. Entonces, cual-
quier conjunto de vectores linealmente independientes de V tiene cardinal n.
Demostracion. Sea B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wm son vectores li-
nealmente independientes, por el lema de reemplazamiento 1.32 se tiene que m n.
t
u
Corolario 1.36. Sea V un K-espacio vectorial de dimension finita n. Entonces, cual-
quier conjunto de generadores de V tiene cardinal n.
Demostracion. Sea B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wm generan V , por el
lema de reemplazamiento 1.32 cambiando los papeles de los vi y los w j , como los
vi son linealmente independientes, se debe tener que n m. t
u
Corolario 1.37. Sea V un K-espacio vectorial de dimension finita n. Entonces, cual-
quier conjunto de n vectores linealmente independientes de V es una base de V .
Demostracion. Sea B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wn son n vectores li-
nealmente independientes, por el lema de reemplazamiento 1.32 podemos substituir
los vectores vi por los vectores wi de tal forma que los wi generan V . Como los wi
son linealmente independientes y ya vimos que generan V , entonces son una base
de V . t
u
Corolario 1.38. Sea V un K-espacio vectorial de dimension finita n. Entonces, cual-
quier conjunto de n generadores de V es una base de V .
Demostracion. Si w1 , . . . , wn son n generadores de V , queremos probar que son li-
nealmente independientes. Si esto no fuera as, entonces algun vector wi depen-
dera linealmente de los otros; renumerando si hiciera falta podemos suponer que
wn 2 K(w1 , . . . , wn 1 ) y por lo tanto w1 , . . . , wn 1 generan V , en contradiccion con
el corolario 1.36. t
u
Corolario 1.39. Sea V un K-espacio vectorial de dimension finita n. Entonces, cual-
quier conjunto de vectores linealmente independientes de V se puede extender a una
base de V .
38 1 Espacios vectoriales

Demostracion. Sean v1 , . . . , vk vectores linealmente independientes de V . Por el


corolario 1.35, k n. Si sucediera que k < n, por el corolario 1.36 los vectores
v1 , . . . , vk no generan a V . As, existe un vk+1 2 V tal que vk+1 62 K(v1 , . . . , vk ). Por
el lema 1.28 esto es equivalente a que {v1 , . . . , vk , vk+1 } es linealmente independien-
te. Si k + 1 < n, repetimos el argumento; por induccion obtenemos de esta manera n
vectores linealmente independientes v1 , . . . , vk , vk+1 , . . . , vn en V , y por el corolario
1.37 esta debe ser una base de V . t
u

La dimension de subespacios. Que la dimension es una medida de los espacios


vectoriales, lo confirma el corolario siguiente:
Corolario 1.40. Sea W un subespacio de un K-espacio vectorial V de dimension
finita. Entonces, W tiene dimension finita y ademas

dimK (W ) dimK (V ).

Mas aun, si W V y dimK (W ) = dimK (V ), entonces W = V .

Demostracion. Pongamos n = dimK (V ). Si W = {0V }, entonces W tiene dimension


finita dimK (W ) = 0 n = dimK (V ). Si W 6= {0V }, entonces existe un w1 6= 0V en
W y {w1 } es linealmente independiente. Continuando de esta manera, encontramos
vectores linealmente independientes w1 , . . . , wk en W . Ahora, como W V , estos
vectores linealmente independientes estan en V , y como dimK (V ) = n, entonces
k n por el corolario 1.35. Por lo tanto, el proceso anterior de construir vectores
linealmente independientes w1 , . . . , wk en W debe parar en un punto k n cuando al
anadir cualquier otro vector w de W al conjunto {w1 , . . . , wk }, el conjunto resultante
{w1 , . . . , wk , w} es linealmente dependiente. Por el lema de reemplazamiento 1.32 se
sigue que {w1 , . . . , wk } genera a W y as dimK (W ) = k n = dimK (V ). Finalmente,
si dimK (W ) = dimK (V ), entonces una base de W es una base de V y as W = V . t u

Bases de sumas directas. Dado un K-espacio vectorial de dimension finita V y


un subespacio vectorial U V , mostraremos a continuacion que V se descompone
como V = U W , para algun subespacio W de V y luego calcularemos la dimension
de V en terminos de las dimensiones de U y W .
Proposicion 1.41. Sea V un K-espacio vectorial de dimension finita n y sea U un
subespacio vectorial de V . Entonces, existe un subespacio vectorial W de V tal que
V = U W.

Demostracion. Escojamos una base {v1 , . . . , vk } de U. Por el corolario 1.39 este


conjunto se puede extender a una base de V , digamos {v1 , . . . , vk , vk+1 , . . . , vn }. En-
tonces, el subespacio W = K(vk+1 , . . . , vn ) V satisface que:
(i) V = U +W ya que si v 2 V , como v1 , . . . , vn es base de V , entonces

v = a1 v1 + + ak vk + ak+1 vk+1 + + an vn
= (a1 v1 + + ak vk ) + (ak+1 vk+1 + + an vn ),

con a1 v1 + + ak vk 2 U y ak+1 vk+1 + + an vn 2 W .


1.6 Bases y dimension 39

(ii) U \W = {0V } ya que si v 2 U \W , entonces

v 2 U ) v = l1 v1 + + lk vk
v 2 W ) v = lk+1 vk+1 + + ln vn

y restando,
0V = l1 v1 + + lk vk lk+1 vk+1 + ln vn
y como {v1 , . . . , vn } es base de V , la igualdad anterior implica que todos los li = 0
y por lo tanto v = 0V . t
u

Proposicion 1.42. Sea V un K-espacio vectorial de dimension finita y supongamos


que V = U W , con U, W subespacios vectoriales de V . Entonces,

dimK (V ) = dimK (U) + dimK (W ).

Demostracion. Sean A = {u1 , . . . , uk } una base de U y B = {w1 , . . . , wr } una base


de W . Entonces, A [ B es una base de V ya que:
(1). A[B genera V , porque si v 2 V , como V = U W , entonces existen u 2 U y w 2
W tales que v = u + w. Ahora, como A es base de U, entonces u = a1 u1 + + ak uk .
Similarmente, como B es base de W , entonces w = b1 w1 + + br wr . Se sigue que

v = u + w = a1 u1 + + ak uk + b1 w1 + + br wr .

(2). A [ B es linealmente independiente, porque si

0V = a1 u1 + + ak uk + b1 w1 + + br wr ,

entonces

0V = 0V + 0V
= (a1 u1 + + ak uk ) + (b1 w1 + + br wr ),

y por la unicidad de la expresion de 0V , se tiene que

0V = a1 u1 + + ak uk en U
0V = b1 w1 + + br wr , en W

y como A es base de U, la primera igualdad implica que a1 = = ak = 0 y, analo-


gamente, la segunda igualdad implica que b1 = = br = 0. t
u

Bases de espacios vectoriales de dimension infinita. Cuando demostramos en el


teorema 1.30 que todo espacio vectorial finitamente generado tiene una base, la
herramienta fundamental fue el principio de induccion matematica. Para espacios
vectoriales que no son finitamente generados ya no podemos usar induccion en la
forma anterior y el resultado matematico de la teora de conjuntos que necesitaremos
es una reformulacion del axioma de eleccion y para enunciarlo recordaremos los
40 1 Espacios vectoriales

conceptos necesarios: un conjunto F se dice que es parcialmente ordenado, o que


tiene un orden parcial, si se tiene una relacion en F tal que
(i) es reflexiva, i.e., x x para todo x 2 F.
(ii) es transitiva, i.e., x y y y z implican x z.
(iii) Si x y y y x, entonces x = y.
El orden parcial se llama un orden total, y el conjunto F se llamara entonces
un conjunto totalmente ordenado o una cadena, si ademas satisface que
(iv) para todos x, y 2 F, x y o y x.
Dado un conjunto parcialmente ordenado (F, ), un elemento w 2 F se llama un
elemento maximo si no existe x 2 F, x 6= w tal que w x.
Ejemplo 1.34. El ejemplo que nos importa es el orden dado por la inclusion en la
familia F de subconjuntos de un conjunto F dado, es decir, si A, B 2 F diremos que
A B si A B. Claramente este es un orden parcial en F y no es un orden total
porque no siempre se tiene que A B o B A.
El lema de Zorn, un resultado de la teora de conjuntos, es equivalente al axioma
de eleccion, y dice:
Lema de Zorn. Sea (F, ) un conjunto parcialmente ordenado y supongamos que
toda cadena C F tiene una cota superior en F (i.e., existe c 2 F tal que u c para
toda u 2 C), entonces F tiene al menos un elemento maximo.
Regresando ahora al estudio de espacios vectoriales, si V 6= 0 es un espacio vec-
torial no trivial, notamos que V tiene subconjuntos T linealmente independientes,
por ejemplo para u1 6= 0 en V el conjunto T = {u1 } es linealmente independiente.
Aceptando el lema de Zorn probaremos que todo subconjunto linealmente indepen-
diente T V se puede extender a una base de V :
Teorema 1.43. Sea V un K-espacio vectorial y T V un subconjunto linealmente
independiente. Entonces, existe un subconjunto maximo linealmente independiente
B V tal que T B.

Demostracion. Antes de comenzar la demostracion, note que, por la proposicion


1.29, B debe ser una base de V . Ahora, para demostrar el teorema, sea F la familia
de todos los subconjuntos linealmente independientes de V que contienen a T ; esta
familia es no vaca porque T 2 F. Ordenemos a F mediante la inclusion. Para mos-
trar que F contiene un elemento maximo, por el lema de Zorn debemos mostrar que
toda cadena C de FSesta acotada por un elemento de F y para probar esto, dada la
cadena C sea M := C2C C la union de los miembros de C. Mostraremos que M 2 F,
i.e., que M es linealmente independiente y que contiene a T . Note que la ultima par-
te es obvia porque T C para toda C 2 C y ademas C M. Para mostrar que M
es linealmente independiente, supongamos que v1 , . . . , vn 2 M y que los escalares
l1 , . . . , ln 2 K satisfacen que

() l1 v1 + + ln vn = 0.
1.6 Bases y dimension 41
S
Observe entonces que como cada vi 2 M = C2C C, entonces existen Ci 2 C tal
que vi 2 Ci y como C es una cadena, existe un Ck que contiene a todos los Ci para
1 i n y por lo tanto v1 , . . . , vn 2 Ck . Ahora, como Ck es linealmente independien-
te, la igualdad () implica que l1 = = ln = 0 y por lo tanto M es linealmente
independiente. t
u

Ejercicio 1.45. Sea V = R3 .


(i) Muestre que los vectores v1 = (2, 3, 5), v2 = (8, 12, 20), v3 = (1, 0, 2),
v4 = (0, 2, 1) generan R3 .
(ii) Aplique el metodo dado en la demostracion del teorema 1.29 para escoger una
base de R3 entre los vectores de (i).

Ejercicio 1.46. Sea V R3 el conjunto de vectores v = (x, y, z) que satisfacen la


ecuacion lineal x + y + z = 0.
(i) Muestre que V es un subespacio vectorial de R3 .
(ii) Encuentre una base de V y calcule su dimension.

Ejercicio 1.47. Cual es la dimension del espacio vectorial Mat22 (K)? De una ba-
se.

Ejercicio 1.48. Calcule la dimension de Matmn (K). De una base.

Ejercicio 1.49. Sea W = {A 2 Matnn (K); : A es diagonal}. Calcule la dimension


de W .

Ejercicio 1.50. Sea W el subespacio vectorial de matrices n n triangulares supe-


riores con entradas en un campo K. Calcule su dimension.

Ejercicio 1.51. Sea W = {A 2 Mat22 (K) : A es simetrica}. Calcule la dimension


de W .

Ejercicio 1.52. Sea W = {A 2 Matnn (K) : A es simetrica}. Calcule la dimension


de W .

Ejercicio 1.53. Sean V = Mat33 (K) y W = {A 2 V : Tr(A) = 0}. Calcule la di-


mension de W .

Ejercicio 1.54. Sea W R3 un subespacio vectorial. Cuales son las dimensiones


posibles de W ? Demuestre que las posibilidades para W son: W = {0}, W = R3 ,
W = L (una recta por el origen), W = P (un plano por el origen).

Ejercicio 1.55. Sea Pn (K) el espacio vectorial de polinomios de grado n con coe-
ficientes en un campo K. Calcule la dimension de Pn (K) y de una base.

Ejercicio 1.56. Sea V = Pn (R) y fije un real a 2 R.


(i) Demuestre que el conjunto W = { f 2 Pn (R) : f (a) = 0} es un subespacio
vectorial de V .
42 1 Espacios vectoriales

(ii) Calcule su dimension.

Ejercicio 1.57. Considere a Cn como un R-espacio vectorial. Calcule dimR (Cn ).


Explique.

Ejercicio 1.58. Una sucesion estrictamente creciente de subespacios vectoriales de


un K-espacio vectorial V
F0 F1 F2 Fn
se llama una bandera3 y el numero n se llama la longitud de la bandera. Una bandera
S
se dice que es maxima si F0 = {0}, i Fi = V y no se puede insertar un subespacio
entre cualesquiera dos Fi Fi+1 , es decir, si Fi M Fi+1 , entonces M = Fi o
M = Fi+1 , para cualquier subespacio M.
(i) Si {e1 , . . . , en } es una base de V , poniendo F0 = {0} y Fi := K(e1 , . . . , ei ) se
tiene una bandera de longitud n.
(ii) Demuestre que la dimension de V es igual a la longitud de cualquier bandera
maxima en V .

3 La bandera {0} {recta} {plano} corresponde al punto ({0}) donde se planta la bandera, el
asta (recta) y la tela (plano).
Captulo 2
Transformaciones lineales

Habiendo comenzado el estudio de los espacios vectoriales, es natural pensar


en compararlos. Para esto, como los espacios vectoriales son conjuntos, sabemos
que las funciones entre conjuntos son relaciones entre ellos y de alguna manera los
comparan. Ahora, los espacios vectoriales son conjuntos con una estructura adicio-
nal, a saber, sus elementos se pueden sumar y se pueden multiplicar por escalares
del campo dado. As, las funciones entre espacios vectoriales que nos interesan son
aquellas que preservan la estructura de espacio vectorial de los espacios involu-
crados; es decir, consideraremos funciones entre espacios vectoriales que respetan
la suma de vectores y el producto de un escalar por un vector. Estas funciones se
dice que son lineales y en este captulo comenzamos su estudio, mostrando sus pro-
piedades principales para culminar con la conexion entre funciones lineales entre
espacios vectoriales de dimension finita y matrices con entradas en el campo dado.

2.1. Transformaciones lineales

En esta seccion comenzamos el estudio de las funciones1 lineales entre espacios


vectoriales y de algunos subespacios vectoriales asociados a ellas. Varios ejemplos
ilustraran los conceptos y propiedades que veremos, en particular consideraremos
ejemplos importantes que provienen de la geometra de R2 , a saber, rotaciones,
reflexiones y proyecciones. Tambien veremos algunos ejemplos que nos provee el
calculo: derivacion e integracion son funciones lineales.
Definicion 2.1. Si V y W son dos K-espacios vectoriales, una transformacion lineal
entre V y W es una funcion T : V ! W que satisface:
(i) T (u + v) = T (u) + T (v), para cualesquiera u, v 2 V .
(ii) T (l v) = l T (v), para v 2 V y l 2 K.

1 Usaremos como sinonimos de funcion a las palabras aplicacion y transformacion.

43
44 2 Transformaciones lineales

Nota. Si T : V ! W es una transformacion lineal, algunas veces diremos que T :


V ! W es K-lineal, para enfatizar el papel del campo K en la definicion. Tambien
diremos que T es una aplicacion lineal o una funcion lineal.
Ejemplo 2.1. La funcion f : R ! R dada por f (x) := ax, para a 2 R un real fijo, es
una transformacion lineal.

Ejemplo 2.2. La funcion T : R2 ! R2 dada por T (x, y) := (2x + y, x 3y) es una


aplicacion lineal, ya que:
(i) Si u = (x, y) y v = (x0 , y0 ) son dos vectores de R2 , entonces u + v = (x + x0 , y +
y0 ) y as

T (u + v) = T (x + x0 , y + y0 ) = (2(x + x0 ) + (y + y0 ), (x + x0 ) 3(y + y0 ))
= ((2x + y) + (2x0 + y0 ), (x 3y) + (x0 3y0 ))
0 0 0 0
= (2x + y, x 3y) + (2x + y , x 3y )
0 0
= T (x, y) + T (x , y )
= T (u) + T (v).

(ii) Si l 2 R, entonces l u = (l x, l y) y as

T (l u) = T (l x, l y) = (2(l x) + l y, l x 3(l y))


= l (2x + y, x 3y)
= l T (x, y)
= l T (u).

Ejemplo 2.3. La funcion L : R3 ! R2 dada por T (x, y, z) := (x + z, y z) es una


transformacion lineal, ya que:
(i) Si u = (x, y, z) y v = (x0 , y0 , z0 ) son dos vectores de R3 , entonces u + v = (x +
x0 , y + y0 , z + z0 ) y as

T (u + v) = T (x + x0 , y + y0 , z + z0 ) = ((x + x0 ) + (z + z0 ), (y + y0 ) (z + z0 ))
0 0 0 0
= ((x + z) + (x + z ), (y z) + (y z ))
0 0 0 0
= (x + z, y z) + (x + z , y z)
0 0 0
= T (x, y, z) + T (x , y , z )
= T (u) + T (v).

(ii) Si l 2 R, entonces l u = (l x, l y, l z) y as

T (l u) = T (l x, l y, l z) = (l x + l z, l y l z)
= l (x + z, y z)
= l T (x, y, z)
= l T (u).
2.1 Transformaciones lineales 45

Ejemplo 2.4. Si V = R[x] es el R-espacio vectorial de polinomios con coeficientes


en R, recordemos del calculo que la derivada de un polinomio p(x) 2 R[x] es otro
polinomio p0 (x) 2 R[x]; as, si definimos la funcion

D : R[x] ! R[x] mediante D(p(x)) := p0 (x),

se tiene que D es una transformacion lineal ya que la derivada de una suma de


funciones es la suma de las derivadas y la derivada saca constantes.

Ejemplo 2.5. Sea V = C([0, 1], R) el R-espacio vectorial de funciones continuas del
intervalo [0, 1] a R. A cada funcion continua f 2 C([0, 1], R) le podemos asociar su
R
integral definida 01 f (x)dx 2 R y as tenemos una funcion
Z 1
I : C([0, 1], R) ! R dada por I( f (x)) := f (x)dx,
0

la cual es lineal, ya que la integral de una suma de funciones continuas es la suma


de las integrales y la integral saca constantes.

Ejemplo 2.6 (Rotaciones en R2 ). Si fijamos un angulo q 2 R, dado un vector arbi-


trario v = (a, b) 2 R2 , queremos obtener el vector Rq (v) que se obtiene rotando el
vector v alrededor del origen 0 de R2 el angulo q :

6 Rq (v)

* v
q
-
0

Para facilitar la geometra involucrada, pensemos que q es un angulo positivo


(medido en sentido contrario al de las manecillas de un reloj) y consideremos el
caso cuando el vector v = (a, b) esta en el primer cuadrante de R2 , como en la figura
anterior. El vector v = (a, b) determina el triangulo rectangulo de catetos a, b, y
denotamos su hipotenusa por h. Observe ahora que si f es el angulo que hace el
vector v con respecto al semieje horizontal positivo:
46 2 Transformaciones lineales

6
v
h *
b
f -
0 a

entonces
cos f = a/h y sen f = b/h,
por lo que
v = (a, b) = (h cos f , h sen f ).
Consideremos ahora al vector Rq (v) = (x, y) y pensemos ahora en las dos figuras
anteriores. La primera observacion es que en el triangulo rectangulo que forma el
vector Rq (v), los catetos son x e y, y la hipotenusa es la misma h que la del vector v.
Por eso decimos que las rotaciones son transformaciones rgidas, i.e., en particular
no cambian las longitudes. Luego observamos que el angulo que forma Rq (v) con
el semieje positivo X es q + f . Entonces, si Rq (v) = (x, y), sus componentes x, y
satisfacen que

x = h cos(q + f )
y = h sen(q + f ).

Recordemos ahora que

cos(q + f ) = cos q cos f sen q sen f


sen(q + f ) = sen q cos f + sen f cos q .

Entonces,

x = h cos(q + f ) = h cos q cos f h sen q sen f


y = h sen(q + f ) = h sen q cos f + h sen f cos q ,

y como a = h cos f y b = h sen f , substituyendo arriba obtenemos

x = a cos q b sen q
y = a sen q + b cos q ,

es decir, si v = (a, b) 2 R2 , entonces

Rq (v) = (a cos q b sen q , a sen q + b cos q )

define la funcion rotacion Rq : R2 ! R2 . Mostraremos que Rq es lineal:


2.1 Transformaciones lineales 47

Si u = (a, b) y v = (a0 , b0 ) son dos vectores de R2 , entonces

Rq (u + v) = Rq (a + a0 , b + b0 )
= ((a + a0 ) cos q (b + b0 ) sen q , (a + a0 ) sen q + (b + b0 ) cos q )
= (a cos q b sen q , a sen q + b cos q )
+ (a cos q
0
b0 sen q , a0 sen q + b0 cos q )
= Rq (u) + Rq (v).

Si u = (a, b) 2 R2 y l 2 R, entonces

Rq (l u) = Rq (l a, l b)
= ((l a) cos q (l b) sen q , (l a) sen q + (l b) cos q )
= l (a cos q b sen q , a sen q + b cos q )
= l Rq (u).

Ejemplo 2.7 (Reflexiones en R2 ). Si v = (a, b) 2 R2 , el vector (a, b) se obtiene a


partir de v reflejandolo con respecto al eje X:

6
(a, b)
*
b
f - X
HH f
0 H b
HH
j
H
(a, b)

y se tiene as una funcion T : R2 ! R2 dada por T (a, b) = (a, b), a la cual se


le llama la reflexion con respecto al eje X. Similarmente se tiene la reflexion con
respecto al eje Y . Cada una de estas reflexiones es una transformacion lineal, como
el lector puede verificar facilmente.
Ejemplo 2.8 (Proyecciones de R2 ). Si v = (x, y) 2 R2 , la funcion prX : R2 ! R dada
por prX (x, y) = x, se llama la proyeccion sobre el eje X:

6
v = (x, y)
*

- - X
0 x
48 2 Transformaciones lineales

Similarmente, la funcion prY : R2 ! R dada por prY (x, y) = y, se llama la proyec-


cion sobre el eje Y . Las dos proyecciones anteriores son transformaciones lineales
como se puede verificar facilmente.

Ejemplo 2.9 (Proyecciones de R3 ). En forma analoga al ejemplo anterior, se tienen


las proyecciones
prX , prY , prZ : R3 ! R
dadas por
prX (x, y, z) = x, prY (x, y, z) = y, prZ (x, y, z) = z.
Ademas tambien se tienen las funciones que proyectan un vector sobre uno de
los planos coordenados, por ejemplo, la proyeccion sobre el plano XY :

prXY : R3 ! R2 dada por prXY (x, y, z) = (x, y)

proyecta el vector v = (x, y, z) sobre su sombra en el plano XY al cual indentificamos


con el espacio vectorial R2 :

Z 6

v = (x, y, z)
1

- Y
PP
PPq
prXY (v) = (x, y)

Similarmente se tienen las otras dos proyecciones sobre los planos coordenados
XZ y Y Z:
prXZ : R3 ! R2 dada por prXZ (x, y, z) = (x, z)
y
prY Z : R3 ! R2 dada por prY Z (x, y, z) = (y, z).
Se demuestra facilmente que todas estas proyecciones son funciones lineales.

Ejemplo 2.10. La funcion traza, Tr : Matnn (K) ! K dada por


n
Tr(ai j ) = aii ,
i=1

es una transformacion lineal.

Ejemplo 2.11. La funcion transposicion, t : Matmn (K) ! Matnm (K) dada por
t(A) = AT , tambien es una transformacion lineal.
2.1 Transformaciones lineales 49

Ya para finalizar nuestra lista de ejemplos, se tienen dos transformaciones linea-


les que estan presentes siempre:
Ejemplo 2.12. Si V es cualquier K-espacio vectorial, la funcion identidad idV : V !
V dada por idV (v) = v, es lineal.
Ejemplo 2.13. Si V y W son dos K-espacios vectoriales cualesquiera, la funcion cero
0 : V ! W dada por 0(v) = 0W , es decir, manda todos los vectores de V al vector
0W de W , tambien es lineal.
Hemos definido las transformaciones lineales como funciones T : V ! W en-
tre espacios vectoriales que preservan sus operaciones. Las propiedades siguientes
deben ser entonces naturales:
Proposicion 2.2. Sea T : V ! W una transformacion K-lineal. Entonces
(1) T (0V ) = 0W , donde 0V y 0W son los neutros aditivos de V y W , respectiva-
mente.
(2) T ( v) = T (v), para todo v 2 V .
(3) T (au + bv) = aT (u) + bT (v), para u, v 2 V y a, b 2 K.
Demostracion. (1): T (0V ) = T (0V + 0V ) = T (0V ) + T (0V ), ya que 0V es neutro y
T es lineal. La igualdad anterior y la ley de cancelacion implican que T (0V ) = 0W .
(2): T (v) + T ( v) = T (v v) = T (0V ) = 0W , la ultima igualdad por la parte (1).
La igualdad T (v) + T ( v) = 0W y la unicidad del inverso aditivo implican que
T ( v) = T (v).
(3): Si a, b 2 K y u, v 2 V , entonces por la aditividad de T se tiene la primera igualdad
en
T (au + bv) = T (au) + T (bv) = aT (u) + bT (v)
y la segunda igualdad porque T saca escalares. t
u
Proposicion 2.3. Si L : U ! V y T : V ! W son transformaciones K-lineales, en-
tonces la composicion T L : U ! W tambien es lineal.
Demostracion. (1): Sean u, v 2 U. Entonces,

(T L)(u + v) = T (L(u + v)) por definicion de composicion


= T (L(u) + L(v)) porque L es lineal
= T (L(u)) + T (L(v)) porque T es lineal
= (T L)(u) + (T L)(v) por definicion de composicion.

(2): Sean u 2 U y l 2 K. Entonces,

(T L)(l u) = T (L(l u)) por definicion de composicion


= T (l L(u)) porque L es lineal
= l T (L(u)) porque T es lineal
= l (T L)(u) por definicion de composicion.
50 2 Transformaciones lineales

t
u
Proposicion 2.4. Si T : V ! W es una transformacion lineal biyectiva, entonces la
funcion inversa T 1 : W ! V tambien es lineal.
Demostracion. (1): Sean u, v 2 W y sean u0 , v0 2 V tales que T (u0 ) = u y T (v0 ) = v.
Entonces, u + v = T (u0 ) + T (v0 ) = T (u0 + v0 ), ya que T es lineal. Se sigue que
1 1 1
T (u + v) = u0 + v0 = T (u) + T (v).

(2): Sean u 2 W y l 2 K. Sea u0 2 V tal que T (u0 ) = u. Entonces, l u = l T (u0 ) =


T (l u0 ), ya que T es lineal. Se sigue que
1 1
T (l u) = l u0 = l T (u).

t
u
Definicion 2.5. Si T : V ! W es una transformacion lineal biyectiva, diremos que
T es un isomorfismo de espacios vectoriales.
As, la proposicion 2.4 dice que la funcion inversa de un isomorfismo T : V ! W
es un isomorfismo tambien.
Ejemplo 2.14. Si V es cualquier K-espacio vectorial, la funcion identidad es un iso-
morfismo. En efecto, por el ejemplo 2.12, la identidad es lineal y es biyectiva.
Ejemplo 2.15. Sea T : Mat22 (R) ! R4 la funcion dada por

ab
T = (a, b, c, d).
cd

Entonces, T es un isomorfismo. Es claro que T es lineal. Para mostrar que T es


inyectiva, supongamos que
0 0
ab a b
T =T .
cd c0 d 0

Entonces, (a, b, c, d) = (a0 , b0 , c0 , d 0 ) y por lo tanto a = a0 , b = b0 , c = c0 , d = d 0 . Se


sigue que 0 0
ab a b
= .
cd c0 d 0
Para
mostrar
que T es suprayectiva, sea w = (a, b, c, d) 2 R4 . Entonces la matriz
ab
A= es tal que T (A) = w.
cd

Ejemplo 2.16. La funcion L : P2 (R) ! R3 dada por L(a0 + a1 x + a2 x2 ) = (a0 , a1 , a2 )


es un isomorfismo. Es claro que es lineal. Para ver que es inyectiva, supongamos que

L(a0 + a1 x + a2 x2 ) = L(a00 + a01 x + a02 x2 ).


2.1 Transformaciones lineales 51

Entonces, (a0 , a1 , a2 ) = (a00 , a01 , a02 ) y as ai = a0i , por lo que los polinomios corres-
pondientes son iguales. Que L es suprayectiva es porque si w = (a, b, c) 2 R3 , el
polinomio f (x) = a + bx + cx2 2 P2 (R) es tal que L( f (x)) = w.

La palabra isomorfismo, de las races griegas iso que significa igual y morfe que
significa forma, captura la propiedad de que una transformacion lineal biyectiva
entre dos espacios vectoriales identifica a estos dos espacios, tanto como conjuntos
(la biyectividad de la funcion) como con respecto a sus estructuras, identificando la
suma de un espacio con la suma en el otro, e identificando el producto de un escalar
en un espacio con el producto por un escalar en el otro. De alguna manera nos dice
que los dos espacios son el mismo, solo presentados de diferente manera o nombre.
En particular, en el caso de espacios vectoriales de dimension finita, esperamos que
los isomorfismos se comporten bien con respecto a las bases y a la dimension de los
espacios.

Proposicion 2.6. Sea T : V ! W una transformacion lineal inyectiva. Si v1 , . . . , vn


son vectores de V linealmente independientes, entonces T (v1 ), . . . , T (vn ) son vecto-
res de W linealmente independientes tambien.

Demostracion. Supongamos que se tiene una combinacion lineal

a1 T (v1 ) + + an T (vn ) = 0W .

Entonces, como T es lineal, T (a1 v1 + + an vn ) = 0W . Ahora, como T (0V ) = 0W


por la proposicion 2.2, entonces T (0V ) = T (a1 v1 + + an vn ), y como T es inyecti-
va, esto ultimo implica que a1 v1 + + an vn = 0V . Pero como v1 , . . . , vn son lineal-
mente independientes, entonces la combinacion lineal anterior implica que ai = 0
para todo i, y por lo tanto T (v1 ), . . . , T (vn ) son linealmente independientes. t
u

Una consecuencia inmediata es que los isomorfismos entre espacios vectoriales


de dimension finita preservan la dimension:
Teorema 2.7. Sea T : V ! W un isomorfismo entre espacios vectoriales de dimen-
sion finita. Entonces, dimV = dimW .

Demostracion. Sean m = dimV y n = dimW . Si {v1 , . . . , vm } es una base de V , co-


mo T es inyectiva la proposicion 2.6 anterior dice que T (v1 ), . . . , T (vm ) son vectores
de W linealmente independientes y por lo tanto m n por el corolario 1.35. Ahora,
como T 1 : W ! V tambien es un isomorfismo, si {w1 , . . . , wn } es una base de W ,
como T 1 es inyectiva la proposicion 2.6 dice que T 1 (w1 ), . . ., T 1 (wn ) son vec-
tores de V linealmente independientes y por lo tanto n m por el corolario 1.35. Se
sigue que m = n. t
u

Ejercicio 2.1. Sea f : V ! W una transformacion lineal entre dos K-espacios vec-
toriales. Si v1 , . . . , vn 2 V y l1 , . . . , ln 2 K, demuestre que

f (l1 v1 + + ln vn ) = l1 f (v1 ) + + ln f (vn ).


52 2 Transformaciones lineales

Ejercicio 2.2. Sea T : V ! W una funcion entre espacios vectoriales. Demuestre


que T es lineal si y solo si T (au + bv) = aT (u) + bT (v), para cualesquiera a, b 2 K
y u, v 2 V .
Ejercicio 2.3. Sean U,V,W tres K-espacios vectoriales y sean f : U ! W y g : V !
W dos transformaciones lineales. Considere los productos cartesianos U V y W
W . Defina la funcion T : U V ! W W mediante

T (u, v) := ( f (u), g(v)).

Demuestre que T es lineal.


Ejercicio 2.4. Sean U,V dos K-espacios vectoriales y defina las funciones

i1 : U ! U V dada por i1 (u) = (u, 0V )

e
i2 : V ! U V dada por i2 (v) = (0U , v).
Demuestre que ambas son lineales e inyectivas.
Ejercicio 2.5. Con la misma notacion del ejercicio anterior, defina las funciones

p1 : U V ! U dada por p1 (u, v) = u

y
p2 : U V ! V dada por p2 (u, v) = v.
Demuestre que son lineales y suprayectivas.
Ejercicio 2.6. Sea V un K-espacio vectorial de dimension finita y sea T : V ! V una
aplicacion lineal de V en s mismo. Considere la composicion de T consigo misma,
i.e., T 2 = T T : V ! V y sea idV : V ! V la identidad. Si T 2 = 0, demuestre que
la funcion diferencia idV T : V ! V es un isomorfismo.
Ejercicio 2.7. Si f : V ! W y g : W ! U son isomorfismos de K-espacios vecto-
riales, demuestre que la composicion g f : V ! U tambien es un isomorfismo, con
inversa
(g f ) 1 = f 1 g 1 : U ! V.
Ejercicio 2.8. Si g : R2 ! R2 es la funcion dada por g(x, y) = (x + y, x y). Muestre
que g es un isomorfismo.
Ejercicio 2.9. Si h : R2 ! R2 es la funcion dada por h(x, y) = (2x + y, 3x 5y).
Muestre que h es un isomorfismo.
Ejercicio 2.10. Si T : R3 ! R3 es la funcion dada por T (x, y, z) = (x y, x + z, x +
y + 2z). Muestre que T es un isomorfismo.
Ejercicio 2.11. Si L : R3 ! R3 es la funcion dada por L(x, y, z) = (2x y + z, x +
y, 3x + y + z). Muestre que L es un isomorfismo.
2.2 Nucleo e imagen de una transformacion lineal 53

Ejercicio 2.12. Demuestre que cualquier rotacion Rq : R2 ! R2 es un isomorfismo.


Cual es su inversa?

Ejercicio 2.13. Sea T : Mat22 (R) ! P3 (R) la funcion dada por



ab
T = a + bx + cx2 + dx3 .
cd

Demuestre que T es un isomorfismo.

Ejercicio 2.14. En general, si T : Matmn (R) ! Rmn es la funcion


0 1
a11 a12 a1n
B a21 a22 a2n C
B C
TB . C = (a11 , . . . , a1n , a21 , . . . , a2n , . . . , am1 , . . . , amn ).
@ .. A
am1 am2 amn

Demuestre que T es un isomorfismo.

Ejercicio 2.15. Sea T : Pn (K) ! K n+1 la funcion

T (a0 + a1 x + + an xn ) := (a0 , a1 , . . . , an ).

Demuestre que T es un isomorfismo.

Ejercicio 2.16. Sea l 2 K un escalar 6= 0. Defina Tl : K n ! K n mediante Tl (x) :=


l x. Demuestre que Tl es un isomorfismo.

Ejercicio 2.17. Demuestre que todas las aplicaciones lineales T : R ! R son de la


forma T (x) = ax, para algun a 2 R. Cuales de ellas son isomorfismos?

2.2. Nucleo e imagen de una transformacion lineal

En esta seccion estudiamos unos subespacios asociados a una transformacion


lineal y usando estos subespacios derivamos algunas propiedades de la transforma-
cion lineal. La seccion culmina con una formula que relaciona la dimension de los
espacios asociados a una funcion lineal entre espacios de dimension finita.
Definicion 2.8. Sea T : V ! W una transformacion lineal. Se tienen los conjuntos
siguientes:
ker(T ) := {v 2 V : T (v) = 0W } V.
e
Im(T ) := {T (v) 2 W : v 2 V } W.
Al conjunto ker(T ) se le llama el nucleo de la transformacion lineal T y al con-
junto Im(T ) se le llama la imagen de la transformacion lineal T .
54 2 Transformaciones lineales

Proposicion 2.9. Sea T : V ! W una transformacion lineal. Entonces,


(1) ker(T ) es un subespacio vectorial de V .
(2) Im(T ) es un subespacio vectorial de W .

Demostracion. (1): 0V 2 ker(T ) ya que T (0V ) = 0W . Supongamos ahora que u, v 2


ker(T ); entonces T (u) = 0W = T (v) y as T (u + v) = T (u) + T (v) = 0W + 0W = 0W ,
i.e., u + v 2 ker(T ). Ahora, si u 2 ker(T ) y l 2 K, entonces T (u) = 0W y por lo tanto
T (l u) = l T (u) = l 0W = 0W y as l u 2 ker(T ).
(2): 0W 2 Im(T ) ya que 0W = T (0V ). Supongamos ahora que u, v 2 Im(T ); entonces
existen u0 , v0 2 V tales que T (u0 ) = u y T (v0 ) = v, y as T (u0 + v0 ) = T (u0 ) + T (v0 ) =
u + v, i.e., u + v 2 Im(T ). Ahora, si u 2 Im(T ) y l 2 K, entonces existe u0 2 V tal
que T (u0 ) = u y por lo tanto T (l u0 ) = l T (u0 ) = l u y as l u 2 Im(T ). t
u

Ejemplo 2.17. Si V = C ([0, 1], R) es el R-espacio vectorial de funciones diferen-


ciables en el intervalo [0, 1] y si D : V ! V es la derivada D( f ) = f 0 , el nucleo de D
es el subespacio de funciones constantes en [0, 1].

Ejemplo 2.18. Si T : R2 ! R2 es la tranformacion lineal T (x, y) = (3x + y, x 2y) el


nucleo de T es el subespacio de soluciones del sistema de ecuaciones homogeneo:

3x + y = 0
x 2y = 0.

Ejemplo 2.19. Si prXY : R3 ! R2 es la proyeccion prXY (x, y, z) = (x, y) su nucleo es

ker(prXY ) = {(0, 0, z) 2 R3 } = eje Z

y su imagen es todo R2 .

Por definicion de suprayectividad, T : V ! W es suprayectiva si y solo si Im(T ) =


W . Lo que es sorprendente es:
Proposicion 2.10. Sea T : V ! W una transformacion lineal. Entonces, T es inyec-
tiva si y solo si ker(T ) = {0V }.

Demostracion. Si T es inyectiva y v 2 ker(T ), entonces T (v) = 0W = T (0V ) y por la


inyectividad de T esto implica que v = 0V , i.e., ker(T ) = {0V }. Supongamos ahora
que ker(T ) = {0V } y sean u, v 2 V tales que T (u) = T (v). Entonces, T (u v) =
T (u) T (v) = 0W por lo que u v 2 ker(T ) = {0V } y as u v = 0V , i.e., u = v y
por lo tanto T es inyectiva. t
u

Para la imagen de una funcion lineal se tiene:


Proposicion 2.11. Sea T : V ! W una transformacion lineal. Si B = {v1 , . . . , vn } es
una base de V , entonces

Im T = K(T (v1 ), . . . , T (vn )).


2.2 Nucleo e imagen de una transformacion lineal 55

Demostracion. Claramente T (vi ) 2 Im T para cada i, y como Im T es un subespacio


vectorial, entonces Im T contiene a todas las combinaciones lineales de los T (vi )
y por lo tanto K(T (v1 ), . . . , T (vn )) Im T . Para la otra inclusion, si w 2 Im T , en-
tonces existe un v 2 V tal que w = T (v). Escribiendo a v en terminos de la base B,
v = a1 v1 + + an vn , se tiene que

w = T (v) = T (a1 v1 + + an vn )
= a1 T (v1 ) + + an T (vn ) 2 K(T (v1 ), . . . , T (vn )),

i.e., Im T K(T (v1 ), . . . , T (vn )). t


u

El resultado siguiente dice que una transformacion lineal entre espacios de di-
mension finita esta determinada por sus valores en cualquier base del dominio:
Teorema 2.12. Sean V y W dos K-espacios vectoriales, con V de dimension finita
y sea B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wn son elementos arbitrarios de
W , entonces existe una unica transformacion lineal tal que T (vi ) = wi , 1 i n.
Dicho en otras palabras:
(1) Cualquier funcion de la base B al espacio W se puede extender a una funcion
lineal T : V ! W .
(2) Si T, L : V ! W son dos funciones lineales tales que coinciden en la base B, i.e.,
T (vi ) = L(vi ), 1 i n, entonces T = L en todo V .

Demostracion. (1): Existencia. Por hipotesis se tiene una funcion T : B ! W dada


por T (vi ) = wi . Veremos que T se puede extender linealmente a todo V . En efecto,
sea v 2 V cualquier vector. Como B es base de V , existen escalares unicos a1 , . . . , an
en K tales que v = a1 v1 + +an vn . Se define entonces el vector T (v) 2 W mediante:

T (v) := a1 T (v1 ) + + an T (vn ),

i.e., la combinacion lineal dada por los vectores wi = T (vi ) 2 W usando los (unicos)
escalares ai provenientes de v. Mostraremos que T : V ! W es lineal.
(i) Si v = a1 v1 + + an vn y u = b1 v1 + + bn vn son dos vectores de V escritos en
terminos de la base B, entonces

v + u = (a1 + b1 )v1 + + (an + bn )vn

y as, por definicion de T , se tiene:

T (v + u) = (a1 + b1 )T (v1 ) + + (an + bn )T (vn )


= (a1 T (v1 ) + b1 T (v1 )) + + (an T (vn ) + bn T (vn ))
= (a1 T (v1 ) + + an T (vn )) + (b1 T (v1 ) + + bn T (vn ))
= T (v) + T (u).

(ii) Si v = a1 v1 + + an vn y l 2 K, entonces
56 2 Transformaciones lineales

l v = (l a1 )v1 + + (l an )vn

y as, por definicion de T , se tiene:

T (l v) = l (a1 )T (v1 ) + + (l an )T (vn )


= l (a1 T (v1 ) + + an T (vn ))
= l T (v).

(2): Unicidad. Supongamos que L : V ! W es otra transformacion lineal tal que


coincide con T cuando se restringe a B, i.e., L(vi ) = T (vi ) para toda i. Entonces,
para cualquier vector v 2 V , escribiendolo en terminos de la base de V , v = a1 v1 +
+ an vn , se tiene que

L(v) = L(a1 v1 + + an vn )
= a1 L(v1 ) + + an L(vn ))
= a1 T (v1 ) + + an T (vn )) porque L(vi ) = T (vi )
= T (a1 v1 + + an vn )
= T (v),

y por lo tanto L = T . t
u
El resultado siguiente relaciona las dimensiones del nucleo, imagen y dominio
de una transformacion lineal entre espacios de dimension finita:
Teorema 2.13. Sea T : V ! W una transformacion lineal entre espacios vectoriales
de dimension finita. Entonces,

() dimK (V ) = dimK (ker T ) + dimK (Im T ).

Demostracion. Si ker T = {0V }, entonces dim(ker T ) = 0 y T es inyectiva. Se sigue


que T : V ! Im T es un isomorfismo y por el teorema 2.7 se tiene que dim(V ) =
dim(Im T ), i.e., () es cierta en este caso.
Si ker T 6= {0V }, sea A = {u1 , . . . , uk } una base de ker T . Por el corolario 1.38
podemos extender A a una base de V , digamos {u1 , . . . , uk , uk+1 , . . . , un }, si dimV =
n. Mostraremos que R = {T (uk+1 ), . . . , T (un )} es una base de Im T .
(1) R genera, ya que por 2.11 T (u1 ), . . . , T (uk ), T (uk+1 ), . . . , T (un ) generan Im T y
como T (u1 ) = = T (uk ) = 0W , entonces T (uk+1 ), . . . , T (un ) generan Im T .
(1) R es linealmente independiente, ya que si

0W = ak+1 T (uk+1 ) + + an T (un ),

entonces 0W = T (ak+1 uk+1 + + an un ) porque T es lineal. Se tiene as que


ak+1 uk+1 + + an un 2 ker T . Ahora, como u1 , . . . , uk es base de ker T , entonces
existen escalares a1 , . . . , ak tales que

ak+1 uk+1 + + an un = a1 u1 + + ak uk .
2.2 Nucleo e imagen de una transformacion lineal 57

Se sigue que

( a1 )u1 + + ( ak )uk + ak+1 uk+1 + + an un = 0V

y como los u1 , . . . , un son linealmente independientes, la ultima igualdad implica que


todos los ai = 0; en particular ak+1 = = an = 0 y por lo tanto R es linealmente
independiente.
Hemos as mostrado que dim(Im T ) = n k, con n = dimV y k = dim(ker T ), es
decir, dimV = dim(ker T ) + dim(Im T ). t
u

El espacio vectorial de transformaciones lineales. Si V y W son dos K-espacios


vectoriales fijos, denotemos con Lin(V,W ) al conjunto2 de transformaciones linea-
les de V a W , es decir,

Lin(V,W ) := {T : V ! W : T es K-lineal}.

Mostraremos que Lin(V,W ) es un K-espacio vectorial con las operaciones definidas


como sigue:
Suma. Si L, T : V ! W son dos aplicaciones lineales, se define su suma L + T como
la funcion L + T : V ! W dada por

(L + T )(v) := L(v) + T (v),

usando en el lado derecho la suma de vectores en W .


Producto por un escalar. Si T 2 Lin(V,W ) y l 2 K, se define el producto l T como
la funcion l T : V ! W dada por

(l T )(v) := l T (v),

donde en el lado derecho se tiene el producto de un escalar por un vector en W .


Proposicion 2.14. Sean L, T : V ! W dos transformaciones lineales y l 2 K. En-
tonces, L + T : V ! W y l T : V ! W tambien son lineales.

Demostracion. Para L + T : V ! W :
(i) Si u, v 2 V , entonces

(L + T )(u + v) = L(u + v) + T (u + v) por definicion de L + T


= L(u) + L(v) + T (u) + T (v) porque L y T son lineales
= (L(u) + T (u)) + (L(v) + T (v))
= (L + T )(u) + (L + T )(v) por definicion de L + T .

2 Siguiendo alguna tradicion, usaremos la notacion Lin(V,W ) para denotar al conjunto (de hecho,
espacio vectorial, como se vio a continuacion) de transformaciones lineales de V a W , aun cuando
la notacion usual es la de HomK (V,W ) porque en el caso general a las transformaciones lineales se
les suele llamar homomorfismos, y retomaremos esta ultima notacion a partir de la seccion 10.6.
58 2 Transformaciones lineales

(ii) Si u 2 V y a 2 K, entonces

(L + T )(au) = L(au) + T (au) por definicion de L + T


= aL(u) + aT (u) porque L y T son lineales
= a(L(u) + T (u)))
= a(L + T )(u) por definicion de L + T .

Para l T : V ! W :
(i) Si u, v 2 V , entonces

(l T )(u + v) = l (T (u + v)) por definicion de l T


= l (T (u) + T (v)) porque T es lineal
= l (T (u)) + l (T (v))
= (l T )(u) + (l T )(v) por definicion de l T .

(ii) Si u 2 V y a 2 K, entonces

(l T )(au) = l (T (au)) por definicion de l T


= l (aT (u)) porque T es lineal
= (l a)(T (u))
= a(l (T (u))
= a(l T )(u) por definicion de l T .

t
u
Proposicion 2.15. Sean V y W dos K-espacios vectoriales. Entonces, con las ope-
raciones anteriores Lin(V,W ) es un K-espacio vectorial.
Demostracion. El neutro aditivo de Lin(V,W ) es la funcion 0 : V ! W que manda
todo al vector 0W y que es lineal por el ejemplo 2.13. La inversa aditiva de una
transformacion lineal T 2 Lin(V,W ) es la funcion T : V ! W dada por ( T )(v) :=
T (v), la cual es obviamente lineal. Todas las otras propiedades de espacio vectorial
se demuestran facilmente y se dejan como un ejercicio. t
u
Productos directos. Si V y W son dos K-espacios vectoriales, consideremos el pro-
ducto cartesiano V W de los conjuntos subyacentes. Es decir,

V W := {(v, w) : v 2 V, w 2 W }.

En el conjunto V W se definen las operaciones siguientes:


Suma. Si (v, w), (v0 , w0 ) son dos elementos de V W , se define

(v, w) + (v0 , w0 ) := (v + v0 , w + w0 )

observando que en el dado derecho, v + v0 2 V y w + w0 2 W , por lo que (v + v0 , w +


w0 ) 2 V W .
2.2 Nucleo e imagen de una transformacion lineal 59

Producto por un escalar. Si (v, w) 2 V W y l 2 K, se define

l (v, w) := (l v, l w),

observando que en el lado derecho, l v 2 V y l w 2 W , por lo que (l v, l w) 2 V W .


Se verifica facilmente que V W es un K-espacio vectorial, ejercicio 2.19, con neu-
tro aditivo el elemento (0V , 0W ) y si (v, w) 2 V W , su inverso aditivo es ( v, w).
Sumas directas y productos directos. En la seccion 1.3 hemos definido y estudia-
do la suma directa de dos subespacios vectoriales V y W de un espacio vectorial U.
Observamos ahora que en la definicion de producto directo solo requerimos que los
factores sean dos espacios vectoriales, no necesariamente subespacios de otro espa-
cio, por eso siempre se tiene definido el producto directo de dos espacios y la suma
directa no siempre esta definida ya que requiere que los espacios involucrados sean
subespacios de otro espacio. Que sucede si se tienen dos subespacios vectoriales
V,W U y consideramos su suma directa V W y su producto directo V W ?
Proposicion 2.16. Sean V , W subespacios de un K-espacio vectorial U tales que
V \W = {0U }. Entonces, la funcion natural

T : V W ! V W

dada por T (v, w) := v + w, es un isomorfismo.

Demostracion. (1): T es lineal ya que:


(i) Si (v, w), (v0 , w0 ) 2 V W , entonces (v, w) + (v0 , w0 ) = (v + v0 , w + w0 ) y as

T ((v, w) + (v0 , w0 )) = T (v + v0 , w + w0 ) = (v + v0 ) + (w + w0 )
= (v + w) + (v0 + w0 )
= T (v, w) + T (v0 , w0 ).

(ii) Si (v, w) 2 V W y l 2 K, entonces l (v, w) = (l v, l w) y as

T (l (v, w)) = T (l v, l w) = l v + l w
= l (v + w)
= l T (v, w).

(2) : T es inyectiva. Para probar esto, mostraremos que ker T = {(0U , 0U )}. Sea
(v, w) 2 ker T ; entonces T (v, w) = 0U y as, 0U = T (v, w) = v+w implica que v = w
y por lo tanto v, w 2 V \ W . Pero como V \ W = {0U }, entonces v = 0U = w, i.e.,
(v, w) = (0U , 0U ).
(3) : T es suprayectiva. Esto es claro que si v + w 2 V W , entonces v 2 V y w 2 W ,
por lo que (v, w) 2 V W satisface que T (v, w) = v + w. t
u

Ejercicio 2.18. Demuestre las propiedades faltantes para ver que Lin(V,W ) es un
K-espacio vectorial.
60 2 Transformaciones lineales

Ejercicio 2.19. Compruebe que V W es un K-espacio vectorial.

Ejercicio 2.20. Si V y W son K-espacios vectoriales de dimension finita, demuestre


que
dimK (V W ) = dimK (V ) + dimK (W ).

Ejercicio 2.21. Si f : V ! W es una aplicacion lineal inyectiva, demuestre que f :


V ! Im( f ) es un isomorfismo.

Ejercicio 2.22. Si f : V ! W es una transformacion lineal inyectiva y dimK (V ) =


dimK (W ) < , demuestre que f es un isomorfismo.

Ejercicio 2.23. Si V y W son espacios vectoriales de dimension finita, f : V ! W


es lineal y dimK (V ) > dimK (W ), demuestre que f no puede ser inyectiva.

Ejercicio 2.24. Si V y W son espacios vectoriales de dimension finita, f : V ! W


es lineal y dimK (V ) < dimK (W ), demuestre que f no puede ser suprayectiva.

Ejercicio 2.25. Si V y W son dos K-espacios vectoriales de dimension finita, tales


que dimK (V ) = dimK (W ), demuestre que V y W son isomorfos.

Ejercicio 2.26. Suponga que V y W son dos espacios vectoriales de dimension finita
y dimK V = dimK W . Si f : V ! W es lineal, demuestre que f es inyectiva si y solo
si f es suprayectiva.

Ejercicio 2.27. Sea V = C ([0, 1], R) el R-espacio vectorial de funciones dife-


renciables en [0, 1] y sea D : V ! V la operacion de derivacion D( f ) = f 0 . Si
T = D idV : V ! V , calcule su nucleo.

Ejercicio 2.28. Sea V como en el ejercicio anterior y fijemos un real l 2 R. Si


T = D l idV : V ! V , calcule su nucleo.

Ejercicio 2.29. Sea V = Matnn (K) y sea T : V ! V la funcion

1
T (A) = (A AT ).
2
(i) Calcule el nucleo de T .
(ii) Calcule dimK (ker T ).

Ejercicio 2.30. Sean U,W subespacios de V y sea T : U W ! V la funcion


T (u, w) = u w.
(i) Muestre que T es lineal.
(ii) Calcule el nucleo de T .
(iii) Calcule la imagen de T .

Ejercicio 2.31. Sea P : V ! V una transformacion lineal tal que P2 = P (donde


P2 := P P). Demuestre que V = ker P Im P. Sugerencia: si v 2 V , entonces v =
(v P(v)) + P(v).
2.3 Transformacion lineal asociada a una matriz 61

Ejercicio 2.32. Sean U,W subespacios de V y considere las funciones i1 : U !


U W e i2 : W ! U W dadas por i1 (u) = u = u + 0V e i2 (w) = w = 0V + w
y las funciones p1 : U W ! U y p2 : U W ! W dadas por p1 (u + w) = u y
p2 (u + w) = w. Claramente i1 e i2 son lineales e inyectivas.
(i) Muestre que p1 y p2 estan bien definidas, son lineales y suprayectivas.
(ii) Muestre que Im i1 = ker p1 e Im i2 = ker p2 .

2.3. Transformacion lineal asociada a una matriz

Si K es un campo y V y W son dos K-espacios vectoriales de dimensiones fini-


tas, digamos dimK (V ) = n y dimK (W ) = m, podemos en forma natural preguntarnos
cual sera la dimension del espacio vectorial Lin(V,W ) de transformaciones lineales
de V a W . En esta seccion comenzamos a estudiar este espacio vectorial, importante
porque incluye a todas las transformaciones lineales de V a W , para culminar en
la seccion siguiente donde mostramos que Lin(V,W ) es isomorfo al espacio vecto-
rial de matrices Matmn (K). Esto, de paso calcula la dimension de Lin(V,W ), pero
ademas nos dice concretamente quienes son sus elementos, las matrices m n con
entradas en el campo K, salvo la identificacion que hace el isomorfismo correspon-
diente. El objetivo de esta seccion es proveernos con una funcion de Matmn (K) a
Lin(V,W ), para dos espacios vectoriales de los cuales sabemos que tienen dimen-
siones n y m obviamente, a saber, K n y K m , y para esto, necesitaremos conocer una
nueva operacion con matrices que no hemos estudiado hasta ahora, el producto de
matrices. Comenzamos con esto.
Producto de matrices. Si K es un campo, ya vimos que el conjunto de matri-
ces Matmn (K) es un K-espacio vectorial. As, podemos sumar matrices (entrada
por entrada) y multiplicarlas por un escalar (entrada por entrada). En este punto,
podramos preguntarnos si habra una manera de multiplicar matrices que satisfaga
las propiedades que uno podra esperar. Para comenzar, es claro que deben haber
ciertas condiciones sobre las matrices para que las podamos multiplicar, por ejem-
plo, para sumar dos matrices requerimos que sean del mismo tamano m n para
que al sumarlas se pueda hacer entrada a entrada y se obtenga al final una matriz
del mismo tamano que las dadas. As, para multiplicar matrices uno inicialmente
pensara que las dos matrices deben ser del mismo tamano para poder multiplicarlas
entrada por entrada. Muchas propiedades algebraicas son validas con el producto
definido entrada a entrada, sin embargo, desde el punto de vista del desarrollo de
la matematica, este no es el producto de matrices que aparece naturalmente en va-
rios contextos de la matematica. Por ejemplo, si recordamos que las matrices estan
asociadas a sistemas de ecuaciones lineales, pensemos a estos sistemas como trans-
formaciones lineales como sigue: si L : R3 ! R2 es la transformacion lineal dada
por
L(x1 , x2 , x3 ) = (x1 + x3 , x1 + x2 + x3 )
y si T : R2 ! R2 es la transformacion lineal
62 2 Transformaciones lineales

T (y1 , y2 ) = (2y1 y2 , y1 + y2 ),

si denotamos con x = (x1 , x2 , x3 ) 2 R3 y y = (y1 , y2 ) 2 R2 , la funcion L : R3 ! R2


la podemos escribir como
x1 + x3 = y1
x1 + x2 + x3 = y2
y la matriz asociada a este sistema es:

101
B= .
111

Similarmente, escribiendo y = (y1 , y2 ) en el dominio y z = (z1 , z2 ) en el codominio,


la funcion T : R2 ! R2 esta dada por

2y1 y2 = z1
y1 + y2 = z2

cuya matriz asociada es:


2 1
A= .
1 1
Consideremos ahora la composicion T L : R3 ! R2 que esta dada por

(T L)(x1 , x2 , x3 ) = T (L((x1 , x2 , x3 )))


= T (x1 + x3 , x1 + x2 + x3 ) = T (y1 , y2 )
= (2(x1 + x3 ) (x1 + x2 + x3 ), (x1 + x3 )+(x1 + x2 + x3 ))
= (z1 , z2 ),

lo cual nos da el sistema de ecuaciones lineales


2(x1 + x3 ) (x1 + x2 + x3 ) = z1
(x1 + x3 ) + (x1 + x2 + x3 ) = z2

que simplicado es:


x1 x2 + x3 = z1
2x1 + x2 + 2x3 = z2
cuya matriz asociada es
1 11
C=
2 1 2
y es natural que uno quiera que C sea el producto de las matrices A y B, es decir,
C = AB. Lo primero que observamos es que A es 2 2, B es 2 3 y C es 2 3.
Luego, para ver como se obtiene C a partir de B y A, escribamos los sistemas de
ecuaciones anteriores en general:
() El sistema correspondiente a cualquier transformacion lineal L : R3 ! R2 es:
2.3 Transformacion lineal asociada a una matriz 63

a11 x1 + a12 x2 + a13 x3 = y1


a21 x1 + a22 x2 + a23 x3 = y2

con matriz asociada


a11 a12 a13
B= .
a21 a22 a23
() Similarmente, el sistema correspondiente a cualquier transformacion lineal T :
R2 ! R2 es:
b11 y1 + b12 y2 = z1
b21 y1 + b22 y2 = z2
con matriz asociada
b11 b12
A= .
b21 b22
() Entonces, la composicion T L : R3 ! R2 tiene el sistema:

b11 (a11 x1 + a12 x2 + a13 x3 ) + b12 (a21 x1 + a22 x2 + a23 x3 ) = z1


b21 (a11 x1 + a12 x2 + a13 x3 ) + b22 (a21 x1 + a22 x2 + a23 x3 ) = z2

que al simplificarlo nos da la matriz asociada



c11 c12 c13
C= ,
c21 c22 c23

donde, por ejemplo,

c11 = b11 a11 + b12 a21 + b21 a11 + b22 a21 ,

el cual vemos que involucra lasentradas


del primer renglon (b11 , b12 ) de A, y las
a11
entradas de la primera columna de B, y as podemos escribir
a21

a11
c11 = (b11 , b12 )
a21

donde el producto del renglon por la columna (que son del mismo tamano como
vectores, i.e., tienen el mismo numero de entradas) se hace componente a compo-
nente y luego se suman los resultados para obtener c11 . El lector puede verificar que
las otras entradas ci j de la matriz C = (ci j ) se obtienen de la misma manera, es decir,

ci j = (Renglon i de A) (Columna j de B)

donde en la derecha de la igualdad anterior se tienen vectores del mismo tamano (de
nuevo, pensandolos como vectores) y el producto quiere decir que es componente a
componente y luego se suman los resultados para obtener ci j . La condicion necesaria
para poder hacer el producto de matrices anterior es: el renglon i de A debe tener
64 2 Transformaciones lineales

el mismo tamano que la columna j de B. Estas observaciones se resumen en la


definicion siguiente:
Definicion 2.17. Si A = (ai j )mt y B = (bi j )tn son dos matrices con entradas en un
campo K y satisfacen que:

() numero de columnas de A = numero de renglones de B,

entonces se define el producto de matrices AB como la matriz C = (ci j )mn cuyas


entradas ci j estan dadas por la formula

() ci j = (Renglon i de A) (Columna j de B),

donde en la derecha de la igualdad anterior se tienen vectores del mismo tamano t


porque el numero de columnas de A nos da el numero de componentes de un renglon
de A y el numero de renglones de B nos el numero de componentes de una columna
de B. Por eso, al pedir la condicion () garantizamos que el producto componente a
componente en () se pueda hacer, para despues sumar los resultados para obtener
ci j . Explcitamente,
0 1
b1 j
B b2 j C t
B C
ci j = (ai1 , ai2 , . . . , ait ) B . C = ai1 b1 j + ai2 b2 j + + ait bt j = aik bk j .
@ .. A k=1
bt j

Observe que como A tiene m renglones y B tiene n columnas, hay mn posibilida-


des para las entradas ci j y por eso la matriz C = AB es de tamano m n.

Observacion 2.18. Si A es m t y B es r n, de acuerdo a la definicion anterior, el


producto AB se puede realizar si y solo si t = r.
Ejemplo 2.20. Para las matrices del ejemplo que nos sirvio de motivacion para defi-
nir el producto de matrices:

2 1 101
A= y B= ,
1 1 111

se tiene que

2 1 101 2(1) 1(1) 2(0) 1(1) 2(1) 1(1)
AB = =
1 1 111 1(1) + 1(1) 1(0) + 1(1) 1(1) + 1(1)

1 11
= = C.
2 1 2

Ejemplo 2.21. Multiplique las matrices


2.3 Transformacion lineal asociada a una matriz 65
01
3 2
B2 1 C 2 3 4
A=B
@0 1A
C y B= ,
1 25
1 4

se tiene que
0 1 0 1
3 2 3(2) + 2(1) 3(3) + 2( 2) 3(4) + 2(5)
B2 1 C 2 3 4 B 2(2) + 1(1) 2(3) + 1( 2) 2(4) + 1(5) C
AB = B C B
@ 0 1 A 1 2 5 = @ 0(2) 1(1) 0(3) 1(
C
2) 0(4) 1(5) A
1 4 1(2) + 4(1) 1(3) + 4( 2) 1(4) + 4(5)
0 1
8 5 22
B 5 4 13 C
=B@ 1 2 5 A.
C

6 5 24

Note que en el ejemplo anterior A es 4 2 y B es 2 3, por eso esta definido


el producto AB y es 4 3. Sin embargo, el producto BA no esta definido porque el
numero de columnas de B es 3 que no es igual al numero de renglones de A que
es 4. As, en este ejemplo ni siquiera tiene sentido preguntar si AB = BA. Veamos
algunos ejemplos donde esta pregunta tenga sentido:

2 1 0 1
Ejemplo 2.22. Sean A = yB= . Entonces,
0 1 2 3

2 1 0 1
AB = y BA = ,
2 3 4 5

por lo que AB 6= BA.



1 4 10
Ejemplo 2.23. Sean A = yB= . Entonces,
23 01

1 4
AB = = BA.
23

As, aun cuando AB y BA esten ambas definidas, puede suceder que AB 6= BA o que
AB = BA. Decimos que el producto de matrices, en general, no es conmutativo. Que
el producto s es asociativo, cuando este definido, es el contenido de la proposicion
siguiente:
Proposicion 2.19. Si A es m r, B es r t y C es t n, entonces AB es m t y
as (AB)C esta definida y es m n. Tambien BC es r n y as A(BC) esta definida y
es m n. Se tiene que
(AB)C = A(BC).

Demostracion. Pongamos A = (ai j ), B = (bi j ) y C = (ci j ). Entonces, el producto


AB = (di j ) esta dado por
66 2 Transformaciones lineales
r
di j = aik bk j
k=1

y as el producto (AB)C = (ei j ) esta dado por


!
t t r t r
ei j = di` c` j = aik bk` c` j = aik bk` c` j .
`=1 `=1 k=1 `=1 k=1

Por otra parte, si BC = ( fi j ) con


t
fi j = bi` c` j ,
`=1

entonces A(BC) = (gi j ) esta dada por


!
r r t r t
gi j = aik fk j = aik bk` c` j = aik bk` c` j .
k=1 k=1 `=1 k=1 `=1

Observamos entonces ei j = gi j , para toda i y toda j, por lo que (AB)C = A(BC). t


u

La propiedad distributiva del producto con respecto a la suma se obtiene de la


misma manera:
Proposicion 2.20. Si A es m t, B y C son t n, entonces B + C es t n y as A
(B +C) esta definida y es m n como lo son AB y AC. Ademas se tiene que

A(B +C) = AB + AC.

Demostracion. Pongamos A = (ai j ), B = (bi j ) y C = (ci j ). Entonces, B +C = (bi j +


ci j ) y as A(B +C) = (di j ) esta dada por
t t t
(1) di j = aik (bk j + ck j ) = aik bk j + aik ck j .
k=1 k=1 k=1

Por otra parte, AB = (ei j ) y AC = ( fi j ) estan dadas por


t t
ei j = aik bk j y fi j = aik ck j
k=1 k=1

y as AB + AC = (ei j + fi j ) donde
t t
(2) ei j + f i j = aik bk j + aik ck j .
k=1 k=1

Observando que (1) y (2) son iguales se sigue que A(B +C) = AB + AC. t
u
2.3 Transformacion lineal asociada a una matriz 67

La matriz transpuesta de un producto es el producto de las transpuestas en orden


inverso:
Proposicion 2.21. Si A es m t y B es t n, entonces BT es n t y AT es t m por
lo que BT AT esta definido y se tiene que

(AB)T = BT AT .

Demostracion. Pongamos A = (ai j ) y B = (bi j ). Entonces, AB = (ci j ) esta dada por


t
(1) ci j = aik bk j .
k=1

Ahora, si ponemos AT = (a0k j ) y BT = (b0ik ) con a0k j = a jk y b0ik = bki , entonces


BT AT = (di j ) esta dada por
t t
(2) di j = b0ik a0k j = bki a jk .
k=1 k=1

Finalmente, si (AB)T = (c0i j ) con c0i j = c ji , las igualdades (1) y (2) nos dicen que
c0i j = c ji = di j , es decir, (AB)T = BT AT . t
u
La matriz identidad. Para cada n 2 N la matriz In que tiene unos en la diagonal y
ceros en las otras entradas se llama la matriz identidad n n:
0 1
1 0 0
B 0 1 0 0 C
B C
In = B ... .. C .
B ..
. . C
B C
@ 0 0 1 0 A
0 0 0 1

La propiedad mas importante de las matrices Im es que son neutras para el pro-
ducto de matrices:
Proposicion 2.22. Si A 2 Matmn (K), entonces:
(1) A In = A.
(2) Im A = A.
Demostracion. (1): Pongamos A = (ai j ) e In = (di j ), donde

1 si i = j
di j =
0 si i 6= j.

Entonces, AIn = (ci j ) esta dada por


n
ci j = aik dk j ,
k=1
68 2 Transformaciones lineales

donde
ai j si k = j
aik dk j =
0 si k 6= j,
por la definicion de di j . Se sigue que
n
ci j = aik dk j = ai j
k=1

y por lo tanto AIn = A. El caso (2) es similar. t


u
Observe que, en la proposicion 2.22 anterior, en general tienen que usarse matri-
ces Im e In distintas a la izquierda y a la derecha de A porque A no tiene por que ser
cuadrada. Si la matriz A fuera cuadrada n n, entonces la proposicion 2.22 dira:

AIn = A = In A

y por lo tanto la matriz In funcionara como neutra multiplicativa a la izquierda y a


la derecha de A.
Matrices invertibles. Si A es una matriz cuadrada n n, diremos que A es una
matriz invertible si existe otra matriz B tal que

AB = In = BA.

Note que B debe ser entonces tambien nn. A la matriz B la llamaremos una inversa
de la matriz A.
Lema 2.23. Si A es una matriz n n invertible, entonces su inversa es unica.
A la unica inversa de A la denotaremos por A 1 .
Demostracion. Supongamos que B y C son matrices n n inversas de A. Entonces,
AC = In = BA y as B = BIn = B(AC) = (BA)C = InC = C. t
u
Ejercicio 2.33. Suponga que A, B 2 Matnn (K) son matrices invertibles. Demuestre
que AB es invertible.
Ejercicio 2.34. Si A es una matriz diagonal n n:
0 1
a11 0 0
B 0 a22 0 0 C
B C
B .. . .. ..C
A=B . .C
B C
@ 0 0 an 1,n 1 0 A
0 0 ann

y ademas aii 6= 0 para toda i = 1, . . . , n, demuestre que A es invertible. Cual es su


inversa?
Ejercicio 2.35. Suponga que A es una matriz cuadrada invertible. Demuestre que su
transpuesta tambien es invertible y ademas
2.3 Transformacion lineal asociada a una matriz 69

(A 1 )T = (AT ) 1 .

Ejercicio 2.36. Si A 2 Matnn (K) es una matriz cuadrada, entonces

A2 = A A tambien es n n,

A3 = A2 A tambien es n n,
y, usando induccion se define

An = An 1
A que tambien es n n

y, por convencion, se pone A0 = In . Demuestre la regla de los exponentes:

Ar+t = Ar At , r,t 0 enteros.

Sugerencia: fije el entero r y haga induccion sobre t.

Ejercicio 2.37. Si A, B 2 Matnn (K) y ademas AB = BA, demuestre que

(A + B)2 = A2 + 2AB + B2 .

cos q sen q
Ejercicio 2.38. Sea A =
sen q cos q
Calcule A2 .
Calcule A3 .
Calcule Am , para todo entero m 0.

Ejercicio 2.39. Si A es una matriz diagonal n n:


0 1
a11 0 0
B 0 a22 0 0 C
B C
B .. . .. .. C
A=B . . C
B C
@ 0 0 an 1,n 1 0 A
0 0 ann

calcule A2 , A3 , . . . , Am , para toda m 0.

Ejercicio 2.40. Sea A = (ai j ) una matriz cuadrada nn, triangular superior estricta-
mente, i.e., ai j = 0 para toda i j. Demuestre que An = 0. Sugerencia: use induccion
sobre n.

Ejercicio 2.41. Una matriz cuadrada A se dice que es nilpotente si Ak = 0 para algun
entero k 1. As, el ejercicio anterior nos dice que una matriz triangular superior es-
tricta, es nilpotente. Suponga ahora que A, B 2 Matnn (K) son matrices nilpotentes
tales que AB = BA.
Demuestre que AB es nilpotente.
70 2 Transformaciones lineales

Demuestre que A + B es nilpotente.


Ejercicio 2.42. Encuentre todas las matrices A 2 Mat22 (K) tales que A2 = 0.
Ejercicio 2.43. Demuestre que el producto de matrices saca escalares, es decir, si
l 2 K, A es m t y B es t n, demuestre que

(l A)B = l (AB) = A(l B).

La transformacion lineal asociada a una matriz. Si se tiene una matriz A 2


Matmn (K), digamos 0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A=B . .. C ,
@ .. . A
am1 am2 amn
los renglones de A son vectores Ri = (ai1 , ai2 , . . . , ain ) 2 K n , y as, para el vector
columna 0 1
x1
B x2 C
B C
x = B . C,
@ .. A
xn
visto como una matriz n 1, con entradas en K, el producto A x esta definido:
0 1 0 1
a11 a12 a1n x1
B a21 a22 a2n C B x2 C
B C B C
Ax = B . .. C B .. C
@ .. . A @ . A
am1 am2 amn mn xn n1

y es una matriz m 1, es decir, es un vector columna A x 2 K m . Hemos definido


as una funcion
TA : K n ! K m
mediante la regla: TA (x) := A x, pensando al vector x 2 K n como un vector columna
o matriz n 1.
Proposicion 2.24. Si A 2 Matmn (K), la funcion TA : K n ! K m es una transforma-
cion lineal.
Demostracion. (i): Si x, y 2 K n , entonces

TA (x + y) = A(x + y) = A(x) + A(y) = TA (x) + TA (y),

porque el producto de matrices satisface la ley distributiva.


(ii): Si x 2 K n y l 2 K, entonces

TA (l x) = A(l x) = l A(x) = l A(x) = l TA (x),


2.3 Transformacion lineal asociada a una matriz 71

porque el producto de matrices saca escalares, por el ejercicio 43. t


u
La proposicion 2.24 anterior dice que se tiene una funcion

F : Matmn (K) ! Lin(K n , K m )

que a cada matriz A de tamano m n, le asocia una transformacion lineal TA : K n !


K m . Sabemos que Matmn (K) y Lin(K n , K m ) son espacios vectoriales y es natural
preguntarnos si la funcion F es lineal. Probaremos mas adelante que esta funcion
es, de hecho, un isomorfismo de espacios vectoriales, y comenzamos con:
Proposicion 2.25. La funcion F : Matmn (K) ! Lin(K n , K m ), dada por F(A) = TA
es lineal e inyectiva.
Demostracion. (1): Si A, B 2 Matmn (K), para ver que TA+B = TA +TB solo debemos
mostrar que tienen los mismos valores en cualquier x 2 K n . Para esto observemos
que

TA+B (x) = (A + B) x por definicion de TA+B


= Ax+Bx por distributividad
= TA (x) + TB (x) por definicion de TA y TB
= (TA + TB )(x) por definicion de suma en Lin(K n , K m ).

(2): Si A 2 Matmn (K) y l 2 K, para mostrar que Tl A = l TA , debemos probar que


tienen los mismos valores en cualquier x 2 K n . Para esto observemos que

Tl A (x) = (l A)(x)
= l (Ax)
= (l TA )(x).

(3): Para mostrar que F es inyectiva, debemos mostrar que ker(F) = {0}, donde 0
es la matriz cero m n. En efecto, si A 2 Matmn (K) es tal que TA = 0 : K n ! K m ,
entonces TA es la transformacion lineal cero, i.e., manda todos los vectores de K n
en el vector cero de K m . En particular, si E j son los vectores columna de K n que
tienen un 1 en el lugar j y cero en las otras componentes, entonces TA (E j ) = 0.
Observemos ahora que, si A = (ai j ), entonces

TA (E j ) = AE j = columna j de la matriz A = 0

y por lo tanto todas las columnas de A son cero, i.e., A = 0. t


u
Para mostrar que F es un isomorfismo solo falta probar que F es suprayectiva.
Teorema 2.26. Sea T : K n ! K m una transformacion lineal. Entonces, existe una
(unica matriz) A 2 Matmn (K) tal que T = TA , i.e., F es suprayectiva.
Demostracion. Sea A = {E1 , . . . , En } la base canonica de K n , donde cada E j lo ve-
mos como un vector columna. Sea B = {e1 , . . . , em } la base canonica de vectores
72 2 Transformaciones lineales

columna de K m . Como A es base de K n , todo vector columna x 2 K n se puede


escribir en forma unica como combinacion lineal de los E j :

x = x1 E1 + xn En ,

donde los coeficientes x j son las componentes de x. Como T es lineal, al aplicarla a


x obtenemos

() T (x) = x1 T (E1 ) + + xn T (En ).

Por otra parte, cada T (E j ) 2 K m se puede escribir en terminos de la base B, es


decir,

T (E1 ) = a11 e1 + a21 e2 + + am1 em


T (E2 ) = a12 e1 + a22 e2 + + am2 em
..
.
T (En ) = a1n e1 + a2n e2 + + amn em ,

donde las ai j , 1 i m, son las componentes de T (E j ), es decir,


0 1 0 1 0 1
a11 a12 a1n
B a21 C B a22 C B a2n C
B C B C B C
T (E1 ) = B . C , T (E2 ) = B . C , . . . , T (En ) = B . C ,
.
@ . A .
@ . A @ . A.
am1 am2 amn

y por lo tanto, substituyendo estos valores de T (E j ) en () obtenemos


0 1 0 1 0 1
a11 a12 a1n
B a21 C B a22 C B a2n C
B C B C B C
T (x) = x1 B . C + x2 B . C + + xn B . C
@ .. A @ .. A @ .. A
am1 am2 amn
0 10 1
a11 a12 a1n x1
B a21 a22 a2n C B x2 C
B CB C
=B . C B .. C = Ax,
@ .. A@ . A
am1 am2 amn xn

con A = (ai j )mn , y as T = TA . La unicidad de A es por la proposicion anterior. t


u

Resumiendo, hemos probado que la funcion

F : Matmn (K) ! Lin(K n , K m )

dada por A 7! TA es un isomorfismo de espacios vectoriales. Este isomorfismo nos


permite pensar a una matriz A de tamano m n como una transformacion lineal
2.3 Transformacion lineal asociada a una matriz 73

TA : K n ! K m y recprocamente, cada transformacion linea de K n en K m la podemos


pensar como una matriz mn. Una observacion final, como dimK Matmn (K) = mn,
el isomorfismo F nos dice que dimK Lin(K n , K m ) = mn tambien.

2 3 1
Ejemplo 2.24. Si A = 2 Mat23 (R), la transformacion lineal asociada
1 0 2
0 1
x
TA : R3 ! R2 esta dada, para v = @ y A, por
z
0 1
x
2 3 1 @ A 2x 3y + z
TA (v) = A v = y = .
1 0 2 x 2z
z

El nucleo de esta transformacion lineal esta dado por


n o
2x 3y + z 0
ker(TA ) = {v 2 R3 : TA (v) = 0 2 R2 } = (x, y, z) 2 R3 : = ,
x 2z 0

es decir, ker(TA ) es el subespacio de soluciones Sh del sistema de ecuaciones ho-


mogeneo:

2x 3y + z = 0
x 2z = 0.

Sistemas de ecuaciones lineales y la transformacion lineal asociada a una ma-


triz. Si tenemos un sistema de ecuaciones lineales homogeneo:

a11 x1 + a12 x2 + + a1n xn = 0


a21 x1 + a22 x2 + + a2n xn = 0
..
.
am1 x1 + am2 x2 + + amn xn = 0,

con coeficientes ai j en un campo K, y si consideramos la matriz de coeficientes


0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A=B . C
@ .. A
am1 am2 amn

a la cual llamaremos la matriz del sistema, y el vector de incognitas:


74 2 Transformaciones lineales
0 1
x1
B x2 C
B C
x=B . C
@ .. A
xn

el sistema de ecuaciones anterior se puede escribir como

(1) Ax = 0

donde 0 es el vector (columna) cero de K m . En terminos de la transformacion lineal


asociada a la matriz A, el sistema de ecuaciones anterior se escribe como

(2) TA (x) = 0,

es decir, el conjunto de soluciones Sh del sistema homogeneo (1) es el nucleo de la


transformacion lineal TA :
Sh = ker(TA ) K n
y resolver el sistema (1) es calcular el nucleo ker(TA ), del cual ya sabemos que es
un subespacio vectorial de K n y as, para determinarlo basta dar una base de este
subespacio. En la seccion 3.3 daremos un metodo que da una base de ker(TA ).
Que sucede si tenemos un sistema no homogeneo de ecuaciones lineales? Sea

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xn = bm ,

un sistema de ecuaciones lineales con coeficientes ai j y terminos independientes bi


en un campo K. Consideremos la matriz del sistema formada con los coeficientes
ai j : 0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A=B . C
@ .. A
am1 am2 amn
y la transformacion lineal TA: Kn ! K m asociada. En terminos de la transformacion
lineal TA , el sistema de ecuaciones anterior se escribe como

(3) TA (x) = b,
2.4 Matriz asociada a una transformacion lineal 75
0 1 0 1
x1 b1
B x2 C B b2 C
B C B C
donde x = B . C es el vector de incognitas y b = B . C 2 K m es el vector (co-
@ .. A @ .. A
xn bm
lumna) de terminos independientes en K m . As, el sistema (3) tiene una solucion si
y solo si existe x 2 K n tal que TA (x) = b, es decir, si y solo si b 2 Im(TA ).
As, para resolver el sistema no homogeneo (3), ya que lo primero que tenemos
que saber es si tiene o no soluciones, entonces lo primero que debemos hacer es
determinar si el vector b pertenece o no a la imagen Im(TA ) y para esto necesita-
mos una descripcion del subespacio Im(TA ), dando de preferencia una base de este
subespacio, que, como veremos en la seccion 3.2, esencialmente esta contenida en
la proposicion 2.11.

2.4. Matriz asociada a una transformacion lineal

Dada una transformacion lineal T : V ! W entre espacios vectoriales de dimen-


sion finita, dimK (V ) = n y dimK (W ) = m, si A y B son bases de V y W , respecti-
vamente, en esta seccion mostraremos como, usando las bases A y B, le hacemos
corresponder a T una matriz en Matmn (K). Recordemos ahora que en la seccion
anterior mostramos que se tiene un isomorfismo

F : Matmn (K) ! Lin(K n , K m );

en esta seccion estableceremos primero un isomorfismo

Y : Lin(K n , K m ) ! Lin(V,W )

y luego se compondra con el isomorfismo F para obtener la correspondencia entre


Lin(V,W ) y Matmn (K) deseada.
Coordenadas y bases ordenadas. El isomorfismo Y que necesitamos sera induci-
do por isomorfismos K n ! V y K m ! W dados por las bases escogidas para V y
W . Comenzamos definiendo estos isomorfismos: sea V un K-espacio vectorial de
dimension n y sea A = {v1 , . . . , vn } una base de V y escojamos un orden entre estos
vectores de la base (diremos entonces que A es una base ordenada de V ). Entonces,
todo vector v de V tiene una expresion unica de la forma

v = a1 v1 + + an vn

(los a j 2 K estan unvocamente determinados por v y la base A). Diremos que


a1 , . . . , an son las coordenadas de v con respecto a la base A y lo denotamos me-
diante
[v]A = [a1 , . . . , an ]A .
76 2 Transformaciones lineales

Note que las coordenadas a1 , . . . , an forman una n-ada ordenada en K n ya que ca-
da a j corresponde al vector basico v j y los vectores basicos estan ordenados por
hipotesis.
Lema 2.27. Sea A = {v1 , . . . , vn } una base ordenada de V , y denotemos la corres-
pondencia que asocia a cada vector v 2 V sus coordenadas [a1 , . . . , an ]A en la base
A mediante
fA : V ! K n ,
i.e., fA esta dada por fA (v) := [a1 , . . . , an ]A . Entonces, fA es un isomorfismo.

Demostracion. (1): fA es lineal, ya que


(i) Si u, v 2 V , esribiendolos en la base A como

u = a1 v1 + + an vn y v = b1 v1 + + bn vn ,

entonces u + v = (a1 + b1 )v1 + + (an + bn )vn y as

fA (u + v) = [(a1 + b1 ), . . . , (an + bn )]A


= [a1 , . . . , an ]A + [b1 , . . . , bn ]A
= fA (u) + fA (v).

(ii) Si u 2 V y l 2 K, escribiendo u = a1 v1 + + an vn , entonces l u = (l a1 )v1 +


+ (l an )vn , por lo que

fA (l u) = [(l a1 ), . . . , (l an )]A
= l [a1 , . . . , an ]A
= l fA (u).

(2) fA es suprayectiva porque si (a1 , . . . , an ) 2 K n , el vector v = a1 v1 + + an vn


es tal que fA (v) = (a1 , . . . , an ).
(3) Como fA : V ! K n es lineal suprayectiva entre espacios vectoriales de la misma
dimension, entonces es un isomorfismo. De hecho, la inyectividad de fA es directa
ya que los coeficientes ai de v son unicos (solo dependen de la base). t
u

Regresemos ahora al problema original: sean V y W dos espacios vectoriales de


dimensiones finitas sobre un campo K. Sean

A = {v1 , . . . , vn } y B = {w1 , . . . , wm }

bases de V y W respectivamente. Por el lema anterior se tienen isomorfismos

fA : V ! K n y fB : W ! K m

con inversas
yA : K n ! V y yB : K m ! W
2.4 Matriz asociada a una transformacion lineal 77

dadas por

yA (a1 , . . . , an ) := a1 v1 + + an vn y yB (b1 , . . . , bm ) := b1 w1 + + bm wm

respectivamente. Para establecer el isomorfismo deseado entre Lin(V,W ) y Lin(K n , K m ),


procedemos como sigue. Sea T : V ! W una transformacion lineal. Usando los iso-
morfismos anteriores, tenemos un diagrama como el que sigue:
T
OV
/W
O

yA fA yB fB


Kn / Km
T0

donde la flecha punteada T 0 : K n ! K m es la transformacion lineal que queremos


asociada a T : V ! W . Mirando este diagrama, la definicion de T 0 salta a la vista:
como T 0 : K n ! K m es la funcion lineal que queremos, viendo el diagrama anterior,
para ir de K n a K m , lo natural es ir primero de K n a V usando yA , luego de V a W
usando T y finalmente de W a K m usando fB ; es decir, la funcion T 0 debe ser la
composicion
T
VO /W
yA fB

Kn / Km
T0

T 0 = fB T y A .
Explcitamente, si v 2 V , pongamos w = T (v) 2 W y consideremos sus coorde-
nadas con respecto a las bases correspondientes:

[v]A = [a1 , . . . , an ]A 2 K n y [w]B = [b1 , . . . , bm ]B 2 K m .

Entonces, T 0 : K n ! K m esta dada por

T 0 (a1 , . . . , an ) := (b1 , . . . , bm ).

Observe que como T 0 = fB T yA y todas las funciones del lado derecho son
lineales, entonces T 0 tambien es lineal. Una observacion mas: como yA y fB son
isomorfismos, el diagrama anterior identifica a T : V ! W como la funcion lineal
T 0 : Kn ! Km.
Proposicion 2.28. Sean V y W dos K-espacios vectoriales de dimensiones finitas n
y m, con bases A y B, respectivamente. La correspondencia anterior, que a cada
T 2 Lin(V,W ) le asocia T 0 = fB T yA 2 Lin(K n , K m ), es un isomorfismo.
78 2 Transformaciones lineales

Demostracion. Denotemos con Q : Lin(V,W ) ! Lin(K n , K m ) a la correspondencia


anterior. Mostraremos que Q es lineal. En efecto, si T, L 2 Lin(V,W ) son dos apli-
caciones lineales, entonces T 0 = fB T yA y L0 = fB L yA . Se sigue que

T 0 + L0 = fB T yA + fB L yA
= (fB T + fB L) yA
= fB (T + L) yA
= (T + L)0 .

Si T 2 Lin(V,W ) y l 2 K, entonces

l T 0 = l (fB T yA )
= fB (l (T yA ))
= fB (l T ) yA
= (l T )0 .

La funcion Q es inyectiva, ya que si T 0 = 0, entonces 0 = fB T yA , y como


fB es un isomorfismo, la igualdad anterior implica que T yA = 0 y de nuevo,
como yA es un isomorfismo, la ultima igualdad implica que T = 0.
La funcion Q es suprayectiva, ya que si F 2 Lin(K n , K m ), sea T := yB F fA :
V ! W , i.e., T esta dada por el diagrama
T
V /W
O
fA yB

Kn / Km.
F

Entonces,

Q (T ) = fB T yA por definicion de Q
= fB (yB F fA ) yA por definicion de T
= (fB yB ) F (fA yA ) = id F id
= F.

t
u

Denotaremos con Y : Lin(K n , K m ) ! Lin(V,W ) a la inversa del isomorfismo Q ,


es decir
Y (F) := yB F fA
es la funcion dada por el ultimo diagrama. Resumiendo, hemos construido un iso-
morfismo de espacios vectoriales

Y : Lin(K n , K m ) ! Lin(V,W )
2.4 Matriz asociada a una transformacion lineal 79

y en la seccion 2.3 obtuvimos otro isomorfismo

F : Matmn (K) ! Lin(K n , K m ).

La composicion de los dos isomorfismos anteriores:

Y F : Matmn (K) ! Lin(K n , K m ) ! Lin(V,W )

identifica transformaciones lineales T : V ! W con matrices A de tamano m n.


Como se calcula la matriz m n asociada a una transformacion lineal T : V ! W ?
El procedimiento esta implcito en los isomorfismos anteriores y lo detallamos a
continuacion:
(1) Usando las bases A = {v1 , . . . , vn } de V y B = {w1 , . . . , wm } de W , dado un
vector v 2 V lo escribimos en la base A:

v = a1 v1 + + an vn 2 K n

y as, la imagen de v bajo T es;

T (v) = T (a1 v1 + + an vn ) = a1 T (v1 ) + + an T (vn ) 2 W

por lo que, para obtener las coordenadas de T (v) 2 W en la base B, basta conocer
las coordenadas de cada T (vi ) 2 W en la base B. El primer paso es entonces calcular
las expresiones T (vi ) en la base B:

T (v1 ) = a11 w1 + a21 w2 + + am1 wm


T (v2 ) = a12 w1 + a22 w2 + + am2 wm
..
.
T (vn ) = a1n w1 + a2n w2 + + amn wm

as, ya tenemos las coordenadas de cada T (vi ) en la base B de W .


(2) Usando lo anterior, podemos entonces calcular las coordenadas de T (v):

T (v) = a1 T (v1 ) + a2 T (v2 ) + + an T (vn )


= a1 (a11 w1 + a21 w2 + + am1 wm )
+ a2 (a12 w1 + a22 w2 + + am2 wm )
+ + an (a1n w1 + a2n w2 + + amn wm ),

y as, las coordenadas de T (v) en la base B de W son:


80 2 Transformaciones lineales

[T (v)]B = [a1 (a11 w1 + a21 w2 + + am1 wm )


+ a2 (a12 w1 + a22 w2 + + am2 wm )
+ + an (a1n w1 + a2n w2 + + amn wm )]B
= [a1 a11 + a2 a12 + + an a1n ,
+ a1 a21 + a2 a22 + + an a2n ,
, a1 am1 + a2 am2 + + an amn ]B
0 10 1
a11 a12 a1n a1
B a21 a22 a2n C B a2 C
B CB C
=B . .. C B .. C
@ .. . A@ . A
am1 am2 amn an

y por lo tanto, la matriz asociada a T en las bases A y B de V y W respectivamente,


es la matriz 0 1
a11 a12 a1n
B a21 a22 a2n C
B C
B .. .. C
@ . . A
am1 am2 amn
a la que denotaremos mediante
[T ]B
A.

Bases ordenadas. Para las bases de un espacio vectorial de dimension finita, gene-
ralmente numeramos sus elementos del 1 al n (aunque algunas veces del 0 al n). En
principio, esta numeracion no es necesaria, porque las bases pueden ser vistas solo
como subconjuntos del espacio vectorial V dado. Sin embargo, el ordenamiento de
los elementos de una base, implcito en la numeracion de sus elementos, es impor-
tante al asociar coordenadas a un vector cualquiera de V y tambien, como hemos
visto, al asociar una matriz a una transformacion lineal entre espacios vectoriales
de dimension finita. En lo que sigue, cada vez que se hable de coordenadas o de
la matriz asociada a una transformacion lineal, se estara sobreentendiendo que las
bases, de los espacios involucrados, son bases ordenadas.
Resumen. Dada una transformacion lineal T : V ! W , si A es una base de V y B
es base de W , la matriz [T ]B
A asociada a la transformacion lineal T se calcula como
sigue:
(1). Se calculan los valores de T en los vectores de la base A = {v1 , . . . , vn } y se
expresan en la base B = {w1 , . . . , wm } de W :

T (v1 ) = a11 w1 + a21 w2 + + am1 wm


T (v2 ) = a12 w1 + a22 w2 + + am2 wm
..
.
T (vn ) = a1n w1 + a2n w2 + + amn wm .
2.4 Matriz asociada a una transformacion lineal 81

(2). La matriz [T ]B
A es la matrix cuyas columnas son las coordenadas [T (v j )]B que
se calcularon en el paso (1). Dicho de otra manera, la matriz [T ]B
A es la transpuesta
de la matriz de coeficientes del paso (1).

Ejemplo 2.25 (Rotaciones en R2 ). Si Rq : R2 ! R2 es una rotacion

Rq (x, y) = (x cos q y sen q , x sen q + y cos q )

y si consideramos la base canonica A = {e1 , e2 } de R2 , entonces

Rq (e1 ) = Rq (1, 0) = (1 cos q , 1 sen q ) = cos q e1 + sen q e2


Rq (e2 ) = Rq (0, 1) = ( 1 sen q , 1 cos q ) = sen q e1 + cos q e2 ,

y as
cos q sen q
[Rq ]A = .
A sen q cos q

Ejemplo 2.26. Si T : R3 ! R2 es la transformacion lineal

T (x, y, z) = (2x + y 3z, x + z)

y consideramos las bases canonicas en ambos espacios A = {E1 , E2 , E3 } y B =


{e1 , e2 }, para calcular la matriz asociada a T , procedemos como sigue;

T (E1 ) = T (1, 0, 0) = (2, 1) = 2(1, 0) + 1(0, 1) = 2e1 + 1e2


T (E2 ) = T (0, 1, 0) = (1, 0) = 1(1, 0) + 0(0, 1) = 1e1 + 0e2
T (E3 ) = T (0, 0, 1) = ( 3, 1) = 3(1, 0) + 1(0, 1) = 3e1 + 1e2 ,

por lo que
21 3
[T ]B = .
A 10 1

Ejemplo 2.27. Si D : P3 (R) ! P2 (R) es la derivacion, en P3 (R) consideramos la


base A = {1, x, x2 , x3 } y en P2 (R) consideramos la base B = {1, x, x2 }, calculando

D(1) = 0 = 0 1 + 0 x + 0 x2
D(x) = 1 = 1 1 + 0 x + 0 x2
D(x2 ) = 2x = 0 1 + 2 x + 0 x2
D(x3 ) = 3x2 = 0 1 + 0 x + 3 x2 ,

por lo que 0 1
0100
[D]B
A=
@ 0 0 2 0 A.
0003

Ejemplo 2.28. Si idV : V ! V es la aplicacion identidad y A = {v1 , . . . , vn } es una


base de V , entonces
[idV ]A
A = In ,
82 2 Transformaciones lineales

donde In es la matriz identidad. En efecto,

idV (v1 ) = v1 = 1 v1 + 0v2 + + 0vn


idV (v2 ) = v2 = 0v1 + 1 v2 + + 0vn
..
.
idV (vn ) = vn = 0v1 + 0v2 + + 1 vn .

Nota. En el ejemplo anterior se tena A = B, es decir, las dos bases de V eran la


misma; por eso se obtuvo la matriz identidad. Si las dos bases A 6= B son distintas,
la matriz [idV ]B
A resulta diferente de In , como veremos en la seccion de cambio de
bases.
Composicion de transformaciones lineales y multiplicacion de matrices. Hasta
ahora hemos visto que se tiene un isomorfismo de espacios vectoriales de dimensio-
nes finitas
G : Lin(V,W ) ! Matmn (V )
que asocia a cada transformacion lineal T : V ! W la matriz [T ]B
A , en las bases A
de V y B de W . Como, G es lineal, satisface:
(i) G (T + L) = G (T ) + G (L).
(ii) G (l T ) = lG (T ), para l 2 K.
El objetivo ahora es estudiar como se comporta G con respecto a la composicion
de aplicaciones lineales. Es decir, si U, V , W son tres K-espacios vectoriales de
dimensiones finitas con bases A, B, C respectivamente, y si L : U ! V y T : V ! W
son aplicaciones lineales, entonces la composicion T L : U ! W tambien es lineal
y nos interesa saber cual es la matriz que le corresponde en las bases respectivas:
Teorema 2.29. Sean A, B, C bases de los K-espacios vectoriales de dimensiones
finitas U, V , W . Si L : U ! V y T : V ! W son aplicaciones lineales, entonces

[T L]C C B
A = [T ]B [L]A .

Dicho en otras palabras: la composicion de transformaciones lineales corresponde


a la multiplicacion de matrices.

Demostracion. Pongamos A = [L]B A y B = [T ]B . Dado cualquier vector u 2 U, sean


C

[u]A sus coordenadas en la base A. Entonces,

[L(u)]B = A [u]A .

Similarmente, para T (L(u)) 2 W , se tiene que

[T (L(u))]C = B [L(u)]B

y as
[(T L)(u)]C = B [L(u)]B = B (A [u]A ) = (BA) [u]A .
2.4 Matriz asociada a una transformacion lineal 83

Se sigue que
[T L]C C B
A = BA = [T ]B [L]A .

t
u

Ejercicio 2.44. Si f : R2 ! R2 es la funcion dada por f (x, y) = (3x + y, 2x y),


(i) Muestre que f es un isomorfismo.
(ii) Calcule su inversa f 1 .
(iii) Encuentre la matriz asociada a f en la base canonica de R2 .
(iv) Encuentre la matriz asociada a f 1 en la base canonica de R2 .

Ejercicio 2.45. Encuentre la matriz asociada a las trasformaciones lineales T :


Rm ! Rn siguientes, donde en cada caso se tiene la base canonica correspondiente:
(i) T : R4 ! R2 dada por T (x1 , x2 , x3 , x4 ) := (x1 , x2 ).
(ii) T : R3 ! R2 dada por T (x1 , x2 , x3 ) := (x1 , x2 ).
(iii) T : R4 ! R4 dada por T (x1 , x2 , x3 , x4 ) := (x1 , x2 , 0, 0).
(iv) T : R2 ! R2 dada por T (x1 , x2 ) := 3(x1 , x2 ).
(v) T : R3 ! R3 dada por T (x1 , x2 , x3 ) := (x1 , x2 , x3 ).
(vi) T : Rn ! Rn dada por T (x) := x.
(vii) T : Rn ! Rn dada por T (x) := 5x.
(viii) T : Rn ! Rn dada por T (x) := l x, con l 2 R fijo.

Ejercicio 2.46. Sea F : P2 (R) ! Mat22 (R) dada por


0
p (0) 2p(1)
F(p(x)) :=
0 p00 (3)

donde p0 y p00 denotan la primera y segunda derivada de p. Calcule la matriz aso-


ciada a F en las bases canonicas de los espacios vectoriales dados.

Ejercicio 2.47. Fije el polinomio g(x) = 3 + x 2 P2 (R) y sea T : P2 (R) ! P2 (R)


la funcion dada por T ( f ); = f 0 g + 2 f . Sea L : P2 (R) ! R3 la funcion L(a + bx +
cx2 ) := (a + b, c, a b). Sean A = {1, x, x2 } base de P2 (R) y B = {e1 , e2 , e3 } la base
canonica de R3 .
(i) Demuestre que T y L son transformaciones lineales.
(ii) Calcule [T ]A A y [L]A .
B

(iii) Calcule L T : P2 (R) ! R3 .


(iv) Calcule [L T ]B A.
(v) Compruebe que [L T ]B A = [L]A [T ]A .
B A

(vi) 2
Si f (x) = 3 2x + x , calcule [ f ]A , [L( f )]B y muestre que [L( f )]B =
A [ f ]A .
[L]B

Ejercicio 2.48. Encuentre la matriz asociada a cada una de las rotaciones Rq : R2 !


R2 siguientes, en la base canonica de R2 :
(i) q = p/2.
84 2 Transformaciones lineales

(ii) q = p/4.
(iii) q = p.
(iv) q = p.
(v) q = p/3.
(vi) q = p/6.
(vii) q = 5p/4.

Ejercicio 2.49. Considere la rotacion Rp/4 : R2 ! R2 .


(i) Calcule la imagen de x = (1, 2) bajo la rotacion Rp/4 .
(ii) Calcule la imagen de x = ( 1, 3) bajo la rotacion Rp/4 .
(iii) Calcule la imagen de x = ( 1, 1) bajo la rotacion Rp/4 .

Ejercicio 2.50. Si V y W son K-espacios vectoriales con bases A y B respectiva-


mente, y T, F : V ! W son aplicaciones lineales,
(i) Demuestre que
[T + F]B B B
A = [T ]A + [F]A .

(ii) Demuestre que


A = l [T ]A .
[l T ]B B

(iii) Si [T ]B
A = [F]A , es T = F?
B

Ejercicio 2.51. Defina T : Mat22 (R) ! P2 (R) mediante



ab
T = (a + b) + (2d)x + bx2
cd
y sean
10 01 00 00
A= , ,
00 00 10 01
y
B = {1, x, x2 }.
(i) Calcule [T ]B
A.
(ii) Si F : Mat22 (R) ! Mat22 (R) esta dada por F(A) = AT , calcule [F]A
A.
(iii) Defina L : P2 (R) ! Mat22 (R) mediante
0
f (0) 2 f (1)
L( f (x)) := .
0 f 00 (3)

Calcule [L]A
B.
(iv) Defina T : Mat22 (R) ! R mediante

T (A) := Tr(A), la traza de A.

(a) Muestre que T es lineal.


(b) Calcule [T ]C
A , donde C = {1} es base de R.
2.5 Cambios de base 85

(v) Defina G : P2 (R)


! R mediante G( f ) = f (2). Calcule [G]B .
C

1 2
(vi) Si A = , calcule sus coordenadas en la base A.
0 4
(vi) Si f (x) = 3 6x + x2 , calcule sus coordenadas en la base B.

Ejercicio 2.52. Demuestre que B = {1, x a, (x a)2 , . . . , (x a)n } con a 2 K, es


una base de Pn (K). Muestre que las coordenadas de un polinomio f (x) 2 Pn (K), en
la base anterior, son [ f (x)]B = [ f (a), f 0 (a), f 00 (a)/2!, . . . , f (n) (a)/n!].

Ejercicio 2.53. Suponga que a0 , a1 , . . . , an 2 K son escalares distintos dos a dos.


Defina
gi (x) := (x a j )(ai a j ) 1 .
j6=i

Demuestre que los polinomios g0 (x), g1 (x), . . . , gn (x) forman una base de Pn (K). A
esta se le llama la base de interpolacion. Muestre que las coordenadas de un polino-
mio f (x) 2 Pn (K) en la base anterior, son [ f (x)] = [ f (a0 ), f (a1 ), f (a2 ) . . . , f (an )].

2.5. Cambios de base

En la seccion 2.4 vimos que dado un espacio vectorial de dimension finita V ,


escoger una base de V equivale a establecer un isomorfismo f : V ! K n , donde
n = dimK (V ). En esta seccion consideramos la pregunta siguiente: que sucede si se
eligen dos bases A y B de V , es decir, como son los isomorfismos anteriores, o como
se relacionan? Supongamos entonces que A = {v1 , . . . , vn } y B = {w1 , . . . , wn } son
dos bases ordenadas del K-espacio vectorial V . Si v 2 V es cualquier vector, lo
podemos expresar en terminos de la base A como

v = a1 v1 + + an vn

de tal forma que sus coordenadas en la base A son

(1) [v]A = [a1 , . . . , an ].

Tambien lo podemos escribir en terminos de la base B:

v = b1 w1 + + bn wn

de tal forma que sus coordenadas en la base B son

(2) [v]B = [b1 , . . . , bn ].

Lo que buscamos es una relacion entre las dos expresiones (1) y (2) anteriores
para el vector v. Para esto, recordemos que las expresiones (1) y (2) en realidad son
isomorfismos fA y fB :
86 2 Transformaciones lineales

V V
fA fB

Kn Kn
y como [v]A 2 K n lo queremos relacionar com [v]B 2 K n , lo que necesitamos es
una funcion K n / K n que nos diga como obtener [v]B a partir de [v]A . Ahora,
como [v]A proviene del vector v 2 V y como [v]B proviene del mismo vector v 2
V , en el diagrama anterior es natural que pensemos en la funcion identidad idV :
V ! V , para obtener el diagrama siguiente, donde hemos indicado con una flecha
punteada a la funcion que necesitamos:
idV
V /V

fA fB

Kn / Kn
y as, para idV : V ! V , la correspondencia Lin(V,V ) ! Lin(K n , K n ) nos provee de
una (unica) transformacion lineal K n ! K n que, como sabemos, corresponde a una
matriz Q 2 Matnn (K) que satisface

Q[v]A = [v]B ,

es decir, es la funcion que cambia las coordenadas de v en la base A a la base B.


Recordemos ahora que, como Q = fB idV yA , entonces Q es un isomorfismo
y as la matriz correspondiente es invertible. Denotaremos por Q = [idV ]B A a esta
matriz y la llamamos la matriz de cambio de base de A a B. Recordando como
se obtiene, en general, la matriz asociada a una transformacion lineal, para el caso
idV : V ! V , se tiene que Q es la transpuesta de la matriz de coeficientes que se
obtienen al expresar cada vector vi 2 A en terminos de la base B.

Ejemplo 2.29. En R2 consideremos las bases A = {e1 = (1, 0), e2 = (0, 1)} y B =
{w1 = (1, 1), w2 = ( 1, 1)}. La matriz de cambio de base de A a B se obtiene
expresando cada vector ei 2 A en terminos de los vectores de la base B:

(1, 0) = 12 (1, 1) 1
2( 1, 1) = 12 w1 1
2 w2

(0, 1) = 12 (1, 1) + 12 ( 1, 1) = 12 w1 + 12 w2

y por lo tanto
1 1
Q= 2 2
1 1
2 2

es la matriz de cambio de base de A a B. Por ejemplo, si v = (3, 4) 2 R2 , en la


base canonica A sus coordenadas son [v]A = [3, 4]A , y sus coordenadas en la base
B son
2.5 Cambios de base 87
1 1
3 4
1

2 2 3 2 2 2
[v]B = Q[v]A = 1 1 = 3 4 = 7 ,
2 2
4 2 2 2

es decir, [v]B = [ 1/2, 7/2]B .

Las propiedades siguientes son inmediatas:


Lema 2.30. Sea V un K-espacio vectorial de dimension n y sean A, B, C bases or-
denadas de V . Si Q es la matriz de cambio de base de A a B y si R es la matriz de
cambio de base de B a C, entonces RQ es la matriz de cambio de base de A a C.

Demostracion. Por el teorema 2.29, la matriz asociada a la composicion

idV = idV idV : V, A ! V, B ! V, C

es
[idV ]C C B
A = [idV ]B [idV ]A = RQ.

t
u

Corolario 2.31. Sea V un K-espacio vectorial de dimension n y sean A y B bases


ordenadas de V . Si Q es la matriz de cambio de base de A a B, entonces Q 1 es la
matriz de cambio de base de B a A.

Demostracion. Q = [idV ]BA es invertible ya que idV es un isomorfismo. Sea R =


[idV ]B la matriz de cambio de bases de B a A. En el lema anterior se tiene la situa-
A

cion
idV = idV idV : V, A ! V, B ! V, A
por lo que
[idV ]A A B
A = [idV ]B [idV ]A = RQ,

y como [idV ]A
A = In , por el ejemplo 28, entonces RQ = In . Similarmente se muestra
que QR = In . Se sigue que R = Q 1 . t
u

Ejercicio 2.54. Si c : C ! C es la funcion conjugacion c(a + bi) = a bi, a, b 2 R,


y consideramos a C como R-espacio vectorial con la base B = {1, i},
(i) Muestre que c es lineal.
(ii) Calcule [c]B .
(iii) Considerando a C como C-espacio vectorial, muestre que la conjugacion c
no es lineal.

Ejercicio 2.55. En el R-espacio vectorial R3 , consideremos la base canonica A y


sea B = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} otra base de R3 .
(i) Encuentre la matriz de cambio de base de A a B.
(ii) Dado el vector u = (3, 4, 5) 2 R3 , calcule [u]A y [u]B .
88 2 Transformaciones lineales

Ejercicio 2.56. Sea T 2 Lin(V,V ) y sean A y B bases de V . Denotemos con [T ]A =


A y con [T ]B = [T ]B a las matrices correspondientes a T en las bases A y B.
[T ]A B

Sea Q la matriz de cambio de base. Demuestre que

[T ]B = Q 1 [T ]A Q.

Ejercicio 2.57. Dadas dos matrices A, B 2 Matnn (K), diremos que A es similar a
(o que es conjugada de) B si existe una matriz invertible Q 2 Matnn (K) tal que

B = Q 1 AQ.

As, el ejercicio anterior nos dice que la matriz A = [T ]A es similar a B = [T ]B .


Demuestre que la relacion de similaridad (o de conjugacion) es una relacion de
equivalencia en Matnn (K).
Captulo 3
Sistemas de ecuaciones lineales

Comenzamos el estudio del algebra lineal considerando la solubilidad de siste-


mas de ecuaciones lineales de la forma

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xn = bm

con los coeficientes ai j y terminos indendientes bi elementos de un campo K dado, y


en este captulo culminamos, en la seccion 3.1, con un criterio para la solubilidad de
un tal sistema y un resultado que nos dice como es el conjunto de soluciones cuando
estas existen. Para ello usamos la herramienta desarrollada en los dos captulos ante-
riores. En las secciones 3.2 y 3.3 desarrollamos un algoritmo, debido a Gauss, para
verificar el criterio de solubilidad de la seccion 3.1 y al mismo tiempo determinar el
conjunto de soluciones del sistema dado.

3.1. Solucion de sistemas de ecuaciones lineales

Para el sistema de ecuaciones lineales anterior, consideremos la matriz de coefi-


cientes ai j , a la que llamamos la matriz del sistema:
0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A := B . C,
@ .. A
am1 am2 amn

el vector columna de incognitas y el vector columna de terminos independientes:

89
90 3 Sistemas de ecuaciones lineales
0 1 0 1
x1 b1
B x2 C B b2 C
B C B C
x = B . C 2 Kn y b = B . C 2 Km,
@ .. A @ .. A
xn bm

recordemos que, por definicion de producto de matrices, el sistema anterior se puede


escribir en forma abreviada como:

() Ax = b

y as, considerando la transformacion lineal TA : K n ! K m asociada a la matriz A, el


sistema anterior se escribe como

TA (x) = b,

y, como vimos al final de la seccion 2.3:


Lema 3.1. (1) En la situacion anterior, el sistema Ax = b tiene soluciones x 2 K n si
y solo si b 2 Im(TA ).
(2) Si Ax = 0 es el sistema homogeneo asociado, el conjunto de soluciones del
sistema homogeneo es Sh = ker(TA ).
t
u
La condicion (1) del lema 3.1 dice que debemos conocer el subespacio vectorial
Im(TA ) para poder decidir si un sistema de ecuaciones Ax = b tiene o no soluciones.
La proposicion 3.2 siguiente nos dice quien es el subespacio Im(TA ) y para esto,
dada la matriz del sistema
0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A=B . C,
@ .. A
am1 am2 amn

pensemos en sus columnas


0 1
a1 j
B a2 j C
B C
Cj = B . C 2 Km,
@ .. A
am j

de tal forma que la matriz A la podemos escribir como A = (C1 ,C2 , . . . ,Cn ), donde
las columnas C j son vectores de K m .
Proposicion 3.2. Sea A 2 Matmn (K). Entonces, el subespacio Im(TA ) K m esta
generado por las columnas C1 ,C2 , . . . ,Cn , i.e.,

Im(TA ) = K(C1 ,C2 , . . . ,Cn ).


3.1 Solucion de sistemas de ecuaciones lineales 91

Se sigue que la dimension de Im(TA ) es el numero maximo de columnas de A lineal-


mente independientes.
Demostracion. Si {e1 , .., en } es la base canonica de K n , por 2.11 la imagen de TA :
K n ! K m esta generada por los vectores TA (e j ):

Im(TA ) = K(TA (e1 ), . . . , TA (en )).

Ahora, como
0 1
0 1 0 0 1
a11 a12 a1n B . C a1 j
B a21 a22 B .. C B
B a2n C
CB C B a2 j C C
TA (e j ) = Ae j = B . CB 1C = B . C = Cj
@ .. AB . C
B
C @ .
. A
@ .. A
am1 am2 amn am j
0

es decir, TA (e j ) = C j es la columna j de A, el resultado se sigue. t


u
A la luz de esta proposicion, la condicion (1) del lema 3.1 se lee:

El sistema Ax = b tiene soluciones , b 2 Im(TA ) , b 2 K(C1 ,C2 , . . . ,Cn ),

y observamos que esto ultimo sucede si y solo si

K(C1 ,C2 , . . . ,Cn ) = K(C1 ,C2 , . . . ,Cn , b),

ya que K(C1 ,C2 , . . . ,Cn ) K(C1 ,C2 , . . . ,Cn , b). Hemos as probado:
Corolario 3.3. El sistema Ax = b tiene soluciones si y solo si

dimK K(C1 ,C2 , . . . ,Cn ) = dimK K(C1 ,C2 , . . . ,Cn , b).


t
u

Observacion 3.4. Si se tiene un sistema de m ecuaciones lineales con n incognitas:

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xn = bm ,

la matriz del sistema es:


0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A=B . C
@ .. A
am1 am2 amn
92 3 Sistemas de ecuaciones lineales

y si consideramos los terminos independientes, tenemos otra matriz:


0 1
a11 a12 a1n b1
B a21 a22 a2n b2 C
B C
B .. .. C
@ . . A
am1 am2 amn bm

a la que llamamos la matriz aumentada porque le agregamos una columna extra,


la de terminos independientes. Denotaremos esta matriz mediante (A|b), donde b
denota la columna de terminos independientes del sistema. Con esta notacion, el
corolario 3.3 se lee:

El sistema Ax = b tiene soluciones , dimK (Im TA ) = dimK (Im T(A|b) ).

En la seccion 3.2 desarrollaremos un algoritmo para calcular las dimensiones ante-


riores. El resultado siguiente reduce el problema de hallar todas las soluciones de
un sistema Ax = b al problema de hallar una solucion particular del sistema mas
todas las soluciones del sistema homogeneo asociado Ax = 0.
Proposicion 3.5. Si S K n es el conjunto de soluciones del sistema de ecuaciones
Ax = b, bajo la condicion (1) del lema anterior, y si v0 2 S es cualquier solucion
particular del sistema Ax = b, entonces

S = v0 + ker(TA ) := {v0 + w : w 2 ker(TA )}.

Demostracion. Si v 2 S, entonces Av = b, y como v0 2 S, entonces Av0 = b. Se


sigue que A(v v0 ) = 0 y as v v0 2 ker(TA ), es decir, v v0 = w 2 ker(TA ), i.e.,
v = v0 + w 2 v0 + ker(TA ) y por lo tanto S v0 + ker(TA ). Recprocamente, si v 2
v0 + ker(TA ), entonces v = v0 + w con w 2 ker(TA ) y por lo tanto

Av = TA (v) = TA (v0 + w) = TA (v0 ) + TA (w) = TA (v0 ) = Av0

(ya que TA (w) = 0 porque w 2 ker(TA )). Se sigue que Av = Av0 = b, la ultima igual-
dad porque v0 es solucion del sistema. Se sigue que v es solucion tambien, i.e., v 2 S.
t
u

3.2. Operaciones elementales y el rango de una matriz

Si A es una matriz m n con entradas en un campo K, considerando la transfor-


macion lineal asociada TA : K n ! K m , el objetivo de esta seccion es desarrollar un
metodo sencillo para calcular la dimension de la imagen de TA . A esta dimension se
le llama el rango de la matriz A. Una aplicacion inmediata del metodo que desarro-
llaremos, a la solucion de sistemas de ecuaciones lineales, se hara en la seccion 3.3.
Para motivar las operaciones con matrices que necesitaremos, supongamos que A es
la matriz de un sistema de ecuaciones Ax = b:
3.2 Operaciones elementales y el rango de una matriz 93

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xn = bm ,

y observemos que:
(1). Si intercambiamos dos ecuaciones cualesquiera, el conjunto de soluciones no
se altera.
(2). Si fijamos cualquier ecuacion

() ai1 x1 + ai2 x2 + + ain xn = bi

y (a1 , a2 , . . . , an ) 2 K n es una solucion de (), y si multiplicamos () por un escalar


l 6= 0:

() (l ai1 )x1 + (l ai2 )x2 + + (l ain )xn = l bi ,

entonces (a1 , a2 , . . . , an ) tambien es solucion de (). Recprocamente, si (a1 , . . . , an )


es solucion de (), factorizando y cancelando a l 6= 0 se sigue que (a1 , a2 , . . . , an )
tambien es solucion de (). Por lo tanto, el conjunto de soluciones del sistema de
ecuaciones Ax = b no se altera si multiplicamos cualquier ecuacion del sistema por
un escalar distinto de cero.
(3). Si sumamos un multiplo escalar de una ecuacion a otra ecuacion diferente, el
conjunto de soluciones no se altera ya que, por ejemplo, si la primera ecuacion del
sistema la substituimos por la ecuacion que resulta de sumar la primera ecuacion
mas l veces la segunda ecuacion, el nuevo sistema es:

(a11 + l a21 )x1 + (a12 + l a22 )x2 + + (a1n + l a2n )xn = b1 + l b2


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xn = bm ,

y si (a1 , a2 , . . . , an ) 2 K n es una solucion del sistema original, entonces tambien es


solucion del segundo sistema. En efecto, la unica diferencia entre el sistema origi-
nal y el nuevo es la primera ecuacion, y para esta nueva ecuacion, substituyendo
(a1 , a2 , . . . , an ) se tiene que:

(a11 + l a21 )a1 + + (a1n + l a2n )an = (a11 a1 + + a1n an )


+ (l a21 a1 + + l a2n an )
= b1 + l b2 .
94 3 Sistemas de ecuaciones lineales

Recprocamente, si (b1 , . . . , bn ) es solucion del nuevo sistema de ecuaciones,


entonces, como la unica diferencia entre el sistema original y el nuevo es la primera
ecuacion, substituyendo en la nueva primera ecuacion y en la segunda (que es igual
a la original) queda

(a11 + l a21 )b1 + + (a1n + l a2n )bn = b1 + l b2


a21 b1 + + a2n bn = b2

de donde, restando l veces la segunda igualdad a la primera se obtiene que

a11 b1 + + a1n bn = b1

i.e., (b1 , . . . , bn ) es solucion de la primera ecuacion del sistema original y por lo


tanto es solucion de todo el sistema original. Notese que al asumir que operamos
con la primera y segunda ecuaciones del sistema, no se perdio generalidad porque
gracias a la parte (1) podemos intercambiar de lugar las ecuaciones del sistema.
Consideremos ahora las operaciones (1), (2) y (3) que no cambian el conjunto de
soluciones del sistema de ecuaciones lineales Ax = b y pensemos solo en la matriz
correspondiente: 0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A=B . C.
@ .. A
am1 am2 amn
Las operaciones correspondientes son:
(1). Intercambiar dos renglones de la matriz.
(2). Multiplicar un renglon de la matriz por un escalar l 6= 0.
(3). Substituir un renglon por el renglon que resulta de sumar ese renglon y un
multiplo escalar de otro renglon.
Llamaremos operaciones elementales con renglones a las operaciones anterio-
res. Mas adelante veremos que se tienen las operaciones elementales con columnas
correspondientes.

Ejemplo 3.1. Dada la matriz


0 1
1 20
A = @ 2 3 1 A,
142

si intercambiamos el segundo y tercer renglon se obtiene la matriz:


0 1
1 20
B = @ 1 4 2 A,
2 31
3.2 Operaciones elementales y el rango de una matriz 95

y si multiplicamos el tercer renglon de A por 2 obtenemos


0 1
1 2 0
C = @ 2 3 1 A,
2 8 4

finalmente, si sumamos 2 veces el tercer renglon al segundo renglon de A se obtiene:


0 1
1 2 0
D = @ 0 11 5 A .
1 4 2

Definicion 3.6. Una matriz elemental m m es una matriz que se obtiene al hacer
una unica operacion elemental en la matriz identidad Im .
Ejemplo 3.2. Si a la matriz identidad
0 1
100
I3 = @ 0 1 0 A
001

sumamos el segundo renglon al tercero, obtenemos la matriz elemental:


0 1
100
E = @ 0 1 0 A.
011

Tambien, si multiplicamos el segundo renglon de I3 por 4 obtenemos la matriz ele-


mental 0 1
100
E = @ 0 4 0 A.
001
El resultado siguiente nos dice que, dada una matriz A de tamano m n, hacer
una operacion elemental con los renglones de A es lo mismo que multiplicar A a
la izquierda por la matriz elemental E que se obtiene haciendo la misma operacion
elemental con los renglones de Im .
Teorema 3.7. Sea A una matriz m n con entradas en un campo K. Si la matriz
B se obtiene de A por medio de una operacion elemental con renglones y si E es
la matriz elemental que se obtiene haciendo la misma operacion elemental en Im ,
entonces
B = EA.
Recprocamente, si E es una matriz elemental mm, entonces la matriz producto
EA es la matriz que se obtiene de A por medio de la misma operacion elemental con
renglones que se uso para obtener E a partir de Im .
Demostracion. Como hay tres tipos de operaciones elementales, debemos conside-
rar estos tres casos:
96 3 Sistemas de ecuaciones lineales

Caso 1. Supongamos que B se obtiene de A intercambiando los renglones p y q, con


p 6= q, y sea E la matriz elemental mm que se obtuvo al intercambiar los renglones
p y q en Im . Entonces, en el producto EA los unicos lugares afectados son aquellos
en los cuales el primer ndice es p o q, es decir, los terminos de la forma a p j o aq j ,
para j = 1, . . . , n; entonces, como en E estos renglones estan intercambiados, en el
producto EA el renglon p consiste de los terminos (aq1 , aq2 , . . . , aqn ) y el renglon q
es (a p1 , a p2 , . . . , a pn ), es decir, EA = B. El recproco es similar.
Caso 2. Si B se obtiene de A multiplicando el renglon i de A por el escalar l 6= 0,
sea E la matriz elemental que se obtiene de Im multiplicando su renglon i por l .
Entonces, el unico renglon afectado de Im es el i-esimo donde en el lugar (i, i) hay
una l , y as

0 1 0 1
1 0 0 a11 a12 a1n
B 0 1 0 0C 0 1 B a C
B C a11 a12 a1n B 21 a22 a2n C
B .. .. C B a a a C B .. C
B. .C 21 22 2n C B . C
EA = B CBB . C = B C
B 0 0 l 0 C
0 C @ .. A B l ai1 l ai2 l ain C
B
B C
B. .. C a a a B . C
@ .. .A m1 m2 mn @ .. A
0 0 1 am1 am2 amn
= B,

ya que al multiplicar el renglon i de E por la columna 1 de A, todos los terminos


se anulan excepto el termino de A que esta en renglon i, a saber, ai1 que queda
multiplicado por l . Lo mismo sucede para las otras columnas de A. El recproco es
similar.
Caso 3. Si B se obtiene de A sumando l veces el renglon q de A al renglon p, sea
E la matriz elemental que se obtiene con la misma operacion en Im . Entonces, el
renglon p de E es de la forma

(0, . . . , 0, 1, 0, . . . , 0, l , 0, . . . , 0)

con un 1 en el lugar p y l en el lugar q; es decir, las entradas de E en el renglon p


son 8
< 1 si j = p
e p j = l si j = q
:
0 en los otros casos,
y los otros renglones de E son los de Im sin cambio alguno. Es claro que el producto
EA solo afecta al renglon p de A, dejando los otros renglones de A fijos. Ahora, al
multiplicar el renglon E p de E por la columna C j de A se obtiene
3.2 Operaciones elementales y el rango de una matriz 97
0 1
a1 j
B a2 j C
B C
B .. C
B . C
B C
B ap j C
B C
(0, . . . , 0, 1, 0, . . . , 0, l , 0, . . . , 0) B . C = a p j + l aq j
B .. C
B C
B aq j C
B C
B . C
@ .. A
am j

y as el renglon p de EA es

(a p1 + l aq1 , a p2 + l aq2 , . . . , a pn + l aqn ) = (a p1 , . . . , a pn ) + l (aq1 , . . . , aqn ),

es decir, es el renglon p de A mas l veces el renglon q de A y por lo tanto EA = B.


El recproco es analogo. t
u

Observacion 3.8. Si A es m n y E es una matriz elemental m m, entonces al


transponer, AT es n m y E T es m m. Tambien, como al transponer los renglones
se vuelven columnas, las operaciones elementales con renglones se vuelven opera-
ciones elementales con columnas y as si la matriz B se obtiene de A por medio de la
operacion elemental con renglones que se uso para obtener E, entonces BT se obtie-
ne de AT por medio de una operacion elemental con las columnas correspondientes
y E T se obtiene por medio de la misma operacion elemental en ImT = Im . Se tiene
as que EA = B implica que AT E T = (EA)T = BT .
Corolario 3.9. Sea A 2 Matmn (K) y supongamos que B se obtiene de A mediante
operaciones elementales con columnas. Si E es la matriz elemental que se obtiene
haciendo la misma operacion elemental con columnas en Im , entonces

B = AE.

Recprocamente, si E es una matriz elemental mm, entonces la matriz producto


AE es la matriz que se obtiene de A por medio de la misma operacion elemental con
columnas que se uso para obtener E a partir de Im .

Demostracion. Solo observamos que el producto es ahora por una matriz elemental
a la derecha de A, porque al transponer se cambia el orden del producto. t
u

Proposicion 3.10. Las matrices elementales son invertibles y la inversa de una ma-
triz elemental es una matriz elemental del mismo tipo.

Demostracion. Como hay tres tipos de operaciones elementales, digamos con ren-
glones, tenemos tres tipos de matrices elementales:
Caso 1. Si la matriz elemental E se obtuvo intercambiando los renglones p y q de
Im , con p 6= q, entonces al multiplicar E por otra matriz A de tamano adecuado, se
intercambian los renglones p y q de A. As, para A = E, el producto EE intercambia
98 3 Sistemas de ecuaciones lineales

los renglones p y q del factor E de la derecha, por lo que EE = Im y por lo tanto


E = E 1.
Caso 2. Si E se obtuvo de Im multiplicando el renglon p de Im por l 6= 0, sea E 0 la
matriz elemental que se obtiene de Im multiplicando su renglon p por l 1 . Entonces
E 0 es del mismo tipo que E y ademas es claro que EE 0 = Im = E 0 E y por lo tanto
E 1 = E 0.
Caso 3. Si E se obtuvo de Im sumando l veces el renglon q de Im al renglon p de
Im , sea E 0 la matriz elemental que se obtiene de Im sumando l veces el renglon q
de Im al renglon p de Im . Es claro que EE 0 = Im = E 0 E y por lo tanto E 1 = E 0 . t
u

El rango de una matriz. Si A 2 Matmn (K), se define el rango de la matriz A como


la dimension de la imagen de TA : K n ! K m , es decir,

rang(A) := dimK (Im TA ).

Proposicion 3.11. Sea T : V ! W una transformacion lineal entre espacios vecto-


riales de dimensiones finitas. Sean A y B bases de V y W respectivamente. Entonces,

dimK (Im T ) = rang [T ]BA .

Demostracion. Consideremos el diagrama siguiente, para A = [T ]B


A:

T
V /W

fA fB

Kn / Km
TA

donde las flechas verticales son los isomorfismos dados por las bases respecti-
vas. Mostraremos que fB (Im T ) = Im TA . En efecto, si w 2 fB (Im T ), entonces
w = fB (T (v)) con v 2 V . Se sigue que

w = fB T (v) = TA fA (v) = TA (fA (v)) 2 Im(TA )

(la segunda igualdad es por la conmutatividad del diagrama anterior, es decir, para
ir de V a K m , las dos rutas dan el mismo resultado).
Recprocamente, si w 2 Im(TA ), sea u 2 K n tal que TA (u) = w. Como fA es un
isomorfismo, para el u 2 K n sea v 2 V el unico vector tal que fA (v) = u. Entonces,

w = TA (u) = TA (fA (v))


= TA fA (v)
= fB T (v) por la conmutatividad del diagrama
= fB (T (v)) 2 fB (Im T )
3.2 Operaciones elementales y el rango de una matriz 99

y as Im TA fB (Im T ). Hemos as probado que fB (Im T ) = Im TA y como fB es


un isomorfismo, se sigue que las dimensiones de Im T e Im TA son iguales, lo cual
es la afirmacion que queramos probar. t
u
La proposicion 3.11 reduce el problema de calcular la dimension de la imagen de
una transformacion lineal arbitraria T : V ! W al problema de determinar el rango
de una matriz. Algunas veces, a la dimension de la imagen de una transformacion
lineal T se le suele llamar el rango de la transformacion lineal T . As, la proposicion
anterior nos dice que el rango de una transformacion lineal T es el rango de la matriz
asociada en cualesquiera dos bases de los espacios involucrados. La proposicion
siguiente nos dice que el rango de una matriz no cambia si la multiplicamos por
matrices invertibles, a la izquierda o a la derecha:
Proposicion 3.12. Sea A 2 Matmn (K). Si P es invertible m m y Q es invertible
n n, entonces:
(1) rang(AQ) = rang(A).
(2) rang(PA) = rang(A).
(3) rang(PAQ) = rang(A).
Demostracion. La parte (3) se sigue de las partes (1) y (2). Para (1) observe que

Im(TAQ ) = Im(TA TQ )
= TA (TQ (K n ))
= TA (K n ) ya que TQ es un isomorfismo
= Im(TA ).

Se sigue que: rang(AQ) = dimK (Im(TAQ )) = dimK (Im(TA )) = rang(A).


Para (2), como TPA = TP TA , entonces

Im(TPA ) = Im(TP TA ) = TP TA (K n ) = TP (TA (K n )),

y como TP es un isomorfismo porque P es invertible, entonces

dimK (TP (TA (K n ))) = dimK (TA (K n ))

y as
rang(PA) = dimK (Im(TPA )) = dimK (TA (K n )) = rang(A).
t
u
Corolario 3.13. Las operaciones elementales, en renglones o columnas, preservan
el rango de una matriz.
Demostracion. Las operaciones elementales en una matriz A equivalen a multiplicar
A por matrices elementales, que ya vimos que son invertibles. t
u
Si la matriz B se obtiene a partir de la matriz A mediante operaciones elementales,
lo denotaremos mediante A B y diremos que A y B son equivalentes.
100 3 Sistemas de ecuaciones lineales

Teorema 3.14. Sea A 2 Matmn (K) de rango r = dimK (Im TA ). Entonces, r m,


r n y existe un numero finito de operaciones elementales en renglones y columnas
de A tales que
Ir 01
A ,
02 03
donde 01 , 02 y 03 son matrices cero del tamano adecuado.

Demostracion. Por la proposicion 3.2, r es el numero maximo de columnas lineal-


mente independientes de A y por lo tanto r n. Ahora, como TA : K n ! K m y
as Im TA K m , entonces r = dimK (Im TA ) m. Esto prueba la primera afirmacion.
Para la segunda afirmacion, si A = 0 es la matriz cero, entonces r = 0 y por conven-
cion I0 = 0 y el numero de operaciones elementales requiridas es cero. Supongamos
que A 6= 0; entonces r > 0. Mostraremos que A se puede transformar en la forma
requerida por induccion sobre el numero de renglones m de A.
(i) Si m = 1, entonces A = (a11 , a12 , . . . , a1n ) con algun a1 j 6= 0. Sea k el menor
entero tal que a1k 6= 0. Entonces, A = (0, . . . , 0, a1k , . . . , a1n ) y multiplicando primero
por a1k1 la columna k de A, y luego sumando multiplos adecuados de esta columna
a las columnas siguientes se sigue que

A (0, . . . , 0, 1, 0, . . . , 0) (1, 0, . . . , 0),

donde la ultima operacion elemental fue intercambiar la columna k con la primera.


(ii) Supongamos que el teorema es cierto para toda matriz con m 1 renglones
y sea A una matriz m n. Como A 6= 0, existe un ai j 6= 0 en el lugar (i, j). Inter-
cambiando el renglon i con el renglon 1 y la columna j con la columna 1, llevamos
el termino ai j al lugar (1, 1); despues multiplicamos por ai j 1 y ya tenemos un 1 en
el lugar (1, 1). Sumando multiplos adecuados de este 1 volvemos ceros todos los
lugares a la derecha y abajo del 1 y obtenemos una matriz de la forma:

10
A
0 A0

donde 0 indica un renglon o columna de ceros y A0 es (m 1) (n 1), y aplicamos


induccion sobre A0 . t
u

Corolario 3.15. Si A es m n de rango r, entonces existen matrices invertibles B de


tamano m m y C de tamano n n, tales que

Ir 01
A BAC = .
02 03

Demostracion. Usando el teorema anterior, ponemos B al producto de las matrices


elementales en renglones y C el producto de las matrices elementales en columnas
que se usaron para llevar A a la forma requerida. t
u

Corolario 3.16. Si A es m n, entonces


3.2 Operaciones elementales y el rango de una matriz 101

rang(A) = rang(AT ).

Ir 01
Demostracion. Por el corolario 3.15, BAC = y as
02 03
T
Ir 01 Ir 02
CT AT BT = = ,
02 03 01 03

y por lo tanto rang(AT ) = r = rang(A). t


u

Corolario 3.17. Si A es m n, entonces

rang(A) = numero maximo de columnas linealmente independientes


= numero maximo de renglones linealmente independientes.

Demostracion. El rango de AT es el numero maximo de columnas linealmente inde-


pendientes de AT y las columnas de AT son los renglones de A. t
u

Corolario 3.18. Si A es m n, entonces el subespacio generado por las columnas


de A es isomorfo al subespacio generado por los renglones de A.

Demostracion. Por el corolario 3.17 tienen la misma dimension. t


u

Corolario 3.19. Toda matriz invertible es producto de matrices elementales.

Demostracion. Si A es n n invertible, entonces TA : K n ! K n es un isomorfismo y


as Im TA = K n , por lo que rang(A) = dimK (Im TA ) = n. Por el teorema 3.12 se sigue
que A In , es decir, existen matrices elementales Ei y Fj , 1 i k y 1 j t, tales
que
(E1 Ek )A(F1 Ft ) = In .
Como cada matriz elemental es invertible y su inversa es otra matriz elemental,
despejando A de la igualdad anterior se sigue el resultado deseado. t
u
0 1
12 3 0
B4 2 1 2C
Ejemplo 3.3. Calcule el rango de la matriz A = B C
@ 5 0 1 2 A. Para esto usamos
24 6 0
operaciones elementales:
102 3 Sistemas de ecuaciones lineales
0 1 0 1 0 1
12 3 0 1 2 3 0 1 2 3 0
B4 2 1 2C B 0 6 11 2 C B 0 1 11 C 1
A=B
@5 0
CB CB 6 C 3
1 2 A @ 0 10 16 2 A @ 0 10 16 2 A
24 6 0 0 0 0 0 0 0 0 0
0 1 0 1 0 2 2
1
12 3 0 12 3 0 10 3 3
B0 1 11 1C B 0 1 11 1 C B 0 1 11 1 C
B 6 3C
7 4 A@
B 6 3CB 6 3 C
@0 0
3 3 0 0 1 47 A @ 0 0 1 4
7
A
00 0 0 00 0 0 00 0 0
0 2
1 0 1
10 0 7 1000
B0 1 0 57 C B0 1 0 0C
C = I3 0
B CB
@0 0 1 47 A @ 0 0 1 0 A 0 0
00 0 0 0000

y por lo tanto el rango de A es 3.

La inversa de una matriz. Usando el corolario 3.17 daremos un metodo para cal-
cular la inversa de una matriz invertible A. Para esto necesitaremos los conceptos
siguientes: si A = (ai j ) es una matriz m n y B = (bi j ) es una matriz m t, deno-
taremos con (A|B) a la matriz m (n + t) dada al yuxtaponer A y B una junta a la
otra, es decir, (A|B) = (ci j ) donde

ai j si 1 j n
ci j =
bi, j n si n + 1 j n + t.

Diremos que (A|B) es una matriz aumentada. Esto generaliza el caso cuando B = b
es un vector columna m 1, que ya habamos encontrado antes.
Lema 3.20. Si A = (ai j ) es una matriz m n, B = (bi j ) es una matriz m t y P =
(pi j ) es una matriz r m, entonces

P(A|B) = (PA|PB).

Demostracion. Como (A|B) = ci j donde



ai j si 1 j n
ci j =
bi, j n si n + 1 j n + t,

si P(A|B) = (ei j ), entonces


8m
>
>
>
>
> pik ak j si 1 j n,
m <k=1
ei j = pik ck j = > m
k=1 >
>
: pik bk, j
>
> si n + 1 j n + t,
n
k=1

es decir,
3.2 Operaciones elementales y el rango de una matriz 103

termino general de PA si 1 j n
ei j =
termino general de PB si n + 1 j n + t,
y por lo tanto P(A|B) = (PA|PB). t
u

Para aplicar el lema 3.20 para encontrar la inversa de una matriz n n invertible
A, consideremos la matriz aumentada

(1) (A|In )

de tamano n 2n. Como A 1 existe, multiplicando (1) por A 1 y usando el lema


anterior se obtiene:

(2) A 1 (A|In ) = (A 1 A|A 1 In ) = (In |A 1 ).

Ahora, como A 1 es invertible, por el corolario 3.17, A 1 es producto de matrices


elementales, digamos
A 1 = Ek E1
y as (2) queda:
(Ek E1 )(A|In ) = (In |A 1 ),
y como multiplicar por matrices elementales a la izquierda es lo mismo que hacer
operaciones elementales en los renglones de (A|In ), hemos probado la primera parte
del resultado siguiente:
Proposicion 3.21. Si A es invertible n n, su inversa A 1 se puede hallar mediante
un numero finito de operaciones elementales en los renglones de la matriz aumen-
tada (A|In ) que transforman esta matriz en la matriz (In |A 1 ).
Recprocamente, si mediante operaciones elementales en los renglones de (A|In )
se obtiene la matriz (In |B), entonces B = A 1 .

Demostracion. Solo falta probar la segunda afirmacion. Para esto, supongamos que
Ek , . . . , E1 son matrices elementales que satisfacen que:

(Ek E1 )(A|In ) = (In |B).

Entonces, B = (Ek E1 )In = (Ek E1 ) y (Ek E1 )A = In , y por lo tanto BA = In .


Se sigue que B = A 1 , ya que en el producto de matrices, una inversa por un lado es
inversa por los dos lados. t
u
0 1
1 23
Ejemplo 3.4. Muestre que la matriz A = @ 0 4 2 A es invertible y calcule su in-
210
versa.
104 3 Sistemas de ecuaciones lineales
0 1 0 1
1 23 100 123 100
(A|I3 ) = @ 0 4 2 0 1 0 A @ 0 1 12 0 14 0 A
210 001 056 201
0 1 0 1
123 1 0 0 123 1 0 0
@ 0 1 12 0 14 0 A @ 0 1 12 0 14 0 A
0 0 72 2 54 1 0 0 1 47 14 5 2
7
0 5 15 6
1
120 7 14 7
2 3 1A
@0 1 0 7 7 7
001 7 4 5 2
14 7
0 1 3 4
1
100 7 14 7
@0 1 0 2
7
3
7
1A
7 = (I3 |A 1 ),
0 0 1 47 5
14 7
2

por lo que la inversa de A es:


0 1 3 4
1
7 14 7
1 2 3 1
A =@ 7 7 7
A.
4 5 2
7 14 7

Sistemas de ecuaciones y el rango de una matriz. Si Ax = b es un sistema de


m ecuaciones en n variables, por el corolario 3.3 el sistema tiene soluciones si y
solo si dimK K(C1 , . . . ,Cn ) = dimK K(C1 , . . . ,Cn , b), donde C j son las columnas de
A. Hemos as probado:
Corolario 3.22. Si Ax = b es un sistema de m ecuaciones en n incognitas, entonces
el sistema tiene soluciones si y solo si

rang(A) = rang(A|b),

donde (A|b) es la matriz aumentada del sistema.


t
u
El corolario 3.22 es importante porque el rango de cualquier matriz es relativa-
mente facil de calcular como veremos en la seccion siguiente. As, el criterio anterior
es facil de verificar. Mas aun, el metodo que desarrollaremos en la seccion siguiente
nos dara al mismo tiempo el conjunto de soluciones de un sistema soluble.
Ejercicio 3.1. Si T : V ! W es una transformacion lineal entre espacios vectoriales
de dimensiones finitas, la nulidad de T es la dimension del nucleo de T . La nulidad
de una matriz A es la nulidad de la transformacion lineal TA asociada. Demuestre que
la nulidad de una transformacion lineal es igual a la nulidad de la matriz asociada
en cualesquiera bases del dominio y codominio. Sugerencia: en la notacion de la
proposicion 3.9, muestre que fA (ker T ) = ker TA .
Ejercicio 3.2. Sea A una matriz m n. Demuestre que existe una sucesion finita de
operaciones elementales de tipo 1 y 3 en renglones, que transforman A en una matriz
triangular superior.
3.2 Operaciones elementales y el rango de una matriz 105

Ejercicio 3.3. Sean A y B matrices m t y t n, respectivamente. Demuestre que

rang(AB) rang(A),
rang(AB) rang(B).

Ejercicio 3.4. Sea A una matriz m n. Demuestre que rang(A) = 0 si y solo si A es


la matriz cero.

Ejercicio 3.5. Sea A una matriz m n con entradas en un campo K y sea l 2 K,


l 6= 0. Demuestre que rang(l A) = rang(A).

Ejercicio 3.6. Sean A y B matrices m t y t n, respectivamente. Suponga que


rang(A) = m y rang(B) = t. Demuestre que AB es de rango m.

Ejercicio 3.7. Sea A una matriz m n. Si A es de rango m, demuestre que existe una
matriz B, n m, tal que BA = In .

Ejercicio 3.8. Sea A una matriz m n. Si A es de rango n, demuestre que existe una
matriz B, n m, tal que AB = Im .

Ejercicio 3.9. Calcule el rango de las matrices siguientes:


0 1 0 1
3 2 5 2 4 6 2
B 0 1 4C B1 1 4 2 C
A=B @ 3 4 0A
C B=B @ 3 3 10 0 A
C

0 3 119 0 4 2 15 2 1
127 1 2 3 4
B7 2 1C B 2 4 6 8 C
C=B @1 0 1A
C D = B
@ 1 2 3 4 A.
C

020 3 4 9 12

Ejercicio 3.10. Calcule el rango de las matrices cuadradas siguientes y determine


cuales son invertibles:
0 1
0 1 5 6 1 1
3 2 5 B1 1 4 2 C
A = @ 0 1 4 A; B=B @6 5 5 1 A
C
3 4 0
2 4 5 6
0 1
0 1 2 2 1 1
223 B2 4 2 1 C
C = @ 2 3 1 A; D=B @ 1 2 2 1 A.
C
101
3 4 1 1

Ejercicio 3.11. Encuentre la inversa de las matrices invertibles del ejercicio anterior.
106 3 Sistemas de ecuaciones lineales

3.3. El metodo de Gauss

Dado un sistema de m ecuaciones lineales en n incognitas Ax = b:

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xn = bm

el metodo que desarrollaremos transforma el sistema dado a un sistema que tenga


el mismo conjunto de soluciones que el anterior, pero que luzca mas sencillotan
sencillo que sus soluciones sean casi inmediatasdigamos de la forma

x1 + a012 x2 + a013 x3 + a014 x4 + a015 x5 + + a01n xn = b01


x2 + a023 x3 + a024 x4 + a025 x5 + + a02n xn = b02
x3 + a034 x4 + a035 x5 + + a03n xn = b03
..
.
xr + a0r,r+1 xr+1 + = b0m

y la idea es trabajar con la matriz aumentada del sistema original (A|b) y transfor-
marla, mediante operaciones elementales en renglones, en una matriz (A0 |b0 ) que
tenga asociado el sistema de ecuaciones sencillo de arriba. Lo primero que debemos
hacer es asegurarnos que el nuevo sistema tenga el mismo conjunto de soluciones
que el sistema original:
Proposicion 3.23. Si Ax = b es un sistema de m ecuaciones lineales en n incognitas
y si P es una matriz invertible m m, entonces el sistema (PA)x = Pb tiene el mismo
conjunto de soluciones que el sistema original.
Demostracion. Sea S K n el conjunto de soluciones del sistema original Ax = b
y sea S0 K n el conjunto de soluciones del sistema (PA)x = Pb. Mostraremos que
S = S0 . En efecto, si v 2 S, entonces Av = b y as PAv = Pb por lo que v es solucion
del sistema (PA)x = Pb, i.e., v 2 S0 . Recprocamente, si v 2 S0 , entonces (PA)v = Pb
y multiplicando por la inversa de P obtenemos: P 1 (PAv) = P 1 Pb, i.e., Av = b y
por lo tanto v 2 S. t
u
Corolario 3.24. Si Ax = b es un sistema de m ecuaciones lineales en n incognitas y
si (A0 |b0 ) se obtiene de (A|b) mediante un numero finito de operaciones elementales
en renglones, entonces el sistema A0 x = b0 tiene el mismo conjunto de soluciones
que el sistema original.
Demostracion. (A0 |b0 ) se obtiene de (A|b) mediante el producto de un numero finito
de matrices elementales E1 , . . . , Ek . Poniendo P = E1 Ek , resulta que P es inver-
tible y P(A|b) = (PA|Pb) = (A0 |b0 ), por lo que A0 x = b0 es el sistema (PA)x = Pb.
Aplicamos entonces la proposicion anterior. t
u
3.3 El metodo de Gauss 107

Ya que el corolario 3.24 garantiza que no cambiamos el conjunto de soluciones


de Ax = b, pensemos ahora como debe ser la matriz de un sistema de ecuaciones
sencillo como sugerimos antes. Un momento de reflexion, mirando al ejemplo sen-
cillo previo, nos lleva a: (i) la matriz del sistema sencillo esta escalonada y (ii) los
coeficientes de las variables que encabezan las ecuaciones del sistema sencillo son
igual a 1, por lo que despejar la variable correspondiente es trivial. Recordemos
ahora, de la proposicion 3.5, que el conjunto de soluciones de Ax = b es de la forma

S = v0 + ker TA ,

y por lo tanto el sistema sencillo debe serlo de tal manera que uno pueda leer el
nucleo de TA de este sistema, i.e., uno debera ser capaz de dar una base del nucleo
ker TA a partir del sistema sencillo. Esto nos lleva a pedir que en la matriz aumentada
del sistema sencillo, las variables que encabezan ecuaciones solo aparezcan en esa
ecuacion. La definicion formal es como sigue:
Definicion 3.25. Una matriz m n se dice que esta en forma escalonada reducida
si:
(i) Todos los renglones con alguna entrada distinta de cero estan arriba de los
renglones que consisten de ceros.
(ii) La primera entrada distinta de cero de un renglon no cero es 1 y es la unica
entrada distinta de cero en su columna.
(iii) El 1 de la primera entrada distinta de cero de un renglon no cero esta en una
columna a la derecha de la primera entrada no cero del renglon precedente.

Observacion 3.26. La condicion (i) solo dice que los renglones que consisten de
ceros, si hay alguno de estos renglones, van en la parte de abajo de la matriz. La
condicion (iii) nos dice que la matriz esta escalonada y la condicion (ii) dice que un
renglon no cero tiene un 1 como primera entrada no trivial y arriba y abajo de este
uno solo hay ceros. As, la definicion anterior captura lo que deseamos que quiera
decir el termino sencillo.
Ejemplo 3.5. La matriz 0 1
1 0 0 1 2 3
B0 1 0 2 3 1C
B C
@0 0 1 0 1 2A
0 0 0 0 0 0
esta en forma escalonada reducida.
La matriz 0 1
1 0 2 1 2 3
B0 1 0 2 3 1C
B C
@0 0 1 0 1 2A
0 0 0 0 0 0
no esta en forma escalonada reducida, ya que en la columna del 1 del tercer renglon
no todos las entradas son cero.
108 3 Sistemas de ecuaciones lineales

La matriz 0 1
1 0 0 1 2 3
B0 3 0 2 3 1C
B C
@0 0 1 0 1 2A
0 0 0 0 0 0
no esta en forma escalonada reducida, ya que el segundo renglon no comienza con
un 1.
La matriz 0 1
1 0 0 1 2 3
B0 0 1 0 1 2C
B C
@0 1 0 2 3 1A
0 0 0 0 0 0
no esta en forma escalonada reducida, porque el 1 del tercer renglon no esta a la
derecha del 1 del renglon que lo precede.
La matriz 0 1
1 0 0 0 2 0
B0 1 2 0 3 0C
B C
@0 0 0 1 1 0A
0 0 0 0 0 1
esta en forma escalonada reducida.
La cuestion siguiente es evidente: dada una matriz A de tamano m n, es po-
sible transformarla, mediante operaciones elementales, en forma escalonada redu-
cida? La respuesta es afirmativa y el procedimiento para realizarlo es el metodo de
eliminacion gaussiana.
Metodo de eliminacion de Gauss. Dada una matriz A de tamano m n, si A es la
matriz cero, por definicion diremos que esta en forma escalonada reducida. Supon-
gamos entonces que A no es la matriz cero. El metodo que describiremos tiene dos
partes:
Parte 1. De arriba hacia abajo:
Paso 1. Se escoge la columna distinta de cero mas a la izquierda. Luego, usando
operaciones elementales en renglones traslade una de las entradas distintas de cero
en esta columna al primer renglon y luego conviertalo en 1 multiplicando este primer
renglon por el inverso multiplicativo de la entrada 6= 0 en cuestion. Se usan en este
paso a lo mas 2 operaciones elementales.
Paso 2. Usando a lo mas m 1 operaciones elementales de tipo 3 en renglones,
convierta en ceros todos los lugares abajo del 1 del primer paso.
Paso 3. Sin tomar en cuenta el primer renglon, considere las columnas de la matriz
resultante y escoja la columna distinta de cero mas a la izquierda. Repita los pasos
1 y 2 con esta columna.
Paso 4. Sin tomar en cuenta los dos primeros renglones, considere las columnas de
la matriz resultante y escoja la columna distinta de cero mas a la izquierda. Repita
3.3 El metodo de Gauss 109

los pasos 1 y 2 con esta columna. Proceda de esta manera hasta que, sin tomar en
cuenta los renglones donde ya se aplicaron los pasos 1 y 2, la matriz que resulte
tenga solo ceros o que ya se hayan agotado sus renglones. Note que el numero de
pasos es a lo mas m.
Parte 2. De abajo hacia arriba:
Paso 1. Comenzando con el ultimo renglon distinto de cero, usando operaciones
elementales de tipo 3 en renglones, convierta en ceros todos las entradas arriba del
primer 1 de este renglon. De nuevo, el numero de operaciones es a lo mas m 1.
Paso 2. Repita lo anterior con el penultimo renglon distinto de cero y proceda de
esta manera, de abajo hacia arriba, para convertir en ceros todos las entradas arriba
de los primeros 1 de los renglones distintos de cero. Note que en cada uno de estos
pasos se usan solo un numero finito de operaciones elementales en renglones y el
numero de pasos es a lo mas m.
Observe ahora que con el metodo de eliminacion gaussiana descrito arriba, a
partir de la matriz A de tamano m n, se obtiene una matriz A0 del mismo tamano y
que tiene forma escalonada reducida ya que, por los pasos de arriba hacia abajo se
satisfacen las condiciones (i) y (iii) de la definicion 3.25, y por los pasos de abajo
hacia arriba se satisface la condicion (ii). Se tiene as:
Proposicion 3.27. El metodo de eliminacion gaussiana transforma cualquier ma-
triz A 2 Matmn (K) en una matriz A0 2 Matmn (K) en forma escalonada reducida.
t
u
La primera consecuencia del metodo anterior es que el rango de la matriz A
es igual al rango de A0 ya que A0 se obtuvo a partir de A mediante operaciones
elementales, que no cambian el rango por la proposicion 3.11, y se lee directamente
de la matriz A0 escalonada reducida:
Proposicion 3.28. Sea A una matriz m n y sea A0 una matriz escalonada redu-
cida que se obtiene a partir de A mediante operaciones elementales en renglones.
Entonces, el rango de A es el numero de renglones distintos de cero en A0 .

Demostracion. Sea r el numero de renglones distintos de cero de A0 . Observe ahora


que como A0 esta en forma escalonada reducida, los r renglones no cero de A0 son
linealmente independientes ya que los 1s que estan en la primera componente dis-
tinta de cero de cada uno de estos renglones estan en diferentes columnas y son los
unicos elementos distintos de cero en esas columnas. As, cualquier combinacion
lineal de los renglones distintos de cero de A0 que de el vector 0, debe tener todos
los coeficientes igual a 0. Por lo tanto, el rango de A0 debe ser r. Finalmente, como
A A0 , entonces por 3.11, rang(A) = rang(A0 ) = r. t
u
0 1
2 3 13 3 17
B 1 3 11 3 13 C
Ejemplo 3.6. Calcularemos el rango de la matriz A = B C
@ 2 4 16 6 24 A usando eli-
1 2 8 2 10
minacion gaussiana. En efecto, usando operaciones elementales en renglones:
110 3 Sistemas de ecuaciones lineales
0 1 0 1
2 3 13 3 17 1 2 8 2 10
B1 3 11 3 13 C B 11 3 13 C
B C B1 3 C
@2 4 16 6 24 A @ 2 4 16 6 24 A
1 2 8 2 10 2 3 13 3 17
0 1
1 2 8 2 10
B0 1 3 1 3 C
@B C
0 0 0 2 4 A
0 1 3 1 3
0 1 0 1
1 2 8 2 10 12806
B0 131 3 C B C
B C B0 1 3 0 1C
@0 0 0 2 4 A @0 0 0 1 2A
0 000 0 00000
0 1 0 1
1 0204 10024
B0 1 3 0 1C B C
B C B0 1 0 3 1C
@0 0 0 1 2A @0 0 1 0 2A
0 0000 00000

y por lo tanto A A0 , con A0 escalonada reducida con 3 renglones no cero. Se sigue


que rang(A) = 3.
Unicidad de la forma escalonada reducida. Nuestro objetivo ahora es mostrar que
si A es una matriz m n y A0 y A00 son dos matrices en forma escalonada reducida
equivalentes a A, entonces A0 = A00 . Para esto, comencemos observando que si A es
la matriz cero entonces A0 y A00 tambien son cero porque son equivalentes a A.
Supongamos entonces que el rango r de A satisface que r 1. Nuestro primer
objetivo es determinar algunas propiedades de cualquier matriz escalonada reducida
equivalente a A, digamos A0 :
(1) Observe que, como A0 esta en forma escalonada reducida y A0 A, por la pro-
posicion anterior el rango de A es el numero de renglones distintos de cero de A0 .
Observe tambien que en A0 hay r renglones cuya primera entrada no cero es 1 y que
arriba y abajo (cuando es posible) de estos 1s solo hay ceros. Por lo tanto, las r
columnas correspondientes a estos 1s son los vectores canonicos e1 , . . . , er de K m
ya que los m r ultimos renglones de A0 son todos cero. Entonces, r de las columnas
C10 , . . . ,Cn0 de A0 son los vectores canonicos e1 , . . . , er . Sean k1 < k2 < < kr los lu-
gares donde estan estos vectores canonicos, es decir, Ck0 i = ei . Sean Cki las columnas
correspondientes en A.
(2) Mostraremos que Ck1 , . . . ,Ckr son linealmente independientes. En efecto, si se
tiene una combinacion lineal

(a) a1Ck1 + + arCkr = 0,

como A0 se obtiene de A mediante operaciones elementales en renglones, existe una


matriz m m invertible P tal que PA = A0 . Multiplicando (a) por P se obtiene

(b) a1 PCk1 + + ar PCkr = 0


3.3 El metodo de Gauss 111

y como PCki = Ck0 i = ei , entonces (b) es:

a1 e1 + + ar er = 0

y por lo tanto a1 = = ar = 0 ya que los ei son linealmente independientes. Se


sigue que Ck1 , . . . ,Ckr son columnas linealmente independientes de A.
(3) Observemos ahora que como A0 tiene solo r renglones no cero en la parte supe-
rior, cada columna de A0 es de la forma:
0 0 1
a1 j
B .. C
B . C
B 0 C
Ba C
C0j = B rj C
B 0 C.
B C
B . C
@ .. A
0

Se sigue que C0j = a01 j e1 + + a0r j er , y como C0j = PC j , entonces

C j = P 1C0j = P 1 (a01 j e1 + + a0r j er )


= a01 j P 1 e1 + + a0r j P 1 er
= a01 jCk1 + + a0r jCkr porque PCki = ei .

Hemos as probado:
Teorema 3.29. Sea A 2 Matmn (A) una matriz de rango r 1 y sea A0 una matriz
en forma escalonada reducida equivalente a A. Entonces,
(1) Para cada i = 1, . . . , r existe una columna Ck0 i de A0 tal que Ck0 i = ei , el vector
canonico de K m correspondiente.
(2) Si Cki es la columna de A correspondiente al ndice ki , entonces Ck1 , . . . ,Ckr son
linealmente independientes.
(3) Para cada j = 1, . . . , n, si la columna j de A0 es C0j = a1 j e1 + +ar j er , entonces
la columna j de A es
C j = a1 jCk1 + + ar jCkr .
t
u

Corolario 3.30. Si A 2 Matmn (A), entonces cualesquiera dos matrices en forma


escalonada reducida equivalentes a A son iguales. Es decir, la forma escalonada
reducida de A es unica.

Demostracion. Sean A0 y A00 dos matrices en forma escalonada reducida equivalen-


tes a A con columnas (C10 , . . . ,Cn0 ) y (C100 , . . . ,Cn00 ) respectivamente. Mostraremos que
C0j = C00j para toda j. Para comenzar, podemos suponer que el rango r de A satisface
que r 1. Por la parte (1) del teorema anterior las columnas e1 , . . . , er aparecen en
112 3 Sistemas de ecuaciones lineales

A0 y A00 . Sean k1 < < kr y `1 < < `r tales que Ck0 i = ei y C`00i = ei . Mostraremos
ahora que ki = `i para toda i = 1, . . . , r por induccion sobre r.
(i) Si r = 1, Ck0 1 = e1 = C`001 y supongamos, sin perder generalidad, que `1 k1 . Si
sucediera que `1 > k1 , entonces C00j = 0 para 1 j < `1 , y por la parte (3) del teorema
anterior la columna de A correspondiente a C00j es C j = 0 tambien, para 1 j < `1 .
En particular, Ck1 = 0, lo cual contradice la parte (2) del teorema (ya que Ck1 debe
ser miembro de un conjunto linealmente independiente). Se sigue que k1 = `1 .
(ii) Supongamos que ki = `i para toda i < r. Mostraremos que kr = `r . Sin per-
der generalidad, supongamos que `r kr . Si sucediera que `r > kr , entonces para
1 j < `r , las columnas C00j tendran ceros hacia abajo comenzando con el renglon
r 1. Consecuentemente, por la parte (3) del teorema las columnas C j correspon-
dientes a C00j tendran tambien ceros hacia abajo comenzando con el renglon r 1.
En particular, Ckr tendra ceros a partir del renglon r 1.
Consideremos ahora la submatriz B de A dada por las primeras kr columnas:
B = (C1 , . . . ,Ckr ) y observemos que los renglones de B, a partir del renglon r 1
son todos cero y por lo tanto el rango de B es r 1, por (3.15). Pero esto contradice
la parte (2) del teorema que afirma que Ck1 , . . . ,Ckr son linealmente independientes.
Hemos as probado que los vectores canonicos e1 , . . . , er que aparecen en A0 y
A00 ,
estan en las mismas columnas de estas dos matrices. Por lo tanto, las columnas
de A que les corresponden son las mismas, es decir, Ck1 = C`1 , . . . ,Ckr = C`r .
Para mostrar que A0 = A00 , mostraremos que cualesquiera dos de sus columnas
son iguales: C0j = C00j . En efecto, escribiendo cada una de estas columnas como com-
binacion lineal de e1 , . . . , er :

C0j = a1 e1 + + ar er y C00j = b1 e1 + + br er ,

por la parte (3) del teorema anterior, la columna C j de A que les corresponde satis-
face que:
C j = a1Ck1 + + arCkr = b1Ck1 + + brCkr
y, como los Cki son linealmente independientes, entonces ai = bi para toda i. Se
sigue que C0j = C00j y por lo tanto A0 = A00 . t
u

Solucion de sistemas de ecuaciones por el metodo de eliminacion de Gauss. Si


Ax = b es un sistema de m ecuaciones lineales en n incognitas y si (A0 |b0 ) es la matriz
escalonada reducida equivalente a la matriz del sistema (A|b), por la proposicion
3.21 y el corolario 3.22 el conjunto de soluciones de A0 x = b0 es el mismo que el
del sistema original. Consideremos el sistema A0 x = b0 . Entonces, si el sistema es
soluble, el rango r de A es igual al rango de (A|b) y as (A0 |b0 ) tiene exactamente
r renglones distintos de cero y por lo tanto el sistema A0 x = b0 tiene exactamente r
ecuaciones lineales en n incognitas y como A0 esta escalonada reducida, cada una
de las r ecuaciones del sistema A0 x = b0 esta encabezada por una de r variables con
coeficiente 1.
Paso 1. Se separan las n variables x1 , . . . , xn en dos conjuntos ajenos:
3.3 El metodo de Gauss 113

(i) Las que encabezan una ecuacion en A0 x = b0 . Hay r de estas variables.


(ii) Las que no encabezan alguna ecuacion de A0 x = b0 . Hay n r de estas.
Paso 2. A cada variable que no encabeza una ecuacion de A0 x = b0 le asignamos un
valor parametrico t j . As, hay n r parametros t j .
Paso 3. Despejamos las r variables que encabezan ecuaciones en terminos de los
parametros anteriores.
Con los pasos anteriores se obtiene un vector v = (x1 , . . . , xn ) 2 K n , el cual es so-
lucion del sistema Ax = b, como veremos a continuacion, y donde sus componentes
son de dos tipos: parametros ti o sumas de (algunos) de estos parametros mas termi-
nos constantes. Para mostrar que v es solucion del sistema Ax = b, basta ver que es
solucion de A0 x = b0 , donde A0 es la matriz escalonada reducida equivalente a A. Sin
perder generalidad, podemos asumir de ahora en adelante que A = A0 . Escribamos
A = (C1 , . . . ,Cn ) con C j las columnas de A. Por la definicion 3.25 de matriz escalo-
nada reducida existen r ndices 1 k1 < < kr n tales que las columnas Cki = ei
(el vector canonico de K m correpondiente). De hecho, los ndices ki corresponden
a las columnas de A donde aparecen los 1 que encabezan renglones. Tamnien, por
la definicion 3.25, que las r columnas Cki forman una base de Im TA . Denotemos
con C ji a las n r columnas de A diferentes de las Cki , ordenadas por los ndices
1 j1 < < jn r n. Estas n r columnas corresponden a las variables que no
encabezan ecuaciones en el sistema Ax = b.
Ahora, dados n r escalares t1 , . . . ,tn r (los valores parametricos del paso 2 an-
terior), consideremos el vector columna
n r
C= tiC ji .
i=1

Entonces, C es combinacion lineal de (algunas) de las columnas de A y as C 2 Im TA .


Ahora, como b 2 Im TA porque estamos asumiendo que el sistema tiene soluciones,
entonces b C 2 Im TA , y como Ck1 , . . . ,Ckr es base de Im TA , entonces existen es-
calares unicos sk1 , . . . , skr tales que

b C = sk1 Ck1 + + skr Ckr

y por lo tanto
r n r
() b = (sk1 Ck1 + + skr Ckr ) +C = ski Cki + tiC ji .
i=1 i=1

Se sigue que el vector


r n r
() v = ski eki + ti e ji
i=1 i=1

es una solucion del sistema Ax = b ya que


114 3 Sistemas de ecuaciones lineales

r n r
A v = ski Aeki + ti Ae ji
i=1 i=1
r n r
= ski Cki + tiC ji porque Ae j = C j
i=1 i=1
=b por ().

Note que el vector v anterior es el vector v obtenido en los pasos (1), (2) y (3)
de arriba. Observe tambien que, poniendo todos los ti = 0, se obtiene la solucion
particular:
r
v0 := ski eki .
i=1

Finalmente, en la solucion (), poniendo ti = 1 y t j = 0 para las j 6= i, se obtienen


las n r soluciones
r
ui := ski Cki + e ji
(i)
()
i=1

1 i n r. Otra forma de describir el procedimiento anterior, para obtener los


vectores ui , es el paso siguiente, que tambien comienza con la expresion obtenida
para el vector v solucion del sistema:
Paso 4. Como en el vector v = (x1 , . . . , xn ) obtenido arriba, las componentes son
sumas de (algunos) de los parametros mas terminos constantes, podemos separar al
vector v de la forma siguiente:
(i) Agrupamos en un vector v0 a los terminos constantes de cada componente de
v.
(ii) Juntamos en un vector los terminos que contengan al parametro t1 de cada
componente de v.
(iii) Juntamos en un vector los terminos que contengan al parametro t2 de cada
componente de v.
(iv) Etcetera.
Despues, del vector obtenido en (ii) factorizamos a t1 para obtener t1 u1 con u1 un
vector de K n . Similarmente, factorizamos a t2 del vector obtenido en (iii) para tener
t2 u2 . Etcetera. Al final obtenemos la expresion siguiente para v:

v = v0 + t1 u1 + t2 u2 + + tn r un r ,

con v0 , u1 , . . . , un r vectores de K n .
Mostraremos ahora que los vectores u1 , . . . , un r forman una base de ker TA , y
para esto comenzamos mostrando que generan este nucleo: en efecto, por cons-
truccion cada ui 2 ker TA y as K(u1 , . . . , un r ) ker TA . Supongamos ahora que
u = (a1 , . . . , an ) es cualquier elemento de ker TA . Entonces
3.3 El metodo de Gauss 115
n r
() u ak uk = l j ek j
k=r+1 j=1

ya que, por la forma () de los ui , para k r + 1, el vector ak uk contiene el su-


mando ak e jk que cancela la componente ak en el lugar jk de u.
Ahora, como ker TA es espacio vectorial, se tiene que u nk=r+1 ak uk 2 ker TA y
as el vector w := rj=1 l ek j 2 ker TA . Es decir, A w = 0, y como A w es la suma de
columnas de A con coeficientes las entradas l j correspondientes de w, entonces

l1Ck1 + + lrCkr = 0

y como los Cki son linealmente independientes, entonces li = 0 para toda i y as en


() se tiene que u nk=r+1 ak uk = 0, es decir,
n
u= ak uk 2 K(u1 , . . . , un r )
k=r+1

y por lo tanto u1 , . . . , un r genera a ker TA como se quera.


Hemos mostrado as que Sh = ker TA = K(u1 , . . . , un r ). Finalmente, como u1 , . . .,
un r generan ker TA , y como

dimK ker TA = dimK K n dimK Im TA = n rang(A) = n r,

entonces u1 , . . . , un r debe ser una base de ker TA . Hemos probado as:


Teorema 3.31. Sean Ax = b un sistema soluble de m ecuaciones lineales en n
incognitas, (A0 |b0 ) la forma escalonada reducida de (A|b) y r el rango de A. Supon-
gamos que v0 y u1 , . . . , un r se obtuvieron con el metodo descrito arriba. Entonces,
(1) v0 es una solucion particular de Ax = b.
(2) u1 , . . . , un r es una base de ker TA .
(3) Consecuentemente, el conjunto de soluciones del sistema Ax = b es:

S = v0 + ker TA = {v 2 K n : v = v0 + t1 u1 + t2 u2 + + tn r un r , ti 2 K}.
t
u

Ejemplo 3.7. Halle todas las soluciones del sistema

3x1 + 9x2 + x3 + 5x4 = 7


2x1 + 6x2 + 3x3 + x4 = 7
x1 + 3x2 + x3 + x4 = 3.

La matriz aumentada es:


0 1
3915 7
(A|b) = @ 2 6 3 1 7 A
1311 3
116 3 Sistemas de ecuaciones lineales

y usando el metodo de eliminacion de Gauss:

0 1 0 1
3915 7 1 311 3
@2 6 3 1 7A @3 9 1 5 7A
1311 3 2 631 7
0 1
1 3 1 1 3
@0 0 2 2 2A
0 0 1 1 1
0 1
1 3 1 1 3
@0 0 1 1 1 A
0 0 2 2 2
0 1
1 3 0 2 2
@0 0 1 1 1A
0 0 0 0 0

y por lo tanto rang(A|b) = 2 = rang(A), por lo que el sistema tiene soluciones. El


sistema de ecuaciones equivalente al dado es:

x1 + 3x2 + 2x4 = 2
x3 x4 = 1

y las variables que encabezan ecuaciones son x1 y x3 , y las variables que no enca-
bezan ecuaciones son x2 y x4 . Dando valores parametricos a las variables que no
encabezan ecuaciones:
x2 = t1 y x4 = t2 ,
despejamos las variables que s encabezan ecuaciones:

x3 = 1 + x4 = 1 + t2
x1 = 2 3x2 2x4 = 2 3t1 2t2

por lo que la solucion general del sistema esta dada por los vectores de la forma

v = (x1 , x2 , x3 , x4 )
= (2 3t1 2t2 ,t1 , 1 + t2 ,t2 )
= (2, 0, 1, 0) + ( 3t1 2t2 ,t1 ,t2 ,t2 )
= (2, 0, 1, 0) + t1 ( 3, 1, 0, 0) + t2 ( 2, 0, 1, 1),

donde v0 = (2, 0, 1, 0) es una solucion particular del sistema y u1 = ( 3, 1, 0, 0)


y u2 = ( 2, 0, 1, 1) forman una base del subespacio de soluciones del sistema ho-
mogeneo asociado Sh .

Ejemplo 3.8. Considere el sistema de ecuaciones:


3.3 El metodo de Gauss 117

x1 + 2x2 + 4x3 + 5x4 = 4


x1 + 4x2 + 6x3 + 9x4 = 6
2x1 + 6x2 + 10x3 + 14x4 = 6.

La matriz aumentada es:


0 1
12 4 5 4
(A|b) = @ 1 4 6 9 6A
2 6 10 14 6

y usando el metodo de eliminacion de Gauss:


0 1 0 1
12 4 5 4 1 245 4
@1 4 6 9 6A @0 224 2A
2 6 10 14 6 0 224 2
0 1
1 245 4
@0 112 1A
0 000 4
0 1
1 021 2
@0 112 1A
0 000 4
0 1
1 021 0
@0 112 0 A,
0 000 1

por lo que rang(A|b) = 3 6= 2 = rang(A) y as el sistema no tiene soluciones.

Ejercicio 3.12. Si A es m n y m < n, demuestre que el sistema Ax = 0 tiene una


solucion no trivial.

Ejercicio 3.13. Si Ax = b es un sistema de n ecuaciones con n incognitas, demuestre


que el sistema tiene una unica solucion si y solo si A es invertible. Muestre ademas
que la (unica) solucion es de la forma x = A 1 b.

Ejercicio 3.14. De un ejemplo de un sistema de n ecuaciones con n incognitas con


mas de una solucion.

Ejercicio 3.15. Halle todas las soluciones del sistema de ecuaciones

2x + y z=5
x y+z = 1
x + 2y 2z = 4.

Ejercicio 3.16. Halle todas las soluciones del sistema de ecuaciones


118 3 Sistemas de ecuaciones lineales

x1 + 2x2 8x3 = 0
2x1 3x2 + 5x3 = 0
3x1 + 2x2 12x2 = 0.

Ejercicio 3.17. Halle todas las soluciones del sistema de ecuaciones

3x1 1x2 + x3 = 2
x1 + 5x2 +2x3 = 6
2x1 + 3x2 + x3 = 0.

Ejercicio 3.18. Halle todas las soluciones del sistema de ecuaciones

3x1 6x2 x3 x4 = 0
x1 2x2 + 5x3 3x4 = 0
2x1 4x2 + 3x3 x4 = 3.

Ejercicio 3.19. Halle todas las soluciones del sistema de ecuaciones

4x1 + 3x2 9x3 + x4 = 1


x1 + 2x2 13x3 + 3x4 = 3
3x1 x2 + 8x2 2x4 = 2.

También podría gustarte