Está en la página 1de 59

10 CAP

ITULO 1
1.1.3 El metodo de eliminacion de Gauss, o metodo de esca-
lerizacion
El objetivo de esta seccion es presentar un metodo sistematico para la
resolucion de sistemas lineales de cualquier tama no. La idea del metodo es
muy simple: ir reduciendo en cada paso el problema a un problema que tiene
una ecuacion menos y una incognita menos. Este metodo es conocido como
metodo de escalerizacion, metodo de eliminacion de Gauss o metodo
de eliminacion de gaussiana. Los dos ultimos nombres aluden a que en
cada paso vamos eliminando una o mas incognitas, y son un reconocimiento a
quien introdujo el metodo:
el matem atico Carl Friederich Gauss (1777-1855)
4
Ejemplo 1.1.9. Busquemos tres n umeros reales x, y y z que satisfagan
_
_
_
x +y + 2z = 8,
2y +z = 8
z = 2.

Este es un sistema 33 muy facil de resolver. De la ultima ecuacion se despeja


z = 2
. Con este valor de z sustituimos en al segunda ecuacion y tenemos
2y + 2 = 8 2y = 6 y = 3.
Finalmente con los valores de y y z hallados subimos a la primera ecuacion
y sustituyendo se tiene que
x + 3 + 2 2 = 8 x = 1.
En consecuencia, el sistema tiene una unica solucion, que es
x = 1, y = 3, z = 2.
4
Gauss fue uno de los grandes cientcos de toda la historia. Una breve biografa
de Gauss y referencias para lecturas posteriores pueden encontrarse en el sitio web
http://www-gap.dcs.st-and.ac.uk/history/. El nombre de escalerizacion tiene que ver
con la forma que adopta el sistema al cabo de un n umero nito de pasos, luego de los
que queda convertido en un problema cuya solucion es obvia, como el de nuestro proximo
ejemplo.
1.1 Introducci on a los sistemas lineales 11
Podemos escribir esta solucion como la lista de tres n umeros reales (1, 3, 2). El
conjunto de soluciones del sistema es {(1, 3, 2)}. El procedimiento de despejar
una incognita en una ecuacion y sustituirla en otra de arriba se denomina
sustitucion hacia arriba, y es posible por la forma particular de este sistema.

Diremos que un sistema como el del ejemplo 1.1.9, en el que


1. las inc ognitas que aparecen en cada ecuacion tambien aparecen en la
anterior;
2. en cada ecuacion aparecen menos incognitas que en la anterior,
esta escalerizado, por la forma de escalera que adoptan sus ecuaciones al
ser escritas. Para estos sistemas escalerizados tenemos un metodo facil de
resolucion: calcular las incognitas que aparecen en las ultimas ecuaciones e ir
sustituyendo hacia arriba.
Mostraremos, primero con un ejemplo, como el metodo de escalerizacion
permite transformar el problema de calcular las soluciones de un sistema lineal
en el problema de resolver un sistema lineal escalerizado.
Ejemplo 1.1.10. Busquemos las soluciones del sistema
_
_
_
x +y + 2z = 8,
x + 2y +z = 0,
2x +y +z = 4.
(1.3)
Explicitaremos los pasos de nuestra resolucion.
Paso 1. Comenzamos por hacer desaparecer la variable x de todas las ecua-
ciones menos una, usando el siguiente procedimiento: para eliminar la x en la
segunda ecuacion le restamos la primera; como x aparece en la tercera ecuacion
con un factor 2 multiplicamos la primera ecuacion por 2, y luego la restamos
de la tercera. Obtenemos
_
_
_
x +y + 2z = 8,
y z = 8,
y 3z = 12.
Observacion 1.1.11. En general, restaremos a la i-esima ecuacion, para
i = 2, 3, . . ., el resultado de multiplicar la primera por el cociente a
i1
/a
11
entre el coeciente a
i1
que aparece multiplicando a x en la ecuacion i, y el
coeciente a
11
que x tiene en la primera ecuacion. Si x no aparece en la pri-
mera ecuacion entonces a
11
es cero y no podemos hacer este calculo. En este
caso cambiaremos el orden de las ecuaciones, y pondremos en primer lugar
una ecuacion en que la variable x aparezca.
12 CAP

ITULO 1
El resultado del paso 2 es que x no aparece en la segunda ni en la tercera
ecuacion. Si miramos esas dos ecuaciones aisladamente nuestro problema se
reduce a un sistema 2 2, con incognitas y y z. Una vez resuelto este pro-
blema, mas peque no que el original, podremos calcular x usando la primera
ecuacion. De esta manera el algoritmo de eliminacion va reduciendo el tama no
del problema.
Paso 2. Haremos desaparecer la variable y de la tercera ecuacion. Sim-
plemente sumamos la segunda ecuacion a la tercera, y nuestro sistema se
transforma en
_
_
_
x +y + 2z = 8,
y z = 8,
4z = 20.
Nuestro sistema ya alcanzo la forma escalerizada que lo vuelve de facil reso-
lucion, por lo que detenemos aqu nuestro algoritmo.
Paso 3. Resolvemos este ultimo sistema. De la tercera ecuacion conclui-
mos z = 5. Sustituyendo hacia arriba y despejando de la segunda ecuacion
obtenemos y = 3. Finalmente, usamos los valores de hallados en la primera
ecuacion, para concluir que x = 1.
Parece que hemos resuelto el problema. Pero, que nos garantiza que las
soluciones halladas son las soluciones del problema original? Podemos vericar
que es as, sustituyendo los valores x = 1, y = 3 y z = 5 en el sistema
_
_
_
1 1 + 1 (3) + 2 5 = 8,
1 1 + 2 (3) + 1 5 = 0,
2 1 + 1 (3) + 1 5 = 4.
Estupendo, hemos hallado la solucion del sistema. Un momento! Solo hemos
vericado que lo que tenemos es solucion. Pero, sera la solucion? No podra
haber otras? Que asegura que nuestras transformaciones no modican el
conjunto de soluciones del sistema?
Observacion 1.1.12. El procedimiento de sustituir las soluciones halladas
para ver si las ecuaciones se satisfacen o no permite vericar si hemos en-
contrado soluciones del sistema. Pero no nos permite saber si hay o no mas
soluciones. Esta limitacion de la vericacion no debe hacernos perder de vista
que es muy recomendable vericar nuestros calculos siempre que sea posible
hacerlo. Mas a un, en algunos casos es imperdonable el error de aportar una
solucion inexacta cuando es posible vericar su correccion.
Las transformaciones que hemos realizado en cada paso del ejemplo 1.1.10
consisten en repetir una y otra vez la misma operacion: sumar a una de las
1.1 Introducci on a los sistemas lineales 13
ecuaciones un m ultiplo de otra
5
. Mostraremos a continuacion que esta opera-
cion no modica el conjunto de soluciones del sistema: el nuevo sistema que
obtenemos es equivalente al original, en el sentido de que ambos tienen exac-
tamente el mismo conjunto solucion. Naturalmente, luego de aplicar una serie
de transformaciones que preservan la equivalencia de sistemas el sistema nal
es equivalente al sistema original: no hemos agregado ni perdido soluciones en
todo el proceso.
Proposicion 1.1. Si en un sistema lineal de ecuaciones se sustituye una
ecuacion por el resultado de sumar a esa misma ecuacion un m ultiplo de otra,
entonces el sistema resultante es equivalente al original.
Demostraci on. Supongamos que el sistema original sea
(S)
_

_
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
,
.
.
.
a
i1
x
1
+a
i2
x
2
+. . . +a
in
x
n
= b
i
,
.
.
.
a
j1
x
1
+a
j2
x
2
+. . . +a
jn
x
n
= b
j
,
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
,
y que sumamos a la ecuacion j el resultado de multiplicar ambos miembros de
la ecuacion i por un n umero . Obtenemos un nuevo sistema
(S

)
_

_
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
,
.
.
.
a
i1
x
1
+a
i2
x
2
+. . . +a
in
x
n
= b
i
,
.
.
.
a
j1
x
1
+. . . +a
jn
x
n
+(a
i1
x
1
+. . . +a
in
x
n
) = b
j
+b
i
,
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
.
Para probar que ambos son equivalentes deberemos ver que cualquier solucion
de S es solucion de S

y viceversa. Es decir, que Sol(S) = Sol(S

), donde
Sol(S) y Sol(S

) son los conjuntos solucion de S y S

respectivamente.
5
La gracia del metodo esta en escoger habilmente el factor por el que se multiplica la
ecuacion a sumar, de modo de hacer desaparecer una incognita en la ecuacion resultante
14 CAP

ITULO 1
Veamos primero que cualquier solucion de S es solucion de S. Sea (
1
,
2
, . . . ,
n
)
una solucion de (S). Es claro que (
1
,
2
, . . . ,
n
) satisface todas las ecuacio-
nes de (S

) pues son las mismas que las de (S) salvo, tal vez, la j-esima. Como
(
1
,
2
, . . . ,
n
) debe vericar la i-esima y j-esima ecuacion de (S) se tiene que
a
i1

1
+a
i2

2
+. . . +a
in

n
= b
i
, a
j1

1
+a
j2

2
+. . . +a
jn

n
= b
j
.
Multiplicando ambos miembros de la primera igualdad por y sumando miem-
bro a miembro, se deduce inmediatamente que
a
j1

1
+. . . +a
jn

n
+(a
i1

1
+. . . +a
in

n
) = b
j
+b
i
.
Por lo tanto, tambien la j-esima ecuacion de S

se satisface.
La vericacion de que cualquier solucion de S

es tambien solucion de S
emplea esencialmente el mismo argumento. Igual que antes es claro que
(
1
,
2
, . . . ,
n
) debe vericar todas las ecuaciones de (S) salvo tal vez la
j-esima. Por la j-esima ecuacion en S

sabemos que
a
j1

1
+. . . +a
jn

n
+(a
i1

1
+. . . +a
in

n
) = b
j
+b
i
,
en tanto que la i-esima implica
a
i1

1
+a
i2

2
+. . . +a
in

n
= b
i
.
Multiplicamos ambos miembros de la i-esima por , y restamos de la ecuacion
que ocupa el lugar j, para concluir
a
j1

1
+a
j2

2
+. . . +a
jn

n
= b
j
.
Esto muestra que (
1
,
2
, . . . ,
n
) Sol(S) y la prueba esta concluda
6
.
La proposicion 1.1 es el fundamento teorico del metodo de eliminacion que
hemos presentado en el ejemplo 1.1.10: nos asegura que en cada paso hemos
respetado la equivalencia entre el sistema de partida y el de llegada. Ahora
s, nalmente estamos seguros de que el conjunto solucion del sistema en ese
ejemplo es {(1, 5, 3)}, y no hay soluciones diferentes a (1, 5, 3).
En el proceso de eliminacion hay veces en que es imprescindible intercam-
biar ecuaciones. Junto con la transformacion de sumar a una ecuacion un
6
No es esencial para nuestro argumento que las ecuaciones del sistema S sean linea-
les. La proposicion es tambien cierta para sistemas de ecuaciones no lineales, de la forma
gi(x1, x2, . . . , xn) = bi, i = 1, 2, . . . , m, donde las expresiones gi pueden depender de las
variables xj, j = 1, 2, . . . , n, de cualquier manera. Sin embargo, a diferencia de lo que ocurre
para sistemas lineales, no puede obtenerse un metodo sistematico de resolucion de sistemas
cualesquiera a partir de esta proposicion.
1.1 Introducci on a los sistemas lineales 15
m ultiplo de otra, esto es todo lo que necesitaremos para el metodo de elimi-
nacion de Gauss, o escalerizacion. Ademas de estas operaciones recurriremos
a la de multiplicar una ecuacion por alg un n umero distinto de cero
7
. Llama-
remos transformaciones elementales a estas operaciones. Es decir, a las
siguientes operaciones efectuadas a las ecuaciones de un sistema lineal:
1. Sumar a una ecuacion un m ultiplo de otra.
2. Intercambiar de lugar dos ecuaciones.
3. Multiplicar una ecuacion por un n umero distinto de cero.
Observemos que si a un sistema le aplicamos una operacion elemental obtene-
mos un sistema equivalente. Parte de la prueba de este hecho esta contenida
en la proposicion 1.1. El resto se completa con la primera parte del siguiente
ejercicio.
Ejercicio 1.3.
1. Mostrar que si en un sistema se intercambian dos ecuaciones, o se multiplica
una ecuacion por un n umero distinto de cero, entonces se obtiene un sistema
equivalente al original. Que puede ocurrir si se multiplica una ecuacion por 0?
2. Mostrar que si una ecuacion es sustituida por el resultado de multiplicar esa
ecuacion por un n umero distinto de cero y sumarle un m ultiplo cualquiera de
otra ecuacion cualquiera del sistema, entonces el sistema resultante es equiva-
lente al original.
Observacion 1.1.13. Notemos que cuando una ecuacion es sustituida por
el resultado de sumarle un m ultiplo de otra la informacion contenida en la
ecuacion eliminada no desaparece: esta implcita en la nueva ecuacion, porque
la ecuacion sustituida entro con un coeciente no nulo en la formacion de
esta nueva ecuacion (en la mayora de los casos este coeciente sera igual a
1). Esta nueva ecuacion, junto con la que se uso en la combinacion lineal,
permiten recuperar la ecuacion eliminada.
1.1.4 Notacion matricial
Al trabajar con un sistema de ecuaciones la representacion de las incognitas
(x, y, z, o x
1
, . . . , x
n
, etc.) no desempe na ning un papel importante y puede
usarse cualquiera. De hecho, para determinar las soluciones de un sistema es
7
Por ejemplo, cuando todos los coecientes de una ecuacion son negativos en general
simplica las cosas multiplicar la ecuacion por 1. O cuando se quiere conseguir que el
primer coeciente no nulo de una ecuacion sea igual a 1.
16 CAP

ITULO 1
suciente con conocer los coecientes y el termino independiente del mismo.
Naturalmente no alcanza con conocer los valores de estos n umeros, sino que
es necesario saber el lugar que ocupan: a que ecuacion pertenecen y a que
incognita multiplican. Por esto resulta conveniente introducir la nocion de
matriz. Llamaremos matriz A de m las por n columnas (o simplemente
matriz mn) de entradas
a
ij
, i = 1, 2 . . . , m, j = 1, 2, . . . , n,
en un cuerpo K, a un ordenamiento rectangular
8
de n umeros
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
En general indicaremos con may usculas las matrices, y con la letra min uscula
correspondiente a sus entradas. Por ejemplo, a la matriz A con entradas a
ij
la indicaremos por
A = ((a
ij
))
i=1,...,m
j=1,...,n
,
o mas brevemente A = ((a
ij
)) cuando las dimensiones esten claras. El primer
ndice i indica la la y el segundo j la columna a la que pertenece la entrada.
Dos matrices son iguales si tienen el mismo tama no y los mismas entradas
en las mismas posiciones. Dicho de otro modo si A y B son dos matrices mn
entonces A = B si y solo si
a
ij
= b
ij
i = 1, . . . , m, j = 1, . . . , n.
Dos matrices de distinto tama no jamas pueden ser iguales.
Ejemplo 1.1.14. La matriz ((1/(2i +j)))
i=1,2
j=1,3
es igual a la matriz
_
1
3
1
4
1
5
1
5
1
6
1
7
_
.
Si
A =
_
1 2

2 1
_
, B =
_
2 1

2 1
_
,
entonces A = B pues a
11
= 1 = 2 = b
11
.
8
El lector atento notara que la frase ordenamiento rectangular es intuitiva pero no esta
denida con precision. Es posible dar una denicion formal : Una matriz A de m las por n
columnas sobre el cuerpo K es una funcion A : {1, . . . , m}{1, . . . , n} K. No creemos que
este formalismo tenga ninguna utilidad para nuestro curso, por lo que preferimos introducir
y manejar las matrices en terminos mas intuitivos.
1.1 Introducci on a los sistemas lineales 17
Dado un sistema lineal de ecuaciones
_

_
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
,
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
,
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
,
llamaremos matriz del sistema a la matriz A, cuya dimension mn es igual
al tama no del sistema, formada por sus coecientes. Esto es:
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
.
Llamaremos, matriz ampliada del sistema a la matriz m(n + 1)
_
_
_
_
_
a
11
a
12
. . . a
1n
b
1
a
21
a
22
. . . a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
b
m
_
_
_
_
_
,
que incorpora los terminos independientes. Corrientemente escribiremos esta
matriz en la forma
_
_
_
_
_
a
11
a
12
. . . a
1n
b
1
a
21
a
22
. . . a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
b
m
_
_
_
_
_
,
para recordar que estamos considerando la matriz ampliada de un sistema, cu-
ya ultima columna tiene un signicado diferente a las anteriores. Tambien las
representaremos en la forma breve A|B. Naturalmente, toda la informacion
que necesitamos sobre el sistema lineal esta encerrada en la matriz amplia-
da A|B. Veremos mas adelante que, en realidad, mucha de la informacion
relevante acerca del sistema solo depende de la matriz A formada por sus
coecientes.
La denicion anterior introduce una notacion mas compacta (matricial)
para un sistema de ecuaciones. Veamos un ejemplo.
18 CAP

ITULO 1
Ejemplo 1.1.15. Consideremos el sistema
_
_
_
x +y + 2z = 9,
3x + 6y 5z = 0,
2x + 4y 3z = 1.
Entonces la matriz del sistema y la matriz ampliada son:
A =
_
_
1 1 2
3 6 5
2 4 3
_
_
, A|B =
_
_
1 1 2 9
3 6 5 0
2 4 3 1
_
_
.
Esta notacion mas compacta simplicara la escritura e implementacion del
algoritmo de eliminacion de Gauss.
Antes de mostrar con un ejemplo la implementacion del metodo de esca-
lerizacion con la notacion matricial vale la pena hacer algunas observaciones.
Observacion 1.1.16. Cada la de la matriz del sistema corresponde a una
de las ecuaciones del sistema. Las operaciones del metodo de escalerizacion se
traduciran entonces en operaciones sobre las las de la matriz. En particular,
las transformaciones elementales seran, en este contexto, las siguentes:
1. Sumar a una la el resultado de multiplicar otra por un n umero cual-
quiera.
2. Intercambiar de lugar dos las.
3. Multiplicar una la por un n umero = 0.
Cada incognita del sistema queda en correspondencia con una de las columnas
de la matriz A del sistema. Una entrada a
ij
igual a 0 en la matriz A es
equivalente a que la incognita x
j
no aparezca en la i-esima ecuacion.
Observacion 1.1.17. Con la introduccion de las matrices ganamos, para
empezar, con la economa en la notacion. Veremos a lo largo de este curso las
matrices pueden ser consideradas desde varios puntos de vista:
en muchas situaciones son una forma ordenada de escribir la informacion
disponible;
pueden ser consideradas como un arreglo de mn n umeros;
como un conjunto ordenado de n columnas;
1.1 Introducci on a los sistemas lineales 19
como un arreglo de m las;
tambien como un unico objeto, que es ademas un elemento de una es-
tructura algebraica.
Finalmente, pueden ser vistas como la denicion de una transformacion
de K
n
en K
m
.
Ejemplo 1.1.18. La escalerizaci on en notaci on matricial
Vamos a reescribir los pasos del ejemplo (1.1.10) en notacion matricial.
Esto permite conseguir bastante economa en la notacion. El sistema original
queda expresado en la forma:
_
_
1 1 2 8
1 2 1 0
2 1 1 4
_
_
.
Cada ecuacion esta ahora representada por una la de coecientes en la matriz
ampliada del sistema.
Observacion 1.1.19. Un poco de jerga.
Llamaremos pivote a la primera
9
entrada no nula de cada la de una matriz.
Con esta terminologa podemos describir la eliminacion de Gauss como un
procedimiento que busca, a traves de la aplicacion reiterada de las transfor-
maciones elementales, dejar un unico pivote por columna. En cada paso de la
escalerizacion, una vez escogido un pivote, lo empleamos para eliminar todas
los otros pivotes de la misma columna.
Paso 1. Las operaciones que antes hacamos con las ecuaciones deben hacerse
ahora sobre las de coecientes. Escogemos el pivote 1 en la primera la, y
restamos entonces esta primera la de la segunda para hacer aparecer un cero
en el primer lugar de la segunda la (esto es equivalente a hacer desaparecer
la variable x en la ecuacion correspondiente). Luego multiplicamos la primera
la por 2 y la restamos de la tercera. El resultado es
_
_
1 1 2 8
0 1 1 8
0 1 3 12
_
_
.
Solo un pivote, el 1 de la primera la, aparece en la primera columna.
9
El orden que estamos empleando es el obvio: es el orden en que estan numeradas las
columnas.
20 CAP

ITULO 1
Paso 2. Sumamos la segunda la a la tercera y llegamos a la matriz escaleri-
zada
_
_
1 1 2 8
0 1 1 8
0 0 4 20
_
_
. (1.4)
Observemos que con la representacion matricial hemos aligerado bastante la
notacion.
La nueva matriz ampliada (1.4) es una representacion del sistema de ecua-
ciones
_
_
_
x +y + 2z = 8,
y z = 8,
4z = 20,
cuya solucion podemos calcular directamente. La tercera ecuacion implica
z = 5. Al sustituir en la segunda podemos despejar y = 3. Finalmente,
la primera implica x 3 + 2 5 = 8, por lo que x = 1. El procedimiento
de escalerizar y resolver el sistema escalerizado sustituyendo hacia arriba nos
permite hallar el conjunto solucion del sistema original.
Llamaremos matriz escalerizada a una matriz que cumpla las siguientes
condiciones:
1. todas las las, salvo quizas la primera, comienzan con una sucesion de
ceros;
2. cada la tiene al principio por lo menos un cero m as que la la inmediata
superior.
Escalerizar una matriz es llevarla a una forma escalerizada por medio de
transformaciones elementales (ver la observacion 1.1.16, en la pagina 18). Si
E es una matriz que se obtiene escalerizando otra matriz A, entonces diremos
que E es una forma escalerizada de A. Diremos que un sistema esta escale-
rizado si su matriz ampliada lo esta. Escalerizar un sistema es encontrar
otro sistema escalerizado equivalente. Naturalmente, escalerizar un sistema es
equivalente a escalerizar la matriz ampliada del sistema.
Pondremos en practica la tecnica con un nuevo ejemplo.
Ejemplo 1.1.20. Resolver en R el sistema:
_

_
x
1
+ 2x
2
+x
3
+x
5
+x
6
= 1
x
1
2x
2
+x
3
+x
4
x
6
= 0
x
1
+ 2x
2
+x
3
+ 2x
4
+ 5x
5
+ 3x
6
= 1
x
1
+ 2x
2
+x
3
+x
5
+ 3x
6
= 3
x
1
+ 2x
2
+x
3
+ 4x
4
+ 9x
5
+ 3x
6
= 1
1.1 Introducci on a los sistemas lineales 21
La matriz ampliada del sistema es:
_
_
_
_
_
_
1 2 1 0 1 1 1
1 2 1 1 0 1 0
1 2 1 2 5 3 1
1 2 1 0 1 3 3
1 2 1 4 9 3 1
_
_
_
_
_
_
.
El proceso comienza jando la entrada no nula de primera la como pivote y
utilizandola para lograr ceros en el resto de la primera columna. El resultado
es la matriz
_
_
_
_
_
_
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 2 4 2 0
0 0 0 0 0 2 2
0 0 0 4 8 2 2
_
_
_
_
_
_
F
2
+F
1
F
3
F
1
F
4
F
1
F
5
F
1
.
Hemos anotado al margen de la matriz las transformaciones que en este pri-
mer paso de la escalerizacion fueron hechas a la matriz ampliada del sistema.
Creemos que la notacion empleada se explica por s sola.
En el ejemplo 1.1.18, se utilizaba la entrada a
22
en el segundo paso de
la escalerizacion para conseguir ceros en la segunda columna columna. Aqu
esto no es posible pues la segunda columna ya tiene todas sus entradas, salvo
la primera, nulas. En consecuencia, el segundo escalon debera estar en la
tercera columna, donde aparece la entrada no nula a
23
. Por debajo de a
23
solo hay ceros, as que continuamos nuestro algoritmo usando el pivote 2 de la
entrada a
34
. He aqu la matriz que se obtiene, junto con la indicacion de las
operaciones realizadas:
_
_
_
_
_
_
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 2 4 2 0
0 0 0 0 0 2 2
0 0 0 0 0 2 2
_
_
_
_
_
_
F
5
2F
3
En el tercer paso operaremos sobre la sexta columna:
_
_
_
_
_
_
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 2 4 2 0
0 0 0 0 0 2 2
0 0 0 0 0 0 0
_
_
_
_
_
_
F
5
+F
4
.
22 CAP

ITULO 1
Ya tenemos la forma escalerizada, con pivotes en las columnas primera, tercera,
cuarta y sexta. El sistema lineal, equivalente al sistema original en el sentido
de que tiene exactamente las mismas soluciones, que corresponde a esta matriz
es
x
1
+ 2x
2
+ x
3
+ x
5
+ x
6
= 1,
2x
3
+ x
4
+ x
5
= 1,
2x
4
+ 4x
5
+ 2x
6
= 0,
2x
6
= 2.
De la ultima ecuacion resulta x
6
= 1. Con esta informacion vamos a la tercera
y concluimos
x
4
+ 2x
5
= 1. (1.5)
Esto no permite determinar x
4
ni x
5
, pero podemos dejar expresada una
incognita en terminos de la otra. Expresemos x
4
, una variable que corres-
ponde a una columna con un pivote en la forma escalerizada, en terminos de
x
5
, como
x
4
= 1 2x
5
.
Sustituyendo en la segunda ecuacion obtenemos
x
3
=
x
5
2
+ 1.
Combinando toda esta informacion con la primera ecuacion resulta
x
1
+ 2x
2
+
3x
5
2
+ 1 = 0. (1.6)
Nuevamente escogemos despejar la variable que corresponde al pivote para
escribir
x
1
= 2x
2

3x
5
2
1.
Concluimos entonces que todas las soluciones del sistema son de la forma
(1 2x
2
3x
5
/2, x
2
, 1 +x
5
/2, 1 2x
5
, x
5
, 1) ,
donde x
2
y x
5
son dos parametros reales que podemos jar a nuestro antojo.
La solucion no es unica, pero puede describirse completamente en terminos de
las variables x
2
y x
5
.
Observacion 1.1.21. Variables libres
La razon para despejar las variables de las columnas con pivotes (x
4
de la
ecuacion (1.5), x
1
de (1.6)) es que siempre es posible despejar la variable que
esta multiplicada por el pivote en terminos de las otras porque su coeciente,
1.1 Introducci on a los sistemas lineales 23
el pivote, es no nulo. Despejar las otras variables podra ser imposible. He
aqu un ejemplo: si la forma escalerizada de una matriz ampliada es
_
1 0 1 0 0
0 0 1 2 0
_
entonces podemos despejar x
3
= 2x
4
, o x
4
= x
3
/2 de la ultima ecuacion.
En la primera podemos despejar x
1
= x
3
, pero es imposible expresar x
2
en
terminos de las restantes variables.
Vamos a introducir la denominacion variables libres para las incognitas
que corresponden a columnas sin pivotes. Enfaticemos que siempre es posible
expresar las soluciones del sistema en terminos de las variables libres
10
. Cada
una de estas variables corresponde a un grado de libertad dentro del conjunto
solucion del sistema.
Las variables x
2
y x
5
son las variables libres en el ejemplo 1.1.20.
Veamos un ejemplo mas en el que trataremos un sistema trabajando sobre
su representacion matricial.
Ejemplo 1.1.22. Resolveremos en Z
2
el sistema
_

_
x
1
+x
2
+x
4
+x
5
= 1,
x
2
+x
3
+x
4
= 1,
x
1
+x
3
+x
5
= 1,
x
2
+x
3
+x
5
= 1.
La matriz ampliada del sistema es
_
_
_
_
1 1 0 1 1 1
0 1 1 1 0 1
1 0 1 0 1 1
0 1 1 0 1 1
_
_
_
_
.
La llevaremos a una forma escalerizada. Comenzamos por sumar la primera
la a la tercera:
_
_
_
_
1 1 0 1 1 1
0 1 1 1 0 1
0 1 1 1 0 0
0 1 1 0 1 1
_
_
_
_
.
10
Lo que no excluye la posibilidad de que las soluciones puedan expresarse en terminos de
otras variables, que incluyan a algunas de las que corresponden a columnas con pivotes.
24 CAP

ITULO 1
Ahora sumaremos la segunda a la tercera y la cuarta:
_
_
_
_
1 1 0 1 1 1
0 1 1 1 0 1
0 0 0 0 0 1
0 0 0 1 1 0
_
_
_
_
.
Para obtener la forma escalerizada intercambiamos las las tercera y cuarta:
_
_
_
_
1 1 0 1 1 1
0 1 1 1 0 1
0 0 0 1 1 0
0 0 0 0 0 1
_
_
_
_
.
Este sistema es incompatible, porque la cuarta ecuacion es equivalente a
0x
1
+ 0x
2
+ 0x
3
+ 0x
4
+ 0x
5
= 1.
Como el miembro de la izquierda vale 0 para cualquier eleccion de las incognitas,
esta ecuacion no puede satisfacerse. El conjunto solucion del sistema es el con-
junto vaco
11
.
Ejercicio 1.4. Resolver el sistema del ejemplo 1.1.22, pero cambiando los segundos
miembros de todas las ecuaciones del sistema de forma tal que la ultima columna de
la matriz ampliada del nuevo sistema sea (0, 1, 1, 0).
Ejercicio 1.5. Resolver el sistema
_

_
x
1
+ 2x
2
+x
3
+x
5
+x
6
= 1
x
1
2x
2
+x
3
+x
4
x
6
= 0
x
1
+ 2x
2
+x
3
+ 2x
4
+ 5x
5
+ 3x
6
= 1
x
1
+ 2x
2
+x
3
+x
5
+ 3x
6
= 3
x
1
+ 2x
2
+x
3
+ 4x
4
+ 9x
5
+ 3x
6
= 1
Existe una alternativa al procedimiento de calcular la ultima variable y
luego comenzar a sustituir hacia arriba: consiste en utilizar las ultimas ecua-
ciones para ir eliminando variables de las anteriores. El procedimiento es el
mismo que el de escalerizacion, pero se van eliminando variables hacia arri-
ba. Veamos un ejemplo.
11
El sistema no tiene solucion, pero el problema de hallar las soluciones del sistema s! El
conjunto solucion es el conjunto vaco.
1.1 Introducci on a los sistemas lineales 25
Ejemplo 1.1.23. Volvamos al problema del ejemplo 1.1.18. Luego de escale-
rizar el sistema habamos obtenido la matriz
_
_
1 1 2 8
0 1 1 8
0 0 4 20
_
_
. (1.7)
Busquemos ahora eliminar las entradas que corresponden a la variable z en la
primera y segunda ecuacion. Dividiremos la ultima ecuacion entre 4. Luego
la sumaremos a la segunda. Tambien haremos la operacion de multiplicar la
ultima la por 2 y restarla de la primera. Obtenemos
_
_
1 1 0 2
0 1 0 3
0 0 1 5
_
_
.
Por ultimo, hacemos aparecer un 0 en el segundo lugar de la primera la,
restando la segunda ecuacion a la primera. El resultado nal es
_
_
1 0 0 1
0 1 0 3
0 0 1 5
_
_
.
El sistema asociado a esta matriz es, naturalmente,
_
_
_
x = 1,
y = 3,
z = 5,
cuya resolucion es inmediata.
Consideraremos ahora un caso un poco mas complicado.
Ejemplo 1.1.24. Retomamos el sistema del ejemplo 1.1.20 en el punto en
que habamos escalerizado la matriz del sistema. Tenamos que
_
_
_
_
_
_
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 2 4 2 0
0 0 0 0 0 2 2
0 0 0 0 0 0 0
_
_
_
_
_
_
era la matriz asociada al sistema escalerizado. Usaremos ahora los pivotes
para hacer aparecer ceros por encima de ellos. Como paso previo dividimos
26 CAP

ITULO 1
las las tercera y cuarta por sus pivotes,
_
_
_
_
_
_
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 1 2 1 0
0 0 0 0 0 1 1
0 0 0 0 0 0 0
_
_
_
_
_
_
.
Luego comenzamos por hacer aparecer ceros sobre el pivote de la ultima co-
lumna, y obtenemos
_
_
_
_
_
_
1 2 1 0 1 0 0
0 0 2 1 1 0 1
0 0 0 1 2 0 1
1 0 0 0 0 1 1
0 0 0 0 0 0 0
_
_
_
_
_
_
F
1
F
4
,
F
3
F
4
.
A partir de esta nueva matriz operamos con el pivote de la cuarta columna:
_
_
_
_
_
_
1 2 1 0 1 0 0
0 0 2 0 1 0 2
0 0 0 1 2 0 1
0 0 0 0 0 1 1
0 0 0 0 0 0 0
_
_
_
_
_
_
F
2
F
3
,
Ahora lo hacemos con el de la segunda columna, y dividimos la segunda la
entre 2 para que su pivote quede igual a 1. El resultado nal es
_
_
_
_
_
_
1 2 0 0
3
2
0 1
0 0 1 0
1
2
0 1
0 0 0 1 2 0 1
0 0 0 0 0 1 1
0 0 0 0 0 0 0
_
_
_
_
_
_
F
1

1
2
F
2
,

1
2
F
2
,
(1.8)
donde hemos enfatizado ademas la forma escalerizada que tiene la matriz.
El sistema de ecuaciones asociado con esta matriz es
_

_
x
1
+ 2x
2
+
3
2
x
5
+ = 1,
x
3

1
2
x
5
= 1,
x
4
+ 2x
5
= 1,
x
6
= 1,
y ahora es completamente directo despejar x
1
, x
3
y x
4
en terminos de x
2
y x
5
para reencontrar que
{(1 2x
2
3x
5
/2, x
2
, 1 +x
5
/2, 1 2x
5
, x
5
, 1) ; x
2
, x
5
R}
1.1 Introducci on a los sistemas lineales 27
es el conjunto solucion del sistema.
Insistamos en que las incognitas no pueden determinarse completamente.
Por ello hemos elegido expresar todo en terminos de x
2
y x
5
de modo tal que
cada pareja de valores reales elegido para x
2
y x
5
determina una solucion del
sistema. Por ejemplo, la eleccion mas sencilla de todas es
x
2
= x
5
= 0,
que da lugar a
(1, 0, 1, 1, 0, 1).
Para x
2
= 1 y x
5
= 0 se obtiene la solucion
(3, 1, 1, 1, 0, 1).
Si x
2
= 0 y x
5
= 1 se tiene la solucion
(5/2, 0, 3/2, 3, 1, 1) .
El sistema es compatible e indeterminado, porque tiene mas de una solucion.
Ademas sabemos como construirlas todas. El proceso de escalerizacion selec-
ciona a las variables x
2
y x
5
como variables libres, y en terminos de x
2
y x
5
,
cuyos valores pueden ser jados arbitrariamente, hemos escrito todas las solu-
ciones. El sistema tiene entonces dos grados de libertad. No nos extendemos
mucho mas sobre esto, porque sera el objeto de la seccion 1.3, pero dejamos
planteado un ejercicio para el lector.
Ejercicio 1.6. Mostrar que todas las soluciones del sistema de este ejemplo tam-
bien pueden escribirse en terminos de las variables x
1
y x
4
, pero que es imposible
expresarlas en funcion de x
1
y x
2
.
Observacion 1.1.25. Matriz escalerizada reducida
Vemos en nuestros ultimos dos ejemplos que continuar con la escalerizacion
hacia arriba a partir de la forma escalerizada de la matriz, nos permite llegar
a una nueva matriz, escalerizada, equivalente a la forma escalerizada que ya
habamos obtenido y a la original, tal que
1. todos los pivotes son iguales a 1;
2. las columnas correspondientes a los pivotes tienen todas las entradas
nulas, salvo el pivote.
28 CAP

ITULO 1
Llamaremos matriz escalerizada reducida a una matriz escalerizada que
cumple ademas estas dos condiciones. Notemos que siempre que tengamos una
matriz escalerizada reducida podremos, si el sistema es compatible, despejar
directamente las variables de las columnas de los pivotes, y expresarlas en
funcion de las entradas en la ultima columna de la matriz ampliada y de las
variables libres.
Observacion 1.1.26. Operaciones con listas de n umeros.
Notemos que a lo largo de esta seccion hemos introducido, casi sin darnos
cuenta, algunas operaciones algebraicas con las las de las matrices asociadas
a los sistemas lineales.
Por ejemplo en el primer paso del ejemplo 1.1.18 nos referimos al resultado
de multiplicar por dos cada uno de los n umeros en la la (1, 1, 2, 8) para obtener
la la (2, 2, 4, 16) como la operacion de multiplicar por 2 la la (1, 1, 2, 8). Es
decir, interpretamos que
2 (1, 1, 2, 8) = (2 1, 2 1, 2 2, 2 8) = (2, 2, 4, 16).
Tambien nos hemos referido al resultado de sumar entrada a entrada las dos
las (0, 1, 1, 8) y (0, 1, 3, 12) como a la operacion de sumar ambas las.
En otras palabras
(0, 1, 1, 8) + (0, 1, 3, 12) = (0, 0, 4, 20).
En general, observemos que todo esto es equivalente a denir las siguientes
operaciones para las (listas) de cuatro n umeros:
Suma de dos listas:
(x
1
, x
2
, x
3
, x
4
) + (y
1
, y
2
, y
3
, y
4
) = (x
1
+y
1
, x
2
+y
2
, x
3
+y
3
, x
4
+y
4
).
Producto de una lista por un n umero:
(x
1
, x
2
, x
3
, x
4
) = (x
1
, x
2
, x
3
, x
4
).
Estas operaciones entre las, o listas, de n umeros son bastante naturales,
y, por supuesto, su denicion puede extenderse a listas de longitud cualquiera,
tanto las (listas escritas en forma horizontal) como columnas (escritas en
vertical). La existencia de estas operaciones dota al conjunto K
n
formado
por listas de n n umeros en el cuerpo K de una estructura algebraica. Por eso
nos referiremos a este conjunto como el espacio, o espacio vectorial, K
n
. Desa-
rrollaremos mas estas ideas en la seccion 1.2 y secciones siguientes, pero vale
1.1 Introducci on a los sistemas lineales 29
la pena ir introduciendo esta idea de que llamaremos espacio a un conjunto
(en este caso el conjunto K
n
) que esta dotado de alg un tipo de estructura (una
estructura algebraica en el ejemplo que estamos considerando). Esta estruc-
tura nos sera util para describir las soluciones de los sistemas de ecuaciones
lineales.
1.1.5 Un poco de teora: cualquier sistema puede ser escaleri-
zado
Hasta este momento hemos usado el algoritmo de escalerizacion, y resuelto
unos cuantos sistemas de ecuaciones con el. El lector podra preguntarse si
cualquier matriz puede ser llevada a una forma escalerizada. La respuesta es
que s. Y la demostracion no pasa de ser un analisis cuidadoso del metodo.
Todo esto esta contenido en nuestra siguiente proposicion.
Proposicion 1.2. Toda matriz puede ser transformada en una matriz esca-
lerizada mediante una cantidad nita de transformaciones elementales
Demostraci on. Razonaremos por induccion sobre el n umero de las de
la matriz A. Como primer paso, digamos que es obvio que una matriz que
tiene una unica la se puede escalerizar por medio de una cantidad nita de
operaciones elementales
12
.
Supongamos ahora que la proposicion es cierta para matrices con m 1
las, y veremos como implica que se puede escalerizar cualquier matriz con m
las. Sea A = ((a
ij
)) una matriz m n, con m 2, sobre un cuerpo K
cualquiera. Indiquemos por
A
i
= (a
i1
, a
i2
, . . . , a
in
)
su la i-esima.
Distingamos tres casos:
1. si a
11
= 0 entonces realizamos el primer paso de la escalerizacion: susti-
tuimos cada la A
i
, para i = 2, . . . , m, por
A

i
= A
i

a
i1
a
11
A
1
.
La eleccion del multiplicador para A
1
asegura que la primera entrada de
cada una de estas las A

i
es nula;
12
En realidad no hay que hacer ninguna: una matriz con una unica la ya esta escalerizada.
No hay nada que hacer con ella
30 CAP

ITULO 1
2. si a
11
= 0, pero la primera columna tiene alguna entrada a
i1
no nula,
entonces escogemos una la A
i
tal que a
i1
= 0, e intercambiamos
13
la
primera la con A
i
. La aplicacion de esta operacion elemental de inter-
cambiar dos las nos coloca en la situacion del caso 1. Luego procedemos
como en ese caso;
3. si toda la primera columna es nula entonces no hacemos nada.
El resultado del paso anterior es una nueva matriz que tiene el siguiente aspecto
_
_
_
_
_
a
11
a
12
. . . a
1n
0 a

22
. . . a

2n
.
.
.
.
.
.
.
.
.
.
.
.
0 a

m2
. . . a

mn
_
_
_
_
_
.
Para escalerizar esta matriz basta encontrar una forma escalerizada de la sub-
matriz
((a

ij
))
j=2,...,n
i=2,...,m
,
que tiene m 1 las. Por lo tanto esta forma escalerizada puede obtenerse
por medio de un n umero nito de transformaciones elementales.
Ejercicio 1.7. Mostrar que cualquier matriz puede ser llevada a una forma escale-
rizada reducida por medio de una cantidad nita de operaciones elementales.
La proposicion que acabamos de demostrar tiene un util corolario para la
resolucion de sistemas de ecuaciones lineales.
Corolario 1.3. Todo sistema lineal es equivalente a uno escalerizado.
Observacion 1.1.27. Notemos que para llegar a la forma escalerizada no es
necesario usar la transformacion elemental que consiste en multiplicar una la
de la matriz o una ecuacion de un sistema por un n umero distinto de cero.
Usaremos esta observacion en la seccion dedicada al calculo de determinates
(seccion 2.5).
13
Por razones numericas y para no amplicar innecesariamente errores de redondeo, al
resolver sistemas con ayuda de una computadora resulta muchas veces importante, a un
cuando a11 = 0, cambiar la primera la por la la que tenga la primera entrada mayor. Este
procedimiento se conoce como pivoteo.
1.2 Compatibilidad de los sistemas 31
1.2 Compatibilidad de los sistemas lineales: la ima-
gen de la matriz del sistema
Comencemos esta seccion por una observacion obvia: si un sistema de ecua-
ciones lineales nos interesa
14
lo mas probable es que el interes provenga de
que queremos conocer su solucion. Pero no todos los sistemas lineales tienen
solucion. Ya hemos visto esta posibilidad en los ejemplos y ejercicios de la
seccion 1.1, y hemos dado en llamar incompatibles a estos sistemas. Con es-
te nombre los distinguimos de los sistemas compatibles, que tienen solucion.
Posiblemente muchas. Nos dedicaremos ahora a entender este problema de
la compatibilidad e incompatibilidad de los sistemas de ecuaciones lineales.
Al hacerlo iremos introduciendo algunas de las nociones mas importantes del

Algebra Lineal.
Nuestro primer paso es cambiar un poco el punto de vista acerca de los sis-
temas de ecuaciones lineales, retomando la idea de operar con listas de n umeros
(las o columnas) que introdujimos en la observacion 1.1.26, pagina 28, de la
seccion 1.1. Una solucion (x
1
, x
2
, . . . , x
n
) del sistema
_

_
a
11
x
1
+a
12
x
2
+. . . +a
1j
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2j
+. . . +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mj
+. . . +a
mn
x
n
= b
m
(1.9)
puede ser vista como un conjunto de n umeros que hace que se satisfagan todas
las ecuaciones del sistema. Pero tambien podemos pensar as: cada uno de los
n umeros x
j
aparece multiplicando a los coecientes que estan en la j-esima
columna de la matriz del sistema. Es decir, cada x
j
aparece en una columna
_
_
_
_
_
a
1j
x
j
a
2j
x
j
.
.
.
a
mj
x
j
_
_
_
_
_
= x
j
_
_
_
_
_
a
1j
a
2j
.
.
.
a
mj
_
_
_
_
_
. (1.10)
La igualdad esta justicada por la convencion de que multiplicar un n umero
por una columna (la) es lo mismo que multiplicar cada entrada de la columna
14
Interes que damos por descontado en esta seccion.
32 CAP

ITULO 1
(la) por ese n umero. Calcular la suma
x
1
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
+. . . +x
j
_
_
_
_
_
a
1j
a
2j
.
.
.
a
mj
_
_
_
_
_
+. . . +x
n
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
(1.11)
de las n columnas de la matriz multiplicadas por los n umeros x
j
es lo mismo
que sumar entrada a entrada, para j = 1, 2 . . . , n las columnas que aparecen en
el primer miembro de (1.10). Al hacer esta operacion obtenemos la columna
_
_
_
_
_
a
11
x
1
+. . . +a
1j
x
j
+. . . +a
1n
x
n
a
21
x
1
+. . . +a
2j
x
j
+. . . +a
2n
x
n
.
.
.
a
m1
x
1
+. . . +a
mj
x
j
+. . . +a
mn
x
n
_
_
_
_
_
, (1.12)
que contiene todos los primeros miembros de las ecuaciones del sistema. Na-
turalmente, que el sistema se satisfaga es equivalente a que la columna (1.12)
sea igual a la columna
B =
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
,
formada por los n umeros b
i
, i = 1, 2, . . . , m de los segundos miembros.
Podemos ver entonces nuestro sistema de m ecuaciones como una unica
ecuacion escrita en terminos de listas de m n umeros: las columnas de la matriz
y la columna de los terminos independientes. Si llamamos A
j
a la j-esima
columna de la matriz, para j = 1 . . . , n, podemos representar el sistema (1.9)
como
x
1
A
1
+x
2
A
2
+. . . x
j
A
j
. . . +x
n
A
n
= B, (1.13)
donde B es la columna del termino independiente. Notemos que el miembro de
la izquierda en (1.13) es lo mismo que (1.11), pero expresado con una notacion
mas breve. Resolver el sistema es buscar una lista de n n umeros x
1
,. . . , x
n
tales que se satisfaga (1.13)
Ejemplo 1.2.1. COMPLETAR Vericar las soluciones de los ejemplos de
la primera seccion con esta notacion de columnas.
1.2 Compatibilidad de los sistemas 33
Observacion 1.2.2. Combinaciones lineales.
En general, si A
j
, j = 1, . . . , n son vectores de K
m
, y x
j
, j = 1, . . . , n son
n umeros en el cuerpo K, diremos que
x
1
A
1
+x
2
A
2
+. . . +x
j
A
j
+. . . +x
n
A
n
(1.14)
es la combinacion lineal los vectores A
j
, con coecientes x
j
.
Diremos tambien que un vector B K
m
es una combinacion lineal de
A
j
, j = 1, . . . , n, si existen escalares x
j
, j = 1 . . . , n tales que B es igual a la
combinacion lineal de los vectores A
j
con esos coecientes.
Es sumamente interesante ver una representacion geometrica de la cons-
truccion de estas combinaciones lineales. A continuacion la presentamos para
el caso de dos vectores de R
2
, que pueden ser representados en el plano
Ejemplo 1.2.3. Interpretaci on geom etrica de las combinaciones li-
neales.
Consideremos A
1
= (1, 1) y A
2
= (1, 0) en R
2
......
COMPLETAR EL EJEMPLO
Antes de continuar trabajando con los sistemas lineales examinaremos al-
gunos otros ejemplos. Escribiremos todos los vectores como las, no como
columnas, simplemente para ahorrar algo de espacio en el papel.
Ejemplo 1.2.4.
La n-upla nula 0 = (0, . . . , 0) es combinacion lineal de cualquier coleccion
de n-uplas, basta tomar todos los coecientes nulos para obtenerla.
Sea A = {(1, 2, 1), (2, 2, 2)} R
3
entonces (0, 6, 0) es combinacion
lineal de A con coecientes 2 y 1 pues
(0, 6, 0) = 2(1, 2, 1) + (1)(2, 2, 2).
Pero no es posible escribir (0, 6, 1) como una combinacion lineal de estos
dos vectores. Veriquemoslo. Expresar (0, 6, 1) como combinacion lineal
de (1, 2, 1) y (2, 2, 2) es lo mismo que encontrar dos coecientes x e y
tales que
(0, 6, 1) = x(1, 2, 1) +y(2, 2, 2) = (x + 2y, 2x 2y, x + 2y).
Y esta igualdad es equivalente al sistema de ecuaciones
_
_
_
x + 2y = 0,
2x 2y = 6,
x + 2y = 1.
34 CAP

ITULO 1
Al escalerizarlo encontramos
_
_
_
x + 2y = 0,
4y = 6,
0 = 1,
por lo que concluimos que el sistema es incompatible y es imposible ex-
presar (0, 6, 1) como combinacion lineal de los dos vectores dados. Ob-
servemos que hemos pasado del problema de expresar un vector como
combinacion lineal de otros, a un sistema de ecuaciones lineales. Tal
como comentabamos, ambos problemas son en realidad equivalentes.
Sea A = {(1, 2, 1), (2, 2, 2), (1, 8, 1)} combinemos linealmente los vecto-
res de A con coecientes 3,1 y 1. Obtenemos
3(1, 2, 1) + (1)(2, 2, 2) + 0(1, 1, 1) = (2, 16, 2).
Y si hacemos la combinacion con coecientes 6, 2 y 0 resulta
6(1, 2, 1) + (2)(2, 2, 2) + 0(1, 1, 1) = (2, 16, 2).
Exactamente el mismo vector! Vemos entonces que distintas combina-
ciones lineales de una misma familia de vectores pueden dar el mismo
resultado. Mirando las cosas desde otro punto de vista: hay ejemplos
acabamos de ver uno en que un vector puede ser expresado en mas
de una forma como combinacion lineal de una familia de vectores dados.
Naturalmente, estos ejemplos corresponden a sistemas lineales compati-
ble e indeterminados.
Todava es posible introducir una notacion mas concisa que (1.13) para un
sistema lineal de ecuaciones: deniremos el producto AX de la matriz A por
la columna
15
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
como la combinacion lineal
AX = x
1
A
1
+x
2
A
2
+. . . x
j
A
j
. . . +x
n
A
n
de las columnas de A con los coecientes almacenados en la columna X.
15
En este momento lo unico importante es que X sea una lista de longitud n. La restriccion
de escribirla como una columna quedara justicada mas adelante, en la seccion ??, cuando
denamos el producto de matrices en un contexto mas general que este.
1.2 Compatibilidad de los sistemas 35
Ejemplo 1.2.5.
Al multiplicar cualquier matriz m n por una columna de n ceros se
obtiene una columna de m ceros.
Si multiplicamos una matriz mn por una columna formada por ceros en
todas sus entradas salvo la i-esima, en la que ponemos un 1, el resultado
es la i-esima columna de la matriz.

_
_
1 2
2 2
1 2
_
_
_
2
1
_
=
_
_
0
6
0
_
_
.
Sea
A =
_
_
1 2 1
2 2 8
1 2 1
_
_
.
Entonces
A
_
_
3
1
1
_
_
= A
_
_
6
2
0
_
_
=
_
_
2
16
2
_
_
.
El lector atento habra notado en este ejemplo que hemos presentado nueva-
mente algunas de las combinaciones lineales del ejemplo 1.2.4, ahora escritas
en forma de productos de matrices por columnas.
Observacion 1.2.6. Notaci on con sumatoriass
En la i-esima entrada del producto AX aparece la suma
a
i1
x
1
+a
i2
x
2
+. . . +a
in
x
n
de las entradas i-esimas de cada columna, multiplicadas por el coeciente que
multiplique a esa columna. Muchas veces es conveniente emplear el signo de
sumatoria para expresar una suma de este tipo:
n

j=1
a
ij
x
j
= a
i1
x
1
+a
i2
x
2
+. . . +a
in
x
n
,
con lo que se gana cierta economa en la notacion.
Si tenemos listas de n umeros a
j
y b
j
, para para j = 1, . . . , n, entonces las
propiedades conmutativa y asociativa de la suma en el cuerpo K nos permiten
asegurar que
n

j=1
(a
j
+b
j
) =
n

j=1
a
j
+
n

j=1
b
j
.
36 CAP

ITULO 1
Comentemos que, en general, cualquier cambio en el orden en que se hagan
las sumas no altera el resultado nal. Ademas, si es otro n umero cualquiera
en K se satisface

j=1
a
j
=
n

j=1
a
j
.
En algunos casos usaremos esta notacion para simplicar la escritura.
Tambien puede emplearse el signo de sumatoria para escribir en forma mas
breve sumas que involucran listas de vectores. Por ejemplo, la combinacion
lineal que aparece en la denicion del producto de una matriz por un vector
es
AX =
n

j=1
x
j
A
j
,
donde A
j
, j = 1 . . . , n son las columnas de la matriz.
Con la notacion que hemos introducido al denir el producto de una ma-
triz A por una columna X podemos resumir la voluminosa y amenazadora
expresion (1.9) con que hemos representado en la pagina 31 el sistema con
matriz A y termino independiente B, en la casi insignicante formula
AX = B. (1.15)
Hemos ganado algo con todo este alarde de notacion? Poco, al menos ahora
es mas facil escribir un sistema lineal... pero su resolucion sigue igual de
complicada que antes. Pero, atencion! No hemos denido el producto AX
solo para simplicar nuestra escritura
16
. Este producto tiene ademas buenas
propiedades respecto a la estructura lineal con la que estamos trabajando, y
lo veremos aparecer una y otra vez a lo largo de este curso. Pasamos ahora
a enunciar y demostrar una de las propiedades mas basicas, ya que haremos
uso de ella dentro de muy poco.
Proposicion 1.4. Linealidad en X del producto AX.
Sean A una matriz mn sobre el cuerpo K, X e Y dos columnas de longitud n,
y a un elemento de K. Entonces
1. A(X +Y ) = AX +AY ;
2. A(aX) = a(AX).
16
Aunque este proposito justicara por s solo introducir tal denicion!
1.2 Compatibilidad de los sistemas 37
Demostraci on.
Escribamos X = (x
1
, . . . , x
n
), Y = (y
1
, . . . , y
n
). Entonces la j-esima entrada
de X +Y es x
j
+y
j
. Recurramos a la expresion con sumatorias del producot
A(X +Y ). Entonces la i-esima entrada de esta columna es
n

j=1
a
ij
(x
j
+y
j
) =
n

j=1
a
ij
x
j
+
n

j=1
a
ij
y
j
,
que es la suma de la i-esima entrada de AX con la i-esima entrada de AY .
Por lo tanto A(X +Y ) = AX +AY . Dejamos la demostracion de la segunda
propiedad como un ejercicio para el lector.
Ejercicio 1.8. Completar la demostracion de la proposicion anterior.
Observacion 1.2.7. Las matrices definen transformaciones linea-
les.
La operacion de multiplicar X K
m
por una matriz A de dimensiones mn
dene una correspondencia
X AX
que a cada X le asocia AX K
n
. La proposicion 1.4 asegura que esta corres-
pondencia es una transformacion lineal, en el siguiente sentido:
1. la imagen de la suma de dos vectores X e Y es la suma de sus imagenes;
2. la imagen del resultado de multiplicar un vector por un escalar es el
producto de ese mismo escalar por la imagen del vector.
1.2.1 Compatibilidad del sistema. Espacio de columnas
Disponemos ahora de una notacion concisa para un sistema de ecuaciones
lineales. Y de una nueva interpretacion del sistema: se trata de buscar una
lista X de n coecientes que produzcan el termino independiente B haciendo
una combinacion lineal de las columnas de la matriz A. Este punto de vista
ofrece una caracterizacion de los vectores B que hacen compatible el sistema:
son aquellos vectores B que pueden ser escritos como combinacion lineal de
las columnas de A. Como cualquier combinacion lineal de las columnas de A
puede expresarse como el producto de A por el vector X que contiene los
coecientes de la combinacion lineal, resulta entonces que los B que hacen
el sistema compatible son justamente aquellos que pueden expresarse en la
forma AX, donde X es alguna lista de n coecientes. Llamaremos espacio
38 CAP

ITULO 1
de columnas de la matriz A a este conjunto, y lo indicaremos por col(A).
Tenemos entonces que
col(A) = {AX; X K
n
}
es el conjunto
17
formado por todas las posibles combinaciones lineales de las
columnas de A. El sistema AX = B es compatible si y solo si B col(A).
Comenzaremos a ver ahora como las nociones introducidas nos ayudaran
a entender un poco mas de la estructura de col(A)
18
, y a encontrar maneras
economicas de describirlo.
La primera buena noticia es que col(A) tiene buen comportamiento res-
pecto a las operaciones de suma de vectores y producto por un escalar.
Proposicion 1.5. Estructura lineal de col(A).
Si Y
1
e Y
2
estan en col(A) y a es un escalar cualquiera en K entonces
1. Y
1
+Y
2
col(A);
2. aY
1
col(A);
Demostraci on. Que Y
1
e Y
2
esten en el espacio de columnas de la matriz A
es equivalente a que existan dos listas de longitud n, a las que llamaremos X
1
y X
2
, tales que
Y
1
= AX
1
, Y
2
= AX
2
.
Por lo tanto
Y
1
+Y
2
= AX
1
+AX
2
= A(X
1
+X
2
),
y hemos conseguido expresar Y
1
+Y
2
como el producto de A por un vector, el
vector X
1
+X
2
, lo que implica que Y
1
+Y
2
col(A).
La segunda parte es muy parecida, ya que
aY
1
= a(AX
1
) = A(aX
1
)
es el resultado de multiplicar A por aX
1
.
Sabemos ademas que col(A) es no vaca, ya que todas las columnas de A
estan en la imagen.
17
En breve aclararemos por que hemos dado en llamar espacio a este conjunto.
18
Esto es importante, ya que el lector atento podra quejarse de que todos los comentarios
previos son mas o menos tautologicos. Y observar que, hasta ahora, salvo la introduccion
del nombre col(A) para designar al conjunto de los B para los que el sistema tiene solucion,
no hemos hecho mucho mas que decir que este conjunto esta formado por aquellos B para
los que el sistema tiene solucion.
1.2 Compatibilidad de los sistemas 39
Ejercicio 1.9.
1. Justicar la armacion de que cada una de las columnas de A esta en col(A).
2. Mostrar que la columna 0 formada por m ceros tambien esta en la imagen de A.
Interpretar este hecho en terminos de la compatibilidad del sistema homogeneo
AX = 0.
Vemos entonces que col(A) es un subconjunto no vaco de K
m
que es ce-
rrado respecto a las operaciones de suma de vectores y producto por
un escalar, en el sentido de que cuando sumamos entre s, o multiplicamos
por un escalar, vectores que pertenezcan a col(A) el resultado tambien esta en
col(A). Esto implica que las operaciones de suma de vectores y de producto
por un escalar estan denidas cuando nos restringimos a trabajar en col(A),
lo que dota a col(A) (igual que ocurra con todo el espacio K
n
) de una cierta
estructura algebraica.
Veremos que esta estructura algebraica, heredada de la estructura que
tiene K
n
porque esta basada en las operaciones all denidas, nos sera util para
describir la imagen de la matriz. Tambien veremos a lo largo de este curso el
importante papel que tienen los subconjuntos cerrados frente a las operaciones
de suma de vectores y producto por un escalar, as que les pondremos un
nombre especco: los llamaremos subespacios vectoriales de K
n
. Vale la
pena destacar esta denicion.
Denicion 1.1. Diremos que un subconjunto S no vaco de K
n
es un subes-
pacio vectorial de K
n
si tiene las siguientes dos propiedades:
1. la suma de dos vectores cualesquiera de S pertenece a S;
2. el producto de un vector de S por un escalar cualquiera en K pertenece
a S.
Observacion 1.2.8. Una combinacion lineal de vectores de un subespacio
vectorial S de K
n
pertenece a S, porque se obtiene realizando una cantidad
nita de productos de un vector de S por un escalar, seguida de sumas de
vectores de S.
Ejemplo 1.2.9.
1. Hay dos subconjuntos de K
n
para los que es facil vericar que se trata
de subespacios vectoriales:
40 CAP

ITULO 1
(a) El que solo esta formado por 0, el vector nulo del espacio K
n
. Este
conjunto es no vaco, tenemos ademas que 0 + 0 = 0, y a0 = 0
para cualquier a K. Este es el subespacio mas chico que pode-
mos tener. De hecho, esta contenido en cualquier otro subespacio.
Dejamos la vericacion de esta armacion como un ejercicio para
el lector.
Ejercicio 1.10. Mostrar que si S es un subespacio vectorial de K
m
entonces 0 S, por lo que {0} S.
(b) El propio K
n
.
2. El subconjunto
S =
_
(x, y) R
2
; x = y
_
es un subespacio vectorial de R
2
. Claramente es no vaco. Un elemento
generico de S es de la forma (x, x), con x un n umero real cualquiera.
Consideremos dos elementos (x
1
, x
1
), (x
2
, x
2
) de S, y un escalar a cual-
quiera. Al sumar tenemos
(x
1
, x
1
) + (x
2
, x
2
) = (x
1
+x
2
, x
1
+x
2
).
Al multiplicar uno de ellos, por ejemplo (x
1
, x
1
) por el escalar a resulta
a(x
1
, x
1
) = (ax
1
, ax
1
).
Ambos resultados tienen la primera componente igual a la segunda, por
lo tanto satisfacen la condicion de pertenencia a S.
3. El subconjunto
S =
_
(x, y) R
2
; x 0
_
no es un subespacio vectorial de R
2
. La suma de dos elementos de S
siempre esta en S. Pero si (x, y) S y x > 0, al multiplicarlo por un
n umero negativo obtenemos una pareja que ya no esta en S.
4. El subconjunto
S =
_
(x, y) R
2
; xy = 0
_
no es un subespacio vectorial de R
2
. Al multiplicar un elemento de S por
cualquier escalar volvemos a obtener un elemento de S. Pero la suma
no tiene la propiedad de permanecer dentro de S. Por ejemplo
(1, 0) + (0, 1) = (1, 1) S,
aunque (1, 0) y (0, 1) son ambos elementos de S.
1.2 Compatibilidad de los sistemas 41
Con la terminologa que hemos introducido en la denicion 1.1, podemos
decir que col(A) es un subespacio vectorial de K
n
, por eso hemos llamado es-
pacio a este conjunto desde el comienzo. Es usual llamarlo tambien espacio
generado por las columnas de A. El adjetivo generado esta justica-
do porque cada elemento de este espacio puede construirse a partir de las
columnas de A, por medio de una combinacion lineal
19
.
Observacion 1.2.10. Generadores.
Notemos que el espacio de las columnas de una matriz A puede ser muy
grande. Por ejemplo, si A es real m n y no trivial este espacio contiene
innitos vectores. Pero lo describimos especicando unos pocos: solo n, las n
columnas de A. Vemos entonces que dar un conjunto que genera todo col(A)
por medio de combinaciones lineales es una descripcion mas o menos economica
del conjunto: unos pocos elementos de col(A) permiten reconstruirlo todo.
Es conveniente entonces introducir el concepto de generador de un subes-
pacio vectorial S de K
n
. Diremos que un subconjunto A S es un generador
de S si cualquier vector de S puede ser expresado como una combinacion lineal
de elementos en A.
Ejemplo 1.2.11. Las columnas de A son un generador del espacio de colum-
nas de A. O sea, las columnas de A son un generador del espacio generado por
las columnas! No podra ocurrir otra cosa. Hemos dado todas las deniciones
para que as fuera.
Ejemplo 1.2.12. Si A es la matriz real
A =
_
_
1 0 0
0 1 0
0 0 0
_
_
entonces su espacio de columnas esta formado por todos los vectores de R
3
que
tienen la tercera entrada nula. Este conjunto tiene innitos vectores, pero
20
{(1, 0, 0), (0, 1, 0)} ,
que solo tiene dos vectores, es un generador de este espacio.
19
Como veremos mas adelante, la construccion de generar un subespacio vectorial a partir
de algunos vectores en este caso las columnas de A por medio de combinaciones lineales es
general. Lo que estamos describiendo ahora es solo un caso particular de esta construccion.
20
Volvemos aqu a representar columnas como las para salvar la inniteisma parte de
alg un arbolito.
42 CAP

ITULO 1
Ejemplo 1.2.13. El espacio Z
n
2
tiene 2
n
elementos. Pero esta generado por
las n listas de ceros y unos que se contruyen de la siguiente manera: para cada
valor natural de i entre 1 y n construyamos la lista E
i
poniendo un 1 en el
lugar i, y ceros en las restantes posiciones.
Vale la pena observar que 2
n
es un n umero muchsimo mayor que n. Por
ejemplo, cuantos dgitos tiene la expresion decimal de 2
100
?.
La observacion 1.2.10 sugiere que identicar un generador de un subespacio
vectorial es una manera economica de describirlo. Esto es cierto. En el caso de
col(A) ya conocemos un generador: el que esta formado por todas las columnas
de la matriz. Veremos que todava se puede hacer algo mejor, si eliminamos
del generador los elementos redundantes. Antes de pasar a discutir esto en
detalle mostremos esta redundancia en un ejemplo sencillo.
Ejemplo 1.2.14. El espacio de columnas de
A =
_
1 2
1 2
_
esta formado por todas las columnas (x
1
, x
2
) tales que x
1
= x
2
. Este espacio
puede generarse a partir de la primera columna, porque la segunda es un
m ultiplo de la primera. Estamos diciendo entonces que el conjunto formado
por la columna (1, 1) es un generador de col(A), y no tenemos necesidad de
incluir a la segunda columna en un generador para poder construir todo el
espacio por combinaciones lineales. Hemos conseguido as un generador mas
economico que el que esta formado por todas las columnas. Observemos que
en este ejemplo tambien podramos haber usado la segunda columna en vez
de la primera.
1.2.2 Descripciones optimas para col(A)
Vamos a discutir ahora dos maneras diferentes de caracterizar el espacio de
columnas de una matriz A. Una hara uso de un conjunto de ecuaciones que
denen este espacio. La otra consistira en buscar un generador optimo (al
que le daremos el nombre de base). Para ambas utilizaremos el metodo de
escalerizacion. Veremos como proceder a traves de nuestro proximo ejemplo.
Ejemplo 1.2.15. Consideremos la matriz del sistema del ejemplo 1.1.20. Esta
1.2 Compatibilidad de los sistemas 43
es la matriz
A =
_
_
_
_
_
_
1 2 1 0 1 1
1 2 1 1 0 1
1 2 1 2 5 3
1 2 1 0 1 3
1 2 1 4 9 3
_
_
_
_
_
_
.
Nos preguntamos ahora cuales son los B que hacen que el sistema
AX = B
sea compatible. Para determinar estos B consideraremos una columna generica
B = (b
1
, b
2
, b
3
, b
4
, b
5
) y analicemos el sistema. La tecnica para hacerlo sera
el metodo de eliminacion, y para ello escalerizaremos la matriz ampliada A|B
del sistema. Esta matriz es
_
_
_
_
_
_
1 2 1 0 1 1 b
1
1 2 1 1 0 1 b
2
1 2 1 2 5 3 b
3
1 2 1 0 1 3 b
4
1 2 1 4 9 3 b
5
_
_
_
_
_
_
.
Ahora procederemos a escalerizarla. Escribiremos la sucesion de matrices que
produce el metodo de escalerizacion, sin mayores comentarios. Los pasos son
los mismos que hicimos en el ejemplo 1.1.20. Al costado de cada matriz re-
presentaremos las operaciones que hemos realizado sobre la matriz del paso
anterior.
_
_
_
_
_
_
1 2 1 0 1 1 b
1
0 0 2 1 1 0 b
2
+b
1
0 0 0 2 4 2 b
3
b
1
0 0 0 0 0 2 b
4
b
1
0 0 0 4 8 2 b
5
b
1
_
_
_
_
_
_
F
2
+F
1
F
3
F
1
F
4
F
1
F
5
F
1
.
_
_
_
_
_
_
1 2 1 0 1 1 b
1
0 0 2 1 1 0 b
2
+b
1
0 0 0 2 4 2 b
3
b
1
0 0 0 0 0 2 b
4
b
1
0 0 0 0 0 2 b
5
2b
3
+b
1
_
_
_
_
_
_
F
5
2F
3
Por n!, llegamos a la forma escalerizada,
_
_
_
_
_
_
1 2 1 0 1 1 b
1
0 0 2 1 1 0 b
2
+b
1
0 0 0 2 4 2 b
3
b
1
0 0 0 0 0 2 b
4
b
1
0 0 0 0 0 0 b
5
+b
4
2b
3
_
_
_
_
_
_
F
5
+ 2F
3
,
(1.16)
44 CAP

ITULO 1
y las respuestas a nuestras preguntas estan ante nuestros ojos!
Una ecuacion para la imagen de A.
La forma escalerizada muestra que el sistema es compatible si y solo s
b
5
+b
4
2b
3
= 0. (1.17)
Esta ecuacion es la que caracteriza al espacio de columnas de A. Si se satisface
entonces la ultima ecuacion del sistema se verica automaticamente, y pode-
mos encontrar valores de las incognitas que hagan que se satisfagan la cuatro
primeras ecuaciones. Concluimos entonces que
col(A) = {(b
1
, b
2
, b
3
, b
4
, b
5
); b
5
+b
4
2b
3
= 0} .
Esta descripcion tiene la ventaja de que dado un vector B cualquiera, solo
tenemos que calcular el primer miembro de (1.17) con las entradas de B para
saber si B esta o no esta en el espacio de columnas, y concluir as sobre la
compatibilidad o incompatibilidad del sistema AX = B.
Notemos que lo que hicimos ilustra un metodo general para hallar ecuacio-
nes que caractericen a la imagen de una matriz: intentamos resolver un sistema
generico AX = B, y la condicion de compatibilidad aparecera expresada como
una condicion sobre los coecientes de B.
Observacion 1.2.16. Si solo queremos decidir acerca de la compatibilidad o
incompatibilidad del sistema para un B dado, sin tratar de entender la estruc-
tura del conjunto de los B que hacen compatible el sistema AX = B podemos
resumir la discusion en la siguiente observacion: el sistema es compatible si y
solo si las formas escalerizadas de A y de la matriz ampliada A|B tienen el
mismo n umero de pivotes (o de escalones, para expresarlo en un lenguaje mas
graco).
Una base para la imagen de A.
Vamos a ver ahora otra caracterizacion de la imagen de la matriz A. La forma
escalerizada (1.16) pone en evidencia cuales son los B que hacen compatible
el sistema, y tambien que para esos vectores B la solucion es indeterminada
porque hay variables libres, en este caso dos. Sabemos ademas que podemos
elegir como variables libres las que corresponden a columnas que no tienen
pivotes: las variables x
2
y x
5
. Podemos jar arbitrariamente x
2
y x
5
, y luego
calcular las restantes variables para obtener una solucion del sistema.
1.2 Compatibilidad de los sistemas 45
Esto signica que cada columna B en la imagen de A puede ser escrita como
combinacion lineal de las columnas de A de muchas maneras. En particular,
podemos elegir
x
2
= x
5
= 0,
y conseguir una solucion que, en realidad, quedara determinada una vez que
hemos jado estos valores para x
2
y x
5
. Hagamos una observacion sencilla
pero fundamental: jar x
2
= x
5
= 0 es lo mismo que eliminar estas variables
del sistema, y tambien es lo mismo que eliminar la segunda y quinta columna
de la matriz del sistema. Por lo tanto, eliminar la segunda y quinta columna
de la matriz del sistema no altera, en este caso, el conjunto de vectores B para
los que el sistema lineal es compatible. Es decir, no se altera el espacio de
columnas.
La existencia de variables libres tiene que ver con la presencia de cierta
redundancia en las columnas de A: una vez que tenemos las columnas
A
1
, A
3
, A
4
, A
6
,
las columnas A
2
y A
5
son redundantes, y cualquier vector que este en el espacio
de columnas de A puede ser expresado como una combinacion lineal de las
columnas A
1
, A
3
, A
4
, A
6
. Al eliminar A
2
y A
5
no perdemos absolutamente
nada del espacio de columnas. Dicho en otras palabras,
{A
1
, A
3
, A
4
, A
6
}
es un generador de col(A). Es un generador mas peque no que el que esta
formado por todas las columnas de la matriz. Por eso ofrece una descripcion
mas economica del mismo conjunto.
Observemos que col(A) coincide con el espacio de columnas de la matriz

A =
_
_
_
_
_
_
1 1 0 1
1 1 1 1
1 1 2 3
1 1 0 3
1 1 4 3
_
_
_
_
_
_
,
que hemos construido tachando las columnas 2 y 5 de A. Para escalerizar

A
46 CAP

ITULO 1
deberamos repetir los mismos pasos que usamos para A y obtendramos
21
_
_
_
_
_
_
1 1 0 1
0 2 1 0
0 0 2 2
0 0 0 2
0 0 0 0
_
_
_
_
_
_
,
una matriz sin variables libres, porque cada columna tiene pivotes. Cuando
un sistema lineal con esta matriz tiene solucion, entonces la solucion es unica.
Al eliminar las columnas redundantes, y con ellas las variables libres, hemos
perdido la libertad que tenamos para fabricar soluciones del sistema. Por lo
tanto, cuando un vector B esta en el espacio de columnas de la matriz A (o
el de

A, ya que los espacios de columnas coinciden) hay una unica manera de
escribirlo como combinacion lineal de las columnas A
1
, A
3
, A
4
y A
6
.
En resumen, hemos visto que
1. {A
1
, A
3
, A
4
, A
6
} es un generador de col(A);
2. este generador tiene la propiedad adicional de que cualquier vector de
col(A) admite una unica expresion como combinacion lineal de los ele-
mentos en el generador.
Un generador de un subespacio vectorial que tiene ademas la segunda propie-
dad que acabamos de enunciar constituye una base del subespacio
22
. Una
base de un subespacio puede ser vista como un generador sin redundancia
alguna. Por lo tanto, nos da una forma optima de describir el subespacio. En
nuestro ejemplo hemos conseguido una base eliminando algunos vectores de
un generador mas grande (el que estaba formado por todas las columnas de la
matriz). La siguiente observacion muestra la optimalidad de nuestra eleccion:
si seguimos quitando columnas entonces perdemos la capacidad de generar
todo col(A). Los detalles se discuten a continuacion.
Observacion 1.2.17. El subconjunto de columnas
A = {A
1
, A
3
, A
5
, A
6
}
21
No hemos repetido todas las cuentas. Solo nos limitamos a tachar las columnas 2 y 5 en
la forma escalerizada y usar que la escalerizacion trata cada columna por separado.
22
Este concepto es muy importante, y merece una denicion. No la hacemos todava
porque es posible simplicar un poquito mas la caracterizacion de las bases, y lo haremos en
nuestra proxima seccion
1.2 Compatibilidad de los sistemas 47
es optimo para generar el espacio de columnas de A: si sacamos alguna otra
columna ya no podremos expresarla como combinacion lineal de las demas.
Por ejemplo, la columna A
1
no puede expresarse como combinacion lineal de
{A
3
, A
5
, A
6
}. Veamoslo. Sabemos que cualquier columna en la imagen de A
puede ser escrita como una combinacion lineal de calA de manera unica. Esto
es cierto, en particular, para A
1
, que admite la expresion obvia
A
1
= A
1
+ 0A
3
+ 0A
5
+ 0A
6
.
Si pudieramos escribir ademas
A
1
= aA
3
+bA
5
+cA
6
(1.18)
para alguna terna de coecientes a, b y c, obtendramos inmediatamente la
expresion
A
1
= 0A
1
+aA
3
+bA
5
+cA
6
,
que es otra forma de escribir A
1
como combinacion lineal de A. Esto es contra-
dictorio, y muestra la imposibilidad de (1.18). El mismo razonamiento puede
hacerse para cualquiera de las otras columnas, e implica que si eliminamos
mas columnas de A resulta una nueva matriz con un espacio de columnas es-
trictamente mas chico que el de A, porque la columna eliminada no esta en el
espacio que las restante generan
23
. Notemos que, cuando hay variables libres,
hemos mejorado nuestra descripcion de la imagen de A: al menos somos ca-
paces de darla usando menos columnas que todas las que estaban en la matriz
original. Y no podemos mejorar mas, porque sabemos que si sacamos mas
columnas perdemos un pedazo de la imagen.
Observacion 1.2.18. Podemos eliminar A
2
y A
5
porque cualquiera de estas
dos columnas puede ser expresada como una combinacion lineal de
A = {A
1
, A
3
, A
4
, A
6
} .
Ejercicio 1.11. Expresar A
2
y A
5
como combinacion lineal de A. Sugerencia: no
hace falta plantear un nuevo sistema de ecuaciones y resolverlo. Para despejar A
2
,
por ejemplo, es suciente construir una solucion de AX = 0 con x
2
= 1, x
5
= 0.
Hemos encontrado entonces un algoritmo para identicar un generador
optimo, o base, de la imagen de A: escalerizamos A e identicamos las colum-
nas que tienen pivotes. Luego volvemos a la matriz original A y seleccionamos
estas columnas. Las columnas as elegidas forman una base del espacio de
columnas, o imagen, de A.
23
En realidad perdemos mucho mas que la columna eliminada: ninguna de las combina-
ciones lineales en las que la columna que hemos eliminado aparece con un coeciente distinto
de cero puede escribirse solo en terminos de las columnas que hemos dejado
48 CAP

ITULO 1
1.2.3 Dos interpretaciones geometricas de los sistemas lineales
Descomposicion de un vector en dos direcciones independientes
COMPLETAR: LA INTERPRETACI

ON COMO COMBINACIONES LI-


NEALES
Interseccion de rectas
Si a y b no se anulan simultaneamente los puntos del plano de coordenadas
(x, y) que verican la ecuacion
ax +by = c
pertenecen a una recta. Por lo tanto en el sistema
_
ax +by = c,
a

x +b

y = c,
cada ecuacion representa una recta y su solucion no es otra cosa que las coor-
denadas de los puntos que pertenecen a la interseccion de ambas. De ese modo
un sistema 2 2 compatible determinado (una unica solucion) se corresponde
con dos rectas que se cortan en un unico punto (ver gura ??), un sistema
indeterminado (innitas soluciones) se corresponde con dos rectas coinciden-
tes y un sistema incompatible con dos rectas paralelas (ver guras ?? y ??
respectivamente).
Ejemplo 1.2.19. El sistema
_
2x +y = 2,
x +y = 2,
es compatible determinado con unica solucion (0, 2)
AQUI QUEDA ESPACIO PARA LA FIGURA
Ejemplo 1.2.20. El sistema
_
2x + 2y = 4,
x +y = 2,
es compatible indeterminado con solucion {(x, 2 x) x R}
1.2 Compatibilidad de los sistemas 49
OTRA FIGURA
Ejemplo 1.2.21. El sistema
_
x +y = 1,
x +y = 2,
PONER AQU

I EL DIBUJO DE LAS PARALELAS


Esta interpretacion geometrica de los sistemas 2 2 puede tambien exten-
derse a los sistemas de tres incognitas salvo que, como veremos en la seccion
3.1 del captulo 3, las ecuaciones representan planos en el espacio y la solucion
sus intersecciones. En cierta medida la teora que desarrollaremos en captulos
posteriores nos permitira extender tambien la interpretacion geometrica para
sistemas de mayor tama no.
1.2.4 Un poco de formalizacion: El espacio de n-uplas
La interpretacion del sistema lineal contenida en la formula 1.13 utiliza ope-
raciones denidas sobre las columnas de una matriz. En la observacion 1.1.26
habamos enfatizado el hecho de que el proceso de eliminacion poda ser des-
crito en termino de operaciones realizadas sobre las las. Hagamos entonces,
un peque no parentesis para sistematizar esta nocion de lista ordenada de n
n umeros o n-upla, y las operaciones que hemos manejado hasta ahora. Nues-
tro objeto de trabajo seran los conjuntos ordenados
24
de n elementos en un
cuerpo K. Llamaremos K
n
a este conjunto de listas de longitud n formadas
por elementos en K. Sobre este conjunto denimos dos operaciones
1. Suma de dos listas. Si X = (x
1
, . . . , x
n
) e Y = (y
1
, . . . , y
n
) entonces
denimos
X +Y = (x
1
+y
1
, . . . , x
n
+y
n
),
2. Producto de una lista por un n umero. Para X(x
1
, . . . , x
n
) y a un
n umero cualquiera en el cuerpo K denimos
aX = (ax
1
, . . . , ax
n
).
24
Si queremos ser mas formales podemos considerar este conjunto como el de las funciones
denidas sobre el subconjunto 1, 2, . . . , n, formado por los primeros n n umeros, y que toman
valores en el cuerpo K (el conjunto de n umeros con los que vamos a trabajar).
50 CAP

ITULO 1
Destaquemos que ahora nuestras listas de n umeros empiezan a adquirir es-
tructura: hay operaciones algebraicas denidas sobre ellas, y con la ayuda de
estas operaciones las hemos estado manipulando para resolver y comprender
los problemas relativos a sistemas lineales. La introduccion de esta estructura
algebraica hace que K
n
deje de ser apenas un conjunto, y por eso nos referi-
remos al espacio K
n
, o al espacio vectorial K
n
. Tambien nos referiremos
a los elementos de este espacio como a vectores en el espacio K
n
, aunque de
tanto en tanto, y dependiendo del contexto, volveremos a emplear la expresion
listas de longitud n para designarlos. Antes de discutir las propiedades mas
importantes de estas operaciones hagamos un peque no ejemplo.
Ejemplo 1.2.22.
1. Comencemos con n = 3 y el cuerpo de los n umeros reales. Tenemos, por
ejemplo
(1, e, 1) + (0, 1, 2) = (1 + 0, 2 +e, 1 + 2) = (1, 2 +e, 1),

2(1, 0,

2) = (

2.1,

2.0,

2.

2) = (

2, 0, 2).
Tomemos X = (1, 1, 1, 0, 0, 0), Y = (1, 0, 1, 0, 1, 0) en Z
6
2
. Entonces
X +Y = (0, 1, 0, 0, 1, 0).
Si queremos ejercitar el producto por un n umero no tenemos mucho para
hacer. Hay solo dos opciones: multiplicar una lista por 0, lo que da como
resultado una lista con 6 ceros. O multiplicarla por 1, lo que produce
exactamente la misma lista.
2. Todo funciona mas o menos igual en el campo de los n umeros complejos.
Por ejemplo, en C
2
tenemos i(1 +i, i) = (1 +i, 1).
Las operaciones tienen una lista de propiedades que resulta util destacar.
Para compactar la notacion designemos cada n-upla con una letra may uscula,
X = (x
1
, . . . , x
n
).
[S1] [Conmutativa] X +Y = Y +X X, Y K
n
.
[S2] [Asociativa] (X +Y ) +Z = X + (Y +Z) X, Y, Z K
n
.
[S3] [Neutro de la suma] Existe O R tal que X+O = O+X = X X K
n
.
[S4] [Existencia de opuesto] Para cada X R
n
existe Y R
n
tal que X+Y =
O (Notacion: Y = X). Tambien es claro cual es el opuesto de la lista
X: es (x
1
, x
2
, . . . , x
n
).
1.2 Compatibilidad de los sistemas 51
[P1] [Asociativa del producto] ()X = (X) , R y X R
n
.
[P2] [Neutro del producto] 1X = X X R
n
[P3] [Distributiva] ( +)X = X +X , R y X, Y R
n
.
[P4] [Distributiva] (X +Y ) = X +Y R y X, Y R
n
.
Estas propiedades son absolutamente directas de vericar. Solo haremos un
par de comentarios sobre la existencia de neutro y opuesto para la suma. Es
obvio en este contexto que el neutro para la suma es el vector 0 que esta
formado por n ceros, y que el opuesto de X = (x
1
, . . . , x
n
) es (x
1
, . . . , x
n
).
La formulacion que hemos escogido para enunciar las propiedades parece pues
un tanto rebuscada, ya que podramos haber dicho de una vez quienes eran el
opuesto y el neutro. Confesemos al lector que esta formulacion esta escogida
con la idea de extender todas esta teora a un contexto abstracto en que los
vectores con los que operemos pueden ser muy generales
25
. En cada caso
particular habra que especicar cual es el vector O y como se construye el
opuesto. Pero lo unico que sera com un a todos los casos particulares son las
propiedades [S3] y [S4] que deben ser satisfechas por el neutro y el opuesto. La
teora a la que hacemos referencia es la teora de espacios vectoriales. Los
espacios K
n
son, en realidad, un caso particular de una estructura general que
recibe el nombre de espacio vectorial. Con estas estructuras trabajaremos
en el captulo ??.
Ejercicio 1.12. Completar la vericacion de que las operaciones de suma y pro-
ducto por un escalar que hemos denido en K
n
tienen todas las propiedades que
acabamos de enunciar.
Observacion 1.2.23. Las operaciones que hemos denido en K
n
se extienden,
en forma obvia, a las y columnas de las matrices. Cada la o columna no es
otra cosa que una lista ordenada de n umeros en K. Tambien podemos, y sera
util en alguna oportunidad, considerar un elemento de K
n
como una matriz
de una columna y n las (esto es esencialmente lo mismo que pensar la lista
de n n umeros como una columna) o como una matriz de 1 la y n columnas
(o sea, una la).
25
Veremos luego ejemplos en que los vectores seran funciones, sucesiones, matrices, clases
de equivalencia construidas por distintos procedimientos, etcetera
52 CAP

ITULO 1
1.3 Determinacion de los sistemas lineales: el n ucleo
de la matriz del sistema
Vamos a comenzar el analisis de este problema retomando el ejemplo con el
que hemos trabajado en las secciones 1.1 y 1.2
Ejemplo 1.3.1. Retomemos el estudio del sistema real AX = B, con matriz
y termino independiente denidos por
A =
_
_
_
_
_
_
1 2 1 0 1 1
1 2 1 1 0 1
1 2 1 2 5 3
1 2 1 0 1 3
1 2 1 4 9 3
_
_
_
_
_
_
, B =
_
_
_
_
_
_
1
0
1
3
1
_
_
_
_
_
_
(1.19)
con el que trabajamos en los ejemplos 1.1.20 y 1.2.15, y analicemos la unicidad
(en este caso mas bien no unicidad), de sus soluciones. Al estudiar el siste-
ma lineal habamos llegado a la siguiente forma escalerizada reducida para la
matriz ampliada del sistema (ver la pagina 26):
_
_
_
_
_
_
1 2 0 0
3
2
0 1
0 0 1 0
1
2
0 1
0 0 0 1 2 0 1
0 0 0 0 0 1 1
0 0 0 0 0 0 0
_
_
_
_
_
_
(1.20)
De aqu dedujimos que las soluciones del sistema son de la forma
(1 2x
2
3x
5
/2, x
2
, 1 +x
5
/2, 1 2x
5
, x
5
, 1).
Vamos a expresar una columna X, solucion del sistema, en la forma
X =
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
x
5
x
6
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
1
0
1
1
0
1
_
_
_
_
_
_
_
_
+x
2
_
_
_
_
_
_
_
_
2
1
0
0
0
0
_
_
_
_
_
_
_
_
+x
5
_
_
_
_
_
_
_
_

3
2
0
1
2
2
1
0
_
_
_
_
_
_
_
_
. (1.21)
Que es cada una de las columnas que aparece en el miembro derecho de esta
formula?
1.3 Determinaci on de los sistemas 53
La primera columna, que no aparece multiplicada por las variables libres,
es una solucion del sistema. Se trata de una solucion particular. Una
entre tantas soluciones de la ecuacion. La que resulta de escoger x
2
=
x
5
= 0. Los n umeros que aparecen all se obtienen de la ultima columna
de la matriz escalerizada reducida, que es justamente la que almacenaba
la informacion acerca del termino independiente B.
Miremos ahora las columnas que multiplican x
2
y x
5
: estas no se ven
afectadas por el termino independiente, porque no dependen de las entra-
das en la ultima columna de la forma escalerizada de la matriz ampliada.
Si cambiaramos esa columna por una columna de ceros obtendramos lo
mismo. De hecho, los sumandos en (1.21) que contienen a las variables
libres x
2
y x
5
son una solucion de AX = O. Por que?
Imaginemos que tenemos que resolver AX = O. Buscaramos entonces
una forma escalerizada para la matriz A|O, que es la matriz ampliada
de este sistema. Las transformaciones elementales necesarias para es-
calerizar A|O son exactamente las mismas que hicimos para escalerizar
A|B, ya que solo dependen de la matriz A del sistema, no de la columna
de los terminos independientes. La forma escalerizada reducida que ob-
tendramos al nal del proceso sera una matriz como (1.20), pero con
ceros en la ultima columna. Al calcular las soluciones reencontraramos
entonces una formula como (1.21), en la que la primera columna sera
una columna de ceros. Es decir, la primera columna no aparecera.
Concluimos entonces que el segundo y tercer sumando de (1.21) contie-
nen la forma general de las soluciones de AX = O.
Nuestro analisis ha puesto en evidencia que la solucion general del sistema
AX = B esta compuesta de dos partes:
1. una solucion particular del sistema;
2. la expresion de la solucion general del sistema AX = O.
Mostraremos ahora que las conclusiones a las que llegamos en el ejemplo
anterior son completamente generales: si conocemos el conjunto formado por
todas las soluciones de AX = O y una solucion particular de la ecuacion
AX = B, entonces podemos recuperar cualquier solucion de AX = B.
Observacion 1.3.2. . Llamaremos homogenea a la ecuacion
AX = O
54 CAP

ITULO 1
porque tiene la propiedad de que el producto aX de un n umero a cualquiera
por una solucion X de la ecuacion tambien es solucion de la ecuacion (ver la
proposicion 1.9, en la pagina 60 de esta misma seccion). Es usual referirse
entonces a AX = B como la ecuacion no homogenea. Mostraremos a
continuacion que las conclusiones a las que llegamos en el ejemplo anterior
son completamente generales: si conocemos el conjunto formado por todas
las soluciones de AX = O y una solucion particular de la ecuacion AX =
B, entonces podemos recuperar cualquier solucion de AX = B. Este hecho
suele expresarse de la siguiente manera: la solucion general de la ecuacion
no homogenea es la suma de una solucion particular mas la solucion general
de la ecuacion homogenea. Esta observacion explica tambien la notacion que
usaremos en el enunciado y la demostracion de nuestra proxima proposicion.

Proposicion 1.6. Sea X


NH
0
una solucion de la ecuacion
AX = B. (1.22)
Entonces la suma de X
NH
0
con una solucion cualquiera X
H
de la ecuacion
AX = O es otra solucion de 1.22. Mas a un, cualquier solucion de 1.22 puede
expresarse como X
NH
0
+X
H
, donde X
H
es una solucion de AX = O.
Demostraci on: Consideremos la suma de la solucion X
NH
0
con una solucion
X
H
cualquiera de AX = O. Entonces
A(X
NH
0
+X
H
) = AX
NH
0
+AX
H
= B + 0 = B,
y X
NH
0
+X
H
satisface AX = B.
Supongamos que tenemos una solucion X
1
de AX = B. Entonces la
diferencia X
1
X
NH
0
satisface
A(X
1
X
NH
0
) = AX
1
AX
NH
0
= B B = 0.
Por lo tanto X
1
X
NH
0
es una solucion de AX = O, y
X
1
= X
NH
0
+ (X
1
X
NH
0
)
es la suma de X
0
mas una solucion de la ecuacion homogenea.
La consecuencia de esta proposicion es que para entender como es el con-
junto de todas las soluciones de un sistema lineal compatible AX = B basta
entender como son las soluciones de AX = O. En particular AX = B tiene
solucion unica si y solo si AX = O tiene solucion unica. Este hecho es tan
importante que vamos a formularlo como un corolario de la proposicion 1.6.
1.3 Determinaci on de los sistemas 55
Corolario 1.7. Si el sistema de ecuaciones lineales AX = B es compatible,
entonces la solucion es unica si y solo si AX = O tiene una unica solucion.
En la proxima seccion discutiremos algunas consecuencias de la discusion
precedente y del corolario 1.7.
1.3.1 Independencia lineal
Dado que ya conocemos la relacion estrecha entre resolver sistemas de ecua-
ciones y hacer combinaciones lineales de las columnas de la matriz del sistema,
podemos expresar el corolario 1.7 de otra manera: cualquier columna B que
este en el espacio col(A) puede expresarse de manera unica como combinacion
lineal de las columnas de A si y solo s la columna O puede expresarse de
manera unica como combinacion lineal de las columnas de A.
Estos comentarios nos permiten volver sobre algunas cuestiones que discu-
timos al tratar la compatibilidad de los sistemas: habamos hallado un genera-
dor optimo de col(A) eliminando las columnas asociadas con variables libres.
Tambien habamos observado que esta optimalidad tena que ver con que para
cada vector en el espacio de columnas de A solo haba una manera de expresar-
lo como combinacion lineal de las columnas de los pivotes. Por estas razones
preferamos el generador formado por las columnas de los pivotes al generador
formado por todas las columnas. Pero acabamos de ver que para asegurarnos
de que ese generador tenga esta propiedad de unicidad de la combinacion li-
neal basta vericarla con el vector nulo. No es necesario considerar todos y
cada uno de los vectores que puedan escribirse como combinacion lineal. Vale
la pena resumir la discusion precedente en forma de una proposicion.
Proposicion 1.8. Sea A = {A
1
, A
2
, . . . , A
l
} un generador de un subespacio
vectorial S de K
n
. Entonces son equivalentes:
1. cualquier elemento de S admite una unica expresion como combinacion
lineal de los elementos de A;
2. el vector nulo O admite una unica expresion como combinacion lineal
elementos de los elementos de A;
La demostracion no es mucho mas que una formulacion ordenada de las
ideas que acabamos de presentar.
Demostraci on. Es obvio que la condicion 1 implica 2, porque el vector
nulo es uno de los elementos de S. Hay que demostrar que 2 implica 1, lo que
56 CAP

ITULO 1
permite reducir la cuestion de unicidad al caso mas sencillo de todos. Daremos
dos argumentos
26
distintos para esta parte de la prueba.
Argumento 1. Formemos la matriz A que tiene como columnas a los vectores
A
1
, . . . , A
l
de A. Entonces el subespacio col(A) generado por las columnas de A es jus-
tamente S. Consideremos entonces B S = col(A). Recordemos que este
vector puede ser expresado como combinacion lineal de las columnas de A en
forma unica si y solo si el sistema AX = B tiene solucion unica. Como O
admite una unica expresion como combinacion lineal de las columnas de A el
sistema homogeneo AX = O tiene solucion unica, y, en virtud del corolario
1.7 esta asegurada la unicidad de la solucion de AX = B.
Argumento 2. El vector nulo O siempre puede ser expresado como
O = 0A
1
+ 0A
2
. . . + 0A
l
.
Por lo tanto, si la representacion es unica, cualquier expresion de 0 como
combinacion lineal de la familia A tendra todos sus coecientes nulos. Para
cualquier B S consideremos dos posibles representaciones
B =
1
A
1
+
2
A
2
. . . +
l
A
l
,
B =
1
A
1
+
2
A
2
. . . +
l
A
l
,
como combinacion lineal de la familia A. Si restamos la segunda representacion
de la primera concluimos
O = (
1

1
)A
1
+ (
2

2
)A
2
. . . + (
l

l
)A
l
.
Esta es una expresion de O como combinacion lineal de A. Por lo tanto sus
coecientes tienen que ser todos nulos. De ah concluimos

1
=
1
,
2
=
2
, . . .
l
=
l
,
lo que muestra que, en realidad, ambas representaciones son exactamente la
misma.
La proposicion 1.8 permite sustituir la condicion de unicidad de la repre-
sentacion de cualquier vector de un subespacio que vimos en la pagina 46
cuando introdujimos la nocion de base, por una condicion que solo haga re-
ferencia al vector nulo. Esta condicion es tan importante, porque expresa en
26
Que son en realidad el mismo, expresado en dos lenguajes diferentes. El segundo, que
no requiere considerar matrices, puede extenderse a un contexto mucho mas general.
1.3 Determinaci on de los sistemas 57
la forma mas simple posible la ausencia de redundancia desde el punto de
vista de la estructura lineal que estamos manejando en el generador, que la
recogeremos en una nueva denicion.
Denicion 1.2. Independencia lineal.
Diremos que una familia de vectores {A
1
, A
2
, . . . , A
l
} es linealmente inde-
pendiente si la unica manera de expresar el vector nulo como combinacion
lineal de la familia es escogiendo todos los coecientes de la combinacion igua-
les a 0.
Observacion 1.3.3. Algunos comentarios sobre la independencia
lineal.
Reunimos aqu algunos comentarios que vale la pena destacar, incluso aunque
esten esencialmente contenido en las discusiones que precedieron a la denicion
de independencia lineal.
1. La independencia lineal de la familia {A
1
, A
2
, . . . , A
l
} es equivalente a
que la igualdad

1
A
1
+
2
A
2
. . . +
l
A
l
= O
implique que los coecientes
i
, i = 1, . . . , l satisfacen

1
=
2
= . . . =
l
= 0.
2. Las columnas de una matriz A forman una familia linealmente indepen-
diente si y solo si la unica solucion de AX = O es la solucion trivial, en
que todas las incognitas toman el valor 0.
3. Si una familia es linealmente independiente y un vector es combinacion
lineal de la familia entonces existe una unica manera de escribirlo como
combinacion lineal de la familia.
Ahora que hemos introducido la nocion de independencia lineal podemos
completar la denicion de base de un subespacio vectorial que adelantamos en
la seccion 1.2, cuando destacamos el papel de los generadores que permiten
expresar de una unica manera sus combinaciones lineales.
Denicion 1.3. Bases.
Si S es un subespacio vectorial de K
n
, diremos que un subconjunto
{A
1
, A
2
, . . . , A
l
}
de vectores de S es una base de S si
58 CAP

ITULO 1
1. es un generador de S;
2. es linealmente independiente.
Ejemplo 1.3.4. La base can onica de K
n
Para i = 1, . . . , n llamemos E
i
a la lista que tiene un 1 en la i-esima posicion,
y ceros en las restantes. Es decir
E
1
=
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
, E
2
=
_
_
_
_
_
0
1
.
.
.
0
_
_
_
_
_
,
.
.
. E
n
=
_
_
_
_
_
0
0
.
.
.
1
_
_
_
_
_
.
Cualquier lista
X = (x
1
, x
2
, . . . , x
n
)
puede expresarse como la combinacion lineal
X = x
1
E
1
+x
2
E
2
+. . . x
n
E
n
de la familia
C = {E
1
, E
2
, . . . E
n
},
y para cualquier X K
n
esta es la unica manera de expresar X como combi-
nacion lineal de C. Por lo tanto C es una base de K
n
. Es usual llamar a C la
base canonica de K
n
.
Ejemplo 1.3.5. No hay bases para el subespacio trivial
Llamamos subespacio trivial al subespacio
S = {O},
que solo contiene al vector nulo de K
n
. Solo hay dos subconjuntos posibles de
S: el vaco y todo S. El vaco no permite generar nada. Y el unico subconjunto
no vaco, S, es linealmente dependiente: podemos escribir el vector O como
O = aO, donde a es cualquier escalar del cuerpo K. Por lo tanto no hay bases
para este subespacio. Luego veremos que cualquier subespacio que no sea el
trivial tiene bases.
La cantidad de vectores que tiene una base de un subespacio mide el ta-
ma no que, como estructura lineal, tiene el subespacio. Tambien puede verse
este n umero como una medida de cuanta informacion es necesaria para espe-
cicar el subespacio por medio de un generador. Estas breves consideraciones
pretenden justicar nuestra proxima denicion:
1.3 Determinaci on de los sistemas 59
Denicion 1.4. Dimensi on.
Si S es un subespacio vectorial de K
n
llamaremos dimension de S a la canti-
dad de vectores en una base de S. Indicaremos a este n umero con la notacion
dim(S).
Observacion 1.3.6. La dimension de un subespacio es la cantidad de direc-
ciones independientes que caben en el. Por ejemplo, si identicamos los
vectores de R
3
con puntos del espacio tridimensional (lo que es esencialmente
equivalente a poner un sistema de coordenadas en el espacio) entonces los su-
bespacios de dimension uno son rectas que pasan por el origen de coordenadas;
y los de dimension 2 son planos que pasan por el origen. El unico subespacio
de dimension 3 es todo R
3
, que representara a todo el espacio. Vemos que
la nocion de dimension concuerda con nuestra idea intuitiva de que una recta
es un objeto que tiene una dimension, un plano tiene dos, y el espacio tiene
tres. Daremos mas detalles sobre esto en las secciones del curso dedicadas a
la geometra del espacio. Tambien al discutir la teora general de los espacios
vectoriales.
Ejemplo 1.3.7. Ya vimos que el espacio K
n
tiene una base, que hemos dado
en llamar base canonica, que tiene n vectores. Por lo tanto la dimension de
K
n
es n.
El subespacio trivial {0}, formado unicamente por el vector nulo, no tiene
bases. Pero adoptaremos la convencion de asignarle dimension 0.
1.3.2 El n ucleo de una matriz
Ahora volvemos, por n!, a cerrar nuestra discusion sobre la unicidad y no
unicidad de soluciones.
Recordemos que habamos aprendido que la informacion acerca de la es-
tructura del conjunto de soluciones de AX = B estaba encerrada en el conjunto
de soluciones de la ecuacion homogenea AX = O. Llamaremos n ucleo de la
matriz A al conjunto de las soluciones de la ecuacion homogenea AX = O.
Indicaremos este conjunto con el smbolo
27
ker(A). Si A es una matriz mn
sobre el cuerpo K podemos escribir entonces
ker(A) = {X K
n
; AX = O}.
La primera noticia interesante es que este conjunto resulta ser tambien un
subespacio vectorial.
27
Proveniente de la palabra alemana kernel
60 CAP

ITULO 1
Proposicion 1.9. Si A es una matriz m n sobre K, entonces el n ucleo de
A es un subespacio vectorial de K
n
.
Demostraci on: La demostracion es bastante sencilla, y descansa en la li-
nealidad de todas los calculos que hay que hacer para vericar que un vector
esta en el n ucleo. Supongamos que tenemos dos vectores X e Y en el n ucleo.
Entonces su suma X +Y satisface
A(X +Y ) = AX +AY = 0 + 0 = 0,
por lo que tambien esta en el n ucleo. Para el producto de cualquiera de ellos,
por ejemplo X, por un escalar a en el cuerpo tenemos
A(aX) = a(AX) = a0 = 0.
Entonces tambien aX esta en el n ucleo, y hemos completado la demostracion.
Tambien para este subespacio daremos una descripcion en terminos de
ecuaciones y b usqueda de bases. Otra vez, toda la informacion necesaria sera
obtenida del metodo de escalerizacion.
Un conjunto de ecuaciones para el n ucleo
El n ucleo esta denido por la ecuacion vectorial AX = O, que es equivalente a
m ecuaciones escalares. El proceso de escalerizacion de la matriz A la transfor-
ma en una matriz escalerizada (o escalerizada reducida) E, que esta asociada a
un sistema lineal que tiene el mismo conjunto solucion que el sistema original
AX = O. En otras palabras, el n ucleo de A es igual al conjunto de los X
que satisface EX = O. Y este sistema tiene tantas ecuaciones de escalares
como pivotes tenga la matriz escalerizada. Y el n umero de ecuaciones ya no
puede reducirse mas. El sistema escalerizado (o puesto en la forma escaleriz-
da reducida) es una forma de caracterizar el n ucleo de A por un conjunto de
ecuaciones en el que hemos eliminado las ecuaciones redundantes.
Ejemplo 1.3.8. Consideremos la matriz A del ejemplo 1.3.1 con que comen-
zamos esta seccion (ver la formula (1.19). Al llevar la matriz ampliada A|0
del sistema AX = O a su forma escalerizada reducida encontramos la matriz
_

_
1 2 0 0
3
2
0 0
0 0 1 0
1
2
0 1
0 0 0 1 2 0 0
0 0 0 0 0 1 0
0 0 0 0 0 0 0
1.3 Determinaci on de los sistemas 61
que es equivalente a las ecuaciones
_

_
x
1
+ 2x
2
+
3
2
x
5
= 0,
x
3

1
2
x
5
= 0,
x
4
+ 2x
5
= 0,
x
6
= 0.
Estas ecuaciones caracterizan al n ucleo de A, y no pueden simplicarse mas.

Una base para el n ucleo


Tambien es posible caracterizar el n ucleo por medio de una base. Mostraremos
esto en un ejemplo, pero el razonamiento es completamente general.
Ejemplo 1.3.9. En la expresion (1.21) para las soluciones del ejemplo 1.3.1
cada variable libre aparece multiplicando un vector. El que corresponde a x
2
es
(2, 1, 0, 0, 0, 0), y el que esta asociado con x
5
es (
3
2
, 0,
1
2
, 2, 1, 0). Con estos
dos vectores podemos generar todas las soluciones de AX = O. Ademas son
linealmente independientes porque cada una de las variables libres aparece solo
en el vector que esta asociado con ella. En efecto, si planteamos la igualdad
x
2
(2, 1, 0, 0, 0, 0) +x
5
(
3
2
, 0,
1
2
, 2, 1, 0) = (0, 0, 0, 0, 0, 0)
al mirar la la segunda y quinta componentes obtenemos
x
2
= 0, x
5
= 0,
respectivamente. De modo que la unica combinacion que produce el vector
nulo es la trivial. La familia formada por estos dos vectores constituye una
base para el n ucleo de A.
El procedimiento anterior es completamente general: al expresar las solu-
ciones de AX = O en terminos de las variables libres cada variable libre queda
asociada a un vector (en realidad este vector es el que se obtiene jando en uno
el valor de la variable que estamos considerando, y en cero todas las demas).
Esta familia de vectores es una base para el n ucleo. Tenemos entonces un
algoritmo para hallar una base del n ucleo.
Observacion 1.3.10. No es necesario obtener la forma escalerizada reducida
de A para construir una base del n ucleo. Todo lo que hace falta es expresar
las soluciones de AX = O en terminos de las variables libres, lo que puede
62 CAP

ITULO 1
hacerse a partir de la forma escalerizada. En nuestra presentacion preferimos
llegar a la forma escalerizada reducida, porque esta hace mas evidente que la
informacion que proviene del termino independiente aparece separada de las
variables libres en la solucion general del sistema.
1.3.3 La dimension del n ucleo y el espacio de columnas
Nuestro procedimiento para hallar una base del n ucleo genera un vector de la
base por cada una de las variables libres. Por lo tanto, una base del n ucleo
tendra tantos vectores como variables libres haya en la forma escalerizada. Las
variables libres corresponden a columnas que no tienen pivotes. Entonces el
n umero de variables libres es la diferencia entre n la cantidad de variables,
o columnas en la matriz del sistema y p el n umero de pivotes. Si no hay
variables libres entonces el n ucleo de A se reduce al subespacio trivial formado
por la lista de n ceros, que es la unica solucion de AX = O.
Recordemos que podemos fabricar una base del espacio de columnas de una
matriz A seleccionando las columnas de A que corresponden a las posiciones
de los pivotes de una forma escalerizada de A. Una base de col(A) tendra
entonces p vectores, tantos como pivotes.
Todos estos comentarios pueden formularse en terminos de la dimension
del ker(A) y col(A).
Teorema 1.1. Sea A una matriz mn sobre un cuerpo K. Y sea p el n umero
de pivotes de una forma escalerizada de A.
1. dim(col(A)) = p.
2. dim(ker(A)) = n p.
3. dim(ker(A)) + dim(col(A)) = n.
Observacion 1.3.11. La ultima igualdad del teorema anterior es interesante
en terminos de la interpretacion de la matriz A como una transformacion.
Habamos visto en la observacion 1.2.7 que la matriz A dene sobre K
n
una
funcion
X AX
que toma valores en K
m
. El espacio de columnas de A es la imagen de esta
transformacion, de modo que se cumple
dim(ker(A)) + dim(im(A)) = n.
1.3 Determinaci on de los sistemas 63
Es decir, la dimension n del espacio de salida de la transformacion es la suma
de la dimension del n ucleo mas la de la imagen. En el n ucleo esta todo lo
que tiene como imagen el vector O de K
m
, as que podemos pensar que el
n ucleo se malgasta yendo todo al O K
m
. Hemos perdido un subespacio
de la dimension del n ucleo en esto! Pero la transformacion es todava capaz
de producir un subespacio de dimension
dim(im(A)) = n dim(ker(A))
como imagen de la transformacion. Esta transformacion respeta las dimensio-
nes: las que no se gastaron en el n ucleo reparecen en la imagen. Y seguimos
teniendo las n que tenamos en el espacio de salida.
64 CAP

ITULO 1
1.4 Espacio de las y rango
Hemos interpretado la resolucion de sistemas lineales en terminos de combi-
naciones lineales de las columnas de la matriz del sistema, y el estudio de los
sistemas lineales ha revelado una rica estructura que, a su vez, da informacion
acerca de las soluciones del sistema. Surgieron as el espacio de columnas y el
n ucleo de una matriz. En particular, el espacio de columnas aparecio porque a
cada variable del sistema de ecuaciones se le asocia, en forma completamente
natural, una columna de la matriz del sistema. Pero cuando operamos con el
sistema empleando el metodo de escalerizacion no son las columnas las que
manipulamos, sino las las de la matriz. En realidad, fue a traves de estas
operaciones con las las que introdujimos la idea de que las listas de n umeros
podan ser consideradas como elementos de una estructura algebraica (ver la
observacion 1.1.26, en la pagina 28).
Al igual que hicimos para las columnas, podemos considerar el conjunto
formado por todas las posibles combinaciones lineales de las las de A. Esto
es lo que llamaremos el espacio de las de A, o espacio generado por las
las de A, y lo indicaremos con la notacion l(A). Las operaciones necesa-
rias para llevar la matriz A a su forma escalerizada generas nuevas las que
estan en el espacio de las de la matriz original, porque se obtienen hacien-
do combinaciones lineales con las las de A. Mas interesante a un es que la
escalerizacion no modica el espacio de las de la matriz. Mostraremos esta
armacion viendo que las operaciones elementales del proceso de escaleriza-
cion no alteran el espacio de las. Recordemos cuales eran estas operaciones
elementales:
1. sumar a una la un m ultiplo de otra;
2. multiplicar una la por un escalar no nulo;
3. intercambiar dos las.
Naturalmente, si aplicar una transformacion elemental produce una matriz
con el mismo espacio de las que la matriz original tambien es cierto que el
espacio de las no cambiara luego de aplicar una cantidad nita de operaciones
elementales. Por lo tanto, no cambiara a lo largo del proceso de escalerizacion.
Proposicion 1.10. Sea A una matriz mn sobre K, y B una matriz que se
obtiene a partir de A aplicando una de las transformaciones elementales del
algoritmo de escalerizacion. Entonces
l(A) = l(B).
1.4 Espacio de filas y rango 65
Demostraci on. Todo lo que tenemos que demostrar es que si una la puede
escribirse como combinacion lineal de las las de A entonces tambien puede
escribirse como combinacion lineal de las las de B, y viceversa. Pero para
ahorrarnos la segunda comprobacion hacemos la siguiente observacion: si B
se obtiene de A por medio de una transformacion elemental entonces tambien
es cierto que A se puede obtener de B por una transformacion elemental.
Mostremos que esto es as. Separaremos la prueba en tres casos, uno para
cada transformacion elemental. Indicaremos con A
i
y B
i
, para i = 1, 2, . . . , m,
a las las de A y B respectivamente.
1. Cuando a una fila se le suma un m ultiplo de otra. Supongamos
que la matriz B se obtiene sumando a la la j de A el resultado de
multiplicar la la k, con k j por el n umero k. Entonces la j-esima la
de j es
B
j
= A
j
+aA
k
,
mientras que todas las las restantes coinciden con la correspondiente
la de A. En particular, B
k
= A
k
. Podemos hacer entonces sobre las
las de B la operacion que deshace la accion de sumar aA
k
en la la j:
si a la la j de B le restamos aB
k
tenemos
B
j
aB
k
= A
j
+aA
k
aA
k
= A
j
,
y recuperamos la la A
j
. Las restantes las de B ya coincidan con las
las de A, de modo que hemos conseguido la matriz B haciendo una
transformacion elemental a la matriz A.
2. Cuando se multiplica una fila por un escalar no nulo. La
transformacion elemental que hay que aplicar a B para obtener la matriz
A consiste en multiplicar la misma la por el inverso del escalar.
3. Cuando se intercambian dos filas. Podemos deshacer la operacion
aplicando una vez mas el mismo intercambio.
Ahora solo tenemos que mostrar que si una la esta en el espacio de columnas
de B entonces tambien esta en el de A. Consideramos entonces una la F que
es una combinacion lineal de las las de B. Por lo tanto podremos expresar
F en la forma
F =
1
B
1
+. . . +
i
B
i
+. . .
m
B
m
,
para alg un conjunto de escalares
i
, i = 1, . . . , m. Nuevamente, separamos la
demostracion en tres casos.
66 CAP

ITULO 1
1. Cuando a una fila se le suma un m ultiplo de otra. Como
antes, supongamos que a la la A
j
le hemos sumado aA
k
para obtener
B
j
. Tomando en cuenta la expresion de las las de B en terminos de las
las de A podemos escribir F en la forma
F =
1
A
1
+. . . +
j
(A
j
+aA
k
) +. . . mA
m
,
que es una combinacion lineal de las las de A. Si el lector lo preere
puede reordenarla un poco, para poner junto todo lo que multiplica a la
la A
k
,
F =
1
A
1
+. . . +
j
A
j
+. . . (
k
+a
j
)A
k
+. . .
m
A
m
,
pero no es esencial hacerlo.
2. Cuando se multiplica una fila por un escalar no nulo. Si
hemos multiplicado a la la j de A por un escalar a, entonces B
j
= aA
j
y
F =
1
A
1
+. . . + (a
j
)A
j
+. . . +
m
A
m
.
3. Cuando se intercambian dos filas. Las las de A y de B son las
mismas. Solo cambia el orden con que aparecen en la combinacion lineal.
Si aplicamos repetidas veces la proposicion anterior (tantas como operacio-
nes elementales sean necesarias para el proceso de escalerizacion) obtenemos
nuestro proximo corolario.
Corolario 1.11. Si E es una forma escalerizada de la matriz A entonces
l(E) = l(A).
Observacion 1.4.1. Es importante notar que el espacio de columnas cambia
a lo largo del proceso de escalerizacion. Un ejemplo sencillo mostrara esto.
Ejemplo 1.4.2. El espacio de columnas asociado con la matriz real
A =
_
1 2
1 2
_
esta formado por todas las columnas (x
1
, x
2
) de R
2
tales que x
1
= x
2
. El espa-
cio de las por las las (x
1
, x
2
) que satisfacen x
2
= 2x
1
. La forma escalerizada
reducida de A es
E =
_
1 2
0 0
_
,
que, naturalmente, tiene el mismo espacio de las. Pero el espacio de columnas
de E esta formado por todos los vectores de la forma (x, 0), donde x es un
n umero real cualquiera.
1.4 Espacio de filas y rango 67
Una consecuencia de nuestro ultimo corolario es que las las no nulas de
una forma escalerizada E de una matriz A generan el espacio de las de A.
Esto es cierto porque las las no nulas de E generan exactamente lo mismo
que todas las las de E (las las nulas no aportan nada: solo ceros). Y todas
las las de E generan el espacio de las de E, que coincide con el de A.
Ademas, las las no nulas de una matriz escalerizada forman una familia
linealmente independiente. Veamos por que. Sean
E
1
, E
2
, . . . , E
p
,
las p las no nulas, donde p es el n umero de pivotes de la forma escalerizada.
Fabriquemos una combinacion lineal de las las e igualemos al vector nulo. Es
decir, consideremos coecientes
i
, i = 1, . . . , p tales que

1
E
1
+
2
E
2
+. . . +
p
E
p
= 0. (1.23)
Ahora examinemos el lugar que corresponde al pivote de E
1
. Este pivote esta
en una la a la que llamaremos j
1
Que otras las aportan algo en este lugar?
Ninguna. Solo E
1
lo hace, porque el pivote e
ij
1
en E
1
es distinto de 0, y las
las restantes tienen ceros en la columna j
1
de ese pivote. Al igualar a cero
esta componente de la combinacion lineal obtenemos

1
e
ij
1
= 0,
lo que implica
1
= 0.
Una vez que
1
= 0 el primer sumando en el termino de la izquierda
de (1.23) es nulo y esa igualdad se reduce a

2
E
2
+. . . +
p
E
p
= 0.
Podemos repetir el razonamiento que acabamos de hacer, pero basandonos en
la columna j
2
en que esta el pivote de E
2
para concluir que
2
= 0. Aplicando
el argumento p veces mostramos que la igualdad (1.23) implica

i
= 0, i = 1, . . . , m.
Por lo tanto, la familia formada por las las no nulas de una matriz escalerizada
son linealmente independientes.
El lector estara de acuerdo en que hemos demostrado la proposicion que
enunciaremos a continuacion:
Proposicion 1.12. Sean A una matriz y E una forma escalerizada de A.
Entonces las las no nulas de la matriz E forman una base de l(A).
68 CAP

ITULO 1
Recordemos que hay tantas las no nulas en E como pivotes. Tenemos
entonces el siguiente corolario.
Corolario 1.13. Sean A una matriz m n sobre un cuerpo K, y sea p el
n umero de pivotes de una forma escalerizada de A. Entonces dim(l(A)) = p.
Recordemos el teorema 1.1, pagina 62, que asegura que el n umero de pi-
votes de una forma escalerizada tambien es igual a la dimension del espacio
de columnas. Poniendo esta informacion junto a la que hemos encontrado
en esta seccion completamos la demostracion del importante resultado que
enunciamos a continuacion.
Teorema 1.2. Sea A una matriz mn sobre un cuerpo K. Entonces
dim(l(A)) = dim(col(A)).
A este n umero, que indica la dimension com un a ambos espacios se le llama
rango de la matriz A. Ese es el contenido de nuestra proxima denicion.
Denicion 1.5. Llamaremos rango de una matriz a la dimension de su es-
pacio de las y de su espacio de columnas.

También podría gustarte