P. 1
Algebra Lineal

Algebra Lineal

|Views: 2.493|Likes:
Publicado porRaptor Marban

More info:

Published by: Raptor Marban on Aug 31, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

03/21/2013

pdf

text

original

Sections

  • Preliminares
  • 1.1 Resoluci´on de sistemas de ecuaciones lineales
  • 1.2 Resoluci´on de un sistema de ecuaciones lineales
  • Ecuaciones lineales
  • 2.1 Introducci´on
  • 2.2 Eliminacion gausiana
  • 2.3 M´etodo de Gauss-Jordan
  • 3.1 Forma Escalonada por Renglones y Rango
  • 3.2 Forma Escalonada por Renglones Reducida
  • 3.3 Consistencia de Modelos Lineales
  • 3.4 Sistemas Homogeneos
  • 3.5 Sistemas no Homogeneos
  • ´Algebra Matricial
  • 4.1 Adici´on, Multiplicaci´on Escalar y Transpuesta
  • 4.1.1 Adici´on de Matrices
  • 4.1.2 Multiplicaci´on Escalar
  • 4.1.3 La Transpuesta de una Matriz
  • 4.2 Linealidad
  • 4.3 Multiplicaci´on Matricial
  • 4.3.1 Propiedades de la Multiplicaci´on Matricial
  • 4.4 Multiplicaci´on de Matrices Particionadas
  • 4.5. MATRICES ELEMENTALES Y EQUIVALENTES 43
  • 4.5 Matrices Elementales y Equivalentes
  • 4.5.1 Matrices Elementales
  • 4.5.2 Matrices Equivalentes
  • 4.6 Factorizaci´on LU
  • Espacios vectoriales
  • 5.1 Introducci´on
  • 5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 57
  • 5.2 Los Cuatro Subespacios Fundamentales
  • 5.3 Independencia Lineal
  • 5.4 Base y dimensi´on

Elementos de

´
Algebra Lineal y Matricial
V´ıctor Manuel Alvarado Castro,
Alejo L´opez G´onzalez
Abril de 2007
Contenido
1 Preliminares 5
1.1 Resoluci´on de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . 5
1.2 Resoluci´on de un sistema de ecuaciones lineales . . . . . . . . . . . . . . . . . . 7
2 Ecuaciones lineales 9
2.1 Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Eliminacion gausiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 M´etodo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Sistemas Rect´angulares y Formas Escalonadas 17
3.1 Forma Escalonada por Renglones y Rango . . . . . . . . . . . . . . . . . . . . . 17
3.2 Forma Escalonada por Renglones Reducida . . . . . . . . . . . . . . . . . . . . 20
3.3 Consistencia de Modelos Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Sistemas Homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.5 Sistemas no Homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4
´
Algebra Matricial 29
4.1 Adici´on, Multiplicaci´on Escalar y Transpuesta . . . . . . . . . . . . . . . . . . . 29
4.1.1 Adici´on de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.2 Multiplicaci´on Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.1.3 La Transpuesta de una Matriz . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Multiplicaci´on Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.1 Propiedades de la Multiplicaci´on Matricial . . . . . . . . . . . . . . . . . 38
4.4 Multiplicaci´on de Matrices Particionadas . . . . . . . . . . . . . . . . . . . . . 40
4.5 Matrices Elementales y Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . 43
4.5.1 Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.5.2 Matrices Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.6 Factorizaci´on LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5 Espacios vectoriales 53
5.1 Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Los Cuatro Subespacios Fundamentales . . . . . . . . . . . . . . . . . . . . . . 57
5.3 Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.4 Base y dimensi´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3
4 CONTENIDO
Cap´ıtulo 1
Preliminares
1.1 Resoluci´on de sistemas de ecuaciones lineales
Antes de conocer y aplicar los m´etodos especificos de resoluci´on de un sistema de ecuaciones
lineales, veamos que significa resolver el sistema y, como consecuencia, porque debemos utilizar
un m´etodo especifico de resoluci´on.
De nuestro conocimiento de la geom´etria anal´ıtica en el plano, sabemos que la ecuaci´on general
de la recta es de la forma
Ax + By + C = 0 A ,= 0, ´o B ,= 0 (1.1)
A la ecuaci´on anterior le denominamos ecuaci´on lineal general en las variables x, y. El adjetivo
lineal, es debido a que las variables que intervienen tienen grado uno.
En geom´etria anal´ıtica se demuestra que una ecuaci´on lineal en las variables x, y representa
una recta y, una recta en el plano IR
2
, tiene como ecuaci´on de su lugar gem´etrico una ecuaci´on
lineal en las variables x, y.
Algunos ejemplos de ecuaciones lineales son los siguientes:
a) y = 1, d)
3y
7
= 6,
b) x = −5, e) 3x + 2y = 5,
c) 5x = 8, f)
2
x −3
=
5
y −1
.
Nuestro objetivo es resolver los sistemas de ecuaciones lineales, pero antes debemos saber
como resolvemos una ecuaci´on lineal. Estamos ante la interrogante ¿qu´e significa resolver una
ecuaci´on lineal?. En ´algebra, la pregunta anterior, significa calcular, delimitar o determinar
el conjunto de valores n´ umericos de la variable o variables que satisfacen la ecuaci´on. Las
variables generalmente est´an definidas en el conjunto IR, salvo que se especifique lo contrario.
5
6 CAP
´
ITULO 1. PRELIMINARES
As´ı, la soluci´on de la ecuaci´on y = 1, es sin duda el valor y = 1, ya que 1 = 1. De la misma
manera, la soluci´on de 5x = 8 es x =
8
5
, por que
5
_
8
5
_
= 8
8 = 8
.
En las dos ecuaciones lineales anteriores los conjuntos soluci´on son ¦y ∈ IR [ y = 1¦ y
_
x ∈ IR
¸
¸
¸
¸
x =
8
5
_
.
Ahora veamos cu´al es el conjunto soluci´on para la ecuaci´on
3x + 2y = 5,
no perdamos de vista lo que significa resolver la ecuaci´on, que en este caso consta de dos
variables.
¿C´omo podemos determinar el conjunto de parejas (x, y) de n´ umeros reales que satisfagan a
la ecuaci´on?. Una manera es despejar una variable en funci´on de la otra, por ejemplo
x =
5 −2y
3
.
En la ecuaci´on anterior es posible determinar el valor de x si le asignamos alg´ un valor a y
(y ∈ IR). Algunos valores asignados a y se muestran en la tabla
Tabla 1.1: Valores de y
y
−3
−0.5
0
3
1.5
Si sustituimos los valores anteriores de y, en la ecuaci´on x =
5 −2y
3
, resulta la correspondiente
de x. As´ı, tenemos la siguiente tabla
Todas las parejas de esta tabla son soluci´on de la ecuaci´on lineal, lo cual puede verificar.
¿Cu´antos pares (x, y) son soluci´on para la ecuaci´on lineal?, como la variable y se puede elegir
del conjunto IR, existe un conjunto infinito de pares, como se indica:
soluci´on =
_
(x, y) ∈ IR
2
¸
¸
¸
¸
x =
5 −2y
3
_
.
1.2. RESOLUCI
´
ON DE UN SISTEMA DE ECUACIONES LINEALES 7
Tabla 1.2: Valores de y y x
y x
−3 3.7
−0.5 2
0 1.7
3 −0.3
1.5 0.7
Ejercicios:
1. Represente en el plano algunas parejas de puntos de la Tabla (1.2).
2. Bosqueje la gr´afica de la ecuaci´on 2y + 3x −5 = 0. ¿Cu´al es la representaci´on gr´afica de la
soluci´on?.
Nota: Observe que todo punto soluci´on est´a sobre la recta.
3. Bosqueje la gr´afica de cada una de las siguientes ecuaciones y localice al menos 3 puntos
soluci´on.
a) x = 5,
b) −
1
2
x −
1
3
y = 1,
c) y = 0.
1.2 Resoluci´on de un sistema de ecuaciones lineales
Iniciamos suponiendo que queremos resolver un sistema de dos ecuaciones lineales con dos
incognitas.
A
1
x + B
1
y + C
1
= 0 E
1
A
2
x + B
2
y + C
2
= 0 E
2
.
De nueva cuenta, resolver el sistema significa determinar los valores reales de x y y que sat-
isfagan a ambas ecuaciones; ¿c´omo podemos bosquejar el conjunto de pares (x, y) de n´ umeros
reales que satisfagan a ambas ecuaciones del sistema?. Una manera de hacerlo es analizando
que ocurre gr´aficamente. Sabemos del curso de geometr´ıa anal´ıtica en IR
2
, que las posiciones
relativas de dos rectas en el plano son las que sepresentan en la Figura (1.1). Cada caso de
estos merece un estudio por separado.
En el caso de que las rectas se intersecta en un punto, la soluci´on es ´ unica, ya que las rectas no
se vuelve a ”cortar”. ¿C´omo determinamos la soluci´on?. Est´a claro que queremos determinar
las coordenadas del punto (x, y) que es com´ un en ambas rectas o que satisface a la ecuaci´on
de ambas.
8 CAP
´
ITULO 1. PRELIMINARES
todos los puntos son
comunes
no hay puntos
comunes
punto común
c) Que sean coincidentes.
b) Que sean paralelas.
0
0
a) Que se intersectan en un punto.
E1=E2
E2
E1
E2
E1
x
x 0 x
y
y y
Figura 1.1: Posiciones relativas de dos rectas en el plano.
Ejemplo 1.2.1. Veamos si el sistema
x + 2y = 3 E
1
2x −2y = 8 E
2
,
tiene soluci´on ´ unica. Auxiliandonos de la representaci´on gr´afica, Figura(1.2), se puede ob-
servar que las rectas se intersectan en un s´olo punto, de donde se deduce que el sistema de
ecuaciones tiene soluci´on ´ unica.
x
0
punto
común
E
1
E
2
y
Figura 1.2: Representaci´on gr´afica de un sistema de ecuaciones.
Cap´ıtulo 2
Ecuaciones lineales
2.1 Introducci´on
Un problema fundamental el cual aparece en todas las ciencias matem´aticas es el de an´alizar y
resolver m ecuaciones ´algebraicas en n inc´ognitas. El estudio de un sistema de ecuaciones linea-
les simultaneas esta naturalmente ligado con el estudio de arreglos rect´angulares de n´ umeros
definidos por los coeficientes de las ecuaciones.
Los primeros registros de an´alisis de ecuaciones simultaneas son encontrados en el antiguo libro
chino Chiu-chang Suan-shu(Nueve capitulos sobre Aritm´etica), el cual fue escrito al rededor
del a˜ no 200 antes de cristo. Al inicio del Cap´ıtulo VIII aparece un problema, el cual tiene la
siguiente forma:
Tres atados de una cosecha buena, dos atados de una cosecha mediocre, y un atado de una
cosecha mala se venden por 39 dou. Dos atados de una buena, tres atados de una mediocre,
y un atado de una mala se venden por 34 dou; y un atado de una buena, dos atados de una
mediocre, y tres atados de una mala se venden por 26 dou. ¿Qu´e precio se recibe por cada
atado de una cosecha buena, cada atado de una cosecha mediocre, y cada atado de una cosecha
mala?
En la actualidad, este problema ser´ıa formulado como tres ecuaciones en tres incognitas
3x + 2y + z = 39
2x + 3y + z = 34
x + 2y + 3z = 26
donde x, y, y z representan el precio para cada uno de los atados de las tres diferentes cosechas,
a saber buena, mediocre y mala, respectivamente. Los chinos dieron con la parte medular de
la materia. Ellos colocaron los coeficientes (representados por varas de bamb´ u coloreadas) de
este sistema en un arreglo cuadrado sobre una ”tabla de conteo” y entonces manipularon las
lineas de los arreglos de acuerdo a las reglas prescritas del dedo pulgar. Sus t´ecnicas de la tabla
de conteo y las reglas del dedo pulgar encuentran utilidad en Japon y eventualmente aparecen
en Europa, donde las varas de colores son remplazadas por n´ umeros y la tabla de conteo es
9
10 CAP
´
ITULO 2. ECUACIONES LINEALES
remplazada por papel y lapiz. En Europa, la t´ecnica llega a ser conocida como Eliminaci´on
Gaussiana en honor al matem´atico aleman Carl Gauss, quien populariz´o el m´etodo.
2.2 Eliminacion gausiana
El problema es calcular, si es posible, una soluci´on com´ un para un sistema de m ecuaciones
lineales con n inc´ognitas
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
donde las x

i
s son inc´ognitas y las a

ij
s y b

i
s son constantes conocidas. Las a

ij
s son llamadas
los coeficientes del sistema y el conjunto de las b

i
s es referido como el lado derecho del sistema.
Para cualquier sistema, existen tres posibilidades para el conjunto de soluciones:
1) Soluci´on ´ unica: hay un s´olo cojunto de valores para los x

i
s que satisfacen todas las
ecuaciones simult´aneamente.
2) No hay soluci´on: no hay un conjunto de valores para los x

i
s los cuales satisfagan
todas las ecuaciones simult´aneamente.
3) Infinitas soluciones: hay una infinidad de diferentes conjuntos de valores para los x

i
s
que satisfacen simult´aneamente todas las ecuaciones.
Una parte del trabajo es identificar cual de estas posibilidades es verdadera para un sistema
en particular, la otra parte es calcular el conjunto de soluciones. La eliminacion gaussiana es
una herramienta que puede ser usada para cumplir estos objetivos.
La eliminaci´on gaussiana es un procedimiento met´odico que transforma un sistema en otro
sistema equivalente, pero mas simple (dos sistemas son equivalentes si pose´en el mismo con-
junto de soluciones) mediante la eliminacion de inc´ognitas y arreglando un sistema que es de
f´acil soluci´on. La eliminaci´on se realiza mediante tres operaciones simples que transforman al
sistema en otro equivalente. Para describir estas operaciones definamos a E
k
como la k-´esima
ecuaci´on:
E
k
: a
k1
x
1
+ ... + a
kn
x
n
= b
k
.
As´ı el sistema ser´ıa:
S =
_
¸
¸
¸
_
¸
¸
¸
_
E
1
E
2
.
.
.
E
m
_
¸
¸
¸
_
¸
¸
¸
_
.
Para un sistema lineal S cada una de las siguientes tres operaciones elementales origina un
sistema equivalente S

.
2.2. ELIMINACION GAUSIANA 11
1) Intercambiar la i-´esima y j-´esima ecuaci´on. Esto es, si
S =
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
E
1
.
.
.
E
i
.
.
.
E
j
.
.
.
E
m
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
, entonces S

=
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
E
1
.
.
.
E
j
.
.
.
E
i
.
.
.
E
m
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
.
(2.1)
2) Remplazar la i-´esima ecuaci´on por un m´ ultiplo de si misma, distinto de cero,esto es:
S

=
_
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
_
E
1
.
.
.
αE
i
.
.
.
E
m
_
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
_
donde α ,= 0. (2.2)
3) Remplazar la j-´esima ecuaci´on por una combinaci´on de si misma m´as un m´ ultiplo de la
i-´esima ecuaci´on. Esto es:
S

=
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
E
1
.
.
.
E
i
.
.
.
E
j
+ αE
i
.
.
.
E
m
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
. (2.3)
El problema m´as com´ un que se tiene en la pr´actica es aquel en que se tiene n ecuaciones con
n inc´ognitas, llamado sistema cuadrado, para el cual hay una ´ unica soluci´on.
Ejemplo 2.2.1. Considere el sistema cuadrado :
2x + y + z = 1
6x + 2y + z = −1
−2x + 2y + z = 7
, (2.4)
tal sistema ser´a de utilidad para ejemplificar la eliminaci´on gaussiana.
12 CAP
´
ITULO 2. ECUACIONES LINEALES
En cada paso, la estrategia es ubicarnos en una posici´on llamada posici´on pivote y eliminar to-
dos los t´erminos debajo de esta posici´on usando las tres operaciones elementales. El coeficiente
en la posici´on pivote es llamado pivote mientras la ecuaci´on donde esta el pivote es referida
como la ecuaci´on pivotal. S´olo n´ umeros distintos de cero pueden ser considerados pivotes, si
un coeficiente en una posici´on pivotal es cero, entonces la ecuaci´on pivotal es intercambiada
con otra ecuaci´on de bajo de la ecuaci´on pivotal que produzca un pivote distinto de cero. Por
ejemplo, el par´entesis (2) en el anterior sistema indica el pivote, esto es:
(2)x + y + z = 1
6x + 2y + z = −1
−2x + 2y + z = 7
Paso 1: Eliminar todos los t´erminos de bajo del primer pivote.
• Sustraer tres veces la primera ecuaci´on de la segunda, lo cual produce el sistema equivalente:
(2)x + y + z = 1
−y −2z = −4 (E
2
−3E
1
)
−2x + 2y + z = 7
• Sumando la primera ecuaci´on y la tercera se tiene el sistema equivalente:
(2)x + y + z = 1
−y −2z = −4
3y + 2z = 8 (E
3
+ E
1
)
Paso 2: Seleccionar un nuevo pivote.
• El siguiente pivote se seleciona moviendose a la siguiente ecuaci´on y al segundo coeficiente
de esta. Si este es distinto de cero entonces es el nuevo pivote. De otra forma se intercambia
esta ecuaci´on por otra de bajo de ella, cuyo segundo coeficiente es distinto de cero. En este
ejemplo el nuevo pivote es el −1
2x + y + z = 1
(−1)y −2z = −4
3y + 2z = 8
Paso 3: Eliminar todos los t´erminos de bajo del segundo pivote.
• Sumar tres veces la segunda ecuaci´on a la tercer ecuaci´on, lo cual produce el sistema equi-
valente:
2x + y + z = 1
(−1)y −2z = −4 (2.5)
−4z = −4 (E
3
+ 3E
2
)
• En general, en cada paso se debe de mover a la siguiente ecuaci´on y colocarse en un nuevo
pivote y as´ı sucesivamente. En este ejemplo, el nuevo pivote es −4, pero dado que no hay
elementos por eliminarse de bajo del pivote, entonces el procedimiento esta completo.
2.2. ELIMINACION GAUSIANA 13
En este punto decimos que el sistema ha sido triangularizado. Un sistema triangular es f´acil
de resolver por un m´etodo conocido como sustituci´on inversa, en la cual la ´ ultima ecuaci´on
es resuelta y el resultado sustituye a la inc´ognita en la ecuaci´on anterior y as´ı sucesivamente
hasta determinar el conjunto de soluciones del sistema. En este ejemplo se tiene que:
z = 1
y sustituyendo este valor en la segunda ecuaci´on de (2.5) se tiene que y = 2. Y finalmente,
sustituyendo y y z en la primera ecuaci´on de (2.5) se tiene que x = −1. As´ı, el conjunto
soluci´on del sistema es ¦x = −1, y = 2, z = 1¦.
Note que no tiene sentido colocar los s´ımbolos ”x”, ”y”, ”z” y ”=” en cada paso dado que
´ unicamente manipulamos los coeficientes. Si tales s´ımbolos son eliminados, entonces un sis-
tema de ecuaciones lineales se reduce a un arreglo rectangular de n´ umeros en el que cada fila
representa una ecuaci´on, por ejemplo, el sistema (2.4) se reduce al arreglo:
_
_
2 1 1
6 2 1
−2 2 1
¸
¸
¸
¸
¸
¸
1
1
−7
_
_
.
El arreglo de coeficientes es llamado matriz de coeficientes. El arreglo que contiene los coefi-
cientes del sistema y la parte derecha del sistema es llamado matriz aumentada. Si la matriz
de coeficientes es denotada por A y la parte derecha del sistema por b, entonces [A[b] denotar´a
la matriz aumentada.
Formalmente, un escalar es un n´ umero real o complejo y una matriz es un arreglo rect´angular
de escalares. Denotaremos a las matrices con letras may´ usculas y a los escalares con letras
minusculas. Por ejemplo
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
denota la matriz A con escalares a
ij
, i = 1, 2, ..., m y j = 1, 2, ..., n. La matriz A se dice que
tiene tama˜ no u orden mn, si tiene ex´actamente m reglones y n columnas. Por ejemplo si la
matriz A es
A =
_
_
2 1 3 4
8 6 5 −9
−3 8 3 7
_
_
, (2.6)
entonces el orden de tal matriz es 3 4.
El s´ımbolo A

i
denotar´a al i-´esimo regl´on y A
j
denotar´a a la j-´esima columna. Por ejemplo, si
A es la matriz en (2.6), entonces
14 CAP
´
ITULO 2. ECUACIONES LINEALES
A

2
=
_
8 6 5 −9
_
y A
2
=
_
_
1
6
8
_
_
.
Para un sistema lineal de ecuaciones
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
la eliminaci´on gaussiana puede ser ejecutada sobre la matriz aumentada [A[b] realizando las
operaciones elementales (2.1), (2.2) y (2.3).
As´ı, para una matriz mn (denotaremos M ∈ IR
m×n
)
M =
_
_
_
_
_
_
_
_
_
_
_
_
_
M

1
.
.
.
M

i
.
.
.
M

j
.
.
.
M

m
_
_
_
_
_
_
_
_
_
_
_
_
_
, las tres operaciones elementales de M son:
(1) Intercambiar los reglones i-´esimo y j-´esimo de M esto es:
_
_
_
_
_
_
_
_
_
_
_
_
_
M

1
.
.
.
M

j
.
.
.
M

i
.
.
.
M

m
_
_
_
_
_
_
_
_
_
_
_
_
_
(2.7)
(2) Remplazar el i-´esimo regl´on de M por un m´ ultiplo distinto de cero de si mismo.
_
_
_
_
_
_
_
_
M

1
.
.
.
αM

i
.
.
.
M

m
_
_
_
_
_
_
_
_
α ,= 0 (2.8)
2.3. M
´
ETODO DE GAUSS-JORDAN 15
(3) Remplazar el j-´esimo regl´on de M por una combinaci´on de si mismo m´as un m´ ultiplo
distinto de cero del i-´esimo regl´on.
_
_
_
_
_
_
_
_
_
_
_
_
_
M

1
.
.
.
M

i
.
.
.
M

j
+ αM

i
.
.
.
M

m
_
_
_
_
_
_
_
_
_
_
_
_
_
(2.9)
As´ı, para resolver el sistema (2.4) usando operaciones elementales de reglones, de la matriz
aumentada [A[b], se proceder´ıa de la siguiente forma :
_
_
(2) 1 1
6 2 1
−2 2 1
¸
¸
¸
¸
¸
¸
1
−1
7
_
_
R
2
−3R
1
R
3
−R
1

_
_
2 1 1
0 −1 −2
0 3 2
¸
¸
¸
¸
¸
¸
1
−4
8
_
_
R
3
+ 3R
2

_
_
2 1 1
0 −1 −2
0 0 −4
¸
¸
¸
¸
¸
¸
1
−4
−4
_
_
.
El arreglo final representa al sistema triangular
2x + y + z = 1
− y − 2z = −4
− 4z = −4
el cual se resolver´ıa mediante la sustituci´on inversa.
2.3 M´etodo de Gauss-Jordan
El m´etodo de Gauss-Jordan es una variaci´on de la eliminaci´on gaussiana. Las dos carac-
ter´ısticas que distiguen al m´etodo de Gauss-Jordan con la eliminaci´on gaussiana son las sigui-
entes:
• En cada caso, el pivote es forsado a ser uno, (1).
• En cada paso los elementos que estan por abajo y por arriba del pivote son eliminados.
Esto es, si
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
¸
¸
¸
¸
¸
¸
¸
¸
¸
b
1
b
2
.
.
.
b
n
_
_
_
_
_
16 CAP
´
ITULO 2. ECUACIONES LINEALES
es la matriz aumentada asociada con el sistema lineal, entonces las operaciones elementales
son usadas para reducir a esta matriz en
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
¸
¸
¸
¸
¸
¸
¸
¸
¸
s
1
s
2
.
.
.
s
n
_
_
_
_
_
As´ı, las soluciones del sistema ser´a el conjunto de las s

i
s.
Ejemplo 2.3.1. Aplicar el m´etodo Gauss-Jordan para resolver el siguiente sistema
2x
1
+ 2x
2
+ 6x
3
= 4
2x
1
+ x
2
+ 7x
3
= 6
−2x
1
− 6x
2
− 7x
3
= −1
Soluci´on:
_
_
(2) 2 6
2 1 7
−2 −6 −7
¸
¸
¸
¸
¸
¸
4
6
−1
_
_
R
1
/2

_
_
(1) 1 3
2 1 7
−2 −6 −7
¸
¸
¸
¸
¸
¸
2
6
−1
_
_
R
2
−2R
1
R
3
+ 2R
1

_
_
1 1 3
0 −1 1
0 −4 −1
¸
¸
¸
¸
¸
¸
2
2
3
_
_
R
2
/ −1 →
_
_
1 1 3
0 1 −1
0 −4 −1
¸
¸
¸
¸
¸
¸
2
−2
3
_
_
R
1
−R
2
R
3
+ 4R
2

_
_
1 0 4
0 1 −1
0 0 −5
¸
¸
¸
¸
¸
¸
4
−2
−5
_
_
R
3
/ −5

_
_
1 0 4
0 1 −1
0 0 1
¸
¸
¸
¸
¸
¸
4
−2
1
_
_
R
1
−4R
3
R
2
+ R
3

_
_
1 0 0
0 1 0
0 0 1
¸
¸
¸
¸
¸
¸
0
−1
1
_
_
.
Por tanto, la soluci´on es
_
_
x
1
x
2
x
3
_
_
=
_
_
0
−1
1
_
_
.
Cap´ıtulo 3
Sistemas Rect´angulares y Formas
Escalonadas
3.1 Forma Escalonada por Renglones y Rango
Ahora estamos interesados en analizar sistemas lineales m´as generales que consisten de m
ecuaciones y n incognitas.
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
,
donde m puede ser diferente de n. Si sabemos que m ,= n entonces el sistema se dice que es
rectangular.
El primer objetivo es extender la t´ecnica de eliminaci´on Gaussiana a sistemas rectangulares.
Note que para un sistema cuadrado con soluci´on ´ unica, los pivotes se encuentran sobre la
diagonal principal de la matriz (la diagonal formada de la esquina superior izquierda a la
esquina inferior derecha). En cambio, en un sistema rectangular no es posible que los pivotes
esten sobre la diagonal principal de la matriz de coeficientes , pues nisiquiera existe tal diagonal.
As´ı, la eliminaci´on Gaussiana en un sistema rectangular no tiene como resultado una forma
tri´angular. Por ejemplo, considere el siguiente sistema :
x
1
+ 2x
2
+ x
3
+ 3x
4
+ 3x
5
= 5
2x
1
+ 4x
2
+ 4x
4
+ 4x
5
= 6
x
1
+ 2x
2
+ 3x
3
+ 5x
4
+ 5x
5
= 9
2x
1
+ 4x
2
+ 4x
4
+ 7x
5
= 9
.
17
18 CAP
´
ITULO 3. SISTEMAS RECT
´
ANGULARES Y FORMAS ESCALONADAS
Pongamos atencion en la matriz de coeficientes
A =
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_
,
e ignoremos por un momento el lado derecho. Aplicando la eliminaci´on gaussiana a A se
obtiene el siguiente resultado:
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 −2 −2 −2
0 0 2 2 2
0 0 −2 −2 1
_
_
_
_
En el proceso de eliminaci´on b´asico, la estrategia es moverse hacia a bajo y a la derecha, a la
posici´on pivotal m´as proxima. Si se tiene un cero en esta posici´on este rengl´on es intercambiado
por otro rengl´on, que se encuentre debajo de ´el, buscando que en esta posici´on se tenga un
n´ umero distinto de cero, el cual ser´a el nuevo pivote. Sin embargo, en este ejemplo, es claro que
es imposible hacer que en la posici´on (2, 2) se tenga un n´ umero distinto de cero al intercambiar
el segundo rengl´on por otro debajo de ´el.
As´ı, el procedimiento de eliminacion Gaussiana es modificado como sigue:
Suponga que U es la matriz aumentada asociada al sistema despues de que los i −1 pasos de
eliminacion han sido completados para ejecutar el i − ´ esimo paso , el procedimiento es:
1. Moverse de izquierda a derecha en U , ubicandose en la primera columna que contiene
una entrada distinta de cero, digamos U
j
.
2. El pivote para el i − ´ esimo paso ser´a U
ij
.
3. Si es necesario cambie el i-´esimo rengl´on por otro que, de bajo de ´el, tenga una entrada
distinta de cero y entonces U

ij
sera su pivote, donde U

es la matriz U modificada al
cambiar el i-´esimo rengl´on del sistema.
4. Si el renglon U

i
como todo los renglones de U de bajo de U
i
son ceros entonces el
procedimiento termina.
Ejemplo 3.1.1. Aplicar la eliminaci´on Gaussiana modificada para la siguiente matriz.
A =
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_
.
3.1. FORMA ESCALONADA POR RENGLONES Y RANGO 19
Solucion:
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 −2 −2 −2
0 0 2 2 2
0 0 −2 −2 1
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 −2 −2 −2
0 0 0 0 0
0 0 0 0 3
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 −2 −2 −2
0 0 0 0 3
0 0 0 0 0
_
_
_
_
.
Note que el resultado final no es una forma triangular pura, si no que es parecida a una forma
tri´angular. Tal estructura recibe el nombre de forma escalonada por renglones.
Definici´on 3.1.1. Una matriz E ∈ IR
m×n
con renglones E

i
y columnas E
j
se dice que es una
forma escalonada por renglones si satisface lo siguiente:
i) Si E

i
consiste de entradas ceros , entonces todos los renglones de bajo de E

i
son cero.
ii) Si la primera entrada distinta de cero de E

i
se encuentra en la j-´esima posici´ on, entonces
todas las entradas por de bajo de la ij-´esima posici´on son cero.
Debido a la libertad que uno tiene en aplicar operaciones elementales en una matriz A, entonces
la forma escalonada por renglones E, asociada a A, no es ´ unica. Sin embargo, E es ´ unica en el
sentido de que las posiciones de los pivotes en E (y A), son determinadas de forma ´ unica por
la entradas de A. De esto se sigue, que el n´ umero de pivotes -el cual es el n´ umero de renglones
distintos de cero en E- es determinado de forma ´ unica por las entradas de A.
Definici´on 3.1.2 (Rango de una matriz). Si una matriz A es reducida a su forma escalon-
ada por renglones E, entonces las columnas b´asicas de A son definidas como aquellas columnas
en A las cuales contienen los pivotes. El n´ umero
r = n´ umero de pivotes
= n´ umero de renglones distintos de cero de E
= n´ umero de columnas basicas de A
es llamado el rango de A y se denotar´a por r(A).
Ejemplo 3.1.2. Determine el rango de
A =
_
_
1 2 1 1
2 4 2 2
3 6 3 4
_
_
,
e identifique las columnas b´asicas de A.
20 CAP
´
ITULO 3. SISTEMAS RECT
´
ANGULARES Y FORMAS ESCALONADAS
Soluci´on: reducir a A en su forma escalonada por renglones como sigue:
A =
_
_
1 2 1 1
2 4 2 2
3 6 3 4
_
_

_
_
1 2 1 1
0 0 0 0
0 0 0 1
_
_

_
_
1 2 1 1
0 0 0 1
0 0 0 0
_
_
= E.
As´ı, el r(A) = 2 y las columnas b´asicas de A son :
columnas b´asicas de A =
_
_
_
_
_
1
2
3
_
_
,
_
_
1
2
4
_
_
_
_
_
3.2 Forma Escalonada por Renglones Reducida
Note que el m´etodo de Gauss-Jordan transforma a una matriz A, a una matriz diagonal con
estradas 1, para obtener la soluci´on del sistema asociado a la matriz. Esto sucede en un sistema
cuadrado con una soluci´on. En el caso de sistemas rect´angulares se producen entradas distintas
de cero en las columnas no b´asicas de la matriz.
Por ejemplo:
A =
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 −2 −2 −2
0 0 2 2 2
0 0 −2 −2 1
_
_
_
_

_
_
_
_
1 2 0 2 2
0 0 1 1 1
0 0 0 0 0
0 0 0 0 3
_
_
_
_

_
_
_
_
1 2 0 2 2
0 0 1 1 1
0 0 0 0 3
0 0 0 0 0
_
_
_
_

_
_
_
_
1 2 0 2 2
0 0 1 1 1
0 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
_
_
1 2 0 2 0
0 0 1 1 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
.
Definici´on 3.2.1 (Forma escalonada por renglones reducida). Una matriz E
A
∈ IR
m×n
se dice que es una forma escalonada por renglones reducida si satisface lo siguiente:
1. E
A
es una forma escalonada por renglones
2. La primera entrada en cada rengl´on (i.e., cada pivote) es 1.
3. Todas las entradas de bajo del pivote son cero.
Si una matriz A es transformada por una sucesi´on de operaciones elementales a una matriz
E
A
, la cual es una forma escalonada por renglones reducida, entonces cada entrada de E
A
es
determinada de forma ´ unica por las entradas de A.
Ejemplo 3.2.1. Para la matriz
A =
_
_
_
_
1 2 2 3 1
2 4 4 6 2
3 6 6 9 6
1 2 4 5 3
_
_
_
_
,
3.2. FORMA ESCALONADA POR RENGLONES REDUCIDA 21
determine E
A
, r(A), y las columnas b´asicas de A.
Soluci´on:
_
_
_
_
1 2 2 3 1
2 4 4 6 2
3 6 6 9 6
1 2 4 5 3
_
_
_
_

_
_
_
_
1 2 2 3 1
0 0 0 0 0
0 0 0 0 3
0 0 2 2 2
_
_
_
_

_
_
_
_
1 2 2 3 1
0 0 2 2 2
0 0 0 0 3
0 0 0 0 0
_
_
_
_

_
_
_
_
1 2 0 1 −1
0 0 1 1 1
0 0 0 0 3
0 0 0 0 0
_
_
_
_

_
_
_
_
1 2 0 1 0
0 0 1 1 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
Por tanto el r(A) = 3 y las columnas b´asicas de A son:
_
¸
¸
_
¸
¸
_
_
_
_
_
1
2
3
1
_
_
_
_
,
_
_
_
_
2
4
6
4
_
_
_
_
,
_
_
_
_
1
2
6
3
_
_
_
_
_
¸
¸
_
¸
¸
_
.
Note que el ejemplo anterior ilustra una caracter´ıstica importante de E
A
y explica por que las
columnas con pivote de A son llamadas columnas b´asicas, note que:
A
2
= 2A
1
, y A
4
= A
1
+ A
3
,
exactamente las mismas relaciones que en E
A
. Esto es,
E
2
= 2E
1
y E
4
= E
1
+ E
3
.
As´ı,
1. Cada columna no b´asica E
k
de E
A
es una combinaci´on lineal -una suma de multiplos-
de las columnas b´asicas de E
A
. Esto es
E
k
= µ
1
E
b
1
+ µ
2
E
b
2
+ ... + µ
j
E
b
j
= µ
1
_
_
_
_
_
_
_
_
_
_
1
0
.
.
.
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
+ µ
2
_
_
_
_
_
_
_
_
_
_
0
1
.
.
.
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
+ ... + µ
j
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
1
.
.
.
0
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
µ
1
µ
2
.
.
.
µ
j
.
.
.
0
_
_
_
_
_
_
_
_
_
_
.
Donde las E

b
i
s son las columnas b´asicas que generan a E
k
y donde los m´ ultiplos µ
i
son
las primeras j entradas en E
k
.
22 CAP
´
ITULO 3. SISTEMAS RECT
´
ANGULARES Y FORMAS ESCALONADAS
2. Las relaciones que existen entre las columnas de A son exactamente las mismas relaciones
que existen entre las columnas de E
A
. En particular, si A
k
es una columna no b´asica en
A, entonces
A
k
= µ
1
A
b
1
+ µ
2
A
b
2
+ ... + µ
j
A
b
j
,
donde las A

b
i
s son las columnas basicas que generan a A
k
y donde los µ
i
son los mismos
que los de la combinaci´on anterior, las primeras j entradas en E
k
.
Ejemplo 3.2.2. Escribir cada columna no b´asica de
A =
_
_
2 −4 −8 6 3
0 1 3 2 3
3 −2 0 0 8
_
_
,
como una combinaci´on lineal de las columnas b´asicas.
Soluci´on: Primero transformamos a A en E
A
, as´ı
A =
_
_
2 −4 −8 6 3
0 1 3 2 3
3 −2 0 0 8
_
_

_
_
1 −2 −4 3
3
2
0 1 3 2 3
3 −2 0 0 8
_
_

_
_
1 −2 −4 3
3
2
0 1 3 2 3
0 4 12 −9
7
2
_
_

_
_
1 0 2 7
15
2
0 1 3 2 3
0 0 0 −17
−17
2
_
_

_
_
1 0 2 0 4
0 1 3 0 2
0 0 0 1
1
2
_
_
= E
A
Entonces
E
3
= 2E
1
+ 3E
2
y E
5
= 4E
1
+ 2E
2
+
1
2
E
3
.
Y as´ı,
A
3
= 2A
1
+ 3A
2
y A
5
= 4A
1
+ 2A
2
+
1
2
A
3
.
En resumen, la utilidad de E
A
recae en la habilidad de revelar dependencias en los datos de
las columnas de A. Las columnas no b´asicas en A representan informaci´on redundante en el
sentido de que ´esta informaci´on puede ser expresada en t´erminos de los datos contenidos en
las columnas b´asicas.
3.3 Consistencia de Modelos Lineales
Definici´on 3.3.1 (Sistemas consistentes e inconsistentes). Un sistema de m ecuaciones
con n incognitas
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
,
3.3. CONSISTENCIA DE MODELOS LINEALES 23
se dice que es consistente si al menos tiene una soluci´on. Si no tiene soluciones, entonces se
dice que el sistema es inconsistente.
Si la matriz aumentada [A[b] es reducida, mediante operaciones elementales de renglones, a
una matriz [E[c], entonces la consistencia -o falta de ella- es evidente, supongase que en alg´ un
paso del proceso se origina un rengl´on de la forma
(0 0 0[α), con α ,= 0,
entonces tal ecuaci´on asociada a este rengl´on no tiene soluci´on.
As´ı, si un sistema es inconsistente, entonces en alg´ un paso del proceso de eliminaci´on se genera
un rengl´on de la forma
(0 0 0[α) , conα ,= 0. (3.1)
Hay otras formas de caracterizar la consistencia (o inconsistencia)de un sistema. Una de ellas
es observar que si la ´ ultima columna b de la matriz aumentada [A[b] es una columna no b´asica,
entonces no puede existir pivote en la ´ ultima columna, y as´ı, el sistema es consistente ya que
(3.1)no puede ocurrir, en otras palabras , un sistema es consistente si y s´olo si b es una
columna no b´asica de [A[b].
Decir que b es una columna no b´asica de [A[b] equivale a decir que todas las columnas b´asicas
de [A[b] estan en la matriz de coeficientes A. Dado que el n´ umero de columnas b´asicas de una
matriz es el rango, la consistencia tambien puede ser caracterizada de la siguiente forma, un
sistema es consistente si y s´olo si r[A[b] = r[A].
Por otro lado, ya que un sistema consistente se caraceriza por que el lado derecho b es una
columna no b´asica, de esto se sigue que un sistema es consistente si y s´olo si el lado derecho b
es una combinaci´on de las columnas de A.
Ejemplo 3.3.1. Determine si el siguiente sistema es consistente
2x + y + 2z = 1
2x + y + 3z = 2
4x + 2y + 6z = 3
Soluci´on: Aplicando la eliminacion Gaussiana a la matriz asociada al sistema se tiene
[A[b] =
_
_
2 1 2
2 1 3
4 2 6
¸
¸
¸
¸
¸
¸
1
2
3
_
_

_
_
2 1 2
0 0 1
0 0 2
¸
¸
¸
¸
¸
¸
1
1
1
_
_

_
_
2 1 2
0 0 1
0 0 0
¸
¸
¸
¸
¸
¸
1
1
−1
_
_
El ´ ultimo rengl´on del paso final refleja que el sistema es inconsistente. Alternativamente,
r (A[b) = 3 ,= 2 = r (A) refleja la inconsistencia del sistema.
24 CAP
´
ITULO 3. SISTEMAS RECT
´
ANGULARES Y FORMAS ESCALONADAS
3.4 Sistemas Homogeneos
Definici´on 3.4.1 (Sistemas homogeneos y no homogeneos). Un sistema de m ecuaciones
y n de incognitas
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= 0
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= 0
,
cuyo lado derecho consiste en entradas de 0

s, se dice que es un sistema homogeneo. Si al
menos una entrada es distinta de cero, entonces se llamar´a sistema no homogeneo.
Dado que un sistema homogeneo se resuelve para
x
1
= x
2
= ... = x
n
= 0,
entonces es consistente. Tal soluci´on es conocida como la soluci´on trivial del sistema. Ahora,
la pregunta natural ser´ıa, ¿existe alguna otra soluci´on del sistema, que no sea la trivial?. Como
antes, la eliminaci´on Gaussiana dar´a respuesta a esta pregunta.
Note que al aplicar el procedimiento de eliminaci´on Gaussiana a la matriz aumentada [A[0],
asociada al sistema, se obtiene una matriz [E[0], pues las operaciones elementales no afectan a
la ´ ultima columna de [A[0], la cual corresponde a la parte derecha del sistema. Por tanto, da
lo mismo trabajar con la matriz de coeficiente A, que con la matriz aumentada [A[0], y llevarla
a una matriz escalonada E y al realizar sustituci´on regresiva recordar que el lado derecho son
entradas cero.
Veamos un ejemplo. Examinemos las soluciones del sistema homogeneo
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= 0
2x
1
+ 4x
2
+ x
3
+ 3x
4
= 0
3x
1
+ 6x
2
+ x
3
+ 4x
4
= 0
.
Reduciendo la matriz de coeficientes a una forma escalonada.
A =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
_
_

_
_
1 2 2 3
0 0 −3 −3
0 0 −5 −5
_
_

_
_
1 2 2 3
0 0 −3 −3
0 0 0 0
_
_
= E
As´ı,
−3x
3
−3x
4
= 0, de donde x
3
= −x
4
y
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= x
1
+ 2x
2
+ 2(−x
4
) + 3x
4
= x
1
+ 2x
2
+ x
4
= 0, de donde x
1
= −2x
2
−x
4
.
3.4. SISTEMAS HOMOGENEOS 25
Note que las variables x
2
y x
4
no estan sujetas a nada, y por tanto pueden tomar cualquier
valor. Por tal motivo, estas variables ser´an llamadas variables libres. Las variables que toman
valores dependiendo de las variables libres, seran llamadas variables base. Observe que hay
distintas formas de elegir a las variables base, y por consiguiente a las variables libres. Aqu´ı
convenimos seleccionar a las variables base como aquellas que corresponden a las posiciones de
los pivotes. En el ejemplo x
1
y x
3
son las variables base.
La forma en la cual se expresa la soluci´on (o soluciones) del sistema, en el ejemplo, no es la
m´as adecuada, pues una soluci´on ser´ıa
x
1
= 0, x
2
= 1, x
3
= 2, x
4
= −2,
y es fastidioso escribir de esta forma soluciones particulares, lo conveniente ser´ıa escribir la
soluci´on general que produce cualquier soluci´on particular. As´ı , es mas conveniente escribir
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
−2x
2
−x
4
x
2
−x
4
x
4
_
_
_
_
= x
2
_
_
_
_
−2
1
0
0
_
_
_
_
+ x
4
_
_
_
_
−1
0
−1
1
_
_
_
_
,
con lo que se entiende que x
2
y x
4
son las variables las cuales pueden tomar cualquier valor. Esta
expresi´on pone enfasis en que cada soluci´on es una combinaci´on de dos soluciones particulares
h
1
=
_
_
_
_
−2
1
0
0
_
_
_
_
y h
2
=
_
_
_
_
−1
0
−1
1
_
_
_
_
.
El hecho de h
1
y h
2
sean soluciones es claro, por que h
1
es producido cuando x
4
= 0 y x
2
= 1,
mientras que h
2
es generado cuando x
2
= 0 y x
4
= 1.
Ahora consideremos el sistema homogeneo general
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= 0
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= 0
,
de m ecuaciones y n incognitas. Si la matriz de coeficientes es tal que r(A) = r, entonces es
obvio que se tienen r variables base y n − r variables libres. Reduciendo a A en una forma
escalonada usando la eliminaci´on Gaussiana y despues usando la sustituci´on regresiva para
expresar las variables base en terminos de las variables libres se produce la soluci´on general,
la cual tiene la forma
x = x
f
1
h
1
+ x
f
2
h
2
+ ... + x
f
n−r
h
n−r
(3.2)
Donde x
f
1
, ..., x
f
n−r
son las variables libres y h
1
, ..., h
n−r
son columnas n 1 las cuales repre-
sentan soluciones particulares del sistema.
26 CAP
´
ITULO 3. SISTEMAS RECT
´
ANGULARES Y FORMAS ESCALONADAS
Ahora, regresemos a la pregunta ¿cu´ando la soluci´on trivial no es la ´ unica soluci´on para un
sistema homogeneo?. La respuesta se obtiene de la soluci´on general (3.2). Note que si al menos
en (3.2) se tiene una variable libre entonces se generan infinidad de soluciones. Consecuente-
mente, la soluci´on trivial es la unica soluci´on s´ı y s´olo s´ı no hay variables libres. Como el
n´ umero de variables libres es dado por n −r, donde r(A) = r, entonces el enunciado anterior
puede ser reformulado por: un sistema homogeneo posee una soluci´on unica, la soluci´on trivial,
si y s´olo si r(A) = n.
3.5 Sistemas no Homogeneos
El sistema
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
,
es no homogeneo si b
i
,= 0, para al menos un i. Como los sistemas homogeneos, un sistema no
homogeneo puede ser consistente. Para describir el conjunto de todas las posibles soluciones de
un sistema homogeneo consistente, construimos una soluci´on general usando el mismo m´etodo
que utilizamos para los sistemas homogeneos. Esto es:
1. Usar la eliminaci´on Gaussiana para reducir la matriz aumentada [A[b] a una matriz [E[c],
donde E es una forma escalonada asociada a A.
2. Identificar las variables base y las variables libres.
3. Aplicar sustituci´on regresiva a [E[c] y resolver para las variables base en terminos de las
variables libres.
4. Escribir el resultado en la forma
x = p + x
f
1
h
1
+ ...x
f
n−r
h
n−r
, (3.3)
donde x
f
1
, ..., x
f
n−r
son las variables libres y p, h, ..., h
n−r
son columnas n 1, las cuales
son soluciones particulares. Esta el la soluci´on general de los sistemas no homogeneos.
La diferencia entre la soluci´on general de un sistema homogeneo y uno no homogeneo es la
columna p, la cual aparece en (3.3). Veamos por que aparece p considerando el sistema no
homogeneo
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= 4
2x
1
+ 4x
2
+ x
3
+ 3x
4
= 5
3x
1
+ 6x
2
+ x
3
+ 4x
4
= 7
,
3.5. SISTEMAS NO HOMOGENEOS 27
cuya matriz de coeficientes es la misma que la del sistema de la secci´on anterior.
Usando el metodo de Gauss-Jordan se tiene
[A[b] =
_
_
1 2 2 3
2 4 1 3
3 6 4 7
¸
¸
¸
¸
¸
¸
4
5
7
_
_

_
_
1 2 0 1
0 0 1 1
0 0 0 0
¸
¸
¸
¸
¸
¸
2
1
0
_
_
= E
[A|b ]
Entonces:
x
1
+ 2x
2
+ x
4
= 2
x
3
+ x
4
= 1
Resolviendo para las columnas base x
1
y x
3
en terminos de las variables libre x
2
y x
4
, se
produce:
x
1
= 2 −2x
2
−x
4
x
3
= 1 −x
4
As´ı, la soluci´on general es:
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
2 −2x
2
−x
4
x
2
1 −x
4
x
4
_
_
_
_
=
_
_
_
_
2
0
1
0
_
_
_
_
+ x
2
_
_
_
_
−2
1
0
0
_
_
_
_
+ x
4
_
_
_
_
−1
0
−1
1
_
_
_
_
Ponga atenci´on en el hecho de que p =
_
_
_
_
2
0
1
0
_
_
_
_
es una soluci´on paricular del sistema cuando
x
2
= x
4
= 0.
Adem´as la soluci´on del sistema homogeneo
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= 0
2x
1
+ 4x
2
+ x
3
+ 3x
4
= 0
3x
1
+ 6x
2
+ x
3
+ 4x
4
= 0
,
Es:
_
_
_
_
−2x
2
−x
4
x
2
1 −x
4
x
4
_
_
_
_
= x
2
_
_
_
_
−2
1
0
0
_
_
_
_
+ x
4
_
_
_
_
−1
0
−1
1
_
_
_
_
Tales soluciones del sistema no homogeneo y del sistema homogeneo, solo difieren en p. Por
tanto decimos que la soluci´on general de un sistema no homogeneo es dada por una soluci´on
particular p, m´as la soluci´on general del sistema homogeneo asociado.
Ahora respondamos la pregunta ¿cu´ando un sistema consistente tiene soluci´on ´ unica?. Se sabe
que la soluci´on general de un sistema no homogeneo consistente [A[b] con r(A) = r es dada
por :
28 CAP
´
ITULO 3. SISTEMAS RECT
´
ANGULARES Y FORMAS ESCALONADAS
x = p + x
f
1
h
1
+ ... + x
f
n−r
h
n−r
,
donde:
x
f
1
h
1
+ ... + x
f
n−r
h
n−r
es la soluci´on general del sistema homogeneo asociado. Consecuente-
mente, es evidente que el sistema no homogeneo [A[b] tiene soluci´on ´ unica p si y s´olo si no
tiene variables libres o equivalente si r(A) = n. Esto equivale a decir que el sistema homoge-
neo asociado [A[0] tiene unicamente la soluci´on trivial.
Cap´ıtulo 4
´
Algebra Matricial
4.1 Adici´on, Multiplicaci´on Escalar y Transpuesta
En los cap´ıtulos previos, la notaci´on y el lenguaje matricial fue usada simplemente para for-
mular algunos de los conceptos elementales relacionados a sistemas lineales. El proposito en
este cap´ıtulo es usar el lenguaje dentro de una teoria matem´atica.
Un escalar es un n´ umero complejo. Los n´ umeros reales son un subconjunto de los n´ umeros
complejos, y as´ı los n´ umeros reales son escalares, en estas notas s´olo se consideran escalares
que son n´ umeros reales.
IR Denotar´a al conjunto de los n´ umeros reales y IR
m×n
denotar´a el conjunto de matriz de
tama˜ no u orden mn.
Las matrices A = (a
ij
) y B = (b
ij
) son iguales cuando A y B tienen la misma forma (son del
mismo tama˜ no u orden) y sus correspondientes entradas son iguales, esto es:
a
ij
= b
ij
para cada i = 1, , m y j = 1, , n.
4.1.1 Adici´on de Matrices
Definici´on 4.1.1 (Adici´on matricial). Si A, B ∈ IR
m×n
(A y B son matrices de orden
mn) la suma de A y B es definida como la matriz A+B de orden mn, obtenida al sumar
las correspondientes entradas, esto es:
(A + B)
ij
= a
ij
+ b
ij
para cada i, j.
Ejemplo 4.1.1. Aplicando la definici´on de suma de matrices se tiene que
_
−2 x 3
z + 3 4 −4
_
+
_
2 1 −x −2
−3 4 + x 4 + y
_
=
_
0 1 1
z 8 + x y
_
.
29
30 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
La matriz (−A), llamada inversa aditiva de A, es definidad como la matriz obtenida del
negativo de cada entrada de A, esto es, si A = (a
ij
), entonces:
−A = (−a
ij
).
De esto sigue la definici´on de sustracci´on de matrices. Para dos matrices del mismo orden, la
diferencia A−B es definida para ser la matriz A−B = A+ (−B), as´ı
(A−B)
ij
= a
ij
−b
ij
para cada i, j.
Propiedades de la Adici´on Matricial
Para A, B, C ∈ IR
m×n
, las siguientes propiedades se cumplen:
Propiedad de clausura: A+ B ∈ IR
m×n
.
Propiedad asociativa: (A + B) + C = A+ (B + C).
Propiedad conmutativa: A+ B = B + A.
Identidad aditiva: La matriz 0 ∈ IR
m×n
, cuyas entradas son cero, tienen la propiedad
A+ 0 = A.
Inversa aditiva: La matriz (−A) ∈ IR
m×n
tiene la propiedad A+ (−A) = 0.
Considere la suma de la forma:
A+ A+ + A
. ¸¸ .
k veces
,
en la cual A es sumada k veces. Por definici´on de la adici´on se tiene que la ij-´esima entrada
de tal suma es:
[A+ A+ + A]
ij
= a
ij
+ a
ij
+ + a
ij
= ka
ij
.
Esto motiva la siguiente definici´on de forma natural.
4.1.2 Multiplicaci´on Escalar
Definici´on 4.1.2 (Multiplicaci´on escalar). El producto de un escalar α y una matriz A es
denotada por αA y definida como la matriz obtenida al multiplicar cada entrada de A por α.
Esto es, si A = (a
ij
), entonces:
(αA)
ij
= αa
ij
para cada i, j.
Esta operaci´on es llamada multiplicaci´on escalar.
Ejemplo 4.1.2. Aplicando la definici´on de m´ ultiplicaci´on escalar se tiene que
2
_
_
1 2 3
0 1 2
1 4 2
_
_
=
_
_
2 4 6
0 2 4
2 8 4
_
_
y
_
_
1 2
3 4
0 1
_
_
=
1
2
_
_
2 4
6 8
0 2
_
_
.
4.1. ADICI
´
ON, MULTIPLICACI
´
ON ESCALAR Y TRANSPUESTA 31
Propiedades de la Multiplicaci´on Escalar
Para matrices A, B ∈ IR
m×n
y escalares α, β, las siguientes propiedades se cumplen:
Propiedad de clausura: αA ∈ IR
m×n
.
Propiedad asociativa: (αβ) A = α(βA)
Propiedad distributiva: α(A + B) = αA+ αB, la multiplicaci´on escalar es distributiva
sobre la adici´on escalar.
Propiedad distributiva: (α + β) A = αA + βA, la multiplicaci´on escalar es distributiva
sobre la adici´on escalar.
Propiedad identidad: 1A = A.
Dada una matriz A ∈ IR
m×n
, es frecuente manipular una matriz asociada obtenida de A al
intercambiar sus renglones y columnas.
4.1.3 La Transpuesta de una Matriz
Definici´on 4.1.3 (Transpuesta). Para una matriz A ∈ IR
m×n
, la transpuesta de A, deno-
tada por A

, es definida como la matriz obtenida de A al intercambiar sus renglones con sus
columnas. esto es, si:
A = (a
ij
), entonces (A

)
ij
= a
ji
para cada i, j.
Adem´as A

∈ IR
n×m
. As´ı, es evidente que (A

)

= A
Ejemplo 4.1.3. Aplicando la definici´on de transpuesta de una matriz, se tiene que
_
_
1 2
3 4
5 6
_
_

=
_
1 3 5
2 4 6
_
.
Observe que la matriz
A =
_
_
1 2 3
2 4 5
3 2 6
_
_
, es igual a su transpuesta, esto es A = A

. Las matrices que exiben esta
estructura son llamadas matrices simetricas.
Definici´on 4.1.4 (Matriz sim´etrica y antisim´etrica). Una matriz cuadrada A = (a
ij
), se
dice que es sim´etrica si:
A = A

, i.e. si a
ij
= a
ji
.
A es llamada antisim´etrica si:
A = −A

, i.e. si a
ij
= −a
ji
.
32 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
Propiedades de la Transpuesta
Si A, B, ∈ IR
m×n
, y si α es un escalar entonces se cumple.
i) (A+ B)

= A

+ B

.
ii)(αA)

= αA

.
Demostraci´on. Por la definici´on de matriz transpuesta y adici´on matricial se verifica lo
siguiente:
i)
_
(A+ B)

_
ij
= (A + B)
ji
= a
ji
+ b
ji
= (A

)
ij
+ (B

)
ij
= (A

+ B

)
ij
ii)
_
(αA)

_
ij
= (αA)
ji
= αa
ji
= α(A

)
ij
= (αA

)
ij
.
4.2 Linealidad
En matem´atica elemental, el termino funci´on lineal se refiere a lineas rectas, pero en matem´atica
avanzada la linealidad significa algo m´as general. Recordando, una funci´on f es una regla que
asocia puntos de un conjunto D, llamado dominio de f , con puntos en otro conjunto R, el
rango de f. Una funci´on lineal es un tipo particular de funci´on la cual es caracterizada por la
siguiente dos propiedades.
Definici´on 4.2.1 (Funci´on lineal). Suponga que D y R son conjuntos, los cuales poseen las
operaciones adici´on matricial y multiplicaci´on escalar. Una funci´on f la cual mapea puntos
de D a R se dice que es una funci´on lineal si f satisface:
f(x + y) = f(x) + f(y) (4.1)
y
f(αx) = αf(x), (4.2)
para cada x y y en D y para toda real α. Estas dos condiciones pueden ser cambiadas, i.e. f
es una funci´on lineal si:
f(αx + y) = αf(x) + f(y), (4.3)
para todo escalar a y para todo x, y ∈ D.
Una de las funciones lineales m´as simple es:
f(x) = αx,
cuya gr´afica en ∈ IR
2
es una linea recta.
Verifiquemos que f(x) = αx es efectivamente una funci´on lineal, usando (4.3). Sean x
1
, x
2
∈ IR
y α

escalar, entonces
f(α

x
1
+x
2
) = α(α

x
1
+x
2
) = α(α

x
1
) +αx
2
= α

(αx
1
) +αx
2
= α

f(x
1
) +f(x
2
).
4.2. LINEALIDAD 33
En IR
3
, la superficie descrita por la funci´on
f(x
1
, x
2
) = α
1
x
1
+ α
2
x
2
es una funci´on lineal ya que para (y
1
, y
2
), (z
1
, z
2
) ∈ IR
2
y para todo escalar β se tienen:
f(β(y
1
, y
2
) + (z
1
, z
2
)) = f(βy
1
+ z
1
, y
2
+ z
2
) = α
1
(βy
1
+ z
1
) + α
2
(βy
2
+ z
2
) =
β(α
1
y
1
+ α
2
y
2
) + (α
1
z
1
+ α
2
z
2
) = βf(y
1
, y
2
) + f(z
1
, z
2
).
As´ı, podemos generalizar diciendo que la funci´on
f(x
1
, x
2
, , x
n
) = α
1
x
1
+ α
2
x
2
+ + α
n
x
n
es una funci´on lineal.
La linealidad es encontrada en diferentes familias de operaciones. Por ejemplo en la diferen-
ciaci´on y en la integraci´on.
Dado que
d(f + g)
dx
=
df
dx
+
dg
dx
y
d(αf)
dx
= α
df
dx
,
el operador diferenciaci´on definida por D
x
(f) =
df
dx
cumple las condiciones para ser una funci´on
lineal.
Similarmente
_
(f + g)dx =
_
fdx +
_
gdx y
_
αfdx = α
_
fdx,
significa que el operador integral I(f) =
_
fdx es una funci´on lineal.
Ahora, considere el operador transpuesta y de sus propiedades se tiene que:
(A+ B)

= A

+ B

y (αA)

= αA

.
Esto significa que la funci´on transpuesta (•)

es una funci´on lineal f : IR
m×n
→IR
n×m
.
Otra funci´on lineal importante es definida en el conjunto de matrices cuadradas, esta es pre-
sentada en el siguiente ejemplo.
34 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
Ejemplo 4.2.1. Para una matriz A = (a
ij
) ∈ IR
n×n
, la traza de A es definida como la suma
de las entradas de las diagonal principal de A. Esto es:
tr(A) =
n

i=1
a
ii
.
La traza es una funci´on lineal por que las propiedades
tr(A+ B) = tr(A) + tr(B) y tr(αA) = αtr(A),
se cumplen para A, B ∈ IR
n×n
y para todo escalar α. Verifiquemos tales propiedades.
Sea f(A) = tr(A) : IR
n×n
→IR, y sea A = (a
ij
) y B = (b
ij
), entonces
tr(αA + B) =

n
i=1
(αA + B)
ii
=

n
i=1
(αa
ii
+ b
ii
) = α

n
i=1
a
ii
+

n
i=1
b
ii
=
αtr(A) + tr(B).
Ejemplo 4.2.2. Para una matriz dada A = (a
ij
) ∈ IR
m×n
, muestre que la funci´on U = f(x)
la cual mapea puntos
X =
_
_
_
x
1
.
.
.
x
n
_
_
_ ∈ IR
n
en puntos U =
_
_
_
u
1
.
.
.
u
n
_
_
_ ∈ IR
m
de acuedo a la regla
a
11
x
1
+ + a
1n
x
n
= u
1
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ + a
mn
x
n
= u
m
≡ AX = U, es lineal.
Soluci´on: Exprese la imagen de un punto arbitrario x como
f(x) = f
_
_
_
x
1
.
.
.
x
n
_
_
_ =
_
_
_
a
11
x
1
+ + a
1n
x
n
= u
1
.
.
.
a
m1
x
1
+ + a
mn
x
n
= u
m
_
_
_ = x
1
_
_
_
a
11
.
.
.
a
m1
_
_
_ + +
x
n
_
_
_
a
1n
.
.
.
a
mn
_
_
_ = x
1
A
1
+ + x
n
A
n
=

n
j=1
x
j
A
j
,
donde A
j
es la j-´esima columna de A.
Ahora, para cada par de puntos
4.3. MULTIPLICACI
´
ON MATRICIAL 35
X =
_
_
_
x
1
.
.
.
x
n
_
_
_ y Y =
_
_
_
y
1
.
.
.
y
n
_
_
_
y para todo escalar α , tenemos
f(αx + y) = f
_
_
_
αx
1
+ y
1
.
.
.
αx
n
+ y
n
_
_
_ =

n
j=1
(αx
j
+ y
j
) A
j
=

n
j=1
(αx
j
A
j
+ y
j
A
j
) =
α

n
j=1
x
j
A
j
+

n
j=1
y
j
A
j
= αf(x) + f(y).
De acuerdo a (4.3), la funci´on f es lineal.
La funci´on lineal en el ejemplo anterior toma la forma
f(x) = x
1
A
1
+ x
2
A
2
+ + x
n
A
n
=

n
j=1
x
j
A
j
,
donde las x
j
´s son escalares y las A
j
´s son columnas, es llamada combinaci´on lineal.
Definici´on 4.2.2 (Combinaci´on lineal). Para escalares α
j
y matrices o columnas X
j
, la
expresi´on
α
1
X
1
+ + α
n
X
n
=

n
j=1
α
j
X
j
,
es llamada una combinaci´on lineal de las x
j
´s.
4.3 Multiplicaci´on Matricial
En esta secci´on desarrollamos el concepto de multiplicaci´on matricial. Para esto, es ´ util comen-
zar por multiplicaci´on de un rengl´on y una columna, si
R

= (r
1
, r
2
, r
n
) y C =
_
_
_
c
1
.
.
.
c
n
_
_
_,
el producto interno (o producto punto) de R y C se define como el escalar:
R

C = r
1
c
1
+ r
2
c
2
+ r
n
c
n
=

n
i=1
r
i
c
i
36 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
Ejemplo 4.3.1. Aplicando la definici´on de producto interno, se tiene que
_
2 4 −2
_
_
_
1
2
3
_
_
= (2 + 8 −6) = 4.
Se dice que las matrices A y B son conformables si el n´ umero de columna de A es el mismo
que el n´ umero de renglones de B. i.e. A ∈ IR
m×p
y B ∈ IR
p×n
.
Definici´on 4.3.1 (Multiplicaci´on matricial). Para matrices conformables A
m×p
= (a
ij
)
y B
p×n
= (b
ij
), el producto matricial AB es la matriz m n cuyo ij- ´esimo elemento es el
producto interno del i-´esimo rengl´ on de A y la j-´esima columna de B. i.e.
(AB)
ij
= A

i
B
j
=
p

k=1
a
ik
b
kj
.
En caso de que A y B no sean conformables, entonces AB no esta definido.
Ejemplo 4.3.2. Si las entradas de A y B son:
A =
_
2 1 −4
−3 0 5
_
y B =
_
_
1 3 −3 2
2 5 −1 8
−1 2 0 2
_
_
,
entonces el producto AB es
AB =
_
2 1 −4
−3 0 5
_
_
_
1 3 −3 2
2 5 −1 8
−1 2 0 2
_
_
=
_
8 3 −7 4
−8 1 9 4
_
.
Note que el producto BA no esta definido ya que B y A no son conformables, ya que B ∈ IR
3×4
y A ∈ IR
2×3
.
A´ un cuando el producto AB y BA existen y tienen la misma forma, ellos no necesariamente
son iguales.
Ejemplo 4.3.3. Si A y B son matrices tales que
A =
_
1 −1
1 −1
_
y B =
_
1 1
1 1
_
,
4.3. MULTIPLICACI
´
ON MATRICIAL 37
entonces
AB =
_
0 0
0 0
_
y BA =
_
2 −2
2 −2
_
.
Esta es una de las principales diferencia entre el ´algebra escalar y el ´algebra matricial. As´ı, la
multiplicaci´on matricial no es conmutativa. Otra diferencia se muestra acontinuai´on.
Para escalares
αβ = 0 implica que α = 0 o β = 0.
Lo cual no se cumple para la multiplcaci´on matricial. Pues es posible que AB = 0 con A ,= 0
y B ,= 0.
Otra diferencia es la ley de cancelaci´on, para escalares, esta ley dice que:
αβ = αγ y α ,= 0 implica que β = γ.
Lo cual no se cumple para la multiplicaci´on matricial, como se muestra en el siguiente ejemplo.
Ejemplo 4.3.4. La ley de cancelaci´on falla para la multiplicaci´on matricial, si
A =
_
1 1
1 1
_
, B =
_
2 2
2 2
_
y C =
_
3 1
1 3
_
,
entonces
AB =
_
4 4
4 4
_
= AC, pero B ,= C.
Los Renglones de un Producto
Para matrices A
m×p
= (a
ij
) y B
p×n
= (b
ij
), el i-´esimo rengl´on de AB es dado por:
(AB)

i
= A

i
B.
Esto es (i-´esimo rengl´on de AB) = (i-´esimo rengl´on de A)B, Adem´as:
(AB)

i
= a
i1
B

1
+ a
i2
B

2
+ + a
ip
B

p
=

p
k=1
a
ip
B

p
.
Esto es, el i-´esimo rengl´on de AB es una combinaci´on lineal de los renglones de B.
38 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
Las Columnas de un Producto
Para matrices A
m×p
= (a
ij
) y B
p×n
= (b
ij
), la j-´esima columna de AB es:
(AB)
j
= AB
j
.
Esto es, la (j-´esima columna de AB) =A(j-´esimo rengl´on de B). Adem´as
(AB)
j
= A
1
b
1j
+ A
2
b
2j
+ + A
p
b
pj
=

p
k=1
A
k
b
kj
Esto es, la j-´esima columna de AB es una combinaci´ on lineal de las columnas de A.
As´ı, AB =
_
¸
_
A

1
B
.
.
.
A

p
B
_
¸
_ =
_
AB
1
AB
p
_
.
4.3.1 Propiedades de la Multiplicaci´on Matricial
Teorema 4.3.1. Para matrices conformables se tiene:
i) A(B + C) = AB + AC (Ley distributiva del lado izquierdo)
ii) (D + E)F = DF + EF (Ley distributiva del lado derecho)
iii) A(BC) = (AB)C (Ley asociativa).
Demostraci´on.
i) Se demostrar´a que [A(B + C)]
ij
= [AB + AC]
ij
.
Por definici´on de multiplicaci´on matricial se tiene:
[A(B + C)]
ij
= A

i
(B +C)
j
=

k
a
ik
(B +C)
kj
=

k
a
ik
(b
kj
+c
kj
) =

k
a
ik
b
kj
+

k
a
ik
c
kj
= A

i
B
j
+ A

i
C
j
= (AB)
ij
+ (AC)
ij
= (AB + AC)
ij
.
ii) Analogamante a i).
iii) [A(BC)]
ij
= A

i
(BC)
j
= A

i

k
B
k
c
kj
=

k
A

i
B
k
c
kj
=

k
(AB)
ik
c
kj
= (AB)

i
C
j
=
[(AB) C]
ij
.
Definici´on 4.3.2 (Matriz identidad). La matriz n n con 1´s en la diagonal principal y
0´s fuera de ella,
I
n
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
,
4.3. MULTIPLICACI
´
ON MATRICIAL 39
es llamada matriz identidad de orden n.
Para cada matriz A
AI
n
= A y I
n
A = A.
ya que
(AI
n
)
ij
= A

i
I
j
=

k
a
ik
(I)
kj
= a
ij
.
Por tanto
AI
n
= A.
De igual forma se demuestra que I
n
A = A.
Analogamente al ´algebra escalar se define, para una matriz A ∈ IR
n×n
.
A
0
= I
n
y A
n
= AA A
. ¸¸ .
n veces
.
Se generaliza la ley usual de exponentes. Para enteros no negativos r, s.
A
r
A
s
= A
r+s
y (A
r
)
s
= A
rs
.
Teorema 4.3.2. Para matrices conformables A y B,
(AB)

= B

A

.
Demostraci´on. Por definici´on de transpuesta y multiplicaci´on matricial, se verifica la sigui-
ente cadena de igualdades:
(AB)

ij
= (AB)
ji
= A

j
B
i
=

k
a
jk
b
kj
=

k
b
ki
a
jk
=

k
(B

)
ik
(A

)
kj
= (B

A

)
ij
.
Ejemplo 4.3.5. Para cada matriz A ∈ IR
m×n
, los productos A

A y AA

son matrices
sim´etricas por que:
(A

A)

= A

(A

)

= A

A y (AA

)

= (A

)

A

= AA

.
Ejemplo 4.3.6. Demuestre que
tr(AB) = tr(BA).
Soluci´on: Por la definici´on de traza y del producto de matrices, se tiene que
tr(AB) =

i
(AB)
ii
=

i
A

i
B
i
=

i

j
a
ij
b
ji
=

j

i
b
ji
a
ij
=

j
B

j
A
j
=

j
(BA)
jj
= tr(BA).
40 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
4.4 Multiplicaci´on de Matrices Particionadas
Supongase que A y B son particionadas en submatrices, tambi´en llamadas bloques, como se
indica a continuaci´on:
A =
_
_
_
_
_
A
11
A
12
A
1r
A
21
A
22
A
2r
.
.
.
.
.
.
.
.
.
.
.
.
A
s1
A
s2
A
sr
_
_
_
_
_
y B =
_
_
_
_
_
B
11
B
12
B
1t
B
21
B
22
B
2t
.
.
.
.
.
.
.
.
.
.
.
.
B
r1
B
r2
B
rt
_
_
_
_
_
.
Si los pares (A
ik
, B
kj
) son conformables, entonces A y B se dicen que son particionadas con-
formables. Para tales matrices, el producto AB es formado por la combinaci´on de los bloques
de la misma forma como los escalares, son combinados en la multiplicaci´on ordinaria, esto es,
el (i, j) - bloque en AB es:
A
i1
B
1j
+ A
i2
B
2j
+ + A
ir
B
rj
.
Ejemplo: Considere las matrices particionadas
A =
_
_
_
_
1 2 1 0
3 4 0 1
1 0 0 0
0 1 0 0
_
_
_
_
=
_
C I
I 0
_
, B =
_
_
_
_
1 0 0 0
0 1 0 0
1 2 1 2
3 4 3 4
_
_
_
_
=
_
I 0
C C
_
As´ı
AB =
_
C I
I 0
__
I 0
C C
_
=
_
2CI CI
I
2
0
_
=
_
_
_
_
2 4 1 2
6 8 3 4
1 0 0 0
0 1 0 0
_
_
_
_
.
Definici´on 4.4.1 (Matriz Inversa). Para una matriz cuadr´ada A
n×n
, la matriz B
n×n
, la
cual satisface que:
AB = BA = I
n
,
es llamada la inversa de A, y es denotada por:
B = A
−1
.
No toda la matriz cuadrada tiene inversa. La matriz cero es un ejemplo trivial. Una matriz
que tiene inversa es llamada matriz no singular y si no posee inversa inversa es llamada matriz
singular.
Ejemplo: Si
4.4. MULTIPLICACI
´
ON DE MATRICES PARTICIONADAS 41
A =
_
a b
c d
_
donde δ = ad −bc ,= 0.
Entonces
A
−1
=
1
δ
_
d −b
−c a
_
,
ya que
AA
−1
= A
−1
A = I.
Teorema 4.4.1 (Unicidad de la Inversa). Para una matriz singular A, A
−1
= B es ´ unica.
Demostraci´on. Supongamos que existe C tal que AC = CA = I. As´ı, C = CI = C(AB) =
(CA)B = IB = B. Por tanto B = A
−1
es ´ unica.
C´alculo de la Inversa de una Matriz
Una matriz A ∈ IR
n×n
es no singular si y s´olo si la matriz aumentada [A [ I] puede ser reducida
por renglones a la forma [I [ X], en cuyo caso X = A
−1
. Esto es
[A [ I]
Gauss−Jordan
−→ [I [ X].
La matriz es singular si y s´olo si la reducci´on falla.
Ejemplo: Si es posible encuentra la inversa de A =
_
_
1 1 1
1 2 2
1 2 3
_
_
.
Solucion.
(A [ I) =
_
_
1 1 1 1 0 0
1 2 2 0 1 0
1 2 3 0 0 1
_
_
−→
_
_
1 1 1 1 0 0
0 1 1 -1 1 0
0 1 2 -1 0 1
_
_
−→
_
_
1 0 0 2 -1 0
0 1 1 -1 1 0
0 0 1 0 -1 1
_
_
−→
_
_
1 0 0 2 -1 0
0 1 0 -1 2 -1
0 0 1 0 -1 1
_
_
.
As´ı, A
−1
=
_
_
2 −1 0
−1 2 −1
0 −1 1
_
_
.
Teorema 4.4.2 (Existencia de una Inversa). Para una matriz A ∈ IR
n×n
, los siguientes
enunciados son equivalentes para decir que A
−1
existe:
42 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
• r(A) = n
• Ax = 0 implica que x = 0.
Demostraci´on. A es no singular, si cada ecuaci´on Ax = I
j
, tiene una ´ unica soluci´on. De
resultados de sistemas consistentes Ax = b tiene soluci´on ´ unica si y s´olo si r(A) = n. De
resultados del sistema homogeneo Ax = 0 tiene soluci´on ´ unica, x = 0, si r(A) = n.
Propiedades de la matriz inversa
Si A y B son matrices no singulares, entonces se cumple lo siguiente:
i) (A
−1
)
−1
= A
ii) El producto AB es no singular.
iii) (AB)
−1
= B
−1
A
−1
.
iv) (A
−1
)

= (A

)
−1
Demostraci´on. i) Sigue inmediato de la definici´on de inversa.
iii) Sea x = B
−1
A
−1
, entonces
(AB)x = ABB
−1
A
−1
= AA
−1
= I. As´ı, (AB)
−1
= B
−1
A
−1
, y por consiguiente AB es no
singular, demostrando ii).
iv) Sea x = (A
−1
)

, as´ı A

x = A

(A
−1
)

= (A
−1
A)

= I. Por tanto (A

)
−1
= (A
−1
)

.
Teorema 4.4.3. Si A
1
, A
2
, , A
k
son matrices n n singulares, entonces el producto
A
1
A
2
A
k
es no singular y
(A
1
A
2
A
k
)
−1
= A
−1
k
A
−2
k−1
A
−1
1
.
Demostraci´on. Utilizando iii) e inducci´on completa.
Ejemplo 4.4.1 (Teorema de Sherman-Morrison). Si A ∈ IR
n×n
es no singular y si c y
d son columnas n 1 tal que 1 + d

A
−1
c ,= 0, entonces la suma A + cd

es no sincgular, y su
inversa es:
(A+ cd

)
−1
= A
−1

A
−1
cd

A
−1
1 + d

A
−1
c
ya que
(A+ cd

) (A+ cd

)
−1
= (A+ cd

)
_
A
−1

A
−1
cd

A
−1
1 + d

A
−1
c
_
= I−
cd

A
−1
1 + d

A
−1
c
+cd

A
−1

cd

A
−1
cd

A
−1
1 + d

A
−1
c
= I +
c
1 + d

A
−1
c
__
1 + d

A
−1
c
_
I −I −d

A
−1
c
¸
d

A
−1
= I.
4.5. MATRICES ELEMENTALES Y EQUIVALENTES 43
Teorema 4.4.4 (Teorema de Sherman-Morrison-Woodbury). Si A ∈ IR
n×n
es una
matriz no singular y si C ∈ IR
n×k
y D ∈ IR
k×n
son matrices tal que I + D

A
−1
C es no
singular, entonces la suma A+ CD

es no singular y
(A+ CD

)
−1
= A
−1
−A
−1
C
_
I + D

A
−1
C
_
−1
D

A
−1
.
Demostraci´on.
(A+ CD

)
_
A
−1
−A
−1
C
_
I + D

A
−1
C
_
−1
D

A
−1
_
= I −C
_
I + D

A
−1
C
_
−1
D

A
−1
+CD

A
−1
−CD

A
−1
C
_
I + D

A
−1
C
_
−1
D

A
−1
=
I + C
__
I + D

A
−1
C
_
−I −D

A
−1
C
¸ _
I + D

A
−1
C
_
−1
D

A
−1
= I
4.5 Matrices Elementales y Equivalentes
4.5.1 Matrices Elementales
Definici´on 4.5.1 (Matrices elementales). Matrices de la forma I − uv

, donde u y v son
columnas n 1 tal que v

v ,= 1 son llamadas matrices elementales. El teorema de Sherman-
Morrison garantiza que las matrices elementales son no singular y
(I −uv

)
−1
= I −
uv

v

u −1
. (4.4)
Note que la inversa de una matriz elemntal es de nuevo una matriz elemental.
Estamos interesados en matrices elementales asociadas con las tres operaciones elementales de
renglones, por ejemplo las matrices
E
1
=
_
_
0 1 0
1 0 0
0 0 1
_
_
, E
2
=
_
_
1 0 0
0 α 0
0 0 1
_
_
, E
3
=
_
_
1 0 0
0 1 0
α 0 1
_
_
, (4.5)
son matrices elementales asociadas a las operaciones elementales de renglones Tipo I,Tipo II
y Tipo III, respectivamente.
Para ver que las matrices dadas en (4.5) son elementales observe que
E
1
= I −uu

, donde u = e
1
-e
2
=
_
_
1
0
0
_
_

_
_
0
1
0
_
_
=
_
_
1
−1
0
_
_
44 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
E
2
= I −(1 −α)e
2
e

2
,
E
3
= I + αe
3
e

1
.
En general se tiene. Sea I la matriz identidad de orden n, y sean e
i
y e
j
la i-´esima y la j-´esima
columna unitaria. Las matrices elementales asociadas a las operaciones elementales de rengl´on
(o columnas) son:
• Tipo I: I −uu

Donde u =e
i
-e
j
• Tipo II: I −(1 −α)e
i
e

i
Donde α ,= 0
• Tipo III: I + αe
j
e

i
Donde α ,= 0
Teorema 4.5.1 (Propiedades de Matrices Elementales). Las matrices elementales tienen
las siguientes propiedades:
i) Cuando usamos como multiplo de lado izquierdo, una matriz elemental de tipo # ejecuta
una operaci´on de renglon de tipo #.
ii) Cuando usamos como multiplo de lado derecho, una matriz elemental de tipo # ejecuta una
operaci´on de columna de tipo #.
iii) La inversa de una matriz elemental de tipo # es de nuevo una matriz elemental de tipo #.
M´as especificamente:
(I −uu

)
−1
= I −uu

Donde u=e
i
-e
j
(I −(1 −α)e
i
e

i
)
−1
= I −(1 −α)e
i
e

i
Donde α ,= 0
(I + αe
j
e

i
)
−1
= I + αe
j
e

i
Para i ,= j.
Demostraci´on. Se probar´a las primeras dos propiedades, i) y ii), para el casa de operaciones
de Tipo III. Usamos I + αe
j
e

i
como multiplo de lado izquierdo sobre A se tiene
(I + αe
j
e

i
) A = A + αe
j
e

i
A = A + αe
j
A

i
= A+ α
_
_
_
_
_
_
_
_
0 0 0
.
.
.
.
.
.
.
.
.
a
i1
a
i2
a
in
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
Esta es exatamente la matriz producida por una operaci´on de renglon de tipo III en la cual el
i-´esimo rengl´on de A es multiplicado por α y el resultado es sumado al j-´esimo rengl´on.
Cuando I + αe
j
e

i
es usado como multiplo de lado derecho sobre A, se tiene
A(I + αe
j
e

i
)= A+αAe
j
e

i
= A + αA
j
e

i
= A+ α =
_
_
_
_
_
0 a
1j
0
0 a
2j
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
mj
0
_
_
_
_
_
4.5. MATRICES ELEMENTALES Y EQUIVALENTES 45
Este es resultado de la operaci´on de columnas de Tipo III, en la cual la j-´esima es multiplicada
por α y despues es sumada a la i-´esima columna.
Para mostrar iii) aplique (4.4).
Ejemplo 4.5.1. Las operaciones elementales por renglones para reducir a
A =
_
_
1 2 4
2 4 8
3 6 13
_
_
en E
A
son mostradas de la forma siguiente.
A =
_
_
1 2 4
2 4 8
3 6 13
_
_
R
2
−2R
1
R
3
−3R
1
_
_
1 2 4
0 0 0
0 0 1
_
_
R
2
por R
3
_
_
1 2 4
0 0 1
0 0 0
_
_
R
1
−4R
2
_
_
1 2 0
0 0 1
0 0 0
_
_
= E
A
.
Las reducci´on puede llevarse acabo por una secuencia de multiplicaciones de lado izquierdo de
matrices elementales.
_
_
1 −4 0
0 1 0
0 0 1
_
_
_
_
1 0 0
0 0 1
0 1 0
_
_
_
_
1 0 0
0 1 0
−3 0 1
_
_
_
_
1 0 0
−2 1 0
0 0 1
_
_
A = E
A
.
El producto de estas matrices elementales es P =
_
_
13 0 −4
−3 0 1
−2 1 0
_
_
, y se puede verificar que
PA = E
A
.
Teorema 4.5.2. Una matriz A es no singular si y solo si A es producto de matrices elementales
de Tipo I,II o III.
Demostraci´on. Si A es no singular, el m´etodo de Gauss-Jordan reduce a A en I por opera-
ciones de rengl´on, si G
1
,G
2
, G
k
, es la secuencia de matrices elementales correspondientes a
las operaciones de renglones empleadas, entonces
G
k
G
2
G
1
A = I, o equivalentemente A = G
−1
1
G
−1
2
G
−1
k
.
Dado que la inversa de una matriz elemental es de nuevo una matriz elemental del mismo tipo,
esto pueba que Q

A es un producto de matrices elementales, inversamente, si A = E
1
E
2
E
k
es un producto de matrices elementales, entonces A debe ser no singular por que las E
i
´s son
no singular, y un producto de matrices no singulares, es no singular.
46 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
4.5.2 Matrices Equivalentes
Definici´on 4.5.2 (Matrices equivalentes). • Si B puede ser derivada de A por una com-
binaci´on de operaciones elementales de renglones y columnas, escribase A∼B, decimos que A
y B son matrices equivalentes. Dado que las operaciones elementales de renglones y columnas
son multiplicaciones por la izquierda y la derecha de matrices elementales, se puede escribir
A ∼ B ⇐⇒ ∃ matrices P y Q no singular tal que PAQ = B
• Si B puede ser obtenida de A mediante una secuencia s´olo de operaciones de renglones,
escribase A
row
∼ B, decimos que A y B son equivalentes por renglones.
A
row
∼ B ⇒∃P no singular tal que PA = B.
• Si B puede ser obtenida de A mediante operaciones elementales de columnas, solamente,
escribase A
col
∼ B, decimos que A y B son equivalentes por columnas.
A
col
∼ B ⇒∃Q no singular tal que AQ = B.
Si es posible ir de A a B mediante operaciones elementales de rengl´ones y columnas, entonces
es claro que es posible comenzar con B y regresar a A porque las operaciones elementales son
reversibles, i.e. PAQ = B ⇒ P
−1
BQ
−1
= A. Por tanto tiene sentido hablar acerca de la
equivalencia de un par de matrices sin considerar el orden. En otras palabras, A ∼ B ⇔B ∼ A.
Adem´as, no es dificil ver que cada tipo de equivalencia es transitiva. Por ejemplo,
A
row
∼ B y B
row
∼ C ⇒A
row
∼ C.
Teorema 4.5.3 (La forma normal de rango). Si A ∈ IR
m×n
es una matriz tal que r(A) = r,
entonces
A ∼ N
r
=
_
I
r
0
0 0
_
.
La matriz N
r
es llamada la forma normal de rango de A. N
r
es el producto final de una
reducci´on completa de A pero usando operaciones de renglones y columnas.
Demostraci´on. Siempre es verdad que A
row
∼ E
A
, as´ı que hay una matriz no singular P tal
que PA = E
A
. Si r(A) = r, entonces las columnas base en E
A
son r columnas unitarias. Apli-
cando intercambio de columnas a E
A
para remover estas columnas unitarias al lado izquierdo
superior. Si Q
1
es el producto de estas matrices elementales que corresponden al intercambio
de columnas, entonces PAQ
1
tiene la forma
PAQ
1
= E
A
Q
1
=
_
I
r
J
0 0
_
.
4.5. MATRICES ELEMENTALES Y EQUIVALENTES 47
Posmultiplicando ambos lados de la ecuaci´on por la matriz no singular
Q
2
=
_
I
r
−J
0 I
_
,
produce
PAQ
1
Q
2
=
_
I
r
J
0 0
__
I
r
−J
0 I
_
=
_
I
r
0
0 0
_
.
Dado que el producto Q = Q
1
Q
2
es no singular, entonces A ∼ N
r
.
Ejemplo 4.5.2. Problema: Explicar porque el r
_
A 0
0 B
_
= r(A) + r(B).
Soluci´on: Si r(A) = r y r(B) = s, entonces A ∼ N
r
y B ∼ N
s
, por lo que
_
A 0
0 B
_

_
N
r
0
0 N
s
_
⇒r
_
A 0
0 B
_
= r
_
N
r
0
0 N
s
_
= r + s.
Teorema 4.5.4. Para matrices A, B ∈ IR
m×n
se cumple lo siguiente:
i) A ∼ B si y s´olo si r(A) = r(B).
ii) A
row
∼ B si y s´olo si E
A
= E
B
.
iii) A
col
∼ B si y s´olo si E
A
= E
B
.
Demostraci´on.
i) Si r(A) = r(B), entonces A ∼ N
r
y B ∼ N
r
. Por tanto A ∼ N
r
∼ B, de donde A ∼ B.
Por otro lado si A ∼ B, donde r(A) = r y r(B) = s, entonces A ∼ N
r
y B ∼ N
s
, as´ı
N
r
∼ A ∼ B ∼ N
s
, de donde N
r
∼ N
s
. Por tanto r = s.
ii) Suponga que A
row
∼ B. Dado que B
row
∼ E
B
, entonces A
row
∼ E
B
. Pero la forma escalonada
reducida es ´ unica, por tanto E
A
= E
B
. Inversamente, E
A
= E
B
, entonces
A
row
∼ E
A
= E
B
row
∼ B ⇒A
row
∼ B.
iii) Sigue de ii) considerando la transpuesta, i.e.
A
col
∼ B ⇔AQ = B ⇔Q

A

= B

⇔A

row
∼ B

.
Teorema 4.5.5. La transposici´on no cambia el rango, i.e. para toda matriz mn se cumple
que r(A) = r(A

).
48 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
Demostraci´on. Suponga que r(A) = r as´ı que existen matrices no singulares P y Q tal que
PAQ = N
r
=
_
I
r
0
r×n−r
0
m−r×r
0
m−r×n−r
_
.
Aplicando transpuesta se tiene
Q

A

P

= N

r
, por lo que A

∼ N

r
,
y por lo tanto
r(A

) = r(N

r
) = r
_
I
r
0
r×n−r
0
m−r×r
0
m−r×n−r
_
= r = r(A).
Ejemplo [Factorizaci´on de rango completo]. Sea A ∈ IR
m×n
. Si r(A) = r, con r distinto de m
y n, mostrar que existe B ∈ IR
m×r
y C ∈ IR
r×n
tal que A = BC, donde r(B) = r(C) = r.
Soluci´on. Si r(A) = r, entonces A ∼ N
r
lo que implica que PAQ = N
r
, por lo que A =
P
−1
_
I
r
0
_
_
I
r
0
_
Q
−1
= BC.
4.6 Factorizaci´ on LU
Si Ax = b es un sistema no homogeneo, entonces el objeto de la eliminaci´on gaussiana es reducir
a A en una matriz tri´angular superior usando operaciones elementales de renglones. Si ning´ un
pivote es cero, entonces no es necesario intercambiar renglones y la reducci´on puede hacerse
usando solamente operaciones elementales de renglones de tipo III. Por ejemplo, sonsidere
reducir la matriz
A =
_
_
2 2 2
4 7 7
6 18 22
_
_
a una forma tri´angular superior como se muestra abajo.
_
_
2 2 2
4 7 7
6 18 22
_
_
R
2
−2R
1
R
3
−3R
1

_
_
2 2 2
0 3 3
0 12 16
_
_
R
3
−4R
2

_
_
2 2 2
0 3 3
0 0 4
_
_
= U.
Todas las operaciones son de tipo III, y el producto de matrices elementales es
G
3
G
2
G
1
=
_
_
1 0 0
0 1 0
0 −4 1
_
_
_
_
1 0 0
0 1 0
−3 0 1
_
_
_
_
1 0 0
−2 1 0
0 0 1
_
_
=
_
_
1 0 0
−2 1 0
−3 −4 1
_
_
.
4.6. FACTORIZACI
´
ON LU 49
Los resultados de las secciones previas garantizan que G
3
G
2
G
1
A = U, as´ı que
A = G
−1
1
G
−1
2
G
−1
3
U = LU,
donde L es una matriz tri´angular inferior
L = G
−1
1
G
−1
2
G
−1
3
=
_
_
1 0 0
2 1 0
3 4 1
_
_
.
As´ı, A = LU es el producto de una matriz tri´angular inferior L y una matriz tri´angular superior
U. Naturalmente, esto es llamado la factorizaci´on LU de A.
Observe que U es el producto final de la eliminaci´on gaussiana y tiene los pivotes sobre su
diagonal principal, mientras que L tiene 1’s en su diagonal. M´as a´ un cada entrada por debajo
de la diagonal de L, es el m´ ultiplo usado para ajustar la posici´on (i, j) (considerando la entrada
l
ij
).
Para desarrollar la teor´ıa general, es conveniente introducir el concepto matriz tri´angular infe-
rior elemental, la cual es definida como una matriz tri´angular de la forma
T
k
= I −c
k
e

k
donde c
k
es una columna con ceros en las primeras k posiciones. En particular si
c
k
=
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
µ
k+1
.
.
.
µ
n
_
_
_
_
_
_
_
_
_
_
, entonces T
k
=
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0
0 0 −µ
k+1
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 −µ
n
0 1
_
_
_
_
_
_
_
_
_
_
_
_
.
Note que e

k
c
k
= 0, por lo que
T
−1
k
= I + c
k
e

k
=
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0
0 0 µ
k+1
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 µ
n
0 1
_
_
_
_
_
_
_
_
_
_
_
_
.
Observe que T
−1
k
es tambien una matriz tri´angular inferior elemental.
50 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
La ´ utilidad de las matrices tri´angulares inferiores elementales radica en el hecho de que todas
las operaciones de tipo III necesarias para eliminar las entradas de bajo del k-´esimo pivote
pueden realizarse con una multiplicaci´on con T
k
. Si
A
k−1
=
_
_
_
_
_
_
_
_
_
_
_
_
∗ ∗ α
1
∗ ∗
0 ∗ α
2
∗ ∗
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 α
k
∗ ∗
0 0 α
k+1
∗ ∗
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 α
n
∗ ∗
_
_
_
_
_
_
_
_
_
_
_
_
es el resultado tri´angular parcial despues de k − 1 pasos de eliminaci´on, entonces T
k
A
k−1
=
(I −c
k
e

k
)A
k−1
= A
k−1
−c
k
e

k
A
k−1
=
_
_
_
_
_
_
_
_
_
_
_
_
∗ ∗ α
1
∗ ∗
0 ∗ α
2
∗ ∗
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 α
k
∗ ∗
0 0 0 ∗ ∗
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 ∗ ∗
_
_
_
_
_
_
_
_
_
_
_
_
, donde c
k
=
_
_
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
0
α
k+1

k
.
.
.
α
n

k
_
_
_
_
_
_
_
_
_
_
_
_
contiene los m´ ultiplos usados para eliminar aquellas entradas de bajo de α
k
. Note que T
k
no
altera las primeras k −1 columnas de A
k−1
porque
e

k
[A
k−1
]
j
= 0 si j ≤ k −1.
Por tant, si no se requiere intercambiar renglones, entonces reducir A a una matriz tri´angular
superior usando eliminaci´on gaussiana es equivalente a ejecutar una sucesi´on de n − 1 multi-
plicaciones de lado izquierdo con matrices tri´angulares inferiores elementales. Esto es,
T
n−1
T
2
T
1
A = U.
de donde
A = T
−1
1
T
−1
2
T
−1
n−1
U.
Dado que T
−1
k
= I + c
k
e

k
, entonces T
−1
1
T
−1
2
T
−1
n−1
= (I + c
1
e

1
)(I + c
2
e

2
) (I + c
n−1
e

n−1
)
= I + c
1
e

1
+ c
2
e

2
+ + c
n−1
e

n−1
.
4.6. FACTORIZACI
´
ON LU 51
Pero observe que
c
k
e

k
=
_
_
_
_
_
_
_
_
_
_
_
_
0 0 0 0 0
0 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0
0 0 l
k+1,k
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 l
n,k
0 0
_
_
_
_
_
_
_
_
_
_
_
_
,
donde las l

i,k
s son los m´ ultiplos usados en la k-´esima etapa para eliminar las entradas de bajo
del k-´esimo pivote. As´ı,
A = LU
donde
L = I + c
1
e

1
+ c
2
e

2
+ + c
n−1
e

n−1
=
_
_
_
_
_
_
_
1 0 0 0
l
2,1
1 0 0
l
3,1
l
3,2
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
l
n,1
l
n,2
l
n,3
1
_
_
_
_
_
_
_
.
52 CAP
´
ITULO 4.
´
ALGEBRA MATRICIAL
Cap´ıtulo 5
Espacios vectoriales
5.1 Introducci´on
Los espacios vectoriales involucran 4 cosas. Un conjunto 1 cuyos elementos son llamados
vectores, un conjunto T denominado campo y dos operaciones (+, adicion) y (•, producto
escalar).
1 es un conjunto no vacio de elementos llamados vectores. El termino vector puede ser usado
de forma general. Aqui lo utilizamos para referirnos a las n-tuplas.
T es un campo escalar, para nosotros T ser´a IR.
+ Es la operacion de adici´on entre los elementos de 1.
• Es el producto escalar entre los elementos de 1 Y T.
Definici´on 5.1.1 (Espacio vectorial). Sean 1, T, +, definidos anteriormente. El conjunto
1 es llamado espacio vectorial sobre T cuando + y satisfacen las siguientes propiedades.
A1. Cerradura: X + Y ∈ 1 para X, Y ∈ 1.
A2. Asociativa: (X + Y ) + Z = X + (Y + Z); para X, Y, Z ∈ 1.
A3. Conmutativa: X + Y = Y + X para X, Y ∈ 1.
A4. Neutro aditivo: X + 0 = X para cada X ∈ 1 con 0 ∈ 1.
A5. Inverso aditivo: X + (−X) = 0 para cada X ∈ 1 con (−X) ∈ 1.
M1. Cerradura: αX ∈ 1, donde X ∈ 1 Y α ∈ T.
M2. Asociativa: (αβ) X = α(βX), para todo α, β ∈ T y cada X ∈ 1.
M3. Distributiva: α(X + Y ) = αX + αY , para cada α ∈ T y para todo X, Y ∈ 1.
M4. Distributiva: (α + β) X = αX + βX, para todo α, β ∈ T y cada X ∈ 1.
M5. Neutro m´ ultiplicativo: 1X = X, para cada X ∈ 1.
53
54 CAP
´
ITULO 5. ESPACIOS VECTORIALES
Algunos ejemplos de espacios vectoriales son:
1. El conjunto de matrices IR
m×n
es un espacio vectorial.
2. Definiendo la adicion y la m´ ultiplicacion escalar de funciones como:
(f + g) = f(X) + g(X)
(αf)X = αf(X)
los siguientes conjuntos son espacios vectoriales sobre IR.
i) El conjunto de funciones gr´aficadas en el intervalo [0, 1] en IR.
ii) El conjunto de funciones continuas reales definidas en [0, 1].
iii) El conjunto de funciones diferenciables en [0, 1].
Ejemplo 5.1.1. Considere el espacio vectorial IR
2
donde IR
2
= ¦(X, Y ) [ X, Y ∈ R¦ y sea
L = ¦(X, Y ) [ Y = αX¦ una linea que pasa por el origen. L es un subconjunto de IR
2
, pero
L es un tipo especial de subconjunto porque L tambien satisface las propiedades (A1)-(A5) y
(M1)-(M5) las cuales definen un espacio vectorial. Esto muestra que es posible que un espacio
vectorial puede contener otro espacio vectorial.
Definici´on 5.1.2 (Subespacio vectorial). Sea 1 un espacio vectorial sobre T y supongamos
que o es un subconjunto no vacio de 1. Si o es en si mismo un espacio vectorial, entonces se
dice que o es un subespacio vectorial de 1.
Teorema 5.1.1. Un subconjunto o de un espacio vectorial 1 , es un subespacio vectorial de
1 si y s´olo si:
A1. X + Y ∈ 1 para X, Y ∈ 1.
M1. αX ∈ 1, donde X ∈ 1 y α ∈ T.
Demostraci´on. Note que S, por ser un subconjunto de 1, satisface todas las propiedades de
un espacio vectorial excepto (A4) y (A5). Para probar que cumple (A5), observe que (M1)
implica (−X) = (−1)X ∈ S si X ∈ S. Para verificar que cumple (A4), note que si X ∈ S y
(−X) ∈ S entonces, por (A1), 0 = X + (−X) ∈ S. As´ı, S es un subespacio vectorial de 1 si y
s´olo si cumple (A1) y (M1).
Ejemplo 5.1.2. Dado un subespacio vectorial 1, el conjunto Z = ¦0¦ cuyo elemento es el
vector cero, es un subespacio vectorial de 1. As´ı, este es llamado el subespacio trivial de 1.
Ejemplo 5.1.3. Sea 1 un espacio vectorial y o = ¦V
1
, V
2
, ..., V
n
¦ tal que V
i
∈ 1. El conjunto
¸o) = ¦α
1
V
1
+ ... + α
r
V
r
[ α
i
∈ T y V
i
∈ 1¦
5.1. INTRODUCCI
´
ON 55
el conjunto de todas las posibles combinaciones lineales de los V
i
´s es un subespacio de 1 por
que las dos propiedades de cerradura (A1) y (M1) son satisfechas. Esto es claro pues si
X = α
1
V
1
+ ... + α
r
V
r
y Y = γ
1
V
1
+ ... + γ
r
V
r
son dos combinaciones lineales de ¸o), entonces la suma
X + Y = (α
1
+ γ
1
)V
1
+ ... + (α
r
+ γ
r
)V
r
= η
1
V
1
+ ... + η
r
V
r
tambien es una combinaci´on lineal de ¸o). Similarmente, si β ∈ IR, entonces
βX = (βα
1
)V
1
+ ... + (βα
r
)V
r
es de nuevo una combinaci´on lineal de ¸o).
Definici´on 5.1.3 (Conjunto generador). Sea 1 un espacio vectorial sobre T y sea o =
¦V
1
, V
2
, ..., V
r
¦ un conjunto de vectores de 1.
• El subespacio
¸o) = ¦α
1
V
1
+ ... + α
r
V
r
[ α
i
∈ T¦
generado por todas las combinaciones lineales de los vectores de S es llamado el espacio
generado por S.
• Si 1 = ¸o), entonces S es el conjunto generador de 1.
• o genera a 1 s´ı y s´olo s´ı cada V ∈ 1 es una combinacion lineal de los elementos de o.
Ejemplo 5.1.4. Los siguientes son ejemplos de conjuntos generadores:
(i) o =
__
1
1
_
,
_
2
2
__
genera a y = x en IR
2
.
(ii) o =
__
1
0
_
,
_
0
1
__
genera a IR
2
.
(iii) o = ¦e
n
1
...e
n
n
¦ donde e
n
i
= [00...010...0]

∈ IR
n
genera a IR
n
.
(iv) El conjunto finito o =
_
1, X, X
2
, ..., X
n
_
genera a los polinomios cuyo grado es menor
o igual a n. El conjunto infinito S =
_
1, X, X
2
, ..., X
n
, X
n+1
, ...
_
genera al conjunto de todos
los polinomios.
56 CAP
´
ITULO 5. ESPACIOS VECTORIALES
Ejemplo 5.1.5. Un conjunto de columnas o = ¦a
1
, a
2
, ..., a
n
¦ genera un subespacio V ⊆ IR
m
s´ı y s´olo s´ı b ∈ 1 es una combinacion lineal de los elementos de o.
b = x
1
a
1
+ x
2
a
2
+ ... + x
n
a
n
. (5.1)
Observe que (5.1) es simplemente la ecuaci´on Ax = b donde
A = (a
1
[a
2
[...[a
n
) y x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
.
As´ı, o genera a 1 si existe x tal que Ax = b para cada b ∈ 1, es decir si el sistema es
consistente. Por ejemplo, el conjunto
o =
_
_
1 1 1
_

,
_
1 −1 −1
_

,
_
3 1 1
_

_
no genera a IR
3
porque el sistema
_
_
1 1 3
1 −1 1
1 −1 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
b
1
b
2
b
3
_
_
no es consistente. Recuerde que un sistema es consistente s´ı y s´olo s´ı r(A[b) = r(A). En
este caso, r(A) = 2 y r(A[b) = 3 verificandose la inconsistencia del sistema. Por otro lado el
sistema
o =
_
_
1 1 1
_

,
_
1 −1 −1
_

,
_
3 1 2
_

_
es un conjunto generador de IR
3
por que
A =
_
_
1 1 3
1 −1 1
1 −1 2
_
_
es no singular, y as´ı el sistema Ax = b es consistente.
Definici´on 5.1.4 (Suma de subespacios vectoriales). Si A e ¸ son subespacios vectoriales
de un espacio vectorial 1, entonces la suma de A e ¸ se define como
A +¸ = ¦x + y [ x ∈ A e y ∈ ¸¦ .
Teorema 5.1.2. Sea A +¸ la suma de dos subespacios vectoriales.
i) A +¸ es un subespacio vectorial.
ii) Si o
X
genera a A y o
Y
genera a ¸, entonces o
X

o
Y
genera a A +¸.
5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 57
Demostracion. i) Sean u, w ∈ A +¸ entonces u = x
1
+ y
1
y w = x
2
+ y
2
con x
1
, x
2
∈ A y
y
1
, y
2
∈ ¸. Luego
u + w = (x
1
+ y
1
) + (x
2
+ y
2
) = (x
1
+ x
2
) + (y
1
+ y
2
) ∈ A +¸
dado que (x
1
+ x
2
) ∈ A y (y
1
+ y
2
) ∈ ¸. Por otro lado si αx
1
∈ A y αy
1
∈ ¸ para todo
α ∈ IR, entonces
αu = α(x
1
+ y
1
) = αx
1
+ αy
1
∈ A +¸.
ii) Definase o
X
= ¦x
1
, x
2
, ..., x
r
¦ y o
Y
= ¦y
1
, y
2
, ..., y
r
¦ de tal forma que A = ¸o
X
) y Y = ¸o
Y
).
Note que
o
X
_
o
Y
= ¦x
1
, x
2
, ..., x
r
, y
1
, y
2
, ..., y
r
¦
entonces
_
o
X
_
o
Y
_
= ¦α
1
x
1
+, ..., +α
r
x
r
+ γ
1
y
1
+, ... + γ
r
y
r
[ α
i
, γ
i
∈ T¦ .
As´ı Z ∈ ¸o
X

o
Y
) s´ı y s´olo s´ı Z =
r

i=1
α
i
X
i
+
t

i=1
γ
i
Y
i
, pero
r

i=1
α
i
X
i
∈ X y
t

i=1
γ
i
Y
i
∈ Y , por
tanto Z ∈ A +¸.
5.2 Los Cuatro Subespacios Fundamentales
Para una matriz A ∈ IR
m×n
de n´ umeros reales, hay cuatro subespacios importantes, dos en
IR
m
y dos en IR
n
, los cuales estan asociados con A. El proposito de esta secci´on es introducir
estos cuatro subespacios. Dos de ellos son definidos por los renglones y las columnas de A.
Definici´on 5.2.1 (Espacio rengl´on y espacio columna). Si A ∈ IR
m×n
, entonces el
espacio
¹
A
=
¸
A

1
, ..., A

m
_
⊆ IR
n
generado por los renglones de A, se llama espacio rengl´on de A. Similarmente, el espacio
(
A
= ¸A
1
, ..., A
n
) ⊆ IR
m
generado por las columnas de A, se llama espacio columna de A.
Teorema 5.2.1. Sean a

∈ IR
n
, b ∈ IR
m
y A ∈ IR
m×n
.
i) a

∈ ¹
A
⇔ existe y

tal que y

A = a

.
ii) b ∈ (
A
⇔ existe x tal que Ax = b.
Demostraci´on. i) Si a

∈ ¹
A
= ¸A

1
, ..., A

m
), entonces
a

=
m

i=1
ρ
i
A

i
=
_
ρ
1
ρ
2
ρ
m
_
_
_
_
_
_
A

1
A

2
.
.
.
A

m
_
_
_
_
_
= y

A
58 CAP
´
ITULO 5. ESPACIOS VECTORIALES
donde y

=
_
ρ
1
ρ
2
ρ
m
_
. Similarmente, note que si b ∈ (
A
entonces
b =
n

i=1
ξ
i
A
i
=
_
A
1
A
2
A
n
_
_
_
_
_
_
ξ
1
ξ
2
.
.
.
ξ
n
_
_
_
_
_
= Ax
donde x =
_
_
_
_
_
ξ
1
ξ
2
.
.
.
ξ
n
_
_
_
_
_
.
Observe que una matriz A ∈ IR
m×n
, define una funci´on lineal de IR
n
a IR
m
, mediante la
expresi´on f(x) = Ax : IR
n
→ IR
m
para f(x) = Ax. El dominio de f(x) es D = ¦x [ x ∈ IR
n
¦
y la imagen de f(x) es Im(A) = Ax =
_
n

i=1
ξ
i
A
i
[ ξ
i
∈ IR
_
. Entonces, se puede decir que el
espacio columna es igual al conjunto imagen o rango de la funci´on f(x) = Ax, as´ı (
A
= Im(A).
Por otro lado Im(A

) es el espacio columna de A

, pero las columnas de A

son los reglones de
A, entonces Im(A

) = ¹
A
.
Ejemplo 5.2.1. Problema: Describir la Im(A) y la Im(A

) para la matriz A =
_
1 2 3
2 4 6
_
Soluci´on: Recuerde que Im(A) = (
A
, entonces
Im(A) = ¸A
1
, A
2
, A
3
) = ¦ξ
1
A
1
+ ξ
2
A
2
+ ξ
3
A
3
[ ξ
1
, ξ
2
, ξ
3
∈ IR¦ .
Sin embargo, por simple inspecci´on note que A
2
= 2A
1
y A
3
= 3A
1
, entonces debe ser claro
que
¦ξ
1
A
1
+ ξ
2
A
2
+ ξ
3
A
3
[ ξ
1
, ξ
2
, ξ
3
∈ IR¦ = ¦ξA
1
[ ξ ∈ IR¦ ,
y as´ı Im(A) = ¸A
1
). Geom´etricamente, esta es la linea en IR
2
que pasa por el origen y el punto
(1, 2). Similarmente, Im(A

) = ¹
A
, por tanto
Im(A

) = ¸A

1
, A

2
) = ¦α
1
A

1
+ α
2
A

2
[ α
1
, α
2
∈ IR¦.
Pero A
2
= 2A
1
lo cual implica que
¦α
1
A

1
+ α
2
A

2
[ α
1
, α
2
∈ IR¦ = ¦αA

1
[ α ∈ IR¦,
as´ı Im(A

) = ¸A

1
). Esto es la linea en IR
3
que pasa por el origen y el punto (1, 2, 3).
En ocasiones es de inter´es conocer si dos matrices tienen el mismo espacio columna o el mismo
espacio rengl´on. El siguiente teorema resuelve este problema.
5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 59
Teorema 5.2.2. [Igualdad de espacio rengl´on o columna] Para dos matrices A y B de la misma
forma:
i) Im(A) = Im(B) si y s´olo si A
col
∼ B
ii) Im(A

) = Im(B

) si y s´olo si A
row
∼ B
Por definici´on, los renglones de A generan Im(A

), y las columnas de A generan Im(A). Sin
embargo, el siguiente resultado explica como se pueden generar estos espacios utilizando unos
cuantos vectores en cada caso.
Teorema 5.2.3. Sea A ∈ IR
m×n
, y sea U cualquier forma escalonada derivada de A. Los
conjuntos de vectores que generan a los espacios rengl´on y columna son los siguientes:
i) Los renglones no cero de U generan a Im(A

).
ii) Las columnas b´asicas en A generan Im(A).
Ejemplo 5.2.2. Problema: Determine los conjuntos generadores para Im(A) y Im(A

) donde
A =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
_
_
.
Soluci´on: Reduciendo a A a cualquier forma escalonada U se obtendr´a la soluci´on, ya que las
columnas b´asicas en A corresponden a las posiciones pivotales en U, y los renglones no cero
de U generan el espacio vector de A. Usando E
A
=
_
_
1 2 0 1
0 0 1 1
0 0 0 0
_
_
se tiene que Im(A) =
_
_
_
1
2
3
_
_
,
_
_
2
1
1
_
_
_
y
Im(A

) =
_
_
_
_
_
1
2
0
1
_
_
_
_
,
_
_
_
_
0
0
1
1
_
_
_
_
_
.
Se comento que hay cuatro subespacios asociados con una matriz, pero unicamente hemos
discutido dos de ellos, los espacios rengl´on y columna. Ahora se introducen los otros dos.
Definici´on 5.2.2 (Espacios nulos). Para una matriz A ∈ IR
m×n
, el conjunto
^(/) = ¦x ∈ IR
n
[ Ax = 0¦ ⊆ IR
n
60 CAP
´
ITULO 5. ESPACIOS VECTORIALES
es llamado espacio nulo de A. En otras palabras ^(/) es el conjunto de todas las soluciones
del sistema homog´eneo Ax = 0. Por otro lado, el conjunto
^(/

) = ¦y ∈ IR
m
[ y

A = 0

¦ ⊆ IR
m
es llamado espacio nulo izquierdo de A porque ^(/

) es el conjunto de todas las soluciones del
sistema homog´eneo ”izquierdo” y

A = 0

.
Cada espacio nulo es adem´as un subespacio vectorial porque las propiedades de cerradura de
la adici´on vectorial y de la m´ ultiplicaci´on escalar son satisfechas. Por ejemplo, si x, y ∈ ^(/),
entonces A(x + y) = Ax + Ay = 0 + 0 = 0, as´ı (x + y) ∈ ^(/). Por otro lado para α ∈ IR se
tiene A(αx) = αAx = α0 = 0, y as´ı αx ∈ ^(/) si x ∈ ^(/).
Para determinar un conjunto generador para ^(/) donde r(A) = r, con A ∈ IR
m×n
, se tiene
que reducir a A a una forma escalonada U, y resolver Ux = 0 para las variables b´asicas en
terminos de las variables libres para producir la soluci´on general de Ax = 0 en la forma
x = x
f
1
h
1
+ x
f
2
h
2
+ + x
f
n−r
h
n−r
.
El conjunto
o = ¦h
1
, h
2
, , hn −r¦
es el ´ unico conjunto generador para ^(/). Se puede probar que o es ´ unico en el sentido de
que o es independiente de la forma escalonada U.
Ejemplo 5.2.3. Problema: Determine el conjunto generador para ^(/) donde A =
_
1 2 3
2 4 6
_
.
Soluci´on: Usemos la forma escalonada reducida E
A
=
_
1 2 3
0 0 0
_
, de donde se tiene que
x
1
= −2x
2
−3x
3
, as´ı x
2
y x
3
son las variables libres. Aqu´ı, la soluci´on general de Ax = 0 es
_
_
x
1
x
2
x
3
_
_
=
_
_
−2x
2
−3x
3
x
2
x
3
_
_
= x
2
_
_
−2
1
0
_
_
+ x
3
_
_
−3
0
1
_
_
.
As´ı, el conjunto o =
_
_
_
_
_
−2
1
0
_
_
,
_
_
−3
0
1
_
_
_
_
_
, es un conjunto que genera a ^(/).
Teorema 5.2.4. Si A ∈ IR
m×n
, entonces:
i) ^(/) = ¦0¦ si y s´olo si r(A) = n.
ii) ^(/

) = ¦0¦ si y s´olo si r(A) = m.
5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 61
Demostraci´on. Recuerde que la soluci´on trivial x = 0 es la ´ unica soluci´on para Ax = 0 si y
s´olo si r(A) = n. Analogamente, la soluci´on trivial y = 0 es la ´ unica soluci´on para A

y = 0 si
y s´olo si r(A

) = m, pero r(A

) = r(A).
Para obtener un conjunto generador para ^(/

) se procede de la misma forma, reducir a A

a
una forma escalonada U y extraer la soluci´on general para A

y = 0. Pero existe otra forma de
obtener un conjunto generador para ^(/

), la cual es mostrada en el siguiente teorema
Teorema 5.2.5. Sea A ∈ IR
m×n
. Si r(A) = r, y si PA = U donde P ∈ IR
m×m
es no singular
y U es una forma escalonada, entonces los ultimos m−r renglones en P generar´an a ^(/

).
En otras palabras, si P =
_
P
1
P
2
_
donde P
2
∈ IR
m−r×m
, entonces
^(/

) = Im(P

2
).
Ejemplo 5.2.4. Problema: Determinar un conjunto generador para ^(/

) donde A =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
_
_
.
Soluci´on: Utilizando el m´etodo de Gauss-Jordan se obtiene la forma escalonada reducida de A
(A[I) =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
¸
¸
¸
¸
¸
¸
1 0 0
0 1 0
0 0 1
_
_

_
_
1 2 0 1
0 0 1 1
0 0 0 0
¸
¸
¸
¸
¸
¸
−1/3 2/3 0
2/3 −1/3 0
1/3 −5/3 1
_
_
.
Por tanto, r(A) = 2 y P =
_
_
−1/3 2/3 0
2/3 −1/3 0
1/3 −5/3 1
_
_
, de donde se tiene que ^(/

) =
_
_
_
1/3
−5/3
1
_
_
_
.
Teorema 5.2.6. Para dos matrices A y B de la misma forma:
i) ^(/) = N(B) si y s´olo si A
row
∼ B.
ii) ^(/

) = N(B

) si y s´olo si A
col
∼ B.
Todos los resultados obtenidos en esta secci´on son presentados en el siguiente resumen.
Resumen
Los cuatro subespacios fundamentales asociados a una matriz A ∈ IR
m×n
son los siguientes
• La imagen o espacio columna: Im(A) = (
A
= ¦Ax¦ ⊆ IR
m
.
• La imagen izquierda o espacio regl´on: Im(A

) = ¹
A
= ¦A

y¦ ⊆ IR
n
.
62 CAP
´
ITULO 5. ESPACIOS VECTORIALES
• Espacio nulo: ^(/) = ¦x [ Ax = 0¦ ⊆ IR
n
.
• Espacio nulo izquierdo: ^(/

) = ¦y [ A

y = 0¦ ⊆ IR
m
.
Si A y B tienen la misma forma, entonces:
• A
row
∼ B ⇔^(/) = ^(B) ⇔Im(A

) = Im(B

).
• A
col
∼ B ⇔Im(A) = Im(B) ⇔^(/

) = ^(B

).
Si r(A) = r y P es una matriz no singular tal que PA = U donde U es una forma escalonada,
entonces
• Las columnas b´asicas de A generan a Im(A).
• Los renglones distintos de cero generan a Im(A

).
• Resolver Ux = 0 para las variables b´asicas en terminos de las variables libres, y escribir
la soluci´on como x =
n−r

i=1
x
f
i
h
i
. Las h
i
’s generan a ^(/).
• Los ´ ultimos m−r renglones de P generan a ^(/

).
5.3 Independencia Lineal
Para un conjunto de vectores S = ¦v
1
, v
2
, , v
n
¦ puede o no haber dependencia entre los
vectores, en el sentido de que ning´ un vector v
i
∈ S puede ser expresado como una combinaci´on
lineal de los v
j
restantes de S. Por ejemplo para el conjunto
/ =
_
_
_
_
_
1
−1
2
_
_
,
_
_
3
0
1
_
_
,
_
_
9
−3
4
_
_
_
_
_
,
es obvio que v
3
= 3v
1
+ 2v
2
, es decir existe una dependencia del vector v
3
con v
1
y v
2
. Tal
dependencia siempre puede expresarse en terminos de un sistema homog´eneo escribiendo
3v
1
+ 2v
2
−v
3
= 0.
Por otro lado el conjunto
B =
_
_
_
_
_
1
0
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
_
_
_
,
representa un conjunto cuyos vectores no presentan una relaci´on de dependencia, ya que ni
uno de los vectores puede expresarse como una combinaci´on de los otros. Otra forma de decir
esto es que no hay soluciones α
1
, α
2
y α
3
para el sistema homog´eneo
α
1
v
1
+ α
2
v
2
+ α
3
v
3
= 0
distintas a la soluci´on trivial α
1
= α
2
= α
3
= 0. Estas observaciones nos dan la base para la
siguiente definici´on.
5.3. INDEPENDENCIA LINEAL 63
Teorema 5.3.1. [Independencia Lineal] Un conjunto de vectores o = ¦v
1
, v
2
, , v
n
¦ se dice
que es un conjunto linealmente independiente si la ´ unica soluci´on para el sistema homog´eneo
α
1
v
1
+ α
2
v
2
+ + α
n
v
n
= 0
es la soluci´on trivial α
1
= α
2
= = α
n
= 0. Si existe al menos una soluci´on distinta a la
trivial, para el sistema homog´eneo, se dice que el conjunto es linealmente dependiente.
Ejemplo 5.3.1. Problema: Determine si el conjunto
S =
_
_
_
_
_
1
2
1
_
_
,
_
_
1
0
2
_
_
,
_
_
5
6
7
_
_
_
_
_
es linealmente independiente.
Soluci´on: Lo anterior equivale a encontrar las soluciones, si las hay, del sistema homog´eneo,
Ax = 0 donde: A =
_
_
1 1 5
2 0 6
1 2 7
_
_
, as´ı, aplicando el m´etodo de Gauss-Jordan se tiene
_
_
1 1 5
2 0 6
1 2 7
_
_

_
_
1 1 5
0 −2 4
0 1 2
_
_

_
_
1 1 5
0 1 2
0 1 2
_
_

_
_
1 1 5
0 1 2
0 0 0
_
_

_
_
1 0 3
0 1 2
0 0 0
_
_
de donde se tiene que si A =
_
_
1 1 5
2 0 6
1 2 7
_
_
, entonces E
A
=
_
_
1 0 3
0 1 2
0 0 0
_
_
y por tanto existen
soluciones distintas a la trivial. M´as a´ un, E
A
revela la relaci´on de dependencia de S ya que se
observa que A
3
= 3A
1
+2A
2
. Este ejemplo indica por que la cuesti´on de que sin un subconjuto
de IR
m
es o no linealmente independiente es realmente una pregunta acerca de que si o no el
espacio nulo asociado con una matriz es el trivial. El siguiente teorema establece formalmente
este hecho.
Teorema 5.3.2. Para una matriz A ∈ IR
m×n
:
• Se tiene que los siguientes enunciados son equivalentes a decir que las columnas de A
forman un conjunto linealmente independiente.
i) ^(/) = ¦0¦
ii) r(A) = n
• Los siguientes enunciados son equivalentes a decir que los reglones de A forman un
conjunto linealmente independiente.
iii) N(A
T
) = ¦0¦
iv) r(A) = m
64 CAP
´
ITULO 5. ESPACIOS VECTORIALES
• Cuando A es una matriz cuadrada, cada uno de los siguientes enunciados es equivalente
a decir que A es no singular.
v) Las columnas de A forman un conjunto linealmente independiente.
vi) Los renglones de A forman un conjunto linealmente independiente.
Demostraci´on. Por definici´on, las columnas de A son un conjunto linealmente independiente
cuando el sistema homog´eneo
0 = α
1
A
1
+ α
2
A
2
+ + α
n
A
n
=
_
A
1
A
2
A
n
_
_
_
_
_
α
1
α
2

α
n
_
_
_
_
tiene ´ unicamente la soluci´on trivial α
1
= α
2
= = α
n
= 0, lo cual es equivalente a decir
que ^(/) = ¦0¦. El hecho de que el ^(/) = ¦0¦ implica que r(A) = n, as´ı i) y ii) son
demostradas. Ahora, para demostrar iii) y iv) sustituya A

por A y proceda como antes.
Recuerde que r(A) = r(A

). Las proposiciones v) y vi) son casos especiales de ii) y iv).
Ejemplo 5.3.2. Cualquier conjunto ¦e
i
1
, e
i
2
, , e
in
¦ de vectores unitarios es un conjunto
linealmente independiente por que
r(e
i
1
, e
i
2
, , e
in
) = n.
Por ejemplo, el conjunto de vectores unitarios ¦e
1
, e
2
, e
4
¦ ∈ IR
4
es linealmente independiente
porque
r
_
_
_
_
1 0 0
0 1 0
0 0 0
0 0 1
_
_
_
_
= 3.
Ahora sabemos que si r(A) < n donde A ∈ IR
m×n
, entonces las columnas de A deben ser
un conjunto linealmente dependiente. Para tales matrices, a menudo se decea extraer un
subconjunto maximal linealmente independiente de columnas, es decir un conjunto linealmente
independiente que contenga la mayor cantidad de columnas de A como sea posible. Aunque
hay varias formas de hacer tal selecci´on, las columnas b´asicas de A siempre constituyen un
subconjunto maximal linealmente independiente de las columnas de A.
Si A ∈ IR
m×n
y r(A) = r, entonces las siguientes proposiciones se cumplen:
• Cualquier subconjunto maximal linealmente independiente de las columnas de A contiene
exactamente r columnas.
• Cualquier subconjunto maximal linealmente independiente de los renglones de A contiene
exactamente r renglones.
• En particular, las r columnas b´asicas de A constituyen un subconjunto maximal lineal-
mente independiente de las columnas de A.
5.4. BASE Y DIMENSI
´
ON 65
Para un conjunto no vacio de vectores o = ¦u
1
, u
2
, , u
n
¦ de un espacio vectorial 1, las
siguientes propisiciones son verdaderas
• Si o contiene un subconjunto linealmente independiente, entoces o debe ser en si mismo
linealmente dependiente.
• Si o es linealmente independiente, entonces cada subconjunto de o es tambien linealmente
independiente.
• Si o es linealmente independiente y si v ∈ 1, entonces el conjunto extensi´on o
ext
= o

v
es linealmente independiente si v / ∈ ¸o).
• Si o ⊆∈ IR
m
y si n > m, entonces o debe ser linealmente dependiente.
5.4 Base y dimensi´on
Recuerde que S es un conjunto generador de un espacio vectorial 1 si y s´olo si cada vector en 1
es una combinaci´on lineal de los vectores de S. Sin embargo los conjuntos generadores pueden
tener vectores redundantes. Por ejemplo, un subespacio L definido por una recta que pasa por
el origen en IR
2
puede ser generador para cualquier numero de vectores no ceros ¦v
1
, v
2
, , v
k
¦
en L, pero cualquier de los vectores ¦v
i
¦ puede ser en si mismo suficiente. Similarmente, un
plano T que pasa por el origen en IR
3
puede ser generado de diferentes formas, pero la ley
del paralelogramo indica que un conjunto generador m´ınimo necesita ´ unicamente un conjunto
independiente de dos vectores de T. Estas consideraciones motivan la siguiente definici´on.
Definici´on 5.4.1 (Base). Si B es un conjunto generador linealmente independiente para un
espacio vectorial 1, entonces B es llamado una base para 1.
Ejemplo 5.4.1. Los siguientes son ejemplos de conjuntos que forman una base para un espa-
cio vectorial:
• Los vectores unitarios S = ¦e
1
, e
2
, , e
n
¦ en IR
n
forman una base para IR
n
. Esta es
llamada la base estandar.
• Si A ∈ IR
n×n
es una matriz no singular, entonces el conjunto de renglones y el conjunto
de columnas de A forman algunas bases de IR
n
.
• Para el espacio vectorial trivial Z = ¦0¦, no hay un conjunto generador linealmente
independiente. Por lo sonsiguiente, el conjunto vacio es considerado como una base de
Z.
• El conjunto ¦1, x, x
2
, , x
n
¦ es una base para el espacio vectorial de los polinomios de
grado n o menor.
• El conjunto infinito ¦1, x, x
2
, ¦ es una base para el espacio de vectorial de todos los
polinomios.
66 CAP
´
ITULO 5. ESPACIOS VECTORIALES
Hay diferentes formas de carat´erizar a una base. Si 1 un espacio vectorial y sea
B = ¦b
1
, b
2
, . . . , b
n
¦ ⊆ V.
entonces las siguientes proposiciones son equivalentes.
1. B es una base para 1.
2. B es un conjunto generador minimal para 1.
3. B es un conjunto maximal independiente para 1.
Estas tres proposiciones son ´ utiles para caract´erizar una base.
Note que un espacio vectorial, distinto al espacio vectorial trivial, tiene una gran cantidad
de bases. Por tal motivo la base no es ´ unica, pero es ´ unica en el sentido que tiene el mismo
n´ umero de elementos. Este n´ umero es de suma impotancia.
Definici´on 5.4.2 (Dimensi´on de un espacio vectorial). La dimensi´on de un espacio
vectorial 1 es definido de la siguiente forma:
dim1 = n´ umero de vectores en cualquier base de 1
= n´ umero de vectores en cualquier conjunto generador minimal de 1
= n´ umero de vectores en cualquier subconjunto maximal independiente de 1
Ejemplo 5.4.2. 1) Sea Z = ¦0¦ entonces dim(Z) = 0.
2) Si T es un plano que pasa por el origen en IR
3
, entonces dim(T) = 2.
3) dim(IR
3
) = 3, porque el conjunto
_
_
_
_
_
1
0
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
_
_
_
constituye una base de IR
3
.
Ejemplo 5.4.3. Problema: Si 1 es un espacio vectorial n-dimensional , explicar porque cada
subconjunto independiente o = ¦v
1
, v
2
, , v
n
¦ ⊂ 1 que contiene n vectores debe ser una base
de 1.
Soluci´on: La dim1 = n significa que cada subconjunto de 1 que contiene a lo m´as n vectores
debe ser linealmente independiente. Por tanto, o es un subconjunto maximal independiente
de 1, y as´ı o es una base de 1.
Es importante no confundir la dimensi´on de un espaci´o vectorial 1 con el n´ umero de compo-
nentes que tiene cada vector individual de 1. Por ejemplo si T es un plano que pasa por el
origen en IR
3
, entonces dimT = 2, pero cada uno de los vectores en T tiene 3 componentes.
Aunque la dimensi´on de un espacio vectorial 1 y el n´ umero de componentes que tiene cada
vector individual en 1 no son necesariamente el mismo, sin embargo estan relacionados. Por
ejemplo, si 1 es un subespacio de IR
n
, entonces ni uno de los subconjuntos linealmente inde-
pendientes de 1 puede contener m´as de n vectores, por lo que dim1 ≤ n. Esta observaci´on se
generaliza para producir el siguiente teorema.
5.4. BASE Y DIMENSI
´
ON 67
Teorema 5.4.1. Si / y ^ son espacios vectoriales tal que /⊆ ^ entonces:
i) dim/≤ ^.
ii) Si dim/ = dim^, entonces /= ^.
Demostraci´on. Sea dim/ = m y dim^ = n, y usando argumentos indirectos se demostar´a
i). Si m > n, entonces existe un subconjunto linealmente independiente de ^ (una base de
/) que contiene m´as de n vectores. Pero esto es imposible porque dim^ es el tama˜ no de un
subconjunto maximal independiente de ^. As´ı m ≤ n. Ahora se probar´a ii). Si m = n pero
/,= ^, entonces existe un vector x tal que
x ∈ ^ pero x / ∈ /.
Si B es una base para /, entonces x / ∈ ¸B), y el conjunto extensi´on ε = B

¦x¦ es un
subconjunto linealmente independiente de ^. Pero ε contiene m+ 1 = n + 1 vectores, lo cual
es imposible por que dim^ = n es el tama˜ no de un subconjunto maximal independiente de
^. As´ı /= ^.
Ahora, es facil determinar la dimesi´on de cada uno de los cuatro subespacios fundamentales
asociados a una matriz A.
Teorema 5.4.2. [Dimensiones de los cuatros subespacios fundamentales] Sea A ∈ IR
m×n
tal
que r(A) = r, entonces
i) dimIm(A) = r
ii) dim^(/) = n −r
iii) dimIm(A

) = r
iv) dim^(/

) = m−r
Demostraci´on. i) El conjunto B que contiene las r columnas b´asicas de A es una base de
Im(A) porque B es un conjunto generador independiente para el conjunto Im(A). Por tanto
dimIm(A) = r.
iii) Recuerde que dimIm(A

) = r(A

), pero r(A

) = r(A) = r. Por tanto dimIm(A

) = r.
iv) Recuerde que si P es una matriz no singular tal que PA = U es una forma escalonada,
entonces los ultimo m−r renglones de P generan a ^(/

). Pero los renglones de P forman un
conjunto linealmente independiente y todo subconjunto de un conjunto linealmente indepen-
diente es linealmente independiente, por tanto los ultimos m− r renglones de P constituyen
una base de ^(/

). Por tanto, dim^(/

) = m−r.
ii) Note que en palabras iv) dice que dim^(/

) es el n´ umero de renglones en A menos el r(A).
Si remplazamos A por A

en iv), entonces tenemos que la dimN(A

) es el n´ umero de renglones
en A

menos el r(A

). Pero A

= A y r(A

) = r(A) = r, entonces dim^(/) = n −r.
Las proposiciones i) y ii) del teorema anterior producen el siguiente teorema.
68 CAP
´
ITULO 5. ESPACIOS VECTORIALES
Teorema 5.4.3. [Teorema de adici´on del rango y la nulida] Para toda matriz A ∈ IR
m×n
,
dimIm(A) + dim^(/) = n.
El titulo ”teorema de adici´on del rango y la nulida” es derivado del hecho de que dimIm(A) =
r(A) y dim^(/) fue tradicionalmente conocida como la nulidad de A.
Ejemplo 5.4.4. Problema: Determine la dimensi´on como tambien una base para el conjunto
generado por
o =
_
_
_
_
_
1
2
1
_
_
,
_
_
1
0
2
_
_
,
_
_
5
6
7
_
_
_
_
_
.
Soluci´on 1. Coloque los vectores como columnas en una matriz A, y reducir
A =
_
_
1 1 5
2 0 6
1 2 7
_
_
→E
A
=
_
_
1 0 3
0 1 2
0 0 0
_
_
.
Dado que ¸o) = Im(A), entonces tenemos
dim¸o) = dimIm(A) = r(A) = 2,
y una base para ¸o) = Im(A) es el conjunto de columnas b´asicas de A, B =
_
_
_
_
_
1
2
1
_
_
,
_
_
1
0
2
_
_
_
_
_
.
Otras bases tambien son posibles. Examinando E
A
revela que cualquier par de vectores en o
forma un conjunto independiente, y por lo tanto cualquier par de vectores de o constituye una
base para o.
Soluci´on 2. Coloque los vectores de o como renglones de una matriz B, y reducir B a una
forma escalonada.
B =
_
_
1 2 1
1 0 2
5 6 7
_
_
→U =
_
_
1 2 1
0 −2 1
0 0 0
_
_
.
Esta vez tenemos que o = Im(B

), as´ı que
dim¸o) = dimIm(B

) = r(B) = r(U) = 2,
y una base de ¸o) = Im(B

) es dada por los renglones distintos de cero en U.
La dimensi´on de una suma de subespacios vectoriales es dada por el siguiente resultado.
Teorema 5.4.4. Si A y ¸ son subespacios de un espacio vectorial 1, entonces
dim(A +¸) = dimA + dim¸ −dim(A

¸).

Contenido
1 Preliminares 1.1 Resoluci´n de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . o 1.2 Resoluci´n de un sistema de ecuaciones lineales . . . . . . . . . . . . . . . . . . o 2 Ecuaciones lineales 2.1 Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 2.2 Eliminacion gausiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 M´todo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 3 Sistemas Rect´ngulares y Formas a 3.1 Forma Escalonada por Renglones 3.2 Forma Escalonada por Renglones 3.3 Consistencia de Modelos Lineales 3.4 Sistemas Homogeneos . . . . . . 3.5 Sistemas no Homogeneos . . . . . Escalonadas y Rango . . . Reducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 7 9 9 10 15 17 17 20 22 24 26 29 29 29 30 31 32 35 38 40 43 43 46 48 53 53 57 62 65

´ 4 Algebra Matricial 4.1 Adici´n, Multiplicaci´n Escalar y Transpuesta . . . o o 4.1.1 Adici´n de Matrices . . . . . . . . . . . . . o 4.1.2 Multiplicaci´n Escalar . . . . . . . . . . . . o 4.1.3 La Transpuesta de una Matriz . . . . . . . 4.2 Linealidad . . . . . . . . . . . . . . . . . . . . . . . 4.3 Multiplicaci´n Matricial . . . . . . . . . . . . . . . o 4.3.1 Propiedades de la Multiplicaci´n Matricial . o 4.4 Multiplicaci´n de Matrices Particionadas . . . . . o 4.5 Matrices Elementales y Equivalentes . . . . . . . . 4.5.1 Matrices Elementales . . . . . . . . . . . . . 4.5.2 Matrices Equivalentes . . . . . . . . . . . . 4.6 Factorizaci´n LU . . . . . . . . . . . . . . . . . . . o 5 Espacios vectoriales 5.1 Introducci´n . . . . . . . . . . . . . . . . o 5.2 Los Cuatro Subespacios Fundamentales 5.3 Independencia Lineal . . . . . . . . . . . 5.4 Base y dimensi´n . . . . . . . . . . . . . o 3 . . . . . . . . . . . . . . . . . . . . . . . .

4 CONTENIDO .

delimitar o determinar o a el conjunto de valores n´mericos de la variable o variables que satisfacen la ecuaci´n. Algunos ejemplos de ecuaciones lineales son los siguientes: a) y = 1. En ´lgebra. En geom´tria anal´ e ıtica se demuestra que una ecuaci´n lineal en las variables x. y. f) 2 5 = . y. a 5 .1) A la ecuaci´n anterior le denominamos ecuaci´n lineal general en las variables x. salvo que se especifique lo contrario. e) 3x + 2y = 5. d) 3y = 6.1 Resoluci´n de sistemas de ecuaciones lineales o Antes de conocer y aplicar los m´todos especificos de resoluci´n de un sistema de ecuaciones e o lineales. c) 5x = 8. sabemos que la ecuaci´n general o de la recta es de la forma Ax + By + C = 0 A = 0. ´ o B=0 (1. la pregunta anterior. como consecuencia. x−3 y−1 Nuestro objetivo es resolver los sistemas de ecuaciones lineales. e o De nuestro conocimiento de la geom´tria anal´ e ıtica en el plano. porque debemos utilizar un m´todo especifico de resoluci´n. una recta en el plano IR . tiene como ecuaci´n de su lugar gem´trico una ecuaci´n o e o lineal en las variables x. El adjetivo o o lineal. Estamos ante la interrogante ¿qu´ significa resolver una o e ecuaci´n lineal?. 7 b) x = −5. Las u o variables generalmente est´n definidas en el conjunto IR. es debido a que las variables que intervienen tienen grado uno. veamos que significa resolver el sistema y. y representa o 2 una recta y. significa calcular. pero antes debemos saber como resolvemos una ecuaci´n lineal.Cap´ ıtulo 1 Preliminares 1.

no perdamos de vista lo que significa resolver la ecuaci´n.6 CAP´ ITULO 1. o o 8 manera. es sin duda el valor y = 1. PRELIMINARES As´ la soluci´n de la ecuaci´n y = 1. o o ¿Cu´ntos pares (x.1: Valores de y y −3 −0. resulta la correspondiente 3 Todas las parejas de esta tabla son soluci´n de la ecuaci´n lineal. De la misma ı. As´ tenemos la siguiente tabla ı. como la variable y se puede elegir a o o del conjunto IR. 3 En la ecuaci´n anterior es posible determinar el valor de x si le asignamos alg´n valor a y o u (y ∈ IR). 8= 8 En las dos ecuaciones lineales anteriores los conjuntos soluci´n son {y ∈ IR | y = 1} y o 8 x ∈ IR x = . 5 − 2y . por que o 5 8 5 = 8 . y) ∈ IR2 x = 5 − 2y 3 . . y) son soluci´n para la ecuaci´n lineal?. que en este caso consta de dos o variables. por ejemplo o o 5 − 2y . existe un conjunto infinito de pares.5 0 3 1. y) de n´meros reales que satisfagan a o u la ecuaci´n?. Una manera es despejar una variable en funci´n de la otra. la soluci´n de 5x = 8 es x = 5 .5 Si sustituimos los valores anteriores de y. ya que 1 = 1. 5 Ahora veamos cu´l es el conjunto soluci´n para la ecuaci´n a o o 3x + 2y = 5. lo cual puede verificar. como se indica: soluci´n = o (x. ¿C´mo podemos determinar el conjunto de parejas (x. en la ecuaci´n x = o de x. Algunos valores asignados a y se muestran en la tabla x= Tabla 1.

y) de n´meros o u reales que satisfagan a ambas ecuaciones del sistema?.7 2 1. ¿Cu´l es la representaci´n gr´fica de la a o a o a soluci´n?. o a 3. o a) x = 5. Bosqueje la gr´fica de cada una de las siguientes ecuaciones y localice al menos 3 puntos a soluci´n.2: Valores de y y x y −3 −0.5 0 3 1.1). resolver el sistema significa determinar los valores reales de x y y que satisfagan a ambas ecuaciones.2 Resoluci´n de un sistema de ecuaciones lineales o Iniciamos suponiendo que queremos resolver un sistema de dos ecuaciones lineales con dos incognitas.7 −0. Cada caso de estos merece un estudio por separado.2). A1 x + B1 y + C1 = 0 E1 . Represente en el plano algunas parejas de puntos de la Tabla (1. o Nota: Observe que todo punto soluci´n est´ sobre la recta. ¿C´mo determinamos la soluci´n?. 1. x 3. la soluci´n es unica. Est´ claro que queremos determinar o o a las coordenadas del punto (x. . ya que las rectas no o ´ se vuelve a ”cortar”.3 0. Sabemos del curso de geometr´ anal´ a ıa ıtica en IR2 . Una manera de hacerlo es analizando que ocurre gr´ficamente. 3 c) y = 0. A2 x + B2 y + C2 = 0 E2 De nueva cuenta. En el caso de que las rectas se intersecta en un punto. 1 b) − 2 x − 1 y = 1. y) que es com´n en ambas rectas o que satisface a la ecuaci´n u o de ambas. Bosqueje la gr´fica de la ecuaci´n 2y + 3x − 5 = 0.2.5 Ejercicios: 1.7 7 2. que las posiciones relativas de dos rectas en el plano son las que sepresentan en la Figura (1.´ 1. RESOLUCION DE UN SISTEMA DE ECUACIONES LINEALES Tabla 1. ¿c´mo podemos bosquejar el conjunto de pares (x.

Veamos si el sistema x + 2y = 3 2x − 2y = 8 E1 . se puede obo ´ o a servar que las rectas se intersectan en un s´lo punto. Figura(1. E2 tiene soluci´n unica.2). Figura 1. de donde se deduce que el sistema de o ecuaciones tiene soluci´n unica. o a .8 y E1 y CAP´ ITULO 1. PRELIMINARES E1 E2 punto común E2 no hay puntos comunes 0 x 0 x a) Que se intersectan en un punto. o ´ y E2 0 x punto común E1 Figura 1.2.2: Representaci´n gr´fica de un sistema de ecuaciones. y E1=E2 todos los puntos son comunes 0 x c) Que sean coincidentes. Ejemplo 1.1. b) Que sean paralelas. Auxiliandonos de la representaci´n gr´fica.1: Posiciones relativas de dos rectas en el plano.

el cual fue escrito al rededor e del a˜o 200 antes de cristo. respectivamente. cada atado de una cosecha mediocre. tres atados de una mediocre. Al inicio del Cap´ n ıtulo VIII aparece un problema. mediocre y mala.Cap´ ıtulo 2 Ecuaciones lineales 2. Los primeros registros de an´lisis de ecuaciones simultaneas son encontrados en el antiguo libro a chino Chiu-chang Suan-shu(Nueve capitulos sobre Aritm´tica). donde las varas de colores son remplazadas por n´meros y la tabla de conteo es u 9 . El estudio de un sistema de ecuaciones lineaa o les simultaneas esta naturalmente ligado con el estudio de arreglos rect´ngulares de n´meros a u definidos por los coeficientes de las ecuaciones. Dos atados de una buena. Sus t´cnicas de la tabla e de conteo y las reglas del dedo pulgar encuentran utilidad en Japon y eventualmente aparecen en Europa. y cada atado de una cosecha mala? En la actualidad. a saber buena. y tres atados de una mala se venden por 26 dou. este problema ser´ formulado como tres ecuaciones en tres incognitas ıa 3x + 2y + z = 39 2x + 3y + z = 34 x + 2y + 3z = 26 donde x. y. y z representan el precio para cada uno de los atados de las tres diferentes cosechas. Los chinos dieron con la parte medular de la materia.1 Introducci´n o Un problema fundamental el cual aparece en todas las ciencias matem´ticas es el de an´lizar y a a resolver m ecuaciones ´lgebraicas en n inc´gnitas. dos atados de una cosecha mediocre. el cual tiene la siguiente forma: Tres atados de una cosecha buena. ¿Qu´ precio se recibe por cada e atado de una cosecha buena. dos atados de una mediocre. y un atado de una buena. y un atado de una mala se venden por 34 dou. Ellos colocaron los coeficientes (representados por varas de bamb´ coloreadas) de u este sistema en un arreglo cuadrado sobre una ”tabla de conteo” y entonces manipularon las lineas de los arreglos de acuerdo a las reglas prescritas del dedo pulgar. y un atado de una cosecha mala se venden por 39 dou.

am1 x1 + am2 x2 + .2 Eliminacion gausiana El problema es calcular.10 CAP´ ITULO 2. La eliminaci´n se realiza mediante tres operaciones simples que transforman al a o o sistema en otro equivalente. Para un sistema lineal S cada una de las siguientes tres operaciones elementales origina un sistema equivalente S . .  . pero mas simple (dos sistemas son equivalentes si pose´n el mismo cone junto de soluciones) mediante la eliminacion de inc´gnitas y arreglando un sistema que es de o f´cil soluci´n... En Europa. . La eliminacion gaussiana es una herramienta que puede ser usada para cumplir estos objetivos. a 3) Infinitas soluciones: hay una infinidad de diferentes conjuntos de valores para los xi s que satisfacen simult´neamente todas las ecuaciones. a Una parte del trabajo es identificar cual de estas posibilidades es verdadera para un sistema en particular.. + a2n xn . As´ el sistema ser´ ı ıa:   E1    E2 S= . si es posible. . Para cualquier sistema. a o e 2. la otra parte es calcular el conjunto de soluciones. = b1 = b2 . La eliminaci´n gaussiana es un procedimiento met´dico que transforma un sistema en otro o o sistema equivalente. . + amn xn = bm donde las xi s son inc´gnitas y las aij s y bi s son constantes conocidas. una soluci´n com´n para un sistema de m ecuaciones o u lineales con n inc´gnitas o a11 x1 + a12 x2 + . quien populariz´ el m´todo..  .. Las aij s son llamadas o los coeficientes del sistema y el conjunto de las bi s es referido como el lado derecho del sistema. existen tres posibilidades para el conjunto de soluciones: 1) Soluci´n unica: hay un s´lo cojunto de valores para los xi s que satisfacen todas las o ´ o ecuaciones simult´neamente..   Em          . .. a 2) No hay soluci´n: no hay un conjunto de valores para los xi s los cuales satisfagan o todas las ecuaciones simult´neamente. ECUACIONES LINEALES remplazada por papel y lapiz. Para describir estas operaciones definamos a Ek como la k-´sima e ecuaci´n: o Ek : ak1 x1 + . la t´cnica llega a ser conocida como Eliminaci´n e o Gaussiana en honor al matem´tico aleman Carl Gauss. + akn xn = bk . + a1n xn a21 x1 + a22 x2 + ..

4) .1.  . S=  . .  .1) 2) Remplazar la i-´sima ecuaci´n por un m´ltiplo de si misma.   .2) 3) Remplazar la j-´sima ecuaci´n por una combinaci´n de si misma m´s un m´ltiplo de la e o o a u i-´sima ecuaci´n.  αEi S =  .esto es: e o u   E1   . −2x + 2y + z = 7 tal sistema ser´ de utilidad para ejemplificar la eliminaci´n gaussiana. Considere el sistema cuadrado : 2x + y + z = 1 6x + 2y + z = −1 .       Em                          .       Em El problema m´s com´n que se tiene en la pr´ctica es aquel en que se tiene n ecuaciones con a u a n inc´gnitas.     Ei       .   .         Ei     .   . . o ´ o Ejemplo 2.   .  .  .   .   .   .     Ej   .    Em                donde α = 0.      Ej + αEi          . ELIMINACION GAUSIANA 1) Intercambiar la i-´sima y j-´sima ecuaci´n.    Em                E1   . si e e o   E1   .     . .   .   Ej    . . distinto de cero.     Ei   .3) S = . llamado sistema cuadrado.   . Esto es: e o   E1         .2. (2. entonces S =   .2. .   . Esto es. 11 (2. a o (2. (2. para el cual hay una unica soluci´n.  .2.

En este ejemplo. • El siguiente pivote se seleciona moviendose a la siguiente ecuaci´n y al segundo coeficiente o de esta. entonces la ecuaci´n pivotal es intercambiada o o con otra ecuaci´n de bajo de la ecuaci´n pivotal que produzca un pivote distinto de cero. lo cual produce el sistema equivalente: o (2)x + y + z = −2x + 2y + z = 1 (E2 − 3E1 ) 7 −y − 2z = −4 • Sumando la primera ecuaci´n y la tercera se tiene el sistema equivalente: o (2)x + y + z = 3y + 2z = 1 8 (E3 + E1 ) −y − 2z = −4 Paso 2: Seleccionar un nuevo pivote. El coeficiente e o en la posici´n pivote es llamado pivote mientras la ecuaci´n donde esta el pivote es referida o o como la ecuaci´n pivotal. Por o o ejemplo. Si este es distinto de cero entonces es el nuevo pivote. el nuevo pivote es −4. De otra forma se intercambia esta ecuaci´n por otra de bajo de ella. la estrategia es ubicarnos en una posici´n llamada posici´n pivote y eliminar too o dos los t´rminos debajo de esta posici´n usando las tres operaciones elementales. .5) (E3 + 3E2 ) (−1)y − 2z = −4 −4z = −4 • En general. En este o ejemplo el nuevo pivote es el −1 2x + y + z = 3y + 2z = 1 8 (−1)y − 2z = −4 Paso 3: Eliminar todos los t´rminos de bajo del segundo pivote. el par´ntesis (2) en el anterior sistema indica el pivote. pero dado que no hay ı elementos por eliminarse de bajo del pivote.12 CAP´ ITULO 2. esto es: e (2)x + y + z = 1 6x + 2y + z = −1 −2x + 2y + z = 7 Paso 1: Eliminar todos los t´rminos de bajo del primer pivote. entonces el procedimiento esta completo. e • Sustraer tres veces la primera ecuaci´n de la segunda. lo cual produce el sistema equio o valente: 2x + y + z = 1 (2. cuyo segundo coeficiente es distinto de cero. e • Sumar tres veces la segunda ecuaci´n a la tercer ecuaci´n. S´lo n´meros distintos de cero pueden ser considerados pivotes. si o o u un coeficiente en una posici´n pivotal es cero. en cada paso se debe de mover a la siguiente ecuaci´n y colocarse en un nuevo o pivote y as´ sucesivamente. ECUACIONES LINEALES En cada paso.

”y”.2. entonces un sistema de ecuaciones lineales se reduce a un arreglo rectangular de n´meros en el que cada fila u representa una ecuaci´n.. El s´ ımbolo Ai denotar´ al i-´simo regl´n y Aj denotar´ a la j-´sima columna. Por ejemplo. el sistema (2.5) se tiene que x = −1. As´ el conjunto o ı. Si tales s´ ´ ımbolos son eliminados... si tiene ex´ctamente m reglones y n columnas. por ejemplo. Y finalmente. −7 El arreglo de coeficientes es llamado matriz de coeficientes. . Un sistema triangular es f´cil a de resolver por un m´todo conocido como sustituci´n inversa. Denotaremos a las matrices con letras may´sculas y a los escalares con letras u minusculas. si a e o a e A es la matriz en (2. .6) A =  8 6 5 −9  . El arreglo que contiene los coeficientes del sistema y la parte derecha del sistema es llamado matriz aumentada. Por ejemplo si la n a matriz A es   2 1 3 4 (2.. entonces . . n. y = 2. Por ejemplo   a11 a12 · · · a1n  a21 a22 · · · a2n    A=  . 2. .2. o Note que no tiene sentido colocar los s´ ımbolos ”x”. z = 1}.   . .5) se tiene que y = 2. soluci´n del sistema es {x = −1. en la cual la ultima ecuaci´n e o ´ o es resuelta y el resultado sustituye a la inc´gnita en la ecuaci´n anterior y as´ sucesivamente o o ı hasta determinar el conjunto de soluciones del sistema.. En este ejemplo se tiene que: z=1 y sustituyendo este valor en la segunda ecuaci´n de (2. o sustituyendo y y z en la primera ecuaci´n de (2. un escalar es un n´mero real o complejo y una matriz es un arreglo rect´ngular u a de escalares.. ELIMINACION GAUSIANA 13 En este punto decimos que el sistema ha sido triangularizado. . La matriz A se dice que tiene tama˜o u orden m × n. . entonces [A|b] denotar´ a la matriz aumentada. ”z” y ”=” en cada paso dado que unicamente manipulamos los coeficientes. −3 8 3 7 entonces el orden de tal matriz es 3 × 4.6). 2. . am1 am2 · · · amn denota la matriz A con escalares aij . i = 1. Si la matriz de coeficientes es denotada por A y la parte derecha del sistema por b. . .  . m y j = 1.. Formalmente.4) se reduce al arreglo: o  2 1 1  6 2 1 −2 2 1  1 1 .

.   .   . = b1 = b2 .14 CAP´ ITULO 2..   αM  α=0 i    .   . Mm (1) Intercambiar los reglones i-´simo y j-´simo de M esto es: e e   M1  .  . . 8  A2 = 8 6 5 −9 Para un sistema lineal de ecuaciones a11 x1 + a12 x2 + .   .  . + a2n xn .7) (2.  . + amn xn = bm la eliminaci´n gaussiana puede ser ejecutada sobre la matriz aumentada [A|b] realizando las o operaciones elementales (2.  M =  .   M  j    .3). . (2. + a1n xn a21 x1 + a22 x2 + .   .   .   . las tres operaciones elementales de M son:  .   .. Mm (2) Remplazar el i-´simo regl´n de M por un m´ltiplo distinto de cero de si mismo.8) .  . .   . e o u   M1  . am1 x1 + am2 x2 + .2) y (2. .. ECUACIONES LINEALES  1 y A2 =  6  .   M  i    .... As´ para una matriz m × n (denotaremos M ∈ IRm×n ) ı.1).   M1  .   M  j    .    M  i    . Mm (2.   .

. si      a11 a21 . . . a12 a22 ..3 M´todo de Gauss-Jordan e El m´todo de Gauss-Jordan es una variaci´n de la eliminaci´n gaussiana. Esto es. ıa o 2. • En cada paso los elementos que estan por abajo y por arriba del pivote son eliminados. (2. Mm As´ para resolver el sistema (2.   .    M + αM  i   j   . . . METODO DE GAUSS-JORDAN 15 (3) Remplazar el j-´simo regl´n de M por una combinaci´n de si mismo m´s un m´ltiplo e o o a u distinto de cero del i-´simo regl´n.´ 2. amn b1 b2 . se proceder´ de la siguiente forma : ıa  (2) 1 1  6 2 1 −2 2 1   1 2 1 1 −1  R2 − 3R1 →  0 −1 −2 7 R3 − R1 0 3 2  2 1 1  0 −1 −2 → 0 0 −4  1 −4  8 R3 + 3R2  1 −4 . .     Mi     . ··· ··· .3. (1). . el pivote es forsado a ser uno. bn      am1 am2 · · · . . Las dos carace o o ter´ ısticas que distiguen al m´todo de Gauss-Jordan con la eliminaci´n gaussiana son las siguie o entes: • En cada caso. e o   M1   . −4 El arreglo final representa al sistema triangular 2x + y + z = 1 − y − 2z = −4 − 4z = −4 el cual se resolver´ mediante la sustituci´n inversa.9)   . .   . . aumentada [A|b]. a1n a2n .4) usando operaciones elementales de reglones. de la matriz ı. . .

. x3 1 . . la soluci´n es o   2 6  R2 − 2R1 −1 R3 + 2R1  2 R1 − R2 −2  3 R3 + 4R2  4 R1 − 4R3 −2  R2 + R3 1 1 3 1 7 −6 −7 1 3 1 −1 −4 −1 0 4 1 −1 0 1    x1 0  x2  =  −1  .3. . . Aplicar el m´todo Gauss-Jordan para resolver el siguiente sistema e 2x1 + 2x2 + 6x3 = 4 2x1 + x2 + 7x3 = 6 −2x1 − 6x2 − 7x3 = −1 Soluci´n: o    (2) 2 6 4 R1 /2 (1)  2 1 7 6  → 2 −2 −6 −7 −1 −2    1 1 3 2 1 1 2  R2 / − 1 →  0 →  0 −1 0 −4 −1 3 0    1 0 4 4 1 −2  →  0 1 −1 → 0 0 0 −5 −5 R3 / − 5 0   1 0 0 0 −1  .1. a Ejemplo 2. . . . . . son usadas para reducir a esta matriz en  1 0 ··· 0 s1  0 1 ··· 0 s2   . .16 CAP´ ITULO 2.  .. . ECUACIONES LINEALES entonces las operaciones elementales      es la matriz aumentada asociada con el sistema lineal. 0 0 ··· 1 sn As´ las soluciones del sistema ser´ el conjunto de las si s. . → 0 1 0 0 0 1 1 Por tanto. ı.

. Si sabemos que m = n entonces el sistema se dice que es rectangular. En cambio. . o tri´ngular. en un sistema rectangular no es posible que los pivotes esten sobre la diagonal principal de la matriz de coeficientes .. + a1n xn a21 x1 + a22 x2 + . e o Note que para un sistema cuadrado con soluci´n unica. considere el siguiente sistema : a x1 + 2x2 + x3 + 3x4 + 3x5 2x1 + 4x2 + 4x4 + 4x5 x1 + 2x2 + 3x3 + 5x4 + 5x5 2x1 + 4x2 + 4x4 + 7x5 17 =5 =6 . . . =9 =9 . am1 x1 + am2 x2 + . El primer objetivo es extender la t´cnica de eliminaci´n Gaussiana a sistemas rectangulares.1 Forma Escalonada por Renglones y Rango Ahora estamos interesados en analizar sistemas lineales m´s generales que consisten de m a ecuaciones y n incognitas. + a2n xn . pues nisiquiera existe tal diagonal. . a11 x1 + a12 x2 + .. = b1 = b2 . .. Por ejemplo. los pivotes se encuentran sobre la o ´ diagonal principal de la matriz (la diagonal formada de la esquina superior izquierda a la esquina inferior derecha)..Cap´ ıtulo 3 Sistemas Rect´ngulares y Formas a Escalonadas 3.. + amn xn = bm donde m puede ser diferente de n. As´ la eliminaci´n Gaussiana en un sistema rectangular no tiene como resultado una forma ı.

es claro que u a es imposible hacer que en la posici´n (2. que se encuentre debajo de ´l. Suponga que U es la matriz aumentada asociada al sistema despues de que los i − 1 pasos de eliminacion han sido completados para ejecutar el i − esimo paso . o e As´ el procedimiento de eliminacion Gaussiana es modificado como sigue: ı. e o 4. Si el renglon Ui como todo los renglones de U de bajo de Ui son ceros entonces el procedimiento termina. Sin embargo. la estrategia es moverse hacia a bajo y a la derecha. 2. El pivote para el i − esimo paso ser´ Uij . Si es necesario cambie el i-´simo rengl´n por otro que. Aplicar la eliminaci´n Gaussiana modificada para la siguiente matriz. digamos Uj . 2 4 0 4 7 . ´ a 3. tenga una entrada e o e ∗ distinta de cero y entonces Uij sera su pivote.1. o   1 2 1 3 3  2 4 0 4 4   A=  1 2 3 5 5 . el procedimiento es: ´ 1. 5  7 el lado derecho. en este ejemplo. el cual ser´ el nuevo pivote. buscando que en esta posici´n se tenga un o e o n´mero distinto de cero. de bajo de ´l. SISTEMAS RECTANGULARES Y FORMAS ESCALONADAS Pongamos atencion en la matriz de coeficientes  1 2  2 4 A=  1 2 2 4 e ignoremos por un momento obtiene el siguiente resultado:  1 2  2 4   1 2 2 4 1 0 3 0 3 4 5 4  3 4  . 2) se tenga un n´mero distinto de cero al intercambiar o u el segundo rengl´n por otro debajo de ´l. Ejemplo 3. donde U ∗ es la matriz U modificada al cambiar el i-´simo rengl´n del sistema. ubicandose en la primera columna que contiene una entrada distinta de cero.18 ´ CAP´ ITULO 3. Moverse de izquierda a derecha en U . Si se tiene un cero en esta posici´n este rengl´n es intercambiado o a o o por otro rengl´n.1. a la o a posici´n pivotal m´s proxima. Aplicando la eliminaci´n gaussiana a A se o 1 0 3 0 3 4 5 4    1 2 1 3 3 3   4   →  0 0 −2 −2 −2   0 0 2  2 2  5 0 0 −2 −2 1 7 En el proceso de eliminaci´n b´sico.

3.2 (Rango de una matriz).1. Si una matriz A es reducida a su forma escalono ada por renglones E.1. que el n´mero de pivotes -el cual es el n´mero de renglones u u distintos de cero en E. ´ Definici´n 3. a . E es unica en el ´ ´ sentido de que las posiciones de los pivotes en E (y A). De esto se sigue. no es unica. son determinadas de forma unica por ´ la entradas de A. a Definici´n 3. entonces las columnas b´sicas de A son definidas como aquellas columnas a en A las cuales contienen los pivotes. entonces todos los renglones de bajo de Ei son cero. 3 6 3 4  e identifique las columnas b´sicas de A.  Note que el resultado final no es una forma triangular pura.2. Sin embargo.es determinado de forma unica por las entradas de A. entonces la forma escalonada por renglones E. FORMA ESCALONADA POR RENGLONES Y RANGO Solucion:  1  2   1 2    3 3  4 4  →   5 5 4 7 1 3 3 −2 −2 −2 0 0 3 0 0 0    2 1 3 3 1 2 1 3 3   0 −2 −2 −2   →  0 0 −2 −2 −2    0 0 0 0 2 2 2 0 0  0 −2 −2 1 0 0 0 0 3 19 2 4 2 4 1  0 →  0 0 1 0 3 0 2 0 0 0 1 0 0 0   . Tal estructura recibe el nombre de forma escalonada por renglones. ii) Si la primera entrada distinta de cero de Ei se encuentra en la j-´sima posici´n. asociada a A. Una matriz E ∈ IRm×n con renglones Ei y columnas Ej se dice que es una o forma escalonada por renglones si satisface lo siguiente: i) Si Ei consiste de entradas ceros .1. e o Debido a la libertad que uno tiene en aplicar operaciones elementales en una matriz A. a Ejemplo 3. Determine el rango de  1 2 1 1 A =  2 4 2 2 .1. entonces e o todas las entradas por de bajo de la ij-´sima posici´n son cero. si no que es parecida a una forma tri´ngular. El n´mero u r = n´mero de pivotes u = n´mero de renglones distintos de cero de E u = n´mero de columnas basicas de A u es llamado el rango de A y se denotar´ por r(A).1.

a Por ejemplo:  1  2 A=  1 2  1 2  0 0 →  0 0 0 0 2 4 2 4 0 1 0 0 1 0 3 0 2 1 0 0 3 4 5 4 2 1 3 0   3  4  →   5 7   1   0 →   0 0 1 0 0 0 2 0 0 0   2 1 3 3 1  0 0 −2 −2 −2  →  0 0 2 2 2  0 −2 −2 1 0  0 2 2 1 2 0 2 1 1 1  0 0 1 1  0 0 1  0 0 0 0 0 0 0 0 0 0 0 2 0 0 1 0 0 0 0  0 0  . para obtener la soluci´n del sistema asociado a la matriz. la cual es una forma escalonada por renglones reducida. cada pivote) es 1. Para la matriz 1  2 A=  3 1  2 4 6 2 2 4 6 4 3 6 9 5  1 2  . En el caso de sistemas rect´ngulares se producen entradas distintas o a de cero en las columnas no b´sicas de la matriz. a una matriz diagonal con e estradas 1. Esto sucede en un sistema o cuadrado con una soluci´n.  2  a   3 4 3.2.1 (Forma escalonada por renglones reducida). Todas las entradas de bajo del pivote son cero. EA es una forma escalonada por renglones 2.2 Forma Escalonada por Renglones Reducida Note que el m´todo de Gauss-Jordan transforma a una matriz A. o 3.. Si una matriz A es transformada por una sucesi´n de operaciones elementales a una matriz o EA .e.1. 0 0 1 0 0 0 0 Soluci´n: reducir o  1 2  2 4 A= 3 6 As´ el r(A) = 2 y las columnas b´sicas de A son : ı. entonces cada entrada de EA es determinada de forma unica por las entradas de A. ´ Ejemplo 3. SISTEMAS RECTANGULARES Y FORMAS ESCALONADAS a 1 2 3 A en su forma   1 1 → 0 2 4 0 escalonada por renglones como sigue:   2 1 1 1 2 1 1 0 0 0  →  0 0 0 1  = E. 6  3 . a     1   1 columnas b´sicas de A =  2  . 1  0 2 1 0 0  2 1   0  3 Definici´n 3. Una matriz EA ∈ IRm×n o se dice que es una forma escalonada por renglones reducida si satisface lo siguiente: 1. La primera entrada en cada rengl´n (i.2.20 ´ CAP´ ITULO 3.

. 0   µ1 µ2 . exactamente las mismas relaciones que en EA . note que: a A2 = 2A1 .. . . . . . y las columnas b´sicas de A.  . . . E2 = 2E1 y E4 = E1 + E3 . 0   0 1 . 0   0 0 . a Soluci´n: o 1  2   3 1  21 2 4 6 2 1  0 →  0 0 2 4 6 4 2 0 0 0 3 6 9 5 0 1 0 0 1 2 6 3 1 1 0 0    1 2 2 3 1     → 0 0 0 0 0 →   0 0 0 0 3   0 0 2 2 2    1 2 0 1 0 −1   1  → 0 0 1 1 0   0 0 0 0 1   3 0 0 0 0 0 0  1 0 0 0 2 0 0 0 2 2 0 0 3 2 0 0  1 2   3  0 Por tanto el r(A) = 3 y las columnas b´sicas de A son: a    2  1      2 . µj .. 4  3   6   1 4  1     2  . . y A4 = A1 + A3 . . Esto es a Ek = µ1 Eb1 + µ2 Eb2 + .. . + µj Ebj      = µ1      1 0 . r(A). . .              + µ2                   + . Esto es. . 0 . 0      . 1.3.2. Cada columna no b´sica Ek de EA es una combinaci´n lineal -una suma de multiplosa o de las columnas b´sicas de EA .. . . + µj                  =         Donde las Ebi s son las columnas b´sicas que generan a Ek y donde los m´ltiplos µi son a u las primeras j entradas en Ek . FORMA ESCALONADA POR RENGLONES REDUCIDA determine EA . 0 .   6    3   Note que el ejemplo anterior ilustra una caracter´ ıstica importante de EA y explica por que las columnas con pivote de A son llamadas columnas b´sicas. . As´ ı. 1 .

as´ o ı    2 −4 −8 6 3 1 −2 −4  0 → 0 1 3 2 3 1 3 A= 3 −2 0 0 8 3 −2 0    15 1 0 2 7 1 0 2 0 2 2 3 → 0 1 3 0 → 0 1 3 0 0 0 −17 −17 0 0 0 1 2 Entonces E3 = 2E1 + 3E2 y E5 = 4E1 + 2E2 + 1 E3 ... + µj Abj . SISTEMAS RECTANGULARES Y FORMAS ESCALONADAS 2. . . a   3 3 1 −2 −4 3 2 → 0 2 3 1 3 2 0 8 0 4 12 −9  4 2  = EA 1 2 3 2 7 2  3  3. Escribir cada columna no b´sica de a   2 −4 −8 6 3 1 3 2 3 . A= 0 3 −2 0 0 8 como una combinaci´n lineal de las columnas b´sicas.. am1 x1 + am2 x2 + . . entonces Ak = µ1 Ab1 + µ2 Ab2 + . A3 = 2A1 + 3A2 y A5 = 4A1 + 2A2 + 1 A3 . + a1n xn = b1 a21 x1 + a22 x2 + . . + a2n xn = b2 . o Ejemplo 3.2. o a Soluci´n: Primero transformamos a A en EA .. las primeras j entradas en Ek . la utilidad de EA recae en la habilidad de revelar dependencias en los datos de las columnas de A.22 ´ CAP´ ITULO 3.3... 2 Y as´ ı. . .2. donde las Abi s son las columnas basicas que generan a Ak y donde los µi son los mismos que los de la combinaci´n anterior. si Ak es una columna no b´sica en a A.. En particular. Un sistema de m ecuaciones o con n incognitas a11 x1 + a12 x2 + ..1 (Sistemas consistentes e inconsistentes). Las relaciones que existen entre las columnas de A son exactamente las mismas relaciones que existen entre las columnas de EA . Las columnas no b´sicas en A representan informaci´n redundante en el a o sentido de que ´sta informaci´n puede ser expresada en t´rminos de los datos contenidos en e o e las columnas b´sicas. + amn xn = bm .3 Consistencia de Modelos Lineales Definici´n 3. 2 En resumen.

o o o As´ si un sistema es inconsistente. Determine si el siguiente sistema es consistente 2x + y + 2z = 1 2x + y + 3z = 2 4x + 2y + 6z = 3 Soluci´n: Aplicando o  2 1 [A |b ] =  2 1 4 2 la eliminacion Gaussiana   2 1 2 2 1 3 2 → 0 0 1 0 0 2 6 3 a la matriz asociada al sistema se tiene    1 2 1 2 1 1  1 → 0 0 1 0 0 0 −1 1 El ultimo rengl´n del paso final refleja que el sistema es inconsistente. entonces tal ecuaci´n asociada a este rengl´n no tiene soluci´n.es evidente. entonces en alg´n paso del proceso de eliminaci´n se genera ı.3. ´ o r (A |b ) = 3 = 2 = r (A) refleja la inconsistencia del sistema. a una matriz [E|c]. entonces se o dice que el sistema es inconsistente. Si no tiene soluciones.1)no puede ocurrir. entonces la consistencia -o falta de ella. supongase que en alg´n u paso del proceso se origina un rengl´n de la forma o (0 0 · · · 0|α). (3. Si la matriz aumentada [A|b] es reducida. a Decir que b es una columna no b´sica de [A|b] equivale a decir que todas las columnas b´sicas a a de [A|b] estan en la matriz de coeficientes A. con α = 0. de esto se sigue que un sistema es consistente si y s´lo si el lado derecho b a o es una combinaci´n de las columnas de A. o Ejemplo 3. y as´ el sistema es consistente ya que ´ ı. Una de ellas es observar que si la ultima columna b de la matriz aumentada [A|b] es una columna no b´sica. ya que un sistema consistente se caraceriza por que el lado derecho b es una columna no b´sica. (3. u o un rengl´n de la forma o (0 0 · · · 0|α) . mediante operaciones elementales de renglones.3. . en otras palabras .1) Hay otras formas de caracterizar la consistencia (o inconsistencia)de un sistema. Alternativamente. Dado que el n´mero de columnas b´sicas de una u a matriz es el rango.3. la consistencia tambien puede ser caracterizada de la siguiente forma. CONSISTENCIA DE MODELOS LINEALES 23 se dice que es consistente si al menos tiene una soluci´n. un sistema es consistente si y s´lo si b es una o columna no b´sica de [A|b]. ´ a entonces no puede existir pivote en la ultima columna.1. o Por otro lado. un sistema es consistente si y s´lo si r[A|b] = r[A]. conα = 0.

pues las operaciones elementales no afectan a la ultima columna de [A|0]. entonces es consistente. . .1 (Sistemas homogeneos y no homogeneos). .4. −3x3 − 3x4 = 0. Si al menos una entrada es distinta de cero. o o la pregunta natural ser´ ¿existe alguna otra soluci´n del sistema. . SISTEMAS RECTANGULARES Y FORMAS ESCALONADAS 3.. = xn = 0. Examinemos las soluciones del sistema homogeneo x1 + 2x2 + 2x3 + 3x4 = 0 2x1 + 4x2 + x3 + 3x4 = 0 . se obtiene una matriz [E|0]. entonces se llamar´ sistema no homogeneo.. de donde x3 = −x4 y x1 + 2x2 + 2x3 + 3x4 = x1 + 2x2 + 2(−x4 ) + 3x4 = x1 + 2x2 + x4 = 0. Tal soluci´n es conocida como la soluci´n trivial del sistema. o asociada al sistema. da ´ lo mismo trabajar con la matriz de coeficiente A.24 ´ CAP´ ITULO 3. se dice que es un sistema homogeneo. am1 x1 + am2 x2 + . o antes. + amn xn = 0 cuyo lado derecho consiste en entradas de 0 s. . + a1n xn = 0 a21 x1 + a22 x2 + . a Dado que un sistema homogeneo se resuelve para x1 = x2 = . o a Note que al aplicar el procedimiento de eliminaci´n Gaussiana a la matriz aumentada [A|0].4 Sistemas Homogeneos Definici´n 3. .. Veamos un ejemplo. de donde x1 = −2x2 − x4 . Por tanto. la eliminaci´n Gaussiana dar´ respuesta a esta pregunta. que no sea la trivial?. la cual corresponde a la parte derecha del sistema. Como ıa. que con la matriz aumentada [A|0]... + a2n xn = 0 . 3x1 + 6x2 + x3 + 4x4 = 0 Reduciendo la matriz de coeficientes a una forma escalonada.. Un sistema de m ecuaciones o y n de incognitas a11 x1 + a12 x2 + . .. Ahora.       1 2 2 3 1 2 2 3 1 2 2 3 A =  2 4 1 3  →  0 0 −3 −3  →  0 0 −3 −3  = E 0 0 0 0 0 0 −5 −5 3 6 1 4 As´ ı.. y llevarla a una matriz escalonada E y al realizar sustituci´n regresiva recordar que el lado derecho son o entradas cero.

pues una soluci´n ser´ a o ıa x1 = 0.. entonces es obvio que se tienen r variables base y n − r variables libres.... . 0 1 El hecho de h1 y h2 sean soluciones es claro. SISTEMAS HOMOGENEOS 25 Note que las variables x2 y x4 no estan sujetas a nada.4. + amn xn = 0 de m ecuaciones y n incognitas. Esta expresi´n pone enfasis en que cada soluci´n es una combinaci´n de dos soluciones particulares o o o     −2 −1  1   0     h1 =   0  y h2 =  −1  . no es la o m´s adecuada. . . =0 =0 . .. Por tal motivo. La forma en la cual se expresa la soluci´n (o soluciones) del sistema. x3 = 2. x2 = 1. As´ . y es fastidioso escribir de esta forma soluciones particulares... x4 = −2. + a1n xn a21 x1 + a22 x2 + . . por que h1 es producido cuando x4 = 0 y x2 = 1. hn−r son columnas n × 1 las cuales representan soluciones particulares del sistema. lo conveniente ser´ escribir la ıa soluci´n general que produce cualquier soluci´n particular..3. o la cual tiene la forma x = xf1 h1 + xf2 h2 + . estas variables ser´n llamadas variables libres... . . Observe que hay distintas formas de elegir a las variables base. en el ejemplo. + xfn−r hn−r (3. xfn−r son las variables libres y h1 . Las variables que toman a valores dependiendo de las variables libres. am1 x1 + am2 x2 + . y por tanto pueden tomar cualquier valor. Ahora consideremos el sistema homogeneo general a11 x1 + a12 x2 + . Reduciendo a A en una forma escalonada usando la eliminaci´n Gaussiana y despues usando la sustituci´n regresiva para o o expresar las variables base en terminos de las variables libres se produce la soluci´n general.. y por consiguiente a las variables libres.. + a2n xn . seran llamadas variables base. Aqu´ ı convenimos seleccionar a las variables base como aquellas que corresponden a las posiciones de los pivotes. Si la matriz de coeficientes es tal que r(A) = r.. mientras que h2 es generado cuando x2 = 0 y x4 = 1.2) Donde xf1 . En el ejemplo x1 y x3 son las variables base. . =   −1   0    x3   −x4 1 0 x4 x4 con lo que se entiende que x2 y x4 son las variables las cuales pueden tomar cualquier valor.. es mas conveniente escribir o o ı         −1 −2 −2x2 − x4 x1       x2   x2  = x2  1  + x4  0  .

la cual aparece en (3. Para describir el conjunto de todas las posibles soluciones de un sistema homogeneo consistente. entonces el enunciado anterior u puede ser reformulado por: un sistema homogeneo posee una soluci´n unica. Usar la eliminaci´n Gaussiana para reducir la matriz aumentada [A|b] a una matriz [E|c]. para al menos un i... o o si y s´lo si r(A) = n. xfn−r son las variables libres y p. o donde E es una forma escalonada asociada a A.2). (3. . o La diferencia entre la soluci´n general de un sistema homogeneo y uno no homogeneo es la o columna p.3) donde xf1 . La respuesta se obtiene de la soluci´n general (3.. . 3. Note que si al menos o en (3. hn−r son columnas n × 1.2) se tiene una variable libre entonces se generan infinidad de soluciones. Aplicar sustituci´n regresiva a [E|c] y resolver para las variables base en terminos de las o variables libres. Escribir el resultado en la forma x = p + xf1 h1 + .3)... 3x1 + 6x2 + x3 + 4x4 = 7 . la soluci´n trivial es la unica soluci´n s´ y s´lo s´ no hay variables libres. = b1 = b2 . Como los sistemas homogeneos. .26 ´ CAP´ ITULO 3. donde r(A) = r.. un sistema no homogeneo puede ser consistente. las cuales son soluciones particulares. Identificar las variables base y las variables libres. la soluci´n trivial. Veamos por que aparece p considerando el sistema no homogeneo x1 + 2x2 + 2x3 + 3x4 = 4 2x1 + 4x2 + x3 + 3x4 = 5 . ... . h. . 2. Como el o o ı o ı n´mero de variables libres es dado por n − r.xfn−r hn−r .. El sistema am1 x1 + am2 x2 + .. o 3. SISTEMAS RECTANGULARES Y FORMAS ESCALONADAS Ahora. regresemos a la pregunta ¿cu´ndo la soluci´n trivial no es la unica soluci´n para un a o ´ o sistema homogeneo?. + a1n xn a21 x1 + a22 x2 + .... . Esta el la soluci´n general de los sistemas no homogeneos. + amn xn = bm es no homogeneo si bi = 0. construimos una soluci´n general usando el mismo m´todo o e que utilizamos para los sistemas homogeneos. Consecuentemente. 4. Esto es: 1. + a2n xn .5 Sistemas no Homogeneos a11 x1 + a12 x2 + ..

Por tanto decimos que la soluci´n general de un sistema no homogeneo es dada por una soluci´n o o particular p. Adem´s la soluci´n del sistema homogeneo a o x1 + 2x2 + 2x3 + 3x4 = 0 2x1 + 4x2 + x3 + 3x4 = 0 . m´s la soluci´n general del sistema homogeneo asociado.3. se produce: x1 = 2 − 2x2 − x4 x3 = 1 − x4 As´ soluci´n ı. SISTEMAS NO HOMOGENEOS cuya matriz de coeficientes es la misma que la del sistema de la secci´n anterior. 3x1 + 6x2 + x3 + 4x4 = 0 Es:      −2x2 − x4 −2 −1       x2   = x2  1  + x4  0   1 − x4   0   −1  x4 0 1  Tales soluciones del sistema no homogeneo y del sistema homogeneo. Se sabe a o ´ que la soluci´n general de un sistema no homogeneo consistente [A|b] con r(A) = r es dada o por : . solo difieren en p. a o Ahora respondamos la pregunta ¿cu´ndo un sistema consistente tiene soluci´n unica?. o Usando el metodo de Gauss-Jordan se tiene    1 2 2 3 4 1 2 0 1  2 4 1 3 5 → 0 0 1 1 [A|b] = 3 6 4 7 7 0 0 0 0  2 1  = E[A|b ] 0 27 Entonces: x1 + 2x2 + x4 = 2 x3 + x4 = 1 Resolviendo para las columnas base x1 y x3 en terminos de las variables libre x2 y x4 .5. la  o general es: x1 2 − 2x2 − x4  x2   x2     x3  =  1 − x4 x4 x4       2 −2 −1   0       =   + x2  1  + x4  0    1   0   −1  0 0 1    2  0  Ponga atenci´n en el hecho de que p =   es una soluci´n paricular del sistema cuando o o  1  0 x2 = x4 = 0.

. Consecuenteo mente.. o . Esto equivale a decir que el sistema homogeneo asociado [A|0] tiene unicamente la soluci´n trivial. donde: xf1 h1 + .28 ´ CAP´ ITULO 3. es evidente que el sistema no homogeneo [A|b] tiene soluci´n unica p si y s´lo si no o ´ o tiene variables libres o equivalente si r(A) = n. + xfn−r hn−r ... SISTEMAS RECTANGULARES Y FORMAS ESCALONADAS x = p + xf1 h1 + . + xfn−r hn−r es la soluci´n general del sistema homogeneo asociado.

a Un escalar es un n´mero complejo. n. esto es: n aij = bij para cada i = 1. B ∈ IRm×n (A y B son matrices de orden o o m × n) la suma de A y B es definida como la matriz A + B de orden m × n. m y j = 1. Multiplicaci´n Escalar y Transpuesta o o En los cap´ ıtulos previos.1 (Adici´n matricial). j. Los n´meros reales son un subconjunto de los n´meros u u u complejos. El proposito en este cap´ ıtulo es usar el lenguaje dentro de una teoria matem´tica. y as´ los n´meros reales son escalares. obtenida al sumar las correspondientes entradas.1. en estas notas s´lo se consideran escalares ı u o que son n´meros reales.Cap´ ıtulo 4 ´ Algebra Matricial 4.1.1 Adici´n. Si A.1. la notaci´n y el lenguaje matricial fue usada simplemente para foro mular algunos de los conceptos elementales relacionados a sistemas lineales. . · · · . · · · . n Las matrices A = (aij ) y B = (bij ) son iguales cuando A y B tienen la misma forma (son del mismo tama˜o u orden) y sus correspondientes entradas son iguales. esto es: (A + B)ij = aij + bij para cada i. Aplicando la definici´n de suma de matrices se tiene que o −2 x 3 z + 3 4 −4 + 2 1 − x −2 −3 4 + x 4 + y 29 = 0 1 1 z 8+x y . u IR Denotar´ al conjunto de los n´meros reales y IRm×n denotar´ el conjunto de matriz de a u a tama˜o u orden m × n.1 Adici´n de Matrices o Definici´n 4. Ejemplo 4. 4.1.

Esto motiva la siguiente definici´n de forma natural. Identidad aditiva: La matriz 0 ∈ IRm×n . entonces: (αA)ij = αaij para cada i.2 (Multiplicaci´n escalar). es definidad como la matriz obtenida del negativo de cada entrada de A. si A = (aij ). 2 0 1 8 4 0 2 . esto es. j. si A = (aij ). cuyas entradas son cero. C ∈ IRm×n . Aplicando   2 2 3 = 0 1 2 2 4 2 la definici´n de m´ltiplicaci´n escalar se tiene que o u o      1 2 4 6 2 4 1 2 4  y  3 4  =  6 8 .1. ALGEBRA MATRICIAL La matriz (−A).2 Multiplicaci´n Escalar o Definici´n 4. Para dos matrices del mismo orden. entonces: −A = (−aij ).1. o 4. Esta operaci´n es llamada multiplicaci´n escalar. B. Propiedad asociativa: (A + B) + C = A + (B + C).30 ´ CAP´ ITULO 4. Por definici´n de la adici´n se tiene que la ij-´sima entrada o o e de tal suma es: [A + A + · · · + A]ij = aij + aij + · · · + aij = kaij . Esto es. Propiedad conmutativa: A + B = B + A. as´ ı (A − B)ij = aij − bij para cada i. tienen la propiedad A + 0 = A. las siguientes propiedades se cumplen: Propiedad de clausura: A + B ∈ IRm×n . El producto de un escalar α y una matriz A es o o denotada por αA y definida como la matriz obtenida al multiplicar cada entrada de A por α. De esto sigue la definici´n de sustracci´n de matrices. Inversa aditiva: La matriz (−A) ∈ IRm×n tiene la propiedad A + (−A) = 0. llamada inversa aditiva de A. o o Ejemplo  1  0 2 1 4.1. en la cual A es sumada k veces. Considere la suma de la forma: A + A + ··· + A k veces . Propiedades de la Adici´n Matricial o Para A. la o o diferencia A − B es definida para ser la matriz A − B = A + (−B). j.2.

1. i. si: A = (aij ). o Propiedad distributiva: (α + β) A = αA + βA. esto es. es igual a su transpuesta. i.1. o Propiedad identidad: 1A = A.´ ´ 4.3. entonces (A )ij = aji para cada i. Las matrices que exiben esta 3 2 6 estructura son llamadas matrices simetricas. B ∈ IRm×n y escalares α.3 (Transpuesta). Ejemplo 4.1. es frecuente manipular una matriz asociada obtenida de A al intercambiar sus renglones y columnas. la multiplicaci´n escalar es distributiva o sobre la adici´n escalar.e. Adem´s A ∈ IRn×m . denoo tada por A .1. . la transpuesta de A. A es llamada antisim´trica si: e A = −A .4 (Matriz sim´trica y antisim´trica). si aij = aji . j. se o e e dice que es sim´trica si: e A = A . 31 Dada una matriz A ∈ IRm×n . β.3 La Transpuesta de una Matriz Definici´n 4. Una matriz cuadrada A = (aij ). Definici´n 4. Propiedad asociativa: (αβ) A = α (βA) Propiedad distributiva: α(A + B) = αA + αB. Para una matriz A ∈ IRm×n . esto es A = A . se tiene que o   1 2  3 4  = 5 6 1 3 5 2 4 6 . es definida como la matriz obtenida de A al intercambiar sus renglones con sus columnas. las siguientes propiedades se cumplen: Propiedad de clausura: αA ∈ IRm×n . Aplicando la definici´n de transpuesta de una matriz. MULTIPLICACION ESCALAR Y TRANSPUESTA Propiedades de la Multiplicaci´n Escalar o Para matrices A. Observe que la matriz   1 2 3 A =  2 4 5 . ADICION.1. 4. As´ es evidente que (A ) = A a ı. la multiplicaci´n escalar es distributiva o sobre la adici´n escalar. si aij = −aji .e.

ALGEBRA MATRICIAL Si A. el termino funci´n lineal se refiere a lineas rectas. ii)(αA) = αA . los cuales poseen las o o operaciones adici´n matricial y multiplicaci´n escalar. .3) para todo escalar a y para todo x.1 (Funci´n lineal). f es una funci´n lineal si: o f (αx + y) = αf (x) + f (y). y ∈ D. Una funci´n lineal es un tipo particular de funci´n la cual es caracterizada por la o o siguiente dos propiedades. ∈ IRm×n . i) (A + B) = A + B . (4. el rango de f . entonces f (α x1 + x2 ) = α(α x1 + x2 ) = α(α x1 ) + αx2 = α (αx1 ) + αx2 = α f (x1 ) + f (x2 ). Definici´n 4. i.2. Estas dos condiciones pueden ser cambiadas. Por la definici´n de matriz transpuesta y adici´n matricial se verifica lo o o o siguiente: i) (A + B) ij = (A + B)ji = aji + bji = (A )ij + (B )ij = (A + B )ij ii) (αA) ij = (αA)ji = αaji = α(A )ij = (αA )ij . una funci´n f es una regla que a o asocia puntos de un conjunto D.2) (4. usando (4. llamado dominio de f .2 Linealidad En matem´tica elemental.32 Propiedades de la Transpuesta ´ CAP´ ITULO 4. Una de las funciones lineales m´s simple es: a f (x) = αx. cuya gr´fica en ∈ IR2 es una linea recta. (4. Sean x1 . Suponga que D y R son conjuntos.1) para cada x y y en D y para toda real α.3). Demostraci´n. Una funci´n f la cual mapea puntos o o o de D a R se dice que es una funci´n lineal si f satisface: o f (x + y) = f (x) + f (y) y f (αx) = αf (x). con puntos en otro conjunto R. x2 ∈ IR o y α escalar.e. B. pero en matem´tica a o a avanzada la linealidad significa algo m´s general. Recordando. 4. y si α es un escalar entonces se cumple. a Verifiquemos que f (x) = αx es efectivamente una funci´n lineal.

z2 ). o La linealidad es encontrada en diferentes familias de operaciones. xn ) = α1 x1 + α2 x2 + · · · + αn xn es una funci´n lineal. z2 )) = f (βy1 + z1 . z2 ) ∈ IR2 y para todo escalar β se tienen: o f (β(y1 . Por ejemplo en la diferenciaci´n y en la integraci´n. la superficie descrita por la funci´n o f (x1 . x2 . o Ahora. x2 ) = α1 x1 + α2 x2 es una funci´n lineal ya que para (y1 . . o o Otra funci´n lineal importante es definida en el conjunto de matrices cuadradas. esta es preo sentada en el siguiente ejemplo. LINEALIDAD 33 En IR3 . · · · . y2 ). y2 + z2 ) = α1 (βy1 + z1 ) + α2 (βy2 + z2 ) = β(α1 y1 + α2 y2 ) + (α1 z1 + α2 z2 ) = βf (y1 . y2 ) + (z1 . significa que el operador integral I(f ) = f dx es una funci´n lineal. Esto significa que la funci´n transpuesta (•) es una funci´n lineal f : IRm×n → IRn×m . considere el operador transpuesta y de sus propiedades se tiene que: (A + B) = A + B y (αA) = αA . dx dx df cumple las condiciones para ser una funci´n o el operador diferenciaci´n definida por Dx (f ) = o dx lineal. Similarmente (f + g)dx = f dx + gdx y αf dx = α f dx. y2 ) + f (z1 .2. o o Dado que d(f + g) df dg = + dx dx dx y d(αf ) df =α . o f (x1 . (z1 .4. As´ podemos generalizar diciendo que la funci´n ı.

34 ´ CAP´ ITULO 4.  = x1  . +···+ . Para una matriz A = (aij ) ∈ IRn×n . . . . para cada par de puntos . .2. e Ahora. ALGEBRA MATRICIAL Ejemplo 4.  = x A + ··· + x A = .  X =  . y sea A = (aij ) y B = (bij ).   xn   xn de un punto arbitrario x como     a11 a11 x1 + · · · + a1n xn = u1   .   . = um un am1 x1 + · · · + amn xn Soluci´n: Exprese la imagen o   x1  .. . . Para una matriz dada A = (aij ) ∈ IRm×n . am1 am1 x1 + · · · + amn xn = um n j=1 xj Aj . amn donde Aj es la j-´sima columna de A.2. a1n .  ∈ IRn en puntos U =  . La traza es una funci´n lineal por que las propiedades o tr(A + B) = tr(A) + tr(B) y tr(αA) = αtr(A). n i=1 (αA + B)ii = n i=1 (αaii + bii ) = α n i=1 aii + n i=1 bii = Ejemplo 4.  = .  f (x) = f  . entonces tr(αA + B) = αtr(A) + tr(B). .  ∈ IRm .  + · · · +  . B ∈ IRn×n y para todo escalar α. se cumplen para A. xn de acuedo a la regla a11 x1 . Esto es: n tr(A) = i=1 aii .   . la traza de A es definida como la suma de las entradas de las diagonal principal de A. a1n xn .1. Verifiquemos tales propiedades. . muestre que la funci´n U = f (x) o la cual mapea puntos     x1 u1  . Sea f (A) = tr(A) : IRn×n → IR. es lineal. = u1 .2. . . ≡ AX = U .  1 1 n n .

 R = (r1 .2. Para esto.   X= . es llamada una combinaci´n lineal de las xj´ o s. si o o   c1  .´ 4.  y Y = . o La funci´n lineal en el ejemplo anterior toma la forma o f (x) = x1 A1 + x2 A2 + · · · + xn An = n j=1 xj Aj . n j=1 (αxj Aj + yj Aj ) = donde las xj´ son escalares y las Aj´ son columnas.  .3 Multiplicaci´n Matricial o En esta secci´n desarrollamos el concepto de multiplicaci´n matricial. 4. la funci´n f es lineal. es util comeno o ´ zar por multiplicaci´n de un rengl´n y una columna.3). MULTIPLICACION MATRICIAL   x1  . n .3.2 (Combinaci´n lineal). r2 . cn el producto interno (o producto punto) de R y C se define como el escalar: R C = r1 c1 + r2 c2 + · · · rn cn = n i=1 ri ci . xn   y1 . s s o Definici´n 4. . Para escalares αj y matrices o columnas Xj . · · · rn ) y C =  . De acuerdo a (4. tenemos   αx1 + y1   .  . αxn + yn n n α j=1 xj Aj + j=1 yj Aj = αf (x) + f (y). es llamada combinaci´n lineal. f (αx + y) = f   = j=1 (αxj + yj ) Aj = . la o o expresi´n o α1 X1 + · · · + αn Xn = n j=1 αj Xj . yn 35 y para todo escalar α . .

Ejemplo 4. ya que B ∈ IR3×4 y A ∈ IR2×3 .3. se tiene que o  2 4 −2  1  2  = (2 + 8 − 6) = 4. Aplicando la definici´n de producto interno. A ∈ IRm×p y B ∈ IRp×n .´simo elemento es el e producto interno del i-´simo rengl´n de A y la j-´sima columna de B.e. −1 2 0 2  A= y entonces el producto AB es  AB = 2 1 −4 −3 0 5  1 3 −3 2  2 5 −1 8  = −1 2 0 2 8 3 −7 4 −8 1 9 4 . ellos no necesariamente u son iguales. Si las entradas de A y B son: 2 1 −4 −3 0 5  1 3 −3 2 B =  2 5 −1 8  .3.1 (Multiplicaci´n matricial). Ejemplo 4. Si A y B son matrices tales que A= 1 −1 1 −1 y B= 1 1 1 1 .3. i.3. A´n cuando el producto AB y BA existen y tienen la misma forma.e.2. i.36 ´ CAP´ ITULO 4. 3 Se dice que las matrices A y B son conformables si el n´mero de columna de A es el mismo u que el n´mero de renglones de B. entonces AB no esta definido.1.3. . u Definici´n 4. Note que el producto BA no esta definido ya que B y A no son conformables. Para matrices conformables Am×p = (aij ) o o y Bp×n = (bij ). En caso de que A y B no sean conformables. ALGEBRA MATRICIAL Ejemplo 4. e o e p (AB)ij = Ai Bj = k=1 aik bkj . el producto matricial AB es la matriz m × n cuyo ij.

Adem´s: e o e o a (AB)i = ai1 B1 + ai2 B2 + · · · + aip Bp = p k=1 aip Bp . Los Renglones de un Producto Para matrices Am×p = (aij ) y Bp×n = (bij ). e o o . MULTIPLICACION MATRICIAL entonces AB = 0 0 0 0 y BA = 2 −2 2 −2 .3. Otra diferencia se muestra acontinuai´n. Esto es (i-´simo rengl´n de AB) = (i-´simo rengl´n de A)×B. o o Para escalares αβ = 0 implica que α = 0 o β = 0. pero B = C. La ley de cancelaci´n falla para la multiplicaci´n matricial. 37 Esta es una de las principales diferencia entre el ´lgebra escalar y el ´lgebra matricial. Lo cual no se cumple para la multiplcaci´n matricial. el i-´simo rengl´n de AB es dado por: e o (AB)i = Ai B. si o o A= 1 1 1 1 . As´ la a a ı. multiplicaci´n matricial no es conmutativa. el i-´simo rengl´n de AB es una combinaci´n lineal de los renglones de B.4.´ 4. esta ley dice que: o αβ = αγ y α = 0 implica que β = γ. o Ejemplo 4. como se muestra en el siguiente ejemplo. Esto es. Pues es posible que AB = 0 con A = 0 o y B = 0. Otra diferencia es la ley de cancelaci´n. Lo cual no se cumple para la multiplicaci´n matricial. entonces AB = 4 4 4 4 = AC. para escalares. B= 2 2 2 2 y C= 3 1 1 3 .3.

Esto es. La matriz n × n con 1´s en la diagonal principal y o 0´s fuera de ella. ii) Analogamante a i). Ap B 4.2 (Matriz identidad). . la j-´sima columna de AB es: e (AB)j = ABj .3. . la (j-´sima columna de AB) =A×(j-´simo rengl´n de B). . k k aik bkj + Bk ckj = k Ai Bk ckj = k (AB)ik ckj = (AB)i Cj = Definici´n 4.. 0 0 ··· 0 0 .  As´ AB =  .  = AB1 · · · ABp . .    In =   1 0 ··· 0 1 ··· . .3. .  . ALGEBRA MATRICIAL Para matrices Am×p = (aij ) y Bp×n = (bij ).3. .38 Las Columnas de un Producto ´ CAP´ ITULO 4. la j-´sima columna de AB es una combinaci´n lineal de las columnas de A. 1    .1 Propiedades de la Multiplicaci´n Matricial o Teorema 4. Para matrices conformables se tiene: i) A(B + C) = AB + AC (Ley distributiva del lado izquierdo) ii) (D + E)F = DF + EF (Ley distributiva del lado derecho) iii) A(BC) = (AB)C (Ley asociativa). . Adem´s e e o a (AB)j = A1 b1j + A2 b2j + · · · + Ap bpj = p k=1 Ak bkj Esto es. . a Por definici´n de multiplicaci´n matricial se tiene: o o [A(B + C)]ij = Ai (B + C)j = k aik (B + C)kj = k aik (bkj + ckj ) = k aik ckj = Ai Bj + Ai Cj = (AB)ij + (AC)ij = (AB + AC)ij .1. iii) [A(BC)]ij = Ai (BC)j = Ai [(AB) C]ij . e o   A1 B  . ı. Demostraci´n. . o i) Se demostrar´ que [A(B + C)]ij = [AB + AC]ij .

3. Ejemplo 4. Soluci´n: Por la definici´n de traza y del producto de matrices. para una matriz A ∈ IRn×n . Se generaliza la ley usual de exponentes. los productos A A y sim´tricas por que: e (A A) = A (A ) = A A y (AA ) = (A ) A = AA . s. se verifica la siguio o o ente cadena de igualdades: (AB)ij = (AB)ji = Aj Bi = k ajk bkj = k bki ajk = k (B )ik (A )kj = (B A )ij . Para cada matriz A ∈ IRm×n .5. De igual forma se demuestra que In A = A.´ 4. Demuestre que tr(AB) = tr(BA). Para enteros no negativos r. AA son matrices Ejemplo 4. k 39 In A = A. aik (I)kj = aij . se tiene que o o tr(AB) = i (AB)ii = j (BA)jj = tr(BA). Para cada matriz A AIn = A y ya que (AIn )ij = Ai Ij = Por tanto AIn = A. MULTIPLICACION MATRICIAL es llamada matriz identidad de orden n. Por definici´n de transpuesta y multiplicaci´n matricial.3. (AB) = B A .2. Para matrices conformables A y B.3. Teorema 4.3.6. Ar As = Ar+s y (Ar )s = Ars . Demostraci´n. i Ai Bi = i j aij bji = j i bji aij = j Bj Aj = . a A0 = In y An = AA · · · A n veces . Analogamente al ´lgebra escalar se define.

j) . el producto AB es formado por la combinaci´n de los bloques o de la misma forma como los escalares. Para una matriz cuadr´da An×n . esto es. . . ..B=   0 I 0 0 1 0 1 3 0 1 2 4 0 0 1 3  0 0  = 2  4 I 0 C C AB = = Definici´n 4. o el (i. Para tales matrices. es llamada la inversa de A.  y B= . Br1 Br2 · · · Brt As1 As2 · · · Asr Si los pares (Aik . La matriz cero es un ejemplo trivial.40 ´ CAP´ ITULO 4.. . . . ALGEBRA MATRICIAL 4. tambi´n llamadas bloques. . . . .4 Multiplicaci´n de Matrices Particionadas o Supongase que A y B son particionadas en submatrices. . la o a cual satisface que: AB = BA = In . . . como se e indica a continuaci´n: o     B11 B12 · · · B1t A11 A12 · · · A1r  B21 B22 · · · B2t   A21 A22 · · · A2r      A= . Ejemplo: Considere  1 2 1  3 4 0 A=  1 0 0 0 1 0 As´ ı C I I 0 I 0 C C 2CI CI I2 0 2  6 =  1 0  4 8 0 1 1 3 0 0  2 4  . Ejemplo: Si . y es denotada por: B = A−1 .   . son combinados en la multiplicaci´n ordinaria. .1 (Matriz Inversa). la matriz Bn×n . 0  0 las  matrices particionadas  0  1  = C I . entonces A y B se dicen que son particionadas conformables. .  . Bkj ) son conformables. No toda la matriz cuadrada tiene inversa. Una matriz que tiene inversa es llamada matriz no singular y si no posee inversa inversa es llamada matriz singular.  . . . .bloque en AB es: Ai1 B1j + Ai2 B2j + · · · + Air Brj .4.

(CA)B = IB = B. 1 (A | I) =  1 1 1  0 −→ 0  As´ A−1 ı. As´ C = CI = C(AB) = o ı. en cuyo caso X = A−1 . Teorema 4. Para una matriz A ∈ IRn×n . A−1 = B es unica.4. ´ MULTIPLICACION DE MATRICES PARTICIONADAS A= a b c d donde δ = ad − bc = 0. ´ Demostraci´n.4. La matriz es singular si y s´lo si la reducci´n falla.1 (Unicidad de la Inversa). Supongamos que existe C tal que AC = CA = I. Esto es [A | I] Gauss−Jordan −→ [I | X]. −1 es unica. 41 Entonces A−1 = ya que AA−1 = A−1 A = I. 1   2 −1 0 2 −1 .4.2 (Existencia de una Inversa).4. Por tanto B = A ´ 1 δ d −b −c a . los siguientes enunciados son equivalentes para decir que A−1 existe: . 1 2 3 Solucion. C´lculo de la Inversa de una Matriz a Una matriz A ∈ IRn×n es no singular si y s´lo si la matriz aumentada [A | I] puede ser reducida o por renglones a la forma [I | X]. =  −1 0 −1 1 Teorema 4. Para una matriz singular A.  0 1 0  1 2 2 0 1 1 1 2 3 1 0 0 2 -1 0 0 1 0 -1 1 -1   0 1 0  −→  0 1 0   0 1  −→  0 0 0 1 1 1 1 0 1 0 1 1 2 0 0 1 1 -1 -1 2 -1 0 0 1 0 -1 2 -1  0 0  1  0 -1  . o o  1 1 1 Ejemplo: Si es posible encuentra la inversa de A =  1 2 2  .

y su inversa es: (A + cd )−1 = A−1 − ya que (A + cd ) (A + cd )−1 = (A + cd ) A−1 − c cd A−1 cd A−1 =I+ −1 c 1+dA 1 + d A−1 c A−1 cd A−1 1 + d A−1 c = I− cd A−1 +cd A−1 − 1 + d A−1 c A−1 cd A−1 1 + d A−1 c 1 + d A−1 c I − I − d A−1 c d A−1 = I. i) Sigue inmediato de la definici´n de inversa. Por tanto (A )−1 = (A−1 ) . · · · .4. o o iii) Sea x = B −1 A−1 .3. singular. tiene una unica soluci´n. iv) (A−1 ) = (A )−1 Demostraci´n. Ak A1 A2 · · · Ak es no singular y son matrices n × n singulares. o o Ejemplo 4. A2 . as´ A x = A (A−1 ) = (A−1 A) = I.42 • r(A) = n • Ax = 0 implica que x = 0. iv) Sea x = (A−1 ) . De o ´ o resultados del sistema homogeneo Ax = 0 tiene soluci´n unica. Utilizando iii) e inducci´n completa. entonces la suma A + cd es no sincgular. iii) (AB)−1 = B −1 A−1 . Si A ∈ IRn×n es no singular y si c y d son columnas n × 1 tal que 1 + d A−1 c = 0. si r(A) = n. 1 k Demostraci´n. De o o ´ o resultados de sistemas consistentes Ax = b tiene soluci´n unica si y s´lo si r(A) = n. demostrando ii). entonces (AB)x = ABB −1 A−1 = AA−1 = I. . o ´ Propiedades de la matriz inversa Si A y B son matrices no singulares. x = 0. A es no singular.1 (Teorema de Sherman-Morrison). As´ (AB)−1 = B −1 A−1 . ´ CAP´ ITULO 4. ALGEBRA MATRICIAL Demostraci´n. Si A1 . y por consiguiente AB es no ı. entonces se cumple lo siguiente: i) (A−1 )−1 = A ii) El producto AB es no singular. entonces el producto −2 (A1 A2 · · · Ak )−1 = A−1 Ak−1 · · · A−1 . ı Teorema 4.4. si cada ecuaci´n Ax = Ij .

o (A + CD ) A−1 − A−1 C I + D A−1 C −1 −1 −1 D A−1 . Para ver que las matrices dadas en (4.4 (Teorema de Sherman-Morrison-Woodbury). D A−1 −1 = I − C I + D A−1 C D A−1 + CD A−1 − CD A−1 C I + D A−1 C −1 I + C I + D A−1 C − I − D A−1 C I + D A−1 C D A−1 = I D A−1 = 4. Si A ∈ IRn×n es una matriz no singular y si C ∈ IRn×k y D ∈ IRk×n son matrices tal que I + D A−1 C es no singular. v u−1 (4.5 4.4) Note que la inversa de una matriz elemntal es de nuevo una matriz elemental. MATRICES ELEMENTALES Y EQUIVALENTES 43 Teorema 4. donde u = e1 -e2 =  0  −  1  =  −1  0 0 0  . El teorema de ShermanMorrison garantiza que las matrices elementales son no singular y (I − uv )−1 = I − uv . Matrices de la forma I − uv . Estamos interesados en matrices elementales asociadas con las tres operaciones elementales de renglones. entonces la suma A + CD es no singular y (A + CD )−1 = A−1 − A−1 C I + D A−1 C Demostraci´n. 0 0 1   1 0 0 E3 =  0 1 0  . respectivamente. donde u y v son o columnas n × 1 tal que v v = 1 son llamadas matrices elementales.4. α 0 1  (4.5. 0 0 1   1 0 0 E2 =  0 α 0  .1 Matrices Elementales y Equivalentes Matrices Elementales Definici´n 4. por ejemplo las matrices  0 1 0 E1 =  1 0 0  .5) son matrices elementales asociadas a las operaciones elementales de renglones Tipo I.5.5) son elementales observe que      1 0 1 E1 = I − uu .4.1 (Matrices elementales).5.Tipo II y Tipo III.

Sea I la matriz identidad de orden n. . ··· 0 0 . . . ´ CAP´ ITULO 4. una matriz elemental de tipo # ejecuta una operaci´n de columna de tipo #.   .  . . . 0      0 ··· . .  . E3 = I + αe3 e1 . Las matrices elementales asociadas a las operaciones elementales de rengl´n o (o columnas) son: • Tipo I: I − uu Donde u =ei -ej • Tipo II: I − (1 − α)ei ei Donde α = 0 • Tipo III: I + αej ei Donde α = 0 Teorema 4. . 0 0 ··· 0 Esta es exatamente la matriz producida por una operaci´n de renglon de tipo III en la cual el o i-´simo rengl´n de A es multiplicado por α y el resultado es sumado al j-´simo rengl´n.44 E2 = I − (1 − α)e2 e2 . amj ··· ··· . ALGEBRA MATRICIAL En general se tiene. . o iii) La inversa de una matriz elemental de tipo # es de nuevo una matriz elemental de tipo #.  . e o e o Cuando I + αej ei es usado como multiplo de lado derecho  0  0  A(I + αej ei )= A+αAej ei = A + αAj ei = A + α =  . y sean ei y ej la i-´sima y la j-´sima e e columna unitaria. . una matriz elemental de tipo # ejecuta una operaci´n de renglon de tipo #. . . o ii) Cuando usamos como multiplo de lado derecho. i) y ii). Las matrices elementales tienen las siguientes propiedades: i) Cuando usamos como multiplo de lado izquierdo. . .. . M´s especificamente: a (I − uu )−1 = I − uu Donde u=ei -ej (I − (1 − α)ei ei )−1 = I − (1 − α)ei ei Donde α = 0 (I + αej ei )−1 = I + αej ei Para i = j. . Demostraci´n. .    ai1 ai2 · · · ain  (I + αej ei ) A = A + αej ei A = A + αej Ai = A + α    . a1j a2j . . . Usamos I + αej ei como multiplo de lado izquierdo sobre A se tiene   0 0 ··· 0  . . sobre A. para el casa de operaciones o a de Tipo III. .   . Se probar´ las primeras dos propiedades.5. se tiene ··· ··· .1 (Propiedades de Matrices Elementales).

entonces A debe ser no singular por que las Ei s son ´ no singular. esto pueba que Q A es un producto de matrices elementales. inversamente. en la cual la j-´sima es multiplicada o e por α y despues es sumada a la i-´sima columna. Las operaciones elementales por renglones para reducir a  1 2 4 A =  2 4 8  en EA son mostradas de la forma siguiente.· · · Gk . si G1 . 3 6 13   1 2 4 1 2 4 R2 − 2R1  0 0 0 A= 2 4 8  R3 − 3R1 3 6 13 0 0 1  1 2 0 R1 − 4R2  0 0 1 0 0 0 Las reducci´n puede llevarse acabo por una o matrices elementales. 1 2 k Dado que la inversa de una matriz elemental es de nuevo una matriz elemental del mismo tipo.   secuencia de multiplicaciones de lado izquierdo de   0 1 0 0 0   −2 1 0  A = EA . 1 0 0 1   13 0 −4 El producto de estas matrices elementales es P =  −3 0 1 .G2 . e Para mostrar iii) aplique (4. es no singular.5. Ejemplo 4. .1. Demostraci´n. entonces Gk · · · G2 G1 A = I.5. Si A es no singular. el m´todo de Gauss-Jordan reduce a A en I por operao e ciones de rengl´n. Una matriz A es no singular si y solo si A es producto de matrices elementales de Tipo I.4). y se puede verificar que −2 1 0 P A = EA .    1 −4 0 1 0 0 1 0  0 1 0  0 0 1  0 1 0 0 1 0 1 0 −3 0    1 2 4  R2 por R3  0 0 1  0 0 0   = EA .4. si A = E1 E2 · · · Ek es un producto de matrices elementales.II o III. es la secuencia de matrices elementales correspondientes a o las operaciones de renglones empleadas. MATRICES ELEMENTALES Y EQUIVALENTES 45 Este es resultado de la operaci´n de columnas de Tipo III.5. o equivalentemente A = G−1 G−1 · · · G−1 . Teorema 4.2. y un producto de matrices no singulares.

Por ejemplo. 0 0 La matriz Nr es llamada la forma normal de rango de A. as´ que hay una matriz no singular P tal o ı que P A = EA . Por tanto tiene sentido hablar acerca de la equivalencia de un par de matrices sin considerar el orden.5.5. Adem´s.3 (La forma normal de rango). A ∼ B ⇒ ∃Q no singular tal que AQ = B. se puede escribir A ∼ B ⇐⇒ ∃ matrices P y Q no singular tal que P AQ = B • Si B puede ser obtenida de A mediante una secuencia s´lo de operaciones de renglones. Nr es el producto final de una reducci´n completa de A pero usando operaciones de renglones y columnas. Si A ∈ IRm×n es una matriz tal que r(A) = r. Si r(A) = r. • Si B puede ser obtenida de A mediante operaciones elementales de columnas. entonces Ir 0 A ∼ Nr = . o Demostraci´n. decimos que A o y B son matrices equivalentes. decimos que A y B son equivalentes por renglones. Siempre es verdad que A ∼ EA . En otras palabras. A ∼ B ⇔ B ∼ A. entonces las columnas base en EA son r columnas unitarias. ALGEBRA MATRICIAL 4. col escribase A ∼ B. P AQ = B ⇒ P −1 BQ−1 = A. a A ∼ B y B ∼ C ⇒ A ∼ C.46 ´ CAP´ ITULO 4. Aplicando intercambio de columnas a EA para remover estas columnas unitarias al lado izquierdo superior.5. solamente. A ∼ B ⇒ ∃P no singular tal que P A = B. row row row Teorema 4.2 (Matrices equivalentes). col row Si es posible ir de A a B mediante operaciones elementales de rengl´nes y columnas. i. no es dificil ver que cada tipo de equivalencia es transitiva.e. escribase A∼B. • Si B puede ser derivada de A por una como binaci´n de operaciones elementales de renglones y columnas. row . entonces o es claro que es posible comenzar con B y regresar a A porque las operaciones elementales son reversibles.2 Matrices Equivalentes Definici´n 4. decimos que A y B son equivalentes por columnas. Si Q1 es el producto de estas matrices elementales que corresponden al intercambio de columnas. entonces P AQ1 tiene la forma P AQ1 = EA Q1 = Ir J 0 0 . o row escribase A ∼ B. Dado que las operaciones elementales de renglones y columnas son multiplicaciones por la izquierda y la derecha de matrices elementales.

5. o Demostraci´n. MATRICES ELEMENTALES Y EQUIVALENTES Posmultiplicando ambos lados de la ecuaci´n por la matriz no singular o Q2 = Ir −J 0 I . entonces ´ A ∼ EA = EB ∼ B ⇒ A ∼ B. de donde Nr ∼ Ns .5.2. para toda matriz m × n se cumple o que r(A) = r(A ). i. o row ii) A ∼ B si y s´lo si EA = EB .e. iii) Sigue de ii) considerando la transpuesta. de donde A ∼ B. Problema: Explicar porque el r = r(A) + r(B). Dado que el producto Q = Q1 Q2 es no singular. La transposici´n no cambia el rango.5. Para matrices A. entonces A ∼ EB .4. Por tanto A ∼ Nr ∼ B. as´ ı Nr ∼ A ∼ B ∼ Ns . Por tanto r = s. entonces A ∼ Nr y B ∼ Nr . Soluci´n: Si r(A) = r y r(B) = s. o iii) A ∼ B si y s´lo si EA = EB .5.e. row row row ii) Suponga que A ∼ B. EA = EB . A 0 0 B Ejemplo 4. Por otro lado si A ∼ B. Dado que B ∼ EB . . Pero la forma escalonada reducida es unica. B ∈ IRm×n se cumple lo siguiente: i) A ∼ B si y s´lo si r(A) = r(B). o i) Si r(A) = r(B). Inversamente. 47 produce P AQ1 Q2 = Ir J 0 0 Ir −J 0 I = Ir 0 0 0 . A ∼ B ⇔ AQ = B ⇔ Q A = B ⇔ A ∼ B . entonces A ∼ Nr y B ∼ Ns . por lo que o A 0 0 B ∼ Nr 0 0 Ns ⇒r A 0 0 B =r Nr 0 0 Ns = r + s. entonces A ∼ Nr y B ∼ Ns . por tanto EA = EB .4. Teorema 4. col row row row row col Teorema 4.5. donde r(A) = r y r(B) = s. i. entonces A ∼ Nr .

Sea A ∈ IRm×n . Ejemplo [Factorizaci´n de rango completo]. con r distinto de m o y n. 12 16 R3 − 4R2 0 0 4 Todas las operaciones son de tipo III. Aplicando transpuesta se tiene Q A P = Nr . Soluci´n. y el producto de matrices elementales es      1 0 0 1 0 0 1 0 0 1 0 0 G3 G2 G1 =  0 1 0   0 1 0   −2 1 0  =  −2 1 0  . mostrar que existe B ∈ IRm×r y C ∈ IRr×n tal que A = BC. y por lo tanto r(A ) = r(Nr ) = r Ir 0r×n−r 0m−r×r 0m−r×n−r = r = r(A).6 Factorizaci´n LU o Si Ax = b es un sistema no homogeneo.48 ´ CAP´ ITULO 4. Por ejemplo. Suponga que r(A) = r as´ que existen matrices no singulares P y Q tal que o ı P AQ = Nr = Ir 0r×n−r 0m−r×r 0m−r×n−r . −3 0 1 0 0 1 −3 −4 1 0 −4 1  . donde r(B) = r(C) = r. Si r(A) = r. sonsidere reducir la matriz   2 2 2 A= 4 7 7  6 18 22 a una forma tri´ngular superior como se a    2 2 2 2  4 7 7  R2 − 2R1 →  0 R3 − 3R1 0 6 18 22 muestra abajo. ALGEBRA MATRICIAL Demostraci´n. por lo que A ∼ Nr . Si r(A) = r. Si ning´n a u pivote es cero. por lo que A = o Ir Ir 0 Q−1 = BC. P −1 0 4. entonces no es necesario intercambiar renglones y la reducci´n puede hacerse o usando solamente operaciones elementales de renglones de tipo III. entonces A ∼ Nr lo que implica que P AQ = Nr .   2 2 2 2 2 3 3  →  0 3 3  = U. entonces el objeto de la eliminaci´n gaussiana es reducir o a A en una matriz tri´ngular superior usando operaciones elementales de renglones.

. 0 0 . esto es llamado la factorizaci´n LU de A..  . as´ que ı A = G−1 G−1 G−1 U = LU. entonces Tk =  0 0 · · ·  µk+1       0 0 · · · −µk+1 1 · · · 0   . 1 2 3 donde L es una matriz tri´ngular inferior a L = G−1 G−1 G−1 1 2 3  1 0 0 =  2 1 0 . .  . .  .   . es el m´ltiplo usado para ajustar la posici´n (i. 0 0 ··· 0 0 . . . mientras que L tiene 1’s en su diagonal. . . 1       .  1 0 ··· 0 . . . .  . . .  . Para desarrollar la teor´ general. . es conveniente introducir el concepto matriz tri´ngular infeıa a rior elemental. ..   . .. . . En particular si     1 0 ··· 0 0 ··· 0 0  0 1 ··· 0 0 ··· 0   0       . . . . 3 4 1  49 As´ A = LU es el producto de una matriz tri´ngular inferior L y una matriz tri´ngular superior ı. . 1 µk+1 . . . . . o Observe que U es el producto final de la eliminaci´n gaussiana y tiene los pivotes sobre su o diagonal principal.. . . . .      −1 Tk −1 Observe que Tk es tambien una matriz tri´ngular inferior elemental. . . 0 ··· 1 ··· . µn 0 ··· 0 ··· . . 0 ··· 0 0 .´ 4. a a U . .. 0 0 ··· 0 0 ··· . . M´s a´n cada entrada por debajo a u de la diagonal de L. . . . . . .  .6. . . .. . . . . . .. por lo que       = I + ck ek =       1 0 ··· 0 1 ··· . . . Naturalmente. .. . la cual es definida como una matriz tri´ngular de la forma a Tk = I − ck ek donde ck es una columna con ceros en las primeras k posiciones. j) (considerando la entrada u o lij ). . FACTORIZACION LU Los resultados de las secciones previas garantizan que G3 G2 G1 A = U .  . . ck =  . .  . a . µn 0 0 ··· −µn 0 · · · 1 Note que ek ck = 0. . .   . . .     .

. .. . . . ∗ ∗ . . . . ∗ ··· ∗ ∗ . . de donde −1 −1 −1 A = T1 T2 · · · Tn−1 U.. . ∗             Ak−1 es el resultado tri´ngular parcial despues de a (I − ck ek )Ak−1 = Ak−1 − ck ek Ak−1  ∗ ∗ · · · α1 ∗ · · ·  0 ∗ · · · α2 ∗ · · ·   . . . si no se requiere intercambiar renglones. . . . . .  . . . . . . . . . 0 0 ··· 0 ∗ ··· k − 1 pasos de eliminaci´n. . a Tn−1 · · · T2 T1 A = U. .   . 0 0 ··· 0 0 ··· . Si o       =      ∗ ∗ ··· 0 ∗ ··· . . . donde ck =  0     αk+1 /αk     . . . . ∗             . αn /αk 0 0 . . . . ∗ ··· ∗ ··· . . . . . . .             contiene los m´ltiplos usados para eliminar aquellas entradas de bajo de αk . . ∗ ∗ . 0 0 ··· α1 α2 . . . . . . .. . . . ALGEBRA MATRICIAL La utilidad de las matrices tri´ngulares inferiores elementales radica en el hecho de que todas ´ a las operaciones de tipo III necesarias para eliminar las entradas de bajo del k-´simo pivote e pueden realizarse con una multiplicaci´n con Tk . . αk αk+1 . . . .. . . . entonces T1 T2 · · · Tn−1 = (I + c1 e1 )(I + c2 e2 ) · · · (I + cn−1 en−1 ) = I + c1 e1 + c2 e2 + · · · + cn−1 en−1 .  . . Por tant. =  0 0 · · · αk ∗ · · ·   0 0 ··· 0 ∗ ···   . Esto es... . Note que Tk no u altera las primeras k − 1 columnas de Ak−1 porque ek [Ak−1 ]j = 0 si j ≤ k − 1.50 ´ CAP´ ITULO 4. . entonces Tk Ak−1 = o ∗ ∗ . . ..  . entonces reducir A a una matriz tri´ngular a superior usando eliminaci´n gaussiana es equivalente a ejecutar una sucesi´n de n − 1 multio o plicaciones de lado izquierdo con matrices tri´ngulares inferiores elementales. −1 −1 −1 −1 Dado que Tk = I + ck ek . .. αn ∗ ··· ∗ ··· . .

k 0 ··· 0 ··· . . .    l2. . . 1 . As´ e ı. ln. . .k s son los m´ltiplos usados en la k-´sima etapa para eliminar las entradas de bajo u e del k-´simo pivote. . . . .6. . A = LU donde  L = I + c1 e1 + c2 e2 + · · · + cn−1 en−1     . . . . . . 0 ··· 0 0 .  . .1 ln.. 0 0 ··· 0 0 ··· . .. . . .3 · · · 1 0 1 0 0 1 . 0 0 . . 0 0 ··· 0 0 . 0 ··· 0 ··· . .. FACTORIZACION LU Pero observe que       ck ek =             .1   =  l3.k .      51 0 0 ··· 0 0 ··· .. . . .. . .2  . . ln.´ 4. . . ··· ··· ··· . . . . 0 lk+1.2 ln.1 l3. . . . 0 0 0 . . . 0 donde las li.

ALGEBRA MATRICIAL .52 ´ CAP´ ITULO 4.

A4. A1. +. M3. Cerradura: X + Y ∈ V para X.1 (Espacio vectorial). Y ∈ V. M4. M5. para X. F.Cap´ ıtulo 5 Espacios vectoriales 5. V es un conjunto no vacio de elementos llamados vectores. Y ∈ V. adicion) y (•. un conjunto F denominado campo y dos operaciones (+. M2. Y ∈ V. Asociativa: (αβ) X = α (βX). para nosotros F ser´ IR. F es un campo escalar. Aqui lo utilizamos para referirnos a las n-tuplas. Y. Neutro m´ltiplicativo: 1X = X. β ∈ F y cada X ∈ V.1. u 53 . para todo α. Cerradura: αX ∈ V. Distributiva: α (X + Y ) = αX + αY . Neutro aditivo: X + 0 = X para cada X ∈ V con 0 ∈ V. Inverso aditivo: X + (−X) = 0 para cada X ∈ V con (−X) ∈ V. para cada α ∈ F y para todo X. Sean V.1 Introducci´n o Los espacios vectoriales involucran 4 cosas. El conjunto o V es llamado espacio vectorial sobre F cuando + y · satisfacen las siguientes propiedades. a + Es la operacion de adici´n entre los elementos de V. para todo α. para cada X ∈ V. El termino vector puede ser usado de forma general. A2. Asociativa: (X + Y ) + Z = X + (Y + Z). producto escalar). Z ∈ V. · definidos anteriormente. o • Es el producto escalar entre los elementos de V Y F. Definici´n 5. Conmutativa: X + Y = Y + X para X. β ∈ F y cada X ∈ V. donde X ∈ V Y α ∈ F. Un conjunto V cuyos elementos son llamados vectores. A3. M1. A5. Distributiva: (α + β) X = αX + βX.

54 Algunos ejemplos de espacios vectoriales son:

CAP´ ITULO 5. ESPACIOS VECTORIALES

1. El conjunto de matrices IRm×n es un espacio vectorial. 2. Definiendo la adicion y la m´ltiplicacion escalar de funciones como: u (f + g) = f (X) + g(X) (αf )X = αf (X) los siguientes conjuntos son espacios vectoriales sobre IR. i) El conjunto de funciones gr´ficadas en el intervalo [0, 1] en IR. a ii) El conjunto de funciones continuas reales definidas en [0, 1]. iii) El conjunto de funciones diferenciables en [0, 1]. Ejemplo 5.1.1. Considere el espacio vectorial IR2 donde IR2 = {(X, Y ) | X, Y ∈ R} y sea L = {(X, Y ) | Y = αX} una linea que pasa por el origen. L es un subconjunto de IR2 , pero L es un tipo especial de subconjunto porque L tambien satisface las propiedades (A1)-(A5) y (M1)-(M5) las cuales definen un espacio vectorial. Esto muestra que es posible que un espacio vectorial puede contener otro espacio vectorial. Definici´n 5.1.2 (Subespacio vectorial). Sea V un espacio vectorial sobre F y supongamos o que S es un subconjunto no vacio de V. Si S es en si mismo un espacio vectorial, entonces se dice que S es un subespacio vectorial de V. Teorema 5.1.1. Un subconjunto S de un espacio vectorial V , es un subespacio vectorial de V si y s´lo si: o A1. X + Y ∈ V para X, Y ∈ V. M1. αX ∈ V, donde X ∈ V y α ∈ F. Demostraci´n. Note que S, por ser un subconjunto de V, satisface todas las propiedades de o un espacio vectorial excepto (A4) y (A5). Para probar que cumple (A5), observe que (M1) implica (−X) = (−1)X ∈ S si X ∈ S. Para verificar que cumple (A4), note que si X ∈ S y (−X) ∈ S entonces, por (A1), 0 = X + (−X) ∈ S. As´ S es un subespacio vectorial de V si y ı, s´lo si cumple (A1) y (M1). o Ejemplo 5.1.2. Dado un subespacio vectorial V, el conjunto Z = {0} cuyo elemento es el vector cero, es un subespacio vectorial de V. As´ este es llamado el subespacio trivial de V. ı,

Ejemplo 5.1.3. Sea V un espacio vectorial y S = {V1 , V2 , ..., Vn } tal que Vi ∈ V. El conjunto S = {α1 V1 + ... + αr Vr | αi ∈ F y Vi ∈ V}

´ 5.1. INTRODUCCION

55

el conjunto de todas las posibles combinaciones lineales de los Vi ´s es un subespacio de V por que las dos propiedades de cerradura (A1) y (M1) son satisfechas. Esto es claro pues si X = α1 V1 + ... + αr Vr y Y = γ1 V1 + ... + γr Vr

son dos combinaciones lineales de S , entonces la suma X + Y = (α1 + γ1 )V1 + ... + (αr + γr )Vr = η1 V1 + ... + ηr Vr tambien es una combinaci´n lineal de S . Similarmente, si β ∈ IR, entonces o βX = (βα1 )V1 + ... + (βαr )Vr es de nuevo una combinaci´n lineal de S . o

Definici´n 5.1.3 (Conjunto generador). Sea V un espacio vectorial sobre F y sea S = o {V1 , V2 , ..., Vr } un conjunto de vectores de V. • El subespacio S = {α1 V1 + ... + αr Vr | αi ∈ F} generado por todas las combinaciones lineales de los vectores de S es llamado el espacio generado por S. • Si V = S , entonces S es el conjunto generador de V. • S genera a V s´ y s´lo s´ cada V ∈ V es una combinacion lineal de los elementos de S. ı o ı

Ejemplo 5.1.4. Los siguientes son ejemplos de conjuntos generadores: (i) S = (ii) S = 1 1 1 0 , , 2 2 0 1 genera a y = x en IR2 . genera a IR2 .

n (iii) S = {en ...en } donde ei = [00...010...0] ∈ IRn genera a IRn . n 1

(iv) El conjunto finito S = 1, X, X 2 , ..., X n genera a los polinomios cuyo grado es menor o igual a n. El conjunto infinito S = 1, X, X 2 , ..., X n , X n+1 , ... genera al conjunto de todos los polinomios.

56

CAP´ ITULO 5. ESPACIOS VECTORIALES

Ejemplo 5.1.5. Un conjunto de columnas S = {a1 , a2 , ..., an } genera un subespacio V ⊆ IRm s´ y s´lo s´ b ∈ V es una combinacion lineal de los elementos de S. ı o ı b = x1 a1 + x2 a2 + ... + xn an . Observe que (5.1) es simplemente la ecuaci´n Ax = b donde o  x1  x2  A = (a1 |a2 |...|an ) y x =  .  . . xn As´ S genera a V si existe x tal que Ax = b para cada b ∈ V, es decir si el sistema es ı, consistente. Por ejemplo, el conjunto S= 1 1 1 , 1 −1 −1 , 3 1 1 (5.1)

   . 

no genera a IR3 porque el sistema      1 1 3 x1 b1  1 −1 1   x2  =  b2  1 −1 1 x3 b3 no es consistente. Recuerde que un sistema es consistente s´ y s´lo s´ r(A|b) = r(A). En ı o ı este caso, r(A) = 2 y r(A|b) = 3 verificandose la inconsistencia del sistema. Por otro lado el sistema 1 1 1 , 1 −1 −1 , 3 1 2 S= es un conjunto generador de IR3 por que  1 1 3 A =  1 −1 1  1 −1 2 es no singular, y as´ el sistema Ax = b es consistente. ı 

Definici´n 5.1.4 (Suma de subespacios vectoriales). Si X e Y son subespacios vectoriales o de un espacio vectorial V, entonces la suma de X e Y se define como X + Y = {x + y | x ∈ X e y ∈ Y} .

Teorema 5.1.2. Sea X + Y la suma de dos subespacios vectoriales. i) X + Y es un subespacio vectorial. ii) Si SX genera a X y SY genera a Y, entonces SX SY genera a X + Y.

1.1 (Espacio rengl´n y espacio columna). Similarmente. . Am    =yA  .5. x2 . dos en u m n IR y dos en IR .. i) Si a ∈ RA = A1 . .2. .. y2 . γi ∈ F } . 5. Definici´n 5.. pero αi Xi ∈ X y γi Yi ∈ Y .... i) a ∈ RA ⇔ existe y tal que y A = a . +αr xr + γ1 y1 +. Teorema 5. Dos de ellos son definidos por los renglones y las columnas de A... yr } de tal forma que X = SX y Y = SY . Sean a ∈ IRn . entonces αu = α(x1 + y1 ) = αx1 + αy1 ∈ X + Y. entonces el o o espacio RA = A1 ...2 Los Cuatro Subespacios Fundamentales Para una matriz A ∈ IRm×n de n´meros reales. Am ⊆ IRn generado por los renglones de A. + γr yr | αi .... . ii) b ∈ CA ⇔ existe x tal que Ax = b. el espacio o CA = A1 .. y2 ∈ Y... . por tanto Z ∈ X + Y. Si A ∈ IRm×n . Note que SX SY = {x1 . b ∈ IRm y A ∈ IRm×n . w ∈ X + Y entonces u = x1 + y1 y w = x2 + y2 con x1 . Luego u + w = (x1 + y1 ) + (x2 + y2 ) = (x1 + x2 ) + (y1 + y2 ) ∈ X + Y dado que (x1 + x2 ) ∈ X y (y1 + y2 ) ∈ Y. . r i=1 t i=1 r i=1 t i=1 SY s´ y s´lo s´ Z = ı o ı αi Xi + γi Yi .. . .. y1 . xr } y SY = {y1 . yr } entonces SX As´ Z ∈ SX ı SY = {α1 x1 +.. An ⊆ IRm generado por las columnas de A... ii) Definase SX = {x1 . se llama espacio columna de A.2.2.. El proposito de esta secci´n es introducir o estos cuatro subespacios. xr . y2 . entonces o  m a = i=1 ρi Ai = ρ1 ρ2 · · · ρm     A1 A2 . . Demostraci´n.. se llama espacio rengl´n de A. Por otro lado si αx1 ∈ X y αy1 ∈ Y para todo α ∈ IR.. .. i) Sean u. . hay cuatro subespacios importantes. x2 ∈ X y y1 . Am . los cuales estan asociados con A. x2 .. LOS CUATRO SUBESPACIOS FUNDAMENTALES 57 Demostracion.

. Geom´tricamente. y as´ Im(A) = A1 . pero las columnas de A son los reglones de A. ξ3 ∈ IR} . entonces o Im(A) = A1 . mediante la o n m expresi´n f (x) = Ax : IR → IR para f (x) = Ax. . Problema: Describir la Im(A) y la Im(A ) para la matriz A = Soluci´n: Recuerde que Im(A) = CA . α2 ∈ IR}. se puede decir que el espacio columna es igual al conjunto imagen o rango de la funci´n f (x) = Ax. Sin embargo. ξn    . 3). por tanto Im(A ) = A1 .2. ξ3 ∈ IR} = {ξA1 | ξ ∈ IR} . A3 = {ξ1 A1 + ξ2 A2 + ξ3 A3 | ξ1 . por simple inspecci´n note que A2 = 2A1 y A3 = 3A1 . note que si b ∈ CA entonces  b= i=1 ξi Ai = A1 A2 · · · An     ξ1 ξ2 . A2 . α2 ∈ IR} = {αA1 | α ∈ IR}. . define una funci´n lineal de IRn a IRm . as´ CA = Im(A). Similarmente. ESPACIOS VECTORIALES ρm . o ı Por otro lado Im(A ) es el espacio columna de A . ı En ocasiones es de inter´s conocer si dos matrices tienen el mismo espacio columna o el mismo e espacio rengl´n. Esto es la linea en IR3 que pasa por el origen y el punto (1. as´ Im(A ) = A1 . ξn     = Ax     donde x =   ξ1 ξ2 . 2.  Observe que una matriz A ∈ IRm×n . Pero A2 = 2A1 lo cual implica que {α1 A1 + α2 A2 | α1 . Similarmente. ξ2 . ξ2 . 2). entonces Im(A ) = RA . entonces debe ser claro o que {ξ1 A1 + ξ2 A2 + ξ3 A3 | ξ1 . El siguiente teorema resuelve este problema.58 donde y = ρ1 ρ2 · · · n CAP´ ITULO 5. o . Entonces. esta es la linea en IR2 que pasa por el origen y el punto ı e (1. El dominio de f (x) es D = {x | x ∈ IRn } o y la imagen de f (x) es Im(A) = Ax = n i=1 ξi Ai | ξi ∈ IR . Im(A ) = RA . . A2 = {α1 A1 + α2 A2 | α1 . 1 2 3 2 4 6 Ejemplo 5.1.

2. y las columnas de A generan Im(A). Sin o embargo. pero unicamente hemos discutido dos de ellos. Usando EA =  0 0 1 1  se tiene que Im(A) = 0 0 0 0     1 2  2 .2. ii) Las columnas b´sicas en A generan Im(A).   . [Igualdad de espacio rengl´n o columna] Para dos matrices A y B de la misma o forma: col i) Im(A) = Im(B) si y s´lo si A ∼ B o row ii) Im(A ) = Im(B ) si y s´lo si A ∼ B o Por definici´n. ya que las o a o columnas b´sicas en A corresponden a las posiciones  a pivotales en Uy los renglones no cero . Sea A ∈ IRm×n .5. Problema: Determine los conjuntos generadores para Im(A) y Im(A ) donde  1 2 2 3 A =  2 4 1 3 . los espacios rengl´n y columna. Para una matriz A ∈ IRm×n . 1  y 3 1     1 0  2   0  Im(A ) =   . y sea U cualquier forma escalonada derivada de A.2.2.2 (Espacios nulos). el conjunto o N (A) = {x ∈ IRn | Ax = 0} ⊆ IRn . Teorema 5.  0   1  1 1 Se comento que hay cuatro subespacios asociados con una matriz. o Definici´n 5. Ahora se introducen los otros dos. a Ejemplo 5.2. el siguiente resultado explica como se pueden generar estos espacios utilizando unos cuantos vectores en cada caso.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 59 Teorema 5. Los conjuntos de vectores que generan a los espacios rengl´n y columna son los siguientes: o i) Los renglones no cero de U generan a Im(A ).3. 1 2 0 1 de U generan el espacio vector de A. 3 6 1 4  Soluci´n: Reduciendo a A a cualquier forma escalonada U se obtendr´ la soluci´n. los renglones de A generan Im(A ).2.

3. o u o entonces A(x + y) = Ax + Ay = 0 + 0 = 0.2.60 CAP´ ITULO 5. o         x1 −2x2 − 3x3 −2 −3  x2  =   = x2  1  + x3  0  . as´ (x + y) ∈ N (A). Se puede probar que S es unico en el sentido de ´ ´ que S es independiente de la forma escalonada U . 1 2 3 . o ii) N (A ) = {0} si y s´lo si r(A) = m. 1 2 3 2 4 6 Ejemplo 5.  0  . Problema: Determine el conjunto generador para N (A) donde A = . e Cada espacio nulo es adem´s un subespacio vectorial porque las propiedades de cerradura de a la adici´n vectorial y de la m´ltiplicaci´n escalar son satisfechas. Por otro lado. entonces: i) N (A) = {0} si y s´lo si r(A) = n. si x. Aqu´ la soluci´n general de Ax = 0 es ı ı. es un conjunto que genera a N (A). Por otro lado para α ∈ IR se ı tiene A(αx) = αAx = α0 = 0. Por ejemplo. y as´ αx ∈ N (A) si x ∈ N (A). as´ x2 y x3 son las variables libres. de donde se tiene que 0 0 0 x1 = −2x2 − 3x3 . hn − r} es el unico conjunto generador para N (A). o . x2 x3 x3 0 1 Soluci´n: Usemos la forma escalonada reducida EA = o     −3   −2 As´ el conjunto S =  1  . ESPACIOS VECTORIALES es llamado espacio nulo de A. el conjunto e N (A ) = {y ∈ IRm | y A = 0 } ⊆ IRm es llamado espacio nulo izquierdo de A porque N (A ) es el conjunto de todas las soluciones del sistema homog´neo ”izquierdo” y A = 0 . con A ∈ IRm×n . y resolver U x = 0 para las variables b´sicas en a terminos de las variables libres para producir la soluci´n general de Ax = 0 en la forma o x = xf1 h1 + xf2 h2 + · · · + xfn−r hn−r . ı. El conjunto S = {h1 .2.   1 0 Teorema 5.4. Si A ∈ IRm×n . se tiene que reducir a A a una forma escalonada U . En otras palabras N (A) es el conjunto de todas las soluciones del sistema homog´neo Ax = 0. h2 . ı Para determinar un conjunto generador para N (A) donde r(A) = r. y ∈ N (A). · · · .

2.5.  1 2 2 3 Ejemplo 5. LOS CUATRO SUBESPACIOS FUNDAMENTALES 61 Demostraci´n.2. Recuerde que la soluci´n trivial x = 0 es la unica soluci´n para Ax = 0 si y o o ´ o s´lo si r(A) = n.6. (A|I) =  2 4 1 3 0 1 0  →  0 0 1 1 3 6 1 4 0 0 1 0 0 0 0 1/3 −5/3 1  −1/3 2/3 0 Por tanto. r(A) = 2 y P =  2/3 −1/3 0 . entonces P2 N (A ) = Im(P2 ). Problema: Determinar un conjunto generador para N (A ) donde A =  2 4 1 3 . o Resumen Los cuatro subespacios fundamentales asociados a una matriz A ∈ IRm×n son los siguientes • La imagen o espacio columna: Im(A) = CA = {Ax} ⊆ IRm . o Para obtener un conjunto generador para N (A ) se procede de la misma forma. 3 6 1 4 Soluci´n: Utilizando el m´todo de Gauss-Jordan se obtiene la forma escalonada reducida de A o e     1 2 2 3 1 0 0 1 2 0 1 −1/3 2/3 0 2/3 −1/3 0  . Pero existe otra forma de o obtener un conjunto generador para N (A ). y si P A = U donde P ∈ IRm×m es no singular y U es una forma escalonada. la soluci´n trivial y = 0 es la unica soluci´n para A y = 0 si o o ´ o y s´lo si r(A ) = m. o col     1/3  −5/3  . o . a P1 En otras palabras. de donde se tiene que N (A ) = 1/3 −5/3 1 Teorema 5. o ii) N (A ) = N (B ) si y s´lo si A ∼ B. Sea A ∈ IRm×n . Analogamente.2. pero r(A ) = r(A). entonces los ultimos m − r renglones en P generar´n a N (A ).4. si P = donde P2 ∈ IRm−r×m . la cual es mostrada en el siguiente teorema Teorema 5.5. reducir a A a una forma escalonada U y extraer la soluci´n general para A y = 0.2. 1 Todos los resultados obtenidos en esta secci´n son presentados en el siguiente resumen. Si r(A) = r. • La imagen izquierda o espacio regl´n: Im(A ) = RA = {A y} ⊆ IRn . Para dos matrices A y B de la misma forma: row i) N (A) = N (B) si y s´lo si A ∼ B.

• Espacio nulo izquierdo: N (A ) = {y | A y = 0} ⊆ IRm . es decir existe una dependencia del vector v3 con v1 y v2 . Tal dependencia siempre puede expresarse en terminos de un sistema homog´neo escribiendo e 3v1 + 2v2 − v3 = 0.   0 0 1 representa un conjunto cuyos vectores no presentan una relaci´n de dependencia. ESPACIOS VECTORIALES • Espacio nulo: N (A) = {x | Ax = 0} ⊆ IRn . • A ∼ B ⇔ Im(A) = Im(B) ⇔ N (A ) = N (B ).  −3  .3 Independencia Lineal Para un conjunto de vectores S = {v1 . Las hi ’s generan a N (A). · · · . 0  . • Resolver U x = 0 para las variables b´sicas en terminos de las variables libres. ya que ni o uno de los vectores puede expresarse como una combinaci´n de los otros. Por ejemplo para el conjunto       1 3 9   A =  −1  . Otra forma de decir o esto es que no hay soluciones α1 . Estas observaciones nos dan la base para la o siguiente definici´n.   2 1 4 es obvio que v3 = 3v1 + 2v2 . Por otro lado el conjunto       0 0   1 B =  0 . α2 y α3 para el sistema homog´neo e α1 v1 + α2 v2 + α3 v3 = 0 distintas a la soluci´n trivial α1 = α2 = α3 = 0. Si r(A) = r y P es una matriz no singular tal que P A = U donde U es una forma escalonada. a • Los renglones distintos de cero generan a Im(A ). ´ 5. vn } puede o no haber dependencia entre los vectores. o . entonces • Las columnas b´sicas de A generan a Im(A). en el sentido de que ning´n vector vi ∈ S puede ser expresado como una combinaci´n u o lineal de los vj restantes de S. v2 . Si A y B tienen la misma forma. • Los ultimos m − r renglones de P generan a N (A ). y escribir a la soluci´n como x = o n−r i=1 col row xfi hi .62 CAP´ ITULO 5. entonces: • A ∼ B ⇔ N (A) = N (B) ⇔ Im(A ) = Im(B ).  0  . 1 .

 6  S=   1 2 7 es linealmente independiente. se dice que el conjunto es linealmente dependiente.1. [Independencia Lineal] Un conjunto de vectores S = {v1 . as´ aplicando el m´todo de Gauss-Jordan se tiene ı. Si existe al menos una soluci´n distinta a la o o trivial. del sistema homog´neo. M´s a´n. v2 .1. Este ejemplo indica por que la cuesti´n de que sin un subconjuto o de IRm es o no linealmente independiente es realmente una pregunta acerca de que si o no el espacio nulo asociado con una matriz es el trivial. Problema: Determine si el conjunto       1 5   1  2 . El siguiente teorema establece formalmente este hecho. vn } se dice que es un conjunto linealmente independiente si la unica soluci´n para el sistema homog´neo ´ o e α1 v1 + α2 v2 + · · · + αn vn = 0 es la soluci´n trivial α1 = α2 = · · · = αn = 0. Soluci´n: Lo anterior equivale a o encontrar las soluciones.2. e Ejemplo 5. para el sistema homog´neo. · · · . iii) N(AT ) = {0} iv) r(A) = m  . e  1 1 5 Ax = 0 donde: A =  2 0 6 .3. EA revela la relaci´n de dependencia de S ya que se a u o observa que A3 = 3A1 + 2A2 . INDEPENDENCIA LINEAL 63 Teorema 5. entonces EA =  0 1 2  y por tanto existen 1 2 7 0 0 0 soluciones distintas a la trivial. i) N (A) = {0} ii) r(A) = n • Los siguientes enunciados son equivalentes a decir que los reglones de A forman un conjunto linealmente independiente. si las hay. 0 .5.3.3.3. Teorema 5. Para una matriz A ∈ IRm×n : • Se tiene que los siguientes enunciados son equivalentes a decir que las columnas de A forman un conjunto linealmente independiente. e 1 2 7           1 1 5 1 1 5 1 1 5 1 1 5 1 0 3  2 0 6  →  0 −2 4  →  0 1 2  →  0 1 2  →  0 1 2  1 2 7 0 1 2 0 1 2 0 0 0 0 0 0    1 1 5 1 0 3 de donde se tiene que si A =  2 0 6 .

lo cual es equivalente a decir ´ o que N (A) = {0}. 0  1 Ahora sabemos que si r(A) < n donde A ∈ IRm×n . a menudo se decea extraer un subconjunto maximal linealmente independiente de columnas. Ahora. • Cualquier subconjunto maximal linealmente independiente de los renglones de A contiene exactamente r renglones. entonces las siguientes proposiciones se cumplen: • Cualquier subconjunto maximal linealmente independiente de las columnas de A contiene exactamente r columnas. Cualquier conjunto {ei1 . Aunque hay varias formas de hacer tal selecci´n. · · · . las columnas b´sicas de A siempre constituyen un o a subconjunto maximal linealmente independiente de las columnas de A. • En particular. e2 . Las proposiciones v) y vi) son casos especiales de ii) y iv). · · · . Recuerde que r(A) = r(A ). Demostraci´n.64 CAP´ ITULO 5. Ejemplo 5. para demostrar iii) y iv) sustituya A por A y proceda como antes. ESPACIOS VECTORIALES • Cuando A es una matriz cuadrada. cada uno de los siguientes enunciados es equivalente a decir que A es no singular. Por ejemplo. v) Las columnas de A forman un conjunto linealmente independiente. as´ i) y ii) son ı demostradas. las r columnas b´sicas de A constituyen un subconjunto maximal lineala mente independiente de las columnas de A. vi) Los renglones de A forman un conjunto linealmente independiente. Por definici´n. ei2 . es decir un conjunto linealmente independiente que contenga la mayor cantidad de columnas de A como sea posible. ei2 . las columnas de A son un conjunto linealmente independiente o o cuando el sistema homog´neo e   α1  α  0 = α1 A1 + α2 A2 + · · · + αn An = A1 A2 · · · An  2   ···  αn tiene unicamente la soluci´n trivial α1 = α2 = · · · = αn = 0. Si A ∈ IRm×n y r(A) = r. ein } de vectores unitarios es un conjunto linealmente independiente por que r(ei1 . Para tales matrices. e4 } ∈ IR4 es linealmente independiente  0 0   = 3.3. . ein ) = n.2. entonces las columnas de A deben ser un conjunto linealmente dependiente. el conjunto de vectores unitarios porque  1 0  0 1 r  0 0 0 0 {e1 . El hecho de que el N (A) = {0} implica que r(A) = n.

Similarmente. entonces el conjunto extensi´n Sext = S o es linealmente independiente si v ∈ S . x. · · · . / • Si S ⊆∈ IRm y si n > m. entonces el conjunto de renglones y el conjunto de columnas de A forman algunas bases de IRn .4. .´ 5. en } en IRn forman una base para IRn . · · · . entoces S debe ser en si mismo linealmente dependiente. Sin embargo los conjuntos generadores pueden o tener vectores redundantes.1 (Base).4. Ejemplo 5. o Definici´n 5. el conjunto vacio es considerado como una base de Z. un subespacio L definido por una recta que pasa por el origen en IR2 puede ser generador para cualquier numero de vectores no ceros {v1 . Estas consideraciones motivan la siguiente definici´n.4. • Para el espacio vectorial trivial Z = {0}.4 Base y dimensi´n o Recuerde que S es un conjunto generador de un espacio vectorial V si y s´lo si cada vector en V o es una combinaci´n lineal de los vectores de S. • El conjunto {1. • Si A ∈ IRn×n es una matriz no singular. Los siguientes son ejemplos de conjuntos que forman una base para un espacio vectorial: • Los vectores unitarios S = {e1 . e2 . entonces cada subconjunto de S es tambien linealmente independiente. un } de un espacio vectorial V. Por ejemplo. Por lo sonsiguiente. Esta es llamada la base estandar. · · · . xn } es una base para el espacio vectorial de los polinomios de grado n o menor. · · · .1. x2 . x. u2 . · · · } es una base para el espacio de vectorial de todos los polinomios. vk } en L. Si B es un conjunto generador linealmente independiente para un o espacio vectorial V. pero cualquier de los vectores {vi } puede ser en si mismo suficiente. • El conjunto infinito {1. v 5. pero la ley del paralelogramo indica que un conjunto generador m´ ınimo necesita unicamente un conjunto ´ independiente de dos vectores de P. entonces S debe ser linealmente dependiente. • Si S es linealmente independiente. un plano P que pasa por el origen en IR3 puede ser generado de diferentes formas. las siguientes propisiciones son verdaderas • Si S contiene un subconjunto linealmente independiente. no hay un conjunto generador linealmente independiente. entonces B es llamado una base para V. BASE Y DIMENSION 65 Para un conjunto no vacio de vectores S = {u1 . v2 . • Si S es linealmente independiente y si v ∈ V. x2 .

1) Sea Z = {0} entonces dim(Z) = 0. · · · . La dimensi´n de un espacio o o o vectorial V es definido de la siguiente forma: dim V = n´mero de vectores en cualquier base de V u = n´mero de vectores en cualquier conjunto generador minimal de V u = n´mero de vectores en cualquier subconjunto maximal independiente de V u Ejemplo 5. 3. si V es un subespacio de IRn . explicar porque cada subconjunto independiente S = {v1 . distinto al espacio vectorial trivial.4.3. Por tal motivo la base no es unica. entonces dim(P) = 2. ESPACIOS VECTORIALES Hay diferentes formas de carat´rizar a una base. v2 . y as´ S es una base de V. . Este n´mero es de suma impotancia. por lo que dim V ≤ n. porque el conjunto   0 0 1 Ejemplo 5.2 (Dimensi´n de un espacio vectorial).4.  0  constituye una base de IR3 . ı Es importante no confundir la dimensi´n de un espaci´ vectorial V con el n´mero de compoo o u nentes que tiene cada vector individual de V. u u Definici´n 5. S es un subconjunto maximal independiente de V. bn } ⊆ V.66 CAP´ ITULO 5. Aunque la dimensi´n de un espacio vectorial V y el n´mero de componentes que tiene cada o u vector individual en V no son necesariamente el mismo. vn } ⊂ V que contiene n vectores debe ser una base de V. Por ejemplo si P es un plano que pasa por el origen en IR3 . ´ e Note que un espacio vectorial. 3) dim(IR ) = 3. pero es unica en el sentido que tiene el mismo ´ ´ n´mero de elementos. Estas tres proposiciones son utiles para caract´rizar una base. Por tanto. Soluci´n: La dim V = n significa que cada subconjunto de V que contiene a lo m´s n vectores o a debe ser linealmente independiente. entonces dim P = 2. entonces ni uno de los subconjuntos linealmente independientes de V puede contener m´s de n vectores. 2. .       0 0   1 3  0  . tiene una gran cantidad de bases.4. pero cada uno de los vectores en P tiene 3 componentes. entonces las siguientes proposiciones son equivalentes. b2 . sin embargo estan relacionados. 1. . . .2. Si V un espacio vectorial y sea e B = {b1 . 2) Si P es un plano que pasa por el origen en IR3 . B es una base para V. Problema: Si V es un espacio vectorial n-dimensional . Esta observaci´n se a o generaliza para producir el siguiente teorema. B es un conjunto maximal independiente para V.  1  . B es un conjunto generador minimal para V. Por ejemplo.

entonces tenemos que la dim N (A ) es el n´mero de renglones u en A menos el r(A ). Las proposiciones i) y ii) del teorema anterior producen el siguiente teorema.4. Sea dim M = m y dim N = n. i) El conjunto B que contiene las r columnas b´sicas de A es una base de o a Im(A) porque B es un conjunto generador independiente para el conjunto Im(A). u Si remplazamos A por A en iv). ii) Note que en palabras iv) dice que dim N (A ) es el n´mero de renglones en A menos el r(A). entonces existe un subconjunto linealmente independiente de N (una base de M) que contiene m´s de n vectores. es facil determinar la dimesi´n de cada uno de los cuatro subespacios fundamentales o asociados a una matriz A. entonces existe un vector x tal que x∈N pero x ∈ M.2. / Si B es una base para M. Teorema 5. Pero los renglones de P forman un conjunto linealmente independiente y todo subconjunto de un conjunto linealmente independiente es linealmente independiente. Pero A = A y r(A ) = r(A) = r.1. lo cual es imposible por que dim N = n es el tama˜o de un subconjunto maximal independiente de n N .4. entonces dim N (A) = n − r. Por tanto dim Im(A ) = r. dim N (A ) = m − r. As´ M = N . y el conjunto extensi´n ε = B {x} es un / o subconjunto linealmente independiente de N . entonces i) dim Im(A) = r ii) dim N (A) = n − r iii) dim Im(A ) = r iv) dim N (A ) = m − r Demostraci´n. Por tanto. entonces x ∈ B . As´ m ≤ n. ii) Si dim M = dimN . iii) Recuerde que dim Im(A ) = r(A ). Por tanto dim Im(A) = r. . Pero ε contiene m + 1 = n + 1 vectores. entonces los ultimo m − r renglones de P generan a N (A ). y usando argumentos indirectos se demostar´ o a i). iv) Recuerde que si P es una matriz no singular tal que P A = U es una forma escalonada. Si M y N son espacios vectoriales tal que M ⊆ N entonces: i) dim M ≤ N . 67 Demostraci´n. [Dimensiones de los cuatros subespacios fundamentales] Sea A ∈ IRm×n tal que r(A) = r. por tanto los ultimos m − r renglones de P constituyen una base de N (A ). pero r(A ) = r(A) = r. BASE Y DIMENSION Teorema 5. Pero esto es imposible porque dim N es el tama˜o de un a n subconjunto maximal independiente de N . Si m > n.4. entonces M = N .´ 5. ı Ahora. Ahora se probar´ ii). Si m = n pero ı a M = N .

S=   1 2 7 Soluci´n 1.4. Soluci´n 2.  0  . entonces tenemos dim S = dim Im(A) = r(A) = 2. y reducir  1 0 3 0 1 2 . 5 6 7 0 0 0 Esta vez tenemos que S = Im(B ). as´ que ı dim S = dim Im(B ) = r(B) = r(U ) = 2.4. Examinando EA revela que cualquier par de vectores en S forma un conjunto independiente. 0 . Problema: Determine la dimensi´n como tambien una base para el conjunto o generado por       1 5   1  2 . y por lo tanto cualquier par de vectores de S constituye una base para S. Coloque los vectores de S como renglones de una matriz B. o Teorema 5. a   1 2 Otras bases tambien son posibles. Si X y Y son subespacios de un espacio vectorial V. entonces dim(X + Y) = dim X + dim Y − dim(X Y). . El titulo ”teorema de adici´n del rango y la nulida” es derivado del hecho de que dim Im(A) = o r(A) y dim N (A) fue tradicionalmente conocida como la nulidad de A.3. o dim Im(A) + dim N (A) = n. La dimensi´n de una suma de subespacios vectoriales es dada por el siguiente resultado.     1 2 1 1 2 1 B =  1 0 2  → U =  0 −2 1  . Coloque los vectores como o  1 1 A= 2 0 1 2 columnas en una   5 6  → EA =  7 matriz A.68 CAP´ ITULO 5. y reducir B a una o forma escalonada.4. [Teorema de adici´n del rango y la nulida] Para toda matriz A ∈ IRm×n . y una base de S = Im(B ) es dada por los renglones distintos de cero en U .4. B =  2  . 0 0 0 Dado que S = Im(A).4. Ejemplo 5.     1   1 y una base para S = Im(A) es el conjunto de columnas b´sicas de A. 6  . ESPACIOS VECTORIALES Teorema 5.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->