P. 1
Libro GAL 1

Libro GAL 1

5.0

|Views: 3.760|Likes:

More info:

Published by: Telmo Canabarro Sica on Jul 05, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

08/10/2013

pdf

text

original

Sections

  • 0.1. Relaciones
  • 0.2. Relaciones de equivalencia
  • 0.3. Conjunto Cociente
  • 0.4. Funciones
  • 0.5. Composici´on de funciones
  • 1.1. Introducci´on
  • 1.2. Matrices
  • 1.3. EL M´ETODO DE ESCALERIZACI´ON 27
  • 1.3. El m´etodo de escalerizaci´on
  • 1.4. Teorema de Rouche-Frobenius
  • 1.5. Sistemas homog´eneos
  • 1.6. Una interpretaci´on geom´etrica
  • 2.1. Operaciones con matrices
  • 2.2. Producto de matrices
  • 2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 57
  • 2.3. Ecuaciones matriciales. Matriz inversa
  • 2.4. El espacio de n-uplas
  • 2.5. Dependencia lineal
  • 2.6. El rango de una matriz
  • 2.7. Matrices invertibles y rango
  • 2.8. Matrices elementales
  • 3.1. Definici´on
  • 3.2. Propiedades de los determinantes
  • 3.3. Matrices elementales y determinantes
  • 3.4. Matrices invertibles y determinantes
  • 3.5. DETERMINANTE DE UN PRODUCTO DE MATRICES 117
  • 3.5. Determinante de un producto de matrices
  • 3.6. C´ALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 119
  • 3.6. C´alculo de la matriz inversa por determinantes
  • 3.7. Regla de Cramer
  • 4.1. Introducci´on
  • 4.2. Vectores
  • 4.3. Operaciones con vectores
  • 4.4. Ecuaciones vectoriales de rectas y planos. Paralelismo
  • 4.5. Sistemas de coordenadas
  • 4.6. Ecuaciones param´etricas de rectas y planos
  • 4.7. ECUACIONES IMPL´ICITAS DE RECTAS Y PLANOS 139
  • 4.7. Ecuaciones impl´ıcitas de rectas y planos
  • 4.8. Posiciones relativas de rectas y planos
  • 5.1. Producto escalar
  • 5.2. Aplicaciones a la geometr´ıa: ´angulos y distancias
  • 5.3. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 151
  • 5.3. Aplicaciones: ecuaciones de algunas superficies
  • 5.4. Producto vectorial
  • 5.5. Aplicaciones geom´etricas
  • 5.6. Producto mixto
  • 6.1. Espacios vectoriales
  • 6.2. Ejemplos de espacios vectoriales
  • 6.3. Subespacios
  • 6.4. Subespacio generado e independencia lineal
  • 6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI´ON 187
  • 6.5. Base de un espacio vectorial y dimensi´on
  • 6.6. Suma de subespacios y suma directa
  • TRANSFORMACIONES LINEALES
  • 7.1. Transformaciones lineales
  • 7.2. Operaciones con transformaciones lineales
  • 7.3. IMAGEN Y N´UCLEO DE UNA TRANSFORMACI´ON LINEAL. 211
  • 7.3. Imagen y n´ucleo de una transformaci´on lineal
  • 7.4. TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. 219
  • 7.4. Transformaciones lineales inyectivas y sobreyectivas
  • 7.5. Isomorfismos entre espacios vectoriales
  • 7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI´ON LINEAL. 225
  • 7.6. Matriz asociada a una transformaci´on lineal
  • 7.7. N´ucleo e imagen de una matriz
  • 7.10. Operadores y matrices semejantes
  • 7.11. El espacio vectorial L(V,W)

Geometr´ıa y Algebra Lineal I

Instituto de Matem´atica y Estad´ıstica
“Prof. Rafael Laguardia”
Facultad de Ingenier´ıa Universidad de la Rep´ ublica
´
Indice general
PREFACIO vii
Cap´ıtulo 0. RELACIONES Y FUNCIONES 1
0.1. Relaciones 1
0.2. Relaciones de equivalencia 2
0.3. Conjunto Cociente 6
0.4. Funciones 9
0.5. Composici´on de funciones 15
Cap´ıtulo 1. SISTEMAS LINEALES DE ECUACIONES Y MATRICES
19
1.1. Introducci´on 19
1.2. Matrices 24
1.3. El m´etodo de escalerizaci´on 27
1.4. Teorema de Rouche-Frobenius 38
1.5. Sistemas homog´eneos 43
1.6. Una interpretaci´on geom´etrica 44
Cap´ıtulo 2.
´
ALGEBRA DE MATRICES 49
2.1. Operaciones con matrices 49
2.2. Producto de matrices 51
2.3. Ecuaciones matriciales. Matriz inversa. 57
2.4. El espacio de n-uplas 66
2.5. Dependencia lineal 71
2.6. El rango de una matriz 82
2.7. Matrices invertibles y rango 85
iii
iv
´
INDICE GENERAL
2.8. Matrices elementales 87
Cap´ıtulo 3. DETERMINANTES 95
3.1. Definici´on 95
3.2. Propiedades de los determinantes 97
3.3. Matrices elementales y determinantes 114
3.4. Matrices invertibles y determinantes 116
3.5. Determinante de un producto de matrices 117
3.6. C´alculo de la matriz inversa por determinantes 119
3.7. Regla de Cramer 123
Cap´ıtulo 4. RECTAS Y PLANOS EN EL ESPACIO 127
4.1. Introducci´on 127
4.2. Vectores 129
4.3. Operaciones con vectores. 131
4.4. Ecuaciones vectoriales de rectas y planos. Paralelismo 134
4.5. Sistemas de coordenadas 135
4.6. Ecuaciones param´etricas de rectas y planos 138
4.7. Ecuaciones impl´ıcitas de rectas y planos 139
4.8. Posiciones relativas de rectas y planos. 142
Cap´ıtulo 5. PRODUCTO ESCALAR Y VECTORIAL 145
5.1. Producto escalar 145
5.2. Aplicaciones a la geometr´ıa: ´angulos y distancias 148
5.3. Aplicaciones: ecuaciones de algunas superficies 151
5.4. Producto vectorial. 157
5.5. Aplicaciones geom´etricas. 161
5.6. Producto mixto 165
Cap´ıtulo 6. ESPACIOS VECTORIALES 167
6.1. Espacios vectoriales 168
6.2. Ejemplos de espacios vectoriales 170
6.3. Subespacios 174
6.4. Subespacio generado e independencia lineal 180
´
INDICE GENERAL v
6.5. Base de un espacio vectorial y dimensi´on 187
6.6. Suma de subespacios y suma directa 201
Cap´ıtulo 7. TRANSFORMACIONES LINEALES. 205
7.1. Transformaciones lineales 205
7.2. Operaciones con transformaciones lineales. 208
7.3. Imagen y n´ ucleo de una transformaci´on lineal. 211
7.4. Transformaciones lineales inyectivas y sobreyectivas. 219
7.5. Isomorfismos entre espacios vectoriales 222
7.6. Matriz asociada a una transformaci´on lineal. 225
7.7. N´ ucleo e imagen de una matriz. 234
7.8. Relaci´on entre n´ ucleo e imagen de una transformaci´on lineal y
de una matriz. 237
7.9. Cambio de base. 245
7.10. Operadores y matrices semejantes. 246
7.11. El espacio vectorial L(V, W) 249
vi
´
INDICE GENERAL
PREFACIO
Estas notas son una reelaboraci´on, corregida y muy modificada de las
correspondientes partes de las notas de 1991, en cuya redacci´on participa-
ron un gran n´ umero de docentes del Instituto de Matem´atica y Estad´ıstica
“Prof. Ing. Rafael Laguardia”(IMERL) de la Facultad de Ingenier´ıa de la
Universidad de la Rep´ ublica.
Varios cap´ıtulos fueron redactados nuevamente, teniendo en mente trans-
formarlos a la brevedad en partes de un libro sobre el tema.
Los principales defectos de las notas derivan de la impericia de los fir-
mantes y de la celeridad con que fue armada esta versi´on (no) final.
El Algebra Lineal constituye hoy una rama b´asica de la matem´atica con
aplicaciones dentro y fuera de esta. No se han incluido en esta edici´on, so-
bre todo por razones de tiempo ejemplos de tales aplicaciones. Sin embargo
algunas ser´an abordadas en clase, adem´as en la bibliograf´ıa se indican algu-
nas referencias donde el lector interesado puede encontrar varios ejemplos
interesantes.
La carencia de ejercicios no debe extra˜ nar dado que ´estos son editados
en fasc´ıculos aparte.
La estructura general del libro -que no ser´a necesariamente la del curso-
es la siguiente. Se incluye un Cap´ıtulo Cero, en que se desarrollan los con-
ceptos de Relaciones, Funciones, etc., con diversos ejemplos. Su lectura fa-
cilitar´a la comprensi´on del lenguaje del curso, y dar´a una referencia general
sobre definiciones y resultados b´asicos. Fue extra´ıdo de Notas de
´
Algebra,
de Alfredo Jones, editadas por el IME de la Universidad de San Pablo.
vii
viii PREFACIO
En el Cap´ıtulo Uno se estudian los Sistemas de Ecuaciones Lineales, se
desarrolla su presentaci´on matricial y se describe el algoritmo de Gauss o de
escalerizaci´on como herramienta principal para su resoluci´on.
En el Cap´ıtulo Dos se estudian las principales propiedades de las matrices
y sus operaciones. Se presenta un ejemplo clave del curso: el espacio de
n-uplas, R
n
y culmina con el estudio del rango de una matriz, concepto
directamente relacionado con las soluciones de los sistemas lineales y con la
invertibilidad de las matrices cuadradas.
El Cap´ıtulo Tres estudia el Determinante de una matriz cuadrada se
prueban algunos resultados cl´asicos como el teorema de Cramer y el teorema
de Binet-Cauchy sobre el determinante de un producto de matrices.
Los Cap´ıtulos Cuatro y Cinco (que podr´ıan ser los primeros de las notas)
est´an dedicados a la introducci´on de un segundo ejemplo b´ asico: el de los
vectores libres del espacio. Estos se utilizan para dar una exposici´on de los
primeros elementos de la Geometr´ıa Anal´ıtica del Espacio.
El Capitulo Seis est´a dedicado a los Espacios Vectoriales. Es el cap´ıtulo
decididamente nuevo para todos los estudiantes, y el centro conceptual del
curso, en el se introduce de manera axiom´atica una estructura abstracta
que se inspira y generaliza varios de los ejemplos tratados en los cap´ıtulos
previos.
El Cap´ıtulo Seis est´a dedicado a un tipo particular de funciones entre
espacios vectoriales: las Transformaciones Lineales. Estas se caracterizan por
preservar la estructura de los espacios vectoriales y son en cierto sentido el
modelo mas sencillo de una funci´on. Se estudia aqu´ı con detalle su relaci´on
con las matrices y se pone de manifiesto el contenido geom´etrico de muchas
propiedades algebraicas de estas ´ ultimas.
Un comentario final es pertinente para preparar al estudiante a apro-
vechar tanto el curso como estas notas. Aqu´ı cada cap´ıtulo interviene de
manera fundamental en los siguientes. La gran mayor´ıa de los t´opicos abor-
dados en los primeras clases tiene un rol fundamental en el resto del curso.
Dif´ıcilmente ser´a posible avanzar de un cap´ıtulo al siguiente sin haber com-
prendido el primero.
PREFACIO ix
En la presente edici´on colabor´o particularmente Jos´e D´ıaz.
Lecturas complementarias recomendadas. De cualquiera de los li-
bros que se indican a continuaci´on, hay diversas otras ediciones; en particular
en sus lenguas originales:
A.G. Kurosch: Curso de
´
Algebra Superior, Mir-Nimusa.
E. Lages Lima:
´
Algebra Linear, IMPA.
Un libro excelente, escrito por un experimentado matem´ati-
co autor de numerosos textos, cubre un amplio t´opico de te-
mas con rigor y profundidad pero no incluye los cap´ıtulos de
geometr´ıa. Adem´as sigue un orden algo distinto del de nues-
tras notas, los cap´ıtulos de matrices y sistemas de ecuaciones
aparecen luego de tratar espacios vectoriales. Es ampliamen-
te recomendado para ampliar los dos ´ ultimos cap´ıtulos de
nuestro curso.
P.R. Halmos: Espacios Vectoriales de dimensi´ on finita, CECSA.
Una obra cl´asica sobre el tema, realizada por un destacado
matem´atico, tampoco aborda los temas iniciales de nuestro
curso. Su enfoque sobre la teor´ıa de espacios vectoriales esta
pensada para quien desea luego profundizar en el estudio de
espacios de dimensi´on infinita.
E. Hern´ andez
´
Algebra y Geometr´ıa , Adisson–Wesley.
Este libro cubre todos los temas de nuestro curso incluyendo
los cap´ıtulos de geometr´ıa, en un orden similar. Es escueto
en explicaciones y las pruebas a veces resultan oscuras. No
contiene aplicaciones.
R. Hill
´
Algebra Lineal Elemental con Aplicaciones, Prentice Hall.
Este libro es como su nombre lo indica, tal vez m´as elemental
que los otros sin embargo es claro abarca casi todos los temas
del curso y sobre todo tiene un n´ umero grande de aplicacio-
nes interesantes a la ingenier´ıa y otras disciplinas. Incluye
0 PREFACIO
una introducci´on al Matlab y tiene numerosos ejercicios, in-
cluyendo algunos proyectos para trabajar en computadora.
K. Koffman & R. Kunze:
´
Algebra Lineal, Prentice-Hall.
Otro excelente libro, que no cubre los cap´ıtulos de geometr´ıa,
es muy claro y riguroso, en algunos momentos aborda temas
(determinantes)con mucha generalidad lo cual puede dificul-
tar la comprensi´on en una lectura inicial
G. Nakos & D. Joyner Algebra Lineal con Aplicaciones, Thomson.
De nivel similar al libro de Hill tiene tambi´en un gran n´ umero
de ejemplos y aplicaciones y algunas notas hist´oricas intere-
santes. Tal vez su mayor virtud es el gran n´ umero de ejemplos
para trabajar con computadora. Se incluyen proyectos para
trabajar con Matlab, Maple y Mathematica
G. Strang: Algebra linel y sus aplicaciones, Addison–Wesley.
Este libro tiene un enfoque algo diferente de los otros libros
recomendados. Su objeto de estudio son los sistemas lineales
y las matrices, los espacios vectoriales y las transformaciones
lineales solo aparecen secundariamente. No obstante tiene un
punto de vista interesante y claro que puede ayudar a ver
desde otra ´optica los problemas analizados en el curso, es
especialmente recomendado para los primeros cap´ıtulos del
curso. Cuenta con un gran n´ umero de aplicaciones interesan-
tes incluyendo c´odigos de computadora en Fortran.
Marzo del 2000
Marcelo Cerminara
Roberto Markarian
Responsables de esta edici´on
CAP´ıTULO 0
RELACIONES Y FUNCIONES
0.1. Relaciones
En este cap´ıtulo introduciremos algunas definiciones y notaciones b´asicas
para el desarrollo de estas notas. Supondremos que el lector tiene cierta
familiaridad con las nociones de relaci´on y de funci´on, de modo que no nos
detendremos en la explicaci´on del significado de estos conceptos, sino que
partiremos de sus definiciones estudiando luego s´olo aquellas propiedades
que ser´an aplicadas en los cap´ıtulos que siguen.
Comenzaremos introduciendo la noci´on de relaci´on mediante una defi-
nici´on que esta motivada por la idea usual de una relaci´on entre pares de
objetos. Observamos que dar una relaci´on entre pares de elementos de un
conjunto, en la acepci´on corriente del t´ermino, equivale a dar una lista for-
mada por los elementos que verifican dicha relaci´on, esto es, a especificar un
conjunto de pares.
Dados dos conjuntos, A y B, indicaremos con A × B el conjunto consti-
tuido por los pares ordenados (a,b) tales que a pertenece al conjunto A y b
pertenece al conjunto B. Con las notaciones usuales de la teor´ıa de conjuntos
esto se traduce en la igualdad:
Presuponiendo solo los conceptos de conjunto, subconjunto, elemento y
par ordenado de elementos de un conjunto, podemos definir una relaci´on
como sigue;
1
2 0. RELACIONES Y FUNCIONES
DEFINICI
´
ON 0.1. Una relaci´on en un conjunto A, es un subconjunto R
de A × A.
Si (a,b) ∈ R diremos que a esta en relaci´on R con b y escribiremos aRb.
EJEMPLO 0.1. En todo conjunto A la relaci´on de igualdad esta dada por
el conjunto R = {(a, a) /a ∈ A}, seg´ un esta relaci´on, cada elemento de A
solo esta en relaci´on consigo mismo; luego en este caso aRb significa a = b.

EJEMPLO 0.2. Sea Z el conjunto de los n´ umeros enteros, consideremos:
R = {(a,b) / a , b ∈ Z, a - b es m´ ultiplo entero de 2}.
En este caso, el entero a esta en relaci´on R con el entero b, cuando son
ambos pares o bien son ambos impares.
0.2. Relaciones de equivalencia
DEFINICI
´
ON 0.2. Una relaci´on R en A se dice reflexiva si aRa para todo
a ∈ A; sim´etrica si aRb implica bRa y transitiva si aRb y bRc implica aRc.
Una relaci´on de equivalencia en un conjunto A es una relaci´on reflexiva,
sim´etrica y transitiva.
Cuando R es una relaci´on de equivalencia, si aRb diremos que a es
equivalente a b y usaremos la notaci´on a ∼ b.
Las propiedades que definen una relaci´on de equivalencia en un conjunto
A, son entonces:
a) a ∼ a ∀ a ∈ A.
b) a ∼ b ⇒ b ∼ a.
c) a ∼ b y b ∼ c ⇒ a ∼ c.
0.2. RELACIONES DE EQUIVALENCIA 3
Mencionaremos algunos ejemplos de relaciones de equivalencia que son
´ utiles, pues permiten definir ciertos conceptos importantes. En cada caso el
lector verificar´a que valen a), b) y c).
EJEMPLO 0.3. En todo conjunto A se tiene una relaci´on de equivalencia
trivial: R = {(a,a) / a ∈ A}, es decir a ∼ b ⇔ a = b.
EJEMPLO 0.4. Sea N el conjunto de los n´ umeros naturales. A fin de
obtener los n´ umeros enteros Z a partir de los naturales, se definen en N
× N la relaci´on (a,b) ∼ (a’,b’) ⇔ a + b’ = a’ + b. Observar que cada
par representar´a al entero que surge de restar a la primera componente la
segunda.
EJEMPLO 0.5. Sea Z el conjunto de los enteros. A fin de obtener los
racionales, se define en el conjunto Z × Z −{0, 0}, la relaci´on: (a,b) ∼
(a’,b’) ⇔ a.b’ = a’.b .
EJEMPLO 0.6. Dado un entero fijo m, se define una relaci´on de equiva-
lencia en Z, poniendo a ∼ a’ cuando a - a’ es m´ ultiplo de m. En este caso
se escribe a = a’ (mod. m) para indicar que a ∼ a’ y se dice que a y a’
son congruentes m´odulo m. Observamos que m y -m definen la misma
relaci´on, de modo que se puede suponer m 0.
EJEMPLO 0.7. En el conjunto de los reales R, se tiene una relaci´on de
equivalencia tomando r ∼ r’ cuando r - r’ entero.
4 0. RELACIONES Y FUNCIONES
EJEMPLO 0.8. Se puede definir un ´angulo como una figura plana que es
la intersecci´on de dos semiplanos del mismo plano. Esta noci´on de ´angulo
tiene la limitaci´on de que para estos ´angulos no es posible definir una suma
con todas las propiedades deseables para las aplicaciones de este concepto,
las que se pueden resumir diciendo que los ´angulos con la suma deben formar
un grupo abeliano. Para esto es necesario dar otra definici´on de ´angulo. Uno
de los caminos posibles para llegar a esa definici´on, consiste en introducir en
el conjunto de los pares ordenados de semirrectas del plano con origen en un
punto O, la siguiente relaci´on de equivalencia. Suponemos sabido que: para
cada par ordenado de semirrectas de origen O, (a,b), existe una ´ unica si-
metr´ıa axial del plano que transforma a en b, la indicaremos con la notaci´on
s(a,b). Dados dos pares ordenados de semirrectas de origen O, (a,b) y (a’,b’),
definimos (a,b) ∼ (a’,b’) si la simetr´ıa axial que transforma a en b’, tambi´en
transforma b en a’, es decir si s(a,b) = s(b,a). Las propiedades reflexiva y
sim´etrica se verifican trivialmente. Para demostrar que la relaci´on es transi-
tiva, debemos probar que si s(a,b’) = s(b,a’) y s(a’,b”) = s(b’,a”) entonces
s(a,b”) = s(b,a”). .
El
resultado de aplicar sucesivamente tres simetr´ıas cuyos
ejes pasan por un punto fijo O, es una simetr´ıa”. De lo anterior surge que
al aplicar sucesivamente s(a,b’), s(b’,a”) y s(a”,b”), se lleva a a en b”, por
lo que esta composici´on es, efectivamente, s(a,b”). An´alogamente, aplicando
s(b,a’), s(a’,b”) y s(a”,b”), se obtiene s(b,a”). De lo anterior y observando
que: s(a,b’) = s(b’,a)
s(a”,b’) = s(b’,a”)
s(a”,b”) = s(b”,a”)
tenemos que: s(a,b”) = s(b”,a).
FIGURA 2.1
Anotamos para usarlo mas adelante, que, de la definici´on de esta relaci´on
(a,b) ∼ (a’,b’) si y solo si (a,a’) ∼ (b,b’).
0.2. RELACIONES DE EQUIVALENCIA 5
EJEMPLO 0.9. Llamaremos figura del plano a todo conjunto de puntos
del plano. La relaci´on de congruencia de figuras en el plano, se puede
definir como sigue; Dadas dos figuras planas F1 y F2 definimos F1 ∼ F2
cuando hay alguna sucesi´on finita de simetr´ıas axiales del plano que trans-
forma F1 en F2. Para mostrar que esta es una relaci´on de equivalencia en
el conjunto de las figuras planas, es suficiente verificar lo que sigue: a) Para
toda figura plana F se tiene F ∼ F, porque la sucesi´on de dos simetr´ıas
iguales transforma todo punto del plano en si mismo.- b) Si la sucesi´on de
simetr´ıas s1, . . . , sn, transforma F1 en F2 y s

1, . . . , s

m transforma F2 en
F3, entonces la sucesi´on s1, . . . , sn, s

1, . . . , s

m transforma F1 en F3.-
DEFINICI
´
ON 0.3. Dada una relaci´on de equivalencia en un conjunto A y
un elemento a ∈ A. Llamaremos ”clase de equivalencia de a”, al conjunto
de todos los elementos x ∈ A que son equivalentes con a, y que notaremos:
cl(a), a.
De las condiciones b) y c) de la definici´on de relaci´on de equivalencia
se deduce que si a ∼ b , entonces x ∼ a si y solo si x ∼ b . Luego a ∼ b
implica cl(b) = cl(a) . Es claro que vale el rec´ıproco, esto es: Si cl(b) = cl(a)
entonces a ∼ b .
Todo elemento b ∈ cl(a) se dice que es un representante de esa clase.
Es decir que b es un representante de cl(a) si y solo si b ∼ a.
El siguiente resultado muestra que el conjunto de las clases de equiva-
lencia determina la relaci´on.
PROPOSICI
´
ON 0.1. Dadas dos clases de equivalencia cl(a) y cl(b) en
un conjunto A se tiene que, o bien cl(a) ≡ cl(b), o bien son disjuntas (sin
elementos comunes). Adem´ as, una relaci´ on de equivalencia clasifica los ele-
mentos de un conjunto A en clases de equivalencia, disjuntas dos a dos.
Todo elemento de A pertenece a alguna clase.
6 0. RELACIONES Y FUNCIONES
PROPOSICI
´
ON 0.2. Rec´ıprocamente, dada una clase cualquiera C de
subconjuntos de A, no vac´ıos y sin elementos comunes dos a dos, tales que
todo elemento de A pertenezca a alguno de ellos, existe una ´ unica relaci´ on
de equivalencia en A cuyas clases son dichos subconjuntos.
Demostraci´ on de 0.1. En efecto, supongamos que c ∈ cl(a) y c ∈ cl(b),
entonces c ∼ a y c ∼ b, de donde a ∼ b, por lo tanto cl(a) = cl(b). Por otra
parte, para todo a ∈ A se tiene que a ∈ cl(a).
Demostraci´ on de 0.2. Se puede demostrar, que definiendo a ∼ b cuando
a y b pertenecen a un mismo subconjunto de la clase C se obtiene una relaci´on
de equivalencia.
0.3. Conjunto Cociente
DEFINICI
´
ON 0.4. Llamaremos ”conjunto cociente de A por R”, a
aquel cuyos elementos son las clases de equivalencia de A definidas por la
relaci´on de equivalencia R en A, que notaremos:
A/R, A.
Seg´ un esta definici´on, cada elemento de A junto con todos sus equiva-
lentes, constituyen un elemento de A/R. Es por esto que a veces se dice que
A/R se obtiene identificando cada elemento de A con todos sus equiva-
lentes. La utilidad de las relaciones de equivalencia proviene precisamente
de que permiten en esta forma construir un conjunto de objetos nuevos, las
clases de equivalencia, a partir de ciertos objetos dados, los elementos de A.
Para individualizar un elemento de A/R, es decir una clase de A, se pue-
de tomar un representante cualquiera de esa clase. Usualmente se trata de
elegir un representante que facilite la notaci´on o el c´alculo.-
0.3. CONJUNTO COCIENTE 7
- Veamos cuales son los conjuntos cociente que se obtienen de algunas
de las relaciones de la secci´ on 2.
EJEMPLO 0.10. En este caso cada a ∈ A solo es equivalente a s´ı mismo
por lo tanto la clase de equivalencia de a es el conjunto {a}. Quiere decir
que cada elemento de A/R es un conjunto formado ´ unicamente por alg´ un
elemento de A; luego en este ejemplo al formar el conjunto cociente no
tenemos nada escencialmente nuevo.
EJEMPLO 0.11. En este caso la cl(a,b) = {(a’,b’) ∈ N × N / a + b’
= a’ + b}, por lo tanto, en cada clase de equivalencia hay infinitos pares.
Observando que (a,b) ∼ (a + 1, b + 1), se puede demostrar que si a = b,
en la cl(a,b) hay: o bien un ´ unico representante de la forma (c,0) o bien un
´ unico representante de la forma (0,c) con c = 0. Las clases correspondientes
denotan c y -c. Si a = b, (a,b) ∼ (0,0). La clase de (0,0) se denota 0.
Se definen los n´ umeros enteros como los elementos del conjunto cociente
obtenido.
EJEMPLO 0.12. En este ejemplo las clases de equivalencia son de la forma:
cl (a, b) =
¸
a

, b

/a

, b

∈ Z, b

= 0, a.b

= a

.b
¸
.
Usaremos la notaci´on a / b para la clase de (a,b). La igualdad de clase a
/ b = a’ / b’ significa la equivalencia de los representantes, (a,b) ∼ (a’,b’), o
sea, seg´ un la definici´on de la relaci´on, a.b’ = a’.b. Se demuestra f´acilmente
que para todo natural k = 0 es (a.k,b.k) ∼ (a,b) , de aqu´ı se deduce que se
puede tomar para cada clase un representante (a,b) con a y b relativamente
primos, es decir, que toda clase se puede escribir en la forma a / b con a y b
primos entre s´ı. Se definen los n´ umeros racionales como los elementos del
conjunto cociente. De acuerdo con esta definici´on, cada racional, es una clase
de equivalencia a / b, es decir un conjunto de pares enteros.- Designaremos
al conjunto de los n´ umeros racionales con la letra Q.
8 0. RELACIONES Y FUNCIONES
EJEMPLO 0.13. En este caso cl(a) = {a , a ± m , a ± 2.m , . . .}.
Sabemos que todo elemento a se puede escribir en la forma a = r ± q.m
con 0 r m , por lo tanto a ∼ r y cl(a) ∼ cl(r). Quiere decir que para
cada clase de equivalencia se puede tomar como representante uno de los
n´ umeros 0,1, . . . . , m-1. Por otra parte, si 0 r < r’ < m , es facil ver que
r no es equivalente a r’, en consecuencia hay exactamente m clases distintas.
Usaremos la notaci´on a para indicar la clase de a e indicaremos con Z
m
el
conjunto cociente, luego Z
m
=
¸
0, 1, ..., m−1
¸
. Los elementos de Z
m
, se
llaman enteros m´odulo m. Vamos a introducir la siguiente notaci´on: Si X
es un conjunto finito cualquiera, indicaremos el n´ umero de elementos de X
con — X —. En este ejemplo tenemos |Z
m
| = m.
EJEMPLO 0.14. En este ejemplo cl(r) = { r + n / n ∈ Z }. Como todo
n´ umero real se puede escribir en la forma r + n con 0 r < 1 y n entero,
para cada clase de equivalencia hay un representante tal que 0 r < 1.
Adem´as es claro que dos reales r y r’, con 0 r < r

< 1 no pueden tener
por diferencia un entero, luego pertenecen a clases distintas. Por lo tanto el
conjunto de los reales r, tales que 0 r < 1, contiene un solo representante
de cada clase de equivalencia. El conjunto cociente que resulta se llama el
de los n´ umeros reales de modulo 1.
EJEMPLO 0.15. Llamaremos ´angulo de v´ertice O, a toda la clase de equi-
valencia de los pares de semirrectas de origen O seg´ un esta relaci´on. Cada
par de semirrectas de origen O es entonces un representante de un ´angulo.
Usaremos la notaci´on aob para designar el ´angulo que tiene como represen-
tante el par (a,b). Dada una semirrecta cualquiera a de origen O, para cada
´angulo xoy existe una ´ unica semirrecta de origen O tal que aob = xoy. Para
demostrarlo basta observar que para que b tenga esa propiedad tiene que
ser (a,b) ∼ (x,y), o sea s(x,b) = s(y,a), luego la semirrecta b buscada es la
imagen de x seg´ un s(y,a). En consecuencia si tomamos una semirrecta fija
a, el conjunto de todos los pares de la forma (a,b) contiene uno y solo uno
de los representantes de cada ´angulo.
0.4. FUNCIONES 9
0.4. Funciones
Una funci´on se determina dando dos conjuntos y asociando a cada ele-
mento del primero un ´ unico elemento del segundo. Este concepto de funci´on
incluye mucho m´as que la idea de ser un procedimiento en el cual dados cier-
tos n´ umeros permite calcular otros. D´andole al t´ermino el significado m´as
amplio, una funci´on puede no estar definida por ninguna expresi´on num´erica
o anal´ıtica. Adem´as, puede asociar a elementos de un conjunto cualquiera,
no necesariamente de n´ umeros, elementos de otro conjunto cualquiera. La
consideraci´on de funciones en este sentido, sin restricciones sobre los conjun-
tos ni sobre la forma de asociar elementos del primer conjunto a elementos
del segundo, se justifica por su utilidad en todas las ramas de la matem´atica.
Veamos como se puede dar una definici´on formal del concepto de funci´on que
hemos esbozado, presuponiendo solo las nociones de conjuntos, subconjun-
to, elemento, par ordenado y terna ordenada. Esta definici´on esta motivada
por la idea de ”gr´afico de una funci´on”. Observamos que una funci´on que a
cada n´ umero real x le asocia un real y, est´a determinada dando todos los
pares de n´ umeros (x,y) que constituyen una funci´on de esa forma siempre
que para cada n´ umero x ∈ R, haya uno y un solo y ∈ R tal que (x,y) ∈ G.
Teniendo esto en cuenta, hacemos la siguiente definici´on:
DEFINICI
´
ON 0.5. Una funci´on es una terna ordenada F = (A,B,G),
donde A y B son conjuntos cualquiera y G es un subconjunto de A × B, tal
que para cada x ∈ A hay un y ∈ B y uno solo para el cual (x,y) ∈ G.
A se llama el dominio o conjunto de partida, B el codominio o con-
junto de llegada y G el gr´afico de f . Para abreviar diremos que que f es
una funci´on de A en B y escribiremos f : A → B.
Usaremos las palabras transformaci´on y aplicaci´on como sin´onimo
de funci´on.
10 0. RELACIONES Y FUNCIONES
Una funci´on f = (A,B,G) puede tener dominio o codominio vacio, aun-
que estos casos tienen poco inter´es. Si A = ∅, entonces para todo B, A × B
= ∅, de donde G = ∅ y f es de la forma f = (∅,B,∅).
Luego para cada conjunto B hay una ´ unica funci´on con dominio vac´ıo y
codominio B. Si una funci´ on f = (A, B, G) tiene codominio B = ∅ es G =
A × B = ∅, y como para cada x ∈ A existe un y ∈ B, debe ser A = ∅. En
consecuencia f = (∅,∅,∅) es la ´ unica funci´on con codominio vac´ıo.
DEFINICI
´
ON 0.6. Si (x,y) ∈ G diremos que y es la im´agen de x por f o
el valor de f en x.
Indicaremos con f(x) la imagen de x por f , luego G = { (x , f(x)); x ∈
A }. Dar el gr´afico de f equivale entonces a dar , para cada x del dominio,
su imagen f(x).
N´otese que dos elementos diferentes del dominio pueden tener la misma
imagen. Por ejemplo, sea
A=B=R y G =
¸
x, x
2

; x ∈ R
¸
entonces para todo x = 0 esx = −xpero f (x) = f (−x) = x
2
.
DEFINICI
´
ON 0.7. Dado un subconjunto del dominio, X ⊂ A, llamaremos
imagen de x por f al subconjunto de B formado por las im´agenes de todos
los elementos de X.
La imagen de X se denotar´a f (X), luego f (X) = {f (x) ; x ∈ X}. A
veces se llama recorrido de f a la imagen del dominio, f (A).
N´otese que f (A) ⊂ B pero f (A) puede no coincidir con B. As´ı en el
´ ultimo ejemplo el recorrido est´a formado por los reales positivos y no coincide
con el codominio R.
0.4. FUNCIONES 11
DEFINICI
´
ON 0.8. Llamaremos imagen inversa o preimagen por f de un
conjunto Y ⊂ B al subconjunto, de A formado por todos los x que tienen
imagen en Y, es decir:
{x ∈ A; f (x) ∈ Y } . Se llama imagen inversa de un elemento y ∈ B a la
imagen inversa del conjunto {y}.
Por ejemplo, si f : R → R es la funci´on tal que f (x) = x
2
para todo
x ∈ R , entonces la imagen inversa de 0 por f es {0}, la de 1 es {−1, 1} y
la de -1 es el conjunto vac´ıo.
DEFINICI
´
ON 0.9. Una funci´on f : A → B se dice sobreyectiva si
f (A) = B es decir, si para todo y ∈ B existe por lo menos un x ∈ A tal que
f (x) = y.
EJEMPLO 0.16. La funci´on p : R × R → R definida por p (x, x

) = x
es sobreyectiva.
EJEMPLO 0.17. La funci´on f : N → N dado por f (x) = 2x no
es sobreyectiva, pues la imagen f ( N ) est´a formada s´olo por los n´ umeros
pares. En cambio, es sobreyectiva la funci´on g de Nen el conjunto de los
naturales pares, dada por g (x) = 2x.
El ejemplo 0.17 es un caso particular del siguiente. Dada una funci´on
cualquiera f : A → B la funci´on g : A → f (A) definida por g (x) = f (x)
para todo x ∈ A, es sobreyectiva.
DEFINICI
´
ON 0.10. Una funci´on f : A → B se dice inyectiva si para
todo y ∈ B hay al lo sumo un x ∈ A tal que f (x) = y. Dicho de otra
manera, f es inyectiva cuando x = x

implica f (x) = f (x

).
12 0. RELACIONES Y FUNCIONES
EJEMPLO 0.18. La funci´on f : N → N dada por f (n) = n + 1 es
inyctiva, pues si n = n

entonces n + 1 = n

+ 1. No es sobreyectiva, porque
no existe ning´ un natural n que verifique f (n) = 0.
EJEMPLO 0.19. Indicaremos con la letra C al conjunto de los n´ umeros
complejos, y con C
o
los complejos diferentes de 0. Para todo real x est´a defi-
nido e
x
; suponemos sabido que para cada real p¿0 existe un x tal que e
x
= p.
Se puede definir la funci´on exponencial, exp : C →C
0
, tomando como valor
en x +iy el complejo:
exp (x +iy) = e
x
(cosy +iseny)
Denotaremos este n´ umero con e
x+iy
. Esta funci´on no es inyectiva porque
para todo real x y todo entero k vale:
e
x+2kπi
= e
x
(cos2kπ +isen2kπ) = e
x
Mostraremos que es sobreyectiva. Para esto observamos que todo com-
plejo u +iv = 0 se puede expresar en la forma
u +iv = ρ (cosφ +isenφ)
donde
ρ =

u
2
+v
2
> 0, cosφ =
u

u
2
+v
2
, senφ =
v

u
2
+v
2
Por otra parte, como ρ > 0, existe un real x tal que ρ = e
x
, luego:
u +iv = ρ (cosφ +isenφ) = e
x+iφ
.

EJEMPLO 0.20. Sean A ⊂ B conjuntos cualquiera. La funci´on inclusi´on
i : A →B, definida por i (x) = x para todo x ∈ A, es inyectiva. Si A = B,
i no es sobreyectiva.
0.4. FUNCIONES 13
Dada una funci´on f : A → B, consideremos en A la relaci´on x x

si
f (x) = f (x

). Es claro, que esta es una relaci´on de equivalencia; sea A el
conjunto cociente de A por esa relaci´on. Todos los x ∈ A que est´an en una
clase de equivalencia α ∈ A tienen la misma imagen seg´ un f, luego se puede
definir una funci´on f : A → B eligiendo para cada α ∈ A un representante
cualquiera x ∈ A y tomando f (α) = f (x). La funci´on f es inyectiva porque
si β ∈ A verifica f (β) = f (α), entonces para cada representante y ∈ B se
tiene:
f (y) = f (β) = f (α) = f (x)
luego y x, por lo tanto β = α.
DEFINICI
´
ON 0.11. Una funci´on se dice biyectiva si es sobreyectiva e
inyectiva.
Se usa correspondencia biun´ıvoca como sin´onimo de funci´on biyec-
tiva.
EJEMPLO 0.21. La funci´on f : Z → Z definida por f (n) = n + 1 es
biyectiva.
EJEMPLO 0.22. Es biyectiva la funci´on f : R → R dada por f (x) =
x
3
?
EJEMPLO 0.23. La funci´on logaritmo definida de los reales positivos en
R es biyectiva.
EJEMPLO 0.24. Dado un conjunto cualquiera A definimos la funci´on
identidad en A, Id
A
, como la funci´on de A en A tal que para todo x ∈ A,
Id
A
(x) = x. Esta funci´on es biyectiva. A veces escribiremos simplemente Id
en vez de Id
A
.
14 0. RELACIONES Y FUNCIONES
Sea f : A → B una funci´on cualquiera y sea A el conjunto cociente de
A por la relaci´on x x

si f (x) = f (x

); de consideraciones anteriores resulta
que la funci´on f : A → f (A) definida por f (α) = f (x) donde x es un
representante de α, es biyectiva.
DEFINICI
´
ON 0.12. Dada f : A → B y un conjunto C ⊂ A, se llama
restricci´on de f a C a la funci´on g : C → B definida por g (x) = f (x)
para todo x ∈ C. Se dice que f es una prolongaci´on de g en A. La
restricci´on g se notar´a: q/c.
DEFINICI
´
ON 0.13. Una funci´on f : N → A se llama sucesi´on de
elementos de A. Un elemento de la sucesi´on es una imagen f (i) de un
i ∈ N.
Lo usual es denotar la imagen i como a
i
, e indicar la sucesi´on en alguna
de la siguientes formas:
(a
1
, a
2
, ...) ; (a
i
)
i∈N
; (a
i
)
Una n-upla de elementos de A es una funci´on f : {1, ..., n} → A. Se
escribe {a
1
, ..., a
n
}, donde a
1
= f (1) , ..., a
n
= f (n). En general, dado un
conjunto I, una funci´on f : I →A se llama tambi´en una familia de elemen-
tos de A indizada por I.
De acuerdo a la definici´on una funci´on es una terna, por lo tanto dos
funciones, f = (A, B, G) y g = (A

, B

, G

), son iguales s´olo cuando A=A’,
B=B’ y G=G’, es decir cuando tienen igual dominio, igual codominio y el
mismo valor, f (x) = g (x), para cada x del dominio. De modo que, por
ejemplo, la funci´on f : Z → Z tal que f (x) = −x para todo x ∈ R,
es diferente a la funci´on f : Z → R definida por f (x) = −x para todo
x ∈ R, pues los codominios no coinciden. (Observar que la primera es
sobreyectiva y la segunda no lo es).
0.5. COMPOSICI
´
ON DE FUNCIONES 15
0.5. Composici´on de funciones
DEFINICI
´
ON 0.14. Dadas dos funciones f : A → B y g : B → C,
llamaremos composici´on de f y g a la funci´on h : A →C tal que para todo
x ∈ A h(x) = g (f (x)). La funci´on compuesta se notar´a g f o g ◦ f.
Tres funciones de la forma f : A →B, g : B →C, h : A →C, se pueden
indicar en un mismo diagrama del modo siguiente:
Figura 5.1
Cuando h=gf se dice que el diagrama es conmutativo. Obs´ervese que
esto significa que para todo a ∈ A se tiene el mismo resultado si ”se sigue
la flecha”de A a C y se halla h(a), o si se ”siguen las flechas”de A a B y de
B a C para llegar a gf (a).
Para que est´e definida gf es necesario que el codominio de f est´e incluido
en el dominio de g. En particular, puede estar definida gf y no estarlo fg. Si se
consideran funciones f : A →A y g : A →A entonces fg y gf est´an definidas
y ambas son funciones de A en A, pero no tienen por qu´e ser iguales. Por
ejemplo, si f : R → R est´a dada por f (x) = x
2
y g : R → R por
g (x) = −x entonces gf (x) = −x
2
y fg (x) = x
2
.
Dadas tres funciones, f : A → B, g : B → C y h : C → D, de la
definici´on de composici´on de funciones resulta que
h(gf) y (hg) f est´an definidas y son iguales pues ambas son funciones
de A en D y para todo x ∈ A:
(hg) (f (x)) = h(g (f (x))) = h((gf) (x)) = (h(gf)) (x)
Observemos finalmente que para toda funci´on f : A → B se verifica
id
B
f = f id
A
= f.
16 0. RELACIONES Y FUNCIONES
En los teoremas que siguen veremos algunas propiedades de las funciones
ineyectivas y sobreyectivas que podr´ıan utilizarse para definir inyectividad
y sobreyectividad.
TEOREMA 0.3. Una funci´ on f : A → B con dominio A no vac´ıo es
inyectiva si y s´ olo si existe una funci´ on g : B →A tal que gf = id
A
.
Demostraci´ on. Supongamos que f es inyectiva. Definimos una funci´on
g : B →A como sigue.
a)Si y ∈ f (A), por ser f inyectiva la imagen inversa de y se reduce a un
elemento x ∈ A, entonces tomamos g (y) = x.
b) Si y ∈ B pero y / ∈ f (A), como A es no vac´ıo, podemos tomar un x ∈ A
cualquiera y definir g (y) = x. Entonces gf = id
A
pues para todo x ∈ A,
seg´ un a):
(gf) (x) = (g (f (x))) = g (y) = x.
Rec´ıprocamente, supongamos que gf = id
A
. De f (x) = f (x

) sigue
x = gf (x) = gf (x

) = x

, luego f es inyectiva.
Si gf = id
A
diremos que g es la inversa a la izquerda de f. Seg´ un
este teorema, cuando A es no vac´ıo, f es inyectiva si y s´olo si tiene inversa
a la izquerda. Obs´ervese que para todo B la funci´on f : φ →B es inyectiva
pero si B = φ, f no tiene inverso izquerdo pues no existe funciones con
dominio B = φ y con codominio φ. Por esta raz´on el teorema 0.3 no vale sin
la hip´otesis de que el dominio A no sea vac´ıo.
De la demostraci´on del teorema 0.3 resulta que si f es inyectiva pero no
sobreyectiva y si A tiene m´as de un elemento entonces el inverso izquierdo de
f no es ´ unico. En efecto, en este caso existe ciertamente alg´ un y pertene-
ciente a B, y / ∈ f (A), al cual puede asignarse por imagen seg´ un g diferentes
elementos de A, resultando en cada caso un inverso izquierdo g diferente.
0.5. COMPOSICI
´
ON DE FUNCIONES 17
Dadas dos funciones h, h’ de C en A, si f : A → B es inyectiva fh=fh’
implica h=h’, porque si A no es vac´ıo se tiene:
g (fh) = id
A
h = h = g

fh

= id
A
h

= h

Si A = φ, de h : C → A sigue C = φ luego, tambi´en en este caso
h = h

= (φ, φ, φ).
Mostraremos que esta propiedad caracteriza las funciones inyectivas, es
decir que toda f para la cual fh=fh’ implica h=h’ es inyectiva. Supongamos
que f : A →B no sea inyectiva y sean x, x

∈ A , x = x

, tales que f (x) =
f (x

). Sea C un conjunto formado por un ´ unico elemento c, definimos h :
C → A con h(c) = x y h

: C → A con h

(c) = x

. Entonces (fh) (c) =
(fh

) (c) = f (c), es decir fh=fh’, pero h = h

, contrario a la hip´otesis. Luego
f es inyectiva.
TEOREMA 0.4. Una funci´ on f : A →B es sobreyectiva si y s´ olo si existe
g : B →A tal que f ◦ g = id
B
.
Demostraci´ on. Supongamos que f es sobreyectiva; entonces para todo y ∈
B la imagen inversa por f es un conjunto no vac´ıo del cual podemos elegirun
elemento x. (Esto requiere usar el axioma de elecci´on). Definimos g : B →A
tomando g (y) = x. Con esto tenemos para todo y ∈ B: (fg) (y) = f (x) = y
pues x fue elegido en la imagen inversa de y.
Rec´ıprocamente, sea g : B → A tal que fg = id
B
. De aqu´ı sigue para
todo y ∈ B, y = id
B
(y) = f (g (y)), quere decir que la imagen por f del
ekemento g (y) ∈ A es y. Kuego f es sobreyectiva.
Una funci´on g : B →A tal que fg = id
B
se llama inversa a la derecha
de f. Seg´ un el teorema 0.4, f es sobreyectiva si y s´olo si tiene inverso derecho.
De la demostraci´on de este teorema puede deducirse que si f es sobreyectiva
pero no inyectiva entonces tiene m´as de un inverso derecho.
18 0. RELACIONES Y FUNCIONES
Tambi´en se caracterizan las funciones sobreyectivas f : A → B, por la
propiedad de que para todo par de funciones h, h’ de B en C, hf=h’f implica
h=h’. La demostraci´on es similar a la que hicimos para la propiedad an´aloga
de las funciones inyectivas. Si gf = id
A
y fg

= id
B
, entonces:
g = g id
B
= f

fg

= (gf) g

= id
A
g

= g

Esto demuestra que si f tiene inversa a la izquierda e inversa a la derecha
entonces cualquier inversa a la izquierda es igual a cualquier inversa a la
derecha, por lo tanto hay un ´ unico inversa a la izquierda, un ´ unico inversa
a la derecha y son iguales. En tal caso decimos que este es la inversa de f
y lo denotaremos f
−1
.
La definici´on de inversa de f : A →B muestra que f
−1
asocia a cada y ∈
B el ´ unico x ∈ A tal que f (x) = y. Por ejemplo si A=R, B = {r ∈ R; r > 0}
y f : A → B es la funci´on exponencial de base a¿0, entonces f
−1
: B → A
es la funci´on que cada real positivo le asocia su logaritmo de base a.
Si f tiene inversa, seg´ un los teoremas 0.3 y 0.4, f es biyectiva, por los
mismos teoremas tiene inversa a la izquierda e inversa a la derecha que, como
acabamos de observar, son iguales entre s´ı. Si f es biyectiva con dominio
vac´ıo, debe ser de codominio vac´ıo, entonces f = (φ, φ, φ). Esta funci´on
tiene inverso f
−1
= f, por lo tanto tambi´en en este caso vale el enunciado
rec´ıproco. As´ı queda demostrado el corolario siguiente.
COROLARIO 0.5. Una funci´ on f : A →B es biyectiva si y s´ olo si existe
g : B →A tal que gf = id
A
y fg = id
B
.
Es claro que si f
−1
es el inverso de f entonces f es el inverso de f
−1
. De
aqu´ı y del corolario, resulta que si f es biyectiva, tambi´en lo es f
−1
. Esto
tambi´en se puede deducir directamente de la definici´on de funci´on inversa.
CAP´ıTULO 1
SISTEMAS LINEALES DE ECUACIONES Y
MATRICES
1.1. Introducci´on
Gran parte de lo que estudiaremos en este curso y en su continuaci´on
en el segundo semestre se vincula con los sistemas de ecuaciones lineales
por lo tanto vale la pena dedicar alg´ un tiempo a presentarlos, discutir sus
propiedades y ciertas estrategias para resolverlos. Quienes ya conozcan estos
temas tendr´an en todo caso una oportunidad para repasarlos.
Un sistema lineal de m ecuaciones con n inc´ognitas x
1
, x
2
, . . . , x
n
es un problema del tipo:
(S) =

a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
donde a
ij
con i = 1, . . . , m y j = 1, . . . , n (los coeficientes del sistema) y
b
j
con j = 1, . . . , m (los t´erminos independientes) son n´ umeros
1
Diremos
que el sistema es m×n indicando siempre el primer n´ umero la cantidad de
ecuaciones y el segundo la de inc´ognitas.
Una soluci´on del sistema (S) es una sucesi´on de n n´ umeros (α
1
, α
2
, . . . , α
n
)
tales que si se sustituye x
1
= α
1
, x
2
= α
2
, . . . , x
n
= α
n
se verifican si-
mult´aneamente las m ecuaciones.
1
En nuestro cursos los n´ umeros que consideraremos pertenecen al cuerpo de los reales
o de los complejos
19
20 1. ECUACIONES LINEALES Y MATRICES
Llamaremos conjunto soluci´on del sistema (S) y lo notaremos Sol(S)
al conjunto de todas las soluciones de (S). Resolver un sistema es determinar
su conjunto soluci´on.
2
Clasificaremos los sistemas de acuerdo a n´ umero de soluciones que tenga.
Si A es un conjunto escribiremos card(A) para representa su cardinal.
Si el conjunto es finito card(A) indica el n´ umero de elementos e infinito en
otro caso. Diremos entonces que un sistema es compatible determinado
si card(Sol(S)) = 1 (tiene soluci´on ´ unica), compatible indeterminado
si card(Sol(S)) > 1 (tiene soluci´on pero no es ´ unica)
3
e incompatible si
card(Sol(S)) = 0 (no tiene ninguna soluci´on).
EJEMPLO 1.1. El ejemplo m´as sencillo de un sistema lineal es el 1 ×1
ax = b
en pocos renglones podemos discutir completamente como es el conjunto
soluci´on. Si a = 0 entonces el sistema es compatible determinado y su ´ unica
soluci´on es x =
b
a
= a
−1
b. Si en cambio a = 0 hay dos posibilidades: si b = 0
el sistema es incompatible y si b = 0 trivialmente el sistema es compatible
indeterminado y cualquier n´ umero es soluci´on del mismo.
Naturalmente este problema es extremadamente sencillo pero como acon-
tece muchas veces las ideas que aqu´ı se utilizan convenientemente adaptadas
resultaran ´ utiles en casos m´as generales y complicados.
EJEMPLO 1.2.
(S)

x = 1
y = 3
z = 2
es un sistema 3 ×3. Trivialmente se observa que Sol(S) = {(1, 2, 3)}.

2
En general, salvo que se indique lo contrario, las soluciones se consideraran en el
mismo conjunto de n´ umeros que los coeficientes
3
Veremos m´as adelante que si un sistema lineal admite m´as de una soluci´on entonces
necesariamente debe admitir infinitas
1.1. INTRODUCCI
´
ON 21
EJEMPLO 1.3.
(S)

x +y + 2z = 8
2y +z = 8
z = 2
es tambi´en un sistema 3×3. Aqu´ı con algo m´as de trabajo tambi´en se puede
deducir f´acilmente el conjunto soluci´on. Para esto basta observar que de
abajo hacia arriba cada ecuaci´on tiene exactamente una inc´ognita m´as que
la siguiente, por este motivo se dice que el sistema esta “escalerizado”. De
la ´ ultima ecuaci´on se despeja
z=2
Con este valor de z sustituimos en al segunda ecuaci´on y tenemos
2y + 2 = 8 =⇒2y = 6 =⇒ y=3
Finalmente con los valores de y y z hallados “subimos” a la primera ecuaci´on
y sustituyendo se tiene que
x + 3 + 2(2) = 8 =⇒ x=1
En consecuencia Sol(S) = {(1, 3, 2)}.
Este procedimiento de despejar una inc´ognita en una ecuaci´on y sustituirla
en otra de arriba se denomina sustituci´on hacia atr´as
Observemos que en los ejemplos 1.2 y 1.3 los conjuntos soluci´on son
iguales, cuando esto ocurra diremos que los respectivos sistemas son equi-
valentes.
EJEMPLO 1.4.
(S)

x +y + 2z = 8
x −y +z = 0
x +y +z = 6
Las cosas aqu´ı no son tan claras. Una estrategia para resolverlo, inspirada
en los ejemplos anteriores podr´ıa ser, la de sustituir el sistema (S) por otro,
(S

) equivalente y “escalerizado” de modo de poder resolver (S

) (y por
ende (S) ya que al ser equivalentes los conjuntos soluci´on de ambos sistemas
22 1. ECUACIONES LINEALES Y MATRICES
coinciden) con el procedimiento utilizado en el ejemplo 1.3. Analicemos un
poco estas ideas antes de retomar la resoluci´on concreta del ejemplo.
La pregunta que naturalmente surge es ¿c´omo hacer para sustituir un
sistema por otro que resulte equivalente?. Para responderla introducimos la
siguiente
DEFINICI
´
ON 1.1. Llamaremos transformaciones elementales a cual-
quiera de las siguientes operaciones efectuadas a las ecuaciones de un sistema
lineal:
1. Intercambiar de lugar dos ecuaciones. (F
i
↔F
j
)
2. Multiplicar una ecuaci´on por un n´ umero α = 0. (αF
i
)
3. Sumar a una ecuaci´ on un m´ ultiplo de otra. (F
i
+αF
j
)
Entre par´entesis se indica la notaci´on que utilizaremos para especificar cada
operaci´on en los ejemplos. La ecuaci´on i-esima ser´a notada con F
i
.
La siguiente proposici´on responde la pregunta formulada arriba.
PROPOSICI
´
ON 1.1. Si en un sistema lineal de ecuaciones se efect´ uan
una transformaci´ on elemental el sistema resultante es equivalente al ori-
ginal.
Demostraci´ on. La demostraci´on es muy sencilla y la haremos s´olo en el
caso que la transformaci´on elemental sea del tipo 3. El resto queda a cargo
del lector.
Supongamos que el sistema original sea
(S)

a
11
x
1
+a
12
x
2
+· · · +a
1n
x
n
= b
1
.
.
.
a
i1
x
1
+a
i2
x
2
+· · · +a
in
x
n
= b
i
.
.
.
a
j1
x
1
+a
j2
x
2
+· · · +a
jn
x
n
= b
j
.
.
.
a
m1
x
1
+a
m2
x
2
+· · · +a
mn
x
n
= b
m
1.1. INTRODUCCI
´
ON 23
Supongamos que sumamos a la ecuaci´on i un m´ ultiplo de la ecuaci´on j. El
sistema resultante es
(S

)

a
11
x
1
+a
12
x
2
+· · · +a
1n
x
n
= b
1
.
.
.
(a
i1
x
1
+a
i2
x
2
+· · · +a
in
x
n
) +β(a
j1
x
1
+a
j2
x
2
+· · · +a
jn
x
n
) = b
i
+βb
j
.
.
.
a
j1
x
1
+a
j2
x
2
+· · · +a
jn
x
n
= b
j
.
.
.
a
m1
x
1
+a
m2
x
2
+· · · +a
mn
x
n
= b
m
Para probar que ambos son equivalentes deberemos ver que Sol(S) = Sol(S

).
Como se trata de mostrar la igualdad de dos conjuntos tendremos que de-
mostrar que est´an mutuamente incluidos.
Veamos primero que Sol(S) ⊂ Sol(S

). Sea (α
1
, α
2
, · · · , α
n
) ∈ Sol(S) es
claro que (α
1
, α
2
, · · · , α
n
) satisface todas las ecuaciones de (S

) (pues son
las mismas que las de (S)) salvo tal vez la i-esima. Como (α
1
, α
2
, · · · , α
n
)
debe verificar la i-esima y j-esima ecuaci´on de (S) se tiene que
a
i1
α
1
+a
i2
α
2
+· · · +α
in
x
n
= b
i
y a
j1
α
1
+a
j2
α
2
+· · · +a
jn
α
n
= b
j
por lo tanto
(a
i1
α
1
+a
i2
α
2
+· · · +a
in
α
n
) +β(a
j1
α
1
+a
j2
α
2
+· · · +a
jn
α
n
) = b
i
+βb
j
de donde (α
1
, α
2
, . . . , α
n
) ∈ Sol(S

).
Finalmente probemos que Sol(S

) ⊂ Sol(S). Consideremos ahora

1
, α
2
, . . . , α
n
) ∈ Sol(S

).
Igual que antes es claro (α
1
, α
2
, . . . , α
n
) debe verificar todas las ecuaciones
de (S) salvo tal vez la i-esima pero como
(a
i1
α
1
+a
i2
α
2
+· · · +a
in
α
n
) +β(a
j1
α
1
+a
j2
α
2
+· · · +a
jn
α
n
) = b
i
+βb
j
y
a
j1
α
1
+a
j2
α
2
+· · · +a
jn
α
n
= b
j
24 1. ECUACIONES LINEALES Y MATRICES
se deduce que
a
i1
α
1
+a
i2
α
2
+· · · +a
in
α
n
= b
i
con lo cual (α
1
, α
2
, . . . , α
n
) ∈ Sol(S) y la prueba esta concluida.
Naturalmente las cuestiones que se imponen ahora son las de saber si cual-
quier sistema puede ser “escalerizado” mediante transformaciones elemen-
tales y en caso afirmativo determinar un m´etodo o algoritmo que permita
hacerlo. Volvamos a analizar el ejemplo 1.4.
EJEMPLO 1.4 (continuaci´on). Para que el sistema quede “escalerizado
en la segunda y tercera ecuaci´on no debe aparecer la inc´ognita x entonces
dejemos la primera ecuaci´on igual y realicemos transformaciones elementales
en la segunda y tercera. La idea es combinar ambas con la primera de modo
que los coeficientes de la inc´ognita x se anulen. Como el coeficiente de x en
las tres ecuaciones es 1 basta en ambos casos restar la primera.

x +y + 2z = 8
x −y +z = 0
x +y +z = 6

x +y + 2z = 8
−2y −z = −8
−z = −2
←− F
2
−F
1
←− F
3
−F
1
El sistema esta ya “escalerizado”, si multiplicamos las dos ´ ultimas ecuaciones
por −1 se obtiene el sistema del ejemplo 1.3 por lo cual Sol(S) = {(1, 3, 2)}

1.2. Matrices
Al trabajar con un sistema de ecuaciones la representaci´on de las in-
c´ognitas (x, y, z o x
1
, . . . , x
n
, etc.) no juega ning´ un papel y puede usarse
cualquiera; de hecho para determinar un sistema es suficiente con conocer los
coeficientes y el t´ermino independiente del mismo. Naturalmente no alcanza
con conocer los valores de estos n´ umeros sino que es necesario mantener el
orden que ocupan (a qu´e ecuaci´on pertenecen y a qu´e inc´ognita multiplican).
Por esto resulta conveniente dar la siguiente
1.2. MATRICES 25
DEFINICI
´
ON 1.2. Llamaremos matriz A de m filas por n columnas
(m×n) de entradas a
ij
a un ordenamiento rectangular de n´ umeros
A =

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

Notaci´on: En general la matriz A con entradas a
ij
la indicaremos por
A = ((a
ij
))
i=1,...,m
j=1,...,n
o m´as brevemente A = ((a
ij
)) cuando las dimensiones
est´en claras. El primer ´ındice i indica la fila y el segundo j la columna a la
que pertenece la entrada.
El conjunto de todas las matrices m×n lo indicaremos como M
m×n
.
Llamaremos matriz columna (fila) a una matriz X ∈ M
m×1
(M
1×n
).
Diremos que dos matrices son iguales si tienen el mismo tama˜ no y los
mismas entradas en las mismas posiciones. Dicho de otro mondo si A y B son
dos matrices m×n entonces A = B ⇔a
ij
= b
ij
∀i = 1, . . . , m, j = 1, . . . , n
EJEMPLO 1.5. Sea
A =

1 2

2 1

y B =

2 1

2 1

Entonces A = B pues a
11
= 1 = b
11
= 2
OBSERVACI
´
ON 1.2. El lector atento notar´a que nuestra definici´on de
matriz si bien es clara no es del todo formal. La frase “ordenamiento rectangular.
es
intuitiva pero no est´a definida con precisi´on, una definici´on formal ser´ıa:
Una matriz A de m filas por n columnas es una funci´ on A : {1, . . . , m}×
{1, . . . , n} → R.
El lector verificar´a que esta definici´on es coherente, chequeando por ejemplo,
el criterio de igualdad de matrices.
26 1. ECUACIONES LINEALES Y MATRICES
DEFINICI
´
ON 1.3. Dado un sistema lineal de ecuaciones

a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
llamaremos matriz del sistema a la matriz m × n A de coeficientes del
mismo, esto es:
A =

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

Llamaremos, matriz ampliada del sistema a la matriz m×(n + 1)
(A|b) =

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
b
1
a
21
a
22
. . . a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
b
m
¸

Diremos que dos matrices son equivalente si los respectivos sistemas lo son
La definici´on anterior introduce una notaci´on m´as compacta (matricial)
para un sistema de ecuaciones. Veamos algunos ejemplos.
EJEMPLO 1.6. Consideremos el sistema
(S)

x +y + 2z = 9
3x + 6y −5z = 0
2x + 4y −3z = 1
entonces la matriz del sistema y la matriz ampliada son:
A =

¸
¸
1 1 2
3 6 −5
2 4 −3
¸

y A|b =

¸
¸
1 1 2 9
3 6 −5 0
2 4 −3 1
¸

1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 27
1.3. El m´etodo de escalerizaci´on
Resulta natural ahora analizar , c´omo se aplica el procedimiento de “es-
calerizaci´on” del ejemplo 1.4 a la matriz ampliada de un sistema. Las trans-
formaciones elementales deben aplicarse sobre las filas de la matriz.
EJEMPLO 1.7. Intentemos “escalerizar.
el
sistema del ejemplo 1.6

¸
¸
1 1 2 9
3 6 −5 0
2 4 −3 1
¸

¸
¸
1 1 2 9
0 3 −11 −27
0 2 −7 −17
¸

←− F
2
−3F
1
←− F
3
−2F
1

¸
¸
1 1 2 9
0 3 −11 −27
0 0
1
3
1
¸

←− F
3

2
3
F
2

¸
¸
1 1 2 9
0 3 −11 −27
0 0 1 3
¸

←− 3F
3
Por lo tanto el sistema (S) es equivalente al sistema

x +y + 2z = 9
3y −11z = −27
z = 3
Ahora podemos proceder a realizar sustituci´on hacia atr´as. De la ´ ultima
ecuaci´on se tiene
z=3
Con este valor sustituimos en la segunda y tenemos
3y −33 = −27 =⇒ 3y = 6 =⇒ y=2
y finalmente sustituyendo en la primera
x + 2 + 6 = 9 =⇒ x=1
En consecuencia el sistema es compatible determinado y su ´ unica soluci´on
es la 3-upla (1, 2, 3).
28 1. ECUACIONES LINEALES Y MATRICES
Hasta ahora no hemos sido precisos para definir a que le llamamos un
sistema o matriz escalerizada
DEFINICI
´
ON 1.4. Llamaremos matriz escalerizada a una matriz que
cumpla las siguientes condiciones
1. Todas las filas, salvo quiz´as la primera comienzan con una sucesi´on
de ceros.
2. Cada fila tiene al principio por lo menos un cero m´as que la fila
inmediata superior.
Llamaremos matriz escalerizada reducida a una matriz escalerizada que
adem´as cumple las siguientes condiciones:
1. La primera entrada no nula de una fila es 1.
2. La columna correspondiente a la primera entrada no nula de una fila
tiene el resto de las entradas todas nulas.
Diremos que un sistema est´a escalerizado si su matriz ampliada lo est´a.
Escalerizar un sistema (o matriz) es encontrar un sistema (matriz)
escalerizado equivalente. Si A es una matriz y E es una matriz escalerizada
equivalente a A diremos que E es una forma escalerizada de A
EJEMPLO 1.8.
(1.8.a)

¸
¸
¸
¸
2 1 0 1
0 3 2 1
0 0 2 1
0 0 0 4
¸

(1.8.b)

¸
¸
¸
¸
2 1 0 1
0 0 3 1
0 0 0 2
0 0 0 0
¸

(1.8.c)

¸
¸
¸
¸
1 0 4 0
0 1 2 0
0 0 0 1
0 0 0 0
¸

(1.8.d)

¸
¸
¸
¸
1 1 0 1 0
0 0 1 2 0
0 0 0 0 1
0 0 0 0 0
¸

Los ejemplos a y b son matrices escalerizadas y los ejemplos c y d son
escalerizadas reducidas.
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 29
En el ejemplo 1.6 se aprecia que una vez obtenida la forma escalerizada el
m´etodo de sustituci´on hacia atr´as permite resolver el sistema. Cabe entonces
preguntarse el motivo para introducir la definici´on de matriz escalerizada
reducida. En el siguiente ejemplo se aclara en parte esto.
EJEMPLO 1.9. Resolver el sistema:
(S)

2x + 4y + 2z = −2
x +y + 2z = 0
−x +y −2z = 2
La matriz ampliada del sistema es:

¸
¸
2 4 2 −2
1 1 2 0
−1 1 −2 2
¸

Procedamos a escalerizarla, para esto en primer lugar obtengamos una ma-
triz equivalente pero con ceros en la segunda y tercera posici´on de la primera
columna. Dejamos la primera fila fija y la utilizamos como “pivot” para com-
binar con las otras dos.

¸
¸
2 4 2 −2
1 1 2 0
−1 1 −2 2
¸

¸
¸
2 4 2 −2
0 −1 1 1
0 3 −1 1
¸

←− F
2

1
2
F
1
←− F
3
+
1
2
F
1
Ahora la primera y segunda fila tiene el aspecto adecuado. El segundo paso
consiste en sustituir la tercera fila por otra con dos ceros en los primeros
lugares. Para esto combinamos convenientemente tercera con la segunda fila.
(1.1)

¸
¸
2 4 2 −2
0 −1 1 1
0 3 −1 1
¸

¸
¸
2 4 2 −2
0 −1 1 1
0 0 2 4
¸

←− F
3
+ 3F
2
N´otese que al dar el segundo paso la primera fila ya no interviene y se procede
de manera an´aloga al primer paso pero utilizado la segunda fila como fila
“pivot”.
Ahora que obtuvimos una forma escalerizada de la matriz original podr´ı-
amos proceder con la sustituci´on hacia atr´as pero en lugar de esto intentemos
30 1. ECUACIONES LINEALES Y MATRICES
obtener la forma reducida para esto fijamos la tercera fila como “pivot” y
la combinamos con la primera y segunda de modo que las entradas en las
posiciones 1, 3 y 2, 3 se anulen

¸
¸
2 4 2 −2
0 −1 1 1
0 0 2 4
¸

¸
¸
2 4 0 −6
0 −1 0 −1
0 0 2 4
¸

←− F
1
−F
3
←− F
2

1
2
F
3
Combinando la segunda fila con la primera obtenemos un cero en la posici´on
1, 2

¸
¸
2 4 0 −6
0 −1 0 −1
0 0 2 4
¸

¸
¸
2 0 0 −10
0 −1 0 −1
0 0 2 4
¸

←− F
1
+ 4F
2
Para obtener la forma reducida solo resta obtener unos en las entradas no
nulas de cada fila

¸
¸
2 0 0 −10
0 −1 0 −1
0 0 2 4
¸

¸
¸
1 0 0 −5
0 1 0 1
0 0 1 2
¸

←−
1
2
F
1
←− −F
2
←−
1
2
F
3
El sistema resultante, equivalente a (S) es
(S

)

x = −5
y = 1
z = 2
y por lo tanto el sistema es compatible determinado con Sol(S) = {(−5, 1, 2)}.
Obs´ervese que en 1.1 la escalera que se obtuvo tiene todos sus “escalones”
de ancho una columna. Esto implica que en el correspondiente sistema cada
ecuaci´on tenga exactamente una inc´ognita m´as que la inmediata inferior.
El proceso de obtener la forma reducida sustituye entonces al algoritmo
de sustituci´on hacia atr´as, adem´as el lector puede observar que la forma
escalerizada de una matriz no es ´ unica (para obtener otra basta sustituir
una fila por una combinaci´ on de ella con una fila inferior) pero la reducida
si lo es.
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 31
EJEMPLO 1.10. Resolver el sistema:
(S)

2x + 4y + 2z = −2
x +y + 2z = 0
−x +y −4z = 2
La matriz ampliada del sistema es:

¸
¸
2 4 2 −2
1 1 2 0
−1 1 −4 2
¸

Procedamos como en el ejemplo anterior

¸
¸
2 4 2 −2
1 1 2 0
−1 1 −4 2
¸

¸
¸
2 4 2 −2
0 −1 1 1
0 3 −3 1
¸

←− F
2

1
2
F
1
←− F
3
+
1
2
F
1

¸
¸
2 4 2 −2
0 −1 1 1
0 0 0 4
¸

←− F
3
+ 3F
2
A diferencia del ejemplo precedente la forma escalerizada de la matriz am-
pliada tiene un escal´on m´as que la de la matriz del sistema, por lo tanto la
´ ultima ecuaci´on del sistema escalerizado es
0 = 4
y consecuentemente el sistema resulta incompatible pues ning´ un valor de x,
y y z la satisface.
EJEMPLO 1.11. Resolver el sistema:
(S)

x
1
+ 2x
2
+x
3
+x
5
+x
6
= 1
−x
1
−2x
2
+x
3
+x
4
−x
6
= 0
x
1
+ 2x
2
+x
3
+ 2x
4
+ 5x
5
+ 3x
6
= 1
x
1
+ 2x
2
+x
3
+x
5
+ 3x
6
= 3
x
1
+ 2x
2
+x
3
+ 4x
4
+ 9x
5
+ 3x
6
= 1
32 1. ECUACIONES LINEALES Y MATRICES
La matriz del sistema ampliada es:

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
−1 −2 1 1 0 −1 0
1 2 1 2 5 3 1
1 2 1 0 1 3 3
1 2 1 4 9 3 −1
¸

Como antes el proceso comienza fijando la primera fila como pivot y utili-
zando su primera entrada para lograr anular el resto de la primera columna.

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
−1 −2 1 1 0 −1 0
1 2 1 2 5 3 1
1 2 1 0 1 3 3
1 2 1 4 9 3 −1
¸


¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 2 −1 −3 −2 1
0 0 2 1 1 −2 −1
0 0 0 4 8 2 0
¸

←− F
2
+F
1
←− F
3
+ 2F
1
←− F
4
−F
1
←− F
5
−F
1
En los ejemplos anteriores en el segundo paso, se utilizaba la entrada 2, 2
para conseguir ceros en el resto de la columna, aqu´ı esto no es posible pues
la segunda columna ya tiene todas sus entradas (salvo la primera) nulas en
consecuencia el segundo escal´on deber´a estar en la tercera columna. Utiliza-
mos entonces la entrada de la posici´on 2, 3 para generar ceros en el resto de
la columna tres.
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 33
(1.2)

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 2 −1 −3 −2 1
0 0 2 1 1 −2 −1
0 0 0 4 8 2 0
¸


¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 −2 −4 −2 0
0 0 0 0 0 −2 −2
0 0 0 4 8 2 0
¸

←− F
3
−F
2
←− F
4
−F
2
←− F
5
En el tercer paso escalerizaremos la columna siguiente (la cuarta)

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 −2 −4 −2 0
0 0 0 0 0 −2 −2
0 0 0 4 8 2 0
¸


¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 −2 −4 −2 0
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸

←− F
5
+ 2F
3
34 1. ECUACIONES LINEALES Y MATRICES
Ya tenemos la forma escalerizada, pero como en el ejemplo 1.9 continuemos
hasta obtener la forma reducida

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 −2 −4 −2 0
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸


¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 0 0
0 0 2 1 1 0 1
0 0 0 −2 −4 0 2
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸

←− F
1

1
2
F
4
←− F
3
−2F
4

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 0 0
0 0 2 0 −1 0 2
0 0 0 −2 −4 0 2
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸

←− F
2
+
1
2
F
3

(1.3) ∼

¸
¸
¸
¸
¸
¸
¸
1 2 0 0
3
2
0 −1
0 0 2 0 −1 0 2
0 0 0 −2 −4 0 2
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸

←− F
1

1
2
F
2

¸
¸
¸
¸
¸
¸
¸
1 2 0 0
3
2
0 −1
0 0 1 0 −
1
2
0 1
0 0 0 1 2 0 −1
0 0 0 0 0 1 1
0 0 0 0 0 0 0
¸

←−
1
2
F
2
←− −
1
2
F
3
←− −
1
2
F
4
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 35
El sistema de ecuaciones asociado queda entonces
(S

)

x
1
+ 2x
2
+
3
2
x
5
= −1
x
3

1
2
x
5
= 1
x
4
+ 2x
5
= −1
x
6
= 1
Despejando se tiene

x
1
= −2x
2

3
2
x
5
−1
x
3
= −
1
2
x
5
+ 1
x
4
= −2x
5
−1
x
6
= 1
Las inc´ognitas x
2
y x
5
no pueden determinarse, las otras se obtienen como
funci´on de ellas. Cada valor real elegido libremente de x
2
y x
5
determina una
soluci´on del sistema (S) Por ejemplo si x
2
= 1 y x
5
= 0 se obtiene la soluci´on
(−3, 1, 1, −1, 0, 1). Si x
2
= 0 y x
5
= 1 se tiene la soluci´on


5
2
, 0,
1
2
, −3, 1, 1

.
El sistema es entonces compatible indeterminado y en virtud de que dos de
sus inc´ognitas pueden elegirse libremente diremos que tiene dos grados de
libertad. El conjunto soluci´on es

−2x
2

3
2
x
5
−1, x
2
, −
1
2
x
5
+ 1, −2x
5
−1, x
5
, 1

, x
2
∈ R, x
5
∈ R

Vale la pena observar que al igual que en el ejemplo 1.9 el n´ umero de esca-
lones de la matriz ampliada y el de la matriz del sistema coinciden. Por esta
raz´on el sistema resulta compatible. Sin embargo, aqu´ı la “escalera” pre-
senta “descansos” o escalones largos (el primero y el tercero). Esto implica
que en el sistema escalerizado algunas ecuaciones tienen por lo menos dos
inc´ognitas m´as que la ecuaci´on inmediata inferior, por esto resulta imposible
determinar todas las inc´ognitas.
Los ejemplos anteriores parecen indicar que cualquier matriz y por ende
cualquier sistema puede ser escalerizado. Establezcamos este hecho en el
siguiente resultado
36 1. ECUACIONES LINEALES Y MATRICES
PROPOSICI
´
ON 1.3. Toda matriz puede ser transformada en una ma-
triz escalerizada (o escalerizada reducida) mediante una cantidad finita de
transformaciones elementales
Demostraci´ on. La prueba es algor´ıtmica
4
. Indicaremos esquem´aticamen-
te el procedimiento, los detalles quedan a cargo del lector.
Sea A = ((a
ij
)) una matriz m×n cualquiera. Indiquemos por A
i
= (a
i1
, a
i2
, . . . , a
in
)
su fila i-esima.
El objetivo del primer paso es obtener una matriz con una primera columna
que tenga nulas todas sus entradas excepto la primera. Si toda la primera
columna es nula se pasa a la segunda y as´ı sucesivamente hasta tener una
primera columna con alguna entrada distinta de cero. La idea para anular
el resto de las entradas de la columna es ubicar la entrada no nula (a la que
llamremos pivot) en la primera fila y utilizar esta para combinar convenien-
temente con cada fila a los efectos de lograr ceros en todas las posiciones.
Para simplificar la notaci´on aqu´ı supondremos que ya la primera columna
tiene alguna entrada no nula. Con la suposici´on indicada comenzamos re-
conociendo si a
11
= 0. Si a
11
= 0 cambiamos la primera fila por otra cuya
primera entrada sea no nula.
5
Una vez que el pivot esta ubicado realizamos
4
Un algoritmo es, groseramente hablando, un conjunto de acciones expresadas en un
lenguaje formal y sin ambig¨ uedades que pueden ser comprendidos y ejecutados por una
persona o una m´aquina.
Este algoritmo es conocido con el nombre de M´etodo de Gauss.
5
Por razones num´ericas y para evitar errores de redondeo al resolver sistemas con
ayuda de la computadora resulta muchas veces importante, a´ un cuando a11 = 0 cambiar
la primera fila por la fila que tenga la primera entrada mayor, este procedimiento se conoce
como pivoteo.
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 37
el primer paso de la escalerizaci´on:

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
A
1
A
2
.
.
.
.
.
.
A
i
.
.
.
.
.
.
A
m
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
A
1
A

2
.
.
.
.
.
.
A

i
.
.
.
.
.
.
A

m
¸

←− A
2

a
21
a
11
A
1
.
.
.
←− A
i

a
i1
a
11
A
1
.
.
.
←− A
m

a
m1
a
11
A
1
La matriz que obtuvimos tiene el siguiente aspecto:

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
0 a

22
. . . a

2n
.
.
.
.
.
.
.
.
.
.
.
.
0 a

m2
. . . a

mn
¸

En el segundo paso el objetivo es obtener una nueva matriz que tenga las
entradas de la segunda columna todas nulas salvo tal vez las dos primeras.
Para eso repetimos el procedimiento del paso uno a la sub-matriz que apa-
rece recuadrada.
De nuevo el primer paso es determinar el segundo pivot para esto chequea-
mos que a

22
= 0 de lo contrario cambiamos la segunda fila por otra (de
abajo) con segunda entrada no nula. Podr´ıa ocurrir que todas las entradas
de la segunda fila fuesen nulas en ese caso la segunda columna ya tiene el
aspecto adecuado por lo cual el procedimiento se contin´ ua ubicando un pi-
vot en al posici´on 2, 3 (ver (1.2)en el ejemplo 1.11). Supongamos, para fijar
38 1. ECUACIONES LINEALES Y MATRICES
ideas, que a

22
= 0 entonces el segundo paso de la escalerizaci´on es:

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
A
1
A

2
A

3
.
.
.
.
.
.
A

i
.
.
.
.
.
.
A

m
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
A
1
A

2
A
′′
3
.
.
.
.
.
.
A
′′
i
.
.
.
.
.
.
A
′′
m
¸

←− A

3

a
32
a
22
A

2
.
.
.
←− A

i

a
i2
a
22
A

2
.
.
.
←− A

m

a
m2
a
22
A

2
La matriz obtenida en el paso dos tiene entonces el aspecto:

¸
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
. . . a
1n
0 a

22
a

23
. . . a

2n
0 0 a
′′
33
. . . a
′′
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
′′
m3
. . . a
′′
mn
¸

Repetimos nuevamente los pasos previos aplicados a la sub-matriz del re-
cuadro. El procedimiento culmina cuando se llega a la ´ ultima fila o columna.
Para obtener la matriz escalerizada reducida a partir de la escalerizada,
basta con repetir el procedimiento pero tomando como pivots la entrada que
ocupa el lugar inferior derecho de la matriz y yendo hacia arriba.
COROLARIO 1.4. Todo sistema lineal es equivalente a uno escalerizado.
1.4. Teorema de Rouche-Frobenius
En las discusiones que realizamos de los ejemplos 1.9, 1.10 y 1.11 se apre-
ciaba cierta relaci´on entre el n´ umero de escalones de la forma escalerizada
y la cantidad de soluciones del sistema, en esta secci´on establecemos con
precisi´on esta relaci´on describiendo completamente el conjunto soluci´on de
un sistema lineal de ecuaciones en termino de la cantidad de “escalones” del
mismo.
1.4. TEOREMA DE ROUCHE-FROBENIUS 39
DEFINICI
´
ON 1.5. Si E es una matriz escalerizada el n´ umero de esca-
lones de E es la cantidad de filas no nulas.
OBSERVACI
´
ON 1.5. Si E es una matriz escalerizada y E

es una matriz
reducida equivalente el n´ umero de escalones de ambas es el mismo.
OBSERVACI
´
ON 1.6. Ya hemos observado que la forma escalonada de
una matriz no es ´ unica sin embargo (aunque no lo hemos probado todav´ıa)
la forma reducida si lo es. De este hecho y de la observaci´on precedente se
deduce que la cantidad de escalones de todas las formas escalerizadas de una
misma matriz coinciden.
TEOREMA 1.7 (Rouche-Frobenius). Sea (S) un sistema lineal de m
ecuaciones con n inc´ ognitas con matriz ampliada A|b. Sea p el n´ umero de
escalones de A y p

el n´ umero de escalones de A|b entonces
1. (S) es compatible si y solo si p = p

2. Si (S) es compatible entonces
a) (S) es determinado si y solo si p = n.
b) (S) es indeterminado si y solo si p < n.
Demostraci´ on. Comencemos probando los rec´ıprocos de las tres afirma-
ciones. Observemos en primer lugar que como A tiene n columnas y cada
escal´on ocupa por lo menos una columna deducimos que para cualquier sis-
temas se cumple que
(1.4) p ≤ n
Supongamos que p = p

. De (1.4) se deduce que hay dos posibilidades p

=
p = n o p

= p < n. Analicemos el primer caso. La forma reducida debe
40 1. ECUACIONES LINEALES Y MATRICES
tener tantos escalones como columnas por lo tanto debe ser:

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 0 0 . . . . . . 0 c
1
0 1 0 . . . . . . 0 c
2
0 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1 0
.
.
.
0 0 . . . . . . 0 1 c
n
0 0 . . . . . . 0 0 0
¸

Donde la columna de entradas c
i
representa el termino independiente luego
de efectuado el proceso de escalerizaci´on. El sistema correspondiente es

x
1
= c
1
x
2
= c
2
.
.
.
.
.
.
x
n
= c
n
el cual es compatible determinado.
Veamos ahora el segundo caso, p

= p < n. Como la forma escalerizada
tiene m´as columnas que escalones necesariamente alg´ un escal´on debe tener
“descanso” y por lo tanto la forma reducida debe ser
1.4. TEOREMA DE ROUCHE-FROBENIUS 41

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 0 ⋆ . . . ⋆ 0 . . . 0 0 ⋆ . . . ⋆ 0 . . . 0 c
1
0 1 ⋆ . . . ⋆ 0 . . . 0 0 ⋆ . . . ⋆ 0 . . . 0 c
2
.
.
. 0 . . . . . . 0 1 . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
. . . .
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
.
.
. . . .
.
.
. 1 0
.
.
. . . .
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
.
.
. . . . . . . 0 1 ⋆ . . . ⋆ 0 . . .
.
.
. c
s
0 0 . . . . . .
.
.
. . . . . . .
.
.
. 0 0 . . . 0 1 . . .
.
.
. c
s+1
.
.
.
.
.
. . . . . . .
.
.
. . . . . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
. 0
.
.
.
0 0 . . . . . . 0 . . . . . . . . .
.
.
. 0 . . . 0 0 . . . 1 c
p
0 0 . . . . . . 0 . . . . . . . . .
.
.
. 0 . . . 0 0 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
.
.
. . . .
.
.
.
.
.
.
0 0 . . . . . . 0 . . . . . . . . .
.
.
. 0 . . . 0 0 . . . 0 0
¸

donde las zonas de estrellas representan submatrices con entradas arbitra-
rias.
Para analizar la soluci´on de este sistema intentemos aplicar el algoritmo de
sustituci´on hacia atr´as. Supongamos que s es la primera fila (comenzando
desde abajo) con descanso (escal´on de ancho mayor que una columna). Las
ecuaciones s + 1, s + 2, . . . , p son entonces
x
s+1
= c
s+1
x
s+2
= c
s+2
.
.
.
x
p
= c
p
la ecuaci´on s es
x
h
+a
s h+1
x
h+1
+. . . +a
ss
x
s
= c
s
despejando se tiene
x
h
= c
s
−(a
s h+1
x
h+1
+. . . +a
ss
x
s
)
42 1. ECUACIONES LINEALES Y MATRICES
La inc´ognita x
h
no puede entonces determinarse sino en funci´on de los va-
lores de x
h+1
, . . . , x
s
. Fijemos valores arbitrarios para estas ´ ultimas s − h
inc´ognitas, x
h
quedar´a determinado y con estos valores podemos ahora sus-
tituir en las ecuaci´on s −1, . . . , 1 y continuar el proceso de sustituci´on hacia
atr´as. Esto demuestra que el sistema es compatible, pues hay soluciones pero
si cambiamos la elecci´on hecha para los valores de x
h+1
, . . . , x
s
se obtiene
otro valor para x
h
y consecuentemente otra soluci´on con lo cual el sistema
resulta compatible indeterminado. De hecho como las variables x
h+1
, . . . , x
s
se pueden elegir arbitrariamente se obtienen infinitas soluciones. Obs´ervese
que estas elecciones arbitrarias se pueden hacer s´olo en los descansos y que
el n´ umero de variables que pueden elegirse libremente es n − p (la suma
de los anchos de los descansos es igual al n´ umero de columnas menos el de
escalones).
Demostremos ahora que si (S) compatible entonces p

= p. Para probarlo
demostraremos su contra rec´ıproco
6
y para esto basta con ver que p < p

implica (S) incompatible pues en cualquier sistema A|b tiene una columna
m´as que A y por lo tanto se cumple que p ≤ p

Si p < p

, la ´ ultima columna de la forma reducida de la matriz ampliada
debe tener un escal´on por lo tanto la forma es:

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 0 ⋆ . . . ⋆ 0 . . . 0 ⋆ ⋆ 0
0 1 ⋆ . . . ⋆ 0 . . . 0 ⋆ ⋆ 0
0 0 0 . . . 0 1 . . . 0 ⋆ ⋆ 0
.
.
.
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0 0 . . . 1 ⋆ ⋆ 0
0 0 0 . . . 0 0 . . . 0 0 0 1
0 0 0 . . . 0 0 . . . 0 0 0 0
¸

En consecuencia la ultima ecuaci´on del sistema es
0 = 1
6
Recordemos que un resultado de l´ogica elemental establece que A ⇒ B si y solo si
negaci´on de B ⇒ negaci´on de A
1.5. SISTEMAS HOMOG
´
ENEOS 43
de donde resulta que (S) debe ser incompatible.
Si S es compatible determinado debe ser p = n pues si p < n ya hemos visto
que (S) resultar´ıa indeterminado.
De manera an´aloga se razona para probar que S compatible indeterminado
implica p < n
En el transcurso de la demostraci´on se observo que si p = p

< n el sistema
es indeterminado y se pueden elegir n − p variables libremente quedando
las otras determinadas por estas. Por este motivo diremos que el sistema es
indeterminado con n −p grados de libertad.
1.5. Sistemas homog´eneos
Un sistema con todas las entradas del t´ermino independiente nulas se
denomina sistema homog´eneo. En virtud del importante rol que estos
sistemas desempe˜ nan vale la pena discutir alguna de sus propiedades.
PROPOSICI
´
ON 1.8. Un sistema lineal homog´eneo es siempre compatible.
Demostraci´ on. En efecto como el t´ermino independiente de un sistema
homog´eneo tiene todas sus entradas nulas debe ser p = p

y por lo tanto el
teorema de Rouche-Frobenius asegura la compatibilidad.
Otra manera m´as directa de probar la afirmaci´on anterior es observar que
la soluci´on x
1
= 0, . . . , x
n
= 0 a la que llamaremos soluci´on trivial verifica
cualquier sistema homog´eneo. Naturalmente los sistemas homog´eneos deter-
minados ´ unicamente admiten soluci´on trivial. Veamos con un ejemplo que
ocurre en el caso de un sistema homog´eneo indeterminado
EJEMPLO 1.12. Resolver el sistema

x +y −z = 0
x +y −2z = 0
2x + 2y −3z = 0
44 1. ECUACIONES LINEALES Y MATRICES
La matriz ampliada es:

¸
¸
1 1 −1 0
1 1 −2 0
2 2 −3 0
¸

Al escalerizarla se obtiene la matriz
(S)

¸
¸
1 1 −1 0
0 1 −1 0
0 0 0 0
¸

,
en consecuencia el sistema asociado es

x +y −z = 0
y −z = 0
La soluci´on es entonces
Sol(S) = {(0, z, z) con z ∈ R} = {z(0, 1, 1) con z ∈ R}.
Se puede observar que todas las soluciones se pueden obtener como combi-
naci´on lineal de ciertas soluciones fijas.
OBSERVACI
´
ON 1.9. Sea A una matriz m × n con n > m, el sistema
homog´eneo asociado tiene m´as inc´ognitas que ecuaciones y resulta indeter-
minado. En efecto, si E es una forma escalerizada asociada a A, es evidente
que a lo sumo puede tener m escalones y por lo tanto el teorema de Rouche-
Frobenius implica la afirmaci´on.
1.6. Una interpretaci´on geom´etrica
El lector ha estudiado en el curso de Geometr´ıa Anal´ıtica la ecuaci´on
ax +by = c.
Si a y b no se anulan simult´aneamente los puntos del plano de coordenadas
x, y que la verifican pertenecen a una recta. Por lo tanto en el sistema
(S)

ax +by = c
a

x +b

y = c
1.6. UNA INTERPRETACI
´
ON GEOM
´
ETRICA 45
cada ecuaci´on representa una recta y su soluci´on no es otra cosa que las
coordenadas de los puntos que pertenecen a la intersecci´on de ambas. De
ese modo un sistema 2 × 2 compatible determinado (una ´ unica soluci´on)
se corresponde con dos rectas que se cortan en un ´ unico punto (ver figura
1.13), un sistema indeterminado (infinitas soluciones) se corresponde con
dos rectas coincidentes y un sistema incompatible con dos rectas paralelas
distintas (ver figuras 1.14 y 1.15 respectivamente).
EJEMPLO 1.13. El sistema

2x +y = 2
x +y = 2
es compatible determinado con ´ unica soluci´on (0, 2)
1 2
x +y = 2
1
2
2x +y = 2
Figura 1
EJEMPLO 1.14. El sistema

2x + 2y = 4
x +y = 2
es compatible indeterminado con soluci´on {(x, 2 −x) x ∈ R}
46 1. ECUACIONES LINEALES Y MATRICES
1 2
x +y = 2
1
2
2x + 2y = 4
Figura 2
EJEMPLO 1.15. El sistema

x +y = 1
x +y = 2
es incompatible
x +y = 2
1
1
2
2
x +y = 1
Figura 3
Esta interpretaci´on geom´etrica de los sistemas 2 ×2 puede tambi´en ex-
tenderse a los sistemas de tres inc´ognitas salvo que, como veremos en el
pr´oximo cap´ıtulo, las ecuaciones representan planos en el espacio y la solu-
ci´on sus intersecciones.
1.6. UNA INTERPRETACI
´
ON GEOM
´
ETRICA 47
En cierta medida la teor´ıa que desarrollaremos en cap´ıtulos posteriores
nos permitir´a extender tambi´en la interpretaci´on geom´etrica para sistemas
de mayor tama˜ no.
48 1. ECUACIONES LINEALES Y MATRICES
CAP´ıTULO 2
´
ALGEBRA DE MATRICES
2.1. Operaciones con matrices
Ya hemos visto que en un sistema lineal de ecuaciones los coeficientes
del mismo forman un “ordenamiento rectangular de n´ umeros” al que deno-
minamos matriz. Hasta el momento las matrices no son otra cosa que una
nueva manera de representar al sistema de ecuaciones, simplemente se omite
escribir las inc´ognitas, lo cual resulta m´as c´omodo y compacto. Sin embargo
las matrices son objetos matem´aticos con “vida propia”. Como veremos m´as
adelante, las matrices comparten con los n´ umeros muchas de sus propieda-
des aunque claro esta, son m´as “complicados” que estos. No olvidemos que
guardan m´as informaci´on que una simple lista de n´ umeros: son n´ umeros
ordenados en un damero.
Comencemos definiendo algunas operaciones con matrices.
DEFINICI
´
ON 2.1 (Suma de matrices). Sea A = ((a
ij
)) y B = ((b
ij
)) dos
matrices m×n, definimos la suma + : M
m×n
×M
m×n
→M
m×n
de modo
que A+B = C siendo C = ((c
ij
)), donde c
ij
= a
ij
+b
ij
,
49
50 2.
´
ALGEBRA DE MATRICES
EJEMPLO 2.1. Sean A =

¸
¸
1
1
2
0
1 2 −1
0 −1

2
¸

y B =

¸
¸
0
1
2
−1
2 2 0
1 −2 2
¸

,
entonces

¸
¸
1
1
2
0
1 2 −1
0 −1

2
¸

+

¸
¸
0
1
2
−1
2 2 0
1 −2 2
¸

=

¸
¸
1 + 0
1
2
+
1
2
0 −1
1 + 2 2 + 2 −1 + 0
0 + 1 −1 −2

2 + 2
¸

=

¸
¸
1 1 −1
3 4 −1
1 −3

2 + 2
¸

DEFINICI
´
ON 2.2 (Producto de n´ umeros por matrices). Sea λ ∈ R un
n´ umero y A ∈ M
m×n
una matriz definimos el producto de λ por A como
λ·A = B donde B = ((b
ij
)) con b
ij
= λa
ij
EJEMPLO 2.2. Sea λ =

2 y A =


2 1
0 −

2

entonces


2 1
0 −

2

=


2(

2)

2(1)

2(0)

2(−

2)

=

2

2
0 −2

Resulta ´ util destacar alguna de las propiedades que tienen estas opera-
ciones.
Propiedades:
[S1] [Conmutativa] A +B = B +A, ∀ A, B ∈ M
m×n
.
[S2] [Asociativa]

A+B

+Z = A +

B +Z

, ∀ A, B, Z ∈ M
m×n
.
[S3] [Neutro de la suma] Existe O ∈ M
m×n
tal que A+O = O +A = A,
∀ A ∈ M
m×n
.
[S4] [Existencia de opuesto] Para cada A ∈ M
m×n
existe B ∈ M
m×n
tal
que A +B = O (Notaci´on: B = −A).
[P1] [Asociativa del producto]

αβ

A = α(βA), ∀ α, β ∈ R y A ∈ M
m×n
.
2.2. PRODUCTO DE MATRICES 51
[P2] [Neutro del producto] 1.A = A ∀ A ∈ M
m×n
[P3] [Distributiva] (α +β)A = αA +βA y ∀ α, β ∈ R y A, B ∈ M
m×n
.
[P4] [Distributiva] α(A +B) = αA +αB, ∀ α ∈ R y A, B ∈ M
m×n
.
Las pruebas quedar´an a cargo del lector. Observemos no obstante que la
matriz O de la propiedad [S3] se denomina matriz nula y tiene todas sus
entradas cero.
2.2. Producto de matrices
A las operaciones de suma y multiplicaci´on por escalares, en el caso de las
matrices, vamos a agregar un producto entre ellas. En una primera mirada
y por analog´ıa con las operaciones ya definidas parece razonable definir el
producto de matrices como producto entrada a entrada. No ser´a sin embargo,
ese el camino que seguiremos. Nuestro producto es algo m´as complicado pero
como veremos m´as adelante extremadamente ´ util.
DEFINICI
´
ON 2.3. Sea A ∈ M
m×p
y B ∈ M
p×n
definimos el producto
entre matrices como, · : M
m×p
×M
p×n
→M
m×n
de modo que A·B = C
donde C = ((c
ij
)), con
c
ij
=
p
¸
h=1
a
ih
b
hj
52 2.
´
ALGEBRA DE MATRICES
El siguiente esquema ayuda a recordar la forma de realizar la operaci´on:

¸
¸
¸
¸
¸
b
11
. . . b
1j
. . . b
1n
b
21
. . . b
2j
. . . b
2n
.
.
. . . .
.
.
. . . . . . .
b
p1
. . . b
pj
. . . b
pn
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
. . . a
1p
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
a
i1
a
i2
. . . a
ip
.
.
.
.
.
. . . .
.
.
.
a
m1
a
m2
. . . a
mp
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
. ↓
.
.
.
.
.
.
−→ c
ij
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
¸

EJEMPLO 2.3. Sea A =

2 −1
0 2

y B =

1 2
−1 3

calculemos su
producto

2 −1
0 2

1 2
−1 3

=

2·1 + (−1)(−1) 2(2) + (−1)3
0·1 + 2(−1) 0·2 + 2·3

=
=

3 1
−2 6

EJEMPLO 2.4. Sean A =

2 1 −1 0
2 1 2 −1

y B =

¸
¸
¸
¸
1 2
2 1
1 1
1 0
¸

. El pro-
ducto de A por B es:

2 1 −1 0
2 1 2 −1

¸
¸
¸
¸
1 2
2 1
1 1
1 0
¸

=

3 4
5 7

2.2. PRODUCTO DE MATRICES 53
pues
3 = 2·1 + 1·2 + (−1)1 + 0·1
4 = 2·2 + 1·1 + (−1)1 + 0·0
5 = 2·1 + 1·2 + 2·1 + (−1)1
7 = 2·2 + 1·1 + 2·1 + (−1)0
Vale la pena observar que las matrices no deben ser necesariamente del
mismo tama˜ no para poder multiplicarlas. De hecho si se mira con cuidado
la definici´on se observa que para poder hacerlo la cantidad de filas de la
primera debe coincidir con la cantidad de columnas de la segunda. Cuando
esto ocurra se dice que las matrices son conformables.
EJEMPLO 2.5. Sea A =

¸
¸
1 2 1
2 1 1
1 1 2
¸

y X =

¸
¸
x
y
z
¸

entonces
A.X =

¸
¸
1 2 1
2 1 1
1 1 2
¸

¸
¸
x
y
z
¸

=

¸
¸
x + 2y +z
2x +y +z
x +y + 2z
¸

EJEMPLO 2.6. Sea A =

¸
¸
1 2 1
2 1 1
1 1 2
¸

y X

=

x y z

entonces
X

A =

x y z

¸
¸
1 2 1
2 1 1
1 1 2
¸

=

x + 2y +z 2x +y +z x +y + 2z

OBSERVACI
´
ON 2.1. Sean A = ((a
ij
)) una matriz m× n y B = ((b
jk
))
una matriz n ×p notaremos por A
i
= (a
i1
, . . . , a
in
) a la fila i-esima de A y
54 2.
´
ALGEBRA DE MATRICES
con B
j
=

¸
¸
¸
b
1k
.
.
.
a
nk
¸

la columna k-esima de B. Si A·B = C designemos como
C
i
la fila i-esima y por C
k
la columna k- esima de C. Entonces C
k
= A·B
k
y C
i
= A
i
B, es decir que
A·B =

¸
¸
¸
¸
A·B
1
A·B
2
. . . A·B
n
. . .
¸

y
A·B =

¸
¸
¸
¸
¸
A
1
·B
A
2
·B
.
.
.
.
.
.
.
.
.
A
m
·B
¸

La prueba queda como ejercicio a cargo del lector pero el ejemplo siguiente
ilustra las afirmaciones.
EJEMPLO 2.7. Sea A =

2 1 0
1 2 1

y B =

¸
¸
1 1
2 1
1 1
¸

entonces
A·B =

2 1 0
1 2 1

¸
¸
1 1
2 1
1 1
¸

=

4 3
6 4

Las columnas de la matriz producto son

2 1 0
1 2 1

¸
¸
1
2
1
¸

=

4
6

y

2 1 0
1 2 1

¸
¸
1
1
1
¸

=

3
4

2.2. PRODUCTO DE MATRICES 55
y las filas son

2 1 0

¸
¸
1 1
2 1
1 1
¸

=

4 3

y

1 2 1

¸
¸
1 1
2 1
1 1
¸

=

6 4

Propiedades del producto de matrices
Analicemos ahora las propiedades del producto de matrices. Comence-
mos observando que no es conmutativo. En el ejemplo 2.5 se observa que
dos matrices pueden ser conformables en un orden y no en otro. De hecho en
ese ejemplo AX tiene sentido pero XA no. Pero el producto de matrices no
es conmutativo ni siquiera cuando las matrices a multiplicar son cuadradas.
En efecto sea A =

2 1
1 1

y B =

1 0
0 0

entonces
A.B =

2 1
1 1

1 0
0 0

=

2 0
1 0

, pero
B.A =

1 0
0 0

2 1
1 1

=

2 1
0 0

Naturalmente el contraejemplo solo indica que en general A·B = B·A lo
cual no significa que no existan matrices que conmuten.
[Asociativa] Si A = ((a
ij
)), B = ((b
ij
)) y C = ((c
ij
)) son tres matri-
ces conformables entonces

A·B

C = A

B·C

.
En efecto pongamos

A·B

C = D = ((d
ij
)) y A

B·C

= D

= ((d

ij
))
debemos probar que d
ij
= d

ij
∀ i, j.
d
ij
=
¸
h

a
ih

¸
s
b
hs
c
sj

=
¸
s

¸
h
a
ih
b
hs

c
sj

= d

ij

56 2.
´
ALGEBRA DE MATRICES
[Distributiva] Si A = ((a
ij
)), B = ((b
ij
)) son matrices de igual di-
mensi´on y C = ((c
ij
)) es una matriz conformable con A y B entonces
C(A+B) = C·A +C·B y (A+B)C = A·C +B·C
1
Probemos s´olo la primera, la otra queda como ejercicio. Pongamos
C(A+B) = D = ((d
ij
)),
C·A = E = ((e
ij
)) y C·B = F = ((f
ij
)).
Debemos probar entonces que d
ij
= e
ij
+f
ij
∀ i, j
d
ij
=
¸
h
c
ih

a
hj
+b
hj

=
¸
h
c
ih
a
hj
+c
ih
b
hj
=
=
¸
h
c
ih
a
hj
+
¸
h
c
ih
b
hj
= e
ij
+f
ij

DEFINICI
´
ON 2.4. Sea A = ((a
ij
)) una matriz n×m, definimos la matriz
traspuesta de A como la matriz m×n A
t
= ((a
t
ij
)), donde a
t
ij
= a
ji
.
EJEMPLO 2.8. Sea A =

1 2 3
2 1 1

entonces A
t
=

¸
¸
1 2
2 1
3 1
¸

Sea B =

1 2
2 3

entonces B
t
=

1 2
2 3

, entonces B = B
t
, cuando esto
ocurra diremos que la matriz es sim´etrica
Sea C =

¸
¸
0 2 −1
−2 0 1
1 −1 0
¸

entonces C
t
=

¸
¸
0 −2 1
2 0 −1
−1 1 0
¸

por lo tanto
C
t
= −C, cuando esto ocurra diremos que la matriz es antisim´etrica.
1
Observe el lector que la no conmutatividad del producto de matrices obliga a probar
ambas identidades independientemente, pues en general C(A+B) = (A +B)C.
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 57
Sea D =

¸
¸
¸
¸
1
−2
2
0
¸

entonces D
t
=

1 −2 2 0

. Obs´ervese que la tras-
puesta de una matriz columna resulta ser un matriz fila.
PROPOSICI
´
ON 2.2 (Propiedades de la matriz traspuesta). Sean A y B
dos matrices y λ un n´ umero se cumplen las siguientes propiedades
1.

A+B

t
= A
t
+B
t
.
2. (λA)
t
= λA
t
.
3. (A·B)
t
= B
t
·A
t
.
4. (A
t
)
t
= A
Demostraci´ on. Ejercicio.
2.3. Ecuaciones matriciales. Matriz inversa.
Si A es una matriz m× n y b es una matriz m× 1 entonces AX = b es
una ecuaci´on matricial. Resolverla es encontrar todas las matrices X n × 1
que la verifiquen.
El ejemplo 2.5 nos motiva a pensar que, identificando de manera natural
matrices columna con sucesiones finitas de n´ umeros, resolver la ecuaci´on
matricial AX = b es equivalente a resolver el sistema A|b.
PROPOSICI
´
ON 2.3. Sea
(S) =

a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
58 2.
´
ALGEBRA DE MATRICES
un sistema lineal de m ecuaciones con n inc´ ognitas, A la matriz del sistema
y b =

¸
¸
¸
¸
¸
b
1
b
2
.
.
.
b
m
¸

entonces (´x
1
, ´ x
2
, . . . , ´ x
n
) es soluci´ on de (S) si y solo si
´
X =

¸
¸
¸
¸
¸
´ x
1
´ x
2
.
.
.
´ x
n
¸

cumple que A·
´
X = b
Demostraci´ on. Observemos en primer lugar que

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

¸
¸
¸
¸
¸
´x
1
´x
2
.
.
.
´ x
n
¸

=

¸
¸
¸
¸
¸
a
11
´x
1
+a
12
´ x
2
+· · · +a
1n
´ x
n
a
21
´x
1
+a
22
´ x
2
+· · · +a
2n
´ x
n
.
.
.
.
.
.
.
.
.
a
m1
´ x
1
+a
m2
´x
2
+· · · +a
mn
´ x
n
¸

Entonces (´x
1
, ´ x
2
, . . . , ´ x
n
) ∈ Sol(S) ⇐⇒
a
i1
´x
1
+a
i2
´x
2
+· · · +a
in
´ x
n
= b
i
, ∀ i = 1, 2, . . . , m ⇐⇒

¸
¸
¸
¸
¸
a
11
´x
1
+a
12
´x
2
+· · · +a
1n
´ x
n
a
21
´x
1
+a
22
´x
2
+· · · +a
2n
´ x
n
.
.
.
.
.
.
.
.
.
a
m1
´x
1
+a
m2
´ x
2
+· · · +a
mn
´ x
n
¸

=

¸
¸
¸
¸
¸
b
1
b
2
.
.
.
b
m
¸

⇐⇒ A
´
X = b
El resultado anterior permite pensar el sistema de ecuaciones lineal con
matriz ampliada A|b como la ecuaci´on matricial
(2.5) AX = b.
Este hecho, en primer lugar, puede considerarse como la primera aplicaci´on
importante del producto de matrices y en cierta forma justifica su definici´on,
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 59
a priori no muy natural. M´as adelante veremos otras aplicaciones que per-
mitir´an comprender m´as profundamente las motivaciones de la definici´on.
Por otra parte la ecuaci´ on 2.5 recuerda fuertemente la situaci´on que ana-
lizamos en nuestro primer ejemplo 1.1. Al ver el sistema escrito en forma
matricial nos vemos tentados a “pasar dividiendo” A para “despejar” X.
Naturalmente, por el momento, esto carece de sentido pero, si analizamos
con m´as cuidado el procedimiento utilizado para resolver la ecuaci´on ax = b
observamos que la clave reside en que todo n´ umero no nulo tiene inverso,
esto es dado a ∈ R existe a
−1
∈ R tal que a.a
−1
= 1. Podr´ıamos analizar
la posibilidad de que una matriz tuviese una propiedad an´aloga pero para
esto necesitar´ıamos saber qu´e puede representar el “1” en nuestro contexto.
De nuevo la clave est´a en analizar que propiedad abstracta caracteriza a la
unidad real. R´apidamente se observa que el 1 no es otra cosa que el neutro
multiplicativo de R es decir 1 es el ´ unico n´ umero real que verifica a,1 = a
∀a ∈ R. Veamos que el producto de matrices tiene tambi´en un neutro mul-
tiplicativo.
DEFINICI
´
ON 2.5. Llamaremos matriz identidad de tama˜ no n a la ma-
triz n ×n
I
n
=

¸
¸
¸
¸
¸
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
¸

Esto es I
n
= ((e
ij
)) con e
ij
=

0 si i = j
1 si i = j
.
PROPOSICI
´
ON 2.4. I
n
·A = A·I
n
= A, ∀ A ∈ M
n×n
.
Demostraci´ on. La prueba es una verificaci´on inmediata y queda a cargo
del lector.
60 2.
´
ALGEBRA DE MATRICES
OBSERVACI
´
ON 2.5. El lector puede verificar directamente que si X =

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

es una matriz columna cualquiera entonces I
n
·X = X.
Ahora que tenemos nuestro neutro podemos dar la siguiente
DEFINICI
´
ON 2.6 (Matriz invertible). Sea A una matriz n ×n. Diremos
que la matriz A es invertible si y solo si existe B matriz n ×n tal que
(2.6) A.B = I
n
y B.A = I
n
donde I
n
es la matriz identidad n ×n
OBSERVACI
´
ON 2.6. Nuevamente como consecuencia de la no conmuta-
tividad del producto de matrices debemos, en la definici´on anterior, exigir
que A.B y B.A sean ambos iguales a la identidad. A priori podr´ıa ocurrir
que A.B = I
n
= B.A. Veremos m´as adelante que esto realmente no es posi-
ble, de hecho si existe B tal que AB = I
n
entonces BA = I
n
(ver lema 2.9).
Observemos adem´as, que las matrices invertibles son por definici´on matrices
cuadradas.
A continuaci´on veremos que la matriz B que cumple (2.6), cuando existe,
es ´ unica. Por tal motivo se le llama la inversa de A y se utiliza la notaci´on
B = A
−1
PROPOSICI
´
ON 2.7. Sean B
1
y B
2
matrices n × n que cumplen (2.6)
entonces B
1
= B
2
Demostraci´ on. En efecto
B
1
= B
1
I = B
1
(A.B
2
) = B
1
A.B
2
= (B
1
A) .B
2
= IB
2
= B
2
.
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 61
EJEMPLO 2.9. La matriz A =

2 1
1 1

es invertible, pues existe B =

1 −1
−1 2

tal que A.B = I y B.A = I (verificarlo)
EJEMPLO 2.10. La matriz A =

¸
¸
1 1 0
1 0 −1
0 0 0
¸

no es invertible, pues
para cualquier matriz B =

¸
¸
a b c
d e f
g h i
¸

se cumple que
A.B =

¸
¸
1 1 2
1 −1 −1
0 0 0
¸

¸
¸
a b c
d e f
g h i
¸

=

¸
¸
a +d b +e c +f
a −g b −h c −i
0 0 0
¸

=
=

¸
¸
1 0 0
0 1 0
0 0 1
¸

= I

PROPOSICI
´
ON 2.8. Sean A y B dos matrices n×n invertibles entonces
A·B es invertible y (A·B)
−1
= B
−1
·A
−1
Demostraci´ on. Basta verificar directamente que
(A·B)(B
−1
·A
−1
) = A
=In
. .. .
(B·B
−1
) A
−1
= A·A
−1
= I
n
y que
(B
−1
·A
−1
)(A·B) = B
−1
=In
. .. .
(A
−1
·A) B = B
−1
·B = I
n
62 2.
´
ALGEBRA DE MATRICES
Sea A ∈ M
n×n
una matriz invertible y b ∈ M
n×1
una matriz columna
consideremos el sistema A·X = b ; como A es invertible podemos multi-
plicar en la ecuaci´on anterior a ambos miembros por A
−1
se tiene entonces
2
A
−1

A·X

= A
−1
·b ⇐⇒

A
−1
·A

X = A
−1
·b ⇐⇒I
n
·X = A
−1
·b
⇐⇒ X = A
−1
·b
Por lo tanto si A es invertible (x
1
, x
2
, . . . , x
n
) es soluci´on del sistema con
matriz ampliada A|b si y solo si
(2.7)

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

= A
−1
b
EJEMPLO 2.11. Resolvamos el sistema
(S)

2x +y = 3
x +y = −1
la matriz del sistema es
A =

2 1
1 1

, y b =

3
−1

.
Es f´acil ver que A es invertible (ejemplo 2.9) y que
A
−1
=

1 −1
−1 2

; entonces la soluci´on es
A
−1
b =

1 −1
−1 2

3
−1

=

4
−5

.
El lector como ejercicio verificar´a que efectivamente (4, −5) satisface (S)
2
Obs´ervese que se debe multiplicar en ambos miembros del mismo lado, pues el pro-
ducto no es conmutativo
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 63
La sencilla idea, utilizada al principio del curso, para resolver un sistema
lineal 1×1, funcion´o tambi´en para resolver un sistema lineal n×n con n > 1
La f´ormula (2.7) no s´olo es an´aloga a la obtenida en el ejemplo 1.1 sino que
parece indicar un nuevo procedimiento para resolver sistemas lineales. Sin
embargo hay varios asuntos a aclarar; en primer lugar todo lo hecho s´olo
se aplica a sistemas cuadrados; en segundo lugar la f´ormula (2.7) es v´alida
s´olo bajo la hip´otesis de que A sea invertible y no tenemos por el momento
ning´ un criterio para decidir si una matriz lo es o no (trataremos esto en la
secci´on 2.7 y de tambi´en en el Cap´ıtulo sobre Determinantes). Finalmente
cuando A es invertible para poder aplicar la f´ormula necesitamos saber c´omo
obtener la matriz A
−1
, inversa de A. A continuaci´on veremos un algoritmo
para calcular la matriz inversa.
Para ello, admitamos moment´aneamente el siguiente Lema, cuya prueba
realizaremos en la secci´on 2.7.
LEMA 2.9. Sea A una matriz n × n entonces A es invertible si y solo si
existe X ∈ M
n×n
tal que A·X = I
n
Nos bastara entonces, hallar X tal que AX = I
n
. Lo cual es equivalente
a resolver n sistemas de ecuaciones con igual matriz asociada y diferente
termino independiente, pues si indicamos por X
j
la columna j-esima de X
64 2.
´
ALGEBRA DE MATRICES
y por e
j
la columna j-esima de I
n
tenemos que
AX = I ⇐⇒
A

¸
¸
¸
¸
X
1
X
2
. . . X
n
. . .
¸

=

¸
¸
¸
¸
A·X
1
A·X
2
. . . A·X
n
. . .
¸

=

¸
¸
¸
¸
e
1
e
2
. . . e
n
. . .
¸

⇐⇒
⇐⇒(S
j
) A

¸
¸
¸
¸
¸
¸
¸
¸
x
j1
.
.
.
x
jj
.
.
.
x
jn
¸

=

¸
¸
¸
¸
¸
¸
¸
¸
0
.
.
.
1
.
.
.
0
¸

.
.
.
.
.
.
←− lugar j
.
.
.
.
.
.
(j = 1, 2, ..., n)
Como los n sistemas S
1
, S
2
, . . . , S
n
tienen la misma matriz A de coeficientes
(con diferentes t´erminos independientes), se pueden resolver simult´aneamen-
te escalerizando la matriz (A| I ) .. Naturalmente a priori nada asegura que
estos sistemas sean compatibles, podr´ıa ocurrir que alguno no lo fuera y en
ese caso no se puede determinar la matriz X y consecuentemente A no
resulta invertible. De hecho A es invertible si y solo si los n sistemas S
i
,
i = 1, . . . , n son compatibles.
EJEMPLO 2.12. Consideremos la matriz A =

2 1
4 3

. Queremos ha-
llar (si existe) la matriz X =

x
11
x
12
x
21
x
22

tal que AX = I : AX =
=

2 1
4 3

x
11
x
12
x
21
x
22

=

2x
11
+x
21
2x
12
+x
22
4x
11
+ 3x
21
4x
12
+ 3x
22

=

1 0
0 1

2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 65
Igualando (por columna) se tienen los siguientes sistemas de ecuaciones :
(S
1
)

2x
11
+x
21
= 1
4x
11
+ 3x
21
= 0
⇐⇒

2 1
4 3

x
11
x
21

=

1
0

⇐⇒ A

x
11
x
21

=

1
0

(S
2
)

2x
12
+x
22
= 0
4x
12
+ 3x
22
= 1
⇐⇒

2 1
4 3

x
12
x
22

=

0
1

⇐⇒ A

x
12
x
22

=

0
1

Resolvemos el sistema (S
1
) por escalerizaci´on

2 1
4 3

1
0

2 1
0 1

1
−2

←− F
2
+ (−2)F
1

2 0
0 1

3
−2

←− F
1
−F
2

1 0
0 1

3
2
−2

←−
1
2
F
1
Por lo tanto

x
11
x
21

=

3
2
−2

. Resolvemos el sistema (S
2
) por escale-
rizaci´on

2 1
4 3

0
1

2 1
0 1

0
1

←− F
2
+ (−2)F
1

2 0
0 1

−1
1

←− F
1
−F
2

1 0
0 1


1
2
−2

←−
1
2
F
1
66 2.
´
ALGEBRA DE MATRICES
Por lo tanto

x
12
x
22

=


1
2
−2

. Es decir que la inversa de A es
X =

3
2

1
2
−2 −2

. Como para ambos sistemas la matriz A es la matriz de
coeficientes, los podemos resolver simult´aneamente

2 1
4 3

1
0
0
1

2 1
0 1

1
−2
0
1

←− F
2
+ (−2)F
1

2 0
0 1

3
−2
−1
1

←− F
1
−F
2

1 0
0 1

3
2
−2

1
2
−2

←−
1
2
F
1

En general, para calcular la inversa de la matriz A de tama˜ no n ×n, se
reduce la matriz (A| I ) por escalerizaci´on a la matriz (I| B) y se tiene que
A
−1
= B
2.4. El espacio de n-uplas
Las filas de una matriz (al igual que las columnas y las soluciones del
sistema) son “colecciones ordenadas de n´ umeros”. Hagamos entonces, un pe-
que˜ no par´entesis para introducir la noci´on de “colecci´ on ordenada” o n-upla
y ciertas operaciones naturales que se corresponden con las transformaciones
elementales. Estas ideas resultar´an de gran importancia en este cap´ıtulo y
en el resto del curso.
Recordamos que si A y B son dos conjuntos el producto cartesiano de
ambos se define como el conjunto de pares ordenados de elementos de A
y B
A×B = {(a, b) : a ∈ A y b ∈ B}.
Dos elementos (a, b) y (c, d) son iguales si a = c y b = d. Si A = B = R
entonces a
R
2
= R ×R = {(x, y) : x ∈ R y y ∈ R}
2.4. EL ESPACIO DE n-UPLAS 67
lo llamaremos espacio de 2-uplas.
De manera an´aloga definimos
R
3
= R
2
×R = R×R ×R = {(x, y, z) : x ∈ R, y ∈ R y z ∈ R}
el espacio de las 3-uplas.
En general
R
n
= R
n−1
×R =
n veces
. .. .
R ×· · · ×R= {(x
1
, . . . , x
n
) : x
i
∈ R, ∀i = 1, . . . , n}
es el espacio de n-uplas.
Si (x
1
, . . . , x
n
) y (y
1
, . . . , y
n
) son dos n-uplas y α un n´ umero definimos la
suma entre n-uplas como
(x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+y
1
, . . . , x
n
+y
n
)
y el producto de n´ umeros por n-uplas como
α(x
1
, . . . , x
n
) = (αx
1
, . . . , αx
n
)
EJEMPLO 2.13. Supongamos n = 3 entonces
(1, 2, −1) + (0, 1, 2) = (1 + 0, 2 + 1, −1 + 2) = (1, 3, 1)
y

2(1, 0,

2) = (

2,1,

2,0,

2.

2) = (

2, 0, 2)
Las operaciones tienen una lista de propiedades que nuevamente, al igual
que en el caso de las operaciones con matrices, resulta ´ util destacar. N´otese
que en ambos casos las propiedades coinciden.
Para compactar la notaci´on designemos cada n-upla con una letra may´ uscu-
la, X = (x
1
, . . . , x
n
).
[S1] [Conmutativa] X +Y = Y +X, ∀ X, Y ∈ R
n
.
[S2] [Asociativa]

X +Y

+Z = X +

Y +Z

, ∀ X, Y, Z ∈ R
n
.
[S3] [Neutro de la suma] Existe O ∈ R tal que X + O = O + X = X,
∀ X ∈ R
n
.
[S4] [Existencia de opuesto] Para cada X ∈ R
n
existe Y ∈ R
n
tal que
X +Y = O (Notaci´on: Y = −X).
68 2.
´
ALGEBRA DE MATRICES
[P1] [Asociativa del producto]

αβ

X = α(βX) ∀ α, β ∈ R y X ∈ R
n
.
[P2] [Neutro del producto] 1.X = X, ∀ X ∈ R
n
[P3] [Distributiva] (α +β)X = αX +βX, ∀ α, β ∈ R y X, Y ∈ R
n
.
[P4] [Distributiva] α(X +Y ) = αX +αY , ∀ α ∈ R y X, Y ∈ R
n
.
Probemos s´olo algunas, las restantes quedan a cargo del lector
[S1] Si X = (x
1
, . . . , x
n
) y Y = (y
1
, . . . , y
n
) entonces
X +Y = (x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+y
1
, . . . , x
n
+y
n
) =
= (y
1
+x
1
, . . . , y
n
+x
n
) = (y
1
, . . . , y
n
) + (x
1
, . . . , x
n
) = Y +X
[S3] Basta observar que O = (0, . . . , 0) act´ ua como neutro. De hecho es
´ unico (verificarlo). La n-upla O se denomina n-upla nula.
[S4] Si X = (x
1
, . . . , x
n
) basta elegir Y = (−x
1
, . . . , −x
n
) entonces
X +Y = (x
1
, . . . , x
n
) + (−x
1
, . . . , −x
n
) =
= (x
1
−x
1
, . . . , x
n
−x
n
) = (0, . . . , 0) = O
Obs´ervese que −1.X = −X
DEFINICI
´
ON 2.7. Decimos que X ∈ R
n
es una combinaci´on lineal de
las n-uplas X
1
, X
2
, . . . , X
n
si existen n´ umeros reales λ
1
, λ
2
, . . . , λ
n
tales que
X = λ
1
X
1

2
X
2
+· · · +λ
n
X
n
=
n
¸
i=1
λ
i
X
i
Los n´ umeros λ
i
, i = 1, 2, . . . , n se denominan coeficientes de la combinaci´on
lineal.
Si A = {X
1
, X
2
, . . . , X
n
} ⊂ R
n
combinar linealmente los vectores de A
con coeficientes λ
i
, i = 1, 2, . . . , n es calcular
X =
n
¸
i=1
λ
i
X
i
OBSERVACI
´
ON 2.10. La n-upla nula O = (0, . . . , 0) es combinaci´on li-
neal de cualquier colecci´on de n-uplas, basta tomar todos los coeficientes
nulos.
2.4. EL ESPACIO DE n-UPLAS 69
Si X es combinaci´on lineal A = {X
1
, . . . , X
p
} entonces es combinaci´on li-
neal de B para cualquier conjunto B finito que contenga a A. En efecto
supongamos que
X = λ
1
X
1
+· · · +λ
p
X
p
y que
B = {X
1
, . . . , X
p
, Y
1
, . . . , Y
h
}
entonces
X = λ
1
X
1
+· · · +λ
p
X
p
+ 0Y
1
+· · · + 0Y
h
EJEMPLO 2.14. Sea A = {(1, 2, 1), (2, −2, 2)} ⊂ R
3
entonces (0, 6, 0) es
combinaci´on lineal de A con coeficientes 2 y -1 pues
(0, 6, 0) = 2(1, 2, 1) + (−1)(2, −2, 2).

EJEMPLO 2.15. Sea A = {(1, 2, 1), (2, −2, 2), (1, 1, 1)} combinemos lineal-
mente los vectores de A con coeficientes 3,-1, 0
3(1, 2, 1) + (−1)(2, −2, 2) + 0(1, 1, 1) = (1, 8, 1)

EJEMPLO 2.16. La 2-upla (2, 1) es combinaci´on lineal de
A = {(1, 1), (1, 0), (−1, 1)}
pues
(2, 1) = (1, 1) + (1, 0) + 0(−1, 1)
pero tambi´en
(2, 1) = 2(1, 1) + (−1)(1, 0) + (−1)(−1, 1)

OBSERVACI
´
ON 2.11. En general si X es combinaci´on lineal de A los
coeficientes no tienen por que ser ´ unicos, tal como muestra el ejemplo ante-
rior.
70 2.
´
ALGEBRA DE MATRICES
EJEMPLO 2.17. Sea A = {(2, 1), (1, 0)} y X = (1, 1). ¿Es X combinaci´on
lineal de A? Apelando a la definici´on observamos que la pregunta puede
formularse de manera equivalente como ¿existen n´ umeros λ
1
, λ
2
tales que
λ
1
(2, 1) +λ
2
(1, 0) = (1, 1)?. Ahora bien,
λ
1
(2, 1) +λ
2
(1, 0) = (1, 1) ⇐⇒(S)


1

2
= 1
λ
1
= 1
El sistema (S) tiene matriz ampliada A|b =

2 1 1
1 0 1

de la ´ ultima ecua-
ci´on se deduce que λ
1
= 1 y sustituyendo en la primera se tiene que λ
2
= −1
N´otese que la matriz A tiene como columnas las n-uplas del conjunto B.
OBSERVACI
´
ON 2.12. El razonamiento realizado en el ´ ultimo ejemplo
puede aplicarse en general (el lector deber´a verificar esto) y muestra que el
problema de determinar si una n-upla X = (x
1
, . . . , x
n
) ∈ R
n
es combinaci´on
lineal de un conjunto B = {X
1
, . . . , X
n
} ⊂ R
n
es equivalente a discutir la
compatibilidad de un sistema lineal de ecuaciones con matriz ampliada A|b
donde A es la matriz de columnas X
1
, X
2
, . . . , X
n
y b =

¸
¸
¸
x
1
,
.
.
.
x
n
¸

Culminemos esta secci´on probando un resultado que ser´a de utilidad en
futuro que b´asicamente establece la “transitividad” de la combinaci´on lineal.
PROPOSICI
´
ON 2.13. Sea A = {X
1
, X
2
, . . . , X
r
} y B = {Y
1
, Y
2
, . . . , Y
m
}
dos conjuntos de n-uplas tales que ∀i = 1, 2, . . . , m Y
i
es combinaci´ on lineal
de A. Si Z ∈ R
n
es combinaci´ on lineal de B entonces Z es combinaci´ on
lineal de A
Demostraci´ on. Como Z es combinaci´on de B existen entonces n´ umeros
β
1
, β
2
, . . . , β
m
tales que
(2.8) Z = β
1
Y
1

2
Y
2
+· · · +β
m
Y
m
2.5. DEPENDENCIA LINEAL 71
Pero como cada Y
i
con i = 1, 2, . . . , m es combinaci´on de A, existen n´ umeros
α
ij
con i = 1, 2, . . . , m y j = 1, 2, . . . , r tales que
(2.9) Y
i
= α
i1
X
1

i2
X
2
+· · · +α
ir
X
r
, ∀ i = 1, 2, . . . , m
Sustituyendo (2.9) en (2.8) se tiene
Z = β
1

11
X
1

12
X
2
+· · · +α
1r
X
r
) +
β
2

21
X
1

22
X
2
+· · · +α
2r
X
r
) +· · · +
β
m

m1
X
1

m2
X
2
+· · · +α
mr
X
r
)
Reordenando,
Z = (β
1
α
11

2
α
21
+· · · +β
m
α
m1
)
. .. .

1
X
1
+

1
α
12

2
α
22
+· · · +β
m
α
m2
)
. .. .

2
X
2
+· · · +

1
α
1r

2
α
2r
+· · · +β
m
α
mr
)
. .. .
=λr
X
r
Por lo tanto
Z = λ
1
X
1

2
X
2
+· · · +λ
r
X
r
probando que Z es combinaci´on de A.
2.5. Dependencia lineal
Introducimos ahora el concepto de dependencia lineal para n-uplas. el
cual resulta ahora b´asico para la caracterizaci´on de las matrices invertibles
y que en el futuro jugara un papel central en muchos otros problemas. Los
conceptos b´asicas de esta secci´on ser´an vistas nuevamente en el Cap´ıtulo
sobre Espacios Vectoriales, en un contexto m´as abstracto. Los ideas nuevas
contenidos en las definiciones y demostraciones de esta Secci´on se basan ´ uni-
camente en las propiedades de las operaciones (S1 -P4) entre n-uplas y
no en el hecho de que ´estas sean una sucesi´on finita de n´ umeros. Por tanto si
entre elementos de otro conjunto se tuvieran definidas operaciones con esas
72 2.
´
ALGEBRA DE MATRICES
propiedades, los resultados ser´ıan tambi´en v´alidos. De hecho estas observa-
ciones son las que conducen a introducir el concepto de Espacio Vectorial.
Sea (S) un sistema lineal n × n compatible con matriz ampliada A|b
El car´acter determinado o indeterminado de (S) depende, de acuerdo al
teorema de Rouch´e-Frobenius, de la cantidad de escalones (i.e. de filas no
nulas) de la forma reducida de A. De hecho (S) es determinado si ninguna
fila de la forma reducida de A es nula y es indeterminado si alguna lo es. La
forma reducida se obtiene realizando combinaciones lineales con las filas de
A, por lo tanto para que en el proceso de escalerizaci´on una fila se anule debe
ser combinaci´on lineal de las restantes. Para ilustrar esto puede observarse
en el ejemplo 1.11 que la quinta fila de la matriz (1 2 1 4 9 3 − 1)
se anula, analizando las transformaciones elementales que se efectuaron al
escalerizar se deduce que F
5
= 2F
3
−F
1
, lo cual se comprueba directamente
(1 2 1 4 9 3 −1) = 2(1 2 1 2 5 3 1) −(1 2 1 0 1 1 1)
En otras palabras la determinaci´on o indeterminaci´on de un sistema com-
patible depende de que alguna fila en la matriz del sistema sea combinaci´on
de las restantes. Como las filas de una matriz pueden pensarse como n-uplas
podemos plantear el problema de una forma un poco m´as abstracta.
Sea B = {X
1
, . . . , X
n
} ⊂ R
n
queremos determinar si alguno de los elemen-
tos de B es combinaci´on lineal de los restantes, veamos algunos ejemplos
para ilustrar el problema.
EJEMPLO 2.18. Sea B = {(2, 1, 0), (1, 1, 1), (3, 2, 1)} ¿alguna n-upla de B
es combinaci´on lineal de las restantes? Intentemos ver si (2, 1, 0) es combi-
naci´on de los otros dos.
Para esto debemos determinar si existen λ
1
, λ
2
∈ R tales que
λ
1
(1, 1, 1) +λ
2
(3, 2, 1) = (2, 1, 0).
Esto es equivalente a que el sistema
2.5. DEPENDENCIA LINEAL 73
(S)

λ
1
+ 3λ
2
= 2
λ
1
+ 2λ
2
= 1
λ
1

2
= 0
sea compatible. Para resolver el sistema (S) escribamos la matriz ampliada
A =

¸
¸
1 3 2
1 2 1
1 1 0
¸

,
al escalerizarla se obtiene
A =

¸
¸
1 3 2
0 −1 −1
0 0 0
¸

Por lo tanto el sistema (S) es compatible determinado y Sol(S) = {(−1, 1)}.
En consecuencia,
(2, 1, 0) = (−1)(1, 1, 1) + (3, 2, 1).
Adem´as de lo anterior, se deduce f´acilmente que
(3, 2, 1) = (2, 1, 0) + (1, 1, 1) y (1, 1, 1) = (3, 2, 1) + (−1)(2, 1, 0)
Es decir que cualquiera de las tres n-uplas es combinaci´on lineal de las
restantes. Cabe preguntarse si esto ocurre siempre. La respuesta es negativa
como muestra el siguiente ejemplo
Sea B

= {(1, 1, 1), (2, 2, 2), (0, 0, 1)} entonces es claro que
(2.10) (1, 1, 1) =
1
2
(2, 2, 2) + 0(0, 0, 1) y (2, 2, 2) = 2(1, 1, 1) + 0(0, 0, 1)
pero sin embargo
(0, 0, 1) = λ
1
(2, 2, 2) +λ
2
(1, 1, 1), ∀ λ
1
, λ
2
∈ R
74 2.
´
ALGEBRA DE MATRICES
pues el sistema


1

2
= 0

1

2
= 0

1

2
= 1
es incompatible. Vale la pena observar tambi´en, que la n-upla (0, 0, 1) no
puede despejarse de (2.10) pues en cualquiera de las dos combinaciones
lineales tiene coeficiente nulo.
El ejemplo anterior muestra que en general determinar si en un conjun-
to de n-uplas alguna es combinaci´on lineal de las restantes puede resultar
trabajoso si se utiliza el procedimiento del ejemplo, pues como se vio puede
ocurrir que sea necesario chequear una a una las n-uplas del conjunto ya
que algunas pueden no ser combinaci´on de las restantes y otras si. Vale la
pena entonces tratar de obtener un m´etodo m´as eficiente para resolver este
problema.
DEFINICI
´
ON 2.8. Un conjunto A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
se dice
linealmente dependiente (L.D.) si existen λ
1
, λ
2
, . . . , λ
m
∈ R no todos
nulos tales que
λ
1
X
1

2
X
2
+· · · +λ
m
X
m
=
m
¸
i=0
λ
i
X
i
= O
DEFINICI
´
ON 2.9. Un conjunto A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
se dice li-
nealmente independiente (L.I.) si no es linealmente dependiente o equiva-
lentemente A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
es L.I. si λ
1
, λ
2
, . . . , λ
m
son n´ ume-
ros reales tales que
λ
1
X
1

2
X
2
+· · · +λ
m
X
m
=
m
¸
i=0
λ
i
X
i
= O
entonces λ
1
= λ
2
= . . . = λ
m
= 0
En otras palabras un conjunto es L.I. si la ´ unica forma de escribir la
n-upla nula como combinaci´on lineal de sus elementos es la trivial y es L.D.
si hay otras formas.
2.5. DEPENDENCIA LINEAL 75
Los siguientes resultados dan una caracterizaci´on de los conjuntos L.D.
y L.I.
PROPOSICI
´
ON 2.14. Sea A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
entonces
1. A es linealmente dependiente, si y solo si existe X
i
0
∈ A, combinaci´ on
lineal de los restantes elementos de A
2. A es linealmente independiente si ning´ un elemento de A es combina-
ci´ on lineal de los restantes.
Demostraci´ on. S´olo es necesario probar la primera afirmaci´on pues la
segunda es su consecuencia inmediata.
(=⇒) Supongamos que A es L.D. entonces existen n´ umeros λ
1
, λ
2
, . . . , λ
m
no todos nulos tales que
(2.11)
m
¸
i=0
λ
i
X
i
= 0
Sea λ
i
0
un coeficiente no nulo en la combinaci´on lineal precedente, las pro-
piedades de las operaciones de suma y producto de n-uplas nos habilitan a
“despejar” el termino i
0
-esimo en (2.11)
λ
1
X
1
+· · · +λ
i
0
−1
X
i
0
−1

i
0
X
i
0

i
0
+1
X
i
0
+1
+· · · +λ
m
X
m
= O =⇒
=0
....
−λ
i
0
X
i
0
= λ
1
X
1
+· · · +λ
i
0
−1
X
i
0
−1

i
0
+1
X
i
0
+1
+· · · +λ
m
X
m
=⇒
X
i
0
= −
λ
1
λ
i
0
X
1
−· · · −
λ
i
0
−1
λ
i
0
X
i
0
−1

λ
i
0
+1
λ
i
0
X
i
0
+1
−· · · −
λ
m
λ
i
0
X
m
Por lo tanto X
i
0
es combinaci´on lineal de los restantes elementos de A como
quer´ıamos.
(⇐) Supongamos ahora que existe X
i
0
∈ A combinaci´on lineal de los res-
tantes elementos de A entonces existen n´ umeros λ
1
, . . . , λ
i
0
−1
, λ
i
0
+1
, . . . , λ
m
tales que
X
i
0
= λ
1
X
1
+· · · +λ
i
0
−1
X
i
0
−1

i
0
+1
X
i
0
+1
+· · · +λ
m
X
m
76 2.
´
ALGEBRA DE MATRICES
entonces sumando el opuesto de X
i
0
a ambos miembros se tiene que
λ
1
X
1
+· · · +λ
i
0
−1
X
i
0
−1
+
=0
....
(−1) X
i
0

i
0
+1
X
i
0
+1
+· · · +λ
m
X
m
= O
de donde hemos obtenido la n-upla nula como combinaci´on lineal no trivial
de los elementos de A y consecuentemente ´este es un conjunto L.D. como
quer´ıamos.
La proposici´on anterior y su prueba dan un m´etodo m´as eficiente pa-
ra determinar si en un conjunto de n-uplas un elemento es combinaci´on de
los restantes: basta investigar si es L.D o no. Adem´as si se analiza con cui-
dado en la demostraci´on del directo se observa cuales son las n-uplas que
son combinaci´on de las otras, son exactamente aquellas que en (2.11) tienen
coeficiente no nulo, esto es lo que permite “despejarlas”.
Veamos ahora algunos ejemplos de conjuntos L.I. y L.D.
EJEMPLO 2.19. El ejemplo m´as sencillo de un conjunto L.D. es el que
tiene como ´ unico elemento a la n-upla nula. Si A = {(0, 0, . . . , 0)} ⊂ R
m
entonces λ(0, 0, . . . , 0) = O ∀λ ∈ R, en particular si λ = 0.
Es f´acil ver que este es el ´ unico conjunto de un elemento L.D.
En efecto si A = {X} con X = O entonces λX = O implica λ = 0 (probarlo),
con lo cual A resulta L.I.
Por otra parte cualquier conjunto que contenga a O debe ser L.D.. Sea
A = {O, X
1
, . . . , X
m
} ⊂ R
n
entonces
100.O + 0X
1
+. . . + 0X
m
= O
es una combinaci´on lineal de los elementos de A que da el nulo con no todos
los coeficientes nulos.
EJEMPLO 2.20. Determinar en cada caso la dependencia lineal del con-
junto A y en caso de ser L.D. indicar cu´ales vectores son combinaci´on lineal
de los restantes.
2.5. DEPENDENCIA LINEAL 77
1. Sea A = {(1, 1, −1), (1, 0, 1), (1, 1, 1)} supongamos que λ
1
, λ
2
, λ
3
son
tres n´ umeros reales tales que
λ
1
(1, 1, −1) +λ
2
(1, 0, 1) +λ
3
(1, 1, 1) = (0, 0, 0) ⇐⇒

1

2

3
, λ
1

3
, −λ
1

2

3
) = (0, 0, 0) ⇐⇒
(H)

λ
1

2

3
= 0
λ
1

3
= 0
−λ
1

2

3
= 0
En consecuencia el conjunto es L.I si el sistema homog´eneo (H) es
determinado (s´olo admite soluci´on trivial) y es L.D. si (H) es indeter-
minado (admite soluciones no triviales). La matriz del sistema es

¸
¸
1 1 1 0
1 0 1 0
−1 1 1 0
¸

escaleriz´andola se obtiene

¸
¸
1 1 1 0
0 −1 0 0
0 0 −2 0
¸

por lo tanto (H) es determinado y la ´ unica soluci´on es la trivial λ
1
=
λ
2
= λ
3
= 0 de donde A es L.I..
2. Sea A = {(1, 1, 2, 0), (1, 0, 1, 1), (0, 1, 1, −1), (2, 1, 3, 1), (1, 0, 1, 0)} y
sean λ
1
, λ
2
, λ
3
, λ
4
, λ
5
n´ umeros reales tales que
λ
1
(1, 1, 2, 0) +λ
2
(1, 0, 1, 1) +λ
3
(0, 1, 1, −1) + (2.12)
λ
4
(2, 1, 3, 1) +λ
5
(1, 0, 1, 0) = (0, 0, 0, 0) ⇐⇒

1

2
+ 2λ
4

5
, λ
1

3

4
, 2λ
1

2

3
+ 3λ
4

5
, λ
2
−λ
3

4
)
= (0, 0, 0, 0) ⇐⇒
78 2.
´
ALGEBRA DE MATRICES

λ
1

2
+ 2λ
4

5
= 0
λ
1

3

4
= 0

1

2

3
+ 3λ
4

5
= 0
λ
2
−λ
3

4
= 0
La matriz del sistema es:

¸
¸
¸
¸
1 1 0 2 1 0
1 0 1 1 0 0
2 1 1 3 1 0
0 1 −1 1 0 0
¸

Escaleriz´andola se obtiene:

¸
¸
¸
¸
1 1 0 2 1 0
0 1 −1 1 1 0
0 0 0 0 1 0
0 0 0 0 0 0
¸

y en consecuencia la soluci´on es λ
1
= −λ
3
−λ
4
, λ
2
= λ
3
−λ
4
, λ
5
= 0,
λ
3
, λ
4
∈ R El sistema es entonces compatible indeterminado y por lo
tanto A es L.D. En efecto sustituyendo en (2.12) se tiene que para
cualquier valor real de λ
3
y λ
4
se cumple que
(−λ
3
−λ
4
)(1, 1, 2, 0) + (λ
3
−λ
4
)(1, 0, 1, 1) +λ
3
(0, 1, 1, −1) +
λ
4
(2, 1, 3, 1) + 0(1, 0, 1, 0) = (0, 0, 0, 0)
en particular poniendo por ejemplo λ
3
= 1 y λ
4
= 2 tenemos que
(−3)(1, 1, 2, 0) + (−1)(1, 0, 1, 1) + (0, 1, 1, −1) +
2(2, 1, 3, 1) + 0(1, 0, 1, 0) = (0, 0, 0, 0)
de donde podemos “despejar” cualquier n-upla salvo la ´ ultima (tiene
coeficiente cero) como combinaci´on lineal de las restantes. Por ejem-
plo,
(1, 1, 2, 0) =
1
3
(1, 0, 1, 1) −
1
3
(0, 1, 1, −1)

2
3
(2, 1, 3, 1) + 0(1, 0, 1, 0)
2.5. DEPENDENCIA LINEAL 79

Supongamos que (S) es un sistema n×n indeterminado, cada una de sus
ecuaciones pueden pensarse en cierto sentido como “datos” o “informaci´on”
que permite resolver el problema. Si (S) es indeterminado ya hemos visto
que algunas ecuaciones (o filas de su matriz asociada) son combinaci´on de las
restantes, esto puede considerarse como “redundancia en la informaci´on” que
estas aportan. Nos interesa saber cuanta es la “informaci´on” no redundante
con que contamos y esto es cuantas ecuaciones independientes tienen el
sistema. De nuevo planteamos el problema en el contexto de n-uplas.
DEFINICI
´
ON 2.10. Sea A ⊂ R
n
un conjunto finito, llamaremos rango
del conjunto A a la mayor cantidad de elementos de A que forman un
conjunto L.I.
Naturalmente si A es L.I. entonces rango(A) = card(A). El siguiente
resultado indica un camino para calcular el rango de un conjunto.
PROPOSICI
´
ON 2.15. Sea A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
un conjunto cual-
quiera y sea B = {X
h
1
, X
h
2
, . . . , X
hr
} ⊂ A un subconjunto de A que cumple
las siguiente dos condiciones:
1. B es L.I.
2. X
s
es combinaci´ on lineal de B ∀ s = h
1
, h
2
, . . . , h
r
entonces rango(A) = r
Demostraci´ on. Como B es L.I. y card(B) = r entonces rango(A) ≥ r. El
resultado estar´a probado si verificamos que cualquier subconjunto de A con
m´as de r elementos es L.D.
Sea C = {X
k
1
, X
k
2
, . . . , X
kq
} ⊂ A un subconjunto cualquiera de A con q
elementos, q > r.
Observemos primeramente que la segunda condici´on de la hip´otesis implica
que todos los elementos de A son combinaci´on lineal de B pues cualquier
n-upla es combinaci´on de si misma. Por lo tanto existen n´ umeros a
ij
, con
i = 1, . . . , r, j = 1, . . . , q tales que
(2.13) X
k
j
= a
1j
X
h
1
+a
2j
X
h
2
+. . . +a
rj
X
hr
, ∀ j = 1, 2, . . . , q
80 2.
´
ALGEBRA DE MATRICES
Analicemos la dependencia lineal del conjunto C. Sean λ
1
, λ
2
, . . . , λ
q
n´ ume-
ros tales que
(2.14) λ
1
X
k
1

2
X
k
2
+. . . +λ
q
X
kq
= O
Sustituyendo (2.13) en (2.14) se tiene que λ
1
, λ
2
, . . . , λ
q
verifica (2.14) si y
solo si
λ
1

a
11
X
h
1
+a
21
X
h
2
+. . . +a
r1
X
hr


2

a
12
X
h
1
+a
22
X
h
2
+. . . +a
r2
X
hr

+
+· · · +λ
q

a
1q
X
h
1
+a
2q
X
h
2
+. . . +a
rq
X
hr

= O
Reordenando y sacando X
h
i
de factor com´ un se tiene que λ
1
, λ
2
, . . . , λ
q
verifican (2.14) si y solo si
=0
. .. .

a
11
λ
1
+a
12
λ
2
+· · · +a
1q
λ
q

X
h
1
+
=0
. .. .

a
21
λ
1
+a
22
λ
2
+· · · +a
2q
λ
q

X
h
2
+
+· · · +

a
r1
λ
1
+a
r2
λ
2
+· · · +a
rq
λ
q

. .. .
=0
X
hr
= O
Los par´entesis en la ecuaci´on anterior resultan todos nulos pues, el conjun-
to B = {X
h
1
, X
h
2
, . . . , X
hr
} es L.I.. Tenemos entonces que λ
1
, λ
2
, . . . , λ
q
verifican (2.14) si y solo si verifican el sistema lineal
(S)

a
11
λ
1
+a
12
λ
2
+· · · +a
1q
λ
q
= 0
a
21
λ
1
+a
22
λ
2
+· · · +a
2q
λ
q
= 0
.
.
.
.
.
.
.
.
.
a
r1
λ
1
+a
r2
λ
2
+· · · +a
rq
λ
q
= 0
Pero (S) es un sistema homog´eneo y q > r (tienen m´as inc´ognitas que
ecuaciones) por lo cual es indeterminado y consecuentemente tiene soluciones
no triviales. De donde resulta que existen λ
1
, λ
2
, . . . , λ
q
no todos nulos que
verifican (2.14) y por lo tanto C es L.D. como se deseaba.
EJEMPLO 2.21. Analicemos el rango del conjunto
A = {(1, 1, 2, 0), (1, 0, 1, 1), (0, 1, 1, −1), (2, 1, 3, 1), (1, 0, 1, 0)}
2.5. DEPENDENCIA LINEAL 81
del ejemplo 2.20. Ya sabemos que es L.D. por lo cual rango(A) < 5. Nuestra
intenci´on es construir con los elementos de A un conjunto B en las condi-
ciones de la proposici´on anterior. Para construir un conjunto L.I. con los
elementos de A debemos quitar las n-uplas que sean combinaci´on lineal de
las restantes.
Como ya vimos, en nuestro caso, (1, 1, 2, 0) es combinaci´on de las otras
as´ı que consideramos el conjunto
A

= {(1, 0, 1, 1), (0, 1, 1, −1), (2, 1, 3, 1), (1, 0, 1, 0)}
y estudiamos su dependencia lineal. Sean λ
1
, λ
2
, λ
3
, λ
4
n´ umeros tales que
λ
1
(1, 0, 1, 1) +λ
2
(0, 1, 1, −1) +λ
3
(2, 1, 3, 1) +λ
4
(1, 0, 1, 0) = (0, 0, 0, 0) ⇐⇒
(S)

λ
1
+ 2λ
3

4
= 0
λ
2

3
= 0
λ
1

2
+ 3λ
3

4
= 0
λ
1
−λ
2

3
= 0
La matriz ampliada de este sistema es

¸
¸
¸
¸
1 0 2 1 0
0 1 1 0 0
1 1 3 1 0
1 −1 1 0 0
¸

Escaleriz´andola se obtiene

¸
¸
¸
¸
1 0 2 1 0
0 1 1 0 0
0 0 0 1 0
0 0 0 0
¸

Por lo tanto (S) tiene soluci´on λ
1
= −2λ
3
, λ
2
= −λ
3
, λ
4
= 0 y λ
3
∈ R. A

es L.D. y adem´as ∀ λ
3
∈ R se tiene que
−2λ
3
(1, 0, 1, 1) −λ
3
(0, 1, 1, −1) +λ
3
(2, 1, 3, 1) + 0(1, 0, 1, 0) = (0, 0, 0, 0)
82 2.
´
ALGEBRA DE MATRICES
En particular si λ
3
= 0, despejando resulta
(2, 1, 3, 1) = −

3
λ
3
(1, 0, 1, 1) −
λ
3
λ
3
(0, 1, 1, −1) +
0
λ
3
(1, 0, 1, 0) =⇒
(2, 1, 3, 1) = −2(1, 0, 1, 1) −(0, 1, 1, −1) + 0(1, 0, 1, 0)
Con lo cual tenemos que en A

(2, 1, 3, 1) es combinaci´on lineal de los res-
tantes elementos. Consideramos ahora el conjunto
A
′′
= {(1, 0, 1, 1), (0, 1, 1, −1), (1, 0, 1, 0)} ⊂ A

⊂ A
el cual es L.I. (verificarlo). Entonces B = A
′′
cumple las dos condiciones de
la proposici´on anterior, esto es:
1. B es L.I.
2. (2, 1, 2, 1) y (1, 1, 2, 0) son combinaci´on lineal de B
Por lo tanto rango(A) = card(B) = 3.
Obs´ervese que hab´ıamos probado, en el ejemplo 2.20, que (1, 1, 2, 0) es com-
binaci´on de A

pero como los elementos de A

son a su vez combinaci´on de los
de A
′′
se deduce aplicando la proposici´on 2.13 que (1, 1, 2, 0) es combinaci´on
de A
′′
.
2.6. El rango de una matriz
Si A = ((a
ij
)) es una matriz m×n notaremos por A
i
= (a
i1
, . . . , a
in
) ∈
R
n
a la fila i-esima de A y con A
j
= (a
1j
, . . . , a
mj
) ∈ R
m
la columna j-esima
de A.
DEFINICI
´
ON 2.11. Sea A una matriz m×n
1. Definimos el rango por filas de A (rango
f
(A)) como el rango del
conjunto {(A
1
, . . . , A
n
} de filas de A.
2. Definimos el rango por columnas de A (rango
c
(A)) como el rango
del conjunto {A
1
, . . . , A
m
} ⊂ R
m
de columnas de A.
LEMA 2.16. Sea E ∈ M
m×n
una matriz escalerizada reducida con p es-
calones ubicados en las columnas j
1
, j
2
, . . . , j
p
entonces los conjuntos B =
{E
j
1
, E
j
2
, . . . , E
jp
} de columnas y B

= {E
1
, E
2
, . . . , E
p
} de filas cumplen
2.6. EL RANGO DE UNA MATRIZ 83
ambos con las hip´ otesis del lema 2.15.
En particular, entonces rango
c
(E) = rango
f
(E) = p
Demostraci´ on. La prueba es sencilla y queda a cargo del lector.
LEMA 2.17. Sea A una matriz m × n y p el n´ umero de escalones de la
forma escalerizada reducida de A entonces rango
c
(A) = p
Demostraci´ on. Sea A una matriz y E la forma escalerizada reducida de
A con p escalones (esto es con p filas no nulas). Como siempre indicaremos
por A
j
y E
j
las j-esimas columnas de A y E respectivamente.
Supongamos que los escalones de E est´an ubicados en las columnas j
1
, j
2
, . . . , j
p
entonces para probar que rango
c
(A) = p alcanza con demostrar que el con-
junto B = {A
j
1
, A
j
2
, . . . , A
jp
} cumple las condiciones de la proposici´on 2.15
esto es B es L.I y A
j
es combinaci´on lineal de B ∀ j = j
1
, j
2
, . . . , j
p
.
Veamos primero que B es L.I. Sean λ
j
1
, λ
j
2
, . . . , λ
jp
n´ umeros tales que
λ
j
1
A
j
1

j
2
A
j
2
+· · · +λ
jp
A
jp
= O
entonces la n-upla (α
1
, α
2
, . . . , α
n
) tal que
α
h
=

λ
j
i
, si h = j
i
para alg´ un i.
0 si h = j
i
para todo i.
es una soluci´on del sistema homog´eneo con matriz A|O y por lo tanto es
soluci´on del sistema homog´eneo equivalente con matriz E|O. Esto ´ ultimo
implica que
O = α
1
E
1

2
E
2
+· · · +α
n
E
n
= λ
j
1
E
j
1

j
2
E
j
2
+· · · +λ
jp
E
jp
,
pero el conjunto {E
j
1
, E
j
2
, . . . , E
jp
} es L.I. en virtud de lo visto en el lema
2.16, entonces λ
j
1
= λ
j
2
= · · · = λ
jp
= 0 probando que B es L.I.
Veamos ahora que si j = j
1
, . . . , j
p
entonces A
j
es combinaci´on lineal de B.
Sea entonces j = j
1
, . . . , j
p
, del lema 2.16 se sabe que E
j
es combinaci´on
lineal del conjunto {E
j
1
, E
j
2
, . . . , E
jp
} por lo tanto existen β
j
1
, β
j
2
, . . . , β
jp
n´ umeros tales que
E
j
= β
j
1
E
j
1

j
2
E
j
2
+· · · +β
jp
E
jp
84 2.
´
ALGEBRA DE MATRICES
entonces
(−1)E
j

1
E
j
1

2
E
j
2
+· · · +β
p
E
jp
= O.
Por lo tanto la n-upla (α
1
, α
2
, . . . , α
n
) con
α
h
=

−1, si h = j.
β
j
i
, si h = j
i
para alg´ un i.
0 si h = j
i
para todo i.
es soluci´on del sistema homog´enea con matriz E|O y consecuentemente tam-
bi´en del sistema equivalente A|O por lo tanto
O = α
1
A
1

2
A
2
+· · · +α
n
A
n
= (−1)A
j

j
1
A
j
1

j
2
A
j
2
+· · · +β
jp
A
jp
de donde se deduce que
A
j
= β
j
1
A
j
1

j
2
A
j
2
+· · · +β
jp
A
jp
culminando la prueba del lema.
TEOREMA 2.18. Sea A una matriz m×n entonces rango
f
(A) = rango
c
(A)
Demostraci´ on. La prueba se reduce a mostrar que rango
f
(A) = p donde
p es el n´ umero de escalones de E,la forma reducida de A.
Es claro que en el proceso de escalerizaci´on una fila se anula si y solo si es
combinaci´on lineal de las restantes en consecuencia si la forma escalerizada
tiene p filas no nulas la matriz A tiene p filas que forman un conjunto L.I. (
ninguna de ellas puede ser combinaci´on de las restantes) y adem´as las otras
m− p son combinaci´on de ellas (por eso al escalerizar A se anularon). En
consecuencia el lema 2.15 asegura que rango
f
(A) = p.
El resultado anterior nos habilita entonces a definir el rango de una
matriz como el rango por filas o el rango por columnas.
OBSERVACI
´
ON 2.19. El rango de una matriz es igual al rango de su
transpuesta, pues las filas de una son las columnas de la otra.
TEOREMA 2.20 (Rouche-Frobenius (2
da
versi´on)). Sea (S) un sistema
lineal de m ecuaciones con n inc´ ognitas con matriz ampliada A|b. entonces
2.7. MATRICES INVERTIBLES Y RANGO 85
1. (S) es compatible si y solo si rango(A) = rango(A|b)
2. Si (S) es compatible entonces
a) (S) es determinado si y solo si rango(A) = n.
b) (S) es indeterminado si y solo si rango(A) < n.
Demostraci´ on. La prueba es consecuencia inmediata del Teorema de Rouche-
Frobenius (1era. versi´on) y del lema 2.17
2.7. Matrices invertibles y rango
Todo n´ umero real no nulo es invertible, sin embargo tal como se vio en el
ejemplo 2.10 existen matrices no nulas que no poseen inversa, se impone por
lo tanto obtener alg´ un resultado que caracterice a las matrices invertibles,
observemos que de (2.7) se deduce que si A ∈ M
n×n
es una matriz invertible
el sistema AX = b es compatible determinado por lo tanto el teorema de
Rouche-Frobenius asegura que rango(A) = n, probaremos en esta secci´on
como principal resultado que el rec´ıproco es tambi´en cierto.
Comencemos mostrando que las matrices de rango n son exactamente
aquellas que admiten una “inversa a derecha”.
LEMA 2.21. Sea A ∈ M
n×n
entonces rango(A) = n si y solo si existe
B ∈ M
n×n
tal que A·B = I
n
.
Demostraci´ on. (⇒) Recordemos en primer lugar que de acuerdo a la ob-
servaci´on 2.1 si A y B son dos matrices n × n cualquiera y B
j
indica la
columna j-esima de B entonces
A·B =

¸
¸
¸
¸
A·B
1
A·B
2
. . . A·B
n
. . .
¸

Por lo tanto
A·B = I
n
⇐⇒A·B
j
= e
j
, ∀j = 1, 2, . . . , n
86 2.
´
ALGEBRA DE MATRICES
Donde
e
j
=

¸
¸
¸
¸
¸
¸
¸
¸
0
.
.
.
1
.
.
.
0
¸

←− fila j-esima
Ahora bien, como rango(A) = n el teorema de Rouch´e-Frobenius asegura
que n sistemas de ecuaciones AX = e
j
con j = 1, 2, . . . , n son compatibles y
consecuentemente se tiene que ∀ j = 1, 2, . . . , n existe B
j
tal que A·B
j
= e
j
.
Por lo tanto eligiendo B como la matriz cuya columna j-esima es B
j
se tiene
probado el directo.
(⇐) Veamos ahora el rec´ıproco. Supongamos que existe B tal que A·B = I
n
.
Entonces, llamando B
j
a la columna j-esima de la matriz B se tiene

¸
¸
¸
¸
A·B
1
A·B
2
. . . A·B
n
. . .
¸

= A·B = I
n
=

¸
¸
¸
¸
e
1
e
2
. . . e
n
. . .
¸

Mirado los extremos de la igualdad anterior se deduce que los sistemas
AX = e
j
∀j = 1, 2, . . . , n
son todos compatibles.
El rango(A) ≤ n pues A es n×n, supongamos por absurdo que rango(A) =
r < n. Entonces, en virtud del lema 2.17, una forma escalerizada de la ma-
triz A debe tener r < n escalones (filas no nulas). Por lo tanto, al aplicar
el algoritmo de Gauss a la matriz A alguna fila, supongamos que la h, de-
bi´o anularse. Pero entonces el sistema AX = e
h
resulta incompatible pues
al escalerizarlo, la h- esima ecuaci´on se transforma en 0 = 1 y esto na-
turalmente es absurdo pues todos los sistemas AX = e
j
eran compatibles
∀ j = 1, 2, . . . , n, as´ı que debe ser rango(A) = n como quer´ıamos.
Estamos ahora en condiciones de probar que que para que una matriz sea
invertible es suficiente que tenga un “inverso a derecha”
2.8. MATRICES ELEMENTALES 87
Demostraci´ on del lema 2.9. El directo es consecuencia inmediata de la
definici´on de matriz invertible por lo cual s´olo probaremos el rec´ıproco.
(⇐) Supongamos que existe X ∈ M
n×n
tal que A·X = I
n
entonces por el
lema 2.21 rango(A) = n. De la observaci´on 2.19 se deduce que
rango(A
t
) = rango(A) = n,
por lo que, utilizando nuevamente el lema 2.21, existe C ∈ M
n×n
tal que
A
t
·C = I
n
. Transponiendo se tiene que
C
t
·A =

A
t
·C

t
= (I
n
)
t
= I
n
.
Por lo tanto D = C
t
es una “inversa a izquierda” de A.
Veamos que D = X, en efecto
D = D·I
n
= D

A·X

=

D·A

X = I
n
·X = X
entonces
A·X = X·A = I
n
y consecuentemente A es invertible.
TEOREMA 2.22. Sea A ∈ M
n×n
, A es invertible si y solo si rango(A) =
n.
Demostraci´ on. (⇒) Si A es invertible en particular existe B tal que
A·B = I
n
entonces lema 2.9 rango(A) = n.
(⇐) Si rango(A) = n el lema 2.21 asegura que existe B ∈ M
n×n
tal que
A·B = I
n
pero entonces por el lema 2.9 A es invertible.
2.8. Matrices elementales
Culminemos el cap´ıtulo mostrando que el proceso de escalerizaci´on puede
representarse mediante el producto por ciertas matrices especiales llamadas
matrices elementales.
Sea e una de las transformaciones elemental de la definici´on 1.1, esto es
1- multiplicar una fila por una constante no nula
88 2.
´
ALGEBRA DE MATRICES
2- intercambio de filas
3- sumarle a una fila un m´ ultiplo de otra fila
DEFINICI
´
ON 2.12. La matriz elemental E asociada con la trans-
formaci´on e es la que se obtiene al aplicar la transformaci´on e a la matriz
identidad n ×n
EJEMPLO 2.22. La matriz
(2.15) E
1
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 0 · · · 0 0 0 · · · 0
0 1 · · · 0 0 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. · · · 1 0 0 · · · 0
.
.
.
.
.
. · · · 0 α 0 · · · 0
.
.
.
.
.
. · · · 0 0 1 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · 0 0 0 · · · 1
¸

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
←− Fila i
.
.
.
.
.
.
.
.
.
.
.
.
est´a asociada a la transformaci´on elemental e
1
“multiplicar la fila i por
la constante α = 0”, pues E
1
se obtiene de la matriz identidad I aplicando
dicha transformaci´on
I
operaci´on e
1
−→ E
1
2.8. MATRICES ELEMENTALES 89
EJEMPLO 2.23. La matriz
(2.16)
E
2
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 · · · · · · · · · · · · · · · · · · · · · · · ·
.
.
.
.
.
.
.
.
. · · ·
.
.
.
.
.
.
.
.
. · · ·
.
.
.
· · · · · · 0 · · · · · · · · · 1 · · ·
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. · · ·
.
.
. · · · · · · · · ·
.
.
.
.
.
.
.
.
.
.
.
. · · · · · · 1 · · · · · ·
.
.
.
.
.
.
.
.
. 1 · · · · · · · · · 0 · · ·
.
.
.
.
.
.
.
.
.
.
.
. · · ·
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
· · · · · · · · · · · · · · · · · · · · · · · · 1
¸

.
.
.
.
.
.
←− Fila j
.
.
.
.
.
.
.
.
.
←− Fila i
.
.
.
.
.
.
est´a asociada a la transformaci´on elemental e
2
“intercambiar la fila i
por la fila j”, pues E
2
se obtiene de la matriz identidad I aplicando dicha
transformaci´on.
I
operaci´on e
2
−→ E
2
La matriz
(2.17)
E
3
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 · · · · · · · · · · · · · · · · · · · · · · · ·
.
.
.
.
.
.
.
.
. · · ·
.
.
.
.
.
.
.
.
. · · ·
.
.
.
· · · · · · 1 · · · · · · · · · · · · · · ·
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. · · ·
.
.
. · · · · · · · · ·
.
.
.
.
.
.
.
.
.
.
.
. · · · · · · 1 · · · · · ·
.
.
.
.
.
.
.
.
. α · · · · · · · · · 1 · · ·
.
.
.
.
.
.
.
.
.
.
.
. · · ·
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
· · · · · · · · · · · · · · · · · · · · · · · · 1
¸

.
.
.
.
.
.
←− Fila j
.
.
.
.
.
.
.
.
.
←− Fila i
.
.
.
.
.
.
90 2.
´
ALGEBRA DE MATRICES
est´a asociada a la transformaci´on elemental e
3
“sumarle a fila i un m´ ulti-
plo de la fila j”, pues E
3
se obtiene de la matriz identidad I aplicando
dicha transformaci´on
I
operaci´on e
3
−→ E
3
PROPOSICI
´
ON 2.23. Sean: B la matriz (de tama˜ no n×m) que se obtie-
ne a partir de la matriz A (de tama˜ no n ×m) realizando la transformaci´ on
elemental e con las filas de A
A
operaci´on e
−→ B;
E la matriz elemental (de tama˜ no n ×n ) asociada con la transformaci´ on e
I
operaci´on e
−→ E
Se cumple que B = EA.
Demostraci´ on. Sea B la matriz que se obtiene de A multiplicando por α
la fila i de A
B =

¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

2.8. MATRICES ELEMENTALES 91
Si E
1
es la matriz (2.15) asociada a la transformaci´on elemental “multiplicar
la fila i por la constante α = 0”, es inmediato verificar que
E
1
A =

¸
¸
¸
¸
¸
¸
¸
¸
1 · · · 0 · · · 0
.
.
. · · ·
.
.
. · · ·
.
.
.
0 · · · α · · · 0
.
.
. · · ·
.
.
.
.
.
.
.
.
.
0 · · · 0 · · · 1
¸

¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

=
=

¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

= B
An´alogamente se prueba la propiedad para las dos restantes operaciones
elementales.
EJEMPLO 2.24. Consideremos la matriz
A =

¸
¸
1 0 2 1
2 −1 3 6
1 4 4 0
¸

, y la matriz elemental E =

¸
¸
1 0 0
0 1 0
3 0 1
¸

asociada a la transformaci´on elemental e de sumarle a la tercera fila 3 ve-
ces la primer fila. Sea B la matriz que se obtiene de A si se le aplica la
transformaci´on elemental considerada
A =

¸
¸
1 0 2 1
2 −1 3 6
1 4 4 0
¸

operaci´on e
−→

¸
¸
1 0 2 1
2 −1 3 6
4 4 10 9
¸

= B
y operando se verifica que B = EA =

¸
¸
1 0 2 1
2 −1 3 6
4 4 10 9
¸

92 2.
´
ALGEBRA DE MATRICES

Sea A una matriz cualquiera, en virtud de la proposici´on 1.3 (M´etodo
de Gauss) puede escalerizarse mediante una cantidad finita, e
1
, e
2
. . . , e
k
de
transformaciones elementales. Sea B una forma escalerizada de A, esquema-
tizamos como sigue el proceso de escalerizaci´on:
A
operaci´on e
1
−→ · · · · · ·
operaci´on e
k
−→ B.
Si representamos estas operaciones elementales por sus respectivas matrices
elementales asociadas, se puede enunciar que
PROPOSICI
´
ON 2.24. Toda matriz A puede reducirse mediante una suce-
si´ on de matrices elementales E
1
, E
2
, . . . , E
k
a su forma escalerizada B, esto
es: E
k
. . . E
2
E
1
A = B.
PROPOSICI
´
ON 2.25. Sea A una matriz n×n. Si rango(A) = n ⇒existe
una sucesi´ on de matrices elementales E
1
, E
2
. . . , E
h
tales que
E
h
. . . E
2
E
1
A = I.
(es decir que al aplicarle el proceso de escalerizaci´ on se obtiene la matriz
identidad)
Demostraci´ on. Recordemos primeramente que el rango de una matriz es
el n´ umero de escalones de su forma escalerizada (filas no nulas). Sea A

la
forma reducida de A. Como rango(A) = n y A (y por lo tanto A

) es una
matriz n ×n se tiene que
A

=

¸
¸
¸
¸
¸
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
¸

.
.
.
.
.
.
.
.
.
←n escalones no nulos y n filas
2.8. MATRICES ELEMENTALES 93
As´ı por la proposici´on 2.24 existen matrices elementales E
1
, E
2
. . . , E
h
tales
que E
1
E
2
. . . E
h
A = I.
Cada transformaci´on elemental puede ser deshecha por su transformaci´on
elemental inversa, esto es
1- multiplicar una fila por una constante α = 0 se deshace multiplicando
dicha fila por
1
α
2- intercambio de filas se deshace intercanbi´andolas nuevamente
3- sumarle a una fila un m´ ultiplo de otra fila se deshace rest´andole a la
fila el m´ ultiplo de la otra
PROPOSICI
´
ON 2.26. Toda matriz elemental es invertible y su inversa es
una matriz elemental
Demostraci´ on. Sea E la matriz elemental asociada a la transformaci´on
elemental e
I
operaci´on e
−→ E
Indiquemos por e
−1
a la transformaci´on elemental inversa de e, es decir que
I
operaci´on e
−→ E
operaci´on e
−1
−→ I
Si E

es la matriz elemental asociada a la transformaci´on elemental e
−1
, esto
es
I
operaci´on e
−1
−→ E

aplicando la proposici´on 2.23 a la matriz E con la transformaci´on e
−1
se
tiene que E

E = I An´alogamente se prueba que EE

= I. Esto es E es
invertible y su inversa es E
−1
= E

(es una matriz elemental correspondiente
a la transformaci´on inversa).
Obtengamos una nueva caracterizaci´on de las matrices invertibles
94 2.
´
ALGEBRA DE MATRICES
COROLARIO 2.27. Sea A una matriz n ×n entonces A es invertible si y
solo si existen E
1
, E
2
, . . . , E
k
matrices elementales tales que A = E
1
·E
2
· . . . ·E
k
Demostraci´ on. (⇒) Si A es invertible entonces en virtud de la proposici´on
anterior existen E

1
, E

2
, . . . , E

k
una sucesi´on de matrices elementales tales
que
E

1
·E

2
· . . . ·E

k
·A = I
n
pero como las matrices elementales son invertibles y sus inversas son tambi´en
matrices elementales se tiene

E

k
−1
· . . . ·E

2
−1
·E

1
−1

E

1
·E

2
· . . . ·E

k
·A =

E

k
−1
· . . . ·E

2
−1
·E

1
−1

I
n
de donde se tiene que
A = E

k
−1
· . . . ·E

2
−1
·E

1
−1
Por lo tanto poniendo E
1
= E

k
−1
, E
2
= E

k−1
−1
, . . . , E
k
= E

1
−1
se tiene
probado el directo.
(⇐) El rec´ıproco es consecuencia de que el producto de matrices invertibles
es invertible.
CAP´ıTULO 3
DETERMINANTES
El determinante de una matriz cuadrada es un ´ unico n´ umero que se
asocia a dicha matriz; es por tanto una funci´on del conjunto de las matrices
cuadradas en el conjunto num´erico al que pertenecen los elementos de las
matrices. En nuestro caso estos n´ umeros ser´an los reales o los complejos,
pero se puede dar sobre conjuntos “num´ericos” m´as generales.
El uso del determinante surgi´o de las f´ormulas que dan las soluciones de
sistemas de n ecuaciones con n inc´ognitas, luego fue identificado (en el caso
3 por 3) como ´area de paralelogramo o volumen de un paralelep´ıpedo, hasta
extenderse a definiciones m´ as generales que la que nosotros daremos en este
curso (funci´on multilineal alternada).
M´as adelante se ver´a que podemos hablar del determinante de una trans-
formaci´on lineal entre espacios vectoriales, a la que se puede asociar matrices
de una manera sencilla. En particular las matrices invertibles son las ´ unicas
que tienen determinantes distinto de cero. As´ı, una propiedad tan definitoria
de una matriz (su invertibilidad) estar´a caracterizada por la no nulidad de
su determinante (o sea por el valor de un ´ unico n´ umero).
3.1. Definici´on
La definici´on de determinante de una matriz cuadrada ser´a dada de
manera inductiva en el n´ umero de filas (o de columnas). O sea, daremos la
definici´on de determinante de una matriz n × n a partir del conocimiento
de los determinantes de matrices (n −1) ×(n −1). El determinante de una
matriz A se representa con el s´ımbolo |A|; trat´andose de una matriz dada
95
96 3. DETERMINANTES
por sus coeficientes, en general no escribiremos los par´entesis con los que en
general encerramos el ¸ cuadrado” de los n´ umeros.
DEFINICI
´
ON 3.1. Sea A = ((a
ij
)) una matriz n ×n, se define la matriz
adjunta del elemento a
ij
como la submatriz A
ij
de la matriz A que se
obtiene eliminado la fila i y la columna j de A
EJEMPLO 3.1. Si A =

¸
¸
3 −4 −3
−1 2 7
−2 4 0
¸

, la matriz adjunta del elemen-
to a
21
= −1, se obtiene eliminando la fila 2 y la columna 1 de A:

¸
¸
× −4 −3
× × ×
× 4 0
¸

, obteni´endose la matriz adjunta A
21
=

−4 −3
4 0

OBSERVACI
´
ON 3.1. Si la matriz cuadrada A es de tama˜ no n, las matri-
ces adjuntas A
ij
son de tama˜ no (n −1) ×(n −1) .
DEFINICI
´
ON 3.2. (Inductiva en el tama˜ no de la matriz) El de-
terminante de una matriz 1 ×1 es el propio n´ umero. El determinante de la
matriz 2 ×2, A =

a b
c d

es el n´ umero |A|
def
= ad −bc
El determinante de una matriz A n ×n se define como el n´ umero
|A|
def
= (−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
|A
n1
|
EJEMPLO 3.2. (a) Calculemos el determinante de la matriz A =

3 1
7 2

|A| = (3) (2) −(7) (2) = −8
3.2. PROPIEDADES DE LOS DETERMINANTES 97
(b) Calculemos el determinante de la matriz A =

¸
¸
3 −4 −3
−1 2 7
−2 4 0
¸

|A| = (−1)
1+1
a
11
|A
11
| + (−1)
2+1
a
21
|A
21
| + (−1)
3+1
a
31
|A
31
| =
= 3

2 7
4 0

−(−1)

−4 −3
4 0

+ (−2)

−4 −3
2 7

=
= 3 (−28) + (−12) + (−2) (−22) = −52
(c) Calculemos el determinante de la matriz A =

¸
¸
¸
¸
2 0 1 1
2 2 −4 −1
−3 1 1 1
2 −2 0 0
¸

|A| = (−1)
1+1
a
11
|A
11
| + (−1)
2+1
a
21
|A
21
| +
+ (−1)
3+1
a
31
|A
31
| + (−1)
4+1
a
41
|A
41
| =
2

2 −4 −1
1 1 1
−2 0 0

−2

0 1 1
1 1 1
−2 0 0

+
+ (−3)

0 1 1
2 −4 −1
−2 0 0

−2

0 1 1
2 −4 −1
1 1 1

Ahora bien, los determinantes de tama˜ no 3 ×3 se calculan del mismo modo
que en (b). Verificar que respectivamente, los determinantes tres por tres
valen 6, 0, −6, 3 por lo cual
|A| = 2 (6) −3 (−6) −2 (3) = 24

3.2. Propiedades de los determinantes
1. Linealidad (respecto a una fila)
98 3. DETERMINANTES
a) Aditividad (respecto a una fila)
|C| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
+b
i1
a
i2
+b
i2
· · · a
in
+b
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

+

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
b
i1
b
i2
· · · b
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= |A| +|B|
Demostraci´ on. Por inducci´on completa
Para n = 2. Por un lado
|C| =

a
11
a
12
a
21
+b
21
a
22
+b
22

= a
11
a
22
+a
11
b
22
−a
12
a
21
−a
12
b
21
y por otro
|A|+|B| =

a
11
a
12
a
21
a
22

+

a
11
a
12
b
21
b
22

= (a
11
a
22
−a
12
a
21
)+(a
11
b
22
−a
12
b
21
)
Con lo cual |C| = |A| +|B| .
Hip´otesis inductiva: La propiedad es v´alida para matrices de
orden menor que n
Tesis inductiva: La propiedad es v´alida para matrices de orden
n. En efecto
|C|
def
= (−1)
1+1
a
11
|C
11
| +. . . +
+(−1)
i+1
(a
i1
+b
i1
) |C
i1
| +. . . + (−1)
n+1
a
n1
|C
n1
|
(3.18)
3.2. PROPIEDADES DE LOS DETERMINANTES 99
Observemos que si k = i, como la matriz C
k1
es de orden n−1,
por la hip´otesis inductiva se tiene que
|C
k1
| =

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
a
i2
+b
i2
· · · a
in
+b
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

=
=

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

+

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
b
i2
· · · b
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= |A
k1
| +|B
k1
| ;
luego si sustituimos en (3.18) se tiene que
|C| = (−1)
1+1
a
11
[|A
11
| +|B
11
|] +. . . + (−1)
i+1
(a
i1
+b
i1
) |C
i1
| +. . .
. . . + (−1)
n+1
a
n1
[|A
n1
| +|B
n1
|]
= (−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|C
i1
| +. . . + (−1)
n+1
a
n1
|A
n1
| +
+(−1)
1+1
a
11
|B
11
| +. . . + (−1)
i+1
b
i1
|C
i1
| +. . . + (−1)
n+1
a
n1
|B
n1
|
100 3. DETERMINANTES
Pero como |C
i1
| =

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
i−12
· · · a
i−1n
a
i+12
· · · a
i+1n
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= |A
i1
| = |B
i1
| resulta que
|C| = (−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
|A
n1
| +
+(−1)
1+1
a
11
|B
11
| +. . . + (−1)
i+1
b
i1
|B
i1
| +. . . + (−1)
n+1
a
n1
|B
n1
|
= |A| +|B|
OBSERVACI
´
ON 3.2. No es cierto que |A+B| = |A| +|B|
|A| =

1 3
4 2

= −10, |B| =

1 0
0 2

= 2 pero
|A+B| =

3 3
4 4

= 0 = −7 = |A| +|B| .
b) Homogeneidad (respecto a una fila)
Si B es una matriz que se obtiene de A multiplicando una de
sus filas por un n´ umero α entonces
|B| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= α

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= α|A|
3.2. PROPIEDADES DE LOS DETERMINANTES 101
Demostraci´ on. Por inducci´on completa
Para n = 2. Por un lado
|B| =

a
11
a
12
αa
21
αa
22

= a
11
αa
22
−a
12
αa
21
=
= α(a
11
a
22
−a
12
a
21
) = α

a
11
a
12
a
21
a
22

= α|A|
Hip´otesis inductiva: La propiedad es v´alida para matrices de
orden menor que n
Tesis inductiva: La propiedad es v´alida para matrices de orden
n. En efecto
(3.19) |B|
def
= (−1)
1+1
a
11
|B
11
| +. . . +
+ (−1)
i+1
αa
i1
|B
i1
| +. . . + (−1)
n+1
a
n1
|B
n1
|
Observemos que si k = i, como la matriz C
k1
es de orden n−1,
por la hip´otesis inductiva se tiene que
|B
k1
| =

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= α

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= α|A
k1
|
102 3. DETERMINANTES
y que |B
i1
| =

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
i−12
· · · a
i−1n
a
i+12
· · · a
i+1n
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= |A
i1
|
luego si sustituimos en (3.19) se tiene que
|B| = (−1)
1+1
a
11
α|A
11
| +. . . +
+ (−1)
i+1
αa
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
α|A
n1
|
= α

(−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|A
i1
| +. . . +
+(−1)
n+1
a
n1
|A
n1
|

= α|A|
COROLARIO 3.3. Se deduce de la propiedad anterior que
|αA| = α
n
|A| .
Demostraci´ on. En efecto
|αA| =

αa
11
αa
12
· · · αa
1n
αa
21
αa
22
· · · αa
2n
.
.
.
.
.
.
.
.
.
.
.
.
αa
n1
αa
n2
· · · αa
nn

= α

a
11
a
12
· · · a
1n
αa
21
αa
22
· · · αa
2n
.
.
.
.
.
.
.
.
.
.
.
.
αa
n1
αa
n2
· · · αa
nn

=
= αα

a
11
a
12
· · · a
1n
a
21
a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
αa
n1
αa
n2
· · · αa
nn

= αα. . . α

a
11
a
12
· · · a
1n
a
21
a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
= α
n
|A|
3.2. PROPIEDADES DE LOS DETERMINANTES 103
2. Intercambio de filas
Si B es la matriz que se obtiene de A intercambiando dos de sus filas
entonces
|B| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= −

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= −|A|
Demostraci´ on. Por inducci´on completa
Para n = 2. Por un lado |B| =

a
21
a
22
a
11
a
12

= a
12
a
21
−a
11
a
22
,
y por otro |A| =

a
11
a
12
a
21
a
22

= (a
11
a
22
−a
12
a
21
) .
As´ı |B| = −|A| .
Hip´otesis inductiva: La propiedad es v´alida para matrices de orden
menor que n
Tesis inductiva: La propiedad es v´alida para matrices de orden n
Primer caso: La matriz B se ha obtenido de A intercambiando las
filas consecutivas i e i + 1
A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
a
i+11
a
i+12
· · · a
i+1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

y B =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

104 3. DETERMINANTES
Por la definici´on, se tiene que
(3.20) |B| = (−1)
1+1
a
11
|B
11
| +. . . + (−1)
i+1
a
i+11
|B
i1
|
+ (−1)
i+2
a
i1
|B
i+11
| . . . + (−1)
n+1
a
n1
|B
n1
|
Pero siendo B =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− Fila i
←− Fila i + 1
.
.
.
.
.
.
se tiene que B
i1
= A
i+11
y B
i+11
= A
i1
, por lo cual
|B
i1
| = |A
i+11
| , |B
i+11
| = |A
i1
|
y si k = i y k = i+1, se tiene que B
k1
es una matriz de orden n−1 con
dos filas intercambiadas respecto de A, por lo cual, por la hip´otesis
inductiva |B
k1
| = −|A
k1
| . Sustituimos en (3.20)
|B| = (−1)
1+1
a
11
[−|A
11
|] +. . . + (−1)
i+1
a
i+11
|A
i+11
|
+ (−1)
i+2
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
[−|A
n1
|]
Pero
(−1)
i+1
a
i+11
|A
i+11
| = (−1)
i+1
(−1)
2
a
i+11
|A
i+11
| =
= (−1)
i+1
(−1) a
i+11
(−1) |A
i+11
| = (−1)
i+2
a
i+11
[−|A
i+11
|] =
= (−1)
i+1
(−1) a
i1
|A
i1
| = (−1)
i+1
a
i1
[−|A
i1
|]
3.2. PROPIEDADES DE LOS DETERMINANTES 105
con lo cual
|B| = (−1)
1+1
a
11
[−|A
11
|] +. . . + (−1)
i+2
a
i+11
[−|A
i+11
|] +
+ (−1)
i+1
a
i1
[−|A
i1
|] +. . . + (−1)
n+1
a
n1
[−|A
n1
|]
= −[(−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+2
a
i+11
|A
i+11
| +
+ (−1)
i+1
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
−|A
n1
|] = −|A|
Segundo caso La matriz B se ha obtenido de A intercambiando las
filas i y j = k+1. La matriz B se puede obtener de A realizando varios
cambios de filas consecutivas. En primer lugar realizamos k cambios
consecutivos de la fila i de A hasta colocarla en la fila j = i +k.
A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
a
i+11
a
i+12
· · · a
i+1n
a
i+21
a
i+22
a
i+2n
.
.
.
.
.
. · · ·
.
.
.
a
k+11
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
←− fila i + 1 de A
←− fila i + 2 de A
.
.
.
←− fila i + k de A
.
.
.
.
.
.
cambio de la fila i por la i + 1 de A
−→
106 3. DETERMINANTES
A
1
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i1
a
i2
· · · a
in
a
i+21
a
i+22
· · · a
i+2n
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
1
←− fila i + 1 de A
1
←− fila i + 2 de A
1
.
.
.
←− fila i + k de A
1
.
.
.
.
.
.
cambio de la fila i + 1 por la i + 2 de A
1
−→
A
2
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i+21
a
i+22
· · · a
i+2n
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
2
←− fila i + 1 de A
2
←− fila i + 2 de A
2
.
.
.
←− fila i + k de A
2
.
.
.
.
.
.
−→· · · −→· · · −→
3.2. PROPIEDADES DE LOS DETERMINANTES 107
A
k−1
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i+21
a
i+22
· · · a
i+2n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
a
i+k1
a
i+k2
· · · a
i+kn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
k−1
←− fila i + 1 de A
k−1
.
.
.
←− fila i + k −1 de A
k−1
←− fila i + k de A
k−1
.
.
.
.
.
.
cambio de la fila i + k −1 por la i + k de A
k−1
−→
A
k
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i+21
a
i+22
· · · a
i+2n
.
.
.
.
.
. · · ·
.
.
.
a
i+k1
a
i+k2
· · · a
i+kn
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
k
←− fila i + 1 de A
k
.
.
.
←− fila i + k −1 de A
k
←− fila i + k de A
k
.
.
.
.
.
.
Como los k cambios de filas son consecutivos, por la primer parte, se
tiene que
|A
1
| = −|A|
|A
2
| = −|A
1
|
.
.
.
|A
k
| = −|A
k−1
|
108 3. DETERMINANTES
Con lo cual |A
k
| = (−1)
k
|A| .
En segundo lugar, (repetimos el procedimiento ”hacia arriba”) reali-
zamos k − 1 cambios consecutivos de la fila i + k − 1 de A
K
hasta
colocarla en la fila i, obteni´endose la matriz B y se cumple, aplicando
la primer parte |B| = (−1)
k−1
|A
k
| De las dos ´ ultimas igualdades se
deduce |B| = (−1)
2k−1
|A| = −|A| .
3. Determinantes nulos
a) Si A tiene una fila de ceros entonces |A| = 0
Demostraci´ on. En efecto
|A| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
0 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
1 −1 1 −1 · · · 1 −1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
1 1 · · · 1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

+

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
−1 −1 · · · −1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
1 1 · · · 1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
1 1 · · · 1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= 0
b) Si A tiene dos filas iguales entonces |A| = 0
3.2. PROPIEDADES DE LOS DETERMINANTES 109
Demostraci´ on. En efecto, si se intercambian dos filas, sabe-
mos que el determinante cambia de signo, con lo cual
|A| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= −

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= −|A|
As´ı 2 |A| = 0 ⇒ |A| = 0
c) Si A tiene dos filas proporcionales entonces |A| = 0
Demostraci´ on. En efecto
|A| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= α

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= 0
d) Si A tiene una fila combinaci´ on lineal de las otras filas entonces
|A| = 0
Demostraci´ on. Sin p´erdida de generalidad, para simplificar
la notaci´on, supongamos que la ´ ultima fila es combinaci´on lineal
110 3. DETERMINANTES
de las anteriores. Aplicando la propiedad de linealidadad
|A| =

a
11
a
12
· · · a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n−11
a
n−12
· · · a
n−1n
.
.
.
.
.
.
.
.
.
.
.
.
i=n−1
¸
i=1
α
i
a
i1
i=n−1
¸
i=1
α
i
a
i2
· · ·
i=n−1
¸
i=1
α
i
a
in

=
=
i=n−1
¸
i=1

a
11
a
12
· · · a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n−11
a
n−12
· · · a
n−1n
.
.
.
.
.
.
.
.
.
.
.
.
α
i
a
i1
α
i
a
i2
· · · α
i
a
in

=
=
i=n−1
¸
i=1
α
i

a
11
a
12
· · · a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n−11
a
n−12
· · · a
n−1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
i2
· · · a
in

= 0
(pues los determinantes tienen dos filas iguales)
4. Combinaci´on lineal de filas
a) Si B es una matriz que se obtiene de A sumado a una fila de
A un m´ ultiplo de otra fila de A entonces |B| = |A|
3.2. PROPIEDADES DE LOS DETERMINANTES 111
Demostraci´ on. En efecto
|B| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
+αa
i1
a
j2
+αa
i2
· · · a
jn
+αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

+

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= |A|
b) Si B es una matriz que se obtiene de A cambiando la fila A
j
por la combinaci´ on lineal βA
j
+αA
i
con β = 0 (i = j).entonces
|B| = β |A|
112 3. DETERMINANTES
Demostraci´ on. En efecto

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
βa
j1
+αa
i1
βa
j2
+αa
i2
· · · βa
jn
+αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
βa
j1
βa
j2
· · · βa
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

+

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
= β

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= β |A|
3.2. PROPIEDADES DE LOS DETERMINANTES 113
Ejercicio Probar que si A =

¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
0 a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · a
nn
¸

(ceros por debajo
de la diagonal principal), entonces |A| = a
11
a
22
. . . a
nn
EJEMPLO 3.3.

0 1 5
3 −6 9
2 6 1

(A)
= −

3 −6 9
0 1 5
2 6 1

(B)
= −3

1 −2 3
0 1 5
2 6 1

(C)
=
−3

1 −2 3
0 1 5
0 10 −5

(D)
=
−(3) (5)

1 −2 3
0 1 5
0 2 −1

(E)
= −(3) (5)

1 −2 3
0 1 5
0 0 −11

= −(3) (5)

1 5
0 −11

=
−(3) (5) (−11) = 165
(A) Se intercambian las filas 1 y 2
(B) La fila 1 es m´ ultiplo de 3
(C) A la fila 3 se le rest´o 2 veces la fila 1
(D) La fila 3 es m´ ultiplo de 5
(E) A la fila 3 se le rest´o 2 veces la fila 2
NOTAS:
1) Desarrollo por cualquier fila o columna
El determinante se ha definido usando los elementos de la primer columna
de la matriz A con sus respectivas matrices adjuntas
|A|
def
= (−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
|A
n1
|
(desarrollo por la primera columna)
114 3. DETERMINANTES
Pero se puede probar
1
que dicha definici´on coincide con cualquier desarrollo
por cualquier columna o fila de A:
|A|
def
= (−1)
i+1
a
i1
|A
i1
| + (−1)
i+2
a
i2
|A
i2
| +. . . + (−1)
i+n
a
in
|A
in
|
(desarrollo por la i −´esima fila)
|A|
def
= (−1)
i+1
a
1i
|A
1i
| + (−1)
i+2
a
2i
|A
2i
| +. . . + (−1)
i+n
a
ni
|A
ni
|
(desarrollo por la i −´esima columna)
2) Propiedades ”por columnas”
Tambi´en se puede probar que
|A| =

A
t

con lo cual en todas las propiedades anteriores se puede cambiar la palabra
”fila” por ”columna”, es decir que las propiedades valen para las columnas
3.3. Matrices elementales y determinantes
PROPOSICI
´
ON 3.4. Toda matriz elemental tiene determinante no nulo
Demostraci´ on. 1- La matriz E
1
(ver 2.15) que est´a asociada a la operaci´on
elemental e
1
”multiplicar la fila i por la constante α = 0” tiene determiante
|E
1
| = α|I| = α = 0
pues E
1
se obtiene de la matriz identidad I aplicando dicha propiedad
2- La matriz E
2
(ver 2.16) que est´a asociada a la operaci´on elemental e
2
”intercambiar la fila i por la fila j” tiene determinante
|E
2
| = −|I| = −1
pues E
2
se obtiene de la matriz identidad I aplicando dicha propiedad
3- La matriz E
3
(ver 2.17) que est´a asociada a la operaci´on elemental e
3
“sumarle a fila i un m´ ultiplo de la fila j” tiene determinante
|E
3
| = |I| = 1
1
Es engorroso y no lo haremos aqu´ı pero el lector puede consultar por ejemplo (Teo-
rema 3 y 5 pag 87 del texto Algebra y geometr´ıa de E. Hernandez)
3.3. MATRICES ELEMENTALES Y DETERMINANTES 115
pues E
3
se obtiene de la matriz identidad I aplicando dicha propiedad.
PROPOSICI
´
ON 3.5. Si A es una matriz n×n y E una matriz elemental
n ×n se cumple que
|EA| = |E| |A|
Demostraci´ on. 1- Sea E
1
la matriz que est´a asociada a la operaci´on ele-
mental ”multiplicar la fila i por la constante α = 0” (ver 2.15)
Por la Proposici´on 3.4
(3.21) |E
1
| = α|I| = α
Si B es la matriz que se obtiene al aplicar la operaci´on e
1
, por las pro-
piedades de determinantes
(3.22) |B| = α|A|
y por la Proposici´on 2.23 se cumple que E
1
A = B, con lo cual
(3.23) |E
1
A| = |B|
al sustituir (3.21) y (3.22) en (3.23)
|E
1
A| = |E
1
| |A|
2- Sea E
2
la matriz que est´a asociada a la operaci´on elemental e
2
”in-
tercambiar la fila i por la fila j” (ver 2.16)
Por la Proposici´on 3.4
(3.24) |E
2
| = −|I| = −1
Si B es la matriz que se obtiene al aplicar la operaci´on e
2
, por las pro-
piedades de determinantes
(3.25) |B| = −|A|
y por la Proposici´on 2.23 se cumple que E
2
A = B, con lo cual
(3.26) |E
2
A| = |B|
al sustituir (3.24) y (3.25) en (3.26)
|E
1
A| = |E
1
| |A|
116 3. DETERMINANTES
3- Sea E
3
la matriz que est´a asociada a la operaci´on elemental e
3
”su-
marle a fila i un m´ ultiplo de la fila j” (ver 2.17)
Por la Proposici´on 3.4
(3.27) |E
3
| = |I| = 1
Si B es la matriz que se obtiene al aplicar la operaci´on e
3
, por las pro-
piedades de determinantes
(3.28) |B| = |A|
y por la Proposici´on 2.23 se cumple que E
3
A = B, con lo cual
(3.29) |E
3
A| = |B|
al sustituir (3.27) y (3.28) en (3.29)
|E
1
A| = |E
1
| |A|
pues E
3
se obtiene de la matriz identidad I aplicando dicha propiedad.
3.4. Matrices invertibles y determinantes
Ya vimos que una matriz A n×n es invertible si y solo si rango(A) = n
Veamos otra condici´on equivalente de invertibilidad
LEMA 3.6. Si A no es invertible la forma escalerizada de A tiene por lo
menos una fila de ceros
Demostraci´ on. Como A no es invertible, se tiene que rango(A) < n
Al aplicar el proceso de escalerizaci´on de Gauss, ( es decir que aplicamos
una sucesi´on de operaciones elementales) obtenemos la matriz B (forma
escalerizada de A)
A
operaci´on e
1
−→ · · · · · ·
operaci´on e
k
−→ B
Es decir que
E
k
, . . . E
2
E
1
A = B
3.5. DETERMINANTE DE UN PRODUCTO DE MATRICES 117
donde E
i
es la matriz asociada a la operaci´on elemental e
i
y por lo tanto
A = E
−1
1
E
−1
2
. . . E
−1
k
B
Como
rango(A) = “cantidad de escalones no nulos de B”
Concluimos que “cantidad de escalones no nulos de B”< n, es decir que B
tiene por lo menos una fila de ceros.
TEOREMA 3.7. Sea A una matriz cuadrada de orden n ×n.
A es invertible ⇔ |A| = 0
Demostraci´ on. (⇒) Si A es invertible, por el corolario 2.27, A puede puede
factorizarse como un producto de matrices elementales
A = E
1
E
2
. . . E
k
Luego, por la proposici´on 3.5
|A| = |E
1
E
2
. . . E
k
| = |E
1
| |E
2
| . . . |E
k
|
por la proposici´on 3.4 |E
i
| = 0, con lo cual |A| = 0
(⇐) Supongamos, por absurdo, que A no es invertible, Si B es la forma
escalerizada de A, existe una sucesi´on de matrices elementales tales que
E
k
, . . . E
2
E
1
A = B
Pero como |E
i
| = 0 y |B| = 0 (pues por el Lema 3.6 B tiene por lo menos una
fila de ceros), concluimos que |A| = 0, lo cual contradice nuestra hip´otesis
3.5. Determinante de un producto de matrices
TEOREMA 3.8 (Binet-Cauchy). Si A y B son matrices n ×n se cumple
que
|AB| = |A| |B|
118 3. DETERMINANTES
Demostraci´ on. Primer caso A no es invertible
Si A no es invertible ⇒|A| = 0 ⇒|A| |B| = 0
Por otro lado, si A

es la forma escalerizada de A, existe una sucesi´on de
matrices elementales tales
que
E
k
, . . . E
2
E
1
A = A

es decir que
A = E
−1
1
E
−1
2
. . . E
−1
k
A

Luego
|AB| =

E
−1
1
E
−1
2
. . . E
−1
k
A

B

y aplicando la proposici´on 3.5
|AB| =

E
−1
1

E
−1
2

. . .

E
−1
k

A

B

Pero por el Lema 3.6, A

tiene una fila de ceros, y por lo tanto A

B
tambi´en (por la definici´on del producto de matrices), con lo cual |A

B| =
0 ⇒|AB| = 0
Hemos probado que
|AB| = |A| |B| = 0
Segundo caso A es invertible
Si A es invertible, por el corolario 2.27
A = E
1
E
2
. . . E
k
con E
i
matriz elemental
|AB| = |(E
1
E
2
. . . E
k
) B|
y aplicando la proposici´on 3.5
|AB| = |E
1
| |E
2
| . . . |E
k
| |B| = |E
1
E
2
. . . E
k
| |B| = |A| |B| .
3.6. C
´
ALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 119
3.6. C´alculo de la matriz inversa por determinantes
El desarrollo del determinante de la matriz A = ((a
ij
)) por su i-esima
fila es
(3.30) |A| = (−1)
i+1
a
i1
|A
i1
| + (−1)
i+2
a
i2
|A
i2
| +. . . +
+ (−1)
i+j
a
ij
|A
ij
| +. . . + (−1)
i+n
a
in
|A
in
|
El n´ umero c
ij
= (−1)
i+j
|A
ij
| se denomina cofactor del elemento a
ij
de la matriz A. Por lo tanto podemos reescribir el desarrollo (3.30) de la
siguiente manera
(3.31) |A| = a
i1
c
i1
+a
i2
c
i2
+. . . +a
ij
c
ij
+. . . +a
in
c
in
A la matriz cof (A)
def
=

¸
¸
¸
¸
¸
c
11
c
12
. . . c
1n
c
21
c
22
. . . c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
. . . c
nn
¸

se le llama matriz de cofactores de A
LEMA 3.9. Si [cof (A)]
t
es la matriz transpuesta de la matriz de cofactores
de A, esto es
[cof (A)]
t
=

¸
¸
¸
¸
¸
c
11
c
21
. . . c
n1
c
12
c
22
. . . c
n2
.
.
.
.
.
.
.
.
.
.
.
.
c
1n
c
2n
. . . c
nn
¸

se cumple que A[cof (A)]
t
=

¸
¸
¸
¸
¸
|A| 0 . . . 0
0 |A| . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . |A|
¸

.
Demostraci´ on. Si A[cof (A)]
t
= ((d
ii
)) queremos probar que:
1. Los elementos de la diagonal de la matriz A[cof (A)]
t
son todos igua-
les a |A|, esto es d
ii
= |A| .
120 3. DETERMINANTES
2. Los elementos que no son de la diagonal de la matriz A[cof (A)]
t
son
todos nulos, esto es d
ij
= 0 (i = j)
Probemos 1. Para ello calculamos el elemento d
ii
de la matriz A[cof (A)]
t

¸
¸
¸
¸
¸
. . . . . . c
i1
. . . . . .
. . . . . . c
i2
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . c
in
. . . . . .
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
a
i1
a
i2
. . . a
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
.
.
.
¸

¸
¸
¸
¸
¸
¸
¸
. . . . . . ↓ . . . . . .
. . . . . . ↓ . . . . . .
→ → d
ii
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . . . . . . .
¸

Por lo tanto d
ii
= a
i1
c
i1
+a
i2
c
i2
+. . . +a
ij
c
ij
+. . . +a
in
c
in
, pero por (3.31)
|A| = a
i1
c
i1
+a
i2
c
i2
+. . . +a
ij
c
ij
+. . . +a
in
c
in
, con lo cual d
ii
= |A| .
Probemos 2. Calculamos el elemento d
ij
de la matriz A[cof (A)]
t

¸
¸
¸
¸
¸
. . . . . . . . . c
j1
. . .
. . . . . . . . . c
j2
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . c
jn
. . .
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
a
i1
a
i2
. . . a
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
.
.
.
¸

¸
¸
¸
¸
¸
¸
¸
. . . . . . . . . ↓ . . .
. . . . . . . . . ↓ . . .
→ → → d
ij
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . . . . . . .
¸

Por lo tanto d
ij
= a
i1
c
j1
+a
i2
c
j2
+. . . +a
ik
c
jk
+. . . +a
in
c
jn
.
Por otro lado consideremos la matriz B que se obtiene de A cambiando la
3.6. C
´
ALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 121
fila j por la fila i:
B =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

· · ·
· · ·
←− fila i
· · ·
←− fila j
.
.
.
· · ·
Si calculamos el determinante de B desarrollando por la j-esima fila se tiene
que
|B| = (−1)
j+1
b
j1
|B
j1
| + (−1)
j+2
b
j2
|B
j2
| +. . . +
+ (−1)
j+k
b
jk
|B
jk
| +. . . + (−1)
j+n
b
jn
|B
jn
|
pero como b
jk
= a
ik
y B
jk
= A
jk
, resulta que
|B| = (−1)
j+1
a
i1
|A
j1
| + (−1)
j+2
a
i2
|A
j2
| +. . . +
+ (−1)
j+k
a
ik
|A
jk
| +. . . + (−1)
j+n
a
in
|A
jn
|
pero c
jk
= (−1)
j+k
|A
jk
|, por lo cual
|B| = a
i1
c
j1
+a
i2
c
j2
+. . . +a
ik
c
jk
+. . . +a
in
c
jn
.
Esto prueba que |B| = d
ij
. Como |B| = 0 (pues tiene dos filas iguales), se
prueba lo deseado.
PROPOSICI
´
ON 3.10. Si A es invertible, se tiene que
A
−1
=
1
|A|
[cof (A)]
t
Demostraci´ on. Por el lema anterior
122 3. DETERMINANTES
A[cof (A)]
t
=

¸
¸
¸
¸
¸
|A| 0 . . . 0
0 |A| . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . |A|
¸

= |A|

¸
¸
¸
¸
¸
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
¸

= |A| I
Siendo A invertible se tiene que |A| = 0, con lo cual
1
|A|
A[cof (A)]
t
= I ;
esto es
A

1
|A|
[cof (A)]
t

I,
lo cual prueba que A
−1
=
1
|A|
[cof (A)]
t
.
La matriz A =

¸
¸
1 −1 2
4 2 4
5 0 1
¸

es invertible pues |A| = −34 ; calculemos
los cofactores de A

¸
¸
× × ×
× 2 4
× 0 1
¸

⇒A
11
=

2 4
0 1

⇒|A
11
| =

2 4
0 1

= 2 ⇒c
11
= 2
y trabajando de la misma manera se obtienen
|A
21
| =

−1 2
0 1

= −1 ⇒c
21
= 1; |A
31
| =

−1 2
2 4

= −8 ⇒c
31
= −8;
|A
12
| =

4 4
5 1

= −16 ⇒c
12
= 16; |A
22
| =

1 2
5 1

= −9 ⇒c
22
= −9;
|A
32
| =

1 2
4 4

= −4 ⇒c
32
= 4; |A
13
| =

4 2
5 0

= −10 ⇒c
13
= −10;
|A
23
| =

1 −1
5 0

=⇒c
23
= −5; |A
33
| =

1 −1
4 2

= 6 ⇒c
33
= 6
Por lo tanto cof (A) =

¸
¸
2 16 −10
1 −9 −5
−8 4 6
¸

con lo cual
3.7. REGLA DE CRAMER 123
A
−1
=
1
|A|
[cof (A)]
t
=
1
−34

¸
¸
2 1 −8
16 −9 4
−10 −5 6
¸

=

¸
¸

1
17

1
34
4
17

8
17
9
34

2
17
5
17
5
34

3
17
¸

.
3.7. Regla de Cramer
TEOREMA 3.11 (Cramer 1). Si |A| = 0 entonces el sistema Ax = b es
compatible y determinado y su soluci´ on (´ unica) es
x
j
=
|A
j
|
|A|
j = 1, 2 . . . , n
donde A
j
es la matriz que se obtiene de A sustituyendo la columna j por b
Demostraci´ on. Como |A| = 0, existe A
−1
, por lo tanto Ax = b ⇔ x =
A
−1
b lo que prueba la existencia y la unicidad de la soluci´on
x = A
−1
b ⇔x =

1
|A|
[cof (A)]
t

b ⇔

¸
¸
¸
¸
¸
¸
¸
¸
x
1
.
.
.
x
j
.
.
.
x
n
¸

=
1
|A|

¸
¸
¸
¸
¸
¸
¸
¸
c
11
c
21
. . . c
n1
.
.
.
.
.
.
.
.
.
.
.
.
c
1j
c
2j
. . . c
nj
.
.
.
.
.
.
.
.
.
.
.
.
c
1n
c
2n
. . . c
nn
¸

¸
¸
¸
¸
¸
b
1
b
2
.
.
.
b
n
¸


¸
¸
¸
¸
¸
¸
¸
¸
x
1
.
.
.
x
j
.
.
.
x
n
¸

=
1
|A|

¸
¸
¸
¸
¸
¸
¸
¸
c
11
b
1
+c
21
b
2
+. . . +c
n
b
n
.
.
.
c
j
b
1
+c
2j
b
2
+. . . +c
nj
b
n
.
.
.
c
n
b
1
+c
2n
b
2
+. . . +c
n
2b
n
¸

Por lo tanto
(3.32) x
j
=
1
|A|
(c
1j
b
1
+c
2j
b
2
+. . . +c
nj
b
n
) j = 1, 2 . . . , n
124 3. DETERMINANTES
Por otro lado si consideramos la matriz
A
j
=

¸
¸
¸
¸
¸
a
11
· · · b
1
· · · a
1n
a
i1
· · · b
2
· · · a
in
.
.
.
.
.
.
.
.
. · · ·
.
.
.
a
n1
· · · b
n
· · · a
nn
¸

que se obtiene de A sustituyendo la columna j por b, y desarrollamos el
determinante de A
j
por la columna j se tiene que
|A
j
| = (−1)
j+1
b
1
|A
1j
| + (−1)
j+2
b
2
|A
2j
| +. . . + (−1)
j+n
b
j
|A
nj
|
= c
1j
b
1
+c
2j
b
2
+. . . +c
nj
b
n
Al sustituir en (3.32) se obtiene x
j
=
|A
j
|
|A|
j = 1, 2 . . . , n.
EJEMPLO 3.4. Vamos a resolver el sistema

x + 2y −z = 7
2x +y +z = 6
x −y + 3z = −1
usando
la regla de Cramer. En este caso A =

¸
¸
1 2 −1
2 1 1
1 −1 3
¸

y b =

¸
¸
7
6
−1
¸

Como |A| = −3 = 0 el sistema es compatible y determinado y sus
soluciones son
x =
|A
1
|
|A|
=

7 2 −1
6 1 1
−1 −1 3

−3
=
5
3
,
y =
|A
2
|
|A|
=

1 7 −1
2 6 1
1 −1 3

−3
=
8
3
, z =
|A
3
|
|A|
=

1 2 7
2 1 6
1 −1 −1

−3
= 0

TEOREMA 3.12 (Cramer 2). Si |A| = 0 y existe j
0
tal que |A
j
0
| = 0
entonces el sistema Ax = b es incompatible
3.7. REGLA DE CRAMER 125
EJEMPLO 3.5. Como |A| = 0 se tiene que rango (A) < n. Por otro lado
si
¯
A = (A| b) es la matriz ampliada del sistema, como las columnas de A
j
0
son tambi´en columnas de
¯
A se tiene que
rango

¯
A

≥ rango (A
j
0
)
Adem´as rango (A
j
0
) = n, por ser |A
j
0
| = 0, con lo cual n ≤ rango

¯
A

.
Por lo tanto rango (A) < rango

¯
A

y por el teorema de Rouch´e - Frobe-
nius el sistema Ax = b es incompatible.
OBSERVACI
´
ON 3.13. Un error frecuente es decir que: Si |A| = 0 y
|A
j
| = 0 entonces el sistema Ax = b es indeterminado. Veamos ejemplos.
EJEMPLO 3.6. Para el sistema de ecuaciones

x +y +z = 1
x +y +z = 1
x +y +z = 0
se tiene
que
A =

¸
¸
1 1 1
1 1 1
1 1 1
¸

b =

¸
¸
1
1
0
¸

Por lo tanto |A| = |A
1
| = |A
2
| = |A
3
| = 0, sin embargo es evidente que
el sistema es incompatible. Mientras que para el sistema de ecuaciones

x +y +z = 1
x +y +z = 1
x +y +z = 1
se tiene que A =

¸
¸
1 1 1
1 1 1
1 1 1
¸

, b =

¸
¸
1
1
1
¸

y tambi´en
se cumple que |A| = |A
1
| = |A
2
| = |A
3
| = 0, pero el sistema es compatible
e indeterminado.
126 3. DETERMINANTES
CAP´ıTULO 4
RECTAS Y PLANOS EN EL ESPACIO
4.1. Introducci´on
El prop´osito del presente cap´ıtulo -y del cap´ıtulo denominado Producto
Escalar y Vectorial- es dar una presentaci´on sucinta de la Geometr´ıa Anal´ıti-
ca del Espacio, que permita trabajar matem´aticamente con los objetos del
espacio ambiente. En un sentido muy vago y deliberadamente informal
entendemos por tal al modelo espacial en que transcurren la mayor´ıa de los
fen´omenos analizados por la Mec´anica y otras teor´ıas cient´ıficas Cl´asicas.
Estas teor´ıas se refieren a los acontecimientos m´as o menos directamente
percibidos por los seres humanos.
Esta presentaci´on incluir´a la formalizaci´on del concepto de vector que el
lector conoce de sus cursos de Nivel Secundario. Por un lado, en los cursos
de Geometr´ıa ha trabajado con las traslaciones que, como recordar´a, est´an
determinadas por vectores. En general el vector se define en esos cursos como
una clase de equivalencia de segmentos orientados con la misma direcci´on,
sentido y congruentes (dos figuras son congruentes si se corresponden por
una isometr´ıa).
Por otro lado, en F´ısica ha trabajado con ciertas “magnitudes” (fuer-
za, velocidad, aceleraci´on, etc.) llamadas “vectoriales”. Estas se distinguen
claramente de otras llamadas “escalares” (masa, temperatura, etc.) porque
las ´ ultimas quedan determinadas por un ´ unico dato num´erico, en cambio las
primeras requieren m´as informaci´on para caracterizarlas: “m´odulo”, “direc-
ci´on” y “sentido”. Las magnitudes vectoriales se representan adem´as gr´afi-
camente mediante una “flecha” y a pesar de las diferencias que ya marcamos
con los “escalares” tienen algo en com´ un: con ambos se realizan operaciones.
127
128 4. RECTAS Y PLANOS EN EL ESPACIO
/
F
1
F
2
F
r
Figura 1
Por ejemplo cuando se aplican dos fuerzas

F
1
y

F
2
sobre un mismo cuerpo
el resultado es el mismo que si se aplicara una ´ unica fuerza

F
r
con m´odulo,
direcci´on y sentido igual a la diagonal del paralelogramo de lados

F
1
y

F
2
(ver figura 4.1). Se dice entonces que

F
r
=

F
1
+

F
2
o que

F
r
es la resultante de

F
1
y

F
2
, de este modo la “suma de vectores”
cobra sentido. Si

F
1
=

F
2
entonces

F
r
= 2

F
1
con lo cual tambi´en cobra
sentido la multiplicaci´on de escalares por vectores.
Nuestra intenci´on es introducir el concepto de “vector” de una manera
m´as rigurosa y utilizarlo para desarrollar algunas aplicaciones a la Geo-
metr´ıa Anal´ıtica del Espacio. Al mismo tiempo queremos destacar que este
concepto de vector servir´a de fuente de inspiraci´on para uno de los obje-
tos fundamentales de este curso. M´as adelante daremos una definici´on m´as
general y abstracta de vector perteneciente a un espacio vectorial con
m´ ultiples aplicaciones dentro y fuera de la matem´atica. Este tipo de pro-
cesos de generalizaci´on desde ejemplos hacia conceptos abstractos permite
dar un tratamiento unificado a m´ ultiples objetos a menudo de apariencia
dis´ımil pero con propiedades esenciales comunes. Para poder hacerlos se de-
be estudiar con cuidado los ejemplos sencillos tratando de destacar estas
propiedades.
4.2. VECTORES 129
4.2. Vectores
El espacio ambiente, que denotaremos con la letra E, est´a formado por
puntos designados en general con letras may´ usculas A, B, P, Q, .... Dos pun-
tos distintos definen una ´ unica recta y tres puntos no contenidos en una
recta definen un plano. En este cap´ıtulo se dar´a una descripci´on anal´ıtica
de recta, plano y sus relaciones de intersecci´on.
La longitud del segmento entre dos puntos de E define la distancia
entre dos puntos d : E ×E −→R
+
, que satisface
d(A, B) = d(B, A) ∀A ∈ E
d(A, B) = 0 si y s´olo si A = B
d(A, C) ≤ d(A, B) +d(B, C) ∀A, B, C ∈ E.
A este concepto elemental de distancia agregamos ahora el de vector.
Pretendemos formalizar lo que antes hemos denominado una “flecha” como
un objeto que tenga “modulo”, “direcci´on” y “sentido”. ¿Qu´e datos son nece-
sarios para dibujarla? En principio basta indicar un par de puntos ordenados
(A, B) el punto A ser´a el origen y el punto B el extremo del segmento orien-
tado (“flecha”). Consideremos dos segmentos orientados como en la figura
A
B
A

B

Figura 2
4.2 de modo que AA

B

B sea un paralelogramo, el par (A, B) es distinto
de (A

, B

). Sin embargo por ser AA

B

B un paralelogramo ambas segmen-
tos orientados tienen igual direcci´on (las rectas AB y A

B

son paralelas),
m´odulo (d(A, B) = d(A

, B

)) y sentido. Solo se diferencian en el punto de
base o de “aplicaci´on”. No estamos interesados en que nuestro concepto de
130 4. RECTAS Y PLANOS EN EL ESPACIO
vector distinga objetos por su punto de aplicaci´on as´ı que deberemos ser m´as
cuidadosos en nuestra definici´on y adoptar una que no distinga entre dos
flechas como (A, B) y (A

, B

). Una manera de lograr esto es identific´andolas
mediante una relaci´on de equivalencia.
Para ello definimos una relaci´on de equivalencia entre pares ordenados
de puntos de E: AB ∼ /A

B

si y s´olo si ABB

A

es un paralelogramo.
´
Esta es una relaci´on de equivalencia de acuerdo con la definici´on dada en el
Cap´ıtulo 0.
Obs´ervese que:
1) Es f´acil probar que AB ∼ A

B

si y s´olo si el punto medio C de AB

/
coincide con el de A

B; o sea que una misma simetr´ıa central de centro C
lleva A en B

y A

en B.
2) Tambi´en se puede dar una definici´on de la relaci´on de equivalencia en
t´ermino de traslaciones.
3) Todas estas definiciones s´olo utilizan elementos de la geometr´ıa plana.
Llamaremos vector del espacio E a una clase de equivalencia deter-
minada por esta relaci´on. Cualquier pareja de puntos de una clase de equi-
valencia representa al correspondiente vector. Si la pareja es AB, el vector
por ella representado se escribir´a de cualquiera de las siguientes maneras
v =
−−→
AB = B − A. Dada una representaci´on AB de un vector v llamaremos
origen (o punto base) al punto A, y extremo al punto B.
Denominaremos con la letra V al conjunto de estos vectores. Obs´ervese
que el espacio V incluye al vector nulo
−→
o =
−→
AA, para cualquier A ∈ E.
Dado un punto P ∈ E y un vector v ∈ V , es claro que existe un ´ unico
4.3. OPERACIONES CON VECTORES. 131
punto Q ∈ E tal que
−−→
PQ = v, o sea que hay un ´ unico representante de v
que tiene origen en P: ese representante es PQ. Dado P, y si v est´a dado
por una pareja AB (o sea v =
−−→
AB) para hallar Q alcanza con construir el
paralelogramo PABQ. De esta manera hemos definido una funci´on que a
pareja de punto de E y vector de V , le hace corresponder otro punto de E ,
de la siguiente manera: (P, v) −→Q ⇐⇒
−−→
PQ = v. Escribiremos / Q = P +v
y diremos que Q es la suma de P m´as v.
4.3. Operaciones con vectores.
La suma de dos vectores es otro vector, o sea que se trata de definir
una funci´on que a parejas de vectores le haga corresponder otro vector:
(v, w) −→ v + w. Dados dos vectores v, w ∈ V , se tomar´an representantes
de cada uno de ellos de modo que el extremo del representante de v sea el
origen del de w. O sea, que si v =
−−→
AB , tomamos w =
−−→
BC. Decimos que
−→
AC representa al vector suma v +w; o sea que
−−→
AB +
−−→
BC =
−→
AC.
Es f´acil ver que el vector suma no depende del representante elegido para
v ; o sea que si
−−→
A

B

= v (y
−−→
B

C

= w) entonces
−−→
A

B

+
−−→
B

C

=
−→
AC. Para
verificar esta independencia de los representantes, se recomienda -como para
casi todas las pruebas de este cap´ıtulo- hacer los dibujos correspondientes.
Conviene observar desde ya que para cualquier v =
−−→
AB , resulta
−→
o +v =
v +
−→
o = v (alcanza con tomar el representante AA o BB, seg´ un el caso,
de
−→
o ). Adem´as el vector
−−→
BA sumado a v da
−→
o :
−−→
AB +
−−→
BA =
−→
AA =
−→
o .
132 4. RECTAS Y PLANOS EN EL ESPACIO
Llamaremos opuesto de v al vector representado por BA, y lo escribiremos
−v. Adem´as (h´aganse los dibujos), para todo A, B, C, D ∈ E vale A−B =
C −D =⇒A−C = B −D.
Para definir el producto de un n´ umero real por un vector se debe
andar con m´as cuidado, distinguiendo diferentes casos y utilizando el con-
cepto de distancia. Se trata de definir una funci´on (a, v) −→av , para todo
a ∈ R, v ∈ V . Obs´ervese que no hemos indicado el producto del n´ umero
real a por el vector v con ning´ un s´ımbolo; sencillamente hemos colocado av
juntos. Esto podr´ıa dar lugar a confusiones, pero siendo a y v elementos de
conjuntos en general distintos, hemos preferido la simplificaci´on de no usar
s´ımbolo expl´ıcito para este producto. Sea v =
−−→
AB,
- si a ≥ 0, en la semirrecta AB se elige el ´ unico C tal que d(A, C) = ad(A, B).
O sea que C est´a del mismo lado que B respecto a A, en la recta determi-
nada por A y B
- Si a < 0, se elige C en el lado opuesto al que est´a B respecto de A, de
modo que d(A, C) = |a|d(A, B).
En ambos casos se define
−→
AC = a
−−→
AB = av. Se observa f´acilmente que es-
ta definici´on no depende del representante de v que se haya elegido. Obs´erve-
se tambi´en que la multiplicaci´on del n´ umero cero por cualquier vector da el
vector nulo: 0v =
−→
o , para todo v ∈ V . Igualmente, el vector opuesto −v
se obtiene multiplicando v por el n´ umero −1; o sea que (−1)v + v =
−→
o .
Diremos que dos vectores u, v son colineales (o paralelos o que tienen la
misma direcci´on) si u = av para alg´ un n´ umero real a. Tambi´en diremos
que u es m´ ultiplo de v. Si a > 0 diremos que adem´as tienen el mismo
sentido. Si a = ±1 tienen el mismo m´odulo. Esta definici´on lleva a que el
vector nulo sea colineal con todo vector de V , porque el n´ umero real puede
ser el cero.
Estas dos operaciones de suma de vectores y producto por un real, ve-
rifican las siguientes ocho propiedades (u, v, w son cualesquiera vectores de
V y a, b son cualesquiera n´ umeros reales):
[S1] [Conmutativa] u +v = v +u,
[S2] [Asociativa] u + (v +w) = (u +v) +w, ∀ X, Y, Z ∈ R
n
.
4.3. OPERACIONES CON VECTORES. 133
[S3] [Neutro de la suma] Existe un vector
−→
o tal que v +
−→
o = v,
[S4] [Existencia de opuesto] Existe −v tal que v + (−v) =
−→
o ;
[P1] [Asociativa del producto] a(bv) = (ab)v,
[P2] [Neutro del producto] 1v = v
[P3] [Distributiva] (a +b)v = av +bv,
[P4] [Distributiva] a(u +v) = au +av.
Obs´ervese los distintos significados que tienen los productos (sus s´ımbo-
los est´an omitidos) en P1; y las sumas, en P3. Para probar estas propieda-
des para los vectores de V recomendamos una vez m´as hacer dibujos claros,
aplicar bien las definiciones de cada una de las operaciones y luego apli-
car propiedades elementales de geometr´ıa plana y de los n´ umeros reales.
Como ejemplo daremos la prueba de P1. Si v =
−−→
AB, sean (ab)v =
−→
AC
y a(bv) =
−−→
AD con C, D en la recta AB. Si a ´o b es cero, el resultado es
A = C = D o sea
−→
AC =
−−→
AD =
−→
o . Si a, b tienen el mismo signo, C y
D est´an en la semirrecta de origen A por B y d(A, C) = d(A, D) = ab,
por lo que C = D. Si a > 0, b < 0, C est´a en el lado opuesto a B y D
tambi´en porque bv tiene sentido opuesto a v y a(bv) tiene el sentido de bv;
adem´as d(A, C) = d(A, D) = |ab|; por tanto C y D coinciden. M´as adelante
se considerar´an entes matem´aticos entre cuyos elementos se pueden definir
operaciones que verifican este conjunto de propiedades. Se ver´a que con s´olo
ellas se puede desarrollar la teor´ıa m´as simple, abstracta y abarcativa de
espacios vectoriales. Tambi´en es importante tener presente las siguien-
tes propiedades que relacionan la suma de punto y vector con la suma de
vectores (∀ A, B, C, D ∈ E, v, w ∈ V ):
1. A+ (v +w) = (A +v) +w.
2. A+ (B −A) = B; (A +w) −A = w.
3. A+
−→
o = A; A−A =
−→
o .
4. (B −A) +u = (B +u) −A = B −[A+(−u)]. Como ejemplo, veremos la
prueba de 4. Si w = (B−A) +u, resulta A+w = [A+(B−A)] +u = B+u,
por 2. Luego w = (B + u) − A por la segunda parte de 2. Esto prueba la
primera igualdad. Adem´as [A + (−u)] + w = A + [−u + (B + u) − A] =
A + [−u + (B − A) + u] = A + (B − A) = B; se han usado sucesivamente
134 4. RECTAS Y PLANOS EN EL ESPACIO
1., la definici´on de w, la primera igualdad de 4. y la primera de 2. Entonces
w = B −(A + (−u)) y queda demostrada la segunda igualdad de 4.
4.4. Ecuaciones vectoriales de rectas y planos. Paralelismo
Recta. Sea r la recta de E definida por los puntos A y B. De acuerdo
con lo visto en la definici´on de producto de un vector por un n´ umero real,
todos los puntos de esa recta quedan descriptos por A + λ
−−→
AB, al variar
λ entre los n´ umeros reales. O sea que todo punto P ∈ r es de la forma
P = A+λ
−−→
AB para alg´ un λ ∈ R. Tambi´en se puede dar una recta s por un
punto A ∈ E y un vector no nulo v ∈ V , llamado vector director de la
recta s. En este caso resulta s = {P ∈ E : P = A + λv, λ ∈ R}. Dos rectas
con vectores directores v, w son paralelas si y s´olo si v es colineal con w.
Si adem´as, ambas rectas paralelas tienen un punto en com´ un, ellas son la
misma recta. En efecto si las rectas son de la forma A + λv, B + µw con
w = a
1
v y B = A + λ
1
v, resulta que todo punto de la segunda recta es de
la forma B +µw = A+ (λ
1
+a
1
µ)v, o sea que es de la primera recta.
Plano. Dados tres puntos no pertenecientes a la misma recta (no colinea-
les) A, B, C ∈ E, el plano π por ellos definido esta formado por el conjunto
de puntos de la forma A +λ
−−→
AB +µ
−→
AC con λ, µ ∈ R. De igual manera que
en caso de las rectas, un plano tambi´en queda bien definido por un pun-
to A y dos vectores u, v no colineales. En este caso π = {P ∈ E : P =
A + λu + µv, λ, µ ∈ R}. Cualquier pareja de vectores u, v no colineales que
definan un plano de esa manera se denominar´an vectores directores del
plano.
Dos planos π, π

son paralelos si todo vector con representantes de-
finidos por dos puntos de π, tiene tambi´en representantes con dos puntos
de π

. Diremos, un tanto imprecisamente, que los vectores son de π y π

.
Hallaremos una condici´on necesaria y suficiente para que dos planos π, π

de
las formas P = A+λu+µv, P

= A

+au

+bv

, u, v no colineales, u

, v

no
colineales, sean paralelos. Obs´ervese primero que todos los vectores determi-
nados por dos puntos del plano π son de la forma
−→
AP = λu +µv. Para que
los dos planos sean paralelos no es necesario que u, u

y v, v

sean colineales,
4.5. SISTEMAS DE COORDENADAS 135
sino que los vectores u

, v

se puedan escribir como suma de m´ ultiplos de
u, v. En efecto si u

= λ
1
u+µ
1
v, v

= λ
2
u+µ
2
v resulta que todo vector de
π

es de la forma au

+bv

= (aλ
1
+bλ
2
)u+(aµ
1
+bµ
2
)v; o sea que tambi´en
lo es de π. Si u

y v

se escriben de aquella manera como combinaciones
lineales de u, v, se pueden despejar u y v de la siguiente manera
v =
λ
2
u

−λ
1
v

λ
2
µ
1
−λ
1
µ
2
, u =
−µ
2
u


1
v

λ
2
µ
1
−λ
1
µ
2
(que tiene sentido porque si fuera λ
2
µ
1
−λ
1
µ
2
= 0 resultar´ıa λ
2
u

−λ
1
v

= 0
y ser´ıan u

, v

colineales, lo cual va contra una suposici´on inicial); por un
razonamiento igual que el anterior resulta que todo vector de π tambi´en es
vector de π

.
4.5. Sistemas de coordenadas
Comencemos con dos definiciones de gran trascendencia. v es una com-
binaci´on lineal de los vectores v
1
, v
2
, · · · , v
n
∈ V si es de la forma
v = a
1
v
1
+a
2
v
2
+· · ·+a
n
v
n
con a
1
, a
2
, · · · , a
n
∈ R. Una base de V es un con-
junto de vectores {v
1
, v
2
, · · · , v
n
} ⊂ V tal que todo vector v ∈ V se escribe de
manera ´ unica como combinaci´on lineal de ese conjunto. O sea, si para cada
v ∈ V existen ´ unicos a
1
, a
2
, · · · , a
n
∈ R tales que v = a
1
v
1
+a
2
v
2
+· · ·+a
n
v
n
.
Destacamos la unicidad de la combinaci´on lineal de vectores de la base, pa-
ra generar cada uno de los vectores de V . En un sentido que se aclarar´a en
cap´ıtulos posteriores, una/ base es un conjunto m´ınimo que permite escribir
136 4. RECTAS Y PLANOS EN EL ESPACIO
todos los vectores de V como combinaci´on lineal de ellos. A continuaci´on
mostraremos c´omo son las bases de V .
De acuerdo con las definiciones que venimos dando, es claro que se
pueden elegir cuatro puntos A, B, C, D ∈ E no coplanares (no perte-
necientes a un mismo plano). Diremos tambi´en que los vectores por ellos
determinados son no coplanares. O sea, los vectores u, v, w ∈ V son no
coplanares si w = au + bv para cualesquiera dos n´ umeros reales a, b. Es-
to equivale, si se toman representantes de los vectores con el mismo origen
O : u =
−→
OA, v =
−−→
OB, w =
−−→
OC, a que el punto C no est´e en el plano
determinado por O, A, B, o sea que C = O+a
−→
OA+b
−−→
OB para cualesquiera
n´ umeros reales a, b. Sean cuatro puntos no coplanares O, A, B, C ∈ E. Dado
cualquier punto P ∈ E, consideremos la recta s paralela a OC por P. Ella
corta al plano OAB en P

(que coincide con O si P esta en la recta OC).
Por P

trazamos las paralelas r
1
, r
2
a las rectas OA, OB, respectivamente,
que cortan a OB y OA en B

y A

, respectivamente. Por otro lado, el plano
paralelo a OAB por P corta a la recta OC en el punto C

(que coincide
con O si P esta en el plano OAB). No es dif´ıcil ver, utilizando propiedades
elementales de paralelismo e intersecciones, que se habr´ıa llegado a los mis-
mos puntos A

, B

, C

si se hubieran trazado recta y plano paralelos a por
ejemplo la recta OA y el plano OBC, y seguido el procedimiento indicado
anteriormente. Por la definici´on de suma de vectores aplicada dos veces, se
deduce que
−−→
OP =
−−→
OA

+
−−→
OB

+
−−→
OC

, y por la definici´on de producto de
n´ umero real por vector, se ve el vector
−−→
OA

es colineal con
−→
OA, por lo que
4.5. SISTEMAS DE COORDENADAS 137
−−→
OA

= a
−→
OA para alg´ un a ∈ R. De igual manera
−−→
OB

= b
−−→
OB,
−−→
OC

= c
−−→
OC
para b, c ∈ R. Por tanto v =
−−→
OP = a
−→
OA + b
−−→
OB + c
−−→
OC. Para cada P ∈ E
(o lo que es lo mismo, cada v ∈ V ) los n´ umeros reales a, b, c son ´ unicos pues
si fuera v = a

−→
OA + b

−−→
OB + c

−−→
OC resultar´ıa, suponiendo que, por ejemplo
a = a

: (a −a

)
−→
OA = (b

−b)
−−→
OB + (c

−c)
−−→
OC por lo que
−→
OA =
b

−b
a −a

−−→
OB +
c

−c
a

−a
−−→
OC.
Entonces el punto A estar´ıa en el plano OBC lo cual contradice la hip´otesis
de que los puntos O, A, B, C no son coplanares. Esta demostraci´on vale
para cualesquiera tres vectores
−→
OA,
−−→
OB,
−−→
OC no coplanares. Por tanto hemos
demostrado que tres vectores no coplanares cualesquiera forman una base del
espacio V . Rec´ıprocamente, si tres vectores forman una base de V ellos deben
ser no coplanares. En efecto, si fueran coplanares, tomando representantes
con un mismo origen O, sus extremos determinar´ıan un plano π, y ning´ un
vector
−−→
OP con P ∈ π se podr´ıa escribir como combinaci´on lineal de ellos.
A continuaci´on generalizaremos el concepto de sistema de coordenadas
–que el estudiante ha estudiado en el plano– al espacio E, que es el objeto
principal de esta parte del curso. El estudiante recordar´a que los puntos de
una recta se ponen en correspondencia biun´ıvoca con los n´ umeros reales,
eligiendo un origen y una unidad; y que los puntos de un plano se ponen
en correspondencia biun´ıvoca con las parejas ordenadas de n´ umeros reales
(R
2
) eligiendo un origen y dos ejes transversales que se cortan en ese origen.
Un sistema de coordenadas o referencial de E est´a formado por un
punto O, el origen de coordenadas y una base {v
1
, v
2
, v
3
} de V . Las rectas
determinadas por O y v
1
, v
2
, v
3
se denominan ejes coordenados. Si los
ejes coordenados son perpendiculares se dice que el sistema de coordenadas
es ortogonal. Se suele representar por Ox, Oy, Oz a los ejes coordenados
definidos por O y v
1
, v
2
, v
3
, respectivamente. Se llamar´a plano coordenado
xOy al plano determinado por Ox, Oy. De igual manera se definen los planos
coordenados yOz, zOx.
Por lo que antecede resulta que dado un sistema de coordenadas
{O, v
1
, v
2
, v
3
}, para cada P ∈ E existen n´ umeros ´ unicos x
1
, x
2
, x
3
tales que
138 4. RECTAS Y PLANOS EN EL ESPACIO
P −O = x
1
v
1
+x
2
v
2
+x
3
v
3
; luego, P = O+x
1
v
1
+x
2
v
2
+x
3
v
3
. Decimos que
x
1
, x
2
, x
3
son las coordenadas de P en el sistema {O, v
1
, v
2
, v
3
}. De igual
manera, si v = a
1
v
1
+ a
2
v
2
+ a
3
v
3
, llamaremos coordenadas de v en la
base {v
1
, v
2
, v
3
} a la terna (a
1
, a
2
, a
3
) por lo que esta terna, dependiendo del
contexto al que se refiera, indicar´a a las coordenadas del punto A = O+v ∈
E, o del vector v ∈ V . La determinaci´on de un sistema de coordenadas
establece una correspondencia biun´ıvoca entre el conjunto de los puntos del
espacio E y R
3
, el conjunto de las ternas ordenadas de n´ umeros reales. Como
ejemplos destacamos que el punto elegido como origen de coordenadas tiene
coordenadas (0, 0, 0) ∈ R
3
y el punto O + v
1
tiene coordenadas (1, 0, 0). Se
suele escribir P = (x
1
, x
2
, x
3
), para indicar que x
1
, x
2
, x
3
son las coordenadas
de P en un sistema de coordenadas en el que se est´a trabajando, o que se
da por sobreentendido.
Observaciones
1. Si A = O + a
1
v
1
+ a
2
v
2
+ a
3
v
3
y v = x
1
v
1
+ x
2
v
2
+ x
3
v
3
, entonces
A−O = a
1
v
1
+a
2
v
2
+a
3
v
3
y A−O+v = (a
1
+x
1
)v
1
+(a
2
+x
2
)v
2
+(a
3
+x
3
)v
3
,
por lo que A + v = O + (a
1
+ x
1
)v
1
+ (a
2
+ x
2
)v
2
+ (a
3
+ x
3
)v
3
. Por tanto
las coordenadas del punto A +v son: (a
1
+x
1
), (a
2
+x
2
), (a
3
+x
3
).
2. Si A = O +a
1
v
1
+a
2
v
2
+a
3
v
3
// y B = O +b
1
v
1
+b
2
v
2
+b
3
v
3
, entonces
B −A = (b
1
−a
1
)v
1
+(b
2
−a
2
)v
2
+(b
3
−a
3
)v
3
y las coordenadas del vector
B −A son (b
1
−a
1
, b
2
−a
2
, b
3
−a
3
).
4.6. Ecuaciones param´etricas de rectas y planos
Veamos que forma toman las ecuaciones de rectas y planos en un re-
ferencial {O, v
1
, v
2
, v
3
}. Sea la recta r : P = A + λ(B − A). Supongamos
A = (a
1
, a
2
, a
3
), B = (b
1
, b
2
, b
3
); entonces por la ´ ultima observaci´on de la
secci´on anterior resulta B − A = (b
1
− a
1
)v
1
+ (b
2
− a
2
)v
2
+ (b
3
− a
3
)v
3
, y
por la observaci´on 1., si P tiene coordenadas (x, y, z) los puntos de la recta
r tienen coordenadas
(4.33) x = a
1
+λ(b
1
−a
1
), y = a
2
+λ(b
2
−a
2
), z = a
3
+λ(b
3
−a
3
).
4.7. ECUACIONES IMPL
´
ICITAS DE RECTAS Y PLANOS 139
Si r es de la forma P = A+λv con v = x
1
v
1
+x
2
v
2
+x
3
v
3
se obtiene:
(4.34) x = a
1
+λx
1
, y = a
2
+λx
2
, z = a
3
+λx
3
.
Estas ecuaciones se suelen llamar ecuaciones param´etricas de la rec-
ta, y se suele pedir, por ejemplo “hallar las ecuaciones param´etricas de la
recta”que pasa por los puntos P = (1, 0, 1) y Q = (−2, 1, 2). En realidad
debiera decirse, “hallar unas ecuaciones param´etricas de la recta”porque de-
pendiendo del punto que se tome como base, y del vector director elegido
(uno o cualquier m´ ultiplo -no nulo- de ´el) se obtendr´an diferentes ecuaciones
param´etricas. Sin embargo, dado que la recta es la misma, independiente-
mente de la presentaci´on anal´ıtica elegida, seguiremos refiri´endonos a las
ecuaciones, en todos los casos. La respuesta al ejemplo que antecede es
(x, y, z) = (1, 0, 1) +λ(−3, 1, 1)
Sean tres puntos no alineados A = (a
1
, a
2
, a
3
), B = (b
1
, b
2
, b
3
), C =
(c
1
, c
2
, c
3
). Consideramos el plano de ecuaci´on P = A+λ(B−A)+µ(C−A).
Llamando (x, y, z) a las coordenadas de P, por un razonamiento an´alogo al
utilizado para obtener (4.33), se obtiene
x = a
1
+λ(b
1
−a
1
) +µ(c
1
−a
1
),
y = a
2
+λ(b
2
−a
2
) +µ(c
2
−a
2
), (4.35)
z = a
3
+λ(b
3
−a
3
) +µ(c
3
−a
3
).
Si el plano es de la forma P = A+λv +µw con v = x
1
v
1
+x
2
v
2
+x
3
v
3
, w =
y
1
v
1
+y
2
v
2
+y
3
v
3
se obtiene:
(4.36) x = a
1
+λx
1
+µy
1
, y = a
2
+λx
2
+µy
2
, z = a
3
+λx
3
+µy
3
.
4.7. Ecuaciones impl´ıcitas de rectas y planos
Rectas Las ecuaciones (4.33), si a
1
= b
1
, a
2
= b
2
, a
3
= b
3
, se pueden
escribir de la siguiente manera
(4.37)
x −a
1
b
1
−a
1
=
y −a
2
b
2
−a
2
=
z −a
3
b
3
−a
3
140 4. RECTAS Y PLANOS EN EL ESPACIO
An´alogamente, de (4.34) se deduce, si x
1
, x
2
, x
3
= 0:
(4.38)
x −a
1
x
1
=
y −a
2
x
2
=
z −a
3
x
3
En ambos casos, si alguno de los denominadores fuera cero, el correspondien-
te numerador tambi´en es cero. Tambi´en por eliminaci´on de λ, µ en (4.35), se
obtiene la forma general de la ecuaci´on de un plano (usando determinantes
de matrices dos por dos):
(x −a
1
)

b
2
−a
2
b
3
−a
3
c
2
−a
2
c
3
−a
3

−(y −a
2
)

b
1
−a
1
b
3
−a
3
c
1
−a
1
c
3
−a
3

+
+(z −a
3
)

b
1
−a
1
b
2
−a
2
c
1
−a
1
c
2
−a
2

= 0.
La expresi´on que antecede al signo de igual puede tomarse como la definici´on
del determinante de una matriz 3 por 3 -que ser´a vista en detalle m´as ade-
lante en el curso-, pudi´endose escribir m´as compactamente de la siguiente
manera:
(4.39)

x −a
1
y −a
2
z −a
3
b
1
−a
1
b
2
−a
2
b
3
−a
3
c
1
−a
1
c
2
−a
2
c
3
−a
3

= 0
Partiendo de (4.36) se obtiene otra forma de la ecuaci´on impl´ıcita de un
plano. As´ı, si el plano est´a dado por el punto A = (a
1
, a
2
, a
3
) y los vectores
v = x
1
v
1
+x
2
v
2
+x
3
v
3
, w = y
1
v
1
+y
2
v
2
+y
3
v
3
, la ecuaci´on impl´ıcita toma
la forma
(4.40)

x −a
1
y −a
2
z −a
3
x
1
x
2
x
3
y
1
y
2
y
3

= 0
Desarrollando estos determinantes tenemos, por ejemplo para (4.39)
a(x −a
1
) +b(y −a
2
) +c(z −a
3
) = 0, o tambi´en ax +by +cz +d = 0,
donde a = k

b
2
−a
2
b
3
−a
3
c
2
−a
2
c
3
−a
3

, b = k

b
1
−a
1
b
3
−a
3
c
1
−a
1
c
3
−a
3

,
4.7. ECUACIONES IMPL
´
ICITAS DE RECTAS Y PLANOS 141
c = k

b
1
−a
1
b
2
−a
2
c
1
−a
1
c
2
−a
2

.
Rec´ıprocamente toda ecuaci´on de la ´ ultima forma, en la que por lo menos
uno de los coeficientes a, b, c es distinto de cero, representa un plano porque,
suponiendo, por ejemplo c = 0, ella equivale a las tres ecuaciones
x = λ, y = µ, z = −
d
c
−λ
a
c
−µ
b
c
que son de la forma(4.36). Obs´ervese que los coeficientes a, b, c s´olo dependen
de los vectores directores del plano. Dado que planos paralelos se pueden
determinar con los mismos vectores directores, resulta que dos planos
ax +by +cz +d = 0, a

x +b

y +cz +d

= 0.
son paralelos si y s´olo si a = pa

; b = pb

; c = pc

para alg´ un real
p. Si, adem´as, d = pd

ambas ecuaciones representan el mismo plano.
Observamos tambi´en que, por ejemplo de (4.38) se puede deducir
x −a
1
x
1
=
y −a
2
x
2
,
x −a
1
x
1
=
z −a
3
x
3
que se reduce a
(4.41) ax +by +cz +d = 0, a

x +b

y +c

y +d

= 0.
Estas dos ecuaciones indican la propiedad bien conocida de toda recta puede
determinarse por dos planos que se cortan en ella.
Ej. 1. En el ejemplo de la secci´on anterior, las ecuaciones impl´ıcitas de la
recta por P y Q (recordar las disquisiciones sobre las y unas ecuaciones) son
x −1
−3
= y = z −1, o bien x + 3y = 1, y −z = −1
Ej. 2. Las ecuaciones impl´ıcitas de la recta por (2, 1, 0), (3, 1, 5) son x−2 =
z −5/5, y = 1
Ej. 3. Las ecuaciones p`aram´etricas del plano por (1, 1, 0) que tiene por
vectores directores u = (−1, 0, 2) y v = (1, 3, 3) son
x = 1 −λ +µ, y = 1 + 3µ z = 2λ + 3µ.
142 4. RECTAS Y PLANOS EN EL ESPACIO
Su ecuaci´on impl´ıcita es −6x + 5y −3z + 1 = 0.
Ej. 4. x −2y = 0 es la ecuaci´on de un plano paralelo al eje coordenado Oz,
que corta al plano xOy seg´ un la recta z = 0, x −2y = 0.
Ej. 5. Ecuaci´on del plano paralelo al de ecuaci´on x+y +z = 0 por el punto
(1,1,1). Ser´a de la forma x +y +z +d = 0, por el punto (1, 1, 1); por tanto
1 + 1 + 1 +d = 0 y resulta d = −3.
El lector atento ya habr´a percibido que si (x, y, z) designa las coorde-
nadas gen´ericas de cualquier punto del espacio, dado un cierto sistema de
coordenadas,la ecuaci´on impl´ıcita de un plano viene dado por una ecuaci´on
lineal en (x, y, z); en general la ecuaci´on de cualquier superficie vendr´a dada
por una ecuaci´on. Y una recta, vendr´a dada por dos ecuaciones. Los puntos
que verifican las dos ecuaciones ser´an los de la recta.
4.8. Posiciones relativas de rectas y planos.
En esta secci´on se ver´ a que el estudio de las posiciones relativas de
rectas y planos llevan naturalmente a plantearse la resoluci´on de sistemas
de ecuaciones.
Dadas dos rectas en el espacio, podemos simplificar sus posiciones
relativas en tres categor´ıas. O bien se cruzan sin cortarse (esta es la po-
sici´on gen´erica, la m´as com´ un), o bien se cortan en un solo punto, o bien
son paralelas (este caso incluye el de las rectas coincidentes. El caso de que
sean paralelas ya fue analizado: son rectas con vectores directores colineales
(uno m´ ultiplo del otro) y coinciden o no seg´ un tengan alg´ un punto com´ un o
no. Si los vectores directores no son colineales se trata de encontrar puntos
comunes a las dos rectas. Para ello se estudia el sistema de ecuaciones for-
mado al igualar las ecuaciones de sus coordenadas. Si las rectas se dan en
forma param´etrica se tendr´ a un sistema con tres ecuaciones y dos inc´ognitas
(los par´ametros de cada una de las rectas). Este sistema, si los vectores di-
rectores no son colineales, puede ser compatible determinado (una soluci´on
formada por una pareja de n´ umeros correspondientes a cada par´ametro) o
incompatible (sin soluci´on). El primer caso corresponde al caso de corte (y
4.8. POSICIONES RELATIVAS DE RECTAS Y PLANOS. 143
la soluci´on en cada par´ametro dar´a el mismo punto en el espacio, pero al
moverse por cada una de las rectas); el segundo caso corresponde a las rectas
que se cruzan.
Ej. 1. Determinar las posiciones relativas de las rectas
(x, y, z) = (1, 0, 1) +λ(−1, 1, 0)
(x, y, z) = (0, 1, 2) +µ(2, 0, 1).
Al igualar las coordenadas resulta
1 −λ = 2µ; λ = 1; 0 = 2 +µ
que no posee ninguna soluci´on: las rectas se cruzan.
Ej. 2. Determinar las posiciones relativas de las rectas
(x, y, z) = (1, 0, 1) +λ(−1, 1, 0); (x, y, z) = (0, 1, 2) +µ(−4, 4, 0).
Los vectores directores son colineales y al igualar las coordenadas se obtiene
(1, 0, 1) +λ(−1, 1, 0) = (0, 1, 2) +µ(−4, 4, 0)
que no tiene soluci´on pues en la tercera coordenada resulta la igualdad de
los n´ umeros distintos 1 y 2: las rectas son paralelas.
Dados dos planos en el espacio podemos simplificar sus posiciones
relativas en dos categor´ıas. O bien se cortan en una recta, o bien son pa-
ralelos (este caso incluye el de los planos coincidentes). La posici´on relativa
se manifestar´a anal´ıticamente en que el sistema dado por las dos ecuaciones
impl´ıcitas sea o bien indeterminado con las soluciones dependientes de un
par´ametro (un grado de libertad) en el caso de corte en una recta, o bien
incompatible (no tiene soluciones) en e caso de planos paralelos no coinciden-
tes, o bien indeterminado con las soluciones dependientes de dos par´ametros
(dos grados de libertad) en el caso de coincidencia. Si los planos estuvieran
dados en forma param´etica tendr´ıamos, al igualar las coordenadas de los dos
planos, un sistema de tres ecuaciones con cuatro inc´ognitas (dos por cada
plano).
144 4. RECTAS Y PLANOS EN EL ESPACIO
Ej. 3. Posici´on relativa de los planos
2x + 3y −z = 1, −x −2y +z = 0.
Para resolver el sistema dado por las dos ecuaciones, se escaleriza, obte-
ni´endose el sistema 2x + 3y − z = 1, −y + z = 1. Este sistema tiene
infinitas soluciones que dependen de un solo par´ametro (un grado de li-
bertad) y por tanto los planos se cortan en una recta. Para determinar las
ecuaciones param´etricas de esa recta, se puede tomar y = λ, resultando
z = 1 +λ, x = 1 −λ.
Ej. 4. Posiciones relativas de los planos de ecuaciones param´etricas
(x, y, z) = (1, 0, 1) +λ(1, 1, 0) +µ(0, 1, −1)
(x, y, z) = (0, 0, 3) +t(1, 2, −1) +s(2, 1, 1).
Igualando las correspondientes coordenadas resulta
1 +λ = t + 2s
λ +µ = 2t +s
1 −µ = 3 −t +s
=⇒
λ + 0µ −t −2s = −1
λ +µ −2t −s = 0
0λ −µ +t −s = 2.
Si ahora omitimos de escribir las variables, pero mantenemos su orden
λ, µ, t, s, y agregamos una columna con los t´erminos independientes, ten-
dremos las siguientes matrices de coeficientes (primero la original, y luego
la escalerizada)

¸
¸
1 0 −1 −2 −1
1 1 −2 −1 0
0 −1 1 −1 2
¸

=⇒

¸
¸
1 0 −1 −2 −1
0 1 −1 1 1
0 0 0 0 3
¸

.
El sistema es por tanto incompatible dado que sumando cero de cada una
de las variables deber´ıamos obtener 3. Los planos no se cortan, ellos son
paralelos. Observar que de acuerdo con lo observado en la secci´on tres los
vectores directores del segundo plano son combinaci´on lineal de los vectores
directores del primer plano:
(1, 2, −1) = (1, 1, 0) + (0, 1, −1),
(2, 1, 1) = 2(1, 1, 0) −(0, 1, −1).
CAP´ıTULO 5
PRODUCTO ESCALAR Y VECTORIAL
5.1. Producto escalar
DEFINICI
´
ON 5.1. Dado un vector v ∈ V llamamos norma de v al n´ ume-
ro d(A, B) con v =
−−→
AB,que notaremos: v (Observar que d(A, B) no de-
pende del par de puntos (A, B) que se elija como representante de v).
Propiedades:
1) v 0; v= 0 si y solo si v= 0.
2) av = |a| v para todo a ∈ R y para todo v ∈ V
3) u +v u +v, para todo u, v ∈ V
Demostraci´ on
1) Es inmediato.
2) Si a = 0 es trivial. Si a = 0 y v =
−−→
AB, por definici´on del producto
de un n´ umero por un vector , av =
−→
AC, donde d (A, C) = |a| d (A, B). Luego
av = d (A, C) = |a| d (A, B) = |a| v.
3) Un lado de un tri´angulo es menor o igual que la suma de los otros
dos (es la propiedad triangular de geometr´ıa m´etrica).
Diremos que v es un versor si v = 1. Para todo v= 0 se tiene que
v
v
es
un versor pues

v
v

=
1
v
v = 1.
DEFINICI
´
ON 5.2. Dados los vectores u y v de V llamamos producto
interno o producto escalar de u por v al n´ umero u . v cos θ donde
θ es el ´angulo BAC de tres puntos tales que
−−→
AB = u y
−→
AC = v. Observar
145
146 5. PRODUCTO ESCALAR Y VECTORIAL
que el producto escalar no depende de los puntos A, B, C que se elijan para
representar u y v.
Notaci´on: u.v ; < u, v > , (u, v) ; etc.
En particular v.v = v
2
; luego v =

v.v.
Si u es un versor, es decir, si u = 1, entonces u.v = v cos θ = p es la
proyecci´on del segmento AC sobre la recta AB de la figura.
Propiedades:
4) u.v = v.u
5) (a.u) .v = u. (a.v) = a. (u.v)
6) (u
1
+u
2
) .v = u
1
.v +u
2
.v ; u. (v
1
+v
2
) = u.v
1
+u.v
2
.
7) v.v 0 y v.v = 0 si y s´olo si v= 0
Demostraci´ on:
4) Es inmediato.
5) Si a = 0 la demostraci´on es trivial . Si a 0, ´ang (au, v) =
´ang (u, v) = θ, luego
( a.u ) .v = au . v cosθ = |a| . u . v cos θ = a (u.v).
Si a < 0 , ´ang (au, v) = π + ´ang (u, v) = π + θ, luego ( a.u ) v =
a.u v cos (π +θ) = −|a| u v cos θ = a u v cos θ =a(u.v).
6) Consideremos primero el caso u = 1. Entonces v
1
.u = p
1
, v
2
.u =
p
2
. (v
1
+v
2
) u = p (proyecci´on de u
1
+u
2
). Es claro que p = p
1
+p
2
, luego
(v
1
+v
2
) .u = v
1
.u +v
2
.u. (ver figura)
5.1. PRODUCTO ESCALAR 147
Consideremos ahora el caso general. Por el razonamiento anterior, como

u

u

= 1, tenemos (v
1
+v
2
) .
u
u
= v
1
.
u
u
+ v
2
.
u
u
, luego (v
1
+v
2
) .u =
v
1
.u +v
2
.u
7) Es inmediata pues v.v = v
2
.
DEFINICI
´
ON 5.3. Dos vectores u, v se dicen ortogonales si u.v = 0.
Una base

−→
i ,
−→
j ,
−→
k
¸
(a partir de aqu´ı no escribiremos la flecha
−→
. ) se
dice ortogonal si i · j = i · k = j · k = 0. La base se dice ortonormal si
adem´as de ser ortogonal verifica que i = j = k = 1.
Diremos que {O, i, j, k} es un sistema ortogonal de coordenadas si
{i, j, k} es ortonormal.
En el resto de esta secci´on supondremos que todos los sistemas de coor-
denadas son ortonormales. En tal caso dados:
v = a
1
i +a
2
j +a
3
k y w = b
1
i +b
2
j +b
3
k se tienev.w =
¸
i=1,2,3
a
i
b
i
.
En particular: v =

v.v =

a
2
1
+a
2
2
+a
2
3
.
Si P = O + a
1
i + a
2
j + a
3
k y Q = O + b
1
i + b
2
j + b
3
k entonces
−−→
PQ =
Q−P = (b
1
−a
1
) v
1
+ (b
2
−a
2
) v
2
+ (b
3
−a
3
) v
3
, luego
d (P, Q) = PQ =

(b
1
−a
1
)
2
+ (b
1
−a
1
)
2
+ (b
3
−a
3
)
2
.
148 5. PRODUCTO ESCALAR Y VECTORIAL
5.2. Aplicaciones a la geometr´ıa: ´angulos y distancias
Ya vimos que toda ecuaci´on de la forma ax +by +cz +d = 0 representa
un plano y rec´ıprocamente. Suponiendo que el sistema de coordenadas sea
ortogonal volveremos a obtener esa ecuaci´on y mostraremos que en ese caso
se puede obtener m´as informaci´on de esta ecuaci´on.
Sea {O, i, j, k} un sistema ortogonal de coordenadas, P
0
= (x
0
, y
0
, z
0
)
un punto de un plano π y n = ai +bj +ck = 0 un vector de la direcci´on de
una perpendicular a π (para abreviar diremos que n es un vector normal a
π). Entonces, para todo P ∈ π, P = (x, y, z), vale n · (P −P
0
) = 0, de
aqu´ı resulta:
a (x −x
0
) +b (y −y
0
) +c (z −z
0
) = 0
Esta es entonces la ecuaci´on del plano dado por un punto y la direcci´on
de la normal. Es claro que esa ecuaci´on tambi´en se escribe en la forma:
ax +by +cz +d = 0.
Rec´ıprocamente, dada una ecuaci´on ax+by+cz+d = 0, con a
2
+b
2
+c
2
=
0 (por ejemplo, c = 0), resulta : ax + by + c

z +
d
c

= 0. Si el sistema de
coordenadas es ortogonal esto equivale a:
(av
1
+bv
2
+cv
3
) .

xv
1
+yv
2
+

z +
d
c

v
3

= 0.
5.2. APLICACIONES A LA GEOMETR
´
IA:
´
ANGULOS Y DISTANCIAS 149
Poniendo P = (x, y, z), P
0
= (0, 0, −d/c) y n = av
1
+bv
2
+cv
3
, esta ecuaci´on
se escribe: n. (P −P
0
) = 0. Por tanto, es la ecuaci´on del plano perpendicular
a π por P
0
.
OBSERVACI
´
ON 5.1. Si el sistema de coordenadas no es ortogonal, la
ecuaci´on ax + by + cz + d = 0 tambi´en representa un plano como vimos
antes, pero en ese caso el vector av
1
+bv
2
+cv
3
no tiene por que ser normal
al plano.
Veremos ahora algunas consecuencias de esto, siempre con la hip´otesis
de que el sistema de coordenadas es ortonormal.
a ) condici´on para que dos planos sean paralelos: ax+by+cz+d =
0 y a

x+b

y +c

z +d

= 0 son paralelos si y s´olo si a

= λa, b

= λb, c

= λc
para alg´ un λ ∈ R, (λ = 0).
b ) condici´on para que una recta y un plano sean paralelos:
Dados el plano y la recta de ecuaciones ax + by + cz + d = 0 y
x−x
0
p
=
y−y
0
q
=
z−z
0
r
, son paralelos si y s´olo si pa + qb + rc = 0, pues esto significa
que n.v = 0 , donde n es normal al plano y v es un vector de la direcci´on
de la recta.
c ) ´angulo entre dos planos: Para dos vectores cualesquiera, u = 0,
v = 0, tenemos
u.v
u.v
= cos θ. Como el ´angulo θ entre dos planos es igual al
que forman sus vectores normales respectivos, tendremos: cos θ =
n
1
.n
2
n
1
n
2

donde n
1
y n
2
son vectores normales a esos planos: luego el ´angulo θ entre
los planos de ecuaciones ax+by+cz+d=0 y a’x+b’y+c’z+d’=0 verifica:
cos θ =
aa

+bb

+cc


a
2
+b
2
+c
2
.

a

2
+b

2
+c

2
d )
´
Angulo de una recta con un plano: Sean n un vector normal
al plano y v un vector de la direcci´on de la recta . El ´angulo del plano con
la recta es entonces θ = π/2 − ϕ donde ϕ es el ´angulo determinado por n
150 5. PRODUCTO ESCALAR Y VECTORIAL
y v. Luego el ´angulo de ax+by+cz+d =0 con
x−x
0
p
=
y−y
0
q
=
z−z
0
r
se puede
calcular mediante:
senθ = cos ϕ =
ap +bq +cr

a
2
+b
2
+c
2

p
2
+q
2
+r
2
e )
´
Angulo de dos rectas: El ´angulo θ de
x−x
0
p
=
y−y
0
q
=
z−z
0
r
con
x−x
1
p

=
y−y
1
q

=
z−z
1
r

se calcula mediante la f´ormula
cos θ =
pp

+qq

+rr

p
2
+q
2
+r
2

p

2
+q

2
+r

2
.
f ) Distancia de un punto a un plano: Definimos la distancia d (Q, π)
de Q al plano π como el m´ınimo de d(Q,P) donde P ∈ π. Es claro que el
m´ınimo de d(Q,P) se obtiene cuando P=P
1
=π ∩ r, donde r es la perpendi-
cular a π por Q. Luego : d (Q, π) = d (Q, P
1
) =

(Q−P
0
) .
n
n

, siendo P
0
un punto cualquiera del plano π.
Como la ecuaci´on del plano es (P −P
0
) .n = 0, esto significa que d se
obtiene reemplazando P por O=(0,0,0) en el primer miembro de la ecuaci´on
del plano.
Consideremos ahora un sistema ortonormal de coordenadas. Si P
0
=
(x
0
, y
0
, z
0
), Q = (x, y, z), P = (x, y, z), n = ai +bj +ck entonces:
(Q−P
o
) · n = a (x −x
o
) +b (y −y
o
) +c (z −z
o
) = ax +by +cz +d.
5.3. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 151
Luego : d (Q, π) =

(Q−P
0
) .
n
n

=

ax+by+cz+d

a
2
+b
2
+c
2

5.3. Aplicaciones: ecuaciones de algunas superficies
a) Esferas de centro (x
0
, y
0
, z
0
) y radio r: En un sistema ortogonal
de coordenadas la ecuaci´on es: (x −x
0
)
2
+ (y −y
0
)
2
+ (z −z
0
)
2
= r
2
b) Superficies de revoluci´on: Son las engendradas por una curva
(generatriz), que gira alrededor de una recta (eje).
OBSERVACI
´
ON 5.2. Una curva en el espacio puede darse:
- O bien en forma param´etrica, por medio de tres ecuaciones de la
forma

x = x(t)
y = y (t)
z = z (t)
t ∈ R
con tres funciones cont´ınuas de un par´ametro real (para cada valor del
par´ametro t se tendr´a un punto (x(t),y(t),z(t))=P(t) que est´a en la cur-
va).
- O bien en la forma reducida

f (x, y, z) = 0
g (x, y, z) = 0
152 5. PRODUCTO ESCALAR Y VECTORIAL
Cuando se tienen las ecuaciones param´etricas, a veces puede eliminarse
el par´ametro t y obtenerse una forma reducida. Generalmente hay muchos
sistemas de ecuaciones posibles que representan a la misma curva.
OBSERVACI
´
ON 5.3. Una superficie en el espacio puede darse:
- O bien en forma parametrizada, por medio de tres ecuaciones con dos
par´ametros ( como la ecuaci´on param´etrica del plano).
- O bien en forma reducida por medio de una ecuaci´on del tipo: f(x, y, z) = 0.
OBSERVACI
´
ON 5.4. La curva C:

f (x, y, z) = 0
g (x, y, z) = 0
es la intersecci´on
de dos superficies S y S’ donde S: f(x,y,z) = 0 y S’: g(x,y,z) =0.
Ecuaci´on de la superficie de revoluci´on con eje

Oz Sea r el eje
r :

x = 0
y = 0
, y C la generatriz C:

x = 0
z = f (y)
La superficie de revoluci´on S est´a constituida por todos los puntos P
del espacio que cumplen, a la vez, dos condiciones:

P ∈ π ⊥r por alg´ un P
0
∈ C
d (P, r) = d (P
0
, r)
5.3. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 153
Las condiciones se traducen en:

z −z
0
= 0 P ∈ π⊥ , r, por P
0
x
0
= 0 P
0
∈ C
z
0
= f (y
0
) P
0
∈ C

x
2
+y
2
=

x
2
0
+y
2
0
, d (P, r) = d (P
0
, r)
de donde, eliminando x
0
, y
0
, z
0
se obtiene: z = f

±

x
2
+y
2

.
OBSERVACI
´
ON 5.5. Dada una ecuaci´on F(x,y,z) = 0 no intentaremos,
en general, reconocer si es o no una superficie de revoluci´on. Observaremos
s´olo que si se halla una familia de planos paralelos ( es decir ax+by+cz+α =
0 con (a, b, c) fijo y α variable ) que cumplan las condiciones de m´as abajo,
entonces F(x,y,z) = 0 es una superficie de revoluci´on que verifica (ver figura
3.3):
i ) La intersecci´on

F (x, y, z) = 0
ax +by +cz +α = 0
es una circunferencia para
cada valor de α.
ii) El centro de la circunferencia (x
α
, y
α
, z
α
) pertenece, para todo α, a
una recta fija r colineal al vector (a,b,c) (o sea perpendicular a la familia
de planos paralelos ).
EJEMPLO 5.1. Demostrar que xy+yz+zx = 7 es una superficie de revo-
luci´on.
154 5. PRODUCTO ESCALAR Y VECTORIAL
Se puede escribir como: (x +y +z)
2

x
2
+y
2
+z
2

= 14 Cort´andola
en el plano:x +y +z +α = 0 se obtiene:

x +y +z +α = 0
(x +y +z)
2

x
2
+y
2
+z
2

= 14
i ) Es una circunferencia porque es la intersecci´on de la esfera x
2
+y
2
+z
2
=
14+α
2
con el plano x+y +z +α = 0. ii ) El centro C
α
de la circunferencia
se halla trazando la perpendicular al plano x +y +z + α = 0 que pasa por
el centro de la esfera x
2
+y
2
+z
2
= 14 +α
2
, o sea:
C
α
=

x +y +z +α = 0
x = y = z recta por (0, 0, 0) ⊥
al plano, x +y +z +α = 0
C
α
=

x = −α/3
y = −α/3
z = −α/3
es una recta colineal al vector (−1/3, −1/3, −1/3) o sea, colineal con ( 1,1,1).

c ) Conos: Se llama “cono” o “superficie c´onica” de v´ertice V y direc-
triz C ( donde V es un punto y C es una curva dada , tales que V/ ∈C ), a
la superficie engendrada por todas las rectas que pasan por V y cortan a C.
5.3. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 155
Si V = (a, b, c) y C =

x = f (t)
y = g (t)
z = h(t)
La ecuaci´on param´etrica del cono se puede obtener con los par´ametros
t y λ como:
S =

x = a + λ ( f ( t) − a)
y = b + λ ( g (t) − b )
z = c + λ ( h (t) − c )
Para escribir la ecuaci´on reducida habr´a que eliminar los par´ametros t, λ,
para obtener una ecuaci´on del tipo
F(x,y,z) = 0.
EJEMPLO 5.2. Hallar las ecuaciones reducidas y param´etrica del cono de
v´ertice V = (0, 0, 0) y generatriz

x = sent
y = cos t
z = 1
. La ecuaci´on parametri-
zada es:

x = λ sent
y = λ cos t
z = 1 + λ
Despejando t y λ se obtiene la ecuaci´on reducida
x
2
+y
2
= (z −1)
2
.
d ) Cilindros: Se llama “cilindro” o “superficie cil´ındrica” de directriz
C y generatriz colineal al vector v = (a, b, c) a la superficie engendrada por
todas las rectas colineales al vector v que cortan a la curva C.
Si v = (a, b, c) y C =

x = f (t)
y = g (t)
z = h(t)
Un punto P = (x, y, z) pertenece al
cilindro si y s´olo si existe alg´ un punto P
0
= (x
0
, y
0
, z
0
) tal que:

P
0
∈ C
P ∈, recta por P
0
colineal a v
156 5. PRODUCTO ESCALAR Y VECTORIAL
. Entonces, las ecuaciones param´etricas del cilindro son:
S =

x = f ( t) + λa
y = g (t) + λb
z = h (t) + λc
de las que habr´a que eliminar los par´ametros t, λ, para obtener la ecuaci´on
reducida del tipo F (x, y, z) = 0.
OBSERVACI
´
ON 5.6. La curva C tambi´en puede estar dada como
C :

f (x, y, z) = 0
g (x, y, z) = 0
en cuyo caso se trabajar´a an´alogamente , pero con un par´ametro menos.
OBSERVACI
´
ON 5.7. Una ecuaci´on F (x, y, z) = 0 en la que no figura la
variable z, por ejemplo, representa un cilindro de generatrices colineales con
el eje Oz. Si P
0
= (x
0
, y
0
, z
0
) verifica la ecuaci´on F (x
0
, y
0
, z
0
) = 0, entonces
tomando x = x
0
, y = y
0
, z = z
0
+ λ (eso es la recta por P
o
colineal con
(0,0,1) ), se tiene F (x
0
, y
0
, z
0
+λ) = F (x
0
, y
0
, z
0
) = 0 porque F es, en
realidad, independiente de z. O sea: cuando P
o
est´a en la superficie, toda
la recta por la colineal al eje Oz tambi´en la est´a.
5.4. PRODUCTO VECTORIAL. 157
EJEMPLO 5.3. x
2
+y
2
= 4 es un cilindro con generatrices paralelas al
eje Oz y directriz, por ejemplo, en la circunferencia

x
2
+y
2
= 4
z = 0

5.4. Producto vectorial.
Consideremos la terna ordenada de vectores de V , {
−→
i ,
−→
j ,
−→
k }, que cons-
tituye una base de V . Estas las vamos a clasificar en dos grupos: uno formado
por las ternas {i, j, k} tales que para un observador parado en v
3
, la rotaci´on
de ´angulo convexo (o sea, de medida < π) que lleva i en j es de sentido anti-
horario; el otro formado por las ternas en las que esa rotaci´ on tiene sentido
horario.
158 5. PRODUCTO ESCALAR Y VECTORIAL
Para definir el producto vectorial necesitamos elegir uno de los dos tipos
como terna preferida. Nos quedaremos para esto con las ternas del primer
tipo que llamaremos positivas.
Esta convenci´on sirve para definir el producto vectorial como una funci´on
de V ×V en V (as´ı como el producto escalar era una funci´on de V ×V en R)
que a cada par de vectores v, w le asocia un vector, que denotaremos v ∧ w,
que cumple:
a) v ∧ w = v . w .senθ (θ ´angulo de v con w )
b) (v ∧ w) .v = 0 y (v ∧ w) .w = 0
c) Si v = 0 y w = 0 la terna {v, w, v ∧ w} es positiva.
Propiedades:
1) v ∧ w es el doble del ´area del tri´angulo determinado por esos vec-
tores.
2) v ∧w = 0 si y s´olo si v y w son colineales (en particular, si alguno de
ellos es el vector 0).
3) Respecto de la condici´on c) de la definici´on, corresponde observar que
si v ∧ w = 0 la terna {v, w, v ∧ w} es una base, pues por b) esos vectores no
son coplanares salvo que v y w sean colineales, en cuyo caso v ∧ w = 0
4) v ∧w = −(w ∧ v) ( en particular, esta operaci´on no es conmutativa)
Para verificar esto basta notar que si para cierto observador la rotaci´on del
´angulo < π que lleva v en w es de sentido antihorario, para el mismo obser-
vador la que lleva w en v es de sentido horario. De modo que el observador
debe ubicarse del lado opuesto del plano u,w para que esa rotaci´on aparezca
de sentido trigonom´etrico . Luego esa debe ser la ubicaci´on de w ∧ v para
que la terna [w, v, w ∧ v] sea positiva.
5) Este producto no es asociativo. Se puede deducir que:
(u ∧ v) ∧ w + (v ∧ w) ∧ u + (w ∧ u) ∧ v = 0
de donde, usando 4), (u ∧ v) ∧ w = u ∧ (v ∧ w) + v ∧ (w ∧ u), y como en
general v ∧ (w ∧ u) = 0, la propiedad asociativa no vale.
5.4. PRODUCTO VECTORIAL. 159
6) Para todo λ ∈ R: λ(v ∧ w) = (λv) ∧w = v ∧(λw). Esta propiedad se
deduce directamente de la definici´on en el caso λ 0. Para el caso λ < 0, hay
que observar que del hecho que la terna {v, w, v ∧ w} es positiva se deduce
que {−v, w, −(v ∧ w)} y
{v, −w, −(v ∧ w)} son tambi´en positivas.
7) El producto vectorial es distributivo respecto de la suma de vectores.
Esto es:
a) (v
1
+v
2
) ∧ w = v
1
∧ w +v
2
∧ w.
b) v ∧ (w
1
+w
2
) = v ∧ w
1
+v ∧ w
2
.
Para demostrar esta propiedad hacemos algunas observaciones previas. En
primer lugar, observamos que llamando π al plano con vector normal v e
indicando por p w la proyecci´on de w sobre ese plano, y con r(pw) el vector
que se obtiene rotando esa proyecci´on un ´angulo de medida π/2 en sentido
antihorario observado desde v, se verifica que: v ∧ w = v .r (pw) pues
r (pw) = pw = w .senθ (ver figura)
160 5. PRODUCTO ESCALAR Y VECTORIAL
Como p (w
1
+w
2
) = pw
1
+pw
2
y r (pw
1
+pw
2
) = r (pw
1
) +r (pw
2
) ten-
dremos que: v∧(w
1
∧ w
2
) = v .r (p (w
1
+w
2
))= v .r (pw
1
)+v .r (pw
2
) =
v ∧ w
1
+v ∧ w
2
.
As´ı se prueba b) y an´alogamente se obtiene a).
8) Si {i, j, k} es una base ortonormal positiva de V , entonces:
i ∧ i = j ∧ j = k ∧ k = 0;
i ∧ j = k; j ∧ k = i; k ∧ i = j
(es decir, en la sucesi´on (i, j, k, i, j, · · · ) el producto de dos vectores sucesivos
da el que le sigue):
j ∧ i = −k, k ∧ j = −i; i ∧ k = −j
9) De 4.6), 4.7) y 4.8) resulta que si v = a
1
i + a
2
j + a
3
k y w = b
1
i +
b
2
j +b
3
k. entonces:
v ∧ w = (a
2
b
3
−a
3
b
2
) i −(a
1
b
3
−a
3
b
1
) j + (a
1
b
2
−a
2
b
1
) k.
Obs´ervese que este resultado puede recordarse pensando en el desarrollo por
la primer fila de un determinante:

i j k
a
1
a
2
a
3
b
1
b
2
b
3

= (a
2
b
3
−a
3
b
2
) i −(a
1
b
3
−a
3
b
1
) j + (a
1
b
2
−a
2
b
1
) k
5.5. APLICACIONES GEOM
´
ETRICAS. 161
Esta expresi´on del producto vectorial puede tambi´en tomarse como su de-
finici´on. M´as precisamente, dada una terna ortonormal cualquiera {i,j,k}
(positiva o negativa), puede definirse el producto de dos vectores por la
expresi´on dada en 4.9). Se comprueba entonces sin dificultad que el vec-
tor: u = (a
2
b
3
−a
3
b
2
) i − (a
1
b
3
−a
3
b
1
) j + (a
1
b
2
−a
2
b
1
) k verifica u =
v . w .senθ y u.v = u.w = 0. Si adem´as {i, j, k} es una terna positiva
puede verificarse, que {v, w, u} es tambi´en positiva. Luego u = v ∧ w , por
lo tanto esta definici´on de v ∧ w coincide con la inicial.
5.5. Aplicaciones geom´etricas.
a ) Distancia de un punto a una recta: sea r una recta dada por
un punto A y un vector v. La distancia de Q a r es:
d (Q, r) = |d (Q, A) .senθ| = AQ .senθ =
AQ∧ v
v
Si A = (x
o
, y
o
, z
o
); Q = (x, y, z); v = ai + bj + ck entonces la distancia
es d(Q, r) =

[(y −y
0
)c −(z −z
0
)b]
2
+ [(x −x
0
)c −(z −z
0
)a]
2
+ [(x −x
0
)b −(y −y
0
)a]
2

a
2
+b
2
+c
2
162 5. PRODUCTO ESCALAR Y VECTORIAL
EJEMPLO 5.4. En el punto 3 de este cap´ıtulo se vieron algunas super-
ficies de revoluci´on particulares. Sea r

x = y
z = 0
C :

x = 0
zy = 1
. Hallar la
superficie de revoluci´on de eje r y generatriz C.
Las ecuaciones son:

x
0
= 0, P
0
∈ C
z
0
y
0
= 1, P
0
∈ C
x −x
0
+y −y
0
= 0, plano, π, por, P
0
⊥r
2z
2
+ (x −y)
2
= 2z
2
0
+ (x
0
−y
0
)
2
, dist (P, r) = dist (P
0
, r)
eliminando x
0
, y
0
, z
0
resulta (x +y)
2

z
2
−2xy

= 1
b)Intersecci´on de dos planos no paralelos:
Sea r :

ax +by +cz +d = 0
a

x +b

y +c

z +d

= 0
una recta (dada como intersecci´on
de dos planos no paralelos). Supongamos que queremos las ecuaciones pa-
ram´etricas de esa recta, es decir, las de la forma: x = x
0
+ λp, y = y
0
+
λq, z = z
0
+ λr (o tambi´en P = P
0
+ λv). Para esto se necesita hallar un
punto P
0
= (x
0
, y
0
, z
0
) de la recta y un vector v = p i +q j +r k de la direc-
ci´on de r. Esto se puede hacer sin usar el producto vectorial, resolviendo el
sistema de ecuaciones

ax +by +cz +d = 0
a

x +b

y +c

z +d

= 0
Usando el producto vectorial: tomar P
0
= (x
0
, y
0
, z
0
) una soluci´on parti-
cular del sistema de ecuaciones. Si el sistema de coordenadas es ortogonal,
entonces: n = ai +bj +ck y n

= a

i +b

j +c

k son vectores normales a los
planos, y entonces n ∧ n

es un vector de la intersecci´on de ambos planos
(luego, est´a en la direcci´on de la recta de intersecci´on de ambos).
Luego: n∧n

= (bc

−b

c) i−(ac

− ca

) j +(ab

−ba

) k es de la direcci´on
de r.
5.5. APLICACIONES GEOM
´
ETRICAS. 163
c ) Distancia entre dos rectas: Se define la distancia d (r, r

) entre
dos rectas r, r

como el m´ınimo de d (P, P

) donde P ∈ r y P

∈ r

.
Es claro que este m´ınimo se obtiene cuando la recta PP

es perpendicular
al mismo tiempo a r y a r

. Sea r dada por un punto A ∈ r y un vector v
de su direcci´on y r

por B ∈ r y un vector w.
Para tener d (r, r

): si r y r’ son paralelas: basta tomar el punto A y
hallar dist (A, r

); si r y r

se cortan: d (r, r

)= 0.
Supongamos ahora que r y r’ no son coplanares. Si s es la perpendicular
com´ un , P
o
= s ∩ r y P

0
= s∩r

, entonces: d (r, r

) = d

P
0
, P

0

= d (A, π)
donde π es el plano paralelo a r que contiene a r’. (ver figura) . Como versor
164 5. PRODUCTO ESCALAR Y VECTORIAL
de la direcci´on de s puede tomarse n =
v∧w
v∧w
. Luego :
d

r, r

= d (A, π) =
1
v ∧ w

(v ∧ w) .
−−→
AB

d ) Perpendicular com´ un a dos rectas: Si las dos rectas son pa-
ralelas, una perpendicular com´ un es la recta perpendicular a una de ellas
trazada por un punto de la otra. Si se interceptan , el problema es tambi´en
f´acil de resolver. Supongamos ahora que las dos rectas no son coplanares.
La perpendicular com´ un s est´a en el plano π de s y r, y en el π’ determi-
nado por s y r

. Luego s = π ∩ π

. Dada la direcci´on v de r y la w de r’,
y A ∈ r, B ∈ r

, el plano π queda determinado por A,v y v ∧ w. El π’ por
B,w,v ∧w, pues v ∧w es un vector de la direcci´on de s. Las ecuaciones de π
y π’ as´ı obtenidas constituyen un par de ecuaciones que representan la recta
s.
e ) Volumen de un tetraedro: Consideremos un tetraedro dado por
sus v´ertices A, B, C, D. Su volumen es V =
1
3
´area de la base × altura.
Tendremos: ´area base = 1/2 (B −A) ∧ (C −A).
Si n es el versor normal a la base, la altura es |n. (D −A)| con n =
(B−A)∧(C−A)
(B−A)∧(C−A)
. Luego V = 1/6. (B −A) ∧ (C −A) .
|[(B−A)∧(C−A)].(D−A)|
(B−A)∧(C−A)
por lo que V = 1/6. |[(B −A) ∧ (C −A)] . (D −A)|
5.6. PRODUCTO MIXTO 165
5.6. Producto mixto
Es una operaci´on definida de V × V × V en R. Dados tres vectores
u, v, y w, llamamos producto mixto al n´ umero (v ∧ w) .u que indicamos v ∧
w.u, o tambi´en u. (v ∧ w). Consideremos un sistema ortonormal {i, j, k} y
sean:
v = a
1
i +a
2
j +a
3
k, w = b
1
i +b
2
j +b
3
k, u = c
1
i +c
2
j +c
3
k.
Entonces:
v ∧ w =

a
2
a
3
b
2
b
3

i −

a
1
a
3
b
1
b
3

j +

a
1
a
2
b
1
b
2

k.
v ∧ w.u =

a
2
a
3
b
2
b
3

c
1

a
1
a
3
b
1
b
3

c
2
+

a
1
a
2
b
1
b
2

c
3
=

c
1
c
2
c
3
a
1
a
2
a
3
b
1
b
2
b
3

(Por desarrollo por la primer fila de ese determinante)
Usando el hecho de que si se permutan dos filas de una matriz entre s´ı el
determinante s´olo cambia de signo, resulta que dos de esas permutaciones
no cambian el determinante; luego:

c
1
c
2
c
3
a
1
a
2
a
3
b
1
b
2
b
3

=

b
1
b
2
b
3
c
1
c
2
c
3
a
1
a
2
a
3

=

a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3

166 5. PRODUCTO ESCALAR Y VECTORIAL
En consecuencia: (v ∧ w) .u = (u ∧ v) .w = (w ∧ u) .v. Es decir, que en la
sucesi´on (u,v,w,u,v,w) el producto vectorial de dos vectores sucesivos mul-
tiplicado escalarmente por el siguiente, da lo mismo cualesquiera sean los
tres vectores sucesivos. Se puede entonces hablar del producto mixto de
u, v, w sin indicar si se trata de (u ∧ v) .w o de u. (v ∧ w), pues el resul-
tado es el mismo. Es por esto que se escribe (u,v,w) como notaci´on para
(u ∧ v) .w = u. (v ∧ w).
Observamos que (v,w,u) = 0 si y s´olo si ´ang(v ∧ w, u) = π/2 o alguno
de los vectores es el nulo. Como ´ang (v ∧ w, v) = ´ang (v ∧ w, w) = π/2 ,
para que (v,w,u) = 0 es necesario y suficiente que v, w y u sean coplanares.
(Obs´ervese que esto podr´ıa sacarse como conclusi´on del c´alculo del volumen
del tetraedro. (v, w, u) = 0 si y s´olo si el volumen del tetraedro determina-
do por esos vectores es 0, esto es equivalente a decir que los vectores son
coplanares).
Esta condici´on permite escribir la ecuaci´on vectorial del plano dado por
tres puntos A, B, C en otra forma. Decir que P pertenece a ese plano equivale
a decir que los vectores P − A, B − A y C − A son coplanares, o sea (P −
A, B −A, C −A) = 0.
Pasando a coordenadas, si P=(x,y,z),A=(a
1
, a
2
, a
3
), B = (b
1
, b
2
, b
3
) y
C = (c
1
, c
2
, c
3
) esta ecuaci´ on se escribe:

x −a
1
y −a
2
z −a
3
b
1
−a
1
b
2
−a
2
b
3
−a
3
c
1
−a
1
c
2
−a
2
c
3
−a
3

= 0, ´o tambi´en:

x y z 1
a
1
a
2
a
3
1
b
1
b
2
b
3
1
c
1
c
2
c
3
1

= 0.
Para ver esto obs´ervese que si se le resta la 2da. fila a la 1ra., la 3da. y la
4ta. filas, el determinante no cambia. As´ı se tiene:

x −a
1
y −a
2
z −a
3
0
a
1
a
2
a
3
1
b
1
−a
1
b
2
−a
2
b
3
−a
3
0
c
1
−a
1
c
2
−a
2
c
3
−a
3
0

=

x −a
1
y −a
2
z −a
3
b
1
−a
1
b
2
−a
2
b
3
−a
3
c
1
−a
1
c
2
−a
2
c
3
−a
3

= 0.
CAP´ıTULO 6
ESPACIOS VECTORIALES
En este Cap´ıtulo se introducir´a el concepto b´asico de este curso, que
es el del t´ıtulo . Trataremos de hacer hincapi´e en las nociones geom´etricas
simples que son comunes a otras ramas de la matem´atica y motivar en todo
lo posible en base al concepto de vectores en el espacio ambiente E estudiado
en el cap´ıtulo sobre Rectas y planos en el espacio.
En muchas ramas de la matem´atica aparecen conjuntos entre cuyos ele-
mentos se realizan combinaciones lineales. Ya hemos visto tres ejemplos de
esto en nuestro curso: las matrices, las n-uplas y los vectores del espacio
ambiente. Pero el lector puede recordar otros ejemplos como las funciones
continuas y los polinomios con los cual tambi´en se opera. En los ejemplos
desarrollados hasta el momento se hizo notar que muchos de los resultados
obtenidos solo depend´ıan de las propiedades que ten´ıan las operaciones y
no de otras particularidades del ejemplo en cuesti´on. Tambi´en hemos ob-
servado que estas propiedades son las mismas en los tres casos abordados
hasta ahora. Eso nos motiva a intentar un desarrollo abstracto de la teor´ıa.
Es decir a introducir un conjunto arbitrario con cuyos elementos se supone
se puede operar con propiedades an´alogas a las que por ejemplo tienen las
operaciones con n-uplas. De este modo se desarrolla de una sola vez una
teor´ıa que puede aplicarse a m´ ultiples y a priori dis´ımiles ejemplos. Natu-
ralmente los ejemplos que nos motivaron y ser´an una constante fuente de
inspiraci´on para encontrar las definiciones, enunciados y demostraciones de
nuestra teor´ıa.
En particular el lector podr´a recurrir frecuentemente a motivaciones ba-
sadas en los vectores de E, en las ternas de n´ umeros o en las matrices, pero
167
168 6. ESPACIOS VECTORIALES
el objeto en estudio es un concepto abstracto, mucho m´as general, cuya
comprensi´on y manejo fluido es una de las finalidades principales de este
curso.
Un concepto fundamental que re-aparecer´a en este cap´ıtulo es el de in-
dependencia lineal, cuya definici´on ya hemos establecido antes y que parece
particularmente simple, pero cuya comprensi´on en toda su riqueza -nuestra
experiencia lo indica- merece una atenci´on especial. Realizar muchos ejerci-
cios con este nuevo concepto abstracto, comprender bien como se le utiliza en
diversas demostraciones, es una recomendaci´on que hacemos amistosamente
al lector.
6.1. Espacios vectoriales
DEFINICI
´
ON 6.1. Un espacio vectorial sobre un cuerpo K (que en este
curso ser´a el de los n´ umeros reales R, o el de los n´ umeros complejos C), es
una cu´adrupla ordenada {V, K, +, ·}
1) Un conjunto V = ∅ cuyos elementos se llamar´an vectores.
2) El cuerpo K, cuyos elementos se llamar´an escalares.
3) Una operaci´on llamada suma de vectores, y denotada con el s´ımbolo
+ cuyo dominio es el producto cartesiano V × V y cuyo codominio es V
( + : V × V → V quiere decir que u+v est´a definida para todo par (u,v)
∈ V ×V y da como resultado un elemento V ) .
4) Una operaci´on llamada producto de un escalar por un vector, y de-
notada con el s´ımbolo · ; cuyo dominio es K × V y cuyo codominio es
V (· : K×V →V ), que verifica las siguientes propiedades:
Para la suma:
S1) Asociativa: (u +v) +w = u + (v +w) ∀ u, v, w ∈ V
S2) Conmutativa: u +v = v +u ∀ u, v ∈ V
S3) Neutro: Existe un elemento

0 ∈ V , llamado “vector nulo
2
denotado
con

0, tal que

0 +u = u +

0 = u, ∀u ∈ V.
6.1. ESPACIOS VECTORIALES 169
S4) Opuesto: Para cada vector u ∈ V , existe un vector llamado “opuesto
de u”, denotado como −u, tal que u + (−u) = (−u) +u =

0.
Para el producto:
P1) α. (β.u) = (α.β) .u
P2) Multiplicaci´on por la unidad del cuerpo: 1.u = u, ∀ u ∈ V
P3) Distributiva respecto de suma de vectores:α. (u +v) = α.u+α.v , ∀ ∈
K, ∀ u, v ∈ V
P4) Distributiva respecto de suma de escalares (α +β) .u = α.u +
β.u , ∀α, β ∈ K, ∀ u ∈ V
OBSERVACI
´
ON 6.1. En P4) la suma de escalares (suma dentro de K) se
escribi´o con el s´ımbolo + pero no hay que confundirla con la suma dentro
de V , que se representa tambi´en con el s´ımbolo +.
OBSERVACI
´
ON 6.2. El lector comparar´a estas propiedades de la defi-
nici´on de espacio vectorial con las propiedades de los vectores de E, de las
n-uplas de n´ umeros reales, o de las matrices con sus operaciones de suma y
producto por un escalar.
PROPOSICI
´
ON 6.3. En todo espacio vectorial {V, K, +, ·}se cumple:
1) el neutro es ´ unico.
2) Para cada vector u ∈ V su opuesto −u es ´ unico..
Demostraci´ on. 1) Sean

0
1
y

0
2
dos neutros:

0
1
=

0
1
+

0
2
=

0
2
, luego son
iguales.
2) Sean (−u)
1
y (−u)
2
dos opuestos de u:
(−u)
1
=

0 + (−u)
1
= ((−u)
2
+u) + (−u)
1
= (−u)
2
+ (u + (−u)
1
) =
(−u)
2
+

0 = (−u)
2
, luego coinciden.
OBSERVACI
´
ON 6.4. A los espacios vectoriales sobre R se los llamar´a es-
pacios vectoriales reales, o R–espacios vectoriales. A los espacios vectoriales
sobre C, espacios vectoriales complejos, o C–espacios vectoriales. A veces,
170 6. ESPACIOS VECTORIALES
por abuso de lenguaje los espacios vectoriales se indican por el conjunto de
vectores V , sobreentendiendo el cuerpo K y las operaciones + y ·.
6.2. Ejemplos de espacios vectoriales
EJEMPLO 6.1. Si V es el conjunto de vectores del espacio, K = V y las
operaciones + y · son las definidas en el cap´ıtulo 2, obtenemos un espacio
vectorial real.
EJEMPLO 6.2. V es el conjunto de ternas ordenadas de n´ umeros reales
V = R
3
y K =R y definimos las operaciones + y · como sigue:
suma: (a
1
, a
2
, a
3
) + (b
1
, b
2
, b
3
)
def
= (a
1
+b
1
, a
2
+b
2
, a
3
+b
3
)
producto: λ · (a
1
, a
2
, a
3
)
def
= (λ.a
1
, λ.a
2
, λ.a
3
) para todo λ ∈ R y todas las
ternas de R
3
.
Notaci´on: El s´ımbolo
def
= quiere decir que el miembro de la izquierda
esta siendo definido mediante la expresi´on de la derecha.
EJEMPLO 6.3. En general si V es el conjunto de las n-uplas ordenadas
de n´ umeros reales, V = R×R×. . . ×R = R
n
,K = R y las operaciones son:
(a
1
, a
2
, . . . , a
n
) + (b
1
, b
2
, . . . , b
n
)
def
= (a
1
+b
1
, a
2
+b
1
, . . . , a
n
+b
1
) y adem´as
λ · (a
1
, a
2
, . . . , a
n
)
def
= (λ.a
1
, λ.a
2
, . . . , λ.a
n
). Es f´acil ver que {R
n
, R, +, ·} es
un espacio vectorial sobre R, con

0 = (0, 0, · · · , 0) y −(a
1
, a
2
, · · · , a
n
) =
(−a
1
, −a
2
, · · · , −a
n
). Las operaciones definidas en este ejemplo se llaman
usuales de R
n
.
6.2. EJEMPLOS DE ESPACIOS VECTORIALES 171
EJEMPLO 6.4. Sea V el conjunto de las sucesiones de n´ umeros reales,
K = R, y las operaciones + y · definidas como sigue:
Dadas {a
n
} y {b
n
}∈ V , y dado λ ∈ R:
{a
n
} +{b
n
}
def
= (a
1
+b
1
, a
2
+b
2
, ..., a
n
+b
n
, ...) = {a
n
+b
n
}
(la suma de dos sucesiones es definida como la sucesi´on que se obtiene su-
mando los t´erminos n-´esimos de las sucesiones dadas),
λ · {a
n
} = λ · (a
1
, a
2
, . . . , a
n
)
def
= (λ · a
1
, λ · a
2
, . . . , λ · a
n
) = {λ · a
n
}
Es f´acil comprobar que es un espacio vectorial real . El vector nulo es
la sucesi´on que tiene todos sus t´erminos iguales a cero. Se verifica adem´as
−{a
n
} = {−a
n
}
EJEMPLO 6.5. Sea P el conjunto de todos los polinomios en una variable
con coeficientes reales, sea K = R, y sean la suma usual de polinomios y el
producto usual de un n´ umero por un polinomio. {P, R, +, ·} es un R–espacio
vectorial.
EJEMPLO 6.6. El conjunto de todas las funciones f : [a, b] → R, forma
un R-espacio vectorial, con las operaciones usuales de suma de funciones y
producto de un n´ umero real por una funci´on. Es decir:
f+g
def
= h donde h( x)
def
= f(x)+g(x) ∀x ∈ [a, b].
λ · f
def
= k donde k (x)
def
= λf (x) ∀ x ∈ [a, b] .
EJEMPLO 6.7. El conjunto de las n-uplas ordenadas de n´ umeros comple-
jos V = C
n
con las operaciones definidas como en el ejemplo 6.3 tomando
K = C forma un C-espacio vectorial {C
n
, C, +, ·)}.
172 6. ESPACIOS VECTORIALES
EJEMPLO 6.8. Si K = R, y las operaciones en C
n
se definen en forma
an´aloga al ejemplo anterior (y en forma an´aloga al ejemplo 6.3), resulta
C
n
, R, +, ·} un espacio vectorial real (distinto del ejemplo 6.7 , puesto que
difieren en el cuerpo K).
EJEMPLO 6.9. Las sucesiones de n´ umeros complejos con la suma de su-
cesiones y el producto de una sucesi´on por un n´ umero complejo definidos en
forma similar al ejemplo 6.4 constituyen un C-espacio vectorial.
OBSERVACI
´
ON 6.5. En todos los ejemplos anteriores, para verificar que
efectivamente son espacios vectoriales, hay que verificar que se cumplen las
propiedades incluidas en la definici´on 1.1, para la suma y el producto por
escalares.
EJEMPLO 6.10. Sea V el conjunto de sucesiones de n´ umeros complejos.
Si K = R, + : V × V → V y · : R × V → V, operaciones ´estas definidas
an´alogamente al ejemplo 6.4 Entonces {V, R, +, ·} es un R-espacio vectorial
distinto al del ejemplo 6.4 y la del ejemplo 6.9
EJEMPLO 6.11. El conjunto {

0} es un K-espacio vectorial, donde se define

0+

0=

0 y α ·

0 =

0 , ∀ α ∈ K.
EJEMPLO 6.12. El conjunto de los polinomios de grado menor o igual a
n, en una variable x (este conjunto se indica con P
n
), K = R, y la suma
y producto por un real definido como en el ejemplo 6.5, forman un espacio
vectorial real.
6.2. EJEMPLOS DE ESPACIOS VECTORIALES 173
EJEMPLO 6.13. El conjunto de los polinomios en una variable x, de grado
igual a n, con coeficientes reales, K = R y la suma y el producto defini-
dos como en el ejemplo 6.5, no forman un espacio vectorial ( Estudiar por
qu´e no).
EJEMPLO 6.14. Con las operaciones usuales {R, C, +, ·} no es un espacio
vectorial.
OBSERVACI
´
ON 6.6. Se denota u −v a la suma u + (−v) con u, v ∈ V .
PROPOSICI
´
ON 6.7. 0 · u =

0 , ∀u ∈ V
Demostraci´ on. 0 · u = 0 · u +

0 = 0 · u + (u −u) = (0 · u + 1 · u) −u =
(0 + 1) · u −u = 1 · u −u = u −u =

0
PROPOSICI
´
ON 6.8. α ·

0 =

0 , ∀α ∈ K
Demostraci´ on. Sea u un vector cualquiera de V,

0 = α · u −α · u =
= α ·

0 +u

−α · u =

α ·

0 +α · u

−α · u = α ·

0 + (α · u −α · u) =
= α ·

0 +

0 = α ·

0.
PROPOSICI
´
ON 6.9. Sean α ∈ K, u ∈ V . Entonces , α · u =

0 si y s´ olo
si : α = 0 y/o u =

0.
Demostraci´ on. Directo: Supongamos que α = 0. Como α · u =

0,
1
α
·
(α · u) =
1
α
·

0 de donde

1
α
· α

· u =

0, o sea 1 · u =

0 entonces, u =

0.
Rec´ıproco: son las Proposiciones 6.7 y 6.8.
PROPOSICI
´
ON 6.10. (−1) .v = −v ∀v ∈ V
Demostraci´ on. Basta ver que (−1) v es el opuesto de v, es decir
v + (−1) .v = 1.v + (−1) v = (1 + (−1)) v = 0.v =

0
174 6. ESPACIOS VECTORIALES
6.3. Subespacios
DEFINICI
´
ON 6.2. Sea {V, K, +, ·} un espacio vectorial y W = ∅ un
subconjunto no vacio de V. Diremos que W es un subespacio de V, si se
cumple:
a) w
1
+ w
2
∈ W para todo w
1
∈ W y w
2
∈ W
b) λw ∈ W para todo w ∈ W y λ ∈ K
Es decir, un subespacio de un espacio vectorial es un conjunto no vac´ıo,
“cerrado” frente a la suma y al producto de escalares por vectores.
OBSERVACI
´
ON 6.11. Si W es un subespacio, entonces

0 ∈ W. En efecto
como W = ∅ existe w ∈ W y como W es cerrado para la multiplicaci´on por
escalares λw ∈ W, ∀λ ∈ K. En particular 0.w =

0 ∈ W. La ´ ultima igualdad
es consecuencia de la Proposici´on 6.7.
EJEMPLOS DE SUBESPACIOS VECTORIALES
EJEMPLO 6.15. Los primeros ejemplos y los m´as sencillos, de subespa-
cio vectoriales, son los llamados subespacios triviales. Uno de ellos es
W =

0
¸
(conjunto formado por un ´ unico elemento, el vector nulo). El otro
subespacio trivial es W = V . En ambos casos, W es subespacio de V .
EJEMPLO 6.16. Sea π un plano del espacio por el origen.
π = {(x, y, z) ∈ R
3
: ax +by +cz = 0}.
Entonces π es un subespacio de R
3
En efecto π = ∅, pues

0 = (0, 0, 0) ∈ π y
es cerrado para las operaciones. Sean p
1
= (x
1
, y
1
, z
1
) y p
2
= (x
2
, y
2
, z
2
) dos
puntos de π y λ un escalar cualquiera. Verifiquemos primero que la suma es
cerrada
p
1
+p
2
= (x
1
, x
2
, x
3
) + (x
2
, y
2
, z
2
) = (x
1
+x
2
, y
1
+y
2
, z
1
+z
2
) = q
6.3. SUBESPACIOS 175
y q ∈ π. Para ver que el elemento q pertenece al conjunto π es necesario, dado
que ´este esta definido por comprensi´on, verificar que q cumple las condici´on
l´ogica de pertenencia, esto es sus coordenadas deben verificar la ecuaci´on
ax +by +cz = 0
a(x
1
+x
2
)+b(y
1
+y
2
)+c(z
1
+z
2
) =
=0, pues p
1
∈π
. .. .

ax
1
+by
1
+cz
1

+
=0, pues p
2
∈π
. .. .

ax
2
+by
2
+cz
2

= 0
Veamos ahora que π es cerrado para la multiplicaci´on por escalares.
λp
1
= λ(x
1
, y
1
, z
1
) = (λx
1
, λy
1
, λz
1
) = q

y q

∈ π pues
a(λx
1
) +b(λy
2
) +c(λz
1
) = λ
=0, pues p
1
∈π
. .. .

ax
1
+by
1
+cz
1

= 0
Si en cambio se considera un plano π que no pase por el origen entonces su
ecuaci´on ser´a ax +by + cz = d con d = 0. Obs´ervese que π = ∅ pero

0 / ∈ π
en consecuencia no es un subespacio. Es adem´as f´acil ver que no es cerrado
para las operaciones si p
1
y p
2
son dos puntos de π su suma q = p
1
+ p
2
no pertenece a π tal como se ve en el dibujo. Compruebe el lector esto
anal´ıticamente.
p
1
p
2

0
π
q = p
1
+p
2
176 6. ESPACIOS VECTORIALES
EJEMPLO 6.17. Sea r un recta por el origen entonces r es un subespacio
vectorial de R
3
.
r = {(x, y, z) ∈ R
3
: ax +by +cz = 0; a

x +b

y +c

z = 0}
Obs´ervese que (x, y, z) ∈ r si y solo si

a b c
a

b

c

¸
¸
x
y
z
¸

=

0
0

(6.42)
Sean p
1
= (x
1
, y
1
, z
1
) y p
2
= (x
2
, y
2
, z
2
) dos puntos de r y λ ∈ R entonces
q = p
1
+ p
2
pertenece a r, para verificar esto veremos que las coordenadas
de q = (x
1
+x
2
, y
1
+y
2
, z
1
+z
2
) verifican la condici´on 6.42

a b c
a

b

c

¸
¸
x
1
+x
2
y
1
+y
2
z
1
+z
2
¸

=

a b c
a

b

c

¸
¸

¸
¸
x
1
y
1
z
1
¸

+

¸
¸
x
2
y
2
z
2
¸

¸

=
=

a b c
a

b

c

¸
¸
x
1
y
1
z
1
¸

. .. .
=(
0
0
), pues p
1
∈r
+

a b c
a

b

c

¸
¸
x
2
y
2
z
2
¸

. .. .
=(
0
0
), pues p
2
∈r
=

0
0

El lector verificara que λp
1
= q

∈ r.
Es claro que para verificar que p
1
+p
2
pertenece a r s´olo tuvimos que usar
la propiedad distributiva del producto de matrices por lo tanto en general si
A ∈ M
m×n
es una matriz cualquiera y S = {X ∈ R
n
: A·X =

0} ⊂ R
n
es
el conjunto soluci´on del sistema homog´eneo de matriz A entonces S es un
subespacio de R
n
.
De hecho veremos m´as adelante que el rec´ıproco es verdadero. Es decir que
si S es un subespacio cualquiera de R
n
existe A ∈ M
m×n
tal que S es el
conjunto soluci´on del sistema homog´eneo AX =

0.
Es correcto, entonces afirmar que los subespacios de R
n
son exactamente los
conjuntos soluci´on de los sistemas homog´eneos de ecuaciones.
Por otra parte, desde un punto de vista m´as geom´etrico es natural entonces
6.3. SUBESPACIOS 177
pensar esquem´aticamente los subespacios de R
n
(y de hecho, como veremos
m´as adelante, los de un espacio vectorial de dimensi´on finita cualquiera
1
como la generalizaci´on de los planos y rectas por el origen de E.
EJEMPLO 6.18. En {R
3
, R, +, ·} W=
¸
(a
1
, a
2
, a
3
) ∈ R
3
tales que a
3
= 0
¸
entonces W es un subespacio de V.
EJEMPLO 6.19. En {R
n
, R, +, ·} sea W = {(a
1
, ..., a
n
) ∈ R
n
: a
i
= 0} con
i fijo 0 < i n, es decir W es el conjunto de las n-uplas con la i-´esima
componente nula. Entonces W es un subespacio de R
n
.
EJEMPLO 6.20. En las sucesiones de n´ umeros reales (ejemplo 6.4) sea W
el conjunto formado por las sucesiones que a partir de alg´ un t´ermino, tienen
todos los t´erminos restantes iguales a cero.
Verificar que W es un subespacio del espacio vectorial V.
EJEMPLO 6.21. Sea P el espacio vectorial de los polinomios definido en el
ejemplo 6.5. Sea P
n
el subconjunto de los polinomios de grado menor o igual
que n. Entonces P
n
es un subespacio de P. N´otese que si consideramos s´olo
el conjunto de polinomios de grado exactamente n con n ≥ 1 no constituyen
subespacio de P pues el polinomio nulo tiene grado 0.
EJEMPLO 6.22. Sea V el espacio vectorial del ejemplo 6.6, y sea C[a, b]
el conjunto de las funciones f que son continuas. f : [a, b] → R. Entonces
C[a, b] es un subespacio de V. Recordar que la suma de funciones continuas
es una funci´on continua, as´ı como tambi´en lo es el producto de una funci´on
continua por un escalar.
1
Para entender que es un espacio de dimensi´on finita v´ease m´as adelante la definici´on
6.8)
178 6. ESPACIOS VECTORIALES
EJEMPLO 6.23. En el espacio de las n-uplas de complejos (ejemplo 6.7)
sea W un subconjunto de las n-uplas cuya suma de t´erminos da cero. Se
puede verificar que es un subespacio de C
n
.
EJEMPLO 6.24. En el espacio del ejemplo 6.7 {C
n
, C, +, ·} sea W el sub-
conjunto de las n-uplas cuyo primer t´ermino es 5+2i . Este subconjunto W
no es un subespacio, porque al sumar dos elementos de W, el resultado no
pertenece a W.
EJEMPLO 6.25. Sea {C
n
, R, +, ·} el espacio vectorial del ejemplo 6.8 Sea
W’ el subconjunto formado por las n-uplas de n´ umeros complejos cuyos
t´erminos tienen parte real igual a cero. Es un subespacio. En este ejemplo es
importante que el cuerpo Ksea R y no C. Observar que el mismo subconjunto
W’, considerado como subconjunto del espacio vectorial {C
n
, C, +, ·} no es
un subespacio.
EJEMPLO 6.26. En el ejemplo 6.9 de las sucesiones de n´ umeros complejos
sobre el cuerpo C, con las operaciones usuales, sea W el subconjunto de
las sucesiones que tienen igual a cero los t´erminos que est´an en lugar par:
W = {{a
n
} : a
n
∈ C, a
2k
= 0}. Entonces W es un subespacio.
TEOREMA 6.12. Si W es un subespacio de {V, K, +, ·} entonces {W, K, +, ·}
con las operaciones + y · “heredadas”de V, es un espacio vectorial sobre el
mismo cuerpo K.
Demostraci´ on. Hay que probar que si {V, K, +, ·} es espacio vectorial y
W ⊂ V es subespacio de V entonces {W, K, +, ·} tambi´en es un espacio
vectorial es decir se cumplen todas las condiciones de la definici´on 6.1. Las
operaciones + y · en W son las mismas que en V s´olo que restringidas a W
(esto es definidas s´olo para los elementos de W).
Como W es cerrado para las operaciones estas quedan bien definidas es decir
6.3. SUBESPACIOS 179
+ : W×W →W y · : K×W →W. Por otra parte las propiedades asociativa
y conmutativa de la suma y todas las del producto se verifican en W pues
se verificaban para cualesquiera vectores de V y W ⊂ V .
Adem´as en la observaci´on 6.11 vimos que

0 ∈ W y como

0 +v = v +

0 = v,
∀v ∈ V entonces tambi´en ser´a esto cierto ∀v ∈ W pues W es un subconjunto
de V . Por lo tanto la suma en W tiene neutro. Resta entonces s´olo verificar
la existencia del opuesto. Naturalmente que si w ∈ W ⊂ V es un elemento
cualquiera de W entonces tambi´en lo es de V y por lo tanto existe −w ∈ V ,
pero a priori podr´ıa ocurrir que −w / ∈ W. Veremos que esto no es posible si
W es no vac´ıo y cerrado para las operaciones, en efecto sea w ∈ W, como W
es cerrado para las operaciones se tiene que λw ∈ W, ∀λ ∈ K, en particular
si λ = −1. Por lo tanto (−1)w = −w ∈ W. En ´esta ´ ultima igualdad se uso
la proposici´on 6.10. Esto prueba la existencia del opuesto en W y concluye
la prueba.
OBSERVACI
´
ON 6.13. Este teorema permite ver en forma f´acil si un cierto
conjunto W sobre un cuerpo K, con ciertas operaciones + y · es un espacio
vectorial. En efecto, en lugar de verificar todas las condiciones de la definici´on
6.1, alcanza ver si W es un subespacio de alg´ un V, que ya se sepa tiene
estructura de espacio vectorial. Para lo cual alcanza con probar que W es
cerrado con respecto a la suma y cerrado con respecto al producto de un
escalar por un vector.
TEOREMA 6.14. Sean W
1
, W
2
, ..., W
n
, subespacios de un mismo espacio
V. Entonces W =
n

i=1
W
i
es tambi´en un subespacio de V.
Demostraci´ on. En primer lugar W = ∅; en efecto: el vector

0 pertenece a
todos los subespacios W
i
, y por lo tanto pertenece tambi´en a su intersecci´on
W.
Adem´as W ⊂ V puesto que W ⊂ W
i
⊂ V ∀ i = 1, 2, ..., n
180 6. ESPACIOS VECTORIALES
Falta probar que W es cerrado frente a la suma de vectores y al producto
de un escalar por un vector. Sean w y w

∈ W, entonces w y w

∈ W
i
para
cada i = 1, 2, ..., n. Luego w + w

∈ W
i
∀ i = 1, 2, ..., n (puesto que W
i
son
subespacios). Entonces w +w

∈ W.
Ahora sean α ∈ K y w ∈ W. Se tiene w ∈ W
i
∀ i = 1, 2, ..., n. De
all´ı α·w ∈ W
i
∀ i = 1, 2, ..., n (puesto que W
i
son subespacios). Entonces α·w
pertenece a la intersecci´on de todos los W
i
, o sea a W.
6.4. Subespacio generado e independencia lineal
En esta Secci´on daremos definiciones de combinaci´on lineal, dependencia
e independencia lineal de vectores en espacios vectoriales cualesquiera, que
generalizan los conceptos vistos en el Cap´ıtulo 2
DEFINICI
´
ON 6.3. Sea V un espacio vectorial, v
1
, v
2
, ..., v
n
vectores de V.
Decimos que v es combinaci´on lineal (c.l.) de v
1
, v
2
, ..., v
n
cuando existen
escalares λ
1
, λ
2
, ..., λ
n
tales que : v = λ
1
v
1

2
v
2
+... +λ
n
v
n
Si A es un subconjunto no vac´ıo de V, se indica con [A] al conjunto de
todas las combinaciones lineales de elementos de A, es decir:
[A] =
¸
v ∈ V tales que : v = λ
1
v
1
+... +λ
p
v
p
con λ
i
∈ K, v
i
∈ A ∀i
¸
.
TEOREMA 6.15. Sean V un espacio vectorial y A = ∅, A ⊂ V . Entonces
[A] es un subespacio de V.
Demostraci´ on. [A] es distinto de vac´ıo porque dado alg´ un vector v de A,
se tiene

0 = 0·v ⇒

0 es combinaci´on lineal de v ⇒

0 ∈ [A]. Sean ahora v,w
∈ [A]. Esto quiere decir que existen vectores v
1
, v
2
, ..., v
n
; w
1
, w
2
, ..., w
m
pertenecientes a A (no necesariamente distintos) y existen α
1
, α
2
, ..., α
n
;
β
1
, β
2
, ..., β
m
tales que v = α
1
v
1

2
v
2
+... +α
n
v
n
y w = β
1
w
1

2
w
2
+... +
β
m
w
m
. Entonces v+w = α
1
v
1

2
v
2
+... +α
n
v
n

1
w
1

2
w
2
+... +β
m
w
m
.
O sea, v + w es combinaci´ on lineal de elementos de A. Hasta ahora hemos
probado que [A] es cerrado respecto a la suma.
6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL 181
Sea ahora λ ∈ K y sea v ∈ [A]. Existen escalares α
1
, α
2
, ..., α
n
y vectores
v
1
, v
2
, ..., v
n
∈ A, tales que: v = α
1
v
1

2
v
2
+... +α
n
v
n
Entonces: λ·v = λ· (α
1
v
1

2
v
2
+... +α
n
v
n
) = (λ·α
1
) v
1
+...+(λ·α
n
) v
n
y obtenemos que λv tambi´en es combinaci´on lineal de vectores de A. O sea,
[A] es cerrado respecto al producto de un escalar por un vector. Luego, [A]
es un subespacio.
DEFINICI
´
ON 6.4 (Subespacio generado). Sea V un espacio vectorial, A
un subconjunto de V. Decimos que [A] es el subespacio generado por A.
DEFINICI
´
ON 6.5 (Conjunto generador). Sea V un espacio vectorial y
S ⊂ V un subespacio decimos que A ⊂ S es un generador de S si [A] = S.
Es decir si cualquier elemento de S es combinaci´on lineal de A. (ver defini-
ci´on 6.3).
Notaci´on: Si A es un generador de S pondremos A
g
−→S
EJEMPLO 6.27. Sea V = R
3
y A = {(1, 0, 0), (0, 1, 0)} ¿A
g
−→V ?.
Sea v = (a, b, c) ∈ R
3
un vector cualquiera de R
3
para que A genere a R
3
debemos poder escribir v como combinaci´on lineal de A cuales quiere sean
a,b y c. Sea α
1
y α
2
reales tales que
(a, b, c) = α
1
(1, 0, 0) +α
2
(0, 1, 0) ⇐⇒

α
1
= a
α
2
= b
0 = c
Es claro que el sistema anterior es compatible si y solo si c = 0 entonces A
no genera R
3
.
EJEMPLO 6.28. Sea V = R
3
y S = {(a, b, c) ∈ R
3
: c = 0} determinar
un generador de S.
Como v ∈ R
3
si y solo si existen a y b reales tal
v = (a, b, 0) = (a, 0, 0) + (0, b, 0) = a(1, 0, 0) +b(0, 1, 0)
182 6. ESPACIOS VECTORIALES
entonces A = {(1, 0, 0), (0, 1, 0)}
g
−→S.
EJEMPLO 6.29. Sea V = M
2×2
y S = {A ∈ M
2×2
: A = A
t
} ⊂ M
2×2
el subespacio (verificarlo) de las matrices sim´etricas 2×2. Determinemos
un generador. Para eso observemos que A =

a b
c d

∈ S si y solo si b = c.
Entonces A ∈ S si y solo si existen a, b, d reales tales que
A =

a b
b d

=

a 0
0 0

+

0 b
b 0

+

0 0
0 d

=
a

1 0
0 0

+b

0 1
1 0

+d

0 0
0 1

Entonces G =

1 0
0 0

,

0 1
1 0

,

0 0
0 1
¸
g
−→S
EJEMPLO 6.30. Sea V = P
2
y
S = {p ∈ P
2
: p tiene termino independiente nulo}
Entonces, sea p tal que p(x) = ax
2
+ bx + c, p ∈ S si y solo si c = 0 es
decir p ∈ S si y solo si existen a, b reales tales que p(x) = ax
2
+ bx pero
entonces si ponemos p
i
∈ P
2
tal que p
i
(x) = x
i
, con i = 0, 1, 2 tenemos que
p ∈ S si y solo si existen a y b reales tales que p = ap
2
+ bp
1
. Entonces
G = {p
2
, p
1
}
g
−→S
PROPOSICI
´
ON 6.16. Sea V un subespacio vectorial y A un subconjunto
finito de V, o sea A = {v
1
, v
2
, ..., v
n
} ⊂ V . Si v
k
es combinaci´ on lineal de
los dem´ as vectores de A, entonces [A] =

v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n

6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL 183
Demostraci´ on. Toda combinaci´on lineal de vectores de
¸
v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n
¸
es tambi´en una c.l. de vectores de A (basta agregar el vector v
k
multiplicado
por el escalar 0), es decir

v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n

⊂ [A].
Ahora hay que probar al rev´es: que toda c.l. de vectores de A es c.l. de
vectores de
¸
v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n
¸
. Se sabe que
v
k
= α
1
v
1

2
v
2
+...α
k−1
v
k−1

k+1
v
k+1
+... +α
n
v
n
. (6.43)
Sea u ∈ [A] entonces u es c.l. de A, tendremos:
u = λ
1
v
1

2
v
2
+· · · +λ
k−1
v
k−1

k
v
k

k+1
v
k+1
+· · · +λ
n
v
n
.
Sustituyendo v
k
por la expresi´on (6.43), resulta:
u = (λ
1

k
α
1
)v
1
+· · · + (λ
k−1

k
α
k−1
)v
k−1
+
+ (λ
k+1

k
α
k+1
)v
k+1
+· · · + (λ
n

k
α
n
)v
n
.
O sea, u es c.l. de
¸
v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n
¸
como quer´ıamos probar.
DEFINICI
´
ON 6.6 (Independencia y dependencia lineal). Sea V un espa-
cio vectorial, A = {v
1
, v
2
, ..., v
n
} ⊂ V . Decimos que el conjunto es lineal-
mente independiente (L.I.) si y s´olo si dados escalares λ
1
, λ
2
, . . . , λ
n
tales
que:
λ
1
v
1

2
v
2
+· · · +λ
n
v
n
=

0
implica λ
1
= λ
2
= · · · = λ
n
= 0.
Decimos que el conjunto A es linealmente dependiente (L.D.) cuan-
do no es L.I..
Es decir, un conjunto es L.I. cuando la ´ unica combinaci´on lineal de sus
elementos que da el nulo es la trivial, esto es la que tiene todos los coefi-
cientes nulos.
Por el contrario es L.D. si existe alguna combinaci´on no trivial (alg´ un coe-
ficiente distinto de cero) de sus elementos que de el nulo.
184 6. ESPACIOS VECTORIALES
El lector debe remitirse a la secci´on 2.5 del cap´ıtulo 2 por ejemplos en
R
n
, no obstante esto veremos aqu´ı algunos ejemplos nuevos.
EJEMPLO 6.31. Sea V un espacio vectorial, v =

0 un vector de V.
Entonces {v} es L.I..
EJEMPLO 6.32. Sea V un espacio vectorial,

0
¸
es L.D.
EJEMPLO 6.33. Sean v
1
, v
2
, . . . , v
n
∈ V (V espacio vectorial ), entonces

0, v
1
, v
2
, ...., v
n
¸
es l.d
EJEMPLO 6.34. Sea V = M
2×2
y
G =

1 0
0 0

,

0 1
1 0

,

0 0
0 1
¸
entonces G es L.I. en efecto sean λ
1
, λ
2
, λ
3
reales tales que
λ
1

1 0
0 0


2

0 1
1 0


3

0 0
0 1

=

0 0
0 0

⇐⇒
⇐⇒

λ
1
λ
2
λ
2
λ
3

=

0 0
0 0

⇐⇒

λ
1
= 0
λ
2
= 0
λ
3
= 0
entonces G es L.I.
EJEMPLO 6.35. Sea A = {q
1
, q
2
, q
3
, q
4
} ⊂ P
2
donde q
1
(x) = x+1, q
2
(x) =
x
2
+x −1, q
3
(x) = x
2
+ 2x y q
4
(x) = x
2
−2, investiguemos la dependencia
lineal de A.
Sean λ
1
, λ
2
, λ
3
, λ
4
reales tales que
λ
1
q
1

2
q
2

3
q
3

4
q
4
=

0 ⇐⇒ (6.44)
λ
1
q
1
(x) +λ
2
q
2
(x) +λ
3
q
3
(x) +λ
4
q
4
(x) =

0, ∀x ∈ R ⇐⇒
λ
1
(x + 1) +λ
2
(x
2
+x −1) +λ
3
(x
2
+ 2x) +λ
4
(x
2
−2) = 0, ∀x ∈ R ⇐⇒

2

3

4
)x
2
+ (λ
1

2
+ 2λ
3
)x + (λ
1
−λ
2
−2λ
4
) = 0, ∀x ∈ R
6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL 185
de donde utilizando el teorema de identidad de polinomios
2
se deduce que
(6.44) se cumple si y solo si λ
1

2
, λ
3
y λ
4
verifican el sistema homog´eneo:
(S)

λ
2

3

4
= 0
λ
1

2
+ 2λ
3
= 0
λ
1
−λ
2
−2λ
4
= 0
.
Escalerizando y resolviendo (S) se deduce que es un sistema compatible
indeterminado y que
Sol(S) =
¸

1
, λ
2
, λ
3
, λ
4
) ∈ R
4
: λ
1
= λ
4
−λ
3
, λ
2
= −(λ
3

4
), λ
3
, λ
4
∈ R
¸
Por lo tanto (S) admite soluciones no triviales y consecuentemente tambi´en
(6.44) por lo cual G es L.D.
Observemos tambi´en que sustituyendo la soluci´on obtenida en (6.44) se tiene
que ∀ λ
3
y λ
4
∈ R

4
−λ
3
)q
1
−(λ
3

4
)q
2

3
q
3

4
q
4
=

0, =⇒
poniendo λ
3
= 0 y λ
4
= 1 tenemos, q
4
= −q
1
+q
2
Esto es un vector de A result´o combinaci´on lineal de los restantes.
OBSERVACI
´
ON 6.17. Las definiciones L.I. e L.D. se dieron para con-
juntos finitos, pero son aplicables tambi´en a conjuntos con una cantidad
infinita de vectores en un espacio vectorial. Si A es infinito., A⊂V . V espa-
cio vectorial, decimos que A es L.I. cuando cualquier subconjunto finito de
A es L.I. Decimos que A es L.D. cuando no es L.I. (es decir, cuando alg´ un
subconjunto finito de A es L.D.).
EJEMPLO 6.36. Sea V = P el espacio vectorial de todos los polinomios
de una variable x con coeficientes reales y sea A = {p
i
∈ P : i ∈ N},
donde p
i
(x) = x
i
. Entonces A es un conjunto L.I. con infinitos elementos,
pues cualquier subconjunto B ⊂ A finito que consideremos contiene una
2
Recordamos al lector el enunciado de este resultado: dos polinomios de coeficientes
reales o complejos son iguales si y solo si los coeficientes de las potencias respectivas son
iguales
186 6. ESPACIOS VECTORIALES
cantidad finita de polinomios de diferentes grados lo cual implica que B es
L.I. (verificarlo).
Veremos ahora un resultado que generaliza la proposici´on 2.14 del cap´ıtu-
lo 2 y lo visto en el ejemplo 6.35; un conjunto de m´as de un vector es L.D.
si y solo si uno de los vectores es combinaci´on lineal de los dem´as. M´as
a´ un, probaremos que la dependencia lineal se da s´olo cuando un vector del
conjunto se puede despejar en funci´on (lineal) de los anteriores.
PROPOSICI
´
ON 6.18. Sea V un espacio vectorial, y A un conjunto or-
denado contenido en V, que tiene m´ as de un elemento, tal que v
1
no es el
vector nulo: A = {v
1
, v
2
, ..., v
n
} ⊂ V con n > 1, v
1
=

0.
Entonces: A es L.D. si y s´ olo si existe v
k
∈ A (1 k n) tal que v
k
es
combinaci´ on lineal de los k-1 vectores anteriores
¸
v
1
, ..., v
k−1
¸
.
Demostraci´ on. (⇐)
Sabemos que existe v
k
∈ A, 1 k n, tal que v
k
es combinaci´on lineal
de los anteriores:
v
k
= λ
1
v
1

2
v
2
+... +λ
k−1
v
k−1
o sea

0 = λ
1
v
1

2
v
2
+· · · +λ
k−1
v
k−1
+ (−1)v
k
+ 0 · v
k+1
+· · · + 0 · v
n
.
Tenemos as´ı una combinaci´on lineal de los vectores de A, con no todos
los coeficientes iguales a cero (porque el coeficiente de v
k
es -1), que da el
vector nulo. Por definici´on A es L.D.
(⇒)
Ahora, sabiendo que A es L.D. y que v
1
=

0, hay que probar que un v
k
es combinaci´on de los anteriores vectores de A.
Por ser L.D. existen λ
1
, λ
2
, . . . , λ
n
escalares no todos nulos tales:
λ
1
v
1

2
v
2
+... +λ
n
v
n
=

0.
Sea k el mayor i tal que λ
i
= 0 ⇒ λ
i
= 0 ∀i > k y λ
k
= 0. Resulta k > 1,
porque sino ser´ıa λ
1
v
1
=

0, λ
1
= 0 ⇒ v
1
=

0 (contrario a la hip´otesis).
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 187
Entonces λ
1
v
1
+· · · +λ
k
v
k
=

0 y despejando, λ
k
v
k
= −λ
1
v
1
−· · · −λ
k−1
v
k−1
y como λ
k
= 0 se deduce que:
v
k
= −
λ
1
λ
k
v
1
−... −
λ
k−1
λ
k
v
k−1
.
Entonces v
k
es combinaci´on lineal de v
1
, ..., v
k−1
como se quer´ıa probar.
OBSERVACI
´
ON 6.19. De lo anterior se deduce en particular que un con-
junto es L.D. si y s´olo si un vector es combinaci´on lineal de los dem´as.
COROLARIO 6.20. Sea V un espacio vectorial y A = {v
1
, v
2
, . . . , v
n
} un
subconjunto cualquiera entonces A es L.I. si y solo si ning´ un vector de A es
combinaci´ on lineal de los restantes.
6.5. Base de un espacio vectorial y dimensi´on
La idea central de la Geometr´ıa Anal´ıtica es que, fijado un sistema de
coordenadas a cada punto del espacio le corresponde una ´ unica terna or-
denada de n´ umeros reales. Esto correspondencia permite tratar de manera
anal´ıtica los objetos geom´etricos del espacio (i.e. asociar a cada uno de ellos
una ecuaci´on) tal como vimos en el cap´ıtulo 4. En la construcci´on que all´ı hi-
cimos, no solo asoci´abamos coordenadas a los puntos del espacio E sino que
tambi´en asoci´abamos coordenadas a los vectores del espacio V . Veamos como
es posible generalizar esto a un espacio vectorial cualquiera.
DEFINICI
´
ON 6.7 (Base de un espacio vectorial). Sea V un espacio vec-
torial y A= {v
1
, v
2
, ..., v
n
}⊂ V (A finito). Decimos que A es base de V si y
s´olo si
a) A es un conjunto L.I.
b) A genera a V , es decir [A] = V .
188 6. ESPACIOS VECTORIALES
Notaci´on: Si V es un espacio vectorial y B es una base de V pondremos
B
b
−→V .
OBSERVACI
´
ON 6.21. Sea (V, K, +, ·) un espacio vectorial y S ⊂ V un
subespacio de V . Ya hemos visto que (S, K, +, ·) es ´el mismo un espacio
vectorial, donde + y · son las operaciones que hereda de V . Una base del
subespacio S es una base del espacio vectorial (S, K, +, ·).
PROPOSICI
´
ON 6.22. Sea V un espacio vectorial y A = {v
1
, v
2
, . . . , v
n
}
un subconjunto cualquiera, entonces A es base de V si y solo si, todo vector
del espacio se escribe en forma ´ unica como c.l. de los vectores de A (es decir,
los coeficientes de la c.l. son ´ unicos).
Demostraci´ on. (⇒)
En primer lugar, como A genera a V, entonces cualquier vector de V se
puede escribir como c.l. de vectores de A. Veremos ahora que esa combina-
ci´on lineal es ´ unica.
En efecto, supongamos que pueda escribirse un vector v como combina-
ci´on lineal de A, en dos formas distintas:
v = α
1
v
1
+· · · +α
n
v
n
y v = β
1
v
1
+· · · +β
n
v
n
Restando ambas igualdades tenemos:

0 = (α
1
−β
1
) v
1
+· · · + (α
n
−β
n
) v
n
La anterior es entonces una forma de escribir el nulo como combinaci´on lineal
de A. Como por hip´otesis A es base, entonces en particular A es L.I.. Por
definici´on de conjunto L.I. los coeficientes de la combinaci´on lineal anterior
deben ser todos ceros y por lo tanto:
α
1
= β
1
, α
2
= β
2
, . . . , α
n
= β
n
Consecuentemente las dos formas de escribir v como combinaci´on lineal de
A, son la misma.
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 189
(⇐) Supongamos ahora que cada vector de V se escribe de manera ´ unica
como combinaci´on lineal de A, entonces en particular A
g
−→V , para verifica
que A es base s´olo resta ver que A es L.I.. Sean λ
1
, λ
2
, . . . , λ
n
escalares tales
que
λ
1
v
1

2
v
2
+· · · +λ
n
v
n
=

0
Hemos escrito el vector nulo como combinaci´on lineal de A Por otra parte
tambi´en se tienen que
0v
1
+ 0v
2
+· · · + 0v
n
=

0.
Pero como cada vector (incluyendo al nulo) s´olo se puede escribir de ´ unica
manera como combinaci´on lineal de A debe ser λ
i
= 0. ∀i = 1, 2, . . . , n y
consecuentemente A es L.I.
Sea V un espacio vectorial de dimensi´on finita cualquiera sobre el cuerpo
K y B = {v
1
, v
2
, . . . , v
n
} una base de V . Dado un vector v ∈ V cualquiera
la proposici´on anterior establece que existen ´ unicos escalares α
1
, α
2
, . . . , α
n
tales que
v =
n
¸
i=1
α
i
v
i
llamaremos a estos n´ umeros las coordenadas en la base B del vector
v. De hecho con un poco m´as de formalidad podemos definir la funci´on
coord
B
: V −→ K
n
, tal que que a cada vector v le hace corresponder los
coeficientes de la combinaci´on lineal de B que da v. Esto es
coord
B
(v)
def
= (α
1
, α
2
, . . . , α
n
)
Obs´ervese que el vector v es un elemento del espacio V pero sus coordenadas
sin importar quien sea V son siempre un n-upla de escalares.
EJEMPLO 6.37. Sea V = (R
n
, R, +, ·) (o (C
n
, C, +·)) el conjunto
C = {(1, 0, 0, ..., 0) , (0, 1, 0, ..., 0) , (0, 0, 1, ..., 0) , ..., (0, 0, 0, ..., 1)}
190 6. ESPACIOS VECTORIALES
v coord
B
(v)
R
n
B
b
−→
V
coord
B
es una base de V pues es L.I. y genera V (comprobarlo). El conjunto C se
denomina base can´onica de (R
n
, R, +, ·) o de (C
n
, C, +, ·).
En general el i-esimo vector de la base can´onica lo notaremos
i-esimo
lugar

e
i
= (0, . . . , 0, 1, 0, . . . , 0)
Sea v = (x
1
, x
2
, . . . , x
n
) ∈ R
n
un vector cualquiera entonces
v = (x
1
, x
2
, . . . , x
n
) = x
1
e
1
+x
2
e
2
+· · · +x
n
e
n
entonces
coord
C
(v) = (x
1
, x
2
, . . . , x
n
).
Esto es el vector y sus coordenadas en la base can´onica coinciden. De hecho
lo que ocurre es que la funci´on coord
C
: R
n
−→R
n
es la funci´on identidad.
En general, como veremos en el pr´oximo ejemplo, un vector de R
n
y sus
coordenadas en una base arbitraria no coinciden esto s´olo ocurre si la base
considerada es la can´onica.
EJEMPLO 6.38. Sea V = R
3
y B = (1, 1, 0), (0, 1, 0), (0, 0, 1) es f´acil com-
probar y queda a cargo del lector que B es L.I. verifiquemos que tambi´en
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 191
genera R
3
. En efecto sea (a, b, c) ∈ R
3
un vector arbitrario comprobemos
que existen α
1
, α
2
, α
3
escalares tales que
(a, b, c) = α
1
(1, 1, 0) +α
2
(0, 1, 0) +α
3
(0, 0, 1) ⇐⇒
(a, b, c) = (α
1
, α
1

2
, α
3
) ⇐⇒

α
1
= a
α
1

2
= b
α
3
= c
Y este ´ ultimo sistema es compatible determinado y tiene soluci´on α
1
= a,
α
2
= b −a y α
3
= c de donde B
g
−→R
3
y por lo tanto es base. Adem´as
(a, b, c) = a(1, 1, 0) + (b −a)(0, 1, 0) +c(0, 1, 0)
por lo tanto
coord
B

(a, b, c)

= (a, b −a, c)
por ejemplo si v = (1, 2, 1) entonces coord
B

(1, 2, 1)

= (1, 1, 1).
En el otro sentido, supongamos que w ∈ R
3
es un vector tal que sus coor-
denadas en la base B son coord
B
(w) = (1, 2, 1) entonces el vector
w = 1(1, 1, 0) + 2(0, 1, 0) + 1(0, 0, 1) = (1, 3, 1).

Es claro que si V = R
n
tanto los vectores como sus coordenadas son
n-uplas por lo cual cabe la posibilidad de confundirlos lo cual naturalmente
constituye un grave error.
Hay que aclarar en cada caso, cuando se da una n-upla de R
n
, si se trata de
los vectores en si, o si se trata de las componentes en alguna base distinta
de la can´onica. S´olo puede omitirse esta aclaraci´on cuando la base es la
can´onica. Cuando decimos por ejemplo sea v el vector de R
3
tal que v =
(1, 2, 3) estamos indicando la 3-upla (1, 2, 3) por lo que no tiene sentido
preguntar en que base lo estamos expresando.
EJEMPLO 6.39. Sea {C
n
, R, +, ·}. Verif´ıquese que
{(1, 0, ..., 0) , (0, 1, ..., 0) , ..., (0, 0, ..., 1)} no es base.
192 6. ESPACIOS VECTORIALES
Sugerencia: El vector (i, 0, ..., 0) donde i es la unidad imaginaria no es
c.l. del conjunto anterior. Verif´ıque que:
C

= {(1, 0, . . . , 0), (i, 0, . . . , 0), (0, 1, . . . , 0), (0, i, . . . , 0), . . .
. . . , (0, 0, . . . , 1), (0, 0, . . . , i)}
es base de {C
n
, R, +, ·} .
EJEMPLO 6.40. Sea V = M
2×2
y
A =

1 0
0 0

,

0 1
0 0

,

0 0
1 0

,

0 0
0 1
¸
,
entonces A
b
−→M
2×2
, pues es un conjunto L.I. (verificarlo) y adem´as si M =

a b
c d

es una matriz 2 ×2 cualquiera se tiene que
M =

a b
c d

= a

1 0
0 0

+b

0 1
0 0

+c

0 0
1 0

+d

0 0
0 1

de donde A
g
−→M
2×2
y por lo tanto es base de M
2×2
. Adem´as coord
A
(M) =
(a, b, c, d). Obs´ervese que aqu´ı no hay posibilidad de confundir los vectores
con sus coordenadas pues los primeros son matrices y los segundos 4-uplas
de n´ umeros.
EJEMPLO 6.41. Sea V = P
n
y A = {p
0
, p
1
, . . . , p
n
}, donde p
i
(x) = x
i
,
con i = 0, . . . , n. Entonces A es L.I. (verificarlo) y adem´as si p ∈ P
n
es un
polinomio cualquiera de grado menor o igual a n tal que p(x) = a
n
x
n
+· · · +
a
1
x +a
o
entonces
p = a
0
p
0
+a
1
p
1
+· · · +a
n
p
n
por lo tanto A
g
−→P
n
y en consecuencia A es base de P
n
. Adem´as se tiene
que coord
A
(p) = (a
0
, a
1
, . . . , a
n
). Nuevamente aqu´ı no hay posibilidad de
confundirse coordenadas y vectores las primeras son (n + 1)-uplas y los
segundos son polinomios de grado menor o igual a n.
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 193
EJEMPLO 6.42. Sea S = {(x, y, z) : 2x−y +z = 0} deseamos determinar
una base de S. Para esto comencemos hallando un generador. Observemos
que v ∈ S si y solo si existen x y y reales tales que
v = (x, y, y −2x) = (x, 0, −2x) + (0, y, y) = x(1, 0, −2) +y(0, 1, 1)
entonces A = {(1, 0, −2), (0, 1, 1)} ⊂ S
g
−→S. Adem´as es f´acil de ver (hacerlo)
que A es L.I. y por lo tanto es un base de S.
EJEMPLO 6.43. Sea V = M
2×2
y S = {A ∈ M
2×2
: A = A
t
} hemos
visto en el ejercicio 6.29 que el conjunto
G =

1 0
0 0

,

0 1
1 0

,

0 0
0 1
¸
g
−→S
y de lo visto en el ejercicio 6.34 se sabe que A es L.I. por lo tanto G
b
−→S.

TEOREMA 6.23. Sea V un espacio vectorial. Sea A = {v
1
, . . . , v
n
} un
conjunto que genera a V y B = {w
1
, . . . , w
m
} un conjunto L.I. de V. En-
tonces m n.
Demostraci´ on. La idea de la pruebe consiste en construir un algoritmo
que permita sustituir uno a uno los vectores de A con los de B, en cada
paso al sustituir un vector de A por uno de B se obtiene un nuevo conjunto
generador del espacio V . Como el proceso de sustituci´on no culmina mientras
queden elementos en el conjunto B se prueba que en B hay por lo menos
tantos elementos como en A.
En el primer paso del algoritmo elegiremos un vector conveniente de A y lo
sustituiremos el vector w
m
. Para esto comencemos observando que, A
g
−→V
y por lo tanto w
m
∈ B ⊂ V es combinaci´on lineal de A. En consecuencia el
conjunto
A

1
= {w
m
, v
1
, . . . , v
n
}
es L.D.. Ahora bien, w
m
=

0, pues w
m
∈ B y B es L.I. por lo tanto la
proposici´on 6.18 asegura que existe en A

1
un vector (que no es el primero)
194 6. ESPACIOS VECTORIALES
que resulta combinaci´on de los anteriores. Designemos por v
i
∈ A a ese
vector, que ser´a el primero a sustituir. Pongamos, ahora
A
1
= A

1
−{v
i
} = {w
m
, v
1
, . . . , v
i−1
, v
i+1
, . . . , v
n
}.
Entonces A
1
g
−→V , pues, en virtud de la proposici´on 6.16 [A
1
] = [A

1
] = V .
En definitiva al cabo del primer paso se ha obtenido un nuevo conjunto
generador de V substituyendo v
i
por w
m
.
Para el segundo paso razonamos en forma an´aloga eligiendo otro vector de
A para ser sustituido por w
m−1
: como A
1
g
−→V , w
m−1
∈ B es combinaci´on
lineal de A
1
por lo tanto el conjunto
A

2
= A
1
∪ {w
m−1
} = {w
m−1
, w
m
, v
1
, . . . , v
i−1
, v
i+1
, . . . , v
n
}
resulta L.D.. De nuevo observamos que w
m−1
=

0, pues w
m−1
∈ B y B es
L.I., por lo tanto la proposici´on 6.18 asegura que existe un vector en A

2
(que no es el primero) que resulta combinaci´on lineal de los restantes, este
vector no puede ser w
m
pues si lo fuera deber´ıa ser combinaci´on de w
m−1
y esto contradice la independencia lineal de B. Designemos por v
k
∈ A a
dicho vector (ser´a el segundo vector a sustituir). La proposici´on 6.16 implica
nuevamente que el conjunto
A
2
= A

2
−{v
k
} = {w
m−1
, w
m
, v
1
, . . . , v
k−1
, v
k+1
, . . . , v
i−1
, v
i+1
, . . . , v
n
}
es un generador de V . Al cabo de dos pasos hemos sustituido dos vectores
de A por dos vectores de B y lo hemos hecho de modo que el conjunto
resultante A
2
es un generador de V , podemos continuar este procedimiento
de sustituci´on y el mismo s´ olo concluir´a cuando se terminen los vectores de
B. Cuando esto ocurra o bien los vectores de A se han acabado en simult´aneo
con los de B y entonces m = n o bien a´ un restan vectores de A sin sustituir
y por lo tanto m < n lo cual concluye la prueba.
COROLARIO 6.24. Sea V un espacio vectorial. Si una base tiene n ele-
mentos, entonces todas las dem´ as bases tienen n elementos.
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 195
Demostraci´ on. Sean A y B bases de V , A con n elementos y B con p
elementos. Como A es L.I. y B es generador, aplicando el teorema 6.23
tenemos np. Por otra parte, como B es L.I. y A es generador, aplicando
nuevamente el teorema 6.23, tenemos p n. O sea n = p.
DEFINICI
´
ON 6.8 (Dimensi´on de un espacio vectorial). Sea V un espacio
vectorial. Si existe una base de V que tenga n elementos, se dice que n es la
dimensi´on de V (obs´ervese en virtud del corolario anterior, n no depende
de la base que se halla encontrado). Notaremos dim (V ) = n.
Si V =

0
¸
(ejemplo 6.11), se conviene en decir que V tiene dimensi´on 0.
Si V =

0
¸
y no existe una base de Vcon una cantidad finita de elementos,
entonces decimos que la dimensi´on de V es infinita. Obs´ervese que si un
espacio vectorial V contiene un subconjunto L L.I. con infinitos elementos
entonces dim(V ) = ∞. En efecto, V no puede tener una base finita pues si
A ⊂ V es un subconjunto finito y A
b
−→V entonces en particular A
g
−→V pero
como L es L.I. y pose infinitos elementos podemos encontrar un subconjunto
finito L

⊂ L L.I. con card(L

) > card(A) lo cual contradice el teorema 6.23.
OBSERVACI
´
ON 6.25. Naturalmente si S ⊂ V es un subespacio del es-
pacio (V, K, +, ·) entonces su dimensi´on es la dimensi´on de (S, K, +, ·). Esto
es el n´ umero de elementos de una base de S (ver observaci´on 6.21).
EJEMPLO 6.44. En el ejemplo 6.37 vimos que C es una base (la base
can´onica) de R
n
por lo tanto dim(R
n
) = n. De manera an´aloga C
b
−→(C
n
, C, +·)
por lo tanto dim

(C
n
, C, +, ·)

= n. Por el contrario en el ejemplo 6.39 se
vio que C no es base de (C
n
, R, +, ·) pero si lo es
C

= {(1, 0, . . . , 0), (i, 0, . . . , 0), (0, 1, . . . , 0), (0, i, . . . , 0), . . .
. . . , (0, 0, . . . , 1), (0, 0, . . . , i)}
de donde dim

(C
n
, R, +, ·)

= 2n. Obs´ervese que al cambiar el cuerpo, aun-
que no hayamos cambiado el conjunto de vectores, el espacio vectorial cambia
196 6. ESPACIOS VECTORIALES
radic´almente al punto que cambia su dimensi´on. En los ejercicios veremos
que incluso hay ejemplos en los cuales un espacio de dimensi´ on finita puede
transformarse en uno de dimensi´on infinita cambiando s´olo el cuerpo.
EJEMPLO 6.45. De lo visto en los ejemplos 6.40 y 6.41 se deduce que
dim(M
2×2
) = 4 y dim(P
n
) = n + 1. ¿Cu´al es la dimensi´on de M
m×n
?.
EJEMPLO 6.46. Sean S = {(x, y, z) : 2x − y + z = 0} ⊂ R
3
y S

el
subespacio de las matrices 2 ×2 sim´etricas de lo visto en el ejemplos 6.42 y
6.43 se deduce respectivamente que existe una base de S con 2 elementos y
una base de S

con 3 elementos por lo tanto dim(S) = 2 y dim(S

) = 3.
El siguiente resultado da otra caracterizaci´on de una base, de hecho
afirma que un base es un conjunto L.I. “maximal” en el sentido de que
cualquier otro conjunto m´ as grande debe ser L.D.
TEOREMA 6.26. Sea A = {v
1
, v
2
, ..., v
n
} ⊂ V . Entonces A es base si y
s´ olo si A es L.I. y todo conjunto con m´ as de n vectores es L.D.
Demostraci´ on. (⇐)
Para probar que A es base , alcanza probar que A es generador de
todo el espacio, puesto que A es L.I. por hip´otesis. Para esto veremos que
cualquier vector puede ponerse como combinaci´on lineal de A. Es claro que
los vectores de A son ellos mismos combinaci´on de A as´ı que consideremos
un vector v ∈ V cualquiera tal que v / ∈ A, entonces el conjunto A

= A∪{v}
tiene n + 1 elementos y en consecuencia es por hip´otesis un conjunto L.D.
Entonces existen escalares λ
1
, λ
2
, . . . , λ
n
, λ no todos nulos tales que
(6.45) λ
1
v
1

2
v
2
+· · · +λ
n
v
n
+λv =

0
Veamos que debe ser λ = 0, ya que si λ = 0 se tendr´ıa que
λ
1
v
1

2
v
2
+· · · +λ
n
v
n
=

0
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 197
con alg´ un escalar distinto de cero y esto contradice la independencia lineal
de A asegurada por hip´otesis.
Entonces tenemos λ = 0. Despejando v en 6.45 se tiene:
v = −
λ
1
λ
v
1

λ
2
λ
v
2
−... −
λ
n
λ
v
n
Hemos probado que v es c.l. de A. Como v es un vector cualquiera de V , se
tiene que A
g
−→V , como quer´ıamos probar.
(⇒)
Tenemos que probar que todo conjunto con m´as de n vectores es L.D.
Sabemos por hip´otesis que A es base y por lo tanto en particular A es
generador de V . Sea W ⊂ V un conjunto cualquiera con m vectores m > n.
Si W fuera L.I. tendr´ıamos un conjunto L.I. con mas elementos que un
generador y esto contradice el teorema 6.23, por lo tanto W debe ser L.D.
EJEMPLO 6.47. Sea A = {x
2
+x−1, x+1, x
2
+3x−3, x
2
−1, −x
2
+2x+1} ⊂
P
2
entonces A es L.D. pues dim(P
2
) = 3 y card(A) = 5
OBSERVACI
´
ON 6.27. De hecho si m > n cualquier conjunto de R
n
con m
vectores es necesariamente L.D. Obs´ervese que si m < n un conjunto de R
n
con m vectores puede ser tanto L.D. como L.I. (verifique esto construyendo
ejemplos de ambas situaciones).
OBSERVACI
´
ON 6.28. Sea A un subconjunto de finito de vectores de R
n
en el cap´ıtulo 2 hab´ıamos definido el concepto de rango del conjunto como
la mayor cantidad de vectores de A que fueran linealmente independientes.
Ahora podemos observar que el rango de A no es otra cosa que la dimensi´on
del subespacio generado por A. En particular el rango de una matriz es la
dimensi´on del subespacio generado por las filas o por las columnas de la
misma.
198 6. ESPACIOS VECTORIALES
Los siguiente resultados son ´ utiles para construir bases de subespacios.
TEOREMA 6.29. Sea V un espacio vectorial de dimensi´ on n 1, A y B
subconjuntos de V (finitos).
Se cumplen las siguientes propiedades:
1) Si B genera a V, existe B’ contenido en B, tal que B’ es base de V.
2) Si A es L.I., existe A’ que contiene a A, tal que A’ es base de V (dicho
de otra forma, todo conjunto generador, contiene a alguna base; y todo L.I.
se puede agrandar hasta formar una base).
Demostraci´ on. 1) Sea B = {v
1
, v
2
, ..., v
k
}. Si B es L.I., entonces es base
(porque por hip´otesis B genera a V). Si B es L.D., o bien est´a formado
por un ´ unico vector, que tiene que ser el vector nulo (porque B es L.D.),
o bien est´a formado por m´as de un vector. En el caso en que B =

0
¸
,
como por hip´otesis B genera a V, ser´ıa el caso en que V =

0
¸
. Pero
este caso est´a excluido, porque por hip´otesis n1. De esta forma, resta s´olo
estudiar el caso en que B es L.D. y est´a formado por m´as de un vector. Por
la Proposici´on 6.18, hay un vector de B, que es combinaci´on lineal de los
dem´as vectores de B. Quitando ese vector v
r
de B, se obtiene un conjunto
B
1
. Por la proposici´on 6.16 [B] = [B
1
] y entonces B genera a V.
Si B
1
es L.I: ya est´a probado. Si es L.D. aplicando el mismo razonamiento
a B
1
en lugar de B, se obtiene un nuevo conjunto B
2
⊂ B
1
⊂ B tal que
genera a V. Si se repite el razonamiento, se obtendr´a finalmente un conjunto
B’ contenido en B, que es L.I. y que se obtuvo de B retirando sucesivamente
aquellos vectores que se expresaban como combinaci´on lineal de los restantes.
Por la proposici´on 6.16, este conjunto B’ tambi´en genera a V. Por definici´on
es base de V, probando 1).
2) Supongamos A =
¸
w
1
, ..., w
p
¸
es un conjunto L.I. Si A genera a V,
entonces A es base y tomamos A’ = A. Si A no genera a V, entonces existe
alg´ un vector de V que no es combinaci´on lineal de A. Llamemos w
p+1
a este
vector. Mostremos que:
¸
w
1
, w
2
, ..., w
p
, w
p+1
¸
es L.I.
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 199
En efecto: λ
1
w
1

2
w
2
+...+λ
p
w
p

p+1
w
p+1
=

0 ⇒ λ
p+1
= 0, porque
sino se podr´ıa despejar w
p+1
en funci´on de los dem´as, y eso no es posible por-
que w
p+1
no es c.l. de w
1
, w
2
, ..., w
p
. Entonces: λ
1
w
1

2
w
2
+... +λ
p
w
p
=

0.
Luego, todos los coeficientes λ
i
son ceros, porque A es L.I. Tenemos entonces
que el conjunto A =
¸
w
1
, w
2
, ..., w
p
, w
p+1
¸
es L.I. Repitiendo la construc-
ci´on anterior a A
1
en lugar de A, vamos agregando vectores hasta obtener
un conjunto L.I. y que genere a V (sea hasta obtener una base de V). Siem-
pre se llega, en una cantidad finita de pasos, a un conjunto que genere a
V, porque por el teorema 6.26 los conjuntos L.I. no pueden tener mas de n
elementos, donde n es la dimensi´on del espacio.
El siguiente resultado es particularmente ´ util cuando se desea encontrar
una base de un espacio del cual se conoce la dimensi´on, de hecho en este caso
solo es necesario chequear la cantidad de vectores del conjunto candidato y
su independencia lineal
COROLARIO 6.30. Sea V un espacio vectorial de dimensi´ on n . Se
cumplen las siguientes afirmaciones:
1) Todo conjunto linealmente independiente A de n vectores, es base.
2) Todo conjunto de n vectores A que genera a V es base.
Demostraci´ on. 1) Si A = {v
1
, ..., v
n
} no genera V, existe v ∈ V tal
que v / ∈ [A]. Entonces {v
1
, ..., v
n
, v} es L.I. (como en la demostraci´on del
teorema anterior) pero tiene n + 1 vectores, lo que contradice el teorema
6.26, absurdo. Luego [A] = V .
2) Sea A = {v
1
, ..., v
n
}, con A
g
−→V . Si A es L.D. aplicando el teorema
6.29 se sabe que existe A
1
A tal que A
1
b
−→V , y card(A
1
) = p < n.
Luego+ dim (V ) = p < n. Absurdo.
EJEMPLO 6.48. Sea A = {(1, 0, 1, 0), (−1, 0, 1, 0), (0, 1, 0, 1), (0, −1, 0, 1)} ⊂
R
4
como es f´acil de verifica A es L.I. y como card(A) = 4 = dim(R
4
) enton-
ces A es base de R
4
.
200 6. ESPACIOS VECTORIALES
EJEMPLO 6.49. Sea S = [(1, 1, 1), (2, 1, 0), (−1, 0, 1)], hallar una base de
S y determinar su dimensi´on. Para esto comenzamos por encontrar un ge-
nerador, lo cual obviamente es inmediato, el conjunto
A = {(1, 1, 1), (2, 1, 0), (−1, 0, 1)}
es por definici´on un generador de S como desconocemos la dimensi´on del
subespacio no podemos aplicar la proposici´on 6.30 y debemos verifica si A es
L.I. o no. Es f´acil de ver que A es L.D. pues (1, 1, 1) − (2, 1, 0) = (−1, 0, 1).
Entonces A no es base pero de la proposici´on 6.29 existe A

⊂ A que si
lo es. Como el vector (−1, 0, 1) es c.l. de los restantes elementos de A la
proposici´on 6.16 A

= {(1, 1, 1), (2, 1, 0)}
g
−→S. Es f´acil verificar adem´as que
A

es L.I. en consecuencia A

b
−→S y por lo tanto dim(S) = 2.
EJEMPLO 6.50. Sea A = {q
1
, q
2
, q
3
, q
4
} donde q
1
(x) = x + 1, q
2
(x) =
x
2
+x−1, q
3
(x) = x
2
+2x y q
4
(x) = x
2
−2. Analicemos ahora el subespacio
S = [A] ⊂ P
2
. Queremos determinar la dimensi´on de S. Para eso encontra-
remos una base del subespacio. A
g
−→S pero por lo visto en el ejemplo 6.35 A
es L.D., por lo cual debe contener propiamente un subconjunto que sea base.
Para determinar este subconjunto procedemos como en la prueba del teore-
ma 6.29 y determinemos un conjunto A

A tal que [A

] = [A] eliminando
de A un vector que sea combinaci´on de los restantes. Sabemos del ejemplo
6.35 que q
4
es combinaci´on de los restantes elementos de A en consecuencia
consideramos A = {q
1
, q
2
, q
3
} en este caso es f´acil ver que q
3
= q
1
+q
2
por lo
tanto A

es tambi´en L.D. Eliminando q
3
tenemos que A
′′
= {q
1
, q
2
}
g
−→S y
como el lector comprobar´a A
′′
es L.I. y por lo tanto una base de S. Entonces
dim(S) = 2.
PROPOSICI
´
ON 6.31. Sea V un espacio vectorial de dimensi´ on finita n.
Sea W un subespacio de V. Entonces W tiene tambi´en dimensi´ on finita, que
es menor o igual que n.
Demostraci´ on. Si W =

0
¸
, entonces dim W = 0 y ya est´a probado,
pues 0 n.
6.6. SUMA DE SUBESPACIOS Y SUMA DIRECTA 201
Si W =

0
¸
, alcanza probar que existe una base de W con una cantidad
finita de elementos p. Una vez demostrado eso, por el teorema 6.23 resulta p
n, pues una base de W, es un conjunto L.I., con p elementos, y una base
de V es un conjunto que genera a todo el espacio, con n elementos.
Como W =

0
¸
entonces existe alg´ un vector w
1
∈ W, w
1
=

0. Si {w
1
}
genera a W, es base de W, y ya est´a probado. Si {w
1
} no genera a W, existe
un vector w
2
∈ W que no es combinaci´on lineal de w
1
.
Afirmamos que {w
1
, w
2
} es L.I. . En efecto, si λ
1
w
1

2
w
2
=

0, λ
2
= 0
pues de lo contrario se podr´ıa despejar w
2
en funci´on de w
1
, lo cual no
es posible porque w
2
no es combinaci´on lineal de w
1
. Entonces λ
2
= 0, y
entonces λ
1
w
1
=

0. Como w
1
=

0 se deduce λ
1
= 0.Tenemos ahora que
{w
1
, w
2
} es L.I. . Si genera a W, ya tenemos una base. Si no genera a W,
existe un tercer vector w
3
∈ W que no es combinaci´on lineal de los dos
primeros. Igual que antes se prueba que el conjunto {w
1
, w
2
, w
3
} es L.I..
Se puede repetir el razonamiento en una cantidad menor que n + 1 de
pasos hasta construir una base de W, porque de lo contrario tendr´ıamos un
conjunto L.I. de n + 1 vectores, contradiciendo el teorema 6.26 que dice
que los conjuntos L.I. no pueden tener m´as de n elementos, donde n es la
dimensi´on del espacio.
PROPOSICI
´
ON 6.32. Sea W un subespacio de V, con dim(V ) = n. Si
dim(W) = dim(V ), entonces W = V.
Demostraci´ on. Sea {w
1
, ..., w
n
} base de W. Entonces es L.I. y est´a for-
mado por n vectores de W ⊂ V . Si v ∈ V ; {w
1
, ..., w
n
, v} es L.D. (por
Teorema 6.26) y como antes, vemos que v se escribe como combinaci´on
lineal de {w
1
, ..., w
n
}, luego {w
1
, ..., w
n
} = V .
6.6. Suma de subespacios y suma directa
DEFINICI
´
ON 6.9. Suma de subespacios: Sea V un espacio vectorial. se
llama suma de los subespacios V
1
, V
2
, ..., V
n
de V, (y se denota como V
1
+
202 6. ESPACIOS VECTORIALES
V
2
+... +V
n
) al subconjunto de vectores W definido por:
W = {v ∈ V : ∃, v
1
∈ V
1
, v
2
∈ V
2
, ..., v
n
∈ V
n
, v = v
1
+v
2
+... +v
n
}
TEOREMA 6.33. La suma de subespacios de V es unr subespacio de V.
Demostraci´ on. Es f´acil ver que

0 ∈ W, porque

0 =

0 + · · · +

0 y

0 ∈
V
i
∀i = 1, 2, ..., n. Tambi´en es sencillo verificar que el vector u se puede
descomponer como suma de un vector de V
1
, uno de V
2
, · · · , uno de V
n
;
entonces λu tambi´en se descompone de esa forma. Es claro que W es cerrado
con respecto al producto por escalares. Para verificar que W es cerrado
respecto a la suma sean u y u’ tales que u = v
1
+ v
2
+ ... + v
n
y u

=
v

1
+v

2
+... +v

n
con v
1
y v

1
∈ V
1
; v
2
y v

2
∈ V
2
; ... ; v
n
y v

n
∈ V
n
. Entonces
u+u

= (v
1
+v

1
) +(v
2
+v

2
) +... +(v
n
+v

n
), donde v
1
+v

1
∈ V
1
; v
2
+v

2

V
2
; ... ; v
n
+v

n
∈ V
n
, porque V
1
, V
2
, ..., V
n
son subespacios.
DEFINICI
´
ON 6.10. Suma directa: Dados los subespacios V
1
, V
2
, ..., V
n
, el
subespacio suma de ellos se llama suma directa cuando todo vector de ´el
puede expresarse de forma ´ unica como suma de vectores de los subespacios
V
1
, V
2
, ..., V
n
. Cuando la suma es directa se representa V
1
⊕V
2
⊕... ⊕V
n
.
EJEMPLO 6.51. Sean en R
3
los subespacios V
1
= {(a
1
, a
2
, a
3
) : a
3
= 0} y
V
2
= {(a
1
, a
2
, a
3
) : a
1
= 0} . Todo vector de R
3
se puede escribir como suma
de un vector de V
1
y uno de V
2
, pero no de forma ´ unica:
(1, 1, 1) = (1, 1, 0) + (0, 0, 1)
(1, 1, 1) = (1, 1/2, 0) + (0, 1/2, 1)
Entonces la suma de V
1
y V
2
es todo R
3
. Pero esta suma no es directa.
TEOREMA 6.34. Si V = V
1
⊕ V
2
⊕ ... ⊕ V
n
y si B
1
, B
2
, ..., B
n
son las
bases de V
1
, V
2
, ..., V
n
, respectivamente entonces: B = B
1
∪ B
2
∪ ... ∪ B
n
es
una base de V.
Demostraci´ on. Probaremos que B genera a V, y que B es L.I.
Todo vector de V es suma de vectores de V
1
, V
2
, ..., V
n
, y a su vez, estos
son combinaciones lineales de sus respectivas bases. Entonces v es c.l.de
6.6. SUMA DE SUBESPACIOS Y SUMA DIRECTA 203
la uni´on de esas bases, que es B. Hemos probado que todo vector de V es
combinaci´on lineal de B, o sea B genera a V. Veremos que B es L.I.. Sea B
1
=

v
11
, v
12
, ..., v
1p
1
¸
; B
2
= {v
21
, v
22
, ..., v
1p
2
} ;· · · B
n
=

v
n1
, v
n2
, ..., v
np
n
¸
.
Tomemos una combinaci´on lineal de B igualada a

0:
a
11
v
11
+a
12
v
12
+... + a
1p
1
v
1p
1
+a
21
v
21
+a
22
v
22
+...
+a
2p
2
v
2p
2
+... +a
n1
v
n1
+ a
n2
v
n2
+... +a
np
n
v
np
n
=

0;
como

0 ∈ V y V = V
1
⊕V
2
⊕... ⊕V
n
, existe una ´ unica manera de expresar el
vector nulo como suma de vectores de V
1
, V
2
, ..., V
n
. Esa ´ unica manera tiene
que ser entonces

0 =

0 +

0 +... +

0.
La combinaci´on lineal de m´as arriba implica entonces que:
a
11
v
11
+a
12
v
12
+... +a
1p
1
v
1p
1
=

0
a
21
v
21
+a
22
v
22
+... +a
2p
2
v
2p
2
=

0
· · ·
a
n1
v
n1
+a
n2
v
n2
+... +a
np
n
v
np
n
=

0.
Siendo B
1
una base de V
1
, se tiene que B
1
es L.I., y de la primera igualdad
de mas arriba se deduce a
11
= a
12
= ... = a
1n
=

0. An´alogamente para los
dem´as coeficientes a
ij
. Entonces tenemos probado que B es L.I.
COROLARIO 6.35. Si V es suma directa de V
1
, V
2
, ..., V
n
entonces dimV =
dimV
1
+dimV
2
+... +dimV
n
Demostraci´ on. Es inmediata a partir de la definici´on de dimensi´on y del
teorema anterior.
PROPOSICI
´
ON 6.36. Sean V
1
y V
2
dos subespacios de V tales que V =
V
1
+V
2
. Entonces, V
1
∩ V
2
=

0
¸
si y s´ olo si V = V
1
⊕V
2
.
204 6. ESPACIOS VECTORIALES
Demostraci´ on. (⇒)
Supongamos v = v
1
+v
2
y v

= v

1
+v

2
con v
1
, v

1
∈ V
1
, v
2
, v

2
∈ V
2
. Luego,
v
1
−v

1
= v
2
−v

2
∈ V
1
y V
2
, por lo que , por hip´otesis v
1
−v

1
= v
2
−v

2
=

0,
lo que prueba que la suma es directa.
(⇐)
Sea v ∈ V
1
∩ V
2
luego −v ∈ V
1
∩ V
2
. Por lo tanto:

0 = v + (−v) =

0 +

0 y por definici´on de suma directa,

0 = v = −v.
Entonces V
1
∩ V
2
=

0
¸
.
CAP´ıTULO 7
TRANSFORMACIONES LINEALES.
Las transformaciones lineales son funciones entre espacios vectoriales.
Ellas preservan (mantienen) las estructuras lineales que caracterizan a esos
espacios: los transformados de combinaciones lineales de vectores son las
correspondientes combinaciones de los transformados de cada uno de los
vectores.
Las funciones que mantienen las estructuras caracter´ısticas de los es-
pacios entre los que act´ uan son de especial importancia porque permiten
”moverse” entre ellos comparando las estructuras que los definen; en par-
ticular, permiten analizar cu´an diferentes o semejantes son desde el punto
de vista de esas propiedades (lineales, en el presente caso). En este sentido
las transformaciones lineales son tan importantes en el estudio de los espa-
cios vectoriales, como las isometr´ıas o movimientos lo son en la geometr´ıa
m´etrica.
7.1. Transformaciones lineales
DEFINICI
´
ON 7.1. Sean V y W dos espacios vectoriales sobre el mismo
cuerpo K y T : V →W una funci´on. Diremos que T es una transforma-
ci´on lineal si satisface :
i) T (u +v) = T (u) + T (v) ∀ u, v ∈ V.
ii) T (a.v) = a. T (v) ∀ a ∈ K, ∀ v ∈ V.
EJEMPLO 7.1. Sean
C
1
= {f : R → R / f es derivable} ⊂ F = {f : R → R} .
205
206 7. TRANSFORMACIONES LINEALES.
La transformaci´on T : C
1
→ F tal que T (f) = f

es una transforma-
ci´on lineal, pues se cumple que
i) T (f
1
+f
2
) = (f
1
+f
2
)

= f

1
+f

2
= T (f
1
) +T (f
2
)
ii) T (αf) = (αf)

= αf

= αT (f)
EJEMPLO 7.2. Sea V un espacio vectorial y sea λ ∈ K. La funci´on
T : V →V tal que T (v) = λv es una transformaci´on lineal. Efectivamente:
i) T (v
1
+ v
2
) = λ (v
1
+ v
2
) = λv
1
+ λv
2
= T (v
1
) + T (v
2
)
ii) T (a.v) = λa v = a λv = a T (v)
EJEMPLO 7.3. Sea V un espacio vectorial y v
0
=

0 un vector fijo de V. La
funci´on T : V →V tal que: T (v) = v +v
0
no es una transformaci´on lineal,
pues T (v
1
+ v
2
) = v
1
+v
2
+v
0
= v
1
+v
0
+v
2
+v
0
= T (v
1
) +T (v
2
).
Las propiedades i) y ii) de la definici´on anterior se pueden resumir de la
siguiente forma:
PROPOSICI
´
ON 7.1. T : V →W es una transformaci´ on lineal si y s´ olo
si T (a
1
v
1
+ a
2
v
2
) = a
1
T (v
1
) + a
2
T ( v
2
) ∀ a
1
, a
2
∈ K ∀ v
1
, v
2
∈ V.
Demostraci´ on. Sean a
1
y a
2
escalares y v
1
y v
2
vectores.
(⇒) T (a
1
v
1
+ a
2
v
2
) = T (a
1
v
1
) + T (a
2
v
2
) = a
1
T (v
1
) + a
2
T ( v
2
) .
(⇐) En el caso particular en que a
1
= a
2
= 1 se obtiene T ( v
1
+ v
2
) =
T (v
1
) + T ( v
2
), y en el caso particular en que a
2
= 0 se obtiene T (a
1
v
1
) =
a
1
T (v
1
) .
PROPOSICI
´
ON 7.2. Sea T : V →W una transformaci´ on lineal. Enton-
ces, T

0

=

0.
Demostraci´ on. T

0

= T (0. v) = 0 . T (v) =

0.
7.1. TRANSFORMACIONES LINEALES 207
PROPOSICI
´
ON 7.3. Sean V y W espacios vectoriales sobre un mismo
cuerpo con dim(V ) = n, T : V → W y S : V → W transformaciones
lineales. Consideremos una base B = {v
1
, . . . , v
n
} de V. Entonces: T (v) =
S (v) ∀ v ∈ V si y solo si T (v
i
) = S (v
i
) ∀i = 1, 2, . . . , n.
Demostraci´ on. (⇒) Si T y S coinciden en todo el espacio V, en particular
coinciden en los vectores de la base B.
(⇐) Sea v ∈ V . Como B es base de V, existen α
1
, . . . , α
n
∈ K tales
que v = α
1
v
1
+. . . +α
n
v
n
. Luego, por ser T y S lineales
T (v) = T (α
1
v
1
+· · · +α
n
v
n
) = α
1
T (v
1
) +· · · +α
n
T (v
n
)
= α
1
S (v
1
) +· · · +α
n
S (v
n
) = S (α
1
v
1
+· · · +α
n
v
n
) = S (v) .
TEOREMA 7.4. Sean V, W espacios vectoriales sobre un mismo cuerpo
con dim( V ) = n. Sea {v
1
, . . . , v
n
} una base de V y w
1
, . . . , w
n
∈ W
arbitrarios. Entonces, existe una ´ unica transformaci´ on lineal T : V → W
tal que T (v
i
) = w
i
∀ i = 1 , . . . , n.
Demostraci´ on. Existencia: Si v ∈ V existen ´ unicos a
1
, . . . , a
n
tales que
v =
n
¸
i =1
a
i
v
i
. Definimos entonces T : V → W mediante T (v) =
n
¸
i =1
a
i
w
i
. Hay que verificar que T es lineal. Sean v y ¯ v vectores y λ, µ
escalares. Tenemos v =
n
¸
i =1
a
i
v
i
y ¯ v =
n
¸
i =1
¯ a
i
v
i
. Entonces T (λv +µ ¯ v) =
= T

n
¸
i =1
(λa
i
+µ ¯ a
i
) v
i

=
n
¸
i =1
(λa
i
+µ ¯ a
i
) w
i
= λ
n
¸
i =1
a
i
v
i

n
¸
i =1
¯ a
i
v
i
=
= λT (v) +µT (¯ v) . Luego T es lineal por la proposici´on 7.1
Unicidad: Supongamos que existan T : V →W y S : V →W lineales
tales que T (v
i
) = w
i
y S (v
i
) = w
i
. Entonces T y S coinciden en una
base de V; y por la proposici´on 7.3, resulta que T=S.
208 7. TRANSFORMACIONES LINEALES.
Hemos probado, pues, que una transformaci´on lineal queda determinada
por los valores que toma sobre una base.
EJEMPLO 7.4. Sea T : R
2
→ R
3
lineal tal que T (1, 2) = (3, −1, 5) y
T (0, 1) = (2, 1, −1) Como {(1, 2) , (0, 1)} es una base de R
2
, T est´a bien
determinada.
Hallemos T (x, y) con (x, y) ∈ R
2
.
T (x, y) = T (x (1, 2) + (−2x +y) (0, 1)) = xT (1, 2) + (−2x +y) T (0, 1) =
= x(3, −1, 5) + (−2x +y) (2, 1, −1) = (−x + 2y, −3x +y, 7x −y) .
As´ı T (x, y) = (−x + 2y, −3x +y, 7x −y).
EJEMPLO 7.5. Sea T : R
2
→R
2
lineal tal que T (1, 0) = T (0, 1) = (2, 3).
Como {(1, 0) , (0, 1)} es la base can´onica de R
2
, T esta determinada.
Luego
T (x, y) = T (x(1, 0) +y (0, 1)) = xT (1, 0) +yT (0, 1) =
= x(2, 3) +y (2, 3) = (x +y) (2, 3) .
7.2. Operaciones con transformaciones lineales.
DEFINICI
´
ON 7.2 (Suma de Transformaciones Lineales). Sean V, W es-
pacios vectoriales sobre un mismo cuerpo K y S : V → W y T : V → W
dos transformaciones lineales. Se define la suma de S y T como la trans-
formaci´on S +T : V →W tal que
(S +T) (v) = S (v) +T (v) ∀v ∈ V.
.
7.2. OPERACIONES CON TRANSFORMACIONES LINEALES. 209
EJEMPLO 7.6. Sean S : R
3
→ R
2
tal que S (x, y, z) = (x +y +z, x −z)
y T : R
3
→R
2
tal que T (x, y, z) = (x −y, y +z). Entonces la suma de S y
T es la transformaci´on S +T : R
3
→R
2
tal que
(S +T) (x, y, z) = S (x, y, z) +T (x, y, z)
= (x +y +z, x −z) + (x −y, y +z)
= (2x +z, x +y) .
PROPOSICI
´
ON 7.5. Si S y T son transformaciones lineales, entonces
S +T es una transformaci´ on lineal.
Demostraci´ on. Sean v
1
y v
2
vectores, λ y µ escalares. Probemos
(S +T) (λv
1
+µv
2
) = λ (S +T) (v
1
) +µ (S +T) (v
2
) .
En efecto
(S +T) (λv
1
+µv
2
) = S (λv
1
+µv
2
) +T (λv
1
+µv
2
) =
= λS (v
1
) +µS (v
2
) +λT (v
1
) +µT (v
2
) =
= λ [S (v
1
) +T (v
1
)] +µ [S (v
2
) +T (v
2
)] =
= λ [(S +T) (v
1
)] +µ [(S +T) (v
2
)] .
DEFINICI
´
ON 7.3 (Producto por un escalar). Se define el producto del
escalar λ ∈ K por la transformaci´on T, como la transformaci´on (λ.T) :
V →W tal que (λ.T) (v) = λ.T (v) ∀v ∈ V .
EJEMPLO 7.7. Sea T : R
2
→R
3
tal que T (x, y) = (x −2y, x +y, x)
Entonces el producto del escalar λ = 5 por la transformaci´on T es la
transformaci´on 5.T : R
2
→R
3
tal que
(5.T) (x, y) = 5.T (x, y) = 5. (x −2y, x +y, x) =
= (5 −10y, 5x + 5y, 5x) .
210 7. TRANSFORMACIONES LINEALES.
PROPOSICI
´
ON 7.6. Si T es una transformaci´ on lineal y λ un escalar
entonces λT es una transformaci´ on lineal.
Demostraci´ on. Probemos que
(λT) (α
1
v
1

2
v
2
) = α
1
(λT) (v
1
) +α
2
(λT) (v
2
) ∀v
1
, v
2
∈ V ∀α
1
, α
2
∈ K
En efecto (λT) (α
1
v
1

2
v
2
) = λT (α
1
v
1

2
v
2
) =
= λ[α
1
T (v
1
) +α
2
T (v
2
)] = λα
1
T (v
1
) +λα
2
T (v
2
) =
= α
1
λT (v
1
) +α
2
λT (v
2
) = α
1
(λT) (v
1
) +α
2
(λT) (v
2
) .
DEFINICI
´
ON 7.4 (Composici´on de Transformaciones Lineales.). Sean
U,V y W espacios vectoriales sobre un mismo cuerpo K, y S : U → V
y T : V →W dos transformaciones lineales. Se define la composici´on S y T
como la transformaci´on T ◦ S : U →W tal que (T ◦ S) (u) = T (S (u)) .
EJEMPLO 7.8. Sean S : R
3
→ R
2
tal que S (x, y, z) = (2x, y +z) y
T : R
2
→R
2
tal que T (x, y) = (y, x).
Luego T ◦ S : R
3
→R
2
es tal que (T ◦ S) (x, y, z) = (y +z, 2x).
PROPOSICI
´
ON 7.7. Si S y T son lineales, entonces T ◦ S es lineal
Demostraci´ on. Probemos que ∀α
1
, α
2
∈ K ∀u
1
, u
2
∈ V.
(T ◦ S) (α
1
u
1

2
u
2
) = α
1
(T ◦ S) (u
1
) +α
2
(T ◦ S) (u
2
)
En efecto (T ◦ S) (α
1
u
1

2
u
2
) = T (S (α
1
u
1

2
u
2
)) =
= α
1
T ( S (u
1
)) +α
2
T ( S (u
2
)) = α
1
(T ◦ S) (u
1
) +α
2
(T ◦ S) (u
2
) .
7.3. IMAGEN Y N
´
UCLEO DE UNA TRANSFORMACI
´
ON LINEAL. 211
7.3. Imagen y n´ ucleo de una transformaci´on lineal.
DEFINICI
´
ON 7.5. Sean V y W espacios vectoriales sobre el mismo cuer-
po K y T : V →W una transformaci´on lineal.
i) Llamaremos n´ ucleo de T al conjunto de V cuya imagen por T es el vector
nulo, es decir N (T) =

v ∈ V : T (v) =

0
¸
(tambi´en se usar´a la
notaci´on Ker (T) para N (T)).
ii) Llamaremos imagen de T al conjunto:
Im (T) = {w ∈ W : ∃ v ∈ V con w = T (v)} (tambi´en se utilizar´a la
notaci´on T (V ) para Im (T).)
EJEMPLO 7.9. Se considera la transformaci´on lineal T : R
3
→R
2
tal que
T (x, y, z) = (x +y +z, 2x + 2y + 2z).
1) Hallemos el n´ ucleo de T.
(x, y, z) ∈ N (T) ⇔T (x, y, z) = (0, 0) ⇔(x +y +z, 2x + 2y + 2z) = (0, 0)

x +y +z = 0
2x + 2y + 2z = 0
⇔ x +y +z = 0
As´ı el N (T) =
¸
(x, y, z) ∈ R
3
: x +y +z = 0
¸
.
2) Hallemos la imagen de T.
(a, b) ∈ Im(T) ⇔ existe (x
0
, y
0
, z
0
) ∈ R
3

T (x
0
, y
0
, z
0
) = (a, b)
⇔ existe (x
0
, y
0
, z
0
) ∈ R
3
tal que (x
0
+y
0
+z
0
, 2x
0
+ 2y
0
+ 2z
0
) = (a, b)
⇔ existe (x
0
, y
0
, z
0
) ∈ R
3
tal que

x
0
+y
0
+z
0
= a
2x
0
+ 2y
0
+ 2z
0
= b
⇔ el sistema

x +y +z = a
2x + 2y + 2z = b
es compatible
⇔ el sistema

x +y +z = a
0 = b −2a
es compatible
⇔b = 2a
212 7. TRANSFORMACIONES LINEALES.
Luego: Im(T) =
¸
(a, b) ∈ R
2
: b = 2a
¸
.
EJEMPLO 7.10. Se considera la transformaci´on lineal T : R
3
→ R
2
tal
que T (x, y, z) = (x +y, y +z).
1) Hallemos el n´ ucleo de T.
(x, y, z) ∈ N (T) ⇔T (x, y, z) =

0 ⇔(x +y, y +z) = 0

x +y = 0
y +z = 0
As´ı el N (T) =
¸
(x, y, z) ∈ R
3
: x = −y , z = −y con y ∈ R
¸
.
2) Hallemos la imagen de T.
(a, b) ∈ Im(T) ⇔ existe (x
0
, y
0
, z
0
) ∈ R
3

T (x
0
, y
0
, z
0
) = (a, b)
⇔ existe (x
0
, y
0
, z
0
) ∈ R
3
tal que

x
0
+y
0
= a
y
0
+z
0
= b
⇔ el sistema

x +y = a
y +z = b
es compatible.
Como el sistema es siempre compatible, resulta que Im(T) = R
2
.
EJEMPLO 7.11. Se considera la transformaci´on lineal T : P
2
→ R
2
tal
que T (p) = (p (0) , p (1)).
1) Hallamos el n´ ucleo N (T).
Sea p : p (t) = xt
2
+yt +z un polinomio de P
2
p ∈ N (T) ⇔ T (p) = (0, 0) ⇔(p (0) , p (1)) = (0, 0)

p (0) = 0
p (1) = 0

z = 0
x +y +z = 0

x cualquiera
y = −x
z = 0
Luego N (T) =
¸
p ∈ P
2

p : p (t) = xt
2
−xt con x ∈R
¸
2) Hallemos la imagen de T, Im(T).
7.3. IMAGEN Y N
´
UCLEO DE UNA TRANSFORMACI
´
ON LINEAL. 213
(a, b) ∈ Im(T) ⇔ existe p
0
∈ P
2
tal que T (p
0
) = (a, b) ⇔
⇔ existe p
0
∈ P
2
tal que (p
0
(0) , p
0
(1)) = (a, b)
⇔ existe p
0
: p
0
(t) = x
0
t
2
+y
0
t+z
0
∈ P
2
tal que (x
0
, x
0
+y
0
+z
0
) = (a, b)
⇔ existen x
0
, y
0
, z
0
∈ R tales que

x
0
= a
x
0
+y
0
+z
0
= b
⇔ el sistema

x = a
x +y +z = b
es compatible.
Como el sistema anterior es siempre compatible, resulta que Im(T) = R
2
EJEMPLO 7.12. Se considera la transformaci´on lineal
T : M
2x2
(R) →M
2x2
(R) tal que T (M) =

1 −1
−2 2

· M.
1) Hallemos el N (T) Sea M =

a b
c d

un matriz en M
2x2
(R)
M ∈ N (T) ⇔T (M) =

0 ⇔

1 −1
−2 2

M =

0
M
2x2
(R)

1 −1
−2 2

a b
c d

=

0 0
0 0

a −c b −d
−2a + 2c −2b + 2d

=

0 0
0 0

a −c = 0
b −d = 0
−2a + 2c = 0
−2b + 2d = 0

a = c
b = d
c cualquiera
d cualquiera
As´ı N (T) =

M ∈ M
2x2
(R) : M =

c d
c d

con c, d ∈ R
¸
.
214 7. TRANSFORMACIONES LINEALES.
2) Hallar la Im(T)

a b
c d

∈ Im(T) ⇔ existe

x
0
y
0
z
0
t
0

∈ M
2x2
(R) tal que
T

x
0
y
0
z
0
t
0

=

a b
c d

⇔ existe

x
0
y
0
z
0
t
0

∈ M
2x2
(R) tal que

1 −1
−2 2

x
0
y
0
z
0
t
0

=

a b
c d

⇔ existe

x
0
y
0
z
0
t
0

∈ M
2x2
(R) tal que

x
0
−z
0
y
0
−t
0
−2x
0
+ 2z
0
−2y
0
+ 2t
0

=

a b
c d

⇔ existen x
0
, y
0
, z
0
, t
0
∈ R tales que

x
0
−z
0
= a
y
0
−t
0
= b
−2x
0
+ 2z
0
= c
−2x
0
+ 2z
0
= d
⇔ el sistema

x −z = a
y −t = b
−2x + 2z = c
−2x + 2z = d
tiene soluci´on.
⇔ el sistema

x −z = a
y −t = b
0 = 2a +c
0 = 2b +d
tiene soluci´on
⇔2a +c = 0 y 2b +d = 0.
7.3. IMAGEN Y N
´
UCLEO DE UNA TRANSFORMACI
´
ON LINEAL. 215
As´ı la Im(T) =

a b
c d

∈ M
2x2
(R) : 2a +c = 0 y 2b +d = 0
¸
.
PROPOSICI
´
ON 7.8. N (T) es un subespacio vectorial de V.
Demostraci´ on. Veamos que N (T) = φ y que es cerrado respecto de las
operaciones del espacio vectorial.
1) T (0) =

0 ⇒

0 ∈ N (T) .
2) Si α, β ∈ K y v
1
, v
2
∈ N (T) entonces:
T (αv
1
+ β v
2
) = αT (v
1
) + β T (v
2
) = α.

0 + β .

0 =

0 ⇒
⇒ αv
1
+ β v
2
∈ N (T)
Luego N (T) es un subespacio de V.
PROPOSICI
´
ON 7.9. Im (T) es un subespacio vectorial de W.
Demostraci´ on. An´alogamente,
1) T

0

=

0 ⇒

0 ∈ Im (T)
2) Si α, β ∈ K y w
1
, w
2
∈ Im (T) entonces existen v
1
, v
2
tales que
T ( v
1
) = w
1
y T ( v
2
) = w
2
. Entonces si llamamos v = αv
1
+ β v
2
, se
tiene T (v) = αw
1
+ β w
2
y por lo tanto αw
1
+ β w
2
∈ Im (T) . Luego
Im (T) es un subespacio de W.
EJEMPLO 7.13. Hallemos una base del n´ ucleo y una base de la imagen
de la transformaci´on lineal T : R
4
→R
3
definida por
T (x, y, z, t) = (x −y +z +t, x + 2z −t, x +y + 3z −3t)
1) (x, y, z, t) ∈ N (T) ⇔T (x, y, z, t) = (0, 0, 0) ⇔
⇔(x −y +z +t, x + 2z −t, x +y + 3z −3t) = (0, 0, 0)
216 7. TRANSFORMACIONES LINEALES.

x −y +z +t = 0
x + 2z −t = 0
x +y + 3z −3t = 0

x −y +z +t = 0
y +z −2t = 0
2y + 2z −4t = 0

x −y +z +t = 0
y +z −2t = 0

x = −2z +t
y = −z + 2t
Luego los vectores del n´ ucleo de T son de la forma
(−2z +t, −z + 2t, z, t) con z, t ∈ R. Como
(−2z +t, −z + 2t, z, t) = z (−2, −1, 1, 0) +t (1, 2, 0, 1) con z, t ∈ R,
todo vector del n´ ucleo de T es combinaci´on lineal de los vectores (−2, −1, 1, 0)
y (1, 2, 0, 1). Por ser {(−2, −1, 1, 0), (1, 2, 0, 1) un conjunto L.I., es una base
de N(T).
2) w ∈ Im(T) ⇔∃v ∈ R
4
tal que w = T (v), es decir
∃ (x, y, z, t) ∈ R
4
tal que w = T (x, y, z, t) ,
w = (x −y +z +t, x + 2z −t, x +y + 3z −3t)
⇔∃x, y, z, t ∈ R tal que v = (x, x, x)+(−y, 0, y)+z (1, 2, 3)+t (1, −1, −3) .
Luego todo vector de la imagen de T es combinaci´on lineal de
{(1, 1, 1) , (−1, 0, 1) , (1, 2, 3) , (1, −1, −3)}
(observar que dichos vectores est´an en la imagen pues son imagen respecti-
vamente de los vectores de la base can´onica).
Pero el conjunto anterior es L.D. pues tiene 4 vectores y dim

R
3

=3.
Observemos que
(1, 2, 3) = 2 (1, 1, 1) + (−1, 0, 1)
(1, −1, −3) = −1 (1, 1, 1) + (−2) (−1, 0, 1)
Luego reducimos el generador L.D. hasta obtener el generador
{(1, 1, 1) , (−1, 0, 1)}
que s´ı es L.I Luego {(1, 1, 1) , (−1, 0, 1)} es base de Im(T).
7.3. IMAGEN Y N
´
UCLEO DE UNA TRANSFORMACI
´
ON LINEAL. 217
PROPOSICI
´
ON 7.10. Sea V, W espacios vectoriales de dimensi´ on finita
sobre un mismo cuerpo y T : V →W lineal.
i) Si {v
1
, . . . , v
n
}es un generador de V, entonces {T (v
1
) , . . . , T (v
n
)} es un
generador de la Im(T) (es decir que la imagen de un conjunto generador
de V es un generador de la Im(T)).
ii) Si {T (v
1
) , . . . , T (v
n
)} es un conjunto L.I. en Im(T) entonces {v
1
, . . . , v
n
}
es conjunto L.I. en V (es decir que la pre-imagen de un conjunto L.I. en la
Im(T) es un conjunto L.I. en V)
Demostraci´ on. i) Sea w ∈ Im(T). Entonces existe v ∈ V tal que w =
T (v).
Como v ∈ V y siendo {v
1
, . . . , v
n
} un generador de V, existen α
1
, . . . , α
n
escalares tales que v = α
1
v
1
+· · · +α
n
v
n
. Luego
w = T (v) = T (α
1
v
1
+· · · +α
n
v
n
) == α
1
T (v
1
) +· · · +α
n
T (v
n
)
As´ı todo vector w ∈ Im(T) es combinaci´on lineal de {T (v
1
) , . . . , T (v
n
)} ⊆
Im(T) es decir que {T (v
1
) , . . . , T (v
n
)} es un generador de la Im(T).
ii) Sean α
1
, . . . , α
n
∈ K tales que
α
1
v
1
+· · · +α
n
v
n
=

0.
Aplicando T y usando la linealidad α
1
T (v
1
) + · · · + α
n
T (v
n
) =

0 y siendo
{T (v
1
) , . . . , T (v
n
)} un conjunto L.I. resulta que α
1
= . . . = α
n
= 0. Esto
prueba que {v
1
, . . . , v
n
} es L.I.
PROPOSICI
´
ON 7.11. Sean V y W espacios vectoriales sobre un mismo
cuerpo con dim(V ) = n y T : V →W una transformaci´ on lineal.
Si {e
1
, . . . , e
d
} es una base del N (T) y {e
1
, . . . , e
d
, e
d+1
, . . . , e
n
} es una
base de V entonces {T (e
d+1
) , . . . , T (e
n
)} es una base de la Im(T).
Demostraci´ on. Probaremos que {T (e
d+1
) , . . . , T (e
n
)} es base de Im(T).
1) Es L.I. pues α
d+1
T (e
d+1
) +· · · +α
n
T (e
n
) =

0
⇒T (α
d+1
e
d+1
+· · · +α
n
e
n
) =

0 ⇒α
d+1
e
d+1
+· · · +α
n
e
n
∈ N (T)
218 7. TRANSFORMACIONES LINEALES.
α
d+1
e
d+1
+· · · +α
n
e
n
es C.L de la base de N (T).
α
d+1
e
d+1
+· · · +α
n
e
n
= α
1
e
1
+· · · +α
d
e
d
−α
1
e
1
−· · · −α
d
e
d

d+1
e
d+1
+· · · +α
n
e
n
=

0.
Pero {e
1
, . . . , e
n
} es L.I. porque es base de V; luego todos los coeficientes α
i
son ceros. Hemos probado que {T (e
d+1
) , . . . , T (e
n
)} es L.I.
2) {T (e
d+1
) , . . . , T (e
n
)} generan la Im(T) pues:
Sea w ∈ Im(T) ⇒∃v ∈ V tal que T (v) = w
v = α
1
v
1
+· · · +α
n
v
n
, porque {e
1
, . . . , e
n
} es base de V,
T (v) = w = T (α
1
e
1
+· · · +α
n
e
n
) =
= α
1
T (e
1
) +· · · +α
d
T (e
d
) +α
d+1
T (e
d+1
) +· · · +α
n
T (e
n
) =
= α
d+1
T (e
d+1
) +· · · +α
n
T (e
n
) .
Luego todo vector w ∈ Im(T) es C.L. de {T (e
d+1
) , . . . , T (e
n
)}, es decir,
{T (e
d+1
) , . . . , T (e
n
)} genera a Im(T).
TEOREMA 7.12 (De las dimensiones). Sean V y W espacios vectoriales
sobre un mismo cuerpo K, con dim(V ) = n y T : V →W una transforma-
ci´ on lineal. Entonces dim (V ) = dim (N (T)) +dim (Im(T)).
Demostraci´ on. Como N(T) es subespacio de V, si d = dim(N (T)), te-
nemos 0 d n.
Discutiremos tres casos.
1er. Caso. d=n. Como dim(N (T)) = V obtenemos N (T) = V .
Entonces T (v) =

0 ∀v ∈ V , es decir Im(T) =

0 y dim(Im(T)) = 0,
cumpli´endose la tesis en este caso.
2do. Caso. 0 < d < n. El resultado es una consecuencia directa de la
proposici´on anterior.
3er. Caso. d = dim(N (T)) = 0. Luego N (T) =

0
¸
.
Sea {v
1
, . . . , v
n
} una base de V. Por ser {v
1
, . . . , v
n
} un generador de V,
por la Proposici´on 7.10(i) {T (v
1
) , . . . , T (v
n
)} un generador de la Im(T).
7.4. TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. 219
Veamos que tambi´en es L.I. En efecto
α
1
T (v
1
) +. . . +α
n
T (v
n
) =

0 ⇔T (α
1
v
1
+. . . +α
n
v
n
) =

0
⇔α
1
v
1
+. . . +α
n
v
n
∈ N (T) ⇔α
1
v
1
+. . . +α
n
v
n
=

0
⇔α
1
= . . . . = α
n
= 0
por ser {v
1
, . . . , v
n
} base de V. Por lo tanto {T (v
1
) , . . . , T (v
n
)} es base de
la Im(T).
As´ı dim(Im(T)) = n y se cumple que dim V = dim N (T)+dim Im(T).
7.4. Transformaciones lineales inyectivas y sobreyectivas.
Sean V y W espacios vectoriales sobre un mismo cuerpo K y T : V →W
una transformaci´on lineal.
Recordemos que T es inyectiva cuando T (v
1
) = T (v
2
) entonces v
1
=
v
2
; o equivalentemente v
1
= v
2
entonces T (v
1
) = T (v
2
).
PROPOSICI
´
ON 7.13. Son equivalentes las siguientes afirmaciones:
i) T es inyectiva.
ii) Para todo conjunto A linealmente independiente de V se cumple que
T (A) es linealmente independiente en W.
iii) N (T) =

0
¸
.
Demostraci´ on. i) ⇒ii) Sabemos que T es inyectiva. Sea A = {v
1
, . . . , v
n
}
un conjunto L.I. de V. Probemos que T (A) = {T (v
1
) , . . . , T (v
n
)} es L.I.
en W.
Sean α
1
, . . . ., α
n
∈ K tales que α
1
T (v
1
) +. . . +α
n
T (v
n
) =

0
w
. Debemos
probar que α
1
= . . . . = α
n
= 0. Siendo T lineal obtenemos
T (α
1
v
1
+. . . +α
n
v
n
) =

0
w
.
As´ı T (α
1
v
1
+. . . +α
n
v
n
) = T

0
v

y como T es inyectiva se obtiene
que
α
1
v
1
+. . . +α
n
v
n
=

0
v
y siendo A = {v
1
, . . . , v
n
} L.I., se cumple que α
1
= . . . . = α
n
= 0.
220 7. TRANSFORMACIONES LINEALES.
ii) ⇒iii) Supongamos, por absurdo, que N (T) =

0
v
¸
.Entonces existe
v ∈ N (T) con v =

0
v
.
Luego A = {v} es L.I. en V ⇒
porhiptesis
T (A) = T (v) es L.I. en W y por
ii) T (v) =

0
w
es L.I. Absurdo.
iii) ⇒ i)SiT (v
1
) = T (v
2
) ⇒ T (v
1
) − T (v
2
) =

0
w
luego T (v
1
−v
2
) =

0
w
⇒v
1
−v
2
∈ N (T) por iii) v
1
−v
2
=

0
v
es decir v
1
= v
2
.
Recordemos ahora que T es sobreyectiva cuando ∀w ∈ W existe v ∈ V
con T (v) = w, o equivalentemente Im(T) = W.
PROPOSICI
´
ON 7.14. Son equivalentes las siguientes afirmaciones: i) T
es sobreyectiva
ii) Para todo A generador de V se cumple que T (A) es un generador de W
iii) Existe un generador A
0
de V tal que T (A
0
) es generador de W.
Demostraci´ on. i) ⇒ii) Sea A un generador de V. Por la Proposici´on 7.10
se cumple que T (A) es un generador de la Im(T).Pero Im(T) = W, por
ser T sobreyectiva. As´ı T (A) es un generador de W.
ii) ⇒ iii) Inmediato. iii) ⇒ i) Sabemos que existe A
0
= {v
1
, . . . , v
n
}
generador de V tal que T (A
0
) = {T (v
1
) , . . . , T (v
n
)} es generador de W.Sea
w ∈ W, como T (A
0
) es generador de W, existen α
1
, . . . ., α
n
∈ K tales que
w = α
1
T (v
1
) +. . . +α
n
T (v
n
)
Siendo T lineal se cumple que
w = T (α
1
v
1
+. . . . +α
n
v
n
)
Hemos probado que dado w ∈ W existe v
0
= α
1
v
1
+ . . . . + α
n
v
n
∈ V
tal que
w = T (v
0
) luego T es sobreyectiva.
Recordemos por ´ ultimo que T es biyectiva cuando es inyectiva y sobre-
yectiva.
7.4. TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. 221
PROPOSICI
´
ON 7.15. Son equivalentes las siguientes afirmaciones:
i) T es biyectiva
ii) Para toda base B del espacio V se cumple que T(B)es una base de W
iii) Existe una base B
0
del espacio V tal que T (B
0
) es una base de W.
Demostraci´ on.
i) ⇒ii)T es lineal y biyectiva ⇔

T es lineal e inyectiva (1)
T es lineal y sobreyectiva (2)
Por otro lado, B es una base de V ⇔

B es L.I. (1

)
B es generador de V (2

)
De (1) y (1’) aplicando la Proposici´on 7.13 se obtiene que T (B) es
L.I.(1”)
De (2) y (2’) aplicando la Proposici´on 7.14 se obtiene que T (B) es
generador de W (2”) De (1”) y (2”) se tiene que T (B) es una base de W.
ii) ⇒ iii) Inmediato. iii) ⇒ i) Sabemos que existe B
0
es base de V
tal que T (B
0
) es base de W, en particular existe B
0
es generador de V tal
que T (B
0
) es generador de W, luego por la proposici´on 7.14 T es sobre-
yectiva.Probemos que T es inyectiva, lo cual es equivalente a probar que
N (T) =

0
¸
, si v ∈ N (T) ⊆ V por ser B
0
= {v
1
, . . . , v
n
} base de V se
cumple que existen α
1
, . . . ., α
n
∈ K tales que v = α
1
v
1
+. . . . +α
n
v
n
.
Luego usando la linealidad de T se obtiene que T (v) = α
1
T (v
1
) +. . . +
α
n
T (v
n
). Pero como v ∈ N (T), se tiene que T (v) =

0
α
1
T (v
1
) +. . . +α
n
T (v
n
) =

0
Pero T (B
0
) = {T (v
1
) , . . . , T (v
n
)} es L.I. (por ser base) entonces α
1
=
. . . . = α
n
= 0 As´ı v =

0.
Recordemos que T es biyectiva si y solo si T es invertible, es decir, que
existe la funci´on inversa T
−1
.
PROPOSICI
´
ON 7.16. Sean V, W espacios vectoriales sobre un mismo
cuerpo y T : V →W una transformaci´ on lineal y biyectiva.
Entonces la funci´ on inversa T
−1
: W →V es una transformaci´ on lineal.
222 7. TRANSFORMACIONES LINEALES.
Demostraci´ on. Sean w
1
y w
2
∈ W y λ y µ ∈ K.
Observando que TT
−1
(w) = w y que T es lineal,
λw
1
+µw
2
= λTT
−1
(w
1
) +µTT
−1
(w
2
) =
= T

λT
−1
(w
1
) +µT
−1
(w
2
)

Aplicando T
−1
a ambos miembros
T
−1
(λw
1
+µw
2
) = λT
−1
(w
1
) +µT
−1
(w
2
) .
7.5. Isomorfismos entre espacios vectoriales
DEFINICI
´
ON 7.6. Sean V, W espacios vectoriales sobre un mismo cuerpo
K.
a) Diremos que una transformaci´on lineal T : V → W biyectiva es un
isomorfismo.
b) Diremos que V y W son isomorfos cuando existe un isomorfismo que
lleva V en W.
OBSERVACI
´
ON 7.17. De acuerdo a la proposici´on 7.16 si T : V →W es
un isomorfismo entonces T
−1
: W →V tambi´en lo es.
PROPOSICI
´
ON 7.18. Sean V y W dos espacios vectoriales de dimensi´ on
finita sobre un mismo cuerpo K. Entonces las proposiciones a) y b) son
equivalentes:
a) dim (V ) = dim (W)
b) V es isomorfo a W.
7.5. ISOMORFISMOS ENTRE ESPACIOS VECTORIALES 223
Demostraci´ on. a) ⇒ b) Sea dim (V ) = dim (W) = n. Sean A =
{v
1
, . . . , v
n
} base de V y B = {w
1
, . . . . , w
n
} base de W. Luego definimos
T : V → W lineal tal que T (v
i
) = w
i
(T est´a ”bien definida”por el
teorema 7.4). Como existe una base A de V tal que T (A) = B es base de
W, T es un isomorfismo por la proposici´on 7.15.
b) ⇒ a) Como V es isomorfo a W, existe un isomorfismo: T : V →
W . Por el teorema de las dimensiones se tiene que dim(V ) = dim(N (T))+
dim(Im(T)). Por ser T inyectiva dim(N (T)) = 0.Por ser T sobreyectiva
Im(T) = W. Luego dim(V ) = dim(W).
COROLARIO 7.19. Si V es un espacio vectorial, con dim(V ) = n, sobre
el cuerpo K, entonces V es isomorfo a K
n
.
Demostraci´ on. En efecto el espacio vectorial K
n
sobre el cuerpo K tiene
dimensi´on n. As´ı dim(V ) = dim(K
n
) = n ⇒V yK
n
son isomorfos.
Las coordenadas como transformaci´on lineal
Sea V un espacio vectorial de dimensi´on n sobre el cuerpo K. Fijemos
una base B = {v
1
, . . . . , v
n
} del espacio V, entonces ∀v ∈ V , existen y son
´ unicos α
1
, . . . , α
n
∈ K tales que v = α
1
v
1
+. . . +α
n
v
n
.
Luego definimos coord
B
: V →K
n
tal que
coord
B
(v) =

¸
¸
¸
α
1
.
.
.
α
n
¸

(es decir que a cada vector v ∈ V le asociamos sus coordenadas en la base
B).
PROPOSICI
´
ON 7.20. coord
B
es un isomorfismo entre V y K
n
.
224 7. TRANSFORMACIONES LINEALES.
Demostraci´ on. 1) coord
B
es lineal. Sean v, w ∈ V , luego existen y son
´ unicos α
1
, . . . , α
n
∈ K y β
1
, . . . , β
n
∈ K tales que
v = α
1
v
1
+. . . +α
n
v
n
⇒coord
B
(v) =

¸
¸
¸
α
1
.
.
.
α
n
¸

w = β
1
v
1
+. . . +β
n
v
n
⇒coord
B
(w) =

¸
¸
¸
β
1
.
.
.
β
n
¸

Luego v +w = (α
1

1
) v
1
+. . . . + (α
n

n
) v
n
⇒ coord
B
(v +w) =

¸
¸
¸
α
1

1
.
.
.
α
n

n
¸

As´ı coord
B
(v) + coord
B
(w) =

¸
¸
¸
α
1
.
.
.
α
n
¸

+

¸
¸
¸
β
1
.
.
.
β
n
¸

=

¸
¸
¸
α
1

1
.
.
.
α
n

n
¸

=
coord
B
(v +w)
Por otro lado si λ ∈ K, se tiene que λv = λ(α
1
v
1
+. . . +α
n
v
n
) =
= λα
1
v
1
+. . . +λα
n
v
n
⇒coord
B
(λv) =

¸
¸
¸
λα
1
.
.
.
λα
n
¸

As´ı λ coord
B
(v) = λ

¸
¸
¸
α
1
.
.
.
α
n
¸

=

¸
¸
¸
λα
1
.
.
.
λα
n
¸

= coord
B
(λv)
2) Como dim(V ) = dim(K
n
) = n para probar que coord
B
es biyectiva,
alcanza con probar que coord
B
es inyectiva.
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 225
Como coord
B
(v) =

¸
¸
¸
0
.
.
.
0
¸

⇔v = 0v
1
+. . . + 0v
n
⇔v =

0
N (coord
B
) =

0
¸
⇒coord
B
es inyectiva.
7.6. Matriz asociada a una transformaci´on lineal.
Sean V, W espacios vectoriales de dimensi´on finita sobre un mismo
cuerpo K y T : V → W una transformaci´on lineal. Supongamos que A =
{v
1
, v
2
, . . . ., v
n
} es una base de V y B = {w
1
, w
2
, . . . ., w
m
} es una base de
W. Ahora bien, T (v
1
) , T (v
2
) , . . . , T (v
n
) son vectores de W y por lo tanto
cada uno de ellos es una combinaci´on lineal de los vectores de la base B:
T (v
1
) = a
11
w
1
+a
12
w
2
+. . . +a
1m
w
m
T (v
2
) = a
21
w
1
+a
22
w
2
+. . . +a
2m
w
m
.
.
.
.
.
.
.
.
.
.
.
.
T (v
n
) = a
n1
w
1
+a
n2
w
2
+. . . +a
nm
w
m
En otras palabras
coord
B
(T (v
1
)) =

¸
¸
¸
¸
¸
a
11
a
12
.
.
.
a
1m
¸

,
coord
B
(T (v
2
)) =

¸
¸
¸
¸
¸
a
21
a
22
.
.
.
a
2m
¸

, . . . , coord
B
(T (v
n
)) =

¸
¸
¸
¸
¸
a
n1
a
n2
.
.
.
a
nm
¸

Luego definimos:
226 7. TRANSFORMACIONES LINEALES.
DEFINICI
´
ON 7.7. Se llama representaci´on matricial de T en las bases A y
B o matriz asociada a T en las bases A y B, a la matriz que representaremos
por
B
((T))
A
y cuya i-´esima columna son las coordenadas del vector T (v
i
)
en la base B.
Esto es
B
((T))
A
=

[coord
B
T (v
1
) ] , [coord
B
T (v
2
)] , . . . , [coord
B
T (v
n
)]

=
=

¸
¸
¸
¸
¸
a
11
a
21
· · · a
n1
a
12
a
22
· · · a
n2
.
.
.
.
.
.
.
.
.
a
1m
a
2m
· · · a
nm
¸

Nota. La matriz asociada se obtiene ¸ colgando” las coordenadas respecto
a la base de W de los vectores de la base de V . Obs´ervese que los sub´ındices
de esta matriz est´an colocados de manera distinta a la habitual; alcanzar´ıa
con cambiar las denominaciones de los sub´ındices de las coordenadas de
T(v
j
) para obtener la forma habitual.
EJEMPLO 7.14. Consideremos la transformaci´on lineal T : R
2
→ R
3
tal
que
T (x, y) = (4x −2y, 2x +y, x +y) ∀x ∈ R
2
, y las bases can´onicas A =
{(1, 0) , (0, 1)} de R
2
y B = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)} de R
3
. Para hallar
la matriz asociada a T en dichas bases
1) Hallamos las im´agenes de los vectores de la base A
T (1, 0) = (4, 2, 1)
T (0, 1) = (−2, 1, 1)
2) Calculamos las coordenadas de estos en la base B
T (1, 0) = (4, 2, 1) = 4 (1, 0, 0) + 2 (0, 1, 0) + 1 (0, 0, 1)
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 227
⇒coord
B
(T (1, 0)) =

¸
¸
4
2
1
¸

T (0, 1) = (−2, 1, 1) = −2 (1, 0, 0) + 1 (0, 1, 0) + 1 (0, 0, 1)
⇒coord
B
(T (0, 1)) =

¸
¸
−2
1
1
¸

. Luego
B
((T))
A
=

¸
¸
4 −2
2 1
1 1
¸

.
EJEMPLO 7.15. Consideremos la transformaci´on lineal T : P
2
→ R
2
tal
que T (p) = (2a +b, a +b + 4c) ∀p ∈ P
2
tal que p (t) = at
2
+bt +c ∀t ∈ R
y las bases A = {p
1
, p
2
, p
3
} de P
2
donde p
1
: p
1
(t) = t
2
, p
2
: p
2
(t) = t , p
3
:
p
3
(t) = 1 ∀t ∈ R; y B = {(1, 1) , (1, 0)} de R
2
.
Para hallar la matriz asociada a T en dichas bases,
1) Hallamos las im´agenes de los vectores de la base A
T (p
1
) = (2, 1)
T (p
2
) = (1, 1)
T (p
3
) = (0, 4)
2) Calculamos las coordenadas de estos en la base B
T (p
1
) = (2, 1) = 1 (1, 1) + 1 (1, 0) ⇒coord
B
(T (p
1
)) =

1
1

T (p
2
) = (1, 1) = 1 (1, 1) + 0 (1, 0) ⇒coord
B
(T (p
2
)) =

1
0

T (p
3
) = (0, 4) = 4 (1, 1) −4 (1, 0) ⇒coord
B
(T (p
3
)) =

4
−4

Luego
B
((T))
A
=

1 1 4
1 0 −4

.
228 7. TRANSFORMACIONES LINEALES.
EJEMPLO 7.16. Consideremos la transformaci´on lineal T : P
2
→ P
2
tal
que T (p) = p

y la base can´onica de P
2
A = {p
0
, p
1
, p
2
} donde p
i
(t) =
t
i
, i = 0, 1, 2.
1) Hallemos las im´agenes de los vectores de la base A:
T (p
0
) = 0, T (p
1
) = p
0
, T (p
2
) = 2p
1
2)Calculemos las coordenadas de estos en la base A
T (p
0
) = 0 = 0p
0
+ 0p
1
+ 0p
2
⇒coord
A
(T (p
0
)) =

¸
¸
0
0
0
¸

T (p
1
) = p
0
= 1p
0
+ 0p
1
+ 0p
2
⇒coord
A
(T (p
1
)) =

¸
¸
1
0
0
¸

T (p
2
) = 2p
1
= 0p
0
+ 2p
1
+ 0p
2
⇒coord
A
(T (p
2
)) =

¸
¸
0
2
0
¸

Luego
A
((T))
A
=

¸
¸
0 1 0
0 0 2
0 0 0
¸

OBSERVACI
´
ON 7.21. Si dim(V)=n y dim(W)=m la matriz asociada
tiene dimensi´on m×n.
OBSERVACI
´
ON 7.22. La matriz
B
((T))
A
como reci´en vimos, queda com-
pletamente determinada conocidas la transformaci´on lineal T y las bases A
y B del dominio y codominio respectivamente.
Rec´ıprocamente, dada una matriz M de tama˜ no m×n y dos bases A y B
de los espacios V y W respectivamente, queda completamente determinada
una transformaci´on lineal T tal que
B
((T))
A
=M.
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 229
En efecto, al conocer la matriz M, sus columnas son las coordenadas en
la base B de las im´agenes de dos vectores de la base A.
Esto nos permite conocer a las im´agenes de los vectores de la base A, y
por el Teorema 7.4, esto es suficiente para determinar T.
EJEMPLO 7.17. Hallar la transformaci´on lineal T : R
3
→ R
2
sabiendo
que
B
((T))
A
=

2 3 −1
1 0 2

donde A = {(1, 0, 1) , (2, 0, 0) , (0, 1, 0)} es
base de R
3
y B = {(2, −1) , (0, 2)} es base de R
2
De acuerdo a la definici´on de matriz asociada
coord
B
(T (1, 0, 1)) =

2
1

coord
B
(T (2, 0, 0)) =

3
0

coord
B
(T (0, 1, 0)) =

−1
2

Luego
T (1, 0, 1) = 2 (2, −1) + 1 (0, 2) = (4, 0)
T (2, 0, 0) = 3 (2, −1) + 0 (0, 2) = (6, −3)
T (0, 1, 0) = −1 (2, −1) + 2 (0, 2) = (−2, 5)
Ahora bien siendo A = {(1, 0, 1) , (2, 0, 0) , (0, 1, 0)} una base de R
3
se cumple
que ∀ (x, y, z) ∈ R
3
que
(x, y, z) = z (1, 0, 1) +

x −z
2

(2, 0, 0) +y (0, 1, 0)
Luego por la linealidad de T
T (x, y, z) = z T (1, 0, 1) +

x −z
2

T (2, 0, 0) +y T (0, 1, 0) =
z (4, 0) +
x −z
2
· (6, −3) +y (−2, 5) =

3x −2z −2y, −
3
2
x + 5y +
3
2
z

230 7. TRANSFORMACIONES LINEALES.
As´ı T : R
3
→R
2
es tal que
T (x, y, z) =

3x −2z −2y, −
3
2
x + 5y +
3
2
z

PROPOSICI
´
ON 7.23. Considere los K-espacios vectoriales U, V y W,
con dim(U)=s, dim(V)=n y dim(W)=t, y las transformaciones lineales S :
U → V yT : V → W. Sean A = {u
1
, . . . , u
s
} , B = {v
1
, . . . , v
n
} y C =
{w
1
, . . . , w
t
} bases de U, V y W respectivamente. Entonces la matriz aso-
ciada a la composici´ on T ◦ S es el producto de las matrices asociadas. Es
decir
C
((T ◦ S))
A
=
C
((T))
B
B
((S))
A
.
Demostraci´ on. Sea
C
((T))
B
= (a
i j
),
B
((S))
A
= (b
j k
) y
C
((T))
B
B
((S))
A
=
(c
i j
) con 1 i t, 1 j n, 1 k s.
Por definici´on de producto de matrices c
i k
=
n
¸
j=1
a
i j
b
j k
.
Calculemos
C
((T ◦ S))
A
. Sea u
k
∈ A.
(T ◦ S) (u
k
) = T (S (u
k
)) = T

¸
n
¸
j=1
b
j k
v
j
¸

=
n
¸
j=1
b
j k
T (v
j
) =
n
¸
j=1
b
j k
t
¸
i=1
a
i j
w
i
=
t
¸
i=1

¸
n
¸
j=1
a
i j
b
j k
¸

w
i
=
t
¸
i=1
c
i k
w
i
.
Resulta, por definici´on de matriz asociada
C
((T ◦ S))
A
= (c
i j
).
OBSERVACI
´
ON 7.24. Sea T : V → W un isomorfismo, B y B’ bases
de V y W respectivamente, y sea T
−1
: W →V la inversa de T.
Como T ◦ T
−1
= id
W

B
′ ((T))
B
.
B

T
−1

B

= B

((id
W
))
B
′ = I
y de T
−1
◦ T = id
V

B

T
−1

B

.
B
′ ((T))
B
=
B
((id
V
))
B
= I
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 231
y por lo tanto la matriz asociada a la transformaci´on inversa es la inversa
de la matriz asociada a la transformaci´on. Es decir si
B
′ ((T))
B
= A ⇒
B

T
−1

B

= A
−1
PROPOSICI
´
ON 7.25. Sean dos transformaciones lineales de espacios vec-
toriales sobre un cuerpo K, T : V → W y S : V → W y α un escalar de
K. Sea B = {v
1
, . . . , v
n
} base de V y E = {w
1
, . . . , w
m
} base de W.
Entonces:
E
((T + S))
B
=
E
((T))
B
+
E
((S))
B
,
E
((λT))
B
= λ
E
((T))
B
,
Demostraci´ on. Sean A = (a
i j
) =
E
((T))
B
B = (b
i j
) =
E
((S))
B
. En-
tonces: T (v
j
) =
m
¸
i =1
a
i j
w
i
S (v
j
) =
m
¸
i =1
b
i j
w
i
. De donde (T + S ) (v
j
) =
T (v
j
) + S (v
j
) =
m
¸
i =1
a
i j
w
i
+
m
¸
i =1
b
i j
w
i
=
m
¸
i =1
(a
i j
+ b
i j
) w
i

E
((T + S))
B
= (a
i j
+ b
i j
) = A + B. Adem´as (λT) v
j
= λT (v
j
) =
m
¸
i =1
a
i j
w
i
=
m
¸
i =1
λa
i j
w
i

E
((λT))
B
= (λa
i j
) = λA.
OBSERVACI
´
ON 7.26. Demostraci´on de la propiedad asociativa del pro-
ducto de matrices usando transformaciones lineales.
Se trata de ver que si A, B, C son matrices, entonces:
(AB) C = A (BC)
si las dimensiones relativas de las matrices hacen que la expresi´on tenga
sentido.
Ya vimos (observaci´on 7.22) que fijando bases hay una correspondencia
biun´ıvoca entre matrices y transformaciones lineales, por lo tanto, el pro-
ducto anterior se puede interpretar como un producto (o composici´on) de
transformaciones lineales.
Consideremos los espacios vectoriales K
m
, K
n
, K
p
, K
r
y sus respec-
tivas bases E
m
, E
n
, E
p
E
r
. Sean T : K
n
→ K
m
tal que
Em
((T))
En
=
232 7. TRANSFORMACIONES LINEALES.
A
m×n
, S : K
p
→ K
n
tal que
En
((S))
Ep
= B
n×p
y L : K
r
→ K
p
tal que
Ep
((L))
Er
= C
p ×r
.
Luego, en virtud de que la composici´on de funciones es asociativa tene-
mos que:
(A. B) . C = [((T)) . ((S))] . ((L)) = ((T ◦ S)) . ((L)) =
= (((T ◦ S) L)) = ((T ◦ (S ◦ L) )) =
= ((T)) . ((S L)) = ((T)) [((S)) . ((L))] = A. (B.C)
(Hemos omitido para simplificar la notaci´on, las bases en cuesti´on.)
TEOREMA 7.27. Sean V, W espacios vectoriales sobre un mismo cuerpo
K, A = {v
1
, v
2
, . . . , v
n
} y B = {w
1
, w
2
, . . . , w
m
} bases ordenadas de V y
W respectivamente; y T : V → W una transformaci´ on lineal. Entonces se
cumple que
B
((T))
A
coord
A
(v) = coord
B
(T (v))
Demostraci´ on. Usaremos las siguientes notaciones
B
((T))
A
=

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

y coord
A
(v) =

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

siendo
B
((T))
A
=

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

y B = {w
1
, w
2
, . . . , w
m
},
por definici´on de matriz asociada
(I)
T (v
1
) = a
11
w
1
+a
21
w
2
+. . . . +a
m1
w
m
T (v
2
) = a
12
w
1
+a
22
w
2
+. . . . +a
m2
w
m
.
.
.
T (v
n
) = a
1n
w
1
+a
2n
w
2
+. . . . +a
mn
w
m
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 233
y siendo coord
A
(v) =

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

y A = {v
1
, v
2
, . . . , v
n
} tenemos que
v = x
1
v
1
+x
2
v
2
+. . . +x
n
v
n
. Luego aplicando T y usando la linealidad
(II) T (v) = x
1
T (v
1
) +x
2
T (v
2
) +. . . +x
n
T (v
n
)
Sustituimos (I) en (II) obteniendo
T (v) =
x
1
(a
11
w
1
+a
21
w
2
+. . . +a
m1
w
m
) +x
2
(a
12
w
1
+a
22
w
2
+. . . +a
m2
w
m
)
+. . . +x
n
(a
1n
w
1
+a
2n
w
2
+. . . +a
mn
w
m
) =
= (x
1
a
11
+x
2
a
12
+. . . +x
n
a
1n
) w
1
+ (x
1
a
21
+x
2
a
22
+. . . +x
n
a
2n
) w
2
+. . . + (x
1
a
m1
+x
2
a
m2
+. . . +x
n
a
mn
) w
m
.
Luego coord
B
(T (v)) =

¸
¸
¸
¸
¸
x
1
a
11
+x
2
a
12
+. . . . +x
n
a
1n
x
1
a
21
+x
2
a
22
+. . . . +x
n
a
2n
.
.
.
x
1
a
m1
+x
2
a
m2
+. . . . +x
n
a
mn
¸

=
=

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

=
B
((T))
A
coord
A
(v)
EJEMPLO 7.18. Sea T : R
3
→ R
3
tal que
B
((T))
A
=

¸
¸
1 −1 0
2 0 0
3 4 1
¸

siendo A = B = {(1, 0, 0) , (1, 1, 0) , (1, 1, 1)} . Hallar T (2, 0, −1).
Como (2, 0, −1) = 2 (1, 0, 0) + (−1) (1, 1, 0) + 1 (1, 1, 1)
234 7. TRANSFORMACIONES LINEALES.
resulta que coord
A
(2, 0, −1) =

¸
¸
2
−1
1
¸

Luego de acuerdo al Teorema 7.27 se cumple que
coord
B
(T ((2, 0, −1))) =
B
((T))
A
coord
A
(2, 0, −1) =
=

¸
¸
1 −1 0
2 0 0
3 4 1
¸

¸
¸
2
−1
1
¸

=

¸
¸
3
4
−3
¸

As´ı T (2, 0, −1) = 3 (1, 0, 0) + 4 (1, 1, 0) + (−3) (1, 1, 1) = (4, 1, −3)
7.7. N´ ucleo e imagen de una matriz.
Dada una matriz A ∈ M
nxm
(K), definimos la transformaci´on T
A
:
K
m
→K
n
tal que
T
A
(x
1
, . . . , x
m
) = A

¸
¸
¸
x
1
.
.
.
x
m
¸

∀ (x
1
, . . . , x
m
) ∈ K
m
PROPOSICI
´
ON 7.28. (a) T
A
es lineal
(b) Si E
m
y E
n
son las bases can´ onicas de K
m
y K
n
respectivamente
entonces
En
((T
A
))
Em
= A
Demostraci´ on. (Ejercicio).
DEFINICI
´
ON 7.8. Sea A ∈ M
nxm
(K). Definimos el n´ ucleo de la matriz
A como el n´ ucleo de la transformaci´on lineal T
A
.
N (A)
def
= N (T
A
) =

x ∈ R
m
: T
A
(x) =

0
¸
=

x ∈ R
m
: A x =

0
¸
En otras palabras el N (A) son las soluciones del sistema de ecuaciones
homog´eneo A x =

0.
7.7. N
´
UCLEO E IMAGEN DE UNA MATRIZ. 235
DEFINICI
´
ON 7.9. Sea A ∈ M
nxm
(K). Definimos la imagen de la ma-
triz A como la imagen de la transformaci´on lineal T
A
.
Im(A)
def
= Im(T
A
) = {y ∈ R
n
: existe x ∈ R
m
tal que T
A
(x) = y} =
{y ∈ R
n
: existe x ∈ R
m
tal que A x = y}
En otras palabras la Im(A) son los ”t´erminos independientes”y ∈ R
n
para
los cuales el sistema A x = y es compatible.
OBSERVACI
´
ON 7.29. Resulta obvio de las definiciones 7.2. y 7.3. que
N (A) es un subespacio de R
m
y Im(A) es un subespacio de R
n
(por serlo
N (T
A
) e Im(T
A
))
PROPOSICI
´
ON 7.30. Las columnas de A generan a la Im(A).
Demostraci´ on. Sea T
A
: K
m
→K
n
tal que T
A
(x
1
, . . . , x
m
) = A

¸
¸
¸
x
1
.
.
.
x
m
¸

.
Si {e
1
, e
2
, . . . , e
m
} es la base can´onica de R
m
. Entonces de acuerdo a
la proposici´on 7.10(i) {T
A
(e
1
) , T
A
(e
2
) , . . . ., T
A
(e
m
)} es un generador de la
Im(T
A
) = Im(A). Pero T
A
(e
i
) = A

¸
¸
¸
¸
¸
¸
¸
¸
0
.
.
.
1
.
.
.
0
¸

= A
(i)
(i-´esima columna de
A) As´ı las columnas de A
¸
A
(1)
, . . . , A
(m)
¸
constituyen un generador de la
Im(A).
COROLARIO 7.31. El rango de una matriz A es la dimensi´ on de su
imagen, es decir r (A) = dim(Im(A)).
236 7. TRANSFORMACIONES LINEALES.
EJEMPLO 7.19. Hallemos bases del n´ ucleo y de la imagen de la matriz
A =

¸
¸
1 0 1
2 1 1
−1 1 −2
¸

. Sea (x, y, z) ∈ N (A) . Entonces
A

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 01
2 1 1
−1 1 −2
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 0 1
0 1 −1
0 1 −1
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 0 1
0 1 −1
0 0 0
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

x +z = 0
y −z = 0

x = −z
y = z
z cualquiera
Luego los vectores del n´ ucleo de A son de la forma (−z, z, z) = z (−1, 1, 1).
As´ı {(−1, 1, 1)} es base del N (A) (¿por qu´e?)
Por otro lado de acuerdo a la Proposici´on 7.30 resulta que
{(1, 2, −1) , (0, 1, 1) , (1, 1, −2)} genera a la Im(A). Como
(1, 1, −2) = (1, 2, −1)−(0, 1, 1) , el generador es L.D. y lo reducimos hallando
{(1, 2, −1) , (0, 1, 1)} que es un generador L.I. –y por tanto una base– de
Im(A) (verifique).
EJEMPLO 7.20. Hallar una base del n´ ucleo y una base de la imagen de
la matriz
A =

¸
¸
1 −1 1 1
1 0 2 −1
1 1 3 −3
¸

. Sea (x, y, z, t) ∈ N (T) . Entonces
A

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
1 0 2 −1
1 1 3 −3
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸


7.8. N
´
UCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 237

¸
¸
1 −1 1 1
0 1 1 −2
0 2 2 −4
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
0 1 1 −2
0 0 0 0
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

x −y +z +t = 0
y +z −2t = 0

x = −2z +t
y = −z + 2t
z = cualquiera
t = cualquiera
As´ı los vectores del n´ ucleo de A son de la forma
(−2z +t, −z + 2t, z, t) = z (−2, 1, 0, 1) +t (1, 2, 0, 1)
Luego {(−2, 1, 0, 1) , (1, 2, 0, 1)} es un generador L.I. del N (A) (verifique) y
por lo tanto es base.
Por la proposici´on 7.30 {(1, 1, 1) , (−1, 0, 1) , (1, 2, 3) , (1, −1, −3)} es un
generador de la Im(A) que claramente es L.D.
Observando que (1, 2, 3) = 2 (1, 1, 1) + (−1, 0, 1)
(1, −1, −3) = −1 (1, 1, 1) + (−2) (−1, 0, 1)
reducimos el generador anterior hasta obtener {(1, 1, 1) , (−1, 0, 1)} que es
un generador L.I. de la Im(A) y por lo tanto es base.
7.8. Relaci´on entre n´ ucleo e imagen de una transformaci´on lineal
y de una matriz.
PROPOSICI
´
ON 7.32. Sean V, W espacios vectoriales sobre un mismo
cuerpo A = {v
1
, v
2
, . . . ., v
n
} una base de V, B = {w
1
, w
2
, . . . ., w
n
} una
base de W, T : V →W lineal. Entonces:
238 7. TRANSFORMACIONES LINEALES.
1) Si v ∈ N (T) ⇒coord
A
(v) ∈ N (
B
((T))
A
)
2) Si x ∈ N (
B
((T))
A
) ⇒coord
−1
A
(x) ∈ N (T)
Demostraci´ on. 1) Si v ∈ N (T) entonces T (v) =

0. Luego como T (v)
y

0 coinciden sus coordenadas en la base B tambi´en: coord
B
(T (v)) =
coord
B

0

. Siendo coord
B
: W → R
m
una transformaci´on lineal se cum-
ple: coord
B

0

=

0. As´ı coord
B
(T (v)) =

0. Pero, por el Teorema 7.27:
coord
B
(T (v)) =
B
((T))
A
coord
A
(v)
As´ı
B
((T))
A
coord
A
(v) =

0 esto es coord
A
(v) ∈ N (
B
((T))
A
)
2) Si x = (x
1
, . . . ., x
n
) ∈ N (
B
((T))
A
) ⇒
B
((T))
A

¸
¸
¸
x
1
.
.
.
x
n
¸

=

0. En-
tonces, teniendo en cuenta que las columnas de la matriz asociada son las
coordenadas de los transformados de la base del dominio se tiene que
([coord
B
(T (v
1
))] . . . [coord
B
(T (v
1
))]) .

¸
¸
¸
x
1
.
.
.
x
n
¸

=

0
⇒coord
B
(T (v
1
)) .x
1
+. . . +coord
B
(T (v
n
)) .x
n
=

0 ⇒
(por ser coord
B
lineal )
⇒ coord
B
(x
1
T (v
1
) +. . . . . . +x
n
T (v
n
)) =

0
(por ser coord
B
inyectiva)
⇒ x
1
T (v
1
) +. . . . . . +x
n
T (v
n
) =

0
(linealidad de T)
⇒ T (x
1
v
1
+. . . +x
n
v
n
) = o
V
⇒x
1
v
1
+. . . +x
n
v
n
. .. .
coord
−1
A
(x)
∈ N (T) .
7.8. N
´
UCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 239
OBSERVACI
´
ON 7.33. Con las notaciones de la proposici´on anterior re-
cordemos que coord
A
: V →R
n
es un isomorfismo entre V y R
n
.
Pero la proposici´on anterior nos asegura que todo vector del N (T), al
aplicarle la transformaci´on lineal coord
A
se obtiene un vector del N (
B
((T))
A
)
y rec´ıprocamente todo vector del N (
B
((T))
A
) al aplicarle la transformaci´on
lineal inversa coord
−1
A
(x) se obtiene un vector del N (T).
Luego coord
A
es un isomorfismo entre el N (T) y N (
B
((T))
A
). Esto nos
permite enunciar la siguiente
PROPOSICI
´
ON 7.34. Sean V, W espacios vectoriales sobre un mismo
cuerpo A = {v
1
, v
2
, . . . ., v
n
} una base de V, B = {w
1
, w
2
, . . . ., w
n
} una
base de W, T : V →W lineal. Entonces:
1) N (T) y N (
B
((T))
A
) son isomorfos
2) dim(N(T)) = n −rango(
B
((T))
A
).
3) Si {e
1
, e
2
, . . . , e
k
} es base del N (T) ⇒
{coord
A
(e
1
) , coord
A
(e
2
) , . . . , coord
A
(e
k
)} es base del N (
B
((T))
A
)
4) Si {x
1
, x
2
, . . . , x
k
} es base del N (
B
((T))
A
) ⇒
¸
coord
−1
A
(x
1
) , coord
−1
A
(x
2
) , . . . ., coord
−1
A
(x
k
)
¸
es base del N (T).
Demostraci´ on. (Ejercicio) Sugerencias:
1) Vimos en la observaci´on anterior que coord
A
es un isomorfismo entre
N (T) y N (
B
((T))
A
).
2) Basta recordar que dos espacios isomorfos tienen la misma dimensi´on
y que si M es una matriz, dim(Im(M)) = rango (M).
3) Los isomorfismos ”llevan bases en bases”.
4) La inversa de un isomorfismo es un isomorfismo.
Recomendamos prestar particular atenci´on a los ejemplos que siguen.
240 7. TRANSFORMACIONES LINEALES.
EJEMPLO 7.21. Se considera una transformaci´on lineal T : M
2x2
(R) →
R
3
tal que
B
((T))
A
=

¸
¸
1 −1 1 1
1 0 2 −1
1 1 3 −3
¸

siendo
A =

1 1
1 1

,

0 0
−1 0

,

1 −1
0 0

,

1 0
0 0
¸
y B = {(1, 1, 1) , (0, 1, 1) , (0, 0, 1)} .
Queremos hallar una base del n´ ucleo de T. Primero calculamos una base del
n´ ucleo de la matriz
B
((T))
A
. Sea (x, y, z, t) ∈ N (
B
((T))
A
) . Entonces
B
((T))
A

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
1 0 2 −1
1 1 3 −3
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
0 1 1 −2
0 2 2 −4
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
0 1 1 −2
0 0 0 0
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

x −y +z +t = 0
y +z +t = 0

x = −2z −2t
y = −z −t
As´ı los vectores del n´ ucleo de la matriz
B
((T))
A
son de la forma
(−2z −2t, z +t, z, t) = z (−2, 1, 1, 0) +t (−2, 1, 0, 1)
Entonces {(−2, 1, 1, 0) , (−2, 1, 0, 1)} es una base del N (
B
((T))
A
).
Luego, de acuerdo con la Proposici´on 7.34
¸
coord
−1
A
(−2, 1, 1, 0) , coord
−1
A
(−2, 1, 0, 1)
¸
=
7.8. N
´
UCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 241
=

−2

1 1
1 1

+ 1

0 0
−1 0

+ 1

1 −1
0 0

+ 0

1 0
0 0

,
−2

1 1
1 1

+ 1

0 0
−1 0

+ 0

1 −1
0 0

+ 1

1 0
0 0
¸
=
=

−1 −3
−3 −2

,

−1 −2
−3 −2
¸
es una base del n´ ucleo de T.
EJEMPLO 7.22. Se considera una transformaci´on lineal T : R
2
→ R
2
tal
que
B
((T))
A
=

1 2
2 4

siendo A = B = {(1, 0) , (1, 1)}. Queremos hallar
una base del n´ ucleo de T.
Primero calculemos una base del n´ ucleo de la matriz
B
((T))
A
:
(x, y) ∈ N (
B
((T))
A
) ⇔
B
((T))
A

x
y

=

0
0


1 2
2 4

x
y

=

0
0

⇔ x + 2y = 0 ⇔x = −2y
As´ı los vectores del n´ ucleo de la matriz
B
((T))
A
son de la forma: (−2y, y) =
y (−2, 1). Entonces {(−2, 1)} es una base de N (
B
((T))
A
). Luego, de acuerdo
a la Proposici´on 7.34,
¸
coord
−1
A
(−2, 1)
¸
= {−2 (1, 0) + 1 (1, 1)} = {(−1, 1)}
es una base del N (T).
EJEMPLO 7.23. Se considera una transformaci´on lineal T : P
2
→ R
3
tal
que
B
((T))
A
=

¸
¸
1 2 −1
0 1 1
−1 1 −2
¸

siendo A = {p
0
, p
1
, p
2
} con p
i
: p
i
(t) =
t
i
(i = 0, 1, 2) y B = {(2, 0, −1) , (0, 1, 4) , (0, 0, 3)}.
Queremos hallar una base del n´ ucleo de T.
242 7. TRANSFORMACIONES LINEALES.
Primero calculamos una base del n´ ucleo de la matriz
B
((T))
A
(x, y, z) ∈ N (
B
((T))
A
) ⇔
B
((T))
A

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 2 −1
0 1 1
−1 1 −2
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 2 −1
0 1 1
0 3 −3
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 2 −1
0 1 1
0 0 0
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

x + 2y −z = 0
y +z = 0

x = 3z
y = −z
As´ı los vectores del n´ ucleo de
B
((T))
A
son de la forma:
(3z, −z, z) = z (3, −1, 1) . Entonces {(3, −1, 1)} es una base del N (
B
((T))
A
).
Luego, de acuerdo a la proposici´on 7.34, una base del n´ ucleo de N(T) es
¸
coord
−1
A
(3, −1, 1)
¸
= {3p
0
+ (−1) p
1
+ 1p
2
} = {3p
0
−p
1
+p
2
} .
PROPOSICI
´
ON 7.35. Sean V, W espacios vectoriales sobre un mismo
cuerpo K, A = {v
1
, v
2
, . . . ., v
n
} una base de V. B = {w
1
, w
2
, . . . ., w
m
} una
base de W, T : V →W lineal. Entonces
1) Si w ∈ Im(T) ⇒coord
B
(w) ∈ Im(
B
((T))
A
)
2) Si y ∈ Im(
B
((T))
A
) ⇒coord
−1
B
(y) ∈ Im(T)
Demostraci´ on. 1) Si w ∈ Im(T) ⇒existe v ∈ V tal que T (v) = w- Luego
coord
B
(T (v)) = coord
B
(w). Pero por el Teorema 7.27 coord
B
(T (v)) =
B
((T))
A
coord
A
(v). As´ı coord
B
(w) =
B
((T))
A
coord
A
(v)
Hemos probado que existe coord
A
(v) ∈ R
n
tal que
B
((T))
A
coord
A
(v) = coord
B
(w)
⇒coord
B
(w) ∈ Im(
B
((T))
A
)
7.8. N
´
UCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 243
2) Si y = (y
1
, . . . ., y
m
) ∈ Im(
B
((T))
A
) ⇒ existe x = (x
1
, . . . ., x
n
) ∈ R
n
tal
que
B
((T))
A

¸
¸
¸
x
1
.
.
.
x
n
¸

=

¸
¸
¸
y
1
.
.
.
y
m
¸


⇒x
1
coord
B
(T (v
1
)) +. . . +x
n
coord
B
(T (v
n
)) = y
⇒coord
B
(x
1
T (v
1
) +. . . +x
n
T (v
n
)) = y
x
1
T (v
1
) +. . . +x
n
T (v
n
) = coord
−1
B
(y) ⇒
T(x
1
v
1
+. . . +x
n
v
n
. .. .
= v
0
) = coord
−1
B
(y) .
As´ı existe v
0
∈ V tal que T (v
0
) = coord
−1
B
(y) ⇒coord
−1
B
(y) ∈ Im(T) .
OBSERVACI
´
ON 7.36. Al igual que la observaci´on 7.33 concluimos que
coord
B
es un isomorfismo entre Im(T) y Im(
B
((T))
A
).
PROPOSICI
´
ON 7.37. Sean V, W espacios vectoriales sobre un mismo
cuerpo A = {v
1
, v
2
, . . . ., v
n
} una base de V, B = {w
1
, w
2
, . . . ., w
n
} una
base de W, T : V →W lineal. Entonces:
1) Im(T) e Im(
B
((T))
A
) son isomorfos.
2) dim(Im(T)) = rango (A)
3) Si {h
1
, . . . ., h
k
} es una base de la Im(T) ⇒
{coord
B
(h
1
) , coord
B
(h
2
) , . . . . . . , coord
B
(h
k
)} es base de la Im(
B
((T))
A
)
4) si {y
1
, . . . ., y
k
} es una base de la Im(
B
((T))
A
) entonces
¸
coord
−1
B
(y
1
) , coord
−1
B
(y
2
) , . . . ., coord
−1
B
(y
k
)
¸
es base de la Im(T).
Demostraci´ on. (Ejercicio).
244 7. TRANSFORMACIONES LINEALES.
EJEMPLO 7.24. Consideremos la transformaci´on lineal del ejemplo 7.21
Hallemos una base de la Im(T).
Primero hallemos una base de la imagen de la matriz
B
((T))
A
.
Sabemos de la proposici´on 7.30 que las columnas de
B
((T))
A
:
{(1, 1, 1) , (−1, 0, 1) , (1, 2, 3) , (1, −1, −3)}
son un generador de la Im(
B
((T))
A
). Claramente es L.D. Reducimos dicho
generador hasta obtener el generador L.I.: {(1, 1, 1) , (−1, 0, 1)}. As´ı {(1, 1, 1) , (−1, 0, 1)}
es una base de la Im(
B
((T))
A
).
Luego de acuerdo a la proposici´on 7.37
¸
coord
−1
B
(1, 1, 1) , coord
−1
B
(−1, 0, 1)
¸
=
= {1 (1, 1, 1) + 1 (0, 1, 1) + 1 (0, 0, 1) , −1 (1, 1, 1) + 0 (0, 1, 1) + 1 (0, 0, 1)}
= {(1, 2, 3) , (−1, −1, 0)} es base de la Im(T).
EJEMPLO 7.25. Consideremos la transformaci´on lineal del ejemplo 7.22
Hallemos una base de la Im(T). Primero hallemos una base de la imagen
de la matriz
B
((T))
A
. Por la proposici´on 7.30 las columnas de
B
((T))
A
,
{(1, 2) , (2, 4)} son un generador de la Im(
B
((T))
A
). Claramente es L.D.
Lo reducimos y hallamos {(1, 2)} base de la Im(
B
((T))
A
). Luego por la
proposici´on 7.37
¸
coord
−1
B
(1, 2)
¸
= {1 (1, 0) + 2 (1, 1) } = {(3, 2)} es una
base de la Im(T).
EJEMPLO 7.26. Consideremos la transformaci´on lineal del ejemplo 7.23
Hallemos una base de la Im(T). De acuerdo a la proposici´on 7.30 {(1, 0, −1) , (2, 1, 1) , (−1, 1, −2)}
es un generador de la Im(
B
((T))
A
).
Como es L.D., lo reducimos hasta obtener {(1, 0, −1) , (2, 1, 1)} que es
una base de la Im(
B
((T))
A
). Luego por la proposici´on 7.37
¸
coord
−1
B
(1, 0, −1) , coord
−1
B
(2, 1, 1,)
¸
=
{1 (2, 0, −1) + 1 (0, 1, 4) + (−1) (0, 0, 3) , 2 (2, 0, −1) + 1 (0, 1, 4) + 1 (0, 0, 3)}
{(2, 0, −4) , (5, 1, 5)} es base de la Im(T).
7.9. CAMBIO DE BASE. 245
7.9. Cambio de base.
Sea V un espacio vectorial de dimensi´on finita sobre un cuerpo K. Su-
pongamos que dim(V ) = n. Consideremos una base A del espacio V. He-
mos visto que todo vector v ∈ V , se puede representar por la n-´ upla (vector
columna) coord
A
(v) ∈ K
n
.
En esta secci´on responderemos la siguiente pregunta natural ¿c´omo cam-
bian nuestras representaciones si seleccionamos otras bases? Es decir si con-
sideramos otra base A’ del espacio V, ¿c´omo se relaciona coord
A
′ (v) con
coord
A
(v)?
Para responder estas preguntas necesitamos la siguiente
DEFINICI
´
ON 7.10. Sean A = {v
1
, v
2
, . . . , v
n
} y A

= {v

1
, v

2
, . . . , v

n
}
bases del espacio V e I : V → V la transformaci´on identidad (esto es
I (v) = v ∀v ∈ V ). Llamaremos matriz de cambio de la base (”vieja”) A a
la base (”nueva”) A’ a la matriz:
A
′ ((I))
A
.
La relaci´on entre las coordenadas est´a dada por la siguiente
PROPOSICI
´
ON 7.38. coord
A
′ (v) =
A
′ ((I))
A
coord
A
(v)
Demostraci´ on. Por Teorema 7.27
coord
A
′ (I (v)) =
A
′ ((I))
A
coord
A
(v)
Pero siendo I (v) = v, se obtiene la hip´otesis.
PROPOSICI
´
ON 7.39. Sea V un espacio vectorial sobre un cuerpo K. A
y A’ bases de V. I : V →V la transformaci´ on lineal identidad. Entonces:
1)
A
((I))
A
=

¸
¸
¸
¸
¸
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . 1
¸

(matriz identidad)
2)
A
′ ((I))
A
es invertible y [
A
′ ((I))
A
]
−1
=
A
((I))
A

246 7. TRANSFORMACIONES LINEALES.
Demostraci´ on. (Ejercicio).
PROPOSICI
´
ON 7.40. Sean V y W espacios vectoriales sobre un mismo
cuerpo K, A, A’ bases de V, B, B’ bases de W, T : V → W una transfor-
maci´ on lineal. Entonces
B
′ ((T))
A
′ =
B
′ ((I
W
))
B
B
((T))
A
A
((I
V
))
A

donde I
V
: V → V y I
W
: W → W son las transformaciones lineales
identidad en V y W respectivamente.
Demostraci´ on. Como I
W
◦ T ◦ I
V
≡ T se tiene, aplicando la proposici´on
7.23 reiteradamente
B
′ ((I
W
◦ T ◦ I
V
))
A
′ =
B
′ ((T))
A
′ ⇒
B
′ ((I
W
))
B
B
((T ◦ I
V
))
A
′ =
B
′ ((T))
A


B
′ ((I
W
))
B
B
((T))
A
A
((I
V
))
A
′ =
B
′ ((T))
A
′ .
7.10. Operadores y matrices semejantes.
Sea V un espacio vectorial de dimensi´on finita sobre un cuerpo K. Su-
pondremos que dim
K
(V ) = n.
DEFINICI
´
ON 7.11. Llamaremos operador en V a toda transformaci´on
lineal T : V →V .
DEFINICI
´
ON 7.12. Sean A yB ∈ M
nxn
(K). Diremos que A y B son
semejantes cuando existe P∈ M
n×n
(K) invertible tal que B = P
−1
A P.
7.10. OPERADORES Y MATRICES SEMEJANTES. 247
EJEMPLO 7.27. La matriz B =

3 −2
1 2

y la matriz A =

4 −2
2 1

son semejantes, pues existe P =

1 −1
1 0

cuya inversa es P
−1
=

0 1
−1 1

tal que

3 −2
1 2

=

0 1
−1 1

4 −2
2 1

1 −1
1 0

(verifique!).
PROPOSICI
´
ON 7.41. Sean A, B ∈ M
nxn
(K). A y B son semejantes ⇔
A y B son representaciones matriciales de un mismo operador T en V, para
alg´ un espacio vectorial V .
Demostraci´ on. (⇒) Si consideramos la transformaci´on lineal T : K
n

K
n
tal que T (x
1
, x
2
, . . . ., x
n
) = A

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

, entonces de acuerdo a la Pro-
posici´on 7.28(b) tenemos A =
E
((T))
E
siendo E = {e
1
, e
2
, . . . ., e
n
} la base
can´onica de K
n
.
Por otro lado, siendo A y B semejantes, existe P ∈ M
n×n
(R) invertible
tal que:
B = P
−1
AP
Pero se cumple que: P =
E
((I))
H
donde H = {Pe
1
, Pe
2
, . . . ., Pe
n
} y por la
Proposici´on 7.39
P
−1
=
H
((I))
E
As´ı
B =
H
((I))
E
E
((T))
E
E
((I))
H
Pero por la Proposici´on 7.40
H
((I))
E
E
((T))
E
E
((I))
H
=
H
((T))
H
Por lo tanto
B =
H
((T))
H
248 7. TRANSFORMACIONES LINEALES.
(⇐) Supongamos que B =
H
((T))
H
, A =
E
((T))
E
. Por la Proposici´on
7.40 sabemos que
H
((T))
H
=
H
((I))
E
E
((T))
E
E
((I))
H
Sea P =
E
((I))
H
, por la Proposici´on 7.39 tenemos que P
−1
=
H
((I))
E
.
Hemos probado entonces que B = P
−1
A P, es decir A y B son semejantes.
PROPOSICI
´
ON 7.42. Sean A y B matrices semejantes en M
n×n
(K).
Entonces
1) rango (A) = rango (B)
2) traza (A) = traza (B)
3) det (A) = det (B)
Demostraci´ on. 1) Por la proposici´on anterior, existe un operador lineal
en V y bases A y B en dicho espacio tales que A =
A
((T))
A
yB =
B
((T))
B
.
Luego rango (A) = rango (
A
((T))
A
) = dim(Im(T))
rango (B) = rango (
B
((T))
B
) = dim(Im(T))
As´ı rango (A) = rango (B)
2) Existe P ∈ M
nxn
(R) invertible tal que B = P
−1
A P. Luego
traza (B) = traza

P
−1
A P

= traza

A P P
−1

= traza (A I) = traza (A)
(Recordar que traza(MN)=traza(NM))
3)det (B) = det

P
−1
A P

= det

P
−1

det (A) det (P) =
= det (A) det

P
−1

det (P) = det (A)
(Recordar que det(MN)=det(M).det(N) y det

M
−1

= (det (M))
−1
).
7.11. EL ESPACIO VECTORIAL L(V, W) 249
OBSERVACI
´
ON 7.43. No vale el rec´ıproco de la proposici´on anterior pues
A =

1 0
0 1

y B =

1 0
1 1

cumplen
rango (A) = rango (B) = 2
traza (A) = traza (B) = 2
det (A) = det (B) = 1
Sin embargo, no puede existir P invertible tal que B = P
−1
AP pues B = A.
7.11. El espacio vectorial L(V, W)
Sean V, W espacios sobre un mismo cuerpo K. Notaremos L(V, W) al
conjunto de todas las transformaciones lineales T : V →W.
PROPOSICI
´
ON 7.44. El conjunto L(V, W) con la suma de transforma-
ciones lineales y el producto por un escalar por una transformaci´ on lineal
definidas en la secci´ on 2, forman un espacio vectorial.
Demostraci´ on. (Ejercicio).
PROPOSICI
´
ON 7.45. Sean V,W espacios vectoriales de dimensi´ on finita
sobre un mismo cuerpo K. Supongamos que dim(V ) = n y dim(W) = m,
entonces L(V, W) es isomorfo a M
mxn
(K).
Demostraci´ on. Probaremos que existe una transformaci´on lineal
F : L(V, W) →M
mxn
(K)
biyectiva.
Definimos F de la siguiente manera: Fijemos A base de V y B base de
W. Luego, a cada transformaci´on T ∈ L(V, W) le asignamos por imagen
250 7. TRANSFORMACIONES LINEALES.
mediante F a la matriz
B
((T))
A
∈ M
mxn
(K), esto es F (T) =
B
((T))
A
Probemos que F es lineal. Sean T
1
, T
2
∈ L(V, W) y λ, µ ∈ K.
F (λT
1
+µT
2
) =
B
((λT
1
+µT
2
))
A
= λ
B
((T
1
))
A

B
((T
2
))
A
=
λF (T
1
) +µF (T
2
) .
Probemos que F es biyectiva.
1) F es inyectiva. Sean T
1
, T
2
∈ L(V, W) tales que T
1
= T
2
. Debemos
probar que F (T
1
) = F (T
2
).
En efecto siendo A una base de V por la proposici´on 7.3 existe v
i
∈ A tal
que T
1
(v
i
) = T
2
(v
i
), entonces coord
B
(T
1
(v
i
)) = coord
B
(T
2
(v
i
)). Pero de
acuerdo a la definici´on de matriz asociada coord
B
(T
1
(v
i
)) y coord
B
(T
2
(v
i
))
son las i-´esimas columnas de las matrices
B
((T
1
))
A
y
B
((T
2
))
A
respectiva-
mente.
As´ı
B
((T
1
))
A
=
B
((T
2
))
A
; esto es F (T
1
) = F (T
2
).
2) F es sobreyectiva. Dada M ∈ M
nxn
(R), debemos probar que existe
T ∈ L(V, W) tal que F (T) = M.
Vimos en la observaci´on 7.22 que dada una matriz M ∈ M
nxn
(K) existe
una transformaci´on lineal T : V →W tal que
B
((T))
A
= M, es decir que
existe T ∈ L(V, W), F (T) = M.
COROLARIO 7.46. Sean V,W espacios vectoriales de dimensi´ on finita
sobre un mismo cuerpo K.
Se cumple que dim(L(V, W)) = dim(V ) .dim(W).

´ Indice general
PREFACIO Cap´ ıtulo 0. RELACIONES Y FUNCIONES 0.1. Relaciones 0.2. Relaciones de equivalencia 0.3. Conjunto Cociente 0.4. Funciones 0.5. Composici´n de funciones o Cap´ ıtulo 1. 1.1. 1.2. 1.3. 1.4. 1.5. 1.6. SISTEMAS LINEALES DE ECUACIONES Y MATRICES 19 Introducci´n o Matrices El m´todo de escalerizaci´n e o Teorema de Rouche-Frobenius Sistemas homog´neos e Una interpretaci´n geom´trica o e vii 1 1 2 6 9 15

19 24 27 38 43 44 49 49 51 57 66 71 82 85

´ Cap´ ıtulo 2. ALGEBRA DE MATRICES 2.1. Operaciones con matrices 2.2. Producto de matrices 2.3. Ecuaciones matriciales. Matriz inversa. 2.4. El espacio de n-uplas 2.5. Dependencia lineal 2.6. El rango de una matriz 2.7. Matrices invertibles y rango
iii

iv

´ INDICE GENERAL

2.8.

Matrices elementales

87 95 95 97 114 116 117 119 123 127 127 129 131 134 135 138 139 142 145 145 148 151 157 161 165 167 168 170 174 180

Cap´ ıtulo 3. DETERMINANTES 3.1. Definici´n o 3.2. Propiedades de los determinantes 3.3. Matrices elementales y determinantes 3.4. Matrices invertibles y determinantes 3.5. Determinante de un producto de matrices 3.6. C´lculo de la matriz inversa por determinantes a 3.7. Regla de Cramer Cap´ ıtulo 4. RECTAS Y PLANOS EN EL ESPACIO 4.1. Introducci´n o 4.2. Vectores 4.3. Operaciones con vectores. 4.4. Ecuaciones vectoriales de rectas y planos. Paralelismo 4.5. Sistemas de coordenadas 4.6. Ecuaciones param´tricas de rectas y planos e 4.7. Ecuaciones impl´ ıcitas de rectas y planos 4.8. Posiciones relativas de rectas y planos. Cap´ ıtulo 5. PRODUCTO ESCALAR Y VECTORIAL 5.1. Producto escalar 5.2. Aplicaciones a la geometr´ ´ngulos y distancias ıa: a 5.3. Aplicaciones: ecuaciones de algunas superficies 5.4. Producto vectorial. 5.5. Aplicaciones geom´tricas. e 5.6. Producto mixto Cap´ ıtulo 6. ESPACIOS VECTORIALES 6.1. Espacios vectoriales 6.2. Ejemplos de espacios vectoriales 6.3. Subespacios 6.4. Subespacio generado e independencia lineal

´ INDICE GENERAL

v

6.5. 6.6.

Base de un espacio vectorial y dimensi´n o Suma de subespacios y suma directa

187 201

Cap´ ıtulo 7. TRANSFORMACIONES LINEALES. 205 7.1. Transformaciones lineales 205 7.2. Operaciones con transformaciones lineales. 208 7.3. Imagen y n´cleo de una transformaci´n lineal. u o 211 7.4. Transformaciones lineales inyectivas y sobreyectivas. 219 7.5. Isomorfismos entre espacios vectoriales 222 7.6. Matriz asociada a una transformaci´n lineal. o 225 7.7. N´cleo e imagen de una matriz. u 234 7.8. Relaci´n entre n´cleo e imagen de una transformaci´n lineal y o u o de una matriz. 237 7.9. Cambio de base. 245 7.10. Operadores y matrices semejantes. 246 249 7.11. El espacio vectorial L (V, W )

vi ´ INDICE GENERAL .

y dar´ una referencia general a o a ´ sobre definiciones y resultados b´sicos. Funciones. Su lectura facilitar´ la comprensi´n del lenguaje del curso. Los principales defectos de las notas derivan de la impericia de los firmantes y de la celeridad con que fue armada esta versi´n (no) final. soo bre todo por razones de tiempo ejemplos de tales aplicaciones. Rafael Laguardia”(IMERL) de la Facultad de Ingenier´ de la ıa Universidad de la Rep´blica. La estructura general del libro -que no ser´ necesariamente la del cursoa es la siguiente. Sin embargo algunas ser´n abordadas en clase. a ıdo de Alfredo Jones. Se incluye un Cap´ ıtulo Cero. o a El Algebra Lineal constituye hoy una rama b´sica de la matem´tica con a aplicaciones dentro y fuera de esta. u Varios cap´ ıtulos fueron redactados nuevamente. Fue extra´ de Notas de Algebra.PREFACIO Estas notas son una reelaboraci´n. etc. con diversos ejemplos. editadas por el IME de la Universidad de San Pablo. teniendo en mente transformarlos a la brevedad en partes de un libro sobre el tema. No se han incluido en esta edici´n. en cuya redacci´n participao ron un gran n´mero de docentes del Instituto de Matem´tica y Estad´ u a ıstica “Prof. corregida y muy modificada de las o correspondientes partes de las notas de 1991.. adem´s en la bibliograf´ se indican algua a ıa nas referencias donde el lector interesado puede encontrar varios ejemplos interesantes. Ing. vii . La carencia de ejercicios no debe extra˜ar dado que ´stos son editados n e en fasc´ ıculos aparte. en que se desarrollan los conceptos de Relaciones.

se desarrolla su presentaci´n matricial y se describe el algoritmo de Gauss o de o escalerizaci´n como herramienta principal para su resoluci´n. ´ Un comentario final es pertinente para preparar al estudiante a aprovechar tanto el curso como estas notas. El Cap´ ıtulo Seis est´ dedicado a un tipo particular de funciones entre a espacios vectoriales: las Transformaciones Lineales. Se estudia aqu´ con detalle su relaci´n o ı o con las matrices y se pone de manifiesto el contenido geom´trico de muchas e propiedades algebraicas de estas ultimas. La gran mayor´ de los t´picos aborıa o dados en los primeras clases tiene un rol fundamental en el resto del curso. en el se introduce de manera axiom´tica una estructura abstracta a ıtulos que se inspira y generaliza varios de los ejemplos tratados en los cap´ previos. Aqu´ cada cap´ ı ıtulo interviene de manera fundamental en los siguientes. Dif´ ıcilmente ser´ posible avanzar de un cap´ a ıtulo al siguiente sin haber comprendido el primero. El Capitulo Seis est´ dedicado a los Espacios Vectoriales. y el centro conceptual del curso. El Cap´ ıtulo Tres estudia el Determinante de una matriz cuadrada se prueban algunos resultados cl´sicos como el teorema de Cramer y el teorema a de Binet-Cauchy sobre el determinante de un producto de matrices. Es el cap´ a ıtulo decididamente nuevo para todos los estudiantes. Los Cap´ ıtulos Cuatro y Cinco (que podr´ ser los primeros de las notas) ıan est´n dedicados a la introducci´n de un segundo ejemplo b´sico: el de los a o a vectores libres del espacio. concepto directamente relacionado con las soluciones de los sistemas lineales y con la invertibilidad de las matrices cuadradas. Rn y culmina con el estudio del rango de una matriz. .viii PREFACIO En el Cap´ ıtulo Uno se estudian los Sistemas de Ecuaciones Lineales. o o En el Cap´ ıtulo Dos se estudian las principales propiedades de las matrices y sus operaciones. Se presenta un ejemplo clave del curso: el espacio de n-uplas. Estas se caracterizan por preservar la estructura de los espacios vectoriales y son en cierto sentido el modelo mas sencillo de una funci´n. Estos se utilizan para dar una exposici´n de los o primeros elementos de la Geometr´ Anal´ ıa ıtica del Espacio.

o P. en explicaciones y las pruebas a veces resultan oscuras. Es ampliamente recomendado para ampliar los dos ultimos cap´ ´ ıtulos de nuestro curso. Lages Lima: Algebra Linear. HillAlgebra Lineal Elemental con Aplicaciones. IMPA. realizada por un destacado a matem´tico. tampoco aborda los temas iniciales de nuestro a curso. Lecturas complementarias recomendadas. en particular o en sus lenguas originales: ´ A. Su enfoque sobre la teor´ de espacios vectoriales esta ıa pensada para quien desea luego profundizar en el estudio de espacios de dimensi´n infinita. ´ R. a tras notas. Prentice Hall. Halmos: Espacios Vectoriales de dimensi´n finita.PREFACIO ix En la presente edici´n colabor´ particularmente Jos´ D´ o o e ıaz. No contiene aplicaciones. cubre un amplio t´pico de teo mas con rigor y profundidad pero no incluye los cap´ ıtulos de geometr´ Adem´s sigue un orden algo distinto del de nuesıa. Incluye ıa . escrito por un experimentado matem´tia co autor de numerosos textos.G. Adisson–Wesley. hay diversas otras ediciones. Este libro es como su nombre lo indica. o ´ ´ E. De cualquiera de los libros que se indican a continuaci´n. ´ E. Un libro excelente. Hernandez Algebra y Geometr´a . los cap´ ıtulos de matrices y sistemas de ecuaciones aparecen luego de tratar espacios vectoriales. ı Este libro cubre todos los temas de nuestro curso incluyendo los cap´ ıtulos de geometr´ en un orden similar.R. Mir-Nimusa. Kurosch: Curso de Algebra Superior. CECSA. Es escueto ıa. tal vez m´s elemental a que los otros sin embargo es claro abarca casi todos los temas del curso y sobre todo tiene un n´mero grande de aplicaciou nes interesantes a la ingenier´ y otras disciplinas. Una obra cl´sica sobre el tema.

Otro excelente libro. Cuenta con un gran n´mero de aplicaciones interesanu tes incluyendo c´digos de computadora en Fortran. los espacios vectoriales y las transformaciones lineales solo aparecen secundariamente. Joyner Algebra Lineal con Aplicaciones. ´ K. Tal vez su mayor virtud es el gran n´mero de ejemplos u para trabajar con computadora. Se incluyen proyectos para trabajar con Matlab. Maple y Mathematica G. que no cubre los cap´ ıtulos de geometr´ ıa. ino cluyendo algunos proyectos para trabajar en computadora. o Marzo del 2000 Marcelo Cerminara Roberto Markarian Responsables de esta edici´n o . es o especialmente recomendado para los primeros cap´ ıtulos del curso. Nakos & D. No obstante tiene un punto de vista interesante y claro que puede ayudar a ver desde otra ´ptica los problemas analizados en el curso. Este libro tiene un enfoque algo diferente de los otros libros recomendados.0 PREFACIO una introducci´n al Matlab y tiene numerosos ejercicios. Su objeto de estudio son los sistemas lineales y las matrices. Kunze: Algebra Lineal. Koffman & R. De nivel similar al libro de Hill tiene tambi´n un gran n´mero e u de ejemplos y aplicaciones y algunas notas hist´ricas intereo santes. Thomson. Addison–Wesley. es muy claro y riguroso. Strang: Algebra linel y sus aplicaciones. en algunos momentos aborda temas (determinantes)con mucha generalidad lo cual puede dificultar la comprensi´n en una lectura inicial o G. Prentice-Hall.

CAP´ ıTULO 0 RELACIONES Y FUNCIONES 0. a especificar un o conjunto de pares. en la acepci´n corriente del t´rmino. A y B. elemento y par ordenado de elementos de un conjunto. subconjunto. 1 . podemos definir una relaci´n o como sigue. esto es. Relaciones En este cap´ ıtulo introduciremos algunas definiciones y notaciones b´sicas a para el desarrollo de estas notas.b) tales que a pertenece al conjunto A y b pertenece al conjunto B. Con las notaciones usuales de la teor´ de conjuntos ıa esto se traduce en la igualdad: Presuponiendo solo los conceptos de conjunto. sino que o partiremos de sus definiciones estudiando luego s´lo aquellas propiedades o que ser´n aplicadas en los cap´ a ıtulos que siguen. Observamos que dar una relaci´n entre pares de elementos de un o conjunto. Dados dos conjuntos. Comenzaremos introduciendo la noci´n de relaci´n mediante una defio o nici´n que esta motivada por la idea usual de una relaci´n entre pares de o o objetos. Supondremos que el lector tiene cierta familiaridad con las nociones de relaci´n y de funci´n.1. equivale a dar una lista foro e mada por los elementos que verifican dicha relaci´n. de modo que no nos o o detendremos en la explicaci´n del significado de estos conceptos. indicaremos con A × B el conjunto constituido por los pares ordenados (a.

cada elemento de A u o solo esta en relaci´n consigo mismo. u .2. e Cuando R es una relaci´n de equivalencia. Una relaci´n R en A se dice reflexiva si aRa para todo o a ∈ A. si aRb diremos que a es o equivalente a b y usaremos la notaci´n a ∼ b. a) /a ∈ A}. o o sim´trica y transitiva. el entero a esta en relaci´n R con el entero b.b) ∈ R diremos que a esta en relaci´n R con b y escribiremos aRb. son entonces: a) a ∼ a ∀ a ∈ A. sim´trica si aRb implica bRa y transitiva si aRb y bRc implica aRc. cuando son o ambos pares o bien son ambos impares. 0.2 0. o EJEMPLO 0. luego en este caso aRb significa a = b. b ∈ Z.2. Sea Z el conjunto de los n´meros enteros.1. es un subconjunto R o de A × A.1. c) a ∼ b y b ∼ c ⇒ a ∼ c. R = {(a. RELACIONES Y FUNCIONES ´ DEFINICION 0. seg´n esta relaci´n. Relaciones de equivalencia ´ DEFINICION 0.2.b) / a . o Las propiedades que definen una relaci´n de equivalencia en un conjunto o A. o Si (a. a . En todo conjunto A la relaci´n de igualdad esta dada por o el conjunto R = {(a.b es m´ltiplo entero de 2}. e Una relaci´n de equivalencia en un conjunto A es una relaci´n reflexiva. EJEMPLO 0. Una relaci´n en un conjunto A. consideremos: u En este caso. b) a ∼ b ⇒ b ∼ a.

7. A fin de u obtener los n´meros enteros Z a partir de los naturales.a) / a ∈ A}.b’) ⇔ a.0.3.2. EJEMPLO 0. En todo conjunto A se tiene una relaci´n de equivalencia o trivial: R = {(a. Observamos que m y -m definen la misma o relaci´n.6. . Sea Z el conjunto de los enteros. m) para indicar que a ∼ a’ y se dice que a y a’ son congruentes m´dulo m. En cada caso el ´ lector verificar´ que valen a). Sea N el conjunto de los n´meros naturales. se tiene una relaci´n de o equivalencia tomando r ∼ r’ cuando r . EJEMPLO 0.b’) ⇔ a + b’ = a’ + b. poniendo a ∼ a’ cuando a . En el conjunto de los reales R.b .a’ es m´ltiplo de m.5. o EJEMPLO 0. la relaci´n: (a.b) ∼ (a’. de modo que se puede suponer m 0. 0}.b’ = a’. se define en el conjunto Z × Z − {0. A fin de obtener los racionales. se define una relaci´n de equivao lencia en Z. En este caso u se escribe a = a’ (mod. Observar que cada o par representar´ al entero que surge de restar a la primera componente la a segunda. se definen en N u × N la relaci´n (a. pues permiten definir ciertos conceptos importantes. Dado un entero fijo m. b) y c). EJEMPLO 0. es decir a ∼ b ⇔ a = b. a EJEMPLO 0.r’ entero.b) ∼ o (a’.4. RELACIONES DE EQUIVALENCIA 3 Mencionaremos algunos ejemplos de relaciones de equivalencia que son utiles.

8. De lo anterior surge que ı al aplicar sucesivamente s(a. Para demostrar que la relaci´n es transie o tiva. es decir si s(a.b”) = s(b.b”).b’) si la simetr´ axial que transforma a en b’. . las que se pueden resumir diciendo que los ´ngulos con la suma deben formar a un grupo abeliano.b’) = s(b. (a.b”).b”) = s(b’. Suponemos sabido que: para o cada par ordenado de semirrectas de origen O.b”) = s(b”. .b) ∼ (a’.4 0. por lo que esta composici´n es.a’) y s(a’. aplicando o a s(b. tambi´n transforma b en a’.a”) y s(a”.b’) = s(b’.a”) tenemos que: s(a. se lleva a a en b”.b’). Para esto es necesario dar otra definici´n de ´ngulo. FIGURA 2. (a.b”) y s(a”.b) ∼ (a’. es una simetr´a”. la siguiente relaci´n de equivalencia.a”) entonces s(a.a’) ∼ (b. se obtiene s(b.a”).a).b) y (a’. s(a’.b”). efectivamente. ıa e definimos (a.a”). Esta noci´n de ´ngulo o o a tiene la limitaci´n de que para estos ´ngulos no es posible definir una suma o a con todas las propiedades deseables para las aplicaciones de este concepto. An´logamente. RELACIONES Y FUNCIONES EJEMPLO 0.El resultado de aplicar sucesivamente tres simetr´as cuyos ı ejes pasan por un punto fijo O.b’) si y solo si (a.a).a) s(a”. existe una unica si´ metr´ axial del plano que transforma a en b. debemos probar que si s(a.1 Anotamos para usarlo mas adelante.b’). consiste en introducir en o el conjunto de los pares ordenados de semirrectas del plano con origen en un punto O. que.b’).a’).b”) = s(b”.b’) = s(b’.b) = s(b. s(a. De lo anterior y observando que: s(a. Se puede definir un ´ngulo como una figura plana que es a la intersecci´n de dos semiplanos del mismo plano. la indicaremos con la notaci´n ıa o s(a. Uno o a de los caminos posibles para llegar a esa definici´n. Dados dos pares ordenados de semirrectas de origen O.a”) s(a”. s(b’.b).b). Las propiedades reflexiva y sim´trica se verifican trivialmente. de la definici´n de esta relaci´n o o (a.

o ´ PROPOSICION 0. . al conjunto de todos los elementos x ∈ A que son equivalentes con a. La relaci´n de congruencia de figuras en el plano. . Llamaremos figura del plano a todo conjunto de puntos del plano. se puede o definir como sigue. transforma F1 en F2 y s′ 1. . y que notaremos: cl(a).o ´ DEFINICION 0. o bien cl(a) ≡ cl(b). Es claro que vale el rec´ ıproco. . . Dadas dos clases de equivalencia cl(a) y cl(b) en un conjunto A se tiene que. s′ 1.1. . sn. entonces x ∼ a si y solo si x ∼ b .0. . s′ m transforma F2 en ıas F3. Llamaremos ”clase de equivalencia de a”. . RELACIONES DE EQUIVALENCIA 5 EJEMPLO 0. Dadas dos figuras planas F1 y F2 definimos F1 ∼ F2 cuando hay alguna sucesi´n finita de simetr´ axiales del plano que transo ıas forma F1 en F2. Adem´s. . a. . .b) Si la sucesi´n de o simetr´ s1. Luego a ∼ b implica cl(b) = cl(a) . o bien son disjuntas (sin elementos comunes).. sn. esto es: Si cl(b) = cl(a) entonces a ∼ b . Dada una relaci´n de equivalencia en un conjunto A y o un elemento a ∈ A. disjuntas dos a dos. Para mostrar que esta es una relaci´n de equivalencia en o el conjunto de las figuras planas. . una relaci´n de equivalencia clasifica los elea o mentos de un conjunto A en clases de equivalencia. Todo elemento b ∈ cl(a) se dice que es un representante de esa clase. . .3. .9. Es decir que b es un representante de cl(a) si y solo si b ∼ a. De las condiciones b) y c) de la definici´n de relaci´n de equivalencia o o se deduce que si a ∼ b . porque la sucesi´n de dos simetr´ o ıas iguales transforma todo punto del plano en si mismo. s′ m transforma F1 en F3. El siguiente resultado muestra que el conjunto de las clases de equivalencia determina la relaci´n.2. es suficiente verificar lo que sigue: a) Para toda figura plana F se tiene F ∼ F. Todo elemento de A pertenece a alguna clase. entonces la sucesi´n s1. . .

6

0. RELACIONES Y FUNCIONES

´ PROPOSICION 0.2. Rec´procamente, dada una clase cualquiera C de ı subconjuntos de A, no vac´os y sin elementos comunes dos a dos, tales que ı todo elemento de A pertenezca a alguno de ellos, existe una unica relaci´n ´ o de equivalencia en A cuyas clases son dichos subconjuntos.

´ Demostracion de 0.1. En efecto, supongamos que c ∈ cl(a) y c ∈ cl(b), entonces c ∼ a y c ∼ b, de donde a ∼ b, por lo tanto cl(a) = cl(b). Por otra parte, para todo a ∈ A se tiene que a ∈ cl(a).

´ Demostracion de 0.2. Se puede demostrar, que definiendo a ∼ b cuando a y b pertenecen a un mismo subconjunto de la clase C se obtiene una relaci´n o de equivalencia.

0.3. Conjunto Cociente ´ DEFINICION 0.4. Llamaremos ”conjunto cociente de A por R”, a aquel cuyos elementos son las clases de equivalencia de A definidas por la relaci´n de equivalencia R en A, que notaremos: o A/R, A. Seg´n esta definici´n, cada elemento de A junto con todos sus equivau o lentes, constituyen un elemento de A/R. Es por esto que a veces se dice que A/R se obtiene identificando cada elemento de A con todos sus equivalentes. La utilidad de las relaciones de equivalencia proviene precisamente de que permiten en esta forma construir un conjunto de objetos nuevos, las clases de equivalencia, a partir de ciertos objetos dados, los elementos de A. Para individualizar un elemento de A/R, es decir una clase de A, se puede tomar un representante cualquiera de esa clase. Usualmente se trata de elegir un representante que facilite la notaci´n o el c´lculo.o a

0.3. CONJUNTO COCIENTE

7

- Veamos cuales son los conjuntos cociente que se obtienen de algunas de las relaciones de la secci´n 2. o EJEMPLO 0.10. En este caso cada a ∈ A solo es equivalente a s´ mismo ı por lo tanto la clase de equivalencia de a es el conjunto {a}. Quiere decir u que cada elemento de A/R es un conjunto formado unicamente por alg´n ´ elemento de A; luego en este ejemplo al formar el conjunto cociente no tenemos nada escencialmente nuevo.

EJEMPLO 0.11. En este caso la cl(a,b) = {(a’,b’) ∈ N × N / a + b’ = a’ + b}, por lo tanto, en cada clase de equivalencia hay infinitos pares. Observando que (a,b) ∼ (a + 1, b + 1), se puede demostrar que si a = b, en la cl(a,b) hay: o bien un unico representante de la forma (c,0) o bien un ´ unico representante de la forma (0,c) con c = 0. Las clases correspondientes ´ denotan c y -c. Si a = b, (a,b) ∼ (0,0). La clase de (0,0) se denota 0. Se definen los n´ meros enteros como los elementos del conjunto cociente u obtenido.

EJEMPLO 0.12. En este ejemplo las clases de equivalencia son de la forma: cl (a, b) = a′ , b′ /a′ , b′ ∈ Z, b′ = 0, a.b′ = a′ .b .

Usaremos la notaci´n a / b para la clase de (a,b). La igualdad de clase a o / b = a’ / b’ significa la equivalencia de los representantes, (a,b) ∼ (a’,b’), o sea, seg´n la definici´n de la relaci´n, a.b’ = a’.b. Se demuestra f´cilmente u o o a que para todo natural k = 0 es (a.k,b.k) ∼ (a,b) , de aqu´ se deduce que se ı puede tomar para cada clase un representante (a,b) con a y b relativamente primos, es decir, que toda clase se puede escribir en la forma a / b con a y b u primos entre s´ Se definen los n´ meros racionales como los elementos del ı. conjunto cociente. De acuerdo con esta definici´n, cada racional, es una clase o de equivalencia a / b, es decir un conjunto de pares enteros.- Designaremos al conjunto de los n´meros racionales con la letra Q. u

8

0. RELACIONES Y FUNCIONES

EJEMPLO 0.13. En este caso cl(a) = {a , a ± m , a ± 2.m , . . .}. Sabemos que todo elemento a se puede escribir en la forma a = r ± q.m con 0 r m , por lo tanto a ∼ r y cl(a) ∼ cl(r). Quiere decir que para cada clase de equivalencia se puede tomar como representante uno de los n´meros 0,1, . . . . , m-1. Por otra parte, si 0 r < r’ < m , es facil ver que u r no es equivalente a r’, en consecuencia hay exactamente m clases distintas. Usaremos la notaci´n a para indicar la clase de a e indicaremos con Zm el o conjunto cociente, luego Zm = 0, 1, ..., m − 1 . Los elementos de Zm , se llaman enteros m´dulo m. Vamos a introducir la siguiente notaci´n: Si X o o es un conjunto finito cualquiera, indicaremos el n´mero de elementos de X u con — X —. En este ejemplo tenemos |Zm | = m. EJEMPLO 0.14. En este ejemplo cl(r) = { r + n / n ∈ Z }. Como todo n´mero real se puede escribir en la forma r + n con 0 r < 1 y n entero, u para cada clase de equivalencia hay un representante tal que 0 r < 1. ′ < 1 no pueden tener Adem´s es claro que dos reales r y r’, con 0 r < r a por diferencia un entero, luego pertenecen a clases distintas. Por lo tanto el conjunto de los reales r, tales que 0 r < 1, contiene un solo representante de cada clase de equivalencia. El conjunto cociente que resulta se llama el de los n´ meros reales de modulo 1. u

EJEMPLO 0.15. Llamaremos ´ngulo de v´rtice O, a toda la clase de equia e valencia de los pares de semirrectas de origen O seg´n esta relaci´n. Cada u o par de semirrectas de origen O es entonces un representante de un ´ngulo. a a Usaremos la notaci´n aob para designar el ´ngulo que tiene como represeno tante el par (a,b). Dada una semirrecta cualquiera a de origen O, para cada ´ngulo xoy existe una unica semirrecta de origen O tal que aob = xoy. Para a ´ demostrarlo basta observar que para que b tenga esa propiedad tiene que ser (a,b) ∼ (x,y), o sea s(x,b) = s(y,a), luego la semirrecta b buscada es la imagen de x seg´n s(y,a). En consecuencia si tomamos una semirrecta fija u a, el conjunto de todos los pares de la forma (a,b) contiene uno y solo uno de los representantes de cada ´ngulo. a

0.4. FUNCIONES

9

0.4. Funciones Una funci´n se determina dando dos conjuntos y asociando a cada eleo mento del primero un unico elemento del segundo. Este concepto de funci´n ´ o incluye mucho m´s que la idea de ser un procedimiento en el cual dados ciera tos n´meros permite calcular otros. D´ndole al t´rmino el significado m´s u a e a amplio, una funci´n puede no estar definida por ninguna expresi´n num´rica o o e o anal´ ıtica. Adem´s, puede asociar a elementos de un conjunto cualquiera, a no necesariamente de n´meros, elementos de otro conjunto cualquiera. La u consideraci´n de funciones en este sentido, sin restricciones sobre los conjuno tos ni sobre la forma de asociar elementos del primer conjunto a elementos del segundo, se justifica por su utilidad en todas las ramas de la matem´tica. a Veamos como se puede dar una definici´n formal del concepto de funci´n que o o hemos esbozado, presuponiendo solo las nociones de conjuntos, subconjunto, elemento, par ordenado y terna ordenada. Esta definici´n esta motivada o por la idea de ”gr´fico de una funci´n”. Observamos que una funci´n que a a o o cada n´mero real x le asocia un real y, est´ determinada dando todos los u a pares de n´meros (x,y) que constituyen una funci´n de esa forma siempre u o que para cada n´mero x ∈ R, haya uno y un solo y ∈ R tal que (x,y) ∈ G. u Teniendo esto en cuenta, hacemos la siguiente definici´n: o ´ DEFINICION 0.5. Una funci´n es una terna ordenada F = (A,B,G), o donde A y B son conjuntos cualquiera y G es un subconjunto de A × B, tal que para cada x ∈ A hay un y ∈ B y uno solo para el cual (x,y) ∈ G. A se llama el dominio o conjunto de partida, B el codominio o conjunto de llegada y G el gr´fico de f . Para abreviar diremos que que f es a una funci´n de A en B y escribiremos f : A → B. o Usaremos las palabras transformaci´n y aplicaci´n como sin´nimo o o o de funci´n. o

10

0. RELACIONES Y FUNCIONES

Una funci´n f = (A,B,G) puede tener dominio o codominio vacio, auno que estos casos tienen poco inter´s. Si A = ∅, entonces para todo B, A × B e = ∅, de donde G = ∅ y f es de la forma f = (∅,B,∅). Luego para cada conjunto B hay una unica funci´n con dominio vac´ y ´ o ıo codominio B. Si una funci´n f = (A, B, G) tiene codominio B = ∅ es G = o A × B = ∅, y como para cada x ∈ A existe un y ∈ B, debe ser A = ∅. En consecuencia f = (∅,∅,∅) es la unica funci´n con codominio vac´ ´ o ıo.

´ DEFINICION 0.6. Si (x,y) ∈ G diremos que y es la im´gen de x por f o a el valor de f en x. Indicaremos con f(x) la imagen de x por f , luego G = { (x , f(x)); x ∈ A }. Dar el gr´fico de f equivale entonces a dar , para cada x del dominio, a su imagen f(x). N´tese que dos elementos diferentes del dominio pueden tener la misma o imagen. Por ejemplo, sea A=B=R y G = entonces para todo x = 0 esx = −xpero f (x) = f (−x) = x2 . ´ DEFINICION 0.7. Dado un subconjunto del dominio, X ⊂ A, llamaremos imagen de x por f al subconjunto de B formado por las im´genes de todos a los elementos de X. x, x2 ; x ∈ R

La imagen de X se denotar´ f (X), luego f (X) = {f (x) ; x ∈ X}. A a veces se llama recorrido de f a la imagen del dominio, f (A). N´tese que f (A) ⊂ B pero f (A) puede no coincidir con B. As´ en el o ı ultimo ejemplo el recorrido est´ formado por los reales positivos y no coincide ´ a con el codominio R.

. pues la imagen f ( N ) est´ formada s´lo por los n´meros a o u pares.0.17. FUNCIONES 11 ´ DEFINICION 0. dada por g (x) = 2x. ´ DEFINICION 0.9. → R definida por p (x. es sobreyectiva. f (x) ∈ Y } . El ejemplo 0. f es inyectiva cuando x = x′ implica f (x) = f (x′ ). es decir: {x ∈ A. Llamaremos imagen inversa o preimagen por f de un conjunto Y ⊂ B al subconjunto. La funci´n f : N → N dado por f (x) = 2x no o es sobreyectiva. de A formado por todos los x que tienen imagen en Y. En cambio. x′ ) = x EJEMPLO 0.4. EJEMPLO 0.8. la de 1 es {−1. ´ DEFINICION 0. entonces la imagen inversa de 0 por f es {0}. La funci´n p : R × R o es sobreyectiva. Por ejemplo.16. Se llama imagen inversa de un elemento y ∈ B a la imagen inversa del conjunto {y}. si para todo y ∈ B existe por lo menos un x ∈ A tal que f (x) = y. 1} y la de -1 es el conjunto vac´ ıo. Una funci´n f : A → B se dice inyectiva si para o todo y ∈ B hay al lo sumo un x ∈ A tal que f (x) = y.17 es un caso particular del siguiente. Dicho de otra manera. si f : R → R es la funci´n tal que f (x) = x2 para todo o x ∈ R . es sobreyectiva la funci´n g de N en el conjunto de los o naturales pares. Dada una funci´n o cualquiera f : A → B la funci´n g : A → f (A) definida por g (x) = f (x) o para todo x ∈ A.10. Una funci´n f : A → B se dice sobreyectiva si o f (A) = B es decir.

Para esto observamos que todo complejo u + iv = 0 se puede expresar en la forma u + iv = ρ (cosφ + isenφ) donde u v u2 + v 2 > 0. RELACIONES Y FUNCIONES EJEMPLO 0. luego: ρ= u + iv = ρ (cosφ + isenφ) = ex+iφ . pues si n = n no existe ning´n natural n que verifique f (n) = 0. La funci´n inclusi´n o o i : A → B. Si A = B.12 0. existe un real x tal que ρ = ex . Para todo real x est´ deficomplejos. cosφ = √ .19. como ρ > 0. exp : C → C 0 . senφ = √ 2 + v2 2 + v2 u u Por otra parte. Indicaremos con la letra C al conjunto de los n´meros u o los complejos diferentes de 0. Sean A ⊂ B conjuntos cualquiera. definida por i (x) = x para todo x ∈ A. La funci´n f : N → N dada por f (n) = n + 1 es o ′ entonces n + 1 = n′ + 1.20. nido e Se puede definir la funci´n exponencial. EJEMPLO 0. porque inyctiva. u EJEMPLO 0.18. i no es sobreyectiva. tomando como valor o en x + iy el complejo: exp (x + iy) = ex (cosy + iseny) Denotaremos este n´mero con ex+iy . suponemos sabido que para cada real p¿0 existe un x tal que ex = p. Esta funci´n no es inyectiva porque u o para todo real x y todo entero k vale: ex+2kπi = ex (cos2kπ + isen2kπ) = ex Mostraremos que es sobreyectiva. No es sobreyectiva. . es inyectiva. y con C a x .

Es claro. EJEMPLO 0. A veces escribiremos simplemente Id o en vez de IdA . La funci´n f es inyectiva porque o si β ∈ A verifica f (β) = f (α). EJEMPLO 0.0. La funci´n f : Z → Z definida por f (n) = n + 1 es o biyectiva. IdA . Es biyectiva la funci´n f : R → R dada por f (x) = o 3 ? x EJEMPLO 0.4. La funci´n logaritmo definida de los reales positivos en o R es biyectiva.24. por lo tanto β = α. luego se puede u definir una funci´n f : A → B eligiendo para cada α ∈ A un representante o cualquiera x ∈ A y tomando f (α) = f (x). entonces para cada representante y ∈ B se tiene: f (y) = f (β) = f (α) = f (x) luego y x.23. o IdA (x) = x. Se usa correspondencia biun´ ıvoca como sin´nimo de funci´n biyeco o tiva.22. ´ DEFINICION 0. Todos los x ∈ A que est´n en una o a clase de equivalencia α ∈ A tienen la misma imagen seg´n f.21. . Dado un conjunto cualquiera A definimos la funci´n o identidad en A. EJEMPLO 0. consideremos en A la relaci´n x x′ si o o ′ ). sea A el f (x) = f (x o conjunto cociente de A por esa relaci´n. Esta funci´n es biyectiva. Una funci´n se dice biyectiva si es sobreyectiva e o inyectiva. FUNCIONES 13 Dada una funci´n f : A → B. que esta es una relaci´n de equivalencia. como la funci´n de A en A tal que para todo x ∈ A.11.

´ DEFINICION 0.) . G′ ). Un elemento de la sucesi´n es una imagen f (i) de un o i ∈ N. RELACIONES Y FUNCIONES Sea f : A → B una funci´n cualquiera y sea A el conjunto cociente de o ′ si f (x) = f (x′ ). En general. (ai ) Una n-upla de elementos de A es una funci´n f : {1... Dada f : A → B y un conjunto C ⊂ A.. de consideraciones anteriores resulta A por la relaci´n x x o que la funci´n f : A → f (A) definida por f (α) = f (x) donde x es un o representante de α. De modo que. (Observar que la primera es sobreyectiva y la segunda no lo es). por lo tanto dos o o ′ .. B ′ . f (x) = g (x). La o restricci´n g se notar´: q/c. o Lo usual es denotar la imagen i como ai . pues los codominios no coinciden..13. Se o escribe {a1 ... n} → A. (ai )i∈N .14 0.. una funci´n f : I → A se llama tambi´n una familia de elemeno e tos de A indizada por I. Se dice que f es una prolongaci´n de g en A. se llama restricci´n de f a C a la funci´n g : C → B definida por g (x) = f (x) o o para todo x ∈ C. e indicar la sucesi´n en alguna de la siguientes formas: (a1 . . por ejemplo. G) y g = (A o B=B’ y G=G’.. funciones. la funci´n f : Z → Z tal que f (x) = −x para todo x ∈ R. Una funci´n f : N → A se llama sucesi´n de o o elementos de A. . para cada x del dominio. es biyectiva. dado un conjunto I. f = (A. an }. o es diferente a la funci´n f : Z → R definida por f (x) = −x para todo o x ∈ R.. . De acuerdo a la definici´n una funci´n es una terna. es decir cuando tienen igual dominio.12. a2 .. . B. . igual codominio y el mismo valor. donde a1 = f (1) . an = f (n). son iguales s´lo cuando A=A’. o a ´ DEFINICION 0.

Para que est´ definida gf es necesario que el codominio de f est´ incluido e e en el dominio de g. g : B → C. pero no tienen por qu´ ser iguales. Dadas dos funciones f : A → B y g : B → C.´ 0. si f : R → R est´ dada por f (x) = x a g (x) = −x entonces gf (x) = −x2 y f g (x) = x2 .14. COMPOSICION DE FUNCIONES 15 0. Composici´n de funciones o ´ DEFINICION 0. puede estar definida gf y no estarlo fg.5. h : A → C. . Dadas tres funciones. Por e 2 y g : R → R por ejemplo. En particular. se pueden indicar en un mismo diagrama del modo siguiente: Figura 5. de la definici´n de composici´n de funciones resulta que o o h (gf ) y (hg) f est´n definidas y son iguales pues ambas son funciones a de A en D y para todo x ∈ A: (hg) (f (x)) = h (g (f (x))) = h ((gf ) (x)) = (h (gf )) (x) Observemos finalmente que para toda funci´n f : A → B se verifica o idB f = f idA = f . La funci´n compuesta se notar´ g f o g ◦ f . o si se ”siguen las flechas”de A a B y de B a C para llegar a gf (a). Si se consideran funciones f : A → A y g : A → A entonces fg y gf est´n definidas a y ambas son funciones de A en A. o a Tres funciones de la forma f : A → B.1 Cuando h=gf se dice que el diagrama es conmutativo. f : A → B. g : B → C y h : C → D. llamaremos composici´n de f y g a la funci´n h : A → C tal que para todo o o x ∈ A h (x) = g (f (x)). Obs´rvese que e esto significa que para todo a ∈ A se tiene el mismo resultado si ”se sigue la flecha”de A a C y se halla h (a).5.

o o ´ Demostracion. b) Si y ∈ B pero y ∈ f (A). y ∈ f (A). Seg´n u este teorema. o a la izquerda. como A es no vac´ podemos tomar un x ∈ A / ıo. Entonces gf = idA pues para todo x ∈ A.3. Obs´rvese que para todo B la funci´n f : φ → B es inyectiva e o pero si B = φ. seg´n a): u (gf ) (x) = (g (f (x))) = g (y) = x. por ser f inyectiva la imagen inversa de y se reduce a un elemento x ∈ A. entonces tomamos g (y) = x. Una funci´n f : A → B con dominio A no vac´o es o ı inyectiva si y s´lo si existe una funci´n g : B → A tal que gf = idA . Por esta raz´n el teorema 0. cualquiera y definir g (y) = x. al cual puede asignarse por imagen seg´n g diferentes / u elementos de A.3 resulta que si f es inyectiva pero no o sobreyectiva y si A tiene m´s de un elemento entonces el inverso izquierdo de a f no es unico. En efecto. luego f es inyectiva. supongamos que gf = idA . Si gf = idA diremos que g es la inversa a la izquerda de f. Supongamos que f es inyectiva. resultando en cada caso un inverso izquierdo g diferente. f no tiene inverso izquerdo pues no existe funciones con dominio B = φ y con codominio φ. . De f (x) = f (x′ ) sigue x = gf (x) = gf (x′ ) = x′ . cuando A es no vac´ f es inyectiva si y s´lo si tiene inversa ıo. Rec´ ıprocamente. a)Si y ∈ f (A). Definimos una funci´n o g : B → A como sigue. en este caso existe ciertamente alg´n y pertene´ u ciente a B. TEOREMA 0. RELACIONES Y FUNCIONES En los teoremas que siguen veremos algunas propiedades de las funciones ineyectivas y sobreyectivas que podr´ utilizarse para definir inyectividad ıan y sobreyectividad.3 no vale sin o la hip´tesis de que el dominio A no sea vac´ o ıo. De la demostraci´n del teorema 0.16 0.

a . x′ ∈ A . ´ Demostracion.4. f es sobreyectiva si y s´lo si tiene inverso derecho. Entonces (f h) (c) = C → A con h (c) = x y h (f h′ ) (c) = f (c). (Esto requiere usar el axioma de elecci´n). y = idB (y) = f (g (y)). de h : C → A sigue C = φ luego. De aqu´ sigue para ı todo y ∈ B. entonces para todo y ∈ B la imagen inversa por f es un conjunto no vac´ del cual podemos elegirun ıo elemento x. es decir fh=fh’. u o De la demostraci´n de este teorema puede deducirse que si f es sobreyectiva o pero no inyectiva entonces tiene m´s de un inverso derecho. tales que f (x) = f (x′ ). Luego o f es inyectiva. si f : A → B es inyectiva fh=fh’ implica h=h’. quere decir que la imagen por f del ekemento g (y) ∈ A es y. TEOREMA 0. definimos h : ´ ′ : C → A con h′ (c) = x′ . Supongamos que f es sobreyectiva.4. Rec´ ıprocamente. φ). contrario a la hip´tesis. Kuego f es sobreyectiva. porque si A no es vac´ se tiene: ıo g (f h) = idA h = h = g f h′ = idA h′ = h′ Si A = φ. Definimos g : B → A o tomando g (y) = x. pero h = h′ .5. Una funci´n f : A → B es sobreyectiva si y s´lo si existe o o g : B → A tal que f ◦ g = idB . x = x′ . Seg´n el teorema 0.´ 0. tambi´n en este caso e ′ = (φ. Supongamos que f : A → B no sea inyectiva y sean x. Una funci´n g : B → A tal que f g = idB se llama inversa a la derecha o de f. h=h Mostraremos que esta propiedad caracteriza las funciones inyectivas. COMPOSICION DE FUNCIONES 17 Dadas dos funciones h. Sea C un conjunto formado por un unico elemento c. es decir que toda f para la cual fh=fh’ implica h=h’ es inyectiva. φ. Con esto tenemos para todo y ∈ B: (f g) (y) = f (x) = y pues x fue elegido en la imagen inversa de y. sea g : B → A tal que f g = idB . h’ de C en A.

ıo.18 0. La demostraci´n es similar a la que hicimos para la propiedad an´loga o a ′ = id . como acabamos de observar. f es biyectiva. ı COROLARIO 0. Una funci´n f : A → B es biyectiva si y s´lo si existe o o g : B → A tal que gf = idA y f g = idB . por lo tanto tambi´n en este caso vale el enunciado tiene inverso f e rec´ ıproco. φ. tambi´n lo es f −1 .4. entonces: de las funciones inyectivas. por los u mismos teoremas tiene inversa a la izquierda e inversa a la derecha que. e o o . resulta que si f es biyectiva. por lo tanto hay un unico inversa a la izquierda. Por ejemplo si A=R. La definici´n de inversa de f : A → B muestra que f −1 asocia a cada y ∈ o B el unico x ∈ A tal que f (x) = y. Esto ı e tambi´n se puede deducir directamente de la definici´n de funci´n inversa. por la e propiedad de que para todo par de funciones h. En tal caso decimos que este es la inversa de f y lo denotaremos f −1 . As´ queda demostrado el corolario siguiente. un unico inversa ´ ´ a la derecha y son iguales. h’ de B en C. vac´ debe ser de codominio vac´ entonces f = (φ. o Si f tiene inversa.5. Si gf = idA y f g B g = g idB = f f g′ = (gf ) g′ = idA g′ = g′ Esto demuestra que si f tiene inversa a la izquierda e inversa a la derecha entonces cualquier inversa a la izquierda es igual a cualquier inversa a la derecha. B = {r ∈ R.3 y 0. De aqu´ y del corolario. entonces f −1 : B → A o es la funci´n que cada real positivo le asocia su logaritmo de base a. hf=h’f implica h=h’. seg´n los teoremas 0. o −1 = f . φ). RELACIONES Y FUNCIONES Tambi´n se caracterizan las funciones sobreyectivas f : A → B. r > 0} ´ y f : A → B es la funci´n exponencial de base a¿0. Es claro que si f −1 es el inverso de f entonces f es el inverso de f −1 . Esta funci´n ıo. son iguales entre s´ Si f es biyectiva con dominio ı.

. m (los t´rminos independientes) son n´meros1 Diremos que el sistema es m × n indicando siempre el primer n´mero la cantidad de u ecuaciones y el segundo la de inc´gnitas. . . αn ) o o u tales que si se sustituye x1 = α1 . . . . . . . . . + a1n xn = b1     a21 x1 + a22 x2 + . . n (los coeficientes del sistema) y e u bj con j = 1. . . .  . . . + amn xn = bm donde aij con i = 1. . . .1.CAP´ ıTULO 1 SISTEMAS LINEALES DE ECUACIONES Y MATRICES 1. discutir sus u propiedades y ciertas estrategias para resolverlos. x2 . . . . xn = αn se verifican simult´neamente las m ecuaciones. xn o es un problema del tipo:   a11 x1 + a12 x2 + . . . + a2n xn = b2 (S) = . a En nuestro cursos los n´meros que consideraremos pertenecen al cuerpo de los reales u o de los complejos 19 1 . α2 . a Un sistema lineal de m ecuaciones con n inc´gnitas x1 . x2 = α2 . . . . . Quienes ya conozcan estos temas tendr´n en todo caso una oportunidad para repasarlos. o Una soluci´n del sistema (S) es una sucesi´n de n n´meros (α1 . . .   . Introducci´n o Gran parte de lo que estudiaremos en este curso y en su continuaci´n o en el segundo semestre se vincula con los sistemas de ecuaciones lineales por lo tanto vale la pena dedicar alg´n tiempo a presentarlos. . . m y j = 1.   am1 x1 + am2 x2 + .

3)}. o EJEMPLO 1. ´ a EJEMPLO 1. u Si A es un conjunto escribiremos card(A) para representa su cardinal. u o Naturalmente este problema es extremadamente sencillo pero como acontece muchas veces las ideas que aqu´ se utilizan convenientemente adaptadas ı resultaran utiles en casos m´s generales y complicados. En general. las soluciones se consideraran en el mismo conjunto de n´meros que los coeficientes u 3 Veremos m´s adelante que si un sistema lineal admite m´s de una soluci´n entonces a a o necesariamente debe admitir infinitas 2 . salvo que se indique lo contrario. compatible indeterminado o ´ si card(Sol(S)) > 1 (tiene soluci´n pero no es unica)3 e incompatible si o ´ card(Sol(S)) = 0 (no tiene ninguna soluci´n).2. Resolver un sistema es determinar su conjunto soluci´n.2 o Clasificaremos los sistemas de acuerdo a n´mero de soluciones que tenga. 2. Si en cambio a = 0 hay dos posibilidades: si b = 0 soluci´n es x = a = a o el sistema es incompatible y si b = 0 trivialmente el sistema es compatible indeterminado y cualquier n´mero es soluci´n del mismo. Si a = 0 entonces el sistema es compatible determinado y su unica o ´ b −1 b.20 1.   x=1  (S) y = 3   z=2 es un sistema 3 × 3. ECUACIONES LINEALES Y MATRICES Llamaremos conjunto soluci´n del sistema (S) y lo notaremos Sol(S) o al conjunto de todas las soluciones de (S). Diremos entonces que un sistema es compatible determinado si card(Sol(S)) = 1 (tiene soluci´n unica).1. El ejemplo m´s sencillo de un sistema lineal es el 1 × 1 a ax = b en pocos renglones podemos discutir completamente como es el conjunto soluci´n. Trivialmente se observa que Sol(S) = {(1. Si el conjunto es finito card(A) indica el n´mero de elementos e infinito en u otro caso.

ıa ′ ) equivalente y “escalerizado” de modo de poder resolver (S ′ ) (y por (S ende (S) ya que al ser equivalentes los conjuntos soluci´n de ambos sistemas o .3.3 los conjuntos soluci´n son o iguales. cuando esto ocurra diremos que los respectivos sistemas son equivalentes.´ 1.   x + y + 2z = 8  (S) x−y+z =0   x+y+z =6   x + y + 2z = 8  (S) 2y + z = 8   z=2 Las cosas aqu´ no son tan claras. 3. EJEMPLO 1. inspirada ı en los ejemplos anteriores podr´ ser.4. Este procedimiento de despejar una inc´gnita en una ecuaci´n y sustituirla o o en otra de arriba se denomina sustituci´n hacia atr´s o a Observemos que en los ejemplos 1. 2)}. INTRODUCCION 21 EJEMPLO 1. Para esto basta observar que de a o abajo hacia arriba cada ecuaci´n tiene exactamente una inc´gnita m´s que o o a la siguiente. Aqu´ con algo m´s de trabajo tambi´n se puede e ı a e deducir f´cilmente el conjunto soluci´n. por este motivo se dice que el sistema esta “escalerizado”. la de sustituir el sistema (S) por otro. De la ultima ecuaci´n se despeja ´ o z=2 Con este valor de z sustituimos en al segunda ecuaci´n y tenemos o 2y + 2 = 8 =⇒ 2y = 6 =⇒ y=3 Finalmente con los valores de y y z hallados “subimos” a la primera ecuaci´n o y sustituyendo se tiene que x + 3 + 2(2) = 8 =⇒ x=1 En consecuencia Sol(S) = {(1. Una estrategia para resolverlo.2 y 1. es tambi´n un sistema 3 × 3.1.

   a x + a x + ··· + a x = b  j1 1 j2 2 jn n j    . Si en un sistema lineal de ecuaciones se efect´an u una transformaci´n elemental el sistema resultante es equivalente al orio ginal. (S) . (Fi + αFj ) o u Entre par´ntesis se indica la notaci´n que utilizaremos para especificar cada e o operaci´n en los ejemplos. La ecuaci´n i-esima ser´ notada con Fi . Para responderla introducimos la siguiente ´ DEFINICION 1.3. o ´ PROPOSICION 1.22 1.   . El resto queda a cargo o del lector. (Fi ↔ Fj ) 2. Sumar a una ecuaci´n un m´ltiplo de otra.  . o La pregunta que naturalmente surge es ¿c´mo hacer para sustituir un o sistema por otro que resulte equivalente?. Llamaremos transformaciones elementales a cualquiera de las siguientes operaciones efectuadas a las ecuaciones de un sistema lineal: 1.  . o o a La siguiente proposici´n responde la pregunta formulada arriba. La demostraci´n es muy sencilla y la haremos s´lo en el o o caso que la transformaci´n elemental sea del tipo 3.1. ´ Demostracion. Supongamos que el sistema original sea   a11 x1 + a12 x2 + · · · + a1n xn = b1    .     a x + a x + ··· + a x = b   i1 1 i2 2 in n i  . Analicemos un poco estas ideas antes de retomar la resoluci´n concreta del ejemplo.  . Intercambiar de lugar dos ecuaciones. ECUACIONES LINEALES Y MATRICES coinciden) con el procedimiento utilizado en el ejemplo 1. (αFi ) o u 3. Multiplicar una ecuaci´n por un n´mero α = 0.    am1 x1 + am2 x2 + · · · + amn xn = bm .1. .

α2 . Sea (α1 . α2 . Como se trata de mostrar la igualdad de dos conjuntos tendremos que demostrar que est´n mutuamente incluidos.     (a x + a x + · · · + a x ) + β(a x + a x + · · · + a x ) = b + βb  i1 1  i2 2 in n j1 1 j2 2 jn n i j  . . αn ) ∈ Sol(S) es claro que (α1 . . . .´ 1. . Finalmente probemos que Sol(S ′ ) ⊂ Sol(S). ′ .    am1 x1 + am2 x2 + · · · + amn xn = bm . Igual que antes es claro (α1 .     aj1 x1 + aj2 x2 + · · · + ajn xn = bj    . Consideremos ahora (α1 .  . . α2 . α2 . αn ) ∈ Sol(S ′ ). αn ) debe verificar todas las ecuaciones de (S) salvo tal vez la i-esima pero como (ai1 α1 + ai2 α2 + · · · + ain αn ) + β(aj1 α1 + aj2 α2 + · · · + ajn αn ) = bi + βbj y aj1 α1 + aj2 α2 + · · · + ajn αn = bj Supongamos que sumamos a la ecuaci´n i un m´ltiplo de la ecuaci´n j. INTRODUCCION 23 Para probar que ambos son equivalentes deberemos ver que Sol(S) = Sol(S ′ ). a Veamos primero que Sol(S) ⊂ Sol(S ′ ). · · · . . . α2 . . (S ) . αn ) satisface todas las ecuaciones de (S ′ ) (pues son las mismas que las de (S)) salvo tal vez la i-esima.  .  . El o u o sistema resultante es  a11 x1 + a12 x2 + · · · + a1n xn = b1     . αn ) debe verificar la i-esima y j-esima ecuaci´n de (S) se tiene que o ai1 α1 + ai2 α2 + · · · + αin xn = bi y aj1 α1 + aj2 α2 + · · · + ajn αn = bj por lo tanto (ai1 α1 + ai2 α2 + · · · + ain αn ) + β(aj1 α1 + aj2 α2 + · · · + ajn αn ) = bi + βbj de donde (α1 . Como (α1 . . α2 .   . . · · · . αn ) ∈ Sol(S ′ ). . · · · .1.

   x + y + 2z = 8  x + y + 2z = 8   x−y+z =0 ∼ −2y − z = −8 ←− F2 − F1     x+y+z =6 −z = −2 ←− F3 − F1 El sistema esta ya “escalerizado”. α2 . EJEMPLO 1.3 por lo cual Sol(S) = {(1. αn ) ∈ Sol(S) y la prueba esta concluida. 2)} 1. .4.4 (continuaci´n). y. Volvamos a analizar el ejemplo 1. . z o x1 . . . Naturalmente las cuestiones que se imponen ahora son las de saber si cualquier sistema puede ser “escalerizado” mediante transformaciones elementales y en caso afirmativo determinar un m´todo o algoritmo que permita e hacerlo. . xn . . La idea es combinar ambas con la primera de modo que los coeficientes de la inc´gnita x se anulen. Para que el sistema quede “escalerizado o en la segunda y tercera ecuaci´n no debe aparecer la inc´gnita x entonces o o dejemos la primera ecuaci´n igual y realicemos transformaciones elementales o en la segunda y tercera.) no juega ning´n papel y puede usarse o u cualquiera. Como el coeficiente de x en o las tres ecuaciones es 1 basta en ambos casos restar la primera. . de hecho para determinar un sistema es suficiente con conocer los coeficientes y el t´rmino independiente del mismo.2. si multiplicamos las dos ultimas ecuaciones ´ por −1 se obtiene el sistema del ejemplo 1. etc. ECUACIONES LINEALES Y MATRICES se deduce que ai1 α1 + ai2 α2 + · · · + ain αn = bi con lo cual (α1 . Naturalmente no alcanza e con conocer los valores de estos n´meros sino que es necesario mantener el u orden que ocupan (a qu´ ecuaci´n pertenecen y a qu´ inc´gnita multiplican).24 1. . 3. e o e o Por esto resulta conveniente dar la siguiente . Matrices Al trabajar con un sistema de ecuaciones la representaci´n de las ino c´gnitas (x.

.m o m´s brevemente A = ((aij )) cuando las dimensiones j=1. . . . Sea A= √ 1 2 2 1 yB= √ 2 1 2 1 Entonces A = B pues a11 = 1 = b11 = 2 ´ OBSERVACION 1. .. n} → R.. n EJEMPLO 1. . .2. . .. MATRICES 25 ´ DEFINICION 1. ... .. . Diremos que dos matrices son iguales si tienen el mismo tama˜ o y los n mismas entradas en las mismas posiciones. .. Llamaremos matriz columna (fila) a una matriz X ∈ Mm×1 (M1×n ).1. . amn Notaci´n: En general la matriz A con entradas aij la indicaremos por o a A = ((aij ))i=1.2. . una definici´n formal ser´ a o o ıa: Una matriz A de m filas por n columnas es una funci´n A : {1. La frase “ordenamiento rectangular..       am1 am2 .. .es intuitiva pero no est´ definida con precisi´n. . El lector atento notar´ que nuestra definici´n de a o matriz si bien es clara no es del todo formal.. a1n a2n . . a12 a22 . Llamaremos matriz A de m filas por n columnas (m × n) de entradas aij a un ordenamiento rectangular de n´meros u   A=    a11 a21 .. El lector verificar´ que esta definici´n es coherente.2. . chequeando por ejemplo. a o el criterio de igualdad de matrices. .. . . m. j = 1. . Dicho de otro mondo si A y B son dos matrices m × n entonces A = B ⇔ aij = bij ∀i = 1. . .. .n est´n claras. . .5. . m}× o {1. El primer ´ e ındice i indica la fila y el segundo j la columna a la que pertenece la entrada. El conjunto de todas las matrices m × n lo indicaremos como Mm×n .

. . .6. + a1n xn = b1     a21 x1 + a22 x2 + . .   . . . . . .. . a2n (A|b) =  . . amn Llamaremos. amn matriz m × (n + 1)  b1  b2  . + a2n xn = b2 .  . . . A= .3. am1 am2 . .26 1. . a1n   a21 a22 . .  . .  . . matriz ampliada del sistema a la  a11 a12 . .. .  bm Diremos que dos matrices son equivalente si los respectivos sistemas lo son La definici´n anterior introduce una notaci´n m´s compacta (matricial) o o a para un sistema de ecuaciones.  . am1 am2 . Consideremos el sistema   x + y + 2z = 9  (S) 3x + 6y − 5z = 0   2x + 4y − 3z = 1 entonces la matriz del sistema y la matriz ampliada son:     1 1 2 1 1 2 9     A = 3 6 −5 y A|b =  3 6 −5 0  2 4 −3 2 4 −3 1 . a1n    a21 a22 . .  . . . a2n   . ECUACIONES LINEALES Y MATRICES ´ DEFINICION 1. . . . . Veamos algunos ejemplos. . .  .    am1 x1 + am2 x2 + . . . . EJEMPLO 1. + amn xn = bm llamaremos matriz del sistema a la matriz m × n A de coeficientes del mismo.  . . . .  . esto es:   a11 a12 . Dado un sistema lineal de ecuaciones   a11 x1 + a12 x2 + .

6     1 1 2 1 1 2 9 9      3 6 −5 0  ∼  0 3 −11 −27  ←− F2 − 3F1 ∼ ←− F3 − 2F1 2 4 −3 1 0 2 −7 −17   1 1 2 9   ∼  0 3 −11 −27  1 2 0 0 1 ←− F3 − 3 F2 3   1 1 2 9    0 3 −11 −27  0 0 1 3 ←− 3F3 Ahora podemos proceder a realizar sustituci´n hacia atr´s.´ ´ 1.3. Intentemos “escalerizar. Por lo tanto el sistema (S) es equivalente al sistema   x + y + 2z = 9  3y − 11z = −27   z=3 . 2.el sistema del ejemplo 1.7.4 a la matriz ampliada de un sistema. c´mo se aplica el procedimiento de “eso calerizaci´n” del ejemplo 1. EL METODO DE ESCALERIZACION 27 1. 3). EJEMPLO 1. El m´todo de escalerizaci´n e o Resulta natural ahora analizar . De la ultima o a ´ ecuaci´n se tiene o z=3 Con este valor sustituimos en la segunda y tenemos 3y − 33 = −27 =⇒ 3y = 6 =⇒ y=2 y finalmente sustituyendo en la primera x + 2 + 6 = 9 =⇒ x=1 En consecuencia el sistema es compatible determinado y su unica soluci´n ´ o es la 3-upla (1. Las transo formaciones elementales deben aplicarse sobre las filas de la matriz.3.

c)       Los ejemplos a y b son matrices escalerizadas y los ejemplos c y d son escalerizadas reducidas. Llamaremos matriz escalerizada a una matriz que cumpla las siguientes condiciones 1. La primera entrada no nula de una fila es 1.d)       1 0 0 0 .4. Diremos que un sistema est´ escalerizado si su matriz ampliada lo est´. a a Escalerizar un sistema (o matriz) es encontrar un sistema (matriz) escalerizado equivalente. 2.8. Todas las filas.      2 0 0 0 1 0 0 0 1 3 0 0 0 1 0 0 0 2 2 0 4 2 0 0 1 1 1 4 0 0 1 0           2 0 0 0 1 0 0 0 1 0 0 0 0 1 0 0 0 3 0 0 1 2 0 0 1 1 2 0 0 0 1 0           (1. Cada fila tiene al principio por lo menos un cero m´s que la fila a inmediata superior.8.8. ECUACIONES LINEALES Y MATRICES Hasta ahora no hemos sido precisos para definir a que le llamamos un sistema o matriz escalerizada ´ DEFINICION 1. Llamaremos matriz escalerizada reducida a una matriz escalerizada que adem´s cumple las siguientes condiciones: a 1.8.28 1.8.a) (1. La columna correspondiente a la primera entrada no nula de una fila tiene el resto de las entradas todas nulas.b) (1.    (1. 2. Si A es una matriz y E es una matriz escalerizada equivalente a A diremos que E es una forma escalerizada de A EJEMPLO 1. salvo quiz´s la primera comienzan con una sucesi´n a o de ceros.

Cabe entonces e o a preguntarse el motivo para introducir la definici´n de matriz escalerizada o reducida. EL METODO DE ESCALERIZACION 29 En el ejemplo 1. Dejamos la primera fila fija y la utilizamos como “pivot” para combinar con las otras dos. En el siguiente ejemplo se aclara en parte esto. para esto en primer lugar obtengamos una matriz equivalente pero con ceros en la segunda y tercera posici´n de la primera o columna.6 se aprecia que una vez obtenida la forma escalerizada el m´todo de sustituci´n hacia atr´s permite resolver el sistema. El segundo paso consiste en sustituir la tercera fila por otra con dos ceros en los primeros lugares. Para esto combinamos convenientemente tercera con la segunda fila. Ahora que obtuvimos una forma escalerizada de la matriz original podr´ ıamos proceder con la sustituci´n hacia atr´s pero en lugar de esto intentemos o a .3. EJEMPLO 1. Resolver el sistema:   2x + 4y + 2z = −2  (S) x + y + 2z = 0   −x + y − 2z = 2 La matriz ampliada del sistema es:   2 4 2 −2   2 0   1 1 2 −1 1 −2 Procedamos a escalerizarla.1) 1 1  ∼  0 −1 1 1   0 −1 1 0 0 2 4 0 3 −1 ←− F3 + 3F2 N´tese que al dar el segundo paso la primera fila ya no interviene y se procede o de manera an´loga al primer paso pero utilizado la segunda fila como fila a “pivot”.9.     2 4 2 −2 2 4 2 −2     2 0  ∼  0 −1 1 1  ←− F2 − 1 F1  1 1 2 −1 1 −2 2 0 3 −1 1 ←− F3 + 1 F1 2 Ahora la primera y segunda fila tiene el aspecto adecuado.     2 4 2 −2 2 4 2 −2     (1.´ ´ 1.

ECUACIONES LINEALES Y MATRICES obtener la forma reducida para esto fijamos la tercera fila como “pivot” y la combinamos con la primera y segunda de modo que las entradas en las posiciones 1.30 1. Obs´rvese que en 1. 2)}. 3 y 2. adem´s el lector puede observar que la forma o a a escalerizada de una matriz no es unica (para obtener otra basta sustituir ´ una fila por una combinaci´n de ella con una fila inferior) pero la reducida o si lo es. 3 se anulen     2 4 0 −6 ←− F1 − F3 2 4 2 −2     1  ∼  0 −1 0 −1  ←− F2 − 1 F3  0 −1 1 2 0 0 2 4 0 0 2 4 Combinando la segunda fila con la primera obtenemos un cero en la posici´n o 1. . Esto implica que en el correspondiente sistema cada ecuaci´n tenga exactamente una inc´gnita m´s que la inmediata inferior. 2     2 0 0 −10 ←− F1 + 4F2 2 4 0 −6      0 −1 0 −1  ∼  0 −1 0 −1  4 4 0 0 2 0 0 2 Para obtener la forma reducida solo resta obtener unos en las entradas no nulas de cada fila     2 0 0 −10 1 0 0 −5 ←− 1 F1 2     1  ←− −F2  0 −1 0 −1  ∼  0 1 0 0 0 2 4 0 0 1 2 ←− 1 F3 2 El sistema resultante. o o a El proceso de obtener la forma reducida sustituye entonces al algoritmo de sustituci´n hacia atr´s. equivalente a (S) es   x = −5  ′ (S ) y=1   z=2 y por lo tanto el sistema es compatible determinado con Sol(S) = {(−5.1 la escalera que se obtuvo tiene todos sus “escalones” e de ancho una columna. 1.

10. Resolver el sistema:   2x + 4y + 2z = −2  (S) x + y + 2z = 0   −x + y − 4z = 2 A diferencia del ejemplo precedente la forma escalerizada de la matriz ampliada tiene un escal´n m´s que la de la matriz del sistema. EL METODO DE ESCALERIZACION 31 La matriz ampliada del sistema es:   2 4 2 −2   2 0   1 1 −1 1 −4 2 EJEMPLO 1. Resolver el sistema:   x1 + 2x2 + x3 + x5 + x6 = 1     −x − 2x + x + x − x = 0  1 2 3 4 6  (S) x + 2x2 + x3 + 2x4 + 5x5 + 3x6 = 1  1   x1 + 2x2 + x3 + x5 + 3x6 = 3     x + 2x + x + 4x + 9x + 3x = 1 1 2 3 4 5 6 Procedamos como en el ejemplo anterior     2 4 2 −2 2 4 2 −2     2 0  ∼  0 −1 1 1  ←− F2 − 1 F1 ∼  1 1 2 2 1 ←− F3 + 1 F1 −1 1 −4 0 3 −3 2   2 4 2 −2   1   0 −1 1 0 0 0 4 ←− F3 + 3F2 . u y y z la satisface.11.3. por lo tanto la o a ultima ecuaci´n del sistema escalerizado es ´ o 0=4 y consecuentemente el sistema resulta incompatible pues ning´n valor de x.´ ´ 1. EJEMPLO 1.

32 1. ECUACIONES LINEALES Y MATRICES La matriz del sistema ampliada es:                 1 1 2 1 0 1 1 −1 −2 1 1 0 −1 0 1 2 1 2 5 3 1 1 2 1 0 1 3 3 1 2 1 4 9 3 −1 Como antes el proceso comienza fijando la primera fila como pivot y utilizando su primera entrada para lograr anular el resto de la primera columna. 3 para generar ceros en el resto de o la columna tres. se utilizaba la entrada 2.          1 2 1 0 1 1 1  −1 −2 1 1 0 −1 0   1 ∼ 1 2 1 2 5 3   1 2 1 0 1 3 3  1 2 1 4 9 3 −1   1 1 2 1 0 1 1    0 0 2 1 1 0 1  ←− F2 + F1   ∼  0 0 2 −1 −3 −2 1  ←− F3 + 2F1     0 0 2 1 1 −2 −1  ←− F4 − F1  0 0 0 4 8 2 0 ←− F5 − F1 En los ejemplos anteriores en el segundo paso. 2 para conseguir ceros en el resto de la columna. . Utilizao a mos entonces la entrada de la posici´n 2. aqu´ esto no es posible pues ı la segunda columna ya tiene todas sus entradas (salvo la primera) nulas en consecuencia el segundo escal´n deber´ estar en la tercera columna.

´ ´ 1.2)        1 0 0 0 0 2 0 0 0 0 1 0 1 1 2 1 1 0 2 −1 −3 −2 2 1 1 −2 0 4 8 2  1 2   0 0  ∼ 0 0    0 0 0 0 1 1 1 −1 0  1 0 1 1 1 2 1 1 0 1 0 −2 −4 −2 0 0 0 0 −2 −2 0 0 4 8 2    ∼         ←− F3 − F2    ←− F4 − F2 ←− F5 En el tercer paso escalerizaremos la columna siguiente (la cuarta)         1 0 0 0 0 2 0 0 0 0 1 0 1 1 2 1 1 0 0 −2 −4 −2 0 0 0 −2 0 4 8 2  1   0  ∼ 0    0 0 1 1 0 −2 0 2 0 0 0 0  1 0 1 1 1 1 2 1 1 0 0 −2 −4 −2 0 0 0 0 −2 −2 0 0 0 0 0    ∼            ←− F5 + 2F3 .3. EL METODO DE ESCALERIZACION 33  (1.

ECUACIONES LINEALES Y MATRICES Ya tenemos la forma escalerizada.34 1. pero como en el ejemplo 1.9 continuemos hasta obtener la forma reducida         1 0 0 0 0 2 0 0 0 0 1 0 2 1 0 −2 0 0 0 0  1   0  ∼ 0    0 0  1 1 1  1  1 0  −4 −2 0 ∼   0 −2 −2  0 0 0 1 0 2 1 0 −2 0 0 0 0  1 2   0 0  ∼ 0 0    0 0 0 0 2 0 0 0 0 0 1 0 1 0 1 2 −4 0 0 −2 −2 0 0 0  1 0 1 0 0 2 0 −1 0 2 2 0 −2 −4 0 0 0 0 −2 −2 0 0 0 0 0     ←− F3 − 2F4 ∼       ←− F2 + 1 F3 2   ∼    ←− F1 − 1 F4 2 (1.3)    ∼     1 0 0 0 0 2 0 0 0 0 3 0 0 0 2 2 0 −1 0 0 −2 −4 0 0 0 0 −2 0 0 0 0  1   0  ∼ 0    0 0 −1 2 2 −2 0 2 0 0 0 0 0 1 0 0 0         ←− F1 − 1 F2 2 ∼  3 0 0 −1 2  0 −1 0 1  ←− 1 F2 2 2  1 2 0 −1  ←− − 1 F3  2  0 0 1 1  ←− − 1 F4 2 0 0 0 0 .

1 .3. 1. Esto implica que en el sistema escalerizado algunas ecuaciones tienen por lo menos dos inc´gnitas m´s que la ecuaci´n inmediata inferior.´ ´ 1. o Los ejemplos anteriores parecen indicar que cualquier matriz y por ende cualquier sistema puede ser escalerizado. 0. x2 . EL METODO DE ESCALERIZACION 35 Despejando se tiene El sistema de ecuaciones asociado queda entonces   x1 + 2x2 + 3 x5 = −1 2    x3 − 1 x5 = 1 2 (S ′ )  x4 + 2x5 = −1    x6 = 1   x1    x 3  x4    x6 = −2x2 − 3 x5 − 1 2 = − 1 x5 + 1 2 = −2x5 − 1 =1 Las inc´gnitas x2 y x5 no pueden determinarse. 1 . 2 . 1. 1. x5 ∈ R 2 2 Vale la pena observar que al igual que en el ejemplo 1. por esto resulta imposible o a o determinar todas las inc´gnitas. −3. − x5 + 1.9 el n´mero de escau lones de la matriz ampliada y el de la matriz del sistema coinciden. Establezcamos este hecho en el siguiente resultado . El conjunto soluci´n es o 3 1 −2x2 − x5 − 1. aqu´ la “escalera” preo ı senta “descansos” o escalones largos (el primero y el tercero). 1). Sin embargo. x5 . Cada valor real elegido libremente de x2 y x5 determina una o soluci´n del sistema (S) Por ejemplo si x2 = 1 y x5 = 0 se obtiene la soluci´n o o 5 1 (−3. Si x2 = 0 y x5 = 1 se tiene la soluci´n − 2 . las otras se obtienen como o funci´n de ellas. Por esta raz´n el sistema resulta compatible. −1. x2 ∈ R. −2x5 − 1. 0. o El sistema es entonces compatible indeterminado y en virtud de que dos de sus inc´gnitas pueden elegirse libremente diremos que tiene dos grados de o libertad.

Para simplificar la notaci´n aqu´ supondremos que ya la primera columna o ı tiene alguna entrada no nula. Con la suposici´n indicada comenzamos reo conociendo si a11 = 0. Toda matriz puede ser transformada en una matriz escalerizada (o escalerizada reducida) mediante una cantidad finita de transformaciones elementales ´ Demostracion. . ECUACIONES LINEALES Y MATRICES ´ PROPOSICION 1. Si toda la primera columna es nula se pasa a la segunda y as´ sucesivamente hasta tener una ı primera columna con alguna entrada distinta de cero.5 Una vez que el pivot esta ubicado realizamos Un algoritmo es. este procedimiento se conoce como pivoteo. un conjunto de acciones expresadas en un lenguaje formal y sin ambig¨edades que pueden ser comprendidos y ejecutados por una u persona o una m´quina. Indicaremos esquem´ticamena te el procedimiento. Indiquemos por Ai = (ai1 . La prueba es algor´ ıtmica4 . Si a11 = 0 cambiamos la primera fila por otra cuya primera entrada sea no nula.3. groseramente hablando. 4 . a Este algoritmo es conocido con el nombre de M´todo de Gauss. ai2 . Sea A = ((aij )) una matriz m×n cualquiera. La idea para anular el resto de las entradas de la columna es ubicar la entrada no nula (a la que llamremos pivot) en la primera fila y utilizar esta para combinar convenientemente con cada fila a los efectos de lograr ceros en todas las posiciones. . los detalles quedan a cargo del lector. a´n cuando a11 = 0 cambiar u la primera fila por la fila que tenga la primera entrada mayor.36 1. ain ) su fila i-esima. e 5 Por razones num´ricas y para evitar errores de redondeo al resolver sistemas con e ayuda de la computadora resulta muchas veces importante. . El objetivo del primer paso es obtener una matriz con una primera columna que tenga nulas todas sus entradas excepto la primera. .

´ ´ 1.3. EL METODO DE ESCALERIZACION

37

el primer paso de la escalerizaci´n: o

          

A1 A2 . . . Ai . . . Am

. . . . . .

          ∼        

A1 A′ 2 . . . A′ i . . . A′ m

. . . . . .

 ←− A − a21 A 2  a11 1  .  . .   a  ←− Ai − a i1 A1 11  .  .  . ←− Am − am1 A1 a11

La matriz que obtuvimos tiene el siguiente aspecto:

     

a11 0 . . . 0

a12 a′ 22 . . .

... ... .. .

a1n a′ 2n . . .

     

′ a′ m2 . . . amn

En el segundo paso el objetivo es obtener una nueva matriz que tenga las entradas de la segunda columna todas nulas salvo tal vez las dos primeras. Para eso repetimos el procedimiento del paso uno a la sub-matriz que aparece recuadrada. De nuevo el primer paso es determinar el segundo pivot para esto chequeamos que a′ = 0 de lo contrario cambiamos la segunda fila por otra (de 22 abajo) con segunda entrada no nula. Podr´ ocurrir que todas las entradas ıa de la segunda fila fuesen nulas en ese caso la segunda columna ya tiene el aspecto adecuado por lo cual el procedimiento se contin´a ubicando un piu vot en al posici´n 2, 3 (ver (1.2)en el ejemplo 1.11). Supongamos, para fijar o

38

1. ECUACIONES LINEALES Y MATRICES

ideas, que a′ = 0 entonces el segundo paso de la escalerizaci´n es: o 22     A1 A1  ′   ′    A2   A2     ′ ′′  A   A  ←− A′ − a32 A′ 3 a22 2  3   3   .   .  . . . . . .  . ∼ .  . . .   .   .  ′   ′′  ′ − ai2 A′  Ai   Ai  ←− Ai a22 2  .   .  . . .  .   .  . . . . . .  .   .  ′ ′′ ′ − am2 A′ Am Am ←− Am a22 2 La matriz obtenida en el paso dos  a11 a12  0 a′  22   0 0  .  . .  . . . 0 0 tiene entonces el aspecto:  a13 . . . a1n a′ . . . a′  23 2n   a′′ . . . a′′  33 3n  .  .. . . . .  . . ′′ ′′ am3 . . . amn

Repetimos nuevamente los pasos previos aplicados a la sub-matriz del recuadro. El procedimiento culmina cuando se llega a la ultima fila o columna. ´ Para obtener la matriz escalerizada reducida a partir de la escalerizada, basta con repetir el procedimiento pero tomando como pivots la entrada que ocupa el lugar inferior derecho de la matriz y yendo hacia arriba. COROLARIO 1.4. Todo sistema lineal es equivalente a uno escalerizado. 1.4. Teorema de Rouche-Frobenius En las discusiones que realizamos de los ejemplos 1.9, 1.10 y 1.11 se apreciaba cierta relaci´n entre el n´mero de escalones de la forma escalerizada o u y la cantidad de soluciones del sistema, en esta secci´n establecemos con o precisi´n esta relaci´n describiendo completamente el conjunto soluci´n de o o o un sistema lineal de ecuaciones en termino de la cantidad de “escalones” del mismo.

1.4. TEOREMA DE ROUCHE-FROBENIUS

39

´ DEFINICION 1.5. Si E es una matriz escalerizada el n´ mero de escau lones de E es la cantidad de filas no nulas. ´ OBSERVACION 1.5. Si E es una matriz escalerizada y E ′ es una matriz reducida equivalente el n´mero de escalones de ambas es el mismo. u ´ OBSERVACION 1.6. Ya hemos observado que la forma escalonada de una matriz no es unica sin embargo (aunque no lo hemos probado todav´ ´ ıa) la forma reducida si lo es. De este hecho y de la observaci´n precedente se o deduce que la cantidad de escalones de todas las formas escalerizadas de una misma matriz coinciden. TEOREMA 1.7 (Rouche-Frobenius). Sea (S) un sistema lineal de m o u ecuaciones con n inc´gnitas con matriz ampliada A|b. Sea p el n´mero de ′ el n´mero de escalones de A|b entonces escalones de A y p u 1. (S) es compatible si y solo si p = p′ 2. Si (S) es compatible entonces a) (S) es determinado si y solo si p = n. b) (S) es indeterminado si y solo si p < n. ´ Demostracion. Comencemos probando los rec´ ıprocos de las tres afirmaciones. Observemos en primer lugar que como A tiene n columnas y cada escal´n ocupa por lo menos una columna deducimos que para cualquier siso temas se cumple que

(1.4)

p≤n

Supongamos que p = p′ . De (1.4) se deduce que hay dos posibilidades p′ = p = n o p′ = p < n. Analicemos el primer caso. La forma reducida debe

40

1. ECUACIONES LINEALES Y MATRICES

tener tantos escalones como columnas por lo tanto debe ser:

1 0 0  0 1 0    0 0 1   . . .  . . ..  . .  . .  . .  . .   0 0 ... 0 0 ...

... ... ... ... .. . .. .. .

0 0 . . . .. . . . .

. 1 ... 0 ... 0

c1 c2 . . . . . . . 0 . . 1 cn 0 0

             

Donde la columna de entradas ci representa el termino independiente luego de efectuado el proceso de escalerizaci´n. El sistema correspondiente es o

  x1 = c1     x2 = c2 . .  .  . .  .   xn = cn

el cual es compatible determinado. Veamos ahora el segundo caso, p′ = p < n. Como la forma escalerizada tiene m´s columnas que escalones necesariamente alg´n escal´n debe tener a u o “descanso” y por lo tanto la forma reducida debe ser

1.4. TEOREMA DE ROUCHE-FROBENIUS

41

                              

1 0 . . . . . . . . . . . . 0 . . .

0 ⋆ 1 ⋆ 0 . . . . . . . . . ... ... ... ...

... ⋆ 0 ... ⋆ 0

0 ... . . ... .

... 0 ... 0 . ... 0 1 ... . . . .. .. . . . 0 ... . . . . . . . . . . .. 1 . . ... . ... ... 0 . . . ... . ... ... . . . . . ... . ... ... . . .

0 0 ... ... 0 ... 0 . . . 0 . . . ... ... . . . . . . 0 ... . . ... .

0 0 ... ... 0 ...

. . . 0 c1 . . . 0 c2 . . ... . . . . . . ... . . . . . . ... . . . . . 1 ⋆ . . . ⋆ 0 . . . . cs . . 0 0 . . . 0 1 . . . . cs+1 . . . . . .. . . . ... . . . 0 . . . . . . . . . . . . . . 0 . . . 0 0 . . . 1 cp . . ... ... . 0 ... 0 0 ... 0 0 . . . . . . ... . . ... . . . . . . ... . . . . . . . . . ... ... . 0 ... 0 0 ... 0 0 .

0 0 . . . . . .

⋆ ⋆ . . . . . . . 0 . .

... ⋆ 0 ... ⋆ 0 . . ... . . . . . . ... . . . . . . ... . . . .

                              

donde las zonas de estrellas representan submatrices con entradas arbitrarias. Para analizar la soluci´n de este sistema intentemos aplicar el algoritmo de o sustituci´n hacia atr´s. Supongamos que s es la primera fila (comenzando o a desde abajo) con descanso (escal´n de ancho mayor que una columna). Las o ecuaciones s + 1, s + 2, . . . , p son entonces xs+1 = cs+1 xs+2 = cs+2 . . . xp = cp la ecuaci´n s es o xh + as h+1 xh+1 + . . . + ass xs = cs despejando se tiene xh = cs − (as h+1 xh+1 + . . . + ass xs )

. . ... 1 ⋆ ⋆ 0      0 0 0 . . ⋆ 0 . . 0 0 0 0 En consecuencia la ultima ecuaci´n del sistema es o 0=1 Recordemos que un resultado de l´gica elemental establece que A ⇒ B si y solo si o negaci´n de B ⇒ negaci´n de A o o 6 . ECUACIONES LINEALES Y MATRICES La inc´gnita xh no puede entonces determinarse sino en funci´n de los vao o lores de xh+1 ... 0 ⋆ ⋆ 0    0 1 ⋆ . .. . ⋆ 0 . xh quedar´ determinado y con estos valores podemos ahora suso a tituir en las ecuaci´n s − 1. xs se pueden elegir arbitrariamente se obtienen infinitas soluciones. ..  0 0 0 . Demostremos ahora que si (S) compatible entonces p′ = p..  . . .. . . .   .   . .. la ultima columna de la forma reducida de la matriz ampliada ´ debe tener un escal´n por lo tanto la forma es: o   1 0 ⋆ . . 0 0 . . . .. . .. ... ... . 0 0 . Fijemos valores arbitrarios para estas ultimas s − h ´ inc´gnitas.. .. 0 ⋆ ⋆ 0     . . De hecho como las variables xh+1 .. . .42 1. . ... .. Esto demuestra que el sistema es compatible. . . . 0 0 0 1   0 0 0 . 0 1 . ... 0 0 .. . . 1 y continuar el proceso de sustituci´n hacia o o atr´s.. Para probarlo demostraremos su contra rec´ ıproco6 y para esto basta con ver que p < p′ implica (S) incompatible pues en cualquier sistema A|b tiene una columna m´s que A y por lo tanto se cumple que p ≤ p′ a Si p < p′ . xs . . Obs´rvese e que estas elecciones arbitrarias se pueden hacer s´lo en los descansos y que o el n´mero de variables que pueden elegirse libremente es n − p (la suma u de los anchos de los descansos es igual al n´mero de columnas menos el de u escalones).. pues hay soluciones pero a si cambiamos la elecci´n hecha para los valores de xh+1 . .. . 0 ⋆ ⋆ 0     0 0 0 . xs se obtiene o otro valor para xh y consecuentemente otra soluci´n con lo cual el sistema o resulta compatible indeterminado.

n ´ PROPOSICION 1. .´ 1. Resolver el sistema   x+y−z =0  x + y − 2z = 0   2x + 2y − 3z = 0 . Sistemas homog´neos e Un sistema con todas las entradas del t´rmino independiente nulas se e denomina sistema homog´neo. 1. En efecto como el t´rmino independiente de un sistema e homog´neo tiene todas sus entradas nulas debe ser p = p′ y por lo tanto el e teorema de Rouche-Frobenius asegura la compatibilidad. .5.5. ıa De manera an´loga se razona para probar que S compatible indeterminado a implica p < n En el transcurso de la demostraci´n se observo que si p = p′ < n el sistema o es indeterminado y se pueden elegir n − p variables libremente quedando las otras determinadas por estas. xn = 0 a la que llamaremos soluci´n trivial verifica o o cualquier sistema homog´neo. Un sistema lineal homog´neo es siempre compatible. Naturalmente los sistemas homog´neos detere e minados unicamente admiten soluci´n trivial.8. Si S es compatible determinado debe ser p = n pues si p < n ya hemos visto que (S) resultar´ indeterminado. SISTEMAS HOMOGENEOS 43 de donde resulta que (S) debe ser incompatible. . . e ´ Demostracion. Por este motivo diremos que el sistema es indeterminado con n − p grados de libertad.12. Veamos con un ejemplo que ´ o ocurre en el caso de un sistema homog´neo indeterminado e EJEMPLO 1. Otra manera m´s directa de probar la afirmaci´n anterior es observar que a o la soluci´n x1 = 0. En virtud del importante rol que estos e sistemas desempe˜an vale la pena discutir alguna de sus propiedades.

1) con z ∈ R}. es evidente que a lo sumo puede tener m escalones y por lo tanto el teorema de RoucheFrobenius implica la afirmaci´n. Una interpretaci´n geom´trica o e El lector ha estudiado en el curso de Geometr´ Anal´ ıa ıtica la ecuaci´n o ax + by = c. 0 0 0 0 x+y−z =0 y−z =0  1 1 −1 0    1 1 −2 0  2 2 −3 0 La soluci´n es entonces o Sol(S) = {(0. si E es una forma escalerizada asociada a A. Sea A una matriz m × n con n > m. En efecto.44 1. z) con z ∈ R} = {z(0. ECUACIONES LINEALES Y MATRICES La matriz ampliada es:  en consecuencia el sistema asociado es Al escalerizarla se obtiene la matriz   1 1 −1 0   (S)  0 1 −1 0  . el sistema homog´neo asociado tiene m´s inc´gnitas que ecuaciones y resulta indetere a o minado. Si a y b no se anulan simult´neamente los puntos del plano de coordenadas a x. Se puede observar que todas las soluciones se pueden obtener como combinaci´n lineal de ciertas soluciones fijas. Por lo tanto en el sistema (S) ax + by = c a′ x + b′ y = c . o ´ OBSERVACION 1. y que la verifican pertenecen a una recta.9. o 1. z. 1.6.

13.13). El sistema 2x + 2y = 4 x+y = 2 es compatible indeterminado con soluci´n {(x. El sistema 2x + y = 2 x+y =2 es compatible determinado con unica soluci´n (0. De o ese modo un sistema 2 × 2 compatible determinado (una unica soluci´n) ´ o se corresponde con dos rectas que se cortan en un unico punto (ver figura ´ 1.´ ´ 1.6. EJEMPLO 1. 2 − x) x ∈ R} o . UNA INTERPRETACION GEOMETRICA 45 cada ecuaci´n representa una recta y su soluci´n no es otra cosa que las o o coordenadas de los puntos que pertenecen a la intersecci´n de ambas.14 y 1.15 respectivamente).14. 2) ´ o 2 x+y =2 1 2x + y = 2 1 2 Figura 1 EJEMPLO 1. un sistema indeterminado (infinitas soluciones) se corresponde con dos rectas coincidentes y un sistema incompatible con dos rectas paralelas distintas (ver figuras 1.

las ecuaciones representan planos en el espacio y la soluci´n sus intersecciones. ECUACIONES LINEALES Y MATRICES 2 x+y =2 1 1 2x + 2y = 4 2 Figura 2 EJEMPLO 1.15.46 1. El sistema x+y =1 x+y =2 es incompatible x+y =1 2 x+y =2 1 1 2 Figura 3 Esta interpretaci´n geom´trica de los sistemas 2 × 2 puede tambi´n exo e e tenderse a los sistemas de tres inc´gnitas salvo que. como veremos en el o pr´ximo cap´ o ıtulo. o .

n .´ ´ 1.6. UNA INTERPRETACION GEOMETRICA 47 En cierta medida la teor´ que desarrollaremos en cap´ ıa ıtulos posteriores nos permitir´ extender tambi´n la interpretaci´n geom´trica para sistemas a e o e de mayor tama˜o.

48 1. ECUACIONES LINEALES Y MATRICES .

´ DEFINICION 2. lo cual resulta m´s c´modo y compacto. Como veremos m´s a a adelante.1 (Suma de matrices). Operaciones con matrices Ya hemos visto que en un sistema lineal de ecuaciones los coeficientes del mismo forman un “ordenamiento rectangular de n´meros” al que denou minamos matriz. simplemente se omite escribir las inc´gnitas. Sin embargo o a o las matrices son objetos matem´ticos con “vida propia”. donde cij = aij + bij . Sea A = ((aij )) y B = ((bij )) dos matrices m × n. las matrices comparten con los n´meros muchas de sus propiedau des aunque claro esta. Hasta el momento las matrices no son otra cosa que una nueva manera de representar al sistema de ecuaciones.1. definimos la suma + : Mm×n × Mm×n → Mm×n de modo que A + B = C siendo C = ((cij )).CAP´ ıTULO 2 ´ ALGEBRA DE MATRICES 2. No olvidemos que a guardan m´s informaci´n que una simple lista de n´meros: son n´meros a o u u ordenados en un damero. 49 . son m´s “complicados” que estos. Comencemos definiendo algunas operaciones con matrices.

Sean A =  1 2 −1  y B =  2 2 0 . β ∈ R y A ∈ Mm×n . ∀ A. ∀ A. Z ∈ Mm×n . [S2] [Asociativa] A + B + Z = A + B + Z .1. B. √ 0 −1 2 1 −2 2 entonces       1 1 1 0 1 0 −1 1+0 +1 0−1 2 2 2 2       2 −1  +  2 2 0  =  1+2 2 + 2 −1 + 0   1 √ √ 2 2+2 0 −1 1 −2 2 0 + 1 −1 − 2   1 1 −1   =  3 4 −1  √ 1 −3 2+2 ´ DEFINICION 2.2 (Producto de n´meros por matrices). [S3] [Neutro de la suma] Existe O ∈ Mm×n tal que A + O = O + A = A.2.50 ´ 2. ∀ A ∈ Mm×n . ∀ α. Sea λ = 2 y A = 0 − 2 √ √ √ √ √ √ 2 1 2( 2) 2(1) 2 2 √ √ √ √ 2· = = 0 − 2 2(0) 2(− 2) 0 −2 Resulta util destacar alguna de las propiedades que tienen estas opera´ ciones. [S4] [Existencia de opuesto] Para cada A ∈ Mm×n existe B ∈ Mm×n tal que A + B = O (Notaci´n: B = −A).  . Propiedades: [S1] [Conmutativa] A + B = B + A. ALGEBRA DE MATRICES    1 1 1 0 0 2 2 −1     EJEMPLO 2. Sea λ ∈ R un u n´mero y A ∈ Mm×n una matriz definimos el producto de λ por A como u λ·A = B donde B = ((bij )) con bij = λaij √ √ 2 1 √ entonces EJEMPLO 2. B ∈ Mm×n . o [P1] [Asociativa del producto] αβ A = α(βA).

vamos a agregar un producto entre ellas. En una primera mirada y por analog´ con las operaciones ya definidas parece razonable definir el ıa producto de matrices como producto entrada a entrada.2. PRODUCTO DE MATRICES 51 [P2] [Neutro del producto] 1. 2. · : Mm×p × Mp×n → Mm×n de modo que A·B = C donde C = ((cij )). ∀ α ∈ R y A. con p cij = h=1 aih bhj . β ∈ R y A. a ´ ´ DEFINICION 2.3. [P4] [Distributiva] α(A + B) = αA + αB. Las pruebas quedar´n a cargo del lector. Nuestro producto es algo m´s complicado pero a como veremos m´s adelante extremadamente util. B ∈ Mm×n .2. Observemos no obstante que la a matriz O de la propiedad [S3] se denomina matriz nula y tiene todas sus entradas cero. a ese el camino que seguiremos. Producto de matrices A las operaciones de suma y multiplicaci´n por escalares. B ∈ Mm×n . No ser´ sin embargo. Sea A ∈ Mm×p y B ∈ Mp×n definimos el producto entre matrices como.A = A ∀ A ∈ Mm×n [P3] [Distributiva] (α + β)A = αA + βA y ∀ α. en el caso de las o matrices.2.

. ↓ . .  .   . .  . . .. . ALGEBRA DE MATRICES El siguiente esquema ayuda a recordar la forma de realizar la operaci´n: o   b11 . .   . Sea A = producto 2 −1 0 2 1 2 −1 3 = = 2 −1 0 2 y B = 1 2 −1 3 calculemos su 2·1 + (−1)(−1) 2(2) + (−1)3 0·1 + 2(−1) 0·2 + 2·3 3 1 −2 6  1 2 1 1 2 1 1 0  = EJEMPLO 2.. . a a .. .  ..  .  . . . b1n    b21 . . .  . bpn     a11 a12 . . .  . . . .  ..   .. b2j .4. . .  .   . aip      . . . .3. . .     .. .  . a m1 m2 mp EJEMPLO 2..  . .   . b1j .   . ... . . . .  . . .. .. . . . . . .. . .  bp1 .   . . .  .  . . . .   ai1 ai2 . . . b2n   . . . .. .   . . . . . . .  . .  . .52 ´ 2. .  −→ cij .  . a1p   . Sean A = ducto de A por B es: 2 1 −1 0 2 1 2 −1 2 1 −1 0 2 1 2 −1         yB=  3 4 5 7   . . . . . . . . El pro 1 2 1 1 2 1 1 0   =  . bpj .  . .

Sean A = ((aij )) una matriz m × n y B = ((bjk )) una matriz n × p notaremos por Ai = (ai1 . Sea A =  2 1 1  y X ′ = 1 1 2 X ′A = x y z   1 2 1    2 1 1 = 1 1 2 x y z entonces x + 2y + z 2x + y + z x + y + 2z ´ OBSERVACION 2. . Cuando esto ocurra se dice que las matrices son conformables.6.     1 2 1 x     EJEMPLO 2. . Sea A =  2 1 1  y X =  y  entonces 1 1 2 z     1 2 1 x x + 2y + z      A. PRODUCTO DE MATRICES 53 pues 3 = 2·1 + 1·2 + (−1)1 + 0·1 4 = 2·2 + 1·1 + (−1)1 + 0·0 5 = 2·1 + 1·2 + 2·1 + (−1)1 7 = 2·2 + 1·1 + 2·1 + (−1)0 Vale la pena observar que las matrices no deben ser necesariamente del mismo tama˜o para poder multiplicarlas. ain ) a la fila i-esima de A y .2.X =  2 1 1  y  =  2x + y + z  1 1 2 z x + y + 2z    1 2 1   EJEMPLO 2.2. De hecho si se mira con cuidado n la definici´n se observa que para poder hacerlo la cantidad de filas de la o primera debe coincidir con la cantidad de columnas de la segunda.5. . .1.

54 ´ 2. . . con B j =  .7..  .   . . . Sea A = y B =  2 1  entonces 1 2 1 1 1 A·B = 2 1 0 1 2 1   1 1    2 1 = 1 1 4 3 6 4   . ank Ci la fila i-esima y por C k la columna k. .  . . A·B n          A·B =   y   A·B =     A1 ·B A2 ·B . Am ·B .   1 1 2 1 0   EJEMPLO 2. ALGEBRA DE MATRICES  b1k    la columna k-esima de B.esima de C. es decir que  A·B 1 A·B 2 . Si A·B = C designemos como .. Entonces C k = A·B k y Ci = Ai B. .  Las columnas de la matriz producto son 2 1 0 1 2 1   1    2 = 1 4 6 2 1 0 1 2 1   1    1 = 1 3 4 y . La prueba queda como ejercicio a cargo del lector pero el ejemplo siguiente ilustra las afirmaciones.

Comencemos observando que no es conmutativo.5 se observa que dos matrices pueden ser conformables en un orden y no en otro.B = 2 1 1 1 1 0 0 0 1 0 0 0 2 1 1 1 = 2 0 1 0 = .A = 2 1 0 0 Naturalmente el contraejemplo solo indica que en general A·B = B·A lo cual no significa que no existan matrices que conmuten. pero B.2. PRODUCTO DE MATRICES 55 y las filas son  2 1 0  1 1    2 1 = 1 1 4 3 y 1 2 1   1 1    2 1 = 1 1 6 4 Propiedades del producto de matrices Analicemos ahora las propiedades del producto de matrices.2. En el ejemplo 2. ij dij = h aih s bhs csj = s h aih bhs csj = d′ ij . De hecho en ese ejemplo AX tiene sentido pero XA no. Pero el producto de matrices no es conmutativo ni siquiera cuando las matrices a multiplicar son cuadradas. j. 2 1 1 0 En efecto sea A = yB= entonces 1 1 0 0 A. B = ((bij )) y C = ((cij )) son tres matrices conformables entonces A·B C = A B·C . [Asociativa] Si A = ((aij )). En efecto pongamos A·B C = D = ((dij )) y A B·C = D′ = ((d′ )) ij debemos probar que dij = d′ ∀ i.

56 ´ 2. cuando esto 2 3 2 3 ocurra diremos que la matriz es sim´trica  e    0 2 −1 0 −2 1     Sea C =  −2 0 1  entonces C t =  2 0 −1  por lo tanto 1 −1 0 −1 1 0 C t = −C. la otra queda como ejercicio. C·A = E = ((eij )) y C·B = F = ((fij )). entonces B = B t . donde at = aji . e Sea B = Observe el lector que la no conmutatividad del producto de matrices obliga a probar ambas identidades independientemente. ALGEBRA DE MATRICES [Distributiva] Si A = ((aij )). Debemos probar entonces que dij = eij + fij ∀ i. Sea A = 1 2 3 2 1 1  1 2   entonces At =  2 1  3 1  1 2 1 2 entonces B t = .8. ij ij EJEMPLO 2. B = ((bij )) son matrices de igual dimensi´n y C = ((cij )) es una matriz conformable con A y B entonces o C(A + B) = C·A + C·B y (A + B)C = A·C + B·C 1 Probemos s´lo la primera. cuando esto ocurra diremos que la matriz es antisim´trica. 1 . j dij = h cih ahj + bhj = h cih ahj + cih bhj = cih bhj = eij + fij h = h cih ahj + ´ DEFINICION 2. Sea A = ((aij )) una matriz n×m.4. definimos la matriz traspuesta de A como la matriz m × n At = ((at )). pues en general C(A + B) = (A + B)C. Pongamos o C(A + B) = D = ((dij )).

MATRIZ INVERSA. + a2n xn = b2 (S) = . 2.2 (Propiedades de la matriz traspuesta). Sea   a11 x1 + a12 x2 + . resolver la ecuaci´n u o matricial AX = b es equivalente a resolver el sistema A|b. ´ PROPOSICION 2. A + B = At + B t . 3. + a1n xn = b1     a21 x1 + a22 x2 + .3. Ecuaciones matriciales. (A·B)t = B t ·At .  .    am1 x1 + am2 x2 + . . ECUACIONES MATRICIALES. ´ PROPOSICION 2. (At )t = A t  ´ Demostracion. 2. + amn xn = bm . 57  1  −2    Sea D =  e  entonces Dt = 1 −2 2 0 . .2.3. . . . . 4. identificando de manera natural matrices columna con sucesiones finitas de n´meros. Matriz inversa. El ejemplo 2. . (λA)t = λAt .  .5 nos motiva a pensar que. Resolverla es encontrar todas las matrices X n × 1 o que la verifiquen. Ejercicio. Sean A y B dos matrices y λ un n´mero se cumplen las siguientes propiedades u 1.3. . Obs´rvese que la tras 2  0 puesta de una matriz columna resulta ser un matriz fila. . Si A es una matriz m × n y b es una matriz m × 1 entonces AX = b es una ecuaci´n matricial.

. bm            =        ⇐⇒ AX = b   El resultado anterior permite pensar el sistema de ecuaciones lineal con matriz ampliada A|b como la ecuaci´n matricial o (2. . a1n x1 a11 x1 + a12 x2 + · · · + a1n xn      a21 a22 . . . . .  . . m ⇐⇒       a11 x1 + a12 x2 + · · · + a1n xn a21 x1 + a22 x2 + · · · + a2n xn . puede considerarse como la primera aplicaci´n o importante del producto de matrices y en cierta forma justifica su definici´n.  . ∀ i = 1. x2 . o .  . . . ALGEBRA DE MATRICES un sistema lineal de m ecuaciones con n inc´gnitas. . . .  entonces (x1 . . . A la matriz del sistema o   b1    b2   . .  . . . bm     cumple que A·X = b   xn Entonces ´ Demostracion. . . . . . . . .  . . a2n  x2   a21 x1 + a22 x2 + · · · + a2n xn  . Observemos en primer lugar que     a11 a12 . . amn xn am1 x1 + am2 x2 + · · · + amn xn (x1 . .  am1 am2 .   . am1 x1 + am2 x2 + · · · + amn xn   b1 b2 .   .5) AX = b. .58 ´ 2. . . . . xn ) ∈ Sol(S) ⇐⇒ ai1 x1 + ai2 x2 + · · · + ain xn = bi . .. en primer lugar.  =  . . x2 . .    X=    x1 x2 . . xn ) es soluci´n de (S) si y solo si y b =  o  . 2. . . . . . . . . Este hecho.

Veamos que el producto de matrices tiene tambi´n un neutro mule tiplicativo. . Naturalmente. R´pidamente se observa que el 1 no es otra cosa que el neutro a multiplicativo de R es decir 1 es el unico n´mero real que verifica a. 1 Esto es In = ((eij )) con eij = 0 si i = j .  ..  . ECUACIONES MATRICIALES. por el momento. 1 si i = j ´ PROPOSICION 2. .2. 0   . a a o Por otra parte la ecuaci´n 2.5 recuerda fuertemente la situaci´n que anao o lizamos en nuestro primer ejemplo 1.1.3. . Al ver el sistema escrito en forma matricial nos vemos tentados a “pasar dividiendo” A para “despejar” X. MATRIZ INVERSA. .  In =  ... esto carece de sentido pero. . M´s adelante veremos otras aplicaciones que pera mitir´n comprender m´s profundamente las motivaciones de la definici´n. u esto es dado a ∈ R existe a−1 ∈ R tal que a. si analizamos con m´s cuidado el procedimiento utilizado para resolver la ecuaci´n ax = b a o observamos que la clave reside en que todo n´mero no nulo tiene inverso.. 0    0 1 .4. 59 a priori no muy natural. .a−1 = 1.. Podr´ ıamos analizar la posibilidad de que una matriz tuviese una propiedad an´loga pero para a esto necesitar´ ıamos saber qu´ puede representar el “1” en nuestro contexto.  . ´ Demostracion.. Llamaremos matriz identidad de tama˜o n a la man triz n × n   1 0 . e De nuevo la clave est´ en analizar que propiedad abstracta caracteriza a la a unidad real.5. In ·A = A·In = A. La prueba es una verificaci´n inmediata y queda a cargo o del lector.1 = a ´ u ∀a ∈ R. ´ DEFINICION 2.. ∀ A ∈ Mn×n . . 0 0 .

6).  xn Ahora que tenemos nuestro neutro podemos dar la siguiente ´ DEFINICION 2. Por tal motivo se le llama la inversa de A y se utiliza la notaci´n ´ −1 B=A ´ PROPOSICION 2. Nuevamente como consecuencia de la no conmutatividad del producto de matrices debemos.A.B y B.6) entonces B1 = B2 ´ Demostracion. exigir o que A. ALGEBRA DE MATRICES ´ OBSERVACION 2. cuando existe.A = In donde In es la matriz identidad n × n ´ OBSERVACION 2. A priori podr´ ocurrir ıa a que A.B = In = B.  es una matriz columna cualquiera entonces In ·X = X. El lector puede verificar directamente que si X =   x1    x2   .9). Diremos que la matriz A es invertible si y solo si existe B matriz n × n tal que (2.B2 = IB2 = B2 . Veremos m´s adelante que esto realmente no es posible.B = In y B.A sean ambos iguales a la identidad.6) A. Sean B1 y B2 matrices n × n que cumplen (2. que las matrices invertibles son por definici´n matrices a o cuadradas. o o es unica. de hecho si existe B tal que AB = In entonces BA = In (ver lema 2.  . Observemos adem´s. A continuaci´n veremos que la matriz B que cumple (2.6 (Matriz invertible). en la definici´n anterior.   .B2 = (B1 A) .B2 ) = B1 A.5. Sea A una matriz n × n. En efecto B1 = B1 I = B1 (A.60 ´ 2.6.7. .

La matriz A = a b  para cualquier matriz B =  d e g h      1 1 2 a b c a+d     A. MATRIZ INVERSA.B =  1 −1 −1   d e f  =  a − g 0 0 0 g h i 0  1 0  =  0 1 0 0 ´ PROPOSICION 2. pues 0 0 se cumple que  b+e c+f  b−h c−i = 0 0  0  0 =I 1 EJEMPLO 2.B = I y 2 1 1 1 es invertible. Sean A y B dos matrices n × n invertibles entonces A·B es invertible y (A·B)−1 = B −1 ·A−1 ´ Demostracion.9. Basta verificar directamente que = In −1 −1 (A·B)(B y que ·A ) = A (B·B −1 ) A−1 = A·A−1 = In = In (B −1 ·A−1 )(A·B) = B −1 (A−1 ·A) B = B −1 ·B = In . 61 EJEMPLO 2. ECUACIONES MATRICIALES. pues existe B = B.3.10.8. La matriz A = 1 −1 −1 2 tal que A.A = I (verificarlo)  1   1 0  c  f  i  1 0  0 −1  no es invertible.2.

. 2x + y = 3 x + y = −1 Es f´cil ver que A es invertible (ejemplo 2. El lector como ejercicio verificar´ que efectivamente (4. ALGEBRA DE MATRICES Sea A ∈ Mn×n una matriz invertible y b ∈ Mn×1 una matriz columna consideremos el sistema A·X = b . .11. xn ) es soluci´n del sistema con o matriz ampliada A|b si y solo si   x1    x2   . −5) satisface (S) a Obs´rvese que se debe multiplicar en ambos miembros del mismo lado.  xn EJEMPLO 2. Resolvamos el sistema (S) la matriz del sistema es A= 2 1 1 1 . y b= 3 −1 . como A es invertible podemos multiplicar en la ecuaci´n anterior a ambos miembros por A−1 se tiene entonces o 2 A−1 A·X = A−1 ·b ⇐⇒ ⇐⇒ X = A−1 ·b A−1 ·A X = A−1 ·b ⇐⇒ In ·X = A−1 ·b Por lo tanto si A es invertible (x1 .   . . . x2 .7)  . entonces la soluci´n es o 3 −1 4 −5 A−1 b = = .62 ´ 2.  = A−1 b (2. pues el proe ducto no es conmutativo 2 .9) y que a A−1 = 1 −1 −1 2 1 −1 −1 2 .

Finalmente cuando A es invertible para poder aplicar la f´rmula necesitamos saber c´mo o o −1 . 63 La sencilla idea. Para ello. MATRIZ INVERSA. utilizada al principio del curso. Lo cual es equivalente a resolver n sistemas de ecuaciones con igual matriz asociada y diferente termino independiente.1 sino que o o a parece indicar un nuevo procedimiento para resolver sistemas lineales. en segundo lugar la f´rmula (2. pues si indicamos por X j la columna j-esima de X . Sin embargo hay varios asuntos a aclarar.2. admitamos moment´neamente el siguiente Lema. Sea A una matriz n × n entonces A es invertible si y solo si existe X ∈ Mn×n tal que A·X = In Nos bastara entonces. A continuaci´n veremos un algoritmo obtener la matriz A o para calcular la matriz inversa.7) no s´lo es an´loga a la obtenida en el ejemplo 1. hallar X tal que AX = In . cuya prueba a realizaremos en la secci´n 2. funcion´ tambi´n para resolver un sistema lineal n × n con n > 1 o e La f´rmula (2. inversa de A. para resolver un sistema lineal 1× 1. ECUACIONES MATRICIALES. o LEMA 2.7.7 y de tambi´n en el Cap´ o e ıtulo sobre Determinantes). en primer lugar todo lo hecho s´lo o se aplica a sistemas cuadrados.3.9.7) es v´lida o a s´lo bajo la hip´tesis de que A sea invertible y no tenemos por el momento o o ning´n criterio para decidir si una matriz lo es o no (trataremos esto en la u secci´n 2.

 . . . . . xj1  .   A  . podr´ ocurrir que alguno no lo fuera y en ıa ese caso no se puede determinar la matriz X y consecuentemente A no resulta invertible.. .. en    ⇐⇒  .  . n) Como los n sistemas S1 . . se pueden resolver simult´neamene a te escalerizando la matriz ( A| I ) .   . .   =  ⇐⇒ (Sj )    . n son compatibles. .  .  .   . . i = 1. 2...12. . Queremos ha- tal que AX = I : AX = 1 0 0 1 = = 2x11 + x21 2x12 + x22 4x11 + 3x21 4x12 + 3x22 = .  .. .      A  xjj  =  1  ←− lugar j  ..   .  . .. EJEMPLO 2.  ..  .  (j = 1.. .  . 0 . De hecho A es invertible si y solo si los n sistemas Si .64 ´ 2. ..   . A·X n      =         e1 e2 . .  . S2 . Consideremos la matriz A = llar (si existe) la matriz X = 2 1 4 3 x11 x12 x21 x22 x11 x12 x21 x22 2 1 4 3 .  .  . 0 xjn . . Sn tienen la misma matriz A de coeficientes (con diferentes t´rminos independientes).   .. ALGEBRA DE MATRICES y por ej la columna j-esima de In tenemos que  X1 X2 Xn AX = I ⇐⇒   A·X 1 A·X 2 ..  . Naturalmente a priori nada asegura que estos sistemas sean compatibles.

65 Igualando (por columna) se tienen los siguientes sistemas de ecuaciones : (S1 ) 2x11 + x21 = 1 4x11 + 3x21 = 0 ⇐⇒ ⇐⇒ A 2 1 4 3 x11 x21 2 1 4 3 A x12 x22 x11 x21 = 1 0 = 1 0 (S2 ) 2x12 + x22 = 0 4x12 + 3x22 = 1 ⇐⇒ ⇐⇒ x12 x22 = 0 1 = 0 1 Resolvemos el sistema (S1 ) por escalerizaci´n o 2 1 4 3 1 0 ∼ ∼ ∼ Por lo tanto rizaci´n o 2 1 4 3 0 1 ∼ ∼ ∼ x11 x21 = 3 2 2 1 0 1 2 0 0 1 1 0 0 1 1 −2 3 −2 3 2 ←− F2 + (−2)F1 ←− F1 − F2 ←− 1 F1 2 ∼ ∼ −2 −2 . ECUACIONES MATRICIALES. Resolvemos el sistema (S2 ) por escale- 2 1 0 1 2 0 0 1 1 0 0 1 0 1 −1 1 −1 2 −2 ←− F2 + (−2)F1 ←− F1 − F2 ←− 1 F1 2 ∼ ∼ . MATRIZ INVERSA.3.2.

Si A = B = R entonces a R2 = R × R = {(x. b) y (c. b) : a ∈ A y b ∈ B}. y) : x ∈ R y y ∈ R} . los podemos resolver simult´neamente a 2 1 4 3 1 0 0 1 ∼ ∼ ∼ 2 1 0 1 2 0 0 1 1 0 0 1 1 0 −2 1 3 −1 −2 1 −1 2 −2 −2 3 2 −1 2 −2 . se n reduce la matriz ( A| I ) por escalerizaci´n a la matriz ( I| B ) y se tiene que o −1 = B A 2. Recordamos que si A y B son dos conjuntos el producto cartesiano de ambos se define como el conjunto de pares ordenados de elementos de A yB A × B = {(a. d) son iguales si a = c y b = d. Estas ideas resultar´n de gran importancia en este cap´ a ıtulo y en el resto del curso. Hagamos entonces.66 ´ 2. un peu que˜o par´ntesis para introducir la noci´n de “colecci´n ordenada” o n-upla n e o o y ciertas operaciones naturales que se corresponden con las transformaciones elementales. Es decir que la inversa de A es ←− F2 + (−2)F1 ←− F1 − F2 ←− 1 F1 2 ∼ ∼ En general. para calcular la inversa de la matriz A de tama˜o n × n. ALGEBRA DE MATRICES Por lo tanto X= 3 2 x12 x22 = −1 2 . Dos elementos (a.4. Como para ambos sistemas la matriz A es la matriz de −2 −2 coeficientes. El espacio de n-uplas Las filas de una matriz (al igual que las columnas y las soluciones del sistema) son “colecciones ordenadas de n´meros”.

. xn ) : xi ∈ R. . . . . xn ) + (y1 . Y. y ∈ R y z ∈ R} el espacio de las 3-uplas. ∀ X. . . αxn ) EJEMPLO 2. . . Si (x1 . 2) = (1 + 0. yn ) son dos n-uplas y α un n´mero definimos la u suma entre n-uplas como (x1 . . 2. EL ESPACIO DE n-UPLAS 67 lo llamaremos espacio de 2-uplas. √ √ √ √ √ √ 2) = ( 2. . 2) Las operaciones tienen una lista de propiedades que nuevamente. Y ∈ Rn . . 2. En general n veces R =R n n−1 × R =R × · · · × R= {(x1 . xn + yn ) y el producto de n´meros por n-uplas como u α(x1 .4. z) : x ∈ R. [S3] [Neutro de la suma] Existe O ∈ R tal que X + O = O + X = X. . . . . . xn ) = (αx1 . . 0. N´tese ´ o que en ambos casos las propiedades coinciden. . . .1. n} es el espacio de n-uplas. xn ) y (y1 . al igual que en el caso de las operaciones con matrices. y. . . xn ). 2. . [S2] [Asociativa] X + Y + Z = X + Y + Z . ∀ X ∈ Rn . 1. . . . o . Supongamos n = 3 entonces (1. Z ∈ Rn . 3. −1) + (0. ∀i = 1.2. . Para compactar la notaci´n designemos cada n-upla con una letra may´scuo u la. . 2 + 1. 2) = ( 2. [S1] [Conmutativa] X + Y = Y + X. [S4] [Existencia de opuesto] Para cada X ∈ Rn existe Y ∈ Rn tal que X + Y = O (Notaci´n: Y = −X). .13. −1 + 2) = (1. . . . . . . 1) y √ 2(1. De manera an´loga definimos a R3 = R2 × R = R × R × R = {(x. ∀ X.0. . . X = (x1 . 0. . resulta util destacar. yn ) = (x1 + y1 . .

. . . X2 . . i = 1. . . 0) es combinaci´n lio neal de cualquier colecci´n de n-uplas. . λ2 . . . . . xn − xn ) = (0. . . β ∈ R y X. . . . . . ∀ α. . . . La n-upla nula O = (0. . β ∈ R y X ∈ Rn . basta tomar todos los coeficientes o nulos. . . . xn + yn ) = = (y1 + x1 . ∀ X ∈ Rn [Distributiva] (α + β)X = αX + βX. . xn ) + (−x1 . . . . xn ) + (y1 . 2. . . . . . . . . . . Si A = {X1 . Probemos s´lo algunas. . . yn ) = (x1 + y1 . . xn ) = Y + X [S3] Basta observar que O = (0. . Y ∈ Rn . . . las restantes quedan a cargo del lector o [S1] Si X = (x1 . . . ´ [S4] Si X = (x1 . yn + xn ) = (y1 . .10. xn ) y Y = (y1 . La n-upla O se denomina n-upla nula. . . . .X = −X e ´ DEFINICION 2.X = X. . n es calcular n X= i=1 λi Xi ´ OBSERVACION 2. 2. Xn si existen n´meros reales λ1 . . . . . . . Y ∈ Rn . . ALGEBRA DE MATRICES [P1] [P2] [P3] [P4] [Asociativa del producto] αβ X = α(βX) ∀ α. [Distributiva] α(X + Y ) = αX + αY . . xn ) basta elegir Y = (−x1 . . Decimos que X ∈ Rn es una combinaci´n lineal de o u las n-uplas X1 . −xn ) entonces X + Y = (x1 . . λn tales que n X = λ1 X1 + λ2 X2 + · · · + λn Xn = λi Xi i=1 Los n´meros λi . . . . De hecho es u unico (verificarlo).7. i = 1. . . X2 . . . . −xn ) = = (x1 − x1 . . . . . yn ) + (x1 .68 ´ 2. n se denominan coeficientes de la combinaci´n u o lineal. . . yn ) entonces X +Y = (x1 . [Neutro del producto] 1. . . 0) = O Obs´rvese que −1. Xn } ⊂ Rn combinar linealmente los vectores de A con coeficientes λi . ∀ α ∈ R y X. . . . . 0) act´a como neutro. . .

0 3(1. . Yh } entonces X = λ1 X1 + · · · + λp Xp + 0Y1 + · · · + 0Yh EJEMPLO 2. −2. 2).-1. −2. 1) EJEMPLO 2. 1). 2. 1) ´ OBSERVACION 2. (−1. 2. 0) es combinaci´n lineal de A con coeficientes 2 y -1 pues o (0. 1). 1) + (−1)(2. . (2. (2. 2). 1) pero tambi´n e (2. Sea A = {(1. 1) + (−1)(1. 1) = 2(1. Xp . . 2. 0) + 0(−1. 1)} combinemos linealmente los vectores de A con coeficientes 3. (1. . La 2-upla (2. . . 1) es combinaci´n lineal de o A = {(1. 1. . −2. 1)} pues (2. . EL ESPACIO DE n-UPLAS 69 Si X es combinaci´n lineal A = {X1 . (1. 6. Xp } entonces es combinaci´n lio o neal de B para cualquier conjunto B finito que contenga a A. . 0). 2. 2) + 0(1. . Sea A = {(1. . Y1 . 1) + (1. 1) = (1. 1. 0) + (−1)(−1. 1).14. 8. 1) + (−1)(2.11. EJEMPLO 2. 1) = (1. tal como muestra el ejemplo ante´ rior.4.2. 6. 0) = 2(1. 2)} ⊂ R3 entonces (0. En general si X es combinaci´n lineal de A los o coeficientes no tienen por que ser unicos.15. . −2.16. En efecto supongamos que X = λ1 X1 + · · · + λp Xp y que B = {X1 . .

X2 . (1. 2λ1 + λ2 = 1 λ1 = 1 λ1 (2. 0) = (1. .  xn Culminemos esta secci´n probando un resultado que ser´ de utilidad en o a futuro que b´sicamente establece la “transitividad” de la combinaci´n lineal. . ¿Es X combinaci´n o lineal de A? Apelando a la definici´n observamos que la pregunta puede o formularse de manera equivalente como ¿existen n´meros λ1 . Sea A = {X1 .   . . . Xn } ⊂ R es equivalente a discutir la compatibilidad de un sistema lineal de ecuaciones con matriz ampliada A|b   x1 . X2 . . . 1) ⇐⇒ (S) El sistema (S) tiene matriz ampliada A|b = 2 1 1 de la ultima ecua´ 1 0 1 ci´n se deduce que λ1 = 1 y sustituyendo en la primera se tiene que λ2 = −1 o N´tese que la matriz A tiene como columnas las n-uplas del conjunto B. . o ´ OBSERVACION 2. . 1) + λ2 (1. Si Z ∈ R es combinaci´n lineal de B entonces Z es combinaci´n lineal de A ´ Demostracion.13. Ahora bien.70 ´ 2. 0) = (1. . . 1). 2. Xr } y B = {Y1 . . xn ) ∈ Rn es combinaci´n o n lineal de un conjunto B = {X1 . λ2 tales que u λ1 (2. . . . Sea A = {(2. 1)?. . donde A es la matriz de columnas X1 . 1) + λ2 (1.8) Z = β1 Y1 + β2 Y2 + · · · + βm Ym . β2 . . 0)} y X = (1. m Yi es combinaci´n lineal n o o de A. .   . a o ´ PROPOSICION 2. Ym } o dos conjuntos de n-uplas tales que ∀i = 1. . . . . . El razonamiento realizado en el ultimo ejemplo ´ puede aplicarse en general (el lector deber´ verificar esto) y muestra que el a problema de determinar si una n-upla X = (x1 .17. βm tales que (2. .12. . Xn y b =  . 1). Como Z es combinaci´n de B existen entonces n´meros o u β1 . . . . . Y2 . ALGEBRA DE MATRICES EJEMPLO 2.

. . 2. m y j = 1. Z = (β1 α11 + β2 α21 + · · · + βm αm1 ) X1 + = λ1 (β1 α12 + β2 α22 + · · · + βm αm2 ) X2 + · · · + = λ2 (β1 α1r + β2 α2r + · · · + βm αmr ) Xr = λr Por lo tanto Z = λ1 X1 + λ2 X2 + · · · + λr Xr probando que Z es combinaci´n de A. 2. .2.9) Yi = αi1 X1 + αi2 X2 + · · · + αir Xr . Los conceptos b´sicas de esta secci´n ser´n vistas nuevamente en el Cap´ a o a ıtulo sobre Espacios Vectoriales.5. Dependencia lineal Introducimos ahora el concepto de dependencia lineal para n-uplas. r tales que (2. . . m Sustituyendo (2. . Los ideas nuevas a contenidos en las definiciones y demostraciones de esta Secci´n se basan unio ´ camente en las propiedades de las operaciones (S1 -P4) entre n-uplas y no en el hecho de que ´stas sean una sucesi´n finita de n´meros. 2. . .8) se tiene Z = β1 (α11 X1 + α12 X2 + · · · + α1r Xr ) + β2 (α21 X1 + α22 X2 + · · · + α2r Xr ) + · · · + βm (αm1 X1 + αm2 X2 + · · · + αmr Xr ) Reordenando. . . . en un contexto m´s abstracto. . ∀ i = 1. existen n´meros o u αij con i = 1. . el cual resulta ahora b´sico para la caracterizaci´n de las matrices invertibles a o y que en el futuro jugara un papel central en muchos otros problemas. .9) en (2. . 2. .5. DEPENDENCIA LINEAL 71 Pero como cada Yi con i = 1. o 2. Por tanto si e o u entre elementos de otro conjunto se tuvieran definidas operaciones con esas . m es combinaci´n de A.

2.18. Xn } ⊂ R queremos determinar si alguno de los elementos de B es combinaci´n lineal de los restantes.72 ´ 2. o Para esto debemos determinar si existen λ1 . De hecho (S) es determinado si ninguna fila de la forma reducida de A es nula y es indeterminado si alguna lo es. 1. Esto es equivalente a que el sistema . 1). 1) + λ2 (3. Sea (S) un sistema lineal n × n compatible con matriz ampliada A|b El car´cter determinado o indeterminado de (S) depende. Para ilustrar esto puede observarse o en el ejemplo 1. Sea B = {(2. . los resultados ser´ tambi´n v´lidos. de la cantidad de escalones (i. ALGEBRA DE MATRICES propiedades. 1) = (2. veamos algunos ejemplos o para ilustrar el problema. 1.11 que la quinta fila de la matriz (1 2 1 4 9 3 − 1) se anula. lo cual se comprueba directamente (1 2 1 4 9 3 − 1) = 2(1 2 1 2 5 3 1) − (1 2 1 0 1 1 1) En otras palabras la determinaci´n o indeterminaci´n de un sistema como o patible depende de que alguna fila en la matriz del sistema sea combinaci´n o de las restantes. 1. EJEMPLO 2. 0) es combio naci´n de los otros dos. . 0). de filas no e nulas) de la forma reducida de A.e. (3. λ2 ∈ R tales que λ1 (1. a n Sea B = {X1 . 1)} ¿alguna n-upla de B es combinaci´n lineal de las restantes? Intentemos ver si (2. de acuerdo al a teorema de Rouch´-Frobenius. 2. . 0). (1. De hecho estas observaıan e a ciones son las que conducen a introducir el concepto de Espacio Vectorial. . Como las filas de una matriz pueden pensarse como n-uplas podemos plantear el problema de una forma un poco m´s abstracta. La forma reducida se obtiene realizando combinaciones lineales con las filas de A. por lo tanto para que en el proceso de escalerizaci´n una fila se anule debe o ser combinaci´n lineal de las restantes. analizando las transformaciones elementales que se efectuaron al escalerizar se deduce que F5 = 2F3 − F1 . 1. 1.

2. 2. 2) + λ2 (1. 1) = (3. 1. 1. 1. DEPENDENCIA LINEAL 73 sea compatible. 1). 0) + (1. 2) + 0(0.10) (1. 0.5. 1) + (3. 1. 1) + (−1)(2. La respuesta es negativa como muestra el siguiente ejemplo Sea B ′ = {(1. 2. 1) y (2. 1) = (2. Para resolver el sistema (S) escribamos la matriz ampliada   1 3 2   A =  1 2 1 . 1) = (2. 1. ∀ λ1 . se deduce f´cilmente que a a (3. 1). 1. 2. 1)} entonces es claro que 1 (2. 1) 2 pero sin embargo (0. λ2 ∈ R . Adem´s de lo anterior. 1 1 0 al escalerizarla se obtiene  1 3 2   A =  0 −1 −1  0 0 0    λ1 + 3λ2 = 2  (S) λ + 2λ2 = 1  1  λ1 + λ2 = 0 Por lo tanto el sistema (S) es compatible determinado y Sol(S) = {(−1. 0) Es decir que cualquiera de las tres n-uplas es combinaci´n lineal de las o restantes. 0. (0. 1) + 0(0. 1. 1. 2. Cabe preguntarse si esto ocurre siempre. 1)}. 1. 2). 1. 2. 2) = 2(1. 1). 0.2. (2. 1) = λ1 (2. 2. 1) y (1. En consecuencia. 0. (2. 0) = (−1)(1.

. Xm } ⊂ Rn es L. Xm } ⊂ Rn se dice linealmente independiente (L. 0.10) pues en cualquiera de las dos combinaciones lineales tiene coeficiente nulo. . .) si existen λ1 . .I. o si hay otras formas. . . X2 . X2 . .8. 1) no e puede despejarse de (2.74 ´ 2. Un conjunto A = {X1 . pues como se vio puede ocurrir que sea necesario chequear una a una las n-uplas del conjunto ya que algunas pueden no ser combinaci´n de las restantes y otras si.D. . . λm son n´meu ros reales tales que m λ1 X1 + λ2 X2 + · · · + λm Xm = entonces λ1 = λ2 = . ´ DEFINICION 2. λ2 . . .) si no es linealmente dependiente o equivalentemente A = {X1 . . . Xm } ⊂ Rn se dice linealmente dependiente (L. Vale la o pena entonces tratar de obtener un m´todo m´s eficiente para resolver este e a problema. λ2 . . Un conjunto A = {X1 . Vale la pena observar tambi´n.I. . El ejemplo anterior muestra que en general determinar si en un conjunto de n-uplas alguna es combinaci´n lineal de las restantes puede resultar o trabajoso si se utiliza el procedimiento del ejemplo. .9. .D. . . . . = λm = 0 λi Xi = O i=0 En otras palabras un conjunto es L. X2 . ALGEBRA DE MATRICES pues el sistema es incompatible. .I. que la n-upla (0. λm ∈ R no todos nulos tales que m   2λ1 + λ2 = 0  2λ1 + λ2 = 0   2λ1 + λ2 = 1 λ1 X1 + λ2 X2 + · · · + λm Xm = λi Xi = O i=0 ´ DEFINICION 2. si la unica forma de escribir la ´ n-upla nula como combinaci´n lineal de sus elementos es la trivial y es L. . si λ1 .

11) i=0 λi Xi = 0 Sea λi0 un coeficiente no nulo en la combinaci´n lineal precedente. λi0 −1 . . entonces existen n´meros λ1 . o y L. combinaci´n o lineal de los restantes elementos de A 2.2. o ´ Demostracion. . . . X2 . λm u tales que Xi0 = λ1 X1 + · · · + λi0 −1 Xi0 −1 + λi0 +1 Xi0 +1 + · · · + λm Xm .14. . . . DEPENDENCIA LINEAL 75 Los siguientes resultados dan una caracterizaci´n de los conjuntos L. Sea A = {X1 .5. . . λm u no todos nulos tales que m (2. Xm } ⊂ Rn entonces 1. A es linealmente dependiente. si y solo si existe Xi0 ∈ A. las proo piedades de las operaciones de suma y producto de n-uplas nos habilitan a “despejar” el termino i0 -esimo en (2. (=⇒) Supongamos que A es L. λ2 . . .D. λi0 +1 . A es linealmente independiente si ning´n elemento de A es combinau ci´n lineal de los restantes. .11) λ1 X1 + · · · + λi0 −1 Xi0 −1 + λi0 Xi0 + λi0 +1 Xi0 +1 + · · · + λm Xm = O =⇒ =0 −λi0 Xi0 = λ1 X1 + · · · + λi0 −1 Xi0 −1 + λi0 +1 Xi0 +1 + · · · + λm Xm =⇒ λ1 λi −1 λi +1 λm Xi0 = − X1 − · · · − 0 Xi0 −1 − 0 Xi0 +1 − · · · − Xm λi0 λi0 λi0 λi0 Por lo tanto Xi0 es combinaci´n lineal de los restantes elementos de A como o quer´ ıamos. ´ PROPOSICION 2. . S´lo es necesario probar la primera afirmaci´n pues la o o segunda es su consecuencia inmediata. (⇐) Supongamos ahora que existe Xi0 ∈ A combinaci´n lineal de los reso tantes elementos de A entonces existen n´meros λ1 . .D. .I. .

Si A = {(0. + 0Xm = O es una combinaci´n lineal de los elementos de A que da el nulo con no todos o los coeficientes nulos.D. Determinar en cada caso la dependencia lineal del conjunto A y en caso de ser L. 0) = O ∀λ ∈ R. 0. EJEMPLO 2.I.D. . es el que a tiene como unico elemento a la n-upla nula.D.11) tienen o coeficiente no nulo. X1 .D. Adem´s si se analiza con cuia dado en la demostraci´n del directo se observa cuales son las n-uplas que o son combinaci´n de las otras.19. .76 ´ 2.20. . . con lo cual A resulta L.D. La proposici´n anterior y su prueba dan un m´todo m´s eficiente pao e a ra determinar si en un conjunto de n-uplas un elemento es combinaci´n de o los restantes: basta investigar si es L.I.D o no. esto es lo que permite “despejarlas”. . . a ´ En efecto si A = {X} con X = O entonces λX = O implica λ = 0 (probarlo). ALGEBRA DE MATRICES entonces sumando el opuesto de Xi0 a ambos miembros se tiene que =0 λ1 X1 + · · · + λi0 −1 Xi0 −1 + (−1) Xi0 + λi0 +1 Xi0 +1 + · · · + λm Xm = O de donde hemos obtenido la n-upla nula como combinaci´n lineal no trivial o de los elementos de A y consecuentemente ´ste es un conjunto L. El ejemplo m´s sencillo de un conjunto L.. y L. como e quer´ ıamos. Veamos ahora algunos ejemplos de conjuntos L. 0)} ⊂ Rm ´ entonces λ(0. . EJEMPLO 2. Por otra parte cualquier conjunto que contenga a O debe ser L. . Sea A = {O. Xm } ⊂ Rn entonces 100. . . . 0. son exactamente aquellas que en (2. . . . en particular si λ = 0.D. indicar cu´les vectores son combinaci´n lineal a o de los restantes. .O + 0X1 + . Es f´cil ver que este es el unico conjunto de un elemento L.

0) ⇐⇒ (λ1 + λ2 + λ3 . 0. λ2 . −1) + λ2 (1. −1) + λ4 (2. 2. 0) ⇐⇒ (λ1 + λ2 + 2λ4 + λ5 . 0. λ1 + λ3 + λ4 . 1. (1. (1. 1. 0. 1. 1). λ3 . 0) ⇐⇒   λ1 + λ2 + λ3 = 0  (H) λ + λ3 = 0  1  −λ1 + λ2 + λ3 = 0 En consecuencia el conjunto es L. 1.I si el sistema homog´neo (H) es e determinado (s´lo admite soluci´n trivial) y es L. DEPENDENCIA LINEAL 77 1. 2. 1. 0) = (0. 1. 2. λ2 . 0). La matriz del sistema es   1 1 1 0    1 0 1 0  −1 1 1 0 escaleriz´ndola se obtiene a   1 1 1 0   0 0   0 −1 0 0 −2 0 por lo tanto (H) es determinado y la unica soluci´n es la trivial λ1 = ´ o λ2 = λ3 = 0 de donde A es L.2.12) λ1 (1. 1). 1. 1)} supongamos que λ1 . −1). −λ1 + λ2 + λ3 ) = (0. (0. (2. 0) + λ2 (1.5. 0.I. 1. λ4 . Sea A = {(1. 1) + λ5 (1. 1. 0. 3. λ5 n´meros reales tales que u (2. 1. 1. 1. 3. 1) + λ3 (0. 0. (1. 1. 2λ1 + λ2 + λ3 + 3λ4 + λ5 . 1. 0)} y sean λ1 . (1. Sea A = {(1. 1. λ1 + λ3 . si (H) es indetero o minado (admite soluciones no triviales). 0. 1) = (0. 0.. −1). λ2 − λ3 + λ4 ) = (0. 1. λ3 son tres n´meros reales tales que u λ1 (1. 1) + λ3 (1. 0. 0. 0. 0) ⇐⇒ . 1). 0.D.

0) = (0. 1. 0) = (0. 0. 1) + 0(1. −1) + λ4 (2. 1. 2. 0. 1) + λ3 (0. 1. 0. 2.D. 1. 0) + (λ3 − λ4 )(1. 0. Por ejemo plo. 0) 3 . En efecto sustituyendo en (2. 1) + (0. 1 1 (1.78 ´ 2. λ2 = λ3 − λ4 . 3. 0. 1. 0. ALGEBRA DE MATRICES Escaleriz´ndola se obtiene: a  1 1  0 1    0 0 0 0   λ1 + λ2 + 2λ4 + λ5 = 0    λ +λ +λ =0 1 3 4  2λ1 + λ2 + λ3 + 3λ4 + λ5 = 0    λ2 − λ3 + λ4 = 0 La matriz del sistema es:   1 1 0 2 1 0  1 0 1 1 0 0       2 1 1 3 1 0  0 1 −1 1 0 0 0 −1 0 0 2 1 0 0 1 1 1 0 0 0 0 0      y en consecuencia la soluci´n es λ1 = −λ3 − λ4 . 1. 0. 1. 1. 2. 0) + (−1)(1. 1. 0. 1. 0. 1. 1. 0. −1) 3 3 2 − (2. λ4 ∈ R El sistema es entonces compatible indeterminado y por lo tanto A es L. 3. 1. 3. 1. 0) = (1. −1) + 2(2. 1) + 0(1. λ5 = 0. 0) en particular poniendo por ejemplo λ3 = 1 y λ4 = 2 tenemos que (−3)(1. 1. 1) − (0. 1. 0) de donde podemos “despejar” cualquier n-upla salvo la ultima (tiene ´ coeficiente cero) como combinaci´n lineal de las restantes. 1. 1) + 0(1. 1. o λ3 .12) se tiene que para cualquier valor real de λ3 y λ4 se cumple que (−λ3 − λ4 )(1.

. Si (S) es indeterminado ya hemos visto o que algunas ecuaciones (o filas de su matriz asociada) son combinaci´n de las restantes. j = 1. El resultado estar´ probado si verificamos que cualquier subconjunto de A con a m´s de r elementos es L. Xh2 .I.10. . entonces rango(A) = card(A).5. q > r. . . ´ PROPOSICION 2. El siguiente resultado indica un camino para calcular el rango de un conjunto. hr o entonces rango(A) = r ´ Demostracion. Xkq } ⊂ A un subconjunto cualquiera de A con q elementos.13) Xkj = a1j Xh1 + a2j Xh2 + .I. Xs es combinaci´n lineal de B ∀ s = h1 . q .15. De nuevo planteamos el problema en el contexto de n-uplas. Xk2 . . cada una de sus ecuaciones pueden pensarse en cierto sentido como “datos” o “informaci´n” o que permite resolver el problema. ∀ j = 1. . B es L. y card(B) = r entonces rango(A) ≥ r. . . . . . . Sea A = {X1 . r.I. . . . Xhr } ⊂ A un subconjunto de A que cumple las siguiente dos condiciones: 1. . . Xm } ⊂ Rn un conjunto cualquiera y sea B = {Xh1 . Naturalmente si A es L. . h2 . esto puede considerarse como “redundancia en la informaci´n” que o estas aportan. ´ DEFINICION 2. . . .I. Nos interesa saber cuanta es la “informaci´n” no redundante o con que contamos y esto es cuantas ecuaciones independientes tienen el sistema. con o u i = 1. . + arj Xhr . DEPENDENCIA LINEAL 79 Supongamos que (S) es un sistema n×n indeterminado.2. . 2. . . . llamaremos rango del conjunto A a la mayor cantidad de elementos de A que forman un conjunto L. a Sea C = {Xk1 . Sea A ⊂ Rn un conjunto finito. X2 . Como B es L.D. . 2. . q tales que (2. Por lo tanto existen n´meros aij . . . Observemos primeramente que la segunda condici´n de la hip´tesis implica o o que todos los elementos de A son combinaci´n lineal de B pues cualquier o n-upla es combinaci´n de si misma.

. .   ar1 λ1 + ar2 λ2 + · · · + arq λq = 0 Pero (S) es un sistema homog´neo y q > r (tienen m´s inc´gnitas que e a o ecuaciones) por lo cual es indeterminado y consecuentemente tiene soluciones no triviales. . (1. ALGEBRA DE MATRICES Analicemos la dependencia lineal del conjunto C.  . 1).14) y por lo tanto C es L. λ2 . 1. . Xh2 . λq verifican (2. .. . . . . . el conjune o to B = {Xh1 .I. (1. .14) si y solo si λ1 a11 Xh1 +a21 Xh2 +. . (0. 1.D. 0)} . . . . . . . . De donde resulta que existen λ1 . λq no todos nulos que verifican (2. . λ2 . 1).80 ´ 2.14) λ1 Xk1 + λ2 Xk2 + . . . λ2 . . . + arq Xhr = O u Reordenando y sacando Xhi de factor com´n se tiene que λ1 . 1. 2. λ2 . . . . λq n´meu ros tales que (2. . Tenemos entonces que λ1 . . λq verifica (2.  . . 1. (2. Xhr } es L. 0).14) se tiene que λ1 . EJEMPLO 2. −1). 0. + λq Xkq = O Sustituyendo (2. . Sean λ1 .21. . Analicemos el rango del conjunto A = {(1. .  . .14) si y solo si =0 =0 a11 λ1 + a12 λ2 + · · · + a1q λq Xh1 + a21 λ1 + a22 λ2 + · · · + a2q λq Xh2 + + · · · + ar1 λ1 + ar2 λ2 + · · · + arq λq Xhr = O =0 Los par´ntesis en la ecuaci´n anterior resultan todos nulos pues.13) en (2. como se deseaba. 1. 3.+ar2 Xhr + + · · · + λq a1q Xh1 + a2q Xh2 + . 1. . λ2 . 0. . .+ar1 Xhr +λ2 a12 Xh1 +a22 Xh2 +.14) si y solo si verifican el sistema lineal   a11 λ1 + a12 λ2 + · · · + a1q λq = 0     a21 λ1 + a22 λ2 + · · · + a2q λq = 0 (S) . λq verifican (2.

1) + 0(1.D. 1) − λ3 (0. 0.5. 3. 0. 0. 1. 1. Para construir un conjunto L. λ4 n´meros tales que u λ1 (1. 1. 0) = (0. λ2 = −λ3 . DEPENDENCIA LINEAL 81 del ejemplo 2. 3. (0. 1. 1).2. por lo cual rango(A) < 5. 0. −1). 3. Ya sabemos que es L. λ4 = 0 y λ3 ∈ R. 0. 0) = (0. 0. −1) + λ3 (2. 0. 0) . 0.20. 1. λ3 . 0. 1. 1. −1) + λ3 (2. 1.I. 1. 1. 0) ⇐⇒   λ1 + 2λ3 + λ4 = 0    λ +λ =0 2 3 (S)   λ1 + λ2 + 3λ3 + λ4 = 0   λ1 − λ2 + λ3 = 0 1 0 1 0 0 0 0 0           Escaleriz´ndola se obtiene a La matriz ampliada de este sistema es  1 0 2  0 1 1    1 1 3 1 −1 1      1 0 0 0 0 2 1 0 1 1 0 0 0 0 1 0 0 0 0 Por lo tanto (S) tiene soluci´n λ1 = −2λ3 . (1. 0. 1). y adem´s ∀ λ3 ∈ R se tiene que a −2λ3 (1. (2. en nuestro caso. λ2 . Como ya vimos. 1. Sean λ1 . Nuestra intenci´n es construir con los elementos de A un conjunto B en las condio ciones de la proposici´n anterior. 0)} y estudiamos su dependencia lineal. 1) + λ2 (0. A′ o es L. 1. 1. con los o elementos de A debemos quitar las n-uplas que sean combinaci´n lineal de o las restantes.D. 1. 2. 1. (1. 1) + λ4 (1. 1. 0) es combinaci´n de las otras o as´ que consideramos el conjunto ı A′ = {(1.

Sea A una matriz m × n 1. . despejando resulta (2.6. 1. . 1.20. E jp } de columnas y B ′ = {E1 . 0) es combinaci´n de A o o ′′ . 3. jp entonces los conjuntos B = {E j1 . . ALGEBRA DE MATRICES En particular si λ3 = 0. . 1. 1. . que (1. Definimos el rango por filas de A (rangof (A)) como el rango del conjunto {(A1 . (0. 1. 1. 2. −1) + (1. . 0. 0. B es L. (1. . 3. 2. . 0. 1. Ep } de filas cumplen . 1. . . E2 . . E j2 . Am } ⊂ Rm de columnas de A. Entonces B = A′′ cumple las dos condiciones de la proposici´n anterior. . 0) =⇒ λ3 λ3 λ3 o Con lo cual tenemos que en A′ (2. 1. esto es: o 1. (verificarlo). LEMA 2. amj ) ∈ Rm la columna j-esima de A. j2 .16. 0.82 ´ 2. 1) − (0. 1).11. . −1) + 0(1. n (2. 1. 0) son combinaci´n lineal de B Por lo tanto rango(A) = card(B) = 3. Obs´rvese que hab´ e ıamos probado. . 1. 1. 1) = −2(1. 0)} ⊂ A′ ⊂ A el cual es L. . 1) = − 2λ3 λ3 0 (1. 1. 2. El rango de una matriz Si A = ((aij )) es una matriz m × n notaremos por Ai = (ai1 . . (2. Consideramos ahora el conjunto A′′ = {(1. 2. .I. . 1. 1. 1. . 0.I. . en el ejemplo 2. . . . .13 que (1. . 1) − (0. 0) ´ DEFINICION 2. 1. −1). ain ) ∈ R a la fila i-esima de A y con Aj = (a1j . Sea E ∈ Mm×n una matriz escalerizada reducida con p escalones ubicados en las columnas j1 . 1) es combinaci´n lineal de los restantes elementos. 3. Definimos el rango por columnas de A (rangoc (A)) como el rango del conjunto {A1 . . 0. 1) y (1. 1. 0) es com′ pero como los elementos de A′ son a su vez combinaci´n de los o binaci´n de A o ′′ se deduce aplicando la proposici´n 2. . 2. o 2. 1. An } de filas de A. de A 2. .

6. u 0 si h = ji para todo i. . jp . o j es combinaci´n Sea entonces j = j1 . esto es B es L. . E jp } por lo tanto existen βj1 . . βj2 . . EL RANGO DE UNA MATRIZ 83 ambos con las hip´tesis del lema 2. . . λjp n´meros tales que u λj1 Aj1 + λj2 Aj2 + · · · + λjp Ajp = O entonces la n-upla (α1 . . . . . Aj2 . . . .15. Ajp } cumple las condiciones de la proposici´n 2. o En particular. . .15 o j es combinaci´n lineal de B ∀ j = j . α2 . si h = ji para alg´n i. . . E j2 . LEMA 2. . E j2 . Esto ultimo o e ´ implica que O = α1 E 1 + α2 E 2 + · · · + αn E n = λj1 E j1 + λj2 E j2 + · · · + λjp E jp . j2 . entonces λj1 = λj2 = · · · = λjp = 0 probando que B es L. . Sean λj1 . . E jp } es L. La prueba es sencilla y queda a cargo del lector. Veamos ahora que si j = j1 . entonces rangoc (E) = rangof (E) = p ´ Demostracion.I y A o 1 2 p Veamos primero que B es L. Supongamos que los escalones de E est´n ubicados en las columnas j1 . . . .I. .16. jp a entonces para probar que rangoc (A) = p alcanza con demostrar que el conjunto B = {Aj1 . . pero el conjunto {E j1 . . . j .I. . αn ) tal que αh = λji . . λj2 .I. Como siempre indicaremos por Aj y E j las j-esimas columnas de A y E respectivamente. βjp n´meros tales que u E j = βj1 E j1 + βj2 E j2 + · · · + βjp E jp . . . del lema 2.16 se sabe que E o lineal del conjunto {E j1 . .17. jp entonces Aj es combinaci´n lineal de B. .2. Sea A una matriz m × n y p el n´mero de escalones de la u forma escalerizada reducida de A entonces rangoc (A) = p ´ Demostracion. . j . . . Sea A una matriz y E la forma escalerizada reducida de A con p escalones (esto es con p filas no nulas). . . es una soluci´n del sistema homog´neo con matriz A|O y por lo tanto es o e soluci´n del sistema homog´neo equivalente con matriz E|O. en virtud de lo visto en el lema 2. . .

α2 .20 (Rouche-Frobenius (2da versi´n)). pues las filas de una son las columnas de la otra. ALGEBRA DE MATRICES entonces (−1)E j + β1 E j1 + β2 E j2 + · · · + βp E jp = O. . Por lo tanto la n-upla (α1 . entonces o . si h = ji para alg´n i.19. ( ninguna de ellas puede ser combinaci´n de las restantes) y adem´s las otras o a m − p son combinaci´n de ellas (por eso al escalerizar A se anularon). La prueba se reduce a mostrar que rangof (A) = p donde p es el n´mero de escalones de E.I.18.  αh = u β . es soluci´n del sistema homog´nea con matriz E|O y consecuentemente tamo e bi´n del sistema equivalente A|O por lo tanto e O = α1 A1 + α2 A2 + · · · + αn An = (−1)Aj + βj1 Aj1 + βj2 Aj2 + · · · + βjp Ajp de donde se deduce que Aj = βj1 Aj1 + βj2 Aj2 + · · · + βjp Ajp culminando la prueba del lema. TEOREMA 2. si h = j. Sea (S) un sistema o lineal de m ecuaciones con n inc´gnitas con matriz ampliada A|b. . Sea A una matriz m×n entonces rangof (A) = rangoc (A) ´ Demostracion. TEOREMA 2. αn ) con   −1. . El rango de una matriz es igual al rango de su transpuesta. u Es claro que en el proceso de escalerizaci´n una fila se anula si y solo si es o combinaci´n lineal de las restantes en consecuencia si la forma escalerizada o tiene p filas no nulas la matriz A tiene p filas que forman un conjunto L. En o consecuencia el lema 2.84 ´ 2.15 asegura que rangof (A) = p. . ´ OBSERVACION 2. El resultado anterior nos habilita entonces a definir el rango de una matriz como el rango por filas o el rango por columnas.la forma reducida de A.  ji  0 si h = ji para todo i.

.2. ´ Demostracion. versi´n) y del lema 2.21. Sea A ∈ Mn×n entonces rango(A) = n si y solo si existe B ∈ Mn×n tal que A·B = In . probaremos en esta secci´n o como principal resultado que el rec´ ıproco es tambi´n cierto. b) (S) es indeterminado si y solo si rango(A) < n. se impone por lo tanto obtener alg´n resultado que caracterice a las matrices invertibles. sin embargo tal como se vio en el u ejemplo 2. LEMA 2.10 existen matrices no nulas que no poseen inversa. . u observemos que de (2.17 o 2. MATRICES INVERTIBLES Y RANGO 85 1..7) se deduce que si A ∈ Mn×n es una matriz invertible el sistema AX = b es compatible determinado por lo tanto el teorema de Rouche-Frobenius asegura que rango(A) = n. . La prueba es consecuencia inmediata del Teorema de RoucheFrobenius (1era. (S) es compatible si y solo si rango(A) = rango(A|b) 2. .7. Por lo tanto A·B = In ⇐⇒ A·B j = ej . A·B n     A·B =     . ∀j = 1. (⇒) Recordemos en primer lugar que de acuerdo a la observaci´n 2. Matrices invertibles y rango Todo n´mero real no nulo es invertible. . n . . ´ Demostracion. e Comencemos mostrando que las matrices de rango n son exactamente aquellas que admiten una “inversa a derecha”. Si (S) es compatible entonces a) (S) es determinado si y solo si rango(A) = n.7. 2..1 si A y B son dos matrices n × n cualquiera y B j indica la o columna j-esima de B entonces   A·B 1 A·B 2 .

. . . .  0  son todos compatibles. n  0  .86 ´ 2. . . as´ que debe ser rango(A) = n como quer´ ı ıamos. una forma escalerizada de la matriz A debe tener r < n escalones (filas no nulas). en A·B 1 A·B 2 . supongamos que la h. Pero entonces el sistema AX = eh resulta incompatible pues o al escalerizarlo. . 2.. n existe B j tal que A·B j = ej .17. (⇐) Veamos ahora el rec´ ıproco.. como rango(A) = n el teorema de Rouch´-Frobenius asegura e j con j = 1. Estamos ahora en condiciones de probar que que para que una matriz sea invertible es suficiente que tenga un “inverso a derecha” . . Mirado los extremos de la igualdad anterior se deduce que los sistemas AX = ej ∀j = 1. 2.   . ALGEBRA DE MATRICES Donde Ahora bien.    j e =  1  ←− fila j-esima  . j a la columna j-esima de la matriz B se tiene Entonces. . n son compatibles y que n sistemas de ecuaciones AX = e consecuentemente se tiene que ∀ j = 1.. . Supongamos que existe B tal que A·B = In . . Entonces.   . . A·B n          = A·B = In =        . Por lo tanto eligiendo B como la matriz cuya columna j-esima es B j se tiene probado el directo.   . supongamos por absurdo que rango(A) = r < n. 2.esima ecuaci´n se transforma en 0 = 1 y esto nao turalmente es absurdo pues todos los sistemas AX = ej eran compatibles ∀ j = 1. . . . 2. . al aplicar el algoritmo de Gauss a la matriz A alguna fila.   . la h.. llamando B    1 2  e e . Por lo tanto. debi´ anularse. . El rango(A) ≤ n pues A es n × n. . en virtud del lema 2. . n. . .

Transponiendo se tiene que C t ·A = At ·C t = (In )t = In .9 rango(A) = n. (⇒) Si A es invertible en particular existe B tal que A·B = In entonces lema 2.multiplicar una fila por una constante no nula .8. (⇐) Supongamos que existe X ∈ Mn×n tal que A·X = In entonces por el lema 2.22. existe C ∈ Mn×n tal que At ·C = In .1.9. Veamos que D = X. Sea e una de las transformaciones elemental de la definici´n 1.21.2.8. A es invertible si y solo si rango(A) = n. por lo que. ´ Demostracion. Sea A ∈ Mn×n . De la observaci´n 2. Matrices elementales Culminemos el cap´ ıtulo mostrando que el proceso de escalerizaci´n puede o representarse mediante el producto por ciertas matrices especiales llamadas matrices elementales. El directo es consecuencia inmediata de la definici´n de matriz invertible por lo cual s´lo probaremos el rec´ o o ıproco. utilizando nuevamente el lema 2. (⇐) Si rango(A) = n el lema 2. Por lo tanto D = C t es una “inversa a izquierda” de A.21 asegura que existe B ∈ Mn×n tal que A·B = In pero entonces por el lema 2. TEOREMA 2.21 rango(A) = n. esto es o 1. 2. en efecto D = D·In = D A·X = D·A X = In ·X = X entonces A·X = X·A = In y consecuentemente A es invertible. MATRICES ELEMENTALES 87 ´ Demostracion del lema 2.9 A es invertible.19 se deduce que o rango(At ) = rango(A) = n.

.. . . 0 0 0 ··· 0 0 . pues E1 se obtiene de la matriz identidad I aplicando dicha transformaci´n o operaci´n e1 o −→ I E1 . .  . . . ··· . . . . .. . .22. . .12. . . . . . ALGEBRA DE MATRICES 2. .  . . . . La matriz elemental E asociada con la transformaci´n e es la que se obtiene al aplicar la transformaci´n e a la matriz o o identidad n × n EJEMPLO 2. . . 1             ←− Fila i  . . . . 0 0 0 . . 1 0 0 ··· 0 α 0 ··· 0 0 1 ··· . . . . . . . . .   . . La matriz .15)         E1 =           1 0 ··· 0 1 ··· . . .  .. . . . . . . . . . . ··· . .88 ´ 2. est´ asociada a la transformaci´n elemental e1 “multiplicar la fila i por a o la constante α = 0”. . . . . ··· .intercambio de filas 3. . . . . .sumarle a una fila un m´ltiplo de otra fila u ´ DEFINICION 2. . . . . (2. . . . . . . . . . . . . 0 0 ··· 0 0 0 ··· 0 0 0 ··· .

. . ··· ··· . ··· ··· ··· ··· . . . 1 . . . . 1 . . . . .  . .  . . . .  .  . . . .  . . . . ··· ··· 1 .  .  . ··· 1  . . α . ··· ··· ··· .  ··· ··· . ··· . ··· . ··· . ··· ··· ··· .  . .  . .  . . .16)  1 ···  .  . . . ··· ··· ··· ··· 1 ··· ··· ··· ··· ··· ··· . ··· .   . . . . ··· . . .   ···   .  . .   ··· ···   . MATRICES ELEMENTALES 89 est´ asociada a la transformaci´n elemental e2 “intercambiar la fila i a o por la fila j”. .. . . . .23. . ··· ··· ··· . . . . . . . 1 . . .  . . .  . ··· ··· .  ..  . . . .  . . ··· 1 ··· . .    ←− Fila i  . . . E2 =  .8.. . . . . . . .  . . .  . o operaci´n e2 o E2 I −→ La matriz (2. .  . ··· . . . .  . . . . ··· ··· 0 . .   .  .. .   . . .  . . . ··· ··· ··· ··· 1 ··· ··· ··· ··· ··· ··· . . . . .  . . ··· ··· . . . . ··· . .   .   ←− Fila j   . .  . .  . .    ←− Fila i  . 0 . . E3 =  . . . . . ··· ··· ··· ··· . . . . . ··· . . . .  .  .  .  .   . 1 . .  .. . . .   . . ··· ··· matriz ··· . . ··· 1 ··· . 1 .  . . . .  . . . . . . . . . ··· ··· .   ←− Fila j   . . .  . . . . . .  .  . . . ··· ··· . . . . . . .  . La (2. . .  . . . . . .2. ··· ··· . . .17)  EJEMPLO 2. .  . .  . . . . . . . .. .  .  . .  .  . . . pues E2 se obtiene de la matriz identidad I aplicando dicha transformaci´n.  . .

··· . Sean: B la matriz (de tama˜o n×m) que se obtien ne a partir de la matriz A (de tama˜o n × m) realizando la transformaci´n n o elemental e con las filas de A operaci´n e o −→ A B.  ann ´ Demostracion.  .  .   αain  . .  . .  .  .90 ´ 2.23.  . αai2 . . que se obtiene de A multiplicando por α  a1n .  . E la matriz elemental (de tama˜o n × n ) asociada con la transformaci´n e n o operaci´n e o −→ I E Se cumple que B = EA. an2 ··· ··· ··· .  B =  αai1  . . pues E3 se obtiene de la matriz identidad I aplicando dicha transformaci´n o operaci´n e3 o −→ I E3 ´ PROPOSICION 2. . an1 a12 .. Sea B la matriz la fila i de A  a11  .  . ALGEBRA DE MATRICES est´ asociada a la transformaci´n elemental e3 “sumarle a fila i un m´ ltia o u plo de la fila j”.

.. ··· .  .   . MATRICES ELEMENTALES 91 Si E1 es la matriz (2.15) asociada a la transformaci´n elemental “multiplicar o la fila i por la constante α = 0”. an1 an2 · · · ann An´logamente se prueba la propiedad para las dos restantes operaciones a elementales. 0 ··· 0 ··· 1 an1 an2 · · · ann   a11 a12 · · · a1n  ..  1 0  A =  2 −1 1 4 asociada a la transformaci´n elemental e de sumarle a la tercera fila 3 veo ces la primer fila.  .  . . . es inmediato verificar que    1 ··· 0 ··· 0 a11 a12 · · · a1n  .  . . . . ··· . .  .24.. y la matriz elemental E =  0 1 0  4 0 3 0 1 . EJEMPLO 2.8. ··· .   . .   .  . . Sea B la matriz que se obtiene de A si se le aplica la transformaci´n elemental considerada o     1 0 2 1 operaci´n e o 1 0 2 1     A =  2 −1 3 6  −→  2 −1 3 6  = B 1 4 4 0 4 4 10 9   1 0 2 1   y operando se verifica que B = EA =  2 −1 3 6  4 4 10 9 Consideremos la matriz    1 0 0 2 1    3 6  . .   . . . . ··· .  . .  . . .    E1 A =  0 · · · α · · · 0   ai1 ai2 · · · ain  =  .   .  .  .  . .  .2.     =  αai1 αai2 · · · αain  = B  .  . . . . . . ··· . . . . . . .  . . . . .

E2 . . . . 0 . Si rango(A) = n ⇒ existe una sucesi´n de matrices elementales E1 . .  A′ =  . . . . .  . ek de transformaciones elementales. Ek a su forma escalerizada B. . esto o es: Ek . e2 .   . . E2 E1 A = B. esquematizamos como sigue el proceso de escalerizaci´n: o A operaci´n e1 o −→ ······ operaci´n ek o −→ B. 1 ← n escalones no nulos y n filas . .  0 1 . . 0 0 . Como rango(A) = n y A (y por lo tanto A′ ) es una matriz n × n se tiene que   .92 ´ 2.3 (M´todo o e de Gauss) puede escalerizarse mediante una cantidad finita.. . Sea A una matriz n×n. se puede enunciar que ´ PROPOSICION 2. . ALGEBRA DE MATRICES Sea A una matriz cualquiera. (es decir que al aplicarle el proceso de escalerizaci´n se obtiene la matriz o identidad) ´ Demostracion. . Recordemos primeramente que el rango de una matriz es el n´mero de escalones de su forma escalerizada (filas no nulas)..25.. Sea A′ la u forma reducida de A.. en virtud de la proposici´n 1. . . . . . E2 E1 A = I. Sea B una forma escalerizada de A. .. Toda matriz A puede reducirse mediante una sucesi´n de matrices elementales E1 .  . .24. Eh tales que o Eh . ´ PROPOSICION 2. Si representamos estas operaciones elementales por sus respectivas matrices elementales asociadas. e1 . .  . 0  . 1 0 .  .. . . E2 . .

.24 existen matrices elementales E1 .2. MATRICES ELEMENTALES 93 As´ por la proposici´n 2. esto es 1. Eh A = I. .sumarle a una fila un m´ltiplo de otra fila se deshace rest´ndole a la u a fila el m´ltiplo de la otra u ´ PROPOSICION 2. Eh tales ı o que E1 E2 .multiplicar una fila por una constante α = 0 se deshace multiplicando 1 dicha fila por α 2. . . .intercambio de filas se deshace intercanbi´ndolas nuevamente a 3.8. E2 .26. Esto es E es tiene que E a invertible y su inversa es E −1 = E ′ (es una matriz elemental correspondiente a la transformaci´n inversa). Cada transformaci´n elemental puede ser deshecha por su transformaci´n o o elemental inversa. es decir que I operaci´n e o −→ E operaci´n e−1 o −→ I Si E ′ es la matriz elemental asociada a la transformaci´n elemental e−1 .23 a la matriz E con la transformaci´n e−1 se o o ′ E = I An´logamente se prueba que EE ′ = I. o Obtengamos una nueva caracterizaci´n de las matrices invertibles o . Sea E la matriz elemental asociada a la transformaci´n o elemental e operaci´n e o I E −→ o Indiquemos por e−1 a la transformaci´n elemental inversa de e. esto o es operaci´n e−1 o E′ I −→ aplicando la proposici´n 2. Toda matriz elemental es invertible y su inversa es una matriz elemental ´ Demostracion.

·E2 ′ ·E1 −1 ′ ′ ′ Por lo tanto poniendo E1 = Ek −1 . . . . . . ·Ek ·A = In pero como las matrices elementales son invertibles y sus inversas son tambi´n e matrices elementales se tiene ′ Ek −1 ′ · . Ek matrices elementales tales que A = E1 ·E2 · . . . ·Ek ´ Demostracion. E ′ . . ·E2 −1 ′ ·E1 −1 ′ ′ ′ ′ E1 ·E2 · . (⇐) El rec´ ıproco es consecuencia de que el producto de matrices invertibles es invertible. . . . . Ek = E1 −1 se tiene probado el directo. . . ALGEBRA DE MATRICES COROLARIO 2. .27. Sea A una matriz n × n entonces A es invertible si y solo si existen E1 . . . (⇒) Si A es invertible entonces en virtud de la proposici´n o ′ .94 ´ 2. E2 . . ·E2 −1 ′ ·E1 −1 In de donde se tiene que ′ A = Ek ′ · . E2 = Ek−1 −1 . . . . ·Ek ·A = Ek −1 −1 −1 ′ · . . E ′ una sucesi´n de matrices elementales tales anterior existen E1 2 o k que ′ ′ ′ E1 ·E2 · . . . .

El determinante de una matriz A se representa con el s´ ımbolo |A|. trat´ndose de una matriz dada a 95 . e a El uso del determinante surgi´ de las f´rmulas que dan las soluciones de o o sistemas de n ecuaciones con n inc´gnitas. hasta extenderse a definiciones m´s generales que la que nosotros daremos en este a curso (funci´n multilineal alternada). u a pero se puede dar sobre conjuntos “num´ricos” m´s generales. En nuestro caso estos n´meros ser´n los reales o los complejos. daremos la u definici´n de determinante de una matriz n × n a partir del conocimiento o de los determinantes de matrices (n − 1) × (n − 1). luego fue identificado (en el caso o 3 por 3) como ´rea de paralelogramo o volumen de un paralelep´ a ıpedo. de una matriz (su invertibilidad) estar´ caracterizada por la no nulidad de a su determinante (o sea por el valor de un unico n´mero). As´ una propiedad tan definitoria ı. a la que se puede asociar matrices o de una manera sencilla. O sea.1. o M´s adelante se ver´ que podemos hablar del determinante de una transa a formaci´n lineal entre espacios vectoriales. En particular las matrices invertibles son las unicas ´ que tienen determinantes distinto de cero. Definici´n o La definici´n de determinante de una matriz cuadrada ser´ dada de o a manera inductiva en el n´mero de filas (o de columnas). ´ u 3.CAP´ ıTULO 3 DETERMINANTES El determinante de una matriz cuadrada es un unico n´mero que se ´ u asocia a dicha matriz. es por tanto una funci´n del conjunto de las matrices o cuadradas en el conjunto num´rico al que pertenecen los elementos de las e matrices.

se  obtiene eliminando la fila 2 y la columna 1 de A:  × −4 −3 −4 −3   e  × × ×  . obteni´ndose la matriz adjunta A21 = 4 0 × 4 0 ´ OBSERVACION 3. DETERMINANTES por sus coeficientes. + (−1)n+1 an1 |An1 | def EJEMPLO 3. A = es el n´mero |A| = ad − bc u c d El determinante de una matriz A n × n se define como el n´mero u |A| = (−1)1+1 a11 |A11 | + .1. ¸ u ´ DEFINICION 3. la matriz adjunta del elemen−2 4 0 to a21 = −1. (Inductiva en el tama˜ o de la matriz) El den terminante de una matriz 1 × 1 es el propio n´mero. las matrin n ces adjuntas Aij son de tama˜o (n − 1) × (n − 1) .1. en general no escribiremos los par´ntesis con los que en e general encerramos el cuadrado” de los n´meros. se define la matriz adjunta del elemento aij como la submatriz Aij de la matriz A que se obtiene eliminado la fila i y la columna j de A   3 −4 −3   EJEMPLO 3. Si A =  −1 2 7 .2.96 3. ´ DEFINICION 3. Sea A = ((aij )) una matriz n × n. .2. El determinante de la u a b def matriz 2 × 2. Si la matriz cuadrada A es de tama˜o n. (a) Calculemos el determinante de la matriz A = |A| = (3) (2) − (7) (2) = −8 3 1 7 2 . + (−1)i+1 ai1 |Ai1 | + . .1. . .

los determinantes de tama˜o 3 × 3 se calculan del mismo modo n que en (b).2.3. −6. Propiedades de los determinantes 1. Verificar que respectivamente. 3 por lo cual |A| = 2 (6) − 3 (−6) − 2 (3) = 24 3. Linealidad (respecto a una fila) . 0. PROPIEDADES DE LOS DETERMINANTES 97  3 −4 −3   (b) Calculemos el determinante de la matriz A =  −1 2 7  −2 4 0 |A| = (−1)1+1 a11 |A11 | + (−1)2+1 a21 |A21 | + (−1)3+1 a31 |A31 | = = 3 2 7 4 0 − (−1) −4 −3 4 0 + (−2) −4 −3 2 7  =  = 3 (−28) + (−12) + (−2) (−22) = −52   (c) Calculemos el determinante de la matriz A =   |A| = (−1)1+1 a11 |A11 | + (−1)2+1 a21 |A21 | + 2 −4 −1 2 1 1 1 −2 0 0  2 0 1 1 2 2 −4 −1    −3 1 1 1  2 −2 0 0 + (−1)3+1 a31 |A31 | + (−1)4+1 a41 |A41 | = 0 1 1 −2 1 1 1 + −2 0 0 0 1 1 − 2 2 −4 −1 1 1 1 0 1 1 + (−3) 2 −4 −1 −2 0 0 Ahora bien.2. los determinantes tres por tres valen 6.

. . . . . an1 an2 a11 . . . bi2 · · · . . . ai2 . . ann a11 . . a12 · · · . ··· a1n . . + (−1)n+1 an1 |Cn1 | . . . . . a12 . . . ..98 3. . . + def (3. .18) + (−1)i+1 (ai1 + bi1 ) |Ci1 | + . .. Por inducci´n completa o Para n = 2. a12 . . ann = |A| + |B| an1 an2 · · · an1 an2 · · · ´ Demostracion. . ain + bin . . . . . . ··· . . ··· a1n . . . . = ai1 . . ann = |C| = ··· ai1 + bi1 ai2 + bi2 · · · .. DETERMINANTES a) Aditividad (respecto a una fila) a11 . . . Hip´tesis inductiva: La propiedad es v´lida para matrices de o a orden menor que n Tesis inductiva: La propiedad es v´lida para matrices de orden a n. ··· ··· ··· . . . . . a1n . . ain . bin . + bi1 . . . Por un lado |C| = a12 a11 a21 + b21 a22 + b22 y por otro |A|+|B| = a11 a12 a11 a12 + a21 a22 b21 b22 = (a11 a22 − a12 a21 )+(a11 b22 − a12 b21 ) = a11 a22 + a11 b22 − a12 a21 − a12 b21 Con lo cual |C| = |A| + |B| . . En efecto |C| = (−1)1+1 a11 |C11 | + .

. . ann a12 . por la hip´tesis inductiva se tiene que o a12 . . + (−1)n+1 an1 [|An1 | + |Bn1 |] + (−1)1+1 a11 |B11 | + . . . + (−1)n+1 an1 |An1 | + .. . . + (−1)i+1 (ai1 + bi1 ) |Ci1 | + . . luego si sustituimos en (3. . . . + (−1)i+1 bi1 |Ci1 | + . . . . . ann ··· = + = |Ak1 | + |Bk1 | . bin .18) se tiene que |C| = (−1)1+1 a11 [|A11 | + |B11 |] + . . . . . . ak−12 ak+12 . . ak−12 ak+12 . .. . ··· a1n . . .. ak−12 ak+12 . an2 a12 .. . . . ··· a1n . . ak−1n ak+1n .3. + (−1)n+1 an1 |Bn1 | .. . . . . . . . . . como la matriz Ck1 es de orden n − 1. + (−1)i+1 ai1 |Ci1 | + . ··· ··· ··· ··· . ain . ··· . . a1n . ak−1n ak+1n . . . an2 ··· ··· ··· ··· . ain + bin .2. ··· . ai2 . . . ak−1n ak+1n . . . . . . . . . . . . bi2 . PROPIEDADES DE LOS DETERMINANTES 99 Observemos que si k = i. . .. an2 ··· ··· ··· ··· . . = (−1)1+1 a11 |A11 | + . ann |Ck1 | = = ai2 + bi2 · · · .

. . . . . . + (−1)i+1 ai1 |Ai1 | + . . . . . . . ··· . + (−1)i+1 bi1 |Bi1 | + . . + (−1)n+1 an1 |Bn1 | = |A| + |B| ´ OBSERVACION 3. . . . . . ann = |Ai1 | = |Bi1 | resulta que |C| = (−1)1+1 a11 |A11 | + . . No es cierto que |A + B| = |A| + |B| |A| = 1 3 4 2 = −10. a1n . .. |B| = 3 3 4 4 1 0 0 2 = 2 pero |A + B| = = 0 = −7 = |A| + |B| . ain . . .2. ··· a1n . ··· ··· ··· .100 3. . αain .. . . . . . a1n . . . . . + (−1)n+1 an1 |An1 | + + (−1)1+1 a11 |B11 | + . ann = α |A| αai1 αai2 . DETERMINANTES a12 . ai−1n ai+1n . ai2 · · · . . . an1 an2 · · · an1 an2 · · · . . . an2 ··· ··· ··· ··· . a12 · · · . b) Homogeneidad (respecto a una fila) Si B es una matriz que se obtiene de A multiplicando una de sus filas por un n´mero α entonces u a11 . .. ann =α a11 . . . . |B| = a12 . ai1 . . . . Pero como |Ci1 | = ai−12 ai+12 . .

2. . ... an2 ··· ··· ··· ··· . ai2 . . αai2 . .3. . . . . . ak−12 ak+12 =α . ak−1n ak+1n . . . ··· a1n . ··· . . . Por inducci´n completa o Para n = 2. ann |Bk1 | = = α |Ak1 | . . . ··· a1n . ak−1n ak+1n . . + (−1)n+1 an1 |Bn1 | Observemos que si k = i. . an2 ··· ··· ··· ··· . . . . . . . . . αain . .. como la matriz Ck1 es de orden n − 1. ··· .. . Por un lado |B| = a11 a12 αa21 αa22 = a11 αa22 − a12 αa21 = a11 a12 a21 a22 = α |A| = α (a11 a22 − a12 a21 ) = α Hip´tesis inductiva: La propiedad es v´lida para matrices de o a orden menor que n Tesis inductiva: La propiedad es v´lida para matrices de orden a n. PROPIEDADES DE LOS DETERMINANTES 101 ´ Demostracion. ain . ak−12 ak+12 . .19) |B| = (−1)1+1 a11 |B11 | + . . ann a12 . . En efecto (3. . por la hip´tesis inductiva se tiene que o a12 . + def + (−1)i+1 αai1 |Bi1 | + . .

. . a12 αa22 . . . . . . En efecto αa11 αa21 . . .. ··· ··· . a12 a22 . αann a1n a2n . .. αa12 αa22 . α . y que |Bi1 | = ai−12 ai+12 .. Se deduce de la propiedad anterior que |αA| = αn |A| . . . . = αan1 αan2 · · · an1 an2 · · · . a1n αa2n . . αann a1n a2n . ai−1n ai+1n . . . . . . . .19) se tiene que |B| = (−1)1+1 a11 α |A11 | + . . + (−1)n+1 an1 α |An1 | + (−1)n+1 an1 |An1 | = α |A| = α (−1)1+1 a11 |A11 | + . ··· ··· . .102 3. . . . ann = |Ai1 | luego si sustituimos en (3. . . ann = αn |A| |αA| = = αan1 αan2 · · · = αα αan1 αan2 · · · a11 a21 = αα . . ··· ··· .3. + (−1)i+1 ai1 |Ai1 | + . + + (−1)i+1 αai1 |Ai1 | + . . . . . . a11 a21 . . αann a11 αa21 =α . . DETERMINANTES a12 . . . . + COROLARIO 3. . . . . ... . αa1n αa2n . an2 ··· ··· ··· ··· . a12 a22 . . ··· ··· . ··· a1n . . ´ Demostracion.

ann = − |A| ··· . an1 an2 · · · an1 an2 · · · ´ Demostracion. .  . ai2 . aj2 · · · . .. .  . .  ain    ai+1n   . . . ajn .  .  a  i+11 ai+12 B=  ai1 ai2  . .  . ann =− a11 . .. a1n . . ai1 . . ··· ··· ··· ··· ··· . . . . . . Por un lado |B| = a11 a12 a11 a12 = (a11 a22 − a12 a21 ) .  . . . . . . . ··· . ···  a1n .  . . a21 a22 As´ ı |B| = − |A| . ai1 . . . . ain . Por inducci´n completa o a21 a22 = a12 a21 − a11 a22 . . . Intercambio de filas Si B es la matriz que se obtiene de A intercambiando dos de sus filas entonces a11 . . . ai2 . . . . .. ··· .  a ai2  i1 A=  ai+11 ai+12  .  . .  . . |B| = aj1 . . . a1n . ajn .3.  . an2 an1  ··· ··· ··· ··· . Para n = 2.  . an2 an1  ··· ··· ··· ··· .  .  . ann a12 a11  . . a12 .  . a12 · · · .  . aj1 . . ann y . .. . . PROPIEDADES DE LOS DETERMINANTES 103 2. . . ain . .  . . ···  a1n . aj2 .2. Hip´tesis inductiva: La propiedad es v´lida para matrices de orden o a menor que n a Tesis inductiva: La propiedad es v´lida para matrices de orden n Primer caso: La matriz B se ha obtenido de A intercambiando las filas consecutivas i e i + 1 y por otro |A| = a11 a12  . .  . . .  ai+1n    ain   . .

Sustituimos en (3.  . se tiene que Bk1 es una matriz de orden n−1 con dos filas intercambiadas respecto de A. . por lo cual. |Bi+11 | = |Ai1 | y si k = i y k = i+1.  . .  .  . .104 3. .  a  i+11 ai+12 Pero siendo B =   ai1 ai2  . + (−1)n+1 an1 |Bn1 | a11 a12  . se tiene que o (3. . . . ann .  ←− Fila i ai+1n   ain  ←− Fila i + 1  . an1 an2  ··· ··· ··· ··· . . DETERMINANTES Por la definici´n. .  . + (−1)i+1 ai+11 |Ai+11 | + (−1)i+2 ai1 |Ai1 | + . .  .  . . .  . . . .  . a1n . por lo cual |Bi1 | = |Ai+11 | . por la hip´tesis o inductiva |Bk1 | = − |Ak1 | . . ···  . .20) |B| = (−1)1+1 a11 |B11 | + . . + (−1)n+1 an1 [− |An1 |] Pero (−1)i+1 ai+11 |Ai+11 | = (−1)i+1 (−1)2 ai+11 |Ai+11 | = = (−1)i+1 (−1) ai1 |Ai1 | = (−1)i+1 ai1 [− |Ai1 |] = (−1)i+1 (−1) ai+11 (−1) |Ai+11 | = (−1)i+2 ai+11 [− |Ai+11 |] = .20) |B| = (−1)1+1 a11 [− |A11 |] + . + (−1)i+1 ai+11 |Bi1 | + (−1)i+2 ai1 |Bi+11 | . . .. . . . . se tiene que Bi1 = Ai+11 y Bi+11 = Ai1 .

a11 a12  .  an1 an2  ··· ··· ··· ··· ··· ··· . . + (−1)n+1 an1 [− |An1 |] + (−1)i+1 ai1 |Ai1 | + . En primer lugar realizamos k cambios consecutivos de la fila i de A hasta colocarla en la fila j = i + k.  .  .  .   ←−   ←−   ←−   . . fila i de A fila i + 1 de A fila i + 2 de A fila i + k de A cambio de la fila i por la i + 1 de A −→ . ann  . La matriz B se puede obtener de A realizando varios cambios de filas consecutivas. . ain ai+1n ai+2n . + (−1)n+1 an1 − |An1 |] = − |A| Segundo caso La matriz B se ha obtenido de A intercambiando las filas i y j = k+1. + (−1)i+2 ai+11 |Ai+11 | + + (−1)i+1 ai1 [− |Ai1 |] + . . . . . . .  . . .. .  .   ←−   . . . . .  . . PROPIEDADES DE LOS DETERMINANTES 105 con lo cual |B| = (−1)1+1 a11 [− |A11 |] + . .    ak+11 ak+12  .   ai2  ai1   ai+11 ai+12   A =  ai+21 ai+22  .2. . . . . . . ak+1n . .3. ··· a1n . . . .  . . . . .  . + (−1)i+2 ai+11 [− |Ai+11 |] + = −[(−1)1+1 a11 |A11 | + .  . .

. .  .   aj1 aj2  .  ajn  ←−  .  . .  ajn  ←−  .    ai+11 ai+12   ai1 ai2   a A1 =  i+21 ai+22  .  . .  . .  . . an1 an2  ··· ··· ··· ··· ··· ··· ··· . .  . a1n . an1 an2  ··· ··· ··· ··· ··· ··· ··· . . . ···  .  ai+1n  ←−  ain  ←−  ai+2n  ←−  . .  . . ann . . . .  . .  .106 3. .  .  . . fila i de A1 fila i + 1 de A1 fila i + 2 de A1 fila i + k de A1 cambio de la fila i + 1 por la i + 2 de A1 −→ a11 a12  . ···  . . .  . . .  ..  . .   ai+11 ai+12   ai+21 ai+22   ai2 A2 =  ai1  . .  .   aj1 aj2  .. . . . .  . DETERMINANTES a11 a12  . .  .  . . . .  . .  . . . . fila i de A2 fila i + 1 de A2 fila i + 2 de A2 fila i + k de A2 −→ · · · −→ · · · −→ . .  ai+1n  ←−  ai+2n  ←−  ain  ←−  . a1n .  .  .  .  . . . ann .  .  . . . . .  . .

 . .  . . fila i de Ak fila i + 1 de Ak fila i + k − 1 de Ak fila i + k de Ak Como los k cambios de filas son consecutivos.. .  a ai2 i1    ai+k1 ai+k2  . . ···  . . . .  . . . se tiene que |A1 | = − |A| |A2 | = − |A1 | . . .3.  . ai+kn  ←−   ain  ←−  . . . .   ai+11 ai+12   ai+21 ai+22   .  . . .  . . . .  ai+1n  ←−  ai+2n  ←−  .  . .  . . .2.  . . . . .  .  .  . .  .  .  . .. . . Ak =  . .  ai+1n  ←−  ai+2n  ←−  . an1 an2  ··· ··· ··· ··· ··· ··· ··· .  . ann . . . . . . . .   a  i+k1 ai+k2   ai1 ai2  . a1n  .  . ann .  . . . ···  . .  . .  . PROPIEDADES DE LOS DETERMINANTES 107 Ak−1 a11 a12  . fila i de Ak−1 fila i + 1 de Ak−1 fila i + k − 1 de Ak−1 fila i + k de Ak−1 cambio de la fila i + k − 1 por la i + k de Ak−1 −→ a11 a12  .  . .    ai+11 ai+12   ai+21 ai+22   .  . |Ak | = − |Ak−1 | . . ain  ←−   ai+kn  ←−  . .  . a1n . an1 an2  ··· ··· ··· ··· ··· ··· ··· . por la primer parte. . . = .

. . . . . 1 . . . . . a12 . . . a11 . . −1 · · · . . . . ··· ··· ··· . . . ann − + = a11 . . . . . 1 ··· . . . . . . 1 . . . . a11 . ann a1n . 1−1 . .108 3. a12 · · · . a11 . . . . a12 . DETERMINANTES Con lo cual |Ak | = (−1)k |A| . . . . . . 1 . En efecto a11 . . . . . ··· ··· ··· . a1n . ··· . Determinantes nulos a) Si A tiene una fila de ceros entonces |A| = 0 ´ Demostracion. . 0 . −1 . . .. −1 . 1 . obteni´ndose la matriz B y se cumple. . . .. . . 3. ··· a1n . aplicando e ´ la primer parte |B| = (−1)k−1 |Ak | De las dos ultimas igualdades se 2k−1 deduce |B| = (−1) |A| = − |A| . ··· . . . a1n . . . = 1 . a12 . . ... ··· ··· ··· . .. . . |A| = 0 . . . . . . . . . . a12 · · · . (repetimos el procedimiento ”hacia arriba”) realizamos k − 1 cambios consecutivos de la fila i + k − 1 de AK hasta colocarla en la fila i. ann a1n . . . = 1 . an2 · · · an1 a11 . . . ann = an1 an2 · · · an1 an2 · · · =0 an1 an2 · · · an1 an2 · · · b) Si A tiene dos filas iguales entonces |A| = 0 . 1 . . a12 . . . . ann an1 an2 · · · ··· 1 − 1 1 − 1 ··· . . En segundo lugar. . 0 . .. 1 . ann a1n . .

an1 an2 · · · ··· . . . ain . . . .. . ai2 . a12 . ann =0 αai1 αai2 . ain . . ··· ··· ··· ··· ··· . . para simplificar e la notaci´n. an1 an2 · · · d) Si A tiene una fila combinaci´n lineal de las otras filas entonces o |A| = 0 ´ Demostracion. . . . ai1 . . |A| = ai1 . . a12 . . . En efecto a11 . . . . . . . . . . En efecto. . . ai2 . . . . ai2 · · · . ai1 . a12 . ain . ain . . con lo cual a11 . . . . . ai2 .2. . supongamos que la ultima fila es combinaci´n lineal o ´ o . ··· . . . sabemos que el determinante cambia de signo. ann =α a11 . . . .. . ··· ··· ··· ··· ··· . . . ai1 . a1n . . a1n . . Sin p´rdida de generalidad. . . . ann =− a11 . ain . PROPIEDADES DE LOS DETERMINANTES 109 ´ Demostracion. .. ai2 .. . a1n . si se intercambian dos filas. . . |A| = ai1 . . ··· ··· ··· ··· ··· . . a12 · · · . .3. ain . . . . ai2 . . ··· . . . . . ai2 . . . . ai1 . . . . ain . . . . a1n . αain . . . ai1 . ann = − |A| an1 an2 · · · an1 an2 · · · As´ 2 |A| = 0 ⇒ |A| = 0 ı c) Si A tiene dos filas proporcionales entonces |A| = 0 ´ Demostracion. .

an−1n . . . . DETERMINANTES de las anteriores.. αi ain a1n . . . . . ... ain =0 = = i=1 an−11 an−12 · · · . . . . . . . an−12 . . ··· . |A| = an−11 . . . . . . ··· . i=n−1 = i=1 αi an−11 an−12 · · · . a1n . . . . . . an−1n . .. Aplicando la propiedad de linealidadad a11 . a1n . a12 . Combinaci´n lineal de filas o a) Si B es una matriz que se obtiene de A sumado a una fila de A un m´ltiplo de otra fila de A entonces |B| = |A| u . ai1 ai2 ··· (pues los determinantes tienen dos filas iguales) 4. . . . i=n−1 a12 . . ··· . .. . . . . . an−1n . . . .. αi ai1 αi ai2 · · · a11 . . . . i=n−1 = αi ai1 i=1 αi ai2 · · · αi ain i=1 i=n−1 a11 . .110 3. . . i=n−1 i=1 ··· . . a12 .

2. . . ann = |A| = = aj1 + αai1 aj2 + αai2 . ain . ··· . . a12 . . . . ··· . . a1n . |B| = ai1 . . . . = ai1 . ain . . ai2 . . . . .. . ai1 .. ann a1n . . . ··· . . . . . . ··· . ai1 . . a1n . . ai2 . . aj2 . En efecto a11 . ajn . ··· . an1 an2 · · · a11 . . . . . a11 . an1 an2 a1n . . ann ··· ··· ··· ··· ··· . . a12 · · · . . .3. . ··· . an1 an2 · · · αai1 αai2 . . . . . . . .. = ai1 . . . ain . . ai2 · · · . .entonces o |B| = β |A| . . . . . . PROPIEDADES DE LOS DETERMINANTES 111 ´ Demostracion. . ann + a11 . . ain . a12 · · · . ai2 · · · . . . . ··· a12 . . . . . ain . an1 an2 · · · b) Si B es una matriz que se obtiene de A cambiando la fila Aj por la combinaci´n lineal βAj + αAi con β = 0 (i = j). ai2 . . . . aj1 .. . ··· ··· ··· ··· ··· . . ajn + αain . . . αain . . . . . . . .

an1 an2 a11 . DETERMINANTES ´ Demostracion. . ai2 . ··· ··· ··· ··· ··· . . . ai1 . ai2 . . a12 . ··· ··· ··· ··· ··· . βajn . . = ai1 . . . . ain . ain . . . αain . . . . ann = βaj1 + αai1 βaj2 + αai2 . . . . . . . a12 . . ai2 . . En efecto a11 . . ··· a1n . aj2 . . . . ai1 . ··· ··· ··· ··· ··· . . . . . .. . . a12 . . . . ain . ai2 . ann = βaj1 βaj2 .. . . . . . . a1n . . . . . . . . . a1n . .. . . ··· ··· ··· ··· ··· . . . . . aj1 . . . ain . . .. . ann a1n . . ajn .112 3. = β |A| an1 an2 · · · . . . . . . an1 an2 · · · a11 . . =β ai1 . . . . . . . . an1 an2 · · · αai1 αai2 . ann + a11 . . . βajn + αain . . . a12 .

ann 0 1 5 3 −6 9 2 6 1 (D)      (ceros por debajo   EJEMPLO 3.  .2.3. 0 0 · · · ann de la diagonal principal). . PROPIEDADES DE LOS DETERMINANTES 113 a11 a12 · · · a1n   0 a22 · · · a2n Ejercicio Probar que si A =  . . .  . entonces |A| = a11 a22 . . . . . + (−1)i+1 ai1 |Ai1 | + . . .3. 1 −2 3 −3 0 1 5 0 10 −5 (A) = − 3 −6 9 0 1 5 2 6 1 (B) 1 −2 3 = −3 0 1 5 2 6 1 (C) = = 1 −2 3 1 −2 3 (E) = − (3) (5) 0 1 − (3) (5) 0 1 5 5 0 0 −11 0 2 −1 − (3) (5) (−11) = 165 (A) Se intercambian las filas 1 y 2 (B) La fila 1 es m´ltiplo de 3 u (C) A la fila 3 se le rest´ 2 veces la fila 1 o (D) La fila 3 es m´ltiplo de 5 u (E) A la fila 3 se le rest´ 2 veces la fila 2 o = − (3) (5) 1 5 0 −11 = NOTAS: 1) Desarrollo por cualquier fila o columna El determinante se ha definido usando los elementos de la primer columna de la matriz A con sus respectivas matrices adjuntas |A| = (−1)1+1 a11 |A11 | + . . . . .. . + (−1)n+1 an1 |An1 | (desarrollo por la primera columna) def .

1.4.La matriz E3 (ver 2.114 3. Matrices elementales y determinantes ´ PROPOSICION 3.17) que est´ asociada a la operaci´n elemental e3 a o “sumarle a fila i un m´ltiplo de la fila j” tiene determinante u |E3 | = |I| = 1 Es engorroso y no lo haremos aqu´ pero el lector puede consultar por ejemplo (Teoı rema 3 y 5 pag 87 del texto Algebra y geometr´ de E. . + (−1)i+n ain |Ain | (desarrollo por la i − ´sima fila) e |A| = (−1)i+1 a1i |A1i | + (−1)i+2 a2i |A2i | + . DETERMINANTES Pero se puede probar 1 que dicha definici´n coincide con cualquier desarrollo o por cualquier columna o fila de A: |A| = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + .16) que est´ asociada a la operaci´n elemental e2 ”intercambiar la fila i por la fila j” tiene determinante |E2 | = − |I| = −1 pues E2 se obtiene de la matriz identidad I aplicando dicha propiedad 3. es decir que las propiedades valen para las columnas 3. . . Hernandez) ıa 1 def def . + (−1)i+n ani |Ani | (desarrollo por la i − ´sima columna) e 2) Propiedades ”por columnas” Tambi´n se puede probar que e |A| = At con lo cual en todas las propiedades anteriores se puede cambiar la palabra ”fila” por ”columna”.3.15) que est´ asociada a la operaci´n a o elemental e1 ”multiplicar la fila i por la constante α = 0” tiene determiante |E1 | = α |I| = α = 0 pues E1 se obtiene de la matriz identidad I aplicando dicha propiedad a o 2.La matriz E1 (ver 2. Toda matriz elemental tiene determinante no nulo ´ Demostracion.La matriz E2 (ver 2. .

23 se cumple que E1 A = B.25) |B| = − |A| |E2 A| = |B| |E1 A| = |E1 | |A| y por la Proposici´n 2.23 se cumple que E2 A = B.15) Por la Proposici´n 3.23) Si B es la matriz que se obtiene al aplicar la operaci´n e2 . ´ PROPOSICION 3.24) y (3.24) |E2 | = − |I| = −1 y por la Proposici´n 2.Sea E1 la matriz que est´ asociada a la operaci´n elea o mental ”multiplicar la fila i por la constante α = 0” (ver 2.16) Por la Proposici´n 3. por las proo piedades de determinantes (3.4 o (3.26) al sustituir (3. Si A es una matriz n × n y E una matriz elemental n × n se cumple que |EA| = |E| |A| ´ Demostracion.Sea E2 la matriz que est´ asociada a la operaci´n elemental e2 ”ina o tercambiar la fila i por la fila j” (ver 2.3. MATRICES ELEMENTALES Y DETERMINANTES 115 pues E3 se obtiene de la matriz identidad I aplicando dicha propiedad.23) al sustituir (3.21) y (3.3.25) en (3. por las proo piedades de determinantes (3. 1.5. con lo cual o (3.22) |B| = α |A| |E1 A| = |B| |E1 A| = |E1 | |A| 2.22) en (3. con lo cual o (3.26) .4 o (3.21) |E1 | = α |I| = α Si B es la matriz que se obtiene al aplicar la operaci´n e1 .

( es decir que aplicamos o una sucesi´n de operaciones elementales) obtenemos la matriz B (forma o escalerizada de A) operaci´n e1 o −→ operaci´n ek o −→ y por la Proposici´n 2.28) |B| = |A| |E3 A| = |B| |E1 A| = |E1 | |A| pues E3 se obtiene de la matriz identidad I aplicando dicha propiedad. . DETERMINANTES 3.27) |E3 | = |I| = 1 Si B es la matriz que se obtiene al aplicar la operaci´n e3 .29) al sustituir (3.23 se cumple que E3 A = B. con lo cual o (3. por las proo piedades de determinantes (3. Como A no es invertible.17) u Por la Proposici´n 3. se tiene que rango(A) < n Al aplicar el proceso de escalerizaci´n de Gauss.116 3.6. . Si A no es invertible la forma escalerizada de A tiene por lo menos una fila de ceros ´ Demostracion. . 3.4. E2 E1 A = B .27) y (3. Matrices invertibles y determinantes Ya vimos que una matriz A n × n es invertible si y solo si rango(A) = n Veamos otra condici´n equivalente de invertibilidad o LEMA 3.29) A Es decir que ······ B Ek .4 o (3.Sea E3 la matriz que est´ asociada a la operaci´n elemental e3 ”sua o marle a fila i un m´ltiplo de la fila j” (ver 2.28) en (3.

|Ek | por la proposici´n 3.8 (Binet-Cauchy). concluimos que |A| = 0. Sea A una matriz cuadrada de orden n × n. por la proposici´n 3.27. E2 E1 A = B Pero como |Ei | = 0 y |B| = 0 (pues por el Lema 3. . Ek Luego. que A no es invertible. es decir que B tiene por lo menos una fila de ceros. . Si A y B son matrices n × n se cumple que |AB| = |A| |B| . Ek B Como rango(A) = “cantidad de escalones no nulos de B” Concluimos que “cantidad de escalones no nulos de B”< n. (⇒) Si A es invertible.7. DETERMINANTE DE UN PRODUCTO DE MATRICES 117 donde Ei es la matriz asociada a la operaci´n elemental ei y por lo tanto o −1 −1 −1 A = E1 E2 . . existe una sucesi´n de matrices elementales tales que o Ek . Si B es la forma escalerizada de A. . .3. .5. . . . A puede puede factorizarse como un producto de matrices elementales A = E1 E2 .6 B tiene por lo menos una fila de ceros).5 o |A| = |E1 E2 . . lo cual contradice nuestra hip´tesis o 3. . TEOREMA 3.4 |Ei | = 0. con lo cual |A| = 0 o (⇐) Supongamos.5. Ek | = |E1 | |E2 | . por absurdo. Determinante de un producto de matrices TEOREMA 3. A es invertible ⇔ |A| = 0 ´ Demostracion. por el corolario 2.

. . Ek A′ Luego −1 −1 −1 |AB| = E1 E2 . Ek con Ei matriz elemental |AB| = |(E1 E2 . A′ tiene una fila de ceros.118 3. . . existe una sucesi´n de o matrices elementales tales que Ek . . Ek A′ B |AB| = E1 Pero por el Lema 3. .27 A = E1 E2 . . . Ek ) B| y aplicando la proposici´n 3. . |Ek | |B| = |E1 E2 . Ek | |B| = |A| |B| .5 o −1 −1 −1 E2 . y por lo tanto A′ B tambi´n (por la definici´n del producto de matrices). . por el corolario 2.6. . Primer caso A no es invertible Si A no es invertible ⇒ |A| = 0 ⇒ |A| |B| = 0 Por otro lado. si A′ es la forma escalerizada de A. .5 o |AB| = |E1 | |E2 | . . DETERMINANTES ´ Demostracion. con lo cual |A′ B| = e o 0 ⇒ |AB| = 0 Hemos probado que |AB| = |A| |B| = 0 Segundo caso A es invertible Si A es invertible. . . . E2 E1 A = A′ es decir que −1 −1 −1 A = E1 E2 . . . Ek A′ B y aplicando la proposici´n 3.

. .30) |A| = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + . Los elementos de la diagonal de la matriz A [cof (A)]t son todos iguales a |A|. + (−1)i+n ain |Ain | El n´mero cij = (−1)i+j |Aij | se denomina cofactor del elemento aij u de la matriz A. .  . . . . CALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 119 3. Si [cof (A)]t es la matriz transpuesta de la matriz de cofactores de A. . 0 0 . + + (−1)i+j aij |Aij | + . . . .. cn2  t  . . c12 c22 . cn1 cn2 . . Si A [cof (A)]t = ((dii )) queremos probar que: LEMA 3. .  . . . . . .30) de la siguiente manera (3. c1n . .  . . cn1    c12 c22 .  . + aij cij + . . . . . .9.´ 3. C´lculo de la matriz inversa por determinantes a El desarrollo del determinante de la matriz A = ((aij )) por su i-esima fila es (3. .31) |A| = ai1 ci1 + ai2 ci2 + . |A| 1. esto es dii = |A| . 0  t se cumple que A [cof (A)] =  . cnn   |A| 0 . c2n .  . . . c1n c2n . . 0    0 |A| .. . . . esto es   c11 c21 . . . . . .. . . .   . . [cof (A)] =  . .6. . . . + ain cin   A la matriz cof (A) =    def  c11 c21 .6. . . . .  . Por lo tanto podemos reescribir el desarrollo (3. cnn       se le llama matriz de cofactores de A ´ Demostracion.

. ↓ .. . . .. . . ... . .   . .. . ci2 . pero por (3... . ..  . ...    . .  . . . . .... . . . .  .. .  .. . .. . . .. . Los elementos que no son de la diagonal de la matriz A [cof (A)]t son todos nulos. Por lo tanto dii = ai1 ci1 + ai2 ci2 + . . ... ...... .. .. ↓ .  .. . . .. . . . .. cin .. ..  . .. + ain cin ... .. cj2 . . Probemos 2. .. . . . . . .  . .. . . . . + aij cij + .. .  . .. .  . . . . .  . .. . . .  . ..  . . . . .   . . . .  . .. ... . + ain cjn . . . . . . . .. . . .  . con lo cual dii = |A| . .    .. . .31) |A| = ai1 ci1 + ai2 ci2 + . . . . .. ... ... . esto es dij = 0 (i = j) Probemos 1. . . . . . . . .  . . . . . . . . . . . . .  . . . . . .   ai1 ai2   . cjn . .. .120 3. . . → → → dij . .   ai1 ai2   . . . + aij cij + . . ...  . . .. . . . Calculamos el elemento dij de la matriz A [cof (A)]t        . .. . .  .    .. .. ..  . Por otro lado consideremos la matriz B que se obtiene de A cambiando la .  . .. ↓ → dii . . . ↓ . ... .   . ... . . . . . . . . .. .. . . . ..  ain   →  . .. . Para ello calculamos el elemento dii de la matriz A [cof (A)]t   .  . . . . .  . . . . . ..  . . . . . + ain cin .                    Por lo tanto dij = ai1 cj1 + ai2 cj2 + . . . cj1 .. .  . DETERMINANTES 2. . . . .  . ...  .. .. .  . + aik cjk + . . . . ... . . . .  . ain . .. . . ci1 . ... . .

.  .  a  i1  .  . .6. + aik cjk + .  . .  a12 . .  . ··· ann an1 an2 · · · Si calculamos el determinante de B desarrollando por la j-esima fila se tiene que |B| = (−1)j+1 bj1 |Bj1 | + (−1)j+2 bj2 |Bj2 | + . Esto prueba que |B| = dij . se prueba lo deseado. por lo cual |B| = ai1 cj1 + ai2 cj2 + . ai2 . + (−1)j+n ain |Ajn | pero cjk = (−1)j+k |Ajk |. . Por el lema anterior . Si A es invertible. . + (−1)j+n bjn |Bjn | pero como bjk = aik y Bjk = Ajk . ··· ··· ··· ··· ··· . .´ 3.  . .   ←− fila j ain   . . . . resulta que |B| = (−1)j+1 ai1 |Aj1 | + (−1)j+2 ai2 |Aj2 | + .10. .  ··· . CALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 121 fila j por la fila i: a11  . . + + (−1)j+k aik |Ajk | + . ´ PROPOSICION 3. . + ain cjn .  .   ai1   . . . .  . . ai2 .  ··· ain  ←− fila i  . Como |B| = 0 (pues tiene dos filas iguales). . .. B= . se tiene que A−1 = 1 [cof (A)]t |A| ´ Demostracion.  a1n ··· . . . + + (−1)j+k bjk |Bjk | + .  .  ..

1 1 |A| A [cof (A)]t = I . = 6 ⇒ c33 = 6  2 16 −10   Por lo tanto cof (A) =  1 −9 −5  con lo cual −8 4 6 . . 0 0 . ... . 0  . 0 . . =⇒ c23 = −5. . . ... = −4 ⇒ c32 = 4. .. 0 0 .122 3. 0  0 1 . . |A12 | = |A32 | = |A23 | = 4 2 5 0 1 −1 4 2 = −10 ⇒ c13 = −10.  . y trabajando de la misma manera se obtienen −1 2 −1 2 |A21 | = = −1 ⇒ c21 = 1. . |A|   A [cof (A)] =    t  |A| 0 . .   1 −1 2   La matriz A =  4 2 4  es invertible pues |A| = −34 . = −9 ⇒ c22 = −9..  = |A| I  . 0 0 |A| .  |A22 | = |A13 | = |A33 | = 1 2 5 1 = −8 ⇒ c31 = −8. . . . con lo cual esto es 1 A [cof (A)]t I. DETERMINANTES 1 lo cual prueba que A−1 = |A| [cof (A)]t . |A|      = |A|         1 0 . . . calculemos 5 0 1 los cofactores  A de  × × × 2 4 2 4   ⇒ |A11 | = = 2 ⇒ c11 = 2  × 2 4  ⇒ A11 = 0 1 0 1 × 0 1 Siendo A invertible se tiene que |A| = 0. . . . .. . . |A31 | = 0 1 2 4 4 4 5 1 1 2 4 4 1 −1 5 0 = −16 ⇒ c12 = 16. . . .

.   1      b2   . + cn bn    . . . b1 . . . . + cnj bn ) |A| j = 1. + cn2 bn 1 (c1j b1 + c2j b2 + . TEOREMA 3. n              ⇔     x1 . .    1     =  c b + c2j b2 + .  . .. . . + cnj bn    |A|  j 1 . . . .3.   |A|  1j . .7. . por lo tanto Ax = b ⇔ x = A−1 b lo que prueba la existencia y la unicidad de la soluci´n o 1 x = A−1 b ⇔ x = [cof (A)]t b ⇔ |A|    c11 c21 . .  . .  bn c1n c2n . existe A−1 . . 2 .   . . .    cn b1 + c2n b2 + . .  . . . cnj    =  c . . . xn Por lo tanto (3. . 2 . . . ⇔ c2j . . .   . . Como |A| = 0. .32) xj = .    .    . Regla de Cramer  1 − 34 9 34 5 34 4 17 2 − 17 3 − 17   . . . cnn    c11 b1 + c21 b2 + . cn1     .11 (Cramer 1).  . xj .    . . Si |A| = 0 entonces el sistema Ax = b es compatible y determinado y su soluci´n (´nica) es o u xj = |Aj | |A| j = 1. . . REGLA DE CRAMER 123 A−1   1 2 1 −8 − 17 1 1    8 = [cof (A)]t =  16 −9 4  =  − 17 |A| −34 5 −10 −5 6 17 3. .  . . .7. xj . . . xn x1 . n donde Aj es la matriz que se obtiene de A sustituyendo la columna j por b ´ Demostracion. .

an1 · · · bn ··· ··· ··· ··· a1n ain . . + cnj bn Al sustituir en (3.32) se obtiene j = 1. . |A| −3 3 1 7 −1 2 6 1 1 −1 3 −3 1 2 7 2 1 6 1 −1 −1 −3 xj = |Aj | |A| Por otro lado si consideramos la matriz  a11 · · · b1   ai1 · · · b2 Aj =  . y desarrollamos el determinante de Aj por la columna j se tiene que |Aj | = (−1)j+1 b1 |A1j | + (−1)j+2 b2 |A2j | + . .124 3.  . . n. . . .   x + 2y − z = 7  EJEMPLO 3. . z= = 3 |A| =0 TEOREMA 3. Vamos a resolver el sistema 2x + y + z = 6 usando   x − y + 3z = −1     1 2 −1 7     la regla de Cramer. . Si |A| = 0 y existe j0 tal que |Aj0 | = 0 entonces el sistema Ax = b es incompatible . 2 . . . + (−1)j+n bj |Anj | = c1j b1 + c2j b2 + . En este caso A =  2 1 1 yb= 6  1 −1 3 −1 Como |A| = −3 = 0 el sistema es compatible y determinado y sus soluciones son 7 2 −1 6 1 1 −1 −1 3 |A1 | 5 x= = = . . . .12 (Cramer 2).4. . ann       y= |A2 | = |A| = 8 |A3 | . DETERMINANTES que se obtiene de A sustituyendo la columna j por b.  .

Para el sistema de ecuaciones x + y + z = 1 se tiene   x+y+z =0 que  1 1 1   A= 1 1 1  1 1 1   1   b= 1  0  Por lo tanto |A| = |A1 | = |A2 | = |A3 | = 0. REGLA DE CRAMER 125 EJEMPLO 3.6. con lo cual n ≤ rango A . sin embargo es evidente que el sistema es incompatible. Como |A| = 0 se tiene que rango (A) < n. como las columnas de Aj0 son tambi´n columnas de A se tiene que e rango A ≥ rango (Aj0 ) Adem´s rango (Aj0 ) = n.   x+y+z =1  EJEMPLO 3. Un error frecuente es decir que: Si |A| = 0 y |Aj | = 0 entonces el sistema Ax = b es indeterminado. por ser |Aj0 | = 0. Veamos ejemplos. pero el sistema es compatible e indeterminado.13.5. a Por lo tanto rango (A) < rango A y por el teorema de Rouch´ .3. .Frobee nius el sistema Ax = b es incompatible. ´ OBSERVACION 3. Por otro lado si A = ( A| b) es la matriz ampliada del sistema. b =  1  y tambi´n   x+y+z =1 1 1 1 1 se cumple que |A| = |A1 | = |A2 | = |A3 | = 0. Mientras que para  sistema de ecuaciones el      1 1 1 1  x+y+z =1     e x + y + z = 1 se tiene que A =  1 1 1 .7.

126 3. DETERMINANTES .

“direca o o ci´n” y “sentido”.CAP´ ıTULO 4 RECTAS Y PLANOS EN EL ESPACIO 4. o sentido y congruentes (dos figuras son congruentes si se corresponden por una isometr´ ıa). Estas se distinguen o claramente de otras llamadas “escalares” (masa. etc. como recordar´. velocidad. etc. Por un lado.es dar una presentaci´n sucinta de la Geometr´ Anal´ o ıa ıtica del Espacio. Esta presentaci´n incluir´ la formalizaci´n del concepto de vector que el o a o lector conoce de sus cursos de Nivel Secundario. aceleraci´n. En un sentido muy vago y deliberadamente informal entendemos por tal al modelo espacial en que transcurren la mayor´ de los ıa fen´menos analizados por la Mec´nica y otras teor´ cient´ o a ıas ıficas Cl´sicas. a Estas teor´ se refieren a los acontecimientos m´s o menos directamente ıas a percibidos por los seres humanos. en cambio las ´ ´ e primeras requieren m´s informaci´n para caracterizarlas: “m´dulo”. u 127 .) llamadas “vectoriales”. en F´ ısica ha trabajado con ciertas “magnitudes” (fuerza. Introducci´n o El prop´sito del presente cap´ o ıtulo -y del cap´ ıtulo denominado Producto Escalar y Vectorial. Por otro lado. est´n ıa a a determinadas por vectores. Las magnitudes vectoriales se representan adem´s gr´fio a a camente mediante una “flecha” y a pesar de las diferencias que ya marcamos con los “escalares” tienen algo en com´n: con ambos se realizan operaciones. que permita trabajar matem´ticamente con los objetos del a espacio ambiente. En general el vector se define en esos cursos como una clase de equivalencia de segmentos orientados con la misma direcci´n.) porque las ultimas quedan determinadas por un unico dato num´rico. temperatura. en los cursos de Geometr´ ha trabajado con las traslaciones que.1.

Este tipo de prou a cesos de generalizaci´n desde ejemplos hacia conceptos abstractos permite o dar un tratamiento unificado a m´ltiples objetos a menudo de apariencia u dis´ ımil pero con propiedades esenciales comunes. o Nuestra intenci´n es introducir el concepto de “vector” de una manera o m´s rigurosa y utilizarlo para desarrollar algunas aplicaciones a la Geoa metr´ Anal´ ıa ıtica del Espacio. RECTAS Y PLANOS EN EL ESPACIO F2 Fr F1 / Figura 1 Por ejemplo cuando se aplican dos fuerzas F1 y F2 sobre un mismo cuerpo el resultado es el mismo que si se aplicara una unica fuerza Fr con m´dulo. de este modo la “suma de vectores” e cobra sentido. Si F1 = F2 entonces Fr = 2F1 con lo cual tambi´n cobra sentido la multiplicaci´n de escalares por vectores. Al mismo tiempo queremos destacar que este concepto de vector servir´ de fuente de inspiraci´n para uno de los objea o tos fundamentales de este curso. . ´ o direcci´n y sentido igual a la diagonal del paralelogramo de lados F1 y F2 o (ver figura 4. Se dice entonces que Fr = F1 + F2 o que Fr es la resultante de F1 y F2 .128 4. Para poder hacerlos se debe estudiar con cuidado los ejemplos sencillos tratando de destacar estas propiedades. M´s adelante daremos una definici´n m´s a o a general y abstracta de vector perteneciente a un espacio vectorial con m´ltiples aplicaciones dentro y fuera de la matem´tica.1).

P. Vectores El espacio ambiente. C) ∀A. No estamos interesados en que nuestro concepto de o A . B) = 0 si y s´lo si A = B o d(A.. ¿Qu´ datos son neceo e sarios para dibujarla? En principio basta indicar un par de puntos ordenados (A. VECTORES 129 4.2. B.2 de modo que AA′ B ′ B sea un paralelogramo. B) el punto A ser´ el origen y el punto B el extremo del segmento oriena tado (“flecha”).4.. Pretendemos formalizar lo que antes hemos denominado una “flecha” como un objeto que tenga “modulo”. que satisface d(A. B ′ ). En este cap´ ıtulo se dar´ una descripci´n anal´ a o ıtica de recta. C ∈ E. . B. o ′ . B) = d(B.. Q. Consideremos dos segmentos orientados como en la figura B B′ A′ Figura 2 4. o La longitud del segmento entre dos puntos de E define la distancia entre dos puntos d : E × E −→ R+ . B) + d(B. el par (A. B) es distinto de (A′ . B) = d(A o base o de “aplicaci´n”. plano y sus relaciones de intersecci´n. Dos punu tos distintos definen una unica recta y tres puntos no contenidos en una ´ recta definen un plano. A este concepto elemental de distancia agregamos ahora el de vector. Solo se diferencian en el punto de m´dulo (d(A. A) ∀A ∈ E d(A.2. C) ≤ d(A. “direcci´n” y “sentido”. que denotaremos con la letra E. Sin embargo por ser AA′ B ′ B un paralelogramo ambas segmentos orientados tienen igual direcci´n (las rectas AB y A′ B ′ son paralelas). B ′ )) y sentido. est´ formado por a puntos designados en general con letras may´sculas A.

Denominaremos con la letra V al conjunto de estos vectores. Si la pareja es AB. Una manera de lograr esto es identific´ndolas flechas como (A. RECTAS Y PLANOS EN EL ESPACIO vector distinga objetos por su punto de aplicaci´n as´ que deberemos ser m´s o ı a cuidadosos en nuestra definici´n y adoptar una que no distinga entre dos o ′ . Obs´rvese que: e o 1) Es f´cil probar que AB ∼ A′ B ′ si y s´lo si el punto medio C de AB ′ / a ′ B. B ′ ). Dada una representaci´n AB de un vector v llamaremos o origen (o punto base) al punto A. o sea que una misma simetr´ central de centro C ıa coincide con el de A ′ y A′ en B. y extremo al punto B. e 3) Todas estas definiciones s´lo utilizan elementos de la geometr´ plana. el vector por ella representado se escribir´ de cualquiera de las siguientes maneras a − − → v = AB = B − A. o ıa Llamaremos vector del espacio E a una clase de equivalencia determinada por esta relaci´n. o Para ello definimos una relaci´n de equivalencia entre pares ordenados o ′ B ′ si y s´lo si ABB ′ A′ es un paralelogramo.130 4. Cualquier pareja de puntos de una clase de equio valencia representa al correspondiente vector. Dado un punto P ∈ E y un vector v ∈ V . Obs´rvese e → − = − para cualquier A ∈ E. lleva A en B 2) Tambi´n se puede dar una definici´n de la relaci´n de equivalencia en e o o t´rmino de traslaciones. B) y (A a mediante una relaci´n de equivalencia. → que el espacio V incluye al vector nulo o AA. es claro que existe un unico ´ . de puntos de E: AB ∼ /A o ´ Esta es una relaci´n de equivalencia de acuerdo con la definici´n dada en el o o Cap´ ıtulo 0.

Decimos que − − → −→ − − → − → AC representa al vector suma v + w. La suma de dos vectores es otro vector. w ∈ V . que si v = AB . Dados dos vectores v. resulta − +v = o − = v (alcanza con tomar el representante AA o BB. w) −→ v + w. se recomienda -como para casi todas las pruebas de este cap´ ıtulo. → → AB BA AA → de o a BA o o .hacer los dibujos correspondientes. O sea. De esta manera hemos definido una funci´n que a o pareja de punto de E y vector de V . 131 − − → punto Q ∈ E tal que P Q = v. Para verificar esta independencia de los representantes.4. le hace corresponder otro punto de E . a 4. o sea que hay un unico representante de v ´ que tiene origen en P : ese representante es P Q. seg´n el caso. Operaciones con vectores. Escribiremos / Q = P +v y diremos que Q es la suma de P m´s v. se tomar´n representantes a de cada uno de ellos de modo que el extremo del representante de v sea el − − → −→ − origen del de w. Dado P . Adem´s el vector − sumado a v da − : − + − = − = − . Es f´cil ver que el vector suma no depende del representante elegido para a −→ − −→ − −→ −→ − − − → v . o sea que si A′ B ′ = v (y B ′ C ′ = w) entonces A′ B ′ + B ′ C ′ = AC. o sea que AB + BC = AC. tomamos w = BC. → v+ o u − → − → − → → − ). v) −→ Q ⇐⇒ P Q = v. − − → de la siguiente manera: (P.3. OPERACIONES CON VECTORES. y si v est´ dado a − − → por una pareja AB (o sea v = AB) para hallar Q alcanza con construir el paralelogramo P ABQ. o sea que se trata de definir una funci´n que a parejas de vectores le haga corresponder otro vector: o (v. − − → → Conviene observar desde ya que para cualquier v = AB .3.

distinguiendo diferentes casos y utilizando el cona cepto de distancia. Adem´s (h´ganse los dibujos). pero siendo a y v elementos de ıa conjuntos en general distintos. de a modo que d(A. C) = ad(A. Si a = ±1 tienen el mismo m´dulo. C. u o Diremos que dos vectores u. porque el n´mero real puede u ser el cero.132 4. verifican las siguientes ocho propiedades (u. Obs´rveo e se tambi´n que la multiplicaci´n del n´mero cero por cualquier vector da el e o u − . ´ a O sea que C est´ del mismo lado que B respecto a A. sencillamente hemos colocado av juntos. Se observa f´cilmente que esa ta definici´n no depende del representante de v que se haya elegido. en la recta determinada por A y B . Sea v = AB. Esta definici´n lleva a que el o o vector nulo sea colineal con todo vector de V .Si a < 0. v son colineales (o paralelos o que tienen la misma direcci´n) si u = av para alg´n n´mero real a. [S2] [Asociativa] u + (v + w) = (u + v) + w. Si a > 0 diremos que adem´s tienen el mismo u a sentido. Y. Esto podr´ dar lugar a confusiones. RECTAS Y PLANOS EN EL ESPACIO Llamaremos opuesto de v al vector representado por BA. . − → − − → En ambos casos se define AC = aAB = av.si a ≥ 0. o sea que (−1)v + v = − . Estas dos operaciones de suma de vectores y producto por un real. w son cualesquiera vectores de V y a. para todo o a ∈ R. Tambi´n diremos o u u e que u es m´ ltiplo de v. b son cualesquiera n´meros reales): u [S1] [Conmutativa] u + v = v + u. el vector opuesto −v → vector nulo: 0v = o → se obtiene multiplicando v por el n´mero −1. Para definir el producto de un n´ mero real por un vector se debe u andar con m´s cuidado. v. y lo escribiremos −v. hemos preferido la simplificaci´n de no usar o − − → s´ ımbolo expl´ ıcito para este producto. B. para todo A. para todo v ∈ V . . en la semirrecta AB se elige el unico C tal que d(A. se elige C en el lado opuesto al que est´ B respecto de A. v ∈ V . ∀ X. B). Igualmente. Se trata de definir una funci´n (a. Obs´rvese que no hemos indicado el producto del n´mero e u real a por el vector v con ning´n s´ u ımbolo. D ∈ E vale A − B = a a C − D =⇒ A − C = B − D. Z ∈ Rn . v) −→ av . C) = |a|d(A. B).

b < 0. C est´ en el lado opuesto a B y D tambi´n porque bv tiene sentido opuesto a v y a(bv) tiene el sentido de bv. A − A = − . en P3. 2. sean (ab)v = AC −→ − y a(bv) = AD con C. b tienen el mismo signo. B.4. y las sumas. → → 3. o o 4. Si a. Adem´s [A + (−u)] + w = A + [−u + (B + u) − A] = a A + [−u + (B − A) + u] = A + (B − A) = B. Si v = AB. Si a > 0. OPERACIONES CON VECTORES. A + (B − A) = B. Como ejemplo. o [Asociativa del producto] a(bv) = (ab)v. [Neutro del producto] 1v = v [Distributiva] (a + b)v = av + bv. C) = d(A. se han usado sucesivamente . ıa u − − → − → Como ejemplo daremos la prueba de P1. por tanto C y D coinciden. C) = d(A. w ∈ V ): 1. o o → [Existencia de opuesto] Existe −v tal que v + (−v) = − . el resultado es o − → −→ − − . A + (v + w) = (A + v) + w. D en la recta AB. Para probar estas propiedaa des para los vectores de V recomendamos una vez m´s hacer dibujos claros. (B − A) + u = (B + u) − A = B − [A + (−u)]. C y → A = C = D o sea AC = AD = o D est´n en la semirrecta de origen A por B y d(A. A + − = A. [Distributiva] a(u + v) = au + av. Esto prueba la primera igualdad. (A + w) − A = w. por 2. Obs´rvese los distintos significados que tienen los productos (sus s´ e ımbolos est´n omitidos) en P1. veremos la prueba de 4.3. Luego w = (B + u) − A por la segunda parte de 2. abstracta y abarcativa de ıa a espacios vectoriales. 133 [S3] [S4] [P1] [P2] [P3] [P4] → → [Neutro de la suma] Existe un vector − tal que v + − = v. M´s adelante a a se considerar´n entes matem´ticos entre cuyos elementos se pueden definir a a operaciones que verifican este conjunto de propiedades. Se ver´ que con s´lo a o ellas se puede desarrollar la teor´ m´s simple. Si a ´ b es cero. D ∈ E. D) = ab. C. Si w = (B − A) + u. resulta A + w = [A + (B − A)] + u = B + u. a a por lo que C = D. D) = |ab|. v. e adem´s d(A. Tambi´n es importante tener presente las siguiene tes propiedades que relacionan la suma de punto y vector con la suma de vectores (∀ A. a aplicar bien las definiciones de cada una de las operaciones y luego aplicar propiedades elementales de geometr´ plana y de los n´meros reales.

al variar λ entre los n´meros reales. Plano. π ′ de o las formas P = A + λu + µv. Diremos. ambas rectas paralelas tienen un punto en com´n. v ′ no colineales. λ. Para que los dos planos sean paralelos no es necesario que u. w son paralelas si y s´lo si v es colineal con w. De igual manera que en caso de las rectas. ellas son la a u misma recta. que los vectores son de π y π ′ . tiene tambi´n representantes con dos puntos e ′ . B + µw con w = a1 v y B = A + λ1 v. sean paralelos. Entonces o w = B − (A + (−u)) y queda demostrada la segunda igualdad de 4. Dados tres puntos no pertenecientes a la misma recta (no colineales) A. µ ∈ R}. C ∈ E.134 4. De acuerdo u con lo visto en la definici´n de producto de un vector por un n´mero real. Ecuaciones vectoriales de rectas y planos. un plano tambi´n queda bien definido por un pune to A y dos vectores u. v ′ sean colineales. la primera igualdad de 4. π ′ son paralelos si todo vector con representantes definidos por dos puntos de π. O sea que todo punto P ∈ r es de la forma u − − → P = A + λAB para alg´n λ ∈ R. µ ∈ R. u′ y v.. y la primera de 2. u. Paralelismo Recta. Dos planos π. En este caso resulta s = {P ∈ E : P = A + λv. o Si adem´s. v no colineales. En este caso π = {P ∈ E : P = A + λu + µv. v no colineales. la definici´n de w. Obs´rvese primero que todos los vectores determie − → nados por dos puntos del plano π son de la forma AP = λu + µv. de π Hallaremos una condici´n necesaria y suficiente para que dos planos π. Sea r la recta de E definida por los puntos A y B. En efecto si las rectas son de la forma A + λv. Cualquier pareja de vectores u. u′ . llamado vector director de la recta s. B. o − − → todos los puntos de esa recta quedan descriptos por A + λAB. resulta que todo punto de la segunda recta es de la forma B + µw = A + (λ1 + a1 µ)v. RECTAS Y PLANOS EN EL ESPACIO 1. . o sea que es de la primera recta. Tambi´n se puede dar una recta s por un u e punto A ∈ E y un vector no nulo v ∈ V . P ′ = A′ + au′ + bv ′ . 4.4. λ ∈ R}. el plano π por ellos definido esta formado por el conjunto − − → − → de puntos de la forma A + λAB + µAC con λ. Dos rectas con vectores directores v. v no colineales que definan un plano de esa manera se denominar´n vectores directores del a plano. un tanto imprecisamente.

´ Destacamos la unicidad de la combinaci´n lineal de vectores de la base. · · · . vn } ⊂ V tal que todo vector v ∈ V se escribe de manera unica como combinaci´n lineal de ese conjunto. u= λ2 µ1 − λ1 µ2 λ2 µ1 − λ1 µ2 (que tiene sentido porque si fuera λ2 µ1 − λ1 µ2 = 0 resultar´ λ2 u′ − λ1 v ′ = 0 ıa ′ . vector de π 4. vn ∈ V si es de la forma o v = a1 v1 +a2 v2 +· · ·+an vn con a1 . v. SISTEMAS DE COORDENADAS 135 sino que los vectores u′ .4. Una base de V es un conjunto de vectores {v1 . an ∈ R tales que v = a1 v1 +a2 v2 +· · ·+an vn . · · · . v ′ = λ u + µ v resulta que todo vector de u.5. Si u lineales de u. v ′ se puedan escribir como suma de m´ltiplos de u ′ = λ u + µ v. v2 . Sistemas de coordenadas Comencemos con dos definiciones de gran trascendencia. En efecto si u 1 1 2 2 ′ es de la forma au′ + bv ′ = (aλ + bλ )u + (aµ + bµ )v. En un sentido que se aclarar´ en a cap´ ıtulos posteriores. a2 . por un y ser´ u ıan o razonamiento igual que el anterior resulta que todo vector de π tambi´n es e ′. · · · . v.5. · · · . v ′ colineales. se pueden despejar u y v de la siguiente manera v= −µ2 u′ + µ1 v ′ λ2 u′ − λ1 v ′ . lo cual va contra una suposici´n inicial). a2 . v2 . una/ base es un conjunto m´ ınimo que permite escribir . an ∈ R. pao ra generar cada uno de los vectores de V . si para cada ´ o v ∈ V existen unicos a1 . O sea. o sea que tambi´n π e 1 2 1 2 ′ y v ′ se escriben de aquella manera como combinaciones lo es de π. v es una combinaci´n lineal de los vectores v1 .

Dado u cualquier punto P ∈ E. respectivamente. A. B. No es dif´ ver. A. utilizando propiedades ıcil elementales de paralelismo e intersecciones. A continuaci´n o o mostraremos c´mo son las bases de V . b. Esto equivale. C. Por otro lado. que cortan a OB y OA en B ′ y A′ . B ′ . se o −→ − → − → −′ −′ − − − → deduce que OP = OA + OB + OC ′ . o De acuerdo con las definiciones que venimos dando. r2 a las rectas OA. por lo que u . v = OB. respectivamente. B. consideremos la recta s paralela a OC por P . Por la definici´n de suma de vectores aplicada dos veces. o sea que C = O + aOA + bOB para cualesquiera n´meros reales a. v. OB. que se habr´ llegado a los misıa ′ . C ′ si se hubieran trazado recta y plano paralelos a por mos puntos A ejemplo la recta OA y el plano OBC. Ella corta al plano OAB en P ′ (que coincide con O si P esta en la recta OC). b. los vectores u. O sea. el plano paralelo a OAB por P corta a la recta OC en el punto C ′ (que coincide con O si P esta en el plano OAB). y por la definici´n de producto de o −→ −′ − → n´mero real por vector. D ∈ E no coplanares (no pertenecientes a un mismo plano). se ve el vector OA es colineal con OA. a que el punto C no est´ en el plano e − → −→ − determinado por O. es claro que se pueden elegir cuatro puntos A. y seguido el procedimiento indicado anteriormente. Por P ′ trazamos las paralelas r1 . w = OC. Diremos tambi´n que los vectores por ellos e determinados son no coplanares. si se toman representantes de los vectores con el mismo origen − → −→ − − − → O : u = OA. B. RECTAS Y PLANOS EN EL ESPACIO todos los vectores de V como combinaci´n lineal de ellos. w ∈ V son no u coplanares si w = au + bv para cualesquiera dos n´meros reales a. Sean cuatro puntos no coplanares O.136 4. C ∈ E.

b. Oy. v2 . De igual manera se definen los planos coordenados yOz. si tres vectores forman una base de V ellos deben ser no coplanares. que es el objeto principal de esta parte del curso.4. zOx. v2 . v3 se denominan ejes coordenados. Rec´ ıprocamente. El estudiante recordar´ que los puntos de a una recta se ponen en correspondencia biun´ ıvoca con los n´meros reales. v2 . v3 . Las rectas determinadas por O y v1 . x2 . tomando representantes con un mismo origen O. Esta demostraci´n vale o − −→ −→ → − − para cualesquiera tres vectores OA. C no son coplanares. si fueran coplanares. c ∈ R. sus extremos determinar´ un plano π. cada v ∈ V ) los n´meros reales a. u eligiendo un origen y una unidad. En efecto. y ning´n ıan u − − → vector OP con P ∈ π se podr´ escribir como combinaci´n lineal de ellos. Se llamar´ plano coordenado a xOy al plano determinado por Ox. v1 . Para cada P ∈ E (o lo que es lo mismo. OC ′ = cOC u − − → − → −→ − −→ − para b. el origen de coordenadas y una base {v1 . Oz a los ejes coordenados definidos por O y v1 . B. Se suele representar por Ox. respectivamente. por ejemplo ıa. Por tanto v = OP = aOA + bOB + cOC. De igual manera OB ′ = bOB. Por tanto hemos demostrado que tres vectores no coplanares cualesquiera forman una base del espacio V . para cada P ∈ E existen n´meros unicos x1 . OB. OC no coplanares. c son unicos pues u ´ → − → − → ′ − + b′ − + c′ − si fuera v = a OA OB OC resultar´ suponiendo que. ıa o A continuaci´n generalizaremos el concepto de sistema de coordenadas o –que el estudiante ha estudiado en el plano– al espacio E. Si los ejes coordenados son perpendiculares se dice que el sistema de coordenadas es ortogonal. ′ a−a a −a Entonces el punto A estar´ en el plano OBC lo cual contradice la hip´tesis ıa o de que los puntos O. x3 tales que u ´ −→ − −→ − − − → −→ − → − − − → OA′ = aOA para alg´n a ∈ R. Oy. v3 }. v3 } de V . Por lo que antecede resulta que dado un sistema de coordenadas {O. v2 . SISTEMAS DE COORDENADAS 137 − → − − → b′ − b −→ c′ − c − OA = OB + ′ OC. (R Un sistema de coordenadas o referencial de E est´ formado por un a punto O. y que los puntos de un plano se ponen en correspondencia biun´ ıvoca con las parejas ordenadas de n´meros reales u 2 ) eligiendo un origen y dos ejes transversales que se cortan en ese origen. A. − → −→ − −→ − a = a′ : (a − a′ )OA = (b′ − b)OB + (c′ − c)OC por lo que .5.

0) ∈ R3 y el punto O + v1 tiene coordenadas (1. b3 ). v2 . o del vector v ∈ V . y = a2 + λ(b2 − a2 ). x2 . (a3 + x3 ). Supongamos ´ o A = (a1 . 0. el conjunto de las ternas ordenadas de n´meros reales. Como u ejemplos destacamos que el punto elegido como origen de coordenadas tiene coordenadas (0. b2 − a2 . x3 son las coordenadas de P en el sistema {O. x2 . Observaciones 1. b3 − a3 ). Se suele escribir P = (x1 . dependiendo del contexto al que se refiera. Ecuaciones param´tricas de rectas y planos e Veamos que forma toman las ecuaciones de rectas y planos en un referencial {O. Si A = O + a1 v1 + a2 v2 + a3 v3 // y B = O + b1 v1 + b2 v2 + b3 v3 . a3 ).33) x = a1 + λ(b1 − a1 ).6. P = O + x1 v1 + x2 v2 + x3 v3 . o que se a da por sobreentendido. indicar´ a las coordenadas del punto A = O + v ∈ a E. v1 . v1 . B = (b1 . y o por la observaci´n 1. z = a3 + λ(b3 − a3 ). para indicar que x1 . v3 } a la terna (a1 . De igual manera. z) los puntos de la recta o r tienen coordenadas (4. Por tanto las coordenadas del punto A + v son: (a1 + x1 ). v2 .138 4. v2 . x3 ). entonces por la ultima observaci´n de la secci´n anterior resulta B − A = (b1 − a1 )v1 + (b2 − a2 )v2 + (b3 − a3 )v3 . Sea la recta r : P = A + λ(B − A). x3 son las coordenadas de P en un sistema de coordenadas en el que se est´ trabajando. La determinaci´n de un sistema de coordenadas o establece una correspondencia biun´ ıvoca entre el conjunto de los puntos del espacio E y R3 . (a2 + x2 ). si v = a1 v1 + a2 v2 + a3 v3 . RECTAS Y PLANOS EN EL ESPACIO P − O = x1 v1 + x2 v2 + x3 v3 . Si A = O + a1 v1 + a2 v2 + a3 v3 y v = x1 v1 + x2 v2 + x3 v3 . entonces B − A = (b1 − a1 )v1 + (b2 − a2 )v2 + (b3 − a3 )v3 y las coordenadas del vector B − A son (b1 − a1 . a2 . a2 . 2. a3 ) por lo que esta terna. llamaremos coordenadas de v en la base {v1 . v3 }. v3 }. y. . 0). entonces A−O = a1 v1 +a2 v2 +a3 v3 y A−O+v = (a1 +x1 )v1 +(a2 +x2 )v2 +(a3 +x3 )v3 . por lo que A + v = O + (a1 + x1 )v1 + (a2 + x2 )v2 + (a3 + x3 )v3 . si P tiene coordenadas (x. b2 . x2 . Decimos que x1 . 4. luego. 0..

4.7. ECUACIONES IMPL´ ICITAS DE RECTAS Y PLANOS

139

Si r es de la forma P = A + λv con v = x1 v1 + x2 v2 + x3 v3 se obtiene: (4.34) x = a1 + λx1 , y = a2 + λx2 , z = a3 + λx3 .

Estas ecuaciones se suelen llamar ecuaciones param´tricas de la rece ta, y se suele pedir, por ejemplo “hallar las ecuaciones param´tricas de la e recta”que pasa por los puntos P = (1, 0, 1) y Q = (−2, 1, 2). En realidad debiera decirse, “hallar unas ecuaciones param´tricas de la recta”porque dee pendiendo del punto que se tome como base, y del vector director elegido (uno o cualquier m´ltiplo -no nulo- de ´l) se obtendr´n diferentes ecuaciones u e a param´tricas. Sin embargo, dado que la recta es la misma, independientee mente de la presentaci´n anal´ o ıtica elegida, seguiremos refiri´ndonos a las e ecuaciones, en todos los casos. La respuesta al ejemplo que antecede es (x, y, z) = (1, 0, 1) + λ(−3, 1, 1) Sean tres puntos no alineados A = (a1 , a2 , a3 ), B = (b1 , b2 , b3 ), C = o (c1 , c2 , c3 ). Consideramos el plano de ecuaci´n P = A+λ(B −A)+µ(C −A). Llamando (x, y, z) a las coordenadas de P , por un razonamiento an´logo al a utilizado para obtener (4.33), se obtiene x = a1 + λ(b1 − a1 ) + µ(c1 − a1 ), (4.35) y = a2 + λ(b2 − a2 ) + µ(c2 − a2 ), z = a3 + λ(b3 − a3 ) + µ(c3 − a3 ). Si el plano es de la forma P = A + λv + µw con v = x1 v1 + x2 v2 + x3 v3 , w = y1 v1 + y2 v2 + y3 v3 se obtiene: (4.36) x = a1 + λx1 + µy1 , y = a2 + λx2 + µy2 , z = a3 + λx3 + µy3 .

4.7. Ecuaciones impl´ ıcitas de rectas y planos Rectas Las ecuaciones (4.33), si a1 = b1 , a2 = b2 , a3 = b3 , se pueden escribir de la siguiente manera (4.37) x − a1 y − a2 z − a3 = = b1 − a1 b2 − a2 b3 − a3

140

4. RECTAS Y PLANOS EN EL ESPACIO

An´logamente, de (4.34) se deduce, si x1 , x2 , x3 = 0: a (4.38) x − a1 y − a2 z − a3 = = x1 x2 x3

En ambos casos, si alguno de los denominadores fuera cero, el correspondiente numerador tambi´n es cero. Tambi´n por eliminaci´n de λ, µ en (4.35), se e e o obtiene la forma general de la ecuaci´n de un plano (usando determinantes o de matrices dos por dos): (x − a1 ) b2 − a2 b3 − a3 c2 − a2 c3 − a3 +(z − a3 ) − (y − a2 ) b1 − a1 b3 − a3 c1 − a1 c3 − a3 = 0. +

La expresi´n que antecede al signo de igual puede tomarse como la definici´n o o del determinante de una matriz 3 por 3 -que ser´ vista en detalle m´s adea a lante en el curso-, pudi´ndose escribir m´s compactamente de la siguiente e a manera: (4.39) x − a1 y − a2 z − a3 b1 − a1 b2 − a2 b3 − a3 c1 − a1 c2 − a2 c3 − a3 =0

b1 − a1 b2 − a2 c1 − a1 c2 − a2

Partiendo de (4.36) se obtiene otra forma de la ecuaci´n impl´ o ıcita de un plano. As´ si el plano est´ dado por el punto A = (a1 , a2 , a3 ) y los vectores ı, a o ıcita toma v = x1 v1 + x2 v2 + x3 v3 , w = y1 v1 + y2 v2 + y3 v3 , la ecuaci´n impl´ la forma (4.40) x − a1 y − a2 z − a3 x1 x2 x3 y1 y2 y3 =0

Desarrollando estos determinantes tenemos, por ejemplo para (4.39) a(x − a1 ) + b(y − a2 ) + c(z − a3 ) = 0, donde a = k b2 − a2 b3 − a3 c2 − a2 c3 − a3 o tambi´n ax + by + cz + d = 0, e ,b = k b1 − a1 b3 − a3 , c1 − a1 c3 − a3

4.7. ECUACIONES IMPL´ ICITAS DE RECTAS Y PLANOS

141

c=k

Rec´ ıprocamente toda ecuaci´n de la ultima forma, en la que por lo menos o ´ uno de los coeficientes a, b, c es distinto de cero, representa un plano porque, suponiendo, por ejemplo c = 0, ella equivale a las tres ecuaciones a b d x = λ, y = µ, z = − − λ − µ c c c que son de la forma(4.36). Obs´rvese que los coeficientes a, b, c s´lo dependen e o de los vectores directores del plano. Dado que planos paralelos se pueden determinar con los mismos vectores directores, resulta que dos planos ax + by + cz + d = 0, a′ x + b′ y + cz + d′ = 0.

b1 − a1 b2 − a2 c1 − a1 c2 − a2

.

u son paralelos si y s´lo si a = pa′ ; b = pb′ ; c = pc′ para alg´n real o ′ ambas ecuaciones representan el mismo plano. p. Si, adem´s, d = pd a Observamos tambi´n que, por ejemplo de (4.38) se puede deducir e x − a1 y − a2 x − a1 z − a3 = , = x1 x2 x1 x3 que se reduce a (4.41) ax + by + cz + d = 0, a′ x + b′ y + c′ y + d′ = 0.

Estas dos ecuaciones indican la propiedad bien conocida de toda recta puede determinarse por dos planos que se cortan en ella. Ej. 1. En el ejemplo de la secci´n anterior, las ecuaciones impl´ o ıcitas de la recta por P y Q (recordar las disquisiciones sobre las y unas ecuaciones) son x−1 = y = z − 1, o bien x + 3y = 1, y − z = −1 −3 Ej. 2. Las ecuaciones impl´ ıcitas de la recta por (2, 1, 0), (3, 1, 5) son x − 2 = z − 5/5, y = 1 Ej. 3. Las ecuaciones p`ram´tricas del plano por (1, 1, 0) que tiene por a e vectores directores u = (−1, 0, 2) y v = (1, 3, 3) son x = 1 − λ + µ, y = 1 + 3µ z = 2λ + 3µ.

142

4. RECTAS Y PLANOS EN EL ESPACIO

Su ecuaci´n impl´ o ıcita es −6x + 5y − 3z + 1 = 0. Ej. 4. x − 2y = 0 es la ecuaci´n de un plano paralelo al eje coordenado Oz, o que corta al plano xOy seg´n la recta z = 0, x − 2y = 0. u Ej. 5. Ecuaci´n del plano paralelo al de ecuaci´n x + y + z = 0 por el punto o o (1,1,1). Ser´ de la forma x + y + z + d = 0, por el punto (1, 1, 1); por tanto a 1 + 1 + 1 + d = 0 y resulta d = −3. El lector atento ya habr´ percibido que si (x, y, z) designa las coordea nadas gen´ricas de cualquier punto del espacio, dado un cierto sistema de e o coordenadas,la ecuaci´n impl´ o ıcita de un plano viene dado por una ecuaci´n lineal en (x, y, z); en general la ecuaci´n de cualquier superficie vendr´ dada o a por una ecuaci´n. Y una recta, vendr´ dada por dos ecuaciones. Los puntos o a que verifican las dos ecuaciones ser´n los de la recta. a 4.8. Posiciones relativas de rectas y planos. En esta secci´n se ver´ que el estudio de las posiciones relativas de o a o rectas y planos llevan naturalmente a plantearse la resoluci´n de sistemas de ecuaciones. Dadas dos rectas en el espacio, podemos simplificar sus posiciones relativas en tres categor´ ıas. O bien se cruzan sin cortarse (esta es la posici´n gen´rica, la m´s com´n), o bien se cortan en un solo punto, o bien o e a u son paralelas (este caso incluye el de las rectas coincidentes. El caso de que sean paralelas ya fue analizado: son rectas con vectores directores colineales (uno m´ltiplo del otro) y coinciden o no seg´n tengan alg´n punto com´n o u u u u no. Si los vectores directores no son colineales se trata de encontrar puntos comunes a las dos rectas. Para ello se estudia el sistema de ecuaciones formado al igualar las ecuaciones de sus coordenadas. Si las rectas se dan en forma param´trica se tendr´ un sistema con tres ecuaciones y dos inc´gnitas e a o (los par´metros de cada una de las rectas). Este sistema, si los vectores dia rectores no son colineales, puede ser compatible determinado (una soluci´n o formada por una pareja de n´meros correspondientes a cada par´metro) o u a incompatible (sin soluci´n). El primer caso corresponde al caso de corte (y o

4.8. POSICIONES RELATIVAS DE RECTAS Y PLANOS.

143

la soluci´n en cada par´metro dar´ el mismo punto en el espacio, pero al o a a moverse por cada una de las rectas); el segundo caso corresponde a las rectas que se cruzan. Ej. 1. Determinar las posiciones relativas de las rectas (x, y, z) = (1, 0, 1) + λ(−1, 1, 0) (x, y, z) = (0, 1, 2) + µ(2, 0, 1). Al igualar las coordenadas resulta 1 − λ = 2µ; λ = 1; 0 = 2 + µ que no posee ninguna soluci´n: las rectas se cruzan. o Ej. 2. Determinar las posiciones relativas de las rectas (x, y, z) = (1, 0, 1) + λ(−1, 1, 0); (x, y, z) = (0, 1, 2) + µ(−4, 4, 0). Los vectores directores son colineales y al igualar las coordenadas se obtiene (1, 0, 1) + λ(−1, 1, 0) = (0, 1, 2) + µ(−4, 4, 0) que no tiene soluci´n pues en la tercera coordenada resulta la igualdad de o los n´meros distintos 1 y 2: las rectas son paralelas. u Dados dos planos en el espacio podemos simplificar sus posiciones relativas en dos categor´ O bien se cortan en una recta, o bien son paıas. ralelos (este caso incluye el de los planos coincidentes). La posici´n relativa o se manifestar´ anal´ a ıticamente en que el sistema dado por las dos ecuaciones impl´ ıcitas sea o bien indeterminado con las soluciones dependientes de un par´metro (un grado de libertad) en el caso de corte en una recta, o bien a incompatible (no tiene soluciones) en e caso de planos paralelos no coincidentes, o bien indeterminado con las soluciones dependientes de dos par´metros a (dos grados de libertad) en el caso de coincidencia. Si los planos estuvieran dados en forma param´tica tendr´ e ıamos, al igualar las coordenadas de los dos planos, un sistema de tres ecuaciones con cuatro inc´gnitas (dos por cada o plano).

1) = 2(1. pero mantenemos su orden λ. ellos son paralelos. z) = (1. y agregamos una columna con los t´rminos independientes. . 0) + µ(0. Posiciones relativas de los planos de ecuaciones param´tricas e (x. y luego la escalerizada)     1 0 −1 −2 −1 1 0 −1 −2 −1     1 . −1) = (1. −y + z = 1. 0. 1. obteni´ndose el sistema 2x + 3y − z = 1. 3) + t(1. se puede tomar y = λ. resultando e z = 1 + λ. 3. t. 1. Los planos no se cortan. 1. −x − 2y + z = 0. Posici´n relativa de los planos o 2x + 3y − z = 1. 1. 0. 2. −1). se escaleriza. x = 1 − λ. z) = (0. Observar que de acuerdo con lo observado en la secci´n tres los o vectores directores del segundo plano son combinaci´n lineal de los vectores o directores del primer plano: (1. Igualando las correspondientes coordenadas resulta 1 + λ = t + 2s λ + µ = 2t + s 1−µ=3−t+s =⇒ Si ahora omitimos de escribir las variables.  1 1 −2 −1 0  =⇒  0 1 −1 1 0 −1 1 −1 2 0 0 0 0 3 El sistema es por tanto incompatible dado que sumando cero de cada una de las variables deber´ ıamos obtener 3. 1) + λ(1. tene dremos las siguientes matrices de coeficientes (primero la original. RECTAS Y PLANOS EN EL ESPACIO Ej. y. 1. y. (2. 0) + (0. 1). Para resolver el sistema dado por las dos ecuaciones. s. −1) (x. λ + 0µ − t − 2s = −1 λ + µ − 2t − s = 0 0λ − µ + t − s = 2. Este sistema tiene e infinitas soluciones que dependen de un solo par´metro (un grado de lia bertad) y por tanto los planos se cortan en una recta. −1) + s(2. 1. 4. 1. 1. Para determinar las ecuaciones param´tricas de esa recta. µ. 2. Ej. −1).144 4. 0) − (0.

Luego u av = d (A. Dado un vector v ∈ V llamamos norma de v al n´meu − − → ro d(A. − − → 2) Si a = 0 es trivial. B) = |a| v . C) = |a| d (A. ´ DEFINICION 5.1.CAP´ ıTULO 5 PRODUCTO ESCALAR Y VECTORIAL 5. ıa e Diremos que v es un versor si v = 1. Propiedades: 1) v 0. donde d (A. v ∈ V ´ Demostracion 1) Es inmediato.que notaremos: v (Observar que d(A. por definici´n del producto o − → de un n´mero por un vector . C) = |a| d (A. Producto escalar ´ DEFINICION 5. Dados los vectores u y v de V llamamos producto interno o producto escalar de u por v al n´mero u . Si a = 0 y v = AB. 2) av = |a| v para todo a ∈ R y para todo v ∈ V 3) u + v u + v .1. v = 0 si y solo si v = 0. v cos θ donde u − − → − → θ es el ´ngulo BAC de tres puntos tales que AB = u y AC = v.2. B) no depende del par de puntos (A. B). Observar a 145 . av = AC. para todo u. B) con v = AB. Para todo v = 0 se tiene que un versor pues v v v v es = 1 v v = 1. 3) Un lado de un tri´ngulo es menor o igual que la suma de los otros a dos (es la propiedad triangular de geometr´ m´trica). B) que se elija como representante de v ).

v) = a. luego a ( a.v = au . u .u v cos (π + θ) = − |a| u v cos θ = a u v cos θ =a(u. v) = a ´ng (u. etc. PRODUCTO ESCALAR Y VECTORIAL que el producto escalar no depende de los puntos A. o √ En particular v.v .v = v.v1 + u.u ) . ´ng (au.v).v + u2 . v > . (u. v2 . C que se elijan para representar u y v. (v1 + v2 ) = u. entonces u. Si a < 0 . 7) v. v cosθ = |a| . si u = 1. o Propiedades: 4) u.v = v 2 .u) . es decir.v = u1 . B. luego v = v.v 0 y v.v = 0 si y s´lo si v = 0 o ´ Demostracion: 4) Es inmediato. 6) Consideremos primero el caso u = 1. luego o (v1 + v2 ) . v) . v) = π + θ. Si u es un versor.v). Si a o 0. ´ng (au.u 5) (a. 5) Si a = 0 la demostraci´n es trivial . v) = θ. Entonces v1 .v = u.v = v cos θ = p es la proyecci´n del segmento AC sobre la recta AB de la figura.v .u = p2 .146 5. < u.u = v1 .u = p1 . luego ( a.u ) v = a a a. Es claro que p = p1 + p2 .u.v.v2 . (v1 + v2 ) u = p (proyecci´n de u1 + u2 ). (a.v) 6) (u1 + u2 ) . u. (ver figura) . v cos θ = a (u.u + v2 . (u. v) = π + ´ng (u. Notaci´n: u.

v = v 2 . En tal caso dados: v = a1 i + a2 j + a3 k y w = b1 i + b2 j + b3 k se tienev.u + v2 . como u = 1. u + v2 . luego d (P. Q) = P Q = (b1 − a1 )2 + (b1 − a1 )2 + (b3 − a3 )2 . La base se dice ortonormal si adem´s de ser ortogonal verifica que i = j = k = 1. k (a partir de aqu´ no escribiremos la flecha − ) se ı . u = v1 .2. 1 2 3 − − → Si P = O + a1 i + a2 j + a3 k y Q = O + b1 i + b2 j + b3 k entonces P Q = Q − P = (b1 − a1 ) v1 + (b2 − a2 ) v2 + (b3 − a3 ) v3 . v se dicen ortogonales si u .u = u u v1 .v = a2 + a2 + a2 . k} es ortonormal.v = 0. Dos vectores u. − − − → → → → Una base i . PRODUCTO ESCALAR 147 Consideremos ahora el caso general.3 ai bi .w = i=1.1. i. tenemos (v1 + v2 ) . √ En particular: v = v. k} es un sistema ortogonal de coordenadas si {i. j . En el resto de esta secci´n supondremos que todos los sistemas de cooro denadas son ortonormales. u . j.3. Por el razonamiento anterior. luego (v1 + v2 ) . . j. dice ortogonal si i · j = i · k = j · k = 0.5. u′ u ´ DEFINICION 5.u 7) Es inmediata pues v. a Diremos que {O.

dada una ecuaci´n ax+by+cz+d = 0. P0 = (x0 . k} un sistema ortogonal de coordenadas. z0 ) un punto de un plano π y n = ai + bj + ck = 0 un vector de la direcci´n de o una perpendicular a π (para abreviar diremos que n es un vector normal a π). c= 0). de aqu´ resulta: ı a (x − x0 ) + b (y − y0 ) + c (z − z0 ) = 0 Esta es entonces la ecuaci´n del plano dado por un punto y la direcci´n o o de la normal. P = (x. Es claro que esa ecuaci´n tambi´n se escribe en la forma: o e ax + by + cz + d = 0.2. . resulta : ax + by + c z + d = 0. Suponiendo que el sistema de coordenadas sea ortogonal volveremos a obtener esa ecuaci´n y mostraremos que en ese caso o se puede obtener m´s informaci´n de esta ecuaci´n. para todo P ∈ π. Rec´ ıprocamente. con a2 +b2 +c2 = o 0 (por ejemplo. PRODUCTO ESCALAR Y VECTORIAL 5. j. Si el sistema de c coordenadas es ortogonal esto equivale a: (av1 + bv2 + cv3 ) . Aplicaciones a la geometr´ ´ngulos y distancias ıa: a Ya vimos que toda ecuaci´n de la forma ax + by + cz + d = 0 representa o un plano y rec´ ıprocamente. a o o Sea {O. Entonces. y. xv1 + yv2 + z + d c v3 = 0. i. vale n · (P − P0 ) = 0.148 5. y0 . z).

5. tendremos: cos θ = n 1 2 n 1 2 y−y0 q z−z donde n1 y n2 son vectores normales a esos planos: luego el ´ngulo θ entre a los planos de ecuaciones ax+by+cz+d=0 y a’x+b’y+c’z+d’=0 verifica: cos θ = √ aa′ + bb′ + cc′ a2 + b2 + c2 . a′ 2 + b′ 2 + c′ 2 ´ d ) Angulo de una recta con un plano: Sean n un vector normal al plano y v un vector de la direcci´n de la recta . APLICACIONES A LA GEOMETR´ ANGULOS Y DISTANCIAS IA: ´ 149 Poniendo P = (x. z). a ) condici´n para que dos planos sean paralelos: ax+by+cz+d = o ′ x + b′ y + c′ z + d′ = 0 son paralelos si y s´lo si a′ = λa. El ´ngulo del plano con o a la recta es entonces θ = π/2 − ϕ donde ϕ es el ´ngulo determinado por n a . siempre con la hip´tesis o de que el sistema de coordenadas es ortonormal. u = 0. Veremos ahora algunas consecuencias de esto.vv = cos θ. Si el sistema de coordenadas no es ortogonal. (P − P0 ) = 0.2. donde n es normal al plano y v es un vector de la direcci´n o de la recta.1.v = 0 . u b ) condici´n para que una recta y un plano sean paralelos: o x−x Dados el plano y la recta de ecuaciones ax + by + cz + d = 0 y p 0 = = r 0 . (λ = 0). la ecuaci´n ax + by + cz + d = 0 tambi´n representa un plano como vimos o e antes. Como el ´ngulo θ entre dos planos es igual al a . c′ = λc 0ya o para alg´n λ ∈ R. n . c ) ´ngulo entre dos planos: Para dos vectores cualesquiera. pues esto significa o que n. son paralelos si y s´lo si pa + qb + rc = 0. b′ = λb. ´ OBSERVACION 5. P0 = (0. es la ecuaci´n del plano perpendicular o a π por P0 . 0. tenemos uu. pero en ese caso el vector av1 + bv2 + cv3 no tiene por que ser normal al plano. Por tanto. −d/c) y n = av1 +bv2 +cv3 . esta ecuaci´n o se escribe: n.n que forman sus vectores normales respectivos. y. a v = 0.

Q = (x. z). z0 ). siendo P0 Como la ecuaci´n del plano es (P − P0 ) .150 5. n n . Si P0 = (x0 . Consideremos ahora un sistema ortonormal de coordenadas.P) donde P ∈ π.0) en el primer miembro de la ecuaci´n o del plano. z). y. P1 ) = (Q − P0 ) . n = ai + bj + ck entonces: (Q − Po ) · n = a (x − xo ) + b (y − yo ) + c (z − zo ) = ax + by + cz + d. π) = d (Q. donde r es la perpendicular a π por Q. y0 . Luego : d (Q. π) de Q al plano π como el m´ ınimo de d(Q.0. un punto cualquiera del plano π. . P = (x. esto significa que d se o obtiene reemplazando P por O=(0. cos θ = f ) Distancia de un punto a un plano: Definimos la distancia d (Q.n = 0. Es claro que el m´ ınimo de d(Q.P) se obtiene cuando P=P1 =π ∩ r. y. Luego el ´ngulo de ax+by+cz+d =0 con p 0 = q 0 = a calcular mediante: ap + bq + cr sen θ = cos ϕ = √ a2 + b2 + c2 p2 + q 2 + r 2 ´ e ) Angulo de dos rectas: El ´ngulo θ de a x−x1 p′ x−x0 p x−x y−y z−z0 r se puede = y−y0 q = z−z0 r con = y−y1 q′ = z−z1 r′ se calcula mediante la f´rmula o pp′ + qq ′ + rr ′ p2 + q 2 + r 2 p′ 2 + q ′ 2 + r ′ 2 . PRODUCTO ESCALAR Y VECTORIAL y v.

y. z) = 0 .3. z0 ) y radio r: En un sistema ortogonal de coordenadas la ecuaci´n es: (x − x0 )2 + (y − y0 )2 + (z − z0 )2 = r 2 o b) Superficies de revoluci´n: Son las engendradas por una curva o (generatriz). APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 151 Luego : d (Q. ´ OBSERVACION 5.z(t))=P(t) que est´ en la cura a a va).3. que gira alrededor de una recta (eje). . Aplicaciones: ecuaciones de algunas superficies a) Esferas de centro (x0 .O bien en forma param´ etrica. por medio de tres ecuaciones de la  x = x (t)  forma y = y (t) t ∈ R   z = z (t) con tres funciones cont´ ınuas de un par´metro real (para cada valor del a par´metro t se tendr´ un punto (x(t). n n = ax+by+cz+d √ a2 +b2 +c2 5. z) = 0 g (x. y.y(t).5.2. y0 . π) = (Q − P0 ) .O bien en la forma reducida f (x. Una curva en el espacio puede darse: .

z) = 0.3. y.4. a veces puede eliminarse e el par´metro t y obtenerse una forma reducida. por medio de tres ecuaciones con dos par´metros ( como la ecuaci´n param´trica del plano). y C la generatriz C: y=0 z = f (y) La superficie de revoluci´n S est´ constituida por todos los puntos P o a del espacio que cumplen. ´ OBSERVACION 5.z) =0.O bien en forma reducida por medio de una ecuaci´n del tipo: f (x.152 5. PRODUCTO ESCALAR Y VECTORIAL Cuando se tienen las ecuaciones param´tricas. La curva C: Ecuaci´n de la superficie de revoluci´n con eje Oz Sea r el eje o o x=0 x=0 r: .y. y. a la vez. Generalmente hay muchos a sistemas de ecuaciones posibles que representan a la misma curva. o f (x. r) = d (P0 .O bien en forma parametrizada. r) P0 ∈ C . z) = 0 de dos superficies S y S ’ donde S: f(x. ´ OBSERVACION 5. dos condiciones: P ∈ π ⊥ r por alg´n u d (P.y. a o e .z) = 0 y S’: g(x. z) = 0 es la intersecci´n o g (x. Una superficie en el espacio puede darse: . y.

r) 0 ± x2 + y 2 . Observaremos o s´lo que si se halla una familia de planos paralelos ( es decir ax+by+cz+α = o 0 con (a. a entonces F(x. z) = 0 i ) La intersecci´n o es una circunferencia para ax + by + cz + α = 0 cada valor de α. zα ) pertenece. a una recta fija r colineal al vector (a. z0 se obtiene: z = f Las condiciones se traducen en:   z − z0 = 0 P ∈ π⊥ . r. y0 . b.z) = 0 es una superficie de revoluci´n que verifica (ver figura o 3.3. EJEMPLO 5. por P0    x =0 P0 ∈ C 0  z0 = f (y0 ) P0 ∈ C    2 x2 + y 2 = x2 + y0 . ´ OBSERVACION 5. yα .3): F (x. y.c) (o sea perpendicular a la familia de planos paralelos ).1. o . reconocer si es o no una superficie de revoluci´n. para todo α. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 153 de donde. eliminando x0 . o en general. Demostrar que xy+yz+zx = 7 es una superficie de revoluci´n.y. ii) El centro de la circunferencia (xα . d (P.5. c) fijo y α variable ) que cumplan las condiciones de m´s abajo.b.5. r) = d (P0 .y. Dada una ecuaci´n F(x.z) = 0 no intentaremos.

PRODUCTO ESCALAR Y VECTORIAL Se puede escribir como: (x + y + z)2 − x2 + y 2 + z 2 = 14 Cort´ndola a en el plano:x + y + z + α = 0 se obtiene: x+y+z+α=0 (x + y + z)2 − x2 + y 2 + z 2 = 14 i ) Es una circunferencia porque es la intersecci´n de la esfera x2 +y 2 +z 2 = o 2 con el plano x + y + z + α = 0. −1/3. ii ) El centro C de la circunferencia 14 + α α se halla trazando la perpendicular al plano x + y + z + α = 0 que pasa por el centro de la esfera x2 + y 2 + z 2 = 14 + α2 . c ) Conos: Se llama “cono” o “superficie c´nica” de v´rtice V y direco e triz C ( donde V es un punto y C es una curva dada . 0. a / la superficie engendrada por todas las rectas que pasan por V y cortan a C. o sea:   x+y+z+α=0  Cα = x = y = z recta por (0.154 5.1. x + y + z + α = 0   x = −α/3  Cα = y = −α/3   z = −α/3 es una recta colineal al vector (−1/3. −1/3) o sea.1). tales que V∈C ). 0) ⊥   al plano. colineal con ( 1. .

c) a la superficie engendrada por todas las rectas colineales vector v que cortan a la curva C. b.2. 0) y generatriz e o y = cos t . b.5. al  x = f (t)  Si v = (a. 0.z) = 0. z) pertenece al   z = h (t) cilindro si y s´lo si existe alg´n punto P0 = (x0 . recta por P0 colineal a v   x = f (t)  Si V = (a. z0 ) tal que: o u P0 ∈ C P ∈. y. EJEMPLO 5. d ) Cilindros: Se llama “cilindro” o “superficie cil´ ındrica” de directriz C y generatriz colineal al vector v = (a. La ecuaci´n parametri  z = 1   x = λ sen t  zada es: o y = λ cos t Despejando t y λ se obtiene la ecuaci´n reducida   z = 1 + λ x2 + y 2 = (z − 1)2 . c) y C = y = g (t) Un punto P = (x. λ.y. b. y0 . Hallar las ecuaciones reducidas y param´trica del cono de e   x = sen t  v´rtice V = (0. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 155 La ecuaci´n param´trica del cono se puede obtener con los par´metros o e a t y λ como:   x = a + λ ( f ( t) − a)  S = y = b + λ ( g (t) − b )   z = c + λ ( h (t) − c ) Para escribir la ecuaci´n reducida habr´ que eliminar los par´metros t. c) y C = y = g (t)   z = h (t) . o a a para obtener una ecuaci´n del tipo o F(x.3.

a a a ´ OBSERVACION 5. z0 ) = 0 porque F es. y.156 5. La curva C tambi´n puede estar dada como e C: f (x. e a . PRODUCTO ESCALAR Y VECTORIAL .1) ). pero con un par´metro menos. y0 . y0 . y0 . z) = 0 en la que no figura la o variable z.7. entonces tomando x = x0 . independiente de z. y = y0 . y0 .0. z) = 0. se tiene F (x0 . z0 + λ) = F (x0 . Una ecuaci´n F (x. las ecuaciones param´tricas del cilindro son: e   x = f ( t) + λa  S = y = g (t) + λb   z = h (t) + λc de las que habr´ que eliminar los par´metros t. representa un cilindro de generatrices colineales con o el eje Oz. para obtener la ecuaci´n a a o reducida del tipo F (x. y. z0 ) = 0. Entonces. ´ OBSERVACION 5. z = z0 + λ (eso es la recta por Po colineal con (0. por ejemplo. y. y. O sea: cuando Po est´ en la superficie. z) = 0 en cuyo caso se trabajar´ an´logamente . toda a la recta por la colineal al eje Oz tambi´n la est´. en realidad. Si P0 = (x0 .6. λ. z0 ) verifica la ecuaci´n F (x0 . z) = 0 g (x.

157 EJEMPLO 5. − − − → → → Consideremos la terna ordenada de vectores de V . j . x2 + y 2 = 4 es un cilindro con generatrices paralelas al x2 + y 2 = 4 eje Oz y directriz.5. PRODUCTO VECTORIAL. el otro formado por las ternas en las que esa rotaci´n tiene sentido o horario. en la circunferencia z=0 5. { i . la rotaci´n o de ´ngulo convexo (o sea. k} tales que para un observador parado en v3 . j.4. de medida < π) que lleva i en j es de sentido antia horario.4. que constituye una base de V . Producto vectorial.3. k }. . por ejemplo. Estas las vamos a clasificar en dos grupos: uno formado por las ternas {i.

w . 2) v ∧ w = 0 si y s´lo si v y w son colineales (en particular. y como en general v ∧ (w ∧ u) = 0. Luego esa debe ser la ubicaci´n de w ∧ v para e o que la terna [w. para el mismo obsera vador la que lleva w en v es de sentido horario. v ∧ w} es una base. . w ∧ v] sea positiva. en cuyo caso v ∧ w = 0 4) v ∧ w = − (w ∧ v) ( en particular. Propiedades: 1) v ∧ w es el doble del ´rea del tri´ngulo determinado por esos veca a tores. que denotaremos v ∧ w. si alguno de o ellos es el vector 0).w = 0 c) Si v = 0 y w = 0 la terna {v. (u ∧ v) ∧ w = u ∧ (v ∧ w) + v ∧ (w ∧ u). w. w le asocia un vector. pues por b) esos vectores no son coplanares salvo que v y w sean colineales. corresponde observar que o o si v ∧ w = 0 la terna {v. w. v. 3) Respecto de la condici´n c) de la definici´n. PRODUCTO ESCALAR Y VECTORIAL Para definir el producto vectorial necesitamos elegir uno de los dos tipos como terna preferida. Nos quedaremos para esto con las ternas del primer tipo que llamaremos positivas.w para que esa rotaci´n aparezca o de sentido trigonom´trico . que cumple: a) v ∧ w = v . Esta convenci´n sirve para definir el producto vectorial como una funci´n o o de V ×V en V (as´ como el producto escalar era una funci´n de V ×V en R) ı o que a cada par de vectores v.sen θ (θ ´ngulo de v con w ) a b) (v ∧ w) . esta operaci´n no es conmutativa) o Para verificar esto basta notar que si para cierto observador la rotaci´n del o ´ngulo < π que lleva v en w es de sentido antihorario. Se puede deducir que: (u ∧ v) ∧ w + (v ∧ w) ∧ u + (w ∧ u) ∧ v = 0 de donde. v ∧ w} es positiva. 5) Este producto no es asociativo. la propiedad asociativa no vale. De modo que el observador debe ubicarse del lado opuesto del plano u. usando 4).v = 0 y (v ∧ w) .158 5.

Esto es: a) (v1 + v2 ) ∧ w = v1 ∧ w + v2 ∧ w. hay o que observar que del hecho que la terna {v.sen θ (ver figura) . Para demostrar esta propiedad hacemos algunas observaciones previas. se verifica que: v ∧ w = v . 159 6) Para todo λ ∈ R: λ (v ∧ w) = (λv) ∧ w = v ∧ (λw). − (v ∧ w)} son tambi´n positivas. Para el caso λ < 0. b) v ∧ (w1 + w2 ) = v ∧ w1 + v ∧ w2 . −w. y con r(pw) el vector o que se obtiene rotando esa proyecci´n un ´ngulo de medida π/2 en sentido o a antihorario observado desde v. observamos que llamando π al plano con vector normal v e indicando por p w la proyecci´n de w sobre ese plano. En primer lugar. PRODUCTO VECTORIAL. v ∧ w} es positiva se deduce que {−v. − (v ∧ w)} y {v.4. Esta propiedad se deduce directamente de la definici´n en el caso λ 0. w. e 7) El producto vectorial es distributivo respecto de la suma de vectores.r (pw) pues r (pw) = pw = w . w.5.

4. en la sucesi´n (i.7) y 4. Obs´rvese que este resultado puede recordarse pensando en el desarrollo por e la primer fila de un determinante: i j k a1 a2 a3 b1 b2 b3 = (a2 b3 − a3 b2 ) i − (a1 b3 − a3 b1 ) j + (a1 b2 − a2 b1 ) k . entonces: i ∧ i = j ∧ j = k ∧ k = 0.6).r (pw2 ) = v ∧ w1 + v ∧ w2 . As´ se prueba b) y an´logamente se obtiene a). i ∧ j = k. i. k ∧ j = −i. i ∧ k = −j 9) De 4.r (pw1 )+ v . j.8) resulta que si v = a1 i + a2 j + a3 k y w = b1 i + b2 j + b3 k. PRODUCTO ESCALAR Y VECTORIAL Como p (w1 + w2 ) = pw1 + pw2 y r (pw1 + pw2 ) = r (pw1 ) + r (pw2 ) tendremos que: v∧(w1 ∧ w2 ) = v . k ∧ i = j (es decir. j.r (p (w1 + w2 ))= v . entonces: v ∧ w = (a2 b3 − a3 b2 ) i − (a1 b3 − a3 b1 ) j + (a1 b2 − a2 b1 ) k.160 5. ı a 8) Si {i. k} es una base ortonormal positiva de V . j. k. · · · ) el producto de dos vectores sucesivos o da el que le sigue): j ∧ i = −k. j ∧ k = i.

5. o 5. e a ) Distancia de un punto a una recta: sea r una recta dada por un punto A y un vector v. w. dada una terna ortonormal cualquiera {i. r) = |d (Q. yo .k } o a (positiva o negativa). zo ).sen θ| = AQ .sen θ = AQ ∧ v v Si A = (xo . Aplicaciones geom´tricas. A) .w = 0.´ 5. por e lo tanto esta definici´n de v ∧ w coincide con la inicial. Q = (x. u} es tambi´n positiva. La distancia de Q a r es: d (Q. k} es una terna positiva a puede verificarse. Se comprueba entonces sin dificultad que el veco tor: u = (a2 b3 − a3 b2 ) i − (a1 b3 − a3 b1 ) j + (a1 b2 − a2 b1 ) k verifica u = v .v = u. w .9).5. puede definirse el producto de dos vectores por la expresi´n dada en 4. 161 Esta expresi´n del producto vectorial puede tambi´n tomarse como su deo e finici´n. z). y.j. Luego u = v ∧ w .sen θ y u. r) = [(y − y0 )c − (z − z0 )b]2 + [(x − x0 )c − (z − z0 )a]2 + [(x − x0 )b − (y − y0 )a]2 √ a2 + b2 + c2 . Si adem´s {i. APLICACIONES GEOMETRICAS. v = ai + bj + ck entonces la distancia es d(Q. j. M´s precisamente. que {v.

las de la forma: x = x0 + λp. PRODUCTO ESCALAR Y VECTORIAL EJEMPLO 5. P0 ⊥r    2 2 2z + (x − y)2 = 2z0 + (x0 − y0 )2 . r) = dist (P0 . por. Esto se puede hacer sin usar el producto vectorial. y0 . est´ en la direcci´n de la recta de intersecci´n de ambos). entonces: n = ai + bj + ck y n′ = a′ i + b′ j + c′ k son vectores normales a los planos. P ∈ C 0 0 0  x − x0 + y − y0 = 0. a o o ′ = (bc′ − b′ c) i− (ac′ − ca′ ) j + (ab′ − ba′ ) k es de la direcci´n Luego: n ∧ n o de r. z = z0 + λr (o tambi´n P = P0 + λv). y entonces n ∧ n′ es un vector de la intersecci´n de ambos planos o (luego. y = y0 + e λq. z0 ) de la recta y un vector v = p i + q j + r k de la direcci´n de r.162 5. Hallar la z=0 zy = 1 superficie de revoluci´n de eje r y generatriz C. En el punto 3 de este cap´ ıtulo se vieron algunas superx=y x=0 ficies de revoluci´n particulares.4. Para esto se necesita hallar un e punto P0 = (x0 . plano. π. o Las ecuaciones son:   x0 = 0. dist (P. r) eliminando x0 . z0 ) una soluci´n partio cular del sistema de ecuaciones. es decir. z0 resulta (x + y)2 z 2 − 2xy = 1 b)Intersecci´n de dos planos no paralelos: o ax + by + cz + d = 0 Sea r : una recta (dada como intersecci´n o a′ x + b′ y + c′ z + d′ = 0 de dos planos no paralelos). resolviendo el o sistema de ecuaciones ax + by + cz + d = 0 a′ x + b′ y + c′ z + d′ = 0 Usando el producto vectorial: tomar P0 = (x0 . Sea r o C : . y0 . Supongamos que queremos las ecuaciones param´tricas de esa recta. . P0 ∈ C    z y = 1. y0 . Si el sistema de coordenadas es ortogonal.

5. r ′ como el m´ ınimo de d (P. Es claro que este m´ ınimo se obtiene cuando la recta P P ′ es perpendicular al mismo tiempo a r y a r ′ . 163 c ) Distancia entre dos rectas: Se define la distancia d (r. si r y r ′ se cortan: d (r. π) u donde π es el plano paralelo a r que contiene a r’. Po = s ∩ r y P0 = s∩r ′ . r ′ ) = d P0 . r ′ )= 0. Como versor . (ver figura) . Sea r dada por un punto A ∈ r y un vector v de su direcci´n y r ′ por B ∈ r y un vector w.´ 5. r ′ ) entre dos rectas r. P0 = d (A. o Para tener d (r. Supongamos ahora que r y r’ no son coplanares. Si s es la perpendicular ′ ′ com´n . r ′ ). APLICACIONES GEOMETRICAS. entonces: d (r. r ′ ): si r y r’ son paralelas: basta tomar el punto A y hallar dist (A. P ′ ) donde P ∈ r y P ′ ∈ r ′ .

(D − A)| con n = (B−A)∧(C−A) |[(B−A)∧(C−A)]. a Si n es el versor normal a la base. pues v ∧ w es un vector de la direcci´n de s.164 5. El π’ por y A ∈ r. π) = v∧w v∧w . una perpendicular com´n es la recta perpendicular a una de ellas u trazada por un punto de la otra. Dada la direcci´n v de r y la w de r’. el plano π queda determinado por A. Las ecuaciones de π o y π’ as´ obtenidas constituyen un par de ecuaciones que representan la recta ı s. (D − A)| . Luego s = π ∩ π ′ . Si se interceptan . e ) Volumen de un tetraedro: Consideremos un tetraedro dado por sus v´rtices A. Luego : − − → (v ∧ w) . D. r ′ = d (A. Supongamos ahora que las dos rectas no son coplanares. el problema es tambi´n e f´cil de resolver. C. a La perpendicular com´n s est´ en el plano π de s y r. B.v y v ∧ w. Su volumen es V = 1 ´rea de la base × altura.w. la altura es |n. |[(B − A) ∧ (C − A)] . o nado por s y r ′ . Luego V = 1/6.v ∧ w. (B−A)∧(C−A) por lo que V = 1/6. e 3 a Tendremos: ´rea base = 1/2 (B − A) ∧ (C − A) .AB 1 v∧w d ) Perpendicular com´ n a dos rectas: Si las dos rectas son pau ralelas. PRODUCTO ESCALAR Y VECTORIAL de la direcci´n de s puede tomarse n = o d r. y en el π’ determiu a ′ . B ∈ r B.(D−A)| (B−A)∧(C−A) . (B − A) ∧ (C − A) .

luego: c1 c2 c3 a1 a2 a3 b1 b2 b3 = b1 b2 b3 c1 c2 c3 a1 a2 a3 = a1 a2 a3 b1 b2 b3 c1 c2 c3 . resulta que dos de esas permutaciones o no cambian el determinante. PRODUCTO MIXTO 165 5. v. (v ∧ w). b1 b2 c1 c2 c3 a1 a2 a3 b1 b2 b3 v ∧ w.6.6. llamamos producto mixto al n´mero (v ∧ w) .u. w = b1 i + b2 j + b3 k. k} y e sean: v = a1 i + a2 j + a3 k. o tambi´n u. Dados tres vectores o u.u que indicamos v ∧ u w. u = c1 i + c2 j + c3 k. Entonces: v∧w = a2 a3 b2 b3 a2 a3 i− b2 b3 a1 a3 b1 b3 a1 a3 b1 b3 j+ a1 a2 k. Consideremos un sistema ortonormal {i. j. y w.u = c1 − c2 + a1 a2 c3 = b1 b2 (Por desarrollo por la primer fila de ese determinante) Usando el hecho de que si se permutan dos filas de una matriz entre s´ el ı determinante s´lo cambia de signo.5. Producto mixto Es una operaci´n definida de V × V × V en R.

B. fila a la 1ra.. la 3da.w. PRODUCTO ESCALAR Y VECTORIAL En consecuencia: (v ∧ w) . b3 ) y C = (c1 . Observamos que (v. C − A) = 0. c3 ) esta ecuaci´n se escribe: o x − a1 y − a2 z − a3 b1 − a1 b2 − a2 b3 − a3 c1 − a1 c2 − a2 c3 − a3 x a1 b1 c1 y a2 b2 c2 z a3 b3 c3 1 1 1 1 = 0.w = u. C en otra forma.z). B − A y C − A son coplanares. As´ se tiene: ı x − a1 a1 b1 − a1 c1 − a1 y − a2 a2 b2 − a2 c2 − a2 z − a3 a3 b3 − a3 c3 − a3 0 1 0 0 x − a1 y − a2 z − a3 b1 − a1 b2 − a2 b3 − a3 c1 − a1 c2 − a2 c3 − a3 = = 0. Se puede entonces hablar del producto mixto de u. da lo mismo cualesquiera sean los tres vectores sucesivos. c2 . a2 . Es por esto que se escribe (u.v. Pasando a coordenadas. ´ tambi´n: o e = 0. v. B = (b1 . Como ´ng (v ∧ w.v.w o de u.A=(a1 . (v ∧ w). u) = π/2 o alguno o a de los vectores es el nulo. pues el resultado es el mismo.166 5.w. a a para que (v. y la e 4ta. si P=(x. v) = ´ng (v ∧ w.u) = 0 es necesario y suficiente que v. .u. Para ver esto obs´rvese que si se le resta la 2da.w ) el producto vectorial de dos vectores sucesivos mulo tiplicado escalarmente por el siguiente. b2 . que en la sucesi´n (u. Es decir. a3 ). w) = π/2 .v. w sin indicar si se trata de (u ∧ v) . o sea (P − A. w. B − A. (Obs´rvese que esto podr´ sacarse como conclusi´n del c´lculo del volumen e ıa o a del tetraedro.w = (w ∧ u) . filas. Esta condici´n permite escribir la ecuaci´n vectorial del plano dado por o o tres puntos A. el determinante no cambia. esto es equivalente a decir que los vectores son coplanares). Decir que P pertenece a ese plano equivale a decir que los vectores P − A.w. w y u sean coplanares. (v.w ) como notaci´n para o (u ∧ v) .u) = 0 si y s´lo si ´ng(v ∧ w. u) = 0 si y s´lo si el volumen del tetraedro determinao do por esos vectores es 0. (v ∧ w).v.y.u = (u ∧ v) .

Trataremos de hacer hincapi´ en las nociones geom´tricas e e simples que son comunes a otras ramas de la matem´tica y motivar en todo a lo posible en base al concepto de vectores en el espacio ambiente E estudiado en el cap´ ıtulo sobre Rectas y planos en el espacio. las n-uplas y los vectores del espacio ambiente. Ya hemos visto tres ejemplos de esto en nuestro curso: las matrices. En muchas ramas de la matem´tica aparecen conjuntos entre cuyos elea mentos se realizan combinaciones lineales. Tambi´n hemos obo e servado que estas propiedades son las mismas en los tres casos abordados hasta ahora. Pero el lector puede recordar otros ejemplos como las funciones continuas y los polinomios con los cual tambi´n se opera. en las ternas de n´meros o en las matrices. pero u 167 . enunciados y demostraciones de o nuestra teor´ ıa. Es decir a introducir un conjunto arbitrario con cuyos elementos se supone se puede operar con propiedades an´logas a las que por ejemplo tienen las a operaciones con n-uplas.CAP´ ıTULO 6 ESPACIOS VECTORIALES En este Cap´ ıtulo se introducir´ el concepto b´sico de este curso. En particular el lector podr´ recurrir frecuentemente a motivaciones baa sadas en los vectores de E. De este modo se desarrolla de una sola vez una teor´ que puede aplicarse a m´ltiples y a priori dis´ ıa u ımiles ejemplos. Naturalmente los ejemplos que nos motivaron y ser´n una constante fuente de a inspiraci´n para encontrar las definiciones. que a a es el del t´ ıtulo . En los ejemplos e desarrollados hasta el momento se hizo notar que muchos de los resultados obtenidos solo depend´ de las propiedades que ten´ las operaciones y ıan ıan no de otras particularidades del ejemplo en cuesti´n. Eso nos motiva a intentar un desarrollo abstracto de la teor´ ıa.

Realizar muchos ejercio cios con este nuevo concepto abstracto. +. llamado “vector nulo denotado con 0. Un concepto fundamental que re-aparecer´ en este cap´ a ıtulo es el de independencia lineal. cuya a comprensi´n y manejo fluido es una de las finalidades principales de este o curso. o el de los n´meros complejos C). Un espacio vectorial sobre un cuerpo K (que en este curso ser´ el de los n´meros reales R. cuya definici´n ya hemos establecido antes y que parece o particularmente simple. pero cuya comprensi´n en toda su riqueza -nuestra o experiencia lo indica. v.168 6.1. cuyo dominio es K × V y cuyo codominio es V (· : K × V → V ). K. a 3) Una operaci´n llamada suma de vectores.merece una atenci´n especial. a 2) El cuerpo K. es a u u una cu´drupla ordenada {V. es una recomendaci´n que hacemos amistosamente o al lector. y denotada con el s´ o ımbolo + cuyo dominio es el producto cartesiano V × V y cuyo codominio es V ( + : V × V → V quiere decir que u+v est´ definida para todo par (u. mucho m´s general.1. que verifica las siguientes propiedades: Para la suma: S1) Asociativa: (u + v) + w = u + (v + w) ∀ u. comprender bien como se le utiliza en diversas demostraciones. cuyos elementos se llamar´n escalares. ESPACIOS VECTORIALES el objeto en estudio es un concepto abstracto. v ∈ V S3) Neutro: Existe un elemento 0 ∈ V . 4) Una operaci´n llamada producto de un escalar por un vector. y deo notada con el s´ ımbolo · . tal que 0 + u = u + 0 = u. 6. ∀u ∈ V. 2 . Espacios vectoriales ´ DEFINICION 6. w ∈ V S2) Conmutativa: u + v = v + u ∀ u. ·} a 1) Un conjunto V = ∅ cuyos elementos se llamar´n vectores.v ) a ∈ V × V y da como resultado un elemento V ) .

1) Sean 01 y 02 dos neutros: 01 = 01 + 02 = 02 . A los espacios vectoriales sobre R se los llamar´ esa pacios vectoriales reales.4. denotado como −u. que se representa tambi´n con el s´ e ımbolo +. o R–espacios vectoriales. ´ OBSERVACION 6. ·}se cumple: 1) el neutro es unico.u+α.u P2) Multiplicaci´n por la unidad del cuerpo: 1. ∀ u ∈ V ´ OBSERVACION 6. En todo espacio vectorial {V. luego coinciden.u . o C–espacios vectoriales. ´ PROPOSICION 6. En P4) la suma de escalares (suma dentro de K) se escribi´ con el s´ o ımbolo + pero no hay que confundirla con la suma dentro de V . de las o n-uplas de n´meros reales. El lector comparar´ estas propiedades de la defia nici´n de espacio vectorial con las propiedades de los vectores de E. o de las matrices con sus operaciones de suma y u producto por un escalar. tal que u + (−u) = (−u) + u = 0. 2) Sean (−u)1 y (−u)2 dos opuestos de u: (−u)1 = 0 + (−u)1 = ((−u)2 + u) + (−u)1 = (−u)2 + (u + (−u)1 ) = (−u)2 + 0 = (−u)2 .u = α.u) = (α. ∀α. espacios vectoriales complejos.6. (u + v) = α. (β.u = u . ´ ´ Demostracion. A los espacios vectoriales sobre C.1. ∀ u. ESPACIOS VECTORIALES 169 S4) Opuesto: Para cada vector u ∈ V . A veces.2.. v ∈ V P4) Distributiva respecto de suma de escalares (α + β) . . ´ 2) Para cada vector u ∈ V su opuesto −u es unico.v . K.β) . Para el producto: P1) α. ´ OBSERVACION 6.u + β. ∀ ∈ K. ∀ u ∈ V o P3) Distributiva respecto de suma de vectores:α.3.1. +. luego son iguales. β ∈ K. existe un vector llamado “opuesto de u”.

. bn ) = (a1 + b1 . λ. . . 6.a2 . o def EJEMPLO 6. Notaci´n: El s´ o ımbolo = quiere decir que el miembro de la izquierda esta siendo definido mediante la expresi´n de la derecha. . a3 ) = (λ. R. . +. 0. · · · . 0) y − (a1 . a2 . . b2 . V = R × R × . V es el conjunto de ternas ordenadas de n´meros reales u 3 y K =R y definimos las operaciones + y · como sigue: V =R suma: (a1 . EJEMPLO 6. a2 . a3 ) + (b1 . Si V es el conjunto de vectores del espacio. . an ) = (λ. Es f´cil ver que {Rn . · · · . λ. En general si V es el conjunto de las n-uplas ordenadas de n´meros reales. a2 + b2 .a2 .2. . K = V y las operaciones + y · son las definidas en el cap´ ıtulo 2. . . . . .K = R y las operaciones son: u (a1 . .a1 . a2 .2. an ) + (b1 . .a3 ) para todo λ ∈ R y todas las ternas de R3 . λ. . −a2 .1. . an ) = (−a1 . . an + b1 ) y adem´s a def def λ · (a1 .3. a2 .a1 . × R = Rn . sobreentendiendo el cuerpo K y las operaciones + y ·. . Las operaciones definidas en este ejemplo se llaman usuales de Rn . .an ). λ. obtenemos un espacio vectorial real.170 6. −an ). Ejemplos de espacios vectoriales EJEMPLO 6. ·} es a un espacio vectorial sobre R. . ESPACIOS VECTORIALES por abuso de lenguaje los espacios vectoriales se indican por el conjunto de vectores V . con 0 = (0. b2 . . a2 . · · · . . a3 + b3 ) def def producto: λ · (a1 . a2 + b1 . b3 ) = (a1 + b1 .

. y sean la suma usual de polinomios y el producto usual de un n´mero por un polinomio. . con las operaciones usuales de suma de funciones y producto de un n´mero real por una funci´n. +.. . ..4.. ..3 tomando jos V = C K = C forma un C-espacio vectorial {Cn . a2 . . b] → R. C. El vector nulo es a la sucesi´n que tiene todos sus t´rminos iguales a cero.5. . El conjunto de todas las funciones f : [a. λ · an ) = {λ · an } Es f´cil comprobar que es un espacio vectorial real . b]. u K = R. El conjunto de las n-uplas ordenadas de n´meros compleu n con las operaciones definidas como en el ejemplo 6. f+g = h donde h( x) = f(x)+g(x) ∀x ∈ [a. Es decir: u o λ · f = k donde k (x) = λf (x) ∀ x ∈ [a. EJEMPLOS DE ESPACIOS VECTORIALES 171 EJEMPLO 6. Sea P el conjunto de todos los polinomios en una variable con coeficientes reales. def def def def EJEMPLO 6. Sea V el conjunto de las sucesiones de n´meros reales. an ) = (λ · a1 . R. forma un R-espacio vectorial.) = {an + bn } (la suma de dos sucesiones es definida como la sucesi´n que se obtiene suo mando los t´rminos n-´simos de las sucesiones dadas). an + bn . y las operaciones + y · definidas como sigue: Dadas {an } y {bn }∈ V . . ·)}. e e λ · {an } = λ · (a1 . sea K = R. {P.. a2 + b2 . Se verifica adem´s o e a − {an } = {−an } def def EJEMPLO 6.7.2. b] .6. +. ·} es un R–espacio u vectorial. EJEMPLO 6. λ · a2 . y dado λ ∈ R: {an } + {bn } = (a1 + b1 . . . .6.

. hay que verificar que se cumplen las propiedades incluidas en la definici´n 1. Las sucesiones de n´meros complejos con la suma de suu cesiones y el producto de una sucesi´n por un n´mero complejo definidos en o u forma similar al ejemplo 6. El conjunto de los polinomios de grado menor o igual a n.10.9.8. ·} un espacio vectorial real (distinto del ejemplo 6. ·} es un R-espacio vectorial a distinto al del ejemplo 6.5.172 6. puesto que C difieren en el cuerpo K). forman un espacio vectorial real. ∀ α ∈ K. resulta a a n .1. R. +.5. Sea V el conjunto de sucesiones de n´meros complejos.4 y la del ejemplo 6. u e Si K = R.4 Entonces {V. para la suma y el producto por o escalares. +.11. Si K = R.7 . R. y las operaciones en Cn se definen en forma an´loga al ejemplo anterior (y en forma an´loga al ejemplo 6. para verificar que efectivamente son espacios vectoriales. El conjunto {0} es un K-espacio vectorial. En todos los ejemplos anteriores.9 EJEMPLO 6. ESPACIOS VECTORIALES EJEMPLO 6. K = R.3). EJEMPLO 6. ´ OBSERVACION 6. + : V × V → V y · : R × V → V. y la suma y producto por un real definido como en el ejemplo 6. operaciones ´stas definidas an´logamente al ejemplo 6. EJEMPLO 6.12. donde se define 0+0=0 y α · 0 = 0 . EJEMPLO 6. en una variable x (este conjunto se indica con Pn ).4 constituyen un C-espacio vectorial.

´ PROPOSICION 6. Entonces . 0 = α · u − α · u = = α · 0 + u − α · u = α · 0 + α · u − α · u = α · 0 + (α · u − α · u) = = α · 0 + 0 = α · 0.9. (−1) .6. 0 · u = 0 · u + 0 = 0 · u + (u − u) = (0 · u + 1 · u) − u = (0 + 1) · u − u = 1 · u − u = u − u = 0 ´ PROPOSICION 6. Sea u un vector cualquiera de V. Como α · u = 0. Con las operaciones usuales {R. o sea 1 · u = 0 entonces. ·} no es un espacio vectorial. ´ PROPOSICION 6. Rec´ ıproco: son las Proposiciones 6.7 y 6. ´ OBSERVACION 6. Basta ver que (−1) v es el opuesto de v.v = 1. u ∈ V . ´ PROPOSICION 6. α · 0 = 0 .6. Sean α ∈ K .7. α · u = 0 si y s´lo o si : α = 0 y/o u = 0. C.2.5. K = R y la suma y el producto definidos como en el ejemplo 6. Directo: Supongamos que α = 0. Se denota u − v a la suma u + (−v) con u. con coeficientes reales. 0 · u = 0 . El conjunto de los polinomios en una variable x. de grado igual a n.8.10. 1 1 (α · u) = α · 0 de donde α · α · u = 0. v ∈ V . ∀α ∈ K ´ Demostracion.v = 0 1 α · .v + (−1) v = (1 + (−1)) v = 0.v = −v ∀v ∈ V ´ Demostracion. es decir v + (−1) . no forman un espacio vectorial ( Estudiar por qu´ no).14. ´ Demostracion. u = 0. ∀u ∈ V ´ Demostracion. EJEMPLOS DE ESPACIOS VECTORIALES 173 EJEMPLO 6.8. e EJEMPLO 6.13. +.

“cerrado” frente a la suma y al producto de escalares por vectores. z) ∈ R3 : ax + by + cz = 0}. El otro ´ subespacio trivial es W = V .3.15.174 6. z1 ) y p2 = (x2 . ·} un espacio vectorial y W = ∅ un subconjunto no vacio de V. y1 + y2 . 0. z1 + z2 ) = q . pues 0 = (0. La ultima igualdad ´ es consecuencia de la Proposici´n 6. y1 . EJEMPLO 6.7. En efecto como W = ∅ existe w ∈ W y como W es cerrado para la multiplicaci´n por o escalares λw ∈ W . W es subespacio de V . y2 . Los primeros ejemplos y los m´s sencillos. Entonces π es un subespacio de R3 En efecto π = ∅. π = {(x. de subespaa cio vectoriales. Si W es un subespacio. En particular 0. un subespacio de un espacio vectorial es un conjunto no vac´ ıo.2. z2 ) = (x1 + x2 . x2 . 0) ∈ π y es cerrado para las operaciones. o EJEMPLOS DE SUBESPACIOS VECTORIALES EJEMPLO 6. En ambos casos. x3 ) + (x2 . y2 . ESPACIOS VECTORIALES 6. el vector nulo). ∀λ ∈ K. entonces 0 ∈ W . Verifiquemos primero que la suma es cerrada p1 + p2 = (x1 . son los llamados subespacios triviales.16. Sean p1 = (x1 . ´ OBSERVACION 6. z2 ) dos puntos de π y λ un escalar cualquiera. y. K.w = 0 ∈ W .11. si se cumple: a) w1 + w2 ∈ W para todo w1 ∈ W y w2 ∈ W b) λ w ∈ W para todo w ∈ W y λ ∈ K Es decir. Uno de ellos es W = 0 (conjunto formado por un unico elemento. Diremos que W es un subespacio de V. Sea π un plano del espacio por el origen. Sea {V. +. Subespacios ´ DEFINICION 6.

SUBESPACIOS 175 y q ∈ π. pues p1 ∈π =0. pues p1 ∈π a(λx1 ) + b(λy2 ) + c(λz1 ) = λ ax1 + by1 + cz1 = 0 Si en cambio se considera un plano π que no pase por el origen entonces su ecuaci´n ser´ ax + by + cz = d con d = 0. Para ver que el elemento q pertenece al conjunto π es necesario. pues p2 ∈π a(x1 +x2 )+b(y1 +y2 )+c(z1 +z2 ) = ax1 + by1 + cz1 + ax2 + by2 + cz2 = 0 Veamos ahora que π es cerrado para la multiplicaci´n por escalares.3. verificar que q cumple las condici´n e o o l´gica de pertenencia. z1 ) = (λx1 . λz1 ) = q ′ y q ′ ∈ π pues =0. y1 . Es adem´s f´cil ver que no es cerrado a a para las operaciones si p1 y p2 son dos puntos de π su suma q = p1 + p2 no pertenece a π tal como se ve en el dibujo. Obs´rvese que π = ∅ pero 0 ∈ π o a e / en consecuencia no es un subespacio. λy1 . esto es sus coordenadas deben verificar la ecuaci´n o o ax + by + cz = 0 =0. dado que ´ste esta definido por comprensi´n.6. Compruebe el lector esto anal´ ıticamente. o λp1 = λ(x1 . q = p1 + p2 π p2 p1 0 .

entonces afirmar que los subespacios de Rn son exactamente los conjuntos soluci´n de los sistemas homog´neos de ecuaciones.42 o       x1 + x2 x1 x2 a b c  a b c       y1 + y2  =  y1  +  y2  = ′ b′ c′ a a′ b′ c′ z1 + z2 z1 z2     x1 x2 a b c  0 a b c    =  y1  +  y2  = ′ b′ c′ ′ b′ c′ a a 0 z1 z2 =( 0 ). y1 . z) ∈ r si y solo si e  a b c a′ b′ c′  x    y = z (6. pues p2 ∈r 0 El lector verificara que λp1 = q ′ ∈ r. z) ∈ R3 : ax + by + cz = 0. desde un punto de vista m´s geom´trico es natural entonces a e . o e Es correcto.42) 0 0 Sean p1 = (x1 . ESPACIOS VECTORIALES EJEMPLO 6. Es claro que para verificar que p1 + p2 pertenece a r s´lo tuvimos que usar o la propiedad distributiva del producto de matrices por lo tanto en general si A ∈ Mm×n es una matriz cualquiera y S = {X ∈ Rn : A·X = 0} ⊂ Rn es el conjunto soluci´n del sistema homog´neo de matriz A entonces S es un o e subespacio de Rn . y2 . para verificar esto veremos que las coordenadas de q = (x1 + x2 .17. y1 + y2 . y. a′ x + b′ y + c′ z = 0} Obs´rvese que (x. y. Es decir que n si S es un subespacio cualquiera de R existe A ∈ Mm×n tal que S es el conjunto soluci´n del sistema homog´neo AX = 0. z1 ) y p2 = (x2 . o e Por otra parte. pues p1 ∈r 0 =( 0 ).176 6. r = {(x. Sea r un recta por el origen entonces r es un subespacio vectorial de R3 . z2 ) dos puntos de r y λ ∈ R entonces q = p1 + p2 pertenece a r. De hecho veremos m´s adelante que el rec´ a ıproco es verdadero. z1 + z2 ) verifican la condici´n 6.

21.19.22. as´ como tambi´n lo es el producto de una funci´n o ı e o continua por un escalar. an ) ∈ Rn : ai = 0} con i fijo 0 < i n.8) . Entonces Pn es un subespacio de P. tienen u e todos los t´rminos restantes iguales a cero.18. Sea V el espacio vectorial del ejemplo 6. es decir W es el conjunto de las n-uplas con la i-´sima e n. componente nula. EJEMPLO 6. En las sucesiones de n´meros reales (ejemplo 6. f : [a.4) sea W u el conjunto formado por las sucesiones que a partir de alg´n t´rmino.20. +. o EJEMPLO 6. EJEMPLO 6.. SUBESPACIOS 177 pensar esquem´ticamente los subespacios de Rn (y de hecho. . los de un espacio vectorial de dimensi´n finita cualquiera 1 a o como la generalizaci´n de los planos y rectas por el origen de E. Sea P el espacio vectorial de los polinomios definido en el ejemplo 6. En {Rn .3. N´tese que si consideramos s´lo o o el conjunto de polinomios de grado exactamente n con n ≥ 1 no constituyen subespacio de P pues el polinomio nulo tiene grado 0. b] el conjunto de las funciones f que son continuas.. Recordar que la suma de funciones continuas es una funci´n continua. En {R3 . a2 . EJEMPLO 6. y sea C[a. b] es un subespacio de V. Sea Pn el subconjunto de los polinomios de grado menor o igual que n. Entonces C[a. b] → R.5. e Verificar que W es un subespacio del espacio vectorial V.6. R. como veremos a m´s adelante.. 1 Para entender que es un espacio de dimensi´n finita v´ase m´s adelante la definici´n o e a o 6. a3 ) ∈ R3 tales que a3 = 0 entonces W es un subespacio de V. Entonces W es un subespacio de R EJEMPLO 6.6. +. ·} sea W = {(a1 . ·} W= (a1 . R.

Es un subespacio.178 6.25. ·} entonces {W.23. ESPACIOS VECTORIALES EJEMPLO 6. a2k = 0}. K. K. +. +. ·} el espacio vectorial del ejemplo 6.7 {Cn .26.9 de las sucesiones de n´meros complejos u sobre el cuerpo C. C. +. En este ejemplo es e importante que el cuerpo K sea R y no C.24. porque al sumar dos elementos de W. R.1. Se e n puede verificar que es un subespacio de C . C. es un espacio vectorial sobre el mismo cuerpo K. ·} con las operaciones + y · “heredadas”de V. Este subconjunto W e no es un subespacio. Las o operaciones + y · en W son las mismas que en V s´lo que restringidas a W o (esto es definidas s´lo para los elementos de W ). +. EJEMPLO 6. con las operaciones usuales. ·} tambi´n es un espacio e vectorial es decir se cumplen todas las condiciones de la definici´n 6. En el ejemplo 6.8 Sea W ’ el subconjunto formado por las n-uplas de n´meros complejos cuyos u t´rminos tienen parte real igual a cero. ´ Demostracion. +. TEOREMA 6. K. +. EJEMPLO 6. EJEMPLO 6. Hay que probar que si {V. o Como W es cerrado para las operaciones estas quedan bien definidas es decir . ·} no es un subespacio. En el espacio del ejemplo 6. En el espacio de las n-uplas de complejos (ejemplo 6. ·} sea W el subconjunto de las n-uplas cuyo primer t´rmino es 5+2i . Observar que el mismo subconjunto W ’. Si W es un subespacio de {V. considerado como subconjunto del espacio vectorial {Cn .12. el resultado no pertenece a W. Sea {Cn . sea W el subconjunto de las sucesiones que tienen igual a cero los t´rminos que est´n en lugar par: e a W = {{an } : an ∈ C. ·} es espacio vectorial y W ⊂ V es subespacio de V entonces {W. Entonces W es un subespacio.7) sea W un subconjunto de las n-uplas cuya suma de t´rminos da cero. K. +.

con ciertas operaciones + y · es un espacio vectorial. Esto prueba la existencia del opuesto en W y concluye o la prueba. Entonces W = ∩ Wi es tambi´n un subespacio de V. ´ OBSERVACION 6. e pero a priori podr´ ocurrir que −w ∈ W . 2. Veremos que esto no es posible si ıa / W es no vac´ y cerrado para las operaciones.11 vimos que 0 ∈ W y como 0 + v = v + 0 = v. alcanza ver si W es un subespacio de alg´n V.. Adem´s W ⊂ V puesto que W ⊂ Wi ⊂ V ∀ i = 1. ∀λ ∈ K.. Por lo tanto (−1)w = −w ∈ W .3. . Naturalmente que si w ∈ W ⊂ V es un elemento cualquiera de W entonces tambi´n lo es de V y por lo tanto existe −w ∈ V .10. Adem´s en la observaci´n 6. subespacios de un mismo espacio V..13. Este teorema permite ver en forma f´cil si un cierto a conjunto W sobre un cuerpo K. SUBESPACIOS 179 + : W ×W → W y · : K×W → W . En primer lugar W = ∅. En ´sta ultima igualdad se uso e ´ la proposici´n 6. Sean W1 . que ya se sepa tiene u estructura de espacio vectorial. Wn . W2 . en efecto: el vector 0 pertenece a todos los subespacios Wi . en lugar de verificar todas las condiciones de la definici´n o 6. Para lo cual alcanza con probar que W es cerrado con respecto a la suma y cerrado con respecto al producto de un escalar por un vector. TEOREMA 6.1. n a . Por otra parte las propiedades asociativa y conmutativa de la suma y todas las del producto se verifican en W pues se verificaban para cualesquiera vectores de V y W ⊂ V .. a o ∀v ∈ V entonces tambi´n ser´ esto cierto ∀v ∈ W pues W es un subconjunto e a de V .6. Resta entonces s´lo verificar o la existencia del opuesto. en efecto sea w ∈ W . . En efecto. como W ıo es cerrado para las operaciones se tiene que λw ∈ W.. e i=1 n ´ Demostracion.14. Por lo tanto la suma en W tiene neutro. y por lo tanto pertenece tambi´n a su intersecci´n e o W. en particular si λ = −1..

. λ2 .. Hasta ahora hemos o probado que [A] es cerrado respecto a la suma. Luego w + w′ ∈ Wi ∀ i = 1. 2. .w o ∈ [A]. o sea a W.. es decir: [A] = v ∈ V tales que : v = λ1 v1 + .. Sean ahora v. λn tales que : v = λ1 v1 + λ2 v2 + . que generalizan los conceptos vistos en el Cap´ ıtulo 2 ´ DEFINICION 6.180 6... Entonces v +w = α1 v1 +α2 v2 +. .... ... βm tales que v = α1 v1 +α2 v2 +. . . 2. De all´ α·w ∈ Wi ∀ i = 1. v2 .. αn . w1 . w2 . .. dependencia o o e independencia lineal de vectores en espacios vectoriales cualesquiera..+ βm wm . vn . Ahora sean α ∈ K y w ∈ W . [A] es distinto de vac´ porque dado alg´n vector v de A.+αn vn y w = β1 w1 +β2 w2 +... Subespacio generado e independencia lineal En esta Secci´n daremos definiciones de combinaci´n lineal.. entonces w y w′ ∈ Wi para cada i = 1... wm pertenecientes a A (no necesariamente distintos) y existen α1 . n. ´ Demostracion. Entonces α·w ı pertenece a la intersecci´n de todos los Wi . Sean w y w′ ∈ W .4.+αn vn +β1 w1 +β2 w2 +.. β1 ... . 2.. Sean V un espacio vectorial y A = ∅. . ıo u se tiene 0 = 0·v ⇒ 0 es combinaci´n lineal de v ⇒ 0 ∈ [A]. + λn vn Si A es un subconjunto no vac´ de V.... o 6. v1 .. α2 . + λp vp con λi ∈ K.... . .. Entonces w + w′ ∈ W ...+βm wm . v2 .. Entonces [A] es un subespacio de V..3.... n (puesto que Wi son subespacios). Sea V un espacio vectorial. n. Esto quiere decir que existen vectores v1 .15.. n (puesto que Wi son subespacios). vi ∈ A ∀i . Decimos que v es combinaci´n lineal (c.. v + w es combinaci´n lineal de elementos de A. β2 . A ⊂ V . .. vn cuando existen o escalares λ1 . Se tiene w ∈ Wi ∀ i = 1. ESPACIOS VECTORIALES Falta probar que W es cerrado frente a la suma de vectores y al producto de un escalar por un vector.. se indica con [A] al conjunto de ıo todas las combinaciones lineales de elementos de A. . v2 . O sea. vn vectores de V. TEOREMA 6.. 2..l..) de v1 .

. e o [A] es cerrado respecto al producto de un escalar por un vector. ´ DEFINICION 6. c) ∈ R3 : c = 0} determinar un generador de S. 0) = a(1. 1.6.. Es decir si cualquier elemento de S es combinaci´n lineal de A. tales que: v = α1 v1 + α2 v2 + . 0. 0) + (0. 0). 0) . Sea α1 y α2 reales tales que   α1 = a  (a. A un subconjunto de V.+(λ·αn ) vn y obtenemos que λv tambi´n es combinaci´n lineal de vectores de A.b y c. b. 0)} ¿A−→V ?.28. + αn vn ) = (λ·α1 ) v1 +. v2 .. b. .4. (0.27. EJEMPLO 6. α2 .. Como v ∈ R3 si y solo si existen a y b reales tal v = (a.3)... Sea V = R3 y S = {(a. 0) + α2 (0. 0) ⇐⇒ α =b  2  0=c g Es claro que el sistema anterior es compatible si y solo si c = 0 entonces A no genera R3 .. b. Sea V un espacio vectorial y S ⊂ V un subespacio decimos que A ⊂ S es un generador de S si [A] = S. Luego. o g Notaci´n: Si A es un generador de S pondremos A −→ S o EJEMPLO 6. c) = α1 (1. + αn vn Entonces: λ·v = λ· (α1 v1 + α2 v2 + . 0) + b(0.. 0. 1. 1. Sea v = (a. Sea V un espacio vectorial.5 (Conjunto generador). b. 0) = (a.. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL 181 Sea ahora λ ∈ K y sea v ∈ [A]. 0. c) ∈ R3 un vector cualquiera de R3 para que A genere a R3 debemos poder escribir v como combinaci´n lineal de A cuales quiere sean o a. . vn ∈ A. O sea. 0.4 (Subespacio generado). (ver definio ci´n 6.. Decimos que [A] es el subespacio generado por A. [A] es un subespacio. b. Existen escalares α1 . ´ DEFINICION 6. αn y vectores v1 . Sea V = R3 y A = {(1...

182

6. ESPACIOS VECTORIALES

entonces A = {(1, 0, 0), (0, 1, 0)}−→S.

g

EJEMPLO 6.29. Sea V = M2×2 y S = {A ∈ M2×2 : A = At } ⊂ M2×2 el subespacio (verificarlo) de las matrices sim´tricas 2 × 2. Determinemos e a b un generador. Para eso observemos que A = ∈ S si y solo si b = c. c d Entonces A ∈ S si y solo si existen a, b, d reales tales que A= a b b d = a 0 0 0 + a 1 0 0 0 0 1 1 0 0 b b 0 1 0 0 0 , + 0 0 0 d +b 0 1 1 0 −→S
g

= +d 0 0 0 1

Entonces G =

,

0 0 0 1

EJEMPLO 6.30. Sea V = P2 y S = {p ∈ P2 : p tiene termino independiente nulo} Entonces, sea p tal que p(x) = ax2 + bx + c, p ∈ S si y solo si c = 0 es decir p ∈ S si y solo si existen a, b reales tales que p(x) = ax2 + bx pero entonces si ponemos pi ∈ P2 tal que pi (x) = xi , con i = 0, 1, 2 tenemos que p ∈ S si y solo si existen a y b reales tales que p = ap2 + bp1 . Entonces g G = {p2 , p1 }−→S

´ PROPOSICION 6.16. Sea V un subespacio vectorial y A un subconjunto finito de V, o sea A = {v1 , v2 , ..., vn } ⊂ V . Si vk es combinaci´n lineal de o los dem´s vectores de A, entonces [A] = v1 , v2 , ...vk−1 , vk+1 , ..., vn a

6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL

183

´ Demostracion. Toda combinaci´n lineal de vectores de o v1 , v2 , ...vk−1 , vk+1 , ..., vn es tambi´n una c.l. de vectores de A (basta agregar el vector vk multiplicado e por el escalar 0), es decir v1 , v2 , ...vk−1 , vk+1 , ..., vn ⊂ [A]. Ahora hay que probar al rev´s: que toda c.l. de vectores de A es c.l. de e vectores de v1 , v2 , ...vk−1 , vk+1 , ..., vn . Se sabe que (6.43) vk = α1 v1 + α2 v2 + ...αk−1 vk−1 + αk+1 vk+1 + ... + αn vn .

Sea u ∈ [A] entonces u es c.l. de A, tendremos: u = λ1 v1 + λ2 v2 + · · · + λk−1 vk−1 + λk vk + λk+1 vk+1 + · · · + λn vn . Sustituyendo vk por la expresi´n (6.43), resulta: o u = (λ1 + λk α1 )v1 + · · · + (λk−1 + λk αk−1 )vk−1 + + (λk+1 + λk αk+1 )vk+1 + · · · + (λn + λk αn )vn . O sea, u es c.l. de v1 , v2 , ...vk−1 , vk+1 , ..., vn como quer´ ıamos probar. ´ DEFINICION 6.6 (Independencia y dependencia lineal). Sea V un espacio vectorial, A = {v1 , v2 , ..., vn } ⊂ V . Decimos que el conjunto es linealmente independiente (L.I.) si y s´lo si dados escalares λ1 , λ2 , . . . , λn tales o que: λ1 v1 + λ2 v2 + · · · + λn vn = 0 implica λ1 = λ2 = · · · = λn = 0. Decimos que el conjunto A es linealmente dependiente (L.D.) cuando no es L.I.. Es decir, un conjunto es L.I. cuando la unica combinaci´n lineal de sus ´ o elementos que da el nulo es la trivial, esto es la que tiene todos los coeficientes nulos. Por el contrario es L.D. si existe alguna combinaci´n no trivial (alg´n coeo u ficiente distinto de cero) de sus elementos que de el nulo.

184

6. ESPACIOS VECTORIALES

El lector debe remitirse a la secci´n 2.5 del cap´ o ıtulo 2 por ejemplos en R , no obstante esto veremos aqu´ algunos ejemplos nuevos. ı
n

EJEMPLO 6.31. Sea V Entonces {v } es L.I..

un espacio vectorial, v = 0 un vector de V. 0 es L.D.

EJEMPLO 6.32. Sea V un espacio vectorial,

EJEMPLO 6.33. Sean v1 , v2 , . . . , vn ∈ V (V espacio vectorial ), entonces 0, v1 , v2 , ...., vn es l.d

EJEMPLO 6.34. Sea V = M2×2 y G= 1 0 0 0 , 0 1 1 0 , 0 0 0 1

entonces G es L.I. en efecto sean λ1 , λ2 , λ3 reales tales que λ1 1 0 0 0 ⇐⇒ entonces G es L.I. + λ2 0 1 1 0 = + λ3 0 0 0 0 0 0 0 1 = 0 0 0 0 ⇐⇒

λ1 λ2 λ2 λ3

  λ1 = 0  ⇐⇒ λ =0  2  λ3 = 0

EJEMPLO 6.35. Sea A = {q1 , q2 , q3 , q4 } ⊂ P2 donde q1 (x) = x+1, q2 (x) = x2 + x − 1, q3 (x) = x2 + 2x y q4 (x) = x2 − 2, investiguemos la dependencia lineal de A. Sean λ1 , λ2 , λ3 , λ4 reales tales que (6.44) λ1 q1 + λ2 q2 + λ3 q3 + λ4 q4 = 0 ⇐⇒ λ1 q1 (x) + λ2 q2 (x) + λ3 q3 (x) + λ4 q4 (x) = 0, ∀x ∈ R ⇐⇒

λ1 (x + 1) + λ2 (x2 + x − 1) + λ3 (x2 + 2x) + λ4 (x2 − 2) = 0, ∀x ∈ R ⇐⇒ (λ2 + λ3 + λ4 )x2 + (λ1 + λ2 + 2λ3 )x + (λ1 − λ2 − 2λ4 ) = 0, ∀x ∈ R

6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL

185

de donde utilizando el teorema de identidad de polinomios2 se deduce que (6.44) se cumple si y solo si λ1 ,λ2 , λ3 y λ4 verifican el sistema homog´neo: e   λ2 + λ3 + λ4 = 0  (S) λ + λ2 + 2λ3 = 0 .  1  λ1 − λ2 − 2λ4 = 0 Escalerizando y resolviendo (S) se deduce que es un sistema compatible indeterminado y que Sol(S) = (λ1 , λ2 , λ3 , λ4 ) ∈ R4 : λ1 = λ4 − λ3 , λ2 = −(λ3 + λ4 ), λ3 , λ4 ∈ R Por lo tanto (S) admite soluciones no triviales y consecuentemente tambi´n e (6.44) por lo cual G es L.D. Observemos tambi´n que sustituyendo la soluci´n obtenida en (6.44) se tiene e o que ∀ λ3 y λ4 ∈ R (λ4 − λ3 )q1 − (λ3 + λ4 )q2 + λ3 q3 + λ4 q4 = 0, =⇒ poniendo λ3 = 0 y λ4 = 1 tenemos, q4 = −q1 + q2 Esto es un vector de A result´ combinaci´n lineal de los restantes. o o ´ OBSERVACION 6.17. Las definiciones L.I. e L.D. se dieron para conjuntos finitos, pero son aplicables tambi´n a conjuntos con una cantidad e infinita de vectores en un espacio vectorial. Si A es infinito., A⊂V . V espacio vectorial, decimos que A es L.I. cuando cualquier subconjunto finito de A es L.I. Decimos que A es L.D. cuando no es L.I. (es decir, cuando alg´n u subconjunto finito de A es L.D.).

EJEMPLO 6.36. Sea V = P el espacio vectorial de todos los polinomios de una variable x con coeficientes reales y sea A = {pi ∈ P : i ∈ N}, donde pi (x) = xi . Entonces A es un conjunto L.I. con infinitos elementos, pues cualquier subconjunto B ⊂ A finito que consideremos contiene una
Recordamos al lector el enunciado de este resultado: dos polinomios de coeficientes reales o complejos son iguales si y solo si los coeficientes de las potencias respectivas son iguales
2

186

6. ESPACIOS VECTORIALES

cantidad finita de polinomios de diferentes grados lo cual implica que B es L.I. (verificarlo). Veremos ahora un resultado que generaliza la proposici´n 2.14 del cap´ o ıtulo 2 y lo visto en el ejemplo 6.35; un conjunto de m´s de un vector es L.D. a si y solo si uno de los vectores es combinaci´n lineal de los dem´s. M´s o a a a´n, probaremos que la dependencia lineal se da s´lo cuando un vector del u o conjunto se puede despejar en funci´n (lineal) de los anteriores. o ´ PROPOSICION 6.18. Sea V un espacio vectorial, y A un conjunto ordenado contenido en V, que tiene m´s de un elemento, tal que v1 no es el a vector nulo: A = {v1 , v2 , ..., vn } ⊂ V con n > 1, v1 = 0. Entonces: A es L.D. si y s´lo si existe vk ∈ A (1 k n) tal que vk es o combinaci´n lineal de los k-1 vectores anteriores v1 , ..., vk−1 . o ´ Demostracion. (⇐) Sabemos que existe vk ∈ A, 1 de los anteriores: k n, tal que vk es combinaci´n lineal o

vk = λ1 v1 + λ2 v2 + ... + λk−1 vk−1 o sea 0 = λ1 v1 + λ2 v2 + · · · + λk−1 vk−1 + (−1)vk + 0 · vk+1 + · · · + 0 · vn . Tenemos as´ una combinaci´n lineal de los vectores de A, con no todos ı o los coeficientes iguales a cero (porque el coeficiente de vk es -1), que da el vector nulo. Por definici´n A es L.D. o (⇒) Ahora, sabiendo que A es L.D. y que v1 = 0, hay que probar que un vk es combinaci´n de los anteriores vectores de A. o Por ser L.D. existen λ1 , λ2 , . . . , λn escalares no todos nulos tales: λ1 v1 + λ2 v2 + ... + λn vn = 0. Sea k el mayor i tal que λi = 0 ⇒ λi = 0 ∀i > k y λk = 0. Resulta k > 1, porque sino ser´ λ1 v1 = 0, λ1 = 0 ⇒ v1 = 0 (contrario a la hip´tesis). ıa o

e.19. v2 . si y s´lo si un vector es combinaci´n lineal de los dem´s. λk vk = −λ1 v1 − · · · − λk−1 vk−1 y como λk = 0 se deduce que: vk = − λ λ1 v1 − . vk−1 como se quer´ probar. si y solo si ning´n vector de A es u combinaci´n lineal de los restantes. no solo asoci´bamos coordenadas a los puntos del espacio E sino que a tambi´n asoci´bamos coordenadas a los vectores del espacio V . BASE DE UN ESPACIO VECTORIAL Y DIMENSION 187 Entonces λ1 v1 + · · · + λk vk = 0 y despejando. ´ DEFINICION 6.D. fijado un sistema de coordenadas a cada punto del espacio le corresponde una unica terna or´ denada de n´meros reales. o ıa ´ OBSERVACION 6. v2 .I. asociar a cada uno de ellos e una ecuaci´n) tal como vimos en el cap´ o ıtulo 4. . . λk λk Entonces vk es combinaci´n lineal de v1 .... En la construcci´n que all´ hio ı cimos.. Sea V un espacio vectorial y A = {v1 . o o a COROLARIO 6.I. . . .. Sea V un espacio vectorial y A= {v1 .5.7 (Base de un espacio vectorial). . De lo anterior se deduce en particular que un conjunto es L. vn }⊂ V (A finito). Base de un espacio vectorial y dimensi´n o La idea central de la Geometr´ Anal´ ıa ıtica es que. vn } un subconjunto cualquiera entonces A es L.. ..5. − k−1 vk−1 .´ 6.20. es decir [A] = V . Veamos como e a es posible generalizar esto a un espacio vectorial cualquiera.. Esto correspondencia permite tratar de manera u anal´ ıtica los objetos geom´tricos del espacio (i. b) A genera a V . Decimos que A es base de V si y s´lo si o a) A es un conjunto L. o 6.

´ OBSERVACION 6. ESPACIOS VECTORIALES Notaci´n: Si V es un espacio vectorial y B es una base de V pondremos o b B −→V . en dos formas distintas: o v = α1 v1 + · · · + αn vn Restando ambas igualdades tenemos: 0 = (α1 − β1 ) v1 + · · · + (αn − βn ) vn La anterior es entonces una forma de escribir el nulo como combinaci´n lineal o de A. ·). . . Sea (V. ´ PROPOSICION 6. α2 = β2 . K. ·) es ´l mismo un espacio e vectorial. entonces cualquier vector de V se puede escribir como c. los coeficientes de la combinaci´n lineal anterior o o deben ser todos ceros y por lo tanto: α1 = β1 . todo vector del espacio se escribe en forma unica como c. Una base del subespacio S es una base del espacio vectorial (S.188 6. .I. αn = βn Consecuentemente las dos formas de escribir v como combinaci´n lineal de o A. Ya hemos visto que (S. . vn } un subconjunto cualquiera.21. ·) un espacio vectorial y S ⊂ V un subespacio de V .l. o ´ En efecto. . Por o definici´n de conjunto L. son unicos). +. . son la misma. entonces A es base de V si y solo si. y v = β1 v1 + · · · + βn vn . K. supongamos que pueda escribirse un vector v como combinaci´n lineal de A. K.I. Como por hip´tesis A es base. de vectores de A. +. . donde + y · son las operaciones que hereda de V . +.l.. ´ los coeficientes de la c. Veremos ahora que esa combinaci´n lineal es unica. como A genera a V. (⇒) En primer lugar. . entonces en particular A es L.22. Sea V un espacio vectorial y A = {v1 .l. de los vectores de A (es decir. v2 . ´ ´ Demostracion.

0) .. λ2 .. tal que que a cada vector v le hace corresponder los coeficientes de la combinaci´n lineal de B que da v. α2 . EJEMPLO 6. αn ) Obs´rvese que el vector v es un elemento del espacio V pero sus coordenadas e sin importar quien sea V son siempre un n-upla de escalares. 0. . α2 .. ·) (o (Cn .. Sean λ1 . . (0.I. . . (0. 0. 1)} def . vn } una base de V . 1. . Pero como cada vector (incluyendo al nulo) s´lo se puede escribir de unica o ´ manera como combinaci´n lineal de A debe ser λi = 0. .. (0.37. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 189 (⇐) Supongamos ahora que cada vector de V se escribe de manera unica ´ g como combinaci´n lineal de A. 0) . 2. .. Sea V un espacio vectorial de dimensi´n finita cualquiera sobre el cuerpo o K y B = {v1 . Esto es o coordB (v) = (α1 .. entonces en particular A−→V .. . .. λn escalares tales o que λ1 v1 + λ2 v2 + · · · + λn vn = 0 Hemos escrito el vector nulo como combinaci´n lineal de A Por otra parte o tambi´n se tienen que e 0v1 + 0v2 + · · · + 0vn = 0. v2 . .. . +·)) el conjunto C = {(1. 0. De hecho con un poco m´s de formalidad podemos definir la funci´n a o n coordB : V −→ K . .´ 6. 0. . Dado un vector v ∈ V cualquiera la proposici´n anterior establece que existen unicos escalares α1 . αn o ´ tales que n v= i=1 αi vi llamaremos a estos n´meros las coordenadas en la base B del vector u v. 0) . R... . . +. 0. .. . .5. . 1. ∀i = 1. . para verifica o que A es base s´lo resta ver que A es L. . Sea V = (Rn . . 0.I. . n y o consecuentemente A es L. C.... . .

0. . . C. x2 . x2 . 0). El conjunto C se denomina base can´nica de (Rn . +. . o o En general. . (0. y genera V (comprobarlo). 1. 1. . 0).I. ·) o de (Cn . De hecho o n lo que ocurre es que la funci´n coordC : R −→ Rn es la funci´n identidad. 0) Sea v = (x1 . . o EJEMPLO 6. . . . xn ) = x1 e1 + x2 e2 + · · · + xn en entonces coordC (v) = (x1 . . . . . .38. . xn ). 0.190 6. ·). Esto es el vector y sus coordenadas en la base can´nica coinciden. verifiquemos que tambi´n e . como veremos en el pr´ximo ejemplo. . x2 . un vector de Rn y sus o coordenadas en una base arbitraria no coinciden esto s´lo ocurre si la base o considerada es la can´nica. xn ) ∈ Rn un vector cualquiera entonces v = (x1 . 0. . Sea V = R3 y B = (1. (0. R. . 1. . . +. ESPACIOS VECTORIALES B −→ b coordB v V coordB (v) Rn es una base de V pues es L. o En general el i-esimo vector de la base can´nica lo notaremos o i-esimo lugar ↓ ei = (0. 1) es f´cil coma probar y queda a cargo del lector que B es L.I.

α1 + α2 . 0) .. 0) + (b − a)(0. 1. supongamos que w ∈ R3 es un vector tal que sus coordenadas en la base B son coordB (w) = (1. c) = α1 (1. c) por ejemplo si v = (1. 1). b.. α2 . c) ∈ R3 un vector arbitrario comprobemos que existen α1 . 1. b. 1) = (1. 1) entonces el vector w = 1(1. 0) por lo tanto coordB (a. ´ o g 3 α2 = b − a y α3 = c de donde B −→R y por lo tanto es base. 0. 0) + 2(0. Cuando decimos por ejemplo sea v el vector de R3 tal que v = o (1. 0.. 1.. 1) = (1. .. 2.. 1. b. 2.. α3 escalares tales que (a. Hay que aclarar en cada caso..´ 6.. (0. c) = a(1. b. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 191 genera R3 . Verif´ ıquese que {(1.5. 3) estamos indicando la 3-upla (1. α3 ) ⇐⇒   α1 = a  α + α2 = b  1  α3 = c Y este ultimo sistema es compatible determinado y tiene soluci´n α1 = a. 0) + α2 (0. 1) entonces coordB (1. 0) + 1(0. Adem´s a (a. . En efecto sea (a. 1).. 2.. b. 3) por lo que no tiene sentido preguntar en que base lo estamos expresando.. 1)} no es base. 0) + c(0. 1. b − a. (0. EJEMPLO 6. +.39. 1. R. En el otro sentido. 1. c) = (a. Es claro que si V = Rn tanto los vectores como sus coordenadas son n-uplas por lo cual cabe la posibilidad de confundirlos lo cual naturalmente constituye un grave error. ·}. S´lo puede omitirse esta aclaraci´n cuando la base es la o o o can´nica. . cuando se da una n-upla de Rn . 3. 0. 1) ⇐⇒ (a. 0) . 2. 0. o si se trata de las componentes en alguna base distinta de la can´nica. c) = (α1 . . 0) + α3 (0. si se trata de los vectores en si. 1. 1. Sea {Cn . . 2.

p1 . Adem´s se tiene a que coordA (p) = (a0 . . . 0 0 0 1 . . Sea V = M2×2 y A= b 1 0 0 0 . . . . . (i. u EJEMPLO 6. . donde pi (x) = xi . Sea V = Pn y A = {p0 . con i = 0. . Entonces A es L. . c. 0. 0. 0. . (0. (0. . . ESPACIOS VECTORIALES Sugerencia: El vector (i. 0). . R. . . . .40. (0. (0. .l. pn }. . . 0). del conjunto anterior. (verificarlo) y adem´s si p ∈ Pn es un a polinomio cualquiera de grado menor o igual a n tal que p(x) = an xn + · · · + a1 x + ao entonces p = a0 p0 + a1 p1 + · · · + an pn g por lo tanto A−→Pn y en consecuencia A es base de Pn . . 0). (verificarlo) y adem´s si M = a a b es una matriz 2 × 2 cualquiera se tiene que c d M= a b c d g =a 1 0 0 0 +b 0 1 0 0 +c 0 0 1 0 +d 0 0 0 1 de donde A−→M2×2 y por lo tanto es base de M2×2 . 0.. . 0) donde i es la unidad imaginaria no es c. EJEMPLO 6. . ·} . . i.192 6. . 0. 1. .. . . 0 0 1 0 . . . . . . 1). n. .41.I. . . . . an ). a1 . d). Nuevamente aqu´ no hay posibilidad de ı confundirse coordenadas y vectores las primeras son (n + 1)-uplas y los segundos son polinomios de grado menor o igual a n. entonces A−→M2×2 . 0). i)} es base de {Cn . . pues es un conjunto L.I. . Obs´rvese que aqu´ no hay posibilidad de confundir los vectores e ı con sus coordenadas pues los primeros son matrices y los segundos 4-uplas de n´meros. . Verif´ ıque que: C ′ = {(1. 0 1 0 0 . Adem´s coordA (M ) = a (a. +.. . . b. .

Para esto comencemos observando que. . wm } un conjunto L.42. 1)} ⊂ S −→S. 1. y.34 se sabe que A es L.29 que el conjunto G= 1 0 0 0 . Sea S = {(x.D. 0 1 1 0 . en cada paso al sustituir un vector de A por uno de B se obtiene un nuevo conjunto o generador del espacio V . Sea V un espacio vectorial. 0. de V. 1. (0. y. v1 . . Observemos que v ∈ S si y solo si existen x y y reales tales que v = (x. La idea de la pruebe consiste en construir un algoritmo que permita sustituir uno a uno los vectores de A con los de B. 0.I.43. . por lo tanto la proposici´n 6.I. −2x) + (0. vn } un conjunto que genera a V y B = {w1 . En consecuencia el conjunto A′ = {wm . Como el proceso de sustituci´n no culmina mientras queden elementos en el conjunto B se prueba que en B hay por lo menos tantos elementos como en A. vn } 1 es L. Adem´s es f´cil de ver (hacerlo) a a que A es L. TEOREMA 6. −2) + y(0. Para esto comencemos hallando un generador. 0 0 0 1 −→S b g y de lo visto en el ejercicio 6. g EJEMPLO 6. . por lo tanto G−→S. ´ Demostracion. Sea V = M2×2 y S = {A ∈ M2×2 : A = At } hemos visto en el ejercicio 6. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 193 EJEMPLO 6. Sea A = {v1 .5.23. . z) : 2x− y + z = 0} deseamos determinar una base de S. 1) entonces A = {(1. pues wm ∈ B y B es L.I. . −2).18 asegura que existe en A′ un vector (que no es el primero) o 1 . y) = x(1. 0. y. . y − 2x) = (x. A−→V o y por lo tanto wm ∈ B ⊂ V es combinaci´n lineal de A. . . . y por lo tanto es un base de S. En el primer paso del algoritmo elegiremos un vector conveniente de A y lo g sustituiremos el vector wm . Entonces m n.. wm = 0. . Ahora bien.´ 6. .I.

vi+1 . . . 1 En definitiva al cabo del primer paso se ha obtenido un nuevo conjunto generador de V substituyendo vi por wm . vi+1 .. . . v1 .18 asegura que existe un vector en A′ o 2 (que no es el primero) que resulta combinaci´n lineal de los restantes. . . . . en virtud de la proposici´n 6. . que ser´ el primero a sustituir. . vk+1 . vk−1 . .I.. podemos continuar este procedimiento de sustituci´n y el mismo s´lo concluir´ cuando se terminen los vectores de o o a B. . 1 o Entonces A1 −→V . vi−1 . Cuando esto ocurra o bien los vectores de A se han acabado en simult´neo a con los de B y entonces m = n o bien a´n restan vectores de A sin sustituir u y por lo tanto m < n lo cual concluye la prueba. vn } 2 es un generador de V . Para el segundo paso razonamos en forma an´loga eligiendo otro vector de a g A para ser sustituido por wm−1 : como A1 −→V . entonces todas las dem´s bases tienen n elementos. vi−1 . . Si una base tiene n elementos. . wm . . De nuevo observamos que wm−1 = 0. vn }. . por lo tanto la proposici´n 6. vi+1 . Sea V un espacio vectorial. . . ESPACIOS VECTORIALES que resulta combinaci´n de los anteriores. vi−1 . . . pues wm−1 ∈ B y B es L. vn } 2 resulta L. a .24. . .16 [A1 ] = [A′ ] = V .194 6. . Designemos por vk ∈ A a dicho vector (ser´ el segundo vector a sustituir). . wm . . wm−1 ∈ B es combinaci´n o lineal de A1 por lo tanto el conjunto A′ = A1 ∪ {wm−1 } = {wm−1 . pues. Al cabo de dos pasos hemos sustituido dos vectores de A por dos vectores de B y lo hemos hecho de modo que el conjunto resultante A2 es un generador de V .16 implica a o nuevamente que el conjunto A2 = A′ − {vk } = {wm−1 . . La proposici´n 6. .D. g COROLARIO 6. v1 . Designemos por vi ∈ A a ese o vector. v1 . este o ıa o vector no puede ser wm pues si lo fuera deber´ ser combinaci´n de wm−1 y esto contradice la independencia lineal de B. . Pongamos. ahora a A1 = A′ − {vi } = {wm .

. . con infinitos elementos entonces dim(V ) = ∞. +.25. . Obs´rvese que si un o e espacio vectorial V contiene un subconjunto L L. . . i)} de donde dim (Cn . como B es L. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 195 ´ Demostracion. . 0. .23. aplicando nuevamente el teorema 6. 1).I. C. aplicando el teorema 6. . . 0). C.44. 0. n no depende o e de la base que se halla encontrado). Si existe una base de V que tenga n elementos. . Esto o o es el n´mero de elementos de una base de S (ver observaci´n 6. y A es generador. 0). ·) entonces su dimensi´n es la dimensi´n de (S. . . K. 0. ´ DEFINICION 6. tenemos p n. (i. Por otra parte. +. (0. En efecto.37 vimos que C es una base (la base b . (0. Por el contrario en el ejemplo 6. . . . 0). . . . o Si V = 0 y no existe una base de V con una cantidad finita de elementos. +. 0. . +.39 se vio que C no es base de (Cn . Sea V un espacio o vectorial. ·) = 2n. . O sea n = p.21). En el ejemplo 6. se dice que n es la dimensi´n de V (obs´rvese en virtud del corolario anterior. ·) = n. ·) pero si lo es C ′ = {(1. entonces decimos que la dimensi´n de V es infinita. Sean A y B bases de V . De manera an´loga C −→(Cn . +. se conviene en decir que V tiene dimensi´n 0. . Naturalmente si S ⊂ V es un subespacio del espacio (V. ·). R. . 0).11). Como A es L. . y pose infinitos elementos podemos encontrar un subconjunto finito L′ ⊂ L L. K. y B es generador. . V no puede tener una base finita pues si b g A ⊂ V es un subconjunto finito y A−→V entonces en particular A−→V pero como L es L.I. .I. . i. .I. . aune que no hayamos cambiado el conjunto de vectores. ´ OBSERVACION 6. . (0. . (0. Si V = 0 (ejemplo 6. 1.23. el espacio vectorial cambia EJEMPLO 6. +·) o a n por lo tanto dim (C . u o can´nica) de Rn por lo tanto dim(Rn ) = n.8 (Dimensi´n de un espacio vectorial).23 tenemos n p. A con n elementos y B con p elementos. .´ 6. Obs´rvese que al cambiar el cuerpo.5.I. Notaremos dim (V ) = n. con card(L′ ) > card(A) lo cual contradice el teorema 6. R.

Entonces A es base si y s´lo si A es L..I. o Entonces existen escalares λ1 . ¿Cu´l es la dimensi´n de Mm×n ?. ya que si λ = 0 se tendr´ que ıa λ1 v1 + λ2 v2 + · · · + λn vn = 0 . Sea A = {v1 . z) : 2x − y + z = 0} ⊂ R3 y S ′ el subespacio de las matrices 2 × 2 sim´tricas de lo visto en el ejemplos 6. En los ejercicios veremos a o que incluso hay ejemplos en los cuales un espacio de dimensi´n finita puede o transformarse en uno de dimensi´n infinita cambiando s´lo el cuerpo. Sean S = {(x. . entonces el conjunto A′ = A ∪ {v} / tiene n + 1 elementos y en consecuencia es por hip´tesis un conjunto L. por hip´tesis. o o EJEMPLO 6. λn .26.I. alcanza probar que A es generador de todo el espacio.45. . Es claro que o los vectores de A son ellos mismos combinaci´n de A as´ que consideremos o ı un vector v ∈ V cualquiera tal que v ∈ A. a o EJEMPLO 6.41 se deduce que dim(M2×2 ) = 4 y dim(Pn ) = n + 1.43 se deduce respectivamente que existe una base de S con 2 elementos y una base de S ′ con 3 elementos por lo tanto dim(S) = 2 y dim(S ′ ) = 3. λ2 .46.45) λ1 v1 + λ2 v2 + · · · + λn vn + λv = 0 Veamos que debe ser λ = 0. Para esto veremos que o cualquier vector puede ponerse como combinaci´n lineal de A.40 y 6. .D. (⇐) Para probar que A es base . y.I. λ no todos nulos tales que (6.D. o a ´ Demostracion. De lo visto en los ejemplos 6. a TEOREMA 6. vn } ⊂ V .196 6. ESPACIOS VECTORIALES radic´lmente al punto que cambia su dimensi´n. y todo conjunto con m´s de n vectores es L.. de hecho o afirma que un base es un conjunto L. “maximal” en el sentido de que cualquier otro conjunto m´s grande debe ser L. v2 . .. .42 y e 6.D. puesto que A es L. El siguiente resultado da otra caracterizaci´n de una base.

se g tiene que A−→V .D.28. − n vn λ λ λ Hemos probado que v es c. x2 +3x−3.´ 6. Ahora podemos observar que el rango de A no es otra cosa que la dimensi´n o del subespacio generado por A. . Obs´rvese que si m < n un conjunto de Rn e con m vectores puede ser tanto L. En particular el rango de una matriz es la dimensi´n del subespacio generado por las filas o por las columnas de la o misma.D. ´ OBSERVACION 6. Sea A un subconjunto de finito de vectores de Rn en el cap´ ıtulo 2 hab´ ıamos definido el concepto de rango del conjunto como la mayor cantidad de vectores de A que fueran linealmente independientes.D.I. Como v es un vector cualquiera de V .I.47. Si W fuera L. Despejando v en 6. (verifique esto construyendo ejemplos de ambas situaciones).I. a Sabemos por hip´tesis que A es base y por lo tanto en particular A es o generador de V . como L.l. pues dim(P2 ) = 3 y card(A) = 5 ´ OBSERVACION 6. (⇒) Tenemos que probar que todo conjunto con m´s de n vectores es L. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 197 con alg´n escalar distinto de cero y esto contradice la independencia lineal u de A asegurada por hip´tesis.. −x2 +2x+1} ⊂ P2 entonces A es L. por lo tanto W debe ser L.23.. con mas elementos que un generador y esto contradice el teorema 6. x2 −1. tendr´ ıamos un conjunto L.D.45 se tiene: λ1 λ λ v1 − 2 v2 − . Sea W ⊂ V un conjunto cualquiera con m vectores m > n.D. x+1.27. o Entonces tenemos λ = 0. De hecho si m > n cualquier conjunto de Rn con m vectores es necesariamente L. de A.5. Sea A = {x2 +x−1. v=− EJEMPLO 6. como quer´ ıamos probar.

. v2 .. hay un vector de B.16 [B] = [B1 ] y entonces B genera a V. Pero o ıa este caso est´ excluido.. ´ TEOREMA 6.I. tal que A’ es base de V (dicho de otra forma. De esta forma. Si se repite el razonamiento. .. Por definici´n o e o es base de V. o Si B1 es L.D.. entonces es base (porque por hip´tesis B genera a V ). wp . se puede agrandar hasta formar una base). Si A no genera a V. que es combinaci´n lineal de los o o dem´s vectores de B. 1) Sea B = {v1 . entonces A es base y tomamos A’ = A. Llamemos wp+1 a este u o vector. w2 . que es L.I. que tiene que ser el vector nulo (porque B es L. ´ o bien est´ formado por m´s de un vector. Por la proposici´n 6. . wp es un conjunto L. Se cumplen las siguientes propiedades: 1) Si B genera a V.D.I: ya est´ probado...). Si A genera a V.. se obtiene un conjunto a B1 . Si es L.198 6.. y todo L. A y B o subconjuntos de V (finitos). aplicando el mismo razonamiento a a B1 en lugar de B.. En el caso en que B = 0 . se obtiene un nuevo conjunto B2 ⊂ B1 ⊂ B tal que genera a V. Por a a la Proposici´n 6. Si B es L. se obtendr´ finalmente un conjunto a B’ contenido en B. Quitando ese vector vr de B. ESPACIOS VECTORIALES Los siguiente resultados son utiles para construir bases de subespacios. existe A’ que contiene a A. y que se obtuvo de B retirando sucesivamente aquellos vectores que se expresaban como combinaci´n lineal de los restantes. Mostremos que: w1 . ´ Demostracion. contiene a alguna base. Sea V un espacio vectorial de dimensi´n n 1.29. y est´ formado por m´s de un vector.I. 2) Si A es L. existe B’ contenido en B. 2) Supongamos A = w1 . o bien est´ formado o a por un unico vector.I. Si B es L. wp+1 es L.. entonces existe alg´n vector de V que no es combinaci´n lineal de A.D. .D. todo conjunto generador.16. ser´ el caso en que V = 0 . porque por hip´tesis n 1.. a a como por hip´tesis B genera a V. probando 1). tal que B’ es base de V..18. resta s´lo a o o estudiar el caso en que B es L.I. vk }. este conjunto B’ tambi´n genera a V.I. o Por la proposici´n 6.

0). es base. donde n es la dimensi´n del espacio.. en una cantidad finita de pasos.26.. (−1.D. Entonces: λ1 w1 + λ2 w2 + . . vn } no genera V. w2 .. de hecho en este caso o solo es necesario chequear la cantidad de vectores del conjunto candidato y su independencia lineal COROLARIO 6.. vamos agregando vectores hasta obtener o un conjunto L.. Si A es L. Repitiendo la construcci´n anterior a A1 en lugar de A. todos los coeficientes λi son ceros. 0. con A−→V . . y que genere a V (sea hasta obtener una base de V ).. v} es L. g 2) Sea A = {v1 . Siempre se llega.I.. . (como en la demostraci´n del / teorema anterior) pero tiene n + 1 vectores. 2) Todo conjunto de n vectores A que genera a V es base. Luego+ dim (V ) = p < n. y card(A1 ) = p < n. Sea A = {(1. wp . w2 . porque A es L.+λp wp +λp+1 wp+1 = 0 ⇒ λp+1 = 0. Tenemos entonces que el conjunto A = w1 . o El siguiente resultado es particularmente util cuando se desea encontrar ´ una base de un espacio del cual se conoce la dimensi´n. 1). BASE DE UN ESPACIO VECTORIAL Y DIMENSION 199 En efecto: λ1 w1 +λ2 w2 +. 0.l.I. absurdo. vn .. (0. a un conjunto que genere a V. wp ..I.. no pueden tener mas de n elementos. . ´ Demostracion. y eso no es posible porıa que wp+1 no es c. de w1 . (0. Se o cumplen las siguientes afirmaciones: 1) Todo conjunto linealmente independiente A de n vectores. wp+1 es L. 0). + λp wp = 0. 1. Entonces {v1 . aplicando el teorema b 6. lo que contradice el teorema 6. Luego [A] = V . porque por el teorema 6.29 se sabe que existe A1 A tal que A1 −→V .. Luego.... 1.´ 6. −1....30.I. . 1)} ⊂ R4 como es f´cil de verifica A es L.26 los conjuntos L. 0. existe v ∈ V tal o que v ∈ [A]..I. porque o a sino se podr´ despejar wp+1 en funci´n de los dem´s. 0. .5. EJEMPLO 6.I.48. y como card(A) = 4 = dim(R4 ) entona ces A es base de R4 . 1. 1) Si A = {v1 . Sea V un espacio vectorial de dimensi´n n . Absurdo. vn }..

0. el conjunto A = {(1. o no. q2 . 1. q2 (x) = x2 + x − 1. que e o es menor o igual que n. 0. (2. por lo cual debe contener propiamente un subconjunto que sea base. 1) − (2. Sea S = [(1. q }−→S y e tanto A 3 1 2 como el lector comprobar´ A′′ es L. 1. y por lo tanto una base de S. 1.30 y debemos verifica si A es o L. 0.D. (−1.200 6.16 A′ = {(1..50. Es f´cil verificar adem´s que o a a A′ es L.31. (2. 1. 0)}−→S. hallar una base de S y determinar su dimensi´n. 0. Entonces a dim(S) = 2. entonces dim W = 0 y ya est´ probado. 0) = (−1. 1. en consecuencia A′ −→S y por lo tanto dim(S) = 2. Entonces W tiene tambi´n dimensi´n finita. Para determinar este subconjunto procedemos como en la prueba del teorema 6.49. pues (1. lo cual obviamente es inmediato. Queremos determinar la dimensi´n de S. Sea A = {q1 . de los restantes elementos de A la g proposici´n 6. b EJEMPLO 6. ESPACIOS VECTORIALES EJEMPLO 6. Eliminando q tenemos que A′′ = {q . 0). q3 (x) = x2 + 2x y q4 (x) = x2 − 2. a Entonces A no es base pero de la proposici´n 6.D. 1) es c.I. q4 } donde q1 (x) = x + 1. A−→S pero por lo visto en el ejemplo 6. 1)].D. q3 .I.35 A es L. 0). Es f´cil de ver que A es L. 0 . q2 . 1).35 que q4 es combinaci´n de los restantes elementos de A en consecuencia o a consideramos A = {q1 . Para eso encontrao g remos una base del subespacio. 1. o Sea W un subespacio de V. Analicemos ahora el subespacio S = [A] ⊂ P2 . (2. 1.29 y determinemos un conjunto A′ A tal que [A′ ] = [A] eliminando de A un vector que sea combinaci´n de los restantes. 1). 1). (−1. Como el vector (−1. 1)} es por definici´n un generador de S como desconocemos la dimensi´n del o o subespacio no podemos aplicar la proposici´n 6. a . ´ PROPOSICION 6.29 existe A′ ⊂ A que si o lo es. q3 } en este caso es f´cil ver que q3 = q1 + q2 por lo g ′ es tambi´n L.I. 1). 1. Sea V un espacio vectorial de dimensi´n finita n. ´ Demostracion. Si W = pues 0 n. Para esto comenzamos por encontrar un geo nerador. Sabemos del ejemplo o 6.l.

de n + 1 vectores. donde n es la a dimensi´n del espacio. Si dim (W ) = dim (V ). no pueden tener m´s de n elementos. wn } base de W.6. existe un tercer vector w3 ∈ W que no es combinaci´n lineal de los dos o primeros. .. es base de W.23 resulta p n. (y se denota como V1 + .. luego {w1 .I.I.. .I. w2 . Una vez demostrado eso. Se puede repetir el razonamiento en una cantidad menor que n + 1 de pasos hasta construir una base de W. 6. wn . y o entonces λ1 w1 = 0. pues una base de W. Suma de subespacios y suma directa ´ DEFINICION 6. o ´ PROPOSICION 6. Si {w1 } u genera a W. w2 } es L. wn }.I. . ´ Demostracion.I. w2 } es L. o Afirmamos que {w1 . .I. se llama suma de los subespacios V1 .. alcanza probar que existe una base de W con una cantidad finita de elementos p. En efecto.26) y como antes. v} es L. lo cual no ıa es posible porque w2 no es combinaci´n lineal de w1 .. ya tenemos una base. y una base de V es un conjunto que genera a todo el espacio. contradiciendo el teorema 6. Si no genera a W. Vn de V.. y ya est´ probado.Tenemos ahora que {w1 . . SUMA DE SUBESPACIOS Y SUMA DIRECTA 201 Si W = 0 . existe a un vector w2 ∈ W que no es combinaci´n lineal de w1 . si λ1 w1 + λ2 w2 = 0. con p elementos. λ2 = 0 o pues de lo contrario se podr´ despejar w2 en funci´n de w1 .. Entonces es L. por el teorema 6...32. Si v ∈ V . y est´ fora mado por n vectores de W ⊂ V .6. Sea {w1 .. con dim (V ) = n.. V2 . Suma de subespacios: Sea V un espacio vectorial. w1 = 0. wn } = V . . es un conjunto L. Entonces λ2 = 0. w3 } es L.. con n elementos..D.. {w1 ..9. Si genera a W. (por Teorema 6. Si {w1 } no genera a W. Igual que antes se prueba que el conjunto {w1 ..26 que dice que los conjuntos L. vemos que v se escribe como combinaci´n o lineal de {w1 . Como W = 0 entonces existe alg´n vector w1 ∈ W.. entonces W = V. . porque de lo contrario tendr´ ıamos un conjunto L.I.6. Como w1 = 0 se deduce λ1 = 0. Sea W un subespacio de V.

⊕ Vn y si B1 . v2 ∈ V2 . Entonces v es c.. Vn . vn + vn ∈ Vn . 1. Vn . . Es claro que W es cerrado e con respecto al producto por escalares. + vn } TEOREMA 6. .. estos son combinaciones lineales de sus respectivas bases. uno de Vn .. a2 . v + v ′ ∈ u+u 1 2 n 1 1 2 n 1 2 1 2 ′ V2 . .. 2. y a su vez.. .. pero no de forma unica: (1. ESPACIOS VECTORIALES V2 + . v1 ∈ V1 . V2 . ∪ Bn es una base de V. Cuando la suma es directa se representa V1 ⊕ V2 ⊕ . v = v1 + v2 + . el subespacio suma de ellos se llama suma directa cuando todo vector de ´l e puede expresarse de forma unica como suma de vectores de los subespacios ´ V1 .. Todo vector de R3 se puede escribir como suma ´ de un vector de V1 y uno de V2 . vn y vn ∈ Vn . Vn son subespacios... .34..I. 1/2. respectivamente entonces: B = B1 ∪ B2 ∪ .10.. V2 .33... ´ DEFINICION 6. + Vn ) al subconjunto de vectores W definido por: W = {v ∈ V : ∃.. Suma directa: Dados los subespacios V1 . Bn son las bases de V1 .. 0) + (0. Entonces ′ = (v + v ′ ) + (v + v ′ ) + .. Pero esta suma no es directa... · · · .l. . Si V = V1 ⊕ V2 ⊕ . Todo vector de V es suma de vectores de V1 . Vn . 1) = (1.. 1... 1) (1. + vn con v1 y v1 ∈ V1 .de . 1/2.202 6. vn ∈ Vn . Probaremos que B genera a V. Vn . a2 .. . y que B es L. ´ Demostracion.. La suma de subespacios de V es unr subespacio de V. B2 . n... ´ Demostracion. V2 ... entonces λu tambi´n se descompone de esa forma.. TEOREMA 6. porque 0 = 0 + · · · + 0 y 0 ∈ a Vi ∀i = 1. .. V2 . Para verificar que W es cerrado respecto a la suma sean u y u’ tales que u = v1 + v2 + .... donde v + v ′ ∈ V . EJEMPLO 6....51. 0. + vn y u′ = ′ ′ ′ ′ ′ ′ v1 + v2 + . Tambi´n es sencillo verificar que el vector u se puede e descomponer como suma de un vector de V1 . . ⊕ Vn .. Es f´cil ver que 0 ∈ W ... 0) + (0.. Sean en R3 los subespacios V1 = {(a1 . 1) Entonces la suma de V1 y V2 es todo R3 . a3 ) : a1 = 0} .. v2 y v2 ∈ V2 . ... 1) = (1.. 1. . + (v + v ′ ). a3 ) : a3 = 0} y V2 = {(a1 . porque V1 .. V2 . . uno de V2 .

.. B2 = {v21 . An´logamente para los a dem´s coeficientes aij ... Es inmediata a partir de la definici´n de dimensi´n y del o o teorema anterior...6. + anpn vnpn = 0. o . SUMA DE SUBESPACIOS Y SUMA DIRECTA 203 la uni´n de esas bases. v1p2 } . .. Esa unica manera tiene ´ que ser entonces 0 = 0 + 0 + ..I. V2 . . se tiene que B1 es L.. + a1p1 v1p1 = 0 a21 v21 + a22 v22 + . que es B. Vn entonces dimV = dimV1 + dimV2 + ... Sean V1 y V2 dos subespacios de V tales que V = V1 + V2 . V1 ∩ V2 = 0 si y s´lo si V = V1 ⊕ V2 .. Veremos que B es L. . = a1n = 0.. . + an1 vn1 + an2 vn2 + . Si V es suma directa de V1 . ⊕ Vn ..I. a11 v11 + a12 v12 + . vnpn . Entonces tenemos probado que B es L. Entonces. Siendo B1 una base de V1 . + 0. La combinaci´n lineal de m´s arriba implica entonces que: o a a11 v11 + a12 v12 + . existe una unica manera de expresar el ´ vector nulo como suma de vectores de V1 ..I. ´ PROPOSICION 6.· · · Bn = vn1 .. + dimVn ´ Demostracion..... . v12 .. a COROLARIO 6.. + a1p1 v1p1 + a21 v21 + a22 v22 + .35.. y de la primera igualdad de mas arriba se deduce a11 = a12 = . Hemos probado que todo vector de V es o combinaci´n lineal de B... V2 .. + anpn vnpn = 0... como 0 ∈ V y V = V1 ⊕ V2 ⊕ .... + a2p2 v2p2 = 0 ··· an1 vn1 + an2 vn2 + . +a2p2 v2p2 + . o sea B genera a V. Sea B1 = o v11 .... v22 . vn2 .6. v1p 1 Tomemos una combinaci´n lineal de B igualada a 0: o .. Vn ....36..

por lo que . 0 = v = −v. (⇒) ′ ′ ′ ′ Supongamos v = v1 +v2 y v ′ = v1 +v2 con v1 . . v2 . v1 ∈ V1 . v2 ∈ V2 . Por lo tanto: 0 = v + (−v) = 0 + 0 y por definici´n de suma directa.204 6. ESPACIOS VECTORIALES ´ Demostracion. por hip´tesis v1 − v1 = v2 − v2 = 0. o lo que prueba que la suma es directa. ′ ′ ′ ′ v1 − v1 = v2 − v2 ∈ V1 y V2 . o Entonces V1 ∩ V2 = 0 . Luego. (⇐) Sea v ∈ V1 ∩ V2 luego − v ∈ V1 ∩ V2 .

Sean C 1 = {f : R → R / f es derivable} ⊂ F = {f : R → R} . Sean V y W dos espacios vectoriales sobre el mismo cuerpo K y T : V → W una funci´n. Diremos que T es una transformao ci´n lineal si satisface : o i) T (u + v) = T (u) + T (v) ∀ u. ∀ v ∈ V. v ∈ V. Ellas preservan (mantienen) las estructuras lineales que caracterizan a esos espacios: los transformados de combinaciones lineales de vectores son las correspondientes combinaciones de los transformados de cada uno de los vectores. permiten analizar cu´n diferentes o semejantes son desde el punto a de vista de esas propiedades (lineales.1. como las isometr´ o movimientos lo son en la geometr´ ıas ıa m´trica. Transformaciones lineales ´ DEFINICION 7. Las transformaciones lineales son funciones entre espacios vectoriales.CAP´ ıTULO 7 TRANSFORMACIONES LINEALES. 205 . e 7. EJEMPLO 7. en el presente caso). En este sentido las transformaciones lineales son tan importantes en el estudio de los espacios vectoriales. ii) T (a. T (v) ∀ a ∈ K.v) = a. Las funciones que mantienen las estructuras caracter´ ısticas de los espacios entre los que act´an son de especial importancia porque permiten u ”moverse” entre ellos comparando las estructuras que los definen. en particular.1.1.

(⇒) T (a1 v1 + a2 v2 ) = T (a1 v1 ) + T (a2 v2 ) = a1 T (v1 ) + a2 T ( v2 ) . La transformaci´n T : C 1 → F tal que T (f ) = f ′ es una transformao ci´n lineal. pues se cumple que o ′ ′ i) T (f1 + f2 ) = (f1 + f2 )′ = f1 + f2 = T (f1 ) + T (f2 ) ii) T (α f ) = (α f )′ = α f ′ = α T (f ) EJEMPLO 7. Efectivamente: o i) T (v1 + v2 ) = λ (v1 + v2 ) = λ v1 + λ v2 = T (v1 ) + T (v2 ) ii) T (a. T (v) = 0. Sea T : V → W una transformaci´n lineal. ´ Demostracion.2. ´ PROPOSICION 7.206 7.2. y en el caso particular en que a2 = 0 se obtiene T (a1 v1 ) = a1 T (v1 ) . Sean a1 y a2 escalares y v1 y v2 vectores. o o pues T (v1 + v2 ) = v1 + v2 + v0 = v1 + v0 + v2 + v0 = T (v1 ) + T (v2 ).3. Sea V un espacio vectorial y v0 = 0 un vector fijo de V. La funci´n o T : V → V tal que T (v) = λ v es una transformaci´n lineal. v) = 0 . . ´ Demostracion. a2 ∈ K ∀ v1 .v) = λ a v = a λ v = a T (v) EJEMPLO 7. (⇐) En el caso particular en que a1 = a2 = 1 se obtiene T ( v1 + v2 ) = T (v1 ) + T ( v2 ). Las propiedades i) y ii) de la definici´n anterior se pueden resumir de la o siguiente forma: ´ PROPOSICION 7. T 0 = T (0. La funci´n T : V → V tal que: T (v) = v + v0 no es una transformaci´n lineal. Sea V un espacio vectorial y sea λ ∈ K. Entono ces. T 0 = 0.1. TRANSFORMACIONES LINEALES. v2 ∈ V. T : V → W es una transformaci´n lineal si y s´lo o o si T (a1 v1 + a2 v2 ) = a1 T (v1 ) + a2 T ( v2 ) ∀ a1 .

.1 v o Unicidad: Supongamos que existan T : V → W y S : V → W lineales tales que T (vi ) = wi y S (vi ) = wi . (⇐) Sea v ∈ V . Consideremos una base B = {v1 . . . o . . . (⇒) Si T y S coinciden en todo el espacio V. Entonces T y S coinciden en una base de V .1. Sea {v1 . Sean V. . . . µ ¯ n n escalares. . . . .3. W espacios vectoriales sobre un mismo cuerpo con dim ( V ) = n . S (v) ∀ v ∈ V si y solo si T (vi ) = S (vi ) ´ Demostracion. an tales que ´ n v = ai vi . Sean V y W espacios vectoriales sobre un mismo cuerpo con dim (V ) = n. . wn ∈ W arbitrarios. . por ser T y S lineales T (v) = T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn ) = α1 S (v1 ) + · · · + αn S (vn ) = S (α1 v1 + · · · + αn vn ) = S (v) . . n . Tenemos v = n i =1 ai vi y v = ¯ n i =1 ai vi . . Luego. y por la proposici´n 7. T : V → W y S : V → W transformaciones lineales. 2. Sean v y v vectores y λ. . . Luego T es lineal por la proposici´n 7. . existe una unica transformaci´n lineal T : V → W ´ o tal que T (vi ) = wi ∀ i = 1 . Entonces. . Entonces: T (v) = ∀i = 1. Existencia: Si v ∈ V existen unicos a1 . en particular coinciden en los vectores de la base B. Como B es base de V. TEOREMA 7. Hay que verificar que T es lineal.4. . . resulta que T=S. vn } una base de V y w1 . existen α1 . . Entonces T (λ v + µ v ) = ¯ ¯ n n =T i =1 (λ ai + µ ai ) vi ¯ = i =1 (λ ai + µ ai ) wi = λ ¯ i =1 ai vi +µ i =1 ai¯vi = = λ T (v) + µ T (¯) . ´ Demostracion. . . . αn ∈ K tales que v = α1 v1 + . Definimos entonces T n i =1 i=1 : V → W mediante T (v) = ai wi . n.7. TRANSFORMACIONES LINEALES 207 ´ PROPOSICION 7. .3. vn } de V. . + αn vn . . .

7x − y) . Como {(1. ı EJEMPLO 7. (0. 0) = T (0. que una transformaci´n lineal queda determinada o por los valores que toma sobre una base. 2) . 5) + (−2x + y) (2. 2) = (3. EJEMPLO 7. y) ∈ R2 .208 7. 7x − y). −1) = (−x + 2y. pues. o Luego T (x. −1) Como {(1. −3x + y. Sea T : R2 → R2 lineal tal que T (1. (0. 0) + y (0. y) = T (x (1. As´ T (x. W espacios vectoriales sobre un mismo cuerpo K y S : V → W y T : V → W dos transformaciones lineales. Operaciones con transformaciones lineales. y) = (−x + 2y. 1)) = xT (1. Se define la suma de S y T como la transformaci´n S + T : V → W tal que o (S + T ) (v) = S (v) + T (v) . 1)} es una base de R2 . −3x + y. −1.2. Hemos probado. 1) = (2. Hallemos T (x. 3) = (x + y) (2. −1. T (x. 3) + y (2. 1. 1. 0) + yT (0. 3) . 1) = = x (3. Sea T : R2 → R3 lineal tal que T (1. 3). 5) y T (0. 7. 2) + (−2x + y) T (0. T esta determinada. 1) = = x (2.4. 2) + (−2x + y) (0. ∀v ∈ V. T est´ bien a determinada. .5. ´ DEFINICION 7. y) con (x. 1)) = xT (1. 1)} es la base can´nica de R2 .2 (Suma de Transformaciones Lineales). y) = T (x (1. 1) = (2. TRANSFORMACIONES LINEALES. 0) . Sean V.

entonces S + T es una transformaci´n lineal.T ) : o o V → W tal que (λ.3 (Producto por un escalar).T ) (v) = λ .2. Se define el producto del escalar λ ∈ K por la transformaci´n T . y. y. y. ´ PROPOSICION 7. z) = (x + y + z. o ´ Demostracion. x + y. y + z) = (2x + z. y) = 5.7. Si S y T son transformaciones lineales.7. y) = 5. x + y) . 5x) . y + z).T ) (x. ´ DEFINICION 7.T : R o (5. y. z) = S (x. 209 EJEMPLO 7. x + y. (x − 2y. x − z) + (x − y. z) = (x + y + z. Sean v1 y v2 vectores. x − z) y T : R3 → R2 tal que T (x.5.T (x. Entonces la suma de S y T es la transformaci´n S + T : R3 → R2 tal que o (S + T ) (x. En efecto (S + T ) (λ v1 + µ v2 ) = S (λ v1 + µ v2 ) + T (λ v1 + µ v2 ) = = λ S (v1 ) + µ S (v2 ) + λ T (v1 ) + µ T (v2 ) = = λ [S (v1 ) + T (v1 )] + µ [S (v2 ) + T (v2 )] = = λ [(S + T ) (v1 )] + µ [(S + T ) (v2 )] .T (v) ∀v ∈ V . y. z) = (x − y. x) = = (5 − 10y. EJEMPLO 7. Probemos (S + T ) (λ v1 + µ v2 ) = λ (S + T ) (v1 ) + µ (S + T ) (v2 ) . 5x + 5y. y) = (x − 2y. OPERACIONES CON TRANSFORMACIONES LINEALES. . Sean S : R3 → R2 tal que S (x. x) Entonces el producto del escalar λ = 5 por la transformaci´n T es la o 2 → R3 tal que transformaci´n 5. como la transformaci´n (λ. Sea T : R2 → R3 tal que T (x. z) + T (x.6. λ y µ escalares.

Probemos que (λT ) (α1 v1 + α2 v2 ) = α1 (λT ) (v1 ) + α2 (λT ) (v2 ) ∀v1 .7. u2 ∈ V. ´ PROPOSICION 7. y S : U → V y T : V → W dos transformaciones lineales. 2x). x). .4 (Composici´n de Transformaciones Lineales. o EJEMPLO 7. o ´ Demostracion. (T ◦ S) (α1 u1 + α2 u2 ) = α1 (T ◦ S) (u1 ) + α2 (T ◦ S) (u2 ) En efecto (T ◦ S) (α1 u1 + α2 u2 ) = T (S (α1 u1 + α2 u2 )) = = α1 T ( S (u1 )) + α2 T ( S (u2 )) = α1 (T ◦ S) (u1 ) + α2 (T ◦ S) (u2 ) . y) = (y.6. z) = (y + z. ´ DEFINICION 7.8.). v2 ∈ V ∀α1 . z) = (2x.V y W espacios vectoriales sobre un mismo cuerpo K. α2 ∈ K En efecto (λT ) (α1 v1 + α2 v2 ) = λT (α1 v1 + α2 v2 ) = = λ [α1 T (v1 ) + α2 T (v2 )] = λα1 T (v1 ) + λα2 T (v2 ) = = α1 λT (v1 ) + α2 λT (v2 ) = α1 (λT ) (v1 ) + α2 (λT ) (v2 ) . Si T es una transformaci´n lineal y λ un escalar o entonces λT es una transformaci´n lineal. Si S y T son lineales.210 7. Probemos que ∀α1 . α2 ∈ K ∀u1 . Se define la composici´n S y T o como la transformaci´n T ◦ S : U → W tal que (T ◦ S) (u) = T (S (u)) . TRANSFORMACIONES LINEALES. entonces T ◦ S es lineal ´ Demostracion. Luego T ◦ S : R3 → R2 es tal que (T ◦ S) (x. Sean S : R3 → R2 tal que S (x. ´ PROPOSICION 7. y. y. y + z) y T : R2 → R2 tal que T (x. Sean o U.

y. IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL. 0) ⇔ x+y+z =0 2x + 2y + 2z = 0 ⇔ x+y+z =0 As´ el N (T ) = (x. o i) Llamaremos n´cleo de T al conjunto de V cuya imagen por T es el vector u nulo.9. Imagen y n´ cleo de una transformaci´n lineal. z) ∈ N (T ) ⇔ T (x. z) ∈ R3 : x + y + z = 0 . u o ´ DEFINICION 7. 1) Hallemos el n´cleo de T. 2x + 2y + 2z) = (0.3. z) = (0. y. 2x0 + 2y0 + 2z0 ) = (a. z0 ) ∈ R3 T (x0 . 211 7. y0 . (a. Sean V y W espacios vectoriales sobre el mismo cuerpo K y T : V → W una transformaci´n lineal.´ ´ 7. y0 . y0 . 2x + 2y + 2z). y. y. b) ⇔ existe (x0 . u (x. es decir N (T ) = v ∈ V : T (v) = 0 (tambi´n se usar´ la e a notaci´n Ker (T ) para N (T )). b) ⇔ existe (x0 . z0 ) ∈ R3 tal que (x0 + y0 + z0 . z0 ) ∈ R3 tal que ⇔ el sistema ⇔ el sistema x0 + y0 + z0 = a 2x0 + 2y0 + 2z0 = b es compatible es compatible x+y+z = a 2x + 2y + 2z = b x+y+z = a 0 = b − 2a ⇔ b = 2a . z) = (x + y + z. z0 ) = (a. Se considera la transformaci´n lineal T : R3 → R2 tal que o T (x.5.) o EJEMPLO 7. y0 . b) ∈ Im (T ) ⇔ existe (x0 . 0) ⇔ (x + y + z. ı 2) Hallemos la imagen de T. o ii) Llamaremos imagen de T al conjunto: Im (T ) = {w ∈ W : ∃ v ∈ V con w = T (v)} (tambi´n se utilizar´ la e a notaci´n T (V ) para Im (T ).3.

z = −y con y ∈ R .212 7. 1) Hallemos el n´cleo de T. y + z) = 0 ⇔ x+y =0 y+z =0 As´ el N (T ) = (x. y0 . 0) ⇔ (p (0) . z) ∈ N (T ) ⇔ T (x. y. Im (T ). z0 ) ∈ R3 T (x0 . b) ∈ Im (T ) ⇔ existe (x0 . z) ∈ R3 : x = −y . 0)   x cualquiera  p (0) = 0 z=0 ⇔ ⇔ y = −x  p (1) = 0 x+y+z = 0  z=0 ⇔ Luego N (T ) = p ∈ P2 p : p (t) = xt2 − xt con x ∈R 2) Hallemos la imagen de T. TRANSFORMACIONES LINEALES. y0 . 1) Hallamos el n´cleo N (T ). EJEMPLO 7. (a. z0 ) ∈ R3 tal que ⇔ el sistema x+y =a y+z = b x0 + y0 = a y0 + z0 = b es compatible. b) ∈ R2 : b = 2a . EJEMPLO 7. Se considera la transformaci´n lineal T : R3 → R2 tal o que T (x. Como el sistema es siempre compatible. z) = 0 ⇔ (x + y. y + z). ı 2) Hallemos la imagen de T. z0 ) = (a.11. y.10. z) = (x + y. p (1)). y0 . Se considera la transformaci´n lineal T : P2 → R2 tal o que T (p) = (p (0) . u (x. p (1)) = (0. u Sea p : p (t) = xt2 + yt + z un polinomio de P2 p ∈ N (T ) ⇔ T (p) = (0. resulta que Im (T ) = R2 . y. . y. b) ⇔ existe (x0 . Luego: Im (T ) = (a.

un matriz en M2x2 (R) M ∈ N (T ) ⇔ T (M ) = 0 ⇔ ⇔ ⇔          1 −1 −2 2 1 −1 −2 2 = M = 0M2x2 (R) 0 0 0 0 0 0 0 0 a b c d ⇔ As´ N (T ) = ı M ∈ M2x2 (R) : M = a−c b−d −2a + 2c −2b + 2d  a−c = 0     b−d = 0 ⇔  −2a + 2c = 0    −2b + 2d = 0 = a = c b = d c cualquiera d cualquiera con c. p0 (1)) = (a. Como el sistema anterior es siempre compatible. b) ⇔ existe p0 : p0 (t) = x0 t2 +y0 t+z0 ∈ P2 tal que (x0 . x0 + y0 + z0 ) = (a. c d c d . resulta que Im (T ) = R2 EJEMPLO 7. IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL.´ ´ 7. b) ⇔ existen x0 . y0 .12.3. b) ∈ Im (T ) ⇔ existe p0 ∈ P2 tal que T (p0 ) = (a. d ∈ R . z0 ∈ R tales que ⇔ el sistema x=a x+y+z =b x0 = a x0 + y0 + z0 = b es compatible. Se considera la transformaci´n lineal o 1 −1 T : M2x2 (R) → M2x2 (R) tal que T (M ) = −2 2 1) Hallemos el N (T ) Sea M = a b c d · M. 213 (a. b) ⇔ ⇔ existe p0 ∈ P2 tal que (p0 (0) .

214 7. 2) Hallar la Im (T ) a b c d ∈ Im (T ) ⇔ existe T x0 y0 z0 t0 x0 y0 z0 t0 x0 y0 z0 t0 = a b c d ∈ M2x2 (R) tal que ⇔ existe 1 −1 −2 2 ⇔ existe ∈ M2x2 (R) tal que = a b c d x0 y0 z0 t0 x0 y0 z0 t0 ∈ M2x2 (R) tal que = a b c d ⇔ existen x0 . TRANSFORMACIONES LINEALES. x0 − z0 y 0 − t0 −2x0 + 2z0 −2y0 + 2t0 . z0 . o   −2x + 2z = c   −2x + 2z = d   x−z = a    y−t = b ⇔ el sistema tiene soluci´n o  0 = 2a + c    0 = 2b + d ⇔ 2a + c = 0 y 2b + d = 0. t0 ∈ R tales que  x0 − z0 = a     y 0 − t0 = b   −2x0 + 2z0 = c   −2x0 + 2z0 = d  x−z = a     y−t = b ⇔ el sistema tiene soluci´n. y0 .

Im (T ) es un subespacio vectorial de W.3. y. y. Luego Im (T ) es un subespacio de W. 0. N (T ) es un subespacio vectorial de V. x + 2z − t. w2 ∈ Im (T ) entonces existen v1 . z. Hallemos una base del n´cleo y una base de la imagen u 4 → R3 definida por de la transformaci´n lineal T : R o T (x. x + 2z − t. v2 tales que T ( v1 ) = w1 y T ( v2 ) = w2 . x + y + 3z − 3t) = (0. v2 ∈ N (T ) entonces: T (α v1 + β v2 ) = α T (v1 ) + β T (v2 ) = α . 0 + β . y.9. x + y + 3z − 3t) 1) (x.13. ´ Demostracion.´ ´ 7. ´ PROPOSICION 7. t) = (x − y + z + t. se tiene T (v) = α w1 + β w2 y por lo tanto α w1 + β w2 ∈ Im (T ) . 2) Si α . 0) ⇔ ⇔ (x − y + z + t. β ∈ K y v1 . Veamos que N (T ) = φ y que es cerrado respecto de las operaciones del espacio vectorial. Entonces si llamamos v = α v1 + β v2 . ´ PROPOSICION 7. 215 As´ la Im (T ) = ı a b c d ∈ M2x2 (R) : 2a + c = 0 y 2b + d = 0 . β ∈ K y w1 . An´logamente. 1) T (0) = 0 ⇒ 0 ∈ N (T ) . 0. EJEMPLO 7. a 1) T 0 = 0 ⇒ 0 ∈ Im (T ) 2) Si α . t) = (0. 0) . 0 = 0 ⇒ ⇒ α v1 + β v2 ∈ N (T ) Luego N (T ) es un subespacio de V. t) ∈ N (T ) ⇔ T (x.8. z. IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL. ´ Demostracion. z.

t) con z. t ∈ R tal que v = (x. hasta obtener el generador {(1. 1) . −3)} (observar que dichos vectores est´n en la imagen pues son imagen respectia vamente de los vectores de la base can´nica). −1. Observemos que (1.I Luego {(1. t ∈ R. y. z. 1) . 0.I. (1. 0) u o y (1. 1) (1. −1. 3)+t (1. es decir ∃ (x. z. −3) = −1 (1. Por ser {(−2. 2. y. 1) con z. x + y + 3z − 3t) ⇔ ∃x. 0. x−y+z+t = 0 ⇔ x + 2z − t = 0   x + y + 3z − 3t = 0 ⇔    Luego los vectores del n´cleo de T son de la forma u x−y+z+t = 0 ⇔ y + z − 2t = 0   x−y+z+t = 0  ⇔ y + z − 2t = 0   2y + 2z − 4t = 0 x = −2z + t y = −z + 2t (−2z + t. 0. 1. 1) . 0. 3) . . 1)} que s´ es L. 2. x + 2z − t. 1) Luego reducimos el generador L. TRANSFORMACIONES LINEALES. (−1. −3) . 2) w ∈ Im (T ) ⇔ ∃v ∈ R4 tal que w = T (v). −1.D. 3) = 2 (1. 0) + t (1. 1) . 1. 1) + (−2) (−1. y)+z (1. 2. w = (x − y + z + t. 1. 2. pues tiene 4 vectores y dim R3 =3. −1. 1. t) ∈ R4 tal que w = T (x. 1) un conjunto L. t ∈ R. z. x)+(−y. es una base de N(T).. Luego todo vector de la imagen de T es combinaci´n lineal de o {(1. (−1. (1. z. o Pero el conjunto anterior es L. 0. (−1.216 7. 1)} es base de Im (T ). y. 1. 0. 0. x. Como todo vector del n´cleo de T es combinaci´n lineal de los vectores (−2. 0. 0. −1. 1. 1. −z + 2t. 2. 0). z. −1. (1.D. ı (−2z + t. t) = z (−2. 1. 2. t) . −z + 2t. 1). 1) + (−1.

. vn }es un generador de V. . . . . . IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL. pues αd+1 T (ed+1 ) + · · · + αn T (en ) = 0 ⇒ T (αd+1 ed+1 + · · · + αn en ) = 0 ⇒ αd+1 ed+1 + · · · + αn en ∈ N (T ) . en V (es decir que la pre-imagen de un conjunto L. Aplicando T y usando la linealidad α1 T (v1 ) + · · · + αn T (vn ) = 0 y siendo {T (v1 ) . vn } es L. .I. . T (vn )} es un generador de la Im (T ). Luego w = T (v) = T (α1 v1 + · · · + αn vn ) == α1 T (v1 ) + · · · + αn T (vn ) As´ todo vector w ∈ Im (T ) es combinaci´n lineal de {T (v1 ) . ´ Demostracion. ii) Sean α1 .I. ii) Si {T (v1 ) . Esto prueba que {v1 . en Im (T ) entonces {v1 . ´ PROPOSICION 7. ed } es una base del N (T ) y {e1 . = αn = 0. Como v ∈ V y siendo {v1 . . . . . . . W espacios vectoriales de dimensi´n finita o sobre un mismo cuerpo y T : V → W lineal. T (vn )} es un conjunto L. . T (vn )} es un generador de la Im (T ) (es decir que la imagen de un conjunto generador de V es un generador de la Im (T )).I.3. . resulta que α1 = . .I.10. . ed+1 . . Sean V y W espacios vectoriales sobre un mismo cuerpo con dim (V ) = n y T : V → W una transformaci´n lineal. .´ ´ 7. . . . . . . en V) ´ Demostracion. entonces {T (v1 ) . . en la Im (T ) es un conjunto L. ed . αn escalares tales que v = α1 v1 + · · · + αn vn . . . . . . existen α1 . . . . i) Sea w ∈ Im (T ).I. 1) Es L. . Probaremos que {T (ed+1 ) . . .I. . . Sea V. . . . T (vn )} ⊆ ı o Im (T ) es decir que {T (v1 ) . . . . o Si {e1 . . 217 ´ PROPOSICION 7. i) Si {v1 . . . . . . .11. . . T (en )} es una base de la Im (T ). . . vn } es conjunto L. . . T (vn )} un conjunto L. en } es una base de V entonces {T (ed+1 ) . .I. . T (en )} es base de Im (T ). Entonces existe v ∈ V tal que w = T (v). . . . αn ∈ K tales que α1 v1 + · · · + αn vn = 0. vn } un generador de V. . .

TEOREMA 7. Sean V y W espacios vectoriales sobre un mismo cuerpo K. . . Discutiremos tres casos. . . Como N (T) es subespacio de V. . por la Proposici´n 7. . . vn } un generador de V. Hemos probado que {T (ed+1 ) . Entonces T (v) = 0 ∀v ∈ V . T (en )} generan la Im (T ) pues: Sea w ∈ Im (T ) ⇒ ∃v ∈ V tal que T (v) = w v = α1 v1 + · · · + αn vn . . . . vn } una base de V. αd+1 ed+1 + · · · + αn en es C. Sea {v1 . T (vn )} un generador de la Im (T ). . . Caso. . . . TRANSFORMACIONES LINEALES. Caso. El resultado es una consecuencia directa de la proposici´n anterior. o 3er. 1er. . . o .218 7. Caso.I.L de la base de N (T ). . o ´ Demostracion. T (en )}. Luego N (T ) = 0 . T (en )} genera a Im (T ). cumpli´ndose la tesis en este caso. . si d = dim (N (T )). 0 < d < n. . Entonces dim (V ) = dim (N (T )) + dim (Im (T )). . . . . es decir. . porque es base de V . en } es base de V. tenemos 0 d n. . d = dim (N (T )) = 0. es decir Im (T ) = 0 y dim (Im (T )) = 0. . con dim (V ) = n y T : V → W una transformaci´n lineal.12 (De las dimensiones). . . e 2do. {T (ed+1 ) .L. Pero {e1 . en } es L. . d=n. . Como dim (N (T )) = V obtenemos N (T ) = V . T (v) = w = T (α1 e1 + · · · + αn en ) = = α1 T (e1 ) + · · · + αd T (ed ) + αd+1 T (ed+1 ) + · · · + αn T (en ) = = αd+1 T (ed+1 ) + · · · + αn T (en ) . . T (en )} es L. Luego todo vector w ∈ Im (T ) es C. Por ser {v1 . . . αd+1 ed+1 + · · · + αn en = α1 e1 + · · · + αd ed −α1 e1 − · · · − αd ed + αd+1 ed+1 + · · · + αn en = 0. 2) {T (ed+1 ) .10(i) {T (v1 ) . . luego todos los coeficientes αi son ceros. .I. de {T (ed+1 ) . porque {e1 .

+ αn vn = 0 por ser {v1 . .13. + αn vn ) = T 0v y como T es inyectiva se obtiene ı que α1 v1 + . . . + αn vn = 0v y siendo A = {v1 . . . vn } base de V.I. se cumple que α1 = . As´ T (α1 v1 + . . . T (vn )} es L. . Sean α1 . vn } un conjunto L. αn ∈ K tales que α1 T (v1 ) + . . .I. Son equivalentes las siguientes afirmaciones: i) T es inyectiva. . . Sean V y W espacios vectoriales sobre un mismo cuerpo K y T : V → W una transformaci´n lineal.. iii) N (T ) = 0 . . + αn T (vn ) = 0w . . en W. . Debemos probar que α1 = . . En efecto e α1 T (v1 ) + . . . . . . + αn vn ⇔ α1 = . Transformaciones lineales inyectivas y sobreyectivas. . . . . o Recordemos que T es inyectiva cuando T (v1 ) = T (v2 ) entonces v1 = v2 . = αn = 0. . ´ PROPOSICION 7. .4. 219 Veamos que tambi´n es L. ii) Para todo conjunto A linealmente independiente de V se cumple que T (A) es linealmente independiente en W. . Siendo T lineal obtenemos T (α1 v1 + . . . . . = αn = 0 ∈ N (T ) ⇔ α1 v1 + . . de V. .I. ´ Demostracion. . . As´ dim (Im (T )) = n y se cumple que dim V = dim N (T )+dim Im (T ). i) ⇒ ii) Sabemos que T es inyectiva. . Por lo tanto {T (v1 ) . = αn = 0. + αn vn ) = 0 ⇔ α1 v1 + .. . Sea A = {v1 . . . TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. . ı 7. + αn T (vn ) = 0 ⇔ T (α1 v1 + . . o equivalentemente v1 = v2 entonces T (v1 ) = T (v2 ).4. . T (vn )} es base de la Im (T ). .7. + αn vn ) = 0w . vn } L.I. . Probemos que T (A) = {T (v1 ) . . . . . .

Pero Im (T ) = W . en W y por ii) T (v) = 0w es L. As´ T (A) es un generador de W. . Luego A = {v} es L. ´ PROPOSICION 7.I. αn ∈ K tales que w = α1 T (v1 ) + . .I.Sea w ∈ W . . .14. . Por la Proposici´n 7. T (vn )} es generador de W. . que N (T ) = 0v .220 7.10 o se cumple que T (A) es un generador de la Im (T ). + αn vn ) Hemos probado que dado w ∈ W existe v0 = α1 v1 + . . iii) ⇒ i)SiT (v1 ) = T (v2 ) ⇒ T (v1 ) − T (v2 ) = 0w luego T (v1 − v2 ) = 0w ⇒ v1 − v2 ∈ N (T ) por iii) v1 − v2 = 0v es decir v1 = v2 . como T (A0 ) es generador de W. v ∈ N (T ) con v = 0v . . . . por absurdo. Recordemos ahora que T es sobreyectiva cuando ∀w ∈ W existe v ∈ V con T (v) = w. + αn vn ∈ V tal que w = T (v0 ) luego T es sobreyectiva. .Entonces existe porhiptesis ⇒ T (A) = T (v) es L. o equivalentemente Im (T ) = W . . . en V ii) ⇒ iii) Supongamos. i) ⇒ ii) Sea A un generador de V. TRANSFORMACIONES LINEALES. . .. ´ Demostracion. vn } generador de V tal que T (A0 ) = {T (v1 ) . . por ser T sobreyectiva. ı ii) ⇒ iii) Inmediato. existen α1 . . . Son equivalentes las siguientes afirmaciones: i) T es sobreyectiva ii) Para todo A generador de V se cumple que T (A) es un generador de W iii) Existe un generador A0 de V tal que T (A0 ) es generador de W. iii) ⇒ i) Sabemos que existe A0 = {v1 . Absurdo. + αn T (vn ) Siendo T lineal se cumple que w = T (α1 v1 + . . .I. . Recordemos por ultimo que T es biyectiva cuando es inyectiva y sobre´ yectiva.

Luego usando la linealidad de T se obtiene que T (v) = α1 T (v1 ) + . .13 se obtiene que T (B) es o L. . .I. o ´ PROPOSICION 7. o −1 : W → V es una transformaci´n lineal. W espacios vectoriales sobre un mismo cuerpo y T : V → W una transformaci´n lineal y biyectiva. Sean V. . 221 ´ PROPOSICION 7. . ii) ⇒ iii) Inmediato. + αn T (vn ). (por ser base) entonces α1 = . αn ∈ K tales que v = α1 v1 + . . . . + αn T (vn ) = 0 Pero T (B0 ) = {T (v1 ) . .14 se obtiene que T (B) es o generador de W (2”) De (1”) y (2”) se tiene que T (B) es una base de W.7. . . . . . Pero como v ∈ N (T ). . luego por la proposici´n 7.15. .Probemos que T es inyectiva.I. lo cual es equivalente a probar que N (T ) = 0 . TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. . = αn = 0 As´ v = 0.4.. . Entonces la funci´n inversa T o o .16. B es una base de V ⇔ T es lineal e inyectiva (1) T es lineal y sobreyectiva (2) B es L.14 T es sobreo yectiva. en particular existe B0 es generador de V tal que T (B0 ) es generador de W. (1′ ) B es generador de V (2′ ) De (1) y (1’) aplicando la Proposici´n 7. i) ⇒ ii)T es lineal y biyectiva ⇔ Por otro lado. es decir. + αn vn . Son equivalentes las siguientes afirmaciones: i) T es biyectiva ii) Para toda base B del espacio V se cumple que T(B)es una base de W iii) Existe una base B0 del espacio V tal que T (B0 ) es una base de W.I. .(1”) De (2) y (2’) aplicando la Proposici´n 7. . se tiene que T (v) = 0 α1 T (v1 ) + . iii) ⇒ i) Sabemos que existe B0 es base de V tal que T (B0 ) es base de W. . T (vn )} es L. si v ∈ N (T ) ⊆ V por ser B0 = {v1 . que existe la funci´n inversa T −1 . vn } base de V se cumple que existen α1 . ´ Demostracion. . ı Recordemos que T es biyectiva si y solo si T es invertible.

222 7. ´ Demostracion.6. TRANSFORMACIONES LINEALES.18. 7. Isomorfismos entre espacios vectoriales ´ DEFINICION 7. a) Diremos que una transformaci´n lineal T : V → W biyectiva es un o isomorfismo.5. e un isomorfismo entonces T ´ PROPOSICION 7. ´ OBSERVACION 7. Entonces las proposiciones a) y b) son equivalentes: a) dim (V ) = dim (W ) b) V es isomorfo a W.17. Observando que T T −1 (w) = w y que T es lineal. b) Diremos que V y W son isomorfos cuando existe un isomorfismo que lleva V en W. Sean V y W dos espacios vectoriales de dimensi´n o finita sobre un mismo cuerpo K. Sean V. Sean w1 y w2 ∈ W y λ y µ ∈ K. De acuerdo a la proposici´n 7.16 si T : V → W es o −1 : W → V tambi´n lo es. . W espacios vectoriales sobre un mismo cuerpo K. λ w1 + µ w2 = λT T −1 (w1 ) + µT T −1 (w2 ) = = T λT −1 (w1 ) + µT −1 (w2 ) Aplicando T −1 a ambos miembros T −1 (λw1 + µ w2 ) = λT −1 (w1 ) + µT −1 (w2 ) .

. . ´ PROPOSICION 7.5. T es un isomorfismo por la proposici´n 7. Sean A = {v1 . . sobre el cuerpo K.20. Como existe una base A de V tal que T (A) = B es base de W. . . . . existen y son unicos α1 . o ı Las coordenadas como transformaci´n lineal o Sea V un espacio vectorial de dimensi´n n sobre el cuerpo K. ´ Luego definimos coordB : V → K n tal que   α1   . . . . . wn } base de W. Por el teorema de las dimensiones se tiene que dim (V ) = dim (N (T )) + dim (Im (T )). Luego definimos T : V → W lineal tal que T (vi ) = wi (T est´ ”bien definida”por el a teorema 7. con dim (V ) = n.  αn (es decir que a cada vector v ∈ V le asociamos sus coordenadas en la base B). . coordB es un isomorfismo entre V y Kn .   . Si V es un espacio vectorial. αn ∈ K tales que v = α1 v1 + .7. ISOMORFISMOS ENTRE ESPACIOS VECTORIALES 223 ´ Demostracion. + αn vn .15.4). . o b) ⇒ a) Como V es isomorfo a W. Luego dim (V ) = dim (W ). Por ser T inyectiva dim (N (T )) = 0. . . vn } del espacio V. ´ Demostracion. COROLARIO 7. vn } base de V y B = {w1 . En efecto el espacio vectorial K n sobre el cuerpo K tiene dimensi´n n.19. . a) ⇒ b) Sea dim (V ) = dim (W ) = n. Fijemos o una base B = {v1 . . . . . coordB (v) =  . entonces V es isomorfo a K n . . As´ dim (V ) = dim (K n ) = n ⇒ V yK n son isomorfos.Por ser T sobreyectiva Im (T ) = W . entonces ∀v ∈ V . existe un isomorfismo: T : V → W .

  = coordB (λv) As´ λ coordB (v) = λ  . . .    αn βn αn + βn coordB (v + w) Por otro lado si λ ∈ K.   .   .  Luego v + w = (α1 + β1 ) v1 + .  βn           β1 α1 + β1 α1        = . βn ∈ K tales que ´   α1  . . luego existen y son unicos α1 . se tiene que λv = λ (α1 v1 + .224 7. + αn vn ) =   λα1   . αn ∈ K y β1 . .   . TRANSFORMACIONES LINEALES. ⇒ coordB (v + w) =  . + βn vn  β1  .   αn λαn 2) Como dim (V ) = dim (K n ) = n para probar que coordB es biyectiva. w ∈ V . αn + βn  .  =  . ´ Demostracion.   λαn    α1 λα1  . . + λαn vn ⇒ coordB (λv) =  .   . Sean v.  . + αn vn ⇒ coordB (v) =  . ı . .  = λα1 v1 + .  =  . . 1) coordB es lineal.   .  +  . ı . . . . .  ⇒ coordB (w) =  . .  αn w = β1 v1 + . .  . . . alcanza con probar que coordB es inyectiva. . As´ coordB (v) + coordB (w) =  .  v = α1 v1 + . + (αn + βn ) vn  α1 + β1  . . . . . . .

. 225 N (coordB ) = 0 ⇒ coordB es inyectiva. . Como coordB (v) =  . . + a2m wm . Ahora bien. . + a1m wm T (v2 ) = a21 w1 + a22 w2 + . T (vn ) = an1 w1 + an2 w2 + .   a2m Luego definimos:      . . . . w2 . W espacios vectoriales de dimensi´n finita sobre un mismo o cuerpo K y T : V → W una transformaci´n lineal.6.  ⇔ v = 0v1 + . . . . . anm       .  0   . . . . + 0vn ⇔ v = 0  .  a11 a12 . . .6. T (v1 ) . Matriz asociada a una transformaci´n lineal. coordB (T (vn )) =       an1 an2 . T (vn ) son vectores de W y por lo tanto cada uno de ellos es una combinaci´n lineal de los vectores de la base B: o T (v1 ) = a11 w1 + a12 w2 + . . . . . . . . o Sean V. MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. .. Supongamos que A = o {v1 . . . . a1m    . wm } es una base de W. . . . . . vn } es una base de V y B = {w1 . . . . .  0  7. . + anm wm En otras palabras     coordB (T (v1 )) =      coordB (T (v2 )) =     a21 a22 . v2 ..´ 7. . . T (v2 ) . . .

0) . . 0. ´ DEFINICION 7. 2x + y. . Esto es B ((T ))A = [coordB T (v1 ) ] . · · · an1 · · · an2 . . 0) + 2 (0. . a21 a22 . Se llama representaci´n matricial de T en las bases A y o B o matriz asociada a T en las bases A y B. 0. (0. TRANSFORMACIONES LINEALES. 0) . 0) + 1 (0. 0) = (4. 2. y) = (4x − 2y. a1m a2m · · · anm EJEMPLO 7. Consideremos la transformaci´n lineal T : R2 → R3 tal o que T (x. 1)} de R2 y B = {(1. 0) . x + y) ∀x ∈ R2 . a la matriz que representaremos por B ((T ))A y cuya i-´sima columna son las coordenadas del vector T (vi ) e en la base B. 1)} de R3 .14. . 1.       = Nota.7. 1. . 1) . (0. . La matriz asociada se obtiene colgando” las coordenadas respecto ¸ e ındices a la base de W de los vectores de la base de V . Para hallar la matriz asociada a T en dichas bases 1) Hallamos las im´genes de los vectores de la base A a T (1. [coordB T (v2 )] . . . 0. alcanzar´ a ıa con cambiar las denominaciones de los sub´ ındices de las coordenadas de T (vj ) para obtener la forma habitual. 0. Obs´rvese que los sub´ de esta matriz est´n colocados de manera distinta a la habitual. 1) T (0.226 7. 2. 1. (0. 1) = (−2. 0) = (4. 1) = 4 (1. 1) 2) Calculamos las coordenadas de estos en la base B T (1. . y las bases can´nicas A = o {(1. [coordB T (vn )]   =    a11 a12 .

0) + 1 (0. p2 . 1. 1 1 1 EJEMPLO 7. Luego B ((T ))A =  2 1 . 1) = (−2. Para hallar la matriz asociada a T en dichas bases. 0) ⇒ coordB (T (p3 )) = Luego B  4   ⇒ coordB (T (1. 1) − 4 (1. 1) = 1 (1. p2 : p2 (t) = t . MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. 4) 2) Calculamos las coordenadas de estos en la base B T (p1 ) = (2. 0)) =  2  1  1 1 1 0 4 −4 ((T ))A = 1 1 4 1 0 −4 . p3 : p3 (t) = 1 ∀t ∈ R. 4) = 4 (1.´ 7. 0) ⇒ coordB (T (p1 )) = T (p2 ) = (1. 1) = −2 (1. 1)) =  1  . 1) + 0 (1. 1) Hallamos las im´genes de los vectores de la base A a T (p1 ) = (2. 1) + 1 (1. 1. 1) T (p2 ) = (1.15. a + b + 4c) ∀p ∈ P2 tal que p (t) = at2 + bt + c ∀t ∈ R y las bases A = {p1 . 1)     −2 4 −2     ⇒ coordB (T (0. . 0)} de R2 . 1) . (1. 0) + 1 (0. 1) T (p3 ) = (0. 227 T (0. 0. Consideremos la transformaci´n lineal T : P2 → R2 tal o que T (p) = (2a + b. y B = {(1. 0. 0) ⇒ coordB (T (p2 )) = T (p3 ) = (0. p3 } de P2 donde p1 : p1 (t) = t2 . 1) = 1 (1.6.

T (p1 ) = p0 . La matriz B ((T ))A como reci´n vimos. dada una matriz M de tama˜o m×n y dos bases A y B n de los espacios V y W respectivamente. Si dim(V)=n y dim(W)=m la matriz asociada tiene dimensi´n m × n.21.22. Rec´ ıprocamente.16. T (p2 ) = 2p1 2)Calculemos las coordenadas de estos en la base A  0   T (p0 ) = 0 = 0p0 + 0p1 + 0p2 ⇒ coordA (T (p0 )) =  0  0   1   T (p1 ) = p0 = 1p0 + 0p1 + 0p2 ⇒ coordA (T (p1 )) =  0  0   0   T (p2 ) = 2p1 = 0p0 + 2p1 + 0p2 ⇒ coordA (T (p2 )) =  2  0   0 1 0   Luego A ((T ))A =  0 0 2  0 0 0 ´ OBSERVACION 7. queda completamente determinada una transformaci´n lineal T tal que B ((T ))A =M. t 1) Hallemos las im´genes de los vectores de la base A: a T (p0 ) = 0. queda come pletamente determinada conocidas la transformaci´n lineal T y las bases A o y B del dominio y codominio respectivamente. p2 } donde pi (t) = i .228 7. o ´ OBSERVACION 7. p1 . TRANSFORMACIONES LINEALES. EJEMPLO 7. Consideremos la transformaci´n lineal T : P2 → P2 tal o ′ y la base can´nica de P que T (p) = p o 2 A = {p0 . o  . 2. 1. i = 0.

−3) Ahora bien siendo A = {(1. 0)) = Luego T (1. 0.4. 0. 0) . 0)) = coordB (T (0. y. esto es suficiente para determinar T. 0. 1. −1) + 1 (0. 2) = (6. 1) . 0) + y (0. 2) = (4. −1) + 0 (0. y a por el Teorema 7. 0) . − x + 5y + z 2 2 x−z 2 (2. 0) + x−z 2 T (2. 1. 0.6. (0. 5) = 2 .´ 7. 0. −1) . 0. z) = z (1. 0) = 3 3 3x − 2z − 2y. MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. 0. 1. 0) T (0. 2) = (−2. 0)} una base de R3 se cumple que ∀ (x. 1) . al conocer la matriz M. 0. z) = z T (1. 0. (2. 1)) = 2 1 3 0 −1 2 coordB (T (2. 0) + y T (0. 229 En efecto. 0. 0) = −1 (2. z) ∈ R3 que (x. sus columnas son las coordenadas en la base B de las im´genes de dos vectores de la base A. 1) + z (4. 1. EJEMPLO 7. (0. −3) + y (−2. (0. Hallar la transformaci´n lineal T : R3 → R2 sabiendo o 2 3 −1 que B ((T ))A = donde A = {(1.17. 1. 5) x−z · (6. 0. −1) + 2 (0. 0. 0) = 3 (2. a Esto nos permite conocer a las im´genes de los vectores de la base A. 0) T (2. y. 1) + Luego por la linealidad de T T (x. (2. 0)} es 1 0 2 base de R3 y B = {(2. 1) = 2 (2. y. 1. 2)} es base de R2 De acuerdo a la definici´n de matriz asociada o coordB (T (1.

dim(V)=n y dim(W)=t. TRANSFORMACIONES LINEALES. Sea C ((T ))B = (ai j ). Sean A = {u1 . z) = 3 3 3x − 2z − 2y. . V y W. . Sea uk ∈ A. V y W respectivamente. vn } y C = {w1 . wt } bases de U. 1 k s. y. B = {v1 . Entonces la matriz asociada a la composici´n T ◦ S es el producto de las matrices asociadas. . i=1 ´ OBSERVACION 7. us } . Sea T : V → W un isomorfismo. As´ T : R3 → R2 es tal que ı T (x. 1 j n. y las transformaciones lineales S : U → V yT : V → W . y sea T −1 : W → V la inversa de T. ai j bj k  wi = ci k wi . Como T ◦ T −1 = idW ⇒ ⇒ B′ ((T ))B .230 7. . B y B’ bases de V y W respectivamente. B ′ ((T ))B B . . .  Calculemos C ((T ◦ S))A . . . Es o decir C ((T ◦ S))A =C ((T ))B B ((S))A . por definici´n de matriz asociada o ((T ◦ S))A = (ci j ). B ((S))A = (bj k ) y C ((T ))B B ((S))A = (ci j ) con 1 i t.23. con dim(U)=s. .24. ´ Demostracion. . n j=1 (T ◦ S) (uk ) = T (S (uk )) = T  n t t  n n j=1 bj k T (vj ) = j=1 bj k i=1 ai j wi = i=1   C bj k vj  =  t j=1 Resulta. B T −1 T −1 B′ = B ′ ((idW ))B ′ = I = ((idV ))B = I y de T −1 ◦ T = idV B′ B . . − x + 5y + z 2 2 ´ PROPOSICION 7. . Considere los K-espacios vectoriales U. n Por definici´n de producto de matrices ci k = o j=1 ai j bj k .

. Ya vimos (observaci´n 7.22) que fijando bases hay una correspondencia o biun´ ıvoca entre matrices y transformaciones lineales. B = (bi j ) = E ´ Demostracion. Adem´s (λ T ) vj = λ T (vj ) = a i=1 ai j wi = λ ai j wi ⇒ E ((λ T ))B = (λ ai j ) = λ A. . . En . C son matrices. wm } base de W. Entonces: E ((T + S))B = m E ((T ))B + E ((S))B . Sean T : K n → K m tal que Em ((T ))En = . T : V → W y S : V → W y α un escalar de K. Consideremos los espacios vectoriales K m . K p . K n . por lo tanto. . Es decir si B ′ ((T ))B = A ⇒ o −1 −1 T = A B B′ ´ PROPOSICION 7. MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. K r y sus respectivas bases Em . vn } base de V y E = {w1 . ´ OBSERVACION 7. Sea B = {v1 . .6. B. Ep Er . entonces: (A B) C = A (B C) si las dimensiones relativas de las matrices hacen que la expresi´n tenga o sentido.25. Sean A = (ai j ) =E ((T ))B tonces: T (vj ) = T (vj ) + S (vj ) = i=1 E ((T m i=1 m ((S))B . m E ((λ T ))B = λ E ((T ))B . .´ 7. . . el producto anterior se puede interpretar como un producto (o composici´n) de o transformaciones lineales. De donde (T + S ) (vj ) = m i=1 ai j wi + i=1 bi j wi = (ai j + bi j ) wi ⇒ + S))B = (ai j + bi j ) = A + B. Se trata de ver que si A. Demostraci´n de la propiedad asociativa del proo ducto de matrices usando transformaciones lineales. 231 y por lo tanto la matriz asociada a la transformaci´n inversa es la inversa o de la matriz asociada a la transformaci´n.26. Sean dos transformaciones lineales de espacios vectoriales sobre un cuerpo K. En- ai j wi S (vj ) = i=1 m m i=1 bi j wi .

2  siendo B ((T ))A =  . wm } bases ordenadas de V y W respectivamente. . ((L)) = ((T ◦ S)) . . Luego. + am1 wm T (v2 ) = a12 w1 + a22 w2 + . a2n   . (B. las bases en cuesti´n. TRANSFORMACIONES LINEALES. .  am1 am2 .232 7. .27.  . . . . . vn } y B = {w1 . ((L)) = = (((T ◦ S) L)) = ((T ◦ (S ◦ L) )) = = ((T )) . a1n x1      a21 a22 . w2 . ((S))] . . en virtud de que la composici´n de funciones es asociativa teneo mos que: (A . wm }. v2 .   . . + amn wm . . B ((T ))A =  . . . S : K p → K n tal que En ((S))Ep = Bn × p y L : K r → K p tal que Ep ((L))Er = Cp × r . amn por definici´n de matriz asociada o T (v1 ) = a11 w1 + a21 w2 + . + am2 wm (I) . . . C = [((T )) . . a1n    a21 a22 . . . .) o o TEOREMA 7. .  .   . ((S L)) = ((T )) [((S)) .  y B = {w1 . . . am1 am2 . .C) (Hemos omitido para simplificar la notaci´n. A = {v1 . . . . T (vn ) = a1n w1 + a2n w2 + . W espacios vectoriales sobre un mismo cuerpo K. . a2n   x   . . . . . Sean V.  . Usaremos las siguientes notaciones    a11 a12 . Am × n . w2 . . . amn xn   a11 a12 . . . . . . . y T : V → W una transformaci´n lineal. Entonces se o cumple que B ((T ))A coordA (v) = coordB (T (v)) ´  Demostracion. . B) . . .  y coordA (v) =  .  . .  . ((L))] = A. .

. + amn wm ) = = (x1 a11 + x2 a12 + . 0) . .´ 7. .     y A = {v1 . . + xn amn ) wm . 0) + 1 (1. 1. . 1. 0. Sea T : R3 → R3 tal que B ((T ))A =  2 0 0  3 4 1 siendo A = B = {(1. . . . . . + xn T (vn ) Sustituimos (I) en (II) obteniendo T (v) = x1 (a11 w1 + a21 w2 + . + xn vn . . . . 0. . . . 0) + (−1) (1. . + xn a2n . 1)  . . a12 a22 .  x1 a11 + x2 a12 + . . . . . . . + am2 wm ) + . . . . . . . . 233 xn v = x1 v1 + x2 v2 + . .18. + am1 wm ) + x2 (a12 w1 + a22 w2 + . Como (2. . 1. 1)} . + xn (a1n w1 + a2n w2 + . .   =   B ((T ))A coordA (v) am1 am2 . . a1n . MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. . Hallar T (2. . . a2n . . . (1. . x1 am1 + x2 am2 + . + (x1 am1 + x2 am2 + . xn     =      y siendo coordA (v) =     x1 x2 . 0. + xn a1n x1 a21 + x2 a22 + . . .6. . vn } tenemos que     Luego coordB (T (v)) =      =    a11 a21 . −1). + xn a1n ) w1 + (x1 a21 + x2 a22 + . . (1. 0) . + xn a2n ) w2 + . 0. . + xn amn             x1 x2 . . . . amn  1 −1 0   EJEMPLO 7. . −1) = 2 (1. v2 . Luego aplicando T y usando la linealidad (II) T (v) = x1 T (v1 ) + x2 T (v2 ) + . 1. . .

−1) =       1 −1 0 2 3       = 2 0 0   −1  =  4  3 4 1 1 −3  As´ T (2. N´ cleo e imagen de una matriz. . 0.234 7. 0.  xm ´ PROPOSICION 7.8. . 0) + (−3) (1. 1. xm ) ∈ K m  .27 se cumple que coordB (T ((2. . 0. 0) + 4 (1. . u o N (A) = N (TA ) = x ∈ Rm : TA (x) = 0 = x ∈ Rm : A x = 0 En otras palabras el N (A) son las soluciones del sistema de ecuaciones homog´neo A x = 0. e def . definimos la transformaci´n TA : K m → K n tal que   x1   . . 1) = (4.7.  ∀ (x1 . u o Dada una matriz A ∈ Mnxm (K). TRANSFORMACIONES LINEALES. 0. xm ) = A  . 0. . 1.28. .  2   resulta que coordA (2. 1. Definimos el n´ cleo de la matriz u A como el n´cleo de la transformaci´n lineal TA . ´ DEFINICION 7. (a) TA es lineal (b) Si Em y En son las bases can´nicas de K m y K n respectivamente o entonces En ((TA ))Em = A ´ Demostracion. (Ejercicio). TA (x1 . Sea A ∈ Mnxm (K). −1) = 3 (1. −1) =  −1  1 Luego de acuerdo al Teorema 7. . −3) ı 7. −1))) =B ((T ))A coordA (2.

  . . Sea A ∈ Mnxm (K). 235 ´ DEFINICION 7.7.   . . .   . . Entonces de acuerdo a o Si {e1 . NUCLEO E IMAGEN DE UNA MATRIZ. Las columnas de A generan a la Im (A).  xm m .    Im (TA ) = Im (A).31. . .  ´ Demostracion. .10(i) {TA (e1 ) . El rango de una matriz A es la dimensi´n de su o imagen.9. . e2 . COROLARIO 7. Pero TA (ei ) = A  1  = A(i) (i-´sima columna de e  . Resulta obvio de las definiciones 7.3.  0 (1) .   x1  .´ 7.2. . .   . . A(m) constituyen un generador de la A) As´ las columnas de A A ı Im (A). . o Im (A) = Im (TA ) = {y ∈ Rn : existe x ∈ Rm tal que TA (x) = y} = En otras palabras la Im (A) son los ”t´rminos independientes”y ∈ Rn para e los cuales el sistema A x = y es compatible. es decir r (A) = dim (Im (A)).29. Definimos la imagen de la matriz A como la imagen de la transformaci´n lineal TA . que N (A) es un subespacio de Rm y Im (A) es un subespacio de Rn (por serlo N (TA ) e Im (TA )) ´ PROPOSICION 7. TA (e2 ).  0  . {y ∈ Rn : existe x ∈ Rm tal que A x = y} def ´ OBSERVACION 7.. . . . xm ) = A  . y 7.  . em } es la base can´nica de R la proposici´n 7. . . Sea TA : K m → K n tal que TA (x1 .30. TA (em )} es un generador de la o .

(1. 1)} es base del N (A) (¿por qu´?) ı e Por otro lado de acuerdo a la Proposici´n 7. 1. Sea (x. z) = z (−1. 2. −1) . 1.19. −2) = (1. y. Entonces −1 1 −2           1 01 x 0 x 0           A y  =  0  ⇔  2 1 1   y = 0 ⇔ z 0 −1 1 −2 z 0             1 0 1 x 0 1 0 1 x 0              0 1 −1   y  =  0  ⇔  0 1 −1   y  =  0  0 1 −1 z 0 0 0 0 z 0     x = −z  x+z =0  ⇔ ⇔ y=z  y−z =0    z cualquiera EJEMPLO 7.D. z) ∈ N (A) . 1. Hallar una base del n´cleo y una base de la imagen de u la matriz   1 −1 1 1   A= 1 0 2 −1  . Entonces 1 1 3 −3           x x 0 1 −1 1 1 0  y          y    A  =  0  ⇔  1 0 2 −1    =  0  ⇔  z   z  0 1 1 3 −3 0 t t . 1. 1). Sea (x. y. EJEMPLO 7. t) ∈ N (T ) . 1. 2. z.I.30 resulta que o {(1. el generador es L. Hallemos bases del n´cleo y de la imagen de la matriz u   1 0 1   A= 2 1 1  . TRANSFORMACIONES LINEALES. −1)−(0. −2)} genera a la Im (A). Como (1. 1.20. 1. –y por tanto una base– de Im (A) (verifique). Luego los vectores del n´cleo de A son de la forma (−z. 1)} que es un generador L. (0.236 7. 1) . 2. −1) . z. 1) . y lo reducimos hallando {(1. (0. u As´ {(−1.

1) . Por la proposici´n 7.I. (1. 2. Relaci´n entre n´ cleo e imagen de una transformaci´n lineal o u o y de una matriz. NUCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 3) . Entonces: . −z + 2t. .D. 0.. 0. 1) . −1.I. .8. z. 0. (−1. v2 . w2 . 3) = 2 (1. 1)} que es un generador L. 2. . −3)} es un o generador de la Im (A) que claramente es L. (1.´ 7. de la Im (A) y por lo tanto es base. −3) = −1 (1. 0. . Observando que (1. 1) . T : V → W lineal. 237    x 1 −1 1 1   0   y    1 1 −2    =  0  ⇔  0  z  0 2 2 −4 0 t     x   1 −1 1 1   0   y    1 1 −2    =  0   0  z  0 0 0 0 0 t   x = −2z + t        x−y+z+t = 0  y = −z + 2t ⇔ ⇔  y + z − 2t = 0  z = cualquiera       t = cualquiera As´ los vectores del n´cleo de A son de la forma ı u   (−2z + t. 1) Luego {(−2. 1. 0.. (1.30 {(1. W espacios vectoriales sobre un mismo cuerpo A = {v1 . (−1.8. 0. 2. 1. 1) + (−2) (−1. . 1) reducimos el generador anterior hasta obtener {(1. wn } una base de W. . 1) + (−1. 2. 1)} es un generador L. 0. 1) (1. 1. t) = z (−2. Sean V. . 1. vn } una base de V. del N (A) (verifique) y por lo tanto es base. 1. 1) . 1) + t (1. . ´ PROPOSICION 7.  7. 1.32. B = {w1 . 0. −1.

. . .  xn ⇒ coordB (T (v1 )) .xn = 0 ⇒ (por ser coordB ⇒ lineal ) coordB (x1 T (v1 ) + . . .. por el Teorema 7.  = 0. 1) Si v ∈ N (T ) entonces T (v) = 0. . Pero. As´ coordB (T (v)) = 0. + xn T (vn ) = 0 (por ser coordB ⇒ inyectiva) (linealidad de T ) ⇒ T (x1 v1 + .x1 + . + xn vn ∈ N (T ) . .238 7. .  . . 1) Si v ∈ N (T ) ⇒ coordA (v) ∈ N (B ((T ))A ) 2) Si x ∈ N (B ((T ))A ) ⇒ coord−1 (x) ∈ N (T ) A ´ Demostracion. . . . [coordB (T (v1 ))]) . . 2) Si x = (x1 . . .  ([coordB (T (v1 ))] . + coordB (T (vn )) . Siendo coordB : W → Rm una transformaci´n lineal se cumo ple: coordB 0 = 0. . coord−1 (x) A .27: ı coordB (T (v)) =B ((T ))A coordA (v) As´ B ((T ))A coordA (v) = 0 esto es coordA (v) ∈ N (B ((T ))A ) ı   x1   . .  xn tonces. Luego como T (v) y 0 coinciden sus coordenadas en la base B tambi´n: coordB (T (v)) = e coordB 0 .  = 0  . . . . TRANSFORMACIONES LINEALES. + xn T (vn )) = 0 x1 T (v1 ) + . + xn vn ) = oV ⇒ x1 v1 + . En . . teniendo en cuenta que las columnas de la matriz asociada son las coordenadas de los transformados de la base del dominio se tiene que   x1  . xn ) ∈ N (B ((T ))A ) ⇒B ((T ))A  . .

cordemos que coordA : V → R Pero la proposici´n anterior nos asegura que todo vector del N (T ). . dim (Im (M )) = rango (M ). 239 ´ OBSERVACION 7. w2 .. . Sean V. . 3) Si {e1 . 2) Basta recordar que dos espacios isomorfos tienen la misma dimensi´n o y que si M es una matriz. 3) Los isomorfismos ”llevan bases en bases”. . vn } una base de V. T : V → W lineal. W espacios vectoriales sobre un mismo cuerpo A = {v1 . coordA (ek )} es base del N (B ((T ))A ) 4) Si {x1 . al o aplicarle la transformaci´n lineal coordA se obtiene un vector del N (B ((T ))A ) o y rec´ ıprocamente todo vector del N (B ((T ))A ) al aplicarle la transformaci´n o −1 lineal inversa coordA (x) se obtiene un vector del N (T ). coord−1 (x2 ) . . coordA (e2 ) . . Esto nos permite enunciar la siguiente ´ PROPOSICION 7. . . . 4) La inversa de un isomorfismo es un isomorfismo. . .. coord−1 (xk ) es base del N (T ). . x2 . . (Ejercicio) Sugerencias: 1) Vimos en la observaci´n anterior que coordA es un isomorfismo entre o N (T ) y N (B ((T ))A ). . . NUCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES.34. xk } es base del N (B ((T ))A ) ⇒ coord−1 (x1 ) . . o . ek } es base del N (T ) ⇒ {coordA (e1 ) . v2 .33. wn } una base de W. ..´ 7. . Luego coordA es un isomorfismo entre el N (T ) y N (B ((T ))A ). .8. B = {w1 . Con las notaciones de la proposici´n anterior reo n es un isomorfismo entre V y Rn . . . Entonces: 1) N (T ) y N (B ((T ))A ) son isomorfos 2) dim(N (T )) = n − rango(B ((T ))A ). e2 . Recomendamos prestar particular atenci´n a los ejemplos que siguen. A A A ´ Demostracion. . . .

0 0 −1 0 una transformaci´n lineal T : M2x2 (R) → o  1 1  2 −1  siendo 3 −3 . 1. 1. 1 −1 0 0 . 1. 0. Primero calculamos una base del u n´cleo de la matriz B ((T ))A . 1. 1)} . 0) . Entonces u           x x 0 1 −1 1 1 0  y   y            0 2 −1    =  0  ⇔ = 0 ⇔ 1 B ((T ))A   z   z  0 1 1 3 −3 0 t t    x 1 −1 1 1 0  y       1 1 −2    =  0  ⇔  0  z  0 2 2 −4 0 t       x 0 1 −1 1 1     y    1 1 −2    =  0   0  z  0 0 0 0 0 t   x−y+z+t = 0 y+z+t=0 ⇔ B  ⇔ As´ los vectores del n´cleo de la matriz ı u ((T ))A son de la forma x = −2z − 2t y = −z − t (−2z − 2t. 1. 1)} es una base del N (B ((T ))A ).21. TRANSFORMACIONES LINEALES. (0. 1) . z. coord−1 (−2. 0) . (0. Queremos hallar una base del n´cleo de T. 1. EJEMPLO 7. 1. 0) + t (−2. 1) = A A . 1. Sea (x. de acuerdo con la Proposici´n 7. 1) .240 7. z. (−2. Luego. 0. 1) Entonces {(−2. y. t) ∈ N (B ((T ))A ) . Se considera  1 −1  3 tal que R 0 B ((T ))A =  1 1 1 A= 1 1 1 1 . 1 0 0 0 y B = {(1.34 o coord−1 (−2. t) = z (−2. 0. 1. 1. 0. 1. z + t.

p1 . Se considera transformaci´n lineal T : P2 → R3 tal una o  1 2 −1   que B ((T ))A =  0 1 1  siendo A = {p0 . y) ∈ N (B ((T ))A ) ⇔B ((T ))A ⇔ 1 2 2 4 x y = 0 0 x y = 0 0 ⇔ ⇔ x + 2y = 0 ⇔ x = −2y As´ los vectores del n´cleo de la matriz B ((T ))A son de la forma: (−2y. 1) = {−2 (1. 1. 0.34. 2) y B = {(2.´ 7. 1)} o A es una base del N (T ). 1). 3)}. Luego. 1)}. 241 = −2 1 1 1 1 +1 0 0 −1 0 +1 1 −1 0 0 +0 1 0 0 0 . u . y) = ı u y (−2. 0. Se considera una transformaci´n lineal T : R2 → R2 tal o 1 2 que B ((T ))A = siendo A = B = {(1. coord−1 (−2. p2 } con pi : pi (t) = −1 1 −2 i (i = 0. (0. u EJEMPLO 7. 4) . 1. es una base del n´cleo de T.23. −2 1 1 1 1 +1 0 0 −1 0 −1 −3 −3 −2 +0 1 −1 0 0 −1 −2 −3 −2 +1 1 0 0 0 = = . 0) + 1 (1. −1) . EJEMPLO 7. 0) . 1)} = {(−1. de acuerdo a la Proposici´n 7. t Queremos hallar una base del n´cleo de T. u Primero calculemos una base del n´cleo de la matriz B ((T ))A : u (x. 1)} es una base de N (B ((T ))A ). (0.8. Queremos hallar 2 4 una base del n´cleo de T. NUCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. (1. Entonces {(−2.22.

Entonces {(3. −1. y. Sean V. 1) . TRANSFORMACIONES LINEALES. −z. W espacios vectoriales sobre un mismo cuerpo K. −1. A ´ PROPOSICION 7. wm } una base de W. . . . . w2 . 1) = {3p0 + (−1) p1 + 1p2 } = {3p0 − p1 + p2 } . . 1)} es una base del N (B ((T ))A ).27 coordB (T (v)) =B ((T ))A coordA (v). A = {v1 . Entonces 1) Si w ∈ Im (T ) ⇒ coordB (w) ∈ Im (B ((T ))A ) 2) Si y ∈ Im (B ((T ))A ) ⇒ coord−1 (y) ∈ Im (T ) B ´ Demostracion. z) ∈ N (B ((T ))A ) ⇔B ((T ))A  y z  2 −1 x  1 1  y 1 −2 z  2 −1 x  1 1  y 0 0 z    0     = 0 ⇔ 0    0    = 0 ⇔ 0      1 2 −1 x 0     0 1 1  y = 0  0 3 −3 z 0 ⇔ x = 3z y = −z matriz B ((T ))A    0    = 0 ⇔ 0 x + 2y − z = 0 y+z =0 As´ los vectores del n´cleo de B ((T ))A son de la forma: ı u (3z. de acuerdo a la proposici´n 7. .35. v2 . vn } una base de V.34. −1. z) = z (3.. 1) Si w ∈ Im (T ) ⇒ existe v ∈ V tal que T (v) = w.Luego coordB (T (v)) = coordB (w). As´ coordB (w) =B ((T ))A coordA (v) ı Hemos probado que existe coordA (v) ∈ Rn tal que B ((T ))A coordA (v) = coordB (w) ⇒ coordB (w) ∈ Im (B ((T ))A ) . B = {w1 .242 7.. 1   0 −1  1  ⇔ 0 0  Primero calculamos una base del n´cleo de la u  x  (x. Pero por el Teorema 7. . T : V → W lineal. Luego. una base del n´cleo de N (T ) es o u coord−1 (3. .

 xn ym ⇒ x1 coordB (T (v1 )) + . ´ PROPOSICION 7. . . . . + xn T (vn )) = y x1 T (v1 ) + . coord−1 (yk ) es base de la Im (T ). .. wn } una base de W. w2 . .36.. . + xn coordB (T (vn )) = y ⇒ coordB (x1 T (v1 ) + . NUCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. ym ) ∈  (B ((T ))A ) ⇒ existe x = (x1 . v2 . .   . . coordB (hk )} es base de la Im (B ((T ))A ) 4) si {y1 . . . xn ) ∈ Rn tal .  que B ((T ))A  . . .. Entonces: 1) Im (T ) e Im (B ((T ))A ) son isomorfos. vn } una base de V. . ı B B ´ OBSERVACION 7. .  =  .   . .  ⇒  . coordB (h2 ) . ...´ 7. . . Al igual que la observaci´n 7. . yk } es una base de la Im (B ((T ))A ) entonces coord−1 (y1 ) . . W espacios vectoriales sobre un mismo cuerpo A = {v1 . . . coord−1 (y2 ) . B = {w1 .37. Sean V. . 2) dim (Im (T )) = rango (A) 3) Si {h1 . . ..8. .. . . . + xn vn ) = coord−1 (y) .33 concluimos que o coordB es un isomorfismo entre Im (T ) y Im (B ((T ))A ). . 243 2) Si y = (y1 . . . (Ejercicio). . . . .. hk } es una base de la Im (T ) ⇒ {coordB (h1 ) .  Im  x1 y1  . + xn T (vn ) = coord−1 (y) ⇒ B T (x1 v1 + . . B B B ´ Demostracion. . B = v0 As´ existe v0 ∈ V tal que T (v0 ) = coord−1 (y) ⇒ coord−1 (y) ∈ Im (T ) . . T : V → W lineal. . .

0) + 2 (1. 3) . −2)} o es un generador de la Im (B ((T ))A ).22 o Hallemos una base de la Im (T ). (5. 2)} es una o B base de la Im (T ). 1. 1. 1) . −4) . 2)} base de la Im (B ((T ))A ). −1) + 1 (0. 1. (2. 1.D. −1) + 1 (0. 1. 0. 1) + 0 (0. lo reducimos hasta obtener {(1. 0. Sabemos de la proposici´n 7. De acuerdo a la proposici´n 7. 4)} son un generador de la Im (B ((T ))A ). Por la proposici´n 7. Consideremos la transformaci´n lineal del ejemplo 7. −1 (1. −3)} son un generador de la Im (B ((T ))A ). TRANSFORMACIONES LINEALES. 1. 0. (2. (−1. 3) .23 o Hallemos una base de la Im (T ). 1) + 1 (0. 1) .D. Luego de acuerdo a la proposici´n 7. coord−1 (−1. 1) + 1 (0. Reducimos dicho generador hasta obtener el generador L. 0.37 coord−1 (1. 2. 0. 1. 1) . 4) + 1 (0. (−1.25. Como es L. 1) . 1) . 4) + (−1) (0. 1. o {(1..30 las columnas de B ((T ))A . 1. 1)} EJEMPLO 7. (1. 1) + 1 (0. −1) . 1. 3)} {(2. −1. 1) . 0. 2. Lo reducimos y hallamos {(1.21 o Hallemos una base de la Im (T ).30 {(1. Consideremos la transformaci´n lineal del ejemplo 7. −1) . Claramente es L. 1. 2) . −1. Primero hallemos una base de la imagen de la matriz B ((T ))A . 0. . Consideremos la transformaci´n lineal del ejemplo 7. 1) = B B = {(1. Luego por la proposici´n 7.37 o coord−1 (1.) = B B {1 (2. 3) . EJEMPLO 7. EJEMPLO 7. Primero hallemos una base de la imagen de la matriz B ((T ))A . (−1. 0. 0. 2) = {1 (1.: {(1. −1) . 0.30 que las columnas de B ((T ))A : o {(1. 0. 5)} es base de la Im (T ). As´ {(1. 1)} que es una base de la Im (B ((T ))A ).D. coord−1 (2. 0. 0. (2. 0.I. 1) . Claramente es L. 1)} ı es una base de la Im (B ((T ))A ). 1. 1. 1.244 7.24. 1) } = {(3. (−1. (−1. Luego por la proposici´n 7.26. 0)} es base de la Im (T ).37 o coord−1 (1. (1. = {1 (1. 2 (2. 1)}. 1. 1.

. Suo pongamos que dim (V ) = n. 1 2) A′ ((I))A es invertible y [A ′ ((I))A ]−1 =A ((I))A′ . ¿c´mo se relaciona coordA′ (v) con o coordA (v)? Para responder estas preguntas necesitamos la siguiente ′ ′ ′ ´ DEFINICION 7. Cambio de base. I : V → V la transformaci´n lineal identidad. v2 .7. CAMBIO DE BASE. coordA′ (v) =A′ ((I))A coordA (v) ´ Demostracion. Entonces: o   1 0 . Sean A = {v1 .  (matriz identidad)  . se obtiene la hip´tesis. .27 coordA′ (I (v)) =A′ ((I))A coordA (v) Pero siendo I (v) = v. .  . . ....38. v2 . La relaci´n entre las coordenadas est´ dada por la siguiente o a ´ PROPOSICION 7. vn } y A′ = {v1 . 0  1) A ((I))A =  . 245 7. .39. 0    0 1 . se puede representar por la n-´pla (vector u n. o ´ PROPOSICION 7. Por Teorema 7. A y A’ bases de V.9. vn } bases del espacio V e I : V → V la transformaci´n identidad (esto es o I (v) = v ∀v ∈ V ).9. . 0 0 . . . . Sea V un espacio vectorial sobre un cuerpo K.. columna) coordA (v) ∈ K En esta secci´n responderemos la siguiente pregunta natural ¿c´mo camo o bian nuestras representaciones si seleccionamos otras bases? Es decir si consideramos otra base A’ del espacio V.10.. Llamaremos matriz de cambio de la base (”vieja”) A a la base (”nueva”) A’ a la matriz: A′ ((I))A . Consideremos una base A del espacio V. Hemos visto que todo vector v ∈ V . Sea V un espacio vectorial de dimensi´n finita sobre un cuerpo K. . ..   . .

(Ejercicio).10. Sea V un espacio vectorial de dimensi´n finita sobre un cuerpo K. A’ bases de V. A. Sean V y W espacios vectoriales sobre un mismo cuerpo K. aplicando la proposici´n 7. T : V → W una transformaci´n lineal. ´ PROPOSICION 7. Entonces o B′ ((T ))A′ =B ′ ((IW ))B B ((T ))A A ((IV ))A′ donde IV : V → V y IW : W → W son las transformaciones lineales identidad en V y W respectivamente. Diremos que A y B son semejantes cuando existe P ∈ Mn×n (K) invertible tal que B = P −1 A P . Sean A yB ∈ Mnxn (K).246 7.11.40.12. Como IW ◦ T ◦ IV ≡ T se tiene. Llamaremos operador en V a toda transformaci´n o lineal T : V → V . ´ DEFINICION 7. B’ bases de W.23 reiteradamente B′ ((IW ◦ T ◦ IV ))A′ =B ′ ((T ))A′ ⇒ ⇒ B′ B′ ((IW ))B B ((T ◦ IV ))A′ =B ′ ((T ))A′ =B ′ ((T ))A′ . ´ o Demostracion. B. ´ DEFINICION 7. ´ Demostracion. Suo pondremos que dimK (V ) = n. TRANSFORMACIONES LINEALES. . Operadores y matrices semejantes. ((IW ))B B ((T ))A A ((IV ))A′ 7.

. . .  xn posici´n 7. u ´ Demostracion. siendo A y B semejantes. ´ PROPOSICION 7..  . . . .. x ) = A  2 ..40 o H ((I))E E ((T ))E E ((I))H =H ((T ))H B =H ((T ))H Por lo tanto . . . e2 . entonces de acuerdo a la ProK 1 2 n  .28(b) tenemos A =E ((T ))E siendo E = {e1 . para alg´n espacio vectorial V .39 o P −1 =H ((I))E As´ ı B =H ((I))E E ((T ))E E ((I))H Pero por la Proposici´n 7. .  . La matriz B = son semejantes. . existe P ∈ Mn×n (R) invertible tal que: B = P −1 AP Pero se cumple que: P =E ((I))H donde H = {P e1 . P e2 .7. x . B ∈ Mnxn (K). 247 EJEMPLO 7. OPERADORES Y MATRICES SEMEJANTES. pues existe P = tal que 3 −2 1 2 = 0 1 −1 1 3 −2 1 2 1 −1 1 0 y la matriz A = cuya inversa es P −1 = 1 −1 1 0 4 −2 2 1 0 1 −1 1 4 −2 2 1 (verifique!).41. P en } y por la Proposici´n 7. . A y B son semejantes ⇔ A y B son representaciones matriciales de un mismo operador T en V. Sean A. . (⇒) Si consideramos la transformaci´n lineal T : K n → o  x1    x  n tal que T (x .27. o Por otro lado. en } la base o can´nica de K n .10.

Luego rango (A) = rango (A ((T ))A ) = dim (Im (T )) rango (B) = rango (B ((T ))B ) = dim (Im (T )) As´ rango (A) = rango (B) ı 2) Existe P ∈ Mnxn (R) invertible tal que B = P −1 A P .det(N ) y det M −1 = (det (M ))− 1 ).39 tenemos que P −1 =H ((I))E . ´ PROPOSICION 7. Sean A y B matrices semejantes en Mn×n (K).248 7. A =E ((T ))E . 1) Por la proposici´n anterior. o Hemos probado entonces que B = P −1 A P . existe un operador lineal o en V y bases A y B en dicho espacio tales que A =A ((T ))A yB =B ((T ))B . TRANSFORMACIONES LINEALES. por la Proposici´n 7. Por la Proposici´n o 7. es decir A y B son semejantes.42. (⇐) Supongamos que B =H ((T ))H . Entonces 1) rango (A) = rango (B) 2) traza (A) = traza (B) 3) det (A) = det (B) ´ Demostracion. Luego traza (B) = traza P −1 A P = traza A P P −1 = traza (A I) = traza (A) (Recordar que traza(MN )=traza(NM )) 3)det (B) = det P −1 A P = det P −1 det (A) det (P ) = = det (A) det P −1 det (P ) = det (A) (Recordar que det(MN )=det(M ). .40 sabemos que H ((T ))H =H ((I))E E ((T ))E E ((I))H Sea P =E ((I))H .

7. W ) le asignamos por imagen o . (Ejercicio). Probaremos que existe una transformaci´n lineal o F : L (V. W ) es isomorfo a Mmxn (K). ´ PROPOSICION 7. Supongamos que dim (V ) = n y dim (W ) = m. forman un espacio vectorial.43.11. No vale el rec´ ıproco de la proposici´n anterior pues o 1 0 1 0 A= yB= cumplen 0 1 1 1 rango (A) = rango (B) = 2 traza (A) = traza (B) = 2 det (A) = det (B) = 1 Sin embargo. Definimos F de la siguiente manera: Fijemos A base de V y B base de W. W ) al conjunto de todas las transformaciones lineales T : V → W . W ) 249 ´ OBSERVACION 7. entonces L (V. El conjunto L(V. W ) → Mmxn (K) biyectiva. EL ESPACIO VECTORIAL L (V. ´ Demostracion. Luego. ´ PROPOSICION 7. no puede existir P invertible tal que B = P −1 AP pues B = A.11.7. W ) con la suma de transformaciones lineales y el producto por un escalar por una transformaci´n lineal o definidas en la secci´n 2. Notaremos L (V. Sean V. W espacios sobre un mismo cuerpo K. W ) Sean V.44. a cada transformaci´n T ∈ L (V.W espacios vectoriales de dimensi´n finita o sobre un mismo cuerpo K.45. o ´ Demostracion. El espacio vectorial L (V.

Vimos en la observaci´n 7. µ ∈ K. Sean T1 .3 existe vi ∈ A tal o que T1 (vi ) = T2 (vi ). Dada M ∈ Mnxn (R). COROLARIO 7. W ) tales que T1 = T2 .22 que dada una matriz M ∈ Mnxn (K) existe o una transformaci´n lineal T : V → W tal que B ((T )) A = M . As´ B ((T1 )) A =B ((T2 )) A . 1) F es inyectiva. Sean V.250 7. debemos probar que existe T ∈ L (V. entonces coordB (T1 (vi )) = coordB (T2 (vi )).W espacios vectoriales de dimensi´n finita o sobre un mismo cuerpo K. En efecto siendo A una base de V por la proposici´n 7. Sean T1 . TRANSFORMACIONES LINEALES. W ) y λ. W ). Se cumple que dim (L (V.dim (W ). . es decir que o existe T ∈ L (V. W ) tal que F (T ) = M . W )) = dim (V ) . T2 ∈ L (V. Debemos probar que F (T1 ) = F (T2 ). Probemos que F es biyectiva. esto es F (T1 ) = F (T2 ).46. esto es F (T ) =B ((T ))A Probemos que F es lineal. T2 ∈ L (V. Pero de acuerdo a la definici´n de matriz asociada coordB (T1 (vi )) y coordB (T2 (vi )) o son las i-´simas columnas de las matrices B ((T1 ))A y B ((T2 ))A respectivae mente. mediante F a la matriz B ((T ))A ∈ Mmxn (K). F (T ) = M. F (λT1 + µT2 ) =B ((λT1 + µT2 ))A = λB ((T1 ))A + µB ((T2 ))A = λF (T1 ) + µF (T2 ) . ı 2) F es sobreyectiva.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->