P. 1
Libro GAL 1

Libro GAL 1

5.0

|Views: 3.760|Likes:

More info:

Published by: Telmo Canabarro Sica on Jul 05, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

08/10/2013

pdf

text

original

Sections

  • 0.1. Relaciones
  • 0.2. Relaciones de equivalencia
  • 0.3. Conjunto Cociente
  • 0.4. Funciones
  • 0.5. Composici´on de funciones
  • 1.1. Introducci´on
  • 1.2. Matrices
  • 1.3. EL M´ETODO DE ESCALERIZACI´ON 27
  • 1.3. El m´etodo de escalerizaci´on
  • 1.4. Teorema de Rouche-Frobenius
  • 1.5. Sistemas homog´eneos
  • 1.6. Una interpretaci´on geom´etrica
  • 2.1. Operaciones con matrices
  • 2.2. Producto de matrices
  • 2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 57
  • 2.3. Ecuaciones matriciales. Matriz inversa
  • 2.4. El espacio de n-uplas
  • 2.5. Dependencia lineal
  • 2.6. El rango de una matriz
  • 2.7. Matrices invertibles y rango
  • 2.8. Matrices elementales
  • 3.1. Definici´on
  • 3.2. Propiedades de los determinantes
  • 3.3. Matrices elementales y determinantes
  • 3.4. Matrices invertibles y determinantes
  • 3.5. DETERMINANTE DE UN PRODUCTO DE MATRICES 117
  • 3.5. Determinante de un producto de matrices
  • 3.6. C´ALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 119
  • 3.6. C´alculo de la matriz inversa por determinantes
  • 3.7. Regla de Cramer
  • 4.1. Introducci´on
  • 4.2. Vectores
  • 4.3. Operaciones con vectores
  • 4.4. Ecuaciones vectoriales de rectas y planos. Paralelismo
  • 4.5. Sistemas de coordenadas
  • 4.6. Ecuaciones param´etricas de rectas y planos
  • 4.7. ECUACIONES IMPL´ICITAS DE RECTAS Y PLANOS 139
  • 4.7. Ecuaciones impl´ıcitas de rectas y planos
  • 4.8. Posiciones relativas de rectas y planos
  • 5.1. Producto escalar
  • 5.2. Aplicaciones a la geometr´ıa: ´angulos y distancias
  • 5.3. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 151
  • 5.3. Aplicaciones: ecuaciones de algunas superficies
  • 5.4. Producto vectorial
  • 5.5. Aplicaciones geom´etricas
  • 5.6. Producto mixto
  • 6.1. Espacios vectoriales
  • 6.2. Ejemplos de espacios vectoriales
  • 6.3. Subespacios
  • 6.4. Subespacio generado e independencia lineal
  • 6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI´ON 187
  • 6.5. Base de un espacio vectorial y dimensi´on
  • 6.6. Suma de subespacios y suma directa
  • TRANSFORMACIONES LINEALES
  • 7.1. Transformaciones lineales
  • 7.2. Operaciones con transformaciones lineales
  • 7.3. IMAGEN Y N´UCLEO DE UNA TRANSFORMACI´ON LINEAL. 211
  • 7.3. Imagen y n´ucleo de una transformaci´on lineal
  • 7.4. TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. 219
  • 7.4. Transformaciones lineales inyectivas y sobreyectivas
  • 7.5. Isomorfismos entre espacios vectoriales
  • 7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI´ON LINEAL. 225
  • 7.6. Matriz asociada a una transformaci´on lineal
  • 7.7. N´ucleo e imagen de una matriz
  • 7.10. Operadores y matrices semejantes
  • 7.11. El espacio vectorial L(V,W)

Geometr´ıa y Algebra Lineal I

Instituto de Matem´atica y Estad´ıstica
“Prof. Rafael Laguardia”
Facultad de Ingenier´ıa Universidad de la Rep´ ublica
´
Indice general
PREFACIO vii
Cap´ıtulo 0. RELACIONES Y FUNCIONES 1
0.1. Relaciones 1
0.2. Relaciones de equivalencia 2
0.3. Conjunto Cociente 6
0.4. Funciones 9
0.5. Composici´on de funciones 15
Cap´ıtulo 1. SISTEMAS LINEALES DE ECUACIONES Y MATRICES
19
1.1. Introducci´on 19
1.2. Matrices 24
1.3. El m´etodo de escalerizaci´on 27
1.4. Teorema de Rouche-Frobenius 38
1.5. Sistemas homog´eneos 43
1.6. Una interpretaci´on geom´etrica 44
Cap´ıtulo 2.
´
ALGEBRA DE MATRICES 49
2.1. Operaciones con matrices 49
2.2. Producto de matrices 51
2.3. Ecuaciones matriciales. Matriz inversa. 57
2.4. El espacio de n-uplas 66
2.5. Dependencia lineal 71
2.6. El rango de una matriz 82
2.7. Matrices invertibles y rango 85
iii
iv
´
INDICE GENERAL
2.8. Matrices elementales 87
Cap´ıtulo 3. DETERMINANTES 95
3.1. Definici´on 95
3.2. Propiedades de los determinantes 97
3.3. Matrices elementales y determinantes 114
3.4. Matrices invertibles y determinantes 116
3.5. Determinante de un producto de matrices 117
3.6. C´alculo de la matriz inversa por determinantes 119
3.7. Regla de Cramer 123
Cap´ıtulo 4. RECTAS Y PLANOS EN EL ESPACIO 127
4.1. Introducci´on 127
4.2. Vectores 129
4.3. Operaciones con vectores. 131
4.4. Ecuaciones vectoriales de rectas y planos. Paralelismo 134
4.5. Sistemas de coordenadas 135
4.6. Ecuaciones param´etricas de rectas y planos 138
4.7. Ecuaciones impl´ıcitas de rectas y planos 139
4.8. Posiciones relativas de rectas y planos. 142
Cap´ıtulo 5. PRODUCTO ESCALAR Y VECTORIAL 145
5.1. Producto escalar 145
5.2. Aplicaciones a la geometr´ıa: ´angulos y distancias 148
5.3. Aplicaciones: ecuaciones de algunas superficies 151
5.4. Producto vectorial. 157
5.5. Aplicaciones geom´etricas. 161
5.6. Producto mixto 165
Cap´ıtulo 6. ESPACIOS VECTORIALES 167
6.1. Espacios vectoriales 168
6.2. Ejemplos de espacios vectoriales 170
6.3. Subespacios 174
6.4. Subespacio generado e independencia lineal 180
´
INDICE GENERAL v
6.5. Base de un espacio vectorial y dimensi´on 187
6.6. Suma de subespacios y suma directa 201
Cap´ıtulo 7. TRANSFORMACIONES LINEALES. 205
7.1. Transformaciones lineales 205
7.2. Operaciones con transformaciones lineales. 208
7.3. Imagen y n´ ucleo de una transformaci´on lineal. 211
7.4. Transformaciones lineales inyectivas y sobreyectivas. 219
7.5. Isomorfismos entre espacios vectoriales 222
7.6. Matriz asociada a una transformaci´on lineal. 225
7.7. N´ ucleo e imagen de una matriz. 234
7.8. Relaci´on entre n´ ucleo e imagen de una transformaci´on lineal y
de una matriz. 237
7.9. Cambio de base. 245
7.10. Operadores y matrices semejantes. 246
7.11. El espacio vectorial L(V, W) 249
vi
´
INDICE GENERAL
PREFACIO
Estas notas son una reelaboraci´on, corregida y muy modificada de las
correspondientes partes de las notas de 1991, en cuya redacci´on participa-
ron un gran n´ umero de docentes del Instituto de Matem´atica y Estad´ıstica
“Prof. Ing. Rafael Laguardia”(IMERL) de la Facultad de Ingenier´ıa de la
Universidad de la Rep´ ublica.
Varios cap´ıtulos fueron redactados nuevamente, teniendo en mente trans-
formarlos a la brevedad en partes de un libro sobre el tema.
Los principales defectos de las notas derivan de la impericia de los fir-
mantes y de la celeridad con que fue armada esta versi´on (no) final.
El Algebra Lineal constituye hoy una rama b´asica de la matem´atica con
aplicaciones dentro y fuera de esta. No se han incluido en esta edici´on, so-
bre todo por razones de tiempo ejemplos de tales aplicaciones. Sin embargo
algunas ser´an abordadas en clase, adem´as en la bibliograf´ıa se indican algu-
nas referencias donde el lector interesado puede encontrar varios ejemplos
interesantes.
La carencia de ejercicios no debe extra˜ nar dado que ´estos son editados
en fasc´ıculos aparte.
La estructura general del libro -que no ser´a necesariamente la del curso-
es la siguiente. Se incluye un Cap´ıtulo Cero, en que se desarrollan los con-
ceptos de Relaciones, Funciones, etc., con diversos ejemplos. Su lectura fa-
cilitar´a la comprensi´on del lenguaje del curso, y dar´a una referencia general
sobre definiciones y resultados b´asicos. Fue extra´ıdo de Notas de
´
Algebra,
de Alfredo Jones, editadas por el IME de la Universidad de San Pablo.
vii
viii PREFACIO
En el Cap´ıtulo Uno se estudian los Sistemas de Ecuaciones Lineales, se
desarrolla su presentaci´on matricial y se describe el algoritmo de Gauss o de
escalerizaci´on como herramienta principal para su resoluci´on.
En el Cap´ıtulo Dos se estudian las principales propiedades de las matrices
y sus operaciones. Se presenta un ejemplo clave del curso: el espacio de
n-uplas, R
n
y culmina con el estudio del rango de una matriz, concepto
directamente relacionado con las soluciones de los sistemas lineales y con la
invertibilidad de las matrices cuadradas.
El Cap´ıtulo Tres estudia el Determinante de una matriz cuadrada se
prueban algunos resultados cl´asicos como el teorema de Cramer y el teorema
de Binet-Cauchy sobre el determinante de un producto de matrices.
Los Cap´ıtulos Cuatro y Cinco (que podr´ıan ser los primeros de las notas)
est´an dedicados a la introducci´on de un segundo ejemplo b´ asico: el de los
vectores libres del espacio. Estos se utilizan para dar una exposici´on de los
primeros elementos de la Geometr´ıa Anal´ıtica del Espacio.
El Capitulo Seis est´a dedicado a los Espacios Vectoriales. Es el cap´ıtulo
decididamente nuevo para todos los estudiantes, y el centro conceptual del
curso, en el se introduce de manera axiom´atica una estructura abstracta
que se inspira y generaliza varios de los ejemplos tratados en los cap´ıtulos
previos.
El Cap´ıtulo Seis est´a dedicado a un tipo particular de funciones entre
espacios vectoriales: las Transformaciones Lineales. Estas se caracterizan por
preservar la estructura de los espacios vectoriales y son en cierto sentido el
modelo mas sencillo de una funci´on. Se estudia aqu´ı con detalle su relaci´on
con las matrices y se pone de manifiesto el contenido geom´etrico de muchas
propiedades algebraicas de estas ´ ultimas.
Un comentario final es pertinente para preparar al estudiante a apro-
vechar tanto el curso como estas notas. Aqu´ı cada cap´ıtulo interviene de
manera fundamental en los siguientes. La gran mayor´ıa de los t´opicos abor-
dados en los primeras clases tiene un rol fundamental en el resto del curso.
Dif´ıcilmente ser´a posible avanzar de un cap´ıtulo al siguiente sin haber com-
prendido el primero.
PREFACIO ix
En la presente edici´on colabor´o particularmente Jos´e D´ıaz.
Lecturas complementarias recomendadas. De cualquiera de los li-
bros que se indican a continuaci´on, hay diversas otras ediciones; en particular
en sus lenguas originales:
A.G. Kurosch: Curso de
´
Algebra Superior, Mir-Nimusa.
E. Lages Lima:
´
Algebra Linear, IMPA.
Un libro excelente, escrito por un experimentado matem´ati-
co autor de numerosos textos, cubre un amplio t´opico de te-
mas con rigor y profundidad pero no incluye los cap´ıtulos de
geometr´ıa. Adem´as sigue un orden algo distinto del de nues-
tras notas, los cap´ıtulos de matrices y sistemas de ecuaciones
aparecen luego de tratar espacios vectoriales. Es ampliamen-
te recomendado para ampliar los dos ´ ultimos cap´ıtulos de
nuestro curso.
P.R. Halmos: Espacios Vectoriales de dimensi´ on finita, CECSA.
Una obra cl´asica sobre el tema, realizada por un destacado
matem´atico, tampoco aborda los temas iniciales de nuestro
curso. Su enfoque sobre la teor´ıa de espacios vectoriales esta
pensada para quien desea luego profundizar en el estudio de
espacios de dimensi´on infinita.
E. Hern´ andez
´
Algebra y Geometr´ıa , Adisson–Wesley.
Este libro cubre todos los temas de nuestro curso incluyendo
los cap´ıtulos de geometr´ıa, en un orden similar. Es escueto
en explicaciones y las pruebas a veces resultan oscuras. No
contiene aplicaciones.
R. Hill
´
Algebra Lineal Elemental con Aplicaciones, Prentice Hall.
Este libro es como su nombre lo indica, tal vez m´as elemental
que los otros sin embargo es claro abarca casi todos los temas
del curso y sobre todo tiene un n´ umero grande de aplicacio-
nes interesantes a la ingenier´ıa y otras disciplinas. Incluye
0 PREFACIO
una introducci´on al Matlab y tiene numerosos ejercicios, in-
cluyendo algunos proyectos para trabajar en computadora.
K. Koffman & R. Kunze:
´
Algebra Lineal, Prentice-Hall.
Otro excelente libro, que no cubre los cap´ıtulos de geometr´ıa,
es muy claro y riguroso, en algunos momentos aborda temas
(determinantes)con mucha generalidad lo cual puede dificul-
tar la comprensi´on en una lectura inicial
G. Nakos & D. Joyner Algebra Lineal con Aplicaciones, Thomson.
De nivel similar al libro de Hill tiene tambi´en un gran n´ umero
de ejemplos y aplicaciones y algunas notas hist´oricas intere-
santes. Tal vez su mayor virtud es el gran n´ umero de ejemplos
para trabajar con computadora. Se incluyen proyectos para
trabajar con Matlab, Maple y Mathematica
G. Strang: Algebra linel y sus aplicaciones, Addison–Wesley.
Este libro tiene un enfoque algo diferente de los otros libros
recomendados. Su objeto de estudio son los sistemas lineales
y las matrices, los espacios vectoriales y las transformaciones
lineales solo aparecen secundariamente. No obstante tiene un
punto de vista interesante y claro que puede ayudar a ver
desde otra ´optica los problemas analizados en el curso, es
especialmente recomendado para los primeros cap´ıtulos del
curso. Cuenta con un gran n´ umero de aplicaciones interesan-
tes incluyendo c´odigos de computadora en Fortran.
Marzo del 2000
Marcelo Cerminara
Roberto Markarian
Responsables de esta edici´on
CAP´ıTULO 0
RELACIONES Y FUNCIONES
0.1. Relaciones
En este cap´ıtulo introduciremos algunas definiciones y notaciones b´asicas
para el desarrollo de estas notas. Supondremos que el lector tiene cierta
familiaridad con las nociones de relaci´on y de funci´on, de modo que no nos
detendremos en la explicaci´on del significado de estos conceptos, sino que
partiremos de sus definiciones estudiando luego s´olo aquellas propiedades
que ser´an aplicadas en los cap´ıtulos que siguen.
Comenzaremos introduciendo la noci´on de relaci´on mediante una defi-
nici´on que esta motivada por la idea usual de una relaci´on entre pares de
objetos. Observamos que dar una relaci´on entre pares de elementos de un
conjunto, en la acepci´on corriente del t´ermino, equivale a dar una lista for-
mada por los elementos que verifican dicha relaci´on, esto es, a especificar un
conjunto de pares.
Dados dos conjuntos, A y B, indicaremos con A × B el conjunto consti-
tuido por los pares ordenados (a,b) tales que a pertenece al conjunto A y b
pertenece al conjunto B. Con las notaciones usuales de la teor´ıa de conjuntos
esto se traduce en la igualdad:
Presuponiendo solo los conceptos de conjunto, subconjunto, elemento y
par ordenado de elementos de un conjunto, podemos definir una relaci´on
como sigue;
1
2 0. RELACIONES Y FUNCIONES
DEFINICI
´
ON 0.1. Una relaci´on en un conjunto A, es un subconjunto R
de A × A.
Si (a,b) ∈ R diremos que a esta en relaci´on R con b y escribiremos aRb.
EJEMPLO 0.1. En todo conjunto A la relaci´on de igualdad esta dada por
el conjunto R = {(a, a) /a ∈ A}, seg´ un esta relaci´on, cada elemento de A
solo esta en relaci´on consigo mismo; luego en este caso aRb significa a = b.

EJEMPLO 0.2. Sea Z el conjunto de los n´ umeros enteros, consideremos:
R = {(a,b) / a , b ∈ Z, a - b es m´ ultiplo entero de 2}.
En este caso, el entero a esta en relaci´on R con el entero b, cuando son
ambos pares o bien son ambos impares.
0.2. Relaciones de equivalencia
DEFINICI
´
ON 0.2. Una relaci´on R en A se dice reflexiva si aRa para todo
a ∈ A; sim´etrica si aRb implica bRa y transitiva si aRb y bRc implica aRc.
Una relaci´on de equivalencia en un conjunto A es una relaci´on reflexiva,
sim´etrica y transitiva.
Cuando R es una relaci´on de equivalencia, si aRb diremos que a es
equivalente a b y usaremos la notaci´on a ∼ b.
Las propiedades que definen una relaci´on de equivalencia en un conjunto
A, son entonces:
a) a ∼ a ∀ a ∈ A.
b) a ∼ b ⇒ b ∼ a.
c) a ∼ b y b ∼ c ⇒ a ∼ c.
0.2. RELACIONES DE EQUIVALENCIA 3
Mencionaremos algunos ejemplos de relaciones de equivalencia que son
´ utiles, pues permiten definir ciertos conceptos importantes. En cada caso el
lector verificar´a que valen a), b) y c).
EJEMPLO 0.3. En todo conjunto A se tiene una relaci´on de equivalencia
trivial: R = {(a,a) / a ∈ A}, es decir a ∼ b ⇔ a = b.
EJEMPLO 0.4. Sea N el conjunto de los n´ umeros naturales. A fin de
obtener los n´ umeros enteros Z a partir de los naturales, se definen en N
× N la relaci´on (a,b) ∼ (a’,b’) ⇔ a + b’ = a’ + b. Observar que cada
par representar´a al entero que surge de restar a la primera componente la
segunda.
EJEMPLO 0.5. Sea Z el conjunto de los enteros. A fin de obtener los
racionales, se define en el conjunto Z × Z −{0, 0}, la relaci´on: (a,b) ∼
(a’,b’) ⇔ a.b’ = a’.b .
EJEMPLO 0.6. Dado un entero fijo m, se define una relaci´on de equiva-
lencia en Z, poniendo a ∼ a’ cuando a - a’ es m´ ultiplo de m. En este caso
se escribe a = a’ (mod. m) para indicar que a ∼ a’ y se dice que a y a’
son congruentes m´odulo m. Observamos que m y -m definen la misma
relaci´on, de modo que se puede suponer m 0.
EJEMPLO 0.7. En el conjunto de los reales R, se tiene una relaci´on de
equivalencia tomando r ∼ r’ cuando r - r’ entero.
4 0. RELACIONES Y FUNCIONES
EJEMPLO 0.8. Se puede definir un ´angulo como una figura plana que es
la intersecci´on de dos semiplanos del mismo plano. Esta noci´on de ´angulo
tiene la limitaci´on de que para estos ´angulos no es posible definir una suma
con todas las propiedades deseables para las aplicaciones de este concepto,
las que se pueden resumir diciendo que los ´angulos con la suma deben formar
un grupo abeliano. Para esto es necesario dar otra definici´on de ´angulo. Uno
de los caminos posibles para llegar a esa definici´on, consiste en introducir en
el conjunto de los pares ordenados de semirrectas del plano con origen en un
punto O, la siguiente relaci´on de equivalencia. Suponemos sabido que: para
cada par ordenado de semirrectas de origen O, (a,b), existe una ´ unica si-
metr´ıa axial del plano que transforma a en b, la indicaremos con la notaci´on
s(a,b). Dados dos pares ordenados de semirrectas de origen O, (a,b) y (a’,b’),
definimos (a,b) ∼ (a’,b’) si la simetr´ıa axial que transforma a en b’, tambi´en
transforma b en a’, es decir si s(a,b) = s(b,a). Las propiedades reflexiva y
sim´etrica se verifican trivialmente. Para demostrar que la relaci´on es transi-
tiva, debemos probar que si s(a,b’) = s(b,a’) y s(a’,b”) = s(b’,a”) entonces
s(a,b”) = s(b,a”). .
El
resultado de aplicar sucesivamente tres simetr´ıas cuyos
ejes pasan por un punto fijo O, es una simetr´ıa”. De lo anterior surge que
al aplicar sucesivamente s(a,b’), s(b’,a”) y s(a”,b”), se lleva a a en b”, por
lo que esta composici´on es, efectivamente, s(a,b”). An´alogamente, aplicando
s(b,a’), s(a’,b”) y s(a”,b”), se obtiene s(b,a”). De lo anterior y observando
que: s(a,b’) = s(b’,a)
s(a”,b’) = s(b’,a”)
s(a”,b”) = s(b”,a”)
tenemos que: s(a,b”) = s(b”,a).
FIGURA 2.1
Anotamos para usarlo mas adelante, que, de la definici´on de esta relaci´on
(a,b) ∼ (a’,b’) si y solo si (a,a’) ∼ (b,b’).
0.2. RELACIONES DE EQUIVALENCIA 5
EJEMPLO 0.9. Llamaremos figura del plano a todo conjunto de puntos
del plano. La relaci´on de congruencia de figuras en el plano, se puede
definir como sigue; Dadas dos figuras planas F1 y F2 definimos F1 ∼ F2
cuando hay alguna sucesi´on finita de simetr´ıas axiales del plano que trans-
forma F1 en F2. Para mostrar que esta es una relaci´on de equivalencia en
el conjunto de las figuras planas, es suficiente verificar lo que sigue: a) Para
toda figura plana F se tiene F ∼ F, porque la sucesi´on de dos simetr´ıas
iguales transforma todo punto del plano en si mismo.- b) Si la sucesi´on de
simetr´ıas s1, . . . , sn, transforma F1 en F2 y s

1, . . . , s

m transforma F2 en
F3, entonces la sucesi´on s1, . . . , sn, s

1, . . . , s

m transforma F1 en F3.-
DEFINICI
´
ON 0.3. Dada una relaci´on de equivalencia en un conjunto A y
un elemento a ∈ A. Llamaremos ”clase de equivalencia de a”, al conjunto
de todos los elementos x ∈ A que son equivalentes con a, y que notaremos:
cl(a), a.
De las condiciones b) y c) de la definici´on de relaci´on de equivalencia
se deduce que si a ∼ b , entonces x ∼ a si y solo si x ∼ b . Luego a ∼ b
implica cl(b) = cl(a) . Es claro que vale el rec´ıproco, esto es: Si cl(b) = cl(a)
entonces a ∼ b .
Todo elemento b ∈ cl(a) se dice que es un representante de esa clase.
Es decir que b es un representante de cl(a) si y solo si b ∼ a.
El siguiente resultado muestra que el conjunto de las clases de equiva-
lencia determina la relaci´on.
PROPOSICI
´
ON 0.1. Dadas dos clases de equivalencia cl(a) y cl(b) en
un conjunto A se tiene que, o bien cl(a) ≡ cl(b), o bien son disjuntas (sin
elementos comunes). Adem´ as, una relaci´ on de equivalencia clasifica los ele-
mentos de un conjunto A en clases de equivalencia, disjuntas dos a dos.
Todo elemento de A pertenece a alguna clase.
6 0. RELACIONES Y FUNCIONES
PROPOSICI
´
ON 0.2. Rec´ıprocamente, dada una clase cualquiera C de
subconjuntos de A, no vac´ıos y sin elementos comunes dos a dos, tales que
todo elemento de A pertenezca a alguno de ellos, existe una ´ unica relaci´ on
de equivalencia en A cuyas clases son dichos subconjuntos.
Demostraci´ on de 0.1. En efecto, supongamos que c ∈ cl(a) y c ∈ cl(b),
entonces c ∼ a y c ∼ b, de donde a ∼ b, por lo tanto cl(a) = cl(b). Por otra
parte, para todo a ∈ A se tiene que a ∈ cl(a).
Demostraci´ on de 0.2. Se puede demostrar, que definiendo a ∼ b cuando
a y b pertenecen a un mismo subconjunto de la clase C se obtiene una relaci´on
de equivalencia.
0.3. Conjunto Cociente
DEFINICI
´
ON 0.4. Llamaremos ”conjunto cociente de A por R”, a
aquel cuyos elementos son las clases de equivalencia de A definidas por la
relaci´on de equivalencia R en A, que notaremos:
A/R, A.
Seg´ un esta definici´on, cada elemento de A junto con todos sus equiva-
lentes, constituyen un elemento de A/R. Es por esto que a veces se dice que
A/R se obtiene identificando cada elemento de A con todos sus equiva-
lentes. La utilidad de las relaciones de equivalencia proviene precisamente
de que permiten en esta forma construir un conjunto de objetos nuevos, las
clases de equivalencia, a partir de ciertos objetos dados, los elementos de A.
Para individualizar un elemento de A/R, es decir una clase de A, se pue-
de tomar un representante cualquiera de esa clase. Usualmente se trata de
elegir un representante que facilite la notaci´on o el c´alculo.-
0.3. CONJUNTO COCIENTE 7
- Veamos cuales son los conjuntos cociente que se obtienen de algunas
de las relaciones de la secci´ on 2.
EJEMPLO 0.10. En este caso cada a ∈ A solo es equivalente a s´ı mismo
por lo tanto la clase de equivalencia de a es el conjunto {a}. Quiere decir
que cada elemento de A/R es un conjunto formado ´ unicamente por alg´ un
elemento de A; luego en este ejemplo al formar el conjunto cociente no
tenemos nada escencialmente nuevo.
EJEMPLO 0.11. En este caso la cl(a,b) = {(a’,b’) ∈ N × N / a + b’
= a’ + b}, por lo tanto, en cada clase de equivalencia hay infinitos pares.
Observando que (a,b) ∼ (a + 1, b + 1), se puede demostrar que si a = b,
en la cl(a,b) hay: o bien un ´ unico representante de la forma (c,0) o bien un
´ unico representante de la forma (0,c) con c = 0. Las clases correspondientes
denotan c y -c. Si a = b, (a,b) ∼ (0,0). La clase de (0,0) se denota 0.
Se definen los n´ umeros enteros como los elementos del conjunto cociente
obtenido.
EJEMPLO 0.12. En este ejemplo las clases de equivalencia son de la forma:
cl (a, b) =
¸
a

, b

/a

, b

∈ Z, b

= 0, a.b

= a

.b
¸
.
Usaremos la notaci´on a / b para la clase de (a,b). La igualdad de clase a
/ b = a’ / b’ significa la equivalencia de los representantes, (a,b) ∼ (a’,b’), o
sea, seg´ un la definici´on de la relaci´on, a.b’ = a’.b. Se demuestra f´acilmente
que para todo natural k = 0 es (a.k,b.k) ∼ (a,b) , de aqu´ı se deduce que se
puede tomar para cada clase un representante (a,b) con a y b relativamente
primos, es decir, que toda clase se puede escribir en la forma a / b con a y b
primos entre s´ı. Se definen los n´ umeros racionales como los elementos del
conjunto cociente. De acuerdo con esta definici´on, cada racional, es una clase
de equivalencia a / b, es decir un conjunto de pares enteros.- Designaremos
al conjunto de los n´ umeros racionales con la letra Q.
8 0. RELACIONES Y FUNCIONES
EJEMPLO 0.13. En este caso cl(a) = {a , a ± m , a ± 2.m , . . .}.
Sabemos que todo elemento a se puede escribir en la forma a = r ± q.m
con 0 r m , por lo tanto a ∼ r y cl(a) ∼ cl(r). Quiere decir que para
cada clase de equivalencia se puede tomar como representante uno de los
n´ umeros 0,1, . . . . , m-1. Por otra parte, si 0 r < r’ < m , es facil ver que
r no es equivalente a r’, en consecuencia hay exactamente m clases distintas.
Usaremos la notaci´on a para indicar la clase de a e indicaremos con Z
m
el
conjunto cociente, luego Z
m
=
¸
0, 1, ..., m−1
¸
. Los elementos de Z
m
, se
llaman enteros m´odulo m. Vamos a introducir la siguiente notaci´on: Si X
es un conjunto finito cualquiera, indicaremos el n´ umero de elementos de X
con — X —. En este ejemplo tenemos |Z
m
| = m.
EJEMPLO 0.14. En este ejemplo cl(r) = { r + n / n ∈ Z }. Como todo
n´ umero real se puede escribir en la forma r + n con 0 r < 1 y n entero,
para cada clase de equivalencia hay un representante tal que 0 r < 1.
Adem´as es claro que dos reales r y r’, con 0 r < r

< 1 no pueden tener
por diferencia un entero, luego pertenecen a clases distintas. Por lo tanto el
conjunto de los reales r, tales que 0 r < 1, contiene un solo representante
de cada clase de equivalencia. El conjunto cociente que resulta se llama el
de los n´ umeros reales de modulo 1.
EJEMPLO 0.15. Llamaremos ´angulo de v´ertice O, a toda la clase de equi-
valencia de los pares de semirrectas de origen O seg´ un esta relaci´on. Cada
par de semirrectas de origen O es entonces un representante de un ´angulo.
Usaremos la notaci´on aob para designar el ´angulo que tiene como represen-
tante el par (a,b). Dada una semirrecta cualquiera a de origen O, para cada
´angulo xoy existe una ´ unica semirrecta de origen O tal que aob = xoy. Para
demostrarlo basta observar que para que b tenga esa propiedad tiene que
ser (a,b) ∼ (x,y), o sea s(x,b) = s(y,a), luego la semirrecta b buscada es la
imagen de x seg´ un s(y,a). En consecuencia si tomamos una semirrecta fija
a, el conjunto de todos los pares de la forma (a,b) contiene uno y solo uno
de los representantes de cada ´angulo.
0.4. FUNCIONES 9
0.4. Funciones
Una funci´on se determina dando dos conjuntos y asociando a cada ele-
mento del primero un ´ unico elemento del segundo. Este concepto de funci´on
incluye mucho m´as que la idea de ser un procedimiento en el cual dados cier-
tos n´ umeros permite calcular otros. D´andole al t´ermino el significado m´as
amplio, una funci´on puede no estar definida por ninguna expresi´on num´erica
o anal´ıtica. Adem´as, puede asociar a elementos de un conjunto cualquiera,
no necesariamente de n´ umeros, elementos de otro conjunto cualquiera. La
consideraci´on de funciones en este sentido, sin restricciones sobre los conjun-
tos ni sobre la forma de asociar elementos del primer conjunto a elementos
del segundo, se justifica por su utilidad en todas las ramas de la matem´atica.
Veamos como se puede dar una definici´on formal del concepto de funci´on que
hemos esbozado, presuponiendo solo las nociones de conjuntos, subconjun-
to, elemento, par ordenado y terna ordenada. Esta definici´on esta motivada
por la idea de ”gr´afico de una funci´on”. Observamos que una funci´on que a
cada n´ umero real x le asocia un real y, est´a determinada dando todos los
pares de n´ umeros (x,y) que constituyen una funci´on de esa forma siempre
que para cada n´ umero x ∈ R, haya uno y un solo y ∈ R tal que (x,y) ∈ G.
Teniendo esto en cuenta, hacemos la siguiente definici´on:
DEFINICI
´
ON 0.5. Una funci´on es una terna ordenada F = (A,B,G),
donde A y B son conjuntos cualquiera y G es un subconjunto de A × B, tal
que para cada x ∈ A hay un y ∈ B y uno solo para el cual (x,y) ∈ G.
A se llama el dominio o conjunto de partida, B el codominio o con-
junto de llegada y G el gr´afico de f . Para abreviar diremos que que f es
una funci´on de A en B y escribiremos f : A → B.
Usaremos las palabras transformaci´on y aplicaci´on como sin´onimo
de funci´on.
10 0. RELACIONES Y FUNCIONES
Una funci´on f = (A,B,G) puede tener dominio o codominio vacio, aun-
que estos casos tienen poco inter´es. Si A = ∅, entonces para todo B, A × B
= ∅, de donde G = ∅ y f es de la forma f = (∅,B,∅).
Luego para cada conjunto B hay una ´ unica funci´on con dominio vac´ıo y
codominio B. Si una funci´ on f = (A, B, G) tiene codominio B = ∅ es G =
A × B = ∅, y como para cada x ∈ A existe un y ∈ B, debe ser A = ∅. En
consecuencia f = (∅,∅,∅) es la ´ unica funci´on con codominio vac´ıo.
DEFINICI
´
ON 0.6. Si (x,y) ∈ G diremos que y es la im´agen de x por f o
el valor de f en x.
Indicaremos con f(x) la imagen de x por f , luego G = { (x , f(x)); x ∈
A }. Dar el gr´afico de f equivale entonces a dar , para cada x del dominio,
su imagen f(x).
N´otese que dos elementos diferentes del dominio pueden tener la misma
imagen. Por ejemplo, sea
A=B=R y G =
¸
x, x
2

; x ∈ R
¸
entonces para todo x = 0 esx = −xpero f (x) = f (−x) = x
2
.
DEFINICI
´
ON 0.7. Dado un subconjunto del dominio, X ⊂ A, llamaremos
imagen de x por f al subconjunto de B formado por las im´agenes de todos
los elementos de X.
La imagen de X se denotar´a f (X), luego f (X) = {f (x) ; x ∈ X}. A
veces se llama recorrido de f a la imagen del dominio, f (A).
N´otese que f (A) ⊂ B pero f (A) puede no coincidir con B. As´ı en el
´ ultimo ejemplo el recorrido est´a formado por los reales positivos y no coincide
con el codominio R.
0.4. FUNCIONES 11
DEFINICI
´
ON 0.8. Llamaremos imagen inversa o preimagen por f de un
conjunto Y ⊂ B al subconjunto, de A formado por todos los x que tienen
imagen en Y, es decir:
{x ∈ A; f (x) ∈ Y } . Se llama imagen inversa de un elemento y ∈ B a la
imagen inversa del conjunto {y}.
Por ejemplo, si f : R → R es la funci´on tal que f (x) = x
2
para todo
x ∈ R , entonces la imagen inversa de 0 por f es {0}, la de 1 es {−1, 1} y
la de -1 es el conjunto vac´ıo.
DEFINICI
´
ON 0.9. Una funci´on f : A → B se dice sobreyectiva si
f (A) = B es decir, si para todo y ∈ B existe por lo menos un x ∈ A tal que
f (x) = y.
EJEMPLO 0.16. La funci´on p : R × R → R definida por p (x, x

) = x
es sobreyectiva.
EJEMPLO 0.17. La funci´on f : N → N dado por f (x) = 2x no
es sobreyectiva, pues la imagen f ( N ) est´a formada s´olo por los n´ umeros
pares. En cambio, es sobreyectiva la funci´on g de Nen el conjunto de los
naturales pares, dada por g (x) = 2x.
El ejemplo 0.17 es un caso particular del siguiente. Dada una funci´on
cualquiera f : A → B la funci´on g : A → f (A) definida por g (x) = f (x)
para todo x ∈ A, es sobreyectiva.
DEFINICI
´
ON 0.10. Una funci´on f : A → B se dice inyectiva si para
todo y ∈ B hay al lo sumo un x ∈ A tal que f (x) = y. Dicho de otra
manera, f es inyectiva cuando x = x

implica f (x) = f (x

).
12 0. RELACIONES Y FUNCIONES
EJEMPLO 0.18. La funci´on f : N → N dada por f (n) = n + 1 es
inyctiva, pues si n = n

entonces n + 1 = n

+ 1. No es sobreyectiva, porque
no existe ning´ un natural n que verifique f (n) = 0.
EJEMPLO 0.19. Indicaremos con la letra C al conjunto de los n´ umeros
complejos, y con C
o
los complejos diferentes de 0. Para todo real x est´a defi-
nido e
x
; suponemos sabido que para cada real p¿0 existe un x tal que e
x
= p.
Se puede definir la funci´on exponencial, exp : C →C
0
, tomando como valor
en x +iy el complejo:
exp (x +iy) = e
x
(cosy +iseny)
Denotaremos este n´ umero con e
x+iy
. Esta funci´on no es inyectiva porque
para todo real x y todo entero k vale:
e
x+2kπi
= e
x
(cos2kπ +isen2kπ) = e
x
Mostraremos que es sobreyectiva. Para esto observamos que todo com-
plejo u +iv = 0 se puede expresar en la forma
u +iv = ρ (cosφ +isenφ)
donde
ρ =

u
2
+v
2
> 0, cosφ =
u

u
2
+v
2
, senφ =
v

u
2
+v
2
Por otra parte, como ρ > 0, existe un real x tal que ρ = e
x
, luego:
u +iv = ρ (cosφ +isenφ) = e
x+iφ
.

EJEMPLO 0.20. Sean A ⊂ B conjuntos cualquiera. La funci´on inclusi´on
i : A →B, definida por i (x) = x para todo x ∈ A, es inyectiva. Si A = B,
i no es sobreyectiva.
0.4. FUNCIONES 13
Dada una funci´on f : A → B, consideremos en A la relaci´on x x

si
f (x) = f (x

). Es claro, que esta es una relaci´on de equivalencia; sea A el
conjunto cociente de A por esa relaci´on. Todos los x ∈ A que est´an en una
clase de equivalencia α ∈ A tienen la misma imagen seg´ un f, luego se puede
definir una funci´on f : A → B eligiendo para cada α ∈ A un representante
cualquiera x ∈ A y tomando f (α) = f (x). La funci´on f es inyectiva porque
si β ∈ A verifica f (β) = f (α), entonces para cada representante y ∈ B se
tiene:
f (y) = f (β) = f (α) = f (x)
luego y x, por lo tanto β = α.
DEFINICI
´
ON 0.11. Una funci´on se dice biyectiva si es sobreyectiva e
inyectiva.
Se usa correspondencia biun´ıvoca como sin´onimo de funci´on biyec-
tiva.
EJEMPLO 0.21. La funci´on f : Z → Z definida por f (n) = n + 1 es
biyectiva.
EJEMPLO 0.22. Es biyectiva la funci´on f : R → R dada por f (x) =
x
3
?
EJEMPLO 0.23. La funci´on logaritmo definida de los reales positivos en
R es biyectiva.
EJEMPLO 0.24. Dado un conjunto cualquiera A definimos la funci´on
identidad en A, Id
A
, como la funci´on de A en A tal que para todo x ∈ A,
Id
A
(x) = x. Esta funci´on es biyectiva. A veces escribiremos simplemente Id
en vez de Id
A
.
14 0. RELACIONES Y FUNCIONES
Sea f : A → B una funci´on cualquiera y sea A el conjunto cociente de
A por la relaci´on x x

si f (x) = f (x

); de consideraciones anteriores resulta
que la funci´on f : A → f (A) definida por f (α) = f (x) donde x es un
representante de α, es biyectiva.
DEFINICI
´
ON 0.12. Dada f : A → B y un conjunto C ⊂ A, se llama
restricci´on de f a C a la funci´on g : C → B definida por g (x) = f (x)
para todo x ∈ C. Se dice que f es una prolongaci´on de g en A. La
restricci´on g se notar´a: q/c.
DEFINICI
´
ON 0.13. Una funci´on f : N → A se llama sucesi´on de
elementos de A. Un elemento de la sucesi´on es una imagen f (i) de un
i ∈ N.
Lo usual es denotar la imagen i como a
i
, e indicar la sucesi´on en alguna
de la siguientes formas:
(a
1
, a
2
, ...) ; (a
i
)
i∈N
; (a
i
)
Una n-upla de elementos de A es una funci´on f : {1, ..., n} → A. Se
escribe {a
1
, ..., a
n
}, donde a
1
= f (1) , ..., a
n
= f (n). En general, dado un
conjunto I, una funci´on f : I →A se llama tambi´en una familia de elemen-
tos de A indizada por I.
De acuerdo a la definici´on una funci´on es una terna, por lo tanto dos
funciones, f = (A, B, G) y g = (A

, B

, G

), son iguales s´olo cuando A=A’,
B=B’ y G=G’, es decir cuando tienen igual dominio, igual codominio y el
mismo valor, f (x) = g (x), para cada x del dominio. De modo que, por
ejemplo, la funci´on f : Z → Z tal que f (x) = −x para todo x ∈ R,
es diferente a la funci´on f : Z → R definida por f (x) = −x para todo
x ∈ R, pues los codominios no coinciden. (Observar que la primera es
sobreyectiva y la segunda no lo es).
0.5. COMPOSICI
´
ON DE FUNCIONES 15
0.5. Composici´on de funciones
DEFINICI
´
ON 0.14. Dadas dos funciones f : A → B y g : B → C,
llamaremos composici´on de f y g a la funci´on h : A →C tal que para todo
x ∈ A h(x) = g (f (x)). La funci´on compuesta se notar´a g f o g ◦ f.
Tres funciones de la forma f : A →B, g : B →C, h : A →C, se pueden
indicar en un mismo diagrama del modo siguiente:
Figura 5.1
Cuando h=gf se dice que el diagrama es conmutativo. Obs´ervese que
esto significa que para todo a ∈ A se tiene el mismo resultado si ”se sigue
la flecha”de A a C y se halla h(a), o si se ”siguen las flechas”de A a B y de
B a C para llegar a gf (a).
Para que est´e definida gf es necesario que el codominio de f est´e incluido
en el dominio de g. En particular, puede estar definida gf y no estarlo fg. Si se
consideran funciones f : A →A y g : A →A entonces fg y gf est´an definidas
y ambas son funciones de A en A, pero no tienen por qu´e ser iguales. Por
ejemplo, si f : R → R est´a dada por f (x) = x
2
y g : R → R por
g (x) = −x entonces gf (x) = −x
2
y fg (x) = x
2
.
Dadas tres funciones, f : A → B, g : B → C y h : C → D, de la
definici´on de composici´on de funciones resulta que
h(gf) y (hg) f est´an definidas y son iguales pues ambas son funciones
de A en D y para todo x ∈ A:
(hg) (f (x)) = h(g (f (x))) = h((gf) (x)) = (h(gf)) (x)
Observemos finalmente que para toda funci´on f : A → B se verifica
id
B
f = f id
A
= f.
16 0. RELACIONES Y FUNCIONES
En los teoremas que siguen veremos algunas propiedades de las funciones
ineyectivas y sobreyectivas que podr´ıan utilizarse para definir inyectividad
y sobreyectividad.
TEOREMA 0.3. Una funci´ on f : A → B con dominio A no vac´ıo es
inyectiva si y s´ olo si existe una funci´ on g : B →A tal que gf = id
A
.
Demostraci´ on. Supongamos que f es inyectiva. Definimos una funci´on
g : B →A como sigue.
a)Si y ∈ f (A), por ser f inyectiva la imagen inversa de y se reduce a un
elemento x ∈ A, entonces tomamos g (y) = x.
b) Si y ∈ B pero y / ∈ f (A), como A es no vac´ıo, podemos tomar un x ∈ A
cualquiera y definir g (y) = x. Entonces gf = id
A
pues para todo x ∈ A,
seg´ un a):
(gf) (x) = (g (f (x))) = g (y) = x.
Rec´ıprocamente, supongamos que gf = id
A
. De f (x) = f (x

) sigue
x = gf (x) = gf (x

) = x

, luego f es inyectiva.
Si gf = id
A
diremos que g es la inversa a la izquerda de f. Seg´ un
este teorema, cuando A es no vac´ıo, f es inyectiva si y s´olo si tiene inversa
a la izquerda. Obs´ervese que para todo B la funci´on f : φ →B es inyectiva
pero si B = φ, f no tiene inverso izquerdo pues no existe funciones con
dominio B = φ y con codominio φ. Por esta raz´on el teorema 0.3 no vale sin
la hip´otesis de que el dominio A no sea vac´ıo.
De la demostraci´on del teorema 0.3 resulta que si f es inyectiva pero no
sobreyectiva y si A tiene m´as de un elemento entonces el inverso izquierdo de
f no es ´ unico. En efecto, en este caso existe ciertamente alg´ un y pertene-
ciente a B, y / ∈ f (A), al cual puede asignarse por imagen seg´ un g diferentes
elementos de A, resultando en cada caso un inverso izquierdo g diferente.
0.5. COMPOSICI
´
ON DE FUNCIONES 17
Dadas dos funciones h, h’ de C en A, si f : A → B es inyectiva fh=fh’
implica h=h’, porque si A no es vac´ıo se tiene:
g (fh) = id
A
h = h = g

fh

= id
A
h

= h

Si A = φ, de h : C → A sigue C = φ luego, tambi´en en este caso
h = h

= (φ, φ, φ).
Mostraremos que esta propiedad caracteriza las funciones inyectivas, es
decir que toda f para la cual fh=fh’ implica h=h’ es inyectiva. Supongamos
que f : A →B no sea inyectiva y sean x, x

∈ A , x = x

, tales que f (x) =
f (x

). Sea C un conjunto formado por un ´ unico elemento c, definimos h :
C → A con h(c) = x y h

: C → A con h

(c) = x

. Entonces (fh) (c) =
(fh

) (c) = f (c), es decir fh=fh’, pero h = h

, contrario a la hip´otesis. Luego
f es inyectiva.
TEOREMA 0.4. Una funci´ on f : A →B es sobreyectiva si y s´ olo si existe
g : B →A tal que f ◦ g = id
B
.
Demostraci´ on. Supongamos que f es sobreyectiva; entonces para todo y ∈
B la imagen inversa por f es un conjunto no vac´ıo del cual podemos elegirun
elemento x. (Esto requiere usar el axioma de elecci´on). Definimos g : B →A
tomando g (y) = x. Con esto tenemos para todo y ∈ B: (fg) (y) = f (x) = y
pues x fue elegido en la imagen inversa de y.
Rec´ıprocamente, sea g : B → A tal que fg = id
B
. De aqu´ı sigue para
todo y ∈ B, y = id
B
(y) = f (g (y)), quere decir que la imagen por f del
ekemento g (y) ∈ A es y. Kuego f es sobreyectiva.
Una funci´on g : B →A tal que fg = id
B
se llama inversa a la derecha
de f. Seg´ un el teorema 0.4, f es sobreyectiva si y s´olo si tiene inverso derecho.
De la demostraci´on de este teorema puede deducirse que si f es sobreyectiva
pero no inyectiva entonces tiene m´as de un inverso derecho.
18 0. RELACIONES Y FUNCIONES
Tambi´en se caracterizan las funciones sobreyectivas f : A → B, por la
propiedad de que para todo par de funciones h, h’ de B en C, hf=h’f implica
h=h’. La demostraci´on es similar a la que hicimos para la propiedad an´aloga
de las funciones inyectivas. Si gf = id
A
y fg

= id
B
, entonces:
g = g id
B
= f

fg

= (gf) g

= id
A
g

= g

Esto demuestra que si f tiene inversa a la izquierda e inversa a la derecha
entonces cualquier inversa a la izquierda es igual a cualquier inversa a la
derecha, por lo tanto hay un ´ unico inversa a la izquierda, un ´ unico inversa
a la derecha y son iguales. En tal caso decimos que este es la inversa de f
y lo denotaremos f
−1
.
La definici´on de inversa de f : A →B muestra que f
−1
asocia a cada y ∈
B el ´ unico x ∈ A tal que f (x) = y. Por ejemplo si A=R, B = {r ∈ R; r > 0}
y f : A → B es la funci´on exponencial de base a¿0, entonces f
−1
: B → A
es la funci´on que cada real positivo le asocia su logaritmo de base a.
Si f tiene inversa, seg´ un los teoremas 0.3 y 0.4, f es biyectiva, por los
mismos teoremas tiene inversa a la izquierda e inversa a la derecha que, como
acabamos de observar, son iguales entre s´ı. Si f es biyectiva con dominio
vac´ıo, debe ser de codominio vac´ıo, entonces f = (φ, φ, φ). Esta funci´on
tiene inverso f
−1
= f, por lo tanto tambi´en en este caso vale el enunciado
rec´ıproco. As´ı queda demostrado el corolario siguiente.
COROLARIO 0.5. Una funci´ on f : A →B es biyectiva si y s´ olo si existe
g : B →A tal que gf = id
A
y fg = id
B
.
Es claro que si f
−1
es el inverso de f entonces f es el inverso de f
−1
. De
aqu´ı y del corolario, resulta que si f es biyectiva, tambi´en lo es f
−1
. Esto
tambi´en se puede deducir directamente de la definici´on de funci´on inversa.
CAP´ıTULO 1
SISTEMAS LINEALES DE ECUACIONES Y
MATRICES
1.1. Introducci´on
Gran parte de lo que estudiaremos en este curso y en su continuaci´on
en el segundo semestre se vincula con los sistemas de ecuaciones lineales
por lo tanto vale la pena dedicar alg´ un tiempo a presentarlos, discutir sus
propiedades y ciertas estrategias para resolverlos. Quienes ya conozcan estos
temas tendr´an en todo caso una oportunidad para repasarlos.
Un sistema lineal de m ecuaciones con n inc´ognitas x
1
, x
2
, . . . , x
n
es un problema del tipo:
(S) =

a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
donde a
ij
con i = 1, . . . , m y j = 1, . . . , n (los coeficientes del sistema) y
b
j
con j = 1, . . . , m (los t´erminos independientes) son n´ umeros
1
Diremos
que el sistema es m×n indicando siempre el primer n´ umero la cantidad de
ecuaciones y el segundo la de inc´ognitas.
Una soluci´on del sistema (S) es una sucesi´on de n n´ umeros (α
1
, α
2
, . . . , α
n
)
tales que si se sustituye x
1
= α
1
, x
2
= α
2
, . . . , x
n
= α
n
se verifican si-
mult´aneamente las m ecuaciones.
1
En nuestro cursos los n´ umeros que consideraremos pertenecen al cuerpo de los reales
o de los complejos
19
20 1. ECUACIONES LINEALES Y MATRICES
Llamaremos conjunto soluci´on del sistema (S) y lo notaremos Sol(S)
al conjunto de todas las soluciones de (S). Resolver un sistema es determinar
su conjunto soluci´on.
2
Clasificaremos los sistemas de acuerdo a n´ umero de soluciones que tenga.
Si A es un conjunto escribiremos card(A) para representa su cardinal.
Si el conjunto es finito card(A) indica el n´ umero de elementos e infinito en
otro caso. Diremos entonces que un sistema es compatible determinado
si card(Sol(S)) = 1 (tiene soluci´on ´ unica), compatible indeterminado
si card(Sol(S)) > 1 (tiene soluci´on pero no es ´ unica)
3
e incompatible si
card(Sol(S)) = 0 (no tiene ninguna soluci´on).
EJEMPLO 1.1. El ejemplo m´as sencillo de un sistema lineal es el 1 ×1
ax = b
en pocos renglones podemos discutir completamente como es el conjunto
soluci´on. Si a = 0 entonces el sistema es compatible determinado y su ´ unica
soluci´on es x =
b
a
= a
−1
b. Si en cambio a = 0 hay dos posibilidades: si b = 0
el sistema es incompatible y si b = 0 trivialmente el sistema es compatible
indeterminado y cualquier n´ umero es soluci´on del mismo.
Naturalmente este problema es extremadamente sencillo pero como acon-
tece muchas veces las ideas que aqu´ı se utilizan convenientemente adaptadas
resultaran ´ utiles en casos m´as generales y complicados.
EJEMPLO 1.2.
(S)

x = 1
y = 3
z = 2
es un sistema 3 ×3. Trivialmente se observa que Sol(S) = {(1, 2, 3)}.

2
En general, salvo que se indique lo contrario, las soluciones se consideraran en el
mismo conjunto de n´ umeros que los coeficientes
3
Veremos m´as adelante que si un sistema lineal admite m´as de una soluci´on entonces
necesariamente debe admitir infinitas
1.1. INTRODUCCI
´
ON 21
EJEMPLO 1.3.
(S)

x +y + 2z = 8
2y +z = 8
z = 2
es tambi´en un sistema 3×3. Aqu´ı con algo m´as de trabajo tambi´en se puede
deducir f´acilmente el conjunto soluci´on. Para esto basta observar que de
abajo hacia arriba cada ecuaci´on tiene exactamente una inc´ognita m´as que
la siguiente, por este motivo se dice que el sistema esta “escalerizado”. De
la ´ ultima ecuaci´on se despeja
z=2
Con este valor de z sustituimos en al segunda ecuaci´on y tenemos
2y + 2 = 8 =⇒2y = 6 =⇒ y=3
Finalmente con los valores de y y z hallados “subimos” a la primera ecuaci´on
y sustituyendo se tiene que
x + 3 + 2(2) = 8 =⇒ x=1
En consecuencia Sol(S) = {(1, 3, 2)}.
Este procedimiento de despejar una inc´ognita en una ecuaci´on y sustituirla
en otra de arriba se denomina sustituci´on hacia atr´as
Observemos que en los ejemplos 1.2 y 1.3 los conjuntos soluci´on son
iguales, cuando esto ocurra diremos que los respectivos sistemas son equi-
valentes.
EJEMPLO 1.4.
(S)

x +y + 2z = 8
x −y +z = 0
x +y +z = 6
Las cosas aqu´ı no son tan claras. Una estrategia para resolverlo, inspirada
en los ejemplos anteriores podr´ıa ser, la de sustituir el sistema (S) por otro,
(S

) equivalente y “escalerizado” de modo de poder resolver (S

) (y por
ende (S) ya que al ser equivalentes los conjuntos soluci´on de ambos sistemas
22 1. ECUACIONES LINEALES Y MATRICES
coinciden) con el procedimiento utilizado en el ejemplo 1.3. Analicemos un
poco estas ideas antes de retomar la resoluci´on concreta del ejemplo.
La pregunta que naturalmente surge es ¿c´omo hacer para sustituir un
sistema por otro que resulte equivalente?. Para responderla introducimos la
siguiente
DEFINICI
´
ON 1.1. Llamaremos transformaciones elementales a cual-
quiera de las siguientes operaciones efectuadas a las ecuaciones de un sistema
lineal:
1. Intercambiar de lugar dos ecuaciones. (F
i
↔F
j
)
2. Multiplicar una ecuaci´on por un n´ umero α = 0. (αF
i
)
3. Sumar a una ecuaci´ on un m´ ultiplo de otra. (F
i
+αF
j
)
Entre par´entesis se indica la notaci´on que utilizaremos para especificar cada
operaci´on en los ejemplos. La ecuaci´on i-esima ser´a notada con F
i
.
La siguiente proposici´on responde la pregunta formulada arriba.
PROPOSICI
´
ON 1.1. Si en un sistema lineal de ecuaciones se efect´ uan
una transformaci´ on elemental el sistema resultante es equivalente al ori-
ginal.
Demostraci´ on. La demostraci´on es muy sencilla y la haremos s´olo en el
caso que la transformaci´on elemental sea del tipo 3. El resto queda a cargo
del lector.
Supongamos que el sistema original sea
(S)

a
11
x
1
+a
12
x
2
+· · · +a
1n
x
n
= b
1
.
.
.
a
i1
x
1
+a
i2
x
2
+· · · +a
in
x
n
= b
i
.
.
.
a
j1
x
1
+a
j2
x
2
+· · · +a
jn
x
n
= b
j
.
.
.
a
m1
x
1
+a
m2
x
2
+· · · +a
mn
x
n
= b
m
1.1. INTRODUCCI
´
ON 23
Supongamos que sumamos a la ecuaci´on i un m´ ultiplo de la ecuaci´on j. El
sistema resultante es
(S

)

a
11
x
1
+a
12
x
2
+· · · +a
1n
x
n
= b
1
.
.
.
(a
i1
x
1
+a
i2
x
2
+· · · +a
in
x
n
) +β(a
j1
x
1
+a
j2
x
2
+· · · +a
jn
x
n
) = b
i
+βb
j
.
.
.
a
j1
x
1
+a
j2
x
2
+· · · +a
jn
x
n
= b
j
.
.
.
a
m1
x
1
+a
m2
x
2
+· · · +a
mn
x
n
= b
m
Para probar que ambos son equivalentes deberemos ver que Sol(S) = Sol(S

).
Como se trata de mostrar la igualdad de dos conjuntos tendremos que de-
mostrar que est´an mutuamente incluidos.
Veamos primero que Sol(S) ⊂ Sol(S

). Sea (α
1
, α
2
, · · · , α
n
) ∈ Sol(S) es
claro que (α
1
, α
2
, · · · , α
n
) satisface todas las ecuaciones de (S

) (pues son
las mismas que las de (S)) salvo tal vez la i-esima. Como (α
1
, α
2
, · · · , α
n
)
debe verificar la i-esima y j-esima ecuaci´on de (S) se tiene que
a
i1
α
1
+a
i2
α
2
+· · · +α
in
x
n
= b
i
y a
j1
α
1
+a
j2
α
2
+· · · +a
jn
α
n
= b
j
por lo tanto
(a
i1
α
1
+a
i2
α
2
+· · · +a
in
α
n
) +β(a
j1
α
1
+a
j2
α
2
+· · · +a
jn
α
n
) = b
i
+βb
j
de donde (α
1
, α
2
, . . . , α
n
) ∈ Sol(S

).
Finalmente probemos que Sol(S

) ⊂ Sol(S). Consideremos ahora

1
, α
2
, . . . , α
n
) ∈ Sol(S

).
Igual que antes es claro (α
1
, α
2
, . . . , α
n
) debe verificar todas las ecuaciones
de (S) salvo tal vez la i-esima pero como
(a
i1
α
1
+a
i2
α
2
+· · · +a
in
α
n
) +β(a
j1
α
1
+a
j2
α
2
+· · · +a
jn
α
n
) = b
i
+βb
j
y
a
j1
α
1
+a
j2
α
2
+· · · +a
jn
α
n
= b
j
24 1. ECUACIONES LINEALES Y MATRICES
se deduce que
a
i1
α
1
+a
i2
α
2
+· · · +a
in
α
n
= b
i
con lo cual (α
1
, α
2
, . . . , α
n
) ∈ Sol(S) y la prueba esta concluida.
Naturalmente las cuestiones que se imponen ahora son las de saber si cual-
quier sistema puede ser “escalerizado” mediante transformaciones elemen-
tales y en caso afirmativo determinar un m´etodo o algoritmo que permita
hacerlo. Volvamos a analizar el ejemplo 1.4.
EJEMPLO 1.4 (continuaci´on). Para que el sistema quede “escalerizado
en la segunda y tercera ecuaci´on no debe aparecer la inc´ognita x entonces
dejemos la primera ecuaci´on igual y realicemos transformaciones elementales
en la segunda y tercera. La idea es combinar ambas con la primera de modo
que los coeficientes de la inc´ognita x se anulen. Como el coeficiente de x en
las tres ecuaciones es 1 basta en ambos casos restar la primera.

x +y + 2z = 8
x −y +z = 0
x +y +z = 6

x +y + 2z = 8
−2y −z = −8
−z = −2
←− F
2
−F
1
←− F
3
−F
1
El sistema esta ya “escalerizado”, si multiplicamos las dos ´ ultimas ecuaciones
por −1 se obtiene el sistema del ejemplo 1.3 por lo cual Sol(S) = {(1, 3, 2)}

1.2. Matrices
Al trabajar con un sistema de ecuaciones la representaci´on de las in-
c´ognitas (x, y, z o x
1
, . . . , x
n
, etc.) no juega ning´ un papel y puede usarse
cualquiera; de hecho para determinar un sistema es suficiente con conocer los
coeficientes y el t´ermino independiente del mismo. Naturalmente no alcanza
con conocer los valores de estos n´ umeros sino que es necesario mantener el
orden que ocupan (a qu´e ecuaci´on pertenecen y a qu´e inc´ognita multiplican).
Por esto resulta conveniente dar la siguiente
1.2. MATRICES 25
DEFINICI
´
ON 1.2. Llamaremos matriz A de m filas por n columnas
(m×n) de entradas a
ij
a un ordenamiento rectangular de n´ umeros
A =

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

Notaci´on: En general la matriz A con entradas a
ij
la indicaremos por
A = ((a
ij
))
i=1,...,m
j=1,...,n
o m´as brevemente A = ((a
ij
)) cuando las dimensiones
est´en claras. El primer ´ındice i indica la fila y el segundo j la columna a la
que pertenece la entrada.
El conjunto de todas las matrices m×n lo indicaremos como M
m×n
.
Llamaremos matriz columna (fila) a una matriz X ∈ M
m×1
(M
1×n
).
Diremos que dos matrices son iguales si tienen el mismo tama˜ no y los
mismas entradas en las mismas posiciones. Dicho de otro mondo si A y B son
dos matrices m×n entonces A = B ⇔a
ij
= b
ij
∀i = 1, . . . , m, j = 1, . . . , n
EJEMPLO 1.5. Sea
A =

1 2

2 1

y B =

2 1

2 1

Entonces A = B pues a
11
= 1 = b
11
= 2
OBSERVACI
´
ON 1.2. El lector atento notar´a que nuestra definici´on de
matriz si bien es clara no es del todo formal. La frase “ordenamiento rectangular.
es
intuitiva pero no est´a definida con precisi´on, una definici´on formal ser´ıa:
Una matriz A de m filas por n columnas es una funci´ on A : {1, . . . , m}×
{1, . . . , n} → R.
El lector verificar´a que esta definici´on es coherente, chequeando por ejemplo,
el criterio de igualdad de matrices.
26 1. ECUACIONES LINEALES Y MATRICES
DEFINICI
´
ON 1.3. Dado un sistema lineal de ecuaciones

a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
llamaremos matriz del sistema a la matriz m × n A de coeficientes del
mismo, esto es:
A =

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

Llamaremos, matriz ampliada del sistema a la matriz m×(n + 1)
(A|b) =

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
b
1
a
21
a
22
. . . a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
b
m
¸

Diremos que dos matrices son equivalente si los respectivos sistemas lo son
La definici´on anterior introduce una notaci´on m´as compacta (matricial)
para un sistema de ecuaciones. Veamos algunos ejemplos.
EJEMPLO 1.6. Consideremos el sistema
(S)

x +y + 2z = 9
3x + 6y −5z = 0
2x + 4y −3z = 1
entonces la matriz del sistema y la matriz ampliada son:
A =

¸
¸
1 1 2
3 6 −5
2 4 −3
¸

y A|b =

¸
¸
1 1 2 9
3 6 −5 0
2 4 −3 1
¸

1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 27
1.3. El m´etodo de escalerizaci´on
Resulta natural ahora analizar , c´omo se aplica el procedimiento de “es-
calerizaci´on” del ejemplo 1.4 a la matriz ampliada de un sistema. Las trans-
formaciones elementales deben aplicarse sobre las filas de la matriz.
EJEMPLO 1.7. Intentemos “escalerizar.
el
sistema del ejemplo 1.6

¸
¸
1 1 2 9
3 6 −5 0
2 4 −3 1
¸

¸
¸
1 1 2 9
0 3 −11 −27
0 2 −7 −17
¸

←− F
2
−3F
1
←− F
3
−2F
1

¸
¸
1 1 2 9
0 3 −11 −27
0 0
1
3
1
¸

←− F
3

2
3
F
2

¸
¸
1 1 2 9
0 3 −11 −27
0 0 1 3
¸

←− 3F
3
Por lo tanto el sistema (S) es equivalente al sistema

x +y + 2z = 9
3y −11z = −27
z = 3
Ahora podemos proceder a realizar sustituci´on hacia atr´as. De la ´ ultima
ecuaci´on se tiene
z=3
Con este valor sustituimos en la segunda y tenemos
3y −33 = −27 =⇒ 3y = 6 =⇒ y=2
y finalmente sustituyendo en la primera
x + 2 + 6 = 9 =⇒ x=1
En consecuencia el sistema es compatible determinado y su ´ unica soluci´on
es la 3-upla (1, 2, 3).
28 1. ECUACIONES LINEALES Y MATRICES
Hasta ahora no hemos sido precisos para definir a que le llamamos un
sistema o matriz escalerizada
DEFINICI
´
ON 1.4. Llamaremos matriz escalerizada a una matriz que
cumpla las siguientes condiciones
1. Todas las filas, salvo quiz´as la primera comienzan con una sucesi´on
de ceros.
2. Cada fila tiene al principio por lo menos un cero m´as que la fila
inmediata superior.
Llamaremos matriz escalerizada reducida a una matriz escalerizada que
adem´as cumple las siguientes condiciones:
1. La primera entrada no nula de una fila es 1.
2. La columna correspondiente a la primera entrada no nula de una fila
tiene el resto de las entradas todas nulas.
Diremos que un sistema est´a escalerizado si su matriz ampliada lo est´a.
Escalerizar un sistema (o matriz) es encontrar un sistema (matriz)
escalerizado equivalente. Si A es una matriz y E es una matriz escalerizada
equivalente a A diremos que E es una forma escalerizada de A
EJEMPLO 1.8.
(1.8.a)

¸
¸
¸
¸
2 1 0 1
0 3 2 1
0 0 2 1
0 0 0 4
¸

(1.8.b)

¸
¸
¸
¸
2 1 0 1
0 0 3 1
0 0 0 2
0 0 0 0
¸

(1.8.c)

¸
¸
¸
¸
1 0 4 0
0 1 2 0
0 0 0 1
0 0 0 0
¸

(1.8.d)

¸
¸
¸
¸
1 1 0 1 0
0 0 1 2 0
0 0 0 0 1
0 0 0 0 0
¸

Los ejemplos a y b son matrices escalerizadas y los ejemplos c y d son
escalerizadas reducidas.
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 29
En el ejemplo 1.6 se aprecia que una vez obtenida la forma escalerizada el
m´etodo de sustituci´on hacia atr´as permite resolver el sistema. Cabe entonces
preguntarse el motivo para introducir la definici´on de matriz escalerizada
reducida. En el siguiente ejemplo se aclara en parte esto.
EJEMPLO 1.9. Resolver el sistema:
(S)

2x + 4y + 2z = −2
x +y + 2z = 0
−x +y −2z = 2
La matriz ampliada del sistema es:

¸
¸
2 4 2 −2
1 1 2 0
−1 1 −2 2
¸

Procedamos a escalerizarla, para esto en primer lugar obtengamos una ma-
triz equivalente pero con ceros en la segunda y tercera posici´on de la primera
columna. Dejamos la primera fila fija y la utilizamos como “pivot” para com-
binar con las otras dos.

¸
¸
2 4 2 −2
1 1 2 0
−1 1 −2 2
¸

¸
¸
2 4 2 −2
0 −1 1 1
0 3 −1 1
¸

←− F
2

1
2
F
1
←− F
3
+
1
2
F
1
Ahora la primera y segunda fila tiene el aspecto adecuado. El segundo paso
consiste en sustituir la tercera fila por otra con dos ceros en los primeros
lugares. Para esto combinamos convenientemente tercera con la segunda fila.
(1.1)

¸
¸
2 4 2 −2
0 −1 1 1
0 3 −1 1
¸

¸
¸
2 4 2 −2
0 −1 1 1
0 0 2 4
¸

←− F
3
+ 3F
2
N´otese que al dar el segundo paso la primera fila ya no interviene y se procede
de manera an´aloga al primer paso pero utilizado la segunda fila como fila
“pivot”.
Ahora que obtuvimos una forma escalerizada de la matriz original podr´ı-
amos proceder con la sustituci´on hacia atr´as pero en lugar de esto intentemos
30 1. ECUACIONES LINEALES Y MATRICES
obtener la forma reducida para esto fijamos la tercera fila como “pivot” y
la combinamos con la primera y segunda de modo que las entradas en las
posiciones 1, 3 y 2, 3 se anulen

¸
¸
2 4 2 −2
0 −1 1 1
0 0 2 4
¸

¸
¸
2 4 0 −6
0 −1 0 −1
0 0 2 4
¸

←− F
1
−F
3
←− F
2

1
2
F
3
Combinando la segunda fila con la primera obtenemos un cero en la posici´on
1, 2

¸
¸
2 4 0 −6
0 −1 0 −1
0 0 2 4
¸

¸
¸
2 0 0 −10
0 −1 0 −1
0 0 2 4
¸

←− F
1
+ 4F
2
Para obtener la forma reducida solo resta obtener unos en las entradas no
nulas de cada fila

¸
¸
2 0 0 −10
0 −1 0 −1
0 0 2 4
¸

¸
¸
1 0 0 −5
0 1 0 1
0 0 1 2
¸

←−
1
2
F
1
←− −F
2
←−
1
2
F
3
El sistema resultante, equivalente a (S) es
(S

)

x = −5
y = 1
z = 2
y por lo tanto el sistema es compatible determinado con Sol(S) = {(−5, 1, 2)}.
Obs´ervese que en 1.1 la escalera que se obtuvo tiene todos sus “escalones”
de ancho una columna. Esto implica que en el correspondiente sistema cada
ecuaci´on tenga exactamente una inc´ognita m´as que la inmediata inferior.
El proceso de obtener la forma reducida sustituye entonces al algoritmo
de sustituci´on hacia atr´as, adem´as el lector puede observar que la forma
escalerizada de una matriz no es ´ unica (para obtener otra basta sustituir
una fila por una combinaci´ on de ella con una fila inferior) pero la reducida
si lo es.
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 31
EJEMPLO 1.10. Resolver el sistema:
(S)

2x + 4y + 2z = −2
x +y + 2z = 0
−x +y −4z = 2
La matriz ampliada del sistema es:

¸
¸
2 4 2 −2
1 1 2 0
−1 1 −4 2
¸

Procedamos como en el ejemplo anterior

¸
¸
2 4 2 −2
1 1 2 0
−1 1 −4 2
¸

¸
¸
2 4 2 −2
0 −1 1 1
0 3 −3 1
¸

←− F
2

1
2
F
1
←− F
3
+
1
2
F
1

¸
¸
2 4 2 −2
0 −1 1 1
0 0 0 4
¸

←− F
3
+ 3F
2
A diferencia del ejemplo precedente la forma escalerizada de la matriz am-
pliada tiene un escal´on m´as que la de la matriz del sistema, por lo tanto la
´ ultima ecuaci´on del sistema escalerizado es
0 = 4
y consecuentemente el sistema resulta incompatible pues ning´ un valor de x,
y y z la satisface.
EJEMPLO 1.11. Resolver el sistema:
(S)

x
1
+ 2x
2
+x
3
+x
5
+x
6
= 1
−x
1
−2x
2
+x
3
+x
4
−x
6
= 0
x
1
+ 2x
2
+x
3
+ 2x
4
+ 5x
5
+ 3x
6
= 1
x
1
+ 2x
2
+x
3
+x
5
+ 3x
6
= 3
x
1
+ 2x
2
+x
3
+ 4x
4
+ 9x
5
+ 3x
6
= 1
32 1. ECUACIONES LINEALES Y MATRICES
La matriz del sistema ampliada es:

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
−1 −2 1 1 0 −1 0
1 2 1 2 5 3 1
1 2 1 0 1 3 3
1 2 1 4 9 3 −1
¸

Como antes el proceso comienza fijando la primera fila como pivot y utili-
zando su primera entrada para lograr anular el resto de la primera columna.

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
−1 −2 1 1 0 −1 0
1 2 1 2 5 3 1
1 2 1 0 1 3 3
1 2 1 4 9 3 −1
¸


¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 2 −1 −3 −2 1
0 0 2 1 1 −2 −1
0 0 0 4 8 2 0
¸

←− F
2
+F
1
←− F
3
+ 2F
1
←− F
4
−F
1
←− F
5
−F
1
En los ejemplos anteriores en el segundo paso, se utilizaba la entrada 2, 2
para conseguir ceros en el resto de la columna, aqu´ı esto no es posible pues
la segunda columna ya tiene todas sus entradas (salvo la primera) nulas en
consecuencia el segundo escal´on deber´a estar en la tercera columna. Utiliza-
mos entonces la entrada de la posici´on 2, 3 para generar ceros en el resto de
la columna tres.
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 33
(1.2)

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 2 −1 −3 −2 1
0 0 2 1 1 −2 −1
0 0 0 4 8 2 0
¸


¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 −2 −4 −2 0
0 0 0 0 0 −2 −2
0 0 0 4 8 2 0
¸

←− F
3
−F
2
←− F
4
−F
2
←− F
5
En el tercer paso escalerizaremos la columna siguiente (la cuarta)

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 −2 −4 −2 0
0 0 0 0 0 −2 −2
0 0 0 4 8 2 0
¸


¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 −2 −4 −2 0
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸

←− F
5
+ 2F
3
34 1. ECUACIONES LINEALES Y MATRICES
Ya tenemos la forma escalerizada, pero como en el ejemplo 1.9 continuemos
hasta obtener la forma reducida

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 −2 −4 −2 0
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸


¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 0 0
0 0 2 1 1 0 1
0 0 0 −2 −4 0 2
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸

←− F
1

1
2
F
4
←− F
3
−2F
4

¸
¸
¸
¸
¸
¸
¸
1 2 1 0 1 0 0
0 0 2 0 −1 0 2
0 0 0 −2 −4 0 2
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸

←− F
2
+
1
2
F
3

(1.3) ∼

¸
¸
¸
¸
¸
¸
¸
1 2 0 0
3
2
0 −1
0 0 2 0 −1 0 2
0 0 0 −2 −4 0 2
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
¸

←− F
1

1
2
F
2

¸
¸
¸
¸
¸
¸
¸
1 2 0 0
3
2
0 −1
0 0 1 0 −
1
2
0 1
0 0 0 1 2 0 −1
0 0 0 0 0 1 1
0 0 0 0 0 0 0
¸

←−
1
2
F
2
←− −
1
2
F
3
←− −
1
2
F
4
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 35
El sistema de ecuaciones asociado queda entonces
(S

)

x
1
+ 2x
2
+
3
2
x
5
= −1
x
3

1
2
x
5
= 1
x
4
+ 2x
5
= −1
x
6
= 1
Despejando se tiene

x
1
= −2x
2

3
2
x
5
−1
x
3
= −
1
2
x
5
+ 1
x
4
= −2x
5
−1
x
6
= 1
Las inc´ognitas x
2
y x
5
no pueden determinarse, las otras se obtienen como
funci´on de ellas. Cada valor real elegido libremente de x
2
y x
5
determina una
soluci´on del sistema (S) Por ejemplo si x
2
= 1 y x
5
= 0 se obtiene la soluci´on
(−3, 1, 1, −1, 0, 1). Si x
2
= 0 y x
5
= 1 se tiene la soluci´on


5
2
, 0,
1
2
, −3, 1, 1

.
El sistema es entonces compatible indeterminado y en virtud de que dos de
sus inc´ognitas pueden elegirse libremente diremos que tiene dos grados de
libertad. El conjunto soluci´on es

−2x
2

3
2
x
5
−1, x
2
, −
1
2
x
5
+ 1, −2x
5
−1, x
5
, 1

, x
2
∈ R, x
5
∈ R

Vale la pena observar que al igual que en el ejemplo 1.9 el n´ umero de esca-
lones de la matriz ampliada y el de la matriz del sistema coinciden. Por esta
raz´on el sistema resulta compatible. Sin embargo, aqu´ı la “escalera” pre-
senta “descansos” o escalones largos (el primero y el tercero). Esto implica
que en el sistema escalerizado algunas ecuaciones tienen por lo menos dos
inc´ognitas m´as que la ecuaci´on inmediata inferior, por esto resulta imposible
determinar todas las inc´ognitas.
Los ejemplos anteriores parecen indicar que cualquier matriz y por ende
cualquier sistema puede ser escalerizado. Establezcamos este hecho en el
siguiente resultado
36 1. ECUACIONES LINEALES Y MATRICES
PROPOSICI
´
ON 1.3. Toda matriz puede ser transformada en una ma-
triz escalerizada (o escalerizada reducida) mediante una cantidad finita de
transformaciones elementales
Demostraci´ on. La prueba es algor´ıtmica
4
. Indicaremos esquem´aticamen-
te el procedimiento, los detalles quedan a cargo del lector.
Sea A = ((a
ij
)) una matriz m×n cualquiera. Indiquemos por A
i
= (a
i1
, a
i2
, . . . , a
in
)
su fila i-esima.
El objetivo del primer paso es obtener una matriz con una primera columna
que tenga nulas todas sus entradas excepto la primera. Si toda la primera
columna es nula se pasa a la segunda y as´ı sucesivamente hasta tener una
primera columna con alguna entrada distinta de cero. La idea para anular
el resto de las entradas de la columna es ubicar la entrada no nula (a la que
llamremos pivot) en la primera fila y utilizar esta para combinar convenien-
temente con cada fila a los efectos de lograr ceros en todas las posiciones.
Para simplificar la notaci´on aqu´ı supondremos que ya la primera columna
tiene alguna entrada no nula. Con la suposici´on indicada comenzamos re-
conociendo si a
11
= 0. Si a
11
= 0 cambiamos la primera fila por otra cuya
primera entrada sea no nula.
5
Una vez que el pivot esta ubicado realizamos
4
Un algoritmo es, groseramente hablando, un conjunto de acciones expresadas en un
lenguaje formal y sin ambig¨ uedades que pueden ser comprendidos y ejecutados por una
persona o una m´aquina.
Este algoritmo es conocido con el nombre de M´etodo de Gauss.
5
Por razones num´ericas y para evitar errores de redondeo al resolver sistemas con
ayuda de la computadora resulta muchas veces importante, a´ un cuando a11 = 0 cambiar
la primera fila por la fila que tenga la primera entrada mayor, este procedimiento se conoce
como pivoteo.
1.3. EL M
´
ETODO DE ESCALERIZACI
´
ON 37
el primer paso de la escalerizaci´on:

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
A
1
A
2
.
.
.
.
.
.
A
i
.
.
.
.
.
.
A
m
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
A
1
A

2
.
.
.
.
.
.
A

i
.
.
.
.
.
.
A

m
¸

←− A
2

a
21
a
11
A
1
.
.
.
←− A
i

a
i1
a
11
A
1
.
.
.
←− A
m

a
m1
a
11
A
1
La matriz que obtuvimos tiene el siguiente aspecto:

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
0 a

22
. . . a

2n
.
.
.
.
.
.
.
.
.
.
.
.
0 a

m2
. . . a

mn
¸

En el segundo paso el objetivo es obtener una nueva matriz que tenga las
entradas de la segunda columna todas nulas salvo tal vez las dos primeras.
Para eso repetimos el procedimiento del paso uno a la sub-matriz que apa-
rece recuadrada.
De nuevo el primer paso es determinar el segundo pivot para esto chequea-
mos que a

22
= 0 de lo contrario cambiamos la segunda fila por otra (de
abajo) con segunda entrada no nula. Podr´ıa ocurrir que todas las entradas
de la segunda fila fuesen nulas en ese caso la segunda columna ya tiene el
aspecto adecuado por lo cual el procedimiento se contin´ ua ubicando un pi-
vot en al posici´on 2, 3 (ver (1.2)en el ejemplo 1.11). Supongamos, para fijar
38 1. ECUACIONES LINEALES Y MATRICES
ideas, que a

22
= 0 entonces el segundo paso de la escalerizaci´on es:

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
A
1
A

2
A

3
.
.
.
.
.
.
A

i
.
.
.
.
.
.
A

m
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
A
1
A

2
A
′′
3
.
.
.
.
.
.
A
′′
i
.
.
.
.
.
.
A
′′
m
¸

←− A

3

a
32
a
22
A

2
.
.
.
←− A

i

a
i2
a
22
A

2
.
.
.
←− A

m

a
m2
a
22
A

2
La matriz obtenida en el paso dos tiene entonces el aspecto:

¸
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
. . . a
1n
0 a

22
a

23
. . . a

2n
0 0 a
′′
33
. . . a
′′
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
′′
m3
. . . a
′′
mn
¸

Repetimos nuevamente los pasos previos aplicados a la sub-matriz del re-
cuadro. El procedimiento culmina cuando se llega a la ´ ultima fila o columna.
Para obtener la matriz escalerizada reducida a partir de la escalerizada,
basta con repetir el procedimiento pero tomando como pivots la entrada que
ocupa el lugar inferior derecho de la matriz y yendo hacia arriba.
COROLARIO 1.4. Todo sistema lineal es equivalente a uno escalerizado.
1.4. Teorema de Rouche-Frobenius
En las discusiones que realizamos de los ejemplos 1.9, 1.10 y 1.11 se apre-
ciaba cierta relaci´on entre el n´ umero de escalones de la forma escalerizada
y la cantidad de soluciones del sistema, en esta secci´on establecemos con
precisi´on esta relaci´on describiendo completamente el conjunto soluci´on de
un sistema lineal de ecuaciones en termino de la cantidad de “escalones” del
mismo.
1.4. TEOREMA DE ROUCHE-FROBENIUS 39
DEFINICI
´
ON 1.5. Si E es una matriz escalerizada el n´ umero de esca-
lones de E es la cantidad de filas no nulas.
OBSERVACI
´
ON 1.5. Si E es una matriz escalerizada y E

es una matriz
reducida equivalente el n´ umero de escalones de ambas es el mismo.
OBSERVACI
´
ON 1.6. Ya hemos observado que la forma escalonada de
una matriz no es ´ unica sin embargo (aunque no lo hemos probado todav´ıa)
la forma reducida si lo es. De este hecho y de la observaci´on precedente se
deduce que la cantidad de escalones de todas las formas escalerizadas de una
misma matriz coinciden.
TEOREMA 1.7 (Rouche-Frobenius). Sea (S) un sistema lineal de m
ecuaciones con n inc´ ognitas con matriz ampliada A|b. Sea p el n´ umero de
escalones de A y p

el n´ umero de escalones de A|b entonces
1. (S) es compatible si y solo si p = p

2. Si (S) es compatible entonces
a) (S) es determinado si y solo si p = n.
b) (S) es indeterminado si y solo si p < n.
Demostraci´ on. Comencemos probando los rec´ıprocos de las tres afirma-
ciones. Observemos en primer lugar que como A tiene n columnas y cada
escal´on ocupa por lo menos una columna deducimos que para cualquier sis-
temas se cumple que
(1.4) p ≤ n
Supongamos que p = p

. De (1.4) se deduce que hay dos posibilidades p

=
p = n o p

= p < n. Analicemos el primer caso. La forma reducida debe
40 1. ECUACIONES LINEALES Y MATRICES
tener tantos escalones como columnas por lo tanto debe ser:

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 0 0 . . . . . . 0 c
1
0 1 0 . . . . . . 0 c
2
0 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1 0
.
.
.
0 0 . . . . . . 0 1 c
n
0 0 . . . . . . 0 0 0
¸

Donde la columna de entradas c
i
representa el termino independiente luego
de efectuado el proceso de escalerizaci´on. El sistema correspondiente es

x
1
= c
1
x
2
= c
2
.
.
.
.
.
.
x
n
= c
n
el cual es compatible determinado.
Veamos ahora el segundo caso, p

= p < n. Como la forma escalerizada
tiene m´as columnas que escalones necesariamente alg´ un escal´on debe tener
“descanso” y por lo tanto la forma reducida debe ser
1.4. TEOREMA DE ROUCHE-FROBENIUS 41

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 0 ⋆ . . . ⋆ 0 . . . 0 0 ⋆ . . . ⋆ 0 . . . 0 c
1
0 1 ⋆ . . . ⋆ 0 . . . 0 0 ⋆ . . . ⋆ 0 . . . 0 c
2
.
.
. 0 . . . . . . 0 1 . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
. . . .
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
.
.
. . . .
.
.
. 1 0
.
.
. . . .
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
.
.
. . . . . . . 0 1 ⋆ . . . ⋆ 0 . . .
.
.
. c
s
0 0 . . . . . .
.
.
. . . . . . .
.
.
. 0 0 . . . 0 1 . . .
.
.
. c
s+1
.
.
.
.
.
. . . . . . .
.
.
. . . . . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
. 0
.
.
.
0 0 . . . . . . 0 . . . . . . . . .
.
.
. 0 . . . 0 0 . . . 1 c
p
0 0 . . . . . . 0 . . . . . . . . .
.
.
. 0 . . . 0 0 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
.
.
. . . .
.
.
.
.
.
.
0 0 . . . . . . 0 . . . . . . . . .
.
.
. 0 . . . 0 0 . . . 0 0
¸

donde las zonas de estrellas representan submatrices con entradas arbitra-
rias.
Para analizar la soluci´on de este sistema intentemos aplicar el algoritmo de
sustituci´on hacia atr´as. Supongamos que s es la primera fila (comenzando
desde abajo) con descanso (escal´on de ancho mayor que una columna). Las
ecuaciones s + 1, s + 2, . . . , p son entonces
x
s+1
= c
s+1
x
s+2
= c
s+2
.
.
.
x
p
= c
p
la ecuaci´on s es
x
h
+a
s h+1
x
h+1
+. . . +a
ss
x
s
= c
s
despejando se tiene
x
h
= c
s
−(a
s h+1
x
h+1
+. . . +a
ss
x
s
)
42 1. ECUACIONES LINEALES Y MATRICES
La inc´ognita x
h
no puede entonces determinarse sino en funci´on de los va-
lores de x
h+1
, . . . , x
s
. Fijemos valores arbitrarios para estas ´ ultimas s − h
inc´ognitas, x
h
quedar´a determinado y con estos valores podemos ahora sus-
tituir en las ecuaci´on s −1, . . . , 1 y continuar el proceso de sustituci´on hacia
atr´as. Esto demuestra que el sistema es compatible, pues hay soluciones pero
si cambiamos la elecci´on hecha para los valores de x
h+1
, . . . , x
s
se obtiene
otro valor para x
h
y consecuentemente otra soluci´on con lo cual el sistema
resulta compatible indeterminado. De hecho como las variables x
h+1
, . . . , x
s
se pueden elegir arbitrariamente se obtienen infinitas soluciones. Obs´ervese
que estas elecciones arbitrarias se pueden hacer s´olo en los descansos y que
el n´ umero de variables que pueden elegirse libremente es n − p (la suma
de los anchos de los descansos es igual al n´ umero de columnas menos el de
escalones).
Demostremos ahora que si (S) compatible entonces p

= p. Para probarlo
demostraremos su contra rec´ıproco
6
y para esto basta con ver que p < p

implica (S) incompatible pues en cualquier sistema A|b tiene una columna
m´as que A y por lo tanto se cumple que p ≤ p

Si p < p

, la ´ ultima columna de la forma reducida de la matriz ampliada
debe tener un escal´on por lo tanto la forma es:

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 0 ⋆ . . . ⋆ 0 . . . 0 ⋆ ⋆ 0
0 1 ⋆ . . . ⋆ 0 . . . 0 ⋆ ⋆ 0
0 0 0 . . . 0 1 . . . 0 ⋆ ⋆ 0
.
.
.
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0 0 . . . 1 ⋆ ⋆ 0
0 0 0 . . . 0 0 . . . 0 0 0 1
0 0 0 . . . 0 0 . . . 0 0 0 0
¸

En consecuencia la ultima ecuaci´on del sistema es
0 = 1
6
Recordemos que un resultado de l´ogica elemental establece que A ⇒ B si y solo si
negaci´on de B ⇒ negaci´on de A
1.5. SISTEMAS HOMOG
´
ENEOS 43
de donde resulta que (S) debe ser incompatible.
Si S es compatible determinado debe ser p = n pues si p < n ya hemos visto
que (S) resultar´ıa indeterminado.
De manera an´aloga se razona para probar que S compatible indeterminado
implica p < n
En el transcurso de la demostraci´on se observo que si p = p

< n el sistema
es indeterminado y se pueden elegir n − p variables libremente quedando
las otras determinadas por estas. Por este motivo diremos que el sistema es
indeterminado con n −p grados de libertad.
1.5. Sistemas homog´eneos
Un sistema con todas las entradas del t´ermino independiente nulas se
denomina sistema homog´eneo. En virtud del importante rol que estos
sistemas desempe˜ nan vale la pena discutir alguna de sus propiedades.
PROPOSICI
´
ON 1.8. Un sistema lineal homog´eneo es siempre compatible.
Demostraci´ on. En efecto como el t´ermino independiente de un sistema
homog´eneo tiene todas sus entradas nulas debe ser p = p

y por lo tanto el
teorema de Rouche-Frobenius asegura la compatibilidad.
Otra manera m´as directa de probar la afirmaci´on anterior es observar que
la soluci´on x
1
= 0, . . . , x
n
= 0 a la que llamaremos soluci´on trivial verifica
cualquier sistema homog´eneo. Naturalmente los sistemas homog´eneos deter-
minados ´ unicamente admiten soluci´on trivial. Veamos con un ejemplo que
ocurre en el caso de un sistema homog´eneo indeterminado
EJEMPLO 1.12. Resolver el sistema

x +y −z = 0
x +y −2z = 0
2x + 2y −3z = 0
44 1. ECUACIONES LINEALES Y MATRICES
La matriz ampliada es:

¸
¸
1 1 −1 0
1 1 −2 0
2 2 −3 0
¸

Al escalerizarla se obtiene la matriz
(S)

¸
¸
1 1 −1 0
0 1 −1 0
0 0 0 0
¸

,
en consecuencia el sistema asociado es

x +y −z = 0
y −z = 0
La soluci´on es entonces
Sol(S) = {(0, z, z) con z ∈ R} = {z(0, 1, 1) con z ∈ R}.
Se puede observar que todas las soluciones se pueden obtener como combi-
naci´on lineal de ciertas soluciones fijas.
OBSERVACI
´
ON 1.9. Sea A una matriz m × n con n > m, el sistema
homog´eneo asociado tiene m´as inc´ognitas que ecuaciones y resulta indeter-
minado. En efecto, si E es una forma escalerizada asociada a A, es evidente
que a lo sumo puede tener m escalones y por lo tanto el teorema de Rouche-
Frobenius implica la afirmaci´on.
1.6. Una interpretaci´on geom´etrica
El lector ha estudiado en el curso de Geometr´ıa Anal´ıtica la ecuaci´on
ax +by = c.
Si a y b no se anulan simult´aneamente los puntos del plano de coordenadas
x, y que la verifican pertenecen a una recta. Por lo tanto en el sistema
(S)

ax +by = c
a

x +b

y = c
1.6. UNA INTERPRETACI
´
ON GEOM
´
ETRICA 45
cada ecuaci´on representa una recta y su soluci´on no es otra cosa que las
coordenadas de los puntos que pertenecen a la intersecci´on de ambas. De
ese modo un sistema 2 × 2 compatible determinado (una ´ unica soluci´on)
se corresponde con dos rectas que se cortan en un ´ unico punto (ver figura
1.13), un sistema indeterminado (infinitas soluciones) se corresponde con
dos rectas coincidentes y un sistema incompatible con dos rectas paralelas
distintas (ver figuras 1.14 y 1.15 respectivamente).
EJEMPLO 1.13. El sistema

2x +y = 2
x +y = 2
es compatible determinado con ´ unica soluci´on (0, 2)
1 2
x +y = 2
1
2
2x +y = 2
Figura 1
EJEMPLO 1.14. El sistema

2x + 2y = 4
x +y = 2
es compatible indeterminado con soluci´on {(x, 2 −x) x ∈ R}
46 1. ECUACIONES LINEALES Y MATRICES
1 2
x +y = 2
1
2
2x + 2y = 4
Figura 2
EJEMPLO 1.15. El sistema

x +y = 1
x +y = 2
es incompatible
x +y = 2
1
1
2
2
x +y = 1
Figura 3
Esta interpretaci´on geom´etrica de los sistemas 2 ×2 puede tambi´en ex-
tenderse a los sistemas de tres inc´ognitas salvo que, como veremos en el
pr´oximo cap´ıtulo, las ecuaciones representan planos en el espacio y la solu-
ci´on sus intersecciones.
1.6. UNA INTERPRETACI
´
ON GEOM
´
ETRICA 47
En cierta medida la teor´ıa que desarrollaremos en cap´ıtulos posteriores
nos permitir´a extender tambi´en la interpretaci´on geom´etrica para sistemas
de mayor tama˜ no.
48 1. ECUACIONES LINEALES Y MATRICES
CAP´ıTULO 2
´
ALGEBRA DE MATRICES
2.1. Operaciones con matrices
Ya hemos visto que en un sistema lineal de ecuaciones los coeficientes
del mismo forman un “ordenamiento rectangular de n´ umeros” al que deno-
minamos matriz. Hasta el momento las matrices no son otra cosa que una
nueva manera de representar al sistema de ecuaciones, simplemente se omite
escribir las inc´ognitas, lo cual resulta m´as c´omodo y compacto. Sin embargo
las matrices son objetos matem´aticos con “vida propia”. Como veremos m´as
adelante, las matrices comparten con los n´ umeros muchas de sus propieda-
des aunque claro esta, son m´as “complicados” que estos. No olvidemos que
guardan m´as informaci´on que una simple lista de n´ umeros: son n´ umeros
ordenados en un damero.
Comencemos definiendo algunas operaciones con matrices.
DEFINICI
´
ON 2.1 (Suma de matrices). Sea A = ((a
ij
)) y B = ((b
ij
)) dos
matrices m×n, definimos la suma + : M
m×n
×M
m×n
→M
m×n
de modo
que A+B = C siendo C = ((c
ij
)), donde c
ij
= a
ij
+b
ij
,
49
50 2.
´
ALGEBRA DE MATRICES
EJEMPLO 2.1. Sean A =

¸
¸
1
1
2
0
1 2 −1
0 −1

2
¸

y B =

¸
¸
0
1
2
−1
2 2 0
1 −2 2
¸

,
entonces

¸
¸
1
1
2
0
1 2 −1
0 −1

2
¸

+

¸
¸
0
1
2
−1
2 2 0
1 −2 2
¸

=

¸
¸
1 + 0
1
2
+
1
2
0 −1
1 + 2 2 + 2 −1 + 0
0 + 1 −1 −2

2 + 2
¸

=

¸
¸
1 1 −1
3 4 −1
1 −3

2 + 2
¸

DEFINICI
´
ON 2.2 (Producto de n´ umeros por matrices). Sea λ ∈ R un
n´ umero y A ∈ M
m×n
una matriz definimos el producto de λ por A como
λ·A = B donde B = ((b
ij
)) con b
ij
= λa
ij
EJEMPLO 2.2. Sea λ =

2 y A =


2 1
0 −

2

entonces


2 1
0 −

2

=


2(

2)

2(1)

2(0)

2(−

2)

=

2

2
0 −2

Resulta ´ util destacar alguna de las propiedades que tienen estas opera-
ciones.
Propiedades:
[S1] [Conmutativa] A +B = B +A, ∀ A, B ∈ M
m×n
.
[S2] [Asociativa]

A+B

+Z = A +

B +Z

, ∀ A, B, Z ∈ M
m×n
.
[S3] [Neutro de la suma] Existe O ∈ M
m×n
tal que A+O = O +A = A,
∀ A ∈ M
m×n
.
[S4] [Existencia de opuesto] Para cada A ∈ M
m×n
existe B ∈ M
m×n
tal
que A +B = O (Notaci´on: B = −A).
[P1] [Asociativa del producto]

αβ

A = α(βA), ∀ α, β ∈ R y A ∈ M
m×n
.
2.2. PRODUCTO DE MATRICES 51
[P2] [Neutro del producto] 1.A = A ∀ A ∈ M
m×n
[P3] [Distributiva] (α +β)A = αA +βA y ∀ α, β ∈ R y A, B ∈ M
m×n
.
[P4] [Distributiva] α(A +B) = αA +αB, ∀ α ∈ R y A, B ∈ M
m×n
.
Las pruebas quedar´an a cargo del lector. Observemos no obstante que la
matriz O de la propiedad [S3] se denomina matriz nula y tiene todas sus
entradas cero.
2.2. Producto de matrices
A las operaciones de suma y multiplicaci´on por escalares, en el caso de las
matrices, vamos a agregar un producto entre ellas. En una primera mirada
y por analog´ıa con las operaciones ya definidas parece razonable definir el
producto de matrices como producto entrada a entrada. No ser´a sin embargo,
ese el camino que seguiremos. Nuestro producto es algo m´as complicado pero
como veremos m´as adelante extremadamente ´ util.
DEFINICI
´
ON 2.3. Sea A ∈ M
m×p
y B ∈ M
p×n
definimos el producto
entre matrices como, · : M
m×p
×M
p×n
→M
m×n
de modo que A·B = C
donde C = ((c
ij
)), con
c
ij
=
p
¸
h=1
a
ih
b
hj
52 2.
´
ALGEBRA DE MATRICES
El siguiente esquema ayuda a recordar la forma de realizar la operaci´on:

¸
¸
¸
¸
¸
b
11
. . . b
1j
. . . b
1n
b
21
. . . b
2j
. . . b
2n
.
.
. . . .
.
.
. . . . . . .
b
p1
. . . b
pj
. . . b
pn
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
. . . a
1p
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
a
i1
a
i2
. . . a
ip
.
.
.
.
.
. . . .
.
.
.
a
m1
a
m2
. . . a
mp
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
. ↓
.
.
.
.
.
.
−→ c
ij
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
¸

EJEMPLO 2.3. Sea A =

2 −1
0 2

y B =

1 2
−1 3

calculemos su
producto

2 −1
0 2

1 2
−1 3

=

2·1 + (−1)(−1) 2(2) + (−1)3
0·1 + 2(−1) 0·2 + 2·3

=
=

3 1
−2 6

EJEMPLO 2.4. Sean A =

2 1 −1 0
2 1 2 −1

y B =

¸
¸
¸
¸
1 2
2 1
1 1
1 0
¸

. El pro-
ducto de A por B es:

2 1 −1 0
2 1 2 −1

¸
¸
¸
¸
1 2
2 1
1 1
1 0
¸

=

3 4
5 7

2.2. PRODUCTO DE MATRICES 53
pues
3 = 2·1 + 1·2 + (−1)1 + 0·1
4 = 2·2 + 1·1 + (−1)1 + 0·0
5 = 2·1 + 1·2 + 2·1 + (−1)1
7 = 2·2 + 1·1 + 2·1 + (−1)0
Vale la pena observar que las matrices no deben ser necesariamente del
mismo tama˜ no para poder multiplicarlas. De hecho si se mira con cuidado
la definici´on se observa que para poder hacerlo la cantidad de filas de la
primera debe coincidir con la cantidad de columnas de la segunda. Cuando
esto ocurra se dice que las matrices son conformables.
EJEMPLO 2.5. Sea A =

¸
¸
1 2 1
2 1 1
1 1 2
¸

y X =

¸
¸
x
y
z
¸

entonces
A.X =

¸
¸
1 2 1
2 1 1
1 1 2
¸

¸
¸
x
y
z
¸

=

¸
¸
x + 2y +z
2x +y +z
x +y + 2z
¸

EJEMPLO 2.6. Sea A =

¸
¸
1 2 1
2 1 1
1 1 2
¸

y X

=

x y z

entonces
X

A =

x y z

¸
¸
1 2 1
2 1 1
1 1 2
¸

=

x + 2y +z 2x +y +z x +y + 2z

OBSERVACI
´
ON 2.1. Sean A = ((a
ij
)) una matriz m× n y B = ((b
jk
))
una matriz n ×p notaremos por A
i
= (a
i1
, . . . , a
in
) a la fila i-esima de A y
54 2.
´
ALGEBRA DE MATRICES
con B
j
=

¸
¸
¸
b
1k
.
.
.
a
nk
¸

la columna k-esima de B. Si A·B = C designemos como
C
i
la fila i-esima y por C
k
la columna k- esima de C. Entonces C
k
= A·B
k
y C
i
= A
i
B, es decir que
A·B =

¸
¸
¸
¸
A·B
1
A·B
2
. . . A·B
n
. . .
¸

y
A·B =

¸
¸
¸
¸
¸
A
1
·B
A
2
·B
.
.
.
.
.
.
.
.
.
A
m
·B
¸

La prueba queda como ejercicio a cargo del lector pero el ejemplo siguiente
ilustra las afirmaciones.
EJEMPLO 2.7. Sea A =

2 1 0
1 2 1

y B =

¸
¸
1 1
2 1
1 1
¸

entonces
A·B =

2 1 0
1 2 1

¸
¸
1 1
2 1
1 1
¸

=

4 3
6 4

Las columnas de la matriz producto son

2 1 0
1 2 1

¸
¸
1
2
1
¸

=

4
6

y

2 1 0
1 2 1

¸
¸
1
1
1
¸

=

3
4

2.2. PRODUCTO DE MATRICES 55
y las filas son

2 1 0

¸
¸
1 1
2 1
1 1
¸

=

4 3

y

1 2 1

¸
¸
1 1
2 1
1 1
¸

=

6 4

Propiedades del producto de matrices
Analicemos ahora las propiedades del producto de matrices. Comence-
mos observando que no es conmutativo. En el ejemplo 2.5 se observa que
dos matrices pueden ser conformables en un orden y no en otro. De hecho en
ese ejemplo AX tiene sentido pero XA no. Pero el producto de matrices no
es conmutativo ni siquiera cuando las matrices a multiplicar son cuadradas.
En efecto sea A =

2 1
1 1

y B =

1 0
0 0

entonces
A.B =

2 1
1 1

1 0
0 0

=

2 0
1 0

, pero
B.A =

1 0
0 0

2 1
1 1

=

2 1
0 0

Naturalmente el contraejemplo solo indica que en general A·B = B·A lo
cual no significa que no existan matrices que conmuten.
[Asociativa] Si A = ((a
ij
)), B = ((b
ij
)) y C = ((c
ij
)) son tres matri-
ces conformables entonces

A·B

C = A

B·C

.
En efecto pongamos

A·B

C = D = ((d
ij
)) y A

B·C

= D

= ((d

ij
))
debemos probar que d
ij
= d

ij
∀ i, j.
d
ij
=
¸
h

a
ih

¸
s
b
hs
c
sj

=
¸
s

¸
h
a
ih
b
hs

c
sj

= d

ij

56 2.
´
ALGEBRA DE MATRICES
[Distributiva] Si A = ((a
ij
)), B = ((b
ij
)) son matrices de igual di-
mensi´on y C = ((c
ij
)) es una matriz conformable con A y B entonces
C(A+B) = C·A +C·B y (A+B)C = A·C +B·C
1
Probemos s´olo la primera, la otra queda como ejercicio. Pongamos
C(A+B) = D = ((d
ij
)),
C·A = E = ((e
ij
)) y C·B = F = ((f
ij
)).
Debemos probar entonces que d
ij
= e
ij
+f
ij
∀ i, j
d
ij
=
¸
h
c
ih

a
hj
+b
hj

=
¸
h
c
ih
a
hj
+c
ih
b
hj
=
=
¸
h
c
ih
a
hj
+
¸
h
c
ih
b
hj
= e
ij
+f
ij

DEFINICI
´
ON 2.4. Sea A = ((a
ij
)) una matriz n×m, definimos la matriz
traspuesta de A como la matriz m×n A
t
= ((a
t
ij
)), donde a
t
ij
= a
ji
.
EJEMPLO 2.8. Sea A =

1 2 3
2 1 1

entonces A
t
=

¸
¸
1 2
2 1
3 1
¸

Sea B =

1 2
2 3

entonces B
t
=

1 2
2 3

, entonces B = B
t
, cuando esto
ocurra diremos que la matriz es sim´etrica
Sea C =

¸
¸
0 2 −1
−2 0 1
1 −1 0
¸

entonces C
t
=

¸
¸
0 −2 1
2 0 −1
−1 1 0
¸

por lo tanto
C
t
= −C, cuando esto ocurra diremos que la matriz es antisim´etrica.
1
Observe el lector que la no conmutatividad del producto de matrices obliga a probar
ambas identidades independientemente, pues en general C(A+B) = (A +B)C.
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 57
Sea D =

¸
¸
¸
¸
1
−2
2
0
¸

entonces D
t
=

1 −2 2 0

. Obs´ervese que la tras-
puesta de una matriz columna resulta ser un matriz fila.
PROPOSICI
´
ON 2.2 (Propiedades de la matriz traspuesta). Sean A y B
dos matrices y λ un n´ umero se cumplen las siguientes propiedades
1.

A+B

t
= A
t
+B
t
.
2. (λA)
t
= λA
t
.
3. (A·B)
t
= B
t
·A
t
.
4. (A
t
)
t
= A
Demostraci´ on. Ejercicio.
2.3. Ecuaciones matriciales. Matriz inversa.
Si A es una matriz m× n y b es una matriz m× 1 entonces AX = b es
una ecuaci´on matricial. Resolverla es encontrar todas las matrices X n × 1
que la verifiquen.
El ejemplo 2.5 nos motiva a pensar que, identificando de manera natural
matrices columna con sucesiones finitas de n´ umeros, resolver la ecuaci´on
matricial AX = b es equivalente a resolver el sistema A|b.
PROPOSICI
´
ON 2.3. Sea
(S) =

a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
58 2.
´
ALGEBRA DE MATRICES
un sistema lineal de m ecuaciones con n inc´ ognitas, A la matriz del sistema
y b =

¸
¸
¸
¸
¸
b
1
b
2
.
.
.
b
m
¸

entonces (´x
1
, ´ x
2
, . . . , ´ x
n
) es soluci´ on de (S) si y solo si
´
X =

¸
¸
¸
¸
¸
´ x
1
´ x
2
.
.
.
´ x
n
¸

cumple que A·
´
X = b
Demostraci´ on. Observemos en primer lugar que

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

¸
¸
¸
¸
¸
´x
1
´x
2
.
.
.
´ x
n
¸

=

¸
¸
¸
¸
¸
a
11
´x
1
+a
12
´ x
2
+· · · +a
1n
´ x
n
a
21
´x
1
+a
22
´ x
2
+· · · +a
2n
´ x
n
.
.
.
.
.
.
.
.
.
a
m1
´ x
1
+a
m2
´x
2
+· · · +a
mn
´ x
n
¸

Entonces (´x
1
, ´ x
2
, . . . , ´ x
n
) ∈ Sol(S) ⇐⇒
a
i1
´x
1
+a
i2
´x
2
+· · · +a
in
´ x
n
= b
i
, ∀ i = 1, 2, . . . , m ⇐⇒

¸
¸
¸
¸
¸
a
11
´x
1
+a
12
´x
2
+· · · +a
1n
´ x
n
a
21
´x
1
+a
22
´x
2
+· · · +a
2n
´ x
n
.
.
.
.
.
.
.
.
.
a
m1
´x
1
+a
m2
´ x
2
+· · · +a
mn
´ x
n
¸

=

¸
¸
¸
¸
¸
b
1
b
2
.
.
.
b
m
¸

⇐⇒ A
´
X = b
El resultado anterior permite pensar el sistema de ecuaciones lineal con
matriz ampliada A|b como la ecuaci´on matricial
(2.5) AX = b.
Este hecho, en primer lugar, puede considerarse como la primera aplicaci´on
importante del producto de matrices y en cierta forma justifica su definici´on,
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 59
a priori no muy natural. M´as adelante veremos otras aplicaciones que per-
mitir´an comprender m´as profundamente las motivaciones de la definici´on.
Por otra parte la ecuaci´ on 2.5 recuerda fuertemente la situaci´on que ana-
lizamos en nuestro primer ejemplo 1.1. Al ver el sistema escrito en forma
matricial nos vemos tentados a “pasar dividiendo” A para “despejar” X.
Naturalmente, por el momento, esto carece de sentido pero, si analizamos
con m´as cuidado el procedimiento utilizado para resolver la ecuaci´on ax = b
observamos que la clave reside en que todo n´ umero no nulo tiene inverso,
esto es dado a ∈ R existe a
−1
∈ R tal que a.a
−1
= 1. Podr´ıamos analizar
la posibilidad de que una matriz tuviese una propiedad an´aloga pero para
esto necesitar´ıamos saber qu´e puede representar el “1” en nuestro contexto.
De nuevo la clave est´a en analizar que propiedad abstracta caracteriza a la
unidad real. R´apidamente se observa que el 1 no es otra cosa que el neutro
multiplicativo de R es decir 1 es el ´ unico n´ umero real que verifica a,1 = a
∀a ∈ R. Veamos que el producto de matrices tiene tambi´en un neutro mul-
tiplicativo.
DEFINICI
´
ON 2.5. Llamaremos matriz identidad de tama˜ no n a la ma-
triz n ×n
I
n
=

¸
¸
¸
¸
¸
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
¸

Esto es I
n
= ((e
ij
)) con e
ij
=

0 si i = j
1 si i = j
.
PROPOSICI
´
ON 2.4. I
n
·A = A·I
n
= A, ∀ A ∈ M
n×n
.
Demostraci´ on. La prueba es una verificaci´on inmediata y queda a cargo
del lector.
60 2.
´
ALGEBRA DE MATRICES
OBSERVACI
´
ON 2.5. El lector puede verificar directamente que si X =

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

es una matriz columna cualquiera entonces I
n
·X = X.
Ahora que tenemos nuestro neutro podemos dar la siguiente
DEFINICI
´
ON 2.6 (Matriz invertible). Sea A una matriz n ×n. Diremos
que la matriz A es invertible si y solo si existe B matriz n ×n tal que
(2.6) A.B = I
n
y B.A = I
n
donde I
n
es la matriz identidad n ×n
OBSERVACI
´
ON 2.6. Nuevamente como consecuencia de la no conmuta-
tividad del producto de matrices debemos, en la definici´on anterior, exigir
que A.B y B.A sean ambos iguales a la identidad. A priori podr´ıa ocurrir
que A.B = I
n
= B.A. Veremos m´as adelante que esto realmente no es posi-
ble, de hecho si existe B tal que AB = I
n
entonces BA = I
n
(ver lema 2.9).
Observemos adem´as, que las matrices invertibles son por definici´on matrices
cuadradas.
A continuaci´on veremos que la matriz B que cumple (2.6), cuando existe,
es ´ unica. Por tal motivo se le llama la inversa de A y se utiliza la notaci´on
B = A
−1
PROPOSICI
´
ON 2.7. Sean B
1
y B
2
matrices n × n que cumplen (2.6)
entonces B
1
= B
2
Demostraci´ on. En efecto
B
1
= B
1
I = B
1
(A.B
2
) = B
1
A.B
2
= (B
1
A) .B
2
= IB
2
= B
2
.
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 61
EJEMPLO 2.9. La matriz A =

2 1
1 1

es invertible, pues existe B =

1 −1
−1 2

tal que A.B = I y B.A = I (verificarlo)
EJEMPLO 2.10. La matriz A =

¸
¸
1 1 0
1 0 −1
0 0 0
¸

no es invertible, pues
para cualquier matriz B =

¸
¸
a b c
d e f
g h i
¸

se cumple que
A.B =

¸
¸
1 1 2
1 −1 −1
0 0 0
¸

¸
¸
a b c
d e f
g h i
¸

=

¸
¸
a +d b +e c +f
a −g b −h c −i
0 0 0
¸

=
=

¸
¸
1 0 0
0 1 0
0 0 1
¸

= I

PROPOSICI
´
ON 2.8. Sean A y B dos matrices n×n invertibles entonces
A·B es invertible y (A·B)
−1
= B
−1
·A
−1
Demostraci´ on. Basta verificar directamente que
(A·B)(B
−1
·A
−1
) = A
=In
. .. .
(B·B
−1
) A
−1
= A·A
−1
= I
n
y que
(B
−1
·A
−1
)(A·B) = B
−1
=In
. .. .
(A
−1
·A) B = B
−1
·B = I
n
62 2.
´
ALGEBRA DE MATRICES
Sea A ∈ M
n×n
una matriz invertible y b ∈ M
n×1
una matriz columna
consideremos el sistema A·X = b ; como A es invertible podemos multi-
plicar en la ecuaci´on anterior a ambos miembros por A
−1
se tiene entonces
2
A
−1

A·X

= A
−1
·b ⇐⇒

A
−1
·A

X = A
−1
·b ⇐⇒I
n
·X = A
−1
·b
⇐⇒ X = A
−1
·b
Por lo tanto si A es invertible (x
1
, x
2
, . . . , x
n
) es soluci´on del sistema con
matriz ampliada A|b si y solo si
(2.7)

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

= A
−1
b
EJEMPLO 2.11. Resolvamos el sistema
(S)

2x +y = 3
x +y = −1
la matriz del sistema es
A =

2 1
1 1

, y b =

3
−1

.
Es f´acil ver que A es invertible (ejemplo 2.9) y que
A
−1
=

1 −1
−1 2

; entonces la soluci´on es
A
−1
b =

1 −1
−1 2

3
−1

=

4
−5

.
El lector como ejercicio verificar´a que efectivamente (4, −5) satisface (S)
2
Obs´ervese que se debe multiplicar en ambos miembros del mismo lado, pues el pro-
ducto no es conmutativo
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 63
La sencilla idea, utilizada al principio del curso, para resolver un sistema
lineal 1×1, funcion´o tambi´en para resolver un sistema lineal n×n con n > 1
La f´ormula (2.7) no s´olo es an´aloga a la obtenida en el ejemplo 1.1 sino que
parece indicar un nuevo procedimiento para resolver sistemas lineales. Sin
embargo hay varios asuntos a aclarar; en primer lugar todo lo hecho s´olo
se aplica a sistemas cuadrados; en segundo lugar la f´ormula (2.7) es v´alida
s´olo bajo la hip´otesis de que A sea invertible y no tenemos por el momento
ning´ un criterio para decidir si una matriz lo es o no (trataremos esto en la
secci´on 2.7 y de tambi´en en el Cap´ıtulo sobre Determinantes). Finalmente
cuando A es invertible para poder aplicar la f´ormula necesitamos saber c´omo
obtener la matriz A
−1
, inversa de A. A continuaci´on veremos un algoritmo
para calcular la matriz inversa.
Para ello, admitamos moment´aneamente el siguiente Lema, cuya prueba
realizaremos en la secci´on 2.7.
LEMA 2.9. Sea A una matriz n × n entonces A es invertible si y solo si
existe X ∈ M
n×n
tal que A·X = I
n
Nos bastara entonces, hallar X tal que AX = I
n
. Lo cual es equivalente
a resolver n sistemas de ecuaciones con igual matriz asociada y diferente
termino independiente, pues si indicamos por X
j
la columna j-esima de X
64 2.
´
ALGEBRA DE MATRICES
y por e
j
la columna j-esima de I
n
tenemos que
AX = I ⇐⇒
A

¸
¸
¸
¸
X
1
X
2
. . . X
n
. . .
¸

=

¸
¸
¸
¸
A·X
1
A·X
2
. . . A·X
n
. . .
¸

=

¸
¸
¸
¸
e
1
e
2
. . . e
n
. . .
¸

⇐⇒
⇐⇒(S
j
) A

¸
¸
¸
¸
¸
¸
¸
¸
x
j1
.
.
.
x
jj
.
.
.
x
jn
¸

=

¸
¸
¸
¸
¸
¸
¸
¸
0
.
.
.
1
.
.
.
0
¸

.
.
.
.
.
.
←− lugar j
.
.
.
.
.
.
(j = 1, 2, ..., n)
Como los n sistemas S
1
, S
2
, . . . , S
n
tienen la misma matriz A de coeficientes
(con diferentes t´erminos independientes), se pueden resolver simult´aneamen-
te escalerizando la matriz (A| I ) .. Naturalmente a priori nada asegura que
estos sistemas sean compatibles, podr´ıa ocurrir que alguno no lo fuera y en
ese caso no se puede determinar la matriz X y consecuentemente A no
resulta invertible. De hecho A es invertible si y solo si los n sistemas S
i
,
i = 1, . . . , n son compatibles.
EJEMPLO 2.12. Consideremos la matriz A =

2 1
4 3

. Queremos ha-
llar (si existe) la matriz X =

x
11
x
12
x
21
x
22

tal que AX = I : AX =
=

2 1
4 3

x
11
x
12
x
21
x
22

=

2x
11
+x
21
2x
12
+x
22
4x
11
+ 3x
21
4x
12
+ 3x
22

=

1 0
0 1

2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 65
Igualando (por columna) se tienen los siguientes sistemas de ecuaciones :
(S
1
)

2x
11
+x
21
= 1
4x
11
+ 3x
21
= 0
⇐⇒

2 1
4 3

x
11
x
21

=

1
0

⇐⇒ A

x
11
x
21

=

1
0

(S
2
)

2x
12
+x
22
= 0
4x
12
+ 3x
22
= 1
⇐⇒

2 1
4 3

x
12
x
22

=

0
1

⇐⇒ A

x
12
x
22

=

0
1

Resolvemos el sistema (S
1
) por escalerizaci´on

2 1
4 3

1
0

2 1
0 1

1
−2

←− F
2
+ (−2)F
1

2 0
0 1

3
−2

←− F
1
−F
2

1 0
0 1

3
2
−2

←−
1
2
F
1
Por lo tanto

x
11
x
21

=

3
2
−2

. Resolvemos el sistema (S
2
) por escale-
rizaci´on

2 1
4 3

0
1

2 1
0 1

0
1

←− F
2
+ (−2)F
1

2 0
0 1

−1
1

←− F
1
−F
2

1 0
0 1


1
2
−2

←−
1
2
F
1
66 2.
´
ALGEBRA DE MATRICES
Por lo tanto

x
12
x
22

=


1
2
−2

. Es decir que la inversa de A es
X =

3
2

1
2
−2 −2

. Como para ambos sistemas la matriz A es la matriz de
coeficientes, los podemos resolver simult´aneamente

2 1
4 3

1
0
0
1

2 1
0 1

1
−2
0
1

←− F
2
+ (−2)F
1

2 0
0 1

3
−2
−1
1

←− F
1
−F
2

1 0
0 1

3
2
−2

1
2
−2

←−
1
2
F
1

En general, para calcular la inversa de la matriz A de tama˜ no n ×n, se
reduce la matriz (A| I ) por escalerizaci´on a la matriz (I| B) y se tiene que
A
−1
= B
2.4. El espacio de n-uplas
Las filas de una matriz (al igual que las columnas y las soluciones del
sistema) son “colecciones ordenadas de n´ umeros”. Hagamos entonces, un pe-
que˜ no par´entesis para introducir la noci´on de “colecci´ on ordenada” o n-upla
y ciertas operaciones naturales que se corresponden con las transformaciones
elementales. Estas ideas resultar´an de gran importancia en este cap´ıtulo y
en el resto del curso.
Recordamos que si A y B son dos conjuntos el producto cartesiano de
ambos se define como el conjunto de pares ordenados de elementos de A
y B
A×B = {(a, b) : a ∈ A y b ∈ B}.
Dos elementos (a, b) y (c, d) son iguales si a = c y b = d. Si A = B = R
entonces a
R
2
= R ×R = {(x, y) : x ∈ R y y ∈ R}
2.4. EL ESPACIO DE n-UPLAS 67
lo llamaremos espacio de 2-uplas.
De manera an´aloga definimos
R
3
= R
2
×R = R×R ×R = {(x, y, z) : x ∈ R, y ∈ R y z ∈ R}
el espacio de las 3-uplas.
En general
R
n
= R
n−1
×R =
n veces
. .. .
R ×· · · ×R= {(x
1
, . . . , x
n
) : x
i
∈ R, ∀i = 1, . . . , n}
es el espacio de n-uplas.
Si (x
1
, . . . , x
n
) y (y
1
, . . . , y
n
) son dos n-uplas y α un n´ umero definimos la
suma entre n-uplas como
(x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+y
1
, . . . , x
n
+y
n
)
y el producto de n´ umeros por n-uplas como
α(x
1
, . . . , x
n
) = (αx
1
, . . . , αx
n
)
EJEMPLO 2.13. Supongamos n = 3 entonces
(1, 2, −1) + (0, 1, 2) = (1 + 0, 2 + 1, −1 + 2) = (1, 3, 1)
y

2(1, 0,

2) = (

2,1,

2,0,

2.

2) = (

2, 0, 2)
Las operaciones tienen una lista de propiedades que nuevamente, al igual
que en el caso de las operaciones con matrices, resulta ´ util destacar. N´otese
que en ambos casos las propiedades coinciden.
Para compactar la notaci´on designemos cada n-upla con una letra may´ uscu-
la, X = (x
1
, . . . , x
n
).
[S1] [Conmutativa] X +Y = Y +X, ∀ X, Y ∈ R
n
.
[S2] [Asociativa]

X +Y

+Z = X +

Y +Z

, ∀ X, Y, Z ∈ R
n
.
[S3] [Neutro de la suma] Existe O ∈ R tal que X + O = O + X = X,
∀ X ∈ R
n
.
[S4] [Existencia de opuesto] Para cada X ∈ R
n
existe Y ∈ R
n
tal que
X +Y = O (Notaci´on: Y = −X).
68 2.
´
ALGEBRA DE MATRICES
[P1] [Asociativa del producto]

αβ

X = α(βX) ∀ α, β ∈ R y X ∈ R
n
.
[P2] [Neutro del producto] 1.X = X, ∀ X ∈ R
n
[P3] [Distributiva] (α +β)X = αX +βX, ∀ α, β ∈ R y X, Y ∈ R
n
.
[P4] [Distributiva] α(X +Y ) = αX +αY , ∀ α ∈ R y X, Y ∈ R
n
.
Probemos s´olo algunas, las restantes quedan a cargo del lector
[S1] Si X = (x
1
, . . . , x
n
) y Y = (y
1
, . . . , y
n
) entonces
X +Y = (x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+y
1
, . . . , x
n
+y
n
) =
= (y
1
+x
1
, . . . , y
n
+x
n
) = (y
1
, . . . , y
n
) + (x
1
, . . . , x
n
) = Y +X
[S3] Basta observar que O = (0, . . . , 0) act´ ua como neutro. De hecho es
´ unico (verificarlo). La n-upla O se denomina n-upla nula.
[S4] Si X = (x
1
, . . . , x
n
) basta elegir Y = (−x
1
, . . . , −x
n
) entonces
X +Y = (x
1
, . . . , x
n
) + (−x
1
, . . . , −x
n
) =
= (x
1
−x
1
, . . . , x
n
−x
n
) = (0, . . . , 0) = O
Obs´ervese que −1.X = −X
DEFINICI
´
ON 2.7. Decimos que X ∈ R
n
es una combinaci´on lineal de
las n-uplas X
1
, X
2
, . . . , X
n
si existen n´ umeros reales λ
1
, λ
2
, . . . , λ
n
tales que
X = λ
1
X
1

2
X
2
+· · · +λ
n
X
n
=
n
¸
i=1
λ
i
X
i
Los n´ umeros λ
i
, i = 1, 2, . . . , n se denominan coeficientes de la combinaci´on
lineal.
Si A = {X
1
, X
2
, . . . , X
n
} ⊂ R
n
combinar linealmente los vectores de A
con coeficientes λ
i
, i = 1, 2, . . . , n es calcular
X =
n
¸
i=1
λ
i
X
i
OBSERVACI
´
ON 2.10. La n-upla nula O = (0, . . . , 0) es combinaci´on li-
neal de cualquier colecci´on de n-uplas, basta tomar todos los coeficientes
nulos.
2.4. EL ESPACIO DE n-UPLAS 69
Si X es combinaci´on lineal A = {X
1
, . . . , X
p
} entonces es combinaci´on li-
neal de B para cualquier conjunto B finito que contenga a A. En efecto
supongamos que
X = λ
1
X
1
+· · · +λ
p
X
p
y que
B = {X
1
, . . . , X
p
, Y
1
, . . . , Y
h
}
entonces
X = λ
1
X
1
+· · · +λ
p
X
p
+ 0Y
1
+· · · + 0Y
h
EJEMPLO 2.14. Sea A = {(1, 2, 1), (2, −2, 2)} ⊂ R
3
entonces (0, 6, 0) es
combinaci´on lineal de A con coeficientes 2 y -1 pues
(0, 6, 0) = 2(1, 2, 1) + (−1)(2, −2, 2).

EJEMPLO 2.15. Sea A = {(1, 2, 1), (2, −2, 2), (1, 1, 1)} combinemos lineal-
mente los vectores de A con coeficientes 3,-1, 0
3(1, 2, 1) + (−1)(2, −2, 2) + 0(1, 1, 1) = (1, 8, 1)

EJEMPLO 2.16. La 2-upla (2, 1) es combinaci´on lineal de
A = {(1, 1), (1, 0), (−1, 1)}
pues
(2, 1) = (1, 1) + (1, 0) + 0(−1, 1)
pero tambi´en
(2, 1) = 2(1, 1) + (−1)(1, 0) + (−1)(−1, 1)

OBSERVACI
´
ON 2.11. En general si X es combinaci´on lineal de A los
coeficientes no tienen por que ser ´ unicos, tal como muestra el ejemplo ante-
rior.
70 2.
´
ALGEBRA DE MATRICES
EJEMPLO 2.17. Sea A = {(2, 1), (1, 0)} y X = (1, 1). ¿Es X combinaci´on
lineal de A? Apelando a la definici´on observamos que la pregunta puede
formularse de manera equivalente como ¿existen n´ umeros λ
1
, λ
2
tales que
λ
1
(2, 1) +λ
2
(1, 0) = (1, 1)?. Ahora bien,
λ
1
(2, 1) +λ
2
(1, 0) = (1, 1) ⇐⇒(S)


1

2
= 1
λ
1
= 1
El sistema (S) tiene matriz ampliada A|b =

2 1 1
1 0 1

de la ´ ultima ecua-
ci´on se deduce que λ
1
= 1 y sustituyendo en la primera se tiene que λ
2
= −1
N´otese que la matriz A tiene como columnas las n-uplas del conjunto B.
OBSERVACI
´
ON 2.12. El razonamiento realizado en el ´ ultimo ejemplo
puede aplicarse en general (el lector deber´a verificar esto) y muestra que el
problema de determinar si una n-upla X = (x
1
, . . . , x
n
) ∈ R
n
es combinaci´on
lineal de un conjunto B = {X
1
, . . . , X
n
} ⊂ R
n
es equivalente a discutir la
compatibilidad de un sistema lineal de ecuaciones con matriz ampliada A|b
donde A es la matriz de columnas X
1
, X
2
, . . . , X
n
y b =

¸
¸
¸
x
1
,
.
.
.
x
n
¸

Culminemos esta secci´on probando un resultado que ser´a de utilidad en
futuro que b´asicamente establece la “transitividad” de la combinaci´on lineal.
PROPOSICI
´
ON 2.13. Sea A = {X
1
, X
2
, . . . , X
r
} y B = {Y
1
, Y
2
, . . . , Y
m
}
dos conjuntos de n-uplas tales que ∀i = 1, 2, . . . , m Y
i
es combinaci´ on lineal
de A. Si Z ∈ R
n
es combinaci´ on lineal de B entonces Z es combinaci´ on
lineal de A
Demostraci´ on. Como Z es combinaci´on de B existen entonces n´ umeros
β
1
, β
2
, . . . , β
m
tales que
(2.8) Z = β
1
Y
1

2
Y
2
+· · · +β
m
Y
m
2.5. DEPENDENCIA LINEAL 71
Pero como cada Y
i
con i = 1, 2, . . . , m es combinaci´on de A, existen n´ umeros
α
ij
con i = 1, 2, . . . , m y j = 1, 2, . . . , r tales que
(2.9) Y
i
= α
i1
X
1

i2
X
2
+· · · +α
ir
X
r
, ∀ i = 1, 2, . . . , m
Sustituyendo (2.9) en (2.8) se tiene
Z = β
1

11
X
1

12
X
2
+· · · +α
1r
X
r
) +
β
2

21
X
1

22
X
2
+· · · +α
2r
X
r
) +· · · +
β
m

m1
X
1

m2
X
2
+· · · +α
mr
X
r
)
Reordenando,
Z = (β
1
α
11

2
α
21
+· · · +β
m
α
m1
)
. .. .

1
X
1
+

1
α
12

2
α
22
+· · · +β
m
α
m2
)
. .. .

2
X
2
+· · · +

1
α
1r

2
α
2r
+· · · +β
m
α
mr
)
. .. .
=λr
X
r
Por lo tanto
Z = λ
1
X
1

2
X
2
+· · · +λ
r
X
r
probando que Z es combinaci´on de A.
2.5. Dependencia lineal
Introducimos ahora el concepto de dependencia lineal para n-uplas. el
cual resulta ahora b´asico para la caracterizaci´on de las matrices invertibles
y que en el futuro jugara un papel central en muchos otros problemas. Los
conceptos b´asicas de esta secci´on ser´an vistas nuevamente en el Cap´ıtulo
sobre Espacios Vectoriales, en un contexto m´as abstracto. Los ideas nuevas
contenidos en las definiciones y demostraciones de esta Secci´on se basan ´ uni-
camente en las propiedades de las operaciones (S1 -P4) entre n-uplas y
no en el hecho de que ´estas sean una sucesi´on finita de n´ umeros. Por tanto si
entre elementos de otro conjunto se tuvieran definidas operaciones con esas
72 2.
´
ALGEBRA DE MATRICES
propiedades, los resultados ser´ıan tambi´en v´alidos. De hecho estas observa-
ciones son las que conducen a introducir el concepto de Espacio Vectorial.
Sea (S) un sistema lineal n × n compatible con matriz ampliada A|b
El car´acter determinado o indeterminado de (S) depende, de acuerdo al
teorema de Rouch´e-Frobenius, de la cantidad de escalones (i.e. de filas no
nulas) de la forma reducida de A. De hecho (S) es determinado si ninguna
fila de la forma reducida de A es nula y es indeterminado si alguna lo es. La
forma reducida se obtiene realizando combinaciones lineales con las filas de
A, por lo tanto para que en el proceso de escalerizaci´on una fila se anule debe
ser combinaci´on lineal de las restantes. Para ilustrar esto puede observarse
en el ejemplo 1.11 que la quinta fila de la matriz (1 2 1 4 9 3 − 1)
se anula, analizando las transformaciones elementales que se efectuaron al
escalerizar se deduce que F
5
= 2F
3
−F
1
, lo cual se comprueba directamente
(1 2 1 4 9 3 −1) = 2(1 2 1 2 5 3 1) −(1 2 1 0 1 1 1)
En otras palabras la determinaci´on o indeterminaci´on de un sistema com-
patible depende de que alguna fila en la matriz del sistema sea combinaci´on
de las restantes. Como las filas de una matriz pueden pensarse como n-uplas
podemos plantear el problema de una forma un poco m´as abstracta.
Sea B = {X
1
, . . . , X
n
} ⊂ R
n
queremos determinar si alguno de los elemen-
tos de B es combinaci´on lineal de los restantes, veamos algunos ejemplos
para ilustrar el problema.
EJEMPLO 2.18. Sea B = {(2, 1, 0), (1, 1, 1), (3, 2, 1)} ¿alguna n-upla de B
es combinaci´on lineal de las restantes? Intentemos ver si (2, 1, 0) es combi-
naci´on de los otros dos.
Para esto debemos determinar si existen λ
1
, λ
2
∈ R tales que
λ
1
(1, 1, 1) +λ
2
(3, 2, 1) = (2, 1, 0).
Esto es equivalente a que el sistema
2.5. DEPENDENCIA LINEAL 73
(S)

λ
1
+ 3λ
2
= 2
λ
1
+ 2λ
2
= 1
λ
1

2
= 0
sea compatible. Para resolver el sistema (S) escribamos la matriz ampliada
A =

¸
¸
1 3 2
1 2 1
1 1 0
¸

,
al escalerizarla se obtiene
A =

¸
¸
1 3 2
0 −1 −1
0 0 0
¸

Por lo tanto el sistema (S) es compatible determinado y Sol(S) = {(−1, 1)}.
En consecuencia,
(2, 1, 0) = (−1)(1, 1, 1) + (3, 2, 1).
Adem´as de lo anterior, se deduce f´acilmente que
(3, 2, 1) = (2, 1, 0) + (1, 1, 1) y (1, 1, 1) = (3, 2, 1) + (−1)(2, 1, 0)
Es decir que cualquiera de las tres n-uplas es combinaci´on lineal de las
restantes. Cabe preguntarse si esto ocurre siempre. La respuesta es negativa
como muestra el siguiente ejemplo
Sea B

= {(1, 1, 1), (2, 2, 2), (0, 0, 1)} entonces es claro que
(2.10) (1, 1, 1) =
1
2
(2, 2, 2) + 0(0, 0, 1) y (2, 2, 2) = 2(1, 1, 1) + 0(0, 0, 1)
pero sin embargo
(0, 0, 1) = λ
1
(2, 2, 2) +λ
2
(1, 1, 1), ∀ λ
1
, λ
2
∈ R
74 2.
´
ALGEBRA DE MATRICES
pues el sistema


1

2
= 0

1

2
= 0

1

2
= 1
es incompatible. Vale la pena observar tambi´en, que la n-upla (0, 0, 1) no
puede despejarse de (2.10) pues en cualquiera de las dos combinaciones
lineales tiene coeficiente nulo.
El ejemplo anterior muestra que en general determinar si en un conjun-
to de n-uplas alguna es combinaci´on lineal de las restantes puede resultar
trabajoso si se utiliza el procedimiento del ejemplo, pues como se vio puede
ocurrir que sea necesario chequear una a una las n-uplas del conjunto ya
que algunas pueden no ser combinaci´on de las restantes y otras si. Vale la
pena entonces tratar de obtener un m´etodo m´as eficiente para resolver este
problema.
DEFINICI
´
ON 2.8. Un conjunto A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
se dice
linealmente dependiente (L.D.) si existen λ
1
, λ
2
, . . . , λ
m
∈ R no todos
nulos tales que
λ
1
X
1

2
X
2
+· · · +λ
m
X
m
=
m
¸
i=0
λ
i
X
i
= O
DEFINICI
´
ON 2.9. Un conjunto A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
se dice li-
nealmente independiente (L.I.) si no es linealmente dependiente o equiva-
lentemente A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
es L.I. si λ
1
, λ
2
, . . . , λ
m
son n´ ume-
ros reales tales que
λ
1
X
1

2
X
2
+· · · +λ
m
X
m
=
m
¸
i=0
λ
i
X
i
= O
entonces λ
1
= λ
2
= . . . = λ
m
= 0
En otras palabras un conjunto es L.I. si la ´ unica forma de escribir la
n-upla nula como combinaci´on lineal de sus elementos es la trivial y es L.D.
si hay otras formas.
2.5. DEPENDENCIA LINEAL 75
Los siguientes resultados dan una caracterizaci´on de los conjuntos L.D.
y L.I.
PROPOSICI
´
ON 2.14. Sea A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
entonces
1. A es linealmente dependiente, si y solo si existe X
i
0
∈ A, combinaci´ on
lineal de los restantes elementos de A
2. A es linealmente independiente si ning´ un elemento de A es combina-
ci´ on lineal de los restantes.
Demostraci´ on. S´olo es necesario probar la primera afirmaci´on pues la
segunda es su consecuencia inmediata.
(=⇒) Supongamos que A es L.D. entonces existen n´ umeros λ
1
, λ
2
, . . . , λ
m
no todos nulos tales que
(2.11)
m
¸
i=0
λ
i
X
i
= 0
Sea λ
i
0
un coeficiente no nulo en la combinaci´on lineal precedente, las pro-
piedades de las operaciones de suma y producto de n-uplas nos habilitan a
“despejar” el termino i
0
-esimo en (2.11)
λ
1
X
1
+· · · +λ
i
0
−1
X
i
0
−1

i
0
X
i
0

i
0
+1
X
i
0
+1
+· · · +λ
m
X
m
= O =⇒
=0
....
−λ
i
0
X
i
0
= λ
1
X
1
+· · · +λ
i
0
−1
X
i
0
−1

i
0
+1
X
i
0
+1
+· · · +λ
m
X
m
=⇒
X
i
0
= −
λ
1
λ
i
0
X
1
−· · · −
λ
i
0
−1
λ
i
0
X
i
0
−1

λ
i
0
+1
λ
i
0
X
i
0
+1
−· · · −
λ
m
λ
i
0
X
m
Por lo tanto X
i
0
es combinaci´on lineal de los restantes elementos de A como
quer´ıamos.
(⇐) Supongamos ahora que existe X
i
0
∈ A combinaci´on lineal de los res-
tantes elementos de A entonces existen n´ umeros λ
1
, . . . , λ
i
0
−1
, λ
i
0
+1
, . . . , λ
m
tales que
X
i
0
= λ
1
X
1
+· · · +λ
i
0
−1
X
i
0
−1

i
0
+1
X
i
0
+1
+· · · +λ
m
X
m
76 2.
´
ALGEBRA DE MATRICES
entonces sumando el opuesto de X
i
0
a ambos miembros se tiene que
λ
1
X
1
+· · · +λ
i
0
−1
X
i
0
−1
+
=0
....
(−1) X
i
0

i
0
+1
X
i
0
+1
+· · · +λ
m
X
m
= O
de donde hemos obtenido la n-upla nula como combinaci´on lineal no trivial
de los elementos de A y consecuentemente ´este es un conjunto L.D. como
quer´ıamos.
La proposici´on anterior y su prueba dan un m´etodo m´as eficiente pa-
ra determinar si en un conjunto de n-uplas un elemento es combinaci´on de
los restantes: basta investigar si es L.D o no. Adem´as si se analiza con cui-
dado en la demostraci´on del directo se observa cuales son las n-uplas que
son combinaci´on de las otras, son exactamente aquellas que en (2.11) tienen
coeficiente no nulo, esto es lo que permite “despejarlas”.
Veamos ahora algunos ejemplos de conjuntos L.I. y L.D.
EJEMPLO 2.19. El ejemplo m´as sencillo de un conjunto L.D. es el que
tiene como ´ unico elemento a la n-upla nula. Si A = {(0, 0, . . . , 0)} ⊂ R
m
entonces λ(0, 0, . . . , 0) = O ∀λ ∈ R, en particular si λ = 0.
Es f´acil ver que este es el ´ unico conjunto de un elemento L.D.
En efecto si A = {X} con X = O entonces λX = O implica λ = 0 (probarlo),
con lo cual A resulta L.I.
Por otra parte cualquier conjunto que contenga a O debe ser L.D.. Sea
A = {O, X
1
, . . . , X
m
} ⊂ R
n
entonces
100.O + 0X
1
+. . . + 0X
m
= O
es una combinaci´on lineal de los elementos de A que da el nulo con no todos
los coeficientes nulos.
EJEMPLO 2.20. Determinar en cada caso la dependencia lineal del con-
junto A y en caso de ser L.D. indicar cu´ales vectores son combinaci´on lineal
de los restantes.
2.5. DEPENDENCIA LINEAL 77
1. Sea A = {(1, 1, −1), (1, 0, 1), (1, 1, 1)} supongamos que λ
1
, λ
2
, λ
3
son
tres n´ umeros reales tales que
λ
1
(1, 1, −1) +λ
2
(1, 0, 1) +λ
3
(1, 1, 1) = (0, 0, 0) ⇐⇒

1

2

3
, λ
1

3
, −λ
1

2

3
) = (0, 0, 0) ⇐⇒
(H)

λ
1

2

3
= 0
λ
1

3
= 0
−λ
1

2

3
= 0
En consecuencia el conjunto es L.I si el sistema homog´eneo (H) es
determinado (s´olo admite soluci´on trivial) y es L.D. si (H) es indeter-
minado (admite soluciones no triviales). La matriz del sistema es

¸
¸
1 1 1 0
1 0 1 0
−1 1 1 0
¸

escaleriz´andola se obtiene

¸
¸
1 1 1 0
0 −1 0 0
0 0 −2 0
¸

por lo tanto (H) es determinado y la ´ unica soluci´on es la trivial λ
1
=
λ
2
= λ
3
= 0 de donde A es L.I..
2. Sea A = {(1, 1, 2, 0), (1, 0, 1, 1), (0, 1, 1, −1), (2, 1, 3, 1), (1, 0, 1, 0)} y
sean λ
1
, λ
2
, λ
3
, λ
4
, λ
5
n´ umeros reales tales que
λ
1
(1, 1, 2, 0) +λ
2
(1, 0, 1, 1) +λ
3
(0, 1, 1, −1) + (2.12)
λ
4
(2, 1, 3, 1) +λ
5
(1, 0, 1, 0) = (0, 0, 0, 0) ⇐⇒

1

2
+ 2λ
4

5
, λ
1

3

4
, 2λ
1

2

3
+ 3λ
4

5
, λ
2
−λ
3

4
)
= (0, 0, 0, 0) ⇐⇒
78 2.
´
ALGEBRA DE MATRICES

λ
1

2
+ 2λ
4

5
= 0
λ
1

3

4
= 0

1

2

3
+ 3λ
4

5
= 0
λ
2
−λ
3

4
= 0
La matriz del sistema es:

¸
¸
¸
¸
1 1 0 2 1 0
1 0 1 1 0 0
2 1 1 3 1 0
0 1 −1 1 0 0
¸

Escaleriz´andola se obtiene:

¸
¸
¸
¸
1 1 0 2 1 0
0 1 −1 1 1 0
0 0 0 0 1 0
0 0 0 0 0 0
¸

y en consecuencia la soluci´on es λ
1
= −λ
3
−λ
4
, λ
2
= λ
3
−λ
4
, λ
5
= 0,
λ
3
, λ
4
∈ R El sistema es entonces compatible indeterminado y por lo
tanto A es L.D. En efecto sustituyendo en (2.12) se tiene que para
cualquier valor real de λ
3
y λ
4
se cumple que
(−λ
3
−λ
4
)(1, 1, 2, 0) + (λ
3
−λ
4
)(1, 0, 1, 1) +λ
3
(0, 1, 1, −1) +
λ
4
(2, 1, 3, 1) + 0(1, 0, 1, 0) = (0, 0, 0, 0)
en particular poniendo por ejemplo λ
3
= 1 y λ
4
= 2 tenemos que
(−3)(1, 1, 2, 0) + (−1)(1, 0, 1, 1) + (0, 1, 1, −1) +
2(2, 1, 3, 1) + 0(1, 0, 1, 0) = (0, 0, 0, 0)
de donde podemos “despejar” cualquier n-upla salvo la ´ ultima (tiene
coeficiente cero) como combinaci´on lineal de las restantes. Por ejem-
plo,
(1, 1, 2, 0) =
1
3
(1, 0, 1, 1) −
1
3
(0, 1, 1, −1)

2
3
(2, 1, 3, 1) + 0(1, 0, 1, 0)
2.5. DEPENDENCIA LINEAL 79

Supongamos que (S) es un sistema n×n indeterminado, cada una de sus
ecuaciones pueden pensarse en cierto sentido como “datos” o “informaci´on”
que permite resolver el problema. Si (S) es indeterminado ya hemos visto
que algunas ecuaciones (o filas de su matriz asociada) son combinaci´on de las
restantes, esto puede considerarse como “redundancia en la informaci´on” que
estas aportan. Nos interesa saber cuanta es la “informaci´on” no redundante
con que contamos y esto es cuantas ecuaciones independientes tienen el
sistema. De nuevo planteamos el problema en el contexto de n-uplas.
DEFINICI
´
ON 2.10. Sea A ⊂ R
n
un conjunto finito, llamaremos rango
del conjunto A a la mayor cantidad de elementos de A que forman un
conjunto L.I.
Naturalmente si A es L.I. entonces rango(A) = card(A). El siguiente
resultado indica un camino para calcular el rango de un conjunto.
PROPOSICI
´
ON 2.15. Sea A = {X
1
, X
2
, . . . , X
m
} ⊂ R
n
un conjunto cual-
quiera y sea B = {X
h
1
, X
h
2
, . . . , X
hr
} ⊂ A un subconjunto de A que cumple
las siguiente dos condiciones:
1. B es L.I.
2. X
s
es combinaci´ on lineal de B ∀ s = h
1
, h
2
, . . . , h
r
entonces rango(A) = r
Demostraci´ on. Como B es L.I. y card(B) = r entonces rango(A) ≥ r. El
resultado estar´a probado si verificamos que cualquier subconjunto de A con
m´as de r elementos es L.D.
Sea C = {X
k
1
, X
k
2
, . . . , X
kq
} ⊂ A un subconjunto cualquiera de A con q
elementos, q > r.
Observemos primeramente que la segunda condici´on de la hip´otesis implica
que todos los elementos de A son combinaci´on lineal de B pues cualquier
n-upla es combinaci´on de si misma. Por lo tanto existen n´ umeros a
ij
, con
i = 1, . . . , r, j = 1, . . . , q tales que
(2.13) X
k
j
= a
1j
X
h
1
+a
2j
X
h
2
+. . . +a
rj
X
hr
, ∀ j = 1, 2, . . . , q
80 2.
´
ALGEBRA DE MATRICES
Analicemos la dependencia lineal del conjunto C. Sean λ
1
, λ
2
, . . . , λ
q
n´ ume-
ros tales que
(2.14) λ
1
X
k
1

2
X
k
2
+. . . +λ
q
X
kq
= O
Sustituyendo (2.13) en (2.14) se tiene que λ
1
, λ
2
, . . . , λ
q
verifica (2.14) si y
solo si
λ
1

a
11
X
h
1
+a
21
X
h
2
+. . . +a
r1
X
hr


2

a
12
X
h
1
+a
22
X
h
2
+. . . +a
r2
X
hr

+
+· · · +λ
q

a
1q
X
h
1
+a
2q
X
h
2
+. . . +a
rq
X
hr

= O
Reordenando y sacando X
h
i
de factor com´ un se tiene que λ
1
, λ
2
, . . . , λ
q
verifican (2.14) si y solo si
=0
. .. .

a
11
λ
1
+a
12
λ
2
+· · · +a
1q
λ
q

X
h
1
+
=0
. .. .

a
21
λ
1
+a
22
λ
2
+· · · +a
2q
λ
q

X
h
2
+
+· · · +

a
r1
λ
1
+a
r2
λ
2
+· · · +a
rq
λ
q

. .. .
=0
X
hr
= O
Los par´entesis en la ecuaci´on anterior resultan todos nulos pues, el conjun-
to B = {X
h
1
, X
h
2
, . . . , X
hr
} es L.I.. Tenemos entonces que λ
1
, λ
2
, . . . , λ
q
verifican (2.14) si y solo si verifican el sistema lineal
(S)

a
11
λ
1
+a
12
λ
2
+· · · +a
1q
λ
q
= 0
a
21
λ
1
+a
22
λ
2
+· · · +a
2q
λ
q
= 0
.
.
.
.
.
.
.
.
.
a
r1
λ
1
+a
r2
λ
2
+· · · +a
rq
λ
q
= 0
Pero (S) es un sistema homog´eneo y q > r (tienen m´as inc´ognitas que
ecuaciones) por lo cual es indeterminado y consecuentemente tiene soluciones
no triviales. De donde resulta que existen λ
1
, λ
2
, . . . , λ
q
no todos nulos que
verifican (2.14) y por lo tanto C es L.D. como se deseaba.
EJEMPLO 2.21. Analicemos el rango del conjunto
A = {(1, 1, 2, 0), (1, 0, 1, 1), (0, 1, 1, −1), (2, 1, 3, 1), (1, 0, 1, 0)}
2.5. DEPENDENCIA LINEAL 81
del ejemplo 2.20. Ya sabemos que es L.D. por lo cual rango(A) < 5. Nuestra
intenci´on es construir con los elementos de A un conjunto B en las condi-
ciones de la proposici´on anterior. Para construir un conjunto L.I. con los
elementos de A debemos quitar las n-uplas que sean combinaci´on lineal de
las restantes.
Como ya vimos, en nuestro caso, (1, 1, 2, 0) es combinaci´on de las otras
as´ı que consideramos el conjunto
A

= {(1, 0, 1, 1), (0, 1, 1, −1), (2, 1, 3, 1), (1, 0, 1, 0)}
y estudiamos su dependencia lineal. Sean λ
1
, λ
2
, λ
3
, λ
4
n´ umeros tales que
λ
1
(1, 0, 1, 1) +λ
2
(0, 1, 1, −1) +λ
3
(2, 1, 3, 1) +λ
4
(1, 0, 1, 0) = (0, 0, 0, 0) ⇐⇒
(S)

λ
1
+ 2λ
3

4
= 0
λ
2

3
= 0
λ
1

2
+ 3λ
3

4
= 0
λ
1
−λ
2

3
= 0
La matriz ampliada de este sistema es

¸
¸
¸
¸
1 0 2 1 0
0 1 1 0 0
1 1 3 1 0
1 −1 1 0 0
¸

Escaleriz´andola se obtiene

¸
¸
¸
¸
1 0 2 1 0
0 1 1 0 0
0 0 0 1 0
0 0 0 0
¸

Por lo tanto (S) tiene soluci´on λ
1
= −2λ
3
, λ
2
= −λ
3
, λ
4
= 0 y λ
3
∈ R. A

es L.D. y adem´as ∀ λ
3
∈ R se tiene que
−2λ
3
(1, 0, 1, 1) −λ
3
(0, 1, 1, −1) +λ
3
(2, 1, 3, 1) + 0(1, 0, 1, 0) = (0, 0, 0, 0)
82 2.
´
ALGEBRA DE MATRICES
En particular si λ
3
= 0, despejando resulta
(2, 1, 3, 1) = −

3
λ
3
(1, 0, 1, 1) −
λ
3
λ
3
(0, 1, 1, −1) +
0
λ
3
(1, 0, 1, 0) =⇒
(2, 1, 3, 1) = −2(1, 0, 1, 1) −(0, 1, 1, −1) + 0(1, 0, 1, 0)
Con lo cual tenemos que en A

(2, 1, 3, 1) es combinaci´on lineal de los res-
tantes elementos. Consideramos ahora el conjunto
A
′′
= {(1, 0, 1, 1), (0, 1, 1, −1), (1, 0, 1, 0)} ⊂ A

⊂ A
el cual es L.I. (verificarlo). Entonces B = A
′′
cumple las dos condiciones de
la proposici´on anterior, esto es:
1. B es L.I.
2. (2, 1, 2, 1) y (1, 1, 2, 0) son combinaci´on lineal de B
Por lo tanto rango(A) = card(B) = 3.
Obs´ervese que hab´ıamos probado, en el ejemplo 2.20, que (1, 1, 2, 0) es com-
binaci´on de A

pero como los elementos de A

son a su vez combinaci´on de los
de A
′′
se deduce aplicando la proposici´on 2.13 que (1, 1, 2, 0) es combinaci´on
de A
′′
.
2.6. El rango de una matriz
Si A = ((a
ij
)) es una matriz m×n notaremos por A
i
= (a
i1
, . . . , a
in
) ∈
R
n
a la fila i-esima de A y con A
j
= (a
1j
, . . . , a
mj
) ∈ R
m
la columna j-esima
de A.
DEFINICI
´
ON 2.11. Sea A una matriz m×n
1. Definimos el rango por filas de A (rango
f
(A)) como el rango del
conjunto {(A
1
, . . . , A
n
} de filas de A.
2. Definimos el rango por columnas de A (rango
c
(A)) como el rango
del conjunto {A
1
, . . . , A
m
} ⊂ R
m
de columnas de A.
LEMA 2.16. Sea E ∈ M
m×n
una matriz escalerizada reducida con p es-
calones ubicados en las columnas j
1
, j
2
, . . . , j
p
entonces los conjuntos B =
{E
j
1
, E
j
2
, . . . , E
jp
} de columnas y B

= {E
1
, E
2
, . . . , E
p
} de filas cumplen
2.6. EL RANGO DE UNA MATRIZ 83
ambos con las hip´ otesis del lema 2.15.
En particular, entonces rango
c
(E) = rango
f
(E) = p
Demostraci´ on. La prueba es sencilla y queda a cargo del lector.
LEMA 2.17. Sea A una matriz m × n y p el n´ umero de escalones de la
forma escalerizada reducida de A entonces rango
c
(A) = p
Demostraci´ on. Sea A una matriz y E la forma escalerizada reducida de
A con p escalones (esto es con p filas no nulas). Como siempre indicaremos
por A
j
y E
j
las j-esimas columnas de A y E respectivamente.
Supongamos que los escalones de E est´an ubicados en las columnas j
1
, j
2
, . . . , j
p
entonces para probar que rango
c
(A) = p alcanza con demostrar que el con-
junto B = {A
j
1
, A
j
2
, . . . , A
jp
} cumple las condiciones de la proposici´on 2.15
esto es B es L.I y A
j
es combinaci´on lineal de B ∀ j = j
1
, j
2
, . . . , j
p
.
Veamos primero que B es L.I. Sean λ
j
1
, λ
j
2
, . . . , λ
jp
n´ umeros tales que
λ
j
1
A
j
1

j
2
A
j
2
+· · · +λ
jp
A
jp
= O
entonces la n-upla (α
1
, α
2
, . . . , α
n
) tal que
α
h
=

λ
j
i
, si h = j
i
para alg´ un i.
0 si h = j
i
para todo i.
es una soluci´on del sistema homog´eneo con matriz A|O y por lo tanto es
soluci´on del sistema homog´eneo equivalente con matriz E|O. Esto ´ ultimo
implica que
O = α
1
E
1

2
E
2
+· · · +α
n
E
n
= λ
j
1
E
j
1

j
2
E
j
2
+· · · +λ
jp
E
jp
,
pero el conjunto {E
j
1
, E
j
2
, . . . , E
jp
} es L.I. en virtud de lo visto en el lema
2.16, entonces λ
j
1
= λ
j
2
= · · · = λ
jp
= 0 probando que B es L.I.
Veamos ahora que si j = j
1
, . . . , j
p
entonces A
j
es combinaci´on lineal de B.
Sea entonces j = j
1
, . . . , j
p
, del lema 2.16 se sabe que E
j
es combinaci´on
lineal del conjunto {E
j
1
, E
j
2
, . . . , E
jp
} por lo tanto existen β
j
1
, β
j
2
, . . . , β
jp
n´ umeros tales que
E
j
= β
j
1
E
j
1

j
2
E
j
2
+· · · +β
jp
E
jp
84 2.
´
ALGEBRA DE MATRICES
entonces
(−1)E
j

1
E
j
1

2
E
j
2
+· · · +β
p
E
jp
= O.
Por lo tanto la n-upla (α
1
, α
2
, . . . , α
n
) con
α
h
=

−1, si h = j.
β
j
i
, si h = j
i
para alg´ un i.
0 si h = j
i
para todo i.
es soluci´on del sistema homog´enea con matriz E|O y consecuentemente tam-
bi´en del sistema equivalente A|O por lo tanto
O = α
1
A
1

2
A
2
+· · · +α
n
A
n
= (−1)A
j

j
1
A
j
1

j
2
A
j
2
+· · · +β
jp
A
jp
de donde se deduce que
A
j
= β
j
1
A
j
1

j
2
A
j
2
+· · · +β
jp
A
jp
culminando la prueba del lema.
TEOREMA 2.18. Sea A una matriz m×n entonces rango
f
(A) = rango
c
(A)
Demostraci´ on. La prueba se reduce a mostrar que rango
f
(A) = p donde
p es el n´ umero de escalones de E,la forma reducida de A.
Es claro que en el proceso de escalerizaci´on una fila se anula si y solo si es
combinaci´on lineal de las restantes en consecuencia si la forma escalerizada
tiene p filas no nulas la matriz A tiene p filas que forman un conjunto L.I. (
ninguna de ellas puede ser combinaci´on de las restantes) y adem´as las otras
m− p son combinaci´on de ellas (por eso al escalerizar A se anularon). En
consecuencia el lema 2.15 asegura que rango
f
(A) = p.
El resultado anterior nos habilita entonces a definir el rango de una
matriz como el rango por filas o el rango por columnas.
OBSERVACI
´
ON 2.19. El rango de una matriz es igual al rango de su
transpuesta, pues las filas de una son las columnas de la otra.
TEOREMA 2.20 (Rouche-Frobenius (2
da
versi´on)). Sea (S) un sistema
lineal de m ecuaciones con n inc´ ognitas con matriz ampliada A|b. entonces
2.7. MATRICES INVERTIBLES Y RANGO 85
1. (S) es compatible si y solo si rango(A) = rango(A|b)
2. Si (S) es compatible entonces
a) (S) es determinado si y solo si rango(A) = n.
b) (S) es indeterminado si y solo si rango(A) < n.
Demostraci´ on. La prueba es consecuencia inmediata del Teorema de Rouche-
Frobenius (1era. versi´on) y del lema 2.17
2.7. Matrices invertibles y rango
Todo n´ umero real no nulo es invertible, sin embargo tal como se vio en el
ejemplo 2.10 existen matrices no nulas que no poseen inversa, se impone por
lo tanto obtener alg´ un resultado que caracterice a las matrices invertibles,
observemos que de (2.7) se deduce que si A ∈ M
n×n
es una matriz invertible
el sistema AX = b es compatible determinado por lo tanto el teorema de
Rouche-Frobenius asegura que rango(A) = n, probaremos en esta secci´on
como principal resultado que el rec´ıproco es tambi´en cierto.
Comencemos mostrando que las matrices de rango n son exactamente
aquellas que admiten una “inversa a derecha”.
LEMA 2.21. Sea A ∈ M
n×n
entonces rango(A) = n si y solo si existe
B ∈ M
n×n
tal que A·B = I
n
.
Demostraci´ on. (⇒) Recordemos en primer lugar que de acuerdo a la ob-
servaci´on 2.1 si A y B son dos matrices n × n cualquiera y B
j
indica la
columna j-esima de B entonces
A·B =

¸
¸
¸
¸
A·B
1
A·B
2
. . . A·B
n
. . .
¸

Por lo tanto
A·B = I
n
⇐⇒A·B
j
= e
j
, ∀j = 1, 2, . . . , n
86 2.
´
ALGEBRA DE MATRICES
Donde
e
j
=

¸
¸
¸
¸
¸
¸
¸
¸
0
.
.
.
1
.
.
.
0
¸

←− fila j-esima
Ahora bien, como rango(A) = n el teorema de Rouch´e-Frobenius asegura
que n sistemas de ecuaciones AX = e
j
con j = 1, 2, . . . , n son compatibles y
consecuentemente se tiene que ∀ j = 1, 2, . . . , n existe B
j
tal que A·B
j
= e
j
.
Por lo tanto eligiendo B como la matriz cuya columna j-esima es B
j
se tiene
probado el directo.
(⇐) Veamos ahora el rec´ıproco. Supongamos que existe B tal que A·B = I
n
.
Entonces, llamando B
j
a la columna j-esima de la matriz B se tiene

¸
¸
¸
¸
A·B
1
A·B
2
. . . A·B
n
. . .
¸

= A·B = I
n
=

¸
¸
¸
¸
e
1
e
2
. . . e
n
. . .
¸

Mirado los extremos de la igualdad anterior se deduce que los sistemas
AX = e
j
∀j = 1, 2, . . . , n
son todos compatibles.
El rango(A) ≤ n pues A es n×n, supongamos por absurdo que rango(A) =
r < n. Entonces, en virtud del lema 2.17, una forma escalerizada de la ma-
triz A debe tener r < n escalones (filas no nulas). Por lo tanto, al aplicar
el algoritmo de Gauss a la matriz A alguna fila, supongamos que la h, de-
bi´o anularse. Pero entonces el sistema AX = e
h
resulta incompatible pues
al escalerizarlo, la h- esima ecuaci´on se transforma en 0 = 1 y esto na-
turalmente es absurdo pues todos los sistemas AX = e
j
eran compatibles
∀ j = 1, 2, . . . , n, as´ı que debe ser rango(A) = n como quer´ıamos.
Estamos ahora en condiciones de probar que que para que una matriz sea
invertible es suficiente que tenga un “inverso a derecha”
2.8. MATRICES ELEMENTALES 87
Demostraci´ on del lema 2.9. El directo es consecuencia inmediata de la
definici´on de matriz invertible por lo cual s´olo probaremos el rec´ıproco.
(⇐) Supongamos que existe X ∈ M
n×n
tal que A·X = I
n
entonces por el
lema 2.21 rango(A) = n. De la observaci´on 2.19 se deduce que
rango(A
t
) = rango(A) = n,
por lo que, utilizando nuevamente el lema 2.21, existe C ∈ M
n×n
tal que
A
t
·C = I
n
. Transponiendo se tiene que
C
t
·A =

A
t
·C

t
= (I
n
)
t
= I
n
.
Por lo tanto D = C
t
es una “inversa a izquierda” de A.
Veamos que D = X, en efecto
D = D·I
n
= D

A·X

=

D·A

X = I
n
·X = X
entonces
A·X = X·A = I
n
y consecuentemente A es invertible.
TEOREMA 2.22. Sea A ∈ M
n×n
, A es invertible si y solo si rango(A) =
n.
Demostraci´ on. (⇒) Si A es invertible en particular existe B tal que
A·B = I
n
entonces lema 2.9 rango(A) = n.
(⇐) Si rango(A) = n el lema 2.21 asegura que existe B ∈ M
n×n
tal que
A·B = I
n
pero entonces por el lema 2.9 A es invertible.
2.8. Matrices elementales
Culminemos el cap´ıtulo mostrando que el proceso de escalerizaci´on puede
representarse mediante el producto por ciertas matrices especiales llamadas
matrices elementales.
Sea e una de las transformaciones elemental de la definici´on 1.1, esto es
1- multiplicar una fila por una constante no nula
88 2.
´
ALGEBRA DE MATRICES
2- intercambio de filas
3- sumarle a una fila un m´ ultiplo de otra fila
DEFINICI
´
ON 2.12. La matriz elemental E asociada con la trans-
formaci´on e es la que se obtiene al aplicar la transformaci´on e a la matriz
identidad n ×n
EJEMPLO 2.22. La matriz
(2.15) E
1
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 0 · · · 0 0 0 · · · 0
0 1 · · · 0 0 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. · · · 1 0 0 · · · 0
.
.
.
.
.
. · · · 0 α 0 · · · 0
.
.
.
.
.
. · · · 0 0 1 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · 0 0 0 · · · 1
¸

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
←− Fila i
.
.
.
.
.
.
.
.
.
.
.
.
est´a asociada a la transformaci´on elemental e
1
“multiplicar la fila i por
la constante α = 0”, pues E
1
se obtiene de la matriz identidad I aplicando
dicha transformaci´on
I
operaci´on e
1
−→ E
1
2.8. MATRICES ELEMENTALES 89
EJEMPLO 2.23. La matriz
(2.16)
E
2
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 · · · · · · · · · · · · · · · · · · · · · · · ·
.
.
.
.
.
.
.
.
. · · ·
.
.
.
.
.
.
.
.
. · · ·
.
.
.
· · · · · · 0 · · · · · · · · · 1 · · ·
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. · · ·
.
.
. · · · · · · · · ·
.
.
.
.
.
.
.
.
.
.
.
. · · · · · · 1 · · · · · ·
.
.
.
.
.
.
.
.
. 1 · · · · · · · · · 0 · · ·
.
.
.
.
.
.
.
.
.
.
.
. · · ·
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
· · · · · · · · · · · · · · · · · · · · · · · · 1
¸

.
.
.
.
.
.
←− Fila j
.
.
.
.
.
.
.
.
.
←− Fila i
.
.
.
.
.
.
est´a asociada a la transformaci´on elemental e
2
“intercambiar la fila i
por la fila j”, pues E
2
se obtiene de la matriz identidad I aplicando dicha
transformaci´on.
I
operaci´on e
2
−→ E
2
La matriz
(2.17)
E
3
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 · · · · · · · · · · · · · · · · · · · · · · · ·
.
.
.
.
.
.
.
.
. · · ·
.
.
.
.
.
.
.
.
. · · ·
.
.
.
· · · · · · 1 · · · · · · · · · · · · · · ·
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. · · ·
.
.
. · · · · · · · · ·
.
.
.
.
.
.
.
.
.
.
.
. · · · · · · 1 · · · · · ·
.
.
.
.
.
.
.
.
. α · · · · · · · · · 1 · · ·
.
.
.
.
.
.
.
.
.
.
.
. · · ·
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
· · · · · · · · · · · · · · · · · · · · · · · · 1
¸

.
.
.
.
.
.
←− Fila j
.
.
.
.
.
.
.
.
.
←− Fila i
.
.
.
.
.
.
90 2.
´
ALGEBRA DE MATRICES
est´a asociada a la transformaci´on elemental e
3
“sumarle a fila i un m´ ulti-
plo de la fila j”, pues E
3
se obtiene de la matriz identidad I aplicando
dicha transformaci´on
I
operaci´on e
3
−→ E
3
PROPOSICI
´
ON 2.23. Sean: B la matriz (de tama˜ no n×m) que se obtie-
ne a partir de la matriz A (de tama˜ no n ×m) realizando la transformaci´ on
elemental e con las filas de A
A
operaci´on e
−→ B;
E la matriz elemental (de tama˜ no n ×n ) asociada con la transformaci´ on e
I
operaci´on e
−→ E
Se cumple que B = EA.
Demostraci´ on. Sea B la matriz que se obtiene de A multiplicando por α
la fila i de A
B =

¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

2.8. MATRICES ELEMENTALES 91
Si E
1
es la matriz (2.15) asociada a la transformaci´on elemental “multiplicar
la fila i por la constante α = 0”, es inmediato verificar que
E
1
A =

¸
¸
¸
¸
¸
¸
¸
¸
1 · · · 0 · · · 0
.
.
. · · ·
.
.
. · · ·
.
.
.
0 · · · α · · · 0
.
.
. · · ·
.
.
.
.
.
.
.
.
.
0 · · · 0 · · · 1
¸

¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

=
=

¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

= B
An´alogamente se prueba la propiedad para las dos restantes operaciones
elementales.
EJEMPLO 2.24. Consideremos la matriz
A =

¸
¸
1 0 2 1
2 −1 3 6
1 4 4 0
¸

, y la matriz elemental E =

¸
¸
1 0 0
0 1 0
3 0 1
¸

asociada a la transformaci´on elemental e de sumarle a la tercera fila 3 ve-
ces la primer fila. Sea B la matriz que se obtiene de A si se le aplica la
transformaci´on elemental considerada
A =

¸
¸
1 0 2 1
2 −1 3 6
1 4 4 0
¸

operaci´on e
−→

¸
¸
1 0 2 1
2 −1 3 6
4 4 10 9
¸

= B
y operando se verifica que B = EA =

¸
¸
1 0 2 1
2 −1 3 6
4 4 10 9
¸

92 2.
´
ALGEBRA DE MATRICES

Sea A una matriz cualquiera, en virtud de la proposici´on 1.3 (M´etodo
de Gauss) puede escalerizarse mediante una cantidad finita, e
1
, e
2
. . . , e
k
de
transformaciones elementales. Sea B una forma escalerizada de A, esquema-
tizamos como sigue el proceso de escalerizaci´on:
A
operaci´on e
1
−→ · · · · · ·
operaci´on e
k
−→ B.
Si representamos estas operaciones elementales por sus respectivas matrices
elementales asociadas, se puede enunciar que
PROPOSICI
´
ON 2.24. Toda matriz A puede reducirse mediante una suce-
si´ on de matrices elementales E
1
, E
2
, . . . , E
k
a su forma escalerizada B, esto
es: E
k
. . . E
2
E
1
A = B.
PROPOSICI
´
ON 2.25. Sea A una matriz n×n. Si rango(A) = n ⇒existe
una sucesi´ on de matrices elementales E
1
, E
2
. . . , E
h
tales que
E
h
. . . E
2
E
1
A = I.
(es decir que al aplicarle el proceso de escalerizaci´ on se obtiene la matriz
identidad)
Demostraci´ on. Recordemos primeramente que el rango de una matriz es
el n´ umero de escalones de su forma escalerizada (filas no nulas). Sea A

la
forma reducida de A. Como rango(A) = n y A (y por lo tanto A

) es una
matriz n ×n se tiene que
A

=

¸
¸
¸
¸
¸
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
¸

.
.
.
.
.
.
.
.
.
←n escalones no nulos y n filas
2.8. MATRICES ELEMENTALES 93
As´ı por la proposici´on 2.24 existen matrices elementales E
1
, E
2
. . . , E
h
tales
que E
1
E
2
. . . E
h
A = I.
Cada transformaci´on elemental puede ser deshecha por su transformaci´on
elemental inversa, esto es
1- multiplicar una fila por una constante α = 0 se deshace multiplicando
dicha fila por
1
α
2- intercambio de filas se deshace intercanbi´andolas nuevamente
3- sumarle a una fila un m´ ultiplo de otra fila se deshace rest´andole a la
fila el m´ ultiplo de la otra
PROPOSICI
´
ON 2.26. Toda matriz elemental es invertible y su inversa es
una matriz elemental
Demostraci´ on. Sea E la matriz elemental asociada a la transformaci´on
elemental e
I
operaci´on e
−→ E
Indiquemos por e
−1
a la transformaci´on elemental inversa de e, es decir que
I
operaci´on e
−→ E
operaci´on e
−1
−→ I
Si E

es la matriz elemental asociada a la transformaci´on elemental e
−1
, esto
es
I
operaci´on e
−1
−→ E

aplicando la proposici´on 2.23 a la matriz E con la transformaci´on e
−1
se
tiene que E

E = I An´alogamente se prueba que EE

= I. Esto es E es
invertible y su inversa es E
−1
= E

(es una matriz elemental correspondiente
a la transformaci´on inversa).
Obtengamos una nueva caracterizaci´on de las matrices invertibles
94 2.
´
ALGEBRA DE MATRICES
COROLARIO 2.27. Sea A una matriz n ×n entonces A es invertible si y
solo si existen E
1
, E
2
, . . . , E
k
matrices elementales tales que A = E
1
·E
2
· . . . ·E
k
Demostraci´ on. (⇒) Si A es invertible entonces en virtud de la proposici´on
anterior existen E

1
, E

2
, . . . , E

k
una sucesi´on de matrices elementales tales
que
E

1
·E

2
· . . . ·E

k
·A = I
n
pero como las matrices elementales son invertibles y sus inversas son tambi´en
matrices elementales se tiene

E

k
−1
· . . . ·E

2
−1
·E

1
−1

E

1
·E

2
· . . . ·E

k
·A =

E

k
−1
· . . . ·E

2
−1
·E

1
−1

I
n
de donde se tiene que
A = E

k
−1
· . . . ·E

2
−1
·E

1
−1
Por lo tanto poniendo E
1
= E

k
−1
, E
2
= E

k−1
−1
, . . . , E
k
= E

1
−1
se tiene
probado el directo.
(⇐) El rec´ıproco es consecuencia de que el producto de matrices invertibles
es invertible.
CAP´ıTULO 3
DETERMINANTES
El determinante de una matriz cuadrada es un ´ unico n´ umero que se
asocia a dicha matriz; es por tanto una funci´on del conjunto de las matrices
cuadradas en el conjunto num´erico al que pertenecen los elementos de las
matrices. En nuestro caso estos n´ umeros ser´an los reales o los complejos,
pero se puede dar sobre conjuntos “num´ericos” m´as generales.
El uso del determinante surgi´o de las f´ormulas que dan las soluciones de
sistemas de n ecuaciones con n inc´ognitas, luego fue identificado (en el caso
3 por 3) como ´area de paralelogramo o volumen de un paralelep´ıpedo, hasta
extenderse a definiciones m´ as generales que la que nosotros daremos en este
curso (funci´on multilineal alternada).
M´as adelante se ver´a que podemos hablar del determinante de una trans-
formaci´on lineal entre espacios vectoriales, a la que se puede asociar matrices
de una manera sencilla. En particular las matrices invertibles son las ´ unicas
que tienen determinantes distinto de cero. As´ı, una propiedad tan definitoria
de una matriz (su invertibilidad) estar´a caracterizada por la no nulidad de
su determinante (o sea por el valor de un ´ unico n´ umero).
3.1. Definici´on
La definici´on de determinante de una matriz cuadrada ser´a dada de
manera inductiva en el n´ umero de filas (o de columnas). O sea, daremos la
definici´on de determinante de una matriz n × n a partir del conocimiento
de los determinantes de matrices (n −1) ×(n −1). El determinante de una
matriz A se representa con el s´ımbolo |A|; trat´andose de una matriz dada
95
96 3. DETERMINANTES
por sus coeficientes, en general no escribiremos los par´entesis con los que en
general encerramos el ¸ cuadrado” de los n´ umeros.
DEFINICI
´
ON 3.1. Sea A = ((a
ij
)) una matriz n ×n, se define la matriz
adjunta del elemento a
ij
como la submatriz A
ij
de la matriz A que se
obtiene eliminado la fila i y la columna j de A
EJEMPLO 3.1. Si A =

¸
¸
3 −4 −3
−1 2 7
−2 4 0
¸

, la matriz adjunta del elemen-
to a
21
= −1, se obtiene eliminando la fila 2 y la columna 1 de A:

¸
¸
× −4 −3
× × ×
× 4 0
¸

, obteni´endose la matriz adjunta A
21
=

−4 −3
4 0

OBSERVACI
´
ON 3.1. Si la matriz cuadrada A es de tama˜ no n, las matri-
ces adjuntas A
ij
son de tama˜ no (n −1) ×(n −1) .
DEFINICI
´
ON 3.2. (Inductiva en el tama˜ no de la matriz) El de-
terminante de una matriz 1 ×1 es el propio n´ umero. El determinante de la
matriz 2 ×2, A =

a b
c d

es el n´ umero |A|
def
= ad −bc
El determinante de una matriz A n ×n se define como el n´ umero
|A|
def
= (−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
|A
n1
|
EJEMPLO 3.2. (a) Calculemos el determinante de la matriz A =

3 1
7 2

|A| = (3) (2) −(7) (2) = −8
3.2. PROPIEDADES DE LOS DETERMINANTES 97
(b) Calculemos el determinante de la matriz A =

¸
¸
3 −4 −3
−1 2 7
−2 4 0
¸

|A| = (−1)
1+1
a
11
|A
11
| + (−1)
2+1
a
21
|A
21
| + (−1)
3+1
a
31
|A
31
| =
= 3

2 7
4 0

−(−1)

−4 −3
4 0

+ (−2)

−4 −3
2 7

=
= 3 (−28) + (−12) + (−2) (−22) = −52
(c) Calculemos el determinante de la matriz A =

¸
¸
¸
¸
2 0 1 1
2 2 −4 −1
−3 1 1 1
2 −2 0 0
¸

|A| = (−1)
1+1
a
11
|A
11
| + (−1)
2+1
a
21
|A
21
| +
+ (−1)
3+1
a
31
|A
31
| + (−1)
4+1
a
41
|A
41
| =
2

2 −4 −1
1 1 1
−2 0 0

−2

0 1 1
1 1 1
−2 0 0

+
+ (−3)

0 1 1
2 −4 −1
−2 0 0

−2

0 1 1
2 −4 −1
1 1 1

Ahora bien, los determinantes de tama˜ no 3 ×3 se calculan del mismo modo
que en (b). Verificar que respectivamente, los determinantes tres por tres
valen 6, 0, −6, 3 por lo cual
|A| = 2 (6) −3 (−6) −2 (3) = 24

3.2. Propiedades de los determinantes
1. Linealidad (respecto a una fila)
98 3. DETERMINANTES
a) Aditividad (respecto a una fila)
|C| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
+b
i1
a
i2
+b
i2
· · · a
in
+b
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

+

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
b
i1
b
i2
· · · b
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= |A| +|B|
Demostraci´ on. Por inducci´on completa
Para n = 2. Por un lado
|C| =

a
11
a
12
a
21
+b
21
a
22
+b
22

= a
11
a
22
+a
11
b
22
−a
12
a
21
−a
12
b
21
y por otro
|A|+|B| =

a
11
a
12
a
21
a
22

+

a
11
a
12
b
21
b
22

= (a
11
a
22
−a
12
a
21
)+(a
11
b
22
−a
12
b
21
)
Con lo cual |C| = |A| +|B| .
Hip´otesis inductiva: La propiedad es v´alida para matrices de
orden menor que n
Tesis inductiva: La propiedad es v´alida para matrices de orden
n. En efecto
|C|
def
= (−1)
1+1
a
11
|C
11
| +. . . +
+(−1)
i+1
(a
i1
+b
i1
) |C
i1
| +. . . + (−1)
n+1
a
n1
|C
n1
|
(3.18)
3.2. PROPIEDADES DE LOS DETERMINANTES 99
Observemos que si k = i, como la matriz C
k1
es de orden n−1,
por la hip´otesis inductiva se tiene que
|C
k1
| =

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
a
i2
+b
i2
· · · a
in
+b
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

=
=

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

+

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
b
i2
· · · b
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= |A
k1
| +|B
k1
| ;
luego si sustituimos en (3.18) se tiene que
|C| = (−1)
1+1
a
11
[|A
11
| +|B
11
|] +. . . + (−1)
i+1
(a
i1
+b
i1
) |C
i1
| +. . .
. . . + (−1)
n+1
a
n1
[|A
n1
| +|B
n1
|]
= (−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|C
i1
| +. . . + (−1)
n+1
a
n1
|A
n1
| +
+(−1)
1+1
a
11
|B
11
| +. . . + (−1)
i+1
b
i1
|C
i1
| +. . . + (−1)
n+1
a
n1
|B
n1
|
100 3. DETERMINANTES
Pero como |C
i1
| =

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
i−12
· · · a
i−1n
a
i+12
· · · a
i+1n
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= |A
i1
| = |B
i1
| resulta que
|C| = (−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
|A
n1
| +
+(−1)
1+1
a
11
|B
11
| +. . . + (−1)
i+1
b
i1
|B
i1
| +. . . + (−1)
n+1
a
n1
|B
n1
|
= |A| +|B|
OBSERVACI
´
ON 3.2. No es cierto que |A+B| = |A| +|B|
|A| =

1 3
4 2

= −10, |B| =

1 0
0 2

= 2 pero
|A+B| =

3 3
4 4

= 0 = −7 = |A| +|B| .
b) Homogeneidad (respecto a una fila)
Si B es una matriz que se obtiene de A multiplicando una de
sus filas por un n´ umero α entonces
|B| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= α

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= α|A|
3.2. PROPIEDADES DE LOS DETERMINANTES 101
Demostraci´ on. Por inducci´on completa
Para n = 2. Por un lado
|B| =

a
11
a
12
αa
21
αa
22

= a
11
αa
22
−a
12
αa
21
=
= α(a
11
a
22
−a
12
a
21
) = α

a
11
a
12
a
21
a
22

= α|A|
Hip´otesis inductiva: La propiedad es v´alida para matrices de
orden menor que n
Tesis inductiva: La propiedad es v´alida para matrices de orden
n. En efecto
(3.19) |B|
def
= (−1)
1+1
a
11
|B
11
| +. . . +
+ (−1)
i+1
αa
i1
|B
i1
| +. . . + (−1)
n+1
a
n1
|B
n1
|
Observemos que si k = i, como la matriz C
k1
es de orden n−1,
por la hip´otesis inductiva se tiene que
|B
k1
| =

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= α

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
k−12
· · · a
k−1n
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= α|A
k1
|
102 3. DETERMINANTES
y que |B
i1
| =

a
12
· · · a
1n
.
.
. · · ·
.
.
.
a
i−12
· · · a
i−1n
a
i+12
· · · a
i+1n
.
.
.
.
.
.
.
.
.
a
n2
· · · a
nn

= |A
i1
|
luego si sustituimos en (3.19) se tiene que
|B| = (−1)
1+1
a
11
α|A
11
| +. . . +
+ (−1)
i+1
αa
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
α|A
n1
|
= α

(−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|A
i1
| +. . . +
+(−1)
n+1
a
n1
|A
n1
|

= α|A|
COROLARIO 3.3. Se deduce de la propiedad anterior que
|αA| = α
n
|A| .
Demostraci´ on. En efecto
|αA| =

αa
11
αa
12
· · · αa
1n
αa
21
αa
22
· · · αa
2n
.
.
.
.
.
.
.
.
.
.
.
.
αa
n1
αa
n2
· · · αa
nn

= α

a
11
a
12
· · · a
1n
αa
21
αa
22
· · · αa
2n
.
.
.
.
.
.
.
.
.
.
.
.
αa
n1
αa
n2
· · · αa
nn

=
= αα

a
11
a
12
· · · a
1n
a
21
a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
αa
n1
αa
n2
· · · αa
nn

= αα. . . α

a
11
a
12
· · · a
1n
a
21
a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
= α
n
|A|
3.2. PROPIEDADES DE LOS DETERMINANTES 103
2. Intercambio de filas
Si B es la matriz que se obtiene de A intercambiando dos de sus filas
entonces
|B| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= −

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= −|A|
Demostraci´ on. Por inducci´on completa
Para n = 2. Por un lado |B| =

a
21
a
22
a
11
a
12

= a
12
a
21
−a
11
a
22
,
y por otro |A| =

a
11
a
12
a
21
a
22

= (a
11
a
22
−a
12
a
21
) .
As´ı |B| = −|A| .
Hip´otesis inductiva: La propiedad es v´alida para matrices de orden
menor que n
Tesis inductiva: La propiedad es v´alida para matrices de orden n
Primer caso: La matriz B se ha obtenido de A intercambiando las
filas consecutivas i e i + 1
A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
a
i+11
a
i+12
· · · a
i+1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

y B =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

104 3. DETERMINANTES
Por la definici´on, se tiene que
(3.20) |B| = (−1)
1+1
a
11
|B
11
| +. . . + (−1)
i+1
a
i+11
|B
i1
|
+ (−1)
i+2
a
i1
|B
i+11
| . . . + (−1)
n+1
a
n1
|B
n1
|
Pero siendo B =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− Fila i
←− Fila i + 1
.
.
.
.
.
.
se tiene que B
i1
= A
i+11
y B
i+11
= A
i1
, por lo cual
|B
i1
| = |A
i+11
| , |B
i+11
| = |A
i1
|
y si k = i y k = i+1, se tiene que B
k1
es una matriz de orden n−1 con
dos filas intercambiadas respecto de A, por lo cual, por la hip´otesis
inductiva |B
k1
| = −|A
k1
| . Sustituimos en (3.20)
|B| = (−1)
1+1
a
11
[−|A
11
|] +. . . + (−1)
i+1
a
i+11
|A
i+11
|
+ (−1)
i+2
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
[−|A
n1
|]
Pero
(−1)
i+1
a
i+11
|A
i+11
| = (−1)
i+1
(−1)
2
a
i+11
|A
i+11
| =
= (−1)
i+1
(−1) a
i+11
(−1) |A
i+11
| = (−1)
i+2
a
i+11
[−|A
i+11
|] =
= (−1)
i+1
(−1) a
i1
|A
i1
| = (−1)
i+1
a
i1
[−|A
i1
|]
3.2. PROPIEDADES DE LOS DETERMINANTES 105
con lo cual
|B| = (−1)
1+1
a
11
[−|A
11
|] +. . . + (−1)
i+2
a
i+11
[−|A
i+11
|] +
+ (−1)
i+1
a
i1
[−|A
i1
|] +. . . + (−1)
n+1
a
n1
[−|A
n1
|]
= −[(−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+2
a
i+11
|A
i+11
| +
+ (−1)
i+1
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
−|A
n1
|] = −|A|
Segundo caso La matriz B se ha obtenido de A intercambiando las
filas i y j = k+1. La matriz B se puede obtener de A realizando varios
cambios de filas consecutivas. En primer lugar realizamos k cambios
consecutivos de la fila i de A hasta colocarla en la fila j = i +k.
A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
a
i+11
a
i+12
· · · a
i+1n
a
i+21
a
i+22
a
i+2n
.
.
.
.
.
. · · ·
.
.
.
a
k+11
a
k+12
· · · a
k+1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
←− fila i + 1 de A
←− fila i + 2 de A
.
.
.
←− fila i + k de A
.
.
.
.
.
.
cambio de la fila i por la i + 1 de A
−→
106 3. DETERMINANTES
A
1
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i1
a
i2
· · · a
in
a
i+21
a
i+22
· · · a
i+2n
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
1
←− fila i + 1 de A
1
←− fila i + 2 de A
1
.
.
.
←− fila i + k de A
1
.
.
.
.
.
.
cambio de la fila i + 1 por la i + 2 de A
1
−→
A
2
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i+21
a
i+22
· · · a
i+2n
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
2
←− fila i + 1 de A
2
←− fila i + 2 de A
2
.
.
.
←− fila i + k de A
2
.
.
.
.
.
.
−→· · · −→· · · −→
3.2. PROPIEDADES DE LOS DETERMINANTES 107
A
k−1
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i+21
a
i+22
· · · a
i+2n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
a
i+k1
a
i+k2
· · · a
i+kn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
k−1
←− fila i + 1 de A
k−1
.
.
.
←− fila i + k −1 de A
k−1
←− fila i + k de A
k−1
.
.
.
.
.
.
cambio de la fila i + k −1 por la i + k de A
k−1
−→
A
k
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i+11
a
i+12
· · · a
i+1n
a
i+21
a
i+22
· · · a
i+2n
.
.
.
.
.
. · · ·
.
.
.
a
i+k1
a
i+k2
· · · a
i+kn
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

.
.
.
.
.
.
←− fila i de A
k
←− fila i + 1 de A
k
.
.
.
←− fila i + k −1 de A
k
←− fila i + k de A
k
.
.
.
.
.
.
Como los k cambios de filas son consecutivos, por la primer parte, se
tiene que
|A
1
| = −|A|
|A
2
| = −|A
1
|
.
.
.
|A
k
| = −|A
k−1
|
108 3. DETERMINANTES
Con lo cual |A
k
| = (−1)
k
|A| .
En segundo lugar, (repetimos el procedimiento ”hacia arriba”) reali-
zamos k − 1 cambios consecutivos de la fila i + k − 1 de A
K
hasta
colocarla en la fila i, obteni´endose la matriz B y se cumple, aplicando
la primer parte |B| = (−1)
k−1
|A
k
| De las dos ´ ultimas igualdades se
deduce |B| = (−1)
2k−1
|A| = −|A| .
3. Determinantes nulos
a) Si A tiene una fila de ceros entonces |A| = 0
Demostraci´ on. En efecto
|A| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
0 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
1 −1 1 −1 · · · 1 −1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
1 1 · · · 1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

+

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
−1 −1 · · · −1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
1 1 · · · 1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
1 1 · · · 1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= 0
b) Si A tiene dos filas iguales entonces |A| = 0
3.2. PROPIEDADES DE LOS DETERMINANTES 109
Demostraci´ on. En efecto, si se intercambian dos filas, sabe-
mos que el determinante cambia de signo, con lo cual
|A| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= −

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= −|A|
As´ı 2 |A| = 0 ⇒ |A| = 0
c) Si A tiene dos filas proporcionales entonces |A| = 0
Demostraci´ on. En efecto
|A| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= α

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= 0
d) Si A tiene una fila combinaci´ on lineal de las otras filas entonces
|A| = 0
Demostraci´ on. Sin p´erdida de generalidad, para simplificar
la notaci´on, supongamos que la ´ ultima fila es combinaci´on lineal
110 3. DETERMINANTES
de las anteriores. Aplicando la propiedad de linealidadad
|A| =

a
11
a
12
· · · a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n−11
a
n−12
· · · a
n−1n
.
.
.
.
.
.
.
.
.
.
.
.
i=n−1
¸
i=1
α
i
a
i1
i=n−1
¸
i=1
α
i
a
i2
· · ·
i=n−1
¸
i=1
α
i
a
in

=
=
i=n−1
¸
i=1

a
11
a
12
· · · a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n−11
a
n−12
· · · a
n−1n
.
.
.
.
.
.
.
.
.
.
.
.
α
i
a
i1
α
i
a
i2
· · · α
i
a
in

=
=
i=n−1
¸
i=1
α
i

a
11
a
12
· · · a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n−11
a
n−12
· · · a
n−1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
i2
· · · a
in

= 0
(pues los determinantes tienen dos filas iguales)
4. Combinaci´on lineal de filas
a) Si B es una matriz que se obtiene de A sumado a una fila de
A un m´ ultiplo de otra fila de A entonces |B| = |A|
3.2. PROPIEDADES DE LOS DETERMINANTES 111
Demostraci´ on. En efecto
|B| =

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
+αa
i1
a
j2
+αa
i2
· · · a
jn
+αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

+

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= |A|
b) Si B es una matriz que se obtiene de A cambiando la fila A
j
por la combinaci´ on lineal βA
j
+αA
i
con β = 0 (i = j).entonces
|B| = β |A|
112 3. DETERMINANTES
Demostraci´ on. En efecto

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
βa
j1
+αa
i1
βa
j2
+αa
i2
· · · βa
jn
+αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
=

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
βa
j1
βa
j2
· · · βa
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

+

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
αa
i1
αa
i2
· · · αa
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

=
= β

a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
j1
a
j2
· · · a
jn
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

= β |A|
3.2. PROPIEDADES DE LOS DETERMINANTES 113
Ejercicio Probar que si A =

¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
0 a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · a
nn
¸

(ceros por debajo
de la diagonal principal), entonces |A| = a
11
a
22
. . . a
nn
EJEMPLO 3.3.

0 1 5
3 −6 9
2 6 1

(A)
= −

3 −6 9
0 1 5
2 6 1

(B)
= −3

1 −2 3
0 1 5
2 6 1

(C)
=
−3

1 −2 3
0 1 5
0 10 −5

(D)
=
−(3) (5)

1 −2 3
0 1 5
0 2 −1

(E)
= −(3) (5)

1 −2 3
0 1 5
0 0 −11

= −(3) (5)

1 5
0 −11

=
−(3) (5) (−11) = 165
(A) Se intercambian las filas 1 y 2
(B) La fila 1 es m´ ultiplo de 3
(C) A la fila 3 se le rest´o 2 veces la fila 1
(D) La fila 3 es m´ ultiplo de 5
(E) A la fila 3 se le rest´o 2 veces la fila 2
NOTAS:
1) Desarrollo por cualquier fila o columna
El determinante se ha definido usando los elementos de la primer columna
de la matriz A con sus respectivas matrices adjuntas
|A|
def
= (−1)
1+1
a
11
|A
11
| +. . . + (−1)
i+1
a
i1
|A
i1
| +. . . + (−1)
n+1
a
n1
|A
n1
|
(desarrollo por la primera columna)
114 3. DETERMINANTES
Pero se puede probar
1
que dicha definici´on coincide con cualquier desarrollo
por cualquier columna o fila de A:
|A|
def
= (−1)
i+1
a
i1
|A
i1
| + (−1)
i+2
a
i2
|A
i2
| +. . . + (−1)
i+n
a
in
|A
in
|
(desarrollo por la i −´esima fila)
|A|
def
= (−1)
i+1
a
1i
|A
1i
| + (−1)
i+2
a
2i
|A
2i
| +. . . + (−1)
i+n
a
ni
|A
ni
|
(desarrollo por la i −´esima columna)
2) Propiedades ”por columnas”
Tambi´en se puede probar que
|A| =

A
t

con lo cual en todas las propiedades anteriores se puede cambiar la palabra
”fila” por ”columna”, es decir que las propiedades valen para las columnas
3.3. Matrices elementales y determinantes
PROPOSICI
´
ON 3.4. Toda matriz elemental tiene determinante no nulo
Demostraci´ on. 1- La matriz E
1
(ver 2.15) que est´a asociada a la operaci´on
elemental e
1
”multiplicar la fila i por la constante α = 0” tiene determiante
|E
1
| = α|I| = α = 0
pues E
1
se obtiene de la matriz identidad I aplicando dicha propiedad
2- La matriz E
2
(ver 2.16) que est´a asociada a la operaci´on elemental e
2
”intercambiar la fila i por la fila j” tiene determinante
|E
2
| = −|I| = −1
pues E
2
se obtiene de la matriz identidad I aplicando dicha propiedad
3- La matriz E
3
(ver 2.17) que est´a asociada a la operaci´on elemental e
3
“sumarle a fila i un m´ ultiplo de la fila j” tiene determinante
|E
3
| = |I| = 1
1
Es engorroso y no lo haremos aqu´ı pero el lector puede consultar por ejemplo (Teo-
rema 3 y 5 pag 87 del texto Algebra y geometr´ıa de E. Hernandez)
3.3. MATRICES ELEMENTALES Y DETERMINANTES 115
pues E
3
se obtiene de la matriz identidad I aplicando dicha propiedad.
PROPOSICI
´
ON 3.5. Si A es una matriz n×n y E una matriz elemental
n ×n se cumple que
|EA| = |E| |A|
Demostraci´ on. 1- Sea E
1
la matriz que est´a asociada a la operaci´on ele-
mental ”multiplicar la fila i por la constante α = 0” (ver 2.15)
Por la Proposici´on 3.4
(3.21) |E
1
| = α|I| = α
Si B es la matriz que se obtiene al aplicar la operaci´on e
1
, por las pro-
piedades de determinantes
(3.22) |B| = α|A|
y por la Proposici´on 2.23 se cumple que E
1
A = B, con lo cual
(3.23) |E
1
A| = |B|
al sustituir (3.21) y (3.22) en (3.23)
|E
1
A| = |E
1
| |A|
2- Sea E
2
la matriz que est´a asociada a la operaci´on elemental e
2
”in-
tercambiar la fila i por la fila j” (ver 2.16)
Por la Proposici´on 3.4
(3.24) |E
2
| = −|I| = −1
Si B es la matriz que se obtiene al aplicar la operaci´on e
2
, por las pro-
piedades de determinantes
(3.25) |B| = −|A|
y por la Proposici´on 2.23 se cumple que E
2
A = B, con lo cual
(3.26) |E
2
A| = |B|
al sustituir (3.24) y (3.25) en (3.26)
|E
1
A| = |E
1
| |A|
116 3. DETERMINANTES
3- Sea E
3
la matriz que est´a asociada a la operaci´on elemental e
3
”su-
marle a fila i un m´ ultiplo de la fila j” (ver 2.17)
Por la Proposici´on 3.4
(3.27) |E
3
| = |I| = 1
Si B es la matriz que se obtiene al aplicar la operaci´on e
3
, por las pro-
piedades de determinantes
(3.28) |B| = |A|
y por la Proposici´on 2.23 se cumple que E
3
A = B, con lo cual
(3.29) |E
3
A| = |B|
al sustituir (3.27) y (3.28) en (3.29)
|E
1
A| = |E
1
| |A|
pues E
3
se obtiene de la matriz identidad I aplicando dicha propiedad.
3.4. Matrices invertibles y determinantes
Ya vimos que una matriz A n×n es invertible si y solo si rango(A) = n
Veamos otra condici´on equivalente de invertibilidad
LEMA 3.6. Si A no es invertible la forma escalerizada de A tiene por lo
menos una fila de ceros
Demostraci´ on. Como A no es invertible, se tiene que rango(A) < n
Al aplicar el proceso de escalerizaci´on de Gauss, ( es decir que aplicamos
una sucesi´on de operaciones elementales) obtenemos la matriz B (forma
escalerizada de A)
A
operaci´on e
1
−→ · · · · · ·
operaci´on e
k
−→ B
Es decir que
E
k
, . . . E
2
E
1
A = B
3.5. DETERMINANTE DE UN PRODUCTO DE MATRICES 117
donde E
i
es la matriz asociada a la operaci´on elemental e
i
y por lo tanto
A = E
−1
1
E
−1
2
. . . E
−1
k
B
Como
rango(A) = “cantidad de escalones no nulos de B”
Concluimos que “cantidad de escalones no nulos de B”< n, es decir que B
tiene por lo menos una fila de ceros.
TEOREMA 3.7. Sea A una matriz cuadrada de orden n ×n.
A es invertible ⇔ |A| = 0
Demostraci´ on. (⇒) Si A es invertible, por el corolario 2.27, A puede puede
factorizarse como un producto de matrices elementales
A = E
1
E
2
. . . E
k
Luego, por la proposici´on 3.5
|A| = |E
1
E
2
. . . E
k
| = |E
1
| |E
2
| . . . |E
k
|
por la proposici´on 3.4 |E
i
| = 0, con lo cual |A| = 0
(⇐) Supongamos, por absurdo, que A no es invertible, Si B es la forma
escalerizada de A, existe una sucesi´on de matrices elementales tales que
E
k
, . . . E
2
E
1
A = B
Pero como |E
i
| = 0 y |B| = 0 (pues por el Lema 3.6 B tiene por lo menos una
fila de ceros), concluimos que |A| = 0, lo cual contradice nuestra hip´otesis
3.5. Determinante de un producto de matrices
TEOREMA 3.8 (Binet-Cauchy). Si A y B son matrices n ×n se cumple
que
|AB| = |A| |B|
118 3. DETERMINANTES
Demostraci´ on. Primer caso A no es invertible
Si A no es invertible ⇒|A| = 0 ⇒|A| |B| = 0
Por otro lado, si A

es la forma escalerizada de A, existe una sucesi´on de
matrices elementales tales
que
E
k
, . . . E
2
E
1
A = A

es decir que
A = E
−1
1
E
−1
2
. . . E
−1
k
A

Luego
|AB| =

E
−1
1
E
−1
2
. . . E
−1
k
A

B

y aplicando la proposici´on 3.5
|AB| =

E
−1
1

E
−1
2

. . .

E
−1
k

A

B

Pero por el Lema 3.6, A

tiene una fila de ceros, y por lo tanto A

B
tambi´en (por la definici´on del producto de matrices), con lo cual |A

B| =
0 ⇒|AB| = 0
Hemos probado que
|AB| = |A| |B| = 0
Segundo caso A es invertible
Si A es invertible, por el corolario 2.27
A = E
1
E
2
. . . E
k
con E
i
matriz elemental
|AB| = |(E
1
E
2
. . . E
k
) B|
y aplicando la proposici´on 3.5
|AB| = |E
1
| |E
2
| . . . |E
k
| |B| = |E
1
E
2
. . . E
k
| |B| = |A| |B| .
3.6. C
´
ALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 119
3.6. C´alculo de la matriz inversa por determinantes
El desarrollo del determinante de la matriz A = ((a
ij
)) por su i-esima
fila es
(3.30) |A| = (−1)
i+1
a
i1
|A
i1
| + (−1)
i+2
a
i2
|A
i2
| +. . . +
+ (−1)
i+j
a
ij
|A
ij
| +. . . + (−1)
i+n
a
in
|A
in
|
El n´ umero c
ij
= (−1)
i+j
|A
ij
| se denomina cofactor del elemento a
ij
de la matriz A. Por lo tanto podemos reescribir el desarrollo (3.30) de la
siguiente manera
(3.31) |A| = a
i1
c
i1
+a
i2
c
i2
+. . . +a
ij
c
ij
+. . . +a
in
c
in
A la matriz cof (A)
def
=

¸
¸
¸
¸
¸
c
11
c
12
. . . c
1n
c
21
c
22
. . . c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
. . . c
nn
¸

se le llama matriz de cofactores de A
LEMA 3.9. Si [cof (A)]
t
es la matriz transpuesta de la matriz de cofactores
de A, esto es
[cof (A)]
t
=

¸
¸
¸
¸
¸
c
11
c
21
. . . c
n1
c
12
c
22
. . . c
n2
.
.
.
.
.
.
.
.
.
.
.
.
c
1n
c
2n
. . . c
nn
¸

se cumple que A[cof (A)]
t
=

¸
¸
¸
¸
¸
|A| 0 . . . 0
0 |A| . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . |A|
¸

.
Demostraci´ on. Si A[cof (A)]
t
= ((d
ii
)) queremos probar que:
1. Los elementos de la diagonal de la matriz A[cof (A)]
t
son todos igua-
les a |A|, esto es d
ii
= |A| .
120 3. DETERMINANTES
2. Los elementos que no son de la diagonal de la matriz A[cof (A)]
t
son
todos nulos, esto es d
ij
= 0 (i = j)
Probemos 1. Para ello calculamos el elemento d
ii
de la matriz A[cof (A)]
t

¸
¸
¸
¸
¸
. . . . . . c
i1
. . . . . .
. . . . . . c
i2
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . c
in
. . . . . .
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
a
i1
a
i2
. . . a
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
.
.
.
¸

¸
¸
¸
¸
¸
¸
¸
. . . . . . ↓ . . . . . .
. . . . . . ↓ . . . . . .
→ → d
ii
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . . . . . . .
¸

Por lo tanto d
ii
= a
i1
c
i1
+a
i2
c
i2
+. . . +a
ij
c
ij
+. . . +a
in
c
in
, pero por (3.31)
|A| = a
i1
c
i1
+a
i2
c
i2
+. . . +a
ij
c
ij
+. . . +a
in
c
in
, con lo cual d
ii
= |A| .
Probemos 2. Calculamos el elemento d
ij
de la matriz A[cof (A)]
t

¸
¸
¸
¸
¸
. . . . . . . . . c
j1
. . .
. . . . . . . . . c
j2
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . c
jn
. . .
¸

¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
. . . .
.
.
.
.
.
.
.
.
. . . .
.
.
.
a
i1
a
i2
. . . a
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
.
.
.
¸

¸
¸
¸
¸
¸
¸
¸
. . . . . . . . . ↓ . . .
. . . . . . . . . ↓ . . .
→ → → d
ij
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . . . . . . .
¸

Por lo tanto d
ij
= a
i1
c
j1
+a
i2
c
j2
+. . . +a
ik
c
jk
+. . . +a
in
c
jn
.
Por otro lado consideremos la matriz B que se obtiene de A cambiando la
3.6. C
´
ALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 121
fila j por la fila i:
B =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
· · · a
1n
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
. · · ·
.
.
.
a
i1
a
i2
· · · a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸

· · ·
· · ·
←− fila i
· · ·
←− fila j
.
.
.
· · ·
Si calculamos el determinante de B desarrollando por la j-esima fila se tiene
que
|B| = (−1)
j+1
b
j1
|B
j1
| + (−1)
j+2
b
j2
|B
j2
| +. . . +
+ (−1)
j+k
b
jk
|B
jk
| +. . . + (−1)
j+n
b
jn
|B
jn
|
pero como b
jk
= a
ik
y B
jk
= A
jk
, resulta que
|B| = (−1)
j+1
a
i1
|A
j1
| + (−1)
j+2
a
i2
|A
j2
| +. . . +
+ (−1)
j+k
a
ik
|A
jk
| +. . . + (−1)
j+n
a
in
|A
jn
|
pero c
jk
= (−1)
j+k
|A
jk
|, por lo cual
|B| = a
i1
c
j1
+a
i2
c
j2
+. . . +a
ik
c
jk
+. . . +a
in
c
jn
.
Esto prueba que |B| = d
ij
. Como |B| = 0 (pues tiene dos filas iguales), se
prueba lo deseado.
PROPOSICI
´
ON 3.10. Si A es invertible, se tiene que
A
−1
=
1
|A|
[cof (A)]
t
Demostraci´ on. Por el lema anterior
122 3. DETERMINANTES
A[cof (A)]
t
=

¸
¸
¸
¸
¸
|A| 0 . . . 0
0 |A| . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . |A|
¸

= |A|

¸
¸
¸
¸
¸
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
¸

= |A| I
Siendo A invertible se tiene que |A| = 0, con lo cual
1
|A|
A[cof (A)]
t
= I ;
esto es
A

1
|A|
[cof (A)]
t

I,
lo cual prueba que A
−1
=
1
|A|
[cof (A)]
t
.
La matriz A =

¸
¸
1 −1 2
4 2 4
5 0 1
¸

es invertible pues |A| = −34 ; calculemos
los cofactores de A

¸
¸
× × ×
× 2 4
× 0 1
¸

⇒A
11
=

2 4
0 1

⇒|A
11
| =

2 4
0 1

= 2 ⇒c
11
= 2
y trabajando de la misma manera se obtienen
|A
21
| =

−1 2
0 1

= −1 ⇒c
21
= 1; |A
31
| =

−1 2
2 4

= −8 ⇒c
31
= −8;
|A
12
| =

4 4
5 1

= −16 ⇒c
12
= 16; |A
22
| =

1 2
5 1

= −9 ⇒c
22
= −9;
|A
32
| =

1 2
4 4

= −4 ⇒c
32
= 4; |A
13
| =

4 2
5 0

= −10 ⇒c
13
= −10;
|A
23
| =

1 −1
5 0

=⇒c
23
= −5; |A
33
| =

1 −1
4 2

= 6 ⇒c
33
= 6
Por lo tanto cof (A) =

¸
¸
2 16 −10
1 −9 −5
−8 4 6
¸

con lo cual
3.7. REGLA DE CRAMER 123
A
−1
=
1
|A|
[cof (A)]
t
=
1
−34

¸
¸
2 1 −8
16 −9 4
−10 −5 6
¸

=

¸
¸

1
17

1
34
4
17

8
17
9
34

2
17
5
17
5
34

3
17
¸

.
3.7. Regla de Cramer
TEOREMA 3.11 (Cramer 1). Si |A| = 0 entonces el sistema Ax = b es
compatible y determinado y su soluci´ on (´ unica) es
x
j
=
|A
j
|
|A|
j = 1, 2 . . . , n
donde A
j
es la matriz que se obtiene de A sustituyendo la columna j por b
Demostraci´ on. Como |A| = 0, existe A
−1
, por lo tanto Ax = b ⇔ x =
A
−1
b lo que prueba la existencia y la unicidad de la soluci´on
x = A
−1
b ⇔x =

1
|A|
[cof (A)]
t

b ⇔

¸
¸
¸
¸
¸
¸
¸
¸
x
1
.
.
.
x
j
.
.
.
x
n
¸

=
1
|A|

¸
¸
¸
¸
¸
¸
¸
¸
c
11
c
21
. . . c
n1
.
.
.
.
.
.
.
.
.
.
.
.
c
1j
c
2j
. . . c
nj
.
.
.
.
.
.
.
.
.
.
.
.
c
1n
c
2n
. . . c
nn
¸

¸
¸
¸
¸
¸
b
1
b
2
.
.
.
b
n
¸


¸
¸
¸
¸
¸
¸
¸
¸
x
1
.
.
.
x
j
.
.
.
x
n
¸

=
1
|A|

¸
¸
¸
¸
¸
¸
¸
¸
c
11
b
1
+c
21
b
2
+. . . +c
n
b
n
.
.
.
c
j
b
1
+c
2j
b
2
+. . . +c
nj
b
n
.
.
.
c
n
b
1
+c
2n
b
2
+. . . +c
n
2b
n
¸

Por lo tanto
(3.32) x
j
=
1
|A|
(c
1j
b
1
+c
2j
b
2
+. . . +c
nj
b
n
) j = 1, 2 . . . , n
124 3. DETERMINANTES
Por otro lado si consideramos la matriz
A
j
=

¸
¸
¸
¸
¸
a
11
· · · b
1
· · · a
1n
a
i1
· · · b
2
· · · a
in
.
.
.
.
.
.
.
.
. · · ·
.
.
.
a
n1
· · · b
n
· · · a
nn
¸

que se obtiene de A sustituyendo la columna j por b, y desarrollamos el
determinante de A
j
por la columna j se tiene que
|A
j
| = (−1)
j+1
b
1
|A
1j
| + (−1)
j+2
b
2
|A
2j
| +. . . + (−1)
j+n
b
j
|A
nj
|
= c
1j
b
1
+c
2j
b
2
+. . . +c
nj
b
n
Al sustituir en (3.32) se obtiene x
j
=
|A
j
|
|A|
j = 1, 2 . . . , n.
EJEMPLO 3.4. Vamos a resolver el sistema

x + 2y −z = 7
2x +y +z = 6
x −y + 3z = −1
usando
la regla de Cramer. En este caso A =

¸
¸
1 2 −1
2 1 1
1 −1 3
¸

y b =

¸
¸
7
6
−1
¸

Como |A| = −3 = 0 el sistema es compatible y determinado y sus
soluciones son
x =
|A
1
|
|A|
=

7 2 −1
6 1 1
−1 −1 3

−3
=
5
3
,
y =
|A
2
|
|A|
=

1 7 −1
2 6 1
1 −1 3

−3
=
8
3
, z =
|A
3
|
|A|
=

1 2 7
2 1 6
1 −1 −1

−3
= 0

TEOREMA 3.12 (Cramer 2). Si |A| = 0 y existe j
0
tal que |A
j
0
| = 0
entonces el sistema Ax = b es incompatible
3.7. REGLA DE CRAMER 125
EJEMPLO 3.5. Como |A| = 0 se tiene que rango (A) < n. Por otro lado
si
¯
A = (A| b) es la matriz ampliada del sistema, como las columnas de A
j
0
son tambi´en columnas de
¯
A se tiene que
rango

¯
A

≥ rango (A
j
0
)
Adem´as rango (A
j
0
) = n, por ser |A
j
0
| = 0, con lo cual n ≤ rango

¯
A

.
Por lo tanto rango (A) < rango

¯
A

y por el teorema de Rouch´e - Frobe-
nius el sistema Ax = b es incompatible.
OBSERVACI
´
ON 3.13. Un error frecuente es decir que: Si |A| = 0 y
|A
j
| = 0 entonces el sistema Ax = b es indeterminado. Veamos ejemplos.
EJEMPLO 3.6. Para el sistema de ecuaciones

x +y +z = 1
x +y +z = 1
x +y +z = 0
se tiene
que
A =

¸
¸
1 1 1
1 1 1
1 1 1
¸

b =

¸
¸
1
1
0
¸

Por lo tanto |A| = |A
1
| = |A
2
| = |A
3
| = 0, sin embargo es evidente que
el sistema es incompatible. Mientras que para el sistema de ecuaciones

x +y +z = 1
x +y +z = 1
x +y +z = 1
se tiene que A =

¸
¸
1 1 1
1 1 1
1 1 1
¸

, b =

¸
¸
1
1
1
¸

y tambi´en
se cumple que |A| = |A
1
| = |A
2
| = |A
3
| = 0, pero el sistema es compatible
e indeterminado.
126 3. DETERMINANTES
CAP´ıTULO 4
RECTAS Y PLANOS EN EL ESPACIO
4.1. Introducci´on
El prop´osito del presente cap´ıtulo -y del cap´ıtulo denominado Producto
Escalar y Vectorial- es dar una presentaci´on sucinta de la Geometr´ıa Anal´ıti-
ca del Espacio, que permita trabajar matem´aticamente con los objetos del
espacio ambiente. En un sentido muy vago y deliberadamente informal
entendemos por tal al modelo espacial en que transcurren la mayor´ıa de los
fen´omenos analizados por la Mec´anica y otras teor´ıas cient´ıficas Cl´asicas.
Estas teor´ıas se refieren a los acontecimientos m´as o menos directamente
percibidos por los seres humanos.
Esta presentaci´on incluir´a la formalizaci´on del concepto de vector que el
lector conoce de sus cursos de Nivel Secundario. Por un lado, en los cursos
de Geometr´ıa ha trabajado con las traslaciones que, como recordar´a, est´an
determinadas por vectores. En general el vector se define en esos cursos como
una clase de equivalencia de segmentos orientados con la misma direcci´on,
sentido y congruentes (dos figuras son congruentes si se corresponden por
una isometr´ıa).
Por otro lado, en F´ısica ha trabajado con ciertas “magnitudes” (fuer-
za, velocidad, aceleraci´on, etc.) llamadas “vectoriales”. Estas se distinguen
claramente de otras llamadas “escalares” (masa, temperatura, etc.) porque
las ´ ultimas quedan determinadas por un ´ unico dato num´erico, en cambio las
primeras requieren m´as informaci´on para caracterizarlas: “m´odulo”, “direc-
ci´on” y “sentido”. Las magnitudes vectoriales se representan adem´as gr´afi-
camente mediante una “flecha” y a pesar de las diferencias que ya marcamos
con los “escalares” tienen algo en com´ un: con ambos se realizan operaciones.
127
128 4. RECTAS Y PLANOS EN EL ESPACIO
/
F
1
F
2
F
r
Figura 1
Por ejemplo cuando se aplican dos fuerzas

F
1
y

F
2
sobre un mismo cuerpo
el resultado es el mismo que si se aplicara una ´ unica fuerza

F
r
con m´odulo,
direcci´on y sentido igual a la diagonal del paralelogramo de lados

F
1
y

F
2
(ver figura 4.1). Se dice entonces que

F
r
=

F
1
+

F
2
o que

F
r
es la resultante de

F
1
y

F
2
, de este modo la “suma de vectores”
cobra sentido. Si

F
1
=

F
2
entonces

F
r
= 2

F
1
con lo cual tambi´en cobra
sentido la multiplicaci´on de escalares por vectores.
Nuestra intenci´on es introducir el concepto de “vector” de una manera
m´as rigurosa y utilizarlo para desarrollar algunas aplicaciones a la Geo-
metr´ıa Anal´ıtica del Espacio. Al mismo tiempo queremos destacar que este
concepto de vector servir´a de fuente de inspiraci´on para uno de los obje-
tos fundamentales de este curso. M´as adelante daremos una definici´on m´as
general y abstracta de vector perteneciente a un espacio vectorial con
m´ ultiples aplicaciones dentro y fuera de la matem´atica. Este tipo de pro-
cesos de generalizaci´on desde ejemplos hacia conceptos abstractos permite
dar un tratamiento unificado a m´ ultiples objetos a menudo de apariencia
dis´ımil pero con propiedades esenciales comunes. Para poder hacerlos se de-
be estudiar con cuidado los ejemplos sencillos tratando de destacar estas
propiedades.
4.2. VECTORES 129
4.2. Vectores
El espacio ambiente, que denotaremos con la letra E, est´a formado por
puntos designados en general con letras may´ usculas A, B, P, Q, .... Dos pun-
tos distintos definen una ´ unica recta y tres puntos no contenidos en una
recta definen un plano. En este cap´ıtulo se dar´a una descripci´on anal´ıtica
de recta, plano y sus relaciones de intersecci´on.
La longitud del segmento entre dos puntos de E define la distancia
entre dos puntos d : E ×E −→R
+
, que satisface
d(A, B) = d(B, A) ∀A ∈ E
d(A, B) = 0 si y s´olo si A = B
d(A, C) ≤ d(A, B) +d(B, C) ∀A, B, C ∈ E.
A este concepto elemental de distancia agregamos ahora el de vector.
Pretendemos formalizar lo que antes hemos denominado una “flecha” como
un objeto que tenga “modulo”, “direcci´on” y “sentido”. ¿Qu´e datos son nece-
sarios para dibujarla? En principio basta indicar un par de puntos ordenados
(A, B) el punto A ser´a el origen y el punto B el extremo del segmento orien-
tado (“flecha”). Consideremos dos segmentos orientados como en la figura
A
B
A

B

Figura 2
4.2 de modo que AA

B

B sea un paralelogramo, el par (A, B) es distinto
de (A

, B

). Sin embargo por ser AA

B

B un paralelogramo ambas segmen-
tos orientados tienen igual direcci´on (las rectas AB y A

B

son paralelas),
m´odulo (d(A, B) = d(A

, B

)) y sentido. Solo se diferencian en el punto de
base o de “aplicaci´on”. No estamos interesados en que nuestro concepto de
130 4. RECTAS Y PLANOS EN EL ESPACIO
vector distinga objetos por su punto de aplicaci´on as´ı que deberemos ser m´as
cuidadosos en nuestra definici´on y adoptar una que no distinga entre dos
flechas como (A, B) y (A

, B

). Una manera de lograr esto es identific´andolas
mediante una relaci´on de equivalencia.
Para ello definimos una relaci´on de equivalencia entre pares ordenados
de puntos de E: AB ∼ /A

B

si y s´olo si ABB

A

es un paralelogramo.
´
Esta es una relaci´on de equivalencia de acuerdo con la definici´on dada en el
Cap´ıtulo 0.
Obs´ervese que:
1) Es f´acil probar que AB ∼ A

B

si y s´olo si el punto medio C de AB

/
coincide con el de A

B; o sea que una misma simetr´ıa central de centro C
lleva A en B

y A

en B.
2) Tambi´en se puede dar una definici´on de la relaci´on de equivalencia en
t´ermino de traslaciones.
3) Todas estas definiciones s´olo utilizan elementos de la geometr´ıa plana.
Llamaremos vector del espacio E a una clase de equivalencia deter-
minada por esta relaci´on. Cualquier pareja de puntos de una clase de equi-
valencia representa al correspondiente vector. Si la pareja es AB, el vector
por ella representado se escribir´a de cualquiera de las siguientes maneras
v =
−−→
AB = B − A. Dada una representaci´on AB de un vector v llamaremos
origen (o punto base) al punto A, y extremo al punto B.
Denominaremos con la letra V al conjunto de estos vectores. Obs´ervese
que el espacio V incluye al vector nulo
−→
o =
−→
AA, para cualquier A ∈ E.
Dado un punto P ∈ E y un vector v ∈ V , es claro que existe un ´ unico
4.3. OPERACIONES CON VECTORES. 131
punto Q ∈ E tal que
−−→
PQ = v, o sea que hay un ´ unico representante de v
que tiene origen en P: ese representante es PQ. Dado P, y si v est´a dado
por una pareja AB (o sea v =
−−→
AB) para hallar Q alcanza con construir el
paralelogramo PABQ. De esta manera hemos definido una funci´on que a
pareja de punto de E y vector de V , le hace corresponder otro punto de E ,
de la siguiente manera: (P, v) −→Q ⇐⇒
−−→
PQ = v. Escribiremos / Q = P +v
y diremos que Q es la suma de P m´as v.
4.3. Operaciones con vectores.
La suma de dos vectores es otro vector, o sea que se trata de definir
una funci´on que a parejas de vectores le haga corresponder otro vector:
(v, w) −→ v + w. Dados dos vectores v, w ∈ V , se tomar´an representantes
de cada uno de ellos de modo que el extremo del representante de v sea el
origen del de w. O sea, que si v =
−−→
AB , tomamos w =
−−→
BC. Decimos que
−→
AC representa al vector suma v +w; o sea que
−−→
AB +
−−→
BC =
−→
AC.
Es f´acil ver que el vector suma no depende del representante elegido para
v ; o sea que si
−−→
A

B

= v (y
−−→
B

C

= w) entonces
−−→
A

B

+
−−→
B

C

=
−→
AC. Para
verificar esta independencia de los representantes, se recomienda -como para
casi todas las pruebas de este cap´ıtulo- hacer los dibujos correspondientes.
Conviene observar desde ya que para cualquier v =
−−→
AB , resulta
−→
o +v =
v +
−→
o = v (alcanza con tomar el representante AA o BB, seg´ un el caso,
de
−→
o ). Adem´as el vector
−−→
BA sumado a v da
−→
o :
−−→
AB +
−−→
BA =
−→
AA =
−→
o .
132 4. RECTAS Y PLANOS EN EL ESPACIO
Llamaremos opuesto de v al vector representado por BA, y lo escribiremos
−v. Adem´as (h´aganse los dibujos), para todo A, B, C, D ∈ E vale A−B =
C −D =⇒A−C = B −D.
Para definir el producto de un n´ umero real por un vector se debe
andar con m´as cuidado, distinguiendo diferentes casos y utilizando el con-
cepto de distancia. Se trata de definir una funci´on (a, v) −→av , para todo
a ∈ R, v ∈ V . Obs´ervese que no hemos indicado el producto del n´ umero
real a por el vector v con ning´ un s´ımbolo; sencillamente hemos colocado av
juntos. Esto podr´ıa dar lugar a confusiones, pero siendo a y v elementos de
conjuntos en general distintos, hemos preferido la simplificaci´on de no usar
s´ımbolo expl´ıcito para este producto. Sea v =
−−→
AB,
- si a ≥ 0, en la semirrecta AB se elige el ´ unico C tal que d(A, C) = ad(A, B).
O sea que C est´a del mismo lado que B respecto a A, en la recta determi-
nada por A y B
- Si a < 0, se elige C en el lado opuesto al que est´a B respecto de A, de
modo que d(A, C) = |a|d(A, B).
En ambos casos se define
−→
AC = a
−−→
AB = av. Se observa f´acilmente que es-
ta definici´on no depende del representante de v que se haya elegido. Obs´erve-
se tambi´en que la multiplicaci´on del n´ umero cero por cualquier vector da el
vector nulo: 0v =
−→
o , para todo v ∈ V . Igualmente, el vector opuesto −v
se obtiene multiplicando v por el n´ umero −1; o sea que (−1)v + v =
−→
o .
Diremos que dos vectores u, v son colineales (o paralelos o que tienen la
misma direcci´on) si u = av para alg´ un n´ umero real a. Tambi´en diremos
que u es m´ ultiplo de v. Si a > 0 diremos que adem´as tienen el mismo
sentido. Si a = ±1 tienen el mismo m´odulo. Esta definici´on lleva a que el
vector nulo sea colineal con todo vector de V , porque el n´ umero real puede
ser el cero.
Estas dos operaciones de suma de vectores y producto por un real, ve-
rifican las siguientes ocho propiedades (u, v, w son cualesquiera vectores de
V y a, b son cualesquiera n´ umeros reales):
[S1] [Conmutativa] u +v = v +u,
[S2] [Asociativa] u + (v +w) = (u +v) +w, ∀ X, Y, Z ∈ R
n
.
4.3. OPERACIONES CON VECTORES. 133
[S3] [Neutro de la suma] Existe un vector
−→
o tal que v +
−→
o = v,
[S4] [Existencia de opuesto] Existe −v tal que v + (−v) =
−→
o ;
[P1] [Asociativa del producto] a(bv) = (ab)v,
[P2] [Neutro del producto] 1v = v
[P3] [Distributiva] (a +b)v = av +bv,
[P4] [Distributiva] a(u +v) = au +av.
Obs´ervese los distintos significados que tienen los productos (sus s´ımbo-
los est´an omitidos) en P1; y las sumas, en P3. Para probar estas propieda-
des para los vectores de V recomendamos una vez m´as hacer dibujos claros,
aplicar bien las definiciones de cada una de las operaciones y luego apli-
car propiedades elementales de geometr´ıa plana y de los n´ umeros reales.
Como ejemplo daremos la prueba de P1. Si v =
−−→
AB, sean (ab)v =
−→
AC
y a(bv) =
−−→
AD con C, D en la recta AB. Si a ´o b es cero, el resultado es
A = C = D o sea
−→
AC =
−−→
AD =
−→
o . Si a, b tienen el mismo signo, C y
D est´an en la semirrecta de origen A por B y d(A, C) = d(A, D) = ab,
por lo que C = D. Si a > 0, b < 0, C est´a en el lado opuesto a B y D
tambi´en porque bv tiene sentido opuesto a v y a(bv) tiene el sentido de bv;
adem´as d(A, C) = d(A, D) = |ab|; por tanto C y D coinciden. M´as adelante
se considerar´an entes matem´aticos entre cuyos elementos se pueden definir
operaciones que verifican este conjunto de propiedades. Se ver´a que con s´olo
ellas se puede desarrollar la teor´ıa m´as simple, abstracta y abarcativa de
espacios vectoriales. Tambi´en es importante tener presente las siguien-
tes propiedades que relacionan la suma de punto y vector con la suma de
vectores (∀ A, B, C, D ∈ E, v, w ∈ V ):
1. A+ (v +w) = (A +v) +w.
2. A+ (B −A) = B; (A +w) −A = w.
3. A+
−→
o = A; A−A =
−→
o .
4. (B −A) +u = (B +u) −A = B −[A+(−u)]. Como ejemplo, veremos la
prueba de 4. Si w = (B−A) +u, resulta A+w = [A+(B−A)] +u = B+u,
por 2. Luego w = (B + u) − A por la segunda parte de 2. Esto prueba la
primera igualdad. Adem´as [A + (−u)] + w = A + [−u + (B + u) − A] =
A + [−u + (B − A) + u] = A + (B − A) = B; se han usado sucesivamente
134 4. RECTAS Y PLANOS EN EL ESPACIO
1., la definici´on de w, la primera igualdad de 4. y la primera de 2. Entonces
w = B −(A + (−u)) y queda demostrada la segunda igualdad de 4.
4.4. Ecuaciones vectoriales de rectas y planos. Paralelismo
Recta. Sea r la recta de E definida por los puntos A y B. De acuerdo
con lo visto en la definici´on de producto de un vector por un n´ umero real,
todos los puntos de esa recta quedan descriptos por A + λ
−−→
AB, al variar
λ entre los n´ umeros reales. O sea que todo punto P ∈ r es de la forma
P = A+λ
−−→
AB para alg´ un λ ∈ R. Tambi´en se puede dar una recta s por un
punto A ∈ E y un vector no nulo v ∈ V , llamado vector director de la
recta s. En este caso resulta s = {P ∈ E : P = A + λv, λ ∈ R}. Dos rectas
con vectores directores v, w son paralelas si y s´olo si v es colineal con w.
Si adem´as, ambas rectas paralelas tienen un punto en com´ un, ellas son la
misma recta. En efecto si las rectas son de la forma A + λv, B + µw con
w = a
1
v y B = A + λ
1
v, resulta que todo punto de la segunda recta es de
la forma B +µw = A+ (λ
1
+a
1
µ)v, o sea que es de la primera recta.
Plano. Dados tres puntos no pertenecientes a la misma recta (no colinea-
les) A, B, C ∈ E, el plano π por ellos definido esta formado por el conjunto
de puntos de la forma A +λ
−−→
AB +µ
−→
AC con λ, µ ∈ R. De igual manera que
en caso de las rectas, un plano tambi´en queda bien definido por un pun-
to A y dos vectores u, v no colineales. En este caso π = {P ∈ E : P =
A + λu + µv, λ, µ ∈ R}. Cualquier pareja de vectores u, v no colineales que
definan un plano de esa manera se denominar´an vectores directores del
plano.
Dos planos π, π

son paralelos si todo vector con representantes de-
finidos por dos puntos de π, tiene tambi´en representantes con dos puntos
de π

. Diremos, un tanto imprecisamente, que los vectores son de π y π

.
Hallaremos una condici´on necesaria y suficiente para que dos planos π, π

de
las formas P = A+λu+µv, P

= A

+au

+bv

, u, v no colineales, u

, v

no
colineales, sean paralelos. Obs´ervese primero que todos los vectores determi-
nados por dos puntos del plano π son de la forma
−→
AP = λu +µv. Para que
los dos planos sean paralelos no es necesario que u, u

y v, v

sean colineales,
4.5. SISTEMAS DE COORDENADAS 135
sino que los vectores u

, v

se puedan escribir como suma de m´ ultiplos de
u, v. En efecto si u

= λ
1
u+µ
1
v, v

= λ
2
u+µ
2
v resulta que todo vector de
π

es de la forma au

+bv

= (aλ
1
+bλ
2
)u+(aµ
1
+bµ
2
)v; o sea que tambi´en
lo es de π. Si u

y v

se escriben de aquella manera como combinaciones
lineales de u, v, se pueden despejar u y v de la siguiente manera
v =
λ
2
u

−λ
1
v

λ
2
µ
1
−λ
1
µ
2
, u =
−µ
2
u


1
v

λ
2
µ
1
−λ
1
µ
2
(que tiene sentido porque si fuera λ
2
µ
1
−λ
1
µ
2
= 0 resultar´ıa λ
2
u

−λ
1
v

= 0
y ser´ıan u

, v

colineales, lo cual va contra una suposici´on inicial); por un
razonamiento igual que el anterior resulta que todo vector de π tambi´en es
vector de π

.
4.5. Sistemas de coordenadas
Comencemos con dos definiciones de gran trascendencia. v es una com-
binaci´on lineal de los vectores v
1
, v
2
, · · · , v
n
∈ V si es de la forma
v = a
1
v
1
+a
2
v
2
+· · ·+a
n
v
n
con a
1
, a
2
, · · · , a
n
∈ R. Una base de V es un con-
junto de vectores {v
1
, v
2
, · · · , v
n
} ⊂ V tal que todo vector v ∈ V se escribe de
manera ´ unica como combinaci´on lineal de ese conjunto. O sea, si para cada
v ∈ V existen ´ unicos a
1
, a
2
, · · · , a
n
∈ R tales que v = a
1
v
1
+a
2
v
2
+· · ·+a
n
v
n
.
Destacamos la unicidad de la combinaci´on lineal de vectores de la base, pa-
ra generar cada uno de los vectores de V . En un sentido que se aclarar´a en
cap´ıtulos posteriores, una/ base es un conjunto m´ınimo que permite escribir
136 4. RECTAS Y PLANOS EN EL ESPACIO
todos los vectores de V como combinaci´on lineal de ellos. A continuaci´on
mostraremos c´omo son las bases de V .
De acuerdo con las definiciones que venimos dando, es claro que se
pueden elegir cuatro puntos A, B, C, D ∈ E no coplanares (no perte-
necientes a un mismo plano). Diremos tambi´en que los vectores por ellos
determinados son no coplanares. O sea, los vectores u, v, w ∈ V son no
coplanares si w = au + bv para cualesquiera dos n´ umeros reales a, b. Es-
to equivale, si se toman representantes de los vectores con el mismo origen
O : u =
−→
OA, v =
−−→
OB, w =
−−→
OC, a que el punto C no est´e en el plano
determinado por O, A, B, o sea que C = O+a
−→
OA+b
−−→
OB para cualesquiera
n´ umeros reales a, b. Sean cuatro puntos no coplanares O, A, B, C ∈ E. Dado
cualquier punto P ∈ E, consideremos la recta s paralela a OC por P. Ella
corta al plano OAB en P

(que coincide con O si P esta en la recta OC).
Por P

trazamos las paralelas r
1
, r
2
a las rectas OA, OB, respectivamente,
que cortan a OB y OA en B

y A

, respectivamente. Por otro lado, el plano
paralelo a OAB por P corta a la recta OC en el punto C

(que coincide
con O si P esta en el plano OAB). No es dif´ıcil ver, utilizando propiedades
elementales de paralelismo e intersecciones, que se habr´ıa llegado a los mis-
mos puntos A

, B

, C

si se hubieran trazado recta y plano paralelos a por
ejemplo la recta OA y el plano OBC, y seguido el procedimiento indicado
anteriormente. Por la definici´on de suma de vectores aplicada dos veces, se
deduce que
−−→
OP =
−−→
OA

+
−−→
OB

+
−−→
OC

, y por la definici´on de producto de
n´ umero real por vector, se ve el vector
−−→
OA

es colineal con
−→
OA, por lo que
4.5. SISTEMAS DE COORDENADAS 137
−−→
OA

= a
−→
OA para alg´ un a ∈ R. De igual manera
−−→
OB

= b
−−→
OB,
−−→
OC

= c
−−→
OC
para b, c ∈ R. Por tanto v =
−−→
OP = a
−→
OA + b
−−→
OB + c
−−→
OC. Para cada P ∈ E
(o lo que es lo mismo, cada v ∈ V ) los n´ umeros reales a, b, c son ´ unicos pues
si fuera v = a

−→
OA + b

−−→
OB + c

−−→
OC resultar´ıa, suponiendo que, por ejemplo
a = a

: (a −a

)
−→
OA = (b

−b)
−−→
OB + (c

−c)
−−→
OC por lo que
−→
OA =
b

−b
a −a

−−→
OB +
c

−c
a

−a
−−→
OC.
Entonces el punto A estar´ıa en el plano OBC lo cual contradice la hip´otesis
de que los puntos O, A, B, C no son coplanares. Esta demostraci´on vale
para cualesquiera tres vectores
−→
OA,
−−→
OB,
−−→
OC no coplanares. Por tanto hemos
demostrado que tres vectores no coplanares cualesquiera forman una base del
espacio V . Rec´ıprocamente, si tres vectores forman una base de V ellos deben
ser no coplanares. En efecto, si fueran coplanares, tomando representantes
con un mismo origen O, sus extremos determinar´ıan un plano π, y ning´ un
vector
−−→
OP con P ∈ π se podr´ıa escribir como combinaci´on lineal de ellos.
A continuaci´on generalizaremos el concepto de sistema de coordenadas
–que el estudiante ha estudiado en el plano– al espacio E, que es el objeto
principal de esta parte del curso. El estudiante recordar´a que los puntos de
una recta se ponen en correspondencia biun´ıvoca con los n´ umeros reales,
eligiendo un origen y una unidad; y que los puntos de un plano se ponen
en correspondencia biun´ıvoca con las parejas ordenadas de n´ umeros reales
(R
2
) eligiendo un origen y dos ejes transversales que se cortan en ese origen.
Un sistema de coordenadas o referencial de E est´a formado por un
punto O, el origen de coordenadas y una base {v
1
, v
2
, v
3
} de V . Las rectas
determinadas por O y v
1
, v
2
, v
3
se denominan ejes coordenados. Si los
ejes coordenados son perpendiculares se dice que el sistema de coordenadas
es ortogonal. Se suele representar por Ox, Oy, Oz a los ejes coordenados
definidos por O y v
1
, v
2
, v
3
, respectivamente. Se llamar´a plano coordenado
xOy al plano determinado por Ox, Oy. De igual manera se definen los planos
coordenados yOz, zOx.
Por lo que antecede resulta que dado un sistema de coordenadas
{O, v
1
, v
2
, v
3
}, para cada P ∈ E existen n´ umeros ´ unicos x
1
, x
2
, x
3
tales que
138 4. RECTAS Y PLANOS EN EL ESPACIO
P −O = x
1
v
1
+x
2
v
2
+x
3
v
3
; luego, P = O+x
1
v
1
+x
2
v
2
+x
3
v
3
. Decimos que
x
1
, x
2
, x
3
son las coordenadas de P en el sistema {O, v
1
, v
2
, v
3
}. De igual
manera, si v = a
1
v
1
+ a
2
v
2
+ a
3
v
3
, llamaremos coordenadas de v en la
base {v
1
, v
2
, v
3
} a la terna (a
1
, a
2
, a
3
) por lo que esta terna, dependiendo del
contexto al que se refiera, indicar´a a las coordenadas del punto A = O+v ∈
E, o del vector v ∈ V . La determinaci´on de un sistema de coordenadas
establece una correspondencia biun´ıvoca entre el conjunto de los puntos del
espacio E y R
3
, el conjunto de las ternas ordenadas de n´ umeros reales. Como
ejemplos destacamos que el punto elegido como origen de coordenadas tiene
coordenadas (0, 0, 0) ∈ R
3
y el punto O + v
1
tiene coordenadas (1, 0, 0). Se
suele escribir P = (x
1
, x
2
, x
3
), para indicar que x
1
, x
2
, x
3
son las coordenadas
de P en un sistema de coordenadas en el que se est´a trabajando, o que se
da por sobreentendido.
Observaciones
1. Si A = O + a
1
v
1
+ a
2
v
2
+ a
3
v
3
y v = x
1
v
1
+ x
2
v
2
+ x
3
v
3
, entonces
A−O = a
1
v
1
+a
2
v
2
+a
3
v
3
y A−O+v = (a
1
+x
1
)v
1
+(a
2
+x
2
)v
2
+(a
3
+x
3
)v
3
,
por lo que A + v = O + (a
1
+ x
1
)v
1
+ (a
2
+ x
2
)v
2
+ (a
3
+ x
3
)v
3
. Por tanto
las coordenadas del punto A +v son: (a
1
+x
1
), (a
2
+x
2
), (a
3
+x
3
).
2. Si A = O +a
1
v
1
+a
2
v
2
+a
3
v
3
// y B = O +b
1
v
1
+b
2
v
2
+b
3
v
3
, entonces
B −A = (b
1
−a
1
)v
1
+(b
2
−a
2
)v
2
+(b
3
−a
3
)v
3
y las coordenadas del vector
B −A son (b
1
−a
1
, b
2
−a
2
, b
3
−a
3
).
4.6. Ecuaciones param´etricas de rectas y planos
Veamos que forma toman las ecuaciones de rectas y planos en un re-
ferencial {O, v
1
, v
2
, v
3
}. Sea la recta r : P = A + λ(B − A). Supongamos
A = (a
1
, a
2
, a
3
), B = (b
1
, b
2
, b
3
); entonces por la ´ ultima observaci´on de la
secci´on anterior resulta B − A = (b
1
− a
1
)v
1
+ (b
2
− a
2
)v
2
+ (b
3
− a
3
)v
3
, y
por la observaci´on 1., si P tiene coordenadas (x, y, z) los puntos de la recta
r tienen coordenadas
(4.33) x = a
1
+λ(b
1
−a
1
), y = a
2
+λ(b
2
−a
2
), z = a
3
+λ(b
3
−a
3
).
4.7. ECUACIONES IMPL
´
ICITAS DE RECTAS Y PLANOS 139
Si r es de la forma P = A+λv con v = x
1
v
1
+x
2
v
2
+x
3
v
3
se obtiene:
(4.34) x = a
1
+λx
1
, y = a
2
+λx
2
, z = a
3
+λx
3
.
Estas ecuaciones se suelen llamar ecuaciones param´etricas de la rec-
ta, y se suele pedir, por ejemplo “hallar las ecuaciones param´etricas de la
recta”que pasa por los puntos P = (1, 0, 1) y Q = (−2, 1, 2). En realidad
debiera decirse, “hallar unas ecuaciones param´etricas de la recta”porque de-
pendiendo del punto que se tome como base, y del vector director elegido
(uno o cualquier m´ ultiplo -no nulo- de ´el) se obtendr´an diferentes ecuaciones
param´etricas. Sin embargo, dado que la recta es la misma, independiente-
mente de la presentaci´on anal´ıtica elegida, seguiremos refiri´endonos a las
ecuaciones, en todos los casos. La respuesta al ejemplo que antecede es
(x, y, z) = (1, 0, 1) +λ(−3, 1, 1)
Sean tres puntos no alineados A = (a
1
, a
2
, a
3
), B = (b
1
, b
2
, b
3
), C =
(c
1
, c
2
, c
3
). Consideramos el plano de ecuaci´on P = A+λ(B−A)+µ(C−A).
Llamando (x, y, z) a las coordenadas de P, por un razonamiento an´alogo al
utilizado para obtener (4.33), se obtiene
x = a
1
+λ(b
1
−a
1
) +µ(c
1
−a
1
),
y = a
2
+λ(b
2
−a
2
) +µ(c
2
−a
2
), (4.35)
z = a
3
+λ(b
3
−a
3
) +µ(c
3
−a
3
).
Si el plano es de la forma P = A+λv +µw con v = x
1
v
1
+x
2
v
2
+x
3
v
3
, w =
y
1
v
1
+y
2
v
2
+y
3
v
3
se obtiene:
(4.36) x = a
1
+λx
1
+µy
1
, y = a
2
+λx
2
+µy
2
, z = a
3
+λx
3
+µy
3
.
4.7. Ecuaciones impl´ıcitas de rectas y planos
Rectas Las ecuaciones (4.33), si a
1
= b
1
, a
2
= b
2
, a
3
= b
3
, se pueden
escribir de la siguiente manera
(4.37)
x −a
1
b
1
−a
1
=
y −a
2
b
2
−a
2
=
z −a
3
b
3
−a
3
140 4. RECTAS Y PLANOS EN EL ESPACIO
An´alogamente, de (4.34) se deduce, si x
1
, x
2
, x
3
= 0:
(4.38)
x −a
1
x
1
=
y −a
2
x
2
=
z −a
3
x
3
En ambos casos, si alguno de los denominadores fuera cero, el correspondien-
te numerador tambi´en es cero. Tambi´en por eliminaci´on de λ, µ en (4.35), se
obtiene la forma general de la ecuaci´on de un plano (usando determinantes
de matrices dos por dos):
(x −a
1
)

b
2
−a
2
b
3
−a
3
c
2
−a
2
c
3
−a
3

−(y −a
2
)

b
1
−a
1
b
3
−a
3
c
1
−a
1
c
3
−a
3

+
+(z −a
3
)

b
1
−a
1
b
2
−a
2
c
1
−a
1
c
2
−a
2

= 0.
La expresi´on que antecede al signo de igual puede tomarse como la definici´on
del determinante de una matriz 3 por 3 -que ser´a vista en detalle m´as ade-
lante en el curso-, pudi´endose escribir m´as compactamente de la siguiente
manera:
(4.39)

x −a
1
y −a
2
z −a
3
b
1
−a
1
b
2
−a
2
b
3
−a
3
c
1
−a
1
c
2
−a
2
c
3
−a
3

= 0
Partiendo de (4.36) se obtiene otra forma de la ecuaci´on impl´ıcita de un
plano. As´ı, si el plano est´a dado por el punto A = (a
1
, a
2
, a
3
) y los vectores
v = x
1
v
1
+x
2
v
2
+x
3
v
3
, w = y
1
v
1
+y
2
v
2
+y
3
v
3
, la ecuaci´on impl´ıcita toma
la forma
(4.40)

x −a
1
y −a
2
z −a
3
x
1
x
2
x
3
y
1
y
2
y
3

= 0
Desarrollando estos determinantes tenemos, por ejemplo para (4.39)
a(x −a
1
) +b(y −a
2
) +c(z −a
3
) = 0, o tambi´en ax +by +cz +d = 0,
donde a = k

b
2
−a
2
b
3
−a
3
c
2
−a
2
c
3
−a
3

, b = k

b
1
−a
1
b
3
−a
3
c
1
−a
1
c
3
−a
3

,
4.7. ECUACIONES IMPL
´
ICITAS DE RECTAS Y PLANOS 141
c = k

b
1
−a
1
b
2
−a
2
c
1
−a
1
c
2
−a
2

.
Rec´ıprocamente toda ecuaci´on de la ´ ultima forma, en la que por lo menos
uno de los coeficientes a, b, c es distinto de cero, representa un plano porque,
suponiendo, por ejemplo c = 0, ella equivale a las tres ecuaciones
x = λ, y = µ, z = −
d
c
−λ
a
c
−µ
b
c
que son de la forma(4.36). Obs´ervese que los coeficientes a, b, c s´olo dependen
de los vectores directores del plano. Dado que planos paralelos se pueden
determinar con los mismos vectores directores, resulta que dos planos
ax +by +cz +d = 0, a

x +b

y +cz +d

= 0.
son paralelos si y s´olo si a = pa

; b = pb

; c = pc

para alg´ un real
p. Si, adem´as, d = pd

ambas ecuaciones representan el mismo plano.
Observamos tambi´en que, por ejemplo de (4.38) se puede deducir
x −a
1
x
1
=
y −a
2
x
2
,
x −a
1
x
1
=
z −a
3
x
3
que se reduce a
(4.41) ax +by +cz +d = 0, a

x +b

y +c

y +d

= 0.
Estas dos ecuaciones indican la propiedad bien conocida de toda recta puede
determinarse por dos planos que se cortan en ella.
Ej. 1. En el ejemplo de la secci´on anterior, las ecuaciones impl´ıcitas de la
recta por P y Q (recordar las disquisiciones sobre las y unas ecuaciones) son
x −1
−3
= y = z −1, o bien x + 3y = 1, y −z = −1
Ej. 2. Las ecuaciones impl´ıcitas de la recta por (2, 1, 0), (3, 1, 5) son x−2 =
z −5/5, y = 1
Ej. 3. Las ecuaciones p`aram´etricas del plano por (1, 1, 0) que tiene por
vectores directores u = (−1, 0, 2) y v = (1, 3, 3) son
x = 1 −λ +µ, y = 1 + 3µ z = 2λ + 3µ.
142 4. RECTAS Y PLANOS EN EL ESPACIO
Su ecuaci´on impl´ıcita es −6x + 5y −3z + 1 = 0.
Ej. 4. x −2y = 0 es la ecuaci´on de un plano paralelo al eje coordenado Oz,
que corta al plano xOy seg´ un la recta z = 0, x −2y = 0.
Ej. 5. Ecuaci´on del plano paralelo al de ecuaci´on x+y +z = 0 por el punto
(1,1,1). Ser´a de la forma x +y +z +d = 0, por el punto (1, 1, 1); por tanto
1 + 1 + 1 +d = 0 y resulta d = −3.
El lector atento ya habr´a percibido que si (x, y, z) designa las coorde-
nadas gen´ericas de cualquier punto del espacio, dado un cierto sistema de
coordenadas,la ecuaci´on impl´ıcita de un plano viene dado por una ecuaci´on
lineal en (x, y, z); en general la ecuaci´on de cualquier superficie vendr´a dada
por una ecuaci´on. Y una recta, vendr´a dada por dos ecuaciones. Los puntos
que verifican las dos ecuaciones ser´an los de la recta.
4.8. Posiciones relativas de rectas y planos.
En esta secci´on se ver´ a que el estudio de las posiciones relativas de
rectas y planos llevan naturalmente a plantearse la resoluci´on de sistemas
de ecuaciones.
Dadas dos rectas en el espacio, podemos simplificar sus posiciones
relativas en tres categor´ıas. O bien se cruzan sin cortarse (esta es la po-
sici´on gen´erica, la m´as com´ un), o bien se cortan en un solo punto, o bien
son paralelas (este caso incluye el de las rectas coincidentes. El caso de que
sean paralelas ya fue analizado: son rectas con vectores directores colineales
(uno m´ ultiplo del otro) y coinciden o no seg´ un tengan alg´ un punto com´ un o
no. Si los vectores directores no son colineales se trata de encontrar puntos
comunes a las dos rectas. Para ello se estudia el sistema de ecuaciones for-
mado al igualar las ecuaciones de sus coordenadas. Si las rectas se dan en
forma param´etrica se tendr´ a un sistema con tres ecuaciones y dos inc´ognitas
(los par´ametros de cada una de las rectas). Este sistema, si los vectores di-
rectores no son colineales, puede ser compatible determinado (una soluci´on
formada por una pareja de n´ umeros correspondientes a cada par´ametro) o
incompatible (sin soluci´on). El primer caso corresponde al caso de corte (y
4.8. POSICIONES RELATIVAS DE RECTAS Y PLANOS. 143
la soluci´on en cada par´ametro dar´a el mismo punto en el espacio, pero al
moverse por cada una de las rectas); el segundo caso corresponde a las rectas
que se cruzan.
Ej. 1. Determinar las posiciones relativas de las rectas
(x, y, z) = (1, 0, 1) +λ(−1, 1, 0)
(x, y, z) = (0, 1, 2) +µ(2, 0, 1).
Al igualar las coordenadas resulta
1 −λ = 2µ; λ = 1; 0 = 2 +µ
que no posee ninguna soluci´on: las rectas se cruzan.
Ej. 2. Determinar las posiciones relativas de las rectas
(x, y, z) = (1, 0, 1) +λ(−1, 1, 0); (x, y, z) = (0, 1, 2) +µ(−4, 4, 0).
Los vectores directores son colineales y al igualar las coordenadas se obtiene
(1, 0, 1) +λ(−1, 1, 0) = (0, 1, 2) +µ(−4, 4, 0)
que no tiene soluci´on pues en la tercera coordenada resulta la igualdad de
los n´ umeros distintos 1 y 2: las rectas son paralelas.
Dados dos planos en el espacio podemos simplificar sus posiciones
relativas en dos categor´ıas. O bien se cortan en una recta, o bien son pa-
ralelos (este caso incluye el de los planos coincidentes). La posici´on relativa
se manifestar´a anal´ıticamente en que el sistema dado por las dos ecuaciones
impl´ıcitas sea o bien indeterminado con las soluciones dependientes de un
par´ametro (un grado de libertad) en el caso de corte en una recta, o bien
incompatible (no tiene soluciones) en e caso de planos paralelos no coinciden-
tes, o bien indeterminado con las soluciones dependientes de dos par´ametros
(dos grados de libertad) en el caso de coincidencia. Si los planos estuvieran
dados en forma param´etica tendr´ıamos, al igualar las coordenadas de los dos
planos, un sistema de tres ecuaciones con cuatro inc´ognitas (dos por cada
plano).
144 4. RECTAS Y PLANOS EN EL ESPACIO
Ej. 3. Posici´on relativa de los planos
2x + 3y −z = 1, −x −2y +z = 0.
Para resolver el sistema dado por las dos ecuaciones, se escaleriza, obte-
ni´endose el sistema 2x + 3y − z = 1, −y + z = 1. Este sistema tiene
infinitas soluciones que dependen de un solo par´ametro (un grado de li-
bertad) y por tanto los planos se cortan en una recta. Para determinar las
ecuaciones param´etricas de esa recta, se puede tomar y = λ, resultando
z = 1 +λ, x = 1 −λ.
Ej. 4. Posiciones relativas de los planos de ecuaciones param´etricas
(x, y, z) = (1, 0, 1) +λ(1, 1, 0) +µ(0, 1, −1)
(x, y, z) = (0, 0, 3) +t(1, 2, −1) +s(2, 1, 1).
Igualando las correspondientes coordenadas resulta
1 +λ = t + 2s
λ +µ = 2t +s
1 −µ = 3 −t +s
=⇒
λ + 0µ −t −2s = −1
λ +µ −2t −s = 0
0λ −µ +t −s = 2.
Si ahora omitimos de escribir las variables, pero mantenemos su orden
λ, µ, t, s, y agregamos una columna con los t´erminos independientes, ten-
dremos las siguientes matrices de coeficientes (primero la original, y luego
la escalerizada)

¸
¸
1 0 −1 −2 −1
1 1 −2 −1 0
0 −1 1 −1 2
¸

=⇒

¸
¸
1 0 −1 −2 −1
0 1 −1 1 1
0 0 0 0 3
¸

.
El sistema es por tanto incompatible dado que sumando cero de cada una
de las variables deber´ıamos obtener 3. Los planos no se cortan, ellos son
paralelos. Observar que de acuerdo con lo observado en la secci´on tres los
vectores directores del segundo plano son combinaci´on lineal de los vectores
directores del primer plano:
(1, 2, −1) = (1, 1, 0) + (0, 1, −1),
(2, 1, 1) = 2(1, 1, 0) −(0, 1, −1).
CAP´ıTULO 5
PRODUCTO ESCALAR Y VECTORIAL
5.1. Producto escalar
DEFINICI
´
ON 5.1. Dado un vector v ∈ V llamamos norma de v al n´ ume-
ro d(A, B) con v =
−−→
AB,que notaremos: v (Observar que d(A, B) no de-
pende del par de puntos (A, B) que se elija como representante de v).
Propiedades:
1) v 0; v= 0 si y solo si v= 0.
2) av = |a| v para todo a ∈ R y para todo v ∈ V
3) u +v u +v, para todo u, v ∈ V
Demostraci´ on
1) Es inmediato.
2) Si a = 0 es trivial. Si a = 0 y v =
−−→
AB, por definici´on del producto
de un n´ umero por un vector , av =
−→
AC, donde d (A, C) = |a| d (A, B). Luego
av = d (A, C) = |a| d (A, B) = |a| v.
3) Un lado de un tri´angulo es menor o igual que la suma de los otros
dos (es la propiedad triangular de geometr´ıa m´etrica).
Diremos que v es un versor si v = 1. Para todo v= 0 se tiene que
v
v
es
un versor pues

v
v

=
1
v
v = 1.
DEFINICI
´
ON 5.2. Dados los vectores u y v de V llamamos producto
interno o producto escalar de u por v al n´ umero u . v cos θ donde
θ es el ´angulo BAC de tres puntos tales que
−−→
AB = u y
−→
AC = v. Observar
145
146 5. PRODUCTO ESCALAR Y VECTORIAL
que el producto escalar no depende de los puntos A, B, C que se elijan para
representar u y v.
Notaci´on: u.v ; < u, v > , (u, v) ; etc.
En particular v.v = v
2
; luego v =

v.v.
Si u es un versor, es decir, si u = 1, entonces u.v = v cos θ = p es la
proyecci´on del segmento AC sobre la recta AB de la figura.
Propiedades:
4) u.v = v.u
5) (a.u) .v = u. (a.v) = a. (u.v)
6) (u
1
+u
2
) .v = u
1
.v +u
2
.v ; u. (v
1
+v
2
) = u.v
1
+u.v
2
.
7) v.v 0 y v.v = 0 si y s´olo si v= 0
Demostraci´ on:
4) Es inmediato.
5) Si a = 0 la demostraci´on es trivial . Si a 0, ´ang (au, v) =
´ang (u, v) = θ, luego
( a.u ) .v = au . v cosθ = |a| . u . v cos θ = a (u.v).
Si a < 0 , ´ang (au, v) = π + ´ang (u, v) = π + θ, luego ( a.u ) v =
a.u v cos (π +θ) = −|a| u v cos θ = a u v cos θ =a(u.v).
6) Consideremos primero el caso u = 1. Entonces v
1
.u = p
1
, v
2
.u =
p
2
. (v
1
+v
2
) u = p (proyecci´on de u
1
+u
2
). Es claro que p = p
1
+p
2
, luego
(v
1
+v
2
) .u = v
1
.u +v
2
.u. (ver figura)
5.1. PRODUCTO ESCALAR 147
Consideremos ahora el caso general. Por el razonamiento anterior, como

u

u

= 1, tenemos (v
1
+v
2
) .
u
u
= v
1
.
u
u
+ v
2
.
u
u
, luego (v
1
+v
2
) .u =
v
1
.u +v
2
.u
7) Es inmediata pues v.v = v
2
.
DEFINICI
´
ON 5.3. Dos vectores u, v se dicen ortogonales si u.v = 0.
Una base

−→
i ,
−→
j ,
−→
k
¸
(a partir de aqu´ı no escribiremos la flecha
−→
. ) se
dice ortogonal si i · j = i · k = j · k = 0. La base se dice ortonormal si
adem´as de ser ortogonal verifica que i = j = k = 1.
Diremos que {O, i, j, k} es un sistema ortogonal de coordenadas si
{i, j, k} es ortonormal.
En el resto de esta secci´on supondremos que todos los sistemas de coor-
denadas son ortonormales. En tal caso dados:
v = a
1
i +a
2
j +a
3
k y w = b
1
i +b
2
j +b
3
k se tienev.w =
¸
i=1,2,3
a
i
b
i
.
En particular: v =

v.v =

a
2
1
+a
2
2
+a
2
3
.
Si P = O + a
1
i + a
2
j + a
3
k y Q = O + b
1
i + b
2
j + b
3
k entonces
−−→
PQ =
Q−P = (b
1
−a
1
) v
1
+ (b
2
−a
2
) v
2
+ (b
3
−a
3
) v
3
, luego
d (P, Q) = PQ =

(b
1
−a
1
)
2
+ (b
1
−a
1
)
2
+ (b
3
−a
3
)
2
.
148 5. PRODUCTO ESCALAR Y VECTORIAL
5.2. Aplicaciones a la geometr´ıa: ´angulos y distancias
Ya vimos que toda ecuaci´on de la forma ax +by +cz +d = 0 representa
un plano y rec´ıprocamente. Suponiendo que el sistema de coordenadas sea
ortogonal volveremos a obtener esa ecuaci´on y mostraremos que en ese caso
se puede obtener m´as informaci´on de esta ecuaci´on.
Sea {O, i, j, k} un sistema ortogonal de coordenadas, P
0
= (x
0
, y
0
, z
0
)
un punto de un plano π y n = ai +bj +ck = 0 un vector de la direcci´on de
una perpendicular a π (para abreviar diremos que n es un vector normal a
π). Entonces, para todo P ∈ π, P = (x, y, z), vale n · (P −P
0
) = 0, de
aqu´ı resulta:
a (x −x
0
) +b (y −y
0
) +c (z −z
0
) = 0
Esta es entonces la ecuaci´on del plano dado por un punto y la direcci´on
de la normal. Es claro que esa ecuaci´on tambi´en se escribe en la forma:
ax +by +cz +d = 0.
Rec´ıprocamente, dada una ecuaci´on ax+by+cz+d = 0, con a
2
+b
2
+c
2
=
0 (por ejemplo, c = 0), resulta : ax + by + c

z +
d
c

= 0. Si el sistema de
coordenadas es ortogonal esto equivale a:
(av
1
+bv
2
+cv
3
) .

xv
1
+yv
2
+

z +
d
c

v
3

= 0.
5.2. APLICACIONES A LA GEOMETR
´
IA:
´
ANGULOS Y DISTANCIAS 149
Poniendo P = (x, y, z), P
0
= (0, 0, −d/c) y n = av
1
+bv
2
+cv
3
, esta ecuaci´on
se escribe: n. (P −P
0
) = 0. Por tanto, es la ecuaci´on del plano perpendicular
a π por P
0
.
OBSERVACI
´
ON 5.1. Si el sistema de coordenadas no es ortogonal, la
ecuaci´on ax + by + cz + d = 0 tambi´en representa un plano como vimos
antes, pero en ese caso el vector av
1
+bv
2
+cv
3
no tiene por que ser normal
al plano.
Veremos ahora algunas consecuencias de esto, siempre con la hip´otesis
de que el sistema de coordenadas es ortonormal.
a ) condici´on para que dos planos sean paralelos: ax+by+cz+d =
0 y a

x+b

y +c

z +d

= 0 son paralelos si y s´olo si a

= λa, b

= λb, c

= λc
para alg´ un λ ∈ R, (λ = 0).
b ) condici´on para que una recta y un plano sean paralelos:
Dados el plano y la recta de ecuaciones ax + by + cz + d = 0 y
x−x
0
p
=
y−y
0
q
=
z−z
0
r
, son paralelos si y s´olo si pa + qb + rc = 0, pues esto significa
que n.v = 0 , donde n es normal al plano y v es un vector de la direcci´on
de la recta.
c ) ´angulo entre dos planos: Para dos vectores cualesquiera, u = 0,
v = 0, tenemos
u.v
u.v
= cos θ. Como el ´angulo θ entre dos planos es igual al
que forman sus vectores normales respectivos, tendremos: cos θ =
n
1
.n
2
n
1
n
2

donde n
1
y n
2
son vectores normales a esos planos: luego el ´angulo θ entre
los planos de ecuaciones ax+by+cz+d=0 y a’x+b’y+c’z+d’=0 verifica:
cos θ =
aa

+bb

+cc


a
2
+b
2
+c
2
.

a

2
+b

2
+c

2
d )
´
Angulo de una recta con un plano: Sean n un vector normal
al plano y v un vector de la direcci´on de la recta . El ´angulo del plano con
la recta es entonces θ = π/2 − ϕ donde ϕ es el ´angulo determinado por n
150 5. PRODUCTO ESCALAR Y VECTORIAL
y v. Luego el ´angulo de ax+by+cz+d =0 con
x−x
0
p
=
y−y
0
q
=
z−z
0
r
se puede
calcular mediante:
senθ = cos ϕ =
ap +bq +cr

a
2
+b
2
+c
2

p
2
+q
2
+r
2
e )
´
Angulo de dos rectas: El ´angulo θ de
x−x
0
p
=
y−y
0
q
=
z−z
0
r
con
x−x
1
p

=
y−y
1
q

=
z−z
1
r

se calcula mediante la f´ormula
cos θ =
pp

+qq

+rr

p
2
+q
2
+r
2

p

2
+q

2
+r

2
.
f ) Distancia de un punto a un plano: Definimos la distancia d (Q, π)
de Q al plano π como el m´ınimo de d(Q,P) donde P ∈ π. Es claro que el
m´ınimo de d(Q,P) se obtiene cuando P=P
1
=π ∩ r, donde r es la perpendi-
cular a π por Q. Luego : d (Q, π) = d (Q, P
1
) =

(Q−P
0
) .
n
n

, siendo P
0
un punto cualquiera del plano π.
Como la ecuaci´on del plano es (P −P
0
) .n = 0, esto significa que d se
obtiene reemplazando P por O=(0,0,0) en el primer miembro de la ecuaci´on
del plano.
Consideremos ahora un sistema ortonormal de coordenadas. Si P
0
=
(x
0
, y
0
, z
0
), Q = (x, y, z), P = (x, y, z), n = ai +bj +ck entonces:
(Q−P
o
) · n = a (x −x
o
) +b (y −y
o
) +c (z −z
o
) = ax +by +cz +d.
5.3. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 151
Luego : d (Q, π) =

(Q−P
0
) .
n
n

=

ax+by+cz+d

a
2
+b
2
+c
2

5.3. Aplicaciones: ecuaciones de algunas superficies
a) Esferas de centro (x
0
, y
0
, z
0
) y radio r: En un sistema ortogonal
de coordenadas la ecuaci´on es: (x −x
0
)
2
+ (y −y
0
)
2
+ (z −z
0
)
2
= r
2
b) Superficies de revoluci´on: Son las engendradas por una curva
(generatriz), que gira alrededor de una recta (eje).
OBSERVACI
´
ON 5.2. Una curva en el espacio puede darse:
- O bien en forma param´etrica, por medio de tres ecuaciones de la
forma

x = x(t)
y = y (t)
z = z (t)
t ∈ R
con tres funciones cont´ınuas de un par´ametro real (para cada valor del
par´ametro t se tendr´a un punto (x(t),y(t),z(t))=P(t) que est´a en la cur-
va).
- O bien en la forma reducida

f (x, y, z) = 0
g (x, y, z) = 0
152 5. PRODUCTO ESCALAR Y VECTORIAL
Cuando se tienen las ecuaciones param´etricas, a veces puede eliminarse
el par´ametro t y obtenerse una forma reducida. Generalmente hay muchos
sistemas de ecuaciones posibles que representan a la misma curva.
OBSERVACI
´
ON 5.3. Una superficie en el espacio puede darse:
- O bien en forma parametrizada, por medio de tres ecuaciones con dos
par´ametros ( como la ecuaci´on param´etrica del plano).
- O bien en forma reducida por medio de una ecuaci´on del tipo: f(x, y, z) = 0.
OBSERVACI
´
ON 5.4. La curva C:

f (x, y, z) = 0
g (x, y, z) = 0
es la intersecci´on
de dos superficies S y S’ donde S: f(x,y,z) = 0 y S’: g(x,y,z) =0.
Ecuaci´on de la superficie de revoluci´on con eje

Oz Sea r el eje
r :

x = 0
y = 0
, y C la generatriz C:

x = 0
z = f (y)
La superficie de revoluci´on S est´a constituida por todos los puntos P
del espacio que cumplen, a la vez, dos condiciones:

P ∈ π ⊥r por alg´ un P
0
∈ C
d (P, r) = d (P
0
, r)
5.3. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 153
Las condiciones se traducen en:

z −z
0
= 0 P ∈ π⊥ , r, por P
0
x
0
= 0 P
0
∈ C
z
0
= f (y
0
) P
0
∈ C

x
2
+y
2
=

x
2
0
+y
2
0
, d (P, r) = d (P
0
, r)
de donde, eliminando x
0
, y
0
, z
0
se obtiene: z = f

±

x
2
+y
2

.
OBSERVACI
´
ON 5.5. Dada una ecuaci´on F(x,y,z) = 0 no intentaremos,
en general, reconocer si es o no una superficie de revoluci´on. Observaremos
s´olo que si se halla una familia de planos paralelos ( es decir ax+by+cz+α =
0 con (a, b, c) fijo y α variable ) que cumplan las condiciones de m´as abajo,
entonces F(x,y,z) = 0 es una superficie de revoluci´on que verifica (ver figura
3.3):
i ) La intersecci´on

F (x, y, z) = 0
ax +by +cz +α = 0
es una circunferencia para
cada valor de α.
ii) El centro de la circunferencia (x
α
, y
α
, z
α
) pertenece, para todo α, a
una recta fija r colineal al vector (a,b,c) (o sea perpendicular a la familia
de planos paralelos ).
EJEMPLO 5.1. Demostrar que xy+yz+zx = 7 es una superficie de revo-
luci´on.
154 5. PRODUCTO ESCALAR Y VECTORIAL
Se puede escribir como: (x +y +z)
2

x
2
+y
2
+z
2

= 14 Cort´andola
en el plano:x +y +z +α = 0 se obtiene:

x +y +z +α = 0
(x +y +z)
2

x
2
+y
2
+z
2

= 14
i ) Es una circunferencia porque es la intersecci´on de la esfera x
2
+y
2
+z
2
=
14+α
2
con el plano x+y +z +α = 0. ii ) El centro C
α
de la circunferencia
se halla trazando la perpendicular al plano x +y +z + α = 0 que pasa por
el centro de la esfera x
2
+y
2
+z
2
= 14 +α
2
, o sea:
C
α
=

x +y +z +α = 0
x = y = z recta por (0, 0, 0) ⊥
al plano, x +y +z +α = 0
C
α
=

x = −α/3
y = −α/3
z = −α/3
es una recta colineal al vector (−1/3, −1/3, −1/3) o sea, colineal con ( 1,1,1).

c ) Conos: Se llama “cono” o “superficie c´onica” de v´ertice V y direc-
triz C ( donde V es un punto y C es una curva dada , tales que V/ ∈C ), a
la superficie engendrada por todas las rectas que pasan por V y cortan a C.
5.3. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 155
Si V = (a, b, c) y C =

x = f (t)
y = g (t)
z = h(t)
La ecuaci´on param´etrica del cono se puede obtener con los par´ametros
t y λ como:
S =

x = a + λ ( f ( t) − a)
y = b + λ ( g (t) − b )
z = c + λ ( h (t) − c )
Para escribir la ecuaci´on reducida habr´a que eliminar los par´ametros t, λ,
para obtener una ecuaci´on del tipo
F(x,y,z) = 0.
EJEMPLO 5.2. Hallar las ecuaciones reducidas y param´etrica del cono de
v´ertice V = (0, 0, 0) y generatriz

x = sent
y = cos t
z = 1
. La ecuaci´on parametri-
zada es:

x = λ sent
y = λ cos t
z = 1 + λ
Despejando t y λ se obtiene la ecuaci´on reducida
x
2
+y
2
= (z −1)
2
.
d ) Cilindros: Se llama “cilindro” o “superficie cil´ındrica” de directriz
C y generatriz colineal al vector v = (a, b, c) a la superficie engendrada por
todas las rectas colineales al vector v que cortan a la curva C.
Si v = (a, b, c) y C =

x = f (t)
y = g (t)
z = h(t)
Un punto P = (x, y, z) pertenece al
cilindro si y s´olo si existe alg´ un punto P
0
= (x
0
, y
0
, z
0
) tal que:

P
0
∈ C
P ∈, recta por P
0
colineal a v
156 5. PRODUCTO ESCALAR Y VECTORIAL
. Entonces, las ecuaciones param´etricas del cilindro son:
S =

x = f ( t) + λa
y = g (t) + λb
z = h (t) + λc
de las que habr´a que eliminar los par´ametros t, λ, para obtener la ecuaci´on
reducida del tipo F (x, y, z) = 0.
OBSERVACI
´
ON 5.6. La curva C tambi´en puede estar dada como
C :

f (x, y, z) = 0
g (x, y, z) = 0
en cuyo caso se trabajar´a an´alogamente , pero con un par´ametro menos.
OBSERVACI
´
ON 5.7. Una ecuaci´on F (x, y, z) = 0 en la que no figura la
variable z, por ejemplo, representa un cilindro de generatrices colineales con
el eje Oz. Si P
0
= (x
0
, y
0
, z
0
) verifica la ecuaci´on F (x
0
, y
0
, z
0
) = 0, entonces
tomando x = x
0
, y = y
0
, z = z
0
+ λ (eso es la recta por P
o
colineal con
(0,0,1) ), se tiene F (x
0
, y
0
, z
0
+λ) = F (x
0
, y
0
, z
0
) = 0 porque F es, en
realidad, independiente de z. O sea: cuando P
o
est´a en la superficie, toda
la recta por la colineal al eje Oz tambi´en la est´a.
5.4. PRODUCTO VECTORIAL. 157
EJEMPLO 5.3. x
2
+y
2
= 4 es un cilindro con generatrices paralelas al
eje Oz y directriz, por ejemplo, en la circunferencia

x
2
+y
2
= 4
z = 0

5.4. Producto vectorial.
Consideremos la terna ordenada de vectores de V , {
−→
i ,
−→
j ,
−→
k }, que cons-
tituye una base de V . Estas las vamos a clasificar en dos grupos: uno formado
por las ternas {i, j, k} tales que para un observador parado en v
3
, la rotaci´on
de ´angulo convexo (o sea, de medida < π) que lleva i en j es de sentido anti-
horario; el otro formado por las ternas en las que esa rotaci´ on tiene sentido
horario.
158 5. PRODUCTO ESCALAR Y VECTORIAL
Para definir el producto vectorial necesitamos elegir uno de los dos tipos
como terna preferida. Nos quedaremos para esto con las ternas del primer
tipo que llamaremos positivas.
Esta convenci´on sirve para definir el producto vectorial como una funci´on
de V ×V en V (as´ı como el producto escalar era una funci´on de V ×V en R)
que a cada par de vectores v, w le asocia un vector, que denotaremos v ∧ w,
que cumple:
a) v ∧ w = v . w .senθ (θ ´angulo de v con w )
b) (v ∧ w) .v = 0 y (v ∧ w) .w = 0
c) Si v = 0 y w = 0 la terna {v, w, v ∧ w} es positiva.
Propiedades:
1) v ∧ w es el doble del ´area del tri´angulo determinado por esos vec-
tores.
2) v ∧w = 0 si y s´olo si v y w son colineales (en particular, si alguno de
ellos es el vector 0).
3) Respecto de la condici´on c) de la definici´on, corresponde observar que
si v ∧ w = 0 la terna {v, w, v ∧ w} es una base, pues por b) esos vectores no
son coplanares salvo que v y w sean colineales, en cuyo caso v ∧ w = 0
4) v ∧w = −(w ∧ v) ( en particular, esta operaci´on no es conmutativa)
Para verificar esto basta notar que si para cierto observador la rotaci´on del
´angulo < π que lleva v en w es de sentido antihorario, para el mismo obser-
vador la que lleva w en v es de sentido horario. De modo que el observador
debe ubicarse del lado opuesto del plano u,w para que esa rotaci´on aparezca
de sentido trigonom´etrico . Luego esa debe ser la ubicaci´on de w ∧ v para
que la terna [w, v, w ∧ v] sea positiva.
5) Este producto no es asociativo. Se puede deducir que:
(u ∧ v) ∧ w + (v ∧ w) ∧ u + (w ∧ u) ∧ v = 0
de donde, usando 4), (u ∧ v) ∧ w = u ∧ (v ∧ w) + v ∧ (w ∧ u), y como en
general v ∧ (w ∧ u) = 0, la propiedad asociativa no vale.
5.4. PRODUCTO VECTORIAL. 159
6) Para todo λ ∈ R: λ(v ∧ w) = (λv) ∧w = v ∧(λw). Esta propiedad se
deduce directamente de la definici´on en el caso λ 0. Para el caso λ < 0, hay
que observar que del hecho que la terna {v, w, v ∧ w} es positiva se deduce
que {−v, w, −(v ∧ w)} y
{v, −w, −(v ∧ w)} son tambi´en positivas.
7) El producto vectorial es distributivo respecto de la suma de vectores.
Esto es:
a) (v
1
+v
2
) ∧ w = v
1
∧ w +v
2
∧ w.
b) v ∧ (w
1
+w
2
) = v ∧ w
1
+v ∧ w
2
.
Para demostrar esta propiedad hacemos algunas observaciones previas. En
primer lugar, observamos que llamando π al plano con vector normal v e
indicando por p w la proyecci´on de w sobre ese plano, y con r(pw) el vector
que se obtiene rotando esa proyecci´on un ´angulo de medida π/2 en sentido
antihorario observado desde v, se verifica que: v ∧ w = v .r (pw) pues
r (pw) = pw = w .senθ (ver figura)
160 5. PRODUCTO ESCALAR Y VECTORIAL
Como p (w
1
+w
2
) = pw
1
+pw
2
y r (pw
1
+pw
2
) = r (pw
1
) +r (pw
2
) ten-
dremos que: v∧(w
1
∧ w
2
) = v .r (p (w
1
+w
2
))= v .r (pw
1
)+v .r (pw
2
) =
v ∧ w
1
+v ∧ w
2
.
As´ı se prueba b) y an´alogamente se obtiene a).
8) Si {i, j, k} es una base ortonormal positiva de V , entonces:
i ∧ i = j ∧ j = k ∧ k = 0;
i ∧ j = k; j ∧ k = i; k ∧ i = j
(es decir, en la sucesi´on (i, j, k, i, j, · · · ) el producto de dos vectores sucesivos
da el que le sigue):
j ∧ i = −k, k ∧ j = −i; i ∧ k = −j
9) De 4.6), 4.7) y 4.8) resulta que si v = a
1
i + a
2
j + a
3
k y w = b
1
i +
b
2
j +b
3
k. entonces:
v ∧ w = (a
2
b
3
−a
3
b
2
) i −(a
1
b
3
−a
3
b
1
) j + (a
1
b
2
−a
2
b
1
) k.
Obs´ervese que este resultado puede recordarse pensando en el desarrollo por
la primer fila de un determinante:

i j k
a
1
a
2
a
3
b
1
b
2
b
3

= (a
2
b
3
−a
3
b
2
) i −(a
1
b
3
−a
3
b
1
) j + (a
1
b
2
−a
2
b
1
) k
5.5. APLICACIONES GEOM
´
ETRICAS. 161
Esta expresi´on del producto vectorial puede tambi´en tomarse como su de-
finici´on. M´as precisamente, dada una terna ortonormal cualquiera {i,j,k}
(positiva o negativa), puede definirse el producto de dos vectores por la
expresi´on dada en 4.9). Se comprueba entonces sin dificultad que el vec-
tor: u = (a
2
b
3
−a
3
b
2
) i − (a
1
b
3
−a
3
b
1
) j + (a
1
b
2
−a
2
b
1
) k verifica u =
v . w .senθ y u.v = u.w = 0. Si adem´as {i, j, k} es una terna positiva
puede verificarse, que {v, w, u} es tambi´en positiva. Luego u = v ∧ w , por
lo tanto esta definici´on de v ∧ w coincide con la inicial.
5.5. Aplicaciones geom´etricas.
a ) Distancia de un punto a una recta: sea r una recta dada por
un punto A y un vector v. La distancia de Q a r es:
d (Q, r) = |d (Q, A) .senθ| = AQ .senθ =
AQ∧ v
v
Si A = (x
o
, y
o
, z
o
); Q = (x, y, z); v = ai + bj + ck entonces la distancia
es d(Q, r) =

[(y −y
0
)c −(z −z
0
)b]
2
+ [(x −x
0
)c −(z −z
0
)a]
2
+ [(x −x
0
)b −(y −y
0
)a]
2

a
2
+b
2
+c
2
162 5. PRODUCTO ESCALAR Y VECTORIAL
EJEMPLO 5.4. En el punto 3 de este cap´ıtulo se vieron algunas super-
ficies de revoluci´on particulares. Sea r

x = y
z = 0
C :

x = 0
zy = 1
. Hallar la
superficie de revoluci´on de eje r y generatriz C.
Las ecuaciones son:

x
0
= 0, P
0
∈ C
z
0
y
0
= 1, P
0
∈ C
x −x
0
+y −y
0
= 0, plano, π, por, P
0
⊥r
2z
2
+ (x −y)
2
= 2z
2
0
+ (x
0
−y
0
)
2
, dist (P, r) = dist (P
0
, r)
eliminando x
0
, y
0
, z
0
resulta (x +y)
2

z
2
−2xy

= 1
b)Intersecci´on de dos planos no paralelos:
Sea r :

ax +by +cz +d = 0
a

x +b

y +c

z +d

= 0
una recta (dada como intersecci´on
de dos planos no paralelos). Supongamos que queremos las ecuaciones pa-
ram´etricas de esa recta, es decir, las de la forma: x = x
0
+ λp, y = y
0
+
λq, z = z
0
+ λr (o tambi´en P = P
0
+ λv). Para esto se necesita hallar un
punto P
0
= (x
0
, y
0
, z
0
) de la recta y un vector v = p i +q j +r k de la direc-
ci´on de r. Esto se puede hacer sin usar el producto vectorial, resolviendo el
sistema de ecuaciones

ax +by +cz +d = 0
a

x +b

y +c

z +d

= 0
Usando el producto vectorial: tomar P
0
= (x
0
, y
0
, z
0
) una soluci´on parti-
cular del sistema de ecuaciones. Si el sistema de coordenadas es ortogonal,
entonces: n = ai +bj +ck y n

= a

i +b

j +c

k son vectores normales a los
planos, y entonces n ∧ n

es un vector de la intersecci´on de ambos planos
(luego, est´a en la direcci´on de la recta de intersecci´on de ambos).
Luego: n∧n

= (bc

−b

c) i−(ac

− ca

) j +(ab

−ba

) k es de la direcci´on
de r.
5.5. APLICACIONES GEOM
´
ETRICAS. 163
c ) Distancia entre dos rectas: Se define la distancia d (r, r

) entre
dos rectas r, r

como el m´ınimo de d (P, P

) donde P ∈ r y P

∈ r

.
Es claro que este m´ınimo se obtiene cuando la recta PP

es perpendicular
al mismo tiempo a r y a r

. Sea r dada por un punto A ∈ r y un vector v
de su direcci´on y r

por B ∈ r y un vector w.
Para tener d (r, r

): si r y r’ son paralelas: basta tomar el punto A y
hallar dist (A, r

); si r y r

se cortan: d (r, r

)= 0.
Supongamos ahora que r y r’ no son coplanares. Si s es la perpendicular
com´ un , P
o
= s ∩ r y P

0
= s∩r

, entonces: d (r, r

) = d

P
0
, P

0

= d (A, π)
donde π es el plano paralelo a r que contiene a r’. (ver figura) . Como versor
164 5. PRODUCTO ESCALAR Y VECTORIAL
de la direcci´on de s puede tomarse n =
v∧w
v∧w
. Luego :
d

r, r

= d (A, π) =
1
v ∧ w

(v ∧ w) .
−−→
AB

d ) Perpendicular com´ un a dos rectas: Si las dos rectas son pa-
ralelas, una perpendicular com´ un es la recta perpendicular a una de ellas
trazada por un punto de la otra. Si se interceptan , el problema es tambi´en
f´acil de resolver. Supongamos ahora que las dos rectas no son coplanares.
La perpendicular com´ un s est´a en el plano π de s y r, y en el π’ determi-
nado por s y r

. Luego s = π ∩ π

. Dada la direcci´on v de r y la w de r’,
y A ∈ r, B ∈ r

, el plano π queda determinado por A,v y v ∧ w. El π’ por
B,w,v ∧w, pues v ∧w es un vector de la direcci´on de s. Las ecuaciones de π
y π’ as´ı obtenidas constituyen un par de ecuaciones que representan la recta
s.
e ) Volumen de un tetraedro: Consideremos un tetraedro dado por
sus v´ertices A, B, C, D. Su volumen es V =
1
3
´area de la base × altura.
Tendremos: ´area base = 1/2 (B −A) ∧ (C −A).
Si n es el versor normal a la base, la altura es |n. (D −A)| con n =
(B−A)∧(C−A)
(B−A)∧(C−A)
. Luego V = 1/6. (B −A) ∧ (C −A) .
|[(B−A)∧(C−A)].(D−A)|
(B−A)∧(C−A)
por lo que V = 1/6. |[(B −A) ∧ (C −A)] . (D −A)|
5.6. PRODUCTO MIXTO 165
5.6. Producto mixto
Es una operaci´on definida de V × V × V en R. Dados tres vectores
u, v, y w, llamamos producto mixto al n´ umero (v ∧ w) .u que indicamos v ∧
w.u, o tambi´en u. (v ∧ w). Consideremos un sistema ortonormal {i, j, k} y
sean:
v = a
1
i +a
2
j +a
3
k, w = b
1
i +b
2
j +b
3
k, u = c
1
i +c
2
j +c
3
k.
Entonces:
v ∧ w =

a
2
a
3
b
2
b
3

i −

a
1
a
3
b
1
b
3

j +

a
1
a
2
b
1
b
2

k.
v ∧ w.u =

a
2
a
3
b
2
b
3

c
1

a
1
a
3
b
1
b
3

c
2
+

a
1
a
2
b
1
b
2

c
3
=

c
1
c
2
c
3
a
1
a
2
a
3
b
1
b
2
b
3

(Por desarrollo por la primer fila de ese determinante)
Usando el hecho de que si se permutan dos filas de una matriz entre s´ı el
determinante s´olo cambia de signo, resulta que dos de esas permutaciones
no cambian el determinante; luego:

c
1
c
2
c
3
a
1
a
2
a
3
b
1
b
2
b
3

=

b
1
b
2
b
3
c
1
c
2
c
3
a
1
a
2
a
3

=

a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3

166 5. PRODUCTO ESCALAR Y VECTORIAL
En consecuencia: (v ∧ w) .u = (u ∧ v) .w = (w ∧ u) .v. Es decir, que en la
sucesi´on (u,v,w,u,v,w) el producto vectorial de dos vectores sucesivos mul-
tiplicado escalarmente por el siguiente, da lo mismo cualesquiera sean los
tres vectores sucesivos. Se puede entonces hablar del producto mixto de
u, v, w sin indicar si se trata de (u ∧ v) .w o de u. (v ∧ w), pues el resul-
tado es el mismo. Es por esto que se escribe (u,v,w) como notaci´on para
(u ∧ v) .w = u. (v ∧ w).
Observamos que (v,w,u) = 0 si y s´olo si ´ang(v ∧ w, u) = π/2 o alguno
de los vectores es el nulo. Como ´ang (v ∧ w, v) = ´ang (v ∧ w, w) = π/2 ,
para que (v,w,u) = 0 es necesario y suficiente que v, w y u sean coplanares.
(Obs´ervese que esto podr´ıa sacarse como conclusi´on del c´alculo del volumen
del tetraedro. (v, w, u) = 0 si y s´olo si el volumen del tetraedro determina-
do por esos vectores es 0, esto es equivalente a decir que los vectores son
coplanares).
Esta condici´on permite escribir la ecuaci´on vectorial del plano dado por
tres puntos A, B, C en otra forma. Decir que P pertenece a ese plano equivale
a decir que los vectores P − A, B − A y C − A son coplanares, o sea (P −
A, B −A, C −A) = 0.
Pasando a coordenadas, si P=(x,y,z),A=(a
1
, a
2
, a
3
), B = (b
1
, b
2
, b
3
) y
C = (c
1
, c
2
, c
3
) esta ecuaci´ on se escribe:

x −a
1
y −a
2
z −a
3
b
1
−a
1
b
2
−a
2
b
3
−a
3
c
1
−a
1
c
2
−a
2
c
3
−a
3

= 0, ´o tambi´en:

x y z 1
a
1
a
2
a
3
1
b
1
b
2
b
3
1
c
1
c
2
c
3
1

= 0.
Para ver esto obs´ervese que si se le resta la 2da. fila a la 1ra., la 3da. y la
4ta. filas, el determinante no cambia. As´ı se tiene:

x −a
1
y −a
2
z −a
3
0
a
1
a
2
a
3
1
b
1
−a
1
b
2
−a
2
b
3
−a
3
0
c
1
−a
1
c
2
−a
2
c
3
−a
3
0

=

x −a
1
y −a
2
z −a
3
b
1
−a
1
b
2
−a
2
b
3
−a
3
c
1
−a
1
c
2
−a
2
c
3
−a
3

= 0.
CAP´ıTULO 6
ESPACIOS VECTORIALES
En este Cap´ıtulo se introducir´a el concepto b´asico de este curso, que
es el del t´ıtulo . Trataremos de hacer hincapi´e en las nociones geom´etricas
simples que son comunes a otras ramas de la matem´atica y motivar en todo
lo posible en base al concepto de vectores en el espacio ambiente E estudiado
en el cap´ıtulo sobre Rectas y planos en el espacio.
En muchas ramas de la matem´atica aparecen conjuntos entre cuyos ele-
mentos se realizan combinaciones lineales. Ya hemos visto tres ejemplos de
esto en nuestro curso: las matrices, las n-uplas y los vectores del espacio
ambiente. Pero el lector puede recordar otros ejemplos como las funciones
continuas y los polinomios con los cual tambi´en se opera. En los ejemplos
desarrollados hasta el momento se hizo notar que muchos de los resultados
obtenidos solo depend´ıan de las propiedades que ten´ıan las operaciones y
no de otras particularidades del ejemplo en cuesti´on. Tambi´en hemos ob-
servado que estas propiedades son las mismas en los tres casos abordados
hasta ahora. Eso nos motiva a intentar un desarrollo abstracto de la teor´ıa.
Es decir a introducir un conjunto arbitrario con cuyos elementos se supone
se puede operar con propiedades an´alogas a las que por ejemplo tienen las
operaciones con n-uplas. De este modo se desarrolla de una sola vez una
teor´ıa que puede aplicarse a m´ ultiples y a priori dis´ımiles ejemplos. Natu-
ralmente los ejemplos que nos motivaron y ser´an una constante fuente de
inspiraci´on para encontrar las definiciones, enunciados y demostraciones de
nuestra teor´ıa.
En particular el lector podr´a recurrir frecuentemente a motivaciones ba-
sadas en los vectores de E, en las ternas de n´ umeros o en las matrices, pero
167
168 6. ESPACIOS VECTORIALES
el objeto en estudio es un concepto abstracto, mucho m´as general, cuya
comprensi´on y manejo fluido es una de las finalidades principales de este
curso.
Un concepto fundamental que re-aparecer´a en este cap´ıtulo es el de in-
dependencia lineal, cuya definici´on ya hemos establecido antes y que parece
particularmente simple, pero cuya comprensi´on en toda su riqueza -nuestra
experiencia lo indica- merece una atenci´on especial. Realizar muchos ejerci-
cios con este nuevo concepto abstracto, comprender bien como se le utiliza en
diversas demostraciones, es una recomendaci´on que hacemos amistosamente
al lector.
6.1. Espacios vectoriales
DEFINICI
´
ON 6.1. Un espacio vectorial sobre un cuerpo K (que en este
curso ser´a el de los n´ umeros reales R, o el de los n´ umeros complejos C), es
una cu´adrupla ordenada {V, K, +, ·}
1) Un conjunto V = ∅ cuyos elementos se llamar´an vectores.
2) El cuerpo K, cuyos elementos se llamar´an escalares.
3) Una operaci´on llamada suma de vectores, y denotada con el s´ımbolo
+ cuyo dominio es el producto cartesiano V × V y cuyo codominio es V
( + : V × V → V quiere decir que u+v est´a definida para todo par (u,v)
∈ V ×V y da como resultado un elemento V ) .
4) Una operaci´on llamada producto de un escalar por un vector, y de-
notada con el s´ımbolo · ; cuyo dominio es K × V y cuyo codominio es
V (· : K×V →V ), que verifica las siguientes propiedades:
Para la suma:
S1) Asociativa: (u +v) +w = u + (v +w) ∀ u, v, w ∈ V
S2) Conmutativa: u +v = v +u ∀ u, v ∈ V
S3) Neutro: Existe un elemento

0 ∈ V , llamado “vector nulo
2
denotado
con

0, tal que

0 +u = u +

0 = u, ∀u ∈ V.
6.1. ESPACIOS VECTORIALES 169
S4) Opuesto: Para cada vector u ∈ V , existe un vector llamado “opuesto
de u”, denotado como −u, tal que u + (−u) = (−u) +u =

0.
Para el producto:
P1) α. (β.u) = (α.β) .u
P2) Multiplicaci´on por la unidad del cuerpo: 1.u = u, ∀ u ∈ V
P3) Distributiva respecto de suma de vectores:α. (u +v) = α.u+α.v , ∀ ∈
K, ∀ u, v ∈ V
P4) Distributiva respecto de suma de escalares (α +β) .u = α.u +
β.u , ∀α, β ∈ K, ∀ u ∈ V
OBSERVACI
´
ON 6.1. En P4) la suma de escalares (suma dentro de K) se
escribi´o con el s´ımbolo + pero no hay que confundirla con la suma dentro
de V , que se representa tambi´en con el s´ımbolo +.
OBSERVACI
´
ON 6.2. El lector comparar´a estas propiedades de la defi-
nici´on de espacio vectorial con las propiedades de los vectores de E, de las
n-uplas de n´ umeros reales, o de las matrices con sus operaciones de suma y
producto por un escalar.
PROPOSICI
´
ON 6.3. En todo espacio vectorial {V, K, +, ·}se cumple:
1) el neutro es ´ unico.
2) Para cada vector u ∈ V su opuesto −u es ´ unico..
Demostraci´ on. 1) Sean

0
1
y

0
2
dos neutros:

0
1
=

0
1
+

0
2
=

0
2
, luego son
iguales.
2) Sean (−u)
1
y (−u)
2
dos opuestos de u:
(−u)
1
=

0 + (−u)
1
= ((−u)
2
+u) + (−u)
1
= (−u)
2
+ (u + (−u)
1
) =
(−u)
2
+

0 = (−u)
2
, luego coinciden.
OBSERVACI
´
ON 6.4. A los espacios vectoriales sobre R se los llamar´a es-
pacios vectoriales reales, o R–espacios vectoriales. A los espacios vectoriales
sobre C, espacios vectoriales complejos, o C–espacios vectoriales. A veces,
170 6. ESPACIOS VECTORIALES
por abuso de lenguaje los espacios vectoriales se indican por el conjunto de
vectores V , sobreentendiendo el cuerpo K y las operaciones + y ·.
6.2. Ejemplos de espacios vectoriales
EJEMPLO 6.1. Si V es el conjunto de vectores del espacio, K = V y las
operaciones + y · son las definidas en el cap´ıtulo 2, obtenemos un espacio
vectorial real.
EJEMPLO 6.2. V es el conjunto de ternas ordenadas de n´ umeros reales
V = R
3
y K =R y definimos las operaciones + y · como sigue:
suma: (a
1
, a
2
, a
3
) + (b
1
, b
2
, b
3
)
def
= (a
1
+b
1
, a
2
+b
2
, a
3
+b
3
)
producto: λ · (a
1
, a
2
, a
3
)
def
= (λ.a
1
, λ.a
2
, λ.a
3
) para todo λ ∈ R y todas las
ternas de R
3
.
Notaci´on: El s´ımbolo
def
= quiere decir que el miembro de la izquierda
esta siendo definido mediante la expresi´on de la derecha.
EJEMPLO 6.3. En general si V es el conjunto de las n-uplas ordenadas
de n´ umeros reales, V = R×R×. . . ×R = R
n
,K = R y las operaciones son:
(a
1
, a
2
, . . . , a
n
) + (b
1
, b
2
, . . . , b
n
)
def
= (a
1
+b
1
, a
2
+b
1
, . . . , a
n
+b
1
) y adem´as
λ · (a
1
, a
2
, . . . , a
n
)
def
= (λ.a
1
, λ.a
2
, . . . , λ.a
n
). Es f´acil ver que {R
n
, R, +, ·} es
un espacio vectorial sobre R, con

0 = (0, 0, · · · , 0) y −(a
1
, a
2
, · · · , a
n
) =
(−a
1
, −a
2
, · · · , −a
n
). Las operaciones definidas en este ejemplo se llaman
usuales de R
n
.
6.2. EJEMPLOS DE ESPACIOS VECTORIALES 171
EJEMPLO 6.4. Sea V el conjunto de las sucesiones de n´ umeros reales,
K = R, y las operaciones + y · definidas como sigue:
Dadas {a
n
} y {b
n
}∈ V , y dado λ ∈ R:
{a
n
} +{b
n
}
def
= (a
1
+b
1
, a
2
+b
2
, ..., a
n
+b
n
, ...) = {a
n
+b
n
}
(la suma de dos sucesiones es definida como la sucesi´on que se obtiene su-
mando los t´erminos n-´esimos de las sucesiones dadas),
λ · {a
n
} = λ · (a
1
, a
2
, . . . , a
n
)
def
= (λ · a
1
, λ · a
2
, . . . , λ · a
n
) = {λ · a
n
}
Es f´acil comprobar que es un espacio vectorial real . El vector nulo es
la sucesi´on que tiene todos sus t´erminos iguales a cero. Se verifica adem´as
−{a
n
} = {−a
n
}
EJEMPLO 6.5. Sea P el conjunto de todos los polinomios en una variable
con coeficientes reales, sea K = R, y sean la suma usual de polinomios y el
producto usual de un n´ umero por un polinomio. {P, R, +, ·} es un R–espacio
vectorial.
EJEMPLO 6.6. El conjunto de todas las funciones f : [a, b] → R, forma
un R-espacio vectorial, con las operaciones usuales de suma de funciones y
producto de un n´ umero real por una funci´on. Es decir:
f+g
def
= h donde h( x)
def
= f(x)+g(x) ∀x ∈ [a, b].
λ · f
def
= k donde k (x)
def
= λf (x) ∀ x ∈ [a, b] .
EJEMPLO 6.7. El conjunto de las n-uplas ordenadas de n´ umeros comple-
jos V = C
n
con las operaciones definidas como en el ejemplo 6.3 tomando
K = C forma un C-espacio vectorial {C
n
, C, +, ·)}.
172 6. ESPACIOS VECTORIALES
EJEMPLO 6.8. Si K = R, y las operaciones en C
n
se definen en forma
an´aloga al ejemplo anterior (y en forma an´aloga al ejemplo 6.3), resulta
C
n
, R, +, ·} un espacio vectorial real (distinto del ejemplo 6.7 , puesto que
difieren en el cuerpo K).
EJEMPLO 6.9. Las sucesiones de n´ umeros complejos con la suma de su-
cesiones y el producto de una sucesi´on por un n´ umero complejo definidos en
forma similar al ejemplo 6.4 constituyen un C-espacio vectorial.
OBSERVACI
´
ON 6.5. En todos los ejemplos anteriores, para verificar que
efectivamente son espacios vectoriales, hay que verificar que se cumplen las
propiedades incluidas en la definici´on 1.1, para la suma y el producto por
escalares.
EJEMPLO 6.10. Sea V el conjunto de sucesiones de n´ umeros complejos.
Si K = R, + : V × V → V y · : R × V → V, operaciones ´estas definidas
an´alogamente al ejemplo 6.4 Entonces {V, R, +, ·} es un R-espacio vectorial
distinto al del ejemplo 6.4 y la del ejemplo 6.9
EJEMPLO 6.11. El conjunto {

0} es un K-espacio vectorial, donde se define

0+

0=

0 y α ·

0 =

0 , ∀ α ∈ K.
EJEMPLO 6.12. El conjunto de los polinomios de grado menor o igual a
n, en una variable x (este conjunto se indica con P
n
), K = R, y la suma
y producto por un real definido como en el ejemplo 6.5, forman un espacio
vectorial real.
6.2. EJEMPLOS DE ESPACIOS VECTORIALES 173
EJEMPLO 6.13. El conjunto de los polinomios en una variable x, de grado
igual a n, con coeficientes reales, K = R y la suma y el producto defini-
dos como en el ejemplo 6.5, no forman un espacio vectorial ( Estudiar por
qu´e no).
EJEMPLO 6.14. Con las operaciones usuales {R, C, +, ·} no es un espacio
vectorial.
OBSERVACI
´
ON 6.6. Se denota u −v a la suma u + (−v) con u, v ∈ V .
PROPOSICI
´
ON 6.7. 0 · u =

0 , ∀u ∈ V
Demostraci´ on. 0 · u = 0 · u +

0 = 0 · u + (u −u) = (0 · u + 1 · u) −u =
(0 + 1) · u −u = 1 · u −u = u −u =

0
PROPOSICI
´
ON 6.8. α ·

0 =

0 , ∀α ∈ K
Demostraci´ on. Sea u un vector cualquiera de V,

0 = α · u −α · u =
= α ·

0 +u

−α · u =

α ·

0 +α · u

−α · u = α ·

0 + (α · u −α · u) =
= α ·

0 +

0 = α ·

0.
PROPOSICI
´
ON 6.9. Sean α ∈ K, u ∈ V . Entonces , α · u =

0 si y s´ olo
si : α = 0 y/o u =

0.
Demostraci´ on. Directo: Supongamos que α = 0. Como α · u =

0,
1
α
·
(α · u) =
1
α
·

0 de donde

1
α
· α

· u =

0, o sea 1 · u =

0 entonces, u =

0.
Rec´ıproco: son las Proposiciones 6.7 y 6.8.
PROPOSICI
´
ON 6.10. (−1) .v = −v ∀v ∈ V
Demostraci´ on. Basta ver que (−1) v es el opuesto de v, es decir
v + (−1) .v = 1.v + (−1) v = (1 + (−1)) v = 0.v =

0
174 6. ESPACIOS VECTORIALES
6.3. Subespacios
DEFINICI
´
ON 6.2. Sea {V, K, +, ·} un espacio vectorial y W = ∅ un
subconjunto no vacio de V. Diremos que W es un subespacio de V, si se
cumple:
a) w
1
+ w
2
∈ W para todo w
1
∈ W y w
2
∈ W
b) λw ∈ W para todo w ∈ W y λ ∈ K
Es decir, un subespacio de un espacio vectorial es un conjunto no vac´ıo,
“cerrado” frente a la suma y al producto de escalares por vectores.
OBSERVACI
´
ON 6.11. Si W es un subespacio, entonces

0 ∈ W. En efecto
como W = ∅ existe w ∈ W y como W es cerrado para la multiplicaci´on por
escalares λw ∈ W, ∀λ ∈ K. En particular 0.w =

0 ∈ W. La ´ ultima igualdad
es consecuencia de la Proposici´on 6.7.
EJEMPLOS DE SUBESPACIOS VECTORIALES
EJEMPLO 6.15. Los primeros ejemplos y los m´as sencillos, de subespa-
cio vectoriales, son los llamados subespacios triviales. Uno de ellos es
W =

0
¸
(conjunto formado por un ´ unico elemento, el vector nulo). El otro
subespacio trivial es W = V . En ambos casos, W es subespacio de V .
EJEMPLO 6.16. Sea π un plano del espacio por el origen.
π = {(x, y, z) ∈ R
3
: ax +by +cz = 0}.
Entonces π es un subespacio de R
3
En efecto π = ∅, pues

0 = (0, 0, 0) ∈ π y
es cerrado para las operaciones. Sean p
1
= (x
1
, y
1
, z
1
) y p
2
= (x
2
, y
2
, z
2
) dos
puntos de π y λ un escalar cualquiera. Verifiquemos primero que la suma es
cerrada
p
1
+p
2
= (x
1
, x
2
, x
3
) + (x
2
, y
2
, z
2
) = (x
1
+x
2
, y
1
+y
2
, z
1
+z
2
) = q
6.3. SUBESPACIOS 175
y q ∈ π. Para ver que el elemento q pertenece al conjunto π es necesario, dado
que ´este esta definido por comprensi´on, verificar que q cumple las condici´on
l´ogica de pertenencia, esto es sus coordenadas deben verificar la ecuaci´on
ax +by +cz = 0
a(x
1
+x
2
)+b(y
1
+y
2
)+c(z
1
+z
2
) =
=0, pues p
1
∈π
. .. .

ax
1
+by
1
+cz
1

+
=0, pues p
2
∈π
. .. .

ax
2
+by
2
+cz
2

= 0
Veamos ahora que π es cerrado para la multiplicaci´on por escalares.
λp
1
= λ(x
1
, y
1
, z
1
) = (λx
1
, λy
1
, λz
1
) = q

y q

∈ π pues
a(λx
1
) +b(λy
2
) +c(λz
1
) = λ
=0, pues p
1
∈π
. .. .

ax
1
+by
1
+cz
1

= 0
Si en cambio se considera un plano π que no pase por el origen entonces su
ecuaci´on ser´a ax +by + cz = d con d = 0. Obs´ervese que π = ∅ pero

0 / ∈ π
en consecuencia no es un subespacio. Es adem´as f´acil ver que no es cerrado
para las operaciones si p
1
y p
2
son dos puntos de π su suma q = p
1
+ p
2
no pertenece a π tal como se ve en el dibujo. Compruebe el lector esto
anal´ıticamente.
p
1
p
2

0
π
q = p
1
+p
2
176 6. ESPACIOS VECTORIALES
EJEMPLO 6.17. Sea r un recta por el origen entonces r es un subespacio
vectorial de R
3
.
r = {(x, y, z) ∈ R
3
: ax +by +cz = 0; a

x +b

y +c

z = 0}
Obs´ervese que (x, y, z) ∈ r si y solo si

a b c
a

b

c

¸
¸
x
y
z
¸

=

0
0

(6.42)
Sean p
1
= (x
1
, y
1
, z
1
) y p
2
= (x
2
, y
2
, z
2
) dos puntos de r y λ ∈ R entonces
q = p
1
+ p
2
pertenece a r, para verificar esto veremos que las coordenadas
de q = (x
1
+x
2
, y
1
+y
2
, z
1
+z
2
) verifican la condici´on 6.42

a b c
a

b

c

¸
¸
x
1
+x
2
y
1
+y
2
z
1
+z
2
¸

=

a b c
a

b

c

¸
¸

¸
¸
x
1
y
1
z
1
¸

+

¸
¸
x
2
y
2
z
2
¸

¸

=
=

a b c
a

b

c

¸
¸
x
1
y
1
z
1
¸

. .. .
=(
0
0
), pues p
1
∈r
+

a b c
a

b

c

¸
¸
x
2
y
2
z
2
¸

. .. .
=(
0
0
), pues p
2
∈r
=

0
0

El lector verificara que λp
1
= q

∈ r.
Es claro que para verificar que p
1
+p
2
pertenece a r s´olo tuvimos que usar
la propiedad distributiva del producto de matrices por lo tanto en general si
A ∈ M
m×n
es una matriz cualquiera y S = {X ∈ R
n
: A·X =

0} ⊂ R
n
es
el conjunto soluci´on del sistema homog´eneo de matriz A entonces S es un
subespacio de R
n
.
De hecho veremos m´as adelante que el rec´ıproco es verdadero. Es decir que
si S es un subespacio cualquiera de R
n
existe A ∈ M
m×n
tal que S es el
conjunto soluci´on del sistema homog´eneo AX =

0.
Es correcto, entonces afirmar que los subespacios de R
n
son exactamente los
conjuntos soluci´on de los sistemas homog´eneos de ecuaciones.
Por otra parte, desde un punto de vista m´as geom´etrico es natural entonces
6.3. SUBESPACIOS 177
pensar esquem´aticamente los subespacios de R
n
(y de hecho, como veremos
m´as adelante, los de un espacio vectorial de dimensi´on finita cualquiera
1
como la generalizaci´on de los planos y rectas por el origen de E.
EJEMPLO 6.18. En {R
3
, R, +, ·} W=
¸
(a
1
, a
2
, a
3
) ∈ R
3
tales que a
3
= 0
¸
entonces W es un subespacio de V.
EJEMPLO 6.19. En {R
n
, R, +, ·} sea W = {(a
1
, ..., a
n
) ∈ R
n
: a
i
= 0} con
i fijo 0 < i n, es decir W es el conjunto de las n-uplas con la i-´esima
componente nula. Entonces W es un subespacio de R
n
.
EJEMPLO 6.20. En las sucesiones de n´ umeros reales (ejemplo 6.4) sea W
el conjunto formado por las sucesiones que a partir de alg´ un t´ermino, tienen
todos los t´erminos restantes iguales a cero.
Verificar que W es un subespacio del espacio vectorial V.
EJEMPLO 6.21. Sea P el espacio vectorial de los polinomios definido en el
ejemplo 6.5. Sea P
n
el subconjunto de los polinomios de grado menor o igual
que n. Entonces P
n
es un subespacio de P. N´otese que si consideramos s´olo
el conjunto de polinomios de grado exactamente n con n ≥ 1 no constituyen
subespacio de P pues el polinomio nulo tiene grado 0.
EJEMPLO 6.22. Sea V el espacio vectorial del ejemplo 6.6, y sea C[a, b]
el conjunto de las funciones f que son continuas. f : [a, b] → R. Entonces
C[a, b] es un subespacio de V. Recordar que la suma de funciones continuas
es una funci´on continua, as´ı como tambi´en lo es el producto de una funci´on
continua por un escalar.
1
Para entender que es un espacio de dimensi´on finita v´ease m´as adelante la definici´on
6.8)
178 6. ESPACIOS VECTORIALES
EJEMPLO 6.23. En el espacio de las n-uplas de complejos (ejemplo 6.7)
sea W un subconjunto de las n-uplas cuya suma de t´erminos da cero. Se
puede verificar que es un subespacio de C
n
.
EJEMPLO 6.24. En el espacio del ejemplo 6.7 {C
n
, C, +, ·} sea W el sub-
conjunto de las n-uplas cuyo primer t´ermino es 5+2i . Este subconjunto W
no es un subespacio, porque al sumar dos elementos de W, el resultado no
pertenece a W.
EJEMPLO 6.25. Sea {C
n
, R, +, ·} el espacio vectorial del ejemplo 6.8 Sea
W’ el subconjunto formado por las n-uplas de n´ umeros complejos cuyos
t´erminos tienen parte real igual a cero. Es un subespacio. En este ejemplo es
importante que el cuerpo Ksea R y no C. Observar que el mismo subconjunto
W’, considerado como subconjunto del espacio vectorial {C
n
, C, +, ·} no es
un subespacio.
EJEMPLO 6.26. En el ejemplo 6.9 de las sucesiones de n´ umeros complejos
sobre el cuerpo C, con las operaciones usuales, sea W el subconjunto de
las sucesiones que tienen igual a cero los t´erminos que est´an en lugar par:
W = {{a
n
} : a
n
∈ C, a
2k
= 0}. Entonces W es un subespacio.
TEOREMA 6.12. Si W es un subespacio de {V, K, +, ·} entonces {W, K, +, ·}
con las operaciones + y · “heredadas”de V, es un espacio vectorial sobre el
mismo cuerpo K.
Demostraci´ on. Hay que probar que si {V, K, +, ·} es espacio vectorial y
W ⊂ V es subespacio de V entonces {W, K, +, ·} tambi´en es un espacio
vectorial es decir se cumplen todas las condiciones de la definici´on 6.1. Las
operaciones + y · en W son las mismas que en V s´olo que restringidas a W
(esto es definidas s´olo para los elementos de W).
Como W es cerrado para las operaciones estas quedan bien definidas es decir
6.3. SUBESPACIOS 179
+ : W×W →W y · : K×W →W. Por otra parte las propiedades asociativa
y conmutativa de la suma y todas las del producto se verifican en W pues
se verificaban para cualesquiera vectores de V y W ⊂ V .
Adem´as en la observaci´on 6.11 vimos que

0 ∈ W y como

0 +v = v +

0 = v,
∀v ∈ V entonces tambi´en ser´a esto cierto ∀v ∈ W pues W es un subconjunto
de V . Por lo tanto la suma en W tiene neutro. Resta entonces s´olo verificar
la existencia del opuesto. Naturalmente que si w ∈ W ⊂ V es un elemento
cualquiera de W entonces tambi´en lo es de V y por lo tanto existe −w ∈ V ,
pero a priori podr´ıa ocurrir que −w / ∈ W. Veremos que esto no es posible si
W es no vac´ıo y cerrado para las operaciones, en efecto sea w ∈ W, como W
es cerrado para las operaciones se tiene que λw ∈ W, ∀λ ∈ K, en particular
si λ = −1. Por lo tanto (−1)w = −w ∈ W. En ´esta ´ ultima igualdad se uso
la proposici´on 6.10. Esto prueba la existencia del opuesto en W y concluye
la prueba.
OBSERVACI
´
ON 6.13. Este teorema permite ver en forma f´acil si un cierto
conjunto W sobre un cuerpo K, con ciertas operaciones + y · es un espacio
vectorial. En efecto, en lugar de verificar todas las condiciones de la definici´on
6.1, alcanza ver si W es un subespacio de alg´ un V, que ya se sepa tiene
estructura de espacio vectorial. Para lo cual alcanza con probar que W es
cerrado con respecto a la suma y cerrado con respecto al producto de un
escalar por un vector.
TEOREMA 6.14. Sean W
1
, W
2
, ..., W
n
, subespacios de un mismo espacio
V. Entonces W =
n

i=1
W
i
es tambi´en un subespacio de V.
Demostraci´ on. En primer lugar W = ∅; en efecto: el vector

0 pertenece a
todos los subespacios W
i
, y por lo tanto pertenece tambi´en a su intersecci´on
W.
Adem´as W ⊂ V puesto que W ⊂ W
i
⊂ V ∀ i = 1, 2, ..., n
180 6. ESPACIOS VECTORIALES
Falta probar que W es cerrado frente a la suma de vectores y al producto
de un escalar por un vector. Sean w y w

∈ W, entonces w y w

∈ W
i
para
cada i = 1, 2, ..., n. Luego w + w

∈ W
i
∀ i = 1, 2, ..., n (puesto que W
i
son
subespacios). Entonces w +w

∈ W.
Ahora sean α ∈ K y w ∈ W. Se tiene w ∈ W
i
∀ i = 1, 2, ..., n. De
all´ı α·w ∈ W
i
∀ i = 1, 2, ..., n (puesto que W
i
son subespacios). Entonces α·w
pertenece a la intersecci´on de todos los W
i
, o sea a W.
6.4. Subespacio generado e independencia lineal
En esta Secci´on daremos definiciones de combinaci´on lineal, dependencia
e independencia lineal de vectores en espacios vectoriales cualesquiera, que
generalizan los conceptos vistos en el Cap´ıtulo 2
DEFINICI
´
ON 6.3. Sea V un espacio vectorial, v
1
, v
2
, ..., v
n
vectores de V.
Decimos que v es combinaci´on lineal (c.l.) de v
1
, v
2
, ..., v
n
cuando existen
escalares λ
1
, λ
2
, ..., λ
n
tales que : v = λ
1
v
1

2
v
2
+... +λ
n
v
n
Si A es un subconjunto no vac´ıo de V, se indica con [A] al conjunto de
todas las combinaciones lineales de elementos de A, es decir:
[A] =
¸
v ∈ V tales que : v = λ
1
v
1
+... +λ
p
v
p
con λ
i
∈ K, v
i
∈ A ∀i
¸
.
TEOREMA 6.15. Sean V un espacio vectorial y A = ∅, A ⊂ V . Entonces
[A] es un subespacio de V.
Demostraci´ on. [A] es distinto de vac´ıo porque dado alg´ un vector v de A,
se tiene

0 = 0·v ⇒

0 es combinaci´on lineal de v ⇒

0 ∈ [A]. Sean ahora v,w
∈ [A]. Esto quiere decir que existen vectores v
1
, v
2
, ..., v
n
; w
1
, w
2
, ..., w
m
pertenecientes a A (no necesariamente distintos) y existen α
1
, α
2
, ..., α
n
;
β
1
, β
2
, ..., β
m
tales que v = α
1
v
1

2
v
2
+... +α
n
v
n
y w = β
1
w
1

2
w
2
+... +
β
m
w
m
. Entonces v+w = α
1
v
1

2
v
2
+... +α
n
v
n

1
w
1

2
w
2
+... +β
m
w
m
.
O sea, v + w es combinaci´ on lineal de elementos de A. Hasta ahora hemos
probado que [A] es cerrado respecto a la suma.
6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL 181
Sea ahora λ ∈ K y sea v ∈ [A]. Existen escalares α
1
, α
2
, ..., α
n
y vectores
v
1
, v
2
, ..., v
n
∈ A, tales que: v = α
1
v
1

2
v
2
+... +α
n
v
n
Entonces: λ·v = λ· (α
1
v
1

2
v
2
+... +α
n
v
n
) = (λ·α
1
) v
1
+...+(λ·α
n
) v
n
y obtenemos que λv tambi´en es combinaci´on lineal de vectores de A. O sea,
[A] es cerrado respecto al producto de un escalar por un vector. Luego, [A]
es un subespacio.
DEFINICI
´
ON 6.4 (Subespacio generado). Sea V un espacio vectorial, A
un subconjunto de V. Decimos que [A] es el subespacio generado por A.
DEFINICI
´
ON 6.5 (Conjunto generador). Sea V un espacio vectorial y
S ⊂ V un subespacio decimos que A ⊂ S es un generador de S si [A] = S.
Es decir si cualquier elemento de S es combinaci´on lineal de A. (ver defini-
ci´on 6.3).
Notaci´on: Si A es un generador de S pondremos A
g
−→S
EJEMPLO 6.27. Sea V = R
3
y A = {(1, 0, 0), (0, 1, 0)} ¿A
g
−→V ?.
Sea v = (a, b, c) ∈ R
3
un vector cualquiera de R
3
para que A genere a R
3
debemos poder escribir v como combinaci´on lineal de A cuales quiere sean
a,b y c. Sea α
1
y α
2
reales tales que
(a, b, c) = α
1
(1, 0, 0) +α
2
(0, 1, 0) ⇐⇒

α
1
= a
α
2
= b
0 = c
Es claro que el sistema anterior es compatible si y solo si c = 0 entonces A
no genera R
3
.
EJEMPLO 6.28. Sea V = R
3
y S = {(a, b, c) ∈ R
3
: c = 0} determinar
un generador de S.
Como v ∈ R
3
si y solo si existen a y b reales tal
v = (a, b, 0) = (a, 0, 0) + (0, b, 0) = a(1, 0, 0) +b(0, 1, 0)
182 6. ESPACIOS VECTORIALES
entonces A = {(1, 0, 0), (0, 1, 0)}
g
−→S.
EJEMPLO 6.29. Sea V = M
2×2
y S = {A ∈ M
2×2
: A = A
t
} ⊂ M
2×2
el subespacio (verificarlo) de las matrices sim´etricas 2×2. Determinemos
un generador. Para eso observemos que A =

a b
c d

∈ S si y solo si b = c.
Entonces A ∈ S si y solo si existen a, b, d reales tales que
A =

a b
b d

=

a 0
0 0

+

0 b
b 0

+

0 0
0 d

=
a

1 0
0 0

+b

0 1
1 0

+d

0 0
0 1

Entonces G =

1 0
0 0

,

0 1
1 0

,

0 0
0 1
¸
g
−→S
EJEMPLO 6.30. Sea V = P
2
y
S = {p ∈ P
2
: p tiene termino independiente nulo}
Entonces, sea p tal que p(x) = ax
2
+ bx + c, p ∈ S si y solo si c = 0 es
decir p ∈ S si y solo si existen a, b reales tales que p(x) = ax
2
+ bx pero
entonces si ponemos p
i
∈ P
2
tal que p
i
(x) = x
i
, con i = 0, 1, 2 tenemos que
p ∈ S si y solo si existen a y b reales tales que p = ap
2
+ bp
1
. Entonces
G = {p
2
, p
1
}
g
−→S
PROPOSICI
´
ON 6.16. Sea V un subespacio vectorial y A un subconjunto
finito de V, o sea A = {v
1
, v
2
, ..., v
n
} ⊂ V . Si v
k
es combinaci´ on lineal de
los dem´ as vectores de A, entonces [A] =

v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n

6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL 183
Demostraci´ on. Toda combinaci´on lineal de vectores de
¸
v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n
¸
es tambi´en una c.l. de vectores de A (basta agregar el vector v
k
multiplicado
por el escalar 0), es decir

v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n

⊂ [A].
Ahora hay que probar al rev´es: que toda c.l. de vectores de A es c.l. de
vectores de
¸
v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n
¸
. Se sabe que
v
k
= α
1
v
1

2
v
2
+...α
k−1
v
k−1

k+1
v
k+1
+... +α
n
v
n
. (6.43)
Sea u ∈ [A] entonces u es c.l. de A, tendremos:
u = λ
1
v
1

2
v
2
+· · · +λ
k−1
v
k−1

k
v
k

k+1
v
k+1
+· · · +λ
n
v
n
.
Sustituyendo v
k
por la expresi´on (6.43), resulta:
u = (λ
1

k
α
1
)v
1
+· · · + (λ
k−1

k
α
k−1
)v
k−1
+
+ (λ
k+1

k
α
k+1
)v
k+1
+· · · + (λ
n

k
α
n
)v
n
.
O sea, u es c.l. de
¸
v
1
, v
2
, ...v
k−1
, v
k+1
, ..., v
n
¸
como quer´ıamos probar.
DEFINICI
´
ON 6.6 (Independencia y dependencia lineal). Sea V un espa-
cio vectorial, A = {v
1
, v
2
, ..., v
n
} ⊂ V . Decimos que el conjunto es lineal-
mente independiente (L.I.) si y s´olo si dados escalares λ
1
, λ
2
, . . . , λ
n
tales
que:
λ
1
v
1

2
v
2
+· · · +λ
n
v
n
=

0
implica λ
1
= λ
2
= · · · = λ
n
= 0.
Decimos que el conjunto A es linealmente dependiente (L.D.) cuan-
do no es L.I..
Es decir, un conjunto es L.I. cuando la ´ unica combinaci´on lineal de sus
elementos que da el nulo es la trivial, esto es la que tiene todos los coefi-
cientes nulos.
Por el contrario es L.D. si existe alguna combinaci´on no trivial (alg´ un coe-
ficiente distinto de cero) de sus elementos que de el nulo.
184 6. ESPACIOS VECTORIALES
El lector debe remitirse a la secci´on 2.5 del cap´ıtulo 2 por ejemplos en
R
n
, no obstante esto veremos aqu´ı algunos ejemplos nuevos.
EJEMPLO 6.31. Sea V un espacio vectorial, v =

0 un vector de V.
Entonces {v} es L.I..
EJEMPLO 6.32. Sea V un espacio vectorial,

0
¸
es L.D.
EJEMPLO 6.33. Sean v
1
, v
2
, . . . , v
n
∈ V (V espacio vectorial ), entonces

0, v
1
, v
2
, ...., v
n
¸
es l.d
EJEMPLO 6.34. Sea V = M
2×2
y
G =

1 0
0 0

,

0 1
1 0

,

0 0
0 1
¸
entonces G es L.I. en efecto sean λ
1
, λ
2
, λ
3
reales tales que
λ
1

1 0
0 0


2

0 1
1 0


3

0 0
0 1

=

0 0
0 0

⇐⇒
⇐⇒

λ
1
λ
2
λ
2
λ
3

=

0 0
0 0

⇐⇒

λ
1
= 0
λ
2
= 0
λ
3
= 0
entonces G es L.I.
EJEMPLO 6.35. Sea A = {q
1
, q
2
, q
3
, q
4
} ⊂ P
2
donde q
1
(x) = x+1, q
2
(x) =
x
2
+x −1, q
3
(x) = x
2
+ 2x y q
4
(x) = x
2
−2, investiguemos la dependencia
lineal de A.
Sean λ
1
, λ
2
, λ
3
, λ
4
reales tales que
λ
1
q
1

2
q
2

3
q
3

4
q
4
=

0 ⇐⇒ (6.44)
λ
1
q
1
(x) +λ
2
q
2
(x) +λ
3
q
3
(x) +λ
4
q
4
(x) =

0, ∀x ∈ R ⇐⇒
λ
1
(x + 1) +λ
2
(x
2
+x −1) +λ
3
(x
2
+ 2x) +λ
4
(x
2
−2) = 0, ∀x ∈ R ⇐⇒

2

3

4
)x
2
+ (λ
1

2
+ 2λ
3
)x + (λ
1
−λ
2
−2λ
4
) = 0, ∀x ∈ R
6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL 185
de donde utilizando el teorema de identidad de polinomios
2
se deduce que
(6.44) se cumple si y solo si λ
1

2
, λ
3
y λ
4
verifican el sistema homog´eneo:
(S)

λ
2

3

4
= 0
λ
1

2
+ 2λ
3
= 0
λ
1
−λ
2
−2λ
4
= 0
.
Escalerizando y resolviendo (S) se deduce que es un sistema compatible
indeterminado y que
Sol(S) =
¸

1
, λ
2
, λ
3
, λ
4
) ∈ R
4
: λ
1
= λ
4
−λ
3
, λ
2
= −(λ
3

4
), λ
3
, λ
4
∈ R
¸
Por lo tanto (S) admite soluciones no triviales y consecuentemente tambi´en
(6.44) por lo cual G es L.D.
Observemos tambi´en que sustituyendo la soluci´on obtenida en (6.44) se tiene
que ∀ λ
3
y λ
4
∈ R

4
−λ
3
)q
1
−(λ
3

4
)q
2

3
q
3

4
q
4
=

0, =⇒
poniendo λ
3
= 0 y λ
4
= 1 tenemos, q
4
= −q
1
+q
2
Esto es un vector de A result´o combinaci´on lineal de los restantes.
OBSERVACI
´
ON 6.17. Las definiciones L.I. e L.D. se dieron para con-
juntos finitos, pero son aplicables tambi´en a conjuntos con una cantidad
infinita de vectores en un espacio vectorial. Si A es infinito., A⊂V . V espa-
cio vectorial, decimos que A es L.I. cuando cualquier subconjunto finito de
A es L.I. Decimos que A es L.D. cuando no es L.I. (es decir, cuando alg´ un
subconjunto finito de A es L.D.).
EJEMPLO 6.36. Sea V = P el espacio vectorial de todos los polinomios
de una variable x con coeficientes reales y sea A = {p
i
∈ P : i ∈ N},
donde p
i
(x) = x
i
. Entonces A es un conjunto L.I. con infinitos elementos,
pues cualquier subconjunto B ⊂ A finito que consideremos contiene una
2
Recordamos al lector el enunciado de este resultado: dos polinomios de coeficientes
reales o complejos son iguales si y solo si los coeficientes de las potencias respectivas son
iguales
186 6. ESPACIOS VECTORIALES
cantidad finita de polinomios de diferentes grados lo cual implica que B es
L.I. (verificarlo).
Veremos ahora un resultado que generaliza la proposici´on 2.14 del cap´ıtu-
lo 2 y lo visto en el ejemplo 6.35; un conjunto de m´as de un vector es L.D.
si y solo si uno de los vectores es combinaci´on lineal de los dem´as. M´as
a´ un, probaremos que la dependencia lineal se da s´olo cuando un vector del
conjunto se puede despejar en funci´on (lineal) de los anteriores.
PROPOSICI
´
ON 6.18. Sea V un espacio vectorial, y A un conjunto or-
denado contenido en V, que tiene m´ as de un elemento, tal que v
1
no es el
vector nulo: A = {v
1
, v
2
, ..., v
n
} ⊂ V con n > 1, v
1
=

0.
Entonces: A es L.D. si y s´ olo si existe v
k
∈ A (1 k n) tal que v
k
es
combinaci´ on lineal de los k-1 vectores anteriores
¸
v
1
, ..., v
k−1
¸
.
Demostraci´ on. (⇐)
Sabemos que existe v
k
∈ A, 1 k n, tal que v
k
es combinaci´on lineal
de los anteriores:
v
k
= λ
1
v
1

2
v
2
+... +λ
k−1
v
k−1
o sea

0 = λ
1
v
1

2
v
2
+· · · +λ
k−1
v
k−1
+ (−1)v
k
+ 0 · v
k+1
+· · · + 0 · v
n
.
Tenemos as´ı una combinaci´on lineal de los vectores de A, con no todos
los coeficientes iguales a cero (porque el coeficiente de v
k
es -1), que da el
vector nulo. Por definici´on A es L.D.
(⇒)
Ahora, sabiendo que A es L.D. y que v
1
=

0, hay que probar que un v
k
es combinaci´on de los anteriores vectores de A.
Por ser L.D. existen λ
1
, λ
2
, . . . , λ
n
escalares no todos nulos tales:
λ
1
v
1

2
v
2
+... +λ
n
v
n
=

0.
Sea k el mayor i tal que λ
i
= 0 ⇒ λ
i
= 0 ∀i > k y λ
k
= 0. Resulta k > 1,
porque sino ser´ıa λ
1
v
1
=

0, λ
1
= 0 ⇒ v
1
=

0 (contrario a la hip´otesis).
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 187
Entonces λ
1
v
1
+· · · +λ
k
v
k
=

0 y despejando, λ
k
v
k
= −λ
1
v
1
−· · · −λ
k−1
v
k−1
y como λ
k
= 0 se deduce que:
v
k
= −
λ
1
λ
k
v
1
−... −
λ
k−1
λ
k
v
k−1
.
Entonces v
k
es combinaci´on lineal de v
1
, ..., v
k−1
como se quer´ıa probar.
OBSERVACI
´
ON 6.19. De lo anterior se deduce en particular que un con-
junto es L.D. si y s´olo si un vector es combinaci´on lineal de los dem´as.
COROLARIO 6.20. Sea V un espacio vectorial y A = {v
1
, v
2
, . . . , v
n
} un
subconjunto cualquiera entonces A es L.I. si y solo si ning´ un vector de A es
combinaci´ on lineal de los restantes.
6.5. Base de un espacio vectorial y dimensi´on
La idea central de la Geometr´ıa Anal´ıtica es que, fijado un sistema de
coordenadas a cada punto del espacio le corresponde una ´ unica terna or-
denada de n´ umeros reales. Esto correspondencia permite tratar de manera
anal´ıtica los objetos geom´etricos del espacio (i.e. asociar a cada uno de ellos
una ecuaci´on) tal como vimos en el cap´ıtulo 4. En la construcci´on que all´ı hi-
cimos, no solo asoci´abamos coordenadas a los puntos del espacio E sino que
tambi´en asoci´abamos coordenadas a los vectores del espacio V . Veamos como
es posible generalizar esto a un espacio vectorial cualquiera.
DEFINICI
´
ON 6.7 (Base de un espacio vectorial). Sea V un espacio vec-
torial y A= {v
1
, v
2
, ..., v
n
}⊂ V (A finito). Decimos que A es base de V si y
s´olo si
a) A es un conjunto L.I.
b) A genera a V , es decir [A] = V .
188 6. ESPACIOS VECTORIALES
Notaci´on: Si V es un espacio vectorial y B es una base de V pondremos
B
b
−→V .
OBSERVACI
´
ON 6.21. Sea (V, K, +, ·) un espacio vectorial y S ⊂ V un
subespacio de V . Ya hemos visto que (S, K, +, ·) es ´el mismo un espacio
vectorial, donde + y · son las operaciones que hereda de V . Una base del
subespacio S es una base del espacio vectorial (S, K, +, ·).
PROPOSICI
´
ON 6.22. Sea V un espacio vectorial y A = {v
1
, v
2
, . . . , v
n
}
un subconjunto cualquiera, entonces A es base de V si y solo si, todo vector
del espacio se escribe en forma ´ unica como c.l. de los vectores de A (es decir,
los coeficientes de la c.l. son ´ unicos).
Demostraci´ on. (⇒)
En primer lugar, como A genera a V, entonces cualquier vector de V se
puede escribir como c.l. de vectores de A. Veremos ahora que esa combina-
ci´on lineal es ´ unica.
En efecto, supongamos que pueda escribirse un vector v como combina-
ci´on lineal de A, en dos formas distintas:
v = α
1
v
1
+· · · +α
n
v
n
y v = β
1
v
1
+· · · +β
n
v
n
Restando ambas igualdades tenemos:

0 = (α
1
−β
1
) v
1
+· · · + (α
n
−β
n
) v
n
La anterior es entonces una forma de escribir el nulo como combinaci´on lineal
de A. Como por hip´otesis A es base, entonces en particular A es L.I.. Por
definici´on de conjunto L.I. los coeficientes de la combinaci´on lineal anterior
deben ser todos ceros y por lo tanto:
α
1
= β
1
, α
2
= β
2
, . . . , α
n
= β
n
Consecuentemente las dos formas de escribir v como combinaci´on lineal de
A, son la misma.
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 189
(⇐) Supongamos ahora que cada vector de V se escribe de manera ´ unica
como combinaci´on lineal de A, entonces en particular A
g
−→V , para verifica
que A es base s´olo resta ver que A es L.I.. Sean λ
1
, λ
2
, . . . , λ
n
escalares tales
que
λ
1
v
1

2
v
2
+· · · +λ
n
v
n
=

0
Hemos escrito el vector nulo como combinaci´on lineal de A Por otra parte
tambi´en se tienen que
0v
1
+ 0v
2
+· · · + 0v
n
=

0.
Pero como cada vector (incluyendo al nulo) s´olo se puede escribir de ´ unica
manera como combinaci´on lineal de A debe ser λ
i
= 0. ∀i = 1, 2, . . . , n y
consecuentemente A es L.I.
Sea V un espacio vectorial de dimensi´on finita cualquiera sobre el cuerpo
K y B = {v
1
, v
2
, . . . , v
n
} una base de V . Dado un vector v ∈ V cualquiera
la proposici´on anterior establece que existen ´ unicos escalares α
1
, α
2
, . . . , α
n
tales que
v =
n
¸
i=1
α
i
v
i
llamaremos a estos n´ umeros las coordenadas en la base B del vector
v. De hecho con un poco m´as de formalidad podemos definir la funci´on
coord
B
: V −→ K
n
, tal que que a cada vector v le hace corresponder los
coeficientes de la combinaci´on lineal de B que da v. Esto es
coord
B
(v)
def
= (α
1
, α
2
, . . . , α
n
)
Obs´ervese que el vector v es un elemento del espacio V pero sus coordenadas
sin importar quien sea V son siempre un n-upla de escalares.
EJEMPLO 6.37. Sea V = (R
n
, R, +, ·) (o (C
n
, C, +·)) el conjunto
C = {(1, 0, 0, ..., 0) , (0, 1, 0, ..., 0) , (0, 0, 1, ..., 0) , ..., (0, 0, 0, ..., 1)}
190 6. ESPACIOS VECTORIALES
v coord
B
(v)
R
n
B
b
−→
V
coord
B
es una base de V pues es L.I. y genera V (comprobarlo). El conjunto C se
denomina base can´onica de (R
n
, R, +, ·) o de (C
n
, C, +, ·).
En general el i-esimo vector de la base can´onica lo notaremos
i-esimo
lugar

e
i
= (0, . . . , 0, 1, 0, . . . , 0)
Sea v = (x
1
, x
2
, . . . , x
n
) ∈ R
n
un vector cualquiera entonces
v = (x
1
, x
2
, . . . , x
n
) = x
1
e
1
+x
2
e
2
+· · · +x
n
e
n
entonces
coord
C
(v) = (x
1
, x
2
, . . . , x
n
).
Esto es el vector y sus coordenadas en la base can´onica coinciden. De hecho
lo que ocurre es que la funci´on coord
C
: R
n
−→R
n
es la funci´on identidad.
En general, como veremos en el pr´oximo ejemplo, un vector de R
n
y sus
coordenadas en una base arbitraria no coinciden esto s´olo ocurre si la base
considerada es la can´onica.
EJEMPLO 6.38. Sea V = R
3
y B = (1, 1, 0), (0, 1, 0), (0, 0, 1) es f´acil com-
probar y queda a cargo del lector que B es L.I. verifiquemos que tambi´en
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 191
genera R
3
. En efecto sea (a, b, c) ∈ R
3
un vector arbitrario comprobemos
que existen α
1
, α
2
, α
3
escalares tales que
(a, b, c) = α
1
(1, 1, 0) +α
2
(0, 1, 0) +α
3
(0, 0, 1) ⇐⇒
(a, b, c) = (α
1
, α
1

2
, α
3
) ⇐⇒

α
1
= a
α
1

2
= b
α
3
= c
Y este ´ ultimo sistema es compatible determinado y tiene soluci´on α
1
= a,
α
2
= b −a y α
3
= c de donde B
g
−→R
3
y por lo tanto es base. Adem´as
(a, b, c) = a(1, 1, 0) + (b −a)(0, 1, 0) +c(0, 1, 0)
por lo tanto
coord
B

(a, b, c)

= (a, b −a, c)
por ejemplo si v = (1, 2, 1) entonces coord
B

(1, 2, 1)

= (1, 1, 1).
En el otro sentido, supongamos que w ∈ R
3
es un vector tal que sus coor-
denadas en la base B son coord
B
(w) = (1, 2, 1) entonces el vector
w = 1(1, 1, 0) + 2(0, 1, 0) + 1(0, 0, 1) = (1, 3, 1).

Es claro que si V = R
n
tanto los vectores como sus coordenadas son
n-uplas por lo cual cabe la posibilidad de confundirlos lo cual naturalmente
constituye un grave error.
Hay que aclarar en cada caso, cuando se da una n-upla de R
n
, si se trata de
los vectores en si, o si se trata de las componentes en alguna base distinta
de la can´onica. S´olo puede omitirse esta aclaraci´on cuando la base es la
can´onica. Cuando decimos por ejemplo sea v el vector de R
3
tal que v =
(1, 2, 3) estamos indicando la 3-upla (1, 2, 3) por lo que no tiene sentido
preguntar en que base lo estamos expresando.
EJEMPLO 6.39. Sea {C
n
, R, +, ·}. Verif´ıquese que
{(1, 0, ..., 0) , (0, 1, ..., 0) , ..., (0, 0, ..., 1)} no es base.
192 6. ESPACIOS VECTORIALES
Sugerencia: El vector (i, 0, ..., 0) donde i es la unidad imaginaria no es
c.l. del conjunto anterior. Verif´ıque que:
C

= {(1, 0, . . . , 0), (i, 0, . . . , 0), (0, 1, . . . , 0), (0, i, . . . , 0), . . .
. . . , (0, 0, . . . , 1), (0, 0, . . . , i)}
es base de {C
n
, R, +, ·} .
EJEMPLO 6.40. Sea V = M
2×2
y
A =

1 0
0 0

,

0 1
0 0

,

0 0
1 0

,

0 0
0 1
¸
,
entonces A
b
−→M
2×2
, pues es un conjunto L.I. (verificarlo) y adem´as si M =

a b
c d

es una matriz 2 ×2 cualquiera se tiene que
M =

a b
c d

= a

1 0
0 0

+b

0 1
0 0

+c

0 0
1 0

+d

0 0
0 1

de donde A
g
−→M
2×2
y por lo tanto es base de M
2×2
. Adem´as coord
A
(M) =
(a, b, c, d). Obs´ervese que aqu´ı no hay posibilidad de confundir los vectores
con sus coordenadas pues los primeros son matrices y los segundos 4-uplas
de n´ umeros.
EJEMPLO 6.41. Sea V = P
n
y A = {p
0
, p
1
, . . . , p
n
}, donde p
i
(x) = x
i
,
con i = 0, . . . , n. Entonces A es L.I. (verificarlo) y adem´as si p ∈ P
n
es un
polinomio cualquiera de grado menor o igual a n tal que p(x) = a
n
x
n
+· · · +
a
1
x +a
o
entonces
p = a
0
p
0
+a
1
p
1
+· · · +a
n
p
n
por lo tanto A
g
−→P
n
y en consecuencia A es base de P
n
. Adem´as se tiene
que coord
A
(p) = (a
0
, a
1
, . . . , a
n
). Nuevamente aqu´ı no hay posibilidad de
confundirse coordenadas y vectores las primeras son (n + 1)-uplas y los
segundos son polinomios de grado menor o igual a n.
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 193
EJEMPLO 6.42. Sea S = {(x, y, z) : 2x−y +z = 0} deseamos determinar
una base de S. Para esto comencemos hallando un generador. Observemos
que v ∈ S si y solo si existen x y y reales tales que
v = (x, y, y −2x) = (x, 0, −2x) + (0, y, y) = x(1, 0, −2) +y(0, 1, 1)
entonces A = {(1, 0, −2), (0, 1, 1)} ⊂ S
g
−→S. Adem´as es f´acil de ver (hacerlo)
que A es L.I. y por lo tanto es un base de S.
EJEMPLO 6.43. Sea V = M
2×2
y S = {A ∈ M
2×2
: A = A
t
} hemos
visto en el ejercicio 6.29 que el conjunto
G =

1 0
0 0

,

0 1
1 0

,

0 0
0 1
¸
g
−→S
y de lo visto en el ejercicio 6.34 se sabe que A es L.I. por lo tanto G
b
−→S.

TEOREMA 6.23. Sea V un espacio vectorial. Sea A = {v
1
, . . . , v
n
} un
conjunto que genera a V y B = {w
1
, . . . , w
m
} un conjunto L.I. de V. En-
tonces m n.
Demostraci´ on. La idea de la pruebe consiste en construir un algoritmo
que permita sustituir uno a uno los vectores de A con los de B, en cada
paso al sustituir un vector de A por uno de B se obtiene un nuevo conjunto
generador del espacio V . Como el proceso de sustituci´on no culmina mientras
queden elementos en el conjunto B se prueba que en B hay por lo menos
tantos elementos como en A.
En el primer paso del algoritmo elegiremos un vector conveniente de A y lo
sustituiremos el vector w
m
. Para esto comencemos observando que, A
g
−→V
y por lo tanto w
m
∈ B ⊂ V es combinaci´on lineal de A. En consecuencia el
conjunto
A

1
= {w
m
, v
1
, . . . , v
n
}
es L.D.. Ahora bien, w
m
=

0, pues w
m
∈ B y B es L.I. por lo tanto la
proposici´on 6.18 asegura que existe en A

1
un vector (que no es el primero)
194 6. ESPACIOS VECTORIALES
que resulta combinaci´on de los anteriores. Designemos por v
i
∈ A a ese
vector, que ser´a el primero a sustituir. Pongamos, ahora
A
1
= A

1
−{v
i
} = {w
m
, v
1
, . . . , v
i−1
, v
i+1
, . . . , v
n
}.
Entonces A
1
g
−→V , pues, en virtud de la proposici´on 6.16 [A
1
] = [A

1
] = V .
En definitiva al cabo del primer paso se ha obtenido un nuevo conjunto
generador de V substituyendo v
i
por w
m
.
Para el segundo paso razonamos en forma an´aloga eligiendo otro vector de
A para ser sustituido por w
m−1
: como A
1
g
−→V , w
m−1
∈ B es combinaci´on
lineal de A
1
por lo tanto el conjunto
A

2
= A
1
∪ {w
m−1
} = {w
m−1
, w
m
, v
1
, . . . , v
i−1
, v
i+1
, . . . , v
n
}
resulta L.D.. De nuevo observamos que w
m−1
=

0, pues w
m−1
∈ B y B es
L.I., por lo tanto la proposici´on 6.18 asegura que existe un vector en A

2
(que no es el primero) que resulta combinaci´on lineal de los restantes, este
vector no puede ser w
m
pues si lo fuera deber´ıa ser combinaci´on de w
m−1
y esto contradice la independencia lineal de B. Designemos por v
k
∈ A a
dicho vector (ser´a el segundo vector a sustituir). La proposici´on 6.16 implica
nuevamente que el conjunto
A
2
= A

2
−{v
k
} = {w
m−1
, w
m
, v
1
, . . . , v
k−1
, v
k+1
, . . . , v
i−1
, v
i+1
, . . . , v
n
}
es un generador de V . Al cabo de dos pasos hemos sustituido dos vectores
de A por dos vectores de B y lo hemos hecho de modo que el conjunto
resultante A
2
es un generador de V , podemos continuar este procedimiento
de sustituci´on y el mismo s´ olo concluir´a cuando se terminen los vectores de
B. Cuando esto ocurra o bien los vectores de A se han acabado en simult´aneo
con los de B y entonces m = n o bien a´ un restan vectores de A sin sustituir
y por lo tanto m < n lo cual concluye la prueba.
COROLARIO 6.24. Sea V un espacio vectorial. Si una base tiene n ele-
mentos, entonces todas las dem´ as bases tienen n elementos.
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 195
Demostraci´ on. Sean A y B bases de V , A con n elementos y B con p
elementos. Como A es L.I. y B es generador, aplicando el teorema 6.23
tenemos np. Por otra parte, como B es L.I. y A es generador, aplicando
nuevamente el teorema 6.23, tenemos p n. O sea n = p.
DEFINICI
´
ON 6.8 (Dimensi´on de un espacio vectorial). Sea V un espacio
vectorial. Si existe una base de V que tenga n elementos, se dice que n es la
dimensi´on de V (obs´ervese en virtud del corolario anterior, n no depende
de la base que se halla encontrado). Notaremos dim (V ) = n.
Si V =

0
¸
(ejemplo 6.11), se conviene en decir que V tiene dimensi´on 0.
Si V =

0
¸
y no existe una base de Vcon una cantidad finita de elementos,
entonces decimos que la dimensi´on de V es infinita. Obs´ervese que si un
espacio vectorial V contiene un subconjunto L L.I. con infinitos elementos
entonces dim(V ) = ∞. En efecto, V no puede tener una base finita pues si
A ⊂ V es un subconjunto finito y A
b
−→V entonces en particular A
g
−→V pero
como L es L.I. y pose infinitos elementos podemos encontrar un subconjunto
finito L

⊂ L L.I. con card(L

) > card(A) lo cual contradice el teorema 6.23.
OBSERVACI
´
ON 6.25. Naturalmente si S ⊂ V es un subespacio del es-
pacio (V, K, +, ·) entonces su dimensi´on es la dimensi´on de (S, K, +, ·). Esto
es el n´ umero de elementos de una base de S (ver observaci´on 6.21).
EJEMPLO 6.44. En el ejemplo 6.37 vimos que C es una base (la base
can´onica) de R
n
por lo tanto dim(R
n
) = n. De manera an´aloga C
b
−→(C
n
, C, +·)
por lo tanto dim

(C
n
, C, +, ·)

= n. Por el contrario en el ejemplo 6.39 se
vio que C no es base de (C
n
, R, +, ·) pero si lo es
C

= {(1, 0, . . . , 0), (i, 0, . . . , 0), (0, 1, . . . , 0), (0, i, . . . , 0), . . .
. . . , (0, 0, . . . , 1), (0, 0, . . . , i)}
de donde dim

(C
n
, R, +, ·)

= 2n. Obs´ervese que al cambiar el cuerpo, aun-
que no hayamos cambiado el conjunto de vectores, el espacio vectorial cambia
196 6. ESPACIOS VECTORIALES
radic´almente al punto que cambia su dimensi´on. En los ejercicios veremos
que incluso hay ejemplos en los cuales un espacio de dimensi´ on finita puede
transformarse en uno de dimensi´on infinita cambiando s´olo el cuerpo.
EJEMPLO 6.45. De lo visto en los ejemplos 6.40 y 6.41 se deduce que
dim(M
2×2
) = 4 y dim(P
n
) = n + 1. ¿Cu´al es la dimensi´on de M
m×n
?.
EJEMPLO 6.46. Sean S = {(x, y, z) : 2x − y + z = 0} ⊂ R
3
y S

el
subespacio de las matrices 2 ×2 sim´etricas de lo visto en el ejemplos 6.42 y
6.43 se deduce respectivamente que existe una base de S con 2 elementos y
una base de S

con 3 elementos por lo tanto dim(S) = 2 y dim(S

) = 3.
El siguiente resultado da otra caracterizaci´on de una base, de hecho
afirma que un base es un conjunto L.I. “maximal” en el sentido de que
cualquier otro conjunto m´ as grande debe ser L.D.
TEOREMA 6.26. Sea A = {v
1
, v
2
, ..., v
n
} ⊂ V . Entonces A es base si y
s´ olo si A es L.I. y todo conjunto con m´ as de n vectores es L.D.
Demostraci´ on. (⇐)
Para probar que A es base , alcanza probar que A es generador de
todo el espacio, puesto que A es L.I. por hip´otesis. Para esto veremos que
cualquier vector puede ponerse como combinaci´on lineal de A. Es claro que
los vectores de A son ellos mismos combinaci´on de A as´ı que consideremos
un vector v ∈ V cualquiera tal que v / ∈ A, entonces el conjunto A

= A∪{v}
tiene n + 1 elementos y en consecuencia es por hip´otesis un conjunto L.D.
Entonces existen escalares λ
1
, λ
2
, . . . , λ
n
, λ no todos nulos tales que
(6.45) λ
1
v
1

2
v
2
+· · · +λ
n
v
n
+λv =

0
Veamos que debe ser λ = 0, ya que si λ = 0 se tendr´ıa que
λ
1
v
1

2
v
2
+· · · +λ
n
v
n
=

0
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 197
con alg´ un escalar distinto de cero y esto contradice la independencia lineal
de A asegurada por hip´otesis.
Entonces tenemos λ = 0. Despejando v en 6.45 se tiene:
v = −
λ
1
λ
v
1

λ
2
λ
v
2
−... −
λ
n
λ
v
n
Hemos probado que v es c.l. de A. Como v es un vector cualquiera de V , se
tiene que A
g
−→V , como quer´ıamos probar.
(⇒)
Tenemos que probar que todo conjunto con m´as de n vectores es L.D.
Sabemos por hip´otesis que A es base y por lo tanto en particular A es
generador de V . Sea W ⊂ V un conjunto cualquiera con m vectores m > n.
Si W fuera L.I. tendr´ıamos un conjunto L.I. con mas elementos que un
generador y esto contradice el teorema 6.23, por lo tanto W debe ser L.D.
EJEMPLO 6.47. Sea A = {x
2
+x−1, x+1, x
2
+3x−3, x
2
−1, −x
2
+2x+1} ⊂
P
2
entonces A es L.D. pues dim(P
2
) = 3 y card(A) = 5
OBSERVACI
´
ON 6.27. De hecho si m > n cualquier conjunto de R
n
con m
vectores es necesariamente L.D. Obs´ervese que si m < n un conjunto de R
n
con m vectores puede ser tanto L.D. como L.I. (verifique esto construyendo
ejemplos de ambas situaciones).
OBSERVACI
´
ON 6.28. Sea A un subconjunto de finito de vectores de R
n
en el cap´ıtulo 2 hab´ıamos definido el concepto de rango del conjunto como
la mayor cantidad de vectores de A que fueran linealmente independientes.
Ahora podemos observar que el rango de A no es otra cosa que la dimensi´on
del subespacio generado por A. En particular el rango de una matriz es la
dimensi´on del subespacio generado por las filas o por las columnas de la
misma.
198 6. ESPACIOS VECTORIALES
Los siguiente resultados son ´ utiles para construir bases de subespacios.
TEOREMA 6.29. Sea V un espacio vectorial de dimensi´ on n 1, A y B
subconjuntos de V (finitos).
Se cumplen las siguientes propiedades:
1) Si B genera a V, existe B’ contenido en B, tal que B’ es base de V.
2) Si A es L.I., existe A’ que contiene a A, tal que A’ es base de V (dicho
de otra forma, todo conjunto generador, contiene a alguna base; y todo L.I.
se puede agrandar hasta formar una base).
Demostraci´ on. 1) Sea B = {v
1
, v
2
, ..., v
k
}. Si B es L.I., entonces es base
(porque por hip´otesis B genera a V). Si B es L.D., o bien est´a formado
por un ´ unico vector, que tiene que ser el vector nulo (porque B es L.D.),
o bien est´a formado por m´as de un vector. En el caso en que B =

0
¸
,
como por hip´otesis B genera a V, ser´ıa el caso en que V =

0
¸
. Pero
este caso est´a excluido, porque por hip´otesis n1. De esta forma, resta s´olo
estudiar el caso en que B es L.D. y est´a formado por m´as de un vector. Por
la Proposici´on 6.18, hay un vector de B, que es combinaci´on lineal de los
dem´as vectores de B. Quitando ese vector v
r
de B, se obtiene un conjunto
B
1
. Por la proposici´on 6.16 [B] = [B
1
] y entonces B genera a V.
Si B
1
es L.I: ya est´a probado. Si es L.D. aplicando el mismo razonamiento
a B
1
en lugar de B, se obtiene un nuevo conjunto B
2
⊂ B
1
⊂ B tal que
genera a V. Si se repite el razonamiento, se obtendr´a finalmente un conjunto
B’ contenido en B, que es L.I. y que se obtuvo de B retirando sucesivamente
aquellos vectores que se expresaban como combinaci´on lineal de los restantes.
Por la proposici´on 6.16, este conjunto B’ tambi´en genera a V. Por definici´on
es base de V, probando 1).
2) Supongamos A =
¸
w
1
, ..., w
p
¸
es un conjunto L.I. Si A genera a V,
entonces A es base y tomamos A’ = A. Si A no genera a V, entonces existe
alg´ un vector de V que no es combinaci´on lineal de A. Llamemos w
p+1
a este
vector. Mostremos que:
¸
w
1
, w
2
, ..., w
p
, w
p+1
¸
es L.I.
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSI
´
ON 199
En efecto: λ
1
w
1

2
w
2
+...+λ
p
w
p

p+1
w
p+1
=

0 ⇒ λ
p+1
= 0, porque
sino se podr´ıa despejar w
p+1
en funci´on de los dem´as, y eso no es posible por-
que w
p+1
no es c.l. de w
1
, w
2
, ..., w
p
. Entonces: λ
1
w
1

2
w
2
+... +λ
p
w
p
=

0.
Luego, todos los coeficientes λ
i
son ceros, porque A es L.I. Tenemos entonces
que el conjunto A =
¸
w
1
, w
2
, ..., w
p
, w
p+1
¸
es L.I. Repitiendo la construc-
ci´on anterior a A
1
en lugar de A, vamos agregando vectores hasta obtener
un conjunto L.I. y que genere a V (sea hasta obtener una base de V). Siem-
pre se llega, en una cantidad finita de pasos, a un conjunto que genere a
V, porque por el teorema 6.26 los conjuntos L.I. no pueden tener mas de n
elementos, donde n es la dimensi´on del espacio.
El siguiente resultado es particularmente ´ util cuando se desea encontrar
una base de un espacio del cual se conoce la dimensi´on, de hecho en este caso
solo es necesario chequear la cantidad de vectores del conjunto candidato y
su independencia lineal
COROLARIO 6.30. Sea V un espacio vectorial de dimensi´ on n . Se
cumplen las siguientes afirmaciones:
1) Todo conjunto linealmente independiente A de n vectores, es base.
2) Todo conjunto de n vectores A que genera a V es base.
Demostraci´ on. 1) Si A = {v
1
, ..., v
n
} no genera V, existe v ∈ V tal
que v / ∈ [A]. Entonces {v
1
, ..., v
n
, v} es L.I. (como en la demostraci´on del
teorema anterior) pero tiene n + 1 vectores, lo que contradice el teorema
6.26, absurdo. Luego [A] = V .
2) Sea A = {v
1
, ..., v
n
}, con A
g
−→V . Si A es L.D. aplicando el teorema
6.29 se sabe que existe A
1
A tal que A
1
b
−→V , y card(A
1
) = p < n.
Luego+ dim (V ) = p < n. Absurdo.
EJEMPLO 6.48. Sea A = {(1, 0, 1, 0), (−1, 0, 1, 0), (0, 1, 0, 1), (0, −1, 0, 1)} ⊂
R
4
como es f´acil de verifica A es L.I. y como card(A) = 4 = dim(R
4
) enton-
ces A es base de R
4
.
200 6. ESPACIOS VECTORIALES
EJEMPLO 6.49. Sea S = [(1, 1, 1), (2, 1, 0), (−1, 0, 1)], hallar una base de
S y determinar su dimensi´on. Para esto comenzamos por encontrar un ge-
nerador, lo cual obviamente es inmediato, el conjunto
A = {(1, 1, 1), (2, 1, 0), (−1, 0, 1)}
es por definici´on un generador de S como desconocemos la dimensi´on del
subespacio no podemos aplicar la proposici´on 6.30 y debemos verifica si A es
L.I. o no. Es f´acil de ver que A es L.D. pues (1, 1, 1) − (2, 1, 0) = (−1, 0, 1).
Entonces A no es base pero de la proposici´on 6.29 existe A

⊂ A que si
lo es. Como el vector (−1, 0, 1) es c.l. de los restantes elementos de A la
proposici´on 6.16 A

= {(1, 1, 1), (2, 1, 0)}
g
−→S. Es f´acil verificar adem´as que
A

es L.I. en consecuencia A

b
−→S y por lo tanto dim(S) = 2.
EJEMPLO 6.50. Sea A = {q
1
, q
2
, q
3
, q
4
} donde q
1
(x) = x + 1, q
2
(x) =
x
2
+x−1, q
3
(x) = x
2
+2x y q
4
(x) = x
2
−2. Analicemos ahora el subespacio
S = [A] ⊂ P
2
. Queremos determinar la dimensi´on de S. Para eso encontra-
remos una base del subespacio. A
g
−→S pero por lo visto en el ejemplo 6.35 A
es L.D., por lo cual debe contener propiamente un subconjunto que sea base.
Para determinar este subconjunto procedemos como en la prueba del teore-
ma 6.29 y determinemos un conjunto A

A tal que [A

] = [A] eliminando
de A un vector que sea combinaci´on de los restantes. Sabemos del ejemplo
6.35 que q
4
es combinaci´on de los restantes elementos de A en consecuencia
consideramos A = {q
1
, q
2
, q
3
} en este caso es f´acil ver que q
3
= q
1
+q
2
por lo
tanto A

es tambi´en L.D. Eliminando q
3
tenemos que A
′′
= {q
1
, q
2
}
g
−→S y
como el lector comprobar´a A
′′
es L.I. y por lo tanto una base de S. Entonces
dim(S) = 2.
PROPOSICI
´
ON 6.31. Sea V un espacio vectorial de dimensi´ on finita n.
Sea W un subespacio de V. Entonces W tiene tambi´en dimensi´ on finita, que
es menor o igual que n.
Demostraci´ on. Si W =

0
¸
, entonces dim W = 0 y ya est´a probado,
pues 0 n.
6.6. SUMA DE SUBESPACIOS Y SUMA DIRECTA 201
Si W =

0
¸
, alcanza probar que existe una base de W con una cantidad
finita de elementos p. Una vez demostrado eso, por el teorema 6.23 resulta p
n, pues una base de W, es un conjunto L.I., con p elementos, y una base
de V es un conjunto que genera a todo el espacio, con n elementos.
Como W =

0
¸
entonces existe alg´ un vector w
1
∈ W, w
1
=

0. Si {w
1
}
genera a W, es base de W, y ya est´a probado. Si {w
1
} no genera a W, existe
un vector w
2
∈ W que no es combinaci´on lineal de w
1
.
Afirmamos que {w
1
, w
2
} es L.I. . En efecto, si λ
1
w
1

2
w
2
=

0, λ
2
= 0
pues de lo contrario se podr´ıa despejar w
2
en funci´on de w
1
, lo cual no
es posible porque w
2
no es combinaci´on lineal de w
1
. Entonces λ
2
= 0, y
entonces λ
1
w
1
=

0. Como w
1
=

0 se deduce λ
1
= 0.Tenemos ahora que
{w
1
, w
2
} es L.I. . Si genera a W, ya tenemos una base. Si no genera a W,
existe un tercer vector w
3
∈ W que no es combinaci´on lineal de los dos
primeros. Igual que antes se prueba que el conjunto {w
1
, w
2
, w
3
} es L.I..
Se puede repetir el razonamiento en una cantidad menor que n + 1 de
pasos hasta construir una base de W, porque de lo contrario tendr´ıamos un
conjunto L.I. de n + 1 vectores, contradiciendo el teorema 6.26 que dice
que los conjuntos L.I. no pueden tener m´as de n elementos, donde n es la
dimensi´on del espacio.
PROPOSICI
´
ON 6.32. Sea W un subespacio de V, con dim(V ) = n. Si
dim(W) = dim(V ), entonces W = V.
Demostraci´ on. Sea {w
1
, ..., w
n
} base de W. Entonces es L.I. y est´a for-
mado por n vectores de W ⊂ V . Si v ∈ V ; {w
1
, ..., w
n
, v} es L.D. (por
Teorema 6.26) y como antes, vemos que v se escribe como combinaci´on
lineal de {w
1
, ..., w
n
}, luego {w
1
, ..., w
n
} = V .
6.6. Suma de subespacios y suma directa
DEFINICI
´
ON 6.9. Suma de subespacios: Sea V un espacio vectorial. se
llama suma de los subespacios V
1
, V
2
, ..., V
n
de V, (y se denota como V
1
+
202 6. ESPACIOS VECTORIALES
V
2
+... +V
n
) al subconjunto de vectores W definido por:
W = {v ∈ V : ∃, v
1
∈ V
1
, v
2
∈ V
2
, ..., v
n
∈ V
n
, v = v
1
+v
2
+... +v
n
}
TEOREMA 6.33. La suma de subespacios de V es unr subespacio de V.
Demostraci´ on. Es f´acil ver que

0 ∈ W, porque

0 =

0 + · · · +

0 y

0 ∈
V
i
∀i = 1, 2, ..., n. Tambi´en es sencillo verificar que el vector u se puede
descomponer como suma de un vector de V
1
, uno de V
2
, · · · , uno de V
n
;
entonces λu tambi´en se descompone de esa forma. Es claro que W es cerrado
con respecto al producto por escalares. Para verificar que W es cerrado
respecto a la suma sean u y u’ tales que u = v
1
+ v
2
+ ... + v
n
y u

=
v

1
+v

2
+... +v

n
con v
1
y v

1
∈ V
1
; v
2
y v

2
∈ V
2
; ... ; v
n
y v

n
∈ V
n
. Entonces
u+u

= (v
1
+v

1
) +(v
2
+v

2
) +... +(v
n
+v

n
), donde v
1
+v

1
∈ V
1
; v
2
+v

2

V
2
; ... ; v
n
+v

n
∈ V
n
, porque V
1
, V
2
, ..., V
n
son subespacios.
DEFINICI
´
ON 6.10. Suma directa: Dados los subespacios V
1
, V
2
, ..., V
n
, el
subespacio suma de ellos se llama suma directa cuando todo vector de ´el
puede expresarse de forma ´ unica como suma de vectores de los subespacios
V
1
, V
2
, ..., V
n
. Cuando la suma es directa se representa V
1
⊕V
2
⊕... ⊕V
n
.
EJEMPLO 6.51. Sean en R
3
los subespacios V
1
= {(a
1
, a
2
, a
3
) : a
3
= 0} y
V
2
= {(a
1
, a
2
, a
3
) : a
1
= 0} . Todo vector de R
3
se puede escribir como suma
de un vector de V
1
y uno de V
2
, pero no de forma ´ unica:
(1, 1, 1) = (1, 1, 0) + (0, 0, 1)
(1, 1, 1) = (1, 1/2, 0) + (0, 1/2, 1)
Entonces la suma de V
1
y V
2
es todo R
3
. Pero esta suma no es directa.
TEOREMA 6.34. Si V = V
1
⊕ V
2
⊕ ... ⊕ V
n
y si B
1
, B
2
, ..., B
n
son las
bases de V
1
, V
2
, ..., V
n
, respectivamente entonces: B = B
1
∪ B
2
∪ ... ∪ B
n
es
una base de V.
Demostraci´ on. Probaremos que B genera a V, y que B es L.I.
Todo vector de V es suma de vectores de V
1
, V
2
, ..., V
n
, y a su vez, estos
son combinaciones lineales de sus respectivas bases. Entonces v es c.l.de
6.6. SUMA DE SUBESPACIOS Y SUMA DIRECTA 203
la uni´on de esas bases, que es B. Hemos probado que todo vector de V es
combinaci´on lineal de B, o sea B genera a V. Veremos que B es L.I.. Sea B
1
=

v
11
, v
12
, ..., v
1p
1
¸
; B
2
= {v
21
, v
22
, ..., v
1p
2
} ;· · · B
n
=

v
n1
, v
n2
, ..., v
np
n
¸
.
Tomemos una combinaci´on lineal de B igualada a

0:
a
11
v
11
+a
12
v
12
+... + a
1p
1
v
1p
1
+a
21
v
21
+a
22
v
22
+...
+a
2p
2
v
2p
2
+... +a
n1
v
n1
+ a
n2
v
n2
+... +a
np
n
v
np
n
=

0;
como

0 ∈ V y V = V
1
⊕V
2
⊕... ⊕V
n
, existe una ´ unica manera de expresar el
vector nulo como suma de vectores de V
1
, V
2
, ..., V
n
. Esa ´ unica manera tiene
que ser entonces

0 =

0 +

0 +... +

0.
La combinaci´on lineal de m´as arriba implica entonces que:
a
11
v
11
+a
12
v
12
+... +a
1p
1
v
1p
1
=

0
a
21
v
21
+a
22
v
22
+... +a
2p
2
v
2p
2
=

0
· · ·
a
n1
v
n1
+a
n2
v
n2
+... +a
np
n
v
np
n
=

0.
Siendo B
1
una base de V
1
, se tiene que B
1
es L.I., y de la primera igualdad
de mas arriba se deduce a
11
= a
12
= ... = a
1n
=

0. An´alogamente para los
dem´as coeficientes a
ij
. Entonces tenemos probado que B es L.I.
COROLARIO 6.35. Si V es suma directa de V
1
, V
2
, ..., V
n
entonces dimV =
dimV
1
+dimV
2
+... +dimV
n
Demostraci´ on. Es inmediata a partir de la definici´on de dimensi´on y del
teorema anterior.
PROPOSICI
´
ON 6.36. Sean V
1
y V
2
dos subespacios de V tales que V =
V
1
+V
2
. Entonces, V
1
∩ V
2
=

0
¸
si y s´ olo si V = V
1
⊕V
2
.
204 6. ESPACIOS VECTORIALES
Demostraci´ on. (⇒)
Supongamos v = v
1
+v
2
y v

= v

1
+v

2
con v
1
, v

1
∈ V
1
, v
2
, v

2
∈ V
2
. Luego,
v
1
−v

1
= v
2
−v

2
∈ V
1
y V
2
, por lo que , por hip´otesis v
1
−v

1
= v
2
−v

2
=

0,
lo que prueba que la suma es directa.
(⇐)
Sea v ∈ V
1
∩ V
2
luego −v ∈ V
1
∩ V
2
. Por lo tanto:

0 = v + (−v) =

0 +

0 y por definici´on de suma directa,

0 = v = −v.
Entonces V
1
∩ V
2
=

0
¸
.
CAP´ıTULO 7
TRANSFORMACIONES LINEALES.
Las transformaciones lineales son funciones entre espacios vectoriales.
Ellas preservan (mantienen) las estructuras lineales que caracterizan a esos
espacios: los transformados de combinaciones lineales de vectores son las
correspondientes combinaciones de los transformados de cada uno de los
vectores.
Las funciones que mantienen las estructuras caracter´ısticas de los es-
pacios entre los que act´ uan son de especial importancia porque permiten
”moverse” entre ellos comparando las estructuras que los definen; en par-
ticular, permiten analizar cu´an diferentes o semejantes son desde el punto
de vista de esas propiedades (lineales, en el presente caso). En este sentido
las transformaciones lineales son tan importantes en el estudio de los espa-
cios vectoriales, como las isometr´ıas o movimientos lo son en la geometr´ıa
m´etrica.
7.1. Transformaciones lineales
DEFINICI
´
ON 7.1. Sean V y W dos espacios vectoriales sobre el mismo
cuerpo K y T : V →W una funci´on. Diremos que T es una transforma-
ci´on lineal si satisface :
i) T (u +v) = T (u) + T (v) ∀ u, v ∈ V.
ii) T (a.v) = a. T (v) ∀ a ∈ K, ∀ v ∈ V.
EJEMPLO 7.1. Sean
C
1
= {f : R → R / f es derivable} ⊂ F = {f : R → R} .
205
206 7. TRANSFORMACIONES LINEALES.
La transformaci´on T : C
1
→ F tal que T (f) = f

es una transforma-
ci´on lineal, pues se cumple que
i) T (f
1
+f
2
) = (f
1
+f
2
)

= f

1
+f

2
= T (f
1
) +T (f
2
)
ii) T (αf) = (αf)

= αf

= αT (f)
EJEMPLO 7.2. Sea V un espacio vectorial y sea λ ∈ K. La funci´on
T : V →V tal que T (v) = λv es una transformaci´on lineal. Efectivamente:
i) T (v
1
+ v
2
) = λ (v
1
+ v
2
) = λv
1
+ λv
2
= T (v
1
) + T (v
2
)
ii) T (a.v) = λa v = a λv = a T (v)
EJEMPLO 7.3. Sea V un espacio vectorial y v
0
=

0 un vector fijo de V. La
funci´on T : V →V tal que: T (v) = v +v
0
no es una transformaci´on lineal,
pues T (v
1
+ v
2
) = v
1
+v
2
+v
0
= v
1
+v
0
+v
2
+v
0
= T (v
1
) +T (v
2
).
Las propiedades i) y ii) de la definici´on anterior se pueden resumir de la
siguiente forma:
PROPOSICI
´
ON 7.1. T : V →W es una transformaci´ on lineal si y s´ olo
si T (a
1
v
1
+ a
2
v
2
) = a
1
T (v
1
) + a
2
T ( v
2
) ∀ a
1
, a
2
∈ K ∀ v
1
, v
2
∈ V.
Demostraci´ on. Sean a
1
y a
2
escalares y v
1
y v
2
vectores.
(⇒) T (a
1
v
1
+ a
2
v
2
) = T (a
1
v
1
) + T (a
2
v
2
) = a
1
T (v
1
) + a
2
T ( v
2
) .
(⇐) En el caso particular en que a
1
= a
2
= 1 se obtiene T ( v
1
+ v
2
) =
T (v
1
) + T ( v
2
), y en el caso particular en que a
2
= 0 se obtiene T (a
1
v
1
) =
a
1
T (v
1
) .
PROPOSICI
´
ON 7.2. Sea T : V →W una transformaci´ on lineal. Enton-
ces, T

0

=

0.
Demostraci´ on. T

0

= T (0. v) = 0 . T (v) =

0.
7.1. TRANSFORMACIONES LINEALES 207
PROPOSICI
´
ON 7.3. Sean V y W espacios vectoriales sobre un mismo
cuerpo con dim(V ) = n, T : V → W y S : V → W transformaciones
lineales. Consideremos una base B = {v
1
, . . . , v
n
} de V. Entonces: T (v) =
S (v) ∀ v ∈ V si y solo si T (v
i
) = S (v
i
) ∀i = 1, 2, . . . , n.
Demostraci´ on. (⇒) Si T y S coinciden en todo el espacio V, en particular
coinciden en los vectores de la base B.
(⇐) Sea v ∈ V . Como B es base de V, existen α
1
, . . . , α
n
∈ K tales
que v = α
1
v
1
+. . . +α
n
v
n
. Luego, por ser T y S lineales
T (v) = T (α
1
v
1
+· · · +α
n
v
n
) = α
1
T (v
1
) +· · · +α
n
T (v
n
)
= α
1
S (v
1
) +· · · +α
n
S (v
n
) = S (α
1
v
1
+· · · +α
n
v
n
) = S (v) .
TEOREMA 7.4. Sean V, W espacios vectoriales sobre un mismo cuerpo
con dim( V ) = n. Sea {v
1
, . . . , v
n
} una base de V y w
1
, . . . , w
n
∈ W
arbitrarios. Entonces, existe una ´ unica transformaci´ on lineal T : V → W
tal que T (v
i
) = w
i
∀ i = 1 , . . . , n.
Demostraci´ on. Existencia: Si v ∈ V existen ´ unicos a
1
, . . . , a
n
tales que
v =
n
¸
i =1
a
i
v
i
. Definimos entonces T : V → W mediante T (v) =
n
¸
i =1
a
i
w
i
. Hay que verificar que T es lineal. Sean v y ¯ v vectores y λ, µ
escalares. Tenemos v =
n
¸
i =1
a
i
v
i
y ¯ v =
n
¸
i =1
¯ a
i
v
i
. Entonces T (λv +µ ¯ v) =
= T

n
¸
i =1
(λa
i
+µ ¯ a
i
) v
i

=
n
¸
i =1
(λa
i
+µ ¯ a
i
) w
i
= λ
n
¸
i =1
a
i
v
i

n
¸
i =1
¯ a
i
v
i
=
= λT (v) +µT (¯ v) . Luego T es lineal por la proposici´on 7.1
Unicidad: Supongamos que existan T : V →W y S : V →W lineales
tales que T (v
i
) = w
i
y S (v
i
) = w
i
. Entonces T y S coinciden en una
base de V; y por la proposici´on 7.3, resulta que T=S.
208 7. TRANSFORMACIONES LINEALES.
Hemos probado, pues, que una transformaci´on lineal queda determinada
por los valores que toma sobre una base.
EJEMPLO 7.4. Sea T : R
2
→ R
3
lineal tal que T (1, 2) = (3, −1, 5) y
T (0, 1) = (2, 1, −1) Como {(1, 2) , (0, 1)} es una base de R
2
, T est´a bien
determinada.
Hallemos T (x, y) con (x, y) ∈ R
2
.
T (x, y) = T (x (1, 2) + (−2x +y) (0, 1)) = xT (1, 2) + (−2x +y) T (0, 1) =
= x(3, −1, 5) + (−2x +y) (2, 1, −1) = (−x + 2y, −3x +y, 7x −y) .
As´ı T (x, y) = (−x + 2y, −3x +y, 7x −y).
EJEMPLO 7.5. Sea T : R
2
→R
2
lineal tal que T (1, 0) = T (0, 1) = (2, 3).
Como {(1, 0) , (0, 1)} es la base can´onica de R
2
, T esta determinada.
Luego
T (x, y) = T (x(1, 0) +y (0, 1)) = xT (1, 0) +yT (0, 1) =
= x(2, 3) +y (2, 3) = (x +y) (2, 3) .
7.2. Operaciones con transformaciones lineales.
DEFINICI
´
ON 7.2 (Suma de Transformaciones Lineales). Sean V, W es-
pacios vectoriales sobre un mismo cuerpo K y S : V → W y T : V → W
dos transformaciones lineales. Se define la suma de S y T como la trans-
formaci´on S +T : V →W tal que
(S +T) (v) = S (v) +T (v) ∀v ∈ V.
.
7.2. OPERACIONES CON TRANSFORMACIONES LINEALES. 209
EJEMPLO 7.6. Sean S : R
3
→ R
2
tal que S (x, y, z) = (x +y +z, x −z)
y T : R
3
→R
2
tal que T (x, y, z) = (x −y, y +z). Entonces la suma de S y
T es la transformaci´on S +T : R
3
→R
2
tal que
(S +T) (x, y, z) = S (x, y, z) +T (x, y, z)
= (x +y +z, x −z) + (x −y, y +z)
= (2x +z, x +y) .
PROPOSICI
´
ON 7.5. Si S y T son transformaciones lineales, entonces
S +T es una transformaci´ on lineal.
Demostraci´ on. Sean v
1
y v
2
vectores, λ y µ escalares. Probemos
(S +T) (λv
1
+µv
2
) = λ (S +T) (v
1
) +µ (S +T) (v
2
) .
En efecto
(S +T) (λv
1
+µv
2
) = S (λv
1
+µv
2
) +T (λv
1
+µv
2
) =
= λS (v
1
) +µS (v
2
) +λT (v
1
) +µT (v
2
) =
= λ [S (v
1
) +T (v
1
)] +µ [S (v
2
) +T (v
2
)] =
= λ [(S +T) (v
1
)] +µ [(S +T) (v
2
)] .
DEFINICI
´
ON 7.3 (Producto por un escalar). Se define el producto del
escalar λ ∈ K por la transformaci´on T, como la transformaci´on (λ.T) :
V →W tal que (λ.T) (v) = λ.T (v) ∀v ∈ V .
EJEMPLO 7.7. Sea T : R
2
→R
3
tal que T (x, y) = (x −2y, x +y, x)
Entonces el producto del escalar λ = 5 por la transformaci´on T es la
transformaci´on 5.T : R
2
→R
3
tal que
(5.T) (x, y) = 5.T (x, y) = 5. (x −2y, x +y, x) =
= (5 −10y, 5x + 5y, 5x) .
210 7. TRANSFORMACIONES LINEALES.
PROPOSICI
´
ON 7.6. Si T es una transformaci´ on lineal y λ un escalar
entonces λT es una transformaci´ on lineal.
Demostraci´ on. Probemos que
(λT) (α
1
v
1

2
v
2
) = α
1
(λT) (v
1
) +α
2
(λT) (v
2
) ∀v
1
, v
2
∈ V ∀α
1
, α
2
∈ K
En efecto (λT) (α
1
v
1

2
v
2
) = λT (α
1
v
1

2
v
2
) =
= λ[α
1
T (v
1
) +α
2
T (v
2
)] = λα
1
T (v
1
) +λα
2
T (v
2
) =
= α
1
λT (v
1
) +α
2
λT (v
2
) = α
1
(λT) (v
1
) +α
2
(λT) (v
2
) .
DEFINICI
´
ON 7.4 (Composici´on de Transformaciones Lineales.). Sean
U,V y W espacios vectoriales sobre un mismo cuerpo K, y S : U → V
y T : V →W dos transformaciones lineales. Se define la composici´on S y T
como la transformaci´on T ◦ S : U →W tal que (T ◦ S) (u) = T (S (u)) .
EJEMPLO 7.8. Sean S : R
3
→ R
2
tal que S (x, y, z) = (2x, y +z) y
T : R
2
→R
2
tal que T (x, y) = (y, x).
Luego T ◦ S : R
3
→R
2
es tal que (T ◦ S) (x, y, z) = (y +z, 2x).
PROPOSICI
´
ON 7.7. Si S y T son lineales, entonces T ◦ S es lineal
Demostraci´ on. Probemos que ∀α
1
, α
2
∈ K ∀u
1
, u
2
∈ V.
(T ◦ S) (α
1
u
1

2
u
2
) = α
1
(T ◦ S) (u
1
) +α
2
(T ◦ S) (u
2
)
En efecto (T ◦ S) (α
1
u
1

2
u
2
) = T (S (α
1
u
1

2
u
2
)) =
= α
1
T ( S (u
1
)) +α
2
T ( S (u
2
)) = α
1
(T ◦ S) (u
1
) +α
2
(T ◦ S) (u
2
) .
7.3. IMAGEN Y N
´
UCLEO DE UNA TRANSFORMACI
´
ON LINEAL. 211
7.3. Imagen y n´ ucleo de una transformaci´on lineal.
DEFINICI
´
ON 7.5. Sean V y W espacios vectoriales sobre el mismo cuer-
po K y T : V →W una transformaci´on lineal.
i) Llamaremos n´ ucleo de T al conjunto de V cuya imagen por T es el vector
nulo, es decir N (T) =

v ∈ V : T (v) =

0
¸
(tambi´en se usar´a la
notaci´on Ker (T) para N (T)).
ii) Llamaremos imagen de T al conjunto:
Im (T) = {w ∈ W : ∃ v ∈ V con w = T (v)} (tambi´en se utilizar´a la
notaci´on T (V ) para Im (T).)
EJEMPLO 7.9. Se considera la transformaci´on lineal T : R
3
→R
2
tal que
T (x, y, z) = (x +y +z, 2x + 2y + 2z).
1) Hallemos el n´ ucleo de T.
(x, y, z) ∈ N (T) ⇔T (x, y, z) = (0, 0) ⇔(x +y +z, 2x + 2y + 2z) = (0, 0)

x +y +z = 0
2x + 2y + 2z = 0
⇔ x +y +z = 0
As´ı el N (T) =
¸
(x, y, z) ∈ R
3
: x +y +z = 0
¸
.
2) Hallemos la imagen de T.
(a, b) ∈ Im(T) ⇔ existe (x
0
, y
0
, z
0
) ∈ R
3

T (x
0
, y
0
, z
0
) = (a, b)
⇔ existe (x
0
, y
0
, z
0
) ∈ R
3
tal que (x
0
+y
0
+z
0
, 2x
0
+ 2y
0
+ 2z
0
) = (a, b)
⇔ existe (x
0
, y
0
, z
0
) ∈ R
3
tal que

x
0
+y
0
+z
0
= a
2x
0
+ 2y
0
+ 2z
0
= b
⇔ el sistema

x +y +z = a
2x + 2y + 2z = b
es compatible
⇔ el sistema

x +y +z = a
0 = b −2a
es compatible
⇔b = 2a
212 7. TRANSFORMACIONES LINEALES.
Luego: Im(T) =
¸
(a, b) ∈ R
2
: b = 2a
¸
.
EJEMPLO 7.10. Se considera la transformaci´on lineal T : R
3
→ R
2
tal
que T (x, y, z) = (x +y, y +z).
1) Hallemos el n´ ucleo de T.
(x, y, z) ∈ N (T) ⇔T (x, y, z) =

0 ⇔(x +y, y +z) = 0

x +y = 0
y +z = 0
As´ı el N (T) =
¸
(x, y, z) ∈ R
3
: x = −y , z = −y con y ∈ R
¸
.
2) Hallemos la imagen de T.
(a, b) ∈ Im(T) ⇔ existe (x
0
, y
0
, z
0
) ∈ R
3

T (x
0
, y
0
, z
0
) = (a, b)
⇔ existe (x
0
, y
0
, z
0
) ∈ R
3
tal que

x
0
+y
0
= a
y
0
+z
0
= b
⇔ el sistema

x +y = a
y +z = b
es compatible.
Como el sistema es siempre compatible, resulta que Im(T) = R
2
.
EJEMPLO 7.11. Se considera la transformaci´on lineal T : P
2
→ R
2
tal
que T (p) = (p (0) , p (1)).
1) Hallamos el n´ ucleo N (T).
Sea p : p (t) = xt
2
+yt +z un polinomio de P
2
p ∈ N (T) ⇔ T (p) = (0, 0) ⇔(p (0) , p (1)) = (0, 0)

p (0) = 0
p (1) = 0

z = 0
x +y +z = 0

x cualquiera
y = −x
z = 0
Luego N (T) =
¸
p ∈ P
2

p : p (t) = xt
2
−xt con x ∈R
¸
2) Hallemos la imagen de T, Im(T).
7.3. IMAGEN Y N
´
UCLEO DE UNA TRANSFORMACI
´
ON LINEAL. 213
(a, b) ∈ Im(T) ⇔ existe p
0
∈ P
2
tal que T (p
0
) = (a, b) ⇔
⇔ existe p
0
∈ P
2
tal que (p
0
(0) , p
0
(1)) = (a, b)
⇔ existe p
0
: p
0
(t) = x
0
t
2
+y
0
t+z
0
∈ P
2
tal que (x
0
, x
0
+y
0
+z
0
) = (a, b)
⇔ existen x
0
, y
0
, z
0
∈ R tales que

x
0
= a
x
0
+y
0
+z
0
= b
⇔ el sistema

x = a
x +y +z = b
es compatible.
Como el sistema anterior es siempre compatible, resulta que Im(T) = R
2
EJEMPLO 7.12. Se considera la transformaci´on lineal
T : M
2x2
(R) →M
2x2
(R) tal que T (M) =

1 −1
−2 2

· M.
1) Hallemos el N (T) Sea M =

a b
c d

un matriz en M
2x2
(R)
M ∈ N (T) ⇔T (M) =

0 ⇔

1 −1
−2 2

M =

0
M
2x2
(R)

1 −1
−2 2

a b
c d

=

0 0
0 0

a −c b −d
−2a + 2c −2b + 2d

=

0 0
0 0

a −c = 0
b −d = 0
−2a + 2c = 0
−2b + 2d = 0

a = c
b = d
c cualquiera
d cualquiera
As´ı N (T) =

M ∈ M
2x2
(R) : M =

c d
c d

con c, d ∈ R
¸
.
214 7. TRANSFORMACIONES LINEALES.
2) Hallar la Im(T)

a b
c d

∈ Im(T) ⇔ existe

x
0
y
0
z
0
t
0

∈ M
2x2
(R) tal que
T

x
0
y
0
z
0
t
0

=

a b
c d

⇔ existe

x
0
y
0
z
0
t
0

∈ M
2x2
(R) tal que

1 −1
−2 2

x
0
y
0
z
0
t
0

=

a b
c d

⇔ existe

x
0
y
0
z
0
t
0

∈ M
2x2
(R) tal que

x
0
−z
0
y
0
−t
0
−2x
0
+ 2z
0
−2y
0
+ 2t
0

=

a b
c d

⇔ existen x
0
, y
0
, z
0
, t
0
∈ R tales que

x
0
−z
0
= a
y
0
−t
0
= b
−2x
0
+ 2z
0
= c
−2x
0
+ 2z
0
= d
⇔ el sistema

x −z = a
y −t = b
−2x + 2z = c
−2x + 2z = d
tiene soluci´on.
⇔ el sistema

x −z = a
y −t = b
0 = 2a +c
0 = 2b +d
tiene soluci´on
⇔2a +c = 0 y 2b +d = 0.
7.3. IMAGEN Y N
´
UCLEO DE UNA TRANSFORMACI
´
ON LINEAL. 215
As´ı la Im(T) =

a b
c d

∈ M
2x2
(R) : 2a +c = 0 y 2b +d = 0
¸
.
PROPOSICI
´
ON 7.8. N (T) es un subespacio vectorial de V.
Demostraci´ on. Veamos que N (T) = φ y que es cerrado respecto de las
operaciones del espacio vectorial.
1) T (0) =

0 ⇒

0 ∈ N (T) .
2) Si α, β ∈ K y v
1
, v
2
∈ N (T) entonces:
T (αv
1
+ β v
2
) = αT (v
1
) + β T (v
2
) = α.

0 + β .

0 =

0 ⇒
⇒ αv
1
+ β v
2
∈ N (T)
Luego N (T) es un subespacio de V.
PROPOSICI
´
ON 7.9. Im (T) es un subespacio vectorial de W.
Demostraci´ on. An´alogamente,
1) T

0

=

0 ⇒

0 ∈ Im (T)
2) Si α, β ∈ K y w
1
, w
2
∈ Im (T) entonces existen v
1
, v
2
tales que
T ( v
1
) = w
1
y T ( v
2
) = w
2
. Entonces si llamamos v = αv
1
+ β v
2
, se
tiene T (v) = αw
1
+ β w
2
y por lo tanto αw
1
+ β w
2
∈ Im (T) . Luego
Im (T) es un subespacio de W.
EJEMPLO 7.13. Hallemos una base del n´ ucleo y una base de la imagen
de la transformaci´on lineal T : R
4
→R
3
definida por
T (x, y, z, t) = (x −y +z +t, x + 2z −t, x +y + 3z −3t)
1) (x, y, z, t) ∈ N (T) ⇔T (x, y, z, t) = (0, 0, 0) ⇔
⇔(x −y +z +t, x + 2z −t, x +y + 3z −3t) = (0, 0, 0)
216 7. TRANSFORMACIONES LINEALES.

x −y +z +t = 0
x + 2z −t = 0
x +y + 3z −3t = 0

x −y +z +t = 0
y +z −2t = 0
2y + 2z −4t = 0

x −y +z +t = 0
y +z −2t = 0

x = −2z +t
y = −z + 2t
Luego los vectores del n´ ucleo de T son de la forma
(−2z +t, −z + 2t, z, t) con z, t ∈ R. Como
(−2z +t, −z + 2t, z, t) = z (−2, −1, 1, 0) +t (1, 2, 0, 1) con z, t ∈ R,
todo vector del n´ ucleo de T es combinaci´on lineal de los vectores (−2, −1, 1, 0)
y (1, 2, 0, 1). Por ser {(−2, −1, 1, 0), (1, 2, 0, 1) un conjunto L.I., es una base
de N(T).
2) w ∈ Im(T) ⇔∃v ∈ R
4
tal que w = T (v), es decir
∃ (x, y, z, t) ∈ R
4
tal que w = T (x, y, z, t) ,
w = (x −y +z +t, x + 2z −t, x +y + 3z −3t)
⇔∃x, y, z, t ∈ R tal que v = (x, x, x)+(−y, 0, y)+z (1, 2, 3)+t (1, −1, −3) .
Luego todo vector de la imagen de T es combinaci´on lineal de
{(1, 1, 1) , (−1, 0, 1) , (1, 2, 3) , (1, −1, −3)}
(observar que dichos vectores est´an en la imagen pues son imagen respecti-
vamente de los vectores de la base can´onica).
Pero el conjunto anterior es L.D. pues tiene 4 vectores y dim

R
3

=3.
Observemos que
(1, 2, 3) = 2 (1, 1, 1) + (−1, 0, 1)
(1, −1, −3) = −1 (1, 1, 1) + (−2) (−1, 0, 1)
Luego reducimos el generador L.D. hasta obtener el generador
{(1, 1, 1) , (−1, 0, 1)}
que s´ı es L.I Luego {(1, 1, 1) , (−1, 0, 1)} es base de Im(T).
7.3. IMAGEN Y N
´
UCLEO DE UNA TRANSFORMACI
´
ON LINEAL. 217
PROPOSICI
´
ON 7.10. Sea V, W espacios vectoriales de dimensi´ on finita
sobre un mismo cuerpo y T : V →W lineal.
i) Si {v
1
, . . . , v
n
}es un generador de V, entonces {T (v
1
) , . . . , T (v
n
)} es un
generador de la Im(T) (es decir que la imagen de un conjunto generador
de V es un generador de la Im(T)).
ii) Si {T (v
1
) , . . . , T (v
n
)} es un conjunto L.I. en Im(T) entonces {v
1
, . . . , v
n
}
es conjunto L.I. en V (es decir que la pre-imagen de un conjunto L.I. en la
Im(T) es un conjunto L.I. en V)
Demostraci´ on. i) Sea w ∈ Im(T). Entonces existe v ∈ V tal que w =
T (v).
Como v ∈ V y siendo {v
1
, . . . , v
n
} un generador de V, existen α
1
, . . . , α
n
escalares tales que v = α
1
v
1
+· · · +α
n
v
n
. Luego
w = T (v) = T (α
1
v
1
+· · · +α
n
v
n
) == α
1
T (v
1
) +· · · +α
n
T (v
n
)
As´ı todo vector w ∈ Im(T) es combinaci´on lineal de {T (v
1
) , . . . , T (v
n
)} ⊆
Im(T) es decir que {T (v
1
) , . . . , T (v
n
)} es un generador de la Im(T).
ii) Sean α
1
, . . . , α
n
∈ K tales que
α
1
v
1
+· · · +α
n
v
n
=

0.
Aplicando T y usando la linealidad α
1
T (v
1
) + · · · + α
n
T (v
n
) =

0 y siendo
{T (v
1
) , . . . , T (v
n
)} un conjunto L.I. resulta que α
1
= . . . = α
n
= 0. Esto
prueba que {v
1
, . . . , v
n
} es L.I.
PROPOSICI
´
ON 7.11. Sean V y W espacios vectoriales sobre un mismo
cuerpo con dim(V ) = n y T : V →W una transformaci´ on lineal.
Si {e
1
, . . . , e
d
} es una base del N (T) y {e
1
, . . . , e
d
, e
d+1
, . . . , e
n
} es una
base de V entonces {T (e
d+1
) , . . . , T (e
n
)} es una base de la Im(T).
Demostraci´ on. Probaremos que {T (e
d+1
) , . . . , T (e
n
)} es base de Im(T).
1) Es L.I. pues α
d+1
T (e
d+1
) +· · · +α
n
T (e
n
) =

0
⇒T (α
d+1
e
d+1
+· · · +α
n
e
n
) =

0 ⇒α
d+1
e
d+1
+· · · +α
n
e
n
∈ N (T)
218 7. TRANSFORMACIONES LINEALES.
α
d+1
e
d+1
+· · · +α
n
e
n
es C.L de la base de N (T).
α
d+1
e
d+1
+· · · +α
n
e
n
= α
1
e
1
+· · · +α
d
e
d
−α
1
e
1
−· · · −α
d
e
d

d+1
e
d+1
+· · · +α
n
e
n
=

0.
Pero {e
1
, . . . , e
n
} es L.I. porque es base de V; luego todos los coeficientes α
i
son ceros. Hemos probado que {T (e
d+1
) , . . . , T (e
n
)} es L.I.
2) {T (e
d+1
) , . . . , T (e
n
)} generan la Im(T) pues:
Sea w ∈ Im(T) ⇒∃v ∈ V tal que T (v) = w
v = α
1
v
1
+· · · +α
n
v
n
, porque {e
1
, . . . , e
n
} es base de V,
T (v) = w = T (α
1
e
1
+· · · +α
n
e
n
) =
= α
1
T (e
1
) +· · · +α
d
T (e
d
) +α
d+1
T (e
d+1
) +· · · +α
n
T (e
n
) =
= α
d+1
T (e
d+1
) +· · · +α
n
T (e
n
) .
Luego todo vector w ∈ Im(T) es C.L. de {T (e
d+1
) , . . . , T (e
n
)}, es decir,
{T (e
d+1
) , . . . , T (e
n
)} genera a Im(T).
TEOREMA 7.12 (De las dimensiones). Sean V y W espacios vectoriales
sobre un mismo cuerpo K, con dim(V ) = n y T : V →W una transforma-
ci´ on lineal. Entonces dim (V ) = dim (N (T)) +dim (Im(T)).
Demostraci´ on. Como N(T) es subespacio de V, si d = dim(N (T)), te-
nemos 0 d n.
Discutiremos tres casos.
1er. Caso. d=n. Como dim(N (T)) = V obtenemos N (T) = V .
Entonces T (v) =

0 ∀v ∈ V , es decir Im(T) =

0 y dim(Im(T)) = 0,
cumpli´endose la tesis en este caso.
2do. Caso. 0 < d < n. El resultado es una consecuencia directa de la
proposici´on anterior.
3er. Caso. d = dim(N (T)) = 0. Luego N (T) =

0
¸
.
Sea {v
1
, . . . , v
n
} una base de V. Por ser {v
1
, . . . , v
n
} un generador de V,
por la Proposici´on 7.10(i) {T (v
1
) , . . . , T (v
n
)} un generador de la Im(T).
7.4. TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. 219
Veamos que tambi´en es L.I. En efecto
α
1
T (v
1
) +. . . +α
n
T (v
n
) =

0 ⇔T (α
1
v
1
+. . . +α
n
v
n
) =

0
⇔α
1
v
1
+. . . +α
n
v
n
∈ N (T) ⇔α
1
v
1
+. . . +α
n
v
n
=

0
⇔α
1
= . . . . = α
n
= 0
por ser {v
1
, . . . , v
n
} base de V. Por lo tanto {T (v
1
) , . . . , T (v
n
)} es base de
la Im(T).
As´ı dim(Im(T)) = n y se cumple que dim V = dim N (T)+dim Im(T).
7.4. Transformaciones lineales inyectivas y sobreyectivas.
Sean V y W espacios vectoriales sobre un mismo cuerpo K y T : V →W
una transformaci´on lineal.
Recordemos que T es inyectiva cuando T (v
1
) = T (v
2
) entonces v
1
=
v
2
; o equivalentemente v
1
= v
2
entonces T (v
1
) = T (v
2
).
PROPOSICI
´
ON 7.13. Son equivalentes las siguientes afirmaciones:
i) T es inyectiva.
ii) Para todo conjunto A linealmente independiente de V se cumple que
T (A) es linealmente independiente en W.
iii) N (T) =

0
¸
.
Demostraci´ on. i) ⇒ii) Sabemos que T es inyectiva. Sea A = {v
1
, . . . , v
n
}
un conjunto L.I. de V. Probemos que T (A) = {T (v
1
) , . . . , T (v
n
)} es L.I.
en W.
Sean α
1
, . . . ., α
n
∈ K tales que α
1
T (v
1
) +. . . +α
n
T (v
n
) =

0
w
. Debemos
probar que α
1
= . . . . = α
n
= 0. Siendo T lineal obtenemos
T (α
1
v
1
+. . . +α
n
v
n
) =

0
w
.
As´ı T (α
1
v
1
+. . . +α
n
v
n
) = T

0
v

y como T es inyectiva se obtiene
que
α
1
v
1
+. . . +α
n
v
n
=

0
v
y siendo A = {v
1
, . . . , v
n
} L.I., se cumple que α
1
= . . . . = α
n
= 0.
220 7. TRANSFORMACIONES LINEALES.
ii) ⇒iii) Supongamos, por absurdo, que N (T) =

0
v
¸
.Entonces existe
v ∈ N (T) con v =

0
v
.
Luego A = {v} es L.I. en V ⇒
porhiptesis
T (A) = T (v) es L.I. en W y por
ii) T (v) =

0
w
es L.I. Absurdo.
iii) ⇒ i)SiT (v
1
) = T (v
2
) ⇒ T (v
1
) − T (v
2
) =

0
w
luego T (v
1
−v
2
) =

0
w
⇒v
1
−v
2
∈ N (T) por iii) v
1
−v
2
=

0
v
es decir v
1
= v
2
.
Recordemos ahora que T es sobreyectiva cuando ∀w ∈ W existe v ∈ V
con T (v) = w, o equivalentemente Im(T) = W.
PROPOSICI
´
ON 7.14. Son equivalentes las siguientes afirmaciones: i) T
es sobreyectiva
ii) Para todo A generador de V se cumple que T (A) es un generador de W
iii) Existe un generador A
0
de V tal que T (A
0
) es generador de W.
Demostraci´ on. i) ⇒ii) Sea A un generador de V. Por la Proposici´on 7.10
se cumple que T (A) es un generador de la Im(T).Pero Im(T) = W, por
ser T sobreyectiva. As´ı T (A) es un generador de W.
ii) ⇒ iii) Inmediato. iii) ⇒ i) Sabemos que existe A
0
= {v
1
, . . . , v
n
}
generador de V tal que T (A
0
) = {T (v
1
) , . . . , T (v
n
)} es generador de W.Sea
w ∈ W, como T (A
0
) es generador de W, existen α
1
, . . . ., α
n
∈ K tales que
w = α
1
T (v
1
) +. . . +α
n
T (v
n
)
Siendo T lineal se cumple que
w = T (α
1
v
1
+. . . . +α
n
v
n
)
Hemos probado que dado w ∈ W existe v
0
= α
1
v
1
+ . . . . + α
n
v
n
∈ V
tal que
w = T (v
0
) luego T es sobreyectiva.
Recordemos por ´ ultimo que T es biyectiva cuando es inyectiva y sobre-
yectiva.
7.4. TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. 221
PROPOSICI
´
ON 7.15. Son equivalentes las siguientes afirmaciones:
i) T es biyectiva
ii) Para toda base B del espacio V se cumple que T(B)es una base de W
iii) Existe una base B
0
del espacio V tal que T (B
0
) es una base de W.
Demostraci´ on.
i) ⇒ii)T es lineal y biyectiva ⇔

T es lineal e inyectiva (1)
T es lineal y sobreyectiva (2)
Por otro lado, B es una base de V ⇔

B es L.I. (1

)
B es generador de V (2

)
De (1) y (1’) aplicando la Proposici´on 7.13 se obtiene que T (B) es
L.I.(1”)
De (2) y (2’) aplicando la Proposici´on 7.14 se obtiene que T (B) es
generador de W (2”) De (1”) y (2”) se tiene que T (B) es una base de W.
ii) ⇒ iii) Inmediato. iii) ⇒ i) Sabemos que existe B
0
es base de V
tal que T (B
0
) es base de W, en particular existe B
0
es generador de V tal
que T (B
0
) es generador de W, luego por la proposici´on 7.14 T es sobre-
yectiva.Probemos que T es inyectiva, lo cual es equivalente a probar que
N (T) =

0
¸
, si v ∈ N (T) ⊆ V por ser B
0
= {v
1
, . . . , v
n
} base de V se
cumple que existen α
1
, . . . ., α
n
∈ K tales que v = α
1
v
1
+. . . . +α
n
v
n
.
Luego usando la linealidad de T se obtiene que T (v) = α
1
T (v
1
) +. . . +
α
n
T (v
n
). Pero como v ∈ N (T), se tiene que T (v) =

0
α
1
T (v
1
) +. . . +α
n
T (v
n
) =

0
Pero T (B
0
) = {T (v
1
) , . . . , T (v
n
)} es L.I. (por ser base) entonces α
1
=
. . . . = α
n
= 0 As´ı v =

0.
Recordemos que T es biyectiva si y solo si T es invertible, es decir, que
existe la funci´on inversa T
−1
.
PROPOSICI
´
ON 7.16. Sean V, W espacios vectoriales sobre un mismo
cuerpo y T : V →W una transformaci´ on lineal y biyectiva.
Entonces la funci´ on inversa T
−1
: W →V es una transformaci´ on lineal.
222 7. TRANSFORMACIONES LINEALES.
Demostraci´ on. Sean w
1
y w
2
∈ W y λ y µ ∈ K.
Observando que TT
−1
(w) = w y que T es lineal,
λw
1
+µw
2
= λTT
−1
(w
1
) +µTT
−1
(w
2
) =
= T

λT
−1
(w
1
) +µT
−1
(w
2
)

Aplicando T
−1
a ambos miembros
T
−1
(λw
1
+µw
2
) = λT
−1
(w
1
) +µT
−1
(w
2
) .
7.5. Isomorfismos entre espacios vectoriales
DEFINICI
´
ON 7.6. Sean V, W espacios vectoriales sobre un mismo cuerpo
K.
a) Diremos que una transformaci´on lineal T : V → W biyectiva es un
isomorfismo.
b) Diremos que V y W son isomorfos cuando existe un isomorfismo que
lleva V en W.
OBSERVACI
´
ON 7.17. De acuerdo a la proposici´on 7.16 si T : V →W es
un isomorfismo entonces T
−1
: W →V tambi´en lo es.
PROPOSICI
´
ON 7.18. Sean V y W dos espacios vectoriales de dimensi´ on
finita sobre un mismo cuerpo K. Entonces las proposiciones a) y b) son
equivalentes:
a) dim (V ) = dim (W)
b) V es isomorfo a W.
7.5. ISOMORFISMOS ENTRE ESPACIOS VECTORIALES 223
Demostraci´ on. a) ⇒ b) Sea dim (V ) = dim (W) = n. Sean A =
{v
1
, . . . , v
n
} base de V y B = {w
1
, . . . . , w
n
} base de W. Luego definimos
T : V → W lineal tal que T (v
i
) = w
i
(T est´a ”bien definida”por el
teorema 7.4). Como existe una base A de V tal que T (A) = B es base de
W, T es un isomorfismo por la proposici´on 7.15.
b) ⇒ a) Como V es isomorfo a W, existe un isomorfismo: T : V →
W . Por el teorema de las dimensiones se tiene que dim(V ) = dim(N (T))+
dim(Im(T)). Por ser T inyectiva dim(N (T)) = 0.Por ser T sobreyectiva
Im(T) = W. Luego dim(V ) = dim(W).
COROLARIO 7.19. Si V es un espacio vectorial, con dim(V ) = n, sobre
el cuerpo K, entonces V es isomorfo a K
n
.
Demostraci´ on. En efecto el espacio vectorial K
n
sobre el cuerpo K tiene
dimensi´on n. As´ı dim(V ) = dim(K
n
) = n ⇒V yK
n
son isomorfos.
Las coordenadas como transformaci´on lineal
Sea V un espacio vectorial de dimensi´on n sobre el cuerpo K. Fijemos
una base B = {v
1
, . . . . , v
n
} del espacio V, entonces ∀v ∈ V , existen y son
´ unicos α
1
, . . . , α
n
∈ K tales que v = α
1
v
1
+. . . +α
n
v
n
.
Luego definimos coord
B
: V →K
n
tal que
coord
B
(v) =

¸
¸
¸
α
1
.
.
.
α
n
¸

(es decir que a cada vector v ∈ V le asociamos sus coordenadas en la base
B).
PROPOSICI
´
ON 7.20. coord
B
es un isomorfismo entre V y K
n
.
224 7. TRANSFORMACIONES LINEALES.
Demostraci´ on. 1) coord
B
es lineal. Sean v, w ∈ V , luego existen y son
´ unicos α
1
, . . . , α
n
∈ K y β
1
, . . . , β
n
∈ K tales que
v = α
1
v
1
+. . . +α
n
v
n
⇒coord
B
(v) =

¸
¸
¸
α
1
.
.
.
α
n
¸

w = β
1
v
1
+. . . +β
n
v
n
⇒coord
B
(w) =

¸
¸
¸
β
1
.
.
.
β
n
¸

Luego v +w = (α
1

1
) v
1
+. . . . + (α
n

n
) v
n
⇒ coord
B
(v +w) =

¸
¸
¸
α
1

1
.
.
.
α
n

n
¸

As´ı coord
B
(v) + coord
B
(w) =

¸
¸
¸
α
1
.
.
.
α
n
¸

+

¸
¸
¸
β
1
.
.
.
β
n
¸

=

¸
¸
¸
α
1

1
.
.
.
α
n

n
¸

=
coord
B
(v +w)
Por otro lado si λ ∈ K, se tiene que λv = λ(α
1
v
1
+. . . +α
n
v
n
) =
= λα
1
v
1
+. . . +λα
n
v
n
⇒coord
B
(λv) =

¸
¸
¸
λα
1
.
.
.
λα
n
¸

As´ı λ coord
B
(v) = λ

¸
¸
¸
α
1
.
.
.
α
n
¸

=

¸
¸
¸
λα
1
.
.
.
λα
n
¸

= coord
B
(λv)
2) Como dim(V ) = dim(K
n
) = n para probar que coord
B
es biyectiva,
alcanza con probar que coord
B
es inyectiva.
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 225
Como coord
B
(v) =

¸
¸
¸
0
.
.
.
0
¸

⇔v = 0v
1
+. . . + 0v
n
⇔v =

0
N (coord
B
) =

0
¸
⇒coord
B
es inyectiva.
7.6. Matriz asociada a una transformaci´on lineal.
Sean V, W espacios vectoriales de dimensi´on finita sobre un mismo
cuerpo K y T : V → W una transformaci´on lineal. Supongamos que A =
{v
1
, v
2
, . . . ., v
n
} es una base de V y B = {w
1
, w
2
, . . . ., w
m
} es una base de
W. Ahora bien, T (v
1
) , T (v
2
) , . . . , T (v
n
) son vectores de W y por lo tanto
cada uno de ellos es una combinaci´on lineal de los vectores de la base B:
T (v
1
) = a
11
w
1
+a
12
w
2
+. . . +a
1m
w
m
T (v
2
) = a
21
w
1
+a
22
w
2
+. . . +a
2m
w
m
.
.
.
.
.
.
.
.
.
.
.
.
T (v
n
) = a
n1
w
1
+a
n2
w
2
+. . . +a
nm
w
m
En otras palabras
coord
B
(T (v
1
)) =

¸
¸
¸
¸
¸
a
11
a
12
.
.
.
a
1m
¸

,
coord
B
(T (v
2
)) =

¸
¸
¸
¸
¸
a
21
a
22
.
.
.
a
2m
¸

, . . . , coord
B
(T (v
n
)) =

¸
¸
¸
¸
¸
a
n1
a
n2
.
.
.
a
nm
¸

Luego definimos:
226 7. TRANSFORMACIONES LINEALES.
DEFINICI
´
ON 7.7. Se llama representaci´on matricial de T en las bases A y
B o matriz asociada a T en las bases A y B, a la matriz que representaremos
por
B
((T))
A
y cuya i-´esima columna son las coordenadas del vector T (v
i
)
en la base B.
Esto es
B
((T))
A
=

[coord
B
T (v
1
) ] , [coord
B
T (v
2
)] , . . . , [coord
B
T (v
n
)]

=
=

¸
¸
¸
¸
¸
a
11
a
21
· · · a
n1
a
12
a
22
· · · a
n2
.
.
.
.
.
.
.
.
.
a
1m
a
2m
· · · a
nm
¸

Nota. La matriz asociada se obtiene ¸ colgando” las coordenadas respecto
a la base de W de los vectores de la base de V . Obs´ervese que los sub´ındices
de esta matriz est´an colocados de manera distinta a la habitual; alcanzar´ıa
con cambiar las denominaciones de los sub´ındices de las coordenadas de
T(v
j
) para obtener la forma habitual.
EJEMPLO 7.14. Consideremos la transformaci´on lineal T : R
2
→ R
3
tal
que
T (x, y) = (4x −2y, 2x +y, x +y) ∀x ∈ R
2
, y las bases can´onicas A =
{(1, 0) , (0, 1)} de R
2
y B = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)} de R
3
. Para hallar
la matriz asociada a T en dichas bases
1) Hallamos las im´agenes de los vectores de la base A
T (1, 0) = (4, 2, 1)
T (0, 1) = (−2, 1, 1)
2) Calculamos las coordenadas de estos en la base B
T (1, 0) = (4, 2, 1) = 4 (1, 0, 0) + 2 (0, 1, 0) + 1 (0, 0, 1)
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 227
⇒coord
B
(T (1, 0)) =

¸
¸
4
2
1
¸

T (0, 1) = (−2, 1, 1) = −2 (1, 0, 0) + 1 (0, 1, 0) + 1 (0, 0, 1)
⇒coord
B
(T (0, 1)) =

¸
¸
−2
1
1
¸

. Luego
B
((T))
A
=

¸
¸
4 −2
2 1
1 1
¸

.
EJEMPLO 7.15. Consideremos la transformaci´on lineal T : P
2
→ R
2
tal
que T (p) = (2a +b, a +b + 4c) ∀p ∈ P
2
tal que p (t) = at
2
+bt +c ∀t ∈ R
y las bases A = {p
1
, p
2
, p
3
} de P
2
donde p
1
: p
1
(t) = t
2
, p
2
: p
2
(t) = t , p
3
:
p
3
(t) = 1 ∀t ∈ R; y B = {(1, 1) , (1, 0)} de R
2
.
Para hallar la matriz asociada a T en dichas bases,
1) Hallamos las im´agenes de los vectores de la base A
T (p
1
) = (2, 1)
T (p
2
) = (1, 1)
T (p
3
) = (0, 4)
2) Calculamos las coordenadas de estos en la base B
T (p
1
) = (2, 1) = 1 (1, 1) + 1 (1, 0) ⇒coord
B
(T (p
1
)) =

1
1

T (p
2
) = (1, 1) = 1 (1, 1) + 0 (1, 0) ⇒coord
B
(T (p
2
)) =

1
0

T (p
3
) = (0, 4) = 4 (1, 1) −4 (1, 0) ⇒coord
B
(T (p
3
)) =

4
−4

Luego
B
((T))
A
=

1 1 4
1 0 −4

.
228 7. TRANSFORMACIONES LINEALES.
EJEMPLO 7.16. Consideremos la transformaci´on lineal T : P
2
→ P
2
tal
que T (p) = p

y la base can´onica de P
2
A = {p
0
, p
1
, p
2
} donde p
i
(t) =
t
i
, i = 0, 1, 2.
1) Hallemos las im´agenes de los vectores de la base A:
T (p
0
) = 0, T (p
1
) = p
0
, T (p
2
) = 2p
1
2)Calculemos las coordenadas de estos en la base A
T (p
0
) = 0 = 0p
0
+ 0p
1
+ 0p
2
⇒coord
A
(T (p
0
)) =

¸
¸
0
0
0
¸

T (p
1
) = p
0
= 1p
0
+ 0p
1
+ 0p
2
⇒coord
A
(T (p
1
)) =

¸
¸
1
0
0
¸

T (p
2
) = 2p
1
= 0p
0
+ 2p
1
+ 0p
2
⇒coord
A
(T (p
2
)) =

¸
¸
0
2
0
¸

Luego
A
((T))
A
=

¸
¸
0 1 0
0 0 2
0 0 0
¸

OBSERVACI
´
ON 7.21. Si dim(V)=n y dim(W)=m la matriz asociada
tiene dimensi´on m×n.
OBSERVACI
´
ON 7.22. La matriz
B
((T))
A
como reci´en vimos, queda com-
pletamente determinada conocidas la transformaci´on lineal T y las bases A
y B del dominio y codominio respectivamente.
Rec´ıprocamente, dada una matriz M de tama˜ no m×n y dos bases A y B
de los espacios V y W respectivamente, queda completamente determinada
una transformaci´on lineal T tal que
B
((T))
A
=M.
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 229
En efecto, al conocer la matriz M, sus columnas son las coordenadas en
la base B de las im´agenes de dos vectores de la base A.
Esto nos permite conocer a las im´agenes de los vectores de la base A, y
por el Teorema 7.4, esto es suficiente para determinar T.
EJEMPLO 7.17. Hallar la transformaci´on lineal T : R
3
→ R
2
sabiendo
que
B
((T))
A
=

2 3 −1
1 0 2

donde A = {(1, 0, 1) , (2, 0, 0) , (0, 1, 0)} es
base de R
3
y B = {(2, −1) , (0, 2)} es base de R
2
De acuerdo a la definici´on de matriz asociada
coord
B
(T (1, 0, 1)) =

2
1

coord
B
(T (2, 0, 0)) =

3
0

coord
B
(T (0, 1, 0)) =

−1
2

Luego
T (1, 0, 1) = 2 (2, −1) + 1 (0, 2) = (4, 0)
T (2, 0, 0) = 3 (2, −1) + 0 (0, 2) = (6, −3)
T (0, 1, 0) = −1 (2, −1) + 2 (0, 2) = (−2, 5)
Ahora bien siendo A = {(1, 0, 1) , (2, 0, 0) , (0, 1, 0)} una base de R
3
se cumple
que ∀ (x, y, z) ∈ R
3
que
(x, y, z) = z (1, 0, 1) +

x −z
2

(2, 0, 0) +y (0, 1, 0)
Luego por la linealidad de T
T (x, y, z) = z T (1, 0, 1) +

x −z
2

T (2, 0, 0) +y T (0, 1, 0) =
z (4, 0) +
x −z
2
· (6, −3) +y (−2, 5) =

3x −2z −2y, −
3
2
x + 5y +
3
2
z

230 7. TRANSFORMACIONES LINEALES.
As´ı T : R
3
→R
2
es tal que
T (x, y, z) =

3x −2z −2y, −
3
2
x + 5y +
3
2
z

PROPOSICI
´
ON 7.23. Considere los K-espacios vectoriales U, V y W,
con dim(U)=s, dim(V)=n y dim(W)=t, y las transformaciones lineales S :
U → V yT : V → W. Sean A = {u
1
, . . . , u
s
} , B = {v
1
, . . . , v
n
} y C =
{w
1
, . . . , w
t
} bases de U, V y W respectivamente. Entonces la matriz aso-
ciada a la composici´ on T ◦ S es el producto de las matrices asociadas. Es
decir
C
((T ◦ S))
A
=
C
((T))
B
B
((S))
A
.
Demostraci´ on. Sea
C
((T))
B
= (a
i j
),
B
((S))
A
= (b
j k
) y
C
((T))
B
B
((S))
A
=
(c
i j
) con 1 i t, 1 j n, 1 k s.
Por definici´on de producto de matrices c
i k
=
n
¸
j=1
a
i j
b
j k
.
Calculemos
C
((T ◦ S))
A
. Sea u
k
∈ A.
(T ◦ S) (u
k
) = T (S (u
k
)) = T

¸
n
¸
j=1
b
j k
v
j
¸

=
n
¸
j=1
b
j k
T (v
j
) =
n
¸
j=1
b
j k
t
¸
i=1
a
i j
w
i
=
t
¸
i=1

¸
n
¸
j=1
a
i j
b
j k
¸

w
i
=
t
¸
i=1
c
i k
w
i
.
Resulta, por definici´on de matriz asociada
C
((T ◦ S))
A
= (c
i j
).
OBSERVACI
´
ON 7.24. Sea T : V → W un isomorfismo, B y B’ bases
de V y W respectivamente, y sea T
−1
: W →V la inversa de T.
Como T ◦ T
−1
= id
W

B
′ ((T))
B
.
B

T
−1

B

= B

((id
W
))
B
′ = I
y de T
−1
◦ T = id
V

B

T
−1

B

.
B
′ ((T))
B
=
B
((id
V
))
B
= I
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 231
y por lo tanto la matriz asociada a la transformaci´on inversa es la inversa
de la matriz asociada a la transformaci´on. Es decir si
B
′ ((T))
B
= A ⇒
B

T
−1

B

= A
−1
PROPOSICI
´
ON 7.25. Sean dos transformaciones lineales de espacios vec-
toriales sobre un cuerpo K, T : V → W y S : V → W y α un escalar de
K. Sea B = {v
1
, . . . , v
n
} base de V y E = {w
1
, . . . , w
m
} base de W.
Entonces:
E
((T + S))
B
=
E
((T))
B
+
E
((S))
B
,
E
((λT))
B
= λ
E
((T))
B
,
Demostraci´ on. Sean A = (a
i j
) =
E
((T))
B
B = (b
i j
) =
E
((S))
B
. En-
tonces: T (v
j
) =
m
¸
i =1
a
i j
w
i
S (v
j
) =
m
¸
i =1
b
i j
w
i
. De donde (T + S ) (v
j
) =
T (v
j
) + S (v
j
) =
m
¸
i =1
a
i j
w
i
+
m
¸
i =1
b
i j
w
i
=
m
¸
i =1
(a
i j
+ b
i j
) w
i

E
((T + S))
B
= (a
i j
+ b
i j
) = A + B. Adem´as (λT) v
j
= λT (v
j
) =
m
¸
i =1
a
i j
w
i
=
m
¸
i =1
λa
i j
w
i

E
((λT))
B
= (λa
i j
) = λA.
OBSERVACI
´
ON 7.26. Demostraci´on de la propiedad asociativa del pro-
ducto de matrices usando transformaciones lineales.
Se trata de ver que si A, B, C son matrices, entonces:
(AB) C = A (BC)
si las dimensiones relativas de las matrices hacen que la expresi´on tenga
sentido.
Ya vimos (observaci´on 7.22) que fijando bases hay una correspondencia
biun´ıvoca entre matrices y transformaciones lineales, por lo tanto, el pro-
ducto anterior se puede interpretar como un producto (o composici´on) de
transformaciones lineales.
Consideremos los espacios vectoriales K
m
, K
n
, K
p
, K
r
y sus respec-
tivas bases E
m
, E
n
, E
p
E
r
. Sean T : K
n
→ K
m
tal que
Em
((T))
En
=
232 7. TRANSFORMACIONES LINEALES.
A
m×n
, S : K
p
→ K
n
tal que
En
((S))
Ep
= B
n×p
y L : K
r
→ K
p
tal que
Ep
((L))
Er
= C
p ×r
.
Luego, en virtud de que la composici´on de funciones es asociativa tene-
mos que:
(A. B) . C = [((T)) . ((S))] . ((L)) = ((T ◦ S)) . ((L)) =
= (((T ◦ S) L)) = ((T ◦ (S ◦ L) )) =
= ((T)) . ((S L)) = ((T)) [((S)) . ((L))] = A. (B.C)
(Hemos omitido para simplificar la notaci´on, las bases en cuesti´on.)
TEOREMA 7.27. Sean V, W espacios vectoriales sobre un mismo cuerpo
K, A = {v
1
, v
2
, . . . , v
n
} y B = {w
1
, w
2
, . . . , w
m
} bases ordenadas de V y
W respectivamente; y T : V → W una transformaci´ on lineal. Entonces se
cumple que
B
((T))
A
coord
A
(v) = coord
B
(T (v))
Demostraci´ on. Usaremos las siguientes notaciones
B
((T))
A
=

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

y coord
A
(v) =

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

siendo
B
((T))
A
=

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

y B = {w
1
, w
2
, . . . , w
m
},
por definici´on de matriz asociada
(I)
T (v
1
) = a
11
w
1
+a
21
w
2
+. . . . +a
m1
w
m
T (v
2
) = a
12
w
1
+a
22
w
2
+. . . . +a
m2
w
m
.
.
.
T (v
n
) = a
1n
w
1
+a
2n
w
2
+. . . . +a
mn
w
m
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACI
´
ON LINEAL. 233
y siendo coord
A
(v) =

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

y A = {v
1
, v
2
, . . . , v
n
} tenemos que
v = x
1
v
1
+x
2
v
2
+. . . +x
n
v
n
. Luego aplicando T y usando la linealidad
(II) T (v) = x
1
T (v
1
) +x
2
T (v
2
) +. . . +x
n
T (v
n
)
Sustituimos (I) en (II) obteniendo
T (v) =
x
1
(a
11
w
1
+a
21
w
2
+. . . +a
m1
w
m
) +x
2
(a
12
w
1
+a
22
w
2
+. . . +a
m2
w
m
)
+. . . +x
n
(a
1n
w
1
+a
2n
w
2
+. . . +a
mn
w
m
) =
= (x
1
a
11
+x
2
a
12
+. . . +x
n
a
1n
) w
1
+ (x
1
a
21
+x
2
a
22
+. . . +x
n
a
2n
) w
2
+. . . + (x
1
a
m1
+x
2
a
m2
+. . . +x
n
a
mn
) w
m
.
Luego coord
B
(T (v)) =

¸
¸
¸
¸
¸
x
1
a
11
+x
2
a
12
+. . . . +x
n
a
1n
x
1
a
21
+x
2
a
22
+. . . . +x
n
a
2n
.
.
.
x
1
a
m1
+x
2
a
m2
+. . . . +x
n
a
mn
¸

=
=

¸
¸
¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
¸

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

=
B
((T))
A
coord
A
(v)
EJEMPLO 7.18. Sea T : R
3
→ R
3
tal que
B
((T))
A
=

¸
¸
1 −1 0
2 0 0
3 4 1
¸

siendo A = B = {(1, 0, 0) , (1, 1, 0) , (1, 1, 1)} . Hallar T (2, 0, −1).
Como (2, 0, −1) = 2 (1, 0, 0) + (−1) (1, 1, 0) + 1 (1, 1, 1)
234 7. TRANSFORMACIONES LINEALES.
resulta que coord
A
(2, 0, −1) =

¸
¸
2
−1
1
¸

Luego de acuerdo al Teorema 7.27 se cumple que
coord
B
(T ((2, 0, −1))) =
B
((T))
A
coord
A
(2, 0, −1) =
=

¸
¸
1 −1 0
2 0 0
3 4 1
¸

¸
¸
2
−1
1
¸

=

¸
¸
3
4
−3
¸

As´ı T (2, 0, −1) = 3 (1, 0, 0) + 4 (1, 1, 0) + (−3) (1, 1, 1) = (4, 1, −3)
7.7. N´ ucleo e imagen de una matriz.
Dada una matriz A ∈ M
nxm
(K), definimos la transformaci´on T
A
:
K
m
→K
n
tal que
T
A
(x
1
, . . . , x
m
) = A

¸
¸
¸
x
1
.
.
.
x
m
¸

∀ (x
1
, . . . , x
m
) ∈ K
m
PROPOSICI
´
ON 7.28. (a) T
A
es lineal
(b) Si E
m
y E
n
son las bases can´ onicas de K
m
y K
n
respectivamente
entonces
En
((T
A
))
Em
= A
Demostraci´ on. (Ejercicio).
DEFINICI
´
ON 7.8. Sea A ∈ M
nxm
(K). Definimos el n´ ucleo de la matriz
A como el n´ ucleo de la transformaci´on lineal T
A
.
N (A)
def
= N (T
A
) =

x ∈ R
m
: T
A
(x) =

0
¸
=

x ∈ R
m
: A x =

0
¸
En otras palabras el N (A) son las soluciones del sistema de ecuaciones
homog´eneo A x =

0.
7.7. N
´
UCLEO E IMAGEN DE UNA MATRIZ. 235
DEFINICI
´
ON 7.9. Sea A ∈ M
nxm
(K). Definimos la imagen de la ma-
triz A como la imagen de la transformaci´on lineal T
A
.
Im(A)
def
= Im(T
A
) = {y ∈ R
n
: existe x ∈ R
m
tal que T
A
(x) = y} =
{y ∈ R
n
: existe x ∈ R
m
tal que A x = y}
En otras palabras la Im(A) son los ”t´erminos independientes”y ∈ R
n
para
los cuales el sistema A x = y es compatible.
OBSERVACI
´
ON 7.29. Resulta obvio de las definiciones 7.2. y 7.3. que
N (A) es un subespacio de R
m
y Im(A) es un subespacio de R
n
(por serlo
N (T
A
) e Im(T
A
))
PROPOSICI
´
ON 7.30. Las columnas de A generan a la Im(A).
Demostraci´ on. Sea T
A
: K
m
→K
n
tal que T
A
(x
1
, . . . , x
m
) = A

¸
¸
¸
x
1
.
.
.
x
m
¸

.
Si {e
1
, e
2
, . . . , e
m
} es la base can´onica de R
m
. Entonces de acuerdo a
la proposici´on 7.10(i) {T
A
(e
1
) , T
A
(e
2
) , . . . ., T
A
(e
m
)} es un generador de la
Im(T
A
) = Im(A). Pero T
A
(e
i
) = A

¸
¸
¸
¸
¸
¸
¸
¸
0
.
.
.
1
.
.
.
0
¸

= A
(i)
(i-´esima columna de
A) As´ı las columnas de A
¸
A
(1)
, . . . , A
(m)
¸
constituyen un generador de la
Im(A).
COROLARIO 7.31. El rango de una matriz A es la dimensi´ on de su
imagen, es decir r (A) = dim(Im(A)).
236 7. TRANSFORMACIONES LINEALES.
EJEMPLO 7.19. Hallemos bases del n´ ucleo y de la imagen de la matriz
A =

¸
¸
1 0 1
2 1 1
−1 1 −2
¸

. Sea (x, y, z) ∈ N (A) . Entonces
A

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 01
2 1 1
−1 1 −2
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 0 1
0 1 −1
0 1 −1
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 0 1
0 1 −1
0 0 0
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

x +z = 0
y −z = 0

x = −z
y = z
z cualquiera
Luego los vectores del n´ ucleo de A son de la forma (−z, z, z) = z (−1, 1, 1).
As´ı {(−1, 1, 1)} es base del N (A) (¿por qu´e?)
Por otro lado de acuerdo a la Proposici´on 7.30 resulta que
{(1, 2, −1) , (0, 1, 1) , (1, 1, −2)} genera a la Im(A). Como
(1, 1, −2) = (1, 2, −1)−(0, 1, 1) , el generador es L.D. y lo reducimos hallando
{(1, 2, −1) , (0, 1, 1)} que es un generador L.I. –y por tanto una base– de
Im(A) (verifique).
EJEMPLO 7.20. Hallar una base del n´ ucleo y una base de la imagen de
la matriz
A =

¸
¸
1 −1 1 1
1 0 2 −1
1 1 3 −3
¸

. Sea (x, y, z, t) ∈ N (T) . Entonces
A

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
1 0 2 −1
1 1 3 −3
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸


7.8. N
´
UCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 237

¸
¸
1 −1 1 1
0 1 1 −2
0 2 2 −4
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
0 1 1 −2
0 0 0 0
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

x −y +z +t = 0
y +z −2t = 0

x = −2z +t
y = −z + 2t
z = cualquiera
t = cualquiera
As´ı los vectores del n´ ucleo de A son de la forma
(−2z +t, −z + 2t, z, t) = z (−2, 1, 0, 1) +t (1, 2, 0, 1)
Luego {(−2, 1, 0, 1) , (1, 2, 0, 1)} es un generador L.I. del N (A) (verifique) y
por lo tanto es base.
Por la proposici´on 7.30 {(1, 1, 1) , (−1, 0, 1) , (1, 2, 3) , (1, −1, −3)} es un
generador de la Im(A) que claramente es L.D.
Observando que (1, 2, 3) = 2 (1, 1, 1) + (−1, 0, 1)
(1, −1, −3) = −1 (1, 1, 1) + (−2) (−1, 0, 1)
reducimos el generador anterior hasta obtener {(1, 1, 1) , (−1, 0, 1)} que es
un generador L.I. de la Im(A) y por lo tanto es base.
7.8. Relaci´on entre n´ ucleo e imagen de una transformaci´on lineal
y de una matriz.
PROPOSICI
´
ON 7.32. Sean V, W espacios vectoriales sobre un mismo
cuerpo A = {v
1
, v
2
, . . . ., v
n
} una base de V, B = {w
1
, w
2
, . . . ., w
n
} una
base de W, T : V →W lineal. Entonces:
238 7. TRANSFORMACIONES LINEALES.
1) Si v ∈ N (T) ⇒coord
A
(v) ∈ N (
B
((T))
A
)
2) Si x ∈ N (
B
((T))
A
) ⇒coord
−1
A
(x) ∈ N (T)
Demostraci´ on. 1) Si v ∈ N (T) entonces T (v) =

0. Luego como T (v)
y

0 coinciden sus coordenadas en la base B tambi´en: coord
B
(T (v)) =
coord
B

0

. Siendo coord
B
: W → R
m
una transformaci´on lineal se cum-
ple: coord
B

0

=

0. As´ı coord
B
(T (v)) =

0. Pero, por el Teorema 7.27:
coord
B
(T (v)) =
B
((T))
A
coord
A
(v)
As´ı
B
((T))
A
coord
A
(v) =

0 esto es coord
A
(v) ∈ N (
B
((T))
A
)
2) Si x = (x
1
, . . . ., x
n
) ∈ N (
B
((T))
A
) ⇒
B
((T))
A

¸
¸
¸
x
1
.
.
.
x
n
¸

=

0. En-
tonces, teniendo en cuenta que las columnas de la matriz asociada son las
coordenadas de los transformados de la base del dominio se tiene que
([coord
B
(T (v
1
))] . . . [coord
B
(T (v
1
))]) .

¸
¸
¸
x
1
.
.
.
x
n
¸

=

0
⇒coord
B
(T (v
1
)) .x
1
+. . . +coord
B
(T (v
n
)) .x
n
=

0 ⇒
(por ser coord
B
lineal )
⇒ coord
B
(x
1
T (v
1
) +. . . . . . +x
n
T (v
n
)) =

0
(por ser coord
B
inyectiva)
⇒ x
1
T (v
1
) +. . . . . . +x
n
T (v
n
) =

0
(linealidad de T)
⇒ T (x
1
v
1
+. . . +x
n
v
n
) = o
V
⇒x
1
v
1
+. . . +x
n
v
n
. .. .
coord
−1
A
(x)
∈ N (T) .
7.8. N
´
UCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 239
OBSERVACI
´
ON 7.33. Con las notaciones de la proposici´on anterior re-
cordemos que coord
A
: V →R
n
es un isomorfismo entre V y R
n
.
Pero la proposici´on anterior nos asegura que todo vector del N (T), al
aplicarle la transformaci´on lineal coord
A
se obtiene un vector del N (
B
((T))
A
)
y rec´ıprocamente todo vector del N (
B
((T))
A
) al aplicarle la transformaci´on
lineal inversa coord
−1
A
(x) se obtiene un vector del N (T).
Luego coord
A
es un isomorfismo entre el N (T) y N (
B
((T))
A
). Esto nos
permite enunciar la siguiente
PROPOSICI
´
ON 7.34. Sean V, W espacios vectoriales sobre un mismo
cuerpo A = {v
1
, v
2
, . . . ., v
n
} una base de V, B = {w
1
, w
2
, . . . ., w
n
} una
base de W, T : V →W lineal. Entonces:
1) N (T) y N (
B
((T))
A
) son isomorfos
2) dim(N(T)) = n −rango(
B
((T))
A
).
3) Si {e
1
, e
2
, . . . , e
k
} es base del N (T) ⇒
{coord
A
(e
1
) , coord
A
(e
2
) , . . . , coord
A
(e
k
)} es base del N (
B
((T))
A
)
4) Si {x
1
, x
2
, . . . , x
k
} es base del N (
B
((T))
A
) ⇒
¸
coord
−1
A
(x
1
) , coord
−1
A
(x
2
) , . . . ., coord
−1
A
(x
k
)
¸
es base del N (T).
Demostraci´ on. (Ejercicio) Sugerencias:
1) Vimos en la observaci´on anterior que coord
A
es un isomorfismo entre
N (T) y N (
B
((T))
A
).
2) Basta recordar que dos espacios isomorfos tienen la misma dimensi´on
y que si M es una matriz, dim(Im(M)) = rango (M).
3) Los isomorfismos ”llevan bases en bases”.
4) La inversa de un isomorfismo es un isomorfismo.
Recomendamos prestar particular atenci´on a los ejemplos que siguen.
240 7. TRANSFORMACIONES LINEALES.
EJEMPLO 7.21. Se considera una transformaci´on lineal T : M
2x2
(R) →
R
3
tal que
B
((T))
A
=

¸
¸
1 −1 1 1
1 0 2 −1
1 1 3 −3
¸

siendo
A =

1 1
1 1

,

0 0
−1 0

,

1 −1
0 0

,

1 0
0 0
¸
y B = {(1, 1, 1) , (0, 1, 1) , (0, 0, 1)} .
Queremos hallar una base del n´ ucleo de T. Primero calculamos una base del
n´ ucleo de la matriz
B
((T))
A
. Sea (x, y, z, t) ∈ N (
B
((T))
A
) . Entonces
B
((T))
A

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
1 0 2 −1
1 1 3 −3
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
0 1 1 −2
0 2 2 −4
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

¸
¸
1 −1 1 1
0 1 1 −2
0 0 0 0
¸

¸
¸
¸
¸
x
y
z
t
¸

=

¸
¸
0
0
0
¸

x −y +z +t = 0
y +z +t = 0

x = −2z −2t
y = −z −t
As´ı los vectores del n´ ucleo de la matriz
B
((T))
A
son de la forma
(−2z −2t, z +t, z, t) = z (−2, 1, 1, 0) +t (−2, 1, 0, 1)
Entonces {(−2, 1, 1, 0) , (−2, 1, 0, 1)} es una base del N (
B
((T))
A
).
Luego, de acuerdo con la Proposici´on 7.34
¸
coord
−1
A
(−2, 1, 1, 0) , coord
−1
A
(−2, 1, 0, 1)
¸
=
7.8. N
´
UCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 241
=

−2

1 1
1 1

+ 1

0 0
−1 0

+ 1

1 −1
0 0

+ 0

1 0
0 0

,
−2

1 1
1 1

+ 1

0 0
−1 0

+ 0

1 −1
0 0

+ 1

1 0
0 0
¸
=
=

−1 −3
−3 −2

,

−1 −2
−3 −2
¸
es una base del n´ ucleo de T.
EJEMPLO 7.22. Se considera una transformaci´on lineal T : R
2
→ R
2
tal
que
B
((T))
A
=

1 2
2 4

siendo A = B = {(1, 0) , (1, 1)}. Queremos hallar
una base del n´ ucleo de T.
Primero calculemos una base del n´ ucleo de la matriz
B
((T))
A
:
(x, y) ∈ N (
B
((T))
A
) ⇔
B
((T))
A

x
y

=

0
0


1 2
2 4

x
y

=

0
0

⇔ x + 2y = 0 ⇔x = −2y
As´ı los vectores del n´ ucleo de la matriz
B
((T))
A
son de la forma: (−2y, y) =
y (−2, 1). Entonces {(−2, 1)} es una base de N (
B
((T))
A
). Luego, de acuerdo
a la Proposici´on 7.34,
¸
coord
−1
A
(−2, 1)
¸
= {−2 (1, 0) + 1 (1, 1)} = {(−1, 1)}
es una base del N (T).
EJEMPLO 7.23. Se considera una transformaci´on lineal T : P
2
→ R
3
tal
que
B
((T))
A
=

¸
¸
1 2 −1
0 1 1
−1 1 −2
¸

siendo A = {p
0
, p
1
, p
2
} con p
i
: p
i
(t) =
t
i
(i = 0, 1, 2) y B = {(2, 0, −1) , (0, 1, 4) , (0, 0, 3)}.
Queremos hallar una base del n´ ucleo de T.
242 7. TRANSFORMACIONES LINEALES.
Primero calculamos una base del n´ ucleo de la matriz
B
((T))
A
(x, y, z) ∈ N (
B
((T))
A
) ⇔
B
((T))
A

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 2 −1
0 1 1
−1 1 −2
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 2 −1
0 1 1
0 3 −3
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

¸
¸
1 2 −1
0 1 1
0 0 0
¸

¸
¸
x
y
z
¸

=

¸
¸
0
0
0
¸

x + 2y −z = 0
y +z = 0

x = 3z
y = −z
As´ı los vectores del n´ ucleo de
B
((T))
A
son de la forma:
(3z, −z, z) = z (3, −1, 1) . Entonces {(3, −1, 1)} es una base del N (
B
((T))
A
).
Luego, de acuerdo a la proposici´on 7.34, una base del n´ ucleo de N(T) es
¸
coord
−1
A
(3, −1, 1)
¸
= {3p
0
+ (−1) p
1
+ 1p
2
} = {3p
0
−p
1
+p
2
} .
PROPOSICI
´
ON 7.35. Sean V, W espacios vectoriales sobre un mismo
cuerpo K, A = {v
1
, v
2
, . . . ., v
n
} una base de V. B = {w
1
, w
2
, . . . ., w
m
} una
base de W, T : V →W lineal. Entonces
1) Si w ∈ Im(T) ⇒coord
B
(w) ∈ Im(
B
((T))
A
)
2) Si y ∈ Im(
B
((T))
A
) ⇒coord
−1
B
(y) ∈ Im(T)
Demostraci´ on. 1) Si w ∈ Im(T) ⇒existe v ∈ V tal que T (v) = w- Luego
coord
B
(T (v)) = coord
B
(w). Pero por el Teorema 7.27 coord
B
(T (v)) =
B
((T))
A
coord
A
(v). As´ı coord
B
(w) =
B
((T))
A
coord
A
(v)
Hemos probado que existe coord
A
(v) ∈ R
n
tal que
B
((T))
A
coord
A
(v) = coord
B
(w)
⇒coord
B
(w) ∈ Im(
B
((T))
A
)
7.8. N
´
UCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 243
2) Si y = (y
1
, . . . ., y
m
) ∈ Im(
B
((T))
A
) ⇒ existe x = (x
1
, . . . ., x
n
) ∈ R
n
tal
que
B
((T))
A

¸
¸
¸
x
1
.
.
.
x
n
¸

=

¸
¸
¸
y
1
.
.
.
y
m
¸


⇒x
1
coord
B
(T (v
1
)) +. . . +x
n
coord
B
(T (v
n
)) = y
⇒coord
B
(x
1
T (v
1
) +. . . +x
n
T (v
n
)) = y
x
1
T (v
1
) +. . . +x
n
T (v
n
) = coord
−1
B
(y) ⇒
T(x
1
v
1
+. . . +x
n
v
n
. .. .
= v
0
) = coord
−1
B
(y) .
As´ı existe v
0
∈ V tal que T (v
0
) = coord
−1
B
(y) ⇒coord
−1
B
(y) ∈ Im(T) .
OBSERVACI
´
ON 7.36. Al igual que la observaci´on 7.33 concluimos que
coord
B
es un isomorfismo entre Im(T) y Im(
B
((T))
A
).
PROPOSICI
´
ON 7.37. Sean V, W espacios vectoriales sobre un mismo
cuerpo A = {v
1
, v
2
, . . . ., v
n
} una base de V, B = {w
1
, w
2
, . . . ., w
n
} una
base de W, T : V →W lineal. Entonces:
1) Im(T) e Im(
B
((T))
A
) son isomorfos.
2) dim(Im(T)) = rango (A)
3) Si {h
1
, . . . ., h
k
} es una base de la Im(T) ⇒
{coord
B
(h
1
) , coord
B
(h
2
) , . . . . . . , coord
B
(h
k
)} es base de la Im(
B
((T))
A
)
4) si {y
1
, . . . ., y
k
} es una base de la Im(
B
((T))
A
) entonces
¸
coord
−1
B
(y
1
) , coord
−1
B
(y
2
) , . . . ., coord
−1
B
(y
k
)
¸
es base de la Im(T).
Demostraci´ on. (Ejercicio).
244 7. TRANSFORMACIONES LINEALES.
EJEMPLO 7.24. Consideremos la transformaci´on lineal del ejemplo 7.21
Hallemos una base de la Im(T).
Primero hallemos una base de la imagen de la matriz
B
((T))
A
.
Sabemos de la proposici´on 7.30 que las columnas de
B
((T))
A
:
{(1, 1, 1) , (−1, 0, 1) , (1, 2, 3) , (1, −1, −3)}
son un generador de la Im(
B
((T))
A
). Claramente es L.D. Reducimos dicho
generador hasta obtener el generador L.I.: {(1, 1, 1) , (−1, 0, 1)}. As´ı {(1, 1, 1) , (−1, 0, 1)}
es una base de la Im(
B
((T))
A
).
Luego de acuerdo a la proposici´on 7.37
¸
coord
−1
B
(1, 1, 1) , coord
−1
B
(−1, 0, 1)
¸
=
= {1 (1, 1, 1) + 1 (0, 1, 1) + 1 (0, 0, 1) , −1 (1, 1, 1) + 0 (0, 1, 1) + 1 (0, 0, 1)}
= {(1, 2, 3) , (−1, −1, 0)} es base de la Im(T).
EJEMPLO 7.25. Consideremos la transformaci´on lineal del ejemplo 7.22
Hallemos una base de la Im(T). Primero hallemos una base de la imagen
de la matriz
B
((T))
A
. Por la proposici´on 7.30 las columnas de
B
((T))
A
,
{(1, 2) , (2, 4)} son un generador de la Im(
B
((T))
A
). Claramente es L.D.
Lo reducimos y hallamos {(1, 2)} base de la Im(
B
((T))
A
). Luego por la
proposici´on 7.37
¸
coord
−1
B
(1, 2)
¸
= {1 (1, 0) + 2 (1, 1) } = {(3, 2)} es una
base de la Im(T).
EJEMPLO 7.26. Consideremos la transformaci´on lineal del ejemplo 7.23
Hallemos una base de la Im(T). De acuerdo a la proposici´on 7.30 {(1, 0, −1) , (2, 1, 1) , (−1, 1, −2)}
es un generador de la Im(
B
((T))
A
).
Como es L.D., lo reducimos hasta obtener {(1, 0, −1) , (2, 1, 1)} que es
una base de la Im(
B
((T))
A
). Luego por la proposici´on 7.37
¸
coord
−1
B
(1, 0, −1) , coord
−1
B
(2, 1, 1,)
¸
=
{1 (2, 0, −1) + 1 (0, 1, 4) + (−1) (0, 0, 3) , 2 (2, 0, −1) + 1 (0, 1, 4) + 1 (0, 0, 3)}
{(2, 0, −4) , (5, 1, 5)} es base de la Im(T).
7.9. CAMBIO DE BASE. 245
7.9. Cambio de base.
Sea V un espacio vectorial de dimensi´on finita sobre un cuerpo K. Su-
pongamos que dim(V ) = n. Consideremos una base A del espacio V. He-
mos visto que todo vector v ∈ V , se puede representar por la n-´ upla (vector
columna) coord
A
(v) ∈ K
n
.
En esta secci´on responderemos la siguiente pregunta natural ¿c´omo cam-
bian nuestras representaciones si seleccionamos otras bases? Es decir si con-
sideramos otra base A’ del espacio V, ¿c´omo se relaciona coord
A
′ (v) con
coord
A
(v)?
Para responder estas preguntas necesitamos la siguiente
DEFINICI
´
ON 7.10. Sean A = {v
1
, v
2
, . . . , v
n
} y A

= {v

1
, v

2
, . . . , v

n
}
bases del espacio V e I : V → V la transformaci´on identidad (esto es
I (v) = v ∀v ∈ V ). Llamaremos matriz de cambio de la base (”vieja”) A a
la base (”nueva”) A’ a la matriz:
A
′ ((I))
A
.
La relaci´on entre las coordenadas est´a dada por la siguiente
PROPOSICI
´
ON 7.38. coord
A
′ (v) =
A
′ ((I))
A
coord
A
(v)
Demostraci´ on. Por Teorema 7.27
coord
A
′ (I (v)) =
A
′ ((I))
A
coord
A
(v)
Pero siendo I (v) = v, se obtiene la hip´otesis.
PROPOSICI
´
ON 7.39. Sea V un espacio vectorial sobre un cuerpo K. A
y A’ bases de V. I : V →V la transformaci´ on lineal identidad. Entonces:
1)
A
((I))
A
=

¸
¸
¸
¸
¸
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . 1
¸

(matriz identidad)
2)
A
′ ((I))
A
es invertible y [
A
′ ((I))
A
]
−1
=
A
((I))
A

246 7. TRANSFORMACIONES LINEALES.
Demostraci´ on. (Ejercicio).
PROPOSICI
´
ON 7.40. Sean V y W espacios vectoriales sobre un mismo
cuerpo K, A, A’ bases de V, B, B’ bases de W, T : V → W una transfor-
maci´ on lineal. Entonces
B
′ ((T))
A
′ =
B
′ ((I
W
))
B
B
((T))
A
A
((I
V
))
A

donde I
V
: V → V y I
W
: W → W son las transformaciones lineales
identidad en V y W respectivamente.
Demostraci´ on. Como I
W
◦ T ◦ I
V
≡ T se tiene, aplicando la proposici´on
7.23 reiteradamente
B
′ ((I
W
◦ T ◦ I
V
))
A
′ =
B
′ ((T))
A
′ ⇒
B
′ ((I
W
))
B
B
((T ◦ I
V
))
A
′ =
B
′ ((T))
A


B
′ ((I
W
))
B
B
((T))
A
A
((I
V
))
A
′ =
B
′ ((T))
A
′ .
7.10. Operadores y matrices semejantes.
Sea V un espacio vectorial de dimensi´on finita sobre un cuerpo K. Su-
pondremos que dim
K
(V ) = n.
DEFINICI
´
ON 7.11. Llamaremos operador en V a toda transformaci´on
lineal T : V →V .
DEFINICI
´
ON 7.12. Sean A yB ∈ M
nxn
(K). Diremos que A y B son
semejantes cuando existe P∈ M
n×n
(K) invertible tal que B = P
−1
A P.
7.10. OPERADORES Y MATRICES SEMEJANTES. 247
EJEMPLO 7.27. La matriz B =

3 −2
1 2

y la matriz A =

4 −2
2 1

son semejantes, pues existe P =

1 −1
1 0

cuya inversa es P
−1
=

0 1
−1 1

tal que

3 −2
1 2

=

0 1
−1 1

4 −2
2 1

1 −1
1 0

(verifique!).
PROPOSICI
´
ON 7.41. Sean A, B ∈ M
nxn
(K). A y B son semejantes ⇔
A y B son representaciones matriciales de un mismo operador T en V, para
alg´ un espacio vectorial V .
Demostraci´ on. (⇒) Si consideramos la transformaci´on lineal T : K
n

K
n
tal que T (x
1
, x
2
, . . . ., x
n
) = A

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

, entonces de acuerdo a la Pro-
posici´on 7.28(b) tenemos A =
E
((T))
E
siendo E = {e
1
, e
2
, . . . ., e
n
} la base
can´onica de K
n
.
Por otro lado, siendo A y B semejantes, existe P ∈ M
n×n
(R) invertible
tal que:
B = P
−1
AP
Pero se cumple que: P =
E
((I))
H
donde H = {Pe
1
, Pe
2
, . . . ., Pe
n
} y por la
Proposici´on 7.39
P
−1
=
H
((I))
E
As´ı
B =
H
((I))
E
E
((T))
E
E
((I))
H
Pero por la Proposici´on 7.40
H
((I))
E
E
((T))
E
E
((I))
H
=
H
((T))
H
Por lo tanto
B =
H
((T))
H
248 7. TRANSFORMACIONES LINEALES.
(⇐) Supongamos que B =
H
((T))
H
, A =
E
((T))
E
. Por la Proposici´on
7.40 sabemos que
H
((T))
H
=
H
((I))
E
E
((T))
E
E
((I))
H
Sea P =
E
((I))
H
, por la Proposici´on 7.39 tenemos que P
−1
=
H
((I))
E
.
Hemos probado entonces que B = P
−1
A P, es decir A y B son semejantes.
PROPOSICI
´
ON 7.42. Sean A y B matrices semejantes en M
n×n
(K).
Entonces
1) rango (A) = rango (B)
2) traza (A) = traza (B)
3) det (A) = det (B)
Demostraci´ on. 1) Por la proposici´on anterior, existe un operador lineal
en V y bases A y B en dicho espacio tales que A =
A
((T))
A
yB =
B
((T))
B
.
Luego rango (A) = rango (
A
((T))
A
) = dim(Im(T))
rango (B) = rango (
B
((T))
B
) = dim(Im(T))
As´ı rango (A) = rango (B)
2) Existe P ∈ M
nxn
(R) invertible tal que B = P
−1
A P. Luego
traza (B) = traza

P
−1
A P

= traza

A P P
−1

= traza (A I) = traza (A)
(Recordar que traza(MN)=traza(NM))
3)det (B) = det

P
−1
A P

= det

P
−1

det (A) det (P) =
= det (A) det

P
−1

det (P) = det (A)
(Recordar que det(MN)=det(M).det(N) y det

M
−1

= (det (M))
−1
).
7.11. EL ESPACIO VECTORIAL L(V, W) 249
OBSERVACI
´
ON 7.43. No vale el rec´ıproco de la proposici´on anterior pues
A =

1 0
0 1

y B =

1 0
1 1

cumplen
rango (A) = rango (B) = 2
traza (A) = traza (B) = 2
det (A) = det (B) = 1
Sin embargo, no puede existir P invertible tal que B = P
−1
AP pues B = A.
7.11. El espacio vectorial L(V, W)
Sean V, W espacios sobre un mismo cuerpo K. Notaremos L(V, W) al
conjunto de todas las transformaciones lineales T : V →W.
PROPOSICI
´
ON 7.44. El conjunto L(V, W) con la suma de transforma-
ciones lineales y el producto por un escalar por una transformaci´ on lineal
definidas en la secci´ on 2, forman un espacio vectorial.
Demostraci´ on. (Ejercicio).
PROPOSICI
´
ON 7.45. Sean V,W espacios vectoriales de dimensi´ on finita
sobre un mismo cuerpo K. Supongamos que dim(V ) = n y dim(W) = m,
entonces L(V, W) es isomorfo a M
mxn
(K).
Demostraci´ on. Probaremos que existe una transformaci´on lineal
F : L(V, W) →M
mxn
(K)
biyectiva.
Definimos F de la siguiente manera: Fijemos A base de V y B base de
W. Luego, a cada transformaci´on T ∈ L(V, W) le asignamos por imagen
250 7. TRANSFORMACIONES LINEALES.
mediante F a la matriz
B
((T))
A
∈ M
mxn
(K), esto es F (T) =
B
((T))
A
Probemos que F es lineal. Sean T
1
, T
2
∈ L(V, W) y λ, µ ∈ K.
F (λT
1
+µT
2
) =
B
((λT
1
+µT
2
))
A
= λ
B
((T
1
))
A

B
((T
2
))
A
=
λF (T
1
) +µF (T
2
) .
Probemos que F es biyectiva.
1) F es inyectiva. Sean T
1
, T
2
∈ L(V, W) tales que T
1
= T
2
. Debemos
probar que F (T
1
) = F (T
2
).
En efecto siendo A una base de V por la proposici´on 7.3 existe v
i
∈ A tal
que T
1
(v
i
) = T
2
(v
i
), entonces coord
B
(T
1
(v
i
)) = coord
B
(T
2
(v
i
)). Pero de
acuerdo a la definici´on de matriz asociada coord
B
(T
1
(v
i
)) y coord
B
(T
2
(v
i
))
son las i-´esimas columnas de las matrices
B
((T
1
))
A
y
B
((T
2
))
A
respectiva-
mente.
As´ı
B
((T
1
))
A
=
B
((T
2
))
A
; esto es F (T
1
) = F (T
2
).
2) F es sobreyectiva. Dada M ∈ M
nxn
(R), debemos probar que existe
T ∈ L(V, W) tal que F (T) = M.
Vimos en la observaci´on 7.22 que dada una matriz M ∈ M
nxn
(K) existe
una transformaci´on lineal T : V →W tal que
B
((T))
A
= M, es decir que
existe T ∈ L(V, W), F (T) = M.
COROLARIO 7.46. Sean V,W espacios vectoriales de dimensi´ on finita
sobre un mismo cuerpo K.
Se cumple que dim(L(V, W)) = dim(V ) .dim(W).

´ Indice general
PREFACIO Cap´ ıtulo 0. RELACIONES Y FUNCIONES 0.1. Relaciones 0.2. Relaciones de equivalencia 0.3. Conjunto Cociente 0.4. Funciones 0.5. Composici´n de funciones o Cap´ ıtulo 1. 1.1. 1.2. 1.3. 1.4. 1.5. 1.6. SISTEMAS LINEALES DE ECUACIONES Y MATRICES 19 Introducci´n o Matrices El m´todo de escalerizaci´n e o Teorema de Rouche-Frobenius Sistemas homog´neos e Una interpretaci´n geom´trica o e vii 1 1 2 6 9 15

19 24 27 38 43 44 49 49 51 57 66 71 82 85

´ Cap´ ıtulo 2. ALGEBRA DE MATRICES 2.1. Operaciones con matrices 2.2. Producto de matrices 2.3. Ecuaciones matriciales. Matriz inversa. 2.4. El espacio de n-uplas 2.5. Dependencia lineal 2.6. El rango de una matriz 2.7. Matrices invertibles y rango
iii

iv

´ INDICE GENERAL

2.8.

Matrices elementales

87 95 95 97 114 116 117 119 123 127 127 129 131 134 135 138 139 142 145 145 148 151 157 161 165 167 168 170 174 180

Cap´ ıtulo 3. DETERMINANTES 3.1. Definici´n o 3.2. Propiedades de los determinantes 3.3. Matrices elementales y determinantes 3.4. Matrices invertibles y determinantes 3.5. Determinante de un producto de matrices 3.6. C´lculo de la matriz inversa por determinantes a 3.7. Regla de Cramer Cap´ ıtulo 4. RECTAS Y PLANOS EN EL ESPACIO 4.1. Introducci´n o 4.2. Vectores 4.3. Operaciones con vectores. 4.4. Ecuaciones vectoriales de rectas y planos. Paralelismo 4.5. Sistemas de coordenadas 4.6. Ecuaciones param´tricas de rectas y planos e 4.7. Ecuaciones impl´ ıcitas de rectas y planos 4.8. Posiciones relativas de rectas y planos. Cap´ ıtulo 5. PRODUCTO ESCALAR Y VECTORIAL 5.1. Producto escalar 5.2. Aplicaciones a la geometr´ ´ngulos y distancias ıa: a 5.3. Aplicaciones: ecuaciones de algunas superficies 5.4. Producto vectorial. 5.5. Aplicaciones geom´tricas. e 5.6. Producto mixto Cap´ ıtulo 6. ESPACIOS VECTORIALES 6.1. Espacios vectoriales 6.2. Ejemplos de espacios vectoriales 6.3. Subespacios 6.4. Subespacio generado e independencia lineal

´ INDICE GENERAL

v

6.5. 6.6.

Base de un espacio vectorial y dimensi´n o Suma de subespacios y suma directa

187 201

Cap´ ıtulo 7. TRANSFORMACIONES LINEALES. 205 7.1. Transformaciones lineales 205 7.2. Operaciones con transformaciones lineales. 208 7.3. Imagen y n´cleo de una transformaci´n lineal. u o 211 7.4. Transformaciones lineales inyectivas y sobreyectivas. 219 7.5. Isomorfismos entre espacios vectoriales 222 7.6. Matriz asociada a una transformaci´n lineal. o 225 7.7. N´cleo e imagen de una matriz. u 234 7.8. Relaci´n entre n´cleo e imagen de una transformaci´n lineal y o u o de una matriz. 237 7.9. Cambio de base. 245 7.10. Operadores y matrices semejantes. 246 249 7.11. El espacio vectorial L (V, W )

vi ´ INDICE GENERAL .

corregida y muy modificada de las o correspondientes partes de las notas de 1991.. Los principales defectos de las notas derivan de la impericia de los firmantes y de la celeridad con que fue armada esta versi´n (no) final. Funciones. vii . Fue extra´ de Notas de Algebra. La estructura general del libro -que no ser´ necesariamente la del cursoa es la siguiente. No se han incluido en esta edici´n. u Varios cap´ ıtulos fueron redactados nuevamente. La carencia de ejercicios no debe extra˜ar dado que ´stos son editados n e en fasc´ ıculos aparte. adem´s en la bibliograf´ se indican algua a ıa nas referencias donde el lector interesado puede encontrar varios ejemplos interesantes. Sin embargo algunas ser´n abordadas en clase. Ing. a ıdo de Alfredo Jones. Su lectura facilitar´ la comprensi´n del lenguaje del curso. Rafael Laguardia”(IMERL) de la Facultad de Ingenier´ de la ıa Universidad de la Rep´blica.PREFACIO Estas notas son una reelaboraci´n. teniendo en mente transformarlos a la brevedad en partes de un libro sobre el tema. soo bre todo por razones de tiempo ejemplos de tales aplicaciones. en que se desarrollan los conceptos de Relaciones. o a El Algebra Lineal constituye hoy una rama b´sica de la matem´tica con a aplicaciones dentro y fuera de esta. con diversos ejemplos. etc. en cuya redacci´n participao ron un gran n´mero de docentes del Instituto de Matem´tica y Estad´ u a ıstica “Prof. Se incluye un Cap´ ıtulo Cero. y dar´ una referencia general a o a ´ sobre definiciones y resultados b´sicos. editadas por el IME de la Universidad de San Pablo.

Los Cap´ ıtulos Cuatro y Cinco (que podr´ ser los primeros de las notas) ıan est´n dedicados a la introducci´n de un segundo ejemplo b´sico: el de los a o a vectores libres del espacio. Se estudia aqu´ con detalle su relaci´n o ı o con las matrices y se pone de manifiesto el contenido geom´trico de muchas e propiedades algebraicas de estas ultimas. Es el cap´ a ıtulo decididamente nuevo para todos los estudiantes. Aqu´ cada cap´ ı ıtulo interviene de manera fundamental en los siguientes. La gran mayor´ de los t´picos aborıa o dados en los primeras clases tiene un rol fundamental en el resto del curso.viii PREFACIO En el Cap´ ıtulo Uno se estudian los Sistemas de Ecuaciones Lineales. en el se introduce de manera axiom´tica una estructura abstracta a ıtulos que se inspira y generaliza varios de los ejemplos tratados en los cap´ previos. El Cap´ ıtulo Seis est´ dedicado a un tipo particular de funciones entre a espacios vectoriales: las Transformaciones Lineales. Estas se caracterizan por preservar la estructura de los espacios vectoriales y son en cierto sentido el modelo mas sencillo de una funci´n. ´ Un comentario final es pertinente para preparar al estudiante a aprovechar tanto el curso como estas notas. Dif´ ıcilmente ser´ posible avanzar de un cap´ a ıtulo al siguiente sin haber comprendido el primero. . Se presenta un ejemplo clave del curso: el espacio de n-uplas. El Cap´ ıtulo Tres estudia el Determinante de una matriz cuadrada se prueban algunos resultados cl´sicos como el teorema de Cramer y el teorema a de Binet-Cauchy sobre el determinante de un producto de matrices. y el centro conceptual del curso. se desarrolla su presentaci´n matricial y se describe el algoritmo de Gauss o de o escalerizaci´n como herramienta principal para su resoluci´n. Estos se utilizan para dar una exposici´n de los o primeros elementos de la Geometr´ Anal´ ıa ıtica del Espacio. Rn y culmina con el estudio del rango de una matriz. o o En el Cap´ ıtulo Dos se estudian las principales propiedades de las matrices y sus operaciones. concepto directamente relacionado con las soluciones de los sistemas lineales y con la invertibilidad de las matrices cuadradas. El Capitulo Seis est´ dedicado a los Espacios Vectoriales.

Es ampliamente recomendado para ampliar los dos ultimos cap´ ´ ıtulos de nuestro curso. cubre un amplio t´pico de teo mas con rigor y profundidad pero no incluye los cap´ ıtulos de geometr´ Adem´s sigue un orden algo distinto del de nuesıa. Su enfoque sobre la teor´ de espacios vectoriales esta ıa pensada para quien desea luego profundizar en el estudio de espacios de dimensi´n infinita. HillAlgebra Lineal Elemental con Aplicaciones. ´ R. escrito por un experimentado matem´tia co autor de numerosos textos. Una obra cl´sica sobre el tema. en particular o en sus lenguas originales: ´ A. a tras notas. en explicaciones y las pruebas a veces resultan oscuras. Hernandez Algebra y Geometr´a . Prentice Hall. los cap´ ıtulos de matrices y sistemas de ecuaciones aparecen luego de tratar espacios vectoriales. IMPA. ´ E. hay diversas otras ediciones. Kurosch: Curso de Algebra Superior. De cualquiera de los libros que se indican a continuaci´n. Mir-Nimusa. Halmos: Espacios Vectoriales de dimensi´n finita. No contiene aplicaciones. tal vez m´s elemental a que los otros sin embargo es claro abarca casi todos los temas del curso y sobre todo tiene un n´mero grande de aplicaciou nes interesantes a la ingenier´ y otras disciplinas.G. Adisson–Wesley. Un libro excelente. o ´ ´ E. ı Este libro cubre todos los temas de nuestro curso incluyendo los cap´ ıtulos de geometr´ en un orden similar.R. Incluye ıa . o P. realizada por un destacado a matem´tico. Este libro es como su nombre lo indica.PREFACIO ix En la presente edici´n colabor´ particularmente Jos´ D´ o o e ıaz. Lages Lima: Algebra Linear. Es escueto ıa. CECSA. tampoco aborda los temas iniciales de nuestro a curso. Lecturas complementarias recomendadas.

No obstante tiene un punto de vista interesante y claro que puede ayudar a ver desde otra ´ptica los problemas analizados en el curso. Otro excelente libro. es o especialmente recomendado para los primeros cap´ ıtulos del curso. ino cluyendo algunos proyectos para trabajar en computadora. Joyner Algebra Lineal con Aplicaciones. Prentice-Hall.0 PREFACIO una introducci´n al Matlab y tiene numerosos ejercicios. Su objeto de estudio son los sistemas lineales y las matrices. que no cubre los cap´ ıtulos de geometr´ ıa. Tal vez su mayor virtud es el gran n´mero de ejemplos u para trabajar con computadora. ´ K. Este libro tiene un enfoque algo diferente de los otros libros recomendados. De nivel similar al libro de Hill tiene tambi´n un gran n´mero e u de ejemplos y aplicaciones y algunas notas hist´ricas intereo santes. Addison–Wesley. Cuenta con un gran n´mero de aplicaciones interesanu tes incluyendo c´digos de computadora en Fortran. Strang: Algebra linel y sus aplicaciones. Maple y Mathematica G. Thomson. Nakos & D. en algunos momentos aborda temas (determinantes)con mucha generalidad lo cual puede dificultar la comprensi´n en una lectura inicial o G. Koffman & R. o Marzo del 2000 Marcelo Cerminara Roberto Markarian Responsables de esta edici´n o . los espacios vectoriales y las transformaciones lineales solo aparecen secundariamente. Kunze: Algebra Lineal. Se incluyen proyectos para trabajar con Matlab. es muy claro y riguroso.

Observamos que dar una relaci´n entre pares de elementos de un o conjunto. Comenzaremos introduciendo la noci´n de relaci´n mediante una defio o nici´n que esta motivada por la idea usual de una relaci´n entre pares de o o objetos. Dados dos conjuntos. de modo que no nos o o detendremos en la explicaci´n del significado de estos conceptos. Relaciones En este cap´ ıtulo introduciremos algunas definiciones y notaciones b´sicas a para el desarrollo de estas notas. Supondremos que el lector tiene cierta familiaridad con las nociones de relaci´n y de funci´n. A y B. elemento y par ordenado de elementos de un conjunto. en la acepci´n corriente del t´rmino. Con las notaciones usuales de la teor´ de conjuntos ıa esto se traduce en la igualdad: Presuponiendo solo los conceptos de conjunto. subconjunto. sino que o partiremos de sus definiciones estudiando luego s´lo aquellas propiedades o que ser´n aplicadas en los cap´ a ıtulos que siguen.1. equivale a dar una lista foro e mada por los elementos que verifican dicha relaci´n.CAP´ ıTULO 0 RELACIONES Y FUNCIONES 0. esto es. a especificar un o conjunto de pares. podemos definir una relaci´n o como sigue. 1 . indicaremos con A × B el conjunto constituido por los pares ordenados (a.b) tales que a pertenece al conjunto A y b pertenece al conjunto B.

b) a ∼ b ⇒ b ∼ a.1. c) a ∼ b y b ∼ c ⇒ a ∼ c. Una relaci´n R en A se dice reflexiva si aRa para todo o a ∈ A.2. R = {(a. cuando son o ambos pares o bien son ambos impares. es un subconjunto R o de A × A. cada elemento de A u o solo esta en relaci´n consigo mismo.1. e Cuando R es una relaci´n de equivalencia. consideremos: u En este caso. luego en este caso aRb significa a = b. o o sim´trica y transitiva.2 0. En todo conjunto A la relaci´n de igualdad esta dada por o el conjunto R = {(a.b) / a .b es m´ltiplo entero de 2}. si aRb diremos que a es o equivalente a b y usaremos la notaci´n a ∼ b. o Las propiedades que definen una relaci´n de equivalencia en un conjunto o A. 0. sim´trica si aRb implica bRa y transitiva si aRb y bRc implica aRc. son entonces: a) a ∼ a ∀ a ∈ A. u .2. e Una relaci´n de equivalencia en un conjunto A es una relaci´n reflexiva. EJEMPLO 0. a . o Si (a. Una relaci´n en un conjunto A. a) /a ∈ A}.b) ∈ R diremos que a esta en relaci´n R con b y escribiremos aRb. o EJEMPLO 0. Sea Z el conjunto de los n´meros enteros. RELACIONES Y FUNCIONES ´ DEFINICION 0.2. Relaciones de equivalencia ´ DEFINICION 0. el entero a esta en relaci´n R con el entero b. seg´n esta relaci´n. b ∈ Z.

Observar que cada o par representar´ al entero que surge de restar a la primera componente la a segunda. o EJEMPLO 0. EJEMPLO 0.4. de modo que se puede suponer m 0.2.6. EJEMPLO 0. En todo conjunto A se tiene una relaci´n de equivalencia o trivial: R = {(a. . poniendo a ∼ a’ cuando a .r’ entero. A fin de u obtener los n´meros enteros Z a partir de los naturales. Sea Z el conjunto de los enteros.a’ es m´ltiplo de m. la relaci´n: (a.b’) ⇔ a. es decir a ∼ b ⇔ a = b. 0}. a EJEMPLO 0. se define una relaci´n de equivao lencia en Z. En este caso u se escribe a = a’ (mod. b) y c). RELACIONES DE EQUIVALENCIA 3 Mencionaremos algunos ejemplos de relaciones de equivalencia que son utiles.b) ∼ o (a’. m) para indicar que a ∼ a’ y se dice que a y a’ son congruentes m´dulo m. EJEMPLO 0. se definen en N u × N la relaci´n (a. En cada caso el ´ lector verificar´ que valen a).5.0.b) ∼ (a’. A fin de obtener los racionales.b’ = a’. se define en el conjunto Z × Z − {0. Sea N el conjunto de los n´meros naturales.b . pues permiten definir ciertos conceptos importantes. En el conjunto de los reales R.3. se tiene una relaci´n de o equivalencia tomando r ∼ r’ cuando r .7.b’) ⇔ a + b’ = a’ + b. Observamos que m y -m definen la misma o relaci´n.a) / a ∈ A}. Dado un entero fijo m.

b’). debemos probar que si s(a.b’). (a. (a. efectivamente.b”).b’).4 0.b) ∼ (a’. s(a. es decir si s(a.a’) ∼ (b. aplicando o a s(b.a).b’) = s(b. De lo anterior surge que ı al aplicar sucesivamente s(a.b”) = s(b’.a”) entonces s(a.b”). ıa e definimos (a.a”) tenemos que: s(a.a”).1 Anotamos para usarlo mas adelante. Esta noci´n de ´ngulo o o a tiene la limitaci´n de que para estos ´ngulos no es posible definir una suma o a con todas las propiedades deseables para las aplicaciones de este concepto. se obtiene s(b.b”) = s(b”.a).b”). Uno o a de los caminos posibles para llegar a esa definici´n. De lo anterior y observando que: s(a.a”). existe una unica si´ metr´ axial del plano que transforma a en b.b”) = s(b”. An´logamente.b’) = s(b’.b) ∼ (a’. la indicaremos con la notaci´n ıa o s(a. Para demostrar que la relaci´n es transie o tiva. s(a’. es una simetr´a”.a) s(a”.b’) = s(b’. Dados dos pares ordenados de semirrectas de origen O.b”) = s(b. . la siguiente relaci´n de equivalencia.b”) y s(a”.a’). FIGURA 2. consiste en introducir en o el conjunto de los pares ordenados de semirrectas del plano con origen en un punto O. Suponemos sabido que: para o cada par ordenado de semirrectas de origen O.b).a’) y s(a’. Se puede definir un ´ngulo como una figura plana que es a la intersecci´n de dos semiplanos del mismo plano.b’) si la simetr´ axial que transforma a en b’. Las propiedades reflexiva y sim´trica se verifican trivialmente.b) = s(b. de la definici´n de esta relaci´n o o (a.b).b) y (a’. Para esto es necesario dar otra definici´n de ´ngulo. por lo que esta composici´n es. las que se pueden resumir diciendo que los ´ngulos con la suma deben formar a un grupo abeliano. s(b’.8.a”) s(a”. tambi´n transforma b en a’. se lleva a a en b”. que. .b’) si y solo si (a. RELACIONES Y FUNCIONES EJEMPLO 0.El resultado de aplicar sucesivamente tres simetr´as cuyos ı ejes pasan por un punto fijo O.a”) y s(a”.

a. . s′ m transforma F2 en ıas F3. . Adem´s. s′ 1. . . . . se puede o definir como sigue. transforma F1 en F2 y s′ 1. sn. entonces x ∼ a si y solo si x ∼ b . . . Dadas dos clases de equivalencia cl(a) y cl(b) en un conjunto A se tiene que. . Todo elemento b ∈ cl(a) se dice que es un representante de esa clase. Es claro que vale el rec´ ıproco. Llamaremos ”clase de equivalencia de a”. al conjunto de todos los elementos x ∈ A que son equivalentes con a. es suficiente verificar lo que sigue: a) Para toda figura plana F se tiene F ∼ F. o bien son disjuntas (sin elementos comunes). .o ´ DEFINICION 0.. sn. Llamaremos figura del plano a todo conjunto de puntos del plano. porque la sucesi´n de dos simetr´ o ıas iguales transforma todo punto del plano en si mismo. o bien cl(a) ≡ cl(b). o ´ PROPOSICION 0. Todo elemento de A pertenece a alguna clase. .2.3. .9. y que notaremos: cl(a). . . disjuntas dos a dos. Dadas dos figuras planas F1 y F2 definimos F1 ∼ F2 cuando hay alguna sucesi´n finita de simetr´ axiales del plano que transo ıas forma F1 en F2. De las condiciones b) y c) de la definici´n de relaci´n de equivalencia o o se deduce que si a ∼ b . Dada una relaci´n de equivalencia en un conjunto A y o un elemento a ∈ A. . una relaci´n de equivalencia clasifica los elea o mentos de un conjunto A en clases de equivalencia.1. Es decir que b es un representante de cl(a) si y solo si b ∼ a. s′ m transforma F1 en F3. RELACIONES DE EQUIVALENCIA 5 EJEMPLO 0. . entonces la sucesi´n s1.b) Si la sucesi´n de o simetr´ s1. . esto es: Si cl(b) = cl(a) entonces a ∼ b . La relaci´n de congruencia de figuras en el plano. Luego a ∼ b implica cl(b) = cl(a) .0. El siguiente resultado muestra que el conjunto de las clases de equivalencia determina la relaci´n. Para mostrar que esta es una relaci´n de equivalencia en o el conjunto de las figuras planas.

6

0. RELACIONES Y FUNCIONES

´ PROPOSICION 0.2. Rec´procamente, dada una clase cualquiera C de ı subconjuntos de A, no vac´os y sin elementos comunes dos a dos, tales que ı todo elemento de A pertenezca a alguno de ellos, existe una unica relaci´n ´ o de equivalencia en A cuyas clases son dichos subconjuntos.

´ Demostracion de 0.1. En efecto, supongamos que c ∈ cl(a) y c ∈ cl(b), entonces c ∼ a y c ∼ b, de donde a ∼ b, por lo tanto cl(a) = cl(b). Por otra parte, para todo a ∈ A se tiene que a ∈ cl(a).

´ Demostracion de 0.2. Se puede demostrar, que definiendo a ∼ b cuando a y b pertenecen a un mismo subconjunto de la clase C se obtiene una relaci´n o de equivalencia.

0.3. Conjunto Cociente ´ DEFINICION 0.4. Llamaremos ”conjunto cociente de A por R”, a aquel cuyos elementos son las clases de equivalencia de A definidas por la relaci´n de equivalencia R en A, que notaremos: o A/R, A. Seg´n esta definici´n, cada elemento de A junto con todos sus equivau o lentes, constituyen un elemento de A/R. Es por esto que a veces se dice que A/R se obtiene identificando cada elemento de A con todos sus equivalentes. La utilidad de las relaciones de equivalencia proviene precisamente de que permiten en esta forma construir un conjunto de objetos nuevos, las clases de equivalencia, a partir de ciertos objetos dados, los elementos de A. Para individualizar un elemento de A/R, es decir una clase de A, se puede tomar un representante cualquiera de esa clase. Usualmente se trata de elegir un representante que facilite la notaci´n o el c´lculo.o a

0.3. CONJUNTO COCIENTE

7

- Veamos cuales son los conjuntos cociente que se obtienen de algunas de las relaciones de la secci´n 2. o EJEMPLO 0.10. En este caso cada a ∈ A solo es equivalente a s´ mismo ı por lo tanto la clase de equivalencia de a es el conjunto {a}. Quiere decir u que cada elemento de A/R es un conjunto formado unicamente por alg´n ´ elemento de A; luego en este ejemplo al formar el conjunto cociente no tenemos nada escencialmente nuevo.

EJEMPLO 0.11. En este caso la cl(a,b) = {(a’,b’) ∈ N × N / a + b’ = a’ + b}, por lo tanto, en cada clase de equivalencia hay infinitos pares. Observando que (a,b) ∼ (a + 1, b + 1), se puede demostrar que si a = b, en la cl(a,b) hay: o bien un unico representante de la forma (c,0) o bien un ´ unico representante de la forma (0,c) con c = 0. Las clases correspondientes ´ denotan c y -c. Si a = b, (a,b) ∼ (0,0). La clase de (0,0) se denota 0. Se definen los n´ meros enteros como los elementos del conjunto cociente u obtenido.

EJEMPLO 0.12. En este ejemplo las clases de equivalencia son de la forma: cl (a, b) = a′ , b′ /a′ , b′ ∈ Z, b′ = 0, a.b′ = a′ .b .

Usaremos la notaci´n a / b para la clase de (a,b). La igualdad de clase a o / b = a’ / b’ significa la equivalencia de los representantes, (a,b) ∼ (a’,b’), o sea, seg´n la definici´n de la relaci´n, a.b’ = a’.b. Se demuestra f´cilmente u o o a que para todo natural k = 0 es (a.k,b.k) ∼ (a,b) , de aqu´ se deduce que se ı puede tomar para cada clase un representante (a,b) con a y b relativamente primos, es decir, que toda clase se puede escribir en la forma a / b con a y b u primos entre s´ Se definen los n´ meros racionales como los elementos del ı. conjunto cociente. De acuerdo con esta definici´n, cada racional, es una clase o de equivalencia a / b, es decir un conjunto de pares enteros.- Designaremos al conjunto de los n´meros racionales con la letra Q. u

8

0. RELACIONES Y FUNCIONES

EJEMPLO 0.13. En este caso cl(a) = {a , a ± m , a ± 2.m , . . .}. Sabemos que todo elemento a se puede escribir en la forma a = r ± q.m con 0 r m , por lo tanto a ∼ r y cl(a) ∼ cl(r). Quiere decir que para cada clase de equivalencia se puede tomar como representante uno de los n´meros 0,1, . . . . , m-1. Por otra parte, si 0 r < r’ < m , es facil ver que u r no es equivalente a r’, en consecuencia hay exactamente m clases distintas. Usaremos la notaci´n a para indicar la clase de a e indicaremos con Zm el o conjunto cociente, luego Zm = 0, 1, ..., m − 1 . Los elementos de Zm , se llaman enteros m´dulo m. Vamos a introducir la siguiente notaci´n: Si X o o es un conjunto finito cualquiera, indicaremos el n´mero de elementos de X u con — X —. En este ejemplo tenemos |Zm | = m. EJEMPLO 0.14. En este ejemplo cl(r) = { r + n / n ∈ Z }. Como todo n´mero real se puede escribir en la forma r + n con 0 r < 1 y n entero, u para cada clase de equivalencia hay un representante tal que 0 r < 1. ′ < 1 no pueden tener Adem´s es claro que dos reales r y r’, con 0 r < r a por diferencia un entero, luego pertenecen a clases distintas. Por lo tanto el conjunto de los reales r, tales que 0 r < 1, contiene un solo representante de cada clase de equivalencia. El conjunto cociente que resulta se llama el de los n´ meros reales de modulo 1. u

EJEMPLO 0.15. Llamaremos ´ngulo de v´rtice O, a toda la clase de equia e valencia de los pares de semirrectas de origen O seg´n esta relaci´n. Cada u o par de semirrectas de origen O es entonces un representante de un ´ngulo. a a Usaremos la notaci´n aob para designar el ´ngulo que tiene como represeno tante el par (a,b). Dada una semirrecta cualquiera a de origen O, para cada ´ngulo xoy existe una unica semirrecta de origen O tal que aob = xoy. Para a ´ demostrarlo basta observar que para que b tenga esa propiedad tiene que ser (a,b) ∼ (x,y), o sea s(x,b) = s(y,a), luego la semirrecta b buscada es la imagen de x seg´n s(y,a). En consecuencia si tomamos una semirrecta fija u a, el conjunto de todos los pares de la forma (a,b) contiene uno y solo uno de los representantes de cada ´ngulo. a

0.4. FUNCIONES

9

0.4. Funciones Una funci´n se determina dando dos conjuntos y asociando a cada eleo mento del primero un unico elemento del segundo. Este concepto de funci´n ´ o incluye mucho m´s que la idea de ser un procedimiento en el cual dados ciera tos n´meros permite calcular otros. D´ndole al t´rmino el significado m´s u a e a amplio, una funci´n puede no estar definida por ninguna expresi´n num´rica o o e o anal´ ıtica. Adem´s, puede asociar a elementos de un conjunto cualquiera, a no necesariamente de n´meros, elementos de otro conjunto cualquiera. La u consideraci´n de funciones en este sentido, sin restricciones sobre los conjuno tos ni sobre la forma de asociar elementos del primer conjunto a elementos del segundo, se justifica por su utilidad en todas las ramas de la matem´tica. a Veamos como se puede dar una definici´n formal del concepto de funci´n que o o hemos esbozado, presuponiendo solo las nociones de conjuntos, subconjunto, elemento, par ordenado y terna ordenada. Esta definici´n esta motivada o por la idea de ”gr´fico de una funci´n”. Observamos que una funci´n que a a o o cada n´mero real x le asocia un real y, est´ determinada dando todos los u a pares de n´meros (x,y) que constituyen una funci´n de esa forma siempre u o que para cada n´mero x ∈ R, haya uno y un solo y ∈ R tal que (x,y) ∈ G. u Teniendo esto en cuenta, hacemos la siguiente definici´n: o ´ DEFINICION 0.5. Una funci´n es una terna ordenada F = (A,B,G), o donde A y B son conjuntos cualquiera y G es un subconjunto de A × B, tal que para cada x ∈ A hay un y ∈ B y uno solo para el cual (x,y) ∈ G. A se llama el dominio o conjunto de partida, B el codominio o conjunto de llegada y G el gr´fico de f . Para abreviar diremos que que f es a una funci´n de A en B y escribiremos f : A → B. o Usaremos las palabras transformaci´n y aplicaci´n como sin´nimo o o o de funci´n. o

10

0. RELACIONES Y FUNCIONES

Una funci´n f = (A,B,G) puede tener dominio o codominio vacio, auno que estos casos tienen poco inter´s. Si A = ∅, entonces para todo B, A × B e = ∅, de donde G = ∅ y f es de la forma f = (∅,B,∅). Luego para cada conjunto B hay una unica funci´n con dominio vac´ y ´ o ıo codominio B. Si una funci´n f = (A, B, G) tiene codominio B = ∅ es G = o A × B = ∅, y como para cada x ∈ A existe un y ∈ B, debe ser A = ∅. En consecuencia f = (∅,∅,∅) es la unica funci´n con codominio vac´ ´ o ıo.

´ DEFINICION 0.6. Si (x,y) ∈ G diremos que y es la im´gen de x por f o a el valor de f en x. Indicaremos con f(x) la imagen de x por f , luego G = { (x , f(x)); x ∈ A }. Dar el gr´fico de f equivale entonces a dar , para cada x del dominio, a su imagen f(x). N´tese que dos elementos diferentes del dominio pueden tener la misma o imagen. Por ejemplo, sea A=B=R y G = entonces para todo x = 0 esx = −xpero f (x) = f (−x) = x2 . ´ DEFINICION 0.7. Dado un subconjunto del dominio, X ⊂ A, llamaremos imagen de x por f al subconjunto de B formado por las im´genes de todos a los elementos de X. x, x2 ; x ∈ R

La imagen de X se denotar´ f (X), luego f (X) = {f (x) ; x ∈ X}. A a veces se llama recorrido de f a la imagen del dominio, f (A). N´tese que f (A) ⊂ B pero f (A) puede no coincidir con B. As´ en el o ı ultimo ejemplo el recorrido est´ formado por los reales positivos y no coincide ´ a con el codominio R.

Se llama imagen inversa de un elemento y ∈ B a la imagen inversa del conjunto {y}. En cambio. El ejemplo 0. Por ejemplo.10.17 es un caso particular del siguiente. x′ ) = x EJEMPLO 0. entonces la imagen inversa de 0 por f es {0}.8. si f : R → R es la funci´n tal que f (x) = x2 para todo o x ∈ R . 1} y la de -1 es el conjunto vac´ ıo. dada por g (x) = 2x. La funci´n f : N → N dado por f (x) = 2x no o es sobreyectiva.17. FUNCIONES 11 ´ DEFINICION 0. ´ DEFINICION 0. ´ DEFINICION 0.0. EJEMPLO 0.4. Llamaremos imagen inversa o preimagen por f de un conjunto Y ⊂ B al subconjunto. . Una funci´n f : A → B se dice sobreyectiva si o f (A) = B es decir. f (x) ∈ Y } .9. Dada una funci´n o cualquiera f : A → B la funci´n g : A → f (A) definida por g (x) = f (x) o para todo x ∈ A. Dicho de otra manera. f es inyectiva cuando x = x′ implica f (x) = f (x′ ). pues la imagen f ( N ) est´ formada s´lo por los n´meros a o u pares. La funci´n p : R × R o es sobreyectiva. es decir: {x ∈ A. de A formado por todos los x que tienen imagen en Y. es sobreyectiva. si para todo y ∈ B existe por lo menos un x ∈ A tal que f (x) = y. la de 1 es {−1. es sobreyectiva la funci´n g de N en el conjunto de los o naturales pares.16. → R definida por p (x. Una funci´n f : A → B se dice inyectiva si para o todo y ∈ B hay al lo sumo un x ∈ A tal que f (x) = y.

EJEMPLO 0. definida por i (x) = x para todo x ∈ A. . Si A = B. No es sobreyectiva. como ρ > 0. Esta funci´n no es inyectiva porque u o para todo real x y todo entero k vale: ex+2kπi = ex (cos2kπ + isen2kπ) = ex Mostraremos que es sobreyectiva. senφ = √ 2 + v2 2 + v2 u u Por otra parte. tomando como valor o en x + iy el complejo: exp (x + iy) = ex (cosy + iseny) Denotaremos este n´mero con ex+iy . luego: ρ= u + iv = ρ (cosφ + isenφ) = ex+iφ .20.18. Sean A ⊂ B conjuntos cualquiera. suponemos sabido que para cada real p¿0 existe un x tal que ex = p. La funci´n f : N → N dada por f (n) = n + 1 es o ′ entonces n + 1 = n′ + 1. u EJEMPLO 0. La funci´n inclusi´n o o i : A → B. Para todo real x est´ deficomplejos. existe un real x tal que ρ = ex . nido e Se puede definir la funci´n exponencial. Indicaremos con la letra C al conjunto de los n´meros u o los complejos diferentes de 0. cosφ = √ . porque inyctiva. exp : C → C 0 . pues si n = n no existe ning´n natural n que verifique f (n) = 0. i no es sobreyectiva. es inyectiva.12 0. Para esto observamos que todo complejo u + iv = 0 se puede expresar en la forma u + iv = ρ (cosφ + isenφ) donde u v u2 + v 2 > 0. y con C a x . RELACIONES Y FUNCIONES EJEMPLO 0.19.

por lo tanto β = α.11. Todos los x ∈ A que est´n en una o a clase de equivalencia α ∈ A tienen la misma imagen seg´n f. Una funci´n se dice biyectiva si es sobreyectiva e o inyectiva. que esta es una relaci´n de equivalencia. Se usa correspondencia biun´ ıvoca como sin´nimo de funci´n biyeco o tiva. A veces escribiremos simplemente Id o en vez de IdA . como la funci´n de A en A tal que para todo x ∈ A. consideremos en A la relaci´n x x′ si o o ′ ). luego se puede u definir una funci´n f : A → B eligiendo para cada α ∈ A un representante o cualquiera x ∈ A y tomando f (α) = f (x). La funci´n f : Z → Z definida por f (n) = n + 1 es o biyectiva. EJEMPLO 0. o IdA (x) = x. EJEMPLO 0.0. EJEMPLO 0.4.24. ´ DEFINICION 0. Dado un conjunto cualquiera A definimos la funci´n o identidad en A.23.21. Es biyectiva la funci´n f : R → R dada por f (x) = o 3 ? x EJEMPLO 0. IdA . entonces para cada representante y ∈ B se tiene: f (y) = f (β) = f (α) = f (x) luego y x. Es claro.22. . FUNCIONES 13 Dada una funci´n f : A → B. sea A el f (x) = f (x o conjunto cociente de A por esa relaci´n. La funci´n logaritmo definida de los reales positivos en o R es biyectiva. Esta funci´n es biyectiva. La funci´n f es inyectiva porque o si β ∈ A verifica f (β) = f (α).

Una funci´n f : N → A se llama sucesi´n de o o elementos de A. o a ´ DEFINICION 0. (Observar que la primera es sobreyectiva y la segunda no lo es). B ′ .. De modo que. .. es biyectiva.14 0. de consideraciones anteriores resulta A por la relaci´n x x o que la funci´n f : A → f (A) definida por f (α) = f (x) donde x es un o representante de α... an }. .) .. dado un conjunto I. La o restricci´n g se notar´: q/c.. igual codominio y el mismo valor. se llama restricci´n de f a C a la funci´n g : C → B definida por g (x) = f (x) o o para todo x ∈ C. para cada x del dominio. G′ ). Dada f : A → B y un conjunto C ⊂ A.. o Lo usual es denotar la imagen i como ai . an = f (n). . G) y g = (A o B=B’ y G=G’. (ai ) Una n-upla de elementos de A es una funci´n f : {1.. son iguales s´lo cuando A=A’. o es diferente a la funci´n f : Z → R definida por f (x) = −x para todo o x ∈ R. n} → A. (ai )i∈N . f = (A. ´ DEFINICION 0. funciones. donde a1 = f (1) . pues los codominios no coinciden. por ejemplo. B. . por lo tanto dos o o ′ .12. a2 . una funci´n f : I → A se llama tambi´n una familia de elemeno e tos de A indizada por I. De acuerdo a la definici´n una funci´n es una terna.. la funci´n f : Z → Z tal que f (x) = −x para todo x ∈ R. Se dice que f es una prolongaci´n de g en A. Un elemento de la sucesi´n es una imagen f (i) de un o i ∈ N. Se o escribe {a1 . ..13. es decir cuando tienen igual dominio. f (x) = g (x).. En general. RELACIONES Y FUNCIONES Sea f : A → B una funci´n cualquiera y sea A el conjunto cociente de o ′ si f (x) = f (x′ ). e indicar la sucesi´n en alguna de la siguientes formas: (a1 .

llamaremos composici´n de f y g a la funci´n h : A → C tal que para todo o o x ∈ A h (x) = g (f (x)). g : B → C. h : A → C. COMPOSICION DE FUNCIONES 15 0.´ 0. Dadas tres funciones.5. Composici´n de funciones o ´ DEFINICION 0. o a Tres funciones de la forma f : A → B. se pueden indicar en un mismo diagrama del modo siguiente: Figura 5. si f : R → R est´ dada por f (x) = x a g (x) = −x entonces gf (x) = −x2 y f g (x) = x2 . Para que est´ definida gf es necesario que el codominio de f est´ incluido e e en el dominio de g. Obs´rvese que e esto significa que para todo a ∈ A se tiene el mismo resultado si ”se sigue la flecha”de A a C y se halla h (a).5. f : A → B. Si se consideran funciones f : A → A y g : A → A entonces fg y gf est´n definidas a y ambas son funciones de A en A. o si se ”siguen las flechas”de A a B y de B a C para llegar a gf (a). Por e 2 y g : R → R por ejemplo. Dadas dos funciones f : A → B y g : B → C.1 Cuando h=gf se dice que el diagrama es conmutativo. de la definici´n de composici´n de funciones resulta que o o h (gf ) y (hg) f est´n definidas y son iguales pues ambas son funciones a de A en D y para todo x ∈ A: (hg) (f (x)) = h (g (f (x))) = h ((gf ) (x)) = (h (gf )) (x) Observemos finalmente que para toda funci´n f : A → B se verifica o idB f = f idA = f .14. En particular. g : B → C y h : C → D. La funci´n compuesta se notar´ g f o g ◦ f . pero no tienen por qu´ ser iguales. . puede estar definida gf y no estarlo fg.

entonces tomamos g (y) = x. De f (x) = f (x′ ) sigue x = gf (x) = gf (x′ ) = x′ . Seg´n u este teorema. Si gf = idA diremos que g es la inversa a la izquerda de f. o a la izquerda. Supongamos que f es inyectiva. cuando A es no vac´ f es inyectiva si y s´lo si tiene inversa ıo. como A es no vac´ podemos tomar un x ∈ A / ıo. por ser f inyectiva la imagen inversa de y se reduce a un elemento x ∈ A. Una funci´n f : A → B con dominio A no vac´o es o ı inyectiva si y s´lo si existe una funci´n g : B → A tal que gf = idA . b) Si y ∈ B pero y ∈ f (A). seg´n a): u (gf ) (x) = (g (f (x))) = g (y) = x. Obs´rvese que para todo B la funci´n f : φ → B es inyectiva e o pero si B = φ. y ∈ f (A). cualquiera y definir g (y) = x. Entonces gf = idA pues para todo x ∈ A. resultando en cada caso un inverso izquierdo g diferente. TEOREMA 0. f no tiene inverso izquerdo pues no existe funciones con dominio B = φ y con codominio φ. RELACIONES Y FUNCIONES En los teoremas que siguen veremos algunas propiedades de las funciones ineyectivas y sobreyectivas que podr´ utilizarse para definir inyectividad ıan y sobreyectividad. Por esta raz´n el teorema 0.3 resulta que si f es inyectiva pero no o sobreyectiva y si A tiene m´s de un elemento entonces el inverso izquierdo de a f no es unico. . o o ´ Demostracion. En efecto. en este caso existe ciertamente alg´n y pertene´ u ciente a B. Rec´ ıprocamente. al cual puede asignarse por imagen seg´n g diferentes / u elementos de A. De la demostraci´n del teorema 0. supongamos que gf = idA .3. luego f es inyectiva.16 0.3 no vale sin o la hip´tesis de que el dominio A no sea vac´ o ıo. a)Si y ∈ f (A). Definimos una funci´n o g : B → A como sigue.

Seg´n el teorema 0. ´ Demostracion. quere decir que la imagen por f del ekemento g (y) ∈ A es y. pero h = h′ . tambi´n en este caso e ′ = (φ. Entonces (f h) (c) = C → A con h (c) = x y h (f h′ ) (c) = f (c). φ. sea g : B → A tal que f g = idB . porque si A no es vac´ se tiene: ıo g (f h) = idA h = h = g f h′ = idA h′ = h′ Si A = φ. TEOREMA 0. de h : C → A sigue C = φ luego. De aqu´ sigue para ı todo y ∈ B. Una funci´n f : A → B es sobreyectiva si y s´lo si existe o o g : B → A tal que f ◦ g = idB . h’ de C en A.4. definimos h : ´ ′ : C → A con h′ (c) = x′ . si f : A → B es inyectiva fh=fh’ implica h=h’.´ 0. Kuego f es sobreyectiva. Supongamos que f : A → B no sea inyectiva y sean x. COMPOSICION DE FUNCIONES 17 Dadas dos funciones h. y = idB (y) = f (g (y)). Definimos g : B → A o tomando g (y) = x. Supongamos que f es sobreyectiva. es decir fh=fh’. x = x′ . Sea C un conjunto formado por un unico elemento c. Con esto tenemos para todo y ∈ B: (f g) (y) = f (x) = y pues x fue elegido en la imagen inversa de y. u o De la demostraci´n de este teorema puede deducirse que si f es sobreyectiva o pero no inyectiva entonces tiene m´s de un inverso derecho.5. Luego o f es inyectiva. φ). a . f es sobreyectiva si y s´lo si tiene inverso derecho. x′ ∈ A . h=h Mostraremos que esta propiedad caracteriza las funciones inyectivas. Una funci´n g : B → A tal que f g = idB se llama inversa a la derecha o de f. (Esto requiere usar el axioma de elecci´n). contrario a la hip´tesis. tales que f (x) = f (x′ ).4. Rec´ ıprocamente. es decir que toda f para la cual fh=fh’ implica h=h’ es inyectiva. entonces para todo y ∈ B la imagen inversa por f es un conjunto no vac´ del cual podemos elegirun ıo elemento x.

18 0. por lo tanto hay un unico inversa a la izquierda. Es claro que si f −1 es el inverso de f entonces f es el inverso de f −1 . La demostraci´n es similar a la que hicimos para la propiedad an´loga o a ′ = id . De aqu´ y del corolario. B = {r ∈ R. son iguales entre s´ Si f es biyectiva con dominio ı. por lo tanto tambi´n en este caso vale el enunciado tiene inverso f e rec´ ıproco. ıo. Una funci´n f : A → B es biyectiva si y s´lo si existe o o g : B → A tal que gf = idA y f g = idB . Esto ı e tambi´n se puede deducir directamente de la definici´n de funci´n inversa. ı COROLARIO 0.3 y 0. o −1 = f .4. f es biyectiva. hf=h’f implica h=h’. o Si f tiene inversa. e o o . La definici´n de inversa de f : A → B muestra que f −1 asocia a cada y ∈ o B el unico x ∈ A tal que f (x) = y. por los u mismos teoremas tiene inversa a la izquierda e inversa a la derecha que. entonces: de las funciones inyectivas. h’ de B en C. vac´ debe ser de codominio vac´ entonces f = (φ. r > 0} ´ y f : A → B es la funci´n exponencial de base a¿0.5. RELACIONES Y FUNCIONES Tambi´n se caracterizan las funciones sobreyectivas f : A → B. En tal caso decimos que este es la inversa de f y lo denotaremos f −1 . como acabamos de observar. Si gf = idA y f g B g = g idB = f f g′ = (gf ) g′ = idA g′ = g′ Esto demuestra que si f tiene inversa a la izquierda e inversa a la derecha entonces cualquier inversa a la izquierda es igual a cualquier inversa a la derecha. tambi´n lo es f −1 . entonces f −1 : B → A o es la funci´n que cada real positivo le asocia su logaritmo de base a. por la e propiedad de que para todo par de funciones h. φ. un unico inversa ´ ´ a la derecha y son iguales. As´ queda demostrado el corolario siguiente. Por ejemplo si A=R. φ). seg´n los teoremas 0. resulta que si f es biyectiva. Esta funci´n ıo.

. . x2 .   . . α2 . .  . . . .CAP´ ıTULO 1 SISTEMAS LINEALES DE ECUACIONES Y MATRICES 1. . . . . . o Una soluci´n del sistema (S) es una sucesi´n de n n´meros (α1 . αn ) o o u tales que si se sustituye x1 = α1 . x2 = α2 . discutir sus u propiedades y ciertas estrategias para resolverlos.1. . xn = αn se verifican simult´neamente las m ecuaciones. + a1n xn = b1     a21 x1 + a22 x2 + . a En nuestro cursos los n´meros que consideraremos pertenecen al cuerpo de los reales u o de los complejos 19 1 . Quienes ya conozcan estos temas tendr´n en todo caso una oportunidad para repasarlos. . . . . . xn o es un problema del tipo:   a11 x1 + a12 x2 + . . . . . . . a Un sistema lineal de m ecuaciones con n inc´gnitas x1 . m (los t´rminos independientes) son n´meros1 Diremos que el sistema es m × n indicando siempre el primer n´mero la cantidad de u ecuaciones y el segundo la de inc´gnitas. .   am1 x1 + am2 x2 + . . . + amn xn = bm donde aij con i = 1. . m y j = 1. . . . n (los coeficientes del sistema) y e u bj con j = 1. . + a2n xn = b2 (S) = . . Introducci´n o Gran parte de lo que estudiaremos en este curso y en su continuaci´n o en el segundo semestre se vincula con los sistemas de ecuaciones lineales por lo tanto vale la pena dedicar alg´n tiempo a presentarlos.

compatible indeterminado o ´ si card(Sol(S)) > 1 (tiene soluci´n pero no es unica)3 e incompatible si o ´ card(Sol(S)) = 0 (no tiene ninguna soluci´n). 2. Trivialmente se observa que Sol(S) = {(1. salvo que se indique lo contrario. ´ a EJEMPLO 1. las soluciones se consideraran en el mismo conjunto de n´meros que los coeficientes u 3 Veremos m´s adelante que si un sistema lineal admite m´s de una soluci´n entonces a a o necesariamente debe admitir infinitas 2 . u Si A es un conjunto escribiremos card(A) para representa su cardinal. Diremos entonces que un sistema es compatible determinado si card(Sol(S)) = 1 (tiene soluci´n unica). ECUACIONES LINEALES Y MATRICES Llamaremos conjunto soluci´n del sistema (S) y lo notaremos Sol(S) o al conjunto de todas las soluciones de (S).   x=1  (S) y = 3   z=2 es un sistema 3 × 3. 3)}. En general.2 o Clasificaremos los sistemas de acuerdo a n´mero de soluciones que tenga.2. o EJEMPLO 1. Resolver un sistema es determinar su conjunto soluci´n. u o Naturalmente este problema es extremadamente sencillo pero como acontece muchas veces las ideas que aqu´ se utilizan convenientemente adaptadas ı resultaran utiles en casos m´s generales y complicados. Si el conjunto es finito card(A) indica el n´mero de elementos e infinito en u otro caso.1. El ejemplo m´s sencillo de un sistema lineal es el 1 × 1 a ax = b en pocos renglones podemos discutir completamente como es el conjunto soluci´n.20 1. Si en cambio a = 0 hay dos posibilidades: si b = 0 soluci´n es x = a = a o el sistema es incompatible y si b = 0 trivialmente el sistema es compatible indeterminado y cualquier n´mero es soluci´n del mismo. Si a = 0 entonces el sistema es compatible determinado y su unica o ´ b −1 b.

1. Aqu´ con algo m´s de trabajo tambi´n se puede e ı a e deducir f´cilmente el conjunto soluci´n.4. INTRODUCCION 21 EJEMPLO 1.2 y 1. Una estrategia para resolverlo. por este motivo se dice que el sistema esta “escalerizado”. ıa ′ ) equivalente y “escalerizado” de modo de poder resolver (S ′ ) (y por (S ende (S) ya que al ser equivalentes los conjuntos soluci´n de ambos sistemas o . Este procedimiento de despejar una inc´gnita en una ecuaci´n y sustituirla o o en otra de arriba se denomina sustituci´n hacia atr´s o a Observemos que en los ejemplos 1. cuando esto ocurra diremos que los respectivos sistemas son equivalentes.3. 2)}. la de sustituir el sistema (S) por otro. inspirada ı en los ejemplos anteriores podr´ ser.   x + y + 2z = 8  (S) x−y+z =0   x+y+z =6   x + y + 2z = 8  (S) 2y + z = 8   z=2 Las cosas aqu´ no son tan claras. es tambi´n un sistema 3 × 3. Para esto basta observar que de a o abajo hacia arriba cada ecuaci´n tiene exactamente una inc´gnita m´s que o o a la siguiente. De la ultima ecuaci´n se despeja ´ o z=2 Con este valor de z sustituimos en al segunda ecuaci´n y tenemos o 2y + 2 = 8 =⇒ 2y = 6 =⇒ y=3 Finalmente con los valores de y y z hallados “subimos” a la primera ecuaci´n o y sustituyendo se tiene que x + 3 + 2(2) = 8 =⇒ x=1 En consecuencia Sol(S) = {(1. 3. EJEMPLO 1.3 los conjuntos soluci´n son o iguales.´ 1.

 .22 1. La demostraci´n es muy sencilla y la haremos s´lo en el o o caso que la transformaci´n elemental sea del tipo 3. Para responderla introducimos la siguiente ´ DEFINICION 1. Sumar a una ecuaci´n un m´ltiplo de otra.    am1 x1 + am2 x2 + · · · + amn xn = bm . Si en un sistema lineal de ecuaciones se efect´an u una transformaci´n elemental el sistema resultante es equivalente al orio ginal.   . Llamaremos transformaciones elementales a cualquiera de las siguientes operaciones efectuadas a las ecuaciones de un sistema lineal: 1. ECUACIONES LINEALES Y MATRICES coinciden) con el procedimiento utilizado en el ejemplo 1.    a x + a x + ··· + a x = b  j1 1 j2 2 jn n j    .  . Multiplicar una ecuaci´n por un n´mero α = 0. o La pregunta que naturalmente surge es ¿c´mo hacer para sustituir un o sistema por otro que resulte equivalente?.  . o ´ PROPOSICION 1. (αFi ) o u 3.1. Analicemos un poco estas ideas antes de retomar la resoluci´n concreta del ejemplo. (Fi + αFj ) o u Entre par´ntesis se indica la notaci´n que utilizaremos para especificar cada e o operaci´n en los ejemplos. ´ Demostracion.1. El resto queda a cargo o del lector.     a x + a x + ··· + a x = b   i1 1 i2 2 in n i  . (S) .3. (Fi ↔ Fj ) 2. o o a La siguiente proposici´n responde la pregunta formulada arriba. Intercambiar de lugar dos ecuaciones. Supongamos que el sistema original sea   a11 x1 + a12 x2 + · · · + a1n xn = b1    . La ecuaci´n i-esima ser´ notada con Fi . .

1.     aj1 x1 + aj2 x2 + · · · + ajn xn = bj    . a Veamos primero que Sol(S) ⊂ Sol(S ′ ).    am1 x1 + am2 x2 + · · · + amn xn = bm . α2 . α2 . . .     (a x + a x + · · · + a x ) + β(a x + a x + · · · + a x ) = b + βb  i1 1  i2 2 in n j1 1 j2 2 jn n i j  . αn ) satisface todas las ecuaciones de (S ′ ) (pues son las mismas que las de (S)) salvo tal vez la i-esima. . · · · . (S ) . Igual que antes es claro (α1 .  .  . Consideremos ahora (α1 . . α2 . El o u o sistema resultante es  a11 x1 + a12 x2 + · · · + a1n xn = b1     . . . αn ) ∈ Sol(S) es claro que (α1 . . α2 . ′ . Finalmente probemos que Sol(S ′ ) ⊂ Sol(S). Como se trata de mostrar la igualdad de dos conjuntos tendremos que demostrar que est´n mutuamente incluidos. α2 . . . αn ) debe verificar todas las ecuaciones de (S) salvo tal vez la i-esima pero como (ai1 α1 + ai2 α2 + · · · + ain αn ) + β(aj1 α1 + aj2 α2 + · · · + ajn αn ) = bi + βbj y aj1 α1 + aj2 α2 + · · · + ajn αn = bj Supongamos que sumamos a la ecuaci´n i un m´ltiplo de la ecuaci´n j. . αn ) ∈ Sol(S ′ ). INTRODUCCION 23 Para probar que ambos son equivalentes deberemos ver que Sol(S) = Sol(S ′ ). α2 . Como (α1 . . αn ) ∈ Sol(S ′ ). · · · . · · · .  .   . Sea (α1 .´ 1. . αn ) debe verificar la i-esima y j-esima ecuaci´n de (S) se tiene que o ai1 α1 + ai2 α2 + · · · + αin xn = bi y aj1 α1 + aj2 α2 + · · · + ajn αn = bj por lo tanto (ai1 α1 + ai2 α2 + · · · + ain αn ) + β(aj1 α1 + aj2 α2 + · · · + ajn αn ) = bi + βbj de donde (α1 .

.24 1. αn ) ∈ Sol(S) y la prueba esta concluida.2.3 por lo cual Sol(S) = {(1. si multiplicamos las dos ultimas ecuaciones ´ por −1 se obtiene el sistema del ejemplo 1. Naturalmente no alcanza e con conocer los valores de estos n´meros sino que es necesario mantener el u orden que ocupan (a qu´ ecuaci´n pertenecen y a qu´ inc´gnita multiplican). Naturalmente las cuestiones que se imponen ahora son las de saber si cualquier sistema puede ser “escalerizado” mediante transformaciones elementales y en caso afirmativo determinar un m´todo o algoritmo que permita e hacerlo. . xn . . . . e o e o Por esto resulta conveniente dar la siguiente . . etc. z o x1 . . y.4 (continuaci´n). Matrices Al trabajar con un sistema de ecuaciones la representaci´n de las ino c´gnitas (x. EJEMPLO 1. La idea es combinar ambas con la primera de modo que los coeficientes de la inc´gnita x se anulen. de hecho para determinar un sistema es suficiente con conocer los coeficientes y el t´rmino independiente del mismo.    x + y + 2z = 8  x + y + 2z = 8   x−y+z =0 ∼ −2y − z = −8 ←− F2 − F1     x+y+z =6 −z = −2 ←− F3 − F1 El sistema esta ya “escalerizado”. Como el coeficiente de x en o las tres ecuaciones es 1 basta en ambos casos restar la primera.) no juega ning´n papel y puede usarse o u cualquiera. Para que el sistema quede “escalerizado o en la segunda y tercera ecuaci´n no debe aparecer la inc´gnita x entonces o o dejemos la primera ecuaci´n igual y realicemos transformaciones elementales o en la segunda y tercera. α2 . . ECUACIONES LINEALES Y MATRICES se deduce que ai1 α1 + ai2 α2 + · · · + ain αn = bi con lo cual (α1 . Volvamos a analizar el ejemplo 1.4. 3. 2)} 1.

      am1 am2 ..es intuitiva pero no est´ definida con precisi´n. . . . a o el criterio de igualdad de matrices.5. . . . El conjunto de todas las matrices m × n lo indicaremos como Mm×n . . . Llamaremos matriz columna (fila) a una matriz X ∈ Mm×1 (M1×n ). El lector atento notar´ que nuestra definici´n de a o matriz si bien es clara no es del todo formal. . .. . La frase “ordenamiento rectangular. chequeando por ejemplo.. Diremos que dos matrices son iguales si tienen el mismo tama˜ o y los n mismas entradas en las mismas posiciones..1. amn Notaci´n: En general la matriz A con entradas aij la indicaremos por o a A = ((aij ))i=1.. . . .m o m´s brevemente A = ((aij )) cuando las dimensiones j=1. a12 a22 . . ... m}× o {1. una definici´n formal ser´ a o o ıa: Una matriz A de m filas por n columnas es una funci´n A : {1.. . . . Sea A= √ 1 2 2 1 yB= √ 2 1 2 1 Entonces A = B pues a11 = 1 = b11 = 2 ´ OBSERVACION 1. . .2. ... . n EJEMPLO 1.n est´n claras. m.2.2. j = 1. . MATRICES 25 ´ DEFINICION 1. Llamaremos matriz A de m filas por n columnas (m × n) de entradas aij a un ordenamiento rectangular de n´meros u   A=    a11 a21 . a1n a2n . n} → R. . . . El lector verificar´ que esta definici´n es coherente.. .. El primer ´ e ındice i indica la fila y el segundo j la columna a la que pertenece la entrada. Dicho de otro mondo si A y B son dos matrices m × n entonces A = B ⇔ aij = bij ∀i = 1.. .

   am1 x1 + am2 x2 + .3. . . Veamos algunos ejemplos. .  . .   . . . . . a1n    a21 a22 .  . . amn matriz m × (n + 1)  b1  b2  . . . .  bm Diremos que dos matrices son equivalente si los respectivos sistemas lo son La definici´n anterior introduce una notaci´n m´s compacta (matricial) o o a para un sistema de ecuaciones. am1 am2 . . .6. . a1n   a21 a22 .  .  .  . + a2n xn = b2 . matriz ampliada del sistema a la  a11 a12 . . A= . . .  . a2n   . . + a1n xn = b1     a21 x1 + a22 x2 + . . EJEMPLO 1.  . . . .26 1.. esto es:   a11 a12 . . .. . ECUACIONES LINEALES Y MATRICES ´ DEFINICION 1. Consideremos el sistema   x + y + 2z = 9  (S) 3x + 6y − 5z = 0   2x + 4y − 3z = 1 entonces la matriz del sistema y la matriz ampliada son:     1 1 2 1 1 2 9     A = 3 6 −5 y A|b =  3 6 −5 0  2 4 −3 2 4 −3 1 . . a2n (A|b) =  . . Dado un sistema lineal de ecuaciones   a11 x1 + a12 x2 + . am1 am2 . . . + amn xn = bm llamaremos matriz del sistema a la matriz m × n A de coeficientes del mismo. . . . . amn Llamaremos.  . .

4 a la matriz ampliada de un sistema.3. 2. El m´todo de escalerizaci´n e o Resulta natural ahora analizar . EJEMPLO 1.6     1 1 2 1 1 2 9 9      3 6 −5 0  ∼  0 3 −11 −27  ←− F2 − 3F1 ∼ ←− F3 − 2F1 2 4 −3 1 0 2 −7 −17   1 1 2 9   ∼  0 3 −11 −27  1 2 0 0 1 ←− F3 − 3 F2 3   1 1 2 9    0 3 −11 −27  0 0 1 3 ←− 3F3 Ahora podemos proceder a realizar sustituci´n hacia atr´s.´ ´ 1.3. c´mo se aplica el procedimiento de “eso calerizaci´n” del ejemplo 1. EL METODO DE ESCALERIZACION 27 1. Por lo tanto el sistema (S) es equivalente al sistema   x + y + 2z = 9  3y − 11z = −27   z=3 .el sistema del ejemplo 1. 3). Intentemos “escalerizar. De la ultima o a ´ ecuaci´n se tiene o z=3 Con este valor sustituimos en la segunda y tenemos 3y − 33 = −27 =⇒ 3y = 6 =⇒ y=2 y finalmente sustituyendo en la primera x + 2 + 6 = 9 =⇒ x=1 En consecuencia el sistema es compatible determinado y su unica soluci´n ´ o es la 3-upla (1. Las transo formaciones elementales deben aplicarse sobre las filas de la matriz.7.

La columna correspondiente a la primera entrada no nula de una fila tiene el resto de las entradas todas nulas. 2.8. Llamaremos matriz escalerizada a una matriz que cumpla las siguientes condiciones 1.b) (1.4. ECUACIONES LINEALES Y MATRICES Hasta ahora no hemos sido precisos para definir a que le llamamos un sistema o matriz escalerizada ´ DEFINICION 1.28 1.8. Si A es una matriz y E es una matriz escalerizada equivalente a A diremos que E es una forma escalerizada de A EJEMPLO 1. salvo quiz´s la primera comienzan con una sucesi´n a o de ceros. La primera entrada no nula de una fila es 1.c)       Los ejemplos a y b son matrices escalerizadas y los ejemplos c y d son escalerizadas reducidas.a) (1.      2 0 0 0 1 0 0 0 1 3 0 0 0 1 0 0 0 2 2 0 4 2 0 0 1 1 1 4 0 0 1 0           2 0 0 0 1 0 0 0 1 0 0 0 0 1 0 0 0 3 0 0 1 2 0 0 1 1 2 0 0 0 1 0           (1.8. 2.d)       1 0 0 0 . Diremos que un sistema est´ escalerizado si su matriz ampliada lo est´. Llamaremos matriz escalerizada reducida a una matriz escalerizada que adem´s cumple las siguientes condiciones: a 1. a a Escalerizar un sistema (o matriz) es encontrar un sistema (matriz) escalerizado equivalente.    (1. Cada fila tiene al principio por lo menos un cero m´s que la fila a inmediata superior. Todas las filas.8.8.

Para esto combinamos convenientemente tercera con la segunda fila. Ahora que obtuvimos una forma escalerizada de la matriz original podr´ ıamos proceder con la sustituci´n hacia atr´s pero en lugar de esto intentemos o a .     2 4 2 −2 2 4 2 −2     (1. Cabe entonces e o a preguntarse el motivo para introducir la definici´n de matriz escalerizada o reducida. EJEMPLO 1.6 se aprecia que una vez obtenida la forma escalerizada el m´todo de sustituci´n hacia atr´s permite resolver el sistema. En el siguiente ejemplo se aclara en parte esto. Resolver el sistema:   2x + 4y + 2z = −2  (S) x + y + 2z = 0   −x + y − 2z = 2 La matriz ampliada del sistema es:   2 4 2 −2   2 0   1 1 2 −1 1 −2 Procedamos a escalerizarla. Dejamos la primera fila fija y la utilizamos como “pivot” para combinar con las otras dos. para esto en primer lugar obtengamos una matriz equivalente pero con ceros en la segunda y tercera posici´n de la primera o columna.     2 4 2 −2 2 4 2 −2     2 0  ∼  0 −1 1 1  ←− F2 − 1 F1  1 1 2 −1 1 −2 2 0 3 −1 1 ←− F3 + 1 F1 2 Ahora la primera y segunda fila tiene el aspecto adecuado. EL METODO DE ESCALERIZACION 29 En el ejemplo 1.9. El segundo paso consiste en sustituir la tercera fila por otra con dos ceros en los primeros lugares.3.1) 1 1  ∼  0 −1 1 1   0 −1 1 0 0 2 4 0 3 −1 ←− F3 + 3F2 N´tese que al dar el segundo paso la primera fila ya no interviene y se procede o de manera an´loga al primer paso pero utilizado la segunda fila como fila a “pivot”.´ ´ 1.

3 y 2. Esto implica que en el correspondiente sistema cada ecuaci´n tenga exactamente una inc´gnita m´s que la inmediata inferior. equivalente a (S) es   x = −5  ′ (S ) y=1   z=2 y por lo tanto el sistema es compatible determinado con Sol(S) = {(−5. o o a El proceso de obtener la forma reducida sustituye entonces al algoritmo de sustituci´n hacia atr´s. 2)}.1 la escalera que se obtuvo tiene todos sus “escalones” e de ancho una columna. 3 se anulen     2 4 0 −6 ←− F1 − F3 2 4 2 −2     1  ∼  0 −1 0 −1  ←− F2 − 1 F3  0 −1 1 2 0 0 2 4 0 0 2 4 Combinando la segunda fila con la primera obtenemos un cero en la posici´n o 1. adem´s el lector puede observar que la forma o a a escalerizada de una matriz no es unica (para obtener otra basta sustituir ´ una fila por una combinaci´n de ella con una fila inferior) pero la reducida o si lo es. 1.30 1. Obs´rvese que en 1. . 2     2 0 0 −10 ←− F1 + 4F2 2 4 0 −6      0 −1 0 −1  ∼  0 −1 0 −1  4 4 0 0 2 0 0 2 Para obtener la forma reducida solo resta obtener unos en las entradas no nulas de cada fila     2 0 0 −10 1 0 0 −5 ←− 1 F1 2     1  ←− −F2  0 −1 0 −1  ∼  0 1 0 0 0 2 4 0 0 1 2 ←− 1 F3 2 El sistema resultante. ECUACIONES LINEALES Y MATRICES obtener la forma reducida para esto fijamos la tercera fila como “pivot” y la combinamos con la primera y segunda de modo que las entradas en las posiciones 1.

Resolver el sistema:   2x + 4y + 2z = −2  (S) x + y + 2z = 0   −x + y − 4z = 2 A diferencia del ejemplo precedente la forma escalerizada de la matriz ampliada tiene un escal´n m´s que la de la matriz del sistema. Resolver el sistema:   x1 + 2x2 + x3 + x5 + x6 = 1     −x − 2x + x + x − x = 0  1 2 3 4 6  (S) x + 2x2 + x3 + 2x4 + 5x5 + 3x6 = 1  1   x1 + 2x2 + x3 + x5 + 3x6 = 3     x + 2x + x + 4x + 9x + 3x = 1 1 2 3 4 5 6 Procedamos como en el ejemplo anterior     2 4 2 −2 2 4 2 −2     2 0  ∼  0 −1 1 1  ←− F2 − 1 F1 ∼  1 1 2 2 1 ←− F3 + 1 F1 −1 1 −4 0 3 −3 2   2 4 2 −2   1   0 −1 1 0 0 0 4 ←− F3 + 3F2 .10. u y y z la satisface. EL METODO DE ESCALERIZACION 31 La matriz ampliada del sistema es:   2 4 2 −2   2 0   1 1 −1 1 −4 2 EJEMPLO 1.´ ´ 1.3. EJEMPLO 1.11. por lo tanto la o a ultima ecuaci´n del sistema escalerizado es ´ o 0=4 y consecuentemente el sistema resulta incompatible pues ning´n valor de x.

se utilizaba la entrada 2. . 2 para conseguir ceros en el resto de la columna. ECUACIONES LINEALES Y MATRICES La matriz del sistema ampliada es:                 1 1 2 1 0 1 1 −1 −2 1 1 0 −1 0 1 2 1 2 5 3 1 1 2 1 0 1 3 3 1 2 1 4 9 3 −1 Como antes el proceso comienza fijando la primera fila como pivot y utilizando su primera entrada para lograr anular el resto de la primera columna.          1 2 1 0 1 1 1  −1 −2 1 1 0 −1 0   1 ∼ 1 2 1 2 5 3   1 2 1 0 1 3 3  1 2 1 4 9 3 −1   1 1 2 1 0 1 1    0 0 2 1 1 0 1  ←− F2 + F1   ∼  0 0 2 −1 −3 −2 1  ←− F3 + 2F1     0 0 2 1 1 −2 −1  ←− F4 − F1  0 0 0 4 8 2 0 ←− F5 − F1 En los ejemplos anteriores en el segundo paso.32 1. aqu´ esto no es posible pues ı la segunda columna ya tiene todas sus entradas (salvo la primera) nulas en consecuencia el segundo escal´n deber´ estar en la tercera columna. 3 para generar ceros en el resto de o la columna tres. Utilizao a mos entonces la entrada de la posici´n 2.

´ ´ 1. EL METODO DE ESCALERIZACION 33  (1.2)        1 0 0 0 0 2 0 0 0 0 1 0 1 1 2 1 1 0 2 −1 −3 −2 2 1 1 −2 0 4 8 2  1 2   0 0  ∼ 0 0    0 0 0 0 1 1 1 −1 0  1 0 1 1 1 2 1 1 0 1 0 −2 −4 −2 0 0 0 0 −2 −2 0 0 4 8 2    ∼         ←− F3 − F2    ←− F4 − F2 ←− F5 En el tercer paso escalerizaremos la columna siguiente (la cuarta)         1 0 0 0 0 2 0 0 0 0 1 0 1 1 2 1 1 0 0 −2 −4 −2 0 0 0 −2 0 4 8 2  1   0  ∼ 0    0 0 1 1 0 −2 0 2 0 0 0 0  1 0 1 1 1 1 2 1 1 0 0 −2 −4 −2 0 0 0 0 −2 −2 0 0 0 0 0    ∼            ←− F5 + 2F3 .3.

pero como en el ejemplo 1.9 continuemos hasta obtener la forma reducida         1 0 0 0 0 2 0 0 0 0 1 0 2 1 0 −2 0 0 0 0  1   0  ∼ 0    0 0  1 1 1  1  1 0  −4 −2 0 ∼   0 −2 −2  0 0 0 1 0 2 1 0 −2 0 0 0 0  1 2   0 0  ∼ 0 0    0 0 0 0 2 0 0 0 0 0 1 0 1 0 1 2 −4 0 0 −2 −2 0 0 0  1 0 1 0 0 2 0 −1 0 2 2 0 −2 −4 0 0 0 0 −2 −2 0 0 0 0 0     ←− F3 − 2F4 ∼       ←− F2 + 1 F3 2   ∼    ←− F1 − 1 F4 2 (1.34 1. ECUACIONES LINEALES Y MATRICES Ya tenemos la forma escalerizada.3)    ∼     1 0 0 0 0 2 0 0 0 0 3 0 0 0 2 2 0 −1 0 0 −2 −4 0 0 0 0 −2 0 0 0 0  1   0  ∼ 0    0 0 −1 2 2 −2 0 2 0 0 0 0 0 1 0 0 0         ←− F1 − 1 F2 2 ∼  3 0 0 −1 2  0 −1 0 1  ←− 1 F2 2 2  1 2 0 −1  ←− − 1 F3  2  0 0 1 1  ←− − 1 F4 2 0 0 0 0 .

− x5 + 1. El conjunto soluci´n es o 3 1 −2x2 − x5 − 1.9 el n´mero de escau lones de la matriz ampliada y el de la matriz del sistema coinciden. −1. −3. aqu´ la “escalera” preo ı senta “descansos” o escalones largos (el primero y el tercero). EL METODO DE ESCALERIZACION 35 Despejando se tiene El sistema de ecuaciones asociado queda entonces   x1 + 2x2 + 3 x5 = −1 2    x3 − 1 x5 = 1 2 (S ′ )  x4 + 2x5 = −1    x6 = 1   x1    x 3  x4    x6 = −2x2 − 3 x5 − 1 2 = − 1 x5 + 1 2 = −2x5 − 1 =1 Las inc´gnitas x2 y x5 no pueden determinarse. 1. 1 . 2 . Por esta raz´n el sistema resulta compatible. o Los ejemplos anteriores parecen indicar que cualquier matriz y por ende cualquier sistema puede ser escalerizado. x2 . por esto resulta imposible o a o determinar todas las inc´gnitas. −2x5 − 1. Cada valor real elegido libremente de x2 y x5 determina una o soluci´n del sistema (S) Por ejemplo si x2 = 1 y x5 = 0 se obtiene la soluci´n o o 5 1 (−3. Si x2 = 0 y x5 = 1 se tiene la soluci´n − 2 . las otras se obtienen como o funci´n de ellas. Sin embargo. 0. Esto implica que en el sistema escalerizado algunas ecuaciones tienen por lo menos dos inc´gnitas m´s que la ecuaci´n inmediata inferior. x5 ∈ R 2 2 Vale la pena observar que al igual que en el ejemplo 1. 1. x5 . 0. x2 ∈ R. Establezcamos este hecho en el siguiente resultado .3.´ ´ 1. 1. 1 . 1). o El sistema es entonces compatible indeterminado y en virtud de que dos de sus inc´gnitas pueden elegirse libremente diremos que tiene dos grados de o libertad.

ain ) su fila i-esima. . Con la suposici´n indicada comenzamos reo conociendo si a11 = 0.3. Si a11 = 0 cambiamos la primera fila por otra cuya primera entrada sea no nula. e 5 Por razones num´ricas y para evitar errores de redondeo al resolver sistemas con e ayuda de la computadora resulta muchas veces importante. La prueba es algor´ ıtmica4 . a´n cuando a11 = 0 cambiar u la primera fila por la fila que tenga la primera entrada mayor. un conjunto de acciones expresadas en un lenguaje formal y sin ambig¨edades que pueden ser comprendidos y ejecutados por una u persona o una m´quina. 4 . groseramente hablando.36 1. . La idea para anular el resto de las entradas de la columna es ubicar la entrada no nula (a la que llamremos pivot) en la primera fila y utilizar esta para combinar convenientemente con cada fila a los efectos de lograr ceros en todas las posiciones. este procedimiento se conoce como pivoteo. Toda matriz puede ser transformada en una matriz escalerizada (o escalerizada reducida) mediante una cantidad finita de transformaciones elementales ´ Demostracion. ai2 . . Si toda la primera columna es nula se pasa a la segunda y as´ sucesivamente hasta tener una ı primera columna con alguna entrada distinta de cero.5 Una vez que el pivot esta ubicado realizamos Un algoritmo es. Indiquemos por Ai = (ai1 . . ECUACIONES LINEALES Y MATRICES ´ PROPOSICION 1. Para simplificar la notaci´n aqu´ supondremos que ya la primera columna o ı tiene alguna entrada no nula. los detalles quedan a cargo del lector. Sea A = ((aij )) una matriz m×n cualquiera. El objetivo del primer paso es obtener una matriz con una primera columna que tenga nulas todas sus entradas excepto la primera. a Este algoritmo es conocido con el nombre de M´todo de Gauss. Indicaremos esquem´ticamena te el procedimiento.

´ ´ 1.3. EL METODO DE ESCALERIZACION

37

el primer paso de la escalerizaci´n: o

          

A1 A2 . . . Ai . . . Am

. . . . . .

          ∼        

A1 A′ 2 . . . A′ i . . . A′ m

. . . . . .

 ←− A − a21 A 2  a11 1  .  . .   a  ←− Ai − a i1 A1 11  .  .  . ←− Am − am1 A1 a11

La matriz que obtuvimos tiene el siguiente aspecto:

     

a11 0 . . . 0

a12 a′ 22 . . .

... ... .. .

a1n a′ 2n . . .

     

′ a′ m2 . . . amn

En el segundo paso el objetivo es obtener una nueva matriz que tenga las entradas de la segunda columna todas nulas salvo tal vez las dos primeras. Para eso repetimos el procedimiento del paso uno a la sub-matriz que aparece recuadrada. De nuevo el primer paso es determinar el segundo pivot para esto chequeamos que a′ = 0 de lo contrario cambiamos la segunda fila por otra (de 22 abajo) con segunda entrada no nula. Podr´ ocurrir que todas las entradas ıa de la segunda fila fuesen nulas en ese caso la segunda columna ya tiene el aspecto adecuado por lo cual el procedimiento se contin´a ubicando un piu vot en al posici´n 2, 3 (ver (1.2)en el ejemplo 1.11). Supongamos, para fijar o

38

1. ECUACIONES LINEALES Y MATRICES

ideas, que a′ = 0 entonces el segundo paso de la escalerizaci´n es: o 22     A1 A1  ′   ′    A2   A2     ′ ′′  A   A  ←− A′ − a32 A′ 3 a22 2  3   3   .   .  . . . . . .  . ∼ .  . . .   .   .  ′   ′′  ′ − ai2 A′  Ai   Ai  ←− Ai a22 2  .   .  . . .  .   .  . . . . . .  .   .  ′ ′′ ′ − am2 A′ Am Am ←− Am a22 2 La matriz obtenida en el paso dos  a11 a12  0 a′  22   0 0  .  . .  . . . 0 0 tiene entonces el aspecto:  a13 . . . a1n a′ . . . a′  23 2n   a′′ . . . a′′  33 3n  .  .. . . . .  . . ′′ ′′ am3 . . . amn

Repetimos nuevamente los pasos previos aplicados a la sub-matriz del recuadro. El procedimiento culmina cuando se llega a la ultima fila o columna. ´ Para obtener la matriz escalerizada reducida a partir de la escalerizada, basta con repetir el procedimiento pero tomando como pivots la entrada que ocupa el lugar inferior derecho de la matriz y yendo hacia arriba. COROLARIO 1.4. Todo sistema lineal es equivalente a uno escalerizado. 1.4. Teorema de Rouche-Frobenius En las discusiones que realizamos de los ejemplos 1.9, 1.10 y 1.11 se apreciaba cierta relaci´n entre el n´mero de escalones de la forma escalerizada o u y la cantidad de soluciones del sistema, en esta secci´n establecemos con o precisi´n esta relaci´n describiendo completamente el conjunto soluci´n de o o o un sistema lineal de ecuaciones en termino de la cantidad de “escalones” del mismo.

1.4. TEOREMA DE ROUCHE-FROBENIUS

39

´ DEFINICION 1.5. Si E es una matriz escalerizada el n´ mero de escau lones de E es la cantidad de filas no nulas. ´ OBSERVACION 1.5. Si E es una matriz escalerizada y E ′ es una matriz reducida equivalente el n´mero de escalones de ambas es el mismo. u ´ OBSERVACION 1.6. Ya hemos observado que la forma escalonada de una matriz no es unica sin embargo (aunque no lo hemos probado todav´ ´ ıa) la forma reducida si lo es. De este hecho y de la observaci´n precedente se o deduce que la cantidad de escalones de todas las formas escalerizadas de una misma matriz coinciden. TEOREMA 1.7 (Rouche-Frobenius). Sea (S) un sistema lineal de m o u ecuaciones con n inc´gnitas con matriz ampliada A|b. Sea p el n´mero de ′ el n´mero de escalones de A|b entonces escalones de A y p u 1. (S) es compatible si y solo si p = p′ 2. Si (S) es compatible entonces a) (S) es determinado si y solo si p = n. b) (S) es indeterminado si y solo si p < n. ´ Demostracion. Comencemos probando los rec´ ıprocos de las tres afirmaciones. Observemos en primer lugar que como A tiene n columnas y cada escal´n ocupa por lo menos una columna deducimos que para cualquier siso temas se cumple que

(1.4)

p≤n

Supongamos que p = p′ . De (1.4) se deduce que hay dos posibilidades p′ = p = n o p′ = p < n. Analicemos el primer caso. La forma reducida debe

40

1. ECUACIONES LINEALES Y MATRICES

tener tantos escalones como columnas por lo tanto debe ser:

1 0 0  0 1 0    0 0 1   . . .  . . ..  . .  . .  . .  . .   0 0 ... 0 0 ...

... ... ... ... .. . .. .. .

0 0 . . . .. . . . .

. 1 ... 0 ... 0

c1 c2 . . . . . . . 0 . . 1 cn 0 0

             

Donde la columna de entradas ci representa el termino independiente luego de efectuado el proceso de escalerizaci´n. El sistema correspondiente es o

  x1 = c1     x2 = c2 . .  .  . .  .   xn = cn

el cual es compatible determinado. Veamos ahora el segundo caso, p′ = p < n. Como la forma escalerizada tiene m´s columnas que escalones necesariamente alg´n escal´n debe tener a u o “descanso” y por lo tanto la forma reducida debe ser

1.4. TEOREMA DE ROUCHE-FROBENIUS

41

                              

1 0 . . . . . . . . . . . . 0 . . .

0 ⋆ 1 ⋆ 0 . . . . . . . . . ... ... ... ...

... ⋆ 0 ... ⋆ 0

0 ... . . ... .

... 0 ... 0 . ... 0 1 ... . . . .. .. . . . 0 ... . . . . . . . . . . .. 1 . . ... . ... ... 0 . . . ... . ... ... . . . . . ... . ... ... . . .

0 0 ... ... 0 ... 0 . . . 0 . . . ... ... . . . . . . 0 ... . . ... .

0 0 ... ... 0 ...

. . . 0 c1 . . . 0 c2 . . ... . . . . . . ... . . . . . . ... . . . . . 1 ⋆ . . . ⋆ 0 . . . . cs . . 0 0 . . . 0 1 . . . . cs+1 . . . . . .. . . . ... . . . 0 . . . . . . . . . . . . . . 0 . . . 0 0 . . . 1 cp . . ... ... . 0 ... 0 0 ... 0 0 . . . . . . ... . . ... . . . . . . ... . . . . . . . . . ... ... . 0 ... 0 0 ... 0 0 .

0 0 . . . . . .

⋆ ⋆ . . . . . . . 0 . .

... ⋆ 0 ... ⋆ 0 . . ... . . . . . . ... . . . . . . ... . . . .

                              

donde las zonas de estrellas representan submatrices con entradas arbitrarias. Para analizar la soluci´n de este sistema intentemos aplicar el algoritmo de o sustituci´n hacia atr´s. Supongamos que s es la primera fila (comenzando o a desde abajo) con descanso (escal´n de ancho mayor que una columna). Las o ecuaciones s + 1, s + 2, . . . , p son entonces xs+1 = cs+1 xs+2 = cs+2 . . . xp = cp la ecuaci´n s es o xh + as h+1 xh+1 + . . . + ass xs = cs despejando se tiene xh = cs − (as h+1 xh+1 + . . . + ass xs )

 0 0 0 ..   . . 0 0 0 1   0 0 0 . . 0 0 . Para probarlo demostraremos su contra rec´ ıproco6 y para esto basta con ver que p < p′ implica (S) incompatible pues en cualquier sistema A|b tiene una columna m´s que A y por lo tanto se cumple que p ≤ p′ a Si p < p′ . . . 0 0 . ... . xs se pueden elegir arbitrariamente se obtienen infinitas soluciones. 0 ⋆ ⋆ 0     .. . . . ECUACIONES LINEALES Y MATRICES La inc´gnita xh no puede entonces determinarse sino en funci´n de los vao o lores de xh+1 . ... De hecho como las variables xh+1 . . .   . .... 0 0 . xs se obtiene o otro valor para xh y consecuentemente otra soluci´n con lo cual el sistema o resulta compatible indeterminado. . ... . ..42 1. . . 1 y continuar el proceso de sustituci´n hacia o o atr´s. Obs´rvese e que estas elecciones arbitrarias se pueden hacer s´lo en los descansos y que o el n´mero de variables que pueden elegirse libremente es n − p (la suma u de los anchos de los descansos es igual al n´mero de columnas menos el de u escalones). Fijemos valores arbitrarios para estas ultimas s − h ´ inc´gnitas.. . . la ultima columna de la forma reducida de la matriz ampliada ´ debe tener un escal´n por lo tanto la forma es: o   1 0 ⋆ . .. . .. . .. Esto demuestra que el sistema es compatible. . . .... pues hay soluciones pero a si cambiamos la elecci´n hecha para los valores de xh+1 . .  . . 0 0 0 0 En consecuencia la ultima ecuaci´n del sistema es o 0=1 Recordemos que un resultado de l´gica elemental establece que A ⇒ B si y solo si o negaci´n de B ⇒ negaci´n de A o o 6 .... . .. . . . 0 ⋆ ⋆ 0     0 0 0 . 0 1 . ⋆ 0 . . ⋆ 0 . .. xh quedar´ determinado y con estos valores podemos ahora suso a tituir en las ecuaci´n s − 1... xs . Demostremos ahora que si (S) compatible entonces p′ = p. 0 ⋆ ⋆ 0    0 1 ⋆ . . 1 ⋆ ⋆ 0      0 0 0 ..

. Veamos con un ejemplo que ´ o ocurre en el caso de un sistema homog´neo indeterminado e EJEMPLO 1. Otra manera m´s directa de probar la afirmaci´n anterior es observar que a o la soluci´n x1 = 0. ıa De manera an´loga se razona para probar que S compatible indeterminado a implica p < n En el transcurso de la demostraci´n se observo que si p = p′ < n el sistema o es indeterminado y se pueden elegir n − p variables libremente quedando las otras determinadas por estas. .12. . Si S es compatible determinado debe ser p = n pues si p < n ya hemos visto que (S) resultar´ indeterminado. e ´ Demostracion. Sistemas homog´neos e Un sistema con todas las entradas del t´rmino independiente nulas se e denomina sistema homog´neo. En efecto como el t´rmino independiente de un sistema e homog´neo tiene todas sus entradas nulas debe ser p = p′ y por lo tanto el e teorema de Rouche-Frobenius asegura la compatibilidad. Por este motivo diremos que el sistema es indeterminado con n − p grados de libertad. Resolver el sistema   x+y−z =0  x + y − 2z = 0   2x + 2y − 3z = 0 . xn = 0 a la que llamaremos soluci´n trivial verifica o o cualquier sistema homog´neo. 1.8. SISTEMAS HOMOGENEOS 43 de donde resulta que (S) debe ser incompatible. En virtud del importante rol que estos e sistemas desempe˜an vale la pena discutir alguna de sus propiedades.5. Un sistema lineal homog´neo es siempre compatible.5. Naturalmente los sistemas homog´neos detere e minados unicamente admiten soluci´n trivial. .´ 1. n ´ PROPOSICION 1.

o ´ OBSERVACION 1.44 1. Una interpretaci´n geom´trica o e El lector ha estudiado en el curso de Geometr´ Anal´ ıa ıtica la ecuaci´n o ax + by = c. Si a y b no se anulan simult´neamente los puntos del plano de coordenadas a x. y que la verifican pertenecen a una recta. ECUACIONES LINEALES Y MATRICES La matriz ampliada es:  en consecuencia el sistema asociado es Al escalerizarla se obtiene la matriz   1 1 −1 0   (S)  0 1 −1 0  .6. 1. es evidente que a lo sumo puede tener m escalones y por lo tanto el teorema de RoucheFrobenius implica la afirmaci´n. Por lo tanto en el sistema (S) ax + by = c a′ x + b′ y = c . Sea A una matriz m × n con n > m. En efecto. 0 0 0 0 x+y−z =0 y−z =0  1 1 −1 0    1 1 −2 0  2 2 −3 0 La soluci´n es entonces o Sol(S) = {(0. 1) con z ∈ R}. z) con z ∈ R} = {z(0. el sistema homog´neo asociado tiene m´s inc´gnitas que ecuaciones y resulta indetere a o minado. si E es una forma escalerizada asociada a A. o 1. z.9. Se puede observar que todas las soluciones se pueden obtener como combinaci´n lineal de ciertas soluciones fijas.

El sistema 2x + 2y = 4 x+y = 2 es compatible indeterminado con soluci´n {(x. El sistema 2x + y = 2 x+y =2 es compatible determinado con unica soluci´n (0. 2 − x) x ∈ R} o .13. De o ese modo un sistema 2 × 2 compatible determinado (una unica soluci´n) ´ o se corresponde con dos rectas que se cortan en un unico punto (ver figura ´ 1.15 respectivamente).13).´ ´ 1. 2) ´ o 2 x+y =2 1 2x + y = 2 1 2 Figura 1 EJEMPLO 1. UNA INTERPRETACION GEOMETRICA 45 cada ecuaci´n representa una recta y su soluci´n no es otra cosa que las o o coordenadas de los puntos que pertenecen a la intersecci´n de ambas. un sistema indeterminado (infinitas soluciones) se corresponde con dos rectas coincidentes y un sistema incompatible con dos rectas paralelas distintas (ver figuras 1. EJEMPLO 1.14.14 y 1.6.

ECUACIONES LINEALES Y MATRICES 2 x+y =2 1 1 2x + 2y = 4 2 Figura 2 EJEMPLO 1.46 1. El sistema x+y =1 x+y =2 es incompatible x+y =1 2 x+y =2 1 1 2 Figura 3 Esta interpretaci´n geom´trica de los sistemas 2 × 2 puede tambi´n exo e e tenderse a los sistemas de tres inc´gnitas salvo que. como veremos en el o pr´ximo cap´ o ıtulo.15. las ecuaciones representan planos en el espacio y la soluci´n sus intersecciones. o .

´ ´ 1.6. n . UNA INTERPRETACION GEOMETRICA 47 En cierta medida la teor´ que desarrollaremos en cap´ ıa ıtulos posteriores nos permitir´ extender tambi´n la interpretaci´n geom´trica para sistemas a e o e de mayor tama˜o.

48 1. ECUACIONES LINEALES Y MATRICES .

son m´s “complicados” que estos. Como veremos m´s a a adelante. Sea A = ((aij )) y B = ((bij )) dos matrices m × n. Operaciones con matrices Ya hemos visto que en un sistema lineal de ecuaciones los coeficientes del mismo forman un “ordenamiento rectangular de n´meros” al que denou minamos matriz. 49 . Comencemos definiendo algunas operaciones con matrices. No olvidemos que a guardan m´s informaci´n que una simple lista de n´meros: son n´meros a o u u ordenados en un damero. definimos la suma + : Mm×n × Mm×n → Mm×n de modo que A + B = C siendo C = ((cij )). donde cij = aij + bij . las matrices comparten con los n´meros muchas de sus propiedau des aunque claro esta. lo cual resulta m´s c´modo y compacto.1. Sin embargo o a o las matrices son objetos matem´ticos con “vida propia”.1 (Suma de matrices). Hasta el momento las matrices no son otra cosa que una nueva manera de representar al sistema de ecuaciones. simplemente se omite escribir las inc´gnitas.CAP´ ıTULO 2 ´ ALGEBRA DE MATRICES 2. ´ DEFINICION 2.

2. Sea λ = 2 y A = 0 − 2 √ √ √ √ √ √ 2 1 2( 2) 2(1) 2 2 √ √ √ √ 2· = = 0 − 2 2(0) 2(− 2) 0 −2 Resulta util destacar alguna de las propiedades que tienen estas opera´ ciones.50 ´ 2.  . β ∈ R y A ∈ Mm×n . [S2] [Asociativa] A + B + Z = A + B + Z . Propiedades: [S1] [Conmutativa] A + B = B + A.2 (Producto de n´meros por matrices). ALGEBRA DE MATRICES    1 1 1 0 0 2 2 −1     EJEMPLO 2. ∀ A. Z ∈ Mm×n . o [P1] [Asociativa del producto] αβ A = α(βA). ∀ α.1. ∀ A ∈ Mm×n . [S4] [Existencia de opuesto] Para cada A ∈ Mm×n existe B ∈ Mm×n tal que A + B = O (Notaci´n: B = −A). Sean A =  1 2 −1  y B =  2 2 0 . [S3] [Neutro de la suma] Existe O ∈ Mm×n tal que A + O = O + A = A. ∀ A. √ 0 −1 2 1 −2 2 entonces       1 1 1 0 1 0 −1 1+0 +1 0−1 2 2 2 2       2 −1  +  2 2 0  =  1+2 2 + 2 −1 + 0   1 √ √ 2 2+2 0 −1 1 −2 2 0 + 1 −1 − 2   1 1 −1   =  3 4 −1  √ 1 −3 2+2 ´ DEFINICION 2. Sea λ ∈ R un u n´mero y A ∈ Mm×n una matriz definimos el producto de λ por A como u λ·A = B donde B = ((bij )) con bij = λaij √ √ 2 1 √ entonces EJEMPLO 2. B ∈ Mm×n . B.

Nuestro producto es algo m´s complicado pero a como veremos m´s adelante extremadamente util. B ∈ Mm×n .3. En una primera mirada y por analog´ con las operaciones ya definidas parece razonable definir el ıa producto de matrices como producto entrada a entrada. [P4] [Distributiva] α(A + B) = αA + αB. a ´ ´ DEFINICION 2. con p cij = h=1 aih bhj .2.A = A ∀ A ∈ Mm×n [P3] [Distributiva] (α + β)A = αA + βA y ∀ α. · : Mm×p × Mp×n → Mm×n de modo que A·B = C donde C = ((cij )). a ese el camino que seguiremos. Observemos no obstante que la a matriz O de la propiedad [S3] se denomina matriz nula y tiene todas sus entradas cero.2. 2. en el caso de las o matrices. Sea A ∈ Mm×p y B ∈ Mp×n definimos el producto entre matrices como. Producto de matrices A las operaciones de suma y multiplicaci´n por escalares. β ∈ R y A. Las pruebas quedar´n a cargo del lector. No ser´ sin embargo. ∀ α ∈ R y A. B ∈ Mm×n . PRODUCTO DE MATRICES 51 [P2] [Neutro del producto] 1. vamos a agregar un producto entre ellas.2.

  . ↓ . . Sea A = producto 2 −1 0 2 1 2 −1 3 = = 2 −1 0 2 y B = 1 2 −1 3 calculemos su 2·1 + (−1)(−1) 2(2) + (−1)3 0·1 + 2(−1) 0·2 + 2·3 3 1 −2 6  1 2 1 1 2 1 1 0  = EJEMPLO 2. .   . .  . Sean A = ducto de A por B es: 2 1 −1 0 2 1 2 −1 2 1 −1 0 2 1 2 −1         yB=  3 4 5 7   . .  . . ALGEBRA DE MATRICES El siguiente esquema ayuda a recordar la forma de realizar la operaci´n: o   b11 . .52 ´ 2. ..   .  −→ cij . . b2j . . .. . a a . . .. . . . . .. . .  . b1n    b21 . . bpn     a11 a12 .. . . a m1 m2 mp EJEMPLO 2..   . .. .  . . .   . .  ..  bp1 . . . ... . . aip      . .  ... . El pro 1 2 1 1 2 1 1 0   =  .4. a1p   . .  . . . b2n   . b1j . .  .   . .  . . . bpj . .  .  .  .     . . .   . . .  .  . . . . . ..  .  . . . . . . .3. . .  . . . . .   ai1 ai2 . . . .. .  .   . . . .

2. . .X =  2 1 1  y  =  2x + y + z  1 1 2 z x + y + 2z    1 2 1   EJEMPLO 2. ain ) a la fila i-esima de A y .     1 2 1 x     EJEMPLO 2. Cuando esto ocurra se dice que las matrices son conformables.1.5. PRODUCTO DE MATRICES 53 pues 3 = 2·1 + 1·2 + (−1)1 + 0·1 4 = 2·2 + 1·1 + (−1)1 + 0·0 5 = 2·1 + 1·2 + 2·1 + (−1)1 7 = 2·2 + 1·1 + 2·1 + (−1)0 Vale la pena observar que las matrices no deben ser necesariamente del mismo tama˜o para poder multiplicarlas. . Sean A = ((aij )) una matriz m × n y B = ((bjk )) una matriz n × p notaremos por Ai = (ai1 . Sea A =  2 1 1  y X ′ = 1 1 2 X ′A = x y z   1 2 1    2 1 1 = 1 1 2 x y z entonces x + 2y + z 2x + y + z x + y + 2z ´ OBSERVACION 2. De hecho si se mira con cuidado n la definici´n se observa que para poder hacerlo la cantidad de filas de la o primera debe coincidir con la cantidad de columnas de la segunda. Sea A =  2 1 1  y X =  y  entonces 1 1 2 z     1 2 1 x x + 2y + z      A. .2.6.

  .  Las columnas de la matriz producto son 2 1 0 1 2 1   1    2 = 1 4 6 2 1 0 1 2 1   1    1 = 1 3 4 y . Si A·B = C designemos como . . es decir que  A·B 1 A·B 2 . ALGEBRA DE MATRICES  b1k    la columna k-esima de B.7. .   1 1 2 1 0   EJEMPLO 2. ank Ci la fila i-esima y por C k la columna k.. Sea A = y B =  2 1  entonces 1 2 1 1 1 A·B = 2 1 0 1 2 1   1 1    2 1 = 1 1 4 3 6 4   . con B j =  . .esima de C.. . .  . Am ·B . Entonces C k = A·B k y Ci = Ai B. La prueba queda como ejercicio a cargo del lector pero el ejemplo siguiente ilustra las afirmaciones. A·B n          A·B =   y   A·B =     A1 ·B A2 ·B . . .  .54 ´ 2.

ij dij = h aih s bhs csj = s h aih bhs csj = d′ ij . j. pero B.2.A = 2 1 0 0 Naturalmente el contraejemplo solo indica que en general A·B = B·A lo cual no significa que no existan matrices que conmuten.5 se observa que dos matrices pueden ser conformables en un orden y no en otro. [Asociativa] Si A = ((aij )). B = ((bij )) y C = ((cij )) son tres matrices conformables entonces A·B C = A B·C .2. PRODUCTO DE MATRICES 55 y las filas son  2 1 0  1 1    2 1 = 1 1 4 3 y 1 2 1   1 1    2 1 = 1 1 6 4 Propiedades del producto de matrices Analicemos ahora las propiedades del producto de matrices. En efecto pongamos A·B C = D = ((dij )) y A B·C = D′ = ((d′ )) ij debemos probar que dij = d′ ∀ i.B = 2 1 1 1 1 0 0 0 1 0 0 0 2 1 1 1 = 2 0 1 0 = . 2 1 1 0 En efecto sea A = yB= entonces 1 1 0 0 A. Pero el producto de matrices no es conmutativo ni siquiera cuando las matrices a multiplicar son cuadradas. En el ejemplo 2. Comencemos observando que no es conmutativo. De hecho en ese ejemplo AX tiene sentido pero XA no.

j dij = h cih ahj + bhj = h cih ahj + cih bhj = cih bhj = eij + fij h = h cih ahj + ´ DEFINICION 2. B = ((bij )) son matrices de igual dimensi´n y C = ((cij )) es una matriz conformable con A y B entonces o C(A + B) = C·A + C·B y (A + B)C = A·C + B·C 1 Probemos s´lo la primera. Pongamos o C(A + B) = D = ((dij )). C·A = E = ((eij )) y C·B = F = ((fij )). definimos la matriz traspuesta de A como la matriz m × n At = ((at )). e Sea B = Observe el lector que la no conmutatividad del producto de matrices obliga a probar ambas identidades independientemente.8. donde at = aji . la otra queda como ejercicio. pues en general C(A + B) = (A + B)C. ALGEBRA DE MATRICES [Distributiva] Si A = ((aij )). entonces B = B t .56 ´ 2. Debemos probar entonces que dij = eij + fij ∀ i. Sea A = 1 2 3 2 1 1  1 2   entonces At =  2 1  3 1  1 2 1 2 entonces B t = . ij ij EJEMPLO 2. 1 . Sea A = ((aij )) una matriz n×m.4. cuando esto 2 3 2 3 ocurra diremos que la matriz es sim´trica  e    0 2 −1 0 −2 1     Sea C =  −2 0 1  entonces C t =  2 0 −1  por lo tanto 1 −1 0 −1 1 0 C t = −C. cuando esto ocurra diremos que la matriz es antisim´trica.

2. 57  1  −2    Sea D =  e  entonces Dt = 1 −2 2 0 . . Si A es una matriz m × n y b es una matriz m × 1 entonces AX = b es una ecuaci´n matricial.3. 2. Ecuaciones matriciales. + amn xn = bm . resolver la ecuaci´n u o matricial AX = b es equivalente a resolver el sistema A|b. Matriz inversa.3. .5 nos motiva a pensar que.2 (Propiedades de la matriz traspuesta). A + B = At + B t . Resolverla es encontrar todas las matrices X n × 1 o que la verifiquen. 2. Sea   a11 x1 + a12 x2 + .  . . Obs´rvese que la tras 2  0 puesta de una matriz columna resulta ser un matriz fila. MATRIZ INVERSA. 3. (λA)t = λAt . ´ PROPOSICION 2. . 4. El ejemplo 2. (At )t = A t  ´ Demostracion.    am1 x1 + am2 x2 + .  . . . Ejercicio.3. ´ PROPOSICION 2. Sean A y B dos matrices y λ un n´mero se cumplen las siguientes propiedades u 1. . + a1n xn = b1     a21 x1 + a22 x2 + . + a2n xn = b2 (S) = . (A·B)t = B t ·At . identificando de manera natural matrices columna con sucesiones finitas de n´meros. . ECUACIONES MATRICIALES. .

. . ∀ i = 1.  . . .   . . .58 ´ 2. . . . bm     cumple que A·X = b   xn Entonces ´ Demostracion.  . . m ⇐⇒       a11 x1 + a12 x2 + · · · + a1n xn a21 x1 + a22 x2 + · · · + a2n xn . . . . ALGEBRA DE MATRICES un sistema lineal de m ecuaciones con n inc´gnitas. .   . xn ) ∈ Sol(S) ⇐⇒ ai1 x1 + ai2 x2 + · · · + ain xn = bi .  entonces (x1 . . . am1 x1 + am2 x2 + · · · + amn xn   b1 b2 . . Observemos en primer lugar que     a11 a12 . . A la matriz del sistema o   b1    b2   . . Este hecho. a1n x1 a11 x1 + a12 x2 + · · · + a1n xn      a21 a22 . en primer lugar. . amn xn am1 x1 + am2 x2 + · · · + amn xn (x1 . .  . . puede considerarse como la primera aplicaci´n o importante del producto de matrices y en cierta forma justifica su definici´n. . a2n  x2   a21 x1 + a22 x2 + · · · + a2n xn  . . . . x2 . .    X=    x1 x2 . . . . x2 . . . . . o . . . bm            =        ⇐⇒ AX = b   El resultado anterior permite pensar el sistema de ecuaciones lineal con matriz ampliada A|b como la ecuaci´n matricial o (2. . . .  am1 am2 . .5) AX = b. xn ) es soluci´n de (S) si y solo si y b =  o  .  . .  . 2.. . . . .  =  .

0    0 1 .1 = a ´ u ∀a ∈ R... por el momento. Veamos que el producto de matrices tiene tambi´n un neutro mule tiplicativo. M´s adelante veremos otras aplicaciones que pera mitir´n comprender m´s profundamente las motivaciones de la definici´n. a a o Por otra parte la ecuaci´n 2.  .1. ´ Demostracion.5 recuerda fuertemente la situaci´n que anao o lizamos en nuestro primer ejemplo 1. 0 0 . . 0   . La prueba es una verificaci´n inmediata y queda a cargo o del lector. . Llamaremos matriz identidad de tama˜o n a la man triz n × n   1 0 .. esto carece de sentido pero. . MATRIZ INVERSA. 1 Esto es In = ((eij )) con eij = 0 si i = j . .. 59 a priori no muy natural. ∀ A ∈ Mn×n . 1 si i = j ´ PROPOSICION 2. . Al ver el sistema escrito en forma matricial nos vemos tentados a “pasar dividiendo” A para “despejar” X... . si analizamos con m´s cuidado el procedimiento utilizado para resolver la ecuaci´n ax = b a o observamos que la clave reside en que todo n´mero no nulo tiene inverso.. Naturalmente. In ·A = A·In = A. ´ DEFINICION 2.a−1 = 1.3. Podr´ ıamos analizar la posibilidad de que una matriz tuviese una propiedad an´loga pero para a esto necesitar´ ıamos saber qu´ puede representar el “1” en nuestro contexto.2.  . u esto es dado a ∈ R existe a−1 ∈ R tal que a.  In =  .5. ECUACIONES MATRICIALES. e De nuevo la clave est´ en analizar que propiedad abstracta caracteriza a la a unidad real.4.  . R´pidamente se observa que el 1 no es otra cosa que el neutro a multiplicativo de R es decir 1 es el unico n´mero real que verifica a. .

6).B = In y B. El lector puede verificar directamente que si X =   x1    x2   .B2 = (B1 A) . exigir o que A.5.  xn Ahora que tenemos nuestro neutro podemos dar la siguiente ´ DEFINICION 2.7. ALGEBRA DE MATRICES ´ OBSERVACION 2. Sean B1 y B2 matrices n × n que cumplen (2. en la definici´n anterior. o o es unica. de hecho si existe B tal que AB = In entonces BA = In (ver lema 2.A = In donde In es la matriz identidad n × n ´ OBSERVACION 2.6) entonces B1 = B2 ´ Demostracion.60 ´ 2.6. cuando existe.   . Veremos m´s adelante que esto realmente no es posible. Por tal motivo se le llama la inversa de A y se utiliza la notaci´n ´ −1 B=A ´ PROPOSICION 2. Observemos adem´s.B2 ) = B1 A.6 (Matriz invertible).A sean ambos iguales a la identidad.A. En efecto B1 = B1 I = B1 (A.B = In = B.  . Diremos que la matriz A es invertible si y solo si existe B matriz n × n tal que (2. A priori podr´ ocurrir ıa a que A. A continuaci´n veremos que la matriz B que cumple (2.6) A. .B2 = IB2 = B2 .9). que las matrices invertibles son por definici´n matrices a o cuadradas. Sea A una matriz n × n.B y B.  es una matriz columna cualquiera entonces In ·X = X. Nuevamente como consecuencia de la no conmutatividad del producto de matrices debemos.

La matriz A = a b  para cualquier matriz B =  d e g h      1 1 2 a b c a+d     A.3.A = I (verificarlo)  1   1 0  c  f  i  1 0  0 −1  no es invertible. pues existe B = B.9. ECUACIONES MATRICIALES. pues 0 0 se cumple que  b+e c+f  b−h c−i = 0 0  0  0 =I 1 EJEMPLO 2. MATRIZ INVERSA.2.10. La matriz A = 1 −1 −1 2 tal que A.8. Basta verificar directamente que = In −1 −1 (A·B)(B y que ·A ) = A (B·B −1 ) A−1 = A·A−1 = In = In (B −1 ·A−1 )(A·B) = B −1 (A−1 ·A) B = B −1 ·B = In .B = I y 2 1 1 1 es invertible. Sean A y B dos matrices n × n invertibles entonces A·B es invertible y (A·B)−1 = B −1 ·A−1 ´ Demostracion. 61 EJEMPLO 2.B =  1 −1 −1   d e f  =  a − g 0 0 0 g h i 0  1 0  =  0 1 0 0 ´ PROPOSICION 2.

11. Resolvamos el sistema (S) la matriz del sistema es A= 2 1 1 1 . . . y b= 3 −1 . .7)  . . xn ) es soluci´n del sistema con o matriz ampliada A|b si y solo si   x1    x2   .  xn EJEMPLO 2.9) y que a A−1 = 1 −1 −1 2 1 −1 −1 2 .62 ´ 2. pues el proe ducto no es conmutativo 2 .  = A−1 b (2. El lector como ejercicio verificar´ que efectivamente (4. ALGEBRA DE MATRICES Sea A ∈ Mn×n una matriz invertible y b ∈ Mn×1 una matriz columna consideremos el sistema A·X = b . −5) satisface (S) a Obs´rvese que se debe multiplicar en ambos miembros del mismo lado. entonces la soluci´n es o 3 −1 4 −5 A−1 b = = . como A es invertible podemos multiplicar en la ecuaci´n anterior a ambos miembros por A−1 se tiene entonces o 2 A−1 A·X = A−1 ·b ⇐⇒ ⇐⇒ X = A−1 ·b A−1 ·A X = A−1 ·b ⇐⇒ In ·X = A−1 ·b Por lo tanto si A es invertible (x1 . x2 . 2x + y = 3 x + y = −1 Es f´cil ver que A es invertible (ejemplo 2.   .

7) es v´lida o a s´lo bajo la hip´tesis de que A sea invertible y no tenemos por el momento o o ning´n criterio para decidir si una matriz lo es o no (trataremos esto en la u secci´n 2. MATRIZ INVERSA. ECUACIONES MATRICIALES. 63 La sencilla idea. inversa de A.1 sino que o o a parece indicar un nuevo procedimiento para resolver sistemas lineales. Para ello. Lo cual es equivalente a resolver n sistemas de ecuaciones con igual matriz asociada y diferente termino independiente. Finalmente cuando A es invertible para poder aplicar la f´rmula necesitamos saber c´mo o o −1 .2. cuya prueba a realizaremos en la secci´n 2. utilizada al principio del curso. hallar X tal que AX = In . o LEMA 2.7) no s´lo es an´loga a la obtenida en el ejemplo 1. A continuaci´n veremos un algoritmo obtener la matriz A o para calcular la matriz inversa. Sea A una matriz n × n entonces A es invertible si y solo si existe X ∈ Mn×n tal que A·X = In Nos bastara entonces. funcion´ tambi´n para resolver un sistema lineal n × n con n > 1 o e La f´rmula (2. pues si indicamos por X j la columna j-esima de X .7.9. en primer lugar todo lo hecho s´lo o se aplica a sistemas cuadrados. Sin embargo hay varios asuntos a aclarar. para resolver un sistema lineal 1× 1. en segundo lugar la f´rmula (2. admitamos moment´neamente el siguiente Lema.3.7 y de tambi´n en el Cap´ o e ıtulo sobre Determinantes).

podr´ ocurrir que alguno no lo fuera y en ıa ese caso no se puede determinar la matriz X y consecuentemente A no resulta invertible.  .. . . . .   . .  . A·X n      =         e1 e2 .  .. ALGEBRA DE MATRICES y por ej la columna j-esima de In tenemos que  X1 X2 Xn AX = I ⇐⇒   A·X 1 A·X 2 .  . EJEMPLO 2.. S2 . Consideremos la matriz A = llar (si existe) la matriz X = 2 1 4 3 x11 x12 x21 x22 x11 x12 x21 x22 2 1 4 3 . 0 . . . .. i = 1. . .  . ..... 2. se pueden resolver simult´neamene a te escalerizando la matriz ( A| I ) . n son compatibles.64 ´ 2.      A  xjj  =  1  ←− lugar j  .  .. 0 xjn . Sn tienen la misma matriz A de coeficientes (con diferentes t´rminos independientes).   . . Naturalmente a priori nada asegura que estos sistemas sean compatibles.   A  .  .  .  .   . Queremos ha- tal que AX = I : AX = 1 0 0 1 = = 2x11 + x21 2x12 + x22 4x11 + 3x21 4x12 + 3x22 = .12.. De hecho A es invertible si y solo si los n sistemas Si .  . xj1  . . .   =  ⇐⇒ (Sj )    . en    ⇐⇒  . n) Como los n sistemas S1 . . .   ..  (j = 1.  .   .  .  ..

65 Igualando (por columna) se tienen los siguientes sistemas de ecuaciones : (S1 ) 2x11 + x21 = 1 4x11 + 3x21 = 0 ⇐⇒ ⇐⇒ A 2 1 4 3 x11 x21 2 1 4 3 A x12 x22 x11 x21 = 1 0 = 1 0 (S2 ) 2x12 + x22 = 0 4x12 + 3x22 = 1 ⇐⇒ ⇐⇒ x12 x22 = 0 1 = 0 1 Resolvemos el sistema (S1 ) por escalerizaci´n o 2 1 4 3 1 0 ∼ ∼ ∼ Por lo tanto rizaci´n o 2 1 4 3 0 1 ∼ ∼ ∼ x11 x21 = 3 2 2 1 0 1 2 0 0 1 1 0 0 1 1 −2 3 −2 3 2 ←− F2 + (−2)F1 ←− F1 − F2 ←− 1 F1 2 ∼ ∼ −2 −2 .3.2. MATRIZ INVERSA. ECUACIONES MATRICIALES. Resolvemos el sistema (S2 ) por escale- 2 1 0 1 2 0 0 1 1 0 0 1 0 1 −1 1 −1 2 −2 ←− F2 + (−2)F1 ←− F1 − F2 ←− 1 F1 2 ∼ ∼ .

Dos elementos (a. Estas ideas resultar´n de gran importancia en este cap´ a ıtulo y en el resto del curso. Si A = B = R entonces a R2 = R × R = {(x. los podemos resolver simult´neamente a 2 1 4 3 1 0 0 1 ∼ ∼ ∼ 2 1 0 1 2 0 0 1 1 0 0 1 1 0 −2 1 3 −1 −2 1 −1 2 −2 −2 3 2 −1 2 −2 . Recordamos que si A y B son dos conjuntos el producto cartesiano de ambos se define como el conjunto de pares ordenados de elementos de A yB A × B = {(a.4. Es decir que la inversa de A es ←− F2 + (−2)F1 ←− F1 − F2 ←− 1 F1 2 ∼ ∼ En general. y) : x ∈ R y y ∈ R} . Como para ambos sistemas la matriz A es la matriz de −2 −2 coeficientes.66 ´ 2. ALGEBRA DE MATRICES Por lo tanto X= 3 2 x12 x22 = −1 2 . El espacio de n-uplas Las filas de una matriz (al igual que las columnas y las soluciones del sistema) son “colecciones ordenadas de n´meros”. un peu que˜o par´ntesis para introducir la noci´n de “colecci´n ordenada” o n-upla n e o o y ciertas operaciones naturales que se corresponden con las transformaciones elementales. para calcular la inversa de la matriz A de tama˜o n × n. b) : a ∈ A y b ∈ B}. d) son iguales si a = c y b = d. b) y (c. Hagamos entonces. se n reduce la matriz ( A| I ) por escalerizaci´n a la matriz ( I| B ) y se tiene que o −1 = B A 2.

2) Las operaciones tienen una lista de propiedades que nuevamente. [S1] [Conmutativa] X + Y = Y + X. al igual que en el caso de las operaciones con matrices. En general n veces R =R n n−1 × R =R × · · · × R= {(x1 . . . . . [S4] [Existencia de opuesto] Para cada X ∈ Rn existe Y ∈ Rn tal que X + Y = O (Notaci´n: Y = −X). .0. xn ) y (y1 . ∀i = 1. . Para compactar la notaci´n designemos cada n-upla con una letra may´scuo u la. Y. Si (x1 . z) : x ∈ R. . xn ) : xi ∈ R. . 2) = ( 2. 2.4. . . . N´tese ´ o que en ambos casos las propiedades coinciden. xn ) + (y1 . De manera an´loga definimos a R3 = R2 × R = R × R × R = {(x. . . . o . Z ∈ Rn . . . [S2] [Asociativa] X + Y + Z = X + Y + Z . . xn ) = (αx1 . EL ESPACIO DE n-UPLAS 67 lo llamaremos espacio de 2-uplas. . . X = (x1 . ∀ X. n} es el espacio de n-uplas. 1. . √ √ √ √ √ √ 2) = ( 2. yn ) son dos n-uplas y α un n´mero definimos la u suma entre n-uplas como (x1 . Supongamos n = 3 entonces (1. −1) + (0. 0. . ∀ X ∈ Rn . y ∈ R y z ∈ R} el espacio de las 3-uplas. ∀ X. Y ∈ Rn . 0. xn + yn ) y el producto de n´meros por n-uplas como u α(x1 .13. . 2 + 1. 2. . −1 + 2) = (1. resulta util destacar.1. . . [S3] [Neutro de la suma] Existe O ∈ R tal que X + O = O + X = X. xn ). . 3. . . y. 1) y √ 2(1. . 2) = (1 + 0. . . 2. . . . . αxn ) EJEMPLO 2. . .2. . yn ) = (x1 + y1 . . .

.7. . . . . . X2 . 2. 0) act´a como neutro. Decimos que X ∈ Rn es una combinaci´n lineal de o u las n-uplas X1 . .X = −X e ´ DEFINICION 2. . . . La n-upla nula O = (0. . . λ2 . n se denominan coeficientes de la combinaci´n u o lineal. 0) = O Obs´rvese que −1. . . . . yn ) entonces X +Y = (x1 . . . . . . . . . 0) es combinaci´n lio neal de cualquier colecci´n de n-uplas. yn ) = (x1 + y1 . ∀ α. . . . . De hecho es u unico (verificarlo). . ´ [S4] Si X = (x1 . .68 ´ 2. .X = X. . . 2. . . las restantes quedan a cargo del lector o [S1] Si X = (x1 . . xn ) basta elegir Y = (−x1 . basta tomar todos los coeficientes o nulos. . . . . xn ) y Y = (y1 . xn + yn ) = = (y1 + x1 . . . . [Neutro del producto] 1. . . . Probemos s´lo algunas. . . . λn tales que n X = λ1 X1 + λ2 X2 + · · · + λn Xn = λi Xi i=1 Los n´meros λi . . . β ∈ R y X. . ALGEBRA DE MATRICES [P1] [P2] [P3] [P4] [Asociativa del producto] αβ X = α(βX) ∀ α. . β ∈ R y X ∈ Rn . . . . xn ) + (y1 . . . La n-upla O se denomina n-upla nula. . . . i = 1. . . X2 . . . Si A = {X1 . . Xn si existen n´meros reales λ1 . Xn } ⊂ Rn combinar linealmente los vectores de A con coeficientes λi . ∀ X ∈ Rn [Distributiva] (α + β)X = αX + βX. Y ∈ Rn . [Distributiva] α(X + Y ) = αX + αY . . . . Y ∈ Rn .10. ∀ α ∈ R y X. . −xn ) = = (x1 − x1 . xn ) + (−x1 . i = 1. . −xn ) entonces X + Y = (x1 . . . xn ) = Y + X [S3] Basta observar que O = (0. yn + xn ) = (y1 . . . . . . yn ) + (x1 . . . . xn − xn ) = (0. . . n es calcular n X= i=1 λi Xi ´ OBSERVACION 2. . .

1). 2. . (−1. 1)} pues (2.14. 2. . Xp } entonces es combinaci´n lio o neal de B para cualquier conjunto B finito que contenga a A. −2. (2. 1) pero tambi´n e (2. 6.11. 1) ´ OBSERVACION 2. (1. 0) + (−1)(−1. 1. 1) + (−1)(2. 2). −2. (2. . 1. 1) + (1. 2. 1) = (1.15. 1) + (−1)(2. 0 3(1. La 2-upla (2.2. 6. (1. 1) = 2(1. . 2). . . . 2)} ⊂ R3 entonces (0. 1). 1)} combinemos linealmente los vectores de A con coeficientes 3. . 1). Sea A = {(1. Sea A = {(1. EL ESPACIO DE n-UPLAS 69 Si X es combinaci´n lineal A = {X1 . Yh } entonces X = λ1 X1 + · · · + λp Xp + 0Y1 + · · · + 0Yh EJEMPLO 2. . 1) EJEMPLO 2. 0) + 0(−1. 2) + 0(1.16. EJEMPLO 2. 0) es combinaci´n lineal de A con coeficientes 2 y -1 pues o (0. En general si X es combinaci´n lineal de A los o coeficientes no tienen por que ser unicos. −2. . En efecto supongamos que X = λ1 X1 + · · · + λp Xp y que B = {X1 . 1) es combinaci´n lineal de o A = {(1.-1. Y1 . −2. . tal como muestra el ejemplo ante´ rior. 0). 1) + (−1)(1. 0) = 2(1. Xp . 2. 8. . .4. 1) = (1.

. . . . 1)?. . Y2 .   . . . . 0) = (1. 2. El razonamiento realizado en el ultimo ejemplo ´ puede aplicarse en general (el lector deber´ verificar esto) y muestra que el a problema de determinar si una n-upla X = (x1 . .13. 1). Ahora bien.  xn Culminemos esta secci´n probando un resultado que ser´ de utilidad en o a futuro que b´sicamente establece la “transitividad” de la combinaci´n lineal. xn ) ∈ Rn es combinaci´n o n lineal de un conjunto B = {X1 . 2λ1 + λ2 = 1 λ1 = 1 λ1 (2. Xn y b =  . Sea A = {(2. o ´ OBSERVACION 2. . . Xn } ⊂ R es equivalente a discutir la compatibilidad de un sistema lineal de ecuaciones con matriz ampliada A|b   x1 . . a o ´ PROPOSICION 2. . Xr } y B = {Y1 . . βm tales que (2. . Ym } o dos conjuntos de n-uplas tales que ∀i = 1. . . 1) ⇐⇒ (S) El sistema (S) tiene matriz ampliada A|b = 2 1 1 de la ultima ecua´ 1 0 1 ci´n se deduce que λ1 = 1 y sustituyendo en la primera se tiene que λ2 = −1 o N´tese que la matriz A tiene como columnas las n-uplas del conjunto B. 1) + λ2 (1. . 1) + λ2 (1. . 1).12. . 0) = (1. Como Z es combinaci´n de B existen entonces n´meros o u β1 . . . . λ2 tales que u λ1 (2. m Yi es combinaci´n lineal n o o de A.   . β2 . . Sea A = {X1 . . . .70 ´ 2. ALGEBRA DE MATRICES EJEMPLO 2. . (1. X2 . ¿Es X combinaci´n o lineal de A? Apelando a la definici´n observamos que la pregunta puede o formularse de manera equivalente como ¿existen n´meros λ1 .8) Z = β1 Y1 + β2 Y2 + · · · + βm Ym .17. donde A es la matriz de columnas X1 . 0)} y X = (1. Si Z ∈ R es combinaci´n lineal de B entonces Z es combinaci´n lineal de A ´ Demostracion. X2 .

2. 2. . 2. . . DEPENDENCIA LINEAL 71 Pero como cada Yi con i = 1. .8) se tiene Z = β1 (α11 X1 + α12 X2 + · · · + α1r Xr ) + β2 (α21 X1 + α22 X2 + · · · + α2r Xr ) + · · · + βm (αm1 X1 + αm2 X2 + · · · + αmr Xr ) Reordenando. .5. . m Sustituyendo (2. Z = (β1 α11 + β2 α21 + · · · + βm αm1 ) X1 + = λ1 (β1 α12 + β2 α22 + · · · + βm αm2 ) X2 + · · · + = λ2 (β1 α1r + β2 α2r + · · · + βm αmr ) Xr = λr Por lo tanto Z = λ1 X1 + λ2 X2 + · · · + λr Xr probando que Z es combinaci´n de A.9) en (2. existen n´meros o u αij con i = 1. . Los ideas nuevas a contenidos en las definiciones y demostraciones de esta Secci´n se basan unio ´ camente en las propiedades de las operaciones (S1 -P4) entre n-uplas y no en el hecho de que ´stas sean una sucesi´n finita de n´meros. . .5. . . m y j = 1. m es combinaci´n de A. Dependencia lineal Introducimos ahora el concepto de dependencia lineal para n-uplas.2.9) Yi = αi1 X1 + αi2 X2 + · · · + αir Xr . ∀ i = 1. 2. . Los conceptos b´sicas de esta secci´n ser´n vistas nuevamente en el Cap´ a o a ıtulo sobre Espacios Vectoriales. . Por tanto si e o u entre elementos de otro conjunto se tuvieran definidas operaciones con esas . en un contexto m´s abstracto. r tales que (2. o 2. . el cual resulta ahora b´sico para la caracterizaci´n de las matrices invertibles a o y que en el futuro jugara un papel central en muchos otros problemas. . .

De hecho (S) es determinado si ninguna fila de la forma reducida de A es nula y es indeterminado si alguna lo es. 1. los resultados ser´ tambi´n v´lidos. EJEMPLO 2. 1. (1. 2. de filas no e nulas) de la forma reducida de A. . 1) = (2. Sea B = {(2. 1) + λ2 (3. 0).72 ´ 2. 0) es combio naci´n de los otros dos. . Como las filas de una matriz pueden pensarse como n-uplas podemos plantear el problema de una forma un poco m´s abstracta.18.11 que la quinta fila de la matriz (1 2 1 4 9 3 − 1) se anula. 1)} ¿alguna n-upla de B es combinaci´n lineal de las restantes? Intentemos ver si (2. . λ2 ∈ R tales que λ1 (1. 1. o Para esto debemos determinar si existen λ1 . 1. 1. lo cual se comprueba directamente (1 2 1 4 9 3 − 1) = 2(1 2 1 2 5 3 1) − (1 2 1 0 1 1 1) En otras palabras la determinaci´n o indeterminaci´n de un sistema como o patible depende de que alguna fila en la matriz del sistema sea combinaci´n o de las restantes. . veamos algunos ejemplos o para ilustrar el problema. ALGEBRA DE MATRICES propiedades. De hecho estas observaıan e a ciones son las que conducen a introducir el concepto de Espacio Vectorial. 1). Esto es equivalente a que el sistema . 2. por lo tanto para que en el proceso de escalerizaci´n una fila se anule debe o ser combinaci´n lineal de las restantes. analizando las transformaciones elementales que se efectuaron al escalerizar se deduce que F5 = 2F3 − F1 . La forma reducida se obtiene realizando combinaciones lineales con las filas de A. (3. de acuerdo al a teorema de Rouch´-Frobenius. Xn } ⊂ R queremos determinar si alguno de los elementos de B es combinaci´n lineal de los restantes. Para ilustrar esto puede observarse o en el ejemplo 1. de la cantidad de escalones (i.e. 0). a n Sea B = {X1 . Sea (S) un sistema lineal n × n compatible con matriz ampliada A|b El car´cter determinado o indeterminado de (S) depende.

0. 1) = (2. 0. 1. 1. 0) Es decir que cualquiera de las tres n-uplas es combinaci´n lineal de las o restantes. 2. 2. 0. 1. 1). 1) = (2. se deduce f´cilmente que a a (3. 1. 0) = (−1)(1. 1. 2). 1) 2 pero sin embargo (0.10) (1. 0) + (1. 1) y (2. 1) + (3. ∀ λ1 . En consecuencia. Adem´s de lo anterior. λ2 ∈ R . 1) = λ1 (2.5. 1. 1) + 0(0. DEPENDENCIA LINEAL 73 sea compatible. (2. 2. 2) + 0(0. 1. 1) y (1. Para resolver el sistema (S) escribamos la matriz ampliada   1 3 2   A =  1 2 1 .2. (0. 1 1 0 al escalerizarla se obtiene  1 3 2   A =  0 −1 −1  0 0 0    λ1 + 3λ2 = 2  (S) λ + 2λ2 = 1  1  λ1 + λ2 = 0 Por lo tanto el sistema (S) es compatible determinado y Sol(S) = {(−1. 1) = (3. Cabe preguntarse si esto ocurre siempre. 1)} entonces es claro que 1 (2. 0. 1. 2. 1. 1. 1)}. 2. 2. 1). La respuesta es negativa como muestra el siguiente ejemplo Sea B ′ = {(1. 2) + λ2 (1. 1) + (−1)(2. 2. 2) = 2(1. (2. 1).

D.74 ´ 2. . X2 .9. pues como se vio puede ocurrir que sea necesario chequear una a una las n-uplas del conjunto ya que algunas pueden no ser combinaci´n de las restantes y otras si. . λm son n´meu ros reales tales que m λ1 X1 + λ2 X2 + · · · + λm Xm = entonces λ1 = λ2 = . Xm } ⊂ Rn se dice linealmente dependiente (L. = λm = 0 λi Xi = O i=0 En otras palabras un conjunto es L. Vale la o pena entonces tratar de obtener un m´todo m´s eficiente para resolver este e a problema. λm ∈ R no todos nulos tales que m   2λ1 + λ2 = 0  2λ1 + λ2 = 0   2λ1 + λ2 = 1 λ1 X1 + λ2 X2 + · · · + λm Xm = λi Xi = O i=0 ´ DEFINICION 2. . Vale la pena observar tambi´n. .D. . . si λ1 . Un conjunto A = {X1 . ´ DEFINICION 2.I. o si hay otras formas. X2 . . . . λ2 . 1) no e puede despejarse de (2.I. . 0.) si existen λ1 . . . que la n-upla (0. . X2 . . . . ALGEBRA DE MATRICES pues el sistema es incompatible. Xm } ⊂ Rn se dice linealmente independiente (L.10) pues en cualquiera de las dos combinaciones lineales tiene coeficiente nulo.) si no es linealmente dependiente o equivalentemente A = {X1 . Xm } ⊂ Rn es L. .I. . λ2 . Un conjunto A = {X1 . . si la unica forma de escribir la ´ n-upla nula como combinaci´n lineal de sus elementos es la trivial y es L. . . . .8. El ejemplo anterior muestra que en general determinar si en un conjunto de n-uplas alguna es combinaci´n lineal de las restantes puede resultar o trabajoso si se utiliza el procedimiento del ejemplo.

5. . . A es linealmente dependiente. .D. DEPENDENCIA LINEAL 75 Los siguientes resultados dan una caracterizaci´n de los conjuntos L. λi0 −1 .D. S´lo es necesario probar la primera afirmaci´n pues la o o segunda es su consecuencia inmediata. si y solo si existe Xi0 ∈ A. X2 . λ2 . . combinaci´n o lineal de los restantes elementos de A 2. o y L. Sea A = {X1 . A es linealmente independiente si ning´n elemento de A es combinau ci´n lineal de los restantes. (⇐) Supongamos ahora que existe Xi0 ∈ A combinaci´n lineal de los reso tantes elementos de A entonces existen n´meros λ1 . . (=⇒) Supongamos que A es L. λi0 +1 . las proo piedades de las operaciones de suma y producto de n-uplas nos habilitan a “despejar” el termino i0 -esimo en (2. .I. Xm } ⊂ Rn entonces 1.11) λ1 X1 + · · · + λi0 −1 Xi0 −1 + λi0 Xi0 + λi0 +1 Xi0 +1 + · · · + λm Xm = O =⇒ =0 −λi0 Xi0 = λ1 X1 + · · · + λi0 −1 Xi0 −1 + λi0 +1 Xi0 +1 + · · · + λm Xm =⇒ λ1 λi −1 λi +1 λm Xi0 = − X1 − · · · − 0 Xi0 −1 − 0 Xi0 +1 − · · · − Xm λi0 λi0 λi0 λi0 Por lo tanto Xi0 es combinaci´n lineal de los restantes elementos de A como o quer´ ıamos. . . .14. . o ´ Demostracion. . ´ PROPOSICION 2. . .2. . λm u tales que Xi0 = λ1 X1 + · · · + λi0 −1 Xi0 −1 + λi0 +1 Xi0 +1 + · · · + λm Xm . λm u no todos nulos tales que m (2. entonces existen n´meros λ1 . .11) i=0 λi Xi = 0 Sea λi0 un coeficiente no nulo en la combinaci´n lineal precedente. .

.D.11) tienen o coeficiente no nulo. Si A = {(0.D.D. . Determinar en cada caso la dependencia lineal del conjunto A y en caso de ser L. . Es f´cil ver que este es el unico conjunto de un elemento L. EJEMPLO 2. 0) = O ∀λ ∈ R. indicar cu´les vectores son combinaci´n lineal a o de los restantes. 0. . 0. Sea A = {O. .76 ´ 2. . en particular si λ = 0. . . es el que a tiene como unico elemento a la n-upla nula. Adem´s si se analiza con cuia dado en la demostraci´n del directo se observa cuales son las n-uplas que o son combinaci´n de las otras. . . ALGEBRA DE MATRICES entonces sumando el opuesto de Xi0 a ambos miembros se tiene que =0 λ1 X1 + · · · + λi0 −1 Xi0 −1 + (−1) Xi0 + λi0 +1 Xi0 +1 + · · · + λm Xm = O de donde hemos obtenido la n-upla nula como combinaci´n lineal no trivial o de los elementos de A y consecuentemente ´ste es un conjunto L. 0)} ⊂ Rm ´ entonces λ(0. con lo cual A resulta L. X1 . esto es lo que permite “despejarlas”.20. como e quer´ ıamos. + 0Xm = O es una combinaci´n lineal de los elementos de A que da el nulo con no todos o los coeficientes nulos. .D o no. Por otra parte cualquier conjunto que contenga a O debe ser L. Xm } ⊂ Rn entonces 100.O + 0X1 + . . .I.D.D. El ejemplo m´s sencillo de un conjunto L.I. . . Veamos ahora algunos ejemplos de conjuntos L.19. EJEMPLO 2. y L. La proposici´n anterior y su prueba dan un m´todo m´s eficiente pao e a ra determinar si en un conjunto de n-uplas un elemento es combinaci´n de o los restantes: basta investigar si es L. .D. son exactamente aquellas que en (2. a ´ En efecto si A = {X} con X = O entonces λX = O implica λ = 0 (probarlo).

1). 0) + λ2 (1. 1. 2λ1 + λ2 + λ3 + 3λ4 + λ5 . (0. λ2 . 2. 1) = (0. 0) = (0. 0. λ3 son tres n´meros reales tales que u λ1 (1. 1. 0. 2.D. −1). 0). 1. −λ1 + λ2 + λ3 ) = (0. 0)} y sean λ1 . 1) + λ3 (1. DEPENDENCIA LINEAL 77 1. λ4 .5.2.I. 0. 1. 0. (1. Sea A = {(1. 1. 1. λ2 − λ3 + λ4 ) = (0. λ1 + λ3 . si (H) es indetero o minado (admite soluciones no triviales). 1. −1) + λ2 (1. 1) + λ5 (1. (1. Sea A = {(1. (2. λ5 n´meros reales tales que u (2. La matriz del sistema es   1 1 1 0    1 0 1 0  −1 1 1 0 escaleriz´ndola se obtiene a   1 1 1 0   0 0   0 −1 0 0 −2 0 por lo tanto (H) es determinado y la unica soluci´n es la trivial λ1 = ´ o λ2 = λ3 = 0 de donde A es L. 1)} supongamos que λ1 . λ3 . 1) + λ3 (0. (1. −1) + λ4 (2. −1). 0. 1).I si el sistema homog´neo (H) es e determinado (s´lo admite soluci´n trivial) y es L. 0. 1.. (1.12) λ1 (1. 1. 0. 1. 3. 0) ⇐⇒   λ1 + λ2 + λ3 = 0  (H) λ + λ3 = 0  1  −λ1 + λ2 + λ3 = 0 En consecuencia el conjunto es L. 1. 0) ⇐⇒ (λ1 + λ2 + λ3 . 1. 1. 1). 1. λ2 . 2. 0. 1. 0. 3. 0) ⇐⇒ (λ1 + λ2 + 2λ4 + λ5 . λ1 + λ3 + λ4 . 0. 0) ⇐⇒ . 1. 0. 0.

1. 1) + (0. 0) de donde podemos “despejar” cualquier n-upla salvo la ultima (tiene ´ coeficiente cero) como combinaci´n lineal de las restantes. 3. o λ3 . 1) − (0. Por ejemo plo. 1) + 0(1. 1) + 0(1. 1. 3. 1. 1. 0.78 ´ 2. 1. 0. 1. 1. ALGEBRA DE MATRICES Escaleriz´ndola se obtiene: a  1 1  0 1    0 0 0 0   λ1 + λ2 + 2λ4 + λ5 = 0    λ +λ +λ =0 1 3 4  2λ1 + λ2 + λ3 + 3λ4 + λ5 = 0    λ2 − λ3 + λ4 = 0 La matriz del sistema es:   1 1 0 2 1 0  1 0 1 1 0 0       2 1 1 3 1 0  0 1 −1 1 0 0 0 −1 0 0 2 1 0 0 1 1 1 0 0 0 0 0      y en consecuencia la soluci´n es λ1 = −λ3 − λ4 . 1. −1) + 2(2. 0) en particular poniendo por ejemplo λ3 = 1 y λ4 = 2 tenemos que (−3)(1. 1. 0) + (λ3 − λ4 )(1. 0. 0. 2.12) se tiene que para cualquier valor real de λ3 y λ4 se cumple que (−λ3 − λ4 )(1. 1. 0. 2. 0) 3 . λ4 ∈ R El sistema es entonces compatible indeterminado y por lo tanto A es L. 3. λ5 = 0. 1. 0) = (0.D. En efecto sustituyendo en (2. 1. 1. 1. 0) = (0. λ2 = λ3 − λ4 . 1 1 (1. 1) + λ3 (0. 0) = (1. 1. 0) + (−1)(1. 1. 0. 1. 0. −1) 3 3 2 − (2. 1) + 0(1. 0. −1) + λ4 (2. 0. 2. 0. 1.

I. . . Sea A = {X1 . r. ´ DEFINICION 2. . . hr o entonces rango(A) = r ´ Demostracion. Naturalmente si A es L. Observemos primeramente que la segunda condici´n de la hip´tesis implica o o que todos los elementos de A son combinaci´n lineal de B pues cualquier o n-upla es combinaci´n de si misma. . . Xh2 . + arj Xhr . Si (S) es indeterminado ya hemos visto o que algunas ecuaciones (o filas de su matriz asociada) son combinaci´n de las restantes. q tales que (2. . . . llamaremos rango del conjunto A a la mayor cantidad de elementos de A que forman un conjunto L. ´ PROPOSICION 2. . .I. X2 . De nuevo planteamos el problema en el contexto de n-uplas. esto puede considerarse como “redundancia en la informaci´n” que o estas aportan.10. . a Sea C = {Xk1 .13) Xkj = a1j Xh1 + a2j Xh2 + . . .I. B es L. Xhr } ⊂ A un subconjunto de A que cumple las siguiente dos condiciones: 1.5. El resultado estar´ probado si verificamos que cualquier subconjunto de A con a m´s de r elementos es L. 2. .D. h2 . j = 1. . . y card(B) = r entonces rango(A) ≥ r. DEPENDENCIA LINEAL 79 Supongamos que (S) es un sistema n×n indeterminado. q > r. . . q . Xm } ⊂ Rn un conjunto cualquiera y sea B = {Xh1 . con o u i = 1. .15. entonces rango(A) = card(A). cada una de sus ecuaciones pueden pensarse en cierto sentido como “datos” o “informaci´n” o que permite resolver el problema. ∀ j = 1. Xs es combinaci´n lineal de B ∀ s = h1 . . . . .I. El siguiente resultado indica un camino para calcular el rango de un conjunto. . . . Xkq } ⊂ A un subconjunto cualquiera de A con q elementos. Por lo tanto existen n´meros aij . Sea A ⊂ Rn un conjunto finito. . Nos interesa saber cuanta es la “informaci´n” no redundante o con que contamos y esto es cuantas ecuaciones independientes tienen el sistema. Como B es L. . . Xk2 . 2.2.

0). λq verifican (2. . .14) si y solo si =0 =0 a11 λ1 + a12 λ2 + · · · + a1q λq Xh1 + a21 λ1 + a22 λ2 + · · · + a2q λq Xh2 + + · · · + ar1 λ1 + ar2 λ2 + · · · + arq λq Xhr = O =0 Los par´ntesis en la ecuaci´n anterior resultan todos nulos pues. . . . 1. 1. . . .  . (1.14) se tiene que λ1 . el conjune o to B = {Xh1 . . . . λq no todos nulos que verifican (2. 0. (2. . 0. .I.13) en (2. λq verifica (2. Analicemos el rango del conjunto A = {(1. 1). .D. . como se deseaba. λ2 . ALGEBRA DE MATRICES Analicemos la dependencia lineal del conjunto C. . . . . 1. (1. λq verifican (2. Xh2 . . 3. 1. −1). 1).80 ´ 2.14) y por lo tanto C es L. λ2 . .+ar2 Xhr + + · · · + λq a1q Xh1 + a2q Xh2 + . .   ar1 λ1 + ar2 λ2 + · · · + arq λq = 0 Pero (S) es un sistema homog´neo y q > r (tienen m´s inc´gnitas que e a o ecuaciones) por lo cual es indeterminado y consecuentemente tiene soluciones no triviales. + λq Xkq = O Sustituyendo (2.+ar1 Xhr +λ2 a12 Xh1 +a22 Xh2 +. .  . . λ2 . .14) λ1 Xk1 + λ2 Xk2 + . . 0)} . .21.14) si y solo si λ1 a11 Xh1 +a21 Xh2 +. . λq n´meu ros tales que (2. (0. De donde resulta que existen λ1 . EJEMPLO 2. + arq Xhr = O u Reordenando y sacando Xhi de factor com´n se tiene que λ1 . λ2 .14) si y solo si verifican el sistema lineal   a11 λ1 + a12 λ2 + · · · + a1q λq = 0     a21 λ1 + a22 λ2 + · · · + a2q λq = 0 (S) . . . λ2 .  . . Xhr } es L.. 2. . . Sean λ1 . . . . Tenemos entonces que λ1 . . 1. 1.

1. −1) + λ3 (2.I. 0) = (0. −1). 1. 1. con los o elementos de A debemos quitar las n-uplas que sean combinaci´n lineal de o las restantes. λ3 . 1) − λ3 (0. DEPENDENCIA LINEAL 81 del ejemplo 2.D. Para construir un conjunto L. 0. 0. en nuestro caso. 1) + λ4 (1.5. 0) ⇐⇒   λ1 + 2λ3 + λ4 = 0    λ +λ =0 2 3 (S)   λ1 + λ2 + 3λ3 + λ4 = 0   λ1 − λ2 + λ3 = 0 1 0 1 0 0 0 0 0           Escaleriz´ndola se obtiene a La matriz ampliada de este sistema es  1 0 2  0 1 1    1 1 3 1 −1 1      1 0 0 0 0 2 1 0 1 1 0 0 0 0 1 0 0 0 0 Por lo tanto (S) tiene soluci´n λ1 = −2λ3 . 1. 1. λ2 . por lo cual rango(A) < 5. 1. 1. 1) + λ2 (0. λ4 = 0 y λ3 ∈ R. 1). 0. y adem´s ∀ λ3 ∈ R se tiene que a −2λ3 (1. 0. λ4 n´meros tales que u λ1 (1. (1. 0. 0) = (0. Ya sabemos que es L. 2. 0.2. (0. 1. 0. 1.D. 1. 3. (1. 3. 1. 1. λ2 = −λ3 . 1). Nuestra intenci´n es construir con los elementos de A un conjunto B en las condio ciones de la proposici´n anterior. A′ o es L. 1) + 0(1. (2. 1. 0. Sean λ1 . 1. 0. 1. 1. 0)} y estudiamos su dependencia lineal. 3. 0. −1) + λ3 (2. 0) .20. Como ya vimos. 0) es combinaci´n de las otras o as´ que consideramos el conjunto ı A′ = {(1.

que (1. 1. 1. 3. .I.11. 1. . 1. −1) + (1. . 1. 1. o 2. . . 1. . (0. 1. . (1. 1) es combinaci´n lineal de los restantes elementos. .13 que (1. 3. amj ) ∈ Rm la columna j-esima de A. 0. Ep } de filas cumplen . 0) es combinaci´n de A o o ′′ . LEMA 2. ain ) ∈ R a la fila i-esima de A y con Aj = (a1j . 0) ´ DEFINICION 2. −1). 1) y (1. . .I. de A 2. 0) =⇒ λ3 λ3 λ3 o Con lo cual tenemos que en A′ (2. . 1. E jp } de columnas y B ′ = {E1 . 1. 2. 0. . E j2 . 1) = − 2λ3 λ3 0 (1. ALGEBRA DE MATRICES En particular si λ3 = 0. 0) es com′ pero como los elementos de A′ son a su vez combinaci´n de los o binaci´n de A o ′′ se deduce aplicando la proposici´n 2. 2. 1). 1. 1. 1) − (0. esto es: o 1.16. jp entonces los conjuntos B = {E j1 .6. 3. .82 ´ 2. Obs´rvese que hab´ e ıamos probado. 1) − (0. Sea A una matriz m × n 1. −1) + 0(1. 1. . 1. 0. 0. E2 . . j2 . . (2. El rango de una matriz Si A = ((aij )) es una matriz m × n notaremos por Ai = (ai1 . Sea E ∈ Mm×n una matriz escalerizada reducida con p escalones ubicados en las columnas j1 . Consideramos ahora el conjunto A′′ = {(1. . . 2. Definimos el rango por filas de A (rangof (A)) como el rango del conjunto {(A1 . 1. . 0. . n (2. . Am } ⊂ Rm de columnas de A. (verificarlo). . Entonces B = A′′ cumple las dos condiciones de la proposici´n anterior. en el ejemplo 2. 0)} ⊂ A′ ⊂ A el cual es L. . 1. 1. . 1. .20. 1) = −2(1. 1. An } de filas de A. despejando resulta (2. 2. . 2. 0. 0) son combinaci´n lineal de B Por lo tanto rango(A) = card(B) = 3. B es L. . Definimos el rango por columnas de A (rangoc (A)) como el rango del conjunto {A1 . .

. E jp } es L.17. Aj2 . . . La prueba es sencilla y queda a cargo del lector.2. . . .I. . jp a entonces para probar que rangoc (A) = p alcanza con demostrar que el conjunto B = {Aj1 . j2 . Sea A una matriz m × n y p el n´mero de escalones de la u forma escalerizada reducida de A entonces rangoc (A) = p ´ Demostracion. αn ) tal que αh = λji . entonces λj1 = λj2 = · · · = λjp = 0 probando que B es L. . Ajp } cumple las condiciones de la proposici´n 2. E j2 . . Sea A una matriz y E la forma escalerizada reducida de A con p escalones (esto es con p filas no nulas).16. βj2 . o j es combinaci´n Sea entonces j = j1 .I. . . λjp n´meros tales que u λj1 Aj1 + λj2 Aj2 + · · · + λjp Ajp = O entonces la n-upla (α1 . entonces rangoc (E) = rangof (E) = p ´ Demostracion. o En particular. Como siempre indicaremos por Aj y E j las j-esimas columnas de A y E respectivamente. . . βjp n´meros tales que u E j = βj1 E j1 + βj2 E j2 + · · · + βjp E jp . E jp } por lo tanto existen βj1 . u 0 si h = ji para todo i. jp . . . jp entonces Aj es combinaci´n lineal de B. . . . . j . . . . E j2 . j . . . . . . . . en virtud de lo visto en el lema 2. Sean λj1 . Esto ultimo o e ´ implica que O = α1 E 1 + α2 E 2 + · · · + αn E n = λj1 E j1 + λj2 E j2 + · · · + λjp E jp . EL RANGO DE UNA MATRIZ 83 ambos con las hip´tesis del lema 2.15.I. pero el conjunto {E j1 . λj2 . α2 . LEMA 2. . . .16 se sabe que E o lineal del conjunto {E j1 . si h = ji para alg´n i.15 o j es combinaci´n lineal de B ∀ j = j . . del lema 2. esto es B es L. Veamos ahora que si j = j1 . es una soluci´n del sistema homog´neo con matriz A|O y por lo tanto es o e soluci´n del sistema homog´neo equivalente con matriz E|O. . .I y A o 1 2 p Veamos primero que B es L. .6. . . . Supongamos que los escalones de E est´n ubicados en las columnas j1 . .

ALGEBRA DE MATRICES entonces (−1)E j + β1 E j1 + β2 E j2 + · · · + βp E jp = O.15 asegura que rangof (A) = p.  αh = u β . . si h = j. ( ninguna de ellas puede ser combinaci´n de las restantes) y adem´s las otras o a m − p son combinaci´n de ellas (por eso al escalerizar A se anularon). pues las filas de una son las columnas de la otra. αn ) con   −1. El resultado anterior nos habilita entonces a definir el rango de una matriz como el rango por filas o el rango por columnas. TEOREMA 2.  ji  0 si h = ji para todo i. TEOREMA 2. En o consecuencia el lema 2. . Sea A una matriz m×n entonces rangof (A) = rangoc (A) ´ Demostracion. Por lo tanto la n-upla (α1 .20 (Rouche-Frobenius (2da versi´n)). ´ OBSERVACION 2.I. La prueba se reduce a mostrar que rangof (A) = p donde p es el n´mero de escalones de E. es soluci´n del sistema homog´nea con matriz E|O y consecuentemente tamo e bi´n del sistema equivalente A|O por lo tanto e O = α1 A1 + α2 A2 + · · · + αn An = (−1)Aj + βj1 Aj1 + βj2 Aj2 + · · · + βjp Ajp de donde se deduce que Aj = βj1 Aj1 + βj2 Aj2 + · · · + βjp Ajp culminando la prueba del lema. si h = ji para alg´n i. .la forma reducida de A.84 ´ 2. u Es claro que en el proceso de escalerizaci´n una fila se anula si y solo si es o combinaci´n lineal de las restantes en consecuencia si la forma escalerizada o tiene p filas no nulas la matriz A tiene p filas que forman un conjunto L. α2 . . Sea (S) un sistema o lineal de m ecuaciones con n inc´gnitas con matriz ampliada A|b. El rango de una matriz es igual al rango de su transpuesta.18.19. entonces o .

.17 o 2. . ∀j = 1.2. . . Sea A ∈ Mn×n entonces rango(A) = n si y solo si existe B ∈ Mn×n tal que A·B = In .21. LEMA 2. (⇒) Recordemos en primer lugar que de acuerdo a la observaci´n 2. n . .7) se deduce que si A ∈ Mn×n es una matriz invertible el sistema AX = b es compatible determinado por lo tanto el teorema de Rouche-Frobenius asegura que rango(A) = n. Si (S) es compatible entonces a) (S) es determinado si y solo si rango(A) = n.7. . 2. versi´n) y del lema 2. A·B n     A·B =     . probaremos en esta secci´n o como principal resultado que el rec´ ıproco es tambi´n cierto.. sin embargo tal como se vio en el u ejemplo 2. MATRICES INVERTIBLES Y RANGO 85 1. se impone por lo tanto obtener alg´n resultado que caracterice a las matrices invertibles. u observemos que de (2.10 existen matrices no nulas que no poseen inversa. b) (S) es indeterminado si y solo si rango(A) < n. La prueba es consecuencia inmediata del Teorema de RoucheFrobenius (1era. Matrices invertibles y rango Todo n´mero real no nulo es invertible. (S) es compatible si y solo si rango(A) = rango(A|b) 2. ´ Demostracion. ´ Demostracion. e Comencemos mostrando que las matrices de rango n son exactamente aquellas que admiten una “inversa a derecha”.7.1 si A y B son dos matrices n × n cualquiera y B j indica la o columna j-esima de B entonces   A·B 1 A·B 2 .. Por lo tanto A·B = In ⇐⇒ A·B j = ej .

 0  son todos compatibles. la h. supongamos que la h. Por lo tanto. Entonces.   .. . . El rango(A) ≤ n pues A es n × n. una forma escalerizada de la matriz A debe tener r < n escalones (filas no nulas). . n.esima ecuaci´n se transforma en 0 = 1 y esto nao turalmente es absurdo pues todos los sistemas AX = ej eran compatibles ∀ j = 1.   .    j e =  1  ←− fila j-esima  . 2. Pero entonces el sistema AX = eh resulta incompatible pues o al escalerizarlo. . Supongamos que existe B tal que A·B = In .. supongamos por absurdo que rango(A) = r < n. llamando B    1 2  e e . Por lo tanto eligiendo B como la matriz cuya columna j-esima es B j se tiene probado el directo. . . . 2. . . . . como rango(A) = n el teorema de Rouch´-Frobenius asegura e j con j = 1. . n existe B j tal que A·B j = ej . (⇐) Veamos ahora el rec´ ıproco.86 ´ 2. . al aplicar el algoritmo de Gauss a la matriz A alguna fila.. . ALGEBRA DE MATRICES Donde Ahora bien. n son compatibles y que n sistemas de ecuaciones AX = e consecuentemente se tiene que ∀ j = 1. . A·B n          = A·B = In =        . . 2.. . en A·B 1 A·B 2 . Mirado los extremos de la igualdad anterior se deduce que los sistemas AX = ej ∀j = 1. . . . debi´ anularse. . Estamos ahora en condiciones de probar que que para que una matriz sea invertible es suficiente que tenga un “inverso a derecha” .17. en virtud del lema 2.   . as´ que debe ser rango(A) = n como quer´ ı ıamos. n  0  . 2.   . j a la columna j-esima de la matriz B se tiene Entonces.

(⇐) Supongamos que existe X ∈ Mn×n tal que A·X = In entonces por el lema 2.1.multiplicar una fila por una constante no nula . ´ Demostracion.8.9.21 rango(A) = n.8. MATRICES ELEMENTALES 87 ´ Demostracion del lema 2.9 rango(A) = n.2. esto es o 1. (⇒) Si A es invertible en particular existe B tal que A·B = In entonces lema 2. Veamos que D = X. existe C ∈ Mn×n tal que At ·C = In . por lo que. TEOREMA 2. 2.21. A es invertible si y solo si rango(A) = n. Matrices elementales Culminemos el cap´ ıtulo mostrando que el proceso de escalerizaci´n puede o representarse mediante el producto por ciertas matrices especiales llamadas matrices elementales. Sea A ∈ Mn×n .22. Sea e una de las transformaciones elemental de la definici´n 1. De la observaci´n 2.21 asegura que existe B ∈ Mn×n tal que A·B = In pero entonces por el lema 2. El directo es consecuencia inmediata de la definici´n de matriz invertible por lo cual s´lo probaremos el rec´ o o ıproco. Por lo tanto D = C t es una “inversa a izquierda” de A. (⇐) Si rango(A) = n el lema 2. Transponiendo se tiene que C t ·A = At ·C t = (In )t = In .9 A es invertible.19 se deduce que o rango(At ) = rango(A) = n. utilizando nuevamente el lema 2. en efecto D = D·In = D A·X = D·A X = In ·X = X entonces A·X = X·A = In y consecuentemente A es invertible.

. 0 0 ··· 0 0 0 ··· 0 0 0 ··· . . .  . . . . .. .15)         E1 =           1 0 ··· 0 1 ··· . . 0 0 0 ··· 0 0 . . La matriz elemental E asociada con la transformaci´n e es la que se obtiene al aplicar la transformaci´n e a la matriz o o identidad n × n EJEMPLO 2. . . .sumarle a una fila un m´ltiplo de otra fila u ´ DEFINICION 2. . . . . . . . . . 1 0 0 ··· 0 α 0 ··· 0 0 1 ··· . . . . . . 1             ←− Fila i  . . . . . .. . . . . . ··· .88 ´ 2. .. . . . . La matriz . ··· . . .intercambio de filas 3. . . . . . . . . . 0 0 0 . . . pues E1 se obtiene de la matriz identidad I aplicando dicha transformaci´n o operaci´n e1 o −→ I E1 . . . . . . . ··· . . . . . .   . . . . . (2.22. . .  .  . est´ asociada a la transformaci´n elemental e1 “multiplicar la fila i por a o la constante α = 0”. . ALGEBRA DE MATRICES 2. . .12. .

. . ··· . . . .   .16)  1 ···  . . . α . . .   ←− Fila j   . . . . . ··· ··· ··· ··· . ··· ··· 0 . .  .   ←− Fila j   . ··· ··· ··· ··· 1 ··· ··· ··· ··· ··· ··· . . . . .  .. . . .. ··· ··· 1 . . . .23.  . . . o operaci´n e2 o E2 I −→ La matriz (2. . .  . . . ··· ··· ··· . . . . . . .   . .  . . . ··· . pues E2 se obtiene de la matriz identidad I aplicando dicha transformaci´n. ··· ··· matriz ··· .  .. . .   .  .  . . ··· ··· ··· ··· . . . ··· 1 ··· . . . .  . . . . . 1 .  . .   ···   . ··· . . . . .  . MATRICES ELEMENTALES 89 est´ asociada a la transformaci´n elemental e2 “intercambiar la fila i a o por la fila j”.  . . . ··· 1  . . ··· 1 ··· . . 1 . . ··· ··· .  . . . . ··· ··· .  . . . . . . .  . .  . .   ··· ···   . . .   . . . . La (2. . . ··· ··· ··· . . .  . .  . .    ←− Fila i  . .  . .    ←− Fila i  . .  . .  . .  . . .  .  . . .  . . .8. . . .  . . ··· . . ··· ··· . . ··· ··· . . .  . ··· ··· .17)  EJEMPLO 2. . .  ··· ··· . . .  . . . ··· . .  . .. . . .  . . . ··· .  . . . .  . . .   . . . . E3 =  . .  . E2 =  . . . . ··· .. ··· ··· ··· . .  .2. . 1 . 1 .  . 0 . . . . .   . . .  . ··· ··· .  . . ··· ··· ··· ··· 1 ··· ··· ··· ··· ··· ··· .. . . 1 . . . .  . . . . .  . .  .  . . . . . .  . . .  . . . .  . . ··· . .  .

 ann ´ Demostracion.. E la matriz elemental (de tama˜o n × n ) asociada con la transformaci´n e n o operaci´n e o −→ I E Se cumple que B = EA.  .   αain  . que se obtiene de A multiplicando por α  a1n .  B =  αai1  .  .  . ALGEBRA DE MATRICES est´ asociada a la transformaci´n elemental e3 “sumarle a fila i un m´ ltia o u plo de la fila j”. . . an2 ··· ··· ··· . . an1 a12 .90 ´ 2.  .23.  .  . ··· .  . Sean: B la matriz (de tama˜o n×m) que se obtien ne a partir de la matriz A (de tama˜o n × m) realizando la transformaci´n n o elemental e con las filas de A operaci´n e o −→ A B.  . . αai2 . . Sea B la matriz la fila i de A  a11  . pues E3 se obtiene de la matriz identidad I aplicando dicha transformaci´n o operaci´n e3 o −→ I E3 ´ PROPOSICION 2.

 . an1 an2 · · · ann An´logamente se prueba la propiedad para las dos restantes operaciones a elementales. . ··· .  1 0  A =  2 −1 1 4 asociada a la transformaci´n elemental e de sumarle a la tercera fila 3 veo ces la primer fila.  . ··· . . EJEMPLO 2. . . .  .   . . . . . es inmediato verificar que    1 ··· 0 ··· 0 a11 a12 · · · a1n  .8..     =  αai1 αai2 · · · αain  = B  . .2. .. ··· . . .  .   . . 0 ··· 0 ··· 1 an1 an2 · · · ann   a11 a12 · · · a1n  . . . . ··· . .  .  .  . . . .  .  . . . . . MATRICES ELEMENTALES 91 Si E1 es la matriz (2.24.    E1 A =  0 · · · α · · · 0   ai1 ai2 · · · ain  =  . ··· .15) asociada a la transformaci´n elemental “multiplicar o la fila i por la constante α = 0”. . .  .  .  .   .  . . .  . . .. Sea B la matriz que se obtiene de A si se le aplica la transformaci´n elemental considerada o     1 0 2 1 operaci´n e o 1 0 2 1     A =  2 −1 3 6  −→  2 −1 3 6  = B 1 4 4 0 4 4 10 9   1 0 2 1   y operando se verifica que B = EA =  2 −1 3 6  4 4 10 9 Consideremos la matriz    1 0 0 2 1    3 6  .   .   . y la matriz elemental E =  0 1 0  4 0 3 0 1 . .

. Toda matriz A puede reducirse mediante una sucesi´n de matrices elementales E1 . 0  . en virtud de la proposici´n 1. . 1 0 .  . . esquematizamos como sigue el proceso de escalerizaci´n: o A operaci´n e1 o −→ ······ operaci´n ek o −→ B.. . . .24. 0 .  .   . . ´ PROPOSICION 2..  0 1 . .  . ek de transformaciones elementales.. . Eh tales que o Eh .. ALGEBRA DE MATRICES Sea A una matriz cualquiera. 0 0 . e1 . . . E2 E1 A = I. .25. se puede enunciar que ´ PROPOSICION 2.. esto o es: Ek . E2 .3 (M´todo o e de Gauss) puede escalerizarse mediante una cantidad finita. Si rango(A) = n ⇒ existe una sucesi´n de matrices elementales E1 . Sea B una forma escalerizada de A. .92 ´ 2. Sea A una matriz n×n. E2 E1 A = B. . 1 ← n escalones no nulos y n filas . . Ek a su forma escalerizada B. Como rango(A) = n y A (y por lo tanto A′ ) es una matriz n × n se tiene que   . . e2 . (es decir que al aplicarle el proceso de escalerizaci´n se obtiene la matriz o identidad) ´ Demostracion. Si representamos estas operaciones elementales por sus respectivas matrices elementales asociadas. . . . .  A′ =  .  . .. E2 . . . Recordemos primeramente que el rango de una matriz es el n´mero de escalones de su forma escalerizada (filas no nulas). . Sea A′ la u forma reducida de A. . .

Toda matriz elemental es invertible y su inversa es una matriz elemental ´ Demostracion. Esto es E es tiene que E a invertible y su inversa es E −1 = E ′ (es una matriz elemental correspondiente a la transformaci´n inversa). . esto o es operaci´n e−1 o E′ I −→ aplicando la proposici´n 2. . Cada transformaci´n elemental puede ser deshecha por su transformaci´n o o elemental inversa. . E2 . Eh tales ı o que E1 E2 .multiplicar una fila por una constante α = 0 se deshace multiplicando 1 dicha fila por α 2. . MATRICES ELEMENTALES 93 As´ por la proposici´n 2. esto es 1.intercambio de filas se deshace intercanbi´ndolas nuevamente a 3. es decir que I operaci´n e o −→ E operaci´n e−1 o −→ I Si E ′ es la matriz elemental asociada a la transformaci´n elemental e−1 . o Obtengamos una nueva caracterizaci´n de las matrices invertibles o .23 a la matriz E con la transformaci´n e−1 se o o ′ E = I An´logamente se prueba que EE ′ = I.26. Eh A = I.8.2.24 existen matrices elementales E1 . .sumarle a una fila un m´ltiplo de otra fila se deshace rest´ndole a la u a fila el m´ltiplo de la otra u ´ PROPOSICION 2. Sea E la matriz elemental asociada a la transformaci´n o elemental e operaci´n e o I E −→ o Indiquemos por e−1 a la transformaci´n elemental inversa de e.

27. ALGEBRA DE MATRICES COROLARIO 2. ·E2 −1 ′ ·E1 −1 ′ ′ ′ ′ E1 ·E2 · . . . . . Ek matrices elementales tales que A = E1 ·E2 · . . . . E ′ una sucesi´n de matrices elementales tales anterior existen E1 2 o k que ′ ′ ′ E1 ·E2 · . . . ·Ek ·A = In pero como las matrices elementales son invertibles y sus inversas son tambi´n e matrices elementales se tiene ′ Ek −1 ′ · . . . . Sea A una matriz n × n entonces A es invertible si y solo si existen E1 . . .94 ´ 2. . ·Ek ´ Demostracion. . . . . . . (⇒) Si A es invertible entonces en virtud de la proposici´n o ′ . ·E2 ′ ·E1 −1 ′ ′ ′ Por lo tanto poniendo E1 = Ek −1 . E ′ . Ek = E1 −1 se tiene probado el directo. . E2 . ·E2 −1 ′ ·E1 −1 In de donde se tiene que ′ A = Ek ′ · . (⇐) El rec´ ıproco es consecuencia de que el producto de matrices invertibles es invertible. E2 = Ek−1 −1 . . . . ·Ek ·A = Ek −1 −1 −1 ′ · .

a la que se puede asociar matrices o de una manera sencilla. As´ una propiedad tan definitoria ı.1. En nuestro caso estos n´meros ser´n los reales o los complejos. e a El uso del determinante surgi´ de las f´rmulas que dan las soluciones de o o sistemas de n ecuaciones con n inc´gnitas. de una matriz (su invertibilidad) estar´ caracterizada por la no nulidad de a su determinante (o sea por el valor de un unico n´mero). luego fue identificado (en el caso o 3 por 3) como ´rea de paralelogramo o volumen de un paralelep´ a ıpedo. El determinante de una matriz A se representa con el s´ ımbolo |A|. trat´ndose de una matriz dada a 95 . En particular las matrices invertibles son las unicas ´ que tienen determinantes distinto de cero.CAP´ ıTULO 3 DETERMINANTES El determinante de una matriz cuadrada es un unico n´mero que se ´ u asocia a dicha matriz. Definici´n o La definici´n de determinante de una matriz cuadrada ser´ dada de o a manera inductiva en el n´mero de filas (o de columnas). daremos la u definici´n de determinante de una matriz n × n a partir del conocimiento o de los determinantes de matrices (n − 1) × (n − 1). es por tanto una funci´n del conjunto de las matrices o cuadradas en el conjunto num´rico al que pertenecen los elementos de las e matrices. ´ u 3. o M´s adelante se ver´ que podemos hablar del determinante de una transa a formaci´n lineal entre espacios vectoriales. hasta extenderse a definiciones m´s generales que la que nosotros daremos en este a curso (funci´n multilineal alternada). O sea. u a pero se puede dar sobre conjuntos “num´ricos” m´s generales.

Si A =  −1 2 7 .1.96 3. . se define la matriz adjunta del elemento aij como la submatriz Aij de la matriz A que se obtiene eliminado la fila i y la columna j de A   3 −4 −3   EJEMPLO 3. Si la matriz cuadrada A es de tama˜o n. (a) Calculemos el determinante de la matriz A = |A| = (3) (2) − (7) (2) = −8 3 1 7 2 . las matrin n ces adjuntas Aij son de tama˜o (n − 1) × (n − 1) . ¸ u ´ DEFINICION 3. . ´ DEFINICION 3. la matriz adjunta del elemen−2 4 0 to a21 = −1.1. en general no escribiremos los par´ntesis con los que en e general encerramos el cuadrado” de los n´meros. .1. + (−1)n+1 an1 |An1 | def EJEMPLO 3.2. El determinante de la u a b def matriz 2 × 2. . (Inductiva en el tama˜ o de la matriz) El den terminante de una matriz 1 × 1 es el propio n´mero. obteni´ndose la matriz adjunta A21 = 4 0 × 4 0 ´ OBSERVACION 3. se  obtiene eliminando la fila 2 y la columna 1 de A:  × −4 −3 −4 −3   e  × × ×  . A = es el n´mero |A| = ad − bc u c d El determinante de una matriz A n × n se define como el n´mero u |A| = (−1)1+1 a11 |A11 | + . Sea A = ((aij )) una matriz n × n. DETERMINANTES por sus coeficientes. + (−1)i+1 ai1 |Ai1 | + .2.

Linealidad (respecto a una fila) . 0.3. Verificar que respectivamente.2. los determinantes tres por tres valen 6. PROPIEDADES DE LOS DETERMINANTES 97  3 −4 −3   (b) Calculemos el determinante de la matriz A =  −1 2 7  −2 4 0 |A| = (−1)1+1 a11 |A11 | + (−1)2+1 a21 |A21 | + (−1)3+1 a31 |A31 | = = 3 2 7 4 0 − (−1) −4 −3 4 0 + (−2) −4 −3 2 7  =  = 3 (−28) + (−12) + (−2) (−22) = −52   (c) Calculemos el determinante de la matriz A =   |A| = (−1)1+1 a11 |A11 | + (−1)2+1 a21 |A21 | + 2 −4 −1 2 1 1 1 −2 0 0  2 0 1 1 2 2 −4 −1    −3 1 1 1  2 −2 0 0 + (−1)3+1 a31 |A31 | + (−1)4+1 a41 |A41 | = 0 1 1 −2 1 1 1 + −2 0 0 0 1 1 − 2 2 −4 −1 1 1 1 0 1 1 + (−3) 2 −4 −1 −2 0 0 Ahora bien. los determinantes de tama˜o 3 × 3 se calculan del mismo modo n que en (b). Propiedades de los determinantes 1. −6.2. 3 por lo cual |A| = 2 (6) − 3 (−6) − 2 (3) = 24 3.

. . ··· . . ain + bin .18) + (−1)i+1 (ai1 + bi1 ) |Ci1 | + . . ··· a1n . + (−1)n+1 an1 |Cn1 | . . DETERMINANTES a) Aditividad (respecto a una fila) a11 . . ann a11 . bin . ann = |C| = ··· ai1 + bi1 ai2 + bi2 · · · . . . ai2 . . En efecto |C| = (−1)1+1 a11 |C11 | + . bi2 · · · . . . . . . . an1 an2 a11 . a12 · · · . . ··· ··· ··· . . . . . . . ··· a1n . = ai1 . . . Por un lado |C| = a12 a11 a21 + b21 a22 + b22 y por otro |A|+|B| = a11 a12 a11 a12 + a21 a22 b21 b22 = (a11 a22 − a12 a21 )+(a11 b22 − a12 b21 ) = a11 a22 + a11 b22 − a12 a21 − a12 b21 Con lo cual |C| = |A| + |B| . . + bi1 . . Hip´tesis inductiva: La propiedad es v´lida para matrices de o a orden menor que n Tesis inductiva: La propiedad es v´lida para matrices de orden a n. ann = |A| + |B| an1 an2 · · · an1 an2 · · · ´ Demostracion. .. a12 . a1n . . . . . . . .98 3. . . . . . . . . . ain .. Por inducci´n completa o Para n = 2. a12 .. + def (3. . .

. . .. ak−12 ak+12 . . . .. . . + (−1)n+1 an1 |Bn1 | . + (−1)i+1 ai1 |Ci1 | + . .. . . + (−1)i+1 (ai1 + bi1 ) |Ci1 | + . . . .. ann |Ck1 | = = ai2 + bi2 · · · . ann a12 . . como la matriz Ck1 es de orden n − 1. . . . . an2 ··· ··· ··· ··· . . ain . .. . . . . . . . . .2. . . ann ··· = + = |Ak1 | + |Bk1 | . . . ak−1n ak+1n . . ain + bin . . . . an2 a12 . = (−1)1+1 a11 |A11 | + . bin . . por la hip´tesis inductiva se tiene que o a12 . . . ak−12 ak+12 . ··· . . + (−1)n+1 an1 [|An1 | + |Bn1 |] + (−1)1+1 a11 |B11 | + .18) se tiene que |C| = (−1)1+1 a11 [|A11 | + |B11 |] + . .. .3. ak−1n ak+1n . . luego si sustituimos en (3. ··· a1n . + (−1)i+1 bi1 |Ci1 | + . bi2 . ak−12 ak+12 . ··· a1n . ai2 . . . . . an2 ··· ··· ··· ··· . . . . ak−1n ak+1n . . ··· ··· ··· ··· . . + (−1)n+1 an1 |An1 | + . . a1n . PROPIEDADES DE LOS DETERMINANTES 99 Observemos que si k = i. . . ··· .

. . . . . an2 ··· ··· ··· ··· . . ai2 · · · . . No es cierto que |A + B| = |A| + |B| |A| = 1 3 4 2 = −10. . a12 · · · . . a1n . + (−1)i+1 bi1 |Bi1 | + . ai−1n ai+1n . . |B| = 3 3 4 4 1 0 0 2 = 2 pero |A + B| = = 0 = −7 = |A| + |B| . . . αain . . ann = α |A| αai1 αai2 . . . . . ain .2. ··· a1n . . . ai1 . ··· . . .. + (−1)n+1 an1 |An1 | + + (−1)1+1 a11 |B11 | + . . DETERMINANTES a12 . . a1n . Pero como |Ci1 | = ai−12 ai+12 . . . b) Homogeneidad (respecto a una fila) Si B es una matriz que se obtiene de A multiplicando una de sus filas por un n´mero α entonces u a11 .. . . . . . |B| = a12 . . . .100 3. an1 an2 · · · an1 an2 · · · . . + (−1)i+1 ai1 |Ai1 | + . ··· ··· ··· . . . . .. . ann = |Ai1 | = |Bi1 | resulta que |C| = (−1)1+1 a11 |A11 | + . . . . . . ann =α a11 . + (−1)n+1 an1 |Bn1 | = |A| + |B| ´ OBSERVACION 3.

··· . . an2 ··· ··· ··· ··· . . . En efecto (3. . como la matriz Ck1 es de orden n − 1. . . ann a12 ... ak−1n ak+1n . . an2 ··· ··· ··· ··· . ··· a1n . Por un lado |B| = a11 a12 αa21 αa22 = a11 αa22 − a12 αa21 = a11 a12 a21 a22 = α |A| = α (a11 a22 − a12 a21 ) = α Hip´tesis inductiva: La propiedad es v´lida para matrices de o a orden menor que n Tesis inductiva: La propiedad es v´lida para matrices de orden a n. . . ak−12 ak+12 . . ··· a1n .19) |B| = (−1)1+1 a11 |B11 | + . . . ain .2. . ak−1n ak+1n . . . . PROPIEDADES DE LOS DETERMINANTES 101 ´ Demostracion. . . . . ai2 . . . . . . . + def + (−1)i+1 αai1 |Bi1 | + . . αai2 . .3. . . . por la hip´tesis inductiva se tiene que o a12 .. ann |Bk1 | = = α |Ak1 | . + (−1)n+1 an1 |Bn1 | Observemos que si k = i. . ak−12 ak+12 =α . Por inducci´n completa o Para n = 2.. ··· . αain .

19) se tiene que |B| = (−1)1+1 a11 α |A11 | + .. . . . . . ··· ··· . + (−1)n+1 an1 α |An1 | + (−1)n+1 an1 |An1 | = α |A| = α (−1)1+1 a11 |A11 | + . a11 a21 . . a1n αa2n . α . + (−1)i+1 ai1 |Ai1 | + . . . . . . . y que |Bi1 | = ai−12 ai+12 . . . En efecto αa11 αa21 . DETERMINANTES a12 . . . .3. Se deduce de la propiedad anterior que |αA| = αn |A| . . αann a11 αa21 =α . a12 a22 . . . αann a1n a2n . an2 ··· ··· ··· ··· . . . . ··· a1n . ··· ··· .102 3. .. . . αann a1n a2n . αa12 αa22 . . . + COROLARIO 3. . . . . . . . a12 a22 . + + (−1)i+1 αai1 |Ai1 | + . ann = |Ai1 | luego si sustituimos en (3. . . ··· ··· . = αan1 αan2 · · · an1 an2 · · · .. a12 αa22 . . .. αa1n αa2n . . ai−1n ai+1n . ann = αn |A| |αA| = = αan1 αan2 · · · = αα αan1 αan2 · · · a11 a21 = αα . . ´ Demostracion.. ··· ··· . . . . . . .

..3.. .  . ain .  ai+1n    ain   . .  . . |B| = aj1 . aj2 . . . . Intercambio de filas Si B es la matriz que se obtiene de A intercambiando dos de sus filas entonces a11 . a12 . ann a12 a11  . an1 an2 · · · an1 an2 · · · ´ Demostracion. . Por inducci´n completa o a21 a22 = a12 a21 − a11 a22 . . . . . ann = − |A| ··· .  .  . . ann =− a11 . . an2 an1  ··· ··· ··· ··· . . . ··· . .  . . ai1 .2.  . . Por un lado |B| = a11 a12 a11 a12 = (a11 a22 − a12 a21 ) . aj1 . ai2 . . . ajn . . ajn . . . .  ain    ai+1n   .  .  .  . .  . . . a1n ..  .  a ai2  i1 A=  ai+11 ai+12  . PROPIEDADES DE LOS DETERMINANTES 103 2. aj2 · · · . ··· ··· ··· ··· ··· . . ai2 . ain . . . . an2 an1  ··· ··· ··· ··· . .  . Para n = 2. ai1 . ··· . . . ···  a1n . . ···  a1n . . . a12 · · · .  . . . . .  a  i+11 ai+12 B=  ai1 ai2  . .  . Hip´tesis inductiva: La propiedad es v´lida para matrices de orden o a menor que n a Tesis inductiva: La propiedad es v´lida para matrices de orden n Primer caso: La matriz B se ha obtenido de A intercambiando las filas consecutivas i e i + 1 y por otro |A| = a11 a12  . . . a21 a22 As´ ı |B| = − |A| . . . .  . . . ann y . .  . a1n .

 .  . . + (−1)i+1 ai+11 |Bi1 | + (−1)i+2 ai1 |Bi+11 | . . . .  . . . . por lo cual. . DETERMINANTES Por la definici´n. ann . se tiene que Bk1 es una matriz de orden n−1 con dos filas intercambiadas respecto de A. por la hip´tesis o inductiva |Bk1 | = − |Ak1 | .  ←− Fila i ai+1n   ain  ←− Fila i + 1  . an1 an2  ··· ··· ··· ··· . . . por lo cual |Bi1 | = |Ai+11 | .  . . . .  a  i+11 ai+12 Pero siendo B =   ai1 ai2  . . . |Bi+11 | = |Ai1 | y si k = i y k = i+1. + (−1)i+1 ai+11 |Ai+11 | + (−1)i+2 ai1 |Ai1 | + .20) |B| = (−1)1+1 a11 [− |A11 |] + .104 3. . a1n . . .  . se tiene que o (3. .  . . .  . + (−1)n+1 an1 [− |An1 |] Pero (−1)i+1 ai+11 |Ai+11 | = (−1)i+1 (−1)2 ai+11 |Ai+11 | = = (−1)i+1 (−1) ai1 |Ai1 | = (−1)i+1 ai1 [− |Ai1 |] = (−1)i+1 (−1) ai+11 (−1) |Ai+11 | = (−1)i+2 ai+11 [− |Ai+11 |] = .  . . se tiene que Bi1 = Ai+11 y Bi+11 = Ai1 .  . . .20) |B| = (−1)1+1 a11 |B11 | + . + (−1)n+1 an1 |Bn1 | a11 a12  .. Sustituimos en (3. ···  .

. .. .  . PROPIEDADES DE LOS DETERMINANTES 105 con lo cual |B| = (−1)1+1 a11 [− |A11 |] + . .  . ann  . ak+1n . .  . .    ak+11 ak+12  . . . + (−1)i+2 ai+11 |Ai+11 | + + (−1)i+1 ai1 [− |Ai1 |] + . La matriz B se puede obtener de A realizando varios cambios de filas consecutivas. . .  . + (−1)n+1 an1 − |An1 |] = − |A| Segundo caso La matriz B se ha obtenido de A intercambiando las filas i y j = k+1. . . . . ain ai+1n ai+2n . + (−1)n+1 an1 [− |An1 |] + (−1)i+1 ai1 |Ai1 | + . .  . fila i de A fila i + 1 de A fila i + 2 de A fila i + k de A cambio de la fila i por la i + 1 de A −→ .   ←−   .  . .  .   ←−   ←−   ←−   . . . .2. .  . En primer lugar realizamos k cambios consecutivos de la fila i de A hasta colocarla en la fila j = i + k. . . .   ai2  ai1   ai+11 ai+12   A =  ai+21 ai+22  . . . . . . . ··· a1n .  . .  an1 an2  ··· ··· ··· ··· ··· ··· . . a11 a12  . + (−1)i+2 ai+11 [− |Ai+11 |] + = −[(−1)1+1 a11 |A11 | + .3. . .

. .  .  . .  . .  .  ai+1n  ←−  ain  ←−  ai+2n  ←−  . . .   aj1 aj2  . . .  ..  . . . ann . . . .  .  . ···  .  . .  . . .  .  .    ai+11 ai+12   ai1 ai2   a A1 =  i+21 ai+22  . . . . .  .  .  . fila i de A2 fila i + 1 de A2 fila i + 2 de A2 fila i + k de A2 −→ · · · −→ · · · −→ .  .106 3. .  . . . a1n . . . .  . . ···  . .  . . . . a1n . . . .  ajn  ←−  .  .  . .  ai+1n  ←−  ai+2n  ←−  ain  ←−  . .  . fila i de A1 fila i + 1 de A1 fila i + 2 de A1 fila i + k de A1 cambio de la fila i + 1 por la i + 2 de A1 −→ a11 a12  . . . . . an1 an2  ··· ··· ··· ··· ··· ··· ··· .  ajn  ←−  .  . ann .  .  . .   aj1 aj2  . DETERMINANTES a11 a12  .  . .. an1 an2  ··· ··· ··· ··· ··· ··· ··· . .   ai+11 ai+12   ai+21 ai+22   ai2 A2 =  ai1  .  .

|Ak | = − |Ak−1 | . .    ai+11 ai+12   ai+21 ai+22   . por la primer parte.  . .  .  . ain  ←−   ai+kn  ←−  . . .  a ai2 i1    ai+k1 ai+k2  .  .  . .  . .  . .. . . . se tiene que |A1 | = − |A| |A2 | = − |A1 | .  . . . . . . . . ···  . . . . ···  . Ak =  . .2.   a  i+k1 ai+k2   ai1 ai2  .   ai+11 ai+12   ai+21 ai+22   . . fila i de Ak fila i + 1 de Ak fila i + k − 1 de Ak fila i + k de Ak Como los k cambios de filas son consecutivos. an1 an2  ··· ··· ··· ··· ··· ··· ··· .  ai+1n  ←−  ai+2n  ←−  .  .3. . . .  . = .  .  . a1n  . . PROPIEDADES DE LOS DETERMINANTES 107 Ak−1 a11 a12  .  .  . . . .  . . .  .  . .  .  .  .  . ai+kn  ←−   ain  ←−  .  . . an1 an2  ··· ··· ··· ··· ··· ··· ··· . . . . . . . . .  . . ann .  ai+1n  ←−  ai+2n  ←−  . a1n . . . fila i de Ak−1 fila i + 1 de Ak−1 fila i + k − 1 de Ak−1 fila i + k de Ak−1 cambio de la fila i + k − 1 por la i + k de Ak−1 −→ a11 a12  . .. ann . . .

. . . . . 3. 1 . . a12 · · · . . . . ··· . . . . . . . . . . . (repetimos el procedimiento ”hacia arriba”) realizamos k − 1 cambios consecutivos de la fila i + k − 1 de AK hasta colocarla en la fila i. . a12 .. −1 · · · . . an2 · · · an1 a11 . .. . . . . a12 . . . . . a1n . En efecto a11 .. . . ··· ··· ··· .108 3. . .. 1 . ··· . 1 . . . . . . . Determinantes nulos a) Si A tiene una fila de ceros entonces |A| = 0 ´ Demostracion. . . 1 . . 1−1 . 1 .. . . a1n . a12 . −1 . . . = 1 . . ann a1n . . obteni´ndose la matriz B y se cumple. ··· ··· ··· . ann an1 an2 · · · ··· 1 − 1 1 − 1 ··· . . a12 · · · . ann a1n . . ann = an1 an2 · · · an1 an2 · · · =0 an1 an2 · · · an1 an2 · · · b) Si A tiene dos filas iguales entonces |A| = 0 . |A| = 0 . 1 . . . a12 . aplicando e ´ la primer parte |B| = (−1)k−1 |Ak | De las dos ultimas igualdades se 2k−1 deduce |B| = (−1) |A| = − |A| . a11 . ann a1n . . 0 . . . . . . . . 0 . . . . = 1 . . ann − + = a11 . . . a11 . 1 ··· . . . a11 . DETERMINANTES Con lo cual |Ak | = (−1)k |A| . . . ··· a1n . . . . . ··· ··· ··· .. En segundo lugar. −1 . . . . . .

. . ai2 . Sin p´rdida de generalidad. . ann =− a11 . . . ai1 . . . ai2 . ai1 . . ··· ··· ··· ··· ··· . . . ann = − |A| an1 an2 · · · an1 an2 · · · As´ 2 |A| = 0 ⇒ |A| = 0 ı c) Si A tiene dos filas proporcionales entonces |A| = 0 ´ Demostracion. . ain . supongamos que la ultima fila es combinaci´n lineal o ´ o . . . a12 . . ai1 .. ··· . . PROPIEDADES DE LOS DETERMINANTES 109 ´ Demostracion. si se intercambian dos filas. ai2 . ann =0 αai1 αai2 . . . .. . ain . a12 · · · . . . . .3. ain . . . con lo cual a11 . . . a1n . αain . para simplificar e la notaci´n. . . . . . . ai2 · · · . . ai1 . an1 an2 · · · ··· . En efecto.. . ann =α a11 . . an1 an2 · · · d) Si A tiene una fila combinaci´n lineal de las otras filas entonces o |A| = 0 ´ Demostracion. . ain . . . . . a12 . ai2 . . ain . . . . . . . a1n . a1n . . . . sabemos que el determinante cambia de signo. . . . . . |A| = ai1 . . . . . . En efecto a11 . . . .. a12 . ain . . . ··· ··· ··· ··· ··· . a1n . . ai2 . . ··· ··· ··· ··· ··· . . ··· . . ain . . . ai2 . ai1 . . .2. . |A| = ai1 .

. . a1n . . ain =0 = = i=1 an−11 an−12 · · · . . . a12 . . . Aplicando la propiedad de linealidadad a11 . . . . ··· . . . . .. . DETERMINANTES de las anteriores. . .110 3. an−1n . ai1 ai2 ··· (pues los determinantes tienen dos filas iguales) 4. i=n−1 a12 . |A| = an−11 . . .. i=n−1 i=1 ··· . i=n−1 = αi ai1 i=1 αi ai2 · · · αi ain i=1 i=n−1 a11 . . . . . ··· . . a1n . . αi ai1 αi ai2 · · · a11 . . . . . i=n−1 = i=1 αi an−11 an−12 · · · . . . . .. . .. . an−1n . . .. an−12 . . ··· . . αi ain a1n . . . . a12 . . . . Combinaci´n lineal de filas o a) Si B es una matriz que se obtiene de A sumado a una fila de A un m´ltiplo de otra fila de A entonces |B| = |A| u . an−1n . .

. . . .entonces o |B| = β |A| . ··· . aj2 . . . ··· ··· ··· ··· ··· . . ain . . . ann ··· ··· ··· ··· ··· . . . . . a11 . . . . . . a12 · · · . . . . aj1 . . . . . . αain . . PROPIEDADES DE LOS DETERMINANTES 111 ´ Demostracion. . . . ann a1n . . .. ain . an1 an2 · · · a11 . . ann + a11 . . . ai2 . . . ··· . a1n . . . . . . . ai2 · · · . . . . ··· .. ajn + αain . . . . . . . . ai1 .3. an1 an2 · · · αai1 αai2 . . a12 . . an1 an2 a1n . . ai2 . ann = |A| = = aj1 + αai1 aj2 + αai2 .. . ain . ai2 · · · . ai1 . . . . a12 · · · . . . . . En efecto a11 . = ai1 . an1 an2 · · · b) Si B es una matriz que se obtiene de A cambiando la fila Aj por la combinaci´n lineal βAj + αAi con β = 0 (i = j).. . |B| = ai1 . ··· . . ai2 . . ··· . . = ai1 . . . . . . ajn . . ··· . ain .2. ··· a12 . ain . a1n .

. an1 an2 · · · a11 . .. . . ann = βaj1 βaj2 . . . . βajn + αain . . ann + a11 . .. . . . . ai2 .112 3. . . . . . . . an1 an2 a11 . βajn . . . . ··· ··· ··· ··· ··· . . . =β ai1 . En efecto a11 . . . ··· ··· ··· ··· ··· . ai1 . . . = β |A| an1 an2 · · · . . . ann = βaj1 + αai1 βaj2 + αai2 . ajn . . . . . . a1n . ain . aj2 . ann a1n . . ai2 . . . . . a1n . . . ··· ··· ··· ··· ··· . . a12 . . . ai1 . a12 . . aj1 . . . . an1 an2 · · · αai1 αai2 . ain . . . . . . . ··· a1n . αain .. ai2 . . . . . ain . . . . . . . . a12 . . . . ain .. . = ai1 . a12 . DETERMINANTES ´ Demostracion. . . . ai2 . ··· ··· ··· ··· ··· . . . . . .

.3. + (−1)i+1 ai1 |Ai1 | + . 0 0 · · · ann de la diagonal principal). . . . . .  . . . .3.  .2. 1 −2 3 −3 0 1 5 0 10 −5 (A) = − 3 −6 9 0 1 5 2 6 1 (B) 1 −2 3 = −3 0 1 5 2 6 1 (C) = = 1 −2 3 1 −2 3 (E) = − (3) (5) 0 1 − (3) (5) 0 1 5 5 0 0 −11 0 2 −1 − (3) (5) (−11) = 165 (A) Se intercambian las filas 1 y 2 (B) La fila 1 es m´ltiplo de 3 u (C) A la fila 3 se le rest´ 2 veces la fila 1 o (D) La fila 3 es m´ltiplo de 5 u (E) A la fila 3 se le rest´ 2 veces la fila 2 o = − (3) (5) 1 5 0 −11 = NOTAS: 1) Desarrollo por cualquier fila o columna El determinante se ha definido usando los elementos de la primer columna de la matriz A con sus respectivas matrices adjuntas |A| = (−1)1+1 a11 |A11 | + . + (−1)n+1 an1 |An1 | (desarrollo por la primera columna) def . PROPIEDADES DE LOS DETERMINANTES 113 a11 a12 · · · a1n   0 a22 · · · a2n Ejercicio Probar que si A =  . entonces |A| = a11 a22 .. ann 0 1 5 3 −6 9 2 6 1 (D)      (ceros por debajo   EJEMPLO 3. . . . . .

1. DETERMINANTES Pero se puede probar 1 que dicha definici´n coincide con cualquier desarrollo o por cualquier columna o fila de A: |A| = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + . + (−1)i+n ani |Ani | (desarrollo por la i − ´sima columna) e 2) Propiedades ”por columnas” Tambi´n se puede probar que e |A| = At con lo cual en todas las propiedades anteriores se puede cambiar la palabra ”fila” por ”columna”. .3. .114 3. es decir que las propiedades valen para las columnas 3.17) que est´ asociada a la operaci´n elemental e3 a o “sumarle a fila i un m´ltiplo de la fila j” tiene determinante u |E3 | = |I| = 1 Es engorroso y no lo haremos aqu´ pero el lector puede consultar por ejemplo (Teoı rema 3 y 5 pag 87 del texto Algebra y geometr´ de E.La matriz E1 (ver 2.4.15) que est´ asociada a la operaci´n a o elemental e1 ”multiplicar la fila i por la constante α = 0” tiene determiante |E1 | = α |I| = α = 0 pues E1 se obtiene de la matriz identidad I aplicando dicha propiedad a o 2.La matriz E3 (ver 2. Hernandez) ıa 1 def def . .La matriz E2 (ver 2.16) que est´ asociada a la operaci´n elemental e2 ”intercambiar la fila i por la fila j” tiene determinante |E2 | = − |I| = −1 pues E2 se obtiene de la matriz identidad I aplicando dicha propiedad 3. Matrices elementales y determinantes ´ PROPOSICION 3. Toda matriz elemental tiene determinante no nulo ´ Demostracion. + (−1)i+n ain |Ain | (desarrollo por la i − ´sima fila) e |A| = (−1)i+1 a1i |A1i | + (−1)i+2 a2i |A2i | + . .

23) al sustituir (3.25) en (3.26) .16) Por la Proposici´n 3.25) |B| = − |A| |E2 A| = |B| |E1 A| = |E1 | |A| y por la Proposici´n 2.26) al sustituir (3. con lo cual o (3. por las proo piedades de determinantes (3.4 o (3.23 se cumple que E2 A = B.24) y (3.22) en (3. con lo cual o (3. ´ PROPOSICION 3.22) |B| = α |A| |E1 A| = |B| |E1 A| = |E1 | |A| 2.Sea E2 la matriz que est´ asociada a la operaci´n elemental e2 ”ina o tercambiar la fila i por la fila j” (ver 2.23) Si B es la matriz que se obtiene al aplicar la operaci´n e2 .4 o (3.24) |E2 | = − |I| = −1 y por la Proposici´n 2. 1.3.23 se cumple que E1 A = B.5. Si A es una matriz n × n y E una matriz elemental n × n se cumple que |EA| = |E| |A| ´ Demostracion.3. MATRICES ELEMENTALES Y DETERMINANTES 115 pues E3 se obtiene de la matriz identidad I aplicando dicha propiedad.21) |E1 | = α |I| = α Si B es la matriz que se obtiene al aplicar la operaci´n e1 .21) y (3. por las proo piedades de determinantes (3.15) Por la Proposici´n 3.Sea E1 la matriz que est´ asociada a la operaci´n elea o mental ”multiplicar la fila i por la constante α = 0” (ver 2.

( es decir que aplicamos o una sucesi´n de operaciones elementales) obtenemos la matriz B (forma o escalerizada de A) operaci´n e1 o −→ operaci´n ek o −→ y por la Proposici´n 2. .23 se cumple que E3 A = B.17) u Por la Proposici´n 3. Matrices invertibles y determinantes Ya vimos que una matriz A n × n es invertible si y solo si rango(A) = n Veamos otra condici´n equivalente de invertibilidad o LEMA 3. E2 E1 A = B . se tiene que rango(A) < n Al aplicar el proceso de escalerizaci´n de Gauss.29) al sustituir (3.6. Si A no es invertible la forma escalerizada de A tiene por lo menos una fila de ceros ´ Demostracion.27) y (3. Como A no es invertible.28) en (3.27) |E3 | = |I| = 1 Si B es la matriz que se obtiene al aplicar la operaci´n e3 . . DETERMINANTES 3. con lo cual o (3.28) |B| = |A| |E3 A| = |B| |E1 A| = |E1 | |A| pues E3 se obtiene de la matriz identidad I aplicando dicha propiedad.Sea E3 la matriz que est´ asociada a la operaci´n elemental e3 ”sua o marle a fila i un m´ltiplo de la fila j” (ver 2.116 3. por las proo piedades de determinantes (3.29) A Es decir que ······ B Ek .4. .4 o (3. 3.

Si A y B son matrices n × n se cumple que |AB| = |A| |B| . TEOREMA 3. es decir que B tiene por lo menos una fila de ceros.7. . por la proposici´n 3. A puede puede factorizarse como un producto de matrices elementales A = E1 E2 . existe una sucesi´n de matrices elementales tales que o Ek . por absurdo. Si B es la forma escalerizada de A. que A no es invertible. (⇒) Si A es invertible. A es invertible ⇔ |A| = 0 ´ Demostracion.5. Sea A una matriz cuadrada de orden n × n. Ek B Como rango(A) = “cantidad de escalones no nulos de B” Concluimos que “cantidad de escalones no nulos de B”< n. . .8 (Binet-Cauchy). por el corolario 2. con lo cual |A| = 0 o (⇐) Supongamos.6 B tiene por lo menos una fila de ceros). Ek Luego. concluimos que |A| = 0. . . . lo cual contradice nuestra hip´tesis o 3. Determinante de un producto de matrices TEOREMA 3. |Ek | por la proposici´n 3.3. .4 |Ei | = 0. DETERMINANTE DE UN PRODUCTO DE MATRICES 117 donde Ei es la matriz asociada a la operaci´n elemental ei y por lo tanto o −1 −1 −1 A = E1 E2 . . .5. . . Ek | = |E1 | |E2 | .27.5 o |A| = |E1 E2 . E2 E1 A = B Pero como |Ei | = 0 y |B| = 0 (pues por el Lema 3.

si A′ es la forma escalerizada de A.27 A = E1 E2 . E2 E1 A = A′ es decir que −1 −1 −1 A = E1 E2 .118 3. . Ek A′ B |AB| = E1 Pero por el Lema 3. Ek con Ei matriz elemental |AB| = |(E1 E2 . . Ek ) B| y aplicando la proposici´n 3. |Ek | |B| = |E1 E2 . . Ek | |B| = |A| |B| . . . por el corolario 2. . . . . . Ek A′ Luego −1 −1 −1 |AB| = E1 E2 . .6. . A′ tiene una fila de ceros. . Ek A′ B y aplicando la proposici´n 3. con lo cual |A′ B| = e o 0 ⇒ |AB| = 0 Hemos probado que |AB| = |A| |B| = 0 Segundo caso A es invertible Si A es invertible. . . y por lo tanto A′ B tambi´n (por la definici´n del producto de matrices).5 o |AB| = |E1 | |E2 | .5 o −1 −1 −1 E2 . DETERMINANTES ´ Demostracion. . Primer caso A no es invertible Si A no es invertible ⇒ |A| = 0 ⇒ |A| |B| = 0 Por otro lado. . existe una sucesi´n de o matrices elementales tales que Ek . .

Si [cof (A)]t es la matriz transpuesta de la matriz de cofactores de A. . .6. . . .  .31) |A| = ai1 ci1 + ai2 ci2 + . . . . . . . . . .  . cnn       se le llama matriz de cofactores de A ´ Demostracion. . .. . |A| 1. 0    0 |A| .  .   . . [cof (A)] =  .. . . .. . CALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 119 3. cnn   |A| 0 .  . c1n c2n . . . . . . + aij cij + . . . . . Si A [cof (A)]t = ((dii )) queremos probar que: LEMA 3. . . + + (−1)i+j aij |Aij | + . cn1 cn2 . . . . . C´lculo de la matriz inversa por determinantes a El desarrollo del determinante de la matriz A = ((aij )) por su i-esima fila es (3. .9. .30) de la siguiente manera (3. . + ain cin   A la matriz cof (A) =    def  c11 c21 .  . cn1    c12 c22 . . Los elementos de la diagonal de la matriz A [cof (A)]t son todos iguales a |A|. . esto es dii = |A| .´ 3. 0  t se cumple que A [cof (A)] =  .30) |A| = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + . cn2  t  . c2n . c12 c22 . + (−1)i+n ain |Ain | El n´mero cij = (−1)i+j |Aij | se denomina cofactor del elemento aij u de la matriz A. .  . c1n . Por lo tanto podemos reescribir el desarrollo (3. . . 0 0 . .6. . esto es   c11 c21 . . .

 . . .  . . . .. . . . . .  . . . ..  . . . .. . . . + aik cjk + .....   . cjn . . .  . . .  . . ..  .. . . .... + ain cjn . . .. . ci1 . . . . . .. . .. . . . + aij cij + . . . . . . .. . .. . + ain cin . . .. .. .. Para ello calculamos el elemento dii de la matriz A [cof (A)]t   .. . .  . cj2 ..... . . . . . . . . . . . ... . . .. . . . . . .. . . ci2 . .    ..120 3.  . .  ain   →  . . . . . ain . . DETERMINANTES 2. . . . .  . . esto es dij = 0 (i = j) Probemos 1. .. . + aij cij + .. .. . . . . Probemos 2. Por otro lado consideremos la matriz B que se obtiene de A cambiando la .. . . Los elementos que no son de la diagonal de la matriz A [cof (A)]t son todos nulos.. . . ↓ .  . .. . .  . .. . . .  . .... .   .. .                    Por lo tanto dij = ai1 cj1 + ai2 cj2 + . . . . .  .. .. ... . . ... .. . . . ↓ . . . . .. . ↓ . . . . . . ... ... . ...  . . . .. Por lo tanto dii = ai1 ci1 + ai2 ci2 + .   ai1 ai2   . .  . .. . . .. . . . . cj1 . pero por (3. .  . cin . + ain cin .31) |A| = ai1 ci1 + ai2 ci2 + .  .  .  . .. . . .. . Calculamos el elemento dij de la matriz A [cof (A)]t        . ..    . .. con lo cual dii = |A| . .. . . .. .    . . .  ..  . . . .. .. .. . ..   ai1 ai2   .. .. . .  .. . .  . . .. . .. . . . → → → dij .  . . . . .. . .   .. . .  . . .... . . . . ↓ → dii . .  .. . .  .

. . + + (−1)j+k aik |Ajk | + . . Si A es invertible.  . . . . + (−1)j+n ain |Ajn | pero cjk = (−1)j+k |Ajk |.  . . . ai2 . ··· ··· ··· ··· ··· .  .  a  i1  .. . .  . .10. resulta que |B| = (−1)j+1 ai1 |Aj1 | + (−1)j+2 ai2 |Aj2 | + . se tiene que A−1 = 1 [cof (A)]t |A| ´ Demostracion.  a12 .  .  . .. ai2 . CALCULO DE LA MATRIZ INVERSA POR DETERMINANTES 121 fila j por la fila i: a11  . Por el lema anterior .   ai1   . B= . . ··· ann an1 an2 · · · Si calculamos el determinante de B desarrollando por la j-esima fila se tiene que |B| = (−1)j+1 bj1 |Bj1 | + (−1)j+2 bj2 |Bj2 | + . Esto prueba que |B| = dij . .  a1n ··· . . por lo cual |B| = ai1 cj1 + ai2 cj2 + . .  ··· . . + ain cjn .´ 3. . ´ PROPOSICION 3.  .  .   ←− fila j ain   . + aik cjk + . .6.  . se prueba lo deseado.  ··· ain  ←− fila i  . + + (−1)j+k bjk |Bjk | + . . + (−1)j+n bjn |Bjn | pero como bjk = aik y Bjk = Ajk . Como |B| = 0 (pues tiene dos filas iguales). . .

0  0 1 . .  . . = −4 ⇒ c32 = 4. .   1 −1 2   La matriz A =  4 2 4  es invertible pues |A| = −34 . . y trabajando de la misma manera se obtienen −1 2 −1 2 |A21 | = = −1 ⇒ c21 = 1. |A|   A [cof (A)] =    t  |A| 0 . 0  . . |A31 | = 0 1 2 4 4 4 5 1 1 2 4 4 1 −1 5 0 = −16 ⇒ c12 = 16. ... . . . =⇒ c23 = −5. 0 0 . . .  |A22 | = |A13 | = |A33 | = 1 2 5 1 = −8 ⇒ c31 = −8. .. 0 . 0 0 .. |A|      = |A|         1 0 . . = 6 ⇒ c33 = 6  2 16 −10   Por lo tanto cof (A) =  1 −9 −5  con lo cual −8 4 6 .. 1 1 |A| A [cof (A)]t = I .  = |A| I  . . . 0 0 |A| . . . . .. . . . = −9 ⇒ c22 = −9. . .122 3. con lo cual esto es 1 A [cof (A)]t I.. |A12 | = |A32 | = |A23 | = 4 2 5 0 1 −1 4 2 = −10 ⇒ c13 = −10. calculemos 5 0 1 los cofactores  A de  × × × 2 4 2 4   ⇒ |A11 | = = 2 ⇒ c11 = 2  × 2 4  ⇒ A11 = 0 1 0 1 × 0 1 Siendo A invertible se tiene que |A| = 0. . DETERMINANTES 1 lo cual prueba que A−1 = |A| [cof (A)]t .

. .. . 2 . .  . .  . . Si |A| = 0 entonces el sistema Ax = b es compatible y determinado y su soluci´n (´nica) es o u xj = |Aj | |A| j = 1. . . . Regla de Cramer  1 − 34 9 34 5 34 4 17 2 − 17 3 − 17   . . cn1     . existe A−1 . xn Por lo tanto (3. . . . REGLA DE CRAMER 123 A−1   1 2 1 −8 − 17 1 1    8 = [cof (A)]t =  16 −9 4  =  − 17 |A| −34 5 −10 −5 6 17 3.7. 2 .  bn c1n c2n . .   . .11 (Cramer 1). . ⇔ c2j . xj . TEOREMA 3.7.  . . . + cnj bn ) |A| j = 1. xj . . cnj    =  c . . . por lo tanto Ax = b ⇔ x = A−1 b lo que prueba la existencia y la unicidad de la soluci´n o 1 x = A−1 b ⇔ x = [cof (A)]t b ⇔ |A|    c11 c21 . n              ⇔     x1 . Como |A| = 0. . .   . . . xn x1 .3. . . . . . .    cn b1 + c2n b2 + .    1     =  c b + c2j b2 + . cnn    c11 b1 + c21 b2 + . . + cnj bn    |A|  j 1 . + cn bn    .   |A|  1j . . + cn2 bn 1 (c1j b1 + c2j b2 + .    . . . . .32) xj = . n donde Aj es la matriz que se obtiene de A sustituyendo la columna j por b ´ Demostracion.   1      b2   .    . . b1 .  . . . .  . .    . .

. |A| −3 3 1 7 −1 2 6 1 1 −1 3 −3 1 2 7 2 1 6 1 −1 −1 −3 xj = |Aj | |A| Por otro lado si consideramos la matriz  a11 · · · b1   ai1 · · · b2 Aj =  . . y desarrollamos el determinante de Aj por la columna j se tiene que |Aj | = (−1)j+1 b1 |A1j | + (−1)j+2 b2 |A2j | + . .  .12 (Cramer 2). z= = 3 |A| =0 TEOREMA 3.124 3.32) se obtiene j = 1. . En este caso A =  2 1 1 yb= 6  1 −1 3 −1 Como |A| = −3 = 0 el sistema es compatible y determinado y sus soluciones son 7 2 −1 6 1 1 −1 −1 3 |A1 | 5 x= = = . . .  . + cnj bn Al sustituir en (3. . 2 . Vamos a resolver el sistema 2x + y + z = 6 usando   x − y + 3z = −1     1 2 −1 7     la regla de Cramer. + (−1)j+n bj |Anj | = c1j b1 + c2j b2 + .   x + 2y − z = 7  EJEMPLO 3. . Si |A| = 0 y existe j0 tal que |Aj0 | = 0 entonces el sistema Ax = b es incompatible . DETERMINANTES que se obtiene de A sustituyendo la columna j por b. . . . . ann       y= |A2 | = |A| = 8 |A3 | .4. . an1 · · · bn ··· ··· ··· ··· a1n ain . n. . .

Un error frecuente es decir que: Si |A| = 0 y |Aj | = 0 entonces el sistema Ax = b es indeterminado. pero el sistema es compatible e indeterminado. a Por lo tanto rango (A) < rango A y por el teorema de Rouch´ . ´ OBSERVACION 3. Por otro lado si A = ( A| b) es la matriz ampliada del sistema.13. sin embargo es evidente que el sistema es incompatible.   x+y+z =1  EJEMPLO 3. Mientras que para  sistema de ecuaciones el      1 1 1 1  x+y+z =1     e x + y + z = 1 se tiene que A =  1 1 1 . Como |A| = 0 se tiene que rango (A) < n.3. con lo cual n ≤ rango A .6. b =  1  y tambi´n   x+y+z =1 1 1 1 1 se cumple que |A| = |A1 | = |A2 | = |A3 | = 0. . Veamos ejemplos.5. por ser |Aj0 | = 0.Frobee nius el sistema Ax = b es incompatible.7. Para el sistema de ecuaciones x + y + z = 1 se tiene   x+y+z =0 que  1 1 1   A= 1 1 1  1 1 1   1   b= 1  0  Por lo tanto |A| = |A1 | = |A2 | = |A3 | = 0. REGLA DE CRAMER 125 EJEMPLO 3. como las columnas de Aj0 son tambi´n columnas de A se tiene que e rango A ≥ rango (Aj0 ) Adem´s rango (Aj0 ) = n.

126 3. DETERMINANTES .

Por otro lado.) llamadas “vectoriales”. Introducci´n o El prop´sito del presente cap´ o ıtulo -y del cap´ ıtulo denominado Producto Escalar y Vectorial. temperatura.) porque las ultimas quedan determinadas por un unico dato num´rico. Estas se distinguen o claramente de otras llamadas “escalares” (masa. a Estas teor´ se refieren a los acontecimientos m´s o menos directamente ıas a percibidos por los seres humanos. En un sentido muy vago y deliberadamente informal entendemos por tal al modelo espacial en que transcurren la mayor´ de los ıa fen´menos analizados por la Mec´nica y otras teor´ cient´ o a ıas ıficas Cl´sicas. como recordar´. o sentido y congruentes (dos figuras son congruentes si se corresponden por una isometr´ ıa). est´n ıa a a determinadas por vectores. etc. “direca o o ci´n” y “sentido”. etc. Esta presentaci´n incluir´ la formalizaci´n del concepto de vector que el o a o lector conoce de sus cursos de Nivel Secundario. aceleraci´n. Las magnitudes vectoriales se representan adem´s gr´fio a a camente mediante una “flecha” y a pesar de las diferencias que ya marcamos con los “escalares” tienen algo en com´n: con ambos se realizan operaciones. en los cursos de Geometr´ ha trabajado con las traslaciones que.CAP´ ıTULO 4 RECTAS Y PLANOS EN EL ESPACIO 4. velocidad. Por un lado.es dar una presentaci´n sucinta de la Geometr´ Anal´ o ıa ıtica del Espacio. que permita trabajar matem´ticamente con los objetos del a espacio ambiente. en cambio las ´ ´ e primeras requieren m´s informaci´n para caracterizarlas: “m´dulo”.1. En general el vector se define en esos cursos como una clase de equivalencia de segmentos orientados con la misma direcci´n. u 127 . en F´ ısica ha trabajado con ciertas “magnitudes” (fuerza.

de este modo la “suma de vectores” e cobra sentido. Para poder hacerlos se debe estudiar con cuidado los ejemplos sencillos tratando de destacar estas propiedades. Si F1 = F2 entonces Fr = 2F1 con lo cual tambi´n cobra sentido la multiplicaci´n de escalares por vectores.1). M´s adelante daremos una definici´n m´s a o a general y abstracta de vector perteneciente a un espacio vectorial con m´ltiples aplicaciones dentro y fuera de la matem´tica. RECTAS Y PLANOS EN EL ESPACIO F2 Fr F1 / Figura 1 Por ejemplo cuando se aplican dos fuerzas F1 y F2 sobre un mismo cuerpo el resultado es el mismo que si se aplicara una unica fuerza Fr con m´dulo. Este tipo de prou a cesos de generalizaci´n desde ejemplos hacia conceptos abstractos permite o dar un tratamiento unificado a m´ltiples objetos a menudo de apariencia u dis´ ımil pero con propiedades esenciales comunes. o Nuestra intenci´n es introducir el concepto de “vector” de una manera o m´s rigurosa y utilizarlo para desarrollar algunas aplicaciones a la Geoa metr´ Anal´ ıa ıtica del Espacio. Se dice entonces que Fr = F1 + F2 o que Fr es la resultante de F1 y F2 . Al mismo tiempo queremos destacar que este concepto de vector servir´ de fuente de inspiraci´n para uno de los objea o tos fundamentales de este curso. . ´ o direcci´n y sentido igual a la diagonal del paralelogramo de lados F1 y F2 o (ver figura 4.128 4.

A este concepto elemental de distancia agregamos ahora el de vector. En este cap´ ıtulo se dar´ una descripci´n anal´ a o ıtica de recta.4. el par (A. B) = 0 si y s´lo si A = B o d(A.2 de modo que AA′ B ′ B sea un paralelogramo. o ′ . B) = d(B. o La longitud del segmento entre dos puntos de E define la distancia entre dos puntos d : E × E −→ R+ . est´ formado por a puntos designados en general con letras may´sculas A. P. Consideremos dos segmentos orientados como en la figura B B′ A′ Figura 2 4.. ¿Qu´ datos son neceo e sarios para dibujarla? En principio basta indicar un par de puntos ordenados (A. C) ≤ d(A.. Dos punu tos distintos definen una unica recta y tres puntos no contenidos en una ´ recta definen un plano.2. Sin embargo por ser AA′ B ′ B un paralelogramo ambas segmentos orientados tienen igual direcci´n (las rectas AB y A′ B ′ son paralelas). B) + d(B. B. Q. C) ∀A. “direcci´n” y “sentido”. B ′ ). que satisface d(A. B ′ )) y sentido. Solo se diferencian en el punto de m´dulo (d(A..2. Pretendemos formalizar lo que antes hemos denominado una “flecha” como un objeto que tenga “modulo”. No estamos interesados en que nuestro concepto de o A . plano y sus relaciones de intersecci´n. C ∈ E. B) el punto A ser´ el origen y el punto B el extremo del segmento oriena tado (“flecha”). A) ∀A ∈ E d(A. B) es distinto de (A′ . B. Vectores El espacio ambiente. . que denotaremos con la letra E. VECTORES 129 4. B) = d(A o base o de “aplicaci´n”.

B) y (A a mediante una relaci´n de equivalencia. el vector por ella representado se escribir´ de cualquiera de las siguientes maneras a − − → v = AB = B − A. Cualquier pareja de puntos de una clase de equio valencia representa al correspondiente vector. o ıa Llamaremos vector del espacio E a una clase de equivalencia determinada por esta relaci´n. → que el espacio V incluye al vector nulo o AA. o sea que una misma simetr´ central de centro C ıa coincide con el de A ′ y A′ en B. e 3) Todas estas definiciones s´lo utilizan elementos de la geometr´ plana. de puntos de E: AB ∼ /A o ´ Esta es una relaci´n de equivalencia de acuerdo con la definici´n dada en el o o Cap´ ıtulo 0. Dado un punto P ∈ E y un vector v ∈ V . y extremo al punto B. Obs´rvese e → − = − para cualquier A ∈ E. B ′ ). o Para ello definimos una relaci´n de equivalencia entre pares ordenados o ′ B ′ si y s´lo si ABB ′ A′ es un paralelogramo. Una manera de lograr esto es identific´ndolas flechas como (A. lleva A en B 2) Tambi´n se puede dar una definici´n de la relaci´n de equivalencia en e o o t´rmino de traslaciones. Si la pareja es AB. Obs´rvese que: e o 1) Es f´cil probar que AB ∼ A′ B ′ si y s´lo si el punto medio C de AB ′ / a ′ B. RECTAS Y PLANOS EN EL ESPACIO vector distinga objetos por su punto de aplicaci´n as´ que deberemos ser m´s o ı a cuidadosos en nuestra definici´n y adoptar una que no distinga entre dos o ′ .130 4. es claro que existe un unico ´ . Denominaremos con la letra V al conjunto de estos vectores. Dada una representaci´n AB de un vector v llamaremos o origen (o punto base) al punto A.

resulta − +v = o − = v (alcanza con tomar el representante AA o BB. Adem´s el vector − sumado a v da − : − + − = − = − . o sea que AB + BC = AC. se recomienda -como para casi todas las pruebas de este cap´ ıtulo. OPERACIONES CON VECTORES. De esta manera hemos definido una funci´n que a o pareja de punto de E y vector de V . Para verificar esta independencia de los representantes. Operaciones con vectores. Decimos que − − → −→ − − → − → AC representa al vector suma v + w. − − → de la siguiente manera: (P. se tomar´n representantes a de cada uno de ellos de modo que el extremo del representante de v sea el − − → −→ − origen del de w.3. a 4.3. Escribiremos / Q = P +v y diremos que Q es la suma de P m´s v. → v+ o u − → − → − → → − ). La suma de dos vectores es otro vector. seg´n el caso. O sea.hacer los dibujos correspondientes. → → AB BA AA → de o a BA o o . Dados dos vectores v. o sea que hay un unico representante de v ´ que tiene origen en P : ese representante es P Q. − − → → Conviene observar desde ya que para cualquier v = AB . 131 − − → punto Q ∈ E tal que P Q = v. que si v = AB . y si v est´ dado a − − → por una pareja AB (o sea v = AB) para hallar Q alcanza con construir el paralelogramo P ABQ. w ∈ V . v) −→ Q ⇐⇒ P Q = v. Dado P . o sea que si A′ B ′ = v (y B ′ C ′ = w) entonces A′ B ′ + B ′ C ′ = AC. w) −→ v + w. le hace corresponder otro punto de E . tomamos w = BC. o sea que se trata de definir una funci´n que a parejas de vectores le haga corresponder otro vector: o (v. Es f´cil ver que el vector suma no depende del representante elegido para a −→ − −→ − −→ −→ − − − → v .4.

hemos preferido la simplificaci´n de no usar o − − → s´ ımbolo expl´ ıcito para este producto. Z ∈ Rn . verifican las siguientes ocho propiedades (u. C) = |a|d(A. Sea v = AB. B). de a modo que d(A. . Esto podr´ dar lugar a confusiones. o sea que (−1)v + v = − . ∀ X. Se observa f´cilmente que esa ta definici´n no depende del representante de v que se haya elegido. para todo v ∈ V .Si a < 0. para todo A. en la recta determinada por A y B . ´ a O sea que C est´ del mismo lado que B respecto a A. se elige C en el lado opuesto al que est´ B respecto de A. el vector opuesto −v → vector nulo: 0v = o → se obtiene multiplicando v por el n´mero −1. pero siendo a y v elementos de ıa conjuntos en general distintos. C) = ad(A. Obs´rveo e se tambi´n que la multiplicaci´n del n´mero cero por cualquier vector da el e o u − . Para definir el producto de un n´ mero real por un vector se debe u andar con m´s cuidado. Igualmente. Y. Adem´s (h´ganse los dibujos). Si a > 0 diremos que adem´s tienen el mismo u a sentido. B). para todo o a ∈ R. b son cualesquiera n´meros reales): u [S1] [Conmutativa] u + v = v + u. Tambi´n diremos o u u e que u es m´ ltiplo de v. C. Obs´rvese que no hemos indicado el producto del n´mero e u real a por el vector v con ning´n s´ u ımbolo. distinguiendo diferentes casos y utilizando el cona cepto de distancia. D ∈ E vale A − B = a a C − D =⇒ A − C = B − D. RECTAS Y PLANOS EN EL ESPACIO Llamaremos opuesto de v al vector representado por BA. Si a = ±1 tienen el mismo m´dulo. y lo escribiremos −v. en la semirrecta AB se elige el unico C tal que d(A. porque el n´mero real puede u ser el cero. Se trata de definir una funci´n (a. − → − − → En ambos casos se define AC = aAB = av.si a ≥ 0. v. v) −→ av . u o Diremos que dos vectores u. Esta definici´n lleva a que el o o vector nulo sea colineal con todo vector de V . v ∈ V . v son colineales (o paralelos o que tienen la misma direcci´n) si u = av para alg´n n´mero real a. w son cualesquiera vectores de V y a. sencillamente hemos colocado av juntos. Estas dos operaciones de suma de vectores y producto por un real.132 4. B. [S2] [Asociativa] u + (v + w) = (u + v) + w. .

b < 0. por 2. B. ıa u − − → − → Como ejemplo daremos la prueba de P1. Luego w = (B + u) − A por la segunda parte de 2.4. se han usado sucesivamente . Se ver´ que con s´lo a o ellas se puede desarrollar la teor´ m´s simple. y las sumas. por tanto C y D coinciden. (A + w) − A = w. 133 [S3] [S4] [P1] [P2] [P3] [P4] → → [Neutro de la suma] Existe un vector − tal que v + − = v. C) = d(A. → → 3. A + − = A. C. a a por lo que C = D. e adem´s d(A. M´s adelante a a se considerar´n entes matem´ticos entre cuyos elementos se pueden definir a a operaciones que verifican este conjunto de propiedades. en P3. Si a > 0. resulta A + w = [A + (B − A)] + u = B + u.3. D) = |ab|. D) = ab. el resultado es o − → −→ − − . OPERACIONES CON VECTORES. veremos la prueba de 4. abstracta y abarcativa de ıa a espacios vectoriales. (B − A) + u = (B + u) − A = B − [A + (−u)]. A + (v + w) = (A + v) + w. Obs´rvese los distintos significados que tienen los productos (sus s´ e ımbolos est´n omitidos) en P1. D en la recta AB. o [Asociativa del producto] a(bv) = (ab)v. A − A = − . Si v = AB. a aplicar bien las definiciones de cada una de las operaciones y luego aplicar propiedades elementales de geometr´ plana y de los n´meros reales. Si a. o o → [Existencia de opuesto] Existe −v tal que v + (−v) = − . o o 4. [Neutro del producto] 1v = v [Distributiva] (a + b)v = av + bv. C) = d(A. b tienen el mismo signo. w ∈ V ): 1. C est´ en el lado opuesto a B y D tambi´n porque bv tiene sentido opuesto a v y a(bv) tiene el sentido de bv. D ∈ E. A + (B − A) = B. Si w = (B − A) + u. Si a ´ b es cero. Esto prueba la primera igualdad. v. [Distributiva] a(u + v) = au + av. Tambi´n es importante tener presente las siguiene tes propiedades que relacionan la suma de punto y vector con la suma de vectores (∀ A. Adem´s [A + (−u)] + w = A + [−u + (B + u) − A] = a A + [−u + (B − A) + u] = A + (B − A) = B. 2. C y → A = C = D o sea AC = AD = o D est´n en la semirrecta de origen A por B y d(A. Para probar estas propiedaa des para los vectores de V recomendamos una vez m´s hacer dibujos claros. Como ejemplo. sean (ab)v = AC −→ − y a(bv) = AD con C.

Tambi´n se puede dar una recta s por un u e punto A ∈ E y un vector no nulo v ∈ V . De igual manera que en caso de las rectas.134 4. al variar λ entre los n´meros reales. En este caso resulta s = {P ∈ E : P = A + λv. tiene tambi´n representantes con dos puntos e ′ . Dos rectas con vectores directores v. llamado vector director de la recta s. RECTAS Y PLANOS EN EL ESPACIO 1. v no colineales que definan un plano de esa manera se denominar´n vectores directores del a plano. Plano. Entonces o w = B − (A + (−u)) y queda demostrada la segunda igualdad de 4. B + µw con w = a1 v y B = A + λ1 v. C ∈ E. u′ y v. y la primera de 2. de π Hallaremos una condici´n necesaria y suficiente para que dos planos π. u′ . π ′ de o las formas P = A + λu + µv. Sea r la recta de E definida por los puntos A y B. ambas rectas paralelas tienen un punto en com´n. u. O sea que todo punto P ∈ r es de la forma u − − → P = A + λAB para alg´n λ ∈ R. o sea que es de la primera recta. o − − → todos los puntos de esa recta quedan descriptos por A + λAB. De acuerdo u con lo visto en la definici´n de producto de un vector por un n´mero real. Diremos. Ecuaciones vectoriales de rectas y planos. ellas son la a u misma recta. un plano tambi´n queda bien definido por un pune to A y dos vectores u. Paralelismo Recta. resulta que todo punto de la segunda recta es de la forma B + µw = A + (λ1 + a1 µ)v. un tanto imprecisamente. . v ′ no colineales.. µ ∈ R}. Cualquier pareja de vectores u. En este caso π = {P ∈ E : P = A + λu + µv. µ ∈ R. sean paralelos. que los vectores son de π y π ′ . w son paralelas si y s´lo si v es colineal con w. v no colineales. Obs´rvese primero que todos los vectores determie − → nados por dos puntos del plano π son de la forma AP = λu + µv. B. λ. 4. π ′ son paralelos si todo vector con representantes definidos por dos puntos de π. λ ∈ R}. Para que los dos planos sean paralelos no es necesario que u. En efecto si las rectas son de la forma A + λv. Dos planos π.4. v ′ sean colineales. el plano π por ellos definido esta formado por el conjunto − − → − → de puntos de la forma A + λAB + µAC con λ. o Si adem´s. la definici´n de w. Dados tres puntos no pertenecientes a la misma recta (no colineales) A. la primera igualdad de 4. P ′ = A′ + au′ + bv ′ . v no colineales.

En un sentido que se aclarar´ en a cap´ ıtulos posteriores. pao ra generar cada uno de los vectores de V . si para cada ´ o v ∈ V existen unicos a1 . a2 . v2 . v ′ se puedan escribir como suma de m´ltiplos de u ′ = λ u + µ v. u= λ2 µ1 − λ1 µ2 λ2 µ1 − λ1 µ2 (que tiene sentido porque si fuera λ2 µ1 − λ1 µ2 = 0 resultar´ λ2 u′ − λ1 v ′ = 0 ıa ′ . · · · . · · · . vn ∈ V si es de la forma o v = a1 v1 +a2 v2 +· · ·+an vn con a1 . · · · . v es una combinaci´n lineal de los vectores v1 .5. una/ base es un conjunto m´ ınimo que permite escribir . vector de π 4. a2 . v. an ∈ R tales que v = a1 v1 +a2 v2 +· · ·+an vn . o sea que tambi´n π e 1 2 1 2 ′ y v ′ se escriben de aquella manera como combinaciones lo es de π.5. O sea.4. · · · . En efecto si u 1 1 2 2 ′ es de la forma au′ + bv ′ = (aλ + bλ )u + (aµ + bµ )v. por un y ser´ u ıan o razonamiento igual que el anterior resulta que todo vector de π tambi´n es e ′. v2 . Una base de V es un conjunto de vectores {v1 . an ∈ R. v ′ = λ u + µ v resulta que todo vector de u. ´ Destacamos la unicidad de la combinaci´n lineal de vectores de la base. Si u lineales de u. vn } ⊂ V tal que todo vector v ∈ V se escribe de manera unica como combinaci´n lineal de ese conjunto. se pueden despejar u y v de la siguiente manera v= −µ2 u′ + µ1 v ′ λ2 u′ − λ1 v ′ . v. SISTEMAS DE COORDENADAS 135 sino que los vectores u′ . Sistemas de coordenadas Comencemos con dos definiciones de gran trascendencia. v ′ colineales. lo cual va contra una suposici´n inicial).

RECTAS Y PLANOS EN EL ESPACIO todos los vectores de V como combinaci´n lineal de ellos. o De acuerdo con las definiciones que venimos dando. b. C. C ′ si se hubieran trazado recta y plano paralelos a por mos puntos A ejemplo la recta OA y el plano OBC. C ∈ E. Sean cuatro puntos no coplanares O. y seguido el procedimiento indicado anteriormente. Dado u cualquier punto P ∈ E. o sea que C = O + aOA + bOB para cualesquiera n´meros reales a. D ∈ E no coplanares (no pertenecientes a un mismo plano). OB. a que el punto C no est´ en el plano e − → −→ − determinado por O. Por la definici´n de suma de vectores aplicada dos veces. si se toman representantes de los vectores con el mismo origen − → −→ − − − → O : u = OA.136 4. No es dif´ ver. Por otro lado. O sea. Diremos tambi´n que los vectores por ellos e determinados son no coplanares. B ′ . se o −→ − → − → −′ −′ − − − → deduce que OP = OA + OB + OC ′ . v = OB. Ella corta al plano OAB en P ′ (que coincide con O si P esta en la recta OC). Esto equivale. respectivamente. A continuaci´n o o mostraremos c´mo son las bases de V . A. y por la definici´n de producto de o −→ −′ − → n´mero real por vector. consideremos la recta s paralela a OC por P . Por P ′ trazamos las paralelas r1 . A. utilizando propiedades ıcil elementales de paralelismo e intersecciones. respectivamente. w ∈ V son no u coplanares si w = au + bv para cualesquiera dos n´meros reales a. el plano paralelo a OAB por P corta a la recta OC en el punto C ′ (que coincide con O si P esta en el plano OAB). es claro que se pueden elegir cuatro puntos A. los vectores u. por lo que u . B. que se habr´ llegado a los misıa ′ . r2 a las rectas OA. se ve el vector OA es colineal con OA. que cortan a OB y OA en B ′ y A′ . w = OC. B. v. B. b.

Las rectas determinadas por O y v1 . − → −→ − −→ − a = a′ : (a − a′ )OA = (b′ − b)OB + (c′ − c)OC por lo que . y ning´n ıan u − − → vector OP con P ∈ π se podr´ escribir como combinaci´n lineal de ellos. para cada P ∈ E existen n´meros unicos x1 . v2 . zOx. sus extremos determinar´ un plano π. por ejemplo ıa. v3 se denominan ejes coordenados. u eligiendo un origen y una unidad. De igual manera se definen los planos coordenados yOz. (R Un sistema de coordenadas o referencial de E est´ formado por un a punto O. el origen de coordenadas y una base {v1 . x2 . que es el objeto principal de esta parte del curso. c ∈ R. x3 tales que u ´ −→ − −→ − − − → −→ − → − − − → OA′ = aOA para alg´n a ∈ R. Se suele representar por Ox. En efecto. B. Si los ejes coordenados son perpendiculares se dice que el sistema de coordenadas es ortogonal. b. Por tanto hemos demostrado que tres vectores no coplanares cualesquiera forman una base del espacio V . Para cada P ∈ E (o lo que es lo mismo. Oz a los ejes coordenados definidos por O y v1 . v3 }. Oy. c son unicos pues u ´ → − → − → ′ − + b′ − + c′ − si fuera v = a OA OB OC resultar´ suponiendo que. OB. ıa o A continuaci´n generalizaremos el concepto de sistema de coordenadas o –que el estudiante ha estudiado en el plano– al espacio E. v2 . tomando representantes con un mismo origen O. Por lo que antecede resulta que dado un sistema de coordenadas {O. v3 . ′ a−a a −a Entonces el punto A estar´ en el plano OBC lo cual contradice la hip´tesis ıa o de que los puntos O. Esta demostraci´n vale o − −→ −→ → − − para cualesquiera tres vectores OA. Oy. v2 . v1 . OC ′ = cOC u − − → − → −→ − −→ − para b. respectivamente.5.4. El estudiante recordar´ que los puntos de a una recta se ponen en correspondencia biun´ ıvoca con los n´meros reales. cada v ∈ V ) los n´meros reales a. OC no coplanares. Rec´ ıprocamente. De igual manera OB ′ = bOB. v2 . si fueran coplanares. v3 } de V . Por tanto v = OP = aOA + bOB + cOC. C no son coplanares. y que los puntos de un plano se ponen en correspondencia biun´ ıvoca con las parejas ordenadas de n´meros reales u 2 ) eligiendo un origen y dos ejes transversales que se cortan en ese origen. Se llamar´ plano coordenado a xOy al plano determinado por Ox. A. si tres vectores forman una base de V ellos deben ser no coplanares. SISTEMAS DE COORDENADAS 137 − → − − → b′ − b −→ c′ − c − OA = OB + ′ OC.

De igual manera. x3 ). v1 . Observaciones 1. Como u ejemplos destacamos que el punto elegido como origen de coordenadas tiene coordenadas (0. v3 }. si v = a1 v1 + a2 v2 + a3 v3 . Decimos que x1 . 0. v1 . x3 son las coordenadas de P en un sistema de coordenadas en el que se est´ trabajando. llamaremos coordenadas de v en la base {v1 . Si A = O + a1 v1 + a2 v2 + a3 v3 // y B = O + b1 v1 + b2 v2 + b3 v3 . entonces por la ultima observaci´n de la secci´n anterior resulta B − A = (b1 − a1 )v1 + (b2 − a2 )v2 + (b3 − a3 )v3 . . a2 . z = a3 + λ(b3 − a3 ). v2 . x2 . v2 . (a2 + x2 ). x2 . Supongamos ´ o A = (a1 . La determinaci´n de un sistema de coordenadas o establece una correspondencia biun´ ıvoca entre el conjunto de los puntos del espacio E y R3 . P = O + x1 v1 + x2 v2 + x3 v3 . a2 . dependiendo del contexto al que se refiera. luego. Por tanto las coordenadas del punto A + v son: (a1 + x1 ). z) los puntos de la recta o r tienen coordenadas (4. 4. si P tiene coordenadas (x. 0). RECTAS Y PLANOS EN EL ESPACIO P − O = x1 v1 + x2 v2 + x3 v3 .138 4. indicar´ a las coordenadas del punto A = O + v ∈ a E. entonces B − A = (b1 − a1 )v1 + (b2 − a2 )v2 + (b3 − a3 )v3 y las coordenadas del vector B − A son (b1 − a1 . v2 . y o por la observaci´n 1. v3 } a la terna (a1 . v3 }. x3 son las coordenadas de P en el sistema {O.. a3 ) por lo que esta terna. y = a2 + λ(b2 − a2 ). Sea la recta r : P = A + λ(B − A). a3 ). el conjunto de las ternas ordenadas de n´meros reales. b3 − a3 ). y. Si A = O + a1 v1 + a2 v2 + a3 v3 y v = x1 v1 + x2 v2 + x3 v3 . 2. para indicar que x1 . b2 . x2 . por lo que A + v = O + (a1 + x1 )v1 + (a2 + x2 )v2 + (a3 + x3 )v3 . entonces A−O = a1 v1 +a2 v2 +a3 v3 y A−O+v = (a1 +x1 )v1 +(a2 +x2 )v2 +(a3 +x3 )v3 . b2 − a2 . Se suele escribir P = (x1 . B = (b1 .33) x = a1 + λ(b1 − a1 ). 0) ∈ R3 y el punto O + v1 tiene coordenadas (1. (a3 + x3 ). o del vector v ∈ V .6. Ecuaciones param´tricas de rectas y planos e Veamos que forma toman las ecuaciones de rectas y planos en un referencial {O. o que se a da por sobreentendido. 0. b3 ).

4.7. ECUACIONES IMPL´ ICITAS DE RECTAS Y PLANOS

139

Si r es de la forma P = A + λv con v = x1 v1 + x2 v2 + x3 v3 se obtiene: (4.34) x = a1 + λx1 , y = a2 + λx2 , z = a3 + λx3 .

Estas ecuaciones se suelen llamar ecuaciones param´tricas de la rece ta, y se suele pedir, por ejemplo “hallar las ecuaciones param´tricas de la e recta”que pasa por los puntos P = (1, 0, 1) y Q = (−2, 1, 2). En realidad debiera decirse, “hallar unas ecuaciones param´tricas de la recta”porque dee pendiendo del punto que se tome como base, y del vector director elegido (uno o cualquier m´ltiplo -no nulo- de ´l) se obtendr´n diferentes ecuaciones u e a param´tricas. Sin embargo, dado que la recta es la misma, independientee mente de la presentaci´n anal´ o ıtica elegida, seguiremos refiri´ndonos a las e ecuaciones, en todos los casos. La respuesta al ejemplo que antecede es (x, y, z) = (1, 0, 1) + λ(−3, 1, 1) Sean tres puntos no alineados A = (a1 , a2 , a3 ), B = (b1 , b2 , b3 ), C = o (c1 , c2 , c3 ). Consideramos el plano de ecuaci´n P = A+λ(B −A)+µ(C −A). Llamando (x, y, z) a las coordenadas de P , por un razonamiento an´logo al a utilizado para obtener (4.33), se obtiene x = a1 + λ(b1 − a1 ) + µ(c1 − a1 ), (4.35) y = a2 + λ(b2 − a2 ) + µ(c2 − a2 ), z = a3 + λ(b3 − a3 ) + µ(c3 − a3 ). Si el plano es de la forma P = A + λv + µw con v = x1 v1 + x2 v2 + x3 v3 , w = y1 v1 + y2 v2 + y3 v3 se obtiene: (4.36) x = a1 + λx1 + µy1 , y = a2 + λx2 + µy2 , z = a3 + λx3 + µy3 .

4.7. Ecuaciones impl´ ıcitas de rectas y planos Rectas Las ecuaciones (4.33), si a1 = b1 , a2 = b2 , a3 = b3 , se pueden escribir de la siguiente manera (4.37) x − a1 y − a2 z − a3 = = b1 − a1 b2 − a2 b3 − a3

140

4. RECTAS Y PLANOS EN EL ESPACIO

An´logamente, de (4.34) se deduce, si x1 , x2 , x3 = 0: a (4.38) x − a1 y − a2 z − a3 = = x1 x2 x3

En ambos casos, si alguno de los denominadores fuera cero, el correspondiente numerador tambi´n es cero. Tambi´n por eliminaci´n de λ, µ en (4.35), se e e o obtiene la forma general de la ecuaci´n de un plano (usando determinantes o de matrices dos por dos): (x − a1 ) b2 − a2 b3 − a3 c2 − a2 c3 − a3 +(z − a3 ) − (y − a2 ) b1 − a1 b3 − a3 c1 − a1 c3 − a3 = 0. +

La expresi´n que antecede al signo de igual puede tomarse como la definici´n o o del determinante de una matriz 3 por 3 -que ser´ vista en detalle m´s adea a lante en el curso-, pudi´ndose escribir m´s compactamente de la siguiente e a manera: (4.39) x − a1 y − a2 z − a3 b1 − a1 b2 − a2 b3 − a3 c1 − a1 c2 − a2 c3 − a3 =0

b1 − a1 b2 − a2 c1 − a1 c2 − a2

Partiendo de (4.36) se obtiene otra forma de la ecuaci´n impl´ o ıcita de un plano. As´ si el plano est´ dado por el punto A = (a1 , a2 , a3 ) y los vectores ı, a o ıcita toma v = x1 v1 + x2 v2 + x3 v3 , w = y1 v1 + y2 v2 + y3 v3 , la ecuaci´n impl´ la forma (4.40) x − a1 y − a2 z − a3 x1 x2 x3 y1 y2 y3 =0

Desarrollando estos determinantes tenemos, por ejemplo para (4.39) a(x − a1 ) + b(y − a2 ) + c(z − a3 ) = 0, donde a = k b2 − a2 b3 − a3 c2 − a2 c3 − a3 o tambi´n ax + by + cz + d = 0, e ,b = k b1 − a1 b3 − a3 , c1 − a1 c3 − a3

4.7. ECUACIONES IMPL´ ICITAS DE RECTAS Y PLANOS

141

c=k

Rec´ ıprocamente toda ecuaci´n de la ultima forma, en la que por lo menos o ´ uno de los coeficientes a, b, c es distinto de cero, representa un plano porque, suponiendo, por ejemplo c = 0, ella equivale a las tres ecuaciones a b d x = λ, y = µ, z = − − λ − µ c c c que son de la forma(4.36). Obs´rvese que los coeficientes a, b, c s´lo dependen e o de los vectores directores del plano. Dado que planos paralelos se pueden determinar con los mismos vectores directores, resulta que dos planos ax + by + cz + d = 0, a′ x + b′ y + cz + d′ = 0.

b1 − a1 b2 − a2 c1 − a1 c2 − a2

.

u son paralelos si y s´lo si a = pa′ ; b = pb′ ; c = pc′ para alg´n real o ′ ambas ecuaciones representan el mismo plano. p. Si, adem´s, d = pd a Observamos tambi´n que, por ejemplo de (4.38) se puede deducir e x − a1 y − a2 x − a1 z − a3 = , = x1 x2 x1 x3 que se reduce a (4.41) ax + by + cz + d = 0, a′ x + b′ y + c′ y + d′ = 0.

Estas dos ecuaciones indican la propiedad bien conocida de toda recta puede determinarse por dos planos que se cortan en ella. Ej. 1. En el ejemplo de la secci´n anterior, las ecuaciones impl´ o ıcitas de la recta por P y Q (recordar las disquisiciones sobre las y unas ecuaciones) son x−1 = y = z − 1, o bien x + 3y = 1, y − z = −1 −3 Ej. 2. Las ecuaciones impl´ ıcitas de la recta por (2, 1, 0), (3, 1, 5) son x − 2 = z − 5/5, y = 1 Ej. 3. Las ecuaciones p`ram´tricas del plano por (1, 1, 0) que tiene por a e vectores directores u = (−1, 0, 2) y v = (1, 3, 3) son x = 1 − λ + µ, y = 1 + 3µ z = 2λ + 3µ.

142

4. RECTAS Y PLANOS EN EL ESPACIO

Su ecuaci´n impl´ o ıcita es −6x + 5y − 3z + 1 = 0. Ej. 4. x − 2y = 0 es la ecuaci´n de un plano paralelo al eje coordenado Oz, o que corta al plano xOy seg´n la recta z = 0, x − 2y = 0. u Ej. 5. Ecuaci´n del plano paralelo al de ecuaci´n x + y + z = 0 por el punto o o (1,1,1). Ser´ de la forma x + y + z + d = 0, por el punto (1, 1, 1); por tanto a 1 + 1 + 1 + d = 0 y resulta d = −3. El lector atento ya habr´ percibido que si (x, y, z) designa las coordea nadas gen´ricas de cualquier punto del espacio, dado un cierto sistema de e o coordenadas,la ecuaci´n impl´ o ıcita de un plano viene dado por una ecuaci´n lineal en (x, y, z); en general la ecuaci´n de cualquier superficie vendr´ dada o a por una ecuaci´n. Y una recta, vendr´ dada por dos ecuaciones. Los puntos o a que verifican las dos ecuaciones ser´n los de la recta. a 4.8. Posiciones relativas de rectas y planos. En esta secci´n se ver´ que el estudio de las posiciones relativas de o a o rectas y planos llevan naturalmente a plantearse la resoluci´n de sistemas de ecuaciones. Dadas dos rectas en el espacio, podemos simplificar sus posiciones relativas en tres categor´ ıas. O bien se cruzan sin cortarse (esta es la posici´n gen´rica, la m´s com´n), o bien se cortan en un solo punto, o bien o e a u son paralelas (este caso incluye el de las rectas coincidentes. El caso de que sean paralelas ya fue analizado: son rectas con vectores directores colineales (uno m´ltiplo del otro) y coinciden o no seg´n tengan alg´n punto com´n o u u u u no. Si los vectores directores no son colineales se trata de encontrar puntos comunes a las dos rectas. Para ello se estudia el sistema de ecuaciones formado al igualar las ecuaciones de sus coordenadas. Si las rectas se dan en forma param´trica se tendr´ un sistema con tres ecuaciones y dos inc´gnitas e a o (los par´metros de cada una de las rectas). Este sistema, si los vectores dia rectores no son colineales, puede ser compatible determinado (una soluci´n o formada por una pareja de n´meros correspondientes a cada par´metro) o u a incompatible (sin soluci´n). El primer caso corresponde al caso de corte (y o

4.8. POSICIONES RELATIVAS DE RECTAS Y PLANOS.

143

la soluci´n en cada par´metro dar´ el mismo punto en el espacio, pero al o a a moverse por cada una de las rectas); el segundo caso corresponde a las rectas que se cruzan. Ej. 1. Determinar las posiciones relativas de las rectas (x, y, z) = (1, 0, 1) + λ(−1, 1, 0) (x, y, z) = (0, 1, 2) + µ(2, 0, 1). Al igualar las coordenadas resulta 1 − λ = 2µ; λ = 1; 0 = 2 + µ que no posee ninguna soluci´n: las rectas se cruzan. o Ej. 2. Determinar las posiciones relativas de las rectas (x, y, z) = (1, 0, 1) + λ(−1, 1, 0); (x, y, z) = (0, 1, 2) + µ(−4, 4, 0). Los vectores directores son colineales y al igualar las coordenadas se obtiene (1, 0, 1) + λ(−1, 1, 0) = (0, 1, 2) + µ(−4, 4, 0) que no tiene soluci´n pues en la tercera coordenada resulta la igualdad de o los n´meros distintos 1 y 2: las rectas son paralelas. u Dados dos planos en el espacio podemos simplificar sus posiciones relativas en dos categor´ O bien se cortan en una recta, o bien son paıas. ralelos (este caso incluye el de los planos coincidentes). La posici´n relativa o se manifestar´ anal´ a ıticamente en que el sistema dado por las dos ecuaciones impl´ ıcitas sea o bien indeterminado con las soluciones dependientes de un par´metro (un grado de libertad) en el caso de corte en una recta, o bien a incompatible (no tiene soluciones) en e caso de planos paralelos no coincidentes, o bien indeterminado con las soluciones dependientes de dos par´metros a (dos grados de libertad) en el caso de coincidencia. Si los planos estuvieran dados en forma param´tica tendr´ e ıamos, al igualar las coordenadas de los dos planos, un sistema de tres ecuaciones con cuatro inc´gnitas (dos por cada o plano).

tene dremos las siguientes matrices de coeficientes (primero la original. −1). Los planos no se cortan. 1. Igualando las correspondientes coordenadas resulta 1 + λ = t + 2s λ + µ = 2t + s 1−µ=3−t+s =⇒ Si ahora omitimos de escribir las variables. 1) + λ(1. −1) (x. y agregamos una columna con los t´rminos independientes. −x − 2y + z = 0. −1). 1. obteni´ndose el sistema 2x + 3y − z = 1. 2. Posiciones relativas de los planos de ecuaciones param´tricas e (x. y. 0) + (0. t. Para resolver el sistema dado por las dos ecuaciones. −1) + s(2. z) = (0. 1. 3. z) = (1. RECTAS Y PLANOS EN EL ESPACIO Ej. 0. 0) − (0. 1. 0. Observar que de acuerdo con lo observado en la secci´n tres los o vectores directores del segundo plano son combinaci´n lineal de los vectores o directores del primer plano: (1. 1. pero mantenemos su orden λ. 1.  1 1 −2 −1 0  =⇒  0 1 −1 1 0 −1 1 −1 2 0 0 0 0 3 El sistema es por tanto incompatible dado que sumando cero de cada una de las variables deber´ ıamos obtener 3. 0) + µ(0.144 4. Para determinar las ecuaciones param´tricas de esa recta. 1) = 2(1. (2. Posici´n relativa de los planos o 2x + 3y − z = 1. se puede tomar y = λ. 1. 1). resultando e z = 1 + λ. ellos son paralelos. 4. se escaleriza. s. 3) + t(1. Este sistema tiene e infinitas soluciones que dependen de un solo par´metro (un grado de lia bertad) y por tanto los planos se cortan en una recta. Ej. 1. x = 1 − λ. y. −y + z = 1. µ. y luego la escalerizada)     1 0 −1 −2 −1 1 0 −1 −2 −1     1 . −1) = (1. 2. λ + 0µ − t − 2s = −1 λ + µ − 2t − s = 0 0λ − µ + t − s = 2. .

1.que notaremos: v (Observar que d(A. Si a = 0 y v = AB. Para todo v = 0 se tiene que un versor pues v v v v es = 1 v v = 1. por definici´n del producto o − → de un n´mero por un vector .1. v cos θ donde u − − → − → θ es el ´ngulo BAC de tres puntos tales que AB = u y AC = v. B) con v = AB. v = 0 si y solo si v = 0. Producto escalar ´ DEFINICION 5. v ∈ V ´ Demostracion 1) Es inmediato.CAP´ ıTULO 5 PRODUCTO ESCALAR Y VECTORIAL 5. B) = |a| v . C) = |a| d (A. B). ıa e Diremos que v es un versor si v = 1. B) que se elija como representante de v ). donde d (A. Dado un vector v ∈ V llamamos norma de v al n´meu − − → ro d(A. 3) Un lado de un tri´ngulo es menor o igual que la suma de los otros a dos (es la propiedad triangular de geometr´ m´trica). B) no depende del par de puntos (A. para todo u. Observar a 145 . Dados los vectores u y v de V llamamos producto interno o producto escalar de u por v al n´mero u .2. ´ DEFINICION 5. − − → 2) Si a = 0 es trivial. C) = |a| d (A. Luego u av = d (A. av = AC. Propiedades: 1) v 0. 2) av = |a| v para todo a ∈ R y para todo v ∈ V 3) u + v u + v .

u ) v = a a a.146 5.u) .v = u. v cos θ = a (u. (u. Notaci´n: u. v2 .u = v1 . luego v = v. u . Si a < 0 . luego o (v1 + v2 ) .v + u2 . ´ng (au.v).v = v cos θ = p es la proyecci´n del segmento AC sobre la recta AB de la figura.v = v.u v cos (π + θ) = − |a| u v cos θ = a u v cos θ =a(u.v. v) = θ. entonces u. Si a o 0. o Propiedades: 4) u. v > .u ) .v = u1 .v1 + u. v cosθ = |a| .v = v 2 .v = au .v2 . B. luego a ( a.v . v) = π + θ. Si u es un versor.v). Es claro que p = p1 + p2 . v) . v) = π + ´ng (u. (ver figura) . v) = a ´ng (u. (v1 + v2 ) = u. (a. u.v .u 5) (a.u + v2 . 7) v.u = p1 . Entonces v1 .u.v) 6) (u1 + u2 ) . 6) Consideremos primero el caso u = 1. < u. C que se elijan para representar u y v. PRODUCTO ESCALAR Y VECTORIAL que el producto escalar no depende de los puntos A. es decir.v) = a. o √ En particular v. si u = 1.v = 0 si y s´lo si v = 0 o ´ Demostracion: 4) Es inmediato.v 0 y v. (u. 5) Si a = 0 la demostraci´n es trivial . luego ( a. (v1 + v2 ) u = p (proyecci´n de u1 + u2 ). ´ng (au. etc.u = p2 .

1. PRODUCTO ESCALAR 147 Consideremos ahora el caso general.3 ai bi . v se dicen ortogonales si u . j. u . La base se dice ortonormal si adem´s de ser ortogonal verifica que i = j = k = 1.u = u u v1 . dice ortogonal si i · j = i · k = j · k = 0. k (a partir de aqu´ no escribiremos la flecha − ) se ı . − − − → → → → Una base i .u + v2 .2. u = v1 . j. 1 2 3 − − → Si P = O + a1 i + a2 j + a3 k y Q = O + b1 i + b2 j + b3 k entonces P Q = Q − P = (b1 − a1 ) v1 + (b2 − a2 ) v2 + (b3 − a3 ) v3 .v = a2 + a2 + a2 . u + v2 . luego d (P. j . a Diremos que {O.u 7) Es inmediata pues v. k} es ortonormal.w = i=1. Por el razonamiento anterior.v = 0. como u = 1. k} es un sistema ortogonal de coordenadas si {i. i.5. √ En particular: v = v.v = v 2 . En el resto de esta secci´n supondremos que todos los sistemas de cooro denadas son ortonormales. tenemos (v1 + v2 ) . luego (v1 + v2 ) . . Dos vectores u. En tal caso dados: v = a1 i + a2 j + a3 k y w = b1 i + b2 j + b3 k se tienev.3. Q) = P Q = (b1 − a1 )2 + (b1 − a1 )2 + (b3 − a3 )2 . u′ u ´ DEFINICION 5.

i. y. z). Si el sistema de c coordenadas es ortogonal esto equivale a: (av1 + bv2 + cv3 ) . dada una ecuaci´n ax+by+cz+d = 0. P0 = (x0 . y0 . resulta : ax + by + c z + d = 0. xv1 + yv2 + z + d c v3 = 0. Entonces. vale n · (P − P0 ) = 0. . c= 0).148 5. a o o Sea {O. de aqu´ resulta: ı a (x − x0 ) + b (y − y0 ) + c (z − z0 ) = 0 Esta es entonces la ecuaci´n del plano dado por un punto y la direcci´n o o de la normal. PRODUCTO ESCALAR Y VECTORIAL 5. Es claro que esa ecuaci´n tambi´n se escribe en la forma: o e ax + by + cz + d = 0. Suponiendo que el sistema de coordenadas sea ortogonal volveremos a obtener esa ecuaci´n y mostraremos que en ese caso o se puede obtener m´s informaci´n de esta ecuaci´n. k} un sistema ortogonal de coordenadas. j. z0 ) un punto de un plano π y n = ai + bj + ck = 0 un vector de la direcci´n de o una perpendicular a π (para abreviar diremos que n es un vector normal a π). para todo P ∈ π. Aplicaciones a la geometr´ ´ngulos y distancias ıa: a Ya vimos que toda ecuaci´n de la forma ax + by + cz + d = 0 representa o un plano y rec´ ıprocamente. Rec´ ıprocamente. con a2 +b2 +c2 = o 0 (por ejemplo.2. P = (x.

n . El ´ngulo del plano con o a la recta es entonces θ = π/2 − ϕ donde ϕ es el ´ngulo determinado por n a . pues esto significa o que n. y. es la ecuaci´n del plano perpendicular o a π por P0 . esta ecuaci´n o se escribe: n.v = 0 . a v = 0. pero en ese caso el vector av1 + bv2 + cv3 no tiene por que ser normal al plano. P0 = (0. son paralelos si y s´lo si pa + qb + rc = 0. Si el sistema de coordenadas no es ortogonal. la ecuaci´n ax + by + cz + d = 0 tambi´n representa un plano como vimos o e antes. b′ = λb. z). a ) condici´n para que dos planos sean paralelos: ax+by+cz+d = o ′ x + b′ y + c′ z + d′ = 0 son paralelos si y s´lo si a′ = λa.n que forman sus vectores normales respectivos. −d/c) y n = av1 +bv2 +cv3 . Veremos ahora algunas consecuencias de esto. Por tanto. u b ) condici´n para que una recta y un plano sean paralelos: o x−x Dados el plano y la recta de ecuaciones ax + by + cz + d = 0 y p 0 = = r 0 . donde n es normal al plano y v es un vector de la direcci´n o de la recta. tenemos uu. (λ = 0). APLICACIONES A LA GEOMETR´ ANGULOS Y DISTANCIAS IA: ´ 149 Poniendo P = (x.1. u = 0. c′ = λc 0ya o para alg´n λ ∈ R.2. 0. siempre con la hip´tesis o de que el sistema de coordenadas es ortonormal. (P − P0 ) = 0. a′ 2 + b′ 2 + c′ 2 ´ d ) Angulo de una recta con un plano: Sean n un vector normal al plano y v un vector de la direcci´n de la recta . Como el ´ngulo θ entre dos planos es igual al a . c ) ´ngulo entre dos planos: Para dos vectores cualesquiera.vv = cos θ. ´ OBSERVACION 5. tendremos: cos θ = n 1 2 n 1 2 y−y0 q z−z donde n1 y n2 son vectores normales a esos planos: luego el ´ngulo θ entre a los planos de ecuaciones ax+by+cz+d=0 y a’x+b’y+c’z+d’=0 verifica: cos θ = √ aa′ + bb′ + cc′ a2 + b2 + c2 .5.

Luego : d (Q.0) en el primer miembro de la ecuaci´n o del plano.P) donde P ∈ π. P = (x. P1 ) = (Q − P0 ) .150 5. π) = d (Q. z). n n . Es claro que el m´ ınimo de d(Q. Consideremos ahora un sistema ortonormal de coordenadas.n = 0. Q = (x. y. y0 . z0 ).0. donde r es la perpendicular a π por Q. un punto cualquiera del plano π. esto significa que d se o obtiene reemplazando P por O=(0. Luego el ´ngulo de ax+by+cz+d =0 con p 0 = q 0 = a calcular mediante: ap + bq + cr sen θ = cos ϕ = √ a2 + b2 + c2 p2 + q 2 + r 2 ´ e ) Angulo de dos rectas: El ´ngulo θ de a x−x1 p′ x−x0 p x−x y−y z−z0 r se puede = y−y0 q = z−z0 r con = y−y1 q′ = z−z1 r′ se calcula mediante la f´rmula o pp′ + qq ′ + rr ′ p2 + q 2 + r 2 p′ 2 + q ′ 2 + r ′ 2 . PRODUCTO ESCALAR Y VECTORIAL y v. cos θ = f ) Distancia de un punto a un plano: Definimos la distancia d (Q. Si P0 = (x0 . .P) se obtiene cuando P=P1 =π ∩ r. z). n = ai + bj + ck entonces: (Q − Po ) · n = a (x − xo ) + b (y − yo ) + c (z − zo ) = ax + by + cz + d. y. siendo P0 Como la ecuaci´n del plano es (P − P0 ) . π) de Q al plano π como el m´ ınimo de d(Q.

Una curva en el espacio puede darse: . y0 . y. n n = ax+by+cz+d √ a2 +b2 +c2 5. π) = (Q − P0 ) . . que gira alrededor de una recta (eje). z) = 0 g (x.O bien en la forma reducida f (x.5.O bien en forma param´ etrica. z0 ) y radio r: En un sistema ortogonal de coordenadas la ecuaci´n es: (x − x0 )2 + (y − y0 )2 + (z − z0 )2 = r 2 o b) Superficies de revoluci´n: Son las engendradas por una curva o (generatriz).3.z(t))=P(t) que est´ en la cura a a va).3. z) = 0 . APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 151 Luego : d (Q. Aplicaciones: ecuaciones de algunas superficies a) Esferas de centro (x0 .y(t). por medio de tres ecuaciones de la  x = x (t)  forma y = y (t) t ∈ R   z = z (t) con tres funciones cont´ ınuas de un par´metro real (para cada valor del a par´metro t se tendr´ un punto (x(t).2. ´ OBSERVACION 5. y.

3. ´ OBSERVACION 5. Una superficie en el espacio puede darse: . y. z) = 0 de dos superficies S y S ’ donde S: f(x.z) = 0 y S’: g(x. PRODUCTO ESCALAR Y VECTORIAL Cuando se tienen las ecuaciones param´tricas. o f (x.y. z) = 0.152 5. dos condiciones: P ∈ π ⊥ r por alg´n u d (P. La curva C: Ecuaci´n de la superficie de revoluci´n con eje Oz Sea r el eje o o x=0 x=0 r: .z) =0.y. y. a o e . Generalmente hay muchos a sistemas de ecuaciones posibles que representan a la misma curva. a veces puede eliminarse e el par´metro t y obtenerse una forma reducida.O bien en forma parametrizada. y C la generatriz C: y=0 z = f (y) La superficie de revoluci´n S est´ constituida por todos los puntos P o a del espacio que cumplen. y. ´ OBSERVACION 5. r) = d (P0 .O bien en forma reducida por medio de una ecuaci´n del tipo: f (x.4. r) P0 ∈ C . z) = 0 es la intersecci´n o g (x. a la vez. por medio de tres ecuaciones con dos par´metros ( como la ecuaci´n param´trica del plano).

Observaremos o s´lo que si se halla una familia de planos paralelos ( es decir ax+by+cz+α = o 0 con (a.3. o .1. EJEMPLO 5. Demostrar que xy+yz+zx = 7 es una superficie de revoluci´n. por P0    x =0 P0 ∈ C 0  z0 = f (y0 ) P0 ∈ C    2 x2 + y 2 = x2 + y0 . y0 . o en general. Dada una ecuaci´n F(x.y.c) (o sea perpendicular a la familia de planos paralelos ). reconocer si es o no una superficie de revoluci´n.z) = 0 no intentaremos. a entonces F(x.5.b. d (P.5. r. r) = d (P0 . ii) El centro de la circunferencia (xα . APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 153 de donde. c) fijo y α variable ) que cumplan las condiciones de m´s abajo. z0 se obtiene: z = f Las condiciones se traducen en:   z − z0 = 0 P ∈ π⊥ .z) = 0 es una superficie de revoluci´n que verifica (ver figura o 3.y. ´ OBSERVACION 5. a una recta fija r colineal al vector (a. eliminando x0 . z) = 0 i ) La intersecci´n o es una circunferencia para ax + by + cz + α = 0 cada valor de α. r) 0 ± x2 + y 2 . para todo α.3): F (x. b. zα ) pertenece. y. yα .

154 5. 0) ⊥   al plano. 0. −1/3) o sea. x + y + z + α = 0   x = −α/3  Cα = y = −α/3   z = −α/3 es una recta colineal al vector (−1/3. o sea:   x+y+z+α=0  Cα = x = y = z recta por (0. tales que V∈C ). ii ) El centro C de la circunferencia 14 + α α se halla trazando la perpendicular al plano x + y + z + α = 0 que pasa por el centro de la esfera x2 + y 2 + z 2 = 14 + α2 .1. colineal con ( 1. PRODUCTO ESCALAR Y VECTORIAL Se puede escribir como: (x + y + z)2 − x2 + y 2 + z 2 = 14 Cort´ndola a en el plano:x + y + z + α = 0 se obtiene: x+y+z+α=0 (x + y + z)2 − x2 + y 2 + z 2 = 14 i ) Es una circunferencia porque es la intersecci´n de la esfera x2 +y 2 +z 2 = o 2 con el plano x + y + z + α = 0. c ) Conos: Se llama “cono” o “superficie c´nica” de v´rtice V y direco e triz C ( donde V es un punto y C es una curva dada . a / la superficie engendrada por todas las rectas que pasan por V y cortan a C.1). −1/3. .

z) pertenece al   z = h (t) cilindro si y s´lo si existe alg´n punto P0 = (x0 . b. λ. 0) y generatriz e o y = cos t . recta por P0 colineal a v   x = f (t)  Si V = (a. y. 0. b. c) y C = y = g (t)   z = h (t) . z0 ) tal que: o u P0 ∈ C P ∈. y0 . c) a la superficie engendrada por todas las rectas colineales vector v que cortan a la curva C. EJEMPLO 5. al  x = f (t)  Si v = (a. d ) Cilindros: Se llama “cilindro” o “superficie cil´ ındrica” de directriz C y generatriz colineal al vector v = (a.2. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 155 La ecuaci´n param´trica del cono se puede obtener con los par´metros o e a t y λ como:   x = a + λ ( f ( t) − a)  S = y = b + λ ( g (t) − b )   z = c + λ ( h (t) − c ) Para escribir la ecuaci´n reducida habr´ que eliminar los par´metros t. Hallar las ecuaciones reducidas y param´trica del cono de e   x = sen t  v´rtice V = (0. La ecuaci´n parametri  z = 1   x = λ sen t  zada es: o y = λ cos t Despejando t y λ se obtiene la ecuaci´n reducida   z = 1 + λ x2 + y 2 = (z − 1)2 .3.z) = 0. c) y C = y = g (t) Un punto P = (x.5. o a a para obtener una ecuaci´n del tipo o F(x.y. b.

y = y0 . las ecuaciones param´tricas del cilindro son: e   x = f ( t) + λa  S = y = g (t) + λb   z = h (t) + λc de las que habr´ que eliminar los par´metros t. y0 . z0 ) verifica la ecuaci´n F (x0 . representa un cilindro de generatrices colineales con o el eje Oz. y. y. z) = 0. toda a la recta por la colineal al eje Oz tambi´n la est´. pero con un par´metro menos. y. para obtener la ecuaci´n a a o reducida del tipo F (x. z) = 0 en la que no figura la o variable z.0. z0 ) = 0 porque F es. e a . independiente de z. z0 ) = 0. y0 . La curva C tambi´n puede estar dada como e C: f (x. y0 . en realidad. entonces tomando x = x0 . λ. Una ecuaci´n F (x. Si P0 = (x0 . y.1) ). PRODUCTO ESCALAR Y VECTORIAL . Entonces.7. a a a ´ OBSERVACION 5. z = z0 + λ (eso es la recta por Po colineal con (0.156 5. por ejemplo.6. O sea: cuando Po est´ en la superficie. y0 . z) = 0 en cuyo caso se trabajar´ an´logamente . ´ OBSERVACION 5. z0 + λ) = F (x0 . se tiene F (x0 . z) = 0 g (x.

x2 + y 2 = 4 es un cilindro con generatrices paralelas al x2 + y 2 = 4 eje Oz y directriz.5. el otro formado por las ternas en las que esa rotaci´n tiene sentido o horario. PRODUCTO VECTORIAL.3. la rotaci´n o de ´ngulo convexo (o sea. de medida < π) que lleva i en j es de sentido antia horario. { i . j . k} tales que para un observador parado en v3 . en la circunferencia z=0 5. − − − → → → Consideremos la terna ordenada de vectores de V . que constituye una base de V . 157 EJEMPLO 5.4. Estas las vamos a clasificar en dos grupos: uno formado por las ternas {i. j.4. por ejemplo. . Producto vectorial. k }.

Esta convenci´n sirve para definir el producto vectorial como una funci´n o o de V ×V en V (as´ como el producto escalar era una funci´n de V ×V en R) ı o que a cada par de vectores v.158 5. (u ∧ v) ∧ w = u ∧ (v ∧ w) + v ∧ (w ∧ u). 2) v ∧ w = 0 si y s´lo si v y w son colineales (en particular.sen θ (θ ´ngulo de v con w ) a b) (v ∧ w) . v. w le asocia un vector. que cumple: a) v ∧ w = v . que denotaremos v ∧ w. Propiedades: 1) v ∧ w es el doble del ´rea del tri´ngulo determinado por esos veca a tores. Se puede deducir que: (u ∧ v) ∧ w + (v ∧ w) ∧ u + (w ∧ u) ∧ v = 0 de donde.w para que esa rotaci´n aparezca o de sentido trigonom´trico . PRODUCTO ESCALAR Y VECTORIAL Para definir el producto vectorial necesitamos elegir uno de los dos tipos como terna preferida. 3) Respecto de la condici´n c) de la definici´n. esta operaci´n no es conmutativa) o Para verificar esto basta notar que si para cierto observador la rotaci´n del o ´ngulo < π que lleva v en w es de sentido antihorario.v = 0 y (v ∧ w) . De modo que el observador debe ubicarse del lado opuesto del plano u. la propiedad asociativa no vale. w ∧ v] sea positiva. pues por b) esos vectores no son coplanares salvo que v y w sean colineales. usando 4). v ∧ w} es una base. 5) Este producto no es asociativo. v ∧ w} es positiva. w . corresponde observar que o o si v ∧ w = 0 la terna {v. si alguno de o ellos es el vector 0). w. Luego esa debe ser la ubicaci´n de w ∧ v para e o que la terna [w. en cuyo caso v ∧ w = 0 4) v ∧ w = − (w ∧ v) ( en particular.w = 0 c) Si v = 0 y w = 0 la terna {v. para el mismo obsera vador la que lleva w en v es de sentido horario. Nos quedaremos para esto con las ternas del primer tipo que llamaremos positivas. w. y como en general v ∧ (w ∧ u) = 0. .

b) v ∧ (w1 + w2 ) = v ∧ w1 + v ∧ w2 . hay o que observar que del hecho que la terna {v. Esto es: a) (v1 + v2 ) ∧ w = v1 ∧ w + v2 ∧ w. PRODUCTO VECTORIAL. −w.r (pw) pues r (pw) = pw = w . Esta propiedad se deduce directamente de la definici´n en el caso λ 0.5.sen θ (ver figura) . Para el caso λ < 0. − (v ∧ w)} y {v. w. se verifica que: v ∧ w = v . w.4. e 7) El producto vectorial es distributivo respecto de la suma de vectores. Para demostrar esta propiedad hacemos algunas observaciones previas. observamos que llamando π al plano con vector normal v e indicando por p w la proyecci´n de w sobre ese plano. − (v ∧ w)} son tambi´n positivas. 159 6) Para todo λ ∈ R: λ (v ∧ w) = (λv) ∧ w = v ∧ (λw). En primer lugar. y con r(pw) el vector o que se obtiene rotando esa proyecci´n un ´ngulo de medida π/2 en sentido o a antihorario observado desde v. v ∧ w} es positiva se deduce que {−v.

r (pw1 )+ v . k ∧ i = j (es decir.r (pw2 ) = v ∧ w1 + v ∧ w2 . i ∧ j = k. j. entonces: i ∧ i = j ∧ j = k ∧ k = 0. ı a 8) Si {i. · · · ) el producto de dos vectores sucesivos o da el que le sigue): j ∧ i = −k. j.8) resulta que si v = a1 i + a2 j + a3 k y w = b1 i + b2 j + b3 k.6). entonces: v ∧ w = (a2 b3 − a3 b2 ) i − (a1 b3 − a3 b1 ) j + (a1 b2 − a2 b1 ) k.7) y 4. i.r (p (w1 + w2 ))= v . Obs´rvese que este resultado puede recordarse pensando en el desarrollo por e la primer fila de un determinante: i j k a1 a2 a3 b1 b2 b3 = (a2 b3 − a3 b2 ) i − (a1 b3 − a3 b1 ) j + (a1 b2 − a2 b1 ) k . k} es una base ortonormal positiva de V . As´ se prueba b) y an´logamente se obtiene a).160 5. k ∧ j = −i. PRODUCTO ESCALAR Y VECTORIAL Como p (w1 + w2 ) = pw1 + pw2 y r (pw1 + pw2 ) = r (pw1 ) + r (pw2 ) tendremos que: v∧(w1 ∧ w2 ) = v . j. j ∧ k = i. 4. k. en la sucesi´n (i. i ∧ k = −j 9) De 4.

yo .´ 5. Luego u = v ∧ w . r) = [(y − y0 )c − (z − z0 )b]2 + [(x − x0 )c − (z − z0 )a]2 + [(x − x0 )b − (y − y0 )a]2 √ a2 + b2 + c2 . zo ). por e lo tanto esta definici´n de v ∧ w coincide con la inicial. u} es tambi´n positiva. e a ) Distancia de un punto a una recta: sea r una recta dada por un punto A y un vector v. w. puede definirse el producto de dos vectores por la expresi´n dada en 4.sen θ y u. Q = (x. Si adem´s {i.sen θ| = AQ .sen θ = AQ ∧ v v Si A = (xo . APLICACIONES GEOMETRICAS.5. j. A) . w . La distancia de Q a r es: d (Q. que {v.9). v = ai + bj + ck entonces la distancia es d(Q. Aplicaciones geom´tricas. o 5.j. z). r) = |d (Q.5. 161 Esta expresi´n del producto vectorial puede tambi´n tomarse como su deo e finici´n. Se comprueba entonces sin dificultad que el veco tor: u = (a2 b3 − a3 b2 ) i − (a1 b3 − a3 b1 ) j + (a1 b2 − a2 b1 ) k verifica u = v .w = 0.k } o a (positiva o negativa). dada una terna ortonormal cualquiera {i. k} es una terna positiva a puede verificarse.v = u. M´s precisamente. y.

. y0 . y0 . Esto se puede hacer sin usar el producto vectorial. P0 ∈ C    z y = 1. En el punto 3 de este cap´ ıtulo se vieron algunas superx=y x=0 ficies de revoluci´n particulares.4. es decir. plano. y = y0 + e λq. resolviendo el o sistema de ecuaciones ax + by + cz + d = 0 a′ x + b′ y + c′ z + d′ = 0 Usando el producto vectorial: tomar P0 = (x0 . PRODUCTO ESCALAR Y VECTORIAL EJEMPLO 5. y0 . z0 ) de la recta y un vector v = p i + q j + r k de la direcci´n de r. z0 resulta (x + y)2 z 2 − 2xy = 1 b)Intersecci´n de dos planos no paralelos: o ax + by + cz + d = 0 Sea r : una recta (dada como intersecci´n o a′ x + b′ y + c′ z + d′ = 0 de dos planos no paralelos). Si el sistema de coordenadas es ortogonal. por. P0 ⊥r    2 2 2z + (x − y)2 = 2z0 + (x0 − y0 )2 . r) eliminando x0 . Sea r o C : .162 5. r) = dist (P0 . z = z0 + λr (o tambi´n P = P0 + λv). y entonces n ∧ n′ es un vector de la intersecci´n de ambos planos o (luego. o Las ecuaciones son:   x0 = 0. dist (P. π. est´ en la direcci´n de la recta de intersecci´n de ambos). P ∈ C 0 0 0  x − x0 + y − y0 = 0. a o o ′ = (bc′ − b′ c) i− (ac′ − ca′ ) j + (ab′ − ba′ ) k es de la direcci´n Luego: n ∧ n o de r. Hallar la z=0 zy = 1 superficie de revoluci´n de eje r y generatriz C. entonces: n = ai + bj + ck y n′ = a′ i + b′ j + c′ k son vectores normales a los planos. Para esto se necesita hallar un e punto P0 = (x0 . las de la forma: x = x0 + λp. z0 ) una soluci´n partio cular del sistema de ecuaciones. Supongamos que queremos las ecuaciones param´tricas de esa recta.

entonces: d (r. (ver figura) . r ′ ): si r y r’ son paralelas: basta tomar el punto A y hallar dist (A. π) u donde π es el plano paralelo a r que contiene a r’. APLICACIONES GEOMETRICAS.´ 5. Es claro que este m´ ınimo se obtiene cuando la recta P P ′ es perpendicular al mismo tiempo a r y a r ′ . r ′ ).5. r ′ )= 0. si r y r ′ se cortan: d (r. 163 c ) Distancia entre dos rectas: Se define la distancia d (r. Si s es la perpendicular ′ ′ com´n . r ′ ) entre dos rectas r. Supongamos ahora que r y r’ no son coplanares. o Para tener d (r. r ′ ) = d P0 . r ′ como el m´ ınimo de d (P. P ′ ) donde P ∈ r y P ′ ∈ r ′ . Sea r dada por un punto A ∈ r y un vector v de su direcci´n y r ′ por B ∈ r y un vector w. P0 = d (A. Como versor . Po = s ∩ r y P0 = s∩r ′ .

π) = v∧w v∧w . Supongamos ahora que las dos rectas no son coplanares. e ) Volumen de un tetraedro: Consideremos un tetraedro dado por sus v´rtices A. (B − A) ∧ (C − A) . Si se interceptan . Luego : − − → (v ∧ w) . Dada la direcci´n v de r y la w de r’. una perpendicular com´n es la recta perpendicular a una de ellas u trazada por un punto de la otra. (B−A)∧(C−A) por lo que V = 1/6. Las ecuaciones de π o y π’ as´ obtenidas constituyen un par de ecuaciones que representan la recta ı s. r ′ = d (A.164 5. |[(B − A) ∧ (C − A)] . PRODUCTO ESCALAR Y VECTORIAL de la direcci´n de s puede tomarse n = o d r. el problema es tambi´n e f´cil de resolver.w. el plano π queda determinado por A. Luego s = π ∩ π ′ .v y v ∧ w. B. Su volumen es V = 1 ´rea de la base × altura. Luego V = 1/6. a La perpendicular com´n s est´ en el plano π de s y r. El π’ por y A ∈ r.AB 1 v∧w d ) Perpendicular com´ n a dos rectas: Si las dos rectas son pau ralelas. D. pues v ∧ w es un vector de la direcci´n de s. C. e 3 a Tendremos: ´rea base = 1/2 (B − A) ∧ (C − A) . (D − A)| con n = (B−A)∧(C−A) |[(B−A)∧(C−A)]. o nado por s y r ′ .(D−A)| (B−A)∧(C−A) . la altura es |n. a Si n es el versor normal a la base. y en el π’ determiu a ′ . B ∈ r B.v ∧ w. (D − A)| .

w = b1 i + b2 j + b3 k. (v ∧ w). o tambi´n u. llamamos producto mixto al n´mero (v ∧ w) .6. luego: c1 c2 c3 a1 a2 a3 b1 b2 b3 = b1 b2 b3 c1 c2 c3 a1 a2 a3 = a1 a2 a3 b1 b2 b3 c1 c2 c3 . resulta que dos de esas permutaciones o no cambian el determinante. b1 b2 c1 c2 c3 a1 a2 a3 b1 b2 b3 v ∧ w.u.6. PRODUCTO MIXTO 165 5. k} y e sean: v = a1 i + a2 j + a3 k. Dados tres vectores o u.5. u = c1 i + c2 j + c3 k. y w. v. j. Entonces: v∧w = a2 a3 b2 b3 a2 a3 i− b2 b3 a1 a3 b1 b3 a1 a3 b1 b3 j+ a1 a2 k. Producto mixto Es una operaci´n definida de V × V × V en R.u que indicamos v ∧ u w. Consideremos un sistema ortonormal {i.u = c1 − c2 + a1 a2 c3 = b1 b2 (Por desarrollo por la primer fila de ese determinante) Usando el hecho de que si se permutan dos filas de una matriz entre s´ el ı determinante s´lo cambia de signo.

z). fila a la 1ra. Es por esto que se escribe (u. c3 ) esta ecuaci´n se escribe: o x − a1 y − a2 z − a3 b1 − a1 b2 − a2 b3 − a3 c1 − a1 c2 − a2 c3 − a3 x a1 b1 c1 y a2 b2 c2 z a3 b3 c3 1 1 1 1 = 0. a3 ). As´ se tiene: ı x − a1 a1 b1 − a1 c1 − a1 y − a2 a2 b2 − a2 c2 − a2 z − a3 a3 b3 − a3 c3 − a3 0 1 0 0 x − a1 y − a2 z − a3 b1 − a1 b2 − a2 b3 − a3 c1 − a1 c2 − a2 c3 − a3 = = 0. ´ tambi´n: o e = 0. (v.y.. b2 .w o de u. (v ∧ w). o sea (P − A.w. c2 . Decir que P pertenece a ese plano equivale a decir que los vectores P − A.w = (w ∧ u) . w) = π/2 .u) = 0 es necesario y suficiente que v. w sin indicar si se trata de (u ∧ v) .v. pues el resultado es el mismo.v. C − A) = 0. a a para que (v. C en otra forma. y la e 4ta.w. la 3da.w = u. v) = ´ng (v ∧ w. u) = 0 si y s´lo si el volumen del tetraedro determinao do por esos vectores es 0.u. Esta condici´n permite escribir la ecuaci´n vectorial del plano dado por o o tres puntos A. (Obs´rvese que esto podr´ sacarse como conclusi´n del c´lculo del volumen e ıa o a del tetraedro. PRODUCTO ESCALAR Y VECTORIAL En consecuencia: (v ∧ w) . a2 . el determinante no cambia. esto es equivalente a decir que los vectores son coplanares). Es decir.A=(a1 . B − A. Se puede entonces hablar del producto mixto de u. Pasando a coordenadas. si P=(x. v. u) = π/2 o alguno o a de los vectores es el nulo. B − A y C − A son coplanares. da lo mismo cualesquiera sean los tres vectores sucesivos. w y u sean coplanares.u) = 0 si y s´lo si ´ng(v ∧ w. B = (b1 . B. b3 ) y C = (c1 .w. .u = (u ∧ v) . Observamos que (v.v. que en la sucesi´n (u.166 5. (v ∧ w). Como ´ng (v ∧ w. Para ver esto obs´rvese que si se le resta la 2da.w ) el producto vectorial de dos vectores sucesivos mulo tiplicado escalarmente por el siguiente.w ) como notaci´n para o (u ∧ v) . w. filas.v.

Tambi´n hemos obo e servado que estas propiedades son las mismas en los tres casos abordados hasta ahora. que a a es el del t´ ıtulo . Es decir a introducir un conjunto arbitrario con cuyos elementos se supone se puede operar con propiedades an´logas a las que por ejemplo tienen las a operaciones con n-uplas. Naturalmente los ejemplos que nos motivaron y ser´n una constante fuente de a inspiraci´n para encontrar las definiciones. pero u 167 . en las ternas de n´meros o en las matrices. En muchas ramas de la matem´tica aparecen conjuntos entre cuyos elea mentos se realizan combinaciones lineales.CAP´ ıTULO 6 ESPACIOS VECTORIALES En este Cap´ ıtulo se introducir´ el concepto b´sico de este curso. De este modo se desarrolla de una sola vez una teor´ que puede aplicarse a m´ltiples y a priori dis´ ıa u ımiles ejemplos. las n-uplas y los vectores del espacio ambiente. En los ejemplos e desarrollados hasta el momento se hizo notar que muchos de los resultados obtenidos solo depend´ de las propiedades que ten´ las operaciones y ıan ıan no de otras particularidades del ejemplo en cuesti´n. Ya hemos visto tres ejemplos de esto en nuestro curso: las matrices. Eso nos motiva a intentar un desarrollo abstracto de la teor´ ıa. En particular el lector podr´ recurrir frecuentemente a motivaciones baa sadas en los vectores de E. Pero el lector puede recordar otros ejemplos como las funciones continuas y los polinomios con los cual tambi´n se opera. enunciados y demostraciones de o nuestra teor´ ıa. Trataremos de hacer hincapi´ en las nociones geom´tricas e e simples que son comunes a otras ramas de la matem´tica y motivar en todo a lo posible en base al concepto de vectores en el espacio ambiente E estudiado en el cap´ ıtulo sobre Rectas y planos en el espacio.

6. comprender bien como se le utiliza en diversas demostraciones. pero cuya comprensi´n en toda su riqueza -nuestra o experiencia lo indica. Un concepto fundamental que re-aparecer´ en este cap´ a ıtulo es el de independencia lineal. que verifica las siguientes propiedades: Para la suma: S1) Asociativa: (u + v) + w = u + (v + w) ∀ u. cuya definici´n ya hemos establecido antes y que parece o particularmente simple. K. ·} a 1) Un conjunto V = ∅ cuyos elementos se llamar´n vectores. Un espacio vectorial sobre un cuerpo K (que en este curso ser´ el de los n´meros reales R. y denotada con el s´ o ımbolo + cuyo dominio es el producto cartesiano V × V y cuyo codominio es V ( + : V × V → V quiere decir que u+v est´ definida para todo par (u.1.v ) a ∈ V × V y da como resultado un elemento V ) . cuyos elementos se llamar´n escalares. Realizar muchos ejercio cios con este nuevo concepto abstracto. o el de los n´meros complejos C). 4) Una operaci´n llamada producto de un escalar por un vector. +. a 3) Una operaci´n llamada suma de vectores. ESPACIOS VECTORIALES el objeto en estudio es un concepto abstracto. cuyo dominio es K × V y cuyo codominio es V (· : K × V → V ). ∀u ∈ V. w ∈ V S2) Conmutativa: u + v = v + u ∀ u. a 2) El cuerpo K. Espacios vectoriales ´ DEFINICION 6.168 6. es a u u una cu´drupla ordenada {V.merece una atenci´n especial. es una recomendaci´n que hacemos amistosamente o al lector. llamado “vector nulo denotado con 0. cuya a comprensi´n y manejo fluido es una de las finalidades principales de este o curso. v. y deo notada con el s´ ımbolo · . 2 . tal que 0 + u = u + 0 = u. v ∈ V S3) Neutro: Existe un elemento 0 ∈ V . mucho m´s general.1.

6.1. ´ ´ Demostracion.3.2. A los espacios vectoriales sobre C. denotado como −u. ∀α. espacios vectoriales complejos.. +. ·}se cumple: 1) el neutro es unico.4. luego coinciden. (u + v) = α. ´ OBSERVACION 6. luego son iguales. En P4) la suma de escalares (suma dentro de K) se escribi´ con el s´ o ımbolo + pero no hay que confundirla con la suma dentro de V . 2) Sean (−u)1 y (−u)2 dos opuestos de u: (−u)1 = 0 + (−u)1 = ((−u)2 + u) + (−u)1 = (−u)2 + (u + (−u)1 ) = (−u)2 + 0 = (−u)2 . A los espacios vectoriales sobre R se los llamar´ esa pacios vectoriales reales.u + β. o de las matrices con sus operaciones de suma y u producto por un escalar. A veces. de las o n-uplas de n´meros reales. ∀ u. ´ 2) Para cada vector u ∈ V su opuesto −u es unico. tal que u + (−u) = (−u) + u = 0. ESPACIOS VECTORIALES 169 S4) Opuesto: Para cada vector u ∈ V . o C–espacios vectoriales.u P2) Multiplicaci´n por la unidad del cuerpo: 1. v ∈ V P4) Distributiva respecto de suma de escalares (α + β) .u = u . K. ∀ u ∈ V ´ OBSERVACION 6.u) = (α.u = α. que se representa tambi´n con el s´ e ımbolo +. ´ OBSERVACION 6. ∀ ∈ K.u+α.1.β) . En todo espacio vectorial {V. β ∈ K. Para el producto: P1) α. (β. El lector comparar´ estas propiedades de la defia nici´n de espacio vectorial con las propiedades de los vectores de E. existe un vector llamado “opuesto de u”. ´ PROPOSICION 6.u .v . ∀ u ∈ V o P3) Distributiva respecto de suma de vectores:α. 1) Sean 01 y 02 dos neutros: 01 = 01 + 02 = 02 . . o R–espacios vectoriales.

−a2 . . an + b1 ) y adem´s a def def λ · (a1 . . .2. . +. λ. 6. obtenemos un espacio vectorial real. −an ). . a2 . · · · . b3 ) = (a1 + b1 . bn ) = (a1 + b1 . . a2 + b1 . V es el conjunto de ternas ordenadas de n´meros reales u 3 y K =R y definimos las operaciones + y · como sigue: V =R suma: (a1 .an ). λ. . con 0 = (0. a3 ) = (λ. . En general si V es el conjunto de las n-uplas ordenadas de n´meros reales. λ. an ) = (λ.2. a3 + b3 ) def def producto: λ · (a1 . a2 . Es f´cil ver que {Rn . b2 . λ. Notaci´n: El s´ o ımbolo = quiere decir que el miembro de la izquierda esta siendo definido mediante la expresi´n de la derecha. an ) = (−a1 . . Las operaciones definidas en este ejemplo se llaman usuales de Rn . o def EJEMPLO 6. Ejemplos de espacios vectoriales EJEMPLO 6. V = R × R × . . . . EJEMPLO 6.a2 . K = V y las operaciones + y · son las definidas en el cap´ ıtulo 2.a1 . b2 . a2 . .1. .a2 .3. . Si V es el conjunto de vectores del espacio. R. a2 . × R = Rn . .K = R y las operaciones son: u (a1 . . .a3 ) para todo λ ∈ R y todas las ternas de R3 .a1 . . · · · . . ·} es a un espacio vectorial sobre R. an ) + (b1 . a3 ) + (b1 . a2 + b2 .170 6. . 0. sobreentendiendo el cuerpo K y las operaciones + y ·. a2 . . 0) y − (a1 . · · · . ESPACIOS VECTORIALES por abuso de lenguaje los espacios vectoriales se indican por el conjunto de vectores V . .

e e λ · {an } = λ · (a1 . {P.6. y sean la suma usual de polinomios y el producto usual de un n´mero por un polinomio. .. . sea K = R. . . a2 + b2 . b] → R. +.) = {an + bn } (la suma de dos sucesiones es definida como la sucesi´n que se obtiene suo mando los t´rminos n-´simos de las sucesiones dadas). f+g = h donde h( x) = f(x)+g(x) ∀x ∈ [a. El vector nulo es a la sucesi´n que tiene todos sus t´rminos iguales a cero.7. a2 . El conjunto de las n-uplas ordenadas de n´meros compleu n con las operaciones definidas como en el ejemplo 6. Se verifica adem´s o e a − {an } = {−an } def def EJEMPLO 6. El conjunto de todas las funciones f : [a. y las operaciones + y · definidas como sigue: Dadas {an } y {bn }∈ V . an ) = (λ · a1 .. λ · a2 . .. u K = R.4. Sea P el conjunto de todos los polinomios en una variable con coeficientes reales. forma un R-espacio vectorial.. . . . b] ..5. con las operaciones usuales de suma de funciones y producto de un n´mero real por una funci´n.6. . Sea V el conjunto de las sucesiones de n´meros reales. C. Es decir: u o λ · f = k donde k (x) = λf (x) ∀ x ∈ [a. . def def def def EJEMPLO 6.3 tomando jos V = C K = C forma un C-espacio vectorial {Cn . y dado λ ∈ R: {an } + {bn } = (a1 + b1 . EJEMPLOS DE ESPACIOS VECTORIALES 171 EJEMPLO 6. b]. EJEMPLO 6. ·} es un R–espacio u vectorial. R.2. ·)}. . +. an + bn . λ · an ) = {λ · an } Es f´cil comprobar que es un espacio vectorial real .

10. forman un espacio vectorial real.5. + : V × V → V y · : R × V → V.172 6. ESPACIOS VECTORIALES EJEMPLO 6.4 Entonces {V.4 constituyen un C-espacio vectorial.8. Si K = R. R. donde se define 0+0=0 y α · 0 = 0 .11. puesto que C difieren en el cuerpo K). operaciones ´stas definidas an´logamente al ejemplo 6. En todos los ejemplos anteriores.1. hay que verificar que se cumplen las propiedades incluidas en la definici´n 1. +. K = R. ∀ α ∈ K. EJEMPLO 6. El conjunto {0} es un K-espacio vectorial. ·} es un R-espacio vectorial a distinto al del ejemplo 6. ´ OBSERVACION 6. ·} un espacio vectorial real (distinto del ejemplo 6. para verificar que efectivamente son espacios vectoriales.4 y la del ejemplo 6. El conjunto de los polinomios de grado menor o igual a n. Sea V el conjunto de sucesiones de n´meros complejos. en una variable x (este conjunto se indica con Pn ). resulta a a n . y la suma y producto por un real definido como en el ejemplo 6. y las operaciones en Cn se definen en forma an´loga al ejemplo anterior (y en forma an´loga al ejemplo 6. EJEMPLO 6.3). R.9 EJEMPLO 6.9. para la suma y el producto por o escalares. +.12.5.7 . EJEMPLO 6. . u e Si K = R. Las sucesiones de n´meros complejos con la suma de suu cesiones y el producto de una sucesi´n por un n´mero complejo definidos en o u forma similar al ejemplo 6.

´ PROPOSICION 6. Directo: Supongamos que α = 0.13. Como α · u = 0.9. Se denota u − v a la suma u + (−v) con u.v + (−1) v = (1 + (−1)) v = 0. u ∈ V . Sea u un vector cualquiera de V. 0 · u = 0 · u + 0 = 0 · u + (u − u) = (0 · u + 1 · u) − u = (0 + 1) · u − u = 1 · u − u = u − u = 0 ´ PROPOSICION 6. v ∈ V .14. de grado igual a n. Basta ver que (−1) v es el opuesto de v.6. ´ PROPOSICION 6.10.7 y 6. (−1) . no forman un espacio vectorial ( Estudiar por qu´ no). ´ OBSERVACION 6. e EJEMPLO 6. Entonces .8. 1 1 (α · u) = α · 0 de donde α · α · u = 0. Con las operaciones usuales {R. Sean α ∈ K .v = −v ∀v ∈ V ´ Demostracion.7. u = 0. 0 · u = 0 . ´ PROPOSICION 6. ·} no es un espacio vectorial. α · u = 0 si y s´lo o si : α = 0 y/o u = 0. ∀u ∈ V ´ Demostracion. El conjunto de los polinomios en una variable x. ∀α ∈ K ´ Demostracion.8.2. α · 0 = 0 .5. C. o sea 1 · u = 0 entonces. EJEMPLOS DE ESPACIOS VECTORIALES 173 EJEMPLO 6. 0 = α · u − α · u = = α · 0 + u − α · u = α · 0 + α · u − α · u = α · 0 + (α · u − α · u) = = α · 0 + 0 = α · 0. Rec´ ıproco: son las Proposiciones 6. con coeficientes reales. +.v = 1. K = R y la suma y el producto definidos como en el ejemplo 6. es decir v + (−1) . ´ Demostracion.6.v = 0 1 α · .

z2 ) dos puntos de π y λ un escalar cualquiera.15. z) ∈ R3 : ax + by + cz = 0}. Si W es un subespacio. W es subespacio de V . y1 . Diremos que W es un subespacio de V. 0. z1 ) y p2 = (x2 . EJEMPLO 6. x3 ) + (x2 . el vector nulo).3. En ambos casos. z1 + z2 ) = q .7. Entonces π es un subespacio de R3 En efecto π = ∅. y2 .174 6.2. o EJEMPLOS DE SUBESPACIOS VECTORIALES EJEMPLO 6. +. En efecto como W = ∅ existe w ∈ W y como W es cerrado para la multiplicaci´n por o escalares λw ∈ W . un subespacio de un espacio vectorial es un conjunto no vac´ ıo. si se cumple: a) w1 + w2 ∈ W para todo w1 ∈ W y w2 ∈ W b) λ w ∈ W para todo w ∈ W y λ ∈ K Es decir. Verifiquemos primero que la suma es cerrada p1 + p2 = (x1 . ´ OBSERVACION 6. x2 .11. Sean p1 = (x1 . “cerrado” frente a la suma y al producto de escalares por vectores. son los llamados subespacios triviales. El otro ´ subespacio trivial es W = V . y1 + y2 . y. 0) ∈ π y es cerrado para las operaciones. La ultima igualdad ´ es consecuencia de la Proposici´n 6. ∀λ ∈ K. y2 . entonces 0 ∈ W .16. de subespaa cio vectoriales. Subespacios ´ DEFINICION 6. En particular 0. Uno de ellos es W = 0 (conjunto formado por un unico elemento. Sea π un plano del espacio por el origen. ·} un espacio vectorial y W = ∅ un subconjunto no vacio de V. π = {(x. pues 0 = (0. ESPACIOS VECTORIALES 6. z2 ) = (x1 + x2 . K. Sea {V.w = 0 ∈ W . Los primeros ejemplos y los m´s sencillos.

pues p1 ∈π a(λx1 ) + b(λy2 ) + c(λz1 ) = λ ax1 + by1 + cz1 = 0 Si en cambio se considera un plano π que no pase por el origen entonces su ecuaci´n ser´ ax + by + cz = d con d = 0. dado que ´ste esta definido por comprensi´n. esto es sus coordenadas deben verificar la ecuaci´n o o ax + by + cz = 0 =0. SUBESPACIOS 175 y q ∈ π. Para ver que el elemento q pertenece al conjunto π es necesario. q = p1 + p2 π p2 p1 0 . pues p2 ∈π a(x1 +x2 )+b(y1 +y2 )+c(z1 +z2 ) = ax1 + by1 + cz1 + ax2 + by2 + cz2 = 0 Veamos ahora que π es cerrado para la multiplicaci´n por escalares. Obs´rvese que π = ∅ pero 0 ∈ π o a e / en consecuencia no es un subespacio. Es adem´s f´cil ver que no es cerrado a a para las operaciones si p1 y p2 son dos puntos de π su suma q = p1 + p2 no pertenece a π tal como se ve en el dibujo. λy1 .3. verificar que q cumple las condici´n e o o l´gica de pertenencia. z1 ) = (λx1 . Compruebe el lector esto anal´ ıticamente. y1 . λz1 ) = q ′ y q ′ ∈ π pues =0. pues p1 ∈π =0. o λp1 = λ(x1 .6.

y1 . a′ x + b′ y + c′ z = 0} Obs´rvese que (x. entonces afirmar que los subespacios de Rn son exactamente los conjuntos soluci´n de los sistemas homog´neos de ecuaciones. o e Por otra parte. y2 . z2 ) dos puntos de r y λ ∈ R entonces q = p1 + p2 pertenece a r. pues p2 ∈r 0 El lector verificara que λp1 = q ′ ∈ r. Es claro que para verificar que p1 + p2 pertenece a r s´lo tuvimos que usar o la propiedad distributiva del producto de matrices por lo tanto en general si A ∈ Mm×n es una matriz cualquiera y S = {X ∈ Rn : A·X = 0} ⊂ Rn es el conjunto soluci´n del sistema homog´neo de matriz A entonces S es un o e subespacio de Rn . r = {(x. o e Es correcto.42 o       x1 + x2 x1 x2 a b c  a b c       y1 + y2  =  y1  +  y2  = ′ b′ c′ a a′ b′ c′ z1 + z2 z1 z2     x1 x2 a b c  0 a b c    =  y1  +  y2  = ′ b′ c′ ′ b′ c′ a a 0 z1 z2 =( 0 ). Es decir que n si S es un subespacio cualquiera de R existe A ∈ Mm×n tal que S es el conjunto soluci´n del sistema homog´neo AX = 0. desde un punto de vista m´s geom´trico es natural entonces a e .17. z1 ) y p2 = (x2 . ESPACIOS VECTORIALES EJEMPLO 6. y. z1 + z2 ) verifican la condici´n 6.176 6. pues p1 ∈r 0 =( 0 ). y. De hecho veremos m´s adelante que el rec´ a ıproco es verdadero.42) 0 0 Sean p1 = (x1 . para verificar esto veremos que las coordenadas de q = (x1 + x2 . z) ∈ r si y solo si e  a b c a′ b′ c′  x    y = z (6. y1 + y2 . z) ∈ R3 : ax + by + cz = 0. Sea r un recta por el origen entonces r es un subespacio vectorial de R3 .

. Entonces W es un subespacio de R EJEMPLO 6. En {Rn . y sea C[a. Entonces C[a. +. 1 Para entender que es un espacio de dimensi´n finita v´ase m´s adelante la definici´n o e a o 6.6. a2 . En las sucesiones de n´meros reales (ejemplo 6. ·} sea W = {(a1 .19. Recordar que la suma de funciones continuas es una funci´n continua. Sea P el espacio vectorial de los polinomios definido en el ejemplo 6.22.21.8) .5. f : [a. componente nula. . as´ como tambi´n lo es el producto de una funci´n o ı e o continua por un escalar. EJEMPLO 6. o EJEMPLO 6. Sea V el espacio vectorial del ejemplo 6..18. R.4) sea W u el conjunto formado por las sucesiones que a partir de alg´n t´rmino. R. b] el conjunto de las funciones f que son continuas. EJEMPLO 6. como veremos a m´s adelante.3.20. e Verificar que W es un subespacio del espacio vectorial V. tienen u e todos los t´rminos restantes iguales a cero. an ) ∈ Rn : ai = 0} con i fijo 0 < i n. EJEMPLO 6. a3 ) ∈ R3 tales que a3 = 0 entonces W es un subespacio de V. b] es un subespacio de V. N´tese que si consideramos s´lo o o el conjunto de polinomios de grado exactamente n con n ≥ 1 no constituyen subespacio de P pues el polinomio nulo tiene grado 0. es decir W es el conjunto de las n-uplas con la i-´sima e n. SUBESPACIOS 177 pensar esquem´ticamente los subespacios de Rn (y de hecho. Entonces Pn es un subespacio de P. +. Sea Pn el subconjunto de los polinomios de grado menor o igual que n.6. b] → R. En {R3 . ·} W= (a1 .. los de un espacio vectorial de dimensi´n finita cualquiera 1 a o como la generalizaci´n de los planos y rectas por el origen de E.

porque al sumar dos elementos de W. En el ejemplo 6. C. Si W es un subespacio de {V. ·} entonces {W. EJEMPLO 6. a2k = 0}. con las operaciones usuales. ·} el espacio vectorial del ejemplo 6.7 {Cn . Entonces W es un subespacio. Este subconjunto W e no es un subespacio. es un espacio vectorial sobre el mismo cuerpo K.12. sea W el subconjunto de las sucesiones que tienen igual a cero los t´rminos que est´n en lugar par: e a W = {{an } : an ∈ C. ·} no es un subespacio. En el espacio de las n-uplas de complejos (ejemplo 6. +. ESPACIOS VECTORIALES EJEMPLO 6. K.178 6. Hay que probar que si {V. K.9 de las sucesiones de n´meros complejos u sobre el cuerpo C. TEOREMA 6. +. +. el resultado no pertenece a W. Se e n puede verificar que es un subespacio de C .23. Observar que el mismo subconjunto W ’. K. En el espacio del ejemplo 6. considerado como subconjunto del espacio vectorial {Cn . ·} tambi´n es un espacio e vectorial es decir se cumplen todas las condiciones de la definici´n 6. +. EJEMPLO 6.8 Sea W ’ el subconjunto formado por las n-uplas de n´meros complejos cuyos u t´rminos tienen parte real igual a cero. ·} es espacio vectorial y W ⊂ V es subespacio de V entonces {W. EJEMPLO 6. +. Las o operaciones + y · en W son las mismas que en V s´lo que restringidas a W o (esto es definidas s´lo para los elementos de W ). o Como W es cerrado para las operaciones estas quedan bien definidas es decir . R. K. Sea {Cn .26. En este ejemplo es e importante que el cuerpo K sea R y no C. Es un subespacio.1. ·} sea W el subconjunto de las n-uplas cuyo primer t´rmino es 5+2i .7) sea W un subconjunto de las n-uplas cuya suma de t´rminos da cero.24. ´ Demostracion. ·} con las operaciones + y · “heredadas”de V. +. +.25. C.

. Adem´s W ⊂ V puesto que W ⊂ Wi ⊂ V ∀ i = 1. ∀λ ∈ K. TEOREMA 6. a o ∀v ∈ V entonces tambi´n ser´ esto cierto ∀v ∈ W pues W es un subconjunto e a de V . . Para lo cual alcanza con probar que W es cerrado con respecto a la suma y cerrado con respecto al producto de un escalar por un vector. En efecto.13.10.. alcanza ver si W es un subespacio de alg´n V. en efecto: el vector 0 pertenece a todos los subespacios Wi .. con ciertas operaciones + y · es un espacio vectorial. Sean W1 . Por otra parte las propiedades asociativa y conmutativa de la suma y todas las del producto se verifican en W pues se verificaban para cualesquiera vectores de V y W ⊂ V .6. SUBESPACIOS 179 + : W ×W → W y · : K×W → W . como W ıo es cerrado para las operaciones se tiene que λw ∈ W. Por lo tanto la suma en W tiene neutro. En primer lugar W = ∅.. W2 . e i=1 n ´ Demostracion. 2. Veremos que esto no es posible si ıa / W es no vac´ y cerrado para las operaciones.11 vimos que 0 ∈ W y como 0 + v = v + 0 = v.14. Adem´s en la observaci´n 6. Resta entonces s´lo verificar o la existencia del opuesto.. n a .1. Este teorema permite ver en forma f´cil si un cierto a conjunto W sobre un cuerpo K. que ya se sepa tiene u estructura de espacio vectorial. . en efecto sea w ∈ W . subespacios de un mismo espacio V. ´ OBSERVACION 6. e pero a priori podr´ ocurrir que −w ∈ W . y por lo tanto pertenece tambi´n a su intersecci´n e o W. Esto prueba la existencia del opuesto en W y concluye o la prueba. en lugar de verificar todas las condiciones de la definici´n o 6.. Naturalmente que si w ∈ W ⊂ V es un elemento cualquiera de W entonces tambi´n lo es de V y por lo tanto existe −w ∈ V . En ´sta ultima igualdad se uso e ´ la proposici´n 6. Por lo tanto (−1)w = −w ∈ W .3. Entonces W = ∩ Wi es tambi´n un subespacio de V. Wn . en particular si λ = −1.

λ2 . Hasta ahora hemos o probado que [A] es cerrado respecto a la suma. vn ........ o 6. αn .+αn vn y w = β1 w1 +β2 w2 +. .. 2.. vi ∈ A ∀i . v2 .. Ahora sean α ∈ K y w ∈ W .. n. Sea V un espacio vectorial.15. Sean ahora v. O sea. entonces w y w′ ∈ Wi para cada i = 1.) de v1 ..+ βm wm . .180 6. o sea a W. Se tiene w ∈ Wi ∀ i = 1. Decimos que v es combinaci´n lineal (c...+αn vn +β1 w1 +β2 w2 +. w2 . . vn cuando existen o escalares λ1 . A ⊂ V . Luego w + w′ ∈ Wi ∀ i = 1. + λn vn Si A es un subconjunto no vac´ de V... dependencia o o e independencia lineal de vectores en espacios vectoriales cualesquiera... β2 . .4.. λn tales que : v = λ1 v1 + λ2 v2 + . vn vectores de V.. α2 ... . Sean w y w′ ∈ W ... Entonces α·w ı pertenece a la intersecci´n de todos los Wi . Esto quiere decir que existen vectores v1 ... v + w es combinaci´n lineal de elementos de A. .... .l. . 2.. n. Sean V un espacio vectorial y A = ∅. ´ Demostracion. 2.. v1 .. . β1 . n (puesto que Wi son subespacios). . es decir: [A] = v ∈ V tales que : v = λ1 v1 + . ... 2. v2 .... .. + λp vp con λi ∈ K. ıo u se tiene 0 = 0·v ⇒ 0 es combinaci´n lineal de v ⇒ 0 ∈ [A]. v2 .. se indica con [A] al conjunto de ıo todas las combinaciones lineales de elementos de A. que generalizan los conceptos vistos en el Cap´ ıtulo 2 ´ DEFINICION 6. TEOREMA 6. De all´ α·w ∈ Wi ∀ i = 1.3... βm tales que v = α1 v1 +α2 v2 +. w1 . Entonces w + w′ ∈ W . wm pertenecientes a A (no necesariamente distintos) y existen α1 .+βm wm . Entonces [A] es un subespacio de V. ESPACIOS VECTORIALES Falta probar que W es cerrado frente a la suma de vectores y al producto de un escalar por un vector...w o ∈ [A]. Subespacio generado e independencia lineal En esta Secci´n daremos definiciones de combinaci´n lineal. [A] es distinto de vac´ porque dado alg´n vector v de A. n (puesto que Wi son subespacios). Entonces v +w = α1 v1 +α2 v2 +...

vn ∈ A. + αn vn ) = (λ·α1 ) v1 +. tales que: v = α1 v1 + α2 v2 + . e o [A] es cerrado respecto al producto de un escalar por un vector. Existen escalares α1 .4 (Subespacio generado). Sea V = R3 y A = {(1. 0) + b(0. 0.27. 0.. (ver definio ci´n 6.. b. EJEMPLO 6. ´ DEFINICION 6.3). Sea v = (a. b. . 0) + α2 (0.. Sea V un espacio vectorial. b. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL 181 Sea ahora λ ∈ K y sea v ∈ [A]. 0. 0) . 1. v2 . α2 .. A un subconjunto de V. . [A] es un subespacio. 0) ⇐⇒ α =b  2  0=c g Es claro que el sistema anterior es compatible si y solo si c = 0 entonces A no genera R3 .28. Sea V un espacio vectorial y S ⊂ V un subespacio decimos que A ⊂ S es un generador de S si [A] = S. 0). Sea α1 y α2 reales tales que   α1 = a  (a. 1. c) ∈ R3 : c = 0} determinar un generador de S.. 0) + (0.+(λ·αn ) vn y obtenemos que λv tambi´n es combinaci´n lineal de vectores de A..6. Como v ∈ R3 si y solo si existen a y b reales tal v = (a.5 (Conjunto generador). c) ∈ R3 un vector cualquiera de R3 para que A genere a R3 debemos poder escribir v como combinaci´n lineal de A cuales quiere sean o a. + αn vn Entonces: λ·v = λ· (α1 v1 + α2 v2 + .. ´ DEFINICION 6.4.. b.. o g Notaci´n: Si A es un generador de S pondremos A −→ S o EJEMPLO 6. Sea V = R3 y S = {(a.b y c. 0) = a(1. Luego. 0) = (a. Decimos que [A] es el subespacio generado por A. Es decir si cualquier elemento de S es combinaci´n lineal de A. (0. 0. αn y vectores v1 .. O sea. 1. 0)} ¿A−→V ?... b. c) = α1 (1.

182

6. ESPACIOS VECTORIALES

entonces A = {(1, 0, 0), (0, 1, 0)}−→S.

g

EJEMPLO 6.29. Sea V = M2×2 y S = {A ∈ M2×2 : A = At } ⊂ M2×2 el subespacio (verificarlo) de las matrices sim´tricas 2 × 2. Determinemos e a b un generador. Para eso observemos que A = ∈ S si y solo si b = c. c d Entonces A ∈ S si y solo si existen a, b, d reales tales que A= a b b d = a 0 0 0 + a 1 0 0 0 0 1 1 0 0 b b 0 1 0 0 0 , + 0 0 0 d +b 0 1 1 0 −→S
g

= +d 0 0 0 1

Entonces G =

,

0 0 0 1

EJEMPLO 6.30. Sea V = P2 y S = {p ∈ P2 : p tiene termino independiente nulo} Entonces, sea p tal que p(x) = ax2 + bx + c, p ∈ S si y solo si c = 0 es decir p ∈ S si y solo si existen a, b reales tales que p(x) = ax2 + bx pero entonces si ponemos pi ∈ P2 tal que pi (x) = xi , con i = 0, 1, 2 tenemos que p ∈ S si y solo si existen a y b reales tales que p = ap2 + bp1 . Entonces g G = {p2 , p1 }−→S

´ PROPOSICION 6.16. Sea V un subespacio vectorial y A un subconjunto finito de V, o sea A = {v1 , v2 , ..., vn } ⊂ V . Si vk es combinaci´n lineal de o los dem´s vectores de A, entonces [A] = v1 , v2 , ...vk−1 , vk+1 , ..., vn a

6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL

183

´ Demostracion. Toda combinaci´n lineal de vectores de o v1 , v2 , ...vk−1 , vk+1 , ..., vn es tambi´n una c.l. de vectores de A (basta agregar el vector vk multiplicado e por el escalar 0), es decir v1 , v2 , ...vk−1 , vk+1 , ..., vn ⊂ [A]. Ahora hay que probar al rev´s: que toda c.l. de vectores de A es c.l. de e vectores de v1 , v2 , ...vk−1 , vk+1 , ..., vn . Se sabe que (6.43) vk = α1 v1 + α2 v2 + ...αk−1 vk−1 + αk+1 vk+1 + ... + αn vn .

Sea u ∈ [A] entonces u es c.l. de A, tendremos: u = λ1 v1 + λ2 v2 + · · · + λk−1 vk−1 + λk vk + λk+1 vk+1 + · · · + λn vn . Sustituyendo vk por la expresi´n (6.43), resulta: o u = (λ1 + λk α1 )v1 + · · · + (λk−1 + λk αk−1 )vk−1 + + (λk+1 + λk αk+1 )vk+1 + · · · + (λn + λk αn )vn . O sea, u es c.l. de v1 , v2 , ...vk−1 , vk+1 , ..., vn como quer´ ıamos probar. ´ DEFINICION 6.6 (Independencia y dependencia lineal). Sea V un espacio vectorial, A = {v1 , v2 , ..., vn } ⊂ V . Decimos que el conjunto es linealmente independiente (L.I.) si y s´lo si dados escalares λ1 , λ2 , . . . , λn tales o que: λ1 v1 + λ2 v2 + · · · + λn vn = 0 implica λ1 = λ2 = · · · = λn = 0. Decimos que el conjunto A es linealmente dependiente (L.D.) cuando no es L.I.. Es decir, un conjunto es L.I. cuando la unica combinaci´n lineal de sus ´ o elementos que da el nulo es la trivial, esto es la que tiene todos los coeficientes nulos. Por el contrario es L.D. si existe alguna combinaci´n no trivial (alg´n coeo u ficiente distinto de cero) de sus elementos que de el nulo.

184

6. ESPACIOS VECTORIALES

El lector debe remitirse a la secci´n 2.5 del cap´ o ıtulo 2 por ejemplos en R , no obstante esto veremos aqu´ algunos ejemplos nuevos. ı
n

EJEMPLO 6.31. Sea V Entonces {v } es L.I..

un espacio vectorial, v = 0 un vector de V. 0 es L.D.

EJEMPLO 6.32. Sea V un espacio vectorial,

EJEMPLO 6.33. Sean v1 , v2 , . . . , vn ∈ V (V espacio vectorial ), entonces 0, v1 , v2 , ...., vn es l.d

EJEMPLO 6.34. Sea V = M2×2 y G= 1 0 0 0 , 0 1 1 0 , 0 0 0 1

entonces G es L.I. en efecto sean λ1 , λ2 , λ3 reales tales que λ1 1 0 0 0 ⇐⇒ entonces G es L.I. + λ2 0 1 1 0 = + λ3 0 0 0 0 0 0 0 1 = 0 0 0 0 ⇐⇒

λ1 λ2 λ2 λ3

  λ1 = 0  ⇐⇒ λ =0  2  λ3 = 0

EJEMPLO 6.35. Sea A = {q1 , q2 , q3 , q4 } ⊂ P2 donde q1 (x) = x+1, q2 (x) = x2 + x − 1, q3 (x) = x2 + 2x y q4 (x) = x2 − 2, investiguemos la dependencia lineal de A. Sean λ1 , λ2 , λ3 , λ4 reales tales que (6.44) λ1 q1 + λ2 q2 + λ3 q3 + λ4 q4 = 0 ⇐⇒ λ1 q1 (x) + λ2 q2 (x) + λ3 q3 (x) + λ4 q4 (x) = 0, ∀x ∈ R ⇐⇒

λ1 (x + 1) + λ2 (x2 + x − 1) + λ3 (x2 + 2x) + λ4 (x2 − 2) = 0, ∀x ∈ R ⇐⇒ (λ2 + λ3 + λ4 )x2 + (λ1 + λ2 + 2λ3 )x + (λ1 − λ2 − 2λ4 ) = 0, ∀x ∈ R

6.4. SUBESPACIO GENERADO E INDEPENDENCIA LINEAL

185

de donde utilizando el teorema de identidad de polinomios2 se deduce que (6.44) se cumple si y solo si λ1 ,λ2 , λ3 y λ4 verifican el sistema homog´neo: e   λ2 + λ3 + λ4 = 0  (S) λ + λ2 + 2λ3 = 0 .  1  λ1 − λ2 − 2λ4 = 0 Escalerizando y resolviendo (S) se deduce que es un sistema compatible indeterminado y que Sol(S) = (λ1 , λ2 , λ3 , λ4 ) ∈ R4 : λ1 = λ4 − λ3 , λ2 = −(λ3 + λ4 ), λ3 , λ4 ∈ R Por lo tanto (S) admite soluciones no triviales y consecuentemente tambi´n e (6.44) por lo cual G es L.D. Observemos tambi´n que sustituyendo la soluci´n obtenida en (6.44) se tiene e o que ∀ λ3 y λ4 ∈ R (λ4 − λ3 )q1 − (λ3 + λ4 )q2 + λ3 q3 + λ4 q4 = 0, =⇒ poniendo λ3 = 0 y λ4 = 1 tenemos, q4 = −q1 + q2 Esto es un vector de A result´ combinaci´n lineal de los restantes. o o ´ OBSERVACION 6.17. Las definiciones L.I. e L.D. se dieron para conjuntos finitos, pero son aplicables tambi´n a conjuntos con una cantidad e infinita de vectores en un espacio vectorial. Si A es infinito., A⊂V . V espacio vectorial, decimos que A es L.I. cuando cualquier subconjunto finito de A es L.I. Decimos que A es L.D. cuando no es L.I. (es decir, cuando alg´n u subconjunto finito de A es L.D.).

EJEMPLO 6.36. Sea V = P el espacio vectorial de todos los polinomios de una variable x con coeficientes reales y sea A = {pi ∈ P : i ∈ N}, donde pi (x) = xi . Entonces A es un conjunto L.I. con infinitos elementos, pues cualquier subconjunto B ⊂ A finito que consideremos contiene una
Recordamos al lector el enunciado de este resultado: dos polinomios de coeficientes reales o complejos son iguales si y solo si los coeficientes de las potencias respectivas son iguales
2

186

6. ESPACIOS VECTORIALES

cantidad finita de polinomios de diferentes grados lo cual implica que B es L.I. (verificarlo). Veremos ahora un resultado que generaliza la proposici´n 2.14 del cap´ o ıtulo 2 y lo visto en el ejemplo 6.35; un conjunto de m´s de un vector es L.D. a si y solo si uno de los vectores es combinaci´n lineal de los dem´s. M´s o a a a´n, probaremos que la dependencia lineal se da s´lo cuando un vector del u o conjunto se puede despejar en funci´n (lineal) de los anteriores. o ´ PROPOSICION 6.18. Sea V un espacio vectorial, y A un conjunto ordenado contenido en V, que tiene m´s de un elemento, tal que v1 no es el a vector nulo: A = {v1 , v2 , ..., vn } ⊂ V con n > 1, v1 = 0. Entonces: A es L.D. si y s´lo si existe vk ∈ A (1 k n) tal que vk es o combinaci´n lineal de los k-1 vectores anteriores v1 , ..., vk−1 . o ´ Demostracion. (⇐) Sabemos que existe vk ∈ A, 1 de los anteriores: k n, tal que vk es combinaci´n lineal o

vk = λ1 v1 + λ2 v2 + ... + λk−1 vk−1 o sea 0 = λ1 v1 + λ2 v2 + · · · + λk−1 vk−1 + (−1)vk + 0 · vk+1 + · · · + 0 · vn . Tenemos as´ una combinaci´n lineal de los vectores de A, con no todos ı o los coeficientes iguales a cero (porque el coeficiente de vk es -1), que da el vector nulo. Por definici´n A es L.D. o (⇒) Ahora, sabiendo que A es L.D. y que v1 = 0, hay que probar que un vk es combinaci´n de los anteriores vectores de A. o Por ser L.D. existen λ1 , λ2 , . . . , λn escalares no todos nulos tales: λ1 v1 + λ2 v2 + ... + λn vn = 0. Sea k el mayor i tal que λi = 0 ⇒ λi = 0 ∀i > k y λk = 0. Resulta k > 1, porque sino ser´ λ1 v1 = 0, λ1 = 0 ⇒ v1 = 0 (contrario a la hip´tesis). ıa o

19. o 6. Decimos que A es base de V si y s´lo si o a) A es un conjunto L. o o a COROLARIO 6. En la construcci´n que all´ hio ı cimos.5. Sea V un espacio vectorial y A= {v1 . Sea V un espacio vectorial y A = {v1 . De lo anterior se deduce en particular que un conjunto es L. λk vk = −λ1 v1 − · · · − λk−1 vk−1 y como λk = 0 se deduce que: vk = − λ λ1 v1 − . si y s´lo si un vector es combinaci´n lineal de los dem´s.´ 6. b) A genera a V .5.. .7 (Base de un espacio vectorial).. Veamos como e a es posible generalizar esto a un espacio vectorial cualquiera. .I. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 187 Entonces λ1 v1 + · · · + λk vk = 0 y despejando.. o ıa ´ OBSERVACION 6. si y solo si ning´n vector de A es u combinaci´n lineal de los restantes. Esto correspondencia permite tratar de manera u anal´ ıtica los objetos geom´tricos del espacio (i.. vn } un subconjunto cualquiera entonces A es L. es decir [A] = V .. asociar a cada uno de ellos e una ecuaci´n) tal como vimos en el cap´ o ıtulo 4. λk λk Entonces vk es combinaci´n lineal de v1 . . Base de un espacio vectorial y dimensi´n o La idea central de la Geometr´ Anal´ ıa ıtica es que.. fijado un sistema de coordenadas a cada punto del espacio le corresponde una unica terna or´ denada de n´meros reales.e. ´ DEFINICION 6. no solo asoci´bamos coordenadas a los puntos del espacio E sino que a tambi´n asoci´bamos coordenadas a los vectores del espacio V . v2 .. ..20. v2 . vn }⊂ V (A finito). vk−1 como se quer´ probar.I.D. . . . − k−1 vk−1 .

Como por hip´tesis A es base. v2 . αn = βn Consecuentemente las dos formas de escribir v como combinaci´n lineal de o A.188 6. donde + y · son las operaciones que hereda de V . los coeficientes de la combinaci´n lineal anterior o o deben ser todos ceros y por lo tanto: α1 = β1 . o ´ En efecto. Una base del subespacio S es una base del espacio vectorial (S. ·). ´ OBSERVACION 6. entonces A es base de V si y solo si. .. . ·) es ´l mismo un espacio e vectorial. K. ·) un espacio vectorial y S ⊂ V un subespacio de V . ´ ´ Demostracion. K. . de vectores de A. +. ´ los coeficientes de la c. +. Por o definici´n de conjunto L.21. son la misma. entonces en particular A es L. supongamos que pueda escribirse un vector v como combinaci´n lineal de A.I. . de los vectores de A (es decir. (⇒) En primer lugar. Sea V un espacio vectorial y A = {v1 . Veremos ahora que esa combinaci´n lineal es unica. Sea (V.I. son unicos). . α2 = β2 . K. . . en dos formas distintas: o v = α1 v1 + · · · + αn vn Restando ambas igualdades tenemos: 0 = (α1 − β1 ) v1 + · · · + (αn − βn ) vn La anterior es entonces una forma de escribir el nulo como combinaci´n lineal o de A. . ESPACIOS VECTORIALES Notaci´n: Si V es un espacio vectorial y B es una base de V pondremos o b B −→V .l.l. vn } un subconjunto cualquiera. todo vector del espacio se escribe en forma unica como c. entonces cualquier vector de V se puede escribir como c. +. como A genera a V. y v = β1 v1 + · · · + βn vn . ´ PROPOSICION 6. Ya hemos visto que (S.22.l.

1... αn ) Obs´rvese que el vector v es un elemento del espacio V pero sus coordenadas e sin importar quien sea V son siempre un n-upla de escalares. 1)} def .. 0. αn o ´ tales que n v= i=1 αi vi llamaremos a estos n´meros las coordenadas en la base B del vector u v.´ 6. ..5. . R. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 189 (⇐) Supongamos ahora que cada vector de V se escribe de manera unica ´ g como combinaci´n lineal de A.I. Esto es o coordB (v) = (α1 . Dado un vector v ∈ V cualquiera la proposici´n anterior establece que existen unicos escalares α1 . . .I. . 0. .37. . para verifica o que A es base s´lo resta ver que A es L. .. 0. α2 .. .. 2.. 0) . . .. λn escalares tales o que λ1 v1 + λ2 v2 + · · · + λn vn = 0 Hemos escrito el vector nulo como combinaci´n lineal de A Por otra parte o tambi´n se tienen que e 0v1 + 0v2 + · · · + 0vn = 0. 0. λ2 . tal que que a cada vector v le hace corresponder los coeficientes de la combinaci´n lineal de B que da v. C. entonces en particular A−→V .. .. . v2 . .. . . n y o consecuentemente A es L.. (0. α2 . Sean λ1 . . (0. .. . . ∀i = 1. 0. +. Sea V = (Rn . Sea V un espacio vectorial de dimensi´n finita cualquiera sobre el cuerpo o K y B = {v1 . De hecho con un poco m´s de formalidad podemos definir la funci´n a o n coordB : V −→ K . 1. 0) . (0. vn } una base de V . +·)) el conjunto C = {(1.. . 0) .. . . EJEMPLO 6. ·) (o (Cn . 0. Pero como cada vector (incluyendo al nulo) s´lo se puede escribir de unica o ´ manera como combinaci´n lineal de A debe ser λi = 0. . .

1. . .38. (0. . . El conjunto C se denomina base can´nica de (Rn . De hecho o n lo que ocurre es que la funci´n coordC : R −→ Rn es la funci´n identidad. ·).I. 0). . . 0. . +. . 0. . . . ESPACIOS VECTORIALES B −→ b coordB v V coordB (v) Rn es una base de V pues es L. 1) es f´cil coma probar y queda a cargo del lector que B es L. . C. xn ) ∈ Rn un vector cualquiera entonces v = (x1 . xn ). como veremos en el pr´ximo ejemplo. o EJEMPLO 6. 0) Sea v = (x1 . (0. y genera V (comprobarlo). Sea V = R3 y B = (1. x2 . x2 . verifiquemos que tambi´n e .190 6. un vector de Rn y sus o coordenadas en una base arbitraria no coinciden esto s´lo ocurre si la base o considerada es la can´nica. ·) o de (Cn . . 0. . . 1.I. 0). +. x2 . . Esto es el vector y sus coordenadas en la base can´nica coinciden. o En general el i-esimo vector de la base can´nica lo notaremos o i-esimo lugar ↓ ei = (0. . . o o En general. 1. . R. . xn ) = x1 e1 + x2 e2 + · · · + xn en entonces coordC (v) = (x1 .

c) = (a. 0.. . 1). b. 0) por lo tanto coordB (a.. α1 + α2 . 1.. 2. 0) + 1(0. b − a.39.. . 1. c) = α1 (1. Cuando decimos por ejemplo sea v el vector de R3 tal que v = o (1. 0) + α3 (0. 2. b. 1) entonces el vector w = 1(1.. c) = a(1. 1) = (1. 2. 0.. supongamos que w ∈ R3 es un vector tal que sus coordenadas en la base B son coordB (w) = (1. b. cuando se da una n-upla de Rn . ´ o g 3 α2 = b − a y α3 = c de donde B −→R y por lo tanto es base. 1. En efecto sea (a.. 2. 1. b. 3. +. 1.. 1. c) ∈ R3 un vector arbitrario comprobemos que existen α1 . b. S´lo puede omitirse esta aclaraci´n cuando la base es la o o o can´nica. α2 . (0. 1. Verif´ ıquese que {(1..´ 6. R. 0) + 2(0.. 0) + c(0. 1) ⇐⇒ (a. 0) .. 0. 2. EJEMPLO 6. 3) estamos indicando la 3-upla (1. (0. 1. ·}. 1. . 3) por lo que no tiene sentido preguntar en que base lo estamos expresando. 0) + (b − a)(0. α3 ) ⇐⇒   α1 = a  α + α2 = b  1  α3 = c Y este ultimo sistema es compatible determinado y tiene soluci´n α1 = a. Adem´s a (a. 1) entonces coordB (1. 1).5. c) por ejemplo si v = (1. 1)} no es base. 1) = (1. 0) + α2 (0. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 191 genera R3 . o si se trata de las componentes en alguna base distinta de la can´nica. Hay que aclarar en cada caso. .. . si se trata de los vectores en si. c) = (α1 . 0) . En el otro sentido. Es claro que si V = Rn tanto los vectores como sus coordenadas son n-uplas por lo cual cabe la posibilidad de confundirlos lo cual naturalmente constituye un grave error. 0. α3 escalares tales que (a. Sea {Cn .

. 0). . . . 0 0 1 0 . . Verif´ ıque que: C ′ = {(1. . . . . (0.l. 1. . 0) donde i es la unidad imaginaria no es c. 0. del conjunto anterior. . i. donde pi (x) = xi . . . . . . (0. Nuevamente aqu´ no hay posibilidad de ı confundirse coordenadas y vectores las primeras son (n + 1)-uplas y los segundos son polinomios de grado menor o igual a n. 0). . R. . . . . . . (0. Adem´s coordA (M ) = a (a. .. (verificarlo) y adem´s si p ∈ Pn es un a polinomio cualquiera de grado menor o igual a n tal que p(x) = an xn + · · · + a1 x + ao entonces p = a0 p0 + a1 p1 + · · · + an pn g por lo tanto A−→Pn y en consecuencia A es base de Pn . 0 0 0 1 .. . Sea V = M2×2 y A= b 1 0 0 0 . . u EJEMPLO 6. . .192 6. Sea V = Pn y A = {p0 . . 1). 0. 0. pn }. 0. 0. Obs´rvese que aqu´ no hay posibilidad de confundir los vectores e ı con sus coordenadas pues los primeros son matrices y los segundos 4-uplas de n´meros.40. ESPACIOS VECTORIALES Sugerencia: El vector (i. 0). n. i)} es base de {Cn .41. entonces A−→M2×2 . b. . . . con i = 0. Adem´s se tiene a que coordA (p) = (a0 . . . (verificarlo) y adem´s si M = a a b es una matriz 2 × 2 cualquiera se tiene que c d M= a b c d g =a 1 0 0 0 +b 0 1 0 0 +c 0 0 1 0 +d 0 0 0 1 de donde A−→M2×2 y por lo tanto es base de M2×2 . .. c. +. . p1 . . (0. . 0). ·} . d). EJEMPLO 6.I. a1 . . an ). . .I. pues es un conjunto L. Entonces A es L. . 0 1 0 0 . . . (i. .

La idea de la pruebe consiste en construir un algoritmo que permita sustituir uno a uno los vectores de A con los de B. 0.23. y. 0 0 0 1 −→S b g y de lo visto en el ejercicio 6. Para esto comencemos observando que.42. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 193 EJEMPLO 6. . 1) entonces A = {(1. y. por lo tanto la proposici´n 6. ´ Demostracion. y por lo tanto es un base de S. −2).18 asegura que existe en A′ un vector (que no es el primero) o 1 . (0. Sea A = {v1 . pues wm ∈ B y B es L. Sea V = M2×2 y S = {A ∈ M2×2 : A = At } hemos visto en el ejercicio 6. A−→V o y por lo tanto wm ∈ B ⊂ V es combinaci´n lineal de A.43. 0. Entonces m n. 0. .5. y. v1 .34 se sabe que A es L.I. . 1. . . 0 1 1 0 .I. y) = x(1. g EJEMPLO 6. en cada paso al sustituir un vector de A por uno de B se obtiene un nuevo conjunto o generador del espacio V . En el primer paso del algoritmo elegiremos un vector conveniente de A y lo g sustituiremos el vector wm . . . wm = 0. Sea S = {(x. Sea V un espacio vectorial.I. de V. . 1)} ⊂ S −→S.29 que el conjunto G= 1 0 0 0 . Para esto comencemos hallando un generador. por lo tanto G−→S. −2) + y(0. y − 2x) = (x. Como el proceso de sustituci´n no culmina mientras queden elementos en el conjunto B se prueba que en B hay por lo menos tantos elementos como en A. .D. .I. 1. vn } 1 es L. vn } un conjunto que genera a V y B = {w1 . Adem´s es f´cil de ver (hacerlo) a a que A es L. Observemos que v ∈ S si y solo si existen x y y reales tales que v = (x..´ 6. wm } un conjunto L. TEOREMA 6. −2x) + (0. En consecuencia el conjunto A′ = {wm . Ahora bien. . . z) : 2x− y + z = 0} deseamos determinar una base de S.

.. . 1 En definitiva al cabo del primer paso se ha obtenido un nuevo conjunto generador de V substituyendo vi por wm . Sea V un espacio vectorial. . .24. ahora a A1 = A′ − {vi } = {wm . . . wm . . v1 . pues. Designemos por vk ∈ A a dicho vector (ser´ el segundo vector a sustituir). vi−1 . Si una base tiene n elementos. . . vn }. Al cabo de dos pasos hemos sustituido dos vectores de A por dos vectores de B y lo hemos hecho de modo que el conjunto resultante A2 es un generador de V . podemos continuar este procedimiento de sustituci´n y el mismo s´lo concluir´ cuando se terminen los vectores de o o a B.D. De nuevo observamos que wm−1 = 0. wm−1 ∈ B es combinaci´n o lineal de A1 por lo tanto el conjunto A′ = A1 ∪ {wm−1 } = {wm−1 . . Pongamos.. en virtud de la proposici´n 6. 1 o Entonces A1 −→V . g COROLARIO 6. vi+1 . . . que ser´ el primero a sustituir. vn } 2 es un generador de V . wm . v1 . este o ıa o vector no puede ser wm pues si lo fuera deber´ ser combinaci´n de wm−1 y esto contradice la independencia lineal de B. por lo tanto la proposici´n 6. . Para el segundo paso razonamos en forma an´loga eligiendo otro vector de a g A para ser sustituido por wm−1 : como A1 −→V .18 asegura que existe un vector en A′ o 2 (que no es el primero) que resulta combinaci´n lineal de los restantes. . pues wm−1 ∈ B y B es L. v1 . La proposici´n 6. ESPACIOS VECTORIALES que resulta combinaci´n de los anteriores. vn } 2 resulta L. . . . Cuando esto ocurra o bien los vectores de A se han acabado en simult´neo a con los de B y entonces m = n o bien a´n restan vectores de A sin sustituir u y por lo tanto m < n lo cual concluye la prueba. vi+1 . entonces todas las dem´s bases tienen n elementos.16 [A1 ] = [A′ ] = V . . a . .I. .16 implica a o nuevamente que el conjunto A2 = A′ − {vk } = {wm−1 . vk−1 . . vk+1 . . . . Designemos por vi ∈ A a ese o vector. vi+1 . vi−1 . vi−1 . . .194 6. . .

21). K. V no puede tener una base finita pues si b g A ⊂ V es un subconjunto finito y A−→V entonces en particular A−→V pero como L es L. +·) o a n por lo tanto dim (C . 0. 0). aplicando el teorema 6. Naturalmente si S ⊂ V es un subespacio del espacio (V. el espacio vectorial cambia EJEMPLO 6. (0. 0. . con card(L′ ) > card(A) lo cual contradice el teorema 6. .25. (i. con infinitos elementos entonces dim(V ) = ∞. . n no depende o e de la base que se halla encontrado). ´ OBSERVACION 6. . R. . K. En efecto. tenemos p n. A con n elementos y B con p elementos. ·) pero si lo es C ′ = {(1. Sean A y B bases de V .I. (0. +. y pose infinitos elementos podemos encontrar un subconjunto finito L′ ⊂ L L. Esto o o es el n´mero de elementos de una base de S (ver observaci´n 6.I. 0.39 se vio que C no es base de (Cn . ·) entonces su dimensi´n es la dimensi´n de (S. . Por otra parte. +.11).I. Obs´rvese que al cambiar el cuerpo.23 tenemos n p. (0. . C. . .23. i)} de donde dim (Cn . En el ejemplo 6.´ 6. . . se conviene en decir que V tiene dimensi´n 0. (0. ·) = 2n. y A es generador. . Por el contrario en el ejemplo 6. 0).8 (Dimensi´n de un espacio vectorial). Obs´rvese que si un o e espacio vectorial V contiene un subconjunto L L. 1. Como A es L. y B es generador. .I. . . Sea V un espacio o vectorial. .23.44. u o can´nica) de Rn por lo tanto dim(Rn ) = n. +. aune que no hayamos cambiado el conjunto de vectores. entonces decimos que la dimensi´n de V es infinita. 0). . 0). 0. . ·) = n. como B es L. O sea n = p. . De manera an´loga C −→(Cn . . . +. Si existe una base de V que tenga n elementos. . . . . o Si V = 0 y no existe una base de V con una cantidad finita de elementos. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 195 ´ Demostracion. +. 1).37 vimos que C es una base (la base b . aplicando nuevamente el teorema 6. . . R. . .I.5. . Si V = 0 (ejemplo 6. C. . se dice que n es la dimensi´n de V (obs´rvese en virtud del corolario anterior. ´ DEFINICION 6. i. Notaremos dim (V ) = n. ·).

I.I. El siguiente resultado da otra caracterizaci´n de una base.196 6. (⇐) Para probar que A es base . a TEOREMA 6. . Para esto veremos que o cualquier vector puede ponerse como combinaci´n lineal de A.. En los ejercicios veremos a o que incluso hay ejemplos en los cuales un espacio de dimensi´n finita puede o transformarse en uno de dimensi´n infinita cambiando s´lo el cuerpo..I.41 se deduce que dim(M2×2 ) = 4 y dim(Pn ) = n + 1.D. “maximal” en el sentido de que cualquier otro conjunto m´s grande debe ser L. v2 . De lo visto en los ejemplos 6. o Entonces existen escalares λ1 . z) : 2x − y + z = 0} ⊂ R3 y S ′ el subespacio de las matrices 2 × 2 sim´tricas de lo visto en el ejemplos 6. o a ´ Demostracion.26. y.. entonces el conjunto A′ = A ∪ {v} / tiene n + 1 elementos y en consecuencia es por hip´tesis un conjunto L. . λ no todos nulos tales que (6. λ2 .D. o o EJEMPLO 6. Sea A = {v1 .43 se deduce respectivamente que existe una base de S con 2 elementos y una base de S ′ con 3 elementos por lo tanto dim(S) = 2 y dim(S ′ ) = 3.46. Entonces A es base si y s´lo si A es L. ESPACIOS VECTORIALES radic´lmente al punto que cambia su dimensi´n.45. ya que si λ = 0 se tendr´ que ıa λ1 v1 + λ2 v2 + · · · + λn vn = 0 .40 y 6. . Es claro que o los vectores de A son ellos mismos combinaci´n de A as´ que consideremos o ı un vector v ∈ V cualquiera tal que v ∈ A. . puesto que A es L. ¿Cu´l es la dimensi´n de Mm×n ?. λn . de hecho o afirma que un base es un conjunto L.42 y e 6. alcanza probar que A es generador de todo el espacio. a o EJEMPLO 6.45) λ1 v1 + λ2 v2 + · · · + λn vn + λv = 0 Veamos que debe ser λ = 0.D. Sean S = {(x. por hip´tesis. vn } ⊂ V . . y todo conjunto con m´s de n vectores es L.

D. por lo tanto W debe ser L. En particular el rango de una matriz es la dimensi´n del subespacio generado por las filas o por las columnas de la o misma. .D.´ 6. x2 +3x−3.I. (⇒) Tenemos que probar que todo conjunto con m´s de n vectores es L. a Sabemos por hip´tesis que A es base y por lo tanto en particular A es o generador de V . −x2 +2x+1} ⊂ P2 entonces A es L.5.D. Sea A un subconjunto de finito de vectores de Rn en el cap´ ıtulo 2 hab´ ıamos definido el concepto de rango del conjunto como la mayor cantidad de vectores de A que fueran linealmente independientes. como L. Como v es un vector cualquiera de V .D.23.I. v=− EJEMPLO 6.27. Obs´rvese que si m < n un conjunto de Rn e con m vectores puede ser tanto L. ´ OBSERVACION 6. Sea A = {x2 +x−1.I. se g tiene que A−→V .45 se tiene: λ1 λ λ v1 − 2 v2 − . o Entonces tenemos λ = 0. Ahora podemos observar que el rango de A no es otra cosa que la dimensi´n o del subespacio generado por A. tendr´ ıamos un conjunto L. de A. BASE DE UN ESPACIO VECTORIAL Y DIMENSION 197 con alg´n escalar distinto de cero y esto contradice la independencia lineal u de A asegurada por hip´tesis. Si W fuera L.47. x2 −1. con mas elementos que un generador y esto contradice el teorema 6.28.. x+1. Sea W ⊂ V un conjunto cualquiera con m vectores m > n. pues dim(P2 ) = 3 y card(A) = 5 ´ OBSERVACION 6.D. (verifique esto construyendo ejemplos de ambas situaciones). Despejando v en 6.l. − n vn λ λ λ Hemos probado que v es c. De hecho si m > n cualquier conjunto de Rn con m vectores es necesariamente L. como quer´ ıamos probar..

. Mostremos que: w1 . ´ TEOREMA 6. A y B o subconjuntos de V (finitos). se obtendr´ finalmente un conjunto a B’ contenido en B.. y todo L. Se cumplen las siguientes propiedades: 1) Si B genera a V. hay un vector de B.I.. Por la proposici´n 6.I: ya est´ probado..16 [B] = [B1 ] y entonces B genera a V. .18. v2 . ESPACIOS VECTORIALES Los siguiente resultados son utiles para construir bases de subespacios. Llamemos wp+1 a este u o vector.. se puede agrandar hasta formar una base). Por a a la Proposici´n 6. o Si B1 es L. que tiene que ser el vector nulo (porque B es L. se obtiene un conjunto a B1 ...D. que es combinaci´n lineal de los o o dem´s vectores de B. Si A genera a V. a a como por hip´tesis B genera a V. Por definici´n o e o es base de V. entonces es base (porque por hip´tesis B genera a V ). que es L. porque por hip´tesis n 1.I.29.I. o Por la proposici´n 6. 2) Supongamos A = w1 . y est´ formado por m´s de un vector.D.. vk }. existe B’ contenido en B. ´ Demostracion. contiene a alguna base. este conjunto B’ tambi´n genera a V.16. Sea V un espacio vectorial de dimensi´n n 1. Si se repite el razonamiento. y que se obtuvo de B retirando sucesivamente aquellos vectores que se expresaban como combinaci´n lineal de los restantes. o bien est´ formado o a por un unico vector. ´ o bien est´ formado por m´s de un vector.I. Si A no genera a V. entonces A es base y tomamos A’ = A. wp es un conjunto L. wp+1 es L.. .I. . probando 1).198 6. ser´ el caso en que V = 0 . existe A’ que contiene a A..I. todo conjunto generador. De esta forma. 1) Sea B = {v1 . . w2 . tal que A’ es base de V (dicho de otra forma. se obtiene un nuevo conjunto B2 ⊂ B1 ⊂ B tal que genera a V. wp .D.D. tal que B’ es base de V. aplicando el mismo razonamiento a a B1 en lugar de B. Pero o ıa este caso est´ excluido. Si B es L.. Si B es L. 2) Si A es L. En el caso en que B = 0 . Si es L. Quitando ese vector vr de B.. entonces existe alg´n vector de V que no es combinaci´n lineal de A. resta s´lo a o o estudiar el caso en que B es L.).

aplicando el teorema b 6.. en una cantidad finita de pasos. . todos los coeficientes λi son ceros. 1. Luego.. 1). . y que genere a V (sea hasta obtener una base de V ). vamos agregando vectores hasta obtener o un conjunto L. ´ Demostracion.48. wp .I. 0.D. 1)} ⊂ R4 como es f´cil de verifica A es L. porque A es L. porque o a sino se podr´ despejar wp+1 en funci´n de los dem´s. (0.. v} es L. wp .. 0. donde n es la dimensi´n del espacio. Luego+ dim (V ) = p < n.I. con A−→V .30. Entonces {v1 . . vn }. Se o cumplen las siguientes afirmaciones: 1) Todo conjunto linealmente independiente A de n vectores.+λp wp +λp+1 wp+1 = 0 ⇒ λp+1 = 0.. y card(A1 ) = p < n. 1.. wp+1 es L. no pueden tener mas de n elementos. w2 .29 se sabe que existe A1 A tal que A1 −→V ... Absurdo.. Luego [A] = V . Sea A = {(1. + λp wp = 0. Repitiendo la construcci´n anterior a A1 en lugar de A.. Siempre se llega.26 los conjuntos L.I. a un conjunto que genere a V. Sea V un espacio vectorial de dimensi´n n . 0. . −1... o El siguiente resultado es particularmente util cuando se desea encontrar ´ una base de un espacio del cual se conoce la dimensi´n. 0). y eso no es posible porıa que wp+1 no es c. . 1) Si A = {v1 . 2) Todo conjunto de n vectores A que genera a V es base..l. y como card(A) = 4 = dim(R4 ) entona ces A es base de R4 .. 1. de hecho en este caso o solo es necesario chequear la cantidad de vectores del conjunto candidato y su independencia lineal COROLARIO 6. lo que contradice el teorema 6. EJEMPLO 6. existe v ∈ V tal o que v ∈ [A]. . BASE DE UN ESPACIO VECTORIAL Y DIMENSION 199 En efecto: λ1 w1 +λ2 w2 +.. g 2) Sea A = {v1 .I. (0..5. w2 . 0. de w1 . vn .26. es base. porque por el teorema 6. Si A es L. Entonces: λ1 w1 + λ2 w2 + . Tenemos entonces que el conjunto A = w1 . (como en la demostraci´n del / teorema anterior) pero tiene n + 1 vectores. (−1.´ 6.. vn } no genera V. 0)...I.I. absurdo.

16 A′ = {(1. 1).30 y debemos verifica si A es o L. Es f´cil verificar adem´s que o a a A′ es L. 0) = (−1.I. q2 . q3 } en este caso es f´cil ver que q3 = q1 + q2 por lo g ′ es tambi´n L.D. y por lo tanto una base de S. 1. ´ PROPOSICION 6.I. ESPACIOS VECTORIALES EJEMPLO 6. Para determinar este subconjunto procedemos como en la prueba del teorema 6. 0. 1.l. lo cual obviamente es inmediato.. (−1. en consecuencia A′ −→S y por lo tanto dim(S) = 2.D. Sea A = {q1 . a Entonces A no es base pero de la proposici´n 6. 1. 1. 1). 0. b EJEMPLO 6. 1)].35 A es L. o no. q }−→S y e tanto A 3 1 2 como el lector comprobar´ A′′ es L.200 6. Para eso encontrao g remos una base del subespacio. Es f´cil de ver que A es L. (−1.35 que q4 es combinaci´n de los restantes elementos de A en consecuencia o a consideramos A = {q1 . 1).31. hallar una base de S y determinar su dimensi´n. 1) es c. 1. q3 .29 existe A′ ⊂ A que si o lo es. 1) − (2. Entonces a dim(S) = 2. Analicemos ahora el subespacio S = [A] ⊂ P2 . Queremos determinar la dimensi´n de S. ´ Demostracion. q2 . Si W = pues 0 n. por lo cual debe contener propiamente un subconjunto que sea base. 1. Sea V un espacio vectorial de dimensi´n finita n. (2. 0). o Sea W un subespacio de V. 0 . 1). 0)}−→S. Como el vector (−1. que e o es menor o igual que n. q3 (x) = x2 + 2x y q4 (x) = x2 − 2. A−→S pero por lo visto en el ejemplo 6. entonces dim W = 0 y ya est´ probado.29 y determinemos un conjunto A′ A tal que [A′ ] = [A] eliminando de A un vector que sea combinaci´n de los restantes. 0. 0). q2 (x) = x2 + x − 1.50. Entonces W tiene tambi´n dimensi´n finita. (2.D. pues (1.I. 1)} es por definici´n un generador de S como desconocemos la dimensi´n del o o subespacio no podemos aplicar la proposici´n 6. a . q4 } donde q1 (x) = x + 1. 1. de los restantes elementos de A la g proposici´n 6. el conjunto A = {(1. Sabemos del ejemplo o 6.49. (2. 0. Eliminando q tenemos que A′′ = {q . Para esto comenzamos por encontrar un geo nerador. Sea S = [(1. 1.

Vn de V. w2 .I. wn . no pueden tener m´s de n elementos. w2 } es L. En efecto. Sea {w1 . Sea W un subespacio de V. . Suma de subespacios y suma directa ´ DEFINICION 6.23 resulta p n.. alcanza probar que existe una base de W con una cantidad finita de elementos p. por el teorema 6. Se puede repetir el razonamiento en una cantidad menor que n + 1 de pasos hasta construir una base de W. . λ2 = 0 o pues de lo contrario se podr´ despejar w2 en funci´n de w1 . Igual que antes se prueba que el conjunto {w1 .. . wn }. y una base de V es un conjunto que genera a todo el espacio. SUMA DE SUBESPACIOS Y SUMA DIRECTA 201 Si W = 0 . . (por Teorema 6.I. V2 . y ya est´ probado. Como w1 = 0 se deduce λ1 = 0. .Tenemos ahora que {w1 . pues una base de W. se llama suma de los subespacios V1 . donde n es la a dimensi´n del espacio.. ´ Demostracion. wn } base de W.6. ya tenemos una base. con p elementos.I. Si dim (W ) = dim (V )...9. porque de lo contrario tendr´ ıamos un conjunto L. Si v ∈ V . (y se denota como V1 + . con n elementos. Si genera a W..D. es un conjunto L. 6. Si {w1 } u genera a W. contradiciendo el teorema 6.. y o entonces λ1 w1 = 0. Entonces λ2 = 0. existe a un vector w2 ∈ W que no es combinaci´n lineal de w1 . w3 } es L..I.32. Suma de subespacios: Sea V un espacio vectorial.. luego {w1 . v} es L. w1 = 0... w2 } es L.. o ´ PROPOSICION 6. lo cual no ıa es posible porque w2 no es combinaci´n lineal de w1 . y est´ fora mado por n vectores de W ⊂ V . {w1 . . ..I.26 que dice que los conjuntos L. Entonces es L. existe un tercer vector w3 ∈ W que no es combinaci´n lineal de los dos o primeros. es base de W. vemos que v se escribe como combinaci´n o lineal de {w1 . de n + 1 vectores. Como W = 0 entonces existe alg´n vector w1 ∈ W. o Afirmamos que {w1 . Si {w1 } no genera a W. Una vez demostrado eso.I.I. entonces W = V.. si λ1 w1 + λ2 w2 = 0..6. con dim (V ) = n. Si no genera a W.26) y como antes..6. wn } = V ..

2.. y a su vez. · · · .202 6. a3 ) : a3 = 0} y V2 = {(a1 .. 0. . Si V = V1 ⊕ V2 ⊕ . a2 .de ...51. + vn y u′ = ′ ′ ′ ′ ′ ′ v1 + v2 + . 0) + (0. ⊕ Vn y si B1 . donde v + v ′ ∈ V . Vn . V2 . vn y vn ∈ Vn . Suma directa: Dados los subespacios V1 . 1/2.. porque 0 = 0 + · · · + 0 y 0 ∈ a Vi ∀i = 1. v + v ′ ∈ u+u 1 2 n 1 1 2 n 1 2 1 2 ′ V2 . Sean en R3 los subespacios V1 = {(a1 .. . Vn .. a2 . + vn } TEOREMA 6. V2 . Vn . + vn con v1 y v1 ∈ V1 . a3 ) : a1 = 0} ... v2 ∈ V2 . Es f´cil ver que 0 ∈ W ... 1) = (1. . Vn . ∪ Bn es una base de V. . La suma de subespacios de V es unr subespacio de V. entonces λu tambi´n se descompone de esa forma. EJEMPLO 6... v = v1 + v2 + . Entonces v es c. vn + vn ∈ Vn . 1. ESPACIOS VECTORIALES V2 + . . Pero esta suma no es directa.... Probaremos que B genera a V. respectivamente entonces: B = B1 ∪ B2 ∪ . n. el subespacio suma de ellos se llama suma directa cuando todo vector de ´l e puede expresarse de forma unica como suma de vectores de los subespacios ´ V1 ... . Para verificar que W es cerrado respecto a la suma sean u y u’ tales que u = v1 + v2 + .. V2 . porque V1 . .. y que B es L.I..10..l. Bn son las bases de V1 . Cuando la suma es directa se representa V1 ⊕ V2 ⊕ ... Es claro que W es cerrado e con respecto al producto por escalares.34. ´ Demostracion.. V2 . 1) (1. 1/2.. 1. . .. + (v + v ′ ).... v2 y v2 ∈ V2 ... Entonces ′ = (v + v ′ ) + (v + v ′ ) + . V2 . . ´ Demostracion.... Vn son subespacios. B2 . . uno de Vn .... uno de V2 ... Todo vector de R3 se puede escribir como suma ´ de un vector de V1 y uno de V2 .. Tambi´n es sencillo verificar que el vector u se puede e descomponer como suma de un vector de V1 . Todo vector de V es suma de vectores de V1 . TEOREMA 6..33. 1) = (1.. + Vn ) al subconjunto de vectores W definido por: W = {v ∈ V : ∃. estos son combinaciones lineales de sus respectivas bases. 1) Entonces la suma de V1 y V2 es todo R3 .. 1. pero no de forma unica: (1. v1 ∈ V1 . . 0) + (0. vn ∈ Vn . ´ DEFINICION 6. ⊕ Vn .

.36. +a2p2 v2p2 + . V2 .... V2 .. y de la primera igualdad de mas arriba se deduce a11 = a12 = ... como 0 ∈ V y V = V1 ⊕ V2 ⊕ . o . + 0. + anpn vnpn = 0.. Vn ... Veremos que B es L.. + anpn vnpn = 0.I... + a1p1 v1p1 + a21 v21 + a22 v22 + . existe una unica manera de expresar el ´ vector nulo como suma de vectores de V1 . V1 ∩ V2 = 0 si y s´lo si V = V1 ⊕ V2 . .. . v22 .. An´logamente para los a dem´s coeficientes aij .· · · Bn = vn1 . o sea B genera a V.. Entonces..6....... Sean V1 y V2 dos subespacios de V tales que V = V1 + V2 . que es B. = a1n = 0. + a1p1 v1p1 = 0 a21 v21 + a22 v22 + . a COROLARIO 6. Es inmediata a partir de la definici´n de dimensi´n y del o o teorema anterior.. . + a2p2 v2p2 = 0 ··· an1 vn1 + an2 vn2 + . SUMA DE SUBESPACIOS Y SUMA DIRECTA 203 la uni´n de esas bases. se tiene que B1 es L. Hemos probado que todo vector de V es o combinaci´n lineal de B..I. + dimVn ´ Demostracion... vn2 . . + an1 vn1 + an2 vn2 + . Si V es suma directa de V1 ...6.I. ´ PROPOSICION 6. v1p2 } .. Entonces tenemos probado que B es L. B2 = {v21 . v1p 1 Tomemos una combinaci´n lineal de B igualada a 0: o . v12 . ⊕ Vn .. Sea B1 = o v11 .. Esa unica manera tiene ´ que ser entonces 0 = 0 + 0 + . a11 v11 + a12 v12 + ..35.. La combinaci´n lineal de m´s arriba implica entonces que: o a a11 v11 + a12 v12 + . ... Siendo B1 una base de V1 .... vnpn . Vn entonces dimV = dimV1 + dimV2 + .

′ ′ ′ ′ v1 − v1 = v2 − v2 ∈ V1 y V2 . v1 ∈ V1 . Por lo tanto: 0 = v + (−v) = 0 + 0 y por definici´n de suma directa. (⇐) Sea v ∈ V1 ∩ V2 luego − v ∈ V1 ∩ V2 . v2 .204 6. o Entonces V1 ∩ V2 = 0 . . (⇒) ′ ′ ′ ′ Supongamos v = v1 +v2 y v ′ = v1 +v2 con v1 . 0 = v = −v. por hip´tesis v1 − v1 = v2 − v2 = 0. Luego. por lo que . o lo que prueba que la suma es directa. v2 ∈ V2 . ESPACIOS VECTORIALES ´ Demostracion.

EJEMPLO 7. Las funciones que mantienen las estructuras caracter´ ısticas de los espacios entre los que act´an son de especial importancia porque permiten u ”moverse” entre ellos comparando las estructuras que los definen. en particular. en el presente caso).1. ii) T (a. Sean V y W dos espacios vectoriales sobre el mismo cuerpo K y T : V → W una funci´n.1. 205 . Ellas preservan (mantienen) las estructuras lineales que caracterizan a esos espacios: los transformados de combinaciones lineales de vectores son las correspondientes combinaciones de los transformados de cada uno de los vectores. e 7. Sean C 1 = {f : R → R / f es derivable} ⊂ F = {f : R → R} .v) = a.CAP´ ıTULO 7 TRANSFORMACIONES LINEALES. Diremos que T es una transformao ci´n lineal si satisface : o i) T (u + v) = T (u) + T (v) ∀ u. Las transformaciones lineales son funciones entre espacios vectoriales. ∀ v ∈ V. como las isometr´ o movimientos lo son en la geometr´ ıas ıa m´trica. Transformaciones lineales ´ DEFINICION 7.1. v ∈ V. T (v) ∀ a ∈ K. En este sentido las transformaciones lineales son tan importantes en el estudio de los espacios vectoriales. permiten analizar cu´n diferentes o semejantes son desde el punto a de vista de esas propiedades (lineales.

T (v) = 0. Sean a1 y a2 escalares y v1 y v2 vectores. T 0 = 0.3.2. Sea V un espacio vectorial y v0 = 0 un vector fijo de V. ´ Demostracion. o o pues T (v1 + v2 ) = v1 + v2 + v0 = v1 + v0 + v2 + v0 = T (v1 ) + T (v2 ). T 0 = T (0. pues se cumple que o ′ ′ i) T (f1 + f2 ) = (f1 + f2 )′ = f1 + f2 = T (f1 ) + T (f2 ) ii) T (α f ) = (α f )′ = α f ′ = α T (f ) EJEMPLO 7. Sea T : V → W una transformaci´n lineal.v) = λ a v = a λ v = a T (v) EJEMPLO 7. La funci´n o T : V → V tal que T (v) = λ v es una transformaci´n lineal. La transformaci´n T : C 1 → F tal que T (f ) = f ′ es una transformao ci´n lineal. (⇒) T (a1 v1 + a2 v2 ) = T (a1 v1 ) + T (a2 v2 ) = a1 T (v1 ) + a2 T ( v2 ) . a2 ∈ K ∀ v1 . v2 ∈ V.1. y en el caso particular en que a2 = 0 se obtiene T (a1 v1 ) = a1 T (v1 ) . ´ PROPOSICION 7. ´ Demostracion. T : V → W es una transformaci´n lineal si y s´lo o o si T (a1 v1 + a2 v2 ) = a1 T (v1 ) + a2 T ( v2 ) ∀ a1 . Sea V un espacio vectorial y sea λ ∈ K. Entono ces. . (⇐) En el caso particular en que a1 = a2 = 1 se obtiene T ( v1 + v2 ) = T (v1 ) + T ( v2 ). La funci´n T : V → V tal que: T (v) = v + v0 no es una transformaci´n lineal. Efectivamente: o i) T (v1 + v2 ) = λ (v1 + v2 ) = λ v1 + λ v2 = T (v1 ) + T (v2 ) ii) T (a.206 7.2. TRANSFORMACIONES LINEALES. Las propiedades i) y ii) de la definici´n anterior se pueden resumir de la o siguiente forma: ´ PROPOSICION 7. v) = 0 .

. . (⇒) Si T y S coinciden en todo el espacio V.1 v o Unicidad: Supongamos que existan T : V → W y S : V → W lineales tales que T (vi ) = wi y S (vi ) = wi . Existencia: Si v ∈ V existen unicos a1 . Entonces T y S coinciden en una base de V . resulta que T=S. . Sean V. . . µ ¯ n n escalares. . T : V → W y S : V → W transformaciones lineales. . Definimos entonces T n i =1 i=1 : V → W mediante T (v) = ai wi . Entonces. wn ∈ W arbitrarios. .1. Tenemos v = n i =1 ai vi y v = ¯ n i =1 ai vi . n .3. + αn vn . . existen α1 .7. Como B es base de V. en particular coinciden en los vectores de la base B. existe una unica transformaci´n lineal T : V → W ´ o tal que T (vi ) = wi ∀ i = 1 . . Entonces: T (v) = ∀i = 1. . . Entonces T (λ v + µ v ) = ¯ ¯ n n =T i =1 (λ ai + µ ai ) vi ¯ = i =1 (λ ai + µ ai ) wi = λ ¯ i =1 ai vi +µ i =1 ai¯vi = = λ T (v) + µ T (¯) . . . n. . . an tales que ´ n v = ai vi . (⇐) Sea v ∈ V . Sean V y W espacios vectoriales sobre un mismo cuerpo con dim (V ) = n. y por la proposici´n 7. . . W espacios vectoriales sobre un mismo cuerpo con dim ( V ) = n .3. . αn ∈ K tales que v = α1 v1 + . Luego T es lineal por la proposici´n 7. vn } una base de V y w1 . . S (v) ∀ v ∈ V si y solo si T (vi ) = S (vi ) ´ Demostracion. Sean v y v vectores y λ. . . . . o . TEOREMA 7. .4. . . vn } de V. 2. . . Hay que verificar que T es lineal. . por ser T y S lineales T (v) = T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn ) = α1 S (v1 ) + · · · + αn S (vn ) = S (α1 v1 + · · · + αn vn ) = S (v) . TRANSFORMACIONES LINEALES 207 ´ PROPOSICION 7. Consideremos una base B = {v1 . Luego. Sea {v1 . ´ Demostracion.

As´ T (x. 2) + (−2x + y) T (0.5. 2) . 5) y T (0. −3x + y. y) ∈ R2 . Sea T : R2 → R3 lineal tal que T (1. Se define la suma de S y T como la transformaci´n S + T : V → W tal que o (S + T ) (v) = S (v) + T (v) . −1) Como {(1. 7x − y) . (0. EJEMPLO 7. Sea T : R2 → R2 lineal tal que T (1. 0) + y (0. o Luego T (x. y) = (−x + 2y. ´ DEFINICION 7. pues. 1. 2) + (−2x + y) (0. 1) = = x (2.208 7. 3) + y (2. 2) = (3. 1)) = xT (1. 1) = (2. y) = T (x (1. Sean V. T est´ bien a determinada. 3) = (x + y) (2. Hemos probado. . Hallemos T (x. que una transformaci´n lineal queda determinada o por los valores que toma sobre una base.4. T (x. 3) . (0. y) = T (x (1.2. Operaciones con transformaciones lineales. 7. ı EJEMPLO 7. 0) . 0) = T (0. 7x − y). T esta determinada. 5) + (−2x + y) (2. −1) = (−x + 2y. 1)) = xT (1. W espacios vectoriales sobre un mismo cuerpo K y S : V → W y T : V → W dos transformaciones lineales. 1)} es una base de R2 . −3x + y. 1. −1. 1) = (2.2 (Suma de Transformaciones Lineales). Como {(1. 0) + yT (0. 1)} es la base can´nica de R2 . −1. TRANSFORMACIONES LINEALES. y) con (x. 1) = = x (3. ∀v ∈ V. 3).

Entonces la suma de S y T es la transformaci´n S + T : R3 → R2 tal que o (S + T ) (x. entonces S + T es una transformaci´n lineal. o ´ Demostracion. OPERACIONES CON TRANSFORMACIONES LINEALES. x + y. . y. 5x) . EJEMPLO 7.7.T : R o (5. z) = S (x. λ y µ escalares. y.6. x + y) . Se define el producto del escalar λ ∈ K por la transformaci´n T . Sean S : R3 → R2 tal que S (x. En efecto (S + T ) (λ v1 + µ v2 ) = S (λ v1 + µ v2 ) + T (λ v1 + µ v2 ) = = λ S (v1 ) + µ S (v2 ) + λ T (v1 ) + µ T (v2 ) = = λ [S (v1 ) + T (v1 )] + µ [S (v2 ) + T (v2 )] = = λ [(S + T ) (v1 )] + µ [(S + T ) (v2 )] . ´ DEFINICION 7. y + z) = (2x + z. y. y) = 5. como la transformaci´n (λ. 209 EJEMPLO 7. y) = (x − 2y. y) = 5. Probemos (S + T ) (λ v1 + µ v2 ) = λ (S + T ) (v1 ) + µ (S + T ) (v2 ) . z) = (x − y. x) = = (5 − 10y. x + y. x) Entonces el producto del escalar λ = 5 por la transformaci´n T es la o 2 → R3 tal que transformaci´n 5. (x − 2y.T (x. y.5. 5x + 5y. Sea T : R2 → R3 tal que T (x.7.T (v) ∀v ∈ V . z) = (x + y + z. z) + T (x. y + z). y.T ) : o o V → W tal que (λ. Si S y T son transformaciones lineales.T ) (x. x − z) y T : R3 → R2 tal que T (x. ´ PROPOSICION 7.3 (Producto por un escalar).T ) (v) = λ .2. Sean v1 y v2 vectores. x − z) + (x − y. z) = (x + y + z.

Luego T ◦ S : R3 → R2 es tal que (T ◦ S) (x.6. o EJEMPLO 7. TRANSFORMACIONES LINEALES. α2 ∈ K ∀u1 . Se define la composici´n S y T o como la transformaci´n T ◦ S : U → W tal que (T ◦ S) (u) = T (S (u)) . y + z) y T : R2 → R2 tal que T (x. Si S y T son lineales. Sean S : R3 → R2 tal que S (x.7. 2x). u2 ∈ V. entonces T ◦ S es lineal ´ Demostracion.). x). y. Si T es una transformaci´n lineal y λ un escalar o entonces λT es una transformaci´n lineal.8. Probemos que ∀α1 . y) = (y.210 7. z) = (2x.4 (Composici´n de Transformaciones Lineales. α2 ∈ K En efecto (λT ) (α1 v1 + α2 v2 ) = λT (α1 v1 + α2 v2 ) = = λ [α1 T (v1 ) + α2 T (v2 )] = λα1 T (v1 ) + λα2 T (v2 ) = = α1 λT (v1 ) + α2 λT (v2 ) = α1 (λT ) (v1 ) + α2 (λT ) (v2 ) . . z) = (y + z. y. Sean o U. ´ PROPOSICION 7. ´ DEFINICION 7. (T ◦ S) (α1 u1 + α2 u2 ) = α1 (T ◦ S) (u1 ) + α2 (T ◦ S) (u2 ) En efecto (T ◦ S) (α1 u1 + α2 u2 ) = T (S (α1 u1 + α2 u2 )) = = α1 T ( S (u1 )) + α2 T ( S (u2 )) = α1 (T ◦ S) (u1 ) + α2 (T ◦ S) (u2 ) . o ´ Demostracion. ´ PROPOSICION 7. v2 ∈ V ∀α1 .V y W espacios vectoriales sobre un mismo cuerpo K. Probemos que (λT ) (α1 v1 + α2 v2 ) = α1 (λT ) (v1 ) + α2 (λT ) (v2 ) ∀v1 . y S : U → V y T : V → W dos transformaciones lineales.

b) ⇔ existe (x0 . u (x. o ii) Llamaremos imagen de T al conjunto: Im (T ) = {w ∈ W : ∃ v ∈ V con w = T (v)} (tambi´n se utilizar´ la e a notaci´n T (V ) para Im (T ). 2x0 + 2y0 + 2z0 ) = (a. b) ∈ Im (T ) ⇔ existe (x0 . b) ⇔ existe (x0 .5. u o ´ DEFINICION 7. 1) Hallemos el n´cleo de T. 2x + 2y + 2z) = (0.9. z) ∈ R3 : x + y + z = 0 . z) = (0. y. y. 2x + 2y + 2z). 211 7. z) = (x + y + z. z0 ) ∈ R3 tal que (x0 + y0 + z0 . ı 2) Hallemos la imagen de T. y0 . y.3. z0 ) ∈ R3 tal que ⇔ el sistema ⇔ el sistema x0 + y0 + z0 = a 2x0 + 2y0 + 2z0 = b es compatible es compatible x+y+z = a 2x + 2y + 2z = b x+y+z = a 0 = b − 2a ⇔ b = 2a .) o EJEMPLO 7. es decir N (T ) = v ∈ V : T (v) = 0 (tambi´n se usar´ la e a notaci´n Ker (T ) para N (T )).3. z) ∈ N (T ) ⇔ T (x. 0) ⇔ x+y+z =0 2x + 2y + 2z = 0 ⇔ x+y+z =0 As´ el N (T ) = (x. 0) ⇔ (x + y + z.´ ´ 7. y0 . z0 ) = (a. o i) Llamaremos n´cleo de T al conjunto de V cuya imagen por T es el vector u nulo. y. IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL. y0 . Se considera la transformaci´n lineal T : R3 → R2 tal que o T (x. z0 ) ∈ R3 T (x0 . y0 . (a. Sean V y W espacios vectoriales sobre el mismo cuerpo K y T : V → W una transformaci´n lineal. Imagen y n´ cleo de una transformaci´n lineal.

z0 ) ∈ R3 tal que ⇔ el sistema x+y =a y+z = b x0 + y0 = a y0 + z0 = b es compatible. y. z = −y con y ∈ R . Como el sistema es siempre compatible. 0) ⇔ (p (0) .10. EJEMPLO 7. p (1)). y0 . TRANSFORMACIONES LINEALES. resulta que Im (T ) = R2 . y. z) = 0 ⇔ (x + y. y + z). ı 2) Hallemos la imagen de T. p (1)) = (0. y0 . b) ⇔ existe (x0 . Luego: Im (T ) = (a. 1) Hallamos el n´cleo N (T ).212 7. b) ∈ Im (T ) ⇔ existe (x0 . z0 ) ∈ R3 T (x0 . . z0 ) = (a. u (x. y. EJEMPLO 7. u Sea p : p (t) = xt2 + yt + z un polinomio de P2 p ∈ N (T ) ⇔ T (p) = (0. z) ∈ N (T ) ⇔ T (x. Se considera la transformaci´n lineal T : P2 → R2 tal o que T (p) = (p (0) . b) ∈ R2 : b = 2a . 0)   x cualquiera  p (0) = 0 z=0 ⇔ ⇔ y = −x  p (1) = 0 x+y+z = 0  z=0 ⇔ Luego N (T ) = p ∈ P2 p : p (t) = xt2 − xt con x ∈R 2) Hallemos la imagen de T. (a. z) = (x + y. Im (T ). Se considera la transformaci´n lineal T : R3 → R2 tal o que T (x.11. z) ∈ R3 : x = −y . y. y0 . y + z) = 0 ⇔ x+y =0 y+z =0 As´ el N (T ) = (x. 1) Hallemos el n´cleo de T.

un matriz en M2x2 (R) M ∈ N (T ) ⇔ T (M ) = 0 ⇔ ⇔ ⇔          1 −1 −2 2 1 −1 −2 2 = M = 0M2x2 (R) 0 0 0 0 0 0 0 0 a b c d ⇔ As´ N (T ) = ı M ∈ M2x2 (R) : M = a−c b−d −2a + 2c −2b + 2d  a−c = 0     b−d = 0 ⇔  −2a + 2c = 0    −2b + 2d = 0 = a = c b = d c cualquiera d cualquiera con c. 213 (a. Se considera la transformaci´n lineal o 1 −1 T : M2x2 (R) → M2x2 (R) tal que T (M ) = −2 2 1) Hallemos el N (T ) Sea M = a b c d · M. resulta que Im (T ) = R2 EJEMPLO 7. x0 + y0 + z0 ) = (a. d ∈ R . b) ⇔ existe p0 : p0 (t) = x0 t2 +y0 t+z0 ∈ P2 tal que (x0 . z0 ∈ R tales que ⇔ el sistema x=a x+y+z =b x0 = a x0 + y0 + z0 = b es compatible. b) ⇔ existen x0 . IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL.12. Como el sistema anterior es siempre compatible. b) ∈ Im (T ) ⇔ existe p0 ∈ P2 tal que T (p0 ) = (a. b) ⇔ ⇔ existe p0 ∈ P2 tal que (p0 (0) .3. c d c d . p0 (1)) = (a. y0 .´ ´ 7.

2) Hallar la Im (T ) a b c d ∈ Im (T ) ⇔ existe T x0 y0 z0 t0 x0 y0 z0 t0 x0 y0 z0 t0 = a b c d ∈ M2x2 (R) tal que ⇔ existe 1 −1 −2 2 ⇔ existe ∈ M2x2 (R) tal que = a b c d x0 y0 z0 t0 x0 y0 z0 t0 ∈ M2x2 (R) tal que = a b c d ⇔ existen x0 . y0 . TRANSFORMACIONES LINEALES. t0 ∈ R tales que  x0 − z0 = a     y 0 − t0 = b   −2x0 + 2z0 = c   −2x0 + 2z0 = d  x−z = a     y−t = b ⇔ el sistema tiene soluci´n. o   −2x + 2z = c   −2x + 2z = d   x−z = a    y−t = b ⇔ el sistema tiene soluci´n o  0 = 2a + c    0 = 2b + d ⇔ 2a + c = 0 y 2b + d = 0. z0 .214 7. x0 − z0 y 0 − t0 −2x0 + 2z0 −2y0 + 2t0 .

se tiene T (v) = α w1 + β w2 y por lo tanto α w1 + β w2 ∈ Im (T ) . An´logamente. z. EJEMPLO 7. x + y + 3z − 3t) = (0. 1) T (0) = 0 ⇒ 0 ∈ N (T ) . IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL. Luego Im (T ) es un subespacio de W.8. ´ Demostracion. 0) ⇔ ⇔ (x − y + z + t. β ∈ K y v1 . y. 215 As´ la Im (T ) = ı a b c d ∈ M2x2 (R) : 2a + c = 0 y 2b + d = 0 .3. 0 + β . β ∈ K y w1 . x + y + 3z − 3t) 1) (x. t) = (x − y + z + t.9. x + 2z − t. a 1) T 0 = 0 ⇒ 0 ∈ Im (T ) 2) Si α . y. w2 ∈ Im (T ) entonces existen v1 . v2 ∈ N (T ) entonces: T (α v1 + β v2 ) = α T (v1 ) + β T (v2 ) = α . Veamos que N (T ) = φ y que es cerrado respecto de las operaciones del espacio vectorial. Hallemos una base del n´cleo y una base de la imagen u 4 → R3 definida por de la transformaci´n lineal T : R o T (x. ´ PROPOSICION 7. 0 = 0 ⇒ ⇒ α v1 + β v2 ∈ N (T ) Luego N (T ) es un subespacio de V. 0. x + 2z − t. t) ∈ N (T ) ⇔ T (x. 2) Si α . N (T ) es un subespacio vectorial de V. 0) . v2 tales que T ( v1 ) = w1 y T ( v2 ) = w2 . t) = (0. Entonces si llamamos v = α v1 + β v2 . y. ´ Demostracion. 0. Im (T ) es un subespacio vectorial de W.13.´ ´ 7. ´ PROPOSICION 7. z. z.

TRANSFORMACIONES LINEALES. x. x−y+z+t = 0 ⇔ x + 2z − t = 0   x + y + 3z − 3t = 0 ⇔    Luego los vectores del n´cleo de T son de la forma u x−y+z+t = 0 ⇔ y + z − 2t = 0   x−y+z+t = 0  ⇔ y + z − 2t = 0   2y + 2z − 4t = 0 x = −2z + t y = −z + 2t (−2z + t. (−1. y)+z (1. −1. o Pero el conjunto anterior es L.D. 1. . (1. 0. 1. t ∈ R tal que v = (x. 1) . x)+(−y. 1) . Luego todo vector de la imagen de T es combinaci´n lineal de o {(1. Observemos que (1. −1. 0) + t (1. t) con z. 3) = 2 (1. 0) u o y (1. 0.I Luego {(1. −3)} (observar que dichos vectores est´n en la imagen pues son imagen respectia vamente de los vectores de la base can´nica). z.216 7. 2) w ∈ Im (T ) ⇔ ∃v ∈ R4 tal que w = T (v). 1)} que s´ es L. 2. −1. 0. 3) . 0. z. −1. x + y + 3z − 3t) ⇔ ∃x. (1. 1) . 1) . 1. t) ∈ R4 tal que w = T (x. (−1. −z + 2t. Por ser {(−2. es una base de N(T). w = (x − y + z + t. pues tiene 4 vectores y dim R3 =3. Como todo vector del n´cleo de T es combinaci´n lineal de los vectores (−2. hasta obtener el generador {(1. 1) + (−2) (−1. −3) = −1 (1. es decir ∃ (x. y.D. 1. 2. 1). x + 2z − t. 1) (1. 2. 1. 2. 0. 1) un conjunto L. −3) . (1. 3)+t (1. t) . −z + 2t. 0. z. z.. 2. (−1. 1. ı (−2z + t. t ∈ R. 1. 1) + (−1. y. 2.I. −1. −1. y. t ∈ R. t) = z (−2. 1. 1)} es base de Im (T ). z. 1) Luego reducimos el generador L. 0. 0. 0). 0. 1) con z.

. . Luego w = T (v) = T (α1 v1 + · · · + αn vn ) == α1 T (v1 ) + · · · + αn T (vn ) As´ todo vector w ∈ Im (T ) es combinaci´n lineal de {T (v1 ) .I. αn escalares tales que v = α1 v1 + · · · + αn vn . o Si {e1 . T (vn )} un conjunto L. Probaremos que {T (ed+1 ) . . . . . Sean V y W espacios vectoriales sobre un mismo cuerpo con dim (V ) = n y T : V → W una transformaci´n lineal. . . . . . . . . Aplicando T y usando la linealidad α1 T (v1 ) + · · · + αn T (vn ) = 0 y siendo {T (v1 ) . ii) Sean α1 .I. . entonces {T (v1 ) . . .I. Entonces existe v ∈ V tal que w = T (v). ´ PROPOSICION 7. vn } un generador de V. T (vn )} es un generador de la Im (T ). . . . . . T (vn )} ⊆ ı o Im (T ) es decir que {T (v1 ) . . . . . Sea V. . ed . . pues αd+1 T (ed+1 ) + · · · + αn T (en ) = 0 ⇒ T (αd+1 ed+1 + · · · + αn en ) = 0 ⇒ αd+1 ed+1 + · · · + αn en ∈ N (T ) . .10. .I. . . . ed } es una base del N (T ) y {e1 . T (en )} es base de Im (T ). . .´ ´ 7. W espacios vectoriales de dimensi´n finita o sobre un mismo cuerpo y T : V → W lineal. . existen α1 . i) Si {v1 .I. T (vn )} es un generador de la Im (T ) (es decir que la imagen de un conjunto generador de V es un generador de la Im (T )).I. en } es una base de V entonces {T (ed+1 ) . . . . T (vn )} es un conjunto L. . . ´ Demostracion. . . en V) ´ Demostracion. ii) Si {T (v1 ) . . αn ∈ K tales que α1 v1 + · · · + αn vn = 0. en Im (T ) entonces {v1 . Como v ∈ V y siendo {v1 . . . . resulta que α1 = . . vn }es un generador de V. . . . .3. . = αn = 0. i) Sea w ∈ Im (T ). IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL.11. . 217 ´ PROPOSICION 7. . en la Im (T ) es un conjunto L. vn } es conjunto L. . en V (es decir que la pre-imagen de un conjunto L. . . . ed+1 . . . vn } es L.I. 1) Es L. . T (en )} es una base de la Im (T ). . . . Esto prueba que {v1 . .

Sean V y W espacios vectoriales sobre un mismo cuerpo K. de {T (ed+1 ) .L de la base de N (T ). {T (ed+1 ) . Sea {v1 . TEOREMA 7. T (en )}. o ´ Demostracion. . . o 3er.I. luego todos los coeficientes αi son ceros.218 7. . Entonces dim (V ) = dim (N (T )) + dim (Im (T )). Como N (T) es subespacio de V. por la Proposici´n 7. . . . TRANSFORMACIONES LINEALES. . . . . Por ser {v1 . Luego N (T ) = 0 . . porque {e1 . 1er. Caso. Como dim (N (T )) = V obtenemos N (T ) = V . Entonces T (v) = 0 ∀v ∈ V . .12 (De las dimensiones). αd+1 ed+1 + · · · + αn en es C.L. αd+1 ed+1 + · · · + αn en = α1 e1 + · · · + αd ed −α1 e1 − · · · − αd ed + αd+1 ed+1 + · · · + αn en = 0. vn } una base de V. d=n. si d = dim (N (T )). . . . Caso. es decir Im (T ) = 0 y dim (Im (T )) = 0. . . T (en )} es L. . . Caso. porque es base de V .10(i) {T (v1 ) . T (en )} generan la Im (T ) pues: Sea w ∈ Im (T ) ⇒ ∃v ∈ V tal que T (v) = w v = α1 v1 + · · · + αn vn . . en } es L. . con dim (V ) = n y T : V → W una transformaci´n lineal. . e 2do. . cumpli´ndose la tesis en este caso. Discutiremos tres casos. . Pero {e1 . . T (vn )} un generador de la Im (T ). . Hemos probado que {T (ed+1 ) . . . El resultado es una consecuencia directa de la proposici´n anterior. . en } es base de V. Luego todo vector w ∈ Im (T ) es C. o . . T (en )} genera a Im (T ). 0 < d < n. . es decir. . 2) {T (ed+1 ) . .I. T (v) = w = T (α1 e1 + · · · + αn en ) = = α1 T (e1 ) + · · · + αd T (ed ) + αd+1 T (ed+1 ) + · · · + αn T (en ) = = αd+1 T (ed+1 ) + · · · + αn T (en ) . vn } un generador de V. . . tenemos 0 d n. . d = dim (N (T )) = 0.

. . TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. + αn T (vn ) = 0w . As´ dim (Im (T )) = n y se cumple que dim V = dim N (T )+dim Im (T ). . Son equivalentes las siguientes afirmaciones: i) T es inyectiva. .13.I.I. T (vn )} es base de la Im (T ). . . . . iii) N (T ) = 0 . . ´ Demostracion. . se cumple que α1 = . + αn vn ) = 0 ⇔ α1 v1 + . + αn vn ) = 0w . i) ⇒ ii) Sabemos que T es inyectiva. . + αn vn = 0 por ser {v1 . . . . . . de V. Siendo T lineal obtenemos T (α1 v1 + . . αn ∈ K tales que α1 T (v1 ) + . . . . . .7. . . Probemos que T (A) = {T (v1 ) . Sea A = {v1 . ı 7. vn } base de V. .I. . Por lo tanto {T (v1 ) . . . . As´ T (α1 v1 + . En efecto e α1 T (v1 ) + . . . T (vn )} es L. Debemos probar que α1 = . o Recordemos que T es inyectiva cuando T (v1 ) = T (v2 ) entonces v1 = v2 . . . 219 Veamos que tambi´n es L.. . + αn vn ) = T 0v y como T es inyectiva se obtiene ı que α1 v1 + . . = αn = 0. .4. . = αn = 0. + αn vn ⇔ α1 = .I. Sean α1 . ii) Para todo conjunto A linealmente independiente de V se cumple que T (A) es linealmente independiente en W. .. o equivalentemente v1 = v2 entonces T (v1 ) = T (v2 ). . . + αn T (vn ) = 0 ⇔ T (α1 v1 + . . ´ PROPOSICION 7. = αn = 0 ∈ N (T ) ⇔ α1 v1 + . . . . Transformaciones lineales inyectivas y sobreyectivas. . en W.4. . + αn vn = 0v y siendo A = {v1 . vn } un conjunto L. . . vn } L. . . Sean V y W espacios vectoriales sobre un mismo cuerpo K y T : V → W una transformaci´n lineal.

10 o se cumple que T (A) es un generador de la Im (T ). en W y por ii) T (v) = 0w es L. . .I. + αn vn ∈ V tal que w = T (v0 ) luego T es sobreyectiva. iii) ⇒ i) Sabemos que existe A0 = {v1 . . v ∈ N (T ) con v = 0v . . TRANSFORMACIONES LINEALES. . . . + αn vn ) Hemos probado que dado w ∈ W existe v0 = α1 v1 + . . . . .I. . por absurdo. . .220 7. αn ∈ K tales que w = α1 T (v1 ) + . que N (T ) = 0v . ı ii) ⇒ iii) Inmediato.Sea w ∈ W . o equivalentemente Im (T ) = W . . en V ii) ⇒ iii) Supongamos. T (vn )} es generador de W. existen α1 . As´ T (A) es un generador de W. . + αn T (vn ) Siendo T lineal se cumple que w = T (α1 v1 + . . . Son equivalentes las siguientes afirmaciones: i) T es sobreyectiva ii) Para todo A generador de V se cumple que T (A) es un generador de W iii) Existe un generador A0 de V tal que T (A0 ) es generador de W.14. Luego A = {v} es L. por ser T sobreyectiva. ´ Demostracion.I.Pero Im (T ) = W . como T (A0 ) es generador de W. . vn } generador de V tal que T (A0 ) = {T (v1 ) . Recordemos ahora que T es sobreyectiva cuando ∀w ∈ W existe v ∈ V con T (v) = w. Recordemos por ultimo que T es biyectiva cuando es inyectiva y sobre´ yectiva. .Entonces existe porhiptesis ⇒ T (A) = T (v) es L. .. ´ PROPOSICION 7. Absurdo. Por la Proposici´n 7. i) ⇒ ii) Sea A un generador de V. iii) ⇒ i)SiT (v1 ) = T (v2 ) ⇒ T (v1 ) − T (v2 ) = 0w luego T (v1 − v2 ) = 0w ⇒ v1 − v2 ∈ N (T ) por iii) v1 − v2 = 0v es decir v1 = v2 .

16. . B es una base de V ⇔ T es lineal e inyectiva (1) T es lineal y sobreyectiva (2) B es L. TRANSFORMACIONES LINEALES INYECTIVAS Y SOBREYECTIVAS. es decir.I. . .14 se obtiene que T (B) es o generador de W (2”) De (1”) y (2”) se tiene que T (B) es una base de W.. . se tiene que T (v) = 0 α1 T (v1 ) + . luego por la proposici´n 7. i) ⇒ ii)T es lineal y biyectiva ⇔ Por otro lado. ı Recordemos que T es biyectiva si y solo si T es invertible. . . T (vn )} es L. Luego usando la linealidad de T se obtiene que T (v) = α1 T (v1 ) + . . . .7. . .15. . o ´ PROPOSICION 7. iii) ⇒ i) Sabemos que existe B0 es base de V tal que T (B0 ) es base de W. Sean V. . ´ Demostracion. + αn vn . vn } base de V se cumple que existen α1 .4. . = αn = 0 As´ v = 0. 221 ´ PROPOSICION 7. (por ser base) entonces α1 = . + αn T (vn ). Pero como v ∈ N (T ). . en particular existe B0 es generador de V tal que T (B0 ) es generador de W. si v ∈ N (T ) ⊆ V por ser B0 = {v1 .13 se obtiene que T (B) es o L. αn ∈ K tales que v = α1 v1 + . . .I. (1′ ) B es generador de V (2′ ) De (1) y (1’) aplicando la Proposici´n 7. + αn T (vn ) = 0 Pero T (B0 ) = {T (v1 ) . que existe la funci´n inversa T −1 . .(1”) De (2) y (2’) aplicando la Proposici´n 7. ii) ⇒ iii) Inmediato.Probemos que T es inyectiva. .14 T es sobreo yectiva. . . W espacios vectoriales sobre un mismo cuerpo y T : V → W una transformaci´n lineal y biyectiva. lo cual es equivalente a probar que N (T ) = 0 . o −1 : W → V es una transformaci´n lineal. . Son equivalentes las siguientes afirmaciones: i) T es biyectiva ii) Para toda base B del espacio V se cumple que T(B)es una base de W iii) Existe una base B0 del espacio V tal que T (B0 ) es una base de W.I. Entonces la funci´n inversa T o o .

222 7. W espacios vectoriales sobre un mismo cuerpo K. ´ Demostracion.16 si T : V → W es o −1 : W → V tambi´n lo es. λ w1 + µ w2 = λT T −1 (w1 ) + µT T −1 (w2 ) = = T λT −1 (w1 ) + µT −1 (w2 ) Aplicando T −1 a ambos miembros T −1 (λw1 + µ w2 ) = λT −1 (w1 ) + µT −1 (w2 ) .18. Sean V. e un isomorfismo entonces T ´ PROPOSICION 7. Isomorfismos entre espacios vectoriales ´ DEFINICION 7.5. Entonces las proposiciones a) y b) son equivalentes: a) dim (V ) = dim (W ) b) V es isomorfo a W.6. Sean w1 y w2 ∈ W y λ y µ ∈ K. Observando que T T −1 (w) = w y que T es lineal. a) Diremos que una transformaci´n lineal T : V → W biyectiva es un o isomorfismo. Sean V y W dos espacios vectoriales de dimensi´n o finita sobre un mismo cuerpo K. De acuerdo a la proposici´n 7. b) Diremos que V y W son isomorfos cuando existe un isomorfismo que lleva V en W. TRANSFORMACIONES LINEALES. .17. ´ OBSERVACION 7. 7.

Por ser T inyectiva dim (N (T )) = 0. entonces V es isomorfo a K n . Luego dim (V ) = dim (W ). . . T es un isomorfismo por la proposici´n 7. Luego definimos T : V → W lineal tal que T (vi ) = wi (T est´ ”bien definida”por el a teorema 7. . COROLARIO 7. . Sean A = {v1 . . vn } del espacio V. wn } base de W. coordB (v) =  .19. ´ PROPOSICION 7. αn ∈ K tales que v = α1 v1 + . As´ dim (V ) = dim (K n ) = n ⇒ V yK n son isomorfos. + αn vn . . existe un isomorfismo: T : V → W . a) ⇒ b) Sea dim (V ) = dim (W ) = n. coordB es un isomorfismo entre V y Kn .   . .5. ´ Demostracion. ISOMORFISMOS ENTRE ESPACIOS VECTORIALES 223 ´ Demostracion. entonces ∀v ∈ V .20. sobre el cuerpo K.  αn (es decir que a cada vector v ∈ V le asociamos sus coordenadas en la base B). Fijemos o una base B = {v1 . existen y son unicos α1 . Como existe una base A de V tal que T (A) = B es base de W.15. . . Por el teorema de las dimensiones se tiene que dim (V ) = dim (N (T )) + dim (Im (T )). o b) ⇒ a) Como V es isomorfo a W. . con dim (V ) = n. . . En efecto el espacio vectorial K n sobre el cuerpo K tiene dimensi´n n. . vn } base de V y B = {w1 .4). .7. .Por ser T sobreyectiva Im (T ) = W . . ´ Luego definimos coordB : V → K n tal que   α1   . . . . . . o ı Las coordenadas como transformaci´n lineal o Sea V un espacio vectorial de dimensi´n n sobre el cuerpo K. Si V es un espacio vectorial.

TRANSFORMACIONES LINEALES. . . .  v = α1 v1 + . ı .    αn βn αn + βn coordB (v + w) Por otro lado si λ ∈ K. . 1) coordB es lineal. + αn vn ⇒ coordB (v) =  .  =  . .   . + (αn + βn ) vn  α1 + β1  . . . . . . .  +  . .  αn w = β1 v1 + .  Luego v + w = (α1 + β1 ) v1 + .  .   αn λαn 2) Como dim (V ) = dim (K n ) = n para probar que coordB es biyectiva. + λαn vn ⇒ coordB (λv) =  . + βn vn  β1  . se tiene que λv = λ (α1 v1 + . .  .   . .  ⇒ coordB (w) =  . alcanza con probar que coordB es inyectiva. luego existen y son unicos α1 . ´ Demostracion.  βn           β1 α1 + β1 α1        = . αn ∈ K y β1 . .   = coordB (λv) As´ λ coordB (v) = λ  . .   .  =  . αn + βn  .   .   . . . As´ coordB (v) + coordB (w) =  .   λαn    α1 λα1  . . . w ∈ V . . Sean v.  = λα1 v1 + .224 7. βn ∈ K tales que ´   α1  . . ⇒ coordB (v + w) =  . ı . + αn vn ) =   λα1   .

. . .6. . a1m    . + anm wm En otras palabras     coordB (T (v1 )) =      coordB (T (v2 )) =     a21 a22 . . . anm       . . wm } es una base de W. . Matriz asociada a una transformaci´n lineal. + 0vn ⇔ v = 0  .   a2m Luego definimos:      . . . w2 .  a11 a12 . . . . . W espacios vectoriales de dimensi´n finita sobre un mismo o cuerpo K y T : V → W una transformaci´n lineal. .  0  7. T (vn ) = an1 w1 + an2 w2 + . . 225 N (coordB ) = 0 ⇒ coordB es inyectiva. . vn } es una base de V y B = {w1 . ..  ⇔ v = 0v1 + . Como coordB (v) =  . T (v1 ) . . . Supongamos que A = o {v1 . T (vn ) son vectores de W y por lo tanto cada uno de ellos es una combinaci´n lineal de los vectores de la base B: o T (v1 ) = a11 w1 + a12 w2 + . + a1m wm T (v2 ) = a21 w1 + a22 w2 + . + a2m wm . .6. . o Sean V. . v2 . . T (v2 ) . .´ 7. . . . . . . coordB (T (vn )) =       an1 an2 . . MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. .. . . Ahora bien.  0   . . . . . . .

1) 2) Calculamos las coordenadas de estos en la base B T (1. 0) + 1 (0. 1. . . . 2x + y. Para hallar la matriz asociada a T en dichas bases 1) Hallamos las im´genes de los vectores de la base A a T (1. Obs´rvese que los sub´ de esta matriz est´n colocados de manera distinta a la habitual. 1.       = Nota. 2. La matriz asociada se obtiene colgando” las coordenadas respecto ¸ e ındices a la base de W de los vectores de la base de V . 2. . (0. · · · an1 · · · an2 . Consideremos la transformaci´n lineal T : R2 → R3 tal o que T (x. (0. (0.226 7. . a21 a22 . . x + y) ∀x ∈ R2 . Esto es B ((T ))A = [coordB T (v1 ) ] . a1m a2m · · · anm EJEMPLO 7. y las bases can´nicas A = o {(1. . 1)} de R2 y B = {(1. [coordB T (vn )]   =    a11 a12 . [coordB T (v2 )] . 1) T (0.7. 0) = (4. 1) . 0) . 1. 1) = (−2. 0. . 0. a la matriz que representaremos por B ((T ))A y cuya i-´sima columna son las coordenadas del vector T (vi ) e en la base B. . TRANSFORMACIONES LINEALES. . 1) = 4 (1. ´ DEFINICION 7. 0) . 1)} de R3 . y) = (4x − 2y. 0. 0) = (4.14. alcanzar´ a ıa con cambiar las denominaciones de los sub´ ındices de las coordenadas de T (vj ) para obtener la forma habitual. Se llama representaci´n matricial de T en las bases A y o B o matriz asociada a T en las bases A y B. 0) . 0. 0) + 2 (0.

1. 0) ⇒ coordB (T (p2 )) = T (p3 ) = (0. Para hallar la matriz asociada a T en dichas bases. (1. 1) = −2 (1. 1) = 1 (1. 1) = 1 (1. 0)} de R2 . 4) = 4 (1. a + b + 4c) ∀p ∈ P2 tal que p (t) = at2 + bt + c ∀t ∈ R y las bases A = {p1 . 227 T (0. p2 . 1)) =  1  . 0. Luego B ((T ))A =  2 1 . 1) T (p3 ) = (0. y B = {(1.15. 0) + 1 (0. 1) Hallamos las im´genes de los vectores de la base A a T (p1 ) = (2. p2 : p2 (t) = t . 1) + 0 (1. MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. 4) 2) Calculamos las coordenadas de estos en la base B T (p1 ) = (2. p3 : p3 (t) = 1 ∀t ∈ R. 1 1 1 EJEMPLO 7. 1) .´ 7. 1) T (p2 ) = (1. 0) ⇒ coordB (T (p3 )) = Luego B  4   ⇒ coordB (T (1. 0. Consideremos la transformaci´n lineal T : P2 → R2 tal o que T (p) = (2a + b. 1. 1) − 4 (1. 1) = (−2. p3 } de P2 donde p1 : p1 (t) = t2 . 0) ⇒ coordB (T (p1 )) = T (p2 ) = (1. 1)     −2 4 −2     ⇒ coordB (T (0.6. . 0)) =  2  1  1 1 1 0 4 −4 ((T ))A = 1 1 4 1 0 −4 . 1) + 1 (1. 0) + 1 (0.

T (p2 ) = 2p1 2)Calculemos las coordenadas de estos en la base A  0   T (p0 ) = 0 = 0p0 + 0p1 + 0p2 ⇒ coordA (T (p0 )) =  0  0   1   T (p1 ) = p0 = 1p0 + 0p1 + 0p2 ⇒ coordA (T (p1 )) =  0  0   0   T (p2 ) = 2p1 = 0p0 + 2p1 + 0p2 ⇒ coordA (T (p2 )) =  2  0   0 1 0   Luego A ((T ))A =  0 0 2  0 0 0 ´ OBSERVACION 7. queda come pletamente determinada conocidas la transformaci´n lineal T y las bases A o y B del dominio y codominio respectivamente. i = 0. Rec´ ıprocamente. 1.16. TRANSFORMACIONES LINEALES. p1 . o  . T (p1 ) = p0 . o ´ OBSERVACION 7. La matriz B ((T ))A como reci´n vimos. queda completamente determinada una transformaci´n lineal T tal que B ((T ))A =M.21. 2. Si dim(V)=n y dim(W)=m la matriz asociada tiene dimensi´n m × n. Consideremos la transformaci´n lineal T : P2 → P2 tal o ′ y la base can´nica de P que T (p) = p o 2 A = {p0 .22.228 7. dada una matriz M de tama˜o m×n y dos bases A y B n de los espacios V y W respectivamente. EJEMPLO 7. p2 } donde pi (t) = i . t 1) Hallemos las im´genes de los vectores de la base A: a T (p0 ) = 0.

0)) = coordB (T (0.4. 0)} es 1 0 2 base de R3 y B = {(2. 0) T (2. EJEMPLO 7. 0) + y (0. 5) = 2 .´ 7. Hallar la transformaci´n lineal T : R3 → R2 sabiendo o 2 3 −1 que B ((T ))A = donde A = {(1. 0. 1) = 2 (2. 1. −1) + 0 (0. 0) = 3 (2. 1. 1. 1) . 229 En efecto. −1) + 2 (0. al conocer la matriz M. 1) + Luego por la linealidad de T T (x. 0) = 3 3 3x − 2z − 2y. y. 0)) = Luego T (1. 2) = (−2. (0. 0. y. −3) + y (−2. 2) = (4. 2) = (6. 0) . z) = z (1. −1) + 1 (0. 0. sus columnas son las coordenadas en la base B de las im´genes de dos vectores de la base A. 0. 0. 0. a Esto nos permite conocer a las im´genes de los vectores de la base A. MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. y a por el Teorema 7. 0) T (0. − x + 5y + z 2 2 x−z 2 (2. y. 1. 0. 0) = −1 (2. z) ∈ R3 que (x. 0. 0. 1) + z (4. 0. 1) .17. 2)} es base de R2 De acuerdo a la definici´n de matriz asociada o coordB (T (1. z) = z T (1. (0. (2. 0) + x−z 2 T (2. 5) x−z · (6. 0. 0. 1. −3) Ahora bien siendo A = {(1. 0) . esto es suficiente para determinar T. 0) + y T (0. 1. (2. −1) .6. 0)} una base de R3 se cumple que ∀ (x. (0. 1)) = 2 1 3 0 −1 2 coordB (T (2.

. . wt } bases de U. − x + 5y + z 2 2 ´ PROPOSICION 7. i=1 ´ OBSERVACION 7. Sea uk ∈ A.  Calculemos C ((T ◦ S))A . . vn } y C = {w1 . . . Sea T : V → W un isomorfismo.230 7. ´ Demostracion. ai j bj k  wi = ci k wi . 1 j n. Sean A = {u1 . y las transformaciones lineales S : U → V yT : V → W . Sea C ((T ))B = (ai j ). n j=1 (T ◦ S) (uk ) = T (S (uk )) = T  n t t  n n j=1 bj k T (vj ) = j=1 bj k i=1 ai j wi = i=1   C bj k vj  =  t j=1 Resulta. B = {v1 . B ((S))A = (bj k ) y C ((T ))B B ((S))A = (ci j ) con 1 i t. B T −1 T −1 B′ = B ′ ((idW ))B ′ = I = ((idV ))B = I y de T −1 ◦ T = idV B′ B . z) = 3 3 3x − 2z − 2y. dim(V)=n y dim(W)=t. Es o decir C ((T ◦ S))A =C ((T ))B B ((S))A . . . B y B’ bases de V y W respectivamente. Considere los K-espacios vectoriales U. us } . . y. con dim(U)=s.24. B ′ ((T ))B B . por definici´n de matriz asociada o ((T ◦ S))A = (ci j ). . V y W respectivamente. 1 k s.23. As´ T : R3 → R2 es tal que ı T (x. . TRANSFORMACIONES LINEALES. n Por definici´n de producto de matrices ci k = o j=1 ai j bj k . Entonces la matriz asociada a la composici´n T ◦ S es el producto de las matrices asociadas. . . y sea T −1 : W → V la inversa de T. Como T ◦ T −1 = idW ⇒ ⇒ B′ ((T ))B . V y W.

MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. . En . Ep Er . . . Entonces: E ((T + S))B = m E ((T ))B + E ((S))B . B = (bi j ) = E ´ Demostracion. . C son matrices. Sean dos transformaciones lineales de espacios vectoriales sobre un cuerpo K.25. De donde (T + S ) (vj ) = m i=1 ai j wi + i=1 bi j wi = (ai j + bi j ) wi ⇒ + S))B = (ai j + bi j ) = A + B. ´ OBSERVACION 7. Sea B = {v1 . . Es decir si B ′ ((T ))B = A ⇒ o −1 −1 T = A B B′ ´ PROPOSICION 7. vn } base de V y E = {w1 . K p . wm } base de W. . Consideremos los espacios vectoriales K m . B. Se trata de ver que si A. Ya vimos (observaci´n 7.26. Sean T : K n → K m tal que Em ((T ))En = . K n . K r y sus respectivas bases Em . . m E ((λ T ))B = λ E ((T ))B . 231 y por lo tanto la matriz asociada a la transformaci´n inversa es la inversa o de la matriz asociada a la transformaci´n.22) que fijando bases hay una correspondencia o biun´ ıvoca entre matrices y transformaciones lineales. Adem´s (λ T ) vj = λ T (vj ) = a i=1 ai j wi = λ ai j wi ⇒ E ((λ T ))B = (λ ai j ) = λ A. En- ai j wi S (vj ) = i=1 m m i=1 bi j wi . T : V → W y S : V → W y α un escalar de K. por lo tanto. . Sean A = (ai j ) =E ((T ))B tonces: T (vj ) = T (vj ) + S (vj ) = i=1 E ((T m i=1 m ((S))B .6. entonces: (A B) C = A (B C) si las dimensiones relativas de las matrices hacen que la expresi´n tenga o sentido.´ 7. Demostraci´n de la propiedad asociativa del proo ducto de matrices usando transformaciones lineales. el producto anterior se puede interpretar como un producto (o composici´n) de o transformaciones lineales.

.27. + am1 wm T (v2 ) = a12 w1 + a22 w2 + . . .C) (Hemos omitido para simplificar la notaci´n. w2 . .  y coordA (v) =  . . las bases en cuesti´n.  . .  . a1n x1      a21 a22 . . . .   . . W espacios vectoriales sobre un mismo cuerpo K. . y T : V → W una transformaci´n lineal. TRANSFORMACIONES LINEALES. . T (vn ) = a1n w1 + a2n w2 + . . w2 . . . . wm } bases ordenadas de V y W respectivamente. .  am1 am2 . amn por definici´n de matriz asociada o T (v1 ) = a11 w1 + a21 w2 + . . Am × n . am1 am2 . . Usaremos las siguientes notaciones    a11 a12 . ((L))] = A. ((S L)) = ((T )) [((S)) . v2 . + amn wm . . . . .   . S : K p → K n tal que En ((S))Ep = Bn × p y L : K r → K p tal que Ep ((L))Er = Cp × r . . (B. Entonces se o cumple que B ((T ))A coordA (v) = coordB (T (v)) ´  Demostracion. . ((L)) = ((T ◦ S)) . . en virtud de que la composici´n de funciones es asociativa teneo mos que: (A . Sean V. A = {v1 .2  siendo B ((T ))A =  . .) o o TEOREMA 7. .  .232 7. . . . a2n   . B ((T ))A =  . Luego. .  y B = {w1 . . wm }. + am2 wm (I) .  . . . vn } y B = {w1 .  . . . . a1n    a21 a22 . ((L)) = = (((T ◦ S) L)) = ((T ◦ (S ◦ L) )) = = ((T )) . C = [((T )) . B) . . ((S))] . amn xn   a11 a12 . . . . a2n   x   . . .

. amn  1 −1 0   EJEMPLO 7. 1. . . . + xn a1n x1 a21 + x2 a22 + . + xn T (vn ) Sustituimos (I) en (II) obteniendo T (v) = x1 (a11 w1 + a21 w2 + . . .´ 7. . . . a2n . 0. . . 0. x1 am1 + x2 am2 + . a12 a22 . xn     =      y siendo coordA (v) =     x1 x2 . . . . (1. + amn wm ) = = (x1 a11 + x2 a12 + . . (1. + am2 wm ) + . + xn a2n . . a1n . . 1)  . 0) . . . . 0) + 1 (1.  x1 a11 + x2 a12 + . + (x1 am1 + x2 am2 + .18. . + xn amn ) wm . . + xn amn             x1 x2 . −1) = 2 (1. . . + xn (a1n w1 + a2n w2 + . 0) . Sea T : R3 → R3 tal que B ((T ))A =  2 0 0  3 4 1 siendo A = B = {(1. . . Luego aplicando T y usando la linealidad (II) T (v) = x1 T (v1 ) + x2 T (v2 ) + . . . 1. . Como (2. −1). . vn } tenemos que     Luego coordB (T (v)) =      =    a11 a21 . . . . 1. 0) + (−1) (1.6. . 233 xn v = x1 v1 + x2 v2 + . . . . . . + xn vn . . . . MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL. . . . 0.   =   B ((T ))A coordA (v) am1 am2 . 0.     y A = {v1 . + xn a1n ) w1 + (x1 a21 + x2 a22 + . + xn a2n ) w2 + . + am1 wm ) + x2 (a12 w1 + a22 w2 + . 1. . 1)} . . . v2 . . . Hallar T (2. . .

0) + 4 (1. (Ejercicio). 1.7. −1) =       1 −1 0 2 3       = 2 0 0   −1  =  4  3 4 1 1 −3  As´ T (2. xm ) = A  . definimos la transformaci´n TA : K m → K n tal que   x1   . −1) = 3 (1.28. e def .27 se cumple que coordB (T ((2. u o Dada una matriz A ∈ Mnxm (K). 1. (a) TA es lineal (b) Si Em y En son las bases can´nicas de K m y K n respectivamente o entonces En ((TA ))Em = A ´ Demostracion. TA (x1 .  2   resulta que coordA (2.234 7.8. 0. N´ cleo e imagen de una matriz. . ´ DEFINICION 7. u o N (A) = N (TA ) = x ∈ Rm : TA (x) = 0 = x ∈ Rm : A x = 0 En otras palabras el N (A) son las soluciones del sistema de ecuaciones homog´neo A x = 0. .  xm ´ PROPOSICION 7. Sea A ∈ Mnxm (K). . . TRANSFORMACIONES LINEALES. Definimos el n´ cleo de la matriz u A como el n´cleo de la transformaci´n lineal TA . 0.  ∀ (x1 . . 0. −3) ı 7. . 1) = (4. 0) + (−3) (1. 1. xm ) ∈ K m  . . −1))) =B ((T ))A coordA (2. 0. . 0. −1) =  −1  1 Luego de acuerdo al Teorema 7.

.   . .  xm m . Resulta obvio de las definiciones 7.    Im (TA ) = Im (A). El rango de una matriz A es la dimensi´n de su o imagen.   .   x1  . 235 ´ DEFINICION 7. . Definimos la imagen de la matriz A como la imagen de la transformaci´n lineal TA .29. {y ∈ Rn : existe x ∈ Rm tal que A x = y} def ´ OBSERVACION 7.  0 (1) . TA (em )} es un generador de la o . em } es la base can´nica de R la proposici´n 7. .  0  .   . NUCLEO E IMAGEN DE UNA MATRIZ. e2 . . . . que N (A) es un subespacio de Rm y Im (A) es un subespacio de Rn (por serlo N (TA ) e Im (TA )) ´ PROPOSICION 7.2. y 7. .3. Las columnas de A generan a la Im (A)..31. . COROLARIO 7.  ´ Demostracion. Sea TA : K m → K n tal que TA (x1 . . es decir r (A) = dim (Im (A)). .  . .´ 7. Sea A ∈ Mnxm (K). Pero TA (ei ) = A  1  = A(i) (i-´sima columna de e  . o Im (A) = Im (TA ) = {y ∈ Rn : existe x ∈ Rm tal que TA (x) = y} = En otras palabras la Im (A) son los ”t´rminos independientes”y ∈ Rn para e los cuales el sistema A x = y es compatible.7.   . . xm ) = A  . A(m) constituyen un generador de la A) As´ las columnas de A A ı Im (A).30. . .10(i) {TA (e1 ) . TA (e2 ).9. . Entonces de acuerdo a o Si {e1 . .

1) . 2. EJEMPLO 7. Hallar una base del n´cleo y una base de la imagen de u la matriz   1 −1 1 1   A= 1 0 2 −1  . –y por tanto una base– de Im (A) (verifique). z) ∈ N (A) . 1. Sea (x. Luego los vectores del n´cleo de A son de la forma (−z. 1. −1)−(0. 1)} es base del N (A) (¿por qu´?) ı e Por otro lado de acuerdo a la Proposici´n 7.19.I. y. 2. y. z. −2) = (1.D. −2)} genera a la Im (A). Hallemos bases del n´cleo y de la imagen de la matriz u   1 0 1   A= 2 1 1  . TRANSFORMACIONES LINEALES.20. Entonces 1 1 3 −3           x x 0 1 −1 1 1 0  y          y    A  =  0  ⇔  1 0 2 −1    =  0  ⇔  z   z  0 1 1 3 −3 0 t t . y lo reducimos hallando {(1. 1) . el generador es L.30 resulta que o {(1. 1). (1. 1. t) ∈ N (T ) . 1. 2. 1. z. Entonces −1 1 −2           1 01 x 0 x 0           A y  =  0  ⇔  2 1 1   y = 0 ⇔ z 0 −1 1 −2 z 0             1 0 1 x 0 1 0 1 x 0              0 1 −1   y  =  0  ⇔  0 1 −1   y  =  0  0 1 −1 z 0 0 0 0 z 0     x = −z  x+z =0  ⇔ ⇔ y=z  y−z =0    z cualquiera EJEMPLO 7. z) = z (−1. (0.236 7. Sea (x. −1) . 1. 1)} que es un generador L. u As´ {(−1. Como (1. 1. (0. −1) .

3) . del N (A) (verifique) y por lo tanto es base. 0. Sean V. 0. Entonces: . . (1. 237    x 1 −1 1 1   0   y    1 1 −2    =  0  ⇔  0  z  0 2 2 −4 0 t     x   1 −1 1 1   0   y    1 1 −2    =  0   0  z  0 0 0 0 0 t   x = −2z + t        x−y+z+t = 0  y = −z + 2t ⇔ ⇔  y + z − 2t = 0  z = cualquiera       t = cualquiera As´ los vectores del n´cleo de A son de la forma ı u   (−2z + t.8. wn } una base de W. −1. ´ PROPOSICION 7. 1) . 1) + (−1.30 {(1. 0. 1. 2.D. t) = z (−2. 1)} que es un generador L. −3)} es un o generador de la Im (A) que claramente es L. 1) . . 1) + t (1.. . 0. B = {w1 . 1..´ 7. 0. 3) = 2 (1. NUCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. Por la proposici´n 7.I. 1. 1) Luego {(−2. (−1. W espacios vectoriales sobre un mismo cuerpo A = {v1 . . 1. 0. −3) = −1 (1. Relaci´n entre n´ cleo e imagen de una transformaci´n lineal o u o y de una matriz. 1. −z + 2t. .32. 0. 1) + (−2) (−1.I. 0. (−1. 1) . (1. z. . 1) reducimos el generador anterior hasta obtener {(1. 2. vn } una base de V. . 1)} es un generador L. −1. (1. T : V → W lineal.  7. 1) . . 2. de la Im (A) y por lo tanto es base.8. 1. w2 . 1) (1. Observando que (1. 2. v2 .

. . As´ coordB (T (v)) = 0. Pero. . 1) Si v ∈ N (T ) entonces T (v) = 0. . . . . . . xn ) ∈ N (B ((T ))A ) ⇒B ((T ))A  . Luego como T (v) y 0 coinciden sus coordenadas en la base B tambi´n: coordB (T (v)) = e coordB 0 .  = 0. . . . [coordB (T (v1 ))]) . TRANSFORMACIONES LINEALES. 2) Si x = (x1 .  = 0  .xn = 0 ⇒ (por ser coordB ⇒ lineal ) coordB (x1 T (v1 ) + .x1 + . + coordB (T (vn )) . + xn T (vn ) = 0 (por ser coordB ⇒ inyectiva) (linealidad de T ) ⇒ T (x1 v1 + . . . coord−1 (x) A .  xn ⇒ coordB (T (v1 )) . teniendo en cuenta que las columnas de la matriz asociada son las coordenadas de los transformados de la base del dominio se tiene que   x1  . .  .. . . . 1) Si v ∈ N (T ) ⇒ coordA (v) ∈ N (B ((T ))A ) 2) Si x ∈ N (B ((T ))A ) ⇒ coord−1 (x) ∈ N (T ) A ´ Demostracion. + xn vn ) = oV ⇒ x1 v1 + . + xn vn ∈ N (T ) . por el Teorema 7. + xn T (vn )) = 0 x1 T (v1 ) + . .  xn tonces.27: ı coordB (T (v)) =B ((T ))A coordA (v) As´ B ((T ))A coordA (v) = 0 esto es coordA (v) ∈ N (B ((T ))A ) ı   x1   . Siendo coordB : W → Rm una transformaci´n lineal se cumo ple: coordB 0 = 0. . En . .238 7.  ([coordB (T (v1 ))] . .

. coordA (e2 ) . . NUCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. w2 . Esto nos permite enunciar la siguiente ´ PROPOSICION 7. 3) Los isomorfismos ”llevan bases en bases”.33. cordemos que coordA : V → R Pero la proposici´n anterior nos asegura que todo vector del N (T ). .. o . W espacios vectoriales sobre un mismo cuerpo A = {v1 . ek } es base del N (T ) ⇒ {coordA (e1 ) . . . . wn } una base de W. 239 ´ OBSERVACION 7.. T : V → W lineal. . . (Ejercicio) Sugerencias: 1) Vimos en la observaci´n anterior que coordA es un isomorfismo entre o N (T ) y N (B ((T ))A ). e2 . . . . Recomendamos prestar particular atenci´n a los ejemplos que siguen.´ 7. .34. 2) Basta recordar que dos espacios isomorfos tienen la misma dimensi´n o y que si M es una matriz. A A A ´ Demostracion. coord−1 (x2 ) . vn } una base de V. Con las notaciones de la proposici´n anterior reo n es un isomorfismo entre V y Rn . . dim (Im (M )) = rango (M ).. . xk } es base del N (B ((T ))A ) ⇒ coord−1 (x1 ) . . Sean V. . . B = {w1 . 4) La inversa de un isomorfismo es un isomorfismo. . 3) Si {e1 . coord−1 (xk ) es base del N (T ). . . Luego coordA es un isomorfismo entre el N (T ) y N (B ((T ))A ). . . Entonces: 1) N (T ) y N (B ((T ))A ) son isomorfos 2) dim(N (T )) = n − rango(B ((T ))A ). . . al o aplicarle la transformaci´n lineal coordA se obtiene un vector del N (B ((T ))A ) o y rec´ ıprocamente todo vector del N (B ((T ))A ) al aplicarle la transformaci´n o −1 lineal inversa coordA (x) se obtiene un vector del N (T ). coordA (ek )} es base del N (B ((T ))A ) 4) Si {x1 . v2 . x2 .8.

EJEMPLO 7. 0 0 −1 0 una transformaci´n lineal T : M2x2 (R) → o  1 1  2 −1  siendo 3 −3 . 1. 0.21. Queremos hallar una base del n´cleo de T. t) = z (−2. 0) . 1. 0. 1)} . 1. 1) . 1. t) ∈ N (B ((T ))A ) . Luego. Entonces u           x x 0 1 −1 1 1 0  y   y            0 2 −1    =  0  ⇔ = 0 ⇔ 1 B ((T ))A   z   z  0 1 1 3 −3 0 t t    x 1 −1 1 1 0  y       1 1 −2    =  0  ⇔  0  z  0 2 2 −4 0 t       x 0 1 −1 1 1     y    1 1 −2    =  0   0  z  0 0 0 0 0 t   x−y+z+t = 0 y+z+t=0 ⇔ B  ⇔ As´ los vectores del n´cleo de la matriz ı u ((T ))A son de la forma x = −2z − 2t y = −z − t (−2z − 2t. (−2. (0. 1. 1 −1 0 0 . 1. coord−1 (−2. 1. 1.34 o coord−1 (−2. 1 0 0 0 y B = {(1. TRANSFORMACIONES LINEALES. 0. 1)} es una base del N (B ((T ))A ). Sea (x. z. 1) . 1. 1. 0. de acuerdo con la Proposici´n 7. Primero calculamos una base del u n´cleo de la matriz B ((T ))A . 1) Entonces {(−2. (0. 1.240 7. Se considera  1 −1  3 tal que R 0 B ((T ))A =  1 1 1 A= 1 1 1 1 . 1) = A A . 0) + t (−2. z. y. 0) . z + t.

1. −2 1 1 1 1 +1 0 0 −1 0 −1 −3 −3 −2 +0 1 −1 0 0 −1 −2 −3 −2 +1 1 0 0 0 = = .23.8. 0) + 1 (1. 1)} = {(−1. y) = ı u y (−2. Entonces {(−2. −1) . 1)} es una base de N (B ((T ))A ).22. p2 } con pi : pi (t) = −1 1 −2 i (i = 0. 1)}. EJEMPLO 7. 0) . NUCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 4) . t Queremos hallar una base del n´cleo de T. (1. Luego. 1). 0.34. u Primero calculemos una base del n´cleo de la matriz B ((T ))A : u (x. (0. u EJEMPLO 7. 241 = −2 1 1 1 1 +1 0 0 −1 0 +1 1 −1 0 0 +0 1 0 0 0 . Se considera una transformaci´n lineal T : R2 → R2 tal o 1 2 que B ((T ))A = siendo A = B = {(1. de acuerdo a la Proposici´n 7. 1)} o A es una base del N (T ). 3)}. y) ∈ N (B ((T ))A ) ⇔B ((T ))A ⇔ 1 2 2 4 x y = 0 0 x y = 0 0 ⇔ ⇔ x + 2y = 0 ⇔ x = −2y As´ los vectores del n´cleo de la matriz B ((T ))A son de la forma: (−2y. coord−1 (−2.´ 7. u . 0. 1. (0. 2) y B = {(2. es una base del n´cleo de T. p1 . 1) = {−2 (1. Queremos hallar 2 4 una base del n´cleo de T. Se considera transformaci´n lineal T : P2 → R3 tal una o  1 2 −1   que B ((T ))A =  0 1 1  siendo A = {p0 .

B = {w1 . z) = z (3. −z. 1) . TRANSFORMACIONES LINEALES. −1.34. . z) ∈ N (B ((T ))A ) ⇔B ((T ))A  y z  2 −1 x  1 1  y 1 −2 z  2 −1 x  1 1  y 0 0 z    0     = 0 ⇔ 0    0    = 0 ⇔ 0      1 2 −1 x 0     0 1 1  y = 0  0 3 −3 z 0 ⇔ x = 3z y = −z matriz B ((T ))A    0    = 0 ⇔ 0 x + 2y − z = 0 y+z =0 As´ los vectores del n´cleo de B ((T ))A son de la forma: ı u (3z. una base del n´cleo de N (T ) es o u coord−1 (3. . vn } una base de V. Sean V. W espacios vectoriales sobre un mismo cuerpo K. . .27 coordB (T (v)) =B ((T ))A coordA (v). . −1. −1.. 1) = {3p0 + (−1) p1 + 1p2 } = {3p0 − p1 + p2 } . T : V → W lineal. Entonces {(3.. v2 . de acuerdo a la proposici´n 7.35. . . wm } una base de W. As´ coordB (w) =B ((T ))A coordA (v) ı Hemos probado que existe coordA (v) ∈ Rn tal que B ((T ))A coordA (v) = coordB (w) ⇒ coordB (w) ∈ Im (B ((T ))A ) . A = {v1 . Entonces 1) Si w ∈ Im (T ) ⇒ coordB (w) ∈ Im (B ((T ))A ) 2) Si y ∈ Im (B ((T ))A ) ⇒ coord−1 (y) ∈ Im (T ) B ´ Demostracion. A ´ PROPOSICION 7. Pero por el Teorema 7. Luego. . 1)} es una base del N (B ((T ))A ). 1   0 −1  1  ⇔ 0 0  Primero calculamos una base del n´cleo de la u  x  (x. 1) Si w ∈ Im (T ) ⇒ existe v ∈ V tal que T (v) = w.242 7. y.Luego coordB (T (v)) = coordB (w). w2 .

Sean V. .. B = {w1 . . . w2 . coordB (hk )} es base de la Im (B ((T ))A ) 4) si {y1 . . . .36. coord−1 (yk ) es base de la Im (T ). yk } es una base de la Im (B ((T ))A ) entonces coord−1 (y1 ) .. 243 2) Si y = (y1 . . ym ) ∈  (B ((T ))A ) ⇒ existe x = (x1 . NUCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. .. . Entonces: 1) Im (T ) e Im (B ((T ))A ) son isomorfos.33 concluimos que o coordB es un isomorfismo entre Im (T ) y Im (B ((T ))A )..   . . . coordB (h2 ) . . . . ´ PROPOSICION 7. vn } una base de V. .. coord−1 (y2 ) . . + xn coordB (T (vn )) = y ⇒ coordB (x1 T (v1 ) + . . . . . wn } una base de W. . . ı B B ´ OBSERVACION 7.  =  . + xn T (vn ) = coord−1 (y) ⇒ B T (x1 v1 + .. . .  ⇒  . B = v0 As´ existe v0 ∈ V tal que T (v0 ) = coord−1 (y) ⇒ coord−1 (y) ∈ Im (T ) . . v2 .37. . . + xn T (vn )) = y x1 T (v1 ) + . .´ 7.8.  que B ((T ))A  . .. . (Ejercicio). Al igual que la observaci´n 7.   . xn ) ∈ Rn tal . 2) dim (Im (T )) = rango (A) 3) Si {h1 . . . . . + xn vn ) = coord−1 (y) . . W espacios vectoriales sobre un mismo cuerpo A = {v1 . . B B B ´ Demostracion.  Im  x1 y1  . .  xn ym ⇒ x1 coordB (T (v1 )) + . . . .. . T : V → W lineal. . hk } es una base de la Im (T ) ⇒ {coordB (h1 ) .

(−1. 2 (2. −1) + 1 (0. 0. 1) .. 0. . 0. lo reducimos hasta obtener {(1. 3)} {(2. 1) . −4) . 0. −1) + 1 (0. (1. 2.: {(1. 0. 1. 2) .25. Claramente es L. (−1. (−1. 4)} son un generador de la Im (B ((T ))A ). 1. 1) = B B = {(1. 2)} base de la Im (B ((T ))A ). 1. 1) + 1 (0. 1)} ı es una base de la Im (B ((T ))A ). 1. 1. 0. −1) . Sabemos de la proposici´n 7. 1. −1. 1.D. 3) . 0. 3) . −1 (1. 1. 1.37 coord−1 (1. 2)} es una o B base de la Im (T ). coord−1 (2.37 o coord−1 (1. TRANSFORMACIONES LINEALES. 1. (−1. 1) . Como es L. 1. 1. 0. As´ {(1. 0.24. 1. coord−1 (−1. 3) .D. Consideremos la transformaci´n lineal del ejemplo 7. 1) . = {1 (1. −3)} son un generador de la Im (B ((T ))A ). 0. (1. Claramente es L. −1) . Por la proposici´n 7. Luego por la proposici´n 7.30 {(1. (2. 4) + (−1) (0. 0) + 2 (1. 1) . 0. 1) + 1 (0. 5)} es base de la Im (T ). 0)} es base de la Im (T ). (2. 1. (5.D. 1. −2)} o es un generador de la Im (B ((T ))A ). Consideremos la transformaci´n lineal del ejemplo 7. Primero hallemos una base de la imagen de la matriz B ((T ))A . Reducimos dicho generador hasta obtener el generador L. 2. Lo reducimos y hallamos {(1. 1) . 1)} EJEMPLO 7. o {(1.I.37 o coord−1 (1. Primero hallemos una base de la imagen de la matriz B ((T ))A .) = B B {1 (2.26. 0. 2) = {1 (1. 1) + 0 (0. Luego de acuerdo a la proposici´n 7.30 las columnas de B ((T ))A . (−1. −1. 1) .22 o Hallemos una base de la Im (T ). 0. 1.30 que las columnas de B ((T ))A : o {(1.23 o Hallemos una base de la Im (T ).244 7.21 o Hallemos una base de la Im (T ). 4) + 1 (0. −1) . 1) } = {(3. Luego por la proposici´n 7. 1) + 1 (0. 1)} que es una base de la Im (B ((T ))A ). Consideremos la transformaci´n lineal del ejemplo 7. EJEMPLO 7. 0. De acuerdo a la proposici´n 7. 1)}. EJEMPLO 7. (2.

o ´ PROPOSICION 7. ¿c´mo se relaciona coordA′ (v) con o coordA (v)? Para responder estas preguntas necesitamos la siguiente ′ ′ ′ ´ DEFINICION 7. Consideremos una base A del espacio V.39. Entonces: o   1 0 . Sea V un espacio vectorial de dimensi´n finita sobre un cuerpo K. . 1 2) A′ ((I))A es invertible y [A ′ ((I))A ]−1 =A ((I))A′ . v2 . A y A’ bases de V. Sea V un espacio vectorial sobre un cuerpo K. vn } bases del espacio V e I : V → V la transformaci´n identidad (esto es o I (v) = v ∀v ∈ V ).10.7.. . .9. La relaci´n entre las coordenadas est´ dada por la siguiente o a ´ PROPOSICION 7.. .. I : V → V la transformaci´n lineal identidad. se puede representar por la n-´pla (vector u n. 245 7. 0  1) A ((I))A =  . . Llamaremos matriz de cambio de la base (”vieja”) A a la base (”nueva”) A’ a la matriz: A′ ((I))A . 0    0 1 . Suo pongamos que dim (V ) = n. CAMBIO DE BASE. . 0 0 .  . v2 .38. . coordA′ (v) =A′ ((I))A coordA (v) ´ Demostracion.9.   . . Sean A = {v1 . se obtiene la hip´tesis.27 coordA′ (I (v)) =A′ ((I))A coordA (v) Pero siendo I (v) = v. . . . Cambio de base. . vn } y A′ = {v1 .  (matriz identidad)  . columna) coordA (v) ∈ K En esta secci´n responderemos la siguiente pregunta natural ¿c´mo camo o bian nuestras representaciones si seleccionamos otras bases? Es decir si consideramos otra base A’ del espacio V.... Por Teorema 7. Hemos visto que todo vector v ∈ V . .

40.12. ´ DEFINICION 7. Llamaremos operador en V a toda transformaci´n o lineal T : V → V . ((IW ))B B ((T ))A A ((IV ))A′ 7. ´ PROPOSICION 7. aplicando la proposici´n 7.10.246 7. B. ´ Demostracion. Diremos que A y B son semejantes cuando existe P ∈ Mn×n (K) invertible tal que B = P −1 A P . Entonces o B′ ((T ))A′ =B ′ ((IW ))B B ((T ))A A ((IV ))A′ donde IV : V → V y IW : W → W son las transformaciones lineales identidad en V y W respectivamente. Sean A yB ∈ Mnxn (K). TRANSFORMACIONES LINEALES. T : V → W una transformaci´n lineal. Sean V y W espacios vectoriales sobre un mismo cuerpo K. B’ bases de W. A. Sea V un espacio vectorial de dimensi´n finita sobre un cuerpo K. (Ejercicio).11. Suo pondremos que dimK (V ) = n. ´ DEFINICION 7.23 reiteradamente B′ ((IW ◦ T ◦ IV ))A′ =B ′ ((T ))A′ ⇒ ⇒ B′ B′ ((IW ))B B ((T ◦ IV ))A′ =B ′ ((T ))A′ =B ′ ((T ))A′ . ´ o Demostracion. Como IW ◦ T ◦ IV ≡ T se tiene. A’ bases de V. . Operadores y matrices semejantes.

.7.  . pues existe P = tal que 3 −2 1 2 = 0 1 −1 1 3 −2 1 2 1 −1 1 0 y la matriz A = cuya inversa es P −1 = 1 −1 1 0 4 −2 2 1 0 1 −1 1 4 −2 2 1 (verifique!). OPERADORES Y MATRICES SEMEJANTES. . . x . (⇒) Si consideramos la transformaci´n lineal T : K n → o  x1    x  n tal que T (x . A y B son semejantes ⇔ A y B son representaciones matriciales de un mismo operador T en V. 247 EJEMPLO 7. existe P ∈ Mn×n (R) invertible tal que: B = P −1 AP Pero se cumple que: P =E ((I))H donde H = {P e1 . e2 . B ∈ Mnxn (K). en } la base o can´nica de K n . . P e2 . . P en } y por la Proposici´n 7. para alg´n espacio vectorial V ..  xn posici´n 7. u ´ Demostracion. . x ) = A  2 . . siendo A y B semejantes. .39 o P −1 =H ((I))E As´ ı B =H ((I))E E ((T ))E E ((I))H Pero por la Proposici´n 7.28(b) tenemos A =E ((T ))E siendo E = {e1 .27. . ´ PROPOSICION 7. o Por otro lado.  . entonces de acuerdo a la ProK 1 2 n  .41.. La matriz B = son semejantes. .40 o H ((I))E E ((T ))E E ((I))H =H ((T ))H B =H ((T ))H Por lo tanto . .10. . Sean A. .

o Hemos probado entonces que B = P −1 A P .42. existe un operador lineal o en V y bases A y B en dicho espacio tales que A =A ((T ))A yB =B ((T ))B .40 sabemos que H ((T ))H =H ((I))E E ((T ))E E ((I))H Sea P =E ((I))H . Por la Proposici´n o 7.39 tenemos que P −1 =H ((I))E . es decir A y B son semejantes.248 7. por la Proposici´n 7. A =E ((T ))E . Entonces 1) rango (A) = rango (B) 2) traza (A) = traza (B) 3) det (A) = det (B) ´ Demostracion. Luego traza (B) = traza P −1 A P = traza A P P −1 = traza (A I) = traza (A) (Recordar que traza(MN )=traza(NM )) 3)det (B) = det P −1 A P = det P −1 det (A) det (P ) = = det (A) det P −1 det (P ) = det (A) (Recordar que det(MN )=det(M ). ´ PROPOSICION 7. TRANSFORMACIONES LINEALES. Luego rango (A) = rango (A ((T ))A ) = dim (Im (T )) rango (B) = rango (B ((T ))B ) = dim (Im (T )) As´ rango (A) = rango (B) ı 2) Existe P ∈ Mnxn (R) invertible tal que B = P −1 A P . Sean A y B matrices semejantes en Mn×n (K).det(N ) y det M −1 = (det (M ))− 1 ). (⇐) Supongamos que B =H ((T ))H . . 1) Por la proposici´n anterior.

44.11.43. Notaremos L (V. ´ PROPOSICION 7. entonces L (V.7. El espacio vectorial L (V. ´ PROPOSICION 7. a cada transformaci´n T ∈ L (V. W ) Sean V. No vale el rec´ ıproco de la proposici´n anterior pues o 1 0 1 0 A= yB= cumplen 0 1 1 1 rango (A) = rango (B) = 2 traza (A) = traza (B) = 2 det (A) = det (B) = 1 Sin embargo. Probaremos que existe una transformaci´n lineal o F : L (V.11. no puede existir P invertible tal que B = P −1 AP pues B = A.45. ´ Demostracion. EL ESPACIO VECTORIAL L (V. Definimos F de la siguiente manera: Fijemos A base de V y B base de W.W espacios vectoriales de dimensi´n finita o sobre un mismo cuerpo K. W ) con la suma de transformaciones lineales y el producto por un escalar por una transformaci´n lineal o definidas en la secci´n 2. W espacios sobre un mismo cuerpo K. forman un espacio vectorial. o ´ Demostracion. El conjunto L(V. W ) → Mmxn (K) biyectiva. (Ejercicio). W ) le asignamos por imagen o . W ) al conjunto de todas las transformaciones lineales T : V → W . W ) 249 ´ OBSERVACION 7. Sean V. Supongamos que dim (V ) = n y dim (W ) = m. Luego. W ) es isomorfo a Mmxn (K). 7.

Dada M ∈ Mnxn (R). mediante F a la matriz B ((T ))A ∈ Mmxn (K). 1) F es inyectiva. entonces coordB (T1 (vi )) = coordB (T2 (vi )).W espacios vectoriales de dimensi´n finita o sobre un mismo cuerpo K. Probemos que F es biyectiva. W )) = dim (V ) . F (λT1 + µT2 ) =B ((λT1 + µT2 ))A = λB ((T1 ))A + µB ((T2 ))A = λF (T1 ) + µF (T2 ) . µ ∈ K. ı 2) F es sobreyectiva.46.dim (W ). debemos probar que existe T ∈ L (V. T2 ∈ L (V. Debemos probar que F (T1 ) = F (T2 ).3 existe vi ∈ A tal o que T1 (vi ) = T2 (vi ). Vimos en la observaci´n 7.250 7. As´ B ((T1 )) A =B ((T2 )) A . es decir que o existe T ∈ L (V. W ) y λ. W ) tal que F (T ) = M . TRANSFORMACIONES LINEALES. W ). T2 ∈ L (V. Sean V. esto es F (T1 ) = F (T2 ). W ) tales que T1 = T2 .22 que dada una matriz M ∈ Mnxn (K) existe o una transformaci´n lineal T : V → W tal que B ((T )) A = M . Se cumple que dim (L (V. Sean T1 . F (T ) = M. Sean T1 . Pero de acuerdo a la definici´n de matriz asociada coordB (T1 (vi )) y coordB (T2 (vi )) o son las i-´simas columnas de las matrices B ((T1 ))A y B ((T2 ))A respectivae mente. esto es F (T ) =B ((T ))A Probemos que F es lineal. . COROLARIO 7. En efecto siendo A una base de V por la proposici´n 7.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->