Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1.1. Introducción
Un problema fundamental que aparece en matemáticas y en otras ciencias
es el análisis y resolución de m ecuaciones algebraicas con n incógnitas. El es-
tudio de un sistema de ecuaciones lineales simultáneas está íntimamente liga-
do al estudio de una matriz rectangular de números definida por los coeficien-
tes de las ecuaciones. Esta relación parece que se ha notado desde el momento
en que aparecieron estos problemas.
El primer análisis registrado de ecuaciones simultáneas lo encontramos en
el libro chino Jiu zhang Suan-shu ( Nueve Capítulos sobre las artes matemáti-
cas), escrito alrededor del 200 a.C. Al comienzo del capítulo VIII, aparece un
problema de la siguiente forma:
Tres gavillas de buen cereal, dos gavillas de cereal mediocre y una gavilla de
cereal malo se venden por 39 dou. Dos gavillas de bueno, tres mediocres y una
mala se venden por 34 dou. Y una buena, dos mediocres y tres malas se venden
por 26 dou. ¿Cuál es el precio recibido por cada gavilla de buen cereal, cada ga-
villa de cereal mediocre, y cada gavilla de cereal malo?
1
Depto. de Álgebra
escalares. El lector bien puede pensar que K es el cuerpo Q de los números ra-
cionales, R de los reales o incluso C de los complejos. Aunque debe tener en
cuenta que todo lo dicho sobre sistemas de ecuaciones lineales y matrices es
cierto en general para cualquier cuerpo K.
Ecuación lineal
a1 α1 + a2 α2 + · · · + an αn = b.
El carácter lineal se aplica porque las incógnitas aparecen con grado igual a 1.
+ ... + b1 ,
a11 x1 + a12 x2 a1n xn =
a21 x1 + a22 x2 + ... + a2n xn = b2
S ≡ ..
.
am1 x1 + am2 x2 + . . . + amn xn = b m ,
donde las xi son las incógnitas y los ai j , b i son números. Los núme-
ros ai j se denominan coeficientes del sistema, y el conjunto de los b i
términos independientes del sistema.
Una solución del sistema lineal anterior es una serie de números α1, α2 , . . . , αn
que satisface cada ecuación del sistema, es decir, que verifica
ai 1 α1 + ai 2 α2 + · · · + ai n αn = b i , para cada i = 1, . . . , n.
37/4
17/4 .
11/4
x1 + 2x2 − x3 = −3,
S ≡ x1 + x2 = 1, (1.2.3)
2x1 + x2 + x3 = 0.
x1 + x2 + 2x3 = 3,
5x3 = 5,
½
(1.2.6)
7x3 = 7.
Se trata de un sistema lineal con dos ecuaciones y una incógnita, cuya única
solución es x3 = 1. Respecto a x1 y x2 solamente podemos decir que
x1 = 1 − x2 .
1 − x2
x2 donde x2 ∈ K.
1
En este caso el sistema lineal tiene tantas soluciones como elementos hay en el
cuerpo de escalares K.
Ejemplo 1.2.5.-
2. Sistemas no equivalentes.
3 1 15 17
2x1 + 5 = −1, de donde x1 = (−1 − ) = − .
2 2 2 4
E 24
→ S ′.
que notamos por S −
2E 4
notado por S −→ S ′ .
La sustitución de la tercera ecuación por la suma de ella más tres veces la cuarta
produce el sistema
E 3 +3E 4
expresado como S −−−−→ S ′ .
2x1 + x2 + x3 = 1,
6x1 + 2x2 + x3 = −1, (1.3.7)
−2x1 + 2x2 + x3 = 7.
2 x1 + x2 + x3 = 1,
− x2 − 2x3 = −4, (E 2 − 3E 1)
−2x1 + 2x2 + x3 = 7.
2 x1 + x2 + x3 = 1,
− x2 − 2x3 = −4,
3x2 + 2x3 = 8 (E 3 + E 1 ).
otro caso, intercambiamos con una ecuación que esté por debajo de es-
ta posición para colocar el elemento no nulo en la posición pivote. En
nuestro ejemplo, −1 es el segundo pivote:
2x1 + x2 + x3 = 1,
(-1) x2 − 2x3 = −4,
3x2 + 2x3 = 8.
2x1 + x2 + x3 = 1,
(-1) x2 − 2x3 = −4,
− 4x3 = −4 (E 3 + 3E 2 ).
En general, en cada paso nos movemos abajo y hacia la derecha para se-
leccionar el nuevo pivote, y entonces eliminar todos los términos por de-
bajo de él hasta que ya no podamos seguir. En este ejemplo, el tercer pi-
vote es −4, pero como ya no hay nada por debajo que eliminar, paramos
el proceso.
x3 = 1.
x2 = 4 − 2x3 = 4 − 2(1) = 2.
2 1 1 1
6 2 1 −1 (las barras indican dónde aparece el signo =).
−2 2 1 7
...
a11 a12 a1n b1
a21 a22 ... a2n b2
(A|b) = .. .. .. .. .
. . . .
am1 am2 . . . amn b m
2 1 1
A= 6 2 1
−2 2 1
y la matriz ampliada es
2 1 1 1
A b = 6 2 1 −1 .
¡ ¢
−2 2 1 7
2 1 3 4
Una submatriz de una matriz dada A es una matriz que se obtiene seleccio-
nando un conjunto de filas y columnas de A. Por ejemplo,
2 4
µ ¶
B=
−3 7
1
8 6 5 −9 y A ∗2 = 6 .
¡ ¢
A 2∗ =
8
α1 u1 + α2 u2 + · · · + αs us ,
M1∗
..
.
Mi ∗
.
M = .. ,
Mj∗
.
..
Mm∗
los tres tipos de operaciones elementales de filas sobre M son como sigue.
1 1 −1 0 F12 2 0 1 1
µ ¶ µ ¶
−
→
2 0 1 1 1 1 −1 0
1 1 −1 0 F2 −2F1 1 1 −1 0
µ ¶ µ ¶
−−−−→ ,
2 0 1 1 0 −2 3 1
1 1 −1 0 12 F2 1 1 −1 0
µ ¶ µ ¶
−→
2 0 1 1 1 0 1/2 1/2
son equivalentes por filas. Usaremos esta notación para indicar las transforma-
ciones elementales.
Nota 1.5.1. Dada C m×n = (ci j¡) una matriz, consideremos el sistema asociado
SC cuya matriz ampliada es C 0 , es decir, el sistema de m ecuaciones y
¢
n incógnitas donde todos los elementos del término independiente son nulos.
Si A m×n y B m×n son matrices equivalentes por filas, entonces los sistemas aso-
ciados S A y S B son equivalentes. En efecto, basta probarlo para una matriz B
que proceda de A mediante una de las transformaciones elementales. Como el
término independiente no se altera por la acción de estas transformaciones y
sigue siendo nulo, se tiene el resultado.
Ejemplo 1.5.1.- Para resolver el sistema del ejemplo 1.3.5 mediante operacio-
nes elementales por fila, partimos de la matriz ampliada M = (A|b) y triangu-
larizamos la matriz de coeficientes A realizando la misma secuencia de opera-
ciones por fila que se corresponden a las operaciones elementales realizadas
sobre las ecuaciones.
F2 − 3F1
2 1 1 1 2 1 1 1
F3 + F1
6 2 1 −1 −−−−−−−→ 0 -1 −2 −4
−2 2 1 7 0 3 2 8
2 1 1 1
F3 +3F2
−−−−→ 0 −1 −2 −4
0 0 −4 −4
La matriz final representa el sistema triangular
2x1 + x2 + x3 = 1,
− x2 − 2x3 = −4,
− 4x3 = −4.
que se resuelve por sustitución hacia atrás, como explicamos antes (ver ejem-
plo 1.3.5).
1
xi = (ci − ti ,i +1 xi +1 − ti ,i +2 xi +2 − . . . − ti n xn )
ti i
para i = n − 1, n − 2, . . . , 2, 1.
1 2 1 3 3
2 4 0 4 4
A= ,
1 2 3 5 5
2 4 0 4 7
Toda matriz es equivalente por filas a una forma escalonada por filas.
Una estructura típica de una forma escalonada por filas, con los pivotes
marcados, es
* ∗ ∗ ∗ ∗ ∗ ∗ ∗
0 0 * ∗
∗ ∗ ∗ ∗
0 0 0 * ∗ ∗ ∗ ∗
0 0 0 0 0 0 * ∗
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
Los pivotes son las primeras entradas no nulas en cada fila. Podemos tener tam-
bién columnas de ceros a la izquierda de la matriz.
Como hay flexibilidad para elegir las operaciones por filas que reducen una
matriz A a una forma escalonada E , las entradas de E no están unívocamente
determinadas por A. Sin embargo, probaremos que las posiciones de los pivo-
tes son siempre las mismas.
Nota 1.6.1. Sean A m×n y B m×n matrices tales que B se ha obtenido de A me-
diante transformaciones elementales por filas. Supongamos que existe una re-
lación de la forma
n
X
A ∗k = α j A∗ j ,
j =1
con los mismos coeficientes. Es una comprobación muy sencilla para cada trans-
formación.
Por aplicación reiterada de este resultado, si E es una forma escalonada por
filas de A, las relaciones entre las columnas de E son las mismas que las rela-
ciones entre las columnas de A.
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
1 2 1 3 3 1 2 1 3 3 1 2 1 3 3
2 4 0 4 4 0 0 -2 −2 −2 0 0 1 1 1
→ →
1 2 3 5 5 0 0 2 2 2 0 0 2 2 2
2 4 0 4 7 0 0 −2 −2 1 0 0 −2 −2 1
1 2 0 2 2 1 2 0 2 2 1 2 0 2 2
0 0 1 1 1 0 0 1 1 1 0 0 1 1 1
→ → →
0 0 0 0 0 0 0 0 0 3 0 0 0 0 1
0 0 0 0 3 0 0 0 0 0 0 0 0 0 0
1 2 0 2 0
0 0 1 1 0
→
0 0 0 0 1
0 0 0 0 0
Una matriz E m×n está en forma escalonada reducida por filas si se ve-
rifican las siguientes condiciones:
Una estructura típica de una matriz en forma escalonada reducida por filas es
1 0 0 0
∗ ∗ ∗ ∗
0 0 1 0 ∗ ∗ 0 ∗
0 0 0 1 ∗ ∗ 0 ∗
0 0 0 0 0 0 1
∗
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
Observemos que una columna que contenga un pivote no puede ser combina-
ción lineal de las anteriores. Lo mismo se aplica a una forma escalonada cual-
quiera. Como comentamos antes, si una matriz A se transforma en una for-
ma escalonada por filas mediante operaciones elementales por fila, entonces
la forma está unívocamente determinada por A, pero las entradas individua-
les de la forma no son únicas. Sin embargo, la forma escalonada reducida tiene
una propiedad especial.
0 1
0 0
EA = .. o bien E A = .. .
. .
0 0
Como toda operación por filas aplicada al primer caso la deja invariante, no
podemos usar estas operaciones para transformar la primera matriz en la se-
gunda, ni podemos cambiar la segunda en la primera. Esto significa que una
matriz con una sola columna es equivalente por filas a una de las matrices an-
teriores, pero no a ambas.
Supongamos ahora que n > 1 y que el teorema es cierto para matrices con
menos de n columnas. Si B y C son dos formas escalonadas reducidas por fi-
las obtenidas a partir de A, sean A ′ , B ′ y C ′ las matrices obtenidas mediante el
borrado de la última columna de A, B y C , respectivamente. Entonces B ′ y C ′
son equivalentes por filas a A ′ . Más aún, B ′ y C ′ están en forma escalonada re-
ducida por filas. Como A ′ tiene n − 1 columnas, la hipótesis de inducción nos
garantiza que B ′ = C ′. Por tanto, B y C únicamente pueden ser diferentes en la
última columna. Vamos a distinguir dos posibilidades.
Si B y C no contienen un pivote en la última columnas, entonces B ∗n es
combinación lineal de las columnas anteriores con pivotes. Con C ∗n ocurre lo
mismo, y con los mismos coeficientes y columnas, pues C y B están relaciona-
das mediante transformaciones elementales. Esto implica que B = C .
Si B y C contienen un pivote en la última columna, entonces B ∗n tiene un 1
en la posición k y ceros en las restantes, y C ∗n tiene un 1 en la posición l y ceros
en las restantes. Como las n − 1 primeras columnas de B y C son iguales, la fila
k en la que aparece el pivote 1 de B ∗n coincide con la fila l en la que aparece
el pivote 1 en C ∗n : es la primera fila nula de la forma escalonada reducida por
filas de A ′ . Por tanto, k = l y B ∗n = C ∗n .
Para la segunda parte, supongamos que U es una forma escalonada por filas
obtenidas a partir de A. Para llegar de U a E A , hacemos los pivotes iguales a 1 y
anulamos las entradas por encima de dicho pivote. Entonces los pivotes de U
coinciden con los de E A .
Nota 1.7.1. Para una matriz A, el símbolo E A denotará la única forma escalo-
nada reducida por filas derivada de A mediante transformaciones elementales
por fila. También escribiremos
rref G-J
→ E A o bien A −
A− → E A.
Como las posiciones pivote son únicas, se sigue que el número de pivotes,
que es el mismo que el número de filas no nulas de E , también está unívoca-
mente determinado por A. Este número se denomina rango de A, y es uno de
los conceptos fundamentales del curso.
1 2 1 1
A = 2 4 2 2 .
3 6 3 4
Por tanto, rango(A) = 2. Las posiciones pivote están en la primera y cuarta co-
lumna, por lo que las columnas básicas de A son A ∗1 y A ∗4 . Esto es,
1 1
Columnas básicas = 2 , 2 .
3 4
tres incógnitas es fácil. Una ecuación lineal con dos incógnitas representa una
recta en el plano, y una ecuación lineal con tres incógnitas es un plano en el
espacio de tres dimensiones. Por tanto, un sistema lineal de m ecuaciones con
dos incógnitas es compatible si y solamente si las m rectas definidas por las m
ecuaciones tienen al menos un punto común de intersección. Lo mismo ocurre
para m planos en el espacio. Sin embargo, para m grande, estas condiciones
geométricas pueden ser difíciles de verificar visualmente, y cuando n > 3 no es
posible esta representación tan visual.
Mejor que depender de la geometría para establecer la compatibilidad, usa-
remos la eliminación gaussiana. Si la matriz ampliada asociada [A|b] se reduce
mediante operaciones por filas a una forma escalonada por filas [E |c], enton-
ces la compatibilidad o no del sistema es evidente. Supongamos que en un mo-
mento del proceso de reducción de [A|b] a [E |c] llegamos a una situación en la
que la única entrada no nula de una fila aparece en el lado derecho, como mos-
tramos a continuación:
∗ ∗ ∗ ∗ ∗ ∗ ∗
0 0 0 ∗ ∗ ∗ ∗
0 0 0 0 ∗ ∗ ∗
Fila i → 0 0 0 0 0 0 α ← α 6= 0.
Si esto ocurre en la i -ésima fila, entonces la i -ésima ecuación del sistema aso-
ciado es
0 · x1 + 0 · x2 + . . . + 0 · xn = α.
Para α 6= 0, esta ecuación no tiene solución, y el sistema original es incompa-
tible (recordemos que las operaciones por filas no alteran el conjunto de solu-
ciones). El recíproco también se verifica. Esto es, si el sistema es incompatible,
entonces en algún momento del proceso de eliminación llegamos a una fila de
la forma
0 0 . . . 0 α , α 6= 0. (1.8.1)
¡ ¢
En otro caso, la sustitución hacia atrás se podría realizar y obtener una solu-
ción. No hay incompatibilidad si se llega a una fila de la forma
0 0 ... 0 0 .
¡ ¢
Compatibilidad de un sistema
rango([A|b]) = rango(A).
x1 + x2 + 2x3 + 2x4 + x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 3x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 2x5 = 2,
3x1 + 5x2 + 8x3 + 6x4 + 5x5 = 3,
Sistemas homogéneos
1 2 2 3 1 2 2 3 1 2 2 3
A = 2 4 1 3 → 0 0 −3 −3 → 0 0 −3 −3 = E .
3 6 1 4 0 0 −5 −5 0 0 0 0
x3 = −x4
x1 = −2x2 − x4 ,
x2 = libre ,
x3 = −x4 ,
x4 = libre.
Como las variables libres x2 y x4 pueden tomar todos los valores posibles, las
expresiones anteriores describen todas las soluciones.
Mejor que describir las soluciones de esta forma, es más conveniente ex-
presarlas como
x1 −2x2 − x4 −2 −1
x2 x2 1 0
= = x2 + x4 ,
x3 −x4 0 −1
x4 x4 0 1
entendiendo que x2 y x4 son variables libres que pueden tomar cualquier valor.
Esta representación se denominará solución general del sistema homogéneo.
Esta expresión de la solución general enfatiza que cada solución es combina-
ción lineal de las dos soluciones
−2 −1
1 0
h1 = y h2 = .
0 −1
0 1
x = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,
1 2 2 3 1 2 0 1
A = 2 4 1 3 → 0 0 1 1 = E A,
3 6 1 4 0 0 0 0
y el sistema a resolver es
x1 + 2x2 + x4 = 0,
x3 + x4 = 0.
x = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,
A = 2 5 7 → 0 1 3 = E,
3 6 6 0 0 0
de donde rango(A) = 2 < n = 3. Como las columnas básicas están en las posi-
ciones uno y dos, x1 y x2 son las variables básicas, y x3 es libre. Mediante sus-
titución hacia atrás en [E |0], nos queda x2 = −3x3 y x1 = −2x2 − 2x3 = 4x3 , y la
solución general es
4
x1
x2 = x3 −3 , donde x3 es libre.
x3 1
x1 + 2x2 + 2x3 = 0,
2x1 + 5x2 + 7x3 = 0,
3x1 + 6x2 + 8x3 = 0,
1 2 2 1 2 2
x = p0 + x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,
Sea entonces p una solución particular del sistema S . Entonces existen esca-
lares β1 , . . . , βn−r tales que p = p0 + n−r
i =1 βi hi . Si x es una solución de S , en-
P
x = p + x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,
donde
Como las variables libres x f i recorren todos los posibles valores, la solución
general genera todas las posibles soluciones del sistema [A|b]. Como en el caso
homogéneo, podemos reducir completamente [A|b] a E [A|b] mediante Gauss-
Jordan, y evitamos la sustitución hacia atrás.
1 2 2 3 4 1 2 0 1 2
G-J
[A|b] = 2 4 1 3 5 − → 0 0 1 1 1 = E [A|b] .
3 6 1 4 7 0 0 0 0 0
Nos queda el sistema equivalente
x1 + 2x2 + x4 = 2,
x3 + x4 = 1.
Resolvemos las variables básicas, x1 y x3 , en función de las libres, x2 y x4 y te-
nemos la expresión
x1 = 2 − 2x2 − x4 ,
x2 = x2 variable libre,
x3 = 1 − x4 ,
x4 = x4 variable libre.
La solución general la obtenemos escribiendo estas ecuaciones en la forma
x1 2 − x2 − x4 2 −2 −1
x2 x2 0 1 0
= = + x2 + x4 . (1.10.1)
x3 1 − x4 1 0 −1
x4 x4 0 0 1
La columna
2
0
1
0
que aparece en (1.10.1) es una solución particular del sistema no homogéneo;
se tiene cuando x2 = 0, x4 = 0.
Además, la solución general del sistema homogéneo
x1 + 2x2 + 2x3 + 3x4 = 0,
2x1 + 4x2 + x3 + 3x4 = 0, (1.10.2)
3x1 + 6x2 + x3 + 4x4 = 0,
es
x1 −2 −1
x2 1 0
= x2 + x4 .
x3 0 −1
x4 0 1
Así, la solución general del sistema homogéneo (1.10.2) es una parte de la solu-
ción general del sistema no homogéneo original (1.10.1).
Teorema de Rouché-Frobenius
Álgebra matricial
1
u= 2 yv= 1 2 3 .
¡ ¢
45
Depto. de Álgebra
Suma de matrices
−A = (−ai j ).
La diferencia de A y B es
A − B = A + (−B).
2 −3 4 0 0 3
−4 −2
A = 1 −2 1 1 , B = −3 1 −1 −2 .
0 0 0 0 −1 4 2 −1
Entonces
−2 3 −4 0 6 −1 4 −3
−2 −5 4 3
A+B = −2 −1 0 −1 , −A =
−1 2 −1 −1 , A−B = 4 −3 2
3
.
−1 4 2 −1
0 0 0 0 1 −4 −2 1
Si
1
−1 −3 −2 −2
C =
−3 −3 0 1 ,
−3
1 −2 3 2 1
no podemos calcular A +C , pues A es de orden 3 × 4 y C es de orden 3 × 5.
(A + B) +C = A + (B +C ).
A + B = B + A.
αA = (αai j ).
Ejemplo 2.1.2.- Si
2 −3 4 0
A=
1 −2 1 1 ,
0 0 0 0
entonces
−6 9 −12 0 0 0 0 0
−3 6
(−3) · A = −3 −3 , 0 · A 0 0 0 0 .
0 0 0 0 0 0 0 0
αA es una matriz m × n.
(αβ)A = α(βA).
α(A + B) = αA + αB.
(α + β)A = αA + βA.
1 · A = A.
Trasposición
A = (ai j ).
A ∗ = (a j i ).
0 0 0 0
Entonces
2 1 0 2 1 0
−3 −2 0
∗ −3 −2 0
t
A = , A = .
4 1 0 4 1 0
0 1 0 0 1 0
Para que haya alguna diferencia entre A t y A ∗ debemos emplear matrices con
entradas complejas. Por ejemplo, si
1
1−i
, entonces u∗ = 1 1 + i 2 .
¡ ¢
u= −i
i
2
(A t )t = A, (A ∗ )∗ = A.
(A + B)t = A t + B t y (A + B)∗ = A ∗ + B ∗ .
(αA)t = αA t y (αA)∗ = αA ∗ .
P RUEBA :
Simetrías
1 0 5 1 1 5
1 1+i
µ ¶
A= 0 −3 2 , B = 0 −3 2 ,C = .
1−i 3
5 2 −3 5 2 −3
Por ejemplo, si
1 1 5
1 −3
A= 2
, entonces traza(A) = 1 + (−3) + (−3) = −5.
5 2 −3
Obsérvese que puede ocurrir que dos matrices A y B estén ajustadas para
la multiplicación en el orden AB pero no en el orden B A.
1 2 5
µ ¶ µ ¶
A= ,B= ,
3 4 6
Multiplicación de matrices
3
µ ¶
1 2 ,B = ,
¡ ¢
A=
4
2 1 1 1
µ ¶ µ ¶
C= ,D= .
0 −1 2 3
Entonces
4 5 2 0
" # " #
CD = , DC = .
−2 −3 4 −1
ci 1 ci 2 . . . ci n
¡ ¢
(AB)i ∗ =
¡ Pp Pp Pp
. . .
¢
= k=1
a i k b k1 k=1
a i k b k2 k=1
a i k b kn
p
X p
X
b k1 b k2 . . . b kn ai k B k∗ .
¡ ¢
= ai k =
k=1 k=1
Las dos primeras igualdades se pueden escribir de manera más visual como
A 1∗ A 1∗ B
A 2∗ A 2∗ B ¡
, A B ∗1 B ∗2 . . . B ∗n = AB ∗1 AB ∗2 . . . AB ∗n .
¢ ¡ ¢
.. B = ..
. .
A m∗ A m∗ B
Las dos últimas ecuaciones indican que las filas de AB son combinación lineal
de las filas de B, y que las columnas de AB son combinación lineal de las co-
lumnas de A.
Otra forma muy usada para el producto de matrices es
B 1∗
B 2∗
¢
AB = A ∗1 A ∗2 . . . A ∗p .
¡
..
B p∗
= A ∗1 B 1∗ + A ∗2 B 2∗ + · · · + A ∗p B p∗ .
b = u 1 A ∗1 + u 2 A ∗2 + · · · + u n A ∗n ,
1,
x3 +x4 =
−2x1 −4x2 +x3 = −1,
3x1 +6x2 −x3 +x4 = 2.
1 0 0 1 1
−1 = (−1) −2 + (−1) −4 + 1 1 + 0 0 .
2 3 6 −1 1
A(B +C ) = AB + AC .
(D + E )F = DF + E F .
A(BC ) = (AB)C .
P RUEBA :
o bien que H = Y + Z .
Matriz identidad
1 0 ... 0
0 1 ... 0
In = .. .. . . ..
. . . .
0 0 ... 1
Trasposición y producto
(AB)t = B t A t , y (AB)∗ = B ∗ A ∗ .
... . . . B 1t
A 11 A 12 A 1r B 11 B 12
A 21 A 22 ... A 2r B 21 B 22 . . . B 2t
A= .. .. .. .. ,B = .. .. .. .. .
. . . . . . . .
A s1 A s2 ... A sr Br 1 Br 2 . . . Br t
A i 1 B 1j + A i 2 B 2j + · · · + A i r B r j .
Para una matriz cuadrada A n×n , la matriz B n×n que verifica las condi-
ciones
AB = I n y B A = I n
se denomina inversa de A, y la notaremos por B = A −1 . No todas la ma-
trices cuadradas tienen inversa. Una matriz con inversa se denomina
no singular o regular y una matriz cuadrada sin inversa se llama sin-
gular.
Aunque no todas las matrices tienen inversa, cuando existe, es única. Su-
pongamos que X 1 y X 2 son inversas de una matriz no singular A. Entonces
X 1 = X 1 I = X 1 (AX 2 ) = (X 1 A)X 2 = I X 2 = X 2 .
Ecuaciones matriciales
Existencia de inversa
1. A −1 existe (A es no singular).
2. rango(A) = n.
Gauss-Jordan
3. A −−−−−−−−−−−→ I n .
4. A x = 0 implica que x = 0.
A(X A − I ) = AX A − A = I A − A = 0,
Nota 2.4.1. A partir del resultado anterior, podemos analizar lo que ocurre cuan-
do tenemos una inversa lateral de una matriz cuadrada. Supongamos que para
una matriz cuadrada A n×n existe una matriz X n×n con X A = I n . Entonces el
sistema A x = 0 lo podemos multiplicar por X a ambos lados, lo que nos da
que X A x = 0, de donde x = 0 es la única solución. Entonces, por el teorema
anterior, A tiene inversa A −1 , de donde
(X A)A −1 = I A −1 , luego X = A −1 .
A x = I ∗ j , j = 1, 2, . . ., n.
X ∗1 X ∗2 . . . X ∗n
¡ ¢
X=
Gauss-Jordan
[A|I ∗1 |I ∗2 | . . . |I ∗n ] −−−−−−−−−−−→[I |[A −1 ]∗1 |[A −1 ]∗2 | . . . |[A −1 ]∗n ],
Gauss-Jordan
[A|I ] −−−−−−−−−−−→[I |A −1 ].
¿Qué ocurre si intentamos invertir una matriz singular con este procedimiento?
El resultado anterior nos indica que una matriz singular A no puede ser redu-
cida mediante Gauss-Jordan a la matriz I porque una fila de ceros aparecerá
en algún momento en la zona correspondiente a la matriz A. Por ello, no tene-
mos que saber a priori si la matriz que tenemos es o no singular, pues resultará
evidente en el proceso de cálculo.
Cálculo de la inversa
1 1 1
A = 1 2 2 .
1 2 3
1 1 1 1 0 0 1 1 1 1 0 0
[A|I ] = 1 2 2 0 1 0 → 0 1 1 −1 1 0
1 2 3 0 0 1 0 1 2 −1 0 1
1 0 0 2 −1 0 1 0 0 2 0
−1
→ 0 1 1 −1 1 0 → 0 1 0 −1 2 −1 .
0 0 1 0 −1 1 0 0 1 0 −1 1
2 −1 0
A −1 = −1 2 −1 .
0 −1 1
(A −1 )−1 = A.
(A −1 )t = (A t )−1 y (A −1 )∗ = (A ∗ )−1 .
A t X = A t (A −1 )t = (A −1 A)t = I t = I ,
Tipo III. Reemplazar la columna j por la suma de ella misma con un múl-
tiplo de la columna j .
Análogamente a lo visto para las filas existen unas matrices especiales llamadas
formas escalonadas por columnas y formas escalonadas reducidas por colum-
nas. La trasposición de matrices nos permite definir rápidamente estos con-
ceptos:
Una matriz se dice que es una forma escalonada por columnas si su tras-
puesta es una forma escalonada por filas.
Una matriz se dice que es una forma escalonada reducida por columnas
si su traspuesta es una forma escalonada reducida por filas.
Igualmente se puede comprobar que toda matriz puede ser transformada. me-
diante operaciones por columnas en una forma escalonada por columnas y en
una forma escalonada reducida por columnas. Por último, dos matrices se di-
cen equivalentes por columnas si puede transformarse una en otra mediante
operaciones elementales por columnas.
Obsérvese que las operaciones elementales por columnas no transforman
la matriz de un sistema lineal en la matriz de otro sistema lineal equivalente.
Si A m×n es una matriz arbitraria, sabemos que la matriz A t es equivalente
por filas a una única forma escalonada reducida por filas, por lo que A es equi-
valente por columnas a una única forma escalonada reducida por columnas.
Nota 2.5.2. Sean los vectores columna ei , de orden m × 1, que tienen todas sus
entradas nulas salvo un 1 en la posición i , con i = 1, . . . , m. Observemos que
la multiplicación de una matriz A m×n por un vector columna e j resulta A e j =
A ∗ j , la columna j -ésima de la matriz A. Análogamente, si ahora ei es de orden
n ×1, la multiplicación del traspuesto de éste con la matriz A resulta eit A = A i ∗ ,
la fila i -ésima de la matriz A.
La matriz identidad tiene por columnas a estos e j y por filas a eit .
Vamos a ver que las operaciones elementales que usamos para la elimina-
ción gaussiana pueden interpretarse como productos por ciertas matrices de
estructura muy sencilla.
En este caso todas las entradas de la matriz E i j son nulas, salvo [E i j ]kk =
1, k 6= i , j , [E i j ]i j = 1 y [E i j ] j i = 1. Si atendemos a las filas de E observamos que
[E i j ]k∗ = ekt si k 6= i , j , [E i j ]i ∗ = etj y [E i j ] j ∗ = eit . Se tiene lo análogo para las
columnas. Estas matrices se denominan matrices de permutación.
[E A]k∗ = E k∗ A, k = 1, . . .m.
En este caso todas las entradas de la matriz E i (α) son nulas, salvo [E i (α)]kk =
1, k 6= i , [E i (α)]i i = α con α 6= 0. Si atendemos a las filas de E observamos que
[E i (α)]k∗ = ekt si k 6= i , [E i (α)]i ∗ = αeit con α 6= 0. Para las columnas se tiene un
resultado análogo.
En este caso todas las entradas de la matriz E i j (α) son nulas, salvo [E i j (α)]i i =
1 para todo i = 1, . . . n y [E i j (α)] j i = α. Si atendemos a las filas de E i j (α) obser-
vamos que [E i j (α)]k∗ = ekt si k 6= i , [E i j (α)]i ∗ = αeit + etj .
A= 2 4 8
3 6 13
a su forma escalonada reducida por filas E A .
F2 − 2F1
1 2 4 1 2 4
F3 − 3F1
A = 2 4 8 −−−−−−−→ 0 0 0
3 6 13 0 0 1
1 2 4 1 2 0
F23 F1 − 4F2
→ 0 0 1 −−−−−−−→ 0
− 0 1 = EA
0 0 0 0 0 0
1 −4 0 1 0 0 1 0 0 1 0 0
0 1 0 0 0 1 0 1 0 −2 1 0 A = E A .
0 0 1 0 1 0 −3 0 1 0 0 1
Como la inversa de una matriz elemental es una matriz elemental, esto prueba
que A se puede expresar como producto de matrices elementales.
Recíprocamente, si A = E 1 E 2 · · · E k es un producto de matrices elementales,
entonces A es no singular, pues es el producto de matrices no singulares.
−2 3
µ ¶
A=
1 0
1 −3/2
" #
− 12 F1
A →
1 0
1 −3/2
" #
F2 −F1
→
0 3/2
1
" #
2 −3/2
3 F 2
→
0 1
1 0
" #
F1 + 32 F2
→ .
0 1
Entonces
1 23 1 0 1 0 − 21 0
µ ¶µ ¶µ ¶µ ¶
A = I2,
0 1 0 32 −1 1 0 1
de donde
−2 0 1 0 1 0 1 − 32
µ ¶µ ¶µ ¶µ ¶
A= .
0 1 1 1 0 32 0 1
Equivalencia de matrices
A = −3 2 −4 2 y B = −6 51 −8 −43
−2 −2 −2 −4 28 33 −12 −43
1 0 0 0
B= 0 1 0 0
es equivalente por columnas a la matriz
0 0 0 0
0 3 2 3
0 3 2 3
2 3 1 −3
B · = 2 3 1 −3 .
−3 0 −1 −3
0 0 0 0
3 0 −2 −1
f
Si A ∼ B, entonces las relaciones que existen entre las columnas
de A también se tienen entre las columnas de B. Esto es,
n
X n
X
B ∗k = α j B ∗ j si y solamente si A ∗k = α j A∗ j .
j =1 j =1
c
Si A ∼ B, entonces las relaciones que existen entre las filas de A
también se tienen entre las filas de B.
Nota 2.5.3. Sea A m×n una matriz de rango r y E una matriz elemental de orden
m × m. Por la unicidad de la forma escalonada reducida por filas, la aplicación
de Gauss-Jordan a A y E A nos lleva a la misma matriz, por lo que rango(A) =
rango(E A). Entonces, si P es una matriz no singular de orden m × m, sabemos
que P es producto de matrices elementales, por lo que lo anterior nos dice que
rango(P A) = rango(A).
Podemos extender el resultado anterior para probar la invariancia del rango
por el producto de matrices no singulares.
P RUEBA : Por la nota anterior, sabemos que rango(A) = rango(P A) para cual-
quier matriz no singular P m×m . Entonces podemos llevar la matriz B = P AQ,
mediante producto por matrices elementales a la izquierda, a la matriz E A Q.
Sea r = rango(A). Entonces E A tiene r filas no nulas y m − r filas nulas al fi-
nal. Esto implica que la matriz E A Q tiene m − r filas nulas al final, de donde
rango(AQ) = rango(E A Q) ≤ r = rango(A). Si aplicamos esta conclusión al pro-
ducto (AQ)Q −1 , obtenemos que
f
P RUEBA : Como A ∼ E A , existe una matriz no singular P tal que P A = E A . Si
rango(A) = r , entonces las columnas básicas de E A son las r columnas unita-
rias. Mediante intercambio de columnas aplicados a E A , podemos poner estas
r columnas en la parte superior izquierda. Si Q 1 es el producto de las matrices
elementales que hacen estos intercambios, entonces
µ ¶
Ir J
P AQ 1 = E A Q 1 = .
O O
y nos queda
µ ¶
IrO
P AQ 1Q 2 = .
O O
Entonces A ∼ Nr .
de donde µ ¶
A O
rango = r + s.
O B
f c
Dadas matrices A y B, ¿cómo decidimos si A ∼ B, A ∼ B o A ∼ B?
Test de equivalencia
f
A ∼ B si y solamente si E A = E B .
c
A ∼ B si y solamente si E A t = E B t .
f f
A ∼ E A = E B ∼ B.
c f
Para las columnas, basta considerar que A ∼ B si y solamente si A t ∼ B t .
Rango y trasposición
C = A ⊗ B = ai j B, i = 1, 2, . . ., m, j = 1, 2, . . ., n.
4. (A ⊗ B)t = A t ⊗ B t .
Determinantes
77
Depto. de Álgebra
uso de los determinantes llevó al álgebra matricial de Cayley, y hoy las matri-
ces y el álgebra lineal están en la corriente principal de la matemática aplicada,
mientras que el papel de los determinantes ha sido relegado a una zona de re-
manso, por seguir con la analogía fluvial. Sin embargo, todavía es importante
comprender qué es un determinante y aprender sus propiedades fundamenta-
les. Nuestro objetivo no es aprender determinantes por su propio interés, sino
que exploraremos aquellas propiedades que son útiles en el posterior desarro-
llo de la teoría de matrices y sus aplicaciones.
Si n > 1, entonces
Ejemplo 3.1.1.-
1. Para una matriz 2 × 2 se tiene
µ ¶
a11 a12
det = a11 Â 11 + a21 Â 21
a21 a22
= a11 a22 − a21 a12 .
+ −
Ejemplo 3.1.2.-
1 2 3 4
1 2 4 2 3 4
0 1 2 4
= 1 · det 3 4 5 − 0 · det 3 4 5
det
2 3 4 5
0 1 2 0 1 2
2 0 1 2
2 3 4 2 3 4
+ 2 · det 1 2 4 − 2 · det 1 2 4
0 1 2 3 4 5
= 3 − 4 − 2 = −3.
3.2. Propiedades
P RUEBA :
Sea A una matriz de orden n, cuya fila A i ∗ se expresa como suma de dos
vectores fila B i ∗ +C i ∗ . Debemos probar que
A 1∗ A 1∗ A 1∗
.. .. ..
.
.
.
det
B i ∗ +C i ∗
= det B i ∗ + det C i ∗
.
.. .. ..
. . .
A n∗ A n∗ A n∗
Alternada
P RUEBA :
det(E i j ) = −1 = det(E it j ).
det(E i j ) = −1.
det(E i (α)) = α.
det(E i j (α)) = 1.
P RUEBA :
y, finalmente,
Por último, el tratamiento que hemos hecho por filas se puede hacer por
columnas.
det(AE i j ) = − det(A).
det(A) = ai 1  i 1 + ai 2  i 2 + · · · + ai n  i n
= a1j  1j + a2j  2j + · · · + an j  n j .
Por la definición,
y al igualar con − det(A) tenemos el resultado. Para las filas, usamos la igualdad
del determinante con el de la matriz traspuesta.
Submatrices
Ejemplo 3.3.1.-
2. En la matriz
1 −1 0 2
A = 2 −1 1 −1 ,
0 0 1 0
la submatriz de A que se obtiene para I = {1, 3}, J = {3, 4} es
µ ¶
0 2
[A]I ,J = .
1 0
Menores
m I ,J = det([A]I ,J ),
Rango y submatrices
Veamos que existe otra definición de rango, a partir de los menores de una
matriz A.
Rango y menores
P RUEBA : Supongamos que A es una matriz de orden m ×n, que tiene rango
r . Sabemos que hay unas operaciones elementales por filas que transforman A
en su forma escalonada reducida por filas E .
Sean p 1 , . . . , p r las columnas básicas de A, y definamos J = {p 1 , . . . , p r } y M =
{1, . . . , m}. La submatriz [A]M,J está formada por las columnas básicas de A. Si
aplicamos a [A]M,J las mismas operaciones elementales que a A, obtendremos
las columnas básicas de E , es decir, una matriz m × r cuyas primeras r filas
forman la matriz identidad, y las restantes m − r filas son de ceros. Como esta
matriz es una reducida por filas con r pivotes, [A]M,J tiene rango r .
Consideremos ahora ([A]M,J )t . Sabemos que también tiene rango r , luego
el mismo argumento anterior nos dice que tomando sus columnas básicas ob-
tenemos una matriz de rango r . Sean q 1 , . . . , q r sus columnas básicas. Obser-
vemos que tomar las columnas q 1 , . . . , q r de ([A]M,J )t es lo mismo que definir
I = {q 1 , . . . , q r } y considerar la matriz ([A]I ,J )t . Esta matriz tendrá entonces ran-
go r , luego la matriz [A]I ,J también lo tendrá. Pero entonces A I ,J es una subma-
triz de A, de orden r × r y rango r , luego su determinante es distinto de cero. Es
decir, el menor m I ,J , de orden r , es no nulo.
Consideremos ahora un menor m I ′ ,J ′ de orden k > r . Como una submatriz
no puede tener mayor rango que la matriz original, [A]I ′ ,J ′ es una matriz de
orden k × k y rango menor o igual a r < k, luego su determinante debe ser cero.
Es decir, m I ′ ,J ′ = 0.
Hemos demostrado entonces que para todo r , una matriz de rango r admite
un menor no nulo de orden r , y todos sus menores de orden mayor que r son
nulos. Por tanto, el mayor orden alcanzado por los menores no nulos de A es
igual al rango de A, como queríamos demostrar.
Más adelante veremos que para calcular el rango de una matriz usando me-
nores, no es necesario ver que se anulan todos los menores de un cierto orden.
[A 2 M −1 A 1 ]i j = [[A 2 ]i ∗ M −1 A 1 ]∗ j = [A 2 ]i ∗ M −1 [A 1 ]∗ j .
[A 2 ]i ∗ M −1 [A 1 ]∗ j = [A 3 ]i j
2. Si no lo hay, rango(A) = r .
El menor de A asociado a las dos primeras filas y las dos primeras columnas es
µ ¶
3 6
M = det = −3 6= 0.
1 1
3 6 5
M1 = det 1
1 2 = 0,
1 −2 3
3 6 9
M2 = det 1
1 4 = 0.
1 −2 7
Regla de Cramer
det(A i )
ui = ,
det(A)
¡ ¢
donde A i = A ∗1 · · · A ∗i −1 b A ∗i +1 · · · A ∗n . Esto es, A i es la
matriz que se obtiene de A cambiando la columna A ∗i por b.
Observemos que det(I i (u)) = u i , pues basta realizar el desarrollo del determi-
nante por la i -ésima fila. De aquí, det(A) · u i = det(A i ) y tenemos el resultado
por el carácter no singular de A.
son
à !
18 26
 11 = (−1)2 det = 124,
16 30
" #
4 26
3
 12 = (−1) det = −42,
3 30
" #
4 18
4
 13 = (−1) det = 10,
3 16
..
.
" #
1 4
 33 = (−1)6 det = 2.
4 18
Adj(A)
A −1 = .
det(A)
3 16 30
nos da
62
124 −40 14 3 − 20
3 7/3
Adj(A) 1
A −1 = = −42 15 = −7 5/2 −1 .
−6
det(A) 6
10 −4 2 5/3 −2/3 1/3
Observemos que |A| es una suma de n! términos, puesto que hay un tér-
mino por cada permutación de S n . Cada sumando contiene un producto de la
forma a1σ(1) a2σ(2) · · · anσ(n) . Estos n escalares son n entradas de la matriz A que
están en n filas distintas, y también en n columnas distintas. Recíprocamente,
si elegimos n entradas de A que estén en filas distintas y en columnas distintas,
el producto de esos n escalares aparecerá en uno de los sumandos que definen
|A|: la permutación correspondiente será la que asocia, a cada fila, la columna
donde está la entrada elegida. Por tanto, |A| es la suma de todos estos posibles
productos, cada uno de ellos con un signo determinado por la permutación
correspondiente.
Si una matriz cuadrada A tiene una fila o una columna de ceros, enton-
ces |A| = 0.
Ahora observemos que una trasposición siempre es impar, como se puede ver
en su representación gráfica: hay j − i − 1 líneas que empiezan entre i y j , y
todas ellas se cruzan con las líneas i y j ; además tenemos el cruce de la línea
i con la línea j , y no hay ningún otro cruce. Por tanto, ni (τ) = 2( j − i − 1) + 1,
luego τ es impar. Esto implica que sg (σ) = −sg (σ ◦ τ), y así tenemos:
X
|B| = −sg (σ ◦ τ) · [A]1σ(τ(1)) · · · [A]i σ(τ(i )) · · · [A] j σ(τ( j )) · · · [A]nσ(τ(n))
σ∈S n
X
= − sg (σ ◦ τ) · [A]1σ(τ(1)) · · · [A]i σ(τ(i )) · · · [A] j σ(τ( j )) · · · [A]nσ(τ(n)) .
σ∈S n
Si A es una matriz cuadrada con dos filas o dos columnas iguales, en-
tonces
|A| = 0.
Esto se verifica porque σ(k) = σ′ (k) si k 6= i , j , de donde akσ(k) = akσ′ (k) , mien-
tras que σ′ (i ) = σ( j ) y σ′ ( j ) = σ(i ), por lo que ai σ′ (i ) = ai σ( j ) = a j σ( j ) y a j σ′ ( j ) =
a j σ(i ) = ai σ(i ) .
X
|A| = sg (σ)a1σ(1) · · · anσ(n)
σ∈S n
X
= (sg (σ)a1σ(1) · · · anσ(n) + sg (σ′)a1σ′ (1) · · · anσ′ (n) )
sg (σ)=1
= 0.
Para estudiar el efecto que una operación elemental de tipo II o III induce en
el determinante de una matriz, veremos un resultado más general, que incluye
a ambos.
[B]i ∗ = α1 [A 1 ]i ∗ + · · · αt [A t ]i ∗ .
Entonces
|B| = α1 |A 1 | + · · · + αt |A t |.
|B| = α|A|.
|B| = |A|.
por lo que se tiene |B| = |A 1 | + α|A 2 |. Como A 2 es una matriz con dos filas igua-
les, |A 2 | = 0, luego |B| = |A 1 | = |A|.
El caso de las operaciones elementales por columnas se demuestra igual.
Función determinante
4. δn (Ti (α)A) = αδn (A), donde Ti (α) es una matriz elemental de ti-
po I I .
Sea K un cuerpo. Para cada entero positivo n existe a lo más una única
función determinante δn : M (n ×n, K) → K. En consecuencia, det(A) =
|A|.
β(I ) = 0.
Ejemplo 3.9.1.-
El desarrollo de un determinante de orden n por los elementos de una fila
y sus adjuntos es muy costoso, pues el número de términos crece rápidamen-
te y los cálculos son muy complicados. El método óptimo para resolverlo es a
través de la eliminación gaussiana, que alcanza una complejidad de 2/3n 3 ope-
raciones. Para ciertos determinantes no muy grandes, y con entradas números
enteros se puede usar el método de condensación pivotal de Chiò.
Sea A n×n = (ai j ) una matriz, donde a11 6= 0 (se puede hacer análogamente
para cualquier elemento no nulo de la matriz). Multiplicamos cada fila, excepto
1
Entonces det(A) = n−2
a 11
det(B). Si el elemento fuera el (i 0 , j 0 ), hay que incluir un
factor (−1)i 0 +j 0 por el último desarrollo. Se suele buscar un elemento que sea
Este método consume más operaciones que la eliminación gaussiana. Sin em-
bargo, es uno de los que se utilizan dentro del contexto de eliminación gaussia-
na libre de fracciones, usada en cálculo simbólico o para matrices con entradas
en dominios no cuerpos.
Espacios vectoriales
p : X ×X → X.
111
Depto. de Álgebra
Grupo
(Z, +), (Q, +), (R, +) y (C, +) son grupos abelianos aditivos.
(Q\{0}, ·), (R\{0}, ·) y (C\{0}, ·), donde · se refiere al producto, son gru-
pos abelianos multiplicativos.
Anillo
(a + b) · c = a · c + b · c, para todo a, b, c ∈ A.
Un anillo (A, +, ·), se dice que es unitario, o que tiene elemento unidad,
si existe u ∈ A tal que a · u = u · a = a para todo a ∈ A.
De igual modo, (Q[x], +, ·), (R[x], +, ·), y (C[x], +, ·) son anillos conmu-
tativos.
Cuerpo
a · (b + c) = a · b + a · c, para todo a, b, c ∈ K.
p(X ) = a4 X 4 + a3 X 3 + a2 X 2 + a1 X + a0
definimos
Espacio vectorial
a) (α + β)v = αv + βv .
b) α(v + w ) = αv + αw .
c) α(βv ) = (αβ)v .
d) 1v = v , donde 1 es el elemento neutro de la multiplicación
de K.
Los vectores columna y fila del producto cartesiano Kn que vimos ante-
riormente forman un espacio vectorial. El espacio vectorial de los vecto-
res de n coordenadas sobre un cuerpo K, se denota Kn . La suma se realiza
coordenada a coordenada, y el producto por escalar también. Ejemplos
de este tipo son R2 o R3 . Podemos tener
x 1
x2
1×n
¡ ¢ n×1
= { x1 x2 . . . xn , xi ∈ K} y K
K = . , xi ∈ K .
..
xn
A(v + w ) = A v + A w = 0.
A(αv ) = αA v = α0 = 0,
5. Si αv = βv y v 6= 0, entonces α = β.
6. Si αv = αw y α 6= 0, entonces v = w .
1. De la igualdad
α0 = α(0 + 0) = α0 + α0,
2. Análogamente,
v = 1 · v = (1 + 0)v = 1 · v + 0v = v + 0v .
αv + (−α)v = (α + (−α))v ) = 0v = 0,
Combinación lineal
α1 v1 + α2 v2 + · · · + αr vr ∈ V, donde α1 , . . . , αr ∈ K.
p(x) = 2 · 1 + (−2) · (1 + x) + 3 · (1 + x + x 2 ) = 3 + x + 3x 2
Nota 4.2.1. Obsérvese que, por definición, las combinaciones lineales de vec-
tores son finitas. Es decir, podemos partir de un conjunto infinito de vectores,
pero en la suma solamente intervienen un número finito de elementos.
Dependencia lineal
α1 v1 + α2 v2 + · · · + αr vr = 0.
0 = α1 u1 + α2 u2 + α3 u3 + α4 u4 .
Se trata entonces de verificar si el sistema lineal homogéneo
4α1 −4α2 +α3 +α4 = 0,
3α1 −5α2 = 0,
−2α1 −2α2 −5α3 −2α4 = 0,
¡ ¢
Sea A S = v1 · · · vr .
Gauss
Calculamos A S −−−−→ E .
En resumen,
2 1 2
2 1 2 0 0 7
verifica que
1 −1 5 1 −1 5
Gauss
1
AT = 0 2
−−−−→ 0 1 ,
−3
2 1 1 0 0 0
P RUEBA :
αi vi = −α1 v1 − · · · − αi −1 vi −1 − αi +1 vi +1 · · · − αr vr ,
y al ser αi 6= 0, obtenemos
α1 αi −1 αi +1 αr
vi = − v1 − · · · − vi −1 − vi +1 · · · − vr ,
αi αi αi αi
v = β1 v1 + · · · + βr vr , vk ∈ S − {v }.
β1 v1 + · · · + βr vr − v = 0,
que es una expresión del vector 0 como combinación lineal de los vecto-
res v1 , . . . , vr , v donde no todos los coeficientes son nulos (el coeficiente
de v es −1). Por tanto, el conjunto {v1 , . . . , vr , v } es linealmente depen-
diente y S también lo es.
u = α1 v1 + · · · + αp vp , vi ∈ S y además
vi = βi ,1 wi 1 + · · · + βi ,qi wi qi , para i = 1, . . . , p, wi j ∈ T.
El rango es entonces igual a tres, por lo que el sistema siempre tendrá solución,
independientemente de los valores de α1 , α2 , α3 .
Conjunto generador en Kn
¡ ¢
Sea A S = v1 · · · vr .
Gauss
Calculamos A S −−−−→ E .
En resumen,
Base
Ejemplo 4.3.4.- El conjunto {1, x, x 2 , . . .} es una base del espacio vectorial R[x].
Observemos que tiene un número infinito de elementos. Además, R[x] no pue-
de ser finitamente generado: supongamos que existe un conjunto finito de po-
linomios g 1 (x), g 2 (x), . . . , g r (x) que sean linealmente independientes y genera-
dores. Existe una potencia k de x que es la mayor que aparece en estos poli-
nomios. Entonces el polinomio x k+1 no se puede expresar como combinación
lineal de g 1 (x), . . . , g r (x).
16 13 5
u4 = u1 + u2 − u3 .
7 7 7
¡ ¢
Sin embargo, el conjunto B = {u1 , u2 , u3 } es base, pues la matriz A B = u1 u2 u3
tiene una forma escalonada con tres pivotes, es decir, su rango es tres. Esto sig-
nifica que es un sistema generador y los vectores son independientes.
Nota 4.3.1. Las bases infinitas no tienen nada que ver con las combinaciones
lineales infinitas. En el ejemplo de R[x], no estamos considerando expresiones
de la forma
∞
X
ci x i ,
i =0
que es una serie formal.
Ahora veamos que un espacio vectorial finitamente generado, que no sea
trivial, siempre tiene una base. Además veremos cómo se construye, a partir de
un sistema de generadores.
Existencia de base
Gauss
Calculamos AG −−−−→ E .
4.4. Dimensión
En esta sección definiremos un concepto esencial del álgebra lineal: la di-
mensión de un espacio vectorial. Necesitamos primero el siguiente resultado:
vi = a1i u1 + · · · + ami um , a j i ∈ K.
x1 v1 + · · · + xn vn = 0
Una posible solución para esta ecuación se obtendría si cada coeficiente fuera
cero, es decir, si
a11 x1 + a12 x2 + · · · + a1n xn = 0
a21 x1 + a22 x2 + · · · + a2n xn = 0
.. .. .. ..
. . . .
am1 x1 + am2 x2 + · · · + amn xn = 0.
Este sistema homogéneo tiene, como máximo, rango m, ya que tiene m filas.
Ahora bien, si n > m, el Teorema de Rouché-Frobenius nos dice que es un sis-
tema compatible indeterminado, es decir, existe una solución para x1 , . . . , xn
donde no todos son cero. Esto contradice que S sea un sistema libre.
Teorema de la base
Ejemplo 4.4.1.-
P RUEBA : Sea n = dim(V ). Los dos primeros apartados los conocemos ya. Su-
pongamos entonces que S es un conjunto generador con m = dim(V ). Por el
teorema de existencia de base (pág. 130), podemos extraer una base de S. Como
el número de elementos de S es igual a la dimensión, no es posible conseguir
una base de menor número de elementos, por lo que S es ya una base.
Supongamos ahora que S es un conjunto linealmente independiente, con
m = dim(V ). Si v ∈ V no se puede expresar como combinación lineal de S, en-
tonces S ∪ {v } es linealmente independiente (relación entre combinación y de-
pendencia lineal, pág. 124), lo que implica que m + 1 ≤ dimV , que es una con-
tradicción.
Base en Kn
¡ ¢
Sea B = {v1 , . . . , vn } y A B = v1 · · · vn .
Gauss
Calculamos A B −−−−→ E .
En resumen,
Formamos la matriz
¡ ¢
A= v1 · · · vm e1 · · · en .
El método anterior es válido, porque los m primeros pivotes están en las m pri-
meras columnas, pues S es un sistema libre, y el resto entre las siguientes co-
lumnas. Por tanto, las columnas básicas de la matriz A contienen a los vectores
de partida v1 , . . . , vm y todas forman una base de Kn que completa a S.
Espacio producto
V1 × V2 = {(v1 , v2 ) | v1 ∈ V1 , v2 ∈ V2 },
4.6. Coordenadas
La principal ventaja de la existencia de bases, en los espacios vectoriales
de dimensión finita, es que vamos a poder estudiarlos, sea cual sea el espacio
vectorial, como si fuera Kn . Esto lo vamos a conseguir mediante el uso de coor-
denadas.
Primero necesitamos hacer una precisión. Hasta ahora, cuando hablába-
mos de un conjunto de vectores, o de una base, no nos importaba el orden en
que estuvieran los vectores. Pero para definir las coordenadas de un vector, es
necesario fijar un orden. Por tanto, a partir de ahora, cuando escribamos una
base en la forma B = {u1 , . . . , un } entendemos que hay una ordenación, lo que
nos permite hablar del i -ésimo vector de una base.
Unicidad de la expresión
Coordenadas
αn
αn
Por tanto, no importa cómo sea V como espacio vectorial; si fijamos una
base, vamos a poder representar los elementos de V como elementos del co-
nocido espacio vectorial Kn . Hay que hacer notar unas cuestiones sencillas,
pero muy importantes.
Un vector v ∈ Kn viene dado por una n-upla de números, que coincide
con las coordenadas de v con respecto a la base estándar S de Kn . Esto
es, si
α1 α1
v = ... , entonces vS = ... .
vn vn
Dada una base B = {u1 , . . . , un } de un espacio vectorial V , se tiene que
1 0
0 ..
[u1 ]B = . , . . . , [un ]B = . ,
.
. 0
0 1
pues ui = 0 · u1 + · · · + 1 · ui + · · · + 0 · un .
El problema que se plantea ahora es cómo calcular las coordenadas de un
vector con respecto a una base dada. Para ello, tenemos que resolver un sistema
de ecuaciones.
G-J ¡ ¢
Calculamos A −→ E = I n w la forma escalonada reducida
por filas de la matriz A.
Entonces
1 1 1 0 1 1 0 0 0 −2/3
1 1 0 1 2 G-J 0 1 0 0 1/3
¡ ¢
A= u1 u2 u3 u4 v = −→ .
1 0 1 1 3 0 0 1 0 4/3
0 1 1 1 4 0 0 0 1 7/3
Luego
− 23
1
3
vB = 4
.
3
7
3
c B : V → Kn
1. cB (u + v ) = cB (u) + cB (v ),
para todo α ∈ K y u, v ∈ V .
entonces
v = a 1 u1 + a 2 u2 + · · · + a n un , w = b 1 u1 + b 2 u2 + · · · + b n un ,
de donde
Por tanto,
a1 + b1 αa1
a2 + b2
αa2
[v + w ]B = .. , [αu]B = .. .
. .
an + bn αan
a11
a21
u′1 = a11 u1 + a21 u2 + · · · + an1 un , [u′1 ]B =
.. ,
.
an1
a12
a22
u′2 = a12 u1 + a22 u2 + · · · + an2 un , [u′2 ]B =
.. ,
.
an2
..
.
a1n
a2n
u′n [u′n ]B
= a1n u1 + a2n u2 + · · · + ann un , = .. .
.
ann
¡ ¢
M(B ′ , B) = (ai j ) = [u′1 ]B [u′2 ]B . . . [u′1 ]B ,
v = (a11 x1′ + · · · + a1n xn′ )u1 + · · · + (an1 x1′ + · · · + ann xn′ )u1 .
Calculamos
¡ ¢la forma escalonada reducida por filas de la matriz
AB AB′ .
¡ ¢ G-J ¡ ¢
A B A B ′ −→ I n P .
Entonces
1 1 0 1 1 1 1 0 0 0 1 1/2
¡ ¢ G-J
AB AB′ = 1 0 1 −1 0 0 −→ 0 1 0 1 0 1/2 .
0 1 1 0 −1 0 0 0 1 −1 −1 −1/2
Usando este tipo de matrices, podremos ver la similitud existente entre los
conceptos definidos para espacios vectoriales y los definidos para matrices.
Subespacios vectoriales
5.1. Definiciones
Una vez que tenemos la estructura de K-espacio vectorial sobre un con-
junto V , el siguiente paso es estudiar los subconjuntos de V que tienen esas
mismas propiedades. Es análogo a lo que hacemos con grupos y subgrupos. En
esta capítulo veremos cómo estos subconjuntos, que llamaremos variedades li-
neales vectoriales o subespacios vectoriales, también son espacios vectoriales, y
estudiaremos sus propiedades. La definición precisa es la siguiente:
Subespacio vectorial
Ejemplo 5.1.1.-
149
Depto. de Álgebra
m
X p
X
v= λi vi , w = µ j w j , donde λi , µ j ∈ K, vi , w j ∈ S.
i =1 j =1
v + w = λ1 v1 + · · · + λm vm + µ1 w1 + · · · + µk wk ,
1. S ⊂ 〈S〉.
3. Si S ⊂ T entonces 〈S〉 ⊂ 〈T 〉.
4. 〈S ∩ T 〉 ⊂ 〈S〉 ∩ 〈T 〉.
5. 〈S〉 ∪ 〈T 〉 ⊂ 〈S ∪ T 〉.
P RUEBA :
1. Trivial.
Dimensión de subespacios
y una base del subespacio 〈S〉 está determinada por las columnas bási-
cas de A S,B .
α1 wi 1 + · · · + αr wi r = 0V ,
de donde todos los escalares αi son nulos. Por otro lado, las columnas no bási-
cas de la matriz son combinación lineal de las básicas. Entonces, dado w ∈ 〈S〉,
podemos escribir
w = β1 w1 + · · · + βp wp ,
luego
[w ]B = β1 [w1 ]B + · · · + βp [wp ]B .
Si sustituimos las expresiones de las columnas no básicas en función de las
columnas [wi 1 ]B , . . . , [wi r ]B , tenemos, por la biyectividad de cB , que w se ex-
presa como combinación lineal de wi 1 , . . . , wi r . En consecuencia, el conjunto
{wi 1 , . . . , wi r } es una base de 〈S〉 y tenemos la igualdad buscada.
Dimensión de Col(A)
Dado que
1 0 2
G-J
→ 0 1 −1 ,
A S,B −
0 0 0
tenemos que una base del subespacio 〈S〉 está formada por {1 − x, 1 + x 2 } y
dim〈S〉 = rango(A S,B ) = 2.
Sea A m×n una matriz con coeficientes en K. Si P m×m ,Q n×n son matrices
no singulares, entonces
Unas ecuaciones de este tipo, donde los escalares λi son parámetros indeter-
minados, se llaman unas ecuaciones paramétricas de W . En otras palabras,
unas ecuaciones paramétricas nos dicen cómo son las coordenadas de un vec-
tor cualquiera de W , dependiendo de los coeficientes que tomemos en la com-
binación lineal de los generadores. Si cambiamos los generadores, obtenemos
otras ecuaciones paramétricas.
Recíprocamente, unas ecuaciones del tipo (5.3.1) definen un subespacio
vectorial generado por los vectores de coordenadas respecto de la base B que
aparecen como coeficientes de los parámetros λi .
α1 h1 + α2 h2 + · · · + αn−r hn−r = 0
dimnull(A) = n − rango(A).
Por tanto,
1 0
0
−1
W = 〈h 1 = , h2 = 〉.
0 −2
0 1
rref
→ E A.
A−
El método de eliminación
¡ es muy
¢ similar en cuanto al comienzo, aunque se
parte de la matriz M = A S,B x .
Nota 5.5.1. Cuando un subespacio vectorial W está definido por unas ecuacio-
nes implícitas A p×n x = 0, puede ocurrir que la matriz A no sea de rango p, es
decir, que alguna ecuación dependa linealmente de las otras. Los métodos an-
teriores de paso de paramétricas a implícitas proporcionan lo que se denomina
un conjunto independiente de ecuaciones.
¡ ¢ ¡ ¢
A Im E P ,
1 2 1 1 0 0 0
¡ ¢ 0 −2 −2 −1 1 0 0
w1 w2 w3 I 4 .
0 0 0 −1/2 −3/2 1 0
0 0 0 −1/2 3/2 0 1
x1
½
−x1 + x2
−(1/2)x1 − (3/2)x2 + x3 = 0
Px = ⇒W : .
−1/2x1 − 3/2x2 + x3 −(1/2)x1 + (3/2)x2 + x4 = 0
−1/2x1 + 3/2x2 + x4
Intersección de subespacios
es
x1 − x3 = 0
W1 ∩ W2 : x + x4 = 0 .
2
x1 + x4 = 0
Nota 5.6.1. Una vez que hemos visto que la intersección de subespacios es un
subespacio, y hemos estudiado algunas de sus propiedades, podríamos inten-
tar hacer lo mismo con la unión de subespacios vectoriales. Pero hay que ser
cuidadoso. Aunque la intersección de dos subespacios vectoriales es un subes-
pacio, la unión de dos subespacios no es un subespacio, en general. Por ejemplo,
en R3 , la unión de dos rectas que pasan por el origen no tiene por qué ser una
recta, y por supuesto no es un punto, ni un plano, ni todo el espacio.
Suma de subespacios
W1 + W2 = 〈W1 ∪ W2 〉.
es el subespacio W1 + W2 = 〈v1 , v2 , w1 〉.
Suma de subespacios
W1 + W2 = {v1 + v2 | v1 ∈ W1 , v2 ∈ W2 }.
Entonces W1 + W2 + W3 = 〈w11 , w21 , w22 , w31 〉. En este caso, los cuatro vectores
son independientes, y forman una base del espacio suma.
Fórmula de la dimensión
Hay que demostrar que todos los coeficientes deben ser nulos. Sea
r
X s
X t
X
v= αi ui + βj vj = − γ k wk .
i =1 j =1 k=1
Suma directa
w = u1 + · · · + ur , ui ∈ Wi , i = 1, . . ., r.
Lo notaremos como
r
M
W = W1 ⊕ · · · ⊕ Wr = Wi .
i =1
0 = u1 + · · · + ur , con cada ui ∈ Wi
implica que u1 = · · · = ur = 0.
Lr
3. Si W es de dimensión finita y W = i =1 Wi , entonces dimW =
Pr
i =1 dimWi .
P RUEBA :
0 = |{z}
0 + · · · + |{z}
0
∈W1 ∈Wr
w = u1 + · · · + ur ui ∈ Wi , i = 1, . . . , r
= u′1 + · · · + u′r , u′i ∈ Wi , i = 1, . . . , r.
Entonces
0 = u1 − u′1 + · · · + ur − u′r ,
| {z } | {z }
∈W1 ∈Wr
Nota 5.6.3. En el caso de suma de dos subespacios (r = 2), existe una caracteri-
zación clásica de la suma directa: W = W1 ⊕ W2 si y solamente si W = W1 + W2
y W1 ∩ W2 = 0. En efecto, si W = W1 ⊕ W2 y v ∈ W1 ∩ W2 , entonces tenemos las
expresiones
v = |{z}
v + |{z}
0 = |{z} v .
0 + |{z}
∈W1 ∈W2 ∈W1 ∈W2
(u − v ) + (v − w ) = u − w ∈ W,
−1 2
Entonces
−2 −11
1 ∼W v = 3 ,
u=
4 15
porque u − v = 3u1 −4u2 ∈ W . Observemos que para comprobar si dos vectores
son W -equivalentes, basta resolver un sistema de ecuaciones.
Espacio cociente
Nuestro interés en este conjunto es que nos permite crear un nuevo espacio
vectorial.
Suma: (u + W ) + (v + W ) = (u + v ) + W ,
P RUEBA : Debemos probar, en primer lugar, que las operaciones están bien
definidas. Esto es, que si u +W = u′ +W y además v +W = v ′ +W , entonces las
clases de equivalencia (u + v )+W y (u′ + v ′ )+W son iguales. Pero sabemos que
u ∼W u′ , luego u − u′ ∈ W . Análogamente v − v ′ ∈ W . Por tanto, (u − u′) + (v −
v ′ ) = (u + v ) − (u′ + v ′ ) ∈ W . Es decir, (u + v ) ∼W (u′ + v ′ ), luego (u + v ) + W =
(u′ + v ′ ) + W como queríamos demostrar.
Por otro lado, si u +W = u′ +W y α ∈ K, entonces (u − u′ ) ∈ W , luego α(u −
u ) = αu − αu′ ∈ W . Por tanto (αu) + W = (αu′ ) + W , y se obtiene el resultado.
′
B = {u1 , . . . , ur , ur +1 , . . . , un }
αr +1 (ur +1 + W ) + · · · + αn (un + W ) = 0 + W.
Base de V /W y coordenadas
α1 (v1 + W ) + · · · + αs (vs + W ) = 0 + W
2. Formamos la matriz
¡ ¢
B= w1 . . . wr v1 . . . vs ,
¡ ¢
y calculamos una forma escalonada E B = C 1 C 2 . El conjunto T es
linealmente independiente si y solamente si todas las columnas de C 2
aportan pivote.
Independencia lineal en V /W
Formamos la matriz
¡ ¢
B= w1 . . . wr v1 . . . vs n×(r +s)
.
Gauss ¡ ¢
Calculamos B −−−→ E B = C 1 C 2 , donde C 1 es una matriz n × r
y C 2 es una matriz n × s.
Sea T = {v1 + W, v2 + W }, donde v1 = (2, 1, 3)t , v2 = (0, −1, 1)t . De la forma ha-
bitual, calculamos una base de W , que es BW = {w1 = (1, 1, 1)t }. Formamos la
matriz
¡ ¢ Gauss 1 −1 1
B = w1 v1 v2 −−−→ 0 2 −1 .
0 0 0
La tercera columna no aporta pivote, por lo que el conjunto T es linealmente
dependiente en V /W .
Podemos aprovechar la definición de W mediante ecuaciones implícitas
para resolver el problema. La expresión α1 (v1 + W ) + α2 (v2 + W ) = 0 + W nos
lleva a buscar α1 , α2 ∈ R tales que α1 v1 + α2 v2 ∈ W , es decir,
2α1 ½
α1 − α2 ∈ W, que es equivalente a (2α1 ) − (3α1 + α2 ) = 0,
(α1 − α2 ) − (3α1 + α2 ) = 0.
3α1 + α2
Homomorfismos
Hasta ahora la única relación que hemos visto entre espacios vectoriales di-
ferentes es la de inclusión de un subespacio vectorial en otro. En este tema estu-
diaremos una nueva relación: los homomorfismos, que como su propio nom-
bre da a entender son las aplicaciones entre espacios vectoriales que respetan
las operaciones entre un espacio y otro. Desde el punto de vista de estructuras,
es el paso natural tras haber definido una clase de objetos: qué relaciones hay
entre ellos.
Homomorfismos
f (u + v ) = f (u) + f (v ).
f (αv ) = α f (v ).
183
Depto. de Álgebra
Kn −→ Km ,
v 7→ A v .
f (1 + 2) = (1 + 2) + 1 = 4 6= 5 = 2 + 3 = f (1) + f (2) = 2 + 3.
f (2 + 3) = 25 6= 4 + 9 = f (2) + f (3).
1. f (0V ) = 0V ′ .
P RUEBA :
1. Como 0V + 0V = 0V ,
entonces
Matriz de un homomorfismo
B = {v1 , . . . , vn } ⊂ V, B ′ = {v1′ , . . . , vm
′
} ⊂ V ′.
B = {v1 , . . . , vn } ⊂ V, B ′ = {v1′ , . . . , vm
′
} ⊂ V ′.
f (v )B ′ = MB,B ′ ( f ) · vB .
P RUEBA : Si denotamos
a1
vB = ... ,
an
tenemos que v = a1 v1 + · · · + an vn . Aplicando f obtenemos
f (v ) = a1 f (v1 ) + · · · + an f (vn ).
f (v )B ′ = a1 f (v1 )B ′ + · · · + an f (vn )B ′
a1
¡ ¢ .
= f (v1 )B ′ . . . f (vn )B ′ ..
an
= MB,B ′ ( f ) · vB .
de donde µ ¶
1 1 −1
MS ,S ′ ( f ) = ,
2 1 3
lo que es lógico, pues es fácil ver que se tiene la igualdad
x1 µ ¶ x1
1 1 −1
f x2 = x2 .
2 1 3
x3 x3
(g ◦ f )(u + v ) = g ( f (u + v ))
= g ( f (u) + g (v ))
= g ( f (u)) + g ( f (v ))
= (g ◦ f )(u) + (g ◦ f )(v ).
(g ◦ f )(αv ) = g ( f (αv ))
= g (α f (v ))
= αg ( f (v ))
= α (g ◦ f )(v ),
luego g ◦ f es un homomorfismo.
La fórmula que define la multiplicación de matrices tiene su origen históri-
co (consulte este enlace) en el siguiente resultado:
MB,B ′′ (g ◦ f ) = MB ′ ,B ′′ (g ) · MB,B ′ ( f ).
f (W ) = { f (w ) ∈ V ′ | w ∈ W } ⊂ V ′ .
f −1 (W ′ ) = {w ∈ V | f (w ) ∈ W ′ } ⊂ V.
El núcleo de f es el conjunto
ker( f ) = {v ∈ V | f (v ) = 0} = f −1 (0V ′ ).
0 0
y la solución del sistema es x1 = 0, x2 = 0, es decir, f −1 (W ′ ) = 0 (o bien, ker( f ) =
{0}).
Aunque la definición hace referencia a conjuntos, se tiene algo más para los
homomorfismos, y es que son subespacios vectoriales.
f (W ) es un subespacio vectorial de V ′ .
f −1 (W ′ ) es un subespacio vectorial de V .
P RUEBA :
Dos vectores cualesquiera w1′ , w2′ ∈ f (W ) son siempre de la forma w1′ =
f (w1 ) y w2′ = f (w2 ) para ciertos w1 , w2 ∈ V . Como W es un subespacio
vectorial de V , se tiene que w1 + w2 ∈ W , y si α ∈ K, además αw1 ∈ W ,
luego
Imagen de generadores
[ f (wi ]B ′ = A · [wi ]B , i = 1, . . . , r.
Entonces à ! à !
2 2
f (W ) = 〈A w1 , A w2 〉 = 〈 , 〉.
−1 −1
Observemos que {w1, w2 } es un conjunto linealmente independiente, pero {A w1, A w2 }
no lo es. Lo único que se garantiza es el carácter de sistema generador.
x ∈ f −1 (W ′ ) ⇔ f (x) ∈ W ′
⇔ Ax ∈ W ′
⇔ M A x = 0.
Entonces unas ecuaciones implícitas se obtienen con las dos últimas com-
ponentes del vector P x′ :
1/2x3′ + 1/4x4′
1/2x ′ − 1/4x ′ ½ ′
′ 3 4 ′ x1 +x3′ + 21 x4′ = 0,
Px = ⇒W :
− 23 x4′ = 0.
x ′ + x ′ + 1/2x ′ x2′
1 3 4
x2′ − 3/2x4′
ker( f ) = null(A) y una base de ker( f ) está formada por las solu-
ciones hi obtenidas del método (1.9).
Las coordenadas de los vectores de la base B respecto a ella misma son los
vectores e1 , . . . , en , por lo que la imagen del homomorfismo está generada por
los vectores A ei , i = 1, . . . , n, es decir, las columnas de la matriz A.
Como
2 6 −2
0 0 8
Gauss
A −−−→ E A = ,
0 0 0
0 0 0
el conjunto anterior es generador, pero no linealmente independiente. Una ba-
se de im( f ) está formada por {A ∗1 , A ∗3 }. A partir de
−3
null(A) = 〈h1 = 1 〉,
0
Por tanto,
s
X n
X
v = λ1 v1 + · · · + λn vn = λi vi + λi vi .
i =1 i =s+1
s
X n
X n
X
w = f (v ) = λi f (vi ) + λi f (vi ) = λi f (vi ) ∈ 〈 f (vs+1 ), . . . , f (vn )〉.
i =1 i =s+1 i =s+1
| {z }
=0
Un homomorfismo f : V → V ′ se denomina
1. f es inyectivo.
2. f es sobreyectivo.
3. f es biyectivo.
P RUEBA :
Endomorfismos y automorfismos
0 1 −1
es un endomorfismo, pero no es un automorfismo, porque det(A) = 0. Sin em-
bargo, la aplicación g : R3 → R3 definida por la matriz
1 −2 3
B = 0 3 −3
0 1 0
es un automorfismo.
P RUEBA :
α1 f (u1 ) + · · · + αr f (ur ) = 0V ′ .
Hay que demostrar que todos los coeficientes son nulos. Como f es un
homomorfismo, tenemos que
Composición de isomorfismos
P RUEBA :
MB ′ ,B ( f −1 ) = MB,B ′ ( f )−1 .
MB ′ ,B ( f −1 )MB,B ′ ( f ) = MB,B ( f −1 ◦ f )
= MB,B (idV )
= In ,
MB,B ′ ( f )MB ′ ,B ( f −1 ) = MB ′ ,B ′ ( f ◦ f −1 )
= MB ′ ,B ′ (idV ′ )
= In .
c B : V → Kn , c B ′ : V ′ → Kn ,
V ❈
−1
❈ ❈❈ cB ◦cB ′
cB ≃ ❈❈
❈❈
cB ′ !
Kn o ≃ V′
−1 n ′ −1 ′
Entonces, tanto la inversa cB ′ : K → V como la composición c B ′ ◦ c B : V → V
son isomorfismos, luego V y V ′ son isomorfos.
( f + g )(v ) = f (v ) + g (v ).
(λ · f )(v ) = λ f (v ).
Para que esta definición sea correcta, debemos probar que estas nuevas
aplicaciones son, efectivamente, homomorfismos. Tomemos vectores v1 , v2 ∈
V y un escalar α ∈ K. Entonces
P RUEBA : Ya hemos visto que las operaciones son internas. Vamos a repasar
las propiedades que definen esta estructura.
((λ + µ) · f )(v ) = (λ + µ) f (v ) = λ f (v ) + µ f (v )
= (λ · f )(v ) + (µ · f )(v ) = (λ · f + µ · f )(v ).
• λ · ( f + g ) = (λ · f ) + (λ · f ). Sea v ∈ V . Entonces
(λ · ( f + g ))(v ) = λ( f + g )(v ) = λ( f (v ) + g (v )) = λ f (v ) + λg (v )
= (λ · f )(v ) + (λ · g )(v ) = (λ · f + λ · g )(v ).
• λ · (µ · f ) = (λµ) · f . Si v ∈ V , entonces
• 1 · f = f . Inmediato.
¡ ¢
MB,B ′ (α · f ) = (α · f )(v1 )B ′ · · · (α · f )(vn )B ′
¡ ¢
= α f (v1 )B ′ · · · α f (vn )B ′
= αMB,B ′ ( f ).
Dimensión de Hom(V,V ′ )
MB,B ′ : Hom(V,V ′ ) −→ M (m × n, K)
f 7→ MB,B ′ ( f ).
La aplicación
f¯ : V /W −→ V ′ ,
v + W 7→ f (v ),
La aplicación
f¯ : V / ker( f ) −→ im( f ),
v + ker( f ) 7→ f (v ),
f¯ : V /W −→ V ′ ,
v + W 7→ f (v ).
f
V /V′
O
p i
f¯
V / ker( f ) ≃
/ im( f )
Ahora construimos una ampliación del conjunto B2 a una base de V ′ , que de-
nominamos B ′ = { f (u1 ), . . . , f (ur ), wr +1 , . . . , wm−r }. Vamos a calcular las matri-
ces de los homomorfismos del diagrama con respecto a estas bases.
La matriz de f respecto a B y B ′ es, por definición,
¡ ¢
MB,B ′ ( f ) = [ f (u1 )]B ′ . . . [ f (ur )]B ′ [ f (ur +1 )]B ′ . . . [ f (un )]B ′
1 ... 0 0 ... 0
.. . . . . . .
. . .. .. . . .. µ ¶
Ir Or ×(n−r )
= 0 ... 1 0 ... 0 =
= Nr .
.. . . .. .. . . .. O(m−r )×r O(m−r )×(n−r ) m×n
. . . . . .
0 ...0 0 0 ... 0
0 ... 1 0 ... 0
0 ... 0
Entonces
−2 −3
1 0
null(A) = 〈u3 = ,u = 〉.
0 4 1
0 0
Ampliamos a una base de V con u1 = e1 , u2 = e4 y llamemos B = {u1 , u2 , u3 , u4 }.
Entonces { f (u1 ), f (u2 )} es una base de im( f ) (son las columnas básicas de A) y
la ampliamos a una base de V ′ con w3 = e3 . Si B ′ = { f (u1 ), f (u2 ), w3 }, entonces
1 0 0 0
MB,B ′ ( f ) = 0 1 0 0 .
0 0 0 0
Pr
entonces j =1 α j ei j ∈ ker( f ), de donde
r
X r
X r
X
0= A α j ei j = α j A ei j = α j vi j , porque A ei j es la columna i j .
j =1 j =1 j =1
sobreyectiva, B es de rango r .
Llamemos D a la matriz del homomorfismo i respecto de las bases B2 de
im( f ) y S ′ de Km . Es una matriz de orden m × r y como la aplicación i es in-
yectiva, D es de rango r .
Por otra parte, por la construcción de las bases B1 y B2 , se tiene que
f : W1 → (W1 + W2 )/W2
w1 7→ w1 + W2 .
Es fácil ver que f es un homomorfismo de espacios vectoriales. Si w + W2 ∈
(W1 + W2 )/W2 , entonces existen v1 ∈ W1 , v2 ∈ W2 tales que w = v1 + v2 , por
lo que w + W2 = v1 + W2 (su diferencia es v2 , que está en W2 ). Por tanto, f es
sobreyectiva. Su núcleo viene dado por
ker f = {w1 ∈ W1 | w1 ∈ W2 } = W1 ∩ W2 .
Por el primer teorema de isomorfía, nos queda que W1/(W1 ∩W2 ) ≃ (W1 +W2 )/W2 .
P RUEBA : Llamemos
A = {U ⊂ V | U es un subespacio vectorial tal que W ⊂ U }
y sea B el conjunto de subespacios vectoriales de V /W . Definimos la aplica-
ción Φ : A → B que asocia a cada U ∈ A el subespacio U /W . Esto tiene sentido
porque W ⊂ U . Vamos a probar que Φ es una aplicación biyectiva.
Por otro, el homomorfismo f tiene otra matriz asociada respecto de las bases
B2 y B2′ , que es
MB2 ,B ′ ( f ).
2
idV idV ′
f
V /V′
que simplemente representa la igualdad f = idV ◦ f ◦idV ′ . Recordemos dos cues-
tiones que hemos visto:
La composición de aplicaciones lineales se traduce, al tomar bases en ca-
da espacio, en el producto de matrices.
A = MB1 ,B ′ ( f ), B = MB2 ,B ′ ( f ).
1 2
P RUEBA :
(⇐) Esta implicación ya la tenemos, sin más que tomar P y Q las matrices de
cambio de base.
A = MS ,S ′ ( f ).
Por hipótesis, existen P m×m ,Q n×n no singulares tales que B = P AQ. En-
tonces se tiene que
1 2 3 6
Allí vimos que con respecto a las bases
1 0 −2 −3
0 0 1 0
B = {u1 = , u2 = , u3 = , u4 = },
0 0 0 1
0 1 0 0
1 4 0
′
B = { f (u1 ) = 2 , f (u2 ) = 7 , w3 = 0 }
1 6 1
se tiene que
1 0 0 0
MB,B ′ ( f ) = 0 1 0 0 = N .
0 0 0 0
Esto significa que existe una relación de la forma
A = M(B ′ , S ′ )MB,B ′ ( f )M(S , B).
Tenemos que
1 0 −2 −3
¡ ¢ 0 0 1 0
[u1 ]S [u2 ]S [u3 ]S [u4 ]S
M(B, S ) = = = Q1,
0 0 0 1
0 1 0 0
1 4 0
¡ ¢
M(B ′ , S ′ ) = [ f (u1 )]S ′ [ f (u2 )]S ′ [w 3 )]S ′ =
2 7 0 = P1.
1 6 1
Por tanto, A = P 1 NQ 1−1 o bien N = P 1−1 AQ 1 . En general, vemos así que el cam-
bio de base y el primer teorema de isomorfía permiten probar el teorema de la
forma normal del rango (pág. 73).
Espacio dual
Base dual
Queremos calcular cada una de las matrices fila asociadas a las aplicaciones
lineales u∗i , i = 1, 2, 3. Sea
¡ ¢
u∗i = ai 1 ai 2 ai 3 , i = 1, 2, 3.
2. Cálculo de A −1 .
Esto significa que la matriz fila asociada a cada u∗i es la fila i -ésima de A −1 .
g 1 = 1 · e∗1 + (−1) · e∗2 + 1 · e∗3 , g 2 = 1 · e∗1 + 0 · e∗2 + 1 · e∗3 , g 3 = 2 · e∗1 + 1 · e∗2 + 3 · e∗3 ,
1 −3 1
cumple que B ∗ = C .
Aplicación traspuesta
MB ∗ C ∗ ( f ∗ ) = MBC ( f )t .
Sabemos que (wi∗ )C = eit , por lo que las coordenadas buscadas la forman la fila
i -ésima de la matriz A. Esta fila es la columna i -ésima de la matriz buscada, de
donde tenemos el resultado.
Forma canónica
7.1. Endomorfismos
por el diagrama
B1 B1
MB1 ( f )
KO n / Kn
Si llamamos
obtenemos la igualdad B = P −1 AP .
227
Depto. de Álgebra
Semejanza de matrices
B = P −1 AP.
1 1 1 1 0 0
A = 0 2 1 ,B = 0 2 0 .
0 0 3 0 0 3
1 1 1
1 1 7
C = Q −1 BQ = Q −1 P −1 APQ = R −1 AR,
Determinante de un endomorfismo
det( f ) = det(A).
1 0 1 0
µ ¶ µ ¶
A= ,B =
2 −1 2 2
Subespacio invariante
Nota 7.2.1. En este punto, nos podemos preguntar qué nos aportan los subes-
pacios invariantes de un endomorfismo f : V → V , con V de dimensión finita
n. Supongamos que hemos descompuesto V = W1 ⊕ W2 , con W1 ,W2 subespa-
cios propios de V invariantes. Si
B1 = {u1 , . . . , ur }, B2 = {v1 , . . . , vs }, r + s = n
Autovalores y autovectores
V1 (λ) = {v ∈ V | f (v ) = λv },
A= 1 0 0
0 0 3
con respecto a la base estándar. El vector
i
v = 1 verifica f (v ) = i v ,
0
P RUEBA :
Polinomio característico
(A − λi I )x = 0.
1 −1 4
3
A= 2 .
−1
2 1 −1
El polinomio característico es
1−λ 4
−1
= −6 + 5 λ + 2 λ2 − λ3 ,
p(λ) = det
3 2−λ −1
2 1 −1 − λ
cuya factorización es p(λ) = (1 − λ)(−2 − λ)(3 − λ). Por tanto, los autovalores de
f son
λ1 = 1, λ2 = 3, λ3 = −2.
Todas las raíces son reales, por lo que obtenemos tres subespacios propios. El
cálculo de cada uno de ellos se reduce a la resolución de un sistema lineal ho-
mogéneo.
V1 (λ1 ) = null(A − λ1 I ).
0 −1 4 1 0 1
x1 = −x3 ,
G-J
A − λ1 I = 3 1 −1 −→ 0 1 −4 ⇒ x2 = 4x3 ,
x3 = x3 .
2 1 −2 0 0 0
Entonces
−1
V1 (λ1 ) = 〈v11 =
4 〉.
1
V1 (λ2 ) = null(A − λ2 I ).
−2 −1 4 1 0 −1
x1 = x3 ,
G-J
3 −1 −1 −→ 0 1 −2 ⇒ x2 = 2x3 ,
A − λ2 I =
x3 = x3 .
2 1 −4 0 0 0
Por tanto,
1
2 〉.
V1 (λ2 ) = 〈v21 =
V1 (λ3 ) = null(A − λ3 I ).
3 −1 4 1 0 1
x1 = −x3 ,
G-J
A − λ3 I = 3 4 −1 −→ 0 1 −1 ⇒ x2 = x3 ,
x3 = x3 .
2 1 1 0 0 0
Luego
−1
1 〉.
V1 (λ3 ) = 〈v31 =
Nota 7.2.2. A la hora de calcular las raíces del polinomio característico, se pue-
de tomar como punto de partida el polinomio det(λI − A). Cuando la dimen-
sión del espacio es par, obtenemos el polinomio característico, y si es impar,
su opuesto. Las raíces son las mismas, por lo que es indiferente la elección. Lo
mismo podemos decir a la hora de calcular los espacios null(A − λi I ), pues son
iguales a null(λi I − A).
W = V1 (λ1 ) + · · · + V1 (λs )
es directa.
P RUEBA : La prueba es por inducción sobre s. Para s = 1 no hay nada que probar.
Supongamos que es cierto para s −1 y consideremos una expresión de la forma
0 = λs v1 + · · · + λs vs−1 + λs vs , (7.2.4)
Hemos llegado a una expresión de vectores de V1 (λ1 ), . . . ,V1 (λs−1 ) igual a 0. Por
la hipótesis de inducción,
1 −4 −4
A = 8 −11 −8
−8 8 5
0 −4 −4 1 0 1/2
x1 = −1/2x3
A − λ1 I = 8 −12 −8 → 0 1 1 → x2 = −x3
8 4 0 0 0 x3 = x3
−8
−1/2
null(A − λ1 I ) = 〈v11 〉, donde v11 = −1 .
1
4 −4 −4 1 −1 −1
x1 = x2 + x3
A − λ2 I = 8 −8 −8 → 0 0 0 → x2 = x2 ,
8 8 0 0 0 x =x
−8
3 3
1 1
1 ≤ q0 ≤ m0.
1 −4 −4
A = 8 −11 −8
−8 8 5
1 1
−1/2
v11 = −1 , v21 = 1 , v22 = 0 ,
1 0 1
f (v11 ) = λ1 v11 = 1 · v11 , f (v21 ) = λ2 v21 = (−3) · v21 , f (v22 ) = λ2 v22 = (−3) · v22 .
1
λ1
MB ′ ( f ) = λ2 = −3 .
λ2 −3
0 1
µ ¶
A= , con un autovalor doble igual a cero.
0 0
³ ´
λ1
Si existe P no singular tal que P −1 AP = D = λ2 , entonces D tiene los mis-
mos autovalores que A. Por tanto, λ1 = λ2 = 0, de donde P −1 AP = O, lo que
implica que A = O.
f (v1 )B ′ . . . f (vn )B ′
¡ ¢
MB ′ ( f ) = ,
0 0
λ1
0 λ2 0
f (v1 )B ′ = .. , f (v2 )B ′ = .. , ..., f (vn )B ′ = .. ,
. . .
0 0 λn
de donde
λ1 0 ... 0
0 λ2 ... 0
MB ′ ( f ) = .. .. .. .. = D,
. . . .
0 0 . . . λn
que es una matriz diagonal.
Recíprocamente, supongamos que f es diagonalizable. Entonces existe una
base B ′ = {v1 , v2 , . . . , vn } tal que
λ1 0 . . . 0
0 λ2 . . . 0
MB ′ ( f ) = . .. . . .. .
.. . . .
0 0 . . . λn
0 −1 0
A= 1 0 0
0 0 3
En otras palabras, hay que tener presente el cuerpo base. Recordemos que
la suma de las multiplicidades algebraicas de los autovalores es menor o igual
que n, el grado del polinomio característico. Si todos los autovalores están en el
cuerpo base, entonces dicha suma es igual a n.
1. m 1 + · · · + m s = n.
2. m i = q i para todo i = 1, . . ., s.
de donde
dim(V ) = dimV1 (λ1 ) + · · · + dimV1 (λs ),
n = q 1 + · · · + q s ≤ m 1 + · · · + m s ≤ n.
n autovalores distintos
q i = n − rango(A − λi I ).
3 1 1
A = 1 3 1 .
1 1 3
Entonces
λ1 = 2, m 1 = 2,
λ2 = 5, m 2 = 1.
1 1 1
q 1 = 3 − rango(A − 2I ) = 3 − rango 1 1 1 = 3 − 1 = 2 = m 1 .
1 1 1
2
λ1
D = λ1 = 2 .
λ2 5
1 1 1 0 −1
−2
1 −2 G-J
1 −→ 0 1 −1 .
1 1 −2 0 0 0
1
x1 = x3
x2 = x3 , ⇒ V1 (λ2 ) = 〈v21 = 1 〉.
x3 = x3 1
La matriz de paso P es
−1 −1 1
= 1 0 1 .
¡ ¢
P= v11 v12 v22
0 1 1
λ 1
λ si i = j .. ..
. .
b i j = 1 si i + 1 = j , B(λ) =
.
.
. . 1
0 en el resto
λ
J 1 (λ1 ) 0 ... 0
0 J 2 (λ1 ) . . . 0
J (λ1 ) = .. .. .. .. ,
. . . .
0 0 ... J t1 (λ1 )
J (λ1 ) 0 ... 0
0 J (λ2 ) ... 0
J = .. .. .. .. ,
. . . .
0 0 ... J (λs )
λ 1
µ ¶
0 λ
y uno de orden 3
λ 1 0
0 λ 1 .
0 0 λ
0 0 0 0 0 0 3
J (λ1 ) O ... O
O J (λ2 ) . . . O
J = .. .. .. .. ,
. . . .
O O ... J (λs )
Los vectores xi forman las columnas de la matriz de paso P , y cada cadena for-
ma un bloque de Jordan. Vamos a ver cómo se pueden construir estas cadenas
para un endomorfismo f : V → V .
Procedemos por inducción. Para n = 1, la matriz del endomorfismo ya está
en forma canónica de Jordan. Supongamos entonces que la construcción se
tiene para endomorfismos sobre espacios de dimensión menor que n.
Paso 1. Supongamos que f tiene el autovalor λ = 0, que es equivalente a que
cualquier matriz que lo represente es singular.. El espacio im( f ) tiene dimen-
sión r < n, y consideramos la restricción de f a im( f ), que se aplica en im( f ).
Por hipótesis de inducción, existe una base de im( f ) formada por los vectores
w1 , . . . , wr tales que
Paso 2. Sea L = ker( f )∩im( f ), con p = dim L. Todo vector no nulo de ker( f )
es autovector asociado al autovalor λ = 0. Entonces tiene que haber p cadenas
en el paso anterior que empiezan en estos autovectores. Nos interesan los vec-
tores wi que van al final de las cadenas. Cada uno de estos p vectores está en
im( f ), por lo que existen yi tales que wi = f (yi ), i = 1, . . . , p. Por claridad, lo
escribiremos como f (yi ) = 0yi + wi .
Paso 3. El subespacio ker( f ) tiene dimensión n−r . Entonces, aparte de los p
vectores independientes que podemos encontrar en su intersección con im( f ),
hay n − r − p vectores adicionales zi que están fuera de esta intersección.
Ponemos juntos estos tres pasos para dar el teorema de Jordan:
Los r vectores wi , los p vectores yi , y los n − r − p vectores zi forman cade-
nas de Jordan, y son linealmente independientes.
Si renumeramos los vectores como x1 , . . . , xn para hacerlos corresponder
con la ecuación 7.5.1, cada yi debe ir inmediatamente después del vector wi
del que procede. Todos ellos completan una cadena para el autovalor λi = 0.
Los vectores zi van al final del todo, cada uno en su propia cadena, y dan lugar
a cajas de orden 1.
Los bloques con autovalores no nulos se completan en el primer paso, los
bloques con autovalor cero aumenta su tamaño en una fila y columna en el
paso 2, y el paso 3 contribuye con bloques de orden 1 del tipo J i = [0].
Lo que tenemos que probar en primer lugar es que el conjunto {wi , y j , zk }
es linealmente independiente. Escribamos entonces
X X X
αi wi + βj yj + γk zk = 0. (7.5.3)
λi wi
X X
αi o bien + β j f (y j ) = 0. (7.5.4)
λwi + wi −1
Los vectores f (y j ) son los vectores especiales w j del final de las cadenas, co-
rrespondientes a λi = 0, por lo que no pueden aparecer en la primera parte de
la suma (están multiplicados por cero en λi wi ). Como la ecuación (7.5.4) es
una combinación lineal de vectores wi , cada coeficiente es nulo, en concreto
β j = 0. Si volvemos a la ecuación (7.5.3), nos queda que
X X
αi wi = − γk zk .
El lado izquierdo está en im( f ), y los vectores zk fueron escogidos fuera de di-
cho espacio. Entonces γk = 0, y por la independencia de los wi tenemos tam-
bién que αi = 0.
Si el endomorfismo f no tiene el autovalor cero (matriz asociada no singu-
lar), aplicamos los tres pasos a f (1) = f − λ1 idV , cuyos autovalores son 0, λ2 −
λ1 , . . . , λs − λ1 . El método anterior calcula una base C (1) y una matriz J (1) de la
forma
J (0) O ... O
O J (λ2 − λ1 ) . . . O
(1)
J = . .. . .. .
. . . . . .
O O ... J (λs − λ1 )
(1)
[ f (xi )]C (1) = [ f (1) (xi )]C (1) + λ1 [xi ]C (1) = J ∗i + λi ei ,
de donde
J (λ1 ) ...
O O
O J (λ2 ) . . . O
MC (1) ( f ) = J (1) + λ1 I = .. .. .. .. .
. . . .
O O ... J (λs )
1 2 2 1
1 0 −2 −1
A= ,
−1 −1 1 1
−1 −1 1 1
T1 (a1 ) = 0 · a1 ,
T1 (a2 ) = 3a1 − 3a2 ,
T1 (a3 ) = a1 − a2 − 2a3 ,
0 3 1
M(T1 ) = 0 −3 −1 .
0 0 −2
T1 (w1 ) = −2w1 ,
T1 (w2 ) = −3w2 ,
T1 (w3 ) = 0 · w3 ,
T1 (y3 ) = w3 .
A w1 = 0 · w1 ,
A w2 = −w 2 ,
A w3 = 2 w3 ,
A y3 = w3 +2y3 .
Por tanto, la forma canónica es la matriz de la aplicación lineal dada por A res-
pecto de la base B J , esto es,
0 0 0 0
0 −1 0 0
MBJ = .
0 0 2 1
0 0 0 2
−2 1 0
A = −1 0 0 .
−1 1 −1
y1 = 0 .
0
Ahora necesitamos n − r − p = 3 − 1 − 1 = 1 vector z1 tal que {w1 , z1 } sea base de
null(T1 ). Una base de null(T1 ) está formada por
1 0
h1 = 1 , h2 = 0 ,
0 1
y podemos tomar z1 = h1 . Con esto tenemos que una base canónica es {w1, y1 , z1 },
y la forma canónica es
λ 1
J = λ .
λ
La matriz de paso es
−1 1 1
−1
−1 0 1 , y J = P AP.
¡ ¢
P= w1 y1 z1 =
−1 0 0
0 1 0 ... 0
0 0 1 ... 0
.. . . .. . . ..
. . . .
Nk = . ,
..
.
0 0 1
0 0 ... 0 0 k×k
entonces Nkl = 0 si l ≥ k y
0 . .→
←l . 1 ... 0
..
0 0 . 1 0
.. .. .. ..
Nkl = . . . . 1 tiene rango k − l si l < k.
.. .. .. . . ..
. . . . .
0 ... 0 0 0
J n1,1 (λ1 )
..
.
J n1,h1 (λ1 )
...
,
J ns,1 (λs )
..
.
J ns,hs (λs )
1 0 −2 −1
A=
−1 −1 1 1
−1 −1 1 1
tiene autovalores λ1 = 0(m 1 = 1), λ2 = −1(m 2 = 1), λ3 = 2(m 3 = 2). En un ejem-
plo anterior hemos calculado su forma canónica de Jordan. Lo vamos a ha-
cer ahora a partir del resultado anterior. Para cada autovalor λi , calculamos
rango(A − λi I )m hasta que se estabiliza. Se puede probar que solamente hay
que llegar al valor de m igual a la multiplicidad algebraica del autovalor.
Entonces
Entonces
Entonces
1
µ ¶
λ3
.
0 λ3
1 2 1 1 1
0 1 1 2 1
A= 0 0 1 1 0
.
0 0 0 1 0
0 0 0 0 1
Entonces
Como
0 = αm + am−1 αm−1 + . . . + a1 α + a0 ,
tomamos conjugados en ambos lados de la igualdad, y nos queda
0 = αm + am−1 αm−1 + . . . + a1 α + a0 ,
ya que los coeficientes ai son todos reales. Entonces α es raíz de f (x). La igual-
dad de las multiplicidades se deduce de la factorización
(a + bi )(x, y ) = (a x − b y , b x + a y ).
Base de VC
Entonces
(a1 + i b 1 )(u1 , 0) + · · · + (an + i b n )(un , 0) = (v , w ).
v ∈ null(λI − A) ⇔ A v = λv
⇔ A v = λv ⇔ v ∈ null(λI − A),
f ′ (w ) = λw + v , f ′ (w ) = λw + v
f (w1 ) = λ1 w1 − λ2 w2 + v1 , f (w2 ) = λ2 w1 + λ1 w2 + v2 .
C = {v , w , . . . , v , w , . . .},
C R = {v1 , v2 , w1 , w2 , . . .}
1 0
λ1 λ2
−λ2 λ1
0 1
λ 1 λ2
−λ2 λ1
..
.
.
1 0
0 1
λ1 λ2
−λ2 λ1
−2 2 4 3
A= ,
2 −2 −5 −4
−2 3 6 4
cuyos autovalores son λ1 = 1, λ2 = −1, λ3 = i , λ4 = −i , todos con multiplicidad
algebraica igual a 1. Entonces A es diagonalizable sobre C, con forma canónica
λ1
λ2
JC = ,
λ3
λ4
y matriz de paso
0 1 4/5 + 2/5 i 4/5 − 2/5 i
2/5 1/5
w31 = Re(v31 ) = , w = Im(v41 ) = .
−3/5 32 1/5
1 0
Entonces la forma canónica real es
1
−1
JR = ,
0 1
−1 0
y la matriz de paso
0 1 4/5 2/5
1 1 2/5 1/5
.
¡ ¢
PR = v11 v21 w31 w32 =
−1 −1 −3/5 1/5
1 1 1 0
es
1 0 0
i
0 i 0 0
JC = ,
0 0 −i 1
0 0 0 −i
y matriz de paso
1/2 i 1/2 i
−1/2 i −1/2 i
P = .
−1/2 −1/2 i −1/2 1/2 i
0 −1/2 i 0 1/2 i
−1 0 0 1 0 0 1/2
−1/2
JR = , y matriz de paso P R = .
0 0 0 1 −1/2 0 0 −1/2
0 0 −1 0 0 0 0 −1/2
A m = (P J P −1 )(P J P −1 ) . . . (P J P −1 ) = P J m P −1 .
0 1 ... 0 0
..
0 0 . 0 0
.. .. .. .. .
.
N t×t =
. . . . ..
0 0 ... 0 1
0 0 ... 0 0
N k = 0, k ≥ t , se tiene que
B m = (λI t + N )m
à ! à ! à !
m m m−1 m m−2 2 m
= λ It + λ N+ λ N +··· + λm−t+1 N t−1 ,
1 2 t −1
B 1m 0 ... 0
m
0 B 2m ... 0
−1
A =P .. .. .. .. P ,
. . . .
0 0 . . . B tm
0 1 1
µ ¶ µ ¶
i
J= , con matriz de paso P = .
0 −i −i i
Entonces
1 1 im 0 1 1
µ ¶µ ¶ µ ¶
m m −1 i
A =PJ P = m
−i i 0 (−i ) 2 1 −i
1 i m + (−i )m m+1
+ (−i )m+1 ¶
µ
i
= .
2 −i m+1 − (−i )m+1 −i m+2
− (−i )m+2
Radio espectral
Convergencia a cero
1. lı́mk→∞ A k = 0.
2. ρ(A) < 1.
..
.
A k = P J k P −1 = P
−1
J ∗k
P ,
..
.
donde
1
λ
.. ..
J∗ = . .
j > k, tenemos
¡ k ¢ k−m+1
λk k1 λk−1 k2 λk−2 . . . m−1
¡ ¢ ¡ ¢
λ
k k−1 . .. ..
λk .
¡ ¢
1 λ
k
J∗ =
. .. . .. ¡ k k−2
¢ ,
(7.7.1)
2¢
λ
k k−1
λk
¡
1 λ
k
λ
con m el tamaño del bloque. Vamos a ver que si |λ| < 1 entonces
à !
k k−j
lı́m λ = 0 para cada valor fijado de j.
k→∞ j
Notemos que à !
k k(k − 1) · · · (k − j + 1) k j
= ≤ .
j j! j!
Entonces ¯Ã ! ¯
¯ k ¯ kj
λk−j ¯ ≤ |λ|k−j .
¯ ¯
¯ j!
¯
¯ j
Límite de potencias
I p×p 0 I p×p 0
µ ¶ µ ¶
k −1
lı́m A = lı́m P P =P P −1
0 Kk 0 0
¢ I p×p 0
µ ¶µ ¶
Q1
= P 1Q 1 .
¡
= P1 P2
0 0 Q2
La matriz A es una matriz de probabilidad, esto es, sus columnas suman 1. Sus
autovalores son λ1 = 1, λ2 = 0,2, λ3 = 0. El espacio de autovectores asociado a
λ1 es
122/11
Según este modelo, las probabilidades en el futuro son, aproximadamente, 0,76, 0,17
y 0,07 de lluvioso, nublado y soleado, respectivamente.
Ecuaciones de diferencias
xn+p − a1 xn+p−1 − · · · − a p xn = 0, n ≥ 1,
a1 a2 . . . a p−1 a p
1 0 ... 0 0
A=
0 1 ... 0 0 .
.. .. .. .. ..
.
. . . .
0 0 ... 1 0
xn = A xn−1 = · · · = A n x0 .
λn , nλn , . . . , n s−1 λn ,
λn , nλn , n 2 λn , . . . , n s−1 λn ,
a0 = 1, a1 = 1, an+1 = an + an−1 , n ≥ 2.
p p
La ecuación característica es z 2 = z + 1, de raíces r 1 = 21 (1 + 5), r 2 = 12 (1 − 5).
Entonces la forma general de la solución es
an = c1 r 1n + c2 r 2n ,
n = 0, a0 = 1 = c1 + c2 ,
½
n = 1, a1 = 1 = c1 r 1 + c2 r 2 .
λ+µ λ
z2 − z + = 0,
µ µ
p n = c1 ρ n + c2 , n ≥ 1.
n
Como = 1, se deduce que c2 = 0, y que p 0 + c1 = 1. Entonces
P P
n≥0 p n n≥1 ρ
ρ 1−ρ
p 0 + c1 = 1, c1 = (1 − p 0 ).
1−ρ ρ
1−ρ n
Por tanto, p n = ρ ρ (1 − p 0 ), y la otra condición es p 1 = ρp 0 . Concluimos que
1−ρ
p1 = ρ(1 − p 0 ) = ρp 0 ,
ρ
de donde p 0 = 1 − ρ. Finalmente,
1−ρ n
pn = ρ ρ = (1 − ρ)ρ n .
ρ
P (S n ) = P (S n |W )P (W ) + P (S n |W̄ )P (W̄ ),
p n = α + βn.
lo que lleva a
1 (q/p) y
α= , β = −
1 − (q/p)x+y (1 − (q/p))x+y
y
1 − (q/p)n+y
pn = , si p 6= q.
1 − (q/p)x+y
En particular,
1−r y q
p0 = , donde r = .
1−r x+y p
Si p = q las ecuaciones para α y β son
1 = α + βx, 0 = α − βy
por lo que
y 1
α= ,β =
x+y x+y
y
y +n
pn = , si p = q.
x+y
y
En este último caso, p 0 = y+x .
Si A h = (ai(h)
j
), entonces
¯ ¯
¯ ¯ ¯ n ¯ n ¯
¯ (2) ¯ ¯ X X
¯ak j ¯ ≤ kAk2 n, de donde ° A 2 ° ≤ n kAk2 .
¯ ° °
¯ai j ¯ = ¯ ai k ak j ¯ ≤ kAk0
¯
¯k=1 0 0 0
k=1
¯
° 1 s° s−1
1
° °
° A ° ≤n kAk0s ≤ [kAk0 n]s ,
° k! ° s! s!
0
por lo que kP (k)k0 ≤ ks=0 s!1 [kAk0 n]s ≤ exp(kAk0 n). En consecuencia, el límite
P
O ... O e A1 O ... O
A1
O A2 ... O A
O e A2 ... O
A= .. entonces e = .. .
. .
O O ... Am O O . . . e Am
P RUEBA :
1 s
1. Como D h es una matriz diagonal de entradas d isi , y e di i =
P∞
s=0 s! d i i , se
tiene el resultado.
A 1s ...
O O
s
O A 2s ... O
A = .. .
.
s
O O ... Am
−1
de donde P −1 e A P = e P AP = e B (la aplicación M 7→ P −1 MP es continua
con respecto a la topología inducida por la norma).
de donde
k 1 k 1 X s s!
(A + B)s = I + A j B s−j
X X
I+
s=1 s! s=1 s! j =0 j !(s − j )!
k X s µ1 ¶µ
1
¶
j s−j
X
=I+ A B .
s=1 j =0 j ! (s − j )!
Ejemplo 7.7.7.- Si A es una matriz para la que existe un entero t > 0 tal que
1 h
A t = O, y k es el menor de dichos enteros, entonces e A = I + kh=1 h! A . Por
P
ejemplo, si
0 1 2
A = 0 0 −1 ,
0 0 0
entonces
1 1 3/2
1
e A = I + A + A2 =
2 0 1 .
−1
0 0 1
Ejemplo 7.7.8.- Si
0 r cos(r ) sin(r )
µ ¶ µ ¶
B
B= entonces e = .
−r 0 − sin(r ) cos(r )
λi 1 . . . 0
J1 O . . . O
O J2 . . . O .. ..
. .
−1
A = P J P, donde J = . , Ji = .
.. .
.
. 1
O O . . . Jr 0 λi
e J1 ...
O O
O e J2 ... O
eJ = .. ,
.
O O . . . e Jr
y debemos dar una expresión para e J i . Dado que J i = λi I + Ni , con Ni una ma-
triz nilpotente y las matrices λi I y Ni conmutan, llegamos a
1 2 1
µ ¶
Ji λi I Ni λi Ni λi p−1
e = e e = e I e = e I + Ni + Ni + · · · + N ,
2! (p − 1)! i
donde p es el índice de nilpotencia de Ni , es decir, el menor entero p tal que
p
Ni = O. En consecuencia, la forma canónica de Jordan nos permite calcular
e A.
Derivada de la exponencial
d tA
e = Ae t A .
dt
h 2 A2 h s As
ehA = I + h A + +··· + +··· ,
2 s!
se sigue que
hA h 2 A2 h s As
e −I −hA = +··· + +··· .
2 s!
Si aplicamos k·k0 a ambos lados de la igualdad, nos queda
° ° 1° 1°
°e − I − h A ° ≤ °h 2 A 2 °0 + · · · + °h s A s °0 + · · ·
° hA ° ° °
0 2! s!
Recordemos que para cualquier matriz B de orden n se verifica kB s k0 ≤ n s−1 kBk0s ≤
n s kBk0s . Entonces
° s s°
°h A ° = |h|s ° A s ° ≤ |h|s n s kAks = khn Aks ,
° °
0 0 0 0
y tenemos la acotación
° ° 1 1
°e − I − h A ° ≤ khn Ak20 + · · · + khn Ak0s + · · ·
° hA °
0 2! s!
khn Ak0
=e − 1 − khn Ak0 .
d
Y (t ) = y0 Ae t A = AY (t ), por lo que es solución del sistema.
dt
Producto escalar
281
Depto. de Álgebra
〈βx|y 〉 = β〈x|y 〉,
y entonces se deduce que 〈x|αy 〉 = α〈x|y 〉. Esto solamente afecta a los produc-
tos escalares definidos en espacios vectoriales sobre el cuerpo de los números
complejos. En cualquier caso, el contenido fundamental de la teoría no cambia,
aunque algunas definiciones deben ser retocadas.
Entonces
4. 〈y |x〉 = 2y 1 x1 + 3y 2 x2 = 〈x|y 〉.
2. 〈x|αy 〉e = α〈x|y 〉e .
〈x|y + z 〉e = x∗ (y + z ) = x∗ y + x∗ z
= 〈x|y 〉e + 〈x|z 〉e .
4. 〈x|y 〉e = 〈y |x〉e .
Ejemplo 8.1.5.- Sea V el conjunto de sucesiones {ck } ⊂ C que verifican n≥0 |cn |2 <
P
〈x + y |z 〉 = 〈z |x + y 〉
= 〈z |x〉 + 〈z |y 〉
= 〈x|z 〉 + 〈y |z 〉.
y también 〈x|0〉 = 0.
Matriz de Gram
G = (〈ei |e j 〉e ) = I n .
entonces
n
X n
X
〈x|y 〉 = 〈 x i ui y j uj 〉
i =1 j =1
n X
X n
= 〈xi ui |y j u j 〉
i =1 j =1
X n X n
= xi y j 〈ui |u j 〉
i =1 j =1
= [x]∗B ·G · [y ]B .
〈x|y 〉 = [x]∗B ·G · [y ]B .
[x]B = P [x]B ′ , [y ]B = P [y ]B ′ ,
Por tanto,
de donde G ′ = P ∗GP .
G ′ = P ∗GP.
Entonces
3 1 0
P t I 3P = 1 5 −1 = G ′ ,
0 −1 2
como sabíamos.
8.3. Norma
Norma de un vector
La definición tiene sentido por las propiedades del producto escalar. Aunque
no aparece en la notación, la norma de un vector depende del producto escalar
usado.
Ejemplo 8.3.2.- Si V = M (n×n, C), con el producto escalar 〈A|B〉 = traza(A ∗ B),
se tiene que
à !1/2
n X
X n
2
kAk = |ai j | .
i =1 j =1
Propiedades de la norma
Sea (V, 〈·|·〉) un espacio vectorial con producto escalar. Para cualesquie-
ra x, y ∈ V y escalar α ∈ K se verifica
3. kx − y k = ky − xk.
1
u= x.
kx k
Desigualdad triangular
Sean x, y ∈ V . Entonces
kx + y k ≤ kx k + ky k .
Sea (V, 〈·|·〉) un espacio vectorial con producto escalar y k·k la norma
asociada. Consideremos u, v ∈ V .
1¡ ¢
〈u|v 〉 = ku + v k2 − ku − v k2 .
4
1¡ ¢
〈u|v 〉 = ku + v k2 − ku − v k2
4
i¡ ¢
+ ku + i v k 2 − ku − i v k 2 .
4
〈x|y 〉
cos θ = .
kx k ky k
〈x|y 〉
cos(θ) = .
kx k ky k
Relación entre A, A ∗ A y A A ∗
P RUEBA :
kA v k2 = 〈A v |A v 〉e = v ∗ A ∗ A v = 0
2. A partir de lo anterior,
Normas vectoriales
kx + y k ≤ kxk + ky k,
Por las propiedades que hemos visto, la norma inducida por un producto esca-
lar es una norma vectorial, que se denomina norma euclídea, y se representa
por k·k2 . Sobre Cn existen otras normas, como por ejemplo
Pn
kxk1 = i =1 |x i |, que llamamos 1-norma,
kx + y k2 + kx − y k2 = 2(kxk2 + ky k2 )
kx + y k2 + kx − y k2 = 〈x + y |x + y 〉 + 〈x − y |x − y 〉
= 〈x|x〉 + 〈x|y 〉 + 〈y |x〉 + 〈y |y 〉
+〈x|x〉 − 〈x|y 〉 − 〈y |x〉 + 〈y |y 〉
= 2(kxk2 + ky k2 ).
1
ψ(x, y ) = (kx + y k2 − kx − y k2 )
4
Tenemos que ver lo que ocurre con las dos restantes propiedades. Por la iden-
tidad del paralelogramo, podemos escribir
1
kx + y k2 + kx + z k2 = (kx + y + x + z k2 + ky − z k2 ),
2
1
kx − y k2 + kx − z k2 = (kx − y + x − z k2 + kz − y k2 ),
2
y al restar ambas igualdades nos queda
Entonces
1
ψ(x, y ) = k2 k k2 k k2 k
4 (kx + y − x − y + x + z − x − z )
k2
1 2 2
= 8 (k2 x + (y + z )k − k2x − (y + z )k )
°2 °
(8.4.1)
° − °x − 1 (y + z )°2 ) = 2ψ(x, 1 (y + z )).
1 °
° 1
°
= 2 ( x + 2 (y + z ) 2 2
Ahora probemos que ψ(x, αy ) = αψ(x, y ) para todo número real α. Por lo an-
terior, el resultado es válido para los números enteros. Si α = β/γ es racional,
entonces
β β β
γ2 ψ(x, y ) = ψ(γx, βy ) = βγψ(x, y ), de donde ψ(x, y ) = ψ(x, y ).
γ γ γ
8.5. Ortogonalidad
Vectores ortogonales
Ejemplo 8.5.2.- Sea V = C ([−1, 1]) el R-espacio vectorial de las funciones con-
tinuas en el intervalo [−1, 1], donde tenemos el producto escalar
Z1
〈 f |g 〉 = f (x)g (x) d x.
−1
Teorema de Pitágoras
kv + w k2 = 〈v + w |v + w 〉 = 〈v |v 〉 + 〈v |w 〉 + 〈w |v 〉 + 〈w |w 〉
= kv k2 + kw k2 + 2 Re(〈v |w 〉).
Conjuntos ortonormales
Todos los sumandos de la derecha son nulos, salvo 〈ui |ui 〉, que es positivo.
Entonces αi = 0, para todo i = 1, . . ., r .
Expansión de Fourier
P RUEBA : Si x = α1 u1 + α2 u2 + · · · + αn un , entonces
n
X n
X ° °2
〈u j |x〉 = 〈u j | αi ui 〉 = αi 〈u j |ui 〉 = α j °u j ° .
i =1 i =1
Entonces el vector
2
x = −3
4
verifica
〈u1 |x〉e 〈u2 |x〉e 〈u3 |x〉e 5 1
x= 2
u1 + 2
u2 + 2
u3 = u1 − u2 + 4 u3 ,
ku1 k ku2 k ku3 k 2 2
por lo que sus coordenadas respecto a B son
5/2
[x]B = −1/2 .
4
r 〈w |x〉
X i
〈w j |x − proyW (x)〉 = 〈w j |x〉 − 〈w j | wi 〉
i =1 kwi k2
r 〈w |x〉
X i
= 〈w j |x〉 − 〈w j |wi 〉 = 〈w j |x〉 − 〈w j |x〉 = 0.
i =1 kwi k2
Por tanto, x −proyW (x) es un vector ortogonal a todos los elementos de la base
de W . Sea ahora w ∈ W , por lo que admite una expresión de la forma w =
Pr
j =1 α j w j . Entonces
r
X r
X
〈w |x − proyW (x)〉 = 〈 α j w j |x − proyW (x)〉 = α j 〈w j |x − proyW (x)〉 = 0.
j =1 j =1
Sea B = {u1 , . . . , un } una base de un espacio vectorial (V, 〈·|·〉) con pro-
ducto escalar y tomemos v , w ∈ V con expresiones
n
X n
X
v= v i ui , w = w j uj .
i =1 j =1
1. Si B es ortogonal, entonces
n
X
〈v |w 〉 = kui k2 v i w i .
i =1
2. Si B es ortonormal, entonces
n
X
〈v |w 〉 = v i w i = [v ]∗B [w ]B .
i =1
n
X n
X n X
X n
〈v |w 〉 = 〈 v i ui | w j uj 〉 = v i w j 〈ui |u j 〉
i =1 j =1 i =1 j =1
n
X
= v i w i kui k2 .
i =1
En resumen,
n
X n
X
〈ui |u j 〉 = 〈 aki u′k | al j u′l 〉
k=1 l =1
n X
X n
= aki al j 〈u′k |u′l 〉
k=1 l =1
Xn
= aki ak j , pues solamente aparecen los términos con k = l .
k=1
Nota 8.6.1. Hemos visto que la multiplicación por una matriz unitaria no altera
la norma euclídea de un vector. Algo parecido ocurre con la norma de Frobe-
nius de una matriz. Sea A n×n una matriz con coeficientes complejos y Un×n
una matriz unitaria. Entonces
de donde podemos calcular λ12 y entonces tenemos el vector q2′ . Es claro que
el subespacio generado por {q1′ , q2′ } es igual que el subespacio generado por
{v1 , v2 }. En general, si tenemos construidos q1′ , . . . , qk−1
′
, con la igualdad de los
espacios generados por los vectores
y podemos calcular todos los λ j k . Se tiene además que los subespacios genera-
dos por {v1 , . . . , vk } y {q1′ , . . . , qk′ } son iguales. Si ahora normalizamos qi = °°q1′ °° qi′
i
conseguimos el conjunto ortonormal. Observemos que la normalización de ca-
da qi′ se puede realizar en cada paso.
La forma de los coeficientes λi k es la asociada a la proyección ortogonal
de vk sobre el subespacio Wk−1 = 〈q1′ , . . . , qk−1
′
〉, si usamos su base ortogonal
′ ′
{q1 , . . . , qk }. Podemos escribir entonces que
1
q1′ = v1 ,
qk′ = vk − proyWk−1 (vk ), 2 ≤ k ≤ s.
〈qi′ |vk 〉 ′
k−1
X
q1′ = v1 , qk′ = vk − proyWk−1 (vk ) = vk − ° ′ °2 qi , 2 ≤ k ≤ s,
i =1 °q ° i
Método de Gram-Schmidt
1. Definimos q1′ = v1 .
2. Para k = 2, . . . , s calculamos
1
qk = ° ° qk′ , k = 1, 2, . . . , s.
° qk′ °
El proceso es:
q1′ = v1
〈q ′ |v2 〉e
q2′ = v2 − λ12 q1′ , λ12 = °1 °2 = 1,
°q ′ °
1
0
2
q2′ = v2 − q1′ =
,
0
0
q3′ = v3 − λ13 q1′ − λ23 q2′ ,
〈q1′ |v3 〉e
λ13 = ° °2 = 2,
°q ′ °
1
〈q2′ |v3 〉e 1
λ23 = ° °2 = ,
°q ′ ° 2
2
1
1
0
q3′ = v3 − 2q1′ − q2′ =
.
2 1
1
Entonces
1 0 1
1
0
1
1
0
q1 = p , q2 = , q3 = p .
2 0 0 3 1
−1 0 1
R∞ ¯ ¯2
Ejemplo 8.7.3.- Sea V el espacio de la funciones f : R → R tales que −∞ f (x) d x
¯ ¯
es finita, con el producto escalar
Z∞
〈 f |g 〉 = f (x)g (x) d x.
−∞
si 0 < x ≤ 21 ,
1
h(x) = −1 si 21 < x ≤ 1,
0 en otro caso.
k−1
X 〈q ′j |vk 〉
qk′ = vk − λ j k q ′j , donde λ j k = ° °2 .
j =1 ° ′°
°q j °
Observemos que q2′ es igual a v2 y, por inducción, todos los coeficientes λ j k son
nulos. Por tanto, se llega a que qi′ = vi , i = 1, . . . , s. Si el conjunto de partida es
ortonormal, entonces qi = vi , i = 1, . . . , s.
El razonamiento anterior nos permite enunciar el siguiente resultado.
8.8. Factorización QR
8.8.1. Factorización QR reducida
El proceso de Gram-Schmidt ¡se puede ver también ¢ en la forma de facto-
rización de matrices. Sea A m×s = v1 v2 . . . vs una matriz con columnas
independientes. Cuando se aplica Gram-Schmidt a las columnas de A, estamos
calculando una base ortonormal {q1 , q2 , . . . , qs } de Col(A), donde
q1′ = v1 ,
q2′ = v2 − λ12 q1′ ,
..
.
qs′ = vs − λ1s q1′ − . . . − λs−1,s qs−1
′
.
v1 = q1′ = r 11 q1 ,
v2 = λ12 q1′ + q2′ = r 12 q1 + r 22 q2 ,
..
.
vs = λ1s q1′ + · · · + λs−1,s qs−1
′
+ qs′ = r 1s q1 + . . . + r s−1,s qs−1 + r ss qs ,
Observemos que todos los r i i son positivos, pues son normas de vectores. Te-
nemos así que A m×s = Q m×s R s×s , donde las columnas de Q forman una base
ortonormal de Col(A), y R es una matriz triangular superior con elementos no
nulos en la diagonal.
y habíamos calculado
1 0 1
1
0
1
1
0
q1 = p , q2 = , q3 = p .
2 0 0 3 1
−1 0 1
El cambio de base viene dado por los coeficientes λi j del proceso, y podemos
despejar los vectores vi en función de los vectores q j .
° ° p
v1 = °q1′ °
° q1
° ° ′° = 2 q1 ,
p
′°
v2 = λ12 °q1 ° q1 + q2° q2°
° ° ° = 2q +2q2
′° ′°
° ′° p 1 p
v3 = λ13 q1 q1 +λ23 q2 q2 + q3 q3 = 2 2q1 +q2 + 3q3 .
° ° ° °
lo que indica que podemos tomar para ampliar e1. Sea v4 = e1 . Hay que calcular
que sea ortogonal a q1′ , q2′ , q3′ . Efectuando los cálculos llegamos a
1/6
0
p
λ14 = 1/2, λ24 = 0, λ34 = 1/3, q4′ = , q4 = 6q4′ .
−1/3
1/6
Entonces
p p p
2 2 2 2
0
¢ 2 1
¡ ¢ ¡
A= v1 v2 v3 = q1 q2 q3 q4 p .
0 0 3
0 0 0
Complemento ortogonal
y
〈m|αv1 〉 = α〈m|v1 〉 = 0 para todo m ∈ M.
Esto es independiente de la estructura de M. Sin embargo, el caso que nos in-
teresa especialmente es cuando M es un subespacio vectorial W de dimensión
finita de V . En tal caso, existe una base finita de W formada por los vectores
w1 , . . . , wr . La definición impone, en principio, un conjunto infinito de condi-
ciones para caracterizar a los elementos de W ⊥ . Sin embargo, vamos a ver que
〈wi |x〉 = 0, i = 1, . . . , r
Entonces W ⊥ viene dado por las soluciones del sistema lineal homogéneo
½ −1/2
x1 −x2 = 0,
esto es W ⊥ = 〈h1 = −1/2 〉.
2x1 +x3 = 0,
1
V = W ⊕ W ⊥.
que resolvemos
" # x1 = −x3 ,
1 2 1 2 rref 1 0 1 0
µ ¶
−x4 ,
x2 =
−→ , ,
0 1 0 1 0 1 0 1 x = x3 ,
3
x4 = x4 ,
−1 0
0
⊥ −1
W = 〈 u3 = ,u = 〉.
1 4 0
0 1
Entonces
1
〈q1′ |v 〉 〈q2′ |v 〉 3 1
1
q1′ + q2′ = q1′ − q2′ =
proyW (v ) = .
〈q1′ |q1′ 〉 〈q2′ |q2′ 〉 5 5 1
1
(W1⊥ )⊥ = W1 .
P RUEBA :
〈v |w 〉 = 〈v |w1 〉 + 〈v |w2 〉 = 0.
| {z } | {z }
w1 ∈W1⊥ w2 ∈W2⊥
Ejemplo 8.9.4.- El espacio W debe ser de dimensión finita para que se cum-
plan las propiedades del complemento ortogonal. Consideremos V el R-espacio
vectorial de las sucesiones a = {an | an = 0 salvo un número finito de términos },
P
con el producto escalar 〈a|b〉 = i ≥1 ai b i . Para cada h ≥ 1, sea vh la sucesión
que contiene la entrada h-ésima igual a 1 y las restantes son iguales a cero. En-
tonces B = {vh | h ≥ 1} es una base ortonormal de V . Consideremos el subes-
pacio W generado por las combinaciones lineales finitas del conjunto de suce-
siones {v1 − v2 , v2 − v3 , . . .}. Este subespacio no es todo V , pues v1 6∈ W y no es
P
de dimensión finita. Si 0V 6= y entonces podemos escribir y = ni=1 ai vi para
ciertos números reales ai y an 6= 0. Si y ∈ W ⊥ , entonces
a1 − a2 = 0, a2 − a3 = 0, . . . , an − an+1 = 0,
y esto contradice el carácter no nulo de y . Por tanto, W ⊥ = 0V , aunque W 6= V .
Además, V 6= W ⊕ W ⊥ y (W ⊥ )⊥ = V 6= W .
Como consecuencia,
y
Cn = null(A) ⊕ null(A)⊥ = null(A) ⊕ Col(A ∗ ).
El conjunto ortogonal a S 0 = {q1 , q2 } está definido por las soluciones del sistema
lineal homogéneo
½
− 32 x1 + 1
x
3 2
+ 2
x
3 4
= 0,
x3 = 0.
De esta forma ya tenemos un conjunto ortogonal {q1 , q2 , q3′ , q4′ } que contiene al
original. Para que sea ortonormal, basta normalizar los vectores qi′ , i = 3, 4:
p p 4
5/5 5 15
p p
1 2 5/5 1 −2 5/15
° q3′ = , q4 = ° ′ ° q4′ =
q3 = ° .
°q ′ ° 0 ° q4 ° 0
3
p
0 5/3
4. Si consideramos la matriz
¡ ¢
T= h1 . . . h s
Análogamente para V ⊥ :
" # " # x1 = −x3 −2x4 ,
1 1 1 1 1 0 1 2
x4 ,
rref x2 =
−→ , ,
1 2 1 0 0 1 0 −1 x = x3 ,
3
x4 = x4 ,
−1 −2
0 1
⊥
V = 〈v3 = , v4 = 〉.
1 0
0 1
Entonces
1
1
U ∩ V = (U ⊥ + V ⊥ )⊥ = 〈w1 =
〉.
1
1
8.10. Isometrías
Recordemos que las matrices unitarias U verifican que U ∗ = U −1 , que es
equivalente a decir que sus columnas o filas forman una base ortonormal de
Cn . En el caso real, U t = U −1 , y las llamamos ortogonales.
También presentamos un tipo especial de homomorfismo entre espacios
vectoriales con producto escalar.
Isometría
Sean (V, 〈·|·〉V ), (W, 〈·|·〉W ) espacios vectoriales de dimensión finita con
producto escalar. Una aplicación lineal f : V → W es una isometría si
para todo v1 , v2 ∈ V .
µ ¶ a1
a1
v= 7 f (v ) = a2
→
a2
0
° f (v )°2 = 〈 f (v )| f (v )〉W = 〈v |v 〉V = kv k2 ,
° °
W V
es decir, conserva la
° norma.
° Recíprocamente, supongamos que f es una aplica-
ción lineal tal que f (v )°W = kv kV para todo v ∈ V . Como el producto escalar
°
se puede recuperar a partir de la norma (pág. 293), concluimos que f es una
isometría.
1. f es una isometría.
2. f es isomorfismo e isometría.
〈 f (vi )| f (v j )〉 = 〈vi |v j 〉 = δi j ,
Además,
à ! à !
n
X n
X
〈 f (u)| f (v )〉 = 〈 f ai vi | f b j vj 〉
i =1 j =1
n X
X n n
X
= ai b j 〈 f (vi )| f (v j )〉 = ai b i = 〈u|v 〉.
i =1 j =1 i =1
grupo, notado por O(n). Es claro que si A es una matriz ortogonal, entonces
1 = det(I ) = det(A A t ) = det(A)2 , de donde det(A) = ±1. El conjunto de matrices
ortogonales de orden n con determinante igual a 1 forma un grupo respecto al
producto, que notaremos por SO(n), y se denomina grupo especial ortogonal.
También es llamado el grupo de las rotaciones de Rn y representa los movi-
mientos directos.
Es interesante una reformulación del teorema de condición equivalente de
isometría (pág. 326) cuando el espacio vectorial de partida y llegada coinciden.
1. f es isometría.
° °
2. Si v ∈ V , entonces kv k = ° f (v )°.
P RUEBA : Si f es isometría,
° °2
kv k2 = 〈v |v 〉 = 〈 f (v )| f (v )〉 = ° f (v )° ,
° °
de donde kv k = ° f (v )°, pues son números no negativos. Como la norma de-
fine al producto escalar, la igualdad de las normas implica que f es isometría.
Tenemos así la equivalencia entre las dos primeras condiciones.
Sea entonces B = {v1 , . . . , vn } una base ortonormal de V y llamemos A =
MB ( f ). Por el teorema de equivalencia de isometrías, el conjunto { f (v1 ), . . . , f (vn )}
es una base ortonormal de V , de donde
〈 f (vi )| f (v j )〉 = δi j , i , j = 1, . . . , n.
Por el teorema de expresión del producto escalar respecto de una base ortonor-
mal (pág. 303), se tiene que
Supongamos ahora que existe una base ortonormal B tal que la matriz de
f respecto de la base B es unitaria. Si llamamos A es esta matriz, entonces
Teoremas espectrales
Lema de Schur
329
Depto. de Álgebra
f (v1 ) = λ1 v1 ,
f (v2 ) = 〈v1 | f (v2 )〉v1 + g (v2 ),
..
.
f (vn ) = 〈v1 | f (vn )〉v1 + g (vn ).
Por tanto,
λ1 ∗ . . . ∗
0
U1−1 AU1 = .. .
. A1
0
Los autovalores de A 1 son los mismos que los de A, eliminando λ1 , pues las
matrices A y U1−1 AU1 son semejantes. Por hipótesis de inducción, existe V2 uni-
taria de dimensión n − 1 tal que V2−1 A 1V2 es triangular superior. Sea
1 0 ... 0
0
U2 = .. .
. V2
0
Nota 9.1.2. A partir del lema de Schur podemos deducir fácilmente una re-
lación entre la traza y el determinante de una matriz A y sus autovalores. Si
T = U −1 AU , con T triangular, entonces los elementos diagonales ti i de T son
sus autovalores, que coinciden con los de A porque son matrices semejantes.
Entonces
n
det(A) = det(U T U −1 ) = det(T ) =
Y
ti i ,
i =1
n
traza(A) = traza(U T U −1 ) = traza(U −1U T ) = traza(T ) =
X
ti i .
i =1
En consecuencia,
2 1 0
A= 1 2 0
0 1 2
0 1 0 1 0 0
0
rref
1 0 0
A − λ1 I = −→ 0 1 0 , y un autovector es v1 = 0 .
1
0 1 0 0 0 0
1 0
U1 = 0 0 1 y U1−1 AU1 = 0 2 1 .
1 0 0 0 1 2
Observemos que en la primera fila de la nueva matriz tenemos el autovalor λ1
y
〈v1 | f (v2 )〉e = v1t (A v2 ) = 0, 〈v1 | f (v3 )〉e = v1t (A v3 ) = 1.
U2−1U1−1 AU1U2 = 0 1 0 .
0 0 3
La matriz unitaria buscada es
p p
0 1/ 2 1/ 2
p p
U1U2 = 0 −1/ 2 1/ 2 .
1 0 0
. . . B 1k
B 11 B 12
0 B 22 . . . B 2k
P t AP = .. .. .. .. , donde B j j es 1 × 1 o 2 × 2.
. . . .
0 0 . . . B kk
1. A es normal si A ∗ A = A A ∗ .
1 −1 2
A 2 = −1 3 0 ,
2 0 −3
entonces A 2 es simétrica.
Sea f 3 : R2 → R2 el endomorfismo definido por la matriz
µ 3 4 ¶
A3 = 5 5 .
− 45 3
5
T T ∗ = U ∗ AUU ∗ A ∗U = U ∗ A A ∗U = U ∗ A ∗ AU = T ∗ T.
|t11 |2 |t11 |2
µ ¶ µ ¶
∗ O1×(n−1) ∗ O1×(n−1)
TT = =T T = ,
O(n−1)×1 T1 T1∗ O(n−1)×1 T1∗ T1
A ∗ A = U D ∗U ∗U DU ∗ = U D ∗ DU ∗ = U DD ∗U ∗ = A A ∗ ,
Muchos tipos de matrices son normales. Entre ellas tenemos a las simétricas
reales y las hermitianas, las anti-simétricas reales y las anti-hermitianas, las
v ∗ A v = λv ∗ v , v ∗ A ∗ v = λv ∗ v ,
4 2 2
2 4 2 .
A=
2 2 4
0 1
Ahora aplicamos Gram-Schmidt a este conjunto para transformarlo en
un conjunto ortonormal.
′
q11 = v11 ,
′
′ ′ 〈q11 |v12 〉e 1
q12 = v12 − λ12 q11 , λ12 = ′ ′ = ,
〈q11 |q11 〉e 2
−1/2
′
q12 −1/2 ,
=
1
p
−1/2 2
1 ′
p
1/2 2
,
q11 = ° ° q11
°q ′ °
=
11
0
p
−1/6 6
1 ′
p
−1/6 6
.
q12 = ° ° q12
°q ′ °
=
12 p
1/3 6
2 −4 2
V1 (λ2 ) = null(A − λ2 I ) ⇒ x2 = 0 .
x3 0
2 2 −4
−4 2 2 1 0 −1
x1 = x3 ,
rref
2 −4 2 −
→ 0 1 −1 , x2 = x3 ,
x3 = x3 .
2 2 −4 0 0 0
Entonces
1
1 〉.
V1 (λ2 ) = 〈v21 =
1
Observemos, como era de esperar, que V1 (λ2 ) es un subespacio vectorial
ortogonal a V1 (λ1 ), es decir, los vectores v1i son ortogonales a los vectores
v2j . De nuevo, aplicamos Gram-Schmidt a V1 (λ2 ), pero aquí solamente
tenemos que normalizar el vector v21 :
p
1/3 3
1 p
q21 = v21 = 1/3 3 .
kv21 k
p
1/3 3
¡ ¢
Por tanto, la matriz Q = q11 q12 q21 es una matriz ortogonal formada por
autovectores, por lo que
2 0 0
Q t AQ =
0 2 0 .
0 0 8
P RUEBA :
kv k2 = 〈v |v 〉e = 〈A v |A v 〉e = λλ kv k2 ,
de donde |λ| = 1.
Ejemplo 9.3.1.-
3. La matriz
1 0
µ ¶
B=
0 −2
no es de ninguno de los tipos anteriores. Se suelen denominar indefini-
das.
v ∗ A v = v ∗C ∗C v = kC v k ≥ 0.
1. A es definida positiva.
P RUEBA :
(2) ⇒ (3) Si A = U DU ∗ con los autovalores positivos, podemos escribir D 1/2 la ma-
triz diagonal que contiene las raíces cuadradas de los autovalores. Enton-
ces
A = U DU ∗ = U D 1/2 D 1/2U ∗ = B ∗ B, para B = D 1/2U ∗ .
Es claro que B es no singular.
v ∗ A v = v ∗ B ∗ B v = kw k2 > 0.
Nota 9.3.1. Las matrices semidefinidas positiva tienen una caracterización si-
milar. De forma completamente análoga a la prueba anterior, se tiene que si A
es una matriz hermitiana, entonces son equivalente
1. A es semidefinida positiva.
u∗W ∗ AW u = v ∗ A v > 0.
W = e j1 . . . e jr .
¡ ¢
1 0∗
µ ¶
L1 = .
− a111 w I
0∗
µ ¶
t a11
B = L 1 AL 1 = .
0 − a1 ww ∗ +C 1
11
5 4 4
Entonces
5 3
µ ¶
det(A 1 ) = 5, det(A 2 ) = det = 11, det(A 3 ) = det(A) = −16,
3 4
por lo que A no es definida positiva.
Mediante la eliminación gaussiana, empezamos con el elemento a11 = 5 >
0. Procedemos a hacer ceros en la primera columna:
F2 − 53 F1
5 3 5
F3 − F1 11
0
A −−−−−−−−→ B = 5 1
.
0 1 −1
El elemento b 22 = 11/5 > 0, por lo que continuamos el proceso.
5 3 5
5
F3 − 11 F2 11
B −−−−→C = 0 5 1 .
16
0 0 − 11
El elemento c33 = −16/11 < 0, por lo que la matriz A no es definida positiva.
1
µ ¶
Hn = , con i , j = 1, . . ., n.
i + j −1
Por ejemplo,
1 1
1
1 2 3
1
µ ¶
2 1 1 1
H2 = 1 1 , H3 = 2 3 4
.
2 3 1 1 1
3 4 5
Por la definición, Hn es una matriz simétrica, y la submatriz de Hn formada por
las k primeras filas y columnas es Hk . Nuestro objetivo es probar que la matriz
Hn es definida positiva. Para ello, basta ver que para cada m ≥ 1, el determi-
nante de Hm es positivo, pues la caracterización por los menores principales
implica el resultado.
Consideramos un problema más general, pero que permite resolver lo an-
terior de manera sencilla. Sean a1 , . . . , an , b 1 , . . . , b n números
³ cualesquiera,
´ con
1
ai + b j 6= 0, y definimos la matriz de orden n dada por A = a +b . Entonces
i j
n
Y 1
det(A) = (a j − ak )(b j − b k ) Qn .
j ,k=1 (a + b k )
j ,k=1 j
j >k
an − a1 , an − a2 , . . . , an − an−1 , 1.
b n − b 1 , b n − b 2 , . . . , b n − b n−1 , 1,
y
1 1 1
, ,..., , 1.
a1 + bn a2 + bn an−1 + b n
Se desarrolla el determinante por la última fila, y se obtiene el determinante de
una matriz de la misma forma que A, pero de orden n − 1. Aplicamos entonces
la hipótesis de inducción, y obtenemos el resultado.
p 1
σi = λi , i = 1, . . ., r, ui = A vi ∈ Km , i = 1, . . . , r.
σi
1 λi
〈ui |u j 〉e = vi∗ A ∗ A v j = 〈vi |v j 〉e = 0.
σi σ j σi σ j
Por tanto, los vectores u1 , . . . , ur son unitarios y ortogonales entre sí. Comple-
tamos, mediante Gram-Schmidt o QR, a una base ortonormal del espacio
{u1 , . . . , ur , ur +1 , . . . , um }.
Sean
u1 u2 . . . um ,V = v1 v2 . . . vn .
¡ ¢ ¡ ¢
U=
U ∗ AV = U ∗ A v1 v2 . . . vn = U ∗ A v1 A v2 . . . A vn
¡ ¢ ¡ ¢
= U ∗ σ1 u1 σ2 u2 . . . σr ur A vr +1 . . . A vn .
¡ ¢
U ∗ AV = U ∗ σ 1 u1 σ 2 u2 . . . σ r ur 0 ... 0
¡ ¢
∗
u1
u∗
2
¡
σ 1 u1 σ 2 u2 . . . σ r ur 0 ... 0
¢
= .
..
u∗m
σ1
σ2
..
.
= σr = Σm×n ,
0
..
.
0
y tenemos el resultado.
A = 0 1 .
1 0
2 1
µ ¶
t
1. Los autovalores de la matriz A A = son λ1 = 3, λ2 = 1.
1 2
Para λ1 ,
1 1 −1
" # " #
t
−1 rref
A A − λ1 I = −→ ,
1 −1 0 0
1
µ ¶
w1 = ,V1 (λ1 ) = 〈w1 〉.
1
1 1 1
µ ¶
v1 = w1 = p .
kw1 k 2 1
Para λ2 ,
1 1 1 1
" # " #
t rref
A A − λ2 I = −
→ ,
1 1 0 0
µ ¶
−1
w2 = ,V1 (λ2 ) = 〈w2 〉.
1
1 1
µ ¶
−1
v2 = w2 = p .
kw2 k 2 1
con vi asociado a λi .
6. Definimos
1 1 2
1 1 1 1 1
µ ¶
u1 = A v1 = p 0 1 p = p 1 ,
σ1 3 1 0 2 1 6 1
1 1 0
1 1 1
µ ¶
−1
u2 = A v2 = 0 1 p = p 1 .
σ2 2 1 2 −1
1 0
x2 −x3 = 0.
Entonces
−1
〈 u1 , u2 〉 ⊥ = 〈 w 3 =
1 〉.
rango(A) = r .
De aquí,
µ ¶
a11 −∆a21 2 2
A= , con a11 + a21 = 1.
a21 ∆a11
µ ¶ µ ¶
a −b a b
(a) , (b) , a 2 + b 2 = 1.
b a b −a
³ ´
cos(θ) −sen(θ)
En el caso (a), existe θ ∈ [0, 2π) tal que A = sen(θ) cos(θ) . En el caso (b), los
autovalores son 1 y −1 y el teorema de diagonalización
¡ 1 0 ¢ de matrices normales
t
nos dice que existe U ortogonal tal que U AU = 0 −1 .
En términos de isometrías, si (V, 〈·|·〉) es un espacio vectorial euclídeo de
dimensión 2 y f : V → V es una isometría, entonces respecto a cualquier base
ortonormal B se tiene que
µ ¶ µ ¶
a −b a b
MB ( f ) = o bien MB ( f ) = ,
b a b −a
con a 2 + b 2 = 1.
P RUEBA :
λv = g (v ) = 2v + f (v ) + f −1 (v ), luego λ f (v ) = f (λv ) = 2 f (v ) + f 2 (v ) + v .
Ip
−I q
cos(θi ) − sen(θi )
µ ¶
MB ( f ) =
A1 , con A i =
.
.. sen(θi ) cos(θi )
.
Ar
P RUEBA : Paso 1. Vamos a ver en primer lugar que existe una descomposi-
ción
V = W1 ⊕ · · · ⊕ Wm ,
donde los subespacio Wi son invariantes por f , ortogonales dos a dos y dimWi ≤
2, i = 1, . . . , m. Aplicamos inducción sobre n. Para n = 2 no hay nada que probar.
Supongamos el resultado cierto para espacios vectoriales euclídeos de dimen-
sión menor que n. Por la segunda parte del teorema de los subespacios inva-
riantes de isometrías (pág. 354), existe W1 subespacio invariante con dimW1 ≤
2. Por la primera parte del mismo teorema, f (W1⊥ ) ⊂ W1⊥ , por lo que podemos
considerar la restricción g = f |W ⊥ : W1⊥ → W1⊥ . Como dimW1⊥ < dimV , aplica-
1
mos la hipótesis de inducción y descomponemos
W1⊥ = W2 ⊕ · · · ⊕ Wm
con los subespacios Wk invariantes por g , ortogonales dos a dos y dimWk ≤
2, k = 2, . . . , m. A partir de la igualdad V = W1 ⊕ W1⊥ , tenemos el resultado para
f.
Paso 2. Procedemos a calcular la base B. En la descomposición del paso
1, elegimos los subespacios Wi tales que f |Wi = idWi . A la suma directa de es-
tos subespacios la notamos por U1 = 〈u1 , . . . , up 〉, con base ortonormal forma-
da por los autovectores del autovalor 1. Seleccionamos los W j tales que f |W j =
− idW j , y a su suma directa la notamos por U2 = 〈up+1 , . . . , up+q 〉, con base or-
tonormal formada por los autovectores del autovalor −1. Los restantes subes-
pacios Wk son de dimensión 2 (si fueran de dimensión 1, la restricción de una
Ip
−I q
cos(θi ) − sen(θi )
µ ¶
t A1
U AU = , con A i = ,
.. sen(θi ) cos(θi )
.
Ar
V = U1 ⊕U2 ⊕ W1 ⊕ · · · ⊕ Wr ,
Espacios afines
10.1. Definiciones
La teoría de espacios vectoriales modela la estructura algebraica de los con-
juntos de soluciones de sistemas de ecuaciones lineales homogéneas. Los con-
juntos de soluciones de sistemas de ecuaciones lineales no homogéneas se mo-
delan mediante la teoría de espacios afines, que tiene un carácter más geomé-
trico.
Espacio afín
1. P + 0 = P .
2. (P + u) + v = P + (u + v ).
−−→
El vector w de (3) se denota PQ. Los elementos del conjunto E se llaman pun-
tos. El espacio vectorial V se denomina espacio de direcciones. Es conveniente
359
Depto. de Álgebra
V → E,
v 7→ P + v ,
es biyectiva.
Propiedades elementales
luego
−−→ −→ −→ −−→
PQ − SR = P S − QR,
por tanto un término de esta ecuación se anula si y sólo si se anula el otro, que
es lo que dice (4).
Puntos y vectores
−−−−−−−−−−−→
P RUEBA : Sea w = (P + u)(Q + v ) y llamemos P 1 = P + u,Q 1 = Q + v . Entonces
−−−→ −−→ −−−→
w = P 1Q 1 , u = P P 1 , v = QQ 1 ,
de donde
−−−→ −−→ −−→ −−−→ −−→
w = P 1Q 1 = P 1 P + PQ + QQ 1 = −u + PQ + v .
R = {O; v1 , . . . , vn }.
P = O + a1 v1 + · · · + an vn .
−−→
Esto se deduce de la expresión del vector OP con respecto a la base {v1 , . . . , vn }
dada por
−−→
OP = a1 v1 + · · · + an vn ,
−−→
y vemos que los ai son simplemente las coordenadas de OP respecto de la base
vectorial, que sabemos que existen y son únicas. Decimos que (a1 , . . . , an ) son
las coordenadas del punto P respecto del sistema de referencia R, y lo notare-
mos por
P R = (a1 , . . . , an ),
aunque en las fórmulas matriciales que aparecen más adelante lo tomaremos
siempre como un vector columna.
Nota 10.2.1. Las coordenadas de P = (a1 , . . . , an ) ∈ An (K) respecto del sistema
de referencia canónico son P R c = (a1 , . . . , an ). Es más, la asignación de coorde-
nadas respecto de R es una aplicación biyectiva,
E → An (K),
P 7→ P R ,
1 1
µ ¶ µ ¶
′
M(R, R ) = .
PR PR′
1. M(R, R) = I n+1 .
Es claro que R ′ es un nuevo sistema de referencia, pues {u′1 , u′2 } es base del
espacio vectorial. La matriz del cambio de sistema de referencia de R ′ a R es
1 0 0 1 0 0
1 0 0 1 1
1/2 1/2 1/2 1 = 3/2 ,
3/2 −1/2 1/2 1 3/2
de donde P R ′ = ( 23 , 23 ).
P
u2
O u1
3 ′
2 u2 3 ′
2 u1
u 2′ = −u 1 + u 2 u 1′ = u 1 + u 2
O′
En los espacios afines reales, las ecuaciones del cambio de sistema de refe-
rencia nos permiten definir la orientación.
Igualdad de la orientación
e1 e1
O O
Por tanto, no hay una orientación intrínseca en un espacio afín real. Para
hablar de orientación positiva o negativa es necesario fijar un sistema de refe-
rencia y con respecto a él referimos el carácter positivo o negativo de los res-
tantes sistemas. Vamos a examinar lo que ocurre en los espacios de dimensión
1, 2 y 3.
Cuando dibujamos la recta real de forma horizontal, usualmente asigna-
mos la orientación de izquierda a derecha como la orientación positiva. En el
plano real, la orientación positiva se asocia con el paso de e1 a e2 en el sentido
contrario a las agujas del reloj.
En el espacio tridimensional, la orientación positiva se asigna según la regla
del sacacorchos: desde el extremo del vector e3 , el paso de e1 a e2 se realiza en
el sentido contrario a las agujas del reloj.
e2 e1
O O
e1 e2
e3 e3
e2 e1
e1 e2
Independencia afín
(P i )R = (a1i , . . . , ani ), 0 ≤ i ≤ r.
Consideremos la matriz
1 1 1
···
a10 a11 ··· a1r
A= .. .. .. .. .
. . . .
an0 an1 · · · anr
1 0 0
···
a10 a11 − a10 ··· a1r − a10
.. .. .. .. ,
.
. . .
an0 an1 − an0 · · · anr − an0
luego si B es la submatriz
a11 − a10 · · · a1r − a10
.. .. ..
B = . . . ,
entonces
rango A = 1 + rangoB.
−−−→ −−−→
Las columnas de B son las coordenadas de los vectores {P 0 P 1 , . . . , P 0 P r } ⊂ D(E )
respecto de la base {v1 , . . . , vn }, y por tanto S es afínmente independiente si y
solamente si rango A = r + 1.
Es de hacer notar que la propiedad de ser {P 0 , P 1 , . . . , P r } ⊂ E afínmente in-
dependiente no depende del orden de los puntos, pues el rango de la matriz A
no se altera por la permutación de sus columnas.
P 0 = (1, 0, 1, 0), P 1 = (2, 1, 3, −1), P 2 = (1, 1, −2, 0), P 3 = (2, 2, 0, 1), P 4 = (3, 3, 2, −2).
Formamos la matriz
1 1 1 1 1
1 2 1 2 3
A= 0 1 1 2 3 ,
1 3 −2 0 2
0 −1 0 1 −2
−−−→
lo que prueba que el vector P 0 P 4 depende linealmente de los restantes.
Subespacio afín
P + 0 = P, (P + u) + v = P + (u + v )
X = P + W = {P + w | w ∈ W }
es un subespacio afín.
1. Sea Q = P + w0 y w ∈ W . Entonces Q + w = P + w0 + w y w0 + w ∈ W .
Q 1 + (w2 − w1 ) = P + w2 = Q 2 ,
−−−→
de donde Q 1Q 2 = w2 − w1 ∈ W .
1. Si Q ∈ X entonces X = Q + W .
−−→
2. El conjunto W ′ = {PQ | Q ∈ X } es un subespacio vectorial y W =
W ′.
P RUEBA :
−−→
1. Q + W = P + PQ + W = P + W .
X = {P 0 + w | w ∈ W } ⊂ {P 0 + u | u ∈ U } = Y .
Ejemplo 10.3.3.- Todo espacio afín E contiene al espacio afín total E y al vacío
;. Si E no es vacío todo punto P ∈ E define un subespacio afín P = ({P }, {0}, +)
con espacio de direcciones trivial.
Un sistema de ecuaciones
a11 x1 + · · · + a1n xn = b 1 ,
.. .. .. ..
X: . . . .
am1 x1 + · · · + amn xn = b m ,
a11 y 1 + · · · + a1n y n = 0,
.. .. .. ..
D(X ) : . . . .
am1 y 1 + · · · + amn y n = 0,
t
X
xi = ai + λ j v i j , i = 1, . . . , n
j =1
−−−→
donde P 0 = (a1 , . . . , an ) y P 0 P j = (v i j ) se denominan ecuaciones paramétricas
de X .
Si un subespacio afín X está definido por un conjunto de puntos {P 0, P 1 , . . . , P t }
afínmente independientes, entonces
−−−→
X = P 0 + 〈{P 0 P j , j = 1, . . . , t }〉.
−−−→ −−−→
P 0 P j tiene coordenadas [P 0 P j ]B = (v i j ) y [P 0 ]R = (ai ), esto es equivalente a
que
v 11 · · · v 1t x1 − a1
. .. .. ..
rango .. . . . = t,
v n1 · · · v nt xn − an
o bien
1 1 ... 1 1
µ ¶
rango = t + 1,
P0 P1 . . . Pt P
donde P i representa las coordenadas de cada punto. Calculamos entonces una
forma escalonada por filas y llegamos a una matriz de la forma
α1 ∗ ... ∗ ∗
0 α2 ... ∗ ∗
.. .. .. .. ..
. . . . .
0 0 . . . αt ∗ ,
0 0 ... 0 H1
.. .. .. .. ..
. . . . .
0 0 ... 0 Hn−t
ai 1 x1 + · · · + ai n xn − b i , i = 1, . . . , n − t .
Entonces
−y 1 − y 2 + y 3 = 0, −x1 − x2 + x3 = 0,
½ ½
D(X ) : de donde X :
2/3y 2 + y 4 = 0, 2/3x2 + x4 = 1/3.
= p 1 + λ1 v 1 ,
x1 v1
x2 = p 2 + λ1 v 2 , v2
r: .. donde vB = .. .
. .
xn = p n + λ1 v n , vn
Posiciones relativas
2+λ 1 + ν,
=
1+λ
= −1 + ν,
es incompatible.
−1 + λ − µ = ν,
1+λ+µ
= ν,
Quinto postulado
nes \ \
D( X i ) = D(X i ) ⊂ D(E ).
i ∈I i ∈I
n
Nota 10.5.1. Si X , Y ⊂ A (K) son subespacios afines definidos por los siguientes
sistemas de ecuaciones con n incógnitas,
a11 x1 + · · · + a1n xn = b 1 ,
.. .. .. ..
X: . . . .
a p1 x1 + · · · + a pn xn = b p ,
′ ′ ′
a11 x1 + · · · + a1n xn = b 1 ,
.. .. .. ..
Y : . . . .
′ ′
xn = b q′ ,
a q1 x1 + · · · + a qn
entonces X ∩ Y ⊂ An (K) está definido por el siguiente sistema de p + q ecua-
ciones con n incógnitas,
a x + · · · + a1n xn = b 1 ,
11 1
.. .. ..
..
.
. . .
a x + ··· + a x = b ,
p1 1 pn n p
X ∩Y : ′ ′ ′
a 11 1 x + · · · + a 1n n x = b 1,
.. .. .. ..
.
. . .
a′ x + · · · + a′ x
= b′ .
q1 1 qn n q
Criterio de intersección
P +u =Q −v ∈ X ∩Y,
y la intersección es no vacía.
P RUEBA :
Como X , Y ⊂ X +Y la inclusión {P 0 , . . . , P r ,Q 0 , . . . ,Q s } ⊂ X +Y es cierta, luego
por el carácter mínimo de la variedad generada tenemos
〈P 0 , . . . , P r ,Q 0 , . . . ,Q s 〉 ⊂ X + Y .
Por otro lado X , Y ⊂ 〈P 0 , . . . , P r ,Q 0 , . . . ,Q s 〉, así que la igualdad,
〈P 0 , . . . , P r ,Q 0 , . . . ,Q s 〉 = X + Y ,
se sigue de la definición anterior.
Dirección de la suma
x1 = 2 + λ1 , x1 = 2λ2 , x1 = 3 + 2λ3 ,
x2 = 1 + λ1 , x2 = 2 x2 = 2,
r1 : , r2 : , r3 :
x = −1 − λ1 , x3 = 1 − λ2 , x3 = −2 − λ3 ,
3
x4 = −λ1 , x4 = 0,
x4 = −1.
Podemos escribir
−−−−−−−−−→
r 1 = P 1 + 〈u1 〉, P 1 = (2, 1, −1, 0), u1 = (1, 1, −1, −1),
−−−−−−−−→
r 2 = P 2 + 〈u2 〉, P 2 = (0, 2, 1, 0), u2 = (2, 0, −1, 0),
−−−−−−−−→
r 3 = P 3 + 〈u3 〉, P 3 = (3, 2, −2, −1), u3 = (2, 0, −1, 0).
2 + λ1 2λ2 ,
=
1 + λ1 2,
=
−1 − λ1 = 1 − λ2 ,
0,
−λ1 =
2 + λ1 3 + 2λ3 ,
=
1 + λ1 2,
=
−1 − λ1 = −2 − λ3 ,
−λ1 = −1,
2λ2 3 + 2λ3 ,
=
2 2,
=
1 − λ2 = −2 − λ3 ,
0
= −1,
es incompatible. Dado que D(r 2 ) = D(r 3 ), las rectas son paralelas y disjuntas.
Además,
−−−→ −−−→ −−−−−−−−−→
r 2 + r 3 = P 2 + 〈u2 , u3 , P 2 P 3 〉, P 2 P 3 = (3, 0, −3, −1),
que es un subespacio afín de dimensión igual a 2.
Teorema de la dimensión
Si X ∩ Y = ; entonces
se reduce a
D(X + Y ) = D(X ) + D(Y )
al tomar P = Q el punto de intersección. Entonces
dim(X + Y ) = dimD(X + Y )
= dimD(X ) + dim D(Y ) − dim[D(X ) ∩ D(Y )]
= dim X + dim Y − dim(X ∩ Y ),
y
−−→
dim(X + Y ) = dim[D(X ) + D(Y ) + 〈PQ〉)
−−→ −−→
= dim(D(X ) + D(Y )) + dim〈PQ〉 − dim[(D(X ) + D(Y )) ∩ 〈PQ〉]
= dimD(X ) + dim D(Y ) − dim(D(X ) ∩ D(Y )) + 1
= dim X + dim Y − dim(D(X ) ∩ D(Y )) + 1.
Ejemplo 10.5.4.- Usaremos los datos del ejemplo 10.5.3 (pág. 382) para verifi-
car que se cumple la fórmula de la dimensión. Tenemos los siguientes casos:
Entonces dim(r 1 + r 2 ) = 2 − 0 = 2.
Entonces dim(r 1 + r 2 ) = 2.
10.6. Baricentro
1 −−−→
G = P1 + P1P2.
2
−−→ −−−→
Observemos que 2P 1G = P 1 P 2 .
Segmento
Semirrecta
Medianas de un triángulo
−→ 2 −−→
AG = AM , donde M es el punto medio de BC .
3
λ − 1 − µ = 0, 1 − µ − µ = 0,
Semiespacio
H+ : a 1 x 1 + · · · + a n x n ≥ a 0 , H− : a 1 x 1 + · · · + a n x n ≤ a 0
Aplicaciones afines
Hasta ahora la única relación vista entre espacios afines diferentes es la in-
clusión. En este tema estudiaremos una nueva relación: las aplicaciones afines,
que son las aplicaciones entre espacios afines que preservan toda la estructura
que estos poseen.
A lo largo de este tema K designará un cuerpo sobre el que estarán definidos
todos los espacios afines y vectoriales.
Aplicación afín
391
Depto. de Álgebra
→
−
P RUEBA : Si f es una aplicación afín, basta tomar ϕ = f . En efecto, si Q = P + v ,
entonces
→
− →
− −−→ −−−−−−−→
f (v ) = f (PQ) = f (P ) f (Q)
→
−
y f (Q) = f (P ) + f (v ). Recíprocamente, supongamos que existe ϕ : V → V ′ ho-
−−→
momorfismo y algún P ∈ E en las condiciones dadas. De la relación Q = P + PQ
se sigue que
−−→
f (Q) = f (P ) + ϕ(PQ),
−−→ −−−−−−−→ −−→
de donde ϕ(PQ) = f (P ) f (Q) = f P (PQ). Por tanto, f P es un homomorfismo y f
es una aplicación afín.
→
− −−→
P RUEBA : Si f es una aplicación afín, existe f : V → V ′ homomorfismo. Si PQ =
−→
αRS, entonces
→
− −−→ → − −→ →
− −→
f (PQ) = f (αRS) = α f (RS),
de donde
−−−−−−−→ −−−−−−−→
f (P ) f (Q) = α f (R) f (S).
Supongamos ahora la segunda condición. Fijamos un punto P y consideramos
la aplicación inducida f P . Observemos que si R es otro punto, y tomamos v ∈ V ,
−−→ −→
podemos construir Q = P + v , S = R + v . Entonces PQ = v = RS y la condición
−−−−−−−→ −−−−−−−→
implica f (P ) f (Q) = f (R) f (S), de donde f P = f R . Sean entonces u, v ∈ V y los
−→ −→
escribimos u = P R, v = RC . Entonces
−→ −→ −→
f P (u + v ) = f P (P R + RC ) = f P (PC )
−−−−−−−→ −−−−−−−→ −−−−−−−→
= f (P ) f (C ) = f (P ) f (R) + f (R) f (C ) = f P (u) + f R (v ) = f P (u) + f P (v ).
f g
E → E ′ → E ′′ .
−−−→ → − →−
Entonces g ◦ f es una aplicación afín y g ◦ f = g ◦ f .
P RUEBA : Si P ∈ E y v ∈ V , entonces
→
− − →
→ −
(g ◦ f )(P + v ) = g ( f (P ) + f (v )) = (g ◦ f )(P ) + ( g ◦ f )(v ).
Por la igualdad fundamental de las aplicaciones afines, g ◦ f es una aplicación
−−−→ → − →−
afín y g ◦ f = g ◦ f .
−−−→ −−−→
P RUEBA : Como {P 0 P 1 , . . . , P 0 P n } ⊂ D(E ) es una base, existe un único homomor-
−−−→ −−−→
fismo ϕ : D(E ) → D(E ′ ) tal que ϕ(P 0 P i ) = Q 0Q i , 1 ≤ i ≤ n. La única aplicación
→
−
afín f : E → E ′ tal que f (P 0 ) = Q 0 y f = ϕ satisface
−−−→ −−−→ −−−→
f (P i ) = f (P 0 + P 0 P i ) = f (P 0 ) + ϕ(P 0 P i ) = Q 0 + Q 0Q i = Q i , 1 ≤ i ≤ n.
Recíprocamente, si g es una aplicación afín que satisface las ecuaciones del
enunciado entonces
− −−−→ −−−−−−−−→ −−−→
→
g (P 0 P i ) = g (P 0 )g (P i ) = Q 0Q i , 1 ≤ i ≤ n,
por tanto g coincide con f .
R = {O; v1 , . . . , vn }, = {O; B} R ′ = {O ′ ; w1 , . . . , wm } = {O ′ ; B ′ },
1 0 ··· 0
à !
MR,R ′ ( f ) = →
− ∈ M ((m + 1) × (n + 1), K).
f (O)R ′ MB,B ′ ( f )
Ejemplo 11.2.1.-
1 0 ... 0
a1 1 ... 0 1 0
µ ¶
.. .. = .
. u In
.
an 0 . . . 1
P 0 = (1, −1), P 1 = (2, 3), P 2 = (1, 0),Q 0 = (1, 2),Q 1 = (1, 1),Q 2 = (0, 2).
−1 = α1 ,
½
de donde α1 = −1, α2 = 5.
1 = 4α1 +α2 ,
Entonces
−−−→ −−−→
f (O) = Q 0 + α1Q 0Q 1 + α2Q 0Q 2 = (−4, 3).
→
−
Ahora debemos calcular la matriz de la aplicación lineal f respecto de la
base estándar, que es igual a
→
− ³
→
− →
−
´
MS ( f ) = [ f (e1 )]S [ f (e2 )]S .
1 0 1 0 1 0 1 0
µ ¶ µ ¶
rref
−
→ .
4 1 0 1 0 1 −4 1
Entonces
−−−→ −−−→ −−−→ −−−→
e1 = 1 · P 0 P 1 − 4 · P 0 P 2 , e2 = 0 · P 0 P 1 + 1 · P 0 P 2 ,
y
→
− −−−→ −−−→ −−−−→ → − −−−→ −−−−→
f (e1 ) = Q 0Q 1 − 4Q 0Q 2 = (4, −1), f (e2 ) = Q 0Q 2 = (−1, 0).
Por tanto,
1 0 0
4 −1
µ ¶
→
−
MS ( f ) = y MR c ( f ) = −4 4 −1 .
−1 0
3 −1 0
Observemos que el primer sistema para calcular las coordenadas del pun-
−−−→ −−−→
to O respecto al sistema de referencia {P 0 , ; P 0 P 1 , P 0 P 2 } tiene la misma
matriz de coeficientes que en los siguientes sistemas. Entonces se pue-
de plantear la reducción
1 0 −1 1 0 rref 1 0 −1 1 0
µ ¶ µ ¶
= I A2 ,
¡ ¢
−→
4 1 1 0 1 0 1 5 −4 1
y la matriz de la aplicación afín f respecto al sistema de referencia R es
1 0 0 1 0 0
1 0 0 1 0 0
µ ¶µ ¶
−−−→ −−−→ = 1 0 −1 −1 1 0
Q 0 Q 0Q 1 Q 0Q 2 A2
2 −1 0 5 −4 1
1 0 0
= −4 4 −1 .
3 −1 0
1 1
µ ¶ µ ¶
= MR,R ′ ( f ) .
f (P )R ′ PR
P 0 = (1, −1), P 1 = (2, 3), P 2 = (1, 0),Q 0 = (1, 2),Q 1 = (1, 1),Q 2 = (0, 2).
1 0 0 1 1 1 1 1 1
b 1 a11 a12 1 2 1 = 1 1 0
b 2 a21 a22 −1 3 0 2 1 2
1 0 0
X = A 2 A −1
1 = −4
4 .
−1
3 −1 0
1 0 0
···
b 1 a11 · · · a1n
. .. ..
.. ..
. . .
bm am1 · · · amn
Sabemos que existe un único homomorfismo ϕ : D(E ) → D(E ′ ) cuya matriz res-
pecto de las bases B y B ′ es
a11 · · · a1n
.. .. ..
. . . .
am1 · · · amn
f g
E → E ′ → E ′′
MR,R ′′ (g ◦ f ) = MR ′ ,R ′′ (g )MR,R ′ ( f ).
respectivamente, entonces
1 0 ··· 0 1 0 ··· 0
à !à !
MR ′ ,R ′′ (g )MR,R ′ ( f ) = →
− →
−
g (O ′ )R ′′ MB ′ ,B ′′ ( g ) f (O)R ′ MB,B ′ ( f )
à !
³
1
´ 0 ··· 0
= MR ′ ,R ′′ (g ) f (O)R ′ →
− →
−
MB ′ ,B ′′ ( g )MB,B ′ ( f )
1 0 ··· 0
à !
= − →
→ −
g ( f (O))R ′′ MB,B ′′ ( g ◦ f )
= MR,R ′′ (g ◦ f ).
11.3. Afinidades
Afinidad
Ejemplo 11.3.1.-
P RUEBA :
→
−
f es inyectiva si y solamente si f es inyectiva.
−−→ →
−
Sea PQ = v ∈ V tal que f (v ) = 0. Entonces
→− −−→ −−−−−−−→
0 = f (PQ) = f (P ) f (Q), de donde f (P ) = f (Q).
Si f es inyectiva, entonces P = Q y v = 0.
→
−
Supongamos ahora que f es inyectiva y tomemos P,Q ∈ E tales que f (P ) =
−−−−−−−→ → − −−→ −−→
f (Q). Entonces 0 = f (P ) f (Q) = f (PQ), y de aquí PQ = 0, esto es, P = Q.
→
−
f es sobreyectiva si y solamente si f es sobreyectiva.
−−−→
Sea P ′Q ′ = v ′ ∈ V ′ y tomemos P,Q ∈ E tales que f (P ) = P ′ , f (Q) = Q ′ ; exis-
−−→
ten estos puntos porque f es sobreyectiva. Para v = PQ se verifica que
→
− −−−−−−−→ −−−→
f (v ) = f (P ) f (Q) = P ′Q ′ = v ′ .
→
−
Supongamos ahora que f es sobreyectiva y sea Q ′ ∈ E ′ . Tomemos cual-
−−−−−→
quier punto P ∈ E y construimos el vector v ′ = f (P )Q ′ . Existe entonces
−−−−−→ →
−
v ∈ V tal que f (P )Q ′ = v ′ = f (v ). Entonces
→
− −−−−−→
f (P + v ) = f (P ) + f (v ) = f (P ) + f (P )Q ′ = Q ′ .
→
−
Por lo anterior, f es afinidad si y solamente si f es isomorfismo.
→
− →
−
Supongamos que f y f son biyectivas. Entonces f −1 es un homomorfis-
mo y para cada P ′ ∈ E ′ y v ′ ∈ V ′ se tiene la igualdad
→
−
f −1 (P ′ + v ′ ) = f −1 (P ′ ) + ( f )−1 (v ′ ).
En efecto,
→
− →
− → −
f ( f −1 (P ′ ) + f −1 (v ′ )) = f ( f −1 (P ′ )) + f ( f −1 (v ′ )) = P ′ + v ′ .
Por la igualdad fundamental de las aplicaciones afines, f −1 es una apli-
−−→ → −
cación afín y f −1 = f −1 .
Nota 11.3.1. Las afinidades no se pueden dar entre espacios cualesquiera. Da-
dos dos espacios afines no vacíos E y E ′, existe una afinidad f : E → E ′ si y
solamente si dim E = dim E ′. Si f es una afinidad, por la proposición anterior
→
−
f : D(E ) → D(E ′ ) es un isomorfismo, luego
por tanto existe un isomorfismo ϕ : D(E ) → D(E ′ ). Dados dos puntos cuales-
quiera P ∈ E y P ′ ∈ E ′, la única aplicación afín f : E → E ′ tal que f (P ) = P ′ y
→
−
f = ϕ es una afinidad por la caracterización de una afinidad.
Como las dos matrices de la izquierda son invertibles, esta ecuación prueba
que una es la inversa de la otra.
→
− →
−
P RUEBA : Sea R ′ = { f (O); f (u1 ), . . . , f (un )}, que es un sistema de referencia
porque f es afinidad. La matriz del cambio de sistemas de referencia M(R ′ , R)
coincide con la matriz de f respecto de R, de donde tenemos el resultado.
de donde Q ′ ∈ f (L).
−−−→ −−−→
Además, L = 〈P 0 , . . . , P r 〉 si y solamente si P 0 ∈ L y D(L) = 〈P 0 P 1 , . . . , P 0 P r 〉, y
en tal caso
→
−
f (L) = f (P 0 ) + f (D(L))
→
− −−−→ →
− −−−→
= f (P 0 ) + 〈 f (P 0 P 1 ), . . . , f (P 0 P r )〉
→− −−−→ →
− −−−→
= 〈 f (P 0 ), f (P 0 ) + f (P 0 P 1 ), . . . , f (P 0 ) + f (P 0 P r )〉
−−−−−−−−→ −−−−−−−−→
= 〈 f (P 0 ), f (P 0 ) + f (P 0 ) f (P 1 )), . . . , f (P 0 ) + f (P 0 ) f (P r ))〉
= 〈 f (P 0 ), f (P 1 ), . . . , f (P r )〉.
Como
1 0 0 0 1 1 1 1 1 1
1 1 0 1 1 2 1 2 3 1
= ,
1 0 1 1 −1 −1 0 0 0 0
0 1 −1 0 0 0 −1 2 3 1
−−−→ −−−→
concluimos que f (L) = 〈Q 0 = (2, 0, 2),Q 1 = (3, 0, 3),Q 2 = (1, 0, 1)〉 = Q 0 +〈Q 0Q 1 , Q 0Q 2 〉 =
−−−−−→
(2, 0, 2) + 〈(1, 0, 1)〉.
a11 x1 + · · · + a1n xn = b 1 ,
.. .. .. ..
. . . .
am1 x1 + · · · + amn xn = b m ,
o en forma matricial
A x = b.
− b 1 + a11 x1 + · · · + a1n xn = 0,
.. .. .. .. ..
. . . . .
− b m + am1 x1 + · · · + amn xn = 0,
1
µ ¶
(−b | A ) = 0.
x
Recíprocamente, toda matriz C ∈ M (m ×(n +1), K) da lugar a un sistema de
m ecuaciones con n incógnitas:
1
µ ¶
(−b | A ) MR,R ′ ( f ) = 0.
x
1
µ ¶
(−b | A ) M R,R ′ (f ) = 0.
PR
x1′ +x2′ −2 = 0,
½
r1 : ′ ′
−x1 +x3 = 0,
o bien
1
1 1 0
" #
−2 x1′ 0
µ ¶ ¡
1
µ ¶
, −b1 = 0.
¢
= A1
x2′ 0 x′
0 −1 0 1
x3′
Ejemplo 11.6.1.-
1. En una traslación τu , los subespacios afines L tales que u ∈ D(L) son in-
variantes.
L 1 + L 2 = 〈P 0 , . . . , P r ,Q 0 , . . . ,Q s 〉,
1
µ ¶
(MR ( f ) − I ) = 0.
x
1 1
µ ¶ µ ¶
MR ( f ) = .
PR PR
1
µ ¶
(MR ( f ) − I ) = 0.
PR
Hiperplanos fijos
a0 + a1 x1 + · · · + an xn = 0.
(a0 , a1 , . . . , an )MR ( f ) = 0,
o de manera equivalente
a0
t
a1
MR ( f ) .. = 0,
.
an
es decir, si y solamente si (a0 , a1 , . . . , an )t es un autovector de MR ( f )t asociado
al autovalor 0.
En cualquier otro caso, f −1 (H) es un hiperplano, así que por cuestiones
de dimensión H ⊂ f −1 (H) si y solamente si H = f −1 (H). Es conocido que dos
ecuaciones definen el mismo hiperplano si y solamente si son proporcionales
con un factor de proporcionalidad no nulo 0 6= α ∈ K, esto es,
a0 a0
a1 a1
(a0 , a1 , . . . , an )MR ( f ) = α · (a0 , a1 , . . . , an ), o bien MR ( f )t . = α · . ,
.. ..
an an
La matriz asociada es
2/3 2/3
−1/3
1
1
µ ¶
0
M= , con b = 0 , M0 =
2/3 −1/3 2/3
.
b M0
−1
2/3 2/3 −1/3
x1 = 1 + µ1 ,
a0 = 21 a2 + a3 ,
1 1/2
a1 = −a2 − a3 ,
−1 −1
V1 (µ2 ) : V1 (µ2 ) == 〈w3 = , w4 = 〉,
a2 = a2 , 0 1
a =a ,
1 0
3 3
1
π2 : 1 − x 1 + x 3 = 0 y π3 : − x1 + x2 = 0.
2
Ejemplo 11.6.5.- Sea f : A2 (R) → A2 (R) la aplicación afín definida por la matriz
1 0 0
A= 1 1 1
1 0 2
con respecto a un sistema de referencia fijado. Los hiperplanos fijos son rec-
tas. Los autovalores de A t son µ1 = 1 (doble) y µ2 = 2 (simple). Los espacios de
autovectores asociados son
1 0 1
Con respecto a µ1 , nos queda que las rectas de la forma a0 −x1 +x2 = 0 son fijas,
que se corresponden con todas las rectas paralelas a x1 − x2 = 0. El autovalor µ2
proporciona una única recta fija, dada por 1 + x2 = 0.
11.7. Dilataciones
Dilatación
Ejemplo 11.7.1.-
1 0 ··· ··· 0
¶ b1 α 0 · · · 0
.
1 0 .. 0 . . . . . . ... ,
µ
MR ( f ) = =
b α·I .
.. . . . .
.. . . 0
.
bn 0 · · · 0 α
xi = b i + αxi , 1 ≤ i ≤ n,
³ ´
b1 bn
que tiene solución única C = 1−α , . . . , 1−α .
4. Si E es una recta afín, esto es, dim E = 1, toda afinidad f : E → E es una di-
latación ya que su matriz respecto de un sistema de referencia cualquiera
R en E ha de ser forzosamente de la forma
1 0
µ ¶
MR ( f ) = , α 6= 0.
b α
Composición de dilataciones
−−−→ → − → −
P RUEBA : Basta observar que f ◦ g = f ◦ g = (α·idD(E ) )◦(β·idD(E ) ) = α·β·id D(E ) ,
y análogamente para g ◦ f .
→− −−−−−−→
P RUEBA : Si f = idD(E ) , sea P 0 ∈ E y llamemos u0 = P 0 f (P 0 ); es un vector que
depende del punto P 0 . Para cualquier P ∈ E , se tiene que
−−→ → − −−→ −−−−−−−−→
P 0 P = f (P 0 P ) = f (P 0 ) f (P ),
de donde
−−−−→ −−→ −−−−−−→ −−−−−−−−→ −−−−−−→
P f (P ) = P P 0 + P 0 f (P 0 ) + f (P 0 ) f (P ) = 0 + P 0 f (P 0 ) = u0 .
−
→
P RUEBA : Sea L = P +D(L). Entonces τu (L) = (P + u)+ τu (D(L)) = (P + u)+D(L).
−−−−−−→
Si L es fija, entonces el punto P + u ∈ L, de donde P (P + u) = u ∈ D(L).
P RUEBA : Ya hemos visto que h solamente tiene un punto fijo, que es su centro
C . Si L ⊂ E es un subespacio afín y C ∈ L entonces podemos expresar L = C +
D(L). Usando esta igualdad para el cálculo de f (L) obtenemos que
→
−
f (L) = f (C ) + f (D(L)) = C + (λ · idD(E ) )(D(L)) = C + D(L) = L.
Recíprocamente, si L ⊂ E es un subespacio fijo no vacío y P ∈ L entonces f (P ) ∈
−−−−→
L, luego P f (P ) ∈ D(L). Es más,
−→ → − −→ −−−−−−−→ −−−−→ −→ −−−−→
λ · C P = f (C P ) = f (C ) f (P ) = C f (P ) = C P + P f (P ),
por tanto
−→ 1 −−−−→
CP = P f (P ) ∈ D(L).
α−1
En particular
−→ −→
C = P + PC = P − C P ∈ L.
→
−
P RUEBA : (⇐) Supongamos que u es autovector de f asociado al autovalor λ.
La proposición anterior nos permite dar un método para calcular todas las
rectas fijas de una aplicación afín. Sea L f el subespacio afín de puntos fijos de
→
−
f y λ1 , . . . , λr los autovalores de f .
→
−
Para cada P 0 ∈ L f , la recta P 0 + 〈u〉, con u autovector de f asociado a algún
autovalor λi , es una recta fija. Aquí están incluidas las rectas de puntos fijos y
1. Cálculo de L f .
2. Las rectas fijas que contienen algún punto fijo son de la forma
→
−
P 0 + 〈u〉, con P 0 ∈ L f y u autovector de f .
y 1 + y 2 = 0,
½
V1 (λ1 ) : ,
y 3 = 0.
−−−−→
si partimos de un punto P = (a1 , a2 , a3 ), la condición P f (P ) ∈ V1 (λ1 ) nos lleva a
−−−−→ −−−−−−−−−−−−−−−−−−−−→
f (P ) = (1 + a1 , 1 − 2a1 − a2 , 1 − a3 ), P f (P ) = (1, 1 − 2a1 − 2a2 , 1 − 2a3 ) ∈ V1 (λ1 ),
de donde
1 − a1 − a2 = 0, 1 − x1 − x2 = 0,
½ ½
, que representa la recta
a3 = 1/2, x3 = 1/2.
Es equivalente a obtener
0 0 0 0
0 0 0 0
−1 + x1 + x2 = 0,
½
2
(M − I 4 ) = , de donde X ( f ) :
−4 4 4 0 −1 + 2x3 = 0.
−2 0 0 4
Vemos que X ( f ) es una recta, que tiene que ser fija y es la única.
Si aplicamos el método descrito, tomamos P ∈ X ( f ), que es de la forma P =
−−−−→ −−−−−−→
(1 − t , t , 1/2). Calculamos f (P ) = (1 − 2t , −1 + t , 1/2) y P f (P ) = (1, −1, 0), por lo
−−−−−−→
que la recta (1 − t , t , 1/2) + 〈(1, −1, 0)〉 es fija. Es inmediato comprobar que es
X ( f ).
2/3 2/3
−1/3
1
1
µ ¶
0
M= , con b = 0 , M0 =
2/3 −1/3 2/3
.
b M0
−1
2/3 2/3 −1/3
1 0
1
y 1 − y 3 = 0,
½
V1 (λ2 ) , V1 (λ2 ) = 〈v3 = 1 〉.
y 2 − y 3 = 0,
1
π3
π2
P0
π(a0 )
Lf
x1 = 1 + µ1 ,
En este tema el cuerpo base será el de los números reales R y todos los R–
espacios vectoriales serán de dimensión finita.
Ejemplo 12.1.1.- Recordemos que (An (R), Rn , +), o simplemente An (R), deno-
ta al espacio afín real canónico de dimensión n. El espacio afín euclídeo ca-
nónico es simplemente An (R) cuando en el espacio vectorial Rn se conside-
P
ra el producto escalar canónico, es decir, el definido por 〈u|v 〉 = i u i v i para
u = (u 1 , . . . , u n )t , v = (v 1 , . . . , v n )t ∈ Rn .
427
Depto. de Álgebra
Dados dos puntos P,Q en un espacio afín euclídeo (E ,V, +), la distancia
entre P y Q es el número real no negativo
°−−→° q
° ° −−→ −−→
d (P,Q) = °PQ ° = + 〈PQ|PQ〉.
(x1 − a1 )2 + · · · + (xn − an )2 = r 2 .
Propiedades de la distancia
°−−→° −−→
° °
(a) d (P,Q) = °PQ ° = 0 si y sólo si PQ = 0, es decir, P = Q.
°−−→° ° −−→° °−−→°
° ° ° ° ° °
(b) d (Q, P ) = °QP ° = °−PQ ° = °PQ ° = d (P,Q).
°−→° °−−→ −−→° °−−→° °−−→°
° ° ° ° ° ° ° °
(c) d (P, R) = °P R ° = °PQ + QR ° ≤ °PQ ° + °QR ° = d (P,Q) + d (Q, R).
ku + v k2 = kuk2 + kv k2 .
−−→ −−→
si y solamente si los vectores PQ y QR son ortogonales, que es el teorema de
Pitágoras en su versión afín euclídea.
Perpendicular común
V = (D(L 1 ) + D(L 2 )) ⊕ W ⊥ .
definimos
L = P1 + W ⊥ = P2 + W ⊥.
Es claro que P i ∈ L ∩ L i , i = 1, 2. Como D(L ∩ L i ) = D(L) ∩ D(L i ) = {0}, se tiene
que L ∩ L i es un punto, y, en consecuencia, tiene que ser P i , para i = 1, 2.
Por último, hemos de probar que d (L 1 , L 2 ) = d (P 1 , P 2 ). Para ello, sean R 1 ∈
L 1 , R 2 ∈ L 2 puntos arbitrarios. Escribimos entonces
°−−−→°2 °−−−→ −−−→ −−−→°2
° ° ° °
d (R 1 , R 2 )2 = °R 1 R 2 ° = °R 1 P 1 + P 1 P 2 + P 2 R 2 °
°−−−→ −−−→°2 °−−−→°2
° ° ° °
= °R 1 P 1 + P 2 R 2 ° + °P 1 P 2 °
°−−−→°2
° °
≥ °P 1 P 2 ° = d (P 1 , P 2 )2 ,
Perpendicular común
L = P 1 + D(L) = P 2 + D(L),
con P 1 = Q 1 + u1 , P 2 = Q 2 − u2 .
que da lugar a
½
x2 − 2x3 = 0,
L2 :
x2 − 2x4 = 0.
Entonces el cálculo de L 1 ∩ L 2 lo hacemos mediante la resolución del sistema
x1 + x2 − 3x3 + 4 = 0,
x1 + x2 − 3x4 + 1 = 0,
L1 ∩ L2 :
x − 2x3 = 0,
2
x2 − 2x4 = 0.
Paso 1. Cálculo de la variedad de dirección. Se tiene que D(L) = (D(L 1 )+D(L 2 ))⊥ ;
de forma inmediata tenemos D(L 2 ). Para obtener D(L 1 ), resolvemos el
sistema homogéneo asociado a L 1 , y
−−−−−−−−→ −−−−−−→
D(L 1 ) = 〈(−1, 1, 0, 0), (3, 0, 1, 1)〉.
Entonces
−−−−−−−−→ −−−−−−→ −−−−−−→ −−−−−−→
D(L 1 )+D(L 2 ) = 〈v1 = (−1, 1, 0, 0), v2 = (3, 0, 1, 1), v3 = (1, 2, 1, 1), v4 = (1, 0, 0, 0)〉.
−−−−−−−−→
de donde D(L) = 〈(0, 0, −1, 1)〉.
Paso 2. Construcción de una base B con vectores de D(L 1 ), D(L 2 ) y D(L). A partir
del paso anterior, la base B = {w1 , w2 , w3 , w4 }, con
−−−−−−−−→ −−−−−−→
w1 = (−1, 1, 0, 0), w2 = (3, 0, 1, 1) ∈ D(L 1 ),
−−−−−−→
w3 = (1, 0, 0, 0) ∈ D(L 2 ),
−−−−−−−−→
w4 = (0, 0, −1, 1) ∈ D(L)
cumple la condición.
−−−→
Paso 4. Expresión del vector Q 1Q 2 en función de los vectores de B. Tenemos que
resolver el sistema de ecuaciones dado por la relación
4
0
v= = λ1 w1 + λ2 w2 + λ3 w3 + λ4 w4 .
0
1
−−−−−−−−→
Para cualquier valor de λ, el subespacio afín L λ = P 1 (λ)+〈(0, 0, −1, 1) es perpen-
−−−−−−−−−−−−→
dicular común a L 1 y L 2 . Observemos que P 1 (λ) = P 1 +〈(−1, −2, −1, −1)〉, que es
un subespacio afín de dirección D(L 1 ) ∩ D(L 2 ).
P 1′ = P 1 + u, P 2′ = P 2 + u,
−−−→ −−−→
con u = P 1 P 1′ = P 2 P 2′ ∈ D(L 1 ) ∩ D(L 2 ). Esto prueba que a cada L ′ 6= L (y, por
−−−→ −−−→
tanto, P 1 6= P 1′ ) le podemos asignar un vector no nulo uL ′ = P 1 P 1′ = P 2 P 2′ de
D(L 1 ) ∩ D(L 2 ).
Recíprocamente, si tenemos un vector no nulo u de D(L 1 ) ∩ D(L 2 ) y una
perpendicular común a L 1 y L 2 de pies P 1 y P 2 , para obtener otra perpendicular
común distinta basta tomar la variedad L u que pasa por P 1 + u y P 2 + u de
dirección (D(L 1 ) + D(L 2 ))⊥ .
P R = (α1 , . . . , αn ), H : a1 x1 + · · · + an xn + a0 = 0,
L = P + 〈 a〉
Nota 12.2.7. Han aparecido dos conceptos que tienen un nombre similar, pero
que deben distinguirse. Recordemos que en un espacio vectorial euclídeo V ,
dado v ∈ V y W subespacio vectorial no trivial, podemos escribir de forma úni-
ca v = w + w ′ , con w ∈ W, w ′ ∈ W ⊥ . El vector w es la proyección ortogonal de v
sobre W . (pág. 302). La pregunta es si hay relación entre estos conceptos.
−−→ −−−→
Si fijamos un punto O ∈ L ′ , se tiene que proyD(L ′ ) (O 1 P ) = O 1Q, donde Q =
proyL ′ (P ). En efecto, se tiene que
−−→ −−→
O 1 P = w + w ′ , w ∈ D(L ′ ), w ′ ∈ D(L ′ )⊥ , w = proyD(L ′ ) (O 1 P ),
|a0 + a1 α1 + · · · + an αn |
d (P, H) = q .
2 2
a1 + · · · + an
L = P + 〈a〉.
H : a0 + a1 x1 + · · · + an xn = 0, H ′ : a0′ + a1 x1 + · · · + an xn = 0,
para ciertos a0 , a0′ , ai ∈ R, con a0 6= a0′ . Del teorema de la dimensión para subes-
pacios afines se deduce que si H ∩ H ′ = ;, entonces D(H) = D(H ′ ), por lo que
podemos suponer que D(H) y D(H ′ ) vienen dadas por la misma ecuación y,
en consecuencia, existen ecuaciones de H y H ′ que sólo difieren en el término
independiente.
Además,
′
|a0 − a0′ |
d (H, H ) = q ,
a12 + · · · + an2
′
|a0′ + a1 γ1 + · · · + an γn | |a0′ − a0 |
d (P, H ) = q =q ,
a12 + · · · + an2 a12 + · · · + an2
Hiperplano mediador
Sean P,Q puntos distintos de un espacio afín euclídeo (E ,V, +). Enton-
ces el conjunto de los puntos que equidistan de P y Q, notado por
−−→
P RUEBA : Notemos v = PQ y sea W = 〈v 〉⊥ . Sea B ′ una base ortonormal de
W . Entonces el conjunto B := { kvv k } ∪ B ′ es una base ortonormal de V . Se con-
sidera en E el sistema de referencia métrico R := {P ; B}. Se tiene P R = (0, . . . , 0)
y Q R = (kv k , 0, . . . , 0).
Sea R el punto medio del segmento que une P y Q. Entonces R R = ( kv2 k , 0, . . . , 0).
El subespacio afín H := R + W tiene por ecuación respecto de R a x1 = kv2 k .
Un punto genérico S ∈ E , con coordenadas S R = (a1 , . . . , an ), verifica d (P, S) =
d (Q, S) si y solamente si |a1 | = | kv k − a1 |. Esta última igual se verifica si y sola-
mente si a1 = kv k /2 y esto prueba el resultado.
Ejemplo 12.3.1.- En A3 (R) consideremos los puntos P = (1, 0, 1),Q = (2, 1, −1).
−−→ −−−−−−→
Entonces el punto medio de P y Q es R = (3/2, 1/2, 0) y PQ = (1, 1, −2). De aquí,
el hiperplano mediador tiene como ecuación
3 1
π : 1 · (x1 − ) + 1 · (x2 − ) − 2 · (x3 − 0) = 0.
2 2
a1 + b1 a2 + b2
M AB : (b 1 − a1 )(x − ) + (b 2 − a2 )(y − ) = 0.
2 2
Análogamente, los hiperplanos mediadores entre las otras parejas de puntos
son
a1 + c1 a2 + c2
M AC : (c1 − a1 )(x − ) + (c2 − a2 )(y − ) = 0,
2 2
c1 + b1 c2 + b2
MBC : (c1 − b 1 )(x − ) + (c2 − b 2 )(y − ) = 0.
2 2
La matriz ampliada de este sistema es
b 1 − a1 b 2 − a2 − 12 (b 12 − a12 ) − 12 (b 22 − a22 )
c1 − a1 c2 − a2 − 1 (c 2 − a 2 ) − 1 (c 2 − a 2 ) ,
2 1 1 2 2 2
c1 − b 1 c2 − b 2 − 12 (c12 − b 12 ) − 12 (c22 − b 22 )
que tiene determinante igual a cero, pues la tercera fila es igual a la segunda fila
menos la primera. Por tanto, el sistema es compatible determinado y las rectas
son concurrentes en un punto O c que se denomina circuncentro del triángulo
∆ABC . Si C es la circunferencia que pasa por los vértices del triángulo, tendrá
una ecuación de la forma
C : x 2 + y 2 + α1 x + α2 y +C = 0
a1 α1 + a2 α2 +C = −a12 − a22 ,
b 1 α1 + b 2 α2 +C = −b 12 − b 22 ,
c1 α1 + c2 α2 +C = −c12 − c22 .
El centro de la circunferencia C es (−α1 /2, −α2 /2), lo que nos da una fórmula
para las coordenadas de O c .
MBC
M AC
Oc
B
A M AB
Circuncentro
B
Baricentro
Ortocentro
Recta de Euler
|〈u|v 〉| ≤ kuk kv k ,
que equivale a
〈u|v 〉
−1 ≤ ≤ 1.
kuk kv k
Por tanto, existe un único ángulo θ ∈ [0, π] tal que cos(θ) = k〈uukk|vv〉k . Esto da lugar
a la siguiente definición.
〈u|v 〉
cos(θ) = .
kuk kv k
2 2
Entonces cos(θ) = 5·3 = 15 , de donde u
d , v = 1,437 radianes.
Sean u, v ∈ V .
1. 〈u|v 〉 = 0 si y solamente si u
d , v = π/2.
|〈u|v 〉|
cos(θ) = .
kuk kv k
El lema anterior nos garantiza que él ángulo entre rectas está bien definido,
pues no depende de los vectores elegidos que generan sus direcciones.
Ejemplo 12.4.2.- Consideremos el triángulo ∆ABC , con A = (0, 0), B = (1, 0),C =
(c1 , c2 ), con c1 , c2 > 0. La bisectriz interior del vértice A es la recta r 1 dada por la
igualdad
c2 x − c1 y
q = y.
c12 + c22
Vamos a probar que el ángulo formado por las rectas AB y r 1 es igual al ángulo
formado por las rectas r 1 y AC . Se verifica fácilmente que
q
−−−→ −−−−→ −−−−−−−−→
D(AB) = 〈(1, 0)〉, D(AC ) = 〈(c1 , c2 )〉, D(r 1 ) = 〈(c1 + ∆, c2 )〉, donde ∆ = c12 + c22 .
|〈u|a〉|
cos(θ ′ ) = .
k u k k ak
|〈a|b〉|
cos(θ) = .
kak kbk
θ
θ′
H1
H2
2 π
cos(θ2′ ) = p , de donde θ2 = − θ2′
6 2
A0
A1
A3 A2
Entonces
−−−−−−→ −−−−−→
D(r ) = 〈u = (a2 , −a1 )〉, D(r )⊥ = 〈a = (a1 , a2 )〉,
−−−−−−→ −−−−−→
D(s) = 〈v = (b 2 , −b 1 )〉, D(s)⊥ = 〈b = (b 1 , b 2 )〉.
Para probar que las tres definiciones coinciden, debemos probar las igualdades
µ ¶1/2
|〈u|v 〉| 〈u|b〉2 |〈a|b〉|
= 1− 2 2
= .
kuk kv k kuk kbk kak kbk
En efecto,
〈u|v 〉 = a2 b 2 + a1 b 1 = 〈a|b〉,
kuk2 = a12 + a22 = kak2 ,
kv k2 = b 12 + b 22 = kbk2 .
Movimientos y semejanzas
En este tema trabajaremos en el espacio euclídeo (An (R), Rn , +), con res-
pecto a un sistema de referencia métrico, por lo que el producto escalar de dos
vectores u y v de Rn tiene la forma
X
n
〈u|v 〉 = ui v i .
i =1
13.1. Movimientos
Tras definir los espacios afines hemos estudiado unas aplicaciones entre
ellos especiales. Verificaban que si había una relación de proporcionalidad en-
tre los vectores asociados a unos puntos, los vectores asociados a las imágenes
de esos punto mantenían la misma proporcionalidad. Con los espacios afines
euclídeos procedemos de manera análoga. El invariante a estudiar es la distan-
cia entre puntos y estudiaremos las afinidades que conserven la distancia.
Movimiento
→
−
Nota 13.1.1. Recordemos que, dada una afinidad f , el isomorfismo vectorial f
viene dado por
− ³−−→´ −−−−−−−→
→
f PQ = f (P ) f (Q),
455
Capítulo 13
Movimientos y semejanzas
En este tema trabajaremos en el espacio euclídeo (An (R), Rn , +), con res-
pecto a un sistema de referencia métrico, por lo que el producto escalar de dos
vectores u y v de Rn tiene la forma
X
n
〈u|v 〉 = ui v i .
i =1
13.1. Movimientos
Tras definir los espacios afines hemos estudiado unas aplicaciones entre
ellos especiales. Verificaban que si había una relación de proporcionalidad en-
tre los vectores asociados a unos puntos, los vectores asociados a las imágenes
de esos punto mantenían la misma proporcionalidad. Con los espacios afines
euclídeos procedemos de manera análoga. El invariante a estudiar es la distan-
cia entre puntos y estudiaremos las afinidades que conserven la distancia.
Movimiento
→
−
Nota 13.1.1. Recordemos que, dada una afinidad f , el isomorfismo vectorial f
viene dado por
− ³−−→´ −−−−−−−→
→
f PQ = f (P ) f (Q),
459
Depto. de Álgebra
→
−
y, dado un sistema de referencia afín R = {O; B}, MB ( f ) es precisamente la
submatriz cuadrada de orden n formada al suprimir la primera fila y la primera
columna de MR ( f ):
1 0 ... 0
b 1 a11 · · · a1n a 11 · · · a 1n
→
− . .. ..
MR ( f ) = . . . . , MB ( f ) = .. . . .
.. .
. . . .
.
an1 · · · ann
b n an1 · · · ann
→
−
(a) f es un movimiento si y solamente si MB ( f ) es ortogonal, para
cualquier base ortonormal B.
→−
(b) f es un movimiento si °→y solamente
° si f conserva el módulo de
°− °
los vectores, es decir, ° f (u)° = kuk.
P RUEBA :
→
− →
−
(a) Se tiene porque f es isometría si y solamente si MB ( f ) es ortogonal,
para cualquier base ortonormal B (pág. 329).
→
−
(b) Si f es un movimiento, entonces f conserva el producto escalar, por de-
finición de isometría y es equivalente a conservar la norma inducida (pág.
295).
σH : An (R) −→ An (R)
−−→
P 7−→ σH (P ) = P + 2PQ,
Q = [P + D(H)⊥ ] ∩ H.
y, por tanto,
−−−−−−−−−−→
σH (P ) = (a1 , . . . , an ) + 2(0, . . . , 0, −an ) = (a1 , . . . , an−1 , −an ).
Así, σH es una afinidad, por estar definidas sus ecuaciones por la matriz
1 0 ··· 0 0
0 1
.. ..
MR (σH ) =
. . ,
0 1
0 −1
y la matriz asociada a − σ→ −→
H es ortogonal. Esto implica que σ H es una isome-
tría y, por tanto, σH es un movimiento. Una propiedad inmediata, bien de la
definición, bien de la expresión matricial de σH , es que σ2H = id, esto es, que
σ−1
H = σH .
La variedad de puntos fijos, a partir de la ecuación, es el conjunto de puntos
que verifican xn = −xn , es decir, el hiperplano H. Otra forma de verificarlo es
que, como todos los puntos de H permanecen fijos, la variedad de puntos fijos
de la simetría es, al menos, de dimensión n − 1. Como esta aplicación no es la
identidad, tiene que coincidir con H. Como consecuencia, la restricción de σH
al hiperplano H es la identidad idH .
Además, D(H) = ker(− σ→
H − idV ), es decir, la dirección de H coincide con el
−→
subespacio propio del autovalor 1, y D(H)⊥ = ker(σH + idV ).
Una simetría hiperplana es un movimiento indirecto. En el plano afín eu-
clídeo A2 (R), el hiperplano H es una recta r y la llamaremos simetría axial de
eje r . En el espacio afín euclídeo A3 (R), el hiperplano H es un plano π y habla-
remos de la simetría especular o plana de plano π o reflexión con respecto al
plano π.
1
(a1 +λ)+(a2 +λ)+(a3 +λ)+(a4 +λ) = 4, de donde λ = (4 −(a1 + a2 + a3 + a4 )).
4
De las condiciones
obtenemos
1 1 1 1
a1′ = a1 + 2λ = 2 + a1 − a2 − a3 − a4 ,
2 2 2 2
′ 1 1 1 1
a2 = a2 + 2λ = 2 − a1 + a2 − a3 − a4 ,
2 2 2 2
1 1 1 1
a3′ = a3 + 2λ = 2 − a1 − a2 + a3 − a4 ,
2 2 2 2
1 1 1 1
a4′ = a4 + 2λ = 2 − a1 − a2 − a3 + a4 .
2 2 2 2
1 0 0 0 0
0 1 0 0 0
MR (σH ) = 0 0 1 0 0 .
0 0 0 1 0
0 0 0 0 −1
MC (σH ) = M(R, C )MR (σH )M(C , R) = M(R, C )MR (σH )M(R, C )−1 .
−−−−−−→
Podemos tomar O = (1, 1, 1, 1) ∈ H. Como D(H)⊥ = 〈(1, 1, 1, 1)〉, escogemos
µ−−−−−−−−→¶
1 1 1 1
v4 = , , , .
2 2 2 2
−−−−−−−−→
u1 = (−1, 1, 0, 0),
−−−−−−−−→
u2 = (−1, 0, 1, 0),
−−−−−−−−→
u3 = (−1, 0, 0, 1).
−−−−−−−−→
w1 = u1 = (−1, 1, 0, 0),
〈u2 |w1 〉 −−−−−−−−→ 1 −−−−−−−−→
w 2 = u2 − w1 = (−1, 0, 1, 0) − (−1, 1, 0, 0)
〈w1 |w1 〉 2
µ−−−−−−−−−−→¶
1 1
= − , − , 1, 0 ,
2 2
〈u3 |w1 〉 〈u3 |w2 〉
w 3 = u3 − w1 − w2
〈w1 |w1 〉 〈w2 |w2 〉
µ −−−−−−−−−→¶
−
−−−−−−−−→ 1 −−−−−−−−→ 1 1 1
= (−1, 0, 0, 1) − (−1, 1, 0, 0) − − , − , 1, 0
2 3 2 2
µ−−−−−−−−−−−−→¶
1 1 1
= − ,− ,− ,1 ,
3 3 3
µ−−−−−−−−−−−−→¶
w1 1 1
v1 = = − p , p , 0, 0 ,
kw1 k 2 2
Ã−−−−−−−−−−−−r −−−−→!
w2 1 1 2
v2 = = −p ,−p , ,0 ,
kw2 k 6 6 3
Ã−−−−−−−−−−−−−−−−−−−−−p −−→!
w3 1 1 1 3
v3 = = − p ,− p ,− p , .
kw3 k 2 3 2 3 2 3 2
Teorema de Cartan–Dieudonné
g (P ) = σH ( f (P )) = P.
3. L f ⊂ L g . Sea Q ∈ L f . Entonces
id = σt ◦ · · · ◦ σ1 ◦ f , para t ≤ n + 1, de donde f = σ1 ◦ · · · ◦ σt ,
Ejemplo 13.2.1.- Veamos, por ejemplo, cómo describir una traslación en pro-
ducto de simetrías. Esto nos permitirá probar que, a veces, no hacen falta tantas
simetrías como cabría esperar por la demostración del teorema. Partimos de la,
en principio, peor situación posible, puesto que las traslaciones no tienen pun-
tos fijos.
Fijado en An (R) un sistema de referencia métrico R = {O; B}, respecto del
cual tomaremos coordenadas sin mención expresa, la traslación de vector u =
−−−−−−−−→
(a1 , . . . , an ) se define como
f = τu : An (R) −→ An (R)
P 7−→ P + u.
−
→ −−→
porque τu = idV y (σ1 )|D(H1 ) = idD(H1 ) .
Por tanto, el conjunto de puntos fijos de f 1 contiene al hiperplano H2 =
P +D(H1 ). El movimiento f 1 no es la identidad, pues en tal caso idAn (R) = σ1 ◦ f ,
y sabemos que las traslaciones son movimientos directos. Por tanto, L f 1 = H2
y, en consecuencia, f 1 es una simetría hiperplana. Esto prueba que toda trasla-
ción de vector u es producto de dos simetrías hiperplanas de hiperplanos para-
lelos tales que la distancia entre ellos es kuk /2. Son interesantes las siguientes
cuestiones:
τ u = σ2 ◦ σ1
H1
H2
1 f (P )
P 2u
−−−−−−→
Si escribimos u = (0, . . . , β), entonces H2 = τu (H1 ) y la matriz de σ1 ◦σ2 es
1 0 ... 0 0
0 1
.. ..
A1 A2 =
. . ,
0 1
2β 1
Simetría σ1, de eje el hiperplano H1 que pasa por M1 = (1/4, −1/4, −1/4, 1/4)
−−−−−−−−−−−−−−−−−−→
y vector normal n1 = (−3/2, −1/2, −1/2, 1/2):
1 0 0 0 0
0 −1/2 −1/2 −1/2 1/2
MR (σ1 ) = 0 −1/2 5/6 −1/6 1/6 .
0 −1/2 −1/6 5/6 1/6
0 1/2 1/6 1/6 5/6
Simetría σ2 , de eje el hiperplano H2 que pasa por M2 = (0, 1/3, 1/3, −1/3)
−−−−−−−−−−−−−−−→
y vector normal n2 = (0, −4/3, 2/3, −2/3):
1 0 0 0 0
0 1 0 0 0
MR (σ2 ) = 0 0 −1/3 2/3 −2/3 .
0 0 2/3 2/3 1/3
0 0 −2/3 1/3 2/3
Movimientos en el plano
→
−
L f = P + ker( f − id).
Identidad y traslación
1 0 0
Partimos de la matriz α 1 0 . Separaremos el estudio dependiendo de
β 0 1
la variedad de puntos fijos de f , que notaremos L f y que tiene por ecuaciones
½
α + x1 = x1
Lf :
β + x2 = x2
Identidad
Traslación
−−−→
Si L f = ;, entonces f es la traslación τu , con u = (α, β).
A′
u
C′
A
C B′
1 0 0
La matriz a estudiar es α 1 0 . Separaremos el estudio nuevamente.
β 0 −1
L f tiene ahora por ecuaciones
½
α + x1 = x1
β − x2 = x2
Simetría
B B′
A A′
C C′
1 0 0 1 0 0 1 0 0
α 1 0 = 0 1 0 α 1 0
β 0 −1 β 0 −1 0 0 1
1 0 0 1 0 0
= α 1 0 0 1 0 .
0 0 1 β 0 −1
−−−→
Si tomamos u = (α, 0) y H : x2 = β/2, lo anterior prueba que f = τu ◦ σH =
σH ◦τu . Además, se verifica que u ∈ D(H). Este movimiento se denomina sime-
tría con desplazamiento, H se denomina el eje y u el deslizamiento o el vector
desplazamiento de la simetría.
B B′
A A′
B ′′
C C′
A ′′
u C ′′
P RUEBA :
1. Se tiene que
de P y f (P ), entonces
1 −−−−→ −−→ 1 1
M = P + P f (P ) = P + PQ + u = Q + u ∈ H, porque Q ∈ H, u ∈ D(H).
2 2 2
→
− →
−
2. Dado que f = − τ→ −→ −→
u ◦ σ H = σ H , los autovalores de f coinciden con los de
−
σ→H y sabemos que para las simetrías hiperplanas se verifica que
D(H) = ker(−
σ→ ⊥ −→
H − idV ), D(H) = ker(σ H + idV ).
→
−
3. Es consecuencia de f = −
σ→H.
Simetría central
1 0 0
La matriz a considerar es α −1 0 . Este caso es la simetría central de
β 0 −1
centro P = (α/2, β/2), que es su único punto fijo.
Se observa que, para todo Q ∈ A2 (R), el punto medio de Q y f (Q) es el centro
P.
Giro
1 0 0 ½
a 2 + b 2 = 1,
La matriz a tratar es α a −b , . Las ecuaciones de L f
b 6= 0,
β b a
son ½
α + ax1 − bx2 = x1
Lf : ,
β + bx1 + ax2 = x2
que tiene solución única ya que
¯ ¯
¯ a − 1 −b ¯
¯ ¯ = (a − 1)2 + b 2 = 2 − 2a 6= 0, pues b 6= 0, a 6= 1.
¯ b a −1 ¯
B
A
C′
A′ B′
C O
A α
B′
C′
A′
determinado por los valores a y b. Más concretamente, veamos que para todo
−−→ −−−−→
Q ∈ A2 (R), el ángulo ω formado por PQ y P f (Q) es independiente de Q:
−−→ −−−−→ −−→ −−−−−−−→ −−→ →
− −−→
〈PQ|P f (Q)〉 = 〈PQ| f (P ) f (Q)〉 = 〈PQ| f (PQ)〉
·µ ¶µ ¶¸
a −b a1
= (a1 a2 )
b a a2
°−−→°2
° °
= a °PQ ° ,
por lo que
°−−→°2
° °
a °PQ °
cos(ω) = °−−→° °−−−−→° = a,
° °° °
°PQ ° °P f (Q)°
Resumen
Resumimos entonces lo estudiado en esta lección en el siguiente cuadro.
Usamos la denominación clásica de elementos de un movimiento para designar
aquellos objetos geométricos que lo caracterizan.
→
−
Si A 0 es la submatriz asociada a f , comprobamos fácilmente que A 0t A 0 = I 2 ,
por lo que f es un movimiento. Sus autovalores son las raíces del polinomio
característico:
" #
λ + 3/5 4/5
det(λI − A 0 ) = det = λ2 − 1.
4/5 λ − 3/5
Por tanto, sean λ1 = 1, λ2 = −1. Los puntos fijos se obtienen como soluciones
del sistema (I − A 0 )x = b, donde b = f (O). En este caso,
" # " #
8/5 4/5 3 rref 1 1/2 0
−
→ ,
4/5 2/5 1 0 0 1
por lo que no hay puntos fijos. Se trata entonces de una simetría axial con des-
lizamiento. El eje de la simetría pasa por el punto medio de cualquier punto
y su transformado. Por ejemplo, el punto medio de O = (0, 0) y f (O) = (3, 1)
es M = (3/2, 1/2). La dirección del eje es el espacio de autovalores asociado a
λ1 = 1:
" # " # µ ¶
8/5 4/5 rref 1 1/2 −1
I − A0 = −
→ , de donde V1 (λ1 ) = 〈v1 = 〉.
4/5 2/5 0 0 2
Finalmente escribimos que el eje es (3/2, 1/2) + 〈v1 〉, que tiene como ecuación
implícita r : 2x + y − 7/2 = 0. El vector de desplazamiento se calcula como u =
−−−−→
P f (P ) para cualquier punto de r . Por ejemplo, para P = M obtenemos que
3 3 4 1 4 3 3 1
f (M) = (3 − · − · , 1 − · + · ) = (17/10, 1/10), y
5 2 5 2 5 2 5 2
−−−−−→
u = M f (M) = (1/5, −2/5).
→
−
Si A 0 es la submatriz asociada a f , comprobamos fácilmente que A 0t A 0 = I 2 ,
por lo que f es un movimiento. Por la forma de la matriz A 0 , sabemos que sus
autovalores son λ1 = − 53 + i 54 , λ2 = − 35 − i 54 . Además, el conjunto de puntos fijos
se obtiene como las soluciones del sistema (I − A 0 )x = b, para b = f (O):
" # " #
8/5 −4/5 3 rref 1 0 7/4
−
→ .
4/5 8/5 1 0 1 −1/4
Por tanto, f tiene un único punto fijo P 0 = (7/4, −1/4) y se trata de un giro de
centro P 0 y ángulo ω tal que cos(ω) = −3/5, sen(ω) = −4/5.
El primer espacio indica que las rectas a0 + a1 x1 = 0 son fijas, que se co-
rresponden con las rectas perpendiculares a H. El segundo espacio da
lugar a la recta H : −β/2 + x2 = 0.
4. Simetría central. Como es una homotecia de razón −1, las rectas inva-
riantes son las que pasan por P (pág. 421).
5. Giro. Los giros de ángulo ω 6= 0, π no tienen rectas fijas, pues los autova-
→
−
lores de f son números complejos no reales.
con a 2 + b 2 = 1.
El polinomio característico de A es de grado 3, por lo que tiene, al menos,
una raíz real. Los únicos autovalores reales de una matriz ortogonal son 1 y
−1. Sea v1 autovector unitario asociado. Si tomamos una base ortonormal que
contenga a v1 , la matriz de cambio de base asociada U1 es ortogonal y
±1 b 12 b 13 ±1 b 12 b 13
A ′ = U1t AU1 = 0 a11′ ′
a12 = 0
′ ′ A ′0
0 a21 a22 0
Se comprueba fácilmente que las matrices del tipo (b) tiene todos sus autova-
lores iguales 1 o −1, por lo que es semejante de manera ortogonal a una matriz
diagonal con valores 1 o −1.
Movimientos en el espacio
bajo la condición a 2 + b 2 = 1, b 6= 0.
Identidad y traslación
1 0 0 0
α 1 0 0
Partimos de la matriz . El estudio de este caso, en el que 1
β 0 1 0
γ 0 0 1
es el único autovalor (pág. 486) es idéntico en cualquier dimensión al que ya
hicimos en el plano. Es decir,
α + x1 = x1
Lf : β + x2 = x2
γ + x3 = x3
Identidad
Tralación
−−−−−→
En otro caso, f es la traslación τu de vector no nulo u = (α, β, γ).
P′
P1
u
P′
Simetría axial
esto es, es una recta de puntos fijos. El movimiento f se denomina una simetría
axial de eje r y se denota σr .
P RUEBA :
3. Es un cálculo inmediato.
de donde f (π) = π.
r P′
1 0 0 0 1 0 0 0 1 0 0 0
α 1 0 0 0 1 0 0 α 1 0 0
=
β 0 −1 0 β 0 −1 0 0 0 1 0
γ 0 0 −1 γ 0 0 −1 0 0 0 1
1 0 0 0 1 0 0 0
α 1 0 0 0 1 0 0
= ,
0 0 1 0 β 0 −1 0
0 0 0 1 γ 0 0 −1
P′
r P1
4. Si P 6∈ r y π = P + r , entonces
el plano π es invariante,
la restricción f |r es la traslación τu ,
y la restricción f |π es una simetría axial con deslizamiento
como movimiento en π.
P RUEBA :
−−−−→ −−−−−→
1. Como f (P ) = σr (P ) + u, se tiene que P f (P ) = P σr (P ) + u. Entonces
1 −−−−→ 1 −−−−−→ 1
M = P + P f (P ) = P + P σr (P ) + u.
2 2 2
El punto medio R de P y σr (P ) pertenece a r , por lo que M = R + 21 u ∈ r .
→
− →
2. Es consecuencia de la igualdad f = −
σr .
e1
e2
e3
e 3′
B′
e 2′
e 1′
de donde
→
− →
−
f (π) = f (P ) + 〈 f (u), f (v2 )〉 = (P + u) + 〈u, −v2 〉 = π.
Simetría central
1 0 0 0
α −1 0 0
La matriz a estudiar es . Este caso (pág. 486), como en
β 0 −1 0
γ 0 0 −1
el plano, se denomina simetría central σP de centro P . El centro queda deter-
minado por ser el único punto fijo de f :
α − x1 = x1 µ ¶
α β γ
Lf : β − x2 = x2 =⇒ P = , , .
2 2 2
γ − x3 = x3
Giro
H = P + D(L f )⊥ : x1 = p 1 .
P P′
ω
e3
x3 ω
e2
P0
e1
O x2
x1
Decimos entonces que el giro tiene ángulo ω ∈ (0, 2π) desde e1 . Observemos
que si cambiamos e1 por −e1 en la elección del vector de dirección en r , en-
tonces tenemos el giro de ángulo 2π − ω desde −e1 .
Queremos determinar la selección de una base similar cuando el giro apa-
rece con unas ecuaciones que no son tan sencillas. Elegimos entonces v ∈ D(r )
y un vector w ∈ D(r )⊥ , que normalizamos a
1 1
e′1 = v , e′2 = w.
kv k kw k
Son los que juegan los papeles de e1 y e2 . Entonces
³ →
− ´ 1 ³ →
− ´
sen(ω) = det e′1 e′2 f (e′2 ) = det v w f (w ) .
kv k kw k2
Observemos que solamente es necesario el cálculo del signo para determinar
si sen(ω) = b o −b.
Si a = 1 tenemos la identidad, que se puede ver como un caso particular de
giro. Si a = −1 obtenemos la simetría axial de eje r (o giro de eje r y ángulo π).
Movimiento helicoidal
P′
u
v
P ω P1
→
−
El único autovalor real de f es λ1 = 1, con espacio de autovectores
½
y 2 = 0,
V1 (λ1 ) :
y 3 = 0.
Simetría rotacional
1 0 0 0
α −1 0 0
Consideramos la matriz . La variedad de puntos fijos L f
β 0 a −b
γ 0 b a
es en este caso la solución (única) del sistema
2x1 = α
Lf : (a − 1)x2 − bx3 = −β
bx2 + (a − 1)x3 = −γ
e3
e2
e1
r
H u2
ω u1
u3
e 2′
e 1′
e 3′
1 0 0 0 1 0 0 0 1 0 0 0
α −1 0 0 0 1 0 0 α −1 0 0
=
β 0 a −b β 0 a −b 0 0 1 0
γ 0 b a γ 0 b a 0 0 0 1
1 0 0 0 1 0 0 0
α −1 0 0 0 1 0 0
= .
0 0 1 0 β 0 a −b
0 0 0 1 γ 0 b a
1. H es perpendicular a r .
2. H ∩ r = P 0 .
→
−
3. D(r ) = ker( f + idV ).
P RUEBA :
→
−
Si v autovector de f asociado a −1, entonces es posible calcular
r = P 0 + 〈v 〉.
H = P 0 + 〈v 〉⊥ .
Resumen
0 0 0 1 0 0 0 1
y no hay puntos fijos. Por tanto, se trata de un movimiento helicoidal o una si-
metría axial con deslizamiento, que se corresponde con un ángulo de giro igual
a π. Como traza(A 0 ) = 2 = 1 + 2 cos(ω), se tiene que cos(ω) = 1/2, por lo que
no es p simetría axial conp deslizamiento. Los autovalores de A 0 son λ1 = 1, λ2 =
1 1 1 1
2 + i 2 3, λ3 = 2 − i 2 3, que confirman el razonamiento anterior. Así, f se ex-
presa como f = τu ◦ g r (ω), donde τu es una traslación y g r,ω es un giro de eje r
con dirección u y ángulo ω. Vamos a calcular estos elementos geométricos. La
dirección del eje es V1 (λ1 ), que en este caso es
½
y 1 = 0,
D(r ) : y D(r ) = 〈v = e3 〉.
y 2 = 0,
de donde ( p p
1
− 12
3 − 21 x1 − 12 3x2 = 0 ½
2 x1 = 1,
r: p p ≡
1 1 1 1 x2 = −1.
− 2 − 2 3 + 2 3x1 − 2 x2 = 0
Como
−1/3 2/3 2/3
A 0 = 2/3 −1/3 2/3 , y se verifica que A 0t A 0 = I 3 ,
−2/3 −2/3 1/3
se tiene que f es un movimiento. Vamos a clasificarlo y calcular sus elemen-
tos. En primer lugar, det(A 0 ) < 0, por lo que f es un movimiento indirecto. El
subespacio afín de puntos fijos está determinado por el sistema de ecuaciones
1 2 2
1 − 3 x1 + 3 x2 + 3 x3 = x1 ,
L f : 1 + 3 x1 − 3 x2 + 23 x3 = x2 , ,
2 1
1 − 23 x1 − 32 x2 + 13 x3 = x3 ,
el punto P 0 = (1, 1, −1/2) es el único punto fijo de f . Por tanto, f es una simetría
rotacional. Tenemos que determinar el eje del giro, su ángulo y el hiperplano
de la simetría.
→
−
Sabemos que r = P 0 + ker( f + idV ). En este caso,
2/3 2/3 2/3 1 1 0 ½
rref y 1 + y 2 = 0,
A0 + I =
2/3 2/3 2/3 − →
0 0 1 , null(A 0 + I ) : y 3 = 0.
−2/3 −2/3 4/3 0 0 0
−−−−−−→
de donde r = P 0 + 〈(−1, 1, 0)〉. Por otro lado, H = P 0 + D(r )⊥ , con ecuación H :
−x1 + x2 = 0.
Para determinar el ángulo de giro, se tiene que traza(A 0 ) = −1 + 2 cosω. En
este caso,
1
− = −1 + 2 cosω, de donde cos ω = 1/3.
3
La determinación de sen ω la hacemos mediante la selección de un vector en
−−−−−→ −−−−−→
D(r ). Sea v = (−1, 10) ∈ D(r ) y consideramos w = (0, 0, 1) ∈ D(r )⊥ . Entonces
2/3 ³ ´
→
− →
−
f (w ) = A 0 w = 2/3 y det v w f (w ) > 0.
1/3
p
8
Entonces sen ω = 3 desde v .
Concluimos entonces que por cada punto de L f pasa una recta fija con
dirección en V1 (λ1 ), que es precisamente la dirección de L f . Por tanto,
son las rectas contenidas en L f . Es lógico, pues la restricción de f a L f es
la identidad.
De forma análoga, si s es una recta fija con dirección en V1 (λ2 ) y P =
(p 1 , p 2 , p 3 ) un punto por el que pasa, entonces
−−−−→ −−−−−−−−−−−→
P f (P ) = (0, 0, −γ − 2p 3 ) ∈ V1 (λ2 ), que no impone condición.
Entonces por todo punto P del espacio pasa una recta fija de dirección
−−−−−→
(0, 0, 1), que son las rectas perpendiculares a L f .
En resumen, los planos fijos son el propio L f y los que tienen su vector
normal en D(L f ). Las rectas fijas son las perpendiculares al plano L f y las
contenidas en él.
3. Simetría plana con desplazamiento. Calculamos los planos fijos del mo-
vimiento. Los autovalores de la matriz traspuesta son µ1 = 1, µ2 = −1, con
espacio de autovectores
1 0 −γ/2
0 −β 0
V1 (µ1 ) = 〈 , 〉,V (µ ) = 〈 〉.
0 α 1 2 0
0 0 1
→
−
Para las rectas fijas precisamos los espacios de autovectores de f , cuyos
autovalores son λ1 = 1, λ2 = −1. Entonces
½
© y 1 = 0,
V1 (λ1 ) : y 3 = 0 ,V1 (λ2 ) :
y 2 = 0.
que no se tiene. Por tanto, no hay rectas fijas con esta dirección.
4. Simetría axial. Los planos fijos los calculamos a partir de los autovalores
de la matriz traspuesta, que son µ1 = 1, µ2 = −1, de espacios de autovec-
tores
1 0 −β/2 −γ/2
0 1 0 0
V1 (µ1 ) = 〈 , 〉,V1 (µ2 ) = 〈 , 〉.
0 0 1 0
0 0 0 1
a2 (−β/2 + x2 ) + a3 (−γ/2 + x3 ) = 0,
que es el haz de planos que contiene a la recta L f . Por tanto, los planos
fijos son los perpendiculares a L f y el haz de planos que contienen a L f .
→
−
Para el cálculo de las rectas fijas, partimos de los autovalores de f , que
son λ1 = 1, λ2 = −1 y de los espacios de autovectores
½
y 2 = 0, ©
V1 (λ1 ) : V1 (λ2 ) : y 1 = 0.
y 3 = 0.
Por tanto, por todo punto P ∈ L f pasa una recta fija de dirección en V1(λ1 ),
que es precisamente D(L f ). Entonces la única recta fija de esta dirección
es L f .
Sea ahora s una recta fija de dirección en V1 (λ2 ) y P = (p 1 , p 2 , p 3 ) un pun-
to de la misma. Entonces
−−−−→ −−−−−−−−−−−−−−−−−→
P f (P ) = (0, β − 2p 2 , γ − 2p − 3) ∈ V1 (λ2 )
implica que es válido cualquier punto. Así, por todo punto P pasa una
recta fija de dirección en V1 (λ2 ), que es D(L f )⊥ . En concreto, si conside-
ramos el plano invariante π = P +V1 (λ2 ), entonces π∩L f = Q es un punto
fijo, y las rectas fijas de dirección V1 (λ2 ) son las rectas perpendiculares y
secantes a L f .
En resumen, las rectas fijas son la recta L f y las perpendiculares y secan-
tes a L f .
5. Simetría axial con desplazamiento. Los planos fijos los obtenemos a par-
tir de los autovalores de la matriz traspuesta, que son µ1 = 1, µ2 = −1, con
espacios asociados
1 −β/2 −γ/2
0 0 0
V1 (µ1 ) = 〈 〉,V1 (µ2 ) = 〈 , 〉.
0 1 0
0 0 1
→−
Los autovalores de f son λ1 = 1, λ2 = −1, con espacios de autovectores
asociados ½
y 2 = 0, ©
V1 (λ1 ) : ,V1 (λ2 ) : y 1 = 0.
y 3 = 0.
Si s es una recta fija de dirección en V1 (λ1 ) y P = (p 1 , p 2 , p 3 ) un punto de
la misma, entonces
−−−−→ −−−−−−−−−−−−−−−−→
P f (P ) = (α, β − 2p 2 , γ − 2p 3 ) ∈ V1 (λ1 ) implica que P ∈ r,
6. Simetría central. Todo subespacio afín que pasa por el punto fijo P es fijo,
por ser f una homotecia.
asociado
1
0
V1 (µ1 ) = 〈 〉,
0
0
por lo que no hay planos fijos. Ya sabemos que la única recta fija es el eje
del giro asociado.
1 −α/2
0 1
V1 (µ1 ) = 〈 1 2
〉,V (µ ) = 〈 〉.
0 0
0 0
13.5. Semejanzas
Semejanzas
d ( f (P ), f (Q)) = λd (P,Q).
Vamos a probar que toda semejanza se puede obtener a partir de una ho-
motecia y un movimiento.
Así, g es un movimiento.
Nota 13.5.2. Este resultado nos permite obtener muchas propiedades de las
semejanzas. Destacamos primero algunas de las inmediatas:
1. Las semejanzas (de razón λ) son afinidades y, por tanto, biyectivas. Así
pues, si f es una semejanza, f −1 existe y, trivialmente, es también una
semejanza (de razón 1/λ). Observemos que tendremos, como en el caso
de las afinidades, semejanzas directas e indirectas.
Recordemos que si f es una aplicación afín con algún punto fijo P , entonces
→
−
la variedad de puntos fijos es L f = P + ker( f − idV ). Por tanto, una aplicación
→
−
afín f tiene un único punto fijo si y solamente si 1 no es autovalor de f .
→
−
P RUEBA : Sea f una semejanza de razón λ. Si µ es un autovalor de f , con
autovector asociado u, entonces
°→ ° °−−−−−−−−−−→°
°− ° ° °
° f (u)° = ° f (P ) f (P + u)° = d ( f (P ), f (P + u)) = λd (P, P + u) = λ kuk,
→
−
de donde |µ| = λ. Por tanto, todos los autovalores de f son de módulo igual a
λ. Si f no es movimiento, entonces su razón λ no es igual a 1, por lo que f tiene
un único punto fijo.
Semejanzas en el plano
Nota 13.6.1. Por el anterior resultado, a las semejanzas directas se las llama
también giros con dilatación, y a las semejanzas indirectas se las denomina
simetrías axiales con dilatación.
Nota 13.6.2. En el resultado anterior, conocemos los elementos geométricos de
los movimientos correspondientes:
Semejanzas en el espacio
ángulo 0), una simetría axial (giro de ángulo π) o un giro de ángulo ω distinto
de 0 y π. En consecuencia, f = h ◦ g , con h la homotecia inversa de h.
→
− → −
Como el movimiento g ′ = f ◦ h ′ verifica que g ′ = g y g ′ (P 0 ) = g (P 0 ), enton-
ces g = g ′ y tenemos que g ◦ h = h ◦ g .
En este tema trabajaremos en el plano afín euclídeo (A2 (R), R2 , +), que no-
taremos E = A2 (R). En él definiremos y estudiaremos objetos que no son subes-
pacios afines, como los triángulos y las circunferencias.
14.1. Triángulos
Recordemos que un triángulo T = △ABC está definido por tres puntos A, B
y C afínmente independientes, que se denominan vértices. Vamos a introdu-
cir conceptos métricos asociados a T , pues las medianas y el baricentro son
conceptos afines, donde no interviene el producto escalar.
Los lados de un triángulo son las rectas AB, BC y C A. Es habitual notar
las longitudes de los segmentos definidos en cada lado como a = d (B,C ), b =
d (C , A), c = d (A, B). Para abreviar, se suele usar también el nombre de lado al
referirse a estas longitudes. El contexto nos indicará si nos referimos a la recta,
al segmento o a la longitud.
Ángulos de un triángulo
509
Depto. de Álgebra
Tipos de triángulos
a 2 = c 2 + b 2 − 2 · c · b · cos Ab
b 2 = c 2 + a 2 − 2 · c · a · cos Bb
c 2 = b 2 + a 2 − 2 · b · a · cos Cb.
b = π , entonces
Como caso particular, tenemos el teorema de Pitágoras: Si A 2
a2 = c 2 + b2.
Triángulos iguales
Se dice que dos triángulos son iguales si existe un movimiento que lleva
uno en otro.
P RUEBA : Es claro que la primera condición implica las otras tres. Veamos el
recíproco.
c′ . Uno de
(2) ⇒ (1) Supongamos que d (A,C ) = d (A ′ ,C ′ ), d (B,C ) = d (B ′ ,C ′) y Cb = C
los dos movimientos que lleva r C A sobre r C ′ A ′ (y, por tanto, C en C ′ ) lle-
va B al semiplano de borde C ′ + A ′ que contiene a B ′ . Entonces r C B se
aplica sobre r C ′ B ′ por la igualdad de los ángulos Cb = Cc′, B sobre B ′ por la
igualdad de los lados d (B,C ) = d (B ,C ) y A sobre A ′ por la igualdad de
′ ′
r = A + 〈u〉, s = B + 〈u〉,
Se verifica que
á
(r á
1 , r AB ) = (r B A , s 0 )
r1 ... r0
..
A
...
s1
.. s0
B
P A Q
B C
−→ −→
P RUEBA : Sean P = A − BC , Q = A + BC . Entonces
(rá
AP , r AB ) = (rá b
B A , r BC ) = B
(rá á b
AQ , r AC ) = (r C A , r C B ) = C
b + Bb + Cb = π.
por alternos internos. De aquí se deduce que A
14.2. Circunferencias
Circunferencias
C = {P ∈ E | d (P,C ) = r }.
C : (x − c1 )2 + (y − c2 )2 = r 2 .
Por tanto, una circunferencia que determinada por tres puntos no alineados,
pues nos queda un sistema de ecuaciones compatible determinado en las in-
cógnitas c1 , c2 , r .
C : x2 + y 2 = r 2.
(a1 + λv 1 )2 + (a2 + λv 2 )2 = r 2 ,
de donde
λ2 (v 12 + v 22 ) + λ2(v 1 a1 + v 2 a2 ) + a12 + a22 − r 2 = 0.
Si llamamos
λ(λ(v 12 + v 22 ) + 2(v 1 a1 + v 2 a2 )) = 0,
Arco capaz
Denotamos Ab′ , Bb′ y Cb′ a los ángulos de estos triángulos isósceles en el punto D.
Se verifica que
Ab′ + 2α = π, Bb′ + 2β = π, Cb′ + 2γ = π,
y que
b′ + Bb′ + Cb′ = 2π.
A
Entonces
b′ = 2π − Bb′ − Cb′ = 2π − (π − 2β) − (π − 2γ) = 2(β + γ) = 2 A.
A b
Mediatriz
Hay tres mediatrices, una por cada lado. Los puntos medios de cada lado los
notaremos como P AB , P BC , PC A y las mediatrices toman la forma
−→ −→ −−→
M AB = P AB + 〈 AB〉⊥ , MBC = P BC + 〈BC 〉⊥ , MC A = PC A + 〈C A〉⊥ .
Mediana
La mediana que pasa por un vértice es la recta que une dicho vértice
con el punto medio del lado opuesto (lado que no contiene al vértice
inicial).
m A = A + P BC , m B = B + P AC , mC = C + P AB .
Altura
Bisectriz
P RUEBA : Observemos que la mediatriz MBC está formada por los puntos
que están a la misma distancia de B que de C . Análogamente ocurre con la
mediatrices M AC y M AB . Si consideramos dos mediatrices, por ejemplo, M AB y
MBC , vemos que no pueden ser paralelas, ya que en ese caso los puntos A, B y
−→ −→
C estarían alineados, puesto que los vectores AB y AC serían paralelos, al ser
ambos perpendiculares a la dirección común a las dos mediatrices paralelas
M AB y MBC . Por tanto, las dos mediatrices M AB y MBC se cortan en un punto
D. Ahora bien, D está a la misma distancia de A que de B, y también está a la
misma distancia de B que de C , por lo que está a la misma distancia de A que
de C . Así, D también pertenece a la mediatriz M AC , y las tres mediatrices pasan
por el punto D.
Nota 14.3.1. Los vértices del triángulo △ABC determinan una circunferencia
que pasa por ellos. El circuncentro D es el centro de dicha circunferencia, pues
está a la misma distancia de A, B y C . El radio r es la distancia de D a cualquiera
de dichos vértices.
A′ = r B ∩ rC , B ′ = r A ∩ rC , C ′ = r A ∩ rB ,
y los vértices del primero son los puntos medios de los lados del segundo, (es
inmediato, usando ángulos alternos internos, que A ′B ′C ′ contiene cuatro trián-
gulos iguales, entre ellos ABC ). Se tiene, por ejemplo,
Así las alturas de ABC son las mediatrices de A ′ B ′C ′ , que concurren en el punto
H, circuncentro de A ′ B ′C ′ y ortocentro de ABC .
Recta de Euler
C′
A B
B′ A′
C
H
Cálculo de la bisectriz
[LLM16] D.C. Lay, S.R. Lay, and J.J McDonald, Linear algebra and its applica-
tions, fifth ed., Pearson Education Inc., 2016 (english).
[Mey00] Carl Meyer, Matrix analysis and applied linear algebra, Society for In-
dustrial and Applied Mathematics (SIAM), Philadelphia, PA, 2000 (en-
glish), With 1 CD-ROM (Windows, Macintosh and UNIX) and a solu-
tions manual (iv+171 pp.).
[MS06] Luis Merino and Evangelina Santos, Álgebra lineal con métodos ele-
mentales, Ediciones Paraninfo. S.A., 2006 (spanish).
[RT11] Agustí Reventós Tarrida, Affine maps, Euclidean motions and qua-
drics, Springer Undergraduate Mathematics Series, Springer, London,
2011 (english).
[Zha96] Fuzhen Zhang, Linear algebra, Johns Hopkins Studies in the Mat-
hematical Sciences, Johns Hopkins University Press, Baltimore, MD,
1996 (english), Challenging problems for students.
523