Está en la página 1de 522

Capítulo 1

Sistemas de ecuaciones lineales

1.1. Introducción
Un problema fundamental que aparece en matemáticas y en otras ciencias
es el análisis y resolución de m ecuaciones algebraicas con n incógnitas. El es-
tudio de un sistema de ecuaciones lineales simultáneas está íntimamente liga-
do al estudio de una matriz rectangular de números definida por los coeficien-
tes de las ecuaciones. Esta relación parece que se ha notado desde el momento
en que aparecieron estos problemas.
El primer análisis registrado de ecuaciones simultáneas lo encontramos en
el libro chino Jiu zhang Suan-shu ( Nueve Capítulos sobre las artes matemáti-
cas), escrito alrededor del 200 a.C. Al comienzo del capítulo VIII, aparece un
problema de la siguiente forma:

Tres gavillas de buen cereal, dos gavillas de cereal mediocre y una gavilla de
cereal malo se venden por 39 dou. Dos gavillas de bueno, tres mediocres y una
mala se venden por 34 dou. Y una buena, dos mediocres y tres malas se venden
por 26 dou. ¿Cuál es el precio recibido por cada gavilla de buen cereal, cada ga-
villa de cereal mediocre, y cada gavilla de cereal malo?

Hoy en día, este problema lo formularíamos como un sistema de tres ecua-


ciones con tres incógnitas:

3x1 + 2x2 + x3 = 39,


2x1 + 3x2 + x3 = 34,
x1 + 2x2 + 3x3 = 26,

donde x1 , x2 y x3 representan el precio de una gavilla de buen, mediocre y mal


cereal, respectivamente. Los chinos vieron el problema esencial. Colocaron los
coeficientes de este sistema, representados por cañas de bambú de color, como

1
Depto. de Álgebra

un cuadrado sobre un tablero de contar (similar a un ábaco), y manipulaban las


filas del cuadrado según ciertas reglas establecidas. Su tablero de contar y sus
reglas encontraron su camino hacia Japón y finalmente aparecieron en Europa,
con las cañas de color sustituidas por números y el tablero reemplazado por
tinta y papel.

Figura 1.1: Numerales chinos con cañas de bambú

En Europa, esta técnica llegó a ser conocida como eliminación gaussiana,


en honor del matemático alemán Carl F. Gauss.

Figura 1.2: C.F. Gauss (1777-1855)

Como la técnica de eliminación es fundamental, empezamos el estudio de


nuestra materia aprendiendo cómo aplicar este método para calcular las solu-
ciones de los sistemas lineales. Después de que los aspectos computacionales
se manejen bien, profundizaremos en cuestiones más teóricas.

1.2. Equivalencia de sistemas


Nota 1.2.1. En lo que sigue consideraremos fijado un cuerpo K de coeficien-
tes. En el texto nos referiremos a los elementos del cuerpo como números o

2 Álgebra Lineal y Geometría


Depto. de Álgebra

escalares. El lector bien puede pensar que K es el cuerpo Q de los números ra-
cionales, R de los reales o incluso C de los complejos. Aunque debe tener en
cuenta que todo lo dicho sobre sistemas de ecuaciones lineales y matrices es
cierto en general para cualquier cuerpo K.

Ecuación lineal

Sea n ≥ 1 un número natural. Una ecuación lineal es una expresión de


la forma
a1 x1 + a2 x2 + · · · + an xn = b,
donde a1 , a2 , . . . , an y b son números conocidos y x1 x2 , . . . , xn son in-
cógnitas. Los números ai se denominan coeficientes de la ecuación,
mientras que b es el término independiente.

Una solución de la ecuación lineal anterior es una serie de números α1, α2 , . . . , αn


que la satisfacen, es decir, que verifican

a1 α1 + a2 α2 + · · · + an αn = b.

Diremos también que la solución se escribe como x1 = α1 , x2 = α2 , . . . , xn = αn ,


que también expresaremos como
 
α1
 α2 
.. .
 

 . 
αn

El carácter lineal se aplica porque las incógnitas aparecen con grado igual a 1.

Ejemplo 1.2.1.- La expresión 3x1 +2x2 = −1 es una ecuación lineal y x1 = 1, x2 =


−2 es una solución. La expresión 0 · x1 = 2 es una ecuación lineal, pero no tiene
solución.

Álgebra Lineal y Geometría 3


Depto. de Álgebra

Sistema lineal de ecuaciones

Sean m ≥ 1 y n ≥ 1 números naturales. Un sistema lineal de ecuaciones


es un conjunto de m ecuaciones lineales y n incógnitas de la forma

+ ... + b1 ,


 a11 x1 + a12 x2 a1n xn =
 a21 x1 + a22 x2 + ... + a2n xn = b2

S ≡ ..


 .
am1 x1 + am2 x2 + . . . + amn xn = b m ,

donde las xi son las incógnitas y los ai j , b i son números. Los núme-
ros ai j se denominan coeficientes del sistema, y el conjunto de los b i
términos independientes del sistema.

Una solución del sistema lineal anterior es una serie de números α1, α2 , . . . , αn
que satisface cada ecuación del sistema, es decir, que verifica

ai 1 α1 + ai 2 α2 + · · · + ai n αn = b i , para cada i = 1, . . . , n.

Para abreviar, hablaremos con frecuencia de un sistema de ecuaciones, elimi-


nando la palabra “lineal”, pues serán el objeto de cálculo habitual en el curso.
El problema es determinar si un sistema de ecuaciones tiene solución o no y, si
es posible, calcularlas todas. Ya con una ecuación a1 x1 = b 1 nos encontramos
con diferentes posibilidades.

Si a1 6= 0, entonces la ecuación tiene una única solución x1 = b 1 /a1 .

Si a1 = 0, b 1 6= 0, entonces no hay solución.

Si a1 = 0 = b 1 , entonces cualquier valor de x1 es solución.

En sistemas con más ecuaciones encontramos el mismo fenómeno.

Ejemplo 1.2.2.- Consideremos el sistema lineal planteado por el problema


chino de las gavillas de cereal visto en la página 1:

 3x1 + 2x2 + x3 = 39,


S ≡ 2x1 + 3x2 + x3 = 34, (1.2.1)


x1 + 2x2 + 3x3 = 26.

4 Álgebra Lineal y Geometría


Depto. de Álgebra

Despejando en la tercera ecuación, x1 = 26 − 2x2 − 3x3 , y sustituyendo en las


otras ecuaciones tenemos

−4x2 − 8x3 = −39,


½
(1.2.2)
−x2 − 5x3 = −18.

Ahora, en la segunda ecuación, es x2 = 5x3 − 18. Sustituyendo en la otra ecua-


ción, se obtiene
12x3 = 33.
Luego debe ser x3 = 11/4. De la ecuación x2 = 5x3 − 18 se obtiene x2 = 17/4. Por
último, de x1 = 26 − 2x2 − 3x3 obtenemos x1 = 37/4.
Es decir, el sistema lineal S tiene como única solución

37/4
 
 17/4  .
11/4

Ejemplo 1.2.3.- Consideremos ahora el sistema lineal

 x1 + 2x2 − x3 = −3,

S ≡ x1 + x2 = 1, (1.2.3)
2x1 + x2 + x3 = 0.

Despejando en la segunda ecuación, x1 = 1 − x2 , y sustituyendo en las otras


obtenemos ½
x2 − x3 = −4,
(1.2.4)
−x2 + x3 = −2.
En la primera ecuación despejamos x2 = −4 + x3 . Sustituyendo en la otra ecua-
ción se obtiene

−(−4 + x3 ) + x3 = −2 ⇒ 4 − x3 + x3 = −2 de donde 4 = −2.

Como 4 6= −2, deducimos que no hay soluciones para el sistema lineal S .

Álgebra Lineal y Geometría 5


Depto. de Álgebra

Los anteriores son ejemplos de sistemas de ecuaciones con solución única


o sin solución. El siguiente paso es estudiar qué ocurre con los sistemas lineales
que no están en ninguno de los casos anteriores, es decir, aquellos que tienen
más de una solución.
Veamos el siguiente ejemplo.

Ejemplo 1.2.4.- Vamos a calcular soluciones del sistema

 x1 + x2 + 2x3 = 3,

S ≡ 2x1 + 2x2 + x3 = 3, (1.2.5)


x1 + x2 − 3x3 = −2.

Como en los casos anteriores, resolveremos el sistema por el método de sus-


titución. Despejamos entonces x1 en la última ecuación, x1 = −2 − x2 + 3x3 .
Sustituyendo en las otras ecuaciones se tiene

5x3 = 5,
½
(1.2.6)
7x3 = 7.

Se trata de un sistema lineal con dos ecuaciones y una incógnita, cuya única
solución es x3 = 1. Respecto a x1 y x2 solamente podemos decir que

x1 = 1 − x2 .

Es decir, que para cada valor distinto de x2 se obtiene un valor distinto de x1 . El


conjunto de las soluciones del sistema lineal S es

1 − x2
 
 x2  donde x2 ∈ K.
1

En este caso el sistema lineal tiene tantas soluciones como elementos hay en el
cuerpo de escalares K.

Veremos que en los sistemas de ecuaciones en general se presentan las mis-


mas posibilidades que hemos visto en los ejemplos anteriores.

6 Álgebra Lineal y Geometría


Depto. de Álgebra

Compatibilidad de sistemas lineales

Decimos que un sistema lineal S es

compatible determinado si tiene una única solución.

compatible indeterminado si tiene más de una solución.

incompatible si no tiene soluciones.

Sistema de ecuaciones equivalentes

Dos sistemas lineales con n incógnitas se dicen equivalentes si tienen


los mismos conjuntos de soluciones.

Ejemplo 1.2.5.-

1. Sistemas equivalentes con distinto número de ecuaciones.

2. Sistemas no equivalentes.

1.3. Eliminación gaussiana


La eliminación gaussiana es una herramienta que nos permitirá resolver
el problema planteado. Es un algoritmo que sistemáticamente transforma un
sistema en otro más simple, pero equivalente. La idea es llegar a un sistema lo
más sencillo posible, eliminando variables, y obtener al final un sistema que
sea fácilmente resoluble.

Álgebra Lineal y Geometría 7


Depto. de Álgebra

Ejemplo 1.3.1.- El sistema

2x1 + 5x2 = −1,


½
S ≡
2x2 = 3,

se puede resolver fácilmente. La última ecuación nos permite despejar x2 = 3/2


y sustituir este valor en la primera ecuación para obtener

3 1 15 17
2x1 + 5 = −1, de donde x1 = (−1 − ) = − .
2 2 2 4

El proceso de eliminación descansa sobre tres operaciones simples que trans-


forman un sistema en otro equivalente. Para describir estas operaciones, sea E k
la k-ésima ecuación

E k : ak1 x1 + ak2 x2 + . . . + akn xn = b k

y escribamos el sistema como


 

 E1 

 E2
 

S ≡ .. .


 . 


Em
 

Dado un sistema de ecuaciones S , cada una de las siguientes transformacio-


nes elementales produce un sistema equivalente S ′ .

1. Intercambio de las ecuaciones i -ésima y j -ésima (1 ≤ i ≤ j ≤ m). Esto es,


si
   
 E1   E1 
..  .. 

  
 
. .

 
 
 


 
 
 

   
 Ei 
  
E

 j 
  
 
.. .. Ei j
  

S ≡ . , entonces S ≡ . → S ′.
,S −
   
 Ej   Ei 

  
 
 
. .

 
 
 

. .
   
 .   . 

 
 
 
   

   
Em Em

8 Álgebra Lineal y Geometría


Depto. de Álgebra

2. Reemplazo de la i -ésima ecuación por un múltiplo no nulo de ella. Esto


es,  
 E1 
.. 

 
 . 

 
 

′ αE i
S ≡ αE i , donde α 6= 0.S −→ S ′ .
. 
 .. 

 

 
 

Em
 

3. Reemplazo de la j -ésima ecuación por la suma de ella misma con un


múltiplo de la i -ésima ecuación. Esto es,
 
 E1 
..

 

.

 


 

 
Ei

 

 
.. E j +αE i
 

S ≡ . .S −−−−→ S ′ .
 
E j + αE i

 

 
..

 

 
.

 


 

 
Em

Ejemplo 1.3.2.- Sea el sistema

2x1 − 2x3 + 3x4 1



 − x2 − x5 =
+ 2x2 + 2x5 0

x1 − x3 + x4 =

S ≡ . (1.3.1)

 3x 1 + x2 + x3 + x4 + x5 = 0
2

−x1 + x2 − x3 + x4 − x5 =

El intercambio de las ecuaciones (2) y (4) produce el sistema

2x1 − 2x3 + 3x4 1



 − x2 − x5 =
2

−x + x2 − x3 + x4 − x5 =

1
S′≡ (1.3.2)

 3x 1 + x2 + x3 + x4 + x5 = 0
+ 2x2 + 2x5 0

x1 − x3 + x4 =

E 24
→ S ′.
que notamos por S −

Álgebra Lineal y Geometría 9


Depto. de Álgebra

Ejemplo 1.3.3.- Sea el sistema

2x1 − x2 − 2x3 + 3x4 − x5 1



 =
+ 2x2 + 2x5 0

x1 − x3 + x4 =

S ≡ . (1.3.3)
 3x1
 + x2 + x3 + x4 + x5 = 0
2

−x1 + x2 − x3 + x4 − x5 =

La sustitución de la cuarta ecuación por el doble de ella misma produce el sis-


tema

2x1 − x2 − 2x3 + 3x4 − x5 = 1




+ 2x2 − x3 + x4 + 2x5 = 0

x1

S′≡ , (1.3.4)

 3x1 + x2 + x3 + x4 + x5 = 0
−2x1 + 2x2 − 2x3 + 2x4 − 2x5 = 4

2E 4
notado por S −→ S ′ .

Ejemplo 1.3.4.- Sea el sistema

2x1 − x2 − 2x3 + 3x4 − x5 1



 =
+ 2x2 + 2x5 0

x1 − x3 + x4 =

S ≡ . (1.3.5)

 3x 1 + x2 + x3 + x4 + x5 = 0
2

−x1 + x2 − x3 + x4 − x5 =

La sustitución de la tercera ecuación por la suma de ella más tres veces la cuarta
produce el sistema

2x1 − x2 − 2x3 + 3x4 1



 − x5 =
x1 + 2x2 + 2x5 0

− x3 + x4 =

S′≡ (1.3.6)

 4x2 − 2x3 + 4x4 − 2x5 = 0
2

−x1 + x2 − x3 + x4 − x5 =

E 3 +3E 4
expresado como S −−−−→ S ′ .

10 Álgebra Lineal y Geometría


Depto. de Álgebra

Sistemas equivalentes por transformaciones elementales

Si el sistema S ′ se obtiene a partir del sistema S por una concate-


nación de transformaciones elementales, entonces S ′ es un sistema
equivalente a S .

P RUEBA : Si S ′ se obtiene a partir de S mediante el intercambio de dos ecua-


ciones, transformación de tipo 1, es evidente que cualquier solución de S sa-
tisface las ecuaciones de S ′ y viceversa. Luego ambos sistemas son equivalen-
tes.
Si S ′ se obtiene de S mediante la sustitución de una ecuación por un múl-
tiplo no nulo de ella, transformación de tipo 2, es decir, si son
   
 E1   E1 
..  .. 

  
 
 .   . 

 
 
 

   
S ≡ Ei y S ′ ≡ αE i con α 6= 0,



 .
.. 






 .
.. 




 
 
 

Em Em
   

entonces, como las soluciones de la ecuación E i también lo son de la ecuación


αE i y viceversa, ambos sistemas son equivalentes.
Si S ′ se obtiene de S mediante la sustitución de una ecuación por la suma
de ella misma más un múltiplo de otra, transformación de tipo 3, es decir, si
son    
 E1   E1 
..  ..

  
 

. .

 
 
 


 
 
 

   
 Ei 



 

 E i



.. ..
   

S ≡ .  , y S ≡ . ,
  
Ej  E j + αE i 

  
 
   
. .
   
. .

 
 
 

.  .

 
 
 


  
 

   
Em Em
entonces se comprueba que cualquier solución de E i y de E j lo es de E i y de
E j + αE i , y viceversa. Luego ambos sistemas son equivalentes. 

El problema más común en la práctica es la resolución de un sistema con


n ecuaciones y n incógnitas, lo que se conoce como un sistema cuadrado, con
solución única. En este caso, la eliminación gaussiana es directa, y más tarde
estudiaremos las diferentes posibilidades. Lo que sigue es un ejemplo típico.

Álgebra Lineal y Geometría 11


Depto. de Álgebra

Ejemplo 1.3.5.- Consideremos el sistema

2x1 + x2 + x3 = 1,
6x1 + 2x2 + x3 = −1, (1.3.7)
−2x1 + 2x2 + x3 = 7.

En cada paso, la estrategia es centrarse en una posición, llamada posición pivo-


te, y eliminar todos los términos por debajo de la posición usando las tres ope-
raciones elementales. El coeficiente en la posición pivote se denomina pivote,
mientras que la ecuación en donde se encuentra el pivote se llama ecuación pi-
vote. Solamente se permiten números no nulos como pivotes. Si un coeficiente
en una posición pivote es cero, entonces la ecuación pivote se intercambia con
una ecuación por debajo para producir un pivote no nulo. Esto siempre es posi-
ble para sistemas cuadrados con solución única, como veremos más adelante.
A menos que sea cero, el primer coeficiente de la primera ecuación se toma co-
mo el primer pivote. Por ejemplo, el elemento 2 del sistema es el pivote del
primer paso:
2 x1 + x2 + x3 = 1,
6x1 + 2x2 + x3 = −1,
−2x1 + 2x2 + x3 = 7.
Paso 1. Elimina todos los términos por debajo del pivote.

Resta tres veces la primera ecuación de la segunda para generar el sistema


equivalente

2 x1 + x2 + x3 = 1,
− x2 − 2x3 = −4, (E 2 − 3E 1)
−2x1 + 2x2 + x3 = 7.

Suma la primera ecuación a la tercera para formar el sistema equivalente

2 x1 + x2 + x3 = 1,
− x2 − 2x3 = −4,
3x2 + 2x3 = 8 (E 3 + E 1 ).

Paso 2. Selecciona un nuevo pivote.

De momento, seleccionamos un nuevo pivote buscando para abajo y a


la derecha. Si este coeficiente no es cero, entonces es nuestro pivote. En

12 Álgebra Lineal y Geometría


Depto. de Álgebra

otro caso, intercambiamos con una ecuación que esté por debajo de es-
ta posición para colocar el elemento no nulo en la posición pivote. En
nuestro ejemplo, −1 es el segundo pivote:

2x1 + x2 + x3 = 1,
(-1) x2 − 2x3 = −4,
3x2 + 2x3 = 8.

Paso 3. Elimina todos los términos por debajo del pivote.

Suma tres veces la segunda ecuación a la tercera para llegar al sistema


equivalente:

2x1 + x2 + x3 = 1,
(-1) x2 − 2x3 = −4,
− 4x3 = −4 (E 3 + 3E 2 ).

En general, en cada paso nos movemos abajo y hacia la derecha para se-
leccionar el nuevo pivote, y entonces eliminar todos los términos por de-
bajo de él hasta que ya no podamos seguir. En este ejemplo, el tercer pi-
vote es −4, pero como ya no hay nada por debajo que eliminar, paramos
el proceso.

En este punto, decimos que hemos triangularizado el sistema. Un sistema


triangular se resuelve muy fácilmente mediante el método de sustitución hacia
atrás, en el que la última ecuación se resuelve para la última incógnita y se
sustituye hacia atrás en la penúltima ecuación, la cual se vuelve a resolver para
la penúltima incógnita, y continuamos así hasta llegar a la primera ecuación.
En nuestro ejemplo, de la última ecuación obtenemos

x3 = 1.

Sustituimos x3 = 1 en la segunda ecuación, y tenemos

x2 = 4 − 2x3 = 4 − 2(1) = 2.

Por último, sustituimos x3 = 1 y x2 = 2 en la primera ecuación para obtener


1 1
x1 = (1 − x2 − x3 ) = (1 − 2 − 1) = −1,
2 2
que completa la solución.

Álgebra Lineal y Geometría 13


Depto. de Álgebra

1.4. Notación sobre matrices


No hay razón para escribir los símbolos como x1 , x2 o x3 en cada paso, pues
lo único que manejamos son los coeficientes. Si descartamos los símbolos, en-
tonces el sistema de ecuaciones se reduce a una disposición rectangular de
números en la que cada fila representa una ecuación. Por ejemplo, el sistema
(1.3.7) se puede representar como una disposición de los números en la forma

2 1 1 1
 
 6 2 1 −1  (las barras indican dónde aparece el signo =).
−2 2 1 7

Esta disposición de números en filas y columnas es una matriz. Considere-


mos entonces un sistema de ecuaciones

a11 x1 + a12 x2 + . . . + a1n xn = b 1





 a21 x1 + a22 x2 + . . . + a2n xn = b 2

S ≡ ..


 .
am1 x1 + am2 x2 + . . . + amn xn = b m

Matrices de un sistema de ecuaciones

Llamamos matriz de coeficientes del sistema lineal S a la matriz

a11 a12 . . . a1n


 
 a21 a22 . . . a2n 
A= . .. . ..  .
 
 . . . . . . 
am1 am2 . . . amn

Si aumentamos la matriz de coeficientes a la derecha con los términos


independientes tenemos la matriz ampliada del sistema:

...
 
a11 a12 a1n b1
 a21 a22 ... a2n b2 
(A|b) =  .. .. .. .. .
 
 . . . . 
am1 am2 . . . amn b m

14 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 1.4.1.- En el sistema anterior, la matriz de coeficientes del sistema es

2 1 1
 

A= 6 2 1 
−2 2 1

y la matriz ampliada es

2 1 1 1
 

A b =  6 2 1 −1  .
¡ ¢

−2 2 1 7

Con respecto a la notación, usaremos letras mayúsculas para las matrices


y minúsculas con subíndice para las entradas individuales de la matriz. Así,
escribiremos
a11 a12 . . . a1n
 
 a21 a22 . . . a2n 
A= . .. . ..  = (ai j ).
 
 . . . . . . 
am1 am2 . . . amn
El primer subíndice de un elemento de la matriz indica la fila, y el segundo
subíndice denota la columna donde se encuentra. Por ejemplo, si

2 1 3 4
 

A =  8 6 5 −9  , entonces a11 = 2, a12 = 1, . . . , a34 = 7. (1.4.1)


−3 8 3 7

Una submatriz de una matriz dada A es una matriz que se obtiene seleccio-
nando un conjunto de filas y columnas de A. Por ejemplo,

2 4
µ ¶
B=
−3 7

es una submatriz de A porque B es el resultado de elegir los elementos de la


matriz A que se encuentran en la primera y tercera filas, junto a la primera y
cuarta columna.
Una matriz A se dice que tiene orden m ×n si A tiene exactamente m filas y
n columnas. La matriz A de (1.4.1) es una matriz 3×4. Por convenio, las matrices
1 × 1 se identifican con escalares, y al revés.
Para enfatizar que una matriz A es de orden m × n, usaremos la notación
A m×n . Cuando m = n, es decir, cuando el número de filas y columnas coincide,

Álgebra Lineal y Geometría 15


Depto. de Álgebra

diremos que la matriz es cuadrada. Para hablar de matrices en general, que no


sean necesariamente cuadradas, usaremos la expresión matriz rectangular.
Las matrices que tienen una sola fila o una sola columna las llamaremos,
respectivamente, vectores fila o vectores columna. Los notaremos como u, v .
El símbolo A i ∗ se usa para denotar la fila i -ésima, y A ∗ j para la j -ésima
columna. Por ejemplo, si A es la matriz de (1.4.1), entonces

1
 

8 6 5 −9 y A ∗2 =  6  .
¡ ¢
A 2∗ =
8

Haremos uso de dos operaciones que generalizaremos al hablar de espacios


vectoriales. Dados dos vectores columna u, v del mismo orden, consideramos
su suma w = u + v como el vector columna del mismo orden y cuyas com-
ponentes w i son las sumas de las componentes respectivas u i + v i . De igual
forma, definimos w = αu como el vector columna del mismo orden que u y
con componentes w i = αu i . Podemos hacer algo análogo con las filas.
Dados u1 , u2 , . . . , us vectores del mismo orden, llamamos combinación li-
neal de estos vectores a una expresión de la forma

α1 u1 + α2 u2 + · · · + αs us ,

que es un vector formado por las operaciones anteriores.

1.5. Operaciones elementales sobre filas


La eliminación gaussiana se puede realizar sobre la matriz ampliada [A|b]
mediante operaciones elementales sobre las filas de [A|b]. Estas operaciones
elementales de filas se corresponden a las tres operaciones elementales que
hemos visto antes.
Para una matriz de orden m × n de la forma

M1∗
 
 .. 
 . 
 
 Mi ∗ 
 . 
 
M =  ..  ,
 
 Mj∗ 
 . 
 
 .. 
Mm∗

los tres tipos de operaciones elementales de filas sobre M son como sigue.

16 Álgebra Lineal y Geometría


Depto. de Álgebra

Operaciones elementales por fila

Tipo I Tipo II Tipo III


Intercambio Multiplicación por α 6= 0 Combinación lineal
M1∗ M1∗
   
 ..  
M1∗
 ..
 .  .
 
 

 Mj∗ 
 .. 
Mi ∗

.
   
 
 ..  ..
     
 .   αMi ∗ 
.
 
 
..
     
 Mi ∗     M j ∗ + αMi ∗ 
 . 
 .  .
   
. Mm∗ .
 
 .   . 
Mm∗ Mm∗
Fi j αFi F j +αFi
M−
→ M −→ M −−−−→

Dos matrices M y M ′ se dicen equivalentes por filas si puede transformarse


una en otra mediante una sucesión finita de operaciones elementales por filas.
Por ejemplo, las matrices

1 1 −1 0 F12 2 0 1 1
µ ¶ µ ¶


2 0 1 1 1 1 −1 0
1 1 −1 0 F2 −2F1 1 1 −1 0
µ ¶ µ ¶
−−−−→ ,
2 0 1 1 0 −2 3 1
1 1 −1 0 12 F2 1 1 −1 0
µ ¶ µ ¶
−→
2 0 1 1 1 0 1/2 1/2

son equivalentes por filas. Usaremos esta notación para indicar las transforma-
ciones elementales.
Nota 1.5.1. Dada C m×n = (ci j¡) una matriz, consideremos el sistema asociado
SC cuya matriz ampliada es C 0 , es decir, el sistema de m ecuaciones y
¢

n incógnitas donde todos los elementos del término independiente son nulos.
Si A m×n y B m×n son matrices equivalentes por filas, entonces los sistemas aso-
ciados S A y S B son equivalentes. En efecto, basta probarlo para una matriz B
que proceda de A mediante una de las transformaciones elementales. Como el
término independiente no se altera por la acción de estas transformaciones y
sigue siendo nulo, se tiene el resultado.

Álgebra Lineal y Geometría 17


Depto. de Álgebra

Ejemplo 1.5.1.- Para resolver el sistema del ejemplo 1.3.5 mediante operacio-
nes elementales por fila, partimos de la matriz ampliada M = (A|b) y triangu-
larizamos la matriz de coeficientes A realizando la misma secuencia de opera-
ciones por fila que se corresponden a las operaciones elementales realizadas
sobre las ecuaciones.
 F2 − 3F1 
2 1 1 1 2 1 1 1
 
F3 + F1
 6 2 1 −1  −−−−−−−→  0 -1 −2 −4 
−2 2 1 7 0 3 2 8
2 1 1 1
 
F3 +3F2
−−−−→ 0 −1 −2 −4 

0 0 −4 −4
La matriz final representa el sistema triangular
2x1 + x2 + x3 = 1,
− x2 − 2x3 = −4,
− 4x3 = −4.
que se resuelve por sustitución hacia atrás, como explicamos antes (ver ejem-
plo 1.3.5).

En general, si un sistema cuadrado n × n se triangulariza a la forma


t11 t12 . . . t1n c1
 
 0 t22 . . . t2n c2 
 .. .. . . .. ..  (1.5.1)
 
 . . . . . 
0 0 . . . tnn cn
en donde cada ti i 6= 0 (no hay pivotes nulos), entonces el algoritmo general de
sustitución hacia atrás es como sigue.

Algoritmo de sustitución hacia atrás

La solución del sistema triangular se calcula mediante xn = cn /tnn y


procede de manera recursiva calculando

1
xi = (ci − ti ,i +1 xi +1 − ti ,i +2 xi +2 − . . . − ti n xn )
ti i

para i = n − 1, n − 2, . . . , 2, 1.

18 Álgebra Lineal y Geometría


Depto. de Álgebra

1.6. Forma escalonada por filas


Ya estamos preparados para analizar sistemas rectangulares con m ecua-
ciones y n incógnitas

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
..
.
am1 x1 + am2 x2 + . . . + amn xn = b m ,

donde m puede ser diferente de n. Si no sabemos con seguridad que m y n


son iguales, entonces decimos que el sistema es rectangular. El caso m = n
también queda comprendido en lo que digamos.
La primera tarea es extender la eliminación gaussiana de sistemas cuadra-
dos a sistemas rectangulares. Recordemos que un pivote debe ser siempre un
valor no nulo. En el caso de un sistema rectangular general, no siempre es po-
sible tener las posiciones pivote en la diagonal principal de la matriz de coefi-
cientes. Esto significa que el resultado final de la eliminación gaussiana no será
una forma triangular. Por ejemplo, consideremos el siguiente sistema:

x1 + 2x2 + x3 + 3x4 + 3x5 = 5,


2x1 + 4x2 + 4x4 + 4x5 = 6,
x1 + 2x2 + 3x3 + 5x4 + 5x5 = 9,
2x1 + 4x2 + 4x4 + 7x5 = 9.

Fijemos nuestra atención en la matriz de coeficientes


 
1 2 1 3 3
 2 4 0 4 4 
 
A= , (1.6.1)
 1 2 3 5 5 
2 4 0 4 7

e ignoremos de momento el lado derecho del sistema, es decir, los términos


independientes. Aplicando eliminación gaussiana a A, obtenemos el siguiente
resultado:    
1 2 1 3 3 1 2 1 3 3
 2 4 0 4 4   0 0 −2 −2 −2 
   
→ .
 1 2 3 5 5   0 0 2 2 2 

2 4 0 4 7 0 0 −2 −2 1
En el proceso de eliminación básico, nos movemos abajo y a la derecha, a la
siguiente posición pivote. Si encontramos un cero en esta posición, se efectúa
un intercambio con una fila inferior para llevar un número no nulo a la posición

Álgebra Lineal y Geometría 19


Depto. de Álgebra

pivote. Sin embargo, en este ejemplo, es imposible llevar un elemento no nulo a


la posición (2, 2) mediante el intercambio de la segunda fila con una fila inferior.
Para manejar esta situación, debemos modificar el procedimiento de la eli-
minación gaussiana.

Eliminación gaussiana modificada

Sea A m×n una matriz y supongamos que U es la matriz obtenida a par-


tir de A tras haber completado i − 1 pasos de eliminación gaussiana.
Para ejecutar el i -ésimo paso, procedemos como sigue:

De izquierda a derecha en U , localizamos la primera columna


que contiene un valor no nulo en o por debajo de la i -ésima po-
sición. Digamos que es U∗ j .

La posición pivote para el i -ésimo paso es la posición (i , j ).

Si es necesario, intercambia la i -ésima fila con una fila inferior


para llevar un número no nulo a la posición (i , j ), y entonces anu-
lamos todas las entradas por debajo de este pivote.

Si la fila Ui ∗ , así como todas las filas de U por debajo de Ui ∗


consisten en filas nulas, entonces el proceso de eliminación es-
tá completo.

Ilustremos lo anterior aplicando la versión modificada de la eliminación


gaussiana a la matriz dada en 1.6.1

Ejemplo 1.6.1.- Aplicamos la eliminación gaussiana modificada a la matriz

 
1 2 1 3 3
2 4 0 4 4
 
A= ,
 
 1 2 3 5 5 
2 4 0 4 7

20 Álgebra Lineal y Geometría


Depto. de Álgebra

y marcamos los elementos no nulos encontrados:


   
1 2 1 3 3 1 2 1 3 3
2 4 0 4 4 0 0 -2 −2 −2 
   
→
  
1 2 3 5 5 0 0 2 2 2 
 
  
2 4 0 4 7 0 0 −2 −2 1
   
1 2 1 3 3 1 2 1 3 3
0 0 -2 −2 −2   0 0 -2 −2 −2 
   
→ → .

 0 0 0 0 0   0 0 0 0 3 
0 0 0 0 3 0 0 0 0 0

Observemos que el resultado final de aplicar la eliminación gaussiana en el


ejemplo anterior no es una forma triangular exactamente, sino un tipo escalo-
nado de forma triangular. Por su importancia, le damos un nombre especial.

Forma escalonada por filas

Una matriz E de orden m × n con filas E i ∗ y columnas E ∗ j se dice que


está en forma escalonada por filas si verifica:

Si E i ∗ es una fila de ceros, entonces todas las filas por debajo de


E i ∗ son también nulas.

Si la primera entrada no nula de E i ∗ está en la j -ésima posición,


entonces todas las entradas por debajo de la i -ésima posición en
las columnas E ∗1 , E ∗2 , . . . , E ∗ j son nulas.

El algoritmo de la eliminación gaussiana modificada nos proporciona el si-


guiente resultado:

Equivalencia con una forma escalonada

Toda matriz es equivalente por filas a una forma escalonada por filas.

Álgebra Lineal y Geometría 21


Depto. de Álgebra

Una estructura típica de una forma escalonada por filas, con los pivotes
marcados, es  
* ∗ ∗ ∗ ∗ ∗ ∗ ∗
 0 0 * ∗
 
∗ ∗ ∗ ∗ 
 
 0 0 0 * ∗ ∗ ∗ ∗ 
 
 0 0 0 0 0 0 * ∗
 

 0 0 0 0 0 0 0 0
 

0 0 0 0 0 0 0 0
Los pivotes son las primeras entradas no nulas en cada fila. Podemos tener tam-
bién columnas de ceros a la izquierda de la matriz.
Como hay flexibilidad para elegir las operaciones por filas que reducen una
matriz A a una forma escalonada E , las entradas de E no están unívocamente
determinadas por A. Sin embargo, probaremos que las posiciones de los pivo-
tes son siempre las mismas.
Nota 1.6.1. Sean A m×n y B m×n matrices tales que B se ha obtenido de A me-
diante transformaciones elementales por filas. Supongamos que existe una re-
lación de la forma
n
X
A ∗k = α j A∗ j ,
j =1

que expresa la columna A ∗k como combinación lineal de otras columnas de la


matriz A. Entonces se tiene la misma relación en la matriz B, es decir,
n
X
B ∗k = α j B∗ j ,
j =1

con los mismos coeficientes. Es una comprobación muy sencilla para cada trans-
formación.
Por aplicación reiterada de este resultado, si E es una forma escalonada por
filas de A, las relaciones entre las columnas de E son las mismas que las rela-
ciones entre las columnas de A.

1.7. Forma escalonada reducida por filas


Se puede avanzar en la simplificación de una forma escalonada por filas.
Por ejemplo, mediante la multiplicación de una fila por un escalar no nulo
(transformación elemental), podemos conseguir que cada pivote sea igual a 1.
Además, se pueden anular las entradas que se encuentran por encima de cada
pivote. El siguiente ejemplo ilustra este proceso.

22 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 1.7.1.- Obtenemos una forma escalonada de la matriz

 
1 2 1 3 3
2 4 0 4 4
 
 
1 2 3 5 5
 
 
2 4 0 4 7

mediante transformaciones elementales y hacemos, en cada paso, los pivotes


iguales a 1, así como anular las entradas superiores a cada pivote.

     
1 2 1 3 3 1 2 1 3 3 1 2 1 3 3
2 4 0 4 4 0 0 -2 −2 −2 0 0 1 1 1 
     
→   → 
    
1 2 3 5 5 0 0 2 2 2 0 0 2 2 2 
  
    
2 4 0 4 7 0 0 −2 −2 1 0 0 −2 −2 1
   
1 2 0 2 2 1 2 0 2 2 1 2 0 2 2
0 0 1 1 1 0 0 1 1 1  0 0 1 1 1 
     
→   →  → 
   
0 0 0 0 0 0 0 0 0 3  0 0 0 0 1 
 
   
 0 0 0 0 3  0 0 0 0 0 0 0 0 0 0
1 2 0 2 0
0 0 1 1 0
 
→ 
 
0 0 0 0 1

 
0 0 0 0 0

Este proceso es una extensión del conocido como método de Gauss-Jordan.


Comparamos este ejemplo con el resultado del ejemplo 1.6.1 (pág. 20), y vemos
que la forma de la matriz final es la misma en ambos casos, que tiene que ver
con la unicidad de las posiciones de los pivotes que hemos comentado ante-
riormente. La única diferencia es el valor numérico de algunas entradas. Por la
naturaleza de la eliminación, cada pivote es 1 y todas las entradas por encima
y por debajo son nulas. Por tanto, la forma escalonada por filas que produce
esta reducción contiene un número reducido de entradas no nulas. Esto nos
permite dar la siguiente definición.

Álgebra Lineal y Geometría 23


Depto. de Álgebra

Forma escalonada reducida por filas

Una matriz E m×n está en forma escalonada reducida por filas si se ve-
rifican las siguientes condiciones:

E está en forma escalonada por filas.

La primera entrada no nula de cada fila (el pivote) es 1.

Todas las entradas por encima del pivote son cero.

Una estructura típica de una matriz en forma escalonada reducida por filas es

1 0 0 0
 
∗ ∗ ∗ ∗

 0 0 1 0 ∗ ∗ 0 ∗ 

0 0 0 1 ∗ ∗ 0 ∗
 
 
0 0 0 0 0 0 1
 
 ∗ 
0 0 0 0 0 0 0 0
 
 
0 0 0 0 0 0 0 0

Observemos que una columna que contenga un pivote no puede ser combina-
ción lineal de las anteriores. Lo mismo se aplica a una forma escalonada cual-
quiera. Como comentamos antes, si una matriz A se transforma en una for-
ma escalonada por filas mediante operaciones elementales por fila, entonces
la forma está unívocamente determinada por A, pero las entradas individua-
les de la forma no son únicas. Sin embargo, la forma escalonada reducida tiene
una propiedad especial.

Unicidad de la forma escalonada reducida por filas y pivotes

Toda matriz A es equivalente por filas a una única forma escalonada


reducida por filas E A . Además, toda forma escalonada de A tiene los
pivotes en las mismas posiciones.

P RUEBA : Sea A una matriz m × n. Probaremos el teorema por inducción


sobre n. Si la matriz A tiene una columna (caso n = 1), entonces tenemos dos
posibilidades para E A , : la entrada en la primera fila es cero o uno, y las restantes

24 Álgebra Lineal y Geometría


Depto. de Álgebra

componentes son nulas. En otras palabras,

0 1
   
 0   0 
EA =  ..  o bien E A =  .. .
   
 .   . 
0 0

Como toda operación por filas aplicada al primer caso la deja invariante, no
podemos usar estas operaciones para transformar la primera matriz en la se-
gunda, ni podemos cambiar la segunda en la primera. Esto significa que una
matriz con una sola columna es equivalente por filas a una de las matrices an-
teriores, pero no a ambas.
Supongamos ahora que n > 1 y que el teorema es cierto para matrices con
menos de n columnas. Si B y C son dos formas escalonadas reducidas por fi-
las obtenidas a partir de A, sean A ′ , B ′ y C ′ las matrices obtenidas mediante el
borrado de la última columna de A, B y C , respectivamente. Entonces B ′ y C ′
son equivalentes por filas a A ′ . Más aún, B ′ y C ′ están en forma escalonada re-
ducida por filas. Como A ′ tiene n − 1 columnas, la hipótesis de inducción nos
garantiza que B ′ = C ′. Por tanto, B y C únicamente pueden ser diferentes en la
última columna. Vamos a distinguir dos posibilidades.
Si B y C no contienen un pivote en la última columnas, entonces B ∗n es
combinación lineal de las columnas anteriores con pivotes. Con C ∗n ocurre lo
mismo, y con los mismos coeficientes y columnas, pues C y B están relaciona-
das mediante transformaciones elementales. Esto implica que B = C .
Si B y C contienen un pivote en la última columna, entonces B ∗n tiene un 1
en la posición k y ceros en las restantes, y C ∗n tiene un 1 en la posición l y ceros
en las restantes. Como las n − 1 primeras columnas de B y C son iguales, la fila
k en la que aparece el pivote 1 de B ∗n coincide con la fila l en la que aparece
el pivote 1 en C ∗n : es la primera fila nula de la forma escalonada reducida por
filas de A ′ . Por tanto, k = l y B ∗n = C ∗n .
Para la segunda parte, supongamos que U es una forma escalonada por filas
obtenidas a partir de A. Para llegar de U a E A , hacemos los pivotes iguales a 1 y
anulamos las entradas por encima de dicho pivote. Entonces los pivotes de U
coinciden con los de E A .


Nota 1.7.1. Para una matriz A, el símbolo E A denotará la única forma escalo-
nada reducida por filas derivada de A mediante transformaciones elementales
por fila. También escribiremos

rref G-J
→ E A o bien A −
A− → E A.

Álgebra Lineal y Geometría 25


Depto. de Álgebra

Como las posiciones pivote son únicas, se sigue que el número de pivotes,
que es el mismo que el número de filas no nulas de E , también está unívoca-
mente determinado por A. Este número se denomina rango de A, y es uno de
los conceptos fundamentales del curso.

Rango de una matriz

Supongamos que una matriz A de orden m × n se reduce mediante


operaciones elementales por filas a una forma escalonada E . El rango
de A es el número

rango(A) = número de pivotes


= número de filas no nulas de E
= número de columnas básicas de A,

donde las columnas básicas de A son aquellas columnas de A que con-


tienen las posiciones pivote.

Ejemplo 1.7.2.- Determinemos E A , calculemos rango(A) e identifiquemos las


columnas básicas de  
1 2 2 3 1
 2 4 4 6 2 
 
A= .
 3 6 6 9 6 
1 2 4 5 3
Identificamos los pivotes en cada paso.
     
1 2 2 3 1 1 2 2 3 1 1 2 2 3 1
 2 4 4 6 2   0 0 0 0 0   0 0 2 2 2 
     
→ →
 3 6 6 9 6   0 0 0 0 3   0 0 0 0 3 
 
1 2 4 5 3 0 0 2 2 2 0 0 0 0 0
   
1 2 2 3 1 1 2 0 1 −1
 0 0 1 1 1   0 0 1 1 1 
   
→ →
 0 0 0 0 3   0 0 0 0 3 

0 0 0 0 0 0 0 0 0 0
   
1 2 0 1 −1 1 2 0 1 0
 0 0 1 1 1   0 0 1 1 0 
   
→ →  = EA
 0 0 0 0 1   0 0 0 0 1 
0 0 0 0 0 0 0 0 0 0

26 Álgebra Lineal y Geometría


Depto. de Álgebra

Por tanto, rango(A) = 3, y {A ∗1 , A ∗3 , A ∗5 } son las tres columnas básicas.

Ejemplo 1.7.3.- Determinemos el rango y columnas básicas de la matriz

1 2 1 1
 

A =  2 4 2 2 .
3 6 3 4

Reducimos A a forma escalonada por filas.


    
1 2 1 1 1 2 1 1 1 2 1 1

 2 4 2 2 →  0 0 0 0 → 0 0 0
 
1 =E

3 6 3 4 0 0 0 1 0 0 0 0

Por tanto, rango(A) = 2. Las posiciones pivote están en la primera y cuarta co-
lumna, por lo que las columnas básicas de A son A ∗1 y A ∗4 . Esto es,

 1 1 
   

Columnas básicas =  2 , 2  .
 
3 4
 

Es importante resaltar que las columnas básicas se extraen de A y no de la for-


ma escalonada E .

1.8. Compatibilidad de sistemas


Recordemos que un sistema de m ecuaciones y n incógnitas se dice com-
patible si posee al menos una solución. Si no tiene soluciones, decimos que el
sistema es incompatible.
Un sistema lineal compatible se dice determinado si tiene una única solución,
en otro caso se dice indeterminado.
El propósito de esta sección es determinar las condiciones bajo las que un
sistema es compatible. Establecer dichas condiciones para un sistema de dos o

Álgebra Lineal y Geometría 27


Depto. de Álgebra

tres incógnitas es fácil. Una ecuación lineal con dos incógnitas representa una
recta en el plano, y una ecuación lineal con tres incógnitas es un plano en el
espacio de tres dimensiones. Por tanto, un sistema lineal de m ecuaciones con
dos incógnitas es compatible si y solamente si las m rectas definidas por las m
ecuaciones tienen al menos un punto común de intersección. Lo mismo ocurre
para m planos en el espacio. Sin embargo, para m grande, estas condiciones
geométricas pueden ser difíciles de verificar visualmente, y cuando n > 3 no es
posible esta representación tan visual.
Mejor que depender de la geometría para establecer la compatibilidad, usa-
remos la eliminación gaussiana. Si la matriz ampliada asociada [A|b] se reduce
mediante operaciones por filas a una forma escalonada por filas [E |c], enton-
ces la compatibilidad o no del sistema es evidente. Supongamos que en un mo-
mento del proceso de reducción de [A|b] a [E |c] llegamos a una situación en la
que la única entrada no nula de una fila aparece en el lado derecho, como mos-
tramos a continuación:
 
∗ ∗ ∗ ∗ ∗ ∗ ∗
 0 0 0 ∗ ∗ ∗ ∗ 
 
 0 0 0 0 ∗ ∗ ∗ 
 
Fila i →  0 0 0 0 0 0 α  ← α 6= 0.
 

... ... ... ... ... ... ...

Si esto ocurre en la i -ésima fila, entonces la i -ésima ecuación del sistema aso-
ciado es
0 · x1 + 0 · x2 + . . . + 0 · xn = α.
Para α 6= 0, esta ecuación no tiene solución, y el sistema original es incompa-
tible (recordemos que las operaciones por filas no alteran el conjunto de solu-
ciones). El recíproco también se verifica. Esto es, si el sistema es incompatible,
entonces en algún momento del proceso de eliminación llegamos a una fila de
la forma
0 0 . . . 0 α , α 6= 0. (1.8.1)
¡ ¢

En otro caso, la sustitución hacia atrás se podría realizar y obtener una solu-
ción. No hay incompatibilidad si se llega a una fila de la forma

0 0 ... 0 0 .
¡ ¢

Esta ecuación dice simplemente 0 = 0, y aunque no ayuda a determinar el valor


de ninguna incógnita, es verdadera.
Existen otras formas de caracterizar la compatibilidad (o incompatibilidad)
de un sistema. Una es observando que si la última columna b de la matriz am-
pliada [A|b] es una columna no básica, entonces no puede haber un pivote en

28 Álgebra Lineal y Geometría


Depto. de Álgebra

la última columna, y por tanto el sistema es compatible, porque la situación


1.8.1 no puede ocurrir. Recíprocamente, si el sistema es compatible, entonces
la situación 1.8.1 no puede ocurrir, y en consecuencia la última columna no
puede ser básica.
Por tanto,

[A|b] es compatible si y solamente si b no es columna básica.

Decir que b no es columna básica en [A|b] es equivalente a decir que todas


las columnas básicas de [A|b] están en la matriz de coeficientes A. Como el nú-
mero de columnas básicas es el rango, la compatibilidad puede ser caracteriza-
da diciendo que un sistema es compatible si y sólo si rango([A|b]) = rango(A).
Este enunciado en función del rango se conoce como teorema de Rouché-
Frobenius, del que más adelante daremos un anunciado algo más ampliado.
Resumimos todas estas condiciones.

Compatibilidad de un sistema

Cada uno de las siguientes enunciados es equivalente a que el sistema


lineal determinado por la matriz [A|b] es compatible.

En la reducción por filas de [A|b], nunca aparece una fila de la


forma
0 0 . . . 0 α , α 6= 0.
¡ ¢

b es una columna no básica de [A|b].

b es combinación lineal de las columnas básicas de A.

rango([A|b]) = rango(A).

Ejemplo 1.8.1.- Determinemos si el sistema

x1 + x2 + 2x3 + 2x4 + x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 3x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 2x5 = 2,
3x1 + 5x2 + 8x3 + 6x4 + 5x5 = 3,

Álgebra Lineal y Geometría 29


Depto. de Álgebra

es compatible. Aplicamos eliminación gaussiana a la matriz ampliada [A|b].


   
1 1 2 2 1 1 1 1 2 2 1 1
2 2 4 4 3 1 0 0 0 0 1 −1 
   
 → 
  
2 2 4 4 2 2 0 0 0 0 0 0 
 
  
3 5 8 6 5 3 0 2 2 0 2 0
 
1 1 2 2 1 1
0 2 0 0 2 0
 
→  .
 
 0 0 0 0 1 −1 
0 0 0 0 0 0

Como no hay ninguna fila de la forma 0 0 . . . 0 α , con α 6= 0, el sistema


¡ ¢

es compatible. También observamos que b no es una columna básica en [A|b],


por lo que rango([A|b]) = rango(A).

Luego un sistema es compatible si y solamente si rango([A|b]) = rango(A).


El objetivo ahora es determinar cuándo es compatible determinado o indeter-
minado. Para ello, debemos estudiar antes un tipo especial de sistemas.

1.9. Sistemas homogéneos

Sistemas homogéneos

Un sistema de m ecuaciones y n incógnitas

a11 x1 + a12 x2 + ... + a1n xn = 0


a21 x1 + a22 x2 + ... + a2n xn = 0
..
.
am1 x1 + am2 x2 + . . . + amn xn = 0,

en el que el lado derecho contiene únicamente ceros se denomina ho-


mogéneo. Si al menos uno de los coeficientes de la derecha es no nulo,
decimos que es no homogéneo.

En esta sección vamos a examinar algunas de las propiedades más elemen-


tales de los sistemas homogéneos.

30 Álgebra Lineal y Geometría


Depto. de Álgebra

La compatibilidad nunca es un problema con un sistema homogéneo, pues


x1 = x2 = . . . = xn = 0 siempre es una solución del sistema, independientemen-
te de los coeficientes. Esta solución se denomina solución trivial. La pregunta
es si hay otras soluciones además de la trivial, y cómo podemos describirlas.
Como antes, la eliminación gaussiana nos dará la respuesta.
Mientras reducimos la matriz ampliada [A|0] de un sistema homogéneo a
una forma escalonada mediante la eliminación gaussiana, la columna de ceros
de la derecha no se ve alterada por ninguna de las operaciones elementales.
Así, cualquier forma escalonada derivada de [A|0] tendrá la forma [E |0]. Esto
significa que la columna de ceros puede ser eliminada a la hora de efectuar
los cálculos. Simplemente reducimos la matriz A a una forma escalonada E , y
recordamos que el lado derecho es cero cuando procedamos a la sustitución
hacia atrás. El proceso se comprende mejor con un ejemplo.

Ejemplo 1.9.1.- Vamos a examinar las soluciones del sistema homogéneo

x1 + 2x2 + 2x3 + 3x4 = 0,


2x1 + 4x2 + x3 + 3x4 = 0, (1.9.1)
3x1 + 6x2 + x3 + 4x4 = 0.

Reducimos la matriz de coeficientes a una forma escalonada por filas:

1 2 2 3 1 2 2 3 1 2 2 3
     

A =  2 4 1 3  →  0 0 −3 −3  →  0 0 −3 −3  = E .
3 6 1 4 0 0 −5 −5 0 0 0 0

Entonces, el sistema homogéneo inicial es equivalente al sistema homogéneo

x1 + 2x2 + 2x3 + 3x4 = 0,


−3x3 − 3x4 = 0.

Como hay cuatro incógnitas, y solamente dos ecuaciones, es imposible extraer


una solución única para cada incógnita. Lo mejor que podemos hacer es elegir
dos incógnitas básicas, que llamaremos variables básicas, y resolver el sistema
en función de las otras dos, que llamaremos variables libres. Aunque hay dis-
tintas posibilidades para escoger las variables básicas, el convenio es resolver
las incógnitas que se encuentran en las posiciones pivote.
En este ejemplo, los pivotes, así como las columnas básicas, están en la pri-
mera y tercera posición, así que la estrategia es aplicar sustitución hacia atrás
en la resolución del sistema y expresar las variables básicas x1 y x3 en función
de las variables libres x2 y x4 .

Álgebra Lineal y Geometría 31


Depto. de Álgebra

La segunda ecuación nos da

x3 = −x4

y la sustitución hacia atrás produce

x1 = −2x2 − 2x3 − 3x4


= −2x2 − 2(−x4 ) − 3x4
= −2x2 − x4 .

Las soluciones al sistema homogéneo original pueden ser descritas como

x1 = −2x2 − x4 ,
x2 = libre ,
x3 = −x4 ,
x4 = libre.

Como las variables libres x2 y x4 pueden tomar todos los valores posibles, las
expresiones anteriores describen todas las soluciones.
Mejor que describir las soluciones de esta forma, es más conveniente ex-
presarlas como
       
x1 −2x2 − x4 −2 −1
 x2   x2  1   0 
       
=  = x2   + x4  ,

 x3   −x4  0   −1 


x4 x4 0 1

entendiendo que x2 y x4 son variables libres que pueden tomar cualquier valor.
Esta representación se denominará solución general del sistema homogéneo.
Esta expresión de la solución general enfatiza que cada solución es combina-
ción lineal de las dos soluciones
   
−2 −1
 1   0 
   
h1 =   y h2 =  .
 0   −1 
0 1

Consideremos ahora un sistema homogéneo general [A|0] de m ecuaciones


y n incógnitas. Si la matriz de coeficientes A es de rango r , entonces, por lo que

32 Álgebra Lineal y Geometría


Depto. de Álgebra

hemos visto antes, habrá r variables básicas, correspondientes a las posiciones


de las columnas básicas de A, y n − r variables libres, que se corresponden con
las columnas no básicas de A. Mediante la reducción de A a una forma escalo-
nada por filas por eliminación gaussiana y sustitución hacia atrás, expresamos
las variables básicas en función de las variables libres y obtenemos la solución
general, de la forma

x = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,

donde x f 1 , x f 2 , . . . , x f n−r son las variables libres, y h1 , h2 , . . . , hn−r son vectores


columna que representan soluciones particulares.
Observemos que el vector h1 tiene un 1 en la posición f 1 , y los restantes
vectores h j tienen un cero en esa posición. Lo mismo se aplica a todos los vec-
tores hi : tienen un valor 1 en la posición f i y los restantes vectores h j tienen
un cero en esa posición. Más adelante necesitaremos esta característica.
Si calculamos la forma escalonada reducida por filas del ejemplo, nos queda

1 2 2 3 1 2 0 1
   

A =  2 4 1 3  →  0 0 1 1  = E A,
3 6 1 4 0 0 0 0

y el sistema a resolver es

x1 + 2x2 + x4 = 0,
x3 + x4 = 0.

Si resolvemos x1 y x3 en función de x2 y x4 nos queda el mismo resultado que


antes. Por ello, y para evitar la sustitución hacia atrás, puede resultar más con-
veniente usar el procedimiento de Gauss-Jordan para calcular la forma escalo-
nada reducida por filas E A y construir directamente la solución general a partir
de las entradas de E A .
Consideremos ahora un sistema homogéneo general (A|0) de m ecuaciones
y n incógnitas.

Álgebra Lineal y Geometría 33


Depto. de Álgebra

Solución general de un sistema homogéneo

Usamos eliminación gaussiana para reducir la matriz ampliada


(A|0) a una forma escalonada por filas (E |0).

Identificamos las variables básicas y libres. Si el rango es r , enton-


ces habrá r variables básicas, correspondientes a las posiciones
de las columnas básicas de (A|0), y n − r variables libres, que se
corresponden con las columnas no básicas de (A|0).

Mediante el procedimiento de sustitución hacia atrás, expresa-


mos las variables básicas en función de las variables libres.

Escribimos el resultado de la forma

x = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,

donde x f 1 , x f 2 , . . . , x f n−r son las variables libres, y h1 , h2 , . . . , hn−r


son vectores columna que representan soluciones particulares.
Esta será la solución general del sistema homogéneo.

Ejemplo 1.9.2.- Calculemos la solución general del sistema


x1 + 2x2 + 2x3 = 0,
2x1 + 5x2 + 7x3 = 0,
3x1 + 6x2 + 6x3 = 0.
Se tiene que
1 2 2 1 2 2
   

A =  2 5 7  →  0 1 3  = E,
3 6 6 0 0 0
de donde rango(A) = 2 < n = 3. Como las columnas básicas están en las posi-
ciones uno y dos, x1 y x2 son las variables básicas, y x3 es libre. Mediante sus-
titución hacia atrás en [E |0], nos queda x2 = −3x3 y x1 = −2x2 − 2x3 = 4x3 , y la
solución general es
4
   
x1
 x2  = x3  −3  , donde x3 es libre.
x3 1

34 Álgebra Lineal y Geometría


Depto. de Álgebra

Una última pregunta que nos planteamos es cuándo la solución trivial de


un sistema homogéneo es la única solución. Lo anterior nos muestra la res-
puesta. Si hay al menos una variable libre, entonces el sistema tendrá más de
una solución. Por tanto, la solución trivial será la única solución si y solamente
si no hay variables libres, esto es, n − r = 0. Podemos reformular esto diciendo

Sistemas homogéneos: solución única

Un sistema homogéneo de matriz A tiene únicamente la solución tri-


vial si y solamente si rango(A) = n.

Ejemplo 1.9.3.- El sistema homogéneo

x1 + 2x2 + 2x3 = 0,
2x1 + 5x2 + 7x3 = 0,
3x1 + 6x2 + 8x3 = 0,

tiene solamente la solución trivial porque

1 2 2 1 2 2
   

A= 2 5 7 → 0 1 3 =E


3 6 8 0 0 2

prueba que rango(A) = 3 = n. Se ve fácilmente que la aplicación de la sustitu-


ción hacia atrás desde [E |0] únicamente devuelve la solución trivial.

1.10. Sistemas no homogéneos


Recordemos que un sistema de m ecuaciones y n incógnitas

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
..
.
am1 x1 + am2 x2 + . . . + amn xn = b m ,

Álgebra Lineal y Geometría 35


Depto. de Álgebra

es no homogéneo cuando b i 6= 0 para algún i . A diferencia de los sistemas ho-


mogéneos, los no homogéneos pueden ser incompatibles y ya hemos visto un
método para detectar cuándo no hay solución. Suponemos que los sistemas de
esta sección son compatibles y nuestro objetivo es describir el conjunto de to-
das las posibles soluciones; vamos a construir una solución general de la misma
forma que hicimos para los homogéneos.

Soluciones de un sistema compatible

Sea S un sistema lineal de matriz ampliada (A|b) y sea S h el sistema


lineal homogéneo de matriz ampliada (A|0). Si p es una solución parti-
cular de S entonces el conjunto de las soluciones de S es
n o
h
p + h | h es una solución del sistema homogéneo S .

P RUEBA : Supongamos que [A|b] representa el sistema un sistema de m


ecuaciones y n incógnitas, donde rango(A) = r . La compatibilidad garantiza
que b no es una columna básica de [A|b], por lo que las columnas básicas de
[A|b] están en la misma posición que las columnas básicas de [A|0]. Esto sig-
nifica que el sistema no homogéneo y el sistema homogéneo asociado tienen
exactamente el mismo conjunto de variables básicas así como de libres. Ade-
más, no es difícil ver que

E [A|0] = [E A |0] y E [A|b] = [E A |c],

donde c es una columna de la forma


 
ξ1

 ξ2 

 .. 

 . 

ξr
 
 
c= .. .
.
 
 
0
 
 
..
 
.
 
 
0

Esto significa que si resolvemos la i -ésima ecuación en el sistema homogéneo


reducido para la i -ésima variable básica xbi en función de las variables libres

36 Álgebra Lineal y Geometría


Depto. de Álgebra

x f 1 , x f 2 , . . . , x f n−r para dar

xbi = αi x f i + αi +1 x f i +1 + · · · + αn−r x f n−r ,

entonces la solución de la i -ésima variable básica en el sistema no homogéneo


reducido debe tener la forma

xbi = ξi + αi x f i + αi +1 x f i +1 + · · · + αn−r x f n−r .

Esto es, las dos soluciones se diferencian únicamente en la presencia de la


constante ξi en la última. Si organizamos como columnas las expresiones ante-
riores, podemos decir que si la solución general del sistema homogéneo es de
la forma
h = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,
entonces la solución general del sistema no homogéneo tiene la forma similar

x = p0 + x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,

donde la columna p0 contiene las constantes ξi junto con ceros.


Por tanto, hemos probado que el conjunto de soluciones del sistema S es
de la forma
n−r
X
x = p0 + αi hi .
i =1

Sea entonces p una solución particular del sistema S . Entonces existen esca-
lares β1 , . . . , βn−r tales que p = p0 + n−r
i =1 βi hi . Si x es una solución de S , en-
P

tonces podemos escribir


n−r
X
x = p0 + αi hi
i =1
n−r
X n−r
X
= p− βi hi + αi
i =1 i =1
n−r
X
= p+ (αi − βi )hi = p + h,
i =1

donde h es solución del sistema homogéneo S h .


Recíprocamente, todo vector de la forma x = p + h, donde h es solución
del sistema homogéneo asociado, es solución del sistema: basta sustituir en las
ecuaciones. 

La prueba del teorema nos proporciona un método para resolver un sistema


compatible con matriz ampliada (A|b).

Álgebra Lineal y Geometría 37


Depto. de Álgebra

Solución general de un sistema compatible

Usamos eliminación gaussiana para reducir la matriz ampliada


[A|b] a una forma escalonada por filas [E |c].

Identificamos las variables básicas y las libres.

Aplicamos sustitución hacia atrás a [E |c] y despejamos las varia-


bles básicas en función de las libres.

Escribimos el resultado en la forma

x = p + x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,

donde

• x f 1 , x f 2 , . . . , x f n−r son las variables libres, y


• p, h1 , h2 , . . . , hn−r son vectores columna de orden n,

tales que p es una solución particular del sistema de matriz [A|b]


y
x f 1 h1 + x f 2 h2 + . . . + x f n−r hn−r
es la solución general del sistema homogéneo de matriz [A|0].
Esta será la solución general del sistema no homogéneo.

Como las variables libres x f i recorren todos los posibles valores, la solución
general genera todas las posibles soluciones del sistema [A|b]. Como en el caso
homogéneo, podemos reducir completamente [A|b] a E [A|b] mediante Gauss-
Jordan, y evitamos la sustitución hacia atrás.

Ejemplo 1.10.1.- Consideremos el sistema no homogéneo

x1 + 2x2 + 2x3 + 3x4 = 4,


2x1 + 4x2 + x3 + 3x4 = 5,
3x1 + 6x2 + x3 + 4x4 = 7,

en el que la matriz de coeficientes es la misma que la matriz de coeficientes de

38 Álgebra Lineal y Geometría


Depto. de Álgebra

(1.9.1). Si [A|b] se reduce por Gauss-Jordan a E [A|b] , tenemos

1 2 2 3 4 1 2 0 1 2
   
G-J 
[A|b] =  2 4 1 3 5  − → 0 0 1 1 1  = E [A|b] .
3 6 1 4 7 0 0 0 0 0
Nos queda el sistema equivalente
x1 + 2x2 + x4 = 2,
x3 + x4 = 1.
Resolvemos las variables básicas, x1 y x3 , en función de las libres, x2 y x4 y te-
nemos la expresión
x1 = 2 − 2x2 − x4 ,
x2 = x2 variable libre,
x3 = 1 − x4 ,
x4 = x4 variable libre.
La solución general la obtenemos escribiendo estas ecuaciones en la forma
         
x1 2 − x2 − x4 2 −2 −1
 x2   x2   0   1   0 
         
=  =   + x2   + x4  . (1.10.1)
 x3   1 − x4   1   0   −1 

x4 x4 0 0 1

La columna  
2
0
 
 
1
 
 
0
que aparece en (1.10.1) es una solución particular del sistema no homogéneo;
se tiene cuando x2 = 0, x4 = 0.
Además, la solución general del sistema homogéneo
x1 + 2x2 + 2x3 + 3x4 = 0,
2x1 + 4x2 + x3 + 3x4 = 0, (1.10.2)
3x1 + 6x2 + x3 + 4x4 = 0,
es      
x1 −2 −1
x2 1 0
     
 = x2   + x4  .
     
x3 0 −1

     
x4 0 1
Así, la solución general del sistema homogéneo (1.10.2) es una parte de la solu-
ción general del sistema no homogéneo original (1.10.1).

Álgebra Lineal y Geometría 39


Depto. de Álgebra

Ejemplo 1.10.2.- Calculemos la solución general del sistema


x1 + x2 + 2x3 + 2x4 + x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 3x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 2x5 = 2,
3x1 + 5x2 + 8x3 + 6x4 + 5x5 = 3,
y la comparamos con la solución general del sistema homogéneo asociado.
En primer lugar, calculamos la forma escalonada reducida por filas de la
matriz ampliada [A|b].
   
1 1 2 2 1 1 1 1 2 2 1 1
 2 2 4 4 3 1   0 0 0 0 1 −1 
   
[A|b] =  → 
 2 2 4 4 2 2   0 0 0 0 0 0 
 
3 5 8 6 5 3 0 2 2 0 2 0
   
1 1 2 2 1 1 1 1 2 2 1 1
 0 2 2 0 2 0   0 1 1 0 1 0 
   
→   → 
 0 0 0 0 1 −1   0 0 0 0 1 −1 

0 0 0 0 0 0 0 0 0 0 0 0
   
1 0 1 2 0 1 1 0 1 2 0 1
 0 1 1 0 1 0   0 1 1 0 0 1 
   
→   →   = E [A|b] .
 0 0 0 0 1 −1   0 0 0 0 1 −1 
0 0 0 0 0 0 0 0 0 0 0 0
El sistema es compatible, pues la última columna es no básica. Resolvemos el
sistema reducido para las variables básicas x1 , x2 , x5 en función de las variables
libres x3 , x4 para obtener
x1 = 1 −x3 −2x4 ,
x2 = 1 −x3 ,
x3 = x3 (variable libre),
x4 = x4 (variable libre) ,
x5 = −1.
La solución general del sistema no homogéneo es
         
x1 1 − x3 − 2x4 1 −1 −2
 x  
 2   1 − x3   1 
  
 −1 
 
 0 
 
x =  x3  =  x3  =  0  + x3  1  + x4  0  .
         
 x4   x4   0   0   1 
         
x5 −1 −1 0 0

40 Álgebra Lineal y Geometría


Depto. de Álgebra

La solución general del sistema homogéneo asociado es


       
x1 −x3 − 2x4 −1 −2
 x   −x3  −1   0 
 2  

    
x =  x3  =  x3  = x3  1  + x4  0  .
       
 x4   x4  0   1 
       

x5 0 0 0

Ahora nos hacemos una pregunta análoga al caso homogéneo: ¿cuándo un


sistema compatible tiene solución única?. Sabemos que la solución general de
un sistema no homogéneo compatible de orden m × n, con rango r , es de la
forma
x = p + x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,
donde
x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r
es la solución general del sistema homogéneo asociado. Por tanto,

Sistemas no homogéneos: solución única

Un sistema compatible de matriz ampliada [A|b] tendrá una única so-


lución si y solamente si no hay variables libres, esto es, si y solamente
si rango(A) = n. Esto es lo mismo que decir que el sistema homogéneo
asociado [A|0] tiene únicamente la solución trivial.

Ejemplo 1.10.3.- Consideremos el siguiente sistema no homogéneo:


2x1 + 4x2 + 6x3 = 2,
x1 + 2x2 + 3x3 = 1,
x1 + x3 = −3,
2x1 + 4x2 = 8.
La forma escalonada reducida por filas de [A|b] es
   
2 4 6 2 1 0 0 −2
 1 2 3 1   0 1 0 3 
   
[A|b] =  →  = E [A|b] .
 1 0 1 −3   0 0 1 −1 
2 4 0 8 0 0 0 0

Álgebra Lineal y Geometría 41


Depto. de Álgebra

El sistema es compatible porque la última columna no es básica, o bien por-


que rango(A) = 3 = número de incógnitas (no hay variables libres). El sistema
homogéneo asociado tiene únicamente la solución trivial, y la solución del sis-
tema original es
 
−2
p =  3 .
−1

Como resumen de todo lo anterior, hemos probado el siguiente teorema:

Teorema de Rouché-Frobenius

Dado un sistema lineal con m ecuaciones y n incógnitas y matriz am-


pliada [A|b], se tiene:

El sistema es incompatible si y solamente si rango(A) <


rango([A|b]).

El sistema es compatible determinado si y solamente si


rango(A) = rango([A|b]) = n.

El sistema es compatible indeterminado si y solamente si


rango(A) = rango([A|b]) < n.

42 Álgebra Lineal y Geometría


Capítulo 2

Álgebra matricial

2.1. Adición y trasposición

El conjunto de los números reales se notará por R, y el de los números com-


plejos por C. Al principio, no hay mucho inconveniente en pensar únicamente
en números reales, pero después se hará inevitable el uso de números comple-
jos.
El conjunto de m-uplas de números de un cuerpo K se notará por Km . Así,
Rm es el conjunto de m-uplas de números reales y Cm el de números complejos.
Análogamente, M (m ×n, K) denotará el conjunto de las matrices de orden m ×
n que contienen escalares en el cuerpo K.
Dos matrices A = (ai j ) y B = (b i j ) son iguales cuando A y B tienen la misma
forma y las entradas correspondientes son iguales.
Esta definición se aplica a matrices como

1
 

u= 2  yv= 1 2 3 .
¡ ¢

Aunque podamos pensar que u y v describen el mismo punto en R3 , no pode-


mos decir que sean iguales como matrices, pues sus formas son diferentes.
Una matriz formada por una sola columna se denomina vector columna, y
si tiene una sola fila se llama vector fila.

45
Depto. de Álgebra

Suma de matrices

Si A y B son matrices de orden m × n, la suma de A y B se define como


la matriz de orden m × n notada por A + B, cuyas entradas verifican

A + B = (ai j + b i j ) para cada i , j.

La matriz −A, llamada opuesta de A, se define como

−A = (−ai j ).

La diferencia de A y B es

A − B = A + (−B).

Ejemplo 2.1.1.- Sean

2 −3 4 0 0 3
   
−4 −2
A =  1 −2 1 1  , B =  −3 1 −1 −2  .
0 0 0 0 −1 4 2 −1

Entonces

−2 3 −4 0 6 −1 4 −3
   
−2 −5 4 3
 
   
A+B =  −2 −1 0 −1  , −A = 
 −1 2 −1 −1  , A−B =  4 −3 2
  3 
.
−1 4 2 −1
0 0 0 0 1 −4 −2 1

Si
1
 
−1 −3 −2 −2
 
C =
 −3 −3 0 1 ,
−3 
1 −2 3 2 1
no podemos calcular A +C , pues A es de orden 3 × 4 y C es de orden 3 × 5.

46 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades de la suma de matrices

Sean A, B y C matrices de orden m × n. Se verifican las siguientes pro-


piedades:

A + B es una matriz de orden m × n.

(A + B) +C = A + (B +C ).

A + B = B + A.

La matriz Om×n que tiene todas sus entradas nulas verifica A +


O = A.

La matriz −A es de orden m × n y verifica A + (−A) = Om×n .

P RUEBA : Las mismas propiedades se satisfacen para las suma de escalares.

El elemento (i , j ) de (A + B) + C es (ai j + b i j ) + ci j = ai j + (b i j + ci j ), que


es el elemento (i , j ) de A + (B +C ).

El elemento (i , j ) de A + B es ai j + b i j = b i j + ai j , que es el elemento (i , j )


de B + A.

Como la suma es conmutativa, sabemos que A + O = O + A. Además, la


entrada (i , j ) de A + O es ai j + 0 = ai j .

El elemento (i , j ) de A + (−A) es ai j + (−ai j ) = 0, por lo que es igual a la


matriz nula.

Multiplicación por un escalar

El producto de un escalar α por una matriz A de orden m × n, notada


por αA, se define como la matriz de orden m × n que verifica

αA = (αai j ).

Análogamente, Aα = (ai j α) = αA.

Álgebra Lineal y Geometría 47


Depto. de Álgebra

Ejemplo 2.1.2.- Si
2 −3 4 0
 
 
A=
 1 −2 1 1 ,

0 0 0 0
entonces

−6 9 −12 0 0 0 0 0
   
   
 −3 6
(−3) · A =  −3 −3  , 0 · A  0 0 0 0 .
  
0 0 0 0 0 0 0 0

Propiedades de la multiplicación por un escalar

Sean A, B matrices de orden m × n, y α, β escalares.

αA es una matriz m × n.

(αβ)A = α(βA).

α(A + B) = αA + αB.

(α + β)A = αA + βA.

1 · A = A.

La demostración de estas propiedades se basa en que las mismas se verifi-


can para el producto de escalares del cuerpo K.
P RUEBA :

El elemento (i , j ) de (αβ)A es (αβ)ai j = α(βai j ), que es el elemento (i , j )


de α(βA).

El elemento (i , j ) de α(A + B) es α(ai j + b i j ) = αai j + αb i j , que es el ele-


mento (i , j ) de αA + αB.

48 Álgebra Lineal y Geometría


Depto. de Álgebra

El elemento (i , j ) de (α+β)A es (α+β)ai j = αai j +βai j , que es el elemento


(i , j ) de α + βA.

El elemento (i , j ) de 1 · A es 1 · ai j = ai j , que es elemento (i , j ) de A.

Trasposición

La traspuesta de una matriz A m×n es la matriz notada por A t de orden


n × m definida como
A t = (a j i ).
La matriz conjugada de una matriz A m×n es la matriz de orden m × n
notada por Ā definida como

A = (ai j ).

La matriz conjugada traspuesta de una matriz A m×n es la matriz de


orden n × m notada por A ∗ y definida como

A ∗ = (a j i ).

Ejemplo 2.1.3.- Sea


2 −3 4 0
 
 
 1 −2 1 1  .
A= 

0 0 0 0

Entonces
2 1 0 2 1 0
   

 −3 −2 0 
 ∗  −3 −2 0 
   
 
t
A = , A =  .

 4 1 0   4 1 0 
   
0 1 0 0 1 0

Álgebra Lineal y Geometría 49


Depto. de Álgebra

Para que haya alguna diferencia entre A t y A ∗ debemos emplear matrices con
entradas complejas. Por ejemplo, si
 
1
1−i
 
 , entonces u∗ = 1 1 + i 2 .
¡ ¢
u= −i
 
 i 
2

En el caso de matrices reales, A = A y A ∗ = A t .

Propiedades de la matriz traspuesta

Sean A y B matrices de la misma forma y α un escalar. Entonces

(A t )t = A, (A ∗ )∗ = A.

(A + B)t = A t + B t y (A + B)∗ = A ∗ + B ∗ .

(αA)t = αA t y (αA)∗ = αA ∗ .

P RUEBA :

El elemento (i , j ) de A t es a j i , por lo que el elemento (i , j ) de (A t )t es ai j .


Un razonamiento análogo se tiene para A ∗ .

El elemento (i , j ) de A + B es ai j + b i j , por lo que el elemento (i , j ) de


(A + B)t es a j i + b j i , que coincide con el elemento (i , j ) de A t + B t . De
manera similar se tiene la segunda parte.

El elemento (i , j ) de αA es αai j , por lo que el elemento (i , j ) de (αA)t es


αa j i , que coincide con el elemento (i , j ) de αA t . De manera similar se
tiene la segunda parte.

50 Álgebra Lineal y Geometría


Depto. de Álgebra

Simetrías

Sea A = (ai j ) una matriz cuadrada.

Decimos que A es simétrica si A = A t , esto es, ai j = a j i .

Decimos que A es anti-simétrica si A = −A t , esto es, ai j = −a j i .

Decimos que A es hermitiana si A = A ∗ , esto es, ai j = a j i .

Decimos que A es anti-hermitiana si A = −A ∗ , esto es, ai j = −a j i .

Ejemplo 2.1.4.- Sean

1 0 5 1 1 5
   
1 1+i
µ ¶
   
A= 0 −3 2  , B =  0 −3 2  ,C = .
    1−i 3
5 2 −3 5 2 −3

Entonces A es simétrica, B no es simétrica y C es hermitiana.

Un número asociado a una matriz cuadrada es la traza. Si A = (ai j ) es una


matriz cuadrada de orden n, entonces la traza de A es el número traza(A) =
a11 + a22 + · · · + ann = ni=1 ai i , es decir, la suma de sus elementos diagonales.
P

Por ejemplo, si

1 1 5
 
 
 1 −3
A= 2 
 , entonces traza(A) = 1 + (−3) + (−3) = −5.
5 2 −3

2.2. Multiplicación de matrices


La multiplicación de matrices no está definida para dos matrices cuales-
quiera; exigiremos que se satisfaga alguna condición entre las matrices a mul-
tiplicar.

Álgebra Lineal y Geometría 51


Depto. de Álgebra

Matrices ajustadas para la multiplicación

Dos matrices A y B se dicen ajustadas para multiplicación en el orden


AB cuando el número de columnas de A es igual al número de filas de
B, esto es, si A es de orden m × p y B es de orden p × n.

Obsérvese que puede ocurrir que dos matrices A y B estén ajustadas para
la multiplicación en el orden AB pero no en el orden B A.

Ejemplo 2.2.1.- Las matrices

1 2 5
µ ¶ µ ¶
A= ,B= ,
3 4 6

están ajustadas para la multiplicación en el orden AB pero no en el orden B A.

Multiplicación de matrices

Sean A m×p y B p×n dos matrices ajustadas para multiplicación en el


orden AB. La matriz producto AB, de orden m × n, se define como
C = (ci j ), donde
p
X
ci j = ai 1 b 1j + ai 2 b 2j + . . . + ai p b p j = ai k bk j
k=1

El ejemplo anterior nos muestra que existe el producto AB, pero no B A.


Aunque existan ambos productos, estos no tienen por qué ser iguales y ni si-
quiera sean matrices del mismo orden.
Considere lo que ocurre al tomar

3
µ ¶
1 2 ,B = ,
¡ ¢
A=
4

52 Álgebra Lineal y Geometría


Depto. de Álgebra

y calcular AB y B A. Pero aunque fueran matrices cuadradas el producto no es


conmutativo en general. Por ejemplo, sean las matrices

2 1 1 1
µ ¶ µ ¶
C= ,D= .
0 −1 2 3

Entonces
4 5 2 0
" # " #
CD = , DC = .
−2 −3 4 −1

Filas y columnas de un producto

Supongamos que A m×p = (ai j ) y B p×n = (b i j ).

[AB]i ∗ = A i ∗ B; esto es, la i -ésima fila de AB es la i -esima fila de


A multiplicada por B.

[AB]∗ j = AB ∗ j ; esto es, la j -ésima columna de AB es A multipli-


cada por la j -ésima columna de B.
Pp
[AB]i ∗ = ai 1 B 1∗ + ai 2 B 2∗ + · · · + ai p B p∗ = k=1 ai k B k∗ .
Pp
[AB]∗ j = A ∗1 b 1j + A ∗2 b 2j + · · · + A ∗p b p j = k=1
A ∗k b k j .

P RUEBA : Las dos primeras propiedades son inmediatas a partir de la defi-


nición. Para la tercera, se tiene

ci 1 ci 2 . . . ci n
¡ ¢
(AB)i ∗ =
¡ Pp Pp Pp
. . .
¢
= k=1
a i k b k1 k=1
a i k b k2 k=1
a i k b kn
p
X p
X
b k1 b k2 . . . b kn ai k B k∗ .
¡ ¢
= ai k =
k=1 k=1

La cuarta propiedad es análoga. 

Las dos primeras igualdades se pueden escribir de manera más visual como
   
A 1∗ A 1∗ B
 A 2∗   A 2∗ B  ¡
 , A B ∗1 B ∗2 . . . B ∗n = AB ∗1 AB ∗2 . . . AB ∗n .
¢ ¡ ¢
.. B =  ..
   

 .   . 
A m∗ A m∗ B

Álgebra Lineal y Geometría 53


Depto. de Álgebra

Las dos últimas ecuaciones indican que las filas de AB son combinación lineal
de las filas de B, y que las columnas de AB son combinación lineal de las co-
lumnas de A.
Otra forma muy usada para el producto de matrices es
 
B 1∗
 B 2∗ 
¢ 
AB = A ∗1 A ∗2 . . . A ∗p  . 
¡
 .. 
B p∗
= A ∗1 B 1∗ + A ∗2 B 2∗ + · · · + A ∗p B p∗ .

Observemos que la última expresión es una suma de matrices de orden m × n,


cada una de rango 1. Se denomina expansión mediante el producto exterior.
Nota 2.2.1. Todo sistema de m ecuaciones y n incógnitas

a11 x1 + a12 x2 + ··· + a1n xn = b1 ,


a21 x1 + a22 x2 + ··· + a2n xn = b2 ,
..
.
am1 x1 + am2 x2 + · · · + amn xn = b m ,

se puede escribir en forma matricial como A x = b, donde

a11 a12 . . . a1n


     
x1 b1
 a21 a22 . . . a2n   x2   b2 
A= . .. .. .. , x = .. , b = .. .
     
 .. .
   
. .   .   . 
am1 am2 . . . amn xn bm

Recíprocamente, toda ecuación matricial A m×n xn×1 = bm×1 representa un sis-


tema lineal de m ecuaciones y n incógnitas.
Si el sistema tiene una solución u = (u i ), entonces podemos escribir

b = u 1 A ∗1 + u 2 A ∗2 + · · · + u n A ∗n ,

es decir, el vector b se expresa como combinación lineal de las columnas de A.

Ejemplo 2.2.2.- El sistema de ecuaciones

1,

 x3 +x4 =
−2x1 −4x2 +x3 = −1,
3x1 +6x2 −x3 +x4 = 2.

54 Álgebra Lineal y Geometría


Depto. de Álgebra

se escribe como A x = b, donde


 
x1
0 0 1 1 1
   
x2
 
A = −2 −4 1 0 ,x =   , b =  −1  .
  
x3
3 6 −1 1 2
 
x4

Una solución del sistema es u = (−1, −1, 1, 0)t , de donde

1 0 0 1 1
         
 −1  = (−1)  −2  + (−1)  −4  + 1  1  + 0  0  .
2 3 6 −1 1

2.3. Propiedades de la multiplicación matricial

Propiedades distributiva y asociativa

Para matrices ajustadas se verifica

A(B +C ) = AB + AC .

(D + E )F = DF + E F .

A(BC ) = (AB)C .

P RUEBA :

Supongamos que A m×p , B p×n ,C p×n . Sea G = B +C y llamamos g i j = b i j +


ci j ; identificamos de forma análoga los elementos de las matrices H =
AG, Y = AB, Z = AC . Entonces
p
X p
X
hi j = ai k g k j = ai k (b k j + ck j )
k=1 k=1
Xp Xp
= ai k bk j + ai k ck j = y i j + zi j ,
k=1 k=1

o bien que H = Y + Z .

Álgebra Lineal y Geometría 55


Depto. de Álgebra

Se prueba de manera similar a la anterior.

Supongamos que A m×p , B p×q ,C q×n y llamemos D = BC , E = AD, F = AB,G =


FC . Entonces
à !
p
X p
X q
X q
X p
X
ei j = ai k dk j = ai k b kl cl j = ai k b kl cl j
k=1 k=1 l =1 l =1 k=1
Xq
= f i l cl j = g i j ,
l =1
lo que es equivalente a decir que E = G.


Matriz identidad

La matriz de orden n × n con unos en la diagonal y ceros en el resto

1 0 ... 0
 
 0 1 ... 0 
In =  .. .. . . .. 
 
 . . . . 
0 0 ... 1

se denomina matriz identidad de orden n.

Para toda matriz A de orden m × n se verifica


AI n = A y I m A = A.
El subíndice de I n se elimina cuando el tamaño es obvio por el contexto. Las
columnas de I n se representan por los vectores e1 , e2 , . . . , en , es decir, el vector
ei es el vector de n componentes cuya componente i -ésima es igual a 1 y las
restantes iguales a cero. Observemos que la notación tiene la ambigüedad res-
pecto al tamaño del vector, y se deduce por los tamaños de las matrices que
intervengan en la expresión.

Trasposición y producto

Para matrices ajustadas A m×p y B p×n se verifica que

(AB)t = B t A t , y (AB)∗ = B ∗ A ∗ .

56 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Probemos la primera propiedad. Sean C = AB = (ci j ), D = B t A t =


Pp Pp
(d i j ). Entonces C t = (c j i ) y c j i = k=1 a j k b ki . Por otro lado, d i j = k=1 b ki a j k ,
de donde C = D. La segunda propiedad es consecuencia de la anterior y del
hecho, fácil de demostrar, de que AB = A · B . 

Ejemplo 2.3.1.- Para cada matriz A m×n

las matrices A A t y A t A son simétricas, y

las matrices A A ∗ y A ∗ A son hermitianas.

Ejemplo 2.3.2.- Para matrices A m×n y B n×m se verifica

traza(AB) = traza(B A).

De lo anterior se deduce que traza(ABC ) = traza(BC A) = traza(C AB), pero,


en general, traza(ABC ) 6= traza(B AC ).

Álgebra Lineal y Geometría 57


Depto. de Álgebra

Multiplicación por bloques

Supongamos que A y B se particionan en submatrices, también llama-


dos bloques, como sigue:

... . . . B 1t
   
A 11 A 12 A 1r B 11 B 12
 A 21 A 22 ... A 2r   B 21 B 22 . . . B 2t 
A= .. .. .. .. ,B =  .. .. .. .. .
   
 . . . .   . . . . 
A s1 A s2 ... A sr Br 1 Br 2 . . . Br t

Si los pares (A i k , B k j ) son ajustados para el producto, entonces decimos


que A y B tienen una partición ajustada. Para tales matrices, el pro-
ducto AB se forma combinando los bloques exactamente de la misma
forma como se hace con los escalares en la multiplicación ordinaria.
Esto es, el bloque (i , j ) en AB es

A i 1 B 1j + A i 2 B 2j + · · · + A i r B r j .

Ejemplo 2.3.3.- Consideremos las matrices particionadas


   
1 2 1 0 1 0 0 0
 3 4 0 1  µ ¶  0 1 0 0  µ ¶
C I I O
A= = ,B =  = ,
   
 1 0 0 0  I O  1 2 1 2  C C
0 1 0 0 3 4 3 4
donde
1 0 1 2
µ ¶ µ ¶
I= y C= .
0 1 3 4
Mediante la multiplicación por bloques, el producto AB es fácil de obtener:
 
2 4 1 2
2C C  6 8 3 4 
µ ¶µ ¶ µ ¶ 
C I I O
AB = = =

I O C C I O  1 0 0 0 

0 1 0 0

58 Álgebra Lineal y Geometría


Depto. de Álgebra

2.4. Inversa de una matriz

Inversa de una matriz

Para una matriz cuadrada A n×n , la matriz B n×n que verifica las condi-
ciones
AB = I n y B A = I n
se denomina inversa de A, y la notaremos por B = A −1 . No todas la ma-
trices cuadradas tienen inversa. Una matriz con inversa se denomina
no singular o regular y una matriz cuadrada sin inversa se llama sin-
gular.

Aunque no todas las matrices tienen inversa, cuando existe, es única. Su-
pongamos que X 1 y X 2 son inversas de una matriz no singular A. Entonces

X 1 = X 1 I = X 1 (AX 2 ) = (X 1 A)X 2 = I X 2 = X 2 .

Ecuaciones matriciales

Si A es una matriz no singular, entonces existe una única solución


para X en la ecuación matricial A n×n X n×p = B n×p , que es X =
A −1 B.

Un sistema de n ecuaciones y n incógnitas se puede escribir co-


mo una ecuación matricial A n×n xn×1 = bn×1 . Por lo anterior, si A
es no singular, el sistema tiene solución única igual a x = A −1 b.

Sin embargo, debemos hacer hincapié en que la representación de la solu-


ción como x = A −1 b es conveniente desde el punto de vista teórico o de no-
tación. En la práctica, un sistema no singular A x = b nunca se resuelve calcu-
lando A −1 y entonces el producto A −1 b. Se realizan más operaciones así que
aplicando las técnicas de eliminación descritas en el tema anterior.
Como no todas las matrices cuadradas tienen inversa, se necesitan métodos
para distinguir entre matrices singulares y no singulares. Los más importantes
son los que siguen.

Álgebra Lineal y Geometría 59


Depto. de Álgebra

Existencia de inversa

Sea A una matriz cuadrada de orden n. Son equivalentes:

1. A −1 existe (A es no singular).

2. rango(A) = n.

Gauss-Jordan
3. A −−−−−−−−−−−→ I n .

4. A x = 0 implica que x = 0.

P RUEBA : El hecho de 2) ⇔ 3) es una consecuencia directa de la definición


de rango. La equivalencia 3) ⇔ 4) la hemos visto en el tema anterior. Solamente
falta por establecer 1) ⇔ 2) para completar¡ la prueba.
1) ⇒ 2). Consideremos la matriz X = X ∗1 X ∗2 . . . X ∗n . Esta matriz X
¢

verifica la ecuación AX = I si y solamente si X ∗ j es solución del sistema A x =


I ∗ j . Si A es no singular, entonces sabemos que existe una solución única de
AX = I , y por tanto cada sistema A x = I ∗ j tiene solución única. Pero sabemos
que un sistema tiene solución única si y solamente si el rango de la matriz de
coeficientes es igual al número de incógnitas, esto es, rango(A) = n.
2) ⇒ 1). Si rango(A) = n, entonces cada sistema A x = I ∗ j es compatible,
porque rango([A|I ∗ j ]) = n = rango(A). Además, la solución es única, por lo que
la ecuación matricial AX = I tiene una única solución. Nos gustaría decir ya
que X = A −1 , pero nos hace falta primero probar que X A = I . Como

A(X A − I ) = AX A − A = I A − A = 0,

se sigue que cada columna de X A − I es una solución del sistema homogéneo


A x = 0. La última condición nos dice que la única solución es la trivial, por lo
que todas las columnas de X A−I son nulas, esto es, X A−I = O, y X A = AX = I .


Nota 2.4.1. A partir del resultado anterior, podemos analizar lo que ocurre cuan-
do tenemos una inversa lateral de una matriz cuadrada. Supongamos que para
una matriz cuadrada A n×n existe una matriz X n×n con X A = I n . Entonces el
sistema A x = 0 lo podemos multiplicar por X a ambos lados, lo que nos da
que X A x = 0, de donde x = 0 es la única solución. Entonces, por el teorema
anterior, A tiene inversa A −1 , de donde

(X A)A −1 = I A −1 , luego X = A −1 .

60 Álgebra Lineal y Geometría


Depto. de Álgebra

Supongamos ahora que existe Yn×n tal que AY = I n . Si aplicamos lo anterior a


la matriz Y , tenemos que A = Y −1 , de donde Y A = Y Y −1 = I n y concluimos que
Y = A −1 .

Aunque evitaremos el cálculo de la inversa de una matriz, hay veces que


debemos hacerlo. Para construir un algoritmo que nos devuelva A −1 cuando
A n×n es no singular, recordemos que determinar A −1 es equivalente a resolver
la ecuación matricial AX = I , que es lo mismo que resolver los n sistemas de
ecuaciones definidos por

A x = I ∗ j , j = 1, 2, . . ., n.

En otras palabras, si X ∗1 , X ∗2 , . . . , X ∗n son las respectivas soluciones, entonces

X ∗1 X ∗2 . . . X ∗n
¡ ¢
X=

resuelve la ecuación AX = I y de aquí X = A −1 .


Si A es no singular, el método de Gauss-Jordan reduce la matriz ampliada
[A|I ∗ j ] a [I |X ∗ j ], y sabemos que X ∗ j es la única solución de A x = I ∗ j . En otras
palabras,
Gauss-Jordan
[A|I ∗ j ] −−−−−−−−−−−→[I |[A −1 ]∗ j ].

Pero mejor que resolver cada sistema A x = I ∗ j de forma independiente, po-


demos resolverlos simultáneamente aprovechando que todos tienen la misma
matriz de coeficientes. En otras palabras, si aplicamos Gauss-Jordan a la matriz
ampliada [A|I ∗1 |I ∗2 | . . . |I ∗n ] obtenemos

Gauss-Jordan
[A|I ∗1 |I ∗2 | . . . |I ∗n ] −−−−−−−−−−−→[I |[A −1 ]∗1 |[A −1 ]∗2 | . . . |[A −1 ]∗n ],

o de manera más compacta

Gauss-Jordan
[A|I ] −−−−−−−−−−−→[I |A −1 ].

¿Qué ocurre si intentamos invertir una matriz singular con este procedimiento?
El resultado anterior nos indica que una matriz singular A no puede ser redu-
cida mediante Gauss-Jordan a la matriz I porque una fila de ceros aparecerá
en algún momento en la zona correspondiente a la matriz A. Por ello, no tene-
mos que saber a priori si la matriz que tenemos es o no singular, pues resultará
evidente en el proceso de cálculo.

Álgebra Lineal y Geometría 61


Depto. de Álgebra

Cálculo de la inversa

La eliminación de Gauss-Jordan se puede usar para el cálculo de la in-


versa de una matriz A mediante la reducción
Gauss-Jordan
[A|I ] −−−−−−−−→[I |A −1 ].

La única posibilidad de que este método falle es porque aparezca una


fila de ceros en el lado izquierdo de la matriz ampliada, y esto ocurre si
y solamente si la matriz A es singular.

Ejemplo 2.4.1.- Calculemos, si existe, la inversa de la matriz

1 1 1
 

A =  1 2 2 .
1 2 3

Aplicamos el método de Gauss-Jordan para obtener

1 1 1 1 0 0 1 1 1 1 0 0
   

[A|I ] =  1 2 2 0 1 0  →  0 1 1 −1 1 0 
1 2 3 0 0 1 0 1 2 −1 0 1
1 0 0 2 −1 0 1 0 0 2 0
   
−1
→  0 1 1 −1 1 0  →  0 1 0 −1 2 −1  .
0 0 1 0 −1 1 0 0 1 0 −1 1

Por tanto, la matriz es no singular y

2 −1 0
 

A −1 =  −1 2 −1  .
0 −1 1

62 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades de la inversión de matrices

Para matrices no singulares A y B, se verifica que

(A −1 )−1 = A.

El producto AB es no singular y (AB)−1 = B −1 A −1 .

(A −1 )t = (A t )−1 y (A −1 )∗ = (A ∗ )−1 .

P RUEBA : La primera es inmediata. Las dos partes de la segunda se prueban


simultáneamente. Sea X = B −1 A −1 . Entonces (AB)X = I , y como son matrices
cuadradas, tenemos que X = (AB)−1 . La última propiedad tiene un tratamiento
similar. Sea X = (A −1 )t , que sabemos que existe (observemos que todavía no
podemos garantizar el carácter no singular de A t ). Entonces

A t X = A t (A −1 )t = (A −1 A)t = I t = I ,

de donde A t es no singular y (A t )−1 = (A −1 )t . La prueba de la segunda parte es


similar. 

2.5. Matrices elementales y equivalencia


Nota 2.5.1. O PERACIONES ELEMENTALES POR COLUMNAS. Es evidente que las
mismas operaciones elementales por filas descritas en el tema anterior pueden
realizarse por columnas. Tenemos entonces tres tipos de operaciones análogas
a las operaciones elementales por filas:

Tipo I. Intercambiar las columnas i y j .

Tipo II. Reemplazar la columna i por un múltiplo no nulo de ella misma.

Tipo III. Reemplazar la columna j por la suma de ella misma con un múl-
tiplo de la columna j .

Análogamente a lo visto para las filas existen unas matrices especiales llamadas
formas escalonadas por columnas y formas escalonadas reducidas por colum-
nas. La trasposición de matrices nos permite definir rápidamente estos con-
ceptos:

Una matriz se dice que es una forma escalonada por columnas si su tras-
puesta es una forma escalonada por filas.

Álgebra Lineal y Geometría 63


Depto. de Álgebra

Una matriz se dice que es una forma escalonada reducida por columnas
si su traspuesta es una forma escalonada reducida por filas.

Igualmente se puede comprobar que toda matriz puede ser transformada. me-
diante operaciones por columnas en una forma escalonada por columnas y en
una forma escalonada reducida por columnas. Por último, dos matrices se di-
cen equivalentes por columnas si puede transformarse una en otra mediante
operaciones elementales por columnas.
Obsérvese que las operaciones elementales por columnas no transforman
la matriz de un sistema lineal en la matriz de otro sistema lineal equivalente.
Si A m×n es una matriz arbitraria, sabemos que la matriz A t es equivalente
por filas a una única forma escalonada reducida por filas, por lo que A es equi-
valente por columnas a una única forma escalonada reducida por columnas.

Nota 2.5.2. Sean los vectores columna ei , de orden m × 1, que tienen todas sus
entradas nulas salvo un 1 en la posición i , con i = 1, . . . , m. Observemos que
la multiplicación de una matriz A m×n por un vector columna e j resulta A e j =
A ∗ j , la columna j -ésima de la matriz A. Análogamente, si ahora ei es de orden
n ×1, la multiplicación del traspuesto de éste con la matriz A resulta eit A = A i ∗ ,
la fila i -ésima de la matriz A.
La matriz identidad tiene por columnas a estos e j y por filas a eit .

Vamos a ver que las operaciones elementales que usamos para la elimina-
ción gaussiana pueden interpretarse como productos por ciertas matrices de
estructura muy sencilla.

Matriz elemental de tipo I

Decimos que una matriz cuadrada E i j es elemental de tipo I si se obtie-


ne a partir de la matriz identidad I n mediante una operación elemental
por filas de tipo I. Es decir, si E i j se obtiene de I n al intercambiar las
filas i y j .

En este caso todas las entradas de la matriz E i j son nulas, salvo [E i j ]kk =
1, k 6= i , j , [E i j ]i j = 1 y [E i j ] j i = 1. Si atendemos a las filas de E observamos que
[E i j ]k∗ = ekt si k 6= i , j , [E i j ]i ∗ = etj y [E i j ] j ∗ = eit . Se tiene lo análogo para las
columnas. Estas matrices se denominan matrices de permutación.

64 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades de una matriz elemental de tipo I

La multiplicación de una matriz elemental de tipo I a la izquierda


de una matriz produce en ésta una operación elemental por filas
de tipo I.

La multiplicación de una matriz elemental de tipo I a la derecha


de una matriz produce en ésta una operación elemental por co-
lumnas de tipo I.

Si E es una matriz elemental de tipo I entonces E es no singular y


su inversa es ella misma. Es decir, E E = I .

P RUEBA : Basta probar el primer punto, pues el segundo, además de ser


análogo, se deduce del primero por trasposición de matrices.
Sean entonces A m×n y E m×m la matriz obtenida de la identidad al intercam-
biar las filas i y j . Vamos a describir la multiplicación E A por filas, es decir,

[E A]k∗ = E k∗ A, k = 1, . . .m.

Si k 6= i , j sabemos que E k∗ = ekt , de donde calculamos la fila k−ésima de E A:

[E A]k∗ = E k∗ A = ekt A = A k∗ , con k 6= i , j.

Además E i ∗ = etj y E j ∗ = eit . Luego las filas i −ésima y j −ésima de E A son

[E A]i ∗ = E i ∗ A = etj A = A j ∗ y [E A] j ∗ = E j ∗ A = eit A = A i ∗ .

Es decir, la matriz E A es la que se obtiene de A al intercambiar las filas i y j


La demostración de la última proposición es consecuencia del resultado an-
terior. Si E es la matriz que se obtiene de la identidad al intercambiar las filas
i y j , el producto a la izquierda de E por ella misma vuelve a intercambiar las
filas i y j , obteniendo E E = I . 

Matriz elemental de tipo II

Decimos que una matriz cuadrada E i (α) es elemental de tipo II si se


obtiene a partir de la matriz identidad I n mediante una operación ele-
mental por filas de tipo II. Es decir, si E i (α) se obtiene de I n al sustituir
la fila i por un múltiplo no nulo de ella (α 6= 0).

Álgebra Lineal y Geometría 65


Depto. de Álgebra

En este caso todas las entradas de la matriz E i (α) son nulas, salvo [E i (α)]kk =
1, k 6= i , [E i (α)]i i = α con α 6= 0. Si atendemos a las filas de E observamos que
[E i (α)]k∗ = ekt si k 6= i , [E i (α)]i ∗ = αeit con α 6= 0. Para las columnas se tiene un
resultado análogo.

Propiedades de una matriz elemental de tipo II

La multiplicación de una matriz elemental de tipo II a la izquier-


da de una matriz produce en ésta una operación elemental por
filas de tipo II.

La multiplicación de una matriz elemental de tipo II a la derecha


de una matriz produce en ésta una operación elemental por co-
lumnas de tipo II.

Si E es una matriz elemental de tipo II entonces E es no singular


y su inversa es otra matriz elemental tipo II.

P RUEBA : La primera parte es similar a la proposición correspondiente de


las matrices elementales de tipo I. Es fácil comprobar que si E es la matriz que
se obtiene de la identidad al multiplicar la fila i por α 6= 0 entonces E −1 es la
matriz que se obtiene de la identidad al multiplicar por 1/α la fila i . 

Matriz elemental de tipo III

Decimos que una matriz cuadrada E i j (α) es elemental de tipo III si se


obtiene a partir de la matriz identidad I n mediante una operación ele-
mental por filas de tipo III. Es decir, si E i j (α) se obtiene de I n al sustituir
la fila j por la suma de ella misma con un múltiplo de la fila i .

En este caso todas las entradas de la matriz E i j (α) son nulas, salvo [E i j (α)]i i =
1 para todo i = 1, . . . n y [E i j (α)] j i = α. Si atendemos a las filas de E i j (α) obser-
vamos que [E i j (α)]k∗ = ekt si k 6= i , [E i j (α)]i ∗ = αeit + etj .

66 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades de una matriz elemental de tipo III

La multiplicación de una matriz elemental de tipo III a la izquier-


da de una matriz produce en ésta una operación elemental por
filas de tipo III.

La multiplicación de una matriz elemental de tipo III a la dere-


cha de una matriz produce en ésta una operación elemental por
columnas de tipo III.

Si E es una matriz elemental de tipo III entonces E es no singular


y su inversa es otra matriz elemental tipo III.

P RUEBA : La parte correspondiente a multiplicar a la izquierda es sencilla. Al


multiplicar por la derecha, el resultado es una transformación de tipo III, pero
intercambiando el papel de las columnas correspondientes.
Es fácil comprobar que si E es la matriz que se obtiene de la identidad al
reemplazar la fila j por la suma de ella misma con la fila i por α, entonces E −1
es la matriz que se obtiene de la identidad al reemplazar la fila j por la suma de
ella misma con la fila i por −α. 

Aunque no hemos hablado de dimensiones, lo anterior es válido para ma-


trices generales de orden m × n.

Ejemplo 2.5.1.- Consideremos la sucesión de operaciones para reducir


1 2 4
 

A= 2 4 8 
3 6 13
a su forma escalonada reducida por filas E A .

 F2 − 2F1 
1 2 4 1 2 4
 
F3 − 3F1
A =  2 4 8  −−−−−−−→  0 0 0 
3 6 13 0 0 1
1 2 4 1 2 0
   
F23 F1 − 4F2
→ 0 0 1 −−−−−−−→ 0
−    0 1  = EA
0 0 0 0 0 0

Álgebra Lineal y Geometría 67


Depto. de Álgebra

La reducción se puede ver como una sucesión de multiplicaciones a izquierda


por la matrices elementales correspondientes.

1 −4 0 1 0 0 1 0 0 1 0 0
    
 0 1 0   0 0 1   0 1 0   −2 1 0  A = E A .
0 0 1 0 1 0 −3 0 1 0 0 1

Producto de matrices elementales

Una matriz A es no singular si y solamente si A es el producto de ma-


trices elementales de tipos I, II, o III.

P RUEBA : Si A es no singular, el método de Gauss-Jordan reduce A a la ma-


triz I mediante operaciones por fila. Si G 1 ,G 2 , . . . ,G k son las correspondientes
matrices elementales, entonces

G k · · ·G 2G 1 A = I , o bien A = G 1−1G 2−1 · · ·G k−1 .

Como la inversa de una matriz elemental es una matriz elemental, esto prueba
que A se puede expresar como producto de matrices elementales.
Recíprocamente, si A = E 1 E 2 · · · E k es un producto de matrices elementales,
entonces A es no singular, pues es el producto de matrices no singulares. 

Ejemplo 2.5.2.- Expresemos

−2 3
µ ¶
A=
1 0

como producto de matrices elementales. Mediante la reducción a su forma es-


calonada reducida por filas, comprobaremos que A es no singular, y la expre-

68 Álgebra Lineal y Geometría


Depto. de Álgebra

saremos como dicho producto. En efecto,

1 −3/2
" #
− 12 F1
A →
1 0
1 −3/2
" #
F2 −F1

0 3/2
1
" #
2 −3/2
3 F 2

0 1
1 0
" #
F1 + 32 F2
→ .
0 1

Entonces
1 23 1 0 1 0 − 21 0
µ ¶µ ¶µ ¶µ ¶
A = I2,
0 1 0 32 −1 1 0 1
de donde
−2 0 1 0 1 0 1 − 32
µ ¶µ ¶µ ¶µ ¶
A= .
0 1 1 1 0 32 0 1

Equivalencia de matrices

Cuando una matriz B se obtiene de una matriz A mediante operaciones


elementales de filas y columnas, escribiremos A ∼ B y diremos que A y
B son matrices equivalentes. Otra forma de expresarlo es que

A ∼ B si y solamente si B = P AQ para matrices no singulares P y Q.

Ejemplo 2.5.3.- Las matrices

−1 4 0 4 86 −15 −16 −33


   

A =  −3 2 −4 2  y B =  −6 51 −8 −43 
−2 −2 −2 −4 28 33 −12 −43

Álgebra Lineal y Geometría 69


Depto. de Álgebra

son equivalentes porque P AQ = B para las matrices no singulares


 
0 3 2 3
2 3 2
 
 2 3 1 −3 
 
P =  2 −3 −2  ,Q = 
 −3 0 −1 −3 

2 −1 −1
3 0 −2 −1

Equivalencia por filas y columnas

Decimos que dos matrices A, B de la misma dimensión m ×n son


equivalentes por filas si existe una matriz P de orden m no sin-
f
gular tal que P A = B. Lo notamos como A ∼ B.

Decimos que dos matrices A, B de la misma dimensión m ×n son


equivalentes por columnas si existe una matriz Q de orden n no
c
singular tal que AQ = B. Lo notamos como A ∼ B.

Estas relaciones son de equivalencia.

Ejemplo 2.5.4.- Toda matriz A es equivalente por filas a su forma escalonada


reducida por filas E A . La matriz

1 0 0 0
 

B= 0 1 0 0
  es equivalente por columnas a la matriz
0 0 0 0
 
0 3 2 3
0 3 2 3
 
 2 3 1 −3
 
B ·  = 2 3 1 −3  .
 
 −3 0 −1 −3
0 0 0 0

3 0 −2 −1

70 Álgebra Lineal y Geometría


Depto. de Álgebra

Relaciones entre filas y columnas

f
Si A ∼ B, entonces las relaciones que existen entre las columnas
de A también se tienen entre las columnas de B. Esto es,
n
X n
X
B ∗k = α j B ∗ j si y solamente si A ∗k = α j A∗ j .
j =1 j =1

c
Si A ∼ B, entonces las relaciones que existen entre las filas de A
también se tienen entre las filas de B.

En particular, las relaciones entre columnas en A y E A deben ser las mismas,


por lo que las columnas no básicas de A son combinación lineal de las básicas.
f
P RUEBA : Si A ∼ B, entonces P A = B, para una matriz P no singular. Tal
como vimos en el producto de matrices,
B ∗ j = (P A)∗ j = P A ∗ j .
Pn
Por tanto, si A ∗k = j =1 α j A ∗ j , la multiplicación a la izquierda por P produce
B ∗k = nj=1 α j B ∗ j . El recíproco se obtiene con P −1 .
P

El resultado para las columnas se deduce inmediatamente a partir de lo an-


terior aplicado a A t y B t . 

Nota 2.5.3. Sea A m×n una matriz de rango r y E una matriz elemental de orden
m × m. Por la unicidad de la forma escalonada reducida por filas, la aplicación
de Gauss-Jordan a A y E A nos lleva a la misma matriz, por lo que rango(A) =
rango(E A). Entonces, si P es una matriz no singular de orden m × m, sabemos
que P es producto de matrices elementales, por lo que lo anterior nos dice que
rango(P A) = rango(A).
Podemos extender el resultado anterior para probar la invariancia del rango
por el producto de matrices no singulares.

Invariancia del rango para matrices equivalentes

Sea A m×n una matriz, y P m×m ,Q n×n matrices no singulares. Entonces

rango(A) = rango(P AQ).

Álgebra Lineal y Geometría 71


Depto. de Álgebra

P RUEBA : Por la nota anterior, sabemos que rango(A) = rango(P A) para cual-
quier matriz no singular P m×m . Entonces podemos llevar la matriz B = P AQ,
mediante producto por matrices elementales a la izquierda, a la matriz E A Q.
Sea r = rango(A). Entonces E A tiene r filas no nulas y m − r filas nulas al fi-
nal. Esto implica que la matriz E A Q tiene m − r filas nulas al final, de donde
rango(AQ) = rango(E A Q) ≤ r = rango(A). Si aplicamos esta conclusión al pro-
ducto (AQ)Q −1 , obtenemos que

rango(A) = rango(AQQ −1 ) = rango((AQ)Q −1 ) ≤ rango(AQ)

y concluimos que rango(AQ) = rango(A). 

2.6. Forma normal del rango


La forma escalonada reducida por filas E A es lo más lejos que podemos lle-
gar mediante transformaciones por filas. Sin embargo, si permitimos además
el uso de transformaciones por columnas, la reducción es mucho mayor.

Forma normal de rango

Si A es una matriz de orden m × n y rango(A) = r , entonces


µ ¶
O Ir
A ∼ Nr = .
O O

Nr se denomina forma normal de rango de A.

f
P RUEBA : Como A ∼ E A , existe una matriz no singular P tal que P A = E A . Si
rango(A) = r , entonces las columnas básicas de E A son las r columnas unita-
rias. Mediante intercambio de columnas aplicados a E A , podemos poner estas
r columnas en la parte superior izquierda. Si Q 1 es el producto de las matrices
elementales que hacen estos intercambios, entonces
µ ¶
Ir J
P AQ 1 = E A Q 1 = .
O O

Ahora multiplicamos ambos lados de esta ecuación por la matriz no singular


µ ¶
I r −J
Q2 = ,
O I

72 Álgebra Lineal y Geometría


Depto. de Álgebra

y nos queda
µ ¶
IrO
P AQ 1Q 2 = .
O O
Entonces A ∼ Nr . 

Ejemplo 2.6.1.- Veamos que


µ ¶
A O
rango = rango(A) + rango(B).
O B

Si rango(A) = r y rango(B) = s, entonces A ∼ Nr y B ∼ N s , y


µ ¶ µ ¶
A O Nr O
∼ ,
O B O Ns

de donde µ ¶
A O
rango = r + s.
O B

f c
Dadas matrices A y B, ¿cómo decidimos si A ∼ B, A ∼ B o A ∼ B?

Test de equivalencia

Sean A y B matrices de orden m × n. Entonces

A ∼ B si y solamente si rango(A) = rango(B).

f
A ∼ B si y solamente si E A = E B .
c
A ∼ B si y solamente si E A t = E B t .

En consecuencia, el producto por matrices no singulares no altera el


rango.

Álgebra Lineal y Geometría 73


Depto. de Álgebra

P RUEBA : Si rango(A) = rango(B), entonces A ∼ Nr y B ∼ Nr , de donde A ∼ Nr ∼


B. Recíprocamente, si A ∼ B, entonces B = P AQ con P y Q no singulares, de
donde rango(B) = rango(A).
f f f
Supongamos ahora que A ∼ B. Como B ∼ E B , entonces A ∼ E B , y dado que
la forma escalonada reducida por filas es única, se sigue que E B = E A . Recípro-
camente, si E A = E B , entonces

f f
A ∼ E A = E B ∼ B.

c f
Para las columnas, basta considerar que A ∼ B si y solamente si A t ∼ B t . 

Rango y trasposición

rango(A) = rango(A t ) y rango(A) = rango(A ∗ ).

P RUEBA : Sea rango(A) = r , y sean P y Q matrices no singulares tales que


µ ¶
Ir Or ×(n−r )
P AQ = Nr = .
O(m−r )×r O(m−r )×(n−r )

Entonces Nrt = Q t A t P t . Como Q t y P t son no singulares, se sigue que A t ∼ Nrt ,


y entonces
µ ¶
t Ir Or ×(m−r )
rango(A ) = rango(Nrt ) = rango = r = rango(A).
O(n−r )×r O(n−r )×(m−r )

De forma análoga, Nr∗ = Q ∗ A ∗ P ∗ , donde Q ∗ , P ∗ son matrices no singulares.


Como
µ ¶
∗ Ir Or ×(m−r )
Nr = rango ,
O(n−r )×r O(n−r )×(m−r )

se tiene que rango(N ∗ ) = r , y como rango(A ∗ ) = rango(Nr∗ ) por equivalencia de


matrices, tenemos que rango(A ∗ ) = r = rango(A). 

74 Álgebra Lineal y Geometría


Depto. de Álgebra

2.7. * Producto directo de matrices

Producto directo o de Kronecker

Sean A m×n , B p×q matrices. El producto directo o de Kronecker de A y


B es la matriz C mp×nq definida como

C = A ⊗ B = ai j B, i = 1, 2, . . ., m, j = 1, 2, . . ., n.

Ejemplo 2.7.1.- El producto de Kronecker de las matrices


2 1
 
1 2
µ ¶
A= , B =  −1 0 
3 4
3 2
es
2 1 4 2 2 4 1 2
   
 −1 0 −2 0   6 8 3 4 
   
 3 2 6 4   −1 −2 0 0
  
A ⊗B =   yB⊗A= .
 
 6 3 8 4   −3 −4 0 0 
 −3 0 −4 0  6 2 4
   
 −3 
9 6 12 8 9 12 6 8

Propiedades del producto de Kronecker

1. Sean A y B matrices del mismo tamaño. Entonces (A + B) ⊗ C =


A ⊗C + B ⊗C y C ⊗ (A + B) = C ⊗ A +C ⊗ B.

2. Si A,C y B, D son parejas de matrices ajustadas para el producto,


entonces (A ⊗ B)(C ⊗ D) = AC ⊗ BD.

3. Si A y B son matrices no singulares, entonces (A ⊗ B)−1 = A −1 ⊗


B −1 .

4. (A ⊗ B)t = A t ⊗ B t .

Álgebra Lineal y Geometría 75


Depto. de Álgebra

76 Álgebra Lineal y Geometría


Capítulo 3

Determinantes

Al comienzo del curso hacíamos referencia al antiguo tablero chino para


contar, en el que cañas de bambú coloreadas se manipulaban de acuerdo a
ciertas reglas para resolver un sistema de ecuaciones lineales. El tablero chino
parece que se usaba por el 200 a.C., y mantuvo su mecanismo durante un mile-
nio. El tablero y las reglas para usarlo llegaron a Japón, donde Seki Kowa (1642-
1708), un gran matemático japonés, sintetizó las antiguas ideas chinas de ma-
nipulación de rectángulos. Kowa formuló el concepto de lo que hoy llamamos
determinante para facilitar la resolución de sistemas lineales. Se piensa que su
definición data de poco antes de 1683.
Alrededor de los mismos años, entre 1678 y 1693, Gottfried W. Leibniz (1646-
1716), un matemático alemán, desarrollaba su propio concepto de determi-
nante de forma independiente, junto con aplicaciones de manipulación de rec-
tángulos de números para resolver sistemas de ecuaciones lineales. El traba-
jo de Leibniz solamente trata sistemas de tres ecuaciones con tres incógnitas,
mientras que Seki Kowa dio un tratamiento general para sistemas de n ecuacio-
nes con n incógnitas. Parece que tanto Kowa como Leibniz desarrollaron lo que
se llamó posteriormente regla de Cramer, pero no en la misma forma ni nota-
ción. Estos dos hombres tuvieron algo en común: sus ideas sobre la resolución
de sistemas lineales nunca fueron adoptadas por la comunidad matemática de
su tiempo, y sus descubrimientos se desvanecieron rápidamente en el olvido.
Al final, el concepto de determinante se redescubrió, y la materia ha sido inten-
samente tratada en el periodo de 1750 a 1900. Durante el mismo, los determi-
nantes se convirtieron en la mayor herramienta usada para analizar y resolver
sistemas lineales, mientras que la teoría de matrices permanecía relativamente
poco desarrollada. Pero las matemáticas, como un río, están siempre cambian-
do su curso, y grandes afluentes se pueden secar y convertirse en riachuelos,
mientras que pequeños arroyuelos se convierten en poderosos torrentes. Esto
es precisamente lo que ocurrió con las matrices y determinantes. El estudio y

77
Depto. de Álgebra

uso de los determinantes llevó al álgebra matricial de Cayley, y hoy las matri-
ces y el álgebra lineal están en la corriente principal de la matemática aplicada,
mientras que el papel de los determinantes ha sido relegado a una zona de re-
manso, por seguir con la analogía fluvial. Sin embargo, todavía es importante
comprender qué es un determinante y aprender sus propiedades fundamenta-
les. Nuestro objetivo no es aprender determinantes por su propio interés, sino
que exploraremos aquellas propiedades que son útiles en el posterior desarro-
llo de la teoría de matrices y sus aplicaciones.

Existen varias aproximaciones para la definición del determinante de una


matriz, de las que destacamos dos vías. La primera es de tipo inductivo, en
donde el determinante de una matriz de orden n se calcula a partir de los de-
terminantes de matrices de orden n − 1. La segunda se basa en una definición
directa, que precisa el concepto de permutación y de su clasificación en tipo
par o impar. Desarrollaremos ambas, con un teorema de unicidad que garanti-
za la igualdad de ambas definiciones. La elección de una forma u otra depende
del aspecto teórico en el que se quiera insistir.

3.1. Definición inductiva

Sea A una matriz cuadrada de orden n con coeficientes en un cuerpo K.


Más adelante será necesario trabajar con matrices cuyos coeficientes son poli-
nomios, pero los podemos considerar como elementos del cuerpo de fraccio-
nes. Si n = 1, entonces A = (a11 ) y definimos su determinante como det(A) =
a11 . Si n > 1 y A = (ai j ), llamamos cofactor del elemento ai j al número  i j =
(−1)i +j det(Mi j ), donde Mi j es la matriz de orden n − 1 que se obtiene al elimi-
nar la fila i -ésima y la columna j -ésima de la matriz A. Se define entonces la
función determinante como det : M (n × n, K) → K dada por

det(A) = a11 Â 11 + a21 Â 21 + · · · + an1 Â n1 ,

es decir, la suma de los productos de cada elemento de la primera columna por


su cofactor correspondiente.

78 Álgebra Lineal y Geometría


Depto. de Álgebra

Determinante: forma inductiva

Sea A = (ai j ) una matriz cuadrada de orden n.

Si n = 1, entonces det(A) = a11 .

Si n > 1, entonces

det(A) = a11 Â 11 + a21 Â 21 + · · · + an1 Â n1 ,

donde  i j = (−1)i +j det(Mi j ) es el cofactor del elemento ai j .

Ejemplo 3.1.1.-
1. Para una matriz 2 × 2 se tiene
µ ¶
a11 a12
det = a11 Â 11 + a21 Â 21
a21 a22
= a11 a22 − a21 a12 .

2. Para la matriz identidad,

det(I n ) = 1 · det(I n−1 ),

y por inducción det(I n ) = 1.

3. Para una matriz 3 × 3 se tiene


 
a11 a12 a13
det  a21 a22 a23  = a11 Â 11 + a21 Â 21 + a31 Â 31
a31 a32 a33
µ ¶ µ ¶
a22 a23 a12 a13
= a11 det − a21 det
a32 a33 a32 a33
µ ¶
a12 a13
+ a31 det
a22 a23
= a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 + a32 a13 )
+ a31 (a12 a23 − a22 a13 )
= a11 a22 a33 + a13 a21 a32 + a12 a23 a31
− a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

Álgebra Lineal y Geometría 79


Depto. de Álgebra

+ −

Figura 3.1: Regla de Sarrus

Esta es la que se conoce como regla de Sarrus, que admite la representa-


ción gráfica de la figura para los sumandos positivos y negativos.

4. El determinante de una matriz triangular superior es el producto de sus


elementos diagonales.

Ejemplo 3.1.2.-
 
1 2 3 4    
1 2 4 2 3 4
 0 1 2 4
 
 = 1 · det  3 4 5  − 0 · det  3 4 5 

det 
 2 3 4 5 
0 1 2 0 1 2
2 0 1 2
   
2 3 4 2 3 4
+ 2 · det  1 2 4  − 2 · det  1 2 4 
0 1 2 3 4 5
= 3 − 4 − 2 = −3.

80 Álgebra Lineal y Geometría


Depto. de Álgebra

De los ejemplos anteriores, observamos que esta forma de calcular el valor


de un determinante es muy costosa en cuanto al número de operaciones, pues
una matriz de orden n contiene n! sumandos, cada uno de ellos con un pro-
ducto de n elementos. Por ellos, vamos a estudiar qué propiedades posee esta
función que permita su evaluación de una forma más simple.

3.2. Propiedades

Lineal en las filas

La aplicación determinante es lineal en las filas.

P RUEBA :

Sea A una matriz de orden n, cuya fila A i ∗ se expresa como suma de dos
vectores fila B i ∗ +C i ∗ . Debemos probar que
     
A 1∗ A 1∗ A 1∗
 ..   ..   .. 

 . 

 . 
 
 .



det 
 B i ∗ +C i ∗
 = det  B i ∗  + det  C i ∗
   
.

 ..   ..   .. 
 .   .   . 
A n∗ A n∗ A n∗

La prueba es por inducción sobre n. Para n = 1 no haya nada que probar.


Si n > 1, en la primera propiedad, sea A la matriz inicial, y B y C las ma-
trices que aparecen a la derecha de la igualdad. Llamemos ai j = b i j + ci j
los elementos de la fila i -ésima de la matriz A. Es fácil ver que el cofactor
de ai 1 en la matriz A es igual a los cofactores de los elementos b i 1 y ci 1 en
las matrices B y C , respectivamente: Â i 1 = B̂ i 1 = Ĉ i 1 . Tenemos entonces

det(A) = a11 Â 11 + · · · + (b i 1 + ci 1 ) Â i 1 + · · · + an1 Â n1 .

Cada uno de los cofactores  t1 , con t 6= i es un determinante de orden


n−1 y una fila expresada como suma de otras dos. Entonces, por hipótesis

Álgebra Lineal y Geometría 81


Depto. de Álgebra

de inducción, Â t1 = B̂ t1 + Ĉ t1 para cada t 6= i . Obtenemos así que

det(A) = a11 (B̂ 11 + Ĉ 11 ) + · · · + (b i 1 + ci 1 ) Â i 1 + · · · + an1 (B̂ n1 + Ĉ n1 )


= a11 B̂ 11 + · · · + b i 1 B̂ i 1 + · · · + an1 B̂ n1
+ a11Ĉ 11 + · · · + ci 1Ĉ i 1 + · · · + an1 Ĉ n1
= det(B) + det(C ).

Sea A una matriz cuya fila A i ∗ es el producto de un escalar por un vector


fila, esto es, A i ∗ = αB i ∗ . Hay que probar que
   
A 1∗ A 1∗
 ..   .. 
 .   . 
   
det  αB i ∗  = α det 
 
 Bi ∗
.

 .   .
 ..   ..


A n∗ A n∗

Aplicamos inducción sobre n. Si n = 1, es trivial. Si n > 1, llamemos B a


la matriz que aparece a la derecha de la igualdad. Entonces ai j = αb i j
y el cofactor del elemento ai 1 es igual al cofactor del elemento b i 1 . Para
t 6= i , el cofactor del elemento a t1 es αB̂ t1 , por la hipótesis de inducción.
Entonces

det(A) = a11 Â 11 + · · · + ai 1 Â i 1 + · · · + an1 Â n1


= a11 αB̂ 11 + · · · + αai 1 B̂ i 1 + · · · + an1 αB̂ n1
= α det(B).

Una consecuencia inmediata de lo anterior es que si A tiene una fila de ce-


ros, entonces det(A) = 0; supongamos que la fila A i ∗ contiene únicamente va-
lores nulos. En tal caso, podemos sacar el factor cero y tenemos el resultado.

Alternada

Si A es una matriz con dos filas iguales, entonces det(A) = 0. Si B es la


matriz que resulta de intercambiar dos filas de la matriz A, entonces
det(B) = − det(A).

P RUEBA :

82 Álgebra Lineal y Geometría


Depto. de Álgebra

Paso 1. Las filas iguales de la matriz A son consecutivas. Hacemos la prue-


ba por inducción. Para n = 2 es una sencilla comprobación. Supongamos
entonces n > 2. Si las filas iguales son A i ∗ y A i +1∗ , entonces ai 1 = ai +1,1 y

det(A) = a11 Â 11 + · · · + ai 1 Â i 1 + ai 1 Â i +1,1 + · · · + an1 Â n1 .

Para t 6= i , i + 1, el cofactor  t1 corresponde a una matriz de orden n − 1


con dos filas iguales, por lo que  t1 = 0 para t 6= i , i + 1. Por otro lado,

 i 1 = (−1)i +1 det(Mi 1 ),  i +1,1 = (−1)i +2 det(Mi +1,1 ),

y las matrices Mi 1 y Mi +1,1 son iguales. En consecuencia, Â i 1 = − Â i +1,1 y


det(A) = 0.

Paso 2. Intercambio de dos filas consecutivas. Por el paso 1, sabemos que


 
A 1∗
 .. 
 . 
 
 A i ∗ + A i +1,∗ 
0 = det  
 A i ∗ + A i +1,∗ 
 
 .. 
 . 
A n∗
       
A 1∗ A 1∗ A 1∗ A 1∗
 ..   ..   ..   .. 
 .   .   .   . 
       
 Ai ∗   Ai ∗   A i +1,∗   A i +1,∗ 
= det 

 + det  A i +1,∗  + det  A i +1,∗  + det  A i ∗ 
      
 Ai ∗       
 .  . . .
. . . .
     
 .   .   .   . 
A n∗ A n∗ A n∗ A n∗
= 0 + det(A) + 0 + det(B),

donde B es la matriz que se obtiene a partir de A por el intercambio de la


fila i con la fila i + 1. Por tanto, det(B) = − det(A).

Paso 3. Las filas iguales de la matriz A no son necesariamente consecu-


tivas. Supongamos que la matriz A tiene iguales las filas A i ∗ y A t∗ . Por el
paso 2, podemos realizar intercambios de filas hasta que sean consecuti-
vas. Cada intercambio supone una alteración del signo del determinante,
pero el resultado final es una matriz con determinante nulo, por el paso
1.

Paso 4. Intercambio de dos filas. Se procede de igual manera que en el


paso 2.

Álgebra Lineal y Geometría 83


Depto. de Álgebra

Una consecuencia de lo anterior es que el determinante de una matriz A


no cambia si una fila A t∗ es sustituida por A t∗ + αA i ∗ , donde α es un escalar y
t 6= i . En efecto,
 
A 1∗    
 ..  A 1∗ A 1∗
 .  .  .. 
 ..
 

 A t∗ + αA i ∗

   . 
     
 + det  αA i ∗ 
 ..   A t∗   
det  .  = det 
 ..   Ai ∗ 
   .   
 Ai ∗   . 
.
   
 ..   Ai ∗   . 
 . 
A n∗ A n∗
A n∗
 
A 1∗
 .. 
 . 
 
 Ai ∗ 
 
 . 
= det(A) + α det  ..  = det(A),
 
 Ai ∗ 
 
 . 
 .. 
A n∗

pues la última matriz tiene dos filas iguales.


Estas propiedades se pueden expresar en términos de las acciones de las
matrices elementales.

Efecto de las transformaciones elementales

Sea A una matriz de orden n. Entonces

det(E i j A) = − det(A) si E i j es una matriz elemental de tipo I.

det(E i (α)A) = α det(A) si α ∈ K − {0}.

det(E i j (α)A) = det(A) si α ∈ K.

En general, si E 1 , . . . , E l son matrices elementales, entonces

det(E 1 · · · E l A) = det(E 1 ) · · · det(E l ) det(A).

84 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : La primera parte es la expresión del carácter lineal y alternado del


determinante que hemos visto antes. La segunda parte es por inducción sobre
l . Para l = 1 es lo que acabamos de probar. Supuesto probado el resultado para
l − 1 matrices, se tiene que

det(E 1 · E 2 · · · E l · A) = det(E 1 ) det(E 2 · · · E l · A) por el primer caso


= det(E 1 )(det(E 2 ) · · · det(E l ) · det(A)) hipótesis de inducción
| {z }
l −1 factores
= det(E 1 ) · · · det(E l ) det(A).

Determinante de las matrices elementales

Para las matrices elementales se tiene que

det(E i j ) = −1 = det(E it j ).

det(E i (α)) = α = det(Ti (α)t ).

det(E i j (α)) = 1 = det(E i j (α)t ).

P RUEBA : Si tomamos A = I n en el resultado anterior, entonces

det(E i j ) = −1.

det(E i (α)) = α.

det(E i j (α)) = 1.

Por otro lado, es fácil ver que

E it j = P i j , E i (α)t = E i (α), E i j (α)t = E j i (α).

Cuando hablamos del cálculo de la inversa de una matriz, decíamos que


las matrices que la poseen se denominan no singulares. Esta nomenclatura es
clásica y está asociada al valor del determinante de la matriz.

Álgebra Lineal y Geometría 85


Depto. de Álgebra

Existencia de inversa y determinante

Sea K un cuerpo y A ∈ M (n × n, K). Entonces A tiene inversa si y sola-


mente si det(A) 6= 0.

P RUEBA : Supongamos que A tiene inversa. Entonces A es producto de matrices


elementales A = E 1 · · · E k , de donde

det(A) = det(E 1 ) · · · det(E k )

y todos los factores son no nulos. Recíprocamente, supongamos que A no tiene


inversa. En tal caso, su forma escalonada reducida por filas E A tiene una fila de
ceros, y E A = E 1 · · · E k A, con E i matrices elementales. Entonces

0 = det(E A ) = det(E 1 · · · E k ) det(A).

La matriz E 1 · · · E k tiene inversa, por lo que su determinante es no nulo, de don-


de det(A) = 0. 

Las matrices con determinante nulo se denominan singulares. Suponga-


mos que A es una matriz cuadrada de orden n singular. Entonces A no tiene
inversa, por lo que rango(A) < n. Esto implica que una columna de A se expre-
sa como combinación lineal de las restantes.
Otra importante propiedad de la función determinante es su relación con
el producto de matrices cuadradas.

Producto de matrices y determinante

Si A y B son matrices cuadradas, entonces det(AB) =


det(A) det(B).
µ ¶
A B
det = det(A) det(D) si A y D son cuadradas.
O D

P RUEBA :

Supongamos que A es singular. Entonces det(A) = 0, y además sabemos


que A = E 1 · · · E k E A , donde E 1 , . . . , E k son matrices elementales y E A es la
forma escalonada reducida por filas de A, que tiene una fila de ceros (al

86 Álgebra Lineal y Geometría


Depto. de Álgebra

menos la última). Pero en este caso la última fila de E A B también es de


ceros, luego det(E A B) = 0. Por tanto

det(AB) = det(E 1 · · · E k E A B) = det(E 1 ) · · · det(E k ) det(E A B) = 0


= det(A) det(B).

Si A es no singular, entonces A = E 1 E 2 · · · E k es producto de matrices ele-


mentales. Sabemos que la regla del producto es válida para estas matri-
ces, por lo que

det(AB) = det(E 1 E 2 · · · E k B) = det(E 1 ) det(E 2 ) · · · det(E k ) det(B)


= det(E 1 E 2 · · · E k ) det(B) = det(A) det(B).

Veamos ahora la segunda parte. Escribamos


µ ¶
A n×n B
C= ,
O D p×p

y vamos a probar el resultado por inducción sobre n. Para n = 1 se tiene


que
det(C ) = a11Ĉ 11 = a11 det(D).
Supongamos el resultado probado para matrices cuadradas de orden n −
1. Por la definición de determinante,

det(C ) = a11Ĉ 11 + a21Ĉ 21 + · · · + an1Ĉ n1 , Ĉ i 1 = (−1)i +1 det Ni 1 ,

donde Ni 1 es la matriz que resulta de C al eliminar la fila i y la columna


1. Entonces estas matrices tienen la forma
µ ¶
Mi 1 B i′
Ni 1 = ,
O D

donde Mi 1 es la matriz que se obtiene de A al eliminar la fila i y la colum-


na 1. Por la hipótesis de inducción aplicada a Ni 1 , se tiene que

det(Ni 1 ) = det(Mi 1 ) det(D),

y, finalmente,

det(C ) = a11 (−1)i +1 det(Mi 1 ) det(D) + a21 (−1)i +2 det(Mi 2 ) det(D) + · · · +


an1 (−1)n+1 det(Mn1 ) det(D)
= det(A) det(D).

Álgebra Lineal y Geometría 87


Depto. de Álgebra

Por último, el tratamiento que hemos hecho por filas se puede hacer por
columnas.

Matriz traspuesta y determinante

Sea A una matriz cuadrada. Entonces det(A) = det(A t ).

P RUEBA : Si A es singular, entonces A t es singular, de donde det(A) = 0 = det(A t ).


Si A no es singular, entonces podemos expresar A como producto de matrices
elementales A = E 1 · · · E k , de donde A t = E kt · · · E 1t es producto de matrices ele-
mentales. Para cada matriz elemental se tiene que det(E i ) = det(E it ), por lo que
det(A) = det(A t ). 

El resultado anterior permite extender las propiedades anteriores a las co-


lumnas de una matriz.

Extensión de propiedades a las columnas

La aplicación determinante es lineal en las columnas.

Si A es una matriz con dos columnas iguales, entonces det(A) = 0.


Si B es la matriz que resulta de intercambiar dos columnas de la
matriz A, entonces det(B) = − det(A).

det(AE i j ) = − det(A).

det(AE i (α)) = α det(A) si α no nulo.

det(AE i j (α)) = det(A) si α ∈ K.

El determinante de una matriz se puede obtener mediante el


desarrollo por cualquiera de sus filas o columnas:

det(A) = ai 1  i 1 + ai 2  i 2 + · · · + ai n  i n
= a1j  1j + a2j  2j + · · · + an j  n j .

P RUEBA : Solamente hay que hacer un pequeño razonamiento para la última


propiedad. Si A = (ai j ) y B es la matriz que se obtiene al intercambiar la primera

88 Álgebra Lineal y Geometría


Depto. de Álgebra

columna con la columna j -ésima, entonces


 
a1j a12 · · · a11 · · · a1n
 a2j a22 · · · a21 · · · a2n 
 
B = . .. .. .. ..  y det(B) = − det(A).
 .. . . . . 
an j an2 · · · an1 · · · ann

Por la definición,

det(B) = a1j B̂ 11 + a2j B̂ 21 + · · · + an j B̂ n1 ,

y los cofactores de B verifican que B̂ k1 = − Â k j para todo j = 1, . . . , n. Por tanto,

det(B) = −a1j  1j − a2j  2j − · · · − an j  n j ,

y al igualar con − det(A) tenemos el resultado. Para las filas, usamos la igualdad
del determinante con el de la matriz traspuesta. 

Nota 3.2.1. Habíamos visto que si det(A) = 0, entonces una columna de A es


combinación lineal de las restantes. De forma análoga, si det(A) = 0, también
una fila de A es combinación lineal de las restantes.

3.3. * Rango y determinantes


En esta sección veremos cómo el rango de una matriz cualquiera puede cal-
cularse usando determinantes. Para ello necesitamos las siguientes definicio-
nes

Submatrices

Sea A una matriz de orden m × n y elegimos un subconjunto I ⊂


{1, . . . , m}, y un subconjunto J ∈ {1, . . . , n}. Se defina la submatriz de A
determinada por I y J como la matriz [A]I ,J cuyas entradas son las en-
tradas [A]i j de A tales que i ∈ I y j ∈ J . En otras palabras, es la matriz
que se obtiene de A al seleccionar las filas que están en I y las columnas
que están en J .

Ejemplo 3.3.1.-

Álgebra Lineal y Geometría 89


Depto. de Álgebra

1. En la definición de cofactor asociado al elemento ai j de una matriz cua-


drada A tomábamos la submatriz que se obtenía al eliminar la fila i y la
columna j de la matriz, que se obtiene con I = {1, . . . , n}−{i }, J = {1, . . . , n}−
{ j }.

2. En la matriz  
1 −1 0 2
A =  2 −1 1 −1  ,
0 0 1 0
la submatriz de A que se obtiene para I = {1, 3}, J = {3, 4} es
µ ¶
0 2
[A]I ,J = .
1 0

Menores

Dada una matriz A, m × n, los menores de A son los determinantes de


las submatrices cuadradas de A. Es decir, los escalares

m I ,J = det([A]I ,J ),

donde I ⊂ {1, . . . , m} y J ⊂ {1, . . . , n} son dos conjuntos con el mismo nú-


mero de elementos.
Diremos que m I ,J es un menor de orden s si la submatriz [A]I ,J tiene
orden s × s, es decir, si I y J tienen s elementos.

Ejemplo 3.3.2.- En la matriz


 
1 −1 0 2
A =  2 −1 1 −1  ,
0 0 1 0
para I = {1, 3}, J = {3, 4} se obtiene el menor de orden 2
µ ¶
0 2
det = −2.
1 0

90 Álgebra Lineal y Geometría


Depto. de Álgebra

Recordemos que el rango de una matriz A es igual al número de columnas


básicas, o al número de filas distintas de cero de cualquier forma escalonada,
en particular de su forma escalonada reducida por filas. Con respecto a las sub-
matrices, el rango se comporta de la siguiente manera:

Rango y submatrices

Si [A]I ,J es una submatriz de A, entonces rango([A]I ,J ) ≤ rango(A).

P RUEBA : Supongamos que A es una matriz de orden m × n y rango r . Sa-


bemos que una serie de operaciones elementales por filas transforman A en
E A , su forma escalonada reducida por filas. Si llamamos M = {1, . . . , m}, pode-
mos considerar la submatriz [A]M,J , que estará formada por algunas colum-
nas de A. Si aplicamos a [A]M,J las mismas operaciones elementales, obten-
dremos las columnas correspondientes de la matriz E , es decir, obtendremos
una matriz que tendrá a lo más r filas no nulas. Esto implica que la forma
escalonada reducida por filas de [A]M,J tiene a lo más r filas no nulas, luego
rango(A M,J ) ≤ r = rango(A).
Hemos probado entonces que, dada una matriz A de rango r , toda sub-
matriz formada por columnas completas de A tiene a lo sumo rango r . Pero
observemos que ([A]I ,J )t es una submatriz de ([A]M,J )t formada por columnas
completas, luego

rango([A]I ,J ) = rango(([A]I ,J )t ) ≤ rango(([A]M,J )t ) = rango([A]M,J ) ≤ rango(A),

como queríamos demostrar. 

Veamos que existe otra definición de rango, a partir de los menores de una
matriz A.

Rango y menores

El rango de A es igual al mayor orden alcanzado por los menores no


nulos de A. Es decir, rango(A) = r si y sólo si:

Existe un menor m I ,J 6= 0 de orden r .

Todos los menores de A de orden mayor que r son nulos.

Álgebra Lineal y Geometría 91


Depto. de Álgebra

P RUEBA : Supongamos que A es una matriz de orden m ×n, que tiene rango
r . Sabemos que hay unas operaciones elementales por filas que transforman A
en su forma escalonada reducida por filas E .
Sean p 1 , . . . , p r las columnas básicas de A, y definamos J = {p 1 , . . . , p r } y M =
{1, . . . , m}. La submatriz [A]M,J está formada por las columnas básicas de A. Si
aplicamos a [A]M,J las mismas operaciones elementales que a A, obtendremos
las columnas básicas de E , es decir, una matriz m × r cuyas primeras r filas
forman la matriz identidad, y las restantes m − r filas son de ceros. Como esta
matriz es una reducida por filas con r pivotes, [A]M,J tiene rango r .
Consideremos ahora ([A]M,J )t . Sabemos que también tiene rango r , luego
el mismo argumento anterior nos dice que tomando sus columnas básicas ob-
tenemos una matriz de rango r . Sean q 1 , . . . , q r sus columnas básicas. Obser-
vemos que tomar las columnas q 1 , . . . , q r de ([A]M,J )t es lo mismo que definir
I = {q 1 , . . . , q r } y considerar la matriz ([A]I ,J )t . Esta matriz tendrá entonces ran-
go r , luego la matriz [A]I ,J también lo tendrá. Pero entonces A I ,J es una subma-
triz de A, de orden r × r y rango r , luego su determinante es distinto de cero. Es
decir, el menor m I ,J , de orden r , es no nulo.
Consideremos ahora un menor m I ′ ,J ′ de orden k > r . Como una submatriz
no puede tener mayor rango que la matriz original, [A]I ′ ,J ′ es una matriz de
orden k × k y rango menor o igual a r < k, luego su determinante debe ser cero.
Es decir, m I ′ ,J ′ = 0.
Hemos demostrado entonces que para todo r , una matriz de rango r admite
un menor no nulo de orden r , y todos sus menores de orden mayor que r son
nulos. Por tanto, el mayor orden alcanzado por los menores no nulos de A es
igual al rango de A, como queríamos demostrar. 

Más adelante veremos que para calcular el rango de una matriz usando me-
nores, no es necesario ver que se anulan todos los menores de un cierto orden.

3.4. * Método del orlado


Recordemos que el rango de una matriz A es r si y sólo si existe un menor
no nulo de orden r , y todos los menores de orden mayor que r son nulos. En
principio, paras demostrar que una matriz tiene rango r habría que encontrar
un menor no nulo de orden r , y calcular todos los menores de orden r + 1 para
ver que se anulan. En esta sección veremos que esto no es necesario. Si encon-
tramos una submatriz cuadrada M de A tal que det(M) 6= 0, y vemos que se
anulan todos los menores de orden r + 1 que corresponden a submatrices de A
que contienen a M, entonces rango(A) = r .

92 Álgebra Lineal y Geometría


Depto. de Álgebra

Teorema principal del método del orlado

Sea A una matriz m × n con un menor no nulo de orden r , es decir, con


una submatriz cuadrada M de orden r tal que det(M) 6= 0. Supongamos
que todas las submatrices cuadradas de orden r + 1 que contienen a M
tienen determinante 0. Entonces rango(A) = r .

P RUEBA : Observemos que intercambiar filas o columnas de una matriz no


cambia su rango, ni el hecho de que sus menores de un cierto orden sean o no
sean todos nulos. Por tanto, podemos suponer que la submatriz M está forma-
da por las primeras r filas y columnas de A. Es decir, podremos escribir A de la
forma: µ ¶
M A1
A= .
A2 A3

Estamos suponiendo que det(M) 6= 0, luego existe su inversa M −1 , y podemos


considerar el siguiente producto:
µ ¶µ ¶ µ ¶
M −1 0 M A1 Ir M −1 A 1
−1 = .
−A 2 M I m−r A2 A3 0 −A 2 M −1 A 1 + A 3

La igualdad anterior es de la forma P A = B, donde P es una matriz cuadrada


m × m tal que det(P ) = det(M −1 ) 6= 0. Por tanto, rango(A) = rango(B), y sólo
tenemos que probar que rango(B) = r . Bastará demostrar que −A 2 M −1 A 1 + A 3
es la matriz nula, es decir, que A 2 M −1 A 1 = A 3 .
La fila i de la matriz A 2 M −1 A 1 es [A 2 M −1 A 1 ]i ∗ = [A 2 ]i ∗ M −1 A 1 , y la columna
j de esta fila, es decir, el elemento (i , j ) de la matriz A 2 M −1 A 1 es

[A 2 M −1 A 1 ]i j = [[A 2 ]i ∗ M −1 A 1 ]∗ j = [A 2 ]i ∗ M −1 [A 1 ]∗ j .

Por tanto, tenemos que demostrar que

[A 2 ]i ∗ M −1 [A 1 ]∗ j = [A 3 ]i j

para todo i = 1, . . . , m − r y para todo j = 1, . . . , n − r .


Ahora consideremos la submatriz de A formada por las filas 1, . . . , r y r +i , y
por las columnas 1, . . . , r y r + j . Es la siguiente:
µ ¶
M [A 1 ]∗ j
.
[A 2 ]i ∗ [A 3 ]i j

Álgebra Lineal y Geometría 93


Depto. de Álgebra

Como esta submatriz es cuadrada de orden r +1 y contiene a M, tiene determi-


nante cero. Observemos que se tiene siguiente producto:
µ ¶µ ¶ µ ¶
M −1 0 M [A 1 ]∗ j Ir M −1 [A 1 ]∗ j
= .
−[A 2 ]i ∗ M −1 1 [A 2 ]i ∗ [A 3 ]i j 0 −[A 2 ]i ∗ M −1 [A 1 ]∗ j + [A 3 ]i j

Llamemos P , Q y R a las matrices que aparecen en esta fórmula. Tenemos en-


tonces PQ = R. Por hipótesis det(Q) = 0, y por otra parte el determinante de
R es claramente −[A 2 ]i ∗ M −1 [A 1 ]∗ j + [A 3 ]i j . Por tanto, −[A 2 ]i ∗ M −1 [A 1 ]∗ j +
[A 3 ]i j = det(R) = det(P ) det(Q) = det(P ) · 0 = 0.
Luego [A 2 ]i ∗ M −1 [A 1 ]∗ j = [A 3 ]i j , como queríamos demostrar. 

A partir de este resultado, el método del orlado para calcular el rango de


una matriz A es el siguiente. Por abuso del lenguaje, diremos que un menor
det(M ′ ) contiene a det(M) si M es una submatriz de M ′ .

Método del orlado

Sea A una matriz m × n. El método del orlado para calcular el rango de


A es como sigue. Si A = 0, entonces rango(A) = 0. En caso contrario, to-
mamos un menor det(M) de orden r no nulo. Se realizan los siguientes
pasos:

1. Halle, si existe, un menor no nulo de orden r + 1 que contenga a


M.

2. Si no lo hay, rango(A) = r .

3. Si lo hay, repetir el paso 1 aumentando r una unidad, y reempla-


zando M por el menor encontrado.

Ejemplo 3.4.1.- Consideremos la matriz


 
3 6 5 9
A= 1 1 2 4 .
1 −2 3 7

El menor de A asociado a las dos primeras filas y las dos primeras columnas es
µ ¶
3 6
M = det = −3 6= 0.
1 1

94 Álgebra Lineal y Geometría


Depto. de Álgebra

Realicemos el orlado de esta submatriz con la tercera fila:

 
3 6 5
M1 = det 1
 1 2  = 0,
1 −2 3
 
3 6 9
M2 = det 1
 1 4  = 0.
1 −2 7

Por tanto, rango(A) = 2.

3.5. Regla de Cramer

Figura 3.2: Gabriel Cramer, (1704-1752)

Álgebra Lineal y Geometría 95


Depto. de Álgebra

Regla de Cramer

Sea A n×n x = b un sistema con A matriz no singular y u su solución.


Entonces la i -ésima componente u i del vector u verifica que

det(A i )
ui = ,
det(A)
¡ ¢
donde A i = A ∗1 · · · A ∗i −1 b A ∗i +1 · · · A ∗n . Esto es, A i es la
matriz que se obtiene de A cambiando la columna A ∗i por b.

P RUEBA : Consideremos las matrices I i (u), i = 1, . . . , n, que se obtienen al sus-


tituir la columna i -ésima de la matriz identidad I por el vector u. Si A u = b, la
definición de multiplicación de matrices implica que
¡ ¢
A · I i (u) = A e1 . . . u . . . en
¡ ¢
= A e1 . . . A u . . . A en
¡ ¢
= A ∗1 . . . b . . . A ∗n = A i .

Por la propiedad multiplicativa de los determinantes,

det(A) det(I i (u)) = det(A i ).

Observemos que det(I i (u)) = u i , pues basta realizar el desarrollo del determi-
nante por la i -ésima fila. De aquí, det(A) · u i = det(A i ) y tenemos el resultado
por el carácter no singular de A.


La regla de Cramer tiene únicamente un interés teórico, pues no se aplica en


cálculo numérico.

Ejemplo 3.5.1.- Consideremos el sistema A x = b, con


   
1 4 5 6
A =  4 18 26  , b =  0  .
3 16 30 −6

96 Álgebra Lineal y Geometría


Depto. de Álgebra

Según la regla de Cramer,


¯ ¯
¯ 6 4 5 ¯
¯ ¯
¯ ¯
¯ 0 18 26 ¯
¯ ¯
¯ ¯
det(A 1 ) ¯ −6 16 30 ¯ 660
x1 = = = = 110,
det(A) 6 6
¯ ¯
¯ 1 6 5 ¯
¯ ¯
¯ ¯
¯ 4 0 26 ¯
¯ ¯
¯ ¯
det(A 2 ) ¯ 3 −6 30 ¯ −216
x2 = = = = −36,
det(A) 6 6
¯ ¯
¯ 1 4 6 ¯
¯ ¯
¯ ¯
¯ 4 18 0 ¯
¯ ¯
¯ ¯
det(A 3 ) ¯ 3 16 −6 ¯ 48
x3 = = = = 8.
det(A) 6 6

3.6. Cofactores y matriz inversa


Recordemos que el cofactor de A n×n asociado con la posición (i , j ) se define
como
 i j = (−1)i +j det(Mi j ),

donde Mi j es la submatriz de orden n − 1 que se obtiene borrando la fila i -


ésima y la columna j -ésima de la matriz A. La matriz de cofactores se notará
por  = (  i j ).

Ejemplo 3.6.1.- Los cofactores de la matriz


 
1 4 5
A =  4 18 26 
3 16 30

Álgebra Lineal y Geometría 97


Depto. de Álgebra

son
à !
18 26
 11 = (−1)2 det = 124,
16 30
" #
4 26
3
 12 = (−1) det = −42,
3 30
" #
4 18
4
 13 = (−1) det = 10,
3 16
..
.
" #
1 4
 33 = (−1)6 det = 2.
4 18

La matriz de cofactores es igual entonces a


 
124 −42 10
 
 −40
 =  15 .
−4 
14 −6 2

Inversa y matriz adjunta

Se define la matriz adjunta de A n×n como Adj(A) = Â t , la traspuesta de


la matriz de cofactores. Si A es no singular, entonces

Adj(A)
A −1 = .
det(A)

P RUEBA : El elemento [A −1 ]i j es la i -ésima componente de la solución del sis-


tema A x = e j , donde e j es el j -ésimo vector de la base estándar. Por la regla de
Cramer,
det(A i )
[A −1 ]i j = xi = ,
det(A)

98 Álgebra Lineal y Geometría


Depto. de Álgebra

donde A i es la matriz que se obtiene al cambiar la columna i -ésima de A por


e j , y el desarrollo de det(A i ) por la columna i -ésima implica que
 
a11 · · · 0 ··· a1n
 .. .. .. 
 . . . 
 
det(A i ) = det 
 aj1 ··· 1 ··· ajn  = Â j i .
 .. .. .. 
 . . . 
an1 · · · 0 · · · ann

columna i
vector e j

Ejemplo 3.6.2.- El cálculo de la inversa de la matriz del ejemplo 3.6.1


 
1 4 5
 
 4 18 26 
A= 

3 16 30

mediante la matriz adjunta


 
124 −40 14
 
Adj(A) = Â t = 
 −42 15 −6 

10 −4 2

nos da
   62 
124 −40 14 3 − 20
3 7/3
Adj(A) 1    
A −1 = =  −42 15  =  −7 5/2 −1  .
−6   
det(A) 6 
10 −4 2 5/3 −2/3 1/3

Álgebra Lineal y Geometría 99


Depto. de Álgebra

3.7. * Determinantes y permutaciones


Denotaremos S n al conjunto de las permutaciones de un conjunto de n ele-
mentos, es decir, al conjunto de las aplicaciones biyectivas

σ : {1, . . . , n} −→ {1, . . . , n}.

Dada una permutación σ ∈ S n , una de las características de σ que va a tener


más importancia en este tema será su número de inversiones, ni (σ), que es el
número de pares (i , j ) tales que i < j y σ(i ) > σ( j ). Hay una forma gráfica muy
útil para describir el número de inversiones de σ: Si disponemos dos copias del
conjunto {1, . . . , n}, donde los números están alineados verticalmente como en
el ejemplo de la figura 3.3, la permutación σ viene representada por n segmen-
tos, o líneas, que unen el elemento i de la primera copia al elemento σ(i ) de la
segunda. Es claro que ni (σ) es simplemente el número de cruces (interseccio-
nes) que aparecen en esta representación. (Nota: se debe evitar que más de dos
rectas se corten en el mismo punto, para poder contar los cruces de forma más
clara.)

Figura 3.3: Ejemplo de permutaciones σ, τ ∈ S 5 tales que ni (σ) = 5, ni (τ) = 4 y


ni (τ ◦ σ) = 7.

A partir de ni (σ), se obtiene el signo (o la paridad) de la permutación σ,


dado simplemente por la fórmula:

sg (σ) = (−1)ni (σ) .

Observemos que sg (σ) = 1 si ni (σ) es un número par, y sg (σ) = −1 si ni (σ) es


un número impar. En el primer caso diremos que σ es una permutación par,
mientras que en el segundo diremos que σ es una permutación impar.

100 Álgebra Lineal y Geometría


Depto. de Álgebra

Composición de permutaciones y signo

La composición de dos permutaciones pares, o de dos permutaciones


impares, es una permutación par. La composición de una permutación
par y una impar, es una permutación impar.

P RUEBA : Sean σ, τ ∈ S n dos permutaciones, que representaremos gráfica-


mente de forma consecutiva, como en la figura 3.3. Observemos que la compo-
sición τ ◦ σ se obtiene siguiendo las líneas desde la primera copia de {1, . . . , n} a
la tercera. Un par (i , j ) será una inversión de τ ◦ σ si las líneas correspondientes
se cruzan una sóla vez (o bien en σ o bien en τ). Por el contrario, (i , j ) no será
una inversión de τ◦σ si las líneas correspondientes no se cruzan, o si se cruzan
dos veces (los dos cruces marcados en la figura 3.3). Si llamamos m al número
de pares (i , j ) tales que sus líneas correspondientes se cruzan dos veces, este
argumento nos dice que ni (τ ◦ σ) = ni (σ) + ni (τ) − 2m. De aquí se deduce in-
mediatamente el resultado sobre la paridad de τ ◦ σ. 

Una consecuencia inmediata del resultado anterior es la siguiente propie-


dad:

Permutación inversa y signo

Dada σ ∈ S n , se tiene sg (σ) = sg (σ−1 ).

P RUEBA : Al ser σ−1 ◦ σ = Id una permutación par (la identidad es la única


permutación sin inversiones), el resultado anterior implica que σ y σ−1 tienen
la misma paridad. 

Más adelante necesitaremos algún que otro resultado sobre permutaciones,


pero ahora ya podemos dar la definición principal de este tema.

Determinante por permutaciones

Sea A una matriz cuadrada de orden n × n. Se define el determinante


por permutaciones de A, denotado |A|, como:
X
|A| = sg (σ) · [A]1σ(1) [A]2σ(2) · · · [A]nσ(n) .
σ∈S n

Álgebra Lineal y Geometría 101


Depto. de Álgebra

Observemos que |A| es una suma de n! términos, puesto que hay un tér-
mino por cada permutación de S n . Cada sumando contiene un producto de la
forma a1σ(1) a2σ(2) · · · anσ(n) . Estos n escalares son n entradas de la matriz A que
están en n filas distintas, y también en n columnas distintas. Recíprocamente,
si elegimos n entradas de A que estén en filas distintas y en columnas distintas,
el producto de esos n escalares aparecerá en uno de los sumandos que definen
|A|: la permutación correspondiente será la que asocia, a cada fila, la columna
donde está la entrada elegida. Por tanto, |A| es la suma de todos estos posibles
productos, cada uno de ellos con un signo determinado por la permutación
correspondiente.

Ejemplo 3.7.1.- Si A es una matriz de orden 2 × 2, sólo hay dos permutaciones


posibles en S 2 , la identidad y la que permuta los elementos 1 y 2. La primera es
par, y da lugar al sumando a11 a22 . La segunda es impar, y da lugar al sumando
−a12 a21 . Por tanto, en el caso n = 2, tenemos la conocida fórmula:
¯ ¯
¯a11 a12 ¯
¯a21 a22 ¯ = a11 a22 − a12 a21 .
¯ ¯

Ejemplo 3.7.2.- Si A es una matriz de orden 3×3, y como hay 6 permutaciones


en S 3 , la fórmula que define |A| consta de 6 sumandos, tres de ellos pares y tres
impares. Concretamente:
¯ ¯
¯a11 a12 a13 ¯
¯ ¯
¯a21 a22 a23 ¯ = a11 a22 a33 + a12 a23 a31 + a13 a21 a32
¯ ¯
¯a
31 a 32 a 33
¯
−a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

Dos resultados inmediatos son los siguientes. No necesitamos dar la de-


mostración, al ser evidentes a partir de la definición del determinante.

102 Álgebra Lineal y Geometría


Depto. de Álgebra

Fila o columna de ceros

Si una matriz cuadrada A tiene una fila o una columna de ceros, enton-
ces |A| = 0.

Determinante de la matriz identidad

Si I es la matriz identidad de orden n × n, entonces |I | = 1.

3.7.1. Efecto por trasposición y operaciones elementales


Veamos ahora el efecto que producen las operaciones elementales por filas
en el determinante de una matriz.

Determinante y operaciones elementales de tipo I

Si la matriz cuadrada B se obtiene de A al intercambiar dos filas (o dos


columnas), entonces:
|B| = −|A|.

P RUEBA : Supongamos que B se obtiene de A al intercambiar las filas i y j ,


con i < j . Tendremos:
X
|B| = sg (σ) · [B]1σ(1) · · · [B]i σ(i ) · · · [B] j σ( j ) · · · [B]nσ(n)
σ∈S n
X
= sg (σ) · [A]1σ(1) · · · [A] j σ(i ) · · · [A]i σ( j ) · · · [A]nσ(n)
σ∈S n
X
= sg (σ) · [A]1σ(1) · · · [A]i σ( j ) · · · [A] j σ(i ) · · · [A]nσ(n) .
σ∈S n

Si llamamos τ a la permutación (llamada trasposición) que intercambia los ele-


mentos i y j , dejando invariantes los demás, se tiene:
X
|B| = sg (σ) · [A]1σ(τ(1)) · · · [A]i σ(τ(i )) · · · [A] j σ(τ( j )) · · · [A]nσ(τ(n)) .
σ∈S n

Ahora observemos que una trasposición siempre es impar, como se puede ver
en su representación gráfica: hay j − i − 1 líneas que empiezan entre i y j , y

Álgebra Lineal y Geometría 103


Depto. de Álgebra

todas ellas se cruzan con las líneas i y j ; además tenemos el cruce de la línea
i con la línea j , y no hay ningún otro cruce. Por tanto, ni (τ) = 2( j − i − 1) + 1,
luego τ es impar. Esto implica que sg (σ) = −sg (σ ◦ τ), y así tenemos:
X
|B| = −sg (σ ◦ τ) · [A]1σ(τ(1)) · · · [A]i σ(τ(i )) · · · [A] j σ(τ( j )) · · · [A]nσ(τ(n))
σ∈S n
X
= − sg (σ ◦ τ) · [A]1σ(τ(1)) · · · [A]i σ(τ(i )) · · · [A] j σ(τ( j )) · · · [A]nσ(τ(n)) .
σ∈S n

El conjunto de las permutaciones σ ◦ τ cuando σ ∈ S n es, de nuevo, el conjunto


S n de todas las permutaciones. Luego en este sumatorio σ ◦ τ toma como valor
todas las posibles permutaciones y la suma da precisamente |A|. Por tanto se
obtiene |B| = −|A|, como queríamos demostrar.
Supongamos ahora que B se obtiene de A al permutar dos columnas. En
este caso B t se obtiene de A t al permutar dos filas, luego |B| = |B t | = −|A t | =
−|A|. 

Un corolario inmediato de este resultado es el siguiente:

Determinante de matrices con filas o columnas iguales

Si A es una matriz cuadrada con dos filas o dos columnas iguales, en-
tonces
|A| = 0.

P RUEBA : En este caso, A se obtiene de sí misma al intercambiar dos filas o


dos columnas (aquellas que son iguales). Por tanto, |A| = −|A|, luego |A| = 0. 

Nota 3.7.1. En la demostración anterior, hemos supuesto que 2 6= 0 en el cuerpo


k. En efecto, |A| = −|A| es equivalente 2|A| = 0, que implica |A| = 0 siempre que
2 6= 0. Hay cuerpos en los que esto no ocurre (por ejemplo Z/Z2), aunque inclu-
so en este caso el resultado sigue siendo cierto. Un buen ejercicio es demostrar
este resultado directamente con la definición de determinante. En concreto,
supongamos que A i ∗ = A j ∗ , con i 6= j . Entonces para 1 ≤ k ≤ n tenemos que
ai k = a j k . Si σ ∈ S n , sea σ′ = σ ◦ (i j ). Vamos a probar que

a1σ(1) · · · anσ(n) = a1σ′ (1) · · · anσ′ (n) .

Esto se verifica porque σ(k) = σ′ (k) si k 6= i , j , de donde akσ(k) = akσ′ (k) , mien-
tras que σ′ (i ) = σ( j ) y σ′ ( j ) = σ(i ), por lo que ai σ′ (i ) = ai σ( j ) = a j σ( j ) y a j σ′ ( j ) =
a j σ(i ) = ai σ(i ) .

104 Álgebra Lineal y Geometría


Depto. de Álgebra

Pero sg (σ′) = −sg (σ), luego

sg (σ)a1σ(1) · · · anσ(n) + sg (σ′)a1σ′ (1) · · · anσ′ (n) = 0.

La aplicación σ 7→ σ′ establece una correspondencia biyectiva entre las permu-


taciones pares e impares de S n , por lo que

X
|A| = sg (σ)a1σ(1) · · · anσ(n)
σ∈S n
X
= (sg (σ)a1σ(1) · · · anσ(n) + sg (σ′)a1σ′ (1) · · · anσ′ (n) )
sg (σ)=1

= 0.

Observemos que la prueba es independiente de la característica del cuerpo.

Para estudiar el efecto que una operación elemental de tipo II o III induce en
el determinante de una matriz, veremos un resultado más general, que incluye
a ambos.

Determinante y combinaciones lineales de filas

Sean B, A 1 , . . . , A t matrices n × n tales que:

La fila i de B es una combinación lineal de las filas i de A 1 , . . . , A t ,


es decir, existen unos escalares α1 , . . . , αt tales que

[B]i ∗ = α1 [A 1 ]i ∗ + · · · αt [A t ]i ∗ .

Para todo k 6= i , las filas k de B, A 1 , . . . , A t son todas iguales.

Entonces
|B| = α1 |A 1 | + · · · + αt |A t |.

P RUEBA : Para todo k 6= i , sabemos que la entrada (k, j ) de cualquiera de


las matrices estudiadas es [B]k,j . Para la fila i , denotaremos [A m ]i ,j a la entrada
(i , j ) de la matriz A m , para m = 1, . . . , t . Entonces tenemos [B]i ,j = α1 [A 1 ]i ,j +
· · · + αt [A t ]i ,j , para todo j = 1, . . ., n.

Álgebra Lineal y Geometría 105


Depto. de Álgebra

La fórmula del determinante de A queda:


X
|B| = sg (σ) · [B]1σ(1) · · · [B]i σ(i ) · · · [B]nσ(n)
σ∈S n
X ¡ ¢
= sg (σ) · [B]1σ(1) · · · α1 [A 1 ]i σ(i ) + · · · + αt [A t ]i σ(i ) · · · [B]nσ(n)
σ∈S n
à !
X
= sg (σ) · [B]1σ(1) · · · (α1 [A 1 ]i σ(i ) ) · · · [B]nσ(n) + · · ·
σ∈S n
à !
X
··· + sg (σ) · [B]1σ(1) · · · (αt [A t ]i σ(i ) ) · · · [B]nσ(n)
σ∈S n
à !
X
= α1 sg (σ) · [B]1σ(1) · · · [A 1 ]i σ(i ) · · · [B]nσ(n) + · · ·
σ∈S n
à !
X
· · · + αt sg (σ) · [B]1σ(1) · · · [A t ]i σ(i ) · · · [B]nσ(n)
σ∈S n
= α1 |A 1 | + · · · αt |A t |,

como queríamos demostrar. 

Ejemplo 3.7.3.- A partir de la combinación lineal (2, 3, −1) = 2(1, 5, 1) +


(−1)(0, 7, 3), se deduce la igualdad:
¯ ¯ ¯ ¯ ¯ ¯
¯ 13 57 36 ¯ ¯ 13 57 36 ¯ ¯ 13 57 36 ¯¯
¯ ¯ ¯ ¯ ¯
¯ 2 3 −1 ¯ = 2 ¯ 1
¯ ¯ 5 1 ¯ + (−1) ¯¯ 0
¯ 7 3 ¯¯ .
¯
¯248 504 311¯ ¯248 504 311¯ ¯248 504 311¯

Determinante y operaciones elementales de tipo II

Si la matriz cuadrada B se obtiene de A al multiplicar una fila (o colum-


na) por un escalar α, entonces:

|B| = α|A|.

106 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Inmediato a partir de los resultados anteriores, tomando t = 1,


α1 = α y A 1 = A. 

Determinante y operaciones elementales de tipo III

Si la matriz cuadrada B se obtiene de A al sumar a una fila (o columna)


un múltiplo de otra, entonces:

|B| = |A|.

P RUEBA : Supongamos que B se obtiene de A al sumar, a la fila i , la fila j


multiplicada por α ∈ k. Denotemos A 1 = A, y sea A 2 la matriz que se obtiene de
A al sustituir la fila i for la j , dejando la fila j como está: es decir, las filas i y j
de A 2 son ambas iguales a la fila j de A. En este caso, B, A 1 y A 2 satisfacen las
hipótesis de los resultados anteriores: las filas k con k 6= i son todas iguales, y la
fila i de B es combinación lineal de las filas i de A 1 y A 2 . Concretamente:

[B]i ∗ = [A]i ∗ + α[A] j ∗ = [A 1 ]i ∗ + α[A 2 ]i ∗ ,

por lo que se tiene |B| = |A 1 | + α|A 2 |. Como A 2 es una matriz con dos filas igua-
les, |A 2 | = 0, luego |B| = |A 1 | = |A|.
El caso de las operaciones elementales por columnas se demuestra igual. 

3.8. * Igualdad de ambas definiciones


El objetivo de esta sección es probar que el determinante de una matriz
definido por recurrencia y el definido por permutaciones coinciden. Una for-
ma es comprobar que el determinante por permutaciones es igual al desarrollo
por cofactores de una columna de la matriz. Vamos a seguir otro método, ba-
sado en la unicidad de las propiedades del determinante que hemos probado
tanto para las dos definiciones. Por ello, necesitamos una definición para estas
funciones.

Álgebra Lineal y Geometría 107


Depto. de Álgebra

Función determinante

Sea K un anillo y n un entero positivo. Una función δn : M (n×n, K) → K


es una función determinante si satisface las siguientes propiedades:

1. δn (I ) = 1, donde I es la matriz identidad.

2. δn (A) = 0 si A tiene una fila de ceros.

3. δn (P i j A) = −δn (A), donde P i j es una matriz de permutación.

4. δn (Ti (α)A) = αδn (A), donde Ti (α) es una matriz elemental de ti-
po I I .

5. δn (Ti j (α)A) = δn (A), donde Ti j (α) es una matriz elemental de ti-


po I I I .

Ya sabemos que el determinante por recurrencia y el determinante por per-


mutaciones son funciones determinante. Para probar que coinciden, basta ver
que una función determinante está unívocamente determinada.

Unicidad de la función determinante

Sea K un cuerpo. Para cada entero positivo n existe a lo más una única
función determinante δn : M (n ×n, K) → K. En consecuencia, det(A) =
|A|.

P RUEBA : Sean δn , γn dos funciones determinante y llamemos β = δn − γn .


La función β satisface las siguientes condiciones:

β(I ) = 0.

β(A) = 0 si A tiene una fila de ceros.

β(P i j A) = −β(A), donde P i j es una matriz de permutación.

β(Ti (α)A) = αβ(A), donde Ti (α) es una matriz elemental de tipo I I .

β(Ti j (α)A) = β(A), donde Ti j (α) es una matriz elemental de tipo I I I .

108 Álgebra Lineal y Geometría


Depto. de Álgebra

Lo anterior prueba que si E es una matriz elemental, entonces β(A) y β(E A)


son ambos nulos o ambos distintos de cero. Dada una matriz A de orden n,
existen matrices elementales E 1 , . . . , E r tales que E 1 · · · E r A = E A , donde E A es la
forma escalonada reducida por filas de A. Si A tiene rango n, entonces E A = I
y β(E 1 · · · E r A) = 0, de donde β(A) = 0. Si A es de rango inferior, entonces E A
contiene una fila de ceros, por lo que β(E A ) = 0 y β(A) = 0 

Nota 3.8.1. La definición de la función determinante se puede hacer sobre ani-


llos, como Z o K [X 1 , . . . , X n ], donde sigue siendo válida la regla del producto
(Adkins:Weintraub). Si el anillo es un dominio, podemos trabajar en el cuer-
po de fracciones para obtener algunos resultados. Sin embargo, hay algunas
propiedades de los vectores que no se verifican en los anillos. Por ejemplo, el
determinante de una matriz puede ser cero, pero eso no implica que una co-
lumna o fila sea combinación lineal de las restantes. Por ejemplo, la matriz con
coeficientes enteros µ ¶
12 18
A=
−6 −9
es singular, pero ninguna columna es múltiplo entero de la otra, aunque sí son
Z-linealmente independientes.
Cuando se consideran espacios de funciones, hay que tener cuidado con
algunas propiedades relativas a la independencia lineal. Por ejemplo, sea n > 1
y U un intervalo abierto de R. Sea R el conjunto de funciones f : U → Rque son
diferenciables n −1 veces al menos. Dada f ∈ R, notaremos por D f su derivada
y D h f su derivada h-ésima. Dadas f 1 , . . . , f n ∈ R, la función
 
f 1 (t ) f 2 (t ) ... f n (t )

 (D f 1 )(t ) (D f 2 )(t ) ... (D f n )(t ) 

W ( f 1 , . . . , f n )(t ) = det  .. .. .. 
 . . . 
(D n−1 f 1 )(t ) (Dn − 1 f 2 )(t ) . . . (D n−1 f n )(t )

se denomina Wronskiano de f 1 , . . . , f n . Se puede probar que si W ( f 1 , . . . , f n )(t ) 6=


0 para algún t ∈ U , entonces el conjunto { f 1 , . . . , f n } es R-linealmente indepen-
diente. El recíproco es falso. Sea U un intervalo que contiene al origen consi-
deremos las funciones f 1 (t ) = t 3 , f 2 (t ) = |t |3 . Entonces { f 1 , f 2 } es un conjunto
R-linealmente independiente, pero W ( f 1 , f 2 )(t ) = 0 para todo t ∈ U .

3.9. * Coste de cálculo del determinante


Con la definición por permutaciones, el determinante de una matriz de or-
den n se calcula mediante n! sumandos, cada uno de ellos con n −1 productos.

Álgebra Lineal y Geometría 109


Depto. de Álgebra

Por tanto, el número de operaciones necesarias son n! − 1 sumas y (n − 1) · n!


productos, lo que hace un total de n(n!)−1 operaciones. Para una matriz de or-
den 25, son necesarias del orden de 3,9 × 1026 operaciones. Un ordenador que
realice 1015 operaciones por segundo (un petaflop) necesitará 3170 años para
completar el cálculo.
Veamos qué ocurre si usamos el desarrollo por cofactores de una fila o co-
lumna. Usemos, Por ejemplo, el desarrollo por la primera columna: tenemos
n
X
det(A) = ai 1 Â i 1 .
i =1

Llamemos p n al número de operaciones necesarias mediante este método. Es


claro que p 1 = 1, y para n = 2 tenemos dos productos y una suma, luego p 2 =
3. Supongamos calculado p n−1 , el coste de un determinante de orden n − 1.
Entonces el desarrollo por cofactores necesita el cálculo de n determinantes de
orden n − 1, n productos y n − 1 sumas. Tenemos así la ecuación

p n = np n−1 + n + (n − 1) = np n−1 + 2n − 1, si n > 2.

Los valores de p n crecen de manera proporcional a n!. Por ejemplo, p 15 ≈ 3,55×


1012 , p 25 ≈ 4,21 × 1025 . Es ligeramente menos costoso que el desarrollo por per-
mutaciones.
En el caso de un cuerpo, las transformaciones elementales nos permiten
realizar el cálculo del determinante con un coste del orden de 2/3n 3 , tal como
se tiene para la eliminación gaussiana. Esto funciona correctamente cuando se
trabaja en un cuerpo, pero en anillos más generales no se tiene la posibilidad
de dividir por un escalar no nulo, como es el caso de Z o de los anillos de po-
linomios. Existen variantes de la eliminación gaussiana que evitan divisiones y
permiten, con un pequeño coste añadido, tratar estos casos.

Ejemplo 3.9.1.-
El desarrollo de un determinante de orden n por los elementos de una fila
y sus adjuntos es muy costoso, pues el número de términos crece rápidamen-
te y los cálculos son muy complicados. El método óptimo para resolverlo es a
través de la eliminación gaussiana, que alcanza una complejidad de 2/3n 3 ope-
raciones. Para ciertos determinantes no muy grandes, y con entradas números
enteros se puede usar el método de condensación pivotal de Chiò.
Sea A n×n = (ai j ) una matriz, donde a11 6= 0 (se puede hacer análogamente
para cualquier elemento no nulo de la matriz). Multiplicamos cada fila, excepto

110 Álgebra Lineal y Geometría


Depto. de Álgebra

Figura 3.4: F. Chiò (1813-1871)

la primera, por a11 . Entonces


 
a11 a12 ... a1n
n−1 
 a21 a11 a22 a11 . . . a2n a11 

a11 det(A) = det  .. .. .. .
 . . . 
an1 a11 an2 a11 . . . ann a11

Ahora restamos a la segunda fila la primera multiplicada por a21 , a la tercera


la primera multiplicada por a31 , hasta la n-ésima, que le restamos la primera
multiplicada por an1 . Nos queda
 
a11 a12 ... a1n
n−1

 0 a22 a11 − a21 a12 ... a2n a11 − a21 a1n 

a11 det(A) = det  .. .. .. 
 . . . 
0 an2 a11 − a12 an1 . . . ann a11 − a1n an1
 
a11 a12 a13 ... a1n
 ¯ ¯ ¯ ¯ ¯ ¯ 
¯ a11 a12 ¯ ¯ a11 a13 ¯ ¯ a11 a1n ¯
 0 ...
 ¯ ¯ ¯ ¯ ¯ ¯ 

 ¯ a21 a22 ¯ ¯ a21 a23 ¯ ¯ a21 a2n ¯ 
= det 
 .. .. .. .. 
 . . . .

 ¯ ¯ ¯ ¯ ¯ ¯ 
 ¯ a11 a12 ¯ ¯ a11 a13 ¯ ¯ a11 a1n ¯ 
0 ¯ ¯ ¯ ¯ ... ¯ ¯ 
¯ an1 an2 ¯ ¯ an1 an3 ¯ ¯ an1 ann ¯
= a11 det(B).

1
Entonces det(A) = n−2
a 11
det(B). Si el elemento fuera el (i 0 , j 0 ), hay que incluir un
factor (−1)i 0 +j 0 por el último desarrollo. Se suele buscar un elemento que sea

Álgebra Lineal y Geometría 111


Depto. de Álgebra

igual a 1, para simplificar las operaciones. Por ejemplo,


 ¯ ¯ ¯ ¯ ¯ ¯ 
¯ 1 2 ¯ ¯ 1 3 ¯ ¯ 1 4 ¯
  ¯ ¯ ¯ ¯ ¯ ¯
1 2 3 4  ¯ 8 7 ¯ ¯ 8 6 ¯ ¯ 8 5 ¯ 
 ¯ ¯ ¯ ¯ ¯ ¯ 
 8 7 6 5   ¯ 1 2 ¯¯ ¯¯ 1 3 ¯¯ ¯¯ 1 4 ¯¯ 
   ¯ 
det   = 1 · det  ¯ 
 1 8 2 7   1 8 ¯ ¯ 1 2 ¯ ¯ 1 7 ¯ 
 ¯ ¯ ¯ ¯ ¯ ¯ 
3 6 4 5  ¯¯ 1 2 ¯¯ ¯¯ 1 3 ¯¯ ¯¯ 1 4 ¯¯ 
¯ 3 6 ¯ ¯ 3 4 ¯ ¯ 3 5 ¯
   
−9 −18 −27 1 2 3
= det  6 −1 3  = (−9) · det  6 −1 3 
0 −5 −7 0 −5 −7
 ¯ ¯ ¯ ¯ 
¯ 1 2 ¯¯ ¯¯ 1 3 ¯¯
 ¯¯
 6 −1 ¯¯ ¯¯ 6 3 ¯¯ 

= (−9) · det  ¯¯ 
 ¯ 1 2 ¯¯ ¯¯ 1 3 ¯¯ 
¯ 0 −5 ¯ ¯ 0 −7 ¯
µ ¶
−13 −15
= (−9) · det = (−9)(91 − 75) = −144.
−5 −7

Este método consume más operaciones que la eliminación gaussiana. Sin em-
bargo, es uno de los que se utilizan dentro del contexto de eliminación gaussia-
na libre de fracciones, usada en cálculo simbólico o para matrices con entradas
en dominios no cuerpos.

La resolución de un sistema de ecuaciones mediante la regla de Cramer pre-


senta también desventajas con respecto a la eliminación gaussiana. Mediante
la eliminación, sabemos que un sistema de ecuaciones tiene un coste de reso-
lución del orden de 23 n 3 ; como hemos comentado antes, este es el orden del
cálculo de un determinante. La regla de Cramer supone el cálculo de n + 1 de-
terminantes: uno para el determinante de la matriz de coeficientes del sistema,
y n con los determinantes en los que se ha cambiado una columna. Por ello,
la regla de Cramer tiene un coste del orden de 23 n 4 , que es sensiblemente su-
perior. Además, la eliminación gaussiana permite la resolución simultánea de
varios sistemas con la misma matriz de coeficientes, pero diferentes términos
independientes. La regla de Cramer obliga a recalcular n determinantes.

112 Álgebra Lineal y Geometría


Capítulo 4

Espacios vectoriales

4.1. Estructuras algebraicas.


En temas anteriores hemos definido matrices y vectores, estudiando algu-
nas de sus propiedades. También hemos trabajado con cuerpos de escalares,
suponiendo que se trataba de Q, R o C, pero sin dar más detalles. Ahora vamos
a estudiar con rigor estos conceptos. Definiremos algunas de las principales
estructuras que se utilizan en álgebra, como son: grupos, anillos, cuerpos y es-
pacios vectoriales. A continuación nos centraremos en una de las estructuras
que se estudian en esta asignatura: los espacios vectoriales.
Las estructuras algebraicas son conjuntos donde hay definidas ciertas ope-
raciones, que satisfacen unas determinadas propiedades. Las operaciones pue-
den ser de varios tipos. Por ejemplo, una operación binaria interna, definida
en un conjunto X , es una función que a dos elementos de X (dados en orden),
le hace corresponder otro elemento de X . Es decir, una función

p : X ×X → X.

Por ejemplo, p podría ser la suma, la diferencia o la multiplicación de núme-


ros reales. Observemos que, en ocasiones (la diferencia de números reales, por
ejemplo) el orden en que se den los dos elementos implicados influye en el re-
sultado.
Cuando se trabaja con una operación interna, se suele utilizar un símbolo,
por ejemplo ∗, de manera que el resultado de aplicar la operación a dos ele-
mentos, a y b, se escribe a ∗ b. Un ejemplo típico es el símbolo + para la suma
de números. En ocasiones, ni siquiera se utiliza símbolo alguno, como en el
caso del producto de números, donde ab representa el producto de a y b.
La primera estructura algebraica que estudiaremos, una de las más básicas
y utilizadas, es la de grupo:

111
Depto. de Álgebra

Grupo

Sea G un conjunto no vacío, y sea ∗ una operación interna definida en


G. Se dice que (G, ∗) es un grupo si se cumplen las siguientes propieda-
des:

1. Asociativa: (a ∗ b) ∗ c = a ∗ (b ∗ c), para todo a, b, c ∈ G.

2. Elemento neutro: existe e ∈ G tal que a ∗ e = e ∗ a = a, para todo


a ∈ G.

3. Elemento opuesto: Para todo a ∈ G, existe a ′ ∈ G tal que a ∗ a ′ =


a ′ ∗ a = e.

En un grupo hay dos resultados sencillos de unicidad:

El elemento neutro es único. Si e, e ′ ∈ G verifican la condición de elemen-


to neutro, entonces e ∗ e ′ = e, por ser e elemento neutro, pero también
e ∗ e ′ = e ′ por la misma razón para e ′ . Por tanto, e = e ′ .

Para todo a ∈ G, el elemento opuesto es único. Si a ′ , a ′′ ∈ G verifican


la condición de elemento opuesto, entonces de la igualdad a ∗ a ′ = e,
deducimos que a ′′ ∗ (a ∗ a ′ ) = a ′′ ∗ e = a ′′ . Por la propiedad asociativa,
a ′′ ∗ (a ∗ a ′ ) = (a ′′ ∗ a) ∗ a ′ = e ∗ a ′ = a ′ , de donde a ′ = a ′′ .

Normalmente, la operación interna ∗ será la suma o el producto de elemen-


tos. En la notación aditiva, el elemento neutro se denota 0, y el elemento opues-
to a a se denota −a. En la notación multiplicativa, el elemento neutro se denota
1, y el elemento opuesto a a, que en este caso se llama el inverso de a, se suele
1
denotar a −1 , o bien .
a
Un grupo es abeliano o conmutativo si la operación es conmutativa, es de-
cir, si para todo a, b ∈ G se verifica a ∗ b = b ∗ a.

Ejemplo 4.1.1.- Algunos ejemplos de grupos son los siguientes:

(Z, +), (Q, +), (R, +) y (C, +) son grupos abelianos aditivos.

(Q\{0}, ·), (R\{0}, ·) y (C\{0}, ·), donde · se refiere al producto, son gru-
pos abelianos multiplicativos.

112 Álgebra Lineal y Geometría


Depto. de Álgebra

El conjunto de matrices m × n con entradas en un cuerpo K (ahora vere-


mos la definición de cuerpo), junto con la suma de matrices, es un grupo
abeliano aditivo.

El conjunto de matrices cuadradas n × n no singulares con entradas en


un cuerpo K, junto con la multiplicación de matrices, forma un grupo
que se llama grupo lineal de orden n sobre K, y se denota Gl(n, K). Este
grupo no es abeliano.

El conjunto de matrices cuadradas n × n con entradas en un cuerpo K,


y con determinante igual a 1, junto con la multiplicación de matrices,
forma un grupo que se llama grupo especial lineal de orden n sobre K, y
se denota SL(n, K). Tampoco es abeliano.

Los vectores de n coordenadas, con la suma de vectores, forman un grupo


abeliano.

En ocasiones, se define más de una operación interna sobre un conjunto.


Existen estructuras que dependen de dos o más operaciones. Por ejemplo, la
más sencilla es la estructura de anillo. Usaremos las notaciones tradicionales,
+ y ·, para las dos operaciones internas, pero debemos recordar que pueden ser
operaciones cualesquiera verificando las condiciones de la definición:

Anillo

Sea A un conjunto no vacío, y sean +, · dos operaciones internas, que


llamaremos suma y producto, definidas en A. Se dice que (A, +, ·) es un
anillo, si se cumplen las siguientes propiedades:

1. (A, +) es un grupo abeliano.

2. Propiedad asociativa del producto: (a ·b)·c = a ·(b ·c), para todo


a, b, c ∈ A.

3. Propiedad distributiva del producto respecto a la suma:



a · (b + c) = a · b + a · c, para todo a, b, c ∈ A,



(a + b) · c = a · c + b · c, para todo a, b, c ∈ A.

Álgebra Lineal y Geometría 113


Depto. de Álgebra

Si se verifica alguna propiedad más, tenemos tipos especiales de anillos:

Un anillo (A, +, ·), se dice que es unitario, o que tiene elemento unidad,
si existe u ∈ A tal que a · u = u · a = a para todo a ∈ A.

Un anillo (A, +, ·), se dice que es conmutativo si a · b = b · a, para todo


a, b ∈ A.

Ejemplo 4.1.2.- Algunos ejemplos de anillo son los siguientes:

(Z, +, ·), (Q, +, ·), (R, +, ·) y (C, +, ·) son anillos conmutativos.

Si Z[x] es el conjunto de los polinomios en la variable x, con coeficien-


tes en Z, y definimos naturalmente la suma (+) y el producto (·) de dos
polinomios, entonces (Z[x], +, ·) es un anillo conmutativo.

De igual modo, (Q[x], +, ·), (R[x], +, ·), y (C[x], +, ·) son anillos conmu-
tativos.

El conjunto de matrices n × n con entradas en un cuerpo K, con la suma


y el producto de matrices, es un anillo no conmutativo.

En resumen, si (A, +, ·) es un anillo, entonces (A, +) es un grupo, y (A, ·) es


casi un grupo: sólo le falta el elemento inverso, y puede que el elemento unidad.
Hay elementos, como el 0 en el caso de los números, que no pueden te-
ner inverso multiplicativo. Pero si cualquier otro elemento puede invertirse, es
decir, si (A\{0}, ·) fuera un grupo, y aún más, un grupo abeliano, entonces esta-
ríamos ante un cuerpo.

114 Álgebra Lineal y Geometría


Depto. de Álgebra

Cuerpo

Sea K un conjunto no vacío, y sean +, · dos operaciones internas, que


llamaremos suma y producto, definidas en K. Se dice que (K, +, ·) es un
cuerpo si se cumplen las siguientes propiedades:

1. (K, +) es un grupo abeliano.

2. (K\{0}, ·) es un grupo abeliano, donde 0 es el elemento neutro de


la suma.

3. Propiedad distributiva del producto respecto a la suma:

a · (b + c) = a · b + a · c, para todo a, b, c ∈ K.

Dicho de otra forma, un cuerpo es un anillo conmutativo, con elemento


unidad, donde todo elemento no nulo tiene inverso.
Observemos que la propiedad distributiva solamente tiene una condición.
Esto es porque el producto es conmutativo, luego la otra condición es conse-
cuencia de la primera.

Ejemplo 4.1.3.- Algunos ejemplos de cuerpo son los siguientes:

(Q, +, ·), (R, +, ·) y (C, +, ·) son cuerpos.

Los grupos de matrices invertibles, Gl(n, K), o de determinante 1, SL(n, K),


no son cuerpos, ya que el producto de matrices no es conmutativo.

Los cuerpos tienen multitud de propiedades, que no se estudiarán en esta


asignatura. Los usaremos para definir estructuras más complejas, que genera-
licen las propiedades de los vectores, que hemos visto en los temas anteriores.
Para ello debemos definir las operaciones externas. Consideremos un con-
junto X , y otro conjunto K que llamaremos conjunto de escalares. Llamaremos
operación binaria externa sobre X , a una función que tome un elemento de
K y un elemento de X , y dé como resultado un elemento de X . Es decir, una
función:
p : K× X → X.

Álgebra Lineal y Geometría 115


Depto. de Álgebra

Normalmente, a una operación externa de este tipo la denotaremos · y la llama-


remos multiplicación por escalar; y al resultado de aplicarla a un escalar α ∈ K y
a un elemento x ∈ X , lo denotaremos α · x, o simplemente αx, y lo llamaremos
producto de α por x.
Por tanto, si tenemos un conjunto X y otro conjunto de escalares K, pode-
mos tener operaciones internas en cada uno de esos conjuntos, y operaciones
externas entre ellos. Usando estas dos posibilidades, se definen los espacios vec-
toriales.

Ejemplo 4.1.4.- Consideremos el conjunto R4 [X ] de polinomios en R[X ] de


grado menor o igual que 4. La operación suma es interna, y dota de estructura
de grupo abeliano a este conjunto. Una operación binaria externa es el produc-
to por elementos de R. Sean p(X ) ∈ R4 [X ], y α ∈ R. Entonces si

p(X ) = a4 X 4 + a3 X 3 + a2 X 2 + a1 X + a0

definimos

α · p(X ) = (αa4 )X 4 + (αa3 )X 3 + (αa2 )X 2 + (αa1 )X + (αa0 ).

Sean entonces V y K conjuntos no vacíos, con + una operación interna so-


bre V , y · una operación externa sobre V con conjunto de escalares K, que lla-
maremos producto por escalar.

116 Álgebra Lineal y Geometría


Depto. de Álgebra

Espacio vectorial

Sea K un cuerpo. Diremos que V , con estas operaciones, es un espacio


vectorial si se cumplen las siguientes propiedades:

1. (V, +) es un grupo abeliano.

2. El producto por escalar verifica las siguientes propiedades, para


todo α, β ∈ K y para todo v , w ∈ V :

a) (α + β)v = αv + βv .
b) α(v + w ) = αv + αw .
c) α(βv ) = (αβ)v .
d) 1v = v , donde 1 es el elemento neutro de la multiplicación
de K.

A los elementos de un espacio vectorial los llamaremos vectores, y los escri-


biremos en negrita. En un espacio vectorial hay, por tanto, cuatro operaciones:
la suma y producto de escalares (operaciones en el cuerpo base), la suma de
vectores (operación interna en el espacio vectorial) y el producto de vectores
por escalares.

Ejemplo 4.1.5.- Algunos ejemplos de espacios vectoriales son los siguientes:

Los vectores columna y fila del producto cartesiano Kn que vimos ante-
riormente forman un espacio vectorial. El espacio vectorial de los vecto-
res de n coordenadas sobre un cuerpo K, se denota Kn . La suma se realiza
coordenada a coordenada, y el producto por escalar también. Ejemplos
de este tipo son R2 o R3 . Podemos tener
  

 x 1 


 x2  

1×n
¡ ¢ n×1
= { x1 x2 . . . xn , xi ∈ K} y K
 
K =  .  , xi ∈ K .

 ..  


 

xn

En el contexto de los espacios vectoriales, no hay diferencia si se trata un


elemento de Kn como fila o como columna. Cuando la distinción entre
un vector fila o un vector columna sea irrelevante, o el contexto sea claro,

Álgebra Lineal y Geometría 117


Depto. de Álgebra

usaremos la notación Kn para designar este espacio vectorial. En otros


casos, cuando hablemos de coordenadas respecto a una base, usaremos
la notación por columnas.

El conjunto M (m ×n, K) de las matrices m ×n con entradas en un cuerpo


K, con la suma de matrices y el producto por escalar, forman un espacio
vectorial. Observemos que el producto de matrices no se utiliza aquí. En
general, no tiene por qué existir una multiplicación de vectores en un
espacio vectorial.

El espacio vectorial trivial es el conjunto V = {0}, con respecto a un cuer-


po K arbitrario. Cualquier operación donde intervenga algún vector da
como resultado el único elemento: 0.

Los conjuntos de polinomios Q[x], R[x] y C[x] son espacios vectoriales


con cuerpo de escalares, respectivamente, Q, R y C.

Los conjuntos Q[x]≤n , R[x]≤n y C[x]≤n , formados por polinomios de gra-


do menor o igual a n, son espacios vectoriales con cuerpo de escalares,
respectivamente, Q, R y C.

El conjunto de soluciones de un sistema lineal homogéneo con coeficien-


tes en un cuerpo K es un espacio vectorial sobre K. Sea A m×n una matriz,
y llamemos V = {v ∈ Kn | A v = 0}. Vamos a probar que V es un espacio
vectorial. En primer lugar, veamos la estructura de grupo. Es claro que
0 ∈ V . Sean v , w ∈ V . Entonces −v es solución del sistema, y v + w es un
elemento de V , pues

A(v + w ) = A v + A w = 0.

Así, la operación suma es interna, y hereda las propiedades de grupo de


Kn . El producto por un escalar verifica que

A(αv ) = αA v = α0 = 0,

y también se verifican las propiedades de la definición de espacio vecto-


rial.

El cuerpo base es fundamental en la definición del espacio vectorial, por


lo que llamaremos habitualmente a V un K-espacio vectorial. Por ejem-
plo, veremos más adelante que no es lo mismo C2 como C-espacio vecto-
rial que como R-espacio vectorial.

118 Álgebra Lineal y Geometría


Depto. de Álgebra

Terminamos esta sección con algunas consecuencias sencillas de la defini-


ción de espacio vectorial.

Propiedades fundamentales de un espacio vectorial

Si V es un K-espacio vectorial, se tienen las siguientes propiedades, pa-


ra todo α, β ∈ K y todo v , w ∈ V :

1. α0 = 0, donde 0 es el elemento neutro de la suma en V .

2. 0v = 0, donde 0 es el elemento neutro de la suma en K.

3. Si αv = 0 entonces, o bien α = 0 o bien v = 0.

4. (−α)v = α(−v ) = −(αv ).

5. Si αv = βv y v 6= 0, entonces α = β.

6. Si αv = αw y α 6= 0, entonces v = w .

P RUEBA : Probemos en primer lugar la propiedad de cancelación en V como


grupo: si v + u = v + w , entonces u = w . En efecto, queda

(−v ) + v + u = (−v ) + v + w al sumar el opuesto de v ,


(−v + v ) + u = (−v + v ) + w por la propiedad asociativa,
0+u = 0+w por la definición de opuesto,
u=w por la definición de elemento neutro.

1. De la igualdad
α0 = α(0 + 0) = α0 + α0,

tenemos que α0 = 0 por la propiedad de cancelación.

2. Análogamente,

v = 1 · v = (1 + 0)v = 1 · v + 0v = v + 0v .

Por la propiedad de cancelación, 0v = 0.

Álgebra Lineal y Geometría 119


Depto. de Álgebra

3. Supongamos que αv = 0. Si α = 0, ya lo tenemos. Si α 6= 0, existe α−1 ∈ K


y
1)
α−1 (αv ) = α−1 0 = 0.

Como α−1 (αv ) = (α−1 α)v = 1v = v , tenemos el resultado.

4. Veamos en primer lugar que −(αv ) = (−α)v , es decir, el elemento opuesto


de αv es (−α)v . En efecto,

αv + (−α)v = (α + (−α))v ) = 0v = 0,

de donde tenemos esta parte. Para la segunda,

αv + α(−v ) = α(v + (−v )) = α0 = 0.

Los dos últimos apartados son consecuencias inmediatas de los anterio-


res.

4.2. Dependencia lineal


El concepto de combinación lineal ya nos ha aparecido cuando estudiamos
las operaciones elementales entre filas y columnas de una matriz. Ese caso, que
se corresponde con un conjunto Km , lo generalizamos a espacios vectoriales
arbitrarios.

Combinación lineal

Sea V un K-espacio vectorial. Dados r vectores v1 , . . . , vr ∈ V , llamamos


combinación lineal de estos vectores a cualquier expresión de la forma

α1 v1 + α2 v2 + · · · + αr vr ∈ V, donde α1 , . . . , αr ∈ K.

120 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 4.2.1.- En el Q-espacio vectorial V = Q[x], consideremos el conjunto


de vectores {1, 1 + x, 1 + x + x 2 }. Entonces

p(x) = 2 · 1 + (−2) · (1 + x) + 3 · (1 + x + x 2 ) = 3 + x + 3x 2

es una combinación lineal del conjunto dado.

Nota 4.2.1. Obsérvese que, por definición, las combinaciones lineales de vec-
tores son finitas. Es decir, podemos partir de un conjunto infinito de vectores,
pero en la suma solamente intervienen un número finito de elementos.

Dependencia lineal

Sea V un K-espacio vectorial. Diremos que un vector v depende lineal-


mente de un conjunto de vectores S ⊂ V si se puede escribir como com-
binación lineal de vectores de S.

Ejemplo 4.2.2.- En el ejemplo anterior, vemos que el polinomio 3 + x + 3x 2


depende linealmente del conjunto {1, 1 + x, 1 + x + x 2 }, pero no depende lineal-
mente del conjunto {1, 1 + x}.

Conjunto linealmente (in)dependiente

Sea V un K-espacio vectorial. Diremos que un conjunto no vacío de


vectores S ⊂ V es linealmente dependiente si existen vectores distintos
v1 , . . . vr ∈ S y escalares α1 , . . . , αr ∈ K, no todos nulos, tales que

α1 v1 + α2 v2 + · · · + αr vr = 0.

En caso contrario, decimos que S es linealmente independiente o li-


bre, es decir, si S = ; o S 6= ; y para cualquier conjunto finito de vec-
tores distintos v1 , . . . vr ∈ S, la única forma de escribir el vector 0 como
combinación lineal de {v1 , . . . , vr } es tomando todos los escalares nu-
los.

Álgebra Lineal y Geometría 121


Depto. de Álgebra

Si el conjunto S tiene un número finito de vectores v1 , . . . , vr , diremos de


forma extendida que los vectores v1 , . . . , vr son linealmente dependientes o in-
dependientes en lugar de hablar de la dependencia o independencia del con-
junto S.

Ejemplo 4.2.3.- Consideremos el conjunto S = {u1 , u2 , u3 , u4 } de vectores en


R3 dados por
       
4 −4 1 1
       
u1 = 
 3  , u2 =  −5  , u3 = 
    0 
 , u 4 =  0 .
 
−2 −2 −5 −2

Tratemos de determinar si S es un conjunto linealmente dependiente. Plantea-


mos si existen escalares no todos nulos αi , i = 1, 2, 3, 4 tales que

0 = α1 u1 + α2 u2 + α3 u3 + α4 u4 .
Se trata entonces de verificar si el sistema lineal homogéneo

 4α1 −4α2 +α3 +α4 = 0,
3α1 −5α2 = 0,

−2α1 −2α2 −5α3 −2α4 = 0,

tiene alguna solución no trivial. Observemos que la matriz de coeficientes del


sistema es  
4 −4 1 1
 
 3 −5 0 0 
 ,
−2 −2 −5 −2
cuyas columnas son los vectores de partida. El sistema lo resolvemos mediante
eliminación gaussiana:
   
4 −4 1 1 4 −4 1 1
  Gauss  
 3 −5 0 0  −−−−→  0 −8 −3 −3  = E .
 

−2 −2 −5 −2 0 0 24 0

El rango de la matriz de coeficientes es 3, que es menor que el número de in-


cógnitas. Por tanto, tiene solución no trivial. Al resolver el sistema deducimos
una combinación lineal de los vectores de S igual al vector 0:
5 3
· u1 + · u2 + 0 · u3 + (−1)u4 = 0.
8 8

122 Álgebra Lineal y Geometría


Depto. de Álgebra

A partir de los pivotes de la matriz E , deducimos que el conjunto S ′ = {u1 , u2 , u3 }


es linealmente independiente, pues forman las columnas básicas de la matriz
de coeficientes. No puede haber dependencia lineal entre estos vectores, pues
entonces la tendríamos entre
     
1 0 0
e1 =  0  , e2 =  1  , e3 =  0  ,
0 0 1
y es fácil ver que estos vectores forman un conjunto linealmente independien-
te.

Si el espacio vectorial es Kn , podemos usar los cálculo matriciales de los


temas anteriores para saber si un conjunto de vectores S = {v1 , . . . , vr } ⊂ Kn es
linealmente dependiente o independiente.

Dependencia e independencia lineal en Kn

¡ ¢
Sea A S = v1 · · · vr .

Gauss
Calculamos A S −−−−→ E .

Si alguna columna de E no tiene pivote, la columna correspon-


diente de A S es combinación lineal de las anteriores, y el conjun-
to S es linealmente dependiente.

Si todas las columnas de E tienen pivote, entonces S es lineal-


mente independiente.

En resumen,

S es linealmente independiente si y solamente si rango(A S ) = r .

Ejemplo 4.2.4.- El conjunto S = {u1 , u2 , u3 } de R3 dado por


     
1 −1 2
     
 1  , u2 =  0  , u3 =  −1  ,
u1 =      

2 1 2

Álgebra Lineal y Geometría 123


Depto. de Álgebra

es linealmente independiente, pues


   
1 −1 2 1 −1 2
  Gauss  
 1
AS =  0  −−−−→  0
−1  1 .
−3 

2 1 2 0 0 7

Sin embargo, el conjunto T = {u1 , u2 , v3 }, con


 
5
 
 2 
v3 =  

verifica que
   
1 −1 5 1 −1 5
  Gauss  
 1
AT =  0 2 
 −−−−→  0 1 ,
−3 

2 1 1 0 0 0

por lo que T es un conjunto linealmente dependiente.

Relaciones entre dependencia y combinación lineal

1. Un conjunto de vectores S es linealmente dependiente si y sola-


mente si existe un vector v ∈ S que depende linealmente de S − v .

2. Si un vector u depende linealmente del conjunto S y cada vector


de S depende linealmente del conjunto T , entonces u depende
linealmente de T .

3. Sea S ⊂ V un conjunto linealmente independiente. Si v es un vec-


tor que no depende linealmente de los vectores de S, entonces
S ∪ {v } es un conjunto linealmente independiente.

P RUEBA :

124 Álgebra Lineal y Geometría


Depto. de Álgebra

1. Supongamos que el conjunto S es linealmente dependiente. Entonces


existen vectores v1 , . . . , vr ∈ S y escalares α1 , . . . , αr ∈ K, no todos nulos,
tales que
α1 v1 + α2 v2 + · · · + αr vr = 0.
Sabemos que existe al menos un αi 6= 0 por lo que podemos despejar

αi vi = −α1 v1 − · · · − αi −1 vi −1 − αi +1 vi +1 · · · − αr vr ,

y al ser αi 6= 0, obtenemos
α1 αi −1 αi +1 αr
vi = − v1 − · · · − vi −1 − vi +1 · · · − vr ,
αi αi αi αi

que es una expresión de vi como combinación lineal de los demás; por


tanto vi depende linealmente de los demás.
Supongamos ahora que existe un vector v que depende linealmente de
S − v . Esto quiere decir que existe una combinación lineal

v = β1 v1 + · · · + βr vr , vk ∈ S − {v }.

De esta igualdad se obtiene

β1 v1 + · · · + βr vr − v = 0,

que es una expresión del vector 0 como combinación lineal de los vecto-
res v1 , . . . , vr , v donde no todos los coeficientes son nulos (el coeficiente
de v es −1). Por tanto, el conjunto {v1 , . . . , vr , v } es linealmente depen-
diente y S también lo es.

2. Por hipótesis, podemos escribir

u = α1 v1 + · · · + αp vp , vi ∈ S y además
vi = βi ,1 wi 1 + · · · + βi ,qi wi qi , para i = 1, . . . , p, wi j ∈ T.

Consideremos el conjunto de todos los vectores wi j que aparecen en las


expresiones anteriores. Los etiquetamos como w1 , . . . , wq , con índice que
no depende de i , y podemos escribir entonces que, para cada i ,
q
X
vi = β′i j w j ,
j =1

con la asignación de escalares nulos en las expresiones correspondientes.

Álgebra Lineal y Geometría 125


Depto. de Álgebra

Ahora sustituimos cada vi por la combinación lineal anterior.


p
X p X
X q
u= αi vi = β′i j w j
i =1 i =1 j =1
à !
q
X p
X q
X
= αi β′i j w j = γj wj ,
j =1 i =1 j =1
| {z }
γj

lo que implica que u depende linealmente de {w1 , . . . , wq } y, por tanto, de


T.

3. Supongamos que S ∪ {v } es linealmente dependiente. Esto quiere decir


que existe una combinación lineal no trivial de los vectores de S∪{v } igual
a cero, es decir, se puede escribir
α1 u1 + · · · αr ur + βv = 0, ui ∈ S, i = 1, . . . , r,
donde no todos los coeficientes αi , β son nulos. Si se tiene que β = 0, la
expresión anterior sería una combinación lineal de los vectores de S igual
a 0, donde no todos los coeficientes serían nulos, lo cual no es posible
porque S es un conjunto linealmente independiente. Por tanto, β 6= 0 y
podemos entonces despejar v en la expresión anterior, obteniendo
α1 αr
v = − u1 − · · · − ur .
β β
Así, v depende linealmente de S.


4.3. Conjunto generador y base


En esta sección veremos cómo el concepto de dependencia lineal sirve pa-
ra expresar los elementos de un espacio vectorial utilizando sólo un conjunto
(posiblemente finito) de vectores.

Conjunto o sistema generador

Sea V un K-espacio vectorial. Diremos que un conjunto de vectores S


es un conjunto o sistema generador de V si todo vector de V puede
escribirse como combinación lineal de los vectores de S. En este caso
diremos que V está generado por S, o por los vectores de S.

126 Álgebra Lineal y Geometría


Depto. de Álgebra

Si el espacio V tiene un sistema generador con un número finito de elemen-


tos decimos que es finitamente generado.

Ejemplo 4.3.1.- En el R-espacio vectorial R[x], el conjunto S = {1, x, x 2 , . . .} es


un conjunto generador de V .

Ejemplo 4.3.2.- El conjunto S = {u1 , u2 , u3 , u4 }, con


       
1 −1 2 −1
u1 =  1  , u2 =  0  , u3 =  −1  , u4 =  3  ,
2 1 2 5

es un sistema generador de R3 . Se trata de expresar un vector arbitrario de R3


como combinación lineal de los elementos de S , esto es, de resolver el sistema
de ecuaciones  
α1
 α2  = x1 u1 + x2 u2 + x3 u3 + x4 u4 .
α3
La matriz de coeficientes del sistema es
 
1 −1 2 −1
 
 1 0 −1 3  ,
 
2 1 2 5

con forma escalonada por filas igual a


 
1 −1 2 −1
 
 0
E = 1 −3 4 .
0 0 7 −5

El rango es entonces igual a tres, por lo que el sistema siempre tendrá solución,
independientemente de los valores de α1 , α2 , α3 .

Álgebra Lineal y Geometría 127


Depto. de Álgebra

Conjunto generador en Kn

¡ ¢
Sea A S = v1 · · · vr .

Gauss
Calculamos A S −−−−→ E .

Si E tiene n pivotes, entonces S es un sistema generador. En caso


contrario, no lo es.

En resumen,

S es sistema generador de Kn si y solamente si rango(A S ) = n.

Un espacio vectorial puede tener muchos sistemas de generadores diferen-


tes. Incluso puede haber sistemas de generadores donde algún vector no sea
necesario. En el ejemplo anterior, los tres primeros vectores forman un sistema
generador de R3 . Esto nos va a llevar al concepto de base.

Base

Sea V un K-espacio vectorial. Una base de V es un conjunto S de vec-


tores de V linealmente independiente y generador.

En otras palabras, una base es un sistema de generadores de un espacio vec-


torial en el que no sobra ningún vector, ya que, al ser linealmente independien-
te, ninguno de ellos puede escribirse como combinación lineal de los demás.

Ejemplo 4.3.3.- En Kn tenemos siempre la base estándar S = {e1 , . . . , en }, don-


de el vector ei es la n-upla que tiene un 1 en la posición i y cero en las restantes.
S es un conjunto linealmente independiente, pues si consideramos una com-
binación lineal
α1 e1 + · · · + αn en = 0,

128 Álgebra Lineal y Geometría


Depto. de Álgebra

entonces, al identificar componentes de cada lado, nos queda que α1 = 0, . . . , αn =


0. Además, es un conjunto generador, pues dado v ∈ Kn de componentes v i ,
podemos escribir, de manera inmediata, que v = v 1 e1 + · · · + v n en .

Ejemplo 4.3.4.- El conjunto {1, x, x 2 , . . .} es una base del espacio vectorial R[x].
Observemos que tiene un número infinito de elementos. Además, R[x] no pue-
de ser finitamente generado: supongamos que existe un conjunto finito de po-
linomios g 1 (x), g 2 (x), . . . , g r (x) que sean linealmente independientes y genera-
dores. Existe una potencia k de x que es la mayor que aparece en estos poli-
nomios. Entonces el polinomio x k+1 no se puede expresar como combinación
lineal de g 1 (x), . . . , g r (x).

Ejemplo 4.3.5.- El conjunto S = {u1 , u2 , u3 , u4 }, con


       
1 −1 2 −1
u1 =  1  , u2 =  0  , u3 =  −1  , u4 =  3  ,
2 1 2 5

es un sistema generador de R3 , pero no es una base, pues el vector u4 se puede


expresar como combinación lineal de los restantes. En concreto,

16 13 5
u4 = u1 + u2 − u3 .
7 7 7
¡ ¢
Sin embargo, el conjunto B = {u1 , u2 , u3 } es base, pues la matriz A B = u1 u2 u3
tiene una forma escalonada con tres pivotes, es decir, su rango es tres. Esto sig-
nifica que es un sistema generador y los vectores son independientes.

Álgebra Lineal y Geometría 129


Depto. de Álgebra

Nota 4.3.1. Las bases infinitas no tienen nada que ver con las combinaciones
lineales infinitas. En el ejemplo de R[x], no estamos considerando expresiones
de la forma

X
ci x i ,
i =0
que es una serie formal.
Ahora veamos que un espacio vectorial finitamente generado, que no sea
trivial, siempre tiene una base. Además veremos cómo se construye, a partir de
un sistema de generadores.

Existencia de base

Sea V 6= {0} un espacio vectorial finitamente generado. Dado cualquier


conjunto finito de generadores G ⊂ V , existe una base B de V formada
por vectores de G.

P RUEBA : Consideremos el conjunto de generadores G = {v1 , . . . , vp }. Si es


libre, entonces es una base, y hemos acabado. Si no, hay un elemento vi ∈ G
que depende linealmente de los demás. Entonces todo vector u ∈ V depende
linealmente de G y todo vector de G depende linealmente de T1 = G\{vi }, por lo
que T1 es un conjunto generador de V . Si es libre, T1 es una base. Si no, existirá
otro vector v j que depende linealmente de los demás vectores de T1 , y también
lo podremos eliminar.
Continuamos este proceso mientras el conjunto de generadores sea lineal-
mente dependiente. Pero como mucho podremos eliminar p − 1 vectores ya
que, como V 6= {0}, al menos debe haber un vector en cualquier conjunto de
generadores. Por tanto, en algún momento debemos tener algún Ti que sea li-
bre, y obtendremos una base contenida en G. 

Extracción de una base en Kn

Sea G = {v1 , . . . , vp } un sistema de generadores del espacio vectorial Kn .


¡ ¢
Formamos la matriz AG = v1 · · · vp .

Gauss
Calculamos AG −−−−→ E .

Las columnas básicas de AG , que se corresponden con las colum-


nas con pivotes de E , forman una base de Kn .

130 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 4.3.6.- En R3 consideremos el sistema


          

 1 −1 5 0 
 2
          
G = v1 =  1  , v2 =  0  , v3 =  2  , v4 =  1  , v5 =  −1  . .
         

 

 
2 1 1 1 2

Mediante la forma escalonada por filas, obtenemos


 
1 −1 5 0 2
¡ ¢ Gauss  
 0
v1 v2 v3 v4 v5 −−−−→  1 −3 1 .
−3 
0 0 0 −2 7

Luego G es un sistema generador de R3 y B = {v1 , v2 , v4 } es una base.

4.4. Dimensión
En esta sección definiremos un concepto esencial del álgebra lineal: la di-
mensión de un espacio vectorial. Necesitamos primero el siguiente resultado:

Relación entre conjuntos independientes y generadores

Sea V un K-espacio vectorial. Si G = {u1 , . . . , um } es un conjunto gene-


rador de V y S = {v1 , . . . , vn } un conjunto linealmente independiente,
entonces n ≤ m.

P RUEBA : Supongamos que n > m. Como G es un conjunto generador, po-


demos escribir cada vi como combinación lineal de los elementos de G:

vi = a1i u1 + · · · + ami um , a j i ∈ K.

Por otra parte, como S es linealmente independiente, la ecuación

x1 v1 + · · · + xn vn = 0

Álgebra Lineal y Geometría 131


Depto. de Álgebra

solamente admite la solución trivial, x1 = · · · = xn = 0. Ahora bien, sustituyendo


cada vi , obtenemos la ecuación equivalente:

x1 (a11 u1 + · · · + am1 um ) + · · · + xn (a1n u1 + · · · + amn um ) = 0,

donde, tras agrupar en cada ui , se tiene:

(a11 x1 + · · · + a1n xn )u1 + · · · + (am1 x1 + · · · + amn xn )um = 0.

Una posible solución para esta ecuación se obtendría si cada coeficiente fuera
cero, es decir, si



 a11 x1 + a12 x2 + · · · + a1n xn = 0

 a21 x1 + a22 x2 + · · · + a2n xn = 0
.. .. .. ..


 . . . .

am1 x1 + am2 x2 + · · · + amn xn = 0.

Este sistema homogéneo tiene, como máximo, rango m, ya que tiene m filas.
Ahora bien, si n > m, el Teorema de Rouché-Frobenius nos dice que es un sis-
tema compatible indeterminado, es decir, existe una solución para x1 , . . . , xn
donde no todos son cero. Esto contradice que S sea un sistema libre. 

Lo anterior nos permite identificar un invariante en un espacio vectorial


finitamente generado.

Teorema de la base

Sea V un K-espacio vectorial finitamente generado. Entonces todas las


bases de V tienen el mismo número de elementos.

P RUEBA : Como V es finitamente generado, existe una base del espacio.


Sean B1 y B2 dos bases de V , de m y n vectores respectivamente. Como B1
es un conjunto generador y B2 es libre, entonces n ≤ m por la relación entre
conjuntos independientes y generadores (pág. 131). Pero como B2 es un con-
junto generador y B1 es libre, se tiene m ≤ n. Por tanto, m = n. 

132 Álgebra Lineal y Geometría


Depto. de Álgebra

Dimensión de un espacio vectorial

La dimensión de un K-espacio vectorial V que denotamos dim(V ), se


define como sigue:

Si V = {0}, entonces dim(V ) = 0.

Si V es finitamente generado, su dimensión es el número de ele-


mentos de cualquier base de V .

Si V no es finitamente generado, diremos que tiene dimensión


infinita, y escribiremos dimV = ∞.

Ejemplo 4.4.1.-

El K-espacio vectorial Kn tiene dimensión n, pues la base estándar tiene


n elementos.

El conjunto de polinomios, K[x], es un K-espacio vectorial de dimensión


infinita y una base es {x i | i = 0, 1, 2, . . .}. Si V es un espacio vectorial que
no es de generación finita, no hemos probado la existencia de una base.
Esto requiere otros métodos que hacen uso del axioma de elección.

El conjunto de matrices M (m ×n, K) es un K-espacio vectorial de dimen-


sión m · n. Una base está formada por las matrices E i j , que tienen ceros
en todas sus posiciones, salvo en el valor 1 en la posición (i , j ).

El cuerpo C es un R-espacio vectorial de dimensión 2.

El cuerpo R es un Q-espacio vectorial de dimensión infinita.

La dimensión de un espacio vectorial nos impone restricciones sobre el ta-


maño que pueden tener los conjuntos libres o generadores.

Álgebra Lineal y Geometría 133


Depto. de Álgebra

Acotación de conjuntos generadores e independientes

Sea V un K-espacio vectorial de dimensión finita y S = {v1 , . . . , vm } ⊂ V .

1. Si S es un conjunto generador, entonces m ≥ dimV .

2. Si S es linealmente independiente, entonces m ≤ dimV .

3. Si S es un conjunto generador y m = dimV , entonces S es base


de V .

4. Si S es linealmente independiente, y m = dimV , entonces S es


base de V .

P RUEBA : Sea n = dim(V ). Los dos primeros apartados los conocemos ya. Su-
pongamos entonces que S es un conjunto generador con m = dim(V ). Por el
teorema de existencia de base (pág. 130), podemos extraer una base de S. Como
el número de elementos de S es igual a la dimensión, no es posible conseguir
una base de menor número de elementos, por lo que S es ya una base.
Supongamos ahora que S es un conjunto linealmente independiente, con
m = dim(V ). Si v ∈ V no se puede expresar como combinación lineal de S, en-
tonces S ∪ {v } es linealmente independiente (relación entre combinación y de-
pendencia lineal, pág. 124), lo que implica que m + 1 ≤ dimV , que es una con-
tradicción. 

Base en Kn

¡ ¢
Sea B = {v1 , . . . , vn } y A B = v1 · · · vn .

Gauss
Calculamos A B −−−−→ E .

Si E tiene tiene n pivotes, entonces B es una base. En caso con-


trario, no lo es.

En resumen,

B es base de Kn si y solamente si rango(A B ) = n.

Al igual que de un conjunto generador podemos extraer una base, un con-


junto linealmente independiente se puede ampliar a una base.

134 Álgebra Lineal y Geometría


Depto. de Álgebra

Ampliación a una base

Sea V un K-espacio vectorial de dimensión finita n y S = {v1 , . . . , vm }


un conjunto linealmente independiente, con m < n. Entonces existen
n −m vectores vm+1 , . . . , vn ∈ V tales que el conjunto {v1 , . . . , vn } es base
de V . Además, los vectores vm+1 , . . . , vn pueden tomarse de cualquier
base de V .

P RUEBA : Sea S como en el enunciado, y consideremos B = {u1 , . . . , un } una


base cualquiera de V . Si cada elemento de B dependiera linealmente de los
elementos de S, entonces S sería un conjunto generador y, por tanto, base. Co-
mo m < n, existe un vector de B, supongamos que es u1 , que no depende li-
nealmente de S. Entonces el conjunto S ∪ {u1 } es linealmente independiente.
Si m + 1 < n, entonces S ∪ {u1 } no es base. Por tanto, debe existir otro vector
en B (que no puede ser u1 ), que no dependa linealmente de S ∪ {u1 }. Digamos
que es u2 , de donde S ∪ {u1 , u2 } es linealmente independiente. Continuamos
este proceso hasta obtener S ∪ {u1 , . . . , un−m }, conjunto linealmente indepen-
diente de n vectores, es decir, base de V . 

Ampliación a una base de Kn

Sea S = {v1 , . . . , vm } un conjunto linealmente independiente de Kn , con


m ≤ n, y {e1 , . . . , en } la base estándar de Kn .

Formamos la matriz
¡ ¢
A= v1 · · · vm e1 · · · en .

Calculamos una forma escalonada por filas de A, que tiene n pi-


votes.

Las columnas básicas de A constituyen una ampliación de S.

El método anterior es válido, porque los m primeros pivotes están en las m pri-
meras columnas, pues S es un sistema libre, y el resto entre las siguientes co-
lumnas. Por tanto, las columnas básicas de la matriz A contienen a los vectores
de partida v1 , . . . , vm y todas forman una base de Kn que completa a S.

Álgebra Lineal y Geometría 135


Depto. de Álgebra

Ejemplo 4.4.2.- En el espacio vectorial R4 consideramos el sistema libre


    

 1 2 


    
 −1   −1 
S = v1 =  ,v =   .

  2  2  2  
 
 1 1 

Completaremos S con vectores de la base estándar hasta obtener una base de


R4 :    
1 2 1 0 0 0 1 2 1 0 0 0
0 1 0 0 0 1 1 1 0 0
   
 −1 −1   
   .
 2 2 0 0 1 0   0 0 0 2 1 0 
1 1 0 0 0 1 0 0 0 0 −1/2 1

Luego una base de R4 que completa a S es {v1 , v2 , e2 , e3 }

En el método anterior hemos seleccionado la base estándar de Kn , pero


es posible realizar el mismo procedimiento con cualquier base que tengamos
inicialmente.

4.5. Espacio producto


El producto cartesiano de espacios vectoriales sobre un mismo cuerpo K es
un conjunto que admite la estructura de espacio vectorial. Además, en el caso
de dimensión finita, podemos calcular una base de este nuevo espacio.

Espacio producto

Dados dos espacios vectoriales V1 y V2 sobre un mismo cuerpo K, el


producto cartesiano

V1 × V2 = {(v1 , v2 ) | v1 ∈ V1 , v2 ∈ V2 },

tiene estructura de K-espacio vectorial con las operaciones

Suma: (u1 , u2 ) + (v1 , v2 ) = (u1 + v1 , u2 + v2 ).

Producto por escalar: α(v1 , v2 ) = (αv1 , αv2 ).

136 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Es una sencilla verificación de las propiedades que definen un K-


espacio vectorial. 

Dimensión del espacio producto

Dados dos K-espacios vectoriales V1 y V2 de dimensión finita, el espa-


cio producto V1 ×V2 es un espacio vectorial de dimensión dim(V1 ×V2 ) =
dim(V1 ) + dim(V2 ).

P RUEBA : Tomemos una base B1 = {u1 , . . . , um } de V1 y una base B 2 = {v1 , . . . , vn }


de V2 . Se prueba de forma directa que el conjunto de vectores

B = ((u1 , 0), . . . , (um , 0), (0, v1 ), . . . , (0, vn ))

es base de V1 × V2 . Por tanto, dim(V1 × V2 ) = m + n = dim(V1 ) + dim(V2 ). 

4.6. Coordenadas
La principal ventaja de la existencia de bases, en los espacios vectoriales
de dimensión finita, es que vamos a poder estudiarlos, sea cual sea el espacio
vectorial, como si fuera Kn . Esto lo vamos a conseguir mediante el uso de coor-
denadas.
Primero necesitamos hacer una precisión. Hasta ahora, cuando hablába-
mos de un conjunto de vectores, o de una base, no nos importaba el orden en
que estuvieran los vectores. Pero para definir las coordenadas de un vector, es
necesario fijar un orden. Por tanto, a partir de ahora, cuando escribamos una
base en la forma B = {u1 , . . . , un } entendemos que hay una ordenación, lo que
nos permite hablar del i -ésimo vector de una base.

Unicidad de la expresión

Sea V un K-espacio vectorial finitamente generado y sea B un conjun-


to de vectores de V . Entonces B es una base si y solamente si todo vec-
tor de V se puede expresar de una única manera como combinación
lineal de los vectores de B.

Álgebra Lineal y Geometría 137


Depto. de Álgebra

P RUEBA : Supongamos que B = {u1 , . . . , un } es una base de V . Dado un vec-


tor v ∈ V , como B es conjunto de generadores, podremos escribir v = α1 u1 +
· · · + αn un . Si existiera otra forma de expresar v , digamos v = β1 u1 + · · · + βn un ,
entonces tendríamos

0 = v − v = (α1 − β1 )u1 + · · · (αn − βn )un .

Pero como B es un conjunto linealmente independiente, los coeficientes de la


expresión anterior deben ser todos nulos. Es decir, αi − βi = 0, o lo que es lo
mismo, αi = βi para todo i = 1, . . . , n. Por tanto, la forma de expresar v como
combinación lineal de los elementos de B es única.
Recíprocamente, sea B = {u1 , . . . , un } un conjunto de vectores tal que todo
vector v ∈ V se puede expresar de forma única como combinación lineal de
los vectores de B. Por un lado, B es sistema de generadores, puesto que todo
vector de V se puede expresar como combinación lineal de B. Por otra parte,
consideremos el vector 0 ∈ V . Sabemos que siempre se tiene la combinación
lineal obvia:
0 = 0 · u1 + · · · + 0 · un .

Por la propiedad que le suponemos a B, esta es la única forma de escribir 0


como combinación lineal de los vectores de B. Por tanto, B es un conjunto
linealmente independiente y es una base. 

Coordenadas

Sea V un K-espacio vectorial de dimensión n. Dada una base B =


{u1 , . . . , un }, para todo vector v ∈ V , existe una única combinación li-
neal
v = α1 u1 + · · · + αn un .
Los escalares α1 , . . . , αn definen, por tanto, al vector v , y los llamaremos
coordenadas de v respecto a B. Escribiremos:
 
α1
vB =  ...  .
 

αn

138 Álgebra Lineal y Geometría


Depto. de Álgebra

Cuando la base B esté clara por el contexto, escribiremos simplemente


 
α1
v =  ...  .
 

αn

Por tanto, no importa cómo sea V como espacio vectorial; si fijamos una
base, vamos a poder representar los elementos de V como elementos del co-
nocido espacio vectorial Kn . Hay que hacer notar unas cuestiones sencillas,
pero muy importantes.
Un vector v ∈ Kn viene dado por una n-upla de números, que coincide
con las coordenadas de v con respecto a la base estándar S de Kn . Esto
es, si    
α1 α1
v =  ...  , entonces vS =  ...  .
   

vn vn
Dada una base B = {u1 , . . . , un } de un espacio vectorial V , se tiene que
   
1 0
 0   .. 
[u1 ]B =  .  , . . . , [un ]B =  .  ,
   
.
 .   0 
0 1
pues ui = 0 · u1 + · · · + 1 · ui + · · · + 0 · un .
El problema que se plantea ahora es cómo calcular las coordenadas de un
vector con respecto a una base dada. Para ello, tenemos que resolver un sistema
de ecuaciones.

Cálculo de las coordenadas

Sea B = {u1 , . . . , un } una base de Kn , y v un vector, definido por una


n-upla.
¡ ¢
Formamos la matriz A = u1 . . . un v .

G-J ¡ ¢
Calculamos A −→ E = I n w la forma escalonada reducida
por filas de la matriz A.

La última columna de E contiene las coordenadas de v respecto


de la base B.

Álgebra Lineal y Geometría 139


Depto. de Álgebra

Ejemplo 4.6.1.- En R4, consideremos el vector v , y la base B = {(u1 , u2 , u3 , u4 )},


dados por
         
1 1 1 1 0
 2   1   1   0   1 
         
v =   , u1 =   , u2 =   , u3 =   , u4 =   .
 3  1  0  1  1 
4 0 1 1 1

Entonces
   
1 1 1 0 1 1 0 0 0 −2/3
1 1 0 1 2  G-J  0 1 0 0 1/3 
¡ ¢    

A= u1 u2 u3 u4 v =   −→  .
 1 0 1 1 3   0 0 1 0 4/3 
0 1 1 1 4 0 0 0 1 7/3

Luego
− 23
 
 1

 
 3 
vB =  4
.
 
 3 
7
3

Coordenadas y operaciones con vectores

Sea V un K-espacio vectorial de dimensión n y B una base de V . Sea

c B : V → Kn

la aplicación que a cada elemento de V le hace corresponder el vector


de sus coordenadas: cB (v ) = vB . Entonces cB es una aplicación biyec-
tiva que verifica

1. cB (u + v ) = cB (u) + cB (v ),

2. cB (αu) = αcB (u),

para todo α ∈ K y u, v ∈ V .

140 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : La aplicación es biyectiva por el teorema 4.6. Si B = {u1 , . . . , un } y


   
a1 b1

 a2 


 b2 

vB =  ..  , wB =  .. ,
 .   . 
an bn

entonces

v = a 1 u1 + a 2 u2 + · · · + a n un , w = b 1 u1 + b 2 u2 + · · · + b n un ,

de donde

v + w = (a1 + b1 )u1 + (a2 + b2 )u2 + · · · + (an + bn )un ,


αv = (αa1 )u1 + (αa2 )u2 + · · · + (αan )un .

Por tanto,    
a1 + b1 αa1

 a2 + b2 


 αa2 

[v + w ]B =  ..  , [αu]B =  .. .
 .   . 
an + bn αan


Esta aplicación cB recibe el nombre de morfismo de coordenadas respecto


de la base B. La encontraremos más adelante como un caso especialmente
importante de aplicación entre espacios vectoriales.
Nota 4.6.1. La aplicación cB tiene gran importancia para el cálculo efectivo en
espacios vectoriales de dimensión finita. Sea S = {v1 , . . . , vr } un subconjunto
finito de vectores de V y B una base cualquiera de V , con dimV = n. Entonces
es fácil comprobar los siguientes resultados:

S es un conjunto linealmente independiente si y solamente si el conjunto


{[v1 ]B , . . . , [vn ]B } es linealmente independiente en Kn .

S es un conjunto generador si y solamente si {[v1 ]B , . . . , [vn ]B } es un con-


junto generador en Kn .

S es una base de V si y solamente si {[v1 ]B , . . . , [vn ]B } es una base de Kn .

Observemos también que la ampliación de un conjunto linealmente inde-


pendiente a una base de V se puede hacer a través de Kn . En resumen, todos
los procedimientos que hemos visto en Kn pueden ser aplicados a espacios
vectoriales de dimensión finita una vez fijada una base.

Álgebra Lineal y Geometría 141


Depto. de Álgebra

4.7. Cambio de base

Observemos que las coordenadas de un vector de V dependen de la base B


que hayamos elegido. Si tuviéramos otra base B ′ , las coordenadas del mismo
vector serían diferentes. Vamos a ver entonces cómo están relacionados estos
dos tipos de coordenadas.

Supongamos que tenemos un espacio vectorial V de dimensión n, y consi-


deremos dos bases de V dadas por B = {u1 , . . . , un } y B ′ = {u′1 , . . . , u′n }. Como B
es base, podremos escribir cada vector de B ′ respecto a B, es decir, tendremos:

 
a11
 a21 
u′1 = a11 u1 + a21 u2 + · · · + an1 un , [u′1 ]B = 
 
.. ,
 . 
an1
 
a12
 a22 
u′2 = a12 u1 + a22 u2 + · · · + an2 un , [u′2 ]B = 
 
.. ,
 . 
an2
..
.
 
a1n
 a2n 
u′n [u′n ]B
 
= a1n u1 + a2n u2 + · · · + ann un , = .. .
 . 
ann

Definimos la matriz de cambio de base de B ′ a B como

¡ ¢
M(B ′ , B) = (ai j ) = [u′1 ]B [u′2 ]B . . . [u′1 ]B ,

es decir, la columna i de M(B ′ , B) contiene las coordenadas del vector u′i de


B ′ respecto de la base B. Con esta notación, se tiene lo siguiente:

142 Álgebra Lineal y Geometría


Depto. de Álgebra

Ecuaciones del cambio de base

Si las coordenadas de v ∈ V respecto a B y B ′ son, respectivamente


   
x1 x1′
vB =  ...  y vB ′ =  .. 
  
. ,
xn xn′

entonces se tiene la relación

x1 = a11 x1′ + a12 x2′ + · · · + a1n xn′ ,


x2 = a21 x1′ + a22 x2′ + · · · + a2n xn′ ,
..
.
xn = an1 x1′ + an2 x2′ + · · · + ann xn′ ,

que en forma matricial es vB = M(B ′ , B)vB ′ .

P RUEBA : En las igualdades

v = x1 u1 + · · · + xn un , v = x1′ u′1 + · · · + xn′ u′n ,

sustituimos cada u′i por a1i u1 + a2i u2 + · · · + ani un y agrupamos coeficientes,


obtendremos:

v = (a11 x1′ + · · · + a1n xn′ )u1 + · · · + (an1 x1′ + · · · + ann xn′ )u1 .

Como la forma de expresar v como combinación lineal de B es única, los co-


eficientes de esta última combinación lineal han de ser iguales a x1 , . . . , xn , lo
que demuestra el resultado. 

Como es natural, se podían haber invertido los papeles y tendríamos una


matriz de cambio de base M(B, B ′ ), cuyas columnas están formadas por las
coordenadas de los vectores de B respecto a la base B ′ . El siguiente resultado
establece la conexión entre estas dos matrices de cambio de base.

Inversa de la matriz de cambio de base

Dadas dos bases B y B ′ de un espacio vectorial de dimensión n, la ma-


triz de cambio de base M(B ′, B) es invertible, y su inversa es M(B, B ′).

Álgebra Lineal y Geometría 143


Depto. de Álgebra

P RUEBA : Consideremos la matriz M(B, B ′ ). Para cualquier vector v ∈ V , se


verifica que
vB = M(B ′ , B)vB ′ , vB ′ = M(B, B ′ )vB ,
de donde

vB = M(B ′ , B)M(B, B ′ )vB para todo vector v ∈ V.

Si v recorre todos los vectores de la base B, obtenemos las relaciones en Kn


dadas por

e1 = M(B ′ , B)M(B, B ′ )e1 ,


e2 = M(B ′ , B)M(B, B ′ )e2 ,
..
.
en = M(B ′ , B)M(B, B ′ )en .

Por tanto, I n = M(B ′ , B)M(B, B ′ ) y tenemos el resultado. 

Cálculo de la matriz de cambio de base en Kn

Consideremos dos bases B y B ′ del espacio vectorial Kn , respecto de la


base estándar, y sean A B y A B ′ las matrices de coordenadas respectivas
de ambas bases.

Calculamos
¡ ¢la forma escalonada reducida por filas de la matriz
AB AB′ .
¡ ¢ G-J ¡ ¢
A B A B ′ −→ I n P .

Entonces la matriz de cambio de base de B ′ a B es M(B ′ , B) = P .

Ejemplo 4.7.1.- En R3 consideramos las bases B = {u1 , u2 , u3 } y B ′ = {v1 , v2 , v3 },


donde
           
1 1 0 1 1 1
u1 = 1 , u2 = 0 , u3 = 1 , v1 = −1 , v2 = 0 , v3 = 0  .
          
0 1 1 0 −1 0

144 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces
   
1 1 0 1 1 1 1 0 0 0 1 1/2
¡ ¢ G-J
AB AB′ =  1 0 1 −1 0 0  −→  0 1 0 1 0 1/2  .
0 1 1 0 −1 0 0 0 1 −1 −1 −1/2

Luego la matriz del cambio de base es


 
0 1 1/2
M(B ′ , B) =  1 0 1/2  .
−1 −1 −1/2

Usando este tipo de matrices, podremos ver la similitud existente entre los
conceptos definidos para espacios vectoriales y los definidos para matrices.

Álgebra Lineal y Geometría 145


Depto. de Álgebra

146 Álgebra Lineal y Geometría


Capítulo 5

Subespacios vectoriales

5.1. Definiciones
Una vez que tenemos la estructura de K-espacio vectorial sobre un con-
junto V , el siguiente paso es estudiar los subconjuntos de V que tienen esas
mismas propiedades. Es análogo a lo que hacemos con grupos y subgrupos. En
esta capítulo veremos cómo estos subconjuntos, que llamaremos variedades li-
neales vectoriales o subespacios vectoriales, también son espacios vectoriales, y
estudiaremos sus propiedades. La definición precisa es la siguiente:

Subespacio vectorial

Sea V un espacio vectorial sobre un cuerpo K, y sea W un subconjunto


de V . Diremos que W es un subespacio vectorial o una variedad lineal
de V si, con las mismas operaciones de suma y producto por escalar, W
es un espacio vectorial sobre K.

Ejemplo 5.1.1.-

1. El subconjunto {0} es un subespacio de cualquier espacio vectorial V .

2. Dada A m×n con coeficientes en un cuerpo K, el conjunto de soluciones


del sistema homogéneo A x = 0 es un subespacio vectorial de Kn . Se de-
nota como null(A).

149
Depto. de Álgebra

3. El conjunto de polinomios de K[x] de grado menor o igual que n es un


subespacio vectorial de K[x].

Observemos que los elementos de W , al ser elementos de V , satisfacen to-


das las propiedades de un espacio vectorial. Pero hay un detalle importante:
tanto la suma de vectores de W , como el producto por escalares, deben dar co-
mo resultado vectores de W . Si no, no estaríamos ante operaciones en W y W
no sería espacio vectorial. Por tanto, lo único que hay que verificar para saber
si W ⊂ V es subespacio vectorial es lo siguiente.

Condición equivalente de subespacio

Dado un K-espacio vectorial V , un subconjunto no vacío W ⊂ V es un


subespacio vectorial de V si y solamente si se cumplen las siguientes
propiedades:

1. Para todo v , w ∈ W , se tiene que v + w ∈ W .

2. Para todo α ∈ K y v ∈ W , se tiene que αv ∈ W .

El ejemplo principal de espacio vectorial que vamos a utilizar es Rn . Re-


cordemos que, si tenemos un sólo vector v ∈ R3 , los vectores que se pueden
escribir como combinación lineal de v forman una recta: la que pasa por el ori-
gen y tiene la dirección de v . Por otra parte, si tenemos dos vectores v , w ∈ R3 ,
los vectores que se pueden escribir como combinación lineal de v y w forman
un plano: el que pasa por el origen y contiene a la recta definida por v y a la
recta definida por w . Al estudiar sistemas de vectores, lo que de verdad nos in-
teresa es esa recta o ese plano, es decir, el conjunto de todos los vectores que se
pueden escribir como combinación lineal de los vectores del sistema:

Subespacio generado por un conjunto

Sea V un K-espacio vectorial y sea S un subconjunto de V . El conjunto


de combinaciones lineales de los vectores de S, que notaremos 〈S〉, se
denomina subespacio generado por S y tiene la forma

〈S〉 = {λ1 v1 + · · · + λm vm , | λ1 , . . . λm ∈ K, v1 , . . . , vm ∈ S}.

150 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 5.1.2.- Dada una matriz A m×n con coeficientes en un cuerpo K, el


subespacio de Km generado por las columnas de A se denota como Col(A).

El nombre anterior necesita una justificación. Vamos a ver que 〈S〉 es un


subespacio vectorial. Sean v , w ∈ 〈S〉. Entonces estos vectores tienen una ex-
presión de la forma

m
X p
X
v= λi vi , w = µ j w j , donde λi , µ j ∈ K, vi , w j ∈ S.
i =1 j =1

La suma se puede escribir

v + w = λ1 v1 + · · · + λm vm + µ1 w1 + · · · + µk wk ,

que es una combinación lineal finita de elementos de S, es decir, pertenece a


〈S〉. Análogamente,
αv = (αλ1 )v1 + · · · + (αλm )vm ,
que también es una combinación lineal finita de elementos de S.
Nota 5.1.1. A partir de esta definición, tenemos que v depende linealmente de
un conjunto S si y solamente si v ∈ 〈S〉.

Propiedades de los conjuntos generadores

Sean S y T subconjuntos de V . Entonces:

1. S ⊂ 〈S〉.

2. S = 〈S〉 si y solamente si S es un subespacio vectorial.

3. Si S ⊂ T entonces 〈S〉 ⊂ 〈T 〉.

4. 〈S ∩ T 〉 ⊂ 〈S〉 ∩ 〈T 〉.

5. 〈S〉 ∪ 〈T 〉 ⊂ 〈S ∪ T 〉.

P RUEBA :

Álgebra Lineal y Geometría 151


Depto. de Álgebra

1. Trivial.

2. Evidente a partir de las definiciones, ya que 〈S〉 es un subespacio vecto-


rial.

3. Si v ∈ 〈S〉, entonces es combinación lineal de los vectores de S. Pero como


S ⊂ T , v es combinación lineal de los vectores de T , es decir, v ∈ 〈T 〉.

4. Si un vector es combinación lineal de los vectores de S ∩ T , entonces es


combinación lineal de los vectores de S, y también es combinación lineal
de los vectores de T , es decir, pertenece a 〈S〉 ∩ 〈T 〉.

5. Como S ⊂ S ∪T , se tiene 〈S〉 ⊂ 〈S ∪T 〉. Del mismo modo 〈T 〉 ⊂ 〈S ∪T 〉. Por


tanto, 〈S〉 ∪ 〈T 〉 ⊂ 〈S ∪ T 〉.

Carácter minimal del subespacio generado

Dado un conjunto de vectores S de un espacio vectorial V , el subespa-


cio vectorial 〈S〉 es el menor subespacio que contiene a S. Es decir, si W
es un subespacio vectorial que contiene a S, entonces 〈S〉 ⊆ W .

P RUEBA : Si un subespacio vectorial W contiene a S, es decir, si S ⊂ W , en-


tonces 〈S〉 ⊂ 〈W 〉 = W . 

5.2. Dimensión de subespacios

Dimensión de subespacios

Sea V un K-espacio vectorial de dimensión finita y W ⊂ V un subespa-


cio vectorial. Entonces

1. W es de dimensión finita y dimW ≤ dimV .

2. Además, dimW = dimV si y solamente si W = V .

P RUEBA : Sea n = dimV .

152 Álgebra Lineal y Geometría


Depto. de Álgebra

1. Si W = {0}, el resultado es evidente. Si W es no nulo, existe v 6= 0 ∈ W y


{v } es un conjunto linealmente independiente. Si W fuera de dimensión
no finita, por la relación entre dependencia y combinación lineal, podría-
mos construir un conjunto linealmente independiente de n + 1 vectores,
que sigue siendo libre en el espacio total V . Esto no es posible, por lo que
W es de dimensión finita. En consecuencia, tiene una base de dimW ele-
mentos, que es un conjunto linealmente independiente en V . Por tanto,
dimW ≤ dimV .

2. Si dimW = dimV , entonces una base de W es un conjunto linealmente


independiente de V , con igual número de elementos que la dimensión,
por lo que es un conjunto generador de V . Por tanto, W = V .

Cálculo de dimensión de un subespacio

En un K-espacio vectorial V de dimensión finita, sea B una base de V ,


S un conjunto finito de vectores de V , y A S,B la matriz cuyas columnas
son las coordenadas de los vectores de S respecto a B. Entonces

dim〈S〉 = rango(A S,B )

y una base del subespacio 〈S〉 está determinada por las columnas bási-
cas de A S,B .

P RUEBA : Sea S = {w1 , . . . , wp }. Si rango(A S,B ) = r , sean [wi 1 ]B , . . . , [wi r ]B las


columnas básicas de la matriz. Sabemos que estas columnas básicas forman un
conjunto linealmente independiente en Kn . Entonces el conjunto {wi 1 , . . . , wi r }
es linealmente independiente en V , pues si

α1 wi 1 + · · · + αr wi r = 0V ,

por el morfismo de coordenadas cB se tiene que

α1 [wi 1 ]B + · · · + αr [wi r ]B = 0Kn ,

de donde todos los escalares αi son nulos. Por otro lado, las columnas no bási-
cas de la matriz son combinación lineal de las básicas. Entonces, dado w ∈ 〈S〉,
podemos escribir
w = β1 w1 + · · · + βp wp ,

Álgebra Lineal y Geometría 153


Depto. de Álgebra

luego
[w ]B = β1 [w1 ]B + · · · + βp [wp ]B .
Si sustituimos las expresiones de las columnas no básicas en función de las
columnas [wi 1 ]B , . . . , [wi r ]B , tenemos, por la biyectividad de cB , que w se ex-
presa como combinación lineal de wi 1 , . . . , wi r . En consecuencia, el conjunto
{wi 1 , . . . , wi r } es una base de 〈S〉 y tenemos la igualdad buscada. 

Dimensión de Col(A)

Sea A m×n una matriz con coeficientes en K. Entonces dim Col(A) =


rango(A) y una base de Col(A) está formada por las columnas básicas.

P RUEBA : Sea V = Km y S su base estándar. Si S es el conjunto de columnas de


A, entonces Col(A) = 〈S〉. Además, la matriz de coordenadas de los vectores de
S respecto a S es la propia matriz A. Por el teorema de cálculo de la dimensión
de un subespacio (pág. 153), tenemos que
dim Col(A) = dim〈S〉 = rango(A).
Además, una base de Col(A) está formada por las columnas básicas de A. 

Nota 5.2.1. Observemos que el rango de la matriz A S,B no depende de la base


B, ya que es igual al rango del conjunto de vectores S, que está definido sin
tener que recurrir a ninguna base. Entonces, si B y B ′ son dos bases distintas,
cuya matriz de cambio de base es M(B, B ′ ), entonces se tiene
A S,B = M(B ′ , B)A S,B ′
y
rango(A S,B ′ ) = dim(〈S〉) = rango(A S,B ),
de donde rango(M(B ′ , B)A S,B ′ ) = rango(A S,B ′ ). En términos matriciales, se ve-
rifica que rango(A m×n ) = rango(P A m×n ) para cualquier matriz P no singular.

Ejemplo 5.2.1.- Sea S = {1−x, 1+x 2 , 1−2x−x 2 } ⊂ V = R[x]3 , el espacio vectorial


de polinomios reales de grado menor o igual que 3. Fijamos la base estándar
B = {1, x, x 2 } en V y formamos la matriz
 
1 1 1
A S,B =  −1 0 −2  .
0 1 1

154 Álgebra Lineal y Geometría


Depto. de Álgebra

Dado que
 
1 0 2
G-J 
→ 0 1 −1  ,
A S,B −
0 0 0

tenemos que una base del subespacio 〈S〉 está formada por {1 − x, 1 + x 2 } y
dim〈S〉 = rango(A S,B ) = 2.

Damos ahora un resultado de álgebra matricial que relaciona el rango de


una matriz con el de su traspuesta. Este teorema admite una prueba basada
exclusivamente en matrices (corolario del teorema de la forma normal del ran-
go, pág. 73).

Rango por columnas igual a rango por filas

Sea A m×n una matriz con coeficientes en K. Entonces rango(A) =


rango(A t ).

P RUEBA : Supongamos que Col(A) tiene una base formada por u1 , . . . , ur ∈ Km .


Entonces cada columna de A es una combinación lineal de los vectores ui , por
lo que podemos escribir
 
w 11 . . . w 1n
. . . ur  ... .. 
¡ ¢
A= u1 .  = U W.
wr 1 . . . wr n

Ahora miramos de forma distinta a A = U W . Cada fila de A es combinación


lineal de las r filas de W , esto es, las columnas de A t son combinación lineal de
las r columnas de W t . Por tanto, el espacio de columnas de A t tiene dimensión,
a lo más, r . Por tanto, rango(A t ) ≤ rango(A) para cualquier matriz A.
Si aplicamos esta desigualdad a A t , tenemos el resultado. 

Nota 5.2.2. En el caso K = C, se tiene que rango(A) = rango(A ∗ ), pues si A indica


la matriz conjugada de A, entonces rango(A) = rango(A), pues los pivotes no
cambian al conjugar los elementos.

Álgebra Lineal y Geometría 155


Depto. de Álgebra

Invariancia del rango por matrices no singulares

Sea A m×n una matriz con coeficientes en K. Si P m×m ,Q n×n son matrices
no singulares, entonces

rango(A) = rango(P AQ).

P RUEBA : Sean P,Q matrices no singulares. Entonces


rango(P AQ) = rango(P (AQ)) = rango(AQ) por la nota 5,2,1
t
= rango((AQ) )
= rango(Q t A t ) = rango(A t ) por la nota 5,2,1
= rango(A).


5.3. Ecuaciones paramétricas de un subespacio


Hasta ahora solamente hemos visto una forma de determinar un subespa-
cio vectorial: mediante un sistema de generadores. Esta forma es equivalente a
dar unas ecuaciones paramétricas.
Sea W un subespacio vectorial de un espacio vectorial V de dimensión n,
y sea G = {v1 , . . . , vp } un sistema de generadores de W . Supongamos que las
coordenadas de vi respecto a una base B de V son
 
a1i
 . 
[vi ]B =  ..  , i = 1, . . . , p.
ani
Entonces, como todo vector v ∈ W se escribe como combinación lineal de G,
existirán unos escalares λ1 , . . . , λp tales que
v = λ1 v1 + · · · + λp vp ,
por lo que si llamamos [v ]B = (x1 , . . . , xn )t se tienen las relaciones


 x1 = a11 λ1 + ··· + a1p λp

 x2 = a21 λ1 + ··· + a2p λp
. .. .. (5.3.1)
 ..

 . .

xn = an1 λ1 + ··· + anp λp

156 Álgebra Lineal y Geometría


Depto. de Álgebra

Unas ecuaciones de este tipo, donde los escalares λi son parámetros indeter-
minados, se llaman unas ecuaciones paramétricas de W . En otras palabras,
unas ecuaciones paramétricas nos dicen cómo son las coordenadas de un vec-
tor cualquiera de W , dependiendo de los coeficientes que tomemos en la com-
binación lineal de los generadores. Si cambiamos los generadores, obtenemos
otras ecuaciones paramétricas.
Recíprocamente, unas ecuaciones del tipo (5.3.1) definen un subespacio
vectorial generado por los vectores de coordenadas respecto de la base B que
aparecen como coeficientes de los parámetros λi .

Ejemplo 5.3.1.- En R3 y con respecto a una base B fijada, consideremos el


subespacio vectorial W de ecuaciones paramétricas

 x1 = 2λ1 − 3λ2
x = λ1 + 5λ2
 2
x3 = λ1 − λ2
En este caso se trata del subespacio generado por los vectores con coordenadas
(2, 1, 1)t y (−3, 5, −1)t .

Las ecuaciones paramétricas, en el fondo, equivalen a definir un subespa-


cio vectorial dando un sistema de generadores. Veamos ahora cómo, a partir
de unas ecuaciones paramétricas de un subespacio vectorial, podemos calcu-
lar la dimensión de la variedad. La idea es sencilla, pues sabemos que a partir
de unas ecuaciones paramétricas podemos calcular un conjunto generador y,
dados unos generadores, podemos obtener la dimensión mediante el cálculo
del rango de una matriz. Formalicemos este razonamiento.
Sea V un espacio vectorial de dimensión n, con base fijada B, donde tene-
mos unas ecuaciones paramétricas

 x1 = a11 λ1 + · · · + a1p λp


 x2 = a21 λ1 + · · · + a2p λp
.. ..


 . .

xn = an1 λ1 + · · · + anp λp
de un subespacio vectorial W . Construimos la matriz
 
a11 a12 · · · a1p
 a21 a22 · · · a2p 
 
AW =  . .. ..  ,
 .. . . 
an1 an2 · · · anp

Álgebra Lineal y Geometría 157


Depto. de Álgebra

que es la matriz de coordenadas de unos vectores generadores de W respecto


de la base B. Entonces
dimW = rango(A W ).

como ya sabemos del teorema de cálculo de la dimensión de un subespacio


(pág. 153).

5.4. Ecuaciones implícitas de un subespacio


Fijemos una base B en un espacio vectorial V de dimensión n, con respecto
a la cual tomamos coordenadas. Sabemos que el conjunto de soluciones de un
sistema lineal homogéneo de la forma


 a11 x1 + a12 x2 + · · · + a1n xn = 0

 a21 x1 + a22 x2 + · · · + a2n xn = 0
.. .. .. ..


 . . . .

am1 x1 + am2 x2 + · · · + amn xn = 0.

es un subespacio vectorial. Un sistema de ecuaciones implícitas de un subes-


pacio vectorial W es un sistema lineal homogéneo cuyas soluciones son las
coordenadas de los vectores de W respecto de la base fijada. El objetivo es cal-
cular unas ecuaciones paramétricas de un subespacio vectorial a partir de unas
implícitas.
Recordemos que el conjunto de soluciones del sistema anterior lo podemos
calcular mediante una forma escalonada de la matriz de coeficientes A, despe-
jando las variables básicas en función de las libres, para obtener al final una
expresión
x = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,
donde x f 1 , x f 2 , . . . , x f n−r son las variables libres, y h1 , h2 , . . . , hn−r son vectores
columna que representan soluciones particulares. También sabemos que el vec-
tor h1 tiene un 1 en la posición f 1 , y los restantes vectores h j tienen un cero en
esa posición. Lo mismo se aplica a todos los vectores hi : tienen un valor 1 en
la posición f i y los restantes vectores h j tienen un cero en esa posición. Hay
que tener en cuenta que todas estas igualdades se refieren a las coordenadas
de los vectores respecto de la base B, pero no lo estamos incorporando en la
notación por claridad. Podemos deducir entonces los siguiente:

El conjunto {h1 , . . . , hn−r } es un conjunto generador de W . Es claro, pues


la expresión anterior nos indica que toda solución del sistema es combi-
nación lineal de estos vectores.

158 Álgebra Lineal y Geometría


Depto. de Álgebra

El conjunto {h1 , . . . , hn−r } es linealmente independiente. En efecto, una


combinación lineal de la forma

α1 h1 + α2 h2 + · · · + αn−r hn−r = 0

proporciona un conjunto de igualdades, y nos fijamos en las correspon-


dientes a las componentes f 1 , f 2 , . . . , f n−r . Para la componente f 1 se tiene
la igualdad
α1 · 1 + α2 · 0 + · · · + αn−r · 0 = 0,
pues h1 tiene una componente igual a 1 en esa posición, y los restantes
vectores hi tienen el valor cero. Análogamente, en la componente f 2 ob-
tenemos
α1 · 0 + α2 · 1 + · · · + αn−r · 0 = 0,
por la misma razón. Finalmente, estas igualdades implican que α1 = α2 =
. . . = αn−r = 0.

Por tanto, el conjunto {h1 , . . . , hn−r } es una base de W , de donde dimW =


n−rango(A). Además, hemos dado un procedimiento para pasar de ecuaciones
implícitas a paramétricas. En particular, tenemos que

Dimensión del espacio nulo

Sea A m×n una matriz con coeficientes en K. Entonces

dimnull(A) = n − rango(A).

Ejemplo 5.4.1.- En R4 , y con respecto a la base estándar, consideremos el


subespacio vectorial definido por el sistema de ecuaciones
½
x2 − x3 − x4 = 0,
W:
x2 + x4 = 0.

Si calculamos la forma escalonada reducida por filas de la matriz de coeficien-


tes nos queda µ ¶ µ ¶
0 1 −1 −1 rref 0 1 0 1
A= −
→ .
0 1 0 1 0 0 1 2

Álgebra Lineal y Geometría 159


Depto. de Álgebra

Entonces el rango de la matriz de coeficientes es iguala 2, de donde dimW =


4−2 = 2. Una base de este espacio lo obtenemos al despejar las variables básicas
(x2 , x3 ) en función de las libres (x1 , x4 ) en las ecuaciones paramétricas

 x1 = x1 ,

−x4 ,

x2 =
W:
x = −2x4 ,
 3


x4 = x4 .

Por tanto,    
1 0
0
   
   −1 
W = 〈h 1 =   , h2 =  〉.
 0   −2 
0 1

5.5. Conversión entre paramétricas e implícitas


Al final de la sección anterior hemos visto un método para transformar un
subespacio vectorial dado por unas ecuaciones implícitas en una base de dicho
subespacio. Podemos resumirlo en el siguiente método.

Paso de implícitas a paramétricas

Sea V un K-espacio vectorial donde se ha fijado una base B. Dado un


subespacio vectorial W definido por un sistema de ecuaciones homo-
géneo A x = 0,

1. Calculamos una forma escalonada (o reducida) por filas de A:

rref
→ E A.
A−

2. Despejamos las variables básicas en función de las libres.

3. Calculamos los vectores hi a partir de los coeficientes de las va-


riables libres.

160 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 5.5.1.- Consideremos en R4 el subespacio W dado por las soluciones


del siguiente sistema lineal homogéneo:

 2x1 +3x2 −2x3 −x4 = 0,
x1 +4x2 −x4 = 0,

2x1 −7x2 −6x3 +x4 = 0.

Tomamos la matriz A de coeficientes del sistema, y calculamos su forma esca-


lonada reducida por filas:
 
1 0 −8/5 −1/5
G-J  
A −→  0 1 2/5 .
−1/5 
0 0 0 0

Despejamos las variables pivote en función de las libres:


½ 8
x1 = x + 15 x4 ,
5 3
x2 = − 5 x3 + 15 x4 .
2

Cambiamos las variables libres por parámetros:



8 1
x1 = 5 λ1 + 5 λ2 ,



= − 25 λ1 + 15 λ2 ,

x2

 x3 = λ1 ,

 x
4 = λ2 .

Una base de W está formada por los vectores


   
8 1
5 5
− 25 1
   

w1 = 
 
 , w2 =  5 
.
 1   0 
0 1

Observemos que para este cálculo hemos partido de un conjunto de ecuacio-


nes que eran dependientes, pues la tercera ecuación se obtiene tras sumar la
primera multiplicada por 3 y la segunda por (−4).

Álgebra Lineal y Geometría 161


Depto. de Álgebra

El problema que nos planteamos ahora es si todo subespacio vectorial ad-


mite unas ecuaciones implícitas. La respuesta es afirmativa y la prueba se ob-
tiene a partir del método para pasar de ecuaciones paramétricas, es decir, a
partir de un conjunto de generadores, a implícitas.
Vamos a explicar dos métodos diferentes para obtenerlas. Uno se basa en el
método del orlado y el segundo utiliza transformaciones elementales por filas.
Partimos de un espacio vectorial V donde se ha fijado una base B y W es un
subespacio vectorial dado por un conjunto finito de generadores S.

De paramétricas a implícitas: orlado

1. Sea A S,B la matriz cuyas columnas son las coordenadas de los


elementos de S respecto de la base B.

2. Mediante el método del orlado, se identifican el máximo número


posible de columnas independientes, con lo que se obtiene una
base B1 del subespacio W . Digamos que B1 tiene r elementos,
es decir, dim(W ) = r .

3. Se considera la matriz A B1 ,B ∈ M (n × r, K), cuyas columnas son


una base de W , y la matriz M que resulta al añadir a esta matriz
una columna de incógnitas con las variables x1 , . . . , xn :
 
x1
 .. 
M =  A B1 ,B . .
xn

4. Con el método del orlado aplicado a un menor no nulo de orden


r , se calculan n − r determinantes que deben ser iguales a cero y
definen unas ecuaciones implícitas de W .

La justificación del método anterior se basa en que un vector de coordena-


das  
x1
 .. 
 .  pertenece a W
xn
si y solamente si es combinación lineal de las columnas de A B1 ,B , esto es, si y
solamente si la matriz M tiene rango r .

162 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 5.5.2.- En el espacio vectorial R4 , respecto de la base estándar B, sea


W el subespacio vectorial generado por el conjunto
     
1 2 1
1 0
     
     −1 
S = {v1 =   , v2 =   , v3 =  }.
 2   1   −1 
−1 1 2

Aplicando el método del orlado averiguamos que rango(S) = 2 y que, de hecho,


el tercer vector es combinación lineal de los otros dos. Entonces
 
1 2 1
 
 1 0 −1 
A S,B = 
 .

 2 1 −1 
−1 1 2

Luego B1 = {v1 , v2 } es una base de W . La condición a imponer es que un vector


de coordenadas (x1 , x2 , x3 , x4 )t está en W si y solamente si
 ¯ ¯
 ¯ 1 2 x1 ¯
  
 ¯ ¯

 ¯ 1 0 x2 ¯ = 0 ≡ x1 + 3x2 − 2x3 = 0
1 2 x1 


¯
¯ 2 1 x
¯
¯
   3
1 0

 x2 
rango 

=2⇔
 .
 2 1 x3  


¯
¯ 1 2 x1 ¯
¯

−1 1  ¯ ¯
x4 

 ¯ 1 0 x2 ¯ = 0 ≡ x1 − 3x2 − 2x4 = 0

 ¯ ¯
¯ −1 1 x ¯
4

Luego unas ecuaciones implícitas de W son:


½
x1 + 3x2 − 2x3 = 0
W: .
x1 − 3x2 − 2x4 = 0

El método de eliminación
¡ es muy
¢ similar en cuanto al comienzo, aunque se
parte de la matriz M = A S,B x .

Álgebra Lineal y Geometría 163


Depto. de Álgebra

De paramétricas a implícitas: transformaciones elementales

Suponemos fijada una base B del espacio vectorial V , y sea W el subes-


pacio vectorial generado por un conjunto S.

1. Se considera la matriz A S,B , cuyas columnas son las coordenadas


de los elementos de S respecto de la base B. Sea M la matriz que
resulta al añadir a esta matriz una columna de variables x1 , . . . , xn .
 
x1
 .. 
M =  A S,B . .
xn

2. Calculamos E una forma escalonada de la matriz A S,B , efectuan-


do las mismas transformaciones en la última columna de M.

3. Imponemos las condiciones sobre la última columna de E para


que no contenga ningún pivote.

La justificación del método se basa en la misma idea que el método anterior:


un vector  
x1
 .. 
 .  pertenece a W
xn
si y solamente si es combinación lineal de las columnas de A S,B . Es decir, si y
solamente si en cualquier forma escalonada por filas de la matriz M la última
columna no contiene un pivote. Una forma escalonada por filas de M es de la
forma (E |c), donde E es una forma escalonada por filas de A S,B . Supongamos
que rango(A S,B ) = r , es decir que E tiene r pivotes; entonces la forma escalo-
nada por filas de M debe ser del tipo
 
eq1
 .. 
 . 
 

 E eqr 
,

 a11 x1 + · · · a1n xn 

 .. 
 . 
an−r,1 x1 + · · · an−r,n xn

donde eq1 , . . . , eqr son expresiones lineales en x1 , . . . , xn . El que la última no ten-

164 Álgebra Lineal y Geometría


Depto. de Álgebra

ga pivote es equivalente a que se verifiquen las ecuaciones



 a11 x1 + · · · a1n xn = 0

..
. ,


an−r,1 x1 + · · · an−r,n xn = 0

que son unas ecuaciones implícitas de W .

Ejemplo 5.5.3.- En el espacio vectorial R4 , respecto de la base estándar S , sea


W el subespacio vectorial generado por el conjunto
     
1 2 1
 1   0 
     
 −1 
S = {v1 =   , v2 =   , v3 =  }.
 2   1   −1 
−1 1 2

Mediante transformaciones elementales por filas obtenemos


   
1 2 1 x1 1 2 1 x1
1 0 0
   
 −1 x 2   −2 −2 −x 1 + x2 
   .
 2 1 −1 x3   0 0 0 −(1/2)x1 − (3/2)x2 + x3 
−1 1 2 x4 0 0 0 −(1/2)x1 + (3/2)x2 + x4

Luego unas ecuaciones implícitas de W son


½
−(1/2)x1 − (3/2)x2 + x3 = 0
W: .
−(1/2)x1 + (3/2)x2 + x4 = 0

Como consecuencia de los procedimientos anteriores podemos concluir


con el siguiente resultado:

Existencia de ecuaciones paramétricas e implícitas

Sea V un K-espacio vectorial de dimensión finita y B una base. Todo


subespacio vectorial W se puede representar, respecto a B, como unas
ecuaciones paramétricas y unas ecuaciones implícitas.

Álgebra Lineal y Geometría 165


Depto. de Álgebra

Nota 5.5.1. Cuando un subespacio vectorial W está definido por unas ecuacio-
nes implícitas A p×n x = 0, puede ocurrir que la matriz A no sea de rango p, es
decir, que alguna ecuación dependa linealmente de las otras. Los métodos an-
teriores de paso de paramétricas a implícitas proporcionan lo que se denomina
un conjunto independiente de ecuaciones.

Es recomendable hacer una pequeña variación en el método de cálculo de


unas ecuaciones implícitas a partir de las paramétricas, con vistas a aprovechar
la capacidad de cálculo de algunos programas que no tratan variables dentro de
una matriz. Lo que necesitamos es la matriz no singular P tal que P A = E , con
E una forma escalonada. Entonces sabemos que

¡ ¢ ¡ ¢
A Im E P ,

con lo que obtenemos P . Si rango(A) = r , entonces la condición sobre la ausen-


cia de pivotes en la última columna se traduce en que las últimas n − r compo-
nentes de P x sean nulas. Veamos lo que ocurre en el ejemplo anterior.
Formamos la matriz

 
1 2 1 1 0 0 0
 
¡ ¢  0 −2 −2 −1 1 0 0 
 
w1 w2 w3 I 4  .
 0 0 0 −1/2 −3/2 1 0 
 
0 0 0 −1/2 3/2 0 1

Dado que el rango de la matriz de vectores inicial es igual a 2, consideremos las


últimas 4 − 2 = 2 componentes de P x:

 
x1
  ½

 −x1 + x2 
 −(1/2)x1 − (3/2)x2 + x3 = 0
Px =  ⇒W : .
 −1/2x1 − 3/2x2 + x3  −(1/2)x1 + (3/2)x2 + x4 = 0
 
−1/2x1 + 3/2x2 + x4

166 Álgebra Lineal y Geometría


Depto. de Álgebra

De paramétricas a implícitas: transformaciones elementales (2)

Suponemos fijada una base B del espacio vectorial V , y sea W el subes-


pacio vectorial generado por un conjunto S.

1. Se considera la matriz A S,B , de orden m × n, cuyas columnas son


las coordenadas de los elementos de S respecto de la base B.

2. Calculamos E una forma escalonada de la matriz A S,B , y una ma-


triz no singular P tal que P A = E .
¡ ¢ Gauss ¡ ¢
A In −−−→ E P .

3. Si rango(A) = r , esto es, las primeras r filas de E son no nulas, las


ecuaciones implícitas de W son las (n − r ) últimas componentes
de P x.

5.6. Operaciones con subespacios


5.6.1. Intersección y suma de subespacios
Ya hemos visto cómo se puede determinar un subespacio vectorial usando
ecuaciones paramétricas o implícitas y cómo calcular su dimensión. Continua-
remos con las operaciones básicas entre subespacios vectoriales, que permiten
formar nuevos subespacios a partir de unos dados. Dados dos subespacios W1 y
W2 tiene sentido considerar la intersección como conjuntos. Veamos que tiene
una estructura adicional.

Intersección de subespacios vectoriales

Si W1 y W2 son dos subespacios vectoriales de un espacio vectorial V ,


entonces W1 ∩ W2 es un subespacio vectorial.

P RUEBA : Sean v1 , v2 ∈ W1 ∩ W2. Como pertenecen a W1 , entonces v1 + v2 ∈


W1 , al ser W1 subespacio vectorial. Pero como también pertenecen a W2 , en-
tonces v1 + v2 ∈ W2 . Por tanto, v1 + v2 ∈ W1 ∩ W2 .
Análogamente se demuestra que si α ∈ K y v ∈ W1 ∩W2 , entonces αv ∈ W1 ∩
W2 . Por tanto, W1 ∩ W2 satisface las dos propiedades necesarias y suficientes
para ser un subespacio vectorial. 

Álgebra Lineal y Geometría 167


Depto. de Álgebra

Una forma directa de obtener la expresión de la intersección de dos subes-


pacios vectoriales consiste en tomar como punto de partida unas ecuaciones
implícitas de ambos. El sistema formado por todas las ecuaciones forman unas
ecuaciones implícitas de la intersección.

Intersección de subespacios

Sea V un K-espacio vectorial de dimensión finita y B una base.


Sean W1 ,W2 subespacios dados por sus ecuaciones implícitas A 1 x =
0, A 2 x = 0, respectivamente, respecto de la base B. Entonces unas
ecuaciones implícitas del subespacio W1 ∩ W2 son
½
A 1 x = 0,
W1 ∩ W2 : .
A 2 x = 0.

Ejemplo 5.6.1.- En el espacio vectorial R4 la intersección de los subespacios


½
x1 − x3 = 0
W1 : y W2 : x 1 + x 4 = 0
x2 + x4 = 0

es 
 x1 − x3 = 0
W1 ∩ W2 : x + x4 = 0 .
 2
x1 + x4 = 0

Nota 5.6.1. Una vez que hemos visto que la intersección de subespacios es un
subespacio, y hemos estudiado algunas de sus propiedades, podríamos inten-
tar hacer lo mismo con la unión de subespacios vectoriales. Pero hay que ser
cuidadoso. Aunque la intersección de dos subespacios vectoriales es un subes-
pacio, la unión de dos subespacios no es un subespacio, en general. Por ejemplo,
en R3 , la unión de dos rectas que pasan por el origen no tiene por qué ser una
recta, y por supuesto no es un punto, ni un plano, ni todo el espacio.

168 Álgebra Lineal y Geometría


Depto. de Álgebra

De todas formas, aunque W1 ∪W2 no tenga estructura de subespacio, pode-


mos considerar uno que contenga a W1 y a W2 . Para ello, basta tomar 〈W1 ∪W2 〉.
Tenemos entonces la siguiente definición:

Suma de subespacios

Sean W1 y W2 dos subespacios de un espacio vectorial V . Se llama suma


de W1 y W2 al subespacio

W1 + W2 = 〈W1 ∪ W2 〉.

Por definición, si conocemos W1 y W2 y queremos hallar W1 + W2 , basta


tomar un sistema de generadores S 1 de W1 y un sistema de generadores S 2 de
W2 . La unión de estos dos conjuntos, S 1 ∪ S 2 , será un sistema de generadores
de W1 + W2 .

Ejemplo 5.6.2.- En el espacio vectorial R4 la suma de los subespacios


     
1 0 1
 0   1   0 
     
W1 = 〈v1 =   , v2 =  〉,W2 = 〈w1 =  〉
 −1   0   0 
0 1 1

es el subespacio W1 + W2 = 〈v1 , v2 , w1 〉.

Suma de subespacios

Sean W1 ,W2 subespacios dados por los sistemas de generadores res-


pectivos S 1 y S 2 . Entonces el subespacio suma W1 + W2 tiene como sis-
tema generador el conjunto S 1 ∪ S 2 .

Nota 5.6.2. La suma W1 + W2 es, en realidad, el subespacio más pequeño que


contiene a W1 ∪ W2 .

Álgebra Lineal y Geometría 169


Depto. de Álgebra

5.6.2. Propiedades de la suma de subespacios


Dados dos subespacios W1 y W2 en un espacio vectorial de dimensión finita
V , hemos definido la variedad suma W1 + W2 . La causa de que este subespacio
vectorial se llame suma, se encuentra en el siguiente resultado:

Caracterización de la suma de subespacios

Sean W1 y W2 dos subespacios de un espacio vectorial V . Entonces

W1 + W2 = {v1 + v2 | v1 ∈ W1 , v2 ∈ W2 }.

P RUEBA : Si v ∈ W1 + W2 , entonces es combinación lineal de los vectores


de W1 ∪ W2 . Separemos esta combinación lineal en dos sumandos v = v1 + v2 ,
donde en v1 están todos los términos en que aparece un vector de W1 , y v2
contiene el resto de los términos, que necesariamente consta de vectores de
W2 . Entonces v1 ∈ 〈W1 〉 = W1 , y v2 ∈ 〈W2 〉 = W2 .
La otra inclusión es trivial. 

Se puede definir de manera inductiva la suma de un número finito de subes-


pacios vectoriales a partir del teorema de caracterización:
W1 + W2 + · · · + Wm = 〈W1 ∪ W2 ∪ · · · ∪ Wm 〉.
Y los elementos de esta suma están caracterizados por
W1 + · · · + Wm = {v1 + · · · + vm | vi ∈ Wi , i = 1, . . ., m}.

Ejemplo 5.6.3.- La forma de obtener un conjunto de generadores de la suma


finita de subespacios consiste en unir los conjuntos de generadores de cada
uno de los sumandos. Por ejemplo, en R5 consideremos los subespacios W1 =
〈w11 〉,W2 = 〈w21 , w22 〉,W3 = 〈w31 〉, donde
       
−1 −1 4 0
       
 2   −2   3   −5 
       
       
w11 =  3  , w21 =  1  , w22 =  −2  , w31 =  −4 
      
.
       
 −2   4   −4   −5 
       
−1 0 −3 −2

170 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces W1 + W2 + W3 = 〈w11 , w21 , w22 , w31 〉. En este caso, los cuatro vectores
son independientes, y forman una base del espacio suma.

5.6.3. Fórmula de la dimensión


Veamos ahora uno de los teoremas más importantes del álgebra lineal, que
relaciona las dimensiones de dos subespacios cualesquiera, su suma y su in-
tersección. Este teorema es muy útil para calcular dimensiones de subespacios
vectoriales.

Fórmula de la dimensión

Sean W1 y W2 dos subespacios vectoriales de un espacio vectorial V de


dimensión finita. Entonces

dimW1 + dimW2 = dim(W1 + W2 ) + dim(W1 ∩ W2 ).

P RUEBA : Sea B0 = {u1 , . . . , ur } una base de W1 ∩ W2 . Por el teorema de la


base incompleta (pág. 137), podemos ampliar B0 hasta una base de W1 , y tam-
bién la podemos ampliar hasta una base de W2 . Es decir, existen dos conjuntos
de vectores, S 1 = {v1 , . . . , vs } y S 2 = {w1 , . . . , wt } tales que B1 = B0 ∪ S 1 es una
base de W1 , y B2 = B0 ∪ S 2 es una base de W2 .
Sea B = B0 ∪S 1 ∪S 2 . Vamos a demostrar que B es base de W1 +W2 , y con eso
habremos probado el teorema, ya que dimW1 = r + s, dimW2 = r + t , dim(W1 ∩
W2 ) = r , y en este caso dim(W1 + W2 ) = r + s + t .
B es un conjunto generador de W1 + W2 , ya que B = B1 ∪ B2 . Por tanto,
basta comprobar que es linealmente independiente. Consideremos una com-
binación lineal de la forma
r
X s
X t
X
αi ui + βj vj + γ k w k = 0.
i =1 j =1 k=1

Hay que demostrar que todos los coeficientes deben ser nulos. Sea
r
X s
X t
X
v= αi ui + βj vj = − γ k wk .
i =1 j =1 k=1

Álgebra Lineal y Geometría 171


Depto. de Álgebra

De la primera forma de escribir v se obtiene que v ∈ W1 , y de la segunda, que


v ∈ W2 . Por tanto, v ∈ W1 ∩W2 , y así v se escribe de forma única como combina-
ción lineal de los vectores de B0 . Como también se escribe de forma única co-
mo combinación lineal de los vectores de B1 (la fórmula anterior), y B0 ⊂ B1 ,
estas dos formas de escribirlo deben ser la misma. Por tanto, β1 = · · · = βs = 0.
Después de esto, nos queda
r
X t
X
αi ui + γ k w k = 0,
i =1 k=1

pero esta es una combinación lineal de los vectores de B2 , que es linealmente


independiente, luego todos los coeficientes son nulos. 

5.6.4. Suma directa


Como vimos en la sección precedente, los subespacios vectoriales se pue-
den intersecar o sumar. En esta sección veremos una suma con una propiedad
especial que permite dividir un espacio vectorial en trozos.

Suma directa

Sean W1 , . . . ,Wr subespacios de un espacio vectorial V . Decimos que


W = W1 + · · · + Wr es suma directa de W1 , . . . ,Wr si todo vector w ∈ W
se expresa de una única forma

w = u1 + · · · + ur , ui ∈ Wi , i = 1, . . ., r.

Lo notaremos como
r
M
W = W1 ⊕ · · · ⊕ Wr = Wi .
i =1

Ejemplo 5.6.4.- En el espacio vectorial R4 consideramos los subespacios vec-


toriales
       
1 1 0 0
 0   0   1   0 
       
W1 = 〈v1 =   , v2 =  〉,W2 = 〈v3 =   , v4 =  〉.
 1   0   0   1 
0 1 1 1

172 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces W = W1 + W2 = R4 y como {v1 , v2 , v3 , v4 } es base de R4 , tenemos la


unicidad de la expresión de todo vector de W como suma de vectores de W1 y
W2 . Por tanto, R4 = W1 ⊕ W2 .

Existen otras caracterizaciones de la suma directa que nos serán de utilidad


posteriormente.

Propiedades de la suma directa

Sean W1 , . . . ,Wr ⊂ V subespacios vectoriales y W = W1 + · · · + Wr .

1. Si Bi , i = 1, . . . , r son bases respectivas de cada Wi , entonces W es


S
suma directa de W1 , . . . ,Wr si y solamente si B = ri=1 Bi es base
de W .

2. W es suma directa de W1 , . . . ,Wr si y solamente si una expresión


de la forma

0 = u1 + · · · + ur , con cada ui ∈ Wi

implica que u1 = · · · = ur = 0.
Lr
3. Si W es de dimensión finita y W = i =1 Wi , entonces dimW =
Pr
i =1 dimWi .

P RUEBA :

1. Supongamos que W es suma directa de W1 , . . . ,Wr . Es claro, por la defi-


nición de suma, que B es un conjunto generador de W y por el teorema
de coordenadas únicas (pág. 140) es una base de W . El recíproco se sigue
de nuevo por la unicidad de la expresión de un vector de W con respecto
a una base del subespacio.

2. Si W es suma directa de W1 , . . . ,Wr , el vector 0 admite una expresión úni-


ca como suma de vectores de los subespacios Wi . Tal expresión es

0 = |{z}
0 + · · · + |{z}
0
∈W1 ∈Wr

Álgebra Lineal y Geometría 173


Depto. de Álgebra

de donde tenemos la implicación. Recíprocamente, sea w ∈ W y supon-


gamos que tenemos las expresiones

w = u1 + · · · + ur ui ∈ Wi , i = 1, . . . , r
= u′1 + · · · + u′r , u′i ∈ Wi , i = 1, . . . , r.

Entonces
0 = u1 − u′1 + · · · + ur − u′r ,
| {z } | {z }
∈W1 ∈Wr

y por la hipótesis esto implica que ui = u′i , i = 1, . . . , r , es decir, la expre-


sión es única.

3. Es consecuencia de la primera propiedad.

Nota 5.6.3. En el caso de suma de dos subespacios (r = 2), existe una caracteri-
zación clásica de la suma directa: W = W1 ⊕ W2 si y solamente si W = W1 + W2
y W1 ∩ W2 = 0. En efecto, si W = W1 ⊕ W2 y v ∈ W1 ∩ W2 , entonces tenemos las
expresiones
v = |{z}
v + |{z}
0 = |{z} v .
0 + |{z}
∈W1 ∈W2 ∈W1 ∈W2

Entonces v = 0 por la unicidad de la expresión. De manera recíproca, sea w ∈


W1 + W2 que se puede expresar como

w = u1 + u2 = u′1 + u′2 , con u1 , u′1 ∈ W1 , u2 , u′2 ∈ W2′ .

Entonces u1 − u′1 = u′2 − u2 es un vector que pertenece a W1 ∩ W2 . Por tanto,


u1 = u′1 y u2 = u′2 .
Nota 5.6.4. Si V es un espacio vectorial de dimensión finita y W1 Ú V un subes-
pacio propio, existe W2 ⊂ V subespacio vectorial tal que V = W1 ⊕ W2 . Basta
construir una base B1 de W1 y ampliarla a una base de V . Los vectores de di-
cha ampliación generan a W2 .

5.7. Espacio cociente


Estudiamos ahora una noción que es básica en muchas ramas de las mate-
máticas, en particular en el álgebra lineal: el espacio cociente. Fijaremos a partir
de ahora un espacio vectorial V y un subespacio vectorial W ⊂ V . Básicamente,
se puede pensar en el espacio cociente de V sobre W como si fuera el espacio

174 Álgebra Lineal y Geometría


Depto. de Álgebra

V , pero donde los vectores de W no tienen ningún valor: es decir, cualquier


vector de W representa el vector 0 del espacio cociente; y si sumamos a cual-
quier vector del cociente un vector de W , éste se queda igual. Vamos a definirlo
de forma rigurosa.
Decimos que dos vectores u, v ∈ V son W -equivalentes si u − v ∈ W , y lo
notaremos como u ∼W v . La W -equivalencia define una relación de equiva-
lencia en V . En efecto:

Propiedad reflexiva: todo vector u es W -equivalente a sí mismo, porque


u−u = 0 ∈W .

Propiedad simétrica: si u ∼W v , entonces u−v ∈ W . Como W es subespa-


cio vectorial, el opuesto de este vector también pertenece a W , es decir,
−u + v ∈ W , lo que implica que v ∼W u.

Propiedad transitiva: si u ∼W v y v ∼W w , entonces u−v ∈ W y v −w ∈ W .


Si sumamos estos vectores, obtendremos un nuevo vector de W :

(u − v ) + (v − w ) = u − w ∈ W,

lo que significa que u ∼W w .

Ejemplo 5.7.1.- Consideremos en R3 el subespacio W = 〈u1 , u2 〉, donde


   
3 0
   
 −2  , u2 =  −1  .
u1 =    

−1 2

Entonces    
−2 −11
   
 1  ∼W v =  3  ,
u=   

4 15
porque u − v = 3u1 −4u2 ∈ W . Observemos que para comprobar si dos vectores
son W -equivalentes, basta resolver un sistema de ecuaciones.

Álgebra Lineal y Geometría 175


Depto. de Álgebra

Dado un vector v ∈ V , la clase de equivalencia de v es el conjunto formado


por todos los vectores W -equivalentes con w . Este conjunto tiene la forma {v +
w | w ∈ W } y, por ese motivo, la clase de equivalencia de denota como v + W .
Nota 5.7.1. Si u +W = v +W entonces existe w ∈ W tal que u = v + w , de donde
u − v ∈ W , o lo que es lo mismo, u ∼W v . El recíproco es inmediato. Por tanto,

u+W = v +W es equivalente a u ∼W v , o bien u − v ∈ W.

Una consecuencia de este hecho es que si dos clases de equivalencia u + W y


v + W tienen un elemento en común, entonces definen la misma clase.
Ahora creamos un nuevo conjunto, en donde los elementos son las clases de
equivalencia. Las clases de equivalencia dividen el conjunto V es una serie de
subconjuntos que son disjuntos dos a dos. Formamos así el conjunto cociente.

Espacio cociente

Sea W un subespacio vectorial de un espacio vectorial V . Llamaremos


espacio cociente de V sobre W , y lo denotaremos V /W , al conjunto
formado por las clases de equivalencia definidas por W .

Ejemplo 5.7.2.- En R3 consideremos el subespacio vectorial W = 〈e1 〉. Enton-


ces R3 /W está formado por las clases de equivalencia u +W , en cada una de las
cuales hay un representante de la forma
 
0
 α2  + W.
α3

Nuestro interés en este conjunto es que nos permite crear un nuevo espacio
vectorial.

176 Álgebra Lineal y Geometría


Depto. de Álgebra

Espacio cociente como espacio vectorial

Sea W un subespacio vectorial de un K-espacio vectorial V . El espacio


cociente V /W , con las operaciones

Suma: (u + W ) + (v + W ) = (u + v ) + W ,

Producto por escalar: α(u + W ) = (αu) + W ,

es un espacio vectorial sobre K. Además, si V es de dimensión finita, se


tiene:
dim(V /W ) = dim(V ) − dim(W ).

P RUEBA : Debemos probar, en primer lugar, que las operaciones están bien
definidas. Esto es, que si u +W = u′ +W y además v +W = v ′ +W , entonces las
clases de equivalencia (u + v )+W y (u′ + v ′ )+W son iguales. Pero sabemos que
u ∼W u′ , luego u − u′ ∈ W . Análogamente v − v ′ ∈ W . Por tanto, (u − u′) + (v −
v ′ ) = (u + v ) − (u′ + v ′ ) ∈ W . Es decir, (u + v ) ∼W (u′ + v ′ ), luego (u + v ) + W =
(u′ + v ′ ) + W como queríamos demostrar.
Por otro lado, si u +W = u′ +W y α ∈ K, entonces (u − u′ ) ∈ W , luego α(u −
u ) = αu − αu′ ∈ W . Por tanto (αu) + W = (αu′ ) + W , y se obtiene el resultado.

La demostración de que V /W es un espacio vectorial es directa. Observemos


que el elemento neutro de la suma de clases es la clase 0 + W .
Para probar la fórmula que relaciona sus dimensiones, tomemos una base
B1 = {u1 , . . . , ur } de W . Esta base se puede ampliar a una base

B = {u1 , . . . , ur , ur +1 , . . . , un }

de V . Vamos a probar que B2 = {ur +1 + W, . . . , un + W } es una base de V /W , y


esto demostrará el resultado.
Probemos primero que B2 es un conjunto generador. Sea v +W una clase de
equivalencia cualquiera. Como v ∈ V , podremos escribirlo como combinación
lineal de los elementos de B. Es decir, v = α1 u1 + · · · + αn un . Sea u = α1 u1 +
· · · + αr ur . Claramente u ∈ W , luego u′ = v − u ∼W v , donde u′ = αr +1 ur +1 +
· · · + αn un . Pero en ese caso v + W = u′ + W = αr +1 (ur +1 + W ) + · · · + αn (un +
W ). Es decir, cualquier clase de equivalencia, v + W , puede escribirse como
combinación lineal de los elementos de B2 .
La demostración estará completa si probamos que B2 es un conjunto li-
nealmente independiente. Supongamos que tenemos una combinación lineal

αr +1 (ur +1 + W ) + · · · + αn (un + W ) = 0 + W.

Álgebra Lineal y Geometría 177


Depto. de Álgebra

Esto implica que


(αr +1 ur +1 + · · · + αn un ) + W = 0 + W,
es decir, (αr +1 ur +1 + · · · + αn un ) ∈ W . Pero el subespacio vectorial
W1 = 〈ur +1 , . . . , un 〉 verifica que V = W ⊕ W1 ,
ya que B es una base. Luego la única posibilidad es que (αr +1ur +1 +· · ·+αn un ) =
0, por lo que αr +1 = · · · = αn = 0. Esto nos dice que los elementos de B2 son li-
nealmente independientes. 

Sea V un espacio vectorial sobre K, de dimensión finita, en el que hemos


fijado una base respecto de la que tomamos coordenadas.

Base de V /W y coordenadas

Calculamos una base B1 = {u1 , . . . , ur } de W .

Completamos a una base del espacio completo B =


{u1 , . . . , ur , ur +1 , . . . , un } (método de ampliación, p. 137).

Una base de V /W es B2 = {ur +1 + W, . . . , un + W }.

Sea v ∈ V un vector cualquiera.

(1) Expresamos v como combinación lineal de los vectores de la base


B:
v = α1 u1 + · · · + αr ur + αr +1 ur +1 + · · · + αn un .

(2) Entonces v + W = αr +1 (ur +1 + W ) + · · · + αn (un + W ), de donde


 
αr +1
 . 
(v + W )B2 =  ..  .
αn

Ejemplo 5.7.3.- En V = R3 consideremos el subespacio W definido por las


ecuaciones  
½ 1
x1 − 2x2 = 0
W: y el vector v = 1  .

x3 = 0
1

178 Álgebra Lineal y Geometría


Depto. de Álgebra

Vamos a calcular una base de V /W y las coordenadas del vector v +W respecto


a dicha base.
Una base de W es B1 = {u1 }, donde
 
2
u1 = 1  .

0

Ampliamos a una base de V :


   
2 1 0 0 2 1 0 0
 1 0 1 0  Gauss
−−−→  0 −1/2 1 0  .
0 0 0 1 0 0 0 1

Luego B = {u1 , e1 , e3 } es una base de V , y una base de V /W es B2 = {e1 +W, e3 +


W }.
Para hallar las coordenadas de v + W respecto de B2 hacemos lo siguiente
   
2 1 0 1 1 0 0 1
 1 0 0 1  G-J →  0 1 0 −1  .

0 0 1 1 0 0 1 1

Entonces las coordenadas de v respecto de la base B son


 
1 µ ¶
−1
vB =  −1  , y (v + W )B2 = .
1
1

Otra forma es partir de la expresión v +W = α1 (e1 +W )+α2 (e2 +W ), que implica


que
 
1 − α1 ½ ½
x1 − 2x2 = 0 1 − α1 − 2 = 0,
 1  ∈W : de donde
x3 = 0 1 − α3 = 0.
1 − α2
Entonces α1 = −1, α2 = 1 y llegamos a la misma conclusión.

Al igual que podemos construir una base de V /W y las coordenadas de un


vector v + W , también tenemos un criterio para decidir si un conjunto T =
{v1 + W, . . ., vs + W } es linealmente independiente en el espacio cociente V /W .
Supongamos que S W = {w1 , . . . , wr } es un conjunto generador de W (no es ne-
cesario que sea base de W ). Una expresión de la forma

α1 (v1 + W ) + · · · + αs (vs + W ) = 0 + W

Álgebra Lineal y Geometría 179


Depto. de Álgebra

es equivalente a α1 v1 +· · ·+αs vs ∈ W . Tiene solución no trivial (algún αi no nu-


lo) si y solamente si 〈v1 , . . . , vs 〉∩W 6= 0. Tenemos así dos métodos para resolver
el problema:

1. Mediante las ecuaciones implícitas de W y 〈v1 , . . . , vs 〉. Sustituimos la ex-


presión de pertenencia a W en las ecuaciones implícitas de W , lo que
proporciona un sistema lineal homogéneo en las incógnitas αi , 1 ≤ i ≤ s.
El conjunto T es linealmente independiente si y solamente si la única so-
lución es la trivial.

2. Formamos la matriz
¡ ¢
B= w1 . . . wr v1 . . . vs ,
¡ ¢
y calculamos una forma escalonada E B = C 1 C 2 . El conjunto T es
linealmente independiente si y solamente si todas las columnas de C 2
aportan pivote.

Independencia lineal en V /W

Sea T = {v1 + W, . . . , vs + W } ⊂ V /W y S W = {w1 , . . . , wr } un conjunto


generador de W , con dimV = n.

Formamos la matriz
¡ ¢
B= w1 . . . wr v1 . . . vs n×(r +s)
.

Gauss ¡ ¢
Calculamos B −−−→ E B = C 1 C 2 , donde C 1 es una matriz n × r
y C 2 es una matriz n × s.

El conjunto T es linealmente independiente si y solamente si to-


das las columnas de C 2 aportan pivote.

Ejemplo 5.7.4.- En el R-espacio vectorial V = R3 , y fijada la base estándar,


consideramos W el subespacio vectorial definido por
½
x1 − x3 = 0
W≡
x2 − x3 = 0

180 Álgebra Lineal y Geometría


Depto. de Álgebra

Sea T = {v1 + W, v2 + W }, donde v1 = (2, 1, 3)t , v2 = (0, −1, 1)t . De la forma ha-
bitual, calculamos una base de W , que es BW = {w1 = (1, 1, 1)t }. Formamos la
matriz  
¡ ¢ Gauss 1 −1 1
B = w1 v1 v2 −−−→  0 2 −1  .
0 0 0
La tercera columna no aporta pivote, por lo que el conjunto T es linealmente
dependiente en V /W .
Podemos aprovechar la definición de W mediante ecuaciones implícitas
para resolver el problema. La expresión α1 (v1 + W ) + α2 (v2 + W ) = 0 + W nos
lleva a buscar α1 , α2 ∈ R tales que α1 v1 + α2 v2 ∈ W , es decir,
 
2α1 ½
 α1 − α2  ∈ W, que es equivalente a (2α1 ) − (3α1 + α2 ) = 0,
(α1 − α2 ) − (3α1 + α2 ) = 0.
3α1 + α2

Este sistema tiene solución no trivial α1 = α2 , por lo que T es linealmente de-


pendiente.

Álgebra Lineal y Geometría 181


Depto. de Álgebra

182 Álgebra Lineal y Geometría


Capítulo 6

Homomorfismos

Hasta ahora la única relación que hemos visto entre espacios vectoriales di-
ferentes es la de inclusión de un subespacio vectorial en otro. En este tema estu-
diaremos una nueva relación: los homomorfismos, que como su propio nom-
bre da a entender son las aplicaciones entre espacios vectoriales que respetan
las operaciones entre un espacio y otro. Desde el punto de vista de estructuras,
es el paso natural tras haber definido una clase de objetos: qué relaciones hay
entre ellos.

6.1. Definición y propiedades


Las aplicaciones que buscamos tienen que respetar las dos operaciones bá-
sicas de los espacios vectoriales: la suma de vectores y el producto de vectores
por escalares.

Homomorfismos

Sean V y V ′ espacios vectoriales sobre un cuerpo K y f : V → V ′ una


aplicación. Diremos que f es un homomorfismo o aplicación lineal si
para todos u, v ∈ V y α ∈ K se cumplen las condiciones siguientes:

f (u + v ) = f (u) + f (v ).

f (αv ) = α f (v ).

183
Depto. de Álgebra

Ejemplo 6.1.1.- Veamos algunos ejemplos de homomorfismos y de aplicacio-


nes que no lo son.

1. Si V es un K-espacio vectorial, la aplicación identidad, idV : V → V , de-


finida por idV (v ) = v para todo v ∈ V , es un homomorfismo.

2. Dados dos espacios vectoriales cualesquiera V y V ′ , la aplicación OV,V ′ : V →


V ′ , definida por OV,V ′ (v ) = 0 para todo v ∈ V , es un homomorfismo de-
nominado homomorfismo trivial.

3. Si V es un K-espacio vectorial de dimensión finita dimV = n con base


B ⊂ V , la aplicación de asignación de coordenadas cB : V → Kn , defini-
da por cB (v ) = vB , es un homomorfismo.

4. Si W ⊂ V es un subespacio vectorial, la inclusión i : W → V , i (w ) = w ,


es un homomorfismo. Es más, la proyección natural sobre el cociente
p : V → V /W , p(v ) = v + W , también es un homomorfismo.

5. Las propiedades elementales de la suma y el producto de matrices de-


muestran que toda matriz A m×n da lugar a un homomorfismo

Kn −→ Km ,
v 7→ A v .

6. La aplicación f : K → K definida por f (x) = x +1 no es un homomorfismo


de K-espacios vectoriales ya que

f (1 + 2) = (1 + 2) + 1 = 4 6= 5 = 2 + 3 = f (1) + f (2) = 2 + 3.

7. Si K = Q, R o C, la aplicación f : K → K, f (x) = x 2 , tampoco es un homo-


morfismo de K espacios vectoriales, puesto que

f (2 + 3) = 25 6= 4 + 9 = f (2) + f (3).

Algunas propiedades básicas de los homomorfismos son las siguientes.

184 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades de los homomorfismos

Sea f : V → V ′ un homomorfismo de K-espacios vectoriales.

1. f (0V ) = 0V ′ .

2. f (−v ) = − f (v ) para todo v ∈ V .

3. Dados vectores v1 , . . . , vn ∈ V y escalares α1 , . . . , αn ∈ K cuales-


quiera, se verifica que

f (α1 v1 + · · · + αn vn ) = α1 f (v1 ) + · · · + αn f (vn ).

P RUEBA :

1. Como 0V + 0V = 0V ,

f (0V ) = f (0V + 0V ) = f (0V ) + f (0V ).

Despejando en esta ecuación obtenemos que f (0V ) = 0V ′ .

2. Sabemos que el vector opuesto −v se puede obtener a partir de v multi-


plicando por el escalar −1 ∈ K, es decir −v = (−1)v , por tanto

f (−v ) = f ((−1)v ) = (−1) f (v ) = − f (v ).

3. Por inducción sobre n. Para n = 1 se sigue de la propia definición de ho-


momorfismo que f (α1 v1 ) = α1 f (v1 ). Si suponemos que la ecuación es
cierta para n − 1, aplicando la hipótesis de inducción junto con la defini-
ción de homomorfismo obtenemos lo siguiente:

f (α1 v1 + · · · + αn vn ) = f (α1 v1 + · · · + αn−1 vn−1 + αn vn )


= f (α1 v1 + · · · + αn−1 vn−1 ) + f (αn vn )
= α1 f (v1 ) + · · · + αn−1 f (vn−1 ) + αn f (vn ).

Nota 6.1.1. Los homomorfismos preservan conjuntos linealmente dependien-


tes. Sea f : V → V ′ un homomorfismo entre K-espacios vectoriales. Si

S = {v1 , . . . , vn } ⊂ V es un conjunto linealmente dependiente,

Álgebra Lineal y Geometría 185


Depto. de Álgebra

entonces

f (S) = { f (v1 ), . . . , f (vn )} ⊂ V ′ es también un conjunto linealmente dependiente.

Por ser S linealmente dependiente existen escalares α1 , . . . , αn , no todos nu-


los, tales que
α1 v1 + · · · + αn vn = 0V .
Si aplicamos f a ambos términos de esta ecuación se obtiene

α1 f (v1 ) + · · · + αn f (vn ) = f (α1 v1 + · · · + αn vn ) = f (0) = 0V ′ ,

luego f (S) es linealmente dependiente.


Sin embargo, no todos los homomorfismos preservan los conjuntos lineal-
mente independientes. Sea f : R3 → R2 dada por f (v ) = A v , con
µ ¶
1 0 0
A= .
0 1 0

La base estándar {e1 , e2 , e3 } es un conjunto linealmente independiente, y


µ ¶ µ ¶ µ ¶
1 0 0
f (e1 ) = , f (e2 ) = , f (e3 ) = .
0 1 0

Es claro que { f (e1 ), f (e2 ), f (e3 )} es un conjunto linealmente dependiente, pues


contiene al vector nulo.
Para definir un homomorfismo, basta con dar la imagen de los vectores de
una base del espacio vectorial de partida.

Existencia y unicidad de homomorfismo

Sean V y V ′ dos K-espacios vectoriales. Supongamos que V es de di-


mensión finita n con base B = {v1 , . . . , vn } ⊂ V . Sea S = {v1′ , . . . , vn′ } ⊂ V ′
un conjunto de n vectores cualesquiera de V ′ . Entonces existe un único
homomorfismo f : V → V ′ tal que f (vi ) = vi′ para todo 1 ≤ i ≤ n.

P RUEBA : La aplicación f se define de la siguiente manera. Dado un vector u ∈


V , existen unos únicos escalares a1 , . . . , an ∈ K (sus coordenadas respecto a B)
P
tales que u = ni=1 ai vi . Entonces definimos f (u) mediante la fórmula

u 7→ f (u) = a1 v1′ + · · · + an vn′ .

186 Álgebra Lineal y Geometría


Depto. de Álgebra

Veamos que f es un homomorfismo. Si v ∈ V se expresa en función de la base


B como v = b 1 v1 + · · · + b n vn entonces
u + v = (a1 + b1 )v1 + · · · + (an + bn )vn ,
y la definición de f nos lleva a
f (u + v ) = (a1 + b 1 )v1′ + · · · + (an + b n )vn′
= (a1 v1′ + b 1 v1′ ) + · · · + (an vn′ + b n vn′ )
= (a1 v1′ + · · · + an vn′ ) + (b 1 v1′ + · · · + b n vn′ )
= f (u) + f (v ).
Si α ∈ K, entonces αu = αa1 v1 + · · · + αan vn , luego
f (αu) = (αa1 )v1′ + · · · + (αan )vn′
= α(a1 v1′ ) + · · · + α(an vn′ )
= α(a1 v1′ + · · · + an vn′ )
= α f (u).
Con esto concluye la demostración de que f es un homomorfismo. Para ver la
unicidad de f razonamos del siguiente modo. Sea g : V → V ′ un homomorfis-
mo que también satisface g (vi ) = vi′ para todo 1 ≤ i ≤ n. Como u = a1 v1 + · · · +
an vn , tenemos que
g (u) = a1 g (v1 ) + · · · + an g (vn ) = a1 v1′ + · · · + an vn′ = f (u),
luego la aplicación g es igual a f . 

6.2. Matriz de un homomorfismo

Matriz de un homomorfismo

Sea f : V → V ′ un homomorfismo entre K-espacios vectoriales de di-


mensión finita con bases

B = {v1 , . . . , vn } ⊂ V, B ′ = {v1′ , . . . , vm

} ⊂ V ′.

La matriz de f respecto de B y B ′ es la matriz de orden m ×n dada por


¡ ¢
MB,B ′ ( f ) = f (v1 )B ′ · · · f (vn )B ′ ,

cuyas columnas son las coordenadas de los vectores de f (B) respecto


de B ′ .

Álgebra Lineal y Geometría 187


Depto. de Álgebra

Observemos que si f , g : V → V ′ son homomorfismos de espacios vectoria-


les tales que
MB,B ′ ( f ) = MB,B ′ (g ),
entonces f = g . Esto se tiene porque si B = {v1 , . . . , vn }, entonces las coorde-
nadas de los vectores f (vi ), i = 1, . . . , n, respecto de la base B ′ , coinciden con
las coordenadas de los vectores g (vi ), i = 1, . . ., n. Por la unicidad establecida en
el teorema de existencia y unicidad de homomorfismos (pág. 186), tenemos la
igualdad.

Ejemplo 6.2.1.- Los siguientes ejemplos de matrices asociadas a homomorfis-


mos son ya conocidos:

1. Si V es un espacio vectorial de dimensión finita y B, B ′ ⊂ V son dos ba-


ses de V entonces la matriz del homomorfismo identidad idV : V → V
respecto de B en la partida y de B ′ en la llegada es la matriz de cambio
de base,
MB,B ′ (idV ) = M(B, B ′ ).

2. Sea A m×n una matriz con coeficientes en K y f : Kn → Km el homomor-


fismo definido a partir de A en los ejemplos de la sección anterior, f (v ) =
A v . Entonces, si S ⊂ Kn y S ′ ⊂ Km son las respectivas bases estándar,
tenemos que MS ,S ′ ( f ) = A.

Interpretación matricial de la imagen de un vector

Sea f : V → V ′ un homomorfismo entre K-espacios vectoriales de di-


mensión finita, con bases

B = {v1 , . . . , vn } ⊂ V, B ′ = {v1′ , . . . , vm

} ⊂ V ′.

Para todo v ∈ V se satisface la siguiente ecuación:

f (v )B ′ = MB,B ′ ( f ) · vB .

188 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Si denotamos  
a1
vB =  ...  ,
 

an
tenemos que v = a1 v1 + · · · + an vn . Aplicando f obtenemos

f (v ) = a1 f (v1 ) + · · · + an f (vn ).

Si ahora tomamos coordenadas respecto de B ′ , como esta operación es lineal,


deducimos que

f (v )B ′ = a1 f (v1 )B ′ + · · · + an f (vn )B ′
 
a1
¡ ¢ . 
= f (v1 )B ′ . . . f (vn )B ′  .. 
an
= MB,B ′ ( f ) · vB .

Observemos que si f : V → V ′ es un homomorfismo entre espacios vecto-


riales de dimensión finita, entonces las coordenadas de f (v ) se obtienen como
combinación lineal de las coordenadas de v . Por este motivo, a los homomor-
fismos también los llamamos aplicaciones lineales.

Ejemplo 6.2.2.- Sea f : R3 → R2 definida como


 
x1 µ ¶
x1 + x2 − x3
f x2 =
  .
2x1 + x2 + 3x3
x3

Sea S = {e1 , e2 , e3 } la base estándar en R3 y S ′ = {e′1 , e′2 } la base estándar en R2 .


Entonces
µ ¶ µ ¶
1 1
f (e1 ) = , [ f (e1 )]S ′ = ,
2 2
µ ¶ µ ¶
1 1
f (e2 ) = , [ f (e2 )]S ′ = ,
1 1
µ ¶ µ ¶
−1 −1
f (e3 ) = , [ f (e3 )]S ′ = ,
3 3

Álgebra Lineal y Geometría 189


Depto. de Álgebra

de donde µ ¶
1 1 −1
MS ,S ′ ( f ) = ,
2 1 3
lo que es lógico, pues es fácil ver que se tiene la igualdad
   
x1 µ ¶ x1
1 1 −1 
f  x2  = x2  .
2 1 3
x3 x3

Consideremos ahora las bases respectivas de R3 y R2 dadas por


     
1 1 −4 µ ¶ µ ¶
′ ′ 1 ′ 1
B = {u1 =  1  , u2 =  −1  , u3 =  5 }, B = {u1 = , u2 = }.
2 1
1 1 1
Entonces
µ ¶
1
f (u1 ) = ,
6
µ

−1
f (u2 ) = ,
4
µ ¶
0
f (u3 ) = .
0

Para calcular la matriz MB,B ′ ( f ) necesitamos obtener las coordenadas de los


vectores f (ui ), 1 ≤ i ≤ 3 respecto de la base B ′ . Para ello, debemos resolver
tres sistemas de ecuaciones con la misma matriz de coeficientes y diferentes
términos independientes. En este caso, se tiene que
µ ¶ µ ¶
1 1 1 −1 0 G-J 1 0 5 5 0

→ .
2 1 6 4 0 1 −4 −6 0

La submatriz de la derecha contiene las coordenadas buscadas. Por tanto,


µ ¶
5 5 0
MB,B ( f ) =
′ .
−4 −6 0

La relación entre homomorfismos y matrices es incluso más estrecha, como


vamos a ver a partir de la composición de homomorfismos. Dados dos homo-
morfismos de K-espacios vectoriales
f g
V −→ V ′ −→ V ′′ ,

190 Álgebra Lineal y Geometría


Depto. de Álgebra

su composición g ◦ f : V → V ′′ es un homomorfismo. Si u, v ∈ V se tiene que

(g ◦ f )(u + v ) = g ( f (u + v ))
= g ( f (u) + g (v ))
= g ( f (u)) + g ( f (v ))
= (g ◦ f )(u) + (g ◦ f )(v ).

Por otra parte, si α ∈ K,

(g ◦ f )(αv ) = g ( f (αv ))
= g (α f (v ))
= αg ( f (v ))
= α (g ◦ f )(v ),

luego g ◦ f es un homomorfismo.
La fórmula que define la multiplicación de matrices tiene su origen históri-
co (consulte este enlace) en el siguiente resultado:

Composición y multiplicación de matrices

Dados dos homomorfismos de K-espacios vectoriales de dimensión fi-


nita
f g
V −→ V ′ −→ V ′′ ,
con bases B ⊂ V , B ′ ⊂ V ′ y B ′′ ⊂ V ′′ , se satisface la siguiente ecuación:

MB,B ′′ (g ◦ f ) = MB ′ ,B ′′ (g ) · MB,B ′ ( f ).

P RUEBA : Sea B = {u1 , . . . , un } la base de V . Entonces, aplicando la proposi-


ción anterior,
¡ ¢
MB ′ ,B ′′ (g ) · MB,B ′ ( f ) = MB ′ ,B ′′ (g ) · f (u1 )B ′ · · · f (un )B ′
¡ ¢
= MB ′ ,B ′′ (g ) · f (u1 )B ′ · · · MB ′ ,B ′′ (g ) · f (un )B ′
¡ ¢
= g ( f (u1 ))B ′′ · · · g ( f (un ))B ′′
¡ ¢
= (g ◦ f )(u1 )B ′′ · · · (g ◦ f )(un )B ′′
= MB,B ′′ (g ◦ f ).

Álgebra Lineal y Geometría 191


Depto. de Álgebra

6.3. Imagen, imagen inversa y núcleo


La imagen y la imagen inversa de un conjunto a través de una aplicación
son conceptos bien conocidos. Aquí veremos cómo estos conceptos interac-
túan con los espacios vectoriales a través de los homomorfismos.

Imagen, imagen inversa y núcleo

Sea f : V → V ′ un homomorfismo de espacios vectoriales.

La imagen del subespacio W ⊂ V es el conjunto

f (W ) = { f (w ) ∈ V ′ | w ∈ W } ⊂ V ′ .

La imagen del homomorfismo f es el conjunto f (V ), y se notará


por im( f ).

La imagen inversa del subespacio W ′ ⊂ V ′ es el conjunto

f −1 (W ′ ) = {w ∈ V | f (w ) ∈ W ′ } ⊂ V.

El núcleo de f es el conjunto

ker( f ) = {v ∈ V | f (v ) = 0} = f −1 (0V ′ ).

Ejemplo 6.3.1.- Sean V = R2 ,V ′ = R3 , y consideremos el homomorfismo f :


V → V ′ , f (v ) = A v , dado por la matriz
 
2 1
A =  −1 0  .
2 1

Tomemos W = 〈e1 〉. Entonces



2
f (W ) = {A w | w ∈ W } = {A(αe1 ) | α ∈ R} = 〈 −1 〉.
2

192 Álgebra Lineal y Geometría


Depto. de Álgebra

Si W ′ = 0, entonces el cálculo de f −1 (W ′ ) implica la resolución del sistema li-


neal homogéneo A v = 0. Si calculamos la forma escalonada reducida por filas,
nos queda  
1 0
G-J  
A −→ E A =  0 1 ,

0 0
y la solución del sistema es x1 = 0, x2 = 0, es decir, f −1 (W ′ ) = 0 (o bien, ker( f ) =
{0}).

Aunque la definición hace referencia a conjuntos, se tiene algo más para los
homomorfismos, y es que son subespacios vectoriales.

Subespacios imagen y núcleo

Sea f : V → V ′ un homomorfismo entres espacios vectoriales, y W ⊂


V,W ′ ⊂ V ′ subespacios vectoriales. Entonces

f (W ) es un subespacio vectorial de V ′ .

f −1 (W ′ ) es un subespacio vectorial de V .

En particular, im( f ) y ker( f ) son subespacios vectoriales.

P RUEBA :
Dos vectores cualesquiera w1′ , w2′ ∈ f (W ) son siempre de la forma w1′ =
f (w1 ) y w2′ = f (w2 ) para ciertos w1 , w2 ∈ V . Como W es un subespacio
vectorial de V , se tiene que w1 + w2 ∈ W , y si α ∈ K, además αw1 ∈ W ,
luego

w1′ + w2′ = f (w1 ) + f (w2 ) = f (w1 + w2 ) ∈ f (W ),


αw1′ = α f (w1 ) = f (αw1 ) ∈ f (W ).

Dados dos vectores v1 , v2 ∈ f −1 (W ′ ) y un escalar α ∈ K, como f (v1 ), f (v2 ) ∈


W ′ y W ′ ⊂ V ′ es un subespacio vectorial, tenemos que los siguientes vec-
tores también pertenecen a W ′ ,

f (v1 + v2 ) = f (v1 ) + f (v2 ) ∈ W ′ , f (αv1 ) = α f (v1 ) ∈ W ′ ,

por tanto v1 + v2 ∈ f −1 (W ′ ) y αv1 ∈ f −1 (W ′ ).

Álgebra Lineal y Geometría 193


Depto. de Álgebra

Queremos ahora dar un método para el cálculo de los subespacios anterio-


res.

Imagen de generadores

Sea f : V → V ′ un homomorfismo de espacios vectoriales, y W ⊂ V un


subespacio vectorial, con S = {w1 , . . . , wr } ⊂ W un conjunto de genera-
dores de W . Entonces f (S) = { f (w1 ), . . . , f (wr )} ⊂ f (W ) es un conjunto
de generadores de f (W ).

P RUEBA : Si w ′ ∈ f (W ) entonces existe w ∈ W tal que w ′ = f (w ). Como S


genera W , podemos expresar w como combinación lineal de los elementos de
S, es decir, existen escalares α1 , . . . , αr ∈ K tales que w = α1 w1 + · · · + αr wr . Por
tanto
w ′ = f (w ) = α1 f (w1 ) + · · · + αr f (wr ).
Esto demuestra que todo vector de f (W ) es combinación lineal de f (S). 

Cálculo de la imagen de un subespacio

Sea f : V → V ′ un homomorfismo definido por una matriz A m×n res-


pecto de bases respectivas B y B ′ de V y V ′ , y W = 〈w1 , . . . , wr 〉 un
subespacio vectorial de V . Entonces f (W ) está generado por los vecto-
res f (wi ), i = 1, . . . , r , cuyas coordenadas respecto de B ′ son

[ f (wi ]B ′ = A · [wi ]B , i = 1, . . . , r.

Ejemplo 6.3.2.- Sea f : R3 → R2 definido por la matriz


   
à ! 1 −2
1 −1 1    
A=  −1  , w2 =  1 〉.
, y W = 〈 w1 =    
2 3 0
0 5

194 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces à ! à !
2 2
f (W ) = 〈A w1 , A w2 〉 = 〈 , 〉.
−1 −1
Observemos que {w1, w2 } es un conjunto linealmente independiente, pero {A w1, A w2 }
no lo es. Lo único que se garantiza es el carácter de sistema generador.

Cálculo de la imagen inversa

Sea f : V → V ′ un homomorfismo definido por una matriz A m×n res-


pecto de bases respectivas B y B ′ de V y V ′ , y W ′ = 〈w1′ , . . . , wr′ 〉 ⊂ V ′
un subespacio vectorial.

Calculamos unas ecuaciones implícitas de W ′ respecto de la base


B′.  ′ 
x1
′  .. 
W : M  .  = 0.

xm

Unas ecuaciones implícitas de f −1 (W ′ ) ⊂ V respecto de B son


 
x1
 . 
f −1 (W ′ ) : M · A  ..  = 0.
xn

La justificación es clara: un vector x′ ∈ W ′ si y solamente si M x′ = 0. Enton-


ces

x ∈ f −1 (W ′ ) ⇔ f (x) ∈ W ′
⇔ Ax ∈ W ′
⇔ M A x = 0.

Álgebra Lineal y Geometría 195


Depto. de Álgebra

Ejemplo 6.3.3.- Consideremos la aplicación lineal f : R3 → R4 definida por la


matriz  
2 6 −2
 
 1 3 3 
 
A= ,
 −3 −9 1 
 
1 3 2
y W ′ = 〈w1′ , w2′ 〉, donde
   
−2 0
   
 3   −3 
w1′ =   , w2′ = 
   
.
 1   1 
   
2 −2

Ecuaciones implícitas de W ′ (vea página 164).


 
1 0 0 0 1/2 1/4
 
¢ G-J   0 1 0 0 1/2 −1/4  ¡
¡ ′  ¢

w1 w2 I 4 −→  = E P .
 0 0 1 0 1 1/2 
 
0 0 0 1 0 −3/2

Entonces unas ecuaciones implícitas se obtienen con las dos últimas com-
ponentes del vector P x′ :
 
1/2x3′ + 1/4x4′
 
 1/2x ′ − 1/4x ′  ½ ′
′  3 4  ′ x1 +x3′ + 21 x4′ = 0,
Px =  ⇒W :
− 23 x4′ = 0.

 x ′ + x ′ + 1/2x ′  x2′
 1 3 4 

x2′ − 3/2x4′

Ecuaciones implícitas de f −1 (W ′ ). Si llamamos M a la matriz de coefi-


cientes del sistema lineal homogéneo anterior, tenemos
à !
µ
1 0 1 1 ¶ −1/2 −3/2 0
M= 2 y MA = .
0 1 0 − 32 −1/2 −3/2 0

Unas ecuaciones implícitas de f −1 (W ′ ) son


½ 1
− 2 x1 − 23 x2 = 0,
− 12 x1 − 23 x2 = 0

196 Álgebra Lineal y Geometría


Depto. de Álgebra

Observemos que no se obtiene necesariamente un conjunto independiente


de ecuaciones.

En un método anterior hemos visto cómo se calcula la imagen de un subes-


pacio vectorial cualquiera. De ahí inferimos el siguiente procedimiento para el
cálculo de la imagen de un homomorfismo.

Cálculo de la imagen y núcleo de un homomorfismo

Sea f : V → V ′ un homomorfismo definido por una matriz A m×n res-


pecto de bases respectivas B y B ′ de V y V ′ . Entonces

im( f ) = 〈A ∗1 , . . . , A ∗n 〉 = Col(A) y una base de im( f ) está formada


por las columnas básicas de A.

ker( f ) = null(A) y una base de ker( f ) está formada por las solu-
ciones hi obtenidas del método (1.9).

Las coordenadas de los vectores de la base B respecto a ella misma son los
vectores e1 , . . . , en , por lo que la imagen del homomorfismo está generada por
los vectores A ei , i = 1, . . . , n, es decir, las columnas de la matriz A.

Ejemplo 6.3.4.- Consideremos la aplicación lineal f : R3 → R4 definida por la


matriz  
2 6 −2
 
 1 3 3 
 
A= .
 −3 −9 1 
 
1 3 2
Entonces      
2 6 −2
1 3 3
     
     
im( f ) = 〈 , , 〉.
 −3   −9   1 
1 3 2

Álgebra Lineal y Geometría 197


Depto. de Álgebra

Como  
2 6 −2
 
 0 0 8 
Gauss  
A −−−→ E A =  ,
 0 0 0 
 
0 0 0
el conjunto anterior es generador, pero no linealmente independiente. Una ba-
se de im( f ) está formada por {A ∗1 , A ∗3 }. A partir de
 
−3
null(A) = 〈h1 =  1 〉,
0

una base de ker( f ) es {h1 }.

Fórmula de la dimensión de homomorfismos

Sea f : V → V ′ un homomorfismo entre K-espacios vectoriales, con


dimV finita. Entonces

dimV = dim[ker( f )] + dim[im( f )].

P RUEBA : Sea n = dimV y s = dim[ker( f )]. Como ker( f ) es un subespacio de V ,


es de dimensión finita y s ≤ n. Sea B0 = {v1 , . . . , vs } base de ker( f ) y la extende-
mos a una base {v1, . . . , vs , vs+1 , . . . , vn } de V . Vamos a probar que { f (vs+1 ), . . . , f (vn )}
es base de im( f ), con lo que tendremos el resultado.
Veamos en primer lugar la independencia lineal. Sean α1 , . . . , αn ∈ K tales
que
αs+1 f (vs+1 ) + · · · + αn f (vn ) = 0.
Esta igualdad se puede escribir como

f (αs+1 vs+1 +· · ·+αn vn ) = 0, que es equivalente a αs+1 vs+1 +· · ·+αn vn ∈ ker( f ).

Por tanto,

αs+1 vs+1 + · · · + αn vn = β1 v1 + · · · + βs vs para ciertos escalares β1 , . . . , βs ∈ K.

198 Álgebra Lineal y Geometría


Depto. de Álgebra

Como {v1 , . . . , vn } es una base de V , entonces αs+1 = . . . = αn = 0 (también los


β j ) y hemos probado la independencia lineal.
Ahora probamos que im( f ) = 〈 f (vs+1 ), . . . , f (vn )〉. Sea w ∈ im( f ). Por de-
finición, existe v ∈ V tal que f (v ) = w y podemos, entonces, encontrar unos
escalares λ1 , . . . , λn tales que

s
X n
X
v = λ1 v1 + · · · + λn vn = λi vi + λi vi .
i =1 i =s+1

Aplicamos f a ambos lados de la igualdad, y tenemos en cuenta que f (vi ) = 0


para i = 1, . . . , s. Nos queda

s
X n
X n
X
w = f (v ) = λi f (vi ) + λi f (vi ) = λi f (vi ) ∈ 〈 f (vs+1 ), . . . , f (vn )〉.
i =1 i =s+1 i =s+1
| {z }
=0

Nota 6.3.1. Sea f : V → V ′ un homomorfismo definido por una matriz A m×n


respecto de bases respectivas B y B ′ de V y V ′ . El número de columnas lineal-
mente independiente en una matriz coincide con su rango. De aquí deducimos
que
dim[im( f )] = rango MB,B ′ ( f ) = rango(A).

Por otro lado, el método de cálculo de la imagen inversa de un subespacio


nos permite decir que una ecuaciones implícitas de ker( f ) son A x = 0. Además,

dim[ker( f )] = dimV − rango(A).

Los dos enunciados se combinan en que dimV = n = r + (n − r ) = dim[im( f )] +


dim[ker( f )], que es el teorema anterior. Sin embargo, aunque el resultado es el
mismo, hay una pequeña diferencia en las hipótesis.

6.4. Homomorfismos inyectivos y sobreyectivos


Los homomorfismos entre espacios vectoriales, en tanto que aplicaciones,
pueden ser inyectivos, sobreyectivos, ambas cosas (es decir, biyectivos) o nin-
guno de ellos. En esta sección veremos la relación entre estos conceptos y los
homomorfismos.

Álgebra Lineal y Geometría 199


Depto. de Álgebra

Monomorfismos, epimorfismos e isomorfismos

Un homomorfismo f : V → V ′ se denomina

monomorfismo si la aplicación f es inyectiva,

epimorfismo si la aplicación f es sobreyectiva,

isomorfismo si la aplicación f es biyectiva.

Si existe un isomorfismo entre dos espacios vectoriales V y V ′ decimos que


son isomorfos.

Ejemplo 6.4.1.- Algunos ejemplos conocidos de homomorfismos inyectivos,


sobreyectivos y biyectivos son los siguientes:

1. Si W ⊂ V es un subespacio vectorial, la inclusión i : W → V , i (v ) = v , es


un monomorfismo, y la proyección natural p : V → V /W , p(v ) = v + W ,
es un epimorfismo.

2. La identidad idV : V → V , idV (v ) = v , es un isomorfismo.

3. Sea V un espacio vectorial de dimensión n, y B una base. La aplicación


de coordenadas
c B : V → Kn

que a cada vector de V le hace corresponder sus coordenadas respecto


de la base B es un isomorfismo (pág. 143)

Por definición, un homomorfismo f es sobreyectivo si y solamente si la


imagen es el total, im( f ) = V ′ . El carácter inyectivo de un homomorfismos está
determinado por su núcleo.

200 Álgebra Lineal y Geometría


Depto. de Álgebra

Caracterización de homomorfismos inyectivos y sobreyectivos

Sea f : V → V ′ un homomorfismo de espacios vectoriales sobre un mis-


mo cuerpo K.

f es sobreyectivo si y solamente si im( f ) = V ′ .

f es inyectivo si y solamente si ker( f ) = 0.

P RUEBA : La caracterización del carácter sobreyectivo ya la tenemos. Suponga-


mos que f es inyectivo, y tomemos v ∈ ker( f ). Entonces f (v ) = 0V ′ = f (0V ).
Por el carácter inyectivo, v = 0V , y tenemos la implicación. Recíprocamente,
supongamos que ker( f ) = 0V . Sean u, v ∈ V tales que f (u) = f (v ). Entonces
0V ′ = f (u) − f (v ) = f (u − v ), y u − v ∈ ker( f ) = 0V , de donde u = v . 

En espacios vectoriales de dimensión finita podemos relacionar la inyecti-


vidad y sobreyectividad con una matriz.

Caracterización de homomorfismos inyectivos y sobreyectivos en


dimensión finita

Sea f : V → V ′ un homomorfismo definido por una matriz A m×n res-


pecto de bases respectivas B y B ′ de V y V ′ .

f es inyectivo si y solamente si rango(A) = n.

f es sobreyectivo si y solamente si rango(A) = m.

f es biyectivo si y solamente si m = n y det(A) 6= 0.

Si dimV = dimV ′ , son equivalentes:

1. f es inyectivo.
2. f es sobreyectivo.
3. f es biyectivo.

P RUEBA :

La fórmula de la dimensión nos dice que

dimV = n = dim[im( f )] + dim[ker( f )].

Álgebra Lineal y Geometría 201


Depto. de Álgebra

Por el apartado anterior, f es inyectivo si y solamente si dim[ker( f )] = 0,


que es equivalente a dim[im( f )] = n, que es el rango de la matriz A.

f es sobreyectivo si y solamente si el espacio imagen es todo V ′ , es decir,


dim[im( f )] = dimV ′ = m.

Si f es biyectivo, entonces n = dimV = dim[im( f )]+dim[ker( f )] = dimV ′ +


0 = m. La matriz A es cuadrada, y rango(A) = n, por lo que es no singular.
Recíprocamente, si A es cuadrada y con determinante no nulo, entonces
el sistema lineal homogéneo A x = 0 tiene solución única, que es la tri-
vial. Por tanto, f es inyectivo, y entonces dim[im( f )] = n = m, por lo que
es sobreyectivo.

Se aplica la fórmula de la dimensión y los apartados anteriores.




Ejemplo 6.4.2.- Vamos a considerar ejemplos de los diferentes tipos.


1. Sea f : R4 → R3 dada por la matriz
 
1 0 0 0
A =  0 1 0 0 .
0 0 0 0
Entonces rango(A) = 2, por lo que f no es sobreyectiva. Una aplicación
lineal de R4 en R3 nunca puede ser inyectiva.

2. Sea f : R2 → R4 dada por la matriz


 
1 0
2 0
 
 
A = .
 −1 0 
3 0

Ahora rango(A) = 1, y tampoco es inyectiva. Una aplicación lineal de R2


en R4 no puede ser sobreyectiva.

3. Sea f : R3 → R3 dada por la matriz


 
−1 2 0
A =  0 −1 1  .
−1 3 4
Entonces det(A) 6= 0, por lo que f es biyectiva.

202 Álgebra Lineal y Geometría


Depto. de Álgebra

Nota 6.4.1. Dado un homomorfismo f : V → V ′ entre espacios vectoriales de


dimensión finita, dimV = n y dimV ′ = m, los resultados de esta sección de-
muestran que:
Si n < m, entonces f nunca es sobreyectivo.

Si n > m, entonces f nunca es inyectivo.

Si n = m, entonces f es inyectivo si y solamente si es sobreyectivo.


En espacios vectoriales de dimensión infinita lo anterior no es válido. Por ejem-
plo, sean V = R[x] y V ′ el conjunto de sucesiones infinitas {an } de números
reales, con la adición componente a componente y producto por números reales.
Ambos son R-espacios vectoriales de dimensión no finita. La aplicación que a
un polinomio p(x) = a0 +a1 x+· · ·+ar x r le asocia la sucesión {a0, a1 , . . . , ar , 0, 0, . . .}
es un homomorfismo inyectivo, pero no es sobreyectivo.

Endomorfismos y automorfismos

Si f : V → V es un homomorfismo con los mismos espacios vec-


toriales en el dominio y la imagen, decimos que f es un endo-
morfismo.

Si f es un endomorfismo biyectivo, decimos que es un automor-


fismo.

Ejemplo 6.4.3.- La aplicación f : R3 → R3 dada por la matriz


 
1 −2 3
 
A=  0 3 −3 

0 1 −1
es un endomorfismo, pero no es un automorfismo, porque det(A) = 0. Sin em-
bargo, la aplicación g : R3 → R3 definida por la matriz
 
1 −2 3
 
B = 0 3 −3 

0 1 0

Álgebra Lineal y Geometría 203


Depto. de Álgebra

es un automorfismo.

Transformación de un conjunto generador o independiente

Sea f : V → V ′ un homomorfismo entre espacios vectoriales,


S = {u1 , . . . , ur } ⊂ V un conjunto linealmente independiente, G =
{v1 , . . . , vs } ⊂ V un sistema generador y B = {w1 , . . . , wn } una base de
V.

Si f es inyectiva (monomorfismo), entonces f (S) =


{ f (u1 ), . . . , f (ur )} ⊂ V ′ es un conjunto linealmente indepen-
diente.

Si f es sobreyectiva (epimorfismo), entonces f (G) =


{ f (v1 ), . . . , f (vs )} ⊂ V ′ es un sistema generador.

Si f es biyectiva (isomorfismo), entonces f (B) =


{ f (w1 ), . . . , f (wn )} es base de V ′ .

P RUEBA :

Sean α1 , . . . , αr ∈ K escalares tales que

α1 f (u1 ) + · · · + αr f (ur ) = 0V ′ .

Hay que demostrar que todos los coeficientes son nulos. Como f es un
homomorfismo, tenemos que

f (α1 u1 + · · · + αr vr ) = α1 f (u1 ) + · · · + αr f (ur ) = 0V ′ = f (0V ).

Al ser f inyectivo, α1 u1 + · · · + αr ur = 0V y, como S es linealmente inde-


pendiente, todos los coeficientes son cero: α1 = · · · = αr = 0.

Ya vimos en la sección anterior que f (G) ⊂ im( f ) es un sistema de gene-


radores. Por ser f sobreyectivo, im( f ) = V ′ , y tenemos el resultado.

Es consecuencia inmediata de los apartados anteriores.

204 Álgebra Lineal y Geometría


Depto. de Álgebra

Composición de isomorfismos

Si f : V → V ′ es un isomorfismo, entonces la aplicación inversa


f −1 : V ′ → V es un isomorfismo.

Si f : V → V ′ , g : V ′ → V ′′ son isomorfismos, entonces la compo-


sición g ◦ f : V → V ′′ es un isomorfismo.

P RUEBA :

Como f −1 es biyectiva, basta probar que f −1 es un homomorfismo. Sean


v1′ , v2′ ∈ V ′ y α ∈ K. Existen v1 , v2 ∈ V tales que f (v1 ) = v1′ , f (v2 ) = v2′ , y

f (v1 ) + f (v2 ) = f (v1 + v2 ) = v1′ + v2′ ,

de donde, por la inyectividad de f ,

f −1 (v1′ + v2′ ) = v1 + v2 = f −1 (v1′ ) + f −1 (v2′ ).

Análogamente, f (αv1 ) = α f (v1 ) = αv1′ , y entonces

f −1 (αv1′ ) = αv1 = α f −1 (v1′ ).

Es conocido que la composición de aplicaciones biyectivas es biyectiva.


En la primera sección vimos que la composición de homomorfismos es
un homomorfismo; por tanto la composición de isomorfismos es un iso-
morfismo.

Función inversa de un isomorfismo

Sea f : V → V ′ un isomorfismo definido por una matriz A n×n respecto


de bases respectivas B y B ′ de V y V ′ . Entonces f −1 : V ′ → V tiene
como matriz a A −1 respecto de las mismas bases, esto es,

MB ′ ,B ( f −1 ) = MB,B ′ ( f )−1 .

Álgebra Lineal y Geometría 205


Depto. de Álgebra

P RUEBA : Usando la definición y las propiedades elementales de la matriz de un


homomorfismo obtenemos las ecuaciones siguientes, que demuestran la tesis
del enunciado:

MB ′ ,B ( f −1 )MB,B ′ ( f ) = MB,B ( f −1 ◦ f )
= MB,B (idV )
= In ,

MB,B ′ ( f )MB ′ ,B ( f −1 ) = MB ′ ,B ′ ( f ◦ f −1 )
= MB ′ ,B ′ (idV ′ )
= In .

Ejemplo 6.4.4.- Consideremos el homomorfismo f : R3 → R3 definido por la


matriz  
−1 2 0
A =  0 −1 1  .
−1 3 4
Vimos antes que es un isomorfismo mediante el cálculo del determinante. Con
la forma escalonada reducida por filas podemos probarlo también, y a la vez
obtener la matriz de f −1 . En efecto
1 0 0 − 57 − 58 52
 
¡ ¢ G-J
A I3 −→  0 1 0 − 51 − 54 51 
0 0 1 − 51 5
1
5
1
¡ ¢
= I 3 A −1 .

De esta forma tenemos probado el carácter no singular de A, y en la parte de-


recha aparece su matriz inversa.

Clasificación de los espacios vectoriales de dimensión finita

Dos espacios vectoriales V y V ′ de dimensión finita son isomorfos si y


solamente si dimV = dimV ′ .

206 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Si V y V ′ son isomorfos, sabemos que tienen la misma dimensión.


Veamos el recíproco. Supongamos que dimV = dimV ′ = n y consideremos ba-
ses respectivas

B = {u1 , . . . , un }, B ′ = {u′1 , . . . , u′n },

que, por hipótesis, tienen el mismo número de elementos. Por el teorema de


existencia y unicidad de homomorfismos (pág. 186), existe un único homomor-
fismo f : V → V ′ definido por f (ui ) = u′i , para i = 1, . . ., n. Entonces MB,B ′ ( f ) =
I n , y f es isomorfismo. 

Otra forma de ver lo anterior es a través de la composición de isomorfismos.


Si fijamos bases respectivas B y B ′ en V y V ′ , entonces tenemos las aplicacio-
nes Consideremos las aplicaciones de coordenadas

c B : V → Kn , c B ′ : V ′ → Kn ,

que son isomorfismos.

V ❈
−1
❈ ❈❈ cB ◦cB ′
cB ≃ ❈❈
❈❈
 cB ′ !
Kn o ≃ V′

−1 n ′ −1 ′
Entonces, tanto la inversa cB ′ : K → V como la composición c B ′ ◦ c B : V → V
son isomorfismos, luego V y V ′ son isomorfos.

6.5. El espacio vectorial de los homomorfismos

Con los homomorfismos, aparte de componerlos, podemos realizar otras


dos operaciones, que dotará de estructura de espacio vectorial a un nuevo con-
junto.

Álgebra Lineal y Geometría 207


Depto. de Álgebra

Operaciones con homomorfismos

Sean f , g : V → V ′ homomorfismos de espacios vectoriales, y λ ∈ K.


Definimos

El homomorfismo suma f + g : V → V ′ como

( f + g )(v ) = f (v ) + g (v ).

El producto por un escalar λ · f : V → V ′ como

(λ · f )(v ) = λ f (v ).

Estas operaciones están definidas en el conjunto Hom(V,V ′ ) de los ho-


momorfismos de V en V ′ .

Para que esta definición sea correcta, debemos probar que estas nuevas
aplicaciones son, efectivamente, homomorfismos. Tomemos vectores v1 , v2 ∈
V y un escalar α ∈ K. Entonces

( f + g )(v1 + v2 ) = f (v1 + v2 ) + g (v1 + v2 )


= f (v1 ) + f (v2 ) + g (v1 ) + g (v2 )
= ( f + g )(v1 ) + ( f + g )(v2 ),

( f + g )(αv1 ) = f (αv1 ) + g (αv1 )


= α f (v1 ) + αg (v1 )
= α( f (v1 ) + g (v1 )) = α( f + g )(v1 ).

Por otro lado,

(λ · f )(v1 + v2 ) = λ f (v1 + v2 ) = λ( f (v1 + f (v2 )


= λ f (v1 ) + λ f (v2 ) = (λ · f )(v1 ) + (λ · f )(v2 ),

(λ · f )(αv1 ) = λ f (αv1 ) = λ(α f (v1 )) = α(λ f (v1 )) = α(λ · f )(v1 ).

208 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 6.5.1.- Consideremos los homomorfismos f , g : R4 → R2 dados por


las matrices respectivas
µ ¶ µ ¶
1 −2 0 −3 0 1 1 0
A= ,B = .
2 −1 0 −1 0 0 0 0

Tenemos entonces que


µ ¶ µ ¶ µ ¶
1 0 1
(f + g )(e1 ) = f (e1 ) + g (e1 ) = + = ,
2 0 2
µ ¶ µ ¶ µ ¶
−2 1 −1
(f + g )(e2 ) = f (e2 ) + g (e2 ) = + = ,
−1 0 −1
µ ¶ µ ¶ µ ¶
0 1 1
(f + g )(e3 ) = f (e3 ) + g (e3 ) = + = ,
0 0 0
µ ¶ µ ¶ µ ¶
−3 0 −3
(f + g )(e4 ) = f (e4 ) + g (e4 ) = + = .
−1 0 −1

Por tanto, la matriz de f + g es A + B. Algo análogo ocurre con λ · f , para cual-


quier λ ∈ K.

Hom(V,V ′ ) como espacio vectorial

El conjunto Hom(V,V ′ ), con las operaciones de suma de homomorfis-


mos y producto por un escalar, tiene estructura de espacio vectorial.

P RUEBA : Ya hemos visto que las operaciones son internas. Vamos a repasar
las propiedades que definen esta estructura.

Hom(V,V ′ ) es un grupo abeliano con respecto a la suma. La operación es


conmutativa, asociativa, y el elemento neutro es la aplicación constante
igual a 0V ′ .

El producto por un escalar verifica:

• (λ + µ) · f = (λ · f ) + (µ · f ). Sea v ∈ V . Se tiene que

((λ + µ) · f )(v ) = (λ + µ) f (v ) = λ f (v ) + µ f (v )
= (λ · f )(v ) + (µ · f )(v ) = (λ · f + µ · f )(v ).

Álgebra Lineal y Geometría 209


Depto. de Álgebra

• λ · ( f + g ) = (λ · f ) + (λ · f ). Sea v ∈ V . Entonces

(λ · ( f + g ))(v ) = λ( f + g )(v ) = λ( f (v ) + g (v )) = λ f (v ) + λg (v )
= (λ · f )(v ) + (λ · g )(v ) = (λ · f + λ · g )(v ).

• λ · (µ · f ) = (λµ) · f . Si v ∈ V , entonces

(λ · (µ · f ))(v ) = λ(µ · f )(v ) = λ(µ f (v )) = (λµ) f (v )


= ((λµ) · f )(v ).

• 1 · f = f . Inmediato.

Nota 6.5.1. El conjunto de endomorfismos de V es Hom(V,V ), notado como


End(V ) tiene estructura de espacio vectorial. El conjunto de automorfismos,
notado Aut(V ), no lo es, pues no contiene al homomorfismo nulo.

Interpretación matricial de las operaciones + y ·

Sean f , g : V → V ′ homomorfismos definidos, respectivamente, por las


matrices A m×n , B m×n , con respecto a las bases B de V y B ′ de V ′ . To-
memos un escalar λ ∈ K. Entonces

MB,B ′ ( f + g ) = MB,B ′ ( f ) + MB,B ′ (g ) = A + B,


MB,B ′ (λ · f ) = λMB,B ′ ( f ) = λA.

P RUEBA : Estas ecuaciones son consecuencia inmediata de la definición de


la matriz de un homomorfismo y de la linealidad de la asignación de coorde-
nadas. En efecto, si B = {v1 , . . . , vn } entonces
¡ ¢
MB,B ′ ( f + g ) = ( f + g )(v1 )B ′ · · · ( f + g )(vn )B ′
¡ ¢
= f (v1 )B ′ + g (v1 )B ′ · · · f (vn )B ′ + g (vn )B ′
¡ ¢ ¡ ¢
= f (v1 )B ′ · · · f (vn )B ′ + g (v1 )B ′ · · · g (vn )B ′
= MB,B ′ ( f ) + MB,B ′ (g ),

¡ ¢
MB,B ′ (α · f ) = (α · f )(v1 )B ′ · · · (α · f )(vn )B ′
¡ ¢
= α f (v1 )B ′ · · · α f (vn )B ′
= αMB,B ′ ( f ).

210 Álgebra Lineal y Geometría


Depto. de Álgebra

La siguiente cuestión es determinar la dimensión del espacio vectorial Hom(V,V ′ )


en función de las dimensiones de V y V ′ .

Dimensión de Hom(V,V ′ )

Sean V y V ′ espacios vectoriales de dimensión finita, con dimV =


n, dimV ′ = m y bases respectivas B ⊂ V, B ′ ⊂ V ′ . La aplicación MB,B ′
que asigna a cada homomorfismo de V en V ′ su matriz respecto de es-
tas bases es un isomorfismo,

MB,B ′ : Hom(V,V ′ ) −→ M (m × n, K)
f 7→ MB,B ′ ( f ).

En particular dim Hom(V,V ′ ) = mn.

P RUEBA : La linealidad de MB,B ′ se ha demostrado en la proposición ante-


rior, así que solamente queda por ver que el homomorfismo MB,B ′ es biyectivo.
Sean B = {v1 , . . . , vn } y B ′ = {v1′ , . . . , vm

} las bases del enunciado. Sabemos
que un homomorfismo está unívocamente determinado por su matriz, por tan-
to MB,B ′ es inyectiva. La aplicación MB,B ′ es sobreyectiva, ya que dada una
matriz A = (ai j ) ∈ M (m × n, K) el único homomorfismo f : V → V ′ que satisfa-
ce f (vi ) = a1i v1′ + · · · + ami vm

para todo 1 ≤ i ≤ n tiene matriz MB,B ′ ( f ) = A.
La conclusión final se deduce de la igualdad dimM (m × n, K) = mn. 

6.6. Teoremas de isomorfía

El cociente de espacios vectoriales posee la siguiente propiedad universal.

Álgebra Lineal y Geometría 211


Depto. de Álgebra

Primer teorema de isomorfía

Sea f : V → V ′ un homomorfismo de espacios vectoriales, y W ⊂ ker( f )


un subespacio vectorial.

La aplicación

f¯ : V /W −→ V ′ ,
v + W 7→ f (v ),

está bien definida y es un homomorfismo. Es más, si W = ker( f )


entonces f¯ es inyectivo.

La aplicación

f¯ : V / ker( f ) −→ im( f ),
v + ker( f ) 7→ f (v ),

está bien definida y es un isomorfismo.

P RUEBA : Consideremos la aplicación

f¯ : V /W −→ V ′ ,
v + W 7→ f (v ).

Veamos que está bien definida. Si v +W = v ′ +W es porque v − v ′ ∈ W ⊂ ker( f ).


En particular f (v − v ′ ) = 0. Como f (v − v ′ ) = f (v )− f (v ′ ) deducimos que f (v ) =
f (v ′ ), por tanto la definición de f¯(v +W ) dada en el enunciado no depende de
la elección del representante de la clase v + ker( f ).
La prueba de que f¯ preserva la suma de vectores y el producto por escalares
es obvia, ya que f es un homomorfismo y f¯ se define a partir de f .
Supongamos que W = ker( f ). Sea v + W ∈ ker( f¯). Como, por definición,
¯
f (v + W ) = f (v ), lo anterior equivale a decir que f (v ) = 0, es decir, v ∈ ker( f ) =
W . Por tanto v + W = 0 + W . Esto demuestra que en este caso ker( f¯) = {0 + W },
esto es, f¯ es inyectivo.
El homomorfismo f se puede ver como la composición del epimorfismo
g : V → im( f ), g (v ) = f (v ), con la inclusión i : im( f ) → V ′ , i (v ′ ) = v ′ , f = i ◦ g .
Obviamente ker( f ) = ker(g ), así que tomando W = ker(g ), el apartado anterior
demuestra que f¯ = ḡ : V / ker( f ) → im( f ) es un monomorfismo.
Veamos que f¯ es sobreyectivo. Dado v ′ ∈ im( f ), por definición de imagen
existe v ∈ V tal que f (v ) = v ′ , por tanto f¯(v + ker( f )) = v ′ .

212 Álgebra Lineal y Geometría


Depto. de Álgebra

Dado f : V → V ′ , tenemos así un diagrama conmutativo de la forma

f
V /V′
O
p i
 f¯
V / ker( f ) ≃
/ im( f )

donde p : V → V / ker( f ) es la proyección canónica y i : im( f ) → V ′ es la inclu-


sión.
Nota 6.6.1. En el caso de dimensión finita, el diagrama anterior nos permite
calcular unas bases especiales de V y V ′ con respecto a las cuales la matriz
de f es muy sencilla. Sean n = dimV, m = dimV ′ y r = dim[im( f )]. Entonces
dim[ker( f )] = n −r . Sea B0 = {ur +1 , . . . , un } una base de ker( f ). Existen (y pode-
mos calcular) vectores u1, . . . , ur tales que el conjunto B = {u1 , . . . , ur , ur +1 , . . . , un }
es base de V . Se trata de una ampliación, pero colocamos los vectores de parti-
da al final de la base. Se tiene entonces que

El conjunto de clases B1 = {u1 + ker( f ), . . . , ur + ker( f )} es una base del


espacio cociente V / ker( f ) (pág. 178).

El conjunto B2 = { f (u1 ), . . . , f (ur )} es base de im( f ) (fórmula de la di-


mensión de homomorfismos, pág. 198).

Ahora construimos una ampliación del conjunto B2 a una base de V ′ , que de-
nominamos B ′ = { f (u1 ), . . . , f (ur ), wr +1 , . . . , wm−r }. Vamos a calcular las matri-
ces de los homomorfismos del diagrama con respecto a estas bases.
La matriz de f respecto a B y B ′ es, por definición,
¡ ¢
MB,B ′ ( f ) = [ f (u1 )]B ′ . . . [ f (ur )]B ′ [ f (ur +1 )]B ′ . . . [ f (un )]B ′
 
1 ... 0 0 ... 0
 .. . . . . . . 
 . . .. .. . . ..  µ ¶
  Ir Or ×(n−r )
=  0 ... 1 0 ... 0  =
  = Nr .
 .. . . .. .. . . ..  O(m−r )×r O(m−r )×(n−r ) m×n
 . . . . . . 
0 ...0 0 0 ... 0

Por tanto, existen bases de V y V ′ respecto de las cuales el homomorfismo f


tiene una matriz de la forma Nr . Construyamos, por completar, las matrices
respecto de estas bases de los restantes homomorfismos que intervienen en el
diagrama.

Álgebra Lineal y Geometría 213


Depto. de Álgebra

La matriz de la proyección p respecto a B y B1 es


¡ ¢
MB,B1 (p) = [p(u1 )]B1 . . . [p(ur )]B1 [p(ur +1 )]B1 . . . [p(un )]B1
¡
= [u1 + ker( f )]B1 . . . [ur + ker( f )]B1
¢
[ur +1 + ker( f )]B1 . . . [un + ker( f )]B1
 
1 ... 0 0 ... 0
 . . . .  ¡
=  .. . . . .. .. . . . ..  = I r O(n−r )×(n−r ) (n−r )×n .
¢

0 ... 1 0 ... 0

La matriz del isomorfismo f¯ respecto a B1 y B2 es

MB1 ,B2 ( f¯) = [ f¯(u1 + ker( f ))]B2 . . . [ f¯(ur + ker( f ))]B2


¡ ¢
¡ ¢
= [ f (u1 )]B2 . . . [ f (ur )]B2 = I r .

La matriz de la inclusión i respecto a B2 y B ′ es


¡ ¢
MB2 ,B ′ (i ) = [i ( f (u1 ))]B ′ . . . [i ( f (ur ))]B ′
¡ ¢
= [ f (u1 )]B ′ . . . [ f (ur )]B ′
 
1 ... 0
 .. . . .. 
 . . . 
  µ ¶
 0 ... 1  Ir
=

 = O(m−r )×r
 .
 0 ... 0  m×r
 . .
 .. . . ... 

0 ... 0

Ejemplo 6.6.1.- Sean V = R4 ,V ′ = R3 y consideremos el homomorfismo f :


V → V ′ definido, respecto a la base estándar de cada espacio, por la matriz
 
1 2 3 4
A =  2 4 6 7 .
1 2 3 6

Mediante el procedimiento descrito, vamos a calcular bases de V y V ′ respecto


de las cuales la matriz de f es de la forma Nr , con r = rango(A). Necesitamos,
en primer lugar, una base de ker( f ), que implica el cálculo de null(A):
   
1 2 3 4 1 2 3 0
 2 4 6 7  G-J
   
−→ 0 0 0 1 .


1 2 3 6 0 0 0 0

214 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces    
−2 −3
   
 1   0 
   
null(A) = 〈u3 =  ,u =  〉.
 0  4  1 
   
0 0
Ampliamos a una base de V con u1 = e1 , u2 = e4 y llamemos B = {u1 , u2 , u3 , u4 }.
Entonces { f (u1 ), f (u2 )} es una base de im( f ) (son las columnas básicas de A) y
la ampliamos a una base de V ′ con w3 = e3 . Si B ′ = { f (u1 ), f (u2 ), w3 }, entonces
 
1 0 0 0
MB,B ′ ( f ) =  0 1 0 0  .
0 0 0 0

Ejemplo 6.6.2.- El primer teorema de isomorfía permite calcular una factori-


zación de rango pleno de una matriz A, esto es, si rango(A m×n ) = r podemos
expresar A en la forma

A m×n = D m×r B r ×n , donde rango(B) = r = rango(D).

Sabemos que si fijamos las bases estándar S en Kn y S ′ en Km , la matriz A


induce una aplicación lineal f : Kn → Km dada por f (u) = A · u y la matriz
de f respecto de estas bases es A. El primer teorema de isomorfía da lugar al
diagrama
f
Kn / Km
O
p i
 f¯
Kn / ker f / im( f )

Sean vi 1 , . . . , vi r las columnas básicas de A, que forman una base B2 de im( f ).


Tomemos los vectores ei 1 , . . . , ei r de la base estándar de Kn tales que A ei j =
vi j , j = 1, . . . , r . Probamos en primer lugar que B1 = {(ei 1 +ker( f ), . . . , ei r +ker( f ))}
forman una base de Kn / ker( f ). Como dim Kn / ker( f ) = r , basta con probar que
forman un conjunto linealmente independiente. Si

α1 (ei 1 + ker( f )) + · · · + αr (ei r + ker( f )) = 0 + ker( f ),

Álgebra Lineal y Geometría 215


Depto. de Álgebra

Pr
entonces j =1 α j ei j ∈ ker( f ), de donde
r
X r
X r
X
0= A α j ei j = α j A ei j = α j vi j , porque A ei j es la columna i j .
j =1 j =1 j =1

Como las columnas básicas de A son independientes, todos los coeficientes α j


son nulos.
Llamemos B a la matriz del homomorfismo p respecto de las bases S de
K y B1 de Kn / ker( f ). Es una matriz de orden r × n y como la aplicación p es
n

sobreyectiva, B es de rango r .
Llamemos D a la matriz del homomorfismo i respecto de las bases B2 de
im( f ) y S ′ de Km . Es una matriz de orden m × r y como la aplicación i es in-
yectiva, D es de rango r .
Por otra parte, por la construcción de las bases B1 y B2 , se tiene que

MB1 ,B2 ( f¯) = I r ×r .

Como f = i ◦ f¯ ◦ p, esta igualdad se traslada a estas matrices como A = D I B =


D · B, que es la factorización buscada.

Segundo teorema de isomorfía

Sean W1 ,W2 subespacios vectoriales de V . Entonces (W1 + W2 )/W2 ≃


W1 /(W1 ∩ W2 ).

P RUEBA : Consideremos la aplicación

f : W1 → (W1 + W2 )/W2
w1 7→ w1 + W2 .
Es fácil ver que f es un homomorfismo de espacios vectoriales. Si w + W2 ∈
(W1 + W2 )/W2 , entonces existen v1 ∈ W1 , v2 ∈ W2 tales que w = v1 + v2 , por
lo que w + W2 = v1 + W2 (su diferencia es v2 , que está en W2 ). Por tanto, f es
sobreyectiva. Su núcleo viene dado por

ker f = {w1 ∈ W1 | w1 ∈ W2 } = W1 ∩ W2 .

Por el primer teorema de isomorfía, nos queda que W1/(W1 ∩W2 ) ≃ (W1 +W2 )/W2 .


216 Álgebra Lineal y Geometría


Depto. de Álgebra

Tercer teorema de isomorfía

Sean W1 ,W2 subespacios vectoriales de V , con W1 ⊂ W2 . Entonces


(V /W1 )/(W2 /W1 ) ≃ V /W2 .

P RUEBA : En primer lugar, observemos que W2 /W1 es subespacio vectorial de


V /W1 , pues las operaciones son internas. Consideremos la aplicación
f : V /W1 → V /W2
v + W1 7→ v + W2 .
Esta aplicación está bien definida, pues si v + W1 = v ′ + W1 , entonces v − v ′ ∈
W1 ⊂ W2 , luego v + W2 = v ′ + W2 . Es fácil ver que es un homomorfismo de es-
pacios vectoriales. Si v + W2 ∈ V /W2 , podemos tomar la clase v + W1 ∈ V /W1 ,
que se aplica mediante f en v +W2 . Por tanto, f es sobreyectiva. Calculemos su
núcleo:
ker f = {v + W1 | v + W2 = 0 + W2 } = {v + W1 | v ∈ W2 } = W2 /W1 .
Por el primer teorema de isomorfía,
(V /W1 )/(W2 /W1 ) ≃ V /W2 .


Teorema de isomorfismo de retículos

Sea W un subespacio vectorial de V . Existe una biyección entre los


subespacios vectoriales de V que contienen a W y los subespacios vec-
toriales de V /W . Además, si U1 ,U2 ⊂ V son subespacios vectoriales que
contienen a W , entonces

U1 /W +U2 /W = (U1 +U2 )/W,U1 /W ∩U2 /W = (U1 ∩U2 )/W.

P RUEBA : Llamemos
A = {U ⊂ V | U es un subespacio vectorial tal que W ⊂ U }
y sea B el conjunto de subespacios vectoriales de V /W . Definimos la aplica-
ción Φ : A → B que asocia a cada U ∈ A el subespacio U /W . Esto tiene sentido
porque W ⊂ U . Vamos a probar que Φ es una aplicación biyectiva.

Álgebra Lineal y Geometría 217


Depto. de Álgebra

Φ es inyectiva. Sean U1 ,U2 subespacios vectoriales de V que contienen a


W , tales que U1 /W = U2 /W . Sea u1 ∈ U1 . Entonces existe u2 ∈ U2 tal que
u1 +W = u2 +W , de donde u1 − u2 ∈ W ⊂ U2 . Entonces existe u′2 ∈ U2 con
u1 = u2 + u′2 ∈ U2 , y hemos probado que U1 ⊂ U2 . Por simetría, se tiene
que U2 ⊂ U1 , y hemos probado que U1 = U2 .

Φ es sobreyectiva. Sea Ũ un subespacio vectorial de V /W . Definimos el


conjunto U = {v ∈ V | v +W ∈ Ũ }. Vamos a probar que U es un subespacio
vectorial de V que contiene a W . Sean v1 , v2 ∈ U , y α ∈ K. Entonces

• v1 + v2 ∈ U , porque (v1 + v2 ) + W = (v1 + W ) + (v2 + W ) ∈ Ũ ,


• αv1 ∈ U , porque (αv1 ) + W = α(v1 + W ) ∈ Ũ .

Por otro lado, si w ∈ W , entonces w + W = 0 + W ∈ Ũ , por lo que W ⊂ U .


Además, es claro que Φ(U ) = Ũ .

Tenemos así la correspondencia biyectiva, y podemos identificar todo subespa-


cio vectorial de V /W como uno de la forma U /W , con U subespacio vectorial
de V que contiene a W . Veamos las igualdades para la suma y la intersección.

U1 /W +U2 /W = (U1 +U2 )/W . Sea u +W ∈ U1 /W +U2 /W . Entonces exis-


ten u1 ∈ U1 , u2 ∈ U2 tales que u + W = (u1 + W ) + (u2 + W ) = (u1 + u2 ) +
W ∈ (U1 +U2 )/W . Recíprocamente, si u + W ∈ (U1 +U2 )/W , existen u1 ∈
U1 , u2 ∈ U2 con u + W = (u1 + u2 ) + W = (u1 + W ) + (u2 + W ) ∈ U1 /W +
U2 /W .

U1 /W ∩U2 /W = (U1 ∩U2 )/W . Sea u +W ∈ U1 /W ∩U2 /W . Entonces exis-


ten u1 ∈ U1 , u2 ∈ U2 tales que u +W = u1 +W = u2 +W , y podemos escri-
bir
u = u1 + w1 = u2 + w2 , con w1 , w2 ∈ W.
Esto significa que u1 = u2 + (w2 − w1 ) ∈ U2 , porque W ⊂ U2 , y llegamos
a que u 1 ∈ U1 ∩U2 . Por tanto, u + W ∈ (U1 ∩U2 )/W . Recíprocamente, si
u +W ∈ (U1 ∩U2)/W , entonces existe u′ ∈ U1 ∩U2 tal que u +W = u′ +W .
Por ello, u + W ∈ U1 /W ∩U2 /W .

6.7. Cambio de base y homomorfismos


Cuando asociamos una matriz a un homomorfismo f : V → V ′ , la condición
inicial era el fijar unas bases en los espacios vectoriales. Es natural preguntarse

218 Álgebra Lineal y Geometría


Depto. de Álgebra

qué le ocurre a la matriz si se cambian las bases. Sean n = dimV, m = dimV ′ y


consideremos entonces bases B1 , B2 en V , y bases B1′ , B2′ en V ′ . Por un lado,
tenemos la matriz del homomorfismo f respecto de las bases B1 y B1′ , que
notamos por
MB1 ,B ′ ( f ).
1

Por otro, el homomorfismo f tiene otra matriz asociada respecto de las bases
B2 y B2′ , que es
MB2 ,B ′ ( f ).
2

Partimos del diagrama


f
VO /V′

idV idV ′
f 
V /V′
que simplemente representa la igualdad f = idV ◦ f ◦idV ′ . Recordemos dos cues-
tiones que hemos visto:
La composición de aplicaciones lineales se traduce, al tomar bases en ca-
da espacio, en el producto de matrices.

La matriz de cambio de base en un espacio vectorial es la matriz de la


aplicación identidad respecto de dichas bases:

MB2 ,B1 (idV ) = M(B2 , B1 ), MB ′ ,B ′ (idV ′ ) = M(B1′ , B2′ ).


1 2

Al tomar coordenadas, obtenemos el diagrama


B1 B1′
MB ′ (f )
1 ,B1
KO n / Km

M(B2 ,B1 ) M(B1′ ,B2′ )


MB ′ (f ) 
2 ,B2
Kn / Km
B2 B2′
que se traduce en el resultado

Cambio de base y homomorfismos

MB2 ,B ′ ( f ) = M(B1′ , B2′ ) · MB1 ,B ′ ( f ) · M(B2 , B1 ),


2 1

MB1 ,B ′ ( f ) = M(B2′ , B1′ ) · MB2 ,B ′ ( f ) · M(B1 , B2 ).


1 2

Álgebra Lineal y Geometría 219


Depto. de Álgebra

Recordemos que ya habíamos hablado de la equivalencia de matrices (pág.


70): dos matrices A, B de orden m × n son equivalentes si existen matrices no
singulares P m×m ,Q n×n tales que B = P AQ. ¿Qué relación podemos establecer
entre este concepto matricial y los homomorfismos? La respuesta es la siguien-
te proposición.

Interpretación de la equivalencia de matrices

Sean A, B matrices de orden m × n, con coeficientes en un cuerpo K.


Entonces A y B son matrices equivalentes si y solamente si existen ba-
ses B1 , B2 de V = Kn y bases B1′ , B2′ de V ′ = Km , y un homomorfismo
f : V → V ′ , tales que

A = MB1 ,B ′ ( f ), B = MB2 ,B ′ ( f ).
1 2

P RUEBA :

(⇐) Esta implicación ya la tenemos, sin más que tomar P y Q las matrices de
cambio de base.

(⇒) Fijamos S base estándar en Kn , y S ′ base estándar en Km . Definimos


f : Kn → Km como f (v ) = A v . Sabemos que

A = MS ,S ′ ( f ).

Por hipótesis, existen P m×m ,Q n×n no singulares tales que B = P AQ. En-
tonces se tiene que

• las columnas de la matriz P −1 forman una base B2′ de Km , y


• las columnas de la matriz Q forman una base B2 de Kn .

La matriz del cambio de base M(B2 , S ) es precisamente Q, y la matriz


del cambio de base M(S ′ , B2′ ) es igual a P . Entonces

B = P AQ = M(S ′ , B2′ ) · MS ,S ′ ( f ) · M(B2 , S )


= MB2 ,B ′ ( f ).
2

220 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 6.7.1.- Vamos a considerar de nuevo el ejemplo de la página 214,


donde f : R4 → R3 está definida con respecto a la base estándar de cada espacio
por la matriz  
1 2 3 4
 
 2 4 6 7 .
MS ,S ′ ( f ) = A =  

1 2 3 6
Allí vimos que con respecto a las bases
       
1 0 −2 −3
 0   0   1   0 
       
B = {u1 =   , u2 =   , u3 =   , u4 =  },
 0   0   0   1 
0 1 0 0
     
1 4 0

B = { f (u1 ) = 2 , f (u2 ) = 7 , w3 = 0 }
    
1 6 1
se tiene que
 
1 0 0 0
MB,B ′ ( f ) =  0 1 0 0  = N .
0 0 0 0
Esto significa que existe una relación de la forma
A = M(B ′ , S ′ )MB,B ′ ( f )M(S , B).
Tenemos que
 
1 0 −2 −3
 
¡ ¢  0 0 1 0 
[u1 ]S [u2 ]S [u3 ]S [u4 ]S
 
M(B, S ) = =  = Q1,
 0 0 0 1 
 
0 1 0 0
 
1 4 0
¡ ¢  
M(B ′ , S ′ ) = [ f (u1 )]S ′ [ f (u2 )]S ′ [w 3 )]S ′ =
 2 7 0  = P1.

1 6 1
Por tanto, A = P 1 NQ 1−1 o bien N = P 1−1 AQ 1 . En general, vemos así que el cam-
bio de base y el primer teorema de isomorfía permiten probar el teorema de la
forma normal del rango (pág. 73).

Álgebra Lineal y Geometría 221


Depto. de Álgebra

6.8. * Espacio dual


6.8.1. * Base dual
Dado V un K-espacio vectorial, podemos considerar el conjunto de aplica-
ciones lineales f : V → K, que se denominan formas lineales. El propio cuerpo
K tiene estructura de K-espacio vectorial, y el conjunto Hom(V, K) es un K-
espacio vectorial, de dimensión igual a dimV .

Espacio dual

El conjunto de las formas lineales Hom(V, K) se denomina espacio dual


de V , y lo notaremos por V ∗ .

Ejemplo 6.8.1.- Sea V = R2 , y fijemos la base estándar S . Cada forma lineal


f : V → R está determinada por los valores f (e1 ) y f (e2 ). En concreto, tomemos
las formas f i : V → R, i = 1, 2 dadas por
f 1 (e1 ) = 1, f 1 (e2 ) = 0, f 2 (e1 ) = 0, f 2 (e2 ) = 1.
Cualquier otra forma lineal f se puede expresar como
f = f (e1 ) f 1 + f (e2 ) f 2 .

Sabemos que si V es de dimensión finita, entonces V ∗ es isomorfo al espa-


cio de matrices de orden 1 × n (matrices fila). Uno de los elementos de V ∗ es la
aplicación lineal 0∗ : V → K, definida por 0∗ (v ) = 0 para todo v ∈ V .

Base dual

Sea V un K-espacio vectorial de dimensión finita, y B = {u1 , . . . , un }


una base de V . La base dual de B es el conjunto B ∗ = {u∗1 , . . . , u∗n } de
formas lineales definidas por
½
1 si i = j ,
u∗i (u j ) =
0 si i 6= j.

222 Álgebra Lineal y Geometría


Depto. de Álgebra

En el ejemplo anterior hemos calculado la base dual de S en R2 . Hay que


justificar el nombre de base que hemos dado a este conjunto. En efecto, consi-
deremos una combinación lineal
n
X
αi u∗i = 0∗ .
i =1

Para cada j = 1, . . . , n, se tiene que


n
X
0 = 0∗ (u j ) = αi u∗i (u j ) = α j · 1
i =1

de donde los escalares αi = 0 para cada i = 1, . . . , n. Por tanto, B ∗ es un conjunto


linealmente independiente. Por otro lado, sea f ∈ V ∗ , que queda definido por
los valores f (ui ), i = 1, . . . , n. Entonces es claro que
n
X
f = f (ui )u∗i .
i =1

Ejemplo 6.8.2.- Consideremos la base B = {u1 , u2 , u3 } de R3 dada por


     
1 2 0
u1 =  −1  , u2 =  1  , u3 =  −1  .
0 1 1

Queremos calcular cada una de las matrices fila asociadas a las aplicaciones
lineales u∗i , i = 1, 2, 3. Sea
¡ ¢
u∗i = ai 1 ai 2 ai 3 , i = 1, 2, 3.

Entonces para u∗1 nos quedan las relaciones


     
¡ ¢ 1 ¡ ¢ 2 ¡ ¢ 0
ai 1 ai 2 ai 3  −1  = 1, ai 1 ai 2 ai 3  1  = 0, ai 1 ai 2 ai 3  −1  = 0.
0 1 1

En forma matricial es lo mismo que


   
¡ ¢ 1 2 0 1
ai 1 ai 2 ai 3  −1 1 −1  =  0  .
0 1 1 0

Álgebra Lineal y Geometría 223


Depto. de Álgebra

Si procedemos de forma análoga con u∗2 y u∗3 , y lo unificamos con lo anterior,


obtenemos la expresión
      
a11 a12 a13 1 2 0 1 1 0 0
 a21 a22 a23   −1 1 −1  =  0  =  0 1 0  .
a31 a32 a33 0 1 1 0 0 0 1
El cálculo se reduce a obtener la inversa de la matriz cuyas columnas son los
vectores dados. En este caso,
 
   −1 1/2 −1/2 −1/2
a11 a12 a13 1 2 0  
 a21 a22 a23  =  −1 1 −1  =  1/4 1/4 1/4 .
 
a31 a32 a33 0 1 1
−1/4 −1/4 3/4
Por tanto, podemos escribir
1 1 1 1 1 1 1 1 3
u 1∗ (x) = x1 − x2 − x3 , u 2∗ (x) = x1 + x2 + x3 , u∗3 (x) = − x1 − x2 + x3 .
2 2 2 4 4 4 4 4 4

Este ejemplo nos proporciona un método de cálculo de la base dual, fijada


una base.

Cálculo de la base dual

Entrada: B = {u1 , . . . , un } base de V , S base de V respecto a la que to-


mamos coordenadas.
Salida: B ∗ base dual de B.

1. Construimos la matriz A = (ai j ) de las coordenadas de los vecto-


res ui respecto de S .

2. Cálculo de A −1 .

3. La fila i -ésima de A −1 es la matriz fila asociada a u∗i respecto de


la base S .

P RUEBA : La matriz A es no singular, porque B¡ es una base. Si ¢ la matriz


asociada a u∗i respecto de la base S es la matriz fila b i 1 . . . b i n , entonces
 
a1j ½
¡ ¢ .  1 si i = j ,
b i 1 . . . b i n  ..  =
0 si i 6= j.
an j

224 Álgebra Lineal y Geometría


Depto. de Álgebra

Esto significa que la matriz fila asociada a cada u∗i es la fila i -ésima de A −1 . 

Ejemplo 6.8.3.- Consideremos las formas lineales g i : R3 → R.i = 1, 2, 3 dadas


por las matrices fila
¡ ¢ ¡ ¢ ¡ ¢
[g 1 ]S = 1 −1 1 , [g 2 ]S = 1 0 1 , [g 2 ]S = 2 1 3

respecto de la base estándar S . Vamos a probar que C = {g 1 , g 2 , g 3 } es una base


del espacio dual (R3 )∗ . Para ello, bastará comprobar que son linealmente inde-
pendientes, y lo haremos construyendo la matriz de coordenadas respecto de
la base S ∗ de (R3 )∗ . Es inmediato que

g 1 = 1 · e∗1 + (−1) · e∗2 + 1 · e∗3 , g 2 = 1 · e∗1 + 0 · e∗2 + 1 · e∗3 , g 3 = 2 · e∗1 + 1 · e∗2 + 3 · e∗3 ,

y la matriz de coordenadas es no singular. Por tanto, son linealmente indepen-


dientes, y como la dimensión de (R3 )∗ es 3, forman una base.
Una pregunta adicional es calcular la base B de R3 tal que su dual B ∗ es
igual a C . Por el método anterior, la matriz
 
1 −1 1
C = 1 0 1 
2 1 3

es de la forma A −1 , donde A es la matriz de coordenadas respecto a la base


estándar S de la base buscada. Entonces
 
−1 4 −1
 
A = C −1 = 
 −1 1 0 
,
1 −3 1

y esto significa que la base B = {u1 , u2 , u3 } dada por


     
−1 4 −1
     
u1 =  −1  , u2 =  1  , u3 =  0 
    

1 −3 1

cumple que B ∗ = C .

Álgebra Lineal y Geometría 225


Depto. de Álgebra

6.8.2. * Interpretación de la matriz traspuesta


Sea f : V1 → V2 un homomorfismo de K-espacios vectoriales. Para cada for-
ma lineal ϕ : V2 → K podemos construir la forma lineal ϕ ◦ f : V1 → K, y esto
define una aplicación f ∗ : V2∗ → V1∗ .

Aplicación traspuesta

Dado un homomorfismo f : V1 → V2 , la aplicación f ∗ : V2∗ → V1∗ defini-


da por f ∗ (ϕ) = ϕ◦ f es un homomorfismo entre los espacios vectoriales
duales.
Además, si B y C son bases respectivas de V1 y V2 , se verifica que

MB ∗ C ∗ ( f ∗ ) = MBC ( f )t .

Demostración. Sean ϕ1 , ϕ2 ∈ V2∗ , y a1 , a2 ∈ K. Debemos probar que

f ∗ (a1 ϕ1 + a2 ϕ2 ) = a1 f ∗ (ϕ1 ) + a2 f ∗ (ϕ2 ).

Para ello, tomemos v ∈ V1 . Entonces

f ∗ (a1 ϕ1 + a2 ϕ2 )(v ) = (a1 ϕ1 + a2 ϕ2 ) ◦ f (v )


= a1 (ϕ1 ◦ f )(v ) + a2 (ϕ2 ◦ f )(v )
= (a1 f ∗ (ϕ1 ) + a2 f ∗ (ϕ2 ))(v ).

Notemos B = {u1 , . . . , un }, C = {w1 , . . . , wm }. Sabemos que


¡ ¢
MBC = [ f (u1 )]C . . . [ f (un )]C .

Debemos calcular las coordenadas de f ∗ (wi∗ ) respecto de la base B ∗ . El homo-


morfismo f ∗ (wi∗ ) = wi∗ ◦ f tiene asociada en la base B la matriz

(wi∗ ◦ f )B = (wi∗ )C MBC ( f ).

Sabemos que (wi∗ )C = eit , por lo que las coordenadas buscadas la forman la fila
i -ésima de la matriz A. Esta fila es la columna i -ésima de la matriz buscada, de
donde tenemos el resultado.

226 Álgebra Lineal y Geometría


Capítulo 7

Forma canónica

7.1. Endomorfismos

Supongamos ahora que f : V → V es un endomorfismo de un espacio vec-


torial V de dimensión n. Si fijamos la misma base B1 en origen y destino, la
matriz de f se escribe como MB1 ,B1 ( f ), que abreviaremos como MB1 ( f ). Si
ahora cambiamos a una base B2 , el teorema de cambio de base y homomorfis-
mos (pág. 220) nos dice que

MB2 ( f ) = M(B1 , B2 )MB1 ( f )M(B2 , B1 ),

por el diagrama

B1 B1
MB1 ( f )
KO n / Kn

M(B2 ,B1 ) M(B1 ,B2 )


MB2 ( f ) 
Kn / Kn
B2 B2

Si llamamos

A = MB1 ( f ), B = MB2 ( f ), P = M(B2 , B1 ),

obtenemos la igualdad B = P −1 AP .

227
Depto. de Álgebra

Semejanza de matrices

Sean A, B matrices cuadradas de orden n. Decimos que A y B son se-


mejantes si existe P no singular tal que

B = P −1 AP.

Ejemplo 7.1.1.- Consideremos las matrices

1 1 1 1 0 0
   

A =  0 2 1 ,B =  0 2 0 .
0 0 3 0 0 3

Entonces A y B son semejantes, pues para

1 1 1
 

P =  0 1 1  se tiene que B = P −1 AP.


0 0 1

La matriz P no es única. Por ejemplo, para

1 1 7
 

Q =  0 1 7  también se tiene que B = Q −1 AQ.


0 0 7

La relación de semejanza es de equivalencia:

Reflexiva. Basta considerar P = I .

Simétrica. Si B = P −1 AP , entonces A = P BP −1 = Q −1 BQ, con Q = P −1 .

Transitiva. Si B = P −1 AP y C = Q −1 BQ, entonces

C = Q −1 BQ = Q −1 P −1 APQ = R −1 AR,

para R = PQ, que es no singular.

228 Álgebra Lineal y Geometría


Depto. de Álgebra

Desde el punto de vista de los homomorfismos, dos matrices son semejan-


tes si y solamente si representan el mismo endomorfismo con respecto a dife-
rentes bases, lo que es consecuencia inmediata de la interpretación de la equi-
valencia de matrices (página 220). Buscamos, por ello, invariantes de f que no
dependan de la base elegida. El primero es el siguiente.

Determinante de un endomorfismo

Sea f : V → V un endomorfismo de un K-espacio vectorial de dimen-


sión finita, y A una matriz de f respecto de cualquier base. Definimos
el determinante de f como

det( f ) = det(A).

La definición anterior no depende de la base elegida, pues si B es la matriz de


f respecto de otra base, existe P no singular tal que B = P −1 AP , de donde

det(B) = det(P −1 AP ) = det(P −1 ) det(A) det(P ) = det(A).

Ejemplo 7.1.2.- Las matrices

1 0 1 0
µ ¶ µ ¶
A= ,B =
2 −1 2 2

no son semejantes, pues det(A) 6= det(B). Por tanto, la igualdad de determinan-


te es una condición necesaria de semejanza.

El objetivo de este capítulo es caracterizar las clases de equivalencia que se


tienen en el conjunto de los endomorfismos mediante la semejanza de matri-
ces. La forma de abordar el problema es mediante la construcción de una base
respecto de la cual un endomorfismo dado tenga una matriz lo más sencilla
posible. La primera forma en la que pensamos es la diagonal.

Álgebra Lineal y Geometría 229


Depto. de Álgebra

7.2. Autovalores y autovectores

Subespacio invariante

Sea f : V → V un endomorfismo de un K-espacio vectorial. Un subes-


pacio W ⊂ V se denomina invariante por f si f (W ) ⊂ W .

Ejemplo 7.2.1.- Si f : V → V es un endomorfismo, entonces los subespacios V


y 0 son invariantes, así como im( f ) y ker( f ).

Ejemplo 7.2.2.- Sea V = R2 y consideremos el endomorfismo f de V definido


como µ ¶ µ ¶
x1 x2
7→ .
x2 −x1
Sea W un subespacio propio de V invariante por f . Entonces dimW ≤ 1 y existe
w ∈ V tal que W = 〈w 〉. Por el carácter invariante de W , se sigue que existe un
número real c tal que f (w ) = c w . Si
µ ¶ µ ¶ µ ¶
w1 cw 1 w2
w= entonces = .
w2 cw 2 −w 1

De aquí se tiene que x1 c 2 = −x1 , por lo que x1 = x2 = 0. Por tanto, f no tiene


subespacios propios invariantes.

Nota 7.2.1. En este punto, nos podemos preguntar qué nos aportan los subes-
pacios invariantes de un endomorfismo f : V → V , con V de dimensión finita
n. Supongamos que hemos descompuesto V = W1 ⊕ W2 , con W1 ,W2 subespa-
cios propios de V invariantes. Si

B1 = {u1 , . . . , ur }, B2 = {v1 , . . . , vs }, r + s = n

230 Álgebra Lineal y Geometría


Depto. de Álgebra

son bases respectivas de W1 y W2 , entonces B = B1 ∪ B2 es una base de V .


Vamos a ver qué forma tiene la matriz de f respecto de B. Para ello, debemos
calcular las coordenadas respecto de B de las imágenes mediante f de los vec-
tores de B. Observemos que
r
X s
X
f (u j ) = b i j ui , porque f (W1 ) ⊂ W1 , y f (vk ) = ci k vi , porque f (W2 ) ⊂ W2 .
i =1 i =1

Entonces la matriz de f respecto de la base B tiene la forma


0
µ ¶
B r ×r
MB ( f ) = ,
0 C s×s
que es diagonal por cajas. Esta matriz será más sencilla cuando encontremos
subespacios invariantes de la menor dimensión posible.
Comenzamos así examinando las propiedades de los espacios invariantes
de dimensión 1. La definición siguiente es fundamental para todo el desarrollo
del tema.

Autovalores y autovectores

Sea f : V → V un endomorfismo de K-espacios vectoriales. Se dice que


un vector no nulo v ∈ V es un autovector o vector propio de f si existe
un escalar λ ∈ K tal que f (v ) = λv . En este caso, dicho escalar λ recibe
el nombre de autovalor o valor propio.
Fijado un autovalor λ, denotaremos por

V1 (λ) = {v ∈ V | f (v ) = λv },

que se denomina subespacio propio de λ.

Ejemplo 7.2.3.- Sea f : C3 → C3 el endomorfismo definido por la matriz


0 −1 0
 

A= 1 0 0 
0 0 3
con respecto a la base estándar. El vector
 
i
v = 1  verifica f (v ) = i v ,

0

Álgebra Lineal y Geometría 231


Depto. de Álgebra

por lo que v es un autovector, con autovalor asociado λ = i . El vector e3 es


autovector de f , con autovalor asociado µ = 3, pues f (e3 ) = 3e3 . Se tiene que

V1 (λ) = 〈v 〉,V1 (µ) = 〈e3 〉.

Observemos que si consideramos el endomorfismo g : R3 → R3 definido por la


misma matriz, entre R-espacios vectoriales, el vector v no tiene sentido aquí,
pues λ 6∈ R, pero el vector e3 sigue siendo autovector. En este punto profundi-
zaremos más adelante, pero ya vemos que el espacio base (y el cuerpo) tienen
mucho que decir respecto a los autovalores y autovectores.

El conjunto V1 (λ) contiene los autovectores asociados a λ junto al vector


nulo. Por abuso de lenguaje, se habla de V1 (λ) como el espacio de autovectores
asociado a λ, pero hay siempre que recordar que los autovectores son no nulos.
Veamos algunas propiedades del subespacio propio y los autovalores.

Caracterización de autovalores y autovectores

Sea f : V → V un endomorfismo en un espacio K-espacio vectorial de


dimensión n y A su matriz respecto de una base. Dado λ ∈ K, se verifica:

1. V1 (λ) = ker( f − λ idV ) = null(A − λI ).

2. V1 (λ) es un subespacio vectorial invariante por f de dimensión

n − dim[im( f − λ idV )] = n − rango(A − λI n ).

3. λ es autovalor de f si y solamente si det(A − λI ) = 0.

P RUEBA :

1. Un vector v pertenece a V1 (λ) si y solamente si f (v ) = λv . Si llevamos


todos los elementos al primer miembro, esta expresión es equivalente a
( f − λ idV )(v ) = 0, o bien que v ∈ ker( f − λ idV ).

2. Como es el núcleo de un endomorfismo, es un subespacio vectorial. Ade-


más, por la fórmula de la dimensión

dim ker( f − λ idV ) = n − dim im( f − λ idV ) = n − rango(A − λI n ),

232 Álgebra Lineal y Geometría


Depto. de Álgebra

porque la matriz del endomorfismo f − λ idV es A − λI n respecto de la


base dada. Además, es invariante, pues si v ∈ V1 (λ), entonces f (v ) = λv ∈
V1 (λ).

3. El escalar λ es autovalor si y solamente si existe un vector no nulo v ∈ V


tal que f (v ) = λv , esto es, el sistema homogéneo (A −λI n )x = 0 tiene una
solución no trivial, que es lo mismo que det(A − λI n ) = 0.

Polinomio característico

Sea f : V → V un endomorfismo de un espacio vectorial de dimensión


finita. El polinomio característico de f es el determinante

p(λ) = det( f − λ idV ).

Para el cálculo del polinomio característico de un endomorfismo basta tomar


cualquier matriz que lo represente: si A y B representan a f respecto a distintas
bases, entonces son semejantes, es decir B = P −1 AP . Por ello,

det(B − λI ) = det(P −1 AP − λI ) = det(P −1 (A − λI )P ) = det(A − λI ).

El polinomio característico es un polinomio con coeficientes en el cuerpo base,


de grado n = dimV . El teorema anterior nos proporciona un método para cal-
cular los autovalores de un endomorfismo f , y, a partir de ellos, los subespacios
propios.

Álgebra Lineal y Geometría 233


Depto. de Álgebra

Cálculo de los autovalores y autovectores de un endomorfismo

Sea f : V → V un endomorfismo, y A su matriz respecto de una base.

Calcule el polinomio característico p(λ) = det(A − λI ).

Obtenga las raíces distintas λ1 , . . . , λs en K. Notaremos σ(A) =


{λ1 , . . . , λs }.

Para cada i = 1, . . . , s, resuelva el sistema lineal homogéneo

(A − λi I )x = 0.

El conjunto de soluciones forman el subespacio propio asociado


al autovalor λi .

Ejemplo 7.2.4.- Consideremos el endomorfismo f : R3 → R3 cuya matriz res-


pecto de la base estándar es

1 −1 4
 
 
 3
A= 2 .
−1 
2 1 −1

El polinomio característico es

1−λ 4
 
−1
 = −6 + 5 λ + 2 λ2 − λ3 ,
 
p(λ) = det 
 3 2−λ −1 
2 1 −1 − λ

cuya factorización es p(λ) = (1 − λ)(−2 − λ)(3 − λ). Por tanto, los autovalores de
f son
λ1 = 1, λ2 = 3, λ3 = −2.

Todas las raíces son reales, por lo que obtenemos tres subespacios propios. El
cálculo de cada uno de ellos se reduce a la resolución de un sistema lineal ho-
mogéneo.

234 Álgebra Lineal y Geometría


Depto. de Álgebra

V1 (λ1 ) = null(A − λ1 I ).
0 −1 4 1 0 1
   
  x1 = −x3 ,

  G-J 
A − λ1 I =  3 1 −1  −→  0 1 −4  ⇒  x2 = 4x3 ,
  
x3 = x3 .
2 1 −2 0 0 0
Entonces  
−1
 
V1 (λ1 ) = 〈v11 = 
 4 〉.

1

V1 (λ2 ) = null(A − λ2 I ).
−2 −1 4 1 0 −1
   
  x1 = x3 ,

  G-J 
 3 −1 −1  −→  0 1 −2  ⇒  x2 = 2x3 ,
A − λ2 I =    
x3 = x3 .
2 1 −4 0 0 0
Por tanto,
1
 
 
 2 〉.
V1 (λ2 ) = 〈v21 =  

V1 (λ3 ) = null(A − λ3 I ).
3 −1 4 1 0 1
   
  x1 = −x3 ,

  G-J 
A − λ3 I =  3 4 −1  −→  0 1 −1  ⇒  x2 = x3 ,
  
x3 = x3 .
2 1 1 0 0 0
Luego  
−1
 
 1 〉.
V1 (λ3 ) = 〈v31 =  

Nota 7.2.2. A la hora de calcular las raíces del polinomio característico, se pue-
de tomar como punto de partida el polinomio det(λI − A). Cuando la dimen-
sión del espacio es par, obtenemos el polinomio característico, y si es impar,
su opuesto. Las raíces son las mismas, por lo que es indiferente la elección. Lo
mismo podemos decir a la hora de calcular los espacios null(A − λi I ), pues son
iguales a null(λi I − A).

Álgebra Lineal y Geometría 235


Depto. de Álgebra

¿Hay alguna relación entre los subespacios propios asociados a autovalores


distintos? La respuesta a esta cuestión nos hará falta más adelante.

Suma directa de subespacios propios

Sea f : V → V un endomorfismo con autovalores λ1 , . . . , λs distintos dos


a dos. Entonces la suma

W = V1 (λ1 ) + · · · + V1 (λs )

es directa.

P RUEBA : La prueba es por inducción sobre s. Para s = 1 no hay nada que probar.
Supongamos que es cierto para s −1 y consideremos una expresión de la forma

v1 + · · · + vs−1 + vs = 0, donde vi ∈ V1 (λi ), i = 1, . . ., s. (7.2.1)

Si aplicamos f a ambos miembros de esta igualdad, obtenemos

0 = f (v1 + · · · + vs−1 + vs ) (7.2.2)


= λ1 v1 + · · · + λs−1 vs−1 + λs vs . (7.2.3)

Si multiplicamos la ecuación (7.2.1) por λs , entonces

0 = λs v1 + · · · + λs vs−1 + λs vs , (7.2.4)

y ahora restamos ambas expresiones:

(λs − λ1 )v1 + · · · + (λs − λs−1 )vs−1 = 0.

Hemos llegado a una expresión de vectores de V1 (λ1 ), . . . ,V1 (λs−1 ) igual a 0. Por
la hipótesis de inducción,

(λs − λ1 )v1 = 0, . . . , (λs − λs−1 )vs−1 = 0,

y como, por hipótesis, los coeficientes λs − λ j 6= 0, j = 1, . . . , s − 1, se sigue que


v1 = · · · = vs−1 = 0. Si volvemos a la ecuación (7.2.1), tenemos finalmente que
v s = 0. 

Nota 7.2.3. Otra forma de interpretar el resultado anterior es que si Bi es base


del subespacio V1 (λi ), entonces el conjunto is=1 Bi es linealmente indepen-
S

diente. Un caso especialmente s importante se tiene si esta unión es base del


espacio total.

236 Álgebra Lineal y Geometría


Depto. de Álgebra

7.3. Multiplicidad algebraica y geométrica


A partir de ahora consideraremos espacios vectoriales de dimensión finita.

Multiplicidad algebraica y geométrica

Sea f : V → V un endomorfismo, y λ0 un autovalor de f .

La multiplicidad algebraica m 0 de λ0 es la multiplicidad como


raíz del polinomio característico de f .

La multiplicidad geométrica q 0 de λ0 es la dimensión del subes-


pacio propio asociado V1 (λ0 ).

Si fijamos una base en V y A es la matriz asociada a f , es claro que

q 0 = dimV1 (λ0 ) = dim[ker( f −λ0 idV )] = dim[null(A−λ0 I n )] = n−rango(A−λ0 I ).

El valor de la multiplicidad geométrica no depende de la base elegida, porque


si B es semejante a A, entonces B = P −1 AP y B −λ0 I = P −1 (A −λ0 I )P , de donde
los rangos son iguales.

Ejemplo 7.3.1.- Consideremos el endomorfismo f : R3 → R3 dado por la matriz

1 −4 −4
 

A =  8 −11 −8 
−8 8 5

con respecto a la base estándar. Su polinomio característico es (1 − λ)(λ + 3)2 .


Entonces λ1 = 1 tiene multiplicidad algebraica m 1 = 1, y el autovalor λ2 = −3
tiene multiplicidad algebraica m 2 = 2. Vamos a calcular los espacios V1(λ1 ),V1 (λ2 ).

0 −4 −4 1 0 1/2
    
 x1 = −1/2x3
A − λ1 I =  8 −12 −8 → 0 1  1 → x2 = −x3

8 4 0 0 0 x3 = x3

−8
 
−1/2
null(A − λ1 I ) = 〈v11 〉, donde v11 =  −1  .
1

Álgebra Lineal y Geometría 237


Depto. de Álgebra

Para V1 (λ2 ) tenemos

4 −4 −4 1 −1 −1
    
 x1 = x2 + x3
A − λ2 I =  8 −8 −8 → 0   0 0 → x2 = x2 ,

8 8 0 0 0 x =x

−8
3  3
1 1
 

null(A − λ2 I ) = 〈v21 , v22 〉, donde v21 =  1  , v22 = 0  .



0 1

Entonces q 1 = dimV1 (λ1 ) = 1, q 2 = dimV1 (λ2 ) = 2.

Hay una relación fundamental entre ambas multiplicidades.

Desigualdad entre la multiplicidad geométrica y algebraica

Sea f : V → V un endomorfismo, y λ0 un autovalor de f . Entonces

1 ≤ q0 ≤ m0.

P RUEBA : Como q 0 es la dimensión de un espacio vectorial no nulo, es claro que


q 0 ≥ 1. Consideremos una base B0 de V1 (λ0 ), que tiene q 0 vectores, y la prolon-
gamos a una base B de V . Entonces la matriz de la aplicación lineal respecto a
la nueva base B es de la forma
µ ¶
′ D0 M
A = , (7.3.1)
0 Q

donde D 0 es una matriz diagonal de orden q 0 con entradas iguales a λ0 . El po-


linomio característico de f es igual entonces a (λ0 −λ)q0 det(Q −λI ), por lo que
la multiplicidad algebraica de λ0 es mayor o igual que q 0 .


238 Álgebra Lineal y Geometría


Depto. de Álgebra

7.4. Matrices diagonalizables

Matriz y endomorfismo diagonalizable

Sea A una matriz cuadrada. Decimos que es una matriz diago-


nalizable si existe una matriz P no singular tal que P −1 AP = D,
con D una matriz diagonal. Esto es, A es semejante a una matriz
diagonal.

Sea f : V → V un endomorfismo. Decimos que f es un endomor-


fismo diagonalizable si existe una base B de V tal que la matriz
de f respecto a B es diagonal.

Ejemplo 7.4.1.- El endomorfismo f : R3 → R3 dado por la matriz

1 −4 −4
 

A =  8 −11 −8 
−8 8 5

con respecto a la base estándar es diagonalizable. En el ejemplo de la página


237 calculamos los autovalores λ1 = 3, λ2 = −3 y los vectores

1 1
     
−1/2
v11 =  −1  , v21 = 1 , v22 = 0  ,
  
1 0 1

que verifican las relaciones

f (v11 ) = λ1 v11 = 1 · v11 , f (v21 ) = λ2 v21 = (−3) · v21 , f (v22 ) = λ2 v22 = (−3) · v22 .

Sabemos que el conjunto B ′ = {v11 , v21 , v22 } es linealmente independiente. Por


tanto, forman una base, y

1
   
λ1
MB ′ ( f ) =  λ2 = −3 .
λ2 −3

Álgebra Lineal y Geometría 239


Depto. de Álgebra

Ejemplo 7.4.2.- Existen matrices no diagonalizables. Consideremos la matriz

0 1
µ ¶
A= , con un autovalor doble igual a cero.
0 0
³ ´
λ1
Si existe P no singular tal que P −1 AP = D = λ2 , entonces D tiene los mis-
mos autovalores que A. Por tanto, λ1 = λ2 = 0, de donde P −1 AP = O, lo que
implica que A = O.

El ejemplo anterior muestra el punto fundamental para determinar si una


matriz es o no diagonalizable.

Condición equivalente de endomorfismo diagonalizable

Un endomorfismo f : V → V es diagonalizable si y solamente si existe


una base de V formada por autovectores de f .

P RUEBA : Supongamos que existe una base B ′ = {v1 , . . . , vn } de V formada por


autovectores de f . Entonces existen escalares λ1, . . . , λn tales que f (vi ) = λi vi , i =
1, . . . , n. Vamos a calcular la matriz de f respecto de la base B ′ . Recordemos que
dicha matriz es igual a

f (v1 )B ′ . . . f (vn )B ′
¡ ¢
MB ′ ( f ) = ,

es decir, la matriz que se forma con la concatenación de las coordenadas de los


vectores f (vi ) respecto de la base B ′ . Es inmediato que

0 0
     
λ1
 0   λ2   0 
f (v1 )B ′ =  .. , f (v2 )B ′ =  .. , ..., f (vn )B ′ =  .. ,
     
 .   .   . 
0 0 λn

240 Álgebra Lineal y Geometría


Depto. de Álgebra

de donde
λ1 0 ... 0
 
 0 λ2 ... 0 
MB ′ ( f ) =  .. .. .. ..  = D,
 
 . . . . 
0 0 . . . λn
que es una matriz diagonal.
Recíprocamente, supongamos que f es diagonalizable. Entonces existe una
base B ′ = {v1 , v2 , . . . , vn } tal que

λ1 0 . . . 0
 
 0 λ2 . . . 0 
MB ′ ( f ) =  . .. . . ..  .
 
 .. . . . 
0 0 . . . λn

Por el mismo razonamiento anterior, tenemos que f (vi ) = λi vi para todo i =


1, 2, . . . , n, esto es, los vectores vi son autovectores de f .


Vamos a relacionar este resultado con las multiplicidades algebraica y geo-


métrica. Sin embargo, antes vamos a reconsiderar un ejemplo.

Ejemplo 7.4.3.- Sea f : C3 → C3 el endomorfismo definido por la matriz

0 −1 0
 

A= 1 0 0 
0 0 3

con respecto a la base estándar. Sabemos que los autovalores de f son λ1 =


3, λ2 = i , λ3 = −i , todos ellos de multiplicidad algebraica igual a 1. Los autovec-
tores asociados son
   
i −i
v1 = e3 , v2 =  1  , v3 =  1  ,
0 0

y el conjunto {v1 , v2 , v3 } es una base de C3 formada por autovectores. Por tanto,


f es diagonalizable.
Si consideramos ahora g : R3 → R3 el endomorfismo definido por la misma
matriz A, el único autovalor real es λ1 = 3, con multiplicidad algebraica igual a
1. Sin embargo, g no es diagonalizable.

Álgebra Lineal y Geometría 241


Depto. de Álgebra

En otras palabras, hay que tener presente el cuerpo base. Recordemos que
la suma de las multiplicidades algebraicas de los autovalores es menor o igual
que n, el grado del polinomio característico. Si todos los autovalores están en el
cuerpo base, entonces dicha suma es igual a n.

Igualdad de multiplicidades y diagonalización

Sea f : V → V un endomorfismo, y λ1 , . . . , λs sus autovalores distintos


en el cuerpo K. Entonces f es diagonalizable si y solamente si se verifi-
can las siguientes condiciones:

1. m 1 + · · · + m s = n.

2. m i = q i para todo i = 1, . . ., s.

P RUEBA : Si f es diagonalizable, entonces existe una base de V formada por


autovectores, que se obtiene uniendo bases de los espacios V1 (λi ), i = 1, . . . , s.
En consecuencia,
V = V1 (λ1 ) ⊕ · · · ⊕ V1 (λs ),

de donde
dim(V ) = dimV1 (λ1 ) + · · · + dimV1 (λs ),

que es lo mismo que


n = q1 + · · · + q s .

Además, para cada i se verifica la desigualdad q i ≤ m i , por lo que

n = q 1 + · · · + q s ≤ m 1 + · · · + m s ≤ n.

Entonces es necesario que q i = m i para cada i = 1, . . . , s, y m 1 + · · · + m s = n.


Recíprocamente, supongamos que se verifican ambas condiciones. Como
la suma V1 (λ1 ) + · · · + V1 (λs ) es directa, la unión de las bases de estos espacios
es un conjunto independiente, y las condiciones nos indican que ese conjunto
tiene cardinal igual a la dimensión de V . Por tanto, es base de V , y está formada
por autovectores. En conclusión, f es diagonalizable. 

Una consecuencia inmediata de lo anterior es

242 Álgebra Lineal y Geometría


Depto. de Álgebra

n autovalores distintos

Si A una matriz de orden n con n autovalores distintos en el cuerpo K,


entonces A es diagonalizable.

P RUEBA : Si A tiene n autovalores distintos en K, entonces todas las raíces del


polinomio característico están en K, pues tiene grado n. Además, cada auto-
valor tiene multiplicidad algebraica m i = 1, y como 1 ≤ q i ≤ m i = 1 llegamos a
q i = m i para todo i . Por el teorema anterior, A es diagonalizable. 

Carácter diagonalizable de una matriz y matriz de paso

Sea A una matriz de orden n.

1. Cálculo de las raíces del polinomio característico λ1 , . . . , λs , y sus


multiplicidades algebraicas respectivas m 1 , . . . , m s .

2. Si alguna de ellas es compleja, la matriz no es diagonalizable en


R. Supongamos que todas las raíces están en el cuerpo base (R o
C).

3. Cálculo de la multiplicidad geométrica

q i = n − rango(A − λi I ).

4. Si para algún i se tiene que q i < m i , entonces A no es diagonali-


zable.

5. Si para todo i se verifica q i = m i , A es diagonalizable a una matriz


diagonal con los autovalores en la diagonal, cada uno repetido
tantas veces como indique su multiplicidad.

6. Cálculo de una base de cada espacio V1 (λi ).

7. La matriz de paso P se obtiene concatenando los vectores de las


bases anteriores.

Álgebra Lineal y Geometría 243


Depto. de Álgebra

Ejemplo 7.4.4.- Consideremos la matriz

3 1 1
 

A =  1 3 1 .
1 1 3

1. Cálculo de las raíces del polinomio característico. Se tiene que

p(λ) = det(A − λI ) = −λ3 + 9λ2 − 24λ + 20 = (2 − λ)2 (5 − λ).

Entonces
λ1 = 2, m 1 = 2,
λ2 = 5, m 2 = 1.

2. Todas las raíces son reales, y procedemos a estudiar el carácter diagona-


lizable en R.

3. Las multiplicidades geométricas son

1 1 1
 

q 1 = 3 − rango(A − 2I ) = 3 − rango  1 1 1  = 3 − 1 = 2 = m 1 .
1 1 1

Para λ2 , como m 2 = 1 se deduce de inmediato que q 2 = 1.

4. Como para todos los autovalores coinciden la multiplicidad algebraica


y la geométrica, y m 1 + m 2 = 3 = dimV , la matriz es diagonalizable. La
forma diagonal es

2
   
λ1
D = λ1 = 2 .
λ2 5

5. Cálculo de la matriz de paso.

Base del espacio V1 (λ1 ). El sistema (A −λ1 I )x = 0 lo resolvemos me-


diante
1 1 1 1 1 1
   
 1 1 1  G-J −→  0 0 0  .
1 1 1 0 0 0
Unas ecuaciones paramétricas de V1 (λ1 ) son
    
 x1 = −x2 −x3 −1 −1
x = x2 , ⇒ V1 (λ1 ) = 〈v11 =  1  , v12 =  0 〉.
 2
x3 = x3 0 1

244 Álgebra Lineal y Geometría


Depto. de Álgebra

Base del espacio V1 (λ2 ). El sistema (A − λ2 I )x = 0 se resuelve con

1 1 1 0 −1
   
−2
 1 −2 G-J
1  −→  0 1 −1  .
1 1 −2 0 0 0

Unas ecuaciones paramétricas de V1 (λ2 ) son

1
  
 x1 = x3
x2 = x3 , ⇒ V1 (λ2 ) = 〈v21 =  1 〉.
x3 = x3 1

La matriz de paso P es

−1 −1 1
 

= 1 0 1 .
¡ ¢
P= v11 v12 v22
0 1 1

Es fácil comprobar que D = P −1 AP .

7.5. Forma canónica de Jordan


La factorización que consideramos ahora de una matriz cuadrada A intenta
llevar la matriz a una forma lo más parecida a una diagonal.
Un bloque de Jordan de orden k es una matriz cuadrada con k filas y colum-
nas que tiene todos los elementos de la diagonal idénticos, la linea por encima
de la diagonal está formada por unos y los restantes elementos son cero. En
forma simbólica, B(λ) = (b i j ) es un bloque de Jordan de orden k si

λ 1
 

 λ si i = j .. ..

. .
 
 
b i j = 1 si i + 1 = j , B(λ) =  
.
.
. . 1 

0 en el resto
 
λ

Un segmento de Jordan J (λ1 ) es una matriz diagonal por bloques

J 1 (λ1 ) 0 ... 0
 
 0 J 2 (λ1 ) . . . 0 
J (λ1 ) =  .. .. .. .. ,
 
 . . . . 
0 0 ... J t1 (λ1 )

Álgebra Lineal y Geometría 245


Depto. de Álgebra

Figura 7.1: M.E. Camille Jordan (1838-1922)

donde cada caja J k (λ1 ) es un bloque de Jordan de un cierto orden. En un seg-


mento de Jordan puede haber bloques de Jordan del mismo tamaño. Una ma-
triz de Jordan es una matriz diagonal por bloques de manera que cada bloque
es un segmento de Jordan, esto es, una matriz J es de Jordan si

J (λ1 ) 0 ... 0
 
 0 J (λ2 ) ... 0 
J = .. .. .. .. ,
 
 . . . . 
0 0 ... J (λs )

donde cada J (λi ) es un segmento de Jordan. Desde una perspectiva general,


una matriz de Jordan es una matriz diagonal por bloques, donde cada bloque
es un bloque de Jordan.

Ejemplo 7.5.1.- Un bloque de Jordan de orden 1 es un número. Un bloque de


Jordan de orden 2 es de la forma

λ 1
µ ¶

0 λ

y uno de orden 3
λ 1 0
 
 0 λ 1 .
0 0 λ

246 Álgebra Lineal y Geometría


Depto. de Álgebra

Una matriz de Jordan es, por ejemplo,


 
1 1 0 0 0 0 0
 0 1 0 0 0 0 0 
 
 0 0 2 1 0 0 0 
 
 0 0 0 2 0 0 0 
 
 
 0 0 0 0 2 1 0 
 
 0 0 0 0 0 2 0 
 

0 0 0 0 0 0 3

Nuestro objetivo es probar el siguiente teorema:

Forma canónica de Jordan

Sea V un C-espacio vectorial de dimensión n y f : V → V un endomor-


fismo, con autovalores distintos {λ1 , λ2 , . . . , λs }. Entonces existe una ba-
se C tal que la matriz de f respecto de C es de la forma

J (λ1 ) O ... O
 
 O J (λ2 ) . . . O 
J = .. .. .. .. ,
 
 . . . . 
O O ... J (λs )

donde J tiene un segmento de Jordan J (λ j ) por cada autovalor λ j , j =


1, . . ., s.

La matriz J anterior se denomina forma canónica de Jordan de f . La base


C no es única. El teorema anterior se puede expresar de manera equivalente
para matrices. Si A es una matriz compleja de orden n × n, con autovalores
distintos σ(A) = {λ1 , λ2 , . . . , λs }, existe una matriz P no singular tal que P −1 AP
es una forma canónica de Jordan.
La búsqueda de la forma canónica de Jordan es el cálculo de J y una ma-
triz no singular P tales que J = P −1 AP , que es lo mismo que pedir P J = AP .
Esto significa que buscamos una base de vectores x1 , x2 , . . . , xn , formando una
cadena encabezada por un autovector. Para cada i , se tiene que verificar

f (xi ) = λi xi o bien f (xi ) = λi xi + xi −1 . (7.5.1)

Álgebra Lineal y Geometría 247


Depto. de Álgebra

Los vectores xi forman las columnas de la matriz de paso P , y cada cadena for-
ma un bloque de Jordan. Vamos a ver cómo se pueden construir estas cadenas
para un endomorfismo f : V → V .
Procedemos por inducción. Para n = 1, la matriz del endomorfismo ya está
en forma canónica de Jordan. Supongamos entonces que la construcción se
tiene para endomorfismos sobre espacios de dimensión menor que n.
Paso 1. Supongamos que f tiene el autovalor λ = 0, que es equivalente a que
cualquier matriz que lo represente es singular.. El espacio im( f ) tiene dimen-
sión r < n, y consideramos la restricción de f a im( f ), que se aplica en im( f ).
Por hipótesis de inducción, existe una base de im( f ) formada por los vectores
w1 , . . . , wr tales que

f (wi ) = λi wi o bien f (wi ) = λi wi + wi −1 . (7.5.2)

Paso 2. Sea L = ker( f )∩im( f ), con p = dim L. Todo vector no nulo de ker( f )
es autovector asociado al autovalor λ = 0. Entonces tiene que haber p cadenas
en el paso anterior que empiezan en estos autovectores. Nos interesan los vec-
tores wi que van al final de las cadenas. Cada uno de estos p vectores está en
im( f ), por lo que existen yi tales que wi = f (yi ), i = 1, . . . , p. Por claridad, lo
escribiremos como f (yi ) = 0yi + wi .
Paso 3. El subespacio ker( f ) tiene dimensión n−r . Entonces, aparte de los p
vectores independientes que podemos encontrar en su intersección con im( f ),
hay n − r − p vectores adicionales zi que están fuera de esta intersección.
Ponemos juntos estos tres pasos para dar el teorema de Jordan:
Los r vectores wi , los p vectores yi , y los n − r − p vectores zi forman cade-
nas de Jordan, y son linealmente independientes.
Si renumeramos los vectores como x1 , . . . , xn para hacerlos corresponder
con la ecuación 7.5.1, cada yi debe ir inmediatamente después del vector wi
del que procede. Todos ellos completan una cadena para el autovalor λi = 0.
Los vectores zi van al final del todo, cada uno en su propia cadena, y dan lugar
a cajas de orden 1.
Los bloques con autovalores no nulos se completan en el primer paso, los
bloques con autovalor cero aumenta su tamaño en una fila y columna en el
paso 2, y el paso 3 contribuye con bloques de orden 1 del tipo J i = [0].
Lo que tenemos que probar en primer lugar es que el conjunto {wi , y j , zk }
es linealmente independiente. Escribamos entonces
X X X
αi wi + βj yj + γk zk = 0. (7.5.3)

Aplicamos el endomorfismo f y recordamos las ecuaciones (7.5.2) para los vec-

248 Álgebra Lineal y Geometría


Depto. de Álgebra

tores wi , así como la relación f (zk ) = 0. Entonces

λi wi
 
X X
αi  o bien  + β j f (y j ) = 0. (7.5.4)
λwi + wi −1

Los vectores f (y j ) son los vectores especiales w j del final de las cadenas, co-
rrespondientes a λi = 0, por lo que no pueden aparecer en la primera parte de
la suma (están multiplicados por cero en λi wi ). Como la ecuación (7.5.4) es
una combinación lineal de vectores wi , cada coeficiente es nulo, en concreto
β j = 0. Si volvemos a la ecuación (7.5.3), nos queda que
X X
αi wi = − γk zk .

El lado izquierdo está en im( f ), y los vectores zk fueron escogidos fuera de di-
cho espacio. Entonces γk = 0, y por la independencia de los wi tenemos tam-
bién que αi = 0.
Si el endomorfismo f no tiene el autovalor cero (matriz asociada no singu-
lar), aplicamos los tres pasos a f (1) = f − λ1 idV , cuyos autovalores son 0, λ2 −
λ1 , . . . , λs − λ1 . El método anterior calcula una base C (1) y una matriz J (1) de la
forma
J (0) O ... O
 
 O J (λ2 − λ1 ) . . . O 
(1)
J = . .. . .. .
 
 . . . . . . 
O O ... J (λs − λ1 )

La base C (1) = {x1 , . . . , xn } es la buscada, pues

(1)
[ f (xi )]C (1) = [ f (1) (xi )]C (1) + λ1 [xi ]C (1) = J ∗i + λi ei ,

de donde

J (λ1 ) ...
 
O O
 O J (λ2 ) . . . O 
MC (1) ( f ) = J (1) + λ1 I =  .. .. .. ..  .
 
 . . . . 
O O ... J (λs )

Esto completa la prueba de que toda matriz A es semejante a una matriz de


Jordan J .

Álgebra Lineal y Geometría 249


Depto. de Álgebra

Ejemplo 7.5.2.- Consideremos la matriz

1 2 2 1
 

 1 0 −2 −1 
 
A= ,
 
 −1 −1 1 1 
 
−1 −1 1 1

de autovalores λ1 = 0, λ2 = −1, λ3 = 2, con multiplicidades algebraicas respecti-


vas m 1 = 1, m 2 = 1, m 3 = 2. En la traducción de la prueba a este ejemplo, recor-
demos que el núcleo de un endomorfismo se interpreta como el espacio nulo
de una matriz y el subespacio imagen como el subespacio de columnas de una
matriz. Con respecto a los dos primeros autovalores, bastará encontrar un ge-
nerador del espacio de autovectores asociado a cada uno, por lo que el proceso
de inducción lo haremos para λ3 . Sea T1 = A − λ3 I , que sabemos que es singu-
lar, y consideramos la restricción de T1 a Col(T1 ). Vamos a calcular la forma y
base canónica de esta restricción.
Paso 1. Cálculo en Col(T1 ). Mediante la forma reducida por filas se tiene que
     
−1 2 2
 1   −2   −2 
     
Col(T1 ) = 〈a1 =   , a2 =   , a3 =  〉
 −1   −1   −1 
−1 −1 1

es una base. Además,

T1 (a1 ) = 0 · a1 ,
T1 (a2 ) = 3a1 − 3a2 ,
T1 (a3 ) = a1 − a2 − 2a3 ,

por lo que la matriz de la restricción de T1 respecto de esta base es

0 3 1
 

M(T1 ) =  0 −3 −1  .
0 0 −2

Los autovalores de M(T1 ) son µ1 = λ1 − 2 = −2, µ2 = λ2 − 2 = −3, µ3 = λ3 − 2 = 0,


con multiplicidades algebraicas iguales a 1. Entonces M(T1 ) es diagonalizable,
y una base de autovectores es
     
1 3 1
 −1   −3   0 
     
w 1 = −a 1 + a 2 − a 3 =   , w = −a 1 + a 2 =   , w = a1 =   .
 1  2  0  3  0 
−1 0 0

250 Álgebra Lineal y Geometría


Depto. de Álgebra

Paso 2. Cálculo de Col(T1 ) ∩ null(T1 ). Se tiene que Col(T1 ) ∩ null(T1 ) = 〈w3 〉,


y como está en la imagen de la aplicación existe y3 tal que T1 (y3 ) = w3 . En este
caso,  
1
 0 
 
y3 =   .
 0 
0
Paso 3. Adición de n − r − p vectores. En nuestro caso, no hay más vectores
que añadir.
Entonces una base canónica es B J = {w1 , w2 , w3 , y3 }, y se verifica que

T1 (w1 ) = −2w1 ,
T1 (w2 ) = −3w2 ,
T1 (w3 ) = 0 · w3 ,
T1 (y3 ) = w3 .

Como T1 = A − λ3 I , tenemos que

A w1 = 0 · w1 ,
A w2 = −w 2 ,
A w3 = 2 w3 ,
A y3 = w3 +2y3 .

Por tanto, la forma canónica es la matriz de la aplicación lineal dada por A res-
pecto de la base B J , esto es,
 
0 0 0 0
 0 −1 0 0 
 
MBJ =  .
 0 0 2 1 
0 0 0 2

Ejemplo 7.5.3.- Consideremos la matriz

−2 1 0
 

A =  −1 0 0  .
−1 1 −1

Álgebra Lineal y Geometría 251


Depto. de Álgebra

La matriz A tiene un único autovalor λ1 = −1, de multiplicidad algebraica m 1 =


3. Sea T1 = A − λ1 I , que es una matriz singular. Como
−1 1 0 1 −1 0
   
  rref  
 −1 1 0  −
T1 =   → 0 0 0 ,
 
−1 1 0 0 0 0
una base de Col(T1 ) está formada por la primera columna a1 . Como T1 (a1 ) = 0,
la matriz de la restricción de T1 a Col(T1 ) es la matriz nula (0). Así, w1 = a1 es el
primer vector de la base canónica.
Calculamos ahora null(T1 ) ∩ im(T1 ). Ya que dim[Col(T1 )] = 1, es claro que
esta intersección está generada por w1 . Calculamos y1 tal que T1 (y1 ) = w1 , que
resulta
1
 

y1 = 0  .

0
Ahora necesitamos n − r − p = 3 − 1 − 1 = 1 vector z1 tal que {w1 , z1 } sea base de
null(T1 ). Una base de null(T1 ) está formada por
1 0
   
   
h1 =   1  , h2 =  0  ,
  

0 1
y podemos tomar z1 = h1 . Con esto tenemos que una base canónica es {w1, y1 , z1 },
y la forma canónica es
λ 1
 

J = λ .
λ
La matriz de paso es
−1 1 1
 

−1
 
 −1 0 1  , y J = P AP.
¡ ¢
P= w1 y1 z1 =  

−1 0 0

La estructura de la forma canónica de una matriz es única en el sentido de


que el número de segmentos de Jordan en J , así como el número y tamaño de
los bloques de Jordan en cada segmento está unívocamente determinado por
la matriz A. Por tanto, si dos matrices tienen formas de Jordan diferentes, no
pueden ser semejantes. Tenemos así el siguiente resultado:

252 Álgebra Lineal y Geometría


Depto. de Álgebra

Unicidad de la forma canónica

Dos matrices A, B cuadradas complejas de orden n son semejantes si y


solamente si A y B tienen la misma estructura de Jordan.

P RUEBA : El argumento se basa en la observación de que si

0 1 0 ... 0
 
 0 0 1 ... 0 
.. . . .. . . .. 
 
. . . . 

Nk =  . ,
..
 
.
 
 0 0 1 
0 0 ... 0 0 k×k

entonces Nkl = 0 si l ≥ k y

0 . .→
←l . 1 ... 0
 
..
0 0 . 1 0 
 

.. .. .. ..
 
Nkl =  . . . . 1  tiene rango k − l si l < k.
 
.. .. .. . . .. 
 
. . . . .
 

0 ... 0 0 0

Además, si A y B son semejantes, entonces rango(A −µI )k = rango(B −µI )k pa-


ra todo k y cualquier µ. Con estas sencillas consideraciones, sean λ1 , . . . , λs los
autovalores distintos de A y B (como son semejantes, tienen los mismos). Va-
mos a probar que el número de bloques de Jordan de tamaño m asociados a un
autovalor son iguales para las matrices A y B. Lo probamos para un autovalor y
se extiende de manera simple a cualquiera. Supongamos que A es semejante a
una matriz de Jordan de la forma

J n1,1 (λ1 )
 
..
.
 
 
 

 J n1,h1 (λ1 ) 

...
 
,
 

 
J ns,1 (λs )
 
 
..
 
.
 
 
J ns,hs (λs )

Álgebra Lineal y Geometría 253


Depto. de Álgebra

donde J ni ,k (λi ) es un bloque de Jordan de tamaño n i ,k asociado al autovalor λi .


Como A − λ1 I es semejante a
 
Nn1,1
..
.
 
 
 
A − λ1 I ≃ 
 Nn1,h1 ,

...
 
 
rango pleno
obtenemos, para cada m ≥ 0, que
 m 
Nn1,1
..
.
 
 
m
 
(A − λ1 I ) ≃ 
 Nnm1,h .
1

...
 
 
rango pleno
Por tanto, podemos concluir que para cada m ≥ 1 se tiene
rango((A − λ1 I )m−1 ) − rango((A − λ1 I )m )
"( # "( #
1 si m ≤ n 1,1 1 si m ≤ n 1,h1
= +··· +
0 en otro caso 0 en otro caso
= [ número de bloques de Jordan de tamaño ≥ m] := j ≥m .
Estos números son los mismos para la matriz B, por lo que también los nú-
meros j m = j ≥m − j ≥m+1 , que representan el número de bloques de Jordan de
tamaño igual a m. 

Ejemplo 7.5.4.- La matriz


1 2 2 1
 

 1 0 −2 −1 
 
A=
 

 −1 −1 1 1 
 
−1 −1 1 1
tiene autovalores λ1 = 0(m 1 = 1), λ2 = −1(m 2 = 1), λ3 = 2(m 3 = 2). En un ejem-
plo anterior hemos calculado su forma canónica de Jordan. Lo vamos a ha-
cer ahora a partir del resultado anterior. Para cada autovalor λi , calculamos
rango(A − λi I )m hasta que se estabiliza. Se puede probar que solamente hay
que llegar al valor de m igual a la multiplicidad algebraica del autovalor.

254 Álgebra Lineal y Geometría


Depto. de Álgebra

Autovalor λ1 = 0. Se tiene que

rango((A − λ1 I )0 ) = 4, rango((A − λ1 I )1 ) = 3, rango((A − λ1 I )2 ) = 3.

Entonces

j ≥1 = número de bloques de Jordan de tamaño ≥ 1


= rango((A − λ1 I )0 ) − rango((A − λ1 I )1 ) = 4 − 3 = 1,
j ≥2 = número de bloques de Jordan de tamaño ≥ 2
= rango((A − λ1 I )1 ) − rango((A − λ1 I )2 ) = 3 − 3 = 0.

Luego hay j 1 = j ≥1 − j ≥2 = 1 bloque de orden 1, y cero bloques de tamaño


superior. El autovalor λ1 aporta un bloque (λ1 ). Esto es lo que siempre
ocurre para los autovalores de multiplicidad algebraica igual a 1.

Autovalor λ2 = −1. Se tiene que

rango((A − λ2 I )0 ) = 4, rango((A − λ2 I )1 ) = 3, rango((A − λ2 I )2 ) = 3.

Entonces

j ≥1 = número de bloques de Jordan de tamaño ≥ 1


= rango((A − λ2 I )0 ) − rango((A − λ2 I )1 ) = 4 − 3 = 1,
j ≥2 = número de bloques de Jordan de tamaño ≥ 2
= rango((A − λ2 I )1 ) − rango((A − λ2 I )2 ) = 3 − 3 = 0.

Hay j 1 = j ≥1 − j ≥2 = 1 bloque de orden 1, y cero bloques de tamaño supe-


rior. El autovalor λ2 aporta un bloque (λ2 ).

Autovalor λ3 = 2. Se tiene que

rango((A−λ3 I )0 ) = 4, rango((A−λ3 I )1) = 3, rango((A−λ3 I )2 ) = 2, rango((A−λ3 I )3 ) = 2.

Entonces

j ≥1 = número de bloques de Jordan de tamaño ≥ 1


= rango((A − λ1 I )0 ) − rango((A − λ1 I )1 ) = 4 − 3 = 1,
j ≥2 = número de bloques de Jordan de tamaño ≥ 2
= rango((A − λ1 I )1 ) − rango((A − λ1 I )2 ) = 3 − 2 = 1,
j ≥3 = número de bloques de Jordan de tamaño ≥ 3
= rango((A − λ1 I )2 ) − rango((A − λ1 I )3 ) = 2 − 2 = 0.

Álgebra Lineal y Geometría 255


Depto. de Álgebra

Por tanto, hay j 1 = j ≥1 − j ≥2 = 0 bloques de orden 1, j 2 = j ≥2 − j ≥3 = 1


bloque de orden 2 y cero bloques de tamaño superior. El autovalor λ3
aporta un segmento de Jordan de la forma

1
µ ¶
λ3
.
0 λ3

Ejemplo 7.5.5.- Calculemos la forma canónica de la matriz

1 2 1 1 1
 

 0 1 1 2 1 
 
 
 
A= 0 0 1 1 0 

.
 
 0 0 0 1 0 
 
0 0 0 0 1

Tiene un único autovalor λ1 = 1, con multiplicidad algebraica m 1 = 5. Procede-


mos a calcular los rangos de las matrices (A − λ1 I )m :

rango((A − λ1 I )0 ) = 5, rango((A − λ1 I )1 ) = 3, rango((A − λ1 I )2 ) = 2,


rango((A − λ1 I )3 ) = 1, rango((A − λ1 I )4 ) = 0.

Entonces

j ≥1 = número de bloques de Jordan de tamaño ≥ 1


= rango((A − λ1 I )0 ) − rango((A − λ1 I )1 ) = 5 − 3 = 2,
j ≥2 = número de bloques de Jordan de tamaño ≥ 2
= rango((A − λ1 I )1 ) − rango((A − λ1 I )2 ) = 3 − 2 = 1,
j ≥3 = número de bloques de Jordan de tamaño ≥ 3
= rango((A − λ1 I )2 ) − rango((A − λ1 I )3 ) = 2 − 1 = 1,
j ≥4 = número de bloques de Jordan de tamaño ≥ 4
= rango((A − λ1 I )3 ) − rango((A − λ1 I )4 ) = 1 − 0 = 1.

256 Álgebra Lineal y Geometría


Depto. de Álgebra

Esto significa que hay j 1 = j ≥1 − j ≥2 = 1 bloque de orden 1, j 2 = j ≥2 − j ≥3 = 0


bloques de orden 2, j 3 = j ≥3 − j ≥4 = 0 bloques de orden 3, j 4 = j ≥4 − j ≥5 = 1
bloque de orden 4. Por tanto, la forma canónica de A es
 
λ1 1

 λ1 1 

λ1 1 .
 

λ1
 
 
λ1

7.6. * Forma canónica real


Consideremos ahora V un R-espacio vectorial de dimensión finita, y f :
V → V un endomorfismo. Si todos los autovalores de f son reales, podemos lle-
var a cabo la construcción de la forma canónica que hemos visto en la sección
anterior. Sin embargo, sabemos que existen endomorfismos con autovalores
complejos, y esto va a dar lugar a matrices de paso (bases) con componentes
complejas. En esta sección vamos a estudiar qué hay que sacrificar para que
podamos conseguir una matriz de f lo más sencilla posible, pero con gran pa-
recido a la forma de Jordan.
Observemos en primer lugar que si f (x) es un polinomio con coeficientes
reales, y α ∈ C una raíz, Entonces α también es raíz de f (x), de la misma multi-
plicidad que α. En efecto, supongamos que

f (x) = x m + am−1 x m−1 + . . . + a1 x + a0 .

Como
0 = αm + am−1 αm−1 + . . . + a1 α + a0 ,
tomamos conjugados en ambos lados de la igualdad, y nos queda

0 = αm + am−1 αm−1 + . . . + a1 α + a0 ,

ya que los coeficientes ai son todos reales. Entonces α es raíz de f (x). La igual-
dad de las multiplicidades se deduce de la factorización

f (x) = (x − α)r g (x).

Álgebra Lineal y Geometría 257


Depto. de Álgebra

Esto significa que si λ es un autovalor complejo de f , entonces λ también lo es,


y de la misma multiplicidad algebraica.
Sea V un espacio vectorial sobre R, de dimensión n, y f ∈ End(V ). El teo-
rema de la forma canónica de Jordan nos permite obtener una base adecuada
para C-espacios vectoriales, así que lo primero que vamos a hacer es crear tal
espacio. Sea VC = V × V . Entonces VC puede ser dotado de estructura de C es-
pacio vectorial con las siguientes operaciones:

Suma: definimos la operación + como

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ).

Es inmediato que con respecto a esta operación VC es un grupo abeliano.

Producto por un escalar: definimos

(a + bi )(x, y ) = (a x − b y , b x + a y ).

Es rutinario comprobar que estas operaciones dotan a VC de estructura de C-


espacio vectorial. Además, V ×0 es la parte real de VC y 0×V es la parte imagina-
ria. Entonces, un vector (x, y ) ∈ VC se puede escribir como x +i y , diciendo que
x es su parte real y y su parte imaginaria. Si no hay confusión, identificaremos
(x, 0) con x y (0, y ) con i y .

Base de VC

Sea B = {u1 , . . . , un } una base de V . Entonces

BC = {(u1 , 0), . . . , (un , 0)}

es una base de VC como C espacio vectorial.

P RUEBA : Consideremos una combinación lineal

(a1 + i b 1 )(u1 , 0) + · · · + (an + i b n )(un , 0) = (0, 0).

A partir de la definición de las operaciones, nos queda

(a1 u1 + · · · + an un , b 1 u1 + · · · + b n un ) = (0, 0).

Entonces es claro que son linealmente independientes. Si (v , w ) ∈ VC , sea


n
X n
X
v= a i ui , w = b i ui .
i =1 i =1

258 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces
(a1 + i b 1 )(u1 , 0) + · · · + (an + i b n )(un , 0) = (v , w ).


El endomorfismo f se extiende a un endomorfismo f ′ : VC → VC de manera


única, pues si B = {u1 , . . . , un } es una base de V y f (ui ) = vi para todo i =
1, . . . , n, definimos f ′ (ui , 0) = (vi , 0). Es claro que esta extensión es única.
Sea A la matriz de f respecto de B. Entonces la matriz de f ′ respecto a BC
es también A. Nuestro primer objetivo va a ser el cálculo de la forma canónica
de Jordan de f ′ sobre C, y, a partir de ella, obtener una forma canónica real para
f.
Sea λ un autovalor real de f , que lo es también de f ′ . Entonces la cons-
trucción de la parte de base canónica correspondiente a λ se hace con vectores
reales, pues el cálculo de la cadena {wi } involucra matrices reales. Por tanto, los
bloques de f ′ son reales.
Sea ahora λ autovalor de A complejo no real. La construcción de los bloques
correspondientes a λ en f ′ se realiza mediante el proceso de cálculo de una
cadena de vectores asociada a la matriz λI − A. Observemos que la dimensión
del espacio null(λI − A) es la misma que la de null(λI − A), pues

v ∈ null(λI − A) ⇔ A v = λv
⇔ A v = λv ⇔ v ∈ null(λI − A),

donde v es el vector que se obtiene conjugando las componentes de v . Análo-


gamente, la conjugación estable una biyección entre im(λI − A) y im(λI − A),
de forma que
w ∈ im(λI − A) y A y = λy + w ⇔
w ∈ im(λI − A) y A y = λy + w
Por tanto, la cadena de vectores de la base canónica que se construye para λ
permite construir una cadena equivalente para λ, mediante la conjugación de
los vectores.
Ahora vamos a transformar la base canónica compleja en una base con vec-
tores reales.
Sea λ = λ1 + i λ2 autovalor de f , y v = v1 + i v2 autovector asociado, donde
v1 , v2 son, respectivamente, las componentes real e imaginaria. Entonces
f (v1 ) = λ1 v1 − λ2 v2 ,
f (v2 ) = λ2 v1 + λ1 v2 .

En efecto, a partir de las expresiones


1 1
v1 = (v + v ), v2 = (v − v ),
2 2i

Álgebra Lineal y Geometría 259


Depto. de Álgebra

y f ′ (v ) = λ̄v tenemos el resultado.


Ahora vamos a unificar los restantes vectores de la cadena. Sea v = v1 +
i v2 , w = w1 + i w2 vectores que satisfacen las relaciones

f ′ (w ) = λw + v , f ′ (w ) = λw + v

con λ = λ1 + i λ2 autovalor complejo no real de f ′ . Entonces, a partir de las


expresiones de vi , wi , i = 1, 2 en función de v , w y sus vectores conjugados, nos
queda que

f (w1 ) = λ1 w1 − λ2 w2 + v1 , f (w2 ) = λ2 w1 + λ1 w2 + v2 .

Tenemos así probado el siguiente teorema:

Base canónica real

Si la base canónica de Jordan es de la forma

C = {v , w , . . . , v , w , . . .},

con v = v1 + i v2 , w = w1 + i w2 y consideramos la base

C R = {v1 , v2 , w1 , w2 , . . .}

entonces la matriz de f respecto a C R tendrá bloques del tipo

1 0
 
λ1 λ2
 −λ2 λ1
 0 1 


 λ 1 λ2


−λ2 λ1
 
 
 .. 
.

 . 
1 0 
 

0 1 
 

 
 λ1 λ2 
−λ2 λ1

260 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 7.6.1.- Consideremos la matriz


−1 2 4 2
 

 −2 2 4 3
 

A= ,
 
 2 −2 −5 −4 
 
−2 3 6 4
cuyos autovalores son λ1 = 1, λ2 = −1, λ3 = i , λ4 = −i , todos con multiplicidad
algebraica igual a 1. Entonces A es diagonalizable sobre C, con forma canónica
 
λ1
λ2
 
JC =  ,
 
 λ3 
λ4
y matriz de paso
0 1 4/5 + 2/5 i 4/5 − 2/5 i
 

 1 1 2/5 + 1/5 i 2/5 − 1/5 i 


 
¡ ¢
PC = v11 v21 v31 v41 = .
 
 −1 −1 −3/5 + 1/5 i −3/5 − 1/5 i 
 
1 1 1 1
Tal como hemos visto antes, los vectores v31 y v41 son conjugados entre sí, y la
construcción de la base canónica real se reduce a considerar los vectores
4/5 2/5
   

 2/5   1/5 
   
w31 = Re(v31 ) =   , w = Im(v41 ) =  .
   
 −3/5  32  1/5 
   
1 0
Entonces la forma canónica real es
 
1
−1
 
JR =  ,
 
 0 1 
−1 0
y la matriz de paso
0 1 4/5 2/5
 

 1 1 2/5 1/5 
 
.
¡ ¢
PR = v11 v21 w31 w32 =
 
 −1 −1 −3/5 1/5 
 
1 1 1 0

Álgebra Lineal y Geometría 261


Depto. de Álgebra

Ejemplo 7.6.2.- La forma canónica compleja de la matriz


 
−2 3 1 0
−1 1 0 1
 
A=
 
0 1 0 1

 
1 −1 −1 1

es
1 0 0
 
i
 0 i 0 0 
 
JC =  ,
 
 0 0 −i 1 
 
0 0 0 −i
y matriz de paso

−1/2 − 1/2 i 1/2 + 1/2 i −1/2 + 1/2 i 1/2 − 1/2 i


 

1/2 i 1/2 i
 
 −1/2 i −1/2 i 
P = .
 

 −1/2 −1/2 i −1/2 1/2 i 

0 −1/2 i 0 1/2 i

Entonces la forma canónica real es

0 1 1 0 −1/2 −1/2 1/2 1/2


   

 −1 0 0 1   0 0 1/2
   
−1/2 
JR =   , y matriz de paso P R =  .
   
 0 0 0 1   −1/2 0 0 −1/2 
   
0 0 −1 0 0 0 0 −1/2

262 Álgebra Lineal y Geometría


Depto. de Álgebra

7.7. Aplicaciones de la forma canónica

7.7.1. Potencias de una matriz


Tal como hemos visto en sistemas dinámicos discretos, el comportamiento
a largo plazo del sistema depende de las potencias de la matriz asociada. Va-
mos a aprovechar la forma canónica de Jordan de la matriz para estudiar ese
comportamiento.
Sea A una matriz cuadrada y J su forma canónica de Jordan. Entonces existe
P no singular tal que J = P −1 AP , o bien A = P J P −1 , y

A m = (P J P −1 )(P J P −1 ) . . . (P J P −1 ) = P J m P −1 .

Así, se reduce el cálculo de la potencia m-ésima de A al de la potencia m-ésima


de J , que, como veremos, es más sencilla de calcular.

Potencia de un bloque de Jordan

Sea B un bloque de Jordan de orden t , con λ su elemento diagonal.


Entonces
 m ¡m ¢ m−1 ¡m ¢ m−2 ¡ m ¢ m−t+1 
λ 1
λ 2¢
λ . . . ¡t−1 λ
 0 m m m−1 m ¢ m−t+2 
. . . ¡t−2¢λ
¡
λ 1 λ
m
 
m
m
B =
 0 0 λ . . . t−3 λm−t+3 
.
 . .. .. .. ..
 .. .

. . . 
0 0 0 ... λm
¡m ¢
con el convenio de r = 0 si m < r .

P RUEBA : Un bloque de Jordan B se puede expresar como B = λI t +N , donde

0 1 ... 0 0
 
..
0 0 . 0 0
 
 
.. .. .. .. .
 
.
N t×t =
 . . . . .. 
 
 0 0 ... 0 1 
0 0 ... 0 0

Como λI t conmuta con cualquier matriz cuadrada de orden t , y N t−1 6= 0 y

Álgebra Lineal y Geometría 263


Depto. de Álgebra

N k = 0, k ≥ t , se tiene que

B m = (λI t + N )m
à ! à ! à !
m m m−1 m m−2 2 m
= λ It + λ N+ λ N +··· + λm−t+1 N t−1 ,
1 2 t −1

de donde se sigue la expresión buscada. 

Por consiguiente, la expresión general de la potencia m-ésima de A es

B 1m 0 ... 0
 

m
 0 B 2m ... 0 
 −1
A =P .. .. .. .. P ,

 . . . . 
0 0 . . . B tm

donde P es la matriz de paso a la forma canónica de Jordan, y cada B m


j
es la
potencia m-ésima de un bloque de Jordan.

Ejemplo 7.7.1.- La matriz


0 −1
µ ¶
A=
1 0

tiene los autovalores λ = i y λ = −i . Su forma canónica compleja es

0 1 1
µ ¶ µ ¶
i
J= , con matriz de paso P = .
0 −i −i i

Entonces

1 1 im 0 1 1
µ ¶µ ¶ µ ¶
m m −1 i
A =PJ P = m
−i i 0 (−i ) 2 1 −i
1 i m + (−i )m m+1
+ (−i )m+1 ¶
µ
i
= .
2 −i m+1 − (−i )m+1 −i m+2
− (−i )m+2

264 Álgebra Lineal y Geometría


Depto. de Álgebra

7.7.2. Límite de la sucesión de potencias


Para escalares α ∈ C sabemos que αk → 0 si y solamente si |α| < 1, por lo que
es natural preguntarnos si algo parecido ocurre con las matrices.
Lo primero que necesitamos es definir el concepto de límite para sucesio-
nes de matrices cuadradas. Decimos que una sucesión de matrices A k converge
a una matriz A si cada elemento de A k − A converge a cero. Lo escribimos como
lı́mk→∞ A k = A.
La sucesión que vamos a estudiar es la de las potencias de una matriz {A k }.

Radio espectral

Sea A n×n una matriz con entradas complejas. El radio espectral de A


es
ρ(A) = máx{|λ| | λ autovalor de A}.

Ejemplo 7.7.2.- La matriz


0 −1
µ ¶
A=
1 0
tiene autovalores λ1 = i , λ2 = −i , de donde ρ(A) = máx{1, 1} = 1.

El radio espectral es el número asociado a la matriz A que determina el


comportamiento de A k .

Convergencia a cero

Sea A una matriz cuadrada. Son equivalentes:

1. lı́mk→∞ A k = 0.

2. ρ(A) < 1.

Álgebra Lineal y Geometría 265


Depto. de Álgebra

P RUEBA : Si P −1 AP = J es la forma canónica de Jordan de A, entonces

..
 
.
A k = P J k P −1 = P 
 −1
J ∗k

P ,
..
 
.

donde
1
 
λ
.. .. 
J∗ =  . . 

denota un bloque de Jordan en J . Claramente, A k → 0 si y solamente si J ∗k → 0


para cada bloque de Jordan, por lo que basta probar que ρ(A) < 1 si y solamente
si J ∗k → 0 para todo bloque de Jordan. Si usamos la convención de kj = 0 si
¡ ¢

j > k, tenemos
 ¡ k ¢ k−m+1 
λk k1 λk−1 k2 λk−2 . . . m−1
¡ ¢ ¡ ¢
λ

k k−1 . .. .. 
λk .
¡ ¢

 1 λ 

k
J∗ = 
 . .. . .. ¡ k k−2
¢ ,

(7.7.1)
 2¢
λ 
k k−1
λk
¡
1 λ
 
 
k
λ

con m el tamaño del bloque. Vamos a ver que si |λ| < 1 entonces
à !
k k−j
lı́m λ = 0 para cada valor fijado de j.
k→∞ j

Notemos que à !
k k(k − 1) · · · (k − j + 1) k j
= ≤ .
j j! j!
Entonces ¯Ã ! ¯
¯ k ¯ kj
λk−j ¯ ≤ |λ|k−j .
¯ ¯
¯ j!
¯
¯ j

El término de la derecha tiende a cero cuando k → ∞, porque k j tiende a infi-


nito con velocidad polinomial, mientras que |λ|k−j tiende a cero con velocidad
exponencial. Por tanto, si |λ| < 1 entonces J ∗k → 0.
Recíprocamente, supongamos que para cada λ autovalor de A se tiene que
J ∗k → 0 en cada bloque de Jordan. Como

|λ|k ≤ máximo de los módulos de las entradas de J ∗k ,

266 Álgebra Lineal y Geometría


Depto. de Álgebra

entonces |λ| tiene que ser menor que 1. 

Nos centramos ahora en la posibilidad de que exista el límite lı́m A k pero


que no sea cero. Como ya sabemos, lı́m A k existe si y solamente si existe lı́m J ∗k
para cada bloque de Jordan de A. También es claro que lı́m J ∗k no existe cuando
|λ| > 1, y conocemos el resultado cuando |λ| < 1. Por ello, debemos examinar el
caso |λ| = 1. Si |λ| = 1, con λ 6= 1, es decir, λ = exp(i θ), con 0 < θ < 2π, entonces
los términos diagonales λk oscilan indefinidamente, y esto hace que no exista
lı́m J ∗K . Cuando λ = 1,
¡k ¢ k ¢
1 ...
 ¡ 
1 m−1
.. .. ..
. .
 
k
 . 
J∗ = 
..

¡k ¢
.
 
1
 
1 m×m

tiene un valor límite si y solamente si m = 1, que es equivalente a decir que la


multiplicidad algebraica y geométrica de λ = 1 coinciden, pues el bloque 1 × 1
se repetirá p veces, su multiplicidad. Tenemos probado entonces el siguiente
resultado:

Límite de potencias

Existe lı́m A k si y solamente si la forma canónica de Jordan es de la for-


ma
I p×p 0
µ ¶
−1
J = P AP = , (7.7.2)
0 K
donde p es la multiplicidad algebraica (geométrica) de 1, y ρ(K ) < 1.

Supuesta la existencia de lı́m A k , queremos describir dicho límite. Si p = 0,


ya lo sabemos, dicho límite es la matriz nula. Si p > 0, entonces consideremos
µ ¶
¢ −1 Q1
P = P1 P2 , P = ,
¡
Q2

con P 1 matriz de orden n × p, Q 1 de orden p × n. Entonces

I p×p 0 I p×p 0
µ ¶ µ ¶
k −1
lı́m A = lı́m P P =P P −1
0 Kk 0 0
¢ I p×p 0
µ ¶µ ¶
Q1
= P 1Q 1 .
¡
= P1 P2
0 0 Q2

Álgebra Lineal y Geometría 267


Depto. de Álgebra

Si la multiplicidad algebraica es p = 1, entonces lı́m A k = vw t , donde v es


autovector de A asociado a 1, y w t es la primera fila de P −1 . Observemos que,
en tal caso,
1 1
µ ¶ µ ¶
−1
si P AP = entonces = P t A t (P t )−1 = Q −1 A t Q,
K Kt

donde Q = (P −1 )t . La primera columna de Q es autovector de A t asociado al


autovalor 1, y esa columna es la primera fila traspuesta de P −1 , esto es, w t .
Como P −1 P = I , se sigue que w t v = 1.
En conclusión, lı́m A k = vw t , donde v es autovector de A asociado a 1, y w
es autovector de A t asociado a 1, con w t v = 1.

Ejemplo 7.7.3.- Un modelo de predicción del tiempo en una ciudad durante


el invierno considera tres estados posibles: lluvioso (L), nublado (N) y soleado
(S). Las probabilidades de cambio del tiempo siguen el modelo

L k+1 = 0,8L k +0,7Nk +0,5S k ,


Nk+1 = 0,15L k +0,2Nk +0,3S k ,
S k+1 = 0,05L k +0,1Nk +0,2S k ,

donde L k es la probabilidad de lluvia el día k, y análogo para los otros estados.


Por ejemplo, la probabilidad de pasar de día lluvioso a soleado es 0,05. En forma
matricial podemos escribir pk+1 = A pk , donde

0,80 0,70 0,50


   
Lk
pk =  Nk  , A =  0,15 0,20 0,30  .
Sk 0,05 0,10 0,20

La matriz A es una matriz de probabilidad, esto es, sus columnas suman 1. Sus
autovalores son λ1 = 1, λ2 = 0,2, λ3 = 0. El espacio de autovectores asociado a
λ1 es
122/11
 

V1 (λ1 ) = 〈v1 =  27/11 〉.


1
Para A t , el espacio de autovectores asociado a λ1 está generado por w = (1, 1, 1)t .
Buscamos entonces v = r v1 tal que r ( 122 27
11 + 11 +1) = 1, de donde r = 11/160. Por
tanto,
122/60 122/60 122/60 0,76250 0,76250 0,76250
   

lı́m P k =  27/160 27/160 27/160  =  0,16875 0,16875 0,16875  .


11/160 11/160 11/160 0,06875 0,06875 0,06875

268 Álgebra Lineal y Geometría


Depto. de Álgebra

Según este modelo, las probabilidades en el futuro son, aproximadamente, 0,76, 0,17
y 0,07 de lluvioso, nublado y soleado, respectivamente.

7.7.3. Relaciones de recurrencia

Ecuaciones de diferencias

Dados a1 , . . . , a p ∈ R, C, con a p 6= 0, llamamos ecuación lineal de dife-


rencias finitas con coeficientes constantes de orden p a una relación
de recurrencia del tipo

xn+p − a1 xn+p−1 − . . . − a p xn = ϕ(n), para todo n ≥ 1,

donde ϕ : N → R es una función.


Si ϕ(n) = 0 para todo n ∈ N, decimos que la ecuación de diferencias es
homogénea.

Una solución de la ecuación de diferencias es una sucesión {xn }n≥1 que la


satisfaga.
Vamos a calcular una expresión explícita de xn en función de n para el caso
homogéneo. Dada la ecuación de diferencias

xn+p − a1 xn+p−1 − · · · − a p xn = 0, n ≥ 1,

podemos escribir el siguiente sistema de ecuaciones lineales

xn+p = a1 xn+p−1 + · · · + a p−1 xn+1 + a p xn ,


xn+p−1 = xn+p−1 ,
..
.
xn+1 = xn+1 ,

cuya matriz de coeficientes es

a1 a2 . . . a p−1 a p
 

 1 0 ... 0 0 

A=
 0 1 ... 0 0 .

.. .. .. .. ..
.
 
 . . . . 
0 0 ... 1 0

Álgebra Lineal y Geometría 269


Depto. de Álgebra

Esta matriz será la matriz asociada a la ecuación de diferencias. Si escribimos


xn = (xn+p , xn+p−1 , . . . , xn+1 )t entonces

xn = A xn−1 = · · · = A n x0 .

Es claro de lo anterior que el término general xn+p de cualquier solución de la


ecuación de diferencias es una combinación lineal de los elementos de la pri-
mera fila de A n . Como sabemos calcular una expresión general de las potencias
de una matriz cuadrada a partir de sus autovalores, podemos decir algo más.

Término general de la ecuación de diferencias

El término general de una ecuación de diferencias

xn+p = a1 xn+p−1 + · · · + a p xn , para todo n ≥ 1,

es una combinación lineal de

λn , nλn , . . . , n s−1 λn ,

para cada autovalor λ de multiplicidad s de la matriz de la ecuación.

P RUEBA : Sea A la matriz de la ecuación, y J = P −1 AP su forma canónica de


Jordan. Entonces A n = P J n P −1 , de donde los elementos de la primera fila de A
son combinación lineal de los elementos de J n . Sabemos que estos elementos
son de la forma
à ! à ! à !
n n n
λn , λn−1 , λn−2 , . . . , λn−s+1 ,
1 2 s −1

para cada autovalor λ de A, con m su multiplicidad. Recordemos que los blo-


ques de Jordan son a lo sumo de orden s.
Ahora, para cada k = 1, 2, . . ., s − 1,
à !
n n−k λ−k λ−k k
λ = (n(n − 1) · · · (n − k + 1))λn = (n + b 1k n s−1 + · · · + b k,k−1 n)λn ,
k k! k!

para ciertos escalares b 1k , . . . , b k−1,k . Concluimos entonces que los elementos


de P J n P −1 son combinaciones lineales de

λn , nλn , n 2 λn , . . . , n s−1 λn ,

270 Álgebra Lineal y Geometría


Depto. de Álgebra

para cada autovalor λ de A, con multiplicidad s.




El caso en que la matriz de la ecuación en diferencias sea diagonalizable es


particularmente sencillo. Si λ1 , . . . , λr son los autovalores distintos de A, enton-
ces el término general de la ecuación es de la forma

xn+p = c1 λn1 + c2 λn2 + · · · + cr λnr ,

donde c1 , c2 , . . . , cr son escalares.


La determinación de las constantes que aparecen en las combinaciones li-
neales se hará a partir de las condiciones iniciales que nos proporcionen. Da-
rán lugar a un sistema de ecuaciones, y sus soluciones serán los coeficientes
buscados.

Ejemplo 7.7.4.- Sucesión de Fibonacci. Este es el ejemplo clásico que se usa


para ilustrar las ecuaciones en diferencias finitas homogéneas. Consideremos
la sucesión definida por la relación de recurrencia

a0 = 1, a1 = 1, an+1 = an + an−1 , n ≥ 2.
p p
La ecuación característica es z 2 = z + 1, de raíces r 1 = 21 (1 + 5), r 2 = 12 (1 − 5).
Entonces la forma general de la solución es

an = c1 r 1n + c2 r 2n ,

y tenemos que calcular los valores de c1 y c2 . Vienen dados por la condiciones


iniciales, por lo que obtenemos el sistema de ecuaciones

n = 0, a0 = 1 = c1 + c2 ,
½

n = 1, a1 = 1 = c1 r 1 + c2 r 2 .

Las soluciones son


1 1
c1 = p r 1 , c2 = − p r 2 ,
5 5
por lo que
1 1 1
an = p r 1 · r 1n − p r 2 · r 2n = p (r 1n+1 − r 2n+1 )
5 5 5
ÃÃ p !n+1 Ã p !n+1 !
1 1+ 5 1− 5
=p − .
5 2 2

Álgebra Lineal y Geometría 271


Depto. de Álgebra

Ejemplo 7.7.5.- En el estudio de la teoría de colas, aparece el modelo

λp 0 = µp 1 , (λ + µ)p n = λp n−1 + µp n+1 , n ≥ 1, λ < µ,

y los p i indican una distribución de probabilidad. La ecuación la podemos es-


cribir como
λ+µ λ
p n+1 = p n − p n−1 , n ≥ 1,
µ µ
y la ecuación característica es

λ+µ λ
z2 − z + = 0,
µ µ

de soluciones ρ = µλ y 1. Entonces la solución general tiene la forma

p n = c1 ρ n + c2 , n ≥ 1.
n
Como = 1, se deduce que c2 = 0, y que p 0 + c1 = 1. Entonces
P P
n≥0 p n n≥1 ρ

ρ 1−ρ
p 0 + c1 = 1, c1 = (1 − p 0 ).
1−ρ ρ
1−ρ n
Por tanto, p n = ρ ρ (1 − p 0 ), y la otra condición es p 1 = ρp 0 . Concluimos que

1−ρ
p1 = ρ(1 − p 0 ) = ρp 0 ,
ρ

de donde p 0 = 1 − ρ. Finalmente,

1−ρ n
pn = ρ ρ = (1 − ρ)ρ n .
ρ

272 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 7.7.6.- Veamos ahora un problema de probabilidad asociado a una


cadena de Markov. Supongamos que en un juego, el jugador A tiene y monedas
y el jugador B x monedas. El jugador A gana una moneda del jugador B si acier-
ta el resultado del lanzamiento de una moneda, y la pierde en caso contrario.
¿Cuál es la probabilidad de que el jugador A gane las x monedas de B antes de
que el jugador B gane las y monedas de A?
La serie de lanzamientos la gana el jugador A si gana x monedas más que B an-
tes de que B gane y monedas más que A, y es ganada por B en caso contrario.
Sea p n la probabilidad de que A gane la serie en el estado en que ha ganado n
juegos más que B, donde −y ≤ n ≤ x. Esta definición es la adecuada porque las
condiciones para ganar el juego tienen que ver únicamente con la diferencia
entre los juegos ganados por A y B y no con los totales ganados. Vamos a es-
tablecer una ecuación en diferencias para p n . Sea p la probabilidad de que A
gane un juego y q la probabilidad de que lo haga B (p + q = 1). Sea S n el estado
en el que el jugador A tiene n monedas y p n = P (S n ) la probabilidad de ganar
cuando se encuentra en el estado S n . Entonces

P (S n ) = P (S n |W )P (W ) + P (S n |W̄ )P (W̄ ),

donde W es el suceso en el que el jugador A gana. Entonces P (W ) = p, P (W̄ ) = q


y, además,

P (S n |W ) = probabilidad de que A gane con n + 1 monedas,


P (S n |W̄ ) = probabilidad de que A gane con n − 1 monedas.

Es decir, P (S n |W ) = p n+1 y P (S n |W̄ ) = p n−1 , y obtenemos la ecuación en dife-


rencias
p n = pp n+1 + q p n−1 .
Para resolverla,
1 q
0 = pp n+1 − p n + q p n−1 , p n+1 = p n + p n−1 ,
p p
con condiciones iniciales p x = 1, p −y = 0. La ecuación característica es 0 = pz 2 −
z + q. Sus raíces son z = 1, z = q/p. Si p 6= q, tenemos dos raíces distintas, y
entonces
p n = α + β(q/p)n
para ciertos α, β. Si p = q, hay una raíz doble, y en este caso

p n = α + βn.

Apliquemos las condiciones iniciales p x = 1, p −y = 0. En el caso p 6= q obtene-


mos
1 = α + β(q/p)x , 0 = α + β(q/p)−y

Álgebra Lineal y Geometría 273


Depto. de Álgebra

lo que lleva a
1 (q/p) y
α= , β = −
1 − (q/p)x+y (1 − (q/p))x+y
y
1 − (q/p)n+y
pn = , si p 6= q.
1 − (q/p)x+y
En particular,
1−r y q
p0 = , donde r = .
1−r x+y p
Si p = q las ecuaciones para α y β son

1 = α + βx, 0 = α − βy

por lo que
y 1
α= ,β =
x+y x+y
y
y +n
pn = , si p = q.
x+y
y
En este último caso, p 0 = y+x .

7.7.4. Exponencial de una matriz


Si A n×n = (ai j ) es una matriz con entradas complejas, para cada k defini-
mos la matriz P (k) = (p i(k) 1 h
) como I n + kh=1 h! A . Vamos a probar que para cada
P
j
1 ≤ i , j ≤ n el límite lı́m p i(k)
j
existe.
¯ ¯
Para una matriz B n×n = (b i j ), llamamos kBk0 = máxi ,j ¯b i j ¯. Es fácil ver que

kBk0 = 0 si y solamente si B = O, kαBk0 = |α| kBk0 , kB 1 + B 2 k0 ≤ kB 1 k0 + kB 2 k0 .

Si A h = (ai(h)
j
), entonces
¯ ¯
¯ ¯ ¯ n ¯ n ¯
¯ (2) ¯ ¯ X X
¯ak j ¯ ≤ kAk2 n, de donde ° A 2 ° ≤ n kAk2 .
¯ ° °
¯ai j ¯ = ¯ ai k ak j ¯ ≤ kAk0
¯
¯k=1 0 0 0
k=1
¯

Por inducción, kA s k0 = ° A s−1 A °0 ≤ ° A s−1 °0 kAk0 n ≤ n s−1 kAk0s . En general,


° ° ° °

° 1 s° s−1
1
° °
° A ° ≤n kAk0s ≤ [kAk0 n]s ,
° k! ° s! s!
0

274 Álgebra Lineal y Geometría


Depto. de Álgebra

por lo que kP (k)k0 ≤ ks=0 s!1 [kAk0 n]s ≤ exp(kAk0 n). En consecuencia, el límite
P

existe y da lugar a la siguiente definición:

Exponencial de una matriz

Sea A n×n una matriz con entradas complejas. La exponencial de la ma-


triz A es la matriz
e A = exp(A) = (lı́m p i(k)
j
).
k

Es usual escribir e A = I n + s≥1 s!1 A s . Comenzamos con el cálculo de la expo-


P

nencial de matrices sencillas.

Propiedades de la exponencial de una matriz

1. Sea D n×n = (d i i ) una matriz diagonal. Entonces e D es una matriz


diagonal de entradas e di i .

2. Si A es diagonal por cajas

O ... O e A1 O ... O
   
A1
 O A2 ... O  A
 O e A2 ... O 
A= .. entonces e = .. .
   
. .
 
   
O O ... Am O O . . . e Am

3. Si A y B son matrices semejantes, entonces e A y e B son semejan-


tes.

4. Si A y B son matrices que conmutan, entonces e A e B = e A+B =


eB e A.

P RUEBA :

1 s
1. Como D h es una matriz diagonal de entradas d isi , y e di i =
P∞
s=0 s! d i i , se
tiene el resultado.

Álgebra Lineal y Geometría 275


Depto. de Álgebra

2. Se sigue de forma sencilla a partir de la expresión

A 1s ...
 
O O
s
 O A 2s ... O 
A = .. .
 
 . 
s
O O ... Am

3. Si B = P −1 AP , con P no singular, entonces


à !
k 1 k 1
s
−1
(P −1 AP )s para cada k,
X X
P I+ A P =I+
s=1 s! s=1 s!

−1
de donde P −1 e A P = e P AP = e B (la aplicación M 7→ P −1 MP es continua
con respecto a la topología inducida por la norma).

4. Si A y B conmutan, entonces se tiene la fórmula del binomio de Newton


à !
s s j s−j
(A + B)s =
X
A B ,
j =0 j

de donde
k 1 k 1 X s s!
(A + B)s = I + A j B s−j
X X
I+
s=1 s! s=1 s! j =0 j !(s − j )!
k X s µ1 ¶µ
1

j s−j
X
=I+ A B .
s=1 j =0 j ! (s − j )!

Al tomar límite, obtenemos finalmente que e A+B = e A · e B . La otra igual-


dad se deduce de (A + B)s = (B + A)s .

Ejemplo 7.7.7.- Si A es una matriz para la que existe un entero t > 0 tal que
1 h
A t = O, y k es el menor de dichos enteros, entonces e A = I + kh=1 h! A . Por
P

ejemplo, si
0 1 2
 

A =  0 0 −1  ,
0 0 0

276 Álgebra Lineal y Geometría


Depto. de Álgebra

entonces
1 1 3/2
 
1
e A = I + A + A2 = 
 
2  0 1 .
−1 
0 0 1

Ejemplo 7.7.8.- Si

0 r cos(r ) sin(r )
µ ¶ µ ¶
B
B= entonces e = .
−r 0 − sin(r ) cos(r )

Si la forma canónica de Jordan de una matriz A es J , entonces existe P no


singular tal que

λi 1 . . . 0
 
J1 O . . . O
 
 O J2 . . . O  .. ..
. .
 
−1
 
A = P J P, donde J =  . , Ji =  .
 
.. .

.

. 1 
  

O O . . . Jr 0 λi

Por lo que hemos visto,

e J1 ...
 
O O
 O e J2 ... O 
eJ =  .. ,
 
 . 
O O . . . e Jr

y debemos dar una expresión para e J i . Dado que J i = λi I + Ni , con Ni una ma-
triz nilpotente y las matrices λi I y Ni conmutan, llegamos a
1 2 1
µ ¶
Ji λi I Ni λi Ni λi p−1
e = e e = e I e = e I + Ni + Ni + · · · + N ,
2! (p − 1)! i
donde p es el índice de nilpotencia de Ni , es decir, el menor entero p tal que
p
Ni = O. En consecuencia, la forma canónica de Jordan nos permite calcular
e A.

Álgebra Lineal y Geometría 277


Depto. de Álgebra

7.7.5. Ecuaciones diferenciales


Consideremos un sistema de ecuaciones diferenciales de la forma
 ′
 y 1 (t ) = a11 y 1 (t ) + · · · + a1n y n (t ),

..
 .
 ′
y n (t ) = an1 y 1 (t ) + · · · + ann y n (t ),
donde los coeficientes ai j ∈ R y las funciones y i : R → R son diferenciables en la
variable t . El sistema admite una expresión matricial
 
y1
d  . 
Y (t ) = AY (t ), donde A = (ai j ) y Y =  ..  .
dt
yn
Vamos a considerar inicialmente el caso más sencillo en el que A es una ma-
triz diagonalizable. Entonces existe P no singular tal que D = P −1 AP es diago-
nal. Hagamos el cambio Z = P −1 Y , que define una nuevas funciones z i (t ), i =
1, . . . , n. Entonces
d d
Z = P −1 Y ,
dt dt
porque P −1 es una matriz de coeficientes constantes (no depende de la variable
t ). Entonces
d d
Z = P −1 Y = P −1 AY = P −1 AP Z = D Z ,
dt dt
que representa un sistema de la forma
 ′
 z 1 (t ) = λ1 z 1 (t ),

..
 .
 ′
z n (t ) = λn z n (t ),

que es fácilmente resoluble con funciones de la forma z i (t ) = C i e λi t , para algu-


nas constantes C i (pueden ser valores complejos).
En general, la matriz A no será diagonalizable y tenemos que usar entonces
la forma canónica de Jordan de A.

Derivada de la exponencial

Sea t ∈ R y A una matriz cuadrada de orden n. Entonces

d tA
e = Ae t A .
dt

278 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Por definición,


e (t+h)A − e t A
µ hA ¶
d tA e −I A
e = lı́m = lı́m e .
dt h→0 h h→0 h
hA
Si probamos que lı́mh→0 e h
−I
= A, tendremos el resultado. Como

h 2 A2 h s As
ehA = I + h A + +··· + +··· ,
2 s!
se sigue que
hA h 2 A2 h s As
e −I −hA = +··· + +··· .
2 s!
Si aplicamos k·k0 a ambos lados de la igualdad, nos queda
° ° 1° 1°
°e − I − h A ° ≤ °h 2 A 2 °0 + · · · + °h s A s °0 + · · ·
° hA ° ° °
0 2! s!
Recordemos que para cualquier matriz B de orden n se verifica kB s k0 ≤ n s−1 kBk0s ≤
n s kBk0s . Entonces
° s s°
°h A ° = |h|s ° A s ° ≤ |h|s n s kAks = khn Aks ,
° °
0 0 0 0

y tenemos la acotación
° ° 1 1
°e − I − h A ° ≤ khn Ak20 + · · · + khn Ak0s + · · ·
° hA °
0 2! s!
khn Ak0
=e − 1 − khn Ak0 .

Si dividimos por |h| tenemos finalmente


° hA knh Ak0
−1 e |h|nkAk0 − 1
°
°e − I
° ≤e
°
°
° h − A − kn Ak0 = − n kAk0 .
°
0 |h| |h|
|h|nkAk0
° hA °
Cuando h → 0, entonces e |h| −1 → n kAk0 , de donde ° e h−I − A ° → 0, y te-
° °
0
nemos el resultado. 

Solución de un sistema diferencial con coeficientes constantes

Sea ddt Y (t ) = AY (t ) un sistema de ecuaciones diferenciales con coefi-


cientes constantes. Entonces la solución que para t = 0 toma el valor y0
es
Y (t ) = e t A y0 .

Álgebra Lineal y Geometría 279


Depto. de Álgebra

P RUEBA : Definimos Y (t ) = e t A y0 . Entonces, por el teorema de la derivada de la


exponencial,

d
Y (t ) = y0 Ae t A = AY (t ), por lo que es solución del sistema.
dt

Además, Y (0) = e O y0 = I y0 = y0 y esta solución verifica la condición inicial. 

280 Álgebra Lineal y Geometría


Capítulo 8

Espacio vectorial con producto


escalar

Nuestro punto de partida es un espacio vectorial V definido sobre K = R o


K = C. Vamos a desarrollar simultáneamente la noción de producto escalar y
sus consecuencias sobre ambos cuerpos, e iremos observando las diferencias
en cada caso.

8.1. Productos escalares

Producto escalar

Un producto escalar sobre un espacio vectorial real o complejo es una


función 〈·|·〉 : V ×V → K que aplica un par de vectores x, y en un escalar
real o complejo 〈x|y 〉, con las siguientes propiedades para todo x, y , z ∈
V , y α ∈ K:

1. 〈x|x〉 es real, con 〈x|x〉 ≥ 0, y 〈x|x〉 = 0 si y solamente si x = 0.

2. 〈x|αy 〉 = α〈x|y 〉 para todos los escalares α.

3. 〈x|y + z 〉 = 〈x|y 〉 + 〈x|z 〉.

4. 〈x|y 〉 = 〈y |x〉. Para espacios reales queda 〈x|y 〉 = 〈y |x〉.

Nota 8.1.1. Observemos que de la definición anterior se tiene que


〈βx|y 〉 = 〈y |βx〉 = β〈y |x〉
= β〈y |x〉 = β〈x|y 〉.

281
Depto. de Álgebra

Por tanto, no es lineal respecto a la primera componente. No hay unicidad en


la literatura respecto a la segunda propiedad del producto escalar sobre un es-
pacio vectorial complejo. En muchos textos aparece la condición de linealidad
respecto a la primera componente, es decir,

〈βx|y 〉 = β〈x|y 〉,

y entonces se deduce que 〈x|αy 〉 = α〈x|y 〉. Esto solamente afecta a los produc-
tos escalares definidos en espacios vectoriales sobre el cuerpo de los números
complejos. En cualquier caso, el contenido fundamental de la teoría no cambia,
aunque algunas definiciones deben ser retocadas.

Ejemplo 8.1.1.- Consideremos la aplicación 〈·|·〉 : R2 ×R2 → R dada por 〈x|y 〉 =


2x1 y 1 + 3x2 y 2 , donde
µ ¶ µ ¶
x1 y1
x= ,y = .
x2 y2

Entonces

1. 〈x|x〉 = 2x12 + 3x22 es un número real no negativo, pues es la suma de nú-


meros no negativos, y solamente vale cero cuando x = 0.

2. 〈x|αy 〉 = 2x1 (αy 1 ) + 3x2 (αy 2 ) = α(2x1 y 1 + 3x2 y 2 ) = α〈x|y 〉.

3. 〈x|y + z 〉 = 2x1 (y 1 + z 1 ) + 3x2 (y 2 + z 2 ) = 〈x|y 〉 + 〈x, z 〉.

4. 〈y |x〉 = 2y 1 x1 + 3y 2 x2 = 〈x|y 〉.

Entonces 〈·|·〉 es un producto escalar sobre R2 .

282 Álgebra Lineal y Geometría


Depto. de Álgebra

Producto escalar estándar

La función 〈·|·〉e : Rn × Rn → R, que definimos como


n
X
〈x|y 〉e = xt y = x i y i = y t x.
i =1

es un producto escalar sobre R, que denominamos producto es-


calar estándar sobre Rn .

La función 〈·|·〉e : Cn × Cn → C, que definimos como


n
X
〈x|y 〉e = x∗ y = xi y i = y t x
i =1

es un producto escalar sobre C, que denominamos producto es-


calar estándar sobre Cn .

P RUEBA : Vamos a probar el caso complejo, porque el caso real es idéntico.

1. 〈x|x〉e ≥ 0. Por la definición,


n
X n
X
〈x|x〉e = xi xi = |x1 |2 ≥ 0,
i =1 i =1

y solamente toma el valor cero cuando x = 0.

2. 〈x|αy 〉e = α〈x|y 〉e .

〈x|αy 〉e = x∗ (αy ) = α(x∗ y ) = α〈x|y 〉e .

3. 〈x|y + z 〉e = 〈x|y 〉e + 〈x|z 〉e .

〈x|y + z 〉e = x∗ (y + z ) = x∗ y + x∗ z
= 〈x|y 〉e + 〈x|z 〉e .

4. 〈x|y 〉e = 〈y |x〉e .

〈x|y 〉e = x∗ y = (y ∗ x)∗ = y ∗ x = 〈y |x〉e .

Álgebra Lineal y Geometría 283


Depto. de Álgebra

Ejemplo 8.1.2.- Sea P una matriz no singular de orden n sobre C. La aplica-


ción φP : Cn × Cn → C definida por φP (v , w ) = v ∗ P ∗ P w es un producto esca-
lar sobre Cn . Para probarlo, basta considerar que φP (v , w ) = 〈v ′ |w ′ 〉e , donde
v ′ = P v , w ′ = P w y se siguen fácilmente las propiedades. El carácter no singu-
lar de P interviene para asegurar que v ′ 6= 0 si y solamente si v 6= 0.

Ejemplo 8.1.3.- Sea K uno de los cuerpos R o C y consideremos el espacio


vectorial V = M (n × n, K) de las matrices de orden n con coeficientes en K. Se
define un producto escalar sobre V mediante la expresión

〈A|B〉 = traza(A ∗ B).


Pn Pn
Si A = (ai j ) y B = (b i j ), entonces 〈A|B〉 = i =1 j =1 a i j b i j .

Ejemplo 8.1.4.- Sea V el conjunto de funciones continuas en el intervalo [a, b]


con valores reales. Entonces V es un R-espacio vectorial, sobre el que se puede
definir el producto escalar
Zb
〈 f |g 〉 = f (x)g (x) d x.
a

284 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 8.1.5.- Sea V el conjunto de sucesiones {ck } ⊂ C que verifican n≥0 |cn |2 <
P

∞. Tiene estructura de C-espacio vectorial y podemos definir un producto es-


calar con X
〈{ck }|{d k }〉 = ck dk .
n≥0

Como consecuencia de la definición de un producto escalar, se verifica que

〈x + y |z 〉 = 〈x|z 〉 + 〈y |z 〉. En efecto, pues

〈x + y |z 〉 = 〈z |x + y 〉
= 〈z |x〉 + 〈z |y 〉
= 〈x|z 〉 + 〈y |z 〉.

〈x|0〉 = 〈0|x〉 = 0. Tenemos que

〈0|x〉 = 〈0 · x|x〉 = 0 · 〈x|x〉 = 0,

y también 〈x|0〉 = 0.

Fijado x ∈ V , si 〈x|y 〉 = 0 para todo y ∈ V , entonces x = 0. El resultado se


tiene al tomar y = x.

Si 〈x1 |y 〉 = 〈x2 |y 〉 para todo y ∈ V , entonces x1 = x2 , pues 〈x1 − x2 |y 〉 = 0


para todo y ∈ V , y aplicamos el resultado anterior.

Espacios vectoriales euclídeos y unitarios

Los espacios vectoriales reales con un producto escalar se denominan


espacios euclídeos. Los espacios vectoriales complejos con un produc-
to escalar se denominan espacios unitarios.

De forma conjunta, hablaremos de espacios vectoriales con producto escalar o


producto interior y lo notaremos por el par (V, 〈·|·〉).
Si L ⊂ V es un subespacio vectorial de un espacio (V, 〈·|·〉) con producto
escalar, entonces (L, 〈·|·〉|L ) es un espacio con producto escalar, al considerar la
restricción de la aplicación 〈·|·〉.

Álgebra Lineal y Geometría 285


Depto. de Álgebra

8.2. * Expresión matricial de un producto escalar


Sea (V, 〈·|·〉) un espacio vectorial con producto escalar de dimensión finita y
B = {u1 , . . . , un } una base de V .

Matriz de Gram

La matriz de Gram del producto escalar 〈·|·〉 respecto de la base B es la


matriz cuadrada de orden n dada por
 
〈u1 |u1 〉 〈u1 |u2 〉 . . . 〈u1 |un 〉

 〈u2 |u1 〉 〈u2 |u2 〉 . . . 〈u2 |un 〉  ¡
 ¢
G = .. .. ..  = 〈ui |u j 〉 .
 . . . 
〈un |u1 〉 〈un |u2 〉 . . . 〈un |un 〉

Ejemplo 8.2.1.- En Rn , con respecto a la base estándar, la matriz de Gram del


producto escalar estándar 〈·|·〉e es igual a

G = (〈ei |e j 〉e ) = I n .

Lo mismo ocurre con el producto estándar de Cn con respecto a la base están-


dar.

Ejemplo 8.2.2.- Consideremos en R2 el producto escalar dado por 〈x|y 〉 =


2x1 y 1 + 3x2 y 2 , y tomemos la base
µ ¶ µ ¶
1 −1
B = {u1 = , u2 = }.
1 2
Entonces
µ ¶
5 4
〈u1 |u1 〉 = 5, 〈u1 |u2 〉 = 4, 〈u2 |u2 〉 = 14, y G = .
4 14

286 Álgebra Lineal y Geometría


Depto. de Álgebra

En el caso real, la matriz G es simétrica, mientras que en el caso complejo


es hermitiana. La matriz de Gram permite una escritura más compacta de un
producto escalar.
Sean x, y ∈ V , y B = {u1 , . . . , un } una base de V . Si
   
x1 y1

 x2 


 y2 

[x]B =  ..  , [y ]B =  .. ,
 .   . 
xn yn

entonces
n
X n
X
〈x|y 〉 = 〈 x i ui y j uj 〉
i =1 j =1
n X
X n
= 〈xi ui |y j u j 〉
i =1 j =1
X n X n
= xi y j 〈ui |u j 〉
i =1 j =1
= [x]∗B ·G · [y ]B .

Expresión matricial del producto escalar

Sea [x]B , [y ]B los vectores coordenados de dos vectores x, y respecto


de una base B de un espacio vectorial (V, 〈·|·〉) con producto escalar. Si
G es la matriz de Gram asociada a 〈·|·〉 respecto de la base B, entonces

〈x|y 〉 = [x]∗B ·G · [y ]B .

Por supuesto, la matriz de Gram G depende de la base elegida, por lo que es


natural preguntarnos qué ocurre en un cambio de base. Sean G y G ′ las matri-
ces de Gram respecto de bases B y B ′ , respectivamente. Sea P = M(B ′ , B) la
matriz del cambio de base de B ′ a B. Entonces

[x]B = P [x]B ′ , [y ]B = P [y ]B ′ ,

Álgebra Lineal y Geometría 287


Depto. de Álgebra

〈x|y 〉 = [x]∗B G[y ]B


= [x]∗B ′ P ∗GP [y ]B ′ .

Por tanto,

[x]∗B ′ G ′[y ]B ′ = [x]∗B ′ P ∗GP [y ]B ′ para todo x, y ∈ V,

de donde G ′ = P ∗GP .

Producto escalar y cambio de base

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar, y B, B ′ bases de


V . Si G y G ′ son las matrices de Gram respectivas del producto escalar
〈·|·〉, y P = M(B ′ , B) la matriz del cambio de base de B ′ a B, entonces

G ′ = P ∗GP.

Decimos que las matrices son *-congruentes.

El estudio de la *-congruencia de matrices es un tema de profundas ramifi-


caciones cuando cambiamos el cuerpo base.

Ejemplo 8.2.3.- Sea V = R3 con el producto escalar estándar 〈·|·〉e , y conside-


remos las bases
     
1 2 0
B = {e1 , e2 , e3 }, B ′ = {u′1 =  −1  , u′2 =  0  , u′3 =  1 }.
1 −1 1

La matriz de Gram respecto de la base B ′ es


   
〈u′1 |u′1 〉e 〈u′1 |u′2 〉e 〈u′1 |u′3 〉e 3 1 0
G ′ =  〈u′2 |u′1 〉e 〈u′2 |u′2 〉e 〈u′2 |u′3 〉e  =  1 5 −1  .
〈u′3 |u′1 〉e 〈u′3 |u′2 〉e 〈u′3 |u′3 〉e 0 −1 2

La matriz de Gram respecto de la base B es la matriz identidad, y la matriz del


cambio de base de B ′ a B es
 
1 2 0
P = M(B ′ , B) =  −1 0 1 .
1 −1 1

288 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces  
3 1 0
P t I 3P =  1 5 −1  = G ′ ,
0 −1 2
como sabíamos.

La matriz de Gram de un producto escalar es hermitiana (simétrica en el


caso real). Sin embargo, no toda matriz hermitiana (simétrica) da lugar a un
producto escalar.

8.3. Norma

Norma de un vector

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar. Se denomina


norma del vector x al número
p
kxk = 〈x|x〉.

La definición tiene sentido por las propiedades del producto escalar. Aunque
no aparece en la notación, la norma de un vector depende del producto escalar
usado.

Ejemplo 8.3.1.- En V = R4 , consideremos el producto escalar estándar 〈·|·〉e .


Entonces el vector
 
1
 1 
  p
v=  tiene como normas kv k = 1 + 1 + 1 + 1 = 2.
 −1 
−1
En cambio, con respecto al producto escalar definido por 〈x|y 〉 = x1 y 1 +2x2 y 2 +
3x3 y 3 + 4x4 y 4 se tiene que
p p
kv k = 1 + 2 + 3 + 4 = 10.

Álgebra Lineal y Geometría 289


Depto. de Álgebra

Ejemplo 8.3.2.- Si V = M (n×n, C), con el producto escalar 〈A|B〉 = traza(A ∗ B),
se tiene que
à !1/2
n X
X n
2
kAk = |ai j | .
i =1 j =1

Esta norma se conoce como norma de Frobenius de la matriz A, y se nota como


kAkF .

Nota 8.3.1. En Rn o Cn con el producto escalar estándar, la norma asociada se


¡P ¢1/2
denomina norma euclídea o 2-norma, y se suele notar como kxk2 = ni=1 |xi |2 .

Propiedades de la norma

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar. Para cualesquie-
ra x, y ∈ V y escalar α ∈ K se verifica

1. kxk ≥ 0, y kxk = 0 si y solamente si x = 0.

2. kαxk = |α| kxk.

3. kx − y k = ky − xk.

P RUEBA : Son inmediatas a partir de la definición de norma. 

Dado x ∈ V no nulo, es frecuente usar otro vector u ∈ V que tenga la misma


dirección y sentido que x, pero de norma igual a 1. Basta considerar

1
u= x.
kx k

Este proceso se denomina normalización.

290 Álgebra Lineal y Geometría


Depto. de Álgebra

Desigualdad CBS o de Cauchy-Schwarz

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar, y x, y ∈ V . En-


tonces
|〈x|y 〉| ≤ kxk ky k .
La igualdad se da si y solamente si un vector es múltiplo del otro.

P RUEBA : Si x = 0 no hay nada que probar. Sea α = 〈x|y 〉/〈x|x〉, y observemos


que
〈y |x〉
α= , y 〈x|αx − y 〉 = 0.
〈x|x〉
Entonces
0 ≤ kαx − y k2 = 〈αx − y |αx − y 〉 = α〈x|αx − y 〉 − 〈y |αx − y 〉
= −〈y |αx − y 〉 = −α〈y |x〉 + 〈y |y 〉
〈x|y 〉
= − 2
〈y |x〉 + ky k2
kx k
1
= (ky k2 kxk2 − 〈x|y 〉〈y |x〉).
kx k2
Como 〈y |x〉 = 〈x|y 〉, se tiene que 〈x|y 〉〈y |x〉 = |〈x|y 〉|2 , de donde
ky k2 kxk2 − |〈x|y 〉|2
0≤ .
kxk2
Observemos que el valor 0 solamente se toma cuando ky k2 kxk2 − |〈x|y 〉|2 = 0.
Como kxk2 > 0, se deduce que ky k2 kxk2 − |〈x|y 〉|2 ≥ 0, y tenemos la desigual-
dad.
Veamos ahora las condiciones de igualdad. Si y = αx, entonces
|〈x|y 〉| = |α| kxk2 = kxk ky k .
Recíprocamente, si |〈x|y 〉| = kxk ky k, entonces kαx − y k = 0, de donde y = αx.


Esta desigualdad es una de las más importantes en matemáticas, y se suele usar


bajo el nombre de desigualdad CBS, con la “B” correspondiente a Victor Bunya-
kovskii, matemático ruso que extendió el resultado de Cauchy sobre números
reales a sumas de integrales.
Una de las consecuencias de la desigualdad CBS es la extensión al caso n-
dimensional del resultado clásico de la geometría del plano acerca de la rela-
ción entre las longitudes de los lados de un triángulo.

Álgebra Lineal y Geometría 291


Depto. de Álgebra

Desigualdad triangular

Sean x, y ∈ V . Entonces

kx + y k ≤ kx k + ky k .

La igualdad se da si y solamente si y o x es múltiplo no negativo del


otro.

P RUEBA : Se tiene que

kx + y k2 = 〈x + y |x + y 〉 = 〈x|x〉 + 〈x|y 〉 + 〈y |x〉 + 〈y |y 〉


= kxk2 + ky k2 + 2 Re(〈x|y 〉)
≤ kxk2 + ky k2 + 2|〈x|y 〉|.

Por la desigualdad CBS, |〈x|y 〉| ≤ kxk ky k, y entonces

kx + y k2 ≤ kxk2 + ky k2 + 2 kxk ky k = (kxk + ky k)2 .

Si kx + y k = kxk+ky k entonces todas las desigualdades son igualdades y 〈x|y 〉 =


kxk ky k. Recíprocamente, si 〈x|y 〉 = kxk ky k, entonces 〈x|y 〉 es un número real
y 〈x|y 〉 = 〈y |x〉 y kx + y k2 = (kxk + ky k)2 . Por tanto, la igualdad se tiene si y
solamente si
〈x|y 〉 = kxk ky k. (8.3.1)

Si uno de los vectores x, y es múltiplo real no negativo del otro, se obtiene la


igualdad (8.3.1). Si se tiene la igualdad (8.3.1), entonces se sigue la igualdad en
la desigualdad CBS, lo que implica que uno de los vectores es múltiplo del otro.
Por ejemplo, si y = αx,

〈x|y 〉 = 〈x|αx〉 = α kxk2 ,


kxk ky k = kxk kαxk = |α| kxk2 ,

y al igualar nos queda que α = |α|, de donde α ∈ R, y no negativo. Si los dos


vectores x, y son no nulos, entonces α > 0.
Si x = 0, nos vale cualquier α. Si x 6= 0, entonces y = αx 6= 0, de donde α > 0.


Un resultado interesante es que si una norma procede de un producto es-


calar, podemos recuperar la expresión de dicho producto a partir de la norma.

292 Álgebra Lineal y Geometría


Depto. de Álgebra

Producto escalar a partir de la norma

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar y k·k la norma
asociada. Consideremos u, v ∈ V .

1. Si V es un R-espacio vectorial, entonces

1¡ ¢
〈u|v 〉 = ku + v k2 − ku − v k2 .
4

2. Si V es un C-espacio vectorial, entonces

1¡ ¢
〈u|v 〉 = ku + v k2 − ku − v k2
4
i¡ ¢
+ ku + i v k 2 − ku − i v k 2 .
4

P RUEBA : Es una sencilla comprobación, a partir de

〈u|v 〉 + 〈v |u〉 = 2 Re(〈u|v 〉), 〈u|v 〉 − 〈v |u〉 = 2i Im(〈u|v 〉).

En un espacio vectorial euclídeo, la desigualdad CBS nos garantiza que si


x, y ∈ V no nulos, entonces
〈x|y 〉
−1 ≤ ≤ 1.
kx k ky k

Entonces existe un único valor θ ∈ [0, π] tal que

〈x|y 〉
cos θ = .
kx k ky k

Ángulo entre vectores

El único valor θ ∈ [0, π] tal que

〈x|y 〉
cos(θ) = .
kx k ky k

se denomina ángulo entre los vectores x, y .

Álgebra Lineal y Geometría 293


Depto. de Álgebra

Ejemplo 8.3.3.- En R3 con el producto escalar estándar, consideremos los vec-


tores    
0 0
x =  1 ,y =  0 .
1 −1
Entonces p
−1 2 3π
cos(θ) = p =− , de donde θ = .
2·1 2 4

Damos ahora un resultado matricial, que parece no relacionado con pro-


ductos escalares, pero la demostración más sencilla se basa en el producto es-
calar estándar de Cn .

Relación entre A, A ∗ A y A A ∗

Sea A una matriz de orden m × n. Entonces

1. null(A) = null(A ∗ A), null(A ∗ ) = null(A A ∗ ).

2. rango(A) = rango(A ∗ A) = rango(A A ∗ ) = rango(A ∗ ).

3. Col(A ∗ ) = Col(A ∗ A), Col(A) = Col(A A ∗ ).

P RUEBA :

1. Si A v = 0, entonces (A ∗ A)v = 0, por lo que null(A) ⊂ null(A ∗ A). Recípro-


camente, si (A ∗ A)v = 0, entonces

kA v k2 = 〈A v |A v 〉e = v ∗ A ∗ A v = 0

de donde A v = 0, y tenemos la igualdad null(A) = null(A ∗ A). Si aplicamos


este resultado a A ∗ nos queda la segunda igualdad.

2. A partir de lo anterior,

rango(A) = dim(Col(A)) = n − dim(null(A)) = n − dim(null(A ∗ A))


= dim(Col(A ∗ A)) = rango(A ∗ A),

y si aplicamos este resultado a A ∗ , nos queda rango(A ∗ ) = rango(A A ∗ ).

294 Álgebra Lineal y Geometría


Depto. de Álgebra

3. Si b ∈ Col(A ∗ A), entonces b = A ∗ A u = A ∗ (A u), de donde b ∈ Col(A ∗ ). Así,


Col(A ∗ A) ⊂ Col(A ∗ ), y como son de la misma dimensión, tenemos que
Col(A ∗ A) = Col(A ∗ ). Entonces, si tomamos A ∗ en lugar de A, obtenemos

Col(A) = Col((A ∗ )∗ ) = Col((A ∗ )∗ A ∗ ) = Col(A A ∗ ).

8.4. * Normas vectoriales


En un espacio vectorial general V , aunque no tenga producto escalar, se
puede definir el concepto de norma de un vector.

Normas vectoriales

Una norma sobre un espacio vectorial V es una aplicación k·k : V → R


que satisface las siguientes condiciones:

kxk ≥ 0, y kxk = 0 si y solamente si x = 0,

kαxk = |α| kxk,

kx + y k ≤ kxk + ky k,

para todo x, y ∈ V y todo escalar α ∈ K .

Por las propiedades que hemos visto, la norma inducida por un producto esca-
lar es una norma vectorial, que se denomina norma euclídea, y se representa
por k·k2 . Sobre Cn existen otras normas, como por ejemplo
Pn
kxk1 = i =1 |x i |, que llamamos 1-norma,

kxk∞ = máx{|xi | | i = 1, . . . , n}, que es la norma infinito.

Es fácil probar las condiciones de la definición. Una pregunta natural es si da-


da una norma vectorial k·k existe un producto escalar ψ del que proceda. La
respuesta para espacios reales y complejos procede de M. Frechet y J. von Neu-
mann.

Álgebra Lineal y Geometría 295


Depto. de Álgebra

Identidad del paralelogramo

Dada una norma k·k en un espacio vectorial V , existe un producto es-


calar ψ en V tal que kxk2 = ψ(x, x) si y solamente si la identidad del
paralelogramo

kx + y k2 + kx − y k2 = 2(kxk2 + ky k2 )

se verifica para todo x, y ∈ V .

P RUEBA : Veremos el caso real. Es inmediato que si existe un producto escalar


〈·|·〉, entonces se verifica la identidad del paralelogramo, pues

kx + y k2 + kx − y k2 = 〈x + y |x + y 〉 + 〈x − y |x − y 〉
= 〈x|x〉 + 〈x|y 〉 + 〈y |x〉 + 〈y |y 〉
+〈x|x〉 − 〈x|y 〉 − 〈y |x〉 + 〈y |y 〉
= 2(kxk2 + ky k2 ).

La parte difícil es establecer el recíproco. Supongamos que la norma k·k verifica


la identidad del paralelogramo. Vamos a probar que la función

1
ψ(x, y ) = (kx + y k2 − kx − y k2 )
4

define un producto escalar tal que ψ(x, x) = kxk2 . Es inmediato que

ψ(x, x) = kxk2 , por lo que es un número real no negativo, y solamente se


anula en x = 0.

ψ(x, y ) = ψ(y , x).

Tenemos que ver lo que ocurre con las dos restantes propiedades. Por la iden-
tidad del paralelogramo, podemos escribir

1
kx + y k2 + kx + z k2 = (kx + y + x + z k2 + ky − z k2 ),
2
1
kx − y k2 + kx − z k2 = (kx − y + x − z k2 + kz − y k2 ),
2
y al restar ambas igualdades nos queda

k2x + (y + z )k2 − k2x − (y + z )k2


kx + y k2 − kx − y k2 + kx + z k2 − kx − z k2 = .
2

296 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces
1
ψ(x, y ) = k2 k k2 k k2 k
4 (kx + y − x − y + x + z − x − z )
k2
1 2 2
= 8 (k2 x + (y + z )k − k2x − (y + z )k )
°2 °
(8.4.1)
° − °x − 1 (y + z )°2 ) = 2ψ(x, 1 (y + z )).
1 °
° 1
°
= 2 ( x + 2 (y + z ) 2 2

Si sustituimos z = 0 tenemos la igualdad


1
ψ(x, y ) = 2ψ(x, y ) para todo y ∈ V.
2
Si aquí cambiamos y por y + z , obtenemos ψ(x, y + z ) = 2ψ(x, 12 (y + z )), y la
ecuación 8.4.1 nos proporciona

ψ(x, y ) + ψ(x, z ) = ψ(x, y + z ).

Ahora probemos que ψ(x, αy ) = αψ(x, y ) para todo número real α. Por lo an-
terior, el resultado es válido para los números enteros. Si α = β/γ es racional,
entonces
β β β
γ2 ψ(x, y ) = ψ(γx, βy ) = βγψ(x, y ), de donde ψ(x, y ) = ψ(x, y ).
γ γ γ

Como las funciones kx + αy k y kx − αy k son funciones continuas en α, la defi-


nición de ψ garantiza que ψ(x, αy ) es una función continua de α. Por tanto, si
α es irracional y {αn } es una sucesión de racionales que tiende a α, se verifica
que
ψ(x, αn y ) → ψ(x, αy ), y ψ(x, αn y ) = αn ψ(x, y ) → αψ(x, y ),
de donde ψ(x, αy ) = αψ(x, y ).


La identidad del paralelogramo se denomina así porque expresa que la suma


de los cuadrados de las diagonales de un paralelogramo es igual a dos veces la
suma de los cuadrados de los lados, en el caso real.

8.5. Ortogonalidad

Vectores ortogonales

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar y v , w ∈ V . Deci-


mos que v y w son ortogonales si 〈v |w 〉 = 0. En tal caso, lo notaremos
como v ⊥w .

Álgebra Lineal y Geometría 297


Depto. de Álgebra

Ejemplo 8.5.1.- En V = C2 con el producto escalar estándar, los vectores


µ ¶ µ ¶
2 + 3i 1+i
v= ,w = son ortogonales.
−1 + 5i −i

Ejemplo 8.5.2.- Sea V = C ([−1, 1]) el R-espacio vectorial de las funciones con-
tinuas en el intervalo [−1, 1], donde tenemos el producto escalar
Z1
〈 f |g 〉 = f (x)g (x) d x.
−1

Para cada i ≥ 0, definimos las funciones p 0 : x 7→ 1, p 1 : x 7→ x, y


µ ¶ µ ¶
2h + 1 h
p h+1 : x 7→ xp h (x) − p h−1 (x), para h > 1.
h +1 h +1
Estas funciones polinómicas se llaman polinomios de Legendre. Es fácil verifi-
car que p k ⊥p h para k 6= h.
En el mismo espacio podemos definir otro producto escalar mediante
Z1
f (x)g (x)
〈 f |g 〉 = p d x.
−1 1 − x2
Para i ≥ 0 definimos las funciones q i ∈ V como q 0 : x 7→ 1, q 1 : x 7→ x y

q h+1 : x 7→ 2xq h (x) − q h−1 (x) si h > 1.

Estas funciones polinómicas se llaman polinomios de Chebyshev. De nuevo se


verifica que q k ⊥q h si k 6= h.
Ambos productos son casos especiales de una construcción más general.
Sean −1 < r, s ∈ R. Se define en V un producto escalar mediante la expresión
Z1
〈 f |g 〉 = f (x)g (x)(1 − x)r (1 + x)s d x.
−1

298 Álgebra Lineal y Geometría


Depto. de Álgebra

Podemos decir entonces que dos vectores de Rn son ortogonales cuando el


ángulo entre ellos es igual a π/2. Los vectores ortogonales verifican una propie-
dad clásica.

Teorema de Pitágoras

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar y consideremos


vectores v , w ∈ V . Si v ⊥w entonces kv + w k2 = kv k2 +kw k2 . El recípro-
co se tiene para R-espacios vectoriales.

P RUEBA : Se verifica que

kv + w k2 = 〈v + w |v + w 〉 = 〈v |v 〉 + 〈v |w 〉 + 〈w |v 〉 + 〈w |w 〉
= kv k2 + kw k2 + 2 Re(〈v |w 〉).

A partir de aquí tenemos el resultado. 

Conjuntos ortonormales

Un conjunto S = {u1 , u2 , . . . , ur } es un conjunto ortogonal si ui ⊥u j


cuando i 6= j , y ui 6= 0 para todo i = 1, . . . , r .
Un conjunto T = {u1 , u2 , . . . , ur } es un conjunto ortonormal si ui ⊥u j
cuando i 6= j y kui k = 1 para todo i = 1, . . . , r .

Es fácil ver que un conjunto ortogonal es linealmente independiente. En


efecto, consideremos un conjunto ortogonal {u1 , . . . , ur }, y una combinación
lineal
α1 u1 + α2 u2 + . . . + αr ur = 0.
Si realizamos el producto escalar a ambos lados de esta igualdad por ui , para
cada i = 1, . . . , r , nos queda
r
X r
X
0 = 〈 ui | αj uj 〉 = α j 〈ui |u j 〉.
j =1 j =1

Todos los sumandos de la derecha son nulos, salvo 〈ui |ui 〉, que es positivo.
Entonces αi = 0, para todo i = 1, . . ., r .

Álgebra Lineal y Geometría 299


Depto. de Álgebra

Ejemplo 8.5.3.- Consideremos V = R3 con el producto escalar estándar. El


conjunto
     
1 1 −1
B ′ = {u1 =  −1  , u2 =  1  , u3 =  −1 }
0 1 2
p
es
p un conjunto
p ortogonal, pero no es ortonormal. Como ku1 k = 2, ku2 k =
3, ku3 k = 6, el conjunto B = { p1 u1 , p1 u2 , p1 u3 } es ortonormal.
2 3 6

Expansión de Fourier

Si B = {u1 , u2 , . . . , un } es una base ortogonal de un espacio vectorial con


producto escalar, entonces cada x ∈ V se puede expresar como

〈u1 |x〉 〈u2 |x〉 〈un |x〉


x= 2
u1 + 2
u2 + · · · + un .
ku1 k ku2 k kun k2

Esta expresión se denomina expansión de Fourier del vector x. Los es-


〈u |x〉
calares xi = kui k2 son las coordenadas de x respecto de la base B, y se
i
denominan coeficientes de Fourier.

P RUEBA : Si x = α1 u1 + α2 u2 + · · · + αn un , entonces
n
X n
X ° °2
〈u j |x〉 = 〈u j | αi ui 〉 = αi 〈u j |ui 〉 = α j °u j ° .
i =1 i =1

Ejemplo 8.5.4.- En R3 , consideremos la base ortogonal respecto al producto


escalar estándar dada por
    
1 1 0
B = {u1 = −1 , u2 = 1 , u3 = 0 },
    
0 0 1

300 Álgebra Lineal y Geometría


Depto. de Álgebra

Figura 8.1: Joseph Fourier (1768-1830)

Entonces el vector  
2
x =  −3 
4
verifica
〈u1 |x〉e 〈u2 |x〉e 〈u3 |x〉e 5 1
x= 2
u1 + 2
u2 + 2
u3 = u1 − u2 + 4 u3 ,
ku1 k ku2 k ku3 k 2 2
por lo que sus coordenadas respecto a B son
 
5/2
[x]B =  −1/2  .
4

Proyección ortogonal de un vector

Sea W ⊂ V un subespacio de dimensión finita de (V, 〈·|·〉), con BW =


{w1 , . . . , wr } una base ortogonal de W . Para cada x ∈ V , el vector
r 〈w |x〉
X i
proyW (x) = wi
i =1 kwi k2

es un vector de W que verifica 〈w |x − proyW (x)〉 = 0 para todo w ∈ W .

Álgebra Lineal y Geometría 301


Depto. de Álgebra

P RUEBA : Como proyW (x) es combinación lineal de la base de W , pertenece al


subespacio. Observemos en primer lugar que, para cada j = 1, . . . , r se tiene que

r 〈w |x〉
X i
〈w j |x − proyW (x)〉 = 〈w j |x〉 − 〈w j | wi 〉
i =1 kwi k2
r 〈w |x〉
X i
= 〈w j |x〉 − 〈w j |wi 〉 = 〈w j |x〉 − 〈w j |x〉 = 0.
i =1 kwi k2

Por tanto, x −proyW (x) es un vector ortogonal a todos los elementos de la base
de W . Sea ahora w ∈ W , por lo que admite una expresión de la forma w =
Pr
j =1 α j w j . Entonces

r
X r
X
〈w |x − proyW (x)〉 = 〈 α j w j |x − proyW (x)〉 = α j 〈w j |x − proyW (x)〉 = 0.
j =1 j =1

Este vector proyW (x) se denomina proyección ortogonal de x sobre W . En


principio, su expresión depende de la base elegida, pero veremos más adelante
que queda unívocamente determinado por x y W .

Ejemplo 8.5.5.- Si en el ejemplo anterior consideramos W = 〈u1 , u2 〉, y el mis-


mo vector x, entonces

〈u1 |x〉e 〈u2 |x〉e 5 1


proyW (x) = 2
u1 + 2
u2 = u1 − u2 .
ku1 k ku2 k 2 2

Las bases ortogonales y ortonormales hacen que el cálculo del producto


escalar sea sencillo

302 Álgebra Lineal y Geometría


Depto. de Álgebra

Expresión del producto escalar con respecto a una base ortogonal


/ortonormal

Sea B = {u1 , . . . , un } una base de un espacio vectorial (V, 〈·|·〉) con pro-
ducto escalar y tomemos v , w ∈ V con expresiones
n
X n
X
v= v i ui , w = w j uj .
i =1 j =1

1. Si B es ortogonal, entonces
n
X
〈v |w 〉 = kui k2 v i w i .
i =1

2. Si B es ortonormal, entonces
n
X
〈v |w 〉 = v i w i = [v ]∗B [w ]B .
i =1

P RUEBA : Supongamos que B es una base ortogonal. Entonces 〈ui |u j 〉 = 0


si i 6= j y 〈ui |ui 〉 = kui k2 . De aquí,

n
X n
X n X
X n
〈v |w 〉 = 〈 v i ui | w j uj 〉 = v i w j 〈ui |u j 〉
i =1 j =1 i =1 j =1
n
X
= v i w i kui k2 .
i =1

En el caso ortonormal, cada kui k es igual a 1. 

8.6. Matrices unitarias

En esta sección examinamos las matrices cuadradas cuyas columnas (o fi-


las) son ortonormales respecto al producto escalar estándar.

Álgebra Lineal y Geometría 303


Depto. de Álgebra

Matrices unitarias y ortogonales

Una matriz unitaria es una matriz compleja Un×n cuyas colum-


nas (o filas) constituyen una base ortonormal de Cn .

Una matriz ortogonal es una matriz real Q n×n cuyas columnas


(o filas) constituyen una base ortonormal de Rn .

Las matrices unitarias y ortogonales tienen unas propiedades interesantes, una


de las cuales es ¡que son fáciles de invertir.
¢ Para ello, observemos que las colum-
nas de Un×n = u1 u2 . . . un forman un conjunto ortonormal si y sola-
mente si
½
∗ ∗ 1 si i = j ,
[U U ]i j = ui u j = ⇔ U ∗U = I ⇔ U −1 = U ∗ .
0 si i 6= j ,

Notemos que U ∗U = I si y solamente si UU ∗ = I , es decir, las columnas de U


son ortonormales si y solamente si las filas de U son ortonormales.
Otra importante propiedad es que la multiplicación por una matriz unita-
ria no cambia la longitud de un vector. En efecto, si U es una matriz unitaria,
entonces
kU xk22 = x∗U ∗U x = x∗ x = kxk22 , para todo x ∈ Cn . (8.6.1)

En resumen,

Propiedades de las matrices unitarias

1. Una matriz Un×n compleja (Q n×n real) es unitaria (ortogonal) si y


solamente si U ∗ = U −1 (Q t = Q −1 ).

2. Una matriz Un×n compleja (Q n×n real) es unitaria (ortogonal) si y


solamente si sus filas son ortonormales.

3. Si U es una matriz unitaria y x ∈ Cn , entonces kU xk2 = kxk2 .


Análogo para matrices ortogonales y vectores en Rn .

Las matrices unitarias tienen un papel destacado en los cambios de base de


espacios unitarios.

304 Álgebra Lineal y Geometría


Depto. de Álgebra

Cambio de base ortonormal

Sean B y B ′ bases ortonormales de un espacio vectorial (V, 〈·|·〉) con


producto escalar de dimensión finita. Entonces la matriz de cambio de
base P = M(B, B ′ ) es unitaria.

P RUEBA : Sean B = {u1 , . . . , un } y B ′ = {u′1 , . . . , u′n } las bases ortonormales. En-


tonces
〈ui |u j 〉 = 〈u′i |u′j 〉 = δi j .

La matriz de paso entre las bases es de la forma


 
a11 a12 ... a1n
¡ ¢  a21 a22 ... a2n 
P = M(B, B ′ ) =
 
[u1 ]B ′ [u2 ]B ′ . . . [un ]B ′ = .. .. .. .. .
 . . . . 
an1 an2 . . . ann
Pn
Esto significa que ui = k=1
aki u′k , de donde

n
X n
X
〈ui |u j 〉 = 〈 aki u′k | al j u′l 〉
k=1 l =1
n X
X n
= aki al j 〈u′k |u′l 〉
k=1 l =1
Xn
= aki ak j , pues solamente aparecen los términos con k = l .
k=1

Esta última expresión es el elemento (i , j ) de la matriz P ∗ P . Dado que I =


(〈ui |u j 〉), tenemos el resultado. 

Nota 8.6.1. Hemos visto que la multiplicación por una matriz unitaria no altera
la norma euclídea de un vector. Algo parecido ocurre con la norma de Frobe-
nius de una matriz. Sea A n×n una matriz con coeficientes complejos y Un×n
una matriz unitaria. Entonces

kAU k2F = traza((AU )∗ (AU )) = traza(U ∗ A ∗ AU ).

Recordemos que se tiene, en general, que traza(A 1 A 2 ) = traza(A 2 A 1 ). Entonces


traza((U ∗ A ∗ A)U ) = traza(U (U ∗ A ∗ A)) = traza(A ∗ A) = kAk2F . De forma análoga
se tiene que kU AkF = kAkF .

Álgebra Lineal y Geometría 305


Depto. de Álgebra

8.7. Método de Gram-Schmidt


Si K = R, C, la base estándar de Kn es ortonormal con respecto al producto
escalar estándar. Sin embargo, nos planteamos una pregunta: dado un espa-
cio de dimensión finita con un producto escalar, ¿tiene una base ortonormal?
Pensemos en un subespacio vectorial, dado por un sistema de generadores, y
del que queremos calcular una base ortonormal para, posteriormente, realizar
proyecciones. La respuesta a esta pregunta la encontramos con el procedimien-
to de Gram-Schmidt.

Figura 8.2: Jorgen P. Gram (1850-1916), Erhard Schmidt (1876-1959)

Partamos entonces de un espacio vectorial (V, 〈·|·〉) con un producto esca-


lar. Sea S = {v1 , . . . , vs } un conjunto de vectores linealmente independientes.
Vamos a construir un conjunto ortonormal de vectores {q1 , . . . , qs } tal que para
cada k ∈ {1, . . . , s} se verifica que el subespacio vectorial generado por los vecto-
res {v1 , . . . , vk } es igual que el subespacio vectorial generado por {q1 , . . . , qk }.
El proceso es por inducción sobre s. Para s = 1, tomamos simplemente q1 =
v1 / kv1 k. En general, escribimos
q1′ = v1 ,
q2′ = v2 − λ12 q1′
..
.
qs′ = vs − λ1s q1′ − · · · − λs−1,s qs−1

,
para ciertos escalares λi j . Buscamos esta forma en los vectores qi′ para que ge-
neren el mismo subespacio vectorial que los vi . Queremos imponer la condi-
ción de ortogonalidad en el conjunto {q1′ , . . . , qs′ }. Para ello tiene que ocurrir que
° °2
〈q1′ |q2′ 〉 = 0 = 〈q1′ |v2 〉 − λ12 °q1′ ° ,

306 Álgebra Lineal y Geometría


Depto. de Álgebra

de donde podemos calcular λ12 y entonces tenemos el vector q2′ . Es claro que
el subespacio generado por {q1′ , q2′ } es igual que el subespacio generado por
{v1 , v2 }. En general, si tenemos construidos q1′ , . . . , qk−1

, con la igualdad de los
espacios generados por los vectores

{v1 , . . . , vk−1 } y {q1′ , . . . , qk−1



},

entonces para obtener qk′ imponemos las condiciones


° °2
0 = 〈q1′ |qk′ 〉 = 〈q1′ |vk 〉 − λ1k °q1′ °
° °2
0 = 〈q2′ |qk′ 〉 = 〈q2′ |vk 〉 − λ2k °q2′ °
.. ..
. .
′ ′ ′
° ′ °2
0 = 〈qk−1 |qk 〉 = 〈qk−1 |vk 〉 − λk−1,k °qk−1 °

y podemos calcular todos los λ j k . Se tiene además que los subespacios genera-
dos por {v1 , . . . , vk } y {q1′ , . . . , qk′ } son iguales. Si ahora normalizamos qi = °°q1′ °° qi′
i
conseguimos el conjunto ortonormal. Observemos que la normalización de ca-
da qi′ se puede realizar en cada paso.
La forma de los coeficientes λi k es la asociada a la proyección ortogonal
de vk sobre el subespacio Wk−1 = 〈q1′ , . . . , qk−1

〉, si usamos su base ortogonal
′ ′
{q1 , . . . , qk }. Podemos escribir entonces que
1

q1′ = v1 ,
qk′ = vk − proyWk−1 (vk ), 2 ≤ k ≤ s.

Procedimiento de ortogonalización de Gram-Schmidt

Si S = {v1 , v2 , . . . , vs } es un conjunto de vectores linealmente indepen-


diente, entonces la sucesión de Gram-Schmidt definida por

〈qi′ |vk 〉 ′
k−1
X
q1′ = v1 , qk′ = vk − proyWk−1 (vk ) = vk − ° ′ °2 qi , 2 ≤ k ≤ s,
i =1 °q ° i

es una base ortogonal de 〈S〉.

Si escribimos qi = °°q1′ °° qi′ , i = 1, 2, . . ., s, entonces {q1 , q2 , . . . , qs } es una base


i
ortonormal de 〈S〉.
Además, para cada i = 1, 2, . . ., s, se verifica que el subespacio generado por
{v1 , v2 , . . . , vi } es igual al subespacio generado por {q1′ , q2′ , . . . , qi′ }, que coincide

Álgebra Lineal y Geometría 307


Depto. de Álgebra

con el subespacio generado por {q1 , q2 , . . . , qi }. Otra forma equivalente de ex-


presar lo anterior es que si (V, 〈·|·〉) es un espacio vectorial con producto escalar
y de dimensión finita, entonces tiene una base ortonormal.

Método de Gram-Schmidt

Entrada: conjunto S = {v1 , v2 , . . . , vs } linealmente independiente.


Salida: conjunto ortonormal {q1 , q2 , . . . , qs } que verifica

〈q1 , . . . , qk 〉 = 〈v1 , . . . , vk 〉 para todo k = 1, . . . , s.

1. Definimos q1′ = v1 .

2. Para k = 2, . . . , s calculamos

qk′ = vk − proyWk−1 (vk ),Wk−1 = 〈q1′ , . . . , qk−1



〉,

k−1
X 〈q j |vk 〉
= vk − λ j k q ′j , donde λ j k = ° °2 .
j =1 ° ′°
°q j °

3. Normalizamos el conjunto {q1′ , . . . , qs′ } mediante

1
qk = ° ° qk′ , k = 1, 2, . . . , s.
° qk′ °

Ejemplo 8.7.1.- En V = R4 , con respecto al producto escalar estándar, sean


     
1 1 3
0 2 1
     
     
v1 =   , v2 =   , v3 =  .
 0   0   1 
−1 −1 −1

Vamos a calcular una base ortonormal del subespacio vectorial 〈v1 , v2 , v3 〉.

308 Álgebra Lineal y Geometría


Depto. de Álgebra

El proceso es:

q1′ = v1
〈q ′ |v2 〉e
q2′ = v2 − λ12 q1′ , λ12 = °1 °2 = 1,
°q ′ °
1
 
0
2
 
q2′ = v2 − q1′ = 
 
,
 0 
0
q3′ = v3 − λ13 q1′ − λ23 q2′ ,
〈q1′ |v3 〉e
λ13 = ° °2 = 2,
°q ′ °
1
〈q2′ |v3 〉e 1
λ23 = ° °2 = ,
°q ′ ° 2
2
 
1
1 
0

q3′ = v3 − 2q1′ − q2′ = 
 
.
2  1 
1
Entonces      
1 0 1
1 
 0



 1

 1 
 0


q1 = p   , q2 =   , q3 = p  .
2 0   0  3 1 
−1 0 1

Ejemplo 8.7.2.- Sea V = C ([−1, 1]) con el producto escalar


Z1
〈 f |g 〉 = f (x)g (x) d x.
−1

Para cada i ≥ 0, sea f i la función polinómica f i : x 7→ x i . Entonces, para cada


n > 0, el conjunto { f 0 , f 1 , . . . , f n } es linealmente independiente y forma una base
de un subespacio W . Si aplicamos el procedimiento de Gram-Schmidt a esta
base, obtenemos una nueva base {p 0 , p 1 , . . . , p n } que es ortonormal; los p j son
los polinomios de Legendre.

Álgebra Lineal y Geometría 309


Depto. de Álgebra

R∞ ¯ ¯2
Ejemplo 8.7.3.- Sea V el espacio de la funciones f : R → R tales que −∞ f (x) d x
¯ ¯
es finita, con el producto escalar
Z∞
〈 f |g 〉 = f (x)g (x) d x.
−∞

Sea h la función definida por

si 0 < x ≤ 21 ,

 1
h(x) = −1 si 21 < x ≤ 1,

0 en otro caso.

Esta función se denomina wavelet de Haar. Para cada j , k ∈ N, se define la fun-


j j j
ción h k ∈ V mediante h k (x) = 2 j /2 h(2 j x −k). Entonces el conjunto {h k | j , k ∈ N}
es ortonormal.

Nota 8.7.1. ¿Qué ocurre si se aplica el procedimiento de Gram-Schmidt a un


conjunto {v1 , . . . , vs } que ya es ortogonal? Los vectores qk′ , 2 ≤ k ≤ s, que se cons-
truyen en cada paso son de la forma

k−1
X 〈q ′j |vk 〉
qk′ = vk − λ j k q ′j , donde λ j k = ° °2 .
j =1 ° ′°
°q j °

Observemos que q2′ es igual a v2 y, por inducción, todos los coeficientes λ j k son
nulos. Por tanto, se llega a que qi′ = vi , i = 1, . . . , s. Si el conjunto de partida es
ortonormal, entonces qi = vi , i = 1, . . . , s.
El razonamiento anterior nos permite enunciar el siguiente resultado.

Ampliación de un conjunto ortogonal a una base ortogonal

Sea (V, 〈·|·〉) un K-espacio vectorial de dimensión finita n con producto


escalar y S = {v1 , . . . , vs } un conjunto ortogonal (ortonormal). Entonces
existe una base B ortogonal (ortonormal) de V tal que S ⊂ B.

310 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Dado que el conjunto S es linealmente independiente, existen vec-


tores ws+1 , . . . , wn tales que B0 = {v1 , . . . , vs , ws+1 , . . . , wn } es una base de V . Si
aplicamos el procedimiento de Gram-Schmidt al conjunto B0 , entonces los
vectores qi′ son iguales a los vi , para i = 1, . . . , s, por lo que habremos construi-

do una base ortogonal B = {v1 , . . . , vs , qs+1 , . . . , qn′ }. Si el conjunto de partida es
ortonormal, obtendremos, tras normalizar, una base ortonormal que contiene
a S. 

8.8. Factorización QR
8.8.1. Factorización QR reducida
El proceso de Gram-Schmidt ¡se puede ver también ¢ en la forma de facto-
rización de matrices. Sea A m×s = v1 v2 . . . vs una matriz con columnas
independientes. Cuando se aplica Gram-Schmidt a las columnas de A, estamos
calculando una base ortonormal {q1 , q2 , . . . , qs } de Col(A), donde

q1′ = v1 ,
q2′ = v2 − λ12 q1′ ,
..
.
qs′ = vs − λ1s q1′ − . . . − λs−1,s qs−1

.

Escribamos los vectores vi en función de los q j . Entonces

v1 = q1′ = r 11 q1 ,
v2 = λ12 q1′ + q2′ = r 12 q1 + r 22 q2 ,
..
.
vs = λ1s q1′ + · · · + λs−1,s qs−1

+ qs′ = r 1s q1 + . . . + r s−1,s qs−1 + r ss qs ,

que en forma matricial podemos expresarlo como


 
r 11 r 12 . . . r 1s
¡ ¢ ¡ ¢ 0 r 22 . . . r 2s 
v1 v2 . . . vs q1 q2 . . . qs 
 
= .. .
 . 
0 0 . . . r ss

Observemos que todos los r i i son positivos, pues son normas de vectores. Te-
nemos así que A m×s = Q m×s R s×s , donde las columnas de Q forman una base
ortonormal de Col(A), y R es una matriz triangular superior con elementos no
nulos en la diagonal.

Álgebra Lineal y Geometría 311


Depto. de Álgebra

A esta descomposición la llamaremos factorización QR reducida o rectan-


gular, porque la matriz Q es rectangular y R es cuadrada.

Ejemplo 8.8.1.- Partimos del ejemplo (8.7.1) (pág. 308), donde


     
1 1 3
 0   2   1 
     
v1 =   , v2 =   , v3 =  ,
 0   0   1 
−1 −1 −1

y habíamos calculado
     
1 0 1
1 
 0



 1

 1 
 0


q1 = p   , q2 =   , q3 = p  .
2 0   0  3 1 
−1 0 1

El cambio de base viene dado por los coeficientes λi j del proceso, y podemos
despejar los vectores vi en función de los vectores q j .
° ° p
v1 = °q1′ °
° q1
° ° ′° = 2 q1 ,
p
′°
v2 = λ12 °q1 ° q1 + q2° q2°
° ° ° = 2q +2q2
′° ′°
° ′° p 1 p
v3 = λ13 q1 q1 +λ23 q2 q2 + q3 q3 = 2 2q1 +q2 + 3q3 .
° ° ° °

La descomposición QR reducida queda de la forma


 p p p 
¡ ¢ ¡ ¢ 2 2 2 2
A = v1 v2 v3 = q1 q2 q3  0 2 1 .
p
0 0 3

8.8.2. * Factorización QR completa


Se puede conseguir otra factorización con Q unitaria y R rectangular. Con-
siste en añadir a R filas de ceros hasta hacerla m × s, y en añadir a Q m − s
columnas ortogonales a las anteriores para formar una matriz unitaria. En este
caso se la llama factorización QR completa.

312 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 8.8.2.- Para obtener la factorización QR completa del ejemplo ante-


rior, debemos ampliar el conjunto {q1 , q2 , q3 } a una base ortonormal. Como los
subespacios son iguales, ampliamos {v1 , v2 , v3 } a una base. Para ello, conside-
ramos una forma escalonada por filas de la matriz
¡ ¢
v1 v2 v3 e1 e2 e3 e4 ,

donde ei , i = 1, 2, 3, 4 son los vectores de la base estándar. Nos queda


 
1 0 0 0 −1/2 −1/2 −1
0 1 0 0 1/2 −1/2 0 
 

 
 0 0 1 0 0 1 0 
0 0 0 1 0 −2 1

lo que indica que podemos tomar para ampliar e1. Sea v4 = e1 . Hay que calcular

q4′ = v4 − λ14 q1′ − λ24 q2′ − λ34 q3′

que sea ortogonal a q1′ , q2′ , q3′ . Efectuando los cálculos llegamos a
 
1/6

0
 p
λ14 = 1/2, λ24 = 0, λ34 = 1/3, q4′ =   , q4 = 6q4′ .
 
 −1/3 
1/6

Entonces
 p p p 
2 2 2 2
 0
¢ 2 1
¡ ¢ ¡ 
A= v1 v2 v3 = q1 q2 q3 q4  p .
 0 0 3 
0 0 0

Existe un procedimiento directo para el cálculo de una factorización QR


completa basado en las matrices de Householder.

Álgebra Lineal y Geometría 313


Depto. de Álgebra

8.9. Descomposición ortogonal

Complemento ortogonal

Sea M un subconjunto de un espacio vectorial (V, 〈·|·〉) con producto


escalar. Definimos el complemento ortogonal M ⊥ como

M ⊥ = {x ∈ V | 〈m|x〉 = 0 para todo m ∈ M}.

En otras palabras, el conjunto M ⊥ es el conjunto de vectores x que son ortogo-


nales a todos los elementos de M. Esto lo notaremos como x⊥M. Vamos a pro-
bar en primer lugar que M ⊥ es un subespacio vectorial de V . Sean v1 , v2 ∈ M ⊥ .
Entonces

〈m|v1 + v2 〉 = 〈m|v1 〉 + 〈m|v2 〉 = 0 para todo m ∈ M,

y
〈m|αv1 〉 = α〈m|v1 〉 = 0 para todo m ∈ M.
Esto es independiente de la estructura de M. Sin embargo, el caso que nos in-
teresa especialmente es cuando M es un subespacio vectorial W de dimensión
finita de V . En tal caso, existe una base finita de W formada por los vectores
w1 , . . . , wr . La definición impone, en principio, un conjunto infinito de condi-
ciones para caracterizar a los elementos de W ⊥ . Sin embargo, vamos a ver que

W ⊥ = {x ∈ V | 〈wi |x〉 = 0 para todo i = 1, . . . , r }. (8.9.1)

Es claro que si x ∈ W ⊥ , entonces está en el conjunto de la derecha. Si ahora


〈wi |x〉 = 0 para todo i = 1, . . ., r , consideremos un vector w ∈ W . Entonces w se
puede expresar como combinación lineal de w1 , . . . , wr , esto es,
r
X r
X r
X
w= αi wi , y 〈w |x〉 = 〈 αi wi |x〉 = αi 〈wi |x〉 = 0.
i =1 i =1 i =1

Tenemos así el resultado.


La caracterización del complemento ortogonal dado por las ecuaciones (8.9.1),
que hemos usado en el ejemplo anterior, nos permiten definir un método para
calcular unas ecuaciones implícitas de W ⊥ a partir de un conjunto de genera-
dores de W = 〈w1 , . . . , wr 〉. Están dadas por las relaciones

〈wi |x〉 = 0, i = 1, . . . , r

314 Álgebra Lineal y Geometría


Depto. de Álgebra

En el caso de Kn con el producto escalar estándar, lo anterior toma la forma


 ∗ 
w1
 .. 
M x = 0, donde M =  . .
wr∗

Ejemplo 8.9.1.- Consideremos el subespacio W = 〈w1 , w2 〉 ⊂ R3 , con el pro-


ducto escalar estándar, donde
   
1 2
w1 = −1 , w2 = 0  .
  
0 1

Entonces W ⊥ viene dado por las soluciones del sistema lineal homogéneo
 
½ −1/2
x1 −x2 = 0,
esto es W ⊥ = 〈h1 =  −1/2 〉.
2x1 +x3 = 0,
1

Ejemplo 8.9.2.- También es posible calcular el complemento ortogonal de un


subespacio W definido por unas ecuaciones implícitas respecto a una base.
Por ejemplo, en R4 , con respecto a la base estándar y 〈·|·〉e , sea W el subespacio
dado por 
 x1 + x2 + x3 + x4 = 0,
W x + 2x2 + x3 = 0,
 1
x1 − x2 + x3 + 3x4 = 0.
Esto significa que los vectores x de W son los que verifican las relaciones
     
 t 1 1 1
 u1 x = 0,
1   2 
     
 −1 
u2t x = 0, donde u1 = 

, u = , u = .
1  2  1  3  1 
   
 t 
u3 x = 0,
1 0 3

Es decir, W es el subespacio ortogonal a 〈u1, u2 , u3 〉, de donde W ⊥ = 〈u1 , u2 , u3 〉.

Álgebra Lineal y Geometría 315


Depto. de Álgebra

El uso de la palabra “complemento” para referirnos a W ⊥ tiene su origen en


el siguiente resultado.

Complemento ortogonal y suma directa

Sea W un subespacio vectorial de dimensión finita de un espacio vec-


torial V con producto escalar. Entonces

V = W ⊕ W ⊥.

En particular, si V es de dimensión finita, entonces dimW ⊥ = dimV −


dimW .

P RUEBA : Si v ∈ W ∩ W ⊥ , entonces v es un vector ortogonal a sí mismo,


es decir, 〈v |v 〉 = 0, de donde v = 0. Sea BW = {w1 , . . . , wr } una base ortogonal
de W , que existe por el procedimiento de Gram-Schmidt. Si v ∈ V , tenemos el
vector asociado
Xr 〈w |v 〉
k
proyW (v ) = 2
wk ∈ W.
k=1 k w kk

Recordemos que v −proyW (v ) ∈ W ⊥ , por el teorema de la proyección ortogonal


(pág. 302). Dado que v = proyW (v ) + (v − proyW (v )), tenemos el resultado.


El resultado anterior nos permite probar que el vector proyW (v ) solamente


depende del subespacio W y v . En efecto, la suma directa implica que existen
unos únicos w ∈ W, w ′ ∈ W ⊥ tales que v = w + w ′ . La expresión v = proyW (v ) +
(v −proyW (v )) prueba que el cálculo de proyW (v ) se puede hacer con cualquier
base ortogonal de W .

Ejemplo 8.9.3.- En R4, con el producto escalar estándar, consideremos el subes-


pacio W = 〈u1 , u2 〉 y el vector v ∈ R4 dados por
     
1 0 1
 2   1   1 
     
u1 =   , u2 =   , v =   .
 1   0   1 
2 1 1

316 Álgebra Lineal y Geometría


Depto. de Álgebra

Vamos a considerar diferentes alternativas para calcular proyW (v ), la proyec-


ción ortogonal de v sobre W .
El subespacio W ⊥ está definido por las ecuaciones
½
⊥ x1 + 2x2 + x3 + 2x4 = 0,
W
x2 + x4 = 0,

que resolvemos

" #  x1 = −x3 ,
1 2 1 2 rref 1 0 1 0
µ ¶ 
−x4 ,

x2 =
−→ , ,
0 1 0 1 0 1 0 1 x = x3 ,
 3


x4 = x4 ,
   
−1 0
 0 
   
⊥  −1 
W = 〈 u3 =  ,u =  〉.
 1  4  0 
0 1

Sabemos que {u1 , u2 , u3 , u4 } es una base de R4 y podemos obtener una expre-


sión de la forma
v = α1 u1 + α2 u2 + α3 u3 + α4 u4
para ciertos escalares αi ∈ R, i = 1, 2, 3, 4. Se tiene entonces que proyW (v ) =
α1 u1 +α2 u2 . En este caso, la solución del sistema es α1 = 1, α2 = −1, α3 = 0, α4 =
0, por lo que
proyW (v ) = u1 − u2 = v .
Esto es lógico, porque ya se tenía que v ∈ W .
Otra forma de calcular la proyección ortogonal parte de una base ortogonal
de W . Si aplicamos el procedimiento de Gram-Schmidt al conjunto {u1 , u2 },
obtenemos que {q1′ , q2′ } es una base ortogonal de W , donde
 
−2
 1 
 
q1′ = u1 , q2′ =  .
 −2 
1

Entonces
 
1
〈q1′ |v 〉 〈q2′ |v 〉 3 1 
1

q1′ + q2′ = q1′ − q2′ = 
 
proyW (v ) = .
〈q1′ |q1′ 〉 〈q2′ |q2′ 〉 5 5  1 
1

Álgebra Lineal y Geometría 317


Depto. de Álgebra

Propiedades del complemento ortogonal

Si W1 y W2 son subespacios de un espacio vectorial (V, 〈·|·〉) con pro-


ducto escalar de dimensión finita, entonces

(W1⊥ )⊥ = W1 .

Si W1 ⊂ W2 , entonces W2⊥ ⊂ W1⊥ .

(W1 + W2 )⊥ = W1⊥ ∩ W2⊥ .

(W1 ∩ W2 )⊥ = W1⊥ + W2⊥ .

P RUEBA :

Sea v ∈ (W1⊥ )⊥ . Como V = W1 ⊕ W1⊥ , entonces v = a + b, con a ∈ W1 y


b ∈ W1⊥ . De aquí,

0 = 〈v |b〉 = 〈a|b〉 + 〈b|b〉 = 〈b|b〉, de donde b = 0,

y tenemos que v ∈ W1 . Por tanto, (W1⊥ )⊥ ⊂ W1 . Como

dim(W1⊥ )⊥ = dimV − dimW1⊥ = dimW1 ,

tenemos la igualdad entre los subespacios.

Si v ∈ W2⊥ , entonces v es ortogonal a todos los vectores de W2 , entre los


que se encuentran los de W1 . Por tanto, v ∈ W1⊥ .

Dado que W1 ,W2 ⊂ W1 +W2 , el resultado anterior implica que (W1+W2 )⊥ ⊂


W1⊥ ∩ W2⊥ . Para la otra inclusión, sea v ∈ W1⊥ ∩ W2⊥ y tomemos un vector
cualquiera w ∈ W1 + W2 . Entonces existen w1 ∈ W1 , w2 ∈ W2 tales que
w = w1 + w2 . De aquí,

〈v |w 〉 = 〈v |w1 〉 + 〈v |w2 〉 = 0.
| {z } | {z }
w1 ∈W1⊥ w2 ∈W2⊥

Por tanto, v ∈ (W1 + W2 )⊥ .

318 Álgebra Lineal y Geometría


Depto. de Álgebra

Aplicamos lo anterior para obtener


(W1⊥ + W2⊥ )⊥ = (W1⊥ )⊥ ∩ (W2⊥ )⊥ = W1 ∩ W2 .

Ejemplo 8.9.4.- El espacio W debe ser de dimensión finita para que se cum-
plan las propiedades del complemento ortogonal. Consideremos V el R-espacio
vectorial de las sucesiones a = {an | an = 0 salvo un número finito de términos },
P
con el producto escalar 〈a|b〉 = i ≥1 ai b i . Para cada h ≥ 1, sea vh la sucesión
que contiene la entrada h-ésima igual a 1 y las restantes son iguales a cero. En-
tonces B = {vh | h ≥ 1} es una base ortonormal de V . Consideremos el subes-
pacio W generado por las combinaciones lineales finitas del conjunto de suce-
siones {v1 − v2 , v2 − v3 , . . .}. Este subespacio no es todo V , pues v1 6∈ W y no es
P
de dimensión finita. Si 0V 6= y entonces podemos escribir y = ni=1 ai vi para
ciertos números reales ai y an 6= 0. Si y ∈ W ⊥ , entonces
a1 − a2 = 0, a2 − a3 = 0, . . . , an − an+1 = 0,
y esto contradice el carácter no nulo de y . Por tanto, W ⊥ = 0V , aunque W 6= V .
Además, V 6= W ⊕ W ⊥ y (W ⊥ )⊥ = V 6= W .

El concepto de complemento ortogonal permite relacionar el espacios de


columnas y el espacio nulo de una matriz A m×n con los de A ∗ .

Teorema de descomposición ortogonal

Sea A m×n una matriz compleja. Entonces

Col(A)⊥ = null(A ∗ ) y null(A)⊥ = Col(A ∗ ).

Como consecuencia,

Cm = Col(A) ⊕ Col(A)⊥ = Col(A) ⊕ null(A ∗ )

y
Cn = null(A) ⊕ null(A)⊥ = null(A) ⊕ Col(A ∗ ).

Álgebra Lineal y Geometría 319


Depto. de Álgebra

P RUEBA : Sea v ∈ Col(A)⊥ ⊂ Cm . Entonces v es ortogonal a las columnas de A,


es decir
〈A e j |v 〉 = 0, j = 1, . . ., n.

Entonces e∗j A ∗ v = 0 para todo j = 1, . . . , n, que implica A ∗ v = 0. Por tanto, v ∈


null(A ∗ ). El recíproco se obtiene fácilmente, pues todas las implicaciones son
equivalencias.
Si aplicamos el resultado a A ∗ , obtenemos Col(A ∗ )⊥ = null(A), que es la se-
gunda igualdad. Las relaciones con la suma directa son consecuencia de la des-
composición ortogonal.


Ahora vamos a aplicar el cálculo del complemento ortogonal para ampliar un


conjunto ortogonal a una base ortogonal.

Ampliación de un conjunto ortogonal a una base ortogonal del


espacio

Entrada: conjunto ortogonal S 0 = {q1′ , . . . , qs′ }.


Salida: base ortogonal B = {q1′ , . . . , qs′ , qs+1

, . . . , qn′ }.

1. Calculamos el complemento ortogonal S 0⊥ = 〈u′s+1 , . . . , u′n 〉.

2. Aplicamos el procedimiento de Gram-Schmidt a dicho conjunto.

Ejemplo 8.9.5.- Consideremos los vectores ortonormales


   
−2 0
1
 1



 0


q1 =   , q2 =  .
3 0   1 
2 0

El conjunto ortogonal a S 0 = {q1 , q2 } está definido por las soluciones del sistema
lineal homogéneo
½
− 32 x1 + 1
x
3 2
+ 2
x
3 4
= 0,
x3 = 0.

320 Álgebra Lineal y Geometría


Depto. de Álgebra

Como " # " #


−2/3 1/3 0 2/3 rref 1 −1/2 0 −1

→ ,
0 0 1 0 0 0 1 0
una base del espacio de soluciones es
   
1/2 1
   
 1 
 ′  0 
 
u′3

= ,u =  .
 0  4  0 
   
0 1

Ahora aplicamos el procedimiento de Gram-Schmidt al conjunto {u′3 , u′4 }.


 
1/2
 
 1 
q3′ = u′3 = 
 
,
 0 
 
0
q4′ = u′4 − λq3′ ,
〈q ′ |u′ 〉e 2
λ = 3′ ′4 = ,
〈q3 |q3 〉e 5
     
1 1/2 4/5
     
 0  2 1   −2/5 
 
q4′
  
=  −  = .
 0  5 0   0 
 
  
1 0 1

De esta forma ya tenemos un conjunto ortogonal {q1 , q2 , q3′ , q4′ } que contiene al
original. Para que sea ortonormal, basta normalizar los vectores qi′ , i = 3, 4:
 p  p  4 
5/5 5 15
 p   p 
1  2 5/5  1  −2 5/15 
° q3′ =   , q4 = ° ′ ° q4′ = 
   
q3 = ° .
°q ′ °  0  ° q4 °  0 
3    
p
0 5/3

Álgebra Lineal y Geometría 321


Depto. de Álgebra

Una última aplicación del complemento ortogonal es el cálculo de unas


ecuaciones implícitas de un subespacio vectorial de Kn a partir de un conjunto
de generadores. Por simplicidad, suponemos fijada la base estándar del espa-
cio vectorial Kn , que es ortonormal respecto al producto escalar estándar, y sea
W el subespacio vectorial generado por un conjunto S.

De paramétricas a implícitas: ortogonal

1. Se considera la matriz A, de orden m × n, cuyas columnas son las


componentes de los elementos de S.

2. Calculamos unas ecuaciones implícitas de W ⊥ a partir de A ∗ .

3. Obtenemos una base h1 , . . . , hs de null(A ∗ ) mediante la forma es-


calonada de A ∗ .

4. Si consideramos la matriz
¡ ¢
T= h1 . . . h s

entonces T ∗ es la matriz de coeficientes de un sistema lineal ho-


mogéneo que define a W .

Ejemplo 8.9.6.- Sea W el subespacio vectorial de R4 generado por los vectores


   
1 0
 2   1 
    ¡ ¢
u1 =   , u2 =   , y formemos la matriz A = u1 u2 .
 1   0 
2 1

Entonces el complemento ortogonal W ⊥ está definido por las soluciones del


sistema lineal homogéneo A t x = 0:
µ ¶ µ ¶
t 1 2 1 2 rref 1 0 1 0
A = −
→ ,
0 1 0 1 0 1 0 1
de donde
   
−1 0
½
= 0, 0
   
⊥ x1 +x3 ⊥    −1 
W ≡ , y W = 〈h 1 =   , h2 =  〉.
x2 +x4 = 0  1   0 
0 1

322 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces, unas ecuaciones implícitas de W son


½
−x1 +x3 = 0,
W≡
−x2 +x4 = 0.

Ejemplo 8.9.7.- También tenemos un método para el cálculo de la intersec-


ción de dos subespacios vectoriales. Consideremos R4 con el producto escalar
estándar y los subespacios dados por
       
1 0 1 1
2 1 1 2
       
       
U = 〈 u1 =   , u2 =  〉,V = 〈v1 =   , v2 =  〉.
 1   0   1   1 
2 1 1 0

Calculamos en primer lugar U ⊥ y V ⊥ . El conjunto U ⊥ es el espacio de solucio-


nes del sistema lineal homogéneo
½
x1 + 2x2 + x3 + 2x4 = 0,
x2 + x4 = 0,

por lo que calculamos la forma escalonada reducida por filas de la matriz de


coeficientes:

" #  x1 = −x3 ,
1 0 1 0
µ ¶ 
1 2 1 2 −x4 ,

rref x2 =
−→ , ,
0 1 0 1 0 1 0 1 x = x3 ,
 3


x4 = x4 ,
   
−1 0
 0 
   
⊥  −1 
U = 〈 u3 =  ,u =  〉.
 1  4  0 
0 1

Álgebra Lineal y Geometría 323


Depto. de Álgebra

Análogamente para V ⊥ :

" # " #  x1 = −x3 −2x4 ,
1 1 1 1 1 0 1 2

x4 ,

rref x2 =
−→ , ,
1 2 1 0 0 1 0 −1 x = x3 ,
 3


x4 = x4 ,
   
−1 −2
 0   1 
   

V = 〈v3 =   , v4 =  〉.
 1   0 
0 1

El subespacio U ⊥ +V ⊥ está generado por los vectores {u3 , u4 , v3 , v4 }. Ahora


tenemos en cuenta la relación U ∩ V = (U ⊥ + V ⊥ )⊥ , por lo que calculamos el
espacio ortogonal a este conjunto de vectores:
   
−1 0 1 0 1 0 0 −1
   
 0 −1 0 1   0 1 0 −1 
¡ ¢t  rref
  
u3 u4 v3 v4 = −→ .
 −1 0 1 0   0 0 1 −1 
   
−2 1 0 1 0 0 0 0

Entonces  
1
1
 
U ∩ V = (U ⊥ + V ⊥ )⊥ = 〈w1 = 
 
〉.
 1 
1

8.10. Isometrías
Recordemos que las matrices unitarias U verifican que U ∗ = U −1 , que es
equivalente a decir que sus columnas o filas forman una base ortonormal de
Cn . En el caso real, U t = U −1 , y las llamamos ortogonales.
También presentamos un tipo especial de homomorfismo entre espacios
vectoriales con producto escalar.

324 Álgebra Lineal y Geometría


Depto. de Álgebra

Isometría

Sean (V, 〈·|·〉V ), (W, 〈·|·〉W ) espacios vectoriales de dimensión finita con
producto escalar. Una aplicación lineal f : V → W es una isometría si

〈v1 |v2 〉V = 〈 f (v1 )| f (v2 )〉W

para todo v1 , v2 ∈ V .

Ejemplo 8.10.1.- Sean V = R2 ,W = R3 con el producto escalar estándar. La


aplicación lineal f : R2 → R3 dada por

 
µ ¶ a1
a1
v= 7 f (v ) =  a2 

a2
0

es una isometría. Es claro que f no tiene inversa.

Nota 8.10.1. Si f : V → W es una isometría y v ∈ V , entonces

° f (v )°2 = 〈 f (v )| f (v )〉W = 〈v |v 〉V = kv k2 ,
° °
W V

es decir, conserva la
° norma.
° Recíprocamente, supongamos que f es una aplica-
ción lineal tal que f (v )°W = kv kV para todo v ∈ V . Como el producto escalar
°
se puede recuperar a partir de la norma (pág. 293), concluimos que f es una
isometría.

Álgebra Lineal y Geometría 325


Depto. de Álgebra

Condición equivalente de isometría

Sean V y W espacios vectoriales con producto escalar y de la misma


dimensión finita n. Si f ∈ Hom(V,W ), las siguientes afirmaciones son
equivalentes:

1. f es una isometría.

2. f es isomorfismo e isometría.

3. Si {v1 , . . . , vn } es una base ortonormal de V entonces


{ f (v1 ), . . . , f (vn )} es una base ortonormal de W .

4. Existe {v1 , . . . , vn } base ortonormal de V tal que { f (v1 ), . . . , f (vn )}


es una base ortonormal de W .

P RUEBA : (1) ⇒ (2). Supongamos que f es isometría. Si v 6= 0 es un vector de V


entonces 0 6= 〈v |v 〉 = 〈 f (v )| f (v )〉, por lo que f (v ) 6= 0. Esto implica que ker f =
0; dado que dimV = dimW , tenemos que f es isomorfismo.
(2) ⇒ (3). Sea ahora {v1 , . . . , vn } una base ortonormal de V . Como f es iso-
morfismo, { f (v1 ), . . . , f (vn )} es una base de W . Además,

〈 f (vi )| f (v j )〉 = 〈vi |v j 〉 = δi j ,

por lo que también es una base ortonormal.


(3) ⇒ (4). Es inmediato.
(4) ⇒ (1). Sea {v1 , . . . , vn } una base ortonormal de V y tomemos vectores
P P
u, v ∈ V . Entonces u = ni=1 ai vi , v = nj=1 b j v j y
n
X
〈u|v 〉 = a i bi .
i =1

Además,
à ! à !
n
X n
X
〈 f (u)| f (v )〉 = 〈 f ai vi | f b j vj 〉
i =1 j =1
n X
X n n
X
= ai b j 〈 f (vi )| f (v j )〉 = ai b i = 〈u|v 〉.
i =1 j =1 i =1

Las matrices unitarias complejas de orden n forman un grupo, que nota-


remos por U (n). Las matrices ortogonales reales también tienen estructura de

326 Álgebra Lineal y Geometría


Depto. de Álgebra

grupo, notado por O(n). Es claro que si A es una matriz ortogonal, entonces
1 = det(I ) = det(A A t ) = det(A)2 , de donde det(A) = ±1. El conjunto de matrices
ortogonales de orden n con determinante igual a 1 forma un grupo respecto al
producto, que notaremos por SO(n), y se denomina grupo especial ortogonal.
También es llamado el grupo de las rotaciones de Rn y representa los movi-
mientos directos.
Es interesante una reformulación del teorema de condición equivalente de
isometría (pág. 326) cuando el espacio vectorial de partida y llegada coinciden.

Isometría y matriz unitaria

Sea f : V → V una aplicación lineal, con (V, 〈·|·〉) un K-espacio vectorial


de dimensión finita. Son equivalentes:

1. f es isometría.
° °
2. Si v ∈ V , entonces kv k = ° f (v )°.

3. Para toda base ortonormal B de V , la matriz de f respecto de la


base B es unitaria.

4. Existe una base ortonormal B de V tal que la matriz de f respecto


de la base B es unitaria.

P RUEBA : Si f es isometría,
° °2
kv k2 = 〈v |v 〉 = 〈 f (v )| f (v )〉 = ° f (v )° ,
° °
de donde kv k = ° f (v )°, pues son números no negativos. Como la norma de-
fine al producto escalar, la igualdad de las normas implica que f es isometría.
Tenemos así la equivalencia entre las dos primeras condiciones.
Sea entonces B = {v1 , . . . , vn } una base ortonormal de V y llamemos A =
MB ( f ). Por el teorema de equivalencia de isometrías, el conjunto { f (v1 ), . . . , f (vn )}
es una base ortonormal de V , de donde

〈 f (vi )| f (v j )〉 = δi j , i , j = 1, . . . , n.

Por el teorema de expresión del producto escalar respecto de una base ortonor-
mal (pág. 303), se tiene que

〈 f (vi )| f (v j )〉 = [ f (vi )]∗B [ f (v j )]B .

Si unimos ambas expresiones, nos queda que A ∗ A = I .

Álgebra Lineal y Geometría 327


Depto. de Álgebra

Supongamos ahora que existe una base ortonormal B tal que la matriz de
f respecto de la base B es unitaria. Si llamamos A es esta matriz, entonces

〈 f (u)| f (v )〉 = [u]∗B A ∗ A[v ]B = [u]∗B [v ]B = 〈u|v 〉.

En particular, la última equivalencia nos dice que si un endomorfismo f


está definido por una matriz unitaria U respecto de una base ortonormal, en-
tonces f es una isometría.

328 Álgebra Lineal y Geometría


Capítulo 9

Teoremas espectrales

En este capítulos se exponen los resultados fundamentales de diagonali-


zación de un tipo muy importante de matrices, las matrices normales. Su ca-
racterística principal es que pueden ser diagonalizadas mediante una matriz
unitaria, lo que es de gran utilidad desde el punto de vista numérico.

9.1. Lema de Schur


Comenzamos con un enunciado clásico, del que damos una versión en el
lenguaje de espacios vectoriales y otra en lenguaje matricial. Será de gran utili-
dad para estudiar el carácter diagonalizable de las matrices normales.

Lema de Schur

Sea (V, 〈·|·〉) un C-espacio vectorial de dimensión finita con producto


escalar y f ∈ End(V ). Entonces existe una base ortonormal de V res-
pecto de la cual la matriz de f es triangular superior.

P RUEBA : La prueba es por inducción sobre la dimensión de V . Para n = 1


es trivial. Sea w1 un autovector asociado a un autovalor λ1 del endomorfismo
f sobre C, y lo normalizamos a v1 = kw1 k w1 . Sea W = 〈v1 〉 y consideremos la
1
aplicación lineal g definida como g (u) = f (u)−〈v1 | f (u)〉· v1 . Si u ∈ W ⊥ enton-
ces

〈v1 |g (u)〉 = 〈v1 | f (u)〉 − 〈v1 | f (u)〉〈v1 |v1 〉 = 0.

Por tanto, g (W ⊥ ) ⊂ W ⊥ , y podemos considerar la restricción de g a W ⊥ . Enton-


ces g |W ⊥ es un endomorfismo sobre un espacio de dimensión n − 1; por hipó-
tesis de inducción, existe una base ortonormal B ′ = {v2 , . . . , vn } de W ⊥ tal que

329
Depto. de Álgebra

Figura 9.1: I. Schur (1875-1941), Foto: Konrad Jacobs, MFO

la matriz MB ′ (g ) es triangular superior. Esto implica que B = {v1 , v2 , . . . , vn } es


una base ortonormal de V , que verifica

f (v1 ) = λ1 v1 ,
f (v2 ) = 〈v1 | f (v2 )〉v1 + g (v2 ),
..
.
f (vn ) = 〈v1 | f (vn )〉v1 + g (vn ).

Por tanto,

λ1 〈v1 | f (v2 )〉 ... 〈v1 | f (vn )〉


 
 0 
MB ( f ) =  ..  , que es triangular superior.
 
 . MB ′ (g ) 
0

Si se toma V = Cn con el producto escalar estándar, el lema de Schur tiene


la siguiente versión matricial.

Lema de Schur, versión matricial

Si A es una matriz cuadrada con coeficientes en C, existe una matriz


unitaria U tal que U −1 AU = U ∗ AU es triangular superior.

330 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Sea n y el orden de la matriz y consideramos V = Cn con el producto


escalar estándar. Definimos el endomorfismo f (v ) = A v , cuya matriz respecto
de la base estándar S es A. Por el lema de Schur, caso vectorial, existe una base
ortonormal B tal que T = MB ( f ) es triangular superior. En tal caso, la matriz
del cambio de base U = M(B, S ) es unitaria y U −1 AU = T .
Otra prueba basada en matrices es como sigue. Se procede por inducción
sobre el tamaño de la matriz. Para n = 1, el resultado es inmediato. Sea w1 un
autovector asociado a un autovalor λ1 de A (sobre C tenemos garantía de su
existencia), y lo normalizamos a v1 . Ampliamos a una base de Cn , y mediante
Gram-Schmidt o la factorización QR obtenemos una base ortonormal de Cn
que tiene a v1 como primer vector. Otra forma de obtener esta base ortonormal
es mediante una matriz de Householder. Sea U1 la matriz del cambio de base,
que es unitaria. Entonces

λ1 ∗ . . . ∗
 
 0 
U1−1 AU1 =  .. .
 
 . A1 
0

Los autovalores de A 1 son los mismos que los de A, eliminando λ1 , pues las
matrices A y U1−1 AU1 son semejantes. Por hipótesis de inducción, existe V2 uni-
taria de dimensión n − 1 tal que V2−1 A 1V2 es triangular superior. Sea

1 0 ... 0
 
 0 
U2 =  .. .
 
 . V2 
0

Entonces U2 es unitaria, y U2−1 (U1−1 AU1 )U2 es triangular superior. Para U =


U1U2 tenemos el resultado. 

Nota 9.1.1. Si la matriz A es real y sus autovalores están en R, entonces se sigue


de la prueba que podemos construir U ortogonal tal que U t AU es triangular
superior. Basta observar en la prueba que las matrices unitarias empleadas son
ortogonales y que los autovalores de la matriz A 1 usada en la prueba son reales.

Nota 9.1.2. A partir del lema de Schur podemos deducir fácilmente una re-
lación entre la traza y el determinante de una matriz A y sus autovalores. Si
T = U −1 AU , con T triangular, entonces los elementos diagonales ti i de T son
sus autovalores, que coinciden con los de A porque son matrices semejantes.

Álgebra Lineal y Geometría 331


Depto. de Álgebra

Entonces
n
det(A) = det(U T U −1 ) = det(T ) =
Y
ti i ,
i =1
n
traza(A) = traza(U T U −1 ) = traza(U −1U T ) = traza(T ) =
X
ti i .
i =1

En consecuencia,

det(A) es el producto de todos sus autovalores,

traza(A) es la suma de todos sus autovalores.

Ejemplo 9.1.1.- Consideremos la matriz

2 1 0
 

A= 1 2 0 
0 1 2

con autovalores λ1 = 2, λ2 = 1, λ3 = 3. Calculamos el espacio de autovectores


para λ1 :

0 1 0 1 0 0
   
0
 
  rref  
 1 0 0 
A − λ1 I =  −→  0 1 0  , y un autovector es v1 =  0  .
  
1
0 1 0 0 0 0

Observemos que v1 ya es unitario. De manera inmediata se obtiene que una


base ortonormal del complemento ortogonal del subespacio W1 = 〈v1 〉 es

1 0
   

B1′ = {v2 =  0  , v3 =  1 }.


0 0

Entonces B1 = {v1 , v2 , v3 } es una base ortonormal de R3 , la matriz de cambio


de base es
0 1 0 2 0 1
   

U1 =  0 0 1  y U1−1 AU1 =  0 2 1  .
1 0 0 0 1 2
Observemos que en la primera fila de la nueva matriz tenemos el autovalor λ1
y
〈v1 | f (v2 )〉e = v1t (A v2 ) = 0, 〈v1 | f (v3 )〉e = v1t (A v3 ) = 1.

332 Álgebra Lineal y Geometría


Depto. de Álgebra

Consideramos ahora la submatriz


2 1
µ ¶
A2 = ,
1 2
que sabemos que tiene como autovalores λ2 , λ3 . Calculamos el espacio de au-
tovectores de λ2 en la matriz A 2 :
1 1 rref 1 0
" # " # µ ¶
−1
A 2 − λ2 I = −
→ , y un autovector es w2 = .
1 1 0 0 1

El vector w2 no está normalizado, por lo que construimos u2 = kw1 k w2 = p1 w2 .


2 2
Ahora debemos encontrar una base ortonormal de R2 que contenga a u2 . Para
ello, aplicamos el procedimiento de Gram-Schmidt. En primer lugar, calcula-
mos el complemento ortogonal de forma análoga al ejemplo 8.9.5 (pág. 320).
x1 = x2 ,
½
1 1
n
〈u2 〉 ≡ − p2 x1 + p2 x2 = 0. ⇒

x2 = x2 .
Entonces
1
µ ¶

〈 u2 〉 = 〈q2′ = 〉,
1
y basta normalizar p ¶
1 1/ 2
µ
q2 = ° ′ ° q2′ = p ,
°q °
2
1/ 2
para que {u2 , q2 } sea base ortonormal de R2 .
Hemos construido la matriz ortogonal
p p ¶
1/ 2 1/ 2
µ
V2 = p p .
−1/ 2 1/ 2
Entonces si
1 0 0
 
p p
U2 =  0 1/ 2 1/ 2 
p p
0 −1/ 2 1/ 2
nos queda que p p 
2 −1/ 2 1/ 2

U2−1U1−1 AU1U2 =  0 1 0 .
0 0 3
La matriz unitaria buscada es
p p 
0 1/ 2 1/ 2

p p
U1U2 =  0 −1/ 2 1/ 2  .
1 0 0

Álgebra Lineal y Geometría 333


Depto. de Álgebra

El teorema de triangulación de Schur asegura que toda matriz cuadrada


A es semejante mediante una transformación unitaria a una matriz triangu-
lar superior, esto es, U ∗ AU = T . Pero incluso siendo A real, las matrices U y
T serán complejas si A tiene autovalores complejos conjugados. Sin embar-
go, se pueden encontrar matrices reales si permitimos bloques 2 × 2 en la dia-
gonal. Se puede probar que si A ∈ M (n × n, R), existe una matriz ortogonal
P ∈ M (n × n, R) y matrices reales B i j tales que

. . . B 1k
 
B 11 B 12
 0 B 22 . . . B 2k 
P t AP =  .. .. .. ..  , donde B j j es 1 × 1 o 2 × 2.
 
 . . . . 
0 0 . . . B kk

Si B j j = [λ j ], entonces λ j es autovalor (real) de A, y si B j j es 2 × 2, entonces los


autovalores de B j j son complejos conjugados del espectro de A.

9.2. Diagonalización de las matrices normales

Matriz normal, hermitiana/simétrica y unitaria/ortogonal

Sea A una matriz cuadrada.

1. A es normal si A ∗ A = A A ∗ .

2. A es hermitiana si tiene coeficientes complejos y A ∗ = A.

3. A es simétrica si tiene coeficientes reales y es hermitiana (A t = A).

4. A es unitaria si tiene coeficientes complejos y A ∗ = A −1 .

5. A es ortogonal si tiene coeficientes reales y A t = A −1 .

Nuestro objetivo es estudiar los autovalores y los espacios de autovectores


de las matrices normales. Para espacios vectoriales de dimensión infinita hay
que tratar con endomorfismos con ciertas propiedades topológicas, que se ve-
rán al estudiar análisis funcional.

334 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 9.2.1.- Sea f 1 : R4 → R4 definido por la matriz



34
p p 
3 −2 −2/3 5 8/3 5
 p 
2 18 0 5
 
 
A1 =  p 
 2/3 5 0 6 −4/3
 

 p p 38

8/3 5 − 5 4/3 3

con respecto a la base estándar. Como A ∗1 A 1 = A 1 A ∗1 , la matriz es normal. No es


unitaria ni hermitiana. La matriz A 1 es antisimétrica.
Si f 2 : R3 → R3 está definido por la matriz

1 −1 2
 

A 2 =  −1 3 0 ,
2 0 −3

entonces A 2 es simétrica.
Sea f 3 : R2 → R2 el endomorfismo definido por la matriz
µ 3 4 ¶
A3 = 5 5 .
− 45 3
5

Entonces A 3 es unitaria, pues A ∗3 A 3 = I 2 .

Diagonalización unitaria de matrices normales

Una matriz A ∈ M (n×n, C) es semejante a través de una matriz unitaria


a una matriz diagonal si y solamente si A ∗ A = A A ∗ , es decir, si A es una
matriz normal.

P RUEBA : Supongamos, en primer lugar, que A es una matriz normal. Por el


lema de Schur, existe una matriz unitaria U tal que U ∗ AU = T , con T triangular
superior. Entonces T ∗ = U ∗ A ∗U , y

T T ∗ = U ∗ AUU ∗ A ∗U = U ∗ A A ∗U = U ∗ A ∗ AU = T ∗ T.

En otras palabras, la matriz triangular superior T es normal. Vamos a probar,


por inducción sobre n, que entonces T es diagonal. Para n = 1, no hay nada que

Álgebra Lineal y Geometría 335


Depto. de Álgebra

probar. Supongamos entonces que el resultado se tiene para matrices triangu-


lares superiores de orden n − 1.
Como T es triangular superior, el elemento (1, 1) de T T ∗ es de la forma
|t 11 |2 +|t12 |2 +. . .+|t1n |2 , pero el elemento (1, 1) de T ∗ T es |t11 |2 . Por tanto, todos
los elementos t1j , j ≥ 2 son nulos, y podemos escribir
µ ¶
t11 O1×(n−1)
T= ,
O(n−1)×1 T1

con T1 triangular superior. Entonces

|t11 |2 |t11 |2
µ ¶ µ ¶
∗ O1×(n−1) ∗ O1×(n−1)
TT = =T T = ,
O(n−1)×1 T1 T1∗ O(n−1)×1 T1∗ T1

de donde T1 es una matriz triangular superior normal de orden n − 1. Por la


hipótesis de inducción, T1 es diagonal y T también lo es.
Recíprocamente, si existe U unitaria tal que U ∗ AU = D, con D matriz dia-
gonal, entonces

A ∗ A = U D ∗U ∗U DU ∗ = U D ∗ DU ∗ = U DD ∗U ∗ = A A ∗ ,

y A es una matriz normal. 

Un corolario de lo anterior es que los espacios de autovectores de autovalo-


res distintos de una matriz normal son ortogonales entre sí.

Ortogonalidad de los espacios de autovectores de una matriz normal

Sea A n×n una matriz compleja normal, y λ1 6= λ2 autovalores distintos


de A. Entonces para cada v ∈ V1 (λ1 ), w ∈ V1 (λ2 ) se tiene que v ⊥w .

P RUEBA : Por el teorema de diagonalización unitaria, sea U una matriz unita-


ria tal que U ∗ AU = D, con D diagonal. Entonces las columnas de U son auto-
vectores y forman una base ortonormal del espacio, por lo que los espacios de
autovectores asociados a λ1 y λ2 son de la forma V1 (λ1 ) = 〈v1 , . . . , vq1 〉,V1 (λ2 ) =
〈w1 , . . . , wq2 〉, con vi , w j columnas distintas de la matriz U , que son ortogona-
les entre sí. Entonces cada uno de los generadores de V1 (λ1 ) es ortogonal a cada
uno de los generadores de V1 (λ2 ). Como se tiene para los generadores de cada
espacio, se sigue fácilmente para cualesquiera vectores de V1 (λ1 ) y V1 (λ2 ). 

Muchos tipos de matrices son normales. Entre ellas tenemos a las simétricas
reales y las hermitianas, las anti-simétricas reales y las anti-hermitianas, las

336 Álgebra Lineal y Geometría


Depto. de Álgebra

ortogonales y las unitarias. Todas ellas comparten las propiedades anteriores,


pero vamos a fijarnos un poco más en las simétricas reales y las hermitianas,
porque sus autovalores tienen algunas propiedades especiales.

Teorema espectral de la matrices hermitianas y simétricas

Las matrices simétricas reales y las hermitianas tienen autovalo-


res reales.

Una matriz A es hermitiana si y solamente si A es semejante de


forma unitaria a una matriz diagonal real D, es decir, D = U ∗ AU
con U unitaria.

Una matriz A es real simétrica si y solamente si A es semejante de


forma ortogonal a una matriz diagonal real D, es decir, D = Q t AQ
con Q ortogonal.

P RUEBA : Sea A simétrica real o hermitiana, y (λ, v ) un par autovalor-autovector


de A. Entonces v ∗ v 6= 0, y la igualdad A v = λv implica que v ∗ A ∗ = λv ∗ . Así,

v ∗ A v = λv ∗ v , v ∗ A ∗ v = λv ∗ v ,

y como A ∗ = A, podemos restar y queda 0 = (λ − λ)v ∗ v . Dado que v ∗ v 6= 0, se


sigue que λ = λ. Por tanto los autovalores de una matriz simétrica real o una
hermitiana son reales.
Las equivalencias del enunciado son inmediatas. 

Ejemplo 9.2.2.- Sea A la matriz

4 2 2
 
 
 2 4 2 .
A= 

2 2 4

Como A es simétrica, el teorema espectral de matrices simétricas nos dice que


A es diagonalizable en R. Los autovalores son λ1 = 2, λ2 = 8, con multiplicida-
des algebraicas respectivas m 1 = 2, m 2 = 1.

Álgebra Lineal y Geometría 337


Depto. de Álgebra

Para λ1 , el espacio de autovectores es


2 2 2 
 
0
  
  x1
V1 (λ1 ) = null(A − λ1 I ) ⇒ 
 2 2 2   x2  =  0  .

x3 0
2 2 2
Para resolver este sistema lineal homogéneo, calculamos la forma esca-
lonada reducida por filas de la matriz de coeficientes:
2 2 2 1 1 1
   
  x1 = −x2 −x3 ,

  rref 
 2 2 2 −
 →  0 0 0  ,  x2 = x2 ,
 

x3 = x3 .
2 2 2 0 0 0
Entonces    
−1 −1
   
 1  , v12 =  0 〉.
V1 (λ1 ) = 〈v11 =    

0 1
Ahora aplicamos Gram-Schmidt a este conjunto para transformarlo en
un conjunto ortonormal.

q11 = v11 ,

′ ′ 〈q11 |v12 〉e 1
q12 = v12 − λ12 q11 , λ12 = ′ ′ = ,
〈q11 |q11 〉e 2
 
−1/2

 
q12  −1/2  ,
=  

1
p
−1/2 2
 
1 ′
 p
 1/2 2

,
q11 = ° ° q11
°q ′ °
=  
11
0
p
−1/6 6
 
1 ′
 p
 −1/6 6

.
q12 = ° ° q12
°q ′ °
=  
12 p
1/3 6

Para λ2 , procedemos análogamente.


−4 2 2
 
0
   
  x 1

 2 −4 2
V1 (λ2 ) = null(A − λ2 I ) ⇒    x2  =  0  .

x3 0
2 2 −4

338 Álgebra Lineal y Geometría


Depto. de Álgebra

Para resolver este sistema lineal homogéneo, calculamos la forma esca-


lonada reducida por filas de la matriz de coeficientes:

−4 2 2 1 0 −1
   
  x1 = x3 ,

  rref 
 2 −4 2  −
 →  0 1 −1  ,  x2 = x3 ,
 

x3 = x3 .
2 2 −4 0 0 0
Entonces
1
 
 
 1 〉.
V1 (λ2 ) = 〈v21 =  

1
Observemos, como era de esperar, que V1 (λ2 ) es un subespacio vectorial
ortogonal a V1 (λ1 ), es decir, los vectores v1i son ortogonales a los vectores
v2j . De nuevo, aplicamos Gram-Schmidt a V1 (λ2 ), pero aquí solamente
tenemos que normalizar el vector v21 :
p 
1/3 3

1  p 
q21 = v21 =  1/3 3  .
kv21 k 
p
1/3 3
¡ ¢
Por tanto, la matriz Q = q11 q12 q21 es una matriz ortogonal formada por
autovectores, por lo que
2 0 0
 

Q t AQ = 
 
 0 2 0 .

0 0 8

Teorema espectral de las matrices unitarias

Las matrices unitarias tienen autovalores complejos de módulo


igual a uno.

Una matriz A es unitaria si y solamente si A es semejante de for-


ma unitaria a una matriz diagonal D, cuyos elementos diagona-
les son complejos de módulo igual a uno.

Álgebra Lineal y Geometría 339


Depto. de Álgebra

P RUEBA :

Sea λ autovalor de la matriz A y v un autovector asociado, esto es, A v =


λv . Como A es unitaria, entonces

kv k2 = 〈v |v 〉e = 〈A v |A v 〉e = λλ kv k2 ,

de donde |λ| = 1.

Supongamos que A es unitaria. Entonces es una matriz normal y existen


U matriz unitaria y D matriz diagonal tal que U ∗ AU = D. Como la matriz
D contiene los autovalores de A, tenemos el resultado.
Recíprocamente, supongamos que existen U matriz unitaria y D matriz
diagonal con elementos diagonales λi de módulo igual a uno, tales que
U ∗ AU = D. Entonces A ∗ A = U D ∗ DU ∗ . El producto D ∗ D es la matriz dia-
gonal con elementos de la forma λi λi = 1, es decir, D ∗ D = I . Por tanto,
A ∗ A = UU ∗ = I y tenemos el resultado.

9.3. Matriz definida positiva


El teorema espectral de las matrices hermitianas (simétricas) nos permi-
te estudiar un tipo de matriz hermitiana (simétrica) que aparece en contextos
muy diferentes.

Matriz definida positiva

Sea A n×n una matriz hermitiana (simétrica).

Decimos que es definida positiva si v ∗ A v > 0 para todo vector


no nulo v ∈ Cn (v t A v > 0 para todo vector no nulo v ∈ Rn ).

Decimos que es definida negativa si v ∗ A v < 0 para todo vector


no nulo v ∈ Cn (v t A v < 0 para todo vector no nulo v ∈ Rn ).

También tenemos los conceptos de

semidefinida positiva, para v ∗ A v ≥ 0, y

semidefinida negativa, para v ∗ A v ≤ 0.

340 Álgebra Lineal y Geometría


Depto. de Álgebra

Es claro que A es definida negativa si y solamente si −A es definida positiva.

Ejemplo 9.3.1.-

1. La matriz identidad es definida positiva.

2. Toda matriz diagonal D con entradas d i i > 0 es definida positiva.

3. La matriz
1 0
µ ¶
B=
0 −2
no es de ninguno de los tipos anteriores. Se suelen denominar indefini-
das.

4. Toda matriz A n×n definida positiva define un producto escalar en Cn me-


diante 〈v |w 〉 = v ∗ A w .

5. Sea C m×n una matriz compleja. Entonces A = C ∗C es hermitiana semi-


definida positiva, pues

v ∗ A v = v ∗C ∗C v = kC v k ≥ 0.

Si rango(C ) = n, entonces C v 6= 0 para todo v 6= 0, y lo anterior implica


que A = C ∗C es definida positiva.

El problema que se plantea inicialmente es cómo reconocerlas. Vamos a dar un


teorema de caracterización para ello.

Caracterización de una matriz definida positiva

Sea A n×n una matriz hermitiana. Son equivalentes:

1. A es definida positiva.

2. Todos los autovalores de A son positivos.

3. La matriz A se puede expresar como A = B ∗ B, para una matriz B


no singular.

Álgebra Lineal y Geometría 341


Depto. de Álgebra

P RUEBA :

(1) ⇒ (2) Sea λ autovalor de A y v autovector asociado. Entonces 0 < v ∗ A v = v ∗ (λv ) =


λ kv k2 , de donde λ > 0.

(2) ⇒ (3) Si A = U DU ∗ con los autovalores positivos, podemos escribir D 1/2 la ma-
triz diagonal que contiene las raíces cuadradas de los autovalores. Enton-
ces
A = U DU ∗ = U D 1/2 D 1/2U ∗ = B ∗ B, para B = D 1/2U ∗ .
Es claro que B es no singular.

(3) ⇒ (1) Dado v 6= 0, entonces w = B v 6= 0, porque B es no singular. Así,

v ∗ A v = v ∗ B ∗ B v = kw k2 > 0.

Nota 9.3.1. Las matrices semidefinidas positiva tienen una caracterización si-
milar. De forma completamente análoga a la prueba anterior, se tiene que si A
es una matriz hermitiana, entonces son equivalente

1. A es semidefinida positiva.

2. Todos los autovalores de A son no negativos.

3. La matriz A se puede expresar como A = B ∗ B.

Existe un criterio clásico basado en determinantes de ciertas submatrices


para caracterizar a una matriz definida positiva. Dada A n×n una matriz, nota-
remos por A k la submatriz de A formada por las primeras k filas y columnas de
A. Por ejemplo, A 1 = a11 y A n = A. Antes necesitamos hacer dos observaciones:

1. Si A es una matriz cuadrada cualquiera de orden n y L es una matriz aso-


ciada a una trasformación elemental de tipo I, entonces la matriz B =
L AL t verifica que det(A j ) = det(B j ), j = 1, 2, . . . , n, donde B j es la subma-
triz principal de orden j de B. Es inmediato por la invariancia del deter-
minante por dichas trasformaciones.

2. Supongamos que A es una matriz definida positiva de orden n y sea W


una matriz de orden n × r de rango r . Entonces W ∗ AW es una matriz
definida positiva de orden r . En efecto, es claro que es una matriz hermi-
tiana. Si u es un vector de r componentes no nulo, entonces W u es no

342 Álgebra Lineal y Geometría


Depto. de Álgebra

nulo; en otro caso, null(W ) sería no trivial, lo que contradice que es de


rango máximo. Por tanto, si llamamos v = W u, se tiene

u∗W ∗ AW u = v ∗ A v > 0.

De este resultado general, consideremos una matriz W obtenida median-


te la selección de r vectores de la forma e j ; por ejemplo,

W = e j1 . . . e jr .
¡ ¢

Entonces W ∗ AW consiste en la submatriz de A formada por las filas y


columnas j 1 , . . . , j r . En particular, las submatrices A k son definidas posi-
tiva y la submatriz formada por las filas y columnas 2, . . . , n también es
definida positiva.

* Menores principales positivos

Sea A n×n una matriz hermitiana y denotemos por A k la submatriz prin-


cipal de orden k. Entonces A es definida positiva si y solamente si
det(A k ) > 0 para todo k = 1, . . . , n.

P RUEBA : Supongamos que A es definida positiva y probemos el resultado


sobre los determinantes por inducción sobre n. Para n = 1, la matriz A se redu-
ce al escalar a11 , que es positivo. Supongamos que el resultado es cierto para
n − 1. Escribamos
a11 w ∗
µ ¶
A= .
w C1
y consideremos la matriz

1 0∗
µ ¶
L1 = .
− a111 w I

Esta matriz es el producto de matrices de tipo I con coeficientes en la primera


columna. Por tanto, la matriz B = L 1 AL t1 verifica que det(B k ) = det(A k ), como
hemos comentado al principio. El efecto sobre la matriz A es obtener ceros en
la primera columna y en la primera fila; en concreto,

0∗
µ ¶
t a11
B = L 1 AL 1 = .
0 − a1 ww ∗ +C 1
11

Como L 1 es una matriz triangular, con entradas en la diagonal iguales a 1, es no


singular, por lo que B es hermitiana definida positiva y la submatriz principal

Álgebra Lineal y Geometría 343


Depto. de Álgebra

A ′ = − a111 ww ∗ +C 1 de orden n −1 es hermitiana definida positiva. Por hipótesis


de inducción, para cada k = 1, . . . , n−1, los determinantes det(A ′k ) son positivos.
Dado que det(B j ) = a11 det(A ′j −1 ), tenemos el resultado.
Recíprocamente, supongamos que det(A j ) > 0 para todo j = 1, 2, . . . , n. Esto
implica que si aplicamos la eliminación anterior en filas y columnas, que no
es más que la eliminación gaussiana, encontramos siempre un pivote positi-
vo. Por tanto, tras n pasos llegamos a una expresión A = R ∗ R, con R triangular
superior y entradas r i i > 0. Por tanto, R es no singular y por el teorema de ca-
racterización A es definida positiva. 

Nota 9.3.2. El último paso de la prueba es lo que se conoce como factorización


de Cholesky. Observemos que proporciona un método algorítmico alternati-
vo más eficiente para determinar si una matriz es definida positiva. Se aplica
eliminación gaussiana y debemos encontrar siempre un pivote positivo.

Ejemplo 9.3.2.- Consideremos la matriz simétrica


5 3 5
 
 
A=  3 4 4 .

5 4 4
Entonces
5 3
µ ¶
det(A 1 ) = 5, det(A 2 ) = det = 11, det(A 3 ) = det(A) = −16,
3 4
por lo que A no es definida positiva.
Mediante la eliminación gaussiana, empezamos con el elemento a11 = 5 >
0. Procedemos a hacer ceros en la primera columna:
F2 − 53 F1 
5 3 5

F3 − F1  11

 0
A −−−−−−−−→ B =  5 1 
.
0 1 −1
El elemento b 22 = 11/5 > 0, por lo que continuamos el proceso.
5 3 5
 
5
F3 − 11 F2  11

B −−−−→C =   0 5 1 .

16
0 0 − 11
El elemento c33 = −16/11 < 0, por lo que la matriz A no es definida positiva.

344 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 9.3.3.- Para cada n ≥ 1, se define la matriz de Hilbert Hn como

1
µ ¶
Hn = , con i , j = 1, . . ., n.
i + j −1

Por ejemplo,
1 1
1
 
1 2 3
1
µ ¶
2 1 1 1
H2 = 1 1 , H3 =  2 3 4
.
2 3 1 1 1
3 4 5
Por la definición, Hn es una matriz simétrica, y la submatriz de Hn formada por
las k primeras filas y columnas es Hk . Nuestro objetivo es probar que la matriz
Hn es definida positiva. Para ello, basta ver que para cada m ≥ 1, el determi-
nante de Hm es positivo, pues la caracterización por los menores principales
implica el resultado.
Consideramos un problema más general, pero que permite resolver lo an-
terior de manera sencilla. Sean a1 , . . . , an , b 1 , . . . , b n números
³ cualesquiera,
´ con
1
ai + b j 6= 0, y definimos la matriz de orden n dada por A = a +b . Entonces
i j

n
Y 1
det(A) = (a j − ak )(b j − b k ) Qn .
j ,k=1 (a + b k )
j ,k=1 j
j >k

La matriz de Hilbert corresponde al caso ai = i , b j = j − 1, por lo que para j > k


se verifica que a j − ak = j − k > 0, b j − b k = j − 1 − k + 1 > 0, y det(Hm ) > 0 para
todo m.
La prueba del resultado para la matriz A es por inducción sobre la dimen-
sión. Para n = 1 es inmediato. Supongamos el resultado cierto para una matriz
de dicho tipo con dimensión n − 1. Efectuamos operaciones elementales que
conservan el valor del determinante. En primer lugar, restamos a cada una de
las filas 1, 2, . . . , n − 1 la última. Observemos que
1 1 an − ai
− = ,
ai + b j an + b j (ai + b j )(an + b j )

por lo que podemos extraer de las columnas los factores respectivos


1 1 1 1
, ,..., , ,
an + b1 an + b2 an + b n−1 an + b n

Álgebra Lineal y Geometría 345


Depto. de Álgebra

y de las filas los factores respectivos

an − a1 , an − a2 , . . . , an − an−1 , 1.

El determinante que queda tiene la forma


1 1 1
...
 
a 1 +b1 a 1 +b2 a 1 +bn
1 1 1

 a 2 +b1 a 2 +b2
... a 2 +bn



det  .. .. .. .. 
.
 . . . . 
1 1 1
...
 
a n−1 +b1 a n−1 +b2 a n−1 +bn
 
1 1 ... 1

Ahora restamos a cada una de las columnas 1, 2, . . . , n − 1 la última columna, y


sacamos de las columnas y las filas los factores respectivos

b n − b 1 , b n − b 2 , . . . , b n − b n−1 , 1,

y
1 1 1
, ,..., , 1.
a1 + bn a2 + bn an−1 + b n
Se desarrolla el determinante por la última fila, y se obtiene el determinante de
una matriz de la misma forma que A, pero de orden n − 1. Aplicamos entonces
la hipótesis de inducción, y obtenemos el resultado.

Ejemplo 9.3.4.- El teorema de Taylor en Rn nos dice que si f : Rn → R es una


función derivable y x0 ∈ Rn , entonces el valor de f en un punto x ∈ Rn está
dado por

f (x) = f (x0 ) + (x − x0 )t g (x0 ) + (x − x0 )t H(x0 )(x − x0 ) + O(kx − x0 k3 ),

donde g (x) = ∇ f (x0 ) es el vector gradiente de f en x0 , cuyas componentes son


g i = ∂ f /∂xi (x0 ), y H(x0 ) es la matriz hessiana, cuyas componente son h i j =
∂2 f /∂xi ∂x j (x0 ).
Como en el caso de una variable, el punto x0 es crítico si g (x0 ) = 0. Si x0 es
un punto crítico, entonces la expresión anterior nos dice que (x−x0)t H(x0 )(x−
x0 ) determina el comportamiento de f en un entorno de x0 . Esta observación
nos genera el siguiente criterio para mínimos y máximos locales:

346 Álgebra Lineal y Geometría


Depto. de Álgebra

Si x0 es un punto crítico tal que H(x0 ) es definida positiva, entonces x0


es un mínimo local de f .

Si x0 es un punto crítico tal que H(x0 ) es definida negativa, entonces x0


es un máximo local de f .

9.4. Descomposición en valores singulares

Descomposición en valores singulares (SVD)

Sea A una matriz compleja (real) de orden m × n. Entonces A se puede


factorizar como A = U ΣV ∗ , donde U es una matriz unitaria (ortogonal)
de orden m, V es una matriz unitaria (ortogonal) de orden n y Σ es
una matriz de orden m × n de la forma Σ = diag(σ1 , . . . , σr , 0, . . . , 0), y
σ1 ≥ σ2 ≥ . . . ≥ σr > 0, r = rango(A).

P RUEBA : Consideremos la matriz A ∗ A, de orden n. Es hermitiana (simétri-


ca) semidefinida positiva, y sus autovalores son reales mayores o iguales que
cero. Los ordenamos en forma decreciente, y supongamos que λ1 ≥ λ2 ≥ . . . ≥
λr > 0 son los positivos, donde r = rango(A). Recordemos que rango(A) = rango(A ∗ A),
por lo que A ∗ A tiene r autovalores positivos. Sea {v1 , . . . , vn } una base ortonor-
mal de autovectores de A ∗ A, y llamemos

p 1
σi = λi , i = 1, . . ., r, ui = A vi ∈ Km , i = 1, . . . , r.
σi

Observemos que los vectores ui están bien definidos, pues σ1 , . . . , σr 6= 0. Tene-


mos que
1
〈ui |ui 〉e = vi∗ A ∗ A vi = 1, para i = 1, . . . , r,
λi
y si i 6= j , entonces

1 λi
〈ui |u j 〉e = vi∗ A ∗ A v j = 〈vi |v j 〉e = 0.
σi σ j σi σ j

Álgebra Lineal y Geometría 347


Depto. de Álgebra

Por tanto, los vectores u1 , . . . , ur son unitarios y ortogonales entre sí. Comple-
tamos, mediante Gram-Schmidt o QR, a una base ortonormal del espacio

{u1 , . . . , ur , ur +1 , . . . , um }.

Sean
u1 u2 . . . um ,V = v1 v2 . . . vn .
¡ ¢ ¡ ¢
U=

Vamos a probar que U ∗ AV = Σ. Por lo anterior,

U ∗ AV = U ∗ A v1 v2 . . . vn = U ∗ A v1 A v2 . . . A vn
¡ ¢ ¡ ¢

= U ∗ σ1 u1 σ2 u2 . . . σr ur A vr +1 . . . A vn .
¡ ¢

Observemos las columnas A v j , j = r + 1, . . ., n. Sabemos, por la ordenación de


los autovalores, que A ∗ A v j = 0 para j = r + 1, . . . , n. Como null(A ∗ A) = null(A),
resulta que A v j = 0, para todo j = r + 1, . . . n. Entonces

U ∗ AV = U ∗ σ 1 u1 σ 2 u2 . . . σ r ur 0 ... 0
¡ ¢
 ∗ 
u1
 u∗
 2
¡
 σ 1 u1 σ 2 u2 . . . σ r ur 0 ... 0
¢
=  .

 .. 
u∗m
 
σ1

 σ2 

 .. 

 . 

=  σr  = Σm×n ,
 
0
 
 
..
 
.
 
 
0

y tenemos el resultado. 

Una expresión de la forma anterior A = U ΣV ∗ se denomina descomposi-


ción en valores singulares (SVD) de A, y no es única. Dado que A ∗ A = V (Σ∗ Σ)V ∗ ,
los elementos de la matriz Σ son las raíces cuadradas de los autovalores de A ∗ A,
que no dependen de la SVD elegida. Por ello, los elementos diagonales de Σ,
que son σ1 , . . . , σr , 0, . . . , 0 se denominan valores singulares de la matriz A. En
algunos textos esta denominación engloba únicamente a los no nulos.

348 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 9.4.1.- Vamos a calcular la descomposición en valores singulares de


la matriz
1 1
 

A =  0 1 .
1 0

2 1
µ ¶
t
1. Los autovalores de la matriz A A = son λ1 = 3, λ2 = 1.
1 2

2. Determinamos los no nulos, y ordenamos. En este caso, r = 2.

3. Los espacios de autovectores de A t A son

Para λ1 ,

1 1 −1
" # " #
t
−1 rref
A A − λ1 I = −→ ,
1 −1 0 0
1
µ ¶
w1 = ,V1 (λ1 ) = 〈w1 〉.
1

Aplicamos el procedimiento de Gram-Schmidt a la base calculada.


En este caso, como solamente hay un vector, basta con normalizar:

1 1 1
µ ¶
v1 = w1 = p .
kw1 k 2 1

Para λ2 ,

1 1 1 1
" # " #
t rref
A A − λ2 I = −
→ ,
1 1 0 0
µ ¶
−1
w2 = ,V1 (λ2 ) = 〈w2 〉.
1

Aplicamos el procedimiento de Gram-Schmidt a la base calculada.


En este caso, como solamente hay un vector, basta con normalizar:

1 1
µ ¶
−1
v2 = w2 = p .
kw2 k 2 1

4. Una base ortonormal de autovectores de A t A es


1 1 1
µ ¶ µ ¶
−1
v1 = p , v2 = p ,
2 1 2 1

con vi asociado a λi .

Álgebra Lineal y Geometría 349


Depto. de Álgebra

5. La matriz de valores singulares es


 p
3 0

p
Σ =  0 1  , σ1 = 3, σ2 = 1.
0 0

6. Definimos

1 1 2
   
1 1  1 1 1
µ ¶
u1 = A v1 = p 0 1 p = p  1 ,
σ1 3 1 0 2 1 6 1

1 1 0
   
1 1 1
µ ¶
−1
u2 = A v2 =  0 1  p = p  1 .
σ2 2 1 2 −1
1 0

7. Completamos {u1 , u2 } a una base ortonormal de R3 . Calcularemos una


base del espacio ortogonal al subespacio 〈u1 , u2 〉, y se obtendremos una
ortonormal con Gram-Schmidt.

El espacio ortogonal a 〈u1 , u2 〉 está definido por el sistema lineal homo-


géneo
2x1 +x2 +x3 = 0,
½

x2 −x3 = 0.

Calculamos la forma escalonada reducida por filas de la matriz de coefi-


cientes:
2 1 1 rref 1 0 1
" # " #
−→ .
0 1 −1 0 1 −1

Entonces
 
−1
〈 u1 , u2 〉 ⊥ = 〈 w 3 = 
 
 1 〉.

Ahora aplicamos Gram-Schmidt a esta base. En este caso, solamente hay


que normalizar el vector:
 
−1
1 1
u3 = w3 = p  1  .
kw3 k2 3 1

350 Álgebra Lineal y Geometría


Depto. de Álgebra

8. Las matrices calculadas son


 p p 
6/3 0 − 3/3
¡ ¢  p p p
U= u1 u2 u3 =  p6/6 p2/2 p3/3  ,

6/6 − 2/2 3/3
µ p p
2/2 − 2/2

¡ ¢
V= v1 v2 = p p
2/2 2/2
y A = U ΣV t .

Propiedades matriciales de la SVD

Sea A m×n = U ΣV ∗ una descomposición en valores singulares de A, con


σr 6= 0, σr +1 = 0. Entonces

rango(A) = r .

{u1 , . . . , ur } es una base ortonormal de Col(A).

{vr +1 , . . . , vn } es una base ortonormal de null(A).

P RUEBA : Recordemos que para una matriz C se tiene que


Col(C ) = Col(CC ∗ ).
Entonces
A A ∗ = U ΣV ∗V Σ∗U ∗ = (U Σ)(U Σ)∗ ,
de donde
Col(A) = Col(A A ∗ ) = Col((U Σ)(U Σ)∗ ) = Col(U Σ)
= 〈σ1 u1 , . . . , σr ur , 0 · ur +1 , . . . , 0 · um 〉
= 〈u1 , . . . , ur 〉.
Por otra parte,
null(A) = null(U ΣV ∗ ) = null(ΣV ∗ )
= {x | ΣV ∗ x = 0} = {x | V ∗ x ∈ null(Σ)}
= {x | V ∗ x ∈ 〈er +1 , . . . , en 〉} porque null(Σ) = 〈er +1 , . . . , en 〉,
= 〈V er +1 , . . . ,V en 〉 = 〈vr +1 , . . . , vn 〉.


Álgebra Lineal y Geometría 351


Depto. de Álgebra

Nota 9.4.1. Sea m ≥ n. La descomposición A = U ΣV ∗ , con U ,V unitarias


y Σ diagonal del mismo orden que A se puede poner también como A =
Û Σ̂V ∗ , con Û de columnas ortonormales, de la misma dimensión que A,
Σ̂ diagonal y V ∗ unitaria. Basta quitar las últimas columnas de U y las
últimas filas de Σ. Esta factorización recibe el nombre de SVD reducida.
Podemos hacer algo análogo si m < n eliminando las últimas columnas
de Σ y las correspondientes filas de V ∗ . Como curiosidad, M ATLAB hace
esta operación cuando m ≥ n, pero no cuando m < n. Esto se debe a que
lo más frecuente corresponde a la primera opción, pues es lo habitual en
las matrices de mínimos cuadrados.

Si rango(A) = r , consideremos la SVD completa A = U ΣV ∗ . Tenemos otra


forma de escribir la descomposición anterior. Sea U = (U1 |U2 ) y V = (V1 |V2 ),
con U1 de orden m × r , y V1 de orden n × r . Entonces

U1∗U1 = I r ,Q 1∗Q 1 = I r , y A = U1 Σ̃V1∗ ,

donde Σ̃ es la matriz diagonal con los valores singulares no nulos de A.


Nos referiremos a esta expresión como SVD corta de A, y la notaremos
A = Ũ Σ̃Ṽ ∗ .

Si r = rango(A), entonces tenemos que σr 6= 0, σr +1 = 0, y se verifica que


¢∗
u1 u2 . . . ur diag(σ1 , σ2 , . . . , σr ) v1 v2 . . . vr
¡ ¢ ¡
A =
r
σk uk vk∗ .
X
=
k=1

Esta expresión recibe el nombre de SVD compacta, que no es más que


otra forma de escribir la SVD corta.
El método que hemos empleado para encontrar la SVD de una matriz se po-
dría usar como algoritmo para calcularla. Sin embargo, existen procedimientos
más sofisticados para el cálculo práctico, que no expondremos aquí.
Nota 9.4.2. Cuando se habla del rango de una matriz, se suele usar lo que se co-
noce como rango numérico, que es igual a r˜ para σr˜ > ǫ ≥ σr˜+1 , donde ǫ es un
valor que se establece como límite de valores nulos. Vemos, en consecuencia,
que tres objetos básicos de una matriz, como el espacio imagen, el espacio nu-
lo y el rango se calculan, en realidad, a través de la descomposición en valores
singulares.
Nota 9.4.3. Se recomienda la lectura de C.D. Martin, M.A. Porter, The extraordi-
nary SVD, American Mathematical Monthly 119 (2012), n. 10, 838–851.

352 Álgebra Lineal y Geometría


Depto. de Álgebra

9.5. * Forma diagonal por cajas de las matrices orto-


gonales

Recordemos que las matrices ortogonales y unitarias tienen autovalores com-


plejos de módulo igual a 1. Nos centraremos en esta sección en las matrices
ortogonales y comenzamos con el caso de orden 2.

9.5.1. Matrices ortogonales de orden 2


¡ a11 a 12 ¢
Sea A = a 21 a 22 una matriz ortogonal de orden 2. Entonces det(A) = ∆ = ±1,
y
1
µ ¶ µ ¶
−1 a22 −a12 t a11 a21
A = =A = .
∆ −a21 a11 a12 a22

De aquí,
µ ¶
a11 −∆a21 2 2
A= , con a11 + a21 = 1.
a21 ∆a11

Es inmediato que una matriz de esta forma es ortogonal. De la condición ∆ =


±1, llegamos a que A tiene una de las formas

µ ¶ µ ¶
a −b a b
(a) , (b) , a 2 + b 2 = 1.
b a b −a

³ ´
cos(θ) −sen(θ)
En el caso (a), existe θ ∈ [0, 2π) tal que A = sen(θ) cos(θ) . En el caso (b), los
autovalores son 1 y −1 y el teorema de diagonalización
¡ 1 0 ¢ de matrices normales
t
nos dice que existe U ortogonal tal que U AU = 0 −1 .
En términos de isometrías, si (V, 〈·|·〉) es un espacio vectorial euclídeo de
dimensión 2 y f : V → V es una isometría, entonces respecto a cualquier base
ortonormal B se tiene que

µ ¶ µ ¶
a −b a b
MB ( f ) = o bien MB ( f ) = ,
b a b −a

con a 2 + b 2 = 1.

Álgebra Lineal y Geometría 353


Depto. de Álgebra

9.5.2. Espacios invariantes de isometrías

Espacios invariantes de isometrías

Sea (V, 〈·|·〉) un espacio vectorial euclídeo y f : V → V una isometría.

1. Si W ⊂ V es un subespacio vectorial invariante por f , entonces


f (W ⊥ ) ⊂ W ⊥ .

2. Existe un subespacio vectorial W ⊂ V invariante por f y dimW ≤


2.

P RUEBA :

Como f es biyectiva, se verifica que dimW = dim f (W ), de donde f (W ) =


W . Para probar que f (W ⊥ ) ⊂ W ⊥ , sean u′ ∈ f (W ⊥ ) y w ′ ∈ W . Existen
entonces u ∈ W ⊥ y w ∈ W tales que f (u) = u′ , f (w ) = w ′ . De aquí,

〈u′ |w ′ 〉 = 〈 f (u)| f (w )〉 = 〈u|w 〉 = 0.

Fijamos una base ortonormal de V y llamamos A = MB ( f ). Como f es


isometría, existe f −1 , y podemos definir el endomorfismo g = 2 idV + f +
f −1 . Entonces

MB (g ) = 2I + A + A −1 = 2I + A + A t , que es una matriz simétrica.

Por tanto, todos los autovalores de g son reales. Sea λ autovalor de g y


v 6= 0 autovector asociado. Entonces

λv = g (v ) = 2v + f (v ) + f −1 (v ), luego λ f (v ) = f (λv ) = 2 f (v ) + f 2 (v ) + v .

En conclusión, f 2 (v ) = (λ − 2) f (v ) − v , lo que significa que el subespacio


W = 〈v , f (v )〉 es invariante y dimW ≤ 2.

354 Álgebra Lineal y Geometría


Depto. de Álgebra

9.5.3. Construcción de la forma diagonal por cajas

Forma diagonal por cajas de una matriz ortogonal

Sea (V, 〈·|·〉) un espacio vectorial euclídeo de dimensión n ≥ 2 y f : V →


V una isometría. Entonces existe una base ortonormal B de V tal que

Ip
 
 −I q 
cos(θi ) − sen(θi )
  µ ¶
MB ( f ) = 
 A1  , con A i =

.
.. sen(θi ) cos(θi )
.
 
 
Ar

Además, p es la dimensión del espacio de autovectores asociado al au-


tovalor 1, q es la dimensión del espacio de autovectores asociado al au-
tovalor −1 y θi ∈ (0, 2π), θi 6= π.

P RUEBA : Paso 1. Vamos a ver en primer lugar que existe una descomposi-
ción
V = W1 ⊕ · · · ⊕ Wm ,
donde los subespacio Wi son invariantes por f , ortogonales dos a dos y dimWi ≤
2, i = 1, . . . , m. Aplicamos inducción sobre n. Para n = 2 no hay nada que probar.
Supongamos el resultado cierto para espacios vectoriales euclídeos de dimen-
sión menor que n. Por la segunda parte del teorema de los subespacios inva-
riantes de isometrías (pág. 354), existe W1 subespacio invariante con dimW1 ≤
2. Por la primera parte del mismo teorema, f (W1⊥ ) ⊂ W1⊥ , por lo que podemos
considerar la restricción g = f |W ⊥ : W1⊥ → W1⊥ . Como dimW1⊥ < dimV , aplica-
1
mos la hipótesis de inducción y descomponemos
W1⊥ = W2 ⊕ · · · ⊕ Wm
con los subespacios Wk invariantes por g , ortogonales dos a dos y dimWk ≤
2, k = 2, . . . , m. A partir de la igualdad V = W1 ⊕ W1⊥ , tenemos el resultado para
f.
Paso 2. Procedemos a calcular la base B. En la descomposición del paso
1, elegimos los subespacios Wi tales que f |Wi = idWi . A la suma directa de es-
tos subespacios la notamos por U1 = 〈u1 , . . . , up 〉, con base ortonormal forma-
da por los autovectores del autovalor 1. Seleccionamos los W j tales que f |W j =
− idW j , y a su suma directa la notamos por U2 = 〈up+1 , . . . , up+q 〉, con base or-
tonormal formada por los autovectores del autovalor −1. Los restantes subes-
pacios Wk son de dimensión 2 (si fueran de dimensión 1, la restricción de una

Álgebra Lineal y Geometría 355


Depto. de Álgebra

isometría es la identidad o su opuesta). Por tanto, por la forma


³ de las matrices ´
cos(θ ) −sen(θ )
ortogonales de orden 2, la matriz de f |Wk es de la forma A k = sen(θii ) cos(θi )i . Si
unimos las bases de estos subespacios, tenemos la base buscada. 

En términos matriciales, el resultado anterior nos indica que si A es una


matriz ortogonal, existe un matriz ortogonal U tal que

Ip
 
 −I q 
cos(θi ) − sen(θi )
  µ ¶
t A1
U AU =   , con A i = ,
 
.. sen(θi ) cos(θi )
.
 
 
Ar

y cada θi ∈ (0, 2π), θi 6= π. En términos de espacios vectoriales, queda de la si-


guiente forma:

Descomposición de un espacio vectorial euclídeo por una isometría

Sea (V, 〈·|·〉) un espacio vectorial euclídeo de dimensión n ≥ 2 y f : V →


V una isometría. Entonces

V = U1 ⊕U2 ⊕ W1 ⊕ · · · ⊕ Wr ,

donde U1 = ker(idV − f ),U2 = ker(− idV − f ), los espacios son ortogona-


les dos a dos, y
dimWi = 2, ϕ|Wi 6= ± idWi ,
³ ´
con ϕ|Wi de matriz bii ai i , ai2 +b i2 = 1. Todos los espacios que intervie-
a −b

nen en esta suma directa son invariantes.

356 Álgebra Lineal y Geometría


Capítulo 10

Espacios afines

10.1. Definiciones
La teoría de espacios vectoriales modela la estructura algebraica de los con-
juntos de soluciones de sistemas de ecuaciones lineales homogéneas. Los con-
juntos de soluciones de sistemas de ecuaciones lineales no homogéneas se mo-
delan mediante la teoría de espacios afines, que tiene un carácter más geomé-
trico.

Espacio afín

Un espacio afín sobre un cuerpo K es una terna (E ,V, +) formada por


un conjunto no vacío E , un K-espacio vectorial V y una operación +,
+
E ×V → E,
(P, v ) 7→ P + v ,

tales que para cualesquiera P,Q ∈ E y u, v ∈ V se verifica

1. P + 0 = P .

2. (P + u) + v = P + (u + v ).

3. Existe un único w ∈ V tal que P + w = Q.

−−→
El vector w de (3) se denota PQ. Los elementos del conjunto E se llaman pun-
tos. El espacio vectorial V se denomina espacio de direcciones. Es conveniente

359
Depto. de Álgebra

considerar también la existencia de un espacio afín vacío. Así, por convención


se considera al vacío ; como un espacio afín sin espacio de direcciones.

Ejemplo 10.1.1.- Todo espacio vectorial V da lugar a un espacio afín (V,V, +)


cuyo espacio de direcciones es él mismo. En este caso, dados dos puntos u, v ∈
V , que también son vectores,
−→ = v − u ∈ V.
uv
Si V = Kn este espacio afín se denota An (K) y se denomina espacio afín canó-
nico de dimensión n.

Nota 10.1.1. Recordemos que un K-espacio vectorial V consiste también en


una terna (V, +, ·) formada por el conjunto V junto con las operaciones suma
y producto por escalares; sin embargo para no sobrecargar la notación lo de-
notamos simplemente V . Análogamente un espacio afín (E ,V, +) se denotará
simplemente E , y para designar su espacio de direcciones V usaremos la nota-
ción D(E ).
La condición (3) de la definición de espacio afín es equivalente a decir que
para todo P ∈ E la aplicación,

V → E,
v 7→ P + v ,
es biyectiva.

Propiedades elementales

Dados cuatro puntos de un espacio afín P,Q, R, S ∈ E se satisfacen las


siguientes propiedades:
−→
1. P P = 0.
−−→ −−→ −→
2. PQ + QR = P R.
−−→ −−→
3. QP = −PQ.
−−→ −→ −→ −−→
4. PQ = SR si y solamente si P S = QR.

360 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : La igualdad (1) es obvia ya que P + 0 = P .


El apartado (2) se deduce de las siguientes ecuaciones,
−−→ −−→ −−→ −−→ −−→
P + (PQ + QR) = (P + PQ) + QR = Q + QR = R.

La ecuación (3) es consecuencia de las identidades siguientes,


−−→ −−→ −→
PQ + QP = P P = 0.

Para ver (4) basta observar que


−−→ −−→ −→ −→ −→
PQ + QR = P R = P S + SR,

luego
−−→ −→ −→ −−→
PQ − SR = P S − QR,

por tanto un término de esta ecuación se anula si y sólo si se anula el otro, que
es lo que dice (4). 

Puntos y vectores

Sea (E ,V, +) un espacio afín. Entonces, si P,Q ∈ E y u, v ∈ V se verifica


que
−−−−−−−−−−−→ −−→
(P + u)(Q + v ) = PQ + v − u.
En particular,
−−−−−−→ −−→ −−−−−−→ −−−−−−→ −−→ −−−−−−→
P (Q + v ) = PQ + v , P (P + v ) = v , (P + u)Q = PQ − u, (P + u)P = −u.

−−−−−−−−−−−→
P RUEBA : Sea w = (P + u)(Q + v ) y llamemos P 1 = P + u,Q 1 = Q + v . Entonces
−−−→ −−→ −−−→
w = P 1Q 1 , u = P P 1 , v = QQ 1 ,

de donde
−−−→ −−→ −−→ −−−→ −−→
w = P 1Q 1 = P 1 P + PQ + QQ 1 = −u + PQ + v .


Álgebra Lineal y Geometría 361


Depto. de Álgebra

Dimensión de un espacio afín

Un espacio afín no vacío E tiene dimensión finita si su espacio de di-


recciones D(E ) tiene dimensión finita. En este caso la dimensión de E
se define como dim E = dim D(E ). La dimensión del vacío se define por
convención como dim; = −1.

Ejemplo 10.1.2.- El espacio afín canónico An (K) tiene dimensión n.

En adelante, sin necesidad de mencionarlo explícitamente, nos centrare-


mos en el estudio de los espacios afines de dimensión finita.

10.2. Sistemas de referencia afines

Sistema de referencia afín

Un sistema de referencia R de un espacio afín no vacío E está formado


por un punto O ∈ E y una base B = {v1 , . . . , vn } ⊂ D(E ) de su espacio de
direcciones, y lo notaremos como

R = {O; v1 , . . . , vn }.

El punto O se denomina origen del sistema de referencia.

El sistema de referencia canónico o estándar de An (K) es R c = {0; e1 , . . . , en },


donde Bc = {e1 , . . . , en } ⊂ Kn es la base estándar.
Dado un espacio afín E con sistema de referencia R = {O; v1 , . . . , vn } y un
punto P ∈ E existen unos únicos escalares a1 , . . . , an ∈ K tales que,

P = O + a1 v1 + · · · + an vn .
−−→
Esto se deduce de la expresión del vector OP con respecto a la base {v1 , . . . , vn }
dada por
−−→
OP = a1 v1 + · · · + an vn ,

362 Álgebra Lineal y Geometría


Depto. de Álgebra

−−→
y vemos que los ai son simplemente las coordenadas de OP respecto de la base
vectorial, que sabemos que existen y son únicas. Decimos que (a1 , . . . , an ) son
las coordenadas del punto P respecto del sistema de referencia R, y lo notare-
mos por
P R = (a1 , . . . , an ),
aunque en las fórmulas matriciales que aparecen más adelante lo tomaremos
siempre como un vector columna.
Nota 10.2.1. Las coordenadas de P = (a1 , . . . , an ) ∈ An (K) respecto del sistema
de referencia canónico son P R c = (a1 , . . . , an ). Es más, la asignación de coorde-
nadas respecto de R es una aplicación biyectiva,

E → An (K),
P 7→ P R ,

tal que (P + v )R = P R + vB para todo P ∈ E y v ∈ V , y por tanto permite identifi-


car E y An (K) como espacios afines. En un tema posterior veremos que se trata
de un isomorfismo de espacios afines.
Dado un espacio afín E y dos sistemas de referencia R = {O; v1 , . . . , vn } y
R ′ = {O ′ ; v1′ , . . . , vn′ }, la siguiente matriz se denomina matriz de cambio de refe-
rencia,  
1 0 ··· 0
 

M(R, R ) =  .
 
 OR′ M(B, B ′ ) 

Aquí M(B, B ′ ) designa a la matriz de cambio de base asociada a las bases B =


{v1 , . . . , vn } y B ′ = {v1′ , . . . , vn′ } de D(E ), cuyas columnas recordemos que son las
coordenadas de los vectores de B respecto de la base B ′ .

Ecuaciones del cambio de sistema de referencia

Dado un espacio afín E , un punto P ∈ E y dos sistemas de referencia


R = {O; v1 , . . . , vn } y R ′ = {O ′ ; v1′ , . . . , vn′ }, se cumple que

1 1
µ ¶ µ ¶

M(R, R ) = .
PR PR′

P RUEBA : Sea P ∈ E . Entonces


−−→ −−→
P R ′ = [O ′ P ]B ′ y P R = [OP ]B .

Álgebra Lineal y Geometría 363


Depto. de Álgebra

−−→ −−→ −−→


De la identidad O ′ P = O ′O + OP , se tiene que
−−→ −−→ −−→
[O ′ P ]B ′ = [O ′O]B ′ + [OP ]B ′
−−→
= O R ′ + M(B, B ′ )[OP ]B ,

que en forma matricial podemos escribir como


 
1 0 ··· 0
1 µ 1 ¶
µ ¶ 
= .
 

PR′  OR′ M(B, B )  PR

Usando esta proposición, se deduce fácilmente que si R, R ′ y R ′′ son tres


sistemas de referencia de un mismo espacio afín E de dimensión n entonces:

1. M(R, R) = I n+1 .

2. M(R ′ , R ′′ )M(R, R ′ ) = M(R, R ′′ ).

3. M(R, R ′ ) = M(R ′ , R)−1 .

Ejemplo 10.2.1.- Consideremos en A2(R) un sistema de referencia R = {O; u1 , u2 }


y formemos R ′ = {O ′ ; u′1 , u′2 }, donde

OR = (1, −2), u′1 = u1 + u2 , u′2 = −u1 + u2 .

Es claro que R ′ es un nuevo sistema de referencia, pues {u′1 , u′2 } es base del
espacio vectorial. La matriz del cambio de sistema de referencia de R ′ a R es

1 0 0 1 0 0
   

M(R ′ , R) =  1 1 −1  y M(R, R ′ ) = M(R ′ , R)−1 =  1/2 1/2 1/2  .


−2 1 1 3/2 −1/2 1/2

Si consideramos el punto P R = (1, 1) entonces

1 0 0 1 1
    
 1/2 1/2 1/2   1  =  3/2  ,
3/2 −1/2 1/2 1 3/2

de donde P R ′ = ( 23 , 23 ).

364 Álgebra Lineal y Geometría


Depto. de Álgebra

P
u2

O u1
3 ′
2 u2 3 ′
2 u1

u 2′ = −u 1 + u 2 u 1′ = u 1 + u 2

O′

Figura 10.1: Cambio de sistema de referencia

En los espacios afines reales, las ecuaciones del cambio de sistema de refe-
rencia nos permiten definir la orientación.

Igualdad de la orientación

Sea (E ,V, +) un espacio afín real y consideremos dos sistemas de refe-


rencia R = {O; B} y R ′ = {O ′ ; B ′ }. Decimos que tienen la misma orien-
tación si la matriz del cambio de sistema M(R, R ′ ) tiene determinante
positivo.

La definición anterior es equivalente a que la matriz del cambio de base


M(B, B ′ ) tenga determinante positivo. Tenemos así definida una relación en-
tre los sistemas de referencia, que es de equivalencia por las propiedades de las
matrices asociada (pág. 364). ¿Cuántas clases quedan definidas?

Álgebra Lineal y Geometría 365


Depto. de Álgebra

e1 e1
O O

orientación negativa orientación positiva

Figura 10.2: Orientación en la recta

Hay dos orientaciones

Sea (E ,V, +) un espacio afín real de dimensión n ≥ 1. Existen exacta-


mente dos clases de equivalencia para la relación de equivalencia dada
por la orientación.

P RUEBA : Sea R = {O; u1 , . . . , un } un sistema de referencia en E . Entonces R ′ =


{O; u1 , . . . , −un } es un sistema de referencia en E y la matriz de cambio M(R, R ′)
tiene determinante igual a −1. Por tanto, hay al menos dos clases de equivalen-
cia. Dado un sistema de referencia R ′′ , se tiene que

M(R ′ , R ′′ )M(R, R ′ ) = M(R, R ′′ ).

Por tanto, det(M(R ′ , R ′′ )) es de signo opuesto a det(M(R, R ′′ )), por lo que R ′′


pertenece a una de las dos clases. 

Por tanto, no hay una orientación intrínseca en un espacio afín real. Para
hablar de orientación positiva o negativa es necesario fijar un sistema de refe-
rencia y con respecto a él referimos el carácter positivo o negativo de los res-
tantes sistemas. Vamos a examinar lo que ocurre en los espacios de dimensión
1, 2 y 3.
Cuando dibujamos la recta real de forma horizontal, usualmente asigna-
mos la orientación de izquierda a derecha como la orientación positiva. En el
plano real, la orientación positiva se asocia con el paso de e1 a e2 en el sentido
contrario a las agujas del reloj.
En el espacio tridimensional, la orientación positiva se asigna según la regla
del sacacorchos: desde el extremo del vector e3 , el paso de e1 a e2 se realiza en
el sentido contrario a las agujas del reloj.

366 Álgebra Lineal y Geometría


Depto. de Álgebra

e2 e1

O O
e1 e2

orientación positiva orientación negativa

Figura 10.3: Orientación en el plano

e3 e3

e2 e1

e1 e2

orientación positiva orientación negativa

Figura 10.4: Orientación en el espacio

Álgebra Lineal y Geometría 367


Depto. de Álgebra

A partir de dos vectores u, v ∈ R3 , hay una manera formal de construir un


vector w de forma que {u, v , w } tenga la misma orientación que la base están-
dar. Si
 µ ¶ 
u2 u3
 det v v
µ 2 3
    
u1 v1  ¶ 
u1 u3 
 
u =  u 2  , v =  v 2  , definimos u × v =  − det .

v1 v3 
u3 v3

 µ ¶ 
u1 u2
det
 
v1 v1

Al vector u × v se lo denomina producto vectorial de u y v . De manera infor-


mal, se escribe también como
 
e1 e2 e3
u × v = det  u 1 u 2 u 3  .
v1 v2 v3

Entonces la base {u, v , u × v } tiene la misma orientación que la base estándar.


En efecto, al formar la matriz 3 × 3 con las componentes de cada vector, el de-
terminante es igual a
µ ¶2 µ ¶2 µ ¶2
u2 u3 u1 u3 u1 u2
det + det + det .
v2 v3 v1 v3 v1 v2

Este número es positivo, pues al ser u y v linealmente independientes, alguno


de los menores 2 × 2 de la suma anterior es no nulo.

10.3. Subespacios afines

Independencia afín

Un conjunto de puntos {P 0 , P 1 , . . . , P r } ⊂ E de un espacio afín E es afín-


−−−→ −−−→
mente independiente si el conjunto de vectores {P 0P 1 , . . . , P 0 P r } ⊂ D(E )
es linealmente independiente. En caso contrario decimos que es afín-
mente dependiente.

Nota 10.3.1. Sea E un espacio afín con sistema de referencia R = {O; v1 , . . . , vn }


y sea S = {P 0 , P 1 , . . . , P r } ⊂ E un conjunto de puntos con coordenadas,

(P i )R = (a1i , . . . , ani ), 0 ≤ i ≤ r.

368 Álgebra Lineal y Geometría


Depto. de Álgebra

Consideremos la matriz

1 1 1
 
···
 a10 a11 ··· a1r 
A= .. .. .. .. .
 
 . . . . 
an0 an1 · · · anr

Realizando transformaciones elementales podemos llegar a la matriz,

1 0 0
 
···
 a10 a11 − a10 ··· a1r − a10 
.. .. .. .. ,
 
.

 . . . 
an0 an1 − an0 · · · anr − an0

luego si B es la submatriz
 
a11 − a10 · · · a1r − a10
.. .. ..
B = . . . ,
 

an1 − an0 · · · anr − an0

entonces
rango A = 1 + rangoB.
−−−→ −−−→
Las columnas de B son las coordenadas de los vectores {P 0 P 1 , . . . , P 0 P r } ⊂ D(E )
respecto de la base {v1 , . . . , vn }, y por tanto S es afínmente independiente si y
solamente si rango A = r + 1.
Es de hacer notar que la propiedad de ser {P 0 , P 1 , . . . , P r } ⊂ E afínmente in-
dependiente no depende del orden de los puntos, pues el rango de la matriz A
no se altera por la permutación de sus columnas.

Ejemplo 10.3.1.- Consideremos los puntos en A4 (R) dados por

P 0 = (1, 0, 1, 0), P 1 = (2, 1, 3, −1), P 2 = (1, 1, −2, 0), P 3 = (2, 2, 0, 1), P 4 = (3, 3, 2, −2).

Formamos la matriz  
1 1 1 1 1

 1 2 1 2 3 

A= 0 1 1 2 3 ,
 
1 3 −2 0 2
 
 
0 −1 0 1 −2

Álgebra Lineal y Geometría 369


Depto. de Álgebra

cuya forma reducida es  


1 0 0 0 −2

 0 1 0 0 2 

0 0 1 0 1 .
 

0 0 0 1 0 
 

0 0 0 0 0
Esto significa que el conjunto {P 0, P 1 , P 2 , P 3 , P 4 } es afínmente dependiente y que
{P 0 , P 1 , P 2 , P 3 } es afínmente independiente. Algo similar se obtiene al analizar la
−−−→
matriz con las componentes de los vectores P 0 P i , i = 1, 2, 3, 4. En este caso,
   
1 0 1 2 1 0 0 2
 1 1 2 3  rref  0 1 0 1 
   
− → ,
 2 −3 −1 1   0 0 1 0 

−1 0 1 −2 0 0 0 0

−−−→
lo que prueba que el vector P 0 P 4 depende linealmente de los restantes.

Subespacio afín

Dado un espacio afín (E ,V, +), un subespacio afín o variedad lineal


afín de E consiste en un subconjunto X ⊂ E y un subespacio vectorial
W ⊂ V tales que (X ,W, +) tiene estructura de espacio afín.

El vacío ; también se considera subespacio afín de E .

Caracterización de los subespacios afines

Sea (E ,V +) un espacio afín, X ⊂ E no vacío y W ⊂ V un subespacio


vectorial. Son equivalentes:

1. (X ,W, +) es un subespacio afín.

2. Para todo P,Q ∈ X y w ∈ W se verifica


−−→
P + w ∈ X , y el vector PQ pertenece a W.

370 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Si (X ,W, +) es subespacio afín, se tienen, por definición, ambas con-


diciones. Supongamos entonces que se verifican ambas condiciones. Entonces
la aplicación (P, w ) 7→ P + w tiene su imagen en X . Las propiedades

P + 0 = P, (P + u) + v = P + (u + v )

se heredan de (E ,V, +). Dados P,Q ∈ X existe un único v ∈ V tal que P + v = Q,


−−→
por la estructura de E . Entonces v = PQ ∈ W , por lo que el vector pertenece a
W. 

Los subespacios afines de dimensiones 0, 1, 2 y dim E − 1 se denominan


puntos, rectas, planos e hiperplanos afines, respectivamente. Es habitual notar
al subespacio vectorial asociado a X como D(X ), el espacio de direcciones de
X.

Ejemplo 10.3.2.- Sea (E ,V, +) un espacio afín, P ∈ E y W ⊂ V un subespacio


vectorial. Entonces el conjunto

X = P + W = {P + w | w ∈ W }

es un subespacio afín.
1. Sea Q = P + w0 y w ∈ W . Entonces Q + w = P + w0 + w y w0 + w ∈ W .

2. Sean entonces Q 1 ,Q 2 ∈ X . Entonces Q 1 = P + w1 y Q 2 = P + w2 y

Q 1 + (w2 − w1 ) = P + w2 = Q 2 ,
−−−→
de donde Q 1Q 2 = w2 − w1 ∈ W .

El ejemplo anterior es importante, porque da la forma de todos los subespacios


afines no vacíos de E .

Forma de los subespacios afines

Sea (X ,W, +) un subespacio afín no vacío de (E ,V, +) y fijemos un punto


P ∈ X . Entonces
X = P + W.

Álgebra Lineal y Geometría 371


Depto. de Álgebra

P RUEBA : Sea Y = P + W . Como X es subespacio afín, los puntos P + w per-


−−→
tenecen a X . Recíprocamente, sea Q ∈ X . Entonces w = PQ ∈ W , de donde
Q = P + w , con w ∈ W . 

Propiedades de los subespacios afines

Sea X = P + W un subespacio afín de E . Entonces

1. Si Q ∈ X entonces X = Q + W .
−−→
2. El conjunto W ′ = {PQ | Q ∈ X } es un subespacio vectorial y W =
W ′.

3. Sea Y = R +U otro subespacio afín de E .

a) Si X ⊂ Y entonces D(X ) ⊂ D(Y ).


b) Si existe P 0 ∈ X ∩ Y y D(X ) ⊂ D(Y ), entonces X ⊂ Y .

P RUEBA :
−−→
1. Q + W = P + PQ + W = P + W .

2. Es claro que W ′ ⊂ W . Si u ∈ W , entonces Q = P + u es un punto de X y


−−→
u = PQ ∈ W ′ .
−→
3. Si X ⊂ Y , podemos escribir U = {P S | S ∈ Y }, y es claro que
−−→ −→
D(X ) = W = {PQ | Q ∈ X } ⊂ P S | S ∈ Y } = D(Y ).

Por otro lado, si P 0 ∈ X ∩Y , entonces X = P 0 +W, Y = P 0 +U y la condición


W = D(X ) ⊂ D(Y ) = U implica que

X = {P 0 + w | w ∈ W } ⊂ {P 0 + u | u ∈ U } = Y .

Ejemplo 10.3.3.- Todo espacio afín E contiene al espacio afín total E y al vacío
;. Si E no es vacío todo punto P ∈ E define un subespacio afín P = ({P }, {0}, +)
con espacio de direcciones trivial.

372 Álgebra Lineal y Geometría


Depto. de Álgebra

Subespacio afín generado por un conjunto de puntos

Dado un conjunto de puntos de un espacio afín S = {P 0 , . . . , P r } ⊂ E se


define el subespacio afín generado por S como
−−−→ −−−→
〈S〉 = 〈P 0 , . . . , P r 〉 = P 0 + 〈P 0 P 1 , . . . , P 0 P r 〉 ⊂ E .

Si X es un subespacio afín, decimos que está generado por un conjunto


de punto {Q 0 ,Q 1 , . . . ,Q s } si X = 〈Q 0 ,Q 1 , . . . ,Q s 〉.

Nota 10.3.2. Si un conjunto de puntos {Q 0 ,Q 1 , . . . ,Q s } es generador de X y afín-


mente independiente, decimos que constituye una base de X . Más aún, el con-
−−−→ −−−→
junto {Q 0 ,Q 1 , . . . ,Q s } es una base si y solamente si {Q 0 ; Q 0Q 1 , . . . , Q 0Q s } es un
sistema de referencia de X . Dicho de otro modo, {O; v1 , . . . , vs } es un sistema de
referencia de X si y solamente si {O,O + v1 , . . . ,O + vs } ⊂ E es una base de X .
En particular, todo subespacio afín no vacío X posee alguna base, y toda base
tiene 1 + dim X puntos.
−−−→
Claramente {P 0 , P 1 , . . . , P r } ⊂ 〈P 0 , P 1 , . . . , P r 〉 puesto que P i = P 0 + P 0 P i , 1 ≤
i ≤r.

Ejemplo 10.3.4.- Si P 0 , P 1 ∈ E son puntos distintos, entonces r = 〈P 0 , P 1 〉 =


−−−→
P 0 + 〈P 0 P 1 〉 es una recta. Análogamente, si P 0 , P 1 , P 2 ∈ E son puntos afínmen-
−−−→ −−−→
te independientes, entonces π : 〈P 0 , P 1 , P 2 〉 = P 0 + 〈P 0 P 1 , P 0 P 2 〉 es un plano. En
general, si P 0 , P 1 , . . . , P r son r + 1 puntos afínmente independientes, entonces
X = 〈P 0 , P 1 , . . . , P r 〉 es un subespacio afín de dimensión r .

Dado un espacio afín E , el subespacio afín 〈P 0 , . . . , P r 〉 ⊂ E es el menor que


contiene al conjunto de puntos {P 0 , . . . , P r }. Es decir, si X ⊂ E es un subespacio
−−−→ −−−→
afín tal que {P 0 , . . . , P r } ⊂ X entonces P 0 P i ∈ D(X ) y 〈{P 0 P i , i = 1, . . . , r }〉 ⊂ D(X ).
−−−→
Por tanto, P 0 + 〈{P 0 P i , i = 1, . . ., r }〉 ⊂ X .

Álgebra Lineal y Geometría 373


Depto. de Álgebra

10.4. Ecuaciones implícitas y paramétricas


Dado un sistema de referencia en un espacio afín E , a través de las coor-
denadas, nos podemos centrar en el estudio de los espacios afines canónicos
An (K) y de sus subespacios afines. Los siguientes resultados caracterizan es-
tos subespacios como los conjuntos de soluciones de sistemas de ecuaciones
lineales posiblemente no homogéneas. Sea entonces R = {O; B} un sistema de
referencia en An (K) respecto al cual tomamos coordenadas y expresaremos las
ecuaciones.

Soluciones de un sistema como subespacio afín

El conjunto X de soluciones de un sistema de ecuaciones lineales A x =


b no necesariamente homogéneo con n incógnitas es un subespacio
afín de An (K) que, si no es vacío, tiene por espacio de direcciones D(X )
al subespacio vectorial de Kn con ecuaciones A y = 0.

P RUEBA : Si el primer sistema es incompatible, entonces X = ; es un subes-


pacio afín. Si es compatible, sabemos que toda solución del sistema es de la
forma P + h, donde P es una solución particular y h es solución del sistema
homogéneo asociado, es decir, X = P + W , donde W = null(A). Por tanto, X es
un subespacio afín.


Es de interés conocer la demostración del siguiente resultado ya que pro-


porciona un método para hallar las ecuaciones de un subespacio afín de An (K).

Subespacio afín como soluciones de un sistema

Sea (E ,V, +) un espacio afín de dimensión n, donde fijamos un sistema


de referencia R. Sea X un subespacio afín. Entonces las coordenadas
de los puntos de X respecto a R forman un conjunto de An (K) que
coincide con el conjunto de soluciones de un sistema de ecuaciones
A m×n x = bm×1 .

P RUEBA : Si X = ;, basta con tomar un sistema incompatible. Si no, sea P ∈


X . Sabemos que el subespacio vectorial D(X ) ⊂ V se puede expresar como las
soluciones de un sistema de ecuaciones homogéneas con n incógnitas A y = 0
con respecto a la base B asociada al sistema de referencia R, esto es, D(X ) =

374 Álgebra Lineal y Geometría


Depto. de Álgebra

null(A). Tomamos b = A · [P ]R . Dado que X = P + D(X ), se sigue que X es el


conjunto de soluciones del sistema A x = b. 

Un sistema de ecuaciones

 a11 x1 + · · · + a1n xn = b 1 ,


.. .. .. ..
X: . . . .

am1 x1 + · · · + amn xn = b m ,

que define un subespacio afín X ⊂ An (K) con respecto a R se denominan ecua-


ciones cartesianas o implícitas del subespacio. Para hallar un sistema de refe-
rencia de X se halla primero una solución de este sistema, que será un punto
P 0 ∈ X , y luego se obtiene una base {v1 , . . . , vt } ⊂ D(X ) a partir del sistema de
ecuaciones que lo define,

 a11 y 1 + · · · + a1n y n = 0,


.. .. .. ..
D(X ) : . . . .

am1 y 1 + · · · + amn y n = 0,

de modo que {P 0 ; v1 , . . . , vt } es un sistema de referencia. Una vez hecho esto


{P 0 , P 0 + v1 , . . . , P 0 + vt } ⊂ X es una base.
Ello justifica que para hallar directamente una base de X podamos proce-
der de la siguiente manera. Resolviendo el sistema que define X llegamos a
una solución genérica en función de t parámetros, λ1 , . . . , λt ∈ K. Si tomamos
P 0 como el punto obtenido al hacer λ1 = · · · = λt = 0 y P i , 1 ≤ i ≤ t , como el
punto obtenido al hacer λi = 1 y λ1 = · · · = λi −1 = λi +1 = · · · = λt = 0, entonces
{P 0 , P 1 , . . . , P t } ⊂ X es una base.
Además, la expresión general de un punto de X como

t
X
xi = ai + λ j v i j , i = 1, . . . , n
j =1

−−−→
donde P 0 = (a1 , . . . , an ) y P 0 P j = (v i j ) se denominan ecuaciones paramétricas
de X .
Si un subespacio afín X está definido por un conjunto de puntos {P 0, P 1 , . . . , P t }
afínmente independientes, entonces
−−−→
X = P 0 + 〈{P 0 P j , j = 1, . . . , t }〉.

Un punto P de coordenadas [P ]R = (x1 , . . . , xn ) pertenece a X si y solamente si el


−−→ −−−→ −−−→
vector P 0 P es combinación lineal de los vectores P 0 P 1 , . . . , P 0 P t . Si cada vector

Álgebra Lineal y Geometría 375


Depto. de Álgebra

−−−→ −−−→
P 0 P j tiene coordenadas [P 0 P j ]B = (v i j ) y [P 0 ]R = (ai ), esto es equivalente a
que
 
v 11 · · · v 1t x1 − a1
 . .. .. ..
rango  .. . . .  = t,

v n1 · · · v nt xn − an
o bien
1 1 ... 1 1
µ ¶
rango = t + 1,
P0 P1 . . . Pt P
donde P i representa las coordenadas de cada punto. Calculamos entonces una
forma escalonada por filas y llegamos a una matriz de la forma
 
α1 ∗ ... ∗ ∗

 0 α2 ... ∗ ∗ 

 .. .. .. .. .. 

 . . . . . 

0 0 . . . αt ∗ ,
 

0 0 ... 0 H1
 
 
.. .. .. .. ..
 
. . . . .
 
 
0 0 ... 0 Hn−t

donde α1 , . . . , αt son pivotes no nulos, y cada Hn−t es una expresión de la forma

ai 1 x1 + · · · + ai n xn − b i , i = 1, . . . , n − t .

Para que tenga rango igual a t , se debe verificar que

a11 x1 + ··· + a1n xn = b1 ,


.. .. .
.. ..
. . .
an−t,1 x1 + · · · + an−t,n xn = b t .

De esta forma llegamos a unas ecuaciones implícitas de X respecto del sistema


de referencia R. Observemos que el procedimiento es completamente análogo
al del cálculo de unas ecuaciones implícitas del subespacio vectorial D(X ) res-
pecto de la base B, tal como se indica en el método 5.5 o en 5.5. Es más, a partir
de estas ecuaciones implícitas de la dirección podemos calcular las implícitas
del subespacio afín, sin más que sustituir las coordenadas del punto dado P 0
en cada una de las ecuaciones para calcular de esta forma el coeficiente b i co-
rrespondiente.

376 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 10.4.1.- En A4 (R) y fijado un sistema de referencia, consideremos el


subespacio afín X definido por los puntos P 0 = (2, −1, 1, 1), P 1 = (3, −1, 2, 1), P 2 =
−−−→ −−−−−−→ −−−→ −−−−−−−−−→
(−1, 2, 1, −1). Los vectores P 0 P 1 = (1, 0, 1, 0), P 0 P 2 = (−3, 2, 0, −2) determinan la
dirección, cuyas ecuaciones implícitas se obtiene por la reducción
   
1 −3 y 1 1 −3 y1
0 3 y 2  Gauss  0 3 y2
   
 −−−→  .
 
1 0 y3  0 0 y3 − y1 − y2

  
0 −2 y 4 0 0 y 4 + 2/3y 2

Entonces

−y 1 − y 2 + y 3 = 0, −x1 − x2 + x3 = 0,
½ ½
D(X ) : de donde X :
2/3y 2 + y 4 = 0, 2/3x2 + x4 = 1/3.

El mismo resultado se obtiene si partimos de cualquiera de las matrices


 
1 1 1 1  
 2 1 −3 x 1 − 2
3 −1 x1 
 0 3 x2 + 1 
   
−1 −1 2 x o bien .
 
2 
 1 0 x3 − 1 
 
 1 2 1 x3 
 
0 −2 x4 − 1
1 1 −1 x4

Ejemplo 10.4.2.- Consideremos un espacio afín (E ,V, +) de dimensión n con


un sistema de referencia R = {O; B} fijado respecto al cual tomaremos coorde-
nadas.

1. Ecuaciones implícitas de una recta. Una recta r está determinada por un


punto P = (p 1 , . . . , p n ) y una dirección definida por un vector no nulo v .
Sus ecuaciones paramétricas tienen la forma

= p 1 + λ1 v 1 ,
  

 x1 v1
 x2 = p 2 + λ1 v 2 , v2
  
r: .. donde vB =  .. .
 


 .  . 
xn = p n + λ1 v n , vn

Álgebra Lineal y Geometría 377


Depto. de Álgebra

El cálculo de las ecuaciones implícitas se obtiene por la condición


 
v 1 x1 − p 1
 v 2 x2 − p 2 
rango  .  = 1,
 
 .. 
vn xn − p n
y si suponemos que v 1 6= 0, es equivalente a las ecuaciones
r : v 1 (x j − p j ) − v j (x1 − p 1 ) = 0, j = 2, . . ., n.
©

Por tanto, una recta está definida por n − 1 ecuaciones independientes.


Otra manera habitual de escribir estas ecuaciones es en la forma
x1 − p 1 x2 − p 2 xn − p n
= = ··· = ,
v1 v2 vn
donde un denominador nulo implica que el numerador es nulo.

2. Ecuaciones implícitas de un hiperplano. Un hiperplano H está definido


por un punto P = (p 1 , p 2 , . . . , p n ) y una dirección D(H) que tiene dimen-
sión n − 1. Entonces sabemos que D(H) está definido por una ecuación
de la forma
D(H) : a1 y 1 + a2 y 2 + · · · + an y n = 0.
De aquí, H está definido por la ecuación
H : a1 (x1 − p 1 ) + a2 (x2 − p 2 ) + · · · + an (xn − p n ) = 0,
que toma la forma
H : a1 x1 + a2 x2 + · · · + an xn = a0 .

10.5. Operaciones con subespacios afines

Intersección de subespacios afines

Sean X , Y ⊂ E subespacios afines. Entonces X ∩ Y es un subespacio


afín. Además, si la intersección es no vacía, entonces

D(X ∩ Y ) = D(X ) ∩ D(Y ).

378 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Si la intersección es vacía no hay nada que probar. Si existe P ∈


X ∩ Y , vamos a probar que

X ∩ Y = P + [D(X ) ∩ D(Y )].

Si R = P + u, con u ∈ D(X ) ∩ D(Y ), entonces es inmediato que R ∈ X ∩ Y . Su-


−→
pongamos que R = P + u, u ∈ D(X ) y R = P + v , v ∈ D(Y ). Entonces u = P R = v ,
de donde u ∈ D(X ) ∩ D(Y ). 

Posiciones relativas

Sean X , Y subespacios afines no vacíos.

Dos subespacios X , Y ⊂ E de un espacio afín E son paralelos si


bien D(X ) ⊂ D(Y ) o bien D(X ) ⊃ D(Y ).

Si X ∩ Y 6= ; decimos que X e Y se cortan o son incidentes.

Ssi X ∩ Y = ; y D(X ) ∩ D(Y ) = {0} decimos que se cruzan.

Ejemplo 10.5.1.- En A4 (R), con respecto a un sistema de referencia fijado, con-


sideremos los subespacios afines
−−−−−−→ −−−−−−→ −−−−−−−−→
r = (1, −1, 0, 0)+〈(1, 1, 1, 1)〉, π = (2, 1, −1, 1)+〈(1, 1, 1, 1), (0, 0, −1, 1)〉, H : −x1 +x4 = 2.

Entonces r es paralela a π, r es paralela a H, pero π y H no son paralelas, aun-


que D(π) ∩ D(H) = D(r ).
La recta r no corta a π, pues el sistema

2+λ 1 + ν,

 =
1+λ

= −1 + ν,

es incompatible.

 −1 + λ − µ = ν,
1+λ+µ

= ν,

De igual forma, la recta r no corta a H.

Álgebra Lineal y Geometría 379


Depto. de Álgebra

Quinto postulado

Sea X 1 un subespacio afín no vacío y Q 6∈ X 1 . Entonces existe un úni-


co subespacio afín X 2 que contiene a Q, es paralela a X 1 , de la misma
dimensión y X 1 ∩ X 2 = ;.

P RUEBA : Definimos X 2 = Q + D(X 1 ). Es claro que X 2 es paralela a X 1 , pues


D(X 2 ) = D(X 1 ). Si existiera R ∈ X 1 ∩ X 2 , entonces podemos expresar R = Q + v ,
con v ∈ D(X 2 ) = D(X 1 ). En tal caso, Q = R − v y dado que R ∈ X 1 , esto implica
que Q ∈ X 1 .
Veamos la unicidad. Si Y2 es un subespacio afín paralelo a X 1 , entonces
D(Y2 ) ⊂ D(X 1 ) o bien D(X 1 ) ⊂ D(Y2 ). Como son de la misma dimensión, se
tiene que D(Y2 ) = D(X 1 ). Al pasar por Q, tenemos que Y2 = Q + D(X 1 ) = X 2 .


Si {X i }i ∈I es un conjunto de subespacios afines X i ⊂ E , i ∈ I , la intersección


es un subespacio afín i ∈I X i ⊂ E que, si no es vacío, tiene espacio de direccio-
T

nes \ \
D( X i ) = D(X i ) ⊂ D(E ).
i ∈I i ∈I
n
Nota 10.5.1. Si X , Y ⊂ A (K) son subespacios afines definidos por los siguientes
sistemas de ecuaciones con n incógnitas,

 a11 x1 + · · · + a1n xn = b 1 ,


.. .. .. ..
X: . . . .

a p1 x1 + · · · + a pn xn = b p ,

 ′ ′ ′
 a11 x1 + · · · + a1n xn = b 1 ,

.. .. .. ..
Y : . . . .
 ′ ′
xn = b q′ ,

a q1 x1 + · · · + a qn
entonces X ∩ Y ⊂ An (K) está definido por el siguiente sistema de p + q ecua-
ciones con n incógnitas,

a x + · · · + a1n xn = b 1 ,
 11 1

.. .. ..

..
.

. . .




 a x + ··· + a x = b ,

p1 1 pn n p
X ∩Y : ′ ′ ′
 a 11 1 x + · · · + a 1n n x = b 1,
.. .. .. ..


.

. . .




 a′ x + · · · + a′ x

= b′ .
q1 1 qn n q

380 Álgebra Lineal y Geometría


Depto. de Álgebra

Hay un criterio sencillo para determinar si dos subespacios afines no vacíos


se cortan.

Criterio de intersección

Sean X = P + D(X ), Y = Q + D(Y ) subespacios afines no vacíos. Enton-


−−→
ces X ∩ Y 6= ; si y solamente si PQ ∈ D(X ) + D(Y ).

P RUEBA : Si existe un punto R tal que R ∈ X ∩ Y , entonces


−−→ −→ −−→
PQ = P R + RQ ∈ D(X ) + D(Y ).
−−→ −−→
Recíprocamente, si PQ ∈ D(X ) + D(Y ), podemos escribir PQ = u + v , con u ∈
−−→
D(X ), v ∈ D(Y ). De la igualdad Q = P + PQ = P + u + v , se sigue que

P +u =Q −v ∈ X ∩Y,

y la intersección es no vacía. 

Suma de subespacios afines

Si X 1 , . . . , X r ⊂ E son subespacios afines, su suma es el menor subespa-


cio afín X 1 + · · · + X r ⊂ E que los contiene a todos:
\
X1 + · · · + Xn = Z.
X 1 ,...,X n ⊂Z ⊂E

Ejemplo 10.5.2.- Dado un conjunto de puntos de un espacio afín {P 0 , . . . , P r } ⊂


E , el subespacio afín generado por ellos es, con la definición anterior, la suma
de los puntos
〈P 0 , . . . , P r 〉 = P 0 + · · · + P r .

Álgebra Lineal y Geometría 381


Depto. de Álgebra

La siguiente proposición se enuncia para una suma de dos factores por no


sobrecargar la notación, pero es igualmente válida en general. Este resultado
nos da el método más cómodo para calcular la suma de dos subespacios afines.

Ecuaciones paramétricas de la suma de subespacios afines

Dados dos subespacios X , Y ⊂ E con sistemas de generadores


{P 0 , . . . , P r } ⊂ X y {Q 0 , . . . ,Q s } ⊂ Y , la suma tiene por sistema de gene-
radores a {P 0 , . . . , P r ,Q 0 , . . . ,Q s } ⊂ X + Y .

P RUEBA :
Como X , Y ⊂ X +Y la inclusión {P 0 , . . . , P r ,Q 0 , . . . ,Q s } ⊂ X +Y es cierta, luego
por el carácter mínimo de la variedad generada tenemos
〈P 0 , . . . , P r ,Q 0 , . . . ,Q s 〉 ⊂ X + Y .
Por otro lado X , Y ⊂ 〈P 0 , . . . , P r ,Q 0 , . . . ,Q s 〉, así que la igualdad,
〈P 0 , . . . , P r ,Q 0 , . . . ,Q s 〉 = X + Y ,
se sigue de la definición anterior. 

Dirección de la suma

Dados dos subespacios afines X , Y ⊂ E y dos puntos P ∈ X y Q ∈ Y , se


verifica que
−−→
D(X + Y ) = D(X ) + D(Y ) + 〈PQ〉.

P RUEBA : Sea Z un subespacio afín que contenga a X y a Y . Como P,Q ∈ Z ,


−−→ −−→
entonces PQ ∈ D(Z ) y 〈PQ〉 ⊂ D(Z ). Además, P + D(X ) ⊂ P + D(Z ) implica que
D(X ) ⊂ D(Z ) e, igualmente, D(Y ) ⊂ D(Z ). Por tanto,
−−→ −−→
D(X ) + D(Y ) + 〈PQ〉 ⊂ D(Z ) y P + [D(X ) + D(Y ) + 〈PQ〉] ⊂ P + D(Z ) = Z .
−−→
En consecuencia, P + [D(X ) + D(Y ) + 〈PQ〉] está contenido en todo subespacio
afín que contiene a X y a Y . Es inmediato que tanto X como Y están contenidos
−−→
en este subespacio (recordemos que Q = P + PQ). En consecuencia, P +[D(X )+
−−→
D(Y )+〈PQ〉] es el menor subespacio lineal afín que contiene a X y a Y , esto es,
es la suma de ambas. 

382 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 10.5.3.- Consideremos en A4 (R), con respecto al sistema de referen-


cia estándar, las rectas

x1 = 2 + λ1 , x1 = 2λ2 , x1 = 3 + 2λ3 ,
  
  
x2 = 1 + λ1 , x2 = 2 x2 = 2,

 
 

r1 : , r2 : , r3 :
x = −1 − λ1 , x3 = 1 − λ2 , x3 = −2 − λ3 ,
 3

 
 

x4 = −λ1 , x4 = 0,
 
x4 = −1.

Podemos escribir
−−−−−−−−−→
r 1 = P 1 + 〈u1 〉, P 1 = (2, 1, −1, 0), u1 = (1, 1, −1, −1),
−−−−−−−−→
r 2 = P 2 + 〈u2 〉, P 2 = (0, 2, 1, 0), u2 = (2, 0, −1, 0),
−−−−−−−−→
r 3 = P 3 + 〈u3 〉, P 3 = (3, 2, −2, −1), u3 = (2, 0, −1, 0).

Se tiene que r 1 ∩ r 2 = ;, pues el sistema

2 + λ1 2λ2 ,

 =
1 + λ1 2,

=


 −1 − λ1 = 1 − λ2 ,
0,

−λ1 =

es incompatible. Además, dim(D(r 1 ) + D(r 2 )) = rango u1 u2 = 2, de donde


¡ ¢

D(r 1 ) ∩ D(r 2 ) = 0. Por tanto, r 1 y r 2 se cruzan.


Podemos calcular unas ecuaciones paramétricas de r 1 + r 2 . Se tiene que
−−−→ −−−→ −−−−−−−−→
r 1 + r 2 = P 1 + 〈u1 , u2 , P 1 P 2 〉, P 1 P 2 = (−2, 1, 2, 0),
−−−→
³ ´
que es un subespacio afín de dimensión rango u1 u2 P 1 P 2 = 3. Su ecua-
ción implícita es −x1 + 2x2 − 2x3 + 3x4 = 2.
Las rectas r 1 y r 3 se cortan en un punto, pues el sistema

2 + λ1 3 + 2λ3 ,

 =
1 + λ1 2,

=


 −1 − λ1 = −2 − λ3 ,

−λ1 = −1,

es compatible determinado, con punto de corte R = (3, 2, −2, −1). Entonces


−→
r 1 + r 3 = P 1 + 〈u1 , u3 , RR〉,

Álgebra Lineal y Geometría 383


Depto. de Álgebra

pues podemos tomar los puntos de r 1 y r 3 que queramos. Entonces r 1 + r 3 es


un subespacio afín de dimensión 2.
Las rectas r 2 y r 3 son disjuntas, porque el sistema

2λ2 3 + 2λ3 ,

 =
2 2,

=


 1 − λ2 = −2 − λ3 ,
0

= −1,

es incompatible. Dado que D(r 2 ) = D(r 3 ), las rectas son paralelas y disjuntas.
Además,
−−−→ −−−→ −−−−−−−−−→
r 2 + r 3 = P 2 + 〈u2 , u3 , P 2 P 3 〉, P 2 P 3 = (3, 0, −3, −1),
que es un subespacio afín de dimensión igual a 2.

Teorema de la dimensión

Sean X , Y ⊂ E subespacios afines no vacíos.


Si X ∩ Y 6= ;, entonces

dim(X + Y ) + dim(X ∩ Y ) = dim X + dim Y .

Si X ∩ Y = ; entonces

dim(X + Y ) = dim X + dim Y − dim(D(X ) ∩ D(Y )) + 1.

P RUEBA : Si X e Y se cortan, entonces la fórmula de la dirección de la suma


−−→
D(X + Y ) = D(X ) + D(Y ) + 〈PQ〉

se reduce a
D(X + Y ) = D(X ) + D(Y )
al tomar P = Q el punto de intersección. Entonces

dim(X + Y ) = dimD(X + Y )
= dimD(X ) + dim D(Y ) − dim[D(X ) ∩ D(Y )]
= dim X + dim Y − dim(X ∩ Y ),

384 Álgebra Lineal y Geometría


Depto. de Álgebra

pues D(X ∩ Y ) = D(X ) ∩ D(Y ) cuando los subespacios afines se cortan.


Supongamos ahora que X ∩Y = ;. Entonces, por el criterio de intersección,
−−→
(D(X ) + D(Y )) ∩ 〈PQ〉 = 0,

y
−−→
dim(X + Y ) = dim[D(X ) + D(Y ) + 〈PQ〉)
−−→ −−→
= dim(D(X ) + D(Y )) + dim〈PQ〉 − dim[(D(X ) + D(Y )) ∩ 〈PQ〉]
= dimD(X ) + dim D(Y ) − dim(D(X ) ∩ D(Y )) + 1
= dim X + dim Y − dim(D(X ) ∩ D(Y )) + 1.

Ejemplo 10.5.4.- Usaremos los datos del ejemplo 10.5.3 (pág. 382) para verifi-
car que se cumple la fórmula de la dimensión. Tenemos los siguientes casos:

Las rectas r 1 y r 2 se cruzan, de donde

dim(r 1 + r 2 ) − 1 = dim r 1 + dim r 2 − dim[D(r 1 ) ∩ D(r 2 )] = 1 + 1 − 0 = 2.

Por tanto, dim(r 1 + r 2 ) = 3.

Las rectas r 1 y r 2 se cortan en un punto, por lo que

dim(r 1 + r 2 ) + dim(r 1 ∩ r 2 ) = dim r 1 + dim r 2 = 1 + 1 = 2.

Entonces dim(r 1 + r 2 ) = 2 − 0 = 2.

Las rectas r 2 y r 3 son paralelas y disjuntas, y la fórmula nos dice que

dim(r 1 + r 2 ) − 1 = dim r 1 + dim r 2 − dim[D(r 1 ) ∩ D(r 2 )] = 1 + 1 − 1 = 1.

Entonces dim(r 1 + r 2 ) = 2.

Observamos que en todos los casos la dimensión de la suma de subespacios


correspondiente coincide con lo previamente calculado.

Álgebra Lineal y Geometría 385


Depto. de Álgebra

10.6. Baricentro

Baricentro de un conjunto de puntos

Sean P 1 , . . . , P r puntos de un espacio afín E . El baricentro G de estos r


puntos es
1 −−−→ −−−→
G = P 1 + (P 1 P 2 + · · · + P 1 P r ).
r

Ejemplo 10.6.1.- El baricentro de dos puntos distintos se denomina el punto


medio entre ellos. Entonces el punto medio entre P 1 y P 2 es el punto

1 −−−→
G = P1 + P1P2.
2
−−→ −−−→
Observemos que 2P 1G = P 1 P 2 .

La definición anterior depende, aparentemente, del orden de los puntos,


pues se otorga un papel especial al punto P 1 . En realidad, no es así.

Caracterización del baricentro

El baricentro de r puntos P 1 , . . . , P r ∈ E es el único punto G tal que


−−→ −−→
GP 1 + · · · + GP r = 0.

P RUEBA : Por un lado se tiene que


−−→ −−→ −−→ −−→ −−→ −−−→ −−→ −−−→
GP 1 + GP 2 + · · · + GP r = GP 1 + (GP 1 + P 1 P 2 ) + · · · + (GP 1 + P 1 P r )
−−→ −−−→ −−−→
= r GP 1 + (P 1 P 2 + · · · + P 1 P r )
−−→ −−→
= r GP 1 + r P 1G = 0.

386 Álgebra Lineal y Geometría


Depto. de Álgebra

Para comprobar la unicidad, supongamos que G ′ es un punto que verifica la


misma condición, es decir,
−−−→ −−−→
G ′ P 1 + · · · + G ′ P r = 0.
Entonces −−→ −−→ −−→ −−→
(G ′G + GP 1 ) + · · · + (G ′G + GP r ) = 0,
−−→
de donde r G ′G = 0 y G ′ = G. 

Por la caracterización de G, vemos que el punto P 1 no juega un papel espe-


P −−−→
cial. Por tanto, los puntos G i = P i + 1r rj =1 P i P j son todos iguales a G.
Si fijamos un sistema de referencia afín R en E y notamos por
P i = (p i 1 , . . . , p i n ), i = 1, . . ., r,
G = (g 1 , . . . , g n ),
las coordenadas de los puntos P 1 , . . . , P r ,G respecto a R, entonces
1
g j = (p 1j + · · · + p r j ), j = 1, . . ., n.
r
En particular, las coordenadas del punto medio de dos puntos dados es la se-
misuma de sus coordenadas, y las coordenadas del baricentro de un triángulo
en el plano es la tercera parte de la suma de las coordenadas de los vértices.
Nota 10.6.1. Si el conjunto {P 1 , . . . , P r } es afínmente independiente, entonces el
conjunto {G, P 1 , . . . , P r −1 } también lo es. En efecto, dado que
−−→ 1 −−−→ 1 −−−→
P 1G = P 1 P 2 + · · · + P 1 P r ,
r r
−−→ −−−→
se tiene que las coordenadas de los vectores {P 1G, P 1 P j , j = 2, . . . , r − 1} con res-
−−−→
pecto a {P 1 P i , i = 2, . . . , r } forman una matriz no singular.

10.7. Figuras elementales


En lo que sigue E es un espacio afín real.

Segmento

Para cada par de puntos P,Q ∈ E , el segmento definido por P y Q es el


conjunto
−→ −−→
PQ = {R ∈ E | P R = λPQ, 0 ≤ λ ≤ 1}.

Álgebra Lineal y Geometría 387


Depto. de Álgebra

El orden de los puntos no afecta para la definición del segmento. En efecto, si


−→ −−→
P R = λPQ para 0 ≤ λ ≤ 1, entonces
−−→ −−→ −→ −−→ −−→
QR = −PQ + P R = (λ − 1)PQ = (1 − λ)QP , y 0 ≤ 1 − λ ≤ 1.

Por ello, podemos hablar del segmento PQ o el segmento QP .


Es claro que el punto medio de los puntos P y Q pertenece al segmento de-
terminado por ellos. Por extensión, hablaremos del punto medio del segmento
PQ para referirnos al punto medio de los puntos P y Q.

Semirrecta

Sean P,Q ∈ E puntos distintos. La semirrecta de origen P que contiene


a Q es el conjunto de puntos
−→ −−→
r PQ = {R ∈ E | P R = λPQ, λ ≥ 0}.

Observemos que el orden es muy importante. La semirrecta r QP de origen Q


que contiene a P corta a la semirrecta r PQ en el segmento PQ. También es
útil expresar una semirrecta a partir de un punto P y un vector u como r P,u =
r P,P+u = {P + λu, λ ≥ 0}.

Ejemplo 10.7.1.- Consideremos en R3 los puntos

A = (1, 1, −1), B = (2, 0, 1),C = (−2, 4, 7), D = (5, −3, 7).


−→
Es fácil comprobar que son puntos alineados, y se verifica que AC = (−3) ·
−→ −−→ −→
AB, AD = 4 · AB . Entonces
−→ −−→
B pertenece al segmento AD, porque AB = 41 AD.
−−→ −→
D pertenece a la semirrecta r AB , porque AD = 4 · AB.
−→ −→
C no pertenece a la semirrecta r AB , porque AC = (−3) · AB , pero sí perte-
nece a la semirrecta r B A .

388 Álgebra Lineal y Geometría


Depto. de Álgebra

Triángulos, vértices y lados

Un triángulo △ABC es un conjunto de tres puntos A, B y C afínmente


independientes. Dichos puntos son los vértices y las rectas AB, BC y
C A se denominan lados del triángulo.

Por extensión, el baricentro de un triángulo △ABC es el baricentro de los


puntos {A, B,C }. Es habitual referirse al lado BC como el lado opuesto al vértice
A.

Medianas de un triángulo

Sea T = △ABC un triángulo. La recta que une un vértice con el punto


medio del segmento formado por los otros dos vértices se denomina
mediana del vértice correspondiente.

Baricentro como intersección de las medianas

Las medianas de un triángulo T = △ABC se cortan en el baricentro G


definido por los vértices. Además,

−→ 2 −−→
AG = AM , donde M es el punto medio de BC .
3

P RUEBA : Calculemos la intersección de la recta A+G con el lado BC . Buscamos


entonces λ, µ tales que
−→ −→
A + λ AG = B + µBC .
−→ −→ −→ −→
Como B = A + AB , tenemos la igualdad A + λ AG = A + AB + µBC , de donde
−→ −→ −−→ −−→ −−→
λ AG = AG + GB + µBG + µGC .
−−→ −−→ −−→ −−→ −−→ −−→
Como G A + GB + GC = 0, sustituimos GC = −G A − GB en la expresión anterior
para obtener
−−→ −−→ −−→ −−→
(λ − 1)G A + (1 − µ)GB + µ(−G A − GB) = 0.

Álgebra Lineal y Geometría 389


Depto. de Álgebra

Por la independencia lineal, llegamos a

λ − 1 − µ = 0, 1 − µ − µ = 0,

de donde µ = 1/2, λ = 3/2. Entonces la recta A + G corta al lado BC en el punto


−→ −→
M = B + 21 BC , que es el punto medio del segmento BC . Además, M = A + 32 AG,
−→ −−→
de donde AG = 32 AM.
Lo mismo ocurre para las otras medianas, por lo que el baricentro G es el
punto de corte de las mismas. 

Semiespacio

Sea H un hiperplano dado por una ecuación a1 x1 + · · · + an xn = a0 . Los


conjuntos dados por las relaciones

H+ : a 1 x 1 + · · · + a n x n ≥ a 0 , H− : a 1 x 1 + · · · + a n x n ≤ a 0

se denominan semiespacios de borde H.

En el caso del plano, un hiperplano es una recta y los conjuntos anteriores se


denominan semiplanos.
Fijado un hiperplano H, todo punto del espacio afín que no pertenezca a
H está en uno y solamente uno de los dos semiespacios definidos por H. Para
identificarlos, basta dar el hiperplano H y un punto de uno de los dos semies-
pacios.
Si se cambia la ecuación del hiperplano por otra que lo defina, hay que ser
cuidadoso con la desigualdades, pues un cambio de signo las intercambia.

Ejemplo 10.7.2.- En A3 (R), consideremos el plano H : x1 + x2 − x3 = 1. El se-


miplano H+ contiene al punto A = (1, 1, 0) y al origen O. El segmento O A está
contenido en H+ . El semiplano H− contiene al punto B = (−1, 0, 0) y el segmen-
to AB contiene un punto de H.

390 Álgebra Lineal y Geometría


Capítulo 11

Aplicaciones afines

Hasta ahora la única relación vista entre espacios afines diferentes es la in-
clusión. En este tema estudiaremos una nueva relación: las aplicaciones afines,
que son las aplicaciones entre espacios afines que preservan toda la estructura
que estos poseen.
A lo largo de este tema K designará un cuerpo sobre el que estarán definidos
todos los espacios afines y vectoriales.

11.1. Definición y propiedades


Sean (E ,V, +) y (E ′,V ′ , +) espacios afines no vacíos y f : E → E ′ una apli-
cación entre los conjuntos. Para cada P ∈ E es posible definir la aplicación
f P : V → V ′ dada por
−−−−−−−→
f P (v ) = f (P ) f (Q),
−−→
donde Q ∈ E es el único punto tal que v = PQ. Esta aplicación entre las direc-
ciones de los espacios afines no es homomorfismo, en general, pero es el caso
que nos interesa.

Aplicación afín

Sean E y E ′ espacios afines no vacíos. Una aplicación afín f : E −→ E ′


es una aplicación tal que existe un punto P ∈ E para el que la aplicación
inducida f P : V → V ′ es un homomorfismo.

391
Depto. de Álgebra

Ejemplo 11.1.1.- Los siguientes son algunos ejemplos de aplicaciones afines.


1. La aplicación identidad, idE : E → E .

2. La aplicación constante f : E → E ′ , definida por f (P ) = P ′ para todo P ∈


E , donde P ′ ∈ E ′ es un punto fijo.

3. La asignación de coordenadas respecto de un sistema de referencia R en


un espacio afín E de dimensión n dada por cR : E → An (K), cR (P ) = P R .
Sea R = {O 1 ; B} un sistema de referencia en E . Recordemos que se tie-
ne para cualquier punto T ∈ E y cualquier vector u ∈ B que (T + u)R =
TR + [u]B . Tomemos un punto cualquiera P ∈ E . Dado u ∈ D(E ), lo ex-
−−→
presamos como u = PQ. Entonces
−−−−−−−−−→ −−→
(cR )P (u) = cR (P )cR (Q) = cB (PQ) = cB (u).
Como la aplicación de coordenadas cB es un homomorfismo, tenemos el
resultado.

4. La inclusión de un subespacio afín i : L → E , i (P ) = P .

5. La traslación τv de vector v ∈ D(E ),


E → E,
P 7→ P + v .

Aplicación vectorial de una aplicación afín

Si f : E → E ′ es una aplicación afín, la aplicación inducida f P no depen-




de del punto elegido y la notaremos por f . Además verifica que dados

− −−→ −−−−−−−→
P,Q ∈ E , entonces f (PQ) = f (P ) f (Q).

P RUEBA : Tomemos otro punto Q ∈ E . Queremos probar que f P = f Q , por lo que


−−→
consideramos v = QR. Entonces
−−−−−−−→
f Q (v ) = f (Q) f (R)
−−−−−−−→ −−−−−−−→
= f (Q) f (P ) + f (P ) f (R)
−−→ −→
= − f P (PQ) + f P (P R)
−−→
= f P (QR) = f P (v ).

392 Álgebra Lineal y Geometría


Depto. de Álgebra

Además, si P,Q ∈ E , entonces



− −−→ −−→ −−−−−−−→
f (PQ) = f P (PQ) = f (P ) f (Q).

Ejemplo 11.1.2.- Veamos la forma de las aplicaciones vectoriales de diferentes


aplicaciones afines.


1. Si f = idE , entonces f = idV .

2. Si f : E → E ′ es la aplicación constante f (P ) = P ′ para todo P ∈ E , enton-




ces f (v ) = 0V′ para todo v ∈ V .

3. Si f = cR es la aplicación de coordenadas respecto de un sistema de refe-




rencia R = {O; B}, entonces f = cB , que es la aplicación de coordenadas
de V respecto de la base B.

4. Si f es la inclusión de un subespacio afín (X ,W, +) en (E ,V, +), entonces




f es la inclusión de W en V .


5. Si f = τv es una traslación de vector v ∈ V , entonces f = idV .

Igualdad fundamental de las aplicaciones afines

Sea f : E → E ′ una aplicación. Son equivalentes:

1. f es una aplicación afín.

2. Existe ϕ : V → V ′ un homomorfismo de espacios vectoriales y P ∈


E tales que
f (P + v ) = f (P ) + ϕ(v )
para todo v ∈ V .

− →

En tal caso, f = ϕ y f (P + v ) = f (P ) + f (v ).

Álgebra Lineal y Geometría 393


Depto. de Álgebra



P RUEBA : Si f es una aplicación afín, basta tomar ϕ = f . En efecto, si Q = P + v ,
entonces

− →
− −−→ −−−−−−−→
f (v ) = f (PQ) = f (P ) f (Q)


y f (Q) = f (P ) + f (v ). Recíprocamente, supongamos que existe ϕ : V → V ′ ho-
−−→
momorfismo y algún P ∈ E en las condiciones dadas. De la relación Q = P + PQ
se sigue que
−−→
f (Q) = f (P ) + ϕ(PQ),
−−→ −−−−−−−→ −−→
de donde ϕ(PQ) = f (P ) f (Q) = f P (PQ). Por tanto, f P es un homomorfismo y f
es una aplicación afín. 

La igualdad fundamental implica que la aplicación afín f queda unívocamente


determinada por la imagen de un punto y el homomorfismo ϕ.
La definición de aplicación afín que hemos dado usa un homomorfismo
asociado como criterio. Es posible dar una caracterización que solamente usa
la aplicación de partida.

Caracterización intrínseca de una aplicación afín

Sea f : E → E ′ una aplicación. Son equivalentes:

1. f es una aplicación afín.


−−→ −→
2. Si P,Q, R, S ∈ E verifican PQ = αRS para un cierto α ∈ K, entonces
−−−−−−−→ −−−−−−−→
f (P ) f (Q) = α f (R) f (S).


− −−→
P RUEBA : Si f es una aplicación afín, existe f : V → V ′ homomorfismo. Si PQ =
−→
αRS, entonces

− −−→ → − −→ →
− −→
f (PQ) = f (αRS) = α f (RS),
de donde
−−−−−−−→ −−−−−−−→
f (P ) f (Q) = α f (R) f (S).
Supongamos ahora la segunda condición. Fijamos un punto P y consideramos
la aplicación inducida f P . Observemos que si R es otro punto, y tomamos v ∈ V ,
−−→ −→
podemos construir Q = P + v , S = R + v . Entonces PQ = v = RS y la condición
−−−−−−−→ −−−−−−−→
implica f (P ) f (Q) = f (R) f (S), de donde f P = f R . Sean entonces u, v ∈ V y los
−→ −→
escribimos u = P R, v = RC . Entonces
−→ −→ −→
f P (u + v ) = f P (P R + RC ) = f P (PC )
−−−−−−−→ −−−−−−−→ −−−−−−−→
= f (P ) f (C ) = f (P ) f (R) + f (R) f (C ) = f P (u) + f R (v ) = f P (u) + f P (v ).

394 Álgebra Lineal y Geometría


Depto. de Álgebra

−−→ −−→ −→ −−→


Si v ∈ V y α ∈ K, escribimos v = PQ y R = P + αPQ. Así, P R = αPQ y se sigue
que
−−→ −→
f P (αv ) = f P (αPQ) = f P (P R)
−−−−−−−→ −−−−−−−→ −−→
= f (P ) f (R) = α f (P ) f (Q) = α f P (PQ) = α f P (v ).


Composición de aplicaciones afine

Consideremos las aplicaciones afines

f g
E → E ′ → E ′′ .
−−−→ → − →−
Entonces g ◦ f es una aplicación afín y g ◦ f = g ◦ f .

P RUEBA : Si P ∈ E y v ∈ V , entonces

− − →
→ −
(g ◦ f )(P + v ) = g ( f (P ) + f (v )) = (g ◦ f )(P ) + ( g ◦ f )(v ).
Por la igualdad fundamental de las aplicaciones afines, g ◦ f es una aplicación
−−−→ → − →−
afín y g ◦ f = g ◦ f . 

Aplicación afín determinada por una base

Dados espacios afines E y E ′, una base {P 0 , . . . , P n } ⊂ E y puntos


Q 0 , . . . ,Q n ∈ E ′ , existe una única aplicación afín f : E → E ′ tal que
f (P i ) = Q i , 0 ≤ i ≤ n.

−−−→ −−−→
P RUEBA : Como {P 0 P 1 , . . . , P 0 P n } ⊂ D(E ) es una base, existe un único homomor-
−−−→ −−−→
fismo ϕ : D(E ) → D(E ′ ) tal que ϕ(P 0 P i ) = Q 0Q i , 1 ≤ i ≤ n. La única aplicación


afín f : E → E ′ tal que f (P 0 ) = Q 0 y f = ϕ satisface
−−−→ −−−→ −−−→
f (P i ) = f (P 0 + P 0 P i ) = f (P 0 ) + ϕ(P 0 P i ) = Q 0 + Q 0Q i = Q i , 1 ≤ i ≤ n.
Recíprocamente, si g es una aplicación afín que satisface las ecuaciones del
enunciado entonces
− −−−→ −−−−−−−−→ −−−→

g (P 0 P i ) = g (P 0 )g (P i ) = Q 0Q i , 1 ≤ i ≤ n,
por tanto g coincide con f . 

Álgebra Lineal y Geometría 395


Depto. de Álgebra

11.2. Matriz de una aplicación afín


Las aplicaciones afines se pueden codificar de manera adecuada mediante
matrices. Sean E y E ′ espacios afines no vacíos y

R = {O; v1 , . . . , vn }, = {O; B} R ′ = {O ′ ; w1 , . . . , wm } = {O ′ ; B ′ },

sistemas de referencia en E y E ′ , respectivamente.

Matriz de una aplicación afín

La matriz de la aplicación afín f : E −→ E ′ respecto de los sistemas de


referencia R y R ′ es

1 0 ··· 0
à !
MR,R ′ ( f ) = →
− ∈ M ((m + 1) × (n + 1), K).
f (O)R ′ MB,B ′ ( f )

Ejemplo 11.2.1.-

1. Sea f : An (K) → An (K) la traslación definida por f (P ) = P + u. Si fijamos


el mismo sistema de referencia R = {O; B} y O + u = (a1 , . . . , an ), entonces
la matriz de f es de la forma

1 0 ... 0
 

a1 1 ... 0  1 0
 µ ¶
.. .. = .
 
. u In

 . 
an 0 . . . 1

2. Fijado un sistema de referencia R, consideramos la proyección sobre el


hiperplano x1 = 0 dada por f (a1 , a2 , . . . , an ) = (0, a2 , . . . , an ). Entonces la
matriz de f es  
1 0 0 ... 0
 0 0 0 ... 0 
 
 0 0 1 ... 0 .
 
 ..
 
 .


0 0 0 ... 1

396 Álgebra Lineal y Geometría


Depto. de Álgebra

3. Consideremos en A2 (R) el sistema de referencia estándar R e = {O; e1 , e2 }


y los puntos

P 0 = (1, −1), P 1 = (2, 3), P 2 = (1, 0),Q 0 = (1, 2),Q 1 = (1, 1),Q 2 = (0, 2).

El conjunto {P 0 , P 1 , P 2 } es afínmente independiente. Vamos a calcular la


matriz de la aplicación afín f tal que f (P i ) = Q i , i = 0, 1, 2. En primer lu-
gar, expresamos
−−−→ −−−→ −−→ −−−→ −−−→
O = P 0 + α1 P 0 P 1 + α2 P 0 P 2 , o bien P 0O = α1 P 0 P 1 + α2 P 0 P 2 .

Esta relación nos lleva al sistema

−1 = α1 ,
½
de donde α1 = −1, α2 = 5.
1 = 4α1 +α2 ,

Entonces
−−−→ −−−→
f (O) = Q 0 + α1Q 0Q 1 + α2Q 0Q 2 = (−4, 3).


Ahora debemos calcular la matriz de la aplicación lineal f respecto de la
base estándar, que es igual a

− ³

− →

´
MS ( f ) = [ f (e1 )]S [ f (e2 )]S .

Planteamos los sistemas de ecuaciones


−−−→ −−−→ −−−→ −−−→
e1 = λ1 P 0 P 1 + λ2 P 0 P 2 , e2 = µ1 P 0 P 1 + µ2 P 0 P 2 ,

que los resolvemos de forma simultánea mediante

1 0 1 0 1 0 1 0
µ ¶ µ ¶
rref

→ .
4 1 0 1 0 1 −4 1

Entonces
−−−→ −−−→ −−−→ −−−→
e1 = 1 · P 0 P 1 − 4 · P 0 P 2 , e2 = 0 · P 0 P 1 + 1 · P 0 P 2 ,
y

− −−−→ −−−→ −−−−→ → − −−−→ −−−−→
f (e1 ) = Q 0Q 1 − 4Q 0Q 2 = (4, −1), f (e2 ) = Q 0Q 2 = (−1, 0).
Por tanto,

1 0 0
 
4 −1
µ ¶


MS ( f ) = y MR c ( f ) =  −4 4 −1  .
−1 0
3 −1 0

Álgebra Lineal y Geometría 397


Depto. de Álgebra

Observemos que el primer sistema para calcular las coordenadas del pun-
−−−→ −−−→
to O respecto al sistema de referencia {P 0 , ; P 0 P 1 , P 0 P 2 } tiene la misma
matriz de coeficientes que en los siguientes sistemas. Entonces se pue-
de plantear la reducción
1 0 −1 1 0 rref 1 0 −1 1 0
µ ¶ µ ¶
= I A2 ,
¡ ¢
−→
4 1 1 0 1 0 1 5 −4 1
y la matriz de la aplicación afín f respecto al sistema de referencia R es
1 0 0 1 0 0
  
1 0 0 1 0 0
µ ¶µ ¶
−−−→ −−−→ = 1 0 −1   −1 1 0 
Q 0 Q 0Q 1 Q 0Q 2 A2
2 −1 0 5 −4 1
1 0 0
 

=  −4 4 −1  .
3 −1 0

Ecuación matricial de una aplicación afín

Sea f : E → E ′ una aplicación afín entre espacios afines no vacíos con


sistemas de referencia R y R ′ , respectivamente. Para todo P ∈ E se sa-
tisface la siguiente ecuación matricial:

1 1
µ ¶ µ ¶
= MR,R ′ ( f ) .
f (P )R ′ PR

P RUEBA : Si B y B ′ son las bases de los espacios de direcciones contenidas en


los sistemas de referencia R y R ′ y O y O ′ son sus orígenes, respectivamente,
entonces

− −−→
f (P )R ′ = f (O)R ′ + [ f (OP )]B ′

− −−→
= f (O)R ′ + MB,B ′ ( f )[OP ]B ,
que en forma matricial podemos escribir como
¶ Ã !
1 1 1
µ µ ¶
= →
− −−→ = MR,R ′ ( f ) .
f (P )R ′ f (O)R ′ + MB,B ′ ( f )[OP ]B PR

398 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 11.2.2.- Podemos aplicar lo anterior para el cálculo de la matriz de


la aplicación afín f : A2 (R) → A2 (R) definida por las condiciones f (P i ) = Q i , i =
0, 1, 2, donde

P 0 = (1, −1), P 1 = (2, 3), P 2 = (1, 0),Q 0 = (1, 2),Q 1 = (1, 1),Q 2 = (0, 2).

Se tiene que verificar una ecuación matricial de la forma

1 0 0 1 1 1 1 1 1
    
 b 1 a11 a12   1 2 1  =  1 1 0 
b 2 a21 a22 −1 3 0 2 1 2

que notamos por X A 1 = A 2 . Observemos que la matriz A 1 es no singular, pues


el conjunto {P 0 , P 1 , P 2 } es afínmente independiente. Entonces

1 0 0
 

X = A 2 A −1
 
1 =  −4
 4 .
−1 
3 −1 0

Correspondencia biyectiva con matrices

Sean E y E ′ espacios afines no vacíos de dimensiones dim E = n y


dimE ′ = m con sistemas de referencia R y R ′ , respectivamente. Para
toda matriz de forma

1 0 0
 
···
 b 1 a11 · · · a1n 
 . .. .. 
 
 .. ..
. . . 
bm am1 · · · amn

existe una única aplicación afín f : E → E ′ tal que MR,R ′ ( f ) es la matriz


anterior.

Álgebra Lineal y Geometría 399


Depto. de Álgebra

P RUEBA : Denotemos los sistemas de referencia

R = {O; v1 , . . . , vn } = {O; B}, R ′ = {O ′ ; w1 , . . . , wm } = {O ′ ; B ′ }.

Sabemos que existe un único homomorfismo ϕ : D(E ) → D(E ′ ) cuya matriz res-
pecto de las bases B y B ′ es

 
a11 · · · a1n
 .. .. .. 
 . . . .
am1 · · · amn

Sea P ′ ∈ E ′ el punto de coordenadas P R


′ ′
′ = (b 1 , . . . , b m ) y f : E → E la úni-


ca aplicación afín tal que f (O) = P ′ y f = ϕ. Esta aplicación afín satisface
MR,R ′ ( f ) = A.
La proposición anterior demuestra que sólo puede haber una aplicación
afín con una determinada matriz respecto de sistemas de referencias dados.
De aquí se sigue la unicidad de f . 

Matriz de la composición de aplicaciones afines

Dadas las aplicaciones afines entre espacios afines no vacíos

f g
E → E ′ → E ′′

y sistemas de referencias R, R ′ y R ′′ en E , E ′ y E ′′, respectivamente, se


satisface la ecuación

MR,R ′′ (g ◦ f ) = MR ′ ,R ′′ (g )MR,R ′ ( f ).

P RUEBA : Si B, B ′ y B ′′ son las bases de los espacios de direcciones conte-


nidas en los sistemas de referencia R, R ′ y R ′′ y O, O ′ y O ′′ son sus orígenes,

400 Álgebra Lineal y Geometría


Depto. de Álgebra

respectivamente, entonces

1 0 ··· 0 1 0 ··· 0
à !à !
MR ′ ,R ′′ (g )MR,R ′ ( f ) = →
− →

g (O ′ )R ′′ MB ′ ,B ′′ ( g ) f (O)R ′ MB,B ′ ( f )
à !
³
1
´ 0 ··· 0
= MR ′ ,R ′′ (g ) f (O)R ′ →
− →

MB ′ ,B ′′ ( g )MB,B ′ ( f )
1 0 ··· 0
à !
= − →
→ −
g ( f (O))R ′′ MB,B ′′ ( g ◦ f )
= MR,R ′′ (g ◦ f ).

La matriz de cambio de sistema de referencia se identifica con la matriz de


la aplicación identidad de la siguiente forma. Si R y R ′ son sistemas de referen-
cia en un espacio afín E , entonces MR,R ′ (idE ) = M(R, R ′ ). Además, MR,R (idE ) =
I n+1 , la matriz identidad de orden n + 1.

11.3. Afinidades

Afinidad

Una afinidad f : E → E ′ es una aplicación afín biyectiva.

Ejemplo 11.3.1.-

1. La aplicación identidad es una afinidad.

2. Las traslaciones son afinidades.

Álgebra Lineal y Geometría 401


Depto. de Álgebra

Caracterización de una afinidad

Una aplicación afín f : E → E ′ es una afinidad si y solamente si




f : D(E ) → D(E ′ ) es un isomorfismo. En este caso, f −1 es una afinidad
−−→ → − −1
y f −1 = f .

P RUEBA :


f es inyectiva si y solamente si f es inyectiva.
−−→ →

Sea PQ = v ∈ V tal que f (v ) = 0. Entonces
→− −−→ −−−−−−−→
0 = f (PQ) = f (P ) f (Q), de donde f (P ) = f (Q).
Si f es inyectiva, entonces P = Q y v = 0.


Supongamos ahora que f es inyectiva y tomemos P,Q ∈ E tales que f (P ) =
−−−−−−−→ → − −−→ −−→
f (Q). Entonces 0 = f (P ) f (Q) = f (PQ), y de aquí PQ = 0, esto es, P = Q.


f es sobreyectiva si y solamente si f es sobreyectiva.
−−−→
Sea P ′Q ′ = v ′ ∈ V ′ y tomemos P,Q ∈ E tales que f (P ) = P ′ , f (Q) = Q ′ ; exis-
−−→
ten estos puntos porque f es sobreyectiva. Para v = PQ se verifica que

− −−−−−−−→ −−−→
f (v ) = f (P ) f (Q) = P ′Q ′ = v ′ .


Supongamos ahora que f es sobreyectiva y sea Q ′ ∈ E ′ . Tomemos cual-
−−−−−→
quier punto P ∈ E y construimos el vector v ′ = f (P )Q ′ . Existe entonces
−−−−−→ →

v ∈ V tal que f (P )Q ′ = v ′ = f (v ). Entonces

− −−−−−→
f (P + v ) = f (P ) + f (v ) = f (P ) + f (P )Q ′ = Q ′ .


Por lo anterior, f es afinidad si y solamente si f es isomorfismo.

− →

Supongamos que f y f son biyectivas. Entonces f −1 es un homomorfis-
mo y para cada P ′ ∈ E ′ y v ′ ∈ V ′ se tiene la igualdad


f −1 (P ′ + v ′ ) = f −1 (P ′ ) + ( f )−1 (v ′ ).
En efecto,

− →
− → −
f ( f −1 (P ′ ) + f −1 (v ′ )) = f ( f −1 (P ′ )) + f ( f −1 (v ′ )) = P ′ + v ′ .
Por la igualdad fundamental de las aplicaciones afines, f −1 es una apli-
−−→ → −
cación afín y f −1 = f −1 .

402 Álgebra Lineal y Geometría


Depto. de Álgebra

Nota 11.3.1. Las afinidades no se pueden dar entre espacios cualesquiera. Da-
dos dos espacios afines no vacíos E y E ′, existe una afinidad f : E → E ′ si y
solamente si dim E = dim E ′. Si f es una afinidad, por la proposición anterior


f : D(E ) → D(E ′ ) es un isomorfismo, luego

dim E = dim D(E ) = dim D(E ′ ) = dim E ′ .

Recíprocamente, si dim E = dim E ′ entonces

dim D(E ) = dimE = dimE ′ = dim D(E ′ )

por tanto existe un isomorfismo ϕ : D(E ) → D(E ′ ). Dados dos puntos cuales-
quiera P ∈ E y P ′ ∈ E ′, la única aplicación afín f : E → E ′ tal que f (P ) = P ′ y


f = ϕ es una afinidad por la caracterización de una afinidad.

Caracterización matricial de una afinidad

Sean E y E ′ espacios afines no vacíos con sistemas de referencia R y


R ′ , respectivamente. Una aplicación afín f : E → E ′ es una afinidad si
y sólo si la matriz MR,R ′ ( f ) es invertible. En dicho caso MR ′ ,R ( f −1 ) =
MR,R ′ ( f )−1 .

P RUEBA : Sean B y B ′ las bases de los espacios de direcciones contenidas


en los sistemas de referencia R y R ′ , respectivamente. Por la caracterización de


una afinidad, f es una afinidad si y sólo si f es un isomorfismo, y esto ocurre si


y sólo si MB,B ′ ( f ) es invertible. Desarrollando por los adjuntos de la primera

− →

fila vemos que det(MR,R ′ ( f )) = det(MB,B ′ ( f )), luego MB,B ′ ( f ) es invertible
si y sólo si lo es MR,R ′ ( f ). Esto demuestra la primera parte.
Si f es una afinidad, según hemos visto en la sección anterior

MR ′ ,R ( f −1 )MR,R ′ ( f ) = MR,R (idE ) = I n+1 .

Como las dos matrices de la izquierda son invertibles, esta ecuación prueba
que una es la inversa de la otra. 

Álgebra Lineal y Geometría 403


Depto. de Álgebra

11.4. Afinidades y orientación

Afinidades directas e indirectas

Sea (E ,V, +) un espacio afín real y f : E → E una afinidad. Decimos que


f es una


afinidad directa si det( f ) > 0,


afinidad indirecta si det( f ) < 0.

Ejemplo 11.4.1.- Las traslaciones son afinidades directas. Si f es una afinidad




con f = λ idV , λ 6= 0, entonces es directa para λ > 0. Si λ < 0, entonces es directa
si dim E es par, e indirecta si dim E es impar.

Relación entre afinidades directas y orientación

Sea E un espacio afín real dotado de una orientación por un sistema de


referencia R = {O; u1 , . . . , un } y f : E → E una afinidad.

1. f es una afinidad directa si y solamente si el sistema de referencia



− →

{ f (O); f (u1 ), . . . , f (un )} es de la misma orientación que R.

2. f es una afinidad indirecta si y solamente si el sistema de referen-



− →

cia { f (O); f (u1 ), . . . , f (un )} es de diferente orientación que R.


− →

P RUEBA : Sea R ′ = { f (O); f (u1 ), . . . , f (un )}, que es un sistema de referencia
porque f es afinidad. La matriz del cambio de sistemas de referencia M(R ′ , R)
coincide con la matriz de f respecto de R, de donde tenemos el resultado. 

404 Álgebra Lineal y Geometría


Depto. de Álgebra

11.5. Imagen e imagen inversa

Imagen de un subespacio afín

Dada una aplicación afín f : E → E ′ y un subespacio afín L ⊂ E , su ima-


gen directa f (L) ⊂ E ′ es un subespacio afín. Si L 6= ∅, su espacio de


direcciones es f (D(L)) ⊂ D(E ′ ). Es decir, si P ∈ L entonces


f (L) = f (P ) + f (D(L)).

Es más, si L = 〈P 0 , . . . , P r 〉 entonces f (L) = 〈 f (P 0 ), . . . , f (P r )〉.

P RUEBA : Si L = ∅ entonces f (L) = ∅ es un subespacio afín. Supongamos en


adelante que L 6= ∅ y escribamos L = P + D(L). Vamos a probar que f (L) =


f (P ) + f (D(L)) con lo que también tendremos que f (L) es subespacio afín.
Llamemos P ′ = f (P ) y sea Q ′ ∈ f (L). Entonces existe Q ∈ L tal que Q ′ = f (Q).
−−→
Como L es subespacio afín, el vector PQ pertenece a D(L) y
−−′−→′ −−−−−−−→ → − −−→ → −
P Q = f (P ) f (Q) = f (PQ) ∈ f (D(L)).
−−−→ →
− −−→ →

Por tanto, Q ′ = P ′ + P ′Q ′ = f (P ) + f (PQ) ∈ f (P ) + f (D(L)).


Supongamos ahora que Q ′ ∈ f (P ) + f (D(L)). Entonces existe u ∈ D(L) tal


que Q ′ = f (P ) + f (u). Sea Q = P + u, que es un punto de L. Entonces


f (Q) = f (P ) + f (u) = Q ′ ,

de donde Q ′ ∈ f (L).
−−−→ −−−→
Además, L = 〈P 0 , . . . , P r 〉 si y solamente si P 0 ∈ L y D(L) = 〈P 0 P 1 , . . . , P 0 P r 〉, y
en tal caso


f (L) = f (P 0 ) + f (D(L))

− −−−→ →
− −−−→
= f (P 0 ) + 〈 f (P 0 P 1 ), . . . , f (P 0 P r )〉
→− −−−→ →
− −−−→
= 〈 f (P 0 ), f (P 0 ) + f (P 0 P 1 ), . . . , f (P 0 ) + f (P 0 P r )〉
−−−−−−−−→ −−−−−−−−→
= 〈 f (P 0 ), f (P 0 ) + f (P 0 ) f (P 1 )), . . . , f (P 0 ) + f (P 0 ) f (P r ))〉
= 〈 f (P 0 ), f (P 1 ), . . . , f (P r )〉.

Álgebra Lineal y Geometría 405


Depto. de Álgebra

En las condiciones de la proposición anterior,


³ →
− ´
dim f (L) = dim L − dim D(L) ∩ ker( f ) .


En particular si f es inyectiva entonces dim f (L) = dimL.

Ejemplo 11.5.1.- Consideremos en A3 (R) la aplicación afín f definida por las


ecuaciones     
1 1 0 0 0 1
 ′  
 x1   1 1 0 1   x1 
 
 ′ = .
 x2   1 0 1 1   x2 

x3′ 0 1 −1 0 x3
−−−−−→ −−−−−−→
Sea L = P +D(L), con P = (1, −1, 0) y D(L) = 〈(1, 0, 0), (0, 1, −1)〉, que es un subes-


pacio afín de dimensión 2. A partir de la expresión f (L) = f (P )+ f (D(L)), tene-
mos que
    
1 0 0 0 1 1
 1 1 0 1  1   2 
    
f (P ) :   =  ,
 1 0 1 1   −1   0 

0 1 −1 0 0 2
1 0 1 1 0 1 −1
    


f (D(L)) :  0 1 1  0 1 = 0 0 .
1 −1 0 0 −1 1 −1
−−−−−→ −−−−−−−→ −−−−−→
Entonces f (L) = (2, 0, 2) + 〈(1, 0, 1), (−1, 0, −1)〉 = (2, 0, 2) + 〈(1, 0, 1)〉, que tiene di-


mensión igual a 1. Se comprueba fácilmente que ker( f )∩D(L) tiene dimensión
1.
Si realizamos los cálculos a partir de una base de L, se tiene que

L = 〈(1, −1, 0), (2, −1, 0), (1, 0, −1)〉.

Como     
1 0 0 0 1 1 1 1 1 1
1 1 0 1 1 2 1 2 3 1
    
= ,
    
1 0 1 1 −1 −1 0 0 0 0
 
    
0 1 −1 0 0 0 −1 2 3 1
−−−→ −−−→
concluimos que f (L) = 〈Q 0 = (2, 0, 2),Q 1 = (3, 0, 3),Q 2 = (1, 0, 1)〉 = Q 0 +〈Q 0Q 1 , Q 0Q 2 〉 =
−−−−−→
(2, 0, 2) + 〈(1, 0, 1)〉.

406 Álgebra Lineal y Geometría


Depto. de Álgebra

Imagen inversa de un subespacio afín

Dada una aplicación afín f : E → E ′ y un subespacio afín L ′ ⊂ E ′, su


imagen inversa f −1 (L ′ ) ⊂ E es un subespacio afín. Si P ∈ f −1 (L ′ ) 6= ∅
entonces


f −1 (L ′ ) = P + ( f )−1 (D(L ′ )).

P RUEBA : Si f −1 (L ′ ) = ∅ entonces f −1 (L ′ ) ⊂ E es un subespacio afín. Si f −1 (L ′ ) 6=


∅, sea P ∈ f −1 (L ′ ) y podemos escribir L ′ = f (P ) + D(L ′ ). Vamos a probar que


f −1 (L ′ ) = P + ( f )−1 (D(L ′ )).
−−−−−−−→
Sea Q ∈ f −1 (L ′ ). Entonces f (Q) ∈ L ′ y f (P ) f (Q) ∈ D(L ′ ), lo que significa que

− −−→ −−→ → −
f (PQ) ∈ D(L ′ ) y PQ ∈ ( f )−1 (D(L ′ )).
−−→ →

De aquí, Q = P + PQ ∈ P + ( f )−1 (D(L ′ )).

− −−→ → −
Supongamos ahora que Q ∈ P + ( f )−1 (D(L ′ )). Entonces PQ ∈ ( f )−1 (D(L ′ ))
y

− −−→ −−−−−−−→
f (PQ) ∈ D(L ′ )o lo que es equivalente f (P ) f (Q) ∈ D(L ′ ).
−−−−−−−→ →
− −−→
Por tanto, f (Q) = f (P )+ f (P ) f (Q) = f (P )+ f (PQ) ∈ L ′ , de donde Q ∈ f −1 (L ′ ). 

En las condiciones de la proposición anterior, si L ′ ∩ f (E ) 6= ;,




dim f −1 (L ′ ) = dim(L ′ ∩ f (E )) + dim ker( f ).

− →

En particular si f es sobreyectiva entonces dim f −1 (L ′ ) = dimL ′ + dim ker( f ).
Nota 11.5.1. La notación habitual para un sistema no homogéneo de m ecua-
ciones con n incógnitas es

 a11 x1 + · · · + a1n xn = b 1 ,


.. .. .. ..
 . . . .
am1 x1 + · · · + amn xn = b m ,

o en forma matricial
A x = b.

Álgebra Lineal y Geometría 407


Depto. de Álgebra

Moviendo los términos independientes hacia la izquierda podemos escribirlo


también de la siguiente manera,

 − b 1 + a11 x1 + · · · + a1n xn = 0,


.. .. .. .. ..
 . . . . .
− b m + am1 x1 + · · · + amn xn = 0,

que en forma matricial se puede expresar como

1
µ ¶
(−b | A ) = 0.
x
Recíprocamente, toda matriz C ∈ M (m ×(n +1), K) da lugar a un sistema de
m ecuaciones con n incógnitas:

c01 + c11 x1 + · · · + c1n xn = 0,



1
 µ ¶
.. .. .. .. ..

. . . . . C = 0.
 x
c0m + cm1 x1 + · · · + cmn xn = 0,

Esta nueva forma de escribir sistemas de ecuaciones no homogéneos facilita el


cálculo de imágenes inversas.

Cálculo de la imagen inversa de un subespacio afín

Sea f : E → E ′ una aplicación afín y R y R ′ sistemas de referencia en


E y E ′ , respectivamente. Supongamos que las ecuaciones implícitas de
L ′ ⊂ E ′ respecto de R ′ son
A x ′ = b.
Entonces las ecuaciones implícitas de f −1 (L ′ ) ⊂ E respecto de R son

1
µ ¶
(−b | A ) MR,R ′ ( f ) = 0.
x

Nota 11.5.2. La justificación de la observación que acabamos de hacer es la


siguiente: un punto P ′ ∈ E ′ está en L ′ si y sólo si AP R

′ = b, así que P ∈ E está en
−1 ′
f (L ) si y sólo si
A f (P )R ′ = b.
Como
1 1
µ ¶ µ ¶
= MR,R ( f )

f (P )R ′ PR

408 Álgebra Lineal y Geometría


Depto. de Álgebra

la ecuación anterior equivale a

1
µ ¶
(−b | A ) M R,R ′ (f ) = 0.
PR

Ejemplo 11.5.2.- Sea f : A3 → A3 la aplicación afín definida respecto al sistema


de referencia estándar por la matriz
 
1 0 0 0
1 1 1 0
 
M =
 
−1 0 1 1

 
2 1 1 0

y consideremos las rectas


−−−−−−→ −−−−−→
r 1 = (1, 1, 1) + 〈(1, −1, 1)〉, r 2 = (2, 0, −1) + 〈(1, 0, 0)〉.

Unas ecuaciones implícitas de r 1 son

x1′ +x2′ −2 = 0,
½
r1 : ′ ′
−x1 +x3 = 0,

o bien  
1
1 1 0
" #
−2 x1′ 0
 µ ¶ ¡
1
 µ ¶
, −b1 = 0.
¢
= A1
 
x2′ 0 x′

0 −1 0 1  
x3′

Entonces unas ecuaciones de f −1 (r 1 ) son


  
1 0 0 0 1
1 1 0
" #
1 −2 1 1 1 0 0
µ ¶  µ ¶
x1
 
= 0, .
¡ ¢
−b 1 A1 M =
  
x −1 0 1 1 x2 0
 
0 −1 0 1   
2 1 1 0 x3

Al expandir este producto obtenemos

−2 +x1 +2x2 +x3 = 0,


½
−1
f (r 1 ) : que es el vacío.
1 = 0,

Álgebra Lineal y Geometría 409


Depto. de Álgebra

Unas ecuaciones implícitas de r 2 se pueden expresar en la forma


 
1
¶ " 0 0 1 0 # ′  µ ¶
¢ 1 0
µ
 x1 
,
¡
−b 2 A 2 =  ′ =
x′ 1 0 0 1  x 2  0
x3′

de donde f −1 (r 2 ) tiene como ecuaciones implícitas


 
1
−1 0 1 1
" #
1 0
µ ¶  µ ¶
x1

.
¡ ¢
−b 2 A2 M = =
 
x x2 0

3 1 1 0  
x3

En este caso, f −1 (r 2 ) es una recta.

11.6. Subespacios fijos: puntos e hiperplanos

Subespacio fijo o invariante

Dada una aplicación afín f : E → E de un espacio en sí mismo, un


subespacio fijo o invariante es un subespacio L ⊂ E tal que f (L) ⊂ L,
o de manera equivalente L ⊂ f −1 (L).

Ejemplo 11.6.1.-

1. En una traslación τu , los subespacios afines L tales que u ∈ D(L) son in-
variantes.

2. Fijado P 0 un punto del espacio afín y un número λ 6= 0, la aplicación afín


−−→
definida por f (P ) = P 0 + λP 0 P tiene a P 0 como punto fijo. Todo subespa-


cio afín que contenga a P 0 es invariante, pues f = λ idD(E ) .

410 Álgebra Lineal y Geometría


Depto. de Álgebra

Intersección y suma de subespacios fijos

Si L 1 , L 2 ⊂ E son dos subespacios fijos entonces L 1 ∩ L 2 , L 1 + L 2 ⊂ E son


también subespacios fijos.

P RUEBA : Como f (L 1 ∩ L 2 ) ⊂ f (L 1 ) ∩ f (L 2 ) ⊂ L 1 ∩ L 2 , la intersección es un


subespacio fijo.
Si L 1 = 〈P 0 , . . . , P r 〉 y L 2 = 〈Q 0 , . . . ,Q s 〉 entonces f (P i ) ∈ L 1 y f (Q j ) ∈ L 2 , 0 ≤
i ≤ r , 0 ≤ j ≤ s. Es más,

L 1 + L 2 = 〈P 0 , . . . , P r ,Q 0 , . . . ,Q s 〉,

y dado que la imagen por f de todos estos puntos generadores está en L 1 + L 2 ,


se deduce que f (L 1 + L 2 ) ⊂ L 1 + L 2 . 

El cálculo de los subespacios fijos no es un problema simple. En esta sec-


ción nos ocupamos principalmente de puntos e hiperplanos. En la última sec-
ción estudiaremos el caso de las rectas.
Nota 11.6.1. Si f : E → E es una aplicación afín y R es un sistema de referencia
de E , denotaremos
MR ( f ) := MR,R ( f ).

Subespacio afín de puntos fijos

El conjunto L f de puntos fijos de una aplicación afín f : E → E es un


subespacio afín. Si P ∈ L f , entonces


L f = P + ker( f − idD(E ) ).

P RUEBA : Si L f es el conjunto vacío, es subespacio afín. Si existe P ∈ L f , se tiene



− −−→ −−→ −−→ →

que Q ∈ L f si y solamente si f (PQ) = PQ, es decir, PQ ∈ ker( f − idD(E ) ). 

Álgebra Lineal y Geometría 411


Depto. de Álgebra

Ecuaciones de la variedad de puntos fijos

Si R es un sistema de referencia de E , el subespacio de puntos fijos L f


tiene como ecuaciones implícitas

1
µ ¶
(MR ( f ) − I ) = 0.
x

Un punto P es fijo si y sólo si f (P ) = P , lo cual equivale a decir que

1 1
µ ¶ µ ¶
MR ( f ) = .
PR PR

Despejando, podemos reescribir esta ecuación como

1
µ ¶
(MR ( f ) − I ) = 0.
PR

Ejemplo 11.6.2.- La aplicación afín en A2 dada por f (x1 , x2 ) = (−1 + x2 , 1 + x1 )


tiene una recta de puntos fijos r : x1 − x2 = −1.

Hiperplanos fijos

Sea f : E → E una aplicación afín, R un sistema de referencia de E , y


H ⊂ E un hiperplano cuya ecuación respecto de R es

a0 + a1 x1 + · · · + an xn = 0.

Entonces H ⊂ E es un hiperplano fijo de f si y solamente si


(a0 , a1 , . . . , an )t es un autovector de MR ( f )t con ai 6= 0 para cierto 1 ≤
i ≤ n.

412 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : La condición de que ai 6= 0 para cierto 1 ≤ i ≤ n es para asegurar que


la ecuación a0 +a1 x1 +· · ·+an xn = 0 define un hiperplano y no el total o el vacío.
La ecuación de f −1 (H) respecto de R es
1
µ ¶
(a0 , a1 , . . . , an ) MR ( f ) = 0.
x
Si esta ecuación fuese incompatible entonces f −1 (H) = ∅, luego H * f −1 (H),
así que H no podría ser un hiperplano fijo.
Como f −1 (H) está definido por una única ecuación, puede tratarse de un
hiperplano o del total. Este segundo caso, f −1 (H) = E , se da si y solamente si

(a0 , a1 , . . . , an )MR ( f ) = 0,

o de manera equivalente
 
a0

t
a1 
MR ( f )  ..  = 0,
 
 . 
an
es decir, si y solamente si (a0 , a1 , . . . , an )t es un autovector de MR ( f )t asociado
al autovalor 0.
En cualquier otro caso, f −1 (H) es un hiperplano, así que por cuestiones
de dimensión H ⊂ f −1 (H) si y solamente si H = f −1 (H). Es conocido que dos
ecuaciones definen el mismo hiperplano si y solamente si son proporcionales
con un factor de proporcionalidad no nulo 0 6= α ∈ K, esto es,
   
a0 a0
 a1   a1 
(a0 , a1 , . . . , an )MR ( f ) = α · (a0 , a1 , . . . , an ), o bien MR ( f )t  .  = α ·  .  ,
   
 ..   .. 
an an

que equivale a que (a0 , a1 , . . . , an )t es un autovector asociado al autovalor no


nulo α. 

Ejemplo 11.6.3.- Consideremos la aplicación afín f : A3 → A3 definida con


respecto a un sistema de referencia R por las ecuaciones
 ′ 1 2 2
 x1 = 1 − 3 x1 + 3 x2 + 3 x3 ,
′ 2 1 2
x = 3 x1 − 3 x2 + 3 x3 ,
 2′
x3 = −1 + 32 x1 + 32 x2 − 31 x3 .

Álgebra Lineal y Geometría 413


Depto. de Álgebra

La matriz asociada es
2/3 2/3
 
−1/3
1
 
1
µ ¶
0  
M= , con b =  0  , M0 = 
 2/3 −1/3 2/3 
.
b M0
−1
2/3 2/3 −1/3

Los autovectores de M0 son λ1 = −1, λ2 = 1, con espacios de autovectores aso-


ciados
1
     
−1 −1
V1 (λ1 ) = 〈v1 =  0 , v2 =
  1 〉,V1 (λ2 ) = 〈v3 = 1 〉.
 
1 0 1

El subespacio afín de puntos fijos es

 x1 = 1 + µ1 ,

Lf x = 21 + µ1 , que es una recta.


 2
x3 = µ1 ,

Los planos fijos se obtienen a partir de los autovalores de M t , que son µ1 =


1, µ2 = −1. Para µ1 , tenemos que
   
0 1
a1 − a3 = 0,  1   0 
½    
V1 (µ1 ) : ,V1 (µ1 ) = 〈w1 =   , w2 =  〉.
a2 − a3 = 0.  1   0 
1 0

En principio, cada vector no nulo de V1 (µ1 ) se interpreta como un hiperplano


fijo de f , por lo que los planos fijos son de la forma

0 = γ + δ(x1 + x2 + x3 ), (γ, δ) 6= (0, 0).

Observemos que si δ = 0, entonces no obtenemos un hiperplano, por lo que


debemos tomar δ 6= 0. Esto nos permite escribir el conjunto anterior en la forma
π(a0 ) : a0 + x1 + x2 + x3 = 0, a0 ∈ R, que es el conjunto de planos paralelos a
x1 + x2 + x3 = 0. Análogamente, para µ2 se tiene que

a0 = 21 a2 + a3 ,
    

 1 1/2
a1 = −a2 − a3 ,

 −1   −1 
    
V1 (µ2 ) : V1 (µ2 ) == 〈w3 =   , w4 =  〉,

 a2 = a2 ,  0   1 
 a =a ,

1 0
3 3

y los planos fijos son de la forma


1
0 = β1 (1 − x1 + x3 ) + β2 ( − x1 + x2 ), (β1 , β2 ) 6= (0, 0)
2

414 Álgebra Lineal y Geometría


Depto. de Álgebra

que se corresponde con el haz de planos determinado por los planos

1
π2 : 1 − x 1 + x 3 = 0 y π3 : − x1 + x2 = 0.
2

Observemos que los planos π2 y π3 se cortan a lo largo de la recta L f .

Ejemplo 11.6.4.- Sea f : A3 (R) → A3 (R) la afinidad cuya matriz, respecto de un


sistema de referencia R, es
 
1 0 0 0
 1 1 0 0 
 
A= .
 1 1 1 0 
0 1 1 1

Los planos fijos se obtienen a partir de los autovectores de la matriz A t , cuyo


único autovalor es igual a 1. Su espacio de autovectores es
 
1
0
 
V1 (1) = 〈 〉,
 
 0 
0

por lo que no hay planos invariantes.

Ejemplo 11.6.5.- Sea f : A2 (R) → A2 (R) la aplicación afín definida por la matriz

1 0 0
 

A= 1 1 1 
1 0 2

Álgebra Lineal y Geometría 415


Depto. de Álgebra

con respecto a un sistema de referencia fijado. Los hiperplanos fijos son rec-
tas. Los autovalores de A t son µ1 = 1 (doble) y µ2 = 2 (simple). Los espacios de
autovectores asociados son

1 0 1
     

V1 (µ1 ) = 〈 0 , −1 〉,V1 (µ2 ) = 〈 0 〉.


    
0 1 1

Con respecto a µ1 , nos queda que las rectas de la forma a0 −x1 +x2 = 0 son fijas,
que se corresponden con todas las rectas paralelas a x1 − x2 = 0. El autovalor µ2
proporciona una única recta fija, dada por 1 + x2 = 0.

11.7. Dilataciones

Dilatación

Una aplicación afín f : E → E de un espacio no vacío en sí mismo es




una dilatación si existe α ∈ K no nulo tal que f = α·idD(E ) . Este escalar
α ∈ K se denomina razón de la dilatación f .

Ejemplo 11.7.1.-

1. Las traslaciones τu son dilataciones de razón igual a 1.


−→
2. Las aplicaciones de la forma h(P ) = C + λC P , con C ∈ E y λ 6= 0, 1 son
dilataciones. En efecto, podemos escribir
−→ −→
h(C + C P) = C + (λ idD(E ) )(C P),


de donde h es una aplicación afín (por la igualdad fundamental) y h =
λ idD(E ) .
La aplicación h se denomina homotecia de centro C y razón λ. Observe-
mos que C es punto fijo de h.

416 Álgebra Lineal y Geometría


Depto. de Álgebra

Veremos que toda dilatación es la identidad, una traslación de vector no nulo o


una homotecia.

Nota 11.7.1. Las siguientes observaciones son de gran utilidad:

1. Una dilatación f es una afinidad.

2. Obsérvese que f es una dilatación según la definición anterior si y sola-


mente si la matriz de f respecto de un sistema de referencia cualquiera
R en E es de la forma

1 0 ··· ··· 0
 

¶  b1 α 0 · · · 0 
 
 .
1 0 .. 0 . . . . . . ...  ,
µ

MR ( f ) = =
b α·I  .

.. . . . .

 .. . . 0 

.
bn 0 · · · 0 α

con α 6= 0; en particular det(MR ( f )) = αn , donde n = dim E .

3. Si f es una dilatación de razón α 6= 1, tiene un único punto fijo C , pues el


sistema de ecuaciones que nos permite obtener L f es de la forma

xi = b i + αxi , 1 ≤ i ≤ n,
³ ´
b1 bn
que tiene solución única C = 1−α , . . . , 1−α .

4. Si E es una recta afín, esto es, dim E = 1, toda afinidad f : E → E es una di-
latación ya que su matriz respecto de un sistema de referencia cualquiera
R en E ha de ser forzosamente de la forma

1 0
µ ¶
MR ( f ) = , α 6= 0.
b α

Composición de dilataciones

Si f , g : E → E son dilataciones de razones α y β, respectivamente, en-


tonces f ◦ g y g ◦ f son dilataciones de razón α · β.

Álgebra Lineal y Geometría 417


Depto. de Álgebra

−−−→ → − → −
P RUEBA : Basta observar que f ◦ g = f ◦ g = (α·idD(E ) )◦(β·idD(E ) ) = α·β·id D(E ) ,
y análogamente para g ◦ f . 

Nótese que, en general f ◦ g 6= g ◦ f , ya que una dilatación no está determi-


nada por su razón.

Dilatación: identidad, traslación, homotecia

Sea f : E → E una dilatación de razón α.

1. Si α = 1, entonces f es una traslación o la identidad.

2. Si α 6= 1, entonces f es una homotecia de razón α.

→− −−−−−−→
P RUEBA : Si f = idD(E ) , sea P 0 ∈ E y llamemos u0 = P 0 f (P 0 ); es un vector que
depende del punto P 0 . Para cualquier P ∈ E , se tiene que
−−→ → − −−→ −−−−−−−−→
P 0 P = f (P 0 P ) = f (P 0 ) f (P ),

de donde
−−−−→ −−→ −−−−−−→ −−−−−−−−→ −−−−−−→
P f (P ) = P P 0 + P 0 f (P 0 ) + f (P 0 ) f (P ) = 0 + P 0 f (P 0 ) = u0 .

Tenemos así que para todo P ∈ E se tiene f (P ) = P + u0 , que es la traslación de


vector u0 , para u0 6= 0, o la identidad para u0 = 0.


Si f = α idD(E ) , con α 6= 1, entonces hemos visto que f tiene un único punto
fijo C , por lo que si P ∈ E se verifica
−→ →
− −→ −→
f (P ) = f (C + C P ) = f (C ) + f (C P ) = C + αC P ,

que es la ecuación de la homotecia de centro C y razón α. 

Tenemos así clasificadas las dilataciones. Vamos a calcular los subespacios


fijos de cualquier dimensión.

Subespacios fijos de una traslación

Sea L un subespacio afín no vacío fijo por una traslación τu con u 6= 0.


Entonces u ∈ D(L).

418 Álgebra Lineal y Geometría


Depto. de Álgebra



P RUEBA : Sea L = P +D(L). Entonces τu (L) = (P + u)+ τu (D(L)) = (P + u)+D(L).
−−−−−−→
Si L es fija, entonces el punto P + u ∈ L, de donde P (P + u) = u ∈ D(L). 

Subespacios fijos de una homotecia

Sea h una homotecia de centro C y razón λ. Entonces C es su único


punto fijo y los subespacios fijos no vacíos de h son aquellos que con-
tienen al punto C .

P RUEBA : Ya hemos visto que h solamente tiene un punto fijo, que es su centro
C . Si L ⊂ E es un subespacio afín y C ∈ L entonces podemos expresar L = C +
D(L). Usando esta igualdad para el cálculo de f (L) obtenemos que


f (L) = f (C ) + f (D(L)) = C + (λ · idD(E ) )(D(L)) = C + D(L) = L.
Recíprocamente, si L ⊂ E es un subespacio fijo no vacío y P ∈ L entonces f (P ) ∈
−−−−→
L, luego P f (P ) ∈ D(L). Es más,
−→ → − −→ −−−−−−−→ −−−−→ −→ −−−−→
λ · C P = f (C P ) = f (C ) f (P ) = C f (P ) = C P + P f (P ),
por tanto
−→ 1 −−−−→
CP = P f (P ) ∈ D(L).
α−1
En particular
−→ −→
C = P + PC = P − C P ∈ L.


11.8. Rectas fijas

Caracterización de una recta fija

Sea f : E → E una aplicación afín y r = Q 0 + 〈u〉 una recta. Entonces r




es una recta fija si y solamente si u es un autovector de f , asociado a
un autovalor λ, y se satisface una de las dos siguientes condiciones:

(a) La recta r contiene un único punto fijo y λ 6= 1.

(b) Existe un vector v ∈ D(r ) tal que f (P ) = P + v para todo P ∈ r . En


este caso, si v 6= 0 entonces v es autovector asociado a 1.

Álgebra Lineal y Geometría 419


Depto. de Álgebra



P RUEBA : (⇐) Supongamos que u es autovector de f asociado al autovalor λ.

(a) Si la recta r contiene un único punto fijo P 0 , podemos escribir r = P 0 +


〈u〉, de donde


f (r ) = f (P 0 ) + 〈 f (u)〉 = P 0 + 〈λu〉 ⊂ r.

Entonces r es una recta fija.

(b) Si existe v ∈ D(r ) tal que f (P ) = P + v para todo P ∈ r , consideramos dos


casos:

Si v = 0, entonces f (P ) = P para todo P ∈ r , de donde f es fija.




Si v 6= 0, v también es autovector de f asociado a λ y r = Q 0 + 〈v 〉.
De aquí,


f (r ) = f (Q 0 ) + 〈 f (v )〉 = (Q 0 + v ) + 〈λv 〉 ⊂ Q 0 + 〈v 〉,

por lo que r es fija. En este caso, si P ∈ r , entonces f (P ) ∈ r , por lo


−−−−−−−−−−→ −−−−→
que v = f (P ) f ( f (P )). Además, la condición v = P f (P ) implica que

− −−−−−−−−−−→
f (v ) = f (P ) f ( f (P )) = v ,

por lo que el autovalor asociado es 1.

(⇒) Supongamos que r es una recta fija. Entonces




f (r ) = f (P ) + 〈 f (u)〉 ⊂ r,

− →
− →

por lo que 〈 f (u)〉 ⊂ 〈u〉 y existe λ tal que f (u) = λu y u es autovector de f .
Podemos considerar la restricción g = f |r : r → r , que es una aplicación afín. Si
es constante, con f (P ) = P 0 , entonces la recta r contiene un único punto fijo,
que es P 0 . En otro caso, g es una dilatación de razón α 6= 0.
Si α 6= 1, entonces g tiene un único punto fijo P 0 , y estamos en el primer
caso. Si α = 1, entonces g es una traslación en r , de vector v , lo que implica
−−−−→
que v = P f (P ) para todo P ∈ r . Es posible v = 0, y en tal caso la recta r está
contenida en L f . 

La proposición anterior nos permite dar un método para calcular todas las
rectas fijas de una aplicación afín. Sea L f el subespacio afín de puntos fijos de


f y λ1 , . . . , λr los autovalores de f .


Para cada P 0 ∈ L f , la recta P 0 + 〈u〉, con u autovector de f asociado a algún
autovalor λi , es una recta fija. Aquí están incluidas las rectas de puntos fijos y

420 Álgebra Lineal y Geometría


Depto. de Álgebra

las que se transforman en un punto: si r = P + 〈u〉 y f (r ) = Q ∈ r , entonces 0 es



− →

autovalor de f , v ∈ ker f y f (Q) = Q.
Buscamos ahora las rectas r fijas que no tienen puntos fijos. Entonces f |r es
una traslación de vector v 6= 0, por lo que la dirección de r está generada por un

− →

vector de W = ker( f − idV ). Esto implica que 1 es autovalor de f , para que W
sea no trivial. Vamos a caracterizar los puntos por los que pasa una recta de este
tipo. Sea P ∈ E un punto por el que pasa una recta fija de esta clase. Entonces
−−−−→
P f (P ) ∈ W . Si fijamos un sistema de referencia R = {O; B} en E , la matriz de f
tiene la forma
1 0t
µ ¶
M = MR ( f ) = y W = null(M0 − I n ).
b M0
Como f (P )R = b + M0 · P R , se tiene que
−−−−→ −−→
[P f (P )]B = (M0 − I n )[OP ]B + b,
−−−−→
y la condición P f (P ) ∈ W se traduce en
−−→
0 = (M0 − I n )((M0 − I n )[OP ]B + b)
−−→
= (M0 − I n )2 [OP ]B + (M0 − I n )b.
Dado que
1 0 0t 0 0t 1
µ ¶ µ ¶µ ¶µ ¶
2
(M − I n+1 ) =
PR b M0 − I n b M0 − I n PR
0 0t 1
µ ¶µ ¶
=
(M0 − I n )b (M0 − I n )2 PR
0
µ ¶
= 2 −
−→ ,
(M0 − I n ) [OP ]B + (M0 − I n )b
concluimos que el lugar de los puntos P por el que pasa una recta fija r con f |r
una traslación está determinado por el subespacio afín
1
µ ¶
2
X ( f ) : (M − I n+1 ) = 0.
PR
Si X ( f ) = ;, no hay rectas fijas en donde la restricción de f es una traslación
de vector no nulo. Observemos que contiene a L f , por lo que las rectas con-
tenidas en L f , que son fijas, vuelven a aparecer aquí. Se tiene que X ( f ) es un
subespacio afín invariante.
−−−−→
Si X ( f ) 6= ;, para cada punto P ∈ X ( f ) obtenemos el vector uP = P f (P ).
Entonces la recta P + 〈uP 〉 es fija.
De esta forma obtenemos todas las rectas fijas de f , pues pertenece a al-
guno de los tipos anteriores.

Álgebra Lineal y Geometría 421


Depto. de Álgebra

Cálculo de las rectas fijas

Sea f : E → E una aplicación afín con matriz M respecto de un sistema


de referencia R.

1. Cálculo de L f .

2. Las rectas fijas que contienen algún punto fijo son de la forma


P 0 + 〈u〉, con P 0 ∈ L f y u autovector de f .

3. Si 1 es autovalor de f , podemos optar por uno de los métodos


siguientes para calcular el subespacio afín X ( f ):

Tomamos un punto P genérico e imponemos la condición


−−−−→ →

P f (P ) ∈ ker( f − idV ).
Calculamos el subespacio afín asociado al sistema de ecua-
1
µ ¶
ciones (M − I )2 = 0.
x
−−−−→
4. Si X ( f ) 6= ;, para cada P ∈ X ( f ), la recta P + 〈P f (P )〉 es fija.

Ejemplo 11.8.1.- Consideremos la afinidad f : A3 (R) → A3 (R) dada por las


ecuaciones  ′
 x1 = 1 + x1 ,
x ′ = 1 − 2x1 − x2 ,
 2′
x3 = 1 − x3 ,
con respecto a un sistema de referencia fijado. No hay puntos fijos y los auto-


valores de f son λ1 = 1 (simple) y λ2 = −1 (doble). Si r es una recta fija, al no
haber puntos fijos, tiene que ocurrir que la restricción f |r sea una traslación,
por lo que el vector de dirección de r es autovector asociado a λ1 = 1. Como

y 1 + y 2 = 0,
½
V1 (λ1 ) : ,
y 3 = 0.

−−−−→
si partimos de un punto P = (a1 , a2 , a3 ), la condición P f (P ) ∈ V1 (λ1 ) nos lleva a
−−−−→ −−−−−−−−−−−−−−−−−−−−→
f (P ) = (1 + a1 , 1 − 2a1 − a2 , 1 − a3 ), P f (P ) = (1, 1 − 2a1 − 2a2 , 1 − 2a3 ) ∈ V1 (λ1 ),

422 Álgebra Lineal y Geometría


Depto. de Álgebra

de donde

1 − a1 − a2 = 0, 1 − x1 − x2 = 0,
½ ½
, que representa la recta
a3 = 1/2, x3 = 1/2.

Es equivalente a obtener

0 0 0 0
 

 0 0 0 0 
 
−1 + x1 + x2 = 0,
½
2
(M − I 4 ) =   , de donde X ( f ) :
 
 −4 4 4 0  −1 + 2x3 = 0.
 
−2 0 0 4

Vemos que X ( f ) es una recta, que tiene que ser fija y es la única.
Si aplicamos el método descrito, tomamos P ∈ X ( f ), que es de la forma P =
−−−−→ −−−−−−→
(1 − t , t , 1/2). Calculamos f (P ) = (1 − 2t , −1 + t , 1/2) y P f (P ) = (1, −1, 0), por lo
−−−−−−→
que la recta (1 − t , t , 1/2) + 〈(1, −1, 0)〉 es fija. Es inmediato comprobar que es
X ( f ).

Ejemplo 11.8.2.- Consideremos la afinidad f : A3 (R) → A3 (R) del ejemplo


11.6.3 (pág. 413), que tiene como matriz asociada

2/3 2/3
 
−1/3
1
 
1
µ ¶
0  
M= , con b =  0  , M0 = 
 2/3 −1/3 2/3 
.
b M0
−1
2/3 2/3 −1/3

Los autovectores de M0 son λ1 = −1, λ2 = 1, con espacios de autovectores aso-


ciados
   
−1 −1
V1 (λ1 ) y 1 + y 2 + y 3 = 0, , V1 (λ1 ) = 〈v1 =  0  , v2 =  1 〉,
©

1 0
1
 
y 1 − y 3 = 0,
½
V1 (λ2 ) , V1 (λ2 ) = 〈v3 = 1 〉.

y 2 − y 3 = 0,
1

Álgebra Lineal y Geometría 423


Depto. de Álgebra

π3
π2

P0

π(a0 )

Lf

Figura 11.1: Configuración de rectas fijas

El subespacio afín de puntos fijos es

 x1 = 1 + µ1 ,

Lf x = 12 + µ1 , que es una recta de dirección generada por v3 .


 2
x3 = µ1 ,
Los planos fijos son el conjunto de planos paralelos π1 (a0 ) : a0 + x1 + x2 + x3 = 0
y el haz de planos determinado por
1
π2 : 1 − x1 + x3 = 0, y π3 : − x1 + x2 = 0.
2
Estudiemos las posibilidades que ofrecen los resultados anteriores para ca-
racterizar las rectas fijas.

Si r es una recta fija con un punto fijo, es de la forma P 0 +〈v 〉, con P 0 ∈ L f




y v autovector de f .

• Si v ∈ V1 (λ2 ), tenemos la propia recta L f .


• Si v ∈ V1 (λ1 ), obtenemos todas las rectas contenidas en el plano P 0 +
〈v1 , v2 〉 que pasan por P 0 .

Si r es una recta fija sin puntos fijos, calculamos el subespacio afín X ( f ),


que tiene como ecuación
0 0 0 0
 
 
1
 −2 8/3 −4/3 −4/3  
 
1
µ ¶
  x1 

2
X ( f ) : (M − I 4 ) = 0,   = 0.

x  0 −4/3 8/3 −4/3   x2 

 
x3
2 −4/3 −4/3 8/3

424 Álgebra Lineal y Geometría


Depto. de Álgebra

Recordemos que es equivalente a considerar un punto P = (a1 , a2 , a3 ) e


−−−−→
imponer la condición P f (P ) ∈ V1 (1). Si pasamos a paramétricas, obtene-
mos
 x1 = 1 − t ,

X ( f ) : x2 = 12 + t , , que es una recta.


x3 = t ,

Por tanto, esta es la única recta fija de este tipo.

Ejemplo 11.8.3.- Consideremos la afinidad f : A3 (R) → A3 (R) dada por la ma-


triz  
1 0 0 0
 µ 1 0 ¶
 a 1 1 0 

M = = ,
 b 0 1 1  b M0
0 0 0 1
con respecto a un sistema de referencia fijado, con a, b ∈ R. El conjunto de pun-
tos fijos es
a + x2 = 0,
½
Lf : , que es una recta.
b + x3 = 0,


El único autovalor de f es λ1 = 1, con espacio asociado
y 2 = 0,
½
−−−−−→
V1 (λ1 ) : ,V1 (λ1 ) = 〈u = (1, 0, 0)〉.
y 3 = 0,
Las rectas fijas con algún punto fijo son de la forma P 0 + 〈u〉, con P 0 ∈ L f .
Como la dirección de L f está generada por u, todas esas rectas son L f .

Las rectas fijas r en donde la restricción f |r es una traslación las calcula-


mos a partir del subespacio afín
1
µ ¶
2
X ( f ) : (M − I 4 ) = 0, que resulta X ( f ) : b + x3 = 0.
x
Para cada punto P = (a1 , a2 , −b) ∈ X ( f ), se tiene que
−−−−→ −−−−−−−−−→
f (P ) = (a + a1 + a2 , a2 , −b) y P f (P ) = (a + a2 , 0, 0),
−−−−→
por lo que la recta P + 〈P f (P )〉 es fija, para a2 6= −a. Observemos que son
rectas paralelas a L f y contenidas en X ( f ). Si a2 = −a, entonces P ∈ L f y
volvemos a obtener la recta de puntos fijos.

Álgebra Lineal y Geometría 425


Depto. de Álgebra

426 Álgebra Lineal y Geometría


Capítulo 12

Espacios afines euclídeos

En este tema el cuerpo base será el de los números reales R y todos los R–
espacios vectoriales serán de dimensión finita.

12.1. Distancia y sistema de referencia métrico


Un espacio afín euclídeo es un espacio afín (E ,V, +), donde V es un espacio
vectorial euclídeo. Cuando convenga especificar el producto escalar 〈·|·〉 en V
escribiremos (V, 〈·|·〉) para designar al espacio vectorial euclídeo y (E , (V, 〈·|·〉), +)
para designar al espacio afín euclídeo.

Ejemplo 12.1.1.- Recordemos que (An (R), Rn , +), o simplemente An (R), deno-
ta al espacio afín real canónico de dimensión n. El espacio afín euclídeo ca-
nónico es simplemente An (R) cuando en el espacio vectorial Rn se conside-
P
ra el producto escalar canónico, es decir, el definido por 〈u|v 〉 = i u i v i para
u = (u 1 , . . . , u n )t , v = (v 1 , . . . , v n )t ∈ Rn .

Ejemplo 12.1.2.- Cualquier subespacio afín L = P + D(L) de un espacio afín


euclídeo (E ,V, +) es también un espacio afín euclídeo, pues D(L) es un espacio
vectorial euclídeo con el producto escalar definido en V .

427
Depto. de Álgebra

Recordemos que la norma de un vector es kuk = 〈u|u〉1/2 .

Distancia entre puntos

Dados dos puntos P,Q en un espacio afín euclídeo (E ,V, +), la distancia
entre P y Q es el número real no negativo
°−−→° q
° ° −−→ −−→
d (P,Q) = °PQ ° = + 〈PQ|PQ〉.

Ejemplo 12.1.3.- En el espacio afín euclídeo canónico de dimensión n consi-


deremos el sistema de referencia estándar R e y fijamos un punto P de coorde-
nadas P R = (a1 , . . . , an ). El conjunto de puntos cuya distancia a P es constante
e igual a un número r > 0 es lo que llamamos esfera de centro P y radio r . La
ecuación que determina los puntos de la esfera es

(x1 − a1 )2 + · · · + (xn − an )2 = r 2 .

Para n = 2 hablamos de circunferencias.

Propiedades de la distancia

Sea P,Q, R puntos en un espacio afín euclídeo.

(a) d (P,Q) = 0 si y sólo si P = Q.

(b) d (P,Q) = d (Q, P ).

(c) d (P, R) ≤ d (P,Q) + d (Q, R) (desigualdad triangular).

P RUEBA : La prueba de estas propiedades es consecuencia inmediata de las


propiedades de la norma de un vector en un espacio vectorial euclídeo.

428 Álgebra Lineal y Geometría


Depto. de Álgebra

°−−→° −−→
° °
(a) d (P,Q) = °PQ ° = 0 si y sólo si PQ = 0, es decir, P = Q.
°−−→° ° −−→° °−−→°
° ° ° ° ° °
(b) d (Q, P ) = °QP ° = °−PQ ° = °PQ ° = d (P,Q).
°−→° °−−→ −−→° °−−→° °−−→°
° ° ° ° ° ° ° °
(c) d (P, R) = °P R ° = °PQ + QR ° ≤ °PQ ° + °QR ° = d (P,Q) + d (Q, R).

En la desigualdad triangular d (P, R) ≤ d (P,Q)+d (Q, R) se verifica la igualdad


−−→ −→
si y solamente si P , Q y R están alineados y 〈PQ|P R〉 ≥ 0.

Sistema de referencia métrico

Sea (E ,V, +) un espacio afín euclídeo. Un sistema de referencia afín R =


{O; B} en E es un sistema de referencia métrico o euclídeo si B es una
base ortonormal del espacio vectorial euclídeo V .

Ejemplo 12.1.4.- En el espacio afín canónico A3 , el sistema de referencia dado


por los puntos P = (1, −1, 1) y la base
     
−1/3 2/3 2/3
B = {u1 =  2/3  , u2 =  −1/3  , u3 =  2/3 }
2/3 2/3 −1/3

es un sistema de referencia métrico.

Recordemos que el cambio del sistema de referencia afín R = {O; B} al sis-


tema de referencia afín R ′ = {O ′ ; B ′ } viene determinado por una matriz de la
forma  
1 0 ··· 0
 
 
M(R, R ′ ) =  ′ ,
 O R M(B, B ) 

donde M(B, B ′ ) es la matriz del cambio de base. Se verifica, para todo Q ∈ E ,


µ ¶ µ ¶
′ 1 1
M(R, R ) = ,
QR QR′

Álgebra Lineal y Geometría 429


Depto. de Álgebra

donde Q R (respectivamente Q R ′ ) son las coordenadas de Q ∈ E (como una co-


lumna) respecto del sistema de referencia afín R (respectivamente R ′ ).
Si los sistemas de referencia R y R ′ son métricos (es decir, si las bases B y
B ′ son ortonormales) la matriz M(B, B ′ ) es ortogonal.
Nota 12.1.1. El teorema de Pitágoras (su versión en un espacio vectorial euclí-
deo) establece que u⊥v si y solamente si

ku + v k2 = kuk2 + kv k2 .

Si tomamos puntos P,Q y R de un espacio afín euclídeo E , entonces


°−−→ −−→°2 °−−→°2 °−−→°2
° ° ° ° ° °
d (P, R)2 = °PQ + QR ° = °PQ ° + °QR ° = d (P,Q)2 + d (Q, R)2 ,

−−→ −−→
si y solamente si los vectores PQ y QR son ortogonales, que es el teorema de
Pitágoras en su versión afín euclídea.

12.2. Perpendicular común

Subespacio afines perpendiculares

En (E ,V, +) espacio afín euclídeo consideramos L, L ′ ⊂ E subespacios


afines no vacíos. Diremos que L y L ′ son perpendiculares, notado por
L⊥L ′ , cuando la dirección de uno está contenida en la ortogonal del
otro, o bien cuando la dirección de uno contiene a la ortogonal del otro.

Observemos que la condición anterior equivale a decir que D(L) ⊂ D(L ′ )⊥ o


bien D(L)⊥ ⊂ D(L ′ ). No se pide condición alguna sobre la intersección de los
subespacios afines.

Ejemplo 12.2.1.- Sea (E ,V, +) un espacio afín euclídeo.

1. Si P ∈ E entonces L = {P } es perpendicular a cualquier subespacio afín no


vacío L ′ , ya que D(L ′ ) ⊂ D(P )⊥ = {0}⊥ = V .

2. El espacio E es perpendicular a cualquiera de sus subespacios afines no


vacíos L ′ , ya que D(E )⊥ = V ⊥ = {0} ⊂ D(L ′ ).

430 Álgebra Lineal y Geometría


Depto. de Álgebra

Figura 12.1: Planos perpendiculares

3. Si u, v ∈ V son dos vectores no nulos y ortogonales (u⊥v ), entonces las


rectas afines r = P + 〈u〉 y s = Q + 〈v 〉 son perpendiculares, para cuales-
quiera puntos P,Q ∈ E .

Nota 12.2.1. La definición que hemos dado no es uniforme en los diferentes


textos. En otras referencias ([RT11, def. 5.7], [Bor14, secc. 4.8]), la condición
de perpendicularidad es que D(L) ⊂ D(L ′ )⊥ , equivalente a D(L ′ ) ⊂ D(L)⊥ : todo
vector de D(L) es ortogonal a todo vector de D(L ′ ). Sin embargo, esta segunda
definición es más restrictiva que la noción de perpendicularidad a la que po-
demos estar habituados. Consideremos en A3 (R), con respecto al sistema de
referencia métrico estándar, los planos π1 : x1 = 0 y π2 : x2 = 0. Según la primera
definición, los planos π1 y π2 son perpendiculares, porque D(π1 )⊥ ⊂ D(π2 ). Sin
embargo, con la segunda definición no lo son.

Distancia entre subespacios afines

Sean L 1 , L 2 ⊂ E subespacios afines. Definimos la distancia entre L 1 y


L 2 (a veces diremos la mínima distancia entre L 1 y L 2 ) como el número
real
d (L 1 , L 2 ) = ı́nf { d (R 1 , R 2 ) | R 1 ∈ L 1 , R 2 ∈ L 2 } .

Claramente, si dos subespacios afines tienen un punto P en común, la dis-


tancia entre ellos es cero, pues d (P, P ) = 0. Veremos ahora un método para cal-
cular la distancia entre dos subespacios afines disjuntos L 1 y L 2 , calculando de
hecho los puntos P 1 ∈ L 1 y P 2 ∈ L 2 que dan la distancia entre los subespacios
d (L 1 , L 2 ) = d (P 1 , P 2 ).

Perpendicular común

Sean L 1 , L 2 subespacios afines disjuntos en un espacio afín euclídeo


(E ,V, +). Existe un subespacio afín L perpendicular a L 1 y L 2 y que cor-
ta a ambos en un punto, es decir, P 1 = L 1 ∩ L, P 2 = L 2 ∩ L y d (L 1 , L 2 ) =
d (P 1 , P 2 ).

Álgebra Lineal y Geometría 431


Depto. de Álgebra

P RUEBA : Sea W = D(L 1 ) + D(L 2 ) y consideremos el subespacio vectorial W ⊥ .


Recordemos que se tiene

V = (D(L 1 ) + D(L 2 )) ⊕ W ⊥ .

No se puede tener que W sea el espacio vectorial completo. Si D(L 1 ) + D(L 2 ) =


V , con L 1 ∩ L 2 = ;, la fórmula de la dimensión nos indica que

dim(L 1 + L 2 ) − 1 = dim L 1 + dim L 2 − dim[D(L 1 ) ∩ D(L 2 )].

En este caso, dim(L 1 + L 2 ) = dimV , de donde el término de la derecha es igual


a dimV − 1. Sin embargo, el término de la izquierda es igual a

dim D(L 1 ) + dim D(L 2 ) − dim[D(L 1 ) ∩ D(L 2 )] = dimV.

Por tanto, W ⊥ 6= 0. Tomemos dos puntos cualesquiera Q 1 y Q 2 de L 1 y L 2 , res-


−−−→
pectivamente, y descomponemos el vector Q 1Q 2 = u + v , donde u ∈ D(L 1 ) +
D(L 2 ) y v ∈ D(L) son únicos. Por otra parte u = u1 + u2 , con u1 ∈ D(L 1 ) y
u2 ∈ D(L 2 ) (no únicos, a menos que D(L 1 ) ∩ D(L 2 ) = {0}). Tomamos entonces
los puntos
P 1 = Q 1 + u1 ∈ L 1 , P 2 = Q 2 − u2 ∈ L 2
y dado que
−−−→ −−−−−−−−−−−−−−−→ −−−→
P 1 P 2 = (Q 1 + u1 )(Q 2 − u2 ) = Q 1Q 2 − u2 − u1
= v ∈ W ⊥ , (relación entre puntos y vectores, pág. 361),

definimos
L = P1 + W ⊥ = P2 + W ⊥.
Es claro que P i ∈ L ∩ L i , i = 1, 2. Como D(L ∩ L i ) = D(L) ∩ D(L i ) = {0}, se tiene
que L ∩ L i es un punto, y, en consecuencia, tiene que ser P i , para i = 1, 2.
Por último, hemos de probar que d (L 1 , L 2 ) = d (P 1 , P 2 ). Para ello, sean R 1 ∈
L 1 , R 2 ∈ L 2 puntos arbitrarios. Escribimos entonces
°−−−→°2 °−−−→ −−−→ −−−→°2
° ° ° °
d (R 1 , R 2 )2 = °R 1 R 2 ° = °R 1 P 1 + P 1 P 2 + P 2 R 2 °
°−−−→ −−−→°2 °−−−→°2
° ° ° °
= °R 1 P 1 + P 2 R 2 ° + °P 1 P 2 °
°−−−→°2
° °
≥ °P 1 P 2 ° = d (P 1 , P 2 )2 ,

−−−→ −−−→ −−−→


porque (R 1 P 1 + P 2 R 2 )⊥P 1 P 2 y podemos aplicar el teorema de Pitágoras. 

432 Álgebra Lineal y Geometría


Depto. de Álgebra

Nota 12.2.2. La elección de la dirección de L no es caprichosa. Buscamos un


subespacio afín L perpendicular a L 1 y que lo corte en un punto P 1 . Si n =
dim E , entonces la fórmula de la dimensión nos dice que

dim(L + L 1 ) + dim(L ∩ L 1 ) = dim(L) + dim(L 1 ), de donde dim(L) + dim(L 1 ) ≤ n.

La condición de perpendicularidad es D(L) ⊂ D(L 1 )⊥ o D(L)⊥ ⊂ D(L 1 )). Si D(L)⊥ ⊂


D(L 1 ), entonces n − dim(L) ≤ dim L 1 , que con la desigualdad anterior implica
que dim L = n − dim L 1 , de donde D(L) = D(L 1 )⊥ . Por tanto, podemos supone
D(L) ⊂ D(L 1 )⊥ .
Si razonamos igual para L 2 , obtenemos que D(L) ⊂ D(L 2 )⊥ y

D(L) ⊂ D(L 1 )⊥ ∩ D(L 2 )⊥ = (D(L 1 ) + D(L 2 ))⊥ .

Si consideramos la de dimensión máxima, tenemos que D(L) = (D(L 1 ) + D(L 2 ))⊥ .

Perpendicular común

Sean L 1 y L 2 subespacios afines disjuntos. Se llama perpendicular co-


mún a L 1 y L 2 a un subespacio afín L, de mayor dimensión, que es per-
pendicular a L 1 y L 2 y corta a cada una de ellos en un único punto, que
se denominan pies de la perpendicular.

Nota 12.2.3. Toda perpendicular común L a dos subespacios afines disjuntos


L 1 y L 2 es de dirección (D(L 1 ) + D(L 2 ))⊥ . Si P 1 = L 1 ∩ L y P 2 = L 2 ∩ L, entonces

L = P 1 + D(L) = P 2 + D(L), D(L) = (D(L 1 ) + D(L 2 ))⊥ .

Cálculo de la perpendicular común

Dados dos subespacios afines disjuntos L 1 = Q 1 + D(L 1 ) y L 2 = Q 2 +


D(L 2 ), una perpendicular común L se obtiene descomponiendo
−−−→
Q 1 Q 2 = u1 + u2 + v ,

donde u1 ∈ D(L 1 ), u2 ∈ D(L 2 ) y v ∈ D(L) = (D(L 1 ) + D(L 2 ))⊥ . Sabemos


que u1 + u2 ∈ D(L)⊥ y v ∈ D(L) son únicos. Después tomamos

L = P 1 + D(L) = P 2 + D(L),

con P 1 = Q 1 + u1 , P 2 = Q 2 − u2 .

Álgebra Lineal y Geometría 433


Depto. de Álgebra

Ejemplo 12.2.2.- En el espacio afín euclídeo A4 (R), fijamos un sistema de re-


ferencia métrico y consideramos los subespacios afines
½
x1 + x2 − 3x3 + 4 = 0, −−−−−−→ −−−−−−→
L1 : , L 2 : (0, 0, 0, 0) + 〈(1, 2, 1, 1), (1, 0, 0, 0)〉.
x1 + x2 − 3x4 + 1 = 0,

Unas ecuaciones implícitas de L 2 se obtienen por la condición


 
1 1 x1
 
 2 0 x2 
rango   = 2,
 1 0 x3 
1 0 x4

que da lugar a
½
x2 − 2x3 = 0,
L2 :
x2 − 2x4 = 0.
Entonces el cálculo de L 1 ∩ L 2 lo hacemos mediante la resolución del sistema

 x1 + x2 − 3x3 + 4 = 0,


x1 + x2 − 3x4 + 1 = 0,
L1 ∩ L2 :
 x − 2x3 = 0,
 2

x2 − 2x4 = 0.

que es incompatible. Vamos a calcular un punto y la variedad de dirección de


una perpendicular común L.

Paso 1. Cálculo de la variedad de dirección. Se tiene que D(L) = (D(L 1 )+D(L 2 ))⊥ ;
de forma inmediata tenemos D(L 2 ). Para obtener D(L 1 ), resolvemos el
sistema homogéneo asociado a L 1 , y
−−−−−−−−→ −−−−−−→
D(L 1 ) = 〈(−1, 1, 0, 0), (3, 0, 1, 1)〉.

Entonces
−−−−−−−−→ −−−−−−→ −−−−−−→ −−−−−−→
D(L 1 )+D(L 2 ) = 〈v1 = (−1, 1, 0, 0), v2 = (3, 0, 1, 1), v3 = (1, 2, 1, 1), v4 = (1, 0, 0, 0)〉.

Mediante el cálculo del rango de la matriz asociada, observamos que dim(D(L 1 )+


D(L 2 )) = 3 y una base es
−−−−−−−−→ −−−−−−→ −−−−−−→
D(L 1 ) + D(L 2 ) = 〈w1 = (−1, 1, 0, 0), w2 = (3, 0, 1, 1), w3 = (1, 0, 0, 0)〉.

434 Álgebra Lineal y Geometría


Depto. de Álgebra

La variedad ortogonal se obtiene como solución del sistema



 −y 1 + y 2 = 0,
(D(L 1 ) + D(L 2 ))⊥ : 3y 1 + y 3 + y 4 = 0,

y 1 = 0,

−−−−−−−−→
de donde D(L) = 〈(0, 0, −1, 1)〉.

Paso 2. Construcción de una base B con vectores de D(L 1 ), D(L 2 ) y D(L). A partir
del paso anterior, la base B = {w1 , w2 , w3 , w4 }, con

−−−−−−−−→ −−−−−−→
w1 = (−1, 1, 0, 0), w2 = (3, 0, 1, 1) ∈ D(L 1 ),
−−−−−−→
w3 = (1, 0, 0, 0) ∈ D(L 2 ),
−−−−−−−−→
w4 = (0, 0, −1, 1) ∈ D(L)

cumple la condición.

Paso 3. Cálculo de dos puntos cualesquiera Q 1 ∈ L 1 ,Q 2 ∈ L 2 . Es inmediato que


podemos asignar Q 2 = (0, 0, 0, 0). Un punto Q 1 ∈ L 1 es cualquier solución
particular del sistema que define a L 1 . Por ejemplo, si asignamos x2 =
x3 = 0, entonces Q 1 = (−4, 0, 0, −1) ∈ L 1 .

−−−→
Paso 4. Expresión del vector Q 1Q 2 en función de los vectores de B. Tenemos que
resolver el sistema de ecuaciones dado por la relación
 
4
 
 0 
v=  = λ1 w1 + λ2 w2 + λ3 w3 + λ4 w4 .
 0 
1

Mediante la forma escalonada,


 
1 0 0 0 0
 
¡ ¢ rref  
 0 1 0 0 1/2 
w1 w2 w3 w4 v −→  ,
 0 0 1 0 5/2 
 
0 0 0 1 1/2

llegamos a que λ1 = 0, λ2 = 1/2, λ3 = 5/2, λ4 = 1/2.

Álgebra Lineal y Geometría 435


Depto. de Álgebra

Paso 5. Cálculo de los pies de la perpendicular común. Si definimos los vectores


−−−−−−−−→
3 1 1
u1 = λ1 w1 + λ2 w2 = ( , 0, , ), vector en D(L 1 ),
2 2 2
−−−−−−−→
5
u2 = λ3 w3 = ( , 0, 0, 0), vector en D(L 2 ),
2
−−−−−−−−−→
1 1
v = λ4 w4 = (0, 0, − , ), vector en D(L),
2 2
entonces los pies de la perpendicular son
5 1 1
P 1 = Q 1 + u1 = (− , 0, , − ) ∈ L 1 ,
2 2 2
5
P 2 = Q 2 − u2 = (− , 0, 0, 0).
2
−−−→
Siempre se tiene que P 1 P 2 = v .

Paso 6. Expresión de la perpendicular común. Podemos escribir L = P 1 + D(L) =


P 2 + D(L). Así,
5 1 1 −−−−−−−−→
L = (− , 0, , − ) + 〈(0, 0, −1, 1)〉.
2 2 2
Paso 7. Cálculo de la distancia. La distancia entre los subespacios afines L 1 y L 2
se calcula mediante d (P 1 , P 2 ) o como kv k. En efecto,
µ ¶1/2
5 5 2 2 1 2 1 2 1
d (P 1 , P 2 ) = (− + ) + 0 + ( − 0) + (− − 0) =p ,
2 2 2 2 2
µ ¶1/2
1 1 1
kv k = + =p .
4 4 2

No existe una única perpendicular común, pues D(L 1 ) ∩ D(L 2 ) 6= 0. Si reali-


−−−→
zamos el cálculo de la expresión del vector Q 1Q 2 en función de los vectores
{v1 , v2 , v3 , v4 , w4 }, nos queda un sistema de ecuaciones compatible indetermi-
nado, con solución general
−−−→ 1 5 1
Q 1Q 2 = (−2λ)v1 + ( − λ)v2 + λv3 + v4 + w4 .
2 2 2
Si asignamos u1 = (−2λ)v1 + ( 21 − λ)v2 , u2 = λv3 + 25 v4 , entonces los pies de las
perpendiculares comunes son de la forma
5 1 1
P 1 (λ) = Q 1 + u1 = (− − λ, −2λ, − λ, − − λ),
2 2 2
5
P 2 (λ) = Q 2 − u2 = (− − λ, −2λ, −λ, −λ), con λ ∈ R.
2

436 Álgebra Lineal y Geometría


Depto. de Álgebra

−−−−−−−−→
Para cualquier valor de λ, el subespacio afín L λ = P 1 (λ)+〈(0, 0, −1, 1) es perpen-
−−−−−−−−−−−−→
dicular común a L 1 y L 2 . Observemos que P 1 (λ) = P 1 +〈(−1, −2, −1, −1)〉, que es
un subespacio afín de dirección D(L 1 ) ∩ D(L 2 ).

Es una cuestión natural cuándo podemos garantizar la unicidad de la per-


pendicular común.

Condición de unicidad de la perpendicular común

Existe una biyección entre el conjunto de los vectores de D(L 1 ) ∩ D(L 2 )


y el conjunto de las perpendiculares comunes a L 1 y L 2 . En particular,
la perpendicular común a L 1 y L 2 es única si y solamente si D(L 1 ) ∩
D(L 2 ) = {0}.

P RUEBA : Dadas dos perpendiculares comunes L, con pies P 1 y P 2 , y L ′ , con


pies P 1′ y P 2′ , sabemos que d (P 1 , P 2 ) = d (L 1 , L 2 ) = d (P 1′ , P 2′ ). Además
°−−−→°2 °−−−→ −−−→ −−−→°2
2 ° ° ° °
d (P 1 , P 2 ) = °P 1 P 2 ° = °P 1 P 1′ + P 1′ P 2′ + P 2′ P 2 °
°−−−→ −−−→°2 °−−−→°2
° ° ° °
= °P 1 P 1′ + P 2′ P 2 ° + °P 1′ P 2′ °
°−−−→ −−−→°2
° °
= °P 1 P 1′ + P 2′ P 2 ° + d (P 1′ , P 2′ )2 ,

−−−→ −−−→ −−−→


porque (P 1 P 1′ + P 2′ P 2 )⊥P 1′ P 2′ y podemos aplicar el teorema de Pitágoras. Por tan-
−−−→ −−−→
to, P 1 P 1′ + P 2′ P 2 = 0 y obtenemos

P 1′ = P 1 + u, P 2′ = P 2 + u,
−−−→ −−−→
con u = P 1 P 1′ = P 2 P 2′ ∈ D(L 1 ) ∩ D(L 2 ). Esto prueba que a cada L ′ 6= L (y, por
−−−→ −−−→
tanto, P 1 6= P 1′ ) le podemos asignar un vector no nulo uL ′ = P 1 P 1′ = P 2 P 2′ de
D(L 1 ) ∩ D(L 2 ).
Recíprocamente, si tenemos un vector no nulo u de D(L 1 ) ∩ D(L 2 ) y una
perpendicular común a L 1 y L 2 de pies P 1 y P 2 , para obtener otra perpendicular
común distinta basta tomar la variedad L u que pasa por P 1 + u y P 2 + u de
dirección (D(L 1 ) + D(L 2 ))⊥ .


Álgebra Lineal y Geometría 437


Depto. de Álgebra

Nota 12.2.4. Una consecuencia de la existencia de perpendicular común es que


dados dos subespacios afines L 1 y L 2 , se verifica que d (L 1 , L 2 ) = 0 si y solamente
si L 1 ∩ L 2 6= ;. Basta probar la implicación directa. Si d (L 1 , L 2 ) = 0 y tenemos
L 1 ∩ L 2 = ;, podemos construir una perpendicular común y hallar puntos P i ∈
L i tales que d (L 1 , L 2 ) = d (P 1 , P 2 ) > 0, en contra de la hipótesis.
Nota 12.2.5. El caso de la perpendicular común a dos subespacios afines dis-
juntos L 1 y L 2 tiene también interés cuando una de ellos, por ejemplo L 1 , se
reduce a un punto {P }. En ese caso, la perpendicular común L es simplemente
P + D(L 2 )⊥ ; se dice que L es la perpendicular a L 2 que pasa por P . Por tanto,
d (P, L 2 ) = d (P, P 2 ), donde {P 2 } = L 2 ∩ L.

Ejemplo 12.2.3.- Perpendicular a un hiperplano que pasa por un punto. Sean


un punto P y un hiperplano H, definido H por su ecuación respecto de un sis-
tema de referencia métrico R = {O; B} en E :

P R = (α1 , . . . , αn ), H : a1 x1 + · · · + an xn + a0 = 0,

para ciertos ai ∈ R. La perpendicular a H que pasa por P es la recta L = P +


D(H)⊥ . Como D(H) ⊂ V es el subespacio vectorial definido por la ecuación
a1 y 1 + · · · + an y n = at y = 0, se tiene D(H)⊥ = 〈a〉. Así,

L = P + 〈 a〉

es la perpendicular al hiperplano H por el punto P .

Nota 12.2.6. Si con respecto a un sistema de referencia métrico, un hiperplano


H tiene una ecuación de la forma a0 + a1 x1 +· · ·+ an xn = 0 = a0 + at x, entonces
el subespacio vectorial D(H)⊥ tiene dimensión 1 y está generado por el vector
a. Cualquier vector no nulo de 〈a〉 es llamado vector normal a H.
Ahora vamos a aplicar el concepto de perpendicular común a un subes-
pacio afín no vacío L ′ y un punto P 6∈ L ′ . Con la notación de la perpendicu-
lar común, consideramos L 1 = P y L 2 = L ′ . Entonces la perpendicular L tie-
ne como dirección D(L ′ )⊥ y, como tiene que pasar por P , podemos escribir
L = P + D(L ′ )⊥ . Además, L ∩ L ′ = Q y d (P, L ′ ) = d (P,Q). Este punto Q recibe un
nombre especial.

438 Álgebra Lineal y Geometría


Depto. de Álgebra

Proyección ortogonal sobre una variedad

Sea (E ,V, +) un espacio afín euclídeo, con P ∈ E y L ′ un subespacio afín


tal que P ∉ L ′ . Entonces, si L es la perpendicular común a P y L ′ , al pun-
to L ∩ L ′ (es decir, el pie de la perpendicular a L ′ trazada desde P ) lo lla-
mamos la proyección ortogonal de P sobre L ′ . Se nota habitualmente
como proyL ′ (P ).

Ejemplo 12.2.4.- En A4 (R), consideremos el punto P = (1, 0, −1, 1) y el subes-


−−−−−−−−→
pacio afín L ′ = (1, 1, 0, 0) + 〈(0, 0, 1, −1)〉. Es fácil ver que P 6∈ L ′ . Unas ecuaciones
implícitas de D(L ′ )⊥ son y 3 − y 4 = 0, por lo que la perpendicular común a P y L ′
es L : x3 − x4 + 2 = 0. Entonces L ′ ∩ L = (1, 1, −1, 1) es la proyección ortogonal de
P sobre L ′ .

Nota 12.2.7. Han aparecido dos conceptos que tienen un nombre similar, pero
que deben distinguirse. Recordemos que en un espacio vectorial euclídeo V ,
dado v ∈ V y W subespacio vectorial no trivial, podemos escribir de forma úni-
ca v = w + w ′ , con w ∈ W, w ′ ∈ W ⊥ . El vector w es la proyección ortogonal de v
sobre W . (pág. 302). La pregunta es si hay relación entre estos conceptos.
−−→ −−−→
Si fijamos un punto O ∈ L ′ , se tiene que proyD(L ′ ) (O 1 P ) = O 1Q, donde Q =
proyL ′ (P ). En efecto, se tiene que

−−→ −−→
O 1 P = w + w ′ , w ∈ D(L ′ ), w ′ ∈ D(L ′ )⊥ , w = proyD(L ′ ) (O 1 P ),

de donde P = O 1 + w + w ′ . Tenemos así la igualdad P − w ′ = O 1 + w . El lado


izquierdo es un punto de P + D(L ′ )⊥ y el lado derecho es un punto de L ′ , por lo
que es igual a la intersección L ′ ∩[P +D(L ′ )⊥ ] = Q. En otras palabras, O 1 + w = Q
y tenemos el resultado.

Dado que tenemos un procedimiento para calcular la distancia de un pun-


to a un subespacio afín no vacío L ′ , vamos a aplicarlo al caso en que L ′ es un
hiperplano para obtener una sencilla fórmula.

Álgebra Lineal y Geometría 439


Depto. de Álgebra

Distancia de un punto a un hiperplano

Sea (E ,V, +) un espacio afín euclídeo con R = {O; B} un sistema de re-


ferencia métrico. Sean P R = (α1 , . . . , αn ) ∈ E y H el hiperplano de E dado
por la ecuación H : a0 +a1 x1 +· · ·+an xn = 0 para ciertos ai ∈ R. Entonces

|a0 + a1 α1 + · · · + an αn |
d (P, H) = q .
2 2
a1 + · · · + an

P RUEBA : Sea a el vector normal al hiperplano determinado por su ecuación.


Por la nota 12.2.5, la perpendicular común a P y H es precisamente la recta

L = P + 〈a〉.

Buscamos el punto Q ∈ H ∩ L, para lo cual lo más simple es tomar un punto


arbitrario en L,
P + λa = (α1 + λa1 , . . . , αn + λan ) , λ ∈ K
e imponemos que verifique la ecuación de H. Entonces es inmediato que
a0 + a1 α1 + · · · + an αn
λ=− .
a12 + · · · + an2

Por tanto tenemos


°−−→° |a0 + a1 α1 + · · · + an αn |
° °
d (P, H) = d (P,Q) = °PQ ° = |λ| kak = q .
2 2
a1 + · · · + an

Nota 12.2.8. Sean dos hiperplanos H y H ′ en E . Entonces, si H ∩ H ′ = ; los


hiperplanos vienen dados por ecuaciones

H : a0 + a1 x1 + · · · + an xn = 0, H ′ : a0′ + a1 x1 + · · · + an xn = 0,

para ciertos a0 , a0′ , ai ∈ R, con a0 6= a0′ . Del teorema de la dimensión para subes-
pacios afines se deduce que si H ∩ H ′ = ;, entonces D(H) = D(H ′ ), por lo que
podemos suponer que D(H) y D(H ′ ) vienen dadas por la misma ecuación y,
en consecuencia, existen ecuaciones de H y H ′ que sólo difieren en el término
independiente.

440 Álgebra Lineal y Geometría


Depto. de Álgebra

Además,

|a0 − a0′ |
d (H, H ) = q ,
a12 + · · · + an2

pues si tomamos un punto P = (γ1 , . . . , γn ) ∈ H cualquiera, tenemos que


|a0′ + a1 γ1 + · · · + an γn | |a0′ − a0 |
d (P, H ) = q =q ,
a12 + · · · + an2 a12 + · · · + an2

ya que a0 + a1 γ1 + · · · + an γn = 0. Por tanto, d (P, H ′ ) no depende de P y es, en


consecuencia, d (H, H ′ ).

12.3. Hiperplano mediador

Hiperplano mediador

Sean P,Q puntos distintos de un espacio afín euclídeo (E ,V, +). Enton-
ces el conjunto de los puntos que equidistan de P y Q, notado por

MPQ = {S ∈ E | d (P, S) = d (Q, S)},

se denomina hiperplano mediador de P y Q.

Cuando dim E = 2, se denominará mediatriz de P y Q o del segmento PQ. Hay


que justificar que el conjunto MPQ es un hiperplano, que lo veremos en el si-
guiente resultado.

Cálculo del hiperplano mediador

El hiperplano mediador de dos puntos distintos P y Q es un hiperplano


−−→
de dirección 〈PQ〉⊥ , que pasa por el punto medio de P y Q.

−−→
P RUEBA : Notemos v = PQ y sea W = 〈v 〉⊥ . Sea B ′ una base ortonormal de
W . Entonces el conjunto B := { kvv k } ∪ B ′ es una base ortonormal de V . Se con-
sidera en E el sistema de referencia métrico R := {P ; B}. Se tiene P R = (0, . . . , 0)
y Q R = (kv k , 0, . . . , 0).

Álgebra Lineal y Geometría 441


Depto. de Álgebra

Sea R el punto medio del segmento que une P y Q. Entonces R R = ( kv2 k , 0, . . . , 0).
El subespacio afín H := R + W tiene por ecuación respecto de R a x1 = kv2 k .
Un punto genérico S ∈ E , con coordenadas S R = (a1 , . . . , an ), verifica d (P, S) =
d (Q, S) si y solamente si |a1 | = | kv k − a1 |. Esta última igual se verifica si y sola-
mente si a1 = kv k /2 y esto prueba el resultado. 

Ejemplo 12.3.1.- En A3 (R) consideremos los puntos P = (1, 0, 1),Q = (2, 1, −1).
−−→ −−−−−−→
Entonces el punto medio de P y Q es R = (3/2, 1/2, 0) y PQ = (1, 1, −2). De aquí,
el hiperplano mediador tiene como ecuación

3 1
π : 1 · (x1 − ) + 1 · (x2 − ) − 2 · (x3 − 0) = 0.
2 2

Ejemplo 12.3.2.- Sean A = (a1 , a2 ), B = (b 1 , b 2 ),C = (c1 , c2 ) tres puntos afín-


mente independientes en A2 (R). El hiperplano mediador M AB entre los puntos
A y B es la mediatriz del segmento AB, que es la recta de ecuación

a1 + b1 a2 + b2
M AB : (b 1 − a1 )(x − ) + (b 2 − a2 )(y − ) = 0.
2 2
Análogamente, los hiperplanos mediadores entre las otras parejas de puntos
son
a1 + c1 a2 + c2
M AC : (c1 − a1 )(x − ) + (c2 − a2 )(y − ) = 0,
2 2
c1 + b1 c2 + b2
MBC : (c1 − b 1 )(x − ) + (c2 − b 2 )(y − ) = 0.
2 2
La matriz ampliada de este sistema es
 
b 1 − a1 b 2 − a2 − 12 (b 12 − a12 ) − 12 (b 22 − a22 )
 c1 − a1 c2 − a2 − 1 (c 2 − a 2 ) − 1 (c 2 − a 2 )  ,
2 1 1 2 2 2
c1 − b 1 c2 − b 2 − 12 (c12 − b 12 ) − 12 (c22 − b 22 )

442 Álgebra Lineal y Geometría


Depto. de Álgebra

que tiene determinante igual a cero, pues la tercera fila es igual a la segunda fila
menos la primera. Por tanto, el sistema es compatible determinado y las rectas
son concurrentes en un punto O c que se denomina circuncentro del triángulo
∆ABC . Si C es la circunferencia que pasa por los vértices del triángulo, tendrá
una ecuación de la forma

C : x 2 + y 2 + α1 x + α2 y +C = 0

y se verifican las igualdades

a1 α1 + a2 α2 +C = −a12 − a22 ,
b 1 α1 + b 2 α2 +C = −b 12 − b 22 ,
c1 α1 + c2 α2 +C = −c12 − c22 .

Estas expresiones forman un sistema de ecuaciones en las incógnitas α1 , α2 ,C ,


que, mediante la regla de Cramer, tiene solución
   2 
−a12 − a22 a2 1 a1 + a22 b 12 + b 22 c12 + c22
1 1
α1 = det  −b 12 − b 22 b 2 1  = − det  a2 b2 c2 ,
∆ ∆
−c12 − c22 c2 1 1 1 1
   2 
a1 −a12 − a22 1 a1 + a2 b 1 + b 2 c1 + c22
2 2 2 2
1 1
α2 = det  b 1 −b 12 − b 22 1  = det  a1 b1 c1 ,
∆ ∆
c1 −c12 − c22 1 1 1 1
 
a1 b1 c1

donde ∆ = det a2 b 2 c2  .
1 1 1

El centro de la circunferencia C es (−α1 /2, −α2 /2), lo que nos da una fórmula
para las coordenadas de O c .

Ejemplo 12.3.3.- Mediante el uso de coordenadas, podemos introducir otro


punto notable de un triángulo △ABC . Trazamos por cada vértice la recta para-
lela al lado opuesto, lo que da lugar a un triángulo △A ′ B ′C ′, que es homotético
a △ABC mediante una homotecia de centro G el baricentro común y razón −2.
El vértice A (resp. B, C ) es el punto medio del segmento B ′C ′ (resp. A ′C ′, A ′ B ′ ).
Entonces la altura del triángulo △ABC que pasa por A es la mediatriz del
lado B ′C ′, y tenemos lo análogo para las alturas correspondientes a los vértices

Álgebra Lineal y Geometría 443


Depto. de Álgebra

MBC

M AC
Oc
B

A M AB

Figura 12.2: Circuncentro de un triángulo

B y C . En consecuencia, como las mediatrices del triángulo △A ′ B ′C ′ se cortan


en su circuncentro O c′ , las alturas de △ABC se cortan en el mismo punto, que
denominamos ortocentro de △ABC , y notaremos como H. Podemos escribir
que
H(△ABC ) = O c (△A ′ B ′C ′ ).
Además, el circuncentro O c del triángulo original △ABC se transforma en el
−−→ −−→
circuncentro O c′ del triángulo △A ′ B ′C ′, por lo que GO c′ = (−2)GO c , o bien,
−−→ −−→
G H = (−2)GO c ,

lo que implica que el baricentro, circuncentro y ortocentro están alineados so-


bre una recta que se denomina recta de Euler. Con esta relación, se tiene tam-
bién que
−−→
H = G − 2GO c = ((a1 + b 1 + c1 ) + α1 , (a2 + b 2 + c2 ) + α2 ), donde
 2   2 
a1 + a22 b 12 + b 22 c12 + c22 a1 + a22 b 12 + b 22 c12 + c22
1 1
α1 = − det  a2 b2 c2  , α2 = det  a1 b1 c1 ,
∆ ∆
1 1 1 1 1 1
 
a1 b1 c1

∆ = det a2 b 2 c2  .
1 1 1

444 Álgebra Lineal y Geometría


Depto. de Álgebra

Circuncentro
B
Baricentro
Ortocentro

Recta de Euler

Figura 12.3: Recta de Euler

Álgebra Lineal y Geometría 445


Depto. de Álgebra

446 Álgebra Lineal y Geometría


Depto. de Álgebra

12.4. Ángulo no orientado


La desigualdad CBS nos dice que dados dos vectores no nulos u, v ∈ V , con
(V, 〈·|·〉) un espacio euclídeo real, se verifica que

|〈u|v 〉| ≤ kuk kv k ,

que equivale a
〈u|v 〉
−1 ≤ ≤ 1.
kuk kv k

Por tanto, existe un único ángulo θ ∈ [0, π] tal que cos(θ) = k〈uukk|vv〉k . Esto da lugar
a la siguiente definición.

Ángulo entre vectores

Dados dos vectores no nulos u, v ∈ V , se denomina ángulo entre los


vectores al número u
d , v = θ ∈ [0, π] tal que

〈u|v 〉
cos(θ) = .
kuk kv k

Este ángulo es no orientado, en el sentido de que se verifica que u


d , v = vd
, u.

Ejemplo 12.4.1.- En R4 , consideremos los vectores


   
−4 1
   
 2   0 
u=  yv= .
 1   2 
2 2

2 2
Entonces cos(θ) = 5·3 = 15 , de donde u
d , v = 1,437 radianes.

Álgebra Lineal y Geometría 447


Depto. de Álgebra

Propiedades del ángulo entre vectores

Sean u, v ∈ V .

1. 〈u|v 〉 = 0 si y solamente si u
d , v = π/2.

2. 〈u|v 〉 > 0 si y solamente si 0 ≤ u


d , v < π/2.

3. 〈u|v 〉 < 0 si y solamente si π/2 < u


d , v ≤ π.

4. 〈u|v 〉 = kuk kv k si y solamente si u


d , v = 0.

5. 〈u|v 〉 = − kuk kv k si y solamente si u


d , v = π.

P RUEBA : Es inmediata en todos los casos. 

Supongamos que u′ ∈ 〈u〉, v ′ ∈ 〈v 〉 son vectores no nulos. Entonces pode-


mos escribir u′ = λu, v ′ = µv , con λ, µ 6= 0 y se verifica que
¯ ′ ′ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯〈u |v 〉¯ ¯〈λu|µv 〉¯ ¯λµ¯ 〈u|v 〉 ¯λµ¯ |〈u|v 〉| |〈u|v 〉|
= ° °= ¯ ¯ = ¯ ¯ = .
ku k kv k kλuk °µv ° |λ| kuk ¯µ¯ kv k ¯λµ¯ kuk kv k kuk kv k
′ ′

Por ello, podemos definir el ángulo entre dos rectas.

Ángulo entre rectas

Sean r y s dos rectas, con u ∈ D(r ) y v ∈ D(s) vectores no nulos. El án-


gulo entre las rectas r y s es el único θ ∈ [0, π/2] tal que

|〈u|v 〉|
cos(θ) = .
kuk kv k

El lema anterior nos garantiza que él ángulo entre rectas está bien definido,
pues no depende de los vectores elegidos que generan sus direcciones.

Ejemplo 12.4.2.- Consideremos el triángulo ∆ABC , con A = (0, 0), B = (1, 0),C =
(c1 , c2 ), con c1 , c2 > 0. La bisectriz interior del vértice A es la recta r 1 dada por la

448 Álgebra Lineal y Geometría


Depto. de Álgebra

igualdad
c2 x − c1 y
q = y.
c12 + c22
Vamos a probar que el ángulo formado por las rectas AB y r 1 es igual al ángulo
formado por las rectas r 1 y AC . Se verifica fácilmente que
q
−−−→ −−−−→ −−−−−−−−→
D(AB) = 〈(1, 0)〉, D(AC ) = 〈(c1 , c2 )〉, D(r 1 ) = 〈(c1 + ∆, c2 )〉, donde ∆ = c12 + c22 .

Sea θ1 el ángulo entre las rectas AB y r 1 y θ2 el ángulo entre las rectas r 1 y AC .


Entonces
¯ ¯
|c1 + ∆| ¯c1 (c1 + ∆) + c 2 ¯
2
cos(θ1 ) = , cos(θ2 ) = .
((c1 + ∆)2 + c22 )1/2 ((c1 + ∆)2 + c22 )1/2 ∆1/2
Los numeradores y denominadores de las expresiones anteriores son todos po-
sitivos, por lo que basta comprobar que cos2 (θ1 ) = cos2 (θ2 ), lo cual es una sen-
cilla manipulación algebraica.

Ángulo entre recta e hiperplano

Sea r una recta con dirección D(r ) = 〈u〉 y H un hiperplano con


D(H)⊥ = 〈a〉. El ángulo entre la recta y el hiperplano es el número
θ = π2 − θ ′ , donde θ ′ el el único número en [0, π/2] tal que

|〈u|a〉|
cos(θ ′ ) = .
k u k k ak

Ángulo entre hiperplanos

Sean H1 y H2 hiperplanos tales que D(H1 )⊥ = 〈a〉, D(H2 )⊥ = 〈b〉. El án-


gulo entre los hiperplanos es el número θ ∈ [0, π/2] tal que

|〈a|b〉|
cos(θ) = .
kak kbk

Álgebra Lineal y Geometría 449


Depto. de Álgebra

θ
θ′

Figura 12.4: Ángulo entre recta e hiperplano

H1

H2

Figura 12.5: Ángulo entre hiperplanos

450 Álgebra Lineal y Geometría


Depto. de Álgebra

En A3 (R), el ángulo entre planos se conoce como ángulo diedro.

Ejemplo 12.4.3.- Consideremos un tetraedro regular en A3 (R) con vértices


A 0 = (1, 1, 1), A 1 = (1, −1, −1), A 2 = (−1, 1, −1), A 3 = (−1, −1, 1). Vamos a calcular
los ángulos entre los diferentes componentes.

Ángulo arista-arista. Consideremos las aristas A 0 A 1 y A 0 A 2 . Entonces D(A 0 A 1 ) =


−−−−−−−→ −−−−−−−→
〈u = (0, −2, −2)〉, D(A 0 A 2 ) = 〈(−2, 0, −2)〉. El ángulo θ1 entre las aristas ve-
rifica
|〈u|v 〉| 1
cos(θ1 ) = = , de donde θ1 = π/3.
kuk kv k 2
Las aristas opuestas son perpendiculares.

Ángulo arista-cara. Consideremos la arista A 0 A 1 y la cara A 1 A 2 A 3 . En-


tonces la ecuación de la cara es x1 + x2 + x3 = −1, con vector normal
−−−−−→
a = (1, 1, 1). Si θ2′ es el ángulo entre u y a, se tiene que

2 π
cos(θ2′ ) = p , de donde θ2 = − θ2′
6 2

es el ángulo entre la arista A 0 A 1 y la cara A 1 A 2 A 3 . Como cos(θ2 ) = sen(θ2′ ),


llegamos a cos(θ2 ) = p1 .
3

Ángulo cara-cara. La ecuación de la cara A 1 A 2 A 3 es x1 + x2 + x3 = −1, con


−−−−−→
vector normal a = (1, 1, 1). La ecuación de la cara A 0 A 2 A 3 es −x1 +x2 +x3 =
−−−−−−→
1, con vector normal b = (−1, 1, 1). Entonces el ángulo diedro entre las
caras es θ3 , con
|〈a|b〉| 1
cos(θ3 ) = = .
k ak k b k 3

Nota 12.4.1. En el caso del plano, las definiciones anteriores se corresponden


con la misma situación, pues las rectas son los hiperplanos. Vamos a ver que
las tres definiciones coinciden entonces. Consideremos las rectas dadas por las
ecuaciones
r : a0 + a1 x + a2 y = 0, s : b 0 + b 1 x + b 2 y = 0.

Álgebra Lineal y Geometría 451


Depto. de Álgebra

A0

A1

A3 A2

Figura 12.6: Tetraedro

452 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces
−−−−−−→ −−−−−→
D(r ) = 〈u = (a2 , −a1 )〉, D(r )⊥ = 〈a = (a1 , a2 )〉,
−−−−−−→ −−−−−→
D(s) = 〈v = (b 2 , −b 1 )〉, D(s)⊥ = 〈b = (b 1 , b 2 )〉.

Para probar que las tres definiciones coinciden, debemos probar las igualdades
µ ¶1/2
|〈u|v 〉| 〈u|b〉2 |〈a|b〉|
= 1− 2 2
= .
kuk kv k kuk kbk kak kbk

En efecto,

〈u|v 〉 = a2 b 2 + a1 b 1 = 〈a|b〉,
kuk2 = a12 + a22 = kak2 ,
kv k2 = b 12 + b 22 = kbk2 .

Por otra parte, 〈u|b〉 = a2 b 1 − a1 b 2 y

(a2 b 1 − a1 b 2 )2 (a12 + a22 )(b 12 + b 22 ) − (a2 b 1 − a1 b 2 )2 (a1 b 1 + a2 b 2 )2 〈a|b〉2


1− = = = ,
kuk2 kbk2 kak2 kbk2 kak2 kbk2 kak2 kbk2

con lo que tenemos probadas las igualdades.

Álgebra Lineal y Geometría 453


Depto. de Álgebra

454 Álgebra Lineal y Geometría


Capítulo 13

Movimientos y semejanzas

En este tema trabajaremos en el espacio euclídeo (An (R), Rn , +), con res-
pecto a un sistema de referencia métrico, por lo que el producto escalar de dos
vectores u y v de Rn tiene la forma

X
n
〈u|v 〉 = ui v i .
i =1

13.1. Movimientos
Tras definir los espacios afines hemos estudiado unas aplicaciones entre
ellos especiales. Verificaban que si había una relación de proporcionalidad en-
tre los vectores asociados a unos puntos, los vectores asociados a las imágenes
de esos punto mantenían la misma proporcionalidad. Con los espacios afines
euclídeos procedemos de manera análoga. El invariante a estudiar es la distan-
cia entre puntos y estudiaremos las afinidades que conserven la distancia.

Movimiento

Un movimiento es una afinidad f : An (R) −→ An (R) que verifica que su




isomorfismo vectorial asociado f es una isometría. El conjunto de los
movimientos se denota Mo(An (R)).



Nota 13.1.1. Recordemos que, dada una afinidad f , el isomorfismo vectorial f
viene dado por
− ³−−→´ −−−−−−−→

f PQ = f (P ) f (Q),

455
Capítulo 13

Movimientos y semejanzas

En este tema trabajaremos en el espacio euclídeo (An (R), Rn , +), con res-
pecto a un sistema de referencia métrico, por lo que el producto escalar de dos
vectores u y v de Rn tiene la forma

X
n
〈u|v 〉 = ui v i .
i =1

13.1. Movimientos
Tras definir los espacios afines hemos estudiado unas aplicaciones entre
ellos especiales. Verificaban que si había una relación de proporcionalidad en-
tre los vectores asociados a unos puntos, los vectores asociados a las imágenes
de esos punto mantenían la misma proporcionalidad. Con los espacios afines
euclídeos procedemos de manera análoga. El invariante a estudiar es la distan-
cia entre puntos y estudiaremos las afinidades que conserven la distancia.

Movimiento

Un movimiento es una afinidad f : An (R) −→ An (R) que verifica que su




isomorfismo vectorial asociado f es una isometría. El conjunto de los
movimientos se denota Mo(An (R)).



Nota 13.1.1. Recordemos que, dada una afinidad f , el isomorfismo vectorial f
viene dado por
− ³−−→´ −−−−−−−→

f PQ = f (P ) f (Q),

459
Depto. de Álgebra



y, dado un sistema de referencia afín R = {O; B}, MB ( f ) es precisamente la
submatriz cuadrada de orden n formada al suprimir la primera fila y la primera
columna de MR ( f ):
 
1 0 ... 0  
 b 1 a11 · · · a1n  a 11 · · · a 1n
  →
−  . .. .. 
MR ( f ) =  . . . .  , MB ( f ) =  .. . . .
 .. .
. . . .
. 
an1 · · · ann
b n an1 · · · ann

Ejemplo 13.1.1.- Una traslación es una afinidad τ que verifica → −


τ = idV . Cla-
→−
ramente la matriz de τ es I n en cualquier base, por lo que las traslaciones son
movimientos.

Ejemplo 13.1.2.- Las homotecias se caracterizan por el hecho de que su iso-


morfismo vectorial asociado es λ idV , para algún λ 6= 0, 1. Nuevamente, la ma-
triz del isomorfismo en cualquier base es λI n . Así, una homotecia es un movi-
miento si y solamente si su razón λ es igual a −1. Estas homotecias tan particu-
lares se denominan simetrías centrales de centro el punto fijo de la homotecia,
y las notaremos σC , con C el centro citado. Para todo punto Q ∈ An (R) se verifi-
−−→
ca que σC (Q) = C − CQ.

Caracterización de los movimientos



(a) f es un movimiento si y solamente si MB ( f ) es ortogonal, para
cualquier base ortonormal B.
→−
(b) f es un movimiento si °→y solamente
° si f conserva el módulo de
°− °
los vectores, es decir, ° f (u)° = kuk.

(c) f es un movimiento si y solamente si es una afinidad que pre-


serva las distancias. Esto es, para cualesquiera P,Q ∈ An (R),
d ( f (P ), f (Q)) = d (P,Q).

460 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA :

− →

(a) Se tiene porque f es isometría si y solamente si MB ( f ) es ortogonal,
para cualquier base ortonormal B (pág. 329).


(b) Si f es un movimiento, entonces f conserva el producto escalar, por de-
finición de isometría y es equivalente a conservar la norma inducida (pág.
295).

(c) Si f es movimiento, por el apartado (b) se sigue que


°−−−−−−−→° °→ ° ° °
° ° °− −−→ ° °−−→°
d ( f (P ), f (Q)) = ° f (P ) f (Q)° = ° f (PQ)° = °PQ ° = d (P,Q).

Para la otra implicación basta observar que si f conserva las distancias,


conserva el módulo de vectores:
°→ ° °−−−−−−−−−−→°
°− ° ° °
° f (u)° = ° f (P ) f (P + u)° = d ( f (P ), f (P + u)) = d (P, P + u) = kuk .

Es de hacer notar que el conjunto de los movimientos en An (R) es un grupo


para la composición de aplicaciones, pues es una operación interna y la inversa
de una isometría es también una isometría.
Nota 13.1.2. La condición de que f : An (R) → An (R) sea una aplicación que
conserva las distancias es suficiente para probar que f es una aplicación afín
(Berger, prop. 9.1.3).
Nota 13.1.3. Así como los automorfismos vectoriales se corresponden con los
cambios de base, y las afinidades con los cambios de sistema de referencia afín,
los movimientos se corresponden con los cambios de sistema de referencia mé-
tricos.


Nota 13.1.4. Si f es un movimiento, f conserva los ángulos entre vectores, es

−á →
− →

decir, ( f (u), f (v )) = (ƒ
u, v ), pues f conserva el producto escalar.


Nota 13.1.5. Los autovalores de una isometría f tienen módulo 1. En particu-
→−
lar, los únicos autovalores reales de f son el 1 y el −1. Además, el determinante


de la matriz de f respecto de una base ortonormal de V = Rn (y la matriz de
f respecto a un sistema de referencia métrico de An (R)) solamente puede to-
mar los valores 1 y −1. Recordemos que este determinante es independiente
del sistema de referencia elegido.

Álgebra Lineal y Geometría 461


Depto. de Álgebra

Movimientos directos e indirectos

Decimos que f es un movimiento directo si el determinante de cual-


quier matriz MR ( f ) vale 1, y diremos que es indirecto si este determi-
nante vale −1.

Ejemplo 13.1.3.- Las traslaciones son movimientos directos en cualquier di-


mensión. Las simetrías centrales son movimientos directos en espacios de di-
mensión par e indirectos en espacios de dimensión impar.

Ejemplo 13.1.4.- Introducimos un nuevo ejemplo de movimiento: las sime-


trías hiperplanas. Para ello, fijamos un hiperplano H, que denominaremos eje
de la simetría y definimos la aplicación siguiente:

σH : An (R) −→ An (R)
−−→
P 7−→ σH (P ) = P + 2PQ,

donde Q es el pie de la perpendicular a H trazada desde P . Es decir,

Q = [P + D(H)⊥ ] ∩ H.

En particular, Q es el punto medio de P y σH (P ). Vamos a probar que la aplica-


ción σH , llamada simetría hiperplana de hiperplano H, es un movimiento de
An (R).
Escogemos en primer lugar un sistema de referencia métrico de An (R). Para
ello, sea u ∈ D(H)⊥ de módulo 1 y {v1 , . . . , vn−1 } una base ortonormal de D(H).
Entonces
B = {v1 , . . . , vn−1 , u}
es una base ortonormal de Rn . Tomamos como origen un punto cualquiera O ∈
H para completar un sistema de referencia métrico R = {O; B}. Respecto de
este sistema de referencia, la ecuación de H es xn = 0.

462 Álgebra Lineal y Geometría


Depto. de Álgebra

Calculemos ahora σH (P )R en función de P R , siendo P un punto cualquiera


de An (R). Identificamos en adelante coordenadas respecto de R y puntos P =
P R = (a1 , . . . , an ). Entonces la perpendicular a H desde P es

P + D(H)⊥ = L : {x1 = a1 , · · · , xn−1 = an−1 }, y Q = L ∩ H = (a1 , . . . , an−1 , 0).

y, por tanto,
−−−−−−−−−−→
σH (P ) = (a1 , . . . , an ) + 2(0, . . . , 0, −an ) = (a1 , . . . , an−1 , −an ).

Así, σH es una afinidad, por estar definidas sus ecuaciones por la matriz
 
1 0 ··· 0 0
 
 0 1 
 .. .. 
MR (σH ) = 
 . . ,

 
 0 1 
0 −1

y la matriz asociada a − σ→ −→
H es ortogonal. Esto implica que σ H es una isome-
tría y, por tanto, σH es un movimiento. Una propiedad inmediata, bien de la
definición, bien de la expresión matricial de σH , es que σ2H = id, esto es, que
σ−1
H = σH .
La variedad de puntos fijos, a partir de la ecuación, es el conjunto de puntos
que verifican xn = −xn , es decir, el hiperplano H. Otra forma de verificarlo es
que, como todos los puntos de H permanecen fijos, la variedad de puntos fijos
de la simetría es, al menos, de dimensión n − 1. Como esta aplicación no es la
identidad, tiene que coincidir con H. Como consecuencia, la restricción de σH
al hiperplano H es la identidad idH .
Además, D(H) = ker(− σ→
H − idV ), es decir, la dirección de H coincide con el
−→
subespacio propio del autovalor 1, y D(H)⊥ = ker(σH + idV ).
Una simetría hiperplana es un movimiento indirecto. En el plano afín eu-
clídeo A2 (R), el hiperplano H es una recta r y la llamaremos simetría axial de
eje r . En el espacio afín euclídeo A3 (R), el hiperplano H es un plano π y habla-
remos de la simetría especular o plana de plano π o reflexión con respecto al
plano π.

Álgebra Lineal y Geometría 463


Depto. de Álgebra

Ejemplo 13.1.5.- En el espacio afín euclídeo A4 (R), fijado un sistema de refe-


rencia métrico, calculamos las ecuaciones de la simetría hiperplana σH defini-
da por el hiperplano H : x1 + x2 + x3 + x4 = 4. Vamos a resolverlo de dos formas
distintas. El primer método consiste en calcular la imagen de un punto gené-
rico P = (a1 , a2 , a3 , a4 ) y obtener la matriz a partir de la expresión de f (P ). El
segundo consiste en escoger un sistema de referencia métrico respecto del cual
la matriz de la simetría sea sencilla, es decir, tenga muchas entradas nulas salvo
algún ±1. Después se realiza el cambio de sistema de referencia para obtener
las ecuaciones respecto del sistema de referencia métrico de partida.
Primer método: Sea P = (a1 , a2 , a3 , a4 ) ∈ A4 (R) un punto cualquiera; su simétri-
co es σH (P ) = (a1′ , a2′ , a3′ , a4′ ), que verifica que Q = H ∩ (P + D(H)⊥ ) es el punto
−−−−−−→
medio entre P y σH (P ). La recta P + D(H)⊥ es (a1 , a2 , a3 , a4 ) + 〈(1, 1, 1, 1)〉 y sus-
tituimos las ecuaciones paramétricas de la recta en la ecuación implícita de H:

1
(a1 +λ)+(a2 +λ)+(a3 +λ)+(a4 +λ) = 4, de donde λ = (4 −(a1 + a2 + a3 + a4 )).
4

De las condiciones

a1 + a1′ a2 + a2′ a3 + a3′ a4 + a4′


= a1 + λ, = a2 + λ, = a3 + λ, = a4 + λ,
2 2 2 2

obtenemos

1 1 1 1
a1′ = a1 + 2λ = 2 + a1 − a2 − a3 − a4 ,
2 2 2 2
′ 1 1 1 1
a2 = a2 + 2λ = 2 − a1 + a2 − a3 − a4 ,
2 2 2 2
1 1 1 1
a3′ = a3 + 2λ = 2 − a1 − a2 + a3 − a4 ,
2 2 2 2
1 1 1 1
a4′ = a4 + 2λ = 2 − a1 − a2 − a3 + a4 .
2 2 2 2

Por tanto, la matriz de σH es


 
1 0 0 0 0
 2 1/2 −1/2 −1/2 −1/2 
 
 
 2 −1/2 1/2 −1/2 −1/2  .
 
 2 −1/2 −1/2 1/2 −1/2 
2 −1/2 −1/2 −1/2 1/2

Segundo método: Sabemos que si R = {O; v1 , v2 , v3 , v4 } es un sistema de refe-

464 Álgebra Lineal y Geometría


Depto. de Álgebra

rencia métrico tal que O ∈ H, {v1 , v2 , v3 } ⊂ D(H) y v4 ∈ D(H)⊥ entonces

 
1 0 0 0 0
 0 1 0 0 0 
 
 
MR (σH ) =  0 0 1 0 0 .
 
 0 0 0 1 0 
0 0 0 0 −1

Calcularemos un sistema de referencia métrico R de este tipo y luego ob-


tendremos la matriz MC (σH ) de σH respecto del sistema de referencia canóni-
co C como

MC (σH ) = M(R, C )MR (σH )M(C , R) = M(R, C )MR (σH )M(R, C )−1 .

−−−−−−→
Podemos tomar O = (1, 1, 1, 1) ∈ H. Como D(H)⊥ = 〈(1, 1, 1, 1)〉, escogemos

µ−−−−−−−−→¶
1 1 1 1
v4 = , , , .
2 2 2 2

Una base de D(H) : y 1 + y 2 + y 3 + y 4 = 0 es {u1 , u2 , u3 } ⊂ D(H), donde

−−−−−−−−→
u1 = (−1, 1, 0, 0),
−−−−−−−−→
u2 = (−1, 0, 1, 0),
−−−−−−−−→
u3 = (−1, 0, 0, 1).

Aplicamos el procedimiento de Gram–Schmidt para obtener una base orto-


normal

Álgebra Lineal y Geometría 465


Depto. de Álgebra

−−−−−−−−→
w1 = u1 = (−1, 1, 0, 0),
〈u2 |w1 〉 −−−−−−−−→ 1 −−−−−−−−→
w 2 = u2 − w1 = (−1, 0, 1, 0) − (−1, 1, 0, 0)
〈w1 |w1 〉 2
µ−−−−−−−−−−→¶
1 1
= − , − , 1, 0 ,
2 2
〈u3 |w1 〉 〈u3 |w2 〉
w 3 = u3 − w1 − w2
〈w1 |w1 〉 〈w2 |w2 〉
µ −−−−−−−−−→¶

−−−−−−−−→ 1 −−−−−−−−→ 1 1 1
= (−1, 0, 0, 1) − (−1, 1, 0, 0) − − , − , 1, 0
2 3 2 2
µ−−−−−−−−−−−−→¶
1 1 1
= − ,− ,− ,1 ,
3 3 3
µ−−−−−−−−−−−−→¶
w1 1 1
v1 = = − p , p , 0, 0 ,
kw1 k 2 2
Ã−−−−−−−−−−−−r −−−−→!
w2 1 1 2
v2 = = −p ,−p , ,0 ,
kw2 k 6 6 3
Ã−−−−−−−−−−−−−−−−−−−−−p −−→!
w3 1 1 1 3
v3 = = − p ,− p ,− p , .
kw3 k 2 3 2 3 2 3 2

Una vez hallado R obtenemos la matriz


 
1 0 0 0 0
 1 − p1 − p1 − 1
p 1 
 2 6 2 3 2 
 
 1 p1 − p1 − p1 1 
M(R, C ) =  2 q6 2 3 2 ,
 2 1 1

 1 0 − p 
 3 2 3
p 2 
3 1
1 0 0 2 2

calculamos su inversa, que es muy fácil, ya que en la submatriz inferior dere-


cha nos encontramos simplemente con la traspuesta de la submatriz inferior
derecha de M(R, C ), que es una matriz ortogonal:
 
1 0 0 0 0
 0 − p1 p1 0 0 
 2 2 
 q 
 
M(C , R) = M(R, C )−1 =  0 − p16 − p16 2
3
0 .
 p 
 1 1 1 3 
 0 − 2p3 − 2p3 − 2p3 2 
1 1 1 1
−2 2 2 2 2

466 Álgebra Lineal y Geometría


Depto. de Álgebra

Finalmente aplicamos la fórmula del cambio de sistema de referencia para ob-


tener  
1 0 0 0 0
 2 1 −1 −1 −1 
 2 2 2 2 
 
MC (σH ) =  2 − 21 21 − 21 − 12  .
 
 2 − 21 − 21 21 − 12 
2 − 21 − 21 − 21 12

Nota 13.1.6. Fijado un sistema de referencia métrico R = {O; B} en An (R) y un


hiperplano de ecuación H : a0 + a1 x1 + · · · + an xn = 0 podemos deducir una fór-
mula sencilla que nos permite calcular las coordenadas de la imagen de σH (P ),
donde σH es la simetría hiperplana asociada a H. Por definición, σH (P ) = P +
−−→
2PQ, donde Q es la proyección ortogonal de P sobre H. Sea a el vector normal
al hiperplano determinado por su ecuación. Cuando obtuvimos la fórmula de
la distancia de un punto a un hiperplano (pág. 444), llegamos a que
−−→
−−→ a0 + a1 α1 + · · · + an αn a0 + 〈OP |a〉
PQ = λa, donde λ = − =− .
kak2 kak2
Entonces
2 −−→
σH (P ) = P + 2λa = P − 2
(a0 + 〈OP |a〉) · a.
k ak
Si el hiperplano H viene dado por un vector normal a y un punto M por el que
−−→
pasa, entonces 〈OM |a〉 = −a0 , de donde
2 −−→ 2 −−→ −−→
σH (P ) = P − 2
(a0 + 〈OP |a〉) · a = P − 2
(−〈OM|a〉 + 〈OP |a〉) · a
k ak k ak
2 −−→ −−→ 2 −−→
=P− 2
(〈OP − OM |a〉) · a = P − 〈MP |a〉 · a. (13.1.1)
k ak k ak 2

13.2. Teorema de Cartan–Dieudonné


El teorema de Cartan–Dieudonné nos permite una primera clasificación
(geométrica) de los movimientos. El enunciado es muy sencillo:

Teorema de Cartan–Dieudonné

Un movimiento en An (R), n ≥ 1, es composición de, a lo sumo, n + 1


simetrías hiperplanas.

Álgebra Lineal y Geometría 467


Depto. de Álgebra

P RUEBA : Sea L f el subespacio afín formado por los puntos fijos de f . Si


L f = An (R), entonces f = id = σ2H , para cualquier simetría hiperplana σH . Si
L f 6= An (R), es decir, f 6= id, vamos a construir otro movimiento g tal que su
variedad de puntos fijos L g contenga estrictamente a L f . Para ello, tomemos
un punto P tal que f (P ) 6= P y sea H el hiperplano mediador de P y f (P ). Defi-
nimos entonces el movimiento g = σH ◦ f , donde σH es la simetría hiperplana
asociada a H. Se verifican las siguientes propiedades:

1. P ∈ L g . Por la elección de H, tenemos que σH (P ) = f (P ), de donde

g (P ) = σH ( f (P )) = P.

2. L f ⊂ H. Sea Q ∈ L f . Como f es movimiento, se tiene que

d (P,Q) = d ( f (P ), f (Q)) = d ( f (P ),Q).

Esto significa que Q equidista de P y f (P ), por lo que pertenece al hiper-


plano mediador H.

3. L f ⊂ L g . Sea Q ∈ L f . Entonces

g (Q) = σH ( f (Q)) = σH (Q) = Q.

Por tanto, como P ∉ L f , el subespacio afín L g contiene estrictamente a L f ,


puesto que contiene a L f + {P }.
Así, aplicamos este proceso de forma reiterada y en, a lo sumo n +1 pasos, la
variedad de puntos fijos del movimiento resultante es An (R) y, por tanto, dicho
movimiento es la identidad. Tendremos así que

id = σt ◦ · · · ◦ σ1 ◦ f , para t ≤ n + 1, de donde f = σ1 ◦ · · · ◦ σt ,

usando que toda simetría es su propia inversa. 

Nota 13.2.1. Un movimiento distinto de la identidad con un hiperplano de pun-


tos fijos es una simetría hiperplana, pues en la demostración anterior solamen-
te hace falta una composición para llegar a la identidad.

Ejemplo 13.2.1.- Veamos, por ejemplo, cómo describir una traslación en pro-
ducto de simetrías. Esto nos permitirá probar que, a veces, no hacen falta tantas
simetrías como cabría esperar por la demostración del teorema. Partimos de la,

468 Álgebra Lineal y Geometría


Depto. de Álgebra

en principio, peor situación posible, puesto que las traslaciones no tienen pun-
tos fijos.
Fijado en An (R) un sistema de referencia métrico R = {O; B}, respecto del
cual tomaremos coordenadas sin mención expresa, la traslación de vector u =
−−−−−−−−→
(a1 , . . . , an ) se define como

f = τu : An (R) −→ An (R)
P 7−→ P + u.

Siguiendo el método usado en la demostración del teorema, hemos de escoger


un punto P , no fijo, (o sea, cualquiera) y hallar H1 , el hiperplano mediador de
P y f (P ). Pero
−−−−→
P f (P ) = u, por lo que u⊥D(H1 ).

Así, P es fijo para f 1 = σ1 ◦ f , donde σ1 es la simetría asociada a H1 . Sea H2 =


P + D(H1 ), que es el hiperplano paralelo a H1 que pasa por P . Si R = P + v ∈
P + D(H1 ), entonces


f 1 (R) = f 1 (P ) + f 1 (v ), con v ∈ D(H1 )
−−−−→ −
→ − →
= P + (σ1 ◦ f )(v ) = P + (σ1 ◦ τu )(v )
= P +− 1
→(v ) = P + v = R,
σ


→ −−→
porque τu = idV y (σ1 )|D(H1 ) = idD(H1 ) .
Por tanto, el conjunto de puntos fijos de f 1 contiene al hiperplano H2 =
P +D(H1 ). El movimiento f 1 no es la identidad, pues en tal caso idAn (R) = σ1 ◦ f ,
y sabemos que las traslaciones son movimientos directos. Por tanto, L f 1 = H2
y, en consecuencia, f 1 es una simetría hiperplana. Esto prueba que toda trasla-
ción de vector u es producto de dos simetrías hiperplanas de hiperplanos para-
lelos tales que la distancia entre ellos es kuk /2. Son interesantes las siguientes
cuestiones:

La elección del punto P es arbitraria, por lo que la descomposición de la


traslación τu no es única, pero si fijamos P entonces la descomposición
queda unívocamente determinada.

El producto de las simetrías no conmuta. Si invertimos el orden, obtene-


mos la traslación de vector opuesto.

Consideremos ahora dos simetría hiperplanas σ1 , σ2 de hiperplanos res-


pectivos H1 y H2 , paralelos y disjuntos. Podemos encontrar un sistema de

Álgebra Lineal y Geometría 469


Depto. de Álgebra

τ u = σ2 ◦ σ1
H1
H2

1 f (P )
P 2u

Figura 13.1: Producto de simetrías hiperplanas con H1 ||H2

referencia tal que las ecuaciones de los hiperplanos son H1 : xn = 0, H2 :


xn = β, y las matrices respectivas de σ1 y σ2 son
   
1 0 ... 0 0 1 0 ... 0 0
   
 0 1   0 1 
 .. ..   .. .. 
A1 = 
 . .  , A2 = 
  . . .

   
 0 1   0 1 
0 −1 2β −1

−−−−−−→
Si escribimos u = (0, . . . , β), entonces H2 = τu (H1 ) y la matriz de σ1 ◦σ2 es
 
1 0 ... 0 0
 
 0 1 
 .. .. 
A1 A2 = 
 . . ,

 
 0 1 
2β 1

que es la traslación de vector 2u.

Nota 13.2.2. El teorema de Cartan-Dieudonné nos ofrece un método iterado


para descomponer un movimiento dado por sus ecuaciones en producto de
simetrías hiperplanas. Sea R = {O; e1 , . . . , en } el sistema de referencia métrico
estándar y llamemos
P 0 = O, P i = O + ei , 1 ≤ i ≤ n.

470 Álgebra Lineal y Geometría


Depto. de Álgebra

Si P 0 no es punto fijo de f , entonces calculamos σ0 la simetría hiperplana defi-


nida por el hiperplano mediados de P 0 f (P 0 ). Definimos f 1 = σ0 ◦ f y continua-
mos el procedimiento con f 1 y los puntos P 1 , . . . , P n .
Si P 0 es un punto fijo de f , entonces continuamos el procedimiento con
f 1 = f y P 1 , . . . , P n . Observemos que, en ambos casos, P 0 es punto fijo de f 1 .
En general, dado f i y los puntos P i , . . . , P n , tenemos que P 0 , . . . , P i −1 son
puntos fijos de f i . Determinamos si P i es fijo para P i . Si no lo es, calculamos
σi la simetría hiperplana de eje el hiperplano mediador de P i f (P i ) y defini-
mos f i +1 = σi ◦ f i . Si P i es punto fijo, asignamos f i +1 = f i . En ambos casos,
P 0 , . . . , P i −1 , P i son puntos fijos de f i +1 .
Tras n + 1 pasos llegamos a f n+1 , que es un movimiento que deja invariante
a los puntos P 0 , P 1 , . . . , P n , por lo que es la identidad.

Ejemplo 13.2.2.- Consideremos en el espacio afín euclídeo A4 (R) la afinidad f


dada por la matriz  
1 0 0 0 0
 2 0 0 0 1 
 
 
M =  2 0 0 1 0 .
 
 2 0 1 0 0 
2 1 0 0 0


Es un movimiento, pues la matriz de f es ortogonal. Para descomponerla en
producto de simetrías hiperplanas, vamos a tomar el conjunto de puntos P 0 =
O, P i = O + ei , 1 ≤ i ≤ 4, que forman un sistema de referencia métrico. Comen-
zamos con P 0 . Si es fijo, tomamos el siguiente. Recordemos que en la prueba
del teorema de Cartan-Dieudonné, el conjunto de puntos fijos se va incremen-
tando en cada paso.
Sea P 0 = (0, 0, 0, 0). Entonces f (P 0 ) = (2, 2, 2, 2) 6= P 0 , por lo que no es fijo. Sea
H0 el hiperplano mediador de P 0 f (P 0 ), que pasa por el punto
−−−−−−→ −−−−−−→
M0 = (1, 1, 1, 1), y tiene vector normal n0 = P 0 f (P 0 ) = (2, 2, 2, 2).

Sea σ0 la simetría asociada a H0 , para la que se tiene la expresión


2 −−−→
σ0 (S) = S − 〈n0 |M0 S〉 · n0 ,
〈n0 |n0 〉
según la ecuación (13.1.1) (pág. 467), y definimos f 1 = σ0 ◦ f . Consideramos
ahora P 1 = (1, 0, 0, 0). Se tiene que

f 1 (P 1 ) = σ0 ( f (P 1 )) = σ0 (2, 2, 2, 3) = (−1/2, −1/2, −1/2, 1/2) 6= P 1 .

Álgebra Lineal y Geometría 471


Depto. de Álgebra

Sea H1 el hiperplano mediador de P 1 f 1 (P 1 ), que pasa por el punto


−−−−−−−−−−−−−−−−−−→
M1 = (1/4, −1/4, −1/4, 1/4) y tiene vector normal n1 = (−3/2, −1/2, −1/2, 1/2).

Sea σ1 la simetría asociada a H1 , cuya expresión es


2 −−−→
σ1 (S) = S − 〈n1 |M1 S〉 · n1 ,
〈n1 |n1 〉
y definimos el nuevo movimiento f 2 = σ1 ◦ f 1 . Pasamos ahora al siguiente punto
P 2 = (0, 1, 0, 0), para el que calculamos

f 2 (P 2 ) = (σ1 ◦ σ0 )( f (P 2 )) = σ1 (σ0 (2, 2, 3, 2))


= σ1 (−1/2, −1/2, 1/2, −1/2) = (0, −1/3, 2/3, −2/3) 6= P 2 .

No es fijo para f 2 , por lo que tomamos H2 el hiperplano mediador de P 2 f 2 (P 2 ),


que pasa por el punto
−−−−−−−−−−−−−−−→
M2 = (0, 1/3, 1/3, −1/3) y vector normal n2 = (0, −4/3, 2/3, −2/3).

Sea σ2 la simetría asociada a H2 , de expresión


2 −−−→
σ2 (S) = S − 〈n2 |M2 S〉 · n2 ,
〈n2 |n2 〉
y definimos f 3 = σ2 ◦ f 2 . El nuevo punto a considerar es P 3 = (0, 0, 1, 0), para el
que se tiene

f 3 (P 3 ) = (σ2 ◦ σ1 ◦ σ0 )( f (P 3 )) = (σ2 ◦ σ1 ◦ σ0 )(2, 3, 2, 2)


= (σ2 ◦ σ1 )(−1/2, 1/2, −1/2, −1/2) = σ2 (0, 2/3, −1/3, −2/3)
= (0, 0, 0, −1) 6= P 3 .

Sea H3 el hiperplano mediador de P 3 f 3 (P 3 ), que pasa por el punto


−−−−−−−−−→
M3 = (0, 0, 1/2, −1/2) y vector normal n3 = (0, 0, −1, −1).

Sea σ3 la simetría asociada a H3 , de expresión


2 −−−→
σ3 (S) = S − 〈n3 |M3 S〉 · n3 ,
〈n3 |n3 〉
y definimos f 4 = σ3 ◦ f 3 . Tomamos ahora el punto P 4 = (0, 0, 0, 1) y obtenemos

f 4 (P 4 ) = (σ3 ◦ σ2 ◦ σ1 ◦ σ0 )( f (P 4 )) = (σ3 ◦ σ2 ◦ σ1 ◦ σ0 )(3, 2, 2, 2)


= (σ3 ◦ σ2 ◦ σ1 )(1/2, −1/2, −1/2, −1/2) = (σ3 ◦ σ2 )(0, −2/3, −2/3, −1/3)
= σ3 (0, 0, −1, 0) = (0, 0, 0, 1).

472 Álgebra Lineal y Geometría


Depto. de Álgebra

Esto significa que P 4 es punto fijo de f 4 , pero sabemos (por la construcción)


que P 0 , P 1 , P 2 , P 3 también son puntos fijos de f 4 . Como forman un sistema de
referencia, deducimos que f 4 = idE , de donde
f = σ0 ◦ σ1 ◦ σ2 ◦ σ3 .
Observemos que det(M) = 1, por lo que f es un movimiento directo y se des-
compone en producto de un número par de simetrías. En el momento que vi-
mos que f 2 no era la identidad, ya sabíamos que la descomposición tenía que
contener cuatro simetrías.

Ejemplo 13.2.3.- Consideremos el movimiento del ejemplo anterior (pág. 471)


dado por la matriz  
1 0 0 0 0
 2 0 0 0 1 
 
 
M =  2 0 0 1 0 .
 
 2 0 1 0 0 
2 1 0 0 0
Podemos calcular las ecuaciones de las simetrías hiperplanas que intervienen
en su descomposición.
La simetría σ0 está definida por el hiperplano H0 , que es el hiperplano me-
diador de P 0 f (P 0 ): pasa por el punto
−−−−−−→ −−−−−−→
M0 = (1, 1, 1, 1), y tiene vector normal n0 = P 0 f (P 0 ) = (2, 2, 2, 2).
Es el mismo caso que vimos en el ejemplo de cálculo de la ecuación de una
simetría hiperplana (pág. 464). Obtuvimos que
 
1 0 0 0 0
 2 1/2 −1/2 −1/2 −1/2 
 
 
MR (σ0 ) =  2 −1/2 1/2 −1/2 −1/2  .
 
 2 −1/2 −1/2 1/2 −1/2 
2 −1/2 −1/2 −1/2 1/2
Mediante la fórmula
2 −−−→
σ0 (S) = S − 〈n0 |M0 S〉 · n0 ,
〈n0 |n0 〉
llegamos al mismo resultado. Para las restantes simetrías, obtenemos las si-
guientes matrices:

Álgebra Lineal y Geometría 473


Depto. de Álgebra

Simetría σ1, de eje el hiperplano H1 que pasa por M1 = (1/4, −1/4, −1/4, 1/4)
−−−−−−−−−−−−−−−−−−→
y vector normal n1 = (−3/2, −1/2, −1/2, 1/2):
 
1 0 0 0 0
 0 −1/2 −1/2 −1/2 1/2 
 
 
MR (σ1 ) =  0 −1/2 5/6 −1/6 1/6  .
 
 0 −1/2 −1/6 5/6 1/6 
0 1/2 1/6 1/6 5/6

Simetría σ2 , de eje el hiperplano H2 que pasa por M2 = (0, 1/3, 1/3, −1/3)
−−−−−−−−−−−−−−−→
y vector normal n2 = (0, −4/3, 2/3, −2/3):
 
1 0 0 0 0
 0 1 0 0 0 
 
 
MR (σ2 ) =  0 0 −1/3 2/3 −2/3  .
 
 0 0 2/3 2/3 1/3 
0 0 −2/3 1/3 2/3

Simetría σ3 , de eje el hiperplano H3 que pasa por M3 = (0, 0, 1/2, −1/2) y


−−−−−−−−−→
vector normal n2 = (0, 0, −1, −1):
 
1 0 0 0 0
 0 1 0 0 0 
 
 
MR (σ3 ) =  0 0 1 0 0 .
 
 0 0 0 0 −1 
0 0 0 −1 0

13.3. Movimientos del plano


Vamos a estudiar y clasificar ahora todos los movimientos del plano. Sea en-
tonces f ∈ Mo(A2 (R)). Queremos saber cómo actúa en función de sus propie-
dades o invariantes algebraicos y geométricos, principalmente los autovalores


de f y sus multiplicidades, la variedad de puntos fijos de f , que notaremos L f


y las direcciones invariantes de f (o autovectores de f ).
A partir de la forma diagonal por cajas para matrices ortogonales de orden


2 (pág. 356), sabemos que la matriz de f , respecto de una cierta base ortonor-
mal, es diagonal por cajas, siendo las posibles cajas
µ ¶
a −b
(1), (−1), , con a 2 + b 2 = 1, b 6= 0.
b a

474 Álgebra Lineal y Geometría


Depto. de Álgebra

Movimientos en el plano

Sea f : A2 (R) → A2 (R) un movimiento. Entonces existe un sistema de


referencia métrico tal que la matriz de f respecto de él es de alguna de
las formas
   
1 0 0 1 0 0
 α 1 0 ,  α 1 0 ,
β 0 1 β 0 −1
   
1 0 0 1 0 0 ½ 2
 α −1    a + b 2 = 1,
0 , α a −b ,
b 6= 0.
β 0 −1 β b a

Nota 13.3.1. Si el subespacio afín de los puntos fijos L f de un movimiento f


contiene un punto P , sabemos que



L f = P + ker( f − id).

Identidad y traslación
 
1 0 0

Partimos de la matriz α 1 0 . Separaremos el estudio dependiendo de
β 0 1
la variedad de puntos fijos de f , que notaremos L f y que tiene por ecuaciones

½
α + x1 = x1
Lf :
β + x2 = x2

Identidad

Si L f 6= ;, las ecuaciones anteriores nos dicen que ha de ser α = β = 0 y, en


consecuencia f es la identidad.

Traslación
−−−→
Si L f = ;, entonces f es la traslación τu , con u = (α, β).

Álgebra Lineal y Geometría 475


Depto. de Álgebra

A′

u
C′
A

C B′

Figura 13.2: Traslación

Simetría hiperplana y con deslizamiento

 
1 0 0
La matriz a estudiar es  α 1 0 . Separaremos el estudio nuevamente.
β 0 −1
L f tiene ahora por ecuaciones

½
α + x1 = x1
β − x2 = x2

Simetría

Si L f 6= ; ha de ser α = 0. Entonces los puntos fijos son los de la recta H :


x2 = β/2, por lo que f es la simetría axial (hiperplana) σH .

476 Álgebra Lineal y Geometría


Depto. de Álgebra

B B′
A A′

C C′

Figura 13.3: Simetría axial

Simetría axial con deslizamiento

Si L f = ; entonces α 6= 0 y observamos que

    
1 0 0 1 0 0 1 0 0
 α 1 0 = 0 1 0  α 1 0 
β 0 −1 β 0 −1 0 0 1
  
1 0 0 1 0 0
=  α 1 0  0 1 0 .
0 0 1 β 0 −1

−−−→
Si tomamos u = (α, 0) y H : x2 = β/2, lo anterior prueba que f = τu ◦ σH =
σH ◦τu . Además, se verifica que u ∈ D(H). Este movimiento se denomina sime-
tría con desplazamiento, H se denomina el eje y u el deslizamiento o el vector
desplazamiento de la simetría.

Álgebra Lineal y Geometría 477


Depto. de Álgebra

B B′
A A′

B ′′
C C′
A ′′

u C ′′

Figura 13.4: Simetría con deslizamiento

Propiedades de la simetría con deslizamiento

1. El punto medio de cualquier punto y su imagen está en H.

2. La variedad de dirección D(H) está formada por los autovecto-




res de 1 de f . La variedad ortogonal D(H)⊥ está formada por los


autovectores de f asociados a −1.

3. D(H) y D(H)⊥ son las direcciones invariantes de f .


−−−−→
4. u = Q f (Q) para cualquier punto Q de la recta H.

P RUEBA :

1. Se tiene que

−−→ −−−−→ −−→


f (P ) = τu (σH (P )) = P + 2PQ + u, y P f (P ) = 2PQ + u,

donde Q es la proyección ortogonal de P sobre H. Si M es el punto medio

478 Álgebra Lineal y Geometría


Depto. de Álgebra

de P y f (P ), entonces

1 −−−−→ −−→ 1 1
M = P + P f (P ) = P + PQ + u = Q + u ∈ H, porque Q ∈ H, u ∈ D(H).
2 2 2


− →

2. Dado que f = − τ→ −→ −→
u ◦ σ H = σ H , los autovalores de f coinciden con los de

σ→H y sabemos que para las simetrías hiperplanas se verifica que

D(H) = ker(−
σ→ ⊥ −→
H − idV ), D(H) = ker(σ H + idV ).



3. Es consecuencia de f = −
σ→H.

4. Sea Q ∈ H. Entonces f (Q) = σH (Q) + u = Q + u y tenemos el resultado.

Simetría central
 
1 0 0
La matriz a considerar es  α −1 0 . Este caso es la simetría central de
β 0 −1
centro P = (α/2, β/2), que es su único punto fijo.
Se observa que, para todo Q ∈ A2 (R), el punto medio de Q y f (Q) es el centro
P.

Giro
 
1 0 0 ½
  a 2 + b 2 = 1,
La matriz a tratar es α a −b , . Las ecuaciones de L f
b 6= 0,
β b a
son ½
α + ax1 − bx2 = x1
Lf : ,
β + bx1 + ax2 = x2
que tiene solución única ya que
¯ ¯
¯ a − 1 −b ¯
¯ ¯ = (a − 1)2 + b 2 = 2 − 2a 6= 0, pues b 6= 0, a 6= 1.
¯ b a −1 ¯

Así, L f contiene un único punto fijo P . Este movimiento se denomina giro de


centro P y ángulo ω. Veamos el porqué de este nombre, y cómo el ángulo ω está

Álgebra Lineal y Geometría 479


Depto. de Álgebra

B
A

C′

A′ B′

Figura 13.5: Simetría central

C O
A α

B′
C′

A′

Figura 13.6: Giro

480 Álgebra Lineal y Geometría


Depto. de Álgebra

determinado por los valores a y b. Más concretamente, veamos que para todo
−−→ −−−−→
Q ∈ A2 (R), el ángulo ω formado por PQ y P f (Q) es independiente de Q:
−−→ −−−−→ −−→ −−−−−−−→ −−→ →
− −−→
〈PQ|P f (Q)〉 = 〈PQ| f (P ) f (Q)〉 = 〈PQ| f (PQ)〉
·µ ¶µ ¶¸
a −b a1
= (a1 a2 )
b a a2
°−−→°2
° °
= a °PQ ° ,

por lo que
°−−→°2
° °
a °PQ °
cos(ω) = °−−→° °−−−−→° = a,
° °° °
°PQ ° °P f (Q)°

dado que d (P,Q) = d (P, f (Q)), al ser P fijo.


Si a = 1, tenemos la identidad, que identificamos con un giro de ángulo 0.
Si a = −1, es la simetría central de centro P , que se corresponde con un giro de
ángulo π. Si a 6= 1, −1, realmente hay dos giros posibles, el de ángulo 0 < ω < π
(con cos(ω) = a y sen(ω) positivo), y el de ángulo π < ω < 2π (con cos(ω) = a y
sen(ω) negativo).


Al ángulo ω ∈ [0, 2π) tal que f (1, 0) = (cos(ω), sen(ω)) lo llamamos ángulo del
giro (esto significa que el sentido de giro es el contrario a las agujas de un reloj).
Es decir, una afinidad f definida por una matriz (respecto de un sistema de
referencia métrico R)
   
1 0 0 1 0 0
MR ( f ) =  α a −b  =  α cos(ω) − sen(ω)  ,
β b a β sen(ω) cos(ω)

(con a 2 + b 2 = 1, a 6= 0, b 6= 0), es un giro de ángulo ω ∈ (0, 2π) y centro su único


punto fijo P , de coordenadas
¯ ¯ ¯ ¯
1 ¯ −α −b ¯ ¯ a − 1 −α ¯
(P )R = (¯¯ ¯,¯
¯ ¯ b
¯).
2 − 2a −β a − 1 −β ¯

Álgebra Lineal y Geometría 481


Depto. de Álgebra

Resumen
Resumimos entonces lo estudiado en esta lección en el siguiente cuadro.
Usamos la denominación clásica de elementos de un movimiento para designar
aquellos objetos geométricos que lo caracterizan.

Tipos de movimiento en el plano

Tipo de Autovalores Puntos Elementos del




movimiento de f fijos movimiento

Identidad 1,1 (D) A2 (R) —

Traslación 1,1 (D) ; u vector de traslación

Simetría 1,-1 (I) r r eje de simetría


de eje r

Simetría con r eje de simetría


deslizamiento 1,-1 (I) ; u vector de traslación

Simetría central -1,-1 (D) P centro P

Giro a + bi , a − bi (D) C centro C ,


a 2 + b 2 = 1, a 6= 1 ángulo de giro ω

482 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 13.3.1.- Consideremos en A2 (R), fijado un sistema de referencia mé-


trico, la aplicación afín f dada por las ecuaciones
    
1 1 0 0 1
 x′  =  3 − 3 − 4   x  .
5 5
y′ 1 − 54 3
5
y



Si A 0 es la submatriz asociada a f , comprobamos fácilmente que A 0t A 0 = I 2 ,
por lo que f es un movimiento. Sus autovalores son las raíces del polinomio
característico:
" #
λ + 3/5 4/5
det(λI − A 0 ) = det = λ2 − 1.
4/5 λ − 3/5

Por tanto, sean λ1 = 1, λ2 = −1. Los puntos fijos se obtienen como soluciones
del sistema (I − A 0 )x = b, donde b = f (O). En este caso,
" # " #
8/5 4/5 3 rref 1 1/2 0

→ ,
4/5 2/5 1 0 0 1

por lo que no hay puntos fijos. Se trata entonces de una simetría axial con des-
lizamiento. El eje de la simetría pasa por el punto medio de cualquier punto
y su transformado. Por ejemplo, el punto medio de O = (0, 0) y f (O) = (3, 1)
es M = (3/2, 1/2). La dirección del eje es el espacio de autovalores asociado a
λ1 = 1:
" # " # µ ¶
8/5 4/5 rref 1 1/2 −1
I − A0 = −
→ , de donde V1 (λ1 ) = 〈v1 = 〉.
4/5 2/5 0 0 2

Finalmente escribimos que el eje es (3/2, 1/2) + 〈v1 〉, que tiene como ecuación
implícita r : 2x + y − 7/2 = 0. El vector de desplazamiento se calcula como u =
−−−−→
P f (P ) para cualquier punto de r . Por ejemplo, para P = M obtenemos que

3 3 4 1 4 3 3 1
f (M) = (3 − · − · , 1 − · + · ) = (17/10, 1/10), y
5 2 5 2 5 2 5 2
−−−−−→
u = M f (M) = (1/5, −2/5).

Álgebra Lineal y Geometría 483


Depto. de Álgebra

Ejemplo 13.3.2.- Consideremos en A2 (R), fijado un sistema de referencia mé-


trico, la aplicación afín f dada por las ecuaciones
    
1 1 0 0 1
 x′  =  3 − 3 4 
x1  .
1 5 5
′ 4 3
x2 1 −5 −5 x2



Si A 0 es la submatriz asociada a f , comprobamos fácilmente que A 0t A 0 = I 2 ,
por lo que f es un movimiento. Por la forma de la matriz A 0 , sabemos que sus
autovalores son λ1 = − 53 + i 54 , λ2 = − 35 − i 54 . Además, el conjunto de puntos fijos
se obtiene como las soluciones del sistema (I − A 0 )x = b, para b = f (O):
" # " #
8/5 −4/5 3 rref 1 0 7/4

→ .
4/5 8/5 1 0 1 −1/4

Por tanto, f tiene un único punto fijo P 0 = (7/4, −1/4) y se trata de un giro de
centro P 0 y ángulo ω tal que cos(ω) = −3/5, sen(ω) = −4/5.

Rectas fijas de los movimientos del plano


1. Traslación. Un subespacio afín L es invariante por una traslación de vec-
tor u si y solamente si u ∈ D(L) (pág. 421). Por tanto, las rectas fijas de las
traslaciones en A2 (R) son las rectas de dirección 〈u〉.

2. Simetría axial. Aplicamos el método de cálculo de los hiperplanos fijos


(pág. 415) para determinar las rectas fijas de este movimiento. Los auto-
valores asociados a la matriz traspuesta son µ1 = 1, µ2 = −1, con espacios
de autovectores asociados
     
1 0 −β/2
V1 (µ1 ) = 〈 0  ,  1 〉,V1 (µ2 ) = 〈 0 〉.
0 0 1

El primer espacio indica que las rectas a0 + a1 x1 = 0 son fijas, que se co-
rresponden con las rectas perpendiculares a H. El segundo espacio da
lugar a la recta H : −β/2 + x2 = 0.

484 Álgebra Lineal y Geometría


Depto. de Álgebra

3. Simetría axial con desplazamiento. La única recta fija de f es H. Los auto-


valores asociados a la matriz traspuesta son µ1 = 1, µ2 = −1, con espacios
de autovectores
   
1 −β/2
V1 (µ1 ) = 〈 0 〉,V1 (µ2 ) = 〈 0 〉.
0 1

El primer espacio no produce ninguna recta fija, y el segundo da lugar a


la recta H : −β/2 + x2 = 0.

4. Simetría central. Como es una homotecia de razón −1, las rectas inva-
riantes son las que pasan por P (pág. 421).

5. Giro. Los giros de ángulo ω 6= 0, π no tienen rectas fijas, pues los autova-


lores de f son números complejos no reales.

13.4. Movimientos del espacio


Esta sección está dedicada a la clasificación de todos los posibles movi-


mientos f ∈ Mo(A3 (R)). La matriz asociada a f es ortogonal de dimensión 3.
Vamos a probar que toda matriz real A de orden 3 × 3 ortogonal es semejante a
una matriz de la forma
   
±1 0 0 ±1 0 0
 0 a −b  ,  0 a b 
0 b a 0 b −a

con a 2 + b 2 = 1.
El polinomio característico de A es de grado 3, por lo que tiene, al menos,
una raíz real. Los únicos autovalores reales de una matriz ortogonal son 1 y
−1. Sea v1 autovector unitario asociado. Si tomamos una base ortonormal que
contenga a v1 , la matriz de cambio de base asociada U1 es ortogonal y
   
±1 b 12 b 13 ±1 b 12 b 13
A ′ = U1t AU1 =  0 a11′ ′  
a12 = 0 
′ ′ A ′0
0 a21 a22 0

también es ortogonal. De la relación A ′t A ′ = I , deducimos que b 12 = b 13 = 0, y


la submatriz A ′0 es ortogonal. Por la forma de las matrices ortogonales de orden
2 × 2, A ′0 es de la forma
µ ¶ µ ¶
a −b a b
o bien , con a 2 + b 2 = 1.
b a b −a

Álgebra Lineal y Geometría 485


Depto. de Álgebra

Por tanto, A es semejante de manera ortogonal a una matriz de la forma


   
±1 0 0 ±1 0 0
(a)  0 a −b  , (b)  0 a b  , a 2 + b 2 = 1.
0 b a 0 b −a

Se comprueba fácilmente que las matrices del tipo (b) tiene todos sus autova-
lores iguales 1 o −1, por lo que es semejante de manera ortogonal a una matriz
diagonal con valores 1 o −1.

Movimientos en el espacio

Sea f : A3 (R) → A3 (R) un movimiento. Entonces existe un sistema de


referencia métrico tal que la matriz de f respecto de él es de alguna de
las formas
     
1 0 0 0 1 0 0 0 1 0 0 0
     
 α 1 0 0   α 1 0 0   α 1 0 0 
 ,  ,  ,
 β 0 1 0   β 0 1 0   β 0 −1 0 
γ 0 0 1 γ 0 0 −1 γ 0 0 −1
     
1 0 0 0 1 0 0 0 1 0 0 0
     
 α −1 0 0   α 1 0 0   α −1 0 0 
 ,  ,  ,
 β 0 −1 0   β 0 a −b   β 0 a −b 
γ 0 0 −1 γ 0 b a γ 0 b a

bajo la condición a 2 + b 2 = 1, b 6= 0.

Identidad y traslación
 
1 0 0 0
 
 α 1 0 0 
Partimos de la matriz  . El estudio de este caso, en el que 1
 β 0 1 0 
γ 0 0 1
es el único autovalor (pág. 486) es idéntico en cualquier dimensión al que ya
hicimos en el plano. Es decir,

 α + x1 = x1
Lf : β + x2 = x2

γ + x3 = x3

486 Álgebra Lineal y Geometría


Depto. de Álgebra

Identidad

L f 6= ; si y solamente si α = β = γ = 0, esto es, si y solamente si f es la


identidad.

Tralación
−−−−−→
En otro caso, f es la traslación τu de vector no nulo u = (α, β, γ).

Simetría hiperplana y con deslizamiento


 
1 0 0 0
 
 α 1 0 0 
Consideramos ahora la matriz  . Este caso (pág. 486) tam-
 β 0 1 0 
γ 0 0 −1
bién es similar al del plano. Ahora

 α + x1 = x1
Lf : β + x2 = x2

γ − x3 = x3

Simetría plana o especular

Si L f 6= ;, entonces α = β = 0 y L f : z = γ/2, por lo que f es la simetría plana


(hiperplana) o especular de plano L f .

Simetría plana con deslizamiento

Si L f = ;, entonces (α, β) 6= (0, 0) y, como en el caso plano,


    
1 0 0 0 1 0 0 0 1 0 0 0
    
 α 1 0 0   0 1 0 0  α 1 0 0 
  =   
 β 0 1 0   0 0 1 0  β 0 1 0 
γ 0 0 −1 γ 0 0 −1 0 0 0 1
  
1 0 0 0 1 0 0 0
  
 α 1 0 0  0 1 0 0 
=   ,
 β 0 1 0  0 0 1 0 
0 0 0 1 γ 0 0 −1
−−−−−→
por lo que, si denotamos H : x3 = γ/2, u = (α, β, 0) (notemos que u ∈ D(H)),
obtenemos que f = σH ◦ τu = τu ◦ σH . Este movimiento se denomina simetría
plana con desplazamiento, H es el plano (de simetría) y u el deslizamiento o el
vector desplazamiento del movimiento.

Álgebra Lineal y Geometría 487


Depto. de Álgebra

P′

Figura 13.7: Simetría plana

P1
u
P′

Figura 13.8: Simetría plana con deslizamiento

488 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades de la simetría hiperplana con deslizamiento

1. El punto medio de cualquier punto y su imagen está en H.

2. La variedad de dirección D(H) está formada por los autovectores




de 1 de f y su ortogonal D(H)⊥ está formada por los autovectores


de f asociados al autovalor −1.
−−−−→
3. u = Q f (Q) para cualquier Q ∈ H.

P RUEBA : La prueba es completamente igual a la dada en 13.3 (pág. 478). 

Así, podemos hallar H usando que D(H) es el conjunto de autovectores de 1 de




f , y que pasa por el punto medio de cualquier punto con su transformado.

Simetría axial y con deslizamiento


 
1 0 0 0
 
 α 1 0 0 
Consideramos la matriz  . La variedad L f es no vacía si y
 β 0 −1 0 
γ 0 0 −1
solamente si α = 0. (pág. 486).

Simetría axial

Si hay puntos fijos, entonces

L f : {x2 = β/2, x3 = γ/2},

esto es, es una recta de puntos fijos. El movimiento f se denomina una simetría
axial de eje r y se denota σr .

Álgebra Lineal y Geometría 489


Depto. de Álgebra

Propiedades de la simetría axial

1. El punto medio de P y f (P ) está en L f .


−−−−→
2. El vector P f (P ) es ortogonal a D(L f ).


3. D(L f ) coincide con el espacio de autovectores de f asociado al
autovalor 1.


4. D(L f )⊥ coincide con el espacio de autovectores de f asociado al
autovalor −1.

5. Dado P 6∈ L f y el plano π = P + L f , entonces π es invariante para


f y f π es una simetría de eje L f como movimiento en el plano.

P RUEBA :

1. Dado un punto P = (p 1 , p 2 , p 3 ), tenemos que f (P ) = (p 1 , β−p 2 , γ−p 3 ), de


donde el punto medio es (p 1 , 12 β, 21 γ), que pertenece a L f .

−−−−→ −−−−−−−−−−−−−−−→ −−−−−→


2. El vector P f (P ) = (0, β − 2p 2 , γ − 2p 3 ) es ortogonal a (1, 0, 0), que determi-
na la dirección de L f .

3. Es un cálculo inmediato.

4. El espacio de autovectores de −1 es ortogonal al espacio de autovectores


de 1, porque la matriz es normal.

5. Podemos escribir π = P + 〈v1 , v2 〉, con v1 ∈ D(L f ) y v2 ortogonal a v1 .


Entonces

− →

f (P ) = P, f (v1 ) = v1 , f (v2 ) = −v2 ,

de donde f (π) = π.

490 Álgebra Lineal y Geometría


Depto. de Álgebra

r P′

Figura 13.9: Simetría axial

Simatría axial con deslizamiento

Si no hay puntos fijos, tenemos la descomposición

    
1 0 0 0 1 0 0 0 1 0 0 0
    
 α 1 0 0   0 1 0 0  α 1 0 0 
  =   
 β 0 −1 0   β 0 −1 0  0 0 1 0 
γ 0 0 −1 γ 0 0 −1 0 0 0 1
  
1 0 0 0 1 0 0 0
  
 α 1 0 0  0 1 0 0 
=   ,
 0 0 1 0  β 0 −1 0 
0 0 0 1 γ 0 0 −1

por lo que f es composición (conmutativa) de una simetría axial σr (de eje


−−−−−→
r : x2 = β/2, x3 = γ/2) y una traslación τu de vector u = (α, 0, 0) paralelo al eje r
de la simetría. Además, f = σr ◦ τu = τu ◦ f . Como cabe esperar, f se denomina
simetría axial con desplazamiento de eje r y vector u.

Álgebra Lineal y Geometría 491


Depto. de Álgebra

P′

r P1

Figura 13.10: Simetría axial con deslizamiento

Propiedades de la simetría axial con deslizamiento

1. El punto medio de cualquier punto y su imagen está en r .

2. La variedad de dirección D(r ) está formada por los autovectores




asociados a 1 de f y su variedad ortogonal D(r )⊥ está formada


por los autovectores asociados a −1 de f .
−−−−→
3. El vector u es igual al vector Q f (Q) para cualquier Q del eje de
simetría r .

4. Si P 6∈ r y π = P + r , entonces

el plano π es invariante,
la restricción f |r es la traslación τu ,
y la restricción f |π es una simetría axial con deslizamiento
como movimiento en π.

P RUEBA :
−−−−→ −−−−−→
1. Como f (P ) = σr (P ) + u, se tiene que P f (P ) = P σr (P ) + u. Entonces
1 −−−−→ 1 −−−−−→ 1
M = P + P f (P ) = P + P σr (P ) + u.
2 2 2
El punto medio R de P y σr (P ) pertenece a r , por lo que M = R + 21 u ∈ r .

− →
2. Es consecuencia de la igualdad f = −
σr .

492 Álgebra Lineal y Geometría


Depto. de Álgebra

e1

e2

e3

e 3′
B′

e 2′
e 1′

Figura 13.11: Simetría central

3. Sea Q ∈ r . Entonces f (Q) = σr (Q) + u = Q + u y tenemos el resultado.

4. Escribimos π = P + 〈u, v2 〉, con v2 ∈ D(r )⊥ . Entonces



− →

f (P ) = P + u, f (u) = u, f (v2 ) = −v2 ,

de donde

− →

f (π) = f (P ) + 〈 f (u), f (v2 )〉 = (P + u) + 〈u, −v2 〉 = π.

Simetría central
 
1 0 0 0
 
 α −1 0 0 
La matriz a estudiar es  . Este caso (pág. 486), como en
 β 0 −1 0 
γ 0 0 −1
el plano, se denomina simetría central σP de centro P . El centro queda deter-
minado por ser el único punto fijo de f :

 α − x1 = x1 µ ¶
α β γ
Lf : β − x2 = x2 =⇒ P = , , .
 2 2 2
γ − x3 = x3

Como en el plano, P es el punto medio de Q y f (Q), para cualquier Q ∈ A3 (R).

Álgebra Lineal y Geometría 493


Depto. de Álgebra

Giro y movimiento helicoidal


 
1 0 0 0
 
 α 1 0 0 
La matriz de partida es  . Dividimos el estudio como de
 β 0 a −b 
γ 0 b a
costumbre, dependiendo de si f tiene o no puntos fijos (pág. 486).

Giro

La existencia de puntos fijos implica que α = 0 y, además, que


½
(a − 1)x2 − bx3 = −β
Lf :
bx2 + (a − 1)x3 = −γ

por lo que tenemos una recta de puntos fijos de la forma r : x2 = β′ , x3 = γ′


(recordemos que a 2 + b 2 = 1 y que a 6= 1). Fijamos un punto P 0 = (p 1 , p 2 , p 3 ) y
consideramos el plano que pasa por P 0 y es perpendicular a L f :

H = P + D(L f )⊥ : x1 = p 1 .

Entonces H es un plano fijo para f (simple comprobación). Vamos a estudiar


qué tipo de movimiento
n en el plano es la restricción f |H : H → H. Para ello, to-
−−−−−→ −−−−−→o
mamos R H = H ∩ L f ; (0, 1, 0), (0, 0, 1) , que es un sistema de referencia métrico
en H. Además (ejercicio sencillo),
 
1 0 0
¡ ¢
MR H f |H =  0 a −b  .
0 b a

En consecuencia, restringido a H, el movimiento f se comporta como un giro


de centro H ∩ L f y ángulo ω tal que cos(ω) = a. Por este motivo f se denomina
precisamente giro de eje r = L f y ángulo ω, notado po g r,ω.
Nota 13.4.1. La asignación del ángulo de giro depende del punto de vista (vec-
tor de dirección) que elijamos en el eje r . Si fijamos P 0 ∈ r y un vector u ∈ D(r ),
el ángulo de giro ω ∈ (0, 2π) desde el punto P 0 + u aparece como 2π − ω desde
P 0 − u. Sabemos que cos(ω) = a, pero es preciso especificar el valor de sen(ω)
desde el punto de vista de un vector de D(r ). En la forma reducida, elegimos en
la recta r el sentido dado por e1 y, con respecto a la base ortonormal {e1 , e2 , e3 }
se tiene que
 
0 ³ ´

− →

 
f (e2 ) = cos(ω) y det e1 e2 f (e2 ) = sen(ω).
sen(ω)

494 Álgebra Lineal y Geometría


Depto. de Álgebra

P P′
ω

Figura 13.12: Giro de eje r y ángulo ω

e3
x3 ω
e2
P0
e1

O x2

x1

Figura 13.13: Elección del ángulo ω

Álgebra Lineal y Geometría 495


Depto. de Álgebra

Decimos entonces que el giro tiene ángulo ω ∈ (0, 2π) desde e1 . Observemos
que si cambiamos e1 por −e1 en la elección del vector de dirección en r , en-
tonces tenemos el giro de ángulo 2π − ω desde −e1 .
Queremos determinar la selección de una base similar cuando el giro apa-
rece con unas ecuaciones que no son tan sencillas. Elegimos entonces v ∈ D(r )
y un vector w ∈ D(r )⊥ , que normalizamos a
1 1
e′1 = v , e′2 = w.
kv k kw k
Son los que juegan los papeles de e1 y e2 . Entonces
³ →
− ´ 1 ³ →
− ´
sen(ω) = det e′1 e′2 f (e′2 ) = det v w f (w ) .
kv k kw k2
Observemos que solamente es necesario el cálculo del signo para determinar
si sen(ω) = b o −b.
Si a = 1 tenemos la identidad, que se puede ver como un caso particular de
giro. Si a = −1 obtenemos la simetría axial de eje r (o giro de eje r y ángulo π).

Movimiento helicoidal

En este caso podemos descomponer


    
1 0 0 0 1 0 0 0 1 0 0 0
    
 α 1 0 0   0 1 0 0  α 1 0 0 
  =   
 β 0 a −b   β 0 a −b   0 0 1 0 
γ 0 b a γ 0 b a 0 0 0 1
  
1 0 0 0 1 0 0 0
  
 α 1 0 0  0 1 0 0 
=   ,
 0 0 1 0  β 0 a −b 
0 0 0 1 γ 0 b a
por lo que f es composición de un giro de eje r y una traslación de vector u,
paralelo al eje del giro, que además conmutan. En este caso, f se denomina giro
con deslizamiento, con eje de giro r y ángulo ω, y vector de deslizamiento u o,
sencillamente, movimiento helicoidal. Además, f = τu ◦ g r,ω = g r,ω ◦ τu . En este
sistema de referencia, las ecuaciones de r son
½
(a − 1)x2 − bx3 = −β, −−−−−→
r: y u = (α, 0, 0).
bx2 + (a − 1)x3 = −γ,
−−−−→
Se tiene que para todo P ∈ r el vector P f (P ) es igual a u. En efecto, si P =
(p 1 , p 2 , p 3 ) ∈ r , entonces β + (a − 1)p 2 − bp 3 = γ + bp 2 + ap 3 = 0 y
−−−−→ −−−−−→
P f (P ) = (α, 0, 0) = u.

496 Álgebra Lineal y Geometría


Depto. de Álgebra

P′

u
v

P ω P1

Figura 13.14: Movimiento helicoidal



El único autovalor real de f es λ1 = 1, con espacio de autovectores

½
y 2 = 0,
V1 (λ1 ) :
y 3 = 0.

Si s es una recta fija con dirección en V1 (λ1 ) y P = (p 1 , p 2 , p 3 ) un punto de la


−−−−→
misma, entonces P f (P ) ∈ V1 (λ1 ) implica que P ∈ r . Por tanto, la única recta fija
de f es r , el eje del giro asociado. Observemos que este método nos permite el
cálculo de sus ecuaciones.
El ángulo de giro se calcula mediante un procedimiento similar al descrito
en la nota 13.4.1 (pág. 494).

Simetría rotacional
 
1 0 0 0
 
 α −1 0 0 
Consideramos la matriz  . La variedad de puntos fijos L f
 β 0 a −b 
γ 0 b a
es en este caso la solución (única) del sistema


 2x1 = α
Lf : (a − 1)x2 − bx3 = −β

bx2 + (a − 1)x3 = −γ

Álgebra Lineal y Geometría 497


Depto. de Álgebra

e3
e2
e1
r

H u2

ω u1

u3

e 2′
e 1′
e 3′

Figura 13.15: Simetría rotacional

por lo que L f es el punto P 0 = (α/2, β′ , γ′ ) para ciertos valores β′ , γ′ . El movi-


miento f admite la siguiente descomposición

    
1 0 0 0 1 0 0 0 1 0 0 0
    
 α −1 0 0   0 1 0 0  α −1 0 0 
  =   
 β 0 a −b   β 0 a −b  0 0 1 0 
γ 0 b a γ 0 b a 0 0 0 1
  
1 0 0 0 1 0 0 0
  
 α −1 0 0  0 1 0 0 
=   .
 0 0 1 0  β 0 a −b 
0 0 0 1 γ 0 b a

Por tanto, f = g r,ω ◦σH = σH ◦g r,ω , es decir, f es la composición de una simetría


plana y un giro. El movimiento se denomina simetría rotacional.

498 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades de la simetría rotacional

1. H es perpendicular a r .

2. H ∩ r = P 0 .


3. D(r ) = ker( f + idV ).

P RUEBA :

1. En la identidad matricial anterior, se tiene que


½
1 x2 = β′ ,
H : x1 = α, y r : para ciertos β′ , γ′ .
2 x 3 = γ′ .
−−−−−→
Entonces D(H)⊥ = 〈(1, 0, 0)〉 ⊂ D(r ).

2. El punto de intersección H ∩ r = {(α/2, β′ , γ′ )} es la solución del sistema


que define a L f .


3. Como b 6= 0, tenemos que a 6= −1, y −1 es un autovalor simple de f . En
este caso,
−−−−−→ →

D(r ) = 〈(1, 0, 0)〉 = ker( f + idV ).




Si v autovector de f asociado a −1, entonces es posible calcular

r = P 0 + 〈v 〉.

H = P 0 + 〈v 〉⊥ .

El ángulo de giro ω, dado por el procedimiento descrito en la página 494.

Álgebra Lineal y Geometría 499


Depto. de Álgebra

Resumen

Tipos de movimientos en el espacio

Tipo de Autovalores Puntos Elementos del




movimiento de f fijos movimiento

Identidad 1,1,1 (D) A 2 (R ) —

Traslación 1,1,1 (D) ; u, vector de traslación

Simetría 1,1,-1 (I) H H , plano de simetría


plana

Simetría con 1,1,-1 (I) ; H , plano de simetría


deslizamiento u, vector de traslación

Simetría central -1,-1,-1 (I) P P , centro de simetría

Simetría axial 1,-1,-1 (D) L L, eje de simetría

Simetría axial 1,-1,-1 (D) ; L, eje de simetría


con deslizamiento u, vector de traslación

Giro 1, α, α ∈ C \ R (D) L L, eje de giro


ω, ángulo de giro

Movimiento 1, α, α ∈ C \ R (D) ; L, ω; eje y ángulo de giro


helicoidal u, vector de traslación

Simetría −1, α, α ∈ C \ R (I) P L, ω; eje y ángulo de giro


rotacional H , plano de simetría

500 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 13.4.1.- Consideremos la aplicación afín de A3 (R) dada por


 1
p   p 
  − 21 3 1
− 12 3 0  
x1′ 
2
 
2
 x1
p p
 x2′ =
 − 21 − 12 3 +
 
1
2 3
1
2 0   
 x2 , f (P ) = b + A 0 P,
x3′ x3
1 0 0 1

respecto de un sistema de referencia métrico fijado. Es un movimiento, pues


A 0t A 0 = I 3 . Como det(A 0 ) > 0, el movimiento es directo. El conjunto de puntos
fijos se obtiene mediante la resolución del sistema (I − A 0 )x = b:
 1 1
p 1 1
p   
2 2 3 0 2−2 3 1 0 0 0
¡ ¢  1
p 1
p  rref  
I − A0 b =
 −2 3 2 0 − 12 − 12 3 − 
 → 0 1 0 0 ,

0 0 0 1 0 0 0 1

y no hay puntos fijos. Por tanto, se trata de un movimiento helicoidal o una si-
metría axial con deslizamiento, que se corresponde con un ángulo de giro igual
a π. Como traza(A 0 ) = 2 = 1 + 2 cos(ω), se tiene que cos(ω) = 1/2, por lo que
no es p simetría axial conp deslizamiento. Los autovalores de A 0 son λ1 = 1, λ2 =
1 1 1 1
2 + i 2 3, λ3 = 2 − i 2 3, que confirman el razonamiento anterior. Así, f se ex-
presa como f = τu ◦ g r (ω), donde τu es una traslación y g r,ω es un giro de eje r
con dirección u y ángulo ω. Vamos a calcular estos elementos geométricos. La
dirección del eje es V1 (λ1 ), que en este caso es
½
y 1 = 0,
D(r ) : y D(r ) = 〈v = e3 〉.
y 2 = 0,

Las ecuaciones implícitas del eje se obtienen a partir de un punto genérico P =


−−−−→
(a1 , a2 , a3 ) e imponiendo la condición P f (P ) ∈ D(r ). Entonces
£ 1
p p p p ¤
f (P ) = 2 − 21 3 + 12 a1 − 21 3a2 − 12 − 21 3 + 21 3a1 + 21 a2 1 + a3 ,
 1 1p 1 1
p 
2 − 2 3 − 2 a 1 − 2 3a 2
−−−−→  1 1
p 1
p 1

P f (P ) =  
 − 2 − 2 3 + 2 3a1 − 2 a2  ,
1

de donde ( p p
1
− 12
3 − 21 x1 − 12 3x2 = 0 ½
2 x1 = 1,
r: p p ≡
1 1 1 1 x2 = −1.
− 2 − 2 3 + 2 3x1 − 2 x2 = 0

Álgebra Lineal y Geometría 501


Depto. de Álgebra

Para determinar el ángulo de giro ω, ya sabemos que cos(ω) = Re(λ2 ) = 21 . To-


mamos inicialmente v = e3 ∈ D(r ) y w = e1 ∈ D(r )⊥ . Entonces
 
1/2 ³ ´

− p →

f (w ) =  
3/2 , y det v w f (w ) > 0.
0
p
Entonces el ángulo de giro es ω tal que cos(ω) = 1/2, sen(ω) = 3/2, es decir,
ω = π/3 desde v .
Tomemos ahora un punto cualquiera de r , como P 0 = (1, −1, 0). Entonces
−−−−−−→ −−−−−→
f (P 0 ) = (1, −1, 1) y u = P 0 f (P 0 ) = (0, 0, 1).

Ejemplo 13.4.2.- En A3 (R) fijamos un sistema de referencia métrico y consi-


deramos la aplicación afín f : A3 (R) → A3 (R) dada por la matriz
 
1 0 0 0
  µ ¶
 1 −1/3 2/3 2/3  1 0t
A= = .
 1 2/3 −1/3 2/3  b A0
1 −2/3 −2/3 1/3

Como  
−1/3 2/3 2/3
A 0 =  2/3 −1/3 2/3  , y se verifica que A 0t A 0 = I 3 ,
−2/3 −2/3 1/3
se tiene que f es un movimiento. Vamos a clasificarlo y calcular sus elemen-
tos. En primer lugar, det(A 0 ) < 0, por lo que f es un movimiento indirecto. El
subespacio afín de puntos fijos está determinado por el sistema de ecuaciones
 1 2 2
 1 − 3 x1 + 3 x2 + 3 x3 = x1 ,
L f : 1 + 3 x1 − 3 x2 + 23 x3 = x2 , ,
2 1

1 − 23 x1 − 32 x2 + 13 x3 = x3 ,

que toma la forma (A 0 − I )x = −b. Como


 
1 0 0 1
¡ ¢ rref  
A 0 − I −b − →  0 1 0 1 ,

0 0 1 −1/2

502 Álgebra Lineal y Geometría


Depto. de Álgebra

el punto P 0 = (1, 1, −1/2) es el único punto fijo de f . Por tanto, f es una simetría
rotacional. Tenemos que determinar el eje del giro, su ángulo y el hiperplano
de la simetría.


Sabemos que r = P 0 + ker( f + idV ). En este caso,
   
2/3 2/3 2/3 1 1 0 ½
  rref   y 1 + y 2 = 0,
A0 + I = 
 2/3 2/3 2/3 − → 
 0 0 1  , null(A 0 + I ) : y 3 = 0.
−2/3 −2/3 4/3 0 0 0

−−−−−−→
de donde r = P 0 + 〈(−1, 1, 0)〉. Por otro lado, H = P 0 + D(r )⊥ , con ecuación H :
−x1 + x2 = 0.
Para determinar el ángulo de giro, se tiene que traza(A 0 ) = −1 + 2 cosω. En
este caso,
1
− = −1 + 2 cosω, de donde cos ω = 1/3.
3
La determinación de sen ω la hacemos mediante la selección de un vector en
−−−−−→ −−−−−→
D(r ). Sea v = (−1, 10) ∈ D(r ) y consideramos w = (0, 0, 1) ∈ D(r )⊥ . Entonces
 
2/3 ³ ´

− →

 
f (w ) = A 0 w = 2/3 y det v w f (w ) > 0.
1/3
p
8
Entonces sen ω = 3 desde v .

Planos y rectas fijas de los movimientos en A3 (R)


1. Traslación. En las traslaciones de vector no nulo no hay puntos fijos; los
subespacios afines fijos son los que contienen a u en su variedad de di-
rección.

2. Simetría plana. Los planos fijos se obtienen a partir de los autovalores de


la matriz traspuesta, que son µ1 = 1, µ2 = −1, con espacios de autovecto-
res        
1 0 0 −γ/2
       
 0   1   0   0 
V1 (µ1 ) = 〈  ,   ,  〉,V1 (µ2 ) = 〈 〉.
 0   0   1   0 
0 0 0 1

Álgebra Lineal y Geometría 503


Depto. de Álgebra

El primer espacio da lugar a los planos fijos de la forma a0 + a1 x1 + a2 x2 =


0, que son los perpendiculares a L f . El segunda espacio nos da el plano
L f : −γ/2 + x3 = 0.
Para el cálculo de las rectas fijas necesitamos las direcciones invariantes


de f . Sus autovalores son λ1 = 1, λ2 = −1, con espacios asociados
© ©
V1 (λ1 ) : y 3 = 0, ,V1 (λ2 ) : y 1 = 0, y 2 = 0.

Si s es una recta fija con dirección en V1 (λ1 ), sea P = (p 1 , p 2 , p 3 ) un punto


por el que pasa. Entonces f (P ) = (p 1 , p 2 , γ − p 3 ) y
−−−−→ −−−−−−−−−−→
P f (P ) = (0, 0, γ − 2p 3 ) ∈ V1 (λ1 ), de donde p 3 = γ/2.

Concluimos entonces que por cada punto de L f pasa una recta fija con
dirección en V1 (λ1 ), que es precisamente la dirección de L f . Por tanto,
son las rectas contenidas en L f . Es lógico, pues la restricción de f a L f es
la identidad.
De forma análoga, si s es una recta fija con dirección en V1 (λ2 ) y P =
(p 1 , p 2 , p 3 ) un punto por el que pasa, entonces
−−−−→ −−−−−−−−−−−→
P f (P ) = (0, 0, −γ − 2p 3 ) ∈ V1 (λ2 ), que no impone condición.

Entonces por todo punto P del espacio pasa una recta fija de dirección
−−−−−→
(0, 0, 1), que son las rectas perpendiculares a L f .
En resumen, los planos fijos son el propio L f y los que tienen su vector
normal en D(L f ). Las rectas fijas son las perpendiculares al plano L f y las
contenidas en él.

3. Simetría plana con desplazamiento. Calculamos los planos fijos del mo-
vimiento. Los autovalores de la matriz traspuesta son µ1 = 1, µ2 = −1, con
espacio de autovectores
     
1 0 −γ/2
     
 0   −β   0 
V1 (µ1 ) = 〈  ,  〉,V (µ ) = 〈 〉.
 0   α  1 2  0 
0 0 1

El primer espacio da lugar a hiperplanos de la forma a0 − βx1 + αx2 =


0, que son todos los hiperplanos perpendiculares a H que contienen al
−−−−−→
vector u = (α, β, 0) en su dirección. El segundo espacio proporciona el
plano H : −γ/2 + x3 = 0.

504 Álgebra Lineal y Geometría


Depto. de Álgebra



Para las rectas fijas precisamos los espacios de autovectores de f , cuyos
autovalores son λ1 = 1, λ2 = −1. Entonces
½
© y 1 = 0,
V1 (λ1 ) : y 3 = 0 ,V1 (λ2 ) :
y 2 = 0.

Si s es una recta fija con dirección en V1 (λ1 ) y P = (p 1 , p 2 , p 3 ) un punto de


la misma, entonces
−−−−→ −−−−−−−−−−→
P f (P ) = (α, β, γ − 2p 3 ) ∈ V1 (λ1 ), de donde p 3 = γ/2.

Esto significa que P está en el plano H y la recta s está contenida entonces


en H, cuya dirección es V1 (λ1 ). No toda recta contenida en H es invarian-
te, por lo que debemos determinar cuáles son. Como V1 (λ1 ) = 〈e1 , e2 〉,
buscamos α1 , α2 ∈ R tales que
−−−−−−−−−−→ −−−−−→
(α, β, γ − 2p 3 ) = (α, β, 0) = α1 e1 + α2 e2 .

Entonces α1 = α, α2 = β, de donde la recta fija s es de dirección u. Por


tanto, las rectas fijas de dirección en V1 (λ1 ) son las rectas contenidas en
H de dirección u. También se puede aplicar que la restricción f |H es una
traslación, por lo que sus rectas invariantes son las que contienen el vec-
tor de desplazamiento.
Sea ahora s una recta fija con dirección en V1 (λ2 ) y P = (p 1 , p 2 , p 3 ) un
punto de la misma. Entonces
−−−−→ −−−−−−−−−−→
P f (P ) = (α, β, γ − 2p 3 ) ∈ V1 (λ2 ), implica que α = β = 0,

que no se tiene. Por tanto, no hay rectas fijas con esta dirección.

4. Simetría axial. Los planos fijos los calculamos a partir de los autovalores
de la matriz traspuesta, que son µ1 = 1, µ2 = −1, de espacios de autovec-
tores
       
1 0 −β/2 −γ/2
       
 0   1   0   0 
V1 (µ1 ) = 〈  ,  〉,V1 (µ2 ) = 〈 , 〉.
 0   0   1   0 
0 0 0 1

El primer espacio produce los planos de la forma a0 + a1 x1 = 0, que son


todos los planos perpendiculares a la recta L f . El segundo espacio genera
planos de la forma

a2 (−β/2 + x2 ) + a3 (−γ/2 + x3 ) = 0,

Álgebra Lineal y Geometría 505


Depto. de Álgebra

que es el haz de planos que contiene a la recta L f . Por tanto, los planos
fijos son los perpendiculares a L f y el haz de planos que contienen a L f .


Para el cálculo de las rectas fijas, partimos de los autovalores de f , que
son λ1 = 1, λ2 = −1 y de los espacios de autovectores
½
y 2 = 0, ©
V1 (λ1 ) : V1 (λ2 ) : y 1 = 0.
y 3 = 0.

Sea s una recta fija de dirección en V1 (λ1 ) y P = (p 1 , p 2 , p 3 ) un punto de la


misma. Entonces
−−−−→ −−−−−−−−−−−−−−−−−→
P f (P ) = (0, β − 2p 2 , γ − 2p − 3) ∈ V1 (λ1 ) implica que P ∈ L f .

Por tanto, por todo punto P ∈ L f pasa una recta fija de dirección en V1(λ1 ),
que es precisamente D(L f ). Entonces la única recta fija de esta dirección
es L f .
Sea ahora s una recta fija de dirección en V1 (λ2 ) y P = (p 1 , p 2 , p 3 ) un pun-
to de la misma. Entonces
−−−−→ −−−−−−−−−−−−−−−−−→
P f (P ) = (0, β − 2p 2 , γ − 2p − 3) ∈ V1 (λ2 )

implica que es válido cualquier punto. Así, por todo punto P pasa una
recta fija de dirección en V1 (λ2 ), que es D(L f )⊥ . En concreto, si conside-
ramos el plano invariante π = P +V1 (λ2 ), entonces π∩L f = Q es un punto
fijo, y las rectas fijas de dirección V1 (λ2 ) son las rectas perpendiculares y
secantes a L f .
En resumen, las rectas fijas son la recta L f y las perpendiculares y secan-
tes a L f .

5. Simetría axial con desplazamiento. Los planos fijos los obtenemos a par-
tir de los autovalores de la matriz traspuesta, que son µ1 = 1, µ2 = −1, con
espacios asociados
     
1 −β/2 −γ/2
     
 0   0   0 
V1 (µ1 ) = 〈 〉,V1 (µ2 ) = 〈 , 〉.
 0   1   0 
0 0 1

El primer espacio no genera planos fijos, y el segundo produce los planos


de la forma a2 (−β/2 + x2 ) + a3 (−γ/2 + x3 ) = 0, que es el haz de planos que
contiene al eje r . Por tanto, los planos fijos son los que contienen a r .

506 Álgebra Lineal y Geometría


Depto. de Álgebra

→−
Los autovalores de f son λ1 = 1, λ2 = −1, con espacios de autovectores
asociados ½
y 2 = 0, ©
V1 (λ1 ) : ,V1 (λ2 ) : y 1 = 0.
y 3 = 0.
Si s es una recta fija de dirección en V1 (λ1 ) y P = (p 1 , p 2 , p 3 ) un punto de
la misma, entonces
−−−−→ −−−−−−−−−−−−−−−−→
P f (P ) = (α, β − 2p 2 , γ − 2p 3 ) ∈ V1 (λ1 ) implica que P ∈ r,

por lo que la única recta fija de esta dirección es la recta r de la simetría


axial asociada.
−−−−→
Si ahora s es una recta fija de dirección en V1(λ2 ), entonces P f (P ) ∈ V1 (λ2 ),
lo que implica que α = 0, y no estamos en este caso. Por tanto, no hay rec-
tas fijas de esta dirección.

6. Simetría central. Todo subespacio afín que pasa por el punto fijo P es fijo,
por ser f una homotecia.

7. Giro de eje r . Para el cálculo de los planos fijos cuando b 6= 0, considera-


mos los autovalores de la matriz traspuesta. En este caso solamente tene-
mos un autovalor real µ1 = 1, con espacio asociado
   
1 0
   
 0   1 
V1 (µ1 ) = 〈 , 〉,
 0   0 
0 0

que da lugar a los planos de la forma a0 + a1 x1 = 0, perpendiculares a r .


Por tanto, los planos fijos son los perpendiculares a r .


Para el cálculo de las rectas fijas, partimos del único autovalor real de f ,
que es λ1 = 1. El espacio de autovectores asociado es
½
y 2 = 0,
V1 (λ1 ) :
y 3 = 0.

Si s es una recta fija de dirección en V1 (λ2 ) y P = (p 1 , p 2 , p 3 ) un punto de


−−−−→
la misma, entonces P f (P ) ∈ V1 (λ1 ) implica que P ∈ L f . Por tanto, la única
recta fija es L f .

8. Movimiento helicoidal. Para el cálculo de los planos fijos, el único auto-


valor real de la matriz traspuesta es µ1 = 1, con espacio de autovectores

Álgebra Lineal y Geometría 507


Depto. de Álgebra

asociado
 
1
 
 0 
V1 (µ1 ) = 〈 〉,
 0 
0

por lo que no hay planos fijos. Ya sabemos que la única recta fija es el eje
del giro asociado.

9. Simetría rotacional de eje r y plano H. Calculemos los planos fijos. Los


autovalores reales de la matriz traspuesta son µ1 = 1, µ2 = −1, con espacio
de autovectores asociado

   
1 −α/2
   
 0   1 
V1 (µ1 ) = 〈  1 2
〉,V (µ ) = 〈  〉.
 0   0 
0 0

El primer espacio no produce planos fijos, y el segundo da lugar al plano


−α/2 + x1 = 0, que es H. Por tanto, H es el único plano fijo.


El único autovalor real de f es λ1 = −1, con espacio de autovectores aso-
ciado
½ ½
(a − 1)y 2 − by 3 = 0, y 2 = 0,
V1 (λ1 ) : ≡
by 2 + (a − 1)y 3 = 0, y 3 = 0.

Sea s una recta fija y P = (p 1 , p 2 , p 3 ) un punto de la misma. Entonces


−−−−→
P f (P ) ∈ V1 (λ1 ) implica que P ∈ r . Por tanto, la única recta fija es r .

13.5. Semejanzas

Cuando representamos objetos geométricos, con frecuencia aplicamos un


factor de escala para que el dibujo tenga un tamaño razonable en la página.
El factor de escala es irrelevante en este caso, pues decimos que dos dibujos a
diferentes escalas son el mismo, salvo por el tamaño. Esto es lo que vamos a
definir como semejanza.

508 Álgebra Lineal y Geometría


Depto. de Álgebra

Semejanzas

Una aplicación afín f : An (R) −→ An (R) es una semejanza si existe un


número real λ > 0 verificando que, para cualesquiera P,Q ∈ An (R),

d ( f (P ), f (Q)) = λd (P,Q).

En estas condiciones, λ se denomina la razón de la semejanza.

Nota 13.5.1. La hipótesis de ser aplicación afín no es necesaria. Si verifica la


condición de proporcionalidad de las distancias, entonces se puede probar que
es una aplicación afín ([Ber09, prop. 9.5.1.]).

Ejemplo 13.5.1.- Ya hemos visto dos ejemplos de semejanzas:


1. Los movimientos, que son las semejanzas de razón 1.


2. Las homotecias, que son las afinidades h que verifican h = λ idV , para
λ ∈ R \ {0, 1}. Por tanto, las homotecias son semejanzas de razón |λ|.

Vamos a probar que toda semejanza se puede obtener a partir de una ho-
motecia y un movimiento.

Caracterización de las semejanzas

Sea f una semejanza en An (R) de razón λ. Entonces f = h ◦ g , donde g


es un movimiento en An (R) y h es una homotecia de razón λ.

P RUEBA : Prácticamente el enunciado contiene la prueba. Dada la seme-


−−→
janza f , consideremos h cualquier homotecia de razón λ. En particular, h −1 =
(1/λ) idV . Entonces, si tomamos g = h −1 ◦ f , tenemos que, para cualesquiera
P,Q ∈ An (R),
°−−−−−−−→° 1 °−−−−−−−→°
° ° ° °
d (g (P ), g (Q)) = °g (P )g (Q)° = ° f (P ) f (Q)°
λ
1
= d ( f (P ), f (Q)) = d (P,Q).
λ

Álgebra Lineal y Geometría 509


Depto. de Álgebra

Así, g es un movimiento. 

Nota 13.5.2. Este resultado nos permite obtener muchas propiedades de las
semejanzas. Destacamos primero algunas de las inmediatas:

1. Las semejanzas (de razón λ) son afinidades y, por tanto, biyectivas. Así
pues, si f es una semejanza, f −1 existe y, trivialmente, es también una
semejanza (de razón 1/λ). Observemos que tendremos, como en el caso
de las afinidades, semejanzas directas e indirectas.

2. Por el apartado anterior, deducimos que el conjunto de las semejanzas es


un grupo para la composición de aplicaciones.

3. Las semejanzas conservan ángulos. En efecto, dado que ya lo sabemos de


los movimientos, solamente hay que probarlo de las homotecias. Pero,
dada una homotecia h y puntos P,Q, R ∈ An (R), si denotamos por ω el
−−−−−−−→ −−−−−−−→
ángulo formado por h(P )h(Q) y h(P )h(R),
−−−−−−−→ −−−−−−−→ −−→ −→
〈h(P )h(Q)|h(P )h(R)〉 〈λPQ|λP R〉
cos(ω) = −−−−−−−→ −−−−−−−→ = −−→° ° −→°
° ° ° ° °
° °° ° ° °° °
°h(P )h(Q)° °h(P )h(R)° °λPQ ° °λP R °
−−→ −→ −−→ −→
λ2 〈PQ|P R〉 〈PQ|P R〉
= ° ° ° ° = ° °° °,
2 °−−→° °−→° °−−→° °−→°
|λ| °PQ ° °P R ° °PQ ° °P R °

lo que prueba el resultado.

Recordemos que si f es una aplicación afín con algún punto fijo P , entonces


la variedad de puntos fijos es L f = P + ker( f − idV ). Por tanto, una aplicación


afín f tiene un único punto fijo si y solamente si 1 no es autovalor de f .

Punto fijo de una semejanza

Sea f una semejanza que no es un movimiento. Entonces existe un úni-


co punto fijo, denominado centro de la semejanza.



P RUEBA : Sea f una semejanza de razón λ. Si µ es un autovalor de f , con
autovector asociado u, entonces
°→ ° °−−−−−−−−−−→°
°− ° ° °
° f (u)° = ° f (P ) f (P + u)° = d ( f (P ), f (P + u)) = λd (P, P + u) = λ kuk,

510 Álgebra Lineal y Geometría


Depto. de Álgebra



de donde |µ| = λ. Por tanto, todos los autovalores de f son de módulo igual a
λ. Si f no es movimiento, entonces su razón λ no es igual a 1, por lo que f tiene
un único punto fijo. 

Nota 13.5.3. Si f es una semejanza de razón λ 6= 1, llamemos C a su centro.


En el teorema de caracterización de semejanzas, se tiene que f = h ◦ g , con
h una homotecia de razón λ y g un movimiento. No ponemos restricción a la
selección del centro de la homotecia. ¿Existe algún punto especial? Veamos lo
que ocurre al tomar h de centro C . Si Q ∈ An (R), entonces

1 −−−−→ 1→− −−→ 1 −−→


h −1 ( f (Q)) = C + C f (Q) = C + f (CQ) = f (C + CQ) = f (h −1 (Q)),
λ λ λ

lo que significa que h ◦ g = g ◦ h, esto es, la composición es conmutativa.

13.6. Semejanzas en el plano y en el espacio


El producto de una homotecia h por una traslación τ es de nuevo una ho-
motecia, ya que
−−→ → − →−
h ◦ τ = h ◦ τ = (λ idV ) ◦ idV = λ idV .
Como vemos, es una homotecia cuya razón coincide con la de h. Análogamen-
te podemos comprobar que el producto de una homotecia de razón λ por una
simetría central (cuyo isomorfismo asociado es − idV ) es de nuevo una homo-
tecia (de razón −λ).

Semejanzas en el plano

Sea f : A2 (R) → A2 (R) una semejanza de centro P 0 y razón λ, que no sea


un movimiento ni una homotecia. Entonces existen h una homotecia
de centro P 0 y razón λ y g un movimiento tales que f = g ◦ h = h ◦ g y

1. Si f es una semejanza directa, entonces g es un giro de centro P 0 .

2. Si f es una semejanza indirecta, entonces g es una simetría axial


de eje r con P 0 ∈ r .

P RUEBA : Sea f una semejanza de razón λ y centro P 0 . Consideremos h ′ la


homotecia de centro P 0 y razón µ = ±1/λ (cualquier elección es válida). Enton-
ces la composición g = h ′ ◦ f es un movimiento con puntos fijos. Si es directo,

Álgebra Lineal y Geometría 511


Depto. de Álgebra

se trata de la identidad o un giro; si es indirecto, es una simetría axial. Podemos


entonces escribir f = h ◦ g , con h la homotecia inversa de h ′ .
Si f es una semejanza directa, entonces g es la identidad o un giro de centro
P 0 . Si g es la identidad, entonces f es una homotecia. Luego si f es semejanza
directa que no es homotecia, entonces g es un giro de centro P 0 . Aquí conside-
ramos la simetría central como un giro de ángulo π.
Si f es una semejanza indirecta, entonces g es una simetría axial, donde P 0
pertenece al eje de la simetría.
Observemos que si formamos la composición g ′ = f ◦h ′ , obtenemos un mo-

− →
− → −
vimiento g ′ tal que g ′ = µ f = g y g ′ (P 0 ) = g (P 0 ). Por tanto, son iguales, y la
composición es conmutativa. 

Nota 13.6.1. Por el anterior resultado, a las semejanzas directas se las llama
también giros con dilatación, y a las semejanzas indirectas se las denomina
simetrías axiales con dilatación.
Nota 13.6.2. En el resultado anterior, conocemos los elementos geométricos de
los movimientos correspondientes:

1. El eje de la simetría axial pasa por el centro de la semejanza f y su direc-




ción está formada por los autovectores de f asociados al autovalor λ, o,

− →

lo que es lo mismo, los autovectores de g = λ1 f .
→−
2. El centro del giro es el centro de la semejanza y la matriz de g es
µ ¶

− 1 →
− cos(ω) − sen(ω)
MR ( g ) = MR ( f ) =
λ sen(ω) cos(ω)

nos da directamente el ángulo ω.

Semejanzas en el espacio

Sea f : A3 (R) → A3 (R) una semejanza de centro P 0 y razón λ 6= 1. Enton-


ces existen h una homotecia de centro P 0 y razón λ y g un giro de eje r
con P 0 ∈ r tales que f = g ◦ h = h ◦ g .

P RUEBA : Sea f una semejanza de razón λ y centro P 0 y consideremos h ′


una homotecia de centro P 0 y razón 1/λ o −1/λ, de forma que la composición
g = h ′ ◦ f sea un movimiento directo (lo logramos escogiendo el signo). Dicho
movimiento tiene a P 0 como punto fijo. Por tanto, debe ser la identidad (giro de

512 Álgebra Lineal y Geometría


Depto. de Álgebra

ángulo 0), una simetría axial (giro de ángulo π) o un giro de ángulo ω distinto
de 0 y π. En consecuencia, f = h ◦ g , con h la homotecia inversa de h.

− → −
Como el movimiento g ′ = f ◦ h ′ verifica que g ′ = g y g ′ (P 0 ) = g (P 0 ), enton-
ces g = g ′ y tenemos que g ◦ h = h ◦ g . 

Álgebra Lineal y Geometría 513


Depto. de Álgebra

514 Álgebra Lineal y Geometría


Capítulo 14

Geometría elemental del plano

En este tema trabajaremos en el plano afín euclídeo (A2 (R), R2 , +), que no-
taremos E = A2 (R). En él definiremos y estudiaremos objetos que no son subes-
pacios afines, como los triángulos y las circunferencias.

14.1. Triángulos
Recordemos que un triángulo T = △ABC está definido por tres puntos A, B
y C afínmente independientes, que se denominan vértices. Vamos a introdu-
cir conceptos métricos asociados a T , pues las medianas y el baricentro son
conceptos afines, donde no interviene el producto escalar.
Los lados de un triángulo son las rectas AB, BC y C A. Es habitual notar
las longitudes de los segmentos definidos en cada lado como a = d (B,C ), b =
d (C , A), c = d (A, B). Para abreviar, se suele usar también el nombre de lado al
referirse a estas longitudes. El contexto nos indicará si nos referimos a la recta,
al segmento o a la longitud.

Ángulos de un triángulo

Dado un triángulo T = △ABC , llamamos ángulo en el vértice A al án-


−→ −→
gulo no orientado formado por los vectores AB y AC . Su medida se no-
b por lo que
tará como A,
−→ −→
〈 AB| AC 〉
b
cos A = −→° °−→° .
°
° °° °
° AB ° ° AC °

509
Depto. de Álgebra

Tipos de triángulos

Decimos que un triángulo es equilátero si sus tres ángulos son


iguales.

Decimos que un triángulo es isósceles si dos de sus ángulos son


iguales y distinto al tercero.

Decimos que un triángulo es escaleno si sus tres ángulos son dis-


tintos.

Cuando en un triángulo uno de los ángulos es igual a π/2 decimos que el


triángulo es rectángulo en el vértice asociado. Si uno de los ángulos es mayor
que π/2, decimos que es obtuso, y si es menor decimos que es agudo.

Teorema del coseno

En un triángulo △ABC se verifica

a 2 = c 2 + b 2 − 2 · c · b · cos Ab
b 2 = c 2 + a 2 − 2 · c · a · cos Bb
c 2 = b 2 + a 2 − 2 · b · a · cos Cb.

P RUEBA : Basta probar la primera, las demás se prueban igual cambiando


los puntos. Se tiene
°−→°2 −→ −→
° °
a 2 = °BC ° = 〈BC |BC 〉
−→ −→ −→ −→
= 〈( AC − AB )|( AC − AB )〉
°−→°2 °−→°2 −→ −→
° ° ° °
° AC ° + ° AB ° − 2〈 AB| AC 〉
= b 2 + c 2 − 2cb cos A.
b


b = π , entonces
Como caso particular, tenemos el teorema de Pitágoras: Si A 2

a2 = c 2 + b2.

510 Álgebra Lineal y Geometría


Depto. de Álgebra

Nota 14.1.1. Antes de estudiar la igualdad de triángulos, recordamos que la


imagen de una semirrecta mediante un movimiento es otra semirrecta, trans-
formándose origen en origen. Esto es cierto en general para afinidades. Veamos
dos propiedades importantes de las semirrectas.

1. Hay exactamente dos movimientos que dejan invariante una semirrecta


dada: la identidad y la simetría de eje la recta que la contiene.
Sea r 1 = r A,u una semirrecta de origen A y r = A + 〈u〉 la recta que la con-
tiene. Si f es un movimiento de E tal que f (r 1 ) = r 1 , entonces f (A) = A
y f (r ) = r . Así, si f es directo debe ser la identidad, pues el otro movi-
miento directo con punto doble A, la simetría de centro A, intercambia
r 1 y su opuesta r A,−u . Si f es indirecto, es necesariamente la simetría de
eje r pues el otro movimiento indirecto con punto doble A que deja in-
variante r es la simetría de eje perpendicular a r , que intercambia r 1 con
su opuesta r A,−u .

2. Dadas dos semirrectas, existen exactamente dos movimientos que trans-


forman una en otra, uno directo y el otro indirecto.
Dadas dos semirrectas, existe al menos un movimiento que lleva una so-
bre la otra, pues basta considerar la traslación que lleva el origen de una
sobre el de la otra, seguida del giro de centro el origen común y ángulo el
que forman ambas después de la traslación. (Esto hay que probarlo).
Sean r 1 , r 1′ dos semirrectas, r, r ′ las rectas que las contienen, σ, σ′ las si-
metrías de ejes respectivos r, r ′ . Sean f , g dos movimientos de E tales que
f (r 1 ) = g (r 1 ) = r 1′ . Entonces g −1 f deja invariante a r 1 , luego g −1 f = idE
ó g −1 f = σ y así g = f ó g = f σ, lo que prueba el enunciado. También
obtenemos, usando el mismo razonamiento, que, o g = f o g = σ′ f . Se
observa que si uno de los movimientos f es directo (indirecto), el otro
g = σ′ f es indirecto (directo), y que si la imagen de un punto P por f es-
tá en uno de los semiplanos definidos por la recta imagen, el punto g (P )
está en el otro semiplano.

Nota 14.1.2. Otra manera de demostrar el lema anterior es la siguiente. Dadas


las semirrectas r 1 = r A 1 ,u1 y r 2 = r A 2 ,u2 , con u1 y u2 unitarios, si tomamos dos
vectores unitarios v1 y v2 ortogonales, respectivamente a u1 y u2 , entonces los
dos únicos movimientos f y g que llevan r 1 en r 2 , son los que, respecto de los
sistemas de referencia métricos R i = {A i , {ui , vi }}, i = 1, 2 tienen por ecuacio-
nes    
1 0 0 1 0 0
MR 1 ,R 2 ( f ) =  0 1 0  , MR 1 ,R 2 (g ) =  α 1 0 .
0 0 1 β 0 −1

Álgebra Lineal y Geometría 511


Depto. de Álgebra

Claramente, uno es directo y el otro inverso, y llevan un punto P arbitrario a


dos puntos f (P ) y g (P ), que están en semiplanos opuestos de borde la recta r
que contiene a r 2 .

Triángulos iguales

Se dice que dos triángulos son iguales si existe un movimiento que lleva
uno en otro.

Vamos a estudiar ahora los casos clásicos de igualdad de triángulos. En el si-


guiente teorema llamamos lado de un triángulo a la distancia entre vértices, es
decir, los lados de ABC son d (A, B), d (B,C ), d (C , A).

Condiciones de igualdad de triángulos

Sean △ABC y △A ′ B ′C ′ dos triángulos. Las condiciones siguientes son


equivalentes.

1. Los triángulos son iguales.

2. Los triángulos ABC y A ′ B ′C ′ tienen iguales dos lados y el ángulo


comprendido.

3. Los triángulos ABC y A ′ B ′C ′ tienen igual un lado y los ángulos


adyacentes.

4. Los triángulos ABC y A ′ B ′C ′ tienen iguales los tres lados.

P RUEBA : Es claro que la primera condición implica las otras tres. Veamos el
recíproco.

c′ . Uno de
(2) ⇒ (1) Supongamos que d (A,C ) = d (A ′ ,C ′ ), d (B,C ) = d (B ′ ,C ′) y Cb = C
los dos movimientos que lleva r C A sobre r C ′ A ′ (y, por tanto, C en C ′ ) lle-
va B al semiplano de borde C ′ + A ′ que contiene a B ′ . Entonces r C B se
aplica sobre r C ′ B ′ por la igualdad de los ángulos Cb = Cc′, B sobre B ′ por la
igualdad de los lados d (B,C ) = d (B ,C ) y A sobre A ′ por la igualdad de
′ ′

los lados d (A,C ) = d (A ′ ,C ′ ).

(3) ⇒ (1) Si suponemos que d (A,C ) = d (A ′ ,C ′ ), Ab = c c′, se toma el movi-


A ′ y Cb = C
miento f tal que f (r C A ) = r C ′ A ′ y f (B) está en el mismo semiplano de

512 Álgebra Lineal y Geometría


Depto. de Álgebra

borde C ′ + A ′ que B ′ . La igualdad de lados d (A,C ) = d (A ′ ,C ′) implica que


f (A) = A ′ , la de ángulos Cb = C c′ implica que f (r C B ) = r C ′ B ′ y la de ángulos
b=c
A A ′ , que f (r AB ) = r A ′ B ′ luego f (B) = B ′ .

c′ y estamos en uno de los casos ante-


(4) ⇒ (1) Por el teorema del coseno es Cb = C
riores.

Probaremos a continuación que la suma de los ángulos de un triángulo siempre


es la misma; para ello, veremos antes un resultado muy conocido.

Ángulos alternos internos

Sean r y s dos rectas paralelas distintas, t una recta secante a ambas, y


notemos los puntos de corte como A = t ∩ r, B = t ∩ s. Escribamos

r = A + 〈u〉, s = B + 〈u〉,

y llamemos r 0 y s 0 las dos semirrectas de r y s definidas por el mismo


vector (es decir, contenidas en el mismo semiplano de borde t ) y r 1 , s 1
las opuestas:

r 0 = r A,u , s 0 = r B,u , r 1 = r A,−u , s 1 = r B,−u .

Se verifica que
á
(r á
1 , r AB ) = (r B A , s 0 )

y estos ángulos se llaman alternos internos (ver figura 14.1).

P RUEBA : Sea σ la simetría de centro el punto medio M de AB; entonces


σ(A) = B, σ(B) = A. Luego, σ(r AB ) = r B A . Como → −
σ = − idV , es σ(r ) = s, σ(s) =
r . Ya que M es el punto medio de P σ(P ), P ∈ r 1 , es σ(P ) ∈ s 0 , luego σ(r 1 ) =
s 0 , σ(r 0 ) = s 1 , y así la conclusión es obvia, porque los movimientos conservan
ángulos. 

Suma de los ángulos de un triángulo

La suma de los ángulos de un triángulo ABC es π (ver figura 14.2).

Álgebra Lineal y Geometría 513


Depto. de Álgebra

r1 ... r0
..
A

...
s1
.. s0
B

Figura 14.1: Ángulos alternos internos

P A Q

B C

Figura 14.2: Suma de los ángulos de un triángulo

514 Álgebra Lineal y Geometría


Depto. de Álgebra

−→ −→
P RUEBA : Sean P = A − BC , Q = A + BC . Entonces

(rá
AP , r AB ) = (rá b
B A , r BC ) = B

por alternos internos. Y análogamente,

(rá á b
AQ , r AC ) = (r C A , r C B ) = C

b + Bb + Cb = π.
por alternos internos. De aquí se deduce que A 

14.2. Circunferencias

Seguimos trabajando en el plano afín euclídeo E . Vamos a estudiar ahora


las circunferencias.

Circunferencias

Una circunferencia de radio r ∈ R+ y centro un punto C del plano E es


el lugar geométrico de los puntos del plano cuya distancia a C es r :

C = {P ∈ E | d (P,C ) = r }.

Respecto de un sistema de referencia métrico, si las coordenadas de C son


(c1 , c2 ), la ecuación de la circunferencia será

C : (x − c1 )2 + (y − c2 )2 = r 2 .

Por tanto, una circunferencia que determinada por tres puntos no alineados,
pues nos queda un sistema de ecuaciones compatible determinado en las in-
cógnitas c1 , c2 , r .

Álgebra Lineal y Geometría 515


Depto. de Álgebra

Posiciones relativas de una circunferencia y una recta

Sea C una circunferencia y t una recta. Se tienen las siguientes posibi-


lidades:

1. t ∩ C = ;. En este caso decimos que la recta es exterior a la cir-


cunferencia.

2. t ∩ C = {P }. Decimos que la recta es tangente a C en el punto P .

3. t ∩ C = {P 1 , P 2 } con P 1 6= P 2 y decimos que t es secante a C .

Además, si P ∈ C y t es una recta que pasa por P , entonces t es tan-


−→
gente a C en P si y solamente si C P ∈ D(r )⊥ , donde C es el centro de la
circunferencia.

P RUEBA : Tomamos un sistema de referencia cuyo origen sea C (es decir C


sea el punto (0, 0)), por lo que la ecuación de C en este sistema de referencia es

C : x2 + y 2 = r 2.

Supongamos que t es una recta arbitraria, A = (a1 , a2 ) un punto de t y v =


(v 1 , v 2 ) un vector director de t . Las ecuaciones paramétricas de t serán de la
forma ½
x = a1 + λv 1
t:
y = a2 + λv 2
Para calcular t ∩ C hay que resolver la ecuación

(a1 + λv 1 )2 + (a2 + λv 2 )2 = r 2 ,

de donde
λ2 (v 12 + v 22 ) + λ2(v 1 a1 + v 2 a2 ) + a12 + a22 − r 2 = 0.
Si llamamos

a = v 12 + v 22 , b = 2(v 1 a1 + v 2 a2 ), y c = a12 + a22 − r 2 ,

se tiene que a 6= 0, pues v 6= 0, luego la ecuación anterior puede:

1. no tener solución si b 2 − 4ac < 0,

2. tener una única solución si b 2 − 4ac = 0,

3. tener dos soluciones si b 2 − 4ac > 0.

516 Álgebra Lineal y Geometría


Depto. de Álgebra

Supongamos P = A ∈ C entonces a12 + a22 = r 2 . La intersección de t y C se ob-


tiene de la ecuación

λ(λ(v 12 + v 22 ) + 2(v 1 a1 + v 2 a2 )) = 0,

cuyas soluciones son


v 1 a1 + v 2 a2
λ = 0 y λ = −2 .
v 12 + v 22

La solución será única si y solamente si v 1 a1 + v 2 a2 = 0, que es equivalente a


−→ −−→
v ⊥C P = O A. 

Arco capaz

Sean A, B y C tres puntos distintos de una circunferencia de centro un


punto D. Si
−á→ −→
Ab = ( AB , AC )
c −−→ −−→
á
A ′ = (DB, DC ),
b′ = 2 A.
se verifica que A b

b Bb y Cb a los ángulos del triángulo ABC . Se


P RUEBA : Podemos denotar A,
tiene que
b + Bb + Cb = π.
A
Formamos tres triángulos isósceles al unir D con los puntos A, B y C . Denote-
mos α β y γ a sus ángulos en estos puntos. Concretamente suponemos
b = γ + β, Bb = γ + α, y Cb = α + β.
A

Denotamos Ab′ , Bb′ y Cb′ a los ángulos de estos triángulos isósceles en el punto D.
Se verifica que
Ab′ + 2α = π, Bb′ + 2β = π, Cb′ + 2γ = π,

y que
b′ + Bb′ + Cb′ = 2π.
A
Entonces
b′ = 2π − Bb′ − Cb′ = 2π − (π − 2β) − (π − 2γ) = 2(β + γ) = 2 A.
A b

Álgebra Lineal y Geometría 517


Depto. de Álgebra

14.3. Elementos notables del triángulo


Describiremos ahora los puntos notables de un triángulo y algunas de sus
principales propiedades. Estos puntos son los siguientes: circuncentro, incen-
tro, baricentro y ortocentro. Para definirlos, usaremos algunas rectas notables
del triángulo, como son las mediatrices, las bisectrices, las medianas y las altu-
ras, y también circunferencias como la inscrita y la circunscrita. Vamos a definir
estas rectas una por una.
Partimos de un triángulo △ABC y comenzamos con las rectas notables.

Mediatriz

La mediatriz de un lado es el hiperplano mediador de los vértices que


lo determinan.

Hay tres mediatrices, una por cada lado. Los puntos medios de cada lado los
notaremos como P AB , P BC , PC A y las mediatrices toman la forma
−→ −→ −−→
M AB = P AB + 〈 AB〉⊥ , MBC = P BC + 〈BC 〉⊥ , MC A = PC A + 〈C A〉⊥ .

Mediana

La mediana que pasa por un vértice es la recta que une dicho vértice
con el punto medio del lado opuesto (lado que no contiene al vértice
inicial).

Las medianas las notaremos como

m A = A + P BC , m B = B + P AC , mC = C + P AB .

Altura

La altura que pasa por un vértice es la recta perpendicular al lado


opuesto que pasa por el vértice.

Las alturas se escriben como


−→ −−→ −→
h A = A + 〈BC 〉⊥ , h B = B + 〈C A〉⊥ , hC = C + 〈 AB〉⊥ .

518 Álgebra Lineal y Geometría


Depto. de Álgebra

Bisectriz

La bisectriz que pasa por un vértice es la recta que divide el ángulo


correspondiente en dos ángulos de igual medida.

En general, cuando hablamos de longitud de medianas, alturas o bisectri-


ces, nos referimos a la longitud del segmento determinado por el vértice co-
rrespondiente y el punto de corte con el lado opuesto. Por tanto, cada triángulo
tiene tres mediatrices, tres bisectrices, tres medianas y tres alturas. Veremos
que en cada uno de los cuatro casos, las tres rectas se cortan en un sólo punto,
que será uno de los puntos notables del triángulo. Comenzaremos por uno de
los más sencillos, el circuncentro.

Concurrencia de las mediatrices

Las tres mediatrices de un triángulo △ABC se cortan en un punto D


llamado circuncentro.

P RUEBA : Observemos que la mediatriz MBC está formada por los puntos
que están a la misma distancia de B que de C . Análogamente ocurre con la
mediatrices M AC y M AB . Si consideramos dos mediatrices, por ejemplo, M AB y
MBC , vemos que no pueden ser paralelas, ya que en ese caso los puntos A, B y
−→ −→
C estarían alineados, puesto que los vectores AB y AC serían paralelos, al ser
ambos perpendiculares a la dirección común a las dos mediatrices paralelas
M AB y MBC . Por tanto, las dos mediatrices M AB y MBC se cortan en un punto
D. Ahora bien, D está a la misma distancia de A que de B, y también está a la
misma distancia de B que de C , por lo que está a la misma distancia de A que
de C . Así, D también pertenece a la mediatriz M AC , y las tres mediatrices pasan
por el punto D. 

Nota 14.3.1. Los vértices del triángulo △ABC determinan una circunferencia
que pasa por ellos. El circuncentro D es el centro de dicha circunferencia, pues
está a la misma distancia de A, B y C . El radio r es la distancia de D a cualquiera
de dichos vértices.

Enunciamos ahora un teorema que ya hemos visto referente a las medianas.

Álgebra Lineal y Geometría 519


Depto. de Álgebra

Concurrencia de las medianas

Las tres medianas de un triángulo △ABC se cortan en el baricentro G


de los tres vértices.

Sabemos además que, fijado un sistema de referencia, las coordenadas del


baricentro se obtienen dividiendo por tres las sumas de las coordenadas y
−→ 2 −−−−→ −→ −−−−→
AG = AP BC , AG = 2GP BC .
3
A continuación demostraremos la existencia del ortocentro, o punto de cor-
te de las tres alturas.

Concurrencia de las alturas

Las alturas de un triángulo △ABC concurren en un punto llamado or-


tocentro.

P RUEBA : Si por cada vértice se traza la paralela al lado opuesto, es decir,


−→ −→ −→
r A = A + 〈BC 〉, r B = B + 〈 AC 〉, r C = C + 〈 AB〉,

se obtiene un nuevo triángulo A ′ B ′C ′ (ver figura 14.3), donde

A′ = r B ∩ rC , B ′ = r A ∩ rC , C ′ = r A ∩ rB ,

y los vértices del primero son los puntos medios de los lados del segundo, (es
inmediato, usando ángulos alternos internos, que A ′B ′C ′ contiene cuatro trián-
gulos iguales, entre ellos ABC ). Se tiene, por ejemplo,

d (A,C ′ ) = d (B,C ) = d (A, B ′ ).

Así las alturas de ABC son las mediatrices de A ′ B ′C ′ , que concurren en el punto
H, circuncentro de A ′ B ′C ′ y ortocentro de ABC . 

La misma construcción que hemos usado en esta proposición y podemos


ver en la figura 14.3, nos sirve para probar el siguiente corolario:

Recta de Euler

En un triángulo, el baricentro, el ortocentro y el circuncentro están ali-


neados.

520 Álgebra Lineal y Geometría


Depto. de Álgebra

C′

A B

B′ A′
C
H

Figura 14.3: Ortocentro

P RUEBA : Sea D el circuncentro, H el ortocentro y G el baricentro de ABC ,


y tracemos las paralelas a cada lado por el vértice opuesto, como en la proposi-
ción anterior. Los baricentros de ABC y A ′ B ′C ′ coinciden. Por consiguiente, la
homotecia de centro G y razón −2 transforma A en A ′ , B en B ′ y C en C ′ . Como
circuncentro se transforma en circuncentro por esta homotecia, el circuncen-
−−→ −−→
tro de ABC va sobre el ortocentro. De ahí el resultado. Nótese que G H = −2GD.


El último punto notable de un triángulo que veremos es el incentro, centro


de la circunferencia inscrita, que vamos a describir a continuación. Comenza-
remos por describir analíticamente la bisectriz de un ángulo.

Cálculo de la bisectriz

Sean r A,u y r A,v dos semirrectas de origen común A no contenidas en


la misma recta, con kuk = kv k. El lugar geométrico de los puntos que
equidistan de las rectas que contienen a r A,u y r A,v son la rectas per-
pendiculares
t1 = A + 〈u + v 〉, t2 = A + 〈u − v 〉.

P RUEBA : Sea P = A+λu+µv . La perpendicular por P a la recta que contiene


a r 0 es
A + λu + µv + 〈〈u|v 〉u − v 〉,
y su punto de corte con r 0 es P 0 = A + [λ + µ〈u|v 〉]u. Así
−−→
P 0 P = µ[−〈u|v 〉u + v ].

Álgebra Lineal y Geometría 521


Depto. de Álgebra

Haciendo lo mismo con la otra recta obtenemos un punto P 1 tal que


−−→
P 1 P = λ[u − 〈u|v 〉v ].
°−−→° °−−→°
° ° ° °
Así, °P 0 P ° = °P 1 P ° si y solamente si λ = µ (en ese caso P está dentro del trián-
gulo), o bien λ = −µ (en ese caso P está fuera del triángulo) de donde obtene-
mos el resultado. 

La recta t1 se denomina la bisectriz (o bisectriz interior) del ángulo (r 0, r 1) y


la recta t2 se denomina la bisectriz exterior del ángulo (r 0 , r 1 ). También llama-
remos bisectriz del ángulo (r ,
0 1r ) a la semirrecta r A,u+v .
Nota 14.3.2. Acabamos de ver como se calculan las bisectrices de un triángu-
b Bb y Cb. Por
lo ABC , que son las bisectrices b A , b B , y bC de los tres ángulos A,
ejemplo,
1 −→ 1 −→
b A = A + 〈 °−→° AB + °−→° AC 〉.
° ° ° °
° AB ° ° AC °

Por no usar excesiva terminología, también llamamos bisectriz al segmento de


la bisectriz que va del vértice al lado opuesto, o bien a la longitud de ese seg-
mento.

Concurrencia de las bisectrices

Las bisectrices de los tres ángulos de un triángulo concurren en un pun-


to I interior al triángulo, denominado incentro, que es centro de una
circunferencia tangente a los tres lados (circunferencia inscrita en el
triángulo).

P RUEBA : Por el lema anterior, el corte de dos bisectrices nos da un punto


que equidista de los tres lados, por lo que la existencia del incentro es obvia.
Además la circunferencia centrada en el incentro con radio la distancia de éste
a cualquiera de los lados solamente puede cortar a dichos lados en un punto,
precisamente aquél que da la distancia (esto es, el pie de la perpendicular al
lado desde el incentro). De esta forma, la circunferencia es tangente a los tres
lados. 

522 Álgebra Lineal y Geometría


Bibliografía

[Ber09] Marcel Berger, Geometry I, II, Universitext, Springer-Verlag, Berlin,


2009 (english), Translated from the 1977 French original by M. Cole
and S. Levy, Fourth printing of the 1987 English translation.

[Cox89] H. S. M. Coxeter, Introduction to geometry, Wiley Classics Library,


John Wiley & Sons, Inc., New York, 1989 (english), Reprint of the 1969
edition.

[Gol12] Jonathan S. Golan, The linear algebra a beginning graduate student


ought to know, third ed., Springer, Dordrecht, 2012 (english).

[LLM16] D.C. Lay, S.R. Lay, and J.J McDonald, Linear algebra and its applica-
tions, fifth ed., Pearson Education Inc., 2016 (english).

[Mey00] Carl Meyer, Matrix analysis and applied linear algebra, Society for In-
dustrial and Applied Mathematics (SIAM), Philadelphia, PA, 2000 (en-
glish), With 1 CD-ROM (Windows, Macintosh and UNIX) and a solu-
tions manual (iv+171 pp.).

[MS06] Luis Merino and Evangelina Santos, Álgebra lineal con métodos ele-
mentales, Ediciones Paraninfo. S.A., 2006 (spanish).

[RT11] Agustí Reventós Tarrida, Affine maps, Euclidean motions and qua-
drics, Springer Undergraduate Mathematics Series, Springer, London,
2011 (english).

[Tis83] Claude Tisseron, Géométries affine, projective et euclidienne, Actuali-


tés Scientifiques et Industrielles [Current Scientific and Industrial To-
pics], vol. 1408, Hermann, Paris, 1983 (english), Collection Formation
des Enseignants et Formation Continue. [Collection on Teacher Edu-
cation and Continuing Education].

[Zha96] Fuzhen Zhang, Linear algebra, Johns Hopkins Studies in the Mat-
hematical Sciences, Johns Hopkins University Press, Baltimore, MD,
1996 (english), Challenging problems for students.

523

También podría gustarte