0% encontró este documento útil (0 votos)
20 vistas225 páginas

Espacios Afines en Geometría III

El documento presenta una introducción a la geometría afín, destacando su relación con la geometría euclidiana y la importancia de los postulados de Euclides. Se define un espacio afín como una tripleta que incluye un conjunto de puntos y un espacio vectorial, y se discuten propiedades fundamentales de los vectores en este contexto. Además, se menciona la evolución del pensamiento geométrico desde la geometría sintética clásica hasta la moderna, que utiliza un enfoque analítico.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
20 vistas225 páginas

Espacios Afines en Geometría III

El documento presenta una introducción a la geometría afín, destacando su relación con la geometría euclidiana y la importancia de los postulados de Euclides. Se define un espacio afín como una tripleta que incluye un conjunto de puntos y un espacio vectorial, y se discuten propiedades fundamentales de los vectores en este contexto. Además, se menciona la evolución del pensamiento geométrico desde la geometría sintética clásica hasta la moderna, que utiliza un enfoque analítico.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

GEOMETRÍA III

Francisco J. López
Departamento de Geometrı́a y Topologı́a
Universidad de Granada
fjlopez@ugr.es

TEMA 1: Espacios afines


En Matemáticas, un espacio afı́n es una estructura geométrica que da sentido a los
conceptos clásicos de la geometrı́a euclidiana, como el paralelismo o la incidencia. Esta
estructura se construye sobre un espacio vectorial, aunque en un espacio afı́n no hay
elementos privilegiados (como sı́ ocurrı́a con el vector cero en los espacios vectoriales).
Usualmente a los elementos de un espacio afı́n se les llama puntos, y a los vectores
del espacio vectorial asociado direcciones. La idea básica de la geometrı́a afı́n es que
cualquier vector se puede apoyar sobre un punto, que funciona como origen del mismo,
determinando automáticamente un punto final o extremo, y simétricamente dos puntos
ordenados definen un único vector de forma que algunas reglas básicas de aditividad se
satisfacen. Esta asignatura Geometrı́a III es una asignatura finalista, en el sentido de
que supone la culminación del conocimiento cientı́fico en el ámbito de las geometrı́as
lineal y afı́n, que alcanzan en la geometrı́a proyectiva el cénit de su desarrollo.

1. INTRODUCCIÓN
Pensemos en un plano de naturaleza fı́sica tal y como lo entendı́an los antiguos
griegos. Para poder modelarlo y hacer geometrı́a sobre él, Euclides (ca. 325 a. C.-ca.
265 a. C.) en Los Elementos distinguı́a entre Axiomas (verdades absolutas universales)
y Postulados (enunciados que, no necesitando demostración, se admitı́an como verdades
para el desarrollo de una ciencia en particular).

Figura 1: Euclides

Los axiomas eran comunes a todas las ciencias, entre los mismos encontramos enun-
ciados como ”Cosas iguales a una misma cosa son iguales entre sı́”, ”Si se añaden

1
iguales a iguales, los todos son iguales”, ”Si se sustraen iguales a iguales, los restos
son iguales”, ”Las cosas que coinciden una con otra son iguales entre sı́”, ”El todo es
mayor que la parte”.
Los postulados sin embargo variaban con cada ciencia. Los de la Geometrı́a, la
ciencia por excelencia en la cosmovisión helénica, eran los siguientes:
(I) Una lı́nea recta puede ser dibujada uniendo dos puntos cualesquiera.
(II) Un segmento de lı́nea recta se puede extender indefinidamente en una lı́nea recta.
(III) Dado un segmento de lı́nea recta, puede dibujarse un cı́rculo con cualquier centro
y distancia.
(IV) Todos los ángulos rectos son iguales entre sı́.
(V) Postulado de las paralelas. Si una lı́nea recta corta a otras dos, de tal manera
que la suma de los dos ángulos interiores del mismo lado sea menor que dos
rectos, las otras dos rectas se cortan, al prolongarlas, por el lado en el que están
los ángulos menores que dos rectos.

Figura 2: V Postulado: de las paralelas

Este postulado admite el siguiente enunciado equivalente:


Por un punto exterior a una recta se puede trazar una única paralela.
El (V) postulado resultó trascendental para la geometrı́a euclidiana. Durante siglos
se pensó que realmente era consecuencia lógica de los anteriores, aunque finalmente
supimos que no era ası́ gracias a los trabajos de Bolyai, Lobachevsky y Gauss (que
dieron lugar a la aparición de las geometrı́as no-euclidianas).
Naturalmente, la correcta comprensión de los anteriores postulados requiere de un
gran número de definiciones previas. A modo de curiosidad aquı́ presentamos un listado
amplio de las que utilizaba Euclides para la Geometrı́a:

Un punto es lo que no tiene partes.


Una lı́nea es una longitud sin anchura.
Una lı́nea recta es aquella que yace por igual respecto de los puntos que están en
ella.
Una superficie es lo que solo tiene longitud y anchura.
Los extremos de una superficie son lı́neas.
Una superficie plana es aquella que yace por igual respecto de las lı́neas que están
en ella.

2
Un ángulo plano es la inclinación mutua de dos lı́neas que se encuentran una a
otra en un plano y no están en lı́nea recta.

Cuando las lı́neas que comprenden el ángulo son rectas, el ángulo se llama rec-
tilı́neo.

Cuando una recta levantada sobre otra recta forma ángulos adyacentes iguales
entre sı́, cada uno de los ángulos iguales es recto y la levantada se llama perpen-
dicular a aquella sobre la que está.

Ángulo obtuso es el mayor que un recto.

Ángulo agudo es el menor que un recto.

Un lı́mite es aquello que es extremo de algo.

Una figura es lo contenido por uno o varios lı́mites.

Un cı́rculo es una figura plana comprendida por una lı́nea tal que todas las rectas
caen sobre ella desde un punto de los que están dentro de la figura son iguales
entre sı́. El punto se llama el ((centro)) del cı́rculo.

Un diámetro del cı́rculo es una recta cualquiera trazada a través del centro y
limitado en ambos sentidos por la circunferencia del cı́rculo, recta que también
divide el cı́rculo en dos partes iguales.

Un semicı́rculo es la figura comprendida entre el diámetro y la circunferencia por


él cortada. Y el centro del semicı́rculo es el mismo que el del cı́rculo.

Figuras rectilı́neas son las comprendidas por rectas, triláteras las comprendidas
por 3, cuadriláteras las comprendidas por 4, multiláteras las comprendidas por
más de 4 rectas.

Entre las figuras triláteras, el triángulo equilátero es la que tiene los tres lados
iguales, triángulo isósceles la que tiene dos lados iguales, y el triángulo escaleno
la que tiene los tres lados desiguales.

Entre las figuras triláteras, triángulo rectángulo es la que tiene un ángulo recto,
obtusángulo la que tiene un ángulo obtuso, acutángulo la que tiene los tres ángulos
agudos.

De entre las figuras cuadriláteras, cuadrado es la que es equilátera y rectangular,


rectángulo la que es rectangular pero no equilátera, rombo la que es equilátera pero
no rectangular, romboide la que tiene los ángulos y los lados opuestos iguales entre
sı́, pero no es equilátera ni rectangular; y trapecios las demás figuras cuadriláteras.

Son rectas paralelas las que estando en el mismo plano y siendo prolongado in-
definidamente en ambos sentidos, no se encuentran una a otra en ninguno de
ellos.

El desarrollo del conocimiento en la Grecia clásica era de naturaleza sintética, esto


es, a partir de los axiomas, definiciones y postulados adoptados se demostraban proposi-
ciones, lemas, teoremas, corolarios... utilizando la lógica aristotélica o lógica matemática
como norma fundamental para el buen razonamiento. Los postulados eran útiles en la

3
medida en que la ciencia que se desarrollaba a partir de ellos se ajustaba a la percepción
de nuestro universo fı́sico.
La geometrı́a moderna sin embargo es de naturaleza analı́tica como consecuencia
de los trabajos de Fermat y Descartes, y el manejo del lenguaje de las aplicaciones.
Esencialmente, nosotros entendemos los puntos del plano como pares de números (sus
coordenadas cartesianas en unos ejes) que son susceptibles de ser sometidos a opera-
ciones, lo que permite sustituir todo el aparato lógico de Euclides por el análisis y el
álgebra. Ası́, las rectas, planos, etc se identifican con el conjunto de soluciones de los
sistemas de ecuaciones lineales, mientras que por ejemplo las cónicas (y en general las
hipercuádricas) se corresponden con los ceros de ecuaciones cuadráticas. De esta forma,
cálculos aritméticos sencillos en los que aparecen involucradas ecuaciones de diversa
naturaleza (lineal, cuadrática,...) sustituyen mágicamente a teoremas complejos de la
geometrı́a sintética clásica. Una de las claves para construir este aparato matemático
será aprovechar el álgebra lineal, asignando a cada pareja de puntos p, q de nuestro plano
euclidiano clásico A un vector → −
pq con origen p y extremo q. Para que estos vectores no
estén fijos o rı́gidamente anclados en su origen y extremo, se identifican aquellos vecto-
−→
res fijos →
−pq y p0 q 0 que, teniendo la misma longitud, estén contenidos en rectas paralelas
y apunten en el mismo sentido sobre éstas (vectores equipolentes).

Figura 3: Vectores fijos equipolentes

Usando el lenguaje algebraico de las relaciones binarias (de equivalencia), si escri-


bimos como [→ −
pq] el conjunto de todos los vectores fijos en A con el mismo módulo,
dirección y sentido que →

pq, el espacio cociente

V = {[→

pq] : p, q ∈ A}

tiene de forma natural estructura de espacio vectorial y es conocido como espacio de los
vectores libres del plano. Observemos que de esta forma hemos definido una aplicación


: A × A → V, (p, q) 7→ [→

pq]

satisfaciendo las siguientes dos propiedades elementales:


[→

pq] + [→

qr] = [→

pr].

∀ p ∈ A, ∀ v ∈ V , ∃! q ∈ A : [→

pq] = v.
Esta construcción por supuesto se puede generalizar a espacios euclı́deos de dimensión
arbitraria, y sirve de inspiración para la noción moderna de espacio afı́n que trataremos
en la siguiente sección.

2. EL ESPACIO AFÍN
La definición formal es la siguiente

4
Definición 2.1 Un espacio afı́n es una tripleta (A, V, −

) donde

A es un conjunto no vacı́o (llamado conjunto de puntos).

V ≡ (V, +, ·R) es un espacio vectorial real (aunque podrı́a serlo sobre cualquier
otro cuerpo, como C).


: A × A → V , (p, q) 7→ →

pq, es una aplicación satisfaciendo

A1 : →

pq + →

qr = →

pr (Igualdad Triangular o Regla de Chasles).
A2 : ∀ p ∈ A, ∀ v ∈ V , ∃! q ∈ A : →

pq = v.

(a) Vector →

pq. (b) Axioma 1.

Al espacio vectorial V se le llama variedad de dirección del espacio afı́n A, y se suele



− →
− →

denotar como A . Por definición, la dimensión de A es la de A : dim A = dim A . Al


vector →

pq ∈ A se le llama vector determinado por los puntos p y q de A, siendo p y q
respectivamente un punto origen y un extremo (o punto final) de → −
pq.

Observación 2.2 Como regla mnemotécnica, a veces es útil usar la notación



− →

pq ≡ q − p ∈ A ,

siendo la expresión q − p meramente formal (no se apela a ninguna sustracción, que


obviamente no tiene sentido en A a tenor de la axiomática). Esta notación tendrı́a la
ventaja de darle una apariencia de cancelación algebraica al axioma A1:

(q − p) + (r − q) = r − p.

En lo que sigue (A, A, −



) será un espacio afı́n.

Propiedades 2.3 Los siguientes enunciados son ciertos:

(i) Si →

pq = →

pr entonces q = r, ∀p, q, r ∈ A.
Trivial de A2.

(ii) →

pp = ~0, ∀p ∈ A.
En efecto, de A1 se tiene que →

pp + →

pp = →

pp, de donde →

pp = ~0.

(iii) Si →

pq = ~0 entonces p = q.
Trivial de (ii) y A2.

(iv) →

pq = −→

qp, ∀p, q ∈ A.
En efecto, de A1 y (ii) se tiene que →

pq + →

qp = →

pp = ~0, de donde →

pq = −→

qp.

5
Figura 5: Regla del paralelogramo

(v) (Regla del paralelogramo) Si −p−→ −−→ −−→ −−→


1 q1 = p2 q2 entonces p1 p2 = q1 q2 .

Se tiene de A1 que − p−→ −−→ −−→ −−→ −−→


1 p2 + p2 q2 = p1 q2 = p1 q1 + q1 q2 , de donde usando que

p−→
q =− p−→
q y cancelando deducimos que − p−→
p =− q−→
q.
1 1 2 2 1 2 1 2

(vi) Si p1 , . . . , pk ∈ A, k ≥ 2, entonces k−1


P −−−→ −−→
j=1 pj pj+1 = p1 pk .
El resultado es cierto paraP
k = 3 por el axiomaA1. Inductivamente, si k > 3 se
Pk−1 −− −→
tiene que j=1 pj pj+1 = k−2 −−−→ −−−−→ −−−−→ −−−−→ −−→
j=1 pj pj+1 + pk−1 pk = p1 pk−1 + pk−1 pk = p1 pk .



Definición 2.4 Fijado p ∈ A, denotaremos por Fp : A → A a la aplicación dada por

Fp (q) = →

pq.

Nótese que del axioma A2 se deduce que Fp es una biyección.

Es conveniente comparar la siguiente definición con la Observación 2.2.

Definición 2.5 (Suma de un punto y un vector) Si p ∈ A y v ∈ A, el único pun-


to q ∈ A dado por el axioma A2 tal que → −
pq = v será denotado como p + v. Como
consecuencia las siguientes identidades son inmediatas:
−−−−−→
q =p+→

pq, p (p + v) = v.

Si escribimos
Gp : A → A, Gp (v) = p + v,
es claro que Gp = Fp−1 (ver Definición 2.4), y por tanto Gp es biyectiva.

Propiedades 2.6 Como consecuencia de Definición 2.5, los siguientes enunciados son
ciertos:

(i) p + ~0 = p, ∀p ∈ A.
Trivial de Propiedades 2.3-(ii).


(ii) p + (u + v) = (p + u) + v, ∀p ∈ A, ∀u, v ∈ A .
Por definición, el punto q = p + (u + v) está determinado unı́vocamente por la
identidad →

pq = u + v. Por otra parte, un cálculo directo dice
−−−−−−−−−−→ −−−−−→ −−−−−−−−−−−−−→
p (p + u) + v = p (p + u) + (p + u) (p + u) + v = u + v = →

pq,

de donde q = (p + u) + v.

6

− −−−−−−−−−−→
(iii) ∀p ∈ A, ∀u, v ∈ A , se tiene que (p + u) (p + v) = v − u.
Usando el axioma A1 y Propiedades 2.3-(iv)
−−−−−−−−−−→ −−−−−→ −−−−−→ −−−−−→ −−−−−→
(p + u) (p + v) = (p + u) p + p (p + v) = −p (p + u) + p (p + v) = −u + v.

Para culminar esta sección presentaremos las traslaciones afines.




Definición 2.7 (Traslación de vector v) Dado v ∈ A , la traslación de vector v es
la aplicación
τv : A → A, τv (p) = p + v.

Propiedades 2.8 Los siguientes enunciados son ciertos:

(i) τ~0 = IdA .




(ii) τu ◦ τv = τv ◦ τu = τu+v , ∀u, v ∈ A .


(iii) τv es una biyección con inversa τ−v , ∀v ∈ A .


(iv) El conjunto de las traslaciones T (A) = {τv : v ∈ A } es un grupo abeliano respecto
a la composición de aplicaciones.

Demostración :Como τ~0 (p) = p + ~0 = p para todo p ∈ A, (i) se sigue trivialmente.


Análogamente (τu ◦ τv )(p) = τu (τv (p)) = τu (p + v) = (p + v) + u = p + (v + u) = τu+v (p)
para todo p ∈ A, lo que prueba (ii). Los items (iii) y (iv) son una consecuencia trivial
de (i) y (ii).

Por último, comentaremos la conexión natural entre la geometrı́a afı́n y lineal. Ob-
servemos que en un espacio vectorial se puede introducir una estructura afı́n de forma
natural o canónica.

Definición 2.9 (Estructura afı́n canónica sobre un espacio vectorial) Dado un


espacio vectorial V , la aplicación


: V × V → V, −
→ := v − u.
uv

satisface trivialmente los axiomas A1 y A2 y define una estructura de espacio afı́n


(V, V, −

), conocida como la estructura afı́n canónica en el espacio vectorial V . En este


caso A = V como espacio de puntos y A = V como espacio vectorial.
Cuando V = Rn , (Rn , Rn , −

) es el espacio afı́n usual n-dimensional. La estructura
n
afı́n canónica o usual en R sigue la fórmula clásica
−−−−−−−−−−−−−−−−−→
(x1 , . . . , xn ), (y1 , . . . , yn ) = (y1 , . . . , yn ) − (x1 , . . . , xn ) = (y1 − x1 , . . . , yn − xn ).

2.1. Subespacios afines


Como en otras categorı́as, los espacios afines admiten sub-objetos naturales conoci-
dos como subespacios afines. Presentemos la definición.

7
Definición 2.10 Se dice que un subconjunto no vacı́o S de un espacio afı́n A es un


subespacio afı́n si existen un punto p ∈ A y un subespacio vectorial U ⊆ A tales que

S = p + U := {p + u : u ∈ U }.


En otras palabras, si S = Gp (U ) para algún punto p ∈ A y subespacio U ⊆ A .

Nótese que si S = p + U es un subespacio afı́n de A, la identidad p + ~0 = p garantiza


que p ∈ S. Para comprender la naturaleza geométrica de los subespacios afines es
conveniente enunciar la siguiente proposición.

Proposición 2.11 Si S = p + U es un subespacio afı́n de A, entonces son ciertas las


siguientes afirmaciones:

(i) U = {→

pq : q ∈ S}.

(ii) U = {→

qr : q, r ∈ S}.

(iii) S = q + U para todo q ∈ S.

Demostración : Sabemos que q ∈ S si y solo si q = p + u para algún u ∈ U , esto es, si




y solo si u = pq ∈ U , lo que prueba (i). Para probar (ii), nótese que
−−−−−−−−−−→
{→

qr : q, r ∈ S} = {(p + u) (p + v) : u, v ∈ U } = {v − u : u, v ∈ U } = U.
Finalmente, si q ∈ S se tiene que q = p + v para algún v ∈ U , de donde

q + U = {(p + v) + u : u ∈ U } = {p + (v + u) : u ∈ U } = {p + u : u ∈ U } = S,

donde hemos usando que {v + u : u ∈ U } = U .

Es conveniente reflexionar sobre el contenido de la proposición. El item (iii) nos dice


que el punto p por el que pasa S no es especial, puede usarse cualquiera otro punto de
S para describirlo: S = q + U para todo q ∈ S. Sin embargo, el item (ii) nos dice que
el subespacio de direcciones U de S está unı́vocamente determinado por S. Como la
− : S × S → U es interna al par (S, U ), la tripleta (S, U, −
aplicación restricción → →
) es
un espacio afı́n que tiene a U como variedad de dirección. De aquı́ que se suela escribir

− →

S = U , y por tanto S = p + S .

~ := U es la
Definición 2.12 Dado un subespacio afı́n S = p + U de A, diremos que S
~
variedad de dirección de S y escribiremos dim S = dim S.

(i) Si dim S = 1 se dice que S es una recta afı́n.

(ii) Si dim S = 2 se dice que S es un plano afı́n.

(iii) Si dim S = dim A − 1 se dice que S es un hiperplano afı́n.

Claramente 0 ≤ dim S ≤ dim A, dim S = 0 si y solo si S es un punto de A, y


dim S = dim A si y solo si S = A. Como consecuencia de Proposición 2.11-(ii), si
~ ⊆ T~ y dim S ≤ dim T .
S ⊆ T son subespacios de A entonces S

Ejercicio 2.13 Es fácil poner ejemplos de subespacios afines:

8
Figura 6: Subespacios afines

En el plano afı́n usual R2 , el conjunto

S = (0, −1) + L {(2, −3)}) = {(2λ, −1 − 3λ) : λ ∈ R}




es la recta afı́n que pasa por el punto p = (0, −1) con dirección S = L {(2, −3)}).

En el espacio afı́n asociado al espacio vectorial S2 (R) de las matrices cuadradas


simétricas de orden 2, el cojunto
     
1 −1 0 2 1 0
T = +L , ,
−1 0 2 −1 0 0

esto es   
1 + µ −1 + 2λ
T = : λ, µ ∈ R ,
−1 + 2λ −λ
es el plano afı́n que pasa por
     
1 −1 →
− 0 2 1 0
p= con dirección T = L , .
−1 0 2 −1 0 0

La siguiente proposición se corresponde con uno de los postulados clásicos de la


geometrı́a euclidiana.

Proposición 2.14 Dados dos puntos distintos p, q ∈ A, existe una única recta afı́n R
que pasa por p y q (esto es, contiene a los puntos p y q).

Demostración : Como →
− 6 ~0 ya que p 6= q, el subespacio afı́n
pq =

R := p + L({→

pq}) = {p + λ→

pq : λ ∈ R}

es una recta afı́n que contiene a p y a q = p + →



pq.
Para probar la unicidad, supongamos que S es otra recta afı́n que pasa por p y q.
En ese caso necesariamente ~0 6= → −
pq ∈ S ~ = L({→
~ y por tanto S −
pq}) al ser la variedad
de dirección de S de dimensión 1. Como S pasa por p deducimos que S = p + S ~ =


p + L({pq}) = R.

9
2.1.1. Operaciones con subespacios afines
Como ocurrı́a en Álgebra Lineal con los subespacios vectoriales, existen dos opera-
ciones básicas con subespacios afines: la intersección y la suma. Vamos a describirlas
con detalle a continuación.
De forma genérica, la intersección de subespacios afı́nes es un subespacio afı́n (salvo
que sea vacı́a). Los detalles están contenidos en la siguiente proposición.

Proposición 2.15TSea {Si }i∈I una familia de subespacios afı́nes de un espacio afı́n
A. Entonces S = i∈I Si es o bien vacı́o o bien un subespacio afı́n con variedad de

− T → −
dirección S = i∈I S i .
T
Demostración :Supongamos que S = i∈I Si 6= ∅ y tomemos p ∈ S. Como p ∈ Si para


todo i ∈ I podemos escribir Si = p + S i , para todo i ∈ I. Por tanto
\ \ →
− \→ −
S= Si = (p + S i ) = p + S i,
i∈I i∈I i∈I

de donde por definición S es un subespacio afı́n con variedad de dirección el subespacio


T → −
vectorial i∈I S i ⊆ A.

La noción de suma de subespacios afines es más elaborada.

Definición 2.16 Si S = {Si : i ∈ I} es una familia de subespacios afı́nes de un espacio


afı́n A y llamamos
[
FS = {T ⊆ A : T subespacio afı́n con Si ⊆ T },
i∈I

se define la suma afı́n de los subespacios {Si : i ∈ I} como el subespacio afı́n


_ \
Si := T.
i∈I T ∈FS
W
Nótese que FS 6= ∅ ya que A ∈ FS , por lo que la suma W i∈I Si está bien definida como
consecuencia de la Proposición
S 2.15. Por definición i∈I i es el más pequeño subespacio
S S
afı́n que contiene
W a i∈I Si , esto es, si T ⊆ A es un subespacio afı́n conteniendo a i∈I Si
entonces i∈I Si ⊆ T .
Cuando se trata de una cantidad finita de subespacios {S1 , . . . , Sk }, se suele escribir
k
_
Si ≡ S1 ∨ · · · ∨ Sk .
i=1

También se suele utilizar la notación


k
_
h{q0 , . . . , qk }i = {qi }
i=0

para denotar al menor subespacio afı́n que contiene a los puntos q0 , . . . , qk ∈ A.


La siguiente proposición proporciona un algoritmo de cálculo de la suma de subes-
pacios.

10
Notación 2.17 Recordemos que si V es un espacio vectorial y X ⊆ V es un subcojunto
arbitrario, L(X) denota el menor subespacio vectorial de V que contiene a X. Los
vectores de L(X) son las combinaciones lineales (de longitud finita) de vectores en X,
esto es,
Xk
L(X) = { λj xj : x1 , . . . , xk ∈ X, λ1 , . . . , λk ∈ R, k ∈ N}.
j=1

Si {Ui }i∈I son subespacios vectoriales de V suele escribirse


X [ 
Ui = L Ui .
i∈I i∈I

Proposición 2.18 Sea {Si : i ∈ I} una familia de subespacios afines de un espacio afı́n
A, escribamos Si = pi + S ~i para todo i ∈ I, y tomemos p ∈ W Si un punto arbitrario
i∈I
(se suele elegir p = pi para algún i ∈ I). Entonces

Si = p + L({− p− →
_ X 
i pj : i, j ∈ I}) +
~i
S
i∈I i∈I

En particular
−−−→
Si = L {−
p−→
_  X
i pj : i, j ∈ I} +
~i .
S
i∈I i∈I
T P ~
W
Como consecuencia, cuando i∈I Si 6= ∅ entonces i∈I Si = p + i∈I Si para todo
W −−−−→ P ~
W
p ∈ i∈I Si (se suele elegir p = pi para algún i ∈ I) y i∈I Si = i∈I Si .

Demostración : Consideremos

T~ = L({−
p−→ ~i ⊆ →

X
i pj : i, j ∈ I}) + S A
i∈I

y démonos cuenta de que

pj + T~ = (pi + −
p−→ ~ ~
i p j ) + T = pi + T para todo i, j ∈ I.

Por tanto, podemos definir


T = pi + T~ ,
y la expresión no depende de pi , i ∈ I.
Si comprobamos que _
T = Si
i∈I

se seguirı́a que i∈I Si = p + T~ para


W W
W todo p ∈ i∈I Si , y por tanto la tesis de la
proposición. La prueba de que T = i∈I Si la haremos por doble inclusión.
Como S ~i ⊆ T~ para todo i ∈ I tenemos que

~i ⊆ pi + T~ = T
S i = pi + S
S
para todo i ∈ I, esto es, i∈I Si ⊆ T de donde
_
Si ⊆ T
i∈I

11
W
por definición de i∈I Si . Para la otra inclusión comprobemos primero que
−−−→
_
T~ ⊆ Si .
i∈I

W −−−−→
~i ⊆ W
En efecto, como Si ⊆ i∈I Si entonces S i∈I Si para todo i ∈ I, de donde

X −−−→
_
~i ⊆
S Si .
i∈I i∈I
S W
Como para cualesquiera i1 , i2 ∈ I se tiene que pi1 , pi2 ∈ i∈I Si ⊆ i∈I Si , y por tanto
−−−−→
que −
p−−
p→ ∈
W
i1 i 2 S , inferimos que
i∈I i

−−−→
L({−
p−→
_
i pj : i, j ∈ I}) ⊆ Si .
i∈I

−−−−→
En conclusión T~ = L({−
p−→ P ~ W
i pj : i, j ∈ I}) + i∈I Si ⊆ Wi∈I Si como
 habı́amos afirmado.
Pero para todo i ∈ I tenemos que pi ∈ T ∩ Si ⊆ T ∩ S
i∈I i , de donde
−−−→ _
_
T = pi + T~ ⊆ pi + Si = Si
i∈I i∈I

concluyendo la demostración. T
Para el comentario final del caso particular i∈I Si 6= ∅, elijamos un punto q ∈
T ~
i∈I Si y escribamos Si = q + Si (pi = q) para todo i ∈ I. Lo ya demostrado nos dirı́a
que
−−−→
S = T~ = L({− p−→
_ X X
i p : i, j ∈ I}) +
i j
~ =
S ~,
S i i
i∈I i∈I i∈I

ya que −
p−→ p = →

qq = ~0 para todo i, j ∈ I. De aquı́ que
W
S = p +
P ~
W i j i∈I i i∈I Si para todo
p ∈ i∈I Si , concluyendo la demostración.

Corolario 2.19 Si q0 , q1 , . . . qk ∈ A entonces


h{q0 , q1 , . . . qk }i = q0 + L({−
q−→ −−→
0 q1 , . . . , q0 qk }).

La prueba es trivial teniendo en cuenta Proposición 2.18 y la identidad genérica −


qi→
qj =
−−
q0→
qi + −
q−→
q
0 j ; se dejan los detalles como ejercicio.
Corolario 2.20 Si S1 = p1 + S ~ 1 y S 2 = p2 + S~2 ⊆ A son dos subespacios afines:

(i) S1 ∨ S2 = p + L({− p− → ~ ~

1 p2 }) + S1 + S2 para todo p ∈ S1 ∨ S2 (luego para todo
p ∈ S1 ∪ S2 ; se suele elegir p = p1 o p = p2 ). En particular
−−−−→
S1 ∨ S2 = L({− p−→ ~ ~
1 p2 }) + S1 + S2 .

(ii) Es cierta la siguiente equivalencia


−−−−→ ~
S1 ∩ S2 6= ∅ ⇐⇒ −
p−→ ~ ~ ~

1 p2 ∈ S1 + S2 ⇐⇒ S1 ∨ S2 = S1 + S2 ,

y si se da cualquiera de esas condiciones equivalentes entonces


~1 + S~2

S1 ∨ S2 = p + S
para todo p ∈ S1 ∨ S2 (se suele elegir p = p1 o p = p2 ).

12
(iii) Fórmulas de dimensiones:

Si S1 ∩ S2 6= ∅ entonces dim(S1 ∨ S2 ) + dim(S1 ∩ S2 ) = dim S1 + dim S2 .


~1 ∩ S
Si S1 ∩ S2 = ∅ entonces dim(S1 ∨ S2 ) + dim(S ~2 ) = dim S1 + dim S2 + 1.

Demostración : Item (i) se ha demostrado en la Proposición 2.18.


−−−−→
En relación al item (ii), la equivalencia −p− → ~ ~ ~
1 p2 ∈ S1 + S2 ⇐⇒ S1 ∨ S2 = S1 + S2 es
~
trivial del item (i). Bastará con comprobar que S1 ∩ S2 6= ∅ ⇐⇒ p1 p2 ∈ S −
− → ~1 + S~2 . En
efecto, si S1 ∩ S2 6= ∅ y tomamos q ∈ S1 ∩ S2 , se tiene que qpi ∈ S −
→ ~i , i = 1, 2, y por
−−→ −
→ −
→ ~ ~ −−→
tanto p1 p2 = p1 q + qp2 ∈ S1 + S2 . Recı́procamente, si p1 p2 ∈ S1 + S ~ ~2 y escribimos

p−→ ~
1 p2 = u1 − u2 con ui ∈ Si , i = 1, 2, los puntos q1 = p1 + u1 ∈ S1 y q2 = p2 + u2 ∈ S2
satisfacen

q−→ −−−−−−−−−−−−→ −−−−−−−→ −−→ −−−−−−−→ −−→ ~
1 q2 = (p1 + u1 )(p2 + u2 ) = (p1 + u1 )p1 + p1 p2 + p2 (p2 + u2 ) = −u1 + p1 p2 + u2 = 0,

lo que prueba que q1 = q2 ∈ S1 ∩ S2 6= ∅ y prueba (ii).


En relación con (iii), supongamos primero que S1 ∩ S2 6= ∅. En este caso dim Si =
dim S ~i , i = 1, 2, dim(S1 ∨ S2 ) = dim − −−−→
S1 ∨ S2 = dim(S ~1 + S
~2 ), y dim(S1 ∩ S2 ) =
−−−−→ ~1 ∩ S~2 ), por lo que la fórmula en cuestión no es sino la clásica
dim S1 ∩ S2 = dim(S
fórmula de dimensiones del álgebra lineal. Supongamos ahora que S1 ∩ S2 = ∅, y co-
mo antes observemos que dim Si = dim S ~i , i = 1, 2, y dim(S1 ∨ S2 ) = dim −−−−→
S1 ∨ S2 =
dim(L({− p−→ ~ ~ −−→ ~ ~ ~ ~
1 p2 }) + S1 + S2 ) = dim(L({p1 p2 })) + dim(S1 + S2 ) = 1 + dim(S1 + S2 ); aquı́
hemos usado que que L({− p− → ~ ~ ~
1 p2 }) ∩ (S1 + S2 ) = {0} como consecuencia de (ii). La fórmula
clásica de dimensiones del álgebra lineal nos dice pués que
~1 + S
dim(S1 ∨ S2 ) = 1 + dim(S ~2 ) = 1 + dim S
~1 + dim S
~2 − dim(S
~1 ∩ S
~2 )

y por tanto
~1 ∩ S
dim(S1 ∨ S2 ) = 1 + dim S1 + dim S2 − dim(S ~2 ).

Démonos cuenta que en este caso S1 ∩ S2 no es un subespacio afı́n al ser vacı́o (carece
de sentido hablar por tanto de su dimensión), por eso en su lugar aparece el número
dim(S~1 ∩ S
~2 ).

Estamos en condiciones de formalizar el concepto de paralelismo, fundamental en la


geometrı́a afı́n.

Definición 2.21 Sea A un espacio afı́n, y sean S, T ⊆ A dos subespacios afines de A.


~ ⊆ T~ .
Se dice que S es paralelo a T si S
~ = T~ (esto es, si S es
Se dice que S y T son paralelos, y se escribe S k T , si S
paralelo a T y T es paralelo a S).

Se dice que S y T son secantes si S ∩ T 6= ∅.

Se dice que S y T se cruzan si

S∩T =∅ y dim(S ∨ T ) = dim S + dim T + 1.

~ + T~ = S
Equivalentemente, S y T se cruzan si S y T no son secantes y S ~ ⊕ T~ ;
ver Corolario 2.20.

13
Es claro que si dos subespacios S, T ⊆ A se cruzan entonces no son secantes y no hay
~ * T~ y T~ * S).
ninguna relación de paralelismo entre ambos (S ~
Por ejemplo, en R3 se tiene que:

La recta S = (1, 1, 1) + L({(1, 0, 0)}) es paralela al plano T = (1, −1, 1) +


L({(1, 1, 0), (0, 1, 0)}).

S = (1, 1, 1) + L({(1, 0, 0), (0, 0, 1)}) y T = (0, 1, −2) + L({(1, 0, 0), (−1, 0, 1)})
son planos paralelos.

S = (1, 1, 1) + L({(1, 0, 0)}) y T = (1, 0, 1) + L({(0, −1, 0)}) son rectas secantes:
S ∩ T = {(1, 1, 1)}.

Las rectas S = (1, 1, 1) + L({(1, 0, 0)}) y T = (1, 0, 0) + L({(0, 1, 0)}) se cruzan.

Proposición 2.22 Sea A un espacio afı́n y sean S, T dos subespacios afines de A.

(i) Si S es paralelo a T entonces S ⊆ T o S ∩ T = ∅.

(ii) Si S k T entonces S = T o S ∩ T = ∅.

(iii) Si p ∈ A, existe un único subespacio afı́n Sp de A tal que p ∈ Sp y S k Sp .

Demostración : Para probar (i) supongamos que S es paralelo a T y S ∩ T 6= ∅. Basta


Tomar q ∈ S ∩ T y observar que S = q + S ~ ⊆ q + T~ = T . Item (ii) se sigue de (i).
Para probar (iii) notemos que Sp = p + S ~ satisface lo requerido. La unicidad se sigue
de que un subespacio afı́n está determinado unı́vocamente por uno de sus puntos y su
variedad de dirección.

2.2. Sistemas de referencia afines


En el álgebra lineal analitizábamos los vectores de un espacio vectorial asignándoles
sus coordenadas en una base. De esta forma es posible reducir los problemas algebraicos
o geométricos abstractos a cálculos analı́ticos (con números reales) y asignar ecuaciones
analı́ticas a los objetos geométricos, simplificando considerablemente su tratamiento.
Este es el espı́ritu de la geometrı́a cartesiana que procedemos a desarrollar en el contexto
de la geometrı́a afı́n. Necesitaremos alguna terminologı́a previa.

Definición 2.23 Una colección de puntos {p0 , . . . , pk }, k ∈ N, en un espacio afı́n A


se dice afı́nmente independiente si los vectores {−
p−→ −−→
0 p1 , . . . , p0 pk } son linealmente indepe-
dientes, o equivalentemente (ver Corolario 2.19), si

dimh{p0 , p1 , . . . , pk }i = k.

En caso contrario se dice que los puntos son afı́nmente dependientes.

Dado p0 ∈ A, un sistema de vectores {u1 , . . . , uk } en V es linealmente independien-


te (dependiente) si y sólo si {p0 , p0 + u1 , . . . , p0 + uk } son afinmente independientes
(dependientes) en A.
La ordenación elegida para la presentación de los puntos (indicada por el subı́ndice)
no altera el carácter de dependiencia o independencia afı́n del sistema, ya que éste
está encerrado en el valor de la dimensión del subespacio h{p0 , p1 , . . . , pk }i, y ésta no
depende de la ordenación de los puntos.

14
Definición 2.24 Dado un espacio afı́n A con dim A = n ∈ N, un sistema de referencia
R en A es un sistema ordenado {p0 , . . . , pn } de n + 1 puntos afı́nmente independientes,
o equivalentemente satisfaciendo

h{p0 , p1 , . . . , pn }i = A.

Al punto p0 se le llama origen del sistema, y a la base ordenada B = {−


p−→ −−→
0 p1 , . . . , p0 pn }


de A se la llama base asociada de las direcciones de R.


Obsérvese que si B = {v1 , . . . , vn } es una base ordenada de A y p0 ∈ A, el sistema
ordenado de puntos
R = {p0 , p0 + v1 , . . . , p0 + vn }
es un sistema de referencia de A con origen p0 y base asociada de direcciones B. Por
tanto, y de forma alternativa, podrı́amos definir un sistema de referencia como un par

R = {p0 , B}


donde p0 es un punto de A (orı́gen de R) y B una base ordenada de A (base de
direcciones de R).


Notación 2.25 En lo que sigue, dada una base ordenada B = {v1 . . . , vn } de A , de-
notaremos por


ΦB : A → Rn
al isomorfismo asignación de coordenadas en la base B escrito con notación columna.
En otras palabras,
n
X
t
ΦB (v) = (x1 , . . . , xn ) ⇐⇒ v = xj vj = (v1 , . . . , vn ) · (x1 , . . . , xn )t .
j=1



A veces también escribiremos Φb (v) = vB de forma simplificada para todo v ∈ A .

Los sistemas de referencia se utilizan para asignar coordenadas a los puntos del
espacio afı́n.

Definición 2.26 Sea A un espacio afı́n, y consideremos un sistema de referencia afı́n


R = {p0 , . . . , pn } ≡ {p0 , B}, donde B = {−
p−→ −−→
0 p1 , . . . , p0 pn }. La aplicación biyectiva (ver
Definción 2.4)
ΦR : A → Rn , ΦR = ΦB ◦ Fp0
es conocida como la aplicación asignación de coordenadas (con notación columna) en
el sistema de referencia R. De forma simplificada escribiremos

pR := ΦB (Fp0 (p)) ≡ (−
p→ n
0 p)B ∈ R ,

y diremos que pR son las coordenadas de p ∈ A en R.

De forma más explı́cita, si p ∈ A y R = {p0 , . . . , pn } es un sistema de referencia en A,


n n

p→ xj −
p−→ xj −
p−→
X X
t
pR = (x1 , . . . , xn ) ⇐⇒ 0p = 0 pj ⇐⇒ p = p0 + 0 pj .
j=1 j=1

15
Definición 2.27 En el espacio afı́n euclidiano Rn dotado de su estructura afı́n canóni-
ca, el sistema de referencia
R0 = {(0, . . . , 0), B0 },
donde B0 = {(1, 0, . . . , 0), . . . , (0, . . . , 0, 1)} es la base canónica de Rn , es conocido como
el sistema de referencia canónico o natural de Rn . Para todo punto p = (x1 , . . . , xn ) ∈
Rn se tiene que
pR0 = (x1 , . . . , xn )t ,
esto es, las coordenadas en R0 de un punto de Rn coinciden con las que definen al
mismo punto.

Otros espacios afines clásicos como Pn (R) (polinomios con coeficientes reales en una
variable de grado ≤ n), Mn,m (R) (matrices reales de orden n × m), Sn (R) (matri-
ces simétricas reales de orden n),.... admiten también de forma natural sistemas de
referencia canónicos.

Propiedades 2.28 Sea A un espacio afı́n y R = {p0 , . . . , pn } ≡ {p0 , B} un sistema


de referencia afı́n, donde B = {−
p−→ −−→
0 p1 , . . . , p0 pn }. Entonces

(i) (p + v)R = pR + vB .
(ii) (→

pq)B = qR − pR .

Demostración : Usando Definición 2.26 y que ΦB es lineal, tenemos que


−−−−−−→
(p + v)R = p0 (p + v) B = (−p→ −→
0 p + v)B = (p0 p)B + vB = pR + vB ,

lo que prueba (i). Análogamente,

qR − pR = (−
p→ −→ −→ −→ −→ −→ →

0 q)B − (p0 p)B = (p0 q − p0 p)B = (pp0 + p0 q)B = (pq)B ,

lo que prueba (ii).

Es fácil comprobar que Propiedades 2.28-(ii) simplemente expresa la conmutatividad


del diagrama
Φ ×Φ
A × A R−→R Rn × Rn


↓ ↓→


− ΦB
A −→ Rn
donde en Rn se considera la estructura afı́n usual. El significado de esta conmutatividad
de diagramas es que la estructura de espacio afı́n abstracta → −
en A es equivalente a la
n
canónica o usual de R , salvo las asignaciones naturales de coordenadas ΦR × ΦR y

ΦB inducidas por un sistema de referencia R y su base de direcciones B.

2.2.1. Cambio de sistema de referencia


Las coordenadas de un mismo punto en sistemas de referencia diferentes son en
general distintas, y por tanto, es natural preguntarse cómo cambian al cambiar de
sistema de referencia. Estas fórmulas son conocidas en la literatura como fórmulas del
cambio de sistema de referencia. Expliquemos con detalle cómo son.

− →

Recordemos que dado un espacio vectorial A con dim A = n ∈ N y dos bases B y
B 0 en él, las ecuaciones del cambio de base de B a B 0 se escribı́an, en notación columna,
de la siguiente forma
→ , B, B 0 · vB ,

vB 0 = M Id−A

16
→ , B, B 0 es la matriz del cambio de base de B a B 0 (notación colum-

donde M Id− A
→ , B, B 0 aparecı́an las

na). A modo de recordatorio, en la columna j-ésima de M Id− A
coordenadas en B 0 del vector j-ésimo de B para todo j = 1, . . . , n.
Consideremos a continuación un espacio afı́n A con dim A = n ∈ N, y dentro de él
dos sistemas de referencia R = {p0 , B} y R0 = {p00 , B 0 }, donde como bien sabemos B y


B 0 son bases de la variedad de dirección A de A.
Tomemos un punto p ∈ A genérico, e intentemos relacionar las coordenadas pR y
pR0 en los sistemas de referencia R y R0 de forma similar a como se hacı́a con el cambio


de base en A . Teniendo en cuenta Definición 2.26 y Propiedades 2.28, es inmediato que

pR0 = (p0 + −p→ −→  −→


→ , B, B 0 · (p0 p)B ,
0 p)R0 = (p0 )R0 + (p0 p)B 0 = (p0 )R0 + M Id−
A

y por tanto
→ , B, B 0 pR .

pR0 = (p0 )R0 + M Id−
A

Definición 2.29 (Fórmula del cambio de sistema de referencia) La fórmula


→ , B, B 0 pR

pR0 = (p0 )R0 + M Id−
A

es conocida como la expresión matricial de las ecuaciones del cambio de sistema de


referencia de R a R0 (en ese orden). Esta ecuación matricial puede escribirse de una
forma más compacta con ayuda de la matriz cuadrada de orden n + 1
 
0
 1 0
M IdA , R, R :=  ,
(p0 )R0 M Id−→ , B, B 0
A

conocida en la literatura como matriz del cambio de sistema de referencia de R a R0 . En


efecto, basta observar que la anterior ecuación matricial es equivalente a la expresión:
   
1 0
 1
= M IdA , R, R ·
pR0 pR
La ecuación del cambio de sistema de referencia permite conocer las coordenadas en un
sistema de referencia R0 de un punto p ∈ A a partir de las coordenadas de p en otro
sistema de referencia R0 a partir de los datos:
Coordenadas en R0 del origen p0 de R.


Matriz del cambio de base en A de la base B de las direcciones de R a la base
B 0 de las direcciones de R0 .

Definición 2.30 (Grupo afı́n) El conjunto de matrices


  
1 0 n
Aff n (R) = : A ∈ GL(n, R), b ∈ R
b A
es conocido como el grupo afı́n de orden n.

Claramente Aff n (R) está contenido en el grupo lineal GL(n + 1, R), ya que
 
1 0
det = det A 6= 0,
b A
y de hecho es un subgrupo de GL(n + 1, R) respecto al producto de matrices.
0
 dice que para cualesquiera sistemas de referencia R, R en A
El anterior cálculo nos
0
la matriz M IdA , R, R pertenece a Aff n (R). Además, no es difı́cil ver que:

17
 
1 0
Observación 2.31 Si R es un sistema de referencia en A y ∈ Aff n (R)
b A
entonces existe un único sistema de referencia R0 en A tal que
 
0
 1 0
M IdA , R, R = .
b A

La demostración se deja como ejercicio. Las siguientes propiedades son inmediatas:

Propiedades 2.32 Dado un espacio afı́n A con dim A = n y sistemas de referencia


R = {p0 , B}, R0 = {p00 , B 0 } y R00 = {p000 , B 00 } en A , se tiene que:

(i) M IdA , R, R = In+1 .

(ii) M (IdA , R, R00 ) = M (IdA , R0 , R00 ) · M (IdA , R, R0 ).


−1
(iii) M IdA , R, R0 = M IdA , R0 , R .


Demostración : El item (i) es consecuencia de que M (Id−


→ , B, B) = In y (p0 )R = 0.
A
Para ver (ii), notemos que
       
1 0 00 1 1 0 1
= M (IdA , R , R ) · y = M (IdA , R, R ) ·
pR00 pR0 pR0 pR

para todo p ∈ A, de donde


   
1 0 00 0
 1
= M (IdA , R , R ) · M (IdA , R, R ) ·
pR00 pR

para todo p ∈ A y se tiene el resultado. El item (iii) es trivial de (i) y (ii).

Ejercicio 2.33 Consideremos el espacio S2 (R) de las matrices simétricas de orden


dos con coeficientes reales, dotado de su estructura afı́n natural, y en él los siguientes
sistemas de referencia:
        
0 0 1 0 0 1 0 0
R0 = p0 = , B0 = , ,
0 0 0 0 1 0 0 1
        
1 2 1 1 1 1 1 0
R1 = q0 = , B1 = , ,
2 −1 1 1 1 0 0 0
Determina las ecuaciones del cambio de sistema de referencia de R0 a R1 .

Solución : Como R0 es el sistema de referencia natural o canónico de S2 (R), lo más sen-


cillo es calcular las ecuaciones del cambio de R1 a R0 , esto es, la matriz M (IdS2 (R) , R1 , R0 ).
Comenzaremos por este cálculo.
El punto origen origen de R1 tiene coordenadas (q0 )R0 = (1, 2, −1)t en R0 . Análo-
gamente, la matriz del cambio de base de B1 a B0 en el espacio vectorial S2 (R) viene
dada por  
1 1 1
M (IdS2 (R) , B1 , B0 ) =  1 1 0  .
1 0 0

18
Por tanto la matriz del cambio de sistema de referencia de R1 a R0 queda:
 
1 0 0 0
 1 1 1 1 
M (IdS2 (R) , R1 , R0 ) = 
 2 1 1 0 ,

−1 1 0 0

de donde
 −1  
1 0 0 0 1 0 0 0
 1 1 1 1 
  1 0 0 1 
M (IdS2 (R) , R0 , R1 ) =  =
 −3
.
 2 1 1 0  0 1 −1 
−1 1 0 0 1 1 −1 0

Por tanto las ecuaciones del cambio de sistema de referencia de R0 a R1 quedan:


     
1 1 0 0 0 1
 x0   1 0 0 1   x 
 0 =  ·  ,
 y   −3 0 1 −1   y 
z0 1 1 −1 0 z

donde pR1 = (x0 .y 0 , z 0 )t y pR0 = (x, y, z)t representan las coordenadas genéricas de un
punto p ∈ S2 (R) en R1 y R0 , respectivamente.

2.2.2. Ecuaciones paramétricas e implı́citas de subespacios


Una de las ventajas de la asignación de coordenadas en sistemas de referencia es
que se puede representar los subespacios afines mediante distintos tipos de ecuaciones
analı́ticas. Expliquémoslo con detalle.
Consideremos un espacio afı́n A con dim A = n ∈ N, y un sistema de referencia


R = {p0 , B}. Como siempre p0 es el origen de R y B la base de A asociada a R. Sea
S =q+S ~ un subespacio afı́n con dim S = k ≤ n, y escribamos

~ = L({u1 , . . . , uk }),
S

~ Tenemos que
donde B 0 = {u1 , . . . , uk } es una base ordenada de S.
k
X
p ∈ S ⇐⇒ p = q + u, ~ ⇐⇒ ∃λ1 , . . . , λk ∈ R : p = q +
u∈S λj uj .
j=1

Por tanto
k
X k
X

p ∈ S ⇐⇒ ∃λ1 , . . . , λk ∈ R : pR = qR + λj uj B
= qR + λj (uj )B .
j=1 j=1

Si consideramos el monomorfismo inclusión iS~ : S ~→→ −


A , recordemos que la matriz de iS~
0 0
en las bases B y B, que escribiremos M (iS~ , B , B), tiene por columna j-ésima justo el
vector (uj )B , j = 1, . . . , k. Por tanto, la anterior expresión se puede reescribir de forma
matricial ası́

p ∈ S ⇐⇒ ∃λ1 , . . . , λk ∈ R : pR = qR + M (iS~ , B 0 , B) · (λ1 , . . . , λk )t .

19
Definición 2.34 La expresión analı́tica

(x1 , . . . , xn )t = qR + M (iS~ , B 0 , B) · (λ1 , . . . , λk )t .

es conocida como las ecuaciones paramétricas de S en el sistema de referencia R (de-


finidas por el punto q ∈ S y la base ordenada B 0 de S). ~ Expresa que un punto p de A
pertenece a S si y sólo si existen valores para los parámetros λ1 , . . . , λk haciendo válida
la anterior expresión cuando (x1 , . . . , xn )t son las coordenadas de p en R.

La interpretación geométrica de las ecuaciones paramétricas es sencilla: las variables


λ1 , . . . , λk son parámetros que, al variar libremente en R, determinan las coordenadas
en R de todos los puntos de S.

Ejercicio 2.35 En el espacio afı́n natural asociado al espacio vectorial

P2 (R) = {a0 + a1 x + a2 x2 : a0 , a1 , a2 ∈ R}

de los polinomios de grado ≤ 2, determina unas ecuaciones paramétricas del subespacio


S = {p(x) ∈ P2 (R) : p0 (1) = 1} en el sistema de referencia canónico R0 = {0, B0 =
{1, x, x2 }} de P2 (R).

Solución :Si p(x) = a0 + a1 x + a2 x2 , la condición p0 (1) = 1 se escribe a1 + 2a2 = 1.


Inferimos de aquı́ que q(x) = x ∈ S y p(x) ∈ S si y sólo si p(x) − q(x) ∈ S,~ donde

~ = {p(x) ∈ P2 (R) : p0 (1) = 0} = {a0 + a1 x + a2 x2 : a1 + 2a2 = 0}.


S

En otras palabras S = q(x) + S ~ es el subespacio afı́n que pasa por q(x) = x ∈ P2 (R) y
tiene por variedad de dirección el subespacio vectorial S~ ⊆ P2 (R) ≡ − −−→
P2 (R).
~ en la base canónica B0 = {1, x, x2 } de P2 (R) es a1 +
Una ecuación implı́cita de S
2a2 = 0, que tiene por conjunto de soluciones en R3

{(λ1 , −2λ2 , λ2 ) ∈ R3 : λ1 , λ2 ∈ R}.

Por tanto B 0 = {q1 (x) = 1, q2 (x) = −2x + x2 } es base de S ~ y claramente


 
1 0
M (iS~ , B 0 , B0 ) =  0 −2  ,
0 1

~ → P2 (R) es la aplicación inclusión. Por otra parte, el punto q(x) = x tiene


donde iS~ : S
por coordenadas en R0
q(x)R0 = (0, 1, 0)t .
Por tanto las ecuaciones paramétricas de S en la base B 0 de S ~ y el sistema de referencia
R0 de P2 (R) son
 
1 0
(x1 , x2 , x3 )t = (0, 1, 0)t + M (iS~ , B 0 , B0 ) · (λ1 , λ2 )t = (0, 1, 0)t +  0 −2  · (λ1 , λ2 )t ,
0 1

donde (x1 , x2 , x3 )t representa las coordenadas genéricas p(x)R0 en R0 de un punto p(x)


de S.

20
Los parámetros en las anteriores ecuaciones paramétricas pueden ser cancelados por
un proceso de eliminación estándar que explicaremos a continuación, y que nos llevará
a la existencia de ecuaciones implı́citas o cartesianas de S de acuerdo a la siguiente
definición.

Definición 2.36 Un sistema de n − k (0 ≤ k < n) ecuaciones lineales linealmente


independientes

a11 x1 + a12 x2 + · · · a1n xn = b1  
.. .. .. ..
. . . .  (I)
an−k 1 x1 + an−k 2 x2 + · · · an−k n xn = bn−k 

se dice que representa unas ecuaciones implı́citas o cartesianas para un subespacio afı́n
S de A respecto de un sistema de referencia R en A si es cierto el siguiente enunciado:

(x1 , . . . , xn ) es solución de (I) ⇐⇒ (x1 , . . . , xn )t = pR para algún p ∈ S.

Observa que, de existir, las ecuaciones implı́citas respecto de R no son únicas: basta
transformar el sistema de ecuaciones anterior en otros equivalentes.

Proposición 2.37 Todo subespacio afı́n S de A con 1 ≤ dim S < n = dimA admite
unas ecuaciones implı́citas respecto de cualquier sistema de referencia R de A.

Demostración : Escribamos dim S = k y describamos S como al inicio de esta sección,


aprovechando la notación anterior. De las ecuaciones paramétricas para S respecto de
R definidas por un punto q ∈ S y una base B 0 ordenada de S ~ (ver Definición 2.34) se
deduce que:

p ∈ S ⇐⇒ ∃λ1 , . . . , λk ∈ R : pR − qR = M (iS~ , B 0 , B) · (λ1 , . . . , λk )t ,

esto es,

p ∈ S ⇐⇒ rang M (iS~ , B 0 , B) pR − qR = rang M (iS~ , B 0 , B) = dim S = k.


 

Siguiendo el procedimiento estándar del álgebra lineal, tras elegir una submatriz M0 de
orden k de M (iS~ , B 0 , B) con menor asociado
 (determinante) no nulo, todas las n − k
0
submatrices de M (iS~ , B , B) pR − qR de orden k + 1 conteniendo a M0 han de
tener determinante nulo. Escribiendo pR = (x1 , . . . , xn )t y qR = (c1 , . . . , cn )t , esos n − k
menores nulos generan un sistema de ecuaciones lineales de la forma

a11 (x1 − c1 ) + a12 (x2 − c2 ) + · · · a1n (xn − cn ) = 0  
.. .. .. ..
. . . . ,
an−k 1 (x1 − c1 ) + an−k 2 (x2 − c2 ) + · · · an−k n (xn − cn ) = 0 

o si se prefiere tras operar convenientemente



a11 x1 + a12 x2 + ··· a1n xn = b1 
.. .. .. .. (I)
. . . . 
an−k 1 x1 + an−k 2 x2 + · · · an−k n xn = bn−k 

Solo nos resta garantizar que las ecuaciones en (I) son linealmente independientes.
Notemos que la misma argumentación anterior (salvo hacer qR ≡ 0, o cj = 0 para todo

21
~ respecto de la base B de
j = 1, . . . , n) nos dice que unas ecuaciones implı́citas para S


A vienen dadas por el correspondiente sistema homogéneo asociado a (I), a saber,

a11 x1 + a12 x2 + · · · a1n xn = 0  
.. .. .. ..
. . . .  (I)0
an−k 1 x1 + an−k 2 x2 + · · · an−k n xn = 0 

Por la teorı́a de resolución de sistemas de ecuaciones lineales, esta apreciación nos


garantiza que las n − k ecuaciones de (I)0 son linealmente independientes (ya que su


conjunto de soluciones es de dimensión k al ser dim S = k), y por tanto lo mismo
ocurre para las ecuaciones en (I) concluyendo la prueba.

Observación 2.38 La Proposición 2.37 es formalmente válida para dim S = 0. En


efecto, los subespacios S = {q}, q ∈ A, admiten como ecuaciones implı́citas en R
cualquier sistema de n ecuaciones con n incógnitas (n = dim A) con solución única qR .

La anterior proposición y subsiguiente observación tienen un recı́proco natural muy


interesante que nos proporciona un mecanismo analı́tico sencillo para presentar todos
subespacios afines de A (distintos del propio A).

Proposición 2.39 Sean b ∈ Rn−k y C ∈ M(n−k)×n (R) (0 ≤ k < n) con rang(C) =


n − k tales que el sistema de ecuaciones lineales C · xt = b, donde x = (x1 , . . . , xn ),
es compatible. Sean A un espacio afı́n n dimensional y R = {p0 , B} un sistema de
referencia en A, y definamos

S := {p ∈ A : C · pR = b}.

Entonces S es un subespacio afı́n de dimensión k en A y C · xt = b son unas ecuaciones


implı́citas de S en el sistema de referencia R. Además, C · xt = 0 son unas ecuaciones
~ en la base B de →
implı́citas de S

A.

Demostración : La estrategia básica consiste en probar que S es de la forma q + U para




algún q ∈ A y U ≤ A subespacio vectorial.
Definamos


U := {v ∈ A : C · vB = 0}.


Trivialmente U es un subespacio vectorial k-dimensional de A (de hecho el definido
con ecuaciones implı́citas C · xt = 0 respecto de la base B).
Por otra parte, como el sistema C · xt = b es compatible podemos elegir una solución
x0 ∈ Rn del mismo y definir q = Φ−1 R (x0 ). Claramente el punto q ∈ S 6= ∅ por
construcción.
Para concluir probaremos que S es el subespacio afı́n q+U . En efecto, como C·qR = b
tenemos que

p ∈ S ⇐⇒ C · (pR − qR ) = 0 ⇐⇒ C · (→

pq)B = 0 ⇐⇒ →

pq ∈ U ⇐⇒ p ∈ q + U.

De la definición de S y la Definición 2.36 se sigue que C · xt = b son unas ecuaciones


implı́citas de S respecto de R. Por definición también S~ = U , y por tanto C · xt = 0


~ en la base B de A . Esto acaba la prueba.
son unas ecuaciones implı́citas de S

Corolario 2.40 Si S es un subespacio afı́n de A con 0 ≤ dim S = k < n = dimA,


entonces todas las ecuaciones implı́citas de S respecto de cualquier sistema de referencia
R de A consisten en n − k ecuaciones lineales linealmente independientes.

22
Ejercicio 2.41 En el espacio afı́n natural asociado al espacio vectorial P2 (R) de los
polinomios de grado ≤ 2, determina unas ecuaciones implı́citas del subespacio

S = 1 − x + L({−1 + x2 , x + 2x2 })

en el sistema de referencia canónico R0 = {0, B0 = {1, x, x2 }} de P2 (R).

Solución : Es claro que S ~ = L({−1 + x2 , x + 2x2 }), de donde B = {−1 + x2 , x + 2x2 }


es una base de S. ~ Como y 1 − x ∈ S, unas ecuaciones paramétricas de S en B y
R0 = {1, x, x2 } son
 
−1 0
(x1 , x2 , x3 )t = (1, −1, 0)t + M (iS~ , B, B0 ) · (λ1 , λ2 )t = (1, −1, , 0)t +  0 1  · (λ1 , λ2 )t .
1 2

Por el algoritmo explicado, S tiene como ecuación implı́cita en R0


 
x1 − 1 −1 0
det  x2 + 1 0 1  = 3 − x1 + 2x2 − x3 = 0.
x3 1 2

2.3. Rectas en espacios afines tridimensionales



− →
En lo que sigue (A, A , − ) será un espacio afı́n con dim A = 3. El concepto de
haz de planos simplifica mucho la resolución del problema de encontrar el plano de A
conteniendo a una recta y un punto exterior a la misma.
Definición 2.42 Dada una recta afı́n R ⊂ A, el haz de planos con base la recta R,
denotado HR , es el conjunto de todos los planos afines en A que contienen a R:

HR = {T ⊂ A plano afı́n : R ⊂ T }.

Figura 7: Haz de planos HR determinado por la recta R.

La siguiente proposición nos proporciona un algoritmo sencillo para determinar HR .


Proposición 2.43 Sea A un espacio afı́n con dim A = 3, R un sistema de referencia
en A y R ⊂ A una recta afı́n con ecuaciones implı́citas

a1 x + a2 y + a3 z + a0 = b1 x + b2 y + b3 z + b0 = 0.

Los siguientes enunciados son ciertos:

23
(i) Un plano S ∈ HR si y sólo si S tiene ecuación implı́cita en R de la forma
λ(a1 x + a2 y + a3 z + a0 ) + µ(b1 x + b2 y + b3 z + b0 ) = 0
para alguna pareja (λ, µ) ∈ R2 \ {(0, 0)}.
(ii) Dado q ∈ A \ R, Sq = {q} ∨ R es el único plano en HR con q ∈ Sq .
(iii) Si qR = (x0 , y0 , z0 )t y (λ0 , µ0 ) ∈ R2 \ {(0, 0)} satisface
λ0 (a1 x0 + a2 y0 + a3 z0 + a0 ) + µ0 (b1 x0 + b2 y0 + b3 z0 + b0 ) = 0,
entonces Sq tiene por ecuaciones implı́citas
λ0 (a1 x + a2 y + a3 z + a0 ) + µ0 (b1 x + b2 y + b3 z + b0 ) = 0.

Demostración : Para probar (i), observemos que si S es un plano que admite por ecua-
ción implı́cita en R
λ(a1 x + a2 y + a3 z + a0 ) + µ(b1 x + b2 y + b3 z + b0 ) = 0, (λ, µ) ∈ R2 \ {(0, 0)},
entonces es claro que R ⊂ S, y por tanto que S ∈ HR (los puntos que satisfacen las
ecuaciones implı́citas de R en el enunciado también satisfacen la de S).
Recı́procamente, sea S ∈ HR y tomemos una ecuación implı́cita de S en R
c1 x + c2 y + c3 z + c0 = 0.
Por simplicidad introduzcamos la siguiente notación
~a = (a1 , a2 , a3 , a0 ), ~b = (b1 , b2 , b3 , b0 ), ~c = (c1 , c2 , c3 , c0 ).
Al ser S ∈ HR todo punto de R ha de pertenecer a S, esto es,
~a · (x, y, z, 1)t = ~b · (x, y, z, 1)t = 0 ⇒ ~c · (x, y, z, 1)t = 0.
Por tanto el sistema de ecuaciones lineales
~a · (x, y, z, 1)t = ~b · (x, y, z, 1)t = ~c · (x, y, z, 1)t = 0
es equivalente (tiene el mismo conjunto de soluciones) al sistema
~a · (x, y, z, 1)t = ~b · (x, y, z, 1)t = 0,
en el que sus dos ecuaciones son linealmente independientes. Del método de Gauss
para la resolución de sistemas, deducimos que la ecuación ~c · (x, y, z, 1)t = 0 ha de ser
combinación lineal de las ecuaciones ~a · (x, y, z, 1)t = 0, ~b · (x, y, z, 1)t = 0, de donde se
sigue (i).
Item (ii) es consecuencia trivial de que dim Sq = 2 (ver Corolario 2.20-(iii)).
Comprobemos (iii). Si qR = (x0 , y0 , z0 )t , la condición q ∈/ R garantiza que alguno de
los números reales a1 x0 + a2 y0 + a3 z0 + a0 , b1 x0 + b2 y0 + b3 z0 + b0 ha de ser no nulo, y
por tanto el sistema de ecuaciones lineales con incógnitas λ, µ
λ(a1 x0 + a2 y0 + a3 z0 + a0 ) + µ(b1 x0 + b2 y0 + b3 z0 + b0 ) = 0
es compatible e indeterminado. Sus soluciones son un subespacio vectorial 1-dimensional
L{(λ0 , µ0 )} ≤ R2 , (λ0 , µ0 ) ∈ R2 \{0, 0), y por construcción el plano de ecuación implı́cita
λ0 (a1 x + a2 y + a3 z + a0 ) + µ0 (b1 x + b2 y + b3 z + b0 ) = 0
coincide con Sq ; ver (i) y (ii).

24

− →
En un espacio afı́n (A, A , − ) trididimensional, dos rectas R1 , R2 ⊂ A que no sean
ni paralelas ni secantes se han de cruzar. Esto es consecuencia de que dim(R~1 ∩R~ 2) = 0
y por tanto
~1 ∩ R
dim(R1 ∨ R2 ) = dim R1 + dim R2 − dim(R ~ 2 ) + 1 = dim R1 + dim R2 + 1 = 3,

donde hemos usado la conocida fórmula de dimensiones.


Pretendemos resolver el problema geométrico de determinar la recta en A que se
apoya en dos rectas dadas y que pasa por un punto exterior a las mismas. El manejo
del haz de planos asociado a una recta será el ingrediente geométrico necesario para su
resolución.

Definición 2.44 Dadas dos rectas R1 , R2 en un espacio afı́n A con dim A = 3 y un


punto p0 ∈ A, se dice que una recta afı́n R ⊆ A pasa por p0 y se apoya en R1 y R2 si
satisface las condiciones

p0 ∈ R y R ∩ Rj 6= ∅, j = 1, 2.

Figura 8: Recta R que pasa por p0 y se apoya en R1 y R2 .

Proposición 2.45 Sean R1 , R2 ⊂ A rectas que se cruzan y p0 ∈ A punto tal que

p0 ∈
/ R1 ∪ R2 y Ri no es paralela al plano Sj = {p0 } ∨ Rj , {i, j} = {1, 2}.

Entonces R = S1 ∩ S2 es la única recta afı́n en A que se apoya en R1 y R2 .

Demostración : Para empezar observemos que las fórmulas de dimensiones en Corolario


2.20-(iii) garantizan que dim Sj = 2, j = 1, 2. Comprobemos que R = S1 ∩ S2 es una
recta que se apoya en R1 y R2 (obviamente p0 ∈ R). En efecto, como las rectas R1 , R2
se cruzan (y por tanto no son coplanarias), las condiciones Rj ⊂ Sj , j = 1, 2, implican
que S1 6= S2 . Además, como p0 ∈ S1 ∩ S2 6= ∅, las fórmulas de dimensiones en Corolario

25
2.20-(iii) implican que R = S1 ∩ S2 es una recta pasando por p0 . Las hipótesis de que
Ri no es paralelo a Sj = {p0 } ∨ Rj , {i, j} = {1, 2}, y las fórmulas de dimensiones de
nuevo garantizan que Sj ∩ Ri es un punto {pj }, j = 1, 2. Pero Sj ∩ Ri ⊆ S1 ∩ S2 = R,
de donde pj ∈ R ∩ Ri ⊆ Sj ∩ Ri y por tanto {pj } = R ∩ Ri = Sj ∩ Ri , j = 1, 2. Ésto
prueba que R se apoya en R1 y R2 como deseábamos.
Para la unicidad, observemos que si R0 es otra recta apoyándose en R1 y R2 y
conteniendo a p0 entonces R0 ∨Rj es un plano por Corolario 2.20-(iii), y como p0 ∈ R0 ∨Rj
necesariamente R0 ∨ Rj = {p0 } ∨ Rj = Sj , j = 1, 2. De aquı́ que

R = S1 ∩ S2 = (R0 ∨ R1 ) ∩ (R0 ∨ R2 ) = R0 .

2.4. Algunos ejercicios resueltos


Ejercicio 2.46 Se consideran las rectas afines en R3

R1 = {(x, y, z) ∈ R3 : x + y + z − 1 = x − y = 0},

R2 = {(x, y, z) ∈ R3 : y + z − 1 = 2x − y − z − 3 = 0}.
Encontrar la recta R en R3 que se apoya en R1 , R2 y pasa por p0 = (0, 0, −1).

Solución : Es fácil comprobar que p0 , R1 y R2 están en las condiciones de la Proposición


2.45, por lo que el ejercicio tiene sentido.
El plano S1 del haz HR1 que contiene a p0 se calcula imponiendo que la ecuación

λ(x + y + z − 1) + µ(x − y) = 0

se satisfaga para x = 0, y = 0, z = −1. Tras un cálculo inmediato obtenemos −2λ = 0,


esto es λ = 0 (µ puede tomar cualquier valor no nulo). Por tanto S1 es el plano de
ecuación implı́cita
x − y = 0.
Análogamente, el plano S2 del haz HR2 que contiene a p0 se calcula imponiendo que la
ecuación
λ(y + z − 1) + µ(2x − y − z − 3) = 0
se satisfaga para x = 0, y = 0, z = −1. Tras un cálculo inmediato obtenemos −2λ−2µ =
0, esto es λ = −µ (µ puede tomar cualquier valor no nulo). Por tanto S2 es el plano de
ecuación implı́cita

µ (y + z − 1) − (2x − y − z − 3) = 0, esto es, − x + y + z + 1 = 0.

La recta R es la de ecuaciones implı́citas en el sistema de referencia R0 usual de R3

x − y = −x + y + z + 1 = 0.

Ejercicio 2.47 Encontrar la recta del espacio afı́n R3 que pasa por p0 = (1, 1, 1) y
se apoya en las rectas R1 = (0, 0, 1) + L{(1, 0, 1)} y R2 = {(x, y, z) ∈ R3 : x + y =
z − y + 1 = 0}.

26
Solución : Unas ecuaciones paramétricas de R1 en el sistema de referencia usual R0 =
{(0, 0, 0), B0 } de R3 (B0 es la base canónica de R3 ) son

(x, y, z)t = (0, 0, 1)t + (1, 0, 1)t λ = (λ, 0, 1 + λ)t .

Para encontrar unas ecuaciones paramétricas de R2 en R0 resolvemos el sistema com-


patible e indeterminado
x + y = z − y + 1 = 0,
que nos lleva al conjunto de soluciones

(x, y, z)t = (0, 0, −1)t + (−1, 1, 1)t µ = (−µ, µ, −1 + µ)t .

Bastará con encontrar puntos en R1 y R2 alineados con p0 = (1, 1, 1), esto es, encontrar
valores de λ y µ para los cuales los puntos

(λ, 0, 1 + λ), (−µ, µ, −1 + µ), (1, 1, 1)

estén alineados (no sean afı́nmente independientes). La condición de alineación se ex-


presa diciendo que  
λ − 1 −µ − 1
rang  −1 µ − 1  = 1,
λ µ−2
lo que fuerza a que
   
λ − 1 −µ − 1 −1 µ − 1
det = det = 0.
−1 µ−1 λ µ−2

Este sistema de ecuaciones tiene como soluciones únicas λ = −4, µ = 2/3, de donde la
recta buscada es:

R = h{(−4, 0, −3), (−2/3, 2/3, −1/3), (1, 1, 1)}i = h{(−4, 0, −3), (1, 1, 1)}i,

esto es R = (−4, 0, −3) + L({(5, 1, 4)}).

Ejercicio 2.48 Calcular un sistema de referencia afı́n, unas ecuaciones paramétricas


y unas ecuaciones implı́citas de:

(a) El hiperplano afı́n S de R4 que pasa por los puntos p = (1, 0, 0, 0), q = (0, 1, 0, 0),
r = (0, 0, 1, 0) y s = (0, 0, 0, 1),

(b) Un plano afı́n de R3 que contenga a las rectas afines S = (1, 0, 2) + L((1, −1, 0)) y
T = {(x, y, z) ∈ R3 / x + y − z = −1, y − z = 2},

(c) El hiperplano afı́n de R4 paralelo al de ecuación x − y + z − t = 7 y que pasa por


el punto p = (1, −2, 3, −2).

Solución :Resolvamos (a). Como S = h{(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}i, y
los puntos {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} son afı́nmente independientes,

R = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}

es un sistema de referencia de S con origen (1, 0, 0, 0) y base de direcciones B =


{(−1, 1, 0, 0), (−1, 0, 1, 0), (−1, 0, 0, 1)}.

27
Si denotamos por R0 el sistema de referencia usual o canónico de R4 , unas ecuaciones
paramétricas de S en R0 vienen dadas por:
 
−1 −1 −1
 1 0 0 
(x1 , x2 , x3 , x4 )t = (1, 0, 0, 0)t + 
 0
 · (λ1 , λ2 , λ3 )t .
1 0 
0 0 1

Por último, una ecuación implı́cita para S en R0 surge de la condición


 
x1 − 1 −1 −1 −1
 x2 1 0 0 
rang 
 x3
 = 3,
0 1 0 
x4 0 0 1

esto es,  
x1 − 1 −1 −1 −1
 x2 1 0 0 
det   = x1 + x2 + x3 + x4 − 1 = 0.
 x3 0 1 0 
x4 0 0 1
Para resolver (b) observemos que S y T son secantes. En efecto, los puntos de (x, y, z) ∈
S se describen por las ecuaciones paramétricas

(x, y, z) = (1 + λ, −λ, 2).

Sustituyendo x por 1 + λ, y por −λ y z por 2 en las ecuaciones implı́citas que definen


T queda
−1 = −1, −2 − λ = 2 ⇐⇒ −4 − λ = 0,
que se resuelve para λ = −4. El punto obtenido en las ecuaciones paramétricas de S
para λ = −4 es q = (−3, 4, 2), de donde

S ∩ T = {(−3, 4, 2)}

y las rectas son secantes. Por otra parte es inmediato comprobar que

T~ = {(x, y, z) ∈ R3 / x + y − z = 0, y − z = 0} = L({(0, 1, 1)}).

Como S~ = L({(1, −1, 0)}), es claro que el plano que contiene a S y T es el subespacio
afı́n
S ∨ T = (−3, 4, 2) + L({(0, 1, 1), (1, −1, 0)}).
Como los vectores {(0, 1, 1), (1, −1, 0)} son linealmente independientes,

R = {(−3, 4, 2), B = {(0, 1, 1), (1, −1, 0)}}

es un sistema de referencia de S ∨ T .
Unas ecuaciones paramétricas de S ∨ T en el sistema de referencia usual de R3 son
 
0 1
(x, y, z)t = (−3, 4, 2)t +  1 −1  · (λ1 , λ2 )t .
1 0

28
De aquı́ que sus ecuaciones implı́citas vengan dadas por la condición
 
x+3 0 1
rang  y − 4 1 −1  = 2,
z−2 1 0
esto es,  
x+3 0 1
det  y − 4 1 −1  = x + y − z + 1 = 0.
z−2 1 0
Por último resolvamos (c). Un hiperplano afı́n S de R4 paralelo al de ecuación x − y +
z − t = 7 ha de tener su misma variedad de dirección
~ = T~ = {(x, y, z, t) ∈ R4 : x − y + z − t = 0},
S
y por tanto tiene por ecuación implı́cita x − y + z − t = k para algún k ∈ R. Como
además pasa por el punto p = (1, −2, 3, −2), este punto ha de satisfacer la ecuación
implı́cita anterior, esto es,
8 = 1 + 2 + 3 + 2 = k.
Por tanto el hiperplano buscado es el de ecuación implı́cita
S = {(x, y, z, t) ∈ R4 : x − y + z − t = 8}.

Como S ~ = {(x, y, z, t) ∈ R4 : x − y + z − t = 0} = L({(1, 1, 0, 0)(0, 0, 1, 1), (1, 0, −1, 0)})


y el punto p0 = (8, 0, 0, 0) ∈ S, deducimos que
S = (8, 0, 0, 0) + L({(1, 1, 0, 0)(0, 0, 1, 1), (1, 0, −1, 0)})
y R = {(8, 0, 0, 0), B = L({(1, 1, 0, 0)(0, 0, 1, 1), (1, 0, −1, 0)})} es un sistema de referen-
cia de S.
Las ecuaciones paramétricas de S en el sistema de referencia usual de R4 son
 
1 0 1
 1 0 0 
(x1 , x2 , x3 , x4 )t = (8, 0, 0, 0)t +  t
 0 1 −1  · (λ1 , λ2 , λ3 ) .

0 1 0

Ejercicio 2.49 Se consideran los subespacios afines de R4 dados por:


S = {(x1 , x2 , x3 , x4 ) ∈ R4 / x1 + x2 + x3 + x4 = 1, x1 − x2 = 1},
T = (1, 0, 1, 0) + L({(1, 1, −1, −1), (0, 0, 0, 1)}).
Obtener unas ecuaciones paramétricas e implı́citas para S ∩ T y de S ∨ T .

Solución :Para determinar las ecuaciones implı́citas (en el sistema de referencia usual
4
R0 de R ) de S ∩ T vamos a necesitar las ecuaciones implı́citas de S y T . Las de S ya
las conocemos, faltan sólo las de T . Procedemos como siempre, determinamos primero
las ecuaciones paramétricas de T :
 
1 0
 1 0 
(x1 , x2 , x3 , x4 )t = (1, 0, 1, 0)t +  t
 −1 0  · (λ1 , λ2 ) .

−1 1

29
Unas ecuaciones implı́citas para T en R0 surge de la condición
 
x1 − 1 1 0
 x2 1 0 
rang 
 x3 − 1 −1 0  = 2,

x4 −1 1
esto es,    
x2 1 0 x1 − 1 1 0
det  x3 − 1 −1 0  = det  x3 − 1 −1 0  = 0.
x4 −1 1 x4 −1 1
Queda por tanto

T = {(x1 , x2 , x3 , x4 ) ∈ R4 : x2 + x3 − 1 = x1 + x3 − 2 = 0}.

De aquı́ que

S∩T = {(x1 , x2 , x3 , x4 ) ∈ R4 : x2 +x3 −1 = x1 +x3 −2 = x1 +x2 +x3 +x4 −1 = x1 −x2 −1 = 0},

de donde eliminando la última ecuación para que el sistema sea de ecuaciones lineal-
mente independientes queda equivalentemente

S ∩ T = {(x1 , x2 , x3 , x4 ) ∈ R4 : x2 + x3 − 1 = x1 + x3 − 2 = x1 + x2 + x3 + x4 − 1 = 0},

siendo estas últimas tres ecuaciones las implı́citas en R0 para S∩T . Con estas ecuaciones
se calculan fácilmente las ecuaciones paramétricas de S ∩ T sin más que resolver el
sistema y expresar sus soluciones en función de parámetros:

S ∩ T = {(λ, λ − 1, 2 − λ, λ) : λ ∈ R} = (0, −1, 2, 0) + L({(1, 1, −1, 1)}).

De aquı́ que
S ∩ T = (0, −1, 2, 0) + L({(1, 1, −1, 1)})
y sus ecuaciones paramétricas en forma matricial se escriban

(x1 , x2 , x3 , x4 )t = (0, −1, 2, 0)t + (1, 1, −1, 1)t · λ.

De forma dual, para determinar las ecuaciones paramétricas (en el sistema de referencia
usual R0 de R4 ) de S ∨ T vamos a necesitar las ecuaciones paramétricas de S y T . Las
de T esencialmente ya las conocemos de la expresión

T = (1, 0, 1, 0) + L({(1, 1, −1, −1), (0, 0, 0, 1)}),

faltan sólo las de S. Como

S = {(x1 , x2 , x3 , x4 ) ∈ R4 / x1 + x2 + x3 + x4 = 1, x1 − x2 = 1},

como antes bastará con resolver el sistema y expresar sus soluciones en función de
parámetros:

S = {(λ, λ − 1, µ, 2 − 2λ − µ) : λ, µ ∈ R} = (0, −1, 2, 0) + L({(1, 1, 0, −2), (0, 0, 1, −1)}).


−−−−−−−−−−−−−−−→
Por tanto, teniendo en cuenta que (1, 0, 1, 0), (0, −1, 2, 0) = (−1, −1, 1, 0) y
 
L {(1, 1, −1, −1), (0, 0, 0, 1), (1, 1, 0, −2), (0, 0, 1, −1)} = L {(0, 0, 0, 1), (1, 1, 0, −2), (0, 0, 1, −1)} ,

30
el Corolario 2.20-(i) nos da
 
S ∨ T = (1, 0, 1, 0) + L {(−1, −1, 1, 0)} + L {(0, 0, 0, 1), (1, 1, 0, −2), (0, 0, 1, −1)} ,

esto es, 
S ∨ T = (1, 0, 1, 0) + L {(0, 0, 0, 1), (1, 1, 0, −2), (0, 0, 1, −1)}
−−−→
con {(0, 0, 0, 1), (1, 1, 0, −2), (0, 0, 1, −1)} base de S ∨ T al ser vectores linealmente inde-
pendientes. Nótese que, como S ∩T 6= ∅, podrı́amos haber obtenido la última expresión
de una forma más directa sin más que usar Corolario 2.20-(ii).
Unas ecuaciones paramétricas de S ∨ T en el sistema de referencia usual de R4 son
 
0 1 0
 0 1 0 
(x1 , x2 , x3 , x4 )t = (1, 0, 1, 0)t + 
 0 0
 · (λ1 , λ2 , λ3 )t .
1 
1 −2 −1

Por tanto, una ecuación implı́cita para S ∨ T en R0 surge de la condición


 
x1 − 1 0 1 0
 x2 0 1 0 
rang  x3 − 1 0 0
 = 3,
1 
x4 1 −2 −1

esto es,  
x1 − 1 0 1 0
 x2 0 1 0 
det   = x1 − x2 − 1 = 0.
 x3 − 1 0 0 1 
x4 1 −2 −1
Ası́ {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 − x2 − 1 = 0} es una ecuación implı́cita de S ∨ T en R0 .

2.5. Aplicaciones afines


Al igual que en cualquier otra categorı́a de objetos, en la geometrı́a afı́n es natural
preguntarse por las transfomaciones naturales entre espacios afines.

Definición 2.50 Sea f : A → A0 una aplicación entre espacios afines. Diremos que f

− −

es una aplicación afı́n si existe una aplicación lineal f~ : A → A0 para la cual es cierta
cualquiera de las siguientes condiciones equivalentes
−−−−−→
(i) f~(→

pq) = f (p)f (q) para todo p, q ∈ A.

(ii) f (q) = f (p) + f~(→



pq) para todo p, q ∈ A.
−−−−−−−−→ →

(iii) f~(v) = f (p)f (p + v) para todo p ∈ A, v ∈ A .


(iv) f (p + v) = f (p) + f~(v) para todo p ∈ A, v ∈ A .

En ese caso, diremos que f~ es la aplicación lineal asociada a f .

31
Figura 9: Aplicación afı́n f : A → A0 .


− −

Usando un lenguaje más global, f : A → A0 es afı́n con lineal asociada f~ : A → A0
si y sólo si el siguiente diagrama es conmutativo:
f ×f
A × A −→ A0 × A0


↓ ↓→−

→− f~ →
−0
A −→ A


Esto es, −

◦ (f × f ) = f~ ◦ −

: A × A → A0 .
Ejemplos triviales de aplicaciones afines son:
−→
La aplicación identidad: IdA : A → A, con IdA = Id− → . En efecto, basta con
A
observar que
IdA (q) = q = p + →

pq = IdA (p) + Id− →

→ (pq).
A

Las aplicaciones constantes: fq : A → A0 , fq (p) = q para todo p ∈ A, con f~q = 0,



− →

donde 0 : A → A 0 es la aplicación lineal nula. En efecto basta con observar que

fc (q) = c = c + ~0 = fc (p) + 0(→



pq).

El siguiente enunciado expresa que toda aplicación afı́n está unı́vocamente determi-
nada por la imagen de un punto y su aplicación lineal asociada.

− →

Proposición 2.51 Dados p0 ∈ A, p00 ∈ A0 y h : A → A 0 lineal, la aplicación

f : A → A0 , f (p) = p00 + h(−


p→
0 p)

es la única aplicación afı́n con f (p0 ) = p00 y f~ = h.


En particular, si f, g : A → A0 son afines entonces

f = g ⇐⇒ f~ = ~g y f (p0 ) = g(p0 ) para algún p0 ∈ A.

Demostración : Para cualesquiera p, q ∈ A se tiene que


−−−−−→ −−0−−−−−− −−−−−0−−−−−− − −→
f (p)f (q) = (p0 + h(p→ → −→ −→ −→ −→ →

0 p))(p0 + h(p0 q)) = h(p0 q) − h(p0 p) = h(p0 q − p0 p) = h(pq),

y de aquı́ que f es afı́n con lineal asociada f~ = h. Como f (p0 ) = p00 + h(− p− →
0 p0 ) =
p00 + h(~0) = p00 , la aplicación f satisface lo requerido. La unicidad es trivial de Definición
2.50-(ii).

Corolario 2.52 Sea f : A → A0 una aplicación entre espacios afines, y para cada
p ∈ A definamos

− −
→ −−−−−−−−→
f~p : A → A0 , f~p (v) = f (p)f (p + v).
Los siguientes enunciados son equivalentes:

32
(i) f es afı́n.

(ii) Para todo p ∈ A la aplicación f~p es lineal.

(iii) Existe q ∈ A tal que f~q es lineal.


Además, si f es afı́n entonces f~ = f~p para todo p ∈ A.
Demostración : Comencemos observando que si f es afı́n entonces
−−−−−−−−→ −−−−−→
f~p (v) = f (p)f (p + v) = f~ p (p + v) = f~(v),

esto es, f~ = f~p para todo p ∈ A. Esto prueba que (i) =⇒ (ii) =⇒ (iii). Por último
(iii) =⇒ (i) es consecuencia de la Proposición 2.51 para p0 = q, p00 = f (q) y h = f~q .
Corolario 2.53 Sean V, V 0 espacios vectoriales dotados de estructura afı́n de la forma
usual, y sea f : V → V 0 una aplicación. Entonces son equivalentes
(i) Existen v00 ∈ V 0 y h : V → V 0 lineal tales que f (v) = v00 + h(v) ∀v ∈V.

(ii) f es afı́n con f~ = h y f (~0) = v00 .


Además, en ese caso f~ = h.
Demostración : La implicación (i) ⇒ (ii) es consecuencia trivial de la Proposición 2.51
~
aplicada a p0 = 0 ∈ V , p00 = v00 ∈ V y aplicación lineal h : V → V 0 .
La implicación (ii) ⇒ (i) se sigue de la expresión

f (v) = f (~0 + v) = f (~0) + f~(v) ∀ v ∈ V ;


ver Definición 2.50-(iv).

Como consecuencia inmediata del Corolario 2.53 podemos caracterizar las aplica-
ciones afines entre los espacios afines clásicos Rn y Rk . Recordemos que las aplicaciones
lineales h : Rn → Rk son de la forma
h : Rn → Rk , h(x) = A · x, para alguna matriz A ∈ Mk,n (R).
Corolario 2.54 Dados A ∈ Mk,n (R) y b ∈ Rk , la aplicación
fA,b : Rn → Rk , fA,b (x) = A · x + b
es la única aplicación afı́n de Rn en Rk con
−→ −→
fA,b (0) = b y fA,b : Rn → Rk , fA,b (x) = A · x.
(Estamos utilizando la notación columna x = (x1 , . . . , xn )t y b = (b1 , . . . , bk )t ).
Este corolario nos proporciona no sólo ejemplos de aplicaciones afines entre los espacios
afines canónicos Rn y Rk , sino de hecho todas ellas. Observemos que en este contexto
una aplicación afı́n no es sino una aplicación lineal seguida de una traslación. Se suele
usar la siguiente notación más compacta para escribir la expresión analı́tica de fA,b :
     
1 1 0 1
= · ,
fA,b (x) b A x
 
1 0
donde ∈ Mk+1,n+1 (R).
b A

33
Ejercicio 2.55 La aplicación f : P2 (R) → R2 , f (p(x)) = (p(1) + 2, p0 (2) − 1), es afı́n
con aplicación lineal asociada f~ : P2 (R) → R2 , f~(p(x)) = (p(1), p0 (2)).

Si p0 (x) = 0 es polinomio nulo en P2 (R), la aplicación f~p0 (x) : P2 (R) → R2


Solución :
viene dada por
−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−−−−→
f~p0 (x) (p(x)) = f (p0 (x)), f (p0 (x) + p(x)) = (2, −1), (p(1) + 2, p0 (2) − 1) = (p(1), p0 (2)).

Como f~p0 (x) es claramente lineal, la aplicación f es afı́n con lineal asociada f~ = f~p0 (x) .

El siguiente enunciado es un compendio de las propiedades generales más interesantes


de las aplicaciones afines.
Propiedades 2.56 Los siguientes enunciados son ciertos:
(i) Si V, V 0 son espacios vectoriales y f : V → V 0 es una aplicación lineal, entonces
f es afı́n (dotados V, V 0 de su estructura afı́n canónica) y f~ = f .


(ii) Si A es un espacio afı́n y p ∈ A, la aplicación Fp : A → A , Fp (q) = →

pq, es afı́n

→ →

→ (dotado A de su estructura afı́n canónica).
con Fp = Id−
A


(iii) Si A es un espacio afı́n y p ∈ A, la aplicación Gp = Fp−1 : A → A es afı́n con

→ →

→ (dotado A de su estructura afı́n canónica).
Gp = Id−
A

(iv) Si f : A → A0 es afı́n entonces f = Gf (q) ◦ f~ ◦ Fq para todo q ∈ A. En particular,

f es injectiva (sobreyectiva, biyectiva) ⇐⇒ f~ es injectiva (sobreyectiva, biyectiva).

−−→
(v) Si f : A → A0 , g : A0 → A00 son afines entonces g ◦ f es afı́n y g ◦ f = ~g ◦ f~.

(vi) f : A → A0 es afı́n biyectiva si y solo si f −1 : A0 → A es afı́n biyectiva, y en este


−−−→ −1
caso (f −1 ) = f~ .

(vii) Si S es un subespacio de A entonces la aplicación inclusión iS : S → A es afı́n y



− ~→→
iS = iS~ , donde iS~ : S

A es el monomorfismo inclusión. Como consecuencia, si
−→
f : A → A es afı́n entonces la restricción f |S : S → A0 es afı́n con f |S = f~| ~ .
0
S



Demostración : Para demostrar (i) basta con comprobar que f~0 : V → V 0 coincide con


f . Esto implicarı́a que f~0 serı́a lineal, de donde usando Corolario 2.52, la aplicación


f serı́a afı́n con f~ = f~0 = f , y concluirı́amos la prueba. En efecto, para todo v ∈ V
tenemos que

− −−−−−−−−→ −−−−−→ −−−→
f~0 (v) = f (~0)f (~0 + v) = f (~0)f (v) = ~00 f (v) = f (v) − ~00 = f (v).

Nótese que la identidad f (~0) = ~00 se sigue de la linealidad de f .



− →

Probemos (ii) demostrando que (f~p )p : A → A es la aplicación identidad Id− → (luego
A

→ −

lineal), y por tanto Fp es afı́n con Fp = (Fp )p = Id− → ; ver Corolario 2.52. En efecto, para
A


todo v ∈ A se tiene que
−−−−−−−−−−→ − →
(f~p )p (v) = Fp (p)Fp (p + v) = ~0 v = v − ~0 = v.

34

→ → − →

Análogamente, para probar (iii) basta con demostrar que (Gp )~0 : A → A es la aplica-


→ .Para todo v ∈ A se tiene que
ción identidad Id−
A


→ −−−−−−−−−−−→ −−−−−−−→ −−−−−−−−−−→ −−−−−→
(Gp )~0 (v) = Gp (~0)Gp (~0 + v) = Gp (~0)Gp (v) = (p + ~0) (p + v) = p (p + v) = v.

Item (iv) es consecuencia del siguiente cálculo elemental


−−−−−→ −−−−−→
(Gf (q) ◦ f~ ◦ Fq )(p) = Gf (q) f~(→
− 
qp) = Gf (q) (f (q)f (p)) = f (q) + f (q)f (p) = f (p)

para todo p ∈ A. Como Gf (q) y Fq son biyectivas, es claro que f es injectiva (sobreyec-
tiva, biyectiva) si y solo si f~ es injectiva (sobreyectiva, biyectiva).
Para probar (v), tengamos en cuenta que g y f son afines y observemos que, para
todo p, q ∈ A,
−−−−−−−−−−−−−→ −−−−−−−−−−→ −−−−−→
(g ◦ f )(p)(g ◦ f )(q) = g(f (p))g(f (q)) = ~g (f (p)f (q)) = ~g f~(→

pq) = (~g ◦ f~)(→


pq).
−−→
Como ~g ◦ f~ es lineal la aplicación g ◦ f es afı́n y g ◦ f = ~g ◦ f~.
Item (vi) se sigue trivialmente de la identidad f −1 = Gq ◦ f~−1 ◦ Ff (q) y de los items
(i), (ii), (iii), (iv) y (v).
Por último, la prueba de (vii) es trivial sin más que observar que

iS~ (−
p−→ −−→ −−−−−−−→
1 p2 ) = p1 p2 = iS (p1 )iS (p2 ) ∀ p1 , p2 ∈ S.

La segunda parte relativa a la restricción f |S es trivial a partir de (v), toda vez que
−→ →

f |S = f ◦ iS y por tanto f |S = f~ ◦ iS = f~|S~ .

El concepto de isomorfismo es fundamental en cualquiera categorı́a matemática, ya


que encierra la idea de igualdad o equivalencia necesaria para la clasificación de obje-
tos. En el contexto de la geometrı́a afı́n estas transformaciones se llaman afinidades,
comentemos los detalles en la siguiente definición.
Definición 2.57 Las aplicaciones afines biyectivas f : A → A0 entre espacios afines
serán llamadas afinidades. Si denotamos

Aff(A) = {f : A → A : f afinidad},

el conjunto Aff(A) es un grupo respecto de la composición de aplicaciones, conocido en


la literatura como grupo afı́n sobre A.
Es obvio que dos espacios afı́nmente equivalentes (esto es, entre los que existe una afini-
dad) tienen necesariamente la misma dimensión. Veremos más adelante que el recı́proco
también es cierto.
Finalizaremos con la siguiente proposición, que explica el comportamiento de los
subespacios afines respecto de la imagen directa e inversa por aplicaciones afı́nes. La
prueba es rutinaria y se deja como ejercicio.
Proposición 2.58 Sea f : A → A0 una aplicación afı́n entre espacios afines, y sean
S =p+S ~ ⊆ A y S 0 = p0 + S
~ 0 ⊆ A0 subespacios afines.

(i) f (S) es el subespacio afı́n f (p) + f~(S)


~ de A0 (en particular, Im(f ) es el subespacio
afı́n f (p) + Im(f~) de A0 ).

(ii) Si p ∈ f −1 (p0 ) entonces f −1 (S 0 ) es el subespacio afı́n p + (f~)−1 (S


~ 0 ) de A.

35
2.5.1. Aplicaciones afines notables
En este apartado repasaremos las aplicaciones afines básicas en geometrı́a, a saber,
traslaciones, homotecias, proyecciones y simetrı́as.
Para la descripción geométrica de las mismas resulta especialmente útil manejar
algunos conceptos y propiedades elementales, como los relativos al punto medio de un
segmento y el conjunto de puntos fijos de una aplicación afı́n.

Definición 2.59 Dados dos puntos p, q en un espacio afı́n A, definimos el segmento


que determinan como

[p, q] = {p + t→

pq : t ∈ [0, 1]} = {q + t→

qp : t ∈ [0, 1]}.

Es fácil ver que [p, q] = {a + (t−


→ + (1 − t)→
ap −
aq : t ∈ [0, 1]} para todo a ∈ A.
El punto medio del segmento [p, q] viene dado por la expresión:
1− 1→
mpq = p + →pq = q + −
qp,
2 2
o bien mpq = a + 12 (−
→+→
ap −
aq) para todo a ∈ A.

Figura 10: Punto medio del segmento [p, q].

Definición 2.60 Dada f : A → A una aplicación afı́n en un espacio afı́n A, denota-


remos por
Pf = {p ∈ A : f (p) = p} ⊆ A
al conjunto de puntos fijos de f .

Proposición 2.61 Sea f : A → A una aplicación afı́n en un espacio afı́n A.

(i) Si Pf 6= ∅ entonces Pf es un subespacio afı́n de A con variedad con dirección




Pf = Ker(f~ − Id−
→ ).
A

(ii) Ker(f~ − Id−


→ ) = {~
A
0} ⇐⇒ Pf = {q}, q ∈ A (en particular Pf 6= ∅).

Demostración : Para demostrar (i) fijemos q ∈ Pf 6= ∅. Tenemos que


−−−→ −−−−−→
p ∈ Pf ⇐⇒ f (p) = p ⇐⇒ →

qp = qf (p) ⇐⇒ →

qp = f (q)f (p) ⇐⇒ →

qp = f~(→

qp),

de donde

p ∈ Pf ⇐⇒ f~(→

qp) − →

qp = ~0 ⇐⇒ (f~ − Id− →
− 0 ⇐⇒ →
→ )(qp) = ~
A

qp ∈ Ker(f~ − Id−
→ ).
A

Como p = q + →

qp, deducimos que

p ∈ Pf ⇐⇒ p ∈ q + Ker(f~ − Id−
→ ).
A

36
Esto prueba que Pf = q +Ker(f~ −Id− A
~ −Id−
→ ), y como Ker(f → ) es un subespacio vectorial
A


de A , que Pf es un subespacio afı́n de A con variedad de dirección Ker(f~ − Id− → ). Esto
A
concluye la prueba de (i).
Para demostrar (ii), primero observemos que, de (i), si Pf consiste de un único punto


entonces {~0} = P f = Ker(f~ − Id− → ). Supongamos ahora que Ker(f
A
~ − Id−
→ ) = {~
A
0}. Para
acabar bastará con ver que que Pf 6= ∅ y usar (i). Fijemos un punto arbitrario p ∈ A.
Si existiese un punto fijo q de f , tendrı́amos que:
−−−→ −−−→ −−−−−→ −−−→
f (q) = q ⇐⇒ qf (q) = ~0 ⇐⇒ → −
qp + pf (p)+ f (p)f (q) = ~0 ⇐⇒ (f~ −Id− →

→ )(pq) = f (p)p ⇐⇒
A
−−−→ −−−→
⇐⇒ →

pq = (f~ − Id−
A

− ~ − Id−
→ )−1 (f (p)p) ⇐⇒ q = p + pq = p + (f → )−1 (f (p)p).
A
Este razonamiento heurı́stico nos demuestra que elegido p ∈ A arbitrario, el punto
−−−→
q := p + (f~ − Id−
→ )−1 (f (p)p) ∈ Pf ,
A

probando que Pf 6= ∅ y por tanto (ii).

Las traslaciones afines. Las traslaciones (ver Definición 2.7) están caracterizadas por
ser las únicas aplicaciones afines con aplicación lineal asociada la identidad.
Proposición 2.62 Sea A un espacio afı́n y f : A → A una aplicación. Entonces


f = τv ∈ T (A), v ∈ A ⇐⇒ f es afı́n y f~ = Id−
→.
A
−−−→ → −
Además, en ese caso v = qf (q) ∈ A para todo q ∈ A (el vector v no depende de q ∈ A).


Demostración : Consideremos v ∈ A arbitrario y comprobemos que τv es afı́n con

− −−→
τv = Id− → . Por la Corolario 2.52 bastará con tomar q ∈ A y probar que (τv )q es la
A


→ . En efecto, si u ∈ A es un vector arbitrario se tiene que
aplicación lineal Id−
A
−−→ −−−−−−−−−−−−→ −−−−−−−−−−−−−−→ −−−−−−−−−−−−−−→
(τv )q (u) = (τv )(q)(τv )(q + u) = (q + v) (q + u) + v = (q + v) (q + v) + u = u,
y de aquı́ lo buscado.
Para el recı́proco, considemos f : A → A afı́n con f~ = Id− → . Para cualesquiera
A
p, q ∈ A se tiene que
−−−→ −−−→ −−−−−→ −−−→
f (p) = q + qf (p) = q + qf (q) + f (q)f (p) = q + qf (q) + f~(→
− 
qp) .

Como f~ = Id− ~(→


→ entonces f

qp) = →

qp, y por tanto
A
−−−→ −  −−−→ −−−→
f (p) = q + qf (q) + →
qp = (q + →−
qp) + qf (q) = p + qf (q) = (τv )(p)
−−−→
para v = qf (q), como querı́amos demostrar.

Es relevante reseñar que


Pτv 6= ∅ ⇐⇒ v = ~0.
En otras palabras, la única traslación con algún punto fijo es τ~0 = IdA . La comprobación
es rutinaria.
Las homotecias afines. Otras de las transformaciones afines clásicas son las homo-
tecias, que materializan le idea básica de contracción-dilatación y permiten la concep-
tualización de la semejanza de figuras. Los dos elementos geométricos que determinan
una homotecia son su centro o único punto fijo y su razón.

37
Definición 2.63 Definimos la homotecia de centro a ∈ A y razón r ∈ R \ {0, 1} como
la aplicación
ha,r : A → A, ha,r (p) := a + r−

ap.

Proposición 2.64 Sea A un espacio afı́n y h : A → A una aplicación. Entonces

h es homotecia de razón r ∈ R \ {0, 1} ⇐⇒ h es afı́n y ~h = r · Id−


→.
A

En este caso el único punto fijo de h es su centro a ∈ A, que obedece a la fórmula


1 −−−→
a=q+ qh(q)
1−r
para cualquier q ∈ A (en particular esa expresión no depende de q ∈ A).

Figura 11: Acción de las homotecias de centro a y razones −2 y 3.

Demostración : Supongamos que h = ha,r para algunos a ∈ A y r ∈ R. Es claro que



→ →

ha,r (a) = a + raa = a + r 0 = a, esto es, a es un punto fijo de ha,r . Comprobemos
−−−−→
que ha,r es afı́n demostrando que (ha,r )a es la aplicación lineal r · Id−
→ . En efecto, para
A


cualquier v ∈ A se tiene que

−−−−→ −−−−−−−−−−−−→ −−−−−−−− −−


−−
−−−−−→ −−−−−−→
−→
(ha,r )a (v) = ha,r (a)ha,r (a + v) = a a + r · a(a + v)) = a(a + rv) = rv,
−−−−→
de donde se sigue que (ha,r )a = r · Id− → . Para comprobar que Pha,r = {a}, usemos
A
Proposición 2.61 para inferir que Pha,r es un subespacio afin con
−−→ −→  →

Pha,r = Ker(ha,r − Id−
→ ) = Ker (r − 1) · Id−
A
→ = { 0 }.
A

Por tanto dim Pha,r = 0 y consiste de un único punto, a saber Pha,r = {a}.
Para el recı́proco, supongamos que h : A → A es afı́n con ~h = r · Id−
→ , r ∈ R \ {0, 1}.
A
−−−−−→  →

Como Ker(h − Id− → ) = Ker (r − 1) · Id−
A
→ = { 0 }, de la Proposición 2.61 inferimos que
A
Ph = {a}, a ∈ A. Por tanto

h(p) = h(a) + ~h(−


→ = a + r−
ap) → = h (p) ∀ p ∈ A,
ap a,r

y de aquı́ que h = ha,r .

38
Para acabar comprobemos la fórmula de cálculo del centro dada en la proposición.
1
−−−→
En efecto, tomemos q ∈ A un punto cualquiera y veamos que q + 1−r qh(q) es el centro
1
−−−→
a de h, esto es, que q + 1−r qh(q) ∈ Ph . En efecto,

1 −−−→ 1 −−−→ 1 ~ −−−→ r −−−→


h q+ qh(q) = h(q)+~h qh(q) = h(q)+ h(qh(q)) = h(q)+ · qh(q),
1−r 1−r 1−r 1−r

donde hemos usado que ~h = r · Id−


→ . Deducimos por tanto que
A

1 −−−→ −−−→ r −−−→ 1 −−−→ 1 −−−→


h q+ qh(q) = q + qh(q) + · qh(q) = q + qh(q) = q + qh(q)
1−r 1−r 1−r 1−r
1
−−−→
y q + 1−r qh(q) ∈ Ph = {a} como querı́amos demostrar.

Definición 2.65 La afinidad ha,−1 es conocida como la simetrı́a central respecto de (o


con centro) a ∈ A.

Por supuesto, de la Proposición 2.64 se sigue que una aplicación afı́n f : A → A es


una simetrı́a central si y sólo si f~ = −Id−
→ . También podemos enunciar el siguiente
A
resultado.
Corolario 2.66 Sea A un espacio afı́n y f : A → A una aplicación. Entonces

f es una simetrı́a central ⇐⇒ ∃ a ∈ A : mpf (p) = a ∀p ∈ A.

Además, en ese caso el punto a es el centro de f .

Demostración :
→+−
Recordemos que mpf (p) = a + 12 (−
ap
−−→
af (p)) para todo p ∈ A y a ∈ A.
Por tanto,
→+−
∃ a ∈ A : mpf (p) = a ∀p ∈ A ⇐⇒ ∃ a ∈ A : −
ap
−−→
af (p) = ~0 ∀p ∈ A ⇐⇒

⇐⇒ ∃ a ∈ A : f (p) = a − −
→ ∀p ∈ A ⇐⇒ f = h
ap a,−1 ,

y de aquı́ el corolario.

Proyecciones y simetrı́as afines. Antes de presentar las proyecciones y simetrı́as


afines recordemos sus equivalentes vectoriales estudiados en el álgebra lineal.
Sea V un espacio vectorial, y sean U, W ⊆ V subespacios vectoriales tales que

V = U ⊕ W.

La proyección sobre U en la dirección del suplementario algebraico W es la aplicación


lineal dada por
~πU,W : V → V : ~πU,W (v) = u,
donde v = u + w es la descomposición única de v como suma de vectores u ∈ U y
w ∈ W (aquı́ hemos usado que V es la suma directa de U y W ).
Análogamente, la simetrı́a respecto de U en la dirección de W es el isomorfismo
lineal
~σU,W : V → V, ~σU,W (v) = u − w,
donde v = u + w es la descomposición única de v como suma de vectores u ∈ U y
w ∈ W . Es claro de las definiciones anteriores que:

39
~πU,W ◦ ~πU,W = ~πU,W ,

~σU,W ◦ ~σU,W = 2~πU,W − ~σU,W = IdV ,

~πU,W + ~πW,U = IdV .


Las proyecciones y simetrı́as lineales admiten la siguiente caracterización natural.
Proposición 2.67 Si h : V → V es una aplicación lineal tal que h ◦ h = r · h, r 6= 0
entonces V = Ur ⊕ U0 , donde

Ur = Ker(h − r · IdV ) = Im(h) y U0 = Ker(h).

Como consecuencia los siguientes enunciados son ciertos:


(i) Si h : V → V es lineal y h ◦ h = h entonces V = V1 ⊕ V0 y h = ~πV1 ,V0 , donde
V1 = Ker(h − IdV ) = Im(h) y V0 = Ker(h).

(ii) Si f : V → V es lineal y f ◦ f = IdV entonces V = V1 ⊕ V−1 y f = ~σV1 ,V−1 , donde


V1 = Ker(f − IdV ) y V−1 = Ker(f + IdV ).

Demostración : Supongamos que h : V → V es lineal y h ◦ h = r · h, r 6= 0. Notemos


que la identidad
h h(v) − rh(v) = h h(v) − rv = ~0
 

es cierta para todo v ∈ V , y por tanto


1 
Im(h) 3 h(v) ∈ Ur = Ker(h − rIdV ), v−h v ∈ U0 = Ker(h) ∀ v ∈ V.
r
De lo primero Im(h) ⊆ Ur , y como la otra inclusión es trivialmente cierta ya que
v = h( 1r v) ∈ Im(h) para todo v ∈ Ur , deducimos que Im(h) = Ur . La identidad
1 1 
v = h( v) + v − h( v) (1)
r r
prueba que V = Ur + U0 , y de hecho la suma es directa ya que v ∈ U0 ∩ Ur si y sólo si
rv = h(v) = ~0. Esto demuestra lo deseado.
Item (i) es consecuencia de lo visto para r = 1; en este caso U1 = V1 y U0 = V0 .
Para la identidad h = ~πV1 ,V0 ver (1) para r = 1 y la definición de ~πV1 ,V0 .
Para probar item (ii) observemos que la aplicación h = f + IdV satisface h ◦ h = 2h.
Por la primera parte de la proposición,

V = U2 ⊕ U0 , donde U2 = Ker(h − 2 · IdV ) = Im(h) y U0 = Ker(h),

donde ahora U2 = Ker(f − IdV ) = V1 y U0 = Ker(h) = Ker(f + IdV ) = V−1 como


deseábamos. Le ecuación (1) se escribe para r = 2 y h = f + IdV como
1  1 
v= v + f (v) + v − f (v)
2 2
donde claramente 12 v + f (v) ∈ V1 y 12 v − f (v) ∈ V−1 . Usando que f ◦ f = IdV
 

inferimos que
 
1  1  1  1 
f (v) = f v + f (v) + v − f (v) = v + f (v) − v − f (v) ,
2 2 2 2
y por tanto que f = ~σV1 ,V−1 .

40
Tras este breve recordatorio de álgebra lineal, procedamos a presentar los corres-
pondientes conceptos afines. Necesitamos la siguiente definición.
Definición 2.68 Dos subespacios afines S, T de un espacio afı́n A se dicen suplemen-
tarios o complementarios si satisfacen S ∨ T = A y S ∩ T = {q}, q ∈ A.
La complementariedad afı́n se puede presentar de otras formas equivalentes.
Proposición 2.69 Sean S, T dos subespacios afines de un espacio afı́n A. Los siguien-
tes enunciados equivalentes:


(i) S ∨ T = A y S ∩ T = {q}, q ∈ A (son complementarios).


(ii) dim S + dim T = dim A y S ∩ T = {q}, q ∈ A .

− ~ ⊕ T~ .
(iii) A = S
Demostración : Para comprobar que los enunciados (i) y (ii) son equivalentes, recorde-
mos las formulas de dimensiones en Corolario 2.20. Como tanto en (i) como en (ii) se
tiene que S ∩ T 6= ∅ y dim(S ∩ T ) = 0, la correspondiente formula de dimensiones nos
da
dim(S ∨ T ) = dim S + dim T − dim(S ∩ T ) = dim S + dim T.
Por tanto dim S + dim T = dim A si y solo si dim(S ∨ T ) = dim A (esto es, S ∨ T = A),
y por tanto (i) ⇐⇒ (ii).


Probemos que (ii) =⇒ (iii). Como S ∩ T = {q} para algún q ∈ A deducimos
−−−→ ~ ∩ T~ . La condición dim S + dim T = dim A es equivalente a
que {~0} = S ∩ T = S
dim S ~ + dim T~ = dim A , y por tanto →

− −
A =S ~ ⊕ T~ ya que S
~ ∩ T~ = {~0}.
Para demostrar que (iii) =⇒ (ii), observemos primero que S ∩T 6= ∅; de lo contrario
la fórmula de dimensiones en Corolario 2.20 dirı́a que

− ~ ∩ T~ ) + 1 =
dim A = dim A ≥ dim(S ∨ T ) = dim S + dim T − dim(S

= dim S ~ + dim T~ − dim(S~ ∩ T~ ) + 1 = dim S~ + dim T~ + 1 = dim → −


A + 1,
−−−→ ~ ~
lo que es absurdo. Por tanto S ∩ T 6= ∅ es un subespacio afı́n con S ∩ T = S ∩ T = {~0},
de donde dim(S∩T ) = 0 y S∩T es un punto. La correspondiente fórmula de dimensiones
en Corolario 2.20 nos da ahora que

dim(S ∨ T ) = dim S + dim T − dim(S ∩ T ) = dim S ~ + dim T~ = dim → −


A = dim A,
lo que prueba (ii).
Corolario 2.70 Si S, T son dos subespacios afines complementarios de A y S 0 k S,
T 0 k T entonces S 0 , T 0 son también subespacios complementarios de A.
Estamos en condiciones de poder definir el concepto de proyección afı́n.
Definición 2.71 Sean S, T dos subespacios afines complementarios de un espacio afı́n
A, y para cada p ∈ A denotemos por Tp al único subespacio afı́n de A con p ∈ Tp y
T k Tp (ver Proposición 2.22-(iii)).
La proyección afı́n sobre S en la dirección de T es la aplicación definida por
πS,T : A → A, πS,T (p) := S ∩ Tp .
Nótese que los subespacios afines S, Tp son complementarios, y por tanto Tp ∩ S es un
punto de A unı́vocamente determinado; ver Corolario 2.70.

41
Figura 12: Proyección afı́n

Observación 2.72 Hemos preferido introducir la nomenclatura proyección sobre S en


la dirección de T por comodidad, aunque mas apropiado serı́a hablar de proyección sobre
S en la dirección T~ . Si se reflexiona con cuidado, lo único necesario del subespacio afı́n
T en la anterior definición es su variedad de dirección T~ (que gobierna el paralelismo).

La siguiente proposición aclara las propiedades geométricas de las proyecciones afines.

Proposición 2.73 Si S, T son dos subespacios afines complementarios de A, entonces:

(i) πS,T : A → A es una aplicación afı́n y −


π−
→ π .
S,T = ~ ~ T~
S,

(ii) PπS,T = Im(πS,T ) = S y πS,T ◦ πS,T = πS,T .

(iii) πS,T es constante sobre cada subespacio T 0 k T .

Demostración : Para probar (i) será suficiente con ver que si s ∈ S entonces


~ T~ ( sp) ∀p ∈ A,
πS,T (p) = s + ~πS, (2)

lo que en particular implicará también que

πS,T (s) = s ∀s ∈ S, esto es, S ⊆ PπS,T .

En efecto, como πS,T (p) es el único punto en S ∩ Tp solo hay que demostrar que


~ T~ ( sp) ∈ S ∩ Tp .
s + ~πS,

Para comprobarlo, primero observemos que



− →

~ T~ ( sp) ∈ Tp = p + T ,
s + ~πS,

lo que es consecuencia de que


−−−−−−−−−− −−→ →
→ − π (→ − →
− →
− →

p s + ~πS,
~ T~ ( sp) = ps + ~ ~ T~ sp) = ~
S, πS, πT~ ,S~ (→
~ T~ ( sp) − sp = −~

sp) ∈ T~ = Tp .


− ~ π ~ ~ (→− ~
Análogamente s + ~πS, ~ T~ ( sp) ∈ S ya que S = s + S y ~ S,T sp) ∈ S, por lo que se tiene
(2).
De la Proposición 2.51 inferimos que πS,T es la única aplicación afı́n con −
π−
→ π
S,T = ~ ~ T~
S,
y πS,T (s) = s para todo s ∈ S, lo que prueba (i) y que S ⊆ PπS,T .
Item (ii) será consecuencia inmediata de las identidades

Im(πS,T ) = S = PπS,T .

42
Para comprobarlas, nótese que de la definición de πS,T y lo ya demostrado se tiene la
cadena de inclusiones
Im(πS,T ) ⊆ S ⊆ PπS,T .
La inclusión PπS,T ⊆ Im(πS,T ) que cierra el ciclo es trivial ya que por comprobación
directa Pf ⊆ Im(f ) para cualquier aplicación afı́n f : A → A.
Por último veamos (iii). Para comprobar que πS,T |T 0 es constante sobre cada subes-
pacio afı́n T 0 k T , recordemos (ver Proposición 2.58) que πS,T (T 0 ) ⊆ A es un subespacio
afı́n con variedad de dirección
−−−−−→
πS,T (T 0 ) = −
π−
→ ~0
S,T (T ) = ~
πS, ~ ~
~ T~ (T ) = {0},

y por tanto es un punto.

La anterior proposición tiene un recı́proco natural.


Proposición 2.74 Sea f : A → A una aplicación afı́n en un espacio afı́n A satisfa-
ciendo f ◦f = f . Entonces f es la proyección afı́n sobre Im(f ) en la dirección q+Ker(f~),
donde q ∈ A es un punto arbitrario.

Demostración : De la identidad f ◦ f = f inferimos que f~ ◦ f~ = f~, de donde f~ =


~πV1 ,V0 para V1 = Im(f~) y V0 = Kef(f~); ver Proposición 2.67. Llamemos S = Im(f )
(obviamente subespacio afı́n de A con S~ = Im(f~) = V1 ; ver Proposición 2.58) y T =
q + Ker(f~), donde q ∈ A es un punto arbitrario, y démonos cuenta de que S y T son
subespacios afines complementarios ya que

− ~ ⊕ T~ .
A = V1 ⊕ V0 = S

(ver Proposición 2.69). Por otra parte, como f ◦ f = f entonces Im(f ) ⊆ Pf , y como
la otra inclusión siempre es cierta deducimos que Im(f ) = Pf . Por tanto f y πS,T son
dos aplicaciones afines con la misma aplicación lineal asociada, a saber ~πV1 ,V0 , y que
coinciden al menos en un punto (ambas fijan todos los puntos de S = Im(f )). Por la
Proposición 2.51 deducimos que f = πS,T , lo concluye la prueba.

Ejercicio 2.75 Consideremos los subespacios afines de R3 dados por

S = {(x, y, z) ∈ R3 : x − y + z = 2}, T = (0, −1, 0) + L({(1, 1, 1)}).

Comprueba que S y T son suplementarios (o complementarios) afines. Calcula la pro-


yección afı́n πS,T sobre S en la dirección de T , dando sus ecuaciones analı́ticas respecto
del sistema de referencia canónico R0 = {(0, 0, 0), B0 } (B0 base canónica de R3 ) de R3 .

Solución : Es claro que T~ = L({(1, 1, 1)}), y análogamente


~ = {(x, y, z) ∈ R3 : x − y + z = 0} = L({(1, 1, 0), (1, 0, −1)}).
S

Como los vectores B = {(1, 1, 0), (1, 0, −1), (1, 1, 1)} forman una base de R3 deducimos
que S~ y T~ están en suma directa y R3 = S ~ ⊕ T~ . De aquı́ que S y T sean subespacios
3
afines suplementarios de R .
Necesitaremos las ecuaciones implı́citas de S y de T en la referencia canónica R0 .
Como conocemos las de S, calculamos las de T por el procedimiento estándar
 
x 1
T = {(x, y, z) ∈ R3 : rang  y + 1 1  = 1} = {(x, y, z) ∈ R3 : x − y − 1 = x − z = 0}.
z 1

43
y por tanto
T~ = {(x, y, z) ∈ R3 : x − y = x − z = 0}.
Dado (x, y, z) ∈ R3 , recordemos que el punto proyección πS,T ((x, y, z)) está caracte-
rizado por estas propiedades:
πS,T ((x, y, z)) ∈ S.
−−−−−−−−−−−−−−−→ ~
(x, y, z)πS,T ((x, y, z)) ∈ T .
Por tanto, si denotamos por (a, b, c) = πS,T ((x, y, z)), tenemos que
(a, b, c) ∈ S, esto es, a − b + c = 2.
−−−−−−−−−−→
(x, y, z)(a, b, c) = (a − x, b − y, c − z) ∈ T~ , esto es, a − x − b + y = a − x − c + z = 0.
Resolviendo el sistema con incógnitas a, b, c obtenemos

a = 2 + y − z, b = 2 − x + 2y − z, c = 2 − x + y,

de donde la proyección buscada queda:

πS,T : R3 → R3 , πS,T (x, y, z) = (2 + y − z, 2 − x + 2y − z, 2 − x + y).




El concepto de simetrı́a afı́n está ı́ntimamente ligado con el de proyección que aca-
bamos de estudiar.
Definición 2.76 Sean S, T dos subespacios afines complementarios de un espacio afı́n
A, y denotemos por Tp al único subespacio afı́n de A con p ∈ Tp y T k Tp , p ∈ A.
La simetrı́a afı́n sobre S en la dirección de T es la aplicación σS,T : A → A definida,
punto a punto, por la identidad geométrica

mp σS,T (p) = πS,T (p) ∀p ∈ A.

De forma más explı́cita,


−−−−−→ −−−−−→
σS,T : A → A, σS,T (p) := p + 2 pπS,T (p) = πS,T (p) + pπS,T (p).

Figura 13: Simetrı́a afı́n

La definición de σS,T expresa que σS,T (p) es el único punto del espacio afı́n A tal
que πS,T (p) es el punto medio del segmento [p, σS,T (p)]. La lógica heurı́stica que hay

44
debajo de ese enunciado es la siguiente: un punto q ∈ A para el que mpq = πS,T (p) ha
de satisfacer
1− −−−−−→ −−−−−→
p+ →pq = πS,T (p) ⇐⇒ →

pq = 2 pπS,T (p) ⇐⇒ q = p + 2 pπS,T (p),
2
y de ahı́ la definición de σS,T (p).
−−−−−→ −−−−−→
Por otra parte, la identidad p + 2 pπS,T (p) = πS,T (p) + pπS,T (p) es trivial como
consecuencia del cálculo:
−−−−−→ −−−−−→ −−−−−→ −−−−−→
p + 2 pπS,T (p) = (p + pπS,T (p)) + pπS,T (p) = πS,T (p) + pπS,T (p).

Proposición 2.77 Si S, T son dos subespacios afines complementarios de A, entonces:

(i) σS,T : A → A es una aplicación afı́n y −


σ−
→ σ .
S,T = ~ ~ T~
S,

(ii) σS,T ◦ σS,T = IdA .

(iii) PσS,T = S y σS,T (T 0 ) = T 0 para todo subespacio T 0 k T , siendo σS,T |T 0 : T 0 → T 0


la simetrı́a central en T 0 con centro el punto S ∩ T 0 .


Demostración : ~ T~ ( sp) para todo s ∈ S,
De la Proposición 2.73 tenemos πS,T (p) = s +~πS,
p ∈ A. De aquı́ que
−−−−−→ −−−−−−−−−− −−→
σS,T (p) = p + 2 pπS,T (p) = (s + →
− → →
− →
~ T~ ( sp) = (s + sp) + 2 ps + ~
sp) + 2 p s + ~πS, − π (→ − 
~ T~ sp) =
S,

= (s + →
− →
− →
−
~ T~ ( sp) − sp = s + 2~
sp) + 2 ~πS, →
− →
−
~ T~ ( sp) − sp = s + ~
πS, σS, →

~ T~ ( sp).

Por tanto


~ T~ ( sp) ∀s ∈ S, p ∈ A,
σS,T (p) = s + ~σS,
y además en particular también

σS,T (s) = s ∀s ∈ S.

De la Proposición 2.51 inferimos que σS,T es la única aplicación afı́n con −


σ−
→ σ
S,T = ~ ~ T~ y
S,
σS,T (s) = s para todo s ∈ S, lo que prueba (i) (y que S ⊆ PσS,T ).
Para probar (ii), observemos que − σ−−−−−−→ σ ◦ ~σ
S,T ◦ σS,T = ~ ~ T~
S,
→ y que σS,T ◦ σS,T
~ T~ = Id−
S, A
tiene puntos fijos (todos los de S). De Proposición 2.51 concluimos que σS,T ◦σS,T = IdA .
En relación a (iii), tengamos en cuenta que
−−−−−→ −−−−−→
p ∈ PσS,T ⇐⇒ σS,T (p) = p + 2 pπS,T (p) = p ⇐⇒ pπS,T (p) = ~0 ⇐⇒ p ∈ PπS,T = S,

donde hemos usado Proposición 2.73-(ii).


Por último, como −
σ−→ σ
S,T = ~
−−→ ~ ~
~ T~ entonces σS,T |T~ : T → T coincide con −IdT~ . Además,
S,
si T 0 es un subespacio afı́n con T~ 0 = T~ y s0 = S ∩ T 0 ∈ PσS,T , de la Proposición 2.58
inferimos que

σS,T (T 0 ) = σS,T (s0 + T~ ) = σS,T (s0 ) + −


σ−
→ ~ 0
S,T (T ) = s + ~
σS, ~ 0 ~ 0
~ T~ (T ) = s + T = T .

Esto implica que σS,T |T 0 : T 0 → T 0 es una simetrı́a central (ver Definición 2.65) con
centro el punto s0 , lo que concluye la prueba.

La anterior proposición tiene un recı́proco natural.

45
Proposición 2.78 Sea f : A → A una aplicación afı́n en un espacio afı́n A satisfa-
ciendo f ◦ f = IdA . Entonces Pf 6= ∅ y f es la simetrı́a afı́n sobre Pf en la dirección
del subespacio afı́n q + Kef(f~ + Id−
→ ), donde q ∈ A es un punto arbitrario.
A

Demostración : Veamos que Pf 6= ∅ comprobando que

Pf = {mpf (p) : p ∈ A}.

Si p ∈ Pf es obvio que p = mpf (p) , por lo que bastará con garantizar que mpf (p) ∈ Pf
para todo p ∈ A. En efecto, usando que f ◦ f = IdA tenemos:
1 −−−→ 1 −−−→ 1 −−−→
f mpf (p) = f p + pf (p) = f (p) + f~ pf (p) = f (p) + f~ pf (p) =

2 2 2
1 −−−−−−−−→ 1 −−−→ −−−→ 1 −−−→ 1 −−−→
= f (p) + f (p)f (f (p)) = f (p) + f (p)p = p + pf (p) + f (p)p = p + pf (p) = mpf (p) .
2 2 2 2
De la identidad f ◦ f = IdA inferimos que f~ ◦ f~ = Id− ~ = ~σV ,V para
→ , por lo que f
A 1 −1
~
V1 = Kef(f − Id− ~
→ ) y V−1 = Kef(f + Id− → ); ver Proposición 2.67. Por otra parte, la
A A

→ →

Proposición 2.61 nos dice que Pf = V1 = Kef(f~ − Id− → ), de donde al ser A = V1 ⊕ V−1
A
deducimos que los subespacios afines S := Pf y T := q + Kef(f~ + Id− → ) (q ∈ A
A
arbitrario) son complementarios (ver Proposición 2.69). Como conclusión f y σS,T son
dos aplicaciones afines con la misma aplicación lineal asociada, a saber ~σV1 ,V−1 , y que
coinciden en al menos un punto (ambas fijan de hecho todos los puntos de S). La
Proposición 2.51 garantiza que f = σS,T , lo que concluye la prueba.

Ejercicio 2.79 Consideremos los subespacios afines de R3 dados por

S = {(x, y, z) ∈ R3 : x − y + z = 2}, T = (0, −1, 0) + L({(1, 1, 1)}).

Comprueba que S y T son suplementarios (o complementarios) afines. Calcula la si-


metrı́a afı́n σS,T sobre S en la dirección de T , dando sus ecuaciones analı́ticas respecto
del sistema de referencia canónico R0 = {(0, 0, 0), B0 } (B0 base canónica de R3 ) de R3 .

Solución :Recordemos que si πS,T : R3 → R3 es la proyección sobre S en la dirección


de T , entonces la simegtrı́a σS,T viene dada por la expresión
−−−−−→
σS,T (p) := p + 2 pπS,T (p) para todo p ∈ R3 .

Escribiendo como es habitual p = (x, y, z) ya que estamos trabajando en coordenadas


en R0 , quedarı́a

σS,T ((x, y, z)) = 2πS,T ((x, y, z)) − (x, y, z) para todo (x, y, z) ∈ R3 .

Como ya calculamos πS,T : R3 → R3 en el Ejercico 2.75, y obtuvimos la expresión



πS,T (x, y, z) = (2 + y − z, 2 − x + 2y − z, 2 − x + y),

un cálculo directo nos dice que la simetrı́a σS,T : R3 → R3 viene dada por

σS,T (x, y, z) = (4 + 2y − 2z − x, 4 − 2x + 3y − 2z, 4 − 2x + 2y − z).

46
2.6. El Teorema Fundamental de la Geometrı́a Afı́n
El siguiente resultado es clave para la comprensión de la naturaleza de las aplica-
ciones afines y la herramienta básica para la construcción de las mismas.
Teorema 2.80 (Fundamental de la Geometrı́a Afı́n) Sean A y A0 dos espacios
afines, y escribamos dim A = n. Consideremos un sistema de referencia R = {p0 , . . . , pn }
de A y un conjunto de n + 1 puntos {q0 , . . . , qn } (no necesariamente distintos, se per-
miten repeticiones) de A0 . Entonces existe una única aplicación afı́n f : A → A0 tal que
f (pj ) = qj para todo j = 0, 1, . . . , n. Además
(i) Si {q0 , . . . , qn } son afı́nmente independientes entonces f es injectiva.
(ii) Si h{q0 , . . . , qn }i = A0 entonces f es sobreyectiva.
(iii) Si {q0 , . . . , qn } es un sistema de referencia de A0 (y en particular dim A0 = n)
entonces f es una afinidad.
Demostración : Llamemos B = {v1 . . . , vn } a la base de las direcciones de R; recordemos

− → → −0
que vj = p0 pj ∈ A para todo j = 1, . . . , n. Análogamente llamemos uj = −
−−→ q−
0 qj ∈ A
para todo j = 1, . . . , n. Por el Teorema Fundamental del Álgebra Lineal existe una
única aplicación lineal


h : A → A0 , h(vj ) = uj ∀j = 1, . . . , n.
Siguiendo la Proposición 2.51, afirmamos que la única aplicación afı́n (con f~ = h y
f (p0 ) = q0 ) definida por
f : A → A0 , f (p) = q + h(−
p→p)
0 0

realiza f (pj ) = qj para todo j = 0, 1, . . . , n. En efecto, la identidad f (p0 ) = q0 es trivial


toda vez que h(~0) = ~00 . Para cada j ∈ {1, . . . , n} tenemos que
f (p ) = q + h(−
j 0 p−→
p ) = q + h(v ) = q + u = q + −
0 j 0 j 0 j q−→
0 q =q ,
0 j j

y por tanto f satisface lo requerido. Para comprobar la unicidad, tomemos g : A → A0


afı́n satisfaciendo g(pj ) = qj para todo j = 0, . . . , n, y observemos que
−−−−−−→ −−→
~g (vj ) = ~g (−
p−→ ~
0 pj ) = g(p0 )g(pj ) = q0 qj = uj = f (vj ), j = 1, . . . , n.
Como las aplicaciones lineales ~g y f~ coinciden sobre los vectores de la base B deducimos
que ~g = f~, y como además g(p0 ) = f (p0 ) = q0 que f = g. Esto concluye la primera
parte de existencia y unicidad del teorema.
Proposición 2.56-(iv) nos dice que f es injectiva si y solo si f~ = h es inyectiva, lo que
sabemos es equivalente a que {u1 , . . . , un } sean linealmente independientes, esto es, a
que {q0 , . . . , qn } sean afı́nmente independientes. Esto prueba (i). Por un razonamiento


análogo f es sobreyectiva si y solo si {u1 , . . . , un } es un sistema de generadores de A 0 , o
equivalentemente h{q0 , . . . , qn }i = A0 (ver Corolario 2.19), lo que prueba (ii). Item (iii)
es consecuencia de (i) y (ii).
Corolario 2.81 Dos espacios afines son afı́nmente equivalentes (esto es, existe una
afinidad de uno en el otro) si y solo si tienen la misma dimensión.
Demostración : Si A y A0 son espacios con dim A = dim A0 , basta con tomar sistemas
de referencia R = {p0 , . . . , pn } de A y R0 = {q0 , . . . , qn } de A0 , y considerar la única
aplicación afı́n f : A → A0 con f (pj ) = qj , j = 0, 1, . . . , n. Esta aplicación es una afini-
dad por el Teorema 2.80-(iii). Recı́procamente, si f : A → A0 es una afinidad entonces

− →
− →
− →

f~ : A → A 0 es un isomorfismo y por tanto dim A = dim A = dim A 0 = dim A0 .

47
2.7. Ecuaciones analı́ticas de las aplicaciones afines
Dada una aplicación lineal h : V → V 0 entre espacios vectoriales con dimensiones
dim V = n, dim V 0 = k, y elegidas bases ordenadas B = {v1 , . . . , vn } de V y B 0 =
{u1 , . . . , uk } de V 0 , escribiremos por M (h, B, B 0 ) la matriz de h en las bases B y B 0
(en notación columna). Recordemos que M (h, B,B 0 ) es la matriz de orden k × n cuya
j-ésima columna es el vector columna ΦB 0 h(vj ) ≡ h(vj )B 0 ∈ Rk de las coordenadas
de h(vj ) en la base B 0 , lo que matricialmente se puede escribir:
t
h(vj ) = (u1 , . . . , uk ) · h(vj )B 0 .

Esta matriz era el ingrediente fundamental de las ecuaciones analı́ticas de h en las bases
B y B 0 , que adoptaban la la forma matricial

h(v)B 0 = M (h, B, B 0 ) · vB ∀v ∈ V.

La interpretación de la fórmula es sencilla, conocidas las coordenadas vB de un vec-


tor v ∈ V en la base B de V , nos proporciona salvo multiplicar por M (h, B, B 0 ) las
coordenadas h(v)B 0 de su imagen h(v) ∈ V 0 en la base B 0 de V 0 .
Para hacer lo equivalente con aplicaciones afines f : A → A0 entre espacios afines y
fijemos sistemas de referencia R = {p0 , B} de A y R0 = {p00 , B 0 } de A0 . El cálculo que
permite relacionar las coordenadas pR de un punto p ∈ A en R con las coordenadas
f (p)R0 de su imagen f (p) ∈ A0 en R0 es el siguiente.
Como f (p) = f (p0 ) + f~(−
p→ 0
0 p), tomando coordenadas en R tenemos

f (p)R0 = f (p0 ) + f~(−


p→ ~ −→ ~ 0 −→
 
0 p) R0 = f (p0 )R0 + f (p0 p) B 0 = f (p0 )R0 + M (f , B, B ) · (p0 p)B ,

donde hemos usado las ecuaciones analı́ticas de f~ en las bases B y B 0 . Como pR =


(−
p→
0 p)B , obtenemos finalmente que

f (p)R0 = f (p0 )R0 + M (f~, B, B 0 ) · pR ,

o equivalentemente
     
1 1 0 1
= ~ · .
f (p)R0 f (p0 )R0 M (f , B, B 0 ) pR

Definición 2.82 Dada f : A → A0 afı́n y sistemas de referencia R = {p0 , B} de A y


R0 = {p00 , B 0 } de A0 , la matriz
 
0 1 0
M (f, R, R ) :=
f (p0 )R0 M (f~, B, B 0 )

es conocida como la matriz de f en los sistemas de referencia R = {p0 , B} de A y


R0 = {p00 , B 0 } de A0 . Asimismo, la expresión matricial
   
1 0 1
= M (f, R, R ) · .
f (p)R0 pR

es conocida como las ecuaciones analı́ticas de f en los sistemas de referencia R =


{p0 , B} de A y R0 = {p00 , B 0 } de A0 .

Nótese que si dim A = n y dim A0 = k entonces M (f, R, R0 ) es de orden (k+1)×(n+1).


Se deja como ejercicio la comprobación de las siguientes propiedades.

48
f g
Propiedades 2.83 Dadas aplicaciones afines A −→ A0 −→ A00 entre espacios afines
y sistemas de referencia R en A, R0 en A0 y R00 en A00 , los siguientes enunciados son
ciertos:
(i) M (g ◦ f, R, R00 ) = M (g, R0 , R00 ) ◦ M (f, R, R0 ).
(ii) M (IdA , R, R) = In+1 , donde n = dim A.
(iii) Si f es una afinidad entonces M (f −1 , R0 , R) = M (f, R, R0 )−1 .
(iv) Si R1 y R10 son otros sistemas de referencia en A y A0 , respectivamente, entonces

M (f, R1 , R01 ) = M (IdA0 , R0 , R01 ) · M (f, R, R0 ) · M (IdA , R1 , R).

Notación 2.84 Dado un espacio afı́n A, un sistema de referencia R de A y una apli-


cación afı́n f : A → A, se suele escribir

M (f, R) = M (f, R, R).

2.8. Algunos ejercicios resueltos


Ejercicio 2.85 Dados los subespacios afines suplementarios de R3

S = {(x, y, z) ∈ R3 : x − y + z = 2}, T = (0, −1, 0) + L({(1, 1, 1)}),

determina la expresión matricial de la proyección afı́n πS,T sobre S en la dirección de


T en el sistema de referencia R = {(−1, 1, −1), B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}}.

Solución :
Recordemos que en el Ejercicio 2.75 probamos que la expresión analı́tica de
πS,T : R → R3 en el sistema de referencia canónico R0 de R3 viene dada por
3


πS,T (x, y, z) = (2 + y − z, 2 − x + 2y − z, 2 − x + y),

y por tanto

π−
→ 
S,T (x, y, z) = (y − z, −x + 2y − z, −x + y).

En consecuencia,
 
1 0 0 0
 2 0 1 −1 
M (πS,T , R0 ) ≡ M (πS,T , R0 , R0 ) = 
 2 −1 2 −1  .

2 −1 1 0
Por otra parte, sabemos que
 
1 0 0 0
 −1 1 1 1 
M (IdR3 , R, R0 ) = 
 1
,
1 1 0 
−1 1 0 0
y por tanto
 
1 0 0 0
 1 0 0 1 
M (IdR3 , R0 , R) = M (IdR3 , R, R0 )−1 =
 −2
.
0 1 −1 
2 1 −1 0

49
Como M (πS,T , R) = M (IdR3 , R0 , R) · M (πS,T , R0 ) · M (IdR3 , R, R0 ), inferimos que
     
1 0 0 0 1 0 0 0 1 0 0 0
 ·  2 0 1 −1  ·  −1 1 1 1  ,
 1 0 0 1     
M (πS,T , R) = 
 −2 0 1 −1   2 −1 2 −1   1 1 1 0 
2 1 −1 0 2 −1 1 0 −1 1 0 0

esto es,  
1 0 0 0
 5 0 0 −1 
M (πS,T , R) = 
 0
.
0 1 0 
0 0 0 1
La interpretación de este cálculo es que si p ∈ R3 es un punto con pR = (x0 , y 0 , z 0 ),
entonces πS,T (p) ∈ R3 es el punto con

πS,T (p)R = (5 − z 0 , y 0 , z 0 ).

Ejercicio 2.86 Determinar la expresión matricial en el sistema de referencia usual


de la aplicación afı́n f : R3 → R3 que tiene como puntos fijos a los del plano afı́n
x + y − z = −2, y tal que f (0, 0, 0) = (1, 2, −1). ¿Es f un isomorfismo afı́n?

Solución :Llamemos S = {(x, y, z) ∈ R3 : x + y − z = −2}. Resolviendo la ecuación


x + y − z = −2, podemos describir paramétricamente S como sigue

S = {(λ + µ, −µ, λ + 2) : λ, µ ∈ R},

y por tanto 
S = (0, 0, 2) + L {(1, 0, 1), (1, −1, 0)} .
Un sistema de referencia en S viene dado por los puntos

{p1 = (0, 0, 2), p2 = (0, 0, 2)−(1, 0, 1) = (−1, 0, 1), p3 = (0, 0, 2)+(1, −1, 0) = (1, −1, 2)}.

Si llamamos p0 = (0, 0, 0), es claro que R = {p0 , p1 , p2 , p3 } son afı́nmente independientes


en R3 , y por tanto

R ≡ {p0 , B = {−
p−→ −−→ −−→
0 p1 , p0 p2 , p0 p3 }} = {(0, 0, 0), B = {(0, 0, 2), (−1, 0, 1), (1, −1, 2)}}

es un sistema de referencia afı́n de R3 .


Por el Teorema 2.80, la aplicación afı́n f : R3 → R3 que resuelve el ejercicio está
determinada por las condiciones siguientes

f (p0 ) = (1, 2, −1), f (pj ) = pj , j = 1, 2, 3.

Por tanto, si llamamos

v1 = −
p−→ −−→ −−→
0 p1 = (0, 0, 2), v2 = p0 p2 = (−1, 0, 1), v3 = p0 p3 = (1, −1, 2),

deducimos que
−−−−−−−→
f~(v1 ) = f (p0 )f (p1 ) = (0, 0, 2) − (1, 2, −1) = (−1, −2, 3)

50
−−−−−−−→
f~(v2 ) = f (p0 )f (p2 ) = (−1, 0, 1) − (1, 2, −1) = (−2, −2, 2)
−−−−−−−→
f~(v3 ) = f (p0 )f (p3 ) = (1, −1, 2) − (1, 2, −1) = (0, −3, 3).
De aquı́ que  
−1 −2 0
M (f~, B, B0 ) =  −2 −2 −3 
3 2 3
donde B0 es la base canónica de R3 . Recordemos que R0 = {p0 , B0 } es el sistema de
referencia usual o canónico de R3 . Al ser f (p0 )R0 = (1, 2, −1), tenemos que
 
1 0 0 0
 1 −1 −2 0 
M (f, R, R0 ) = 
 2 −2 −2 −3 

−1 3 2 3

Como  
1 0 0 0
 0 0 −1 1 
M (IdR3 , R, R0 ) =  ,
 0 0 0 −1 
0 2 1 2
deducimos que

M (f, R0 , R0 ) = M (f, R, R0 ) · M (IdR3 , R0 , R) = M (f, R, R0 ) · M (IdR3 , R, R0 )−1 =


   −1  
1 0 0 0 1 0 0 0 1 0 0 0
3 1
 1 −1 −2 0   0 0 −1 1 
 ·  = 1

2 2
− 12 
.
 2 −2 −2 −3   0 0 0 −1   2 1 2 −1 
−1 3 2 3 0 2 1 2 −1 − 12 − 21 32
La expresión matricial de f : R3 → R3 en R0 queda
     
 1 1 0 0 0 1
x 3 1 1   
   1
2 2
− x
2  ·  .
 f y   =  2
  
1 2 −1  y 
z R0 −1 − 12 − 12 32 z

Por último, obsérvese que

det M (f~, B, B0 ) = 6 6= 0,


de donde f~ es un isomorfismo de espacios vectoriales y, por tanto, f es una afinidad o


isomorfismo afı́n.

Ejercicio 2.87 Consideremos en R3 los planos

S = {(x, y, z) ∈ R3 : − x − y + z = 1}, S 0 = {(x, y, z) ∈ R3 : x + y + z = −1}

y las rectas

T = (0, 0, 1) + L({(1, 1, 0)}), T 0 = (0, 0, −1) + L({(1, 1, 0)}).

Justifica que existe una afinidad f : R3 → R3 tal que f (S) = S 0 y f (T ) = T 0 . Determina


la expresión matricial de f en el sistema de referencia usual R0 de R3 .

51
Solución : Para responder correctamente a la pregunta, es importante conocer la posi-
ción relativa de S y T , y compararla con la de S 0 y T 0 .
Estudiemos si S y T son secantes. Los puntos de T se parametrizan

T = {(λ, λ, 1) : λ ∈ R},

de donde teniendo en cuenta que la ecuación implı́cita −x − y + z = 1 caracteriza las


coordenadas en R0 de los puntos de S,

S ∩ T = {(λ, λ, 1) : − λ − λ + 1 = 1} = {(0, 0, 1)}.

Esto prueba que S y T se cortan en el punto p0 = (0, 0, 1), de donde por la fórmula de
dimensiones dim S ∨ T = dim S + dim T = 3, esto es, S ∨ T = R3 .
Un cálculo análogo dice que

T 0 = {(λ, λ, −1) : λ ∈ R} y S 0 ∩ T 0 = {(λ, λ, −1) : λ + λ − 1 = −1} = {(0, 0, −1)},

por lo que S 0 y T 0 se cortan en el punto q0 = (0, 0, −1) y S 0 ∨ T 0 = R3 .


Dada una aplicación afı́n f : R3 → R3 , es claro que f será una afinidad satisfaciendo
f (T ) = T 0 , f (S) = S 0 si y sólo si se cumplen los siguientes requerimientos:
(a) f (S ∩ T ) = S 0 ∩ T 0 , esto es, f (p0 ) = q0 .

(b) f aplica un sistema de referencia de T en otro de T 0 . Por ejemplo, el sistema de


referencia {p0 , p1 = (1, 1, 1)} de T en un sistema de referencia {q0 = f (p0 ), q1 =
f (p1 )} de T 0 (esto es, f (p1 ) ha de ser un punto de T 0 distinto de q0 ).

(c) f aplica un sistema de referencia de S en otro de S 0 . Por ejemplo, el sistema de


referencia {p0 , p2 = (1, −1, 1), p3 = (−1, 0, 0)} de S en un sistema de referencia
{q0 = f (p0 ), q2 = f (p2 ), q3 = f (p3 )} de S 0 (esto es, f (p2 ), f (p3 ) han de ser puntos
de S 0 que, junto con q0 , formen un sistema afı́nmente independiente).
Lo que vamos a hacer para resolver el ejercicio es elegir puntos q1 ∈ T 0 , q2 , q3 ∈ S 0 tales
que {q0 , q1 } sea un sistema de referencia de T 0 y {q0 , q2 , q3 } sea un sistema de referencia
de S 0 , y construir por el Teorema Fundamental de la Geometrı́a afı́n la única aplicación
afı́n
f : R3 → R3 tal que f (pj ) = qj , j = 0, 1, 2, 3.
Nótese que en este contexto {p0 , p1 , p2 , p3 } y {q0 , q1 , q2 , q3 } son sistemas de referencia
de R3 . Hay muchas elecciones posibles de los puntos q1 , q2 , q3 , y por tanto, muchas
afinidades resolviendo el ejercicio. Nosotros vamos a elegir:

q1 = (1, 1, −1) ∈ T 0 , q2 = (1, −1, −1), q3 = (−1, 0, 0) ∈ S 0 .

La comprobación de que {q0 , q1 } y {q0 , q2 , q3 } son afı́nmente independientes (y por tanto


sistemas de referencia de T 0 y S 0 respectivamente) es rutinaria.
Resumiendo, sólo nos resta construir la única afinidad f : R3 → R3 que lleva el
sistema de referencia

R = {p0 = (0, 0, 1), p1 = (1, 1, 1), p2 = (1, −1, 1), p3 = (−1, 0, 0)} ≡

≡ {p0 = (0, 0, 1), B = {v1 = (1, 1, 0), v2 = (1, −1, 0), v3 = (−1, 0, −1)}}
en el sistema de puntos (también sistema de referencia en este caso)

{q0 = (0, 0, −1), q1 = (1, 1, −1), q2 = (1, −1, −1), q3 = (−1, 0, 0)}

52
Si llamamos

u1 = −
q−→ −−→ −−→
0 q1 = (1, 1, 0), u2 = q0 q2 = (1, −1, 0), u3 = q0 q3 = (−1, 0, 1),

una tal f tiene como aplicación lineal asociada f~ : R3 → R3 al único isomorfismo en R3


que aplica f~(vj ) = uj , j = 1, 2, 3, esto es, satisfaciendo
 
1 1 −1
M (f~, B, B0 ) =  1 −1 0 
0 0 1

donde B0 es la base canónica de R3 . Por tanto, la afinidad f viene representada en los


sistemas de referencia R y R0 (sistema de referencia canónico de R3 ) por la matriz
 
1 0 0 0
 0 1 1 −1 
M (f, R, R0 ) = 
 0 1 −1 0  .

−1 0 0 1

Como M (f, R0 ) ≡ M (f, R0 , R0 ) = M (f, R, R0 ) · M (IdR3 , R0 , R) y


 −1  
1 0 0 0 1 0 0 0
 0 1 1 −1   1 1 1 1 
M (IdR3 , R0 , R) = M (IdR3 , R, R0 )−1 =   =  21 21 2 1 − 21  ,
 0 1 −1 0   −2 −2 
2 2
1 0 0 −1 1 0 0 −1
queda
     
1 0 0 0 1 0 0 0 1 0 0 0
1 1 1 1 
 0 1 1 −1   2 2 2 − 2   0 1
   0 0 
M (f, R0 ) =  · = .
 0 1 −1 0   12 12 − 12 − 12   0 0 1 0 
−1 0 0 1 1 0 0 −1 0 0 0 −1

Ejercicio 2.88 Se considera la aplicación

f : P2 (R) → R3 , f (p(x)) = (p(0) + 1, p(1), p0 (1) − 1).

(a) Demuestra que f es afı́n y encuentra la matriz que la representa en los sistemas de
referencia canónicos R00 = {0, {1, x, x2 }} de P2 (R) y R0 de R3 .
(b) Comprueba que S = {p(x) ∈ P2 (R)) : p(0) + p(1) = 2} es un subespacio afı́n de
P2 (R) y determina sus ecuaciones implı́citas en R00 .
(c) Considera el sistema de referencia R = {(1, 0, 1), B = {(1, 1, −1), (1, −1, 0), (1, 1, 0)}}
de R3 y calcula las ecuaciones implı́citas de f (S) en R.

Solución : Es claro que f (p(x)) = (1, 0, −1) + h(p(x)), donde h es la aplicación lineal

h : P2 (R) → R3 , h(p(x)) = (p(0), p(1), p0 (1)).

De la Proposición 2.51 deducimos que f es afı́n con f~ = h y f (0) = (1, 0, −1). Por otra
parte, es claro que

f~(1) = (1, 1, 0), f~(x) = (0, 1, 1), f~(x2 ) = (0, 1, 2),

53
lo que unido a que f (0) = (1, 0, −1) nos dice que
 
1 0 0 0
1 1 0 0 
M (f, R00 , R0 ) = 


 0 1 1 1 
−1 0 1 2

concluyendo (a).
Para probar (b), basta con observar que 1 ∈ S y S = 1+U, donde U es el subespacio
vectorial de P2 (R) dado por

U = {p(x) : p(0) + p(1) = 0}.

Por tanto
~ = U = {a0 + a1 x + a2 x2 : 2a0 + a1 + a2 = 0},
S
y
S = U = {a0 + a1 x + a2 x2 : 2a0 + a1 + a2 = 2}.
siendo la segunda expresión las ecuaciones implı́citas de S en R00 . Esto resuelve (b).
Finalmente, para probar (c) recordemos que
~ = f (1) + f~(S)
f (S) = f (1 + S) ~ = (2, 1, −1) + f~(S).
~

Por otra parte, resolviendo el sistema 2a0 + a1 + a2 = 0 que se corresponde con las
~ deducimos que
ecuaciones implı́citas en R00 de S,
~ = L {x − x2 , 1 − 2x} .

S

Por tanto

f~(S)
~ = f~ L({x−x2 , 1−2x}) = L {f~(x−x2 ), f~(1−2x)} = L({(0, 0, −1), (1, −1, −2)}).
 

Las ecuaciones implı́citas de f (S) en R0 se deducen, por el procedimiento estándard,


imponiendo
   
x−2 0 1 x−2 0 1
rang  y − 1 0 −1  = 2 ⇐⇒ det  y − 1 0 −1  = −x − y + 3 = 0.
z + 1 −1 −2 z + 1 −1 −2

Para calcular las correspondientes ecuaciones implı́citas de f (S) en R hemos de realizar


el conveniente cambio de sistema de referencia, en concreto nos interesa el cambio de
R a R0 gobernado por la matriz
 
1 0 0 0
 1 1 1 1 
M (IdR3 , R, R0 ) = 
 0 1 −1 1  .

1 −1 0 0

Si p ∈ R3 y escribimos pR = (x0 , y 0 , z 0 ) y pR0 = (x, y, z), inferimos que


     
1 1 0 0 0 1
 x  1 1 1 1   0
  x
 = · ,
y   0 1 −1 1  y 0 
z 1 −1 0 0 z0

54
esto es,
x = 1 + x0 + y 0 + z 0 , y = x0 − y 0 + z 0 , z = 1 − x0 .
Como −x − y + 3 = 0 es la ecuación implı́cita de f (S) en R0 , sustituyendo

−(1 + x0 + y 0 + z 0 ) − (x0 − y 0 + z 0 ) + 3 = 2x0 − 2z 0 + 2 = 0

es la ecuación implı́cita de f (S) en R.

Ejercicio 2.89 Probar que la aplicación afı́n f : R2 → R2 definida por f (x, y) = (1 −


2x, 3 − 2y) es una homotecia. Calcular su centro y su razón.

Solución : Es claro que f (x, y) = (1, 3) + f0 (x, y), donde f0 es la aplicación lineal

f0 : R2 → R2 , f0 (x, y) = −2(x, y).

De la Proposición 2.51 deducimos que f es afı́n con f~ = f0 y f (0, 0) = (1, 3). Como
f~ = −2IdR2 , f es una homotecia de razón −2. Su único punto fijo o centro (a, b) satisface

f (a, b) = (a, b) ⇐⇒ (1 − 2a, 3 − 2b) = (a, b) ⇐⇒ (a, b) = (1/3, 1).

Po tanto f es la homotecia h(1/3,1),−2 .

Ejercicio 2.90 Calcular explı́citamente una homotecia en R3 de centro (a, b, c) y razón


r 6= 0, 1.

Solución : La homotecia buscada h : R3 → R3 satisface ~h = rIdR3 . Si escribimos


h(0, 0, 0) = (a0 , b0 , c0 ), la Proposición 2.51 nos dice entonces que

h : R3 → R3 , h(x, y, z) = (a0 , b0 , c0 ) + r(x, y, z).

Como h(a, b, c) = (a, b, c) inferimos que

(a0 , b0 , c0 ) + r(a, b, c) = (a, b, c) ⇐⇒ (a0 , b0 , c0 ) = (1 − r)(a, b, c).

Finalmente queda

h ≡ h(a,b,c),r : R3 → R3 , h(a,b,c),r (x, y, z) = (1 − r)(a, b, c) + r(x, y, z).

Ejercicio 2.91 Sea f : A → A un endomorfismo afı́n de un plano afı́n. Supongamos


que existen tres rectas afines S1 , S2 y S3 en A de las que no hay dos paralelas, y tales
que f (Si ) = Si para cada i = 1, 2, 3. Demostrar que f es la identidad o una homotecia
de razón r 6= 1.

Solución : Escribamos Sj = pj +L({vj }), j = 1, 2, 3. Como f (Sj ) = f (pj )+L({f~(vj )}) =


pj + L({vj }) = Sj , deducimos que f~(vj ) = rj vj , rj 6= 0, j = 1, 2, 3. Como las rectas no
son paralelas dos a dos, deducimos que:


{v1 , v2 } son linealmente independientes y por tanto una base de A .

v3 = λ1 v1 + λ2 v2 con λ1 , λ2 6= 0.

55
Por tanto

r3 (λ1 v1 + λ2 v2 ) = r3 v3 = f~(v3 ) = f~(λ1 v1 + λ2 v2 ) = λ1 f~(v1 ) + λ2 f~(v2 ) = λ1 r1 v1 + λ2 r2 v2 ,

de donde r3 λ1 = r1 λ1 , r3 λ2 = r2 λ2 , esto es r := r3 = r2 = r1 ∈ R \ {0}.


Si r 6= 1 deducimos que f~ = rId− → , y por tanto f es una homotecia de razón r (y
A
centro a ∈ S1 ∩ S2 ∩ S3 ).


Si r = 1 entonces f es una traslación τv , v ∈ A . Al ser τv (Sj ) = Sj = pj + L({vj })
inferimos que pj + v ∈ Sj , o equivalentemente v = µj vj , µj ∈ R, j = 1, 2, 3. Como
cada pareja de vectores {vi , vj } son linealmente independientes necesariamente µj = 0,
j = 1, 2, 3, y v = ~0. Esto prueba que f = IdA .

Ejercicio 2.92 Sea A un espacio afı́n. Demuestra los siguientes enunciados.


(a) La composición de una traslación y de una homotecia es una homotecia. Calcula el
centro y la razón de esta homotecia resultante.
(b) La composición de dos homotecias es una homotecia o una traslación. De ser una
homotecia calcula su razón y centro, y de ser una traslación el vector de traslación.
Como consecuencia, el conjunto unión de todas las homotecias y traslaciones es un
grupo con operación la composición de aplicaciones.

Solución : Para resolver (a), tomemos una traslación τ y una homotecia h en A. Recor-
~ −−→
demos que h = rId− → (r 6= 0, 1) y ~ → , y por tanto h ◦ τ = rId−
τ = Id− → . Por la Proposición
A A A
2.64, esto prueba que f := h ◦ τ es una homotecia de razón r. Recordemos que el centro
c de f se calcula por la fórmula
1 −−−→
c=q+ qf (q), q ∈ A punto arbitrario.
1−r
Si escribimos h = ha,r (a es el centro de h) y τ = τv (v es el vector de traslación de τ ),
y elegimos q = a + (−v), la fórmula anterior nos dice que
1 −−−−−−−−−−−−−−−−→  1 −−−−−−−−−−−−−−−−−−−→
c = (a+(−v))+ (a + (−v))f (a + (−v)) = a+(−v) + (a + (−v))h τ (a + (−v)) =
1−r 1−r
 1 −−−−−−−−−−→  1 −−−−−−−−→  1
= a+(−v) + (a + (−v))h(a) = a+(−v) + (a + (−v))a = a+(−v) + v,
1−r 1−r 1−r
y por tanto
r
c=a+ v.
1−r
Una discusión similar se puede llevar a cabo para la homotecia τ ◦ h.
Para resolver (b), tomemos dos homotecias h1 = ha1 ,r1 y h2 = ha2 ,r2 en A. Discuti-
remos dos casos, r := r1 r2 6= 1 y r := r1 r2 = 1.
−−−−→ →
− → −  
Si r 6= 1 entonces h2 ◦ h1 = h2 ◦ h1 = r2 Id− → ◦ r1 Id−
A
→ = rId−
A
→ , y por tanto la
A
Proposición 2.64 nos garantiza que h := h2 ◦ h1 es una homotecia de razón r. Para
calcular el centro c de h usamos la fórmula
1 −−−→
c=q+ qh(q), q ∈ A punto arbitrario.
1−r
Eligiendo q = a1 nos quedará
1 −−−−→ 1 −−−−−→ 1 −−−−−−−−− −→−→
c = a1 + a1 h(a1 ) = a1 + a1 h2 (a1 ) = a1 + a1 a2 + r2 −
a−
2 a1 =
1−r 1−r 1−r

56
1 −−→ 1 − r2 −−→
= a1 + ( a1 a2 + r 2 −
a−→
2 a1 ) = a1 + a1 a2 .
1−r 1 − r1 r2
Supongamos ahora que r = 1. En este caso razonando como antes τ := h2 ◦ h1
satisface ~τ = IdA , y por tanto la Proposición 2.62 nos dice que τ es una traslación en
A. El vector de traslación v de τ se calcula de la fórmula
−−−→
v = qτ (q), q ∈ A punto arbitrario.

Eligiendo q = a1 y razonando como arriba queda


−−−−→ −−−−−→ −−−−−−−−−− −−→
v = a1 τ (a1 ) = a1 h2 (a1 ) = a1 a2 + r2 −
a2→
a1 = (1 − r2 )−
a−→
1 a2 .

Ejercicio 2.93 En un espacio afı́n A se consideran (n + 1)-puntos {p0 , . . . , pn } ⊆ A y


fijemos O ∈ A. Se define el baricentro de estos puntos como
n
1 X −−→
b=O+ Opj .
n + 1 j=0

Probar que b no depende del punto O fijado. Probar además que si f : A → A0 es afı́n
entonces f (b) es el baricentro de {f (p0 ), . . . , f (pn )}.

Solución : Para probar que b no depende del punto O observemos que


n n n
1 X −−0→ −−→ 1 X −−0→ −−→ −−→ −−→ 1 X −−→
O0 + O pj = (O+OO0 )+ (O O+Opj ) = O+ OO0 +O0 O+ Opj ,
n + 1 j=0 n + 1 j=0 n + 1 j=0

de donde n n
0 1 X −−0→ 1 X −−→
O + O pj = O + Opj
n + 1 j=0 n + 1 j=0

como querı́amos demostrar.


Para la segunda parte del ejercicio, obsérvese que por ser f afı́n
n n n
1 X −−→ 1 X −−→ 1 X ~ −−→
f O+ Opj = f (O) + f~ Opj = f (O) + f (Opj ),
n + 1 j=0 n + 1 j=0 n + 1 j=0

esto es n n
1 X −−→ 1 X −−−−−−−→
f O+ Opj = f (O) + f (O)f (pj )),
n + 1 j=0 n + 1 j=0

y por tanto f lleva el baricentro de {p0 , . . . , pn } en el baricentro de {f (p0 ), . . . , f (pn )}.

Ejercicio 2.94 Un triángulo en un espacio afı́n A con dim A ≥ 2 son tres puntos
afı́nmente independientes, llamados vértices, y sus lados se definen como los segmentos
que determinan las parejas de vértices. Probar que los puntos medios de los lados de un
triángulo {a, b, c} en A forman un triángulo cuyos lados son paralelos a los de {a, b, c}
y cuyo baricentro es el mismo que el de {a, b, c}.

57
Solución : Los lados de {a, b, c} son por definición las rectas

h{a, b}i, h{a, c}i, h{b, c}i.

Por definición, los puntos medios de los lados de {a, b, c} son los de los segmentos [a, b],
[a, c] y [b, c], a saber
1 −→ − → 1 −→ − → 1 −
→ − →
mab = O + (Oa + Ob), mac = O + (Oa + Oc), mbc = O + (Ob + Oc), (3)
2 2 2
donde O ∈ A cualquier punto auxiliar. Por tanto

− −→ = 1 (−
→ − → 1 −→ − → → −
1 − → 1→−
m−ab−mac Oa + Oc) − (Oa + Ob) = (Oc − Ob) = bc y
2 2 2 2
− −→ = 1 (−
m−ab−m
→ − → 1 −→ − → 1 −→ −→
Ob + Oc) − (Oa + Ob) = (Oc − Oa) = →
1−
ac.
bc
2 2 2 2

− −
Como {a, b, c} son afı́nmente independientes los vectores { bc, →ac} son linealmente in-
dependientes, de donde {mab , mac , mbc } son afı́nmente independientes y determinan un
triángulo. Sus lados son las rectas,

h{mab , mac }i, h{mab , mbc }i, h{mac , mbc }i,

cuyos vectores de directores son respectivamente

− −→ = 1 →
m−ab−m
− −−−−→
bc, mab mbc =
1→−
ac, − −→ = 1 →
m−ac−m

ab,
ac bc
2 2 2
que efectivamente coinciden respectivamente con los de los lados

h{b, c}i, h{a, c}i, h{a, b}i,

por lo que se dan las relaciones de paralelismo

h{mab , mac }i k h{b, c}i, h{mab , mbc }i k h{a, c}i, h{mac , mbc }i k h{a, b}i.

Por último, teniendo en cuenta (3), el baricentro de {mab , mac , mbc } obedece a la fórmula
1 −−−→ −−−→ −−−→ 1 1 −→ − → 1 −→ − → 1 −
→ − →
O+ Omab + Omac + Ombc = O + (Oa + Ob) + (Oa + Oc) + (Ob + Oc) =
3 3 2 2 2
de donde
1 −−−→ −−−→ −−−→ 1 −→ − → − →
O+ Omab + Omac + Ombc = O + (Oa + Ob + Oc)
3 3
por lo que los baricentros de {mab , mac , mbc } y {a, b, c} coinciden.

Ejercicio 2.95 Sea {a, b, c} un triángulo en un espacio afı́n A con baricentro o. De-
mostrar que la homotecia h = ho,−1/2 lleva cada vértice de {a, b, c} en el punto medio
de su lado opuesto.

Solución :Veamos que h(c) = mab (análogamente se comprobarı́a que h(b) = mac y
h(a) = mbc ). Fijemos un punto O ∈ A y recordemos que
1 −→ − → − →
o = O + (Oa + Ob + Oc).
3

58
Por tanto
−−−−−−−−−−−−−−−−−−−→
1→− 1 −→ − → − → 1 1 −→ − → − → 
h(c) = o − oc = O + (Oa + Ob + Oc) − O + (Oa + Ob + Oc) c =
2 3 2 3
−−−−−−−−−−−−−−−−−−−→
1 −→ − → − → 1 1 −→ − → − → 
= O + (Oa + Ob + Oc) + c O + (Oa + Ob + Oc) =
3 2 3
1 −→ − → − → 1 − → 1 −→ − → − →
= O + (Oa + Ob + Oc) + cO + (Oa + Ob + Oc) =
3 2 3
1 −→ − → − →  1 −→ − → −
→
= O + Oa + Ob + Oc + Oa + Ob − 2Oc =
3 6
1 −→ − →
= O + (Oa + Ob) = mab
2
como querı́amos demostrar.

Ejercicio 2.96 Dado un espacio afı́n A, demostrar las siguientes afirmaciones:

(a) Una homotecia h 6= IdA queda determinada por la imagen de dos puntos.

(b) Las constantes, las traslaciones y las homotecias son las únicas aplicaciones afines
f : A → A tales que f (S) es paralelo a S, para todo subespacio afı́n S de A.

Solución : Sea h = ha,r la homotecia de centro a ∈ A y razón r 6= 0, 1. Consideremos


dos puntos distintos p0 , q0 ∈ A, y supongamos que conocemos los puntos p1 := h(p0 )
y q1 := h(q0 ). Veamos que podemos deducir quienes son a ∈ A y r ∈ R a partir de
p0 , p1 , q0 , q1 . En efecto, sabemos que p1 = a + r−→, y q = a + r −
ap 0 1
→, por lo que
aq 0


p−→ −−−−−− −−−−−−−−−
→ −→
→ −→ −→ −−→
1 q1 = (a + r ap0 )(a + r aq0 ) = r(aq0 − ap0 ) = r p0 q0

y los vectores −
p−→ −−→
1 q1 y p0 q0 son linealmente dependientes siendo la razón r el factor de
proporcionalidad

p−→
1 q1
r = −−→ .
p0 q0
Para determinar el centro a de h observemos que

p1 = a + r −→ = (p + −
ap 0 0 p→ −→ −→
0 a) + r ap0 = p0 + (1 − r)p0 a,

de donde

p−→ −−−−−−−−−−−− −−
→→ −→
0 p1 = p0 (p0 + (1 − r)p0 a) = (1 − r)p0 a.

De aquı́ que el centro a de h venga determinado por la expresión formal

1 −−→ −
p− →
0 q0
a = p0 + −
p→
0 a = p0 + p0 p1 = p0 + −−→ −−→ − p−→
0 p1 ,
1−r p0 q0 − p 1 q1

donde −
p−→ −−→ −−→
0 q0 /(p0 q0 − p1 q1 ) expresa el factor de proporcionalidad entre los vectores lineal-
mente dependientes − p− → −−→ −−→
0 q0 − p1 q1 y p0 q0 .

Ejercicio 2.97 Una cuaterna de puntos {a, b, c, d} se dice un cuadrilátero si no contie-


ne tres puntos alineados; si además sus lados opuestos h{a, b}i, h{d, c}i y h{a, d}i, h{b, c}i
son paralelos entonces la cuaterna se dice ser un paralelogramo. Probar que si {a, b, c, d}

− →
− → − −

es un paralelogramo entonces ab = dc y bc = ad.

59
Solución : Si {a, b, c, d} es un paralelogramo entonces

− →
− → − −

ab = λ dc, bc = µad,

donde λ, µ 6= 0 ya que los puntos son distintos dos a dos. Tenemos que

− →
− → − →
− −

ac = ab + bc = λ dc + µad.

→ → −
Como también →

ac = ad + dc, deducimos que

− −
→ − → → −
λ dc + µad = ad + dc.

→ → −
Al ser los vectores {ad, dc} son linealmente independientes, ya que {a, b, c, d} es un
cuadrilátero (los puntos {a, d, c} no están alineados), concluimos que λ = µ = 1 y de
aquı́ se sigue el ejercicio.

60
Ejercicios del Tema 1
1. Sea V un espacio vectorial real. Se considera la aplicación


: V × V → V, −
→ := 2u − v.
uv

Estudiar si Φ induce o no una estructura de espacio afı́n en V .

2. Sean a, b : R → R funciones continuas. Definimos los siguientes conjuntos:

V = {f ∈ C 1 (R) / f 0 (x) + a(x) f (x) = 0, ∀x ∈ R},


A = {f ∈ C 1 (R) / f 0 (x) + a(x) f (x) = b(x), ∀x ∈ R},

donde C 1 (R) es el espacio vectorial real de las funciones de clase C 1 sobre los
reales. Se pide lo siguiente:

a) Demostrar que V es un espacio vectorial real.


b) Supongamos sabido que A 6= ∅. Probar que A es un espacio afı́n sobre V


cuando, para cada par de funciones g, g ∈ A, definimos f g = g(x) − f (x).

3. (Producto de espacios afines). Sean A1 y A2 dos espacios afines sobre espacios


vectoriales reales V1 y V2 . Se pide lo siguiente:

a) Demostrar que el producto cartesiano A1 ×A2 es un espacio afı́n sobre V1 ×V2


cuando definimos: −−−−−−−−−−→
(p1 , p2 ) (q1 , q2 ) = (−
p−→ −−→
1 q1 , p2 q2 ).

b) Supongamos que dim A1 = m y dim A2 = n. Sea Ri = {oi ; Bi } un sistema de


referencia cartesiano en Ai para cada i = 1, 2. Pongamos B1 = {u1 , . . . , um }
y B2 = {v1 , . . . , vn }. Demostrar que el par R1 × R2 = {(o1 , o2 ); B1 × B2 },
donde:
B1 × B2 = {(u1 , 0), . . . , (um , 0), (0, v1 ), . . . , (0, vn )}
es un sistema de referencia cartesiano en A1 × A2 . A partir de aquı́ concluir
que dim (A1 × A2 ) = m + n.
c) Sea (p1 , p2 ) ∈ A1 × A2 . Cómo se relacionan las coordenadas de (p1 , p2 ) en
R1 × R2 con las coordenadas de p1 en R1 y de p2 en R2 ?

4. En R3 consideramos el conjunto R = {p0 , p1 , p2 , p3 } formado por los puntos:

p0 = (1, 2, 1), p1 = (2, 1, 0), p2 = (0, 1, 0), p3 = (1, −1, 2).

Demostrar que R es un sistema de referencia afı́n de R3 . Calcular las coordenadas


afines del punto p = (0, 0, 0) con respecto a R.

5. Consideremos el punto p = (1, −7, 4) de R3 . Encontrar un sistema de referen-


cia cartesiano R de R3 de forma que pR = (−1, −2, 2)t . ¿Cuántos sistemas de
referencia cartesianos en estas condiciones existen?

6. En R2 se consideran los sistemas de referencia cartesianos dados por R = {o; B =




{v1 , v2 }} y R0 = {o0 ; B 0 = {v1 + v2 , v1 − v2 }}. Supongamos que o0 o = v1 + v2 .

61
a) Escribir la ecuación matricial del cambio de sistema de referencia de R a R0 .
b) Calcular las coordenadas en R0 del punto p ∈ R2 tal que pR = (1, 1)t .

7. – En un plano afı́n A se considera el sistema de referencia afı́n R = {a, b, c} y los


puntos

− →
− − →
− −
a0 = a + 2 ab, b0 = a + ab − → ac, c0 = a − ab − → ac.
Probar que R0 = {a0 , b0 , c0 } es un sistema de referencia afı́n en A. Calcular las
coordenadas de un punto en R0 en función de las coordenadas en R.

8. Sea A un espacio afı́n y S ⊆ A un subespacio afı́n. Dado un punto p ∈ A,




demostrar que S = p + S si y sólo si p ∈ S. Además, si p ∈
/ S, probar que


S ∩ T = ∅, donde T = p + S .

9. Demostrar que toda recta afı́n de R3 es la intersección de dos planos afines. ¿Es
cierta esta afirmación en Rn ?

10. Sean L una recta afı́n y S un hiperplano afı́n de un espacio afı́n A. Supongamos

− ~ = A. Probar que L ∩ S es un único punto.
que L + S

11. En cada uno de estos casos decidir razonadamente si S es o no un subespacio afı́n


de A:

a) A = R5 , S = {(x, y, z, t, s) ∈ R5 / − y = 2x + z + 1}.
b) A = R3 , S = {(x, y, z) ∈ R3 / x2 + y 2 + z 2 = 0}.
c) A = R2 , S = {(x, y) ∈ R2 / x2 = y 2 }.
d ) A = R2 , S = {(0, 1), (1, 0)}.
2
e) A = R , S = h{(0, 1), (1, 0)}i.
f ) A = R3 , S = {(x, y, z) ∈ R3 / x2 + y 2 ≥ 0}.
g) A = R3 , S = {(x, y, z) ∈ R3 / x = y = z}.
h) A = Rn , S = Qn .
  
a−2 a
i ) A = M2 (R), S= /a∈R .
0 0
j ) V = R[x], S = {p(x) ∈ R[x] / grado(p(x)) = n} (n ∈ N).

Aclaración: en el apartado i) representamos por M2 (R) al espacio vectorial real


de las matrices cuadradas de orden 2 con coeficientes reales. En el apartado j)
usamos R[x] para denotar al espacio vectorial real de los polinomios en x con
coeficientes reales.

12. Es siempre la unión de dos subespacios afines un subespacio afı́n? Si la respuesta


es afirmativa, probarlo. Si es negativa, mostrar un contraejemplo.

13. Encontrar la recta del espacio afı́n R3 que pasa por p0 = (1, 1, 1) y se apoya en las
rectas R1 = (0, 0, 1) + L{(1, 0, 1)} y R2 = {(x, y, z) ∈ R3 : x + y = z − y + 1 = 0}.

14. Demostrar que todo subespacio afı́n S de Rn es cerrado para la topologı́a usual.
Demostrar ttambién que si S 6= Rn , entonces S tiene interior vacı́o.

62
15. ¿Para qué valores de t ∈ R los puntos p = (1, 0, −1), q = (−2, 0, 2) y r = (t, 0, 3) de
R3 están alineados? Para dichos valores, calcular una recta afı́n que los contenga.
Es la recta única? Pertenece el punto s = (−2, 2, 0) a dicha recta?

16. Calcular un sistema de referencia afı́n, unas ecuaciones paramétricas y unas ecua-
ciones implı́citas de:

a) La recta afı́n de R4 que pasa por los puntos p = (1, −1, 1, 2) y q = (0, 1, 0, −1),
b) El hiperplano afı́n de R4 que pasa por los puntos p = (1, 0, 0, 0), q =
(0, 1, 0, 0), r = (0, 0, 1, 0) y s = (0, 0, 0, 1),
c) Un plano afı́n de R3 que contenga a las rectas afines S = (1, 0, 2)+L((1, −1, 0))
y T = {(x, y, z) ∈ R3 / x + y − z = −1, y − z = 2},
d ) El hiperplano afı́n de R4 paralelo al de ecuación x − y + z − t = 7 y que pasa
por el punto p = (1, −2, 3, −2).

17. Calcular ecuaciones paramétricas e implı́citas de los subespacios afines de R4


generados por los puntos:

a) p0 = (1, 1, 0, 1), p1 = (1, −1, 1, 0).


b) p0 = (1, 1, 0, 1), p1 = (1, 0, 1, 0), p2 = (0, 1, 0, 1).

18. En cada uno de los siguientes casos calcula la intersección S ∩ T y la suma S ∨ T


de los subespacios afines S, T de R3 :

a) S = (1, 2, −1) + L({(1, 0, −2}), T = {(x, y, z) ∈ R3 : 2x + z − 1 = 4x + y +


2z − 4 = 0}.
b) S = (−1, 0, 1) + L({(1, 1, 1}), T = (1, 1, 1) + L({(−1, −1, −1}).
c) S = {(x, y, z) ∈ R3 : x + y + z = 1}, T = {(x, y, z) ∈ R3 : x + y + z − 2 =
y − z − 1 = 0}.

19. Probar que si S es una recta afı́n en un espacio afı́n A y p ∈ / S, entonces existe
un único plano afı́n T que pasa por p y contiene a S. Calcular unas ecuaciones
paramétricas y una ecuación implı́cita del plano afı́n en R3 que pasa por p =
(1, −2, 1) y contiene a la recta afı́n S = (1, 1, 1) + L((0, 1, 1)).

20. Se consideran los subespacios afines de R4 dados por:

S = {(x, y, z, t) ∈ R4 / x + y + z + t = 1, x − y = 1},
T = (1, 0, 1, 0) + L({(1, 1, −1, −1), (0, 0, 0, 1)}).

Obtener un sistema de referencia cartesiano de S ∩T y de S ∨T . Calcular también


unas ecuaciones implı́citas de S ∨ T si es posible.

21. Se consideran los subespacios afines S1 , S2 de R4 dados por

S1 = {(x2 , x2 , x3 , x4 ) ∈ R4 : x1 − x2 − x3 = x1 + x3 + x4 − 2 = 0}

S2 = (1, 0, λ, 0) + L({(0, 1, −1, 1), (1, 0, −1, 1)}).


Calcular S1 ∩ S2 y S1 ∨ S2 en función del parámetro λ.

63
22. Sea S el plano afı́n de R3 con ecuación implı́cita x + y + z = 2. ¿Qué ecuación
implı́cita satisfacen las coordenadas de los puntos de S con respecto al sistema de
referencia afı́n R = {(−1, 1, 2), (1, 0, 0), (0, 1, 0), (0, 0, 1)}?

23. Estudiar la intersección y la suma de dos rectas afines en un espacio afı́n.

24. Probar que en un plano afı́n dos rectas son, o bien iguales, o paralelas y distintas,
o se cortan en un único punto.

25. Se consideran las rectas Sa y Tb de R3 siguientes:

Sa = {(x, y, z) ∈ R3 / x − 2z = a, y + z = 3},
Tb = {(x, y, z) ∈ R3 / x + z = 1, y − 2z = b},

donde a y b son parámetros reales. Qué condiciones deben de cumplir a y b para


que Sa y Tb estén dentro de un mismo plano afı́n, es decir, sean coplanarias?
Calcular los valores de a y b para que el plano que contiene a Sa y Tb pase por
p = (1, 1, 1).

26. Sea S una recta afı́n y T un subespacio afı́n con dim T ≥ 2 en un espacio afı́n A.
Probar que se da una y sólo una de las siguientes posibilidades:

a) S ∩ T = ∅,
b) S ∩ T es un único punto,
c) S ⊆ T .

En particular, deducir que si T es un hiperplano afı́n, entonces a) implica que S


es paralela a T . Además, si dimA = 3 entonces S es paralela a T o S ∩ T es un
único punto.

27. Sean S y T dos hiperplanos afines en un espacio afı́n A de dimensión n ≥ 2.


Probar que se da una y sólo una de las siguientes posibilidades:

a) S ∩ T = ∅ y los hiperplanos afines son paralelos,


b) dim (S ∩ T ) = n − 2,
c) S = T .

28. Sea A un espacio afı́n con dim A ≥ 3. Decidir de forma razonada si las siguientes
afirmaciones son verdaderas o falsas:

a) Tres planos afines distintos no se cortan, o bien su intersección es un punto


o una recta afı́n.
b) Dos planos afines distintos son paralelos o su intersección contiene al menos
una recta afı́n.
c) Dos rectas afines S = p + L(u) y T = q + L(v) en A se cruzan si y sólo si los
vectores {u, v, →

pq} son linealmente independientes.

29. En cada uno de estos casos decidir de forma razonada si f es o no una aplicación
afı́n

64
a) f : R2 → R3 , f (x, y) = (x, y 3 , x + y).
b) f : R3 → R2 , f (x, y, z) = (x + y, x − z + 1).
c) f : R3 → R3 , f (x, y, z) = (x, y, z 5 − 1).
d ) f : M2 (R) → R, f (A) = traza(A) + 1.
e) f : R[x] → R, f (p(x)) = grado(p(x)).

30. (Producto de aplicaciones afines). Sean A1 , A2 , A01 y A02 espacios afines y fi :


Ai → A0i una aplicación afı́n para cada i = 1, 2. Demostrar que la aplicación
f1 × f2 : A1 × A2 → A01 × A02 dada por (f1 × f2 )(p1 , p2 ) = (f1 (p1 ), f2 (p2 )) es una
−−−−→
aplicación afı́n y f1 × f2 = f~1 × f~2 .

− →

31. Dadas f : A → A0 aplicación afı́n, q ∈ A y h : A → A 0 aplicación lineal, probar
que la aplicación
g : A → A0 , g(p) = f (p) + h(→−
qp)
es la única aplicación afı́n con g(q) = f (q) y ~g = h + f~.

32. Se considera la aplicación f : R3 → R2 dada por:

f (x, y, z) = (2x − y + 3z − 1, −x − y + z + 1).

a) Demostrar que f es una aplicación afı́n y calcular f~.


b) Estudiar si f es inyectiva, sobreyectiva o biyectiva.
c) Dadas las rectas afines S = (1, 1, 2)+L((2, 0, 1)) y T = (0, 1, 1)+L((1, 0, −1)),
calcular f (S) ∩ f (T ).
d ) Calcular f −1 ({(1, 1)}).

33. Consideremos en R3 los planos

S = {(x, y, z) ∈ R3 : − x − y + z = 1}, S 0 = {(x, y, z) ∈ R3 : x + y + z = −1}

y las rectas

T = (0, 0, 1) + L({(1, 1, 0)}), T 0 = (0, 0, −1) + L({(1, 1, 0)}).

Justifica que existe una afinidad f : R3 → R3 tal que f (S) = S 0 y f (T ) = T 0 .


Determina la expresión matricial de f en el sistema de referencia usual R0 de R3 .

34. Determinar la expresión matricial en el sistema de referencia usual de la aplicación


afı́n f : R3 → R3 que tiene como puntos fijos a los del plano afı́n x + y − z = −2,
y tal que f (0, 0, 0) = (1, 2, −1). ¿Es f un isomorfismo afı́n?

35. Consideremos el sistema de referencia afı́n en R2 dado por R = {(1, 1), (2, 1), (2, 2)}.
Sea f : R2 → R2 la única aplicación afı́n tal que:

f (1, 1) = (−1, 3), f (2, 1) = (−1, 4), f (2, 2) = (−3, 7).

a) Obtener la expresión matricial de f con respecto a R. Calcular f (4, 4).


b) Obtener la expresión matricial de f y f ◦ f con respecto a Ru .

65
c) Determinar el conjunto de puntos fijos de f .



36. Sea f : A → A un endomorfismo afı́n y S = p0 + S un subespacio afı́n. Se dice
que S es invariante por f si f (S) ⊆ S. Demostrar que S es invariante por f si y

− − −−−−−→ →
→ −
solo si f~( S ) ⊆ S y p0 f (p0 ) ∈ S .

37. Determinar el conjunto de puntos fijos de la aplicación afı́n f : R3 → R3 definida


por
f (x, y, z) = (x + 3y + 3/2, −2y − 3/2, −4x − 4y − z − 2).

38. Consideremos los subespacios afines de R3 dados por

S = {(x, y, z) ∈ R3 : x − y + z = 2}, T = (0, −1, 0) + L({(1, 1, 1)}).

Comprueba que S y T son suplementarios (o complementarios) afines. Calcula la


proyección y simetrı́a afines πS,T , σS,T sobre S en la dirección de T , dando sus ecua-
ciones matriciales respecto del sistema de referencia canónico R0 = {(0, 0, 0), B0 }
(B0 base canónica de R3 ) de R3 . Haz lo mismo para πT,S , σT,S .

39. Probar que la aplicación afı́n f : R2 → R2 definida por f (x, y) = (1 − 2x, 3 − 2y)
es una homotecia. Calcular su centro y su razón.

40. Calcular explı́citamente una homotecia en R3 de centro (a, b, c) y razón r 6= 0, 1.

41. Sea f : A → A un endomorfismo afı́n de un plano afı́n. Supongamos que existen


tres rectas afines S1 , S2 y S3 en A de las que no hay dos paralelas, y tales que
f (Si ) = Si para cada i = 1, 2, 3. Demostrar que f es la identidad o una homotecia
de razón λ 6= 1.

42. Demostrar las siguientes afirmaciones:

a) Una homotecia h 6= IA queda determinada por la imagen de dos puntos.


b) Si A es una recta afı́n y f : A → A es una aplicación afı́n entonces, o bien f
es constante, o es una traslación, o es una homotecia.
c) Las constantes, las traslaciones y las homotecias son los únicos endomorfis-
mos afines f : A → A tales que f (S) es paralelo a S, para todo subespacio
afı́n S de A.

43. Decidir de manera razonada si las siguientes afirmaciones son verdaderas o falsas.

a) La composición de una traslación t y de una homotecia h 6= IA es una


homotecia. En caso afirmativo, calcular el centro y la razón de la homotecia
resultante.
b) La composición de dos homotecias es una homotecia. De ser ası́, calcular
la razón de la homotecia resultante. Cuando ésta sea distinta de 1, calcular
también su centro.
c) Si f : A → A0 es una aplicación afı́n y p, q, r ∈ A son tres puntos alineados
(esto es, contenidos en una lı́nea recta), entonces f (p), f (q), f (r) son tres
puntos alineados de A0 .

66
d ) Si A es un espacio afı́n y dim(A) = n, entonces existe un isomorfismo afı́n
f : A → Rn .
0
e) Toda aplicación afı́n de Rn en Rn es diferenciable. Además, todo isomorfismo
afı́n de Rn en Rn es un difeomorfismo.
f ) Si una aplicación afı́n f : R3 → R3 tiene al menos 4 puntos fijos afı́nmente
independientes, entonces es la identidad.

44. En un espacio afı́n A se consideran (n + 1)-puntos {p0 , . . . , pn } ⊆ A y fijemos


O ∈ A. Se define el baricentro de estos puntos como
n
1 X −−→
b=O+ Opj .
n + 1 j=0

Probar que b no depende del punto O fijado. Probar además que si f : A → A0 es


afı́n entonces f (b) es el baricentro de {f (p0 ), . . . , f (pn )}.

45. Probar que los puntos medios de los lados de un triángulo {a, b, c} (tres puntos
afı́nmente independientes) en un espacio afı́n A forman un triángulo cuyos lados
son paralelos a los de {a, b, c} y cuyo baricentro es el mismo que el de {a, b, c}.

46. Sea {a, b, c} un triángulo. Probar que las paralelas a dos de los lados que pasan
por el baricentro dividen al tercer lado en tres segmentos de la misma longitud (Si
tres puntos p, q, r están alineados, diremos que los segmentos [p, q], [q, r] tienen la
misma longitud si → −
pq = ±→ −
qr).

47. Sea {a, b, c} un triángulo en un espacio afı́n A con baricentro o. Demostrar que la
homotecia h = ho,−1/2 lleva cada vértice de {a, b, c} en el punto medio de su lado
opuesto.

48. Dado un triángulo {a, b, c} y {a0 , b0 , c0 } = {mab , mac , mbc } el triángulo formado por
los puntos medios de sus lados, describir las siguientes aplicaciones afines:

a) hb0 ,2 ◦ ha,3/4 ◦ hc,2/3 .


b) ha0 ,−1 ◦ hb0 ,−1 ◦ hc0 ,−1 .
c) ha0 ,−1 ◦ hb0 ,−1 .

Como siempre ha,r denota la homotecia de centro a y razón r.

49. Una cuaterna de puntos {a, b, c, d} se dice un cuadrilátero si no contiene tres


puntos alineados; si además sus lados opuestos h{a, b}i, h{d, c}i y h{a, d}i, h{b, c}i
son paralelos entonces la cuaterna se dice ser un paralelogramo. Probar que si

− →
− → − −

{a, b, c, d} es un paralelogramo entonces ab = dc y bc = ad.

67
TEMA 2: Espacios afines euclı́deos
El impulso civilizador que supuso el helenismo, periodo iniciado por Alejandro
Magno en el siglo IV AC, tuvo entre otras muchas consecuencias la creación de im-
portantes centros de conocimiento en el área mediterránea, el más conocido de ellos
la cuidad de Alejandrı́a en el norte de Egipto. En este contexto histórico se inscriben
Los Elementos, uno de los escritos más influyentes de la Historia Occidental atribui-
do a Euclides de Alejandrı́a alrededor del año 300 A.C. La obra consiste de 13 tomos
en los que se describe de forma razonablemente rigurosa la geometrı́a de su época.
Euclides compiló con bastante acierto conceptos, definiciones, postulados, teoremas y
corolarios acerca de rectas, ángulos, triángulos, circunferencias y otras figuras planas
y del espacio. Durante muchos siglos se creyó que la Geometrı́a Euclı́dea era la única
posible, fracasándose en múltiples ocasiones en el intento de demostrar el V Postulado
de Euclides (por un punto exterior a una recta pasa una única paralela) a partir de los
otros cuatro postulados previos sobre los que se cimentaban los pilares lógicos de Los
Elementos. De hecho, la Geometrı́a Euclı́dea llegó a influir en los tratados de grandes
pensadores como Descartes o Kant. Finalmente, a principios del s. XIX y de forma
independiente, Karl Gauss, Nicolai Lobachevsky y Janos Bolyai crearon las Geometrı́as
Elı́ptica e Hiperbólica, en las que el V Postulado de Euclides no se sostiene (aunque sı́
el resto de la arquitectura lógica de la geometrı́a). Éste fue el nacimiento de las geo-
metrı́as no euclidianas, y en definitiva, el origen de la geometrı́a moderna. En este Tema
2 del curso nos vamos a dedicar a estudiar la Geometrı́a Euclı́dea desde un punto de
vista actual, más cartesiano, revisando algunas de las aportaciones más importantes a
lo largo de estos 23 siglos con un lenguaje mucho más estructurado desde la moder-
nidad matemática. Por ejemplo, Euclides desconocı́a el concepto de aplicación, y por
tanto le era imposible interpretar la primitiva idea de ((igualdad de figuras)) a través del
concepto de movimiento rı́gido.

3. EL ESPACIO AFÍN EUCLÍDEO


En esta sección presentaremos la formulación moderna del concepto de espacio afı́n
euclı́deo o espacio afı́n dotado de una métrica euclidiana en su variedad de dirección.

3.1. Repaso de espacios vectoriales métricos eucli-


dianos
Para un correcto tratamiento de lo que sigue, necesitamos recordar algunas nota-
ciones y conceptos básicos de la teorı́a de espacios vectoriales euclı́deos estudiadas en
cursos anteriores.
En lo que sigue V será un espacio vectorial real de dim V = n.
Si B denota la familia de todas las bases ordenadas de V , dos bases B, B 0 ∈ B se
dirá que tienen el mismo carácter de orientabilidad, y escribiremos B ∼ B 0 , si

det M (IdV , B, B 0 ) > 0.

La relación ∼ es de equivalencia en B y el cociente B/ ∼ tiene exactamente dos clases


de equivalencia. En efecto, si B = {v1 , . . . , vn } ∈ B y B 0 = {−v1 , v2 , . . . , vn }, es fácil
ver que B 6∼ B 0 y (B/ ∼) = {[B], [B 0 ]}.

68
Definición 3.1 Una orientación en V es una clase de equivalencia O ∈ B/ ∼. Un par
(V, O), donde O es una orientación en V , es un espacio vectorial orientado.
Una base ordenada B de V se dice positiva en un espacio vectorial orientado (V, O)
si [B] = O, y negativa si [B] 6= O.
Recordemos que un espacio vectorial euclı́deo es un par (V, h , i), donde V es un
espacio vectorial real y h , i es una métrica euclidiana en V , esto es. una aplicación
bilineal y simétrica
h , i: V × V → R
satisfaciendo
hv, vi ≥ 0 ∀v ∈ V y hv, vi = 0 ⇐⇒ v = ~0.
Denotaremos por p
k · k : V → V, kvk = + hv, vi.
su norma asociada a (V, h , i).
Propiedades 3.2 Sea (V, h , i) un espacio vectorial euclı́deo. Se satisfacen las siguien-
tes propiedades:
(a) kvk ≥ 0 ∀v ∈ V , y la igualdad se da si y solo si y v = ~0.

(b) kλvk = |λ|kvk ∀λ ∈ R, v ∈ V .

(c) Desigualdad de Cauchy-Schwarz: |hu, vi| ≤ kukkvk ∀u, v ∈ V , y la igualdad


se da si y solo si {u, v} son linealmente dependientes.

(d) Desigualdad triangular: ku + vk ≤ kuk + kvk ∀u, v ∈ V .


La ortogonalidad de vectores u, v en (V, h , i) se define

v⊥u ⇐⇒ hv, ui = 0.

Si U ⊆ V es un subespacio vectorial, su complemento ortogonal U ⊥ de U en (V, h , i)


viene dado por
U ⊥ = {v ∈ V : v⊥u ∀u ∈ U }.
De forma análoga, la ortogonalidad de subespacios vectoriales U, W ⊆ V se define

U ⊥W ⇐⇒ u⊥w ∀u ∈ U, ∀w ∈ W ⇐⇒ U ⊆ W ⊥ ⇐⇒ W ⊆ U ⊥ .

Propiedades 3.3 Dado (V, h , i) un espacio vectorial euclı́deo, son ciertas las satisfa-
cen propiedades:
(a) Si X ⊆ V es un subconjunto arbitario entonces X ⊥ = {v ∈ V : v⊥x ∀x ∈ X} es
un subespacio vectorial de V . Además L(X)⊥ = X ⊥ , donde como siempre L(X)
representa la intersección de todos los subespacios vectoriales de V que contienen a
X (menor subespacio vectorial de V conteniendo a X).

(b) U ⊆ W ⇐⇒ W ⊥ ⊆ U ⊥ para cualesquiera subespacios U, W ⊆ V .

(c) V = U ⊕ U ⊥ para todo subespacio U ⊆ V .

(d) (U ⊥ )⊥ = U para todo subespacio U ⊆ V .

(e) (U + W )⊥ = U ⊥ ∩ W ⊥ y (U ∩ W )⊥ = U ⊥ + W ⊥ para cualesquiera subespacios


U, W ⊆ V .

69
El hecho de que U y U ⊥ sean subespacios vectoriales suplementarios en (V, h , i) da
sentido a la siguiente definición.

Notación 3.4 La proyección ~πU,U ⊥ y la simetrı́a ~σU,U ⊥ sobre U en la dirección de U ⊥


en un espacio vectorial euclı́deo (V, h , i) se denotan

~πU⊥ ≡ ~πU,U ⊥ , ~σU⊥ ≡ ~σU,U ⊥ ,

y se denominan proyección y simetrı́a ortogonales sobre U en (V, h , i), respectivamente.

Las bases naturales para (V, h , i) son las ortonormales, esto es, las bases B = {e1 , . . . , en }
para las que la matriz de la métrica

M (h , i, B) := (hei , ej i)i,j=1...,n = In .

El grupo de matrices ortogonales de orden n

O(n, R) := {A ∈ GL(n, R) : A · At = In }

gobierna la geometrı́a de los espacios vectoriales euclidianos n-dimensionales. De hecho,


si B es una base ortonormal de (V, h , i) y B 0 es una base de V se tiene que

B 0 es ortonormal en (V, h , i) ⇐⇒ M (IV , B, B 0 ) ∈ O(n, R).

Definición 3.5 Sea (V, h , i, O) un plano euclı́deo orientado (dim V = 2), sea {u1 , u2 }
una dupla ordenada de vectores de V \{~0}, y sea B = {w1 , w2 } la única base ortonormal
positiva en (V, h , i, O) con w1 = ku11 k u1 . El ángulo orientado que forman u1 y u2 en
(V, h , i, O) es el único elemento α del grupo aditivo R/(2πZ) tal que

u2 = ku2 k cos(α)w1 + sen(α)w2 .

Usualmente se considera α ∈ R, entendiendo que como número real está determinado


salvo la suma de un múltiplo entero de 2π. También usaremos la notación

]o (u1 , u2 ) := α ∈ R/(2πZ).

Recordemos que R/(2πZ) como grupo aditivo es el cociente del grupo (R, +) por el
subgrupo 2πZ ≤ R. La existencia y unicidad del ángulo orientado está garantizada por
el hecho de que ku12 k u2 = xw1 + yw2 con x2 + y 2 = 1, y por tanto del análisis existe de
un único α ∈ R/(2πZ) con cos(α) = x, sen(α) = y.
Es inmediato que

u1 ⊥u2 ⇐⇒ cos ]o (u1 , u2 ) = 0 ⇐⇒ ]o (u1 , u2 ) = ±π/2 (mod 2π).

Propiedades 3.6 Los siguientes enunciados son ciertos:


(i) Si u1 , u2 , u3 ∈ V \{~0} entonces ]o (u1 , u2 )+]o (u2 , u3 ) = ]o (u1 , u3 ). En particular,
]o (u1 , u2 ) = −]o (u2 , u1 ) para todo u1 , u2 ∈ V \ {~0}.

(ii) Si B es una base ortonormal positiva de (V, h , i, O) y u1 , u2 ∈ V \ {~0}, entonces


 
det B (u1 , u2 ) := det (u1 )B , (u2 )B = ku1 kku2 ksen ]o (u1 , u2 ) ,

donde detB es el tensor alternado ϕ1 ∧ ϕ2 := ϕ1 ⊗ ϕ2 − ϕ2 ⊗ ϕ1 ∈ Λ2 (V ) generado


a partir de la base B ∗ = {ϕ1 , ϕ2 } dual de B en el espacio dual V ∗ de V .

70
Demostración : Escribamos α = ]o (u1 , u2 ) y β = ]o (u2 , u3 )
1
Si B = {w1 , w2 } es la única base ortonormal positiva en (V, h , i, O) con w1 = u,
ku1 k 1
sabemos que
1 
u2 = cos(α)w1 + sen(α)w2 .
ku2 k
Observemos que la base
1
B 0 = {w10 = u2 , w20 = −sen(α)w1 + cos(α)w2 }
ku2 k
satisface det M (IdV , B, B 0 ) = sen(α)2 + cos(α)2 = 1 > 0, y por tanto es también
ortonormal y positiva. Por tanto, por definición,
1
u3 = cos(β)w10 + sen(β)w20 ,

ku3 k
esto es
1  
u3 = cos(β) cos(α)w1 + sen(α)w2 + sen(β) − sen(α)w1 + cos(α)w2 =
ku3 k
  
= cos(β) cos(α) − sen(β)sen(α) w1 + cos(β)sen(α) + sen(β) cos(α) w2 ,
de donde
1 
u3 = cos(α + β)w1 + sen(α + β)w2
ku3 k
y ]o (u1 , u3 = α + β, lo que prueba (i).
Para demostrar (ii), observemos que
 
det B (u1 , u2 ) := det (u1 )B , (u2 )B = det B ku1 kw1 , ku2 k(cos(α)w1 + sen(α)w2 ) =
 
= ku1 kku2 k det B w1 , cos(α)w1 + sen(α)w2 = ku1 kku2 ksin(α) det B w1 , w2 ,
y como det B w1 , w2 = det M (IdV , B 0 , B) = 1 para B 0 = {w1 , w2 } (usar que M (IdV , B 0 , B) ∈
 

O2 (R) y ambas bases son positivas), finalmente queda det B (u1 , u2 ) = ku1 kku2 ksin(α).

La desigualdad de Cauchy-Schwarz |hu1 , u2 i| ≤ ku1 kku2 k y el análisis real garantizan


la existencia de un único número real β ∈ [0, π] tal que hu1 , u2 i = ku1 kku2 k cos(β) para
cualesquiera u1 , u2 ∈ V \ {~0}.
Definición 3.7 Dados dos vectores u1 , u2 ∈ V \ {~0} en un espacio vectorial euclidiano
(V, h , i), el ángulo no orientado que forman  es el único número real ](u1 , u2 ) ∈ [0, π]
tal que hu1 , u2 i = ku1 kku2 k cos ](u1 , u2 ) .
Dados u1 , u2 ∈ V \ {~0}, es trivial comprobar que:
](u1 , u2 ) = ](u2 , u1 ) y ](u1 , −u2 ) = π − ](u1 , u2 ).
u1 ⊥u2 ⇐⇒ ](u1 , u2 ) = π2 .
Si O es una orientación en (V, h , i) y ]o (u1 , u2 ) es la determinación en [0, 2π[ del
ángulo orientado que forman u1 y u2 , entonces
](u1 , u2 ) = mı́n{]o (u1 , u2 ), 2π − ]o (u1 , u2 )}.
  
En efecto, como u2 = ku2 k cos ]o (u1 , u2 ) w1 + sen ]o (u1 , u2 ) w2 para {w1 =
u1
ku1 k
, w2 } base ortonormal positiva de (V, O, h , i), es inmediato que hu1 , u2 i =
  
ku1 kku2 k cos ]o (u1 , u2 ) , de donde cos ]o (u1 , u2 ) = cos ](u1 , u2 ) . Como ](u1 , u2 ) ∈
[0, π], de aquı́ el resultado.

71
3.2. Espacios afines euclı́deos: distancia, ángulo y
perpendicularidad
Comencemos con la definición fundamental de este tema.

− → →
− →
Definición 3.8 Un espacio afı́n euclı́deo es una cuaterna (A, A , − , h , i) donde (A, A , − )


es un espacio afı́n y ( A , h , i) es un espacio vectorial euclı́deo. Si no hay lugar para la

− →
ambigüedad, es común relajar la notación y escribir (A, h , i) en vez de (A, A , − , h , i).

Por ejemplo, si (V, h , i) es un espacio vectorial euclı́deo, la cuaterna (V, , V, − →


, h , i) es


un espacio afı́n euclidiano, donde como siempre (V, , V, ) es el espacio afı́n natural
asociado al espacio vectorial V . Se dirá que (V, , V, − →
, h , i) es el espacio afı́n euclı́deo
natural o canónico asociado al espacio vectorial euclidiano (V, h , i). El ejemplo más
sencillo es el espacio afı́n euclı́deo usual (Rn , Rn , −

, h , i), donde h , i el producto escalar
clásico:
hx, yi = xt · y, x, y ∈ Rn (vectores columna).

Definición 3.9 La función distancia en un espacio afı́n euclı́deo (A, h , i) se define:

d : A × A → R, d(p, q) = k→

pqk,


donde k · k es la norma en ( A , h , i).

Como consecuencia de la axiomática de espacio afı́n y de las propiedades de la norma


k · k, es inmediato comprobar que (A, d) es un espacio métrico, esto es:

(i) d(p, q) ≥ 0 para todo p, q ∈ A, y se da la igualdad si y solo si p = q.

(ii) d(p, q) = d(q, p) para todo p, q ∈ A.

(iii) d(p, r) ≤ d(p, q) + d(q, r) para todo p, q, r ∈ A.

Definición 3.10 Dos subespacios afines S, T en un espacio afı́n euclı́deo (A, h , i) se


~ T~ en (→
dicen perpendiculares (u ortogonales) si S⊥

A , h , i). En ese caso se escribiremos
S⊥T .

Presentamos a continuación los sistemas de referencia naturales en los espacios afines


euclı́deos, llamados rectangulares. Precisemos la definición.

Definición 3.11 Un sistema de referencia R = {p0 , B} en un espacio afı́n euclı́deo


(A, h , i) se dice rectangular u ortonormal si la base de sus direcciones B es una base


ortonormal de ( A , h , i).

Como consecuencia de la definición, si R, R0 son sistemas de referencia en A y R es


rectangular, entonces

R0 es rectangular ⇐⇒ M (IdV , B, B 0 ) ∈ O(n, R) (n = dim A).

Por tanto, si R, R0 son sistemas de referencia rectangulares,


 
0 1 0
M (IdA , R, R ) = , A ∈ O(n, R).
b A

72
Definición 3.12 Si S, T son rectas secantes en un espacio afı́n euclı́deo (A, h , i) y
~ = L({u}), T~ = L({v}), el ángulo que forman S y T en (A, h , i) es el número
S

](S, T ) := mı́n{](u, v), ](u, −v)} = mı́n{](u, v), π − ](u, v)} ∈ [0, π/2],


donde los ángulos no orientados ](u, v), ](u, −v) ∈ [0, π] se calculan en ( A , h , i).

A tenor de la anterior definición, es evidente que


Proposición 3.13 Si S, R son dos rectas paralelas en (A, h , i) y T es secante a ambas
entonces ](S, T ) = ](R, T ).

Proposición 3.14 (Complemento ortogonal) Si S es un subespacio afı́n en (A, h , i)


y p ∈ A, entonces existe un único subespacio afı́n T que contiene a p, es suplemento de
S y es perpendicular a S:

p ∈ T, dim S + dim T = dim A, T ⊥S.

Demostración : Veamos que T = p + S ~ ⊥ resuelve la proposición. En efecto, claramente



− ~ S~ ⊥ . Solo resta comprobar la
p ∈ T , S⊥T , y dim S+dim T = dim A toda vez que A = S⊕
0
unicidad. Supongamos que T satisface también la tesis de la proposición. La condición
T 0 ⊥S implica T~ 0 ⊆ S
~ ⊥ , mientras que la identidad dim S +dim T 0 = dim A garantiza que
~ ⊥ toda vez que dim T~ 0 = dim T 0 = dim A − dim S = dim →
T~ 0 = S

A − dim S ~ = dim S
~ ⊥.
Como p ∈ T 0 concluimos que T 0 = p + S ~ = T.

Como hemos visto en su demostración, el subespacio T en la tesis de la proposición


anterior está caracterizado por las condiciones

p ∈ T, T~ = S
~ ⊥.

Se le suele denominar el complemento (o suplemento) ortogonal a S que pasa por p.


Definición 3.15 Sea S es un subespacio afı́n en (A, h , i) y T es un complemento
ortogonal de S. La proyección afı́n

πS⊥ : A → A, πS⊥ := πS,T ,

(que no depende de complemento ortogonal T utilizado) es conocida como la proyección


ortogonal sobre S en (A, h , i). Análogamente, la simetrı́a afı́n

σS⊥ : A → A, σS⊥ := σS,T ,

no depende de complemento ortogonal T utilizado, y es conocida como la simetrı́a or-


togonal sobre S en (A, h , i).
Tiene sentido hablar de distancia entre subespacios afines S, T en un espacio afı́n
euclı́deo (A, h , i) de acuerdo con la siguiente definición

d(S, T ) := ı́nf{d(p, q) : p ∈ S, q ∈ T }.

La siguiente proposición nos proporciona una interpretación geométrica de este con-


cepto, además de un mecanismo de cálculo directo. Entre otras cosas nos dirá que
d(S, T ) es de hecho un mı́nimo, y que éste se alcanza justo en puntos formando vectores
ortogonales a ambos subespacios.

73
Proposición 3.16 Sean S, T subespacios afines de un espacio afı́n euclı́deo (A, h , i).
Entonces

(i) Existen puntos p0 ∈ S, q0 ∈ T tales que −


p−→ ~⊥ ~ ⊥
0 q0 ∈ S ∩ T .

(ii) Si p0 ∈ S, q0 ∈ T son tales que −


p−→ ~ ⊥ ~ ⊥ entonces d(S, T ) = d(p , q ).
0 q0 ∈ S ∩ T 0 0

Además, los puntos p0 ∈ S y q0 ∈ T en las anteriores condiciones son únicos si y sólo


~ ∩ T~ = {~0}.
si S

~ T = q + T~ y usando que → − →
− ~ + T~ ) ⊕
Demostración : Escribiendo S = p + S, pq ∈ A = (S
~ + T~ )⊥ , podemos encontrar u ∈ S,
(S ~ w ∈ T~ y v ∈ (S
~ + T~ )⊥ tales que



pq = u + w + v.

Si elegimos p0 = p + u ∈ S y q0 = q − w ∈ T, un cálculo directo da



p−→ −−−−−−−−−−→ → − ~ ~ ⊥ ~⊥ ~ ⊥
0 q0 = (p + u)(q − w) = pq − w − u = λv ∈ (S + T ) = S ∩ T ,

probando (i).
Para probar (ii), supongamos que p0 ∈ S, q0 ∈ T son tales que −
p−→ ~⊥ ~ ⊥
0 q0 ∈ S ∩ T . Si
tomamos p ∈ S y q ∈ T arbitrarios,

d(p, q)2 = k→

pqk2 = k−→+−
pp 0 p−→ −→ 2 −→ −−→ −→ −→ −−→ −→
0 q0 + q0 qk = hpp0 + p0 q0 + q0 q, pp0 + p0 q0 + q0 qi =

k−→+−
pp → 2 −−→ 2 −→ −→ −−→ −→ −→ 2 −−→ 2 −−→ 2 2
0 q0 qk +kp0 q0 k +2hpp0 + q0 q, p0 q0 i = kpp0 + q0 qk +kp0 q0 k ≥ kp0 q0 k = d(p0 , q0 ) ,

donde hemos usado que − p−→


q ⊥(−
0 0 pp→+−
0 q→q) ya que −
0 pp→+−
0q→q ∈ S
0
~ + T~ . Esto prueba que
d(p, q) ≥ d(p0 , q0 ) para todo p ∈ S, q ∈ T , y por tanto

d(S, T ) := ı́nf{d(p, q) : p ∈ S, q ∈ T } = mı́n{d(p, q) : p ∈ S, q ∈ T } = d(p0 , q0 ).

En cuanto al apéndice sobre la unicidad de los puntos p0 ∈ S, q0 ∈ T que realizan la


distancia, supongamos que S~ ∩ T~ = {~0}. En estas condiciones

− ~ ⊕ T~ ) ⊕ (S
~ ⊕ T~ )⊥ ,
A = (S

~ T = q + T~ , los vectores u ∈ S,
y por tanto, si como arriba ponemos S = p + S, ~ w ∈ T~
~ ⊕ T~ )⊥ tales que
y v ∈ (S


pq = u + w + v
son únicos. En consecuencia las expresiones p0 = p + u ∈ S, q0 = q − w ∈ T determinan
los únicos puntos p0 ∈ S y q0 ∈ T para los que −
p−→ ~ ~ ⊥
0 q0 ∈ (S + T ) , resolviendo el problema.

Corolario 3.17 Si S, T son subespacios afines de (A, h , i),

d(S, T ) = 0 ⇐⇒ S ∩ T 6= ∅.

Corolario 3.18 Si S es un subespacio afı́n de (A, h , i) y p ∈ A, entonces

d(p, S) = d(p, πS⊥ (p) .




74
En particular, si S es un hiperplano afı́n, R = {p0 , B = {e1 , . . . , en }} es un sistema de
referencia rectangular de A, pR = (y1 , . . . , yn )t son las coordenadas de un punto p ∈ A
en R, y
Xn
aj x j + a0 = 0
j=1

es la una ecuación implı́cita de S en R, entonces


Pn
j=1 aj yj + a0
d(p, S) = q Pn .
2
j=1 ja

Demostración : Sea Tp el único subespacio afı́n de A con p ∈ Tp y T~p = S ~ ⊥ , esto


es, Tp = p + S~ ⊥ (el suplemento ortogonal de S pasando por p). Recordemos que por
definición
πS⊥ (p) = Tp ∩ S.
−−−−→
~⊥ ∩ −
Como πS⊥ (p) ∈ S y pπS⊥ (p) ∈ S

{p}⊥ = S ~⊥ ∩ →
~ ⊥ ∩ {~0}⊥ = S − ~ ⊥ , de la Proposición
A =S
3.16 aplicada a los subespacios afines S y {p} deducimos que

d(p, S) = d p, πS⊥ (p) .




Para probar la segunda parte del corolario notemos que, dados R sistema de referencia
ortogonal y S hiperplano en las condiciones del enunciado,
n
X n
X n
X
aj x j = h aj ej , xj ej i = 0
j=1 j=1 j=1

~ en la base ortonormal B = {e1 , . . . , en } de (→


es una ecuación implı́cita de S

A , h , i) de
las direcciones de R, de donde
n
X
~ ⊥ = L({
S aj ej }).
j=1

−−−−→ −−−−→
Fijemos q ∈ S un punto arbitrario. La expresión →

qp = qπS⊥ (p) + πS⊥ (p)p, donde
−−− −→ −− −−→
~
qπS⊥ (p) ∈ S y ~ ⊥,
πS⊥ (p)p ∈ S


describe la descomposición del vector →
− ~ ⊕S
qp de acuerdo a la suma directa A = S ~ ⊥.
Llamando n
1 X
ν = qP aj ej
n 2
a
j=1 j j=1
−−−−→
~ ⊥ = L({ν}) y kνk = 1, inferimos que
y teniendo en cuenta que πS⊥ (p)p ∈ S
−−−−→ −−−−→
kpπS⊥ (p)k = |hπS⊥ (p)p, νi| = |h→

qp, νi|.

Escribiendo qR = (z1 , . . . , zn )t las coordenadas de q en R, deducimos que


n n n
1
h→

qp, νi = h−→+−p→
X X X
qp0 0 p, νi = qP h yj ej − zj ej , aj e j i =
n
j=1 a2j j=1 j=1 j=1

75
n n n
1 X X  1 X 
= qP yj aj − zj aj = qP y j aj + a0 ,
n n
j=1 a2j j=1 j=1 j=1 a2j j=1



donde hemos usado que B es una base ortonormal de ( A , h , i) y que a0 = − nj=1 zj aj
P
al ser q ∈ S. Por tanto,
n
−−−−→ 1
= kpπS⊥ (p)k = |h→

X
p, πS⊥ (p)

d(p, S) = d qp, νi| = qP y j aj + a0
n 2
j=1 aj j=1

como querı́amos demostrar.

Corolario 3.19 (Perpendicular común a dos rectas) Si S, T son rectas afines dis-
tintas en un espacio afı́n euclı́deo (A, h , i), entonces existe una recta R en A secante y
perpendicular a S y a T .
Además R es única si se da cualquiera de estas condiciones:

(a) S, T se cruzan.

(b) dim A = 3 y S, T son secantes.

(c) dim A = 2, S, T son paralelas y R contiene a un punto p ∈ A prefijado.

Demostración : Sean p0 ∈ S y q0 ∈ T tales que − p−→ ~ ~ ⊥


0 q0 ∈ (S + T ) (y por tanto d(S, T ) =
d(p0 , q0 )); ver Proposición 3.16. Si p0 6= q0 (S, T no secantes) entonces R = p0 + L{− p− →
0 q0 )
resuelve el problema. Si p0 = q0 (S, T secantes) entonces elegimos R = p0 + (S ~ + T~ )⊥ .
Para la unicidad, supongamos primero que S, T se cruzan, y por tanto dim(S ~ + T~ ) =
2. En este caso basta con observar que, por la Proposición 3.16 (démonos cuenta de que
~ ∩ T~ = {~0}), los puntos p0 ∈ S y q0 ∈ T tales que −
S p− → ~ ~ ⊥ ~ ⊥ ~ ⊥ son
0 q0 ∈ ( S + T ) = S ∩ T
distintos y únicos, y por tanto han de estar en cualquier recta que se apoye en S, T y sea
perpendicular a ambas. Esto implica que p0 , q0 ∈ R, quedando la recta unı́vocamente
determinada. Esto prueba (a).
Para demostrar (b), obsérvemos que dim(S ~ + T~ ) = 2 y dim(S ~ + T~ )⊥ = 1. Si p0 =
S ∩ T , como necesariamente p0 ∈ R y R ~ = (S~ + T~ )⊥ deducimos que R = p0 + (S ~ + T~ )⊥
está unı́vocamente determinada.
Razonamientos similares prueba que R = p + S ~ = p + T~ es la solución única en (c).

Ejercicio 3.20 En el espacio afı́n euclideo clásico (R4 , h , i) calcula d(S, T ), donde S, T
son los subespacios afı́nes

S = (1, 0, 0, 0) + L({(0, 0, 1, −1)}), T = {(x, y, z, t) ∈ R4 : x + y + z = y − t = 1}.

Solución : Resolviendo el sistema que nos proporcionan las ecuaciones implı́citas de T


tenemos que

T = (0, 1, 0, 0) + L({(−1, 1, 0, 1), (1, 0, −1, 0)} = {(−λ + µ, 1 + λ, −µ, λ) : λ, µ ∈ R}.

Análogamente

S = (1, 0, 0, 0) + L({(0, 0, 1, −1)}) = {(1, 0, δ, −δ) : δ ∈ R}.

76
Tomemos
p0 = (1, 0, δ, −δ) ∈ S, q0 = (−λ + µ, 1 + λ, −µ, λ) ∈ T
genéricos e impongamos
− →
− ⊥ ~⊥
p−→
0 q0 = (−λ + µ − 1, 1 + λ, −µ − δ, λ + δ) ∈ S ∩T .

Es claro que T~ = {(x, y, z, t) ∈ R4 : x + y + z = y − t = 0}, esto es

T~ = {(x, y, z, t) ∈ R4 : h(x, y, z, t), (1, 1, 1, 0)i = h(x, y, z, t), (0, 1, 0, −1)i = 0}.

Por tanto T~ = L({(1, 1, 1, 0), (0, 1, 0, −1)})⊥ , de donde


⊥
T~ ⊥ = L({(1, 1, 1, 0), (0, 1, 0, −1)})⊥ = L({(1, 1, 1, 0), (0, 1, 0, −1)})

y podemos escribir

T~ ⊥ = {(λ1 , λ1 + λ2 , λ1 , −λ2 ) : λ1 , λ2 ∈ R}.

Análogamente
~ ⊥ = {(x, y, z, t) ∈ R4 : h(x, y, z, t), (0, 0, 1, −1)i = 0} = {(x, y, z, t) ∈ R4 : z − t = 0}.
S

De aquı́ que

− ⊥ ~⊥
S ∩ T = {(λ1 , λ1 + λ2 , λ1 , −λ2 ) ∈ R4 : λ1 + λ2 = 0} = {(λ1 , 0, λ1 , λ1 ) : λ1 ∈ R},

o en otras palabras

− ⊥ ~⊥
S ∩ T = L({(1, 0, 1, 1)}) = {(x, y, z, t) ∈ R4 : y = z − x = t − x = 0}.

Finalmente la condición
− →
− ⊥ ~⊥
p−→
0 q0 = (−λ + µ − 1, 1 + λ, −µ − δ, λ + δ) ∈ S ∩T

equivale a que
1 + λ = −2µ − δ + λ + 1 = 2λ + δ − µ + 1 = 0,
esto es λ = −1, µ = −1/3, δ = 2/3.
Esto lleva a

p0 = (1, 0, 2/3, −2/3), q0 = (2/3, , 0, 1/3, −1), −


p−→
0 q0 = (−1/3, 0, −1/3, −1/3).

y dist(S, T ) = k−
p−→ p
0 q0 k = (−1/3)2 + 02 + (−1/3)2 + (−1/3)2 = 3/3.

3.3. Repaso de isometrı́as lineales en espacios vec-


toriales euclidianos
Recordemos algunos resultados básicos sobre espacios vectoriales euclı́deos estudia-
dos en cursos anteriores. Como siempre trabajaremos con espacios vectoriales reales de
dimensión finita.
Sean (V, h , i), (V,0 h , i0 ) espacios vectoriales euclı́deos. Una aplicación

h : (V, h , i) → (V 0 , h , i0 )

77
es una isometrı́a lineal o vectorial si es un isomorfismo lineal y satisface

hh(v), h(u)i0 = hv, ui ∀v, u ∈ V.

Si dim V = dim V 0 = n, el grupo ortogonal O(n, R) gobierna de nuevo este tipo de


transformaciones, en el sentido de que si B, B 0 son bases ortonormales de (V, h , i),
(V 0 , h , i0 ) entonces:

h : (V, h , i) → (V 0 , h , i0 ) es isometrı́a vectorial ⇐⇒ M (h, B, B 0 ) ∈ O(n, R).

Las isometrı́as dejan invariante la norma de vectores, esto es,

kh(v)k0 = kvk ∀v ∈ V.

Como consecuencia, también preservan ángulos no orientados

0
 hh(u), h(v)i0  hu, vi  
] h(v), h(u) = arc cos = arc cos = ] v, u .
kh(u)k0 kh(v)k0 kukkvk

Igual ocurre con los orientados si h preserva las orientaciones fijadas O en V y O0 e V 0 .


En particular, respetan la ortogonalidad

u⊥v ⇐⇒ h(u)⊥h(v) ∀u, v ∈ V.

Por tanto h(U ⊥ ) = h(U )⊥ para todo subespacio U ⊆ V .


Centremos nuestro interés en los endomorfismos isométricos h : (V, h , i) → (V, h , i).
La siguiente proposición no da información sobre la estructura básica de estas iso-
metrı́as.

Proposición 3.21 Sea h : V → V una isometrı́a vectorial en un espacio vectorial


eucllı́deo (V, h , i) de dim V = n. Los siguientes enunciados son ciertos:

(i) det(h) = ±1.

(ii) Los únicos posibles valores propios de h son 1 y −1.

(iii) Si V1 = Ker(h − IdV ) y V−1 = Ker(h + IdV ) entonces V1 ⊥V−1 , y por tanto

V1 + V−1 = V1 ⊕ V−1 .

(iv) Escribiendo V = (V1 ⊕ V−1 ) ⊕ (V1 ⊕ V−1 )⊥ , se tiene que

h(V1 ⊕ V−1 ) = V1 ⊕ V−1 , h (V1 ⊕ V−1 )⊥ = (V1 ⊕ V−1 )⊥ .




(v) dim(V1 + V−1 )⊥ es par y det(h) = (−1)dim V−1 .

Demostración : Si A ∈ O(n, R) es una matriz ortogonal entonces 1 = det(In ) = det(A ·


t 2
A ) = det(A) , y por tanto det(A) = ±1. Como M (h, B) ≡ M (h, B, B) ∈ O(n, R)  para
cualquier base B ortonormal de (V, h , i), se sigue que det(h) = det M (h, B) = ±1
probando (i).
Si λ es un valor propio de h y v ∈ V \ {~0} un vector propio asociado, esto es, tal que
h(v) = λv, entonces λ2 kvk2 = kh(v)k2 = kvk2 . Como kvk2 6= 0 deducimos que λ2 = 1,
probando (ii).

78
Si v ∈ V1 y u ∈ V−1 entonces
hv, ui = hh(v), h(u)i = hv, −ui = −hv, ui,
esto es hv, ui = 0 y v⊥u, lo que prueba (iii).
Es claro que h(V1 + V−1 ) = h(V1 ) + h(V−1 ) = V1 + V−1 , y por tanto
⊥
h (V1 + V−1 )⊥ = h(V1 + V−1 ) = (V1 + V−1 )⊥ ,


de donde se sigue (iv).


Finalmente, como V = (V1 ⊕V−1 )⊕(V1 ⊕V−1 )⊥ y h deja invariantes los tres sumandos
de esa suma directa, es claro que
det(h) = det h|V1 det h|V−1 det h|(V1 +V−1 )⊥ = (−1)dim V−1 det h|(V1 +V−1 )⊥ ,
   

donde entendemos h|V±1 : V±1 → V±1 y h|(V1 +V−1 )⊥ : (V1 + V−1 )⊥ → (V1 + V−1 )⊥ . Para
acabar basta con ver que dim(V1 + V−1 )⊥ es par y det h|(V1 +V−1 )⊥ = 1. La isometrı́a
lineal h|(V1 +V−1 )⊥ no tiene valores propios (los únicos valores propios posibles de h son
1 y −1 y (V1 + V−1 )⊥ ∩ V±1 = ∅), y por tanto su polinomio caracterı́stico

p(t) = det h|(V1 +V−1 )⊥ − tId(V1 +V−1 )⊥
no tiene raı́ces reales. El Teorema de Bolzano fuerza a que p(t) sea un polinomio de grado
k = dim(V1 + V−1 )⊥ par, y como su término lı́der es tk , a que su término independiente 
det h|(V1 +V−1 )⊥ sea positivo. Por (i), al ser h|(V1 +V−1 )⊥ una isometrı́a det h|(V1 +V−1 )⊥ =
±1, de donde det h|(V1 +V−1 )⊥ = 1 probando (v).
Definición 3.22 Sea h : V → V una isometrı́a lineal en un espacio vectorial euclidiano
(V, h, i).
h se dirá directa o positiva si det(h) = 1.
h se dirá inversa o negativa si det(h) = −1.
Cerraremos este repaso de las propiedades básicas de las isometrı́as lineales con la
siguiente proposición.
Proposición 3.23 Si h : (V, h , i) → (V, h , i) es una isometrı́a lineal entonces
Ker(h − IdV ) = Im(h − IdV )⊥ .
Demostración : Si v ∈ Ker(h − IdV ) y u ∈ Im(h − IdV ) entonces
h(v) = v y u = h(w) − w para algún w ∈ V .
Por tanto, usando que h es una isometrı́a vectorial,
hv, ui = hv, h(w) − wi = hv, h(w)i − hv, wi = hh(v), h(w)i − hv, wi = 0,
lo que demuestra que Ker(h−IdV ) ⊆ Im(h−IdV )⊥ . Si probamos que dim Ker(h−IdV ) =
dim Im(h − IdV )⊥ serı́an iguales y acabarı́amos la proposición.
En efecto, como h − IdV es un endomorfismo del primer teorema de isomorfı́a en el
álgebra lineal deducimos que
dim Ker(h − IdV ) + dim Im(h − IdV ) = dim V,
y como V = Im(h − IdV ) ⊕ Im(h − IdV )⊥ también
dim Im(h − IdV ) + dim Im(h − IdV )⊥ = dim V.
Por tanto dim Ker(h − IdV ) = dim V − dim Im(h − IdV ) = dim Im(h − IdV )⊥ , lo que
concluye la prueba.
Un parte relevante de la teorı́a de isometrı́as vectoriales en un espacio vectorial euclı́deo
es su clasificación. Repasemos brevemente la misma en los casos de dimensiones 2 y 3.

79
3.3.1. Isometrı́as lineales en un plano vectorial euclı́deo
En lo que sigue (V, h, i) será un espacio vectorial euclidiano de dimensión 2.

Proposición 3.24 Si h : V → V es una isometrı́a lineal positiva y B = {v1 , v2 } una


base ortonormal en el plano (V, h, i), entonces existe un único θ ∈ [0, 2π[ tal que
 
cos(θ) −sen(θ)
M (h, B) = .
sen(θ) cos(θ)

En este caso diremos que h es el giro vectorial de ángulo orientado θ ∈ [0, 2π[ respecto
de la orientación O inducida por B en V , y se escribe h = Gθ .

Demostración : En efecto, si escribimos


2
X
h(vj ) = aij vi , j = 1, 2,
i=1

al ser  
a11 a12
M (h, B) = ∈ O(2, R)
a21 a22
deducimos que

k(a11 , a21 )k = k(a12 , a22 )k = 1, h(a11 , a21 ), (a11 , a21 )i = 0, a11 a22 − a12 a21 = 1,

donde k · k y h , i son la norma y producto escalar clásicos en R2 .


Como k(a11 , a21 )k = 1, por las propiedades de las funciones trigonométricas existe
un único θ ∈]0, 2π[ tal que a11 = cos θ, a21 = senθ. Despejando arriba deducimos que
a12 = −senθ, a22 = cos θ como habı́amos afirmado.

Observemos que la aplicación identidad IdV es el giro de ángulo 0 (respecto de


cualquier orientación fijada en V ). Con el lenguaje de la anterior proposición:

]o v, Gθ (v) = θ respecto de O para todo vector v ∈ V \ {~0}.




Ker(h − IdV ) = {~0} para todo giro vectorial (isometrı́a positiva) h 6= IdV en
(V, h, i).

El ángulo orientado θ de un giro vectorial h respecto a una orientación en V


cambia a su conjugado 2π − θ si se revierte la misma.

Como ángulos conjugados tienen el mismo coseno, tiene sentido definir el ángulo
no orientado de un giro vectorial h (isometrı́a positiva) en (V, h, i) como el único
α ∈]0, π] tal que
Traza(h) = 2 cos(α).
Es claro que α = mı́n{θ, 2π −θ}, donde θ es el ángulo orientado del giro h respecto
de cualquiera orientación O en V , y por tanto α está bien definido al margen del
concepto de orientación en V .

El elemento geométrico que determina un giro vectorial es su ángulo en cualquiera de


sus acepciones.

80
Proposición 3.25 Si h : V → V es una isometrı́a lineal negativa en el plano (V, h, i)
entonces existe una base ortonormal B de (V, h , i) en la que
 
1 0
M (h, B) = ,
0 −1

y por tanto h = ~σU⊥ para U = V1 = Ker(h − IdV ).

Demostración : Recordemos que el polinomio caracterı́stico de h es de la forma

ph (t) := det M (h, B) − tI2 = t2 − Traza(h)t + det(h)




para cualquier base B de V , donde


 
Traza(h) = Traza M (h, B) y det(h) = det M (h, B)

no dependen de la base B. Al ser el término independiente del polinomio ph (t) igual a


det(h) = −1 < 0, inferimos que ph (t) ha de descomponer en los reales. Como además
det(h) el el producto de las raı́ces de ph (t) (valores propios de h) y h es una isometrı́a,
esas raı́ces han de ser justamente 1 y −1. Por tanto h diagonaliza con valores propios
1 y −1, ambos de multiplicidad 1. Elegidos vectores propios unitarios (de norma 1) v1
y v2 para los valores propios 1 y −1, respectivamente, y formando la base ortonormal
B = {v1 , v2 }, se tiene que  
1 0
M (h, B) =
0 −1
y h es la simetrı́a ortogonal ~σU⊥ respecto de la recta vectorial U := V1 = Ker(h − IdV )
(ver Notación 3.4). Esto concluye la prueba.

El elemento geométrico que determina una simetrı́a ortogonal es la recta vectorial res-
pecto de la cual se simetriza.

3.3.2. Estructura general de las isometrı́as lineales


Vamos a estudiar la estructura básica de las isometrı́as en un espacio vectorial
métrico euclı́deo de dimensión arbitraria. Para ello será fundamental la Proposición
3.21 y el siguiente lema.

Lema 3.26 Sean (V, h , i) (dim V ≥ 2) un espacio vectorial métrico euclı́deo y sea
f : V → V una isometrı́a sin valores propios reales. Entonces existe U ≤ V plano
vectorial tal que f (U ) = U . En particular, f |U : U → U es una isometrı́a positiva (giro
vectorial) de ángulo θ ∈]0, 2π[\{π} en (U, h , i|U ×U ).

Demostración : Como los únicos valores propios de una isometrı́a son 1, −1, nuestra
hipótesis es equivalente a que

V1 = Ker(f − IdV ) = {~0}, V−1 = Ker(f + IdV ) = {~0}.

Fijemos B base ortonormal en (V, h , i) y llamemos A = M (f, B) ∈ O(n), donde n =


dim V . Llamemos p(t) = det(f − tIdV ) al polinomio caracterı́stico de f , del que por
nuestras hipótesis sabemos que no tiene raices reales. Por el Teorema Fundamental del
Álgebra sabemos que existe a ∈ C raı́z compleja de p(t), a 6= ā, y como p(t) tiene
coeficientes reales ā ∈ C es también raı́z compleja de p(t). Por tanto existe z ∈ Cn

81
tal que A · z = a · z (notación columna), y también A · z̄ = ā · z̄. Llamemos u0 =
2<(z), v0 = 2=(z) ∈ Rn , y observemos que como a 6= ā entonces {u0 , v0 } son linealmente
independientes y U0 = L({u0 , v0 }) es un plano vectorial; en efecto, en otro caso z = λr
para ciertos λ ∈ C \ {0} y r ∈ R2 , y por tanto A · r = a · r, esto es, a ∈ R, lo que es
absurdo. Tenemos pues que
A · u0 = A · (z + z̄) = A · z + A · z̄ = a · z + ā · z̄ =

= 2 <(a) · <(z) − =(a)=(z) = <(a) · u0 − =(a) · v0 ∈ U0 ,
y análogamente
A · v0 = A · ı(z̄ − z) = ı(A · z̄ − A · z) = ı(ā · z̄ − a · z) =

= 2 <(a) · =(z) + =(a)<(z) = <(a) · v0 + =(a) · u0 ∈ U0 .
Si llamamos u, v ∈ V a los únicos vectores tales que uB = u0 , vB = v0 , y U = L({u, v})
al plano que generan, entonces
w ∈ U ⇐⇒ wB ∈ U0 .
De aquı́ se sigue que si w = λu + µv ∈ U entonces
f (w)B = f (λu + µv)B = λf (u)B + µf (v)B = λ(A · uB ) + µ(A · vB ) =
= λ(A · u0 ) + µ(A · v0 ) ∈ U0 ,
y por tanto f (w) ∈ U . Esto prueba que f (U ) ⊆ U , y como dim f (U ) = dim U = 2, que
f (U ) = U .
Finalmente, observemos que f |U : U → U es una isometrı́a sin valores propios en
el plano vectorial euclı́deo (U, h , i|U ×U ), y por tanto ha de ser un giro de ángulo θ ∈
]0, 2π[\{π}, (los casos θ = 0, π se excluyen por no ser ±1 valores propios de f ). Esto
concluye el resultado.
Teorema 3.27 Sea (V, h , i) un espacio vectorial métrico euclı́deo con dim V = n ≥ 1
y sea h : V → V una isometrı́a en (V, h , i). Entonces existe una base ortonormal B de
(V, h , i) en la que:

···
 
Rθ1 0 0 0
...
 0 0 ··· 0
 


M (h, B) =  ... ..
,
 0 0 Rθm .
 . .. ..
 ..

. . Is 0 
0 0 ··· 0 −Ik
donde s, k, m ∈ N ∪ {0} son enteros tales que s + k + 2m = n y
 
cos(θj ) −sen(θj )
Rθj = , θj ∈]0, 2π[\{π}, j = 1, . . . , m.
sen(θj ) cos(θj )
Demostración : Llamemos
V1 = Ker(h − IdV ), s = dim V1 , V−1 = Ker(h + IdV ), k = dim V−1 .
Denotemos por
W1 = (V1 + V−1 )⊥ .
De la Proposición 3.21 tenemos que h(W1 ) = W1 , dim W1 = 2m, m ∈ N∪{0}; llamemos
h1 : W1 → W1 , h1 := h|W1 .
Si m ≥ 1 el Lema 3.26 puede aplicarse a h1 y existe U1 ≤ W1 plano vectorial tal que

82
h1 (U1 ) = h(U1 ) = U1 y

h1 |U1 ≡ h|U1 es un giro de ángulo orientado θ1 ∈]0, 2π[\{π} en (U1 , h , i|U1 ×U1 )
respecto a una orientación en U1 .

Si ocurriese que m − 1 ≥ 1 escribimos W1 = U1 ⊕ W2 para W2 el complemento or-


togonal de U1 relativo a (W1 , h , i|W1 ×W1 ). Como la isometrı́a h1 : W1 → W1 preserva
ortogonalidad en (W1 , h , i|W1 ×W1 ), deducimos que que h1 (W2 ) = W2 y por tanto

h2 : W2 → W2 , h2 := h1 |W2 = h|W2 ,

es una isometrı́a en (W2 , h , i|W2 ×W2 ) que, por nuestras hipótesis, no tiene valores propios.
Si m − 1 ≥ 2, por el Lema 3.26 de nuevo existe U2 ≤ W2 plano vectorial tal que

h2 (U2 ) = h(U2 ) = U2 y

h2 |U2 ≡ h|U2 es un giro de ángulo orientado θ2 ∈]0, 2π[\{π} en (U2 , h , i|U2 ×U2 )
respecto a una orientación en U2 .

Al igual que antes W2 = U2 ⊕ W3 , donde W3 es el complemento ortogonal de U2 relativo


a (W2 , h , i|W2 ×W2 ), y por tanto W1 = U1 ⊕U2 ⊕W3 siendo las sumas directas ortogonales
dos a dos.
Como la isometrı́a h2 : W2 → W2 preserva ortogonalidad en (W2 , h , i|W2 ×W2 ), dedu-
cimos que que h2 (W3 ) = W3 y por tanto

h3 : W3 → W3 , h3 = h2 |W3 = h|W3 ,

es una isometrı́a en (W3 , h , i|W3 ×W3 ) sin valores propios.


Si m−1 ≥ 3 podemos reiterar el procedimiento anterior con W3 y ası́ sucesivamente.
Tras un procedimiento inductivo finito, finalmente descomponemos W1 en suma directa
por subespacios ortogonales dos a dos

W1 = U1 ⊕ · · · ⊕ Um

de forma que

h(Uj ) = Uj y

h|Uj es un giro de ángulo orientado θj ∈]0, 2π[\{π} en (Uj , h , i|Uj ×Uj ) respecto a
una orientación en Uj

para todo j = 1, . . . , m. En consecuencia,

V = W1 ⊕ V1 ⊕ V−1 = U1 ⊕ · · · ⊕ Um ⊕ V1 ⊕ V−1 ,

siendo todos los subespacios ortogonales ortogonales dos a dos. Para acabar, basta elegir
bases ortonormales

Bj0 de (Uj , h , i|Uj ×Uj ), j = 1, . . . , m, B1 de (V1 , h , i|V1 ×V1 ), B−1 de (V−1 , h , i|V−1 ×V−1 ),

definir la base ortonormal B = B10 ∪ · · · Bm


0
∪ B1 ∪ B−1 de (V, h , i), y observar que por
construcción M (h, B) es la matriz por cajas del enunciado.

83
3.3.3. Isometrı́as lineales en espacios tridimensionales
Sea h : V → V una isometrı́a vectorial en un espacio vectorial euclidiano (V, h , i)
de dimensión 3. Si h 6= IdV , caben tres posibilidades:

(i) det(h) = 1. Del Teorema 3.27 es inmediato que existe una base ortonormal B =
{v1 , v2 , v3 } de (V, h , i) en la que
 
cos(θ) −sen(θ) 0
M (h, B) = sen(θ) cos(θ) 0 .
0 0 1

En este caso V1 = Ker(h − IdV ) = L({v3 }), W1 = L({v1 , v2 }) = L({v3 })⊥ , y


h|W1 : W1 → W1 es un giro de ángulo orientado θ en (W1 , h , i|W1 ×W1 ) respecto de
la orientación que induce la base {v1 , v2 }.
Se dice que h es un giro con eje la recta vectorial V3 y de ángulo orientado
θ ∈]0, 2π[ respecto de la orientación O inducida por {v1 , v2 } en V3⊥ . Si no se desea
enfatizar orientación, el correspondiente ángulo no orientado θ ∈]0, π] del giro h
se determina por la ecuación

Traza(h) = 1 + 2 cos(θ).

Los elementos geométricos que determinan un giro son su eje y su ángulo.

(ii) det(h) = −1. En este caso el Teorema 3.27 nos da dos posibilidades:

(II)1 h es la simetrı́a ortogonal ~σV⊥1 respecto del plano vectorial V1 = Ker(h − IdV )
(ver Notación 3.4). Elegida una base ortonormal {v1 , v2 } de V1 y v3 ∈ V1⊥
unitario, la base B = {v1 , v2 , v3 } es ortonormal en (V, h , i) y
 
1 0 0
M (h, B) = 0 1 0  .
0 0 −1

En este caso h diagonaliza con valores propios −1 y 1 de multiplicidades 2


y 1, respectivamente. El elemento geométrico que determina una simetrı́a
ortogonal repecto de un plano es el plano vectorial respecto del cual se si-
metriza.
(II)2 h tiene la expresión matricial
 
cos(θ) −sen(θ) 0
M (h, B) = sen(θ) cos(θ) 0
0 0 −1

en una base ortonormal B = {v1 , v2 , v3 } de (V, h , i).


En este caso h es la composición del giro de eje U = L{v3 } ⊆ V−1 :=
Ker(h + IdV ) y ángulo orientado θ respecto a la orientación O inducida por
{v1 , v2 } en L{v3 }⊥ = L({v1 , v2 }), y la simetrı́a ortogonal ~σL{v

3}
⊥ respecto

del plano L{v3 } . Nótese que L{v3 } = V−1 si y solo si θ 6= π, y si θ = π
entonces h = −IdV = V−1 . Los elementos geométricos de h son los mismos
que los del giro involucrado.

84
3.4. Isometrı́as afines
El concepto de isometrı́a afı́n es una traslación natural del de isometrı́a vectorial a
espacios afines euclı́deos.

Definición 3.28 Una isometrı́a afı́n entre espacios afines euclidianos (A, h , i) y (A0 , h , i0 )

− →

es una afinidad f : A → A0 cuya aplicación lineal asociada f~ : A → A 0 es una isometrı́a

− →

vectorial entre los espacios vectoriales euclidianos ( A , h·, ·i) y ( A 0 , h·, ·i0 ).

La siguiente proposición recoge las propiedades fundamentales de las isometrı́as


afines.

Proposición 3.29 Si f : (A, h , i) → (A0 , h , i0 ) es una isometrı́a afin entonces:

(i) d0 f (p), f (q) = d(p, q) para todo p, q ∈ A, donde d, d0 son las distancias en


(A, h , i) y (A0 , h , i0 ).

(ii) ]0 f (S), f (T ) = ] S, T para cualesquiera rectas secantes S, T en A, donde


 

], ]0 representan los ángulos en (A, h , i) y (A0 , h , i0 ).

(iii) Dos subespacios S, T son ortogonales en (A, h , i) si y solo si sus imágenes f (S)
y f (T ) son ortogonales en (A0 , h , i0 ).

Demostración : Item (i) es consecuencia del siguiente cálculo


−−−−−→
d0 (f (p), f (q)) = kf (p)f (q)k0 = kf~(→

pq)k0 = k→

pqk = d(p, q),

− →

donde k · k y k · k0 son las normas en ( A , h , i) y ( A 0 , h , i0 ).

− →

Como la isometrı́a vectorial f~ : ( A , h , i) → ( A 0 , h , i0 ) preserva ángulos, es inmediato
deducir que f : (A, h , i) → (A0 , h , i0 ) preserva ángulos entre rectas secantes, de donde se
sigue (ii). Por análogo razonamiento f : (A, h , i) → (A0 , h , i0 ) preserva la ortogonalidad
de subespacios afines, probando (iii).

Enunciaremos la siguiente caracterización analı́tica de las isometrı́as afines.

Proposición 3.30 Si (A, h , i), (A0 , h , i0 ) son espacios afines euclidianos n-dimensionales,
R = {p0 , B} y R0 = {p00 , B 0 } son sistemas de referencia rectangulares en (A, h , i) y
(A0 , h , i0 ) respectivamente, y f : A → A0 es afı́n, entonces

f : (A, h , i) → (A0 , h , i0 ) es una isometrı̀a afı́n ⇐⇒ A := M (f~, B, B 0 ) ∈ O(n, R).

En otras palabras, si R y R0 son referencias rectangulares en (A, h , i) y (A0 , h , i0 ),


 
0 0 0 1 0
f : (A, h , i) → (A , h , i ) isometrı́a afı́n ⇐⇒ M (f, R, R ) = , A ∈ O(n, R).
b A

Como consecuencia, las traslaciones τ : A → A en un espacio afı́n euclidiano


  h , i)
(A,
1 0
son isometrı́as afines; basta observar que M (τ, R) ≡ M (τ, R, R) = para
b In
todo sistema de referencia rectangular R en (A, h , i).

85
3.5. Semejanzas
Las aplicaciones afines que preservan ángulos se llaman semejanzas. Hagamos una
pequeña introducción a este tipo de transformaciones.
Proposición 3.31 Una homotecia h : A → A de razón r 6= 0, 1 en un espacio afı́n
euclı́deo (A, h , i) satisface:

(i) d h(p), h(q) = |r|d(p, q) para todos p, q ∈ A.
 
(ii) ] h(S), h(T ) = ] S, T para cualesquiera rectas secantes S, T en A.
(iii) Si S, T son subespacios de A, h(S)⊥h(T ) ⇐⇒ S⊥T .
Demostración : Es claro que
−−−−−→
d(h(p), h(q)) = kh(p)h(q)k = k~h(→

pq)k = kr→

pqk = |r|k→

pqk = |r|d(p, q),
~ v ∈ T~
lo que demuestra (i). Para probar (ii), tomemos rectas afines S, T , tomemos u ∈ S,
no nulos tales que ](S, T ) = ] u, v ∈ [0, π/2]. Como ~h = rIdV , se tiene que para los

−−→ −−→
vectores u ∈ h(S), v ∈ h(T ) también

](h(S), h(T )) = ] u, v ∈ [0, π/2]
lo que prueba (ii). Item (iii) es trivial o consecuencia de (ii) ya que S⊥T si y solo si
](S, T ) = π/2.
La generalización natural de homotecia es el concepto de semejanza.
Definición 3.32 Una aplicación afı́n biyectiva f : (A, h , i) → (A0 , h , i0 ) entre espacios
afines euclidianos se dice que es una semejanza de razón r 6= 0, 1, r > 0, si y sólo si
d0 f (p), f (q) = rd(p, q) ∀ p, q ∈ A,


o equivalentemente


hf~(u), f~(v)i0 = r2 hu, vi ∀u, v ∈ A .
Es inmediato comprobar que:
Las homotecias en (A, h , i) son semejanzas.
Una aplicación afı́n (A, h , i) → (A0 , h , i0 ) es una semejanza si y sólo sı́ es la
composición de una isometrı́a (A, h , i) → (A0 , h , i0 ) y una homotecia (en (A, h , i)
o en (A0 , h , i0 ) dependiendo del orden de composición).
La composición de semejanzas entre espacios afines euclidianos es una semejanza
o una isometrı́a.
Por tanto, el conjunto formado por la unión de las semejanzas y las isometrı́as en un
espacio afı́n euclidiano (A, h , i) es un grupo con la composición. Estos comentarios y
la Proposición 3.31 nos dan el siguiente:
Corolario 3.33 Si f : (A, h , i) → (A0 , h , i0 ) es una semejanza de razón r > 0 entonces
 
(i) ] f (S), f (T ) = ] S, T para cualesquiera rectas secantes S, T en A.
(ii) Si S, T son subespacios de A, f (S)⊥f (T ) ⇐⇒ S⊥T .
Se puede probar como ejercicio que una aplicación afı́n biyectiva f : (A, h , i) → (A0 , h , i0 )
es una semejanza si y sólo si preserva la ortogonalidad de rectas secantes (o equivalen-
temente, preserva el ángulo de rectas secantes).

86
3.6. Movimientos rı́gidos
El concepto de movimiento rı́gido es fundamental en la geometrı́a euclidiana ya que
permite expresar con rigor la idea clásica de igualdad de figuras: dos figuras en un
espacio afı́n euclı́deo son equivalentes o iguales si existe un movimiento rı́gido que lleva
una en la otra.
Definición 3.34 Un movimiento rı́gido en un espacion afı́n euclidiano (A, h , i) es una
isometrı́a afı́n f : (A, h , i) → (A, h , i). Un movimiento rı́gido se dice directo o positivo
si det(f~) = 1 > 0, e inverso o negativo si det(f~) = −1 < 0.
Para la comprensión de la naturaleza geométrica de un movimiento rı́gido es fun-
damental conocer su conjunto de puntos fijos. El siguiente lema, cuya demostración es
muy ilustrativa, resultará de gran ayuda para la clasificación de movimientos rı́gidos
que veremos con posterioridad. Expresa que todo isometrı́a f : A → A se descompone
de forma única como la composición de un movimiento rı́gido con puntos fijos y una
traslación con dirección en Ker(f~ − Id−
→ ).
A

Lema 3.35 Dado un movimiento rı́gido f : (A, h , i) → (A, h , i), existe un único vector
u ∈ Ker(f~ − Id−
→ ) y un único movimiento rı́gido g : (A, h , i) → (A, h , i) con Pg 6= ∅
A
tales que
f = τu ◦ g,
donde τu es la traslación de vector u. Además:
−−−→
u = Ker(f~ −Id− → )∩{qf (q) : q ∈ A}, y es conocido como el vector de deslizamiento
A
asociado a la isometrı́a f .
−−−→
Pg = {q ∈ A : qf (q) ∈ Ker(f~ − Id− → )}, y es conocido como el subespacio afı́n
A
invariante por la isometrı́a f .
Obsérvese que, por la unicidad en Lema 3.35, Pf 6= ∅ si y solo si u = ~0 y g = f .
Demostración : Llamemos
−−−→ →

S = {qf (q) : q ∈ A} ⊆ A ,


y veamos que S es un subespacio afı́n de A (dotado de su estructura afı́n canónica


como espacio vectorial) con S = Im(f~ − Id− → ). Para ello bastará con demostrar que,
A
fijado p ∈ A arbitrario,
−−−→
S = pf (p) + Im(f~ − Id− → ).
A
En efecto, para todo q ∈ A se tiene que
−−−→ → −−−→ −−−−−→ −−−→ −−−→
qf (q) = −
qp + pf (p) + f (p)f (q) = pf (p) + f~(→

pq) − →−
pq = pf (p) + (f~ − Id− →

→ )(pq),
A
−−−→
de donde S ⊆ pf (p) + Im(f~ − Id− → ). La otra inclusión se sigue del cálculo inverso, ya
A
−−−→ ~ −−−→ ~ − Id−
que si tomamos pf (p) + (f − Id− → )(u) ∈ pf (p) + Im(f
A
→ ) arbitrario entonces
A
−−−→ ~ −−−→ ~ −−−→ −−−−−−−−−→ −−−−−→ −−−−−−−−−−−→
pf (p)+(f −Id−
→ )(u) = pf (p)+f
A
(u)−u = pf (p)+f (p)f (p + u)−p(p + u) = (p + u)f (p + u)
pertenece a S.

− ~ ⊕S ~ ⊥ de →
~ ⊥ , los subespacios afines S y S −
Como A = S A son complementarios y por
~ ⊥ contiene un único punto (o vector) u (ver Proposición 2.69):
tanto S ∩ S
~ ⊥ = {u}.
S∩S
Por definición:

87


Viendo u como punto del espacio afı́n A , éste ha de coincidir con la proyección
−−−→ −−−→
ortogonal afı́n πS⊥
~ ⊥ pf (p) para todo pf (p) ∈ S (o p ∈ A).



Viendo u como vector de A , éste coincide con la proyección ortogonal lineal
−−−→ ~⊥ →

~πS⊥
~ ⊥ pf (p) para todo p ∈ A (usar que S es un subespacio vectorial de A ).

La ventaja de esta reflexión es que podemos utilizar cualquiera de las proyecciones


~ ⊥ para presentar u porque el resultado es el mismo.
ortogonales (afı́n o vectorial) sobre S
Por otra parte la Proposición 3.23 nos dice además que
~ ⊥ = Im(f~ − Id)⊥ = Ker(f~ − Id),
S

por lo que finalmente


−−−→
u = Ker(f~ − Id) ∩ S = ~πKer(

f~−Id→
−)
pf (p) ∀ p ∈ A.
A

Ahora podemos concluir la prueba:

Existencia de u ∈ Ker(f~ − Id−


→ ) y g isometrı́a con Pg 6= ∅ tal que f = τu ◦ g.
A
−−−→

Tomemos u := ~πKer(f~−Id→
−)
pf (p) ∈ Ker(f~ − Id− → ), p ∈ A arbitrario, y definamos
A
A

g = τ−u ◦ f.
−−−−→
Como también u ∈ S ha de existir p0 ∈ A tal que p0 f (p0 ) = u, y el siguiente
cálculo muestra que p0 ∈ Pg :
−−−−→ −−−−−−−−−→ −−−−−−−−−−−−→ −−−−→
g(p0 ) = p0 +p0 g(p0 ) = p0 +p0 τ−u f (p0 ) = p0 +p0 f (p0 ) + (−u) = p0 +p0 f (p0 )−u = p0 .

Unicidad de u ∈ Ker(f~ − Id−


→ ) y g isometrı́a con Pg 6= ∅ tal que f = τu ◦ g:
A

Supongamos que f = τu0 ◦ g 0 con u0 ∈ Ker(f~ − Id−→) = S


A
~ ⊥ y Pg0 6= ∅. Como existe
−−−−→ −−−→
q ∈ A tal que g 0 (q) = q deducimos que u0 = qτu0 (q) = qf (q) ∈ S, y de aquı́ que
~ ⊥ = {u}. Por tanto u = u0 y g 0 = τ−u0 ◦ f = τ−u ◦ f = g.
u0 ∈ S ∩ S

Para acabar nos resta observar que


−−−→ −−−→
Pg = {q ∈ A : qf (q) = u} = {q ∈ A : qf (q) ∈ Ker(f~ − Id)}.
−−−→
La identidad Pg = {q ∈ A : qf (q) = u} es trivial de la definición de g, y la identidad
−−−→ −−−→
{q ∈ A : qf (q) = u} = {q ∈ A : qf (q) ∈ Ker(f~ − Id)} se sigue inmediatamente de que
S ∩ Ker(f~ − Id−→ ) = {u}.
A

Observación 3.36 Con la notación del Lema 3.35, el vector de deslizamiento u de f


−−−−→ −−−→
se calcula como p0 f (p0 ) para cualquier p0 ∈ Pg = {q ∈ A : qf (q) ∈ Ker(f~ − Id−
→ )}.
A
 
~ −→
Además f Pg = τu Pg = Pg , ya que u ∈ Ker(f − Id A ) = Ker(~g − Id A ) = Pg . Por

→ −

esta razón se refiere a Pg como el subespacio afı́n invariante por f .

88
3.6.1. Movimientos rı́gidos en un plano afı́n euclidiano
Sea f : A → A un movimiento rı́gido en un plano afı́n euclidiano (A, h , i) (dim A =
2). Se pueden dar los siguientes casos:

(a) f es directo y Pf = ∅. Como det(f~) = 1, de la clasificación de isometrı́as lineales


de un plano vectorial deducimos que o bien f~ = IdV ó f~ es un giro de ángulo


orientado θ ∈]0, 2π[ respecto de una orientación fijada en A . Si se diese el segundo
caso tendrı́amos Ker(f~ − Id−→ ) = {~
A
0}, y por tanto de la Proposición 2.61 Pf 6= ∅
consistirı́a de un punto, absurdo. Por tanto f~ = Id− → y f es una traslación τu ,
A


u ∈ A.
En cualquier sistema de referencia R = {p0 , B} de A (B base de las direcciones de
R), se tiene que  
1 0 0
M (f, R) =  b1 1 0  ,
b2 0 1


donde (b1 , b2 ) son las coordenadas uB de u en la base B de A .

(b) f es directo y Pf 6= ∅. Razonando como antes deducimos que f~ es un giro de ángulo


θ ∈ [0, 2π[.
Como Pf 6= ∅, si f~ = IdV entonces f = IdA (giro de ángulo 0 con centro cualquier
punto). Si f~ es un giro de ángulo orientado θ ∈]0, 2π[ respecto de una orientación


fijada en A entonces Ker(f~−Id− → ) = {~
A
0} y Pf = {q} es un punto por la Proposición
2.61; en este caso decimos que f es un giro de centro q ∈ A y ángulo orientado


θ ∈]0, 2π[ respecto de la orientación fijada en A . En cualquier sistema de referencia
rectangular R = {q, B} de A con origen en el único punto fijo q (B representa la


base ortonormal en A de las direcciones de R, que supondremos positiva respecto


de la orientación en A ), se tiene que
 
1 0 0
M (f, R) =  0 cos θ −senθ  .
0 senθ cos θ

(c) f es inverso y Pf 6= ∅. Por la clasificación de isometrı́as lineales de un plano vectorial,


como det(f~) = −1 deducimos que f~ es la simetrı́a ortogonal ~σV⊥1 respecto de la recta
vectorial V1 = Ker(f~ − Id− → ). Como Pf 6= ∅, tomado q ∈ Pf tenemos que
A

f (p) = f (q) + f~(→



pq) = q + ~σV⊥1 (→

pq) ∀p ∈ A,

y por tanto por definición f es la simetrı́a respecto de la recta afı́n S =


q + V1 = Pf en la dirección de V1⊥ = V−1 = Ker(f~ + Id− → ), o simplemente f es
A
la simetrı́a ortogonal respecto de la recta afı́n S = Pf , y es denotada como
σS⊥ . En cualquier sistema de referencia rectangular R = {q, B} de A con origen en
q ∈ S = Pf y base ortonormal de direcciones B = {v1 , v−1 } con v1 ∈ S ~ = V1 y
v−1 ∈ S ~ = V−1 , se tiene que

 
1 0 0
M (f, R) =  0 1 0  .
0 0 −1

89
(d) f es inverso y Pf = ∅. Como antes f~ es la simetrı́a ortogonal ~σV⊥1 respecto de la
recta vectorial V1 = Ker(f~ − Id−
→ ). Usemos el Lema 3.35 y pongamos
A

f = τu ◦ g
donde u ∈ V1 \ {0}, Pg 6= ∅ y f~ = ~g . Por el caso anterior g es la simetrı́a ortogonal
respecto de la recta afı́n S = Pg , y por tanto f es la composición de la simetrı́a
ortogonal afı́n σS⊥ respecto de la recta S = Pg y la translación de vector u ∈ V1 =
Ker(~g − Id−
→) = S ~ no nulo. Este movimiento rı́gido se llama simetrı́a deslizante
A
respecto de la recta afı́n S con vector de deslizamiento u ∈ S. ~ En cualquier
sistema de referencia rectangular R = {q, B} de A con origen en q ∈ S = Pg y
base ortonormal de direcciones B = {v1 , v2 } con v1 ∈ S ~ = V1 y v2 ∈ S ~ ⊥ = V−1 , se
tiene que  
1 0 0
M (f, R) =  b1 1 0  ,
0 0 −1
donde (b1 , 0) 6= (0, 0) son las coordenadas uB de u en B.

~
Observación 3.37 Si f = τu ◦ g es una simetrı́a deslizante con g = σS⊥ y u ∈ S,
hemos probado que (ver el Lema 3.35):
La recta de simetrı́a S de f coincide con Pg .
−−−→
El vector de deslizamiento u = pf (p) para cualquier p ∈ S.
−−−→ ~
A efectos de cálculo, S = {p ∈ A : pf (p) ∈ S = Ker(f~ − IdV )}.
También puede ser descrita también como el lugar geométrico
S = {mpf (p) : p ∈ A}.
En efecto, para todo p ∈ A
1 −−−→ 1 −−−→ 1 1
mp,f (p) = p + pf (p) = (p + pg(p)) + u = mp,g(p) + u,
2 2 2 2
~ se sigue lo enunciado.
de donde usando que S = Pg = {mp,g(p) : p ∈ A} y u ∈ S

MOVIMIENTOS DEL PLANO Directo Inverso


Pf 6= ∅ (Punto) Giro ángulo θ 6= 0
Pf 6= ∅ (Recta) Simetrı́a ortogonal
Pf 6= ∅ (Total) IdA
Pf = ∅ Traslación Simetrı́a deslizante

Ejercicio 3.38 Se considera la aplicación afı́n f : R2 → R2 cuya expresión matricial


con respecto a R0 es:
    
−3/5 −4/5 x 3
f (x, y) = + .
−4/5 3/5 y 1
Demuestra que es un movimiento rı́gido, clasifı́calo y describe sus elementos geométri-
cos.

90
Solución : Observemos que
 
−3/5 −4/5
M (f~, B0 ) =
−4/5 3/5

y claramente M (f~, B0 ) · M (f~, B0 )t = I2 , esto es, M (f~, B0 ) ∈ O(2, R) (es una matriz
ortogonal). Como el sistema de referencia usual R0 = {(0, 0), B0 } en R2 es rectangular
respecto del producto escalar clásico h , i, y por tanto la base usual B0 es una base
ortonormal en (R2 , h , i), inferimos que efectivamente f es un movimiento rı́gido.
Escrito con nuestra notación habitual f está determinado por la siguiente expresión
matricial    
  1 0 0 1
1
=  3 −3/5 −4/5  = x
f (x, y)
1 −4/5 3/5 y
Como det M (f~, B0 ) = −1 se trata de un movimiento inverso.
Además la ecuación f (x, y) = (x, y), que se escribe
3 4 4 3
(− x − y + 3, − x + y + 1) = (x, y),
5 5 5 5
no tiene ninguna solución por lo que Pf = ∅.
Mirando la clasificación de movimientos rı́gidos en el plano f ha de ser una simetrı́a
deslizante. Describamos a continuación sus elementos geométricos. Para ello hemos de
encontrar la recta S respecto a la que simetrizamos y el vector u ∈ S ~ con el que

trasladamos, de forma que f = τu ◦ σS . De la Observación 3.37, la recta de simetrı́a
descrita en forma paramétrica se calcula de la siguiente forma
1 1 3 4 4 3
S = {m(a,b)f (a,b) : (a, b) ∈ R2 } = { (a, b)+ (− a− b+3, − a+ b+1) : (a, b) ∈ R2 } =
2 2 5 5 5 5
1
={ (2a − 4b + 15, −4a + 8b + 5) : (a, b) ∈ R2 }.
10
Llamando λ = 2a − 4b para eliminar la redundancia de parámetros queda
1
S={ (λ + 15, −2λ + 5) : λ ∈ R} = (3/2, 1/2) + L({(1, −2)}.
10
Otra forma alternativa de calcular S es coger un punto de R2 arbitrario, por ejemplo
el (0, 0) por simplicidad de cálculo, determinar su imagen f (0, 0) = (3, 1), y tener en
cuenta que el punto medio
m(0,0)f (0,0) = (3/2, 1/2) ∈ S.
Como de la Observación 3.37 la variedad de dirección de S viene dada por
~ = Ker(f~ − IdR2 ) = {(x, y) : M (f~, B0 ) − I2 (x, y)t = (0, 0)t } =

S
 8
− 5 − 45

{(x, y) : (x, y)t = (0, 0)t } = {(x, y) : y = −2x} = L({(1, −2)}),
− 54 − 25
se sigue también que S = (3/2, 1/2) + L({(1, −2)}).
Para calcular el vector de deslizamiento u ∈ S ~ de f , basta con elegir cualquier punto
de S, por sencillez de cálculo elegiremos el (3/2, 1/2), calcular su imagen f (3/2, 1/2) =
(17/10, 1/10) por f , y usar la fórmula (ver Observación 3.37)
−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−→
u = (3/2, 1/2), f (3/2, 1/2) = (3/2, 1/2), (17/10, 1/10) = (1/5, −2/5).

91
Ejercicio 3.39 Calcular en coordenadas usuales de R2 los siguientes movimientos:
(a) El giro de centro el punto O = (1, 2) y ángulo orientado θ = 2π/3 respecto de la
orientación usual.

(b) La simetrı́a ortogonal deslizante respecto de la recta afı́n S = {(x, y) ∈ R2 : x − y =


1} con vector de deslizamiento u = (1, 1).

Solución :Resolvamos (a). Recordemos que la orientación usual en R2 es la que tiene


por base positiva a la base usual B0 . Por tanto, si fijamos el sistema de referencia
rectangular R = {(1, 2), B0 }, la matriz que representa al giro G : R2 → R2 en el plano
euclidiano usual (R2 , h , i) viene dada por
   
1 0 0 1 0 √0
M (G, R) =  0 cos(2π/3) −sen(2π/3)  =  0 √1/2 − 3/2  .
0 sen(2π/3) cos(2π/3) 0 3/2 1/2

Si R0 es el sistema de referencia usual entonces


 
1 0 0
M (IdR2 , R, R0 ) =  1 1 0  ,
2 0 1

de donde
1 0 0√
 

M (G, R0 ) = M (IdR2 , R, R0 ) · M (G, R) · M (IdR2 , R, R0 )−1 =  3 +√ 12 1
√2
− 23  .
1 − 23 2
3 1
2

Resolvamos ahora (b) con un razonamiento similar. En este caso hemos de encontrar
la expresión analı́tica del movimiento τu ◦ σS⊥ .
Primero observemos que
~ = L({(1, 1)}),
S = (1, 0) + L({(1, 1)}) y S

por lo que la condición natural u = (1, 1) ∈ S ~ para el vector de deslizamiento se


~ ⊥ = L({(1, 1)})⊥ = L{(1, −1)}, de donde
satisface. Es claro que S
1 1 1 1
B = {v1 = ( √ , √ ), v−1 = ( √ , − √ )}
2 2 2 2
~ v−1 ∈ →
es una base ortonormal de (R2 , h , i) con v1 ∈ S,
−⊥
S .
Teniendo en cuenta que q = (1, 0) ∈ S, en el sistema de referencia R = {q, B} la
simetrı́a ortogonal σS⊥ respecto de la recta S viene representada por la matriz
 
1 0 0
M (σS⊥ , R) =  0 1 0  .
0 0 −1

Razonando como antes, si R0 es el sistema de referencia usual entonces

1 0 0
 
1 1
M (IdR2 , R, R0 ) =  1 √2 √2  ,
0 √12 − √12

92
de donde
 
1 0 0
M (σS⊥ , R0 ) = M (IdR2 (R, R0 ) · M (σS⊥ , R) · M (IdR2 (R, R0 )−1 =  1 0 1 .
−1 1 0

Como la traslación τu satisface


 
1 0 0
M (τu , R0 ) =  1 1 0  ,
1 0 1

la simetrı́a deslizante f = τu ◦ σS⊥ : R2 → R2 que resuelve el ejercicio viene determinada


por la expresión
     
1 0 0 1 0 0 1 0 0

M (f, R0 ) = M (τu , R0 ) · M (σS , R0 ) =  1 1 0  ·  1 0 1  =  2 0 1 .
1 0 1 −1 1 0 0 1 0

Ejercicio 3.40 Construir un movimiento rı́gido de (R2 , h , i) que transforme la recta


afı́n S de ecuación x + y = 2 en la recta afı́n R = (1, −1) + L((1, 1)). Clasificar el
movimiento obtenido.

Solución : Estudiemos la posición relativa de S y R. Para ello observemos que

S = {(x, y) : x+y = 2} = (1, 1)+L({(1, −1)}), R = (1, −1)+L({(1, 1)}) = {(x, y) : x−y = 2},

de donde S ∩ R = {(x, y) : x + y = x − y = 2} = {(2, 0)}. Se trata pues de dos rectas


secantes en el punto p0 = (2, 0). Los vectores u = (1, −1) y v = (1, 1) directores de S y
R, respectivamente, satisfacen hu, vi = 0, esto es, u⊥v y L({u})⊥ = L({v}), por lo que
las rectas son ortogonales. Resumiendo

S ∩ R = {p0 } y S⊥T.

Cualquier giro G con centro p0 y ángulo orientado ±π/2 respecto de la orientación usual
en R2 llevará S en R ya que
~ = G(p0 ) + ~g (L({u})) = p0 + L({~g (u)}) = p0 + L({v}) = R,
G(S) = G(p0 ) + ~g (S)

y análogamente G(R) = S. Aquı́ hemos tenido en cuenta que ](u, ~g (u)) = π/2, esto es
~ = L({v}).
u⊥~g (u), y por tanto ~g (u) ∈ R
Por lo demás, para determinar un tal giro G se sigue el procedimiento habitual.
Consideramos cualquier sistema de referencia rectangular con origen p0 , por ejemplo
R = {p0 , B0 }, y escribimos
   
1 0 0 1 0 0
M (G, R) =  0 cos(π/2) −sen(π/2)  =  0 0 −1  .
0 sen(π/2) cos(π/2) 0 1 0

Como  
1 0 0
M (IdR3 , R, R0 ) =  2 1 0 
0 0 1

93
y M (G, R0 ) = M (IdR3 , R, R0 ) · M (G, R) · M (IdR3 , R, R0 )−1 , quedará
 
1 0 0
M (G, R0 ) =  2 0 −1  .
−2 1 0

La solución proporcionada no es única, por ejemplo al principio podı́amos haber


elegido G con
   
1 0 0 1 0 0
M (G, R) =  0 cos(−π/2) −sen(−π/2)  =  0 0 1 ,
0 sen(−π/2) cos(−π/2) 0 −1 0

y proceder de forma similar.


Otra posibilidad para resolver el ejercicio es encontrar una simetrı́a ortogonal σT⊥ en
R2 que lleve S en R. La idea es considerar una recta T que contenga a p0 y satisfaga
~σT⊥ ~ ~
~ (S) = R. En efecto, en ese caso se tendrı́a

~ = σT⊥ (p0 ) + ~σ ⊥
σT⊥ (S) = σT⊥ (p0 + S) ~ = p0 + R
(S) ~ = R.
T~

Encontrar esa recta en este caso es fácil, bastará encontrar un subespacio vectorial
U ⊂ R2 tal que
~σU⊥ (1, −1) = (1, 1),
por ejemplo U = L{(0, 1)} (también valdrı́a U = L{(1, 0)}), y simplemente tomar
T = p0 + U = (2, 0) + L({(0, 1)}. Como hemos explicado antes la simetrı́a σT⊥ resolverı́a
el ejercicio. Por otra parte, es inmediato demostrar que
 
1 0 0
M (σT⊥ , R0 ) =  4 −1 0  .
0 0 1

3.6.2. Movimientos rı́gidos en un espacio afı́n euclidiano tridi-


mensional


Sea f : A → A un movimiento rı́gido en un espacio afı́n euclidiano (A, A , h , i) de
dim A = 3. Se pueden dar los siguientes casos:

(A) f es directo y Pf 6= ∅. De la clasificación de isometrı́as lineales de espacios vecto-


riales euclidianos tridimensionales con det(f~) = 1 deducimos que f~ = IdV ó f~ es
un giro con eje la recta vectorial V1 = Ker(f~ − Id−→ ) de ángulo orientado θ ∈]0, 2π[
A
respecto de una orientación O en el plano vectorial V1⊥ . En el primer caso cla-
ramente f = IdA (giro de ángulo 0 con eje cualquier recta). En el segundo caso,
fijado q ∈ Pf , tenemos que

Pf = q + V1 y f (p) = q + f~(→

qp) para todo p ∈ A.

Por definición se dice que f es un giro con eje la recta afı́n S = Pf de ángulo
orientado θ ∈]0, 2π[ respecto de la orientación O adoptada en S ~ ⊥ . En cualquier
sistema de referencia rectangular R = {q, B} de A con origen en q ∈ S y base

94
ortonormal de direcciones B = {v1 , v2 , v3 } tal que v3 ~ = V1 y {v1 , v2 } es base
∈S
~ ⊥ = V ⊥ , O), se tiene que
positiva en (S 1
 
1 0 0 0
 0 cos θ −senθ 0 
M (f, R) =  0 senθ cos θ
.
0 
0 0 0 1

Si no enfatizamos orientación, el ángulo α ∈]0, π] no orientado asociado al giro f


obedece a la fórmula
2 cos α + 1 = Traza(M (f~, B)).

(B) f es directo y Pf = ∅. Aquı́ tenemos en cuenta Lema 3.35 y descomponemos


f = τu ◦ g, donde u ∈ V1 = Ker(f~ − Id− → ), u 6= ~
A
0, y Pg 6= ∅. Del caso anterior
~g = Id−→ ó ~
A
g es un giro con eje la recta vectorial Ker(~g − Id−
→ ) = V1 de ángulo
A
orientado θ ∈]0, 2π[ respecto a una orientación dada en V1 (recordar que f~ = ~g ).

Al ser Pf = ∅, en el primer caso ~g = Id−→ se tiene que f es una traslación τu ,


A


u ∈ A (se puede hablar de movimiento helicoidal con eje cualquier recta paralela
a u y ángulo 0). En cualquier sistema de referencia R = {q, B} de A obtenemos
 
1 0 0 0
 b1 1 0 0 
M (f, R) =  b2 0 1 0  ,

b3 0 0 1

donde (b1 , b2 , b3 ) son las coordenadas uB de u en la base B.


En el caso de que ~g sea un giro, por lo visto en (A) inferimos que g es un giro con
eje la recta afı́n S = Pg de ángulo orientado θ ∈]0, 2π[ respecto a una orientación
prefijada en V1⊥ = S ~ ⊥ , y por tanto f es la composición de ese giro con una traslación
de vector u ∈ S ~ = V1 , u 6= ~0. Se dice que f es un movimiento helicoidal de
eje la recta afı́n S, ángulo orientado θ ∈]0, 2π[ (respecto de la orientación fijada
en V1⊥ ) y vector de deslizamiento u ∈ S. ~ En cualquier sistema de referencia
rectangular R = {q, B} de A con origen en q ∈ S y base ortonormal de direcciones
B = {v1 , v2 , v3 } tal que v3 ∈ S ~ = V1 y {v2 , v3 } es positiva en V ⊥ , se tiene que
1
 
1 0 0 0
 0 cos θ −senθ 0 
M (f, R) =  0 senθ cos θ 0  ,

b3 0 0 1

donde (0, 0, b3 ) son las coordenadas uB de u en la base B.


Si no enfatizamos orientación, el ángulo α ∈]0, π] no orientado asociado al movi-
miento helicoidal f obedece a la fórmula

2 cos α + 1 = Traza(M (f~, B)).

Observación 3.41 Los puntos p del eje S del movimiento helicoidal f = τu ◦ g


son los puntos fijos del giro g, y se caracterizan del Lema 3.35 por la propiedad
−−−→ ~ −−−→
pf (p) ∈ S = V1 = Ker(f~ − IdV ), siendo el vector de deslizamiento u = pf (p) para
cualquier p ∈ S.

95
Figura 14: Movimiento Helicoidal

Se puede visualizar un movimiento helicoidal f con eje S, ángulo θ y vector de


deslizamiento u ∈ S ~ de la siguiente manera. Dibuja el eje S y coge un punto p
cualquiera del espacio. Toma el plano Πp perpendicular a S que contiene a p y
llama Op al punto de corte S ∩ Πp . Luego, dentro del plano Πp , con un compás
pinchas en Op y abres el compás hasta alcanzar en el extremo a p, realizando
a continuación el giro en Πp del punto p con centro Op y ángulo θ de la forma
tradicional. Te saldrá un nuevo punto g(p) ∈ Πp , justo la imagen de p por el giro g
con eje S y ángulo θ, al que luego solo tienes que sumar el vector de deslizamiento
~ el punto f (p) es el g(p) + u.
u (ortogonal a Πp y en la dirección de S):

(C) f es inverso y Pf 6= ∅. Por la clasificación de isometrı́as lineales de un espacio


vectorial euclı́deo tridimensional, como det(f~) = −1 surgen dos posibilidades para
f~:

f~ es la simetrı́a ortogonal ~σV⊥1 respecto de un plano vectorial V1 = Ker(f~ −


Id−→ ). En este caso, como Pf 6= ∅, tomado q ∈ Pf tenemos que
A

f (p) = f (q) + f~(→



pq) = q + ~σV⊥1 (→

pq) ∀p ∈ A.

y por tanto por definición f es la simetrı́a respecto del plano afı́n S =


q + V1 = Pf en la dirección de V1⊥ = V−1 = Ker(f~ + Id− → ), o simplemente
A
f es la simetrı́a ortogonal respecto del plano afı́n S = Pf , que será
denotada como σS⊥ . En cualquier sistema de referencia rectangular R = {q, B}
de A con origen en q ∈ S y base ortonormal de direcciones B = {v1 , v2 , v3 }
~ = V1 y v3 ∈ V−1 = V ⊥ , se tiene que
con v1 , v2 ∈ S 1
 
1 0 0 0
 0 1 0 0 
M (f, R) =  0 0 1 0 .

0 0 0 −1

f~ es un giro con eje una recta vectorial U ⊆ V−1 = Ker(f~ + Id− → ) y ángulo
A
orientado θ ∈]0, 2π[ respecto a una orientación en U ⊥ , seguido de la simetrı́a
ortogonal ~σU⊥⊥ respecto del plano vectorial U ⊥ . En este caso Ker(f~ − Id−
→) =
A
{~0}, por lo que la Proposición 2.61 garantiza que f tiene un único punto fijo
que llamaremos p0 . Resulta por tanto que f es la composición del giro de
eje S = p0 + U y ángulo orientado θ respecto de una orientación en U ⊥ , y
la simetrı́a ortogonal σT⊥ respecto a T = p0 + U ⊥ . En cualquier sistema
de referencia rectangular R = {p0 , B} de A con origen en el único punto fijo

96
~ =U y
p0 de f y base ortonormal de direcciones B = {v1 , v2 , v3 } con v3 ∈ S

{v2 , v3 } base positiva de U , se tiene que
 
1 0 0 0
 0 cos θ −senθ 0 
M (f, R) = 
 0 senθ cos θ
.
0 
0 0 0 −1

Nótese que U = L{v3 } = V−1 = Ker(f~ + Id− → ) si y solo si θ 6= π, y si θ = π


A
~
entonces f = −Id A = V−1 . Cuando θ = π el movimiento f se denomina tam-


bién simetrı́a central respecto al punto p0 , y se corresponde con la homotecia
hp0 ,−1 .
Si no enfatizamos orientación, el ángulo α ∈]0, π] no orientado asociado a f
obedece a la fórmula

2 cos α − 1 = Traza(M (f~, B)).

(D) f es inverso y Pf = ∅. Razonamos como en el caso anterior, solo que como Pf = ∅


la Proposición 2.61 nos dice que el caso Ker(f~ − Id−
→ ) = {~
A
0} no se puede darse, y
~ ⊥
f ha de ser necesariamente la simetrı́a ortogonal ~σV1 respecto del plano vectorial
V1 = Ker(f~ − Id−→ ). Por el Lema 3.35
A

f = τu ◦ g,

donde u ∈ V1 \ {0} y Pg 6= ∅. Siguiendo lo visto en (C), g ha de ser la simetrı́a


ortogonal σS⊥ respecto del plano afı́n S = Pg , y por tanto f es la composición de
σS⊥ y la translación de vector u ∈ V1 = Ker(~g − IdV ) = Ker(f~ − IdV ) = S.
~ Este
movimiento rı́gido se llama simetrı́a ortogonal deslizante respecto del plano
afı́n S con vector de deslizamiento u ∈ S. ~
En cualquier sistema de referencia rectangular R = {q, B} de A con origen en
~ = V1 =
q ∈ S y base ortonormal de direcciones B = {v1 , v2 , v3 } con v1 , v2 ∈ S
Ker(f~ − Id−
→ ) y v3 ∈ V−1 = Ker(f
A
~ + Id−
→ ), se tiene que
A
 
1 0 0 0
 b1 1 0 0 
M (f, R) = 
 b2 0 1 0  ,

0 0 0 −1

donde (b1 , b2 , 0) son las coordenadas uB de u en B.

~
Observación 3.42 Si f = τu ◦ g es una simetrı́a deslizante con g = σS⊥ y u ∈ S,
hemos probado que (ver el Lema 3.35):

El plano de simetrı́a S de f coincide con Pg .


−−−→
El vector de deslizamiento u = pf (p) para cualquier p ∈ S.
−−−→ ~
A efectos de cálculo, S = {p ∈ A : pf (p) ∈ S = Ker(f~ − IdV )}.
El plano S puede ser descrito también como el lugar geométrico

S = {mpf (p) : p ∈ A}.

97
Figura 15: Simetrı́a ortogonal con deslizamiento

En efecto, para todo p ∈ A


1 −−−→ 1 −−−→ 1 1
mp,f (p) = p + pf (p) = (p + pg(p)) + u = mp,g(p) + u,
2 2 2 2
~ se sigue lo enunciado.
de donde usando que S = Pg = {mp,g(p) : p ∈ A} y u ∈ S

MOVIMIENTOS DEL ESPACIO Directo Inverso


Pf 6= ∅ (Punto) Giro+Simetrı́a
Pf 6= ∅ (Recta) Giro ángulo θ 6= 0
Pf 6= ∅ (Plano) Simetrı́a ortogonal
Pf 6= ∅ (Total) IdA
~
Pf = ∅ (f 6= Id−
→) Movimiento helicoidal Simetrı́a deslizante
A
~
Pf = ∅ (f = Id−→) Traslación
A

Es conveniente dibujar los elementos geométricos de los movimientos estudiados en


cada caso (rectas o planos de simetrı́a, ángulos de giro y vectores de deslizamiento) en
una cuartilla de papel. Intenta visualizar cómo actúa cada uno de ellos, entendiendo la
posición relativa de un punto genérico y su imagen. Este ejercicio geométrico sencillo es
importante, te ayudará a comprender mejor la naturaleza de todos estos movimientos.

Ejercicio 3.43 Demuestra que la siguiente aplicación afı́n f : R3 → R3


√ √ √ √
1 + 3 x − 3y 1 − 3 3x + y 
f (x, y, z) = + , + ,z + 1 .
2 2 2 2
es un movimiento rı́gido del espacio afı́n euclı́deo R3 y clasifı́calo determinando sus
elementos geométricos.

Solución : La aplicación lineal asociada f~ satisface



3
 1 
√2
− 2
0
M (f~, B0 ) =  23 1
2
0 .
0 0 1

Claramente M (f~, B0 ) · M (f~, B0 )t = I3 , esto es, M (f~, B0 ) ∈ O(3, R) (es una matriz
ortogonal). Como el sistema de referencia usual R0 = {(0, 0, 0), B0 } en R3 es rectangular

98
respecto del producto escalar clásico h , i, y por tanto la base usual B0 es una base
ortonormal en (R3 , h , i), inferimos que efectivamente f es un movimiento rı́gido.
Además det M (f~, B0 ) = 1, por lo que es un movimiento directo. Su conjunto de
puntos fijos viene dado por Pf = {(x, y, z) ∈ R3 : f (x, y, z) = (x, y, z)}, esto es,
√ √ √ √
3 1 + 3 x − 3y 1 − 3 3x + y 
Pf = {(x, y, z) ∈ R : + , + , z + 1 = (x, y, z)} =
2 2 2 2
√ √ √ √
1 + 3 −x − 3y 1 − 3 3x − y 
{(x, y, z) ∈ R3 : + , + , 1 = (0, 0, 0)} = ∅.
2 2 2 2
Como f~ 6= IdR3 , la clasificación de los movimientos rı́gidos en espacios euclidianos tridi-
mensionales nos dice que f es un movimiento helicoidal. Determinemos sus elementos
geométricos, esto es, eje S , ángulo de giro θ y vector de deslizamiento u ∈ S. ~
Recordemos que S ~
~ = Ker(f − IdV ), esto es,

~ = {(x, y, z) ∈ R3 : (M (f~, B0 ) − I3 ) · (x, y, z)t = (0, 0, 0)t } =


S

1 3
 
−√2
− 2
0
= {(x, y, z) ∈ R3 :  23 − 12 0  · (x, y, z)t = (0, 0, 0)t } =
0 0 0
= {(x, y, z) ∈ R3 : x = y = 0} = L({(0, 0, 1)}.
De la Observación 3.41, los puntos (x, y, z) del eje S de f se caracterizan por la propiedad
−−−−−−−−−−−→ ~
(x, y, z)f (x, y, z) ∈ S, esto es,
√ √ √ √
−−−−−−−−−−−→ 1 + 3 −x − 3y 1 − 3 3x − y  ~
(x, y, z)f (x, y, z) = + , + , 1 ∈ S.
2 2 2 2

Como x = y = 0 son las ecuaciones implı́citas de S ~ en B0 , Imponiendo que las dos


−−−−−−−−−−−→
primeras coordenadas de (x, y, z)f (x, y, z) se anulen nos queda
√ √ √ √
1 + 3 −x − 3y 1− 3 3x − y
(x, y, z) ∈ S ⇐⇒ + = + = 0,
2 2 2 2
esto es,
S = {(x, y, z) ∈ R3 : x = y = 1} = (1, 1, 0) + L({(0, 0, 1)}.
El ángulo no orientado α ∈]0, π] del movimiento helicoidal se calcula de la fórmula

Traza M (f~, B0 ) = 2 cos α + 1 ⇐⇒ 2 = 2 cos α + 1 ⇐⇒ cos α = 1/2 ⇐⇒ α = π/3.




Para calcular el ángulo orientado θ respecto de una orientación elegida en S ~ ⊥ procede-


~ , elegimos una base ortonormal B que determine la orientación positiva
mos ası́. En S ⊥
~ ⊥
O en S que vamos a fijar. Como S ~ ⊥ = L({(0, 0, 1)}⊥ = L({(1, 0, 0), (0, 1, 0)}) en este
caso tomaremos
B = {v1 , v2 } = {(1, 0, 0), (0, 1, 0)}.
Luego calculamos la matriz M (f~|S~ ⊥ , B), que queda
√ !
1 3

M (f~|S~ ⊥ , B) = √2
3 1
2 .
2 2

99
~⊥
Por definición, el ángulo orientado de f respecto√ de la orientación O fijada en S es el
1 3
único real θ ∈]0, 2π[ tal que cos θ = 2 , sen θ = 2 , esto es θ = π/3.
−−−→
Por último, el vector de deslizamiento u de f se calcula de la expresión u = pf (p)
para cualquier p ∈ S. Elegimos por sencillez p = (1, 1, 0), calculamos f (1, 1, 0) =
(1, 1, 1), y deducimos que
−−−−−−−−−−−→ −−−−−−−−−−→
u = (1, 1, 0)f (1, 1, 0) = (1, 1, 0)(1, 1, 1) = (0, 0, 1).

Ejercicio 3.44 Sean S plano y p, q puntos en R3 . Probar que son equivalentes los
siguientes enunciados:

1. Existe σ : R3 → R3 simetrı́a ortogonal deslizante respecto del plano S tal que


σ(p) = q.
−−−−→ −−−−→
2. →

pq ∈ ~ ⊥ y pπ ⊥ (p) = −qπ ⊥ (q), donde π ⊥ : R3 → R3 representa a la proyección
/ S S S S
ortogonal sobre S.

Prueba que existe una simetrı́a deslizante σ : R3 → R3 con σ(S) = S y σ(p) = q cuando

S = {(x1 , x2 , x3 ) ∈ R3 : x1 − x2 = 1}, p = (2, −1, 0), q = (−1, 0, 0).

Determinala dando su matriz en la referencia usual de R3 .

Solución :a) ⇒ b) Sea σ : R3 → R3 simetrı́a ortogonal deslizante respecto de S tal


que σ(p) = q. En principio sabemos que existe un vector u ∈ S ~ \ {~0} tal que σ es la
composición de la simetrı́a ortogonal respecto del plano S seguida de la traslación de
vector u:
σ = τu ◦ σS⊥ .
Veamos que → −
pq no pertenece a S ~ ⊥ . En efecto, la identidad
−−−−→
q = σ(p) = (τu ◦ σS⊥ )(p) = σS⊥ (p) + u = p + pσS⊥ (p) + u


−−−−→ −−−−→
implica que → −
pq = pσS⊥ (p) + u, y la definición de simetrı́a ortogonal implica que pσS⊥ (p) ∈
~ ⊥ . Como la descomposición R3 = S
S ~ ⊕S~ ⊥ es en suma directa, deducimos de lo anterior

− ~ ~
que pq ∈ S si y sólo si el vector u ∈ S es el vector nulo ~0, lo que contradice que σ es

deslizante.
Por tanto →−
pq no pertenece a S ~ ⊥.

100
−−−−→ −−−−→
Veamos ahora que −qπS⊥ (q) = pπS⊥ (p). Para ello, observemos que de la definición de
−−−−→ −−−−→
simetrı́a ortogonal pσS⊥ (p) = 2pπS⊥ (p), de donde volviendo a la ecuación de arriba
−−−−→ −−−−→
q = p + pσS⊥ (p) + u = p + 2pπS⊥ (p) + u =
 

−−−−→ −−−−→ −−−−→  −−−−→


= (p + pπS⊥ (p)) + pπS⊥ (p) + u = πS⊥ (p) + pπS⊥ (p) + u = πS⊥ (p) + u + pπS⊥ (p).
 

Ahora podemos demostrar que el punto z := πS⊥ (p)+u coincide con la proyección πS⊥ (q),
ya que satisface:
~
z ∈ S: usar que πS⊥ (p) ∈ S y u ∈ S.

− −−−−→
zq ∈ S ~ ⊥ : usar que de la expresión q = z + pπ ⊥ (p) probada anteriormente →

zq =
S
−−− − →
pπS⊥ (p) ∈ S ~ ⊥.

En conclusión −−−−→ −−−−→ −−−−−−−−−→ −−−−→


−qπS⊥ (q) = πS⊥ (q)q = πS⊥ (p) + u q = pπS⊥ (p),


lo que concluye la prueba.


b) ⇒ a)
−−−−→ −−−−→
Sea S ⊂ R3 plano y p, q ∈ R3 puntos tales que → −
pq ∈ ~ ⊥ y pπ ⊥ (p) = −qπ ⊥ (q).
/ S S S
Consideremos los puntos πS⊥ (p), πS⊥ (q) ∈ S y llamemos
−−−−−−−→
~
u = πS⊥ (p)πS⊥ (q) ∈ S.

Veamos que u 6= ~0. Para ello basta con observar que


− −−−−→ −−−−−−−→ −−−−→ −−−−→ −−−−→
pq = pπS⊥ (p) + πS⊥ (p)πS⊥ (q) + πS⊥ (q)q = pπS⊥ (p) + πS⊥ (q)q + u,
−−−−→ −−−−→
~⊥ y →
y tener en cuenta que pπS⊥ (p) + πS⊥ (q)q ∈ S −
pq ∈
/S~ ⊥.
Comprobemos finalmente que la simetrı́a deslizante σ = τu ◦ σS⊥ resuelve el ejercicio;
para ello bastará con demostrar que σ(p) = q. En efecto,
−−−−→ −−−−→ −−−−→
σ(p) = σS⊥ (p) + u = p + pσS⊥ (p) + u = p + 2pπS⊥ (p) + u = πS⊥ (p) + pπS⊥ (p) + u =
  

 −−−−→ −−−−−−−→ −−−−→ −−−−→


= πS⊥ (p) + u + pπS⊥ (p) = πS⊥ (p) + πS⊥ (p)πS⊥ (q) + pπS⊥ (p) = πS⊥ (q) + pπS⊥ (p) =
−−−−−→ −−−−→
= πS⊥ (q) + −qπS⊥ (q) = πS⊥ (q) + πS⊥ (q)q = q.
En cuanto a la parte práctica, vamos a justificar que existe una simetrı́a deslizante
σ : R3 → R3 con σ(S) = S y σ(p) = q cuando

S = {(x1 , x2 , x3 ) ∈ R3 : x1 − x2 = 1}, p = (2, −1, 0), q = (−1, 0, 0).

Para una respuesta afirmativa, y usando lo demostrado, será suficiente con ver que


− −−−−→ −−−−→
pq ∈
/S~ ⊥ y pπS⊥ (p) = −qπS⊥ (q),

donde πS⊥ : R3 → R3 representa a la proyección ortogonal sobre S. Determinemos por


tanto la expresión analı́tica de πS⊥ . Tomemos (x, y, z) ∈ R3 genérico y escribamos
πS⊥ (x, y, z) = (a, b, c). Sabemos que

101
(a, b, c) ∈ S, esto es, a − b = 1.
−−−−−−−−−−→ ~ ⊥ ; como S
~ = {(x1 , x2 , x3 ) ∈ R3 : x1 − x2 =
(x, y, z)(a, b, c) = (a − x, b − y, c − z) ∈ S
0} entonces S ~ ⊥ = L({(1, −1, 0)}) = {(x1 , x2 , x3 ) ∈ R3 : x3 = x1 + x2 = 0}, y por
tanto c − z = a − x + b − y = 0.

Resolviendo a = 21 (x + y + 1), b = 12 (x + y − 1), c = z, y por tanto

1 1
πS⊥ : R3 → R3 , πS⊥ (x, y, z) =

(x + y + 1), (x + y − 1), z .
2 2
Ahora queda claro que

− −−−−−−−−−−−−−→ ~ ⊥ = L({(1, −1, 0)}) = {(x1 , x2 , x3 ) ∈ R3 : x3 = x1 +x2 = 0}
pq = (2, −1, 0)(−1, 0, 0) = (−3, 1, 0) ∈
/S

y
−−− −→ −−−−−−−−−−−−−−−→ −−−−−−−−−−−→
pπS⊥ (p) = (2, −1, 0)πS⊥ (2, −1, 0) = (2, −1, 0)(1, 0, 0) = (−1, 1, 0) =
−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−→ −−−−→
−(−1, 0, 0)(0, −1, 0) = −(−1, 0, 0)πS⊥ (−1, 0, 0) = −qπS⊥ (q).
De lo demostrado en la parte teórica del ejercicio deducimos que existe una simetrı́a
deslizante σ : R3 → R3 con σ(S) = S y σ(p) = q. Para determinar la expresión matricial
~ Como probamos en
de σ en R0 , recordemos que σ = τu ◦ σS⊥ para cierto vector u ∈ S.
el anterior razonamiento, el vector u puede calcularse mediante la expresión
−−−−−−−−−−→ −−−−−−−→ −−−−−−−−−−−→
u = πS⊥ (p)πS⊥ (σ(p)) = πS⊥ (p)πS⊥ (q) = (1, 0, 0)(0, −1, 0) = (−1, −1, 0).
−−−−→ −−−−→
La expresión analı́tica de σS⊥ se puede determinar usando la fórmula pσS⊥ (p) = 2pπS⊥ (p),
esto es, σS⊥ (p) = 2πS⊥ (p) − p, que nos da
1 1
σS⊥ (x, y, z) = 2πS⊥ (x, y, z)−(x, y, z) = 2

(x+y+1), (x+y−1), z −(x, y, z) = (y+1, x−1, z).
2 2
De aquı́ que

σ(x, y, z) = (τu ◦ σS⊥ )(x, y, z) = (y + 1, x − 1, z) + (−1, −1, 0) = (y, x − 2, z),

esto es,  
1 0 0 0
 0 0 1 0 
M (σ, R0 ) = 
 −2
.
1 0 0 
0 0 0 1

Ejercicio 3.45 Determinar la expresión analı́tica en el sistema de referencia usual


del espacio euclidiano R3 del movimiento helicoidal f : R3 → R3 con los siguientes
elementos geométricos:

Eje S = {(x, y, z) ∈ R3 : x − y − 1 = y − z + 1 = 0}.

Ángulo orientado θ = π/4 respecto a la orientación O inducida por la base orde-


~ ⊥.
nada B 0 = {(1, −1, 0), (0, 1, −1)} de S
~
Vector de deslizamiento u = (−1, −1, −1) ∈ S.

102
Solución : Observemos que
~ = L({(1, 1, 1)}), S
S = (0, −1, 0) + L({(1, 1, 1)}), S ~ ⊥ = L({(1, −1, 0), (0, 1, −1)}).

El ejercicio está bien planteado ya que B 0 es una base ordenada de S ⊥ , determinando por
tanto una orientación en ese plano vectorial, y el vector de deslizamiento u pertenece
~ Necesitaremos un sistema de referencia rectangular R = {q, B = {v1 , v2 , v3 }}
a S.
adaptado al movimiento helicoidal, esto es, tal que q ∈ S, {v1 , v2 } sea base ortonormal
positiva de (S~ ⊥ , O), y v3 ∈ S
~ sea unitario.
Elegimos
1 1 √
q = (0, −1, 0), {v1 , v2 } = { √ (1, −1, 0), √ (1, 1, −2)}, v3 = 1/ 3(1, 1, 1).
2 6
Notemos que, si llamamos B 00 = {v1 , v2 }, la matriz
√1 √1
!
2 q6
M (IdS~ ⊥ , B 00 , B 0 ) = 2
0 3

tiene determinante 00 ~ ⊥ , O).


√ > 0, y por tanto B es una base ortonormal positiva en (S
Como u = − 3v3 , y por tanto uB = (0, 0, −1)t , la matriz del movimiento helicoidal
f en la referencia R adaptada ha de ser:
   
1 0 0 0 1 0√ 0√ 0
 0 cos(π/4) −sen(π/4) 0  = 0
 1/√2 −1/√ 2 0 
M (f, R) =  0
.
√ sen(π/4) cos(π/4) 0 0
√ 1/ 2 1/ 2 0
  
− 3 0 0 1 − 3 0 0 1

Como  
1 0√ 0 0
 0 1/ 2 √1 √1 

M (IdR3 , R, R0 ) =  √ 6 3 
,
 −1 −1/ 2 √1 √1 
 q6 3 
2 1
0 0 − 3

3

la identidad M (f, R0 ) = M (IdR3 , R, R0 ) · M (f, R) · M (IdR3 , R, R0 )−1 nos da finalmente

√√1 0 0 0
 
√ √ √ √ √
 − 3+2−2 2+1 1− 3+2 − 2+ 6+2 
M (f, R0 ) = 


3
√ √
3

3 √6√ 
.
 2−5 − 2+ 6+2 2+1 1− 3+2 

√ √
3 √ 6√
√ √
3

3 
− 2+ 6−4 1− 3+2 − 2+ 6+2 2+1
6 3 6 3

Ejercicio 3.46 Determinar la expresión analı́tica en el sistema de referencia usual del


espacio euclidiano R3 del movimiento rı́gido definido por la composición σT⊥ ◦ G, donde:
G es el giro con eje S = (0, 0, 1)+L({(1, −1, 0)}) de ángulo orientado π/3 respecto
de la orientación en S~ ⊥ inducida por B 0 = {(1, 1, 0), (0, 0, 1)}.

T = {(x, y, z) ∈ R3 : z − 1 = 0}.
Clasifica el movimiento resultante.

103
Solución : Determinemos la expresión analı́tica de G en R0 . Para ello, determinemos
primero un sistema de referencia rectangular R = {q, B = {v1 , v2 , v3 }} adaptado a G.
~ ⊥ , O), y v3 ∈ S
Esto significa que q ∈ S, {v1 , v2 } es base ortonormal positiva de (S ~ es
unitario. En este caso tomaremos
1 1
q = (0, 0, 1), B 00 = {v1 , v2 } = { √ (1, 1, 0), (0, 0, 1)}, v3 = √ (1, −1, 0).
2 2

La comprobación de que B 00 es positiva en (S,~ O) es trivial toda vez que la matriz


 1 
00 0

2
0
M (IdS~ ⊥ , B , B ) =
0 1

tiene determinante > 0.


La matriz del giro G en la referencia R adaptada ha de ser:
   
1 0 0 0 1 0 √0 0
 0 cos(π/3) −sen(π/3) 0   0 1/2 − 3/2 0 
M (G, R) =  √
 0 sen(π/3) cos(π/3) 0  =  0
  .
3/2 1/2 0 
0 0 0 1 0 0 0 1

Como  
1 0√ 0 0
 0 1/ 2 0 √12 
M (IdR3 , R, R0 ) = 
 √ ,

 0 1/ 2 0 − √12 
1 0 1 0
la identidad M (G, R0 ) = M (IdR3 , R, R0 )·M (G, R)·M (IdR3 , R, R0 )−1 nos da finalmente
 
q1 0 0 0
q
3 3 1 3 
− −

 8 4 4 8 
M (G, R0 ) =  3 .
 q q 
3 1 3
8
− − 8 
q4 q4

 
1 3 3 1
2 8 8 2

Por otra parte, un cálculo elemental nos dice que la matriz que representa a σT⊥ en R0
es  
1 0 0 0
0 1 0 0 
M (σT⊥ , R0 ) = 

,
 0 0 1 0 
2 0 0 −1
de donde si llamamos f = σT⊥ ◦ G se deduce que la expresión analı́tica de f en R0 está
determinada por la matriz
 
q1 0 0 q0
3 3
− 14 − 38
 
 q8 4
 

M (f, R0 ) = M (σT , R0 ) · M (G, R0 ) =  .
q 
3 1 3
 8
−4 4
− 38 
 q q 
3
2
− 38 − 38 − 21

Esto acaba la primera parte del ejercicio.

104
Consideremos ahora el movimiento rı́gido f : R3 → R3 dado por la expresión matri-
cial  
  1 0 0 0  
1  1
q q
3 3 1 3 
−4 − 8   

 x   8 4
q  ·  x
f  y  = 
   q
3 1 3 3  y 
 8
− 4 4
− 8 

z z
 q q
3
2
− 38 − 38 − 12
Para clasificarlo observemos que f es inverso al ser composición de un giro (directo) y
una isometrı́a (inverso). El conjunto Pf de puntos fijos de f surge de resolver la ecuación
f (x, y, z) = (x, y, z), y da por soluciones el plano afı́n
√ √
Pf = {(x, y, z) ∈ R3 : 6z + x + y = 6}.

Por la clasificación de los movimientos


√ rı́gidos√f es la simetrı́a ortogonal σΠ⊥ respecto
3
del plano Π = {(x, y, z) ∈ R : 6z + x + y = 6}.

Ejercicio 3.47 Demuestra que la siguiente aplicación f : R3 → R3 es un movimiento


rı́gido del espacio afı́n euclı́deo (R3 , h , i) y clasifı́calo:
√ √ √ √ √
f (x, y, z) = (2y/ 5 + z/ 5, 5x/3 − 2y/(3 5) + 4z/(3 5), −2x/3 − y/3 + 2z/3).

Solución : De la definición de f se deduce que


 
1 0 0 0
 0 0 √2 √1 
√ 5 5
M (f, R0 ) = 
 
5
 0 − 3√2 5 4 

3 3 5

0 − 23 − 13 2
3

Al ser f es lineal tenemos que f~ = f . Como


 
0 √2 √1
√ 5 5
M (f~, B0 ) =  35 − 3√2 5 4 ,
 √

3 5
− 23 − 13 2
3

B0 es una base ortonormal de (R3 , h , i) y M (f~, B0 ) · M (f~, B0 )t = I3 deducimos que


M (f~, B0 ) ∈ O(3, R) y f es un movimiento rı́gido. Además como det M (f~, B0 ) = −1
se trata de un movimiento inverso. El conjunto de puntos fijos Pf surge de resolver la
ecuación f (x, y, z) = (x, y, z), y como det M (f~, B0 ) − I3 6= 0 en este caso resulta


Pf = {(0, 0, 0)}.

De la clasificación de los movimientos rı́gidos, f ha de ser de la forma

f = σT⊥ ◦ G,

donde G es un giro respecto de una recta S y σT⊥ la simetrı́a ortogonal respecto del
plano T ortogonal a S con S ∩ T = {p0 }. Determinemos los elementos geométricos de
f.
Recordemos que
~ = Ker(f + IdR3 ) = {(x, y, z) ∈ R3 : M (f~, B0 ) + I3 .(x, y, z)t = (0, 0, 0)t } =

S

105
     
1 √2 √1
√ 5 5 x 0
= {(x, y, z) ∈ R3 :  5
1 − 3√2 5 4
 . y = 0 }.
 √
    
3 3 5
− 23 − 31 1+ 2 z 0
3

Resolviendo el sistema
√ √
~ = {(x, y, z) ∈ R3 : y + 1 (2 + 5 5)x = z + 1 (−4 + 5)x = 0},
S
11 11
√ √
~ = L({(11, −2 − 5 5, 4 − 5)}). Por tanto
esto es S
√ √ √ √
S = p0 + S~ = (0, 0, 0) + L({(11, −2 − 5 5, 4 − 5)}) = L({(11, −2 − 5 5, 4 − 5)}),

El ángulo α ∈]0, π] no orientado del giro G se deduce de la expresión


2 1 5
−1 + 2 cos α = Traza(M (f~, B0 )) = − √ + 2/3 ⇐⇒ α = arc cos(− √ + ) ∈]0, π[.
3 5 3 5 6
El plano T ortogonal a S pasando por p0 viene dado por la expresión
~ ⊥ = (0, 0, 0) + S
T = p0 + S ~ ⊥.

Como √ √
~ ⊥ = {(x, y, z) ∈ R3 : h(x, y, z), (11, −2 − 5 5, 4 − 5)i = 0} =
S
√ √
= {(x, y, z) ∈ R3 : 11x − (2 + 5 5)y + (4 − 5)z = 0} =
√ √
= {(λ, µ, −(4 + 5)λ + (3 + 2 5)µ) : λ, µ ∈ R}
se tiene que √ √ 
T = L {(−1, 0, 4 + 5), (0, 1, 3 + 2 5)} .
Si queremos el ángulo orientado θ ∈ [0, 2π[ de G respecto de una orientación O en
~ ⊥ , tomaremos primero una base ortonormal ordenada B de S
S ~ ⊥ que fije O y calcula-
 
~ cos θ −senθ
remos la matriz M (f |S~ ⊥ , B), que será la tı́pica matriz determinando
senθ cos θ
unı́vocamente θ. Los cálculos son muy penosos y los omitiremos.

Ejercicio 3.48 Demuestra que la siguiente aplicación f : R3 → R3 es un movimiento


rı́gido del espacio afı́n euclı́deo (R3 , h , i) y clasifı́calo:
√ √
f (x, y, z) = (x/2 − 3z/2 + 2, y + 2, − 3x/2 − z/2 + 2).

Solución : La matriz de f en el sistema de referencia R0 viene dada por la expresión

1 0 0 0√
 
 2 1
0 − 23 
M (f, R0 ) = 
 2
2 .
0√ 1 0 
2 − 23 0 − 12

Como √ 
1
0 − 23

2
M (f~, B0 ) =  0√ 1 0 
− 23 0 − 12
B0 es una base ortonormal de (R3 , h , i) y M (f~, B0 ) · M (f~, B0 )t = I3 deducimos que
M (f~, B0 ) ∈ O(3, R) y f es un movimiento rı́gido. Además como det M (f~, B0 ) = −1

106
se trata de un movimiento inverso. El conjunto de puntos fijos Pf surge de resolver la
ecuación f (x, y, z) − (x, y, z) = (0, 0, 0), que en este caso resulta el sistema
√ √
3 1 3 3 3
{(x, y, z) ∈ R : (2 − x − z, 2, 2 − x − z) = (0, 0, 0)} = ∅.
2 2 2 2
Por la clasificación de movimientos rı́gidos f es una simetrı́a deslizante de la forma
τu ◦ σS⊥ , donde S es un plano afı́n y u ∈ S. ~ Determinemos sus elementos geométricos.
Sabemos que S ~ = Ker(f~ − IdR3 ), esto es,

~ = {(x, y, z) ∈ R3 : M (f~, B0 ) − I3 .(x, y, z)t = (0, 0, 0)} =



S
√ 
− 12 0 − 23


{(x, y, z) ∈ R3 :  0√ 0 0  .(x, y, z)t = (0, 0, 0)} = {(x, y, z) ∈ R3 : x = − 3z},
− 23 0 − 32
esto es, √
~ = L({(0, 1, 0), (− 3, 0, 1)}.
S
Sabemos que mp,f (p) ∈ S para todo p ∈ R3 . Eligiendo p = (0, 0, 0), como f (0, 0, 0) =
(2, 2, 2) ese cálculo nos dice que
m(0,0,0),f (0,0,0) = m(0,0,0),(2,2,2) = (1, 1, 1) ∈ S.

Como S = (1, 1, 1) + S,~ de aquı́ que


√ √ √
S = (1, 1, 1) + L({(0, 1, 0), (− 3, 0, 1)} = {(x, y, z) ∈ R3 : x + 3z − 1 − 3 = 0}.

El vector de deslizamiento u ∈ S ~ se calcula de la forma u = − −−→


pf (p), p ∈ S. Tomando
√ √
p = (1, 1, 1) ∈ S y calculando f (1, 1, 1) = ( 12 (5 − 3), 3, 12 (3 − 3) se tiene que
−−−−−−−−−−−−→ 1 √ 1 √
u = (1, 1, 1), f (1, 1, 1) = ( (3 − 3), 2, (1 − 3).
2 2

3.7. Triángulos en el plano afı́n euclidiano


Vamos a recordar algunos de los resultados clásicos acerca de triángulos en el plano
euclidiano.
Definición 3.49 Un triángulo en un espacio afı́n A son tres puntos {a, b, c} afı́nmente
independientes, que se suelen llamar vértices.
Normalmente, se suele hablar de triángulos {a, b, c} en planos afines, ya que sus
propiedades se pueden circunscribir al plano Π = h{a, b, c}i ⊆ A que lo contiene.
Comencemos con algunas definiciones básicas.
Definición 3.50 Si T = {a, b, c} es un triángulo en un plano afı́n euclidiano (A, h , i),
se definen los ángulos interiores A,
b B byC b de T en los vértices a, b y c respectivamente
como los ángulos orientados
b = ]o (→
A
− →
ab, −
ac), B b = ]o (→
− → −
bc, ba) y C b = ]o (→ − →

ca, cb)


respecto de la orientación O del plano A inducida por la ordenación cı́clica (a, b, c)

− −
de los vértices de T , esto es, por cualquiera de las bases ordenadas B1 = { ab, → ac},

− →− →
− →

B2 = { bc, ba} y B3 = { ca, cb}.

107
Figura 16: Triángulo

La anterior definición es consistente en el sentido de que las bases ordenadas B1 , B2 , B3



− →
− →
− −
efectivamente inducen la misma orientación O en A ; en efecto, como bc = ba + → ac =

− → − →
− →

− ab + ac y ba = − ab, se tiene que
 
−1 −1
M (Id− → , B2 , B1 ) =
A
,
1 0

y por tanto det M  (Id → , B2 , B1 ) = 1 > 0; de forma análoga se comprueba que

A
det M (Id− → , B3 , B1 ) = 1 > 0.
A
Es importante también observar que la ordenación cı́clica de los vértices (a, b, c)
fijada, que lógicamente determina la orientación O, no influye en el valor de A, b B
b y C;b si
eligiesemos la ordenación cı́clica (a, c, b) contraria entonces la orientación cambiarı́a a la
opuesta, pero no los ángulos orientados definidos de acuerdo con el criterio especificado
en la definición.

Observación 3.51 Es conveniente recordar que, por definición, el ángulo orientado


está bien definido salvo múltiplos enteros de 2π, y por tanto siempre podemos tomar
una determinación del mismo que pertenezca al intervalo [0, 2π[. Por este motivo, y en
lo sucesivo, dado un triángulo {a, b, c} siempre supondremos

A,
b B, b ∈]0, 2π[.
b C

El siguiente resultado recoge las propiedades básicas de los ángulos de un triángulo


(Euclides siglo III A.C.).
Teorema 3.52 Sea {a, b, c} un triángulo en un plano afı́n euclidiano (A, h , i). Son
ciertos los siguientes enunciados:
(i) A,
b B, b ∈]0, π[.
b C

(ii) A
b+B
b+C
b = π.

Demostración :
Demostremos (i). Calculemos A b (análogamente se razonarı́a con B
b y

− →

b para lo cual llamemos B = { ab, ac} y escribamos
C),
1 → − 1 →
− →

− ab, y w2 = ku k u2 , donde u2 = ac − hw1 , aciw1 .
w1 = →
k abk 2



Un cálculo sencillo nos dice que B0 = {w1 , w2 } es una base ortonormal de ( A , h, i)
y
hw1 , →

!
1
 −
→ aci
det M (Id−
→ , B, B0 ) = det kabk > 0,
A
0 ku2 k

108


esto es, B0 induce la misma orientación que B en A . Por definición, A
b es el único real
en ]0, 2π[ satisfaciendo
1 → −

− ac = cos(A)w
b 1 + sen(A)w
b 2,
k ack
de donde como → −ac = hw1 , →
− b = ku−
aciw1 + ku2 kw2 inferimos que senA 2k
→ > 0, esto es,
kack
Ab ∈]0, π[. Esto prueba (i).
Para probar (ii), recordemos que ]o (u, v) = ]o (−u, −v), y que salvo sumar un
múltiplo de 2π la regla de aditividad ]o (u, v) + ]o (v, w) = ]o (u, w) es válida.

− →
− −
Usando estas fórmulas, y respecto de la orientación O en A inducida por { ab, → ac},
se tiene que:

A+
b B+ b = ]o (→
b C − →
ab, −
ac)+]o (→
− →
− →
− → − →
− −
ca, cb)+]o ( bc, ba) = ]o ( ab, →
ac)+]o (−→
− →
− →
− → −
ca, − cb)+]o ( bc, ba) =

− − →
− →
− → − →
− → −
= ]o ( ab, →
ac) + ∠(→

ac, bc) + ]o ( bc, ba) = ]o ( ab, ba) + 2kπ = π + 2kπ, k ∈ Z.

− → −
En la última identidad hemos usado que ]o ( ab, ba) = π. Como por (i) sabemos que
A,
b B, b ∈]0, π[, necesariamente π + 2kπ = A
b C b+ B b+C b < 3π, por lo que k = 0 y se tiene
lo deseado.

Teorema 3.53 (Teorema de Pitágoras) Dado un triángulo {a, b, c} con ángulo A


b=
π/2,
d(a, b)2 + d(a, c)2 = d(b, c)2 .

Este tipo de triángulos se llaman rectángulos con ángulo recto en el vértice a. Los
segmentos [a, b] y [a, c] se denominan catetos de {a, b, c}, y el segmento [b, c] hipotenusa
de {a, b, c}.

Figura 17: Triángulo rectángulo

Demostración : La prueba del teorema de Pitágoras es muy simple para nosotros:



− →
− − → − − →
− →
− −
d(b, c)2 = k bck2 = h ba + →
ac, ba + →
aci = k bak2 + k→

ack2 + 2h ba, →
aci = d(a, b)2 + d(a, c)2 ,

b = π/2 si y solo si h→
donde simplemente hemos tenido en cuenta que A
− →
ba, −
aci = 0 (esto

− →−
es, ab⊥ ac).

Proposición 3.54 Dados dos triángulos {a, b, c} y {a0 , b0 , c0 } en un plano afı́n eucli-
diano (A, h , i), si d(a, b) = d(a0 , b0 ), d(a, c) = d(a0 , c0 ), y d(b, c) = d(b0 , c0 ), entonces

A b0 , B
b=A b0, C
b=B b0 .
b=C

109

− − → − −→ −→ −→ →

Demostración : Como { ab, →
ac, bc} y {a0 b0 , a0 c0 , b0 c0 } son bases de A , la única aplicación
afı́n f : A → A tal que
f (a) = a0 , f (b) = b0 , f (c) = c0
es una afinidad. Además, f~ satisface

− −→ →
− −→ →
− −→ →

kf~( ab)k = ka0 b0 k = k abk, kf~(→

ac)k = ka0 c0 k = k→

ack, kf~( bc)k = kb0 c0 k = k bck,

por lo que es una isometrı́a lineal. De aquı́ que f sea un movimiento rı́gido, y por tanto
preserva ángulos. El resultado se sigue trivialmente.

3.7.1. Puntos notables de un triángulo


Los tres puntos notables de un triángulo que trataremos en esta sección son el
baricentro, el circuncentro y el ortocentro (dejaremos el incentro para un tratamiento
posterior más especı́fico). Explicamos a continuación cómo se generan y sus propiedades
básicas.

Definición 3.55 Dado un triángulo {a, b, c}, la mediana asociada al vértice a es la


recta Ma = h{a, mbc }i que une a y el punto medio mbc o centro de masas del lado
opuesto [b, c]. Análogamente se define las medianas Mb y Mc asociadas a b y c.

El punto
1 − → − −
B = q + (→ qa + qb + →qc)
3
no depende de q ∈ A, y es fácil comprobar que está contenido en las tres medianas del
triángulo {a, b, c}:
{B} = Ma ∩ Mb ∩ Mc .
En efecto, bastará con ver que B ∈ Ma = a + L({− −→}) (análogamente se razonarı́a
am bc


para comprobar que B ∈ M y B ∈ M ). Como m = q + ( 1 qb + 1 →
b c bc

qc) se tiene que
2 2
−−−−−−−−−−−−−−→
− 1→− 1− 1→− 1−
ambc = a(q + ( qb + →
−→ qc)) = −→ −
qa + qb + → qc,
2 2 2 2
−→ − →
− − →
− − −→ ∈ − →
de donde aB = → aq + 13 (→

qa + qb + →
qc) = − 32 →

qa + 13 ( qb + →
qc) = 23 −
am bc M a y B ∈ Ma
como querı́amos demostrar.

− −
Definición 3.56 (Baricentro) El punto B = q + 13 (→ −
qa + qb + → qc) es conocido como
el centro de masas o baricentro del triángulo {a, b, c}.
El concepto de baricentro es puramente afı́n, se puede definir sin apelar a ninguna


métrica euclı́dea en A .
Definición 3.57 Dados dos puntos p, q en un plano afı́n euclidiano euclidiano (A, h , i),
la mediatriz del segmento [p, q] es la recta R que pasa por mpq y es ortogonal a la recta
h{p, q}i que generan p y q. Explı́citamente,

R = mpq + L{→

pq}⊥ .

Proposición 3.58 Si p, q son puntos de un plano euclidiano (A, h , i), la mediatriz R


del segmento [p, q] es el lugar de puntos

R = {r ∈ A : d(p, r) = d(q, r)}.

110
Demostración : Si r es un punto de la mediatriz R de [p, q], los triángulos {p, mpq , r}
y {q, mpq , r} son rectángulos con ángulo recto en el vértice mpq . Por tanto, usando el
Teorema de Pitágoras,

d(p, r)2 = d(p, mpq )2 + d(mpq , r)2 = d(q, mpq )2 + d(mpq , r)2 = d(q, r)2 .

Recı́procamente, dado un punto r ∈ A equidistante de p y q, se tiene que


−−−−−−−−−−−−→
1− 1−  → 1 − →
hrmpq , qpi = r r + →
−−→ →
− rp + → rq , −
qr + →

rp = h→ rp + −
rq, →

qr + →

rpi =
2 2 2
= k→

rpk2 − k→−
rqk2 = d(p, r)2 − d(q, r)2 = 0,
de donde r pertenece a la mediatriz R de [p, q].

Proposición 3.59 Sea {a, b, c} un triángulo, y llamemos Ra a la mediatriz del lado


[b, c], Rb a la mediatriz del lado [a, c] y Rc a la mediatriz del lado [a, b]. Entonces existe
un único punto C ∈ A tal que

C = Ra ∩ Rb ∩ Rc .


Demostración : Si Ra y Rb fuesen paralelas tendrı́amos que las rectas vectoriales L{ bc}⊥

− →
− −
y L{→−
ac}⊥ en A serı́an iguales, y por tanto { bc, → ac} serı́an linealmente dependientes,
lo que es absurdo ya que {a, b, c} es un triángulo. Por tanto Ra y Rb no son paralelas,
y de igual forma ocurre con las parejas de rectas Ra , Rc y Rb , Rc . Esto garantiza que
C := Ra ∩ Rb es un único punto caracterizado por la propiedad de equidistar de a, b y
c, de donde necesariamente
C = Ra ∩ Rb ∩ Rc .

Definición 3.60 (Circuncentro) Con la notación de la Proposición 3.59, al punto


C se le llama circuncentro del triángulo {a, b, c}.

Su nombre deriva de la propiedad geométrica que lo caracteriza: es el centro de la


circunferencia que contiene a los tres vértices del triángulo {a, b, c}.

Definición 3.61 Dado un triángulo {a, b, c} en un plano afı́n euclidiano (A, h , i), la
altura Ha del vértice a es la recta que pasa por a y es ortogonal al lado opuesto [b, c]:


Ha = a + L{ bc}⊥ .

Análogamente se definen las alturas asociadas a los vértices b y c:




Hb = b + L{→

ac}⊥ y Hc = c + L{ ab}⊥ .

Proposición 3.62 Si {a, b, c} en un triángulo en un plano (A, h , i), entonces existe


un único punto O tal que
O = Ha ∩ Hb ∩ Hc .

111


Demostración : Como los vectores →

ac y bc son linealmente independientes ({a, b, c} es
un triángulo), las rectas Ha y Hb no son paralelas y se cortan en un único punto O.
→ →
− −
Comprobemos que O ∈ Hc , o equivalentemente, que Oc⊥ ab. En efecto,
→ →
− − −→ − −→ − → −→ −→ − → −→ −

hOc, abi = hOa + →
ac, aO + Obi = hOa, aO + Obi + h→

ac, aOi + h→

ac, Obi =
−→ −→ − → −→ − −
→ −→ −→ − → − −

= hOa, aO + Obi − hOa, →
aci + h→

ac, Obi = hOa, aO + Ob − →aci + h→

ac, Obi =
−→ − −→ − → −→ −→ →− −

= hOa, →
ca + aO + Obi + h→

ac, Obi = hOa, cbi + h→

ac, Obi = 0,

→ →
− −→
donde hemos tenido en cuenta que h→

ac, Obi = h cb, Oai = 0 al ser O ∈ Hb ∩ Ha .

Definición 3.63 (Ortocentro) Al punto O ∈ A intersección de las tres alturas de un


triángulo {a, b, c} en un plano afı́n euclı́deo (A, h , i) se le llama ortocentro de {a, b, c}.

Estamos en condiciones de enunciar y probar el Teorema clásico de Euler, que da


información sobre la posición relativa de los tres puntos notables de un triángulo.

Teorema 3.64 (Euler) Dado un triángulo {a, b, c} en un plano afı́n euclidiano (A, h , i),
el baricentro B, circuncentro C y ortocentro O de {a, b, c} están alineados.
Si {B, C, O} contiene al menos dos puntos distintos, la recta pasando por B, C y O
se denomina recta de Euler de {a, b, c}.

Figura 18: Recta de Euler

Demostración : Llamemos h : A → A a la homotecia con centro B y razón −1/2. La


clave es observar qur h lleva cada vértice de {a, b, c} en el punto medio de su lado

− −
opuesto. En efecto, como B = a + 31 ( ab + →
ac), es claro que

1 −→ 1 −→ 1 →
− −  1 → − −
h(a) = B + (− )Ba = B + aB = a + ( ab + →
ac) + ( ab + →
ac) =
2 2 3 6
1 →
− −
= a + ( ab + →
ac) = mbc ,
2
112
o en otras palabras, h lleva el vértice a en el punto medio de [b, c], y el mismo razona-
miento se aplica a los otros dos vértices.
Veamos que h lleva las alturas de {a, b, c} en las mediatrices de {a, b, c}. En efecto
1
h(Ha ) = h(a + ~ha ) = h(a) + ~h(~ha ) = h(a) + (− Id−→ )(~
ha ) = mbc + ~ha = mbc + R
~ a = Ra ,
2 A

donde hemos usado que ~ha = R ~ a = L({→ − ⊥


bc}) . Análogamente se prueba que h(Hb ) = Rb
y h(Hc ) = Rc .
Finalmente, como el ortocentro de {a, b, c} es el cruce de las tres alturas O = Ha ∩
Hb ∩ Hc , deducimos que h(O) = h(Ha ) ∩ h(Hb ) ∩ h(Hc ) = Ra ∩ Rb ∩ Rc = C. Pero
un punto y su imagen por una homotecia están siempre alineados con el centro de la
misma, por lo que O y C = h(O) están alineados con B como querı́amos demostrar.

3.7.2. Bisectrices e incentro de un triángulo


Para introducir el concepto de bisectriz asociada a cada vértice de un triángulo en
un plano afı́n euclidiano (A, h , i), y posteriormente definir el incentro del mismo como
el punto de corte de sus tres bisectrices, necesitamos alguna notación previa.

− →
Definición 3.65 Un espacio afı́n orientado es un espacio afı́n (A, A , − ) en el que

− →
− −

se ha fijado una orientación O en A . Se suele representar (A, A , O, ), o simple-
mente (A, O). Análogamente se define el concepto de espacio afı́n euclidiano orientado


(A, ( A , h , i), O, −

), que de forma simplificada se suele escribir (A, h , i, O).


Dados p ∈ A y v ∈ A \ {0} unitario (kvk = 1), el conjunto

Lp (v) := {p + λv : λ ≥ 0} ⊆ p + L({v})


es la semirrecta con origen p en la dirección de v. Fijada una orientación O en A y


tomados p ∈ A y u, v ∈ A \{0} unitarios, el ángulo orientado que forman las semirrectas
Lp (u), Lp (v) (en ese orden) se define como

]o Lp (u), Lp (v) := ]o (u, v).

− →

Proposición 3.66 Fijada una orientación O en A y dados vectores u, v ∈ A \ {0}


unitarios, existe un único vector unitario w ∈ A \ {0} tal que
1
]o (u, w) = ]o (w, v) = ]o (u, v).
2


Consideremos {w1 = u, w2 } base ortonormal positiva en ( A , h , i, O).
Demostración :
Recordemos que si ]o (u, v) = α, el número α es el único real en [0, 2π[ tal que

v = cos(α)w1 + sen(α)w2 .

Si definimos
w = cos(α/2)w1 + sen(α/2)w2 ,
claramente ]o (u, w) = α/2. La proposición se sigue de la identidad

]o (u, w) + ]o (w, v) = ]o (u, v) = α;

ver Propiedades 3.6.

113
Definición 3.67 Sean Lp (u1 ) y Lp (u2 ) dos semirrectas en el plano afı́n euclidiano
orientado (A, h , i, O) tales ]o (L1 , L2 ) ∈]0, π[. Por definición, la bisectriz que forman
Lp (u1 ) y Lp (u1 ) (en ese orden) es la semirrecta

bp,u1 ,u2 := Lp (w),




donde w ∈ A es el único vector unitario con ]o (u1 , w) = ]o (w, u2 ) = 21 ]o (u1 , u2 ) en
(A, h , i, O).

Observación 3.68 Es importante reparar en que el concepto de bisectriz sólo se ha


definido para semirrectas Lp (u1 ), Lp (u2 ) formando un ángulo orientado menor que un
llano (esto es, en ]0, π[) en (A, h , i, O), o equivalentemente, cuando la base ordenada


{u1 , u2 } es positiva en ( A , O).

La siguiente proposición identifica la bisectriz con el lugar de puntos equidistantes


a las semirrectas.

Proposición 3.69 Sean Lp (u1 ) y Lp (u2 ) dos semirrectas en el plano afı́n euclidiano
orientado (A, h , i, O) tales que ]o Lp (u1 ), Lp (u2 ) ∈]0, π[. Un punto q ∈ A, q 6= p,
pertenece a la bisectriz bp,u1 ,u2 si y sólo si se satisfacen las dos siguientes condiciones:


(i) {u1 , →

pq}, {→

pq, u2 } son bases positivas en ( A , O).
 
(ii) d q, p + L({u1 }) = d q, p + L({u2 }) > 0.

Demostración : Consideremos {w1 = u1 , w2 } base ortonormal positiva en (A, h , i, O).


Si llamamos ]o (u1 , u2 ) = α ∈]0, π[, sabemos que

u2 = cos(α)u1 + sen(α)w2 (sen(α) > 0) y



bp,u1 ,u2 = {p + µ cos(α/2)u1 + sen(α/2)w2 : µ ≥ 0}.
Tomemos un punto q ∈ bp,u1 ,u2 , esto es, de la forma

q = p + µ cos(α/2)u1 + sen(α/2)w2 , µ > 0.

Como las bases


{u1 , →

pq} = {u1 , cos(α/2)u1 + sen(α/2)w2 } y
{→

pq, u2 } = {cos(α/2)u1 + sen(α/2)w2 , u2 = cos(α)u1 + sen(α)w2 }
son positivas (inducen la misma orientación que {u1 , w2 }), se sigue (i).
De otro lado, si llamamos L1 = p + L({u1 }) es fácil ver que la proyección ortogonal
πL⊥1 (q) coincide con el punto

q1 := p + µ cos(α/2)u1 ∈ Lp (u1 ) ⊂ L1 .

En efecto, simplemente obsérvese que

− −−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→
q→ ⊥
1 q = (p + µ cos(α/2)u1 ) p + µ(cos(α/2)u1 + sen(α/2)w2 ) = µsen(α/2)w2 ∈ L({u1 }) .

Por tanto, de la Proposición 3.16

d(q, L1 ) = k−
q→
1 qk = kµsen(α/2)w2 k = µsen(α/2) > 0.

114
De forma similar, si llamamos L2 = p + L({u2 }) el punto
q2 = p + µ cos(α/2)u2 ∈ Lp (u2 ) ⊂ L2
coincide con πL⊥2 (q), toda vez que
− −−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→
q→
2 q = (p + µ cos(α/2)u2 ) p + µ(cos(α/2)u1 + sen(α/2)w2 ) =

= µ cos(α/2)u1 + sen(α/2)w2 − cos(α/2)u2 =

µ cos(α/2)(1 − cos(α))u1 + (sen(α/2) − cos(α/2)sen(α))w2 =
= µsen(α/2) sen(α)u1 − cos(α)w2 ∈ L({u2 })⊥ .


Por tanto
d(q, L2 ) = k−
q→

2 qk = kµsen(α/2) sen(α)u1 − cos(α)w2 k = µsen(α/2).

Esto demuestra que d(q, L1 ) = d(q, L2 ) = µsen(α/2) > 0, y por tanto (ii).

Observación 3.70 Repárese en que para todo punto q = p+µ cos(α/2)u1 +sen(α/2)w2 ∈
bp,u1 ,u2 (µ > 0) hemos probado que
πL⊥j (q) = p + µ cos(α/2)u1 ∈ Lp (uj ),
donde como antes Lj = p + L({uj }, j = 1, 2.
Para el recı́proco, supongamos ahora que q ∈ A, q 6= p, satisface (i) y (ii). Si
escribimos 
q = p + µ sen(β)u1 + cos(β)w2 ,
donde µ = d(p, q) y β ∈ [0, 2π[, es fácil ver que la condición (i) equivale a que β ∈]0, α[,
donde como antes α = ]o (u1 , u2 ).
Observemos que como d(q, L1 ) = d(q, L2 ) > 0 entonces q ∈ / L1 ∪ L2 . Como por
definición las rectas q + L({uj })⊥ y Lj se cortan la proyección ortogonal qj := πL⊥j (q),
j = 1, 2, siendo además
d(q, q1 ) = d(q, L1 ) = d(q, L2 ) = d(q, q2 ) > 0,
los conjuntos Tj = {p, q, qj }, j = 1, 2, definen sendos triángulos rectángulos. Al tener
T1 y T2 uno de sus catetos de igual longitud (a saber, el [q, q1 ] de T1 y el [q, q2 ] de T2 ) y
compartir la misma hipotenusa [p, q], el Teorema de Pitágoras implica que los catetos
[p, q1 ] ⊆ Lp (u1 ) de T1 y [p, q2 ] ⊆ Lp (u2 ) de T2 tienen también igual longitud. De aquı́
que la afinidad en h : A → A que lleva
p 7→ p, q 7→ q, q1 7→ q2
es una isometrı́a en (A, h , i) satisfaciendo h(T1 ) = T2 . Esto garantiza que T1 y T2
tengan los mismos ángulos en vértices correspondientes por h, y en particular, que
tengan el mismo ángulo en p (que claramente coincide con β). Nótese que por (i) las


orientaciones naturales de A utilizadas para calcular el ángulo β en el vértice p en


T1 y T2 coinciden con la orientación O fijada en A . Como consecuencia, la semirrecta
1 →−
L0 = Lp ( −

pq
pq) satisface ]o (Lp (u1 ), L0 ) = ]o (L0 , Lp (u2 )) = β. Usando Propiedades 3.6
finalmente obtenemos que
]o (Lp (u1 ), L0 ) + ]o (L0 , Lp (u2 )) = 2β = ]o (Lp (u1 ), Lp (u2 )) = α ∈]0, π[.
Esto implica β = 21 α y q = p+µ sen(β)u1 +cos(β)w2 ∈ bp,u1 ,u2 , concluyendo la prueba.


115


Definición 3.71 Sea {a, b, c} es un triángulo en (A, h , i), y fijemos en A la orienta-

− − →
− → − →

ción O inducida por { ab, →ac} (equivalente a { bc, ba} y {→

ca, cb}). Las bisectrices en los
vértices a, b y c se definen como

ba := ba, →

ab −

ac , bb := bb, →

bc


ba , bc := bc, −

ca


cb .
→ , −
− → − , −
→ → → , →
− −
kabk kack k bck kbak kcak k cbk

Proposición 3.72 Si {a, b, c} es un triángulo en (A, h , i), entonces entonces existe un


único punto I ∈ A tal que
I = ba ∩ bb ∩ bc .

Demostración : Como siempre denotemos por

b = ]o (→
A
− →
ab, − b = ]o (→
ac), B
− → − b = ]o (→
bc, ba), C − →

ca, cb) ∈]0, π[,

y llamemos O a la orientación en A inducida por cualquiera de las bases ordenadas



− − →
− → − →

{ ab, →
ac}, { bc, ba}, {→

ca, cb} (es la misma).
1 →−
Si consideramos { − → ab, w2 } base ordenada ortogonal y positiva en (A, h , i, O) y
kabk
escribimos
1 → − b 1 →
ac = cos(A)

ab + sen(A)w
b 2,


k ack →

k abk
tenemos que
1 → − 
ba := bLa (−
→ −

ab),La (ac)
= {a + µ cos(A/2)
b

− ab + sen( A/2)w
b 2 : µ ≥ 0}.
k abk

Como →
− →

!
1 → − sen(A/2)
b ab ac
cos(A/2)
b

− ab + sen( A/2)w
b 2 = − + →
→ −
k abk sen(A)
b k abk k abk

y sen (A/2)
b > 0, deducimos que
b
sen(A)
1 → − 1 → −
ba = {a + µ ac + − ab : µ ≥ 0}.
k→

ack →
k abk

1 →− 1 → −
Análogamente bc = {c + µ k− →
cak
ca + −
→ cb : µ ≥ 0}.
k cbk
No es difı́cil ver que las semirrectas ba y bc se cortan en un único punto, esto es, el
punto de corte de las rectas que contienen a ba y bc está en ba ∩ bc . Una forma sencilla
de comprobarlo es considerar la única afinidad F : A → R2 determinada por

F (a) = (−1, 0), F (c) = (1, 0), F (b) = (−1, 2)

y darse cuenta de que las semirrectas F (ba ) y F (ba ) de R2 son secantes dentro del
semiplano {(x, y) ∈ R2 : y ≥ 0}; de ahı́ lo deseado. Por el mismo razonamiento ba ∩
bb , bb ∩ bc 6= ∅.
Llamemos I al punto de corte ba ∩ bc .
Como I ∈ ba , de la Proposición 3.69

− − → − → − →

{ ab, aI}, {aI, →
ac} son bases positivas en ( A , O) y

− 
d I, a + L({ ab}) = d I, a + L({→ − 
ac}) .

116
Análogamente, como I ∈ bc entonces

− − →
→ − →

{→

ca, cI }, { cI , cb} son bases positivas en ( A , O) y

− 
d I, c + L({→ − 
ca}) = d I, c + L({ cb}) .

− →
− →

Usando que c + L({→ −
ca}) = a + L({→ −
ac}), a + L({ ab}) = b + L({ ba}) y c + L({ cb}) =


b + L({ bc}), deducimos de lo anterior que

−  →
− 
d I, b + L({ ba}) = d I, b + L({ bc}) .

Además, la base

− → − →
− → − → −
{ bc, bI } = {− cb, − cb + cI }
− →
→ − →

induce la misma orientación que { cI , cb}, luego es positiva en ( A , O), y lo mismo ocurre

− → −
con { bI , ba}. Por la Proposición 3.69 concluimos que I ∈ bb , esto es, I ∈ ba ∩ bb ∩ bc .
Esto concluye la demostración.

Definición 3.73 (Incentro) Al punto I ∈ A intersección de las tres bisectrices de un


triángulo {a, b, c} en un plano afı́n euclı́deo (A, h , i) se le llama incentro de {a, b, c}.

Démonos cuenta de que la distancia desde el incentro a los tres lados de un triángulo
{a, b, c} es constante, y esta constante define el radio de la circunferencia inscrita en el
triángulo (con centro el incentro). Para ello téngase e cuenta que, por la Observación


3.70, la proyeción ortogonal del incentro sobre la recta a + L({ ab}) está contenida en
[a, b], e igual con los otros lados. Compárese esta propiedad geométrica con la que define
al circuncentro.

3.7.3. El Teorema de Tales


Concluiremos el tema de espacios afı́nes euclidianos demostrando el Teorema de
Tales (siglo VII A.C.). Nuestro enunciado será con un lenguaje más moderno.
Teorema de Tales: Sea (A, h , i) un espacio afı́n euclidiano de dimensión ≥ 2.
Sean Π1 , Π2 y Π3 tres hiperplanos en A paralelos y distintos dos a dos. Sean R y S dos
rectas distintas en A no paralelas a los hiperplanos, y llamemos ri = Πi ∩R, si = Πi ∩S,
i = 1, 2, 3, a los correspondientes puntos de corte. Entonces

d(s1 , s2 ) d(r1 , r2 )
= .
d(s1 , s3 ) d(r1 , r3 )

Demostración : Llamemos π : A → S ⊆ A a la proyección afı́n sobre S en la dirección


~ ~
Π := Πi , i = 1, 2, 3 (no depende de i porque son paralelos). Por la definición de esta
proyección afı́n,

π(ri ) = S ∩ (ri + ~π ) = S ∩ Πi = si , i = 1, 2, 3.

Como r1 , r2 y r3 están alineados, existe λ ∈ R único y no nulo tal que − r−→ −−→
1 r3 = λr1 r2 , y
por tanto
d(r1 , r3 ) = k−
r−→ −−→
1 r3 k = |λ|kr1 r2 k = |λ|d(r1 , r2 ).

117
Como π es afin
−−−−−−−→ −−→ −−−−−−−→ −−→
~π (−
r−→
1 r3 ) = π(r1 )π(r3 ) = s1 s3 y ~π (−
r−→
1 r2 ) = π(r1 )π(r2 ) = s1 s2 ,

de donde al ser ~π (−
r−→
1 r3 ) = λ~π (−r−→ −−→ −−→
1 r2 ) inferimos que s1 s3 = λs1 s2 .
Ası́
d(s1 , s3 ) = k− s−→ −−→
1 s3 k = |λ|ks1 s2 k = |λ|d(s1 , s2 ),

por lo que
1 d(s1 , s2 ) d(r1 , r2 )
= = .
|λ| d(s1 , s3 ) d(r1 , r3 )
Esto concluye el teorema.

Ejercicio 3.74 Si abc y a0 b0 c0 son triángulos en el plano euclidiano R2 , la condición


necesaria y suficiente para que exista una semejanza h : R2 → R2 satisfaciendo h(a) =
a0 , h(b) = b0 , h(c) = c0 es que

d(a, b) d(a, c) d(b, c)


0 0
= 0 0
= .
d(a , b ) d(a , c ) d(b0 , c0 )

Solución : Si existiese una semejanza h : A → A de razón r > 0 tal que h(a) = a0 , h(b) =
b0 , h(c) = c0 , entonces d(a0 , b0 ) = d h(a), h(b) = rd(a, b), y análogamente d(a0 , c0 ) =


rd(a, c), d(b0 , c0 ) = rd(b, c). Por tanto las identidades

d(a, b) d(a, c) d(b, c)


0 0
= 0 0
=
d(a , b ) d(a , c ) d(b0 , c0 )
son triviales.
Para el recı́proco consideremos triángulos abc y a0 b0 c0 tales que
d(a, b) d(a, c) d(b, c)
0 0
= 0 0
= .
d(a , b ) d(a , c ) d(b0 , c0 )
Tras con un conveniente movimiento rı́gido podemos suponer que:

→ →

(i) a = a0 y ab0 = r ab para algún r > 0, y

118

− − − −
→ → →
− − −
→ − →
(ii) { ab, →
ac} y { ab, ac0 } (ó { ab, →
ac} y {ab0 , ac0 }) son bases positivas de R2 .

Llamemos h : A → A a la homotecia de centro a y razón r. Como las semejanzas son


el resultado de componer movimientos rı́gidos y homotecias (da igual el orden) y de (i)
las identidades h(a) = a0 , h(b) = b0 son triviales, bastará con probar que h(c) = c0 .
Observemos que de nuestras hipótesis


1 k→

ack k bck
= −→ = −→ .
r kac0 k k b0 c 0 k

Un cálculo directo nos da que


−→ −
→ − → −
→ −
→ −
→ − → →
− −
→ − →
kb0 c0 k2 = kb0 a + ac0 k2 = kb0 ak2 + kac0 k2 + 2hb0 a, ac0 i = r2 k bak2 + r2 k→

ack2 + 2hb0 a, ac0 i.

Como también
−→ →
− →
− − 2 →
− →
− − 
ack = r2 k bak2 + k→
kb0 c0 k2 = r2 k bck2 = r2 k ba + → −
ack2 + 2h ba, →
aci ,

− − −
→ − → −
→ →

deducimos que r2 h ba, → aci = hb0 a, ac0 i, de donde teniendo en cuenta que ab0 = r ab nos

− − − −
→ →
queda r2 h ba, →
aci = rh ba, ac0 i, esto es,
− −
→ → →
− −
h ba, ac0 i = h ba, r→
aci.

Concluimos en resumen que:



→ −

r→

ac, ac0 son dos vectores del mismo módulo; usar que kac0 k = rk→

ack.
− −
→ → →
− −
h ab, ac0 i = h ab, r→
aci.

− − − −
→ →
{ ab, r→
ac} y { ab, ac0 } son bases positivas de R2 .

Por tanto los ángulos orientados



− − − −
→ →
]o ( ab, r→
ac) = ]o ( ab, ac0 )


y ac0 = r→

ac, esto es, h(c) = c0 como querı́amos demostrar.

119
Ejercicios del Tema 2
1. Sea A un espacio afı́n euclı́deo y p, q ∈ A. Recordemos que el punto medio entre
p y q se definı́a como mpq = p + (1/2) →−
pq. Demostrar que d(p, mpq ) = d(q, mpq ).

2. (Hiperplano afı́n de puntos equidistantes). Dados tres puntos p, q, r ∈ Rn , demos-


trar que se cumple la igualdad

d(p, r)2 − d(q, r)2 = 2 < −−→, →


rm −
pq qp >,

donde mpq es el punto medio entre p y q. Utilizar esta igualdad para probar lo
siguiente: si p 6= q, entonces el conjunto de los puntos de Rn que se encuentran a
la misma distancia de p y de q coincide con el hiperplano afı́n mpq + L(→−
pq)⊥ .

3. Calcular las proyecciones y las simetrı́as ortogonales de R2 con respecto de los


ejes coordenados.

4. Calcular, según el valor del parámetro a ∈ R, la distancia del punto p = (1, 1, 1)


de R3 a la recta afı́n S de ecuaciones x − y − z = 0 y x − y + z = a.

5. En R3 , calcular, según los valores de a, b ∈ R, la distancia entre la recta afı́n S de


ecuaciones x + y = 0 y x − y + z = 1, y la recta afı́n S 0 de ecuaciones x + y = a y
x − y + bz = 1.

6. Dados los siguientes pares de rectas estudia su posición relativa. Si se cortan


determina el ángulo que forma, y en caso contrario calcula la distancia entre ellas.

a) R = {(x, y) ∈ R2 : x = y}, S = {(x, y) ∈ R2 : 2x = y}.


b) R = {(x, y) ∈ R2 : x = y + 1}, S = {(2λ, 1 + 2λ) ∈ λ ∈ R}.

7. Consideremos el espacio vectorial P2 (R) de los polinomios de grado ≤ 2 con


coeficientes reales, dotado de su estructura afı́n canónica. Introduzcamos en el
espacio vectorial P2 (R) la métrica euclidiana
Z 1
hp(x), q(x)i = p(x)q(x)dx
0

y convirtamos al espacio afı́n P2 (R) en euclı́deo. Comprueba que las rectas

S = {p(x) ∈ P2 (R) : p(0) = 5, p00 (8) = 4}, T = {p(x) ∈ P2 (R) : p0 (0) = 0, p0 (1) = 4}

se cortan en un punto y calcula el ángulo que forman.

8. Una aplicación afı́n f : (A, h , i) → (A0 , h , i0 ) entre espacios afines euclidianos se


dice que preserva la ortogonalidad si para cualesquiera rectas secantes R, S en
(A, h , i),
R⊥S =⇒ f (R)⊥f (S).
Probar que si f : (A, h , i) → (A0 , h , i0 ) es una aplicación afı́n biyectiva, entonces
f es una semejanza si y sólo si f preserva la ortogonalidad.

120
9. Encuentra si existe un movimiento rı́gido de R2 que lleve la recta {(x, y) ∈ R2 : x =
0} en la recta {(x, y) ∈ R2 : y = 1} y la recta {(x, y) ∈ R2 : y = 0} en la recta
{(x, y) ∈ R2 : x = 1}.

10. Sean f1 , f2 las simetrı́as ortogonales en el plano euclidiano R2 respecto de las rectas
R1 = {(x, y) ∈ R2 : x − y = 2} y R2 = {(x, y) ∈ R2 : x − 2y = 1}, repectivamente.
Calcula f1 ◦ f2 y descrı́bela.

11. En R4 calcular, según los valores de a ∈ R, la distancia entre S = (0, 1, 1, 0) +


L((a, 0, 1, 1)) y el plano afı́n de ecuaciones x + y + z + t = 1 y x − y = 0.

12. Demostrar que si A es un espacio afı́n euclı́deo de dimensión n, entonces existe


un movimiento rı́gido f : A → Rn .

13. Demostrar que todo movimiento rı́gido de una recta afı́n en sı́ misma es una
traslación o una simetrı́a central.

14. Sea f : A → A un movimiento rı́gido. Dadas dos rectas afines S y S 0 en A,


demostrar que f (S) y f (S 0 ) son dos rectas afines en A que determinan el mismo
ángulo que S y S 0 .

15. Sea f : R2 → R2 la aplicación afı́n tal que:

f (−1, −1) = (0, 0), f (−1, −2) = (1, 0), f (0, −1) = (0, 1).

Demostrar que f es un movimiento rı́gido y clasificarlo.

16. Demostrar que si p y q son dos puntos de un espacio afı́n euclı́deo A, entonces
siempre existe un movimiento rı́gido f : A → A tal que f (p) = q. De forma más
general, probar que si A tiene dimensión finita y S, S 0 son dos subespacios afines
de A con dimensión m, entonces existe un movimiento rı́gido f : A → A tal que
f (S) = S 0 .

17. Construir un movimiento rı́gido de R2 que transforme la recta afı́n S de ecuación


x + y = 2 en la recta afı́n S 0 = (1, −1) + L((1, 1)). Clasificar el movimiento
obtenido.

18. Sean σ1 y σ2 las simetrı́as en R2 respecto de las rectas afines x+y = 0 y x+2y = 2,
respectivamente. Calcular de forma explı́cita el movimiento rı́gido f = σ1 ◦ σ2 en
coordenadas usuales. Clasificarlo.

19. ¿Son movimientos rı́gidos las aplicaciones f : R2 → R2 definidas por:

f (x, y) = (y − 2, x + 1) y g(x, y) = (2y − 1, −2x + 3)?

Si alguna de ellas lo es, clasificarlo.

20. Calcular en coordenadas usuales de R2 los siguientes movimientos:

a) El giro de centro el punto o = (1, 2) y ángulo orientado θ = 2π/3 respecto


de la orientación usual.

121
b) La simetrı́a ortogonal deslizante respecto de la recta afı́n x−y = 1 con vector
de deslizamiento u = (1, 1).

21. Se considera la aplicación afı́n f : R2 → R2 cuya expresión matricial con respecto


a R0 es:     
−3/5 −4/5 x 3
f (x, y) = + .
−4/5 3/5 y 1

a) Demostrar que f es una simetrı́a deslizante.


b) Calcular la recta afı́n de simetrı́a y el vector de traslación.

22. Demostrar que la composición de dos simetrı́as ortogonales en R2 es un giro, una


traslación o la identidad. ¿De qué depende que se obtenga un giro, una traslación
o la identidad?

23. Calcular las proyecciones y las simetrı́as de R3 con respecto a los ejes coordenados
y a los planos coordenados.

24. Sean σ1 y σ2 las simetrı́as en R3 respecto de los planos afines x+y = 1 y x−z = 2,
respectivamente. Calcula de forma explı́cita el movimiento rı́gido f = σ1 ◦ σ2 en
coordenadas usuales. Clasifı́calo.

25. Demuestra que las siguientes aplicaciones afines son movimientos rı́gidos del plano
afı́n euclı́deo R2 y clasifı́calas:

a) f (x, y) = (3 − 3x/5 + 4y/5, 1 − 4x/5 − 3y/5).


√ √
b) f (x, y) = (x/2 − 3y/2 + 1, 3x/2 + y/2 + 2).
√ √
c) f (x, y) = (−x/2 + 3y/2 + 1, 3x/2 + y/2 − 1).
d ) f (x, y) = (3x/5 + 4y/5 + 2, 4x/5 − 3y/5 + 5).

26. Calcular en coordenadas usuales de R3 los siguientes movimientos:

a) el movimiento helicoidal de eje S = (1, 2, 1) + L((1, 0, −1)) y ángulo π/2 con


vector de traslación v = (−3, 0, 3).
b) la simetrı́a deslizante respecto del plano afı́n x + y + z = 1 con vector de
traslación v = (1, −1, 0).
c) la composición de la rotación de eje S = (1, 2, 0) + L((0, 1, 0)) y ángulo π/2
con la simetrı́a respecto del plano afı́n y = −1.

27. Se consideran las aplicaciones afines f, g : R3 → R3 dadas por:


1
f (x, y, z) = (2x + 2y + z + 2, x − 2y + 2z − 2, 2x − y − 2z − 4),
3
1
g(x, y, z) = (2x + 2y + z + 3, −2x + y + 2z, −x + 2y − 2z − 3).
3
Demostrar que son movimientos rı́gidos de R3 y clasificarlos.

122
28. Demuestra que las siguientes aplicaciones afines son movimientos rı́gidos del es-
pacio afı́n euclı́deo R3 y clasifı́calas:

a) f (x, y, z) = (2 + y, x, 1 + z).
√ √ √ √
1+ 3
+ x−2 3y , 1−2 3 + 3x+y

b) f (x, y, z) = 2 2
, z + 1 .
√ √
c) f (x, y, z) = (x/2 + 3z/2 + 1, y, − 3x/2 + z/2 − 1).
√ √
d ) f (x, y, z) = (x/2 − 3z/2 + 2, y + 2, − 3x/2 − z/2 + 2).
e) f (x, y, z) = (−4x/5 + 3z/5 + 3, y, 3x/5 + 4z/5 − 1).
f ) f (x, y, z) = (−4x/5 + 3z/5 + 3, y + 4, 3x/5 + 4z/5 − 1).
√ √ √ √ √
g) f (x, y, z) = (2y/ 5 + z/ 5, 5x/3 − 2y/(3 5) + 4z/(3 5), −2x/3 − y/3 +
2z/3).
√ √ √ √ √
h) f (x, y, z) = ( 5x/3 − 2y/(3 5) + 4z/(3 5), 2y/ 5 + z/ 5, −2x/3 − y/3 +
2z/3).
i ) f (x, yz) = (1 + 2x/3 − 2y/3 + z/3, x/3 + 2y/3 + 2z/3, 1 + 2x/3 + y/3 − 2z/3).

29. Se considera la aplicación afı́n f : R3 → R3 cuya expresión matricial con respecto


a Ru es:     
0 1 0 x 2
f (x, y, z) =  1 0 0   y  +  0 .
0 0 1 z 1

a) Demostrar que f es una simetrı́a ortogonal deslizante.


b) Calcular el plano afı́n de simetrı́a y el vector de traslación.

30. Se considera la aplicación afı́n f : R3 → R3 cuya expresión matricialcon respecto


a Ru es:
 √    √ 
√1/2 − 3/2 0 x (1 − √3)/2
f (x, y, z) =  3/2 1/2 0   y  +  −(1 + 3)/2  .
0 0 1 z 1

a) Demostrar que f es un movimiento helicoidal.


b) Calcular el eje, el ángulo y el vector de traslación.

31. Para cada α ∈ R se considera el movimiento rı́gido de R3 dado por:


1
fα (x, y, z) = (−x + 2y + 2z + 2, 2x + 2y − z − 1, 2x − y + 2z − α).
3
Clasificar, según los valores de α, qué tipo de movimiento es fα , calculando en
cada caso el conjunto de puntos fijos.

32. Discutir de forma razonada si las siguientes afirmaciones son verdaderas o falsas:

a) Dados dos puntos p, q ∈ R3 con p 6= q, existe un único plano afı́n S tal que
σS (p) = q.
b) En R3 , la composición de una simetrı́a ortogonal y una traslación siempre es
una simetrı́a ortogonal o una simetrı́a ortogonal deslizante.

123
c) La composición de dos rotaciones en R3 nunca puede tener un único punto
fijo.

33. Decide de forma razonada qué tipo de movimiento rı́gido es:

a) La composición de dos simetrı́as ortogonales en el plano euclı́deo R2 .


b) La composición de dos simetrı́as ortogonales con deslizamiento en el plano
euclı́deo R2 .
c) La composición de un giro y una simetrı́a en el plano euclı́deo R2 .
d ) La composición de un giro y una simetrı́a con deslizamiento en el plano
euclı́deo R2 .
e) La composición de dos simetrı́as ortogonales en el espacio euclı́deo R3 .
f ) La composición de un giro y una simetrı́a en el espacio euclı́deo R3 .
g) La composición de un giro y una traslación en el espacio euclı́deo R3 .
h) La composición de dos simetrı́as centrales en el espacio euclı́deo R3 .

34. Sea f : (A, h , i) → (A0 , h , i) una aplicación afı́n entre espacios afines euclı́deos, y
sea R = {p0 , p1 , . . . , pn } un sistema de referencia rectangular en (A, h , i). Demos-
trar que f es una isometrı́a si y sólo si f (R) = {f (p0 ), f (p1 ), . . . , f (pn )} es un
sistema de referencia rectangular en (A0 , h , i).

35. Consideremos un triángulo {a, b, c} en un plano afı́n euclı́deo (A, h , i). Definimos
el ángulo exterior en el vértice a como el suplementario del interior en a

− − b = π − ]o (→
− →
]e ( ab, →
ac) = π − A ab, −
ac),

y análogamente para los otros dos vértices. Prueba que cada ángulo exterior es
estrictamente mayor que los dos ángulos internos no adyacentes.

36. Prueba que en un triángulo isósceles (esto es, con dos lados de igual longitud) en
un plano afı́n euclı́deo la recta de Euler contiene al incentro.

37. Encuentra un triángulo en el plano afı́n euclidiano R2 en el que la recta de Euler


no contenga al incentro.

124
TEMA 3: Hipercuádricas Afines
La geometrı́a griega se fundamentó en el uso de la regla y el compás, esto es, se
centró esencialmente en aquellas construcciones basadas en la recta y el cı́rculo. Las
cónicas son objetos naturales desde este punto de vista, ya que se generan cortando
el cono (superficie de revolución basada en la recta y la circunferencia) con planos.
El trasfondo analı́tico en este contexto son las ecuaciones lineales y cuadráticas. Con
esto queremos decir que los griegos resolvieron mediante la geometrı́a axiomática o
sintética euclidiana problemas que, con una formulación moderna o cartesiana, son
modelados a través de las ecuaciones de segundo grado. Apolonio de Perga (Perga,
c. 262 - Alejandrı́a, c. 190 a. C.), geómetra y astrónomo griego, recopiló en su obra
Sobre las secciones cónicas todo el conocimiento clásico sobre este tipo de objetos,
ofreciendo una descripción geométrica tan precisa de los mismos que ha llegado a ser
considerado un precursor de la geometrı́a cartesiana. A él debemos la solución completa
de la ecuación general de segundo grado por medio de la geometrı́a, y la introducción
de la nomenclatura clásica de elipse, parábola e hipérbola para las distintas cónicas.

Figura 19: Apolonio de Perga

En esta sección vamos a presentar el tratamiento moderno de las hipercuádricas en


espacios afines. Formalmente, las hipercuádricas se asociarán con los ceros de los poli-
nomios de grado dos en varias variables, y nuestro objetivo fundamental en su estudio
será su clasificación. Para ello tendremos que profundizar en aquellas herramientas del
álgebra lineal relacionadas con procesos de diagonalización de matrices. Fundamental-
mente, probaremos que toda matrı́z simétrica puede ser diagonalizada por congruencia
a través de matrices del grupo afı́n.

4. DIAGONALIZACIÓN DE MATRICES
Comenzaremos repasando la teorı́a clásica de diagonalización matrices y fijaremos
alguna notación.
En lo que sigue denotaremos por Mn (R) al espacio de las matrices cuadradas reales
de orden n.

Definición 4.1 Una matriz D = (di,j )i,j=1,...,n ∈ Mn (R) (espacio de las matrices cua-
dradas de orden n) se dice diagonal si di,j = 0, i 6= j. Si a1 , . . . , ak ∈ R (k ≤ n) son
números reales distintos y n1 , . . . , nk ∈ N son enteros positivos tales que ki=1 ni = n,
P

125
(n ) (nk ) 
denotaremos por D a1 1 , . . . , ak a la matriz diagonal (di,j )i,j=1,...,n con entradas or-
denadas en la diagonal
n n n

(d1,1 , . . . , dn,n ) = (a1 , . .1., a1 ), . . . , (ai , . .i ., ai ), . . . , (ak , . .k., ak ) ,

esto es,  
a1 I n 1 · · · 0
D a1 1 , . . . , ak k =  ... .. .. 
(n ) (n )  
. . 
0 · · · ak Ink

Definición 4.2 Dada una matriz C ∈ Mn (R) cuadrada de orden n, un número a ∈ R


se dice un valor propio de C si existe y = (y1 , . . . , yn )t ∈ Rn \ {0} tal que C · y = ay.
A tal vector y ∈ Rn \ {0} se le denominará vector propio del valor propio a. Si a es un
valor propio de C, al subespacio vectorial de Rn

Va = {y ∈ Rn : C · y = a · y}

se le llamará subespacio propio de a.

Los valores propios de C coinciden son las raı́ces reales del polinomio caracterı́stico

pC (x) = det C − x · In

de C. La multiplicidad algebraica de un valor propio a de C es, por definición, la multi-


plicidad ma ≥ 1 de a como raiz de pC (x). Asimismo, el entero dim Va ≥ 1 es conocido
como la multiplicidad geométrica de a. No es difı́cil ver que dim Va ≤ ma para todo
valor propio a de C.
Definición 4.3 (Semejanza de matrices) Dos matrices C1 y C2 se dicen semejantes
si existe Q ∈ GL(n, R) tal que Q−1 C1 Q = C2 . La relación binaria de semejanza en
Mn (R) es de equivalencia. Una matriz C ∈ Mn (R) se dice diagonalizable por semejanza
si existe Q ∈ Gl(n, R) tal que Q−1 CQ es diagonal.
No es difı́cil probar que:

Teorema 4.4 Una matriz C ∈ Mn (R) es diagonalizable por semejanza si y solo si


k
X
dim Vai = n,
i=1

donde a1 , . . . , ak son sus valores propios. De forma equivalente, C ∈ Mn (R) es diago-


nalizable por semejanza si y solo si si pC (x) descompone en R y ma = dim Va para todo
valor propio a de C.

Como consecuencia del Teorema 4.4, dos matrices C1 y C2 diagonalizables son seme-
jantes si y solo si tienen los mismos valores propios con las mismas multiplicidades.
El procedimiento estándar para la diagonalización por semejanza de una matriz
C ∈ Mn (R) es el siguiente. Resolviendo la ecuación pC (x) = 0 se calculan los distintos
valores propios a1 , . . . , ak de C, y para cada ai se determina una base Bi = {ui1 , . . . , uini }
del subespacio propio Vai , donde hemos escrito ni = dim Vai . Finalmente se forma la
matriz Q ∈ GL(n, R) que distribuye por columnas los vectores de la base ordenada

B = B1 ∪ . . . ∪ Bk = {u11 . . . , u1n1 , . . . , uk1 , . . . , ukni }

126
(n1 ) (nk ) 
de Rn , en la que claramente Q−1 CQ = D a1 , . . . , ak .
En lo que sigue denotemos por
Sn (R) = {C ∈ Mn (R) : C = C t }
al espacio de las matrices simétricas. El siguiente teorema recuerda que toda matriz
simétrica es diagonalizable por semejanza, siendo sus subespacios propios mutuamente
ortogonales en el espacio vectorial euclı́deo (Rn , h , i), donde h , i es el producto escalar
clásico
hx, yi = x · y t , x, y ∈ Rn .
Teorema 4.5 Si C ∈ Sn (R) es una matriz simétrica real de orden n, los siguientes
enunciados son ciertos:
C tiene al menos un valor propio real.
Si a ∈ R es valor propio de C y Va⊥ ⊆ Rn es el subespacio ortogonal a Va en
(Rn , h , i) entonces C · v ∈ Va⊥ para todo v ∈ Va⊥ .
Si a1 , a2 ∈ R son valores propios de C distintos entonces Va1 ⊥Va2 en (Rn , h , i).
C es diagonalizable por semejanza.
Dos matrices simétricas C1 , C2 ∈ Sn (R) se dicen ortogonalmente equivalentes si
existe P ∈ O(n, R) tal que C2 = P t · C1 · P . Como consecuencia de lo anterior es posible
la diagonalización ortogonal de cualquier matriz simétrica en los términos que recoge
el siguiente teorema.
Teorema 4.6 (Diagonalización ortogonal) Toda matriz C ∈ Sn (R) es ortogonal-
mente equivalente a una matriz diagonal, esto es, existe una matriz P ∈ O(n, R) tal
que
(n ) (n ) 
P t · C · P = D a1 1 , . . . , ak k ,
donde a1 , . . . , ak son los valores propios de C y n1 , . . . , nk sus correspondientes multi-
plicidades (geométricas o algebraicas, coinciden).
Del Teorema 4.6 se concluye que dos matrices simétricas son ortogonalmente equiva-
lentes si y sólo si tienen el mismo polinomio caracterı́stico, o equivalentemente, tienen
los mismos valores propios con las mismas multiplicidades.
El procedimiento para realizar la diagonalización ortogonal C ∈ Sn (R) es el si-
guiente. Por el Teorema 4.5 la matriz C es diagonalizable por semejanza. Por el Teo-
rema 4.4, el polinomio pC (x) descompone sobre R y podemos calcular sus distin-
tas raı́ces a1 , . . . , ak ∈ R (valores propios de C). Para cada ai buscamos una base
Bai = {ui1 , . . . , uini } de Vai (escribimos ni = dim Vai ), a la que sometemos al proce-
dimiento de ortonormalización de Gram-Schmidt para el producto escalar h , i de Rn ,
hasta generar una base ortonormal
Ba0 i = {v1i , . . . , vni i }
de (Vai , h , i). Como
B 0 = Ba0 1 ∪ . . . ∪ Ba0 k
es una base ortonormal de (Rn , h , i), entonces la matriz ortogonal P ∈ O(n, R) que
distribuye ordenadamente por columnas los vectores de B 0 satisface
(n ) (n ) 
P t · C · P = D a1 1 , . . . , a k k .
Para acabar este repaso de conceptos recordaremos la diagonalización por congruen-
cia, la más natural para el espacio de las matrices simétricas.

127
Definición 4.7 (Congruencia de matrices) Dos matrices C1 y C2 se dicen con-
gruentes si existe Q ∈ GL(n, R) tal que Qt C1 Q = C2 . La relación binaria de con-
gruencia en Mn (R) es de equivalencia. Una matriz C ∈ Mn (R) se dice diagonalizable
por congruencia si existe Q ∈ GL(n, R) tal que Qt CQ es diagonal.

Teorema 4.8 (Sylvester) Para toda C ∈ Sn (R) existe Q ∈ GL(n, R) tal que

Qt · C · Q = D 1(t) , (−1)(s) , 0(c) ,




donde c, s, t ∈ N ∪ {0} y c + s + t = n (si alguno de esos enteros es nulo su vapor propio


asociado no interviene en la matriz diagonal). Además:
0 0 0 
Si D 1(t) , (−1)(s) , 0(c) y D 1(t ) , (−1)(s ) , 0(c ) son congruentes entonces c = c0 , s =


s0 , t = t0 . Por tanto, los números c, s, t de arriba son únicos y C es congruente a


una única matriz diagonal con entradas 1, −1 y 0 ordenadas en la diagonal.
En particular rang(C) = s + t.

Los números t y s de la forma de Sylvester de una matriz simétrica C coinciden


con el número de raı́ces + y − de su polinomio caracterı́stico pC (x), respectiva-
mente, y el número c con la multiplicidad de 0 como raı́z de pC (x).

Definición 4.9 Si C ∈ Sn (R), la única matriz de la forma D 1(t) , (−1)(s) , 0(c) con-
gruente con C se la llama matriz o forma de Sylvester de C.

Como consecuencia del Teorema 4.8, dos matrices C1 y C2 son congruentes si y solo
si tienen la misma forma de Sylvester.
Si C ∈ Sn (R), un procedimiento para realizar la diagonalización por congruencia
que nos lleve a su forma de Sylvester es el siguiente. Como explicábamos arriba en el
proceso de diagonalización ortogonal de C, primero generamos bases ortonormales

Ba0 i = {v1i , . . . , vni i }

de (Vai , h , i) para cada i = 1, . . . , k. Si ai 6= 0, normalizamos cada vji de Ba0 i multipli-


cando por el número real √1 , formando la nueva base
|ai |

1 1
Ba00i = { p v1i , . . . p vni i }
|ai | |ai |

de Vai . Si 0 es uno de los valores propios de C el último paso para pasar de la base B00
a la base B000 en V0 carece de sentido, y escribimos B000 = B00 .
Finalmente se construye la matriz Q que distribuye por columnas de forma ordenada
los vectores de la base ordenada

B 00 = Ba001 ∪ . . . ∪ Ba00k

de Rn . Por construcción B 00 es una base ortogonal de (Rn , h , i) (ya que B 0 = Ba0 1 ∪ . . . ∪


Ba0 k es ortonormal) y
Qt · C · Q = D 1(t) , (−1)(s) , 0(c) ,


si previamente hemos tenido la precaución de ordenar la lista de autovalores a1 , . . . , ak


de forma que aparezcan primero los positivos, después los negativos, y por último el 0.

128
4.1. Hipercuádricas afines

− →
En lo que sigue (A, A , − ) será un espacio afı́n con dim A = n.
Definición 4.10 Una hipercuádrica H en el espacio afı́n A es una ecuación de la forma
 
t b · 1 = 0,

1, pR · C (4)
pR
en la que:
pR indica coordenadas de puntos p ∈ A en una referencia R (notación columna).
t
 
a z
C
b= es una matriz de Sn+1 (R) donde a ∈ R, z ∈ Rn , y C ∈ Sn (R)\{0}.
z C
Si no hay ambigüedad se suele identificar la hipercuádrica H con el conjunto de solu-
ciones de la ecuación que la define (o lugar de puntos asociado):
 
t b · 1 = 0.

{p ∈ A : 1, pR · C
pR
b en R,
Con el lenguaje de la Definición 4.10, se dice que H está asociada a la matriz C
que Ĉ define a la hipercuádrica H en R, o simplemente que Ĉ es la matriz de H en R.
También diremos que C es la matriz del núcleo cuadrático asociado a Ĉ.
Como no hay alteración del lugar de puntos asociado (ver (4)), vamos a convenir
que H también está definida en coordenadas en R por las matrices λĈ, λ ∈ R \ {0}.
Desarrollando (4), un cálculo elemental nos dice H se corresponde con la ecuación
cuadrática
ptR · C · pR + 2hz, pR i + a = 0,
que escribiendo pR = (x1 , . . . , xn )t , z = (z1 , . . . , zn )t y C = (ci,j )i,j=1,...,n , queda
n
X n
X
ci,j xi xj + 2 zi xi + a = 0. (5)
i,j=1 i=1

Por tanto H equivale, en coordenadas ptR = (x1 , . . . , xn ) en R, con la ecuación de


los ceros del polinomio cuadrático
n
X n
X
PĈ (x1 , . . . , xn ) = ci,j xi xj + 2 zi xi + a (6)
i,j=1 i=1

naturalmente definido por la matriz simétrica Ĉ. Obsérvese que PC como polinomio en
las n variables x1 , . . . , xn es de grado dos ya que C 6= 0 (por este motivo hemos llamado
a C núcleo cuadrático de Ĉ).
La nemotécnia
n n
a zt
X X  
ci,j xi xj + 2 zi xi + a ↔ .
z C
i,j=1 i=1

justifica que todo polinomio cuadrático P (x1 , . . . , xn ) está asociado a una única matriz
simétrica Ĉ ∈ Sn+1 (R), y nos permite intercambiar los lenguajes polinomial y matricial
a conveniencia en la presentación analı́tica de la ecuación que define una hipercuádrica
en un sistema de referencia de A. Naturalmente, al igual que ocurrı́a con las matrices,
convendremos que polinomios proporcionales definen en coordenadas en un sistema de
referencia la misma hipercuádrica.

129
Notación 4.11 En lo que sigue escribiremos MR (H) para referir a la matriz de H
en R, que se entenderá unı́vocamente determinada salvo multiplicación por escalares
λ ∈ R \ {0}. Análogamente denotaremos por NR (H) el núcleo cuadrático de MR (H),
que también estará determinado salvo el mismo factor de proporcionalidad de MR (H).
Con esta nomenclatura
zt
 
a
MR (H) = .
z NR (H)

4.1.1. Cambio de sistema de referencia e hipercuádricas


Es natural preguntarse la influencia de los sistemas de referencia R de A en la
definición de las hipercuádricas. Comprobemos que una hipercuádrica H en cualquier
otro sistema de referencia R0 se expresa a partir de una ecuación matricial como la de
(4), o equivalentemente, se corresponde con la ecuación que define el conjunto de ceros
de otro polinomio cuadrático como el de (5).
Consideremos sistemas de referencia R, R0 en A, y escribamos el cambio de sistema
de referencia de R0 a R
   
1 0 1
= M (IdA , R , R) · .
pR pR0

Si H es una hipercuádrica en A, en la referencia R se escribe


 
t 1
(1, pR ) · MR (H) · = 0,
pR
   
1 0 1
y sustituyendo por la expresión M (IdA , R , R) · queda
pR pR 0
 
t
 0 t 0 1
1, pR0 · M (IdA , R , R) · MR (H) · M (IdA , R , R) · = 0.
pR0

Por tanto hemos de convenir que H es también la hipercuádrica en A con

MR0 (H) = M (IdA , R0 , R)t · MR (H) · M (IdA , R0 , R). (7)

De forma más explı́cita, si

a zt
   
0 1 0
M (IdA , R , R) = ∈ Aff n (R) y MR (H) =
b A z C

entonces de la ecuación (7)


 0
 0 0 t
  a = a + bt · z + z t · b + b t · C · b ∈ R
a (z )
MR0 (H) = ∈ Sn+1 (R), z 0 = At · z + At · C · b ∈ Rn (8)
z0 C 0  0
C = At · C · A ∈ Sn (R) \ {0}

→ , B 0 , B) y C = NR (H), la ecuación (8) nos da en particular que


Como A = M (Id−
A

→ , B 0 , B)t · NR (H) · M (Id−


NR0 (H) = M (Id− → , B 0 , B).
A A

A modo de resumen hemos probado que:

130
Proposición 4.12 Si H es una hipercuádrica en A y R = {p0 , B}, R0 = {p00 , B 0 } son
sistemas de referencia en A entonces

MR0 (H) = M (IdA , R0 , R)t · MR (H) · M (IdA , R0 , R) y

→ , B 0 , B)t · NR (H) · M (Id−


NR0 (H) = M (Id− → , B 0 , B).
A A

Como consecuencia de la Proposición 4.12 podemos reformular el concepto de hiper-


cuádrica de una forma más global.
Definición 4.13 Una hipercuádrica H en A es una familia de ecuaciones
 
 t
 1
1, pR · ĈR · = 0, R referencia en A
pR

tales que
a zt
 
ĈR = ∈ Sn+1 (R) con CR ∈ Sn (R) \ {0} para toda referencia R en A.
z CR

ĈR0 = M (IdA , R0 , R)t · ĈR · M (IdA , R0 , R) para todas referencias R, R0 en A.


Además, el lugar de puntos asociado a H
 
t bR · 1

{p ∈ A : 1, pR ·C = 0}
pR

está bien definido globalmente (no depende de R). Como antes escribiremos

MR (H) := ĈR , NR (H) := CR para toda referencia R de A.

4.1.2. Invariantes de una hipercuádrica. Equivalencia afı́n


Dado un espacio afı́n A, recordemos que las matrices M (IdA , R0 , R) de cambio entre
sistemas de referencia R0 , R pertenecen al grupo afı́n Aff n (R).

Definición 4.14 Dos matrices Ĉ1 , Ĉ2 ∈ Sn+1 (R) se dicen afı́nmente congruentes si
existe una matriz Q ∈ Aff n (R) tal que

Ĉ2 = Qt · Ĉ1 · Q.

La Proposición 4.12 expresa que las matrices que definen a una hipercuádrica cambian
por congruencia en el grupo afı́n, al cambiar de sistema de referencia. Como estas
matrices está bien definidas salvo factores de proporcionalidad, esto implica que sus
rangos y formas de Sylvester, salvo revertir las cantidades de 1 y −1 en la diagonal, son
universales (ver Teorema 4.8). Como consecuencia tenemos la siguiente proposición.
Proposición 4.15 Si H es una hipercuádrica en A, se tiene que:

(i) El rango RH de rang MR (H) no depende del sistema de referencia R de A.

(ii) El rango rH de rang NR (H) no depende del sistema de referencia R de A.

(iii) El valor absoluto SH = |t̂ − ŝ| de la diferencia


 entre la cantidad de +1 y −1 en
(t̂) (ŝ) (ĉ)
la forma de Sylvester D 1 , (−1) , 0 de MR (H) no depende del sistema de
referencia R de A.

131
(iv) El valor absoluto sH = |t − s| de la diferencia
 entre la cantidad de +1 y −1 en
la forma de Sylvester D 1(t) , (−1)(s) , 0(c) de NR (H) no depende del sistema de
referencia R de A.
Es importante reparar en que la diferencia entre el número de 1 y el de −1 en la
forma de Sylvester de una matriz simétrica A cambia de signo cuando se calculan para
la matriz λ A con λ < 0. Como la matriz de una hipercuádrica está definida salvo
factores de proporcionalidad, por este motivo hemos definido en la anterior proposición
SH y sH en valor absoluto.
Definición 4.16 Por definición, los invariantes de una hipercuádrica H en A son los
números enteros
(RH , rH , SH , sH )
introducidos en la Proposición 4.15.
Ahora estamos en condiciones de definir el concepto de equivalencia afı́n de hiper-
cuádricas, que ha de interpretarse como la identificación natural entre estos objetos.

Definición 4.17 Dos hipercuádricas H1 , H2 en A se dicen afı́nmente equivalentes si


MR (H1 ) y MR (H2 ) son afı́nmente congruentes (salvo un factor de proporcionalidad)
en algún sistema de referencia R de A (luego en todos); ver Definición 4.14.
Equivalentemente, H1 , H2 son afı́nmente equivalentes si MR1 (H1 ) = MR2 (H2 ) (sal-
vo un factor de proporcionalidad) para algunas referencias R1 , R2 en A.

La equivalencia afı́n es una relación binaria de equivalencia en la familia de las


hipercuádricas en A. Clasificar las hipercuádricas en A es en definitiva estudiar la
naturaleza del correspondiente conjunto cociente.
Las Proposiciones 4.12 y 4.15 nos dan el siguiente corolario:
Corolario 4.18 Si H1 , H2 son hipercuádricas afı́nmente equivalentes en A entonces

(RH1 , rH1 , SH1 , sH1 ) = (RH2 , rH2 , SH2 , sH2 ).

Más adelante (ver Corolario 4.23) comprobaremos que la condición necesaria es también
cierta, y por tanto dos hipercuádricas son afı́nmente equivalentes si y sólo si tienen los
mismos invariantes.
Es importante observar que toda afinidad f : A → A lleva hipercuádricas en hiper-
cuádricas. En efecto, recordemos que dada una referencia R arbitraria en A, la afinidad
se escribe analı́ticamente
   
1 1
= M (f, R) · ∀p ∈ A,
f (p)R pR

donde M (f, R) ∈ Aff n (R). Por tanto si H es la hipercuádrica en A, la ecuación


 
t 1
(1, pR ) · MR (H) · = 0,
pR
     
1 −1 1 −1 1
se transforma sustituyendo por M (f, R) · = M (f , R) ·
pR f (p)R f (p)R
en la expresión
 
t −1 t −1 1
(1, f (p)R ) · M (f , R) · MR (H) · M (f , R) · = 0.
f (p)R

132
En particular, si p está en el lugar de puntos de h entonces f (p) está en el lugar de
puntos de la hipercuádrica en A de ecuación
 
t −1 t −1 1
(1, pR ) · M (f , R) · MR (H) · M (f , R) · =0
pR

en coordenadas en R. En consecuencia es natural hacer la siguiente definición.

Definición 4.19 Si H una hipercuádrica en A y f : A → A una afinidad, llamaremos


f (H) a la hipercuádrica con matriz

MR f (H) = M (f −1 , R)t · MR (H) · M (f −1 , R)




en cualquier sistema de referencia R en A.


El lugar de puntos de f (H) es la imagen directa por f del lugar de puntos de H.

Nótese que de la Definición 4.19

MR (H) = M (f, R)t · MR f (H) · M (f, R).



(9)

para todo sistema de referencia R en A.


El concepto de equivalencia afı́n de hipercuádricas puede ser reformulado en términos
de afinidades. Ese es el contenido de la siguiente proposición.

Proposición 4.20 Dos hipercuádricas H1 , H2 en A son afı́nmente equivalentes si y


sólo si existe una afinidad f : A → A tal que f (H1 ) = H2 .

Demostración : Si R es un sistema de referencia en A arbitrario, la equivalencia entre


las hipercuádricas H1 y H2 se traduce en que existe Q ∈ Aff n (R) tal que MR (H1 ) =
λ(Qt · MR (H2 ) · Q) para algún λ ∈ R \ {0}, lo que por la fórmula (9) equivale a que
f (H1 ) = H2 para la única afinidad f : A → A con M (f, R) = Q.

Un ejemplo curioso es el que nos ofrecen las hipercuádricas H1 , H2 en R2 definidas


respectivamente por los polinomios P1 (x, y) = x2 + 1 y P2 (x, y) = x2 + y 2 + 1 en la
referencia usual R0 . Tienen el mismo lugar de puntos asociado, a saber el conjunto
vacı́o:
{(x, y) ∈ R2 : x2 + 1 = 0} = {(x, y) ∈ R2 : x2 + y 2 + 1 = 0} = ∅.
Pero H1 y H2 no son afı́nmente equivalentes pues sus matrices asociadas
   
1 0 0 1 0 0
MR0 (H1 ) =  0 1 0  , MR0 (H2 ) =  0 1 0 
0 0 0 0 0 1

no son congruentes salvo proporcionalidad; tienen distintos rangos y por tanto distintos
invariantes (ver Corolario 4.18).

4.2. Clasificación afı́n de las hipercuádricas


Ya estamos en condiciones de abordar el teorema fundamental de clasificación de
hipercuádricas. La idea básica será probar que toda hipercuádrica H viene representada
en un sistema de referencia adecuado por una matriz canónica simplificada. Necesita-
remos para ello alguna notación.
En lo que sigue supondremos fijado un sistema de referencia R0 en A (dim A = n).

133
Definición 4.21 Las hipercuádricas H de A con matrices respecto de R0 descritas en
la siguiente lista se llamarán hipercuádricas canónicas en A con respecto a R0 :
 
0 0
(I) MR0 (H) =  , y por tanto
0 D 1(t) , (−1)(s) , 0(c)
t s
X X
H= x2i − x2t+j = 0, pR0 = (x1 , . . . , xn )t ,
i=1 j=1

donde t, s, c ∈ N ∪ {0}, t + s > 0, t + s + c = n y t − s ≥ 0.


En este caso (RH , rH , SH , sH ) = (t + s, t + s, t − s, t − s).
 
1 0
(II) MR0 (H) =  , y por tanto
0 D 1(t) , (−1)(s) , 0(c)
t
X s
X
x2i − x2t+j = 0, pR0 = (x1 , . . . , xn )t ,

H = 1+
i=1 j=1

donde t, s, c ∈ N ∪ {0}, t + s > 0, t + s + c = n.


En este caso (RH , rH , SH , sH ) = (t + s + 1, t + s, |t − s + 1|, |t − s|)
etn
 
0
(III) MR0 (H) =  , y por tanto
en D 1(t) , (−1)(s) , 0(c)
t
X s
X
x2i x2t+j = 0, pR0 = (x1 , . . . , xn )t ,

H = 2xn + −
i=1 j=1

donde en = (0, . . . , 0, 1)t ∈ Rn es el último vector de la base canónica de Rn ,


t, s, c ∈ N ∪ {0}, t + s > 0, t + s + c = n, c > 0 y t − s ≥ 0.
En este caso (RH , rH , SH , sH ) = (t + s + 2, t + s, t − s, t − s).

Las cuádruplas (RH , rH , SH , sH ) discriminan las distintas hipercuádricas listadas en la


Definición 4.21, por lo que dos a dos no son afı́nmente equivalentes de acuerdo con el
Corolario 4.18.
El siguiente teorema expresa que dada una matriz simétrica de orden n + 1 con
núcleo no trivial (tı́picamente la de una hipercuádrica en un sistema de referencia de
A), ella o su opuesta pueden ser transformadas por congruencia en Aff n (R) en una de
las matrices canónicas del listado anterior.

Teorema 4.22 Toda hipercuádrica H de A es afı́nmente equivalente a una y sólo una


de las hipercuádricas canónicas descritas en la Definición 4.21.

Demostración : De la Definción 4.17, lo que hemos de probar es que existe un sistema


de referencia R de A en el que H puede ser representada por alguna de las matrices
canónicas descritas en Definición 4.21- (I)-(II)-(III).
Escribamos
a zt
 
MR0 (H) = .
z C
Recordemos que dado un sistema de referencia R en A se tiene que

MR (H) = M (IdA , R, R0 )t · MR0 (H) · M (IdA , R, R0 ).

134
Consideremos un sistema de referencia R1 con el mismo origen que R0 , esto es, de
1 0
forma que M (IdA , R1 , R0 ) = . De la fórmula anterior
0 A1

a zt z t · A1
       
1 0 1 0 a
MR1 (H) = · · = .
0 At1 z C 0 A1 At1 · z At1 · C · A1

Por el Teorema 4.8, podemos elegir A1 ∈ Gl(n, R) tal que

At1 · C · A1 = D 1(t) , (−1)(s) , 0(c) ,




donde , t + s > 0 ya que H es una hipercuádrica. Si ponemos


 
v
t
A1 · z = , v ∈ Rt+s , w ∈ Rc ,
w

lo anterior nos queda

vt t
 
a  w
MR1 (H) =  v D 1(t) , (−1)(s) 0 .
w 0 0

Escribamos pR1 = (x1 , . . . , xn )t , p ∈ A, y observemos que la hipercuádrica H se


materializa en coordenadas en R1 como
t
X s
X
x2i − x2t+j + 2hv t , (x1 , . . . , xt+s )i + 2hwt , (xs+t+1 , . . . , xn )i + a = 0.
i=1 j=1

Si v = (v1 , . . . , vt+s )t ∈ Rt+s , las expresiones



 yi = xi + vi si i = 1, . . . , t
yi = xi − vi si i = t + 1, . . . , t + s ,
y i = xi si i = t + s + 1, . . . , n

representan las ecuaciones analı́ticas del cambio de sistema de referencia de R1 a otro


sistema de referencia R2 en el que pR2 = (y1 , . . . , yn )t , p ∈ A. Completando cuadrados
H se escribe en R2 como
t
X s
X
yi2 − 2
yt+j + 2hwt , (ys+t+1 , . . . , yn )i + a2 = 0 (10)
i=1 j=1

Pt Pt+s
para a2 = a − i=1 vi2 + j=1
2
vt+j . Surgen aquı́ tres casos excluyentes:
Caso (i): a2 = 0 ∈ R y w = 0 ∈ Rc (posiblemente c = 0).
De (10), la hipercuádrica H queda en coordenadas en R2
t
X s
X
yi2 − 2
yt+j = 0.
i=1 j=1

Salvo cambiar de inicio MR0 (H) por su opuesta para que t ≥ s, obtenemos la forma
canónica descrita en (I).
Caso (ii): a2 6= 0 y w = 0 ∈ Rc (posiblemente c = 0).

135
De (10), la hipercuádrica H queda en coordenadas en R2
t
X s
X
yi2 − 2
yt+j + a2 = 0.
i=1 j=1

Salvo cambiar de inicio MR0 (H) por su opuesta, podemos suponer que a2 > 0. Defi-
niendo

zi = a2 yi , i = 1, . . . , n,
estas expresiones son las ecuaciones analı́ticas del cambio del sistema de referencia R2
a otro sistema de referencia R3 en el que pR3 = (z1 , . . . , zn )t . En la referencia R3 la
hipercuádrica H se escribe como
t
X s
X
zi2 − 2
zt+j + 1 = 0,
i=1 j=1

lo que nos lleva a (II).


Caso (iii): c > 0 y w 6= 0.
En este caso, razonando como antes, las expresiones
1
zi = yi , i = 1, . . . , n − 1, zn = hw, (ys+t+1 , . . . , yn )t i + a2 ,
2
representan las ecuaciones analı́ticas del cambio de sistema de referencia de R2 a otro
sistema de referencia R3 en el que pR3 = (z1 , . . . , zn )t . De (10), la hipercuádrica H se
escribe en R3 como
X t Xs
2 2
zi − zt+j + 2zn = 0.
i=1 j=1

Salvo cambiar de inicio MR0 (H) por su opuesta para que t ≥ s, esto nos lleva a (III).

Corolario 4.23 Dos hipercuádricas H1 , H2 son afı́nmente equivalentes en A si y sólo


si (RH1 , rH1 , SH1 , sH1 ) = (RH2 , rH2 , SH2 , sH2 ).

Demostración : Ténganse en cuenta el Corolario 4.18 y el Teorema 4.22, y obsérvese


que las cuádruplas de números enteros (RH , rH , SH , sH ) discriminan a las hipercuádricas
canónicas H presentadas en la Definición 4.21.

4.2.1. Cónicas en un plano afı́n


En este apartado supondremos que (A, − →
) es un plano afı́n: dim A = 2. Recordemos
que en un plano afı́n las hipercuádricas reciben el nombre de cónicas. Nuestra intención
es describir la tabla de la clasificación afı́n, salvo equivalencias, de las cónicas de A. No
vamos a hacer nada nuevo, solo particularizar la información que nos da el teorema de
clasificación general Teorema 4.22 y recordar alguna notación clásica.
Para ello fijemos una referencia R0 en A y consideremos las cónicas canónicas rela-
tivas a R0 descritas en Definicion 4.21. A la luz del Teorema 4.22, toda cónica H ⊆ A
es equivalente a una única de las cónicas canónicas que se listan a continuación, repre-
sentada cada  una de ellas por su matrı́z y ecuación analı́tica (polinomio cuadrático) en
x
coordenadas respecto de R0 :
y

136
Caso (I), RH = rH = 1, SH = sH = 1 (t = 1, s = 0):
 
0 0 0
 0 1 0  ecuación x2 = 0 (recta doble).
0 0 0

Caso (I), RH = rH = 2, SH = sH = 2 (t = 2, s = 0):


 
0 0 0
 0 1 0  ecuación x2 + y 2 = 0 (punto).
0 0 1

Caso (I), RH = rH = 2, SH = sH = 0 (t = 1, s = 1):


 
0 0 0
 0 1 0  ecuación x2 − y 2 = 0 (par de rectas secantes).
0 0 −1

Caso (II), RH = rH + 1 = 2, SH = sH + 1 = 2 (t = 1, s = 0):


 
1 0 0
 0 1 0  ecuación x2 + 1 = 0 (vacı́o).
0 0 0

Caso (II), RH = rH + 1 = 2, SH = sH − 1 = 0 (t = 0, s = −1):


 
1 0 0
 0 −1 0  ecuación 1 − x2 = 0 (par de rectas paralelas).
0 0 0

Caso (II), RH = rH + 1 = 3, SH = sH + 1 = 3 (t = 2, s = 0):


 
1 0 0
 0 1 0  ecuación 1 + x2 + y 2 = 0 (vacı́o).
0 0 1

137
Caso (II), RH = rH + 1 = 3, SH = sh + 1 = 1 (t = 1, s = 1):
 
1 0 0
 0 1 0  ecuación 1 + x2 − y 2 = 0 (hipérbola).
0 0 −1

Caso (II), RH = rH + 1 = 3, SH = sH − 1 = 1 (t = 0, s = 2):


 
1 0 0
 0 −1 0  ecuación 1 − x2 − y 2 = 0 (elipse).
0 0 −1

Caso (III), RH = rH + 2 = 3, SH = sH = 1 (t = 1, s = 0):


 
0 0 1
 0 1 0  ecuación x2 + 2y = 0 (parábola).
1 0 0

Tipo (I) Tipo (I) Tipo (II) Tipo (II) Tipo (III)
RH = rH = 1 RH = r H = 2 RH = r H + 1 = 2 RH = rH + 1 = 3 RH = r H + 2 = 3
SH = sH = 0 Rectas secantes
SH = sH = 1 Recta doble
SH = sH = 2 Punto
SH = sH − 1 = 0 Rectas paralelas
SH = sH − 1 = 1 Elipse
SH = sH + 1 = 3 Vacı́o
SH = sH + 1 = 1 Hipérbola
SH = sH + 1 = 2 Vacı́o
SH = sH = 1 Parábola

138
4.2.2. Cuádricas en un espacio afı́n tridimensional
En este apartado supondremos que (A, − →
) tiene dim A = 3. En este caso, las hiper-
cuádricas de A reciben el nombre de cuádricas. Al igual que en al caso de las cónicas,
vamos a describir la tabla de la clasificación afı́n, salvo equivalencias, de las cuádricas de
A. Para ello fijaremos una referencia R0 en A y consideraremos las cuádricas canónicas
relativas a R0 descritas en Definicion 4.21. A la luz del Teorema 4.22, toda cuádrica
H en A es equivalente a una única de las cuádricas canónicas que se listan a conti-
nuación, representada cada una
 de ellas por su matrı́z y ecuación analı́tica (polinomio
x
cuadrático) en coordenadas y  respecto de R0 :

z

Caso (I), RH = rH = 1, SH = sH = 1 (t = 1, s = 0):


 
0 0 0 0
 0 1 0 0 
  ecuación x2 = 0 (plano doble).
 0 0 0 0 
0 0 0 0

Caso (I), RH = rH = 2, SH = sH = 2 (t = 2, s = 0):


 
0 0 0 0
 0 1 0 0 
  ecuación x2 + y 2 = 0 (recta).
 0 0 1 0 
0 0 0 0

Caso (I), RH = rH = 2, SH = sH = 0 (t = 1, s = 1):


 
0 0 0 0
 0 1 0 0 
  ecuación x2 − y 2 = 0 (par de planos secantes).
 0 0 −1 0 
0 0 0 0

139
Caso (I), RH = rH = 3, SH = sH = 3 (t = 3, s = 0):
 
0 0 0 0
 0 1 0 0 
  ecuación x2 + y 2 + z 2 = 0 (punto).
 0 0 1 0 
0 0 0 1

Caso (I), RH = rH = 3, SH = sH = 1 (t = 2, s = 1):
 
0 0 0 0
 0 1 0 0 
  ecuación x2 + y 2 − z 2 = 0 (cono).
 0 0 1 0 
0 0 0 −1

Tipo (I) RH = rH = 1 RH = rH = 2 RH = rH = 3
SH = sH = 0 Planos secantes
SH = sH = 1 Plano doble Cono
SH = sH = 2 Recta
SH = sH = 3 Punto

Caso (II), RH = rH + 1 = 2, SH = sH + 1 = 2 (t = 1, s = 0):


 
1 0 0 0
 0 1 0 0 
  ecuación 1 + x2 = 0 (vacı́o).
 0 0 0 0 
0 0 0 0

Caso (II), RH = rH + 1 = 2, SH = sH − 1 = 0 (t = 0, s = 1):


 
1 0 0 0
 0
 −1 0 0  ecuación 1 − x2 = 0 (par de planos paralelos).
 0 0 0 0 
0 0 0 0

140
Caso (II), RH = rH + 1 = 3, SH = sH + 1 = 3 (t = 2, s = 0):
 
1 0 0 0
 0 1 0 0  2 2
 0 0 1 0  ecuación 1 + x + y = 0 (vacı́o).
 

0 0 0 0

Caso (II), RH = rH + 1 = 3, SH = sH + 1 = 1 (t = 1, s = 1):


 
1 0 0 0
 0 1 0 0 

 0 0 −1 0

 ecuación 1 + x2 − y 2 = 0 (cilindro hiperbólico).
0 0 0 0

Caso (II), RH = rH + 1 = 3, SH = sH − 1 = 1 (t = 0, s = 2):


 
1 0 0 0
 0
 −1 0 0   ecuación 1 − x2 − y 2 = 0 (cilindro elı́ptico).
 0 0 −1 0 
0 0 0 0

Caso (II), RH = rH + 1 = 4, SH = sH + 1 = 4 (t = 3, s = 0):


 
1 0 0 0
 0 1 0 0  2 2 2
 0 0 1 0  ecuación 1 + x + y + z = 0 (vacı́o).
 

0 0 0 1

141
Caso (II), RH = rH + 1 = 4, SH = sH + 1 = 2 (t = 2, s = 1):
 
1 0 0 0
 0 1 0 0 
  ecuación 1 + x2 + y 2 − z 2 = 0 (hiperboloide de dos hojas).
 0 0 1 0 
0 0 0 −1

Caso (II), RH = rH + 1 = 4, SH = sH − 1 = 0 (t = 1, s = 2):


 
1 0 0 0
 0 1 0 0 
  ecuación 1 + x2 − y 2 − z 2 = 0 (hiperboloide de una hoja).
 0 0 −1 0 
0 0 0 −1

Caso (II), RH = rH + 1 = 4, SH = sH − 1 = 2 (t = 0, s = 3):


 
1 0 0 0
 0 −1 0 0  2 2 2
 0 0 −1 0  ecuación 1 − x − y − z = 0 (elipsoide).
 

0 0 0 −1

142
Tipo (II) RH = rH + 1 = 2 RH = rH + 1 = 3 RH = rH + 1 = 4
SH = sH + 1 = 1 Cilindro hiperbólico
SH = sH + 1 = 2 vacı́o Hiperboloide de dos hojas
SH = sH + 1 = 3 vacı́o
SH = sH + 1 = 4 vacı́o
SH = sH − 1 = 0 Planos paralelos Hiperboloide de una hoja
SH = sH − 1 = 1 Cilindro elı́ptico
SH = sH − 1 = 2 Elipsoide

Caso (III), RH = rH + 2 = 3, SH = sH = 1 (t = 1, s = 0):


 
0 0 0 1
 0 1 0 0 
  ecuación x2 + 2z = 0 (cilindro parabólico).
 0 0 0 0 
1 0 0 0

Caso (III), RH = rH + 2 = 4, SH = sH = 2 (t = 1, s = 0):


 
0 0 0 1
 0 1 0 0 
  ecuación x2 + y 2 + 2z = 0 (paraboliode elı́ptico).
 0 0 1 0 
1 0 0 0

Caso (III), RH = rH + 2 = 4, SH = sH = 0 (t = 1, s = 1):


 
0 0 0 1
 0 1 0 0 
  ecuación x2 − y 2 + 2z = 0 (paraboliode hiperbólico).
 0 0 −1 0 
1 0 0 0

143
Tipo (III) RH = rH + 2 = 3 RH = rH + 2 = 4
SH = sH = 0 Paraboliode hiperbólico
SH = sH = 1 Cilindro parabólico
SH = sH = 2 Paraboliode elı́ptico

4.2.3. Algoritmo para la clasificación afı́n de hipercuádricas


Expliquemos el procedimiento práctico general para la clasificación afı́n de una hi-
percuádrica de forma sencilla. Entenderemos por clasificar afı́nmente una hipercuádrica
H en A el encontrar la hipercuádrica canónica respecto de un sistema de referencia fi-
jado R0 en A, tabuladas en Definicion 4.21, a la que H es afı́nmente equivalente.
La herramienta más útil para este cálculo es la Regla de Descartes sobre el número
de raı́ces positivas de un polinomio. Recordemos su enunciado:

Teorema 4.24 (Regla de Descartes) El número de raı́ces positivas contadas con


multiplicidad de un polinomio con coeficientes reales es, como máximo, el número de
cambios de signo de la secuencia ordenada (de mayor a menor exponente) de sus coefi-
cientes no nulos. Además, ambos enteros tienen la misma paridad.

El criterio de Descartes no garantiza la existencia de raı́ces positivas de un polinomio


p(x) (ni negativas si se aplica para p(−x)), sólo estima el número máximo de las mismas.
Por ejemplo, p(x) = 3x5 − x3 − 2x2 + 4x − 6 tiene por coeficientes no nulos ordenados de
mayor a menor exponente a 3, −1, −2, 4, −6. En esa secuencia se observan tres cambios
de signo (de 3 a −1, de −2 a 4 y de 4 a −6), por lo que a lo más puede tener tres
raı́ces positivas. La misma regla para p(−x) = 3x5 + x3 − 2x2 − 4x − 6 nos dice que
p(−x) tiene a lo más una raı́z positiva, esto es, p(x) tiene a lo más una raı́z negativa.
Por tanto p(x) tiene a lo más cuatro raı́ces en total, en particular no descompone sobre
R, y por tanto tiene a lo más tres raı́ces reales. Otro ejemplo en esta lı́nea nos lo da
el polinomio p(x) = x2 − x + 1, sus coeficientes no nulos ordenados de mayor a menor
exponente son 1, −1, 1, y razonando como antes a lo más tiene dos raı́ces positivas.
Análogamente p(−x) = x2 + x + 1 no tiene ninguna raı́z positiva, esto es, p(x) carece
de raı́ces negativas; en este caso p(x) no tiene raı́ces reales por comprobación directa.
El siguiente corolario, aplicable a polinomios caracterı́sticos de matrices simétricas,
nos será de gran utilidad.

Corolario 4.25 Sea p(x) un polinomio con coeficientes reales de grado n ≥ 1 satisfa-
ciendo:

p(x) descompone en el cuerpo de los números reales (por ejemplo, si p(x) es el


polinomio caracterı́stico de una matriz simétrica real).

144
p(x) tiene a lo más t ≥ 0 raı́ces positivas contadas con multiplicidad (por ejemplo,
detectadas por aplicación de la Regla de Descartes a p(x)).

p(x) tiene a lo más s ≥ 0 raı́ces negativas contadas con multiplicidad (por ejemplo,
detectadas por aplicación de la Regla de Descartes a p(−x)).

x = 0 es raı́z de p(x) con multiplicidad c ≥ 0.

t + s + c = n.

Entonces p(x) tiene exactamente t raı́ces positivas y s raı́ces negativas contadas con
multiplicidad.

El algoritmo general para clasificar una hipercuádrica H ⊆ A es el siguiente. Primero


consideramos la matriz MR0 (H) y su correspondiente núcleo cuadrático NR0 (H):

zt
 
a
MR0 (H) = .
z NR0 (H)

A continuación calculamos los rangos RH de MR0 (H) y rH de NR0 (H). Si RH = rH


estamos en el caso (I), si RH = rH + 1 en el caso (II), y si RH = rH + 2 en el caso (III).
Teniendo en cuenta el Teorema 4.8 podemos proceder ası́:

Caso (I) (RH = rH ): Calculamos el polinomio caracterı́stico p(x) de NR0 (H) y


determinamos la distribución de signos de sus raı́ces. Realmente sólo nos interesa
conocer los números t de raı́ces positivas y s de raı́ces negativas de p(x); para ello
nos ayudamos de la Regla de Descartes. Salvo cambiar MR0 (H) por su opuesta
siempre podemos conseguir que sH = t−s ≥ 0, en cualquier caso SH = sH = |t−s|
determina unı́vocamente a que hipercuádrica canónica es H equivalente.

Caso (II) (RH = rH + 1): Calculamos los polinomios caracterı́sticos p(x) de


NR0 (H) y pb(x) de MR0 (H), y determinamos la distribución de signos de sus
raı́ces. Sólo nos interesan los números t de raı́ces positivas y s de raı́ces negativas
de p(x), y los números b t de raı́ces positivas y sb de raı́ces negativas de pb(x) (en
ambos casos nos ayudamos de la Regla de Descartes). Salvo cambiar MR0 (H) por
su opuesta siempre podemos conseguir que b t = t + 1 y sb = s, en cualquier caso los
números SH = |t̂ − ŝ| y sH = |t − s| determinan unı́vocamente a que hipercuádrica
canónica es H equivalente.

Caso (III) (RH = rH +2): Calculamos el polinomio caracterı́stico p(x) de NR0 (H)
y sus raı́ces. Sólo necesitamos los números t de raı́ces positivas y s de raı́ces
negativas de p(x) (nos ayudamos de la Regla de Descartes). Salvo cambiar MR0 (H)
por su opuesta siempre podemos conseguir que sH = t − s ≥ 0, en cualquier caso
SH = sH = |t − s| determina unı́vocamente a que hipercuádrica canónica es H
equivalente.

Otra cuestión más elaborada es encontrar un sistema de referencia R de A en el que


MR (H) coincida con su equivalente canónica en R0 . Para ello hay reproducir la argu-
mentación de la prueba del Teorema 4.22.

145
4.3. Clasificación euclidiana de las hipercuádricas
Podemos ahora abordar la clasificación afı́n euclidiana de las hipercuádricas en un
espacio afı́n euclı́deo (A, −

, h , i). La idea básica será probar que toda hipercuádrica H
viene representada en un sistema de referencia rectangular adecuado por una matriz
canónica simplificada.
Llamaremos

E(A, h , i) = {f : (A, −

, h , i) → (A, −

, h , i) : f movimiento rı́gido},

o simplemente E(A) por simplicidad, al grupo de los movimientos rı́gidos en (A, −



, h , i),
y escribiremos como
  
1 0
En (R) = : A ∈ O(n, R)
b A

el grupo euclı́deo, esto es, el de las matrices que representan a los movimientos rı́gidos
de Rn en el sistema de referencia usual. Es claro que si f : A → A es una afinidad y
R1 , R2 son sistemas de referencia rectangulares en (A, h , i),

f ∈ E(A) ⇐⇒ M (f, R1 , R2 ) ∈ En (R).

Definición 4.26 Dos hipercuádricas H1 , H2 en un espacio afı́n euclidiano (A, h , i) se


dicen euclı́deamente equivalentes si satisfacen cualquiera de las siguientes condiciones
equivalentes:
Hay referencias rectangulares R1 y R2 en (A, h , i) tales que MR1 (H1 ) = MR2 (H2 )
(salvo factor de proporcionalidad).

Existen una referencia rectangular R de (A, h , i) y una matriz Q ∈ En (R) tales


que Qt · MR (H1 ) · Q = MR (H2 ) (salvo factor de proporcionalidad).

Para toda referencia rectangular R en (A, h , i) existe una matriz Q ∈ En (R) tal
que Qt · MR (H1 ) · Q = MR (H2 ) (salvo factor de proporcionalidad).
Aunque es algo rutinario, es importante comprobar que las condiciones anteriores son
equivalentes entre sı́.
Como en el caso afı́n, el concepto de equivalencia euclidiana de hipercuádricas tam-
bién se puede reformular en términos de movimientos rı́gidos. En este caso, es fácil ver
que dos hipercuádricas H1 , H2 en A son euclideamente equivalentes si y sólo si existe
un movimiento rı́gido f : (A, h , i) → (A, h , i) tal que f (H1 ) = H2 . Por tanto

MR (H2 ) = M (f −1 , R)t · MR (H1 ) · M (f −1 , R).

para cualquier sistema de referencia rectangular R en (A, h , i).


Las hipercuádricas en el plano euclidiano R2 definidas por los polinomios

H1 = {(x, y) ∈ R2 : x2 + y 2 = 0}, H2 = {(x, y) ∈ R2 : x2 + 2y 2 = 0}

tienen por lugar de puntos asociados el punto {(0, 0)}, pero no son euclı́deamente equi-
valentes pues sus matrices asociadas
   
1 0 0 1 0 0
MR0 (H1 ) =  0 1 0  , MR0 (H2 ) =  0 1 0 
0 0 1 0 0 2

146
en la referencia rectangular R0 no son congruentes en el grupo E2 (R). Sin embargo existe
f : R2 → R2 movimiento rı́gido tal que f (0, 0, 0) = (0, 0, 0). Esta aparente paradoja se
explica porque el concepto de equivalencia euclı́dea está vinculado con la ecuación de
las hipercuádricas o con sus matrices en sistemas de referencia rectangulares, no con
los lugares de puntos asociados a las mismas.
Ya estamos en condiciones de abordar el teorema fundamental de clasificación euclı́dea
de hipercuádricas. Necesitaremos para ello alguna notación.
En lo que sigue supondremos fijado un sistema de referencia R0 rectangular en
(A, h , i) (dim A = n).

Definición 4.27 Las hipercuádricas H de A con matrices descritas en la siguiente lista


se llamarán hipercuádricas canónicas en (A, h, i) con respecto al sistema de referencia
rectangular R0 :
 
0 0
(I) MR0 (H) =  , y por tanto
0 D 1 , . . . , t , −δ1 , . . . , −δs , 0(c)
t s
X X
H= i x2i − δj x2t+j = 0, pR0 = (x1 , . . . , xn )t ,
i=1 j=1

donde t, s, c ∈ N ∪ {0}, t + s > 0, t + s + c = n, t − s ≥ 0, i , δj > 0 para todo


i, j, 1 = 1 ≥ j , j = 2, . . . , t.
En este caso RH = rH = t + s y SH = sH = t − s ≥ 0.
 
1 0
(II) MR0 (H) =  , y por tanto
0 D 1 , . . . , t , −δ1 , . . . , −δs , 0(c)
t
X s
X
i x2i δj x2t+j = 0, pR0 = (x1 , . . . , xn )t ,

H = 1+ −
i=1 j=1

donde t, s, c ∈ N ∪ {0}, t + s > 0, t + s + c = n, y i , δj > 0 para todo i, j.


En este caso RH = rH + 1 = t + s + 1 y SH = |t − s + 1|, sH = |t − s|.

etn
 
0
(III) MR0 (H) =  , y por tanto
en D 1 , . . . , t , −δ1 , . . . , −δs , 0(c)
t
X s
X
i x2i δj x2t+j = 0, pR0 = (x1 , . . . , xn )t ,

H = 2xn + −
i=1 j=1

donde en = (0, . . . , 0, 1)t ∈ Rn es el último vector de la base canónica de Rn ,


t, s, c ∈ N ∪ {0}, t + s > 0, t + s + c = n, c > 0, t − s ≥ 0 , y i , δj > 0 para todo
i, j.
En este caso RH = rH + 2 = t + s + 2 y SH = sH = t − s ≥ 0.

Observación 4.28 Las cuádruplas de enteros (RH , rH , SH , sH ) y los conjuntos

{i : i = 1 . . . , t}, {δj : j = 1 . . . , s}

discriminan salvo equivalencia euclı́dea las hipercuádricas en la Definición 4.27.

147
Demostración : Si dos cuádricas H1 , H2 representadas por matrices de las listadas en la
Definición 4.27 son euclideamente equivalentes, lo son también afı́nmente y por tanto
ambas pertenecen al mismo tipo (I), (II) ó (III). Además, las matrices MR0 (H1 ) y
MR0 (H2 ) de arriba han de satisfacer que MR0 (H2 ) = µ(Qt · MR0 (H1 ) · Q) para alguna
matriz Q ∈ En (R) y µ 6= 0. De (8) es fácil concluir que µ = 1, y de aquı́ que los
respectivos núcleos cuadráticos NR0 (H1 ) MR0 (H2 ) sean ortogonalmente equivalentes, y
por tanto con los mismos valores propios y las mismas multiplicidades.

El siguiente teorema expresa que dada una matriz simétrica de orden n+1 con núcleo
no trivial (tı́picamente la de una hipercuádrica en un sistema de referencia rectangular
de A), ella o su opuesta pueden ser transformadas por congruencia en En (R) en una de
las matrices canónicas del listado anterior.

Teorema 4.29 Toda hipercuádrica H de (A, h, , i) es euclı́deamente equivalente a una


y sólo una de las hipercuádricas canónicas descritas matricialmente en Definición 4.27.

Demostración : Lo que hemos de probar es que existe un sistema de referencia rectan-


gular R de A en el que H puede ser representada por alguna de las matrices canónicas
descritas en Definición 4.27- (I)-(II)-(III).
Consideremos la matriz que representa a H en R0 :

a0 z0t
 
MR0 (H) = .
z0 C0

 que, dado un sistema de referencia rectangular R1 con M (IdA , R1 , R0 ) =


Recordemos

1 0
∈ En (R), se tiene que
b1 A 1

1 bt1 a0 z0t
     
1 0
MR1 (H) = · · ,
0 At1 z0 C0 b1 A1

esto es,

a0 + bt1 · z0 + z0t · b1 + bt1 · C0 · b1 z0t · A1 + bt1 · C0 · A1


 
MR1 (H) = .
At1 · z0 + At1 · C0 · b1 At1 · C0 · A1

Por el Teorema 4.6, podemos elegir A1 ∈ O(n, R) tal que

At1 · C0 · A1 = D 1 , . . . , t , −δ1 , . . . , −δs , 0(c)




donde |t| + |s| > 0 (H es una hipercuádrica) y los reales i , δj > 0 para todo i, j. Fijada
esta A1 , un cálculo directo nos dice que

At1 · z0 + At1 · C · b1 = At1 · z0 + D 1 , . . . , t , −δ1 , . . . , −δs , 0(c) · (A−1



1 · b1 ).

Escribamos
z0
 
At1 · z0 = , z 0 ∈ Rt+s , z1 ∈ Rc ,
z1
llamemos x0 ∈ Rt+s al único vector tal que

z 0 + D 1 , . . . , t , −δ1 , . . . , −δs · x0 = 0 ∈ Rt+s ,




148
y usando la regularidad de A1 elijamos b1 ∈ Rn el único vector tal que
 0 
−1 x
A1 · b1 = ∈ Rn .
0
Para esta elección de b1 se tiene que
 0   0   
t t z (c)
 x 0
A1 · z0 + A1 · C · b1 = + D 1 , . . . , t , −δ1 , . . . , −δs , 0 · = .
z1 0 z1
En  de referencia rectangular R1 determinado por la condición M (IdA , R1 , R0 ) =
 el sistema
1 0
queda
b1 A 1
t
 
a1 0  z1
MR1 (H) =  0 D 1 , . . . , t , −δ1 , . . . , −δs 0 ,
z1 0 0
donde
 
0
a1 = a0 + bt1 · z0 + z0t · b1 + bt1 · C 0 · b1 , = At1 · z0 + At1 · C0 · b1 .
z1
Si a1 = 0 ∈ R y z1 = 0 ∈ Rc ó c = 0, se sigue el caso (I). Obsérvese que podemos
garantizar que sH = t − s ≥ 0 sin más que cambiar de inicio MR0 (H) por su matriz
opuesta. También se puede suponer que 1 = 1 ≥ j , j = 2, . . . , t sin mas que reordenar
coordenadas para que 1 ≥ j , j = 2, . . . , t, y afectar por el factor λ = 1/1 la matriz
original.
Si a1 6= 0 y z1 = 0 ∈ Rc ó c = 0 
se sigue el caso (II). En efecto, al igual que antes
a0 z0t
salvo cambiar MR0 (H) = por su matriz opuesta y afectarla matriz por el
z0 C0
factor 1/a1 podemos suponer a1 = 1 (obsérvese que en este caso no podemos garantizar
que t − s ≥ 0 por la rigidez que impone la condición a1 = 1 > 0 anterior).
Finalmente supongamos que c > 0 y z1 6= 0, y observemos que salvo cambiar
al principio MR0 (H) por su matriz opuesta podemos suponer que sH = t − s ≥ 0.
Consideremos ahora un sistema de referencia rectangular R2 para el que
 
1 0 0
M (IdA , R2 , R1 ) =  0 It+s 0  ,
b2 0 A 2
donde b2 ∈ Rc y A2 ∈ O(c, R) se determinarán más adelante. Un cálculo directo si-
guiendo la fórmula
MR2 (H) = M (IdA , R2 , R1 )t · MR1 (H) · M (IdA , R2 , R1 )
nos da que
 t  t
 
1 0 0 a1 0  z1 1 0 0
MR2 (H) =  0 It+s 0  · 0 D 1 , . . . , t , −δ1 , . . . , −δs 0 · 0 It+s 0  ,
b2 0 A 2 z1 0 0 b2 0 A 2
esto es,
t
 
a2 0  z2
MR2 (H) =  0 D 1 , . . . , t , −δ1 , . . . , −δs 0 ,
z2 0 0

149
donde a2 = a1 + bt2 · z1 + z1t · b2 y z2 = At2 · z1 .
a0 z0t
 
Como z1 6= 0, salvo multiplicar la matriz original MR0 (H) = por el
z0 C0
factor λ = 1/kz1 k podemos suponer que kz1 k = 1, y por tanto, encontrar una matriz
A2 ∈ O(c, R) tal que  
0
 .. 
z2 = At2 · z1 = ed =  .  ∈ Rd
 
0
1
sea el último vector de la base canónica de Rd . Una vez fijada esta matriz A2 , elegimos
cualquier b2 ∈ Rc para que

a2 = a1 + bt2 · z1 + z1t · b2 = 0.

Con estas elecciones nos quedarı́a finalmente que

etn
 
0
MR2 (H) =  ,
en D (1 , . . . , t , −δ1 , . . . , −δs , 0(c)

lo que nos lleva al caso (III) y concluye la prueba.

4.3.1. Cónicas en un plano afı́n euclidiano


En este apartado supondremos que (A, − →
, h i) es un plano afı́n euclı́deo. Nuestra
intención es describir la tabla de la clasificación afı́n euclı́dea, salvo equivalencias, de las
cónicas en (A, −→
, h i). No vamos a hacer nada nuevo, solo particularizar la información
que nos da el teorema de clasificación general Teorema 4.29 y recordar alguna notación
clásica.
Para ello fijemos una referencia rectangular R0 en (A, − →
, h i) y consideremos las
cónicas canónicas relativas a R0 descritas en Definicion 4.27. A la luz del Teorema 4.29,
toda cónica H en A es euclideamente equivalente a una única de las cónicas canónicas
que se listan a continuación, representada cada una  de ellas por su matrı́z y ecuación
x
analı́tica (polinomio cuadrático) en coordenadas respecto de R0 :
y

Caso (I), RH = rH = 1, SH = sH = 1 (t = 1, s = 0):


 
0 0 0
 0 1 0  ecuación x2 = 0 (recta doble).
0 0 0

Caso (I), RH = rH = 2, SH = sH = 2 (t = 2, s = 0),  > 0:


 
0 0 0
 0 1 0  ecuación x2 + y 2 = 0 (punto).
0 0 

150
Caso (I), RH = rH = 2, SH = sH = 0 (t = 1, s = 1), δ > 0:
 
0 0 0
 0 1 0  ecuación x2 − δy 2 = 0 (par de rectas secantes).
0 0 −δ

Caso (II), RH = rH + 1 = 2, SH = sH − 1 = 1 (t = 1, s = 0),  > 0:


 
1 0 0
 0  0  ecuación x2 + 1 = 0 (vacı́o).
0 0 0

Caso (II), RH = rH + 1 = 2, SH = sH − 1 = 0 (t = 0, s = −1), δ > 0:


 
1 0 0
 0 −δ 0  ecuación 1 − δx2 = 0 (par de rectas paralelas).
0 0 0

Caso (II), RH = rH + 1 = 3, SH = sH + 1 = 3 (t = 2, s = 0), 1 , 2 > 0:


 
1 0 0
 0 1 0  ecuación 1 + 1 x2 + 2 y 2 = 0 (vacı́o).
0 0 2

Caso (II), RH = rH + 1 = 3, SH = sh + 1 = 1 (t = 1, s = 1), , δ > 0:


 
1 0 0
 0  0  ecuación 1 + x2 − δy 2 = 0 (hipérbola).
0 0 −δ

Caso (II), RH = rH + 1 = 3, SH = sH − 1 = 1 (t = 0, s = 2), δ1 , δ2 > 0:


 
1 0 0
 0 −δ1 0  ecuación 1 − δ1 x2 − δ2 y 2 = 0 (elipse).
0 0 −δ2

151
Caso (III), RH = rH + 2 = 3, SH = sH = 1 (t = 1, s = 0),  > 0:
 
0 0 1
 0  0  ecuación x2 + 2y = 0 (parábola).
1 0 0

Tipo (I) Tipo (I) Tipo (II) Tipo (II) Tipo (III)
RH = rH = 1 RH = r H = 2 RH = r H + 1 = 2 RH = rH + 1 = 3 RH = r H + 2 = 3
SH = sH = 0 Rectas secantes
SH = sH = 1 Recta doble
SH = sH = 2 Punto
SH = sH − 1 = 0 Rectas paralelas
SH = sH − 1 = 1 Elipse
SH = sH − 1 = 2 Vacı́o
SH = sH + 1 = 1 Hipérbola
SH = sH + 1 = 2 Vacı́o
SH = sH = 1 Parábola

4.3.2. Cuádricas en un espacio afı́n tridimensional


En este apartado supondremos que (A, − →
, h i) tiene dim A = 3. Al igual que en al
caso de las cónicas euclidianas, vamos a describir la tabla de la clasificación, salvo equi-
valencias euclı́dea, de las cuádricas de A. Para ello fijaremos una referencia rectangular
R0 en (A, −→
, h i) y consideraremos las cuádricas canónicas relativas a R0 descritas en
Definicion 4.27. A la luz del Teorema 4.29, toda cuádrica H en A es euclideamente
equivalente a una única de las cuádricas canónicas que se listan a continuación, repre-
sentada cada una de ellas por su matrı́z y ecuación analı́tica (polinomio cuadrático) en
coordenadas (x, y, z) respecto de R0 :
Caso (I), RH = rH = 1, SH = sH = 1 (t = 1, s = 0):
 
0 0 0 0
 0 1 0 0 
  ecuación x2 = 0 (plano doble).
 0 0 0 0 
0 0 0 0

152
Caso (I), RH = rH = 2, SH = sH = 2 (t = 2, s = 0),  > 0:
 
0 0 0 0
 0 1 0 0 
  ecuación x2 + y 2 = 0 (recta).
 0 0  0 
0 0 0 0

Caso (I), RH = rH = 2, SH = sH = 0 (t = 1, s = 1), δ > 0:


 
0 0 0 0
 0 1 0 0 
  ecuación x2 − δy 2 = 0 (par de planos secantes).
 0 0 −δ 0 
0 0 0 0

Caso (I), RH = rH = 3, SH = sH = 3 (t = 3, s = 0), 1 , 2 > 0:


 
0 0 0 0
 0 1 0 0 
  ecuación x2 + 1 y 2 + 2 z 2 = 0 (punto).
 0 0 1 0 
0 0 0 2

Caso (I), RH = rH = 3, SH = sH = 1 (t = 2, s = 1), , δ > 0:
 
0 0 0 0
 0 1 0 0 
  ecuación x2 + y 2 − δz 2 = 0 (cono).
 0 0  0 
0 0 0 −δ

153
Tipo (I) RH = rH = 1 RH = rH = 2 RH = rH = 3
SH = sH = 0 Planos secantes
SH = sH = 1 Plano doble Cono
SH = sH = 2 Recta
SH = sH = 3 Punto

Caso (II), RH = rH + 1 = 2, SH = sH + 1 = 2 (t = 1, s = 0),  > 0:


 
1 0 0 0
 0  0 0 
  ecuación 1 + x2 = 0 (vacı́o).
 0 0 0 0 
0 0 0 0

Caso (II), RH = rH + 1 = 2, SH = sH − 1 = 0 (t = 0, s = 1), δ > 0:


 
1 0 0 0
 0 −δ 0 0 
  ecuación 1 − δx2 = 0 (par de planos paralelos).
 0 0 0 0 
0 0 0 0

Caso (II), RH = rH + 1 = 3, SH = sH + 1 = 3 (t = 2, s = 0), 1 , 2 > 0:


 
1 0 0 0
 0 1 0 0 
  ecuación 1 + 1 x2 + 2 y 2 = 0 (vacı́o).
 0 0 2 0 
0 0 0 0

Caso (II), RH = rH + 1 = 3, SH = sH + 1 = 1 (t = 1, s = 1),  > 0, δ > 0:


 
1 0 0 0
 0  0 0  2 2
 0 0 −δ 0  ecuación 1 + x − δy = 0 (cilindro hiperbólico).
 

0 0 0 0

154
Caso (II), RH = rH + 1 = 3, SH = sH − 1 = 1 (t = 0, s = 2), δ1 , δ2 > 0:
 
1 0 0 0
 0 −δ1 0 0  2 2
 0 0 −δ2 0  ecuación 1 − δ1 x − δ2 y = 0 (cilindro elı́ptico).
 

0 0 0 0

Caso (II), RH = rH + 1 = 4, SH = sH + 1 = 4 (t = 3, s = 0), 1 , 2 , 3 > 0:


 
1 0 0 0
 0 1 0 0  2 2 2
 0 0 2 0  ecuación 1 + 1 x + 2 y + 3 z = 0 (vacı́o).
 

0 0 0 3

Caso (II), RH = rH + 1 = 4, SH = sH + 1 = 2 (t = 2, s = 1), 1 , 2 > 0, δ > 0:


 
1 0 0 0
 0 1 0 0 
  ecuación 1 + 1 x2 + 2 y 2 − δz 2 = 0 (hiperboloide de dos hojas).
 0 0 2 0 
0 0 0 −δ

Caso (II), RH = rH + 1 = 4, SH = sH − 1 = 0 (t = 1, s = 2),  > 0, δ1 , δ2 > 0:


 
1 0 0 0
 0  0 0 
  ecuación 1 + x2 − δ1 y 2 − δ2 z 2 = 0 (hiperboloide de una hoja).
 0 0 −δ1 0 
0 0 0 −δ2

155
Caso (II), RH = rH + 1 = 4, SH = sH − 1 = 2 (t = 0, s = 3), δ1 , δ2 , δ3 > 0:
 
1 0 0 0
 0 −δ1 0 0  2 2 2
 0 0 −δ2 0  ecuación 1 − δ1 x − δ2 y − δ3 z = 0 (elipsoide).
 

0 0 0 −δ3

Tipo (II) RH = rH + 1 = 2 RH = rH + 1 = 3 RH = rH + 1 = 4
SH = sH + 1 = 1 Cilindro hiperbólico
SH = sH + 1 = 2 vacı́o Hiperboloide de dos hojas
SH = sH + 1 = 3 vacı́o
SH = sH + 1 = 4 vacı́o
SH = sH − 1 = 0 Planos paralelos Hiperboloide de una hoja
SH = sH − 1 = 1 Cilindro elı́ptico
SH = sH − 1 = 2 Elipsoide

Caso (III), RH = rH + 2 = 3, SH = sH = 1 (t = 1, s = 0),  > 0:


 
0 0 0 1
 0  0 0 
  ecuación x2 + 2z = 0 (cilindro parabólico).
 0 0 0 0 
1 0 0 0

156
Caso (III), RH = rH + 2 = 4, SH = sH = 2 (t = 1, s = 0), 1 , 2 > 0:
 
0 0 0 1
 0 1 0 0 
  ecuación 1 x2 + 2 y 2 + 2z = 0 (paraboliode elı́ptico).
 0 0 2 0 
1 0 0 0

Caso (III), RH = rH + 2 = 4, SH = sH = 0 (t = 1, s = 1), , δ > 0:


 
0 0 0 1
 0  0 0 
  ecuación x2 − δy 2 + 2z = 0 (paraboliode hiperbólico).
 0 0 −δ 0 
1 0 0 0

Tipo (III) RH = rH + 2 = 3 RH = rH + 2 = 4
SH = sH = 0 Paraboliode hiperbólico
SH = sH = 1 Cilindro parabólico
SH = sH = 2 Paraboliode elı́ptico

157
4.4. Algunos ejercicios resueltos
Ejercicio 4.30 Clasifica la cónica

H = {(x, y) ∈ R2 : x2 − 7y 2 − 6xy + 10x + 2y + 9 = 0}

y encuentra:

Un sistema de referencia en el que adopten su ecuación reducida.

Un isomorfismo afı́n de R2 que las lleve a su ecuación reducida.

Solución : Es claro que  


9 5 1
MR0 (H) =  5 1 −3 
1 −3 −7
con núcleo cuadrático asociado
 
1 −3
NR0 (H) = ,
−3 −7

donde R0 es el sistema de referencia usual de R2 . De aquı́ que RH = rH = 2 y estamos


en el caso (I). El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene dado por
 
1−t −3
p(t) = det = −16 + 6t + t2 = (t + 8)(t − 2),
−3 −7 − t

de donde NR0 (H) tiene por valores propios a −8, 2 y sH = SH = 0. Por tanto la forma
reducida de H es  
0 0 0
 0 1 0 
0 0 −1
y H consiste de dos rectas secantes.
Para encontrar el sistema de referencia en el que H adopta su forma canónica,
lo primero que haremos es encontrar una base B1 de R2 en la que NR0 (H) adopte su
forma de Sylvester. Observemos que los subespacios propios de NR0 (H) para los valores
propios 2, −8 son:
 
2 −1 −3
V2 = {(x, y) ∈ R : · (x, y)t = (0, 0)t } = L({(3, −1)})
−3 −9
y  
2 9 −3
V−8 = {(x, y) ∈ R : · (x, y)t = (0, 0)t } = L({(1, 3)}).
−3 1
Bases ortonormales de los subespacios propios se generan trivialmente:

{ √110 (3, −1)} es base ortonormal de V2 .

{ √110 (1, 3)} es base ortonormal de V−8 .

158
Por tanto,
1 1
B = { √ (3, −1), √ (1, 3)}
10 10
 
2 1 0
es base ortonormal de (R , h , i), y la forma de Sylvester de NR0 (H) se
0 −1
alcanza en la base ortogonal de (R2 , h , i)
1 1 1 1
B1 = { √ √ (3, −1), √ √ (1, 3)} = { √ (3, −1), √ (1, 3)}.
2 10 8 10 2 5 4 5

A continuación elegimos un sistema de referencia en R2 con B1 como base de direcciones,


por simplicidad tomaremos R1 = {(0, 0), B1 }, y calcularemos la matriz MR1 (H). Evi-
dentemente el núcleo cuadrático NR1 (H) de MR1 (H) será la anterior forma de Sylvester
de NR0 (H). En efecto, sabemos que

MR1 (H) = M (IdR2 , R1 , R0 )t · MR0 (H) · M (IdR2 , R1 , R0 ),

y como
1 0 0
 
3 1
M (IdR2 , R1 , R0 ) =  0 √
2 5

4 5

0 − 2√1 5 3

4 5

un cálculo inmediato nos da que


 
1 0 0 1 0 0 9 √7 √2
   
9 5 1 5 5
3
MR1 (H) =  0 √
2 5
− 2√1 5 · 5 1 −3 · 0 2√3 5 1

4 5
=
 √7
5
1 0 
.
1 3
0 √
4 5

4 5
1 −3 −7 0 − 2√1 5 3

4 5
√2
5
0 −1

Si pR1 = (x1 , y1 ) representan las coordenadas en R1 de los puntos de los puntos p ∈ R2 ,


lo anterior significa que H viene representada en R1 por los ceros del polinomio
√ √
x21 − y12 + 14/ 5x1 + 4/ 5y1 + 9 = 0,

que tras completar cuadrados queda


√ √
(x1 + 7/ 5)2 − (y1 − 2/ 5)2 = 0.

Las ecuaciones analı́ticas


√ √
x2 = x1 + 7/ 5, y2 = y1 − 2/ 5

definen un cambio de R1 a un nuevo sistema de referencia R2 con pR2 = (x2 , y2 )


representando las coordenadas de los puntos p ∈ R2 en R2 . Claramente

x22 − y22 = 0

es la ecuación analı́tica de H en R2 , y por tanto


 
0 0 0
MR2 (H) =  0 1 0  .
0 0 −1

159
√ más explı́cita√de R2 , obsérvese que por definición (de
Si se quiere una determinación
las ecuaciones x2 = x1 + 7/ 5, y2 = y1 − 2/ 5) se deduce que
 
1√ 0 0
M (IdR2 , R1 , R2 ) =  7/ √5 1 0  ,
−2/ 5 0 1
de donde
1 0 0
 
7
M (IdR2 , R2 , R1 ) = M (IdR2 , R1 , R2 )−1 =  − √5 1 0 
√2 0 1
5
Por tanto
1 0 0 1 0 0
  

M (IdR2 , R2 , R0 ) = M (IdR2 , R1 , R0 )·M (IdR2 , R2 , R1 ) =  0 235


√ 1

4 5
· − √75 1 0  ,
0 − 2√1 5 3

4 5
√2
5
0 1

de donde calculando
1 0 0
 
3 1
M (IdR2 , R2 , R0 ) =  −2 √
2 5

4 5
,
1 − 2√1 5 3

4 5

y esto determina el sistema de referencia R2 que resuelve el ejercicio.


Para la segunda parte del ejercicio, observemos que de lo anterior se sigue
 
0 0 0
MR2 (H) = M (IdR2 , R2 , R0 )t · MR0 (H) · M (IdR2 , R2 , R0 ) =  0 1 0  .
0 0 −1
Por otra parte, para toda afinidad f : R2 → R2 sabemos que
MR0 f (H) = M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ),


esto es,
M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ) ∈ MR0 f (H) .


Si elegimos la única f tal que


1 0 0
 

M (f, R0 )−1 −1
= M (f , R0 ) = M (IdR2 , R2 , R0 ) =  −2 2 3 5
√ 1

4 5
,
1 − 2√1 5 3

4 5

o calculando
−1
1 0 0 1 0 0
  
3 1 √7 √3
M (f, R0 ) = M (IdR2 , R2 , R0 )−1 =  −2 2 5
√ √
4 5
 = 5 5
− √15  ,
1 − 2√1 5 3

4 5
− √25 √2
5
√6
5

se tiene que
MR0 (f (H)) = M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ) =
 
0 0 0
= M (IdR2 , R2 , R0 )t · MR0 (H) · M (IdR2 , R2 , R0 ) = MR2 (H) =  0 1 0  ,
0 0 −1
lo que acaba el ejercicio.

160
Ejercicio 4.31 Clasifica la cónica

H = {(x, y) ∈ R2 : − 39 − 18x + 9x2 + 12xy + 8y + 4y 2 = 0}

y encuentra:

Un sistema de referencia en el que adopten su ecuación reducida.

Un isomorfismo afı́n de R2 que las lleve a su ecuación reducida.

Solución : Es claro que


 
−39 −9 4  
9 6
MR0 (H) =  −9 9 6  , NR0 (H) = ,
6 4
4 6 4

donde R0 es el sistema de referencia usual de R2 . De aquı́ que RH = rH + 2 = 3 y


estamos en el caso (III) (el valor de sH y SH en este caso es irrelevante para la discusión
porque en la tabla de las cónicas reducidas sólo hay una con RH = rH + 2 = 3, ese
fenómeno no ocurrirá e dimensiones superiores). Por tanto la forma reducida de H es
 
0 0 1
 0 1 0 
1 0 0

y H es una parábola.
El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene dado por
 
9−t 6
p(t) = det = −13t + t2 = t(t − 13),
6 4−t

de donde NR0 (H) tiene por valores propios a 0, 13 con subespacios propios asociados
 
2 −4 6
V13 = {(x, y) ∈ R : · (x, y)t = (0, 0)t } = L({(3, 2)})
6 −9
y  
2 9 6
V0 = {(x, y) ∈ R : · (x, y)t = (0, 0)t } = L({(2, −3)}).
6 4
Bases ortonormales de los subespacios propios se generan trivialmente:

{ √113 (3, 2)} es base ortonormal de V13 .

{ √113 (2, −3)} es base ortonormal de V0 .

Por tanto,
1 1
B = { √ (3, 2), √ (2, −3)}
13 13
 
2 1 0
es base ortonormal de (R , h , i), y la forma de Sylvester de C0 se alcanza en
0 0
la base ortogonal de (R2 , h , i)
1 1 1
B1 = { √ √ (3, 2), (2, −3)} = { (3, 2), (2, −3)};
13 13 13

161
Nótese la irrelevancia del factor de proporcionalidad en el vector de la base de V0 , por
eso lo hemos elegido con la expresión más simple.
Si denotamos R1 = {(0, 0), B1 } sabemos que

MR1 (H) = M (IdR2 , R1 , R0 )t · MR0 (H) · M (IdR2 , R1 , R0 ),

y como  
1 0 0
3
M (IdR2 , R1 , R0 ) =  0 13
2 
2
0 13
−3
un cálculo inmediato nos da que
−39 − 19
     
1 0 0 −39 −9 4 1 0 0 13
−30
3 2   3 19
MR1 (H) =  0 13 13
· −9 9 6  · 0 13
2  =  − 13 1 0 .
2
0 2 −3 4 6 4 0 13
−3 −30 0 0

Si pR1 = (x1 , y1 ) representan las coordenadas en R1 de los puntos de los puntos p ∈ R2 ,


lo anterior significa que H viene representada en R1 por los ceros del polinomio
38
x21 − x1 − 60y1 − 39 = 0,
13
esto es
19 2 6952
(x1 − ) − 60y1 − = 0.
13 169
Las ecuaciones analı́ticas
19 3476
x2 = x1 − , y2 = −30y1 −
13 169
definen un cambio de R1 a un nuevo sistema de referencia R2 con pR2 = (x2 , y2 )
representando las coordenadas de los puntos p ∈ R2 en R2 . Claramente

x22 + 2y2 = 0

es la ecuación analı́tica de H en R2 , y por tanto


 
0 0 1
MR2 (H) =  0 1 0  .
1 0 0

Si se quiere una determinación más explı́cita de R2 , obsérvese que por definición (de
19
las ecuaciones x2 = x1 − 13 , y2 = −30y1 − 3476
169
) se deduce que
 
1 0 0
19
M (IdR2 , R1 , R2 ) =  − 13 1 0 ,
3476
− 169 0 −30

de donde
 
1 0 0
M (IdR2 , R2 , R1 ) = M (IdR2 , R1 , R2 )−1 =  19
13
1 0 
− 1738
2535
1
0 − 30

Por tanto
M (IdR2 , R2 , R0 ) = M (IdR2 , R1 , R0 ) · M (IdR2 , R2 , R1 ) =

162
     
1 0 0 1 0 0 1 0 0
3 19 2621 3 1 
 0
13
2  · 
13
1 0  =  − 2535 13
− 15 ,
2
0 13
−3 − 1738
2535
0 − 1
30
1928
845
2
13
1
10
y esto determina el sistema de referencia R2 que resuelve el ejercicio.
Para la segunda parte del ejercicio, observemos que de lo anterior se sigue
 
0 0 1
MR2 (H) = M (IdR2 , R2 , R0 )t · MR0 (H) · M (IdR2 , R2 , R0 ) =  0 1 0  .
1 0 0

Como en el ejercicio anterior, toda afinidad f : R2 → R2 satisface

MR0 f (H) = M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ),




o equivalentemente

MR0 f (H) M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ).




Bastará con elegir la única f tal que


 
1 0 0
M (f, R0 )−1 = M (f −1 , R0 ) = M (IdR2 , R2 , R0 ) =  − 2621
2535
3
13
1 
− 15 ,
1928 2 1
845 13 10

esto es
 −1  
1 0 0 1 0 0
M (f, R0 ) = M (IdR2 , R2 , R0 )−1 =  − 2621
2535
3
13
1 
− 15 =  19
− 13 3 2 .
1928 2 1 3476 60 90
845 13 10
− 169
− 13 13

Ejercicio 4.32 Clasificar las siguientes cónicas:


(a) 2x2 − y 2 + 4xy + 6x − 2y + 1 = 0.

(b) x2 + y 2 + 2xy + 2x + 2y = 0.

(c) 4x2 + 2y 2 − 2xy + x − 3y − 3 = 0.


√ √
(d) −x2 + xy − 3 x + 3 y = 0.

Solución : Comencemos con la cónica H en (a) definida por

2x2 − y 2 + 4xy + 6x − 2y + 1 = 0.

En el sistema de referencia usual R0 tenemos


 
1 3 −1
MR0 (H) =  3 2 2 
−1 2 −1

con núcleo simétrico asociado


 
2 2
NR0 (H) = .
2 −1

163
De aquı́ que RH = rH + 1 = 3 y estamos en el caso (II).
El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene dado por
 
2−t 2
p(t) = det = −6 − t + t2 = (−3 + t)(2 + t),
2 −1 − t
de donde NR0 (H) tiene por valores propios a 3 > 0, −2 < 0, s = t = 1 y sH = 0 (esa
información también se deduce de la regla de Descartes).
Análogamente el polinomio caracterı́stico p̂(t) de la matriz MR0 (H) viene dado por
 
1−t 3 −1
p̂(t) = det  3 2−t 2  = −11 + 15t + 2t2 − t3 .
−1 2 −1 − t
La regla de Descartes nos dice que p̂(t) tiene dos raı́ces positivas y una negativa. Por
tanto SH = sH + 1 = 1 y la forma reducida de H es
 
1 0 0
 0 1 0 ,
0 0 −1
esto es, H es una hipérbola afı́n.
Estudiemos la cónica H en (b) definida por
x2 + y 2 + 2xy + 2x + 2y = 0.
En el sistema de referencia usual R0 tenemos que
 
0 1 1
MR0 (H) =  1 1 1 
1 1 1
con núcleo simétrico asociado
 
1 1
NR0 (H) = .
1 1
De aquı́ que RH = rH + 1 = 2 y estamos en el caso (II).
El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene dado por
 
1−t 1
p(x) = det = −2t + t2 = t(t − 2),
1 1−t
de donde NR0 (H) tiene por valores propios a 0, 2 > 0 y sH = 1 (esa información también
se deduce de la regla de Descartes).
Análogamente el polinomio caracterı́stico p̂(t) de la matriz MR0 (H) viene dado por
 
−t 1 1
p̂(t) = det  1 1 − t 1  = 2t + 2t2 − t3 .
1 1 1−t
La regla de Descartes nos dice que p̂(t) tiene una raı́z positiva y una negativa. Por tanto
SH = sH − 1 = 0. Por tanto la forma reducida canónica de H es
 
1 0 0
 0 0 0 ,
0 0 −1

164
esto es, H es un par de rectas paralelas.
Estudiemos la cónica H en (c) definida por

4x2 + 2y 2 − 2xy + x − 3y − 3 = 0.

En el sistema de referencia usual R0 tenemos


 
−3 1/2 −3/2
MR0 (H) =  1/2 4 −1 
−3/2 −1 2
con núcleo cuadrático asociado
 
4 −1
NR0 (H) = .
−1 2

De aquı́ que RH = rH + 1 = 3 y estamos en el caso (II).


El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene dado por
 
4 − t −1
p(t) = det = 7 − 6t + t2 ,
−1 2 − t

de donde por la regla de Descartes NR0 (H) tiene dos raı́ces positivas y sH = 2.
Análogamente el polinomio caracterı́stico p̂(t) de la matriz MR0 (H) viene dado por
 
−3 − t 1/2 −3/2
27
p̂(t) = det  1/2 4 − t −1  = −29 + t + 3t2 − t3 .
2
−3/2 −1 2 − t

La regla de Descartes nos dice que p̂(t) tiene dos raı́ces positivas y una negativa y por
tanto SH = sH − 1 = 1. La forma reducida de H es por tanto
 
1 0 0
 0 −1 0  ,
0 0 −1
esto es, H es una elipse afı́n.
Estudiemos la cónica H en (d) definida por
√ √
−x2 + xy − 3 x + 3 y.

En el sistema de referencia usual R0 tenemos


 √ √ 
√0 − 3/2 3/2
MR0 (H) =  −√ 3/2 −1 −1/2 
3/2 −1/2 0
co núcleo cuadrático asociado
 
−1 −1/2
NR0 (H) = .
−1/2 0

De aquı́ que RH = rH + 1 = 3 y estamos en el caso (II).


El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene dado por
 
−1 − t −1/2 1
p(x) = det = − + t + t2 ,
−1/2 −t 4

165
de donde por la regla de Descartes NR0 (H) tiene una raı́z positiva, otra negativa y
sH = 0.
Análogamente el polinomio caracterı́stico p̂(t) de la matriz MR0 (H) viene dado por
 √ √ 
√−t − 3/2 3/2
3 7
p̂(t) = det  −√ 3/2 −1 − t −1/2  = + t − t2 − t3 .
2 4
3/2 −1/2 −t

La regla de Descartes nos dice que p̂(t) tiene dos raı́ces negativas y una positiva y por
tanto SH = sH + 1 = 1. La forma reducida de H es
 
1 0 0
 0 1 0 ,
0 0 −1

esto es, H es una hipérbola afı́n.

Ejercicio 4.33 Clasifica afı́nmente la cuádrica

H = {(x1 , x2 , x3 ) ∈ R3 : x21 − 2x1 x2 − 2x1 x3 − 2x1 + x22 − 2x2 x3 + x23 + 2x3 + 1 = 0},

encontrando un sistema de referencia afı́n en el que venga representada por su matriz


canónica.

Solución : En la referencia usual R0 de R3


 
1 −1 0 1
 −1 1 −1 −1 
MR0 (H) =  0 −1 1 −1


1 −1 −1 1

con núcleo cuadrático  


1 −1 −1
NR0 (H) =  −1 1 −1  .
−1 −1 1
Un cálculo elemental del rango de ambas matrices nos dice que

RH = rang(MR0 (H)) = 3, rH = rang(NR0 (H)) = 3.

Por otra parte, los polinomios caracterı́sticos de MR0 (H) y NR0 (H) son respectivamente

p̂(t) = 6t+t2 −4t3 +t4 = (−3+t)(−2+t)t(1+t), p(t) = −4+3t2 −t3 = −(−2+t)2 (1+t).

Por tanto la regla de Descartes (o una observación directa) nos dice que

SH = sh = 1.

De la tabla de clasificación de las cuádricas concluimos que H tiene por matriz canónica
 
0 0 0 0
 0 1 0 0 
Ĉ0 =  0 0 1 0 ,

0 0 0 −1

166
se trata de un cono.
Para encontrar la referencia en la que adopta su matriz canónica procedemos como
sigue. Primero calculamos los subespacios propios asociados a los valores propios −1, 2
del núcleo cuadrático NR0 (H).
Para el valor propio 1 queda

V−1 = {(x, y, z) ∈ R3 : (NR0 (H) + I3 ).(x, y, z)t = (0, 0, 0)t } = L({(1, 1, 1)},

que admite a { 13 (1, 1, 1)} como base ortonormal. A esta base la multiplicamos por
p
1/ | − 1| = 1 (quedará invariante), generando la base de V−1 :

1
B−1 = { (1, 1, 1)}
3
Para el valor propio 2 hacemos un cálculo similar.

V2 = {(x, y, z) ∈ R3 : (NR0 (H) − 2I3 ).(x, y, z)t = (0, 0, 0)t } = L({(1, −1, 0), (1, 0, −1)},
q
que tiene a ( √12 , − √12 , 0), ( √16 , √16 , − 23 ) como base ortonormal. A esta base la mul-

p √
tiplicamos por 1/ |2| = 1/ 2 generando la base de V2 :
 1 1  1 1 1 
B2 = , − , 0 , √ , √ , −√ .
2 2 2 3 2 3 3
En el sistema de referencia centrado en el origen con direcciones B−1 ∪ B2 , a saber,
 1 1 1  1 1 1 
R1 = (0, 0, 0), { (1, 1, 1), , − , 0 , √ , √ , − √ } ,
3 2 2 2 3 2 3 3
la matriz que representa a H es la siguiente

MR1 (H) = M (Id3 , R1 , R0 )t · Ĉ · M (Id3 , R1 , R0 ) =


  
1 0 0 0 1 0 0 0
  
1 −1 0 1
1 1 1
 0 √1 1
√ 1
√  0 √3 2 √
3  ·  −1 1 −1 −1 
   
3 3 2 3
= · ,

0   0 −1 1 −1   0 √13 − 12 2√1 3
1

 0 − 12

2 
1 1
0 √
2 3

2 3
− √13 1 −1 −1 1 0 √13 0 − √13
esto es, √ 
0 − 12 − 23

1
 0 −1 0 0 
MR1 (H) = 
 − 1

√2
0 1 0 
− 23 0 0 1
Si llamamos pR1 = (y1 , y2 , y3 ) a las coordenadas en R1 de los puntos p ∈ R3 , la hiper-
cuádrica se corresponde con los ceros del polinomio

1 − y12 − y2 + y22 − 3y3 + y32 = 0,

o equivalentemente completando cuadrados



1 2 3 2
−y12 + (y2 − ) + (y3 − ) = 0.
2 2

167
Consideremos el único sistema de referencia R2 en R3 en el que las coordenadas pR2 =
(z1 , z2 , z3 ) de los puntos de p ∈ R3 vengan determinadas por las ecuaciones analı́ticas

1 3
z1 = y2 − , z2 = y3 − , z 3 = y1 ,
2 2
esto es, el que satisface
 
1 0 0 0
 −1 0 1 0 
M (IdR3 , R1 , R2 ) =  √2 .
 − 3 0 0 1 
2
0 1 0 0

La cuádrica H se corresponde ahora con los puntos de R3 cuyas coordenadas en R2 son


ceros del polinomio
z12 + z22 − z32 = 0,
y por tanto H viene representada en R2 por la matriz canónica Ĉ0 . Esto concluye el
ejercicio.
Si se desea expresar R2 respecto a la referencia R0 basta con usar la fórmula

M (IdR3 , R2 , R0 ) = M (IdR3 , R1 , R0 )·M (IdR3 , R2 , R1 ) = M (IdR3 , R1 , R0 )·M (IdR3 , R1 , R2 )−1 =


   −1  
1 0 0 0 1 0 0 0 1 0 0 0
 0 √1 1 1
√ 1  1 1 1
√ √1 
2 3   −√2 0 1 0 
 
3 2  2 2 2 3 3 
= · = 1 .

1 1 1 1 1

 0 √3 − 2 2√3   − 23 0 0 1   0 − 2 2√3 √3 
 
0 √13 0 − √13 0 1 0 0 − 12 0 − √13 √13

Ejercicio 4.34 Para la cuádrica en R3 dada por

2xy + 2xz + 2yz − 6x − 6y − 4z + 9 = 0,

determinar una sistema de referencia y un isomorfimo afı́n de R3 que la lleve a su


ecuación reducida.

Solución : Es claro que


 
9 −3 −3 −2
 −3 0 1 1 
MR0 (H) = 
 −3 1

0 1 
−2 1 1 0

con núcleo cuadrático asociado


 
0 1 1
NR0 (H) =  1 0 1  ,
1 1 0

donde R0 es el sistema de referencia usual de R3 . De aquı́ que RH = rH + 1 = 4 y


estamos en el caso (II). El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene
dado por

p(t) = det NR0 (H) − tI3 = 2 + 3t − t3 = −(−2 + t)(1 + t)2




168
de donde NR0 (H) tiene por valores propios a −1, −1 < 0, 2 > 0 y sH = 1. Análogamente
el polinomio caracterı́stico de MR0 (H) queda

p̂(t) = det MR0 (H) − tI4 = −2 − 17t − 25t2 − 9t3 + t4 ,




de donde por la regla de Descartes p̂(t) tiene una raı́z > 0 y tres raı́ces < 0, y de aquı́
que SH = 2. Por tanto la forma reducida o canónica de H es
 
1 0 0 0
 0 1 0 0 
 
 0 0 1 0 
0 0 0 −1
y H es un hiperboloide de dos hojas.
Para encontrar el sistema de referencia en el que H adopta su forma canónica,
primero lo que hacemos es cambiar MR0 (H) por su opuesta, e igualmente con NR0 (H),
para ası́ lograr que las formas de Sylvester de éstas matrices se correspondan con las
asociadas a la forma canónica indicada. Renombraremos a las opuestas con la misma
notación:
 
−9 3 3 2  
0 −1 −1
 3 0 −1 −1  
 −1 0 −1  .
MR0 (H) =   3 −1 0 −1  , NR0 (H) =
−1 −1 0
2 −1 −1 0
Ahora NR0 (H) tiene por valores propios 1 > 0 doble y −2 < 0 simple, y el polinomio
caracterı́stico de MR0 (H) tiene una raı́z < 0 y tres raı́ces > 0.
Observemos que los subespacios propios de NR0 (H) para los valores propios 1, −2
son:
 
−1 −1 −1
V1 = {(x, y, z) ∈ R3 :  −1 −1 −1 ·(x, y, z)t = (0, 0, 0)t } = L({(1, −1, 0), (, 1, −1, 0)})
−1 −1 −1
y
 
2 −1 −1
V−2 = {(x, y, z) ∈ R3 :  −1 2 −1  · (x, y, z)t = (0, 0, 0)t } = L({(1, 1, 1)}).
−1 −1 2
Bases ortonormales de los subespacios propios se generan trivialmente:
{ √12 (1, −1, 0), √16 (1, 1, −2)} es base ortonormal de V1 .

{ √13 (1, 1, 1)} es base ortonormal de V−2 .


Por tanto,
1 1 1
B = { √ (1, −1, 0), √ (1, 1, −2), √ (1, 1, 1)}
2 6 3
 
1 0 0
es base ortonormal de (R3 , h , i), y la forma de Sylvester  0 1 0  de NR0 (H) se
0 0 −1
3
alcanza en la base ortogonal de (R , h , i)
1 1 1 1 1 1 1
B1 = { √ (1, −1, 0), √ (1, 1, −2), √ √ (1, 1, 1)} = { √ (1, −1, 0), √ (1, 1, −2), √ (1, 1, 1)}.
2 6 2 3 2 6 6

169
Si denotamos R1 = {(0, 0, 0), B1 } sabemos que

MR1 (H) = M (IdR2 , R1 , R0 )t · MR0 (H) · M (IdR2 , R1 , R0 ),

y como
1 0 0 0
 
1 √1 √1
 0 √
2 6 6

M (IdR3 , R1 , R0 ) = 
 
0 − √12 √1 √1 
 q6 6 
2 √1
0 0 − 3 6

un cálculo inmediato nos da que


 q q 
2
−9 0 3
4 23
 
 0 1 0 0 
MR1 (H) =  q 2
 
0 1 0

 q3
 

4 23 0 0 −1

Si pR1 = (x1 , y1 , z1 ) representan las coordenadas en R1 de los puntos de los puntos


p ∈ R3 , lo anterior significa que H viene representada en R1 por los ceros del polinomio
r r
2 2
x21 + y12 − z12 + 2 y1 + 8 z1 − 9 = 0,
3 3
esto es r r
2 2 2 2
x21 + y1 + − z1 − 4 + 1 = 0.
3 3
Las ecuaciones analı́ticas
r r
2 2
x2 = x1 , y2 = y1 + , z2 = z1 − 4
3 3
definen un cambio de R1 a un nuevo sistema de referencia R2 con pR2 = (x2 , y2 , z2 )
representando las coordenadas de los puntos p ∈ R2 en R2 . Claramente

x22 + y22 − z22 + 1 = 0

es la ecuación analı́tica de H en R2 , y por tanto


 
1 0 0 0
 0 1 0 0 
MR2 (H) =  0 0 1 0
.

0 0 0 −1

q explı́cita de R
Si se quiere una determinación más q2 , obsérvese que por definición (de
las ecuaciones x2 = x1 , y2 = y1 + 3 , z2 = z1 − 4 23 ) se deduce que
2

 
1 0 0 0
q0 1 0 0 

 
M (IdR3 , R1 , R2 ) =  2
0 1 0 ,

3

 q 
−4 23 0 0 1

170
de donde
 
1 0 0 0
 0 1 0 0 
−1
 q 
M (IdR2 , R2 , R1 ) = M (IdR2 , R1 , R2 ) =
 − 23 0 1 0 

 q 
4 23 0 0 1

Por tanto
M (IdR2 , R2 , R0 ) = M (IdR2 , R1 , R0 ) · M (IdR2 , R2 , R1 ) =
  1 0 0 0
 
1 0 0 0 1 0 0 0
 
 0 √1 √1 √1   0 1 0 0   1 √1 √1 √1 
2 6 6   q   2 6 6
= √1  ·  −
 = √1 √1 √1

0 − √12 √1 2
0 1 0 1 −
 
2 q6 6
q6 6  
q3
 
  
2 1 2 √1
0 0 − 3 √
6
2
4 3 0 0 1 2 0 − 3 6

y esto determina el sistema de referencia R2 que resuelve el ejercicio.


Para la segunda parte del ejercicio, observemos que de lo anterior se sigue
 
1 0 0 0
 0 1 0 0 
MR2 (H) = M (IdR2 , R2 , R0 )t · MR0 (H) · M (IdR2 , R2 , R0 ) = 
 0 0 1 0
.

0 0 0 −1

Por otra parte, para toda afinidad f : R3 → R3 sabemos que

M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ) ∈ MR0 f (H) .




Si elegimos la única f tal que

1 0 0 0
 
 1 √12 √1
6
√1
6

−1 −1
M (f, R0 ) = M (f , R0 ) = M (IdR3 , R2 , R0 ) =  ,
 
1 − √12 √1 √1
 q6 6 
2 √1
2 0 − 3 6

esto es
 
1 0 0 0
 0 √1 − √12 0 
2
−1
 q q 
M (f, R0 ) = M (IdR3 , R2 , R0 ) = 2 √1 √1 − 23
,
3
 
 q q6 q6 q 
−4 23 2
3
2
3
2
3

tendremos que

MR0 (f (H)) = M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ) =


 
1 0 0 0
 0 1 0 0 
= M (IdR3 , R2 , R0 )t · MR0 (H) · M (IdR3 , R2 , R0 ) = MR2 (H) =  0
,
0 1 0 
0 0 0 −1
lo que acaba el ejercicio.

171
Ejercicio 4.35 Clasifica afı́nmente la cuádrica en R3 dada por

2x2 + 3y 2 + 2xy − 2yz + 2z + 2 = 0.

Solución : Es claro que


 
2 0 0 1
 0 2 1 0 
MR0 (H) =  
 0 1 3 −1 
1 0 −1 0

con núcleo cuadrático asociado


 
2 1 0
NR0 (H) =  1 3 −1  ,
0 −1 0

donde R0 es el sistema de referencia usual de R3 . De aquı́ que RH = rH + 1 = 4 y


estamos en el caso (II). El polinomio caracterı́stico p(x) de la matriz NR0 (H) viene
dado por
p(t) = det NR0 (H) − tI3 = −2 − 4t + 5t2 − t3


de donde por la regla de Descartes NR0 (H) tiene dos valores propios > 0 y uno < 0,
por lo que sH = 1. Análogamente el polinomio caracterı́stico de MR0 (H) queda

p̂(t) = det MR0 (H) − tI4 = −9 − t + 13t2 − 7t3 + t4 ,




de donde por la regla de Descartes p̂(t) tiene tres raı́ces > 0 y una < 0, y de aquı́ que
SH = 2. Por tanto la forma reducida o canónica de H es
 
1 0 0 0
 0 1 0 0 
 
 0 0 1 0 
0 0 0 −1

y H es un hiperboloide de dos hojas.

Ejercicio 4.36 Para la cuádrica en R3 dada por

x2 + y 2 + z 2 + 2xy − 2x − 2z + 1 = 0

determinar una sistema de referencia y un isomorfimo afı́n de R3 que la lleve a su


ecuación reducida.

Solución : Es claro que


 
1 −1 0 −1
 −1 1 1 0 
MR0 (H) = 
 0

1 1 0 
−1 0 0 1

con núcleo cuadrático asociado


 
1 1 0
NR0 (H) =  1 1 0  ,
0 0 1

172
donde R0 es el sistema de referencia usual de R3 . De aquı́ que RH = rH + 2 = 4 y
estamos en el caso (III). El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene
dado por

p(t) = det NR0 (H) − tI3 = −2t + 3t2 − t3 = −(−2 + t)(−1 + t)t


de donde NR0 (H) tiene por valores propios a 0, 1, 2 > 0 y SH = sH = 2. Por tanto la
forma reducida o canónica de H es
 
0 0 0 1
 0 1 0 0 
 
 0 0 1 0 
1 0 0 0

y H es un paraboloide elı́ptico.
Para encontrar el sistema de referencia en el que H adopta su forma canónica,
observemos que los subespacios propios de NR0 (H) para los valores propios 0, 1, 2 son:
 
0 1 0
V1 = {(x, y, z) ∈ R3 :  1 0 0  · (x, y, z)t = (0, 0, 0)t } = L({(0, 0, 1))}),
0 0 0
 
−1 1 0
V2 = {(x, y, z) ∈ R3 :  1 −1 0  · (x, y, z)t = (0, 0, 0)t } = L({(1, 1, 0)}),
0 0 −1
y
 
1 1 0
V0 = {(x, y, z) ∈ R3 :  1 1 0  · (x, y, z)t = (0, 0, 0)t } = L({(1, −1, , 0))}).
0 0 1

Bases ortonormales de los subespacios propios se generan trivialmente:

{(0, 0, 1)} es base ortonormal de V1 .

{ √12 (1, 1, 0)} es base ortonormal de V2 .

V0 = { √12 (1, −1, 0)}.

Por tanto,
1 1
{(0, 0, 1), √ (1, 1, 0)), √ (1, −1, 0)}
2 2
 
1 0 0
es base ortonormal de (R3 , h , i), y la forma de Sylvester  0 1 0  de NR0 (H) se
0 0 0
3
alcanza en la base ortogonal de (R , h , i)
1 1 1
B1 = {(0, 0, 1), √ √ (1, 1, 0)), (1, −1, 0)} = {(0, 0, 1), (1, 1, 0)), (1, −1, 0)}).
2 2 2

Nótese que el vector en B1 proveniente de una base de V0 es irrelevante, por eso hemos
elegido el más simple para el cálculo.

173
Si denotamos R1 = {(0, 0, 0), B1 } sabemos que

MR1 (H) = M (IdR2 , R1 , R0 )t · MR0 (H) · M (IdR2 , R1 , R0 ),

y como  
1 0 0 0
 0 0 21 1 
M (IdR3 , R1 , R0 ) =  
 0 0 21 −1 
0 1 0 0
un cálculo inmediato nos da que

1 −1 − 12 −1
 
 −1 1 0 0 
MR1 (H) = 
 − 1

2
0 1 0 
−1 0 0 0

Si pR1 = (x1 , y1 , z1 ) representan las coordenadas en R1 de los puntos de los puntos


p ∈ R3 , lo anterior significa que H viene representada en R1 por los ceros del polinomio

x21 + y12 − 2x1 − y1 − 2z1 + 1 = 0,

esto es,
1 1
(x1 − 1)2 + (y1 − )2 − 2(z1 + ) = 0
2 8
Las ecuaciones analı́ticas
1 1
x2 = x1 − 1, y2 = y1 − , z2 = −z1 −
2 8
definen un cambio de R1 a un nuevo sistema de referencia R2 con pR2 = (x2 , y2 , z2 )
representando las coordenadas de los puntos p ∈ R2 en R2 . Claramente

x22 + y22 − 2z2 = 0

es la ecuación analı́tica de H en R2 , y por tanto


 
0 0 0 1
 0 1 0 0 
MR2 (H) =   0 0
.
1 0 
1 0 0 0

Si se quiere una determinación más explı́cita de R2 , obsérvese que por definición (de
las ecuaciones x2 = x1 − 1, y2 = y1 − 21 , z2 = −z1 − 18 ) se deduce que
 
1 0 0 0
 −1 1 0 0 
M (IdR3 , R1 , R2 ) = 
 −1 0 1 0  ,

2
− 18 0 0 −1

de donde
 
1 0 0 0
 1 1 0 0 
M (IdR2 , R2 , R1 ) = M (IdR2 , R1 , R2 )−1 =
 1
.
2
0 1 0 
− 18 0 0 −1

174
Por tanto
M (IdR2 , R2 , R0 ) = M (IdR2 , R1 , R0 ) · M (IdR2 , R2 , R1 ) =
     
1 0 0 0 1 0 0 0 1 0 0 0
 0 0 1 1   1 1 0 0   − 3 0 1 −1 
 0 0 1 −1  ·  1 0 1 0  =  − 1 0 1 1
= 2     8 2 

2 2 8 2
0 1 0 0 − 18 0 0 −1 −1 1 0 0
y esto determina el sistema de referencia R2 que resuelve el ejercicio.
Para la segunda parte del ejercicio, observemos que de lo anterior se sigue
 
0 0 0 1
 0 1 0 0 
MR2 (H) = M (IdR2 , R2 , R0 )t · MR0 (H) · M (IdR2 , R2 , R0 ) = 
 0 0
.
1 0 
1 0 0 0

Como para toda afinidad f : R3 → R3 sabemos que

M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ) ∈ MR0 f (H) ,




si elegimos la única f tal que


 
1 0 0 0
− 83 0 12 −1 
M (f, R0 )−1 = M (f −1 , R0 ) = M (IdR3 , R2 , R0 ) = 

,
 −1 0 12 1 
8
−1 1 0 0

esto es  
1 0 0 0
 1 0 0 1 
M (f, R0 ) = M (IdR3 , R2 , R0 )−1 = 1
,

2
1 1 0 
1 1 1
−8 −2 2 0
tendremos que

MR0 (f (H)) = M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ) =


 
0 0 0 1
 0 1 0 0 
= M (IdR3 , R2 , R0 )t · MR0 (H) · M (IdR3 , R2 , R0 ) = MR2 (H) = 
 0
,
0 1 0 
1 0 0 0
lo que acaba el ejercicio.

Ejercicio 4.37 Clasifica afı́nmente la cuádrica H del espacio afı́n R3 que en el sistema
de referencia usual R0 viene definida por la ecuación

x2 + y 2 + z 2 + xy + xz + yz + x + y + z + 1 = 0.

Solución : Es claro que


1 1 1
 
1 2 2 2
1 1 1

2
1 2 2

MR0 (H) =  1 1 1


2 2
1 2

1 1 1
2 2 2
1

175
con núcleo cuadrático asociado
1 1
 
1 2 2
1 1
NR0 (H) =  2
1 2
,
1 1
2 2
1

donde R0 es el sistema de referencia usual de R3 . De aquı́ que RH = rH + 1 = 4 y


estamos en el caso (II). El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene
dado por
1
p(t) = det C0 − tI3 = 1/2 − (9t)/4 + 3t2 − t3 = − (−2 + t)(−1 + 2t)2

4
de donde NR0 (H) tiene por valores propios 2 > 0, 1/2 doble y sH = 3. Análogamente
el polinomio caracterı́stico p̂(t) de MR0 (H) viene dado por
5 9
− 2t + t2 − 4t3 + t4 ,

p̂(t) = det MR0 (H) − tI4 =
16 2
y la regla de Descartes nos dice que p̂(t) tiene cuatro raı́ces positivas y SH = 4.
Por tanto la forma reducida o canónica de H es
 
1 0 0 0
 0 1 0 0 
 
 0 0 1 0 
0 0 0 1
y H es vacı́a.

Ejercicio 4.38 Encontrar la ecuación reducida de la hipercuádrica en R4 de ecuación:

2x2 − y 2 + z 2 − w2 + 2xz − 2yz + 2yw + 2x − 2y + 2w + 1 = 0.

Solución : Es claro que


 
1 1 −1 0 1

 1 2 0 1 0 

MR0 (H) = 
 −1 0 −1 −1 1 

 0 1 −1 1 0 
1 0 1 0 −1
con núcleo cuadrático asociado
 
2 0 1 0
 0 −1 −1 1 
NR0 (H) = 
 1 −1 1
,
0 
0 1 0 −1

donde R0 es el sistema de referencia usual de R3 . De aquı́ que RH = rH + 1 = 5 y


estamos en el caso (II). El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene
dado por
p(t) = det NR0 (H) − tI3 = 2 + 3t − 6t2 − t3 + t4


de donde por la regla de Descartes p(t) tiene tiene dos raı́ces positivas y dos negativas,
y por tanto sH = 0. Análogamente el polinomio caracterı́stico p̂(t) de MR0 (H) viene
dado por
p̂(t) = det MR0 (H) − tI4 = 3 + t − 14t2 + 8t3 + 2t4 − t5 ,


176
y la regla de Descartes nos dice que p̂(t) tiene dos raı́ces positivas y tres negativas, y
cambiando MR0 (H) por su opuesta, tres positivas y dos negativas. En cualquier caso
SH = 1 y la forma reducida o canónica de H es
 
1 0 0 0 0
 0 1 0 0 0 
 
.
 0 0 1 0 0 

 0 0 0 −1 0 
0 0 0 0 −1

Ejercicio 4.39 Demuestra los siguientes enunciados.


(a) El lugar geométrico de los puntos del plano afı́n euclidiano R2 tales que la suma
de las distancias a dos puntos fijos (llamados focos) es constante, es una elipse
euclidiana.

(b) El lugar geométrico de los puntos del plano afı́n euclidiano R2 tales que el valor
absoluto de la diferencia de sus distancias a dos puntos fijos (llamados focos) es
constante, es una hipérbola euclidiana.

(c) El lugar geométrico de los puntos del plano afı́n euclidiano R2 que equidistan de
una recta (llamada directriz) y de un punto exterior a la misma (llamado foco), es
una parábola euclidiana.

Solución : Discutamos (a). Tomemos F1 , F2 ∈ R2 dos puntos cualesquiera (podrı́a ser


F1 = F2 ), consideremos

H = {p ∈ R2 : d(p, F1 ) + d(p, F2 ) = 2b}.

Como d(F1 , F2 ) ≤ d(p, F1 )+d(p, F2 ), la condición 2b < d(F1 , F2 ) implicarı́a que H = ∅.


Para evitar este caso degenerado supondremos 2b ≥ d(F1 , F2 ), lo que como veremos más
adelante implicará que H 6= ∅.
Sea f : R2 → R2 cualquier movimiento rı́gido tal que

f (F1 ) = (−a, 0) ∈ R2 , f (F2 ) = (a, 0) ∈ R2 ,

donde 2a = d(F1 , F2 ) ≤ 2b, esto es, a ≤ b. Excluiremos el caso a = b por ser degenerado
y supondremos a < b. Bastará con comprobar que f (H) es una elipse euclı́dea. En
efecto, la ecuación
p p
d((x, y), (−a, 0)) + d((x, y), (a, 0)) = 2b ⇐⇒ (x + a)2 + y 2 + (x − a)2 + y 2 = 2b.

Operando p 2
(x + a)2 + y 2 = (x − a)2 + y 2 − 2b ,
y desarrollando y usando la ecuación original
p
b2 − ax + b (a + x)2 + y 2 = 0.
 2
De aquı́ que b2 (a + x)2 + y 2 = b2 − ax , esto es,

1 2 1
1− 2
x − 2 2
y 2 = 0,
b b −a

177
1 1
lo que corresponde con una elipse euclidiana toda vez que − b2 −a2 > 0, − b2 < 0.

Discutamos (b). Tomemos F1 , F2 ∈ R2 dos puntos cualesquiera con F1 6= F2 (de otra


forma el problema degenera). Consideremos

H = {p ∈ R2 : d(p, F2 ) − d(p, F1 ) = 2b}.

El caso b = 0 se corresponde con que H sea la mediatriz del segmento [F1 , F2 ], caso
que excluimos. Como d(F1 , p) ≤ d(F1 , F2 ) + d(F2 , p) y d(F2 , p) ≤ d(F2 , F1 ) + d(F1 , p),
deducimos que
2b = d(p, F2 ) − d(p, F1 ) ≤ d(F2 , F1 )
Sea f : R2 → R2 cualquier movimiento rı́gido tal que

f (F1 ) = (0, −a) ∈ R2 , f (F2 ) = (0, a) ∈ R2 ,

donde 2a = d(F1 , F2 ). La anterior desigualdad nos da que

2b = d(p, F2 ) − d(p, F1 ) ≤ 2a, esto es, b ≤ a.

Excluiremos el caso a = b por ser degenerado (generarı́a una recta doble), por lo
que supondremos a < b. Bastará con comprobar que f (H) es una hipérbola euclı́dea.
En efecto, la ecuación
p p
d((x, y), (0, a)) − d((x, y), (0, −a)) = 2b ⇐⇒ x2 + (y − a)2 − x2 + (y + a)2 = 2b.

Suponiendo que
d((x, y), (0, a)) − d((x, y), (0, −a)) = 2b > 0
(a la misma ecuación se llegarı́a si d((x, y), (0, a)) − d((x, y), (0, −a)) = −2b < 0) y
operando p 2
(y − a)2 + x2 = (y + a)2 + x2 + 2b ,
y desarrollando y usando la ecuación original
p
−4b (a + y)2 + x2 − 4ay − 4b2 = 0.
 2
De aquı́ que b2 (a + y)2 + x2 = b2 + ay , esto es,

1 2 1 2
1+ x − y = 0,
a2 − b 2 b2
1
lo que corresponde con una hipérbola euclidiana toda vez que a2 −b2
> 0, − b12 < 0. La
dicotomı́a

d((x, y), (0, a))−d((x, y), (0, −a)) = 2b > 0, d((x, y), (0, a))−d((x, y), (0, −a)) = −2b < 0

refleja analı́ticamente cada una de las dos ramas de la hipérbola.

Discutamos (c). Tomemos un punto F ∈ R2 y una recta R ⊂ R2 , y consideremos

H = {p ∈ R2 : d(p, F ) = d(p, R)}.

Si p ∈ R es fácil ver que H es la recta ortogonal a R que pasa por p, caso degenerado.
Supondremos pues que p ∈ / R.

178
Sea f : R2 → R2 cualquier movimiento rı́gido tal que

f (F ) = (0, −a) ∈ R2 , f (R) = {(x, y) ∈ R2 : y = a}, a > 0.

Tras esta isometrı́a euclidiana H se convierte en


p
H = {(x, y) ∈ R2 : (a + y)2 + x2 = |y − a|}.

Calculando, (x, y) ∈ H si y sólo si


1 2
(a + y)2 + x2 − (y − a)2 = 0 ⇐⇒ 2y + x = 0,
2a
lo que corresponde con una parábola euclidiana.

Ejercicio 4.40 Un hipercuádrica H en Rn se dice invariante por homotecias lineales


si para toda homotecia hO,r con centro el origen O ∈ Rn y razón r 6= 0,

M (h−1 t −1
O,r , R0 ) · MR0 (H) · M (hO,r , R0 ) = λMR0 (H)

para algún λ ∈ R \ {0} (dependiendo de r); en particular, hO,r (H) = H para todo
r ∈ R \ {0}.  
0 0
Demostrar que H cumple esta propiedad si y sólo si MR0 (H) = , donde
0 C
C es simétrica y no nula. Mostrar ejemplos de este tipo de cuádricas en R2 y R3 .

a zt
 
Solución : Escribamos MR0 (H) = , y por tanto
z C

H = {x ∈ Rn : xt · C · x + 2hz, xi + a = 0}.

Supongamos que h0,r (H) = H para todo r 6= 0. La condición

M (h−1 t −1
O,r , R0 ) · MR0 (H) · M (hO,r , R0 ) = λ MR0 (H) ∀r ∈ R \ {0}

en nuestras hipótesis equivale a que

a rz t
 
= λ MR0 (H) ∀r ∈ R \ {0},
rz r2 C

esto es,
a rz t a zt
     
∈ λ : λ ∈ R \ {0} ∀r ∈ R \ {0}.
rz r2 C z C
Por tanto necesariamente a = 0 y z = 0, y de aquı́ se sigue lo buscado.
Ejemplos en R2 y R3 son todos los del tipo (I).

Ejercicio 4.41 Hacer la clasificación euclidiana de la cónica en el plano euclidiano


(R2 , h , i) dada por
2x2 − y 2 + 4xy + 6x − 2y + 1 = 0.
Dar un sistema de referencia rectangular de (R2 , h , i) en el que adopte su forma reduci-
da, y un movimiento rı́gido que la lleva a su forma reducida en el sistema de referencia
rectangulat usual R0 de (R2 , h , i).

179
Solución : Comencemos con la cónica H en (a) definida por
2x2 − y 2 + 4xy + 6x − 2y + 1 = 0.
En el sistema de referencia rectangular usual R0 en el plano euclidiano (R2 , h , i), tene-
mos que  
1 3 −1
MR0 (H) =  3 2 2 
−1 2 −1
con núcleo simétrico asociado
 
2 2
NR0 (H) = .
2 −1
De aquı́ que RH = rH + 1 = 3 y estamos en el caso (II).
El polinomio caracterı́stico p(t) de la matriz NR0 (H) viene dado por
 
2−t 2
p(t) = det = −6 − t + t2 = (−3 + t)(2 + t),
2 −1 − t
de donde NR0 (H) tiene por valores propios a 3 > 0, −2 < 0 y sH = 0 (esa información
también se deduce de la regla de Descartes).
Análogamente el polinomio caracterı́stico p̂(t) de la matriz MR0 (H) viene dado por
 
1−t 3 −1
p̂(t) = det  3 2−t 2  = −11 + 15t + 2t2 − t3 .
−1 2 −1 − t
La regla de Descartes nos dice que p̂(t) tiene dos raı́ces positivas y una negativa. Por
tanto SH = sH + 1 = 1 y la forma reducida de H es
 
1 0 0
 0  0 ,
0 0 −δ
para ciertos , δ > 0 por determinar, esto es, H es una hipérbola euclı́dea.
Para la clasificación euclidiana necesitamos encontrar una base ortonormal de R2 en
la que diagonalice C (diagonalización ortogonal). Para ello determinamos los subespa-
cios propios de C asociados a sus valores propios.
 
2 −1 2
V3 = {(x, y) ∈ R : (x, y)t = (0, 0)t } = L({(2, 1)}).
2 −4
 
2 4 2
V−2 = {(x, y) ∈ R : (x, y)t = (0, 0)t } = L({(−1, 2)}).
2 1
Determinamos bases ortonormales { √15 (2, 1)} de V3 y { √15 (−1, 2)} de V−2 y formamos
la base ortonormal de R2 , h , i)
1 1
B1 = { √ (2, 1), √ (−1, 2)}.
5 5
Consideremos el sistema de referencia rectangular R1 = {(0, 0), B1 } y observemos que
1 0 0
 
2 1
M (IdR2 , R1 , R0 ) =  0 √5 − √5 
0 √15 √25

180
Como MR1 (H) = M (IdR2 , R1 , R0 )t · MR0 (H) · M (IdR2 , R1 , R0 ), deducimos que
 √ √ 
√ 1 5 − 5
MR1 (H) = 
√5 3 0 .
− 5 0 −2

Si escribimos pR1 = (x1 , y1 ) para las coordenadas de los puntos p ∈ R2 en R1 , tenemos


que H se corresponde con los puntos cuyas coordenadas en R1 satisfacen el polinomio
√ √
3x21 − 2y12 + 2 5x1 − 2 5y1 + 1 = 0.

Un cálculo elemental nos permite reescribir la ecuación como


√ √
2 2 5  2 2 5 
3 x1 + x1 − 2 y 1 + y1 + 1 = 0,
3 2
y completando cuadrados
√ √
5 2 5 2 11
3 x1 + − 2 y1 + + = 0,
3 2 6
y dividiendo por 11/6
√ √
18 5 2 12 5 2
x1 + − y1 + + 1 = 0.
11 3 11 2
Las ecuaciones analı́ticas
√ √
5 5
x 2 = x1 + , y2 = y1 +
3 2
modelan el cambio de sistema de referencia de R1 al nuevo sistema de referencia R2 de
coordenadas (x2 , y2 ). Obsérvese que R2 es también un sistema de referencia rectangular
ya que
1 0 0
 

M (IdR2 , R1 , R2 ) =  √35 1 0  ,
5
2
0 1
R1 es rectangular y M (IdR2 , B1 , B2 ) = I2 ∈ O(2, R), donde B2 es la base de direcciones
de R2 . Como los puntos p ∈ H en coordenadas pR2 = (x2 , y2 ) se caracterizan por
satisfacer
18 2 12 2
x − y + 1 = 0,
11 2 11 2
tenemos que  
1 0 0
MR2 (H) =  0 18 11
0 
12
0 0 − 11
y en R2 la cónica adopta su forma reducida euclidiana con  = 18
11
,δ = 12
11
.
Si se quiera explicitar R2 en coordenadas usuales, observemos que

1√ 0 0
 

M (IdR2 , R2 , R1 ) = M (IdR2 , R1 , R2 )−1 =  − √35 1 0  ,


− 25 0 1

181
y como M (IdR2 , R2 , R0 ) = M (IdR2 , R1 , R0 ) · M (IdR2 , R2 , R1 ), entonces

1 0 0 1√ 0 0 1 0 0
     
2 1 1 2 1
M (IdR2 , R2 , R0 ) =  0 √5 − √5  ·  − √35 1 0  =  − 6 √5 − √5  .
0 √15 √25 − 5 0 1 − 43 √15 √25
2

Para la segunda parte del ejercicio, observemos que de lo anterior se sigue


 
1 0 0
11 
MR2 (H) = M (IdR2 , R2 , R0 )t · MR0 (H) · M (IdR2 , R2 , R0 ) = 0 18
11
0 .
6
0 0 − 12
11

Como en el ejercicio anterior, toda afinidad f : R2 → R2 satisface

MR0 f (H) = M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ),




o equivalentemente

MR0 f (H) = M (f −1 , R0 )t · MR0 (H) · M (f −1 , R0 ).




Bastará con elegir la única f tal que

1 0 0
 

M (f, R0 )−1 −1
= M (f , R0 ) = M (IdR2 , R2 , R0 ) =  − 16 √2
5
− √15  ,
− 43 √1
5
√2
5

esto es
−1  1 0 0

1 0 0


5
M (f, R0 ) = M (IdR2 , R2 , R0 )−1 =  − 16 √2
5
− √15  = 
 √3 √2
5
√1
5 .

− 43 √1
5
√2
5
5
− √15 √2
2 5

Ejercicio 4.42 Encontrar la ecuación reducida y decir de qué tipo es la cónica H


siguiente en función del parámetro real a:

a x2 + y 2 + 4a xy − 2x − 4y + a = 0.

Solución : La matriz que representa a H en el sistema de referencia usual es


 
a −1 −2
MR0 (H) =  −1 a 2a  ,
−2 2a 1

con núcleo cuadrático  


a 2a
NR0 (H) = ,
2a 1
Por tanto el polinomio caracterı́stico de MR0 (H) queda,

p̂(t) = det(MR0 (H) − tI3 ) = c0 + c1 t + c2 t2 + c3 t3 ,

donde

c0 = (1 − a)(1 + a)(−1 + 4a), c1 = 5 − 2a + 3a2 , c2 = 1 + 2a, c3 = −1

182
Análogamente el polinomio caracterı́stico de NR0 (H) viene dado por

p(t) = det(NR0 (H) − tI2 ) = d0 + d1 t + d2 t2 ,

donde
d0 = a(1 − 4a), d1 = −1 − a, d2 = 1.

Los valores crı́ticos del parámetro, donde se anula alguno de los coeficientes, son pues
a = −1, −1/2, 0, 1/4, 1. La distribución de signos de esos coeficientes queda:

d0 d1 d2 c0 c1 c2 c3
a ∈] − ∞, −1[ − + + + + − −
a = −1 − 0 + 0 + − −
a ∈] − 1, −1/2[ − − + − + − −
a = −1/2 − − + − + 0 −
a ∈] − 1/2, 0[ − − + − + + −
a=0 0 − + − + + −
a ∈]0, 1/4[ + − + − + + −
a = 1/4 0 − + 0 + + −
a ∈]1/4, 1[ − − + + + + −
a=1 − − + 0 + + −
a ∈]1, +∞[ − − + − + + −

Un cálculo sencillo y la regla de Descartes nos da la siguiente tabla para los valores de
RH , rH , SH , sH según los valores de a, y por tanto la clasificación final:

RH rH SH sH
a ∈] − ∞, −1[ 3 2 1 0 hipérbola
a = −1 2 2 0 0 dos rectas secantes
a ∈] − 1, −1/2[ 3 2 1 0 hipérbola
a = −1/2 3 2 1 0 hipérbola
a ∈] − 1/2, 0[ 3 2 1 0 hipérbola
a=0 3 1 1 1 parábola
a ∈]0, 1/4[ 3 2 1 2 elipse
a = 1/4 2 1 0 1 dos rectas paralelas
a ∈]1/4, 1[ 3 2 1 0 hipérbola
a=1 2 2 0 0 dos rectas secantes
a ∈]1, +∞[ 3 2 1 0 hipérbola

Ejercicio 4.43 Clasifica afı́nmente la cuádrica H del espacio afı́n R3 que en en el


sistema de referencia usual R0 viene definida por la ecuación

x21 + x22 + x23 + 2x1 x2 + 2x1 x3 + 2x2 x3 − 4x1 + 2 = 0.

Solución : En el sistema de referencia R0 de R3 es claro que


 
2 −2 0 0  
 −2 1 1 1 1
1 1 ,  1 1 1 .
MR0 (H) =  0 1 1 1 
1 1 1
0 1 1 1

183
Es claro que RH = 3 = rH + 2, por lo que estamos con una cuádrica de tipo (III).
Ls correspondientes polinomios caracterı́sticos quedan

p̂(x) = det (MR0 (H) − xI4 ) = x(x3 − 5x2 + 2x + 8),

p(x) = det (NR0 (H) − xI4 ) = −(x − 3)x2 .


La regla de Descartes nos dice que p̂(x) tiene 2 raı́ces positivas y 1 negativa, además
de x = 0, y análogamente p(x) tiene 1 raı́z positiva, además de x = 0 doble. Por tanto
SH = sH = 1, y la matriz canónica de H queda
 
0 0 0 1
 0 1 0 0 
 0 0 0 0 .
 

1 0 0 0

De aquı́ que H sea un cilindro parabólico.


Para encontrar el sistema de referencia en el que H adopta esa forma canónica
procedemos como siempre, determinando los subespacios propios de MR0 (H).

V3 = {(x1 , x2 , x3 ) ∈ R3 : (NR0 (H) − 3I3 ) · (x1 , x2 , x3 )t = (0, 0, 0)t } = L({(1, 1, 1)})

V0 = {(x1 , x2 , x3 ) ∈ R3 : NR0 (H) · (x1 , x2 , x3 )t = (0, 0, 0)t } = L({(1, −1, 0), (1, 0, −1)}).

Al vector (1, 1, 1) lo normalizamos 1/ 3(1, 1, 1), y luego dividimos éste último vector
por la raı́z cuadrada del valor propio 3 asociado, quedando 1/3(1, 1, 1). Los vectores
de V0 no necesitan ser modificados (como siempre ocurre para el valor propio 0), y
formamos la referencia

R1 = (0, 0, 0), B1 = {1/3(1, 1, 1), (1, −1, 0), (1, 0, −1)} .

Como  
1 0 0 0
 0 1 1 1 
M (IdR3 , R1 , R0 ) =  3
1
,
 0
3
−1 0 
1
0 3 0 −1
queda

2 − 23 −2 −2
 
 −2 1 0 0 
MR1 (H) = M (IdR3 , R1 , R0 )t · MR0 (H) · M (IdR3 , R1 , R0 ) =  3
 −2 0
.
0 0 
−2 0 0 0

Por tanto, si para cada punto p ∈ R3 escribimos pR1 = (y1 , y2 , y3 ), la hipercuádrica H


se escribe en coordenadas respecto de R1 como

y12 − 4/3y1 − 4y2 − 4y3 + 2 = 0,

esto es, completando cuadrados,

(y1 − 2/3)2 + (14/9 − 4y2 − 4y3 ) = 0.

Llamemos
z1 = y1 − 2/3, z2 = y2 , z3 = 7/9 − 2y2 − 2y3 ,

184
y consideremos en R3 el sistema de referencia R2 en el que para todo punto p ∈ R3
tenemos pR2 = (z1 , z2 , z3 )t , esto es, el que satisface
 
1 0 0 0
 −2/3 1 0 0 
M (IdR3 , R1 , R2 ) =   0
.
0 1 0 
7/9 0 −2 −2

Claramente la cuádrica H se escribe en coordenadas respecto a R3 como z12 + 2z3 = 0,


y por tanto  
0 0 0 1
 0 1 0 0 
MR2 (H) =   0 0 0 0 .

1 0 0 0
Si se quiere determinar R2 respecto a las coordenadas usuales basta con calcular

M (IdR3 , R2 , R0 ) = M (IdR3 , R2 , R1 )·M (IdR3 , R1 , R0 ) = M (IdR3 , R1 , R2 )−1 ·M (IdR3 , R1 , R0 ) =


 −1    
1 0 0 0 1 0 0 0 1 0 0 0
 −2/3 1 0 0  ·
 0 13 1 1   2
3
1
3
1 1 
= 1
 =  1
.
 0 0 1 0   0 3 −1 0   0 3
−1 0 
7/9 0 −2 −2 0 13 0 −1 7
18
− 12 1 12

185
Ejercicios del Tema 3
1. (El toro de revolución). En el semiplano P = {(x, y, z) ∈ R3 / y = 0, x ≥ 0} toma-
mos una circunferencia C de centro (c, 0, 0) y radio r > 0 con c > r > 0. Se llama
toro de revolución generado por C a la superficie T obtenida al rotar C alrededor
del eje z. Dibujar T y describir la superficie como el conjunto de soluciones de
una ecuación con 3 incógnitas. ¿Es dicha ecuación la de una cuádrica?

2. Sea L una recta afı́n en Rn y C una hipercuádrica. Demostrar que se da una y


sólo una de las siguientes posibilidades: o bien L ∩ C = ∅, o bien L ∩ C es un
punto, o bien L ∩ C consta de dos puntos, o bien L ⊆ C.

3. (El hiperboloide de una hoja como unión de rectas). Consideremos el hiperboloide


de una hoja C = {(x, y, z) ∈ R3 / x2 + y 2 − z 2 = 1}. Para cada punto p ∈ C ∩ {z =
0} tomamos la recta afı́n Lp = p + L(J(p) + e3 ), donde J es el giro de 90o en el
plano z = 0 centrado en el origen y e3 = (0, 0, 1). Demostrar que C coincide con
la unión de todas las rectas Lp .

4. Sea H una hipercuádrica en Rn con matriz Ĉ en el sistema de referencia usual


R0 . Diremos que H es invariante por homotecias lineales si para toda homotecia
hO,r con centro el origen O ∈ Rn y razón r 6= 0,

M (h−1 t −1
O,r , R0 ) · Ĉ · M (hO,r , R0 ) = λĈ

para algún λ ∈ R \ {0} (dependiendo de r); en particular, hO,r (H) = Hpara todo 
0 0
r ∈ R \ {0}. Demostrar que H cumple esta propiedad si y sólo si Ĉ = ,
0 C
donde C es simétrica y no nula. Mostrar algunos ejemplos de este tipo de cuádricas
en R2 y R3 .

5. Construir explı́citamente un isomorfismo afı́n f : Rn → Rn tal que f (C) = C 0 en


cada uno de los siguientes casos:
2 y2
a) n = 2, C = {(x, y) ∈ R2 / xa2 − b2
= 1}, C 0 = {(x, y) ∈ R2 / x2 − y 2 = 1}.
2
b) n = 3, C = {(x, y, z) ∈ R3 / x2 + y 2 + z 2 = 1}, C 0 = {(x, y, z) ∈ R3 / xa2 +
y2 2
b2
+ zc2 = 1}.
c) n = 2, C = {(x, y) ∈ R2 / x2 − y = 0}, C 0 = {(x, y) ∈ R2 / x − y 2 = 0}.
d ) n = 3, C = {(x, y, z) ∈ R3 / ax2 + by 2 = 1}, C 0 = {(x, y, z) ∈ R3 / x2 + y 2 =
1}.

6. Clasificar las siguientes cónicas:

a) 2x2 − y 2 + 4xy + 6x − 2y + 1 = 0.
b) 2x2 − y 2 + 2xy + 4x − 2y + 1 = 0.
c) x2 + y 2 + 2xy + 2x + 2y = 0.
d ) x2 + y 2 + 2xy + 2x + 2y + 1 = 0.
e) x2 + y 2 + 2xy + 2x + 2y + 2 = 0.
f ) 4x2 + 2y 2 − 2xy + x − 3y − 3 = 0.

186
√ √
g) −x2 + xy − 3x + 3 y = 0.

7. Para cada una de las siguientes cónicas:

x2 − 7y 2 − 6xy + 10x + 2y + 9 = 0,
9x2 + 4y 2 + 12xy − 52 = 0,

encontrar un isomorfismo afı́n de R2 que nos lleve a su ecuación reducida.

8. ¿Existe alguna elipse en la familia de cónicas x2 + y 2 + xy + 2x − 2y + α = 0 con


α ∈ R?

9. Encontrar la ecuación reducida y decir de qué tipo es la cónica siguiente en función


del parámetro real α:

α x2 + y 2 + 4α xy − 2x − 4y + α = 0.

10. Clasifica afı́nmente la cónica H del plano afı́n R2 que en en el sistema de referencia
usual R0 viene definida por la ecuación

x21 − 4x1 x2 + x22 − 3x1 + 4x2 − 1 = 0.

Encuentra un sistema de referencia R de R2 en el que H adopte su forma canónica.

11. Demuestra los siguientes enunciados.

a) El lugar geométrico de los puntos del plano afı́n euclidiano R2 tales que la
suma de las distancias a dos puntos fijos (llamados focos) es constante, es
una elipse.
b) El lugar geométrico de los puntos del plano afı́n euclidiano R2 tales que el
valor absoluto de la diferencia de sus distancias a dos puntos fijos (llamados
focos) es constante, es una hipérbola.
c) El lugar geométrico de los puntos del plano afı́n euclidiano R2 que equidistan
de una recta (llamada directriz) y de un punto exterior a la misma (llamado
foco), es una parábola.

12. Expresar en coordenadas usuales de R2 las ecuaciones de las siguientes cónicas:

a) E = {p ∈ R2 / d(p, F1 ) + d(p, F2 ) = 4}, donde F1 = (0, 2), F2 = (−2, 0).


b) La parábola P de foco F = (2, 2) y directriz de ecuación x + y = 0.

13. En R2 consideramos las rectas afines de ecuaciones x + y = 1 y x − y = 1. ¿Es


una cónica el conjunto de puntos de R2 que equidistan de ambas rectas? En caso
afirmativo, escribir su ecuación reducida y decir de qué tipo es.

14. Clasificar las siguientes cuádricas:

a) 2x2 − y 2 + 4xy + 6x − 2y + 1 = 0.
b) xy − z = 0.
c) 2xy + 2xz + 2yz − 4 = 0.

187
d) 2x2 + 3y 2 + 2xy − 2yz + 2z + 2 = 0.
e) x2 + y 2 + z 2 + 2xy − 2x − 2z + 1 = 0.
f) 3y 2 + 2xy − 2yz + 2z + 2 = 0.
g) x2 + z 2 + 2xz − 4 = 0.
h) xy + xz + yz − 2x − y + 3z + 13 = 0.

15. Clasifica afı́nmente la cuádrica H del espacio afı́n R3 que en en el sistema de


referencia usual R0 viene definida por la ecuación
x21 + x22 + x23 + 2x1 x2 + 2x1 x3 + 2x2 x3 − 4x1 + 2 = 0.
Encuentra un sistema de referencia de R3 en el que H adopte su forma canónica.

16. Clasifica afı́nmente la cuádrica H del espacio afı́n R3 que en en el sistema de


referencia usual R0 viene definida por la ecuación
x21 + x22 + x23 + x1 x2 + x1 x3 + x2 x3 + x1 + x2 + x3 + 1 = 0.

17. Para la cuádrica en R3 dada por:


2xy + 2xz + 2yz − 6x − 6y − 4z + 9 = 0
determinar un isomorfimo afı́n de R3 que nos lleve a su ecuación reducida.

18. Encontrar la ecuación reducida afı́n y decir de qué tipo es la cuádrica siguiente
en función del parámetro real α:
2x2 + 2y 2 − z 2 − 2xy + 4x − 2y + α = 0.

19. Sean F1 y F2 dos puntos distintos en R3 . Consideramos el lugar geométrico definido


por E = {p ∈ R3 / d(p, F1 ) + d(p, F2 ) = 2a}, siendo 2a > d(F1 , F2 ). Estudiar si E
es o no una cuádrica en R3 y, en caso afirmativo, decidir de qué tipo es.

20. En R3 consideramos el punto F = (0, 0, 1) y el plano afı́n S de ecuación x − z = 0.


Definimos el conjunto:
C = {p ∈ R3 / d(p, F ) = d(p, S)}.
Demostrar que C es una cuádrica y clasificarla.

21. Encontrar la ecuación reducida de la hipercuádrica en R4 de ecuación:


2x2 − y 2 + z 2 − w2 + 2xz − 2yz + 2yw + 2x − 2y + 2w + 1 = 0.

22. Sea S un subespacio afı́n de dimensión k en Rn y C una hipercuádrica. Demostrar


que se da una de las siguientes posibilidades:
a) S ∩ C = ∅,
b) S ⊆ C,
c) S ∩ C es una hipercuádrica en S (identificando S con Rk ).

23. Clasificar las cónicas que se obtienen al cortar el cono x2 + y 2 = z 2 con un plano
afı́n.

188
TEMA 4: El espacio proyectivo
Todos tenemos una idea clara del sentido de la perspectiva. La representación gráfica
sobre un lienzo del mundo tridimensional, generando la ilusión de profundidad, fue la
auténtica revolución de la pintura del Renacimiento, plasmada con maestrı́a en los
trabajos de Miguel Angel, Rafael Sanzio o Leonardo da Vinci entre otros.

La escuela de Atenas, Rafael Sanzio (Museos Vaticanos)

La última cena, Leonardo da Vinci (convento de Santa Maria delle Grazie, Milán)

Expliquemos de forma simplificada como funciona esta técnica. La intuición proviene


de nuestra percepción sensorial en el espacio fı́sico tridimensional, cuanto más alejados
estén de nuestra lı́nea de visión los puntos que conforman una figura, más pequeña se
observa ésta. De forma idealizada, fijamos el punto en el plano de fondo (o del infinito)
hacia el que dirigimos nuestra visión para luego representar la escena utilizándolo como
punto de fuga. De esta forma proyectamos figuras del mundo tridimensional en el lienzo
generando la ilusión visual de profundidad.

189
Como la linea del campo visual puede alterarse a conveniencia, el observador pue-
de fijar más de un punto de fuga en el plano del infinito, dependiendo del efecto de
profundidad que persiga. En la siguiente figura se han fijado dos.

Se suele decir que todos los puntos en una misma lı́nea de fuga son perspectiamente
equivalentes, y que dos figuras geométricas equivalentes en perspectiva hacia un punto
de fuga son proyectivas. En las figuras de arriba se pueden ver varios cuerpos sólidos
proyectivos.
El anterior recurso técnico de artistas y diseñadores gráficos para representar la reali-
dad tridimensional sobre el plano puede ser conceptualizado o modelado en el contexto
de la geometrı́a con el apoyo de una nueva estructura, la del espacio proyectivo, que
engloba o generaliza a la geometrı́a afı́n. De forma simplificada, lo que vamos a hacer es
embeber nuestro espacio afı́n n-dimensional A como un hiperplano que no pasa por el
origen en un espacio vectorial E con dimensión n + 1, contemplado éste como espacio
afı́n con su estructura canónica o usual:

A ⊂ E \ {~0}.

Sobre este espacio vectorial E se construirá la geometrı́a proyectiva, que englobará de


forma natural a la afı́n sobre A. Siendo más precisos, se define el espacio proyectivo
n-dimensional P (E) sobre E como el conjunto cuyos puntos son las rectas vectoriales
o direcciones en E. La inclusión A ⊂ P (E) se materializa identificando cada punto de
A ⊂ E \ {~0} con la única recta vectorial en P (E) que lo contiene. De forma idealizada,
los puntos de fuga para un observador en A conforman el llamado hiperplano del infinito
de A en P (E):
A∞ := P (E) \ A.
Los puntos de A∞ ⊂ P (E) son los determinados por las rectas vectoriales de E que no


cortan a A, esto es, las rectas vectoriales de A .
En el caso particular del espacio afı́n A = Rn se toma E = Rn+1 , y la anterior
construcción puede ser entendida con sencillez a partir del embebimiento

Rn 3 x ,→ (1, x) ∈ R × Rn = Rn+1 .

190
El correspondiente proyectivo

P (Rn+1 ) = L({v}) : v ∈ Rn+1 \ {~0}




se denota por Pn , y la inclusión Rn ⊂ Pn se materializa vı́a la identificación

Rn 3 x ≡ L({(1, x)}) ∈ Pn .

Los puntos que Pn añade al afı́n Rn conforman el hiperplano del infinito, y se corres-
ponden con las rectas vectoriales en la dirección {0} × Rn :
n o
n n n n n+1
R ∞ = P \ R = L({(0, x)}) ∈ R × R = R : x ∈ R \ {0} . n ~

Por ejemplo, en P3 los puntos de R3∞ = P3 \R3 idealizan el plano del infinito de los puntos
de fuga para la visión de un observador en el espacio afı́n R3 , que como explicamos
antes utilizaron los pintores renacentistas para representar el mundo tridimensional en
sus lienzos.
Comencemos con al desarrollo formal de esta teorı́a.

4.5. El espacio proyectivo


En lo que sigue E será un espacio vectorial con dim E = n + 1, n ∈ N, y usaremos
recurrentemente la notación
E ∗ = E \ {~0}.
Establezcamos la siguiente relación de equivalencia en E ∗ :

v∼w ⇔ v = λw para algún λ ∈ R∗ = R \ {0}.

La relación binaria ∼ en E ∗ es trivialmente de equivalencia (reflexiva, simétrica y tran-


sitiva).

Definición 4.44 Llamaremos espacio proyectivo construı́do sobre E, y lo denotaremos


como P (E), al espacio cociente

P (E) = E ∗ / ∼ .

Por definición dim P (E) = n.

Usualmente escribiremos por [v] ∈ P (E) a la clase de equivalencia de v ∈ E ∗ , esto es,


al punto de P (E) determinado por la recta vectorial generada por v:

[v] = L({v})∗ := {λv : λ ∈ R∗ = R \ {0}}.

Por esta razón los puntos de P (E) son referidos como rectas vectoriales o direcciones
en E.

Notación 4.45 Denotaremos por

π : E ∗ → P (E), π(v) = [v],

a la proyección al cociente.

Observación 4.46 Algunos comentarios elementales:

191
Se puede introducir igualmente el concepto de espacio proyectivo complejo si el
espacio vectorial de referencia E es complejo. En este caso la relación de equiva-
lencia utilizada es
v∼w ⇔ v = λw para algún λ ∈ C∗ = C \ {0}.

Si U ⊆ E es un subespacio vectorial con dim U = k + 1, k ≥ 1, el espacio


proyectivo P (U ) es de forma natural un subconjunto de P (E). Notemos que las
clases de equivalencia de vectores v ∈ U ⊆ E son indistinguibles vistas en P (U )
o en P (E):
[v] = L({v})∗ ⊆ U ∗ ⊆ E ∗ ∀ v ∈ U ∗ = U \ {~0}.
Notación 4.47 El espacio P (Rn+1 ) se denota como Pn .
El espacio Pn se puede topologizar introduciéndole la topologı́a cociente de la euclidiana
de (Rn+1 )∗ , y con ésta topologı́a es homeomorfo al espacio de órbitas Sn /hAi cociente de
la esfera Sn por la acción de la aplicación antı́poda A : Sn → Sn , A(p) = −p. Recuerda
que [p]0 = {p, −p} es la clase de equivalencia (u órbita) de un punto p ∈ Sn por la
acción de A. La identificación canónica entre Pn y Sn /hAi viene dada por la siguiente
biyección homeomórfica:
 
n n x
P → S /hAi, [x] 7→ .
kxk 0
Nota que esta aplicación está bien definida sobre clases de equivalencia (no depende
de representantes). Como consecuencia Pn es un espacio topológico compacto, lo que
lo diferencia dramáticamente de Rn . El modelo de Pn más intuitivo es el de media
esfera con el borde identificado de forma antı́poda. Obsérvese que en una mitad de la
esfera (hemisferio) cada órbita tiene un único representante, excepto para los puntos
del ecuador borde donde dos antı́podas determinan la misma órbita.

Por ejemplo, la recta proyectiva P1 es homeomorfa a S1 , ya que identificando los extre-


mos de una semicircunferencia se genera S1 (lo análogo no ocurre en dimensión superior,
Pn no es homeomorfo a Sn para n ≥ 2).

4.6. Variedades proyectivas


Como siempre que se introduce una nueva categorı́a geométrica es conveniente pre-
sentar los subobjetos naturales, que aquı́ llamaremos subespacios proyectivos o varie-
dades proyectivas.
Sean E un espacio vectorial con dim E = n + 1, n ∈ N, y P (E) el correspondiente
espacio proyectivo n-dimensional sobre E.

192
Definición 4.48 Un subconjunto X ⊆ P (E) no vacı́o es una variedad proyectiva si el
conjunto
Xb := π −1 (X) ∪ {~0}
es un subespacio vectorial de E, o equivalentemente X = π(X̂ ∗ ) para un subespacio
vectorial X̂ de E, donde como siempre X b∗ = Xb \ {~0}. Obsérvese que en este caso X es
canónicamente identificable con el espacio proyectivo P (X).
b

De hecho, y de forma alternativa, una variedad proyectiva de P (E) se puede definir


como el espacio proyectivo asociado a un subespacio vectorial X b de E con dim X
b > 0,
toda vez que P (X)b ⊆ P (E).
Por definición, si X es una variedad proyectiva de P (E) entonces
b − 1.
dim X = dim X
Las variedades X con dim X = 0 se llaman puntos proyectivos, las de dim X = 1 rectas
proyectivas, las de dim X = 2 planos proyectivos, y las de dim X = dim P (E) − 1
hiperplanos proyectivos.
Recordemos que los puntos de un espacio proyectivo son rectas vectoriales en un es-
pacio vectorial. Para motivar la intuición geométrica, cuando pensemos en una variedad
proyectiva k-dimensional imaginaremos un subespacio vectorial (k + 1)-dimensional en
el espacio vectorial sobre el que se construye el proyectivo, los puntos de la variedad son
las direcciones o rectas vectoriales en ese subespacio vectorial. Lo podemos visualizar
muy bien por ejemplo en el modelo esférico del plano proyectivo P2 , en este caso una
recta proyectiva es la proyección al espacio de órbitas S2 /hAi del corte de un plano
vectorial de R3 con S2 , esto es, lo que denominamos un cı́rculo máximo o ecuador en
S2 . Si retenemos esa imagen en la mente, comprendemos por ejemplo que dos rectas
proyectivas distintas se han de cortar en un punto del proyectivo bidimensional, puesto
los dos puntos de corte de dos ecuadores distintos son antı́podas y generan una única
órbita en S2 /hAi. Esta discusión resuelve el problema geométrico de la posición relativa
de dos rectas proyectivas en P2 , y en general en cualquier proyectivo bidimensional por
analogı́a.

Describamos las operaciones básicas con variedades proyectivas.

T 4.49 Si {Xα : α ∈ Λ} es una familia de variedades proyectivas de P (E),


Proposición
entonces α∈Λ Xα es o el conjunto vacı́o ∅ o una variedad proyectiva de P (E).
T
Demostración : En efecto, si α∈Λ Xα 6= ∅ obsérvese que entonces
!
\
\ \ \ \
Xα = π −1 ∪ {~0} = π −1 (Xα ) ∪ {~0} =
 
Xα X

α∈Λ α∈Λ α∈Λ α∈Λ

193
es un subsespacio vectorial al ser intersección de subespacios vectoriales. Además al ser
~
T T\
α∈Λ Xα 6= ∅ inferimos que α∈Λ Xα 6= {0} y se sigue lo enunciado.

Es conveniente que observar que


T
Xα = ∅ si y solo si
T cα = {~0}.
X
α∈Λ α∈Λ

Definición 4.50 Si S ⊆ P (E) es un subconjunto no vacı́o arbitrario, llamaremos V (S)


a la menor variedad proyectiva de P (E) conteniendo a S. Es claro que
\
V (S) = Xα ,
α∈Λ

donde {Xα : α ∈ Λ} es la familia de todas las variedades proyectivas de P (E) con-


teniendo a S (el propio P (E) es una de ellas). En particular V (S) es una variedad
proyectiva.

Claramente V (S) = S si y solo si S es una variedad proyectiva.

Proposición 4.51 Si S ⊆ P (E) es un subconjunto no vacı́o entonces

(S) = L π −1 (S) .

V[

Demostración : Recordemos que si A ⊆ E entonces L(A) es la intersección de todos


los subespacios vectoriales de E que contienen a A. Para probar la proposición escriba-
−1 ∗ −1 −1 ∗

mos L(π (S)) = L(π (S)) \ {0}. Como π L(π (S)) es una variedad proyectiva
de P (E) conteniendo a S deducimos que V (S) ⊆ π L(π −1 (S))∗ . Veamos la otra in-
clusión. Observemos que si una variedad proyectiva X de P (E) contiene a S entonces
π −1 (S) ⊆ X,b y por tanto L(π −1 (S)) ⊆ Xb ya que X b es un subespacio vectorial con-
teniendo a L(π (S)). De aquı́ deducimos que π L(π −1 (S))∗ ⊆X, y como X es una
−1


variedad proyectiva arbitraria conteniendo S, que π L(π −1 (S))∗ ⊆ V (S). En conclu-


sión π L(π −1 (S))∗ = V (S) y V[(S) = L(π −1 (S)) como querı́amos demostrar.


Podemos enunciar el concepto de independencia proyectiva de sistemas de puntos.

Definición 4.52 Un conjunto de k + 1 puntos X = {p1 = [v1 ], . . . , pk+1 = [vk+1 ]} en


P (E) se dice proyectivamente independientes si dim V (X) = k, esto es, si

\
dim V (X) = dim L({v1 , . . . , vk+1 }) = k + 1

y {v1 , . . . , vk+1 } son linealmente independientes. En otro caso se dicen proyectivamente


dependientes. Los puntos p1 , . . . , pk+1 ∈ P (E) se dicen alineados si si están contenidos
en una recta proyectiva.

Por ejemplo, si en P3 consideramos los puntos

p1 = [(1, 1, 1, 1)], p2 = [(1, 1, 1, 0)], p3 = [(1, 1, 0, 0)],

entonces tenemos que

V ({p1 , p2 , p3 }) = π L({(1, 1, 1, 1), (1, 1, 1, 0)], (1, 1, 0, 0)})∗ .




Como dim L({(1, 1, 1, 1), (1, 1, 1, 0), (1, 1, 0, 0)}) = 3, {p1 , p2 , p3 } son proyectivamente
independientes y V ({p1 , p2 , p3 }) es un plano proyectivo.
El concepto de suma de variedades proyectivas queda como sigue.

194
Definición 4.53 Si X, Y son variedades proyectivas de P (E), llamaremos variedad
suma de X e Y , que denotaremos por X ∨ Y , a la definida por X ∨ Y = V (X ∪ Y ).
Es claro que

X
\ ∨ Y = L(π −1 (X) ∪ π −1 (Y )) = L(π −1 (X)) + L(π −1 (Y )) = X
b + Yb . (11)

Al igual que arriba, si en P3 consideramos los puntos

p1 = [(1, 1, 1, 1)], p2 = [(1, 1, 1, 0)],

cada uno de ellos una variedad proyectiva de dimensión 0, entonces

p1 ∨ p2 = V ({p1 , p2 }) = π L({(1, 1, 1, 1), (1, 1, 1, 0)})∗




es una recta proyectiva.

Propiedades 4.54 Los siguientes enunciados son ciertos:


(i) (Fórmula de dimensiones) Si X, Y ⊆ P (E) son variedades proyectivas enton-
ces
dim(X ∨ Y ) = dim X + dim Y − dim(X ∩ Y ),
donde hemos convenido que dim(X ∩ Y ) = −1 cuando X ∩ Y = ∅.
La fórmula es consecuencia de que dim(X b + dim Yb − dim(X
b + Yb ) = dim X b ∩ Yb ),
y del hecho que dim Z = dim Zb − 1 para toda variedad proyectiva Z ⊆ P (E).

(ii) V S ∪ T = V (S) ∨ V (T ) para cualesquiera subconjuntos S, T ⊆ P (E).
(iii) Por dos puntos p, q ∈ P (E) pasa una única recta proyectiva, a saber

V ({p, q}) = p ∨ q.

En efecto, basta con observar que

dim(p ∨ q) = dim p + dim q − dim(p ∩ q) = 0 + 0 − (−1) = 1.

(iv) Dos rectas proyectivas distintas R y S en un plano proyectivo P (E) se cortan en


un punto.
En efecto, como Rb y Sb son planos vectoriales distintos de E y dim E = 3 entonces
b ∩ Sb = 1, por lo que R ∩ S es un punto.
dim R

Item (iv) demuestra que no tiene sentido el paralelismo en geometrı́a proyectiva, y que
por tanto este modelo de geometrı́a no es euclidiano (no es válido el V postulado de
Euclides de las paralelas). No obstante, es conveniente reflexionar sobre la siguiente
observación.

Observación 4.55 Si dim P (E) > 2 entonces existen rectas proyectivas disjuntas en
P (E).

Demostración : En efecto, como dim E ≥ 4 podemos tomar vectores {v1 , v2 , v3 , v4 }


linealmente independientes en E, y las rectas proyectivas

R1 = π L({v1 , v2 })∗ , R2 = π L({v3 , v4 })∗


 

de P (E) son disjuntas.

195
4.7. Coordenadas homogéneas
En el espacio proyectivo P (E) no existe un concepto natural de base, por lo que hay
que recurrir a las bases en el espacio vectorial E para asignar coordenadas. También el
concepto de coordenadas es diferente y presenta sus propios matices.
Definición 4.56 Definimos las coordenadas homogéneas de un punto p ∈ P (E) en la
base B = {v0 , v1 , . . . , vn } de E como
def
pB = {λvB : λ ∈ R∗ } ,

donde vB ∈ (Rn+1 )∗ son las coordenadas en B de cualquier vector v no nulo de la


recta vectorial p̂ (esto es, cualquier v ∈ π −1 (p)); utilizaremos como siempre notación
columna. Si v ∈ π −1 (p) y vB = (x0 , x1 , . . . , xn )t , se suele escribir

pB = (x0 : x1 : · · · : xn )t := {λ(x0 , x1 , . . . , xn )t : λ ∈ R∗ },

y gráficamente en forma de columna


 
x0
 ·· 
 
 x1 
 
pB =  ··  .
 
 .. 
.
 
 ·· 
xn

Claramente también pB = (λx0 : λx1 : · · · : λxn )t para todo λ 6= 0.

Definición 4.57 Las coordenadas homogéneas en Pn respecto de la base canónica B0 de


Rn+1 suelen llamarse coordenadas homogéneas canónicas. Es común identificar los pun-
tos de p ∈ Pn con sus coordenadas homogéneas canónicas, esto es, si (x0 , x1 , . . . , xn ) ∈
(Rn+1 )∗ y p = π((x0 , x1 , . . . , xn )) entonces

p ≡ (x0 : x1 : · · · : xn )t .

Por ejemplo, la recta vectorial L {(1, 0, −2, −1)} en R4 determina en P3 = P (R4 )
el punto p = π ((1, 0, −2, −1)) = [(1, 0, −2, −1)]. Como en coordenadas homogéneas
canónicas (respecto de la base canónica B0 de R4 )

pB0 = (1 : 0 : −2 : −1)t = λ(1, 0, −2, −1)t : λ ∈ R∗ ,




se escribe

p = (1 : 0 : −2 : −1)t = (3 : 0 : −6 : −3)t = (5 : 0 : −10 : −5)t = ....

Como el espacio vectorial S2 (R) de las matrices simétricas también tiene una base
natural, a saber,      
1 0 0 1 0 0
B0 = , , ,
0 0 1 0 0 1

de forma análoga en el plano proyectivo P S2 (R) los puntos
   
a b a b
p= , ∈ S2 (R)∗ ,
b c b c

196
t
se identifican con sus coordenadas homogéneas
 canónicas p = pB0 = (a : b : c) .
−2 1 
Por ejemplo, el punto p = de P S2 (R) se determina mediante la
1 2
expresión p = pB0 = (−2 : 1 : 2)t . Las coordenadas homogéneas de p en la base
     
2 −1 0 0 0 1
B= , ,
−1 0 0 1 1 0

son pB = (−2 : 4 : 0)t = (4 : −8 : 0)t = (2 : −4 : 0)t =...


En general, las ecuaciones del cambio de base en E permiten establecer las ecuaciones
de cambio de base para coordenadas homogéneas en P (E). Afortunadamente no todo
en el proyectivo es más difı́cil, ya que estas ecuaciones son las mismas literalmente en
uno y otro contexto geométrico, salvo el matiz de sustituir el tipo de coordenadas.
Definición 4.58 B1 y B2 son bases de E se define la matriz del cambio de base en
P (E) de B1 a B2 para coordenadas homogéneas como
def
M (IdP (V ) , B1 , B2 ) = µM (IdE , B1 , B2 ), ∀µ ∈ R∗ .

La matriz que determina el cambio en el proyectivo se puede elegir en una familia 1-


paramétrica de matrices proporcionales, y está bien definida por la naturaleza de las
coordenadas homogéneas (usualmente se suele elegir µ = 1). Recordemos que siempre
se utilizará la notación columna para las matrices del cambio de base.
La razón para que las ecuaciones del cambio de base en P (E) y las del cambio en E coin-
cidan reside en que el factor de proporcionalidad que añaden coordenadas homogéneas
se arrastra sin problemas en la ecuación matricial del cambio de base en E, esto es,

M (IdE , B1 , B2 ) · (λvB ) = λ (M (IdE , B1 , B2 ) · vB )

para todo v ∈ E ∗ y λ ∈ R∗ , induciendo una transformación bien definida al hacer la


interpretación proyectiva. En resumen, las ecuaciones del cambio de base en coordenadas
homogéneas quedan:
pB2 = M (IdP (V ) , B1 , B2 ) · pB1 ,
donde pB1 y pB2 son las coordenadas homogéneas de un punto genérico p ∈ P (E) en
B1 y B2 respectivamente.
Por ejemplo, en P2 las ecuaciones del cambio de base en coordenadas homogéneas de
la base B1 = {(1, −1, 0), (2, 0, 0), (3, 1, 1)} a la base B2 = {(1, −1, 0), (1, 1, 0), (1, 1, 1)}
son      
y0 x0   x0
 ··   ··  1 1 1  ·· 
     
y1  = M (IdP2 , B1 , B2 ) · x1  =  0 1 1  · x1  ,
     
 ··   ··  0 0 1  ·· 
y2 x2 x2
donde pB1 = (x0 : x1 : x2 )t y pB2 = (y0 : y1 : y2 )t .

4.7.1. Ecuaciones implı́citas de variedades proyectivas.


Es natural preguntarse por el interés de las coordenadas homogéneas. La gran ven-
taja que nos proporcionan es que nos permiten analitizar las variedades proyectivas
de P (E) a través de las ecuaciones implı́citas de subespacios vectoriales en E. Esto es
importante a la vez que simple.

197
Supongamos que fijamos una base B = {v0 , v1 , . . . , vn } en E para poder asignar
coordenadas homogéneas en P (E). Consideremos una variedad proyectiva X ⊆ P (E)
de dimensión k ≤ n = dim P (E), y tomemos su subespacio vectorial X̂ ⊆ E asociado
con dim Xb = k+1 ≤ n+1 = dim E. A continuación tomamos unas ecuaciones implı́citas
(o cartesianas) de Xb en la base B:


 a1,0 x0 + a1,1 x1 + . . . + a1,n xn = 0
(I) = ..
 .
 a
n−k,0 x0 + an−k,1 x1 + . . . + an−k,n xn = 0

Esto significa que un vector v ∈ E está en X b si y solo si sus coordenadas vB =


(x0 , x1 , . . . , xn ) en la base B satisfacen el sistema de ecuaciones lineales homogéneo
anterior, donde recuerdemos que
 
a1,0 a1,1 · · · a1,n
.
.. .
.. ..
rang   = n − k.
 
··· .
an−k,0 an−k,1 · · · an−k,n

Por definición, las ecuaciones implı́citas en (I) son unas ecuaciones implı́citas de la
variedad proyectiva X en la base B, pero entendidas en coordenadas homogéneas.
Esto significa que un punto p ∈ P (E) está en X si y solo si sus coordenadas ho-
mogéneas pB = (x0 : x1 : · · · : xn )t en la base B de E satisfacen el sistema (I).
Observemos que el factor de proporcionalidad λ ∈ R∗ inherente a las coordenadas
homgéneas es irrelevante, ya que (x0 , x1 , . . . , xn ) satisface (I) si y solo si λ(x0 , x1 , . . . , xn )
satisface (I) para todo λ ∈ R∗ . Reparemos también en el hecho de que, como en el caso de
subespacios vectorieles, las ecuaciones implı́citas de variedades proyectivas son siempre
sistemas de ecuaciones homogéneos.
Por ejemplo, si en P2 consideramos los puntos p = (1 : 1 : −2)t , q = (−1 : −1 : 0)t ,
la recta proyectiva R = p ∨ q es la variedad proyectiva asociada a plano vectorial de R3
dado por

R ∨ q = L({1, 1, 2), (−1, −1, 0)}) = {(x0 , x1 , x2 ) : x0 − x1 = 0}.


b = p[

De aquı́ que en ecuaciones implı́citas en la base canónica B0 de R3

R = {(x0 : x1 : x2 )t ∈ P2 : x0 − x1 = 0}.

4.8. Proyectividades
Es una idea recurrente en geometrı́a estudiar las transformaciones naturales de la
categorı́a con la que se trabaja (homeomorfismos en topologı́a, isomorfismos en espacios
vectoriales, afinidades en espacios afines,...). El espacio proyectivo no es una excepción,
y sus transformaciones naturales, que presentaremos a continuación, se conocen con el
nombre de proyectividades.
El concepto de proyectividad es muy natural, se corresponde con el de una trans-
formación lineal entre espacios vectoriales que desciende vı́a las proyecciones a una
aplicación entre sus proyectivos base. Naturalmente, como el proyectivo es el conjunto
de las rectas vectoriales, necesitamos que esas transformaciones lineales lleven rectas
vectoriales a rectas vectoriales, lo que excluye la posibilidad de que puedan tener núcleo,
esto es, han de ser monomorfismos.

198
Sean E, E 0 espacios vectoriales con dim E ≤ dim E 0 , consideremos sus espacios
proyectivos P (E), P (E 0 ) asociados, y llamemos πE : E ∗ → P (E) y πE 0 : (E 0 )∗ → P (E 0 )
a las correspondientes proyecciones.
Definición 4.59 Una aplicación f : P (E) → P (E 0 ) se dice ser una proyectividad si
existe una aplicación lineal inyectiva (monomorfismo) fb: E → E 0 tal que πE 0 ◦ fb =
f ◦ πE , esto es, tal que el siguiente diagrama es conmutativo:
fb
E∗ −→ (E 0 )∗
πE ↓ ↓ πE 0
f
P (E) −→ P (E 0 )

De la aplicación lineal fb: E → E 0 se dice que es una aplicación lineal asociada a la


proyectividad f .

Proposición 4.60 La aplicación lineal fb: E → E 0 asociada a la proyectividad f : P (E) →


P (E 0 ) es única salvo multiplicarla por un escalar no nulo.

Demostración : Si fb1 , fb2 : E → E 0 son dos monomorfismos haciendo conmutativo el an-



 
terior diagrama para f , entonces para todo v ∈ E se tiene que πE 0 fi (v) = f πE (v) ,
b
i = 1, 2, de donde L({fb1 (v)}) = L({fb2 (v)}). Inferimos que

fb1 (v) = λv fb2 (v), para algún λv ∈ R∗ .

Por tanto, si u, v ∈ E son linealmente independientes se tiene que

λu fb2 (u) + λv fb2 (v) = fb1 (u) + fb1 (v) = fb1 (u + v) = λu+v fb2 (u + v) = λu+v fb2 (u) + λu+v fb2 (v),

y de aquı́ que λu = λv = λu+v ya que fb2 (u) y fb2 (v) son linealmente independientes
(recordemos que fb2 es un monomorfismo). Concluimos que el escalar λ = λv ∈ R∗ no
depende del vector v ∈ E ∗ y fb1 = λfb2 como habı́amos afirmado.

Las siguientes propiedades de las proyectividades son de comprobación rutinaria, com-


pletar los detalles.
Propiedades 4.61 Son ciertos los siguientes enunciados:
Toda proyectividad es inyectiva. Usar que todo monomorfismo lleva rectas vecto-
riales distintas en rectas vectoriales distintas.
IdP (E) es una proyectividad. La aplicación lineal asociada es IdE .
La composición de proyectividades es una proyectividad. Su aplicación lineal aso-
ciada es la composición de las aplicaciones lineales asociadas.
Una proyectividad f es biyectiva si y solo si su aplicación lineal asociada fb es
un isomorfismo, y en ese caso su inversa f −1 también es una proyectividad con
aplicación lineal asociada fb−1 . A las proyectividades biyectivas se las llama ho-
mografı́as y representan los isomorfismos o equivalencias en la categorı́a de los
espacios proyectivos.
Todo espacio proyectivo n-dimensional P (E) es homográfico a Pn . Basta con to-
mar un isomorfismo fb: E → Rn+1 e inducir la homografı́a f : P (E) → Pn que lo
tiene como aplicación lineal asociada.

199
Si f : P (E) → P (E 0 ) es una proyectividad y X es una variedad proyectiva de
P (E) entonces f (X) es una variedad proyectiva de P (E 0 ), dim f (X) = dim X y
f[
(X) = fb(X),
b donde fb es la aplicación lineal asociada a f . En particular, P (E)

es homográfico a f P (E) vı́a f .
Como en el caso del cambio de base también podemos hablar de matriz de una
proyectividad en unas bases.
Definición 4.62 Si f : P (E) → P (E 0 ) es una proyectividad con aplicación lineal aso-
ciada fb: E → E 0 , y B, B 0 son bases de E, E 0 respectivamente, se define la matriz de f
en B y B 0 como
M (f, B, B 0 ) := λ M (fb, B, B 0 ).
para cualquier λ ∈ R∗ .
Nótese que fb está determinada salvo un factor de proporcionalidad. La razón para defi-
nir M (f, B, B 0 ) (y por tanto las ecuaciones matriciales de f en B y B 0 ) como M (fˆ, B, B 0 )
salvo un factor de proporcionalidad λ 6= 0 reside en la compatibilidad de la expresión
matricial de fˆ en B, B 0 con las coordenadas homogéneas:
     
x0 x0
  x1     x1  
M (fb, B, B 0 ) · µ  ..  = µ M (fb, B, B 0 ) ·  .. 
     
  .    . 
xn xn
para todo λ ∈ R∗ . Por tanto las ecuaciones analı́ticas de f en coordenadas homogéneas
respecto de las bases B en E y B 0 en E 0 quedan, expresadas de forma matricial, de la
siguiente forma:
f (p)B 0 = M (f, B, B 0 ) · pB ,
donde pB y f (p)B 0 son las coordenadas homogéneas de un punto genérico p ∈ P (E) en
B y de su imagen f (p) en B 0 , respectivamente.
Naturalmente, si B1 , B2 son bases de E y B10 , B20 son bases de E 0 , se tiene que
M (f, B2 , B20 ) = M (IdP (E 0 ) , B10 , B20 ) · M (f, B1 , B10 ) · M (IdP (E) , B2 , B1 ).
Acabaremos con el siguiente resultado.
Teorema 4.63 Consideremos P (E), P (E 0 ) espacios proyectivos con dim P (E) = n ≤
m = dim P (E 0 ), y sean {p0 , p1 , . . . , pn } ⊂ P (E), {p00 , p01 , . . . , p0n } ⊂ P (E 0 ) sistemas de
puntos proyectivamente independientes.
Entonces existe una proyectividad f : P (E) → P (E 0 ) tal que
f (pi ) = p0i , i = 0, 1, . . . , n.
Si además n = m entonces f es una homografı́a.
Demostración : Escribamos
pi = π(vi ), p0i = π(vi0 ), i = 0, 1, . . . , n.
De nuestras hipótesis {v0 , v1 , . . . , vn } es base de E y {v00 , v10 , . . . , vn0 } son linealmente
independientes en E 0 . Por tanto, para cada elección de λ1 , . . . , λn ∈ R \ {0} el Teorema
Fundamental del Álgebra Lineal garantiza que existe un único monomorfismo lineal
fˆ: E → E 0 satisfaciendo
fˆ(v0 ) = v00 , fˆ(vi ) = λi vi0 , i = 1, . . . , n.
La proyectividad f : P (E) → P (E 0 ) inducida por fˆ resuelve el teorema.

200
Observación 4.64 La demostración del Teorema 4.63 nos dice que no podemos es-
perar unicidad para la proyectividad f , pero nos ofrece todas las posibles soluciones
parametrizadas por los escalares λ1 , . . . , λn ∈ R \ {0}.

Corolario 4.65 Sean P (E), P (E 0 ) espacios proyectivos n-dimensionales y

{p0 , p1 , . . . , pn } ⊂ P (E), {p00 , p01 , . . . , p0n } ⊂ P (E 0 )

sistemas de puntos proyectivamente independientes. Si q ∈ P (E), q 0 ∈ P (E 0 ) son pun-


tos tales que {p0 , p1 , . . . , pn , q} y {p00 , p01 , . . . , p0n , q 0 } están en posición general (esto es,
no contengan n + 1 puntos proyectivamente dependientes), entonces existe una única
homografı́a f : P (E) → P (E 0 ) tal que

f (pi ) = p0i , i = 0, 1, . . . , n, y f (q) = q 0 .

Demostración : Por la prueba del Teorema 4.63, una proyectividad f : P (E) → P (E 0 )


tal que f (pi ) = p0i , i = 0, 1, . . . , n, viene asociada a un monomorfismo fˆ: E → E 0 con

fˆ(v0 ) = v00 , fˆ(vi ) = λi vi0 , i = 1, . . . , n,

donde

B = {v0 , v1 , . . . , vn } es base de E con π(vi ) = pi , i = 0, 1, . . . , n,

B 0 = {v00 , v10 , . . . , vn0 } es base de E 0 con π(vi0 ) = p0i , i = 0, 1, . . . , n, y

λ1 , . . . , λn ∈ R \ {0}.

Si escribimos qB = (µ0 : µ1 : · · · : µn ) y qB0 0 = (µ00 : µ01 : · · · : µ0n ), esto es,


n
X n
X
µ0i vi0 = q 0 ,
 
π µi vi = q, π
i=0 i=0

la hipótesis de posición general garantiza que µi , µ0i 6= 0 para todo i = 0, 1, . . . , n; por la


naturaleza de las coordenadas homogéneas y sin pérdida de generalidad supondremos
µ0 = µ00 . La condición f (q) = q 0 es equivalente a que
n n
!
X X
fˆ µ0 v 0

µi v i = µ para algún µ 6= 0,
i i
i=0 i=0

esto es !
n
X n
X n
X n
X
fˆ(µi vi ) = µi fˆ(vi ) = µ0 v00 + µi λi vi0 = µ µ0i vi0
i=0 i=0 i=1 i=0

para algún µ 6= 0. Como µ0 = µ00 6= 0, lo anterior fuerza a que µ = 1, y por tanto


f (q) = q 0 si y sólo si
n
X n
X
µ0 v00 + µi λi vi0 = µ0i vi0 ,
i=1 i=0

o equivalentemente λi = µ0i /µi


para todo i = 1, . . . , n. Esta elección de los escalares
λ1 , . . . , λn ∈ R \ {0} es la única posible para que f satisfaga lo deseado.

201
Ejercicio 4.66 En P2 determinar la expresión matricial en la base canónica B0 de R3
de todas las homografı́as h : P2 → P2 satisfaciendo:

h (1 : 1 : 1)t = (1 : 0 : 1)t , h (1 : 1 : 0)t = (1 : 0 : −1)t , h (1 : 0 : 0)t = (1 : 1 : 0)t .


  

Solución : Supongamos que h : P2 → P2 es una homografı́a satisfaciendo lo requerido,


y llamemos b h : R3 → R3 a su aplicación lineal asociada. Es claro que
  
b h (1, 1, 0) = λ2 (1, 0, −1), b
h (1, 1, 1) = λ1 (1, 0, 1), b h (1, 0, 0) = λ3 (1, 1, 0)

para escalares λj ∈ R \ {0}, j = 1, 2, 3. Si consideramos la base de R3

B1 = {(1, 1, 1, (1, 1, 0), (1, 0, 0)},

es claro que  
λ1 λ2 λ3
h, B1 , B0 ) =  0
M (b 0 λ3  .
λ1 −λ2 0
Como  
1 1 1
M (IdR3 , B1 , B0 ) =  1 1 0 
1 0 0
entonces
 
λ3 λ2 − λ3 λ1 − λ2
M (b h, B1 , B0 ) · M (IdR3 , B1 , B0 )−1
h, B0 , B0 ) = M (b =  λ3 −λ3 0 .
0 −λ2 λ1 + λ2

Por tanto las homografı́as que resuelven el ejercicio son las que tienen matrices
 
1 λ−1 γ−λ
M (h, B0 , B0 ) = µ  1 −1 0  , µ, λ, γ ∈ R \ {0}.
0 −λ γ + λ

Ejercicio 4.67 Una cuaterna de puntos {p1 , p2 , p3 , p4 } en el plano proyectivo P2 se dice


un cuadrilátero si no contiene ninguna terna de puntos alineados (esto es, cada tres de
ellos son proyectivamente independientes).
Demuestra que dados dos cuadriláteros {p1 , p2 , p3 , p4 } y {q1 , q2 , q3 , q4 } en P2 , existe
una única homografı́a f : P2 → P2 tal que

f (pi ) = qi , i = 1, 2, 3, 4.

Determina la matriz M (f, B0 , B0 ) en la base canónica B0 de R3 de la homografı́a


f : P2 → P2 que satisface f (pi ) = qi , i = 1, 2, 3, 4, para

p1 = (1 : 1 : 0)t , p2 = (1 : −1 : 0)t , p3 = (1 : 0 : 1)t , p4 = (1 : 0 : −1)t

q1 = (1 : 1 : 0)t , q2 = (1 : −1 : 0)t , q3 = (0 : 1 : 1)t , q4 = (0 : 1 : −1)t .

202
Determinaremos la homografı́a f : P2 → P2 que resuelva el ejercicio a partir
Solución :
de su isomorfismo lineal asociado fˆ: R3 → R3 , la unicidad será evidente en el proceso.
Recordemos que si fˆ es una aplicación lineal asociada a f entonces

π ◦ fˆ = f ◦ π,

donde π : (R3 )∗ ≡ R3 \ {0} → P2 es la proyección canónica.


La primera parte del ejercicio es consecuencia inmediata del Corolario 4.65. Repase-
mos no obstante las ideas de la prueba en este caso particular. Escribamos pi = π(vi ) y
qi = π(ui ) para vi , ui ∈ (R3 )∗ , i = 1, 2, 3, 4. Con este lenguaje, existirá una homografı́a
f : P2 → P2 tal que f (pi ) = qi , i = 1, 2, 3, 4, si y solo si existe un isomorfismo lineal

fb: R3 → R3 tal que fb L({vi }) = L({ui }), i = 1, 2, 3, 4.
Llamemos B1 = {v1 , v2 , v3 } y B2 = {u1 , u2 , u3 }, y démonos cuenta de que ambos
sistemas de vectores son bases de R3 por nuestras hipótesis.

Un isomorfismo fb: R3 → R3 satisface fb L({vi }) = L({ui }) para i = 1, 2, 3 si y solo
si su matriz M (fb, B1 , B2 ) es de la forma
 
λ1 0 0
M (fb, B1 , B2 ) =  0 λ2 0 
0 0 λ3
para algunos λi ∈ R∗ , i = 1, 2, 3. Nuestro problema es equivalente a probar que existen
un único (salvo factor de proporcionalidad) (λ1 , λ2 , λ3 ) ∈ (R∗ )3 para el que el isomor-
fismo fb: R3 → R3 con matriz
 
λ1 0 0
M (fb, B1 , B2 ) =  0 λ2 0 
0 0 λ3

satisface además fb L({v4 }) = L({u4 }).
Escribamos
X3 X3
v4 = µj vj , u4 = νj uj ,
j=1 j=1

y observemos que, al ser p1 , p2 , p3 , p4 y q1 , q2 , q3 , q4 cuadriláteros, necesariamente todos


los escalares anteriores son no nulos, esto es,

µj , νj 6= 0 ∀j = 1, 2, 3.

En efecto, en otro caso alguna terna de puntos en {p1 , p2 , p3 , p4 } o en {q1 , q2 , q3 , q4 }


estarı́an alineados, lo que contradirı́a nuestras hipótesis.
Usando que fb(vi ) = λi ui , i = 1, 2, 3, hemos de garantizar que
3
X 3
X
νj uj = u4 = fˆ(v4 ) = (λj µj )uj .
j=1 j=1

En definitiva, la condición fb L({v4 }) = L({u4 }) es equivalente a
∗
(λ1 , λ2 , λ3 ) ∈ L {(ν1 /µ1 , ν2 /µ2 , ν3 /µ3 )} ,

lo que fuerza una elección única de (λ1 , λ2 , λ3 ) ∈ (R∗ )3 salvo un factor de propor-
cionalidad, y determina una unı́vocamente una homografı́a f : P2 → P2 satisfaciendo
π ◦ fb = f ◦ π que resuelve la primera parte del ejercicio.

203
Para la segunda parte, elijamos

p1 = (1 : 1 : 0)t , p2 = (1 : −1 : 0)t , p3 = (1 : 0 : 1)t , p4 = (1 : 0 : −1)t

q1 = (1 : 1 : 0)t , q2 = (1 : −1 : 0)t , q3 = (0 : 1 : 1)t , q4 = (0 : 1 : −1)t .


En este caso podemos elegir

v1 = (1, 1, 0), v2 = (1, −1, 0), v3 = (1, 0, 1), v4 = (1, 0, −1)

u1 = (1, 1, 0), u2 = (1, −1, 0), u3 = (0, 1, 1), u4 = (0, 1, −1),


y observemos que v4 = v1 + v2 − v3 y u4 = u1 − u2 − u3 .
Llamemos B1 = {v1 , v2 , v3 } y B2 = {u1 , u2 , u3 }. Siguiendo la argumentación anterior
hemos de encontrar (λ1 , λ2 , λ3 ) ∈ (R∗ )3 tal que el isomorfismo fb: R3 → R3 con
 
λ1 0 0
M (fb, B1 , B2 ) =  0 λ2 0 
0 0 λ3

satisfaga fb(v4 ) ∈ L({u4 }), esto es,

λ1 u1 + λ2 u2 − λ3 u3 ∈ L({u1 − u2 − u3 }).

Basta con tomar (λ1 , λ2 , λ3 ) = λ(1, −1, 1) para cualquier λ 6= 0. Por tanto, el isomor-
fismo fb: R3 → R3 con  
1 0 0
M (fb, B1 , B2 ) =  0 −1 0 
0 0 1
(o cualquier múltiplo no nulo suyo) induce la única homografı́a f : P2 → P2 resolviendo
el ejercicio. Si deseamos calcular M (f, B0 , B0 ), observemos que por definición
 
1 0 0
M (f, B1 , B2 ) = µM (fb, B1 , B2 ) = µ  0 −1 0  .
0 0 1
Como
   
1 1 1 1 1 0
M (Id, B1 , B0 ) =  1 −1 0  , M (Id, B2 , B0 ) =  1 −1 1 
0 0 1 0 0 1
y
M (f, B0 , B0 ) = M (Id, B2 , B0 ) · M (f ; B1 , B2 ) · M (Id, B1 , B0 )−1 ,
al final queda
     −1
1 1 0 1 0 0 1 1 1
M (f, B0 , B0 ) = µ  1 −1 1  ·  0 −1 0  ·  1 −1 0  .
0 0 1 0 0 1 0 0 1

Ejercicio 4.68 Determina la matriz en la base usual de R3 de la única homografı́a


f : P2 → P2 que transforma respectivamente las rectas proyectivas x0 − x1 + x2 =
0, x0 + 2x2 = 0, x0 + x1 = 0 en las rectas proyectivas x0 = 0, x1 = 0, x2 = 0, y además
fija el punto (1 : 1 : 1)t ∈ P2 .

204
Solución : Demos nombre a las rectas proyectivas
R1 = {(x0 : x1 : x2 )t ∈ P2 : x0 − x1 + x2 = 0},
R2 = {(x0 : x1 : x2 )t ∈ P2 : x0 + 2x2 = 0},
R3 = {(x0 : x1 : x2 )t ∈ P2 : x0 + x1 = 0},
S1 = {(x0 : x1 : x2 )t ∈ P2 : x0 = 0},
S2 = {(x0 : x1 : x2 )t ∈ P2 : x1 = 0},
S3 = {(x0 : x1 : x2 )t ∈ P2 : x2 = 0}.
Sea f : P2 → P2 una homografı́a que lleve f (Rj ) = Sj , j = 1, 2, 3. Necesariamente
f (R1 ∩ R2 ) = S1 ∩ S2 , esto es, f ((2 : 1 : −1)t ) = (0 : 0 : 1)t ,
f (R1 ∩ R3 ) = S1 ∩ S3 , esto es, f ((1 : −1 : −2)t ) = (0 : 1 : 0)t ,
f (R2 ∩ R3 ) = S2 ∩ S3 , esto es, f ((2 : 2 : −1)t ) = (1 : 0 : 0)t ,
Por tanto, si llamamos B1 = {(2, 1, −1), (1, −1, −2), (2, 2, −1)} (base de R3 ) y B0 a la
base canónica de R3 , el isomorfismo lineal fˆ asociado a una tal f ha de satisfacer:
 
0 0 γ
M (fˆ, B1 , B0 ) =  0 µ 0 
λ 0 0
para λ, µ, γ ∈ R \ {0}. Por tanto
M (fˆ, B0 ) ≡ M (fˆ, B0 , B0 ) = M (fˆ, B1 , B0 )·M (IdR3 , B0 , B1 ) = M (fˆ, B1 , B0 )·M (IdR3 , B1 , B0 )−1 ,
y como  
2 1 2
M (IdR3 , B1 , B0 ) =  1 −1 2  ,
−1 −2 −1
queda finalmente
   −1  
0 0 γ 2 1 2 −γ γ −γ
M (fˆ, B0 ) =  0 µ 0  ·  1 −1 2  =  − µ3 0 − 2µ3
.
5λ 4λ
λ 0 0 −1 −2 −1 3
−λ 3

Como deseamos que f ((1 : 1 : 1)t ) = (1 : 1 : 1)t , necesitamos que


(γ, −µ, 2λ) = β(1, 1, 1)
para algún β ∈ R \ {0}. Basta con elegir
γ = β, −µ = β, 2λ = β,
que están determinados unı́vocamente salvo proporcionalidad. Queda finalmente
   
−1 1 −1 −6 6 −6
β
M (fˆ, B0 ) = β  31 0 2 
3
=  2 0 4 ,
5 1 2 3
6
−2 3 5 −3 4
de donde f : P2 → P2 es la homografı́a con matriz
 
−6 6 −6
M (f, B0 ) =  2 0 4 
5 −3 4
o cualquier múltiplo suya.

205
4.9. Geometrı́a afı́n versus geometrı́a proyectiva.
La magia de la geometrı́a proyectiva es que, por sorprendente que pueda parecer,
engloba o subsume a la geometrı́a afı́n.
Todo espacio afı́n A puede ser fácilmente visualizado, salvo embebimientos naturales,
como un hiperplano afı́n que no pasa por el origen ~0 en un espacio vectorial E con


dimensión dim A + 1. En efecto, basta con fijar un origen e0 ∈ A, definir E = R × A ,


y considerar la identificación natural entre A y el hiperplano {1} × A de E


A 3 p ←→ (1, −
e→
0 p) ∈ {1} × A ⊂ E

que lleva el origen e0 en el punto (1, ~0).


Revirtiendo el argumento, podemos establecer el siguiente marco teórico para inte-
grar la geometrı́a afı́n dentro de la proyectiva.
Sea E un espacio vectorial con dim E = n + 1 considerado de forma canónica como


espacio afı́n (E, E ≡ E, − →
) (ver Definicion 2.9). Fijemos en un hiperplano afı́n A ⊆ E
con la condición de que
~0 ∈
/ A.


Como siempre A denotará a la variedad de dirección de A, que en este caso es un


subespacio vectorial de E con dim A = n. Como ~0 ∈ / A, siempre podemos escribir

− →

A = e0 + A para algún e0 ∈ A (luego e0 ∈
/ A ).

− →
Es importante recordar que (A, A , − ) es intrı́nsicamente un espacio afı́n n-dimensional.
La siguiente definición nos presenta el embebimiento canónico de A en P (E).
Definición 4.69 Como A ⊆ E ∗ = E \ {~0}, podemos definir

e : A → P (E), e(v) := π(v),

donde π : E ∗ → P (E) es la proyección natural al proyectivo n-dimensional sobre E.


La aplicación e es conocida como el embebimiento canónico del espacio afı́n A en el
espacio proyectivo P (E).
Observemos que e = π|A , donde π : E ∗ → P (E) es la proyección canónica. La aplicación
e inyecta los puntos de A en P (E), permitiéndonos visualizar A dentro de P (E). El
siguiente resultado es crucial porque explica como la geometrı́a del espacio afı́n A puede
entenderse contenida dentro de la proyectiva que se desarrolla en P (E).

Proposición 4.70 El embebimiento canónico e : A → P (E) satisface las siguientes


propiedades:
(i) e es inyectiva.


(ii) P (E) = e(A)∪A∞ (unión disjunta), donde A∞ es el hiperplano proyectivo π( A ∗ ).

(iii) Si S es un subespacio afı́n de A, la variedad proyectiva XS := V (e(S)) ⊆ P (E)


satisface XS = e(S) ∪ S∞ (unión disjunta), donde S∞ := XS ∩ A∞ = π(S ~ ∗ ).
~ entonces:
Además, si S = u + S

X
bS = L(S) = L({u}) + S;~ en particular S = X
bS ∩ A y dim XS = dim S.
~ ∗ ) y dim S∞ = dim XS − 1 = dim S − 1.
S∞ = π(S

206

− →

Demostración : Para demostrar (i) pongamos A = e0 + A , ∈ / A , y tomemos puntos


e0 + u1 , e0 + u2 ∈ A, donde u1 , u2 ∈ A . Si e(e0 + u1 ) = e(e0 + u2 ), esto es, π(e0 +
u1 ) = π(e0 + u2 ), deducimos que e0 + u1 = λ(e0 + u2 ) para algún λ 6= 0. Esto implica

− →

(1 − λ)e0 = λu2 − u1 ∈ A , de donde al ser e0 ∈/ A inferimos que λ = 1 y u1 = u2 . Por
tanto e0 + u1 = e0 + u2 y e es inyectiva.
Para comprobar (ii) observemos que a un punto p ≡ π(v) = L({v})∗ ∈ P (E) le
pueden pasar dos cosas mutuamente excluyentes:

− →

La recta vectorial L({v}) ⊆ A y π(v) ∈ π( A ∗ ).
La recta L({v}) y A son complementarios en el espacio afı́n E, se cortan en un
punto de la forma λv, λ ∈ R∗ , y π(v) ∈ π(A) = e(A).

− →

Por tanto P (E) = π(A) ∪ π( A ∗ ) = e(A) ∪ π( A ∗ ), siendo la unión disjunta.
El item (iii) es un caso particular del item (ii). En efecto, consideremos un subespacio
afı́n S = u + S ~ de A y escribamos S = u + S ~ ⊆ A. Como XS := V (e(S)) ⊆ P (E), la
Proposición 4.51 nos dice que
X̂s = L π −1 (e(S)) = L(S) = L({u}) + S ~ ⊆ E,


donde como arriba hemos escrito S = u + S, ~ u ∈ A (en particular u ∈ ~


/ S).
Por tanto S es un hiperplano afı́n en X̂S que no pasa por ~0 y XS = P (X̂S ) ⊆ P (E).
La proyección πS : X̂S∗ → XS ⊆ P (E) es la restricción de π : E ∗ → P (E) a X̂S∗ , y el
correspondiente embebimiento
eS : S → P (X̂s ) ⊆ P (E), eS (v) := πS (v),
la restricción de e : E ∗ → P (E) a X̂S∗ . Lo probado en el item (ii) nos garantiza que

− →

XS = eS (S) ∪ S∞ = eS (S) ∪ πS ( S ∗ ) = e(S) ∪ π( S ∗ ),


donde por la π-saturación de A ∗ y X̂S∗

− →
− →

π( S ∗ ) = π( A ∗ ∩ X̂S∗ ) = π( A ∗ ) ∩ π(X̂S∗ ) = A∞ ∩ XS .
Ésto concluye la prueba.
Definición 4.71 Diremos que P (E) es la proyectivización de A como hiperplano afı́n
de E. Al hiperplano proyectivo A∞ ⊆ P (E) se le llamará hiperplano del infinito relativo


al hiperplano afı́n A de E. Es claro que A∞ sólo depende de la variedad de dirección A
de A, y por tanto hiperplanos paralelos en E ∗ inducen el mismo hiperplano del infinito.
Dado S ⊆ A subespacio afı́n, a XS ⊆ P (E) se le llamará proyectivización de S
relativa al hiperplano afı́n A de E. Igualmente, a S∞ := XS ∩ A∞ es un hiperplano en
XS que llamaremos variedad del infinito de S relativa al hiperplano afı́n A de E. Como
~ de S, y por tanto subespacios afines
antes S∞ sólo depende de la variedad de dirección S
paralelos en A inducen la misma variedad del infinito relativa a A.

207
Fijémonos en el mensaje de la Proposición 4.70. Por (i) el espacio afı́n n-dimensional
A se embebe conjuntı́sticamente dentro del proyectivo P (E)
e
A ,→ P (E).
Por (ii), la copia e(A) del espacio afı́n A dentro de P (E) cubre todo el proyectivo
excepto el hiperplano del infinito A∞ . Es más, por (iii) la copia e(S) en P (E) de
cualquier subespacio afı́n S de A cubre por completo su proyectivización XS , variedad
proyectiva con igual dimensión a S, excepto los puntos de XS que descansan en el
hiperplano del infinito A∞ que determinan una variedad S∞ de dimensión dim S − 1.
De esta forma la geometrı́a afı́n de A está subsumida de forma natural dentro de la
proyectiva de P (E).
El siguiente corolario explica el comportamiento de la proyectivización respecto a
las operaciones con subespacios afines.
Corolario 4.72 Sea A hiperplano afı́n de E espacio vectorial. Si R, S son subespacios
afines de un espacio afı́n A entonces:
(a) Si R ∩ S 6= ∅ entonces XR ∩ XS = XR∩S ; en particular (R ∩ S)∞ = R∞ ∩ S∞ .
(b) Si R ∩ S = ∅ entonces XR ∩ XS = R∞ ∩ S∞ .
(c) XR ∨ XS = XS∨R ; en particular (R ∨ S)∞ = R∞ ∨ S∞ .

Demostración : Supongamos R ∩ S 6= ∅ y elijamos q ∈ R ∩ S. Sabemos que


−−−→ →
− → −
X R∩S = L{q} + R ∩ S = L{q} + ( R ∩ S ) =
[

− →

= (L{q} + R ) ∩ (L{q} + S ) = XcR ∩ X
cS ,
cR ∗ , X
de donde como X cS ∗ son π-saturados,
∗
cR ∗ ∩ X
cS ∗ = π X cS ∗ = XR ∩ XS
cR ∗ ∩ π X
  
XR∩S = π X [R∩S =π X
y se sigue (a).
Si R ∩ S = ∅ es claro que L(R) ∩ L(S) = R ~ ∩ S.
~ En efecto, si x ∈ L(R) ∩ L(S)
entonces L({x}) ∩ A = ∅, pues un punto en esa intersección estarı́a en R ∩ S. Como A


es un hiperplano en E y ~0 ∈
/ A, deducimos que L({x}) ⊆ A , y de aquı́ que

− →
− ~ ~
L(R) ∩ L(S) = L(R) ∩ A ∩ L(S) ∩ A = R ∩ S.
Por tanto, razonando como arriba
cR ∗ ∩ X
cS ∗ = π (R
~ ∩ S)
~ ∗ = π(R
~ ∗ ) ∩ π(S
~ ∗ ) = R∞ ∩ S∞ ,
 
XR ∩ XS = π X
lo que prueba (b).
Finalmente, (c) es consecuencia inmediata de (11) y el siguiente cálculo:

X R∨S = L(R ∨ S) = L(R) + L(S) = XR + XS = XR ∨ XS .


[ c c \

Hay una pregunta importante que se nos queda en el tintero, y es entender como se
interpreta el paralelismo en A en términos del espacio proyectivo P (E) y el hiperplano
del infinito A∞ . La respuesta está contenida en el siguiente corolario, consecuencia
trivial de Proposición 4.70-(iii).

208
Corolario 4.73 Sean S, T ⊆ A subespacios afines.
~ ⊆ T~ ) si y solo si S∞ ⊆ T∞ ⊆ A∞ .
S es paralelo a T (esto es, S
~ = T~ ) si y solo si S∞ = T∞ ⊆ A∞ .
S y T son paralelos (esto es, S

Demostración :Trivial usando que para todo subespacio afı́n S ⊆ A se tiene la identi-
~ ∗ ).
dad S∞ = π(S

El mensaje del corolario es que la información sobre el paralelismo en A está condensada


en el hiperplano del infinito A∞ en P (E). En particular, el caso de rectas se tiene lo
siguiente:

Corolario 4.74 Dos rectas R y S en A distintas son paralelas si y solo si sus proyecti-
vizaciones XR y XS relativas a A ⊆ E se cortan y lo hacen en un punto del hiperplano
del infinito A∞ .

Demostración : Las rectas R, S son paralelas si y sólo si S ~ = R, ~ esto es, si y sólo


si S∞ = π(S ~ ) = π(R
∗ ~ ) = R∞ ⊆ A∞ . Pero observemos que al tratarse de rectas,

~ ) como π(R
tanto π(S ∗ ~ ∗ ) son puntos de P (E). Por otra parte, al ser distintas las rectas
proyectivas XR , XS éstas se cortan a lo más en un punto (ver Propiedades 4.54), de
donde se concluye que el paralelismo de R, S es equivalente a que XR y XS se corten
en un punto de A∞ .

4.9.1. Proyectivización de subespacios afines


Vamos a presentar un algoritmo para el cálculo de la proyectivización de un subes-
pacio en términos de ecuaciones implı́citas. Para ello tendremos que introducir unas
referencias apropiadas que faciliten las cosas. Como en la sección anterior consideremos
E espacio vectorial con dim E = n + 1 y A ⊆ E hiperplano afı́n tal que ~0 ∈ / A.

Definición 4.75 Si R es el sistema de referencia de A con origen e0 ∈ A y base de




direcciones B = {e1 , . . . , en } en A , la base de E dada por

B̃ = {e0 , e1 , . . . , en }

se dirá la asociada a R.

Observemos que si R es un sistema de referencia en A y B̃ es su base de E asociada,


entonces R0 = {~0, B̃} es un sistema de referencia de E como espacio afı́n.
Proposición 4.76 Fijemos R = {e0 , B} referencia en A. Si S es un subespacio afı́n
(n − k)-dimensional en A, k ≤ n, con ecuaciones implı́citas respecto de R

 a1,1 x1 + . . . + a1,n xn = b1

(I) = ..
 .
 a x + ... + a x = b
k,1 1 k,n n k

entonces la variedad proyectiva XS de P (E) tiene por ecuaciones implı́citas en coorde-


nadas homogéneas respecto de B̃

 −b1 x0 + a1,1 x1 + . . . + a1,n xn = 0


(I) = ..
 .
 −b x + a x + . . . + a x = 0
k 0 k,1 1 k,n n

209
Además, la variedad del infinito S∞ relativa a A tiene por ecuaciones implı́citas en
coordenadas homogéneas respecto de B̃


 x0 = 0
 a1,1 x1 + . . . + a1,n xn = 0

(I)∞ = ..


 .
 a x + ... + a x = 0
k,1 1 k,n n

Demostración : Sabemos que v ∈ S si y sólo si vR satisface (I), lo que es equivalente


a que las coordenadas homogéneas vB̃ de v en B̃ satisfagan (I)∗ . Por tanto la variedad
proyectiva
X = {v ∈ P (E) : vB̃ satisface (I)∗ }
contiene a S y en consecuencia XS ⊆ X. Pero claramente dim X = dim XS = k, de
donde XS = X como querı́amos demostrar. Como la ecuación implı́cita de A∞ (esto es,


la de A ) en B̃ es
{ x0 = 0,
las de S∞ = XS ∩ A∞ en B̃ son las dadas en (I)∞ . Esto acaba la prueba.

La construcción realizada para un espacio vectorial abstracto E con dim E = n + 1


adopta una forma canónica cuando E = Rn+1 . En este caso se suelen escribir como
(x0 , x1 , . . . , xn ) las coordenadas genéricas en Rn+1 , y se elige como hiperplano A ⊆ Rn+1
el de ecuación implı́cita {x0 = 1} en el sistema de referencia R0 usual de Rn+1 , esto es,

A = {1} × Rn ⊆ Rn+1 .


Es conveniente observar también que A = {0} × Rn ⊆ Rn+1 . A continuación identifi-
camos Rn con A vı́a la afinidad natural

Rn → A, (x1 , . . . , xn ) 7→ (1, x1 , . . . , xn ).

Salvo este cambio de lenguaje, el embebimiento canónico de Rn en Pn = P (Rn+1 ) queda

e : Rn → Pn , e (x1 , . . . , xn ) = (1 : x1 : · · · : xn )t .


La Proposición 4.70 adopta la forma siguiente:

Proposición 4.77 La aplicación e : Rn → Pn satisface las siguientes propiedades:

(1) e es inyectiva.

(2) Rn ∞ = Pn \ e(Rn ) es un hiperplano proyectivo con R


cn ∞ = {0}×Rn , esto es,

π ({0} × Rn )∗ = Rn ∞ .


(3) Si S es un subespacio afı́n de Rn y llamamos XS a la variedad proyectiva V (e(S)) ⊆


Pn , entonces
~ para todo u ∈ S; en particular

bS = L({1} × S) = L({(1, u)}) + {0} × S
X
{1}×S = X bS ∩ ({1} × Rn ) y dim XS = dim S.
XS \ Rn ∞ = e(S) y S∞ := XS ∩ Rn ∞ = π({0}× S ~ ∗ ).

210
Definición 4.78 Se dice que Pn es la proyectivización canónica de Rn y Rn ∞ ⊆ Pn es
el hiperplano del infinito canónico de Pn . También dado S ⊆ Rn subespacio afı́n, a XS
se le llama proyectivización canónica de S en Pn y a S∞ := XS ∩ Rn ∞ = π ({0} × S) ~ ∗
la variedad del infinito canónica de S.
Para los ejercicios será conveniente tener siempre in mente la conexión entre el afı́n
euclidiano Rn , el proyectivo Pn y el hiperplano del infinito:
e
Rn −→ Pn \ Rn ∞ , (x1 , . . . , xn ) 7→ (1 : x1 : · · · : xn )t

e−1
 
x1
Pn \ Rn ∞ −→ Rn , (x0 : x1 : · · · : xn )t 7→ x0
, . . . , xxn0 ,

donde Rn ∞ = {(0 : x1 : · · · : xn )t : (x1 : · · · : xn )t ∈ Pn−1 }.


n n
Observación 4.79 Si identificamos topológicamente
n n
 P ≡ S /hAi, el hiperplano del
infinito se corresponde con R ∞ ≡ S ∩ {x0 = 0} /hAi.
Por tanto, una sucesión {yj }j∈N ⊆ Rn es divergente si y sólo si con la topologı́a de
Pn la sucesión
 1 
e(yj ) = π (1, yj ) j∈N
k(1, yj )k

tiene un punto de acumulación en Rn ∞ ≡ Sn ∩ {x0 = 0} /hAi.
Esto justifica que a Rn ∞ se le llame hiperplano del infinito de Pn : la divergencia en
Rn , tras proyectivización, no es sino la convergencia al hiperplano del infinito de Pn .
Mira la figura tras la Proposición 4.70.
El Corolario 4.73 queda:
Corolario 4.80 Sean S, T ⊆ Rn subespacios afines.
~ ⊆ T~ ) si y solo si S∞ ⊆ T∞ ⊆ Rn ∞ .
S es paralelo a T (esto es, S
~ = T~ ) si y solo si S∞ = T∞ ⊆ Rn ∞ .
S y T son paralelos (esto es, S
Por último, la Proposición 4.76 adopta esta forma en coordenadas canónicas:

Proposición 4.81 Si S es el subespacio afı́n de los puntos (x1 , . . . , xn ) ∈ Rn tales que



 a1,1 x1 + . . . + a1,n xn = b1

(I) = ..
 .
 a x + ... + a x = b
k,1 1 k,n n k

entonces su proyectivización canónica XS es la variedad proyectiva de Pn de los puntos


con coordenadas homogéneas canónicas (x0 : x1 : · · · : xn ) satisfaciendo

 −b1 x0 + a1,1 x1 + . . . + a1,n xn = 0


(I) = ..
 .
 −b x + a x + . . . + a x = 0
k 0 k,1 1 k,n n

De igual modo la variedad del infinito canónica S∞ de S en Pn viene dada por




 x0 = 0
 a1,1 x1 + . . . + a1,n xn = 0

(I)∞ = ..


 .
 a x + ... + a x = 0
k,1 1 k,n n

211
Observación 4.82 Es conveniente tener siempre in mente la conexión entre el afı́n
euclidiano Rn , el proyectivo Pn y el hiperplano del infinito:

Rn ∞ = {(0 : x1 : · · · : xn )t : (x1 : · · · : xn )t ∈ Pn−1 } ⊂ Pn ,


e
Rn −→ Pn \ Rn ∞ , (x1 , . . . , xn ) 7→ (1 : x1 : · · · : xn )t ,

e−1
 
x1
Pn \ Rn ∞ −→ Rn , (x0 : x1 : · · · : xn )t 7→ x0
, . . . , xxn0 .
Además, si S ⊂ Rn es un subespacio afı́n entonces
~ ∗ },
S∞ = {(0 : x1 : · · · : xn )t ∈ Pn : (x1 , . . . , xn ) ∈ S

XS = {(1 : x1 : · · · : xn )t ∈ Pn : (x1 , . . . , xn ) ∈ S} ∪ S∞ .
Recı́procamente, si X ⊆ Pn es una variedad proyectiva no contenida en Rn ∞ entonces
X = XS y X ∩ Rn ∞ = S∞ para el subespacio afı́n de Rn
  
x1 xn n t n
S= ,..., ∈ R : (x0 : x1 : · · · : xn ) ∈ X \ R ∞ .
x0 x0

Ejercicio 4.83 En R3 consideramos el plano afı́n S = R ∨ {(0, 0, 1)}, donde R es la


recta afı́n

R = {(x1 , x2 , x3 ) ∈ R3 : x1 + x2 − x3 − 1 = x2 + x3 − 2 = 0}

dada en ecuaciones implı́citas respecto de la base canónica B0 de R3 .


Determinar la proyectivización XS y la variedad del infinito S∞ canónicas en P3 del
plano afı́n S.

Solución : La recta R en paramétricas se escribe:

R = {(−1 + 2λ, 2 − λ, λ) ∈ R3 : λ ∈ R} = (−1, 2, 0) + L({(2, −1, 1)}).

Por tanto
−−−−−−−−−−−→
S = (0, 0, 1) + L({(−1, 2, 0)(0, 0, 1), (2, −1, 1)} = (0, 0, 1) + L({(−1, 2, −1), (2, −1, 1)},

y pasando a implı́citas

S = {(x1 , x2 , x3 ) ∈ R3 : x1 − x2 − 3x3 + 3 = 0}.

Por tanto la proyectivización canónica de S queda

XS = {(x0 : x1 : x2 : x3 )t ∈ P3 : 3x0 + x1 − x2 − 3x3 = 0}

y su variedad canónica del infinito

S∞ = {(x0 : x1 : x2 : x3 )t ∈ P3 : x0 = x1 − x2 − 3x3 = 0}.

Ejercicio 4.84 Encuentra la única recta afı́n R en R2 que pasa por el punto (1, 0) y
tiene por punto del infinito R∞ = {(0 : 1 : 1)t } ∈ P2 .

212
Solución : Como R es una recta en R2 satisface una ecuación implı́cita

R = {(x1 , x2 ) ∈ R2 : a0 + a1 x1 + a2 x2 = 0}.

Su proyectivización XR en P2 será la recta proyectiva

XR = {(x0 : x1 : x2 )t ∈ P2 : a0 x0 + a1 x1 + a2 x2 = 0},

y su punto del infinito

R∞ = {(0 : x1 : x2 )t ∈ P2 : a1 x1 + a2 x2 = 0} = {(0 : −a2 : a1 )}.

De que (1, 0) ∈ R deducimos a0 + a1 = 0.

La condición T∞ = {(0 : 1 : 1)t } ∈ XR implica que a2 = −a1 .


Por tanto R = {(x1 , x2 ) ∈ R2 : − 1 + x1 − x2 = 0}.

Ejercicio 4.85 Consideremos en R2 las rectas afines

R1 = {(x1 , x2 ) : x1 − x2 = 1}, R2 = {(−1, 0)} ∨ {(0, 1)}

S1 = {(x1 , x2 ) : x1 + x2 = −1} S2 = {(1, 0)} ∨ {(1, 1)}.


Encuentra una homografı́a f : P2 → P2 tal que

h(XRj ) = XSj , j = 1, 2.

Solución : Estudiemos la posición relativa de las rectas R1 , R2 en R2 . Es claro que

R2 = {(x1 , x2 ) : x1 − x2 = −1},

de donde R1 , R2 son paralelas en R2 y por tanto sus proyectivizaciones XR1 , XR2 se


cortan en R2 ∞ = {(0 : x1 : x2 )t : (x1 : x2 ) ∈ P1 }. De forma más explı́cita

XR1 = {(x0 : x1 : x2 )t : − x0 + x1 − x2 = 0}, XR2 = {(x0 : x1 : x2 )t : x0 + x1 − x2 = 0}

y en consecuencia
XR1 ∩ XR2 = {(0 : 1 : 1)t } ∈ R2 ∞ .
Haciendo un cálculo análogo para S1 , S2 tenemos que

S2 = {(x1 , x2 ) : x1 = 1},

de donde es fácil deducir que S1 ∩ S2 = {(1, −2)}. En este caso

XS1 = {(x0 : x1 : x2 )t : x0 + x1 + x2 = 0}, XS2 = {(x0 : x1 : x2 )t : − x0 + x1 = 0},

y como es de esperar

XS1 ∩ XS2 = {e((1, −2))} = {(1 : 1 : −2)}.

Fijemos puntos auxiliares distintos de los puntos intersección en cada para de rectas:

(1 : 1 : 0)t ∈ XR1 \ {(0 : 1 : 1)}, (1 : −1 : 0)t ∈ XR2 \ {(0 : 1 : 1)t },

(0 : 1 : −1)t ∈ XS1 \ {(1 : 1 : −2)t }, (0 : 0 : 1)t ∈ XS2 \ {(1 : 1 : −2)t }.

213
Tengamos presente que una homografı́a f : P2 → P2 que lleve XRj en XSj , j = 1, 2,
habrá de llevar el punto XR1 ∩ XR2 en el punto XS1 ∩ XS2 , esto es,

f ((0 : 1 : 1)t ) = (1 : 1 : −2)t .

Por tanto bastará con exigirle que además satisfaga

f ((1 : 1 : 0)t ) = (0 : 1 : −1)t , f ((1 : −1 : 0)t ) = (0 : 0 : 1)t .

Por ejemplo, el isomorfismo lineal fˆ: R3 → R3 satisfaciendo

fˆ(0, 1, 1) = (1 : −2 : 1), fˆ(1, 1, 0) = (0, 1, −1), fˆ(1, −1, 0) = (0, 0, 1),

induce la homografı́a que resuelve el problema.


Como ejercicio, calcula M (fˆ, B0 , B0 ).

4.9.2. Proyectivización de aplicaciones afı́nes


Sean E1 , E2 espacios vectoriales con dim E1 = n + 1 ≤ m + 1 = dim E2 , fijemos un
hiperplano afı́n Aj ⊆ Ej∗ , j = 1, 2, y sea g : A1 → A2 una aplicación afı́n inyectiva.
Es fácil probar que g admite una única extensión lineal lg : E1 → E2 , que además
es un monomorfismo. En efecto, si u1 ∈ A1 y u2 := g(u1 ) ∈ A2 , basta con aprovechar


la descomposición Ej = L({uj }) ⊕ A j , j = 1, 2, y definir lg como la única aplicación
lineal E1 → E2 tal que
lg (u1 ) = u2 y lg |−
→ =~
A1
g.

− →
− →

Como u2 ∈ / A 2 y ~g : A 1 → A 2 es un monomorfismo, la aplicación lineal lg es un
monomorfismo.

Definición 4.86 Si g : A1 → A2 es una aplicación afı́n inyectiva, a la proyectividad


fg : P (E1 ) → P (E2 ) inducida por el monomorfismo lg : E1 → E2 la llamaremos proyec-
tivización de g.

Por definición, lg es una aplicación lineal asociada a fg (única salvo multiplicar por
un escalar no nulo). La siguiente proposición caracteriza a las proyectivizaciones de las
aplicaciones afines inyectivas.
Proposición 4.87 Sean Ej espacio vectorial, Aj ⊂ (Ej )∗ un hiperplano afı́n, Rj un
sistema de referencia en Aj y B̃j su base de Ej asociada (ver Definición 4.75), j = 1, 2.
Si f : P (E1 ) → P (E2 ) es una proyectividad (luego dim E1 = n+1 ≤ m+1 = dim E2 ),
entonces son equivalentes:
(i) Im(f ) * (A2 )∞ y f ((A1 )∞ ) ⊆ (A2 )∞ .
(ii) f = fg para alguna aplicación afı́n inyectiva g : A1 → A2 .
 
1 0
(iii) M (f, B̃1 , B̃2 ) = µ para algún b ∈ Rn , A ∈ Mm,n (R) con rang(A) = n,
b A
y µ ∈ R \ {0}.

Demostración : (I) =⇒ (II) Tomemos h : E1 → E2 un monomorfismo lineal asociado


a la proyectividad f , que por definición satisface π2 ◦ h = f ◦ π1 donde πj : Ej∗ → P (Ej )
es la proyección natural, j = 1, 2. Como f ((A1 )∞ ) ⊆ (A2 )∞ , esto es,

→  −→ 
f π1 (A1 ∗ ) ⊆ π2 (A2 )∗ ,

214
−→  −
→  −
→ − →
inferimos que π2 h(A1 ∗ ) ⊆ π2 (A2 )∗ y por tanto h A1 ⊆ A2 .


Si fijamos u1 ∈ A1 y escribimos A1 = u1 + A 1 , es claro que

− →
− →

h(A1 ) = h(u1 + A 1 ) = h(u1 ) + h( A 1 ) ⊆ h(u1 ) + A 2 .

Observemos que, en nuestras hipótesis,

Im(f ) * (A2 )∞ ⇐⇒ f (π1 (A1 )) * (A2 )∞ ,




lo que es equivalente a que exista u ∈ A1 tal que h(u) ∈ / A 2 . Por tanto la condición

− →

Im(f ) * (A2 )∞ implica que h(u1 ) ∈
/ A 2 . Teniendo en cuenta que E2 = L({h(u1 )})⊕ A 2
deducimos que L({h(u1 )}) y A2 han de ser subespacios suplementarios de E2 , y ha de
existir un único punto
u2 ∈ L({h(u1 )}) ∩ A2 .
Escribamos u2 = λh(u1 ) para un λ 6= 0, y definamos la aplicación lineal

fˆ := λh : E1 → E2 , fˆ := λh.

Es claro que

− →
− →
− →

fˆ(A1 ) = fˆ(u1 + A 1 ) = fˆ(u1 ) + fˆ( A 1 ) = u2 + h( A 1 ) ⊆ u2 + A 2 = A2 .

Es más, por construcción fˆ: E1 → E2 es la única aplicación lineal asociada a f con la


propiedad de que fˆ(A1 ) = A2 . Para acabar basta con definir

g : A1 → A2 , g := fˆ|A1 ,

que es afı́n por ser restricción de una lineal, inyectiva por ser restricción de un mono-
morfismo, y claramente satisface lg = fˆ.
(II) =⇒ (I) Sean g : A1 → A2 afı́n injectiva y lg : E1 → E2 el monomorfimo exten-

− →
− →

sión de g. Por definición de lg se tiene que lg ( A 1 ) = ~g ( A 1 ) ⊆ A 2 , lo que proyectando


implica que fg ((A1 )∞ ) ⊆ (A2 )∞ . Además, como lg (A1 ) = g(A1 ) ⊆ A2 y A2 ∩ A 2 = ∅,
deducimos que

fg (π1 (A1 )) ∩ (A2 )∞ = π2 (lg (A1 )) ∩ (A2 )∞ ⊆ π2 (A2 ) ∩ (A2 )∞ = ∅.

En particular Im(fg ) ⊇ fg (π1 (A1 )) * (A2 )∞ , lo que concluye la demostración.


(II) =⇒ (III) Si f = fg para alguna aplicación afı́n inyectiva g : A1 → A2 , es claro
que  
1 0
M (g, R1 , R2 ) = M (lg , B̃1 , B̃2 ) = ,
b A
donde b ∈ Rm y A ∈ Mm,n (R) tiene rang(A) = n. Como

M (fg , B̃1 , B̃2 ) = µM (lg , B̃1 , B̃2 ), µ 6= 0,

se sigue el enunciado.
(III) =⇒ (II) Supongamos que f : P (E1 ) → P (E2 ) es una proyectividad con
 
1 0
M (f, B̃1 , B̃2 ) = µ , µ=6 0,
b A

215
donde b ∈ Rn y A ∈ Mm,n (R) (necesariamente rang(A) = n). Consideremos el único
monomorfismo fˆ: E1 → E2 tal que
 
ˆ 1 0
M (f , B̃1 , B̃2 ) = .
b A

Si escribimos R1 = {u1 , B1 = {v1 , . . . , vn }} y R2 = {u2 , B2 = {w1 , . . . , wm }}, la estruc-


tura de la matriz M (fˆ, B̃1 , B̃2 ) nos dice que


fˆ(u1 ) = u2 + (w1 , . . . , wm ) · b ∈ u2 + A 2 = A2 ,

fb(vi ) ∈ L {w1 , . . . , wm } , i = 1, . . . , n,

y por tanto

−    →−
fb A 1 = fb L({v1 , . . . , vn }) = L({fb(v1 ), . . . , fb(vn )}) ⊆ L {w1 , . . . , wm } = A 2 .

De aquı́ que

− →
− →
− →
− →

fb( A 1 ) = fb(u1 + A 1 ) = fb(u1 ) + fb( A 1 ) = u2 + fb( A 1 ) ⊆ u2 + A 2 = A2 .

La aplicación g = fˆ|A1 : A1 → A2 es afı́n por ser restricción de una lineal, inyectiva por
ser restricción de un monomorfismo, satisface lg = fˆ, y por tanto fg = f . Esto concluye
la prueba.

El siguiente corolario es una consecuencia trivial de la anterior proposición.

Corolario 4.88 Sean Ej espacios vectorial, Aj ⊂ (Ej )∗ hiperplano afı́n, y Rj sistema


de referencia en Aj con base asociada B̃j , j = 1, 2. Si f : P (E1 ) → P (E2 ) es una
homografı́a (luego dim E1 = n + 1 = dim E2 ) entonces son equivalentes:

(i) f ((A1 )∞ ) = (A2 )∞ .

(ii) f = fg para alguna afinidad g : A1 → A2 .


 
1 0
(iii) M (f, B̃1 , B̃2 ) = µÃ, donde à = ∈ Aff n (R) y µ ∈ R \ {0}.
b A
Un caso particuarmente interesante es el siguiente.

Corolario 4.89 Sea g : Rn → Rm una aplicación afı́n inyectiva (en particular n ≤ m)


con expresión matricial en las referencias canónicas de Rn y Rm
 
n m 1 0
M (g, R0 , R0 ) = .
b A

Entonces la proyectivización fg : Pn → Pm viene representada en las bases canónicas de


Rn+1 y Rm+1 por la matriz
 
n+1 m+1 1 0
M (fg , B0 , B0 ) = µ , µ 6= 0.
b A

Ahora se contextualiza mejor la razón por la que adoptámos la notación compacta


por cajas para la representación matricial de las aplicaciones afı́nes en sistemas de
referencia (la propia del grupo Aff n (R) cuando tratamos con afinidades).

216
4.10. El teorema de Desargues
Quizá el teorema más conocido de la Geometrı́a Proyectiva es el de Desargues, que
establece condiciones equivalentes para que dos triángulos sean perspectivos o proyec-
tivos. Necesitamos para su comprensión introducir algo de lenguaje.
Sea E un espacio vectorial de dim E ≥ 3 y sea P (E) el correspondiente espacio
proyectivo. Recordemos que, dados puntos p1 , . . . , pk ∈ P (E),
k
_
pj = p1 ∨ · · · ∨ pk ≡ V ({p1 , . . . , pk })
j=1

representa la variedad proyectiva que generan {p1 , . . . , pk }. Por ejemplo, p∨q es una rec-
ta si p 6= q o un punto si p = q. Un triángulo en P (E) son tres puntos A1 , A2 , A3 ∈ P (E)
proyectivamente independientes, esto es, no alineados. En otras palabras, A1 , A2 , A3 es
un triangulo en P (E) si y sólo si la variedad proyectiva A1 , A2 , A3 es un plano proyectivo.
En esta sección los triángulos se presentarán llevan implı́cita una ordenación A1 , A2 , A3
de sus vertices. Recordemos también
Tk que una familia finita de rectas R1 , . . . , Rk en
P (E) se dicen concurrentes si i=1 Ri 6= ∅.
Definición 4.90 Dos triángulos (A1 , A2 , A3 ) y (A01 , A02 , A03 ) en P (E) son proyectiva-
mente (o perspectivamente) equivalentes desde un punto O ∈ P (E) si
O, Ai , A0i están alineados para todo i = 1, 2, 3.
Análogamente, los anteriores triángulos se dicen proyectivamente (o perspectivamente)
equivalentes desde una recta R si
Ai ∨ Aj , A0i ∨ A0j , R son concurrentes para todo i, j ∈ {1, 2, 3}, i 6= j.
En la anterior definición, la posibilidad Ai = A0i para algún i ∈ {1, 2, 3} no está excluida.
Por ejemplo, cuando Ai 6= A0i , i = 1, 2, 3, la equivalencia proyectiva desde un punto
O expresa que
\3
O∈ Ai ∨ A0i .
i=1
Análogamente, cuando Ai ∨Aj 6= A0i ∨A0j para todo i, j ∈ {1, 2, 3}, i 6= j, la equivalencia
proyectiva desde una recta R expresa que los puntos
(A1 ∨ A2 ) ∩ (A01 ∨ A02 ), (A1 ∨ A3 ) ∩ (A01 ∨ A03 ), (A2 ∨ A3 ) ∩ (A02 ∨ A03 )


están alineados y contenidos en R.


Mira la siguiente figura donde se presentan dos triángulos proyectivos desde un
punto O y desde una recta R.

217
Teorema 4.91 (Desargues) Dos triángulos (A1 , A2 , A3 ), (A01 , A02 , A03 ) en un espacio
proyectivo P (E) (dim P (E) ≥ 2) son proyectivos desde un punto si y sólo si lo son
desde una recta.

Demostración : Por comodidad usemos la notación [v] = π(v) ∈ P (E) para todo v ∈

E . Escribamos
Ai = [vi ], A0i = [vi0 ]
para convenientes vi , vi0 ∈ E ∗ , i = 1, 2, 3.
Supongamos que (A1 , A2 , A3 ) y (A01 , A02 , A03 ) son proyectivos desde O = [v0 ] ∈ P (E)
y comprobemos que lo son desde una recta proyectiva.
Discutiremos el caso Ai 6= A0i , i = 1, 2, 3 (los casos particulares de coincidencia de
algunos vértices son más sencillos, se dejarán como ejercicio).
La condición
\3
O ∈ (Ai ∨ A0i )
i=1

es equivalente a que
3
\ 3
\
v0 ∈ 0
i ∨ Ai =
A\ L({vi , vi0 }).
i=1 i=1
esto es,
v0 = λi vi + λ0i vi0 para cierto (λi , λ0i ) ∈ R2 \ {(0, 0)}, i = 1, 2, 3.
Un cálculo inmediato nos da que

λi vi − λj vj = λ0j vj0 − λ0i vi0 , i, j ∈ {1, 2, 3}, i 6= j.

Al ser los puntos [v1 ], [v2 ], [v3 ] ∈ P (E) distintos dos a dos, los vectores

λi vi − λj vj 6= ~0, i, j ∈ {1, 2, 3}, i 6= j.

Como además {λ1 v1 − λ2 v2 , λ3 v3 − λ1 v1 , λ2 v2 − λ3 v3 } son claramente linealmente de-


pendientes, deducimos que
p3 = [λ03 v30 − λ02 v20 ] = [λ2 v2 − λ3 v3 ] ∈ (A2 ∨ A3 ) ∩ (A02 ∨ A03 )
p2 = [λ01 v10 − λ03 v30 ] = [λ3 v3 − λ1 v1 ] ∈ (A1 ∨ A3 ) ∩ (A01 ∨ A03 )
p1 = [λ02 v20 − λ01 v10 ] = [λ1 v1 − λ2 v2 ] ∈ (A1 ∨ A2 ) ∩ (A01 ∨ A02 )
son puntos alineados de P (E), y por tanto que los triángulos (A1 , A2 , A3 ), (A01 , A02 , A03 )
son proyectivos desde la recta proyectiva R = p1 ∨ p2 ∨ p3 que los contiene.
Supongamos ahora que (A1 , A2 , A3 ), (A01 , A02 , A03 ) son proyectivos desde una recta
proyectiva R, y comprobemos que lo son desde un punto. Por nuestra hipótesis,
(Ai ∨ Aj ) ∩ (A0i ∨ A0j ) 6= ∅ y
(Ai ∨ Aj ) ∩ (A0i ∨ A0j ) ∩ R 6= ∅,
para todo i, j ∈ {1, 2, 3}, i 6= j. Tomemos puntos

p1 ∈ (A2 ∨A3 )∩(A02 ∨A03 )∩R, p2 ∈ (A1 ∨A3 )∩(A01 ∨A03 )∩R, p3 ∈ (A1 ∨A2 )∩(A01 ∨A02 )∩R,

y razonando como antes escribámoslos de la forma


p3 = [λ1 v1 + λ2 v2 ] = [λ01 v10 + λ02 v20 ],
p2 = [µ1 v1 + µ2 v3 ] = [µ01 v10 + µ02 v30 ],
p1 = [γ1 v2 + γ2 v3 ] = [γ20 v20 + γ30 v30 ].

218
Observemos que alguno de los números reales

λ1 µ1 , λ2 γ1 , µ2 γ2 , λ01 µ01 , λ02 γ10 , µ02 γ20

es no nulo. En efecto, en otro caso {p1 , p2 , p3 } = {A1 , A2 , A3 } = {A01 , A02 , A03 }, y por
tanto (A1 , A2 , A3 ) = (A01 , A02 , A03 ) ya que son proyectivos desde una recta. Esto contra-
dice nuestra asunción de que Ai 6= A0i , i = 1, 2, 3. Por homogeneidad podemos suponer
que λ1 = µ1 = 1 y
p3 = [v1 + λ2 v2 ], p2 = [v1 + µ2 v3 ],
y como los puntos p1 , p2 , p3 están alineados (en R),

p1 = [λ2 v2 − µ2 v3 ].

Salvo multiplicar por convenientes constantes, podemos suponer finalmente que

v1 + λ2 v2 = λ01 v10 + λ02 v20 , v1 + µ2 v3 = µ01 v10 + µ02 v30 , λ2 v2 − µ2 v3 = γ20 v20 + γ30 v30 .

Operando
λ2 v2 − µ2 v3 = (λ01 − µ01 )v10 + λ02 v20 − µ02 v30 = γ20 v20 + γ30 v30 ,

de donde usando la independencia lineal de {v10 , v20 , v30 } (se proyectan en los vértices de
un triángulo en P (E)),
λ01 = µ01 , γ20 = λ02 , γ30 = −µ02 .
Sustituyendo arriba

v1 + λ2 v2 = λ01 v10 + λ02 v20 , v1 + µ2 v3 = λ01 v10 + µ02 v30 , λ2 v2 − µ2 v3 = λ02 v20 − µ02 v30 ,

y por tanto el punto


O = [v1 − λ01 v10 ] = [λ02 v20 − λ2 v2 ] ∈ (A1 ∨ A01 ) ∩ (A2 ∨ A02 )
O = [v1 − λ01 v10 ] = [µ02 v30 − µ2 v3 ] ∈ (A1 ∨ A01 ) ∩ (A3 ∨ A03 )
O = [µ02 v30 − µ2 v3 ] = [λ02 v20 − λ2 v2 ] ∈ (A2 ∨ A02 ) ∩ (A3 ∨ A03 )

está contenido en 3i=1 Ai ∨ A0i , lo que prueba que (A1 , A2 , A3 ) y (A01 , A02 , A03 ) son pro-
T
yectivos desde O y concluye la prueba del teorema.

Ejercicio 4.92 Sean (A1 , A2 , A3 ), (A01 , A02 , A03 ) dos triángulos proyectivos en un espacio
proyectivo P (E). Probar que si {A1 , A2 , A3 } = {A01 , A02 , A03 } entonces (A1 , A2 , A3 ) =
(A01 , A02 , A03 ).

219
Solución : Si son proyectivos desde una recta R ⊂ P (E) entonces

Ai ∨ Aj , A0i ∨ A0j , R son concurrentes para todo i, j ∈ {1, 2, 3}, i 6= j,

lo que en caso (A1 , A2 , A3 ) 6= (A01 , A02 , A03 ) implicarı́a que A1 , A2 , A3 están alineados,
absurdo.

Ejercicio 4.93 Sean (A1 , A2 , A3 ), (A01 , A02 , A03 ) triángulos en un espacio proyectivo P (E)
con dim E = 2. Probar que si A1 = A01 entonces son proyectivos. Probar que la tesis es
también válida cuando dim E ≥ 2 si además Ai = A0i para algún i ∈ {2, 3}.

Solución : Veamos que son proyectivos desde algún punto. Supongamos que Ai ∨ A0i es
una recta proyectiva, i = 2, 3. Como dim P (E) = 2, la intersección (A2 ∨ A02 ) ∩ (A3 ∨ A03 )
es no vacı́a, y por tanto (A1 , A2 , A3 ), (A1 , A02 , A03 ) son proyectivos desde cualquier punto
O ∈ (A2 ∨ A02 ) ∩ (A3 ∨ A03 ).
Si Ai = A0i para algún i ∈ {2, 3}, igualmente (A1 , A2 , A3 ), (A1 , A02 , A03 ) son proyecti-
vos desde cualquier punto O ∈ Aj ∨ A0j , j 6= 1, i (esta segunda parte es válida incluso
con dim E ≥ 2).

Ejercicio 4.94 Sea E un espacio vectorial con dim E = n + 1, sea A un espacio afı́n
n-dimensional identificado con un hiperplano de E que no pasa por ~0, y sea e : A →
P (E) el embebimiento canónico. Consideremos un triángulo (A1 , A2 , A3 ) en A y una
traslación τ : A → A no trivial, y llamemos A0i = τ (Ai ), i = 1, 2, 3.
Prueba que los triángulos

(e(A1 ), e(A2 ), e(A3 )) y (e(A01 ), e(A02 ), e(A03 ))

en P (E) son perspectivos desde un punto O ∈ P (E). Encontrar también la recta pro-
yectiva R desde la que ambos triángulos son perspectivos.

Solución : Escribamos
τ : A → A, τ (p) = p + u,


para un vector u ∈ A ∗ . Si π : E ∗ → P (E) es la proyección natural, tenemos que

e(Ai )∨e(A0i ) = π L {Ai , A0i }∗ = π L {Ai , Ai + u}∗ = π L {Ai , u}∗ , i = 1, 2, 3.


  

Por tanto

e(Ai )∨e(A0i ) ∩ e(Aj )∨e(A0j ) = π L {Ai , u}∗ ∩ L {Ai , u}∗ 3 π(u), i, j ∈ {1, 2, 3}, i 6= j.
   

De aquı́ que (e(A1 ), e(A2 ), e(A3 )) y (e(A01 ), e(A02 ), e(A03 )) sean perspectivos desde el punto


O = π(u) ∈ π( A ∗ ) = A∞ .
Para la segunda parte del ejercicio, observemos que

e(Ai ) ∨ e(Aj ) = π L {Ai , Aj }∗ , i, j ∈ {1, 2, 3}, i 6= j,




y análogamente

e(A0i ) ∨ e(A0j ) = π L {A0i , A0j }∗ = π L {Ai + u, Aj + u}∗


 
, i, j ∈ {1, 2, 3}, i 6= j.

Por tanto

e(Ai )∨e(Aj ) ∩ e(A0i )∨e(A0j ) = π L {Ai , Aj }∗ ∩ L {Ai + u, Aj + u}∗ 3 π(Ai −Aj )


   

220
para cualesquiera i, j ∈ {1, 2, 3}, i 6= j.
Como los vectores {A2 − A1 , A3 − A1 , A3 − A2 } son linealmente dependientes, los
puntos
π(A2 − A1 ), π(A3 − A1 ), π(A3 − A2 ) ∈ P (E)
están alineados, y de aquı́ que (e(A1 ), e(A2 ), e(A3 )) y (e(A01 ), e(A02 ), e(A03 )) sean perspec-
tivos desde la recta

R = π(A2 − A1 ) ∨ π(A3 − A1 ) ∨ π(A3 − A2 ).




Es interesante observar que Ai − Aj ∈ A ∗ , i, j ∈ {1, 2, 3}, i 6= j, y por tanto R ⊆ A∞ .

Ejercicio 4.95 Sean f : P (E) → P (E) una homografı́a, (A1 , A2 , A3 ) un triángulo y


O ∈ P (E) \ {A1 , A2 , A3 } un punto tales que

f (O ∨ Ai ) = O ∨ Ai , i = 1, 2, 3.

Pueba que los triángulos (A1 , A2 , A3 ) y f (A1 ), f (A2 ), f (A3 ) son perspectivamente equi-
valentes desde O.

Solución : Sabemos que

O ∨ Ai = f (O ∨ Ai ) = f (O) ∨ f (Ai ), i = 1, 2, 3.

Por tanto, como O ∈


/ {A1 , A2 , A3 } deducimos que
 
{O} = (O ∨ Ai ) ∩ (O ∨ Aj ) = f (O) ∨ f (Ai ) ∩ f (O) ∨ f (Aj ) = {f (O)},

cálculo válido siempre que i 6= j. Por tanto O ∨ Ai = O ∨ f (Ai ) y O, Ai, f (Ai ), están ali-
neados, i = 1, 2, 3. Esto prueba que (A1 , A2 , A3 ), f (A1 ), f (A2 ), f (A3 ) son proyectivos
desde O.

5. La magia de la Geometrı́a Proyectiva


Volvamos a los cuadros que nos dejaron los genios del Renacimiento, pero aparte de
admirarlos de acuerdo a nuestra percepción personal de la estética, intentemos mirarlos
ahora con otros ojos y descifrarlos como geómetras. Para ello hemos de tener en la
mente el eunciado:
Dos rectas R, S ⊆ R3 son paralelas si y solo si sus proyectivizaciones XR y
XS en P3 se cortan en un punto del hiperplano del infinito R3∞ .
Aquellos artistas representaban en el plano del lienzo nuestro espacio tridimensional
generando la sensación de profundidad con la idea de perspectiva. Los puntos de fuga
que utilizaban eran puntos de convergencia en el infinito idealizado de rectas parale-
las en nuestro espacio tridimensional, esa era la técnica básica que aprovechaban para
suscitar la ilusión de profundidad en el observador. Pero como matemáticos sabemos
que dos rectas paralelas en R3 se cortan en un punto del plano del infinito R3∞ de la
proyectivización P3 de nuestro espacio afı́n tridimensional. Ahı́ tenemos la clave, esos
puntos imaginarios de fuga ocultos en el plano de fondo del lienzo son conceptualizados,
en nuestra idealización geométrica, como los puntos del plano del infinito en la proyec-
tivización canónica, a saber P3 , del espacio afı́n R3 : cada dirección o familia de rectas

221
paralelas determina un único punto de fuga en ese plano del infinito R3∞ , y direcciones
distintas generan puntos de fuga distintos. Por ejemplo, todos los puntos de fuga de las
direcciones contenidas en un plano horizontal del espacio afı́n R3 (el de la lı́nea de tierra
sobre la que se posiciona el observador) conforman una recta proyectiva en el plano del
infinito R3∞ , que los clásicos denominaban lı́nea de horizonte.

Con esto damos soporte teórico a una técnica pictórica que tiene poco de espontánea
y mucho de cientı́fica. Todos aquellos genios, como Leonardo o Rafael, hacı́an estudios
previos de sus obras maestras, una especie de borradores o bocetos sobre los que en-
sayaban el resultado final perseguido hasta alcanzar la perfección. Algunos de aquellos
estudios han llegado hasta nosotros, y contienen complejos cálculos matemáticos sobre
equivalencias proyectivas de figuras según distintos ángulos de visión o lı́neas de fuga,
explicando de forma práctica la interacción entre la óptica y la geometrı́a con un nivel de
sofisticación impresionante. En definitiva, podemos pensar sin temor a equivocaros que
esas obras son auténticos tratados de geometrı́a proyectiva, y en gran medida motivaron
el desarrollo de esta rama de la matemática.

222
Ejercicios del Tema 4
1. Sea A un espacio afı́n. Denotemos por R al conjunto formado por las rectas afines
de A. Dadas dos rectas L1 y L2 en R, decimos que L1 ∼ L2 si L1 es paralela a
L2 . Demostrar que:

(i) La relación ∼ es de equivalencia en R.




(ii) Existe una biyección f : R/ ∼→ P ( A ).

2. Mostrar un espacio proyectivo en el que existan dos rectas proyectivas que no se


corten.

3. Demostrar que en un espacio proyectivo tridimensional dos planos proyectivos


distintos se cortan en una recta proyectiva.

4. Sean {p1 , . . . , pm } puntos proyectivos en P (V ), donde pi = [vi ], para cada i =


1, . . . , m. Recordemos que los puntos son proyectivamente independientes si los
vectores {v1 , . . . , vm } son linealmente independientes en V .

(i) Demostrar que esta definición no depende de representantes.


(ii) Justificar que si {p1 , . . . , pm } son proyectivamente independientes, entonces
existe un único subespacio proyectivo E con dim E = m − 1 y tal que
{p1 , . . . , pm } ⊆ E.


− → →

5. Sea (A0 , A 0 , − ) un espacio afı́n n-dimensional y sea E = R× A 0 espacio vectorial
producto. Fijemos p0 ∈ A0 y consideremos la inyección natural

i : A0 → E, i(p) = (1, −
p→
0 p).

Llamemos A al hiperplano i(A0 ) de E como espacio afı́n, obviamente contenido


en E ∗ , y consideremos el embebimiento canónico

e : A → P (E), e = π|A

donde π : E ∗ → P (E) es la proyección natural. Demostrar que:




A∞ = π({0} × A ∗0 ).
Para todo S = q + S~ ⊆ A0 subespacio afı́n:

−→ −→
 ∗ 
~ ∗ ~

XS := Xi(S) = π (1, p0 q) ∨ π({0} × S ) = π L({(1, p0 q)}) + {0} × S

~ ∗ ).
S∞ := i(S)∞ = π({0} × S

6. En un espacio proyectivo se consideran una recta proyectiva L y un hiperplano


proyectivo H. Demostrar que, o bien L ⊆ H, o bien L ∩ H es un único punto.

7. Calcular unas ecuaciones implı́citas para la recta proyectiva en P3 que pasa por
los puntos p = [0, 1, 0, 1] y q = [1, 1, 1, 0].

223
8. Si M2 (R) denota al espacio vectorial de las matrices cuadradas reales de orden
2, calcula las  implı́citas en P (M2 (R)) del plano proyectivo p ∨ R,
 ecuaciones
1 −1
donde p = ∈ P (M2 (R)) y R es la recta proyectiva en P (M2 (R)) con
0 1
ecuaciones implı́citas {x1 − x2 = x1 + x2 + x4 = 0} en la base canónica
       
1 0 0 1 0 0 0 0
B0 = , , , .
0 0 0 0 1 0 0 1

9. Sea S el subespacio proyectivo de P3 con ecuaciones implı́citas:

x0 + x1 + x2 + x3 = 0,
−x0 − x1 + x2 + x3 = 0.

Sea Ra la recta proyectiva en P3 que pasa por los puntos p = (1 : −1 : 1 : −1) y


q = (0 : 0 : a : 1), donde a ∈ R. Calcular S ∩ Ra y S ∨ Ra .

10. Considera el plano afı́n T de R3 determinado por los puntos (x1 , x2 , x3 ) ∈ R3 tales
que
x1 − 2x2 − 1 = x2 − 2x3 + 3 = 0.
Determina las ecuaciones implı́citas en coordenadas homogéneas canónicas de la
proyectivización canónica XT de T en P3 . Calcula también las ecuaciones de su
variedad del infinito canónica T∞ .

11. Determinar las ecuaciones implı́citas en la base canónica B0 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
de R3 de la recta proyectiva R del plano proyectivo P2 que pasa por los puntos
p = (1 : 0 : −1), q = (0 : 1 : 1) ∈ P2 .

12. Dada la proyectividad f : P S2 (R) → P2 inducida por el isomorfismo lineal
 
  a+b+c
a b
fb: S2 (R) → R3 , fb =  a + b ,
b c
a
determina las ecuaciones matriciales de f en las bases canónicas B0 y B00 de S2 (R)
y R3 respectivamente dadas por

     
1 0 0 1 0 0
B0 = , , , B00 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} .
0 0 1 0 0 1

Calcula también la matriz M (f, B, B 0 ) para las bases B y B 0 de S2 (R) y R3


respectivamente dadas por
     
1 1 1 −1 −1 0
B= , , , B 0 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} .
1 1 −1 0 0 0

13. Describir todas las proyectividades f : P2 → P2 tales que:


  
f (1 : 1 : 0) = (0 : 1 : 1), f (0 : 1 : 1) = (1 : 0 : 1), f (1 : 0 : 1) = (1 : 1 : 0).

224
14. Sean E1 y E2 dos subespacios proyectivos de P (V ). Demostrar que existe una
homografı́a f : P (V ) → P (V ) tal que f (E1 ) = E2 si y sólo si dim E1 = dim E2 .

15. Demostrar que toda homografı́a f : P2 → P2 tiene al menos un punto fijo.

16. Si R, S, R0 , S 0 son rectas en un plano proyectivo P (E) con R 6= S y R0 6= S 0 ,


prueba que existe una homografı́a f : P (E) → P (E) tal que

f (R) = R0 y f (S) = S 0 .

17. Considera un triángulo (A, B, C) es un espacio afı́n A, que está visto como hi-
perplano de un espacio vectorial E (entendido como espacio afı́n) con ~0 ∈ / A.
0 0 0
Considera una traslación τ : A → A y llama A = τ (A), B = τ (B) y C = τ (C).
Prueba que los triángulos (A, B, C) y (A0 , B 0 , C 0 ) son perspectivamente equiva-
lentes en el sentido de que los triángulos proyectivos

(e(A), e(B), e(C)) y (e(A0 ), e(B 0 ), e(C 0 ))

son perspectivamente equivalentes en P (E), donde e : A → P (E) es el embebi-


miento canónico.
Pista: Busca un punto O del hiperplano del infinito A∞ ⊆ P (E) relativo a A
desde el que sean perspectivos. Concuerda con la intuición de que rectas paralelas
se cortan en el mismo punto del infinito.

18. Sean f : P (E) → P (E) una homografı́a sin puntos fijos, (A, B, C) un triángulo y
O ∈ P (E) \ {A, B, C} un punto tales que

f (O ∨ A) = O ∨ A, f (O ∨ B) = O ∨ B, f (O ∨ C) = O ∨ C.

Pueba que los triángulos (A, B, C) y f (A), f (B), f (C) son perspectivamente
equivalentes desde O.

225

También podría gustarte