Está en la página 1de 227

Notas de Geometrı́a I

Curso 2004/2005

5
-0
05
9-
l2
de
n
rsió
Ve

Ernesto Girondo Sirvent

Versión del 29.05.05


2

Ve
rsió
n
de
l2
9-
05
-0
5
Índice general

I Geometrı́a Afı́n 7

1. Espacios afines 9
1.1. La definición de espacio afı́n . . . . . . . . . . . . . . . . . . . . . 9
1.2. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 11

5
1.3. Coordenadas en espacios afines. Referencias. . . . . . . . . . . . . 16

-0
1.4. Ecuaciones de variedades lineales . . . . . . . . .
05 . . . . . . . . . 24
1.5. La razón simple. Teorema de Menelao y de Ceva . . . . . . . . . 29
9-
1.6. Orientación en espacios afines reales . . . . . . . . . . . . . . . . 32
l2

2. Afinidades 33
de

2.1. La definición de afinidad . . . . . . . . . . . . . . . . . . . . . . . 33


2.2. Algunas propiedades de las afinidades . . . . . . . . . . . . . . . 34
n

2.3. Algunos ejemplos importantes de afinidades . . . . . . . . . . . . 37


sió

2.4. Propiedades de las afinidades . . . . . . . . . . . . . . . . . . . . 47


r

2.5. Afinidades y coordenadas . . . . . . . . . . . . . . . . . . . . . . 49


Ve

2.6. Variedades Invariantes . . . . . . . . . . . . . . . . . . . . . . . . 54

Ejercicios 59

Problemas 63

II Geometrı́a Euclı́dea 67

3. Espacios vectoriales euclı́deos y unitarios 71


3.1. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.2. Espacios vectoriales euclı́deos . . . . . . . . . . . . . . . . . . . . 73
3.3. El caso complejo. Espacios vectoriales unitarios . . . . . . . . . . 79
3.4. Ortogonalidad y subespacios . . . . . . . . . . . . . . . . . . . . . 80
3.5. Proyecciones y simetrı́as ortogonales . . . . . . . . . . . . . . . . 84
3.6. Aplicaciones adjuntas y autoadjuntas . . . . . . . . . . . . . . . . 86

3
4 ÍNDICE GENERAL

4. Espacios afines euclı́deos 89


4.1. Norma y distancia . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.2. Ortogonalidad y variedades lineales . . . . . . . . . . . . . . . . . 92
4.3. Distancia entre variedades . . . . . . . . . . . . . . . . . . . . . . 95

5. Isometrı́as. Movimientos en R2 y R3 101


5.1. Isometrı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2. Aplicaciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . 103
5.3. Movimientos de la recta euclı́dea . . . . . . . . . . . . . . . . . . 105
5.4. Movimientos del plano euclı́deo . . . . . . . . . . . . . . . . . . . 106
5.5. Movimientos del espacio euclı́deo tridimensional . . . . . . . . . . 112

Ejercicios 121

Problemas 125

5
III Geometrı́a proyectiva 129

-0
6. El espacio proyectivo 05 133
6.1. La noción de espacio proyectivo. Construcción por recurrencia . . 133
9-
6.2. La definición abstracta del espacio proyectivo . . . . . . . . . . . 136
l2

6.3. Variedades proyectivas . . . . . . . . . . . . . . . . . . . . . . . . 138


6.4. Operaciones entre variedades proyectivas . . . . . . . . . . . . . . 141
de

6.5. Referencias y coordenadas proyectivas . . . . . . . . . . . . . . . 144


6.6. Cambios de referencia proyectiva . . . . . . . . . . . . . . . . . . 148
n

6.7. Ecuaciones de variedades lineales proyectivas . . . . . . . . . . . 149


sió

7. Dualidad y teoremas clásicos de incidencia 151


r
Ve

7.1. Dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151


7.2. Dos teoremas clásicos sobre incidencia . . . . . . . . . . . . . . . 155

8. Aplicaciones proyectivas 159


8.1. Aplicaciones naturales entre espacios proyectivos . . . . . . . . . 159
8.2. Aplicaciones proyectivas importantes . . . . . . . . . . . . . . . . 162
8.3. Aplicaciones proyectivas y coordenadas . . . . . . . . . . . . . . . 165

9. Espacio afı́n - espacio proyectivo 167


9.1. Parte afı́n e hiperplano en el infinito . . . . . . . . . . . . . . . . 167
9.2. Completación proyectiva de aplicaciones afines . . . . . . . . . . 168
9.3. Completación proyectiva de variedades lineales . . . . . . . . . . 170

10.La recta y el plano proyectivos 173


10.1. La razón doble . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
10.2. Cuaternas armónicas . . . . . . . . . . . . . . . . . . . . . . . . . 176
10.3. Razón doble de puntos alineados en P2 . . . . . . . . . . . . . . . 176
10.4. Construcción geométrica de homografı́as . . . . . . . . . . . . . . 178
ÍNDICE GENERAL 5

10.5. Algunas aplicaciones de la geometrı́a proyectiva . . . . . . . . . . 181

Ejercicios 183

Problemas 185

IV Formas cuadráticas y cónicas 189


11.Formas cuadráticas y cónicas 191
11.1. Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . 191
11.2. Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
11.3. La circunferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
11.4. Focos y excentricidad . . . . . . . . . . . . . . . . . . . . . . . . . 201
11.5. Determinación del tipo de una cónica . . . . . . . . . . . . . . . . 209
11.6. Cónicas y reflexión . . . . . . . . . . . . . . . . . . . . . . . . . . 218

Ejercicios 223

5
-0
Problemas 05 225
9-
Bibliografı́a 227
l2
de
n
r sió
Ve
6

Ve
rsió
n
de
l2
9-
05
-0
5
ÍNDICE GENERAL
Parte I

5
Geometrı́a Afı́n -0
05
9-
l2
de
n
sió
r
Ve

7
Ve
rsió
n
de
l2
9-
05
-0
5
Capı́tulo 1

Espacios afines

1.1. La definición de espacio afı́n

5
-0
1.1.1 Nuestro primer objetivo es desarrollar una estructura formal que nos
permita usar la maquinaria del Álgebra Lineal para estudiar Geometrı́a. Al-
05
gunos conceptos tı́picamente geométricos, como rectas, planos, etcétera, nos han
9-
aparecido ya como subespacios de espacios vectoriales. Pero un espacio vectorial
l2

tiene un punto distinguido (el origen), cuya existencia no tiene sentido desde un
punto de vista geométrico. Por ejemplo, nos gustarı́a estudiar todas las rectas y
de

planos de R3 , pero en la estructura de R-espacio vectorial de R3 sólo aparecen


de modo natural las rectas y planos que pasan por el origen.
n

Necesitamos, de algún modo, ser capaces de definir una estructura que in-
sió

corpore algo ası́ como “un espacio vectorial con el origen fijado donde más nos
convenga”. La noción correcta es la siguiente:
r
Ve

Definición Un espacio afı́n sobre un cuerpo K es un conjunto A 6= ∅, un


espacio vectorial E sobre K, y un aplicación

ϕ :A×A −→ E
(p, q) 7−→ ϕ(p, q)

tal que:

ϕp : A −→ E
i) Para todo p ∈ A, la aplicación es biyectiva.
q 7−→ ϕ(p, q)

ii) Para p, q, r ∈ A cualesquiera, ϕ(p, q) + ϕ(q, r) = ϕ(p, r).

La dimensión de un espacio afı́n es por deficición la dimensión de E. Se


conoce a E como espacio vectorial asociado al espacio afı́n A, o como espacio
director o dirección.

9
10 CAPÍTULO 1. ESPACIOS AFINES

Formalmente se llama espacio afı́n a la terna (A, E, ϕ). Pero a menudo,


cuando el resto de la estructura es clara o no se quiere explicitar, se habla
simplemente del espacio afı́n A.

La idea es que la aplicación ϕ asocia a cada par de puntos (p, q) un vector


de E, que interpretamos como “el vector con origen en p y extremo en q”. De
hecho, frecuentemente denotaremos a ϕ(p, q) simplemente por → −
pq. Para que toda
la estructura sea consistente, parece necesario tener un modo de relacionar los
vectores que tienen origen en puntos diferentes del espacio afı́n A.

A q E
Φ (p,q)

5
r Φ (p,r)

-0
05
Φ (q,r)
9-
l2
de

Figura 1.1: La estructura de espacio afı́n.


n

Es lo que hace la condición ii) de la definición, que es en estos términos


sió



pq + →

qr = →

pr.
r
Ve

1.1.2 1. Sea E un espacio vectorial. Por mayor claridad, denotemos por A al


conjunto de puntos (vectores) de E, considerado como simple conjunto, despro-
visto de la estructura de espacio vectorial. Definamos ϕ(u, v) = v − u. Entonces
(A, E, ϕ) es un espacio afı́n. Obsérvese que esta estructura afı́n de E es canónica,
en el sentido de que depende sólo de la propia estructura vectorial, y no de
ninguna construcción adicional.
El espacio afı́n en que A = Kn (K cuerpo) y la estructura afı́n es la canónica
descrita arriba, se conoce como espacio afı́n estándar de dimensión n sobre K.

2. El tiempo es un espacio afı́n real (es decir, sobre R) de dimensión 1. Un


instante es un punto de A y un lapso de tiempo es un vector de E. No hay
ningún instante distinguido. Este espacio afı́n es relevante para la mecánica de
Newton y la relatividad de Einstein.

3. En relatividad especial (Einstein) se estudian sucesos, como por ejemplo


la emisión de un fotón por un átomo. El conjunto de sucesos tiene lugar en un
espacio afı́n real de dimensión 4 (el espacio-tiempo).
1.2. VARIEDADES LINEALES 11

1.1.3 Si hemos entendido bien la relación entre puntos y vectores, las siguientes
propiedades deberı́an no chocarnos en absoluto:

Proposición En un espacio afı́n se cumple:




i) →

pq = 0 ⇔ p = q.
ii) pq = −→

− −
qp, para todos p, q ∈ A.
iii) pq = rs ⇔ →

− →
− −
pr = →
−qs.

Demostración.- i) Por las propiedades de espacio afı́n, se cumple →



pp+ →

pp = −

pp,

→ →

y por tanto pp = 0 . Por otra parte, la aplicación ϕp es biyectiva, de modo que

− →=→ −
si ϕp (q) = →
−pq = 0 , como ϕp p = −pp 0 , se tiene necesariamente q = p.


ii) pq + qp = pp = 0 , luego pq = −→

− →
− −
→ →
− −
qp.
iii) pq = rs ⇔ pq + qr = qr + rs ⇔ →

− →
− →
− →
− →
− →
− −
pr = →−
qs. 

1.1.4 A veces es conveniente usar la siguiente notación. Si p, q ∈ A y →−u ∈E


es tal que ϕ(p, q) = →− = →
pq −u , escribimos q = p + → −
u . Es importante tener
presente que esta expresión no tiene ningún significado matemático: es sólo un

5
modo abreviado de decir que → −
pq = → −
u . Más adelante, cuando introduzcamos

-0
coordenadas, comprobaremos que, de hecho, esta notación es bastante natural.
05
9-
1.2. Variedades lineales
l2

1.2.1 Definición La variedad lineal que pasa por el punto a ∈ A, en la direc-


de

ción del subespacio vectorial F ⊂ E es el conjunto




n

a + F := {b ∈ A | ab ∈ F } = {b ∈ A | b = a + →

u,→

u ∈ F }.
sió

Se define dim(a + F ) := dim(F ). Se llama a F la dirección de a + F .


r
Ve

A las variedades lineales se les conoce también como subespacios afines. La


razón es que si X ⊂ A es una variedad lineal, la estructura de espacio afı́n de
A induce del modo obvio (¡compruébalo!) una estructura de espacio afı́n en X
(por restricción). De modo que la noción de variedad lineal es la noción natural
de subespacio en geometrı́a afı́n.

1.2.2 Ejemplos:
1. Sea E un espacio vectorial. Considera en E la estructura natural de espacio
afı́n. Sea H ⊂ E un subespacio vectorial. Entonces H, visto como subconjunto
de puntos del espacio afı́n E, es una variedad lineal. Pero no todas las variedades
lineales, es decir los subespacios afines de (E, estructura afı́n), son subespacios
vectoriales de (E, estructura vectorial).
Por ejemplo, en el plano R2 solamente las rectas que pasan por el origen son
subespacios vectoriales de dimensión 1. Cualquier recta, pase por donde pase,
es una variedad lineal de dimensión 1.

2. Una variedad lineal de dimensión 0 es sólo un punto.


12 CAPÍTULO 1. ESPACIOS AFINES

3. Una variedad lineal de dimensión 1 es como una recta, y una de dimensión


2 es como un plano.

4. En un espacio afı́n de dimensión n, las variedades de dimensión n − 1 se


llaman hiperplanos. Observa que esta es una noción relativa: en un espacio de
dimensión 3 un hiperplano es como un plano, en uno de dimensión 2 es como
una recta, y en uno de dimensión 1 es sólo un punto.

5. La mayor variedad lineal de un espacio afı́n A de dimensión n es a +


E, donde a es un punto cualquiera, y E es el espacio vectorial asociado a A.
Obviamente a + E, que coincide con todo el espacio A, tiene dimensión n.

1.2.3 La definición que hemos dado de las variedades lineales habrá extrañado
a más de uno. ¿Qué papel cumple el punto a, cuando hablamos de la variedad
a + F ? ¿Es importante dicho punto para describir la variedad? Si lo es, ¿cómo
elegir el punto adecuado?... La siguiente proposición resulta tranquilizadora:

5
-0
Proposición Si b ∈ a + F , entonces a + F = b + F .
05

− →
− →
− → −
9-
Demostración.- Como ab ∈ F por hipótesis, se tiene bx ∈ F ⇔ ab + bx =

→ ∈ F . Luego x ∈ a + F ⇔ x ∈ b + F . Es decir, que ambos conjuntos son
ax
l2

idénticos. 
de

Observa que la implicación recı́proca a la de la proposición es también cierta


n

(obviamente).
sió

1.2.4 Corolario Si p, q ∈ a + F , entonces →



pq ∈ F .
r
Ve

Demostración.- Por la proposición 1.2.3, como p ∈ a + F , entonces a + F =


p + F . Además q ∈ a + F = p + F , luego →

pq ∈ F . 

La implicación recı́proca a la del corolario es obviamente falsa: no siempre


que →−
pq ∈ F se cumple p, q ∈ a + F . Un ejemplo sencillo que ilustra que esto no


es cierto es F = h 0 i, p 6= a, q = p (compruébalo).

1.2.5 Nuestra intención es ahora estudiar la posición relativa de dos variedades


lineales.
Como motivación, pensemos en el caso de dos rectas en el espacio tridimen-
sional (espacio afı́n estándar de dimensión 3 sobre R). Todos sabemos (no es
difı́cil visualizarlo) que hay tres posibilidades para la posición relativa de las dos
rectas: o bien se cortan, o bien son paralelas (incluyendo el caso especial en que
ambas son iguales), o bien se cruzan.
¿Cómo podemos determinar a priori que las rectas se cortan?. Supongamos
que L1 = a+F y L2 = b+G, donde F y G son subespacios unidimensionales del
espacio vectorial R3 , son las dos rectas. Si L1 ∩ L2 6= ∅, existe algún punto c que
1.2. VARIEDADES LINEALES 13


− →
− →

pertenece a L1 y a L2 , y por tanto →

ac ∈ F , bc ∈ G. Pero entonces cb = − bc ∈ G,

− →
− →

de modo que ab = ac + cb ∈ F + G.

Veamos que en realidad, este análisis es válido con total generalidad, para
cualquier par de variedades lineales de cualquier espacio afı́n.

Proposición Dos variedades lineales a + F, b + G de un espacio afı́n se




cortan ⇔ ab ∈ F + G.

Demostración.- ⇒) Como en el ejemplo: si c ∈ (a + F ) ∩ (b + G), entonces



− →
− →
− →
− →

ac ∈ F , cb = − bc ∈ G, y por tanto ab = → −
ac + cb ∈ F + G.


⇐) Si ab ∈ F + G, por definición de suma de subespacios vectoriales, existen

− →

u ∈ F, → −
v ∈ G tales que ab = →−
u +→ −
v . Dado que la aplicación ϕa es biyectiva,


existe un punto c ∈ A tal que ϕa (c) = ϕ(a, c) = →−
ac = → −
u . Ası́ que ab = →

ac + →

v,

− →
− →

y por tanto → −
v = −→−
ac + ab = →

ca + ab = cb.


Ası́ que c cumple →

ac = →

u ∈ F , es decir, c ∈ a + F , y también bc = −→−v ∈ G,

5
o sea c ∈ b + G. Por tanto c ∈ (a + F ) ∩ (b + G), y ambas variedades se cortan.

-0
 05
9-
1.2.6 En nuestro análisis de posiciones relativas de variedades, tratamos ahora
la noción de paralelismo. Ahora, más que un teorema, necesitamos definir en
l2

términos formales la idea intuitiva que tenemos de paralelismo. La definición


de

más razonable es:


Definición Dos variedades lineales a+F y b+G se dicen paralelas si F ⊂ G
n

ó G ⊂ F (o ambos, en cuyo caso F = G).


sió

Observa que se puede estudiar sin ningún problema el paralelismo de varie-


r
Ve

dades de dimensiones diferentes (piensa en un plano y una recta en el espacio).


Para que dos variedades de diferentes dimensiones sean paralelas no es necesario
que una contenga a la otra, aunque puede ocurrir.
Observa también que dos variedades paralelas pueden ser, de hecho, coinci-
dentes (la misma).

1.2.7 Lee atentamente la definición anterior. Observa que la idea que tienes
de rectas paralelas en el espacio está cubierta por la definición dada. Pero no
sólo eso. Por ejemplo: ¿pueden variedades paralelas cortarse?. Aparte del caso
trivial de variedades coincidentes, la respuesta es sı́ (se necesita que sean de
dimensiones diferentes).

Proposición Si a + F y b + G son paralelas, entonces o no se cortan o una


está contenida en la otra.

Demostración.- Supongamos que a + F y b + G son paralelas. Sin pérdida


de generalidad podemos suponer F ⊂ G.
14 CAPÍTULO 1. ESPACIOS AFINES



Si (a + F ) ∩ (b + G) 6= ∅, la proposición 1.2.5 nos dice que ab ∈ F + G. Pero

− →

F + G = G en este caso, luego ba = −ab ∈ G. Por tanto a ∈ (b + G), luego
(a + G) = (b + G), y entonces (a + F ) ⊂ (a + G) = (b + G). 

1.2.8 Tomando la nomenclatura del caso de rectas en el espacio tridimensio-


nal, diremos que dos variedades lineales se cruzan cuando no se cortan ni son
paralelas.

1.2.9 Vamos ahora a estudiar operaciones entre variedades. La más natural


que uno piensa es la intersección de variedades lineales. Pensemos en el caso del
espacio tridimensional: si dos rectas se cortan, o bien son iguales, o se cortan en
un punto. Dos planos diferentes, si se cortan, lo hacen en una recta, etc...
Parece que la intuición nos dice que la intersección de variedades lineales
debe ser de nuevo una variedad lineal. En efecto, eso es siempre ası́, pero ¿cuál
es la intersección? Por ejemplo: ¿cómo se cortan dos planos en un espacio de
dimensión 4? El siguiente resultado da la respuesta a estas cuestiones:

5
Proposición Si c ∈ (a+F )∩(b+G), entonces (a+F )∩(b+G) = c+(F ∩G).

-0
→∈F 
 −
05
xa
Demostración.- x ∈ (a + F ) ∩ (b + G) ⇔ →
− . Ahora bien, como
xb ∈ G
9-
 −
→+→ − 

− →
− xa ac = →

xc ∈ F
⇔ →−
l2

ac ∈ F , cb ∈ G, lo anterior es equivalente a →
− → − −
→∈G xc ∈
xb + bc = xc
F ∩ G ⇔ x ∈ c + (F ∩ G).
de

1.2.10 Ya sabemos que un punto es una variedad lineal. El conjunto que for-
n

man dos puntos no lo es (¿se te ocurre algún argumento para demostrarlo?).


sió

Ası́ que, en general, parece que la unión de variedades lineales no va a ser una
r

variedad lineal.
Ve

Pero, pensando si uno tuviera que definir algo ası́ como la menor variedad
en la que están dos puntos p y q... parece claro que el candidato adecuado serı́a
por ejemplo p + h→−
pqi, la recta que pasa por p y está dirigida por h→

pqi (piensa en
el caso del plano o el espacio usual).
Ese concepto de mı́nima variedad que contiene a unos cuantos puntos dados
se puede definir, formalmente, con toda generalidad:

Proposición-Definición.- Dados a1 , . . . , ak ∈ A, existe una variedad li-


neal mı́nima que los contiene. Se la conoce como variedad lineal generada por
a1 , . . . , ak .

Demostración.- Existe obviamente alguna variedad lineal que contiene a


los puntos a1 , . . . , ak : basta tomar por ejemplo a1 + E (todo A).
Ahora, si a1 + F contiene a a1 , . . . , ak se tiene que − a− → −−→
1 a2 , . . . , a1 ak ∈ F (por el
−−→ −−→
corolario 1.2.4), y por tanto ha1 a2 , . . . , a1 ak i ⊂ F , por lo que la variedad lineal
a1 + h −
a−→ −−→ −−→ −−→
1 a2 , . . . , a1 ak i está contenida en a1 + F . Como a1 + ha1 a2 , . . . , a1 ak i
contiene además a a1 , . . . , ak , esa es precisamente la variedad buscada. 
1.2. VARIEDADES LINEALES 15

1.2.11 Lo que acabamos de describir para puntos, es un procedimiento para


crear una variedad que contenga a cierto número de otras variedades (observa
que la simple unión de variedades no es variedad). Este procedimiento, válido
para variedades de cualquier dimensión (no sólo puntos), es en términos precisos:

Definición Se llama suma de dos variedades lineales L1 = a+F y L2 = b+G




a la variedad lineal generada por ambas, que es a + F + G + h abi. Se denota
como L1 + L2 .

1.2.12 La propiedad importante que caracteriza a la variedad suma es:

Proposición L1 + L2 es la mı́nima variedad que contiene a L1 y a L2 .




Demostración.- Sea L1 = a + F , L2 = b + G, L1 + L2 = a + F + G + h abi.


Es claro que a + F ⊂ L1 + L2 , pues F ⊂ F + G + h abi.

− →
− →
− →
− →

Como ab ∈ habi, b + habi = a + habi, y por tanto b + F + G + h abi =

5


a + F + G + habi, que contiene obviamente a b + G como en el paso anterior. De

-0
modo que L1 + L2 contiene a L1 y a L2 . 05
Ahora, supongamos que una variedad lineal c + H contiene a a + F y a
9-
b + G. Como a ∈ c + H, entonces c + H = a + H. Como, por hipótesis, (a + F ) ⊂
(c + H) = (a + H), se tiene F ⊂ H. Del mismo modo comprobamos G ⊂ H.
l2


− →

Además a ∈ c + H, b ∈ c + H ⇒ → −
ac ∈ H, bc ∈ H ⇒ ab ∈ H.

− →
− →

de

Ası́ que F, G, habi ⊂ H, por tanto F +G+h abi ⊂ H, ası́ que a+F +G+h abi ⊂
a + H = c + H. 
n
sió

1.2.13 La siguiente cuestión es calcular la dimensión de la variedad suma. Para


empezar, recordemos que en el caso de subespacios vectoriales, la dimensión del
r

espacio vectorial suma es dim(F + G) = dimF + dimG − dim(F ∩ G).


Ve

En espacios afines, la situación es parecida, pero la fórmula no puede ser


exactamente como la anterior: piensa por ejemplo en el caso de dos rectas que
se cruzan en el espacio tridimensional: la dimensión de la suma es 3, la de la
intersección es 0, y la suma de las dimensiones de las rectas es 2, de modo que la
fórmula anterior no cuadra. Las fórmulas verdaderas se conocen como fórmulas
de Grassmann:

Proposición [Fórmulas de Grassmann] Sean L1 = a + F y L2 = b + G


dos variedades lineales. Entonces:
i) Si L1 ∩ L2 6= ∅, entonces dim(L1 + L2 ) = dimL1 + dimL2 − dim(L1 ∩ L2 ).
ii) Si L1 ∩ L2 = ∅, entonces dim(L1 + L2 ) = dimL1 + dimL2 − dim(F ∩ G) + 1.

Atención, que hay que tener mucho cuidado con un detalle: en ii) lo que
aparece es dim(F ∩ G) y no dim(L1 ∩ L2 ). Ambas pueden no ser iguales (piensa,
por ejemplo, en el caso de rectas paralelas).
16 CAPÍTULO 1. ESPACIOS AFINES



Demostración.- Si L1 ∩ L2 6= ∅, entonces ab ∈ F + G, y por tanto F +


G + habi = F + G, que tiene dimensión dimF + dimG − dim(F ∩ G). Como
dimF = dimL1 , dimG = dimL2 por definición, y dim(F ∩ G) = dim(L1 ∩ L2 )
(ver proposición 1.2.9), hemos probado i).

− →

Si L1 ∩ L2 = ∅, entonces ab ∈ / F + G, de modo que dim(F + G + h abi) =

− →

dim(F +G)+dimhabi−dim((F +G)∩h abi) = dimF +dimG−dim(F ∩G)+1−0 =
dimL1 + dimL2 − dim(F ∩ G) + 1. 

1.2.14 Las fórmulas de Grassmann son de gran importancia. Sirven, por ejem-
plo, para dar pruebas consistentes de hechos que nos parecen intuitivamente
ciertos (y otros donde la intuición no nos sirve de mucha ayuda: ¿quién puede
intuir algo en un espacio de dimensión 127? ¿Y cómo intuir algo si el cuerpo K
es, por ejemplo, finito?). Por ejemplo:
En dimensión 2 dos rectas no paralelas siempre se cortan. La razón es que
si L1 = a + F y L2 = b + G son dos rectas que no se cortan, entonces 2 ≥
dim(L1 + L2 ) = 3 − dim(F ∩ G). Se deduce dim(F ∩ G) ≥ 1, pero como F y G
tienen dimensión 1, la única opción es F = G, y por tanto L1 y L2 son paralelas.

5
-0
(La idea es que no hay suficiente dimensión en el espacio ambiente para que
las rectas se crucen. Sin embargo, como todos sabemos, en dimensión 3 si puede
05
pasar).
9-
Más aún, podemos decir dónde se cortan L1 y L2 : sabemos dim(L1 + L2 ) =
l2

2 − dim(L1 ∩ L2 ). Luego dim(L1 ∩ L2 ) vale o bien 0 (se cortan en un punto, y


L1 + L2 es todo el plano afı́n), o bien 1 (en cuyo caso L1 = L2 , y en particular
de

son paralelas).
n

Ejercicio.- En un espacio afı́n de dimensión 3, una recta y un plano afines


sió

no paralelos, se cortan siempre en un punto.


r
Ve

1.3. Coordenadas en espacios afines. Referen-


cias.
Queremos introducir ahora coordenadas en los espacios afines, de forma que
los cálculos prácticos se reduzcan a manipulaciones algebraicas con números
concretos. Veremos que en un espacio afı́n se pueden definir de forma razonable
dos tipos de coordenadas: cartesianas o baricéntricas.
Antes de entrar en detalles, como motivación, recordemos el caso de espacios
vectoriales. Para dar coordenadas en un espacio vectorial de dimensión n, se
construye una base (n vectores linealmente independientes). Cualquier vector
del espacio se escribe de manera única como combinación lineal de los vectores
de la base: las coordenadas de un vector (los coeficientes de la combinación
lineal correspondiente) quedan totalmente determinadas al fijar la base. Pero,
por supuesto, el mismo vector tiene coordenadas diferentes en bases diferentes.
En espacios afines, la situación será parecida. De hecho, los sistemas de refe-
rencia cartesianos no son más que una traducción obvia de las coordenadas del
1.3. COORDENADAS EN ESPACIOS AFINES. REFERENCIAS. 17

espacio vectorial director al espacio afı́n. Para definir coordenadas baricéntricas,


tendremos que trabajar algo más.

1.3.1 Definición Un sistema de referencia cartesiano de un espacio afı́n


(A, E, ϕ) de dimensión n es {p; → −
e 1, . . . , →

e n }, donde p es un punto de A y

− →

{ e 1 , . . . , e n } es una base de E.

1.3.2 Dado un sistema de referencia cartesiano {p; → −e 1, . . . , →



e n }, es claro cómo
dar coordenadas a cualquier punto del espacio afı́n:
Dado q ∈ A, como {→ −
e 1, . . . , →

e n } es base de E, →

pq = x1 → −e 1 + · · · + xn →

e n.
Decimos entonces que (x1 , . . . , xn ) son las coordenadas (cartesianas) de q en la
referencia {p; →

e 1, . . . , →

e n }.

1.3.3 La gran virtud de las coordenadas cartesianas es que se definen de forma


extraordinariamente sencilla. Por el contrario, el hecho de que haya que elegir
un punto especial es en algunas ocasiones poco conveniente.

5
Vamos a definir también otro tipo de referencias que va a consistir sólo en

-0
una elección apropiada de puntos de A. Para ello, necesitamos hacer un poco
de trabajo previo. 05
9-
Definición Decimos que los k puntos a1 , . . . , ak del espacio afı́n (A, E, ϕ)
son linealmente independientes si los k − 1 vectores − a− → −−→
l2

1 a2 , . . . , a1 ak de E son
linealmente independientes.
de

Algunos comentarios inmediatos a la definición:


n

Dos puntos diferentes son siempre linealmente independientes, puesto que el


vector −a−→
sió

1 a2 forma un conjunto de vectores linealmente independiente si y sólo


si es no nulo, y eso ocurre si y sólo si a1 6= a2 .
r

En un espacio afı́n de dimensión n podemos encontrar, como máximo, n + 1


Ve

puntos linealmente independientes. ¿Tienes claro por qué?

1.3.4 De nuevo al lector exigente deberı́a haberle chocado algo en la definición


1.3.3. ¿Qué papel especial juega ese punto a1 en la definición de independencia
lineal? Con la definición que hemos dado, parece que tuviera alguna importancia
cuál de los puntos es el a1 , y eso no parece razonable. Si el mundo es justo (al
menos el mundo afı́n), deberı́amos poder elegir cualquiera de los otros puntos
sin que la definición cambiara.
El siguiente resultado muestra que, al menos en este punto, las matemáticas
son razonables, como cabı́a esperar. También muestra una caracterización de
independencia lineal en un espacio afı́n, que nos deberı́a recordar al caso de
espacios vectoriales (aunque, como ves, en el caso afı́n hay una restricción so-
bre el tipo de combinaciones lineales a considerar: sólo aquellas con suma de
coeficientes nula).

Proposición Sean a1 , . . . , ak ∈ (A, E, ϕ). Son equivalentes:


i) {−
a−→ −−→
1 a2 , . . . a1 ak } son vectores linealmente independientes de E.
18 CAPÍTULO 1. ESPACIOS AFINES

ii) Para cualquier i entre 1 y k, {−


a− →
i ah , h 6= i} es un conjunto de vectores lineal-
mente independientes de E.
→k = → − 
λ1 −→1 + · · · + λk −
pa pa 0
iii) Para todo p ∈ A, ⇔ λ1 = · · · = λk = 0.
λ1 + · · · + λ k = 0

X X
Demostración.- i) ⇒ ii). −−
λh a → → −
i ah = 0 =
−−
λh ( a → −−→ −−→
i a1 +a1 ah )+λ1 ai a1 =
h6=i h6=i,1
X X
−−
λh a →
1 ah + ( λh ) −
a− →
i a1 . Por i), se tiene entonces λh = 0 para h 6= 1, i, y
h6=i,1 h6=i
X
0=− λh = −λ1 , es decir λ1 = 0.
h6=i

ii) ⇒ i). Esta implicación es obvia.

i) ⇒ iii). Supongamos λ1 + · · · + λk = X 0 y λ1 −→1 + · · · + λk −


pa →k = →
pa

0.

− X
−→ −→ −→
Entonces 0 = λ1 pa1 + · · · + λk pak = λ1 pa1 + −→ −−→
λj (pa1 + a1 aj ) = ( −→
λi )pai +

5
j≥2 i≥1

-0
X X
λj −
a−→
1 aj . El primer término de esta suma es nulo, pues
05 λi = 0. Por tanto,
j≥2 i≥1
por i), tenemos λj = 0 ∀j ≥ 2. De nuevo usando que la suma de los λ’s vale 0,
9-
obtenemos λ1 = 0.
l2

k k k k
de


− X X X X
iii) ⇒ i). 0 = λj −
a−→
1 aj = ( λj ) −
a→
1p + λj −→j = (−
pa λj ) −→1 +
pa
j=2 j=2 j=2 j=2
n

k
X k
X
sió

λj −→j . Por tanto, aplicando iii) con λ0 = (−


pa 1 λj ) y λ0j = λj para j > 1
r

j=2 j=2
X
Ve

(como λ0j = 0 podemos aplicar iii)), obtenemos λj = 0 ∀j ≥ 2. 


j

1.3.5 El último paso antes de definir los sistemas baricéntricos es poder con-
seguir un conjunto de puntos independientes lo mayor posible (como ya hemos
dicho, n + 1 puntos si la dimensión es n). Esto se puede lograr siempre a base de
ir ampliando el número de puntos de modo apropiado, como muestra el siguiente
resultado:

Proposición Sea (A, E, ϕ) espacio afı́n de dimensión n. Dados a0 , . . . , ak


puntos linealmente independientes de A, existen ak+1 , . . . , an que hacen que
{a0 , . . . , an } sean puntos linealmente independientes.

Demostración.- Que a0 , . . . , ak sean linealmente independientes quiere de-


cir que −
a− → −−→
0 a1 , . . . , a0 ak son vectores linealmente independientes en E. Por álgebra
lineal, existen − −→, · · · , v−
vk+1 → −−→ −−→ −−→ −

n tales que {a0 a1 , · · · , a0 ak , vk+1 , . . . , vn } son base de
E.
1.3. COORDENADAS EN ESPACIOS AFINES. REFERENCIAS. 19

Sean a0 + − −→ := ak+1 , . . . , a0 + −
vk+1 v→
n := an (recuerda -mira el párrafo 1.1.4-
que esto no es más que notación: quiere decir que ϕ(a0 , ak+1 ) = − −→, etcétera,
vk+1
y los puntos aj existen por biyectividad de ϕa0 ).
Entonces, por definición de independencia lineal de puntos en un espacio
afı́n, {a0 , . . . , an } son linealmente independientes. 

1.3.6 Definición Un sistema de referencia baricéntrico de un espacio afı́n


(A, E, ϕ) de dimensión n es un conjunto de n + 1 puntos linealmente indepen-
dientes.

Una vez que se tiene un sistema de referencia baricéntrico: ¿cómo definir las
coordenadas?. Pongamos por ejemplo que la dimensión es 2, y que {p0 , p1 , p2 }
son puntos independientes. Dado un punto x, el conjunto {x, p0 , p1 , p2 } no puede
ser linealmente independiente (son demasiados puntos). Ası́ que existe algún
p ∈ A, y k, k0 , k1 , k2 ∈ K no todos nulos tales que k + k0 + k1 + k2 = 0 y
k−→ + k0 −
px →0 + k1 −
pp pp→1 + k2 −→2 = →
pp

0 . Ahora, si fuera k = 0, {p0 , p1 , p2 } serı́an

5
dependientes. De modo que k 6= 0, y podemos dividir entre k. Obtenemos:

-0

→ = x0 −
px →0 + x1 −
pp →1 + x2 −
pp →2 
pp
05
,
1 = x 0 + x1 + x2
9-
l2

donde x0 = −k0 /k, x1 = −k1 /k y x2 = −k2 /k.


Precisamente (x0 , x1 , x2 ) es lo que vamos a llamar coordenadas baricéntricas
de

de p en la referencia {p0 , p1 , p2 }. Por supuesto, hay que dar alguna justificación


de que esta construcción es consistente. Especialmente, hay que convencerse de
n

que el punto auxiliar p que hemos usado no es en realidad importante.


sió

1.3.7 Proposición Sean p0 , . . . , pk puntos de (A, E, ϕ) de dimensión n. Dado


r
Ve

x ∈ A, supongamos que existe p ∈ A y x0 , . . . , xk ∈ K tales que



→ = x0 pp
px −→k 
−→0 + · · · + xk pp
.
1 = x0 + · · · + xk

Entonces:
i) La misma expresión es válida, con los mismos coeficientes, cambiando el punto
p por cualquier otro q ∈ A.
ii) Los valores x0 , . . . , xk son únicos si p0 , . . . , pk son linealmente independien-
tes.

Demostración.- i) − →=→
qx −
qp + −→=→
px −
qp + x0 −→0 + · · · + xk −
pp →k = →
pp −
qp + x0 →

pq +
−→ →
− − → →
− →
− −→ −→
x0 qp0 + · · · + xk pq + xk qpk = qp + (−x0 − · · · − xk )qp + x0 qp0 + · · · + xk qpk =
−→0 + · · · + xk −
x0 qp →k , la última igualdad siendo consecuencia de x0 + · · · + xk = 1.
qp

ii) Si

→ = x0 −
px →0 + · · · + xk −
pp →k 
pp
1 = x0 + · · · + xk
20 CAPÍTULO 1. ESPACIOS AFINES

y también 

→ = x0 − → 0 −→
px 0 pp0 + · · · + xk ppk
,
1 = x00 + · · · + x0k

entonces (x0 −x00 )−→0 +· · ·+(xk −x0 )− → → − 0 0


pp k ppk = 0 . Como (x0 −x0 )+· · ·+(xk −xk ) =
0
0, la independencia lineal de {p0 , . . . , pk } implica xj − xj = 0∀j, y por tanto
xj = x0j para j = 0, . . . , n. 

1.3.8 De nuevo introducimos una notación cómoda. Dados p0 , . . . , pk y x, si


se cumple  −→ = x0 −
px →0 + · · · + xk −
pp →k 
pp
,
1 = x0 + · · · + xk
escribimos x = x0 p0 + · · · + xk pk .
Insistamos en que esto es sólo notación: no hay ninguna estructura en A
que permita en realidad calcular una combinación lineal como la de arriba. Esa
expresión, leı́da literalmente, no tiene sentido.

5
1.3.9 Ejemplo (plano afı́n estándar): Sea (A, E, ϕ) el plano afı́n estándar.

-0
Sean p0 = (0, 0), p1 = (4, 0), p2 = (0, 4). Tomemos R = {p0 , p1 , p2 } y Rc =
05
{p0 ; −
p− → −−→
0 p1 , p0 p2 }.
Como − p− → −−→
0 p1 = ϕ(p0 , p1 ) = (4 − 0, 0 − 0) = (4, 0), p0 p2 = ϕ(p0 , p2 ) = (0 −
9-
0, 4 − 0) = (0, 4) y {(0, 4), (4, 0)} es base del espacio vectorial R2 , se sigue que
l2

p0 , p1 , p2 son linealmente independientes (es decir, R es referencia afı́n) y que


de

Rc es referencia cartesiana.
Sea x = (4, −4) ∈ A. Claramente, sus coordenadas en Rc son (1, −1). ¿Y
en R? Tomemos, por ejemplo, p = (2, 0); − →=−
px →0 + −
pp →1 − −
pp →2 , de modo que
pp
n
sió

x tiene coordenadas (1, 1, −1) (observa que 1 + 1 − 1 = 1) en R. Si hubiéramos


tomado otro punto auxiliar, por ejemplo q = (0, 2), el cálculo no cambia, puesto
r

que
Ve



qx =→−
qp0 + →

qp1 − →−
qp2
q X
(4, −6) = (0, −2) + (4, −2) − (0, 2)

1.3.10 Veamos algunos ejemplos sencillos sobre coordenadas baricéntricas:

1. Las coordenadas baricéntricas de p0 en el sistema de coordenadas baricén-


trico {p0 , p1 , . . . , pn } son (1, 0, . . . , 0), puesto que −→0 = 1 · −
pp →0 + 0 · −
pp →1 +
pp
−→
· · · + 0 · ppn para cualquier punto p ∈ A.
j
z }| {
Análogamente, las coordenadas de pj son (0, . . . , 0, 1, 0, . . . 0).

2. Consideremos el espacio afı́n estándar de dimensión 1 sobre R, y una re-


ferencia baricéntrica {p0 , p1 } = R. Un punto x tiene coordenadas (x1 , x2 )
en R, si dado cualquier p ∈ R se tiene px−→ = x0 pp −→0 +x1 pp
−→1 , con x0 +x1 = 1.
Tomando p = p0 , vemos p −0→ −−
x = x1 p →
0 p1 , de forma que si x está en el
segmento entre p0 y p1 su coordenada x1 está entre 0 y 1, si p1 está entre
1.3. COORDENADAS EN ESPACIOS AFINES. REFERENCIAS. 21

p0 y x se tiene x1 > 1, y si p0 está entre x y p1 , entonces x1 < 0. Un estudio


similar tomando p = p1 determina las regiones en las que x0 > 1, x0 < 0,
ó 0 < x0 < 1. Resumiendo, la situación es como indica la figura 1.2:

x 0 =1 x 0 =0

x 0 >1 p p x 0 <0
0 1

x 1 <0 0<x 0 ,x1 <1 x 1 >1


x 1 =0 x 1 =1

Figura 1.2: Coordenadas baricéntricas en R.

5
Observa que el punto medio del segmento −
p−→ 1 1
0 p1 es 2 p0 + 2 p1 .

-0
Ejercicio.-Realiza un análisis como el anterior para las coordenadas bari-
05
céntricas en una base baricéntrica cualquiera del plano afı́n real (dimensión 2).
9-
1.3.11 La descripción que acabamos de hacer del punto medio de un segmento
l2

de la recta real en función de coordenadas baricéntricas respecto de los extremos


del segmento se generaliza fácilmente a un concepto, el baricentro de cierto
de

número de puntos, que no depende de la dimensión ni del cuerpo sobre el que


esté definido el espacio afı́n.
n
sió

Definición Se llama baricentro de los puntos a1 , . . . , am ∈ A al punto b


1 1
r

dado por b = m a1 + · · · + m am .
Ve

Observa que para que el baricentro de m puntos exista, se debe poder dividir
m
z }| {
entre m =1 + · · · + 1 en K. Eso no es cierto en todo cuerpo. De hecho, se dice
p
z }| {
que K tiene caracterı́stica p si p es el menor entero tal que 1 + · · · + 1= 0 en K.
Si no existe tal entero, se dice que la caracterı́stica es 0.
De modo que en caracterı́stica 0 siempre existe el baricentro de m puntos,
mientras que en Z/3Z no existe el baricentro de 3 puntos, ni de 6, 9, etcétera.

Ejercicio.- Demuestra que el concepto de baricentro de geometrı́a elemental


(es decir, el punto donde se cortan las medianas de un triángulo) coincide con
el baricentro (según la definición dada aquı́) de los tres vértices del triángulo
correspondiente.
1.3.12 El último ingrediente en nuestro estudio de coordenadas baricéntricas
es el cálculo de cómo cambian las coordenadas al cambiar de referencia. Veamos
que no es algo muy diferente a un cambio de base en un espacio vectorial:
22 CAPÍTULO 1. ESPACIOS AFINES

Sean R = {p0 , . . . , pn } y R e = {e p0 , . . . , pen } dos referencias baricéntricas.


Dado x ∈ A, sean (x0 , . . . , xn ) y (e en ) sus coordenadas en R y R.
x0 , . . . , x e ¿Cómo
se relacionan?
Supongamos que para i = 0, . . . n, pei tiene coordenadas (λ0i , λ1i , . . . , λni )
(recuerda la notación pei = λ0i p0 + · · · + λni pn ). Entonces:
n
X n
X n n n n
−→ X X −→ XX
xj −→j = −
pp →=
px ei ppei =
x (e
xi λji ppj ) = ( ei λji )−
x →j .
pp
j=0 i=0 i=0 j=0 j=0 i=0

n
X
De modo que xj = ei λji para j = 0, . . . , n. Equivalentemente, en no-
x
i=0
tación matricial,
    
x0 λ00 ··· λ0n e0
x
 x1   λ10 ··· λ1n  e1
x 
    
 .. = .. ..  .. .
 .   . .  . 

5
xn λn0 · · · λnn en
x

-0
05
Observa que las columnas de la matriz cuadrada en la ecuación anterior
e en la referencia R, y que dicha matriz
son las coordenadas de los puntos de R
9-
transforma coordenadas en R e en coordenadas en R.
l2

1.3.13 Tratemos ahora el cambio de coordenadas cartesianas.


de

0 →
−0 →
−0
Sean R = {p; → −
e1 , . . . , −
e→ 0
n } y R = {p , e1 , . . . , en } dos referencias cartesianas.


Supongamos que e0i = λ1i → −
e1 + · · · + λni e−→ n , i = 1, . . . , n. Supongamos también
n

0
en R, es decir → e1 + · · · + pn e−
− 0 = p1 →
− →
sió

que (p1 , . . . , pn ) son las coordenadas X de p pp n


o, equivalentemente, p = p + 0 →

pj ej .
r
Ve

j
Entonces
n
X n
X X n XX n n
−→ →

p0 x = x0i e0i = x0i ( λji →

ej ) = ( λji x0i )→

ej
i=1 i=1 j=1 j=1 i=1
q
n
X n
X n
X
→−−

px

pp0 = xj →

ej − pj →

ej = (xj − pj )→

ej
j=1 j=1 j=1

de modo que
n
X
xj = p j + λij x0i
i=1

para j = 1, . . . , n.

1.3.14 Ejemplo (Continuación del ejemplo 1.3.9).


Ya vimos que si p0 = (0, 0), p1 = (4, 0), p2 = (0, 4), entonces x = (4, −4) es
el punto de coordenadas (1, 1, −1)R , donde R = {p0 , p1 , p2 }.
1.3. COORDENADAS EN ESPACIOS AFINES. REFERENCIAS. 23

Sea ahora R e = {q0 , q1 , q2 } con q0 = (−8, 4), q1 = (4, 4), q2 = (−4, 12).
¿Cómo son las coordenadas de x en R? e Buscamos una expresión como − → =
px


e0 pq 0 + x
x →

e1 pq 1 + x →

e2 pq 2 . Tomemos, por ejemplo, p = q1 :
(0, −8) = −
q1→ e0 −
x=x q→ e2 −
1 q0 + x q→ e0 (−12, 0) + x
1 q2 = x e2 (−8, 8),
por lo que xe2 = −1, x e0 = 2/3, y por tanto x e1 = 4/3.
Para calcular coordenadas en R buscamos una expresión como q0 = λ00 p0 +
−→0 = λ00 pp
λ10 p1 +λ20 p2 , es decir pq −→0 +λ10 pp
−→1 +λ20 pp
−→2 para cualquier p. Tomemos
por ejemplo p = p2 , con lo que
(−8, 0) = − p−→ −−→ −−→
2 q0 = λ00 p2 p0 + λ10 p2 p1 = λ00 (0, −4) + λ10 (4, −4)

λ10 = −2, λ00 = 2

λ20 = 1
y, del mismo modo, − →1 = λ01 −
pq pp→0 + λ11 − →1 + λ21 −
pp pp→2 ; tomando, por ejemplo,
p = p0 , resulta

5
-0
(4, 4) = −
p−→ −−→ −−→
0 q1 = λ11 p0 p1 + λ21 p0 p2 = λ11 (4, 0) + λ21 (0, 4)

05
λ11 = λ21 = 1
9-

l2

λ01 = −1
Por último −→2 = λ02 − →0 + λ12 − →1 + λ22 − →2 y tomando p = p2 resulta
de

pq pp pp pp
(−4, 8) = −
p−→ −−→ −−→
2 q2 = λ02 p2 p0 + λ12 p2 p1 = λ02 (0, −4) + λ12 (4, −4)
n


sió

λ12 = −1, λ02 = −1


r


Ve

λ22 = 3

De modo que la matriz del cambio de e a coordenadas en


coordenadas en R
R es  
2 −1 −1
 −2 1 −1  ,
1 1 3
y las coordenadas de x en R son
    
2 −1 −1 2/3 1
 −2 1 −1   4/3  =  1  .
1 1 3 −1 −1
Para un punto z ∈ R2 arbitrario, sean (x0 , x1 , x2 ) y (e e1 , x
x0 , x e2 ) sus coorde-
e respectivamente. La relación entre ambas es:
nadas en R y R
    
x0 2 −1 −1 xe0
 x1  =  −2 1 −1   x e1  .
x2 1 1 3 xe2
24 CAPÍTULO 1. ESPACIOS AFINES

En coordenadas cartesianas; Rc = {p0 ; − p− → −−→ e −−→ −−→


0 p1 , p0 p2 }, Rc = {q0 ; q0 q1 , q0 q2 },
−−→ −−→ −−→ −−→
con p0 p1 = (4, 0), p0 p2 = (0, 4), q0 q1 = (12, 0) y q0 q2 = (4, 8).
Para obtener las coordenadas cartesianas de x = (4, −4) en R e c calculamos

(12, −8) = −
q0→ e1 −
x=x q−→ e2 −
0 q1 + x q−→ e1 (12, 0) + x
0 q2 = x e2 (4, 8)

e1 = 4/3, x
x e2 = −1

Para calcular coordenadas en Rc , miramos a los elementos que forman R ec.


−−→ −−→ −−→
Para las coordenadas de q0 en Rc , obtenemos (−8, 4) = p0 q0 = ap0 p1 + bp0 p2 =
a(4, 0) + b(0, 4) ⇒ a = −2, b = 1.

Para las coordenadas de − q−→ −−→ −−→ −−→


0 q1 en la base {p0 p1 , p0 p2 }; (12, 0) = q0 q1 =
λ11 p0 p1 + λ21 p0 p2 = λ11 (4, 0) + λ21 (04) ⇒ λ11 = 3, λ21 = 0. Y para −
−−→ −−→ q−→
0 q2 ,
−−→ − −→ −−→
calculamos (4, 8) = q0 q2 = λ12 p0 p1 + λ22 p0 p2 = λ12 (4, 0) + λ22 (0, 4) ⇒ λ12 =
1, λ22 = 2.

5
Ası́ que las coordenadas de x en R son (x1 , x2 ), donde

-0
   
05   
x1 3 1 4/3 −2
= + ,
x2 0 2 −1 1
9-
l2

es decir, (x1 , x2 ) = (1, −1). Obviamente, ésta es la relación que se da siempre


entre las coordenadas (x1 , x2 ) y (e e2 ) de un punto z ∈ R2 arbitrario:
x1 , x
de

      
x1 3 1 e1
x −2
= + .
n

x2 0 2 e2
x 1
sió

La última igualdad matricial se suele expresar con una matriz cuadrada a-


r
Ve

ñadiendo una fila nueva (0 0 1) y cuadrando los vectores columna con un 1


adicional:     
x1 3 1 −2 e1
x
 x2  =  0 2 1   x e2  .
1 0 0 1 1
La expresión anterior puede resultar a primera vista algo artificial pero, como
veremos, tiene su justificación. Tiene también la gran ventaja de reducir cálcu-
los de composiciones o inversiones a simples productos o inversas de matrices
cuadradas.

1.4. Ecuaciones de variedades lineales


Una vez que tenemos coordenadas a nuestra disposición, queremos expresar
las variedades lineales mediante ecuaciones, de modo que decidir si un punto
dado pertenece o no a una veriedad se reduzca simplemente a comprobar si sus
coordenadas verifican la ecuación.
1.4. ECUACIONES DE VARIEDADES LINEALES 25

1.4.1 Sea (A, E, ϕ) un espacio afı́n de dimensión n. Sea L = a + F variedad


lineal de dimensión k, con {→ −
v1 , . . . , →

vk } base de F . Sea Rc = {p; → −
e1 , . . . , −
e→
n } una
referencia cartesiana.
Si a = (a1 , . . . , an ) en Rc y → −
vj = v1j → −
e1 + · · · + vnj −
e→
n para j = 1, . . . , k. Sea
x = (x1 , . . . , xn )Rc . Entonces:

x ∈a+F
m
−→ = (x1 − a1 , . . . , xn − an ) ∈ F
ax
m
(x1 − a1 )→

e1 + · · · + (xn − an )e−→ →
− →

n = λ 1 v1 + · · · + λ k vk
= (λ1 v11 + λ2 v12 + · · · + λk v1k )→

e1 + · · · + (λ1 vn1 + · · · + λk vnk )e−
→n

ası́ que obtenemos



x1 = a1 + λ1 v11 + · · · + λk v1k 

.. Ecuaciones paramétricas de a + F = L.
. 

5

xn = an + λ1 vn1 + · · · + λk vnk

-0
De otra forma equivalente, x ∈ L ⇔ − → ∈ h→
ax − 05
v1 , . . . , →

vk i, lo cual ocurre si en

→ →
− →

{ax, v1 , . . . , vk } sólo hay k vectores linealmente independientes, es decir
9-
   
l2

x1 − a1 v11 · · · v1k v11 · · · v1k


 .. .. ..  = k = Rg  .. .. 
Rg 
de

. . .   . . 
xn − a n vn1 · · · vnk vn1 · · · vnk
n
sió

por independencia lineal.


Alguno de los menores k × k de la matriz de la derecha debe ser no nulo.
r

Supongamos, para hacer más clara la exposición, que


Ve

v11 ··· v1k


.. .. 6= 0
. .
vk1 · · · vkk

(si fuese otro menor el no nulo, se deberı́a seguir lo que vamos a hacer a partir
de ese otro, y no del que hemos tomado).
Entonces
x1 − a1 v11 · · · vik
.. .. ..
. . . =0
xk − ak vk1 · · · vkk
xi − ai vi1 · · · vik
para i = k + 1, k + 2, . . . , n, lo cual da un sistema de (n − k) ecuaciones en las n
incógnitas x1 , . . . , xn (obviamente si el menor era otro esta cuenta del número
de ecuaciones resultante es la misma).
26 CAPÍTULO 1. ESPACIOS AFINES

Recı́procamente, un conjunto de ecuaciones lineales



λ11 x1 + · · · + λ1n xn = b1 
..
. 

λd1 x1 + · · · + λdn xn = bd

donde (x1 , . . . , xn ) son las coordenadas cartesianas de un punto


 genérico de A,
λ11 · · · λ1n
 .. .. .
son las ecuaciones de una variedad lineal de dimensión n−Rg  . . 
λd1 · · · λdn
Las soluciones del sistema homogéneo asociado

λ11 x1 + · · · + λ1n xn = 0 

..
. 

λd1 x1 + · · · + λdn xn = 0

5
-0
determinan un subespacio vectorial F ⊂ E, donde (x1 , . . . , xn ) son coordenadas
en E respecto de la base {→ −
e 1, . . . , →
05 −
e n }.
Ahora, si (a1 , . . . , an ) es una solución particular del sistema no homogéneo
9-
(coordenadas de un punto de L), la solución general del sistema no homogéneo
l2

(coordenadas de un punto arbitrario de L) es la suma de la particular con la


solución general del homogéneo.
de

1.4.2 Ejemplos
n

• La ecuación lineal en dos incógnitas 2x + 3y = 5 representa una variedad


sió

lineal de dimensión 2 − 1 = 1 en el espacio afı́n de dimensión 2 (una recta).


r
Ve

A E

L=(1,1)+F F={2x+3y=0}

Figura 1.3: Una variedad lineal y su espacio director.


1.4. ECUACIONES DE VARIEDADES LINEALES 27

• Análogamente, 2x + 3y − z = 5 es una variedad de dimensión 2 en un


espacio afı́n de dimensión 3 (un hiperplano). Su espacio director es el subespacio
vectorial de dimensión 2 de ecuación 2x + 3y − z = 0.

• El sistema de dos ecuaciones con tres incógnitas



2x + 3y − z = 5
x−y = 1
 
2 3 −1
da las ecuaciones de una variedad lineal L de dimensión 3−Rg =
1 −1 0
3 − 2 = 1 (una recta en el espacio).
De hecho, L es la intersección de los planos π1 : 2x+3y−z = 5 y π2 : x−y = 1.
Cualquier otro plano que contenga a L tendrá una ecuación que, añadida a
las ecuaciones de L, dé las mismas soluciones, de modo que la ecuación de dicho
plano debe ser combinación lineal de las dos ecuaciones que definen L.
Luego λ1 (2x + 3y − z) + λ2 (x − y) = 5λ1 + λ2 con λ1 , λ2 ∈ R es la ecuación
del haz de hiperplanos que contienen a L.

5
-0
05
9-
l2
de
n
sió

L
r
Ve

Figura 1.4: Haz de planos soportado sobre la recta L.


28 CAPÍTULO 1. ESPACIOS AFINES

• Las rectas L1 = {3x − y = 5} y L2 = {6x − 2y = 3} en R2 son paralelas


(pues las ecuaciones 3x − y = 0 y 6x − 2y = 0 definen el mismo subespacio
vectorial de direcciones). La recta L3 = {6x − 2y = 10} es exactamente la
misma que L1 .

• Una recta en R3 que pase por a = (a1 , a2 , a3 ) con dirección →



v = (v1 , v2 , v3 )
tiene ecuaciones
x − a1 y − a2 z − a3
= = ,
v1 v2 v3
(sale de despejar λ en la ecuación paramétrica (x, y, z) = (a1 , a2 , a3 )+λ(v1 , v2 , v3 )).

x−1 z+1
• La recta L1 ≡ = y = y el plano L2 ≡ 3x − 2y + 4z = 5
2 −1
son paralelos: el vector director de la recta, →

v = (2, 1, −1), está en el espacio
director del plano, dado por 3x−2y +4z = 0 (basta comprobar que es solución).
De modo que L1 = a + F con F = h→ −
v i y L2 = b + G con F ⊂ G.

5
1.4.3 En general, sea cual sea la dimensión n del espacio afı́n ambiente:

-0
05
• La ecuación a1 x1 + · · · an xn = b con (a1 , . . . , an ) 6= (0, . . . , 0) es un hiper-
9-
plano de un espacio afı́n de dimensión n. el espacio director tiene ecuación
a1 x1 + · · · + an xn = 0.
l2
de

• Las ecuaciones

a11 x1 + · · · + a1n xn = b1 

n

..
sió

. 

ad1 x1 + · · · + adn xn = bd
r
Ve

definen una variedad L dada por la intersección de d hiperplanos. La ecuación


de cualquier otro hiperplano
 que contenga aL es combinación lineal de estas.
a11 . . . a1n
 .. .. .
L tiene dimensión n − Rg  . . 
ad1
. . . adn
• Las ecuaciones de la recta L = a + h→−
v i son

x1 − a 1 x2 − a 2 xn − a n
= = ··· =
v1 v2 vn

(donde si vj = 0 se elimina esa parte, y aparece en su lugar la ecuación xj = aj ).

• Dos hiperplanos son paralelos si y sólo si tienen igual dirección. Es decir,


que
L : a 1 x1 + · · · a n xn = b
e
L:ea 1 x1 + · · · + ean xn = eb
1.5. LA RAZÓN SIMPLE. TEOREMA DE MENELAO Y DE CEVA 29

aj ∀j. Si además b = ceb,


son paralelos si y sólo si para cierto c se tiene aj = ce
ambos planos son coincidentes.
x1 − a 1 xn − a n
• Una recta = ··· = y un hiperplano b1 x1 + . . . + bn xn = b
v1 vn
son paralelos exactamente cuando b1 v1 + · · · + bn vn = 0.

1.4.4 Respecto a las ecuaciones de variedades lineales en coordenadas bari-


céntricas, es sencillo repetir el tipo de argumentos que hemos hecho aquı́ en
cartesianas (es un buen ejercicio). Sólo comentaremos que una variedad lineal
de dimensión k en un espacio afı́n de dimensión n viene dada por (n + 1) − k
ecuaciones lineales independientes en n + 1 variables, más la ecuación adicional

x0 + · · · + xn = 1.

1.5. La razón simple. Teorema de Menelao y de


Ceva

5
-0
1.5.1 Con el último objeto que introducimos en este capı́tulo vamos a ver que
05
la idea de proporción es también tı́picamente afı́n.
9-
l2

Definición Sean a0 , a1 y a2 tres puntos alineados (i.e. no linealmente de-


pendientes) en un espacio afı́n (A, E, ϕ). La razón simple de a1 , a2 , a3 , denotada
de

(a1 a2 a3 ), es el escalar r ∈ K tal que −


a−→ −−→
1 a3 = r a1 a2 .
n

No es difı́cil comprobar que la razón simple está bien definida si a1 6= a2 , y


sió

que (a1 a2 a1 ) = 0, (a1 a2 a2 ) = 1.


r
Ve

1.5.2 En la práctica, las razones simples se calculan en función de las coorde-


nadas del primer punto en la referencia baricéntrica de la recta {a1 }+{a2}+{a3}
que forman los dos últimos puntos.

Proposición Si a2 6= a3 y (α, β) son las coordenadas de a1 respecto a


α
{a2 , a3 }, entonces (a1 a2 a3 ) = − .
β
La demostración, muy sencilla, queda como ejercicio.

1.5.3 La proposición 1.5.2 es tódo lo que hace falta para demostrar dos teore-
mas clásicos interesantes: el de Menelao y el de Ceva. Tratemos el primero:
Teorema [Menelao] Sean a0 , a1 , a2 linealmente independientes, y sean b0 , b1
y b2 puntos de las rectas determinadas por a1 y a2 , a0 y a2 , a0 y a1 respectiva-
mente, que estén alineados y sean diferentes de a0 , a1 ya2 . Entonces

(b0 a1 a2 ) · (b1 a2 a0 ) · (b2 a0 a1 ) = 1.


30 CAPÍTULO 1. ESPACIOS AFINES

a1

b2
b0

a2 b1

5
a0

-0
05
9-
Figura 1.5: El teorema clásico de Menelao.
l2
de

Demostración.- Las coordenadas de b0 , b1 , b2 en la referencia afı́n {a0 , a1 , a2 }


son de la forma (0, α0 , β0 ), (α1 , 0, β1 ) y (α2 , β2 , 0) respectivamente.
n

α0 β1 α2
sió

Ası́ que (b0 a1 a2 ) = − , (b1 a2 a0 ) = − , (b2 a0 a1 ) = − , con lo que


β0 α1 β2
r
Ve

α 0 β1 α 2
(b0 a1 a2 ) · (b1 a2 a0 ) · (b2 a0 a1 ) = − .
β0 α 1 β2

Pero
b0 , b1 , b2 alineados

0 α1 α2
0= α0 0 β2 = α 0 β1 α 2 + α 1 β2 β0
β0 β1 0

α 0 β1 α 2
− =1
α 1 β2 β0

1.5. LA RAZÓN SIMPLE. TEOREMA DE MENELAO Y DE CEVA 31

1.5.4 Teorema [Ceva] Sean a0 , a1 , a2 puntos linealmente independientes en


un espacio afı́n A de dimensión 2. Dado p ∈ A, p 6= a0 , a1 , a2 , sea bi (i=0,1,2)
la intersección de la recta p + h−→i i con la recta ak + ha
pa −− →
k ah i (k, h 6= i). Entonces

(b0 a1 a2 ) · (b1 a2 a0 ) · (b2 a0 a1 ) = −1.

b0

a1

5
-0
p 05
b2
9-
l2
de
n
sió

a0 a2
b1
r
Ve

Figura 1.6: El teorema de Ceva

Demostración.- Sean (α, β, γ) las coordenadas de p en {a0 , a1 , a2 }. En-


β γ
tonces b0 tiene coordenadas (0, , ), de donde se sigue que (b0 a1 a2 ) =
1−α 1−α
β
− .
γ
Del mismo modo se comprueba que las coordenadas de b1 y b2 son, respec-
α γ α β γ
tivamente, ( ,0 )y( , , 0). De modo que (b1 a2 a0 ) = − y
1−β 1−β 1−γ 1−γ α
α
(b2 a0 a1 ) = − , y se sigue de la Proposición 1.5.2 que
β
βγα
(b0 a1 a2 ) · (b1 a2 a0 ) · (b2 a0 a1 ) = − = −1.
γαβ

32 CAPÍTULO 1. ESPACIOS AFINES

1.5.5 Observación.- Los Teoremas de Ceva y de Menelao enuncian en reali-


dad una equivalencia, de la cual sólo hemos tratado aquı́ una implicación.

1.6. Orientación en espacios afines reales


1.6.1 Terminemos el capı́tulo haciendo un breve comentario sobre orientabili-
dad.
Sea E un espacio vectorial sobre R, y sea B = {→ −
e1 , . . . , −
e→
n } una base. Sea
0 →
− −
→ →
− →
− −

B = { v1 , . . . , vn } otra base, donde vi = v1i e1 + · · · + vni en . Sea P = (vij ) la
matriz de cambio de base. Decimos que B y B 0 tienen la misma orientación si
det P > 0.
Es obvio que existen sólo dos orientaciones posibles. Se llama orientar a E
a la elección de una de ellas. Una vez orientado E, se llama orientación positiva
a la elegida, y orientación negativa a la otra.
Por ejemplo, en Rn se toma como orientación positiva la de la base usual.

5
1.6.2 Obviamente, un espacio afı́n real se puede considerar también orientado,

-0
sin más que elegir una orientación en el espacio vectorial real subyacente.
05
9-
l2
de
n
r sió
Ve
Capı́tulo 2

Afinidades

2.1. La definición de afinidad

5
-0
2.1.1 Las afinidades, o aplicaciones afines, son a los espacios afines como las
05
aplicaciones lineales a los espacios vectoriales.
9-
l2

A1 A2
de

q f
p f(p) f(q)
n
r sió
Ve

E1 ~ E2
ϕ (p,q) f
1

ϕ (f(p),f(q))
2

Figura 2.1: La definición de afinidad.

Definición Una aplicación afı́n (o afinidad ) de (A1 , E1 , ϕ1 ) a (A2 , E2 , ϕ2 )


es un par formado por una aplicación f : A1 → A2 y una aplicación lineal

− −−−−−→
fe : E1 → E2 tales que fe(ab) = f (a)f (b) ∀a, b ∈ A1 .

33
34 CAPÍTULO 2. AFINIDADES

En otras palabras, el diagrama


f ×f
A1 × A 1 −→ A2 × A2 (a, b) 7 → (f (a), f (b))

ϕ1 ↓ ↓ ϕ2 ↓ ↓
fe e
ϕ1 (a, b) 7−→ f (ϕ1 (a, b)) = ϕ2 (f (a), f (b))
E1 −→ E2

conmuta.
A veces diremos simplemente que f es una aplicación afı́n si existe fe tal
que el diagrama anterior conmute. Se llama a fe aplicación lineal asociada a f
ó parte lineal de f .

2.1.2 La siguiente proposición proporciona una definición equivalente de afinidad.

Proposición Son equivalentes:



− −−−−−→
i) fe(ab) = f (a)f (b) ∀a, b ∈ A1
ii) f (a + →

u ) = f (a) + fe(→−
u ) ∀a ∈ A1 , ∀→

5
u ∈ E1 .

-0
05
Demostración.- Empezamos por demostrar i) ⇒ ii). Sea a+ →
−− −− − →
−u = b, es decir

− →

ab = →− e→
u . Por i), se tiene f( − e→
e ab) = f (a)f (b), es decir f (a) + f(
u ) = f( −
u ) = f (b).
9-

− e →

Luego f (a + u ) = f (a) + f ( u ).
l2


− →
− −−−−−−−−−− −→
ii) ⇒ i): Si llamamos → −
u a ab, entonces fe(ab) = fe(→ −u ) = f (a)f (a + → u) =
−−−−−→
de

f (a)f (b), donde hemos usado ii) en la segunda igualdad. 


n
sió

2.2. Algunas propiedades de las afinidades


r

2.2.1 En el fondo, una afinidad está casi completamente determinada por la


Ve

correspondiente aplicación lineal. De hecho, basta añadir la información sobre


la acción en un sólo punto de A para determinarla totalmente, como muestra el
resultado siguiente:

Proposición Si f, g son dos afinidades de A1 en A2 tales que f (p) = g(p)


para algún p ∈ A1 , y fe = ge, entonces f = g.

Demostración.- Dado a ∈ A1 , se tiene

f (a) = f (p + −
→ = f (p) + fe(−
pa) → = g(p) + ge(−
pa) → = g(p + −
pa) → = g(a),
pa)

donde la segunda y cuarta igualdad se deben a la proposición 2.1.2, y la tercera


es por hipótesis. 

2.2.2 Recı́procamente, decidir la imagen de un punto y una aplicación lineal


determina de manera unı́voca una afinidad:
2.2. ALGUNAS PROPIEDADES DE LAS AFINIDADES 35

Proposición i) Dada una aplicación lineal φ : E1 → E2 y un par de puntos


p ∈ A1 , q ∈ A2 , existe una única afinidad f : A1 → A2 tal que f (p) = q y fe = φ.

ii) Si dim(A1 ) = n y a0 , . . . , an son linealmente independientes (referencia ba-


ricéntrica) en A1 , y b0 , . . . , bn son n + 1 puntos arbitrarios de A2 , existe una
única afinidad f : A1 → A2 tal que f (ai ) = bi , i = 0, . . . , n.

Demostración.- i) Si existe tal f , de la proposición anterior se deducirá que


es única. Para demostrar la existencia, definimos f (p + → −u ) = q + φ(→−
u ) y com-
probamos que es afinidad de aplicación lineal asociada φ:
−−−−−→ −−−−−−−−−−−−−→−→ −−−−−−−−−−−−−−− −−→
→ (p + −
f (a)f (b) = f (p + −
pa)f pb) = (q + φ(−

pa))(q

+ φ( pb))

− → = φ(→
− − → = φ(→
− −
= φ( pb) − φ(−
pa) pb − pa) →
pb + ap)


= φ(ab)

5
ii) Como a0 , . . . , an es referencia baricéntrica, {− a− → −−→
0 a1 , . . . , a0 an } es base de

-0
−−→
E1 . Defino φ : E1 → E2 dando su acción en esta base, por φ(− 05 a− →
0 a k ) = b0 bk .
Ahora, si existe f debe cumplir que a0 va a b0 , y fe = φ puesto que fe(a −− →
0 ak ) =
−−−−−−−→ −−→
9-
f (a0 )f (ak ) = b0 bk .
Por la parte i), f está definida de manera única, y es f (a) = f (a0 + − a→
l2

0 a) =
−→ −− → −− →
b0 + φ(a 0 a). Observa que se cumple f (a k ) = b 0 + φ( a a
0 k ) = b 0 + b b
0 k = b k. 
de

2.2.3 Lo siguiente que debemos comprobar es que las afinidades pueden com-
n

ponerse sin problemas:


sió

Proposición Dadas f : A1 → A2 y g : A2 → A3 afinidades, entonces


r

g ◦ f : A1 → A3 es afinidad, y g]
Ve

◦ f = ge ◦ fe.

Demostración.- Basta hacer un sencillo cálculo:


−−−−−−−−−−−−−→ −−−−−−−−−−→ −−−−−→ →
− →

(g ◦ f (a))(g ◦ f (b)) = g(f (a))g(f (b)) = ge(f (a)f (b)) = ge(fe(ab)) = ge ◦ fe(ab)

2.2.4 La relación entre una afinidad y su aplicación lineal asociada es tan


estrecha, que el siguiente resultado deberı́a ser esperable:

Proposición Dada una afinidad (f, fe) de (A1 , E1 , ϕ1 ) en (A2 , E2 , ϕ2 ), se


cumple:
a) f inyectiva ⇔ fe inyectiva.
b) f sobreyectiva ⇔ fe sobreyectiva.
c) f biyectiva ⇔ fe biyectiva.

Demostración.- a) Comencemos por probar ⇒).


36 CAPÍTULO 2. AFINIDADES

−−−−−−−−−− −→
Dado que f (a)f (a + → w ) = fe(→−
w ) para cualquier → − e→
w , si f( −
u ) = fe(→

v ), se
−−−−−−−−−→ −
→ −−− −−−− −−−→
sigue que f (a)f (a + −u ) = f (a)f (a + →
−v ). Por la definición de espacio afı́n se
tiene f (a + →

u ) = f (a + →−
v ) y, como f es inyectiva, a + →−u = a+→ −
v . De nuevo
las propiedades de espacio afı́n aseguran que → −
u =→ −v.
e→− −−−−−→ → −
⇐) Si f (a) = f (b) entonces f( ab) = f (a)f (b) = 0 . Como fe es inyectiva se tiene

− →

ab = 0 , por lo que a = b.

b) ⇒) Sea → −v ∈ E2 . Busco → −u ∈ E1 tal que → −


v = fe(→ −u ). Sean a2 , b2 tales

− −−→
que v = a2 b2 . Como f es sobre, existen a1 , b1 tales que f (a1 ) = a2 , f (b1 ) = b2 .
−−−−−−−→ −−→ −−→
Luego →
−v = f (a1 )f (b1 ) = fe(a1 b1 ). Basta tomar →

u = a 1 b1 .
⇐) Sea a2 ∈ A2 . Busco a1 ∈ A1 tal que f (a1 ) = a2 . Sea p2 ∈ Im(f ), p2 = f (p1 ).
Sea −
→2 = −
u p− → e −
→ e− → −
→ −−→
2 a2 . Como f es sobre, existe u1 tal que f (u1 ) = u2 = p2 a2 . Sea

→ e −
→ −

a1 = p1 + u1 . Entonces f (a1 ) = f (p1 ) + f(u1 ) = p2 + u2 = a2 . 

2.2.5 De lo anterior, se deduce fácilmente que la inversa de una afinidad biyec-


tiva es afinidad:

5
-0
Proposición Si f es una afinidad biyectiva de (A1 , E1 , ϕ1 ) en (A2 , E2 , ϕ2 )
con aplicación lineal asociada fe, entonces f −1 es afinidad con aplicación lineal
05
asociada fg e −1 .
−1 = (f)
9-
l2

Demostración.- Dados a2 , b2 ∈ A2 , sean a1 = f −1 (a2 ), b1 = f −1 (b2 ).


−−−−−−−−−−−→ −−→ −−−−−−−→ −−→
Entonces fe(f −1 (a2 )f −1 (b2 )) = fe(a1 b1 ) = f (a1 )f (b1 ) = a2 b2 , de modo que
de

−− −− −− − −−− −→ −−→
f −1 (a2 )f −1 (b2 ) = (fe)−1 (a2 b2 ), por lo que f −1 es afı́n, y tiene como aplicación
lineal asociada a (fe)−1 .
n


sió

2.2.6 Estamos ya en condiciones de definir la noción natural de isomorfismo


r
Ve

entre espacios afines:

Definición Una afinidad biyectiva se llama isomorfismo afı́n. Dos espacios


afines son isomorfos si existe un isomorfismo afı́n entre ellos.

Observaciones
• Si (A1 , E1 , ϕ1 ) es isomorfo a (A2 , E2 , ϕ2 ), entonces existe f : A1 → A2 iso-
morfismo afı́n. En particular, fe : E1 → E2 es una aplicación lineal biyectiva, de
modo que E1 es isomorfo a E2 .
• Recı́procamente, si E1 es isomorfo a E2 y φ : E1 → E2 es isomorfismo,
tomamos a1 ∈ A1 , a2 ∈ A2 , y existe una única afinidad f con f (a1 ) = a2 y
fe = φ. Como φ es biyectiva, f también lo es, de modo que (A1 , E1 , ϕ1 ) es
isomorfo a (A2 , E2 , ϕ2 ).
• Se deduce que dos espacios afines de dimensión finita sobre el mismo cuerpo
K son isomorfos si y sólo si tienen la misma dimensión. En particular, todos los
espacios afines de dimensión n sobre K son isomorfos al espacio afı́n estándar
Kn .
2.3. ALGUNOS EJEMPLOS IMPORTANTES DE AFINIDADES 37

2.3. Algunos ejemplos importantes de afinidades


En esta sección nos vamos a ocupar de tratar algunos tipos importantes de
afinidades de un espacio afı́n en sı́ mismo.
2.3.1 Definición Sea (A, E, ϕ) un espacio afı́n. Dado → −v ∈ E, la aplicación
T− que envı́a p al único punto q tal que →

pq = →

v (es decir, T− →

→v v (p) = p + v ) se

llama traslación de vector →−v en A.

2.3.2 Es muy sencillo comprobar que las traslaciones son, en efecto, afinidades:
−−−−−−−−−→ −−−−−→ → − −−−−−→
T−
→v (a)T−v (b) = T−
→ →v (a)a + ab + bT− v (b)

−−−−−→ → − −−−−−→
= −aT−
→ v (b)
v (a) + ab + bT−


− −
= −→

v + ab + →
v

5

-0
= ab


= Id(ab),
05
9-
de modo que T− g
→ v = Id.
v es afinidad, y T−

l2
de

Recı́procamente, si f es una afinidad tal que fe = Id, dados a, b cualesquiera


−−−−−→ →
− →

se tiene f (a)f (b) = fe(ab) = ab. Luego, por la identidad del paralelogramo,
−−−→ −−−→ −−−→ −−−→ →
n

f (a)a = f (b)b, es decir af (a) = bf (b) = −


v0 (el mismo vector independientemente
sió

del punto).
−−−→
Ası́ que f (p) = p + pf (p) = p + → −
v0 = T−→ v0 .
v0 (a), por lo que f = T−

r
Ve

Hemos comprobado, por tanto:

Proposición Una afinidad f de (A, E, ϕ) en sı́ mismo cumple fe = Id|E si


y sólo si es una traslación.

2.3.3 Si E es un espacio vectorial, y (E, E, ϕ) es la estructura natural de



− →
− →−
w : u 7→ u + w son aplicaciones
espacio afı́n sobre E, entonces las traslaciones T−

afines de (E, E, ϕ), pero no son aplicaciones lineales del espacio vectorial E (a


menos que → −
w = 0 , que corresponde a la identidad).
2.3.4 A continuación de las traslaciones, las afinidades más sencillas son las
homotecias.

Definición Una afinidad f : A → A es una homotecia de razón r (r 6= 0, 1)


si fe = rId|E .
38 CAPÍTULO 2. AFINIDADES

2.3.5 A diferencia de las traslaciones, las homotecias fijan algún punto. ¿Cómo
calcular a tal que f (a) = a?:

f (a) = f (p + −
→ = f (p) + fe(−
pa) → = f (p) + r −
pa) →
pa

para un p cualquiera, de modo que

a = f (a)

a = f (p) + r −

pa

m
−−−→ → −−−→
f (p)p + −
pa = f (p)a = r−

pa

5
m

-0

→=
05
1 −−−→
pa pf (p)
1−r
9-
l2

1 −−−→
Ası́ que dado p ∈ A cualquiera, el punto p + pf (p) = a es un punto fijo
1−r
de

−−−→
por f . Sea entonces a un punto fijo. Dado cualquier x ∈ A, tenemos af (x) =
−−−−−−→
f (a)f (x) = fe(−
→ = r−
ax) → por lo que f (x) = a + r −
ax, →
ax.
n
sió

Vemos entonces que sólo hay un punto fijo, puesto que si b 6= a fuera otro

− →
− →

r

punto fijo, entonces b = f (b) = a + r ab ⇒ ab = r ab ⇒ r = 1.


Ve

Al único punto fijo se le llama centro de la homotecia, y al número r su


razón. Una vez conocidos centro y razón, la homotecia queda determinada por

f (x) = a + r−

ax.

2.3.6 Ejemplo
En la figura 2.2 está representada una homotecia en R2 de razón r = −2 y
centro a = (1, 1).
Observa que f lleva rectas en rectas, conservando además la noción de para-
lelismo. Sin embargo, f no preserva distancias, al menos con la noción habitual
de distancia. Volveremos a este tipo de consideraciones más adelante.

2.3.7 El siguiente tipo de afinidades que vamos a tratar son las proyecciones.

Definición Una aplicación afı́n f : A → A es una proyección si f 2 = f .


2.3. ALGUNOS EJEMPLOS IMPORTANTES DE AFINIDADES 39

f(q)
p
a
f(p)
q

Figura 2.2: Una homotecia de razón −2.

5
2.3.8 El estudio de las propiedades de las proyecciones va a dejar claro el

-0
porqué del nombre: 05
9-
En primer lugar, observamos que si b es un punto fijo (es decir, tal que
f (b) = b), entonces b ∈ Im(f ) (lo cual es obviamente cierto para cualquier
l2

afinidad). Pero si f es proyección y b ∈ f (A), existe a tal que b = f (a), de modo


de

que f (b) = f 2 (a) = f (a) = b, y b es punto fijo.


Resumiendo:
n
sió

{Puntos fijos de una proyección f } = Im(f ).


r
Ve

Por otra parte, si f es proyección entonces (fe)2 = fe (compruébalo: es un


ejercicio sencillo). De modo que el polinomio mı́nimo mfe de fe divide a x2 − x
(dado que (f) e 2 − fe ≡ →

0 ). Recuerda en este punto que el polinomio mı́nimo es el
polinomio mónico de menor grado al que anula la aplicación lineal; el polinomio
caracterı́stico es múltiplo de él.
Ası́ que, según sea m− → , hay tres casos posibles:
f
e e −−−−−→ e→
− →

(i) Si mfe(x) = x ⇒ f = 0. De modo que f (a)f (b) = f( ab) = 0 ∀a, b ⇒ f (b) =
f (a) ∀a, b, de modo que f es constante.
(ii) Si mfe(x) = x − 1 entonces fe = Id|E , de modo que fe es una traslación. Pero,
siendo una proyección, f tiene puntos fijos, ası́ que necesariamente f = T− →=
0
Id|A . L
(iii) Si mfe(x) = x(x − 1), el álgebra lineal muestra que E = E0 E1 donde E0
e →

es un subespacio invariante en el que f| ≡ 0 (autoespacio de autovalor 0), y
E0

E1 es subespacio invariante en que fe|E1 = Id|E1 (autoespacio de autovalor 1).


40 CAPÍTULO 2. AFINIDADES

Obviamente los dos primeros casos carecen de mucho interés. Para el tercero,
si p es un punto fijo y a es un punto cualquiera entonces
f (a) = f (p + −

pa)

= f (p) + fe(−
→0 + −
u →1 )
u

= f (p) + fe(−
→0 ) + f(
u e− →1 )
u

= f (p) + −
→1
u

= p+−
→1 ,
u

donde −→=−
pa →0 + −
u → −

Lu1 es la descomposición de pa asociada a la de E como suma
directa E = E0 E1 .
De modo que f (a) ∈ p + E1 . Por otra parte, se tiene
−−−→ −−−→ →
f (a)a = f (a)p + −

5
pa

-0
= −→

u1+→

u0 +→
05 −
u1
9-
= →

u 0 ∈ E0 .
l2

Por tanto hemos comprobado que f (a) ∈ (a + E0 ) ∩ (p + E1 ), donde p es un




de

punto fijo. Como (a+E0 )∩(p+E1 ) es una variedad de dirección E0 ∩E1 = { 0 },


deducimos que
n

{f (a)} = (a + E0 ) ∩ (p + E1 ),
sió

lo cual caracteriza f (a) geométricamente.


r
Ve

2.3.9 Ejemplos
• La figura 2.3 representa una proyección sobre una recta en dirección paralela
a otra recta en R2 .

• En R3 hay dos posibilidades diferentes: el caso dim(E0 ) = 2, dim(E1 ) = 1, ver


figura 2.4 (proyección sobre una recta p + E1 en dirección paralela a un plano
p + E0 ), o el caso dim(E0 ) = 1, dim(E1 ) = 2, ver figura 2.5 (proyección sobre
un plano en dirección paralela a una recta).

2.3.10 En dimensión 3 no existe algo ası́ como proyectar sobre una recta en
dirección paralela a otra recta (no cuadran las dimensiones).

Hay que hacer constar también que las proyecciones no son, en general,
biyectivas (lo cual es una diferencia importante respecto a las traslaciones y
homotecias).

Otra observación importante, del mismo tipo de la que hicimos en la sección


2.3.3 sobre traslaciones en un espacio vectorial E equipado de su estructura
2.3. ALGUNOS EJEMPLOS IMPORTANTES DE AFINIDADES 41

E
A
E1 E0
a
p
a+ E0
p+ E1

f(a)

5
-0
05
Figura 2.3: Proyección sobre una recta en R2 .
9-
l2
de
n
sió

E A
r
Ve

a+ E0
E1
f(a) p+ E1
E0
p

Figura 2.4: Proyección sobre una recta en R3 .


42 CAPÍTULO 2. AFINIDADES

E A

E1
p+ E1

a+ E0 f(a)

E0 a
p

Figura 2.5: Proyección sobre un plano en R3 .

5
-0
canónica de espacio afı́n. En ese caso, cualquier proyección sobre un subespa-
05
cio vectorial en dirección de otro subespacio vectorial (de las dimensiones ade-
9-
cuadas) es una aplicación lineal. Las proyecciones sobre variedades lineales que
no pasen por el origen de E son afinidades pero no son aplicaciones lineales.
l2
de

2.3.11 Tras las proyecciones, y estrechamente relacionadas con ellas, estudia-


mos las simetrı́as.
n
sió

Definición Una afinidad f : A → A es una simetrı́a si f 2 = IdA .


r
Ve

2.3.12 Supongamos char(K) 6= 2. Sea f una simetrı́a.


1 1
Sea a un punto cualquiera, y sea m definido por m = a + f (a), es decir,
2 2
−→ = 1−
pm → + 1 pf
pa
−−−→
(a) ∀p ∈ A.
2 2
Tomando p = a vemos − → = 1 af
am
−−−→
(a). Por tanto
2
 
−−−−−−→ → = fe 1 af −−−→ 1 −−−→ 1 −−−−−−→ 1 −−−→
f (a)f (m) = fe(−
am) (a) = fe(af (a)) = f (a)f 2 (a) = f (a)a,
2 2 2 2

−−−−−−→ 1 −−−→ 1 −−−−−−→


de modo que f (a)f (m) = f (a)a + f (a)f (a), de lo que podemos deducir que
2 2
1 1
f (m) = a + f (a) = m.
2 2
Ası́ que: una simetrı́a siempre fija el punto medio entre un punto cualquiera
y su imagen.
2.3. ALGUNOS EJEMPLOS IMPORTANTES DE AFINIDADES 43

2.3.13 No es difı́cil comprobar que si f es simetrı́a entonces (fe)2 = Id, de


modo que mfe divide a x2 − 1 = (x − 1)(x + 1). Casos:
• (i) mfe(x) = x − 1 ⇔ fe = IdE ⇔ f es una traslación. Como tiene puntos fijos,
f = IdA .
• (ii) mfe(x) = x + 1 ⇔ fe = −IdE ⇔ f es una homotecia de razón r = −1. Por
tanto existe un único punto fijo p y para cualquier a se tiene


f (a) = p − pa

m
−−−→
pf (a) = −−

pa

− −−−→ −−−→ −−−→ −


→ + af →
pa (a) = f (a)p + af (a) = ap

5
m

-0
→ = 1 af
− −−−→ 1 −−−→ 1 − →
05
ap (a) = af (a) + aa
9-
2 2 2
l2

m
de

1 1
p= a + f (a).
2 2
n
sió

En realidad, el cálculo anterior era previsible por lo que sabı́amos. El único


punto fijo, centro de la homotecia de razón −1, es el punto medio entre cada
r

punto y su imagen (ver figura 2.6).


Ve

(También se llama a una aplicación como esta simetrı́a central de centro p).
L
• (iii) mfe(x) = (x + 1)(x − 1) ⇒ E = E1 E−1 , donde E1 es el autoespacio
e e
de f de autovalor 1 (f|E1 = IdE1 ) y E−1 es el autoespacio de autovalor −1
(fe|
E−1
= −IdE ).
−1

Si p es un punto fijo de f y a ∈ A es cualquier otro punto, entonces


f (a) = f (p + − →
pa)

e−
= f (p) + f( →
pa)

e→
= p + f( −
u 1 ) + fe(→

u −1 )

= p+→

u1−→

u −1 ,

→ = →
donde pa −
u1 + →

u −1 , →
− , →
u 1 ∈ E1L − −

u −1 ∈ E−1 es la descomposición de pa
asociada a la suma directa E = E1 E−1 .
44 CAPÍTULO 2. AFINIDADES

f(q)
p
a
f(p)
q

Figura 2.6: Una simetrı́a central en R2 .

5


Como a = p + →

u1 +→

u −1 , se tiene a = f (a) ⇔ →

-0
u −1 = 0 ⇔ a ∈ p + E1 .
05 1 1
Ya sabı́amos {Puntos fijos de f} = {Puntos medios a + f (a), a ∈ A}. En-
2 2
9-
tonces ∀a ∈ A se tiene
l2

1 1
a + f (a) ∈ p + E1 ,
2 2
de

−−−→
y si a = p + u 1 + u −1 entonces af (a) = −2→

− →
− −
u −1 (pues f (a) = p + →

u1 −→

u −1 ).
De modo que
n
sió

f (a) ∈ a + E−1 .
Estas dos condiciones determinan f (a).
r
Ve

Llamamos a esta aplicación simetrı́a respecto a p + E1 en la dirección de


E−1 .

2.3.14 Ejemplos
En las figuras 2.7 , 2.8, 2.9 vemos ejemplos de simetrı́as en R2 y R3 (obvia-
mente relacionadas con las proyecciones descritas en la sección 2.3.9).
Nota que el mismo tipo de observaciones que hicimos en la sección 2.3.10
al respecto de las distintas posibilidades que existen en función del espacio am-
biente se aplican también al caso de las simetrı́as.

2.3.15 Ejemplo
Consideremos la aplicación f : R2 → R2 definida por
 8 3 4   8   3 4 
+ x− y − 
  x
x  5 5 5   5   5 5 
7→ 

=
 
+
 



y 16 4 3 16 4 3
− x− y − − y
5 5 5 5 5 5
2.3. ALGUNOS EJEMPLOS IMPORTANTES DE AFINIDADES 45

E
A
E1 E−1
a+ E
−1
p

p+ E1
a

f(a)

5
-0
05
Figura 2.7: Simetrı́a sobre una recta en R2 .
9-
l2
de
n
sió

E A
r
Ve

a+ E−1

E1 f(a)
p+ E1
E−1
p
a

Figura 2.8: Simetrı́a sobre una recta (en dirección a un plano) en R3 .


46 CAPÍTULO 2. AFINIDADES

E A

E1
f(a)
p+ E1
a+ E−1
E−1 a
p

Figura 2.9: Simetrı́a sobre un plano (en dirección a una recta) en R3 .

5
-0
Se comprueba directamente que 05
     
8 3 8 3 4 4 16 4 3
9-
   + + x − y − − x − y
x  5 5 5 5 5 5 5 5 5 
 
l2


f f    =      


y  16 4 8 3 4 3 16 4 3 
de

− + x− y − − x− y
5 5 5 5 5 5 5 5 5
n

 
x
sió

=  ,
r

y
Ve

por lo que f es una simetrı́a.


 3 4 

 5 5 
Si A =  , se tiene det(A − λI) = λ2 − 9 − 16 = 0, con lo que
  25 25
4 3
− −
5 5
los autovalores son λ ± 1, como esperábamos.
Para el autovalor λ = 1 tenemos
 2 4 
− −   
 5 5  x 0
ker(A − I) →  


 =  ,
4 8 y 0
− −
5 5
ası́ que el autoespacio correspondiente (que da la dirección de la variedad sobre
la que se hace la reflexión) tiene ecuación x = −2y. Un vector generador es, por
ejemplo, (−2, 1).
2.4. PROPIEDADES DE LAS AFINIDADES 47

Si buscamos un punto fijo, tenemos que resolver


8 3 4 
+ x− y = x 


5 5 5
16 4 3 

− x− y = y 
5 5 5
que da x = 4 − 2y. Por ejemplo el punto (4, 0) es un punto fijo, de modo que
f es una simetrı́a respecto de la recta (4, 0) + h(−2, 1)i, que tiene ecuación
x−4 y−0
= , es decir x + 2y − 4 = 0 (obviamente, es la misma ecuación que
−2 1
obtuvimos al buscar los puntos fijos).
¿Y cuál es la dirección de reflexión?
 8 4 
−   
 5 5  x 0

5
ker(A + I) → 



 =  ,

-0
4 2 y 0

05
5 5
que da la ecuación x = 2y.
9-
l2

p+E1 E−1
de
ón
si

p
er
V

Figura 2.10: Simetrı́a sobre x + 2y − 4 = 0 en la dirección de x = 2y.

2.4. Propiedades de las afinidades


2.4.1 La primera propiedad interesante es respecto a variedades lineales

Proposición (a) Si f : A1 → A2 es una aplicación afı́n y a + F es una


variedad lineal de A1 , entonces f (a + F ) es variedad lineal de A2 y f (a + F ) =
f (a) + fe(F ).
48 CAPÍTULO 2. AFINIDADES

(b) Si b + G es una variedad lineal de A2 , a ∈ f −1 (b + G) y f es inyectiva,


entonces f −1 (b + G) es variedad lineal de A1 y f −1 (b + G) = a + fe−1 (G).

Demostración.- (a) Sean p, q ∈ f (a + F ). Existen → −u ,→


−v ∈ F tales que
−− −−−−− −− −− −− −

p = f (a + u ), q = f (a + v ), con lo que pq = f (a + u )f (a + v ) = fe(→

− →
− →
− →
− →
− −
v −→
−u) ∈
e
f(F ).

(b) Si x ∈ f −1 (b + G), entonces f (x) ∈ b + G. Como además f (a) ∈ b + G


→ =−

por hipótesis, fe(ax)
−−−−−→
f (a)f (x) ∈ G.
Luego x = a + − → cumple −
ax → ∈ fe−1 (G), puesto que fe(−
ax → ∈ G. Ası́ que
ax)
−1 e
f (b + G) ⊂ a + f (G).−1

Recı́procamente, si x ∈ a + fe−1 (G), entonces ax−→ ∈ fe−1 (G), de modo que


−−−−−−→ −−−→
f (a)f (x) = fe(−→ ∈ G. Pero también f (a)b ∈ G por hipótesis (f (a) ∈ b + G),
ax)
−−−→ −−−→ −−−−−−→
luego bf (x) = bf (a) + f (a)f (x) ∈ G, y por lo tanto f (x) ∈ b + G de modo que
x ∈ f −1 (b + G) 

5
2.4.2 Corolario Si f es afinidad de A1 en A2 entonces:

-0
(a) Im(f ) es variedad lineal de dimensión rango(fe).
05
(b) f lleva variedades lineales paralelas en variedades lineales paralelas.
9-
Demostracion.- (a) Simplemente porque dim(fe(E1 )) = rg(fe).
l2

(b) Es muy sencillo, y lo dejamos como ejercicio. 


de

2.4.3 Una observación importante es que tres puntos alineados (i.e. que están
en una recta) van por una aplicación afı́n a tres puntos alineados (o los tres al
n

mismo):
sió

−−−−−−−→
Si a3 ∈ a1 +h−a−→ e −−→
1 a2 i entonces f (a3 ) ∈ f (a1 )+ f(ha1 a2 i) = f (a1 )+hf (a1 )a(a2 )i,
r

que es una variedad lineal de dim 0 si f (a1 ) = f (a2 ) o una recta si no. Esta
Ve

observación, junto al corolario anterior, muestra que:

Las afinidades conservan la colinearidad y el paralelismo

2.4.4 Proposición Si el conjunto de puntos de una afinidad f : A → A es


no vacı́o, entonces es una variedad lineal con dirección dada por el espacio de
autovectores de fe de autovalor 1.

La demostración es un ejercicio sencillo.

2.4.5 En esta sección enunciamos unos pocos resultados que muestran el buen
comportamiento de las afinidades respecto de las coordenadas baricéntricas. Las
demostraciones, que omitimos aquı́, pueden ser completadas por el lector.
Xr
Proposición Si f : A1 → A2 es una afinidad y x = xi ai , en coordenadas
i=1
r
X
afines (x1 + · · · + xr = 1), entonces f (x) = xi f (ai ).
i=1
2.5. AFINIDADES Y COORDENADAS 49

Corolario Toda aplicación afı́n lleva el baricentro de r puntos al baricentro


de sus imágenes.

Es decir, que las afinidades se comportan en coordenadas afines como apli-


caciones lineales. De hecho, el recı́proco es cierto:

Proposición Una aplicación f : A1 → A2 es afı́n ⇔ siempre que x1 + · · · +


r
X r
X
xr = 1 se tiene f ( xi a i ) = xi f (ai ).
i=1 i=1

2.4.6 Otra caracterización de las afinidades se puede dar en términos de ra-


zones simples. Recordemos que (a1 a2 a3 ) = r quiere decir −
a−→ −−→
1 a3 = r a1 a2 (ver la
definición 1.5.1).
Lema Las afinidades preservan la razón simple.

5
Demostración.- Basta calcular:

-0

a−→ −−→
1 a3 = r a1 a2 05

9-
l2

−−−−−−−→ −−−−−−−→
f (a1 )f (a3 ) = fe(r−
a− → e −−→
1 a2 ) = r f (a1 a2 ) = r f (a1 )f (a2 )
de


n
sió

(f (a1 )f (a2 )f (a3 )) = r


r


Ve

De hecho, el hecho de preservar las razones simples y la relación de colin-


earidad caracteriza también las afinidades:

Teorema Si K no es de caracterı́stica 2, una aplicación f : A1 → A2 es


afinidad si y sólo si conserva alineaciones de puntos y sus razones simples.

Para la demostración, consúltese el libro [Ca-Ll].

2.5. Afinidades y coordenadas


2.5.1 Comencemos por estudiar cómo es una afinidad en coordenadas carte-
sianas. Veremos que siempre es una expresión del tipo f (x) = b + M x.

Sea f : A1 → A2 una afinidad, y R1 = {p; →−


e1 , . . . , e−
→ −
→ −→
n }, R2 = {q; u1 , . . . , um }
referencias cartesianas de A1 y A2 respectivamente. Como ya sabemos,

→ = f (p) + f(
f (x) = f (p + px) −

e px)
50 CAPÍTULO 2. AFINIDADES

Sean (x1 , . . . , xn ) las coordenadas de x en R1 , y M = (aij ) (donde i =


1, . . . , m, y j = 1, . . . , n) la matriz de fe en las bases B1 = {→−
e1 , . . . , e−
→n } de E1 y

→ −→ e →
− −
→ −→
B2 = {u1 , . . . , um } de E2 (es decir, f( ej ) = aij u1 + · · · + amj um ).
Entonces las coordenadas de fe(− → en B2 son
px)
  
a11 · · · a1n x1
 ..   ..  .
M · x =  ... .  . 
am1 · · · amn xn

Si b = (b1 , . . . , bm ) son las coordenadas de f (p) en R2 , entonces las coorde-


nadas de f (x) en R2 son
      
e1
x b1 a11 ··· a1n x1
 ..   ..  +  .. ..   ..  ,
 . = .   . .  . 
em
x bm am1 · · · amn xn

5
que también se suele escribir

-0
    
xe1 a11 · · · a1n b1 x1
 ..   ..
 .   .
 =
..
.
05 ..   .. 
.  
 . .

9-
 xem   am1 · · · amn bm   xn 
l2

1 0 ··· 0 1 1
 
de

M b
La matriz N = es la matriz de la afinidad f en las referencias
0 1
R1 y R2 . Nota que coordenada a coordenada es:
n


sió

e1 = a11 x1 + · · · + a1n xn + b1 
x 
..
r

. 
Ve


xem = am1 x1 + · · · + amn xn + bm
Observacion.- Dadas ecuaciones en coordenadas como las anteriores, existe
 aplicación afı́n g : A1→ A2 cuya matriz en las referencias R1 , R2 dadas es
una
a11 · · · a1n b1
 .. .. .. 
 . . . 
 . Es decir, que hay una correspondencia 1 − 1 entre
 am1 · · · amn bm 
0 ··· 0 1  
M b
afinidades y ecuaciones del tipo f (x) = b + M x (⇔ Matrices ).
0 1
2.5.2 La proposición siguiente nos asegura que una composición de afinidades
se traduce en coordenadas en un producto de matrices.

Proposición (a) Sean A1 , A2 , A3 espacios afines con referencias carte-



M b
sianas R1 , R2 , R3 . Si la matriz de f1 : A1 → A2 en R1 y R2 es N =
0 1
2.5. AFINIDADES Y COORDENADAS 51
 
C d
y la de f2 : A2 → A3 en R2 y R3 es L = , entonces f2 ◦f1 es afinidad
   0 1 
C d M b CM Cb + d
con matriz LN = = .
0 1 0 1 0 1
 
M b
(b) Si f: A → A es afinidad biyectiva con matriz N = en la
0 1
referencia cartesiana R, entonces f −1 : A → A es afinidad con matriz N −1 =
 −1
M b
.
0 1
Demostración.- (a) f2 ◦ f1 (x) = f2 (f1 (x)). Si (x1 , . . . , xn ) son las coorde-
nadas en R1 , f (x) tiene coordenadas M x + b en R2 ⇒ f2 (f1 (x)) tiene coorde-
nadas C(M x + b) + d = CM x + (Cb + d) en R3 . Como
    
C d M b CM Cb + d
LN x = = x = CM x + (Cb + d) X
0 1 0 1 0 1

5
(b) f ◦ f −1 = Id tiene como matriz (en cualquier referencia cartesiana) la

-0
identidad. 05 
9-
2.5.3 Nos interesa ahora saber cómo cambian las ecuaciones de una afinidad
al cambiar la referencia. La razón es que hay referencias en las que una afinidad
l2

dada tiene un aspecto sencillo, y nos interesará en lo sucesivo ser capaces de


de

cambiar de una referencia cualquiera a una de estas.


n

Ejemplo
sió

E
r
Ve

A
G
F
v r
e1
0
u
e2

r+F

Figura 2.11: Una referencia mal adaptada a una reflexión, y otra bien adaptada.
52 CAPÍTULO 2. AFINIDADES

Las ecuaciones de la simetrı́a respecto a r + F en dirección G en la refe-


rencia R = {0; → −
u,→−
v } tienen un aspecto complicado. Sin embargo, en R0 =

− →

{r; e 1 , e 2 } es inmediato:
• f (r) = r ⇒ coordenadas (0, 0) en R0 .
−−−−−−−−− → −−−−−− −→ →
• fe(→

e1 ) = f (r)f (r + →

e1 ) = r(r + →
e1 ) = −
e1 ⇒ coordenadas (1, 0) en {→

e1 , →

e2 }.
− −−− −−−− −→ −−− −−−→
• f( e2 ) = f (r)f (r + e2 ) = r(r − e2 ) = − e2 ⇒ coordenadas (0, −1) en {−
e →
− →
− →
− →
− →
e1 , →

e2 }.
 
1 0 0
Luego la matriz de f en R2 es  0 −1 0 . Es decir, si (y1 , y2 ) son
0 0 1
coordenadas de un punto en R2 , (y1 , −y2 ) son las coordenadas (en R2 ) de su
imagen por f .

En general:
Sea f : A1 → A2 afinidad de ecuación x̄ = b + M x en las referencias carte-
sianas R1 = {p; →

e1 , . . . , −
e→ −
→ −→
n } de A1 y R2 = {q; u1 , . . . , um } de A2 .
0 →− −
→ 0 −→ −→
Sean R1 = {p ; e1 , . . . , en } y R2 = {q ; u1 , . . . , um 0 } dos nuevas referencias
0 0 0 0 0

5
de A1 y A2 respectivamente. Buscamos las ecuaciones de f en R01 y R02 :

-0
A1,R1
f
05
→ A2,R2
9-
IdA1 ↓ ↓ IdA2
f
l2

A1,R01 → A2,R02
de

Si las ecuaciones de IdA1 : A1,R01 → A1,R1 son x = c + Rx0 , las de f : A1,R1 →


A2,R2 son x̄ = b + M x y las de IdA2 : A2,R2 → A2,R02 son x̄0 = a + T x̄, entonces
n

las de f : A1,R01 → A2,R02 son


sió

 0      0 
x̄ T a M b R c x
=
r

1 0 1 0 1 0 1 1
Ve

  
T M R a + T (b + M c) x0
= .
0 1 1

2.5.4 Ejemplo.- Reflexión sobre una recta de R2 (ver la figura 2.12).


R = {o; −
→1 , −
u →2 }, R0 = {r; −
u →
v1 , →

v2 }.
Vimos que las ecuaciones de f en R0 son
 0    
y1 1 0 0 x01
 y20  =  0 −1 0   x02  .
1 0 0 1 1

Describimos R0 en función de R:


or = 6− →1 + 3−
u →2
u

− 3 − 1
→1 + − →2
v1 = u u
2 2

− 1→ 3−
v2 = − − u1 + u →2
2 2
2.5. AFINIDADES Y COORDENADAS 53

E A r
E−1 E1 L
v2 u2 v1
u1 o

Figura 2.12: Ejemplo de cambio de referencia para una simetrı́a en R2 .

Luego Id : AR0 → AR tiene ecuación


 3 1 
− 6
   2 2  0 

5
x1   x1
 

-0
 x2  =  1 3   x02  .
 3  05
 
1  2 2  1
9-
0 0 1
l2

Al contrario,
de

 3 1 −1  3 1 21 
− 6 −
 0   2 2     5 5 5  
n

x1   x1   x1
   
sió

 x02  =  1 3   x2  =  1 3 3   x2  .
 3   − − 
1  2 2  1  5 5 5  1
r

   
Ve

0 0 1 0 0 1
Luego la ecuación de f en R es
 3 1   3 1 21 
− 6   −
   2 2  1 0 0  5 5 5  
y1     x1
   
 y2  =  1 3   0 −1 0   1 3 3   x2 
 3    − − 
   5 5 
1  2 2   5  1
0 0 1
0 0 1 0 0 1
 4 3 3 

 5 5 5  
  x1
 
=  3 4 9   x2  ,
 − 
 5 5 5  1
 
0 0 1
54 CAPÍTULO 2. AFINIDADES

ó  3   4 3 
  −  
y1  5   5 5  x1
=

+
 

 .
y2 9 3 4 x2

5 5 5

2.6. Variedades Invariantes


2.6.1 Las variedades invariantes de una afinidad f son aquellas a las que se
puede restringir f , dado que la imagen de todos los puntos de la variedad queda
dentro de ella. Es decir:

Definición Dada f : A → A aplicación, una variedad lineal q + F es


invariante o doble por f si f (q + F ) ⊂ q + F .

2.6.2 Observa que si → −


v ∈ F, f (q + →− e→
v ) = f (q) + f( −
v ).

5
−−−−−−−−− →
Ası́ que si f (q) ∈ q + F, f (q + v ) ∈ F ⇒ f ( v ) = f (q)f (q + →

− e →
− −

-0
v ) ∈ F.
Luego fe(F ) ⊂ F , es decir, F es un subespacio invariante por fe. En particular,
05
si q + F es invariante por f y F = h→ −u i, entonces →−u es autovector de fe. El
9-
recı́proco no es cierto: no toda recta p + h v i donde →

− −
v sea autovector de Fe
l2

−−−→ →

queda invariante. Hace falta además que pf (p) ∈ h v i (como se ve claramente
en el ejemplo 2.6.6).
de

2.6.3 Ejemplo.- R2 , proyección en una recta L en la dirección del espacio G


n

(figura 2.13).
sió

b
r

L
Ve

f(b)

Figura 2.13: Una proyección sobre una recta.

Cada punto de L queda fijo; cada p ∈ L es una subvariedad invariante


de dimensión 0 de f . Dado b, los puntos de M = b + G no quedan fijos, pero
f (M ) ⊂ M , luego cada recta paralela a G es subvariedad invariante de dimensión
1. Todo el plano es, obviamente, una subvariedad invariante de dimensión 2.
(Lo mismo para una reflexión)
2.6. VARIEDADES INVARIANTES 55

2.6.4 Observaciones:
• El conjunto de puntos fijos de una afinidad es una variedad lineal.
• Si existe un punto fijo, la variedad de puntos fijos tiene como dirección el
autoespacio de autovalor 1.


• Las traslaciones por →

v 6= 0 no tienen puntos fijos.
• Las proyecciones sobre una variedad y las simetrı́as en una variedad tienen a
dicha variedad como conjunto de puntos fijos.
• f tiene un único punto fijo exactamente cuando 1 no es autovalor de f. e Lo
comprobamos:
Como en coordenadas cartesianas f (x) = x̄ = b + M x, x es punto fijo ⇔
x = x̄ = b + M x ⇔ −b = (M − I)x ⇔ x es solución del sistema
   
x1 b1
   
(M − I)  ...  = −  ...  ,
xn bn

por lo que el punto fijo es único exactamente cuando det(M −I) 6= 0, i.e. cuando

5
1 no es autovalor.

-0
2.6.5 Según su dimensión:
05
• dim 0; Un punto p es invariante por f si f (p) = p, i.e. p punto fijo.
9-
• dim 1; rectas invariantes ⇔ rectas de dirección un autovector → −v de fe que
l2

−−−→ →

pasen por un punto p tal que pf (p) ∈ h v i.
de

• dim n − 1; hiperplanos invariantes de una afinidad biyectiva:


Si las ecuaciones de f son
n


x̄1 = a11 x1 + · · · + a1n xn + b1 
sió


.. ,
. 
r


Ve

x̄n = an1 x1 + · · · + ann xn + bn

el hiperplano π : c1 x1 + · · · cn xn + c = 0 es invariante si
n
X n
X n
X
ci x̄i = c1 (b1 + a1i xi ) + · · · + cn (bn + ani xi ) + c
i=1 i=1 i=1
n
X n
X n
X
= ( ci ai1 )x1 + · · · + ( ci ain )xn + ( ci bi ) + c = 0,
i=1 i=1 i=1

que es la ecuación de f −1 (π), es una ecuación que define el mismo plano que π,
i.e. si
c1 cn c
= ··· = = .
c1 a11 + · · · + cn an1 c1 a1n + · · · + cn ann c1 b1 + · · · + c n bn + c
2.6.6 Ejemplo.- Sea f : A → A de ecuaciones

x̄ = −2x + 1
ȳ = 3x + y − 1
56 CAPÍTULO 2. AFINIDADES

• Los puntos fijos de f son las soluciones de



x = −2x + 1
,
y = 3x + y − 1

es decir x = 1/3 (recta de puntos fijos).

• Rectas invariantes:
    
−2 0 −2 − λ 0
0 = det − λI = det = (λ − 1)(λ + 2)
3 1 3 1−λ
m
λ = 1, −2 autovalores.
  
e −3 0 x
Autovectores para λ = 1: E1 = ker(f −I) viene dado por ⇒
3 0 y
x = 0, ası́ que E1 = h(0, 1)i.   

5
e 0 0 x

-0
Autovectores para λ = −2: E−2 = ker(f +2I) viene dado por
05 3 3 y
⇒ 3x + 3y = 0, ası́ que E−2 = h(1, −1)i.
9-
−−−→
Si q +F es recta invariante por f , entonces F = E1 ó F = E−2 , y qf (q) ∈ E1
l2

ó E−2 .
−−−→
de

Si q = (x0 , y0 ), f (q) = (−2x0 + 1, 3x0 + y0 − 1), de modo que qf (q) =


(−3x0 + 1, 3x0 − 1).
n

Luego
sió

−−−→
qf (q) ∈ E1 ⇔ −3x0 + 1 = 0 ⇔ x0 = 1/3
r
Ve

−−−→
qf (q) ∈ E−2 ⇔ −3x0 + 1 = −3x0 + 1 ⇔ x0 arbitrario

De modo que la única recta invariante en la dirección de E1 es x = 1/3. Las


rectas invariantes en dirección E−2 son cualquier q+F con F = E−2 = h(1, −1)i.

• Hiperplanos invariantes: Sea ax + by + c = 0 la ecuación de un hiperplano


invariante. Entonces
0 = ax̄ + bȳ + c

= a(−2x + 1) + b(3x + y − 1) + c

= (−2a + 3b)x + by + (a − b + c)

a b c
= =
−2a + 3b b a−b+c
2.6. VARIEDADES INVARIANTES 57

a
Si b 6= 0, se tiene = 1 ⇔ a = b. Es un hiperplano paralelo a (1, −1)
−2a + 3b
(y como c es arbitrario, es cualquiera de ellos).
a c 1 c
Si b = 0 (por tanto a 6= 0), entonces
= ⇔− = ⇔ a−c =
−2a a+c 2 a+c
a a 1
2c ⇔ c = − . Es decir, ax − ⇔ x = .
3 3 3

5
-0
05
9-
l2
de
n
r sió
Ve
58

Ve
rsió
n
de
l2
9-
05
-0
5
Ejercicios de Geometrı́a
Afı́n

1. Calcula la dimensión del subespacio afı́n de R5 generado por los puntos:

5
-0
p1 = (−1, 2, −1, 0, 4), p2 = (0, −1, 3, 5, 1),

05
p3 = (4, −2, 0, 0, −3), p4 = (3, −1, 2, 5, 2).
9-
2. Considera la familia de planos 2λx + (λ + 1)y − 3(λ − 1)z + 2λ − 4 = 0 en
l2

R3 .
a. Demuestra que estos planos tienen una recta en común.
de

b. Determina los planos de esta familia que pasan por el punto (1, −1, 2).
c. Determina los planos de esta familia que son paralelos a la recta
ón

L = {x + 3z − 1 = 0 , y − 5z + 2 = 0}
si
er

3. Sea λ un número real. Considera los puntos de R3 : a = (λ, 0, 0), b =


(1, 2, 1), c = (1, 0, −1) y d = (2, 2, λ), y los conjuntos:
V

S1 = {a, b}, S2 = {a, b, c}, S3 = {a, b, d}.

a. Halla las ecuaciones implı́citas de los subespacios afines engendrados por


S1 S2 y S 3 .
b. Estudia la posición relativa de los subespacios anteriores en función de λ
y calcula su dimensión.

4. Sea M la variedad lineal de R4 engendrada por los puntos: p0 = (1, 0, 0, 0),


p1 = (2, 1, 0, 0), p2 = (3, 1, 0, 0), p3 = (4, 2, 0, 0). Sea L la variedad lineal de
ecuaciones paramétricas

x1 = 2λ + 5, x2 = λ + 1, x3 = λ + 1, x4 = λ + 1 .

Halla las ecuaciones implı́citas de L+M y de L∩M y comprueba que se verifica


la fórmula de Grassmann.

59
60

5. Estudia la dependencia afı́n de los puntos de R3 : a1 = (1, 0, 1), a2 =


(4, 3, −2), a3 = (2, 1, 0). Halla las ecuaciones vectoriales, paramétricas, im-
plı́citas del subespacio afı́n que engendran.

6. En R4 se considera los puntos de coordenadas q0 = (1, 0, 3, 1), q1 =


(1, 1, 3, 0), q2 = (0, 1, 1, 0). Sea N el subespacio afı́n de R4 que engendran.
a. Estudia la dependencia afı́n de q0 , q1 y q2 . Halla la dimensión de N .
b. Halla las ecuaciones paramétricas e implı́citas de N .

7. Considera el subespacio vectorial W de (R4 )∗ engendrado por los vectores:

v1∗ = (0, 1, −2, 0), v2∗ = (0, 1, 0, 3), v3∗ = (1, 0, 0, 4).

Determina las ecuaciones paramétricas del subespacio afı́n de R4 que pasa por
el punto (1, 1, 1, 1) y tiene como dirección W ∗ = Ann(W ), dual de W

8. Sea A4 (K) un espacio afı́n de dimensión 4 sobre el cuerpo K. Sea R0

5
un sistema de referencia cartesiano en A4 (K). Considera los hiperplanos de

-0
ecuación (respecto de R0 ) π1 : 1 + x + y + z + t = 0, π2 : 2 + x − y + z − t = 0,

05
y el punto p = (1, 1, 1, −4).
a. Verifica que p ∈ π1 , y halla un sistema de referencia afı́n, R, de π1 que
9-
no tenga ninguno de sus puntos en el hiperplano π2 .
b. Fijado el sistema de referencia R del apartado anterior, halla las ecua-
l2

ciones de la variedad lineal de dimensión 2 que pasa por p, está contenida en


π1 , y es paralela a π1 ∩ π2 .
de

9. Considera los puntos de R3 : p0 = (0, 0, 1), p1 = (0, 1, 0), p2 = (0, 0, 0),


p3 = (1, 0, 0), q0 = (2, 1, 1), q1 = (1, 0, 1), q2 = (1, 1, 0), q3 = (0, 0, −1).
ón

a. Demuestra que R = {p0 , p1 , p2 , p3 } y R0 = {q0 , q1 , q2 , q3 } son referencias


afines de R3 .
si

b. Halla las ecuaciones del cambio de coordenadas cartesianas de la referencia


er

R a la referencia R0 .
V

c. Halla las ecuaciones del cambio de coordenadas baricéntricas de la refer-


encia R a la referencia R0 .

10. Considera los siguientes puntos de R4 :

a = (1, −2, 3, 1), b = (0, 0, 1, 5), c = (3, −1, 5, 0).

Halla la ecuación del haz de hiperplanos que tiene como base el plano determi-
nado por los puntos a, b y c.

11. En el espacio afı́n real R3 se consideran las rectas:

L1 = {x + y + z = 0 , x + 2y = 0} , L2 = {2x + 2y + z = 3 , x + y = 2}

L3 = {3x + 2y + 2z = 2 , 2x + y + z = 0}.
a. Demuestra que se cruzan dos a dos y que existe un plano π paralelo a las
tres rectas.
61

b. Demuestra que toda recta que corte a las tres es paralela a un plano fijo,
y determinar ese plano.

12. Halla las ecuaciones de la homotecia de R4 de centro el punto O =


(1, 3, −1, 1) y razón 2.

13. Halla las ecuaciones de la afinidad definida por los pares de puntos:

p1 = (0, 0), p01 = (3, 6); p2 = (−1, 2), p02 = (22, 48); p3 = (2, −2), p03 = (−11, 28).

Determina los puntos fijos de esta aplicación afı́n.

14. Halla las ecuaciones de la aplicación afı́n que transforma los puntos
del sistema de referencia baricéntrico R = {p0 , p1 , p2 , p3 } en los puntos q0 =
(2, −3, 1, 1), q1 = (1, −2, 0, 2), q3 = (0, 4, −1, −2), y q4 = (3, −9, 2, 5) respecti-
vamente, donde las coordenadas de los puntos qi están referidas al sistema de
referencia baricéntrico R.

5
15. Considera una referencia afı́n R = {O; u1 , u2 , u3 } en R3 , y la afinidad

-0
f de ecuaciones:
x0 = 12 (x + y + z + 1) 05
y 0 = −x + 2y + z + 1 .
9-
z 0 = 12 (3x − 3y − z − 3)
l2

a. Demuestra que la aplicación ası́ definida es una proyección.


de

b. Halla la variedad de puntos fijos de f .


c. Halla la dirección de proyección de f .
n

16. En el espacio afı́n R3 considera la afinidad de ecuaciones:


sió

x0 = 2 − x + y − z
r
Ve

y 0 = 1 + 2x + 2y + 2z
z 0 = 1 − 2z

Encuentra las figuras transformadas del plano x + y − z = 2 y de la circun-


ferencia x2 + y 2 = 1, z = 0, y comprueba que transforma rectas paralelas en
rectas paralelas. Calcula sus puntos fijos.

17. En el espacio afı́n R3 considera la afinidad dada en la referencia R =


{O; u1 , u2 , u3 } por:
x0 = 2 − x + y − z
y0 = 1 + x + y + z
z 0 = −x − 2z
a. Halla las ecuaciones de la figura en la que se transforma la elipse de
ecuación 9x2 + 4y 2 = 36 en el plano z = 2.
b. Halla las ecuaciones de la afinidad en la referencia R0 = {O0 ; u01 , u02 , u03 },
donde O0 = (0, 3, 2), u01 = (1, 0, 1), u02 = (0, 1, 1), u03 = (0, 0, 1) respecto a la
referencia R.
62

Ve
rsió
n
de
l2
9-
05
-0
5
Problemas de Geometrı́a
Afı́n

1. Sea (A, E, ϕ) un espacio afı́n, donde E es un espacio vectorial de dimensión


finita sobre un cuerpo ordenado K. Un subconjunto B ⊂ A se dice convexo si
para todo par de puntos p, q ∈ B el segmento de extremos p y q está contenido

5
-0
en B. Demuestra que todo subespacio afı́n es convexo.
05
2. Considera el plano afı́n A2 (F3 ) sobre el cuerpo F3 .
a. Calcula cuántos puntos y rectas hay en A2 (F3 ). Calcula el cardinal de
9-
una recta.
l2

b. Calcula el número de rectas paralela a una dada, y el número de haces


de rectas paralelas que hay en A2 (F3 ).
de

3. En el plano afı́n R2 se considera el triángulo abc y con relación a él los


n

sistemas de referencia:
sió

~ ac},
R = {a; ab, ~ ~ bc}.
y R0 = {b; ba, ~
r
Ve

a. Halla las ecuaciones que permiten pasar de R a R0 .


b. Determina el conjunto de puntos del plano que tienen las mismas coor-
denadas respecto a los dos sistemas de referencia.

4. Considera en R2 el sistema de referencia R = {O; ~u1 , ~u2 } y, respecto de


él, el conjunto de puntos cuyas coordenadas satisfacen la ecuación:

(∗) 6x2 − 5xy + y 2 = 1 .

Sea R0 = {O; ~v1 , ~v2 } con ~v1 = ~u1 + α~u2 , ~v2 = β~u1 + γ~u2 , donde γ − αβ 6= 0.
Determina los valores de α, β, γ para que en el sistema de referencia R0 el
conjunto de puntos que satisfacen (∗) sean los puntos que verifican la ecuación
0 0
x0 y 0 = 1, donde x , y son las coordenadas en R0 .

5. Considera las rectas del plano afı́n real R2 de ecuaciones (respecto de un


sistema de referencia cartesiano dado):

L1 : 3x + 2y = 1, L2 : y = 5, L3 : 6x + y = −13.

63
64

Halla los triángulos de vértices a, b, c que tienen sus medianas1 paralelas a


estas rectas, el vértice a sobre la recta L1 y el (−1, 2) como punto medio del
lado bc.

6. Considera un triángulo abc del plano afı́n real R2 , y tres puntos a0 , b0 , c0


sobre los lados bc, ca, ab, respectivamente. Encuentra una condición necesaria
y suficiente para que los triángulos abc y a0 b0 c0 tengan el mismo baricentro.

7. Para cada i = 1, 2, 3, toma la recta Li ⊂ R2 de ecuación ai x + bi y + ci = 0,


con (ai , bi ) 6= (0, 0). Comprueba que la relación:

a1 b1 c1
(∗) a2 b2 c2 =0.
a3 b3 c3

es una condición necesaria para que las tres rectas sean concurrentes (es decir,
se corten las tres en el mismo punto).

5
Da un ejemplo de tres rectas no concurrentes que verifiquen (∗).

-0
Supongamos que se da la condición (∗).¿Qué condicienes geométricas y al-
05
gebraicas han de verificarse para que las tres rectas sean concurrentes?
9-
8. Sea E un K-espacio vectorial, y (A, E, ϕ) un espacio afı́n sobre K. Dados
tres puntos alineados a1 , a2 , a3 de A , se llama razón simple de a1 , a2 , a3 , y se
l2

escribe (a1 a2 a3 ), al escalar λ ∈ K tal que


de

a1~a3 = λa1~a2 .
n
sió

La razón simple está definida siempre que a1 6= a2 , es 0 si a1 = a3 , y es 1 si


a2 = a 3 .
r

a. Si a2 6= a3 y (α, β) son las coordenadas baricéntricas de a1 en el sistema


Ve

de referencia {a2 , a3 }, demuestra que (a1 a2 a3 ) = −α/β.


b. Supongamos que K = R. Demuestra que el punto a1 está en el segmento
que une a2 con a3 , si y sólo si (a1 a2 a3 ) < 0.
c. Sean p0 , p1 , p2 tres puntos distintos de C. Da una condición necesaria y
suficiente en función de su razón simple para que formen un triángulo equilátero.

9. Sea (A, E, ϕ) un espacio afı́n. Sea f : A −→ A una simetrı́a. Demuestra


que existen una variedad lineal A1 de A y un subespacio vectorial F de E,
complementario de L(A1 )2 en E, tal que si π es la proyección de A sobre A1
paralelamente a F entonces3 f = 2π − idA .

10. Sea R = {p0 , . . . , pn } una referencia baricéntrica de un espacio afı́n


(A, E, ϕ). Considera r puntos q1 , . . . , qr en A, y (λi,0 , . . . , λi,n ) las coordenadas
baricéntricas de qi en la referencia R. Considera la matriz Λ = (λi,j ). Demuestra
1 Mediana: recta que conecta un vértice con el punto medio del lado opuesto.
2 L(A
1)denota el subespacio vectorial asociado a la variedad lineal A1 .
3 id denota la aplición identidad de A.
A
65

que para que el subespacio afı́n engendrado por q1 , . . . , qr tenga dimensión r −1,
es condición necesaria y suficiente que la matriz Λ tenga rango r.

11. Sean L1 y L2 dos rectas que se cruzan en R3 . Determina el lugar ge-


ométrico de las imágenes de un punto dado p ∈ R3 , por todas las afinidades que
tienen a L1 como recta de puntos fijos y a L2 como recta invariante.

12. Demuestra que existe una única afinidad en un plano afı́n que transforma
cada uno de los vértices de un triángulo dado en el punto medio del lado opuesto.
Estudia esta afinidad.

13. Sea f una afinidad de un espacio afı́n real.


a. Demuestra que si f 2 tiene algún punto fijo, entonces f también.
b. Demuestra que si existe un número natural n tal que f n tiene un punto
fijo, entonces f también.

14. Sea A un espacio afı́n de dimensión 1 sobre un cuerpo K. Clasifica las


afinidades de A. Si K = F3 , da una lista de las afinidades de A.

5
-0
15. Sea A un espacio afı́n de dimensión 2 sobre un cuerpo K. Clasifica las
05
afinidades de A en función de su conjunto de puntos fijos. Da una interpretación
geométrica de cada tipo de afinidad.
9-
l2
de
n
r sió
Ve
66

Ve
rsió
n
de
l2
9-
05
-0
5
Parte II

5
Geometrı́a Euclı́dea -0
05
9-
l2
de
n
sió
r
Ve

67
Ve
rsió
n
de
l2
9-
05
-0
5
69

Hasta ahora hemos estudiado geometrı́a afı́n, i.e. aquellas caracterı́sticas


geométricas que se definen intrı́nsecamente en función de la estructura afı́n
(colinearidad, paralelismo, intersecciones, baricentros).
Pero por ahora no hemos estudiado cosas que, en el lenguaje común, aso-
ciamos intuitivamente con la geometrı́a: por ejemplo, distancias y ángulos. La
razón es que la estructura de espacio afı́n no contiene de forma natural esos con-
ceptos: hay que poner más estructura. En el próximo capı́tulo vamos a introducir
la estructura necesaria, incorporándola a la estructura de espacio vectorial (y
por tanto a la de espacio afı́n).

5
-0
05
9-
l2
de
n
r sió
Ve
70

Ve
rsió
n
de
l2
9-
05
-0
5
Capı́tulo 3

Espacios vectoriales
euclı́deos y unitarios

5
-0
3.1. Formas bilineales 05
3.1.1 Partimos de un objeto que va a resultar fundamental:
9-
l2

Definición Sea E un espacio sobre R. Una aplicación φ : E × E → R es


una forma bilineal si cumple:
de


→1 + u
i) φ(u −
→2 , →
− −
→1 , →
v ) = φ(u − −
→2 , →
v ) + φ(u − −
→1 , u
v ) ∀u −
→2 , →

v ∈ E.
φ(k →

u,→−v ) = kφ(→ −
u,→
−v )∀k ∈ R, ∀→−u,→−v ∈ E.
n
sió

ii) φ(→−u,→

v1 + →

v2 ) = φ(→

u,→−
v1 ) + φ(→

u,→−
v2 ) ∀→

u,→

v1 , →

v2 ∈ E.
φ(→−u , k→

v ) = kφ(→−
u,→−
v )∀k ∈ R, ∀→−
u,→−
v ∈ E.
r
Ve

3.1.2 Ejemplo.- E = R2 .
La aplicación
φ : R2 × R 2 → R
((x1 , x2 ), (y1 , y2 )) →
7 3x1 y1 + 4x1 y2 − 2x2 y2
es bilineal.
Sin embargo
φ : R2 × R 2 → R
((x1 , x2 ), (y1 , y2 )) →
7 x21 y2 + 3x1 y1 − 6x2 y1
no lo es.
3.1.3 Las aplicaciones bilineales se pueden describir con matrices. En el ejem-
plo anterior, tenemos
  
3 4 y1
φ(x, y) = 3x1 y1 + 4x1 y2 − 2x2 y2 = (x1 x2 ) .
0 −2 y2

71
72 CAPÍTULO 3. ESPACIOS VECTORIALES EUCLÍDEOS Y UNITARIOS

De hecho, siempre existe una expresión matricial como esa:

Proposición Sea {→ −
e1 , . . . , −
e→
n } base del R−espacio vectorial E:
i) Sea φ bilineal. La matriz B = (bij ), donde bij = φ(→ −ei , →

ej ) determina φ. En

− →
− −
→ →
− →
− →

concreto, si x = x1 e1 + · · · + xn en , y = y1 e1 + · · · + yn en , entonces
 
y1
 
φ(→

x ,→
−y ) = (x1 · · · xn )B  ...  = xt By.
yn
ii) Dada una matriz B = (bij ) cualquiera, ∃φ bilineal tal que φ(→

ei , →

ej ) = bij .

Demostración.- i) Calculamos:
Pn Pn
φ(→ −
x,→−
y ) = φ( i=1 xi →

ei , j=1 yj →

ej )
Pn Pn
= xi φ(→

ei , j=1 yj →

ej )

5
i=1

-0
Pn Pn
= i=105 xi ( j=1 yj bij )

9-
y1
 
= (x1 · · · xn )B  ... 
l2

yn
de

ii) Basta definir φ(x, y) = xt By y ver que es bilineal (y, obviamente, que su
n

matriz es B). 
sió

3.1.4 ¿Cómo se comporta una forma bilineal con un cambio de base?Veámoslo


r

3 4
Ve

en el primer ejemplo de 3.1.2. Tenı́amos φ con matriz B = en cierta


0 −2

− →

base B = { e1 , e2 }.

Sea B 0 = {→−
v1 , →

v2 } nueva base, donde →

v1 = 2→

e1 − →

e2 , →

v2 = →

e1 + →

e2 .
0
¿Cuál es la matriz de φ en B ?
    
3 4 2 2
c11 = φ(→

v1 , →

v1 ) = (2 − 1) = (6 10) =2
0 −2 −1 −1
    
3 4 1 1
c12 = φ(→

v1 , →

v2 ) = (2 − 1) = (6 10) = 16
0 −2 1 1
    
3 4 2 2
c21 = φ(→

v2 , →

v1 ) = (1 1) = (3 2) =4
0 −2 −1 −1
    
3 4 1 1
c22 = φ(→

v2 , →

v2 ) = (1 1) = (3 2) =5
0 −2 1 1
3.2. ESPACIOS VECTORIALES EUCLÍDEOS 73
 
2 16
Luego la matriz es . Observa que
4 5

C = P t BP,
 
2 1
donde P = es la matriz de cambio de base.
−1 1
La fórmula general es exactamente esta. Hay que recalcar que sale P t y no
−1
P como en el caso de las aplicaciones lineales.

3.1.5 Definición Una forma bilineal es simétrica si φ(→



u,→

v ) = φ(→

v ,→

u)

− →

∀ u , v ∈ E.

Por ejemplo, la forma bilineal φ de la sección 3.1.3 no es simétrica, puesto


que φ(→

e1 , →

e2 ) = 4, φ(→

e2 , →

e1 ) = 0.

3.1.6 De hecho, el ser o no forma bilineal simétrica puede detectarse mirando

5
la matriz:

-0
05
Proposición Una forma bilineal es simétrica si y sólo si su matriz es
9-
simétrica (es decir, si B = B t ).
l2

La demostración es un ejercicio sencillo.


de

3.1.7 De entre todas las formas bilineales, nos van a interesar especialmente
n

aquellas que cumplen una propiedad adicional que va a resultar fundamental


sió

para nuestros propósitos:


r

Definición Una forma bilineal φ en el R- espacio vectorial E es definida


Ve



positiva si cumple φ(→

u ,→

u ) ≥ 0∀→

u ∈ E, y además φ(→

u,→−
u) =0 ⇔ → −
u = 0.

3.2. Espacios vectoriales euclı́deos


3.2.1 Podemos definir ya la noción que nos va a permitir introducir la estruc-
tura que buscamos:

Definición Un producto escalar es una forma bilineal simétrica definida


positiva.

Ejemplos  
3 4
• La forma bilineal φ de matriz no es simétrica.
0 −2
 
3 4
• La forma φ de matriz es simétrica, pero no definida positiva:
4 −2
74 CAPÍTULO 3. ESPACIOS VECTORIALES EUCLÍDEOS Y UNITARIOS

Puesto que φ(→ −x,→−


y ) = 3x1 y1 + 4x1 y2 + 4x2 y1 − 2x2 y2 ⇒ φ(→

x,→

x ) = 3x21 +
2 →
− →
− →

8x1 x2 − 2x2 . Por ejemplo para u = (0 1) se tiene φ( u , u ) = −2 < 0.
Más adelante daremos un criterio para determinar cuándo una forma bilineal
simétrica es definida positiva.

3.2.2 Tener un producto escalar nos va a permitir hablar de perpendicularidad,


y más adelante también de distancias:

Definición Sea φ un producto escalar. Decimos que →



u,→

v son ortogonales

− →

(respecto a φ) si φ( u , v ) = 0.

Ejemplo.- Sea B = {→ −e1 , →



e2 } la base usual de R2 , y φ1 (→ −
x,→−y ) = x 1 y1 + x2 y2
el producto escalar usual expresado  en coordenadas
 en dicha base.
1 0
La matriz de φ1 en B es B = , que es simétrica. Además φ1 (→−x,→−
x)=
0 1
x1 2 + x2 2 ≥ 0 y vale 0 si y sólo si x1 = x2 = 0 (definida positiva).

5
Observa que

-0
φ1 (→
−e1 , →−
e1 ) = 1
05
φ1 ( e 2 , −

− →
e2 ) = 1
9-
φ1 (→
−e1 , →−
e2 ) = 0
l2

las dos primeras igualdades suelen expresarse diciendo que los vectores de la
de

base son unitarios. Cuando los vectores de la base son ortogonales dos a dos, se
dice que es una base ortonormal, y si además son unitarios se dice que es una
n

base ortonormal.
sió

Sin embargo,
 sea ahora φ2 (→

x,→−y ) = 2x1 y1 + x1 y2 + x2 y1 + x2 y2 . La matriz
r
Ve

2 1
de φ2 en B es (que es simétrica). Además φ2 (→−
x,→ −
x ) = 2x1 2 +2x1 x2 +
1 1
x2 2 = (x1 + x2 )2 + x1 2 ≥ 0 y vale 0 si y sólo si x1 = x2 = 0 (definida positiva).
    
2 1 0 0
Ahora φ2 (→

e1 , →

e2 ) = (1 0) = (2 1) = 1. Ası́ que →

e1 y
1 1 1 1


e2 no son ortogonales respecto a φ2 .

3.2.3 Como ya hemos visto, una misma base puede ser ortogonal para unos
productos y no serlo para otros. Sin embargo siempre se puede modificar una
base dada para construir a partir de ella otra que sı́ que sea ortonormal. Estudi-
aremos el procedimiento para hacerlo, llamado método de Gram-Schmidt: para
ello necesitamos un resultado previo.

Lema Si {→ −
v1 , . . . , →

vk } son vectores no nulos y ortogonales dos a dos respecto
de un producto escalar cualquiera φ, entonces {→ −
v1 , . . . , →

vk } son linealmente in-
dependientes.
3.2. ESPACIOS VECTORIALES EUCLÍDEOS 75

P →

Demostración.- Supongamos λj v~j = 0 . Entonces, para 0 ≤ i ≤ k se
tiene P − → P
φ( λj → vj , −
vi ) = λj φ(→ −
vj , →

vi ) = λi φ(→

vi , →

vi )

||

− −
φ( 0 , →
vi )

||

0
y como φ(→ −
vi , →

vi ) > 0 por ser φ definida positiva, se sigue que λi = 0 para
i = 1, . . . , k. 

3.2.4 Proposición [Método de Gram-Schmidt] Sea E espacio vectorial


de dimensión finita n sobre R, con un producto escalar φ. Existe una base de E
que es ortonormal respecto a φ.

5
-0
Demostración.- Sea {→

e1 , . . . , −
e→
n } base cualquiera de E. Tomamos los sub-
05
espacios
9-
E 1 = h→

e 1 i ⊂ E 2 = h→

e1 , →

e 2 i ⊂ · · · ⊂ E n = h→

e1 , . . . , →

en i = E,
l2

y vamos a ir construyendo una base ortonormal de cada uno de ellos.


de



En E1 , basta tomar u −→1 = p e1 −
→1 } sea ortonormal
para que la base {u
φ(→

e1 , →

e1 )
n
sió

(la condición de ortogonalidad es ahora vacı́a).


En E2 = h→ −
e1 , →

e2 i. Tomo u−
→2 0 = →

e2 − k u −
→1 para un k que vamos a elegir para

→ −

r

0
que u1 y u2 sean ortogonales. Imponemos entonces
Ve

0 = φ(−
→1 , −
u →2 0 ) = φ(−
u →1 , →
u −
e2 ) − kφ(−
→1 , −
u →1 ) = φ(−
u →1 , →
u −
e2 ) − k,

por lo que si tomamos k = φ(− →1 , →


u −
e2 ) nos aseguramos que − →1 y −
u →2 son ortogo-
u
nales (y, en particular, linealmente independientes). Si normalizamos tomando

→2 0
u
ahora −→2 =
u −
→ − → −
→ − →
→2 0 ) , tenemos hu1 , u2 i = E2 , y de hecho {u1 , u2 } es una base
φ(−
→2 0 , −
u u
ortonormal de E2 .

Seguimos este proceso de modo recurrente. Si ya hemos construido de este


modo − →1 , . . . , −
u →r (base ortonormal de Er ), ¿cómo seguimos?:
u
Sea ur+1 = −
−− → 0
e−→ −
→ −

r+1 − k1 u1 − · · · − kr ur . Imponemos condiciones de ortogona-
lidad:
−−→ →
0 = φ(u0r+1 , − u1 ) = φ(−
e− → − → −−→ − →
r+1 , u1 ) − k1 ⇒ tomo k1 = φ(er+1 , u1 )
..
.
−−0→ −
0 = φ(ur+1 , ur ) = φ(er+1 , ur ) − kr ⇒ tomo kr = φ(−
→ −− → −
→ e− → − →
r+1 , ur ),
76 CAPÍTULO 3. ESPACIOS VECTORIALES EUCLÍDEOS Y UNITARIOS

es decir, kj = φ(−−→, →
er+1 −
uj ) para j = 1, . . . , r.
−−
u →0
−− → r+1 −
→ −−→
Finalmente definimos u r+1 = −−
φ(u →0 −−→0 , y {u1 , . . . , ur+1 } es base ortonor-
r+1 , ur+1 )
mal de Er+1 . 

3.2.5 Una consecuencia directa es:

Corolario Una forma bilineal φ es un producto escalar si y sólo si existe


una base en la que la matriz de φ es la identidad.

Demostración.- Si φ es producto escalar, se puede construir una base


ortonormal por Gram-Schmidt. En dicha base, la matriz de φ es la identidad.
La implicación recı́proca es un ejercicio sencillo. 

3.2.6 El corolario anterior no da, sin embargo, un criterio práctico para decidir
si una forma bilineal dada es o no un producto escalar. En la práctica usamos
el conocido:

5
-0
Proposición [Criterio de Sylvester] Sea φ forma bilineal con matriz B
en la base {→−
e1 , . . . , −
e→
n }. 05
Sea Br el menor de B formado por las r primeras filas y columnas de B,
9-
Entonces φ es producto escalar si y sólo si B es simétrica y det B r > 0 ∀r.
l2

Demostración.- Supongamos que φ es producto escalar. Tomemos el sub-


de

espacio Er = h→

e1 , . . . , →

er i y sea φr la restricción de φ a Er × Er ,
n

φr : Er × Er −→ R
sió

(→
−u,→
− 7 → φ(→
v) − −
u,→

v)
r
Ve

Claramente φr es un producto escalar en Er . Por tanto, existe una base


ortonormal {u −
→1 , . . . , u

→r } de Er . Sea P la matriz de cambio de coordenadas en la

→1 , . . . , u
base {u −
→r } a coordenadas en la base {→ −
e1 , . . . , →

er }. Entonces Id = P t BP ,
2
luego 1 = det(Id) = det(Br ) [det(P )] , por lo que det Br > 0.

Recı́procamente, supongamos B bilineal y la condición en los menores. Para


comprobar que φ es producto escalar, vamos a construir una base {− →1 , . . . , −
u u→
n}

− →

en la que φ( ui , uj ) = 1 si i = j y 0 si no. En esa base, la matriz de φ será la
identidad, ası́ que por el corolario 3.2.5 φ será producto escalar.
Primero notamos que φ(→ −
e1 , →

e1 ) = b11 = det B1 > 0. Por tanto existe
p →

e1

− →
− −

φ( e1 , e1 ), y podemos tomar u1 = p → , que es base de E1 = h→−
e1 i.
φ(−
e1 , →

e1 )
Procedemos ahora por inducción, igual que en Gram-Schmidt:
Si {−
→1 , . . . , −
u →r } son base de h→
u −
e1 , . . . , →

er i tal que φ(→ −
ui , →

uj ) = 1 si i = j y
0 si no, el vector u −−→
r+1
0
= −
e− →
r+1 − (k −

u
1 1 + · · · + k −

u
r r ) con ki = φ(e−−→ → −
r+1 , ui ) es
“ortogonal”(aunque aún es pronto para usar el término con propiedad) a cada
uno de los u −
→1 , . . . , u

→r .
3.2. ESPACIOS VECTORIALES EUCLÍDEOS 77

Si probamos que φ(u −− →0 −−→0


r+1 , ur+1 ) > 0, entonces el vector unitario definido por
−−→
ur+1 0
−−
u →
r+1 = p nos sirve para ampliar la base que tenemos.
−−→0 , u
φ(ur+1 −− →0
r+1 )
Pero
−−
φ(u →0 −−→0 −−→ −
→ −
→ −−→ −
→ −

r+1 , ur+1 ) = φ(er+1 − k1 u1 − · · · − kr ur , er+1 − k1 u1 − · · · − kr ur ))

X X
= φ(−
e−→ −−→ −−→ → −
r+1 , er+1 ) − φ(er+1 , ui ) − ki φ(→

ui , −
e−→
r+1 ) + ki2
i i
X
= φ(−
e−→ −−→
r+1 , er+1 ) − φ(→

ui , −
e−→ −−→ → −
r+1 )φ(er+1 , ui )
i

1 ··· 0 φ(−
→1 , −
u e−→
r+1 )
.. .. .. ..
= . . . .
0 ··· 1 φ(−
→r , −
u e−→
r+1 )
−−→ −
→ −−→ −
→ −−→ −−→)

5
φ(er+1 , u1 ) · · · φ(er+1 , ur ) φ(er+1 , er+1

-0
05
donde la última igualdad se puede comprobar desarrollando el determinante por
la última fila.
9-
Esa es la matriz de φr+1 en la base {−→1 , . . . , −
u →r , −
u e−→
r+1 } y se obtiene por tanto
l2

de la matriz Br+1 por un cambio de base. Ası́ que es de la forma P t Br+1 P ,


y su determinante es (det Br+1 )| det P |2 , que es estrictamente positivo porque
de

det Br+1 lo es y P es no singular. 


n
sió

3.2.7 Ejemplo.- Sea φ la forma bilineal en R3 que tiene matriz


r

 
Ve

2 1 −1
 1 1 0 
−1 0 3

en la base canónica.
Vemos que φ es forma bilineal simétrica. Los menores principales de la matriz
2 1 −1
2 1
son |1| > 0, = 1 > 0, y 1 1 0 = 2 > 0, de modo que por el
1 1
−1 0 3
criterio de Sylvester, φ es producto escalar.

Para calcular una base ortonormal, aplicamos Gram-Schmidt a la base canónica


{→

e1 , →

e2 , →

e3 }, con →

e1 = (1, 0, 0), →

e2 = (0, 1, 0) y →

e3 = (0, 0, 1):
  
2 1 −1 1
φ(→

e1 , →

e1 ) = (1 0 0)  1 1 0   0  = 2
−1 0 3 0
78 CAPÍTULO 3. ESPACIOS VECTORIALES EUCLÍDEOS Y UNITARIOS
 
→1 = √1 →
Tomo −
u −
e1 =
1
√ , 0, 0 . Después −
→2 0 = →
u −
e2 − k 1 −
→1 con
u
2 2
  √ 
2 1 −1 1/ 2
k1 = φ(→
− →1 ) = (0 1 0)  1 1 0   0  = √1 ,

e2 , u
−1 0 3 0 2

con lo que    
→2 0 = (0, 1, 0) − √1

u
1
√ , 0, 0 =
1
− , 1, 0 .
2 2 2
Como
  
2 1 −1 −1/2
φ(− →2 0 ) = (−1/2 0 0)  1 1 0   0  = 1 ,
→2 0 , −
u u
2
−1 0 3 0
√ !
→2 = √2− 2 √
normalizando tenemos − →2 0 = −

5
u u , 2, 0 .
2

-0
Del mismo modo u −
→3 0 = →
− −
→1 − k2 u
e3 − k 1 u −
→2 , donde
05
  √ 
9-
2 1 −1 1/ 2
k1 = φ(→
− →1 ) = (0 0 1)  1 1 0   0  = − √1
e3 , −
l2

u
−1 0 3 0 2
de

  √ 
2 1 −1 − √2/2 √
2
n


− −

k2 = φ( e3 , u2 ) = (0 0 1)  1 1 0   2 =
sió

−1 0 3 2
0
r
Ve

de modo que
  √ √ !

→3 0 1 1 2 2 √
u = (0, 0, 1) + √ √ , 0, 0 − − , 2, 0
2 2 2 2
   
1 1
= (0, 0, 1) + , 0, 0 + , −1, 0
2 2

= (1, −1, 1).

Para normalizar, calculamos


  
2 1 −1 1
φ(−
→3 0 , −
u →3 0 ) = (1 − 1 1)  1 1 0   −1  = 2,
u
−1 0 3 1
 

→3 = 1 1 1
ası́ que u √ , −√ , √ .
2 2 2
3.3. EL CASO COMPLEJO. ESPACIOS VECTORIALES UNITARIOS 79

La base
(  √ !  )
1 2 √ 1 1 1
√ , 0, 0 , − , 2, 0 , √ , − √ , √
2 2 2 2 2

es ortonormal respecto a φ.

3.2.8 Definición Un espacio vectorial euclı́deo es un R−espacio vectorial con


un producto escalar.

3.3. El caso complejo. Espacios vectoriales uni-


tarios
El concepto de producto escalar tiene un análogo cuando el espacio vectorial
tiene como cuerpo de escalares a C y no a R. Vamos a tratarlo someramente

5
en esta sección. Los detalles, que no son más que una reproducción de lo que

-0
hicimos para el caso real, quedan para ser completados por el lector.
05
3.3.1 Definición Una aplicación φ : E × E → C, donde E es un C-espacio
9-
vectorial, es una forma sesquilineal si
• φ(−
→1 + − →2 , →

v ) = φ(−→1 , →
−v ) + φ(−
→2 , →
−v ) ∀−
→1 , −
→2 , →

l2

u u u u u u v ∈E

− →
− →
− →
− →

• φ(k u , v ) = kφ( u , v )∀k ∈ C, ∀ u , v ∈ E→

de

• φ(→
−u ,→−
v1 + → −
v2 ) = φ(→

u,→ −
v1 ) + φ(→

u,→ −
v2 ) ∀→

u,→ −v1 , →

v2 ∈ E

− →
− →
− →
− →
− →

• φ( u , k v ) = kφ( u , v )∀k ∈ C, ∀ u , v ∈ E
n
sió

La matriz B de una forma sesquilineal en una base B = {→ −


e1 , . . . , −
e→
n } se define
del mismo modo que para una forma bilineal, es decir mediante bij = φ(→ −ei , →

ej ).
r
Ve

En términos de dicha matriz, si (u1 , . . . , un ) y (v1 , . . . , vn ) son las coordenadas


en B de →
−u y→ −
v respectivamente, se calcula
 
v1
 
φ(→
− v ) = (u1 · · · un )B  ...  ,
u,→

vn

lo cual se suele denotar por φ(→



u,→

v)=→

u tB→

v.

3.3.2 Si B es la matriz de una forma sesquilineal φ en una base {→ −


e1 , . . . , →

en } y

→ −

C es la matriz de φ respecto de otra base {u1 , . . . , un }, sea A = (aij ) la matriz
Xn
del cambio de base, de modo que → −
ui = aij →

ej .
j=1
Entonces C = At BA.

3.3.3 Definición Una forma sesquilineal se dice hermı́tica (el análogo de


simétrica) si φ(→

u,→

v ) = φ(→

v ,→

u ).
80 CAPÍTULO 3. ESPACIOS VECTORIALES EUCLÍDEOS Y UNITARIOS

En términos de la matriz, una forma es hermı́tica si y sólo si su matriz lo es.


Y se llama a B matriz hermı́tica cuando B t = B.

Observa que si una φ es forma hermı́tica, entonces φ(→


−u,→−u ) es necesaria-


mente real para todo u (¿por qué?). La noción de forma definida positiva se
define del mismo modo en el caso complejo que en el caso real.

3.3.4 Definición Un producto hermı́tico es una forma sesquilineal hermı́tica


definida positiva.

El método de Gram-Schmidt funciona exactamente igual para productos


hermı́ticos. El criterio de Sylvester también sigue siendo válido, con la obvia
modificación de cambiar “simétrica”por “hermı́tica”, y “bilineal”por “sesquilin-
eal”.

5
3.3.5 Definición Un espacio vectorial euclı́deo es un R−espacio vectorial con

-0
un producto escalar.
05
9-
3.4. Ortogonalidad y subespacios
l2

De aquı́ en adelante, cuando estemos trabajando en un espacio euclı́deo o


de

unitario y no sea necesario explicitar el producto escalar o hermı́tico correspondi-


ente, muchas veces denotaremos el producto de dos vectores → −u y→ −
v simplemente
n

como →−u ·→−


v.
sió

3.4.1 Definición Sea E espacio euclı́deo o unitario de dimensión finita, y


r

S ⊂ E un subconjunto cualquiera (no necesariamente un subespacio).


Ve

Se llama subespacio ortogonal a S a

S ⊥ = {→

v ∈E |→

u ·→

v = 0 ∀→

u ∈ S}.

 
2 2 1
3.4.2 Ejemplo.- Consideremos R con el producto escalar de matriz
1 1
en la base usual de R2 B = {→−
e1 = (1, 0), →

e2 = (0, 1)}.
→− ⊥ 2
Como { e1 } = {(x, y) ∈ R t.q. φ((x, y), (1, 0)) = 0}, donde (x, y) son coor-
denadas en la base B, resulta
    
2 1 1 1
(x y) = (2x + y x + y) = 2x + y,
1 1 0 0

de modo que {→

e1 }⊥ es la recta (vectorial) 2x + y = 0.
3.4. ORTOGONALIDAD Y SUBESPACIOS 81

e1

2x+y=0

Figura 3.1: El vector (1, 0) y la recta vectorial 2x + y = 0 son perpendiculares


respecto al producto escalar del ejemplo 3.4.2.

5
-0
3.4.3 Proposición Sea E espacio vectorial euclı́deo o unitario de dimensión
05
finita, y S ⊂ E subconjunto.
i) S ⊥ es un subespacio vectorial.
9-
ii) S ⊂ R ⇒ R⊥ ⊂ S ⊥ .
l2

iii) S ⊥ = hSi⊥ .


iv) hSi ∩ S ⊥ = { 0 }.
de

 ⊥
v) hSi ⊂ S ⊥ .
n
sió

Demostración.- i) Si → −u,→−v ∈ S ⊥ entonces φ(→ −


u,→ −
s ) = 0, φ(→ −
v ,→
−s) =
0 ∀→−
s ∈ S. Por tanto dados λ1 , λ2 cualesquiera φ(λ1 →

u + λ2 →−v ,→

s ) = 0 ∀→
−s ∈ S,
r

por lo que λ1 →
−u + λ2 →
−v ∈ S ⊥ ∀λ1 , λ2 .
Ve

La prueba del resto de los aparados es igual de sencilla, y queda como ejer-
cicio. En el caso de iv), basta tomar una base ortonormal de hSi. 

3.4.4 Una propiedad importante respecto a tomar ortogonales es que un sube-


spacio y su ortogonal siempre forman una descomposición del espacio ambiente
como suma directa. Es decir:
L
Proposición Si F es subespacio vectorial de E, entonces E = F F ⊥.


Demostración.- Por el punto iv) de la proposición anterior, F ∩F ⊥ = { 0 }.
Por otra parte, sea {− →1 , . . . , −
u →k } base ortonormal de F . La completamos hasta
u
formar una base {u1 , . . . , uk , e−k+1

→ −→ −→, . . . , −
e→
n }.
Aplicamos Gram-Schmidt a esta base, y obtenemos {− →1 , −
u →k , u
u −− → −

k+1 , . . . , un }.
− − → →
− −
→ →

Como φ(uk+1 , uj ) = 0 para j = 1, . . . , k, . . ., φ(un , uj ) = 0 para j = 1, . . . , k.
Por tanto {u −−→ −

k+1 , . . . , un } ⊂ F

(son una base, de hecho).
Entonces todo → −u ∈ E se expresa como → − −
→1 + · · · + λk u
u = λ1 u −
→k + λk+1 u −− →
k+1 +


· · · + λn u n , y λ −

u
1 1 + · · · + λ −

u
k k ∈ F , λ −
u−
k+1 k+1
→ + · · · + λ −
u→
n n ∈ F ⊥
, con lo que
82 CAPÍTULO 3. ESPACIOS VECTORIALES EUCLÍDEOS Y UNITARIOS

E = F + F ⊥. 

3.4.5 Como consecuencia inmediata, tenemos:

Corolario i) dim F ⊥ = dim E − dim F .


⊥
ii) Si F es subespacio vectorial de E, F ⊥ = F .
⊥
iii) En general, siendo S un subconjunto de E, S ⊥ = hSi.

Demostración.- i) Es consecuencia directa de la proposicion anterior.


⊥ ⊥
ii) Sabemos F ⊥ ⊃ F . Además dim F ⊥ = dim E − dim F ⊥ = dim E −
 ⊥
(dim E − dim F ) = dim F , por lo que F ⊥ = F ,
iii) Es evidente. 

3.4.6 Hay que tener mucho cuidado en cómo se relaciona el tomar ortogonales
con las otras operaciones conocidas entre subespacios (intersecciones y sumas).

5
Tomar ortogonales no conmuta con estas operaciones, ni mucho menos. De hecho

-0
las intercambia, en el sentido del resultado siguiente:
05
Proposición Si F1 , F2 son subespacios entonces (F1 + F2 )⊥ = F1⊥ ∩ F2⊥ y
9-
(F1 ∩ F2 )⊥ = F1⊥ + F2⊥
l2

Demostración.- i) Como Fj ⊂ F1 + F2 , (j = 1, 2) se tiene la inclusión


de

(F1 + F2 ) ⊂ F1⊥ + F2⊥ . Además, sea →



v ∈ F1⊥ ∩ F2⊥ . Dado →−
u ∈ F1 + F2 existen

u1 ∈ F1 , u2 ∈ F2 tales que u = u1 + u2 , de modo que v · u = →
→ −
→ →
− −
→ −
→ →
− →
− −
v ·−
→1 + →
u −
v ·−
→2 = 0,
u
n



por lo que v ∈ (F1 + F2 ) .⊥
r sió

ii) Usando el apartado anterior, seguido de el corolario 3.4.5 ii), tenemos


Ve

⊥ ⊥ ⊥
F1⊥ + F2⊥ = F1⊥ ∩ F2⊥ = F 1 ∩ F2 .

Tomando de nuevo ortogonales y usando otra vez el corolario 3.4.5 ii), deducimos
que
h ⊥ i⊥ ⊥
F1⊥ + F2⊥ = F1⊥ + F2⊥ = (F1 ∩ F2 ) .

3.4.7 Ejemplo.- Sea φ la forma bilineal en R3 que tiene, en la base canónica,


matriz  
2 1 −1
 1 1 0 
−1 0 3
Ya sabemos (ver el ejemplo 3.2.7) que φ es un producto escalar.
Sea S = {(1, 0, 0), (0, 1, 0)}. ¿Quién es S ⊥ ?
3.4. ORTOGONALIDAD Y SUBESPACIOS 83

0 = φ((x, y, z), (1, 0, 0))


  
2 1 −1 1
= (x y z)  1 1 0   0 
−1 0 3 0


1
= (2x + y − z x + y − x + 3z)  0 
0
= 2x + y − z

0 = φ((x, y, z), (0, 1, 0))


  
2 1 −1 0
= (x y z)  1 1 0   1 
−1 0 3 0

5

-0
0
05
= (2x + y − z x + y − x + 3z)  1 
0
9-
= x+y
l2

De modo que S ⊥ es la recta (subespacio vectorial de dimensión 1)


de

 
2x + y − z = 0
n

,
x+y =0
sió

que se expresa paramétricamente como x = −y, z = 2x + y = −y, de modo que


r
Ve

por ejemplo S ⊥ = h(1, −1, 1)i.

S = <S>

<S>
y

Figura 3.2: Ejemplo 3.4.7.


84 CAPÍTULO 3. ESPACIOS VECTORIALES EUCLÍDEOS Y UNITARIOS

3.5. Proyecciones y simetrı́as ortogonales (en es-


pacios vectoriales euclı́deos)
Ya tratamos en la sección 2.3 las proyecciones y simetrı́as sobre un subespacio
vectorial (en realidad, en dicha sección lo tratamos incluso sobre una variedad
lineal), y ahora vamos a volver momentáneamente a ellas.
Ahora que estamos considerando espacios vectoriales con más estructura,
de entre todas las proyecciones o simetrı́as sobre un subespacio vectorial dado,
existe una especial (en el sentido de cierta compatibilidad con la estructura
adicional que define el producto escalar), que es aquella que se realiza en la
dirección ortogonal al subespacio en cuestión. Estas aplicaciones son de utilidad
en muchos contextos, y por eso nos vamos a detener en ellas.

L ⊥
3.5.1 Si W es un subespacio vectorial de E, como W W = E, cada ~e ∈ E
se descompone de manera única como ~e = ~u + ~v con ~u ∈ W, ~v ∈ W ⊥ .

5
-0
Definición Con la notación anterior, ~u es la proyección ortogonal de ~e sobre
05
W . Es decir, una proyección ortogonal es una proyección sobre un subespacio
en la dirección del subespacio ortogonal.
9-
l2
de

3.5.2 Las proyecciones ortogonales son muy importantes en muchos contextos,


ası́ que vamos a ver cómo calcularlas:
n
sió

Sea W ⊂ E subespacio, y sea p : E → W la aplicación “proyección ortogo-


r

nal”.
Ve

Dado →−x ∈ E, p(→



x ) ∈ W . Por tanto, si {−
→1 , . . . , −
u →r } es una base cualquiera
u
(no necesariamente ortonormal) de W , se tiene P ( x ) = λ1 −

− →1 + · · · + λr −
u →r .
u
Como → −
x − p(→−
x ) ∈ W ⊥ , tenemos (→
−x − p(→ −x )) · → −
uj = 0 para j = 1, . . . , r.
Luego


− 
x ·−
→1 − λ1 (−
u →1 , −
u →1 ) − · · · − λr (−
u →r , −
u →1 ) = 0
u 

.. Sistema de r ecuaciones
.  con r incógnitas λ1 , . . . , λr

− 
x ·−
→r − λ1 (−
u →1 , −
u →r ) − · · · − λr (−
u →r , −
u →r ) = 0
u

Como p(→

x ) es único, el sistema tiene que tener solución única, de modo que

(−
→1 · −
u →1 ) · · · (−
u →r · −
u →1 )
u
Dr = .. .. 6= 0
. .
(−
→1 · −
u →r ) · · · (−
u →r · −
u →r )
u
3.5. PROYECCIONES Y SIMETRÍAS ORTOGONALES 85

y la solución, por la regla de Cramer, es


(−
→1 · −
u →1 )
u · · · (→

x ·− →1 ) · · · (−
u →r · −
u →1 )
u
.. .. ..
1 . . .
λj =
Dr (−
→1 · −
u →r )
u · · · (→

x ·− →r ) · · · (−
u →r · −
u →r )
u

columna j, j = 1, . . . , r

Ası́ p(→

x ) = λ1 −
→1 + · · · + λr −
u →r con los λ’s anteriores.
u

3.5.3 Por el mismo precio, podemos describir la simetrı́a ortogonal respecto a


un subespacio W . Por supuesto, la definición es simplemente:

Definición La simetrı́a ortogonal respecto a un subespacio W es la simetrı́a


respecto de W en dirección a W ⊥ .

Si p es, como antes, la proyección sobre W y llamamos q a la proyección


sobre W ⊥ , se tiene →

x = p(→

x ) + q(→

5
x ). En esos términos, la aplicación “simetrı́a

-0
ortogonalrespecto de W es


x 7→ s(→

x ) = p(→

x ) − q(→

x ).
05
9-
Para calcularla sólo en términos de p, basta observar que →

x +s(→

x ) = 2p(→

x ),
l2

luego
s(→

x ) = 2p(→−x)−→ −
de

x.

3.5.4 Ejemplo.- En R3 , sea de nuevo φ el producto escalar de matriz


n

 
sió

2 1 −1
 1 1 0 
r
Ve

−1 0 3
en la base canónica.
Sea W = {z = 0} = h(1, 0, 0), (0, 1, 0)i y B = {− →1 = (1, 0, 0), −
u →2 = (0, 1, 0)}
u
base de W .
Calculamos
(−→1 · −
u →1 ) (−
u →2 · −
u →1 )
u 2 1

→ −
→ −
→ →2 ) = 1 1 = 1

( u1 · u2 ) ( u2 · u
Sea →

x = (x1 , x2 , x3 ), y p(→− −
→1 + λ2 u
x )= λ1 u −
→2 .
 
2 1 −1 1
Como →−x ·−→1 = (x1 x2 x3 )  1 1 0   0  = 2x1 + x2 − x3 , y
u
−1 0 3 0
  
2 1 −1 0


x ·−→2 = (x1 x2 x3 )  1 1 0   1  = x1 + x2 , tenemos
u
−1 0 3 0

1 →

x ·−
→1
u −
→2 · −
u →1
u 2x1 + x2 − x3 1
λ1 = →
− −
→2 −
→ −
→2 = = x1 − x3 ,
1 x ·u u2 · u x1 + x 2 1
86 CAPÍTULO 3. ESPACIOS VECTORIALES EUCLÍDEOS Y UNITARIOS

y
1 2 2x1 + x2 − x3
λ2 = = x2 + x3 .
1 1 x1 + x2
Luego p(→
−x ) = (x1 − x3 )−
→1 + (x2 + x3 )−
u →2 = (x1 − x3 , x2 + x3 , 0) (ecuación
u
de la proyección ortogonal sobre W ).

La ecuación de la simetrı́a ortogonal en W es s(→ −


x ) = 2p(→ −
x)−→

x = (2x1 −
2x3 , 2x2 + 2x3 , 0) − (x1 , x2 , x3 ) = (x1 − 2x3 , x2 + 2x3 , −x3 ).

Por ejemplo p((0, 0, 1)) = (−1, −1, 0), mientras que s((0, 0, 1)) = (−2, 2, −1).

3.6. Aplicaciones adjuntas y autoadjuntas


3.6.1 Definición Sea E espacio euclı́deo o unitario de dimensión finita. Sea f
un endomorfismo de E (una aplicación f : E → E lineal). La aplicación adjunta
de f es un endomorfismo f ∗ tal que

5
-0


u · f ∗ (→

v ) = f (→

u)·→

v ∀→
05 −
u,→

v ∈ E.
9-
l2

Para ver que la definición de adjunta tiene sentido debemos comprobar dos
de

cosas:
i) Existe g tal que →−
u · g(→

v ) = f (→

u)·→
−v ∀→−
u ,→
−v.
n

ii) Tal g es única.


sió

Comenzamos por comprobar ii), que es más fácil:


r

Si g, h cumplen ambas lo mismo


Ve



u · g(→

v ) = f (→

u)·→

v =→

u · h(→

v ) ∀→

u ,→

v,

entonces


u · (g(→

v ) − h(→

v )) = 0 ∀→

u,→

v.

− −
En particular, tomando →−
u = g(→ −v )−h(→ −v ) deducimos g(→

v )−h(→−
v ) = 0 ∀→
v,
y por tanto g ≡ h.
Para demostrar i), sea B = {→

e1 , . . . , −
e→
n } base ortonormal de E y M la matriz
de f en esa base.
Sea C la matriz M t en el caso real y M t en el complejo, y g la aplicación
lineal en E cuya matriz en B es M . Veamos que g = f ∗ .

f (→

ei ) · →

ek = (a1i →

e1 + · · · + ani →

en ) · →

ek = aki



ei · g(→

ek ) = →

ek · (ak1 →

e1 + · · · + akn −
e→
n ) = aki

Ası́ que f (→

ei ) · →

ek = →

ei · g(→

ek ).
3.6. APLICACIONES ADJUNTAS Y AUTOADJUNTAS 87

n
X n
X
Ahora, dados →

x = xi →

ei , →

y = yj →

ej tenemos
i=1 j=1

n X
X n
f (→

x)·→

y = xi yj (f (→

ei ) · →

ej )
i=1 j=1
n X
X n
= xi yj (→

ei · g(→

ej ))
i=1 j=1
= →

x · g(→

y ).

Luego, efectivamente, g = f ∗ .

Observación.- En una base ortonormal, la matriz de f ∗ es M t , donde M


es la matriz de f en dicha base.

3.6.2 Algunas propiedades sencillas de las adjuntas son:

5
-0
• La identidad tiene como adjunta a sı́ misma.
• (f ∗ )∗ = f .
• (f + g)∗ = f ∗ + g ∗ .
05
9-
• (f ◦ g)∗ = g ∗ ◦ f ∗ .
• Si f tiene inversa, (f −1 )∗ = (f ∗ )−1 .
l2

• Si W es un subespacio invariante respecto a f , entonces W ⊥ es un subespacio


invariante respecto a f ∗ .
de

3.6.3 Parece claro que las aplicaciones que sean adjuntas de sı́ mismas deberı́an
n

tener interés, ¿no?


sió

Definición Un endomorfismo f : E → E (con E un espacio euclı́deo o


r

unitario) es una aplicación autoadjunta si f ∗ = f , es decir, si


Ve

f (→

u)·→

v =→

u · f (→

v ) ∀→

u,→

v ∈ E.

3.6.4 De lo visto hasta aquı́ se duduce inmediatamente:

Proposición Si M es la matriz de f en una base ortonormal, f es autoad-


junta si y sólo si M = M t en el caso real o M = M t en el caso complejo.

Se suele llamar a las matrices M que cumplen M = M t matrices simétricas,


y a las que cumplen M = M t matrices hermı́ticas.

3.6.5 Nuestro objetivo ahora va a ser comprobar que las aplicaciones autoad-
juntas (i.e. las matrices simétricas o hermı́ticas) siempre diagonalizan.
Para ello necesitamos un resultado previo:
88 CAPÍTULO 3. ESPACIOS VECTORIALES EUCLÍDEOS Y UNITARIOS

Lema Sea E espacio euclı́deo o unitario, y sea f : E → E aplicación


autoadjunta. Entonces el polinomio caracterı́stico de f es de la forma

p(x) = ±(x − λ1 ) · · · (x − λn ),

con λ1 , . . . , λn ∈ R (tanto en el caso euclı́deo como unitario).

Demostración.- Veamos que en el caso unitario todos los autovalores son




reales. Si f (→

v ) = λ→−
v con →−
v 6= 0 , tenemos λ(→

v ·→

v ) = (λ→

v )·→

v = f (→

v )·→
−v =

− →
− →
− →

v · f ( v ) = v · (λ v ) = λ( v · v ). Como v · v > 0, entonces λ = λ( v · →

− →− →
− →− →
− −
v ),
es decir λ ∈ R.

En el caso euclı́deo: sea M la matriz de f en una base ortonormal. Con-


siderando M como matriz con entradas complejas, M es hermı́tica (M = M t ),
y por tanto es la matriz de una aplicación lineal f : E → E de un espacio
unitario (y f es autoadjunta). Como f y f tienen la misma matriz, tienen el

5
mismo polinomio caracterı́stico. Por el caso anterior, todos los autovalores son

-0
reales. 
05
3.6.6 El resultado que buscábamos es:
9-
l2

Teorema Si E es espacio euclı́deo o unitario y f : E → E es autoadjunta,


existe una base ortonormal de vectores propios.
de

Demostración.- Procedemos por inducción en la dimensión de E.


n

Si dim E = 1, todo vector es autovector y no hay nada que demostrar.


sió

Supongamos que es cierto en dimensión n − 1. Si dim E = n, el polinomio


caracterı́stico p(x) = det(f − xId) tiene una raiz λ1 (y λ1 ∈ R por el lema).
r
Ve

Sea →−v un autovector unitario de valor propio → − v ) = λ1 →


v : f (→
− −
v . El subespacio

− ⊥
h v i = F ⊂ E es invariante por f (pues f es autoadjunta).
Luego f|F es autoadjunta, y por hipótesis de inducción existe una base
ortonormal {→ −
v2 , . . . , −
v→ →
− −

n } de F formada por autovectores de F . Ası́ { v1 , . . . , vn }
es una base ortonormal de E formada por autovectores. 
Capı́tulo 4

Espacios afines euclı́deos

4.1. Norma y distancia

5
-0
Un producto escalar o hermı́tico, además de permitirnos hablar de ortogo-
nalidad, determina una forma de definir una noción de tamaño de los vectores
05
mediante el cálculo de φ(→

v ,→

v ). De hecho, lo que se obtiene (una norma) es un
9-
caso particular de un objeto más general:
l2

4.1.1 Definición Sea E espacio vectorial sobre R o C. Una norma en E es


de

una aplicación
k k: E → R
n


−v 7→ k → −
v k
sió

tal que


r

i) k →
−v k= 0 ⇔ →−v = 0
Ve

ii) k k →

v k= |k| k →

v k
iii) k u + v k≤k →

− →
− −u k+k→ −
v k (desigualdad triangular)
(donde |k| es valor absoluto en el caso de R y módulo en el caso de C).

4.1.2 Como decı́amos, un producto escalar (o hermı́tico) induce de modo nat-


ural una norma:

Proposición Si E es espacio euclı́deo o unitario, la aplicación

E → Rp


u 7→ φ(→

u,→

u ) =k →

u k
es una norma.

Definición.- De las tres propiedades de norma:


i) es porque φ es definida positiva.

89
90 CAPÍTULO 4. ESPACIOS AFINES EUCLÍDEOS

ii) se sigue del cálculo siguiente:


p q
φ(k →

u , k→

u) = (kk)φ(→−u,→
−u)
p
= |k| 2 →
− →

p φ( u , u )
= |k| φ(→ −
u,→−
u)

Para demostrar iii) nos hace falta el siguiente lema:


Lema [Desigualdad de Cauchy-Schwarz] Si φ es un producto escalar o
hermı́tico, entonces

|φ(→

u,→

v )|2 ≤ φ(→

u,→

u )φ(→

v ,→

v ) ∀→

u,→

v ∈ E.

Demostración.- Volvamos a la notación del punto por comodidad: quere-


mos probar |→

u ·→

v |2 ≤k →

u k·k→−
v k.

− →

Si v = 0 es obviamente cierto. Si →

− −
v 6= 0 , sea

5
φ(→
−u,→−

-0
v)
k= →
− →
− ,
φ( v , v )
05
y tenemos
9-
l2

0 ≤ (→

u − k→

v ) · (→

u − k→

v)
de

= →

u ·→

u − k(→

v ·→

u ) − k(→

u ·→

v ) + kk(→

v ·→

v)
n

(→

u ·→

v )(→

v ·→

u ) (→

u ·→

v )(→
− v ) (→
u ·→
− −
u ·→

v )(→

u ·→

v)
sió

= →

u ·→

u − →
− →
− − →
− →
− + →
− →

(v · v) (v · v) (v · v)
r
Ve

(→

u ·→

v )(→

v ·→

u) √
= →

u ·→

u − →
− →

(v · v)


Con esto, la demostración de la desigualdad triangular es:

(→

u +→

v ) · (→

u +→

v) = →

u ·→

u +→

u ·→

v +→

v ·→

u +→

v ·→

v

= →

u ·→

u +→

v ·→

v + (→

u ·→

v +→

u ·→

v)

≤ →

u ·→

u +→

v ·→

v + 2|→

u ·→

v|
√ √
≤ →

u ·→

u +→

v ·→

v +2 →−
u ·→

u → −
v ·→

v
√ √
= ( →
− u + →
u ·→
− −v ·→

v )2


4.1. NORMA Y DISTANCIA 91

4.1.3 El espacio en que tiene lugar la geometrı́a que llamamos euclı́dea es un


espacio afı́n en el que el espacio vectorial subyacente tiene un producto escalar.
Es decir:

Definición Sea (A, E, φ) un espacio afı́n real (E es R−espacio vectorial). Si


E es un espacio vectorial euclı́deo (i.e., si tiene un producto escalar), (A, E, φ)
es un espacio afı́n euclı́deo.

4.1.4 La gracia de tener un producto escalar en E que, como hemos visto nos
permite calcular tamaño de vectores, nos va a servir para medir distancias en
A. De nuevo, la noción matemática de distancia es algo más general:
Definición Sea X un conjunto. Una distancia en X es una aplicación

d:X ×X → R

tal que para todo p, q, r ∈ A

5
i) d(p, q) ≥ 0, y d(p, q) = 0 ⇔ p = q.

-0
ii) d(p, q) = d(q, p). 05
iii) d(p, q) ≤ d(p, r) + d(r, q) (desigualdad triangular).
9-
l2

4.1.5 Como decı́amos, la norma (en realidad, pues, el producto escalar) en un


de

espacio vectorial euclı́deo induce de manera natural una distancia en cualquier


espacio afı́n euclı́deo modelado sobre él:
n
sió

Proposición Si (A, E, φ) es un espacio afı́n euclı́deo, la aplicación


r

d :A×A → R
Ve

p
(p, q) 7→ d(p, q) = φ(→

pq, →

pq) =k →

pq k

es una distancia.

Demostración.- Las tres propiedades de distancia se siguen de las propiedades


de la norma asociada a φ (ver la proposición 4.1.2). 

4.1.6 Quizá el resultado matemático mas conocido para el gran público sea el
Teorema de Pitágoras. En él se combinan dos nociones que hemos tratado aquı́:
distancia y ortogonalidad, en el caso del espacio euclı́deo real usual (con las
nociones de ortogonalidad y de distancia asociadas al producto escalar usual).
Sin embargo, se trata de un teorema absolutamente general, que funciona en
cualquier espacio afı́n euclı́deo (con cualquier producto escalar):

Proposición [Teorema de Pitágoras] Sean p, q, r tres puntos de un espa-


cio afı́n euclı́deo. Si →
− ·→
pq − = 0, entonces se cumple d(q, p)2 +d(p, r)2 = d(q, r)2 .
pr
92 CAPÍTULO 4. ESPACIOS AFINES EUCLÍDEOS

Demostración.- Es un cálculo directo:


d(q, r)2 = k→

qr k2

= →

qr · →

qr

= (→

pr − →

pq) · (→

pr − →

pq)

= k→

pr k2 + k →

pq k2

= d(p, r)2 + d(p, q)2

4.2. Ortogonalidad y variedades lineales


4.2.1 La ortogonalidad de variedades lineales de un espacio afı́n se define, por

5
supuesto, en términos de ortogonalidad en espacios vectoriales:

-0
05
Definición Dos variedades lineales a + F y b + G de un espacio afı́n de
dimensión n son ortogonales o perpendiculares cuando se dan una de estas dos
9-
condiciones:
l2

•→−
u ·→−v = 0 ∀→−
u ∈ F, ∀→−v ∈ G (por tanto F ⊂ G⊥ , y necesariamente la suma
de las dos dimensiones es ≤ n).
de

• Cuando dim F + dim G ≥ n y a + F ⊥ y b + G⊥ son ortogonales.


n
sió

4.2.2 Ejemplos La figura 4.1 muestra ejemplos de variedades ortogonales en


R3 con el producto usual, en los tres casos posibles (dependiendo de que la suma
r
Ve

de las dimensiones de las dos variedades sea menor, mayor o exactamente igual
a 3).

Figura 4.1: Ejemplos de variedades lineales ortogonales en R3 .


4.2. ORTOGONALIDAD Y VARIEDADES LINEALES 93

4.2.3 Ejemplos.- a) (Vector perpendicular a un hiperplano): Sea {p; → −e1 , . . . , −


e→
n}

− →

una referencia ortonormal (i.e. { e1 , . . . , en } es base ortonormal) de un espacio
afı́n euclı́deo de dimensión n. Sea a1 x1 + · · · + an xn = b la ecuación de un
hiperplano en dicho sistema. Entonces el vector de coordenadas (a1 , . . . , an ) en
{→

e1 , . . . , →

en } es ortogonal a cada vector de la dirección del hiperplano (pues la di-
rección es precisamente los vectores (x1 , . . . , xn ) tales que a1 x1 +· · ·+an xn = 0).

b) (Perpendicular común) Sea A el espacio afı́n euclı́deo de dimensión 3 (R 3 con


un producto escalar).
Dos rectas a + h→−u i, b + h→

v i se cruzan cuando no son paralelas ni se cortan.

− →
− →

Entonces sabemos que u , v son linealmente independientes y ab ∈ / h→−u ,→

v i.
Vamos a calcular la perpendicular común a ambas rectas, que será después de
utilidad.
−−→ →

Consideramos → −
w ∈ hu, → −
v i⊥ , →

w 6= 0 (observación: h→

u,→−
v i⊥ tiene dimensión
1). Los espacios de direcciones de los planos a + h u , w i y b + h→

− →
− −
v ,→
−w i contienen
a la dirección perpendicular común. Además, cada uno contiene a una de las

5
dos rectas.

-0


Como {→ −u,→−v ,→

w } son base de R3 , ab ∈ h→−u,→
−w i + h→−
v ,→

w i. Es decir, que los
05
dos planos se cortan, y lo hacen en una variedad lineal, de dimensión necesaria-
mente 1, dada como (a + h→ −u,→−
w i) ∩ (b + h→

v ,→

w i) = c + (h→−
u,→ −
w i ∩ h→
−v ,→−
w i) =
9-
c + h→−
w i. Es claro que esa es la recta perpendicular común a a + h→ −u i, b + h→
−vi
l2

(que es perpendicular está claro, pero: ¿ves por qué esa recta corta a las dos de
partida?). Los puntos de corte de la perpendicular común con las dos rectas se
de

llaman pies de la perpendicular común.


n
sió

b+<v>
r
Ve

c+<w>

a+<u>

Figura 4.2: La perpendicular común a dos rectas de R3 .

4.2.4 Ejemplo.- Consideremos, en R3 , las rectas L1 = (0, 1, 0) + t(0, 0, 1) y


L2 = (0, 0, 1) + t(1, 0, 0).
Con el ejemplo usual, la perpendicular común serı́a (0, 0, 1) + t(0, 1, 0). ¿Y
94 CAPÍTULO 4. ESPACIOS AFINES EUCLÍDEOS

L1
L2

Figura 4.3: Las rectas del ejemplo 4.2.4.


 

5
2 1 −1

-0
con el producto φ de matriz  1 1 0  en la base usual?
05
−1 0 3
9-
Para calcular el espacio ortogonal a h(0, 0, 1), (1, 0, 0)i:
    
l2

2 1 −1 0 0
(x y z)  1 1 0   0  = (2x + y − z, x + y, −x + 3z)  0 
de

−1 0 3 1 1
n

= −x + 3z = 0
sió

    
r

2 1 −1 1 1
Ve

(x y z)  1 1 0   0  = (2x + y − z, x + y, −x + 3z)  0 
−1 0 3 0 0

= 2x + y − z = 0
Como reescritas en forma paramétrica las ecuaciones anteriores son x =
3z, y = −5z, entonces h(0, 0, 1), (1, 0, 0)i⊥ = h(3, −5, 1)i.

Sea π1 = (0, 1, 0) + h(0, 0, 1), (3, −5, 1)i, que tiene ecuación
x 0 3
y − 1 0 −5 = 3y − 3 + 5x = 0.
z 1 1
Igualmente, si π2 = (0, 0, 1) + h(1, 0, 0), (3, −5, 1)i, su ecuación es
x 1 3
y 0 −5 = −5z + 5 − y = 0.
z−1 0 1
4.3. DISTANCIA ENTRE VARIEDADES 95

La perpendicular común es pues la recta



5x + 3y − 3 = 0
y + 5z − 5 = 0
 
4
que paramétricamente se describe, por ejemplo, como 0, 1, + t(3, −5, 1).
 5
4 1
Los pies se obtienen muy fácilmente, pues t = 0 → 0, 1, ∈ L1 y t = →
  5 5
3
, 0, 1 ∈ L2 .
5

4.3. Distancia entre variedades


4.3.1 Definición Dadas L1 , L2 variedades lineales,
d(L1 , L2 ) = mı́n{d(p, q) / p ∈ L1 , q ∈ L2 }

5
-0
05
No entraremos en ello ahora, pero el mı́nimo que aparece en la definición
anterior siempre existe, y siempre existen a ∈ L1 , b ∈ L2 tales que d(L1 , L2 ) =
9-
d(a, b). Antes de ocuparnos de cómo se calcula en un caso absolutamente general,
l2

vamos a ocuparnos de unos pocos casos particulares más sencillos.


de

4.3.2 Distancia de un punto a un hiperplano


Sea p ∈ A y sea a + F un hiperplano. Sea q ∈ (a + F ) la proyección ortogonal
de p sobre el hiperplano a + F (recordar: q es (p + F ⊥ ) ∩ (a + F )).
n

Sea x ∈ a + F un punto cualquiera de a + F . Sabemos → −


pq · −
→ = 0, luego por
sió

qx
2 2 2 2
Pitágoras d(p, x) = d(p, q) + d(q, x) ≥ d(p, q) . De modo que d(p, a + F ) =
r

d(p, q).
Ve

 
2 1 −1
Ejemplo.- Consideramos de nuevo R3 , con φ de matriz  1 1 0 
−1 0 3
en la base usual.
Sea π el plano z = 0, p = (0, 0, 1). Vimos (ver ejemplo 3.5.4) que la proyección
ortogonal de p sobre π es (−1, 1, 0). Cuando lo hicimos consideramos R3 como
espacio vectorial euclı́deo, pero lo que allı́ hicimos no nos valdrı́a para calcular
una proyección ortogonal sobre una variedad lineal que no pase por el origen
(i.e. que no sea subespacio vectorial). Vamos a repetir aquel cálculo de forma
más propiamente afı́n.
Escribimos π = {z = 0} = (0, 0, 0) + h(1, 0, 0), (0, 1, 0)i.
(0, 1, 0)i. Como vimos en el ejemplo 3.4.7, F ⊥ = h(−1, 1, −1)i,
Sea F = h(1, 0, 0),
2x + y − z = 0
que tiene ecuaciones . Ası́ que p + F ⊥ tiene ecuaciones
x+y =0
x y z−1
= = ,
−1 1 −1
96 CAPÍTULO 4. ESPACIOS AFINES EUCLÍDEOS

de modo que (p + F ⊥ ) ∩ π viene dado por

z=0
x+y =0
y+z−1

obteniéndose pues el punto q = (−1, 1, 0).   


2 1 −1 −1
Luego →−
pq = (−1, 1, −1), y como (−1 1 − 1)  1 1 0   1  = 2,
−1 0 3 −1

se tiene d(p, π) = 2.

Si el plano fuera π1 = {z = −1} = (0, 0, −1) + h(1, 0, 0), (0, 1, 0)i:


Ahora la intersección de p + F ⊥ = {x + y = 0, y + z − 1 = 0} con π1 =√{z =
−1} es q = (−2, 2, −1), de modo que → −
pq = (−2, 2, −2) y d(p, q) = |→ −
pq| = 8 =
d(p, π1 ).

5
Observación.- Dados p, π = a+F , se puede evitar el cálculo de la proyección

-0
ortogonal si se usa el siguiente truco: si →

u es ortogonal a F y unitario, entonces

− →
− 05
pq = k u (siendo q la proyección ortogonal), con |k| = d(p, q). Entonces, dado
x ∈ π cualquiera se tiene
9-

→·→−
u = (→

pq + −
→ ·→−
u = k→

u ·→

l2

px qx) u = k,
de

luego
d(p, π) = |−
→·→
px −
u | =k pF ⊥ (−
→) k
px
n

( con x ∈ π cualquiera).
sió

Esto es especialmente útil si trabajamos en una base ortonormal : si a1 x1 +


· · · + an xn + b = 0 es la ecuación de π en una base ortonormal, sea
r
Ve


− 1
u =p (a1 , . . . , an )
a21 + · · · + a2n
en dicha base.
Dado x ∈ π,


→·→− 1
px u = p ((x1 − p1 )a1 + · · · + (xn − pn )an )
a21 + · · · + a2n
1
= p (a1 x1 + · · · + an xn − a1 p1 − · · · − an pn − b)
a21 + · · · + a2n
−1
= p (a1 p1 + · · · + an pn + b),
a21 + · · · + a2n
luego
|a1 p1 + · · · an pn + b|
d(p, π) = p
a21 + · · · + a2n
(observa que el numerador es simplemente evaluar en p la ecuación de π).
4.3. DISTANCIA ENTRE VARIEDADES 97

4.3.3 Distancia entre variedades paralelas


(El anterior es por supuesto un caso particular de este). Sean L1 = a1 +
F1 , L2 = a2 + F2 con F1 ⊂ F2 .
Sabemos que d(L1 , L2 ) se alcanza para ciertos puntos p ∈ L1 , q ∈ L2 . Por
el mismo argumento de antes, q es la proyección ortogonal de p a L2 y q es la
proyección ortogonal de q a L1 . De hecho, puedo tomar como p cualquier punto
de L1 (y como q su proyección): sean p1 6= p2 ∈ L1 y q1 , q2 sus proyecciones
(que cumplen q1 6= q2 ). Por Pitágoras

d(p1 , q2 )2 = d(p1 , q1 )2 + d(q1 , q2 )2 = d(p1 , p2 )2 + d(p2 , q2 )2


d(p2 , q1 )2 = d(q2 , p2 )2 + d(q1 , q2 )2 = d(p1 , q1 )2 + d(p1 , p2 )2

restando se tiene

d(p1 , q1 )2 − d(p2 , q2 )2 = d(p2 , q2 )2 − d(p1 , q1 )2

y por tanto d(p1 , q1 ) = d(p2 , q2 ).

5
-0
Una observación importante es que si p ∈ L1 y q ∈ L2 es su proyección a L2 ,
entonces p es la proyección de q a L1 . 05
9-
l2
de

p L1
n

Puntos de L 2 que se
sió

proyectan en p
r
Ve

Proyeccion de p
L2

Figura 4.4: Proyecciones sobre p y desde p.

Pero haciéndolo en orden inverso, partiendo de un punto de L2 puede no ser


cierto (ver la figura 4.4).

Moraleja.- Tomar p ∈ L1 arbitrario, y q su proyección a L2 , siendo L1 la


variedad de dimensión menor.

4.3.4 Distancia entre dos rectas que se cruzan en dimensión 3


Sean r = a + h→ −u i, s = b + h→

v i dos rectas que se cruzan en dimensión 3. Sean
p ∈ r, q ∈ s los pies de la perpendicular común a r y a s. Entonces no es difı́cil
demostrar (compruébalo) que d(r, s) = d(p, q).
Si →−
w es unitario en la dirección de la perpendicular común, entonces →

pq = k →

w
con d(p, q) = |k| = |→ −
pq · →

w |. De hecho, ese producto escalar no depende de los
98 CAPÍTULO 4. ESPACIOS AFINES EUCLÍDEOS

puntos p y q (se pueden coger puntos cualesquiera en las rectas en lugar de



− − →
− −
los pies): si a ∈ r, b ∈ s ⇒ ap~ ·→−w = 0, bq · →w = 0, de modo que ab · → w =

→ →
− →
− →
− →
− →
− →
− →
− →

(ap + pq + qb) · w = pq · w . Se tiene d(r, s) = |pq · w | =k Ph→
− v i⊥ (pq) k.
u ,→

4.3.5 Ejemplo.- Consideremos


 una vez más R3 con el producto escalar de
2 1 −1
matriz  1 1 0 .
−1 0 3
Sea L1 = (0, 1, 0) + t(0, 0, 1), L2 = (0, 0, 1) + t(1, 0, 0). Ya vimos (ver ejemplo
4.2.4) que si W = h(0, 0, 1), (1, 0, 0)i ⇒ W ⊥ = h(3, −5, 1)i.
Como
    
2 1 −1 3 3
(3, −5, 1)  1 1 0   −5  = (0, −2, 0)  −5  = 10,

5
−1 0 3 1 1

-0

3 −5 1
 05
el vector →

w = √ ,√ ,√ es unitario.
9-
10 10 10
l2

Ası́ que
de

 
3
  √

n

2 1 −1  10 
 −5 
sió

d(L1 , L2 ) = (0, 1, −1)  1 1 0   √ 


 10 
−1 0 3  1 
r


Ve

10

 
3

 10 
 −5 
 √ 
= (2, 1, −3)  
 10 
 1 

10
2
= √
10

 
4
Lo calculamos de otro modo: sabemos (sección 4.2.4) que los pies son 0, 1,
  5
3 1
y , −1, .
5 5
4.3. DISTANCIA ENTRE VARIEDADES 99

 3 
 
2 1 −1  5 
3 1
k→
− k2
pq = ( , −1, )  1 1 0    −1


5 5 1
−1 0 3
5
 3 
 
2  5 
= 0, − , 0  
 −1 
5 1
5
2 4 √
= =
5 10
4.3.6 La distancia entre variedades es, en general:

Proposición Sean L1 , L2 dos variedades lineales en un espacio afı́n eu-

5
clı́deo. Sean W1 , W2 los espacios directores de L1 y L2 , y π : E → (W1 + W2 )⊥

-0
la proyección ortogonal sobre (W1 + W2 )⊥ . 05
Entonces d(L1 , L2 ) =k π(→

pq) k, donde p ∈ L1 , q ∈ L2 son dos puntos cua-
lesquiera.
9-
l2

Para la demostración, ver [Xa].


de

4.3.7 Ejemplos a) Hiperplano y punto.


n

L1 = {p}, L2 hiperplano.
sió

p L1
r
Ve

L2

Figura 4.5: La distancia de un punto a un hiperplano se alcanza en la proyección


ortogonal del punto.

Sabemos d(L1 , L2 ) = d(p, q) donde q es la proyección ortogonal de p. Pero


si x ∈ L2 es otro punto cualquiera px−
→=→ − + qx,
pq −
→ y→ − −
→ En este caso
pq = π(px).
(W1 + W2 )⊥ = h→−
w i (dimensión 1).
Si tomamos →−
w unitario y x ∈ L2 cualquiera, entonces

→·→
px −
w = (→
− −
→ ·→
pq + qx) −
w =→

pq · →

w =k →
− k (±→
pq −
w) · →

w =±k→

pq k,
100 CAPÍTULO 4. ESPACIOS AFINES EUCLÍDEOS

luego d(L1 , L2 ) = |−
→·→
px −
w | con →

w normal y unitario y x ∈ L2 cualquiera.

b) Rectas que se cruzan en R3 .

p
p · 1

·
q q
1

5
-0
05
9-
Figura 4.6: La distancia entre rectas que se cruzan se alcanza en los pies de la
l2

perpendicular común.
de

Si L1 , L2 son rectas que se cruzan, d(L1 , L2 ) = d(p, q) donde p, q son los pies
de la perpendicular común. Dados p1 ∈ L1 , q1 ∈ L2 se tiene − p−→ −→ −→ → −
1 q1 = p1 p+ qq1 + pq.
n

−→ −→ →

Como p1 p + qq1 ∈ W1 + W2 , pq es la proyección ortogonal.
sió

Igual que en el caso anterior hW1 + W2 i⊥ = h→ −w i con →−w unitario, dados


p1 ∈ L1 , q1 ∈ L2 cualesquiera
r
Ve

−−
p → → − →
− → − →

1 q1 · w = pq · w = ± k pq k .

Luego d(L1 , L2 ) = |−
p−→ → − →

1 q1 · w | con w normal unitario y p1 ∈ L1 , q1 ∈ L1 son
arbitrarios.

c) Variedades paralelas.

Sean L1 , L2 paralelas, con W1 ⊂ W2 (es decir, suponemos dim L1 ≤ dim L2 ),


de modo que (W1 + W2 )⊥ = W2⊥ .

Dado p1 ∈ L1 (cualquiera), sea q ∈ L2 la proyección ortogonal de p sobre


L2 .
Igual que antes, la proyección de −
p−→ ⊥ →

1 q1 sobre W2 es pq.
Idea: Tomando p cualquiera, q la proyección ⇒ d(L1 , L2 ) =k →

pq k. OJO: Hay
que empezar por la variedad de dimensión menor. (Ver el comentario al final del
párrafo 4.3.3, y la figura 4.4).
Capı́tulo 5

Isometrı́as. Movimientos en
R2 y R 3

5
-0
5.1. Isometrı́as
05
9-
5.1.1 Una vez que hemos introducido una noción de distancia, es lógico que
nos preocupemos por tratar las aplicaciones que conservan dicha noción:
l2

Definición Una aplicación f : A1 → A2 entre dos espacios afines euclı́deos


de

es una isometrı́a si d(f (a), f (b)) = d(a, b) ∀a, b ∈ A1 .


ón

Una observación importante es que las isometrı́as son necesariamente inyec-


tivas, ya que si f es isometrı́a
si

f (a) = f (b)
er


V

0 = d(f (a), f (b)) = d(a, b)



a=b

5.1.2 A estas alturas no deberı́a extrañar que si una aplicación entre los es-
pacios de puntos conserva la distancia (que es algo definido en términos del
espacio vectorial subyacente), es porque su parte lineal debe estar conservando
el producto escalar:

Proposición f : A1 → A2 aplicación entre espacios afines euclı́deos es


isometrı́a si y sólo si f es afinidad y fe conserva el producto escalar. Es decir
e→
f( − e→
u ) · f( −
v)=→

u ·→

v.

101
102 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

(El sı́mbolo · refiere al producto escalar en E1 ó en E2 según corresponda).

Demostración.- Si f es afinidad y su parte lineal preserva el producto


escalar, entonces:
−−−−−→
d(f (a), f (b))2 = k f (a)f (b) k2
−−−−−→ −−−−−→
= f (a)f (b) · f (a)f (b)

− e→ −
= fe(ab) · f( ab)

− → −
= ab · ab


= k ab k2

= d(a, b)2

5
-0
Por otra parte, sea f isometrı́a. Fijemos un p ∈ A1 , y definamos
φ : E1 −→ E2
05

− −−−−−− →
v =− → −
pa 7 → φ(→

u ) = f (p)f (a)
9-


l2

Dados →−u =− → →
pa, −
v = pb tenemos

− → k 2+ k →
− 2 →·→−
de

d(a, b)2 =k ab k 2 =k −
ap pb k + 2−
ap pb = d(a, p)2 + d(p, b)2 − 2→

u ·→

v
n

e igualmente
sió

d(f (a), f (b)) = d(f (a), f (p))2 + d(f (p), f (b))2 − 2φ(→

u ) · φ(→

v)
r

de modo que φ(→ −


u ) · φ(→
−v)=→ −
u ·→−
Ve

v.
Además (ver el lema siguiente), una aplicación que conserva el producto
escalar es siempre lineal, de modo que

− →
− →
φ(ab) = φ( pb − −

− → =−
pa) = φ( pb) − φ(−
pa)
−−−−→ − −−−−− → −−−−−→
f (p)f (b) − f (p)f (a) = f (a)f (b),

por lo que f es afinidad y fe = φ. 


5.1.3 Probemos el sencillo lema que hemos usado en la demostración anterior:

Lema Si f conserva el producto escalar, es lineal.

Demostración.- Basta comprobar que


(f (→

u +→

v ) − f (→

u ) − f (→

v )) · (f (→

u +→

v ) − f (→

u ) − f (→

v )) = 0
y que
(kf (→

u ) − f (k →

u )) · (kf (→

u ) − f (k →

u )) = 0.

5.2. APLICACIONES ORTOGONALES 103

5.1.4 Observación.- Se debe interpretar la proposición 5.1.2 como que las


isometrı́as son aplicaciones que conservan el paralelismo (por ser afinidades) y
la ortogonalidad (por conservar el producto escalar).

5.1.5 La noción de isomorfismo apropiada para espacios afines euclı́deos no


puede ser otra más que:

Definición Dos espacios afines euclı́deos son isomorfos si existe una isometrı́a
biyectiva entre ellos.

Es fácil probar (¿podrı́as hacerlo?) que:

Proposición Dos espacios afines euclı́deos de dimensión finita son isomor-


fos si y sólo si son de la misma dimensión.

5
5.2. Aplicaciones ortogonales

-0
05
5.2.1 En este capı́tulo vamos a querer estudiar los llamados desplazamientos,
que son las isometrı́as de un espacio afı́n euclı́deo en sı́ mismo. Para ello, tras lo
9-
que hemos visto hasta aquı́, vamos a necesitar entender las aplicaciones de un
l2

espacio afı́n euclı́deo en sı́ mismo que preservan el producto escalar:


de

Definición Sea E espacio vectorial euclı́deo o unitario, f : E → E es


ortogonal (en el caso euclı́deo) o unitaria (en el caso unitario) si f (→

u ) · f (→

v)=

− →
− →
− →

n

u · v ∀u, v .
r sió

5.2.2 Proposición Si f es ortogonal o unitaria, se cumple:


Ve

i) k f (→

u ) k=k →−
u k ∀→
−u ∈ E.
ii) u , v son ortogonales si y sólo si f (→

− →
− −
u ), f (→

v ) son ortogonales.
iii) f es biyectiva.
iv) Si k es autovalor entonces |k| = 1 (siendo | | valor absoluto o norma com-
pleja).
v) Si →−u,→
−v son autovectores correspondientes a autovalores diferentes, →

u y→
−v
son ortogonales.

La demostración, muy sencilla, queda como ejercicio.

5.2.3 No es difı́cil comprobar, en coordenadas, cuándo una cierta aplicación


lineal es ortogonal:

Proposición Si A es la matriz de f en cierta base {→



e1 , . . . , −
e→
n }, entonces
son equivalentes:
a) f es ortogonal (o unitaria).
b) f (→

ei ) · f (→

ej ) = →

ei · →

ej ∀i, j.
104 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

c) At GA = G (caso ortogonal) o At GA = G (caso unitario).

(Donde G es la matriz del producto escalar o hermı́tico en la base { →



e1 , . . . , →

en }).

Demostración.- a) ⇔ b) es un ejercicio.

b) ⇔ c) Observar que {f (→ −
e1 ), . . . , f (e−
→n )} es base por el punto iii) de la
proposición 5.2.2 (f es biyectiva).
La matriz del producto en esa base es At GA (caso real) o At GA (caso com-
plejo). Luego
At GA = G (ó At GA)
m
f (→

ei ) · f (→

ej ) = → −ei · →

ej ∀i, j


5
-0
5.2.4 De lo anterior se deduce inmediatamente el interesante corolario sigu-
iente:
05
9-
Corolario Si f tiene matriz A en una base ortonormal,
f ortogonal ⇔ At A = Id (A es una matriz ortogonal)
l2

f unitaria ⇔ At A = Id (A es una matriz unitaria).


de

5.2.5 Es también sencillo comprobar que:


n
sió

Corolario La matriz de cambio de base entre dos bases ortonormales es


ortogonal (en el caso real) o unitaria (en el caso complejo)
r
Ve

Observación.- Si A es ortogonal o unitaria | det A| = 1 (es ±1 en el caso


real).

5.2.6 El siguiente resultado fundamental sobre diagonalización, en el caso com-


plejo, nos va a servir para el caso real:

Teorema [Diagonalización de matrices unitarias] Sea E espacio uni-


tario y f ∈ End(E) aplicación unitaria. Existe una base ortonormal de E for-
mada por autovectores de f .

Para la demostración, ver [Ca-Ll].

5.2.7 En el caso real la situación no es tan idı́lica como para que las matrices
diagonalicen, pero están a punto de hacerlo:
5.3. MOVIMIENTOS DE LA RECTA EUCLÍDEA 105

Teorema [Forma canónica de una aplicación ortogonal] Sea E espacio


euclı́deo, y f : E → E aplicación ortogonal. Existe una base ortonormal de E
tal que la matriz de f en ella es
 
1



..
. 0 


 1 
 
 
 
 −1 
 
 .. 
 . 
 
 −1 
 
 
 
 A1 
 

 0 ..
.


Ar

5
-0
es
 decir, una
 matriz diagonal por cajas donde las submatrices A i son de la forma
a b
con a2 + b2 = 1.
05
−b a
9-
l2

Idea.- Se usa que las matices unitarias diagonalizan. Las submatrices Ai


corresponden a pares de autovalores complejos conjugados. Ver los detalles en
de

[ca-Ll].
n

5.2.8 Definición Un movimiento o desplazamiento de un espacio afı́n eu-


sió

clı́deo A es una isometrı́a de A en sı́ mismo.


r

Se llama a f movimiento directo cuando su parte lineal tiene determinante


Ve

1, y movimiento inverso cuando es −1.

Los movimientos son siempre, por lo que hemos visto hasta ahora, afinidades
biyectivas. Es más, si se elige un sistema de referencia adecuado (un sistema
ortonormal bien adaptado al movimiento en cuestión), los movimientos son
aplicaciones que se pueden  expresar en coordenadas como f (x1 , . . . , xn ) =
x1
 
(p0 , . . . , pn ) + M  ... , siendo M la forma canónica de una aplicación ortog-
xn
onal.

5.3. Movimientos de la recta euclı́dea


Aunque el caso unidimensional no da mucho jugo, empecemos tratándolo a
modo de aperitivo.
106 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

5.3.1 Sea A un espacio afı́n euclı́deo de dimensión 1. Entonces:

fe ortogonal

det(fe) = ±1
. &
fe = Id fe = −Id

5.3.2 Caso directo.- Si fe = Id, entonces f es la identidad o una traslación




de vector →

u 6= 0 .

p u f(p)

5
-0
u
05
9-
Figura 5.1: Una traslación en R1 .
l2



u
Si tomamos la referencia (ortonormal o no) {p; }, siendo p un punto
de



k u k
cualquiera, f tiene ecuación
n
sió

x0 = f (x) = x+ k →

u k
r

5.3.3 Caso inverso.- Si fe = −Id, entonces f es una homotecia de razón −1.


Ve

Como vimos en la sección 2.3.13, f fija exactamente un punto p. Si tomamos


una referencia cualquiera que tenga a p como origen, la ecuación de f es

x0 = f (x) = −x

5.4. Movimientos del plano euclı́deo


5.4.1 Lo primero que tenemos que determinar es qué posibilidades tiene una
forma canónica de una aplicación ortogonal en dimensión 2 (en una base ortonor-
mal adecuada). Según el Teorema 5.2.7, dichas posibilidades son:
       
1 0 −1 0 cos θ − sen θ 1 0
, , ,
0 1 0 −1 sen θ cos θ 0 −1

(observa que en realidad las dos primeras corresponden a tomar θ = 0 y θ = π


en la tercera).
5.4. MOVIMIENTOS DEL PLANO EUCLÍDEO 107

5.4.2 Caso directo.- Cuando fe tiene como matriz la identidad corresponde


a una traslación (o a la identidad).
Cuando la matriz es  
cos θ − sen θ
,
sen θ cos θ

dado que 1 no es autovalor de f,e se sigue de las observaciones en la sección 2.6.4


que f tiene un único punto fijo p.
La ecuación en una referencia ortonormal {p; → −
e1 , →

e2 } es
 0
x = x cos θ − y sen θ
y 0 = x sen θ + y cos θ

que representa un giro de ángulo θ y centro p (ver la figura 5.2). Esto incluye
el caso particular en que cos θ = −1 (θ = π), que corresponde a una simetrı́a
central de centro p.

f(q2) q

5
-0
2
f(q1) q1 05
9-
l2

e2 p
de

e1
n
r sió
Ve

Figura 5.2: Un giro en dimensión 2.

5.4.3 Hay que tener cuidado por el hecho obvio de que existen dos giros del
mismo centro y el mismo ángulo (que se diferencian sólo en el sentido de giro).
Es fácil comprobar que la aplicación lineal que tiene matriz
 0
x = x cos θ − y sen θ
y 0 = x sen θ + y cos θ

en una cierta base ortonormal B = {→ −


e1 , →

e2 } es un giro en la dirección desde →

e1
hacia →

e2 .
Por ejemplo, si B es la base usual de R2 , dicha aplicación representa un giro
de ángulo θ en sentido contrario a las agujas del reloj. Este suele conocerse
como sentido positivo de giro (ver los comentarios en la sección 1.6.1 sobre
orientación). Recuérdese que se dice que dos bases tienen la misma orientación
cuando el determinante del cambio de base es positivo (de hecho igual a 1 cuando
108 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

las dos bases son ortonormales). La orientación positiva es pues la de la base


usual.  
cos θ sin θ
La aplicación que en la base usual es representa un giro
− sin θ cos θ
de ángulo θ en sentido negativo, o un ángulo 2π − θ en sentido positivo.
5.4.4 Caso inverso.- La matriz de fe en una base ortonormal adecuada {→ −
e1 , →

e2 }
es  
1 0
.
0 −1
Tenemos que diferenciar dos posibilidades:
• Si existe un punto fijo p, las ecuaciones de f en la referencia ortonormal
{p; →

e1 , →

e2 } son  0
x = x
y 0 = −y

q1

5
-0
e2
q2 05
9-
l2

f(q2 ) p e1
de
n

f(q1)
r sió
Ve

Figura 5.3: Una simetrı́a en dimensión 2.

f es una simetrı́a axial. La recta p + h→



e1 i es una recta de puntos fijos, y se
llama eje de simetrı́a.

• Si no existen puntos fijos, las ecuaciones de f en la referencia ortonormal


{q; →

e1 , →

e2 }, siendo q un punto cualquiera, son
 0
x = x+c
y 0 = −y + d
con c 6= 0, pues de lo contrario habrı́a puntos fijos.
La recta y = d/2 (en coordenadas en la referencia {q; → −e1 , →

e2 }) es invariante
(aunque sus puntos no sean fijos). Si tomamos p en dicha recta (p de coordenadas
−−−→
(x0 , d/2) en la referencia {q; →

e1 , →

e2 }), entonces pf (p) = (c, 0) = c→ −
e1 , con lo que
las ecuaciones de f en la nueva referencia ortonormal {p; → −
e1 , →

e2 } son
 0
x = x+c
y 0 = −y
5.4. MOVIMIENTOS DEL PLANO EUCLÍDEO 109

q1
e2
q2
p e1

f(q2 )

f(q1)

Figura 5.4: Una simetrı́a deslizante en dimensión 2.

5
A tal f se le llama habitualmente simetrı́a deslizante (ojo con no confundirse

-0
con la nomenclatura: una simetrı́a deslizante f no es una simetrı́a en el sentido
05
de la definición 2.3.11, pues f 2 es una traslación de vector 2c→ −
e1 y no la apli-
cación identidad: desafortunadamente, esta es la terminologı́a estándar). Es la
9-
composición de la simetrı́a axial de eje p + h→

e1 i y la traslación de vector c→

e1 . Es-
l2

tas dos afinidades conmutan, de modo que da igual en qué orden componerlas:
el resultado en ambos casos es la simetrı́a deslizante descrita.
de

5.4.5 Hemos descrito todos los movimientos del plano euclı́deo, pero siempre
n

en términos de una referencia ortonormal muy especial (bien adaptada a cada


sió

caso).
r

Pero, en general, sea f : A → A una afinidad de un espacio afı́n euclı́deo de


Ve

dimensión 2 en sı́ mismo. Sea x0 = M x + b su ecuación en una referencia dada,


que quizá no sea ni siquiera ortonormal. ¿Cómo detectamos si f es movimiento?
En caso de que lo sea, ¿cómo determinamos exactamente de qué movimiento se
trata? La estrategia a seguir es la siguiente:

1o ) f es movimiento ⇔ fe es ortogonal ⇔ M t GM = G, donde G es la matriz


del producto escalar en esa base.

2o ) Si f es movimiento, es directo o inverso según det M = 1 ó det M = −1


(recuerda que el determinante de la matriz de una aplicación lineal no cambia
al cambiar de base: es decir, que es un invariante de la aplicación lineal).

− →

3o ) Si es directo, f es la identidad si M = Id y b = 0 (la aplicación lineal
identidad tiene como matriz la identidad en cualquier base), una traslación si

− →

M = Id y b 6= 0 o un giro de centro el único punto fijo y ángulo θ dado por
la igualdad
tr M = 2 cos θ,
110 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

puesto que la traza también es invariante por cambios de base.

4o ) Si es inverso, f es una simetrı́a axial si hay una recta de puntos fijos (que
es entonces el eje de simetrı́a). Si no hay puntos fijos, se trata de una simetrı́a


deslizante f = T− →u ◦ S, donde T− →u es una traslación de vector u y S es la
simetrı́a respecto de la única recta invariante por f , cuya dirección h→ −u i es el
subespacio E1 de autovectores de autovalor 1 de f. e
Una vez calculado E1 es fácil determinar el eje, puesto que
−−−→
Eje = {x t.q. xf (x) ∈ E1 },
−−−→
y el vector de desplazamiento es →

u = xf (x) para cualquier punto x ∈ Eje.

5.4.6 Ejemplo.- En R2 con el producto usual.


Encontrar las ecuaciones en la referencia usual de R3 del giro de centro
p = (1, 2) y ángulo θ = π/4.

Método 1 : Dado que la base usual es ortonormal, sabemos que la parte lineal

5
-0
de f debe ser de matriz  √ √ 
√2/2 −√ 2/2 ,
05
2/2 2/2
9-
por lo que la ecuación de f en la referencia usual es:
l2

 0     √ √  
x1 a1 √ 2/2 −√ 2/2 x1
de

= +
x02 a2 2/2 2/2 x2
n

Si ahora imponemos que el punto de coordenadas (1, 2) quede fijo, sale


sió

   √ 
a1 1 + √2/2
=
r

a2 2 − 3 2/2
Ve

y ya hemos terminado.

Método 2 : En la referencia R = {(1, 2); →



e1 , →

e2 }, la ecuación de f es
 0   √ √  
y1 √ 2/2 −√ 2/2 y1
= .
y20 2/2 2/2 y2

El cambio de la referencia R (la usual) a R es


    
y1 1 0 −1 x1
 y2  =  0 1 −2   x2  ,
1 0 0 1 1
y el cambio inverso es
    
x1 1 0 1 y1
 x2  =  0 1 2   y 2  .
1 0 0 1 1
5.4. MOVIMIENTOS DEL PLANO EUCLÍDEO 111

Por tanto la ecuación de f en R tiene matriz


  √ √  
1 0 1 √2/2 −√ 2/2 0 1 0 −1
 0 1 2   2/2 2/2 0   0 1 −2 
0 0 1 0 0 1 0 0 1

k
 √ √  
√2/2 −√ 2/2 1 1 0 −1
 2/2 2/2 2   0 1 −2 
0 0 1 0 0 1

k
 √ √ √ 
√2/2 −√ 2/2 1 + √2/2
 2/2 2/2 2 − 3 2/2 
0 0 1

5
-0
5.4.7 Ejemplo.- Estudiar la afinidad f de R2 (con el producto usual) de
ecuación  0    √ 
05 
x1 1 3/2 1/2
√ x1
=
9-
x02 0 1/2 − 3/2 x2
l2

en la referencia usual.
 √ 
de

o 3/2 1/2

1 ) Como es una matriz ortogonal (y la base usual es
1/2 − 3/2
n

ortonormalpara √ el producto usual, ver el Corolario 5.2.4), f es un movimiento.


sió


3/2 1/2

2o ) det = −1, luego es un movimiento inverso.
1/2 − 3/2
r
Ve

3o ) Miramos si hay puntos fijos:


 √

 3 1
 x1 = 1 + 2 x1 + 2 x2

 √


 x = 1x − 3x
2 1 2
2 2
es un sistema incompatible, luego no hay puntos fijos. De modo que f es una
simetrı́a deslizante.
¿Cuál es el eje? Como dijimos, p = (x1 , x2 ) es del eje exactamente cuando
−−−→ e Calculamos dicho autoespacio:
pf (p) está en el autoespacio de autovalor 1 de f.
 √ !

 3 1

 −1 x+ y =0
 √  
 2 2

3/2 − 1 √ 1/2
ker ←→ !
1/2 − 3/2 − 1 
 √
 1
 3

 2x − − 2 − 1 y = 0

112 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

que resulta el subespacio vectorial unidimensional de ecuación x = ( 3 + 2)y.
Dado p = (x1 , x2 ), su imagen por f tiene coordenadas
√ √ !
3 1 1 3
1+ x1 + x2 , x1 − x2 ,
2 2 2 2
por lo que
√ ! √ ! !
−−−→ 3 1 1 3
pf (p) = 1+ − 1 x1 + x2 , x1 − − + 1 x2 ,
2 2 2 2
que está en el autoespacio anterior exactamente cuando
√ ! √ ! !
3 1 √ 1 3
1+ − 1 x1 + x2 = ( 3 + 2) x1 − − + 1 x2 .
2 2 2 2
Operando obtenemos la ecuación del eje, que es

−2x1 + (4 + 2 3)x2 + 1 = 0

5
-0
o, en forma paramétrica
  05
1 √
, 0 + t(1, 2 − 3).
2
9-
 
l2

−−−→ 1
Para obtener el vector de traslación calculamos pf (p) para p = , 0 por
! !2
de

√ √
3 1 1 3 1
ejemplo. Resulta f (p) = 1 + , , con lo que →

v = + , .
4 4 2 4 4
n


sió

simetrı́a deslizante de eje −2x1 +(4+2 3x2 )+1 = 0 y vector


Ası́ que f es la !


− 1 3 1
r

v = + , .
Ve

2 4 4

5.5. Movimientos del espacio euclı́deo tridimen-


sional
5.5.1 Comenzamos por analizar las posibilidades para la matriz de fe en una
base adecuada. Son matrices de la forma
 
cos θ − sen θ 0
 sen θ cos θ 0 
0 0 1
si el movimiento es directo, y
 
cos θ − sen θ 0
 sen θ cos θ 0 
0 0 −1
si es inverso, incluyendo en ambos casos las posibilidades θ = 0, π.
5.5. MOVIMIENTOS DEL ESPACIO EUCLÍDEO TRIDIMENSIONAL 113

5.5.2 Caso directo.- Supongamos que


 
cos θ − sen θ 0
 sen θ cos θ 0 
0 0 1

es la matriz de fe en cierta base ortonormal {→ −


e1 , →

e2 , →

e3 } orientada positivamente.


• Si hay un punto fijo p, la recta p+h e3 i es una recta de puntos fijos. Se trata
en este caso de un giro de ángulo θ (de sentido positivo en el plano h→ −
e1 , →

e2 i, esto

− →
− →

es de e1 hacia e2 ) con eje p + h e3 i.

p
3

p p
e3 2 1

5
-0
p f(p ) f(p1)
2
05
9-
f(p )
l2

3
de

Figura 5.5: Un giro en dimensión 3.


n
sió

La ecuación en la referencia {p; →



e1 , →

e2 , →

e3 } son
r

 0
Ve

 x = x cos θ − y sen θ
y0 = x sen θ + y cos θ
 0
z = z

En el caso particular en que cos θ = −1 se le llama simetrı́a axial.

• Si no hay puntos fijos, elegimos p0 cualquiera. La ecuación en la referencia


{p0 ; →

e1 , →

e2 , →

e3 } es  0
 x = x cos θ − y sen θ + c
y 0 = x sen θ + y cos θ + d
 0
z = z+e
Si cos θ = 1, f es la traslación de vector (c, d, e).
Si cos θ 6= 1, al hallar los puntos fijos hay que resolver

x(cos θ − 1) − y sen θ + c = 0 
x sen θ + y(cos θ − 1) + d = 0

e=0
114 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

Las dos primeras ecuaciones tienen siempre solución única (x0 , y0 ). Como el
sistema debe ser incompatible (no tener solución), necesariamente e 6= 0.
La recta 
x = x0
y = y0
es invariante, y tomando p en ella, las ecuaciones en la referencia {p; → −
e1 , →

e2 , →

e3 }
son  0
 x = x cos θ − y sen θ
y0 = x sen θ + y cos θ
 0
z = z+e
Es una rotación de ángulo θ y eje p + h→−
e3 i (de sentido positivo en el plano
h e1 , e2 i, esto es de e1 hacia e2 ), seguida de una traslación de vector e · →

− →
− →
− →
− −
e3
(que es paralelo al eje de rotación); equivalentemente, es la traslación segui-
da de la rotación mencionadas, dado que ambas conmutan. Se suele llamar a
un movimiento de este tipo movimiento helicoidal. El giro sin desplazamiento
descrito arriba se puede considerar como caso particular de este (movimiento

5
helicoidal sin desplazamiento).

-0
Caso inverso.-Existe una base ortonormal en la que la matriz de fe es
05
 
9-
cos θ − sen θ 0
 sen θ 0 
l2

cos θ
0 0 −1
de

¿Qué posibilidades hay?


i) cos θ = 1 y existe un punto fijo p. Entonces el plano p + h→

e1 , →

n

e2 i es plano
sió

de puntos fijos, y f es la simetrı́a especular respecto a dicho plano (plano de


simetrı́a). En la referencia {p; →

e1 , →

e2 , →

e3 } la ecuación es
r
Ve

 0
 x =x
y0 = y
 0
z = −z

ii) cos θ = 1 pero sin puntos fijos. Tomando p0 cualquiera la ecuación en la


referencia {p0 ; →

e1 , →

e2 , →

e3 } es
 0
 x =x+c
y0 = y + d
 0
z = −z + e

Como los puntos fijos corresponden a soluciones de



x = x+c 
y = y+d ,

z = −z + e

necesariamente (c, d) 6= (0, 0) (para que no haya solución).


5.5. MOVIMIENTOS DEL ESPACIO EUCLÍDEO TRIDIMENSIONAL 115

e −−−→
El plano z = es invariante. Tomando p en él se tiene pf (p) = (c, d, 0). La
2
ecuación de f en {p; →

e1 , →

e2 , →

e3 } es
 0
 x =x+c
y0 = y + d ,
 0
z = −z

que corresponde a la composición de una simetrı́a especular respecto a p +


h→

e1 , →

e2 i y de una traslación de vector c · →

e1 + d · →

e2 paralelo al plano de simetrı́a
(en cualquier orden, pues conmutan). Se llama a un movimiento como este
simetrı́a deslizante.

iii) Si cos θ 6= 1 entonces 1 no es un autovalor, por lo que f tiene un único


punto fijo p. En la referencia ortonormal {p; → −
e1 , →

e2 , →

e3 } la ecuación de f es
 0
 x = x cos θ − y sen θ
y 0 = x sen θ + y cos θ

5
 0
z = −z

-0
05
que corresponde a la composición de una simetrı́a especular respecto al plano
p + h→

e1 , →

e2 i y de una rotación de ángulo θ con eje p + h→

e3 i perpendicular al plano
9-
(y de sentido positivo en el plano h e1 , e2 i, esto es de →

− →
− −
e1 hacia →

e2 ). Estas dos
l2

aplicaciones conmutan. El caso particular en que cos θ = −1 se conoce como


simetrı́a central de centro p.
de

5.5.3 Igual que hicimos en la sección 5.4.5 en el caso de R2 , nos ocupamos


n

ahora del proceso inverso al que hemos seguido en las secciones previas: dado
sió

un movimiento expresado en una referencia arbitraria: ¿cómo detectamos de


r

qué tipo de movimiento se trata?.


Ve

Sea A espacio afı́n euclı́deo de dimensión 3, y f : A → A afinidad de ecua-


ciones x0 = M x + b en una referencia cualquiera:

1o ) f es movimiento exactamente si M t GM = G, siendo G la matriz del


producto escalar en la misma base.

2o ) Si f es movimiento, es directo o inverso según det M = 1 ó det M = −1.

3o ) Si es directo, puede ser traslación (si M = Id) ó giro (quizá compuesto


con una traslación). El ángulo de giro θ cumple tr M = 2 cos θ + 1.
Si es giro y tiene puntos fijos, la recta de puntos fijos es el eje de giro.
Si no hay puntos fijos, el eje de giro es una recta invariante cuya dirección
es el autoespacio E1 de autovectores de autovalor 1 de f. e Calculamos el eje
−−−→ −−−→
fácilmente, pues Eje = {x : xf (x) ∈ E1 }, y el vector de traslación es →−
u = xf (x)
para un punto x cualquiera en el eje.
116 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

4o ) Si es inverso, es una simetrı́a especular quizá seguida de un giro de eje


perpendicular al plano (cuando hay un único punto fijo) o de una traslación
paralela al plano (cuando no hay puntos fijos); no hay giro ni traslación tras la
simetrı́a cuando hay todo un plano de puntos fijos.
El plano de simetrı́a es un plano invariante. Para todo q, el punto medio
entre q y f (q) pertenece a dicho plano. El ángulo de rotación (cuando la hay)
viene dado por trM = 2 cos θ − 1. El eje de giro es entonces una recta invariante
con un punto fijo, de dirección E−1 , el autoespacio correspondiente al autovalor
−1 de f. e Si E−1 no tiene dimensión 1, entonces su dimensión es 3 y f es la
simetrı́a central de centro el punto fijo.
Si cos θ = 1 se trata de una simetrı́a especular seguida de una traslación. El
−−−→
vector de traslación es xf (x) con x un punto cualquiera del plano del plano de
simetrı́a.

5.5.4 Observación.- Es claro que es preciso hacer algún comentario sobre la


orientación de los ángulos de giro que aparecen en movimientos en R3 (tanto

5
en rotaciones y movimientos helicoidales como en rotaciones seguidas de una

-0
simetrı́a ortogonal al eje). Cuando estudiamos uno de tales movimientos, dado en
05
una referencia arbitraria por la ecuación x0 = M x+b, se tiene tr(M ) = 1+2 cos θ,
lo cual describe (si θ 6= π) dos ángulos que difieren en la orientación. O, dicho
9-
de forma equivalente, si uno de los ángulos es θ el otro es 2π − θ.
l2

Normalmente se toma el ángulo entre 0 y π. La descripción del sentido


de giro se hace mediante una elección de vector director de p + E, el eje de
de

giro: si se toma → −
v1 ∈ E ⊥ , se dice que el giro es en sentido positivo respecto de

−e ∈ E si { v1 , v2 = M →

− →
− −
v1 , →

e } es una base orientada positivamente (es decir, si
n

los tres vectores ordenados forman las columnas de una matriz de determinante
sió

positivo). Ası́, un giro de ángulo 0 < θ < π con la orientación inducida por

−e serı́a un giro de ángulo 2π − θ con la orientación inducida por −→ −
r

e (ver el
Ve

ejemplo siguiente).

5.5.5 Ejemplo.- Estudiar el movimiento de ecuación


     
x0 2 0 0 −1 x
 y 0  =  2   0 −1 0   y  .
z0 2 1 0 0 z

Como det A = −1, siendo A la matriz, es un movimiento inverso.


Miro los puntos fijos:

 x = −z + 2
y = −y + 2 ,

z =x+2

cuya única solución es (0, 1, 2). De modo que se trata de una simetrı́a compuesta
con un giro de eje perpendicular al plano de simetrı́a.
5.5. MOVIMIENTOS DEL ESPACIO EUCLÍDEO TRIDIMENSIONAL 117

−−−→
El eje de giro es {p | pf (p) ∈ E−1 }. Calculamos el autoespacio:
    
1 0 −1 x 0
ker(A + Id) ←→  0 0 0   y  =  0 
1 0 1 z 0
 
x=0
que resulta , que son las ecuaciones de E−1 .
z=0
Si p = (x, y, z), entonces f (p) = (−z + 2, −y + 2, x + 2), de modo que
−−−→
pf (p) = (−z − x + 2, −2y + 2, x − z + 2) ∈ E−1

m

−z − x + 2 = 0
ecuaciones del eje.
x−z+2=0
Observa que, efectivamente, (0, 1, 2) es un punto del eje. En forma paramétri-

5
ca es (0, 1, 2)+h(0, 1, 0)i. Respecto al ángulo de giro: tr A = −1 = −1+2 cos θ ⇒

-0
cos θ = 0. Si tomamos → −
v1 = (1, 0, 0), entonces 05
    
1 0 −1 1 0
9-


v2 =  0 0 0   0  =  0 
l2

1 0 1 0 1
Ası́, el vector →

de

e director del eje que describe el sentido de giro (aquel que


hace que la base {→ −
v1 , →

v2 , →

e } tenga orientación positiva) puede calcularse usando
n

el producto vectorial, es decir mediante el determinante formal


sió

1 0 →

e1


r

0 0 e2 = (0, −1, 0)
Ve

0 1 →

e3
π
donde {→ −
e1 , →

e2 , →

e3 } es la base usual. Ası́, el ángulo es θ = respecto a la ori-
2


entación dada por e = (0, −1, 0).
El plano de simetrı́a es (0, 1, 2) + h(1, 0, 0), (0, 0, 1)i (el plano y = 1).
5.5.6 Ejemplo.- Hallar las ecuaciones del movimiento helicoidal de eje (0, 0, 1)+
π
t(0, 1, 1), ángulo (en la orientación dada por →−e = (0, 1, 1)) y vector de
4
traslación (0, 1, 1), en la referencia usual.
√ √ !
2 2
El vector director del eje es (0, 1, 1), que normalizado es 0, , . El
2 2
ortogonal a él es !{y + z = 0} = h(1, 0, 0), (0, 1, −1)i. Tomo la base ortonormal
√ √ √ √ !
2 2 2 2
B = 0, , , (1, 0, 0), 0, ,− (que está orientada positivamente:
2 2 2 2
de lo contrario deberı́a cambiar el orden de los dos últimos vectores).
118 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

En la referencia R = {(0, 0, 1); B}, la ecuación del giro de eje (0, 0, 1) y


π
ángulo tiene ecuación
4
 0      
x 1 √0 √0 0 x x
 y0   0 2/2 − 0   y   
 0 = √ √ 2/2   = N  y .
 z   0 2/2 2/2 0  z   z 
1 0 0 0 1 1 1

El cambio de R a la referencia usual R0 es de matriz


 
√0 1 √0 0
 2/2 0 0 
P = √ √2/2 ,
 2/2 0 − 2/2 1 
0 0 0 1

mientras que el cambio de R0 a R tiene matriz


 

5
√0 1 √0 0

-0
 2/2 0 0 
P −1 =  √ 05 √2/2 .
 2/2 0 − 2/2 1 
0 0 0 1
9-
l2

Por tanto la ecuación del giro en la referencia usual es de matriz


 √ 
de

2/2 −1/2
√ 1/2
√ −1/2√
 1/2 1/2 + √2/4 1/2 − √2/4 −1/2 + √2/4 
M = P −1 N P =  .
n

 −1/2 1/2 − 2/4 1/2 + 2/4 −1/2 − 2/4 


sió

0 0 0 1
r
Ve

Componiendo con la traslación por (0, 1, 1) sale


 0   √  
x 2/2 −1/2√ 1/2√ −1/2
√ x
 y 0   1/2 1/2 + 2/4 1/2 − 2/4 1/2 + 2/4  y 
 0 = √ √ √  
 z   −1/2 1/2 − 2/4 1/2 + 2/4 1/2 − 2/4  z .
1 0 0 0 1 1

5.5.7 Ejemplo.- Estudiar el movimiento f de ecuación


 0   √  
x 1/2 1/2 1/ √2 3 x
 y 0   1/2  y 
 0 = √ √ −1/ 2 3  
1/2 .
 z   −1/ 2 1/ 2 0 0  z 
1 0 0 0 1 1

Como √
1/2 1/2 1/ √2
1/2
√ √ −1/ 2
1/2 =1
−1/ 2 1/ 2 0
5.5. MOVIMIENTOS DEL ESPACIO EUCLÍDEO TRIDIMENSIONAL 119

es un movimiento directo.

Calculo los puntos fijos:


√ 
1 1 2 

x+ y+ z+3=x 

2 2 2 



√ 

1 1 2 ,
x+ y− z+3=y 
2 2 2 



√ √ 

2 2 

− x+ y=z 
2 2
resulta ser un sistema incompatible. ası́ que no hay puntos fijos, de modo que f es
la composición de un giro con una traslación paralela al eje de giro (movimiento
helicoidal).
¿Cuál es el eje de giro? Calculamos E1 , el autoespacio de autovalor 1 de fe:
 √    

5
1/2 1/2 1/ √2 x 0

-0
ker(fe − Id) ←→  1/2 √ 1/2
√ −1/ 2  y  =  0 
05
−1/ 2 1/ 2 0 z 0
9-
por lo que E1 tiene ecuaciones
l2

√ 
x−y− 2z = 0 
de

√ √ .

− 2x + 2y − 2z = 0
n
sió

Sea p = (x, y, z): entonces


√ √ !
√ √
r

1 1 2 1 1 2
Ve

f (p) = x+ y+ z + 3, x + y − z + 3, − 2x + 2y ,
2 2 2 2 2 2

con lo que
√ √ !
−−−→ 1 1 2 1 1 2 √ √
pf (p) = − x+ y+ z + 3, x − y − z + 3, − 2x + 2y − z ,
2 2 2 2 2 2

que está en E1 exactamente cuando


√ √ 
1 1 2 1 1 2 √ 
x+ y+ z+3− x+ y+ z + 3 + x − y + 2z = 0 

2 2 2 2 2 2 
√ √ √ √ ,
√ √ √ √ 

2 2 2 2 

x− y−z−3 2+ x− y − z + 3 2 + 2x − 2y + 2z = 0
2 2 2 2
que, operando, son las ecuaciones

z=0
,
x−y =0
120 CAPÍTULO 5. ISOMETRÍAS. MOVIMIENTOS EN R2 Y R3

por lo que el eje es, en forma paramétrica, (0, 0, 0) + h(1, 1, 0)i.


¿Y el ángulo de giro? Dado que la traza de la parte lineal de f , que en
este caso vale 1, debe ser 2 cos θ + 1, la respuesta es que θ = π/2 pero: ¿en
qué sentido?. √ √
Tomamos → −
v1 = (1/ 2, −1/ 2, 0) (ortogonal al eje de giro). Su imagen por
fe resulta →

v2 = (0, 0, −1). El producto vectorial de ambos es (1, 1, 0), luego ese
es el vector que indica el sentido de giro (regla de la mano derecha).
−−−→
El vector de traslación es, por ejemplo, qf (q) con q = (0, 0, 0), que resulta
(3, 3, 0).

5
-0
05
9-
l2
de
n
r sió
Ve
Ejercicios de Geometrı́a
Euclı́dea

1. Sea {e1 , e2 , e3 } una base de R3 y ϕ : R3 × R3 −→ R la forma bilineal

5
simétrica dada por:

-0
  
1 −1 0 y1

05
ϕ((x1 , x2 , x3 ), (y1 , y2 , y3 )) = (x1 , x2 , x3 )  −1
0
3
1
1   y2 
1 y3
9-
a. Demuestra que φ es un producto escalar en R3 .
l2

b. Calcula una base ortonormal de R3 respecto de φ.


de

2. Para cada α ∈ R, considera en R3 la aplicación bilineal


  
1 −1 0 y1
ón

φα ((x1 , x2 , x3 ), (y1 , y2 , y3 )) = (x1 , x2 , x3 )  −1 α 1   y2 


0 1 α y3
si
er

a. Calcula los valores de α para los que φα es un producto escalar.


b. Sea Mα el plano ortogonal a (1, 1, 1) respecto de φα . Demuestra que
V

{Mα : α ∈ R} es un haz de planos de eje la recta OX.

3. Para cada α, β ∈ R, considera la aplicación bilineal φα,β dada por:


  
β α 0 y1
φα,β ((x1 , x2 , x3 ), (y1 , y2 , y3 )) = (x1 , x2 , x3 )  α 1 0   y2 
0 0 α y3

a. Dibuja el subconjunto de R2 dado por {(α, β) ∈ R2 : φα,β es un producto escalar}.


b. Determina los valores de α y β para que el plano de ecuación x+y +z = 0
sea ortogonal al vector (1, 0, 1) respecto al producto escalar φα,β .

4. Sea V = {p(x) ∈ R[x] : grado(p(x)) ≤ 3}. En V × V se considera la


aplicación Z 1
φ(p(x), q(x)) = p(t)q(t)dt.
−1

121
122

a. Demuestra que φ es un producto escalar.


b. Calcula la base obtenida después de aplicar el proceso de Gram-Schmidt
a la base {1, x, x2 , x3 }.

5. Considera la base de R3 dada por: u = (−2, −1, 1), u2 = (0, −1, 0) y


u3 = (1, −1, 0), respecto de la base B = {e1 , e2 , e3 }. Definimos un producto
escalar en R3 afirmando que {u1 , u2 , u3 } es una base ortonormal. Encuentra la
expresión analı́tica de este producto escalar en la base B.

6. Sea ϕ((x1 , x2 , x3 ), (y1 , y2 , y3 )) = x1 y1 + (x1 + x2 )(y1 + y2 ) + (x1 + x2 +


x3 )(y1 + y2 + y3 ) un producto escalar en R3 . Da una base ortogonal de los
subespacios Wi ⊂ R3 para

W1 = {x ∈ R3 : x1 = x2 = x3 } y W2 = {x ∈ R3 : x1 + 2x2 + 3x3 = 0} .

7. Considera en Rn el producto escalar habitual. Encuentra las ecuaciones


implı́citas del complemento ortogonal del subespacio W =< {(1, 0, 1), (2, −1, 1)} >⊂

5
R3 (resp. W = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 +x2 +x3 +x4 = 0 , 2x1 −x2 = 0} ⊂ R4 ).

-0
8. Encuentra la aplicación adjunta de:
05
a. La aplicación h : R3 −→ R3 , h(x, y, z) = (x+y+z, x+2y+2z, x+2y+3z),
9-
con el producto escalar usual de R3 .
l2

b. La aplicación f : R3 −→ R3 , f (x, y, z) = (−y + z, −x + 2z, x + 2y), con el


producto escalar ϕ((x1 , x2 , x3 ), (y1 , y2 , y3 )) = x1 y1 + (x1 + x2 )(y1 + y2 ) + (x1 +
de

x2 + x3 )(y1 + y2 + y3 ).
c. La aplicación g : R[x]2 −→ R[x]2 ,dada por g(p(x)) = xp0 (x) − (xp(x))0 ,
n
sió

con el producto escalar dado en el ejercicio 7.


d. La aplicación T : M3×3 (R) −→ M3×3 (R), dada por T (A) = At + A, con
r

el producto escalar < A, B >= tr(AB t ).


Ve

9. Sea f una aplicación lineal de R2 en R2 cuya matriz en una base B es:


 
α β
.
β 1−α

Demuestra que f es la proyección ortogonal sobre la recta ax+by = 0, donde


α = b2 /(a2 + b2 ) y β = −ab/(a2 + b2 ).

10. En R3 se considera el producto escalar con matriz en una base B =


{e1 , e2 , e3 }
 
1 1 0
 1 2 2 .
0 2 5
a. Calcula una base ortonormal {u1 , u2 , u3 }.
b. Calcula la proyección del vector de coordenadas (1, 1, 1) en la base B
sobre el plano y + z = 0.
123

c. Calcula el subespacio ortogonal al vector de coordenadas (2, 0, 1) en la


base {u1 , u2 , u3 }.

11. Encuentra las ecuaciones de la simetrı́a con respecto al plano 2x+y+z =


0.

12. Encuentra la expresión analı́tica de las siguientes isometrı́as:


a. La simetrı́a deslizante de eje paralelo a la recta 2x+y = 3 y que transforma
(2, 1) en (1, 0).
b. El giro de ángulo π/3 que lleve (2, 1) en (1, 0).

13. Estudia1 las siguientes isometrı́as (o movimientos) del plano R2 :


( √ ( √ √
x0 = −2 +√ 12 x − 23 y x0 = 22 x√+ 22 y√
y 0 = 1 + 23 x + 21 y y 0 = 1 + 22 x − 22 y

5
Estudia la isometrı́a composición de las dos anteriores.

-0
14. Sea {p; e1 , e2 , e3 } una referencia ortonormal del espacio afı́n euclı́deo

05
(A, E). Designemos por s la simetrı́a respecto al eje p+ < (a, b, c) > y por s̃ su
endomorfismo asociado.
9-
a. Demuestra que, para todo v ∈ E, s̃(v) + v es un vector propio de valor
l2

propio 1 (o bien es el ~0).


b. Deduce de a la matriz de s̃ en función de a, b, c.
de

c. Usa b para hallar las ecuaciones de la rotación de ángulo π respecto de


la recta intersección de los planos 3x − 4y − 25 = 0, z = 2.
ón

15. Sea {p ; e1 , e2 , e3 } una referencia ortonormal del espacio afı́n euclı́deo


(A, E). Considera la simetrı́a, σ, respecto al plano de ecuación ax+by+cz+d = 0
si

y σ̃ el endomorfismo de E asociado a σ.
er

a. Demuestra que, para todo v ∈ E, σ̃(v) − v es ortogonal al plano de


simetrı́a.
V

b. Halla la matriz de σ̃ en función de a, b, c.


c. Halla las ecuaciones de la simetrı́a respecto al plano x + 2y − 3z + 2 = 0.

16. En R3 , considera el producto escalar cuya matriz en la base B =


{e1 , e2 , e3 } es:
 
5 1 0
 1 1 0 
0 0 3
Halla la distancia del punto (−1, 1, −2) al plano que pasa por los puntos de
coordenadas cartesianas a = (1, −1, 1), b = (−2, 1, 3) y c = (4, −5, −2) en la
referencia {O; B}.

17. Considera R3 con el producto escalar usual y α ∈ R.


1 Es decir, clasifı́cala y halla sus variedades lineales invariantes.
124

a. Calcula la ecuación de la recta `α que pasa por los puntos p = (1, α, −1)
y q = (1, 2α, −2).
b. Calcula el punto rα simétrico del punto m = (1, 0, −2) con respecto a la
recta `α .
c. Demuestra que el lugar geométrico de los puntos rα con α ∈ R, es la recta
(−1, 0, 2)+ < (0, 1, 1) >.

18. Encuentra la expresión analı́tica de las siguientes isometrı́as de R3 :


La simetrı́a respecto al plano 3x − y + 2z = 1.
La rotación helicoidal respecto al eje < (1, −1, 0) > con ángulo π y vector
de traslación (2, −2, 0).
La composición de las dos isometrı́as anteriores.

19. Estudia las siguientes isometrı́as de R3 :


5
1

2 1  0
 0
 x = 1 + 2 x√+ 2 y√+ 2 z  x =1+y

-0
2
y 0 = −1 + √2 x − 2 z2 05 , y0 = 1 − z

 0 1  0
2
z = 2x − 2 y + 2z 1 z = −x
9-
Estudia la composición de las dos isometrı́as anteriores.
l2
de
n
r sió
Ve
Problemas de Geometrı́a
Euclı́dea

1. Sea E un R−espacio vectorial de dimensión finita. Sean f1 , . . . , fk ∈


Hom(E, R) formas lineales linealmente independientes. Supongamos dados números
reales λi,j ∈ R, 1 ≤ i, j ≤ k. Para u, v ∈ E definimos

5
-0
X 05
φ(u, v) = λi,j fi (u)fj (v).
1≤i,j≤k
9-
l2

Demuestra que φ es una forma bilineal simétrica si y sólo si λi,j = λj,i , para
1 ≤ i, j ≤ k.
de

2. Sea (V, <, >) un espacio vectorial euclı́deo.


n

a. Demuestra que, para todo par de vectores u, v ∈ V , se da la igualdad:


sió

2(kuk2 + kvk2 ) = ku + vk2 + ku − vk2 . Esta igualdad se conoce como la Ley del
paralelogramo.
r
Ve

b. Demuestra que, para todo par de vectores u, v ∈ V , se da la igualdad:


4 < u, v >= ku + vk2 − ku − vk2 . Esta igualdad se conoce como la Identidad de
polarización.
c. Demuestra que, para todo par de vectores u, v ∈ V , se da la igualdad:
2 < u, v >= ku + vk2 − kuk2 − kvk2 .

3. Demuestra que la forma bilineal ϕ : M3×3 (R) × M3×3 (R) −→ R definida


por ϕ(A, B) = tr(AB t ) es un producto escalar.

4. Sea T una aplicación lineal de un espacio euclı́deo E en sı́ mismo. Sea T 0


la adjunta de T . Demuestra que la aplicación T + T 0 es autoadjunta.

5. Sean (E, <, >) un espacio vectorial euclı́deo y f un endomorfismo de E


tal que kf (x)k ≤ kxk para todo x ∈ E. Sea g la adjunta de f .
a. Demuestra que kg(x)k ≤ kxk, para todo x ∈ E.
b. Demuestra que Ker(g − idE ) = Ker(f − idE ), donde idE denota la
aplicación identidad de E.
c. Demuestra que E = Ker(f − idE ) + Im(f − idE ).

125
126

6. Sean (E, <, >) un espacio vectorial euclı́deo y f un endomorfismo de E tal


que
< f (u), v >= − < u, f (v) >, para todo par de vectores u, v ∈ E.
a. Demuestra que Ker(f ) e Im(f ) son subespacios ortogonales de E.
b. Demuestra que E = Ker(f ) ⊕ Im(f ).
c. Demuestra que, si (aij ) es la matriz de f en una base ortonormal, entonces
aij = −aji para todo i, j.

7. Determina el lugar geométrico de las imágenes del punto (1, 1) por todos
los giros de R2 de ángulo π/2 y centro sobre la recta x + y = 1.

8. Estudia la composición de dos simetrı́as en R2 de ejes paralelos.

9. Demuestra que la composición de tres simetrı́as en R2 de ejes concurrentes


es otra simetrı́a y determina su eje.

10. Demuestra que la composición de dos simetrı́as en un plano, cuyos ejes


se cortan en un punto, es una rotación. Determina su centro y ángulo.

5
-0
11. Considera R3 con el producto escalar habitual.
05
a. Demuestra que la composición de dos simetrı́as con respecto a dos planos
paralelos es una traslación.
9-
b. Demuestra que la composición de dos simetrı́as con respecto a planos
l2

secantes es un giro con eje la recta común a los dos planos y ángulo el doble del
ángulo entre los planos.
de

c. Demuestra que la composición de dos giros de ángulo π con ejes secantes


es un giro.
n

d. Demuestra que la composición de dos giros de ángulo π con ejes que se


sió

cruzan puede escribirse como la composición de un giro y una traslación.


r
Ve

12. Considera la matriz simétrica:


 
a b
A=
b d

Considera su forma diagonal D = Q−1 AQ, donde det(Q) > 0. Demuestra que
Q es una rotación de ángulo
 
1 2b
θ = arctan
2 a−d

13. Supongamos dado un endomorfismo f de un espacio vectorial euclı́deo


(E, ·) de dimensión n tal que, para todo u, v ∈ E, se tiene

f (u) · f (v) = λ(u · v) , para un λ > 0 fijo .



a. Demuestra que kf (v)k = λkvk, para todo v ∈ E.
b. Demuestra que f es biyectiva.
127

c. Demuestra que los únicos posibles valores propios de f son ± λ.
d. Demuestra que f = g ◦ h, donde g ∈ O(n) y h es una homotecia.

14. Dados dos triángulos isométricos en un plano afı́n euclı́deo, estudia las
isometrı́as que llevan uno en otro.

15. Determina todas las isometrı́as de R2 que conmutan con la simetrı́a de


eje x − 2y = 1.

5
-0
05
9-
l2
de
n
r sió
Ve
128

Ve
rsió
n
de
l2
9-
05
-0
5
Parte III

5
Geometrı́a proyectiva -0
05
9-
l2
de
n
sió
r
Ve

129
Ve
rsió
n
de
l2
9-
05
-0
5
131

Como ya sabemos existen distintas geometrı́as, según las estructuras que se


estudian. Ası́, la geometrı́a afı́n está asociada a la estructura de espacio afı́n. El
grupo de transformaciones relevante en la geometrı́a afı́n son las afinidades (con-
servan la estructura de espacio afı́n). Las propiedades afines son aquellas con-
servadas por las afinidades (colinealidad, paralelismo, forma -pero no medida-).
La geometrı́a euclı́dea es la asociada a la estructura de espacio afı́n euclı́deo.
Las transformaciones relevantes son las isometrı́as, y los conceptos tı́picamente
euclı́deos son el de distancia y ortogonalidad.
Todos los conceptos afines son también euclı́deos, pero no a la inversa. Del
mismo modo, todas las aplicaciones que conservan la estructura euclı́dea (las
isometrı́as) son afinidades (que conservan la estructura afı́n), aunque no toda
afinidad es una isometrı́a. Es decir, que en ese sentido la geometrı́a afı́n es más
general que la euclı́dea.

La geometrı́a proyectiva es, en esta lı́nea, más general que las otras dos.
Ası́ que los conceptos propios de esta geometrı́a serán muy pocos, y todos los
resultados que se obtengan serán de algún modo ciertos en geometrı́a afı́n o

5
euclı́dea.

-0
Como veremos, en geometrı́a proyectiva no sólo no hay noción de distancia
05
(como en la euclı́dea), sino que tampoco hay noción de paralelismo (como en la
9-
afı́n). Sólo la colinealidad y la incidencia son tı́picamente proyectivos.
l2
de

Transformaciones
proyectivas
n
sió

Afinidades
r
Ve

Isometrias

La geometrı́a proyectiva es aquella que trata las propiedades que se con-


servan bajo proyecciones. Tiene aplicaciones en visión artificial, funcionamiento
de cámaras, reconstrucción de imágenes bidimensionales en tres dimensiones,
etc. . . Es la geometrı́a asociada al modo en que el ojo humano percibe el mundo.
132

Ve
rsió
n
de
l2
9-
05
-0
5
Capı́tulo 6

El espacio proyectivo

6.1. La noción de espacio proyectivo. Construc-

5
ción por recurrencia

-0
05
6.1.1 La geometrı́a proyectiva surgió a partir de los artistas renacentistas,
que observaron que tenı́an que comprender cómo se pueden representar escenas
9-
tridimensionales en lienzos, que son bidimensionales (Durero, S. XVI, estudios
l2

de perspectiva).
Lo que el ojo ve son los rayos de luz que se reflejan en cada punto de la
de

escena y le llegan desde ellos.


n
r sió
Ve

· ··
· ··

Figura 6.1: La geometrı́a proyectiva está conectada con nuestra forma de ver el
mundo.

De modo que lo que pinta el artista es el resultado de “‘proyectar”la escena


sobre un plano (el lienzo) situado entre la escena y el ojo, usando como centro
de proyección el ojo (lo mismo ocurre con una cámara).

133
134 CAPÍTULO 6. EL ESPACIO PROYECTIVO

6.1.2 ¿Cómo formalizar la situación descrita? El modelo es el siguiente:


Supongamos que el ojo es el origen de R3 , de modo que los rayos de luz que
llegan a él son rectas que pasan por el origen. Supongamos que estamos mirando
un paisaje plano π, como el de la figura 6.2 (la vı́a de un tren):

L π

5
-0
05
Figura 6.2: Las vı́as de un tren parecen cortarse en un punto en el infinito.
9-
Los objetos que viven en π quedan representados en el lienzo π 0 por medio
l2

del punto de corte de la recta correspondiente con π 0 .


de

Dos rectas paralelas, perpendiculares a L = π ∩ π 0 (o sus representaciones en


0
π ), parecen cortarse en cierto punto p que no corresponde a ningún punto de π.
n

En los trabajos de perspectiva se llama a un punto como este punto evanescente,


sió

y es algo ası́ como un “punto en el infinito”(en el horizonte), que nuestro ojo


añade a π por su forma de percibir la realidad. Obviamente todos los puntos de
r
Ve

la recta paralela a L que pasa por p son de este tipo (linea del horizonte).
Por otra parte, las traviesas de la vı́a se ven en π 0 como segmentos cada vez
más pequeños. De modo que la proyección a π 0 no conserva ni el paralelismo ni
las longitudes o distancias.

6.1.3 La unión del plano π con todos los “puntos en el infinito”es lo que se va
a llamar el plano proyectivo.

Para simplificar, consideremos la misma cuestión pero en una dimensión


menor: coloquemos un ojo en el origen de R2 , mirando hacia la recta (afı́n) real
R:
La recta proyectiva real es la unión de la recta afı́n real R con un punto del
infinito. La notación habitual será P1R ∪ {P∞ }.
Cada punto de R1 corresponde en P1R a (el corte con la recta r) de una recta
vectorial (i.e. que pasa por el origen) de R2 . La única recta vectorial que falta
(la paralela a la recta afı́n R) corresponde al punto del infinito P∞ de P1R .
Es decir, que la recta proyectiva real se corresponde de manera 1 − 1 con el
conjunto de las rectas vectoriales de R2 . Volveremos a esta idea más adelante.
6.1. LA NOCIÓN DE ESPACIO PROYECTIVO. CONSTRUCCIÓN POR RECURRENCIA135

p
"Punto del infinito"

|R
Recta afin real

Figura 6.3: Construcción de la recta proyectiva real.

Volviendo al plano proyectivo real :


Plano por (0,0,0)

5
-0
Recta del infinito

3
Origen de IR
2 05
IR , plano afin
9-
l2
de

Figura 6.4: El plano proyectivo real.


n
sió

¿Cuántos puntos en el infinito hay ahora? Tantos como rectas contenidas en


el plano paralelo al plano afı́n R2 que pasa por el origen de R3 (lo cual coincide
r
Ve

exactamente con la descripción que acabamos de hacer de la recta proyectiva).


Al conjunto de los puntos en el infinito del plano proyectivo real se les suele
llamar recta en el infinito (pero ojo, es una recta proyectiva, y no afı́n). Es
decir,
P2R = R2 ∪ L∞ ,
donde L∞ = P1R es la recta en el infinito.
Observamos de nuevo que cada punto de P2R corresponde a una recta vectorial
de R3 (y se obtienen todas las rectas).
De este modo, podrı́amos dar una definición recursiva de los espacios proyec-
tivos reales:
Definición Los espacios proyectivos reales se construyen de forma recursiva
n−1
como PnR = Rn ∪ PR

Es decir, P1R = R1 ∪ P0R (con P0R = P∞ punto del infinito), P2R = R2 ∪ P1R
(con P1R = L∞ recta del infinito), P3R = R3 ∪ P2R (donde P2R = π∞ es el plano del
infinito), etc. . .
136 CAPÍTULO 6. EL ESPACIO PROYECTIVO

Siguiendo esta idea, cuando hagamos algún dibujo representando el espacio


proyectivo PnR (n = 1, 2, 3), normalmente sólo dibujaremos la parte afı́n, pero
habrá que mantener bien presente que el espacio tiene “puntos en el infinito”que
no estamos representando. Parece complicado, pero nos iremos acostumbrando
a ello con facilidad.

6.2. La definición abstracta del espacio proyec-


tivo
6.2.1 En realidad esa construcción por recurrencia en la dimensión que hemos
hecho del espacio proyectivo no es algo ası́ como una definición con la que
poder trabajar. En realidad, la definición precisa se basa en algo que ya hemos
observado: cada punto del espacio proyectivo corresponde con una recta vectorial
de un espacio vectorial (de dimensión una unidad mayor). La única razón por la
que no empezamos directamente dando esta definición es que es tan abstracta

5
-0
que sin la motivación previa uno puede no entenderla correctamente.
Definición Dado E un espacio vectorial, el espacio proyectivo P(E) es el
05


conjunto cociente de E r { 0 } por la relación de equivalencia →−u ∼→−v ⇔→ −v =
9-


λ u para algún λ 6= 0
l2
de

6.2.2 Observaciones
• Es sencillo comprobar que la relación ∼ de la definición anterior es, efec-


n

tivamente, de equivalencia (¿entiendes por qué hay que eliminar el vector 0


sió

de E?). Además cada clase de equivalencia corresponde con un subespacio de


dimensión 1 en E (una recta vectorial). Como el conjunto cociente es el conjunto
r

de las clases de equivalencia, P(E) es un espacio en que cada punto corresponde


Ve

a una recta vectorial de E, como pretendı́amos.

• En el caso en que E = Kn+1 con K un cuerpo (normalmente R ó C),


se denota a P(Kn+1 ) = PnK (espacio proyectivo estándar de dimensión n sobre
K), como hicimos al principio del capı́tulo al hablar de los espacios proyectivos
reales. A partir de ahora nos centraremos en estos espacios.

• Un espacio proyectivo viene provisto de una aplicación natural desde un


espacio vectorial (aplicación de paso al cociente)


− Kn+1
Kn+1 r { 0 } −→ ' PnK



u 7−→ [→

u]

que va a ser muy importante, pues va a permitir definir objetos proyectivos a


través de objetos vectoriales.
6.2. LA DEFINICIÓN ABSTRACTA DEL ESPACIO PROYECTIVO 137

6.2.3 Ejemplo.- Tomemos E = R2 , con lo que P(R2 ) = P1R , la recta proyectiva


real.
Sea
R2
π : R2 r {(0, 0)} −→ ' P1R



u 7−→ [→

u]
el paso al cociente. El punto p = [(1, 2)] y el punto [(2, 4)] son el mismo, puesto
que los vectores (1, 2) y (2, 4) son proporcionales. Se suele denotar a este punto
de P1R como p = (1 : 2) (o, equivalentemente p = (2 : 4), etcétera). Veremos
más adelante esto en detalle, pero a (1 : 2) = (2 : 4) = (1/5 : 2/5) = · · ·
se le llama coordenadas homogéneas de p. Ya las estudiaremos con cuidado,
pero adelantamos aquı́ que la noción de coordenadas proyectivas va a estar bien
definida salvo constante.
6.2.4 Definición Se llama a P(R2 ) = P1R recta proyectiva real, a P(R2 ) = P1R
plano proyectivo real, etc. . .

5
-0
R2
6.2.5 Hemos definido la recta proyectiva real de dos formas diferentes:
05 ∼
ó R1 ∪ P∞ . ¿Por qué coinciden?
9-
l2
de

(1, µ) µ IR
n
sió

y= λ x
r
Ve

(1, λ) λ IR
y= µ x

Recta x1=1

(IR)

Figura 6.5: La recta proyectiva real se obtiene añadiendo un punto a una recta
afı́n.

Cada punto de la forma (1, x2 ) está en la recta de pendiente x2 , y cada recta


de pendiente x2 contiene un único punto con la primera coordenada igual a 1
(el punto de corte con la recta x1 = 1).
138 CAPÍTULO 6. EL ESPACIO PROYECTIVO

La recta x1 = 0, que es la única que no corta a x1 = 1, corresponde al punto


del infinito P∞ .


R2 r { 0 }
P1R = R ∪ P∞ = = P(R2 )

Dado P ∈ P1R , P está en la parte afı́n (R) si se puede representar por un punto
de coordenadas homogéneas de la forma (1 : t). El punto del infinito corresponde
al único punto de P1R que no puede tener coordenadas homogéneas de esa  forma,
x1
que es el (0 : 1): La razón es que si x1 6= 0 entonces (x1 : x2 ) = 1 : ,
  x2
x2
mientras que si x1 = 0 entonces x2 6= 0 y (x1 : x2 ) = (0 : x2 ) = 0 : = (0 :
x2
1).

Una observación importante es que la descomposición P1R = R ∪ P∞ no es, ni


mucho menos, única. En vez de hacer la construcción anterior a base de cortar

5
con x2 = 1 podrı́amos cortar con x1 = 2, 2x1 + 3x2 = 3, ó en general cualquier

-0
recta afı́n de R2 , lo cual identificarı́a una parte diferente de P1R como parte
05
afı́n, y otro como punto del infinito. De hecho, todos los puntos de un espacio
proyectivo son exactamente iguales, y no hay ninguno que sea canónicamente
9-
clasificable como “punto del infinito”.
l2

Insistamos también en que si tuviéramos que dibujar un diagrama que rep-


resentara la recta proyectiva real, dibujarı́amos una recta afı́n, asumiendo que
de

la recta proyectiva tiene un punto más.


n
sió

6.3. Variedades proyectivas


r
Ve

El espacio adecuado para estudiar la geometrı́a proyectiva es el espacio


proyectivo. Va a ser, como veremos, un buen lugar para estudiar intersecciones
(recuerda que las vı́as de un tren “se cortan en el infinito”, ver la sección 6.1.2,
por lo que no van a existir paralelas).

6.3.1 Definición Sea P = P(E) un espacio proyectivo. Un subconjunto X ⊂


P es una variedad proyectiva si X = π(X b r {→−
0 }), donde π : E → P(E) '


Er{0} b es un subespacio vectorial
es la aplicación de paso al cociente, y X

de E.

6.3.2 Observación.- De hecho, si X es una variedad proyectiva entonces


b = π −1 (X) ∪ {→
X

0 } = {→

u ∈ E t.q. →
− →

u = 0 ó [→

u ] ∈ X}.


Luego X es una variedad proyectiva si y sólo si π −1 (X) ∪ { 0 } es un sube-
spacio vectorial de E.
6.3. VARIEDADES PROYECTIVAS 139

Hay una biyección

{Variedades proyectivas de P(E)} ←→ {Subespacios vectoriales de E}


X −→ X b = π −1 (X) ∪ {→

0}


π(F r { 0 }) = P(F ) ←− F

b ⊂ Yb .
Además X ⊂ Y ⇔ X

6.3.3 Definición La dimensión de la variedad proyectiva X es dim(X) :=


b − 1.
dim(X)

6.3.4 Ejemplo.- En el espacio proyectivo de dimensión n P(E), con dim E =


n + 1 entonces

Xb recta b punto (proyectivo); dimensión 0


−→ P(X)
b
X plano b recta (proyectiva); dimensión 1
−→ P(X)
..

5
.

-0
b b hiperplano (proyectivo); dimensión n
X hiperplano (dimensión n) −→ P(X) 05
b b
X = E (dimensión) n + 1 −→ P(X) = P(E) = Pn dimensión n
9-
Ejemplo.- Una recta proyectiva en el plano proyectivo real. Si dibujamos
l2

sólo la parte afı́n, es como en la figura 6.6 (una recta afı́n).


de

Parte afin de IP 2
n
r sió
Ve

Figura 6.6: La parte afı́n de una recta dentro del plano proyectivo.

De hecho, una recta proyectiva no es más que una recta afı́n con un punto
adicional (que corresponde a su dirección). Si representamos el espacio vectorial
140 CAPÍTULO 6. EL ESPACIO PROYECTIVO

IP(IR3)

5
-0
05
9-
Figura 6.7: Una recta proyectiva tiene un punto más que una recta afı́n.
l2
de

de dimensión 2 que corresponde a esa recta proyectiva, la situación es como en


la figura 6.7.
n

En ella hemos representado el plano x3 = 1 que, igual que hicimos en la


sió

sección 6.2.5 en una dimensión menor, se identifica con la parte afı́n de P2R . La
r

recta paralela a L pero pasando por el origen corresponde al punto en el infinito


Ve

de P2R que también pertenece a la recta proyectiva L.

6.3.5 Observación.- Al contrario que la dimensión, la codimensión de una


variedad proyectiva coincide con la del subespacio vectorial asociado. Si X ⊂
P(E) = Pn , entonces

codim(X) = dim(Pn ) − dim(X)

= n − dim(X)

b − 1)
= n − (dim(X)

b
= n + 1 − dim(X)

b
= dim(E) − dim(X)

b
= codim(X)
6.4. OPERACIONES ENTRE VARIEDADES PROYECTIVAS 141

6.4. Operaciones entre variedades proyectivas


6.4.1 Proposición [Intersección
\ de variedades] Si Xi son variedades proyec-
tivas (i ∈ I), entonces X = b = ∩i∈I X
Xi es una variedad proyectiva, y X bi .
i∈I

Demostración.- Basta calcular



− →

π −1 (X) ∪ { 0 } = π −1 (∩i∈I Xi ) ∪ { 0 }
  →

= ∩i∈I π −1 (Xi ) ∪ { 0 }
 − 

= ∩i∈I π −1 (Xi ) ∪ { 0 }

bi ,
= ∩i∈I X

5
que es un espacio vectorial. Por tanto X es variedad proyectiva. 

-0
05
6.4.2 Definición Si A es un subconjunto de un espacio proyectivo, la variedad
9-
proyectiva generada por A es
l2

\
X
de

X⊃A
X var. proy.
n
sió

(la intersección de todas las variedades proyectivas que contienen a A).


r
Ve

Una consecuencia inmediata de la definición es que V (A) es la menor var-


iedad proyectiva que contiene a A.

6.4.3 Ejemplo.- ¿Qué variedad generan dos puntos?.


Por ejemplo, en P2R , A = {p1 , p2 }:
\
V ({p 1 , p2 }) = {plano que generan L1 y L2 } = hπ
−1
(A)i, donde h i denota
subespacio vectorial generado.

6.4.4 En general se cumple V[ (A) = hπ −1 (A)i:


⊃) V (A) ⊃ A ⇒ V[ (A) ⊃ π −1 (A). Pero como V[(A) es ya un subespacio vectorial,
[ −1
V (A) ⊃ hπ (A)i.
⊂) P(hπ −1 (A)i) ⊃ A. Pero P(hπ −1 (A)i) es una variedad proyectiva, por lo que


π(hπ −1 (A)i r { 0 }) = P(hπ −1 (A)i) ⊃ V (A) ⇒ hπ −1 (A)i ⊃ V[
(A).
142 CAPÍTULO 6. EL ESPACIO PROYECTIVO

L1
L2

p2
p1
L

Figura 6.8: La variedad generada por dos puntos.

5
6.4.5 Ejemplos.- • Si A = ∪i∈I Xi con Xi variedades proyectivas, entonces

-0
V[
(A) = V\
(∪Xi )
05
9-
= hπ −1 (∪Xi )i
l2

= h∪(π −1 (Xi ))i


de

bi i
= h∪X
n
sió

P b
= Xi
r

• En el caso en que cada Xi es un punto, A = {p1 , . . . , pn } y pi = [→−


Ve

ui ] con

− →
− [ −
→ −
→ −
→ −

ui 6= 0 , por lo que V (A) = hu1 i + · · · + hun i = hu1 , . . . , un i.

6.4.6 Teorema [de Incidencia] Si X, Y son variedades proyectivas, entonces

dim V (X ∪ Y ) = dim X + dim Y − dim (X ∩ Y ).

Demostración.- Es consecuencia de la fórmula de Grassmann para espacios


vectoriales.
Como X \ b ∩ Yb , se tiene
∩Y =X

\
dim (X ∩ Y ) = dim (X b ∩ Yb ) − 1,
∩ Y ) − 1 = dim (X

\
mientras que, puesto que V (X b + Yb , entonces
∪Y) =X

\
dim V (X ∪ Y ) = dim V (X b + Yb ) − 1.
∪ Y ) − 1 = dim (X
6.4. OPERACIONES ENTRE VARIEDADES PROYECTIVAS 143

Ası́ que

b + Yb ) − 1
dim V (X ∪ Y ) = dim (X

b + dim Yb − dim (X
= dim X b ∩ Yb ) − 1

b − 1) + (dim Yb − 1) − (dim (X
= (dim X b ∩ Yb ) − 1)

= dim X + dim Y − dim (X ∩ Y )

6.4.7 Ejemplo.- Usando el teorema de incidencia comprobamos que si X =


{p1 }, Y = {p2 } con p1 6= p2 entonces

dim V (X, Y ) = dim X + dim Y − dim (X ∩ Y ) = 0 + 0 − (−1) = 1

5
lo cual confirma lo que ya sabı́amos, pues V (X, Y ) es en este caso la recta por

-0
p1 y p 2 .
05
6.4.8 Quizá la forma más clara de evaluar lo fundamental que es el Teorema de
9-
incidencia sea el corolario siguiente, de extraordinaria importancia en geometrı́a
l2

proyectiva.
Corolario Una recta y un hiperplano proyectivos siempre se cortan.
de

Demostración.- Si X es una recta e Y es un hiperplano en un espacio


n

proyectivo P de dimensión n, entonces


sió

n ≥ dim V (X, Y )
r
Ve

= dim X + dim Y − dim (X ∩ Y )

= 1 + (n − 1) − dim (X ∩ Y ),

de modo que dim (X ∩ Y ) ≥ 0. Luego X e Y se cortan, al menos, en un punto.




6.4.9 Ejemplo.- • Dos rectas distintas en P2 se cortan en un punto.

Si hacemos un dibujo afı́n de P2 , puede parecer que hay rectas que no se


cortan (paralelas). Pero no hay que olvidar que en esa representación no estamos
dibujando los puntos del infinito, y que en realidad cada recta proyectiva es una
recta afı́n con un punto añadido. Dicho punto, que corresponde a la dirección
de la recta (afı́n) que estamos dibujando, es el mismo en ambos casos (luego las
rectas que dibujamos como paralelas se cortan en el infinito).
Obviamente, con la observación que hicimos al final de la sección 6.2.5 (pode-
mos designar como “recta de puntos en el infinito.a cualquier recta), si hiciéramos
144 CAPÍTULO 6. EL ESPACIO PROYECTIVO

Parte afin de IP 2

L2

L1

Se cortan
en el infinito

5
-0
05
Figura 6.9: Rectas que en la parte afı́n parecen no cortarse (paralelas) se cortan
9-
en el infinito.
l2
de

la identificación P2 = R2 ∪ L∞ de otro modo, verı́amos ambas rectas proyectivas


cortarse en la nueva “parte afı́n”.
n

• Dos planos distintos en P3 se cortan siempre en una recta, puesto que


sió

3 ≥ dim V (X, Y ) = 2 + 2 − dim (X ∩ Y ),


r
Ve

con lo que dim (X ∩ Y ) ≥ 1.


Pero no puede ser dim (X ∩ Y ) = 3, dado que X ∩ Y ⊂ X, que tiene sólo
dimensión 2. Y dim (X ∩ Y ) = 2 se da cuando X = Y .
Ası́ que dim (X ∩ Y ) = 1.

6.5. Referencias y coordenadas proyectivas


Vamos a usar herramientas del álgebra en geometrı́a proyectiva, definiendo
referencias proyectivas, coordenadas respecto a ellas, ecuaciones de variedades,
etc. . .

6.5.1 Definición El punto P = [→ −u ] del espacio proyectivo P(E) depende


linealmente de los puntos P1 = [u1 ], . . . , Pr = [−

→ →r ] de P(E) si →
u −
u depende lineal-

→ −

mente de u1 , . . . , ur .

Observación.- El lector exigente deberı́a cerciorarse de que la noción ante-


rior no depende de los representantes →
− −
→1 , . . . , u
u,u −
→r de las clases elegidos.
6.5. REFERENCIAS Y COORDENADAS PROYECTIVAS 145

6.5.2 Ejemplo.- Tres puntos distintos de P2R no son linealmente independi-


entes si y sólo si las tres direcciones de R3 de las que provienen no son lineal-
mente independientes (generan un plano), lo cual es equivalente a que los tres
puntos generen una recta proyectiva (ver la figura 6.10).

p2
p3 p1

u2
u1
u3

5
-0
05
9-
l2

Figura 6.10: Tres puntos alineados del espacio proyectivo.


de
n

6.5.3 Teorema Sea E un espacio vectorial de dimensión n + 1.


sió

a) El número máximo de puntos linealmente independientes en P(E) es n + 1


(recuerda que P(E) tiene dimensión n).
r

b) Si P0 = [−
→0 ], . . . , Pn = [−
u u→ →

n ] y uj = (uj0 , . . . , ujn ) en una cierta base de E,
Ve

entonces
u00 · · · un0
P0 , . . . , Pn l. i. ⇐⇒ .. .. 6= 0
. .
u0n · · · unn

La demostración de a) es obvia, y b) se prueba fácilmente por álgebra lineal.


Completa los detalles.

6.5.4 Definición Sea E un espacio vectorial de dimensión n + 1. Una refer-


encia proyectiva en P(E) (espacio proyectivo de dimensión n) es un conjunto de
n + 2 puntos {P0 , . . . , Pn ; U } de P(E) tales que cualquier subconjunto de n + 1
puntos de entre ellos es linealmente independiente.

Notación.- Dada la referencia proyectiva {P0 , . . . , Pn ; U }, se llama a P0 , . . . , Pn


poliedro de referencia, y a U punto unidad.
146 CAPÍTULO 6. EL ESPACIO PROYECTIVO

6.5.5 Ejemplo.- Consideramos en P2R los tres puntos {P0 = [(1, 0)], P1 =
[(0, 1)]; U = [(1, 1)]}.
Dado que
1 0 0 1 1 1
6= 0, 6= 0, 6= 0,
0 1 1 1 0 1
se trata de una referencia proyectiva.

6.5.6 Teorema (de existencia de base normalizada) Sea R = {P0 , . . . , Pn ; U }


referencia proyectiva de P(E). Entonces:
i) Existe una base {→ −
e0 , . . . , −
e→ →

n } de E tal que [ ej ] = Pj para j = 0, . . . , n, y

− −

[ e0 + · · · + en ] = U . Se llama base normalizada respecto a R ó asociada a R.
ii) Si B = {→ −
e0 , . . . , −
e→ 0 →
−0 −
→0
n } y B = { e0 , . . . , en } son dos bases de E asociadas a R

− →
− 0
entonces ∃λ 6= 0 tal que ej = λ ej ∀j (las dos bases son “proporcionales”).

Demostración.- i) Como P0 , . . . , Pn son linealmente independientes, existe


{→−
v0 , . . . , −
v→ →

n } base de E tal que Pi = [ vi ], i = 0, . . . , n.
Sea vn+1 un vector de E tal que U = [v−n+1
− −→ −→]. Como {→−
v0 , . . . , −
v→
n } es base de

5
− − → →
− −

-0
E, vn+1 = λ0 v0 + · · · + λn vn para unos únicos λ0 , . . . , λn .
Veamos que ninguno de los λi puede ser nulo: λi = 0 ⇒ v−n+1
05 −→ ∈ h{→ −
vj , j 6=
i}i ⇒ U ∈ V ({Pj , j 6= i}) ⇒ Los n + 1 puntos P0 , . . . , Pi−1 , Pi+1 , . . . , Pn , U
9-
son linealmente dependientes, lo cual contradice la condición de ser referencia
l2

proyectiva.
Sea pues {→ −
e0 = λ 0 →

v0 , . . . , →

en = λ n −
v→ →

n } base de E. Cumple [ ei ] = Pi y también
de


− −

[ e0 + · · · + en ] = U .
n

ii) Sean {→ −
e0 , . . . , −e→ →
−0 −
→0
n }, { e0 , . . . , en } dos bases asociadas a la misma referencia
sió

proyectiva.
Como [→ −e i ] = [→ −
ei 0 ], entonces → −ei = λ i →−
ei 0 .
r

Como [→ −
e0 +· · ·+ − e→ →
− 0 −
→ 0 →
− −
→ →
−0 −
→0
Ve

n ] = [ e0 +· · ·+ en ], se tiene e0 +· · ·+ en = λ( e0 +· · ·+ en ).
De modo que λ0 → −
e0 + · · · + λ n −
0
e→ 0 →
− 0 −
→ 0
n = λ e0 + · · · + λen , de lo que se deduce que
λ0 = · · · = λn = λ. 

6.5.7 Ejemplo.- Tomemos R = {P0 = [(1, 2)], P1 = [(0, 3)]; U = [(2, 0)]}
referencia proyectiva en P1R . ¿Cómo calcular base normalizada?
4
(2, 0) = λ0 (1, 2) + λ1 (0, 3) =⇒ λ0 = 2, λ1 = −
3
de modo que (2, 0) = (2, 4) + (0, −4) = →

e1 + →

e2 .
La base B = {(2, 4), (0, −4)} es base normalizada.

6.5.8 Definición Sea P = P(E) y R = {P0 , . . . , Pn ; U } referencia proyectiva.


Las coordenadas homogéneas de P en R son cualquier colección [x0 , . . . , xn ] tal
que (x0 , . . . , xn ) sean las coordenadas de un vector cualquiera que determine P
(i.e. →

v t.q. [→ −v ] = P ) en cualquier base asociada a R. Se denotan [x0 , . . . , xn ]
ó (x0 : · · · : xn ).
6.5. REFERENCIAS Y COORDENADAS PROYECTIVAS 147

Es importante observar que por construcción las coordenadas homogéneas


no son únicas: están definidas salvo factor de proporcionalidad (ası́, el punto de
coordenadas homogéneas (x0 , . . . , xn ) y el de coordenadas (7x0 : · · · : 7xn ) son
el mismo).

6.5.9 Ejemplo.- Si R = {P0 = [(1, 2)], P1 = [(0, 3)]; U = [(2, 0)]}, ya calcu-
lamos en el ejemplo 6.5.7 la base normalizada B = {→

e0 = (2, 4), →

e1 = (0, −4)}.
¿Cuáles son las coordenadas homogéneas en R de P = [(4, 4)]?

(4, 4) = 2(2, 1) + 1(0, −4),

luego P = (2 : 1) (ó (6 : 3), etc. . . ).

6.5.10 Algunas observaciones importantes al respecto de las coordenadas ho-


mogéneas son:

5
• Las coordenadas homogéneas en R = {P0 , . . . , Pn ; U } de P0 son (1 : 0 · · · : 0),

-0
de P1 son (0 : 1 : 0 · · · : 0),. . . y de Pn son (0 : · · · : 0 : 1). Las de U son
05
(1 : · · · : 1) (¡compruébalo!), lo cual explica el nombre de punto unidad.
9-
l2

• ¿Para qué se necesita el punto unidad? A primera vista suena un poco arti-
ficial, pero es absolutamente necesario. Si intentara definir una referencia como
de

una colección de n + 1 puntos linealmente independientes, no podrı́a definir


coordenadas ni siquiera salvo proporcionalidad. Si {P0 , . . . , Pn } son l.i. con
[→
− −
→0 , . . . , u

→ →
− −
→ → − −
→ −

n

ui ] = Pi , entonces {u n } y { v0 = 2u0 , v1 = 3u1 , . . . , −4vn } serı́an bases


sió

con [→−u i ] = [→

vi ] = Pi , pero las coordenadas de cierto → −v en las dos bases son
totalmente diferentes (no solo proporcionales).
r
Ve

• Dada una base B = {−→0 , . . . , −


u u→
n } de E, una referencia proyectiva que tiene a
B como base asociada es {P0 = [− →0 ], . . . , Pn = [−
u u→ −
→ −

n ]; U = [u0 + · · · + un ]}.

• Si se reordenan los puntos de una referencia proyectiva, las coordenadas ho-


mogéneas pueden cambiar, y no sólo de orden (a diferencia de lo que ocurre con
las coordenadas en espacios vectoriales, por ejemplo).

6.5.11 Ejemplo.- Tomamos R = {P0 = [(1, 2)], P1 = [(0, 3)]; U = [(2, 0)]}. Ya
vimos que [(4, 4)] = (2 : 1)R .
Sea ahora R0 = {P00 = [(0, 3)], P10 = [(2, 0)]; U 0 = [(1, 2)]}. Como

2 1
(1, 2) = λ0 (0, 3) + λ1 (2, 0) ⇒ λ0 = , λ1 = ,
3 2

{→−
e0 = (0, 2), →

e1 = (1, 0)} es base asociada a R0 . Como (4, 4) = 2(0, 2) + 4(1, 0),
[(4, 4)] = (2 : 4)R0 .
148 CAPÍTULO 6. EL ESPACIO PROYECTIVO

6.6. Cambios de referencia proyectiva


6.6.1 Si en P = P(E) tenemos dos referencias proyectivas R = {P0 , . . . , Pn ; U }
y R0 = {P00 , . . . , Pn0 ; U 0 }, sean B = {→

e0 , . . . , −
e→ 0 →
−0 −
→0
n }, B = { e0 , . . . , en } bases nor-
0
malizadas para R y R respectivamente.
Supongamos que


e0 0 = a00 →

e0 + a10 →

e1 + · · · + an0 −
e→n
···

e→
n
0
= a0n →

e0 + a1n →

e1 + · · · + ann −e→n

es decir, que
 
a00 ··· a0n
 .. .. 
 . . 
an0 · · · ann

es la matriz de cambio de B a B 0 .

5
-0
Entonces, dado P ∈ P(E), si (x0 : · · · : xn ) son sus coordenadas homogéneas
05
en R, y (x00 : · · · : x0n ) son sus coordenadas homogéneas en R0 , entonces
9-
    0 
l2

x0 a00 ··· a0n x0


 ..   .. ..   ..  ,
 .  = λ . .  . 
de

xn an0 · · · ann x0n


n
sió

con λ 6= 0 cualquiera.
r

6.6.2 Ejemplo.- En P1R , sean


Ve

R = {[(1, 2)], [(0, 3)]; [(2, 0)]} −→ B = {(2, 4), (0, −4)}

R0 = {[(0, 3)], [(2, 0)]; [(1, 2)]} −→ B 0 = {(0, 2), (1, 0)}

P = [(4, 4)] tiene coordenadas homogéneas (2 : 4)R0 . El cambio de B a B 0


tiene matriz
 −1       
2 0 0 1 1/2 0 0 1 0 1/2
= = ,
4 −4 2 0 1/2 −1/4 2 0 −1/2 1/2

por lo que las coordenadas de P en R son


    
0 1/2 2 2λ
λ =
−1/2 1/2 4 λ

(por ejemplo, (2 : 1)R , como ya sabı́amos).


6.7. ECUACIONES DE VARIEDADES LINEALES PROYECTIVAS 149

6.7. Ecuaciones de variedades lineales proyecti-


vas
6.7.1 Sea E espacio vectorial de dimensión n + 1, y P(E) el espacio proyectivo
de dimensión n asociado. Sea X una variedad proyectiva, X = P(X) b con X b ⊂E
subespacio vectorial.
Si R es una referencia proyectiva en P(E) y B es una base asociada a ella,
las ecuaciones de Xb en B son de la forma

λ00 x0 + · · · + λ0n xn = 0 

.. ,
. 

λk0 x0 + · · · + λkn xn = 0
donde (x0 , . . . , xn ) son coordenadas en B. 

x0
 
Si C es la matriz (λij ), el sistema anterior se reescribe como C  ...  =

5
xn
 

-0
0 05
 .. 
 . . Ahora, P = [→ −v ] = (z0 : · · · : zn )R cumple
9-
0
l2

P ∈X ⇔ λ→
− b λ 6= 0
v ∈ X,
de

     
λz0 z0 0
n

   ..  =  .. 
⇔ C  ...  = λC  .   . 
sió

zn zn 0
r

   
Ve

z0 0
   .. 
⇔ C  ...  =  . 
zn 0
de modo que las ecuaciones de X en la referencia proyectiva R son

λ00 z0 + · · · + λ0n zn = 0 

.. .
. 

λk0 z0 + · · · + λkn zn = 0
Además, por el Teorema de Rouché-Frobenius
b − 1 = n + 1 − rg(C) − 1 = n − rg(C).
dim X = dim X

Observación.- La codimensión es el rango de la matriz de coeficientes, que


es la misma para X o para X b (de modo que ambas codimensiones coinciden,
como ya sabı́amos).
150 CAPÍTULO 6. EL ESPACIO PROYECTIVO

6.7.2 Ejemplo.- Una recta proyectiva en P2 está dada por una ecuación lineal
homogénea en 3 variables.
En general, un hiperplano en Pn viene dado por una ecuación lineal ho-
mogénea en n + 1 variables.

6.7.3 Ejemplo.- ¿Cuál es la variedad proyectiva que generan P1 = [(1, 0, 3)] y


P2 = [(−2, 1, −6)]? Dicha variedad es X = P(h(1, 0, 3), (−2, 1, −6)i). La ecuación
de h(1, 0, 3), (−2, 1, −6)i es

x y z
0= 1 0 3 = −6y + z + 6y − 3x,
−2 1 −6

es decir z − 3x = 0, siendo (x, y, z) las coordenadas en la base B en que estén


expresados los vectores.
Por tanto la ecuación de V (P1 , P2 ) es también

z3 − 3z1 = 0,

5
-0
donde (z1 : z2 : z3 ) denotan coordenadas en una referencia R que tenga a B
05
como base asociada.
9-
l2
de
n
r sió
Ve
Capı́tulo 7

Dualidad y teoremas
clásicos de incidencia

5
-0
7.1. Dualidad 05
7.1.1 Sea E un K−espacio vectorial, y E ∗ el espacio dual (cuyos elementos
9-
son aplicaciones lineales E → K). Sea dim(E ∗ ) = dim(E) = n.
l2

Consideremos el espacio proyectivo P(E). Un hiperplano proyectivo X ⊂


P(E) viene dado en coordenadas por una ecuación lineal homogénea en n + 1
de

variables x0 , . . . , xn , del tipo


n

a0 x0 + · · · + an xn = 0.
sió

Ahora bien, la aplicación


r

h
E −→ K
Ve

(x0 , . . . , xn ) −
7 → a 0 x0 + · · · + a n xn ,
es un elemento de E ∗ , que podemos pensar que “corresponde.al hiperplano X.
De hecho, λ(a0 x0 + · · · + an xn ) = 0 es también una ecuación para X. De modo
que más que h ∈ E ∗ , podemos asociar a X el elemento [h] ∈ P(E ∗ ) (y llamamos
a dicha asociación δ, de modo que δ(X) = [h] en este caso). Ası́ que:
Teorema Existe una correspondencia biyectiva entre el conjunto de hiper-
planos proyectivos de P(E) y los elementos de P(E ∗ ).

Demostración.- Si definimos la correspondencia


{Hiperplanos proyectivos de P(E)} ←→ P(E ∗ )

X = P(X)e
δ
e
X ⊂ E de dim n −→ [h]
y ec. h = 0

P(ker f ) ←− [f ]

151
152CAPÍTULO 7. DUALIDAD Y TEOREMAS CLÁSICOS DE INCIDENCIA

basta comprobar que es biyectiva (ejercicio). 

7.1.2 De hecho, la correspondencia anterior se generaliza a variedades lineales


proyectivas de cualquier dimensión (y no sólo a hiperplanos) del modo siguiente:
Proposición Sean X1 , . . . Xr , X hiperplanos proyectivos de P(E) (que, co-
mo sabemos, corresponden vı́a δ a puntos en P(E ∗ )).
Entonces δ(X) ∈ V (δ(X1 ), . . . , δ(Xr )) (como puntos en P(E ∗ )) si y sólo si
X ⊃ (X1 ∩ · · · ∩ Xr ) (como variedades de P(E)).

Demostración.- Supongamos que h1 = 0, . . . , hr = 0, h = 0 son las ecua-


ciones de X1 , . . . Xr , X.

V (δ(X1 ), . . . , δ(Xr )) = V ([h1 ], . . . , [hr ]) = P(hh1 , . . . , hr i),


y la condición δ(X) ∈ V (δ(X1 ), . . . , δ(Xr )) es exactamente h ∈ hh1 , . . . , hr i, lo
cual se da exactamente cuando los sistemas

h=0  

5
h1 = 0 

-0
..
. 

05


hr = 0
9-
y 
l2

h1 = 0 
..
de

. 

hr = 0
n

tienen las mismas soluciones. Eso ocurre si y sólo si X1 ∩ · · · ∩ Xr = X1 ∩ · · · ∩


sió

Xr ∩ X, lo cual es equivalente a (X1 ∩ · · · ∩ Xr ) ⊂ X. 


r
Ve

Si P tiene dimensión n, la proposición anterior nos permite extender la aso-


ciación
{Hiperplanos de P(E)} ←→ {Puntos de P(E ∗ )}
a variedades de cualquier dimensión.
La correspondencia, llamada dualidad canónica es:

P(E) P(E ∗ )
∪ ∪
X −→ X ∗ := {δ(H) : H ⊃ X, H hiperplano de P(E)}
[
H ←− Y
H hip.
δ(H) ∈ Y

7.1.3 Proposición Si X es una variedad lineal proyectiva y X ∗ es su dual


canónica, entonces
dim X + dim X ∗ = n − 1.
7.1. DUALIDAD 153

Se suele llamar a dim X ∗ la dimensión dual proyectiva de la dimensión de


X.

Demostración.- Dada X ⊂ P de codimensión r, existen hiperplanos H1 , . . . , Hr


con X = H1 ∩ · · · ∩ Hr y r formas lineales independientes h1 , . . . , hr ∈ E ∗ tales
que Hi ≡ hi = 0.
Por la proposición anterior X ∗ = V (δ(H1 ), . . . , δ(Hr )), y ası́ dim X ∗ = r −1,
por lo que
dim X + dim X ∗ = n − r + r − 1 = n − 1.

7.1.4 Observación.- Dada X ⊂ P(E), entonces X ∗ ⊂ P(E ∗ ). De hecho, si


X = P(F ), con F ⊂ E subespacio vectorial (es decir, F = X), b entonces
∗ c b
X = P(Ann(F )) (equivalentemente X = Ann(X)), donde Ann(F ) = {h ∈

E ∗ | h(x) = 0 ∀x ∈ F } = {h ∈ E ∗ | F ⊂ ker h}.

5
-0
b = {(x, y, z) ∈
7.1.5 Ejemplo.- En P2R , sea X la recta x + y + z = 0. Ası́ que X
05
3
R | x + y + z = 0}.
9-
Entonces
l2

b = {h ∈ (R3 )∗ | kerh ⊃ X}
Ann(X) b
de

b
= {h ∈ (R3 )∗ | ker h = X}
n
sió

= {(a, b, c) | {ax + by + cz = 0} = {x + y + z = 0}}


r
Ve

= h(1, 1, 1)i,

b = 2 = dim(ker h).
donde en la segunda igualdad usamos que dim X

Ası́ pues X = {[1, 1, 1]}.

7.1.6 Proposición Las propiedades fundamentales de la dualidad canónica


son:
(a) X ⊂ Y ⇔ X ∗ ⊃ Y ∗ .
(b) (X ∩ Y )∗ = V (X ∗ , Y ∗ ).
(c) [V (X, Y )]∗ = X ∗ ∩ Y ∗ .

La demostración no es difı́cil, y es muy ilustrativa. Queda como ejercicio.

7.1.7 Suponamos que P es una proposición relativa a variedades proyectivas


de P(E), expresada en términos de intersecciones, variedades generadas por
uniones, contenidos y dimensiones.
154CAPÍTULO 7. DUALIDAD Y TEOREMAS CLÁSICOS DE INCIDENCIA

Definición Se llama proposición dual P ∗ de la proposición P a la obtenida


a partir de P sustituyendo cada concepto por su dual. Es decir:
P(E) ←→ P(E ∗ )
Variedad generada ←→ Intersección
Intersección ←→ Variedad generada
Contenido en ←→ Contiene a
Contiene a ←→ Contenido en
Dimensión ←→ Dimensión dual

7.1.8 Con lo que hemos visto hasta ahora, es claro que si P es cierta en P(E ∗ ),
entonces P ∗ es cierta en P((E ∗ )∗ ) = P(E), vı́a la dualidad canónica. ası́ obten-
emos:

Teorema (Principio de dualidad en espacios proyectivos) Una proposi-

5
ción relativa a variedades proyectivas de espacios proyectivos de dimensión finita

-0
es cierta si y sólo si lo es su proposición dual.
05
Demostración.- P es cierta en P(E) si y sólo si P es cierta en P(E ∗ ) (puesto
9-
que E y E ∗ son de la misma dimensión sobre el mismo cuerpo), y esto ocurre
si y sólo si P ∗ es cierta en P(E ∗∗ ) = P(E) 
l2

7.1.9 Ejemplo.- Sabemos ya que dos puntos diferentes de P2R generan una
de

recta.
P = “Dos variedades de dimensión 0 (puntos) generan una variedad de dimen-
n

sión 1 (una recta)”.


sió

P ∗ = “Dos variedades de dimensión 1 (rectas) se intersecan en una variedad de


dimensión 0 (un punto)”.
r

Ya conocı́amos la veracidad de estas dos proposiciones. De hecho, dado que


Ve

una es la dual de la otra, sólo hace falta probar una para verificar que ambas
son verdaderas. Por cierto, observa que la dimensión dual proyectiva a 1 en este
caso es 2 − 1 − 1 = 0.

Ejemplo.- La proposición dual de


P : Tres planos distintos en P3R se cortan en un punto
es
P ∗ : Tres puntos distintos en P3R generan un plano.

Ejemplo.- La proposición dual de


P : Dos puntos distintos en PnR generan una recta
es
P ∗ : Dos hiperplanos distintos en PnR se cortan en una variedad de dimensión n−2.
7.2. DOS TEOREMAS CLÁSICOS SOBRE INCIDENCIA 155

7.2. Dos teoremas clásicos sobre incidencia


7.2.1 Teorema [de Desargues] Sean 4ABC y 4A0 B 0 C 0 dos triángulos en
un plano proyectivo sin vértices ni lados comunes.
Son equivalentes:
1) Las rectas V (A, A0 ), V (B, B 0 ), V (C, C 0 ) son concurrentes.
2) Los puntos
P = V (A, B) ∩ V (A0 , B 0 )
Q = V (A, C) ∩ V (A0 , C 0 )
R = V (B, C) ∩ V (B 0 , C 0 )

están alineados.

5
-0
05
A
9-
l2

B
de

C
n

P
sió

Q R
r
Ve

C’
B’

A’

Figura 7.1: El Teorema de Desargues.

Demostración.- 1) ⇒ 2); Sea X el punto de corte de V (A, A0 ), V (B, B 0 ) y


V (C, C 0 ).
Tomamos la referencia proyectiva {A, B, C; X}. En ella A = [1, 0, 0], B =
[0, 1, 0], C = [0, 0, 1], X = [1, 1, 1], y es fácil comprobar que las rectas V (A, X),
156CAPÍTULO 7. DUALIDAD Y TEOREMAS CLÁSICOS DE INCIDENCIA

V (B, X), V (C, X) tienen ecuación x1 − x2 = 0, x0 − x2 = 0 y x0 − x1 = 0


respectivamente.
Los puntos A0 , B 0 , C 0 tienen coordenadas [a, 1, 1], [1, b, 1] y [1, 1, c], donde
a, b, c 6= 1.
Calculamos otras ecuaciones de rectas (comprueba que son estas):

V (A0 , B 0 ) ←→ (1 − b)x0 + (1 − a)x1 + (ab − 1)x2 = 0


V (A0 , C 0 ) ←→ (c − 1)x0 + (1 − ac)x1 + (a − 1)x2 = 0
V (B 0 , C 0 ) ←→ (bc − 1)x0 + (1 − c)x1 + (1 − b)x2 = 0

y por otro lado


V (A, B) ←→ x2 = 0
V (A, C) ←→ x1 = 0
V (B, C) ←→ x0 = 0
Por tanto P = V (A, B) ∩ V (A0 , B 0 ) es P = [p0 , p1 , 0] donde (1 − b)p0 +
(1 − a)p1 = 0, e igualmente R = V (B, C) ∩ V (B 0 , C 0 ) es R = [r0 , 0, r2 ] donde
(c − 1)r0 + (a − 1)r2 = 0 y Q = V (A, C) ∩ V (A0 , C 0 ) es Q = [0, q1 , q2 ] donde

5
(1 − c)q1 + (1 − b)q2 = 0.

-0
Como a 6= 1, b 6= 1, c 6= 1 ⇒ p0 6= 0, p1 6= 0, r0 6= 0, r2 6= 0, q1 6= 0, q2 6= 0 y
05
P = [a − 1, 1 − b, 0], R = [1 − a, 0, c − 1], Q = [0, b − 1, 1 − c].
9-
Ahora bien, un cálculo directo muestra que
l2

a−1 1−a 0
1−b 0 b−1 = 0,
de

0 c−1 1−c
n

ası́ que P, Q y R están, efectivamente, alineados.


sió

2) ⇒ 1); Es exactamente la proposición dual a 1) ⇒ 2) (¡Compruébalo!).


r
Ve

Ası́ que gracias al principio de dualidad no tenemos nada más que comprobar.


7.2.2 Teorema [de Pappus] Sean A, B, C puntos en una recta L ⊂ P2 y


A0 , B 0 , C 0 puntos en otra recta L0 tales que A, B, C, A0 , B 0 , C 0 6= O = L ∩ L0 .
Entonces los puntos

P = V (A, B 0 ) ∩ V (A0 , B)
Q = V (A, C 0 ) ∩ V (A0 , C)
R = V (B, C 0 ) ∩ V (B 0 , C)

están alineados.


Demostración.- Sea → −x ∈ E r { 0 }, siendo P2 = P(E), tal que [→ −
x ] = O.

− →−
Como O, A, B, C son cuatro puntos de L diferentes, existe y ∈ E r { 0 } tal
que [→

y ] = A, [→

x +→ −y ] = B, [→

x + a→
−y ] = C para cierto a ∈ K r {0, 1}.


Análogamente, existe → −z ∈ E r { 0 } tal que [→ −
z ] = A0 , [→

x +→−z ] = B0 y
[→

x + b→−
z ] = C 0 para cierto b ∈ K r {0, 1}.
7.2. DOS TEOREMAS CLÁSICOS SOBRE INCIDENCIA 157

C L
B
A

5
-0
05
9-
R
l2

P Q
de
n
r sió
Ve

A’ L’
B’
C’

Figura 7.2: El Teorema de Pappus.


158CAPÍTULO 7. DUALIDAD Y TEOREMAS CLÁSICOS DE INCIDENCIA

Observamos que → −x,→−y ,→



z son linealmente independientes, puesto que O, A
0
y A no están alineados.
Ahora tenemos P = [→ −x +→−y +→ −z ], dado que
 →
[−
x +→ −y +→ −
z ] = [(→
−x +→ −
y)+→ −z ] ∈ V (B, A0 )
[→

x +→ −y +→ −
z ] = [(→
−x +→ −
z )+→−y ] ∈ V (B 0 , A)

(observa que V (A, B 0 ) y V (A0 , B) son rectas distintas, de modo que [→ −


x +→

y +→

z]
es su único punto común, que es P ).
Análogamente
 →
[−
x + a→ −y + b→
− z ] = [(→

x + a→−y ) + b→
−z ] ∈ V (C, A0 )

− →
− →
− →
− →
− →
− ,
[ x + y + z ] = [a y + ( x + b z )] ∈ V (A, C 0 )

luego [→

x + a→ −
y + b→
−z ] = Q.
Por último R = [(ab − 1)→−
x + a(b − 1)→
−y + b(a − 1)→

z ], puesto que

 [(ab − 1)→
−x + a(b − 1)→−
y + b(a − 1)→

z ] = [a(b − 1)(→ −x +→−y)

5



 + (a − 1)( x + b→

− −z )] ∈ V (B, C 0 )

-0
05 .



 [(ab − 1)→

x + a(b − 1)→

y + b(a − 1)→

z] = [(a − 1)b(→

x +→−
z)

+(b − 1)( x + a→

− −
9-
y )] ∈ V (B 0 , C)
l2

Para terminar, basta observar que


de

(ab − 1)→

x + a(b − 1)→

y + b(a − 1)→

z = ab(→

x +→

y +→

z ) − (→

x + a→

y + b→

z ).
n
sió


r

7.2.3 Por dualidad, haber probado el Teorema de Pappus tiene como conse-
Ve

cuencia que hemos probado también el resultado dual (que es menos conocido
que el Teorema de Pappus).
Teorema [Pappus dual] Dadas rectas A, B, C pasando por un punto L
y rectas A0 , B 0 , C 0 pasando por otro punto L0 , entonces las rectas P = V (A ∩
B 0 , A0 ∩ B), Q = V (A ∩ C 0 , A0 ∩ C), R = V (B ∩ C 0 , B 0 ∩ C) son concurrentes.

Observación.- El Teorema de Desargues proporciona un método para:


• Trazar la recta que une dos puntos de una hoja de papel con una regla más
corta que la distancia entre los puntos.
• Trazar la recta que une un punto de la hoja de papel con el punto de inter-
sección de dos rectas de la hoja que se cortan fuera de ella (usando sólo una
regla).

¿Puedes argumentar cómo hacerlo?


Capı́tulo 8

Aplicaciones proyectivas

8.1. Aplicaciones naturales entre espacios proyec-

5
tivos

-0
05
Vamos a introducir ahora las aplicaciones naturales entre espacios proyec-
tivos. Como es de esperar, se van a definir mediante aplicaciones entre los cor-
9-
respondientes espacios vectoriales.
l2

8.1.1 Si P, P0 son dos espacios proyectivos, definimos una aplicación proyectiva


de

h : P → P0 a partir de una aplicación lineal b b → Pb0 entre los espacios


h : P
vectoriales asociados.
n

Si b
h:P b → Pb0 es lineal, consideramos
r sió

b
h
b
P −→ Pb0
Ve

πP ↓ ↓ π P0
P P0

Definimos h : P −→ P0 de forma que el diagrama anterior conmute, es decir,


mediante la fórmula

h(→
h(x) = [b −
u )], siendo X = [→

u ].

Definición A una aplicación b h entre espacios proyectivos inducida por una


aplicación lineal h entre espacios vectoriales por medio de

h(→
h(X) = [b −
u )], siendo X = [→

u ].

se le llama aplicación proyectiva.

8.1.2 De la misma definición anterior surjen inmediatamente dos cuestiones:

159
160 CAPÍTULO 8. APLICACIONES PROYECTIVAS

1) ¿Y si usamos otro representante de la clase X? Para que la definición tenga


sentido, no debe depender del representante elegido. Pero eso es claro, pues otro
representante de X = [→
−u ] debe ser [λ→

u ], por lo que

h(λ→
[b − h(→
u )] = [λb − h(→
u )] = [b −
u )],

con lo que, efectivamente, la definición no cambia.




2) Si bh(→
−u ) = 0 , ¿qué pasa?.
Es claro que h no está definida en X ∈ P si X = [→
−u ] con →

u ∈ ker b
h.
b
De hecho, P(ker h) = Z es una variedad proyectiva dentro de P donde h no
está definida. En realidad, h es una aplicación

P \ Z −→ P0 .

Z se llama el centro de h.

8.1.3 Proposición i) b h es inyectiva ⇔ h es inyectiva ⇔ h está definida en

5
todo P.

-0
ii) b
h es sobre ⇔ h es sobre. 05
Demostración.- i) Si bh no es inyectiva, existen vectores no nulos →

u,→

9-
v ∈Pb
b →
− →
− b b →
− →

l2

tales que h( u ) 6= 0 ∈ P , h( v ) = 0 .
0

Entonces →−
w =→ −
u +→−
v y→ −u son vectores linealmente independientes, y [→

w] =
de


− b →
− b →

Y ∈ P, [ u ] = X ∈ P son dos puntos distintos. Como h( w ) = h( u ), h(X) =
h(Y ) por lo que h no es inyectiva.
n
sió

Recı́procamente, supongamos que h no es inyectiva, por lo que existen P, Q ∈


P con h(P ) = h(Q). Si P = [→ −u ] y Q = [→
− h(→
v ], entonces b − h(→
u ) = λb −
v ) para algún
r



Ve

λ 6= 0, por lo que b →
− →
− →
− →

h( u − λ v ), con lo que u − λ v ∈ ker bh. Como →
−u − λ→−
v 6= 0
(pues P 6= Q), bh no es inyectiva.


h es sobre, dado Y = [→
ii) Si b −
v ] ∈ P0 , →

v 6= 0 , existe →
− h(→
b tal que b
u ∈P −u) =

− →
− →
− b →

v 6= 0 . De modo que h está definida en X = [ u ] y h(X) = [h( u )] = Y .


Recı́procamente si h es sobre, dado → −
v ∈ Pb0 , →

v 6= 0 , existe X ∈ P tal que

− →
− →

h(X) = [ v ]. De modo que si u ∈ P cumple [ u ] = X, entonces [b
b h(→

u )] = [→

v]y


por tanto v = λb →

h( u ) = b →

h(λ u ) con λ 6= 0. 

Observación.- Como consecuencia, h : P → P0 es biyectiva si y sólo si bh lo


es. En ese caso, no es difı́cil comprobar que h−1 : P0 → P es también aplicación
proyectiva, y que hd−1 = bh−1 .

8.1.4 Proposición Sea h; P → P0 aplicación proyectiva de centro Z.


1) Si X ⊂ P es variedad proyectiva, entonces h(X r Z) (que por abuso de
[ =b
notación denotamos simplemente h(X)) cumple h(X) b
h(X).
8.1. APLICACIONES NATURALES ENTRE ESPACIOS PROYECTIVOS161

2) Si Y ⊂ P0 es variedad proyectiva, entonces h−1 (Y ) ∪ Z (que por abuso deno-


tamos simplemente h−1 (Y )) es variedad proyectiva, y h\ −1 (Y ) = b
h−1 (Yb ).

La demostración es un ejercicio sencillo.


8.1.5 Por supuesto la composición de aplicaciones proyectivas, cuando se pue-
da hacer, resulta una aplicación proyectiva. La salvedad es que tenemos que
tener cuidado con los centros:
Si h : P → P0 y g : P0 → P00 son dos aplicaciones proyectivas tales que


gb ◦ b
h 6≡ 0 (es decir, Zg 6⊃ Im(h)), entonces la aplicación proyectiva inducida por
h es g ◦ h (es decir, g[
gb ◦ b ◦ h = gb ◦ b
h), que tiene como centro Zg◦h = h−1 (Zg ).
8.1.6 Ejemplo.- Sea P = P2R , P0 = P1R .
Consideramos
Claramente la aplicación lineal asociada es simplemente
bh : R3 → R 2
(x0 , x1 , x2 ) →
7 (x0 , x1 )

5
-0
Se tiene ker(b
h) = {x0 = 0, x1 = 0}, que es una recta en R3 . De modo que
05
Z = P(ker(b
h)) = {[x0 , x1 , x2 ] | x0 = x1 = 0} = {[0, 0, 1]},
9-
con lo que h : P2R r {[0, 0, 1]} → P1R está bien definida.
l2

Si consideramos X = {[x0 , x1 , x2 ] | x0 + x1 = 0} se tiene [0, 0, 1] ∈ X.


de

Calculamos:
h(X r [0, 0, 1]) = {[x0 , x1 ] ∈ P2R | ∃x2 con [x0 , x1 , x2 ] ∈ X, (x0 , x1 ) 6= (0, 0)}
n
sió

= {[x0 , x1 ] ∈ P1R | x0 + x1 = 0, x0 6= 0}
r
Ve

= {[x0 , −x0 ], x0 ∈ R r {0}}

= {[1, −1]} ⊂ P1R


Vemos que
\
h(X \ Z) = {(x, y) ∈ R2 | x + y = 0}

= b
h({(x, y, z) ∈ R3 | x + y = 0}.
Si por ejemplo Y = {[2, 3]} ⊂ P1R , entonces
h−1 (Y ) ∪ Z = Z ∪ {[x0 , x1 , x2 ] ∈ P2R | [x0 , x1 ] = [2, 3]}

= {[2λ, 3λ, x2 ], λ ∈ R r {0}, x2 ∈ R} ∪ {[0, 0, 1]}

= {[2λ, 3λ, x2 ], λ ∈ R, x2 ∈ R | (λ, x2 ) 6= (0, 0)}

= {[x0 , x1 , x2 ] ∈ P2R | 3x0 − 2x1 = 0}


162 CAPÍTULO 8. APLICACIONES PROYECTIVAS

Además
h−1\
(Y ) ∪ Z = {(x, y, z) ∈ R3 | 3x = 2y}
coincide con
b
h−1 (Yb1 ) = b
h−1 ({[2λ, 3λ], λ ∈ R}) = {(2λ, 3λ, z) ∈ R3 | λ, z ∈ R}

8.1.7 Observación.- Hemos dicho que una aplicación proyectiva viene asoci-
ada a una aplicación lineal b
h. Dos aplicaciones lineales pueden inducir la misma
aplicación proyectiva, como b h y fb = λbh. Ambas tienen el mismo núcleo, y si


u ∈ b
/ ker(h) entonces

f ([→

u ]) = [fb(→
− h)(→
u )] = [(λb − h(→
u )] = [λ(b − h(→
u ))] = [b −
u )] = h([→

u ]).

De hecho, exactamente en esta situación es cuando dos aplicaciones lineales


inducen la misma aplicación proyectiva.
Proposición Dos aplicaciones lineales b b → Pb0 definen la misma
h, gb : P
b
aplicación proyectiva h = g : X → Y si y sólo si h y gb son proporcionales (i.e.

5
existe λ 6= 0 tal que ∀→

u bh(→
− g (→
u ) = λb −
u )).

-0
05
Demostración.- Ya hemos visto que aplicaciones lineales proporcionales
9-
inducen la misma aplicación proyectiva. Nos centramos en el recı́proco:
Si las dos aplicaciones proyectivas h y g coinciden, en particular tienen el
l2

mismo centro, luego ker(b h) = ker(b g ).


de

Sean w1 , . . . , wr base de Im(h) ⇒ −



→ −
→ b w →1 = b
h(→

e1 ), . . . , −
→r = b
w h(→−
er ) para {→ −e1 , . . . , →

er }
−→ 0 →

vectores linealmente independientes. Se deduce que w1 = g( e1 ), . . . , wr = g( er ) −→ 0 →

n

son base de Im(b g ) (puesto que dim Im(fb) = dim Im(b g) = dim P b − dim ker, y
sió

son independientes dado que ker(b h) = ker(b g)).


Tomamos → −u =→ −
e1 + · · · + →
−er . Entonces por un lado − →1 0 = λ1 −
w w→1 , . . . , −
→r 0 =
w
r
Ve



λr w r .
Además 
h(→
b −u) = − →1 + · · · + −
w w→r 
gb(→
−u ) = λ1 −→1 + · · · + λr −
w w→r ⇒ λj = λ ∀j

gb(→−
u ) = λb h(→

u)
Si ahora completamos con {− e−→ −

r+1 , . . . , en } vectores linealmente independi-

− −
→ b vemos que gb(→
− →

entes que hagan que { e1 , . . . , en } sea base de X, h(→
ek ) = 0 = λb −
ek ).
b
Ası́ que gb = λh. 

8.2. Aplicaciones proyectivas importantes


8.2.1 Definición Una homografı́a es una aplicación proyectiva inyectiva.

El caso más interesante van a ser las homografı́as de un espacio proyectivo


en sı́ mismo.
8.2. APLICACIONES PROYECTIVAS IMPORTANTES 163

Ejemplo.- La aplicación
P1R −→ P1R
[x, y] −
7 → [x − y, y]
es una homografı́a. Basta observar que está inducida por
  
b 1 −1 x
h(x, y) = ,
0 1 y
que es claramente inyectiva.
8.2.2 De entre las aplicaciones proyectivas no inyectivas, las más importantes
son las llamadas proyecciones cónicas.

Sean Z, Y ⊂ P dos variedades proyectivas tales que Z ∩ Y = ∅ y además


dim Z+dim Y = dimP−1. De modo que Z∩ b Yb = {→ − b
0 }, y dim Z+dim Yb = dimP,b
b L
b
por lo que P = Z b
Y.
Dado →− b →−
u se descompone de manera única como → −u =→ −
u Z +→ −

5
u ∈ P, u Y , con

-0


uZ ∈ Z by→ −
u Y ∈ Yb . Hay una proyección lineal asociada a esa suma directa:
b
h:Pb −→
05
Yb

− →
− →
− →

9-
u = u Z + u Y 7−→ uY
l2

La aplicación proyectiva h asociada a b


h, dada por
de

h:P −→ Y
[→

uZ +→

u Y ] 7−→ [→

uY]
n

se llama proyección cónica sobre Y (de centro) Z.


sió

Es claro que ker(b


h) = Z,b y por lo tanto el centro de h es Z. Además, como
r

b b b
h(P) = Y , la imagen de h es Y .
Ve

8.2.3 Proposición Con la notación anterior, la interpretación geométrica de


una proyección cónica es
h(x) = V (x, Z) ∩ Y si x ∈
/ Z.


− →

Demostración.- Si → −
u =→ −u Z +→ −
u Y , con →
− h(→
u Y 6= 0 , b −
u) = →

u Y ∈ Yb r{ 0 },
h(→
y también b −
u)=→ −u −→ −u Z ∈ h→
− b
u , Zi.
Por tanto
h(→
b −u ) ∈ h→− b ∩ Yb ,
u , Zi


por lo que si x = [ u ] entonces
h(x) ∈ V (x, Z) ∩ Y.
Para concluir, basta ver que dim(V (x, Z) ∩ Y ) = 0, lo cual es consecuencia
b L Yb = P.
del Teorema de Incidencia (ver el Teorema 6.4.6), y del hecho de que Z b

164 CAPÍTULO 8. APLICACIONES PROYECTIVAS

3
IP p
V(p,Z)

Y
h(p)

5
Figura 8.1: Interpretación geométrica de una proyección cónica h en P 3 .

-0
05
8.2.4 Tratamos a continuación las perspectividades, que son restricciones de
proyecciones cónicas en P2R (ó P2K ). Se construyen como sigue:
9-
Sean L1 , L2 dos rectas proyectivas distintas en P2R . Sea {P } = Z una variedad
l2

de dimensión 0, dada por un único punto P ∈ / (L1 ∩ L2 ).


Definición La aplicación proyectiva π : L1 → L2 que define por restricción
de

la proyección cónica h sobre L2 de centro Z se llama perspectividad.


ón
si

Z
L1
er
V

O
π(p) L2 π(q)

Figura 8.2: Una perspectividad de L1 sobre L2 , con centro Z.

Claramente las perspectividades son homografı́as (son inyectivas). Además


fijan el punto O = L1 ∩ L2 .
8.2.5 En realidad el hecho de fijar el punto de corte de las dos rectas caracteriza
8.3. APLICACIONES PROYECTIVAS Y COORDENADAS 165

las homografı́as entre rectas que son perspectividades.


Teorema Toda homografı́a π : L1 → L2 que fije el punto O = L1 ∩ L2 es
una perspectividad.

Demostración.- Sean y, y 0 ∈ L1 dos puntos distintos de O. Sea z = V (y, π(y))∩


V (y 0 , π(y 0 )).
Si tomamos la proyección cónica h de P2R sobre L2 con centro Z = {z},
resulta que h|L1 = π, y por tanto π es perspectividad. 

8.2.6 Es un ejercicio muy interesante intentar probar el Teorema de Desargues


(ver el Teorema 7.2.1) usando perspectividades. Se puede consultar la prueba
en el libro de [Ro-Sa].

8.3. Aplicaciones proyectivas y coordenadas


8.3.1 Al siguiente resultado se le llama a veces Teorema Fundamental de la

5
Geometrı́a Proyectiva.

-0
Proposición Sean E y E 0 dos espacios vectoriales de la misma dimensión,
y R, R0 referencias proyectivas en P(E) y P(E 0 ) respectivamente. Existe una
05
única homografı́a h : P(E) → P(E 0 ) que transforma R en R0 .
9-
l2

Demostración.- Sean R = {x0 , . . . , xn ; xn+1 } y R0 = {x00 , . . . , x0n ; x0n+1 }.



→ →

Sean B = {− →1 , . . . , →
u −
u n }, B 0 = {u01 , . . . , u0 n } bases asociadas a R y R0 re-
de


− P−
spectivamente. Sea b h la aplicación lineal dada por → − h( →
ui 7→ u0i . entonces b ui ) =
P→ −0
n

ui , y por tanto la aplicación proyectiva asociada h : P(E) → P(E 0 ) transfor-


sió

ma R en R0 . ası́ que tal homografı́a existe.


r

Veamos la unicidad: si g : P(E) → P(E 0 ) es otra homografı́a con la misma


Ve

propiedad, con aplicación lineal asociada gb : E → E 0 , como g es homografı́a gb


es isomorfismo. Ası́ que B 00 = gb(B) es base de E 0 .
g (→
Pero como g(R) = R0 = {x00 , . . . , x0n ; x0n+1 } se deduce [b −
ui )] = x0i , 0 ≤ i ≤
n, y además

g (−
[b →0 ) + · · · + gb(−
u u→ g (−
n )] = [b
→0 + · · · + −
u u→ 0
n )] = g([xn+1 ]) = xn+1 .

Ası́ que B 00 es base asociada a R0 y por tanto es proporcional a B 0 . Por tanto


gb es proporcional a b h, por lo que g = h (ver la observación 8.1.7). 

8.3.2 Finalmente, comprobemos que una aplicación proyectiva también viene


dada en coordenadas en forma matricial.

Sean P(E) y P(E 0 ) dos espacios proyectivos. Sean R y R0 referencias proyec-



→ →

tivas en ellos con bases asociadas B = {−u→1 , . . . , →

u n+1 }, B 0 = {u01 , . . . , u0 m }.
Sea h : P(E) → P(E 0 ) aplicación proyectiva, y b h : E → E 0 aplicación lineal
asociada a h.
166 CAPÍTULO 8. APLICACIONES PROYECTIVAS

Llamamos matriz de h (en las referencias R y R0 ) a la matriz de b h en las


bases B y B 0 .
Más concretamente, si (x0 : · · · : xn ) son coordenadas homogéneas respecto
a R, y (x00 , . . . , x0m ) son coordenadas homogéneas respecto a R0 , entonces
   0 
x0 x0
 ..   .. 
M  .  = λ . 
xn x0m

(para un λ 6= 0 cualquiera, que se puede tomar igual a 1 si se quiere), donde M


es la matriz de b
h en B y B 0 (recuerda que la columna i-ésima de M la forman
las coordenadas de bh(→

ui ) en la base B 0 ).

5
-0
05
9-
l2
de
n
r sió
Ve
Capı́tulo 9

Relación entre el espacio


afı́n y el espacio proyectivo

5
-0
9.1. Parte afı́n e hiperplano en el infinito 05
9.1.1 Hemos comentado ya que Rn ⊂ Pn R, y que lo que se añade a un espacio
9-
afı́n son unos cuantos “puntos en el infinito”. Pero: ¿cuántos puntos hay que
l2

añadir?.
Proposición Pn R \ Rn es un hiperplano proyectivo (el hiperplano en el
de

infinito).
n

Demostración.- Lo vemos en coordenadas:


sió

Pn R = {[x0 , . . . , xn ] | xi ∈ R, xn 6= 0, } ∪ {[x0 , . . . , xn−1 , 0] | xi ∈ R}.


r
Ve

Pero si [x0 , . . . , xn ] tiene xn 6= 0, entonces


 
x0 xn−1
[x0 , . . . , xn ] = ,..., ,1 .
xn xn
xi
Llamando =: yi identificamos el punto (y0 , . . . , yn−1 ) con [y0 , . . . , yn−1 , 1],
xn
de modo que la aplicación

Rn → P n R
(y0 , . . . , yn−1 ) →
7 [y0 , . . . , yn−1 , 1]
es inyectiva.
Luego la descomposición es

Pn R = {xn 6= 0} ∪ {xn = 0} ' Rn ∪ {xn = 0},

y la segunda parte es obviamente un hiperplano (puesto que está dado por una
sola ecuación). 

167
168 CAPÍTULO 9. ESPACIO AFÍN - ESPACIO PROYECTIVO

x2

( x 0 , x 1 ,1)
x2 x2

(x0 , x1 , x2 )

x1

x0

5
Figura 9.1: El espacio afı́n dentro del espacio proyectivo.

-0
05
9.1.2 Ya mencionamos en la sección 6.2.5 (allı́ para dimensión 2, aunque el
9-
comentario es obviamente válido en dimensión arbitraria) que no hay puntos
l2

que sean canónicamente designables como “del infinito”, y que en realidad en


un espacio proyectivo no hay puntos especiales.
de

Es decir, que la descomposición


n

Pn R = Rn ∪ {Hiperplano}
sió

puede hacerse de muchas maneras.


r
Ve

De hecho Pn R \ {Hiperplano cualquiera} siempre se puede identificar con


el espacio afı́n Rn (¿puedes comprobarlo?). De modo que cualquier hiperplano
puede hacer las veces de hiperplano en el infinito.

9.2. Completación proyectiva de aplicaciones afines


9.2.1 La forma más sencilla de describir qué es la completación proyectiva de
una aplicación afı́n es considerar un ejemplo:

Ejemplo.- Sea f la afinidad

R3 −→ R3
(y0 , y1 , y2 ) −
7 → (1 + y0 + y1 , 3 − y2 + y0 , y1 − y0 )

Con la identificación de R3 como la parte afı́n de P3 descrita en la de-


mostración de la Proposición 9.1.1, identificamos cada coordenada yi con un
9.2. COMPLETACIÓN PROYECTIVA DE APLICACIONES AFINES 169

xi
cociente de coordenadas homogéneas , con lo que reescribimos
x3

P3 P3
∪ ∪
,
R3 −→ R3
[y0 , y1 , y2 , 1] 7−→ [1 + y0 + y1 , 3 − y2 + y0 , y1 − y0 ]

es decir
P3 P3
∪ ∪
3 3
 R −→ R
  .
x0 x1 x2 x0 x1 x2 x0 x1 x0
, , ,1 7−→ 1+ + ,3− + , −
x3 x3 x3 x3 x3 x3 x3 x3 x3

Es decir, que si definimos ahora en todo P3 la aplicación F [x0 , x1 , x2 , x3 ] =


[x3 +x0 +x1 , 3x3 −x2 +x0 , x1 −x0 , x3 ] (simplemente pasando a otro representante

5
de la misma clase multiplicando cada coordenada por x3 ), es claro que F : P3 −→

-0
P3 es la extensión natural de la aplicación afı́n f a todo el espacio proyectivo
P3 que contiene a R3 (en el sentido de que F|R3 = f .
 
05
 x3 + x 0 + x 1 = 0 
9-

 

3x3 − x2 + x0 = 0
l2

Observa que Zf = ⊂ {x3 = 0}, que es el hiperplano



 x1 − x 0 = 0 

 
x3 = 0
de

en el infinito.
n

En general, nada cambia respecto de este ejemplo: toda aplicación afı́n tiene
sió

una completación proyectiva. Dicha aplicación se calcula homogeneizando, que


r

es el proceso que hemos hecho en el ejemplo de substituir las coordenadas afines


Ve

xi
yi por cocientes de coordenadas proyectivas , por el que las coordenadas de la
xn
imagen de la aplicación afı́n (que eran polinomios lineales quizá no constantes)
se transforman en polinomios lineales sin término independiente (polinomios
lineales homogéneos).

9.2.2 Observación.- Una afinidad f : Rn → Rn es inyectiva (resp. sobreyec-


tiva) si y sólo si lo es su completación proyectiva F : Pn −→ Pn .

9.2.3 El proceso de homogeneización permite pasar de una afinidad a su com-


pletación proyectiva. el proceso inverso, llamado deshomogeneización, a veces
permite pasar de una aplicación proyectiva a una afinidad inducida por ella.

Ejemplo.- Homogeneizando el polinomio x0 2 + 3x1 x42 + 2x1 2 x2 respecto de


la variable x3 se obtiene x0 2 x3 3 + 3x1 x42 + 2x1 2 x2 x3 2 .
Deshomogeneizando x0 3 − 2x0 x1 x2 + 3x1 x2 2 respecto de x2 se obtiene x0 3 −
2x0 x1 + 3x1 (no es más que evaluar una variable en 1).
170 CAPÍTULO 9. ESPACIO AFÍN - ESPACIO PROYECTIVO

Proposición Sean HX y HY dos hiperplanos en X = Pn R e Y = Pm R


respectivamente, de forma que X \ HX = Rn e Y \ HY = Rm .
Sea F : X → Y aplicación proyectiva tal que F (Rn ) 6⊂ HY y F (HX ) ⊂ HY .
Entonces F (Rn ) ⊂ Rm y F|Rn : Rn → Rm es una afinidad, cuya extensión
proyectiva es F .

Demostración.- Tomamos coordenadas en X en las que HX ≡ xn = 0 y


en Y para que HY ≡ ym = 0.

F [x0 , . . . , xn ] = [F0 (x0 , . . . , xn ), . . . , Fm (x0 , . . . , xn )];

F (Rn ) 6⊂ HY ⇔ Fm (y0 , . . . , yn−1 , 1) 6≡ 0


F (HX ) ⊂ HY ⇔ Fm (x0 , . . . , xn−1 , 0) = 0
de modo que Fm = xn .
Ası́
F|Rn (y0 , . . . , yn−1 ) = (F0 (y0 , . . . , yn−1 , 1), . . . , Fm−1 (y0 , . . . , yn−1 , 1))

5
-0
es obviamente afinidad, y su completado es F . 
05
9.3. Completación proyectiva de variedades linea-
9-
les
l2
de

9.3.1 Las ideas anteriores también se aplican a variedades.


Sea Rc = {p; u −
→0 , . . . , u
−− −→ n →

n−1 } una referencia cartesiana en R , siendo ui el
vector →

n

ui = (ui0 , . . . , ui(n−1) ). Podemos ver Rn como hiperplano afı́n en Rn+1 ,


sió

por ejemplo como el hiperplano {(x0 , . . . , xn ) ∈ Rn+1 | xn = 1}.


Entonces p = v− → →

n = (p0 , . . . , pn−1 , 1), y podemos identificar ui con el vec-
r

tor de Rn+1 →−
vi = (ui0 , . . . , ui(n−1) , 0). Ası́, en P(Rn+1 ) = Pn = Rn ∪ H∞ la
Ve

referencia
RP = {[→ −
v0 ], . . . , [v−n−1
−→], [→

v ], [→

v0 + · · · + v−n−1
−→ + →

v ]}
es la referencia proyectiva asociada a RC . Es claro que {→ −
v0 , . . . , −
v→n } es la base
asociada a RP .
Ahora, si q ∈ Rn , entonces q = p + λ0 − →0 + · · · + λn−1 u
u −−n−1
−→ (es decir,
n
(λ0 , . . . , λn−1 ) son las coordenadas cartesianas de q en R ). Visto como pun-
to en la parte afı́n de Pn , q = [λ0 → − −−n−1
v0 + · · · + λn−1 n −→ + 1 · − v→n ], de modo que
[λ1 , . . . , λn−1 , 1] son sus coordenadas homogéneas.
(Del mismo modo, a partir de una referencia proyectiva en Pn se puede
definir una referencia cartesiana en Rn ).

Si ahora L ⊂ Pn = Rn ∪ H es variedad proyectiva de ecuaciones



 c00 x0 + c01 x1 + · · · + c0(n−1) xn−1 + c0n xn = 0

L= ..
 .

cr0 x0 + cr1 x1 + · · · + cr(n−1) xn−1 + crn xn = 0
9.3. COMPLETACIÓN PROYECTIVA DE VARIEDADES LINEALES 171

entonces L ∩ Rn es una variedad afı́n, de ecuaciones



 c00 x0 + c01 x1 + · · · + c0(n−1) xn−1 + c0n = 0

L∩R =n ..
 .

cr0 x0 + cr1 x1 + · · · + cr(n−1) xn−1 + crn = 0

5
-0
05
9-
l2
de
n
r sió
Ve
172 CAPÍTULO 9. ESPACIO AFÍN - ESPACIO PROYECTIVO

5
-0
05
9-
l2
de
n
sió
r
Ve
Capı́tulo 10

La recta y el plano
proyectivos

5
-0
10.1. La razón doble
05
10.1.1 Consideremos en P1R la referencia R{(1 : 0), (0 : 1), (1 : 1)}. Recordemos
9-
una vez más que con la identificación
l2

P1 R = {(x0 : x1 ) | x1 6= 0} ∪ {(1 : 0)} ' R ∪ {∞}


de

↓ψ ↓
x0
=t∈R “∞”
n

x1
sió

entonces R ' {∞, 0, 1}.


Si X es una recta proyectiva y {a, b, c, d} son cuatro puntos distintos de
r
Ve

X, RX = {a, b; c} es una referencia proyectiva en X. Por el Teorema Funda-


mental de la Geometrı́a Proyectiva (ver la proposición 8.3.1) existe una única
homografı́a
f : X → P1R
a 7→ ∞
b 7→ 0
c 7→ 1
Definición Llamamos a f (d) (o, más precisamente, a ψ(f (d))) la razón
doble de a, b, c y d. La denotamos [a b c d].

Observa que la razón doble da una biyección de X r {a, b, c} con R r {0, 1}.
Luego para cada ρ ∈ R, ρ 6= 0, 1, existe un único dρ ∈ X tal que dρ 6= a, b, c y
tal que [a b c dρ ] = ρ.

10.1.2 El interés teórico de la razón doble queda claro por el resultado sigu-
iente:

173
174 CAPÍTULO 10. LA RECTA Y EL PLANO PROYECTIVOS

Teorema Sean X y X 0 dos rectas proyectivas, a, b, c, d ∈ X y a0 , b0 , c0 , d0 ∈


0
X puntos distintos. Son equivalentes:
(1) Existe una homografı́a h : X → X 0 que transforma a, b, c, d en a0 , b0 , c0 , d0 .
(2) [a b c d] = [a0 b0 c0 d0 ].

Demostración.- Sea ρ = [a b c d], ρ0 = [a0 b0 c0 d0 ]. Usamos las homografı́as


f :X → P1R
a 7→ ∞
b 7→ 0
c 7→ 1
y
f0 : X0 → P1R
a0 7 → ∞
b0 7 → 0
c0 7 → 1.

5
-0
Además, sea g : X → X 0 la homografı́a que transforma a, b, c en a0 , b0 , c0 .
Tenemos el diagrama conmutativo 05
X0
9-
X −→
f & . f0
l2

P1R
de

que envı́a
a, b, c −→ a 0 , b0 , c0
n

f & . f0
sió

∞, 0, 1
r

luego f 0 ◦ g = f .
Ve

Si existe h, entonces h = g por lo que ρ = f (d) = f 0 (g(d))f 0 (d0 ) = ρ0 . Si


ρ = ρ0 entonces ρ = f 0 (d0 ) = f (d) = f 0 (g(d)), y como f es inyectiva d0 = g(d),
por lo que g = h. 
10.1.3 Corolario Las homografı́as de rectas proyectivas son las biyecciones
que conservan la razón doble.

Demostración.- Sean X, X 0 rectas proyectivas, y a, b, c ∈ X puntos dis-


tintos. Sea g : X → X 0 biyección, y sean a0 = g(a), b0 = g(b), c0 = g(c). Sea
h : X → X 0 la única homografı́a que transforma {a, b, c} en {a0 , b0 , c0 }. Sean
d ∈ X y d0 ∈ X 0 puntos distintos de los anteriores.
Por el teorema
h(d) = d0 ⇔ [a b c d] = [a0 b0 c0 d0 ].
Luego si g conserva la razón doble entonces d0 = g(d) cumple [a b c d] =
[a0 b0 c0 d0 ], luego d0 = h(d) = g(d). Como d es arbitrario, g es homografı́a
(g = h).
10.1. LA RAZÓN DOBLE 175

Recı́procamente si g es homografı́a entonces h = g; tomando d0 = g(d) se


cumple h(d) = d0 = g(d), por lo que g conserva la razón doble. 

10.1.4 En la práctica, las razones dobles son fáciles de resolver, por medio del
resultado siguiente:
Proposición Sean a, b, c, d cuatro puntos distintos de un recta proyectiva X,
y sea R = {a, b; c} la referencia formada por los tres primeros. Supongamos que
x0
(x0 : x1 ) son las coordenadas homogéneas de d en R. Entonces [a b c d] = .
x1
Demostración.- Sea B = {→ −
u ,→−
v } base asociada a R.
El isomorfismo de espacios vectoriales fb : X b → R2 definido por f( b→−
u) =
b →
− 1
(1, 0), f ( v ) = (0, 1) induce una homografı́a f : X → P tal que f (a) = ∞,
f (b) = 0, f (c) = 1. Por tanto [a b c d] = f (d), y como fb(x0 →

u + x1 →

v ) = (x0 , x1 ),
x0
ası́ f (d) = [x0 , x1 ] ↔ ∈ R r {0, 1, ∞}. 
x1

10.1.5 Observación.- • Claramente se puede extender la definición que hemos

5
dado de [a b c d] al caso en que d coincida con uno de los otros tres puntos,

-0
mediante: 05
[a b c d] = 0 ⇔ d = b
[a b c d] = 1 ⇔ d = c
9-
[a b c d] = ∞ ⇔ d = a
l2

• Si denotamos θ(d) = [a b c d], entonces d = (θ(d) : 1) en R = {a, b; c}


de

donde, si θ(d) = ∞ se pone [“∞”, 1] = [1, 0].


n

10.1.6 Consideramos en P2R las dos variedades proyectivas de dimensión 1


sió

X1 ≡ x 0 − x 1 − x 2 = 0
r
Ve

X2 ≡ x0 + 2x1 + x2 = 0

y sean a1 = (1 : 1 : 0), b1 = (2 : 1 : 1), c1 = (1 : 0 : 1), d1 = (5 : 3 : 2) ∈ X1 ,


y a2 = (−2 : 1 : 0), b2 = (−1 : 0 : 1), c2 = (−3 : 1 : 1), d2 = (1 : 1 : −3),
d02 = (0 : −1 : 2) ∈ X2 .
Calculemos [a1 b1 c1 d1 ], [a2 b2 c2 d2 ], [a2 b2 c2 d02 ]:
¿Base asociada a {a1 , b1 ; c1 }?

(1, 0, 1) = λ1 (1, 1, 0) + λ2 (2, 1, 1) ⇒ λ1 = −1, λ2 = 1

B1 = {(−1, −1, 0), (2, 1, 1)}

¿Base asociada a {a2 , b2 ; c2 }?

(−3, 1, 1) = λ1 (−2, 1, 0) + λ2 (−1, 0, 1) ⇒ λ1 = λ2 = 1

B2 = {(−2, 1, 0), (−1, 0, 1)}


176 CAPÍTULO 10. LA RECTA Y EL PLANO PROYECTIVOS

¿Coordenadas de d1 en {a1 , b1 ; c1 }?
1
(5, 3, 2) = x0 (−1, −1, 0) + x1 (2, 1, 1) ⇒ x1 = 2, x0 = −1 ⇒ [a1 b1 c1 d1 ] = − .
2
Igual para d2 y d02 en {a2 , b2 ; c2 }:
1
(1, 1, −3) = x0 (−2, 1, 0) + x1 (−1, 0, 1) ⇒ x0 = 1, x1 = −3 ⇒ [a2 b2 c2 d2 ] = −
3
1
(0, −1, 2) = x0 (−2, 1, 0) + x1 (−1, 0, 1) ⇒ x0 = −1, x1 = 2 ⇒ [a2 b2 c2 d02 ] = − .
2
De modo que existe una homografı́a X → X 0 que envı́a

a1 7→ a2
b1 7 → b2
c1 7→ c2
d1 7 → d02 ,

5
-0
pero no una homografı́a tal que

a1
057→ a2
9-
b1 7 → b2
c1 7→ c2
l2

d1 7 → d2 .
de

10.2. Cuaternas armónicas


n
sió

10.2.1 Definición Cuatro puntos a, b, c, d de una recta proyectiva forman


una cuaterna armónica cuando su razón doble es −1.
r
Ve

10.2.2 Por las propiedades de la razón doble, dados tres puntos a, b, c siempre
existe el cuarto armónico d, tal que {a, b, c, d} = −1.

El cuarto harmónico se construye geométricamente como indica la figura


10.1.
(y esa figura sirve para construir el cuarto armónico).

10.3. Cálculo de la razón doble para cuatro pun-


tos alineados de P2
10.3.1 Sean
A1 = [a10 , a11 , a12 ]
A2 = [a20 , a21 , a22 ]
A3 = [a30 , a31 , a32 ]
A4 = [a40 , a41 , a42 ]
10.3. RAZÓN DOBLE DE PUNTOS ALINEADOS EN P2 177

b c a d

Figura 10.1: Cómo construir el cuarto armónico.

5
cuatro puntos de P2 que están alineados, es decir que

-0
  05
a10 a11 a12
 a20 a21 a22 
Rg   = 2.
9-
 a30 a31 a32 
l2

a40 a41 a42


de

Sean


v1 = (a10 , a11 , a12 )


n

v2 = (a20 , a21 , a22 )


sió



v3 = (a30 , a31 , a32 )


v4 = (a40 , a41 , a42 )
r
Ve

Queremos calcular {A1 , A2 ; A3 , A4 }.

1◦ ) Calcular base normalizada asociada a {A1 , A2 ; A3 }:



−v 3 = α→

v1 + β →

v2 , y por tanto a30 = αa10 + βa20 , a31 = αa11 + βa21 y
a32 = αa12 + βa22 y por la Regla de Cramer se tiene

a3k a2k a1k a3k


a3l a2l a1l a3l
α= , β=
a1k a2k a1k a2k
a1l a2l a1l a2l
 
a1k a2k a10 a11 a12
donde hemos supuesto 6= 0 (pues Rg = 2 y
a1l a2l a20 a21 a22
alguno de sus menores 2 × 2 tiene determinante no nulo).
La base buscada es B = {− →0 = α→
u −
v1 , −
→1 = β →
u −
v2 }. Ahora calculamos coorde-


nadas de v4 en B:

− −
→0 + x1 u
v4 = x 0 u −
→1
178 CAPÍTULO 10. LA RECTA Y EL PLANO PROYECTIVOS

y por tanto
a40 = x0 αa10 + x1 βa20
a41 = x0 αa11 + x1 βa21
a42 = x0 αa12 + x1 βa22
y por tanto
a4k βa2k αa1k a4k
a4l βa2l αa1l a4l
x0 = , x1 =
αa1k βa2k αa1k βa2k
αa1l βa2l αa1l βa2l
Luego

a1k a3k a2k a4k


x0 a1l a3l a2l a4l
{A1 , A2 ; A3 , A4 } = = .
x1 a1k a4k a2k a3k

5
a1l a4l a2l a3l

-0
Ejercicio.- Usar este método en el último ejemplo, y comprobar que sale el
resultado que obtuvimos.
05
9-
10.3.2 Estudiamos el siguiente caso particular :
l2

Si L = V (A1 , A2 , A3 , A4 ) = {x0 = 0} ⊂ P2R , entonces Aj = [0, aj , 1], j =


∈ R2 .
1, 2, 3, 4. Aj ' (0, aj ) 
de

  
0 a1 1 a1 1
Ahora miramos a , cuyo menor cumple det = a1 −
0 a2 1 a2 1
ón

a2 6= 0, pues A1 6= A2 .
a1 a3 a2 a4
si

1 1 1 1 (a1 − a3 )(a2 − a4 )
Entonces {A1 , A2 ; A3 , A4 } = = .
er

a1 a4 a2 a3 (a1 − a4 )(a2 − a3 )
1 1 1 1
V

Y aún más en particular: si A1 = [0, 1, 0] = “[0, ∞, 1]” es el punto del infinito


correspondiente a la recta x0 = 0.

∞ − a3 (a2 − a4 ) a4 − a 2
{∞, A2 ; A3 , A4 } = · = = (a2 a3 a4 )
∞ − a4 (a2 − a3 ) a3 − a 2
es la razón simple. Ası́ que la razón simple se obtiene de la razón doble como
caso particular.

10.4. Construcción geométrica de homografı́as


10.4.1 Teorema (del eje cruzado) Sea h : L1 → L2 una homografı́a entre
dos rectas L1 , L2 de P2R , y sean P, Q ∈ L arbitrarios (P 6= Q). Entonces los
puntos
V (P, h(Q)) ∩ V (Q, h(P ))
10.4. CONSTRUCCIÓN GEOMÉTRICA DE HOMOGRAFÍAS 179

están alineados sobre una recta L (llamada eje de cruce de h).

Demostración.- Distinguimos dos casos:


a) Caso 1: h es perspectividad de centro Z.

Z
L1

B
A
P

L2 O
h(P) h(A) h(B)

5
-0
05
Figura 10.2: El eje de cruce de una perspectividad.
9-
l2

Llamemos h(A) = A0 , h(B) = B 0 , O = L1 ∩ L2 . Consideremos la referencia


{O, A, B 0 ; Z}, y sean [x0 , x1 , x2 ] coordenadas en ella. Entonces L1 ≡ x2 = 0,
de

L2 ≡ x1 = 0.
Ası́ A0 = V (A, Z) ∩ L2 = {x0 − x2 = 0} ∩ {x1 = 0} = [1, 0, 1] (la ecuación
n

x0 1 0
sió

de V (A, Z) se obtiene de x1 1 1 = x0 − x2 ).
x2 0 1
r
Ve

Sea P un punto cualquiera de L1 ; P = [1, λ, 0] y V (P, Z) viene dado por


 
 x0 1 1 
x1 λ 1 = 0 = {λx0 + x2 − λx2 − x1 = 0} = {λx0 − x1 + (1 − λ)x2 = 0}
 
x2 0 1
y ası́ h(p) = p0 = V (P, Z) ∩ L2 es
  
λx0 + (1 − λ)x2 = 0 λ−1
→ p0 = x2 , 0, x2 = [λ − 1, 0, λ] .
x1 = 0 λ
Por otro lado
 
 x0 1 1 
V (P, A0 ) = x1 λ 0 = λx0 − λx2 − x1 = 0
 
x2 0 1
y  
 x0 0 λ−1 
V (A, P 0 ) = x1 1 0 = λx0 + (1 − λ)x2 = 0 .
 
x2 0 λ
180 CAPÍTULO 10. LA RECTA Y EL PLANO PROYECTIVOS

Si TP = V (P, A0 ) ∩ V (A, P 0 ) entonces


 
λx0 − λx2 − x1 = 0 x1 = −x2
→ ,
λx0 + (1 − λ)x2 = 0 λx0 = (λ − 1)x2
 
(λ − 1)
con lo que TP = x2 , −x2 , x2 = [λ − 1, −λ, λ].
λ
Observar que sea quien sea P , TP está en la recta {x1 + x2 = 0}.

b) Caso 2: Si h no es perspectividad O = L1 ∩ L2 no es punto fijo.

L1

P L

5
A

-0
L2 B 05
O h(P) h(Q)
9-
l2
de

Figura 10.3: El eje de cruce de una homografı́a entre L1 y L2 que no es una


perspectividad.
n
sió

Sea U ∈ L1 tal que f (U ) = O. Sea V ∈ L2 tal que f (O) = V . Veamos que


la recta L = V (A, B) es el eje de cruce.
r

Consideremos la razón doble


Ve

{A, O; P, Q} = {h(A), h(O); h(P ), h(Q)} = {O, B; P 0 , Q0 } = {B, O; Q0 , P 0 }.

Sea ϕ : L1 → L2 la única homografı́a tal que ϕ(A) = B, ϕ(O) = O, ϕ(P ) =


Q0 , ϕ(Q) = P 0 (que existe por el cálculo que hemos hecho de la razón doble). ϕ
es una perspectividad porque ϕ(O) = O.
Luego las rectas V (A, B), V (P, Q0 ), V (Q, P 0 ) son concurrentes (se cortan en
el centro de ϕ), de forma que T = V (P, Q0 ) ∩ V (Q, P 0 ) ∈ V (A, B) = L. Es decir,
que L = V (A, B) es el eje de cruce. 

10.4.2 Corolario Si f : L1 → L2 es homografı́a, dada por la imagen de tres


puntos f (pi ) = p0i , i = 1, 2, 3; entonces se puede construir la imagen de p ∈ L1
mediante el método:
1◦ ) Dibujar el eje de cruce L.
2◦ ) Definir T = V (p, p03 ) ∩ L.

Entonces f (p) = V (pi , T ) ∩ L2 .


10.5. ALGUNAS APLICACIONES DE LA GEOMETRÍA PROYECTIVA181

P
P3
P2
P1

f(P1 ) f(P2 ) f(P3 )


f(P)

Figura 10.4: Construcción geométrica de una homografı́a.

10.5. Algunas aplicaciones de la geometrı́a proyec-


tiva

5
-0
10.5.1 Teorema (de Thales) Sea (A, E, ϕ) un plano afı́n. Sean L1 , L2 , L3
05
tres rectas paralelas y distintas en A. Sean L y L0 dos rectas no paralelas a Li .
9-
Sea pi = L ∩ Li , p0i = L0 ∩ Li , i = 1, 2, 3. Entonces (p1 p2 p3 ) = (p01 p02 p03 ) (las
l2

razones simples coinciden).


de

Demostración.- Pongamos L = O + h→−


u i, L0 = O + h→

v i. Sea →

w ∈ E tal


que Lj = pj + h w i para j = 1, 2, 3.
n
sió

L2 L3
r

L1 L
Ve

p
3

p
2

p
1

O L’
p’1 p’ p’3
2

Figura 10.5: El Teorema de Thales.

Lo metemos todo en el espacio proyectivo. Sea R = [→



w ] ∈ A∞ (recta del
infinito).
182 CAPÍTULO 10. LA RECTA Y EL PLANO PROYECTIVOS

Consideramos la perspectividad de centro R

L −→ L0
pj 7−→ p0j

Luego

(p1 p2 p3 ) = {[u, 0], [p1 , 1]; [p2 , 1], [p3 , 1]}

= {π([u, 0]), π([p1 , 1]); π([p2 , 1]), π([p3 , 1])}

= {[v, 0], [p01 , 1]; [p02 , 1], [p03 , 1]}

= (p01 p02 p03 )

A [w] [u] [v]

5
-0
p
3

p2
05
p p’
9-
3
1 p’
2
l2

p’
1
de

O
n
sió

Figura 10.6: El Teorema de Thales y la recta del infinito.


r
Ve
Ejercicios de Geometrı́a
Proyectiva

1. Calcula las ecuaciones del plano X de P4 que contiene a la recta r :


x0 − x4 = x1 − x3 = x2 = 0 y pasa por el punto (1 : 1 : 1 : 0 : 0). Encuentra otro
plano Y de P4 que corte a X exactamente en un punto de la recta r. Determina

5
-0
la variedad generada por los planos X e Y .
05
2. Determina si los siguientes conjuntos de puntos están alineados (i.e., están
9-
en la misma recta proyectiva):
(1) [1, 2, 3], [1, 1, −2], [2, 1, −9].
l2

(2) [1, 2, −1], [2, 1, 0], [0, −1, 3].


de

(3) [1, 0, 0], [0, 1, 0], [0, 0, 1], [1, 1, 1].

3. Determina el punto de intersección de cada uno de los siguientes pares de


n

rectas de P(R3 ):
sió

(1) r : x − y − z = 0 y s : x + 5y + 2z = 0.
r

(2) t : x + 2y − z = 0 y w : x + 2y − 4z = 0.
Ve

4. Describe las siguientes variedades proyectivas:


(1) X ⊂ P2 generada por [0, 1, 1] y [2, 1, 1].
(2) X ⊂ P3 generada por [1, 0, 0, 1] y [1, 1, 1, 1], [1, 1, 0, 1] y [2, 1, 1, 2].
(3) X ⊂ P4 generada por el punto [0, 1, 1, 0, 1] y el plano de ecuaciones
x0 + x 1 + x 2 + x 3 + x 4 = 0 = x 1 + x 2 .

5. Consideremos la base B = {~u1 = (1, 0, 0), ~u2 = (1, 1, 0), ~u3 = (1, 1, 1)} de
R3 . Calcular una referencia proyectiva R de P(R3 ) que tenga B como base vec-
torial asociada. Deduce razonadamente si hay alguna otra referencia proyectiva
con esta misma propiedad.

6. Considera los puntos proyectivos x0 = (1 : 1 : 0 : 2), x1 = (1 : 0 : 1 :


0), x2 = (0 : 0 : 0 : 1), x3 = (0 : 1 : 0 : 1) de P3 .
(1) Comprueba que son independientes.
(2) Busca otro punto proyectivo x4 de modo que los puntos x0 , x1 , x2 , x3 , x4
forman una referencia proyectiva R de P3 . Deduce razonadamente si la elección
del último punto es única.

183
184

(3) Calcula una base de R4 asociada a R. Deduce razonadamente si la elec-


ción de esta base es única.
(4) Calcula las coordenadas homogéneas del punto (1 : 1 : 1 : 1) respeacto a
R.

7. Sean R = {x0 = (1 : 1 : 1), x1 = (1 : 0 : 0), x2 = (0 : 1 : 0), x3 = (0 : 0 :


1)} y R0 = {y0 = (1 : 0 : 0), y1 = (1 : 1 : 1), y2 = (0 : 1 : 0), y3 = (0 : 0 : 1)}
dos referencias proyectivas. Calcula las ecuaciones del cambio de referencia de
una a la otra. Calcula las coordenadas del punto (1 : 2 : 0) respecto a los dos
sistemas de referencia.

8. Determina las ecuaciones de la transformación de la referencia proyectiva


R a la referencia proyectiva R0 si los puntos de referencia y el punto unidad
de R0 se expresan en R por coordenadas [4, 5, 1], [3, −1, 1/2], [6, 16, 2] y [5, 1, 1]
respectivamente.

9. Las ecuaciones del cambio de un sistema de referencia proyectivo en otro


son

5
x0 := 8x + 3y + 2z, y 0 := 3x + 4y, z 0 := 2x + 2z.

-0
05
Encuentra los tres puntos cuyas coordenadas son las mismas en ambos sis-
temas de referencia.
9-
l2

10. Sea π la proyección cónica de P3 sobre el plano proyectivo de ecuación


x0 = 0 de centro el punto [1, 0, 1, 0]. Halla las ecuaciones de π y las ecuaciones
de

de la restricción de π al plano de ecuación x2 = 0.


n

11. Si ω y σ son dos homografı́as cuyas ecuaciones son respectivamente


sió

t0 = (4t + 6)/(3t + 2) y t0 = (4t + 2)/(t + 2), encuentra las ecuaciones de las


homografı́as ω −1 σ y σω −1 , y encuentra los pares comunes de ω y σ.
r
Ve
Problemas de Geometrı́a
Proyectiva

1. Sean X e Y dos variedades proyectivas de un espacio proyectivo P tales


que

5
dim(X) + dim(Y ) ≥ dim(P).

-0
Prueba que X e Y se cortan. 05
2. Sea P un espacio proyectivo y X e Y ⊂ P dos variedades proyectivas
9-
que no se cortan. Demuestra que V (X, Y ) = P si y sólo si dim(X) + dim(Y ) =
l2

dim(P) − 1.
de

3. Sea X un subconjunto de un espacio proyectivo P. Demuestra que X es


una variedad proyectiva si y sólo si para cualesquiera dos puntos x, y ∈ X la
n

recta proyectiva que generan, V (X, Y ), está contenida en X.


sió

4. Prueba que tres planos cualesquiera de un espacio proyectivo de dimensión


r
Ve

3 tienen intersección no vacı́a.

5. Demuestra que en un espacio proyectivo de dimensión n cualquier colec-


ción de puntos independientes se puede completar hasta que tenga n + 1 puntos
independientes. Hazlo para los puntos (0 : 1 : 1 : 0) y (−1 : 0 : 1 : 0) de P3 .
a. Sean (a1 : a2 : a3 ), (b1 : b2 : b3 ), (c1 : c2 : c3 ) coordenadas homogéneas de
tres puntos a, b y c del plano proyectivo P2 . Prueba que la condición necesaria
y suficiente para que los puntos estén alineados es que:

a0 a1 a2
b0 b1 b2 =0
c0 c1 c2

Formula esta condición para dimensiones superiores.

6. Sea X un subespacio proyectivo de dimensión d de P y sea p un punto


de P que no está en X. Demuestra que la unión de todas las rectas V (p, q) con
q ∈ X es un subespacio proyectivo de dimensión d + 1.

185
186

7. Supongamos dados cinco puntos en el plano proyectivo de los cuales no


hay tres alineados. Demuestra que hay otro conjunto de cinco puntos, no tres de
los cuales están alineados, tales que no existe ninguna transformación proyectiva
que lleve el primer conjunto en el segundo.

8. Las coordenadas de un punto general son [x, y, z] en un sistema de coor-


denadas para el cual a, b, c son los puntos de referencia y d es el punto unidad,
y son [x0 , y 0 , z 0 ] en el sistema de referencia en el cual d, b, c son los puntos de
referencia y a es el punto unidad.
a. Encuentra las ecuaciones que expresan x0 , y 0 , z 0 en términos de x, y, z.
b. Determina sus puntos fijos (puntos del plano proyectivo que tienen las
mismas coordenadas, salvo escalar, en ambos sistemas de referencia).
c. Determina la recta fija (recta que tiene la misma ecuación, salvo escalar,
en ambos sistemas de referencia).
d. Encuentra las ecuaciones de la transformación del primer sistema de co-
ordenadas al sistema en el cual a, b, c, d tienen coordenadas

5
[−1, 1, 1], [1, −1, 1], [1, 1, −1], [1, 1, 1]

-0
respectivamente.
05
9-
9. Demuestra que la composición de tres simetrı́as en R2 de ejes concurrentes
l2

es otra simetrı́a y determina su eje.


de

10. Demuestra que si una homografı́a f : P(E) → P(E) tiene un hiperplano


H invariante y dos puntos fijos p, q ∈
/ H, entonces tiene una recta de puntos
n

fijos.
sió

11. En el plano proyectivo P2 tenemos dos cuaternas de rectas L1 , L2 , L3 , L4


r
Ve

y L01 , L02 , L03 , L04 tales que ninguna cuaterna contiene tres rectas concurrentes.
Demuestra que existe exactamente una homografı́a f : P2 → P2 tal que f (Li ) =
L0i para i = 1, 2, 3, 4.

12. Demuestra y enuncia la proposición dual de las siguientes afirmaciones:


a. Tres planos en un espacio proyectivo de dimensión tres tienen intersección
no vacı́a (ver problema 3).
b. Sea X un subespacio proyectivo de un espacio proyectivo P y H un
hiperplano de P. Si X no está contenido en H, entonces dim(H ∩X) = dim(X)−
1.

13. Traza, con la única ayuda de una regla, la recta que une un punto de
una hoja de papel con el punto de intersección de dos rectas de la hoja que se
cortan fuera de ella. (Indicación: Usa el Teorema de Desargues).

14. Demuestra que es posible trazar la recta que une dos puntos de una
hoja de papel usando una regla más corta que la distancia entre los puntos.
(Indicación: Usa el Teorema de Desargues).
187

15. Sean p, q, r, p0 , q 0 , r0 6= 0. Prueba que el triángulo x0 y 0 z 0 cuyos vértices


son los puntos [1, p, p0 ], [q 0 , 1, q], [r, r0 , 1] está en perspectiva con el triángulo de
referencia si y sólo si pqr = p0 q 0 r0 .

16. a. Demuestra el Teorema de Desargues en el espacio: Sean abc y a0 b0 c0


dos triángulos propios situados en planos distintos de P3 y tales que abc y a0 b0 c0
están en perspectiva desde un punto v que no pertenece a los planos. Entonces
los tres puntos:

l := V (a, b) ∩ V (a0 , b0 ); m := V (b, c) ∩ V (b0 , c0 ); n := V (c, a) ∩ V (c0 , a0 );

están alineados.
b. Enuncia el teorema dual.
c. Demuestra que el Teorema de Desargues en el espacio implica el Teorema
de Desargues en el plano.

17. a. Demuestra el Teorema de Pappus: Sean l y l 0 dos rectas distintas en


P2 y sean a, b y c tres puntos en l y a0 , b0 y c0 tres puntos en l0 . Entonces los tres

5
-0
puntos
05
l := V (a, b0 ) ∩ V (a0 , b); m := V (b, c0 ) ∩ V (b0 , c); n := V (c, a0 ) ∩ V (c0 , a);
9-
están alineados.
l2

b. Enuncia el teorema dual.


de

18. Sean a, b, c, d cuatro puntos de una recta proyectiva. Comprueba que se


tienen las siguientes relaciones:
n
sió

{a, b; c, d} = {b, a; c, d}−1 = {a, b; d, c}−1 ,


r
Ve

{a, b; c, d} + {a, c; b, d} = 1.

19. Sean a1 , a2 , a3 , a4 cuatro puntos distintos de una recta proyectiva P1 ,


tales que
{a1 , a2 ; a3 , a4 } = k.
Sea S4 el grupo de las permutaciones del conjunto {1, 2, 3, 4} (biyecciones
del conjunto en sı́ mismo). Una permutación σ ∈ S4 actúa en un tal conjunto
mandando (1, 2, 3, 4) en σ(1, 2, 3, 4) = (σ(1), σ(2), σ(3), σ(4)). Prueba que la
razón doble 
σ(k) = aσ(1) , aσ(2) ; aσ(3) , aσ(4)
pertenece a K r {0, 1}, y sólo toma los seis valores
 
1 1 k−1 k
k, , 1 − k, , ,
k 1−k k k−1

Lista los valores de k para los que las anteriores cantidades son distintas.
188

20. Sean a, b, m, n, p cinco puntos distintos de una recta proyectiva. Prueba


que
{a, b; m, n}{a, b; n, p}{a, b; p, m} = 1.

21. Sea f una homografı́a con dos puntos fijos distintos p, q. Prueba que el
par {k, 1/k} donde k = {p, q; m, f (m)} para todo m, sólo depende de f y no del
orden en que consideremos p y q. Si f 4 tiene por matriz
 
a b
,
c d

probar que {k, 1/k} son las raı́ces de la ecuación

(ad − bc)x2 − (a2 + 2bc + d2 )x + (ad − bc) = 0.

22. Una transformación homográfica lleva tres puntos a, b, c de una recta en


a0 , b0 , c0 de la misma recta. Prueba que transforma puntos fijos de la homografı́a

5
-0
que permuta a, b, c cı́clicamente, en los puntos fijos de la homografı́a que permuta
a0 , b0 , c0 cı́clicamente. 05
9-
l2
de
n
r sió
Ve
Parte IV

5
-0
Formas cuadráticas y 05
cónicas
9-
l2
de
n
sió
r
Ve

189
Ve
rsió
n
de
l2
9-
05
-0
5
Capı́tulo 11

Formas cuadráticas y
cónicas

5
-0
11.1. Formas cuadráticas
05
9-
11.1.1 Definición Sea E un R−espacio vectorial, y φ : E ×E → R una forma
l2

bilineal. La aplicación dada por

Q:E → R
de



v 7→ φ(→

v ,→

v)
ón

se llama forma cuadrática asociada a φ.


si
er

11.1.2 Ejemplo.- Si E = R2 y
 
V

a11 a12
φ(→

u,→

v)=→

ut →

v,
a21 a22

entonces para → −
v = (x, y) se tiene Q(x, y) = a11 x2 + (a12 + a21 )xy + a22 y 2 .
Recı́procamente, si tenemos un polinomio de la forma αx2 + βxy  + γy 2 ,
α β/2
podemos construir una forma bilineal φ cuya matriz sea , que
β/2 γ
tiene como forma cuadrática asociada a ese polinomio (observar que tal φ no es
la única que induce esa forma cuadrática).

11.1.3 Dos observaciones fáciles de comprobar, pero importantes, son las si-
guientes. Para cualquier forma cuadrática Q se cumple:
• Q(λ→−
u ) = λ2 Q(→
−u ).
• Q( u + v ) − Q( u ) − Q(→

− →
− →
− −
v ) = φ(→
−u,→
−v ) + φ(→

v ,→

u ), para cualquier φ que tenga
a Q como forma cuadrática asociada.

191
192 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

11.1.4 Proposición Dada una forma cuadrática Q, existe una única φQ


forma bilineal simétrica tal que Q es su forma cuadrática asociada. La forma
φQ se llama forma bilineal asociada a Q.
1
Demostración.- Definamos φQ (→ −u,→
−v ) := [Q(→ −u +→−v ) − Q(→−
u ) − Q(→
−v )].
2
Se cumple:
1◦ ) φQ es simétrica.
2◦ ) Como Q(λ→ −
u ) = λ2 Q(→−u ⇒ φQ (→ −u,→−
u ) = Q(→−u ).
3 ) Como Q( u ) = φ( u , u ) para cierta φ bilineal, entonces se tiene φQ (→
◦ →
− →
− →
− −u,→
−v)=
1
(φ(→−
u,→−v ) + φ(→
−v ,→−
u )) ⇒ φQ es bilineal. 
2
Xn X n
11.1.5 Ejemplo.- Si Q(x1 , . . . , xn ) = aij xi xj entonces la matriz de φQ
i=1 j=i
es  
a11 · · · a1n /2
a12 /2
 a12 /2 a22 · · · a2n /2 
 

5
 .. .. .. 
 

-0
. . .
a1n /2 a2n /2 · · · ann
05
Por ejemplo, para Q(x, y, z) = x2 + 7y 2 + 8z 2 + 2xy − 4xz + 6yz la matriz es
9-
 
1 1 −2
l2

 1 7 3 .
de

−2 3 8
11.1.6 Teorema (Forma Canónica) Sea E espacio vectorial euclı́deo de di-
n

mensión n. Sea Q : E → R forma cuadrática. Existen números reales λ1 , · · · , λn


sió

y una base ortonormal {− →1 , . . . , −


u u→ →
− −
→ −

n } de E tal que si v = x1 u1 + · · · + xn un se
r

tiene que
Ve

  
λ1 0 x1
 ..   .. 
Q(→
−v ) = λ1 x21 + · · · + λn x2n = (x1 , . . . , xn )  .  . 
0 λn xn
(forma canónica de Q).

Demostración.- Sea φQ la forma bilineal (simétrica) asociada a Q. Sea A


la matriz de φQ (en cierta base ortonormal). Entonces A = At .
Consideremos la aplicación lineal →

v 7→ A→ −
v (es la aplicación lineal de matriz
A en la base mencionada arriba). Como f es autoadjunta (pues A = At en una
base ortonormal), existe una base ortonormal {− →1 , . . . , −
u u→
n } de autovectores de
f.
En esta base la matriz de f es
 
λ1 0
 .. 
D= . ,
0 λn
11.1. FORMAS CUADRÁTICAS 193

ası́ que

Q(→

v ) = φQ (→

v ,→

v)=→

v t f (→

v)=→

v t D→

v = λ1 x21 + · · · + λn x2n

donde (x1 , . . . , xn ) son las coordenadas de →−v en la base {−


→1 , . . . , −
u u→
n }. 

11.1.7 Ejemplo.- Hallar la forma canónica de Q(x, y) = 2 2xy − x2 (en R2
con el producto usual).  √ 
−1
√ 2
La matriz de φQ es A = .
2 0
Los autovalores de A salen de
 √ 
λ+ √ 1 − 2
det = λ2 + λ − 2 = 0 ⇔ λ = 1, λ = −2.
− 2 λ

Para λ = 1, calculamos un autovector


 √    
2 − 2 x 0 √
√ = ⇒ y = 2x,

5
− 2 1 y 0

-0
√ √ ! 05
3 2
que tiene a →

v1 = ,√ como vector director unitario.
9-
3 3
Igualmente, para λ = −2, calculamos
l2

 √    

de

−1
√ − 2 x 0
= ⇒ x = − 2y,
− 2 −2 y 0
n

√ √ !
sió

2 3
tiene a →

v2 = −√ , como vector director unitario.
3 3
r
Ve

En la base B 0 = {→ −
v1 , →

v2 }, si (x0 , y 0 ) son coordenadas en B 0 entonces
  0 
1 0 x
Q(x0 , y 0 ) = (x0 , y 0 ) = x02 − 2y 02 .
0 −2 y0

11.1.8 Teorema (Ley de Inercia) Sea E un R−espacio vectorial euclı́deo


de dimensión n. Si Q en la base {→ −
e1 , . . . , −
e→
n } se escribe como Q(x1 , . . . , xn ) =
a1 x1 + · · · + ap xp con ai 6= 0 ∀i, y Q en la base {−
2 2 →1 , . . . , −
u u→
n } se escribe como
2 2 2
Q(y1 , . . . , yn ) = b1 y1 + · · · + bq yq con bi 6= 0 ∀i. Entonces:
• p = q (ı́ndice de inercia de Q).
• #{i | ai > 0} = #{i | bi > 0} =: i+ Q (ı́ndice de inercia positivo).
• #{i | ai < 0} = #{i | bi < 0} =: i− Q (ı́ndice de inercia negativo).

Demostración.- Supongamos

Q(x1 , . . . , xn ) = α1 x21 + · · · + αk x2k − αk+1 x2k+1 − · · · − αp x2p

Q(y1 , . . . , yn ) = β1 y12 + · · · + βl yl2 − βl+1 yk+1


2
− · · · − βq yq2
194 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

con αj > 0, βi > 0. Queremos ver k = l y p = q.

Paso 1 : Si k fuera mayor que l.


Consideramos F1 = h→ −
e1 , . . . , →

ek i, F2 = h−
u− → −

l+1 , . . . , un i subespacios vectoriales
de E.
Luego dim F1 + dim F2 = k + n − l > n = dim E. Por Grassmann existe

− →

w ∈ F 1 ∩ F2 , →

w 6= 0 . Pongamos → −
w = c1 → −
e1 + · · ·+ ck → −
ek = dl+1 −
u−→ −

l+1 + · · · + dn un .
2 2 →
− 2
Entonces 0 < α1 c1 + · · · + αk ck = Q( w ) = −βl+1 dl+1 − · · · − βq dq ≤ 0 2

(contradicción).

Paso 2 : Si l fuera mayor que k:


Se obtiene contradicción por el mismo argumento anterior, tomando ahora
los espacios Fe1 = h− −→, . . . , −
ek+1 e→ e −
→ →

n i y F2 = hu1 , . . . , ul i.

De forma que k = l. Ahora, como cualquier matriz asociada a Q tiene el


mismo rango (¿sabes por qué?),
   

5
a1 b1

-0
 ..   .. 
 .   .
05 
   
 ap   bq 
p = rg   = rg  =q
9-
 0   0 
   
   
l2

 ..   .. 
. .
de

0 0


n
sió

11.1.9 Ejemplo.- Calcular los ı́ndices de inercia de Q(x, y, z) = x2 + y 2 + z 2 −


4xz.
r
Ve

La matriz asociada es  
1 0 −2
 0 1 0 ,
−2 0 1
cuyos autovalores s e calculan por medio de

λ−1 0 2
0 λ−1 0 = (λ − 1)3 − 4(λ − 1) = (λ2 − 1)(λ − 3),
2 0 λ−1

es decir que los autovalores son λ = 1, −1, 3. Ası́, la forma canónica de Q es


Q(x0 , y 0 , z 0 ) = x02 − y 02 + 3z 02 , es decir, que iQ = 3, i+ −
Q = 2 e iQ = 1.

11.2. Cónicas
11.2.1 Un doble cono recto es la figura que engendra una recta g al girar
alrededor de una recta h que la corta.
11.2. CÓNICAS 195

Figura 11.1: Un doble cono recto.

Llamamos a h el eje del cono, a g y las rectas que se obtienen a partir de


ella por rotación generatrices, y al punto g ∩ h vértice del cono.

5
-0
11.2.2 Ejemplo En R3 , consideremos el cono C de vértice (0, 0, 0), eje el eje
05
z, y generatriz formando un ángulo α0 con el eje.
Si p tiene k p k= t entonces
9-
l2

p ∈ C ⇔ p = t(cos θ sin α0 , sin θ sin α0 , cos α0 )


de

para algún θ.
n
r sió
Ve

p
α0

Figura 11.2: Cono y coordenadas cilı́ndricas.


196 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

Luego
p = (x, y, z) ∈ C ⇔ x2 + y 2 = (tan α0 )2 z 2

que es la ecuación del cono C.

Observación.- La ecuación de cualquier cono, en coordenadas adecuadas,


es de este tipo.

11.2.3 Definición Una figura (plana) que se obtiene como intersección de


un doble cono recto con un plano π que lo corta se llama sección cónica o,
simplemente, cónica.

11.2.4 Tipos de cónicas

Según sea el ángulo relativo entre el plano π y el eje del cono, se obtiene una

5
-0
u otra cónica. Si representamos la situación en un corte frontal, las posibilidades
son las de la figura 11.3. 05
9-
(3)
l2

(4)
de
n
sió

(2)
r
Ve

(1)

Figura 11.3: Esquema de los distintos tipos de cónicas.

Corresponden, caso por caso, a los diferentes tipos de cónicas existentes, tal
y como se muestran en la figura 11.4:
Analı́ticamente, tomamos la ecuación de un plano π en R3 que pase por un
punto p = (x0 , y0 , z0 ) de vector normal unitario →

n = (a, b, c), que viene dada
por
π ≡ a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0.
11.2. CÓNICAS 197

5
-0
05
9-
l2
de
n
r sió
Ve

Figura 11.4: Los tipos de cónicas.


198 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

Tenemos que resolver el sistema



a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0 
(∗).

x2 + y 2 = (tan α0 )2 x2

a b
Al despejar z = − (x−x0 )− (y −y0 )+z0 e introducirlo en la otra ecuación
c c
queda una expresión del tipo

a11 x2 + a12 xy + a22 y 2 + a1 x + a2 y + a = 0.

Caso 1.- Si π ⊥ h, entonces la ecuación de π es z = r, y la solución de (*) es

x2 + y 2 = (r tan α0 )2 ,

que es una circunferencia. Llamando a r tan α0 = R resulta

5
x2 + y 2 = R 2 ,

-0
una circunferencia de radio R.
05
9-
Caso 2.- Si π 6⊥, sea γ0 el ángulo entre π y h, que por definición es el que forman
l2



n y h. Supongamos γ0 < α0 .
En este caso →−
de

n = (cos θ0 sin γ0 , sin θ0 sin γ0 , cos γ0 ) = (a, b, c). Sea (0, 0, q) el


a b
punto de corte de π con h. Despejando z = − x− y +q en la primera ecuación,
c c
n

e introduciéndolo en la segunda, sale


sió

(1 − tan2 α0 tan2 γ0 cos2 θ0 )x2 + (1 − tan2 α0 tan2 γ0 sin2 θ0 )y 2


r
Ve

− tan2 γ0 sin 2θ0 tan2 α0 xy + 2q cos θ0 tan γ0 tan2 α0 x

+2q sin θ0 tan γ0 (tan α0 )2 y = q 2 tan2 α0 ,

que va a resultar ser una elipse.

Para comprobarlo en un ejemplo, tomemos θ0 = π/2, α0 = π/4:


Resulta x2 +(1−tan2 γ0 )y 2 +2q tan γ0 y = q 2 con 1−tan2 γ0 > 0. Si llamamos
q tan γ0
y0 = y +
1 − tan2 γ0
resulta
1
x2 + (1 − tan2 γ0 )y 02 = q .
1 − tan2 γ0
2 3q
Por ejemplo, para γ = π/6 sale x2 + (y 0 )2 = .
3 2
11.3. LA CIRCUNFERENCIA 199

Caso 3.- Si π 6⊥ h y el ángulo γ0 entre →


−n y h es mayor que α0 se puede seguir
un razonamiento como el de antes. Por tratar un caso concreto, si θ0 = π/2 y
α0 = π/4, sale
x2 + (1 − tan2 γ0 )y 2 + 2q tan γ0 y = q 2 ,
que es una hipérbola.
Como γ0 > α0 = π/4, entonces 1 − tan2 γ0 < 0. Por ejemplo, si γ0 = π/3,
resulta
x2 − 2(y 0 )2 = −2q

Caso 4.- Supongamos π 6⊥ h, y que el ángulo entre π y h es exactamente α0 . En


este caso resulta una parábola.
Por ejemplo, para θ0 = π/2 resulta

x2 + (1 − tan4 α0 )y 2 + 2q(tan α0 )4 y = q 2 tan2 α0 .

Para α0 = π/4 se tiene x2 + 2qy = q 2 .

5
-0
Caso 5.- Existen cónicas degeneradas, que aparecen cuando π contiene al vértice
del cono.
05
En ese caso, la intersección es
9-

l2


 Un punto


 ó
de

dos rectas que se cortan en el vértice





 ó
n


una recta (la generatriz).
r sió

11.3. La circunferencia
Ve

11.3.1 Proposición Una circunferencia es el conjunto de puntos p de un


plano π que satisfacen que su distancia a un punto determinado C (el centro)
es constante. Esta constante es el radio r, y en una referencia adecuada la
circunferencia es (x − a)2 + (y − b)2 = r2 .

Demostración.- Como vimos, en una referencia ortonormal de R3 el cono


se expresa como x2 + y 2 = z 2 (tan α0 )2 , y el corte con z = r resulta x2 + y 2 =
(r tan α0 )2 , luego C = (0, 0) y ρ = r tan α0 es el radio.
Geométricamente tenemos la situación de la figura 11.5.
Por Pitágoras k − → k2 =k →
vp −
vc k2 + k →−
cp k2 , y p está en el cı́rculo si y sólo si

− 2 −
→ 2 →
− 2
k cp k =k vp k − k vc k = cte. 

11.3.2 Proposición Consideremos la circunferencia C de centro C y un punto


Q exterior a ella. Si P, P 0 son los puntos de intersección de las tangentes a la
−−
→ −−→ −
−→ −−→
circunferencia que pasan por Q, se tiene k QP k=k QP 0 k. Además CP ⊥ QP
−−→ −−→
y CP 0 ⊥ QP 0 .
200 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

c p

Figura 11.5: Una circunferencia es el lugar de puntos a distancia fija de otro


punto dado.

5
-0
05
9-
l2
de
n
r sió
Ve

Q
C

P’

Figura 11.6: Propiedad de la circunferencia: α = β = π/2 y d(Q, P ) = d(Q, P 0 ).


11.4. FOCOS Y EXCENTRICIDAD 201

Demostración
Si comprobamos que α = π/2 y, por tanto, β = π/2 (ver la figura 11.6)
entonces, por Pitágoras,
−−
→ −−→ −−
→ −−→ −−→ −−→
k QP k2 =k CQ k2 − k CP k2 =k CQ k2 − k CP 0 k2 =k QP 0 k2 .
−−
→ −− →
Veamos pues que α = π/2, es decir P Q · P C = 0.
Sean (x, y) las coordenadas respecto de la referencia que tiene como origen a
P y como base a la usual. La circunferencia es entonces (x + a)2 + (y + b)2 = r2
(si P es el punto (a, b) visto desde C, C es el (−a, −b) visto desde P ), con
a2 + b2 = r2 pues P ∈ C.
Luego C ∩ {y = λx} es (1 + λ2 )x2 + (−2a − 2bλ)x = 0. La recta es pues
tangentecuando esta ecuación
 cuadrática tiene sólo una solución doble, es decir
2(a + bλ) a −−

cuando x − = x, esto es λ = − . Se sigue que P Q ∈ h(b, −a)i,
1 + λ2 b
−−→ −−→ −− →
mientras que P C ∈ h(−a, −b)i, de modo que P Q · P C = 0. 

5
11.4. Elipse, hipérbola y parábola. Focos y ex-
-0
05
centricidad.
9-
l2

11.4.1 Teorema Una elipse es el lugar geométrico de los puntos P de un


plano π cuya suma de distancias a dos puntos F1 y F2 determinados y distintos,
de

llamados focos, es constante.


n
sió

Demostración.- Sea C el cono de apertura α0 . Sea γ0 el ángulo entre π y


h, siendo h el eje de C (γ0 < α0 ). Supongamos γ0 6= 0.
r

Consideremos dos esferas E1 y E2 (se las suele conocer esferas de Dandelin)


Ve

tangentes al cono C y al plano π, y sean F1 y F2 los puntos de corte de las


esferas de Dandelin con π. Dichas esferas son tangentes al cono a lo largo de dos
circunferencias. Sean M y N los puntos de corte de la generatriz que pasa por
P con las esferas de Dandelin (M y N están obviamente en las circunferencias
de tangencia). Ver la figura 11.7.
Observemos que la recta que pasa por P y por F1 es tangente a la esfera D1 ,
y también lo es la recta que pasa por P y N . Podemos aplicar la proposición
−−→ −−→
11.3.2 a la circunferencia dada por D1 ∩ {P + hP F1 , P N i} (donde nuestro punto
P juega el papel del Q de la proposición 11.3.2), obteniéndose
−−→ −−→
k P F1 k=k P N k

y, por el mismo argumento,


−−→ −−→
k P F2 k=k P M k .

Pero entonces
−−→ −−→ −−→
k P F1 k + k P F2 k=k M N k,
202 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

5
-0
05 F1
9-
F2
l2
de

P
n
sió

M
r
Ve

Figura 11.7: Esferas de Dandelin para una elipse.


11.4. FOCOS Y EXCENTRICIDAD 203

y es obvio que la última cantidad no depende del punto P de la elipse por el


que hayamos empezado (es constante). 

11.4.2 Observación.- Dibujando la elipse en un sistema de coordenadas carte-


sianas, el eje que contiene a los focos es el eje principal ó mayor. El eje perpen-
dicular a él por el punto medio entre F1 y F2 es el eje secundario.
y

a
F2 c F1 x

5
-0
05
9-
l2

Figura 11.8: La forma canónica de una elipse.


de

La ecuación es
n

 x 2  y 2
sió

+ = 1,
a b
r

donde 2c es la distancia focal, a es el semieje principal y b es el semieje secun-


Ve

c
dario y se llama excentricidad al cociente ε = < 1.
a
11.4.3 Lema Si P es un punto de una elipse E de focos F1 y F2 entonces
−−→ −−→
k P F1 k + k P F2 k= 2a, donde a es el semieje principal.
−−→ −−→
Demostración.- Sea λ ∈ R tal que k P F1 k + k P F2 k= λ ∀P ∈ E.
Si A1 es el punto más cercano a F1 de entre los dos puntos de corte de E con
el eje principal, entonces
−−−→ −−−→
λ =k A1 F1 k + k A1 F2 k= a − c + (a + c) = 2a.

11.4.4 Observación.- Un comentario importante sobre la relación entre las


cantidades a, b y c: Si se considera el punto B1 de corte de la elipse con el eje
secundario, el lema anterior nos dice que
−−−→ −−−→
k B1 F1 k + k B1 F2 k= 2a,
204 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

−−−→
de modo que k B1 F1 k= a, y por Pitágoras se sigue que

a2 = b 2 + c 2

o, en términos de la excentricidad, b2 = a2 − a2 ε2 , es decir


p
b = a 1 − ε2 .

11.4.5 Ejemplo,- Calcular la ecuación


√ de la elipse E de focos F1 = (0, 2) y
F2 = (−1, 2) y semieje mayor a = 2.
Entonces

p = (x, y) ∈ E

m
p p √
d(P, F1 ) + d(P, F2 ) = x2 + (y − 1)2 + (x + 1)2 + (y − 2)2 = 2 2

5
-0
m
√ p p
05
2 2 − (x + 1)2 + (y − 2)2 = x2 + (y − 1)2
9-
l2

m
de

 √ p 2 p 2
2 2 − (x + 1)2 + (y − 2)2 = x2 + (y − 1)2
n
sió

m
r

√ p
Ve

8 + x2 + 2x + 1 + y 2 − 4y + 4 − 4 2 (x + 1)2 + (y − 2)2 = x2 + y 2 − 2y + 1

m
√ p
4 2 (x + 1)2 + (y − 2)2 = 2x − 2y + 12

√ p 2
2
2 2 (x + 1)2 + (y − 2)2 = (x − y + 6)

m

8 x2 + 2x + 1 + 42 − 4y + 4 = x2 + y 2 + 36 − 2xy + 12x − 12y

7x2 + 7y 2 + 2xy + 4x − 20y − 4 = 0


11.4. FOCOS Y EXCENTRICIDAD 205

Otro método: En vez de calcular directamente en las coordenadas (x, y)


(coordenadas respecto de la referencia usual de R2 ), calculemos otra referencia
ortonormal que esté mejor adaptada  a esta
 elipse. Como origen, tomamos el
1 3
punto medio entre los focos, p = − , , como →

v1 el vector unitario en direc-
2 2
−−→
ción P F1 y como → −
v2 el normal a →

v1 que haga que {→

v1 , →

v2 } sea base positivamente
orientada. √
√ 2
Tenemos 2c = d(F1 , F2 ) = 1 + 1, de modo que c = . Además, dado que
√ 2
1 3
a2 = b2 + c2 , tenemos 2 = b2 + , de modo que b = √ .
2 2
Si (x0 , y 0 ) son coordenadas en la referencia {p; →

v1 , →

v2 }, la ecuación de E es
por tanto
(x0 )2 (y 0 )2
+ = 1.
2 3/2
Ahora basta calcular el cambio de las coordenadas (x, y) a las coordenadas

5
-0
(x0 , y 0 ) (calcular el cambio; una expresión del tipo x0 = x0 (x, y), y 0 = (x, y)), y
sustituir en la ecuación anterior. 05
11.4.6 Teorema Una hipérbola es el lugar geométrico de los puntos p de un
9-
plano π cuya diferencia de distancias a dos puntos distintos determinados F 1 y
l2

F2 (focos) es constante en valor absoluto.


de

Demostración.- Es parecida a la correspondiente de la elipse (ver el Teo-


rema 11.4.1).
n
sió

Consideramos de nuevo las esferas de Dandelin, y llamamos F1 y F2 a los


puntos de tangencia de las esferas con el plano que contiene a la hipérbola.
−−→ −−→ −−→ −−→
r

Se tiene k P F2 k=k P R2 k, y también k P F1 k=k P R1 k.


Ve

−−→ −−→ −−−→


Ası́ que k P F1 k − k P F2 k=k R1 R2 k (al revés en la otra rama). 

En un sistema de coordenadas cartesianas en los que un eje contenga a los


focos y el otro es perpendicular y pasa por el punto medio entre ellos (se llaman
eje principal y eje secundario respectivamente) la ecuación de la hipérbola es
x2 y2
− = 1.
a2 b2
Los focos están en los puntos (c, 0) y (−c, 0). El semieje principal a es la
mitad de la distancia entre los dos puntos de corte de la hipérbola con el eje
b
principal. Las dos rectas y = ± x son las ası́ntotas (la hipérbola se aproxima
a
infinitamente a ellas al tender a infinito).
11.4.7 Ejercicio.- Comprobar que todos los puntos P de una hipérbola veri-
−−→ −−→
fican k P F1 k − k P F2 k= ±2a (el signo dependiendo de si P está en una rama
o en la otra).
(La prueba es similar a la que hicimos para la elipse).
206 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

F1

5
-0
05
R1
9-
l2
de

R2
n
sió

F2
r
Ve

Figura 11.9: Esferas de Dandelin para una hipérbola.


11.4. FOCOS Y EXCENTRICIDAD 207

y= − b x y= b x
a a

c b
F2 F1
c a x

5
-0
Figura 11.10: Una hipérbola en forma canónica.
05
c
9-
11.4.8 Observación.- Para una hipérbola, la excentricidad es ε = > 1. Por
a√
l2

2 2 2
otra parte, b viene dado por c = a + b o, lo que es equivalente, b = a ε2 − 1.
de

11.4.9 No vamos a probarlo ahora (puedes intentarlo), pero dada una cónica
no degenerada siempre existe un punto F , una recta L y un número ε > 0 tal
n

que todo punto P de la cónica satisface


sió

d(p, F ) = εd(P, L)
r
Ve

(F es un foco, ε es la excentricidad, y L se llama directriz ). La idea para la


demostración es la figura 11.11.
La recta directriz resulta ser la intersección del plano que define la cónica con
el plano que determina la circunferencia de tangencia de la esfera de Dandelin
correspondiente con el cono.

Según hemos visto si ε < 1 la cónica es una elipse y si ε > 1 es una hipérbola.

11.4.10 Definición Una parábola es una cónica de excentricidad ε = 1.

Una parábola tiene sólo un foco. Tomando coordenadas en las que el eje x
pase por el foco y coincida con el eje de simetrı́a, el punto de coordenadas (0, 0)
p 
esté en la parábola y el foco esté en , 0 , la ecuación de la parábola es
2
y 2 = 2px.
p
La directriz es, por tanto, L = {x = − }.
2
208 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

5
-0
05
9-
l2
de

Figura 11.11: Construcción geométrica de la recta directriz L asociada al foco


F.
n
r sió

L
Ve

Figura 11.12: Una parábola en forma canónica.


11.5. DETERMINACIÓN DEL TIPO DE UNA CÓNICA 209

11.4.11 Ejemplo.- Calcular la ecuación de la hipérbola de directriz L ≡ 2x −


y + 3 = 0, foco en F = (3, −1) y excentricidad ε = 3.
p
Si P = (x, y) es un punto de la hipérbola, d(P, F ) = (x − 3)2 + (y + 1)2 .
¿Cuál es la distancia a la directriz?
La dirección de L es el subespacio vectorial de ecuación 2x − y = 0, que
está generado por el vector (1, 2) (vector director de L). De hecho, si P 0 = (−1, 1)
entonces L ≡ P0 + h(1, 2)i.  
⊥ 2 −1
El espacio ortogonal a L es L = h(2, −1)i = h √ , √ i.
5 5
−−→
Ası́, P0 P = (x + 1, y − 1), de modo que
 
−−→ 2 −1 (2x − y + 3)
d(P, L) = πL⊥ (P0 P ) = (x + 1, y − 1) · √ , √ =3 √ ,
5 5 5

por lo que la condición directriz-foco (ver el párrafo 11.4.9) proporciona:

5
p (2x − y + 3)

-0
(x − 3)2 + (y + 1)2 = 3 √
5 05
9-

l2

9
(x − 3)2 + (y + 1)2 = (4x2 + y 2 + 9 − 4xy + 12x − 6y)
de


n
sió

31x2 + 4y 2 − 36xy + 138x − 64y + 31 = 0


r
Ve

11.5. Determinación del tipo de una cónica


11.5.1 La ecuación general de una cónica es

a11 x2 + a12 xy + a22 y 2 + a1 x + a2 y + a = 0 (∗)

Nos preguntamos ahora si toda ecuación del tipo (∗) representa una cónica
y en caso afirmativo de qué cónica se trata.

Consideramos para estudiarla la forma cuadrática asociada


  
2 2 a11 a12 /2 x
a11 x + a12 xy + a22 y = (x y) .
a12 /2 a22 y


− → −
Suponemos que (x, y) son coordenadas en una base ortonormal  { e1 , e2 } de 

→1 , u

→2 } base ortonormal de autovectores de la matriz A = a11 a12 /2
R2 . Sea {u .
a12 /2 a22
210 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

Sean (x0 , y 0 ) las coordenadas en {−


u→1 , −
→2 }, λ1 , λ2 los autovalores correspondientes,
u
y P la matriz de cambio de base, de modo que
   0 
x x
=P .
y y0

Entonces  
λ1 0
= P t AP.
0 λ2
Además P cambia una base ortonormal en otra base ortonormal, de modo
que P conserva el producto escalar (pues es la matriz de una aplicación ortog-
onal), ası́ que P t P = Id2×2 .
P es pues la matriz de un giro o de una simetrı́a. Haciendo el cambio de
coordenadas en R2    0 
x x
=P
y y0
y evaluando en (∗) se obtiene una expresión del tipo

5
-0
λ1 (x0 )2 + λ2 (y 0 )2 + b1 x0 + b2 y 0 + b = 0 (∗∗).
05
9-
A partir de aquı́ tenemos que distinguir casos:
l2

Caso I.- Supongamos det(A) = λ1 λ2 > 0 (i.e. ambos autovalores son del
de

mismo signo).
Supongamos λ1 > 0, λ2 > 0, y λ1 ≤ λ2 (si fueran negativos, multiplicamos
n
sió

ambos lados de (∗∗) por −1).


Reescribimos (∗∗) como
r

 2  2
Ve

b1 b2 b21 b2
λ1 0
x + + λ2 0
y + +b− − 2 = 0.
2λ1 2λ2 4λ1 4λ2

La traslación de ecuaciones
b1
x00 = x0 +
2λ1

b2
y 00 = y 0 +
2λ2
transforma la cónica en

λ1 (x00 )2 + λ2 (y 00 )2 = d,

b21 b2
donde d = + 2 − b.
4λ1 4λ2
Como hemos supuesto 0 < λ1 ≤ λ2 entonces:
11.5. DETERMINACIÓN DEL TIPO DE UNA CÓNICA 211

• Si d = 0, el único punto que satisface es (x00 , y 00 ) = (0, 0).

• Si d < 0 no hay ningún punto que lo satisfaga.


1 1
• Si d > 0 es una elipse, y como ≥ el dibujo en el plano (x00 , y 00 ) es el de
λ1 λ2
1 1 λ1 + λ 2
la figura 11.8 (página 203), donde a = √ , b = √ , c2 = a2 + b2 =
λ1 λ2 λ1 λ2
y F1 = (c, 0).

Caso II.- Supongamos det(A) = λ1 λ2 < 0 (i.e. que los autovalores tienen
signos distintos).
Mediante la transformación ortogonal seguida de una traslación (movimien-
to), como en el caso anterior, dada por
 
 00    b1
x x  
=P +  2λ1 
y 00 y b2

5
λ2

-0
2
obtenemos
05
λ1 (x00 )2 + λ2 (y 00 )2 = d,
9-
b21 b2
l2

donde d = + 2 − b.
4λ1 4λ2
de

Supongamos λ1r > 0 y λ2 < 0. Entonces:


λ1
• Si d = 0, y 00 = ± − x (un par de rectas).
n

λ2
sió

• Si d 6= 0, la cónica en elplano (x00 , y 00 ) es una hipérbola


r

 2  2
Ve

x00 y 00
− =1
a b
√ √
d d
(como la de la figura 11.10 de la página 207), con a = √ , b = √ y
λ1 − λ2
2 2 2
c =a +b .
Hemos supuesto d > 0: en caso contrario hay que hacer el cambio obvio.

Caso III.- Supongamos det(A) = λ1 λ2 = 0, y que λ1 = 0, λ2 6= 0.


En este caso, mediante la transformación ortogonal P como en los casos
anteriores, obtenemos

λ2 (y 0 )2 + b1 x0 + b2 y 0 + b = 0 (∗∗).

• Si b1 6= 0, podemos escribir (∗∗) como


 2  
b2 b b22
λ2 y 0 + + b 1 x0 + − = 0.
2λ2 b1 4λ2 b1
212 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

Luego haciendo la traslación



b b22 
00
x =x + 0
− 

b1 4λ2 b1 

b2 



y 00 = y 0 +
2λ2
obtenemos la ecuación
b1 00
(y 00 )2 = − x ,
λ2
que es una parábola en el plano (x00 , y 00 ) como la de la figura 11.12 (página 208).
Como la ecuación canónica de laparábola es de la forma y 2 = 2px, en nuestro
p   b
1
caso el foco es ,0 = − , 0 y la directriz es la recta de ecuación
2 4λ2
b1
x00 = − .
2λ2

5
-0
• Si b1 = 0, podemos reescribir (∗∗) como 05
 
b 2 b2
9-
λ2 y +0
+ b − 2 = 0.
2λ2 4λ2
l2

Luego la traslación
de

x00 = x0
n

b2
y 00 = y 0 +
sió

2λ2
r

transforma (∗∗) en
Ve

c
(y 00 )2 = −
λ2
b22
con c = b − . Luego:
4λ2 r
−c 00 −c
-Si > 0 se obtiene y = ± (un par de rectas).
λ2 λ2
−c
-Si < 0 no hay solución.
λ2
−c
-Si = 0 se obtiene como solución la recta y 00 = 0.
λ2
11.5.2 Ejemplo.- Consideremos la cónica de ecuación

x2 + y 2 + 2xy − 7x − 5y + 7 = 0.

La forma cuadrática asociada es


  
1 1 x
Q(x, y) = (x y) ,
1 1 y
11.5. DETERMINACIÓN DEL TIPO DE UNA CÓNICA 213
 
1 1
cuya matriz A = tiene determinante nulo. De modo que se trata de
1 1
una parábola o de una cónica degenerada.
Los autovalores de A son λ1 = 0, λ2 = 2. Calculamos autovectores:
√ √ !

→ 2 2
ker(A − 0I) = {x + y = 0} −→ u1 = ,−
2 2

y
√ √ !
2 2
ker(A − 2I) = {−x + y = 0} −→ −
→2 =
u , .
2 2
Sea entonces √  √ 
2/2 2/2
P = √ √
,
− 2/2 2/2
y consideramos el cambio

5
   

-0
x x0
=P . 05
y y0
9-
Observa que P representa un giro de ángulo −π/4. Tras el giro, una vez
l2

hecho el cambio de coordenadas, la ecuación de la cónica se transforma en


√ √
de

2(y 0 )2 − 2x0 − 6 2y 0 + 7 = 0,
n

que reescribimos, completando cuadrados, como


sió

 2
3√
0
√ 9
2 y − 2 − 2x0 + 7 − ,
r

2 2
Ve

que es a su vez
 2  
0 3√ √ 0 5
2 y − 2 − 2 x +− √ .
2 2 2
Tras la traslación 
5 
x00 = x0 − √ 

2 2 
√ 
3 2 

y 00 = y 0 − 
2
la ecuación resultante es √
2(y 00 )2 − 2x00 = 0,
es decir √
00 2 2 00
(y ) = x ,
2

que es una parábola en la forma habitual, con foco en (x00 , y 00 ) = ( 2/8, 0).
214 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

y
y’ y’’

x’ x’’

Figura 11.13: La parábola del ejemplo 11.5.2 y las diferentes coordenadas uti-

5
lizadas.

-0
05
11.5.3 Ejemplo.- Sea la cónica de ecuación
9-
3x2 + 3y 2 − 2xy + 18x + 10y + 19 = 0.
l2
de

Estudiamos la forma cuadrática


  
n

3 −1 x
Q(x, y) = (x y) ,
sió

−1 3 y
r

cuya matriz resulta tener autovalores λ1 = 2, λ2 = 4.


Ve

√ √ !

→1 = 2 2
Calculando los correspondientes autovectores unitarios resulta u ,
2 2
√ √ !

→ 2 2
y u2 = − , .
2 2
Hacemos  0   
x x
P = ,
y0 y

siendo
 √ √ 
P = √2/2 −√ 2/2
2/2 2/2

(un giro de π/4).


En estas coordenadas la ecuación de la cónica es
√ √
2(x0 )2 + 4(y 0 )2 + 14 2x0 − 4 2y 0 + 19 = 0,
11.5. DETERMINACIÓN DEL TIPO DE UNA CÓNICA 215

luego si
7√
x00 = x0 + 2
2

00 0 2
y =y −
2
obtenemos, operando,
 2  2
x00 y 00
√ + √ √ = 1,
3 3/ 2
r
3 √ √
que es una elipse con c = 3+ = 3 2/2. Como el semieje mayor es a = 3
2

3
la excentricidad resulta ser ε = √ .
2

11.5.4 Ejemplo.- Estudiar la cónica de ecuación

5
-0
3x2 + 3y 2 − 10xy + 14x − 2y + 3 = 0. 05
9-
Estudiamos la forma cuadrática
  
l2

3 −5 x
Q(x, y) = (x y) ,
−5 3 y
de

cuya matriz tiene autovalores λ1 = 8, λ2 = −2.


n

√ √ !
sió

2 2
Calculando los correspondientes autovectores unitarios resulta −
→1 =
u ,−
2 2
r

√ √ !
Ve


→ 2 2
y u2 = , .
2 2
Hacemos  0   
x x
P = ,
y0 y
siendo  √ √ 
√2/2 √2/2
P = .
− 2/2 2/2
En estas coordenadas la ecuación de la cónica es
√ √
8(x0 )2 − 2(y 0 )2 + 8 2x0 + 6 2y 0 + 3 = 0

que, completando cuadrados, es


√ !2 √ !2
2 3 2
8 x0 + − 2 y0 − + 3 − 4 + 9 = 0,
2 2
216 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

es decir
√ !2 √ !2
02 0 3 2
8 x + −2 y − = −8,
2 2
o bien
√ !2
3 2
0
y − √ !2
2 2
0
− x + = 1.
4 2
Ası́, tras el cambio √ 
2 

x00 = x0 + 

2
√ 
3 2 

00 0
y =y − 
2
obtenemos  2
y 00

5
− (x00 )2 = 1,

-0
2
05
que es una hipérbola de semiejes 2 y 1. Observa que el papel de las coordenadas
x00 e y 00 está intercambiado respecto de la que dimos como hipérbola canónica
9-
2 2 2
en la sección
√ 11.4.6 (ver en concreto la figura 11.10). Además c = a + b = 5,
l2

luego c = 5.
de

x’’
x’’=(1/2)y’’
n
r sió
Ve

( 5,0)
y’’

Figura 11.14: La hipérbola del ejemplo 11.5.4 en las coordenadas x00 e y 00 (ojo:
están intercambiadas respecto a lo habitual).

Si quisieramos representarla con los ejes colocados como solemos hacerlo, no


habrı́a más que hacer un giro (ver la figura 11.15.)
El movimiento que lleva a esta forma canónica es pues
   0   00 
x x x
→ → ,
y y0 y 00
11.5. DETERMINACIÓN DEL TIPO DE UNA CÓNICA 217

y’’
y’’=2x’’

(0, 5)

x’’

5
-0
05
9-
l2

Figura 11.15: La hipérbola del ejemplo 11.5.4.


de

y como
   √ √ −1  0 
n

x0 2/2 √2/2 x
sió

= √ ,
y0 − 2/2 2/2 y0
r

entonces
Ve

 00   0   √   √ √    √ 
x x 2/2
√ √ 2/2 −
√ 2/2 x √2/2
= + = + .
y 00 y0 −3 2/2 2/2 2/2 y −3 2/2

Para calcular elementos en el plano (x, y) hay que hacer el movimiento in-
verso    √ √  0 
x √2/2 √2/2 x
=
y − 2/2 2/2 y0
 √ √   00 √ 
√2/2 √2/2 x − √2/2
=
− 2/2 2/2 y 00 + 3 2/2
 √ √   00   
= √2/2 √2/2 x
+
1
.
− 2/2 2/2 y 00 2
00 00
Por ejemplo el centro,
√ que es (x , √ y ) = (0, 0)√corresponde a (x, y) = (1, 2).
00 00 00 00
El foco
√ (x , y ) = (0, 5)
√ es (x, y) = √ 10/2+1, 10/2+2), y el foco (x , y ) =
(
(0, − 5) es (x, y) = (− 10/2 + 1, − 10/2 + 2).
218 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

El semieje mayor x00 = 0, es decir, los puntos ! de la forma (x00 , y 00 ) = (0, t),
√ √
2 2
corresponde a (x, y) = t + 1, t + 2 . El semieje menor, y 00 = 0 es, del
2 2
√ √ !
2 2
mismo modo, la recta paramétrica (x, y) = t + 1, − t+2 .
2 2
La ası́ntota y 00 = 2x00 , que paramétricamente
! es (x00 , y 00 ) = (t, 2t), correspon-
√ √
3 2 2
de a (x, y) = t + 1, t+2 .
2 2

11.6. Cónicas y el mundo real. Propiedades de


reflexión.
11.6.1 Proposición Sea C una cónica no singular, P ∈ C, F un foco. Si C
es una parábola, sea D la directriz. Si no, sea F 0 el otro foco. Entonces:
−−→ −−→

5
a) Si C es una elipse, la linea bisectriz entre −P F y P F 0 es tangente a C en P .

-0
−−→ −−→
b) Si C es una hipérbola, la linea bisectriz entre P F y P F 0 es tangente a C en
05
P.
−→
c) Si C es una parábola, sea R ∈ D el punto tal que P R es perpendicular a D.
9-
−−
→ −→
Entonces la linea bisectriz entre P F y P R es tangente a C en P .
l2
de

Ver la demostración en [Je].

11.6.2 La traducción práctica de la proposición anterior se da en términos de


n
sió

propiedades de reflexión. Dado que las leyes de la óptica estipulan que un rayo
de luz, al reflejarse, tiene el mismo ángulo de salida que ángulo de incidencia
r

(ángulos contados sobre el espacio tangente a la superficie de reflexión), las


Ve

cónicas tienen las siguientes propiedades:

• Elipses.- Un rayo de luz que se emite desde un foco (en cualquier dirección),
tras reflejarse en la elipse incide en el otro foco (y ası́ ad infinitum).

• Parábolas.- Los rayos de luz emitidos desde el foco, en cualquier dirección,


tras reflejarse en la parábola forman un haz de rayos paralelos al eje de ésta.
Recı́procamente, cualquier rayo paralelo al eje, tras reflejarse en la parábola,
llega al foco.

• Hipérbolas.- Un rayo de luz que se emita entre las dos ramas y en dirección a
un foco, se refleja en la hipérbola en dirección al otro foco.

11.6.3 Es obvio que las propiedades descritas arriba tienen multitud de poten-
ciales aplicaciones prácticas. Veamos algunas absolutamente serias y otras. . . más
prosaicas.
11.6. CÓNICAS Y REFLEXIÓN 219

y’’ y’ x’
x’’

5
x
-0
05
9-
l2
de
n
r sió
Ve

Figura 11.16: La hipérbola del ejemplo 11.5.4 y las diferentes coordenadas uti-
lizadas.
220 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

α=β α
P
β
α

F F’

Figura 11.17: Reflexiones en la elipse.

5
-0
α=β
05 α
P
9-
α
l2

F’ β F
de
n
sió
r

Figura 11.18: Reflexiones en la hipérbola.


Ve

α=β

α
R P
α
β

Figura 11.19: Reflexiones en la parábola.


11.6. CÓNICAS Y REFLEXIÓN 221

• Respecto a la elipse, cabe pensar lo curioso que serı́a jugar en un billar


elı́ptico con dos bolas situadas en ambos focos. No habrı́a que pensarse mucho
el lanzamiento de partida, ¿eh? Si recuerdas las leyes de los choques elásticos,
¿puedes prever qué ocurrirı́a tras el primer impacto de una bola con la otra,
tiremos hacia donde tiremos?
Respecto a usos más tangibles, pero no menos curiosos, cabe destacar la
potencialidad de espionaje de las elipses. Cuentan que en cónclaves medievales
importantes en que dos comitivas tenı́an que negociar, la astuta delegación an-
fitriona organizaba el evento en una gran sala elı́ptica, colocando el lugar de
deliberación del oponente en un foco y. . . un discreto informador en el otro. Las
conversaciones del rival eran fácilmente escuchadas por el aparentemente inofen-
sivo personaje (ambos focos podı́an estar a una distancia considerable), pues las
ondas sonoras reflejadas en todas direcciones eran considerablemente ampliadas
al concentrarse exactamente en el lugar ocupado por el espı́a.
El mismo principio, esta vez usado con carácter lúdico, puede observarse en
los jardines del palacio de Sanssouci, en Potsdam (Alemania), no lejos de Berlı́n.
Entre los setos de variadas formas uno encuentra un rincón con un banco curvo

5
flanqueado por un alto muro de la misma forma. Enfrente se encuentra un seto

-0
recto que encierra un espacio frente al banco que recordarı́a a un semicı́rcu-
05
lo. . . de no ser porque es una semielipse. El seto está colocado a lo largo del
9-
eje principal, y un banquito está estratégicamente colocado en el foco. Es fre-
cuente ver a la pareja de turistas de turno, convenientemente asesorados por las
l2

guı́as del castillo, repetir el pasatiempo matemático que entretenı́a en su dı́a a


de

Federico el grande de Prusia: uno descansa en el banquito, con gesto escéptico,


mientras el otro da pasos laterales, mirando al muro esférico, contando los pasos
n

de viva voz. Al cuarto, el turista sentado pega un respingo, por el inesperado


sió

efecto producido en la voz de su colega cuando éste alcanza el otro foco (algo
ası́ como pasar de mono a estéreo súbitamente). Es obvio que el efecto inmediato
r

es que ambos turistas exijan a continuación repetir el proceso intercambiando


Ve

sus posiciones.
Más en serio, podemos pensar en la utilidad de concentrar rayos de luz en un
punto (foco) al poner la fuente de luz en el otro foco frente a un espejo elı́ptico.
Las lamparillas que usan los dentistas funcionan ası́.

• La propiedad de la parábola tiene utilidad tanto colocando la fuente emiso-


ra en el foco (lo cual produce un haz denso, en el que no hay rayos que se dis-
persen) ó colocando un receptor en el foco. Respecto al primer caso, cabe decir
que los focos de los coches, o los focos antiaéreos funcionan aproximadamente ası́.
Las antenas o telescopios funcionan siguiendo el segundo principio, pues recojen
radiación emitida desde tan lejos que las ondas recibidas son aproximadamente
paralelas.

• Un interesantı́simo uso conjunto de una combinación parábola-hipérbola se


da en los telescopios newtonianos de tipo Schmidt-Cassegrain. En ellos la luz se
refleja primero en una parábola y luego en una hipérbola. Los rayos de luz, tras
la primera reflexión, se dirijen al foco de la parábola (que coincide con uno de
222 CAPÍTULO 11. FORMAS CUADRÁTICAS Y CÓNICAS

los focos de la hipérbola), y al reflejarse en la rama de hipérbola correspondiente


se concentran en el otro foco, donde está situado el ocular.

5
-0
05
9-
Figura 11.20: Esquema de un telescopio Schmidt-Cassegrain.
l2
de
n
r sió
Ve
Ejercicios de formas
cuadráticas y cónicas

1. Encuentra la matriz de las siguientes formas cuadráticas:

(a) Q(x1 , x2 , x3 ) = 2x21 − 3x1 x2 + 4x22 + 6x1 x3 , en R3 .

5
-0
P3
(b) Q(x1 , x2 , x3 ) = i=1 (xi − s)2 con s = 31 (x1 + x2 + x3 ), en R3 .
05
Pn 2
(c) i<j (i − j) xi xj .
9-
l2

2. Encuentra la forma canónica y los ı́ndices de inercia de la siguiente forma


de

cuadrática: Q(x, y, z) = x2 + 5y 2 − 2xy + 2xz Da las ecuaciones de la transfor-


mación de R3 que lleva la forma cuadrática dada a su forma canónica.
n
sió

3. Halla la forma canónica de las siguientes formas cuadráticas:


r

Q1 (x, y) = x2 − 2xy + 4y 2 ; Q2 (x, y, z) = xy + 2xz;


Ve

Q3 (x, y, z, t) = xy + yz + zt
En cada caso da una base ortonormal en la que se obtenga la forma canónica.

4. Reduce la cónica 3x2 +3y 2 −2xy +18x+10y +19 = 0 a su forma canónica.


Halla los ejes, el centro y los focos de la cónica correspondiente y dibújala.

5. Indica el tipo y expresa en forma canónica la cónica


x2 + y 2 + 2xy − 7x − 5y + 7 = 0.

6. Demuestra que las ecuaciones siguientes representan hipérbolas y encuen-


tra sus ası́ntotas:

x2 + 4xy + y 2 = 7; 11x2 − 24xy + 4y 2 + 6x + 8y = −15

7. Demuestra que las ecuaciones siguientes representan parábolas y encuen-


tra su eje y su vértice:

223
224

16x2 − 24xy + 9y 2 − 30x − 40y = 0; 16x2 − 24xy + 9y 2 − 30x − 40y = 5

8. Clasifica las siguientes cónicas y da las ecuaciones del movimiento de R3


que las lleva a su forma canónica:

x2 − 2xy + y 2 + 4x − 6y + 1 = 0; 2x − 2x2 + y 2 + 4xy − 1 = 0;

x2 − 2y 2 − xy + 2x + 5y − 3 = 0

5
-0
05
9-
l2
de
n
r sió
Ve
Problemas de formas
cuadráticas y cónicas

1. Para los distintos valores de los parámetros α, β ∈ R, clasifica las cónicas


de ecuación:
αx2 + 2βxy + αy 2 + (α + β)(x + y) + 1 = 0

5
-0
2. Escribe la ecuación de la hipérbola con un foco en (2, −1) y ası́ntotas de
05
ecuación x = 0, 3x − 4y = 0.
9-
3. Escribe las ecuaciones de las parábolas de foco (2, −1) que pasan por
l2

(2, 2) y tiene el eje en la dirección del eje Ox.


de

4. Escribe la ecuación de la elipse con vértices (−1, 2) y (−7, 2) y eje menor


2b = 2.
n
sió

5. Escribe la ecuación de al hipérbola con ası́ntotas y = 2x − 1, y = −2x − 1


y un foco en (3, 1).
r
Ve

6. Escribe la ecuación de la elipse con un vértice en (−1, 1), centro en (3, −1)
y excentricidad 1/2.

7. Encuentra las ecuaciones de las siguientes cónicas:


(a) La parábola de foco (1, a) y vértice (a, a), donde a ∈ R, a > 1. Demuestra
que sólo hay un valor de a para el cual la parábola correspondiente pasa
por el origen.

(b) La elipse de focos (0, µ) y (−µ, 2) y semieje mayor 2, donde µ ∈ R.
Demuestra que existen dos elipses de la familia que pasan por el origen.

225
226

Ve
rsió
n
de
l2
9-
05
-0
5
Bibliografı́a

[Ay] F. Ayres, Geometrı́a Proyectiva. Teorı́a y 200 Problemas Resueltos, Ed.


McGraw-Hill, 1971.
[Ca-Ll] M. Castellet e I. Llerena, Algebra Lineal y Geometrı́a, Ed. Reverté-Uiv.
Autónoma de Barcelona, Barcelona 1994 (Texto recomendado para los
temas 1 y 2).

5
-0
[He] E. Hernández, Algebra Lineal y Geometrı́a, Ed. Univ. Autónoma de
Madrid, Madrid 1994. 05
9-
[Je] G.A. Jennings, Modern Geometry with Applications, Ed. Springer-
Verlag, 1994.
l2

[RS-Ru] J.M Rodrı́guez-Sanjurjo y J.M. Ruiz, Geometrı́a Proyectiva, Addisson-


de

Wesley, 1998 (Texto recomendado para el tema 3).


n

[Xa] S. Xambó, Geometrı́a, Edicions UPC, Barcelona 1997.


r sió
Ve

227

También podría gustarte