Está en la página 1de 118

LGEBRA

DOCUMENTOS DE
APOYO

TEMA I. Elementos bsicos de clculo.


Captulo 1. Correspondencias y aplicaciones.

Captulo 2. Combinatoria.

Captulo 3. Matrices.

Captulo 4. Determinantes.

Captulo 5. Equivalencia, congruencia y semejanza de matrices.

TEMA II. Espacios vectoriales.


Captulo 1. Espacios vectoriales y subespacios vectoriales.

Captulo 2. Sistemas generadores. Sistemas libres. Bases.

Captulo 3. Aplicaciones lineales.

Captulo 4. Endomorfismos.

Captulo 5. Aplicaciones bilineales y formas cuadrticas.

Captulo 6. Dualidad y tensores homogneos.

TEMA III. Espacios vectoriales eucldeos.


Captulo 1. Introduccin a los espacios eucldeos.
Captulo 2. Ortogonalidad.

Captulo 3. Transformaciones ortogonales.

Captulo 4. Producto vectorial y producto mixto.

TEMA IV. Espacios geomtricos E2 y E3.


Captulo 1. El espacio afn.

Captulo 2. El espacio afn ampliado.

TEMA V. Cnicas y cudricas.


Captulo 1. Cnicas.

Captulo 2. Cudricas.

BIBLIOGRAFA
1. J. de Burgos, lgebra lineal. McGraw-Hill, 2000.

2. A. de la Villa, Problemas de lgebra. CLAGSA, 1994.

3. F. Gonzlez de Posada, Problemas de estructuras algebraicas tensoriales.


Madrid, 1971.

4. M. Garca Galludo y otros, Problemas de lgebra y analtica. Madrid, 1984.

5. M. Anzola y otros, Problemas de lgebra. (Especialmente tomos 1,3, 6, 7)


Madrid, 1981.

6. P. de la Fuente y otros, lgebra vectorial y tensorial. Servicio de


Publicaciones de la Revista de Obras Pblicas. Madrid, 1982.

7. J. Rojo, lgebra lineal. McGraw-Hill, 2001.

8. F. Ayres Jr., Teora y problemas de matrices. McGraw-Hill, 1991.


9. J. Rojo e I. Martn, Ejercicios y problemas de lgebra. McGraw-Hill, 1994.

10. S. I. Grossman, lgebra lineal. McGraw-Hill, 1995.

11. F. Granero, lgebra y geometra analtica. McGraw-Hill, 1992.

12. J. Flaquer y otros, Curso de lgebra lineal. Ediciones Universidad de


Navarra, 1996.

13. P. Sanz y otros, Problemas de lgebra lineal. Prentice Hall, 1998.

14. M. Castellet e I. Llerena, lgebra lineal y geometra. Revert, 1991.

15. J. Arves y otros, lgebra lineal y aplicaciones. Sntesis, 1999.

16. J. Prez Vilaplana. Problemas de clculo de probabilidades. Paraninfo,


1991.

17. S. Lipschutz, M. L. Lipson. Teora y problemas de probabilidad. McGraw-


Hill, 2000.

http://caminos.udc.es/info/asignaturas/101/materiales.html
Tema I. Captulo 1. Correspondencias y aplicaciones. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Tema I Esta definicion se extiende para n conjuntos (y en general para una familia arbi-
traria de conjuntos):

Elementos Basicos de Calculo A1 A2 . . . An = {x| x A1 o x A2 o . . . o x An }.

1. Correspondencias y aplicaciones. Definicion 1.3 Dados dos conjuntos A y B se llama la interseccion de dos con-
juntos A y B al conjunto A B formado por los elementos que pertenecen a los dos
conjuntos:
1 Conjuntos. A B = {x| x A , x B}.

1.1 Definicion y notacion. De nuevo, esta definicion se extiende para n conjuntos (y en general para una
familia arbitraria de conjuntos):
Definicion 1.1 Un conjunto es una coleccion de objetos llamados elementos.
A1 A2 . . . An = {x| x A1 , x A2 , . . . , x An }.
Utilizaremos la siguiente notacion:
Definicion 1.4 Dados dos conjuntos A y X que cumplen que A X, se llama
1. significara existe. conjunto complementario de A dentro de X al conjunto de elementos de X que no
2. significara existe un unico. estan en A:
3. := significara igual por definicion. X \ A = {x X| x 6 A}.
4. Denotaremos los conjuntos con letras mayusculas A, B, C, . . ..
5. Denotaremos los elementos con letras minusculas a, b, c, . . .. Algunas propiedades de estas operaciones son:
6. Si a es un elemento de un conjunto A escribiremos a A (o A 3 a).
7. Si a NO es un elemento de un conjunto A escribiremos a 6 A (o A 63 a). 1. (A B) C = (A C) (B C).
8. Si todos los elementos de un conjunto A estan en B, escribiremos A B (o Prueba:
B A) y diremos que A es un subconjunto de B. Es claro por tanto que: xAB
(
x A o x B
) ( )
A = B A B y B A. x (A B) C y y
xC xC
Como consecuencia de esto un metodo muy habitual para comprobar que (
xAyxC
)
dos conjuntos A y B coincidien sera verificar primero que A B y o x (A C) (B C).
luego que B A. xB yxC
9. Denotaremos por al conjunto vaco, es decir, el que no tiene ningun elemento.
10. Dado un conjunto A denotaremos por P(A) al conjunto formado por todos los 2. (A B) C = (A C) (B C).
subconjuntos de A (se llama partes de A).
3. X \ (X \ A) = A.
11. El numero de elementos de un conjunto finito A se llama cardinal del con-
junto y se denota por #A. 4. A B X \ B X \ A.
5. Leyes de De Morgan. Si A, B dos conjuntos contenidos en otro conjunto X.
Se verifica:
1.2 Operaciones entre conjuntos.
El complementario de la union es la
X \ (A B) = (X \ A) (X \ B).
Definicion 1.2 Dados dos conjuntos A y B se llama la union de A y B al conjunto interseccion de los complementarios.
A B formado por todos los elementos de A y B:
El complementario de la interseccion
A B = {x| x A o x B}. X \ (A B) = (X \ A) (X \ B).
es la union de los complementarios.

1
Tema I. Captulo 1. Correspondencias y aplicaciones. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Prueba: Probemos que X \ (A B) = (X \ A) (X \ B). Para cualquier Se verifica que:


elemento x X se tiene:
- Conjunto inicial de F =Conjunto final de F 1 .
x X \ (A B) x 6 A B x 6 A y x 6 B
- Conjunto final de F =Conjunto inicial de F 1 .
x (X \ A)
( )
y x (X \ A) (X \ B) - Conjunto origen de F =Conjunto imagen de F 1 .
x (X \ B)
- Conjunto imagen de F =Conjunto origen de F 1 .
Definicion 1.5 Dados dos conjuntos A y B se llama producto cartesiano A B
al conjunto A B formado por todos los pares ordenados (a, b) tales que a A y Definicion 2.3 Dados tres conjuntos A, B, C y dos correspondencias, F de A en B
b B: y G de B en C, se llama correspondencia H = G F a una correspondencia entre
A B = {(a, b)| a A , b B}. A y C definida como:

Esta definicion generaliza para n conjuntos: H = {(a, c) A C| b B con (a, b) F y (b, c) G}.

A1 A2 . . . An = {(a1 , a2 , . . . , an )| a1 A1 , a2 A2 , . . . , an An }.

Cuando todos los conjuntos son iguales su producto cartesiano se denota: 2.2 Aplicaciones
An = A A . . . A . 2.2.1 Definicion.
| {z }
n veces
Definicion 2.4 Una aplicacion entre dos conjuntos A y B es una correspondencia
verificando las siguientes condiciones:
2 Correspondencias.
1. El conjunto inicial coincide con el conjunto origen.
2.1 Definiciones basicas.
a A, b B| (a, b) F.
Definicion 2.1 Dados dos conjuntos A y B, una correspondencia entre A y B
es un subconjunto F del producto cartesiano A B. Ademas: 2. Cada elemento del conjunto origen tiene una unica imagen.

1. A se llama el conjunto inicial de la correspondencia. a C.Origen, b B| (a, b) F.


2. B se llama conjunto final de la correspondencia.
3. Si (a, b) F decimos que b es una imagen de a y que a es un origen de b. Ambas condiciones equivalen a que todo elemento del conjunto inicial tiene una
unica imagen.
4. El conjunto origen o dominio de F es el conjunto formado por todos los
a A, b B| (a, b) F.
orgenes de los elementos de B:

Conjunto origen de F = {a A| y B con (a, y) F }.


Denotaremos una aplicacion F de A en B por f : A B y cuando (a, b) F
5. El conjunto imagen o recorrido de F es el conjunto formado por todas las escribiremos f (a) = b. Si A0 es un subconjunto de A, denotaremos por f (A0 ) al
imagenes de los elementos de A: conjunto de todas las imagenes de los elementos de A0 :

Conjunto imagen de F = {b B| x A con (x, b) F }. f (A0 ) = {f (a)| a A0 }.

Definicion 2.2 Dados dos conjuntos A y B y una correspondencia F entre A y B,


la correspondencia inversa F 1 entre B y A se define como: 2.2.2 Clasificacion de aplicaciones.

F 1 = {(b, a) B A| (a, b) F }. Dados dos conjuntos A y B, distinguieremos varios tipos de aplicaciones de A en B:

2
Tema I. Captulo 1. Correspondencias y aplicaciones. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

1. Una aplicacion inyectiva es aquella en la que cada elemento de la imagen La equivalencia entre ambas definiciones es inmendiata sin mas que tener en cuenta
tiene un unico origen. Para verificar la inyectividad de una aplicacion suelen que:
utilizarse cualquiera de las dos condiciones siguientes equivalentes: (a, b) f y (b, c) g b = f (a) y c = g(b) c = g(f (a))
f inyectiva f (x) = f (y) x = y x 6= y f (x) 6= f (y) Ademas en la segunda definicion queda claro que, por ser f y g aplicaciones, g f
es efectivamente una aplicacion ya que cada elemento de A tiene una unica imagen
2. Una aplicacion sobreyectiva es aquella en la que el conjunto imagen coincide definida en C.
con el final:
Veamos algunas propiedades de la composicion de aplicaciones. Supondremos que
f sobreyectiva f (A) = B b B, a A| f (a) = b tenemos aplicaciones cualesquiera f, g, h, f : A B, g : B C y h : C D.

3. Una aplicacion biyectiva es un aplicacion que es inyectiva y sobreyectiva al


mismo tiempo, es decir, aquella en que todo elemento del conjunto final tienen 1. La aplicacion identidad en un conjunto cualquiera A, idA : A A, que
un unico origen: lleva cada elemento en si mismo, actua como elementro neutro, es decir:

f inyectiva idB f = f ; f idA = f.


f biyectiva b B, a A| f (a) = b
f sobreyectiva
2. Se cumple la propiedad asociativa, es decir:

2.2.3 Inversa de una aplicacion. h (g f ) = (h g) f.

Dada una aplicacion f de A en B, siempre existe la correspondencia inversa f 1


3. La composicion NO es conmutativa.
pero no siempre esta inversa es una aplicacion. Tenemos en cuenta que:
4. Si f : A B es biyectiva f f 1 = idB y f 1 f = idA .
f 1 aplicacion b B, a A| (b, a) F 1
b B, a A| (a, b) F 5. f y g inyectivas g f es inyectiva.
b B, a A| f (a) = b
 Prueba:
f inyectiva

f sobreyectiva (g f )(x) = (g f )(y) g(f (x)) = g(f (y))
g inyct.
f (x) = f (y)
f inyct.
x = y.

Es decir:
6. f y g sobreyectivas g f es sobreyectiva.
Proposicion 2.5 Dada una aplicacion f de A en B, la correspondencia inversa f 1 Prueba:
f sobreyectiva g sobreyectiva
es una aplicacion si y solo si f es biyectiva. (g f )(A) = g(f (A)) = g(B) = C.

7. f y g biyectivas g f biyectiva.
Como consecuencia de esto solo podremos calcular la aplicacion inversa de una
aplicacion biyectiva. Ademas esta aplicacion inversa sera tambien una aplicacion 8. g f inyectiva f inyectiva.
biyectiva. Prueba:
(g f ) inyct.
2.2.4 Composicion de aplicaciones. f (x) = f (y) g(f (x)) = g(f (y)) x = y.

Definicion 2.6 Dados tres conjuntos A, B, C, y dos aplicaciones f : A B y 9. g f sobreyectiva g sobreyectiva.


g : B C definimos la aplicacion f compuesta con g como: Prueba:
(a, c) g f b B| (a, b) f y (b, c) g, g f sobre. g(B)C
f (A) B g(f (A)) g(B) C g(B) g(B) = C.
o equivalentemente,
(g f ) : A C (g f )(a) = g(f (a)). 10. g f biyectiva f inyectiva y g sobreyectiva.

3
Tema I. Captulo 1. Correspondencias y aplicaciones. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2.3 Relaciones. Al conjunto de clases de equivalencia se le llama conjunto cociente y se repre-


senta por A/R. Para describir un conjunto cociente suele darse un elemento de cada
2.3.1 Definicion. una de las clases de equivalencia. A dicho elemento se le llama representante de
su clase.
Definicion 2.7 Una relacion es una correspondencia de un conjunto A en si
mismo, es decir, un subconjunto del producto cartesiano A A. Habitualmente se
2.3.3 Relacion de orden.
denota por R y suele escribirse:

(a, b) R aRb. Definicion 2.9 Una relacion R en un conjunto A se dice de orden si cumple las
siguientes propiedades:

2.3.2 Relacion de equivalencia. 1. Reflexiva. a A, aRa.


2. Antisimetrica. a, b A, aRb y bRa a = b.
Definicion 2.8 Una relacion R en un conjunto A se dice de equivalencia si cumple
3. Transitiva. a, b, c A, aRb y bRc aRc.
las siguientes propiedades:
Ademas la relacion se dice de orden total si cualquier par de elementos es com-
1. Reflexiva. a A, aRa.
parable, es decir,
2. Simetrica. a, b A, aRb bRa. a, b A, o aRb o bRa.
3. Transitiva. a, b, c A, aRb y bRc aRc. En otro caso la relacion se dice de orden parcial.

Si R es una relacion de equivalencia, los elementos relacionados con un elemento


x se dicen equivalentes a x. Al conjunto de elementos equivalentes a x se le llama
clase de equivalencia de x, y se denota por C(x):

C(x) = {a A| aRx}.

Algunas propiedades de las clases de equivalencia son:

1. C(x) 6= .
Prueba: Por la propiedad reflexiva todo elemento esta relacionado al menos
consigo mismo.
2. y C(x) x C(y).
Prueba: Si y C(x), entonces yRx; por la propiedad simetrica xRy; por tanto
x C(y).
3. y C(x) C(y) C(x)
Prueba: Si y C(x), entonces yRx. Ademas si b C(y) entonces bRy. Por
la propiedad transitiva deducimos que bRx y b C(x).
4. y C(x) C(x) = C(y).
Prueba: Es consecuencia directa de las dos propiedades anteriores.

Deducimos de estas propiedades que dos clases de equivalencia o coinciden o son


disjuntas. Ademas todo elemento del conjunto pertenece a una clase de equivalencia,
luego estas forman una particion de A.

4
Tema I. Captulo 2. Combinatoria. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2. Combinatoria. 3 Permutaciones.
La combinatoria es la rama de las matematicas que se ocupa de contar los elemen-
tos de un conjunto finito. Normalmente este conjunto correspondera a las distintas Las permutaciones de n elementos son cada una de las formas en que podemos
estructuras que pueden formarse, combinando una serie de objetos bajo un determi- ordenar esos elementos. Corresponden a las variaciones sin repeticion de n elementos
nado criterio. tomados de n en n:

Pn = n (n 1) (n 2) . . . 2 1 = n!.

1 Regla del producto. 3.1 Permutaciones con repeticion.


Si realizamos una serie de elecciones en k etapas, de manera que en la etapa i-esima Las permutaciones con repeticion de n elementos de los cuales hay grupos de
tenemos ni posibilidades, el numero total de posibles elecciones es: n1 , n2 , . . . , nk elementos iguales entre si, son cada una de las formas en que podemos
ordenar esos elementos (los elementos de cada grupo son indistinguibles entre si):
n1 n2 . . . nk .
n!
P (n; n1 , n2 , . . . , nk ) = .
n1 !n2 ! . . . nk !
Expresado de otra forma, si A1 , A2 , . . . , Ak son conjuntos finitos no vacos, el
numero de elementos del producto cartesiano A1 A2 . . . Ak es:
4 Combinaciones.
#(A1 A2 . . . Ak ) = #A1 #A2 . . . #Ak .
4.1 Numeros combinatorios.
Definicion 4.1 Dados dos numeros enteros no negativos n, p, con n p, definimos
2 Variaciones. el numero combinatorio n sobre p como:
 
n n!
2.1 Variaciones con repeticion. p
=
p!(n p)!
.

Las variaciones con repeticion de n elementos tomados de p en p son cada una de


las formas posibles en que podemos tomar p elementos ordenados (repetidos o no) Algunas propiedades de los numeros combinatorios son:
elegidos en un conjunto de n elementos:    
n n
1. 0
= n
= 1.
p
| n {z
V Rn,p = n ... n
}=n .
   
n n
p veces 2. p
= np
.
     
n n n+1
3. p
+ p1
= p
.
2.2 Variaciones sin repeticion.
Prueba:
Las variaciones sin repeticion de n elementos tomados de p en p son cada una  
n

n

n! n!
de las formas posibles en que podemos tomar p elementos ordenados (sin repetir) p
+ p1
= p!(np)!
+ (p1)!(np+1)! =
 
elegidos en un conjunto de n elementos: n! 1 1
= (p1)!(np)!  p
+ np+1 =

n! n+1
Vn,p = n (n 1) . . . (n p + 1) =
n!
. = (p1)!(np)! p(np+1)
=
(n p)! (n+1)!

n+1

= = p .
| {z }
p factores p!(np+1)!

5
Tema I. Captulo 2. Combinatoria. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Una aplicacion tpica de los numeros combinatorios es el desarrollo de cuadrado 5 Resumen.


de un binomio.
Grupos de p elementos escogidos entre n posibles.
Teorema 4.2 (Binomio de Newton) Criterios. PUEDEN REPETIRSE NO PUEDEN REPETIRSE
Variaciones con rep. Variaciones sin rep.
n   IMPORTA
X n V Rn,p = np n!
(a + b)n = ak bnk (a, b IR, n IN). EL ORDEN Vn,p =
k (n p)!
k=0 Combinaciones con rep. Combinaciones
NO IMPORTA    sin  rep.
n+p1 n
Prueba: EL ORDEN CRn,p = Cn,p =
p p
Lo probamos por induccion.
- Para n = 1 es claro que:
   
1 1 1 0 1 0 1
(a + b) = a b + a b .
0 1

- Supongamos que es cierto para n 1 y probemoslo para n:


Pn1 n1

(a + b)n = (a + b)(a + b)n1 = (a + b)( k=0 k
ak bn1k ) =
Pn1 n1
 Pn1 n1

=( k=0 k
ak+1 bn1k ) + ( k=0 k
ak bnk ) =
Pn n1
 Pn1 n1

=( k=1 k1
ak bnk ) + ( k=0 k
ak bnk ) =
Pn1 n1
 n1

= bn + k=1
( k1
+ k
)ak bnk + an =
Pn1 n
 Pn n

= bn + k=1 k
ak bnk + an = k=0 k
ak bnk .

4.2 Combinaciones sin repeticion.


Las combinaciones de n elementos tomados de p en p son cada una de las formas
posibles de elegir p elementos de entre n posibles.
 
n Vn,p n!
Cn,p = = = .
p p! p!(n p)!

4.3 Combinaciones con repeticion.


Las combinaciones con repeticion de n elementos tomados de p en p son los
grupos p elementos que se pueden formar con n clases de elementos.
 
n+p1
CRn,p = .
p

6
Tema I. Captulo 3. Matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

3. Matrices. 2. Asociativa:
A + (B + C) = (A + B) + C,
para cualesquiera A, B, C Mmn (IK).
1 Definiciones basicas. 3. Elemento neutro: La matriz Mmn (IK) en la que todos los elementos
son nulos, es el elemento neutro de la suma, es decir:
Definicion 1.1 Una matriz A de dimension m n es un conjunto de escalares de 0

0 ... 0

un cuerpo IK dispuesto en m-filas y n-columnas. 0 0 ... 0
Si m = n la matriz se llama cuadrada y en otro caso rectangular. ...
= ..
.
..
.
..
.
, y A + = + A = A,

0 0 ... 0
Para nombrar una matriz utilizaremos usualmente letras mayusculas, mientras para cualquier A Mmn (IK).
que para sus elementos utilizaremos letras minusculas. En concreto, el elemento que
ocupa la fila i-esima y la columna j-esima de una matriz A se denotara por aij o 4. Elemento opuesto: Para cualquier matriz A Mmn (IK), existe una matriz
excepcionalmente por, (A)ij : A = (aij ), verificando que

a11 a12 ... a1n
A + (A) = .
a21 a22 ... a2n
A = (aij ) = . Por tanto el conjunto Mmn (IK) con la operacion suma tiene estructura de grupo
... ..
.
..
.
..
. abeliano.
am1 am2 ... amn

El conjunto de todas las matrices de m filas y n columnas definidas sobre un cuerpo 2.2 Producto de una matriz por un escalar.
IK sera denotado por Mmn (IK). Si previamente hemos fijado el cuerpo sobre el cual
estamos trabajando, utilizaremos simplemente Mmn . Dada una matriz A Mmn (IK) y un escalar IK definimos la matriz producto
de por A como:
Dos matrices son iguales si tienen la misma dimension y ademas coinciden todos
sus elementos con la misma ordenacion. B = A, con bij = aij , i = 1, . . . , m; j = 1, . . . , n.

El producto de un escalar por una matriz cumple las siguientes propiedades


2 Operaciones con matrices.
1. 1 A = A, para cualquier A Mmn (IK).
2. ( A) = () A, para cualquier A Mmn (IK) y , IK.
2.1 Suma de matrices.
3. ( + ) A = A + A, para cualquier A Mmn (IK) y , IK.
Dadas dos matrices A, B de la misma dimension y definidas sobre el mismo cuerpo, 4. (A + B) = A + B, para cualesquiera A, B Mmn (IK) y IK.
la matriz suma de A y B es la matriz:

C = A + B, con cij = aij + bij , i = 1, . . . , m; j = 1, . . . , n. 2.3 Producto de matrices.


Por tanto la suma de matrices es una operacion interna en Mmn (IK). Como Para poder multiplicar dos matrices es necesario que el numero de columnas de la
consecuencia de la estructura de grupo del cuerpo IK, la suma de matrices cumple primera coincida con el numero de fila de la segunda.
las siguientes propiedades: Por tanto dadas dos matrices A Mmn (IK) y B Mnp (IK) definimos la matriz
producto C = A B Mmp como:
1. Conmutativa:
n
A + B = B + A, X
cij = aik bkj , i = 1, . . . , m; j = 1, . . . , p.
para cualesquiera A, B Mmn (IK). k=1

7
Tema I. Captulo 3. Matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

de manera que el termino de la posicion i, j de la matriz producto se obtiene uti- Es importante indicar que,
lizando la fila i-esima de la primera matriz y la columna j-esima de la segunda.

.
.
b1j El producto de matrices NO cumple
. b2j
la propiedad CONMUTATIVA.
... ... ...

ai1 ai2 ... ain
...
... =
. ... ai1 b1j + ai2 b2j + . . . + ain bnj ...
.
... ... ...
. .
. bnj
.
es decir, en general A B 6= B A.

Veamos algunas propiedades:

1. Asociativa: 2.3.1 Inversa de una matriz.


A (B C) = (A B) C,
Definicion 2.1 Una matriz cuadrada A Mnn (IK) tiene inversa si existe una
para cualesquiera A Mmn , B Mnp , B Mpq .
matriz B Mnn (IK) verificando:
Prueba: Se tiene:
n n p n p
X X X X X A B = B A = In .
[A (B C)]ij = aik (B C)kj = aik bkl clj = aik bkl clj ,
k=1 k=1 l=1 k=1 l=1
En este caso A se dice regular o invertible o no singular y su matriz inversa de
y por otra parte: denota por A1 .
n n p n p Si A no tiene inversa, se dice singular.
X X X X X
[(A B) C]ij = (A B)il clj = clj aik bkl = aik bkl clj .
l=1 l=1 k=1 k=1 l=1
Veamos algunas propiedades:
2. Elemento neutro: Definimos la matriz identidad de orden r como Ir
Mrr (IK):
1. Si existe la inversa de A, es unica.

1 0 ... 0
0 1 ... 0 Prueba: Supongamos que existen matrices B, C Mnn (IK) verificando:
... ... . . . ...
Ir =

0 0 ... 1 A B = B A = In y A C = C A = In .
de manera que se cumple:
Entonces:
A In = Im A = A

para cualquier A Mmn (IK). B = In B = (C A) B = C (A B) = C In = C.


Se le llama el delta de Kronecker a los elementos
(
1 si i = j 2. Si A, B Mnn (IK) tienen inversa, entonces
ij =
0 si i 6= j (A B)1 = B 1 A1 .

Con esta notacion los elementos de la matriz identidad son los del delta de
Prueba: Se tiene:
Kronecker.
3. Distributiva respecto a la suma: (A B) (B 1 A1 ) = A (B B 1 ) A1 = A In A1 = A A1 = In .
A (B + C) = A B + A C, con A Mmn , B, C Mnp
(B 1 A1 ) (A B) = B 1 (A1 A) B = B 1 In B = B 1 B = In .
y
(A + B) C = A C + B C, con A, B Mmn , C Mnp . Veremos mas adelante diversos metodos para el calculo de una matriz inversa.

8
Tema I. Captulo 3. Matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2.3.2 Potencia de una matriz. 3 Matrices especiales.


Dado un numero entero k y una matriz cuadrada A Mnn (IK) definimos la po-
tencia k-esima de A como: 3.1 Matrices simetricas y hemisimetricas.



| A {z
A ... A
} si k > 0. Definicion 3.1 Dada una matriz cuadrada A Mnn (IK) dedimos que A es:
k-veces

- simetrica cuando A = At .





Ak = In si k = 0. - antisimetrica o hemisimetrica cuando A = At .


1 1 1

| A {z . . . A }
A si k < 0 (y A es regular).



De la definicion es facil comprobar lo siguiente:


(-k)-veces

Es claro que se cumple que: 1. Toda matriz hemisimetrica tiene ceros en la diagonal.
Prueba: Si A es hemisimetrica:
Ak Al = Ak+l
aii = aii 2aii = 0 aii = 0
Sin embargo, y debido a que el producto de matrices no es conmutativo, en general:

Ak B k 6=(A B)k para cualquier i = 1, . . . , n.


2. La unica matriz simetrica y hemisimetrica al mismo tiempo es la matriz .
2.4 Matriz traspuesta. Prueba: Si A es simetrica y hemisimetrica se tiene:

A simetr. A hemisimetr.
Definicion 2.2 Dada una matriz A Mmn IK definimos la matriz traspuesta aij = aji = aij 2aij = 0 aij = 0
de A como la matriz At Mmn IK que se obtiene de A intercambiando las filas por
las columnas: para cualesquiera i, j = 1, . . . , n.
(At )ij = (A)ji i = 1, . . . , n; j = 1, . . . , m.
3. Toda matriz cuadrada se descompone de manera unica como suma de una
simetrica y otra antisimetrica.
Algunas propiedades de la trasposicion son:
Prueba: Dada una matriz cuadrada A Mnn (IK) puede escribirse como:
t t
1. (A ) = A, para cualquier A Mmn (IK). 1 t
t t t
2. (A + B) = A + B , para cualesquiera A, B Mmn (IK). S = 2 (A + A )

A = S + H, con
3. (A)t = At , para cualquier A Mmn (IK), IK. 1 t
H= (A A )

4. (A B)t = B t At , para cualesquiera A Mmn (IK), B Mnp (IK). 2
Prueba: Se tiene:
donde S es simetrica y H es hemisimetrica.
n n
Ademas si A tuviese otra descomposicion de este tipo A = S 0 + H 0 con S 0
X X
(A B)tij = (A B)ji = ajk bki = (B t )ik (At )kj = (B t At )ij
k=1 k=1
simetrica y H 0 hemisimetrica:

5. (At )1 = (A1 )t , para cualquier A Mnn (IK). S + H = A = S0 + H 0 S S0 = H H 0


Prueba: Basta tener en cuenta que:
de manera que S S 0 = H H 0 sera simetrica y hemisimetrica al mismo
At (A1 )t = (A1 A)t = I t = I; (A1 )t At = (A A1 )t = I t = I. tiempo. Por tanto S S 0 = H H 0 = y ambas descomposiciones coinciden.

9
Tema I. Captulo 3. Matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

3.2 Matriz diagonal. Para cualquier par de matrices A, B Mnn (IK) y IK se verifica:

Definicion 3.2 Una matriz diagonal es una matriz cuadrada en la que todos los triangulares triangulares
A, B A, A1 (si existe), A + B, A B
elementos que no estan en la diagonal son nulos. inferiores inferiores

d11 0 ... 0
0 d22 ... 0
D= . 3.4 Matrices ortogonales.
... ..
.
..
.
..
.
0 0 ... dnn Definicion 3.5 Una matriz ortogonal es una matriz cuadrada e inversible A cuya
inversa coincide con su traspuesta:
Equivalentemente:
D diagonal dij = 0, i, j = 1, . . . , n, i 6= j A1 = At .

Para cualquier par de matrices A, B Mnn (IK) y IK se verifica:


A, B diagonales A, At , A1 (si existe), A + B, A B diagonales 4 Transformaciones elementales.

4.1 Operaciones elementales de fila.


3.3 Matrices triangulares.
Las operaciones elementales de fila son:
Definicion 3.3 Una matriz triangular superior es una matriz cuadrada en la
que todos los elementos que estan por debajo de la diagonal son nulos.
1. Hij : Permuta la fila i con la fila j.
a11 a12 ... a1n
0 a22 ... a2n 2. Hi () : Multiplica la fila i por un escalar 6= 0.
A=
... .. .. .. .
. . . 3. Hij () : A la fila i se le suma la fila j multiplicada por .
0 0 ... ann
Equivalentemente:
4.2 Matrices elementales de fila.
A triangular superior aij = 0, i, j = 1, . . . , n, i > j.
Las matrices elementales de fila son el resultado de aplicar una operacion elemen-
Para cualquier par de matrices A, B Mnn (IK) y IK se verifica: tal fila a la matriz identidad de una determinada dimension. Por tanto tendremos
tres tipos de matrices elementales fila:
triangulares triangulares
A, B A, A1 (si existe), A + B, A B
superiores superiores 1. Hij : Matriz obtenida al intercambiar las filas i, j de la matriz identidad.

Definicion 3.4 Una matriz triangular inferior es una matriz cuadrada en la que 2. Hi () : Matriz obtenida al multiplicar la fila i de la identidad por 6= 0.
todos los elementos que estan por encima de la diagonal son nulos. 3. Hij () : Matriz obtenida al sumar en la matriz identidad a la fila i ,la fila j

a11 0 ... 0
multiplicada por .
a21 a22 ... 0
A=
... .. .. .. .
. . . Teorema 4.1 Realizar una operacion elemental fila sobre una matriz A Mmn
an1 an2 ... ann es lo mismo que multiplicar dicha matriz por la izquierda por la correspondiente
matriz elemental de fila de dimension m.
Equivalentemente:
A triangular inferior aij = 0, i, j = 1, . . . , n, i < j. Prueba:

10
Tema I. Captulo 3. Matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

1. Calculemos B = H A: 4.4 Matrices elementales de columna.


aij si i 6= , i 6= .
m
(
X Las matrices elementales de columna, son el resultado de aplicar una operacion
bij = (H )ik akj = aj si i = . elemental columna a la matriz identidad de una determinada dimension. Por tanto
k=1 aj si i = . tendremos tres tipos de matrices elementales columna:

Vemos que la matriz B se obtiene de la A intercambiando las filas , . 1. ij : Matriz obtenida al intercambiar las columnas i, j de la matriz identidad.
2. Calculemos B = H () A: 2. i () : Matriz obtenida al multiplicar la columna i de la identidad por 6= 0.
m  3. ij () : Matriz obtenida al sumar en la matriz identidad a la columna i ,la
X aij si i 6= .
bij = H ()ik akj = columna j multiplicada por .
aj si i = .
k=1
Es claro que:
Vemos que la matriz B se obtiene de la A multiplicando la fila por .
3. Calculemos B = H () A: ij = (Hij )t ; i () = (Hi ())t ; ij () = (Hij ())t ;

m  Como consecuencia de esto, las matrices elementales columna cumplen propiedades


X aij si i 6= . analogas a las de las matrices elementales fila.
bij = H ()ik akj =
aij + aj si i = .
k=1

Teorema 4.3 Realizar una operacion elemental columna sobre una matriz A
Vemos que la matriz B se obtiene de la A sumandole a la fila la fila multi-
Mmn es lo mismo que multiplicar dicha matriz por la derecha por la correspon-
plicada por .
diente matriz elemental de columna de dimension n.

Proposicion 4.2 Todas las matrices elementales de fila son inversibles. En parti-
Proposicion 4.4 Todas las matrices elementales de columna son inversibles. En
cular:
particular:
1
(Hij )1 = Hij ; (Hi ())1 = Hi ( ); (Hij ())1 = Hij (); 1
(ij )1 = ij ; (i ())1 = i ( ); (ij ())1 = ij ();

Prueba: Basta tener en cuenta lo siguiente:


- La operacion elemental inversa de intercambiar las filas i, j es volver a intercam-
biar dichas filas.
- La operacion elemental inversa de multiplicar la fila i por es dividirla por .
- La operacion elemental inversa de sumarle a la fila i, la fila j multiplicada por
, es restarle a la fila i la fila j multiplicada por .

4.3 Operaciones elementales de columna.


Las operaciones elementales de columna son:

1. ij : Permuta la columna i con la columna j.


2. i () : Multiplica la columna i por un escalar 6= 0.
3. ij () : A la columna i se le suma la columna j multiplicada por .

11
Tema I. Captulo 4. Determinantes. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

4. Determinantes. 2 Determinante de una matriz cuadrada.

2.1 Definicion.
1 Preliminares sobre permutaciones.
Dada una matriz cuadrada A, llamaremos Ai a cada una de sus filas:
Definicion 1.1 Dado un numero natural n llamamos conjunto de permuta-
a11 a12 ... a1n
ciones de n elementos y lo denotamos por P erm(n) al conjunto de reordenaciones
posibles de los numeros enteros 1, . . . , n.
a21 a22 ... a2n
A=
... .. .. .. ; Ai = (ai1 , ai2 , . . . , ain ).
. . .
A los elementos de P erm(n) se les denomina permutaciones.
an1 an2 ... ann
De esta forma dar un elemento de P erm(n) es dar una aplicacion:
Definicion 2.1 El determinante de una matriz cuadrada A es una aplicacion del
: {1, . . . , n} {1, . . . , n} conjunto de matrices cuadradas sobre el cuerpo IK:
1 (1)
.. ..

a11 a12 ... a1n
. .
a21 a22 ... a2n

n (n) Mnn IK; |A| = det(A1 , A2 , . . . , An ) = .. .. .. ..
. . . .
de manera que (i) indica que numero colocamos en la posicion i-esima. an1 an2

... ann
Sabemos que n elementos pueden ordenarse de n! maneras distintas, por lo que el
conjunto P erm(n) tiene n! elementos. verificando las siguientes condicion para cualesquiera i, j {1, 2, . . . , n}:

Dada una permutacion podemos considerar la permutacion inversa 1 que 1. Es una aplicacion multilineal:
no es mas que tomar la aplicacion inversa de .
det(A1 , . . . , Ai + A0i , . . . An ) = det(A1 , . . . , Ai , . . . An ) + det(A1 , . . . , A0i , . . . An ).
Definicion 1.2 Llamamos trasposicion a una permutacion que mantiene todos los
elementos en el mismo orden excepto dos de ellos que son intercambiados. det(A1 , . . . , Ai , . . . An ) = det(A1 , . . . , Ai , . . . An ), para cualquier IK.

Puede probarse que toda permutacion se descompone en composicion de trasposi- 2. Es una aplicacion antisimetrica:
ciones. Esto nos permite definir lo siguiente:
det(A1 , . . . , Ai , . . . , Aj , . . . , An ) = det(A1 , . . . , Aj , . . . , Ai , . . . , An ).
Definicion 1.3 Dada una permutacion llamamos signatura de y la denotamos
por () al numero: 3. |In | = 1.
() = (1)k
donde k es el numero de trasposiciones en que puede descomponerse .
2.2 Propiedades.
Puede comporbarse, que aunque el numero de trasposiciones en que puede de- 1. El determinante de una matriz con dos filas iguales es 0:
scomponerse no es unico, si lo es su paridad. De esta forma si una permutacion es
composicion de un numero par de trasposiciones, su signatura sera 1; por el contario det(A1 , . . . , Ai , . . . , Ai , . . . , An ) = 0.
si es composicion de un numero impar de trasposiciones, su signatura sera 1.
Prueba: Como consecuencia de la condicion de antisimetra:
Por otra parte dada una descomposicion en trasposiciones de una permutacion
, parace claro que la permutacion inversa 1 se obtiene componiendo la inversa det(A1 , . . . , Ai , . . . , Ai , . . . , An ) = det(A1 , . . . , Ai , . . . , Ai , . . . , An )
de las trasposiciones. Por tanto la signatura de una permutacion y la de su inversa
coinciden: y por tanto:
() = ( 1 ). 2det(A1 , . . . , Ai , . . . , Ai , . . . , An ) = 0.

12
Tema I. Captulo 4. Determinantes. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2. El determinante de una matriz con una fila nula es 0: 2.4 Determinante de la matriz traspuesta.
det(A1 , . . . , 0, . . . , An ) = 0.
Teorema 2.2 Si A es una matriz cuadrada n-dimensional:
Prueba Por la multilinealidad del determinante:
det(A) = det(At )
det(A1 , . . . , 0, . . . , An ) = 0 det(A1 , . . . , 0, . . . , An ) = 0.

3. Si a una fila se le suma otra multiplicada por un escalar el determinante no Prueba: Utilizamos la formula obtenida en la seccion anterior:
vara:
|At | = P erm(n) ()(At )1(1) (At )2(2) . . . (At )n(n) =
P
P
det(A1 , . . . , Ai , . . . , Aj + Ai , . . . , An ) = det(A1 , . . . , Ai , . . . , Aj , . . . , An ). = P erm(n) ()a(1)1 a(2)2 . . . a(n)n .
Prueba: Utilizamos la multilinealidad del determinante y la primera de las Ahora reescribimos cada monomio anterior utilizando la permutacion inversa de cada
propiedades enumeradas: . Recordemos que la signatura de una permutacion y de su inversa coinciden.
det(A1 , . . . , Ai , . . . , Aj + Ai , . . . , An ) = Queda: X
= det(A1 , . . . , Ai , . . . , Aj , . . . , An ) + det(A1 , . . . , Ai , . . . , Ai , . . . , An ) = |At | = ( 1 )a11 (1) a21 (2) . . . an1 (n) .
= det(A1 , . . . , Ai , . . . , Aj , . . . , An ). P erm(n)

Finalmente si en el sumatorio anterior recorre todas las permutaciones posibles de


2.3 Calculo del determinante. n elementos, entonces 1 tambien recorre todas las permutaciones de n elementos
y as: X
Sea A Mnn una matriz cuadrada n-dimensional. det(At ) = ()a1(1) a2(2) . . . an(n) = det(A).
P erm(n)
Denotamos por Ei a la fila formada por un 1 en la posicion i-esima y 0 en el resto:
Ei = (0, . . . , 0, |{z}
1 , 0, . . . , 0).
Como consecuencia del teorema anterior:
i

Todas las propiedades de los determinantes ciertas


Con esta notacion: para filas son tambien validas para columnas.
n
X
Ai = (ai1 , ai2 , . . . , ain ) = aij Ej .
j=1
2.5 Determinante del producto de matrices.
Ahora calculemos el determinate de A:
n
X n
X n
X Teorema 2.3 Sean A, B dos matrices cuadradas n dimensionales. Entonces:
det(A) = det(A1 , A2 , . . . , An ) = det( a1i1 Ei1 , a2i2 Ei2 , . . . , anin Ein )
det(AB) = det(A)det(B).
i1 =1 i2 =1 in =1

Teniendo en cuenta la multilinealidad del determinante obtenemos:


n
Prueba: Denotamos por C = AB a la matriz producto de A y B. Sabemos que:
X
det(A) = a1i1 a2i2 . . . anin det(Ei1 , Ei2 , . . . , Ein ). n
X n
X
i1 ,i2 ,...,in =1 cij = aik bkj , y por tanto Ci = aik Bk .
k=1 k=1
Ahora en la expresion det(Ei1 , Ei2 , . . . , Ein ) si aparecen dos filas repetidas el
determinante es cero, en otro caso siempre podemos reordenar las filas como Entonces:
det(E1 , E2 , . . . , En ), teniendo en cuenta que por cada cambio de posicion de dos Pn Pn Pn
|C| = det(C1 , C2 , . . . , Cn ) = det( k1 a1k1 Bk1 , k2 a1k2 Bk2 , . . . , a1kn Bkn ) =
filas la expresion cambia de signo. Como consecuencia de esto y con la notacion Pn kn

descrita en la seccion preliminar del captulo, la formula del determinante queda: = k1 ,k2 ,...,kn a1k1 a1k2 . . . a1kn det(Bk1 , Bk2 , . . . , Bkn ).

det(A) =
P
()a1(1) a2(2) . . . an(n) Pero si algun ki = kj entonces det(Bk1 , Bk2 , . . . , Bkn ) es nulo. Nos quedamos solo
P erm(n)
con los terminos donde aparecen los ndices k1 , . . . , kn tomando todos los posibles

13
Tema I. Captulo 4. Determinantes. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

valores entre 1 y n, pero quiza en otro orden. Es decir, esos ndices determinan una Prueba: Llamamos B a la matriz:
permutacion de n elementos de manera que ahora la expresion anterior se escribe

1 0 ... 0
como: a21 a22 ... a2n
X B=
... .. .. ..
|C| = a1(1) a2(2) . . . an(n) det(B(1) , B(2) , . . . , B(n) ) . . .
P erm(n) an1 an2 ... ann
Utilizando la formula para el determinante tenemos:
Reordenamos las filas B(1) , B(2) , . . . , B(n) como B1 , . . . , Bn teniendo en cuenta X
que por cada cambio de posicion de dos ndices el determinante cambia de signo. |B| = ()b1(1) b2(2) . . . bn(n)
Obtenemos: P erm(n)

Pero bij = 0 si i = 1 y j > 1. Ademas b11 = 1. Si es una permutacion que cambia


X
|C| = ()a1(1) a2(2) . . . an(n) det(B1 , B2 , . . . , Bn ) = det(A)det(B).
de posicion el uno ((1) 6= 1) entonces b1(1) = 0 y el correspondiente termino del
P erm(n)
sumatorio se anula. Teniendo en cuenta esto, podemos quedarnos unicamente con
las permutaciones que dejan fijo el 1. Estas pueden entenderse como permutaciones
solo de los numeros 2, . . . , n,de manera que obtenemos:
3 Desarrollo de un determinante por menores. P
|B| = P erm(2,...,n) ()b2(2) b3(3) . . . bn(n)
P
= P erm(2,...,n) ()a2(2) a3(3) . . . an(n) = A11 .
3.1 Menores de una matriz.
Definicion 3.1 Dada una matriz A Mmn se llama menor de orden r de dicha
matriz al determinante que se obtiene quedandonos con los elementos de las r filas y Corolario 3.4 Dada una matriz cuadrada A Mnn :
r columnas que se indiquen:

a11 ... a1j ... a1n
.. .. ..

.. ..
ai1 j1 ai1 j2 ... ai1 jr . . . . .
ai2 j1 ai2 j2 ... ai2 jr
 
i1 i2 . . . ir ai1 1 ... ai1 j ... ai1 n
A = . .. .. ..
Aij = 0

... 1 ... 0

j1 j2 . . . jr .. . . .

a ... ai+1 j ... ai+1 n
a
ir j1 air j2 ... air jr i+1 1
. .. .. .. ..
.. . . . .
con i1 < i2 < . . . < ir y j1 < j2 < . . . < jr .
an1 ... anj ... ann

Prueba: Basta aplicar el resultado anterior teniendo en cuenta que podemos mover
3.2 Adjuntos de una matriz. la fila i-esima y columna j-esima hasta la posicion 1, 1. Para ello hacemos i 1, j 1
cambios de signo, por lo que aparece el termino:
Definicion 3.2 Dada una matriz cuadrada A Mnn se llama adjunto Aij al
menor obtenido de suprimir la fila i-esima y la columna j-esima multiplicado por el (1)i1+j1 = (1)i+j .
factor (1)i+j .

Se cumple la siguiente propiedad:


3.3 Desarrollo del determinante por filas y por columnas.
Proposicion 3.3 Dada una matriz cuadrada A Mnn : Veamos como calcular un determinante de una matriz cuadrada A desarrollando
por la fila i-esima:
1 0 ... 0
a21 a22 ... a2n |A| = det(A1 , . . . , Ai , . . . , An ) =

A11 = .. .. .. .. = det(A1 , . . . , ai1 E1 . . . + ain En , . . . , An ) =
. . . .
an1 an2 = ai1 det(A1 , . . . , E1 , . . . , An ) + . . . + ain det(A1 , . . . , En , . . . , An )
... ann = ai1 Ai1 + . . . + ain Ain .

14
Tema I. Captulo 4. Determinantes. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Deducimos la siguientes formula para el calculo de un determinante desarrollando Calculemos ahora el producto:
por la fila i-esima:
Pn B = A (adjA).
|A| = j=1
aij Aij
Se tiene:
y la analoga desarrollando por la columna j-esima: n
X n
X
Pn bij = aik (adjA)kj = aik Ajk .
|A| = i=1
aij Aij k=1 k=1

Si i = j:
n
La importancia de ambas formulas es que nos permiten reducir el calculo de un X
determinante n-dimensional a uno n1-dimensional, pudiendo repetir esta reduccion bii = aik Aik = |A|.
de la dimension del problema cuantas veces deseemos. k=1

Si i 6= j,
n n
X X
bij = aik Ajk = aik Cik = |C|,
4 Rango de una matriz. k=1 k=1

donde C es una matriz igual a la matriz A, salvo en la fila j-esima que es tomada
Definicion 4.1 Dada una matriz A definimos el rango de una matriz como el igual a la i-esima. Como consecuencia de esto |C| = 0 y queda:
mayor orden de todos los menores de A distintos de 0.
A (adjA) = |A|Id.

Como consecuencia de las propiedades del determinante se verifica: Por otra parte:

1. El rango de una matriz coincide con el de su traspuesta. (adjA) A = (At (adjA)t )t = (At (adjAt ))t = |At |Idt = |A|Id

2. Si efectuamos operaciones elementales fila o columna sobre una matriz su rango Por tanto si |A| =
6 0:
no vara.
1
A |A|
(adjA) = Id
1
A1 = (adjA).
1 |A|
(adjA) A = Id
5 Inversa de una matriz. |A|

Como consecuencia de todo esto se verifica el siguiente teorema:


El uso de determinantes nos proporciona un metodo para calcular la inversa de una
matriz cuadrada A. Observemos que una condicion necesaria para que una matriz
cuadrada A tenga inversa es que su determinante sea no nulo, ya que: Teorema 5.2 Sea A una matriz cuadrada n-dimensional. A es inversible (o regular;
o no singular) si y solo si su determinante es no nulo. En ese caso se verifica:
1
A A1 = Id det(A)det(A1 ) = 1 det(A) 6= 0 y det(A1 ) = .
det(A) 1 1
A1 = (adjA) y |A1 | =
|A| |A|
Introducimos la siguiente definicion:

Definicion 5.1 Dada una matriz cuadrada A llamamos matriz adjunta de A a la


traspuesta de la matriz de adjuntos:

A11 A21 ... An1
A12 A22 ... An2
(adjA) =
... .. .. .. .
. . .
An1 An2 ... Ann

15
Tema I. Captulo 5. Equivalencia, congruencia y semejanza de matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

5. Equivalencia, congruencia y seme- 1.2 Forma reducida de una matriz respecto de la equiva-
janza de matrices. lencia de filas.
Dada una matriz A Mmn , se trata de aplicarle operaciones elementales filas hasta
obtener una matriz equivalente por filas lo mas sencilla posible (formada por unos
1 Equivalencia de matrices por filas. y ceros). Para ello se iran simplificando sucesivamente las columnas de la matriz A.
El procedimiento es el siguiente:
1.1 Definicion y propiedades. 1. Si en la primera columna hay un elemento distinto de 0, lo llevamos a la posicion
1, 1 mediante una cambio de filas H1j . Si todos los elementos son nulos, se pasa
Definicion 1.1 Dos matrices A, B Mmn se dicen equivalentes por filas o a la siguiente columna.
equivalentes por la izquierda cuando se puede pasar de una a otra mediante un
2. Ahora el elemento a01,1 de la posicion 1, 1 se hace igual a 1 dividiendo la fila por
numero finito de operaciones fila:
su valor. La operacion elemental es H1 ( a10 ).
11

A, B equivalentes por filas B = Hp Hp1 . . . H1 A. 3. Se hacen ceros en la primera columna, debajo del 1 obtenido antes. Para ello
sucesivamente se van haciendo las operaciones Hj1 (a0j1 ).
4. Se vuelve a repetir el proceso analogo con la siguiente columna, teniendo en
Veamos algunas propiedades:
cuenta que cada vez que conseguimos una columna con un 1 y los demas ele-
mentos nulos, la fila donde aparece el 1 no se volvera a modificar.
1. La equivalencia por filas es una relacion de equivalencia.
Prueba: Comprobamos que cumple las tres propiedades que han de verificar
las relaciones de equivalencia. 1.3 Equivalencia por filas de una matriz cuadrada regu-
- Reflexiva. Esta claro que toda matriz es equivalente por filas a s misma. lar.
- Simetrica. Si A y B son equivalentes por filas:
Teorema 1.2 Si A es una matriz cuadrada regular n-dimensional entonces es equi-
B = Hp Hp1 . . . H1 A A = H11 . . . Hp1
1
Hp1 B. valente por filas a la matriz identidad.

Teniendo en cuenta que la inversa de una operacion elemental fila vuelve a ser Prueba: Basta aplicar el proceso descrito en la seccion anterior a la matriz A.
una operacion elemental fila, deducimos que B y A son equivalentes por filas. Teniendo en cuenta que A es regular, todas la matrices equivalentes a ellas por
- Transitiva: Si A y B son equivalentes por filas y B y C tambien se tiene: filas tambien lo son. Por tanto en cada uno de los pasos que hacemos durante su
reduccion nunca puede aparecer ni una fila de ceros ni una columna de ceros. Como
consecuencia de esto al terminar el proceso de reduccion por filas siempre se llega a

B = Hp Hp1 . . . H1 A
C = Hq0 Hq1
0
. . .H10 Hp Hp1 . . .H1 A la matriz identidad.
C = Hq0 Hq1
0
. . . H10 B

y por tanto A y C son equivalentes por filas. Corolario 1.3 Si A es una matriz cuadrada regular n-dimensional entonces se des-
compone en transformaciones elementales fila.
2. Dos matrices equivalentes por filas tienen la misma dimension.
3. Dos matrices equivalentes por filas tienen el mismo rango. Prueba: Por el resultado anterior, Id y A son equivalenes por filas y por tanto:
Prueba: Vimos que el rango de una matriz no vara si realizamos transforma- A = Hp Hp1 . . . H1 Id = Hp Hp1 . . . H1 .
ciones elementales sobre una matriz.
Observacion: Dos matrices que tengan el mismo rango no tienen porque ser
equivalentes por filas. Por ejemplo:
    Corolario 1.4 Dos matrices A, B Mmn son equivalentes por filas si y solo si
1 0 0 1 existe una matriz regular P Mmm tal que:
A= ; B= .
0 0 0 0 B = P A.

16
Tema I. Captulo 5. Equivalencia, congruencia y semejanza de matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Prueba: Por la definicion de equivalencia por filas esta claro que si son equivalentes 3. Dos matrices equivalentes por columnas tienen el mismo rango.
por filas existe la matriz P . Recprocamente si existe una matriz P regular por el Observacion: El recproco no tiene porque ser cierto.
corolario anterior sabemos que descompone en transformaciones elementales fila y
por tanto: Ademas el proceso analogo a la reduccion por filas, nos permite calcular la forma
reducida respecto a equivalencia por columnas.
B = PA B = Hp Hp1 . . . H1 A A, B equivalentes por filas.
Finalmente se cumplen los siguientes resultados:

Teorema 2.2 Si A es una matriz cuadrada regular n-dimensional entonces es equi-


Observacion 1.5 Si hacemos operaciones fila sobre una matriz A hasta llegar a valente por columnas a la matriz identidad.
otra B, podemos saber cual es la matriz P con B = P A, de dos formas:
- Bien haciendo sobre la identidad, las mismas transformaciones fila que hicimos Corolario 2.3 Si A es una matriz cuadrada regular n-dimensional entonces se des-
sobre B. compone en transformaciones elementales columna.
- Bien realizando todo el proceso al mismo tiempo. Para ello colocamos al lado de
A la matriz identidad y hacemos operaciones fila: Corolario 2.4 Dos matrices A, B Mmn son equivalentes por columna si y solo
si existe una matriz regular Q Mnn tal que:
( A | I ) Operaciones fila ( B | P )
B = AQ.
1.4 Calculo de la inversa mediante operaciones fila.
Si A es una matriz cuadrada regular podemos calcular su inversa mediante opera-
Utilizando los resultados sobre equivalencia por filas vistos hasta ahora, podemos ciones columna:
hallar la inversa de una matriz cuadrada regular de la siguiente forma.    
A I
Operaciones columna .
Colocamos a la derecha de la matriz A la identidad. Reducimos la matriz A hasta I A1
convertirla en la identidad haciendo operaciones fila por el metodo descrito en este
tema. Al final a la derecha nos quedara la matriz inversa de A:

( A | I ) Operaciones fila ( I | A1 ) .
3 Equivalencia de matrices

3.1 Definicion y propiedades.


2 Equivalencia de matrices por columnas.
Definicion 3.1 Dos matrices A, B se dicen equivalentes si se puede pasar de la
una a la otra mediante un numero determinado de opericiones fila y/o columna:
Definicion 2.1 Dos matrices A, B Mmn se dicen equivalentes por columnas
o equivalentes por la derecha cuando se puede pasar de una a otra mediante un B = Hp . . . H1 . . . A 1 . . . q .
numero finito de operaciones columna:

A, B equivalentes por columnas B = A 1 2 . . . p . Teorema 3.2 Dos matrices A, B son equivalentes si y solo si exiten matrices
cuadradas regular P, Q tales que:
Teniendo en cuenta que se puede pasar de operaciones columna a fila trasponiendo,
B = P AQ.
todas las propiedades de la equivalencia por filas las cumple tambien la equivalencia
por columnas:
Prueba: Es consecuencia directa de los teoremas analogos vistos para equivalencia
1. La equivalencia por columnas es una relacion de equivalencia. por filas y por columnas.
2. Dos matrices equivalentes por columnas tienen la misma dimension. La equivalencia de matrices cumple las siguientes propiedades:

17
Tema I. Captulo 5. Equivalencia, congruencia y semejanza de matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

1. La equivalencia de matrices es una relacion de equivalencia. 4 Congruencia de matrices cuadradas.


Prueba: Comprobamos que cumple las tres propiedades que han de verificar
las relaciones de equivalencia. 4.1 Definicion y propiedades.
- Reflexiva. Esta claro que toda matriz es equivalente a s misma.
- Simetrica. Si A y B son equivalentes existen matrices cuadradas regulares Definicion 4.1 Dos matrices A y B cuadradas son congruentes si se pasa de A
P, Q con: a B mediante un numero finito de operaciones elementales fila y las mismas opera-
ciones y en el mismo orden pero en columnas
B = P AQ A = P 1 BQ1 .

Y vemos que B y A son equivalentes. B = Hp . . . H1 A 1 . . . p con i = Hit .

- Transitiva: Si A y B son equivalentes y B y C tambien, entonces existen


matrices cuadradas regulares P, Q, P 0 , Q0 : Teorema 4.2 Dos matrices A y B cuadradas son congruentes si y solo si existe
una matriz cuadrada regular P verificando:

B = P AQ
C = P 0 P BQQ0 B = P A P t.
C = P 0 BQ0

donde P 0 P y QQ0 son matrices cuadradas regulares. Por tanto A y C son Prueba: Es consecuencia directa de que toda matriz regular se descompone en
equivalentes. transformaciones elementales fila.
La congruencia de matrices cuadradas cumple las siguientes propiedades:
2. Dos matrices equivalentes tienen la misma dimension.

3. Dos matrices equivalentes tienen el mismo rango. 1. La congruencia es una relacion de equivalencia.
Observacion: Como veremos mas adelante, en este caso el recproco si es Prueba: Comprobamos que cumple las tres propiedades que han de verificar
cierto, siempre y cuando las matrices sean de igual dimension. Es decir dos las relaciones de equivalencia.
matrices son equivalentes si y solo si tienen igual rango y dimension. - Reflexiva. Esta claro que toda matriz es congruente a s misma.
- Simetrica. Si A y B son congruentes existe una matriz cuadrada regular P
con:
3.2 Formas reducidas en la equivalencia. B = P AP t B = P 1 B(P 1 )t .
Y vemos que B y A son congruentes.
Teorema 3.3 Sea A Mmn una matriz cualquiera. A es equivalente a una de las - Transitiva: Si A y B son congruentes y B y C tambien, entonces existen
siguientes matrices: matrices cuadradas regulares P, P 0 :
    
Ir Ir B = P AP t
Ir ; o ; o ( Ir ); o . C = P 0 P BP t P 0t = P 0 P B(P 0 P )t
C = P 0 BP 0t

donde r = rango(A). Estas matrices se llaman formas canonicas de equivalencia. donde P 0 P es una matriz cuadrada regular. Por tanto A y C son congruentes.
2. Dos matrices congruentes son equivalentes.

Prueba: Basta tener en cuenta que, haciendo operaciones elementales fila y columna 3. Dos matrices congruentes tienen la misma dimension.
sobre A, mediante los procesos descritos para la reduccion por filas y por columnas 4. El determinante de dos matrices reales congruentes tiene el mismo signo.
siempre se llega a una de las matrices anteriores. Prueba: Si A y B son congruentes, existe P regular con:

B = P AP t det(B) = det(P )det(A)det(P t ) = det(A)det(P )2 .


Corolario 3.4 Dos matrices A y B son equivalentes si y solo si tienen la misma
dimension y el mismo rango. En IR, det(P )2 > 0 y por tanto det(A) y det(B) son de igual signo.

18
Tema I. Captulo 5. Equivalencia, congruencia y semejanza de matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

5. Dos matrices congruentes tienen el mismo rango. 3. Ahora repetimos todo el proceso sucesivamente con las otras filas y columnas,
Observacion: El recproco no es cierto. Por ejemplo las siguientes matrices teniendo en cuenta que las filas y columnas que ya han sido reducidas no vuelven
tienen rango 2 pero no son congruentes: a ser modificadas y por tanto no se utilizan en el paso siguiente.
    4. Al terminar el proceso habremos conseguido una matriz diagonal D congruente
1 0 1 0 con A.
y .
0 1 1 1
Observacion 4.5 En el proceso de diagonalizacion descrito en teorema anterior,
podemos obtener la matriz P que nos permite pasar de A a la diagonal D:
4.2 Congruencia de matrices simetricas.
D = P AP t .
Teorema 4.3 Toda matriz congruente con una matriz simetrica es simetrica. Podemos proceder de manera analoga a como lo hacamos en la reduccion por equiv-
alencia:
( A | I ) Reduccion por congruencia ( D | P ) .
Prueba: Supongamos que A es simetrica y B es congruente con A. Entonces existe
una matriz cuadrada regular P con:

B = P AP t . 4.3 Formas canonicas de las matrices simetricas.

Veamos que B es simetrica, es decir, que verifica B t = B: Teorema 4.6 Sea A una matriz cuadrada simetrica sobre el cuerpo de los numeros
complejos. Entonces A es congruente con una matriz de la forma:
B t = (P AP t )t = P At P t = P AP t = B.  
Ir
.

donde r = rango(A). A esta matriz se le llama forma canonica por congruencia
Teorema 4.4 La condicion necesaria y suficente para que una matriz cuadrada A en C.
I
sea diagonalizable por congruencia es que sea simetrica.
Prueba: Hemos visto que toda matriz cuadrada simetrica A es congruente con una
diagonal D. Pero aun podemos hacer la siguiente simplificacion. Para cada elemento
Prueba: dii no nulo de D hacemos las operaciones fila y columna Hi ( 1 ) y i ( 1 ). Siem-
dii dii
= Si A es diagonalizable por congruencia, entonces existe una matriz D dia- pre puede hacerse en el cuerpo de los numero complejos porque en C I siempre
gonal congruente con A. Como D es simetrica A tambien lo es. existen races cuadradas. De esta forma conseguimos una matriz congruente con A
= Supongamos que A es simetrica. Los pasos para diagonalizarla por con- como la descrita en el enunciado del teorema.
gruencia son los siguientes:
Teorema 4.7 Sea A una matriz cuadrada simetrica sobre el cuerpo de los numeros
reales. Entonces A es congruente con una matriz de la forma:
1. Si algun elemento de la diagonal de A es no nulo (por ejemplo akk ) lo llevamos
a la posicion 11, mediante las operaciones H1k y 1k . Ip
Si todos los elementos de la diagonal de A son nulos, entonces tomamos cualquier Iq ,
otro elemento no nulo en otra posicion i, j, y hacemos la operacion Hji (1) y
ji (1) de manera que en la posicion j, j conseguiremos un elemento distinto de
donde p + q = rango(A), p, q 0. A esta matriz se le llama forma canonica por
cero. Ahora podemos aplicar el paso anterior.
congruencia en IR.
Si todos los elementos de A son nulos, hemos terminado de diagonalizar.
2. Utilizamos el elemento no nulo de A para hacer ceros en la primera fila y en Prueba: Procedemos como en el teorema anterior. El unico problema es que ahora
la primera columna. Vamos haciendo la operacion Hi1 ( a i1
a11
) y la analoga no existen races cuadradas reales de numeros negativos. Por tanto sobre la matriz
ai1
en columnas i1 ( a11 ), para i > 1. Teniendo en cuenta que la matriz es D hacemos lo siguiente. Para cada elemento dii no nulo de D hacemos las opera-
simetrica conseguimos ceros en la primera fila y columna salvo en la posicion ciones fila y columna Hi ( 1 ) y i ( 1 ). De esta forma conseguimos una matriz
|dii | |dii |
1, 1. congruente con A como la descrita en el enunciado del teorema.

19
Tema I. Captulo 5. Equivalencia, congruencia y semejanza de matrices. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

5 Semejanza de matrices cuadradas.


Definicion 5.1 Dos matrices cuadradas A y B se dice que son semejantes si existe
una matriz cuadrada regular P tal que:

B = P A P 1 .

La semejanza de matrices cuadradas cumple las siguientes propiedades:

1. La semejanza es una relacion de equivalencia.


Prueba: Comprobamos que cumple las tres propiedades que han de verificar
las relaciones de equivalencia.
- Reflexiva. Esta claro que toda matriz es semejante a s misma.
- Simetrica. Si A y B son semejantes existe una matriz cuadrada regular P con:

B = P AP 1 B = P 1 B(P 1 )1 .

Y vemos que B y A son semejantes.


- Transitiva: Si A y B son semejantes por y B y C tambien, entonces existen
matrices cuadradas regulares P, P 0 :

B = P AP 1
C = P 0 P BP 1 P 01 = P 0 P B(P 0 P )1
C = P 0 BP 01

donde P 0 P es una matriz cuadrada regular. Por tanto A y C son semejantes.


2. Dos matrices semejantes son equivalentes.
3. Dos matrices semejantes tienen la misma dimension.
4. Dos matrtices semejantes tienen el mismo determinante.
Prueba: Si B = P AP 1 :

|B| = |P AP 1 | = |P ||A||P |1 = |A|.

5. Dos matrices semejantes tienen el mismo rango.


Observacion: El recproco no es cierto. Por ejemplo las siguientes matrices
tienen rango 2 pero no son semejantes:
   
1 0 2 0
y .
0 1 0 1

20
Tema II. Captulo 1. Espacios vectoriales y subespacios vectoriales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Tema II 1.2 Propiedades


1. 0 = 0, para cualquier IK.
Espacios vectoriales Prueba: Se tiene:

0 = (0 + 0) = 0 + 0 0 = 0.
1. Espacios vectoriales y subespacios
vectoriales. 2. 0 x = 0, para cualquier x V .
Prueba: Se tiene:

1 Espacios vectoriales. 0 x = (0 + 0) x = 0 x + 0 x 0 x = 0.

1.1 Definicion. 3. x = 0 = 0, o x = 0.
Prueba: Si x = 0 y 6= 0 entonces tiene inverso y:
Definicion 1.1 Sea IK un cuerpo conmutativo y V un conjunto no vaco. Se dice
que V tiene estructura de espacio vectorial sobre IK si cumple: x = 1 x = (1 ) x = 1 ( x) = 1 0 = 0.

1. Existe una operacion interna (que se llama suma) con la cual V tiene estructura
4. (1) x = x, para cualquier x V .
de grupo abeliano, es decir, se verifica:
Prueba: Basta tener en cuenta que:
(a) Propiedad asociativa: x+(y+z) = (x+y)+z, para cualesquiera x, y, z V .

(b) Elemento neutro: 0 V tal que 0 + x = x + 0 = x, para cualquier x V . (1) x + x = (1 + 1) x = 0 x = 0
x = (1) x.
(c) Elemento opuesto: para cualquier x V , (x) V con x + (1) x = (1 1) x = 0 x = 0

x + (x) = (x) + x = 0.
5. () x = (x) = ( x), para cualesquiera IK, x V .
(d) Conmutativa: x + y = y + x, para cualesquiera x, y V . Prueba: Por las propiedades anteriores:

2. Existe una operacion externa () : IK V V verificando: () x = (1) ( x) = ( x).


(a) 1 x = x para cualquier x V . () x = () ((1) x) = (x).

(b) () x = ( x), para cualesquiera , IK y x V .


6. Si 6= 0 y x = y entonces x = y.
(c) ( + ) x = x + x, para cualesquiera , IK y x V .
Prueba: Si 6= 0 entonces tiene inverso y:
(d) (x + y) = x + y, para cualesquiera x, y V y IK.
x = y (1 ) x = 1 ) y x = y.
A los elementos de un espacio vectorial se les llama vectores.

7. Si x 6= 0 y x = x entonces = .
Algunos de los ejemplos mas usuales de espacios vectoriales son:
Prueba: Se tiene:
1. V = IK es un espacio vectorial sobre IK.
x = x ( ) x = 0.
2. V = Mmn (IK) es el espacio vectorial sobre IK de matrices m n.
3. V = Snn (IK) es el espacio vectorial sobre IK de matrices simetricas n n. Como x = 0, por las propiedades anteriores deducimos que:
4. V = Pn (IK) es el espacio vectorial de polinomios con coeficientes en IK de grado
menor o igual que n. =0 = .

21
Tema II. Captulo 1. Espacios vectoriales y subespacios vectoriales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2 Subespacios vectoriales. 2.2 Interseccion de subespacios vectoriales.


Proposicion 2.4 Sean S1 y S2 dos subespacios vectoriales de V , la interseccion
2.1 Definicion y caracterizaciones. S1 S2 es un subespacio vectorial.
Definicion 2.1 Dado un espacio vectorial V sobre un cuerpo IK, un subconjunto
S V no vaco se dice un subespacio vectorial de V si S es un espacio vectorial Prueba: En primer lugar tenemos en cuenta que S1 S2 es no vaco, porque 0 S1 y
sobre IK con la restriccion de las operaciones de V . 0 S2 . Ahora comprobamos la condicion de subespacio vectorial. Sean x, y S1 S2
y , IK. Se tiene:
En realidad para identificar los subespacios vectoriales se suele utilizar una de las

x, y S1 S2 x, y S1 x + y S1
siguientes caracterizaciones: x+ y S1 S2 .
x, y S1 S2 x, y S2 x + y S2

Teorema 2.2 Sea V un espacio vectorial sobre IK y S V un subconjunto no vaco.


S es un subespacio vectorial precisamente si se verifica:

1. x + y S, para cualesquiera x, y S.
2.3 Suma de subespacios vectoriales.
2. x S, para cualquier IK, x S. En primer lugar observemos que la union de subespacios vectoriales no tiene por que
ser un subespacio vectorial. Por ejemplo consideramos:
Equivalente, si se verifica:
V = IR2 ; S1 = {(x, 0) IR2 , x IR}; S2 = {(0, y) IR2 , y IR}.
a. x + y S, para cualesquiera x, y S, , IK.
Si tomamos (1, 0) S1 S2 y (0, 1) S1 S2 , se tiene (1, 0) + (0, 1) = (1, 1) 6 S1 S2
Prueba: Si se cumplen las condiciones 1 y 2 las operaciones interna y externa y por tanto la union de S1 y S2 no es un subespacio vectorial.
de V restringen a S. Por tanto por ser V espacio vectorial tambien lo es S. Sin embargo, dados dos subespacios vectoriales si podremos definir el subespacio
Recprocamente, si S es subespacio vectorial de V , las operaciones han de restringir suma, mayor que la union.
y se cumplen las condiciones 1 y 2.
Por otra parte veamos la equivalencia entre las condiciones 1,2 y la condicion a. Definicion 2.5 Sean S1 y S2 dos subespacios vectoriales de V , definimos la suma
1,2 a: de S1 y S2 como:

x S e IK x S. S1 + S2 = {x1 + x2 con x1 S1 y x2 S2 }
Por la condicion 2:
y S e IK y S.
Proposicion 2.6 La suma de dos subespacios vectoriales es un subespacio vectorial.
Y ahora:
Prueba: Sean S1 , S2 V dos subespacios vectoriales de V . Tomemos x, y S1 + S2

x S
Por la condicion 1: x + y S. y , IK. Se tiene:
y S
x S1 + S2 x = x1 + x2 , con x1 S1 , x2 S2
a 1,2: y S1 + S2 y = y1 + y2 , con y1 S1 , y2 S2
Tomando en la condicion a, = 1, = 1 obtenemos la condicion 1, x + y S. por tanto
Tomando en la condicion a, = 0 obtenemos la condicion 2, x S.
x + y = (x1 + x2 ) + (y1 + y2 ) = x1 + y1 + x2 + y2 S1 + S2 .
| {z } | {z }
S1 S2
Observacion 2.3 En todo espacio vectorial V siempre hay dos subespacios vecto-
riales llamados triviales, el total V y el subespacio cero {0}.

22
Tema II. Captulo 1. Espacios vectoriales y subespacios vectoriales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Proposicion 2.7 La suma de dos subespacios vectoriales es el menor subespacio Definicion 2.11 Sean S1 , S2 . . . , Sk subespacios vectoriales de U . Si (S1 +. . .+Si )
vectorial que contiene a union. Si+1 = {0} para cualquier i, 1 i k 1 entonces al espacio suma S1 +S2 +. . .+Sk
se le llama suma directa de S1 , S2 , . . . , Sk y se denota por:
Prueba: Sean S1 , S2 V dos subespacios vectoriales de V . En primer lugar esta
S1 S2 . . . Sk .
claro que S1 S2 S1 + S2 . Ahora sea S un subespacio conteniendo a S1 S2 y
veamos que S1 + S2 S.
 Proposicion 2.12 Sean S1 , S2 , . . . , Sk subespacios vectoriales de U . La suma S1 +
x1 S1 S1 S2 S S2 + . . . + Sk es una suma directa si y solo si todo elemento de S1 + S2 + . . . + Sk se
x S1 +S2 x = x1 +x2 con x = x1 +x2 S.
x2 S2 S1 S2 S descompone de manera unica como suma de elementos de S1 , S2 , . . . , Sk .

Prueba: Supongamos que la suma es directa. Sea x S1 + . . . + Sk y supongamos


Este concepto de generaliza de manera natural para un numero finito de subespa- que tenemos dos descomposiciones distintas de x:
cios.
x = x1 + . . . + xk = y1 + . . . + yk , xi , yi Si , i = 1, 2, . . . , k.
Definicion 2.8 Sean S1 , S2 , . . . , Sk subespacios vectoriales de V , definimos su
suma como: Entonces aplicando que (S1 +. . .+Sk1 )+Sk es una suma directa vemos que xk = yk ,
y:
S1 + S2 + . . . + Sk = {x1 + x2 + . . . + xk con x1 S1 , x2 S2 , , . . . , xk Sk } x1 + . . . + xk1 = y1 + . . . + yk1 .
Utilizando ahora que (S1 + . . . + Sk2 ) + Sk1 es una suma directa vemos que xk1 =
yk1 ,
2.4 Suma directa. x1 + . . . + xk2 = y1 + . . . + yk2 .

Definicion 2.9 Sean S1 , S2 dos subespacios vectoriales de U . Si S1 S2 = {0}, Repitiendo el proceso deducimos que xi = yi para i = 1, 2, . . . , k.
entonces al espacio suma S1 + S2 se le llama suma directa de S1 y S2 y se denota Recprocamente supongamos que la descomposicion es unica. Veamos que para
por: cualquier i = 2, . . . , k, (S1 + . . . + Si ) + Si+1 es una suma directa.
S1 S2 .
Cualquier x S1 + . . . + Si se escribe como suma de elementos de S1 , . . . , Si . Por
hipotesis esta descomposicion es unica. Aplicando la Proposicion 2.10 deducimos
Proposicion 2.10 Sean S1 , S2 dos subespacios vectoriales de U . La suma S1 + S2
que la suma es directa, es decir, (S1 + . . . + Si ) Si+1 = {0}.
es una suma directa si y solo si todo elemento de S1 + S2 se descompone de manera
unica como suma de un elemento de S1 y otro de S2 .
2.5 Subespacios suplementarios.
Prueba: Supongamos en primer lugar que la suma es directa, es decir S1 S2 = {0}.
Veamos que entonces la descomposicion es unica. Sea x S1 + S2 . Si: Definicion 2.13 Sean S1 , S2 dos subespacios vectoriales de V . Se dice que son
suplementarios si cumplen:
x = x1 + x2 = y1 + y2 con x1 , y1 S1 y x2 , y2 S2
S1 S2 = {0}
entonces
S1 + S2 = V
x1 y1 = y2 x2 S1 S2 x1 y1 = y2 x2 = 0 x1 = y1 , x2 = y2 .
o equivalentemente:
S1 S2 = V.
Ahora supongamos que la descomposicion es unica y veamos que la suma es directa.
Hay que comprobar que S1 S2 = {0}. Sea x S1 S2 ; puede descomponerse como:
Si S1 , S2 son subespacios suplementarios sabemos que un vector x V cualquiera
x = x + 0 con x S1 , 0 S2 , y tambien x = 0 + x con 0 S1 , x S2 . se descompone de manera unica como x = x1 + x2 , con x1 S1 y x2 S2 :
Por la unicidad de la descomposicion deducimos que x = 0. x1 se llama la proyeccion de x sobre S1 paralelamente a S2 .
Este concepto puede ser generalizado a mas de dos subespacios. x2 se llama la proyeccion de x sobre S2 paralelamente a S1 .

23
Tema II. Captulo 1. Espacios vectoriales y subespacios vectoriales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

De esta forma podemos definir la siguientes funciones proyeccion:

p1 : V V p2 : V V
x x1 x x2

Estas funciones verifican las siguientes propiedades:

1. p1 + p2 = Id.
2. p1 p1 = p1 y p2 p2 = p2 .
3. p1 p2 = p2 p1 = 0.

24
Tema II. Captulo 2. Sistemas generadores. Sistemas libres. Bases. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2. Sistemas generadores. Sistemas li- 1. A B L{A} L{B}.

bres. Bases. 2. x L{A} L{A {x}} = L{A}.


Prueba: Basta tener en cuenta que

A A {x} L{A} L{A {x}},


1 Combinacion lineal de vectores.
y que L{A} es un subespacio vectorial que contiene a A {x}.
3. L{L{A}} = L{A}.
1.1 Combinacion lineal.
Prueba: Ya que L{A} es el menor subespacio vectorial que contiene a L{A}.
Definicion 1.1 Sea V un espacio vectorial sobre IK. Se llama combinacion lineal 4. Todo subespacio vectorial es una envolvente lineal.
de una familia de vectores {x1 , . . . , xn } a cualquier vector de la forma: Prueba: Ya que si S es un subespacio vectorial, L{S} = S.

y = 1 x1 + . . . + n xn , con 1 , . . . , n IK.
1.3 Sistemas equivalentes.
1.2 Envolvente lineal. Definicion 1.4 Sea V un espacio vectorial sobre IK. Se dice que dos conjuntos de
vectores son sistemas equivalentes si generan el mismo subespacio vectorial:
Definicion 1.2 Sea V un espacio vectorial sobre IK. Dado un subconjunto A V
se llama envolvente lineal generada por A al conjunto de vectores que se pueden A, B equivalentes L{A} = L{B}.
poner como combinacion lineal de elementos de A:
X Proposicion 1.5 Dos sistemas A y B son equivalentes si y solo si A L{B} y
L{A} = { i xi | i IK, xi A} B L{A}.
Al conjunto A se le llama sistema generador de L{A}. Si L{A} = V el conjunto
A se llama simplemente un sistema generador del espacio vectorial. Prueba:
=:
Veamos una caracterizacion de la envolvente lineal: Si A, B son equivalentes, L{A} = L{B} y esta claro que A L{B} y B L{A}.
=:
Proposicion 1.3 Sea V un espacio vectorial sobre IK y A un subconjunto de V . La
envolvente lineal de A es el menor subespacio vectorial que contiene a A. Supongamos que A L{B} y B L{A}. Entonces:

A L{B} L{A} L{L{B}} = L{B}.


Prueba: En primer lugar, razonemos que L{A} es un subespacio vectorial. Basta B L{A} L{B} L{L{A}} = L{A}.
tener en cuenta que 0 L{A} y si x, y son combinaciones de elementos de A, entonces
x + y es combinacion de elementos de A para cualquier , IK.
Por otra parte, es claro que A L{A}. 2 Dependencia e independencia lineal de vec-
Finalmente, veamos que si S es cualquier otro subespacio vectorial conteniendo a tores.
A, entonces L{A} S. Si v L{A}:
Definicion 2.1 Se dice que un sistema de vectores {x1 , . . . , xn } es linealmente
v = 1 a1 + . . . + n an con ai A S. independiente o un sistema libre si verifica:
Pero por ser S subespacio vectorial, la combinacion lineal de vectores de S sigue 1 x1 + . . . + n xn = 0 1 = . . . = n = 0.
perteneciendo a S. Por tanto v S.
Como consecuencia de la defincion y esta proposicion deducimos algunas Diremos que son linealmente dependientes o un sistema ligado cuando no
propiedades: son independientes.

25
Tema II. Captulo 2. Sistemas generadores. Sistemas libres. Bases. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Proposicion 2.2 Un sistema de vectores {x1 , . . . , xn } es linealmente dependiente si 3 Bases, dimension y coordenadas.
y solo si uno de los vectores es combinacion lineal de los demas.

Prueba:
3.1 Bases y dimension.
=: Definicion 3.1 Dado un espacio vectorial V , un conjunto ordenado de vectores B =
{x1 , . . . , xn } se dice que es una base si es un sistema libre y genera todo V .
Supongamos que son dependientes. Entonces existe una combinacion lineal
1 x1 + . . . + n xn = 0
Observacion 3.2 En realidad no es necesario que halla un numero finito de vectores
con algun i0 6= 0. La expresion anterior puede escribirse como: para que formen una base. Sin embargo a lo largo de toda la asignatura tan solo
trabajaremos con bases finitas de espacios vectoriales.
1 n
xi0 = i
x1 + . . . + i xn
| {z }
0 0

no aparece el termino i0 Proposicion 3.3 Sea V un espacio vectorial, si A = {x1 , . . . , xn } es un sistema


generador de V , entonces A contiene una base de V .
y vemos que xi0 es combinacion lineal de los demas.
=. Supongamos que hay un termino xi0 combinacion lineal de los demas. En- Prueba: Si A es un sistema libre ya esta probado.
tonces:
Si no lo es existe un vector xi0 combinacion lineal de los demas. Entonces:
xi0 = 1 x1 + . . . + n xn 1 x1 + . . . + i0 xi0 + . . . + n xn = 0
xi0 L{x1 , . . . , xi0 1 , xio +1 , . . . , xn }
| {z }
no aparece el termino i0
con i0 = 1 6= 0 y por tanto {x1 , . . . , xn } son linealmente dependientes. y por las propiedades de la envolvente lineal:

Observacion 2.3 De la definicion y la proposicion anteriores se deduce: L{x1 , . . . , xi0 1 , xio +1 , . . . , xn } = L{A}

1. Cualquier sistema que contiene al vector 0 es ligado. Ahora tenemos que el sistema {x1 , . . . , xi0 1 , xio +1 , . . . , xn } es generador de V . Si
es ademas libre, hemos terminado. En otro caso, volvemos a razonar como antes
2. El conjunto vaco se considera independiente. obteniendo un nuevo subsistema generador con un vector menos. Como hay un
3. Si a un sistema linealmente independiente le suprimimos un vector, el sistema numero finito de vectores el proceso terminara y obtendremos la base buscada.
que obtenemos sigue siendo libre.
4. Si a un sistema libre le anadimos un vector que no sea combinacion lineal de Observacion 3.4 Este resultado tambien es cierto si A es un conjunto infinito, pero
los vectores del sistema, el nuevo sistema tambien es libre. la prueba es mas delicalda.
Prueba: Supongamos que el sistema inicial libre es {x1 , . . . , xn } y le anadimos
el vector x. Si ahora el nuevo sistema es ligado, se verifica:
Teorema 3.5 (Teorema de Steinitz) Sea V un espacio vectorial. Sea un sistema
x + 1 x1 + . . . + n xn = 0 libre A = {a1 , . . . , am } y una base B = {b1 , . . . , bn }. Entonces m n y existen m
con algun o i no nulo. Como el sistema incial es libre, necesariamente 6= 0. vectores de B que pueden ser sustituidos por los de A.
Obtenemos:
1 n
x = x1 . . . xn Prueba: Si A = el resultado es trivial. Supongamos que A 6= . Como A es un
sistema libre todos los vectores de A son no nulos. Entonces por ser B una base:
y por tanto x sera combinacion lineal del sistema incial.
5. Si a un sistema ligado le anadimos un vector, el nuevo sistema sigue siendo a1 = 1 b1 + . . . + n bn , con i IK, y algun i0 6= 0
ligado.
6. Si A es un conjunto de vectores infinito, decimos que es libre cuando Por comodidad supondremos i0 = 1. Entonces:
todos los subconjuntos finitos son libres y ligado cuando existe un
1 2 n
subsistema ligado. b1 = 1
a1 1 b2 + . . . + 1 bn

26
Tema II. Captulo 2. Sistemas generadores. Sistemas libres. Bases. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Utilizando la proposicion 1.5, vemos que los sistemas {b1 , . . . , bn } y {a1 , b2 , . . . , bn } 3.2 Coordenadas contravariantes.
son equivalentes y por tanto
Definicion 3.6 Sea V un espacio vectorial de dimension finita y B = {e1 , . . . , en }
L{a1 , b2 , . . . , bn } = L{b1 , . . . , bn } = V una base. Dado un vector x V llamamos coordenadas contravariantes de x
en la base B a los escalares (x1 , . . . , xn ) que verifican:
Ademas a1 no puede ser combinacion lineal de b2 , . . . , bn porque entonces tambien
x = x1 e1 + . . . + xn en .
lo sera b1 y B no sera un sistema libre. Teniendo en cuenta las propiedades de la
independencia lineal deducimos {a1 , b2 , . . . , bn } es una base de V .
Veamos que esta definicion tiene sentido.
Si m = 1 hemos terminado. Si no repetimos el proceso. Ahora tenemos que:
En primer lugar por ser B base, es un sistema generador y por tanto todo vector
1 2 n i
a2 = a1 + b2 . . . + bn , con IK, y algun i0
6= 0 de V pude ponerse como combinacion lineal de los elementos de B. Sabemos por
tanto que dado un vector x V , existiran los escalares (x1 , . . . , xn ) verificando la
con i0 > 1 por ser A un sistema libre. Suponemos 2 6= 0 y repetimos el proceso condicion pedida.
anterior. Por otra parte veamos que las coordenadas contravariantes de un vector
Obtendremos que {a1 , a2 , b3 , . . . , bn } es una base de V . respecto a una base son unicas. Si existen escalares (x1 , . . . , xn ) e (y 1 , . . . , y n ),
verificando la condicion pedida se tendra:
Repetimos este proceso hasta terminar con los m vectores de A. Observamos que
no puede ocurrir que m > n. Ya que en el paso n-esimo obtendramos que A es x1 e1 + . . . + xn en = x = y 1 e1 + . . . + y n en (x1 y 1 )e1 + . . . + (xn y n )en = 0.
una base de V , y por tanto an+1 sera combinacion lineal de otros elementos de A, Por ser B una base sus vectores son linealmente independientes y deducimos que:
contradiciendo la hipotesis de que es un sistema libre.
x1 = y 1 , ..., xn = y n (x1 , . . . , xn ) = (y 1 , . . . , y n ).
Este Teorema tiene consecuencias muy importantes:
Es importante senalar que las coordenadas contravariantes de un vector dependen
1. Todas las bases de un espacio vectorial con un sistema de generadores del orden de los vectores de la base.
finito tienen el mismo numero de elementos.
Prueba: Dadas dos bases finitas B y B 0 , con m y n vectores respectivamente
podemos aplicar el Teorema de Steinitz de dos formas. Tomando como B el 3.3 Isomorfismo entre IKn y espacios vectoriales de di-
sistema libre y B 0 la base, obtenemos m n; tomando como B 0 el sistema libre mension n.
y B la base, obtenemos n m. Deducimos que n = m.
La principal ventaja de poder introducir bases y coordenadas en espacios vectoriales
2. Un espacio vectorial con un sistema de generadores finito se dice que es de
es la siguiente.
dimension finita:
Dado un espacio vectorial V sobre IK y una base B = {e1 , . . . , en }, podemos definir
Al numero de elementos de una base de un espacio la siguiente aplicacion biyectiva, que lleva un vector en sus coordenadas:
vectorial se le llama dimension del espacio vectorial.
V IKn
x (x1 , x2 , . . . , xn ) donde x = x1 e1 + . . . + xn en .
3. Un espacio vectorial para el cual no existen sistemas generadores finitos se dice
de dimension infinita. Esta bien definida porque hemos visto que todo vector de V se expresa de manera
unica como combinacion lineal de los elementos de una base.
4. Cualquier sistema libre A puede completarse a una base, escogiendo vectores
adecuados de una base cualquiera B. Es inyectiva, ya que:

5. Un sistema libre de n vectores en un espacio vectorial de dimension (x1 , x2 , . . . , xn ) = (y 1 , y 2 , . . . , y n ) x1 e1 + . . . + xn en = y 1 e1 + . . . + y n en .


n es una base.
Es sobreyectiva, porque dado (x1 , x2 , . . . , xn ) IKn existe x V con
6. Un sistema generador de n vectores en un espacio vectorial de di-
mension n es una base. x = x1 e1 + . . . + xn en .

27
Tema II. Captulo 2. Sistemas generadores. Sistemas libres. Bases. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Ademas esta biyeccion respeta las operaciones de V y IKn , es decir: Teorema 4.2 Sea V un espacio vectorial, A = {x1 , . . . , xm } un conjunto de vectores
de V y B = {e1 , . . . , en } una base de V . Supongamos que las coordenadas del vector
- coordenadas de (x + y) =coordenadas de x+coordenadas de y.
xi son (1i , . . . , n
i ). Consideramos la matriz M formada por estas coordenadas:
- coordenadas de x = coordenadas de x.
11 21 n

... 1 x1
Esto quiere decir que una vez que introducimos una base, trabajar en un 12 22 ... n 2 x2
espacio vectorial V de dimension n cualquiera es equivalente (en cuanto a M =
... .. .. .. .. .
. . .
.
las propiedades que se derivan de su estructura de espacio vectorial) a trabajar en
1m 2m ... n xm
el espacio vectorial IKn . m

entonces
rango(A) = rango(M ).
3.4 Bases canonicas.
Prueba: Recordemos que el rango de M es el mayor orden de los menores de A
Las bases canonicas son las bases mas sencillas o mas naturales de algunos distintos de 0. Ademas el rango de una matriz no se modifica si hacemos operaciones
espacios vectoriales. Citamos algunas de las mas usuales: elementales fila. Por otra parte por las propiedades de la envolcente lineal de un
conjunto de vectores, si substituimos un vector de A por el propio vector sumado a
1. En IKn la base canonica es una combinacion de los demas, o bien lo multiplicamos por un escalar o los cambiamos
{(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)}. de orden, el espacio que generan no vara.

Estos vectores suelen denotarse respectivamente por {e1 , e2 , . . . , e3 }. De esta forma podemos hacer operaciones elementales filas sobre M hasta obtener
una forma reducida M 0 . Las filas de M 0 corresponden a las coordenadas respecto a
2. En el espacio vectorial Pn (IK) de polinomios con coeficientes en IK de grado
la base B de m vectores A0 = {z1 , . . . , zm } que son un sistema equivalente a A. Por
menor o igual que n, la base canonica es {1, x, x2 , . . . , xn }.
tanto:
3. En el espacio vectorial de matrices Mmn (IK) la base canonica esta formada rango(A) = rango(A0 ), rango(M ) = rango(M 0 ).
por todas las matrices que tiene un elemento igual a 1 y el resto nulos. Suelen
ordenarse de menor a mayor respecto primero la fila y luego a la columna que Pero ahora sabemos que el rango de M 0 es el numero de filas no nulas de la matriz;
ocupa el elemento no nulo. Por ejemplo en M23 (IK), la base canonica es: por otra parte los vectores de A0 no nulos son linealmente independientes, ya que
en otro caso, uno de ellos sera combinacion lineal de los demas y podramos hacer
n
1 0 0
 
0 1 0
 
0 0 1
 
0 0 0
 
0 0 0
 
0 0 0
o operaciones fila en M 0 para conseguir otra fila nula. Pero M 0 ya es la forma reducida.
, , , , , . En consecuencia:
0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1

4. En el espacio vectorial de matrices simetricas Snn (IK) la base canonica esta rg(A0 ) = no vectores no nulos de A0 = no filas no nulas de M 0 = rg(M 0 ).
formada por matrices simetricas que tienen un elemento igual a 1 en la diagonal
y cero en el resto; o bien dos elementos iguales a 1 en posiciones simetricas
respecto a la diagonal y cero en el resto. Se ordenan siguiendo el mismo criterio
que antes, para la fila y columna del elemento igual a 1 situado en la zona Corolario 4.3 El determinante de una matriz cuadrada T es nulo si y solo si una
triangular superior de la matriz. Por ejemplo en Snn (IK) la base canonica es: fila es combinacion lineal de las demas.


1 0 0
 
0 1 0
 
0 0 1
 
0 0 0
 
0 0 0
 
0 0 0
 Prueba Supongamos que T Mnn (IK). Sus filas pueden considerarse como las
0 0 0 , 1 0 0 , 0 0 0 , 0 1 0 , 0 0 1 , 0 0 0 coordenadas de n vectores A = {x1 , . . . , xn } respecto a la base canonica de IKn .
0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1
Supongamos que det(T ) = 0. Entonces rg(T ) < n y por tanto rg(A) < n. Esto
quiere decir que los n vectores de A no son una base y por tanto uno de ellos es
4 Rango de un conjunto de vectores. combinacion lineal de los demas. Por tanto la correspondiente fila de coordenadas
sera combinacion lineal de las demas filas.
Definicion 4.1 Sea V un espacio vectorial y A = {x1 , . . . , xm } un conjunto de Recprocamente si una fila es combinacion lineal de los demas rg(A) < n y por
vectores de V . El rango de A es la dimension del subespacio general que genera A tanto rg(T ) < n. Pero entonces no puede haber un menor de orden n con determi-
o, equivalentemente, el numero de vectores independientes de A. nante no nulo y por tanto det(T ) = 0.

28
Tema II. Captulo 2. Sistemas generadores. Sistemas libres. Bases. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

5 Cambios de base. Si aplicamos ahora la expresion de cambio de base queda:

(x){e} = (x0 )MB 0 B {e},


Supongamos que tenemos en un espacio vectorial V dos bases:
y teniendo en cuenta la unicidad de las coordenadas respecto a la base B:
B = {e1 , . . . , en }; B 0 = {e01 , . . . , e0n }.
(x) = (x0 )MB 0 B
Se trata de buscar la relacion entre las coordenadas contravariantes de un vector
respecto a ambas bases.
Conviene tener en cuenta los siguientes hechos sobre la notacion utilizada:
Como B es una base, los vectores de B 0 podran expresarse en coordenadas con
respecto a la base B: 1. La matriz MB 0 B esta formada por las coordenadas de los vectores de la base B 0
con respecto a la base B.
e0 1 = c11 e1 + c21 e2 + . . . + cn c11 c21 cn
0
1 en

e ... e1
0 1
1
2. La matriz MB 0 B nos permite pasar de coordenadas en la base B 0 a coordenadas
e0 2 = c12 e1 + c22 e2 + . . . + cn
2 en e2 c12 c22 ... cn e2



2
.. .. = . .. .. .. . en la base B.
.. . ..
. 0. . .


3. Como regla nemotecnica para recordar la formula de cambio de base nos fijamos
e0 n = c1n e1 + c2n e2 + . . . + cn c1n c2n n

n en en ... cn en
en que el vector de coordenadas fila que multiplica a la matriz de cambio de
La expresion anterior la escribimos simplificadamente como: base tiene que estar en la base que indica el subndice de M que es adyacente:

{e0 } = MB 0 B {e} (x) = (x0 ) M


B0 B

donde a la matriz
c11 c21 cn e0 1 4. La matriz MBB 0 estara formada por las coordenadas de los vectores de la base

... 1
c12 c22 ... cn2 e0 2 B con respecto a la base B 0 .
MB 0 B =
... .. .. .. ..
. . .
. 5. La matriz MBB 0 nos permitira pasar de coordenadas en la base B a coordenadas
c1n c2n ... cnn
e0 n en la base B 0 :
(x0 ) = (x)MBB 0
le llamaremos matriz de cambio de base o matriz de paso de la base B 0 a la
base B. Observamos que esta formada por las coordenadas de los vectores 6. Se verifica que:
de la base B 0 con respecto a la base B. MBB 0 = (MB 0 B )1
Observamos que una matriz de cambio de base es siempre no singular.
Para comprobar esto basta tener en cuenta que si cambiamos primero de la
Esto es consecuencia directa del Corolario 4.3 visto en la seccion anterior. Si la
base B a la B 0 y luego deshacemos el cambio pasando de nuevo a la base B, las
matriz fuese singular, los vectores de B 0 no seran independientes.
coordenadas obtenidas han de ser las iniciales, es decir:
Supongamos que las coordenadas de un vector x con respecto a las bases B y B 0
son respectivamente: MBB 0 MB 0 B = Id MBB 0 = (MB 0 B )1 .

(x1 , . . . , xn ), y
1 n
(x0 , . . . , x0 ). 7. Si tenemos tres bases C, B y B 0 , se tiene la siguiente relacion entre las matrices
de cambio de base:
Entonces: MBB 0 = MBC MCB 0
1 n
x1 e1 + . . . + xn en = x = x0 e0 1 + . . . + x0 e0 n . De nuevo y como regla nemotecnica, nos fijamos en que, para hallar la matriz de
Matricialmente: paso entre B y B 0 utilizando las relaciones entre ambas bases con la base C, en
0 los subndices de las dos matrices que multiplicamos la base repetida aparecen
e1 e1 en posiciones adyacentes:


e2 0

e2
01 n
( x1 ... xn ) .. = (x ... x0 ) .. o (x){e} = (x0 ){e0 }. MBB 0 = M M
. 0. B C C B0




en en

29
Tema II. Captulo 2. Sistemas generadores. Sistemas libres. Bases. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

6 Ecuaciones de los subespacios. 7 Formula de las dimensiones.


Sea V un espacio vectorial y S un subespacio vectorial de V . Supongamos que Teorema 7.1 Sea V un espacio vectorial n-dimensional. Sean S1 y S2 dos subespa-
B = {e1 , . . . , en } es una base de V y que {s1 , . . . , sp } es una base de S. Veamos las cios vectoriales de V . Se verifica:
distintas formas de expresar los elementos de S.
dim(S1 + S2 ) + dim(S1 S2 ) = dim(S1 ) + dim(S2 )
Trabajaremos con coordenadas contravariantes respecto a la base B de V .
Dado un vector x V , denotaremos sus coordenadas como (x1 , . . . , xn ) o simple-
Prueba: Sea a = dim(S1 ), b = dim(S2 ) y r = dim(S1 S2 ). Tomemos una base de
mente (xi ).
S1 S2 :
Las coordenadas de los vectores si seran denotadas por (a1i , . . . , an
i ) o simplemente B = {x1 , . . . , xr }
(aji ).
Como S1 S2 S1 y S1 S2 S1 , sabemos que podemos completar esta base hasta
una de S1 y otra de S2 :
1. Ecuacion vectorial.
B1 = {x1 , . . . , xr , ur+1 , . . . , ua } base de S1 .
S esta formado por los vectores x verificando: B2 = {x1 , . . . , xr , vr+1 , . . . , vb } base de S2 .

x = 1 s1 + . . . + p sp x = (i ){si } Veamos que B 0 = {x1 , . . . , xr , ur+1 , . . . , ua , vr+1 , . . . , vb } es una base de S1 + S2 :


- En primer lugar esta claro que es un sistema generador de S1 + S2 ya que:
para cualesquiera i IK.
S1 + S2 = L{S1 S2 } =
2. Ecuaciones parametricas. = L{x1 , . . . , xr , ur+1 , . . . , ua , x1 , . . . , xr , vr+1 , . . . , vb } =
= L{x1 , . . . , xr , ur+1 , . . . , ua , vr+1 , . . . , vb }.
S esta formado por los vectores de coordenadas (x1 , . . . , xn ) verificando:
- Ahora veamos que son linealmente independientes. Supongamos que tenemos
x1 = a11 1 + a12 2 + . . . + a1p p una expresion:
x2 = a21 1 + a22 2 + . . . + a2p p
xj = i aji , 1 x1 + . . . + r xr + r+1 ur+1 + . . . + a ua + r+1 vr+1 + . . . + b vb = 0
P
.. i
j = 1, 2, . . . , n
.
xn = an 1 n 2
1 + a2 + . . . + ap
n p queremos ver que entonces todos los coeficientes de esta suma son nulos.
La expresion anterior puede escribirse como:
para cualesquiera i IK. Los valores i son los parametros. Para un subes-
1 x1 + . . . + r xr + r+1 ur+1 + . . . + a ua = r+1 vr+1 . . . b vb ()
pacio S de dimension p deben de aparecer p parametros. | {z } | {z }
S1 S2
3. Ecuaciones implcitas o cartesianas.
Deducimos que ambos terminos tienen que estar en S1 S2 , es decir, han de ser
Eliminando parametros en las ecuaciones parametricas se obtienen (np) ecua- combinacion lineal de elementos de B. En particular:
ciones cartesianas o implcitas independientes.
S estara formado por los vectores de coordenadas (x1 , . . . , xn ) verificando: r+1 vr+1 . . . b vb = 1 x1 + . . . + r xr

o equivalentemente:
b11 x1 + b12 x2 + ... + b1n xn =0
b21 x1 + b22 x2 + ... + b2n xn =0 1 x1 + . . . + r xr + r+1 vr+1 + . . . + b vb = 0.
..
. Como B2 es base de S2 , es un sistema libre y necesariamente
bnp x1 + bnp x2 + ... + np n
bn x =0
1 2
r+1 = . . . = b = 0.

30
Tema II. Captulo 2. Sistemas generadores. Sistemas libres. Bases. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Ahora el primer termino de la igualdad () tambien es 0 y por ser B1 una base 8.1 Ejemplo:
sus vectores son independientes y necesariamente
1 = . . . = r = r+1 = . . . = a = 0. Planteamos el siguiente problema. Sea U el conjunto de polinomios de grado menor o
igual que 2 que tienen a 0 como raz y V aquellos que tienen a 1 como raz. Calcular
U V , es decir, los polinomios de grado menor o igual que 2 que se anulan en 0 y
Como consecuencia de este resultado y del razonamiento que hemos hecho en su en 1.
prueba, concluimos tambien que: Evidentemente aplicando unas nociones basicas de teora de polinomios, uno puede
llegar rapidamente a que los polinomios de grado menor o igual que 2 que se anulan
Corolario 7.2 Sea U un espacio vectorial de dimension finita. Si S1 , S2 son sube- en 0 y 1 son de la forma:
spacios vectoriales de U y S1 + S2 es una suma directa, entonces:
dim(S1 S2 ) = dim(S1 ) + dim(S2 ). p(x) = kx(x 1) = kx2 kx.

Ademas si B1 y B2 son bases respectivamente de S1 y S2 , entonces B1 B2 es una Sin embargo nosotros vamos a plantear y resolver el problema unica y exclusivamente
base de S1 S2 . desde la teora de espacios vectoriales.
Trabajaremos en el espacio vectorial P2 (R) de polinomios de grado menor o igual
Y aplicando sucesivamente este resultado a varios subespacios vectoriales se ob-
que 2. Seguimos el esquema descrito:
tiene:

Corolario 7.3 Sea U un espacio vectorial de dimension finita. Si S1 , . . . , Sk son 1. Fijar una base.
subespacios vectoriales de U y S1 + . . . + Sk es una suma directa, entonces: La base canonica de P2 (R) es B = {1, x, x2 }. Trabajaremos con respecto a ella
de manera que las coordenadas de un polinomio p(x) = a + bx + cx2 son (a, b, c).
dim(S1 . . . Sk ) = dim(S1 ) + . . . + dim(Sk ).
2. Expresar los datos en coordendas respecto a la base fijada.
Ademas si B1 , . . . , Bk son bases respectivamente de S1 , . . . , Sk , entonces B1 . . .Bk
es una base de S1 . . . Sk . El conjunto U es:
U = {p(x) P2 (R)| p(0) = 0}.
Si p(x) = a + bx + cx2 entonces la condicion para pertenecer a U es:
8 Apendice: metodo usual de trabajo en espa- p(0) = 0 a = 0.
cios vectoriales.
Por tanto en coordenadas respecto a la base B, el subconjunto se escribe:

La gran virtud de los espacios vectoriales, es que una vez que hemos fijado una U = {(a, b, c) P2 (R)| a = 0}.
base, sus elementos pueden expresarse mediante las coordenadas respecto a esa base.
Todo el trabajo que tengamos que hacer con ellos se realizara operando con esas Como la condicion a = 0 es lineal, U es un subespacio vectorial.
coordenadas mediante a calculo matricial. Esto es independiente de la naturaleza Razonando de manera analoga para el conjunto V :
del espacio vectorial que manejamos (espacios Rn , espacios de funciones, de matrices,
etc...). Resumimos este hecho en el siguiente esquema: V = {p(x) P2 (R)| p(1) = 0}.

llegamos a que expresado en coordenadas respecto a la base B es el subespacio


Metodo de trabajo en un espacio vectorial: vectorial:
V = {(a, b, c) P2 (R)| a + b + c = 0}.
1. Fijar una base.
2. Expresar los datos en coordendas respecto a la base fijada. 3. Operar con estos datos (calculo matricial) hasta obtener el resultado
deseado.
3. Operar con estos datos (calculo matricial) hasta obtener el re-
Ahora lo que nos pieden es calcular U V . Tenemos las ecuaciones cartesianas
sultado deseado.
de ambos subespacios, luego el subespacio interseccion esta generado por ambas:
4. Expresar el resultado en el contexto del espacio vectorial de
partida. U V = {(a, b, c) P2 (R)| a = 0, a + b + c = 0}.

31
Tema II. Captulo 2. Sistemas generadores. Sistemas libres. Bases. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Como las dos ecuaciones son independientes y dim(P2 (R)) = 3, el subespacio


U V tiene dimension 3 2 = 1. Buscamos una base, es decir, un vector que
cumpla ambas ecuaciones:

a = 0, a+b+c=0 a = 0, b = c.

Podemos tomar el vector (0, 1, 1). Luego:

U V = L{(0, 1, 1)}.

4. Expresar el resultado en el contexto del espacio vectorial de partida.


Ahora el polinomio de coordenadas (0, 1, 1) respecto a la base B es:

0 1 + 1 x 1 x2 = x x2 .

Por tanto:
U V = L{x x2 }.
Es decir los polinomios que tienen como raz al 0 y al 1 son todos los multiplos
del polinomio x x2 .

32
Tema II. Captulo 3. Aplicaciones lineales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

3. Aplicaciones lineales. d) Propiedad fundamental:

Una aplicacion lineal queda completamente determinada


si conocemos la imagen de los elementos de una base
1 Definicion y propiedades.
Prueba: Si B = {u1 , . . . , um } es una base de U , cualquier otro vector x U
Definicion 1.1 Sean U y V dos espacios vectoriales sobre el cuerpo IK. Decimos se expresa de manera unica como combinacion lineal de los elementos de B.
que f : U V es una aplicacion lineal u homomorfismo si cumple: Aplicando las propiedades de la defincion de aplicacion lineal se tiene:

1. f (x + x0 ) = f (x) + f (x0 ), para cualesquiera x, x0 U . f (x) = f (x1 u1 + . . . + xm um ) = x1 f (u1 ) + . . . + xm f (um ).


2. f (x) = f (x), para cualesquiera IK, x U . De manera simplificada se escribe:
f (x) = f (xi ui ) = xi f (ui ).
o equivalentemente:
3. f (x + x0 ) = f (x) + f (x0 ), para cualesquiera IK, x, x0 U . e) Sea A = {a1 , . . . , ap } un conjunto de vectores de A y f (A) = {f (a1 ), . . . , f (ap )}
sus imagenes:

Observacion 1.2 Veamos la equivalencia entre las condiciones 1., 2. y la condicion e.1) Si f (A) es un sistema libre entonces A es un sistema libre.
3.: Prueba: Tomamos una combinacion lineal de elementos de A igualada a
0:
1., 2. = 3.:
1 a1 + . . . + p ap = 0.
Dados IK, x, x0 U se tiene: Aplicamos f a cada miembro de la igualdad:
f (x + x0 ) = f (x) + f ( x0 ) = f (x) + f (x0 ). f (1 a1 + . . . + p ap ) = f (0) 1 f (a1 ) + . . . + p f (ap ) = 0

(1.) (2.) Por ser f (A) un sistema libre, 1 = . . . = p = 0 y deducimos que A es
un sistema libre.
3. = 1., 2.: e.2) Si A es un sistema ligado entonces f (A) es un sistema ligado.
Prueba: Si A es un sistema ligado entonces uno de los vectores de A es
Si aplicamos la propiedad 3. para = = 1 y cualesquiera x, x0 U , obtenemos combinacion lineal de los demas. Supongamos que es a1 :
la propiedad 1..
a1 = 2 a2 + . . . + p ap .
Si aplicamos la propiedad 3. para = 0, x0 = 0 y cualesquiera IK, x U ,
obtenemos la propiedad 2.. Aplicamos f a cada miembro de la igualdad:
f (a1 ) = f (2 a2 + . . . + p ap ) f (a1 ) = 2 f (a2 ) + . . . + p f (ap ).
Algunas propiedades de las aplicaciones lineales son:
Vemos que uno de los vectores de f (A) es combinacion lineal de los demas
a) f (x) = f (x). y por tanto el sistema f (A) es ligado.
Prueba: Aplicamos la propiedad 2. de la definicion: Observacion: El recproco de estos dos resultados no es cierto. Puede ocurrir
que A sea libre y f (A) sea ligado. Por ejemplo si tomamos la aplicacion lineal:
f (x) = f ((1)x) = (1)f (x) = f (x).
f : IR2 IR; f (x, y) = x + y.
0 0
b) f (x x ) = f (x) f (x ).
y A = {(1, 0), (1, 1)}. Entonces f (A) = {1, 2} y vemos que A es un sistema libre
Prueba: Basta aplicar la propiedad 3. de la definicion para = 1 y = 1.
pero f (A) es ligado.
c) f (0) = 0. f) Si f : U V es una aplicacion lineal y S un subespacio vectorial de U ,
Teniendo en cuenta la propiedad anterior: entonces la restriccion de f a S es la aplicacion:
f (0) = f (0 0) = f (0) f (0) = 0. fs : S V, fs (x) = f (x).

33
Tema II. Captulo 3. Aplicaciones lineales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2 Expresion matricial de un homomorfismo. 3 Cambio de base.


Sean U y V dos espacios vectoriales sobre K. Supongamos que tenemos dos bases Consideramos una aplicacion lineal f : U V entre dos espacios vectoriales de
B1 y B2 de U y V respectivamente: dimension finita. Supongamos que tenemos las siguientes bases:

B1 = {u1 , . . . , um } B2 = {v1 , . . . , vn }
B1 = {u1 , . . . , um }; B2 = {v1 , . . . , vn }. Bases de U ; Bases de V .
B10 = {u01 , . . . , u0m } B20 = {v10 , . . . , vn0 }
La imagen de cada uno de los vectores de B1 es un vector de V y podra expresarse A su vez denotaremos las coordenadas de un vector x y de su imagen y en cada una
de manera unica como combinacion lineal de los vectores de B2 : de las bases de la siguiente forma:

f (u1 ) = a1 1 v1 + a1 2 v2 + . . . + a1 n vn Coordenadas de x. Coordenadas de y = f (x).


f (u2 ) = a2 1 v1 + a2 2 v2 + . . . + a2 n vn (x1 , . . . , xm ) respecto a la base B1 (y 1 , . . . , y n ) respecto a la base B2
.. (x01 , . . . , x0m ) respecto a la base B10 (y 01 , . . . , y 0n ) respecto a la base B20
.
f (um ) = am 1 v1 + am 2 v2 + . . . + am n vn La relacion entre las distintas bases y coordenadas utilizando las matrices de cambio
de base es la siguiente:
Matricialmente se escribe:
{u0 } = MB10 B1 {u} {v 0 } = MB20 B2 {v}
a1 1 a1 2 a1 n (x) = (x0 )MB10 B1 (y) = (y 0 )MB20 B2

f (u1 )

... v
1

f (u2 ) a2 1 a2 2 ... a2 n v2



.. = . .. .. .. .. {f (ui )} = FB1 B2 {vj } Ademas sabemos que podemos escriibir la aplicacion f matricialmente bien con res-
.. . . . pecto a las bases B1 , B2 o B10 , B20 :
. .



am 1 am 2 am n

f (um ) ... vn
| {z } (y) = (x)FB1 B2 (y 0 ) = (x0 )FB10 B20
FB1 B2

Veamos como se relacionan las matrices asociadas a f con respecto a las bases B1 , B2
La matriz FB1 B2 se llama: matriz asociada a la aplicacion lineal f con res- y B10 , B20 :
pecto a las bases B1 y B2 .
(y) = (x)FB1 B2 (y 0 )MB20 B2 = (x0 )MB10 B1 FB1 B2
Lo interesante de esta matriz es que nos permite calcular la imagen de cualquier
(y 0 ) = (x0 )MB10 B1 FB1 B2 (MB20 B2 )1
vector matricialmente. Denotamos:
y por tanto:
(x1 , . . . , xm ) coordenadas contravr. de un vector x U en la base B1 .
(y 1 , . . . , y n ) coordenadas contravr. de la imagen f (x) V en la base B2 . FB10 B20 = MB10 B1 FB1 B2 (MB20 B2 )1 , o FB10 B20 = MB10 B1 FB1 B2 MB2 B20

Entonces:
Algunas observaciones interesantes al respecto del cambio de base son:
a1 1 a1 2 a1 n

...
a2 1 a2 2 ... a2 n 1. Vemos que las matrices de un homomorfismo con respecto a distintas bases son
(y 1 , . . . , y n ) = (x1 , . . . , xm )
... .. .. .. (y j ) = (xi )FB1 B2 equivalentes.
. . .
am 1 am 2 ... am n 2. De nuevo como regla nemotecnica, nos fijamos en que los nidices correspon-
dientes a la misma base son adyacentes en la expresion anterior:

Prueba: Se tiene: FB10 B20 = M F M


0
B1 B1 B1 B2 B2 0
B2

f (x) = f ((xi ){ui }) = (xi ){f (ui )} = (xi )FB1 B2 {vj }
(y j ) = (xi )FB1 B2 . Ademas con esta notacion se indica explcitamente la funcion de cada matriz. Es
f (x) = (y j ){vj } decir, se quiere hallar FB10 B20 que es la matriz que multiplicada por coordenadas

34
Tema II. Captulo 3. Aplicaciones lineales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

en la base B10 devuelve su imagen en la base B20 , en funcion de la matriz FB1 B2 , Prueba: Comprobemos que cumple la definicion de subespacio vectorial:
que es la matriz que multiplicada por coordenadas en la base B1 devuelve su
- En primer lugar es no vaco ya que f (0) = 0, luego 0 im(f ).
imagen en la base B2 . Entonces:
- mediante MB 0 B1 pasamos de coordenadas en la base B10 a coordenadas en la - Sean y, y 0 im(f ) y , IK y veamos que y + y 0 im(f ):
1
base B1 . 
y im(f ) y = f (x), x U
- mediante FB1 B2 pasamos a las coordenadas de la imagen en la base B2 a partir y + y 0 = f (x + x0 )
y 0 im(f ) y 0 = f (x0 ), x0 U
de las obtenidas en el paso anterior.
- mediante MB2 B 0 pasamos las coordenadas de la imagen de la base B2 a la B20 . donde x + x0 U . Deducimos que efectivamente y + y 0 im(f ).
2

Proposicion 4.5 Si A = {a1 , . . . , ak } es un sistema generador de U , entonces


4 Nucleo e imagen de una aplicacion lineal. f (A) = {f (a1 ), . . . , f (ak )} es un sistema generador de im(f ).

Definicion 4.1 Dada una aplicacion lineal f : U V se llama nucleo de f al


Prueba: En primer lugar esta claro que L(f (A)) imf , ya que cualquier combi-
conjunto de vectores cuya imagen es el 0:
nacion de elementos de f (A) es imagen de la correspondiente combinacion lineal de
ker(f ) = {x U | f (x) = 0}. los elementos de A.
Recprocamente, sea y im(f ). Entonces existe x U con f (x) = y. Ademas
Proposicion 4.2 El nucleo de una aplicacion lineal es un subespacio vectorial del por ser A sistema generador de U :
conjunto inicial.
x = 1 a1 + . . . k ak .

Prueba: Comprobemos que cumple la definicion de subespacio vectorial: Aplicando f queda:

- En primer lugar es no vaco ya que f (0) = 0, luego 0 ker(f ). f (x) = f (1 a1 + . . . k ak ) y = f (x) = 1 f (a1 ) + . . . k f (ak ).
- Sean x, x0 ker(f ) y , IK y veamos que x + x0 ker(f ):
luego y puede escribirse como combinacion lineal de los elementos de f (A).
0 0
f (x + x ) = f (x) + f (x ) = 0 + 0 = 0. Como consecuencia de esta proposicion, si tenemos dos bases B1 y B2 respectiva-
mente de U1 y U2 , la imagen de f esta generada por las imagenes de los vectores de
x, x0 ker(f ) U1 . En particular si FB1 B2 es la matriz asociada a f , los vectores de la imagen
expresados en coordenadas respecto a la base B2 estan generados por las
y por tanto efectivamente x + x0 ker(f ). filas de la matriz FB1 B2 .
Si tenemos la matriz asociada a la aplicacion lineal f con respecto a dos bases B1 y Observamos que estas filas no tienen por que ser independientes, ya que
B2 respectivamente de U y V , los vectores del nucleo son aquellos cuyas coordenadas como vimos anteriormente, aunque B1 sea un sistema libre, f (B1 ) no tiene por que
con respecto a la base B1 cumplen la ecuacion: serlo. Por tanto si queremos una base de la imagen, hemos de eliminar las filas de
FB1 B2 que sean dependientes de los demas.
(x1 , . . . , xm )FB1 B2 = (0, . . . , 0).

Teorema 4.6 Si f : U V es una aplicacion lineal entre espacios vectoriales


Definicion 4.3 Dada una aplicacion lineal f : U V se llama imagen de f al finitos se verifica:
conjunto de vectores imagen por f de algun vector de U :
dim(ker(f )) + dim(im(f )) = dim(U )
im(f ) = {y V | y = f (x), x U }.

Prueba: Supongamos que dim(ker(f )) = k y dim(U ) = m. Sea


Proposicion 4.4 La imagen de una aplicacion lineal es un subespacio vectorial del
conjunto final. Bk = {u1 , . . . , uk }

35
Tema II. Captulo 3. Aplicaciones lineales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

una base del nucleo de f . Podemos completar esta base hasta una de U : y llamamos h = g f a la composicion, podemos ver como se relacionan las matrices
FB1 B2 , GB2 B3 y HB1 B3 . Si denotamos a las coordenadas de los vectores x, y =
B1 = {u1 , . . . , uk , uk+1 , . . . , um } f (x), z = h(x) = g(y), por (x), (y), (z) con respecto a las bases B1 , B2 y B3
Ahora sabemos que im(f ) esta generada por f (B1 ): respectivamente, sabemos que:

Im(f ) = L{f (u1 ), . . . , f (uk ), f (uk+1 ), . . . , f (um )} = L{f (uk+1 ), . . . , f (um )} (y) = (x)FB1 B2 ; (z) = (y)GB2 B3 ; (z) = (x)HB1 B3

ya que por estar en el nucleo f (u1 ) = . . . = f (uk ) = 0. Por tanto:


Tenemos que {f (uk+1 ), . . . , f (um )} es un sistema generador de im(f ). Veamos (z) = (y)GB2 B3 = (x)FB1 B2 GB2 B3
que ademas es un sistema libre. Supongamos que: y deducimos que:

k+1 f (uk+1 ) + . . . + m f (um ) = 0.


Si h = g f , HB1 B3 = FB1 B2 GB2 B3 .
Entonces:

f (k+1 uk+1 + . . . + m um ) = 0 k+1 uk+1 + . . . + m um ker(f ).


6 Clasificacion de homomorfismos.
Utilizamos que B es una base de ker(f ):

k+1 uk+1 + . . . + m um = 1 u1 + . . . + k uk 6.1 Monomorfismos.


y pasando todo a un lado: Definicion 6.1 Un monomorfismo es una aplicacion lineal inyectiva.
1 k k+1 m
u1 + . . . + uk uk+1 . . . um = 0
Algunas propiedades interesantes de los monomorfismos son:
Como los vectores de B 0 son base, en particular son independientes. Deducimos que
k+1 = . . . = m = 0 y tenemos la independencia lineal buscada.
1. Una aplicacion lineal f : U V es inyectiva ker(f ) = {0}.
En definitiva hemos probado que {f (uk+1 ), . . . , f (um )} es un sistema libre y ge- Prueba:
nerador de im(f ), es decir, una base. As:
=: Supongamos que f : U W es una aplicacion lineal inyectiva. Entonces:
dim(im(f )) = m (k + 1) + 1 = m k = dim(U ) dim(ker(f )).
x ker(f ) f (x) = 0 f (x) = f (0) x = 0.

f inyectiva
5 Composicion de homomorfismos.
y por tanto ker(f ) = {0}.
Proposicion 5.1 Sean f : U V y g : V W dos aplicaciones lineales. =: Supongamos que ker(f ) = {0}. Entonces:
Entonces la aplicacion composicion g f tambien es una aplicacion lineal.
f (x) = f (x0 ) f (x) f (x0 ) = 0 f (x x0 ) = 0
Prueba: Sea x, x0 U y , IK. Se tiene: x x0 ker(f ) x x0 = 0 x = x0

(g f )(x + x0 )) = g(f (x + x0 ) = (linealidad de f ) y por tanto f es inyectiva.


= g(f (x) + f (x0 )) = (linealidad de g)
2. Si f : U V es un monomorfismo entre espacios vectoriales de dimension
= g(f (x)) + g(f (x0 )) = (g f )(x) + (g f )(x0 ).
finita entonces dim(U ) dim(V ).
Prueba: Basta tener en cuenta que im(f ) V y ademas por ser f inyectiva
ker(f ) = {0}. Entonces:
Si tenemos bases en cada uno de los espacios vectoriales U, V y W :

B1 = {u1 , . . . , um }, B2 = {v1 , . . . , vn }, B3 = {w1 , . . . , wp }. dim(U ) = dim(im(f )) + dim(ker(f )) = dim(im(f )) dim(V ).

36
Tema II. Captulo 3. Aplicaciones lineales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

6.2 Epimorfismos. Podemos definir la aplicacion lineal f : U V como aquella que sobre la base
B1 actua:
Definicion 6.2 Un epimorfismo es una aplicacion lineal sobreyectiva. f (u1 ) = v1 ; . . . f (un ) = vn ;
La matriz asociada a f respecto a las bases B1 y B2 , es FB1 B2 = Id. Por tanto
Algunas propiedades interesantes de los epimorfismos son: esta aplicacion tiene inversa, cuya matriz asocidada es FB0 2 B1 = (FB1 B2 )1 =
Id. Una aplicacion con inversa es biyectiva.
1. Si f : U V es un epimorfismo entre espacios vectoriales de dimension finita
entonces dim(U ) dim(V ). 5. Si entre U y V existe un isomorfismo f : U V entonces dim(U ) = dim(V ).
Prueba: Basta tener en cuenta que por ser epimorfismo im(f ) = V y entonces: Prueba: Por ser f inyectiva vimos que dim(U ) dim(V ). Por ser f sobreyec-
tiva dim(U ) dim(V ). Combinando ambos factores obtenemos la igualdad
dim(U ) = dim(im(f )) + dim(ker(f )) dim(im(f )) = dim(V ). entre las dimensiones.

6.3 Isomorfismos. 6.4 Endomorfismos.


Definicion 6.3 Un isomorfismo es una aplicacion lineal biyectiva. Definicion 6.4 Un endomorfismo es una aplicacion lineal donde el espacio inicial
y final coinciden:
Algunas propiedades interesantes de los isomorfismos son: f : U U.

1. Si f es una aplicacion lineal, f es biyectiva ker(f ) = 0 y im(f ) = U .


Definicion 6.5 Un automorfismo es una endomorfismo biyectivo.
Prueba: Basta tener en cuenta que:
- f biyectiva f inyectiva y sobreyectiva ker(f ) = 0 y im(f ) = U .
En el captulo siguiente estudiaremos en detalle los endomorfismos de espacios
2. Si f : U V es un isomorfismo, la aplicacion inversa f 1 : V U es un vectoriales finitos.
isomorfismo.
Prueba: Por ser f biyectiva sabemos que existe inversa f 1 y que es tambien
biyectiva. Resta probar que f 1 es lineal.
Sean y, y 0 V y , IK. Supongamos que f 1 (y) = x e f 1 (y 0 ) = x0 .
7 Espacio vectorial de los homomorfismos.
Entonces:
Dados dos espacios vectoriales U, V denotamos por Hom(U, V ) al conjunto de todas
f 1 (y) = x f (x) = y
f (x+ x0 ) = f (x)+f (x0 ) = y+ y 0 . las aplicaciones lineales de U en V . Este conjunto tiene dos operaciones, la suma de
f (y 0 ) = x0 f (x0 ) = y 0
1
funciones (interna) y el producto por un escalar (externa):
Por tanto: - La suma de aplicaciones lineales se define como:
1 0 0 1 1 0
f (y + y ) = x + x = f (y) + f (y ).
(f + g)(x) = f (x) + g(x), f, g Hom(U, V ), x U.
3. La composicion de isomorfismos es un isomorfismo.
Basta tener en cuenta que la composicion de aplicaciones lineales es una apli- - El producto de una aplicacion lineal por un escalar se define como:
cacion lineal y que la de aplicaciones biyectivas es una aplicacion biyectiva.
(f )(x) = f (x), f Hom(U, V ), IK, x U.
4. Entre dos espacios vectoriales de igual dimension siempre existe un isomorfismo.
Prueba: Podemos comprobarlo de dos formas:
- Vimos que cualquier espacio vectorial de dimension n es isomorfo a IKn . Luego Es facil ver con estas operaciones Hom(U, V ) tiene estructura de espacio vectorial
dos espacios de igual dimension son isomorfos entre si. sobre IK.
- Directamente, si U y V son dos espacios vectoriales n-dimensionales y tenemos
bases: Proposicion 7.1 Si U, V son espacios vectoriales de dimensiones m y n respectiva-
B1 = {u1 , . . . , un }; B2 = {v1 , . . . , vn } mente, Hom(U, V ) es un espacio vectorial de dimension n m.

37
Tema II. Captulo 3. Aplicaciones lineales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Prueba: Fijamos dos bases B1 y B2 respectivamente de U y V :

B1 = {u1 , . . . , um }; b2 = {v1 , . . . , v2 }.

Definimos la siguientes aplicacion entre los espacios vectoriales Hom(U, V ) Y


Mmn (IK):
: Hom(V, U ) Mmn (IK)
f F B1 B2
que lleva una aplicacion lineal de Hom(U, V ) en su matriz asociada con respecto a
las bases fijas.
La aplicacion verifica:
- Es lineal. Ya que:

(f + g) = FB1 B2 + GB1 B2 = (f ) + (g)

para cualesquiera , IK y f, g Hom(U, V ).


- Es inyectiva. Ya que:

f ker() F B1 B2 = f = 0.

- Es sobreyectiva. Porque dada una matriz F Mmn (IK) siempre podemos


definir una aplicacion lineal de U en V cuya matriz asociada con respecto a B1 y B2
sea f . Basta tomar:
f (xi ) = (xi )F {vj },
donde (xi ) son las coordenadas de cualquier vector de U respecto de la base B1 .
Por tanto es un isomorfismo y

dim(Hom(V, U )) = dim(Mmn (IK)) = m n.

7.1 Espacio dual.


Como caso particular de espacio vectorial de homomorfismos, definimos:

Definicion 7.2 Dado un espacio vectorial U sobre el cuerpo IK, se llama espacio
dual de U y se denota por U al espacio vectorial Hom(U, IK).
Los elementos de U son aplicaciones lineales:

f : U IK

y suelen llamarse formas lineales o covectores.

Se verifica que dim(U ) = dim(U ).


Mas adelante estudiaremos con mas detalle el espacio vectorial dual de uno dado.

38
Tema II. Captulo 4. Endomorfismos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

4. Endomorfismos. 2 Autovalores y autovectores.


2.1 Definicion y propiedades.
1 Introduccion. Definicion 2.1 Dado un endomorfismo t : U U , se dice que es un autovalor
de t cuando existe un vector x no nulo tal que:
Vimos en el captulo anterior que un endomorfismo es una aplicacion lineal
donde el espacio vectorial inicial y final coinciden t : U U . Si fijamos una t(x) = x.
base en U :
El escalar cumpliendo esta condicion se llama tambien valor propio o valor
B = {u1 , . . . , un }, caracterstico; los vectores x verificando esta condicion se llaman autovectores o
podemos trabajar con la matriz asociada a la aplicacion t con respecto a esta base: vectores propios o vectores caractersticos asociados a .

t(ui ) = tji uj , TBB = (tji ). Veamos algunas consideraciones derivadas de esta definicion:

En este caso la matriz TBB es la matriz del endomorfismo t respecto a la base 1. Si = 0 es un autovalor de t, entonces los autovectores asociados a el son los
B. A veces la denotaremos simplemente como la matriz TB . vectores del nucleo de t.

Si tenemos otra base en U : 2. Un autovector x 6= 0 no puede estar asociado a dos autovalores distintos.
Prueba: Si x esta asociado a dos autovalores distintos , se tiene:
B 0 = {u01 , . . . , u0n }
x = t(x) = x ( )x = 0.

y consideramos la matriz de paso MB 0 B hemos visto como se relacionan las matrices Como x 6= 0, deducimos que = 0 y por tanto ambos valores son iguales.
asociadas a t respecto a estas dos bases: 3. Fijada una base B en U la expresion matricial de la condicion de autovalor es:

TB 0 B 0 = MB 0 B TBB MBB 0 = MB 0 B TBB (MB 0 B )1 t(x) = x (x)TB = (x).

Esto nos permite hablar de autovalores y autovectores de una matriz cuadrada.


Deducimos un primer resultado interesante:
4. Dos matrices semejantes tienen los mismos autovalores.
Prueba: Vimos que dos matrices semejantes son matrices asociadas a un mismo
Proposicion 1.1 Dos matrices estan asociadas a un mismo endomorfismo si y solo endomorfismo pero respecto a bases diferentes. Ahora bien, los autovalores de
si son semejantes. una matriz son los del endomorfismo asociado y estos no dependen de la base en
la que estamos trabajando (de hecho para introducirlos no hace falta trabajar
con bases).
Si llamamos End(U ) al espacio vectorial Hom(U, U ) de endomorfimos de U , ya
vimos en el captulo anterior que, fiajada una base B, la aplicacion:
2.2 Subespacios caractersticos.
: End(V ) Mnn
t TB Definicion 2.2 El conjunto de autovectores asociado a un autovalor se denotara
por S y se llama subespacio caracterstico o subespacio propio asociado a
es un isomorfismo. Por tanto el estudio de endomorfismos es equivalente al estudio :
de matrices cuadradas y su relacion de semejanza. S = {x U | t(x) = x}.
Uno de los objetivos fundamentales de este tema, sera encontrar bases en las que la
matriz asociada a un endomorfismo dado sea lo mas sencilla posible. Equivalentente, Proposicion 2.3 El conjunto S de autovectores asociado a un autovalor es un
dada una matriz cuadrada encontrar una matriz semejante lo mas sencilla posible. subespacio vectorial.

39
Tema II. Captulo 4. Endomorfismos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Prueba: En primer lugar S 6= porque 0 S . Ademas dados x, y S y Por otra parte como x Si+1 , se tiene:
, IK:
t(x) = i+1 x = i+1 x1 + . . . + i+1 xi .
t(x + y) = t(x) + t(y) = x + y = (x + y) Comparando ambas expresiones:

x, y S t(x) = x, t(y) = y (1 i+1 )x1 + . . . + (i i+1 )xi = 0

y por tanto x + y S . Como S1 , . . . , Si es una suma directa, la descomposicion de 0 como suma de ele-
mentos de S1 . . . , Si es unica. Por tanto:

Observacion 2.4 Otra forma de probar el resultado anterior es la siguiente. Dado (1 i+1 )x1 = . . . = (i i+1 )xi = 0
un endomorfismo t y un autovalor , definimos la aplicacion Dado que todos los autovalores son distintos, x1 = . . . = xi = 0 y x = 0.
t0 : U U ; t0 (x) = t(x) x t0 = t Id.

Esta aplicacion es lineal por ser diferencia de aplicaciones lineales. Ademas: 2.3 Polinomio caracterstico.
S = {x U | t(x) = x} = {x U | t(x) x = 0} = ker(t Id). Definicion 2.7 Sea t : U U un endomorfismo, B una base de t y T la matriz
asociada a t con respecto a esta base. El polinomio caracterstico de t es:
Vemos que:
pt () = det(T Id).
S = ker(t Id)
es un subespacio vectorial por ser el nucleo de una aplicacion lineal. Proposicion 2.8 El polinomio caracterstico de un endomorfismo no depende de la
base escogida.
Proposicion 2.5 Si 1 y 2 son autovalores distintos de un endomorfismo entonces
S1 S2 = {0}. Prueba: Supongamos que T y T 0 son dos matrices asociadas a un endomorfismo t :
U U , respecto a bases diferentes. Entonces sabemos que T y T 0 son semejantes,
Equivalentemente, la suma S1 + S2 es una suma directa. es decir, existe una matriz regular P verificando que T 0 = P T P 1 . Ahora:
|T 0 I| = |P T P 1 P P 1 | = |P (T I)P 1 | = |P ||T I||P 1 | = |T I|.
Prueba: Es consecuencia de que un autovector no nulo no esta asociado a autova-
lores distintos.

Proposicion 2.6 Si 1 , . . . , k son autovalores distintos de un endomorfismo en- Teorema 2.9 Dado un endomorfismo t : U U , es un autovalor de t si y solo
tonces (S1 + . . . + Si ) Si+1 = {0} para i = 1, . . . , k 1. si pt () = 0.

Equivalentemente, la suma S1 + . . . + Sk es una suma directa. Prueba: Vimos que es una autovalor de t si y solo si existe x 6= 0 con:
t(x) = x.
Prueba: Lo probamos por induccion. Cuando solo hay dos subespacios hemos visto
que es cierto. Introduciendo una base B en U , matricialmente esta condicion se escribe como:
Supongamos que es cierto para i subespcios caractersticos y comprobemoslo para (x)TB = (x) o equivalentemente (x)(TB I) = 0.
i + 1.
Es decir es un autovalor de t si y solo si el sistema homogeneo:
Sea x (S1 + . . . + Si ) Si+1 . Entonces se tiene:
(x)(TB I) = 0
x = x1 + . . . + xi , con xj Sj , j = 1, . . . , i. tiene solucion distinta de la trivial. Pero esto ocurre si y solo si la matriz del sistema
es singular, es decir:
Aplicando t tenemos:
|T I| = 0 pt () = 0.
t(x) = t(x1 ) + . . . + t(xi ) = 1 x1 + . . . + i xi .

40
Tema II. Captulo 4. Endomorfismos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2.4 Multiplicidad algebraica y geometrica de un auto- Si ahora calculamos el polinomio caracterstico de t utilizando esta matriz queda:
valor.
i 0 ... 0


i

0 ... 0
Definicion 2.10 Dado un endomorfismo t : U U y un autovalor de t defini- .. .. .. ..
|T I| = . = (i )d |B I|
mos: . . .
0 0 ... i
- Multiplicidad algebraica de : Es la multiplicidad de como raz del poli-

A B I
nomio caracterstico pt (). Se denota por m().
Vemos que i es una raz del polinomio caracterstco de t con al menos multi-
- Multiplicidad geometrica de : Es la dimension del espacio caracterstico
plicidad d, por tanto:
asociado a . Se denota por d().
m(i ) d(i ).
Veamos algunas propiedades de estas multiplicidades:
4. Si es un autovalor con m() = 1, entonces d() = m() = 1.
1. La multiplicidad geometrica de un autovalor es siempre mayor que 0.
5. El numero maximo de autovectores independientes de un endomorfismo es
d() 1
d(1 ) + . . . + d(k )
Prueba: Basta tener en cuenta que por definicion de autovalor S siempre
tiene algun autovector no nulo. donde 1 , . . . , k son todos los autovalores de t.
2. Si n es la dimension del espacio vectorial U y T es la matriz asociada a t en Prueba: Basta tener en cuenta que la suma de todos los espacios de vectores
una base cualquiera, una forma habitual de calcular la multiplicidad geometrica caractersticos es una suma directa. Ademas se cumple:
es:
d() = n rg(T I) d(1 ) + . . . + d(k ) m(1 ) + . . . + m(k ) n.
Prueba: Basta tener en cuenta que:
d() = dim(S ) = dim(ker(t I)) = n dim(im(t I)) = n rg(T I). 3 Diagonalizacion por semejanza.
3.
Multiplicidad algebraica Multiplicidad geometrica m(i ) d(i ) 3.1 Endomorfismos o matrices cuadradas diagonaliza-
bles.
Prueba: Supongamos que i es un autovalor del endomorfismo t. Sea d = d(i )
su multiplicidad geometrica. Consideramos una base del subespacio carac- Definicion 3.1 Se dice que es un endomorfismo t : U U es diagonalizable
terstico Si : cuando existe una base B de U en la que la matriz asociada es diagonal:
{u1 , . . . , ud }
y la completamos hasta una base B de U : t diagonalizable base B/ TB diagonal.

B = {u1 , . . . , ud , ud+1 , . . . , un }.
Podemos definir el concepto analogo para matrices cuadradas:
Veamos cual es la matriz T asociada a t con respecto a esta base. Sabemos que:
t(u1 ) = i u1 ; ... t(ud ) = i ud . Definicion 3.2 Se dice que una matriz T es diagonalizable por semejanza
cuando existe una matriz diagonal semejante a ella:
Por tanto la matriz T es de la forma:
T diagonalizable D diagonal y P regular , D = P T P 1 .

i 0 ... 0
0 i ... 0
. .. .. .. A Mndd (IK).
..
T = . . . con Teniendo en cuenta que dos matrices son semejantes precisamente si estan aso-

B Mndnd (IK).
0 0 ... i ciadas a un mismo endomorfismo, el estudio de la diagonalizacion de matrices y
A B endomorfismos es equivalente.

41
Tema II. Captulo 4. Endomorfismos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

3.2 Matriz de un endomorfismo en una base de autovec- las multiplicidades algebraicas coinciden con las geometricas. Equivalentemente:
tores. (
m(1 ) + . . . + m(k ) = n.
t diagonalizable
Teorema 3.3 La condicion necesaria y suficiente para que la matriz asociada a un
d(1 ) = m(1 ), . . . , d(k ) = m(k ).
endomorfismo sea diagonal es que este expresada respecto a una base de autovectores.
siendo 1 , . . . , k el conjunto de autovalores de t.
Prueba:
=: Supongamos que B = {u1 , . . . , un } es una base de U , de manera que la matriz Prueba: Basta tener en cuenta lo siguiente.
asociada TB es diagonal: Si t es diagonalizable, entonces existe una base de autovectores de U . En esa base
la matriz T es diagonal y por tanto:
t1 0 ... 0
0 t2 ... 0 n = d(1 ) + . . . + d(k ) m(1 ) + . . . + m(k ) = n
TB =
... .. .. .. .
. . .
0 0 ... tn Recprocamente si d(1 ) + . . . + d(k ) = n y teniendo en cuenta que la suma de
subespacios caractersticos S1 + . . . + Sk es una suma directa, podemos escoger
Esto quiere decir que:
una base de U de autovectores. Por tanto t diagonaliza.
t(u1 ) = t1 u1 ; ... t(un ) = tn un . Teniendo en cuenta la prueba anterior, la condicion puede escribirse simplemente
como:
y por tanto todos los vectores de B son autovectores.
=: Supongamos que B = {u1 , . . . , un } es una base de autovectores de U , entonces Corolario 3.6 Si t es un endomorfismo de un espacio U de dimension n:
se cumple:
t(u1 ) = 1 u1 ; . . . t(un ) = n un . t diagonalizable d(1 ) + . . . + d(k ) = n
y por tanto la matriz asociada es diagonal:
siendo 1 , . . . , k el conjunto de autovalores de t.

1 0 ... 0
0 2 ... 0
TB =
... .. .. .. . 3.4 Pasos para la diagonalizacion de un endomorfismo t.
. . .
0 0 ... n Supongamos que tenemos un espacio vectorial U de dimension n y un endomorfismo
t : U U cuya matriz respecto a una base B es TB . Los pasos para diagonalizarlo
(si es posible) son los siguientes.
3.3 Caracterizacion de los endomorfismos diagonaliz-
ables. 1. Calcular el polinomio caracterstico pt () = |TB I|.

Acabamos de probar que: 2. Calcular las races del polinomio caracterstico, que seran los autovalores de t.
Obtendremos valores 1 , . . . , k con multiplicidades algebracias m1 , . . . , mk .

Proposicion 3.4 Un endomorfismo t : U U es diagonalizable si y solo si existe (a) Si m1 + . . . + mk < n el endomorfismo no diagonaliza.
una base de autovectores. (b) Si m1 + . . . + mk = n, calculamos las multiplicidades geometricas de
cada autovalor de t:
Este resultado se reformula habitualmente de la siguiente forma:
d(i ) = dim(Si ) = n rango(T I) i = 1, . . . , k.

Teorema 3.5 Un endomorfismo t en un espacio U n-dimensional es diagonalizable i. Si alguna multiplicidad geometrica no coincide con la algebraica, en-
si y solo si la suma de las multiplicidades algebraicas es igual a la dimension de U y tonces no diagonaliza.

42
Tema II. Captulo 4. Endomorfismos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

ii. Si todas las multiplicidades algebraicas y geometricas coinciden, en- Entonces A = P 1 DP y:


tonces f si diagonaliza.
La forma diagonal es aquella que tiene todos los autovalores en la Ak = (P 1 DP ) (P 1 DP ) . . . (P 1 DP ) =
diagonal repetidos cuantas veces indique su multiplidad algebraica:
| {z }
k veces
... 0 = P 1 (P P 1 D) (P P 1 D) . . . (P P 1 D) P = P 1 Dk P.
1 | {z }
... . . . ... ... k veces

0 . . . 1
es decir


dk1


.. ..
0 ... 0

D= . .. .

0 dk2 ... 0
.
Ak = P 1 Dk P con Dk =
... .. .
..

..
. . .
k ... 0
dkn

.. .. 0 0 ...
..

... . . .
0 ... k
4 Triangularizacion por semejanza.
de manera que:
D = MB 0 B TB (MB 0 B )1
4.1 Endomorfismos o matrices triangulares por seme-
siendo MB 0 B la matriz de paso entre una base de autovectores de t y
la base de partida B.
janza.
La base correspondiente se calcula, a partir de una base da autovec-
Definicion 4.1 Un endomorfismo t : U U se dice triangularizable si existe
tores asociados a cada autovalor de t. Estos se calculan resolviendo
una base B de U en el que la matriz TB asociada es triangular.
los sistemas:
t triangularizable base B/ TB triangular.
Si = ker(t I) = {(x1 , . . . , xn ) U | (x1 , . . . , xn )(T i I) = 0}.

para cada i = 1, 2, . . . , k. El concepto analogo para matrices cuadradas sera:


En otras palabras las filas de MB 0 B son las coordenadas de au-
tovectores de t linealmente independientes y respecto a la
base de partida B. Ademas, han de ordenarse de manera co- Definicion 4.2 Se dice que una matriz T es triangularizable cuando existe una
herente con los autovalores, de forma que si en la fila i-esima matriz triangular semejante a ella:
de D aparece j en la diagonal, en la fila i-esima de MB 0 B ha
de aparecer un autovector asociado al autovalor j . T triangularizable J triangular y P regular , J = P T P 1 .

Observacion 4.3 Si la matriz de un endomorfismo t : U U respecto a una base


3.5 Aplicacion para obtener potencias de matrices.
B = {u1 , . . . , un }
Supongamos que A es una matriz diagonalizable y nos interesa calcular Ap . Podemos
proceder de la siguiente forma. es triangular superior, entonces exixte una base B 0 en la que la matriz asociada es
triangular inferior y viceversa. Para ello basta tomar los vectores de B en el orden
Por ser A diagonalizable, hay una matriz P regular tal que:
inverso:
d1

0 ... 0
B 0 = {un , . . . , u1 }.
0 d2 ... 0
D = P AP 1 tal que D=
... .. .. .. .
. . . Nosotros buscaremos matrices triangulares inferiores. semejantes a una dada.
0 0 ... dn El resultado fundamental es el siguiente:

43
Tema II. Captulo 4. Endomorfismos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Teorema 4.4 Sea U un espacio vectorial n-dimensional. Un endomorfismo t : Entonces:


U U es triangularizable si y solo si t tiene n autovalores contados con su multi-
1 0 ... 0

1 0 ... 0

1 0 ... 0

plicidad algebraica. Es decir: 0 t21 0
QTB1 Q1 =
...
.
.. 0
.
.. 1
=
t triangularizable m(1 ) + . . . + m(k ) = n P T P
0 tn1 0
donde {1 , . . . , k } es el conjunto de autovalores de t.
1 0 ... 0 1 0 ... 0
s21 0
Prueba: = .. 0
.
.. 1
=
. PT P
=: Supongamos que t es triangularizable. Entonces existe una base B en la cual sn1 0
la matiz TB es triangular. Si calculamos el polinomio caracterstico utilizando esta 1 0 ... 0 1 0 ... 0
base queda: s21 s21
|T I| = (t11 )(t22 ) . . . (tnn ) = .. 0 1
= .
..
=S
. PT P B
es decir vemos que hay exactamente n autovalores (iguales o distintos). sn1 sn1
=: Supongamos que t tiene n autovalores (iguales o distintos). Veamos que donde por ser B triangular inferior, S es triangular inferior. En definitiva hemos
entonces triangulariza. Lo probaremos por induccion: probado que la matriz TB1 asociada a t es triangularizable por semejanza y por
tanto t es triangularizable.
- Para n = 1 se cumple porque una matriz de dimension 11 siempre es triangular.
- Supongamos que el resultado es cierto para n 1 y probemoslo para n. Observacion 4.5 Si estamos trabajando sobre el cuerpo IK = C I de numeros comple-
Sea 1 un autovalor. Entonces d(1 ) 1 y existe al menos un autovector x1 6= 0 jos, el Teorema Fundamental del Algebra afirma que todo polinomio de grado n tiene
asociado a 1 . Tomamos una base B1 cuyo primer vector sea x1 : exactamente n races (complejas iguales o distintas). Toda matriz cuadrada sobre el
cuerpo de numeros complejos es triangularizable.
B1 = {x1 , u2 , . . . , un }.
En el cuerpo de numero reales no se tiene este resultado. Hay polinomios de grado
En esta base la matriz asociada a t es: n que no tienen n soluciones reales.

1 0 ... 0
t21 4.2 Forma canonica de Jordan.
TB1 =
... 0

T
tn1 Definicion 4.6 Dado un escalar llamamos bloque de Jordan o caja de Jordan
asociado a y de dimension m la matriz m m-dimensional:
Nos fijamos en lo siguiente: 0 0 ... 0 0

0
|TB1 I| = (1 )|T I|, 1 0 ... 0 0
0 1 ... 0 0
es decir, el polinomio caracterstico de t factoriaza a traves del polinomio carac- J = .. .. ..

.. .. ..

terstico de T 0 . Por tanto si t tiene n autovalores, T 0 tendra n 1 autovalores. . . . . . .
0 0 0 ... 0

0
Ahora por hipotesis de induccion, T es triangularizable. Sabemos que existe una 0 0 0 ... 1
matriz P Mn1n1 (IK) regular de manera que:

B = P T 0 P 1 donde B es triangular inferior. Definicion 4.7 Llamamos matriz de Jordan a una matriz formada por varios
bloques de Jordan asociados a escalares iguales o distintos, colocados de la forma:
Sea Q la matriz:
J1 ...

1 0 ... 0
0 J2 ...
Q= J =
.. .. .. ,
..
...

P . . . .
0 ... Jp

44
Tema II. Captulo 4. Endomorfismos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

donde J1 , J2 , . . . , Jp son bloques de Jordan. se tiene que verificar que fk fk+1 .


iv. Formamos un esquema de p columnas, de manera que la columna
Admitiremos sin demostracion el siguiente teorema: k-esima esta formada por fp elementos:
n1 ... ... ...
Teorema 4.8 Toda matriz triangularizable es semejante a una matriz de Jordan.
n2 ... ...
..
El objetivo en lo que resta esta seccion es describir como, dada una matriz trian- .
gularizable, obtener una forma de Jordan y la base en la que se expresa. nf1 ...

f1 f2 fp
4.3 Obtencion de la forma de Jordan.
donde d = f1 = d(i ). Ahora el numero de elementos de cada
Veamos los pasos para calcula la forma de Jordan de una matriz T Mnn (IK). fila del esquema nos indica la dimension de cada uno de los
bloques de Jordan relativos al autovalor i :
1. Calculamos el polinomio caracterstico pt () = |T I|. Jn1 n1

...

2. Calculamos las races del polinomio caracterstico, que seran los autovec- Jn2 n2 ...
tores de t. Obtendremos valores 1 , . . . , k con multiplicidades algebracias J(i ) = .. .. .. ..
m1 , . . . , mk .

. . . .

... Jnd nd
(a) Si m1 + . . . + mk < n la matriz no triangulariza.
(b) Si m1 + . . . + mk = n la matriz si triangulariza. Veamos como cal- Observamos que conviene ordenar las cajas empezando por la mayor
cular la forma de Jordan. Calcularemos la parte de forma de Jordan y terminando por la de menor dimension.
relativa a cada autovalor de manera independiente. Supondremos v. Para obtener la base en la que se obtiene esta forma de Jordan, hace-
que trabajamos con el autovalor i : mos lo siguiente. Buscaremos los siguientes vectores cuya estructura
copia la descrita anteriormente:
i. Calculamos los subespacios:
Si ,1 Si ,2 ... Si ,nf1 ... Si ,n2 ... Si ,n1
Si ,p = ker(T I)p
n1 x1,1 x1,2 ... x1,nf1 ... x1,n2 ... x1,n1
para sucesivos valores de p. Nos detendremos cuando
n2 x2,1 x2,2 ... x2,nf1 ... x2,n2
dim(Si ,p+1 ) = dim(Si ,p ).
..
Con esta notacion Si ,1 = Si . .
ii. La mutliplicidad geometrica d(i ) indica el numero de bloques de nf1 xf1 ,1 xf1 ,2 ... xf1 ,nf1
Jordan relativos al autovalor i :
Multiplicidad geometrica d(i ) = numero de cajas de Jordan f1 f2 fp
donde
iii. Consideramos los siguientes valores:
xj,k = xj,k+1 (T i I)
dim(Si ,1 ) f1 = d(i )
Por tanto para construir estos vectores basta escoger en cada fila el
f2 = dim(Si ,2 ) dim(Si ,1 )
vector de la derecha, de manera que al calcular el primer vector de
dim(Si ,2 )
cada fila se obtengan vectores linealmente independientes:
f3 = dim(Si ,3 ) dim(Si ,2 )
dim(Si ,3 ) {x1,1 , x2,1 , . . . , xf1 ,1 }.
.. ..
. . La base buscada estara formada por todos estos vectores ordenados
dim(Si ,p1 ) de izquierda a derecha y de arriba abajo:
fp = dim(Si ,p ) dim(Si ,p1 )
{x1,1 , x1,2 , . . . , x1,n1 , x2,1 , x2,2 , . . . , x2,n2 , . . . , xf1 ,1 , xf1 ,2 , . . . , xf1 ,nf1 }
dim(Si ,p )

45
Tema II. Captulo 4. Endomorfismos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

vi. Finalmente la forma de Jordan buscada se formara uniendo las formas


de Jordan de cada autovalor:
J(1 ) ...

J(2 ) ...
J = .. .. .. .. ,

. . . .

... J(p )

y la base B 0 en la que se expresa formada por todos las base que


hemos obtenido para cada autovalor, respetando el orden en que
ha sido colocado cada vector. De esta forma:

J = MB 0 B T (MB 0 B )1

siendo B la base de partida.

4.4 Aplicacion para obtener potencias de matrices.


Supongamos que A es una matriz triangularizable y nos interesa calcular Ak . El
procedimiento es analogo al de matrices diagonalizables.
Por ser A triangularizable, hay una matriz P regular tal que:

J = P AP 1 tal que J es una forma de Jordan.

Entonces A = P 1 JP y:

Ak = (P 1 JP ) (P 1 JP ) . . . (P 1 JP ) =
| {z }
k veces
= P 1 (P P 1 J) (P P 1 J) . . . (P P 1 J) P = P 1 J k P.
| {z }
k veces
es decir
Ak = P 1 J k P

Para calcular J k puede hacerse lo siguiente. Descomponemos J como suma de dos


matrices, una diagonal D y otra T triangular inferior con ceros en la diagonal:

J =D+T J k = (D + T )k .

Aunque en general la formula del binomio de Newton no es cierta para


matrices, si lo es en esta caso (ya que D y T conmutan). Por tanto:
k  
k
X k
(D + T ) = Di T ki .
i
i=0

El calculo de las potencias de D y T es muy sencillo; de hecho a partir de un exponente


suficientemente grande la matriz T ki se anulara.

46
Tema II. Captulo 5. Aplicaciones bilineales y formas cuadraticas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

5. Aplicaciones bilineales y formas o simplemente


f (x, y) = (x)FB1 B2 {y}.
cuadraticas.
1.2 Cambio de base de la matriz asociada a una forma
1 Aplicaciones bilineales. bilineal.
Definicion 1.1 Dados tres espacios vectoriales U, V, W sobre el cuerpo IK, una apli- Supongamos que tenemos dos espacios vectoriales U, V . Supongamos que tenemos
cacion las siguientes bases:
f : U V W
B1 = {u1 , . . . , um } B2 = {v1 , . . . , vn }
se dice que es bilineal si es lineal en cada una de las componentes, es decir: Bases de U ; Bases de V .
B10 = {u01 , . . . , u0m } B20 = {v10 , . . . , vn0 }
f (u1 + u2 , v1 ) = f (u1 , v1 ) + f (u2 , v1 ) A su vez denotaremos las coordenadas de los vectores x U , y V en cada una de
f (u1 , v1 + v2 ) = f (u1 , v1 ) + f (u1 , v2 ) las bases de la siguiente forma:
para cualesquiera , IK, u1 , u2 U , v1 , v2 V .
Coordenadas de x. Coordenadas de y.
(x1 , . . . , xm ) respecto a la base B1 (y 1 , . . . , y n ) respecto a la base B2
Definicion 1.2 Una forma bilineal es una aplicacion bilineal en la que el espacio (x01 , . . . , x0m ) respecto a la base B10 (y 01 , . . . , y 0n ) respecto a la base B20
vectorial final es el cuerpo IK:
La relacion entre las distintas bases y coordenadas utilizando las matrices de cambio
f : U V IK, bilineal.
de base es la siguiente:
{u0 } = MB10 B1 {u} {v 0 } = MB20 B2 {v}
1.1 Expresion matricial de una forma bilineal. (x) = (x0 )MB10 B1 (y) = (y 0 )MB20 B2

Supongamos que tenemos dos espacios vectoriales U, V y respectivas bases B1 , B2 : Ademas sabemos que podemos escriibir la aplicacion bilineal f matricialmente bien
con respecto a las bases B1 , B2 o B10 , B20 :
B1 = {u1 , . . . , um }, B2 = {v1 , . . . , vn }.
f (x, y) = (x)FB1 B2 {y} f (x, y) = (x0 )FB10 B20 {y 0 }
Sea f : U V IK una forma bilineal. Supongamos que x U , y V son vectores
cuyas coordenadas contravariantes con respecto a las bases B1 , B2 son: Veamos como se relacionan las matrices asociadas a f con respecto a las bases B1 , B2
x = xi ui ; y = y j vj . y B10 , B20 :

Entonces teniendo en cuenta la bilinealidad de f se tiene: (x)FB1 B2 {y} = (x0 )MB10 B1 FB1 B2 ((y 0 )MB20 B2 )t = (x0 )MB10 B1 FB1 B2 (MB20 B2 )t {y 0 }

f (x, y) = f (xi ui , y j vj ) = xi y j f (ui , vj ) y por tanto:


Por tanto la matriz asociada a f respecto a la base B1 y B2 es: FB10 B20 = MB10 B1 FB1 B2 (MB20 B2 )t

f (u1 , v1 ) f (u1 , v2 ) ... f (u1 , vn )



f (u2 , v1 ) f (u2 , v2 ) ... f (u2 , vn )
FB1 B2 = .. .. .. .. , 2 Formas bilineales sobre un solo espacio vec-
. . . .

f (um , v1 ) f (um , v2 ) ... f (um , vn )
torial.
de manera que:
De especial interes son las formas bilineales sobre un mismo espacio vectorial, es
f (u1 , v1 ) f (u1 , v2 ) ... f (u1 , vn ) y1

decir apliciones bilineales de la forma:
f (u2 , v1 ) f (u2 , v2 ) ... f (u2 , vn ) y n
f (x, y) = ( x1 x2 ... xm ) .. .. .. .. .
..
f : U U IK.
. . . .
f (um , v1 ) f (um , v2 ) ... f (um , vn ) yn Estudiemos sus peculiaridades.

47
Tema II. Captulo 5. Aplicaciones bilineales y formas cuadraticas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2.1 Expresion matricial y cambio de base. - Es sobreyectiva, ya que dada una matriz cuadrada A siempre podemos definir
una forma bilineal cuya matriz asociada en la base B sea A:
Ahora para escribir su expresion matricial basta fijar una unica base
f (x, y) = (x)A{y}.
B = {u1 , . . . , un }

de U . Tendremos: Por tanto dim(Bil(V )) = dim(Mnn (IK)) = n2 .


f (u1 , u1 ) f (u1 , u2 ) ... f (u1 , un )

f (u2 , u1 ) f (u2 , u2 ) ... f (u2 , un )
2.3 Formas bilineales simetricas y hemisimetricas.
f (x, y) = (x)FBB {y}, donde .. .. .. ..
. . . .

f (un , u1 ) f (un , u2 ) ... f (un , un ) Definicion 2.1 Sea f : U U IK una forma bilineal. Definimos:

En este caso la matriz FBB tambien puede denotarse por FB o simplemente por F , - f es simetrica si f (x, y) = f (y, x) para cualesquiera x, y U .
si indicamos previamente en que base estamos trabajando. - f es hemisimetrica o antisimetrica si f (x, y) = f (y, x) para cualesquiera
Si tenemos otra base del espacio vectorial U : x, y U .

B 0 = {u01 , . . . , u0n }. Al conjunto de formas bilineales simetricas en U lo denotamos por BilS (U ).


Al conjunto de formas bilineales antisimetricas en U lo denotamos por BilA (U ).
el cambio de base se escribe ahora como:

FB 0 = MB 0 B FB (MB 0 B )t Veamos algunas propiedades de este tipo de formas bilineales:


Como consecuencia de esto deducimos que:
1. Las formas bilineales simetricas son un subespacio vectorial de Bil(U ).
Dos matrices asociadas a una misma forma bilineal Prueba: En primer lugar BilS (U ) 6= ya que la forma bilineal 0 es simetrica.
sobre un espacio vectorial U son congruentes. Ademas si f, g BilS (U ), , IK y x, y U se tiene:

(f + g)(x, y) = f (x, y) + g(x, y) = f (y, x) + g(y, x) =


2.2 Espacio vectorial de formas bilineales en U . = (f + g)(y, x)

y por tanto (f + g) BilS (U ).


Al conjunto de formas bilineales sobre un mismo espacio vectorial U lo denotamos
por Bil(U ). Es facil ver que es un espacio vectorial con las operaciones habituales 2. Las formas bilineales antisimetricas son un subespacio vectorial de Bil(U ).
de suma de funciones y producto por un escalar. Prueba: Como antes Bil(U )A 6= , porqu la forma bilineal 0 es antisimetrica.
Ademas si f, g BilA (U ), , IK y x, y U se tiene:
Veamos cual es su dimension. Para ello construimos un isomorfismo entre Bil(V )
y Mnn (IK). Fijada una base B de U definimos: (f + g)(x, y) = f (x, y) + g(x, y) = f (y, x) g(y, x) =
: Bil(U ) Mnn (IK) = (f + g)(y, x)
f FBB
y por tanto (f + g) BilA (U ).
Esta aplicacion verifica: 3. Los subespacios BilS (U ) y BilA (U ) son suplementarios.
- Es lineal, ya que si f, g Bil(U ), , IK y x, y U se tiene: Prueba: Se tiene:
- BilS (U ) BilA (U ) = {0} ya que si una forma bilineal es simetrica y anti-
(f + g)(x, y) = f (x, y) + g(x, y) = (x)F {y} + (x)G{y} = (x)(F + G){y}
simetrica al mismo tiempo, cumple:
y por tanto (f + g) = (f ) + (g).
f (x, y) = f (y, x) = f (x, y) f (x, y) = 0
- Es inyectiva, ya que si dos formas bilineales tienen la misma matriz asociada,
son la misma aplicacion. para cualquier x, y U .

48
Tema II. Captulo 5. Aplicaciones bilineales y formas cuadraticas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

- Cualquier forma bilineal f puede descomponerse como suma de una forma - Tomamos g definida como se indica:
bilineal simetrica fS y otra antisimetrica fA , definidas como:
g(x, y) = 21 ((x + y) (x) (y)) =
fS (x, y) = 1
(f (x, y) + f (y, x)) = 12 (f (x + y, x + y) f (x, x) f (y, y)) =
2
fA (x, y) = 1
(f (x, y) f (y, x)) = 12 (f (x, x) + f (x, y) + f (y, x) + f (y, y) f (x, x) f (y, y)) =
2
= f (x, y)
4. Si f es una forma bilineal simetrica la matriz F asociada respecto a cualquier
Por tanto g = f y es bilineal y simetrica.
base de U , B = {u1 , . . . , un } es simetrica.
Prueba: Para cualesquiera i, j con 1 i, j n, se tiene: 2) 1) Ahora basta comprobar que la aplicacion g es la forma bilineal
simetrica cuya forma cuadratica asociada es :
fij = f (ui , uj ) = f (uj , ui ) = fji .
g(x, x) = 12 ((x + x) (x) (x)) = 12 ((2x) 2(x)) =
= 12 (4(x) 2(x)) = (x)
5. Si f es una forma bilineal antisimetrica la matriz F asociada respecto a cualquier
base de U , B = {u1 , . . . , un } es antisimetrica.
Observacion 3.2 De la definicion deducimos que dada un forma bilineal simetrica
Prueba: Para cualesquiera i, j con 1 i, j n, se tiene:
en U , tenemos una forma cuadratica y viceversa. Por tanto el conjunto de formas
fij = f (ui , uj ) = f (uj , ui ) = fji . cuadraticas en U es un espacio vectorial isomorfo al espacio vectorial de formas
bilineales simetricas BilS (U ).

3 Formas cuadraticas. 3.2 Expresion matricial y cambio de base.

3.1 Definicion. Sea U un espacio vectorial y B = {u1 , . . . , un } una base. Dada una forma cuadratica
: U K podemos considerar su forma polar asociada f : U U IK. La
expresion matricial de f es:
Definicion 3.1 Damos dos definiciones equivalentes:
f (x, y) = (x)FB {y}
1. Dado un espacio vectorial U y una forma bilineal simetrica f : U U IK, Por tanto, teniendo en cuenta que (x) = f (x, x), la expresion matricial de la forma
se llama forma cuadratica asociada a f a la aplicacion: cuadratica es:
(x) = (x)FB {x}
: U IK
La matriz asociada a una forma cuadratica respecto a una base B es por tanto
x f (x, x)
la matriz asociada a la correspondiente forma polar. Observemos, que como f es
una forma bilineal simetrica, la matriz FB asociada a una forma cuadratica es una
2. Dado un espacio vectorial U una aplicacion : U IK es una forma
matriz simetrica.
cuadratica si cumple:
- (x) = 2 (x), para cualesquiera IK, x U . Si ahora tenemos otra base B 0 = {u01 , . . . , u0n } de U , la relacion entre las matrices
- La aplicacion g : U U K definida como: asociadas a la forma cuadratica respecto a las bases B y B 0 es la misma que la
relacion entre las matrices asociadas a las correspondientes formas polares, es decir:
1
g(x, y) = ((x + y) (x) (y))
2 FB 0 = MB 0 B FB (MB 0 B )t
es bilineal y simetrica. A esta aplicacion se le llama forma polar. Como consecuencia de esto deducimos que:

Veamos que efectivamente ambas definiciones son equivalentes: Dos matrices asociadas a una misma forma cuadratica
sobre un espacio vectorial U son congruentes.
1) 2). Si f : U U IK es una forma bilineal simetrica y su forma
cuadratica asociada se tiene:
Del hecho de que el rango de una matriz se conserve por congruencia, nos permite
- (x) = f (x, x) = 2 f (x, x) = 2 (x). introducir la siguiente definicion:

49
Tema II. Captulo 5. Aplicaciones bilineales y formas cuadraticas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Definicion 3.3 Dada una forma cuadratica se define su rango como el rango de 3. conj(A) = conj(L(A)).
cualquier matriz asociada. Prueba: Primero aplicamos la propiedad anterior:

A L(A) conj(L(A)) conj(A).


3.3 Conjugacion. Veamos la otra inclusion. Sea x conj(A) e y L(A). Entonces:
3.3.1 Vectores conjugados.
X
y = i ai con i IK, ai A.

Definicion 3.4 Sea : U IK una forma cuadratica y f su forma polar. Dos Por tanto:
vectores x, y U se dicen conjugados respecto de o f si:
i ai ) = i f (x, ai )
P P
f (x, y) = f (x, = 0
f (x, y) = 0.
x conj(A), ai A f (x, ai ) = 0.
Esta claro que el vector nulo 0 es conjugado a todos los vectores del espacio Deducimos que x conj(L(A)).
vectorial:
4. El conjugado de un subespacio vectorial es el conjugado de un sistema generador
f (x, 0) = 0 para cualquier x U .
del mismo.
Definicion 3.5 Dada : U IK una forma cuadratica, se dice que un vector
x U es autoconjugado si esta conjugado consigo mismo: 3.3.3 Nucleo de una forma cuadratica.
(x) = 0
Definicion 3.7 Dada una forma cuadratica : U IK definimos su nucleo como
el conjunto de todos los vectores conjugados a todos los del espacio vectorial:
3.3.2 Subespacios conjugados.
ker() = {x U | f (x, y) = 0, y U } = conj(U )
Definicion 3.6 Sea : U IK una forma cuadratica. Sea A un subconjunto donde f es la forma polar asociada a .
de U , se llama conjugado de A y se denota por conj(A) al conjunto de todos los
vectores conjugados respecto a todos los elementos de A: Veamos algunas propiedades del nuclo:
conj(A) = {x U | f (x, a) = 0 para todo a A}.
1. El nucleo es un subespacio vectorial.
Veamos algunas propiedades del conjunto conjugado: 2. Dada una base B de U :

ker() = {x U | (x)FB = (0)}.


1. El conjunto conj(A) es un subespacio vectorial.
Prueba: Esta claro que 0 conj(A), porque el vector nulo esta conjugado
con cualquier vector. Ademas sean x, y conj(A) y , IK. Entonces para Prueba: Basta tener en cuenta que:
cualquier a A se tiene:
f (x, y) = 0, y U (x)FB {y} = 0, y U (x)FB = (0).
f (x + y, a) = f (x, a) + f (y, a) = 0
3. Todos los vectores del nucleo son autoconjugados. El recproco no es cierto.
x, y conj(A) f (x, a) = f (y, a) = 0 4. dim(ker()) = dim(U ) rango().
Y por tanto x + y conj(A). Prueba: Se deduce si tenemos en cuenta que la dimension de la solucion de
un sistema es la dimension del espacio vectorial menos el numero de ecuaciones
2. A B conj(B) conj(A).
independientes. Aplicando esto a:
Prueba:
x conj(B) f (x, b) = 0, b B ker() = {x U | (x)FB = (0)}
f (x, a) = 0, a A B x conj(A). se obtiene la relacion indicada.

50
Tema II. Captulo 5. Aplicaciones bilineales y formas cuadraticas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

3.3.4 Formas cuadraticas ordinarias y degeneradas. Teorema 3.13 Toda forma cuadratica es diagonalizable. Equivalentemente dada
una forma cuadratica siempre existe una base de vectores conjugados.
Definicion 3.8 Sea : U IK una forma cuadratica sobre un espacio vectorial
U:
ordinaria 4 Formas cuadraticas reales.
- se dice o ker() = {0} rango() = dim(U ).
no degenerada
4.1 Expresion canonica de una forma cuadratica.
- se dice degenerada ker() 6= {0} rango() < dim(U ).
Sea : U IR una forma cuadratica. Sabemos que siempre es diagonalizable. En
particular existe una base B en la que la matriz asociada es de la forma:
3.4 Diagonalizacion de una forma cuadratica.

Ip
Definicion 3.9 Una forma cuadratica : U IK se dice diagonalizable si FB = Iq . ()
existe una base de U respecto a la cual la matriz asociada a es diagonal.

Observacion 3.10 Si la matriz de una forma cuadratica : U IK respecto a


una base B es diagonal, entonces su expresion matricial es: Definicion 4.1 Se llama signatura de la forma cuadratica al par de numeros
1 2 2 2 n 2
naturales (p, q) donde p indica el numero de elementos positivos en su forma diagonal
(x) = (x)D{x} = d11 (x ) + d22 (x ) + . . . + dnn (x ) y q el numero de elementos negativos:
Por tanto diagonalizar es equivalente a obtener una expresion de la forma cuadratica
como suma de cuadrados. Sig() = (p, q).

Estos numeros cumplen p + q = rango().


Definicion 3.11 Dada una forma cuadratica : U IK, se llama base de vectores
conjugados a una base en la que cada vector esta conjugado a todos los demas.
En el siguiente teorema, llamado Ley de inercia de Sylvester se prueba que la
Proposicion 3.12 Sea una forma cuadratica : U IK. Una base B es una base definicion anterior es coherente, es decir, que los numeros (p, q) no dependen de la
de vectores conjugados si y solo si la matriz asociada FB es diagonal. base en la que se diagonalice.

Prueba: Sea B = {u1 , . . . , un }. Recordemos que si f es la forma polar asociada a Teorema 4.2 (Ley de inercia de Sylvester) La signatura de una forma
, la matriz asociada es: cuadratica : U IR es un invariante, es decir, no depende de la base.
(FB )ij = f (ui , uj )
Por tanto:
Prueba: Supongamos que tenemos dos bases de U :
B base de vectores conjugados f (ui , uj ) = 0, i 6= j
(FB )ij = 0, i 6= j B = {u1 , . . . , un }, B 0 = {u01 , . . . , u0n },
(FB ) es diagonal.
respecto a las cuales la matriz asociada a es diagonal (en la forma (*)).
Supongamos que la signaturas con respecto a las bases B, B 0 son respectivamente
Vimos que las matrices asociadas a las formas cuadraticas son simetricas. Ademas
(p, q) y (p0 , q 0 ). Sean:
el cambio de base transforma una matriz asociada en otra congruente. Por tanto si
U1 = L{u1 , . . . , up }
FB es una matriz asociada a w en cualquier base:
U2 = L{u0p0 +1 , . . . , u0n }
diagonalizable FB diagonalizable por congruencia
Si x U1 U2 es un vector no nulo se tiene:
Teniendo en cuenta que toda matriz simetrica es diagonalizable por congruencia x U1 (x) > 0
deducimos el siguiente teorema: x U2 (x) 0

51
Tema II. Captulo 5. Aplicaciones bilineales y formas cuadraticas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

luego, U1 U2 = {0}. En consecuencia: Proposicion 4.5 Sea : U IR una forma cuadratica en un espacio vectorial U
0 0
n-dimensional.
dim(U1 )+dim(U2 ) = dim(U1 +U2 )+dim(U1 U2 ) p+(np ) n pp
- es definida positiva Sig() = (n, 0).
Si repetimos el razonamiento inviertiendo los papeles de p y p0 obtenemos p0 p.
Por tanto: - es semidefinida positiva Sig() = (p, 0) con p < n.
p = p0 q = n p = n p 0 = q 0 .
- es definida negativa Sig() = (0, n).

4.2 Clasificacion de formas cuadraticas. - es semidefinida negativa Sig() = (0, q) con q < n.

Definicion 4.3 Sea : U IR una forma cuadratica: - es indefinida Sig() = (p, q) con p > 0, q > 0.
- es definida positiva (x) > 0, x 6= 0.

No es definida positiva y Prueba: Es una comprobacion inmediata si tenemos en cuenta que si Sig() = (p, q)
- es semidefinida positiva
(x) 0, x 6= 0. la expresion de respecto a una determinada base es:

- es definida negativa (x) < 0, x 6= 0. (x) = (x1 )2 + (x2 )2 + . . . + (xp )2 (xp+1 )2 (xp+2 )2 . . . (xp+q )2 .

No es definida negativa y
- es semidefinida negativa
(x) 0, x 6= 0.
Proposicion 4.6 Dos matrices congruentes tienen el determinante del mismo signo.
- es indefinida x, y 6= 0 con (x) > 0, (y) < 0.
Prueba: Si A y B son congruentes existe una matriz regular C con:

Todas estas definiciones pueden hacerse para matrices simetricas reales, si tenemos A = CBC t |A| = |C||B||C t | = |C|2 |B| signo(|A|) = signo(|B|).
en cuenta que cualquier matriz simetrica real determina una forma cuadratica:

Definicion 4.4 Sea A Mnn (IR) una matriz simetrica real:


Teorema 4.7 (Criterio de Sylvester) Sea : U IR una forma cuadratica y
F su matriz asociada respecto a una base B = {u1 , . . . , un }. Denotamos por:
- A es definida positiva A es congruente con I.
f11 f12 f13
  !
f11 f12
  F1 = (f11 ), F2 = , F3 = f21 f22 f23 , etc . . .
I f21 f22
- A es semidefinida positiva A es congruente con . f31 f32 f33

Entonces:
- A es definida negativa A es congruente con I.
  1. es definida positiva |Fi | > 0, para todo i = 1, . . . , n.
I 2. es definida negativa (1)i |Fi | > 0, para todo i = 1, . . . , n.
- A es semidefinida negativa A es congruente con .

I


Prueba:
- A es indefinida A es congruente con I .
1. =: Si es definida positiva en U , lo es en cualquier subespacio

Ui = L{u1 , . . . , ui }.

52
Tema II. Captulo 5. Aplicaciones bilineales y formas cuadraticas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

La matriz de la forma restringida a Ui es Fi . Por ser definida positiva Fi es


congruente a Id y por tanto su determinante es positivo.
=: Supongamos que |Fi | > 0, para todo i = 1, . . . , n. Probaremos por in-
duccion que es definida positiva:
- Para n = 1 esta claro.
- Supongamos que el resultado es cierto para formas cuadraticas sobre espacios
vectoriales de dimension n 1 y veamos que es cierto para dimension n.
Por hipotesis de induccion sabemos que es definida positiva en el subespacio
vectorial U1 = L{u1 , . . . , un1 }. Por tanto existe una base B10 de U1 respecto a
la cual la matriz asociada a restringida a U1 es la identidad. Consideramos
la base:
B 0 = B10 {u}
La matriz asociada a respecto a esta base es:

a1
..

I .


an1
a1 ... an1 an

Si diagonalizamos por congruencia obtenemos una matriz congruente a la matriz


F de respecto a la base de partida:

0
..
I .
C=
0
0 ... 0 b

Como F y C son congruentes sus determinates tienen igual signo. Por tanto
|C| > 0, b > 0 y la signatura de es (n, 0). Por tanto es efectivamente
definida positiva.
2. Para probar que es definida negativa (1)i |Fi | > 0, para todo
i = 1, . . . , n, tenemos en cuenta que:

es definida negativa es definida positiva.

Ahora basta aplicar el apartado anterior.

53
Tema III. Captulo 1. Introduccion a los espacios eucldeos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Tema III Con la notacion que utilizamos para el producto escalar. La matriz de Gram
respecto a la base B es de la forma:

Espacios vectoriales eucldeos.


u1 u1 u1 u2 ... u1 un

u2 u1 u2 u2 ... u2 un
GB =
... .. .. .. .
. . .
1. Introduccion a los espacios eucldeos.

un u1 un u2 ... un un

La expresion matricial del producto escalar respecto a esta base queda:

1 Producto escalar. x y = (x)G{y}

1.1 Definicion. siendo (xi ), (y i ) las coordenadas de los vectores x, y respecto a la base B.
Teniendo en cuenta que un producto escalar corresponde a una forma bilineal
Definicion 1.1 Sea U un espacio vectorial real. Se llama producto escalar a una
simetrica y definida positiva, la matriz de Gram cumple las siguientes propiedades:
forma bilineal simetrica y definida positiva.

1. GB es simetrica.
Si f : U U IR es una forma bilineal correspondiente a un producto escalar,
la imagen de dos vectores se denotara normalmente como: 2. GB es definida positiva.
f (x, y) = x y. 3. GB es congruente con la identidad. Es decir, siempre existe una base respecto
a la cual la matriz de Gram del producto escalar es la identidad.
Con esta notacion las propiedades que han de cumpirse para que efectivamente f
Prueba: Basta recordar que hemos visto que toda matriz simetrica y definida
defina un producto escalar son:
positiva es congruente con la identidad.
1. Bilinealidad: Para cualesquiera x, y, z U , , IR, ha de cumplirse: 4. Si B y B 0 son dos bases del espacio vectorial U , entonces:
(x + y) z = x z + y z.
x (y + z) = x y + x z. G0B = MB 0 B GB MB 0 B t

2. Simetra: Para cualesquiera x, y U , se tendra:


5. La matriz de Gram es un tensor homogeneo de segundo orden totalmente co-
x y = y x. variante.
Prueba: Basta tener en cuenta como se comporta con el cambio de base.
3. Definida positiva: Para cualquier x U no nulo:
x x > 0.
2 Norma de un vector.
Definicion 1.2 Un espacio vectorial eucldeo o un espacio eucldeo es un
espacio vectorial real donde hemos definido un producto escalar.
Definicion 2.1 Sea U un espacio vectorial eucldeo. Se llama norma o modulo
de un vector x a:

1.2 Matriz de Gram de un producto escalar. kxk = + x x.

Definicion 1.3 Sea U un espacio vectorial eucldeo, es decir, con una forma bilineal
Dado que el producto escalar es una forma bilineal simetrica y definida positiva,
f simetrica y definida positiva. Sea B = {u1 , . . . , un } una base de U . Llamamos
x x siempre es no negativo, por lo que la raz cuadrada toma valores reales.
matriz de Gram del producto escalar con respecto a la base B a la matriz GB
asociadad a la forma bilineal f respecto a esta base. Veamos algunas propiedades fundamentales de la norma:

58
Tema III. Captulo 1. Introduccion a los espacios eucldeos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

1. kxk = 0 x = 0. 5. Desigualdad de Minkowski:


Prueba:
kxk = 0 x x = 0 x = 0 kx + yk kxk + kyk

por ser el producto escalar definido positivo para cualesquiera x, y U .
Prueba: Se tiene:
2. kxk > 0 para cualquier x 6= 0.
kx + yk2 = (x + y) (x + y) = x x + x y + y x + y y =
3. kxk = ||kxk, para cualesquiera IR, x U . Prueba: = kxk2 + kyk2 + 2x y kxk2 + kyk2 + 2|x y|
p
kxk = + (x) (x) = + 2 x x = +|| x x = ||kxk y aplicando la desigualdad de Schwarz:

4. Desigualdad de Schwarz: kx + yk2 kxk2 + kyk2 + 2kxkkyk (kxk + kyk)2 .


kxkkyk |x y|
para cualesquiera x, y U . Definicion 2.2 En un espacio eucldeo U se llama vector unitario al que tiene
Prueba I: Distinguimos dos posibilidades: norma 1.
- Si x, y son dependientes, o bien x = 0, con lo cual el resultado es inmediato,
o bien y = x, para algun IR. En ese caso:
3 Angulo entre dos vectores.
kxkkyk = kxkkxk = ||kxk2
Definicion 3.1 Sea U un espacio eucldeo. Dados dos vectores no nulos x, y U
y
defimos el angulo que forman como el valor (x, y) [0, ] verificando:
|x y| = |x (x)| = |||x x| = ||kxk2 .
x y
- Si son independientes podemos considerar la restriccion del producto escalar al cos(x, y) = .
kxkkyk
subespacio V = L{x, y} generado por ambos. La forma bilineal que proporciona
el producto escalar restringida a V sigue siendo definida positiva. La matriz de
esa forma bilineal respecto a la base {x, y} es: Por la desigualdad de Schwarz:
    x y
x x x y kxk2 x y 1 1.
G0 = = kxkkyk
y x y y x y kyk2
Por tanto en el intervalo [0, ] solo existe un angulo cuyo coseno sea el anterior.
Por ser definida positiva su determinante es mayor que 0:
Con esta definicion de angulo se verifica:
|G0 | > 0 kxk2 kyk2 > (x y)2 kxkkyk > |x y|.
x y = kxk kyk cos(x, y)
Prueba II: Consideramos el vector x + y para cualquier IR. Por ser el
producto escalar definido positivo se tiene:

(x + y) (x + y) > 0 x x + x y + y x + 2 y y 0 4 Coordenadas covariantes.


kyk2 2 + 2(x y) + kxk2 0.
Definicion 4.1 Sea U un espacio eucldeo y B = {u1 , . . . , un } una base de U . Lla-
Es decir, obtenemos una ecuacion de segundo grado en que nunca toma valores mamos coordenadas covariantes de un vector x U a:
negativos. Por tanto a lo sumo puede tener una solucion real (doble) y el
discriminante de esa ecuacion no puede ser positivo: xi = x ui para i = 1, 2, . . . , n.

(2(x y))2 4kyk2 kxk2 0 kxkkyk |x y|. Las escribiremos como (x)cov .

59
Tema III. Captulo 1. Introduccion a los espacios eucldeos. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Observacion 4.2 Formalmente tambien usaremos la siguiente notacion. Llamare- 4. Si B, B 0 son dos bases de U , entonces:
mos a la base B  = {u1 , . . . , un } la base recproca de B y es aquella que verifica:
(x0 )cov = (x)cov MB 0 B t
MBB  = GB .
Con esta notacion un vector puede escribirse como: donde (x)cov , (x0 )cov son las coordenadas covariantes de un vector x respecto a
las bases B, B 0 respectivamente.
x = (xi ){ui } = (xi )cov {ui }.
Prueba: Se tiene que:
Podemos ver la relacion entre las bases B  y B.
(x0 )cov = (x0 )G0B = (x)MBB 0 (MB 0 B GB MB 0 B t ) = (x)GB MB 0 B t = (x)cov MB 0 B t .
i i i
(x ){ui } = (xi )cov {u } (x){ui } = (x)GB {u },
luego
MBB  = GB . 5 Expresiones del producto escalar.
Ademas si tenemos dos bases B y B 0 se tiene:
Supongamos que U es un espacio eucldeo y B es una base de U . Sean x, y dos
MBB  = GB ; MB 0 B 0  = GB 0 ; GB 0 = MB 0 B GB MB 0 B t . vectores de U . Sea GB la matriz del producto escalar respecto a la base B. In-
Por tanto: troduciendo los distintos tipos de coordenadas, el producto escalar de x e y puede
calcularse como:
MB 0  B  = MB 0  B 0 MB 0 B MBB  = GB 0 1 MB 0 B GB = GB 0 1 GB 0 MB 0 B t
y en definitiva:
x y = (x)contra GB {y}contra x y = (x)contra {y}cov
MB 0  B  = MB 0 B t .
Esto quiere decir que la base B  se comporta de manera similar a una base dual
aunque tiene otro significado distinto.
x y = (x)cov {y}contra x y = (x)cov GB 1 {y}cov
Veamos algunas propiedades de las coordenadas covariantes. Supondremos fijada
la base B de la definicion anterior.

1. Las coordenadas covariantes de x+ y son la suma de las coordenadas covariantes


de x, y.
Prueba: Basta tener en cuenta que:
(x + y) ui = x ui + y ui para i = 1, 2, . . . , n.

2. Las coordenadas covariantes de x son el producto de por las coordenadas


covariantes de x.
Prueba: Basta tener en cuenta que:
(x) ui = (x ui ) para i = 1, 2, . . . , n.

3. Si (x) = (xj ) son las coordenadas contravariantes de un vector x respecto a la


base B, entonces:

(x)cov = (x)GB y (x) = (x)cov G1


B

Prueba: Tenemos en cuenta que:


xi = x ui = xj uj ui = xj (GB )ij .

60
Tema III. Captulo 2. Ortogonalidad. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2. Ortogonalidad. Proposicion 2.3 Un sistema ortogonal que no contenga al vector 0 es un sistema


libre.
En todo el captulo trabajaremos sobre un espacio vectorial eucldeo U .
Prueba: Supongamos que {u1 , . . . , un } es un sistema ortogonal con todos los vec-
tores no nulos. Supongamos que existen escalares 1 , . . . , n verificando:
1 Vectores ortogonales.
1 u1 + . . . + n un = 0.
Definicion 1.1 Dos vectores x, y U se dicen ortogonales si: Si hacemos el producto escalar por un vector uj queda:
x y = 0. (1 u1 + . . . + n un ) uj = 0 uj = 0 1 u1 uj + . . . + n un uj = 0

Veamos algunas propiedades derivadas de esta definicion: Teniendo en cuenta que es un sistema ortogonal, ui uj = 0 si i 6= q. Queda por
tanto:
1. El unico vector ortogonal consigo mismo es el 0. j uj uj = 0.
Prueba: Basta tener en cuenta que el producto escalar corresponde a una Como uj 6= 0, entonces uj uj 6= 0 y obtenemos que j = 0 para cualquier j
forma cuadratica definida positiva. Por tanto: {1, . . . , n}.
x x = 0 x = 0.

2. Dos vectores no nulos son ortogonales si y solo si forman un angulo de


.
2.2 Bases ortogonales.
2
Prueba: Si x, y son dos vectores no nulos:
Definicion 2.4 Una base ortogonal es una base que es un sistema ortogonal.
x y
x, y ortogonales xy = 0 cos(x, y) = = 0 6 (x, y) = .
kxkkyk 2 De la definicion de sistema ortogonal se deduce claramente que:
3. Teorema de Pitagoras. Dos vectores x, y son ortogonales si y solo si
B es base ortogonal Matriz de Gram GB es diagonal
kx + yk2 = kxk2 + kyk2 .
Definicion 2.5 Una base ortonormal es una base que es un sistema ortonormal.
Prueba: Basta tener en cuenta que:
De la definicion de sistema ortonormal se deduce que:
kx + yk2 = (x + y) (x + y) = kxk2 + kyk2 + 2x y.
B es base ortonormal Matriz de Gram GB es la identidad

2 Sistemas ortogonales. En el estudio de las formas cuadraticas simetricas se vio que todas son diagonali-
zables por congruencia. Si ademas son definidas positivas, entonces son congruentes
2.1 Definicion a la matriz identidad. Aplicando este hecho a un espacio eucldeo deducimos:

Definicion 2.1 Un sistema de vectores {u1 , . . . , un } se dice ortogonal, si los vec- Teorema 2.6 Todo espacio eucldeo tiene una base ortonormal.
tores que lo forman son ortogonales dos a dos:
ui uj = 0 para cualesquiera i 6= j, i, j {1, . . . , n}.
2.3 Metodo de ortogonalizacion de Gram-Schmidt.
Definicion 2.2 Un sistema de vectores {u1 , . . . , un } se dice ortonormal, si es or- El metodo nos proporciona un sistema para calcular una base ortogonal {u1 , . . . , un }
togonal y todos los vectores son unitarios: a partir de una base cualquiera {e1 , . . . , en }.
ui uj = ij para cualesquiera i, j {1, . . . , n}. El procedimiento es el siguiente:

61
Tema III. Captulo 2. Ortogonalidad. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

1. Tomamos u1 = e1 . Prueba: Dado el sistema {u1 , . . . , up }, sabemos que podemos completarlo hasta una
2. Construimos u2 = e2 + 21 u1 . base de U :
Para hallar el parametro 21 exigimos que u2 sea ortogonal con u1 : {u1 , . . . , up , ep+1, , . . . , en }
e2 u1 Ahora aplicamos el metodo de ortogonalizacion de Gram-Schmidt a esta base. Los
u2 u1 = 0 e2 u1 = 21 u1 u1 21 = .
u1 u1 p primeros vectores no quedan modificados porque ya forma un sistema ortogonal.
De esta forma obtendremos una base ortogonal:
Ahora L{e1 , e2 } = L{u1 , u2 }.
3. Construimos u3 = e3 + 31 u1 + 32 u2 .
{u1 , . . . , up , up+1, , . . . , un }.
Para hallar los parametros exigimos que u3 sea ortogonal con u1 , u2 :
e3 u1
u3 u1 = 0 0 = e3 u1 + 31 u1 u1 + 32 u2 u1 31 = .
u1 u1
3 Singularidades de las bases ortonormales.
e3 u2
u3 u2 = 0 0 = e3 u2 + 31 u1 u2 + 32 u2 u2 32 = .
u2 u2
En esta seccion veremos las ventajas de trabajar en una base ortonormal en espacios
Ahora L{e1 , e2 , e3 } = L{u1 , u2 , u3 }. eculdeos.
4. Continuamos este proceso hasta completar la base. En concreto el paso
k-esimo es de la siguiente forma:
Construimos uk = ek + k1 u1 + . . . + kk1 uk1 con: 3.1 Matriz de Gram en una base ortonormal.
ek ui
ki = , i = 1, . . . , k 1, Teorema 3.1 La matriz de Gram de un producto escalar respecto a una base
ui ui
ortonormal es la identidad.
donde L{e1 , . . . , ek } = L{u1 , . . . , uk }.
Es interesante observar que todas estas expresiones tienen sentido porque los ui Prueba: Si B = {e1 , . . . , en } es una base ortonormal, entonces:
son vectores independientes. En particular son no nulos y ui ui 6= 0.
Por otra parte tambien vemos, que si ek ya es ortogonal a u1 , . . . , uk1 , entonces (GB )ij = ei ej = ij GB = Id.
uk = ek .

Este metodo tambien nos sirve para construir una base ortonormal. Para ello
simplemente hay que normalizar la base obtenida. En general, si {u1 , . . . , un } es 3.2 Expresion del producto escalar en una base ortonor-
una base ortogonal, entonces: mal.
u1 un
{ ,..., } Si B = {e1 , . . . , en } es una base ortonormal y x, y son vectores de coordenadas
ku1 k kun k
(xi ), (xj ) respecto a esta base, entonces:
es una base ortonormal. A este proceso se le llama normalizacion.

y1

2.4 Teorema de la base ortogonal incompleta. .
x y = ( x1 ... xn ) .. o x y = (x){y}
yn
Teorema 2.7 Sea U un espacio eucldeo n-dimensional. Si {u1 , . . . , up } es un sis-
tema ortogonal de p vectores no nulos, con p < n, entonces existe un sistema de
vectores {up+1, , . . . , un } cuya union con el primero: Por tanto la norma de un vector queda:
{u1 , . . . , up , up+1, , . . . , un } p
kxk = (x1 )2 + . . . + (xn )2
es una base ortogonal.

62
Tema III. Captulo 2. Ortogonalidad. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

3.3 Coordenadas covariantes respecto a una base Prueba: La necesidad de la condicion esta clara. Veamos la suficiencia. Sean x S1 ,
ortonormal. y S2 . Hay que ver que si se cumple la condicion del enunciado x, y son ortogonales.
Estos vectores pueden escribirse como:
Teorema 3.2 Respecto a una base ortonormal las coordenadas covariantes de un
vector coinciden con las contravariantes. x = 1 u1 + . . . + p up ; y = 1 v1 + . . . + q vq .
Entonces, por las propiedades del producto escalar:
Prueba: Basta tener en cuenta que la matriz de Gram respecto a la base ortonormal p
X q
X
es la identidad. x y = i j ui vj .
i=1 j=1

Por hipotesis ui vj = 0, luego x y = 0.


3.4 Relacion entre bases ortonormales.
Sean B y B 0 dos bases ortonormales de U : 4.2 Subespacio suplementario ortogonal.
0
B = {e1 , . . . , en }; B = {e01 , . . . , e0n }.
Definicion 4.3 Dado un espacio vectorial eucldeo U y un subconjunto V U , se
Sabemos que: llama subespacio ortogonal de V a:
GB 0 = MB 0 B GB MB 0 B t V = {x U | x v = 0, para todo v V }.
Ademas por ser bases ortonormales GB = GB 0 = Id por tanto deducimos que:
Obsevamos que esta definicion equivale a la de espacio conjugado de U , vista en
Teorema 3.3 La matriz de cambio de paso entre dos bases B, B 0 ortonormales es el captulo sobre formas cuadraticas. Por tanto tenemos de manera inmediata las
ortogonal, es decir,: siguientes propiedades:
MB 0 B MB 0 B t = Id.
1. V es un subespacio vectorial.
2. V W W V .
Es interesante observar que el hecho de que una matriz sea ortogonal, siginifica
3. Si V = L{v1 , . . . , vp } entonces V = {v1 , . . . , vp } .
que su inversa coincide con su traspuesta. Esto hace especialmente comodo el cambio
de base entre bases ortonormales. 4. Si V es un subespacio vectorial, V y V son suplementarios.
Prueba: En primer lugar V V = {0}, ya que:
x V V x x = 0 x = 0.
4 Proyeccion ortogonal.
Veamos ahora que V + V = U . Sea {v1 , . . . , vp } una base ortogonal de V .
Por el teorema de la base incompleta ortogonal, podemos extenderla a una base
4.1 Subespacios ortogonales. ortogonal de todo U :
{v1 , . . . , vp , vp+1 , . . . , vn }
Definicion 4.1 Dos subespacios eucldeos S1 y S2 de un espacio vectorial eucldeo Dado que vi vj = 0 para i {1, . . . , p}, j {p + 1, . . . , n} se tiene que:
U se dicen ortogonales cuando todos los vectores de uno de ellos son ortogonales a
vj V , para j {p + 1, . . . , n}
todos los del otro:
y por tanto:
x y = 0 para cualesquiera x S1 , y S2 .
L{vp+1 , . . . , vn } V dim(V ) n p

Proposicion 4.2 Si S1 y S2 son dos subespacios eucldeos generados respecti- Entonces:


vamente por los vectores {u1 , . . . , up } y {v1 , . . . , uq }, entonces la condicion necesaria n dim(V + V ) = dim(V ) + dim(V ) dim(V V ) p + n p = n
y suficiente para que sean ortogonales es que:
luego
ui vj = 0 para todo i {1, . . . , p}, j {1, . . . , q}. dim(V + V ) = n V + V = U.

63
Tema III. Captulo 2. Ortogonalidad. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

4.3 Aplicacion proyeccion ortogonal. Prueba: Sea x S , y S vectores no nulos. Por ser simetrico se tiene:

Definicion 4.4 Dado un subespacio V de un espacio eucldeo U definimos la x f (y) = y f (x).


proyeccion ortogonal sobre V como la aplicacion: Por ser x, y autovectores asociados respectivamente a , queda:
pV : U U
donde x = x1 + x2 con x1 V, x2 V . x (y) = y (x) ( )x y = 0.
x x1
Teniendo en cuenta que 6= vemos que x y = 0 y por tanto ambos vectores son
La definicion anterior tiene sentido porque hemos visto que V y V son subespacios ortogonales.
vectoriales suplementarios.
Teorema 5.3 Cualquier matriz simetrica A Mnn (IR) tiene n autovalores reales
(contados con multiplicidad).
5 Endomorfismos simetricos.
Prueba: Sabemos que siempre hay exactamente n autovalores complejos, correspon-
diente a las n soluciones del polinomio caracterstico de A. Hay probar que todos
5.1 Definicion. ellos son reales. Supongamos que CI es un autovalor y sea x = (x1 , . . . , xn ) C
In
un autovector no nulo asociado. Denotamos por c(x) el conjugado del vector x cuyas
Definicion 5.1 Sea U un espacio eucldeo. Un endomorfismo f : U U se dice componentes son las conjugadas de cada componente de x.
simetrico si:
x f (y) = y f (x). Recordemos que el conjugado de un numero complejo a+b es ab. Utilizaremos:
- Un numero complejo es real si y solo si coincide con su conjugado.
Si B = {e1 , . . . , en } es una base de U , GB es la matriz de Gram con respecto a esa
base y FB es la matriz de un endomorfismo respecto a B, la condicion de simetra - La conjugacion se comporta bien con la suma y producto de numeros complejos.
se escribe como sigue: - El producto de un numero complejo no nulo por su conjugado es un numero real
x f (y) = y f (x) x f (y) = f (x) y positivo:
(x)GB ((y)FB )t = (x)FB GB {y} (a + b)(a b) = a2 + b2 > 0.
(x)GB FB t {y} = (x)FB GB {y}
En nuestro caso tenemos:
para cualesquiera x, y U de coordenadas respecto a la base B, respectivamente
(xi ), (y i ). (x)A = (x) (x)Ac(x)t = (x)c(x)t (1)

Por tanto: Por otra parte conjugando la expresion anterior y teniendo en cuenta que por ser A
real c(A) = A:
f endomorfismo simetrico GB FB t = FB GB
c(x)c(A) = c()c(x) c(x)A = c()c(x) c(x)A(x)t = c()c(x)(x)t .
En particular si B es una base ortonormal: Teniendo en cuenta que A es simetrica, si trasponemos la expresion anterior queda:
t
f endomorfismo simetrico FB = FB FB es simetrica (x)Ac(x)t = c()(x)c(xt ).

(siendo B una base ortonormal) La comparamos con la ecuacion (1) y obtenemos:

(x)c(x)t = c()(x)c(x)t ( c())(x)c(x)t = 0.

5.2 Autovalores y autovectores de un endomorfismo Pero teniendo en cuenta que x 6= 0:


simetrico. (x)c(x)t = x1 c(x1 ) + . . . + xn c(xn ) > 0.

Proposicion 5.2 Sea f : U U un endomorfismo simetrico. Si y son auto- Deducimos que c() = 0, es decir, concide con su conjugado y por tanto es un
valores diferentes, entonces los subespacios caractersticos S y S son ortogonales. numero real.

64
Tema III. Captulo 2. Ortogonalidad. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Teorema 5.4 Todo endomorfismo simetrico de un espacio eucldeo n-dimensional Corolario 5.6 Si f es un endomorfismo simetrico de un espacio eucldeo, existe
tiene n autovalores reales (contados con multiplicidad). una base ortonormal respecto a la cual la matriz asociada es diagonal.

Prueba: Basta tener en cuenta que con respecto a una base ortonormal, la matriz Prueba: Basta aplicar el teorema anterior. Por ser f simetrico, siempre existe una
de un endomorfismo simetrico es simetrica. Ahora el teorema es consecuencia del base ortonormal de autovectores; pero la matriz de un endomorfismo con respecto a
resultado anterior. una base de autovectores es diagonal.

5.3 Base ortonormal de autovectores. Corolario 5.7 Si A Mnn (IR) es una matriz simetrica:
Teorema 5.5 Sea U un espacio eucldeo n-dimensional. Si f es un endomorfismo 1. A tiene todos los autovalores reales.
simetrico entonces existe una base ortonormal de autovectores de f . 2. A es diagonalizable por semejanza.
3. Existe una base IRn de autovectores de A ortonormal con el producto
Prueba: Probaremos que siempre existe una base ortogonal de autovectores. El escalar usual.
paso a una ortonormal es inmediato mediante el proceso de normalizacion.
4. Existe una matriz P ortogonal (es decir, verificando P t = P 1 ) tal que:
Por el teorema anterior sabemos que hay exactamente n autovalores reales (con-
tados con multiplicidad): D = P AP 1

1 m1
donde D es la matriz diagonal formada por los autovalores.
.. con multiplicidades algebraicas ..
. .
k
m
k

de manera que m1 + . . . + mk = n. Sabemos que los espacios caractersticos son una


suma directa:
V = S1 . . . Sk .
Ademas cada uno de ellos es ortogonal a los demas. Escogiendo para cada uno de ellos
una base ortogonal, contruimos una base de autovectores ortogonal del subespacio
V:
{u1 , . . . , up }

El problema es probar que V es en realidad todo el subespacio U . Nos fijamos que


cualquier autovector de f tiene que estar contenido en V .
Supongamos que V 6= U . Consideramos el espacio V . Sea x V , veamos que
f (x) V . Para ello hay que comprobar que f (x) ui = 0 para cualquier i = 1, . . . , p:

f (x) ui = x f (ui ) = x ui = 0.

f simetrico ui autovector x V

Por tanto el subespacio V es invariante por f . La restriccion de f a V :

g : V V ; g(x) = f (x)

vuelve a ser un endomorfismo simetrico. Tiene todos los autovalores reales y por
tanto al menos un autovector no nulo. Pero esto contradice el hecho de que todos
los autovectores estan en V y V V = {0}.

65
Tema III. Captulo 3. Transformaciones ortogonales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

3. Transformaciones ortogonales. Probemos el recproco. Teniendo en cuenta la proposicion anterior, basta suponer
que f lleva bases ortonormales en bases ortonormales y comprobar que entonces f
En todo el captulo trabajaremos sobre un espacio vectorial eucldeo U . conserva el producto escalar.
Sea B = {u1 , . . . , un } una base ortonormal de U y f (B) = {f (u1 ), . . . , f (un )} la
base ortonormal imagen. Dados x, y U de coordenadas (xi ), (y j ) respecto a la base
1 Definicion. B, tenemos:
f (x) f (y) = f (xi ui ) f (y j uj ) = xi y j f (ui ) f (uj ).
Definicion 1.1 Una transformacion ortogonal f de un espacio eculdeo U es un Teniendo en cuenta que las bases B y f (B) son ortonormales queda:
endomorfismo que conserva el producto escalar.
f (x) f (y) = xi y j f (ui ) f (uj ) = xi y j ij = xi y j ui uj = (xi ui ) (y j uj ) = x y.
f (x) f (y) = x y para cualesquiera x, y U.

Veamos que en realidad es suficiente la condicion de conservacion del producto


escalar, es decir:
2 Propiedades.
Proposicion 1.2 Si una aplicacion de f : U U conserva el producto escalar
Sea f : U U una transformacion ortogonal. Veamos algunas de las principales
entonces es una aplicacion lineal.
propiedades que cumple.

Prueba: Sean x, y U , , IR. Queremos ver que: 1. Conserva el producto escalar.


2. Transforma bases ortonormales en bases ortonormales.
f (x + y) = f (x) + f (y).
3. Conserva el modulo:
Se tiene:
kf (x)k2 = f (x) f (x) = x x = kxk2 .
(f (x + y) f (x) f (y)) (f (x + y) f (x) f (y)) =
4. Conserva angulos:
= f (x + y) f (x + y) + 2 f (x) f (x) + 2 f (y) f (y) f (x) f (y) x y
2f (x + y) f (x) 2f (x + y) f (y) + 2f (x) f (y) = cos(f (x), f (y)) = = = cos(x, y).
kf (x)kkf (y)k kxkkyk

= (x + y) (x + y) + 2 x x + 2 y y 5. Es biyectiva.
2(x + y) x 2(x + y) y + 2 x y = Prueba: Por llevar bases ortonormales en bases ortonormales es sobreyectiva.
Por la formula de las dimensiones es tambien inyectiva.
= ((x + y) x y) ((x + y) x y) = 0 Tambien podemos ver directamente que es inyectiva, comprobando que el nucleo
es {0}.
Por tanto f (x + y) f (x) f (y) = 0.
f (x) = 0 x x = f (x) f (x) = 0 x = 0.
Utilizando esta proposicion podemos dar una caracterizacion de las transforma- 6. La composicion de transformaciones ortogonales es una transformacion ortogo-
ciones ortogononales: nal.
Prueba: Si f y g son transformaciones ortogonales, se tiene:
Teorema 1.3 f : U U es una transformacion ortogonal si y solo si lleva bases
ortonormales en bases ortonormales. (g f )(x) (g f )(y) = g(f (x)) g(f (y)) = f (x) f (y) = x y.

7. La inversa de una transformacion ortogonal es una transformacion ortogonal.


Prueba: Si f es una transformacion ortogonal, esta claro que lleva bases ortonor- Prueba: Si f es ortogonal, se verifica:
males en bases ortonormales. Simplemente hay que tener en cuenta que f conserva
el producto escalar y que un sistema ortogonal es libre. f 1 (x) f 1 (y) = f (f 1 (x)) f (f 1 (y)) = x y.

66
Tema III. Captulo 3. Transformaciones ortogonales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

8. Si f es un endomorfismo y B una base de U se tiene: Teorema 3.3 Si una transformacion ortogonal t es diagonalizable, entonces existe
una base de autovectores ortonormal.
f transformacion ortogonal FB GB FB t = GB
Prueba: Por el teorema anterior los subespacios caractersticos correspondientes a
autovalores distintos son ortogonales. Por tanto si la transformacion es diagonaliza-
Prueba: Tenemos: ble, podemos construir una base de autovectores ortogonales formada a su vez por
f t. ortogonal f (x) f (y) = x y, x, y U bases de autovectores ortogonales de ada uno de los dos subespacios caractersticos.
(x)FB GB ((y)FB )t = (x)GB {y} x, y U
(x)FB GB FB t {y} = (x)GB {y} x, y U
FB GB FB t = GB .
4 Orientacion relativa de las bases.
9. Si f es un endomorfismo y B una base ortonormal de U se tiene:
Definicion 4.1 Sea U un espacio vectorial real de dimension finita. Dos bases B
f transformacion ortogonal FB FB t = Id FB es ortogonal y B 0 se dice que tienen la misma orientacion si la matriz de cambio de base tiene
determinate positivo:
|MB 0 B | > 0
Prueba: Es consecuencia de la propiedad anterior teniendo en cuenta que la
matriz de Gram respecto a una base ortonormal es la identidad.
Proposicion 4.2 La relacion tener la misma orientacion es de equivalencia.
10. Si f es un endomorfismo, B una base de U , entonces |FB | = 1. Ademas el conjunto cociente tiene dos elementos.
Prueba: Se tiene:
Prueba: Veamos que cumple las tres propiedades que caracterizan las relaciones de
|GB | = |FB GB FB t | = |FB ||GB ||FB | |FB |2 = 1 |FB | = 1. equivalencia.

1. Reflexiva: MBB = Id |MBB | = 1 toda base B tiene la misma


3 Autovalores y autovectores. orientacion que ella misma.
2. Simetrica: si B, B 0 tienen la misma orientacion, entonces |MB 0 B | > 0, y:
Proposicion 3.1 Los autovalores reales de una transformacion ortogonal son 1 o 1
1. |MBB 0 | = |MB 0 B 1 | = > 0.
|MB 0 B |
3. Transitiva:
Prueba: Si t : U U es una transformacion ortogonal, es un autovalor real y x 
el autovector no nulo asociado se tiene: B, B 0 misma orientacion |MB 0 B | > 0

B 0 , B 00 misma orientacion |MB 00 B 0 | > 0
t(x) t(x) = x x 2 x x = x x 2 = 1. |MB 00 B | = |MB 00 B 0 MB 0 B | = |MB 00 B 0 ||MB 0 B | > 0.
Por tanto B y B 00 tiene la misma orientacion.

Ahora probemos que solo hay dos clases de equivalencia. Sea B = {u1 , u2 , . . . , un }
Proposicion 3.2 Si t : U U es una transformacion ortogonal, los subespacios una base de U . Esta claro que la base:
caractersticos asociados a autovalores distintos son ortogonales.
B 0 = {u1 , u2 , . . . , un }

Prueba: Los unicos autovalores reales distintos de t son 1 y 1. Sean x S1 , tiene distinta orientacion que B 0 , porque la matriz de cambio de base es:
y S1 . Tenemos:
1 0 ... 0

0 1 ... 0
x y = t(x) t(y) = x y 2x y = 0 x y = 0. |MB 0 B | = 1.
MB 0 B ...
= ..
.
..
.
..
.
Por tanto S1 y S1 son ortogonales. 0 0 ... 1

67
Tema III. Captulo 3. Transformaciones ortogonales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Veamos que cualquier otra base B 00 tiene la misma orientacion que una de estas dos. 1. La composicion de dos transformaciones ortogonales directas es directa.
Si B 00 tiene distinta orientacion que B, entonces |MB 00 B | < 0 y:
2. La composicion de dos transformaciones ortogonales inversas es directa.
|MB 00 B 0 | = |MB 00 B ||MBB 0 | > 0. 3. La composicion de dos transformaciones ortogonales una directa y otra inversa
y por tanto B 00 tiene la misma orientacion que B 0 . es inversa.
4. La inversa de una transformaciones ortogonal directa es directa.
5. La inversa de una transformaciones ortogonal inversa es inversa.
5 Transformaciones ortogonales directas o in-
versas.
6 Transformaciones ortogonales en IR2 .
Definicion 5.1 Sea t : U U una transformacion ortogonal, B una base de U y
TB la matriz asociada a t respecto a la bse B . Decimos que t es un a transformacion: Comenzaremos describiendo las transformaciones ortogonales de IR2
- directa si |TB | = 1.
- inversa si |TB | = 1. 6.1 Giros en IR2 .
Teniendo en cuenta que la formula de cambio de base de la matriz asociada a t es: Teorema 6.1 Sea B = {e1 , e2 } una base ortonormal de IR2 y un angulo
cualquiera. El giro de angulo con respecto a la orientacion dada por
TB0 = MB 0 B TB MB 0 B 1 , la base B tiene por matriz asociada:
la definicion no depende de la base escogida, ya que matrices semejantes tienen el  
mismo determinante. Cos() Sin()
TB = .
Sin() Cos()
Por otra parte podemos dar la siguiente caracterizacion de las transformaciones
directas e inversas:
Prueba: Si tenemos en cuenta el siguiente dibujo:
Proposicion 5.2 Sea t : U U una transformacion ortogonal. Entonces t es un
a transformacion:
- directa si y solo si conserva la orientacion de las bases. t(e1 ) = Cos()e1 + Sin()e2
t(e2 ) = Sin()e1 + Cos()e2
- inversa si y solo si invierte la orientacion de las bases.

Prueba: Sea B = {u1 , . . . , un } una base de U . Sea t(B) = {t(u1 ), . . . , t(un )} la


imagen de esta base. Si TB es la matriz de la aplicacion t respecto a la base B se Por tanto obtenemos la matriz TB descrita en el enunciado.
tiene:
{t(uj )} = TB {ui }.
Por tanto, la matriz de cambio de base entre B y t(B) es: 6.1.1 Procedimiento para hallar la matriz de un giro de angulo
dado en una base cualquiera.
Mt(B)B = T.
Entonces: Supongamos que nos dan una base B = {e1 , e2 } no necesariamente ortonormal
y nos piden calcular la matriz de un giro de angulo en esta base con respecto a la
t directa |Mt(B)B | = |T | = 1 B y t(B) misma orientacion. orientacion que define.
t inversa |Mt(B)B | = |T | = 1 B y t(B) distinta orientacion.
Los pasos para hallar la matriz de giro son:

Se cumplen las siguientes propiedades: 1. Calcular una base B 0 = {u01 , u02 } ortonormal.

68
Tema III. Captulo 3. Transformaciones ortogonales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2. Comprobar que esta base tiene la misma orientacion que la base de partida, es 2. La matriz de la simetra respecto a esta base sera:
decir |MB 0 B | > 0. Si no la tuviese cambiamos el vector u01 por u01 .  
1 0
3. La matriz de giro respecto a la base B 0 es: TB 0 =
0 1
.
 
Cos() Sin() 3. Hacemos el cambio de base de la matriz TB 0 :
TB 0 = .
Sin() Cos()
TB = MB 0 B 1 TB 0 MB 0 B .
4. Hacemos el cambio de base de la matriz TB 0 :

TB = MB 0 B 1 TB 0 MB 0 B . 6.3 Clasificacion de transformaciones ortogonales en IR2 .

Hay que tener en cuenta que, en todos aquellos pasos donde aparezca el producto Teorema 6.4 Toda transformacion ortogonal t en IR2 distinta de la identidad es un
escalar (o normas), hay que utilizar la correspondiente matriz de Gram respecto a la giro o una simetra respecto a un eje.
base en que se este trabajando. Si la base en que se trabaja es ortonormal, la matriz
de Gram es la identidad y el producto escalar el usual. Prueba: Sea T la matriz de t respecto a una base B ortonormal. Sabemos que:

T T t = Id. |T | = 1. Los autovalores reales de T son 1 o 1.


2
6.2 Simetras en IR .
Hay las siguientes posibilidades:
Teorema 6.2 Sea B = {e1 , e2 } una base ortogonal de IR2 . La simetra respecto
al eje generado por e1 tiene por matriz asociada: 1. T tiene un unico autovalor real = 1 con multiplicidad 2. Entonces T es
  semejante a la identidad y por tanto de hecho T = Id.
1 0
TB = . 2. T tiene un unico autovalor real = 1 con multiplicidad 2. Entonces T es
0 1
semejante a Id y de hecho T = Id. Se trata de un giro de angulo o una
simetra respecto al origen.
Prueba: Basta tener en cuenta que el eje de simetra es invariante, mientras que los 3. T tiene por autovalores 1 = 1 y 2 = 1. Entonces T es semejante a la matriz
vectores perpendiculares a el son cambiados de signo:  
1 0
t(e1 ) = e1 ; t(e2 ) = e2 . TB 0 =
0 1

En particular existe una base ortonormal B 0 respecto a la cual la matriz de t es


Observacion 6.3 Tambien puede considerarse una simetra respecto al origen,
la anterior. Deducimos que se trata de una simetra respecto a un eje. Teniendo
pero es equivalente a un giro de angulo . La matriz asociada a esta simetra respecto
en cuenta que dicho eje esta formado por vectores que no varan por la simetra,
a cualquier base es Id.
el eje es el subespacio caracterstico S1 .
4. T no tiene autovalores reales. Supongamos que T es de la forma:
6.2.1 Procedimiento para hallar la matriz de una simetra en una  
base cualquiera. a b
T =
c d
Supongamos que nos dan una base B = {e1 , e2 } no necesariamente ortonormal
Como T T t = Id
y nos piden calcular la matriz de una simetra respecto al eje generado por un vector
u1 . a2 + b2 = 1; ac + bd = 0; c2 + d2 = 1;
Los pasos para hallar la matriz de la simetra son:
Ademas el polinomio caracterstico es:

1. Completamos u1 a una base ortogonal: B 0 = {u1 , u2 }. |T Id| = 2 (a + d) + ad bc = 0

69
Tema III. Captulo 3. Transformaciones ortogonales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Teniendo en cuenta que el discriminante es (a + d)2 4(ad bc) para que no 7.1 Giros en IR3 .
tenga autovalores reales tiene que cumplirse:
Teorema 7.1 Sea B = {e1 , e2 , e3 } una base ortonormal de IR3 y un angulo
ad bc > 0. cualquiera. El giro de angulo sobre el semieje de giro generador por e1 y
Podemos tomar: con respecto a la orientacion dada por la base B tiene por matriz asociada:

1 0 0
!
a = Cos(), b = Sin(); c = Sin(), d = Cos().
TB = 0 Cos() Sin() .
para ciertos valores , IR. 0 Sin() Cos()
Ahora:
Prueba: Basta tener en cuenta que el semieje de giro e1 queda invariante por el
ac + bd = 0 Cos()Sin() + Sin()Cos() = 0 Sin( + ) = 0.
giro. Mientras que al plano perpendicular generado por la base ortonormal {e2 , e3 }
ad bc > 0 Cos()Cos() Sin()Sin() > 0 Cos( + ) > 0.
le aplicamos la matriz de giro en IR2 vista en la seccion anterior.
Deducimos que + = 0 y por tanto:

c = Sin() = Sin() = Sin() = a. Observacion 7.2 Hay que tener en cuenta que para definir un giro en IR3 son
d = Cos() = Cos() = Cos() = b. imprescindibles:

Vemos que T puede escribirse como: 1. el semieje de giro (no solo el eje).
2. la orientacion que sirve de referencia.
 
Cos() Sin()
Sin() Cos() 3. el angulo de giro.

y por tanto se trate de un giro de angulo respecto a la orientacion dada por


Los dos primeros datos son los que permiten identificar en que sentido se toman
la base B.
los angulos positivos.

Resumimos la clasificacion en el siguiente cuadro:


7.1.1 Procedimiento para hallar la matriz de un giro en IR3 en una
Transformaciones ortogonales en IR2 base cualquiera.
Autovalores Clasificacion Tipo Supongamos que nos dan una base B = {u1 , u2 , u3 } no necesariamente ortonor-
{1, 1} Identidad Directa mal y nos piden calcular la matriz respecto a la base B de un giro de angulo ,
{1, 1} Simetra respecto a S1 . Inversa semieje v y con la orientacion dada por la base B.
Simetra respecto al origen. Los pasos para hallar la matriz de giro son:
{1, 1} m Directa
Giro de angulo . 1. Calcular una base B 0 = {v10 , v20 , v30 } ortonormal, de manera que
Giro
 de angulo : v
 v10 =
Cos() Sin() kvk
no reales TB = Directa
Sin() Cos()
B base ORTONORMAL. 2. Comprobar que esta base tiene la misma orientacion que la de partida, es decir
|MB 0 B | > 0. Si no la tuviese cambiamos el vector v20 por v20 .
3. La matriz de giro respecto a la base B 0 es:
7 Transformaciones ortogonales en IR3 . 1 0 0
!
TB 0 = 0 Cos() Sin()
Comenzaremos describiendo las transformaciones ortogonales de IR . 3 0 Sin() Cos()

70
Tema III. Captulo 3. Transformaciones ortogonales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

4. Hacemos el cambio de base de la matriz TB 0 : Prueba: Basta tener en cuenta que el plano de simetra es invariante, mientras que
1
los vectores perpendiculares a el son cambiados de signo:
TB = MB 0 B TB 0 MB 0 B .
t(e1 ) = e1 ; t(e2 ) = e2 ; t(e3 ) = e3 .
Sera util tener en cuenta que si la base de partida B ya era ortonormal,
entonces la matriz de paso MB 0 B es ortogonal y la inversa coincide
con la traspuesta.
7.2.4 Procedimiento para hallar la matriz de una simetra en una
Como antes, en todos aquellos pasos donde aparezca el producto escalar (o nor- base cualquiera.
mas), hay que utilizar la correspondiente matriz de Gram respecto a la base en que
se este trabajando. Si la base en que se trabaja es ortonormal, la matriz de Gram es Supongamos que nos dan una base B = {e1 , e2 , e3 } no necesariamente ortonor-
la identidad y el producto escalar el usual. mal y nos piden calcular la matriz de una simetra respecto al:

1. Eje generado por un vector u1 .


7.2 Simetras en IR3 .
2. Plano generado por un vector u1 , u2 .
7.2.1 Simetras respecto al origen.
Los pasos para hallar la matriz de la simetra son:
3
Teorema 7.3 Sea B una base cualquiera de IR . La simetra respecto al origen
tiene por matriz asociada TB = Id. 1. Simetra respecto al eje generado por u1 .

(a) Completamos u1 a una base ortogonal: B 0 = {u1 , u2 , u3 }. En realidad


Prueba: Basta tener en cuenta que la simetra respecto al origen invierte el signo
solo necesitamos que u2 , u3 sean perpendiculares a u1 .
de cualquier vector.
(b) La matriz de la simetra respecto a esta base sera:

7.2.2 Simetra respecto a una recta. 1 0 0


!
TB 0 = 0 1 0 .
Teorema 7.4 Sea B = {e1 , e2 , e3 } una base ortogonal de IR3 . La simetra res- 0 0 1
pecto al eje generado por e1 tiene por matriz asociada:
1 0 0
! (c) Hacemos el cambio de base de la matriz TB 0 :
TB = 0 1 0 .
0 0 1 TB = MB 0 B 1 TB 0 MB 0 B .

Prueba: Basta tener en cuenta que el eje de simetra es invariante, mientras que los 2. Simetra respecto al plano generado por u1 , u2 .
vectores perpendiculares a el son cambiados de signo:
(a) Completamos u1 a una base: B 0 = {u1 , u2 , u3 }, con u3 ortogonal al plano
t(e1 ) = e1 ; t(e2 ) = e2 ; t(e3 ) = e3 . L{u1 , u2 }.
(b) La matriz de la simetra respecto a esta base sera:
7.2.3 Simetra respecto a un plano.
1 0 0
!
TB 0 = 0 1 0 .
Teorema 7.5 Sea B = {e1 , e2 , e3 } una base ortogonal de IR3 . La simetra res-
0 0 1
pecto al plano generado por e1 , e2 tiene por matriz asociada:
1 0 0
!
(c) Hacemos el cambio de base de la matriz TB 0 :
TB = 0 1 0 .
0 0 1 TB = MB 0 B 1 TB 0 MB 0 B .

71
Tema III. Captulo 3. Transformaciones ortogonales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

7.3 Clasificacion de transformaciones ortogonales en IR3 . clasificacion de transformaciones ortogonales en IR2 sabemos que se trata de un
giro.
Teorema 7.6 Toda transformacion ortogonal t en IR3 distinta de la identidad es:
Por tanto existe una base ortonormal B 0 = {u1 , u2 , u3 } con
- un giro, o
- una simetra respecto a un punto, a una recta o a un plano, o
- composicion de un giro y una simetra respecto al plano perpendicular al eje de S1 = {u1 } y S1 = {u2 , u3 }
giro.

Prueba: Sea T la matriz de t respecto a una base B ortonormal. Sabemos que:


respecto a la cual la matriz asociada a t es:
T T t = Id. |T | = 1. Los autovalores reales de T son 1 o 1.

Hay las siguientes posibilidades:


1 0 0
!
1. T tiene un unico autovalor real = 1 con multiplicidad 3. Entonces T es TB 0 = 0 Cos() Sin()
semejante a la identidad y por tanto de hecho T = Id. 0 Sin() Cos()
2. T tiene un unico autovalor real = 1 con multiplicidad 3. Entonces T es
semejante a Id y de hecho T = Id. Se trata de una simetra respecto al
origen. y por tanto se trata de un giro de angulo respecto a la orientacion dada por
3. T tiene por autovalores 1 = 1, con multiplicidad 2 y 2 = 1, con multiplicidad la base B 0 y el semieje u1 .
1. Entonces T es semejante a la matriz

1 0 0
!
6. T tiene un unico autovalor real 1 = 1 con multiplicidad 1. Razonando como
TB 0 = 0 1 0 antes deducimos que existe una base ortonormal B 0 = {u1 , u2 , u3 } con
0 0 1

En particular existe una base ortonormal B 0 respecto a la cual la matriz de t


es la anterior. Deducimos que se trata de una simetra respecto a un plano.
S1 = {u1 } y S1 = {u2 , u3 }
Teniendo en cuenta que dicho plano esta formado por vectores que no varan
por la simetra, el plano de simetra es el subespacio caracterstico S1 .
4. T tiene por autovalores 1 = 1, con multiplicidad 1 y 2 = 1, con multiplicidad
2. Entonces T es semejante a la matriz respecto a la cual la matriz asociada a t es:
1 0 0
!
TB 0 = 0 1 0
0 0 1
1 0 0 1
!
1 0 0
!
0 0
!
Razonando como antes vemos que t es una simetra respecto un eje correspon- TB 0 = 0 Cos() Sin() = 0 Cos() Sin() 0 1 0 ,
diente al subespacio caracterstico S1 . 0 Sin() Cos() 0 Sin() Cos() 0 0 1
5. T tiene un unico autovalor real 1 = 1 con multiplicidad 1. Entonces IR3 puede
descomponerse como:
IR3 = S1 S1 y por tanto se trate de la composicion de un giro de angulo respecto a la
donde S1 es un subespacio 2-dimensional invariante por t. La restriccion de orientacion dada por la base B 0 y el semieje u1 , con una simetra respecto al
t a S1 es un transformacion ortogonal que no tiene autovalores reales. Por la
plano S1 .

72
Tema III. Captulo 3. Transformaciones ortogonales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Resumimos la clasificacion en el siguiente cuadro: 7.4.1 Transformaciones ortogonales en IR2 .

Transformaciones ortogonales en IR3 Si la transformacion ortogonal es una simetra respecto a una recta la matriz asocia-
Autovalores Clasificacion Tipo da respecto a una base ortonormal adecuada (uno de los vectores es el que genera el
eje de simetra), vimos que es:
{1, 1, 1} Identidad Directa  
1 0
{1, 1, 1} Simetra respecto al plano S1 . Inversa 0 1
{1, 1, 1} Simetra respecto al eje S1 . Directa
Tenemos determinante 1 y traza 0.
{1, 1, 1} Simetra respecto al origen. Inversa
Giro de angulo respecto al semieje Si la transformacion ortogonal es un giro la matriz asociada respecto a una base
u1 : ortonormal es:
1 0 0  
cos() sin()
TB = 0 Cos() Sin()
sin() cos()
0 Sin() Cos()
1, mult=1. Directa
B = {u1 , u2 , u3 } base ORTONORMAL. Tenemos determinante 1 y traza 2cos(). En este caso estan incluidas las situaciones
S1 = L{u1 } particulares en las que el angulo es 0 y por tanto la transformacion es la identidad o
S1 = L{u2 , u3 } el angulo es de 180o y la transformacion es una simetra respecto al origen.
Orientacion dada por base B. Vemos que la traza nos permite calcuar el coseno del angulo, de manera, que este
Composicion de: puede ser escogido entre el intervalo [0, ]. El problema que hay que resolver es si este
angulo ha de tomarse con signo positivo o negativo, dependiendo de la orientacion
- Giro de angulo respecto al semieje que estemos manejando.
u1 :
1 0 0 Para ello, si trabajamos con la orientacion dada por la base B = {e1 , e2 }, con-
TB = 0 Cos() Sin() sideramos la base B 0 = {e1 , f (e1 )}. Si ambas bases tienen la misma orientacion,
0 Sin() Cos() entonces el angulo ha de ser tomado con signo positivo; si tienen distinta, el angulo
1, mult=1. Inversa se toma con sentido negativo.
B = {u1 , u2 , u3 } base ORTONORMAL.
S1 = L{u1 } Resumimos todo esto en el siguiente cuadro:

S1 = L{u2 , u3 }
Orientacion dada por base B.


- Simetra respecto al plano S1 . Transformaciones ortogonales en IR2
Orientacion dada por B = {e1 , e2 }. F matriz asociada en cualquier base
7.4 Metodo alternativo de clasificacion transformaciones Det(F) Traza(F) Clasificacion
ortogonales. 1 2 Identidad
Simetra respecto al origen.
Expondremos un metodo alternativo para clasificar transformaciones ortogonales en
dimension 2 y 3. El resultado conocido en el que se basa es el siguiente:
1 2 m
Giro de angulo .
Proposicion 7.7 El determinante y la traza de la matriz asociada a un endomor- Giro de angulo :
fismo no depende de la base. B 0 = {e1 , f(e1 )}
1 6= 2, 2
Si |MB 0 B | > 0, = +arc cos(traza(F )/2).
Teniendo en cuenta esto y que, dependiendo de que tipo de transformacion orto- Si |MB 0 B | < 0, = arc cos(traza(F )/2).
gonal se trate, hemos estudiado cuales son sus matrices asocidadas respecto a bases 1 0 Simetra respecto a S1
ortonormales adecuadas, veamos como clasificar.

73
Tema III. Captulo 3. Transformaciones ortogonales. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

7.4.2 Transformaciones ortogonales en IR3 .

Estudiando, para cada tipo de transformacion, la traza y el determinante, obtenemos


la siguiente tabla de clasificacion.

Transformaciones ortogonales en IR3


Orientacion dada por base B. F matriz asociada en cualquier base
Det(F) Traza(F) Clasificacion
1 3 Identidad
1 1 Simetra respecto a la recta S1
Giro de angulo respecto al semieje u1 :
u1 = autovector asociado al 1
v vector linealmentente independiente con u1
1 6= 3, 1
B 0 = {u1 , v, f(v)}
Si |MB 0 B | > 0, = +arc cos((traza(F ) 1)/2).
Si |MB 0 B | < 0, = arc cos((traza(F ) 1)/2).
1 3 Simetra respecto al origen.
1 1 Simetra respecto al plano S1
Composicion de giro y simetra:
- Giro de angulo respecto al semieje u1 :
u1 = autovector asociado al 1
v vector linealmentente independiente con u1
1 6= 3, 1
B 0 = {u1 , v, f(v)}
Si |MB 0 B | > 0, = +arc cos((traza(F ) + 1)/2).
Si |MB 0 B | < 0, = arc cos((traza(F ) + 1)/2).

- Simetra respecto al plano S1 .

74
Tema IV. Captulo 2. El espacio afn ampliado. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2. El espacio afn ampliado. Las coordenadas homogeneas de un punto NO son unicas.


De hecho, (y 1 , y 2 , y 3 , t) y (z 1 , z 2 , z 3 , t0 ) son las coordenadas homogeneas de un
mismo punto X cuando son proporcionales, es decir, cuando existe un 6= 0 tal que:
1 Introduccion.
(y 1 , y 2 , y 3 , t) = (z 1 , z 2 , z 3 , t0 ).
El objetivo de esta seccion es describir algunas herramientas algebraicas que nos
permitiran trabajar con los puntos del infinito de espacios y variedades afines. De Teniendo en cuenta esto podemos definir el espacio afn ampliado como:
esta forma el espacio afn ampliado es el espacio afn al que se le anaden los
puntos del infinito. Definiremos unas nuevas coordenadas que nos permitiran
Definicion 1.2 Si {O; e1 , e2 , e3 } es una referencia de E3 definimos el espacio afn
manejar dichos puntos.
ampliado como el conjunto determinado por los puntos de coordenadas homogeneas
Aunque esta construccion puede resultar chocante en un principio, la principal (y 1 , y 2 , y 3 , t) 6= (0, 0, 0, 0), de manera que coordenadas propocionales definen el mismo
ventaja sera que ahora, situaciones que eran tratadas como casos particulares en el punto.
espacio afn, pueden ser tratadas en un contexto general en el espacio afn ampliado.
El espacio afn ampliado de un espacio afn E lo denotaremos por E.
Por ejemplo mientras que el el plano afn dos rectas distintas o se cortan en un punto
o son paralelas, el plano afn ampliado dos rectas distintas siempre se cortan
en un punto. Hemos visto que cuando t 6= 0 estos puntos se corresponden con puntos del espacio
afn usual. Sin embargo en el espacio afn ampliado incluimos tambien aquellos con
Aunque la construccion puede realizarse en espacios de dimension arbitraria noso-
coordenada t = 0. En la siguiente seccion veremos como se interpretan.
tros trabajaremos en E2 y en E3 . En concreto, y mientras no se indique lo contrario,
desarrollaremos la teora en E3 (las construcciones se particularizan para E2 de
manera evidente eliminando una coordenada).
1.2 Puntos impropios o puntos del infinito.
Finalmente, senalamos que aqu tan solo daremos un esbozo no demasiado riguroso
de estas ideas, como herramienta para trabajar con los puntos del infinito. Toda esta 1.2.1 Motivacion: porque los puntos con coordenada t = 0 repre-
teora se desarrolla de manera natural en la llamada Geometra Proyectiva. sentan puntos del infinito.

De momento hemos visto como representar un punto del espacio afn con unas nuevas
1.1 Coordenadas homogeneas y espacio afn ampliado. coordenadas que hemos llamado homogenas. Veamos como estas nuevas coordenadas
nos van a permitir trabajar con los puntos del infinito. Para motivar lo que haremos
Supongamos que tenemos un sistema de referencia {O; e1 , e2 , e3 } en E3 . pensamos en lo siguiente.

Definicion 1.1 Si (x1 , x2 , x3 ) son las coordenadas cartesianas de un punto X E, Supongamos que tenemos una recta que pasa por el punto P = (p1 , p2 , p3 ) y con
las coordenadas homogeneas de X son (tx1 , tx2 , tx3 , t) donde t es un numero real vector director u = (u1 , u2 , u3 ). Su ecuacion parametrica, en coordenadas afines es:
no nulo.
(x1 , x2 , x3 ) = (p1 , p2 , p3 ) + (u1 , u2 , u3 ) = (p1 + u1 , p2 + u2 , p3 + u3 )

Segun esta definicion la correspondencia entre coordenadas cartesianas y homoge- Intuitivamente el punto del infinito de la recta aparecera cuando tiende a . Sin
neas es la siguiente: embargo con estas coordenadas no tenemos manera de formalizar esto.
Cartesianas Homogeneas Homogeneas Cartesianas Escribamos esta ecuacion en coordenadas homogeneas (y 1 , y 2 , y 3 , t)
(x1 , x2 , x3 ) (y 1 , y 2 , y 3 , t) (y 1 , y 2 , y 3 , t) (x1 , x2 , x3 )
con con (y 1 , y 2 , y 3 , t) = (t(p1 + u1 ), t(p2 + u2 ), t(p3 + u3 ), t)
y 1 = tx1 x1 = y 1 /t
y 2 = tx2 x2 = y 2 /t Dado que coordenadas homogeneas proporcionales se siguien refieriendo a los mismos
y 3 = tx3 x3 = y 3 /t puntos, cuando 6= 0 podemos escribir la ecuacion como:

1
Es importante observar lo siguiente: (y 1 , y 2 , y 3 , t) = ((p1 + u1 ), (p2 + u2 ), (p3 + u3 ), 1)

85
Tema IV. Captulo 2. El espacio afn ampliado. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Ahora si hacemos = (o mas estrictamente, tomamos lmites cuando ) la Ademas supongamos que:
expresion anterior queda:
{e0 } = MB 0 B {e} y P = (p1 , p2 , p3 ) en coordenadas afines respecto {O; e1 , e2 , e3 }.
1 2 3 1 2 3
(y , y , y , t) = (u , u , u , 0).
Entonces sabemos cual es la relacion entre las coordenadas afines con respecto a una
Es decir el punto del infinito de la recta inicial es el que tiene por coordenadas y a otra referencia:
homogeneas (u1 , u2 , u3 , 0). Nos fijamos que estas coordenadas solo dependen del
vector director de la recta, no del punto (p1 , p2 , p3 ). Por tanto esta claro que otra (x) = (p) + (x0 )MB 0 B (x1 , x2 , x3 ) = (p1 , p2 , p3 ) + (x01 , x02 , x03 )MB 0 B
recta paralela a la primera tendra el mismo punto del infinito.
Veamos cual es la relacion entre las coordenadas homogeneas. Nos fijamos que ma-
tricialmente la formula anterior tambien puede escribirse como:
1.2.2 Definicion de puntos impropios o del infinito.
0
M 0

0
Despues de la discusion anterior, es logico hacer la siguiente definicion: (x1 , x2 , x3 , 1) = (x01 , x02 , x03 , 1) B B

0


1 2 3
p p p 1
Definicion 1.3 Fijada una referencia {O; e1 , e2 , e3 }. Si X tiene por coordenadas
homogeneas (y 1 , y 2 , y 3 , t), X se dice un punto impropio o un punto del infinito Pero dado que coordenadas homogeneas proporcionales se refieren al mismo punto,
si t = 0. En particular si u = (u1 , u2 , u3 ) son las coordenadas de un vector de V , el (x1 , x2 , x3 , 1) e (y 1 , y 2 , y 3 , t) denotan el mismo punto; y analogamente ocurre con
punto del infinito en la direccion de u tiene por coordenadas homogeneas (x01 , x02 , x03 , 1) e (y 01 , y 02 , y 03 , t0 ). Por tanto la formula queda:

(u1 , u2 , u3 , 0), para cualquier 6= 0.

0
MB 0 B 0

1 2 3 01 02 03 0
(y , y , y , t) = (y , y , y , t )
0


Por tanto cuando trabajemos en coordenadas homogeneas y queramos hallar los 1
p p p2 3
1
puntos impropios (o del infinito) de un determinado objeto geometrico, tendremos
que intersecar las ecuaciones de dicho objeto con la ecuacion t = 0.
En particular: 1.4 Ecuaciones cartesianas de variedades afines en coor-
- En el plano afn ampliado E2 , t = 0 es la ecuacion de la recta de puntos del denadas homogeneas.
infinito.
Utilizando las formulas que relacionan las coordenadas afines y homogeneas de un
- El el espacio afn ampliado E3 , t = 0 es la ecuacion del plano de puntos del punto, veremos como pasar de las ecuaciones cartesianas de una variedad afn en coor-
infinito. denadas afines a coordenadas homogeneas. Recordemos que fijada una referencia,
las coordenadas homogeneas (y 1 , y 2 , y 3 , t) se corresponden con las afines

1.3 Cambio de sistema de referencia en coordenadas ho- (x1 , x2 , x3 ) = (y 1 /t, y 2 /t, y 3 /t).
mogeneas.
Supongamos que tenemos dos sistemas de referencia {O; e1 , e2 , e3 } y {P ; e01 , e02 , e03 }.
1.4.1 Rectas en E2 .
Fijamos la siguiente notacion para coordenadas afines y homogeneas con respecto a
cada una de las referencias: Supongamos que tenemos la ecuacion cartesiana de una recta:

Referencia. Coordenadas afines. Coordenadas homogeneas. a1 x1 + a2 x2 + a3 = 0


{O; e1 , e2 , e3 } (x1 , x2 , x3 ) (y 1 , y 2 , y 3 , t)
| {z } Cambiando estas coordenadas a homogeneas queda:
B
{P ; e01 , e02 , e03 } 01 02
(x , x , x ) 03 01 02 03
(y , y , y , t ) 0
y1 y2
| {z } a1 + a2 + a3 = 0 a1 y 1 + a2 y 2 + a3 t = 0
B0 t t

86
Tema IV. Captulo 2. El espacio afn ampliado. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Si queremos hallar ahora los puntos del infinto de esta recta, no tenemos mas que 1.5 Ecuaciones parametricas de variedades afines en co-
intersecarla con la recta del infinito t = 0: ordenadas homogeneas.

a1 y 1 + a2 y 2 + a3 t = 0
a1 y 1 + a2 y 2 = 0 (y 1 , y 2 ) = (a2 , a1 ) Veamos ahora como se escriben las ecuaciones parametricas de las variedades afines
t=0
en coordenadas homogeneas.
de manera que obtenemos que el punto del infinito corresponde a la direccion que
marca el vector director de la recta.
1.5.1 Rectas en E2 .

1.4.2 Planos en E3 . Si P = (a1 , a2 , tP ) y Q = (b1 , b2 , tQ ) son las coordenadas homogeneas de dos


puntos distintos en el plano afn ampliado, entonces la ecuacion parametrica de la
Supongamos que tenemos la ecuacion cartesiana de una plano: recta que los une es:

a1 x1 + a2 x2 + a3 x3 + a4 = 0 (y 1 , y 2 , t) = (a1 , a2 , tP ) + (b1 , b2 , tQ )

Cambiando estas coordenadas a homogeneas queda:


Observaciones sobre esta ecuacion:
y1 y2 y3
a1 + a2 + a3 + a4 = 0 a1 y 1 + a2 y 2 + a3 y 3 + a4 t = 0 - Aunque aparecen dos parametros y , teniendo en cuenta que coordenadas
t t t
homogeneas proporcionales definen un mismo punto, el objeto que definen estas
Si queremos hallar ahora los puntos del infinto de esta recta, no tenemos mas que ecuaciones tiene dimension 1.
intersecarla con el plano del infinito t = 0:
- De nuevo los puntos impropios de la recta se obtiene intersecando con la ecuacion
1 2 3
 t = 0.
a1 y + a2 y + a3 y + a4 t = 0
t=0 - La ventaja de esta ecuacion es que sirve para hallar, tanto la ecuacion de la recta
pasando por dos puntos, como la ecuacion de una recta conocido un punto y el vector
Ahora esta interseccion corresponde a los puntos del infinito cuya direccion esta director. Simplemente hay que tener en cuenta que el hecho de que una recta tenga
determinada por cualquier vector contenido en el plano. por vector director a (u1 , u2 ) significa que pasa por el punto del infinito (u1 , u2 , 0).

1.4.3 Rectas en E3 . 1.5.2 Rectas en E3 .

Supongamos que tenemos las ecuaciones cartesianas de una recta (como interseccion Es totalmente analogo al caso anterior. Si P = (a1 , a2 , a3 , tP ) y Q = (b1 , b2 , b3 , tQ )
de dos planos):  son las coordenadas homogeneas de dos puntos distintos en el espacio afn am-
a1 x1 + a2 x2 + a3 x3 + a4 = 0 pliado, entonces la ecuacion parametrica de la recta que los une es:
b1 x1 + b2 x2 + b3 x3 + b4 = 0
Razonando como antes, en coordenadas a homogeneas queda: (y 1 , y 2 , y 3 , t) = (a1 , a2 , a3 , tP ) + (b1 , b2 , b3 , tQ )

a1 y 1 + a2 y 2 + a3 y 3 + a4 t = 0
b1 y 1 + b2 y 2 + b3 y 3 + b4 t = 0 1.5.3 Planos en E3 .

El punto del infinito de dicha recta se obtiene resolviendo el sistema: Ahora si tenemos tres puntos no alineados en el espacio afn ampliado E3 con coor-
denadas homogeneas, P = (a1 , a2 , a3 , tP ), Q = (b1 , b2 , b3 , tQ ) y R = (c1 , c2 , c3 , tR ),
a1 x1 + a2 x2 + a3 x3 + a4 t = 0 la ecuacion parametrica del plano que definen sera:
b1 x1 + b2 x2 + b3 x3 + b4 t = 0
t=0 (y 1 , y 2 , y 3 , t) = (a1 , a2 , a3 , tP ) + (b1 , b2 , b3 , tQ ) + (c1 , c2 , c3 , tR )

87
Tema IV. Captulo 2. El espacio afn ampliado. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Observamos, que esta ecuacion nos permite tambien calcular la ecuacion del plano
conocidos dos puntos y un vector director o un punto y dos vectores directores. No
hay mas que tener en cuenta que un vector u = (u1 , u2 , u3 ), corresponde al punto
del infinito (u1 , u2 , u3 , 0).

88
Tema IV. Captulo 1. El espacio afn. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Tema IV 3. AB = CB CA.
Prueba: Es consecuencia directa de la condicion (b).

Espacios geometricos E2 y E3 4. AB = A0 B 0 AA0 = BB 0 .


Prueba: Utilizamos la condicion (b):

AA0 = AB + BA0
1. El espacio afn. BB 0 = BA0 + A0 B 0
AA0 BB 0 = AB A0 B 0 = 0
AA0 = BB 0

1 Definicion y propiedades.
Aunque la teora de espacios afines puede desarrollarse en dimension arbitraria,
Definicion 1.1 Sea E un conjunto no vaco. Se dice que E esta dotado de estructura nosotros trabajaremos principalmente sobre dos casos particulares: el plano afn
de espacio afn asociado a un espacio vectorial V , si existe una aplicacion: eucldeo E2 definido sobre el espacio vectorial IR2 y el espacio afn eucldeo E3
definido sobre el espacio vectorial IR3 .
EE V
(P, Q) v = P Q

verificando las propiedades: 2 Sistema cartesiano de referencia y coorde-


nadas cartesianas.
(a) P E y v V existe un unico Q E verificando que v = P Q.
(b) P, Q, R E se verifica que P Q + QR = P R (relacion de Chasles). Trabajaremos en un espacio afn eucldeo E asociado a un espacio vectorial real V
de dimension n.
A los elementos de un espacio afn los llamaremos puntos. Si ademas el espacio
vectorial V es eucldeo, entonces E se dice un espacio afn eucldeo. Definicion 2.1 Un sistema de referencia {O; e1 , . . . , en } de E esta formado por
un punto O E y una base de vectores de V , {e1 , . . . , en }.
Por la propiedad (a), dado un punto P E y un vector v V podemos definir el En particular si la base {e1 , . . . , en } es ortonormal, entonces el sistema de refe-
punto Q := P +v, como el unico punto Q E que verifica v = P Q. Geometricamente rencia se dice rectangular.
el punto Q se obtiene trasladando el punto P en la direccion y distancia indicada
por el vector v.
Definicion 2.2 Dado {O; e1 , . . . , en } un sistema de referencia en E, las coorde-
Las siguientes propiedades son consecuencia inmediata de la definicion de espacio nadas cartesianas de un punto P E son las coordenadas contravariantes del
afn. Para cualesquiera puntos A, B, C, A0 , B 0 E se verifica: vector OP en la base {e1 , . . . , en }.

1. AB = 0 A = B. Nos fijamos en que las coordenadas cartesianas de un punto estan bien definidas
Prueba: Por la condicion (b) se tiene: ya que:
- Dados O y P el vector OP esta definido de manera unica.
AA + AB = AB AA = 0.
- Las coordenadas de un vector (OP ) en una base de un espacio vectorial son
Por otra parte, por la condicion (a) sabemos que hay un unico punto B verifi- unicas.
cando 0 = AB.
2. AB = BA.
Prueba: Por la condicion (b) y la propiedad anterior:
2.1 Cambio de sistema de referencia.

AB + BA = AA = 0 AB = BA. Supongamos que tenemos dos sistemas de referencia {O; e1 , . . . , en } y {P ; e01 , . . . , e0n }.
Denotamos por:
B = {e1 , . . . , en }; B 0 = {e01 , . . . , e0n }.

77
Tema IV. Captulo 1. El espacio afn. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Conocemos como estan relacionados entre si. En concreto: 1. Rectas: Una recta queda determinada dando un punto P = (p1 , p2 ) por el
que pasa y un vector u = (u1 , u2 ) que genera el subespacio que determina su
{e0 } = MB 0 B {e}
direccion. Podemos describir los puntos X = (x1 , x2 ) de la recta con cualquiera
(p) = (p1 , . . . , pn ) coordenadas del punto P en la referencia {O; e1 , . . . , en }
de las siguientes ecuaciones1 :
Recordemos que esto significa que las coordenadas del vector OP en la base B, son X = P + u Ecuacion vectorial.
(p1 , . . . , pn ). 
x1 = p1 + u1
Sea X E es un punto cualquiera del espacio afn denotaremos: Ecuaciones parametricas.
x2 = p2 + u2
(x) = (x1 , . . . , xn ) coordenadas del punto X en la referencia {O; e1 , . . . , en }
(x0 ) = (x01 , . . . , x0n ) coordenadas del punto X en la referencia {P ; e01 , . . . , e0n } x1 p1 x2 p2
u1
= u2
Ecuacion continua.

Las coordenadas de X en la referencia {O; e1 , . . . , en } son las coordenadas del vec- a1 x1 + a2 x2 + b = 0 Ecuacion cartesiana.
tor OX en la base B. Las coordenadas de X en la referencia {P ; u1 , . . . , un } son
las coordenadas del vector P X en la base B 0 . Veamos como se relacionan ambas
coordenadas. Se tiene: Donde la ecuacion cartesiana puede obtenerse (por ejemplo) a partir de las
parametricas eliminando el parametro o a partir de la continua eliminando de-
P X = OX OP = (x){e} (p){e} nominadores.
La ecuacion cartesiana cumple la siguiente interesante propiedad:
Por tanto es claro que las coordenadas de P X en la base B son (x) (p). Ahora
simplemente pasamos las coordenadas de este vector de la base B a la base B 0 : Teorema 3.2 Si a1 x1 + a2 x2 + a3 = 0 es la ecuacion cartesiana de una recta
r, entonces (a1 , a2 ) son las coordenadas covariantes de un vector perpendicular
(y) = [(x) (p)]MBB 0 (y) = [(x) (p)]MB 0 B 1 a cualquier vector contenido en la recta.
Prueba: Un vector v contenido en la recta esta determinado a su vez por dos
puntos X e Y contenidos en la recta, de manera que v = XY . Se tiene:
3 Variedades afines. X r a1 x1 + a2 x2 + a3 = 0

(a1 )(y 1 x1 ) + (a2 )(y 2 x2 ) = 0
Y r a1 y 1 + a2 y 2 + a3 = 0
Definicion 3.1 Sea E un espacio eucldeo asociado a un espacio vectorial V . Dado
Deducimos por tanto que el vector v es perpendicular al vector de coordenadas
un punto P E y un subespacio vectorial U V , la variedad afn que pasa por P
covariantes (a1 , a2 ).
y tiene la direccion de U se define como el conjunto de puntos:
El vector de coordenadas covariantes (a1 , a2 ) se dice el vector normal de la
P + U = {Q E| Q = P + u, u U } = {Q E| P Q U } recta.
Una recta queda tambien determinada por dos puntos P y Q diferentes.
La dimension de la variedad afn es la dimension del subespacio vectorial U que de- En ese caso podemos obtener las ecuaciones anteriores tomando como vector
fine su direccion. Si esta dimension es 0, 1 o 2 la variedad afn sera respectivamente, director el que une ambos puntos u = P Q. Suele utilizarse directamente la
un punto, una recta o un plano. ecuacion continua:
x1 p1 x2 p2
=
Veamos las distintas formas de presentar las ecuaciones de las variedades afines en q 1 p1 q 2 p2
el plano afn E2 y en el espacio afn E3 . De nuevo para que esta ecuacion sea valida, los denominadores han de ser no
nulos.
Por ultimo tambien es util a veces escribir directamente la ecuacion de una recta
3.1 Variedades afines en el plano afn E2 . conocida su interseccion con los ejes. La recta pasando por los puntos (a, 0) y
(0, b) tiene por ecuacion:
Trabajaremos en el plano afn eucldeo E2 con respecto a un sistema de referencia x1 x2
+ =1
{O; e1 , e2 }. a b
1 Para que la ecuacion continua tenga sentido los denominadores u1 y u2 han de ser no

0. Puntos: Un punto en E2 queda determinado dando sus coordenadas. nulos.

78
Tema IV. Captulo 1. El espacio afn. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

A esta ecuacion se le suele llamar ecuacion canonica de la recta. (x1 , x2 , x3 ) del plano:
2. Planos: El unico plano en E2 es el propio plano afn E2 , luego no tiene sentido X = P + u + v Ecuacion vectorial.
practico hablar de sus ecuaciones.
x1 = p1 + u1 + v 1
)
Ecuaciones
x2 = p2 + u2 + v 2
parametricas.
3.2 Variedades afines en el espacio afn E3 . x3 = p3 + u3 + v 3
1
x p1 x2 p2 x3 p3

Trabajaremos en el espacio afn eucldeo E3 con respecto a un sistema de referencia 1 2 3
u u u =0

{O; e1 , e2 , e3 }. v1 2 3
v v
m
0. Puntos: Un punto en E3 queda determinado dando sus coordenadas. a1 x1 + a2 x2 + a3 x3 + a4 = 0 Ecuacion cartesiana.
1. Rectas: Una recta queda determinada dando un punto P = (p1 , p2 , p3 ) por el
que pasa y un vector u = (u1 , u2 , u3 ) que genera el subespacio que determina De nuevo se cumple la siguiente interesante propiedad:
su direccion. Podemos describir los puntos X = (x1 , x2 , x3 ) de la recta con
cualquiera de las siguientes ecuaciones2 : Teorema 3.3 Si a1 x1 + a2 x2 + a3 x3 + a4 = 0 es la ecuacion cartesiana de
un plano, entonces (a1 , a2 , a3 ) son las coordenadas covariantes de un vector
perpendicular a cualquier vector contenido en el plano.
Ecuacion El vector de coordenadas covariantes (a1 , a2 , a3 ) se dice el vector normal del
X = P + u
vectorial. plano.
Un plano queda tambien determinado por tres puntos P, Q, R no alinea-
x1 = p1 + u1
)
Ecuaciones dos. En ese caso podemos escribir las ecuaciones anteriores tomando como
x2 = p2 + u2 vectores directores P Q y P R.
parametricas.
x3 = p3 + u3 Por ultimo, conocidos los puntos de interseccion del plano con los ejes: (a, 0, 0),
(0, b, 0), (0, 0, c) podemos escribir directamente la ecuacion canonica:
Ecuacion
x1 p1 x2 p2 x3 p3
u1
= u2
= u3
continua. x1 x2 x3
+ + = 1.
a b c
  
a1 x1 + a2 x2 + a3 x3 + a4 = 0 a1 a2 a3 Interseccion de
b1 x1 + b2 x2 + b3 x3 + b4 = 0
con rg
b1 b2 b3
=2
dos planos. 4 Haces de variedades afines.
Un haz de variedades afines consiste en una familia de variedades afines que dependen
La ecuacion de la recta expresada como interseccion de dos planos, puede ob- linealmente de varios parametros. Aqu veremos dos casos particulares.
tenerse (por ejemplo) a partir de las parametricas eliminando los parametro o
a partir de la continua eliminando denominadores.
Una recta queda tambien determinada por dos puntos P y Q diferentes. De 4.1 Haces de rectas en E2 .
nuevo podemos obtener las ecuaciones anteriores tomando como vector director
el que une ambos puntos u = P Q. Sean r y s dos rectas de E2 de ecuaciones cartesianas:

2. Planos: Un plano queda determinado por un punto P = (p1 , p2 , p3 ) por r a1 x1 + a2 x2 + a3 = 0


el que pasa y por una base {u, v} del subespacio vectorial que marca su s b1 x1 + b2 x2 + b3 = 0
direccion. Veamos las distintas ecuaciones que describen los puntos X = El haz de rectas formado por r y s es el conjunto de todas las rectas definidas
por las siguientes ecuaciones:
2 Para que la ecuacion continua tenga sentido los denominadores u1 , u2 y u3 han de ser

no nulos. {(a1 x1 + a2 x2 + a3 ) + (b1 x1 + b2 x2 + b3 ) = 0| , IR, (, ) 6= (0, 0)}

79
Tema IV. Captulo 1. El espacio afn. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

o tambien De esta forma dos rectas son paralelas si sus vectores directores son proporcionales,
o equivalentemente, si forman un angulo de cero grados.
{(a1 x1 + a2 x2 + a3 ) + (b1 x1 + b2 x2 + b3 ) = 0| IR} {s}.
Dos rectas son perpendiculares si sus vectores directores son ortogonales, o equi-
valentemente si forman un angulo de 2 .
Si r y s se cortan en un punto P , el haz de rectas esta formado por todas las rectas
que pasan por el punto P .
Si r y s son paralelas, entonces el haz de rectas esta formado por todas las rectas
paralelas a ellas. 5.2 Angulo entre dos planos.

El angulo que forman dos planos en el espacio afn E3 es el menor angulo que
4.2 Haces de planos en E3 . forman sus correspondientes vectores normales.
En concreto, si 1 y 2 son dos planos con vectores normales n1 y n2 respectiva-
Dados dos planos 1 y 2 en E3 de ecuaciones cartesianas:
mente, entonces el angulo que forman viene dado por:
1 a1 x1 + a2 x2 + a3 x3 + a4 = 0
2 b1 x1 + b2 x2 + b3 x3 + b4 = 0 |n1 n2 |
cos(1 , 2 ) = |cos(n1 , n2 )| =
kn1 kkn2 k
el haz de planos formado por 1 y 2 es el conjunto de todas los planos definidos
por las siguientes ecuaciones:
Ahora dos planos son paralelos si forman un angulo de cero grados o equivalente-
{(a1 x1 +a2 x2 +a3 x3 +a4 )+(b1 x1 +b2 x2 +b3 x3 +b4 ) = 0| , IR, (, ) 6= (0, 0)}
mente si sus vectores normales son proporcionales.
o tambien Dos planos son perpendiculares si sus vectores normales son perpendiculares o
1 2 3 1 2 3
equivalentemente si forman un angulo de 2 .
{(a1 x + a2 x + a3 x + a4 ) + (b1 x + b2 x + b3 x + b4 ) = 0| IR} {s}.

Si 1 y 2 son secantes, el haz de planos esta formado por todas los planos que
pasan por la recta interseccion 1 2 . 5.3 Angulo entre recta y plano.
Si 1 y 2 son paralelos, entonces el haz de planos esta formado por todos los
planos paralelos a ellos. El angulo entre una recta y un plano del espacio eucldeo es el complementario del
que forman el vector director de la recta y el vector normal al plano.
As si r es una recta con vector director u y es un plano con vector normal n,
5 Angulos. entonces el angulo que forman viene dado como:

|u n|
5.1 Angulo entre dos rectas. sen(r, ) = |cos(u, n)| = .
kukknk
Tanto en el plano afn E2 como en el espacio afn E3 el angulo formado por dos
rectas es el formado por sus vectores directores. Siempre adoptaremos el
La recta y el plano seran paralelos, cuando el vector director de la recta y el
menor de los dos angulos que forman.
ortogonal del plano sean perpendiculares; equivalentemente, cuando recta y plano
Si r y s son dos rectas con vectores directores u y v respectivamente, entonces el formen un angulo de cero grados.
angulo que forman viene dado por:
La recta y el plano seran perpendiculares, cuando el vector director de la recta y
|u v| el ortogonal del plano sean proporcionales; equivalentemente, cuando recta y plano
cos(r, s) = |cos(u, v)| = . formen un angulo de 2 .
kukkvk

80
Tema IV. Captulo 1. El espacio afn. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

6 Distancias. Por otra parte:

d(P, f ) p X)| X F } = min{kP Xk| X F } =


= min{d(P,
6.1 Distancia entre dos puntos. = min{ kP Qk2 + kQXk2 | X F } = kP Qk = d(P, Q).

Definicion 6.1 Dados dos puntos P y Q en un espacio afn eucldeo arbitrario E,


definimos la distancia entre P y Q como el modulo del vector que forman: Aplicaremos esto a varios casos particulares en E2 y en E3 .
d(P, Q) = kP Qk
6.2.1 Distancia de un punto a una recta en E2 .
Como consecuencia de las propiedades vistas para la norma eucldea, la distan-
cia entre dos puntos cumple las siguientes propiedades. Para cualesquiera puntos Consideramos en E2 la recta r de ecuacion:
P, Q, R E se tiene:
r ax + by + c = 0
1. d(P, Q) 0. y el punto P = (x0 , y0 ). Denotamos por n = (a, b) a las coordenadas covariantes del
2. d(P, Q) = 0 P = Q. vector normal a r.
3. d(P, Q) = d(Q, P ). Sea Q la proyeccion de P sobre r y A = (x1 , y1 ) un punto cualquiera de r. Se
4. d(A, C) d(A, B) + d(B, C) (Desigualdad Triangular). tiene:

AP n = (AQ+QP )n = AQn+QP n = QP n = kQP kknkcos(QP , n) = kQP kknk


6.2 Distancia de un punto a una variedad afn. Por tanto:
|AP n|
Definicion 6.2 La distancia entre un punto P y una variedad afn F se define d(P, r) =
knk
como la menor de las distancias entre P y todos los puntos de F :
Si introducimos coordenadas tenemos:
d(P, F ) = min{d(P, X)| X F }.
AP = (x0 x1 , y0 y1 ) AP n = x0 a ax1 + y0 b by1 = ax0 + bx0 + c
Intuitivamente tenemos una idea geometrica de cual es la menor distancia entre y obtenemos:
un punto P y una variedad. El camino mas corto entre ambos es el segmento |ax0 + by0 + c|
perpendicular a la variedad afn que la une con el punto. Formalicemos esto. d(P, r) =
knk

Definicion 6.3 Dado un punto P y una variedad afn F , tales que P 6 F , se llama
proyeccion ortogonal de P sobre F a un punto Q F tal que P Q es ortogonal a 6.2.2 Distancia de un punto a una recta en E3 .
todos los vectores de F .
Consideramos la recta r en E3 , definida por un punto A un un vector director u.
Consideramos por otra parte un punto P E3 . Llamamos Q a la proyeccion de P
Teorema 6.4 Dado un punto P y una variedad afn F , tales que P 6 F , denotamos
sobre r. Veamos dos formas de calcular la distancia de P a r:
por Q a la proyeccion ortogonal de P sobre F . Entonces se cumple que:
Metodo I: Mediante el producto vectorial.
d(P, F ) = d(P, Q)
Se tiene:
Prueba: Utilizaremos que por ser P Q ortogonal a F , si tomamos cualquier punto kAP uk = k(AQ + QP ) uk = kAQ u + QP uk = kQP uk = kQP kkuk
X F entonces QX es ortogonal a P Q y puede aplicarse el teorema de Pitagoras.
Por tanto: Por tanto:
q kAP uk
d(P, r) =
kP Xk2 = kP Qk2 + kQXk2 kP Xk = kP Qk2 + kQXk2 kuk

81
Tema IV. Captulo 1. El espacio afn. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Metodo II: Calculando la proyeccion Q de P sobre r. Teorema 6.6 Dadas dos variedades afines F1 y F2 , existen dos puntos Q1 F1 y
Q2 F2 , tales que Q1 Q2 es perpendicular a F1 y F2 y ademas:
Para calcular Q utilizamos lo siguiente. Como Q es punto de la recta r verifica la
ecuacion parametrica: d(F1 , F2 ) = d(Q1 , Q2 ).
Q = A + u AQ = u P Q = P A + u
Aplicaremos este resultado en varios casos particulares:
Imponemos que P Q ha de ser perpendicular a u y por tanto:

P A u 6.3.1 Distancia entre dos rectas paralelas.


P Q u = 0 P A u = u u =
kuk2
El procedimiento es el mismo tanto en E2 como en E3 . La distancia entre dos rectas
Una vez conocido tambien conocemos Q. Ahora la distancia buscada es kP Qk. paralelas r y s es la distancia de un punto cualquiera de s a r:

d(r, s) = d(B, r) con B s.


6.2.3 Distancia de un punto a un plano en E3 .

Consideramos en E3 el plano de ecuaciones: 6.3.2 Distancia entre dos planos paralelos de E3 .


ax + by + cz + d = 0 La distancia entre dos planos paralelos 1 y 2 de E3 , es la distancia de un punto
cualquiera de 2 a 1 :
y el punto P = (x0 , y0 , z0 ). Denotamos por n = (a, b, c) a las coordenadas covariantes
del vector normal a . d(1 , 2 ) = d(B, 1 ) con B 2 .
Sea Q la proyeccion de P sobre y A = (x1 , y1 , z1 ) un punto cualquiera de .
Razonamos exactamente igual que en el caso de la distancia de un punto a una recta
6.3.3 Distancia entre un plano y una recta paralela de E3 .
en E2 . Se tiene:

AP n = (AQ+QP )n = AQn+QP n = QP n = kQP kknkcos(QP , n) = kQP kknk La distancia entre un plano y una recta paralela r de E3 , es la distancia de un
punto cualquiera de la recta r a :
Por tanto:
|AP n| d(, r) = d(B, ) con B r.
d(P, ) =
knk
Si introducimos coordenadas y operamos analogamente al caso de la recta obtenemos: 6.3.4 Distancia entre dos rectas que se cruzan en E3 .

|ax0 + by0 + cz0 + d| Sean r y s dos rectas que se cruzan en E3 . Supongamos que sus ecuaciones vectoriales
d(P, r) =
knk son respectivamente:
r X = A + u1
s X = B + u2
6.3 Distancia entre dos variedades afines. Denotamos por Q1 r y Q2 s a los puntos sobre las rectas verificando que Q1 Q2
es perpendicular a r y s, y ademas d(r, s) = d(Q1 , Q2 ).
Definicion 6.5 La distancia entre dos variedades afines F1 y F2 se define como
la menor de las distancias entre cualquier punto de F1 y cualquier punto de F2 : Veamos varios metodos para calcular la distancia entre ambas rectas:
Metodo I:
d(F1 , F2 ) = min{d(X, Y )| X F1 , Y F2 }
Los pasos son:
De nuevo intuitivemente la menor distancia entre F1 y F2 se obtiene recorriendo el
segmento que las une y es perpendicular a ambas variedades. En concreto se cumple 1. Calcular el plano 1 que contiene a r y al vector director u1 u2 .
el siguiente resultado: 2. Entonces Q2 = 1 s.

82
Tema IV. Captulo 1. El espacio afn. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

3. Finalmente d(r, s) = d(Q2 , r). Con esta definicion si A es una transformacion afn, la imagen por A de cualquier
punto X E se calcula de la siguiente forma. Fijado un punto P X, si llamamos
Metodo II: X 0 = A(X) y P 0 = A(P ):
Los pasos son:
t(P X) = P 0 X 0 = X 0 P 0 X 0 = P 0 + t(P X) A(X) = A(P ) + t(P X)
1. Calcular el plano 1 que contiene a r y al vector director u1 u2 .
2. Entonces Q2 = 1 s. A los puntos que se transforman en ellos mismos por una transformacion afn se
les denomina puntos dobles o puntos fijos.
3. Calcular el plano 2 que contiene a s y al vector director u1 u2 .
4. Entonces Q1 = 2 r. Veamos algunas transformaciones afines particulares.
5. Finalmente d(r, s) = d(Q1 , Q2 ).

Metodo III:
7.1 Traslaciones.
Los pasos son: Definicion 7.2 Una traslacion por el vector v es una transformacion afn que lleva
un punto X en el punto X + v.
1. El punto Q1 , por estar en r, es de la forma Q1 = A + u1 .
2. El punto Q2 , por estar en s, es de la forma Q2 = B + u2 . Lo que hace una traslacion es desplazar cada punto de E en la direccion, distancia
3. El vector Q1 Q2 sera B A + u2 u1 . y sentido que marca el vector v. Dado que es una transformacion afn tendra un
automorfismo t : V V asociado. Veamos cual es este. Dados dos puntos P, Q
4. Imponemos que Q1 Q2 ha de ser perpendicular a u1 y u2 . Esto nos proporciona
E, se tiene:
dos ecuaciones de las que despejaremos y :
P 0 = P + v v = P P 0
(B A + u2 u1 ) u1 = 0 Q0 = Q + v v = QQ0
(B A + u2 u1 ) u2 = 0 Ahora
t(P Q) = P 0 Q0 = P 0 P + P Q + QQ0 = v + P Q + v = P Q
5. Finalmente conocidos y , conocemos tambien Q1 y Q2 y por tanto d(r, s) =
d(Q1 , Q2 ). Deducimos que el automorfismo t es la aplicacion identidad.
Es evidente que si v 6= 0 entonces la traslacion definida por v no tiene puntos fijos.
Metodo IV: Este metodo es similar a los vistos para la distancia de un punto a
una recta o a un plano. Utiliza el producto mixto. Se tiene: Finalmente si introducimos una referencia {O; e1 , . . . , en }, la ecuacion de la
traslacion en coordenadas es:
[AB, u1 , u2 ] = AB (u1 u2 ) = (AQ1 + Q1 Q2 + Q2 B) (u1 u2 ) = Q1 Q2 (u1 u2 )
(x01 , . . . , x0n ) = (x1 , . . . , xn ) + (v 1 , . . . , v n )
Dado que la distancia entre r y s es kQ1 Q2 k deducimos la siguiente formula:
donde (v 1 , . . . , v n ) son las coordenadas del vector v que define la traslacion.
|[AB, u1 , u2 ]|
d(r, s) =
ku1 u2 k
7.2 Homotecias.
7 Transformaciones afines. Definicion 7.3 Fijado un punto C E y un numero real k 6= 0, 1, se denomina
homotecia de centro C y razon k a la transformacion que lleva un punto X en:
Definicion 7.1 Dado un espacio afn E asociado a un espacio vectorial V y un
X 0 = C + kCXo equivalentemente CX 0 = kCX.
automorfismo t : V V se llama transformacion afn a una aplicacion A :
E E verificando:
Lo que hace una homotecia es aumentar (|k| > 1) o disminuir (|k| < 1) la distancia
P, Q E, si A(P ) = P 0 y A(Q) = Q0 entonces t(P Q) = P 0 Q0 . de los puntos del espacio eucldeo con respecto a un centro fijo. De esta forma

83
Tema IV. Captulo 1. El espacio afn. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

las distancias de las imagenes quedan multiplicadas por |k|, las areas por k2 y los 2. Giros en E3 : Fijado un semieje r y un angulo el giro de eje r y angulo se
volumenes por |k|3 . construye como:
X 0 = P + t (P X)
Esta claro que con esta definicion el centro C es un punto doble de la ho-
motecia. De hecho veamos que es el unico. Si X es un punto doble entonces: donde P es un punto cualquiera de r y t es el giro en IR3 de angulo respecto
al vector director de r.
k=1 Los puntos dobles son todos los puntos del eje recta r.
X = C + kCX CX = kCX (1 k)CX = 0 o Hay que tener en cuenta que el giro se define respecto a un semieje, de manera
CX = 0
que el vector director de r se escoge en un determinado sentido. Esto nos
permite fijar la orientacion del giro.
Como suponemos k 6= 1 deducimos que X = C.
3. Simetras ortogonales: Fijada una subvariedad afn F = P + U , la simetra
Una homotecia, por ser una transformacion afn, tendra un automorfismo t : V ortogonal respecto a f se construye como:
V asociado. Veamos cual es. Dado un X E cualquiera se tiene:
X 0 = P + tU (P X)
t(CX) = C 0 X 0 = CX 0 = kCX
donde tU es la simetra ortogonal en V respecto al subespacio U .
Deducimos que t = k Id.
Finalmente respecto a una referencia {O; e1 , . . . , en } veamos cual es la ecuacion
de la homotecia. Se tiene:

OX 0 = OC + CX 0 = OC + kCX = OC + k(OX OC)

luego
(x01 , . . . , x0n ) = (c1 , . . . , cn ) + k(x1 c1 , . . . , xn cn )
donde (c1 , . . . , cn ) son las coordenadas del centro C de la homotecia.

7.3 Transformaciones afines asociadas a transforma-


ciones ortogonales: isometras.
Definicion 7.4 Una isometra de un espacio afn eucldeo E es una transfor-
macion afn A : E E que conserva la distancia. Es decir cumple:

d(A(P ), A(Q)) = d(P, Q) para cualquier par de puntos P, Q E.

Puede verse que una isometra en E2 o E3 es composicion de traslaciones, giros


y/o simetras. En concreto pueden aparecer los siguientes giros o simetras:

1. Giros en E2 : Fijado un centro C y un angulo el giro de centro C y angulo


se construye como:
X 0 = C + t (CX)
donde t es el giro en IR2 de angulo , con la orientacion correspondiente.
El unico punto doble en este caso es el centro de giro C.

84
Tema III. Captulo 4. Producto vectorial y producto mixto. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

4. Producto vectorial y producto mixto. y


|MBB 0 | > 0.
En este captulo trabajaremos en un espacio eucldeo U de dimension Por tanto:
3. 01
e02 e03
1 2 3
p e e e p e
|GB | x1 x2 x3 = |MBB 0 GB 0 MBB 0 ||MB 0 B | x01
t
x02 x03 =

y1 y2 y3 01 02 03
01 y02 y y
1 Producto vectorial. p e e e03
= |GB 0 ||MBB 0 ||MB 0 B | x01 x02 x03 =

01 y 02 03
1.1 Definicion. 01 02 03 y y
p e e e
= |GB 0 | x01 x02 x03 .

Definicion 1.1 Sea x, y dos vectores en U y supongamos que fijamos una base de y 01 y 02 y 03
referencia B = {e1 , e2 , e3 }. Definimos el producto vectorial de x, y como el vector
x y verificando: Como consecuencia de esto, es suficiente verificar la formula en una base cualquiera.
Comprobemos que dicha formula cumple la definicion de producto vectorial. Sea:
1. Si x, y son dependientes, entonces x y = 0.
1 2 3
2. Si x, y son independientes, verifica: p e e e
z = |GB | x1 x2 x3 .

(a) x y es perpendicular a x e y. y1 y2 y3
(b) kx yk = kxkkyk|sen(x, y)|.
Esta claro que si x, y son dependientes el resultado obtenido es 0. En otro caso
(c) La base {x, y, x y} tiene la misma orientacion que B.
escogemos la siguiente base

La definicion es coherente porque dados dos vectores independientes x, y en un B 0 = {u1 , u2 , u3 } donde u1 = x, u2 = y,


espacio eucldeo 3-dimensional, el espacio de vectores perpendiculares a ambos tiene
dimension 1. Por tanto hay un unico vector en este subespacio si fijamos su norma y donde u3 es un vector ortogonal a x, y unitario, y cuyo sentido esta escogido de
y su sentido. manera que la orientacion de la base B 0 coincida con la del base B. Entonces:

kxk2 x y 0
!
1.2 Expresion analtica. GB 0 = x y kyk2 0
0 0 1
Supongamos que fijamos una base B = {e1 , e2 , e3 }. Consideramos su base recproca
B = {e1 , e2 , e3 }. Entonces: Y: 1
u u2 u3 p

p p
z = |GB 0 | 1 0 0 = |GB 0 |u3 = |GB 0 |u3 .

Teorema 1.2 Si conocemos las coordenadas contravariantes de x, y, las coordenadas 0 1 0
covariantes del producto vectorial se obtienen como:
Con lo cual vemos que z es perpendicular a x, y. Ademas la base {x, y, z} tiene
1
e e2 e3
la misma orientacion que B 0 y a su vez que B 0 . Por tanto unicamente nos queda
comprobar que la norma de z es la correcta. Pero teniendo en cuenta que u3 es
p 1
x y = |GB | x x2 x3

y1 y2 y3 unitario:

kzk2 = |GB 0 | = kxk2 kyk2 (x y)2 = kxk2 kyk2 kxk2 kyk2 Cos(x, y)2 =
Prueba: Veamos primero que esta formula se comporta bien con el cambio de
base. Si B 0 es otra base con la misma orientacion que B se tiene: = kxk2 kyk2 (1 Cos(x, y)2 ) = kxk2 kyk2 Sin(x, y)2 .

(x) = (x0 )MB 0 B ; (y) = (y 0 )MB 0 B ; (e) = (e0 )MB 0 B ; GB = MBB 0 GB 0 MBB 0 t ;

75
Tema III. Captulo 4. Producto vectorial y producto mixto. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Teorema 1.3 Si conocemos las coordenadas covariantes de x, y, las coordenadas 2 Producto mixto
contravariantes del producto vectorial se obtienen como:

Definicion 2.1 Definimos el producto mixto de tres vectores x, y, z de un espacio


e1 e2 e3 eucldeo 3-dimensional como:
1
x y = p x1 x2 x3

|GB | y [x, y, z] = (x y) z.
y
1 y 2 3

Como consecuencia de la expresion analtica vista para el producto vectorial se


Prueba: Se comprueba de manera analoga a la formula anterior. tiene la siguinte expresion para el producto mixto:

Teorema 2.2 Sean x, y, y son tres vectores de U y B una base. Se verifica:


1
x x2 x3

1.3 Propiedades. p 1 2 3 1
x1 x2 x3
[x, y, z] = |GB | y y y [x, y, z] = p y1 y2 y3

z1 z2 z3 |GB | z z z 1 2 3
Teniendo en cuenta la expresion analtica del producto vectorial, es facil deducir las
siguientes propiedades:
El producto mixto cumple las siguientes propiedades:
1. x y = 0 x, y son dependientes. 1. [x, y, z] = 0 {x, y, z} son dependientes.
2. El producto vectorial es bilineal, es decir: 2. Es trilineal, es decir:
[x + x0 , y, z] = [x, y, z] + [x0 , y, z].
x (y + y 0 ) = x y + x y 0 .
[x, y + y 0 , z] = [x, y, z] + [x, y 0 , z].
(x + x0 ) y = x y + x0 y.
[x, y, z + z 0 ] = [x, y, z] + [x, y, z 0 ].
3. El producto vectorial es antisimetrico, es decir:
3. Es antisimetrico, es decir:
x y = y x. [x, y, z] = [y, x, z] = [x, z, y] = [z, y, x].

1.4 Interpretacion geometrica. Por ultimo el producto mixto de tres vectores tiene la siguiente interpretacion
geometrica.
Teorema 1.4 El modulo del producto vectorial de dos vectores x, y, corresponde
con el area del paralelogramo que determinan: Teorema 2.3 El valor absoluto del producto mixto de tres vectores x, y, z correspon-
de con el volumen del paraleleppedo que determinan.

Prueba: Se tiene:
Prueba: Se tiene que:
Volumen paraleleppedo = Area baseH = kx ykkzkCos() = |(x y)z| = |[x, y, z]|.
Area de paralelogramo = kxkh = kxkkyk|Sin(x, y)| = kx yk.

76
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Tema V Definicion 1.2 Diremos que una conica es degenerada cuando esta formada por
dos rectas (iguales o distintas, reales o imaginarias).

Conicas y Cuadricas Veremos mas adelante que una conica es degenerada cuando su matriz
asociada A tiene determinante nulo.
1. Conicas.
En todo este captulo trabajaremos en el plano afn eucldeo E2 con respecto
a una referencia rectangular {O; e1 , e2 }. Denotaremos por (x, y) las coordenadas 2 Interseccion de una recta y una conica.
cartesianas respecto a esta referencia y por (x, y, t) las coordenadas homogeneas.
Consideramos una conica dada por una matriz simetrica A. Sean P = (p) y Q = (q)
dos puntos cualesquiera. Calculemos en coordenadas homogeneas la interseccion de
1 Definicion y ecuaciones. la recta que los une y la conica:

recta P Q (x) = (p) + (q).


Definicion 1.1 Una conica es una curva plana determinada, en coordenadas carte- conica (x)A(x)t = 0.
sianas, por una ecuacion de segundo grado.
Sustituyendo la primera ecuacion en la segunda queda:
De esta forma la ecuacion general de una conica sera:
((p) + (q))A((p) + (q))t = 0 2 (p)A(p)t + 2(p)A(q)t + 2 (q)A(q)t = 0.
a11 x2 + a22 y 2 + 2a12 xy + 2a13 x + 2a23 y + a33 = 0
- Si (p)A(p)t = (p)A(q)t = (q)A(q)t = 0 la ecuacion se cumple para cualquier par
con (a11 , a22 , a12 ) 6= (0, 0, 0) (para garantizar que la ecuacion es de segundo grado). (, ) luego la recta esta contenida en la conica.
Otras expresiones equivalentes de la ecuacion de una conica son: - En otro caso, obtenemos una ecuacion de segundo grado de discriminante:

1. En funcion de la matriz A asociada a la conica (toda matriz simetrica 1


= [(p)A(q)t ]2 [(p)A(p)t ][(q)A(q)t ].
determina una conica): 4

x
!
a11 a12 a13
! Hay tres posibilidades:
(x y 1)A y = 0, con A = a12 a22 a23 .
1 a13 a32 a33 1. > 0: Recta secante. Hay dos soluciones reales distintas, luego la recta
corta a la conica en dos puntos distintos.
2. En funcion de la matriz T de terminos cuadraticos:
      2. = 0: Recta tangente. Hay una solucion doble, luego la recta corta a la
x x a11 a12 conica en un punto doble.
(x y)T + 2 ( a13 a23 ) + a33 = 0, con T = 6= .
y y a12 a22 3. < 0: Recta exterior. No hay soluciones reales. La recta no corta a la
conica.
3. En coordenadas homogeneas:

x
!
a11 a12 a13
! Podemos aplicar esto a dos situaciones:
(x y t)A y = 0, con A = a12 a22 a23 .
t a13 a32 a33 1. Recta tangente a la conica en un punto P de la misma. Si P esta en la
conica entonces (p)A(p)t = 0. Por tanto la recta tangente tendra por ecuacion:
De la ultima ecuacion deducimos que, en coordenadas homogenas, los puntos de
la conica son los vectores autoconjugados de la forma cuadratica que determina la
(p)A(x)t = 0
matriz asociada A.

89
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2. Rectas tangentes a la conica desde un punto P exterior. Si P es un 1. Si P no esta en la conica y la recta polar interseca a la conica, entonces los
punto exterior a la conica, las rectas tangentes a la misma se obtendran mediante puntos de interseccion de la recta polar y la conica son los puntos de tangencia
la ecuacion: de las rectas tangentes a la conica pasando por P .
[(p)A(x)t ]2 [(p)A(p)t ][(x)A(x)t ] = 0 Prueba: Sea X C rp . Entonces se verifican las ecuaciones:

teniendo en cuenta que dicha ecuacion se descompondra como producto de dos XC (x)A(x)t = 0
ecuaciones lineales. X rp (p)A(x)t = 0
recta uniendo X y P (p) + (x) = 0
En la siguiente seccion veremos como la polaridad nos proporcionara otro metodo Veamos que la recta que une P y X es tangente a C. Intersecamos dicha recta
para calcular estas rectas. con la conica y obtenemos:
2 (p)A(p)t + 2(p)A(x)t + 2 (x)A(xt ) = 0 2 (p)A(p)t = 0

3 Polaridad. es decir hay una unica solucion y por tanto la recta P X es tangente a la conica
en X.
Trabajamos con una conica de matriz asociada A. Observacion: Como consecuencia de esto, para calcular las tangentes a una
conica desde un punto exterior P , basta calcular la recta polar de P e
intersecarla con la conica. Las rectas pedidas son las que unen estos puntos con
Definicion 3.1 Dado un punto P de coordenadas homogeneas (p1 , p2 , p3 ) y una P.
conica determinada por una matriz A, se llama recta polar de P respecto a 2. Si P esta en la conica, entonces la recta polar es la recta tangente a la conica
la conica y se denota por rP , a la recta de ecuacion: en el punto P .
x
! Prueba: Es un caso particular de la situacion anterior.
( p1 p2 p3 ) A y = 0. 3. Si P no esta en la conica y la recta polar no interseca a la conica, entonces la
t recta polar rP se obtiene de la siguiente forma: se toma una recta pasando por
P y se interseca con la conica. Las correspondientes tangentes a la conica por
P se dice el polo de la recta. esos puntos se intersecan en un punto de la recta polar rp .
Prueba: Es consecuencia de las observaciones anteriores.
Observacion 3.2 Los conceptos de polo y recta polar son duales. Supongamos que
la conica definida por A es no degenerada. Dados un polo P y su recta polar rp la
famila de rectas pasando por P se corresponde con las rectas polares de los 4 Puntos y rectas notables asociados a una co-
puntos de rP . Para comprobar esto simplemente tenemos en cuenta lo siguiente.
Sean (p) las coordenadas de P . Si B y C son dos puntos de rP , con coordenadas (b) nica.
y (c) respectivamente, se tiene que:
En lo que sigue trabajaremos sobre una conica cuya matriz asociada respecto a un
(p)A(b)t = 0 P recta polar de B determinado sistema de referencia es A.
(p)A(c)t = 0 P recta polar de C

Por tanto el haz de rectas que pasa por P sera: 4.1 Puntos singulares.
t t
rectas pasando por P (b)A(x) + (c)A(x) = 0
Definicion 4.1 Un punto singular de una curva es un punto de no diferenciabi-
((b) + (c))A(x)t = 0
lidad de la misma.
rectas polares de los puntos (b) + (c)
rectas polares de los puntos de rP Equivalentemente, un punto singular de una curva es un punto con mas de una
direccion de tangencia.
Veamos la interpretacion geometrica de la recta polar. Sea C la conica (no dege- Equivalentemente, si toda recta pasando por un punto P de una curva corta a la
nerada) definida por A, P el polo y rP la correspondiente recta polar: curva con multiplicidad > 1 en P , entonces P es un punto singular.

90
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Veamos cuando aparecen puntos singulares en una conica. Sea P = (p) un punto - Para que (a, b, 1) sea centro las soluciones de han de ser valores opuestos para
de la conica. Tomamos una recta cualquiera pasando por P . Para ello elegimos un cualquier direccion (p, q) 6= (0, 0). Esto significa que:
punto cualquiera Q = (q) que no este en la conica y lo unimos con P . Su ecuacion
p
!
en coordenadas homogeneas es:
(a b 1)A q = 0 para cualquier (p, q) 6= (0, 0).
(x) = (p) + (q) 0

Si intersecamos con la conica, nos queda la ecuacion: - Deducimos que la ecuacion del centro es:

2(p)A(q) + 2 (q)A(q) = 0
(a b 1 ) A = (0, 0, h)
El punto P es singular si la unica solucion de esta ecuacion es = 0 con multiplicidad
2, para cualquier punto (q), es decir si:
4.3 Direcciones asintoticas y asntotas.
(p)A(q) = 0 para cualquier (q).
Definicion 4.4 Las direcciones asintoticas son los puntos del infinito que perte-
Esto se cumple cuando: necen a la conica.
(p)A = 0
Las asntotas son las rectas que pasan por el centro y tienen una direccion asin-
Concluimos lo siguiente: totica.

Teorema 4.2 Una conica dada por una matriz A tiene puntos singulares si y solo De la definicion es claro que las direcciones asintoticas (p, q, 0) se obtienen re-
si det(A) = 0. En ese caso la conica se dice degenerada y los puntos singulares solviendo la ecuacion:
(afines) son los que verifican la ecuacion:
p
!

(x y 1 ) A = 0 (p q 0)A q = 0, (p, q) 6= (0, 0)


0

4.2 Centro. Si desarrollamos esa ecuacion, obtenemos:

Definicion 4.3 El centro de una conica es un punto afn centro de simetra de a11 p2 + 2a12 pq + a22 q 2 = 0
la misma.
Vemos que es una ecuacion de segundo grado cuyo discriminante es |T |. Por tanto:

Llamemos (a, b, 1) a las coordenadas homogeneas del centro. Veamos como calcu- - Si |T | > 0, entonces no hay direcciones asintoticas (conica de tipo elptico).
larlo: - Si |T | = 0, hay una direccion asintotica (conica de tipo parabolico).
- Consideramos la ecuacion de una recta que pasa por el centro y tiene un deter- - Si |T | < 0, hay dos direcciones asintoticas (conica de tipo hiperbolico).
minado vector director (p, q):

(x, y, t) = (a, b, 1) + (p, q, 0). 4.4 Diametros.


- Sustituimos en la ecuacion de la conica y obtenemos: Definicion 4.5 Un diametro de una conica es la recta polar (afn) de un punto del
infinito. Al punto del infinito se le llama direccion conjugada con el diametro.
p
!
p
!
a
!
2
(p q 0)A q + 2(a b 1)A q + (a b 1)A b = 0.
0 0 1 Observacion 4.6 Cualquier diametro pasa por el centro (o centros) de la conica.

91
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Prueba: Supongamos que A es la matriz de la conica y (a, b, 1) es un centro. Un 4.6 Vertices.


diametro tiene por ecuacion:
Definicion 4.9 Se llaman vertices a los puntos interseccion de los ejes con la
x
!
conica.
( u1 u2 0)A y =0
1
4.7 Focos, directrices y excentricidad.
donde (u1 , u2 ) es la direccion conjugada. Por otra parte vimos que si (a, b, 1) es el
centro verifica: Definiremos estos tres conceptos para conicas no degeneradas, es decir, cuya matriz
a
!
0
! asociada A es no singular.
(a b 1)A = (0 0 h ) A b = 0
1 h Definicion 4.10 Un foco de una conica es un punto F que verifica la siguiente
condicion: el cociente entre las distancias de cualquier punto de la conica a F y a
Deducimos que: su recta polar d es constante:
a
!
1 2 d(X, F )
(u u 0)A b =0
= e, para cualquier punto X en la conica.
1 d(X, d)
y por tanto el diametro contiene al centro.
A la recta polar de un foco se le denomina directriz.
A la constante e se le denomina excentricidad.
4.5 Ejes.
Definicion 4.7 Se llaman ejes a los diametros perpendiculares a su direccion con-
jugada.
5 Descripcion de las conicas no degeneradas.

Observacion 4.8 Las direcciones conjugadas de los ejes son los autovectores de T
5.1 La elipse real.
asociados a autovalores no nulos.
La ecuacion reducida de una elipse es:

Prueba: Sea (u1 , u2 , 0) un punto del infinito y x2 y2


2
+ 2 = 1, a, b 6= 0
a b
x
!
( u1 u2 0)A y =0 (supondremos a b, de manera que el radio mayor de la elipse este colocado sobre
1 el eje OX).

la ecuacion del correspondiente diametro. Operando, obtenemos que el vector normal Cuando a = b se trata de una circunferencia de radio a. Sus puntos y rectas
de la recta es: notable son:
( u1 u2 ) T
1. Centro: (0, 0).
Como esta recta debe de ser perpendicular a la direccion conjugada, este vector
2. Direcciones asintoticas: No tiene.
normal ha de ser paralelo a (u1 , u2 ) y por tanto:
3. Asntotas: No tiene.
( u1 u2 ) T = ( u1 u2 ) 4. Diametros: Cualquier recta pasando por el centro.
1 2
Deducimos que (u , u ) es un autovector de T , asociado al autovalor . Finalmente 5. Ejes: Si a 6= b los ejes son x = 0 e y = 0. Si a = b cualquier diametro es un eje.
tenemos en cuenta que si = 0, entonces la recta anterior sera la recta del infinito, 6. Vertices: Si a 6= b los vertices son (a, 0), (a, 0), (0, b) y (0, b). Si a = b
y por tanto no es un eje. cualquier punto de la conica es un vertice.

92
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

7. Focos: (c, 0) y (c, 0) con a2 = b2 + c2 . 5.2 La hiperbola.


2 2
8. Directrices: x = ac y x = ac . La ecuacion reducida de una hiperbola es:
9. Excentricidad: e = ac < 1 (vale 0 si se trata de una circunferencia.)
x2 y2
Todos estos valores se obtienen directamente utilizando que, en este caso, la matriz 2
2 = 1, a, b 6= 0 .
a b
asociada a la conica es: 1
0 0
!
a2
1
A= 0 b2 0 . Sus puntos y rectas notable son:
0 0 1
y aplicando las definiciones vistas para cada uno de los conceptos anteriores. Nos 1. Centro: (0, 0).
fijamos en particular en los focos, directrices y excentricidad.
2. Direcciones asintoticas: (a, b, 0) y (a, b, 0).
Si consideramos el punto (c, 0) con a2 = b2 + c2 , su recta polar sera: 3. Asntotas: y = b
x e y = ab x.
a
2
c a
(c, 0, 1)A(x, y, 1)t = 0 x 1 = 0 x = . 4. Diametros: Cualquier recta pasando por el centro.
a2 c
5. Ejes: x = 0 e y = 0.
Ahora dado un punto X = (x, y) cualquiera de la conica veamos cual es el cociente
entre las distancias de dicho punto al foco y la directriz. En primer lugar teniendo 6. Vertices: (a, 0) y (a, 0).
en cuenta que (x, y) verifica la ecuacion de la conica y que a2 = b2 + c2 , tenemos:
r 7. Focos: (c, 0) y (c, 0) con c2 = a2 + b2 .
2 2 2 2
p a b b x
d(F, X) = (x c)2 + y 2 = x2 + c2 2cx +
= 8. Directrices: x = a2 2
y x = ac .
r a2 c
2 2 2 c
c x cx a cx 9. Excentricidad: e = > 1.
= 2xc + a2 = a = . a
a2 a a
Por otra parte: Todos estos valores se obtienen directamente utilizando que, ahora, la matriz aso-
a2 a2 cx ciada a la conica es:
d(directriz, X) = x= . 1
0 0
!
c c a2
1
Por tanto: A= 0 b2 0 .
a2 cx 0 0 1
d(F, X) a c
= =
d(d, X) a2 cx a Comprobamos los focos, directrices y excentricidad.
c
c
Deducimos que efectivamente (c, 0) es un foco y la excentricidad es a
. Analogamente Si consideramos el punto (c, 0) con c2 = a2 + b2 , su recta polar sera:
se puede ver que (c, 0) es el otro foco de la conica.
c a2
(c, 0, 1)A(x, y, 1)t = 0 x 1 = 0 x =
a2 c
5.1.1 La elipse como lugar geometrico.
Ahora dado un punto X = (x, y) cualquiera de la conica veamos cual es el cociente
Definicion 5.1 La elipse tambien puede definirse como el lugar geometrico de los entre las distancias del punto al foco y la directriz. En primer lugar teniendo en
puntos del plano cuya suma de distancias a los focos es constante. cuenta que (x, y) verifica la ecuacion de la conica y que c2 = a2 + b2 , tenemos:
r
Veamos que esta definicion es coherente con la ecuacion y focos dados previamente. p b2 x2 a2 b2
d(F, X) = (x c)2 + y 2 = x2 + c2 2cx + =
Dado un punto (x, y) de la conica vimos que: r a2
c2 x2 cx |cx a2 |

a2 cx a2 + cx = 2xc + a2 = a = .
d(F1 , X) = ; d(F2 , X) = . a 2 a a
a a
Por tanto: Por otra parte:
a2 cx a2 + cx
d(F1 , X) + d(F2 , X) = + = 2a. a2 |cx a2 |
a a d(d, X) = x = .
c c

93
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Por tanto: 8. Directrices: y = p2 .


cxa2
d(F, X) a c 9. Excentricidad: e = 1.
= cxa2 =
d(d, X) c a
Deducimos que efectivamente (c, 0) es un foco y la excentricidad es ac . Analogamente De nuevo, todos estos valores se obtienen directamente utilizando que en este caso
se puede ver que (c, 0) es el otro foco de la conica. la matriz asociada a la conica es:
1 0 0
!

5.2.1 La hiperbola como lugar geometrico. A= 0 0 p


0 p 0
Definicion 5.2 La hiperbola tambien puede definirse como el lugar geometrico de Comprobamos una vez mas los focos, directrices y excentricidad.
los puntos del plano cuya diferencia de distancias a los focos en valor absoluto es
constante. Si consideramos el punto F = (0, p2 ) su recta polar sera:

p p2 p
Veamos que esta definicion es coherente con la ecuacion y focos dados previamente. (0, , 1)A(x, y, 1)t = 0 py = 0 y + = 0
2 2 2
Dado un punto (x, y) de la conica vimos que:
Ahora dado un punto X = (x, y) cualquiera de la conica veamos cual es el cociente
|cx a2 | |cx + a2 |
d(F1 , X) = ; d(F2 , X) = . entre las distancias del punto al foco y la directriz. En primer lugar teniendo en
a a cuenta que (x, y) verifica la ecuacion de la conica:
Por tanto, si x a r r
p p2 p2 p
q
2 2
cx a cx + a d(F, X) = x2 + (y )2 = 2py + y2 + py = y 2 + py + =y+
d(F1 , X) d(F2 , X) = = 2a. 2 4 4 2
a a
y si x a: Por otra parte:
2 2 p
a cx cx a d(d, X) = y +
d(F1 , X) d(F2 , X) = = 2a. 2
a a
Deducimos que efectivamente (0, p2 ) es un foco y la excentricidad es 1.

5.3 La parabola.
5.3.1 La parabola como lugar geometrico.
La ecuacion reducida de una parabola es:
Definicion 5.3 La parabola tambien puede definirse como el lugar geometrico de
x2 = 2py, p 6= 0 . los puntos del plano cuya distancia al foco es la misma que la distancia a la directriz.

(supondremos p > 0 para que la parabola este situada en el semiplano positivo.)


Esto es consecuencia inmediata de que la excentricidad es 1.
Sus puntos y rectas notable son:

1. Centro: No tiene (tiene un centro impropio (0, 1, 0)).


6 Cambio de sistema de referencia.
2. Direcciones asintoticas: (0, 1).
3. Asntotas: No tiene. Sean dos sistemas de referencia R1 = {O; e1 , e2 } y R2 = {Q; e01 , e02 }. Denotamos
4. Diametros: Rectas paralelas al eje OY . por (x, y) e (x0 , y 0 ) respectivamente a las coordenadas cartesianas en cada una de las
5. Ejes: x = 0. referencias. Supongamos que

6. Vertices: (0, 0). - el punto Q con respecto a la primera referencia tiene por coordenadas (q 1 , q 2 ).
7. Foco: (0, p2 ). - {e0 } = C{e}, donde C = MB 0 B .

94
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Entonces sabemos que la formula de cambio de referencia es: 7 Clasificacion de conicas y ecuacion reducida.
0
!
C Dada una conica definida por una matriz simetrica A, encontrar su ecuacion reducida
(x, y) = (q 1 , q 2 ) + (x0 , y 0 )C o (x, y, t) = (x0 , y 0 , t0 ) 0 .
q 1
q 2
1 consiste en hacer una cambio de referencia de manera que la ecuacion de la conica con
respecto a esa nueva referencia sea lo mas sencilla posible. En concreto realizamos:

Supongamos que tenemos la ecuacion de la conica dada por una matriz A (y la


1. Un giro. Nos permite colocar el eje o ejes de la conica paralelos a los ejes de
correspondiente T de terminos cuadraticos) con respecto a la referencia R1 :
coordenadas de la nueva referencia. La matriz de terminos cuadraticos en la
nueva referencia sera diagonal.
x
!    
x x
(x y t)A y = 0 ( x y)T + 2 ( a13 a23 ) + a33 = 0. 2. Una traslacion. Que nos permite colocar el/los centro/s (si existe/n) de la
y y
t conica en el origen de coordenadas (en otro caso llevaremos un vertice al eje de
coordenadas).
Si hacemos el cambio de referencia en coordenadas homogeneas obtenemos:

x0
!
0
! Antes de comenzar el desarrollo, hacemos la siguiente observacion importante:
0 0 0 t C
(x y t ) BAB y0 = 0 con B = 0 .
t0 q1 q2 1 Supondremos que al menos un termino de la diagonal
de la matriz T de terminos cuadraticos es no negativo.
Deducimos que la matriz de la conica en la nueva referencia es:
Si esta propiedad no se cumple, basta trabajar con la matriz A en lugar de con A.
A0 = BAB t De esta forma aseguramos que T siempre tiene al menos un autovalor positivo.

y por tanto:
7.1 Paso I: Reduccion de terminos cuadraticos (el giro).
Teorema 6.1 Las matrices A, A0 de una conica con respecto a dos refencias R1 , R2
distintas, son matrices congruentes Dado que la matriz T de terminos cuadraticos es simetrica tiene dos autovalores
reales 1 y 2 , con 1 6= 0. Supondremos 1 > 0. Ademas sabemos que existe una
A0 = BAB t base ortonormal de autovectores {u1 , u2 } de manera que:
 
siendo B la matriz de cambio de referencia de R2 a R1 , en coordenadas homogeneas. 0 t 0 1 0
T = CT C con {u} = C{e} y T =
0 2
Si hacemos el cambio de referencia en coordenadas cartesianas obtenemos:
La ecuacion de cambio de coordenadas es:
 
x0
( x0 y 0 ) CT C t + {terminos de grado 1} = 0 (x, y) = (x0 , y 0 )C
y0

Por tanto deducimos que: de forma que en la nueva base la ecuacion de la conica es:
   
x0 x0
0 ( x0 y 0 ) CT C t + 2 ( a13 a23 ) C t + a33 = 0
Teorema 6.2 Las matrices de terminos cuadraticos T, T de una conica con respecto y0 y0
a dos refencias R1 , R2 distintas son matrices congruentes
Operando queda:
T 0 = CT C t
1 x02 + 2 y 02 + 2b13 x0 + 2b23 y 0 + b33 = 0
siendo C la matriz de cambio de la base de R2 a la de R1 .

95
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

7.2 Paso II: Reduccion de terminos lineales (la (b) c33 = 0, entonces la ecuacion reducida es:
traslacion).
1 x002 + 2 y 002 = 0 Rectas imaginarias cortandose en un punto.
0 0
Ahora a partir de la ecuacion anterior completamos las expresiones de x e y al
cuadrado de un binomio, sumando y restando los terminos adecuados. En concreto:
- Para x0 : (c) c33 < 0, entonces la ecuacion reducida es:

b13 0 b213 b2 b13 2 b213 1 x002 + 2 y 002 + c33 = 0 Elipse real.


1 x02 + 2b13 x0 = 1 (x02 + 2 x + 2 ) 13 = 1 (x0 + )
1 1 1 1 1

- Para y 0 : 2. Si 2 = 0 y

Si 2 6= 0: (a) c23 6= 0, entonces c33 = 0 y la ecuacion reducida es:

b23 0 b223 b2 b23 2 b223 1 x002 + 2c23 y 00 = 0 Parabola.


2 y 02 + 2b23 y 0 = 2 (y 02 + 2 y + 2 ) 23 = 2 (y 0 + )
2 2 2 2 2
Si 2 = 0 y b23 6= 0:
b33 (b) c23 = 0 y c33 > 0
2b23 y 0 + b33 = 2b23 (y 0 + )
2b23
1 x002 + c33 = 0 Rectas paralelas imaginarias.
Hacemos en cada caso la traslacion correspondiente y obtenemos las siguientes
formas reducidas:
(c) c23 = 0 y c33 = 0
Si 2 6= 0 Si 2 = 0 y b23 6= 0 Si 2 = b23 = 0
Cambio de Coordenadas: Cambio de Coordenadas: Cambio de Coordenadas:
b13 b13 b13 1 x002 = 0 Recta doble real.
x00 = x0 + x00 = x0 + x00 = x0 +
1 1 1
00 0 b23 00 0 b33
y =y + y =y +
2 2b23 (d) c23 = 0 y c33 < 0
Ecuacion reducida: Ecuacion reducida: Ecuacion reducida:
1 x002 + c33 = 0 Rectas paralelas reales.
002 002 002 00
1 x + 2 y + c33 = 0 1 x + 2c23 y = 0 1 x002 + c33 = 0

Es decir nos queda una ecuacion reducida de la forma:


3. Si 2 < 0, entonces c23 = 0 y si:
002 002 00
1 x + 2 y + 2c23 y + c33 = 0 (a) c33 6= 0, entonces la ecuacion reducida es:
con las siguientes posibilidades para los valores de 2 , c23 y c33 :
1 x002 + 2 y 002 + c33 = 0 Hiperbola.
1. Si 2 > 0, entonces c23 = 0 y si:

(a) c33 > 0, entonces la ecuacion reducida es: (b) c33 = 0, entonces la ecuacion reducida es:

1 x002 + 2 y 002 + c33 = 0 Elipse imaginaria. 1 x002 + 2 y 002 = 0 Rectas reales cortandose en un punto.

96
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

7.3 Clasificacion y ecuacion reducida en funcion de |T | y Una operacion prohibida con esta fila significara que la transformacion que
|A|. hacemos lleva puntos propios en puntos del infinito y viceversa.
Con este metodo llegaremos a una forma diagonal (excepto si se trata de un
Teniendo en cuenta que los determinantes de T y A se conservan por giros y trasla- parabola) que nos permitira clasificar facilmente la conica.
ciones, podemos reescribir la clasificacion anterior en funcion de |T | y |A|. De nuevo
suponemos algun termino de T positivo:
Observacion 7.1 Hay que tener en cuenta que la forma diagonal que obtenemos
|A| > 0 |A| = 0 |A| < 0 de esta forma, NO se corresponde necesariamente con la ecuacion reducida de
|T | > 0 Elipse imaginaria Rectas 
imaginarias cortandose Elipse real la conica. Es decir, este metodo nos permite clasificar la conica, pero NO dar su
Rectas paralelas imag. ecuacion reducida.
rg(A) = 2
|T | = 0 Parabola Rectas paralelas reales Parabola
rg(A) = 1 Recta doble
|T | < 0 Hiperbola Rectas reales cortandose Hiperbola 7.5 Obtencion de las rectas que forman las conicas de-
generadas.
Ademas cuando la conica es no degenerada podemos calcular la ecuacion reducida,
a partir de los autovalores 1 > 0, 2 de T y de |A|: Una vez clasificada la conica y comprobado que es degenerada, la forma mas comoda
de calcular las rectas que la forman es la siguiente:
1. Si |T | 6= 0, entonces queda:
1. Si se trata de rectas paralelas (reales o imaginarias) o de una recta doble, se
|A| calcula la recta de centros. Si es una recta doble hemos terminado. En otro
1 x002 + 2 y 002 + c = 0, con c=
|T | caso intersecamos la conica con una recta cualquiera (lo mas sencilla posible)
y obtenemos dos puntos (reales o imaginarios). Las rectas buscadas son las
2. Si |T | = 0, entonces queda:
paralelas a la recta de centros pasando por dichos puntos.
r
002 |A| 2. Si se trata de rectas que se cortan (reales o imaginarias), se calcula el centro.
1 x 2c = 0, con c=
1 Luego intersecamos la conica con una recta cualquiera (lo mas sencilla posible)
que no pase por el centro y obtenemos dos puntos (reales o imaginarios). Las
Podemos incluso dar la referencia en que se obtienen estas formas reducidas: rectas buscadas son las que unen el centro con dichos puntos.

1. En el caso de |T | 6= 0 (elipse o hiperbola), la base de la nueva referencia esta


formada por los autovectores de T normalizados y el nuevo origen situado en
el centro de la conica. Simplemente hay que tener cuidado de ordenar los
8 Haces de conicas
autovectores de manera coherente a como se ordenan los autovalores.
Definicion 8.1 Dadas dos conicas C1 y C2 de ecuaciones:
2. En el caso de |T | = 0 (parabola), la base de la nueva referencia esta formada
por los autovectores de T normalizados y el nuevo origen en el vertice. Ahora (x)A1 (x)t = 0 y (x)A2 (x)t = 0
ademas de ordenar correctamente los autovectores, hay que comprobar si se ha
escogido correctamente el signo del autovector asociado al autovalor nulo. el haz de conicas generado por ellas corresponde a la familia de conicas de ecua-
ciones:

7.4 Clasificacion mediante diagonalizacion por congruen- {[(x)A1 (x)t ] + [(x)A2 (x)t ] = 0; , IR, (, ) 6= (0, 0)}
cia. o equivalentemente:

Otra forma de clasificar una conica dada por una matriz A es diagonalizar esta matriz {[(x)A1 (x)t ] + [(x)A2 (x)t ] = 0; IR)} {(x)A2 (x)t = 0}
por congruencia, pero con la siguiente restriccion:
La ultima fila no puede ser ni sumada a las demas ni multiplicada por Las conicas de un haz heredan propiedades comunes de las conicas que lo generan.
un escalar ni cambiada de posicion. Por ejemplo:

97
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

- Si P es un punto comun de C1 y C2 , entonces P pertenece a todas las conicas 3. Haz de conicas por dos puntos y la tangente en ellos.
del haz. Supongamos que A, B son dos puntos y tgA , tgB las correspondientes tangentes.
- Si r es una tangente a C1 y C2 en un punto P , entonces r tambien es tangente Consideramos la recta
en P a todas las conicas del haz. r AB.
El correspondiente haz es:
- Si r es una asntota comun a C1 y C2 , entonces r tambien es asntota de todas
las conicas del haz.
(r)2 + (tgA tgB ) = 0
- Si P es un punto singular de C1 y C2 , entonces P es un punto singular de
todas las conicas del haz. 3. Haz de conicas por un punto, conocida la tangente en el y una asntota.
- Si P es el centro de C1 y C2 , entonces P es el centro de todas las conicas del De nuevo es un caso particular del anterior. Supongamos que A es el punto y
haz. tgA la correspondiente tangente. Sea asint la asntota. Consideramos la recta

Teniendo en cuenta este hecho, veamos como construir las familias de conicas que r {recta pasando por A y paralela a asint}
cumplen algunas de estas condiciones.
El correspondiente haz es:
1. Haz de conicas por cuatro puntos no alineados.
(r)2 + (tgA asint) = 0
Supongamos que A, B, C, D son cuatro puntos no alineados. Consideramos las
rectas
r1 AB, r2 CD; s1 AC; s2 BD. 3. Haz de conicas conocidas dos asntotas.
De nuevo es un caso particular del anterior. Supongamos que asint1 y asint2
El correspondiente haz es:
son las dos asntotas. Consideramos la recta:

(r1 r2 ) + (s1 s2 ) = 0 r {recta del infinito}

cuya ecuacion homogenea es t = 0 y afn es 1 = 0 (!?). El correspondiente haz


2. Haz de conicas por tres puntos no alineados y la tangente en uno de ellos.
es:
Supongamos que A, B, C son tres puntos no alineados y tgA es la tangente en (1)2 + (asint1 asint2 ) = 0
A. Consideramos las rectas

r1 AB, r2 AC; s BC.

El correspondiente haz es:

(r1 r2 ) + (s tgA ) = 0

2. Haz de conicas por dos puntos y una asntota.


Es un caso particular del anterior, si pensamos que la asntota es una recta
tangente en el punto del infinito. Supongamos que B, C son los puntos y asint
es la asntota. Consideramos las rectas

r1 {recta pasando por B y paralela a asint}


s BC.
r2 {recta pasando por C y paralela a asint}

El correspondiente haz es:

(r1 r2 ) + (s asint) = 0

98
Tema V. Captulo 1. Conicas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

9 Apendice: secciones planas de un cono.


Conicas no degeneradas.

Elipse. Hiperbola. Parabola.

Conicas degeneradas.

Dos rectas. Recta doble. Un punto.

99
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

2. Cuadricas. 2 Interseccion de una recta y una cuadrica.


En todo este captulo trabajaremos en el espacio afn eucldeo E3 con respecto a
una referencia rectangular {O; e1 , e2 , e3 }. Denotaremos por (x, y, z) las coordenadas Consideramos una cuadrica dada por una matriz simetrica A. Sean P = (p) y Q = (q)
cartesianas respecto a esta referencia y por (x, y, z, t) las coordenadas homogeneas. dos puntos cualesquiera. Calculemos en coordenadas homogeneas la interseccion de
la recta que los une y la cuadrica:
recta P Q (x) = (p) + (q).
1 Definicion y ecuaciones. cuadrica (x)A(x)t = 0.
Sustituyendo la primera ecuacion en la segunda queda:
Definicion 1.1 Una cuadrica es una superficie en E3 determinada, en coordenadas
cartesianas, por una ecuacion de segundo grado. ((p) + (q))A((p) + (q))t = 0 2 (p)A(p)t + 2(p)A(q)t + 2 (q)A(q)t = 0.

De esta forma la ecuacion general de una cuadrica sera: - Si (p)A(p)t = (p)A(q)t = (q)A(q)t = 0 la ecuacion se cumple para cualquier par
(, ) luego la recta esta contenida en la cuadrica.
a11 x2 + a22 y 2 + a33 z 2 + 2a12 xy + 2a13 xz + 2a23 yz + 2a14 x + 2a24 y + 2a34 z + a44 = 0
- En otro caso, obtenemos una ecuacion de segundo grado de discriminante:
con (a11 , a22 , a33 , a12 , a13 , a23 ) 6= (0, 0, 0, 0, 0, 0) (para garantizar que la ecuacion es
1
de segundo grado.) = [(p)A(q)t ]2 [(p)A(p)t ][(q)A(q)t ].
4
Otras expresiones equivalentes de la ecuacion de una cuadrica son:
Hay tres posibilidades:
1. En funcion de la matriz A asociada a la cuadrica (toda matriz simetrica
4 4 determina una cuadrica): 1. > 0: Recta secante. Hay dos soluciones reales distintas, luego la recta
corta a la cuadrica en dos puntos distintos.
x a11 a12 a13 a14
y a a22 a23 a24 2. = 0: Recta tangente. Hay una solucion doble, luego la recta corta a la
( x y z 1 ) A = 0, con A = 12 . cuadrica en un punto doble.
z a a a
13 a
23 33 34
1 a14 a24 a34 a44 3. < 0: Recta exterior. No hay soluciones reales. La recta no corta a la
cuadrica.
2. En funcion de la matriz T de terminos cuadraticos:
x
!
x
!
Podemos aplicar esto a dos situaciones:
( x y z ) T y + 2 ( a14 a24 a34 ) y + a44 = 0,
z z 1. Plano tangente a la cuadrica en un punto P de la misma. El plano
con tangente a la cuadrica en un punto P esta formado por todas las rectas tangentes
a11 a12 a13
!
T = a12 a22 a23 6= . en dicho punto. Como P esta en la cuadrica entonces (p)A(p)t = 0. Por tanto
a13 a23 a33 el plano tangente tendra por ecuacion:
3. En coordenadas homogeneas: (p)A(x)t = 0

x a11 a12 a13 a14
y a12 a22 a23 a24 2. Cono de rectas tangentes a la cuadrica desde un punto P exterior.
(x y z t ) A = 0, con A = .
z a13 a23 a33 a34 Si P es un punto exterior a la cuadrica, las rectas tangentes a la misma se
t a14 a24 a34 a44 obtendran mediante la ecuacion:
De la ultima ecuacion deducimos que, en coordenadas homogenas, los puntos de [(p)A(x)t ]2 [(p)A(p)t ][(x)A(x)t ] = 0
la cuadrica son los vectores autoconjugados de la forma cuadratica que determina la
matriz asociada A. teniendo en cuenta que dicha ecuacion corresponde, en general, al cono de centro
P formado por rectas tangentes a la cuadrica.
Definicion 1.2 Diremos que una cuadrica es degenerada cuando su matriz aso-
ciada tiene determinante nulo. De nuevo la polaridad nos proporcionara otro metodo para calcular estas rectas.

100
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

3 Polaridad. es decir hay una unica solucion y por tanto la recta P X es tangente a la cuadrica
en X.
Trabajamos con una cuadrica de matriz asociada A. 2. Si P esta en la cuadrica, entonces el plano polar es el plano tangente a la
cuadrica en el punto P .
Definicion 3.1 Dado un punto P de coordenadas homogeneas (p1 , p2 , p3 , tp ) y una Prueba: Es un caso particular de la situacion anterior.
cuadrica determinada por una matriz A, se llama plano polar de P respecto a
la cuadrica al plano de ecuacion: Como veremos mas adelante hay cuadricas formadas por dos familias de rectas
reales, es decir, cuadricas por cada uno de cuyos puntos pasan dos rectas reales.
x El plano tangente nos sirve para calcular dichas rectas. Basta tener en cuenta el
y siguiente resultado:
( p1 p2 p3 tp ) A = 0.
z
t Teorema 3.3 El plano tangente a una cuadrica (si no esta contenido en ella) corta
P se dice el polo del plano. a la misma en dos rectas (reales o imaginarias), o una recta doble.

Observacion 3.2 Analogamente a lo que ocurra en el caso de las conicas, los con- Prueba: Dado que la cuadrica esta definida por una ecuacion de grado 2, la inter-
ceptos de polo y plano polar son duales. Supongamos que la cuadrica definida por seccion de esta superficie con un plano no contenido en ella, viene tambien determi-
A es no degenerada. Dados un polo P y su plano polar P la famila de planos nada por una ecuacion de grado 2. Por tanto se tratara de una conica.
pasando por P se corresponde con los planos polares de los puntos de p . Sea una cuadrica determinada por la matriz A y P = (p) un punto de la cuadrica.
Para comprobar esto simplemente tenemos en cuenta lo siguiente. Sean (p) las coor- La ecuacion del plano tangente en P es:
denadas de P . Si B, C y D son tres puntos de P , con coordenadas (b), (c) y (d)
respectivamente, se tiene que: (p)A(x)t = 0
Sea Q = (q) un punto cualquiera en la interseccion de la cuadrica y del plano tan-
(p)A(b)t = 0 P plano polar de B
gente. Veamos que la recta que une P y Q esta contenida en la cuadrica. Se tiene:
(p)A(c)t = 0 P plano polar de C
(p)A(d)t = 0 P plano polar de D P cuadrica (p)A(p)t = 0
Q cuadrica (q)A(q)t = 0
Por tanto el haz de planos que pasa por P sera:
Q plano tangente (p)A(q)t = 0
planos pasando por P (b)A(x)t + (c)A(x)t + (d)A(x)t = 0
Es decir los puntos (p) y (q) cumplen exactamente las condiciones que vimos en la
((b) + (c) + (d))A(x)t = 0
seccion anterior que aseguran que la recta que los une esta contenida en la cuadrica.
planos polares de los puntos (b) + (c) + (d)
planos polares de los puntos de P .

Veamos la interpretacion geometrica del plano polar. Sea C la cuadrica (no de-
generada) definida por A, P el polo y P el correspondiente plano polar:
4 Cambio de sistema de referencia.
1. Si P no esta en la cuadrica y el plano polar interseca a la cuadrica, entonces los Sean dos sistemas de referencia R1 = {O; e1 , e2 , e3 } y R2 = {Q; e01 , e02 , e03 }. Denota-
puntos de interseccion del plano polar y la cuadrica son los puntos de tangencia mos por (x, y, z) e (x0 , y 0 , z 0 ) respectivamente a las coordenadas cartesianas en cada
de las rectas tangentes a la cuadrica pasando por P . una de las referencias. Supongamos que
Prueba: Sea X C P . Entonces se verifican las ecuaciones: - el punto Q con respecto a la primera referencia tiene por coordenadas (q 1 , q 2 , q 3 ).
t
XC (x)A(x) = 0.
- {e0 } = C{e}, donde C = MB 0 B .
X p (p)A(x)t = 0.
recta uniendo X y P (p) + (x) = 0. Entonces sabemos que la formula de cambio de referencia es:

Veamos que la recta que une P y X es tangente a C. Intersecamos dicha recta 0
con la cuadrica y obtenemos: C 0
(x, y, z, t) = (x0 , y 0 , z 0 , t0 ) (x, y, z, t) = (x0 , y 0 , z 0 , t0 )B.

0
2 (p)A(p)t + 2(p)A(x)t + 2 (x)A(xt ) = 0 2 (p)A(p) = 0 q1 q2 q3 1

101
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Razonando exactamente igual que en el caso de conicas obtenemos: positivos es siempre mayor que el de negativos (esto siempre es posible salvo cambio
de signo de A). Ademas sabemos que existe una base ortonormal de autovectores
Teorema 4.1 Las matrices A, A0 de una cuadrica con respecto a dos referencias {u1 , u2 , u3 } de manera que:
R1 , R2 distintas, son matrices congruentes
1 0 0
!
0 t 0 t 0
A = BAB T = CT C con {u} = C{e} y T = 0 2 0
0 0 3
siendo B la matriz de cambio de referencia de R2 a R1 , en coordenadas homogeneas.
La ecuacion de cambio de coordenadas es:
0
Teorema 4.2 Las matrices de terminos cuadraticos T, T de una cuadrica con res-
(x, y, z) = (x0 , y 0 , z 0 )C
pecto a dos referencias R1 , R2 distintas son matrices congruentes
de manera que en la nueva base la ecuacion de la cuadrica es:
T 0 = CT C t
x0 x0
! !
siendo C la matriz de cambio de la base de R2 a la de R1 . 0 0 0 t t
(x y z ) CT C y0 + 2 ( a14 a24 a34 ) C y0 + a44 = 0
z0 z0

5 Clasificacion de cuadricas y ecuacion re- Operando queda:

ducida. 1 x02 + 2 y 02 + 3 z 02 + 2b14 x0 + 2b24 y 0 + 2b34 z 0 + b44 = 0

Dada una cuadrica definida por una matriz simetrica A, de manera analoga a lo que
hacamos en el caso de las conicas, encontrar su ecuacion reducida consiste en hacer 5.2 Paso II: Reduccion de terminos lineales (la
una cambio de referencia de manera que la ecuacion de la cuadrica con respecto a
esa nueva referencia sea lo mas sencilla posible. De nuevo realizamos:
traslacion3 ).
Ahora a partir de la ecuacion anterior completamos las expresiones de x0 , y 0 e z 0 al
1. Un giro. Nos permite colocar el eje o ejes de la cuadrica paralelos a los ejes
cuadrado de un binomio (si es posible), sumando y restando los terminos adecuados.
de coordenadas de la nueva referencia. La matriz de terminos cuadraticos en la
En concreto:
nueva referencia sera diagonal.
2. Una traslacion. Que nos permite colocar el/los centro/s (si existe/n) de la - Para x0 :
cuadrica en el origen de coordenadas (en otro caso llevaremos un vertice al eje b14 0 b214 b2 b14 2 b214
de coordenadas). 1 x02 + 2b14 x0 = 1 (x02 + 2 x + 2 ) 14 = 1 (x0 + )
1 1 1 1 1
Como en el caso de conicas, hacemos la siguiente observacion importante:
- Para y 0 , si 2 6= 0:
Supondremos que al menos un termino de la diagonal
b24 0 b224 b2 b24 2 b224
de la matriz T de terminos cuadraticos es no negativo. 2 y 02 + 2b24 y 0 = 2 (y 02 + 2 y + 2 ) 24 = 2 (y 0 + )
2 2 2 2 2
Si esta propiedad no se cumple, basta trabajar con la matriz A en lugar de con A.
De esta forma aseguramos que T siempre tiene al menos un autovalor positivo. - Para z 0 :

Si 3 6= 0:
5.1 Paso I: Reduccion de terminos cuadraticos (el giro).
b34 0 b234 b2 b34 2 b234
Dado que la matriz T de terminos cuadraticos es simetrica y no nula, tiene tres 3 z 02 + 2b34 z 0 = 3 (z 02 + 2 z + 2 ) 34 = 3 (z 0 + )
3 3 3 3 3
autovalores reales 1 , 2 y 3 , con 1 6= 0. Supondremos los autovalores ordena-
dos segun el criterio positivos-negativos-nulos, y que el numero de autovalores 3 Si 2 = 3 = 0 y b224 + b234 6= 0 todava habra que hacer un giro.

102
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Si 3 = 0, 2 6= 0 y b34 6= 0:
Autovalores y coeficientes Cambio de referencia y ecuacion reducida.

b14
x00 = x0 +
1
b24
y 00 = y 0 +
b224 b2 1 b2 b2 2
2b34 z 0 + b44 14 = 2b34 (z 0 + (b44 24 14 )) b34
2 1 2b34 2 1 1 , 2 , 3 6= 0 z 00 = z 0 +
3

1 x002 + 2 y 002 + 3 z 002 + c44 = 0

b14
x00 = x0 +
1
b24
y 00 = y 0 +
Si 2 = 3 = 0 y b224 + b234 6= 0. En este caso ademas de la traslacion todava 1 , 2 6= 0 2
b2 b2
hay que hacer un giro: 3 = 0 z 00 = z 0 + 2b134 (b44 24
2
14
1
)
b34 6= 0
1 x002 + 2 y 002 + 2c34 z 00 = 0

b14
b2 x00 = x0 +
b214 b24 y 0 + b34 z 0 + 12 (b44 14
1
) 1
2b24 y 0 + 2b34 z 0 + b44 = 2c24 1 , 2 6= 0 y 00 = y 0 +
b24
1 c24 2
3 = 0
b34 = 0
1 x002 + 2 y 002 + c44 = 0

b14
p x00 = x0 +
con c24 = b224 + b234 . 1
b2
00
b24 y 0 + b34 z 0 + 12 (b44 14
1
)
y =
1 6= 0 c24
2 = 3 = 0 b34 y 0 b24 z 0
z 00 =
b224 + b234 6= 0 c24
p
1 x002 + 2c24 y 00 = 0 , c24 = b224 + b234
Hacemos en cada caso el cambio de referencia correspondiente y obtenemos las
siguientes formas reducidas:
b14
x00 = x0 +
1 6= 0 1
2 = 3 = 0
b224 + b234 = 0 1 x002 + c44 = 0
1 x02 + 2 y 02 + 3 z 02 + 2b14 x0 + 2b24 y 0 + 2b34 z 0 + b44 = 0

103
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

Es decir nos queda una ecuacion reducida de la forma: (b) c34 = 0:

1 x 002
+ 2 y 002
+ 3 z 002 00 00
+ 2c24 y + 2c34 z + c44 = 0 i. si c44 > 0, entonces la ecuacion reducida es:

con las siguientes posibilidades para los valores de 2 , 3 , c24 , c34 y c44 : 1 x002 + 2 y 002 + c44 = 0 Cilindro elptico imaginario.

1. Si 2 > 0 y 3 > 0, entonces c24 = c34 = 0 y si:


ii. si c44 = 0, entonces la ecuacion reducida es:
(a) c44 > 0, entonces la ecuacion reducida es:
1 x002 + 2 y 002 = 0 Planos imaginarios que se cortan.
002 002 002
1 x + 2 y + 3 z + |c44 | = 0 Elipsoide imaginario.

iii. si c44 < 0, entonces la ecuacion reducida es:


(b) c44 = 0, entonces la ecuacion reducida es:
1 x002 + 2 y 002 |c44 | = 0 Cilindro elptico real.
1 x002 + 2 y 002 + 3 z 002 = 0 Cono imaginario.
4. Si 2 < 0 y 3 = 0, entonces c24 = 0 y si:

(c) c44 < 0, entonces la ecuacion reducida es: (a) c34 6= 0, entonces c44 = 0 y la ecuacion reducida es:

1 x002 + 2 y 002 + 3 z 002 |c44 | = 0 Elipsoide real. 1 x002 |2 |y 002 + 2c34 z 00 = 0 Paraboloide hiperbolico.

2. Si 2 > 0, 3 < 0, entonces c24 = c34 = 0 y si: (b) c34 = 0, entonces c34 = 0 y,:
i. si c44 6= 0, entonces la ecuacion reducida es:
(a) c44 > 0, entonces la ecuacion reducida es:
1 x002 |2 |y 002 + c44 = 0 Cilindro hiperbolico.
1 x002 + 2 y 002 |3 |z 002 + c44 = 0 Hiperboloide de dos hojas.

ii. si c44 = 0, entonces la ecuacion reducida es:


(b) c44 = 0, entonces la ecuacion reducida es:
1 x002 |2 |y 002 = 0 Planos reales que se cortan.
1 x002 + 2 y 002 |3 |z 002 = 0 Cono real.

5. Si 2 = 3 = 0, entonces c34 = 0 y si:


(c) c44 < 0, entonces la ecuacion reducida es:
(a) b224 + b234 > 0, entonces c44 = 0 y la ecuacion reducida es:
1 x002 + 2 y 002 |3 |z 002 |c44 | = 0 Hiperboloide de una hoja. 1 x002 + 2c24 y 00 = 0 Cilindro parabolico.

3. Si 2 > 0 y 3 = 0, entonces c24 = 0 y si:


(b) b224 + b234 = 0, entonces c24 = c34 = 0 y:
(a) c34 6= 0, entonces c44 = 0 y la ecuacion reducida es: i. si c44 > 0, entonces la ecuacion reducida es:

1 x002 + 2 y 002 + 2c34 z 00 = 0 Paraboloide elptico. 1 x002 + c44 = 0 Planos paralelos imaginarios.

104
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

ii. si c44 = 0, entonces la ecuacion reducida es: Hay que tener en cuenta que las diagonalizaciones de A por congruencia,
no tienen porque coincidir con la forma reducida de la cuadrica. Es decir,
1 x002 = 0 Plano doble. nos sirven para clasificar la cuadrica pero no para calcular su ecuacion
reducida.

iii. si c44 < 0, entonces la ecuacion reducida es: Tambien podemos calcular directamente la signatura de T , hallando sus autoval-
ores o por diagonalizacion y utilizar el rango y determinante de A para precisar
1 x002 |c44 | = 0 Planos paralelos reales. la clasificacion. Como unico inconveniente, de esta forma no distinguimos entre el
caracter real o imaginario del cilindro elptico y de los planos que se cortan.

rango(A) = 4
5.3 Clasificacion en funcion de las signaturas de T y A. Signatura T |A| > 0 |A| < 0
+, +, + Elipsoide imaginario Elipsoide real
Teniendo en cuenta que los cambios de referencia equivalen a multiplicar la matriz +, +, Hiperboloide de 1 hoja Hiperboloide de 2 hojas
A, de la forma BAB t . Para clasificar la cuadrica podemos diagonalizar (hasta donde +, +, 0 Paraboloide elptico
sea posible) la matriz A por congruencia, pero con la siguiente restriccion: +, , 0 Paraboloide hiperbolico
La ultima fila no puede ser ni sumada a las demas ni multiplicada por Signatura T rango(A) = 3
un escalar ni cambiada de posicion. +, +, + Cono imaginario
Si la matriz A es diagonalizable, podemos clasificar completamente la cuadrica +, +, Cono real
en funcion de la signatura de A. Salvo cambio de signo aparecera alguno de los +, +, 0 Cilindro elptico real o imaginario
siguientes casos. +, , 0 Cilindro hiperbolico
+, 0, 0 Cilindro parabolico
Signatura A A SI diagonaliza. Signatura T rango(A) = 2
+, +, +; + Elipsoide imaginario +, +, 0 Planos imaginarios que se cortan
+, +, +; 0 Cono imaginario +, , 0 Planos reales que se cortan
+, +, +; Elipsoide real +, 0, 0 Planos paralelos reales o imaginarios
+, +, ; + Hiperboloide de 2 hojas Signatura T rango(A) = 1
+, +, ; 0 Cono real +, 0, 0 Plano doble
+, +, ; Hiperboloide de 1 hoja
+, +, 0; + Cilindro elptico imaginario Ademas cuando la cuadrica es no degenerada podemos calcular la ecuacion
+, +, 0; 0 Planos imaginarios que se cortan reducida, a partir de los autovalores 1 > 0, 2 y 3 de T y de |A|:
+, +, 0; Cilindro elptico real
1. Si |T | 6= 0, entonces queda:
+, , 0; + Cilindro hiperbolico
+, , 0; 0 Planos reales que se cortan |A|
+, 0, 0; + Planos paralelos imaginarios 1 x002 + 2 y 002 + 3 z 002 + c = 0, con c= .
|T |
+, 0, 0; 0 Plano doble
+, 0, 0; Planos paralelos reales 2. Si |T | = 0, entonces queda:
r
Si A no diagonaliza, la cuadrica es de tipo parabolico. La clasificacion puede 002 002 00 |A|
hacerse entonces en funcion de la signatura de T . 1 x + 2 y 2cz = 0, con c= .
1 2

Signatura T A NO diagonaliza. Podemos incluso dar la referencia en que se obtienen estas formas reducidas:
+, +, 0 Paraboloide elptico
+, , 0 Paraboloide hiperbolico 1. En el caso de |T | 6= 0 (de tipo elptico o hiperbolico), la base de la nueva
+, 0, 0 Cilindro parabolico referencia esta formada por los autovectores de T ortonormalizados y el nuevo

105
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

origen situado en el centro de la cuadrica. Simplemente hay que tener cuidado de Veamos cuando aparecen puntos singulares en una cuadrica. Sea P = (p) un punto
ordenar los autovectores de manera coherente a como se ordenan los autovalores. de la misma. Tomamos una recta cualquiera pasando por P . Para ello elegimos un
punto cualquiera Q = (q) que no este en la cuadrica y lo unimos con P . Su ecuacion
2. En el caso de |T | = 0 (de tipo parabolico), la base de la nueva referencia esta
en coordenadas homogeneas es:
formada por los autovectores de T ortonormalizados y el nuevo origen en el
vertice. Ahora ademas de ordenar correctamente los autovectores, hay que (x) = (p) + (q).
comprobar si se ha escogido correctamente el signo del autovector asociado al
autovalor nulo. Si intersecamos con la cuadrica, nos queda la ecuacion:

2(p)A(q) + 2 (q)A(q) = 0.
5.4 Obtencion de los planos que forman las cuadricas de
rango 1 o 2. El punto P es singular si la unica solucion de esta ecuacion es = 0 con multiplicidad
2, para cualquier punto (q), es decir si:
Una vez clasificada la cuadrica, si esta es de rango 1 o 2, la forma mas comoda de (p)A(q) = 0 para cualquier (q).
calcular los planos que la forman es la siguiente:
Esto se cumple cuando:
1. Si se trata de planos paralelos (reales o imaginarios) o de un plano doble, se (p)A = 0.
calcula el plano de centros. Si es un plano doble hemos terminado. En otro
Concluimos lo siguiente:
caso intersecamos la cuadrica con una recta cualquiera (lo mas sencilla posible)
y obtenemos dos puntos (reales o imaginarios). Los planos buscados son los
paralelos al plano de centros pasando por dichos puntos. Teorema 6.2 Una cuadrica dada por una matriz A tiene puntos singulares (propios
2. Si se trata de planos que se cortan (reales o imaginarios), se calcula la recta o impropios) si y solo si det(A) = 0. En ese caso la cuadrica se dice degenerada y
de centros. Luego intersecamos la cuadrica con una recta cualquiera (lo mas los puntos singulares (afines) son los que verifican la ecuacion:
sencilla posible) que no interseque a la recta de centros y obtenemos dos puntos
(reales o imaginarios). Los planos buscadas son los generados por la recta de (x y z 1 ) A = 0
centros y dichos puntos.

6.2 Centro.
6 Puntos, rectas y planos notables asociados a Definicion 6.3 El centro de una cuadrica es un punto afn centro de simetra
una cuadrica. de la misma.

En lo que sigue trabajaremos sobre una cuadrica cuya matriz asociada respecto a un Llamemos (a, b, c, 1) a las coordenadas homogeneas del centro. Veamos como cal-
determinado sistema de referencia es A. cularlo:
- Consideramos la ecuacion de una recta que pasa por el centro y tiene un deter-
minado vector director (p, q, r):
6.1 Puntos singulares.
(x, y, z, 1) = (a, b, c, 1) + (p, q, r, 0).
Definicion 6.1 Un punto singular de una superficie es un punto de no diferen-
ciabilidad de la misma.
- Sustituimos en la ecuacion de la cuadrica y obtenemos:
Equivalentemente, un punto singular de una superficie es un punto con mas de
un plano de tangencia. p p a
q 2 q b
Equivalentemente, si toda recta pasando por un punto P de una superficie la corta (p q r 0)A + 2(a b c 1)A + (a b c 1)A = 0
r r c
con multiplicidad > 1 en P , entonces P es un punto singular. 0 0 1

106
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

- Para que (a, b, c, 1) sea centro las soluciones de han de ser valores opuestos donde (u1 , u2 , u3 ) es la direccion conjugada. Por otra parte vimos que si (a, b, c, 1)
para cualquier direccion (p, q, r) 6= (0, 0, 0). Esto significa que: es el centro verifica:


p a 0
q b 0
(a b c 1 ) A = 0 para cualquier (p, q, r) 6= (0, 0, 0) (a b c 1)A = (0 0 0 h ) A = .
r c 0
0 1 h

Deducimos que:
- Deducimos que la ecuacion del centro es: a
b
( u1 u2 u3 0)A = 0
(a b c 1 ) A = (0, 0, 0, h) c
1
y por tanto el plano diametral contiene al centro. Como los diametros son interseccion
6.3 Direcciones asintoticas. de planos diametrales, entonces tambien contienen al centro.

Definicion 6.4 Las direcciones asintoticas son los puntos del infinito que perte-
necen a la cuadrica.
6.5 Planos principales, ejes y vertices.
Definicion 6.7 Se llaman planos principales a los planos diametrales perpendi-
De la definicion es claro que las direcciones asintoticas (p, q, r, 0) se obtienen re- culares a su direccion conjugada.
solviendo la ecuacion:
Se llaman ejes a la interseccion de los planos principales.

p Se llaman vertices a la interseccion de los ejes con la cuadrica.
q
( p q r 0 ) A = 0, (p, q, r) 6= (0, 0, 0)
r
Observacion 6.8 Las direcciones conjugadas de los planos principales son los au-
0
tovectores de T asociados a autovalores no nulos.

6.4 Planos diametrales y diametros. Prueba: Sea (u1 , u2 , u3 , 0) un punto del infinito y

x
Definicion 6.5 Un plano diametral de una cuadrica es el plano polar (afn) de
1 2 3 y
un punto del infinito. Al punto del infinito se le llama direccion conjugada con (u u u 0)A = 0
z
el plano diametral.
1
Un diametro es una recta interseccion de dos planos diametrales.
la ecuacion del correspondiente plano diametral. Operando, obtenemos que el vector
normal del plano es:
Observacion 6.6 Cualquier diametro pasa por el centro (o centros) de la cuadrica. ( u1 u2 u3 ) T.
Como esta recta debe de ser perpendicular a la direccion conjugada, este vector
Prueba: Supongamos que A es la matriz de la cuadrica y (a, b, c, 1) es un centro. normal ha de ser paralelo a (u1 , u2 , u3 ) y por tanto:
Un plano diametral tiene por ecuacion:
( u1 u2 u3 ) T = ( u1 u2 u3 ) .

x
1 2 3 y Deducimos que (u1 , u2 , u3 ) es un autovector de T , asociado al autovalor . Final-
(u u u 0)A = 0 mente tenemos en cuenta que si = 0, entonces el plano anterior sera el plano del
z
1 infinito, y por tanto no es un eje.

107
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

7 Descripcion de las cuadricas reales de rango 7.1.2 Hiperboloide de una hoja.


3 y 4. La ecuacion reducida de un hiperboloide de una hoja es:

7.1 Cuadricas reales de rango 4.


7.1.1 Elipsoide real.

La ecuacion reducida de una elipsoide es: x2 y2 z2


2
+ 2 2 = 1, a, b, c 6= 0
a b c

x2 y2 z2
+ + = 1, a, b, c 6= 0
a2 b2 c2
Sus puntos, rectas y planos notables son:

1. Centro: (0, 0, 0).


Sus puntos, rectas y planos notables son:
2. Direcciones asintoticas: El cono formado por todos los vectores (x, y, z) que
verifican la ecuacion:
1. Centro: (0, 0, 0). x2 y2 z2
2
+ 2 2 = 0.
2. Direcciones asintoticas: No tiene. a b c
3. Planos diametrales y diametros: Cualquier plano y cualquier recta
3. Planos diametrales y diametros: Cualquier plano y cualquier recta
pasando por el centro.
pasando por el centro.
4. Planos principales, ejes y vertices:
4. Planos principales, ejes y vertices:
(a) a 6= b:
(a) a 6= b 6= c:
Planos princip. Ejes Vertices
Planos princip. Ejes Vertices x = 0; y = 0; z = 0; (a, 0, 0), (a, 0, 0)
x = 0; y = 0; z = 0; (a, 0, 0), (a, 0, 0) y = 0; x = 0; z = 0; (0, b, 0), (0, b, 0)
y = 0; x = 0; z = 0; (0, b, 0), (0, b, 0) z = 0; x = 0; y = 0;
z = 0; x = 0; y = 0; (0, 0, c), (0, 0, c)
(b) a = b (Hiperboloide de una hoja de revolucion):
(b) a = b y b 6= c (Elipsoide de revolucion): Planos princip. Ejes Vertices
x + y = 0; z = 0;
Planos princip. Ejes Vertices x + y = 0; (p, q, 0)
x + y = 0; z = 0; p2 + q 2 = a2
x + y = 0; (p, q, 0) x = 0; y = 0;
z = 0;
p2 + q 2 = a2 (OZ Eje de revolucion)
x = 0; y = 0;
z = 0; (0, 0, c), (0, 0, c)
(OZ Eje de revolucion) El hiperboloide de una hoja es una superficie reglada. Las dos familias de rectas
que tiene la cuadrica son:
(c) a = b = c (Esfera):
x z y x z y
       
Todos los planos y rectas pasando por el centro son planos principales y + = 1+ + = 1
ejes. Por tanto todos los puntos de la esfera son vertices. Cualquier recta
a c b y a c b .
x z y xz y
 
= 1 = 1+
pasando por el centro es un eje de revolucion. a c b a c b

108
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

7.1.3 Hiperboloide de dos hojas.

La ecuacion reducida de un hiperboloide de dos hojas es:


x2 y2
2
+ 2 2cz = 0, a, b 6= 0, c > 0
a b

x2 y2 z2
+ 2 2 + 1 = 0, a, b, c 6= 0
a2 b c Sus puntos, rectas y planos notables son:

1. Centro: No tiene (podra considerarse como centro impropio el (0, 0, 1, 0)).


2. Direcciones asintoticas: (0, 0, 1).
3. Planos diametrales y diametros: Planos y rectas paralelos al eje OZ.
Sus puntos, rectas y planos notables son: 4. Planos principales, ejes y vertices:

1. Centro: (0, 0, 0). (a) a 6= b:


Planos princip. Ejes Vertices
2. Direcciones asintoticas: El cono formado por todos los vectores (x, y, z) que x = 0;
verifican la ecuacion: x = 0; y = 0; (0, 0, 0)
y = 0;
x2 y2 z2
2
+ 2 2 = 0.
a b c (b) a = b (Paraboloide elptico de revolucion):
3. Planos diametrales y diametros: Cualquier plano y cualquier recta
Planos princip. Ejes Vertices
pasando por el centro.
x = 0; y = 0;
x + y = 0; (0, 0, 0)
4. Planos principales, ejes y vertices: (OZ Eje de revolucion)

(a) a 6= b:

Planos princip. Ejes Vertices


x = 0; y = 0; z = 0;
y = 0; x = 0; z = 0;
z = 0; x = 0; y = 0; (0, 0, c), (0, 0, c)

(b) a = b (Hiperboloide de dos hojas de revolucion):

Planos princip. Ejes Vertices


x + y = 0; z = 0;
x + y = 0;
x = 0; y = 0;
z = 0; (0, 0, c), (0, 0, c)
(OZ Eje de revolucion)

7.1.4 Paraboloide elptico.

La ecuacion reducida de un paraboloide elptico es:

109
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

7.1.5 Paraboloide hiperbolico.

La ecuacion reducida de un paraboloide hiperbolico es:


x2 y2 z2
+ = 0, a, b, c 6= 0
a2 b2 c2

x2 y2
2
2 2cz = 0, a, b 6= 0, c > 0
a b
Sus puntos, rectas y planos notables son:

1. Puntos singulares: (0, 0, 0).


Sus puntos, rectas y planos notables son: 2. Centro: (0, 0, 0).
3. Direcciones asintoticas: Vectores (x, y, z) que verifican la ecuacion del cono.
1. Centro: No tiene (podra considerarse como centro impropio el (0, 0, 1, 0)).
4. Planos diametrales y diametros: Planos y rectas pasando por el centro.
2. Direcciones asintoticas: (a, b, z) y (a, b, z), para cualquier z IR. 5. Planos principales, ejes y vertices:

3. Planos diametrales y diametros: Planos y rectas paralelos al eje OZ. (a) a 6= b:


Planos princip. Ejes Vertices
4. Planos principales, ejes y vertices:
x = 0; y = 0; z = 0; (0, 0, 0)
y = 0; x = 0; z = 0;
z = 0; x = 0; y = 0;
Planos princip. Ejes Vertices
x = 0;
x = 0; y = 0; (0, 0, 0) (b) a = b (Cono real de revolucion):
y = 0;

Planos princip. Ejes Vertices


El paraboloide hiperbolico es una superficie reglada. Las dos familias de rectas x + y = 0; z = 0;
x + y = 0; (0, 0, 0)
que tiene la cuadrica son:
x = 0; y = 0;
z = 0;
(OZ Eje de revolucion)
x y x y
   
+ = 2cz + =
a b y a b . El cono es una superficie reglada. Las generatrices del cono vienen dadas por las
x y xy
= = 2cz
a b a b ecuaciones:
z x y
 
+ =
c a b .
z x y
=
7.2 Cuadricas reales de rango 3. c a b

7.2.1 Cono real. 7.2.2 Cilindro elptico real.

La ecuacion reducida de un cono real es: La ecuacion reducida de un cilindro elptico real es:

110
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

x2 y2 x2 y2
+ = 1, a, b 6= 0 2 = 1, a, b 6= 0
a2 b2 a2 b

Sus puntos, rectas y planos notables son: Sus puntos, rectas y planos notables son:

1. Puntos singulares: Punto (impropio) (0, 0, 1, 0).


1. Puntos singulares: Punto (impropio) (0, 0, 1, 0).
2. Centro: El eje OZ es una recta de centros (x = 0; y = 0).
2. Centro: El eje OZ es una recta de centros (x = 0; y = 0).
3. Direcciones asintoticas: (0, 0, 1).

4. Planos diametrales y diametros: Planos conteniendo al eje OZ y como 3. Direcciones asintoticas: (0, 0, 1), (a, b, z) y (a, b, z), para cualquier z IR.
unico diametro el eje OZ.
4. Planos diametrales y diametros: Planos conteniendo al eje OZ y como
5. Planos principales, ejes y vertices: unico diametro el eje OZ.

5. Planos principales, ejes y vertices:


(a) a 6= b:
Planos princip. Ejes Vertices
x = 0; Planos princip. Ejes Vertices
x = 0; y = 0; NO
y = 0; x = 0;
x = 0; y = 0; NO
y = 0;
(b) a = b (Cilindro real de revolucion):

Planos princip. Ejes Vertices El cilindro hiperbolico obviamente es una superficie reglada. La famila de rectas
x + y = 0; x = 0; y = 0; viene dada por las ecuaciones:
NO
(OZ Eje de revolucion)
x y
 
+ =
El cilindro elptico obviamente es una superficie reglada. La famila de rectas viene a b
x y
dada por las ecuaciones: = 1
a b
x y
 
+1 =
a b .
x y con 6= 0 y donde el signo de indica en que rama de la superficie esta la recta.

1 =
a b

7.2.3 Cilindro hiperbolico. 7.2.4 Cilindro parabolico.

La ecuacion reducida de un cilindro hiperbolico es: La ecuacion reducida de un cilindro parabolico es:

111
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

x2 2py = 0, p 6= 0

Sus puntos, rectas y planos notables son:

1. Puntos singulares: Punto (impropio) (0, 0, 1, 0).


2. Centro: No tiene centro afn, pero si una recta de centros impropios (x = 0;
t = 0).
3. Direcciones asintoticas: (0, y, z), para cualesquiera y, z IR. En defini-
tiva,(cualquier direccion en el plano x = 0.
4. Planos diametrales y diametros: Planos paralelos al plano x = 0. No
tiene diametros.
5. Planos principales, ejes y vertices:

Planos princip. Ejes Vertices


x=0 NO NO

El cilindro elptico obviamente es una superficie reglada. La famila de rectas viene


dada por las ecuaciones:
x = 2py
.
x =

112
Tema V. Captulo 2. Cuadricas. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

8 Formas reducidas de las cuadricas.


2 2
10. x + y + 1 = 0 Cilindro elptico imaginario
a2 b 2
2 2 2
1. x + y + z 1 = 0 Elipsoide
a2 b2 c2

2 2
Planos imaginarios que se cor-
2 2 2 11. x + y = 0
2. x + y + z + 1 = 0 Elipsoide imaginario a2 b 2 tan
a2 b2 c2

2 2
12. x y 1 = 0
2 2 2
3. x + y z 1 = 0 Hiperboloide de una hoja 2 2
Cilindro hiperbolico
a2 b2 c2 a b

2 2
2 2 2 13. x y = 0 Par de planos que se cortan
4. x + y z + 1 = 0 Hiperboloide de dos hojas a2 b 2
a2 b 2 c2

2 2 2 14. y 2 2px = 0 Cilindro parabolico


5. x + y z = 0 Cono
a2 b 2 c2

15. x2 a2 = 0 Par de planos paralelos


2 2 2
6. x + y + z = 0 Cono imaginario
a2 b2 c2

Par de planos paralelos imagi-


16. x2 + a2 = 0
2 2 narios
7. x + y 2cz = 0 Paraboloide elptico
a2 b2

17. x2 = 0 Plano doble


2 2
8. x y 2cz = 0 Paraboloide hiperbolico
a2 b 2

2 2
9. x + y 1 = 0 Cilindro elptico
a2 b2

113
Index
Angulo, 80 degenerada, 89, 97
entre dos planos, 80 diametro, 91
entre dos rectas, 80 direccion asintotica, 91
entre dos vectores, 59 directriz, 92
entre recta y plano, 80 ecuacion, 89
eje, 92
Adjunto, 14 excentricidad, 92
Aplicacion, 2 foco, 92
bilineal, 47 vertice, 92
biyectiva, 3 Caja de Jordan, 44
compuesta, 3 Cambio de base, 29
identidad, 3 de la matriz asociada
inversa, 3 a un homomorfismo, 34
inyectiva, 3 a una forma bilineal, 47
lineal, 33 de un tensor homogeneo, 56
sobreyectiva, 3 en el espacio dual, 54
Asntota Cambio de sistema de referencia, 77
de una conica, 91 en coordenadas homogeneas, 86
Automorfismo, 37 Caracter tensorial, 56
Autovalor, 39
Cardinal, 1
Autovector, 39
Centro
de una conica, 91
Base, 26
de una cuadrica, 106
asociada, 56
Cilindro
canonica, 28
de autovectores, 42 elptico, 110
dual, 54 de revolucion, 111
orientacion, 67 hiperbolico, 111
ortogonal, 61 parabolico, 111
ortonormal, 61 Circunferencia, 92
de autovectores, 65 Clase de equivalencia, 4
recproca, 60 Clasificacion
Binomio de Newton, 6 de conicas, 95, 97
Biyectiva, 3 de cuadricas, 102
Bloque de Jordan, 44 de formas cuadraticas, 52
de homomorfismos, 36
Conica, 89 de isometrias, 84
asntota, 91 Combinacion lineal, 25
centro, 91 Combinaciones
como seccion de un cono, 99 con repeticion, 6
de tipo sin repeticion, 6
elptico, 91 Combinatoria., 5
hiperbolico, 91 Complementario, 1
parabolico, 91 Componentes

115
Glosario. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

de un tensor homogeneo, 56 Diametro


Composicion de una conica, 91
de aplicaciones, 3 de una cuadrica, 107
de homomorfismos, 36 Diagonalizacion
Conjunto, 1 de una forma cuadratica, 51
cociente, 4 por congruencia, 19, 51
de permutaciones, 12 por semejanza, 41
final, 2 Dimension, 27
imagen, 2 Direccion asintotica
inicial, 2 de una conica, 91
origen, 2 de una cuadrica, 107
Cono Direccion conjugada, 91, 107
de rectas tangentes a una cuadrica desde un punto exterior, 100 Directriz, 92
real, 110 Distancia
de revolucion, 110 de un punto a un plano, 82
Contraccion de un punto a una recta
tensorial, 57 en E2 , 81
Contravariante, 55 en E3 , 81
Coordenadas de un punto a una variedad afn, 81
cartesianas, 77 entre dos planos paralelos, 82
contravariantes, 27 entre dos puntos, 81
covariantes, 59 entre dos rectas
homogeneas, 85 paralelas, 82
Correspondencia, 2 que se cruzan, 82
compuesta, 2 entre dos variedades afines, 82
inversa, 2 entre un plano y una recta paralela, 82
Covariante, 55 Dominio, 2
Covector, 54 Dualidad, 54
Criterio de Sylvester, 52
Cuadrica, 100 Ecuacion
centro, 106 reducida
clasificacion, 102 de una conica, 95
degenerada, 100, 106 canonica
diametro, 107 de un plano, 79
direccion asintotica, 107 de una recta, 79
ecuacion, 100 cartesiana
eje, 107 de un plano, 79
plano diametral, 107 de una recta, 78
plano principal, 107 en coordenadas homogeneas, 86
vertice, 107 continua
de una recta, 78, 79
Desigualdad de una conica, 89
de Minkowski, 59 cambio de sistema de referencia, 94
de Schwarz, 59 de una cuadrica, 100
triangular, 81 cambio de sistema de referencia, 101
Determinante, 12 implcita o cartesiana, 30

116
Glosario. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

parametrica, 30 diagonalizable, 51
de un plano, 79 dordinaria, 51
de una recta, 78, 79 indefinida, 52
en coordenadas homogeneas, 87 real, 51
reducida semidefinida negativa, 52
de una conica, 97 semidefinida positiva, 52
de una cuadrica, 102, 105 lineal, 54
vectorial, 30 polar, 49
de un plano, 79
de una recta, 78, 79 Geometra Proyectiva, 85
Eje Giro
de una conica, 92 en IR2 , 68
de una cuadrica, 107 en IR3 , 70
Elementos, 1 en E2 , 84
Elipse, 92 en E3 , 84
Elipsoide Gram-Schmidt
de revolucion, 108 metodo de ortogonalizacion, 61
real, 108
Endomorfismo, 37, 39 Haz
diagonalizable, 41, 42 de conicas, 97
de planos, 80
simetrico, 64
de rectas, 79
triangularizable, 43
de variedades afines, 79
Envolvente lineal, 25
Hiperbola, 93
Epimorfismo, 37
Hiperboloide
Esfera, 108
de dos hojas, 109
Espacio afn, 77
de revolucion, 109
Espacio eucldeo, 58
de una hoja, 108
Espacio vectorial, 21
de revolucion, 108
dual, 54
Homomorfismo, 33
eucldeo, 58
Homotecia, 83
Especie
de la potencia tensorial, 55 Imagen, 2
de un tensor homogeneo, 56 de una aplicacion lineal, 35
Excentricidad, 92 Interpretacion geometrica
de la recta polar, 90
Formula del plano polar, 101
de las dimensiones, 30 Interseccion, 1
Foco, 92 de cuadrica y plano tangente, 101
Forma de recta y conica, 89
bilineal, 47 de recta y cuadrica, 100
antisimetrica o hemisimetrica, 48 de subespacios, 22
simetrica, 48 Inyectiva, 3
cuadratica, 49 Isometra, 84
definida negativa, 52 Isomorfismo, 37
definida positiva, 52
degenerada, 51 Jordan

117
Glosario. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

bloque de, 44 regular, 8


caja de, 44 simetrica, 9
forma canonica de, 44 definida negativa, 52
matriz de, 44 definida positiva, 52
indefinida, 52
Ley de inercia de Sylvester, 51 semidefinida negativa, 52
Leyes de De Morgan, 1 semidefinida positiva, 52
Linealmente singular, 8
dependiente, 25 traspuesta, 9
independiente, 25 triangular, 10
Lugar geometrico inferior, 10
elipse como, 93 superior, 10
hiperbola como, 94 triangularizable, 43
parabola como, 94 Menor, 14
Monomorfismo, 36
Metodo de ortogonalizacion de Gram-Schmidt, 61 Multiplicidad
Modulo, 58 algebraica, 41
Matrices geometrica, 41
congruentes, 18
equivalentes, 17 Nucleo
por columnas, 17 de una aplicacion lineal, 35
por filas, 16 de una forma cuadratica, 50
semejantes, 20 Numeros combinatorios, 5
Matriz, 7 Norma, 58
adjunta, 15
antisimetrica, 9 Operacion elemental
asociada de columna, 11
a un homomorfismo, 34 de fila, 10
a una aplicacion lineal, 34 Orden
a una conica, 89 de la potencia tensorial, 55
a una forma bilineal, 47 de un tensor homogeneo, 56
a una forma cuadratica, 49 Orientacion, 67
cuadrada, 7 Origen, 2
de cambio de base, 29
de Gram, 58 Parabola, 94
de Jordan, 44 Paraboloide
de paso, 29 elptico, 109
diagonal, 10 de revolucion, 109
diagonalizable, 41 hiperbolico, 110
elemental Particion, 4
de columna, 11 Permutaciones, 5
de fila, 10 con repeticion, 5
hemisimetrica, 9 Plano, 78
inversa, 8 ecuacion de, 79
no singular, 8 polar, 101
ortogonal, 10 principal
rectangular, 7 de una cuadrica, 107

118
Glosario. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

tangente, 101 a una conica, 89


tangente a una cuadrica, 100 a una cuadrica, 100
Plano diametral polar, 90
de una cuadrica, 107 secante
Polaridad, 90, 101 a una conica, 89
Polinomio caracterstico, 40 a una cuadrica, 100
Polo, 90, 101 tangente
Potencia a una conica, 89
de una matriz, 9, 43, 46 a una cuadrica, 100
tensorial, 55 Regla del producto, 5
especie de, 55 Relacion, 4
orden de, 55 de orden, 4
Producto parcial, 4
cartesiano, 2 total, 4
contrado, 57 de Chasles, 77
de matrices, 7 de equivalencia, 4
de un escalar por un tensor, 57
de un escalar por un vector, 21 Secciones planas de un cono, 99
de un escalar por una matriz, 7 Signatura
escalar, 58 de una forma cuadratica, 51
mixto, 76 de una permutacion, 12
tensorial, 57 Simetra
de espacios vectoriales, 54, 55 en IR2 , 69
vectorial, 75 respecto al origen, 69
Propiedad respecto una recta, 69
antisimetrica, 4 en IR3 , 71
reflexiva, 4 respecto a un plano, 71
simetrica, 4 respecto a una recta, 71
transitiva, 4 respecto al origen, 71
Proyeccion en un espacio afn, 84
ortogonal, 63, 64 Sistema
Punto, 77, 78 de referencia, 77
doble o fijo, 83 rectangular, 77
impropio o del infinito, 86 ortogonal, 61
propio, 86 ortonormal, 61
singular Sistemas
de una curva, 90 equivalentes, 25
de una superficie, 106 generadores, 25
libres, 25
Rango ligados, 25
de un conjunto de vectores, 28 Sobreyectiva, 3
de una matriz, 15 Subconjunto, 1
Recorrido, 2 Subespacio
Recta, 78 caracterstico, 39
ecuacion de, 78, 79 propio, 39
exterior suma, 22

119
Glosario. Algebra. Departamento de Metodos Matematicos y de Representacion. UDC.

suplementario propio, 39
ortogonal, 63 Variaciones, 5
vectorial, 22 con repeticion, 5
Subespacios sin repeticion, 5
conjugados, 50 Variedad
ortogonales, 63 afn, 78
suplementarios, 23 en E2 , 78
Suma en E3 , 79
de vectores, 21 Vector, 21
de matrices, 7 autoconjugado, 50
de subespacios, 22 caracterstico, 39
de tensores, 57 normal
directa, 23 de un plano, 79
Superficie de una recta, 78
reglada, 108, 110112 propio, 39
unitario, 59
Tensor, 55 Vectores
hemisimetrico, 57 conjugados, 50
homogeneo, 56 ortogonales, 61
especie de, 56
orden de, 56
simetrico, 57
Teorema
de Pitagoras, 61
de la base ortogonal incompleta, 62
de Steinitz, 26
Fundamental del Algebra, 44
Transformacion
afn, 83
Transformacion ortogonal, 66
clasificacion, 73
directa, 68
en IR2 , 68
clasificacion, 69
en IR3 , 70
clasificacion, 72
inversa, 68
Traslacion, 83
Trasposicion, 12

Union, 1

Vertice
de una conica, 92
de una cuadrica, 107
Valor
caracterstico, 39

120