Está en la página 1de 30

Universidad de la Rep´ ublica Segundo semestre 2004

Facultad de Ciencias Notas de
´
Algebra Lineal II
Centro de Matem´atica Andr´es Abella
Formas multilineales
1. Formas multilineales
Sea k un cuerpo arbitrario, V un k-espacio vectorial y n un entero positivo. Una n-forma multilineal en
V es una funci´on α : V V
. ¸¸ .
n
→k que verifica:
α(v
1
, . . . , a v
i
+w
i
, . . . , v
n
) = a α(v
1
, . . . , v
i
, . . . , v
n
) +α(v
1
, . . . , w
i
, . . . , v
n
)
para todo a ∈ k, v
1
, . . . , v
n
, w
i
∈ V y todo i = 1, . . . , n.
Observar que una forma multilineal es una funci´on que es lineal en cada variable, en particular una
1-forma multilineal es simplemente un elemento del espacio dual V

.
Es un ejercicio el verificar que el conjunto de las n-formas multilineales es un subespacio del espacio
vectorial de las funciones con dominio V V y codominio k, en el cual las operaciones se definen punto
a punto:
(f +g)(v
1
, . . . , v
n
) = f(v
1
, . . . , v
n
) +g(v
1
, . . . , v
n
), (a f)(v
1
, . . . , v
n
) = a f(v
1
, . . . , v
n
). (1)
En particular esto implica que el conjunto de las n-formas multilineales tiene estructura de espacio vectorial.
2. Formas bilineales
Una forma bilineal es una 2-forma multilineal, es decir una funci´on ϕ : V V →k que verifica
ϕ(a u +v, w) = a ϕ(u, w) +ϕ(v, w),
ϕ(w, a u +v) = a ϕ(w, u) +ϕ(w, v).
Sea Bil(V ) el conjunto de las formas bilineales en V . Por lo que vimos anteriormente Bil(V ) tiene estructura
de espacio vectorial definiendo las operaciones como en (1).
Ejemplos de formas bilineales son los siguientes:
Ejemplo 2.1. Un producto interno real ¸ , ) : V V →R.
Ejemplo 2.2. La funci´on ϕ : k
2
k
2
→k definida por
ϕ
_
(x, y) ,
_
x

, y

__
= 2 xx

+ 3 xy

+ 4 y x

−y y

.
Observar que podemos escribir:
ϕ
_
(x, y) ,
_
x

, y

__
= (x, y)
_
2 3
4 −1
__
x

y

_
.
1
Ejemplo 2.3. Este ejemplo generaliza el anterior. Si A ∈ M
n
(k), definimos ϕ
A
: k
n
k
n
→k por ϕ
A
(u, v) =
u
t
Av, siendo
u =
_
_
_
u
1
.
.
.
u
n
_
_
_, v =
_
_
_
v
1
.
.
.
v
n
_
_
_, A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_
_
_.
Expl´ıcitamente es ϕ
A
(u, v) =

n
i,j=1
a
ij
u
i
v
j
.
Proposici´ on 2.1. Sean ϕ : V V → k una forma bilineal, W un espacio vectorial y T, S : W → V dos
transformaciones lineales. Si definimos ϕ

: W W →k mediante
ϕ

(w
1
, w
2
) = ϕ(T(w
1
), S(w
2
)), ∀w
1
, w
2
∈ W,
Entonces ϕ

es una forma bilineal en W.
Dem.
ϕ

(w
1
+a w

1
, w
2
) = ϕ(T(w
1
+a w

1
), S(w
2
)) = ϕ(T(w
1
) +a T(w

1
), S(w
2
))
= ϕ(T(w
1
), S(w
2
)) +a ϕ(T(w

1
), S(w
2
)) = ϕ

(w
1
, w
2
) +a ϕ

(w

1
, w
2
).
Esto prueba que ϕ

es lineal en la primer variable y an´ alogamente se prueba que es lineal en la segunda
variable.
Definici´ on 2.1. Si V tiene dimensi´on finita n, B = ¦v
1
, . . . , v
n
¦ es una base de V y ϕ ∈ Bil(V ), definimos
M
B
(ϕ) la matriz asociada a la forma bilineal ϕ en la base B mediante
M
B
(ϕ) := (ϕ(v
i
, v
j
))
i,j
=
_
_
_
ϕ(v
1
, v
1
) ϕ(v
1
, v
n
)
.
.
.
.
.
.
ϕ(v
n
, v
1
) ϕ(v
n
, v
n
)
_
_
_ ∈ M
n
(k).
Ejemplo 2.4. En el Ejemplo 2.2, si B = ¦(1, 0), (0, 1)¦, es M
B
(ϕ) =
_
2 3
4 −1
_
.
Teorema 2.2. Sea V un espacio de dimensi´ on finita n y B = ¦v
1
, . . . , v
n
¦ una base de V . La funci´ on
M
B
: Bil(V ) → M
n
(k) que a cada forma bilineal ϕ le asocia la matriz M
B
(ϕ) es un isomorfismo lineal.
Dem. Sean ϕ, ϕ

∈ Bil(V ) y a ∈ k. Es
M
B
_
a ϕ +ϕ

_
=
__
a ϕ +ϕ

_
(v
i
, v
j
)
_
i,j
=
_
a ϕ(v
i
, v
j
) +ϕ

(v
i
, v
j
)
_
i,j
= a (ϕ(v
i
, v
j
))
i,j
+
_
ϕ

(v
i
, v
j
)
_
i,j
= a M
B
(ϕ) +M
B
_
ϕ

_
.
Luego M
B
es lineal.
Sea ϕ ∈ Bil(V ) tal que M
B
(ϕ) = 0 ∈ M
n
(k), entonces es ϕ(v
i
, v
j
) = 0 para todo i, j = 1, . . . , n. Sean
v, w ∈ V que escribimos v =

n
i=1
x
i
v
i
y w =

n
j=1
y
j
v
j
. Entonces
ϕ(v, w) = ϕ
_
_
n

i=1
x
i
v
i
,
n

j=1
y
j
v
j
_
_
=
n

i=1
x
i
n

j=1
y
j
ϕ(v
i
, v
j
) = 0.
Luego Ker M
B
= ¦0¦ y M
B
es inyectiva.
2
Sea A = (a
ij
)
i,j
∈ M
n
(k). Definimos ϕ : V V → k mediante ϕ(v, w) = ϕ
A
(coord
B
v, coord
B
w), siendo
ϕ
A
: k
n
k
n
→k la forma bilineal definida en el Ejemplo 2.3. La Proposici´on 2.1 nos prueba que ϕ ∈ Bil(V ).
Operando obtenemos
ϕ(v
i
, v
j
) = ϕ
A
(e
i
, e
j
) = a
ij
, ∀i, j = 1, . . . , n.
Luego M
B
(ϕ) = A y M
B
es sobreyectiva.
Corolario 2.3. Si V es un espacio de dimensi´ on finita n, entonces la dimensi´ on de Bil(V ) es n
2
.
Dem. Es Bil(V ) ≃ M
n
(k) y dimM
n
(k) = n
2
.
Corolario 2.4. Si V es un espacio de dimensi´ on finita n, B es una base de V y ϕ ∈ Bil(V ), entonces una
matriz A ∈ M
n
(k) verifica
ϕ(v, w) = (coord
B
v)
t
Acoord
B
w, ∀v, w ∈ V
si y solo si A = M
B
(ϕ).
Dem. Se deduce inmediatamente de la demostraci´ on del teorema anterior.
Observar que en particular el corolario anterior nos da la siguiente f´ormula:
ϕ(v, w) = (coord
B
v)
t
M
B
(ϕ) coord
B
w, ∀v, w ∈ V
Corolario 2.5. Si ϕ ∈ Bil (k
n
) entonces existe una ´ unica matriz A ∈ M
n
(k) tal que ϕ(v, w) = v
t
Aw para
todo v, w en k
n
(es decir ϕ = ϕ
A
).
Dem. Sea B la base can´onica de k
n
y A = M
B
(ϕ), entonces
ϕ(v, w) = (coord
B
v)
t
Acoord
B
w = v
t
Aw, ∀v, w ∈ k
n
.
De ahora en adelante supondremos que V es un k-espacio vectorial de dimensi´on finita n.
Proposici´ on 2.6. Sean B y ( dos bases de V y ϕ ∈ Bil(V ). Entonces
M
C
(ϕ) = (
B
[id ]
C
)
t
M
B
(ϕ)
B
[id ]
C
.
Dem. Sean v, w ∈ V ,
ϕ(v, w) = (coord
B
v)
t
M
B
(ϕ) coord
B
w
= (
B
[id ]
C
coord
C
v)
t
M
B
(ϕ) (
B
[id ]
C
coord
C
w)
= (coord
C
v)
t
(
B
[id ]
C
)
t
M
B
(ϕ)
B
[id ]
C
coord
C
w.
Luego el Corolario 2.4 implica M
C
(ϕ) = (
B
[id ]
C
)
t
M
B
(ϕ)
B
[id ]
C
.
Definici´ on 2.2. Dos matrices A y B en M
n
(k) se dicen congruentes si existe una matriz invertible Q en
M
n
(k) tal que A = Q
t
BQ.
3
Ejercicio 2.1. Probar que la congruencia es una relaci´ on de equivalencia en M
n
(k).
Teorema 2.7. Sea ϕ ∈ Bil(V ) y B una base de V . Si A ∈ M
n
(k) es congruente con M
B
(ϕ), entonces existe
( base de V tal que M
C
(ϕ) = A.
Dem. Sea Q = (q
ij
) ∈ M
n
(k) invertible tal que A = Q
t
M
B
(ϕ) Q. Si B = ¦v
1
, . . . , v
n
¦, definimos
( = ¦w
1
, . . . , w
n
¦ mediante
w
j
=
n

i=1
q
ij
v
i
, j = 1, . . . , n.
Como Q es invertible, resulta que ( es una base de V y
B
[id ]
C
= Q. Luego
A = Q
t
M
B
(ϕ) Q = (
B
[id ]
C
)
t
M
B
(ϕ)
B
[id ]
C
= M
C
(ϕ).
Corolario 2.8. Dos matrices son congruentes si y solo si representan a la misma forma bilineal.
Dem. Sean A y A

en M
n
(k) dos matrices congruentes. Si consideramos la forma bilineal ϕ
A
′ ∈ Bil (k
n
)
y B es la base can´onica de k
n
es A

= M
B

A
′ ). Luego A es congruente con M
B

A
′ ) y el teorema anterior
implica que A = M
C

A
′ ) para alguna base ( de V . El rec´ıproco es la Proposici´on 2.6.
3. Formas bilineales sim´etricas
Sea k un cuerpo arbitrario, decimos que el cuerpo tiene caracter´ıstica 2 y escribimos car k = 2 si en k se
verifica 1 + 1 = 0. Un ejemplo en el cual pasa esto es el caso del conjunto formado por dos elementos que
llamamos 0 y 1, F
2
= ¦0, 1¦, en el cual definimos dos operaciones +, : F
2
F
2
→F
2
mediante:
0 + 0 = 0, 1 + 1 = 0, 0 + 1 = 1, 1 + 0 = 1,
0 0 = 0, 0 1 = 0, 1 0 = 0, 1 1 = 1.
Es un ejercicio el verificar que (F
2
, +, ) es un cuerpo y claramente car F
2
= 2. Otro ejemplo es el cuerpo de
expresiones racionales con coeficientes en F
2
, es decir los cocientes de polinomios con coeficients en F
2
.
Ejemplos de cuerpos con caracter´ıstica distinta de 2 son Q, R y C. En un cuerpo k con car k ,= 2 es
2 := 1 + 1 ,= 0 y luego 2 es invertible en k.
En este secci´ on V ser´a siempre un k-espacio vectorial de dimensi´on finita y car k ,= 2.
Definici´ on 3.1. Una forma bilineal ϕ se dice sim´etrica si
ϕ(u, v) = ϕ(v, u), ∀u, v ∈ V.
Escribimos Bil
S
(V ) := ¦ϕ ∈ Bil(V ) : ϕ es sim´etrica¦ .
Ejercicio 3.1. Probar que Bil
S
(V ) es un subespacio de Bil(V ).
Proposici´ on 3.1. Sea ϕ ∈ Bil(V ). Son equivalentes:
1. ϕ ∈ Bil
S
(V ).
4
2. Para toda base B de V es M
B
(ϕ) sim´etrica.
3. Existe una base B de V tal que M
B
(ϕ) es sim´etrica.
Dem. 1 ⇒ 2: Sea B = ¦v
1
, . . . , v
n
¦ una base de V y M
B
(ϕ) = (a
ij
), entonces
a
ij
= ϕ(v
i
, v
j
) = ϕ(v
j
, v
i
) = a
ji
, ∀i, j = 1, . . . , n
luego M
B
(ϕ) = (a
ij
) es sim´etrica.
2 ⇒ 3: Esto es obvio.
3 ⇒ 1: Sea B = ¦v
1
, . . . , v
n
¦ una base de V tal que M
B
(ϕ) es sim´etrica, esto ´ ultimo equivale a ϕ(v
i
, v
j
) =
ϕ(v
j
, v
i
), ∀i, j = 1, . . . , n. Sean u, v ∈ V , entonces existen escalares a
i
, b
i
∈ k, i = 1, . . . , n tales que
u =

n
i=1
a
i
v
i
y v =

n
i=1
b
i
v
i
. Luego
ϕ(u, v) = ϕ
_
_
n

i=1
a
i
v
i
,
n

j=1
b
j
v
j
_
_
=
n

i=1
a
i
n

j=1
b
j
ϕ(v
i
, v
j
) =
n

i=1
a
i
n

j=1
b
j
ϕ(v
j
, v
i
)
= ϕ
_
_
n

j=1
b
j
v
j
,
n

i=1
a
i
v
i
_
_
= ϕ(v, u).
Como u y v son arbitrarios, se deduce que ϕ ∈ Bil
S
(V ).
Corolario 3.2. Si dim(V ) = n, entonces dimBil
S
(V ) =
n(n+1)
2
.
Definici´ on 3.2. Sea ϕ ∈ Bil
S
(V ). La funci´on Φ : V → k definida por Φ(v) = ϕ(v, v), ∀v ∈ V se llama la
forma cuadr´ atica asociada a ϕ.
Observaci´ on 3.1. Las formas cuadr´aticas en V forman un subespacio de las funciones de V en k: es claro
que la funci´on nula es una forma cuadr´atica (correspondiente a la forma bilineal nula). Si Φ y Ψ son dos
formas cuadr´aticas en V y a ∈ k, entonces existen ϕ y ψ en Bil
S
(V ) tales que Φ(v) = ϕ(v, v) y Ψ(v) =
ψ(v, v), ∀v ∈ V, luego
(a Φ + Ψ) (v) = a Φ(v) + Ψ(v) = a ϕ(v, v) +ψ(v, v) = (a ϕ +ψ) (v, v), ∀v ∈ V y a ϕ +ψ ∈ Bil
S
(V ).
Esto prueba que a Φ + Ψ es una forma cuadr´atica en V .
Proposici´ on 3.3. Sea ϕ ∈ Bil
S
(V ) y Φ : V →k la forma cuadr´ atica asociada a ϕ. Entonces:
1. Φ(a v) = a
2
Φ(v), ∀a ∈ k, v ∈ V .
2. Φ(0) = 0.
3. Φ(u +v) = Φ(u) + 2 ϕ(u, v) + Φ(v), ∀u, v ∈ V .
4. ϕ(u, v) =
1
2
(Φ(u +v) −Φ(u) −Φ(v)), ∀u, v ∈ V .
Dem.
1. Φ(a v) = ϕ(a v, a v) = a
2
ϕ(v, v) = a
2
Φ(v).
2. Se deduce de la f´ormula anterior tomando a = 0.
3. Φ(u +v) = ϕ(u +v, u +v) = ϕ(u, u) +ϕ(u, v) +ϕ(v, u) +ϕ(v, v) = Φ(u) + 2 ϕ(u, v) + Φ(v).
4. Se deduce de la f´ormula anterior despejando ϕ(u, v).
5
Observaci´ on 3.2. Notar que para la propiedad 4 de la Proposici´on anterior es necesaria la condici´ on car k ,= 2.
Definici´ on 3.3. Un polinomio homog´eneo de grado 2 en las indeterminadas x
1
,. . .,x
n
es un polinomio en
k[x
1
, . . . , x
n
] de la forma

1≤i≤j≤n
a
ij
x
i
x
j
.
Observar que los polinomios homog´eneos de grado 2 en las indeterminadas x
1
,. . .,x
n
forman un subespacio
de k[x
1
, . . . , x
n
].
Ejemplo 3.1. Si n = 2, un polinomio homog´eneo de grado 2 en las indeterminadas x, y es un polinomio en
k[x, y] de la forma
ax
2
+bxy +cy
2
, a, b, c ∈ k.
Si n = 3, un polinomio homog´eneo de grado 2 en las indeterminadas x, y, z es un polinomio en k[x, y, z] de
la forma
ax
2
+by
2
+cz
2
+dxy +exz +fyz, a, b, . . . , f ∈ k.
Proposici´ on 3.4. Los siguientes espacios vectoriales son isomorfos.
1. El espacio de las matrices sim´etricas de orden n con coeficientes en k.
2. El espacio de las formas bilineales sim´etricas en k
n
.
3. El espacio de las formas cuadr´ aticas en k
n
.
4. El espacio de los polinomios homog´eneos de grado 2 en las indeterminadas x
1
, . . . , x
n
con coeficientes
en k.
Dem. Nosotros hab´ıamos visto anteriormente que la correspondencia que a una matriz A le hace cor-
responder la forma bilineal ϕ definida por ϕ(u, v) = u
t
Av establece un isomorfismo entre las matrices de
orden n con coeficientes en k y las formas bilineales en k
n
. La Proposici´on 3.1 nos dice que este isomorfismo
restringido a las matrices sim´etricas de orden n nos da un isomorfismo entre las matrices sim´etricas y las
formas bilineales sim´etricas.
El isomorfismo entre formas bilineales sim´etricas y formas cuadr´aticas viene dado por las f´ormulas
siguientes:
Φ(v) = ϕ(v, v), ϕ(u, v) =
1
2
(Φ(u +v) −Φ(u) −Φ(v)) . (2)
Si A = (a
ij
) ∈ M
n
(k) es una matriz sim´etrica, le asociamos el polinomio p en las indeterminadas
x
1
, . . . , x
n
definido por
p =

i≤j
b
ij
x
i
x
j
, b
ij
=
_
a
ii
si i = j,
2 a
ij
si i < j.
Es claro que que p es un polinomio homog´eneo de grado 2 en las indeterminadas x
1
, . . . , x
n
y que esta
correspondencia es un isomorfismo entre las matrices sim´etricas y los polinomios homog´eneos de grado
dos.
6
Ejemplo 3.2. En el caso n = 2, una matriz sim´etrica de orden 2 es una matriz de la forma A =
_
a b
b c
_
. La
forma bilineal sim´etrica, la forma cuadr´atica y el polinomio homog´eneo que corresponden a A son:
ϕ
_
(x, y),
_
x

, y

__
= (x, y)
_
a b
b c
_

_
x

y

_
= a xx

+b xy

+b x

y +c y y

,
Φ(x, y) = ϕ((x, y), (x, y)) = a x
2
+ 2 b xy +c y
2
,
p = a x
2
+ 2 b xy +c y
2
.
Observar que la ´ unica diferencia ente Φ y p es que Φ es una funci´on de k k en k, mientras que p es un
polinomio en dos variables.
De ahora en adelante V es un k-espacio vectorial de dimensi´on finita, ϕ ∈ Bil
S
(V ) y Φ : V → k es la
forma cuadr´atica asociada a ϕ.
Definici´ on 3.4. Dos vectores u y v en V son ϕ-ortogonales si ϕ(u, v) = 0. Dos subespacios U y W de V son
ϕ-ortogonales si ϕ(u, w) = 0 para todo u ∈ U y w ∈ W. Una base B = ¦v
1
, . . . , v
n
¦ de V se dice ϕ-ortogonal
si ϕ(v
i
, v
j
) = 0 si i ,= j y se dice ϕ-ortonormal si adem´ as Φ(v
i
) ∈ ¦−1, 0, 1¦, ∀i = 1, . . . , n.
Observar que si B = ¦v
1
, . . . , v
n
¦ es una base ϕ-ortogonal de V y u =

n
i=1
x
i
v
i
y v =

n
i=1
y
i
v
i
son
dos vectores de V , entonces
ϕ(u, v) = ϕ
_
_
n

i=1
x
i
v
i
,
n

j=1
y
j
v
j
_
_
=
n

i=1
x
i
n

j=1
y
j
ϕ(v
i
, v
j
) =
n

i=1
x
i
y
i
ϕ(v
i
, v
i
) =
n

i=1
Φ(v
i
) x
i
y
i
.
Luego tenemos las f´ormula siguientes:
ϕ(u, v) =
n

i=1
Φ(v
i
) x
i
y
i
, Φ(u) =
n

i=1
Φ(v
i
) x
2
i
. (3)
Ejemplo 3.3. Sea ϕ ∈ Bil
S
_
R
3
_
tal que Φ(x, y, z) = x
2
− y
2
. Entonces la base can´onica ¦e
1
, e
2
, e
3
¦ es
ϕ-ortonormal.
Ejemplo 3.4. Sea ϕ ∈ Bil
S
_
Q
2
_
tal que Φ(x, y) = 2x
2
. Entonces la base can´onica ¦e
1
, e
2
¦ es ϕ-ortogonal.
Observar que no existe ning´ un vector v de Q
2
tal que Φ(v) = ±1, luego no existe ninguna base ϕ-ortonormal
de Q
2
.
Observaci´ on 3.3. Sea B una base de V . Es equivalente que B sea una base ϕ-ortogonal de V con que la
matriz M
B
(ϕ) sea diagonal y que B sea una base ϕ-ortonormal de V con que la matriz M
B
(ϕ) sea diagonal
y sus entradas diagonales sean 0, 1 o −1.
Definici´ on 3.5. Si W es un subespacio de V , la restricci´ on de ϕ a W es la funci´on ϕ[
W×W
: W W →k.
Claramente ϕ[
W×W
∈ Bil
S
(W).
De las f´ormulas (2) se deduce inmediatamente el siguiente:
Lema 3.5. Es ϕ = 0 si y solo si Φ = 0.
7
Teorema 3.6. Existe una base ϕ-ortogonal de V .
Dem. Lo probaremos por inducci´on en n = dimV .
Si n = 1, toda base B = ¦v¦ de V es ϕ-ortogonal. Supongamos ahora que vale la tesis si la dimensi´ on
del espacio es n − 1 y sea ϕ ∈ Bil
S
(V ) con dimV = n. Si ϕ = 0, entonces toda base de V es ϕ-ortogonal.
Supongamos ahora que ϕ ,= 0. Por el lema anterior es Φ ,= 0, luego existe u ∈ V tal que Φ(u) ,= 0.
Definimos α ∈ V

mediante α(v) = ϕ(v, u), ∀v ∈ V . Observar que α(u) = ϕ(u, u) = Φ(u) ,= 0, luego
α ,= 0 y entonces dimKer α = n −1. Aplicando la hip´ otesis de inducci´on ϕ restringida a Ker α tenemos que
existe ¦v
1
, . . . , v
n−1
¦ base de Ker α tal que ϕ(v
i
, v
j
) = 0 si i ,= j.
Como u ,∈ Ker α = [v
1
, . . . , v
n−1
], entonces el conjunto B = ¦v
1
, . . . , v
n−1
, u¦ es LI y al tener n elementos
es base de V . Como ¦v
1
, . . . , v
n−1
¦ ⊂ Ker α resulta que v
1
, . . . , v
n−1
son ϕ-ortogonales con u y luego B es
una base ϕ-ortogonal de V .
Definici´ on 3.6. Llamamos n´ ucleo de ϕ a
V
0
:= ¦v ∈ V : ϕ(v, u) = 0, ∀u ∈ V ¦ = ¦v ∈ V : ϕ(u, v) = 0, ∀u ∈ V ¦.
Ejercicio 3.2. Probar que V
0
es un subespacio de V .
Definici´ on 3.7. Decimos que ϕ es no degenerada si V
0
= ¦0¦, es decir si
ϕ(u, v) = 0, ∀v ∈ V ⇒ u = 0.
Si W es un subespacio de V , decimos que ϕ es no degenerada en W si la restricci´on de ϕ a W es no
degenerada.
Ejemplo 3.5. Consideremos la matriz identidad I ∈ M
n
(k) y ϕ
I
∈ Bil
S
(k
n
), ϕ
I
(u, v) = u
t
I v = u
t
v,
∀u, v ∈ k
n
. Expl´ıcitamente
ϕ
I
((x
1
, . . . , x
n
), (y
1
, . . . , y
n
)) = x
1
y
1
+ +x
n
y
n
.
Sea v = (v
1
, . . . , v
n
) ∈ k
n
,
v ∈ V
0
⇔ u
t
v = 0, ∀u ∈ V ⇔ e
t
i
v = 0, ∀i = 1, . . . , n ⇔ v
i
= 0, ∀i = 1, . . . , n ⇔ v = 0,
luego ϕ
I
es no degenerada.
Proposici´ on 3.7. Sea A ∈ M
n
(k) y consideremos ϕ
A
∈ Bil
S
(k
n
), ϕ
A
(u, v) = u
t
Av. Vale V
0
= Ker(L
A
).
Dem.
v ∈ V
0
⇔ u
t
Av = 0, ∀u ∈ V ⇔ ϕ
I
(u, Av) = 0, ∀u ∈ V ⇔ Av = 0 ⇔ v ∈ Ker(L
A
).
8
Teorema 3.8. Sea B = ¦v
1
, . . . , v
n
¦ una base ϕ-ortogonal de V y supongamos que ordenamos B de forma
tal que
Φ(v
i
) = 0, ∀i = 1, . . . , s,
Φ(v
i
) ,= 0, ∀i = s + 1, . . . , n.
Sea W = [v
s+1
, . . . , v
n
]. Vale lo siguiente:
1. V
0
= [v
1
, . . . , v
s
].
2. ϕ es no degenerada en W.
3. V = V
0
⊕W.
Dem. Sea u ∈ V . Sabemos que existen ´ unicos escalares a
1
, . . . , a
n
tales que u =

n
j=1
a
j
v
j
. Sea i ∈
¦1, . . . , s¦. Aplicando la f´ormula (3) obtenemos ϕ(v
i
, u) = a
i
Φ(v
i
) = a
i
0 = 0, luego v
1
, . . . , v
s
pertenecen a
V
0
.
Sea ahora w ∈ V
0
, luego existen ´ unicos escalares b
1
, . . . , b
n
tales que w =

n
j=1
b
j
v
j
. Al ser w ∈ V
0
, es
ϕ(w, v) = 0 para todo v ∈ V , en particular si i ∈ ¦s + 1, . . . , n¦ y aplicamos (3) obtenemos 0 = ϕ(w, v
i
) =
b
i
Φ(v
i
) y como Φ(v
i
) ,= 0, resulta b
i
= 0 para todo i = s + 1, . . . , n y w ∈ [v
1
, . . . , v
s
]. Esto completa la
prueba de V
0
= [v
1
, . . . , v
s
].
Como V
0
= [v
1
, . . . , v
s
], resulta
V = [v
1
, . . . , v
s
] ⊕[v
s+1
, . . . , v
n
] = V
0
⊕W.
Probaremos ahora que ϕ es no degenerada en W. Sea w ∈ W tal que ϕ(w, v) = 0 para todo v ∈ W. Es
w =

n
j=s+1
b
j
v
j
, con b
s+1
, . . . , b
n
∈ k. Si i ∈ ¦s + 1, . . . , n¦, es v
i
∈ W. Luego la misma cuenta que antes
nos prueba que 0 = ϕ(w, v
i
) = b
i
Φ(v
i
) y como Φ(v
i
) ,= 0 es b
i
= 0, para todo i = s + 1, . . . , n y resulta
w = 0.
Observaci´ on 3.4. El espacio W en la descomposici´on anterior no es ´ unico. Por ejemplo, si ϕ ∈ Bil
S
_
R
2
_
est´a definida mediante ϕ((x, y), (x

, y

)) = xx

, entonces es
_
R
2
_
0
= [(0, 1)] y podemos tomar como W a
cualquier recta por el origen distinta del eje Oy.
Definici´ on 3.8. Llamamos rango de ϕ al rango de M
B
(ϕ), siendo B una base cualquiera de V . Esta definici´on
tiene sentido porque dos matrices congruentes siempre tienen el mismo rango.
Proposici´ on 3.9. La forma bilineal ϕ es no degenerada si y solo si rango(ϕ) = n, siendo n = dimV .
Dem. Sea B = ¦v
1
, . . . , v
n
¦ una base ϕ-ortogonal de V y supongamos que ordenamos B de forma tal
que
Φ(v
i
) = 0, ∀i = 1, . . . , s,
Φ(v
i
) ,= 0, ∀i = s + 1, . . . , n.
En el teorema anterior probamos que V
0
= [v
1
, . . . , v
s
], luego ϕ es no degenerada si y solo si s = 0.
9
Por otro lado es
M
B
(ϕ) =
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
Φ(v
s+1
)
.
.
.
Φ(v
n
)
_
_
_
_
_
_
_
_
_
_
,
luego rango(ϕ) = rango (M
B
(ϕ)) = n − s. Esto implica que rango(ϕ) = n si y solo si n − s = n si y solo si
s = 0.
4. Matrices elementales
En esta secci´ on k es un cuerpo cualquiera.
Definici´ on 4.1. Sea A ∈ M
n
(k). Se llaman operaciones elementales en las filas o columnas de A a las
siguientes:
1. Operaci´ on de tipo I. Intercambiar dos filas o columnas de A.
2. Operaci´ on de tipo II. Multiplicar una fila o columna de A por una constante no nula.
3. Operaci´ on de tipo III. Sumarle a una fila o columna un m´ ultiplo de otra fila o columna respectivamente.
Definici´ on 4.2. Se llaman matrices elementales de tipo I, II o III a las matrices que se obtienen aplicando
las operaciones elementales correspondientes a la matriz identidad.
Es decir que las matrices elementales son las siguientes:
Matrices de tipo I:
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
0 1
.
.
.
.
.
.
.
.
.
1 0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Matrices de tipo II:
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
p
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
, p ,= 0.
10
Matrices de tipo III:
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1 q
.
.
.
.
.
.
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
o
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
.
.
.
.
.
.
q 1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
, q ∈ k.
Observaci´ on 4.1. Observar que la traspuesta de una matriz elemental es una matriz elemental del mismo
tipo.
Ejercicio 4.1. Probar que las matrices elementales son invertibles y hallar sus inversas.
Ejercicio 4.2. Probar que realizar una operaci´on elemental de tipo I, II o III en las columnas (filas) de una
matriz A, equivale a multiplicar a A por la derecha (izquierda) con una matriz elemental del mismo tipo.
Ejemplo 4.1. Sea A =
_
_
_
_
1 2 3 4
5 6 7 8
9 1 2 3
4 5 6 7
_
_
_
_
y E =
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
que se obtiene intercambiando las columnas
2 y 3 en la matriz identidad (matriz de tipo I). Observar que tenemos
A E =
_
_
_
_
1 2 3 4
5 6 7 8
9 1 2 3
4 5 6 7
_
_
_
_

_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
=
_
_
_
_
1 3 2 4
5 7 6 8
9 2 1 3
4 6 5 7
_
_
_
_
,
E A =
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_

_
_
_
_
1 2 3 4
5 6 7 8
9 1 2 3
4 5 6 7
_
_
_
_
=
_
_
_
_
1 2 3 4
9 1 2 3
5 6 7 8
4 5 6 7
_
_
_
_
.
Es decir que multiplicar a la matriz A por la derecha con la matriz E equivale a intercambiar las columnas
2 y 3 de A, mientras que multiplicar a la matriz A por la izquierda con la matriz E equivale a intercambiar
las filas 2 y 3 de A.
Aplicaci´ on 4.1. C´ alculo del rango de una matriz.
Sea A ∈ M
n
(k). Multiplicar la matriz A (a izquierda o derecha) por una matriz invertible, es una
operaci´on que no afecta el rango de A. La matrices elementales son invertibles, luego multiplicar por ellas deja
invariante el rango de A. Por otro lado multiplicar por matrices elementales equivale a realizar operaciones
elementales. De lo anterior se deduce que realizar operaciones elementales en las filas y columnas de A no
afecta al rango de A. Esto nos da un m´etodo muy simple para hallar el rango de una matriz, simplemente
realizamos operaciones elementales en sus filas y columnas hasta transformarla en una matriz a la cual sea
simple calcular su rango. De hecho mediante este m´etodo se puede transformar cualquier matriz en una
matriz diagonal que en la diagonal principal tenga entradas que son solo 0 y 1, en este caso el rango es la
cantidad de unos que aparecen en la diagonal principal.
11
Ejemplo 4.2. Sea ϕ ∈ Bil
S
(R
3
) tal que su forma cuadr´atica asociada es
Φ(x, y, z) = −7x
2
−2y
2
+ 7z
2
+ 8xy + 2xz −4yz, ∀(x, y, z) ∈ R
3
.
Luego si ( es la base can´onica e R
3
, es
M
C
(ϕ) =
_
_
−7 4 1
4 −2 −2
1 −2 7
_
_
.
Para calcular el rango de ϕ, observar que si primero le sumamos a la primer columna la segunda multiplicada
por 2 y luego a la tercer fila le sumamos la primera multiplicada por 3, tenemos:
_
_
−7 4 1
4 −2 −2
1 −2 7
_
_

_
_
1 4 1
0 −2 −2
−3 −2 7
_
_

_
_
1 4 1
0 −2 −2
0 10 10
_
_
.
Luego el rango de ϕ coincide con el rango de la ´ ultima matriz que claramente es 2. En particular esto nos
dice que ϕ degenera.
Aplicaci´ on 4.2. Diagonalizaci´ on de una forma bilineal sim´etrica.
La operaci´on que nos interesa consiste en transformar una matriz sim´etrica A en una de la forma Q
t
AQ,
siendo Q una matriz invertible. Observar que si Q es una matriz elemental de tipo I, II o III, entonces Q
t
AQ
es la matriz que se obtiene realizando la operaci´on elemental correspondiente en las filas y columnas de A.
Por ejemplo sean
A =
_
_
_
_
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 0
_
_
_
_
, E
1
=
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
, E
2
=
_
_
_
_
1 0 0 2
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
Luego
E
t
1
AE
1
=
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_

_
_
_
_
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 0
_
_
_
_

_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
=
_
_
_
_
1 3 2 4
3 8 6 9
2 6 5 7
4 9 7 0
_
_
_
_
,
E
t
2
AE
2
=
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
2 0 0 1
_
_
_
_

_
_
_
_
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 0
_
_
_
_

_
_
_
_
1 0 0 2
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
=
_
_
_
_
1 2 3 6
2 5 6 11
3 6 8 15
6 11 15 20
_
_
_
_
.
Ejercicio 4.3. Probar que si realizar una operaci´on elemental en las columnas de A corresponde a multiplicar
por la derecha a A con una cierta matriz elemental E, entonces realizar la misma operaci´on elemental en
las filas de A corresponde a multiplicar por la izquierda a A con E
t
.
Nuestro objetivo es obtener una forma diagonal para la matriz asociada a la forma bilineal sim´etrica
ϕ ∈ Bil
S
(V ), lo cual corresponde a hallar una base ϕ-ortogonal de V .
12
Mostraremos el m´etodo mediante un ejemplo. Consideremos ϕ ∈ Bil
S
(R
3
) definida en el Ejemplo 4.2.
Primero sumamos a la tercer columna de A = M
C
(ϕ) la segunda multiplicada por −1 y luego sumamos a la
tercer fila la segunda multiplicada por −1.
_
_
−7 4 1
4 −2 −2
1 −2 7
_
_

_
_
−7 4 −3
4 −2 0
1 −2 9
_
_

_
_
−7 4 −3
4 −2 0
−3 0 9
_
_
. (4)
Ahora le sumamos a la primer columna la segunda multiplicada por 2 y luego sumamos a la primer fila la
segunda multiplicada por 2.
_
_
−7 4 −3
4 −2 0
−3 0 9
_
_

_
_
1 4 −3
0 −2 0
−3 0 9
_
_

_
_
1 0 −3
0 −2 0
−3 0 9
_
_
. (5)
Finalmente le sumamos a la tercer columna la primera multiplicada por 3 y luego sumamos a la tercer fila
la primera multiplicada por 3.
_
_
1 0 −3
0 −2 0
−3 0 9
_
_

_
_
1 0 0
0 −2 0
−3 0 0
_
_

_
_
1 0 0
0 −2 0
0 0 0
_
_
= D. (6)
Observar que la matriz obtenida en (4) corresponde a calcular E
t
1
AE
1
siendo
E
1
=
_
_
1 0 0
0 1 −1
0 0 1
_
_
.
La matriz obtenida en (5) corresponde a calcular E
t
2
E
t
1
AE
1
E
2
, siendo
E
2
=
_
_
1 0 0
2 1 0
0 0 1
_
_
.
Finalmente la matriz obtenida en (6) corresponde a calcular E
t
3
E
t
2
E
t
1
AE
1
E
2
E
3
, siendo
E
3
=
_
_
1 0 3
0 1 0
0 0 1
_
_
.
Luego es D = Q
t
AQ, siendo
Q = E
1
E
2
E
3
=
_
_
1 0 3
2 1 5
0 0 1
_
_
.
Esto nos dice que si
B = ¦(1, 2, 0), (0, 1, 0), (3, 5, 1)¦
entonces M
B
(ϕ) = D y B es una base ϕ-ortogonal de R
3
.
13
Un m´etodo para obtener la matriz Q es el siguiente, escribimos a la izquierda la matriz A y a la
derecha la matriz identidad I, luego realizamos operaciones elementales en A y cada vez que hacemos una
operaci´on elemental en las colummnas de A, tambi´en la hacemos en las columnas de I, pero cuando hacemos
operaciones elementales en las filas de A no hacemos nada en la matriz I. Al finalizar el algoritmo, cuando
en la izquierda obtenemos la matriz diagonal D, en la derecha est´a la matriz de congruencia Q. Veamos esto
en el ejemplo anterior:
_
_
−7 4 1
4 −2 −2
1 −2 7
¸
¸
¸
¸
¸
¸
1 0 0
0 1 0
0 0 1
_
_

_
_
−7 4 −3
4 −2 0
1 −2 9
¸
¸
¸
¸
¸
¸
1 0 0
0 1 −1
0 0 1
_
_

_
_
−7 4 −3
4 −2 0
−3 0 9
¸
¸
¸
¸
¸
¸
1 0 0
0 1 −1
0 0 1
_
_

_
_
1 4 −3
0 −2 0
−3 0 9
¸
¸
¸
¸
¸
¸
1 0 0
2 1 −1
0 0 1
_
_

_
_
1 0 −3
0 −2 0
−3 0 9
¸
¸
¸
¸
¸
¸
1 0 0
2 1 −1
0 0 1
_
_

_
_
1 0 0
0 −2 0
−3 0 0
¸
¸
¸
¸
¸
¸
1 0 3
2 1 5
0 0 1
_
_

_
_
1 0 0
0 −2 0
0 0 0
¸
¸
¸
¸
¸
¸
1 0 3
2 1 5
0 0 1
_
_
, luego D =
_
_
1 0 0
0 −2 0
0 0 0
_
_
, Q =
_
_
1 0 3
2 1 5
0 0 1
_
_
.
5. Formas bilineales sim´etricas reales
En esta secci´ on el cuerpo de base k es R y V es un R-espacio vectorial de dimensi´on finita.
Definici´ on 5.1. Sean ϕ ∈ Bil
S
(V ) y Φ la forma cuadr´atica asociada a ϕ.
1. Φ es definida positiva si Φ(v) > 0, ∀v ,= 0.
2. Φ es definida negativa si Φ(v) < 0, ∀v ,= 0.
3. Φ es definida si es definida positiva o es definida negativa.
4. Φ es semidefinida positiva si Φ(v) ≥ 0, ∀v ∈ V y existe 0 ,= v
0
∈ V tal que Φ(v
0
) = 0.
5. Φ es semidefinida negativa si Φ(v) ≤ 0, ∀v ∈ V y existe 0 ,= v
0
∈ V tal que Φ(v
0
) = 0.
6. Φ es semidefinida si es semidefinida positiva o es semidefinida negativa.
7. Φ es no definida si existen v
1
y v
2
en V tales que Φ(v
1
) > 0 y Φ(v
2
) < 0.
8. Φ es no degenerada si lo es ϕ, es decir si
ϕ(u, v) = 0, ∀v ∈ V ⇒ u = 0.
Decimos que una forma bilineal sim´etrica verifica una propiedad de las anteriores si la verifica su forma
cuadr´atica asociada, por ejemplo decimos que ϕ es definida positiva si lo es Φ, etc´etera.
Observaci´ on 5.1. Φ es definida positiva si y solo si ϕ es un producto interno en V .
14
Teorema 5.1. Si ϕ ∈ Bil
S
(V ) y Φ es la forma cuadr´ atica asociada a ϕ, entonces existen subespacios V
+
y
V

de V tales que
1. Φ es definida positiva en V
+
y Φ es definida negativa en V

.
2. V
+
y V

son ϕ-ortogonales.
3. V = V
0
⊕V
+
⊕V

.
Dem. Sea B = ¦v
1
, . . . , v
n
¦ una base ϕ-ortogonal de V . Podemos suponer B ordenada de forma tal que
Φ(v
i
) = a
i
, ∀i = 1, . . . , p
Φ(v
i
) = −a
i
, ∀i = p + 1, . . . , r
Φ(v
i
) = 0, ∀i = r + 1, . . . , n.
siendo a
i
> 0, ∀i = 1, . . . , r. Es decir que la matriz asociada a ϕ es
M
B
(ϕ) =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
p
−a
p+1
.
.
.
−a
r
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Sabemos que V
0
= [v
r+1
, . . . , v
n
]. Sean
V
+
= [v
1
, . . . , v
p
], V

= [v
p+1
, . . . , v
r
].
Es claro que V = V
0
⊕ V
+
⊕ V

. Adem´ as como B es una base ϕ-ortogonal, sus vectores son ϕ-ortogonales
dos a dos, luego V
+
y V

son ϕ-ortogonales. Por otro lado observemos que si v =

n
i=1
x
i
v
i
∈ V , con
x
1
, . . . , x
n
∈ R, es
Φ(v) = ϕ(v, v) = ϕ
_
_
n

i=1
x
i
v
i
,
n

j=1
x
j
v
j
_
_
=
n

i,j=1
x
i
x
j
ϕ(v
i
, v
j
) =
n

i=1
x
2
i
ϕ(v
i
, v
i
) =
n

i=1
x
2
i
Φ(v
i
)
=
p

i=1
a
i
x
2
i

r

i=p+1
a
i
x
2
i
.
Sea 0 ,= w ∈ V
+
. Es w =

p
i=1
y
i
v
i
, con y
1
, . . . , y
p
∈ R y alg´ un y
i
,= 0, luego
Φ(w) =
p

i=1
a
i
y
2
i
> 0.
Esto prueba que Φ es definida positiva en V
+
. An´ alogamente se prueba que Φ es definida negativa en V

.
Observaci´ on 5.2. En el teorema anterior, la dimensi´on de V
+
es la cantidad de entradas diagonales positivas
de M
B
(ϕ) y la dimensi´on de V

es la cantidad de entradas diagonales negativas de M
B
(ϕ).
15
Ejemplo 5.1. Sea ϕ ∈ Bil
S
(V ), V = R
2
, tal que Φ(x, y) = x
2
− y
2
, x, y ∈ R. Es f´acil de probar que el
rango de ϕ es 2, luego ϕ es no degenerada y V
0
= ¦0¦. Observar que las bases
( = ¦(1, 0), (0, 1)¦ y B = ¦(2, 1), (1, 2)¦ .
son ϕ-ortogonales. Esto da lugar a dos descomposiciones del tipo V = V
+
⊕V

:
R
2
= [(1, 0)] ⊕[(0, 1)] y R
2
= [(2, 1), (1, 2)] .
Luego no hay unicidad respecto a los subespacios V
+
y V

.
Definici´ on 5.2. Sea ϕ ∈ Bil
S
(V ). Decimos que dos subespacios V
+
y V

forman una ϕ-descomposici´ on de
V si verifican
1. Φ es definida positiva en V
+
y Φ es definida negativa en V

.
2. V
+
y V

son ϕ-ortogonales.
3. V = V
0
⊕V
+
⊕V

.
El teorema anterior nos prueba que siempre existe una ϕ-descomposici´on de V .
Observaci´ on 5.3. Sea V = V
0
⊕V
+
⊕V

una ϕ-descomposici´on de V , entonces:
1. Φ es definida positiva en V
+
y es definida negativa en V

.
2. Si V
0
,= ¦0¦, entonces Φ es semidefinida positiva en V
0
⊕V
+
y Φ es semidefinida negativa en V
0
⊕V

.
3. Φ es definida positiva si y solo si V

= V
0
= ¦0¦.
4. Φ es definida negativa si y solo si V
+
= V
0
= ¦0¦.
5. Φ es semidefinida positiva si y solo si V

= ¦0¦ y V
0
,= ¦0¦.
6. Φ es semidefinida negativa si y solo si V
+
= ¦0¦ y V
0
,= ¦0¦.
7. Φ es no definida si y solo si V

,= ¦0¦ y V
+
,= ¦0¦.
8. Φ es no degenerada si y solo si V
0
= ¦0¦.
En particular lo anterior implica que si Φ es semidefinida entonces degenera.
Ejercicio 5.1. Interpretar la observaci´ on anterior en t´erminos de las entradas diagonales de una repre-
sentaci´ on matricial diagonal de ϕ.
Teorema 5.2. Sean V = V
0
⊕V
+
⊕V

y V = V
0
⊕W
+
⊕W

dos ϕ-descomposiciones de V , es decir
1. Φ es definida positiva en V
+
y Φ es definida negativa en V

.
2. V
+
y V

son ϕ-ortogonales.
3. Φ es definida positiva en W
+
y Φ es definida negativa en W

.
4. W
+
y W

son ϕ-ortogonales.
16
Entonces dimV
+
= dimW
+
y dimV

= dimW

.
Dem. Sea v ∈ W

∩ (V
+
⊕V
0
). Como v ∈ V
+
⊕V
0
, entonces existen ´ unicos v
0
∈ V
0
y v
+
∈ V
+
tales que
v = v
+
+v
0
. Luego
Φ(v) = Φ(v
+
+v
0
) = Φ(v
+
) + 2 ϕ(v
+
, v
0
) + Φ(v
0
) = Φ(v
+
) ≥ 0.
Por otro lado, como v ∈ W

, si fuese v ,= 0 ser´ıa Φ(v) < 0 lo cual nos lleva a una contradicci´ on. Entonces
la ´ unica posibilidad es v = 0 y resulta W

∩ (V
+
⊕V
0
) = ¦0¦. Como es
V
0
⊕V
+
⊕V

= V ⊃ W

+ (V
+
⊕V
0
) = W

⊕(V
+
⊕V
0
) ,
deducimos
dimV
0
+ dimV
+
+ dimV

≥ dimW

+ dimV
+
+ dimV
0
.
Luego es dimV

≥ dimW

. Razonando an´ alogamente con V

∩(W
+
⊕V
0
) deducimos que dimW

≥ dimV

y resulta dimV

= dimW

. Finalmente tomando dimensiones en V = V
0
⊕V
+
⊕V

y V = V
0
⊕W
+
⊕W

deducimos que dimV
+
= dimW
+
.
Del teorema anterior y la Observaci´ on 5.2 se deduce inmediatamente el siguiente.
Corolario 5.3 (Ley de inercia de Sylvester). El n´ umero de entradas positivas, negativas y nulas de una
matriz diagonal asociada a una forma cuadr´ atica no depende de la representaci´ on diagonal.
Definici´ on 5.3. Sean V = V
0
⊕ V
+
⊕ V

una ϕ-descomposici´on de V . Llamamos ´ındice de Φ a dimV
+
y signatura de Φ a dimV
+
− dimV

. Por el teorema anterior esta definici´on no depende de V
+
y V

. La
signatura, el ´ındice y el rango son los invariantes de Φ.
Observaci´ on 5.4. Consideremos ϕ ∈ Bil
S
(V ) siendo dimV = n y B una base ϕ-ortogonal de V . Sean s
la signatura de ϕ, r el rango de ϕ, p el n´ umero de entradas positivas de M
B
(ϕ), q el n´ umero de entradas
negativas de M
B
(ϕ) y t el n´ umero de entradas nulas de M
B
(ϕ). Entonces el ´ındice de Φ es p y tenemos las
siguientes relaciones
s = p −q, r = p +q
p =
1
2
(r +s), q =
1
2
(r −s), t = n −r.
En particular es 2p = r +s, luego los tres invariantes quedan determinados conociendo dos de ellos.
Proposici´ on 5.4. Si ϕ ∈ Bil
S
(V ), entonces existe una base ϕ-ortonormal de V .
Dem. Sea B = ¦v
1
, . . . , v
n
¦ una base ϕ-ortogonal de V . Podemos suponer B ordenada de forma tal que
Φ(v
i
) = 0, ∀i = 1, . . . , s
Φ(v
i
) > 0, ∀i = s + 1, . . . , p
Φ(v
i
) < 0, ∀i = p + 1, . . . , n.
Observar que podemos escribir
Φ(v
i
) = a
2
i
, ∀i = s + 1, . . . , p
Φ(v
i
) = −b
2
i
, ∀i = p + 1, . . . , n.
17
siendo a
i
> 0, ∀i = s + 1, . . . , p y b
i
> 0, ∀i = p + 1, . . . , n. Definimos
w
i
= v
i
, ∀i = 1, . . . , s
w
i
=
1
a
i
v
i
, ∀i = s + 1, . . . , p
w
i
=
1
b
i
v
i
, ∀i = p + 1, . . . , n.
La base ( = ¦w
1
, . . . , w
n
¦ es claramente ϕ-ortogonal y
Φ(w
i
) = Φ
_
1
a
i
v
i
_
=
1
a
2
i
Φ(v
i
) = 1, ∀i = s + 1, . . . , p
Φ(w
i
) = Φ
_
1
b
i
v
i
_
=
1
b
2
i
Φ(v
i
) = −1, ∀i = p + 1, . . . , n.
Luego ( es una base ϕ-ortonormal de V .
Ejemplo 5.2. Sea ϕ ∈ Bil
S
(V ), V = R
2
, tal que Φ(x, y) = x
2
−y
2
, x, y ∈ R. En el ejemplo 5.1 vimos que
¦(2, 1), (1, 2)¦ es una base ϕ-ortogonal de R
2
, luego
__
2

3
,
1

3
_
,
_
1

3
,
2

3
__
es una base ϕ-ortonormal de R
2
(otra base ϕ-ortonormal es la can´onica).
Proposici´ on 5.5 (Ley de inercia de Sylvester para matrices). Si A es una matriz sim´etrica real, entonces el
n´ umero de entradas positivas, negativas y nulas de una matriz diagonal congruente con A es independiente
de la matriz diagonal.
Dem. Sea ϕ ∈ Bil
S
(R
n
) definida por ϕ(u, v) = u
t
Av. Si D es una matriz diagonal congruente con A,
entonces existe B base de R
n
tal que M
B
(ϕ) = D. Luego la Ley de inercia de Sylvester nos dice que el
n´ umero de entradas positivas, negativas y nulas de D depende solo de ϕ (por lo tanto de A) y no de D.
Definici´ on 5.4. Sea A ∈ M
n
(R) sim´etrica y D una matriz diagonal congruente con A. Definimos el ´ındice
de A como el n´ umero de entradas diagonales positivas de D y la signatura de A como la diferencia entre el
n´ umero de entradas diagonales positivas y el de entradas diagonales negativas de D. La Ley de Inercia de
Sylvester para matrices nos garantiza que esta definici´on no depende de la matriz diagonal D.
Observar que el ´ındice y la signatura de A coinciden con el ´ındice y la signatura de ϕ
A
∈ Bil
S
(R
n
)
definida por ϕ
A
(u, v) = u
t
Av. La signatura, el ´ındice y el rango son los invariantes de la matriz sim´etrica
A.
Observaci´ on 5.5. De la Ley de Inercia de Sylvester para matrices se deduce inmediatamente que si dos
matrices sim´etricas son congruentes, entonces tienen los mismos invariantes.
Teorema 5.6. Si A es una matriz sim´etrica real, entonces A es congruente con una ´ unica matriz diagonal
18
D de la forma
D =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
−1
.
.
.
−1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
. (7)
Dem. Sea ϕ
A
∈ Bil
S
(R
n
) definida por ϕ
A
(u, v) = u
t
Av. Por la Proposici´on 5.4 sabemos que existe B
base ϕ
A
-ortonormal de R
n
. Si D = M
B

A
), entonces podemos considerar B ordenada de forma tal que D
tiene la forma (7). Si ( es la base can´onica de R
n
, entonces es A = M
C

A
) y D = Q
t
AQ, siendo Q =
C
[id ]
B
.
Esto prueba la existencia de la matriz D.
Para probar la unicidad, si la matriz A es congruente con D y con
ˆ
D, siendo D y
ˆ
D matrices diagonales
de la forma (7), entonces D y
ˆ
D son congruentes entre s´ı y luego tienen los mismos invariantes. Como el
´ındice de una matriz de esta forma es la cantidad de entradas diagonales que valen 1 y la signatura es la
diferencia entre la cantidad de entradas diagonales que valen 1 y la de entradas diagonales que valen −1,
resulta que D y
ˆ
D tienen la misma cantidad de entradas diagonales que valen 1 y la misma cantidad de
entradas diagonales que valen −1, luego D =
ˆ
D.
Corolario 5.7. Dos matrices sim´etricas reales son congruentes si y solo si tienen los mismos invariantes.
Dem. Ya sabemos que si dos matrices sim´etricas reales son congruentes, entonces tienen los mismos
invariantes. Para probar el rec´ıproco, si A y B son matrices sim´etricas, entonces sabemos que A es congruente
con una ´ unica matriz diagonal D
A
de forma (7) y B es congruente con una ´ unica matriz diagonal D
B
de
forma (7). Como la cantidad de entradas diagonales que valen 1 y la cantidad de entradas diagonales que
valen −1 en D
A
y D
B
depende solo de los invariantes de A y de B respectivamente y estos coinciden,
entonces D
A
= D
B
. Luego A y B son congruentes entre s´ı.
Teorema 5.8. Sea ϕ ∈ Bil
S
(V ), siendo V un espacio vectorial real con producto interno de dimensi´ on
finita. Entonces existe una base ortonormal B de V tal que M
B
(ϕ) es diagonal.
Dem. Sea ( = ¦w
1
, . . . , w
n
¦ una base ortonormal cualquiera de V y A = M
C
(ϕ). La matriz A es sim´etrica
real, luego existen matrices D y Q = (q
ij
) en M
n
(R) tales que D es diagonal, Q es ortogonal y
D = Q
−1
AQ = Q
t
AQ.
Sea B = ¦v
1
, . . . , v
n
¦ el conjunto definido por v
j
=

n
i=1
q
ij
w
i
, j = 1, . . . , n. Como la matriz Q es ortogonal
y la base ( es ortonormal, entonces el conjunto B es una base ortonormal de V y Q =
C
[id ]
B
. Luego
D = Q
t
AQ = (
C
[id ]
B
)
t
M
C
(ϕ)
C
[id ]
B
= M
B
(ϕ).
19
Corolario 5.9. Sea ϕ ∈ Bil
S
(V ), B una base de V y A = M
B
(ϕ). Entonces la cantidad de entradas
diagonales positivas, negativas y nulas de una representaci´ on matricial diagonal cualquiera de ϕ coincide
respectivamente con la cantidad de valores propios positivos, negativos y nulos de A.
Dem. Por la Ley de Inercia de Sylvester, basta probar que se cumple el enunciado para alguna repre-
sentaci´ on matricial diagonal de ϕ.
Sea ¸ , ) el ´ unico producto interno de V que hace que B sea una base ortonormal de V . Aplicando el
teorema anterior sabemos que existe una base ortonormal
˜
B de V tal que D = M
˜
B
(ϕ) es diagonal. Luego es
A = M
B
(ϕ) = Q
t
M
˜
B
(ϕ) Q = Q
t
DQ, Q =
˜
B
[id ]
B
.
Como B y
˜
B son dos bases ortonormales, entonces Q =
˜
B
[id ]
B
es una matriz ortogonal i.e. Q
t
= Q
−1
. Luego
A = Q
−1
DQ y resulta que A y D tienen los mismos valores propios. Por otro lado, como D es una matriz
diagonal, tenemos que los valores propios de D coinciden con sus entradas diagonales. Luego la cantidad de
entradas diagonales positivas, negativas y nulas de D es la cantidad de valores propios positivos, negativos
y nulos de D y estos coinciden con los de A.
6. Superficies cu´adricas
Definici´ on 6.1. Una superficie cu´ adrica es un subconjunto de R
3
de la forma
o =
_
(x, y, z) ∈ R
3
: a
11
x
2
+a
22
y
2
+a
33
z
2
+ 2 a
12
xy + 2 a
13
xz + 2 a
23
yz +b
1
x +b
2
y +b
3
z +c = 0
_
,
siendo A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
,= 0.
6.1. Ejemplos de superficies cu´adricas.
Ejemplos con det A ,= 0.
1. Hiperboloide de una hoja:
x
2
a
2
+
y
2
b
2

z
2
c
2
= 1.
2. Hiperboloide de dos hojas:
x
2
a
2

y
2
b
2

z
2
c
2
= 1.
3. Elipsoide:
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 1.
4. Cono:
x
2
a
2
+
y
2
b
2

z
2
c
2
= 0.
5. Punto:
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 0 ((x, y, z) = (0, 0, 0)).
6. Conjunto vac´ıo:
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= −1.
Ejemplos con det A = 0.
1. Paraboloide el´ıptico:
x
2
a
2
+
y
2
b
2
−z = 0.
2. Paraboloide hiperb´ olico:
x
2
a
2

y
2
b
2
−z = 0.
20
3. Cilindro el´ıptico:
x
2
a
2
+
y
2
b
2
= 1.
4. Cilindro hiperb´ olico:
x
2
a
2

y
2
b
2
= 1.
5. Cilindro parab´ olico:
x
2
a
2
−y = 0.
6. Dos planos paralelos:
x
2
a
2
= 1 (x = a y x = −a).
7. Dos planos secantes:
x
2
a
2

y
2
b
2
= 0 (
x
a

y
b
= 0 y
x
a
+
y
b
= 0).
8. Un plano (doble):
x
2
a
2
= 0 (x = 0).
9. Una recta (doble):
x
2
a
2
+
y
2
b
2
= 0 (x = 0 e y = 0).
10. Conjunto vac´ıo:
x
2
a
2
= −1.
6.2. Clasificaci´on de superficies cu´adricas.
Lo que probaremos a continuaci´ on es que toda superficie cu´ adrica coincide con una de las anteriores, a
menos de trasladar, rotar o intercambiar los ejes de coordenadas.
Sea
o =
_
(x, y, z) ∈ R
3
: a
11
x
2
+a
22
y
2
+a
33
z
2
+ 2 a
12
xy + 2 a
13
xz + 2 a
23
yz +b
1
x +b
2
y +b
3
z +c = 0
_
,
siendo A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
,= 0 .
Definimos Φ : R
3
→R y α : R
3
→R mediante:
Φ(x, y, z) = a
11
x
2
+a
22
y
2
+a
33
z
2
+ 2 a
12
xy + 2 a
13
xz + 2 a
23
yz, α(x, y, z) = b
1
x +b
2
y +b
3
z.
Claramente Φ es una forma cuadr´atica y α ∈
_
R
3
_

. Sea ϕ la forma bilineal sim´etrica asociada a Φ. Observar
que si escribimos X =
_
_
x
y
z
_
_
y B =
_
_
b
1
b
2
b
3
_
_
, entonces es
Φ(X) = X
t
AX = ¸X, AX), ϕ(X, Y ) = ¸X, AY ), α(X) = ¸X, B), ∀X ∈ R
3
,
siendo ¸ , ) el producto interno usual (escalar) de R
3
. Luego
o =
_
X ∈ R
3
: Φ(X) +α(X) +c = 0
_
.
Como A es una matriz sim´etrica real, entonces existe Q ∈ M
3
(R) matriz ortogonal tal que Q
t
AQ = D,
siendo D =
_
_
λ
1
0 0
0 λ
2
0
0 0 λ
3
_
_
. Observar que det A = λ
1
λ
2
λ
3
.
21
6.3. Caso det A ,= 0 (λ
1
λ
2
λ
3
,= 0).
En este caso la matriz A es invertible, luego existe un ´ unico X
0
∈ R
3
tal que
B + 2 AX
0
= 0 ⇔ X
0
= −
1
2
A
−1
B.
Realizamos el cambio de variable X =
˜
X +X
0
(traslaci´on de ejes), luego
Φ(X) +α(X) +c = Φ(
˜
X +X
0
) +α(
˜
X +X
0
) +c
= Φ(
˜
X) + 2 ϕ(
˜
X, X
0
) + Φ(X
0
) +α(
˜
X) +α(X
0
) +c
= Φ(
˜
X) + 2 ϕ(
˜
X, X
0
) +α(
˜
X) + Φ(X
0
) +α(X
0
) +c
= Φ(
˜
X) + 2
_
˜
X, AX
0
_
+
_
˜
X, B
_
+ Φ(X
0
) +α(X
0
) +c
= Φ(
˜
X) +
_
˜
X, 2 AX
0
+B
_
+ Φ(X
0
) +α(X
0
) +c
= Φ(
˜
X) +d,
siendo d = Φ(X
0
) +α(X
0
) +c. Entonces la ecuaci´ on de o respecto a las coordenadas
˜
X es
o : Φ(
˜
X) +d = 0.
Realizamos el cambio de variable
˜
X = Q
ˆ
X. Como Q es una matriz ortogonal, esto corresponde realizar un
giro de ejes (det Q = 1) o un giro de ejes seguido de una simetr´ıa especular (det Q = −1). Es
Φ(
˜
X) = Φ(Q
ˆ
X) = (Q
ˆ
X)
t
AQ
ˆ
X =
ˆ
X
t
Q
t
AQ
ˆ
X =
ˆ
X
t
D
ˆ
X = λ
1
ˆ x
2

2
ˆ y
2

3
ˆ z
2
,
ˆ
X =
_
_
ˆ x
ˆ y
ˆ z
_
_
.
Entonces la ecuaci´ on de o respecto a las coordenadas ˆ x, ˆ y y ˆ z es
o : λ
1
ˆ x
2

2
ˆ y
2

3
ˆ z
2
+d = 0.
Consideremos primero el caso en el cual d = 0.
1. Si λ
1
, λ
2
y λ
3
tienen el mismo signo, entonces o es un punto.
2. Si λ
1
, λ
2
y λ
3
no tienen el mismo signo, entonces o es un cono.
Consideremos ahora el caso en que d ,= 0. A menos de intercambiar ˆ x, ˆ y y ˆ z tenemos los casos siguientes:
1. Si λ
1
, λ
2
, λ
3
y d tienen el mismo signo, entonces o es el conjunto vac´ıo.
2. Si λ
1
, λ
2
, λ
3
tienen el mismo signo y este signo es distinto del signo de d, entonces o es un elipsoide.
3. Si sg λ
1
= sg λ
2
,= sg λ
3
= sg d, entonces o es un hiperboloide de una hoja.
4. Si sg λ
1
,= sg λ
2
= sg λ
3
= sg d, entonces o es un hiperboloide de dos hojas.
22
6.3.1. Caso det A = 0 (λ
1
λ
2
λ
3
= 0).
En este caso realizamos primero el cambio de variable X = Q
˜
X.
Φ
_
Q
˜
X
_

_
Q
˜
X
_
+c =
˜
X
t
D
˜
X +
_
Q
˜
X, B
_
+c =
˜
X
t
D
˜
X +
_
˜
X, Q
t
B
_
+c.
Sean
˜
X =
_
_
˜ x
˜ y
˜ z
_
_
y
_
_
β
1
β
2
β
3
_
_
= Q
t
_
_
b
1
b
2
b
3
_
_
. Entonces la ecuaci´ on de o respecto a las coordenadas ˜ x, ˜ y y ˜ z
es
o : λ
1
˜ x
2

2
˜ y
2

3
˜ z
2

1
˜ x +β
2
˜ y +β
3
˜ z +c = 0.
Observar que como A ,= 0, entonces no puede ser λ
1
= λ
2
= λ
3
= 0; luego a menos de intercambiar los
ejes tenemos dos posibilidades: λ
1
,= 0, λ
2
= λ
3
= 0 y λ
1
,= 0, λ
2
,= 0, λ
3
= 0.
Caso λ
1
,= 0, λ
2
= λ
3
= 0. Es
o : λ
1
˜ x
2

1
˜ x +β
2
˜ y +β
3
˜ z +c = 0.
Si β
2
,= 0 o β
3
,= 0, entonces realizamos el cambio de variable
_
_
_
˜ x = ˆ x
˜ y = a ˆ y −b ˆ z
˜ z = b ˆ y +a ˆ z
y obtenemos
o : λ
1
ˆ x
2

1
ˆ x +β
2
(a ˆ y −b ˆ z) +β
3
(b ˆ y +a ˆ z) +c = 0 ⇒
o : λ
1
ˆ x
2

1
ˆ x + (β
2
a +β
3
b) ˆ y + (β
3
a −β
2
b) ˆ z +c = 0
Elegimos a y b tales que
_
β
3
a −β
2
b = 0
a
2
+b
2
= 1
Observar que a y b se obtienen intersectando la circunferencia x
2
+y
2
= 1 con la recta β
3
x −β
2
y = 0. Esto
asegura la existencia de a y b; adem´ as implica que existe ω ∈ [0, 2π] tal que a = cos ω y b = sen ω, luego
el cambio de coordenadas representa un giro de ejes alrededor del eje O˜ x. Para estos valores de a y b la
ecuaci´ on de o respecto a las coordenadas ˆ x, ˆ y y ˆ z queda
o : λ
1
ˆ x
2

1
ˆ x +γ ˆ y +c = 0, con γ = β
2
a +β
3
b.
Observar que las rectas de ecuaci´ on β
2
x +β
3
y = 0 y β
3
x −β
2
y = 0 no coinciden, luego γ = β
2
a +β
3
b ,= 0
y o es un cilindro parab´ olico.
Si β
2
= β
3
= 0, entonces:
o : λ
1
˜ x
2

1
˜ x +c = 0.
Sea ∆ = β
2
1
−4 λ
1
c. Tenemos las siguientes posibilidades:
1. Si ∆ < 0, entonces o es el conjunto vac´ıo.
2. Si ∆ > 0, entonces o son dos planos paralelos: ˜ x =
−β
1
+


2 λ
1
y ˜ x =
−β
1



2 λ
1
.
3. Si ∆ > 0, entonces o es un plano (doble): ˜ x =
−β
1
2 λ
1
.
23
Caso λ
1
,= 0, λ
2
,= 0 y λ
3
= 0. Es
o : λ
1
˜ x
2

2
˜ y
2

1
˜ x +β
2
˜ y +β
3
˜ z +c = 0.
Si hacemos la traslaci´on de ejes
_
¸
_
¸
_
˜ x = ˆ x −
β
1
2 λ
1
˜ y = ˆ y −
β
2
2 λ
2
˜ z = ˆ z
,
entonces la ecuaci´ on de o respecto a las coordenadas ˆ x, ˆ y y ˆ z queda
o : λ
1
ˆ x
2

2
ˆ y
2

3
ˆ z +η = 0,
siendo η = c −
β
2
1
4 λ
1

β
2
2
4 λ
2
.
Caso β
3
= 0. Es o : λ
1
ˆ x
2

2
ˆ y
2
+η = 0
1. Si η = 0, entonces tenemos dos posibilidades:
a) Si sg λ
1
= sg λ
2
, entonces o es la recta (doble) ˆ x = 0 y ˆ y = 0.
b) Si sg λ
1
,= sg λ
2
, entonces o son dos planos secantes y =
_
−λ
1
λ
2
ˆ x e y = −
_
−λ
1
λ
2
ˆ x.
2. Si η ,= 0 entonces tenemos dos posibilidades:
a) Si sg λ
1
= sg λ
2
= sg η, entonces o es el conjunto vac´ıo.
b) Si sg λ
1
= sg λ
2
,= sg η, entonces o es un cilindro el´ıptico.
c) Si sg λ
1
,= sg λ
2
, entonces o es un cilindro hiperb´ olico.
Caso β
3
,= 0. Es o : λ
1
ˆ x
2

2
ˆ y
2

3
ˆ z +η = 0.
1. Si sg λ
1
= sg λ
2
, entonces o es un paraboloide el´ıptico.
2. Si sg λ
1
,= sg λ
2
, entonces o es un paraboloide hiperb´ olico.
Esto concluye la clasificaci´on de las superficies cu´ adricas.
6.4. Ejemplo
Sea o : 2 x
2
+ y
2
− z
2
+ 2 xz + 4 x − 4 y + 2 z + 3 = 0. Es A =
_
_
2 0 1
0 1 0
1 0 −1
_
_
, luego det A = −3 ,= 0
y sabemos que existe un vector X
0
tal que 2 AX
0
+ B = 0, siendo B = (4, −1, 2). Calculando obtenemos
X
0
= (−1, 2, 0), luego realizando el cambio de variable x = ˜ x −1, y = ˜ y + 2 y z = ˜ z obtenemos
o : 2 ˜ x
2
+ ˜ y
2
− ˜ z
2
+ 2 ˜ x˜ z −3 = 0.
Observar que det A = −3 implica que el producto de los valores propios de A es negativo, por otro lado
la suma de los valores propios de A coincide con tr A = 2 > 0, luego necesariamente hay un valor propio
24
negativo y dos positivos. El valor de d se obtiene substituyendo las coordenadas de X
0
en la f´ormula que
define a o:
d = 2(−1)
2
+ (2)
2
−(0)
2
+ 2(−1)(0) + 4(−1) −4(2) + 2(0) + 3 = −3.
Luego realizando el cambio de variable
˜
X = Q
ˆ
X obtenemos una ecuaci´ on de la forma a
2
ˆ x
2
+b
2
ˆ y
2
−c
2
ˆ z
2
−3 =
0, siendo a
2
, b
2
y −c
2
los valores propios de A. Operando llegamos a
a
2
3
ˆ x
2
+
b
2
3
ˆ y
2

c
2
3
ˆ z
2
= 1
que es la ecuaci´ on de un hiperboloide de una hoja.
Observar que en este caso podemos hallar expl´ıcitamente los valores propios, estos son 1,
−1+

13
2
y
−1−

13
2
, luego la ecuaci´ on de o queda
1
3
ˆ x
2
+
_
−1 +

13
6
_
ˆ y
2

_
1 +

13
6
_
ˆ z
2
= 1.
7. Formas multilineales alternadas
Sea V un k-espacio vectorial y n un entero positivo. Una n-forma multilineal ω en V se dice alternada
si verifica:
ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = 0 (8)
cada vez que existan i ,= j tales que v
i
= v
j
.
Observar que si ω es una n-forma alternada, entonces verifica:
ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = −ω (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) , ∀i ,= j, v
1
, . . . , v
n
∈ V. (9)
En efecto, es
0 = ω(v
1
, . . . , v
i
+v
j
, . . . , v
i
+v
j
, . . . , v
n
)
= ω (v
1
, . . . , v
i
, . . . , v
i
, . . . , v
n
) +ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) +ω (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
)
+ω (v
1
, . . . , v
j
, . . . , v
j
, . . . , v
n
)
= 0 +ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) +ω (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) + 0
= ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) +ω (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) ,
luego ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = −ω (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
).
Rec´ıprocamente, si car k ,= 2 y ω es una n-forma multilineal que verifica (9) entonces verifica (8):
Sean v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
∈ V con v
i
= v
j
e i ,= j. Utilizando (9) y que v
i
= v
j
obtenemos:
ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = −ω (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) = −ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) .
Luego 2 ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = 0 y como car k ,= 2 es ω (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = 0.
Observar que lo anterior prueba que (8) y (9) son equivalentes si car k ,= 2.
25
Escribiremos
Alt
k
(V ) = ¦ω : V V
. ¸¸ .
k
→k : ω es una k-forma multilineal alternada¦, k = 1, 2, . . .
Es un ejercicio el verificar que Alt
k
(V ) es un subespacio del espacio de las k-formas multilineales en V , luego
Alt
k
(V ) es un espacio vectorial. Observar que Alt
1
(V ) = V

. Definimos Alt
0
(V ) := k.
Ejemplo 7.1. Si V = R
3
, definimos ω ∈ Alt
2
(V ) mediante ω ((x, y, z), (x

, y

, z

)) = xy

−y x

+2 y z

−2 y

z.
Observar que podemos reescribir ω mediante:
ω
_
(x, y, z),
_
x

, y

, z

__
= xy

−y x

+ 2 y z

−2 y

z = xy

+y
_
−x

+ 2 z

_
−2 y

z
= (x, y, z)
_
_
y

−x

+ 2 z

−2 y

_
_
= (x, y, z)
_
_
0 1 0
−1 0 2
0 −2 0
_
_
_
_
x

y

z

_
_
. (10)
De esta forma es f´acil probar que ω es una 2-forma alternada en R
3
. Observar que la matriz en la igualdad
(10) es antisim´etrica, es decir verifica A
t
= −A.
Ejemplo 7.2. Si V = R
n
, definimos ω ∈ Alt
n
(V ) mediante la funci´on determinante:
ω ((x
11
, . . . , x
n1
) , . . . , (x
1n
, . . . , x
nn
)) =
¸
¸
¸
¸
¸
¸
¸
x
11
x
1n
.
.
.
.
.
.
x
n1
x
nn
¸
¸
¸
¸
¸
¸
¸
.
De ahora en adelante supondremos que V es un espacio vectorial de dimensi´on finita n.
Proposici´ on 7.1. Alt
k
(V ) = ¦0¦ para todo k > n.
Dem. Consideremos ¦e
1
, . . . , e
n
¦ una base de V y sea ω ∈ Alt
k
(V ).
Sean v
1
, . . . , v
k
∈ V , v
1
=

n
j
1
=1
a
j
1
e
j
1
, . . . , v
k
=

n
j
k
=1
a
j
k
e
j
k
, luego
ω(v
1
, . . . , v
k
) = ω
_
_
n

j
1
=1
a
j
1
e
j
1
, . . . ,
n

j
k
=1
a
j
k
e
j
k
_
_
=
n

j
1
=···=j
k
=1
a
j
1
a
j
k
ω (e
j
1
, . . . , e
j
k
) .
Como k > n, en el conjunto e
j
1
, . . . , e
j
k
necesariamente hay elementos repetidos, luego ω (e
j
1
, . . . , e
j
k
) = 0,
∀j
1
, . . . , j
k
y ω(v
1
, . . . , v
k
) = 0. Como v
1
, . . . , v
k
∈ V son arbitrarios se deduce que ω = 0
Proposici´ on 7.2. Supongamos que ¦e
1
, . . . , e
n
¦ es una base de V y ω ∈ Alt
k
(V ), k ≤ n. Entonces ω = 0
si y solo si
ω (e
i
1
, . . . , e
i
k
) = 0, ∀i
1
, . . . , i
k
∈ ¦1, . . . , n¦ tales que 1 ≤ i
1
< i
2
< < i
k
≤ n. (11)
Dem. Es claro que ω = 0 implica (11).
26
Supongamos que ω verifica (11). Sean v
1
, . . . , v
k
∈ V , v
1
=

n
j
1
=1
a
j
1
e
j
1
, . . . , v
k
=

n
j
k
=1
a
j
k
e
j
k
, luego
ω(v
1
, . . . , v
k
) = ω
_
_
n

j
1
=1
a
j
1
e
j
1
, . . . ,
n

j
k
=1
a
j
k
e
j
k
_
_
=
n

j
1
=···=j
k
=1
a
j
1
a
j
k
ω (e
j
1
, . . . , e
j
k
) . (12)
Observar que si existen p ,= q tales que e
jp
= e
jq
, entonces ω (e
j
1
, . . . , e
j
k
) = 0. Por otro lado, si e
j
1
, . . . , e
j
k
son
distintos entre s´ı, podemos reordenarlos para obtener un conjunto e
i
1
, . . . , e
i
k
con 1 ≤ i
1
< i
2
< < i
k
≤ n.
Notar que siempre podemos pasar de la k-upla (e
j
1
, . . . , e
j
k
) a la k-upla (e
i
1
, . . . , e
i
k
) realizando una cantidad
finita de intercambios entre los elementos de (e
j
1
, . . . , e
j
k
), cada intercambio corresponde a un cambio de
signo en ω, de donde aplicando (11) obtenemos
ω (e
j
1
, . . . , e
j
k
) = ±ω (e
i
1
, . . . , e
i
k
) = 0.
Luego todos los sumandos de (12) son nulos y ω(v
1
, . . . , v
k
) = 0. Como v
1
, . . . , v
k
∈ V son arbitrarios se
deduce que ω = 0.
Corolario 7.3. Supongamos que ¦e
1
, . . . , e
n
¦ es una base de V y ω, η ∈ Alt
k
(V ), k ≤ n. Entonces ω = η si
y solo si
ω (e
i
1
, . . . , e
i
k
) = η (e
i
1
, . . . , e
i
k
) , ∀i
1
, . . . , i
k
∈ ¦1, . . . , n¦ tales que 1 ≤ i
1
< i
2
< < i
k
≤ n.
Dem. Aplicar la proposici´on anterior a ω −η ∈ Alt
k
(V ).
Observaci´ on 7.1. Llamaremos o
n
al conjunto de permutaciones de n elementos. Es decir que o
n
es el conjunto
de biyecciones del conjunto ¦1, 2, . . . , n¦ en s´ı mismo. Si σ ∈ o
n
, llamaremos sg(σ) al signo de σ.
Recordemos c´omo se calcula el signo de una permutaci´ on. Por ejemplo, si σ =
_
1 2 3 4
3 1 4 2
_
, entonces
en la cuaterna (3, 1, 4, 2) tenemos:
el 3 est´a en inversi´ on con el 1 y el 2,
El 1 no esta en inversi´ on con ninguno,
el 4 est´a en inversi´ on con el 2,
luego el n´ umero total de inversiones es 2 + 0 + 1 = 3 y por lo tanto sg(σ) = (−1)
3
= −1.
Sea ω ∈ Alt
k
(V ). Consideremos i, j ∈ ¦1, . . . , k¦, i ,= j y definimos τ ∈ o
k
como la trasposici´on que
intercambia i con j, entonces la condici´ on de que ω sea alternada se refleja en
ω
_
v
τ(1)
, . . . , v
τ(k)
_
= −ω (v
1
, . . . , v
k
) , ∀v
1
, . . . , v
k
∈ V.
De hecho este resultado se generaliza al siguiente (omitimos la prueba):
Proposici´ on 7.4. Sea ω ∈ Alt
k
(V ) y σ ∈ o
k
, entonces
ω
_
v
σ(1)
, . . . , v
σ(k)
_
= sg(σ) ω (v
1
, . . . , v
k
) , ∀v
1
, . . . , v
k
∈ V.
27
Definici´ on 7.1. Si α
1
, . . . , α
k
∈ V

, definimos α
1
∧ ∧ α
k
: V V
. ¸¸ .
k
→k mediante

1
∧ ∧ α
k
) (v
1
, . . . , v
k
) =
¸
¸
¸
¸
¸
¸
¸
α
1
(v
1
) α
1
(v
k
)
.
.
.
.
.
.
α
k
(v
1
) α
k
(v
k
)
¸
¸
¸
¸
¸
¸
¸
, ∀v
1
, . . . , v
v
∈ V.
Claramente α
1
∧ ∧ α
k
∈ Alt
k
(V ), α
1
, . . . , α
k
∈ V

.
Ejemplo 7.3. Si α, β ∈ V

es α ∧ β ∈ Alt
2
(V ) y
(α ∧ β) (u, v) =
¸
¸
¸
¸
α(u) α(v)
β(u) β(v)
¸
¸
¸
¸
= α(u) β(v) −α(v) β(u), ∀u, v ∈ V.
Consideremos V = R
3
, ¦e
1
, e
2
, e
3
¦ la base can´onica y ¦e

1
, e

2
, e

3
¦ la base dual en V

, es decir
e

1
(x, y, z) = x, e

2
(x, y, z) = y, e

3
(x, y, z) = z.
Entonces
(e

1
∧ e

2
)
_
(x, y, z),
_
x

, y

, z

__
=
¸
¸
¸
¸
x x

y y

¸
¸
¸
¸
= xy

−y x

,
(e

1
∧ e

3
)
_
(x, y, z),
_
x

, y

, z

__
=
¸
¸
¸
¸
x x

z z

¸
¸
¸
¸
= xz

−z x

,
(e

2
∧ e

3
)
_
(x, y, z),
_
x

, y

, z

__
=
¸
¸
¸
¸
y y

z z

¸
¸
¸
¸
= y z

−z y

,
Observar que si ω es la 2-forma del ejemplo 7.1, entonces ω = e

1
∧ e

2
+ 2 e

2
∧ e

3
.
Ejemplo 7.4. Si α, β, γ ∈ V

es α ∧ β ∧ γ ∈ Alt
3
(V ) y
(α ∧ β ∧ γ) (u, v, w) =
¸
¸
¸
¸
¸
¸
α(u) α(v) α(w)
β(u) β(v) β(w)
γ(u) γ(v) γ(w)
¸
¸
¸
¸
¸
¸
Si consideramos de nuevo V = R
3
, ¦e
1
, e
2
, e
3
¦ la base can´onica y ¦e

1
, e

2
, e

3
¦ la base dual en V

, entonces
(e

1
∧ e

2
∧ e

3
)
_
(x, y, z),
_
x

, y

, z

_
,
_
x
′′
, y
′′
, z
′′
__
=
¸
¸
¸
¸
¸
¸
x x

x
′′
y y

y
′′
z z

z
′′
¸
¸
¸
¸
¸
¸
.
La prueba de las siguientes propiedades es simple y queda como ejercicio.
1. α ∧ α = 0 y α ∧ β = −β ∧ α, ∀α, β ∈ V

.
2. Si existen i ,= j tales que α
i
= α
j
, entonces α
1
∧ ∧ α
i
∧ ∧ α
j
∧ ∧ α
k
= 0.
3. α
σ(1)
∧ ∧ α
σ(k)
= sg(σ) α
1
∧ ∧ α
k
, ∀σ ∈ o
k
; en particular
α
1
∧ ∧ α
i
∧ ∧ α
j
∧ ∧ α
k
= −α
1
∧ ∧ α
j
∧ ∧ α
i
∧ ∧ α
k
.
28
Teorema 7.5. Sea ¦e
1
, . . . , e
n
¦ una base de V y ¦e

1
, . . . , e

n
¦ la base dual en V

, entonces
B =
_
e

i
1
∧ ∧ e

i
k
: 1 ≤ i
1
< < i
k
≤ n
_
es una base de Alt
k
(V ), para todo k = 1, . . . , n.
Dem. Sea k ∈ ¦1, . . . , n¦ y ω ∈ Alt
k
(V ). Probaremos que ω se escribe en forma ´ unica como combinaci´on
lineal de B, es decir que existen ´ unicos a
i
1
,...,i
k
∈ k, 1 ≤ i
1
< < i
k
≤ n tales que
ω =

1≤i
1
<···<i
k
≤n
a
i
1
,...,i
k
e

i
1
∧ ∧ e

i
k
.
Observar que aplicando el Corolario 7.3, obtenemos que se verifica esta ´ ultima igualdad si y solo si
ω (j
1
, . . . , j
k
) =

1≤i
1
<···<i
k
≤n
a
i
1
,...,i
k
_
e

i
1
∧ ∧ e

i
k
_
(e
j
1
, . . . , e
j
k
) , (13)
para todo j
1
, . . . , j
k
∈ ¦1, . . . , n¦ con 1 ≤ j
1
< < j
k
≤ n.
Calculando tenemos dos casos posibles:
_
e

i
1
∧ ∧ e

i
k
_
(e
j
1
, . . . , e
j
k
) =
¸
¸
¸
¸
¸
¸
¸
e

i
1
(e
j
1
) e

i
1
(e
j
k
)
.
.
.
.
.
.
e

i
k
(e
j
1
) e

i
k
(e
j
k
)
¸
¸
¸
¸
¸
¸
¸
=
_
(A) si ∃l : j
l
,∈ ¦i
1
, . . . , i
k
¦,
(B) si ¦j
1
, . . . , j
k
¦ = ¦i
1
, . . . , i
k
¦.
(14)
En el caso (A), es e

i
1
(e
j
l
) = = e

i
k
(e
j
l
) = 0, luego en el determinante de la ecuaci´ on (14) la columna
l-´esima es nula y resulta
_
e

i
1
∧ ∧ e

i
k
_
(e
j
1
, . . . , e
j
k
) = 0.
En el caso (B) es ¦j
1
, . . . , j
k
¦ = ¦i
1
, . . . , i
k
¦ siendo 1 ≤ j
1
< < j
k
≤ n y 1 ≤ i
1
< < i
k
≤ n, luego
necesariamente es i
1
= j
1
, . . . , i
k
= j
k
y
_
e

i
1
∧ ∧ e

i
k
_
(e
j
1
, . . . , e
j
k
) =
_
e

i
1
∧ ∧ e

i
k
_
(e
i
1
, . . . , e
i
k
) =
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
¸
¸
¸
¸
¸
¸
¸
¸
¸
= 1.
Entonces en la suma de la ecuaci´ on (13) el ´ unico t´ermino no nulo corresponde al caso i
1
= j
1
, . . . , i
k
= j
k
y en ese caso es
_
e

i
1
∧ ∧ e

i
k
_
(e
i
1
, . . . , e
i
k
) = 1, luego la ecuaci´ on (13) equivale a
ω (j
1
, . . . , j
k
) = a
j
1
,...,j
k
, ∀j
1
, . . . , j
k
∈ ¦1, . . . , n¦, 1 ≤ j
1
< < j
k
≤ n
Esto concluye la prueba de que B es base de Alt
k
(V ), adem´ as obtuvimos c´omo representar una k-forma ω
en t´erminos de esta base:
ω =

1≤i
1
<···<i
k
≤n
ω (e
i
1
, . . . , e
i
k
) e

i
1
∧ ∧ e

i
k
.
Recordemos el s´ımbolo combinatorio
_
n
k
_
=
n!
(n−k)!k!
que est´a definido para todo n, k ∈ N, n ≥ k.
Corolario 7.6. Si dimV = n y k ≤ n, entonces dimAlt
k
(V ) =
_
n
k
_
.
29
Ejemplo 7.5. Supongamos que dimV = 3 y sea ¦e
1
, e
2
, e
3
¦ una base de V , entonces Alt
k
(V ) = ¦0¦, ∀k ≥ 4
y
¦1¦ es una base de Alt
0
(V ) = k, dimAlt
0
(V ) =
_
3
0
_
= 1,
¦e

1
, e

2
, e

3
¦ es una base de Alt
1
(V ) = V

, dimAlt
1
(V ) =
_
3
1
_
= 3,
¦e

1
∧ e

2
, e

1
∧ e

3
, e

2
∧ e

3
¦ es una base de Alt
2
(V ), dimAlt
2
(V ) =
_
3
2
_
= 3,
¦e

1
∧ e

2
∧ e

3
¦ es una base de Alt
3
(V ), dimAlt
3
(V ) =
_
3
3
_
= 1.
En el caso de V = R
3
estas bases fueron halladas expl´ıcitamente en los ejemplos 7.3 y 7.4.
Ejemplo 7.6. Si V = k
n
y ¦e
1
, . . . , e
n
¦ es la base can´onica de k
n
, entonces dimAlt
n
(V ) =
_
n
n
_
= 1 y
¦e

1
∧ ∧ e

n
¦ es una base de Alt
n
(V ).
(e

1
∧ ∧ e

n
) ((x
11
, . . . , x
n1
) , . . . , (x
1n
, . . . , x
nn
)) =
¸
¸
¸
¸
¸
¸
¸
e

1
(x
11
, . . . , x
n1
) e

1
(x
1n
, . . . , x
nn
)
.
.
.
.
.
.
.
.
.
e

n
(x
11
, . . . , x
n1
) e

n
(x
1n
, . . . , x
nn
)
¸
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
¸
x
11
x
1n
.
.
.
.
.
.
.
.
.
x
n1
x
nn
¸
¸
¸
¸
¸
¸
¸
.
Luego e

1
∧ ∧ e

n
= det (el determinante) y ¦det¦ es una base de Alt
n
(V ).
30

Expl´ ıcitamente es ϕA (u, v) =

Ejemplo 2.3. Este ejemplo generaliza el anterior. Si A ∈ Mn (k), definimos ϕA : kn ×kn → k por ϕA (u, v) = ut A v, siendo       u1 v1 a11 · · · a1n  .   .   . . . .  u =  . , v =  . , A =  . . . . . un vn
n i,j=1 aij

an1 · · ·

ann

u i vj .

Proposici´n 2.1. Sean ϕ : V × V → k una forma bilineal, W un espacio vectorial y T, S : W → V dos o transformaciones lineales. Si definimos ϕ′ : W × W → k mediante ϕ′ (w1 , w2 ) = ϕ(T (w1 ), S(w2 )), Entonces ϕ′ es una forma bilineal en W . Dem.
′ ′ ′ ϕ′ (w1 + a w1 , w2 ) = ϕ(T (w1 + a w1 ), S(w2 )) = ϕ(T (w1 ) + a T (w1 ), S(w2 )) ′ ′ = ϕ(T (w1 ), S(w2 )) + a ϕ(T (w1 ), S(w2 )) = ϕ′ (w1 , w2 ) + a ϕ′ (w1 , w2 ).

∀w1 , w2 ∈ W,

Esto prueba que ϕ′ es lineal en la primer variable y an´logamente se prueba que es lineal en la segunda a variable. Definici´n 2.1. Si V tiene dimensi´n finita n, B = {v1 , . . . , vn } es una base de V y ϕ ∈ Bil(V ), definimos o o MB (ϕ) la matriz asociada a la forma bilineal ϕ en la base B mediante   ϕ (v1 , v1 ) · · · ϕ (v1 , vn )   . . . . MB (ϕ) := (ϕ (vi , vj ))i,j =   ∈ Mn (k). . . ϕ (vn , v1 ) · · · ϕ (vn , vn ) Ejemplo 2.4. En el Ejemplo 2.2, si B = {(1, 0), (0, 1)}, es MB (ϕ) = 2 3 4 −1 .

Teorema 2.2. Sea V un espacio de dimensi´n finita n y B = {v1 , . . . , vn } una base de V . La funci´n o o MB : Bil(V ) → Mn (k) que a cada forma bilineal ϕ le asocia la matriz MB (ϕ) es un isomorfismo lineal. Dem. Sean ϕ, ϕ′ ∈ Bil(V ) y a ∈ k. Es MB a ϕ + ϕ ′ = Luego MB es lineal. Sea ϕ ∈ Bil(V ) tal que MB (ϕ) = 0 ∈ Mn (k), entonces es ϕ(vi , vj ) = 0 para todo i, j = 1, . . . , n. Sean v, w ∈ V que escribimos v = n xi vi y w = n yj vj . Entonces j=1 i=1  
n n n n

a ϕ + ϕ′ (vi , vj )

i,j

= a ϕ (vi , vj ) + ϕ′ (vi , vj )

i,j

= a (ϕ (vi , vj ))i,j + ϕ′ (vi , vj )

i,j

= a MB (ϕ) + MB ϕ .

Luego Ker MB = {0} y MB es inyectiva.

ϕ(v, w) = ϕ 

xi vi ,

i=1

j=1

yj v j  = 2

xi

yj ϕ (vi , vj ) = 0.

i=1

j=1

Sea A = (aij )i,j ∈ Mn (k). Definimos ϕ : V × V → k mediante ϕ(v, w) = ϕA (coordB v, coordB w), siendo ϕA : kn × kn → k la forma bilineal definida en el Ejemplo 2.3. La Proposici´n 2.1 nos prueba que ϕ ∈ Bil(V ). o Operando obtenemos ϕ(vi , vj ) = ϕA (ei , ej ) = aij , ∀i, j = 1, . . . , n. Luego MB (ϕ) = A y MB es sobreyectiva. Corolario 2.3. Si V es un espacio de dimensi´n finita n, entonces la dimensi´n de Bil(V ) es n2 . o o Dem. Es Bil(V ) ≃ Mn (k) y dim Mn (k) = n2 . Corolario 2.4. Si V es un espacio de dimensi´n finita n, B es una base de V y ϕ ∈ Bil(V ), entonces una o matriz A ∈ Mn (k) verifica ϕ(v, w) = (coordB v)t A coordB w, si y solo si A = MB (ϕ). Dem. Se deduce inmediatamente de la demostraci´n del teorema anterior. o Observar que en particular el corolario anterior nos da la siguiente f´rmula: o ϕ(v, w) = (coordB v)t MB (ϕ) coordB w, ∀v, w ∈ V ∀v, w ∈ V

Corolario 2.5. Si ϕ ∈ Bil (kn ) entonces existe una unica matriz A ∈ Mn (k) tal que ϕ(v, w) = v t A w para ´ todo v, w en kn (es decir ϕ = ϕA ). Dem. Sea B la base can´nica de kn y A = MB (ϕ), entonces o ϕ(v, w) = (coordB v)t A coordB w = v t A w, ∀v, w ∈ kn .

De ahora en adelante supondremos que V es un k-espacio vectorial de dimensi´n finita n. o Proposici´n 2.6. Sean B y C dos bases de V y ϕ ∈ Bil(V ). Entonces o MC (ϕ) = (B [id ]C )t MB (ϕ) B [id ]C . Dem. Sean v, w ∈ V , ϕ(v, w) = (coordB v)t MB (ϕ) coordB w = (B [id ]C coordC v)t MB (ϕ) (B [id ]C coordC w)

= (coordC v)t (B [id ]C )t MB (ϕ) B [id ]C coordC w.

Luego el Corolario 2.4 implica MC (ϕ) = (B [id ]C )t MB (ϕ) B [id ]C . Definici´n 2.2. Dos matrices A y B en Mn (k) se dicen congruentes si existe una matriz invertible Q en o Mn (k) tal que A = Qt B Q. 3

. Ejemplos de cuerpos con caracter´ ıstica distinta de 2 son Q. Probar que la congruencia es una relaci´n de equivalencia en Mn (k). decimos que el cuerpo tiene caracter´ ıstica 2 y escribimos car k = 2 si en k se verifica 1 + 1 = 0. definimos C = {w1 . . 0 · 1 = 0. wn } mediante n wj = i=1 qij vi . Probar que BilS (V ) es un subespacio de Bil(V ). en el cual definimos dos operaciones +. resulta que C es una base de V y B [id ]C = Q. 1 + 0 = 1.1. Como Q es invertible. j = 1. Sea Q = (qij ) ∈ Mn (k) invertible tal que A = Qt MB (ϕ) Q. 1}. Si A ∈ Mn (k) es congruente con MB (ϕ). o 3. Sea ϕ ∈ Bil(V ). Si consideramos la forma bilineal ϕA′ ∈ Bil (kn ) y B es la base can´nica de kn es A′ = MB (ϕA′ ). Son equivalentes: o 1. o Teorema 2.1. Es un ejercicio el verificar que (F2 . ϕ ∈ BilS (V ). 0 + 1 = 1. · : F2 × F2 → F2 mediante: 0 + 0 = 0. e Ejercicio 3. Corolario 2. +. ·) es un cuerpo y claramente car F2 = 2. Sea ϕ ∈ Bil(V ) y B una base de V . Otro ejemplo es el cuerpo de expresiones racionales con coeficientes en F2 . El rec´ ıproco es la Proposici´n 2. Proposici´n 3. Dem. . Si B = {v1 .6.8. n. Dem. Formas bilineales sim´tricas e Sea k un cuerpo arbitrario. es decir los cocientes de polinomios con coeficients en F2 . vn }. Dos matrices son congruentes si y solo si representan a la misma forma bilineal.1. 1 + 1 = 0. o a o Definici´n 3. Escribimos BilS (V ) := {ϕ ∈ Bil(V ) : ϕ es sim´trica} . En un cuerpo k con car k = 2 es 2 := 1 + 1 = 0 y luego 2 es invertible en k. F2 = {0. 4 ∀u. . . 0 · 0 = 0. . R y C. Un ejemplo en el cual pasa esto es el caso del conjunto formado por dos elementos que llamamos 0 y 1.7. .1. v) = ϕ(v. . Una forma bilineal ϕ se dice sim´trica si o e ϕ(u.Ejercicio 2. Sean A y A′ en Mn (k) dos matrices congruentes. En este secci´n V ser´ siempre un k-espacio vectorial de dimensi´n finita y car k = 2. entonces existe C base de V tal que MC (ϕ) = A. 1 · 0 = 0. . . v ∈ V. Luego A es congruente con MB (ϕA′ ) y el teorema anterior o implica que A = MC (ϕA′ ) para alguna base C de V . u). 1 · 1 = 1. . . Luego A = Qt MB (ϕ) Q = (B [id ]C )t MB (ϕ) B [id ]C = MC (ϕ). .

vi ) = aji . 3. v ∈ V . n ϕ(u. n. . . Si dim(V ) = n. a Proposici´n 3. . v ∈ V . vi ). . vj ) = ϕ(vj . v) + Φ(v). a v) = a2 ϕ(v. 2 Corolario 3. 4. La funci´n Φ : V → k definida por Φ(v) = ϕ(v. n(n+1) . v) = Dem. vj ) = ai bj ϕ (vj . . o 3. . Si Φ y Ψ son dos o a formas cuadr´ticas en V y a ∈ k. n tales que u = n ai vi y v = n bi vi . Existe una base B de V tal que MB (ϕ) es sim´trica. ∀i. . . . . v) y Ψ(v) = a ψ(v.3. v).2. . Las formas cuadr´ticas en V forman un subespacio de las funciones de V en k: es claro o a que la funci´n nula es una forma cuadr´tica (correspondiente a la forma bilineal nula). 3 ⇒ 1: Sea B = {v1 . v) = a2 Φ(v). i=1 n j=1 n bj v j  =  ai bj ϕ (vi . luego MB (ϕ) = (aij ) es sim´trica. Para toda base B de V es MB (ϕ) sim´trica. 4. vj ) = e ´ ϕ(vj . Esto prueba que a Φ + Ψ es una forma cuadr´tica en V .1. u) + ϕ(v. v) + Φ(v). Luego i=1 i=1   n n n n n n ∀i.2. e 2 ⇒ 3: Esto es obvio. v) + ψ(v. . u + v) = ϕ(u. . v ∈ V . ∀u. v) + ϕ(v. Φ(a v) = a2 Φ(v). ai vi  = ϕ(v. u) + ϕ(u. i = 1. se deduce que ϕ ∈ BilS (V ). 2. Entonces: o a 1. e 3. ϕ(u. . a Observaci´n 3. ∀a ∈ k. 2. . v). luego (a Φ + Ψ) (v) = a Φ(v) + Ψ(v) = a ϕ(v. u). Se deduce de la f´rmula anterior despejando ϕ(u. ∀u. vi ) i=1 j=1 i=1 j=1 bj v j . o 5 . bi ∈ k. . v) = ϕ  = ϕ  ai vi . vn } una base de V y MB (ϕ) = (aij ). ∀v ∈ V y a ϕ + ψ ∈ BilS (V ). Φ(u + v) = ϕ(u + v. ∀v ∈ V. v) = (a ϕ + ψ) (v. . v ∈ V . j=1 i=1 Como u y v son arbitrarios. v). Φ(a v) = ϕ(a v. Sea ϕ ∈ BilS (V ) y Φ : V → k la forma cuadr´tica asociada a ϕ.2. j = 1. Φ(0) = 0. 1. 1 ⇒ 2: Sea B = {v1 . entonces existen escalares ai . esto ultimo equivale a ϕ(vi . e Dem. v). j = 1. Φ(u + v) = Φ(u) + 2 ϕ(u. Sea ϕ ∈ BilS (V ). Sean u. . . entonces dim BilS (V ) = Definici´n 3. entonces aij = ϕ(vi . vn } una base de V tal que MB (ϕ) es sim´trica. entonces existen ϕ y ψ en BilS (V ) tales que Φ(v) = ϕ(v. 1 2 (Φ(u + v) − Φ(u) − Φ(v)). ∀v ∈ V se llama la o o forma cuadr´tica asociada a ϕ. Se deduce de la f´rmula anterior tomando a = 0. . v) = Φ(u) + 2 ϕ(u.

. le asociamos el polinomio p en las indeterminadas e x1 . 2 Si A = (aij ) ∈ Mn (k) es una matriz sim´trica. z es un polinomio en k[x. a. a. . El espacio de las formas cuadr´ticas en kn . La Proposici´n 3. Los siguientes espacios vectoriales son isomorfos. El espacio de las matrices sim´tricas de orden n con coeficientes en k. y es un polinomio en e k[x. .1. v) = (Φ(u + v) − Φ(u) − Φ(v)) . p= bij xi xj . . . . . b. y] de la forma ax2 + bxy + cy 2 . o o o Definici´n 3.xn es un polinomio en o e k[x1 .3. .Observaci´n 3. . b. . v). e 2.. c ∈ k. . .. . i≤j Es claro que que p es un polinomio homog´neo de grado 2 en las indeterminadas x1 . Ejemplo 3. f ∈ k. Si n = 2. ϕ(u. . . . . bij = 2 aij si i < j. . e 3. . Nosotros hab´ ıamos visto anteriormente que la correspondencia que a una matriz A le hace corresponder la forma bilineal ϕ definida por ϕ(u. . . v) = ut A v establece un isomorfismo entre las matrices de orden n con coeficientes en k y las formas bilineales en kn . .. un polinomio homog´neo de grado 2 en las indeterminadas x. . xn con coeficientes e en k. xn y que esta e correspondencia es un isomorfismo entre las matrices sim´tricas y los polinomios homog´neos de grado e e dos. e El isomorfismo entre formas bilineales sim´tricas y formas cuadr´ticas viene dado por las f´rmulas e a o siguientes: 1 (2) Φ(v) = ϕ(v.1 nos dice que este isomorfismo o restringido a las matrices sim´tricas de orden n nos da un isomorfismo entre las matrices sim´tricas y las e e formas bilineales sim´tricas. . xn ] de la forma aij xi xj . xn definido por aii si i = j. El espacio de las formas bilineales sim´tricas en kn . . o 1. un polinomio homog´neo de grado 2 en las indeterminadas x. Si n = 3. xn ]. y.. . 6 . a 4. . Un polinomio homog´neo de grado 2 en las indeterminadas x1 .4. 1≤i≤j≤n Observar que los polinomios homog´neos de grado 2 en las indeterminadas x1 . z] de e la forma ax2 + by 2 + cz 2 + dxy + exz + f yz. Proposici´n 3. Dem. . Notar que para la propiedad 4 de la Proposici´n anterior es necesaria la condici´n car k = 2.xn forman un subespacio e de k[x1 .2. El espacio de los polinomios homog´neos de grado 2 en las indeterminadas x1 . y.

. Entonces la base can´nica {e1 . i (3) o Ejemplo 3. mientras que p es un ´ o polinomio en dos variables. La e b forma bilineal sim´trica. Φ(x. Sea B una base de V . p = a x2 + 2 b x y + c y 2 .b Ejemplo 3. Observaci´n 3.5. o o o Claramente ϕ|W ×W ∈ BilS (W ). ϕ ∈ BilS (V ) y Φ : V → k es la o forma cuadr´tica asociada a ϕ. y). vn } es una base ϕ-ortogonal de V y u = dos vectores de V .4.3. 7 . una matriz sim´trica de orden 2 es una matriz de la forma A = a c . Definici´n 3. a Definici´n 3. e3 } es ϕ-ortonormal. Observar que la unica diferencia ente Φ y p es que Φ es una funci´n de k × k en k. . luego no existe ninguna base ϕ-ortonormal Observar que no existe ning´n vector v de Q u de Q2 . . e2 . Es equivalente que B sea una base ϕ-ortogonal de V con que la o matriz MB (ϕ) sea diagonal y que B sea una base ϕ-ortonormal de V con que la matriz MB (ϕ) sea diagonal y sus entradas diagonales sean 0. y) = ϕ ((x. y. vj ) = xi yi ϕ (vi . i=1 j=1 i=1 n ϕ(u. . e2 } es ϕ-ortogonal. i=1 j=1 yj v j  = n xi yj ϕ (vi . vi ) = i=1 Φ (vi ) xi yi . y ′ = (x. En el caso n = 2. n. (x.4. . Φ(u) = i=1 Φ (vi ) x2 . Dos subespacios U y W de V son o ϕ-ortogonales si ϕ(u. Entonces la base can´nica {e1 . w) = 0 para todo u ∈ U y w ∈ W . De las f´rmulas (2) se deduce inmediatamente el siguiente: o Lema 3. o Ejemplo 3. De ahora en adelante V es un k-espacio vectorial de dimensi´n finita. Si W es un subespacio de V . y)) = a x2 + 2 b x y + c y 2 . v) = ϕ  xi vi . z) = x2 − y 2 . a Observar que si B = {v1 . la forma cuadr´tica y el polinomio homog´neo que corresponden a A son: e a e ϕ (x. y) = 2x2 . Dos vectores u y v en V son ϕ-ortogonales si ϕ(u. y) · a b x′ · b c y′ = a x x′ + b x y ′ + b x′ y + c y y ′ . entonces   n n n n n n i=1 xi vi yv= n i=1 yi vi son n Luego tenemos las f´rmula siguientes: o ϕ(u. . vn } de V se dice ϕ-ortogonal si ϕ(vi .3. Sea ϕ ∈ BilS Q2 tal que Φ(x. y). v) = i=1 Φ (vi ) xi yi . Es ϕ = 0 si y solo si Φ = 0. . 2 tal que Φ(v) = ±1. 0. ∀i = 1. v) = 0. la restricci´n de ϕ a W es la funci´n ϕ|W ×W : W × W → k. vj ) = 0 si i = j y se dice ϕ-ortonormal si adem´s Φ(vi ) ∈ {−1. . 1 o −1. . Sea ϕ ∈ BilS R3 tal que Φ(x. Una base B = {v1 .2. x′ . 1}. . .5. .

7. . . v ∈ V0 ⇔ ut A v = 0. o Si n = 1. i luego ϕI es no degenerada. ∀i = 1. Si W es un subespacio de V . ∀u ∈ V ⇔ et v = 0. . 8 . Probar que V0 es un subespacio de V . . o Dem. xn ). . v ∈ V0 ⇔ ut v = 0. u). n ⇔ v = 0. . vj ) = 0 si i = j. Expl´ ıcitamente ϕI ((x1 . A v) = 0. luego existe u ∈ V tal que Φ(u) = 0. ∀u. Definici´n 3. . . u} es LI y al tener n elementos es base de V . Como u ∈ Ker α = [v1 . Consideremos la matriz identidad I ∈ Mn (k) y ϕI ∈ BilS (kn ). toda base B = {v} de V es ϕ-ortogonal. ∀u ∈ V ⇔ A v = 0 ⇔ v ∈ Ker(LA ).2. . . . Si ϕ = 0. . n ⇔ vi = 0. . . . Aplicando la hip´tesis de inducci´n ϕ restringida a Ker α tenemos que o o existe {v1 . ϕA (u.5. entonces el conjunto B = {v1 . Definici´n 3. . Ejemplo 3. vn ) ∈ kn . Observar que α(u) = ϕ(u. Decimos que ϕ es no degenerada si V0 = {0}. Vale V0 = Ker(LA ). .6. ∀u ∈ V }. . vn−1 ]. ∀v ∈ V ⇒ u = 0. Supongamos ahora que vale la tesis si la dimensi´n o del espacio es n − 1 y sea ϕ ∈ BilS (V ) con dim V = n. u) = Φ(u) = 0. Proposici´n 3. Como {v1 .7. Dem. entonces toda base de V es ϕ-ortogonal. es decir si o ϕ(u. . Llamamos n´cleo de ϕ a o u V0 := {v ∈ V : ϕ(v. . . . Definimos α ∈ V ∗ mediante α(v) = ϕ(v.Teorema 3. Sea A ∈ Mn (k) y consideremos ϕA ∈ BilS (kn ). . . v) = ut A v. vn−1 son ϕ-ortogonales con u y luego B es una base ϕ-ortogonal de V . . . yn )) = x1 y1 + · · · + xn yn . . Sea v = (v1 . . Ejercicio 3. v) = 0. . . vn−1 } base de Ker α tal que ϕ(vi . ∀i = 1. . . . v) = 0. .6. decimos que ϕ es no degenerada en W si la restricci´n de ϕ a W es no o degenerada. vn−1 . v ∈ kn . . ∀v ∈ V . ϕI (u. Existe una base ϕ-ortogonal de V . ∀u ∈ V } = {v ∈ V : ϕ(u. Supongamos ahora que ϕ = 0. . u) = 0. vn−1 } ⊂ Ker α resulta que v1 . . (y1 . v) = ut I v = ut v. Lo probaremos por inducci´n en n = dim V . . . Por el lema anterior es Φ = 0. . luego α = 0 y entonces dim Ker α = n − 1. ∀u ∈ V ⇔ ϕI (u.

y). . . vi ) = bi Φ (vi ) y como Φ(vi ) = 0 es bi = 0. . 2. . siendo n = dim V . . . En el teorema anterior probamos que V0 = [v1 . . . vn ] = V0 ⊕ W. . n}. an tales que u = n aj vj . v) = 0 para todo v ∈ W . vi ) = bi Φ (vi ) y como Φ(vi ) = 0. n. en particular si i ∈ {s + 1. luego v1 . .9. es vi ∈ W . . . Vale lo siguiente: 1. . . Sea w ∈ W tal que ϕ(w. . . . v) = 0 para todo v ∈ V . . . 3. vn } una base ϕ-ortogonal de V y supongamos que ordenamos B de forma tal Φ(vi ) = 0. . . Al ser w ∈ V0 . . . Por ejemplo. . . .8. resulta V = [v1 . . ∀i = s + 1. . Esto completa la prueba de V0 = [v1 . . . vs pertenecen a o V0 . . . vs ]. . entonces es R2 = [(0. Proposici´n 3. El espacio W en la descomposici´n anterior no es unico. siendo B una base cualquiera de V . . . Observaci´n 3. Sea B = {v1 . . Esta definici´n o o tiene sentido porque dos matrices congruentes siempre tienen el mismo rango. 9 . . vs ]. . Como V0 = [v1 . vs ]. .Teorema 3. Sabemos que existen unicos escalares a1 . Si i ∈ {s + 1. . luego existen unicos escalares b1 . . n} y aplicamos (3) obtenemos 0 = ϕ(w. ∀i = s + 1. . Definici´n 3. es ´ j=1 ϕ(w. . . . . . Dem. . vs ]. . si ϕ ∈ BilS R2 o o ´ ′ . . Sea W = [vs+1 . . vs ]. . 1)] y podemos tomar como W a est´ definida mediante ϕ((x. . . . . n y w ∈ [v1 . (x a 0 cualquier recta por el origen distinta del eje Oy. . . . . ∀i = 1. Aplicando la f´rmula (3) obtenemos ϕ(vi . bn ∈ k. s. luego ϕ es no degenerada si y solo si s = 0.4. Llamamos rango de ϕ al rango de MB (ϕ). vn } una base ϕ-ortogonal de V y supongamos que ordenamos B de forma tal que Φ(vi ) = 0. . Sea i ∈ ´ j=1 {1. con bs+1 . para todo i = s + 1. Φ(vi ) = 0. . n. vs ] ⊕ [vs+1 . La forma bilineal ϕ es no degenerada si y solo si rango(ϕ) = n. o que Dem. V0 = [v1 . . . ϕ es no degenerada en W . . . . Sea B = {v1 . . . . . . . . . s}. . y ′ )) = x x′ . Φ(vi ) = 0. Sea ahora w ∈ V0 . . . . . Es w= n j=s+1 bj vj . . . Sea u ∈ V . resulta bi = 0 para todo i = s + 1. s. . . bn tales que w = n bj vj . vn ]. . . n y resulta w = 0. ∀i = 1. . Probaremos ahora que ϕ es no degenerada en W . . . . . Luego la misma cuenta que antes nos prueba que 0 = ϕ(w.8. V = V0 ⊕ W . u) = ai Φ (vi ) = ai 0 = 0. .

o u Definici´n 4... . .  Matrices de tipo II:     1   .  . .     MB (ϕ) =       0 ..   0   . . Sumarle a una fila o columna un m´ltiplo de otra fila o columna respectivamente. Operaci´n de tipo II. Operaci´n de tipo I..  Φ(vs+1 )   . Sea A ∈ Mn (k). Intercambiar dos filas o columnas de A.. p   1   . Se llaman matrices elementales de tipo I.1. 10 .2. Se llaman operaciones elementales en las filas o columnas de A a las o siguientes: 1. Φ(vn )  4. .  .   1 ···                1 .  . Operaci´n de tipo III.Por otro lado es luego rango(ϕ) = rango (MB (ϕ)) = n − s. Multiplicar una fila o columna de A por una constante no nula. II o III a las matrices que se obtienen aplicando o las operaciones elementales correspondientes a la matriz identidad.. . Esto implica que rango(ϕ) = n si y solo si n − s = n si y solo si s = 0.  1 p = 0. . . . o 2. o 3. Matrices elementales En esta secci´n k es un cuerpo cualquiera.   0 ···   ..     0 . o Definici´n 4.  1      1  . Es decir que las matrices elementales son las siguientes: Matrices de tipo I:  1  . .

 . Probar que realizar una operaci´n elemental de tipo I. C´lculo del rango de una matriz.. Por otro lado multiplicar por matrices elementales equivale a realizar operaciones elementales. . .Matrices de tipo III:  1  .  .          q   . mientras que multiplicar a la matriz A por la izquierda con la matriz E equivale a intercambiar las filas 2 y 3 de A. .  1  o  1  . equivale a multiplicar a A por la derecha (izquierda) con una matriz elemental del mismo tipo. La matrices elementales son invertibles. es una operaci´n que no afecta el rango de A. o a Sea A ∈ Mn (k)...1. Ejercicio 4. Observar que la traspuesta de una matriz elemental es una matriz elemental del mismo o tipo. 8 7 .  .   1   . Observaci´n 4.. Multiplicar la matriz A (a izquierda o derecha) por una matriz invertible. Probar que las matrices elementales son invertibles y hallar sus inversas. en este caso el rango es la cantidad de unos que aparecen en la diagonal principal.1..2. 3 7  4 3 . Aplicaci´n 4. Ejercicio 4.1.   1 ···   .1.  . . . De hecho mediante este m´todo se puede transformar cualquier matriz en una e matriz diagonal que en la diagonal principal tenga entradas que son solo 0 y 1. II o III en las columnas (filas) de una o matriz A.   q ···          . De lo anterior se deduce que realizar operaciones elementales en las filas y columnas de A no afecta al rango de A. luego multiplicar por ellas deja o invariante el rango de A. Sea A =  9 4 2 y 3 en la matriz identidad    1 0 0 0 2 3 4   6 7 8  y E = 0 0 1 0 que se obtiene  0 1 0 0 1 2 3 0 0 0 1 5 6 7 (matriz de tipo I).  . ..  1 5 Ejemplo 4.   1   . Observar que tenemos      1 3 2 1 0 0 0 1 2 3 4 5 6 7 8 0 0 1 0 5 7 6     A·E = 9 1 2 3 · 0 1 0 0 = 9 2 1 4 6 5 0 0 0 1 4 5 6 7      1 2 3 1 2 3 4 1 0 0 0 0 0 1 0 5 6 7 8 9 1 2     E·A= 0 1 0 0 · 9 1 2 3 = 5 6 7 4 5 6 4 5 6 7 0 0 0 1 intercambiando las columnas Es decir que multiplicar a la matriz A por la derecha con la matriz E equivale a intercambiar las columnas 2 y 3 de A.   1   . simplemente e realizamos operaciones elementales en sus filas y columnas hasta transformarla en una matriz a la cual sea simple calcular su rango. 11  4 8 .  1  q ∈ k. Esto nos da un m´todo muy simple para hallar el rango de una matriz.

y. z) = −7x2 − 2y 2 + 7z 2 + 8xy + 2xz − 4yz. y. E2 = 0 0 1 0 0 0 0 1 0 0 0 1 4 7 9 0 Luego        1 3 1 0 0 0 1 2 3 4 1 0 0 0 0 0 1 0 2 5 6 7 0 0 1 0 3 8 t       E1 A E1 =  0 1 0 0 · 3 6 8 9 · 0 1 0 0 = 2 6 4 9 0 0 0 1 4 7 9 0 0 0 0 1        1 2 1 0 0 2 1 2 3 4 1 0 0 0 0 1 0 0 2 5 6 7 0 1 0 0 2 5 t       E2 A E2 =  0 0 1 0 · 3 6 8 9 · 0 0 1 0 = 3 6 6 11 0 0 0 1 4 7 9 0 2 0 0 1 2 6 5 7 3 6 8 15  4 9 . o Por ejemplo sean       1 0 0 2 1 0 0 0 1 2 3 4 0 1 0 0 0 0 1 0 2 5 6 7      A= 3 6 8 9 . En particular esto nos ´ dice que ϕ degenera. 7 0  6 11 . entonces realizar la misma operaci´n elemental en o las filas de A corresponde a multiplicar por la izquierda a A con E t . 1 −2 7  ∀(x.3. Luego el rango de ϕ coincide con el rango de la ultima matriz que claramente es 2. es o  −7 4 1 MC (ϕ) =  4 −2 −2 . Nuestro objetivo es obtener una forma diagonal para la matriz asociada a la forma bilineal sim´trica e ϕ ∈ BilS (V ). 15 20 Para calcular el rango de ϕ. z) ∈ R3 . Sea ϕ ∈ BilS (R3 ) tal que su forma cuadr´tica asociada es a Φ(x. observar que si primero le sumamos a la primer columna la segunda multiplicada por 2 y luego a la tercer fila le sumamos la primera multiplicada por 3. tenemos:       1 4 1 1 4 1 −7 4 1  4 −2 −2 ⇒  0 −2 −2 ⇒ 0 −2 −2 . o e siendo Q una matriz invertible.2. Aplicaci´n 4. lo cual corresponde a hallar una base ϕ-ortogonal de V . 0 10 10 −3 −2 7 1 −2 7 Ejercicio 4. E1 = 0 1 0 0 .Ejemplo 4. Diagonalizaci´n de una forma bilineal sim´trica.2. 12 . Luego si C es la base can´nica e R3 . II o III. Observar que si Q es una matriz elemental de tipo I. Probar que si realizar una operaci´n elemental en las columnas de A corresponde a multiplicar o por la derecha a A con una cierta matriz elemental E. entonces Qt A Q es la matriz que se obtiene realizando la operaci´n elemental correspondiente en las filas y columnas de A. o o e La operaci´n que nos interesa consiste en transformar una matriz sim´trica A en una de la forma Qt A Q.

0 0 1 Finalmente le sumamos a la tercer columna la primera la primera multiplicada por 3. siendo   1 0 0 E2 = 2 1 0 .2. (4) −3 0 9 1 −2 9 1 −2 7 Ahora le sumamos a la primer columna la segunda multiplicada por 2 y luego sumamos a la primer fila la segunda multiplicada por 2. (0. 1)} entonces MB (ϕ) = D y B es una base ϕ-ortogonal de R3 . (5) −3 0 9 −3 0 9 −3 0 9 multiplicada por 3 y luego sumamos a la tercer fila    1 0 0 0 0 ⇒ 0 −2 0 = D. 5. 0 0 1 Esto nos dice que si  1 0 3 Q = E1 E2 E3 = 2 1 5 . 0 0 1  B = {(1. 2. (3.       −7 4 −3 1 4 −3 1 0 −3  4 −2 0  ⇒  0 −2 0  ⇒  0 −2 0  . e Primero sumamos a la tercer columna de A = MC (ϕ) la segunda multiplicada por −1 y luego sumamos a la tercer fila la segunda multiplicada por −1. 0). 0 0 1 t t La matriz obtenida en (5) corresponde a calcular E2 E1 A E1 E2 .Mostraremos el m´todo mediante un ejemplo. siendo t t t Finalmente la matriz obtenida en (6) corresponde a calcular E3 E2 E1 A E1 E2 E3 . 1. 0 0 0 0 t Observar que la matriz obtenida en (4) corresponde a calcular E1 A E1 siendo   1 0 0 E1 = 0 1 −1 . Consideremos ϕ ∈ BilS (R3 ) definida en el Ejemplo 4.       −7 4 −3 −7 4 −3 −7 4 1  4 −2 −2 ⇒  4 −2 0  ⇒  4 −2 0  . 13 . siendo   1 0 3 E3 = 0 1 0 . 0).    1 0 −3 1 0  0 −2 0  ⇒  0 −2 −3 0 9 −3 0 (6) Luego es D = Qt A Q.

en la derecha est´ la matriz de congruencia Q. 2. 4. 6. escribimos a la izquierda la matriz A y a la e derecha la matriz identidad I. Φ es no degenerada si lo es ϕ. Veamos esto a en el ejemplo anterior:     −7 4 −3 1 0 0 −7 4 1 1 0 0  4 −2 −2 0 1 −1  ⇒ 0 1 0  ⇒  4 −2 0 1 −2 9 0 0 1 1 −2 7 0 0 1     −7 4 −3 1 4 −3 1 0 0 1 0 0  4 −2 0 0 1 −1  ⇒  0 −2 0 2 1 −1  ⇒ −3 0 9 −3 0 9 0 0 1 0 0 1     1 0 3 1 0 0 1 0 0 1 0 −3  0 −2 0 2 1 5 ⇒ 2 1 −1  ⇒  0 −2 0 0 0 1 −3 0 0 0 0 1 −3 0 9       1 0 3 1 0 0 1 0 3 1 0 0  0 −2 0 2 1 5  . o o Definici´n 5.Un m´todo para obtener la matriz Q es el siguiente. 7. ∀v ∈ V ⇒ u = 0. es decir si ϕ(u. luego D =  0 −2 0  . o a 1. Al finalizar el algoritmo. Φ es definida positiva si Φ(v) > 0. tambi´n la hacemos en las columnas de I. Q =  2 1 5  . Decimos que una forma bilineal sim´trica verifica una propiedad de las anteriores si la verifica su forma e cuadr´tica asociada. ∀v = 0. Sean ϕ ∈ BilS (V ) y Φ la forma cuadr´tica asociada a ϕ. etc´tera.1. cuando en la izquierda obtenemos la matriz diagonal D. luego realizamos operaciones elementales en A y cada vez que hacemos una operaci´n elemental en las colummnas de A. ∀v ∈ V y existe 0 = v0 ∈ V tal que Φ (v0 ) = 0. Φ es no definida si existen v1 y v2 en V tales que Φ(v1 ) > 0 y Φ(v2 ) < 0. Φ es definida negativa si Φ(v) < 0. v) = 0. Φ es definida si es definida positiva o es definida negativa. Φ es semidefinida positiva si Φ(v) ≥ 0. pero cuando hacemos o e operaciones elementales en las filas de A no hacemos nada en la matriz I. o 14 . 0 0 1 0 0 0 0 0 1 0 0 0 5. ∀v ∈ V y existe 0 = v0 ∈ V tal que Φ (v0 ) = 0. Formas bilineales sim´tricas reales e En esta secci´n el cuerpo de base k es R y V es un R-espacio vectorial de dimensi´n finita. Φ es definida positiva si y solo si ϕ es un producto interno en V . a e Observaci´n 5. 3. 5. ∀v = 0. 8. Φ es semidefinida negativa si Φ(v) ≤ 0. por ejemplo decimos que ϕ es definida positiva si lo es Φ. Φ es semidefinida si es semidefinida positiva o es semidefinida negativa.1.

. con x1 .j=1 i=1 i=1 i=p+1 p i=1 yi vi . . vj ) = x2 ϕ (vi . .  . . la dimensi´n de V+ es la cantidad de entradas diagonales positivas o o de MB (ϕ) y la dimensi´n de V− es la cantidad de entradas diagonales negativas de MB (ϕ).2. . . . . es   n n n n n Φ(v) = ϕ(v. v) = ϕ  p xi vi . yp ∈ R y alg´n yi = 0.   −ar   0   . . Sean siendo ai > 0. . . sus vectores son ϕ-ortogonales a n dos a dos. Esto prueba que Φ es definida positiva en V+ . o 15 . . .Teorema 5. Adem´s como B es una base ϕ-ortogonal. . vn } una base ϕ-ortogonal de V . . Es w = con y1 .. . V = V0 ⊕ V+ ⊕ V− . xn ∈ R. V− = [vp+1 . Φ(vi ) = 0.  . Dem. Si ϕ ∈ BilS (V ) y Φ es la forma cuadr´tica asociada a ϕ. Por otro lado observemos que si v = i=1 xi vi ∈ V . . p ∀i = p + 1. ∀i = 1. . Es decir que la matriz asociada a ϕ es  a1  . . An´logamente se prueba que Φ es definida negativa en V− . . r ∀i = r + 1. En el teorema anterior. a Observaci´n 5. . . . . n. . Φ(vi ) = −ai . MB (ϕ) =  . . . vn ]. . V+ = [v1 . vp ]. luego u p Φ(w) = i=1 2 ai yi > 0.                 0  Es claro que V = V0 ⊕ V+ ⊕ V− . . entonces existen subespacios V+ y a V− de V tales que 1. . r.   ap   −ap+1   . i=1 j=1 r = i=1 ai x2 − i ai x2 . ∀i = 1. luego V+ y V− son ϕ-ortogonales. Sea 0 = w ∈ V+ . . . . . vr ]. Podemos suponer B ordenada de forma tal que Φ(vi ) = ai . Φ es definida positiva en V+ y Φ es definida negativa en V− . Sabemos que V0 = [vr+1 . V+ y V− son ϕ-ortogonales. i xj vj  = xi xj ϕ (vi . 2. . . ..1. . vi ) i = x2 Φ (vi ) i i. . . 3. Sea B = {v1 ..

2. 1). Φ es no definida si y solo si V− = {0} y V+ = {0}. 3. Sea ϕ ∈ BilS (V ). 16 . Interpretar la observaci´n anterior en t´rminos de las entradas diagonales de una repreo e sentaci´n matricial diagonal de ϕ. 3. Ejercicio 5. Φ es definida positiva en V+ y Φ es definida negativa en V− . 1). 6. Esto da lugar a dos descomposiciones del tipo V = V+ ⊕ V− : R2 = [(1. Φ es definida positiva en W+ y Φ es definida negativa en W− . Sean V = V0 ⊕ V+ ⊕ V− y V = V0 ⊕ W+ ⊕ W− dos ϕ-descomposiciones de V . Φ es no degenerada si y solo si V0 = {0}. x. W+ y W− son ϕ-ortogonales. 2. 2. 3.3. 7. luego ϕ es no degenerada y V0 = {0}. son ϕ-ortogonales. Sea V = V0 ⊕ V+ ⊕ V− una ϕ-descomposici´n de V . V = R2 . 4. es decir 1. Si V0 = {0}. Φ es definida positiva si y solo si V− = V0 = {0}. Φ es semidefinida positiva si y solo si V− = {0} y V0 = {0}. (1. Luego no hay unicidad respecto a los subespacios V+ y V− . Φ es definida positiva en V+ y Φ es definida negativa en V− . V+ y V− son ϕ-ortogonales.1. 1)} y B = {(2. tal que Φ(x. 4. Observar que las bases C = {(1. Es f´cil de probar que el a rango de ϕ es 2.Ejemplo 5. 2)] . o Teorema 5. 8. En particular lo anterior implica que si Φ es semidefinida entonces degenera. y) = x2 − y 2 . 0)] ⊕ [(0. 5. V = V0 ⊕ V+ ⊕ V− . 2)} . Φ es semidefinida negativa si y solo si V+ = {0} y V0 = {0}. (0. Φ es definida negativa si y solo si V+ = V0 = {0}. Φ es definida positiva en V+ y es definida negativa en V− . o Observaci´n 5. entonces Φ es semidefinida positiva en V0 ⊕ V+ y Φ es semidefinida negativa en V0 ⊕ V− . 0). Sea ϕ ∈ BilS (V ). V+ y V− son ϕ-ortogonales. y ∈ R. 1)] y R2 = [(2. (1.2.1. El teorema anterior nos prueba que siempre existe una ϕ-descomposici´n de V . Definici´n 5. entonces: o o 1. 2. Decimos que dos subespacios V+ y V− forman una ϕ-descomposici´n de o o V si verifican 1.

i Φ(vi ) = −b2 . 2 s = p − q. Si ϕ ∈ BilS (V ). . . Observar que podemos escribir Φ(vi ) = a2 . Luego Φ(v) = Φ (v+ + v0 ) = Φ (v+ ) + 2 ϕ (v+ . Entonces ıa o la unica posibilidad es v = 0 y resulta W− ∩ (V+ ⊕ V0 ) = {0}. i ∀i = s + 1. . . p ∀i = 1. Sean s o la signatura de ϕ. Como es ´ V0 ⊕ V+ ⊕ V− = V ⊃ W− + (V+ ⊕ V0 ) = W− ⊕ (V+ ⊕ V0 ) . Finalmente tomando dimensiones en V = V0 ⊕ V+ ⊕ V− y V = V0 ⊕ W+ ⊕ W− deducimos que dim V+ = dim W+ . Entonces el ´ u ındice de Φ es p y tenemos las siguientes relaciones 1 p = (r + s). entonces existe una base ϕ-ortonormal de V . . . . . o Corolario 5. 17 . 2 En particular es 2p = r + s. si fuese v = 0 ser´ Φ(v) < 0 lo cual nos lleva a una contradicci´n. . . entonces existen unicos v0 ∈ V0 y v+ ∈ V+ tales que ´ v = v+ + v0 . n. . p el n´mero de entradas positivas de MB (ϕ).3. v0 ) + Φ (v0 ) = Φ (v+ ) ≥ 0. n. Observaci´n 5. o Dem. . El n´mero de entradas positivas.4.3 (Ley de inercia de Sylvester). Luego es dim V− ≥ dim W− . . . . . Proposici´n 5. Φ(vi ) < 0. r el rango de ϕ. . La o signatura. el ´ ındice y el rango son los invariantes de Φ. p ∀i = s + 1. Sean V = V0 ⊕ V+ ⊕ V− una ϕ-descomposici´n de V . . Sea B = {v1 . ∀i = p + 1. 1 q = (r − s). Como v ∈ V+ ⊕ V0 . . r =p+q t = n − r. . Φ(vi ) > 0. Por otro lado.2 se deduce inmediatamente el siguiente. luego los tres invariantes quedan determinados conociendo dos de ellos. . vn } una base ϕ-ortogonal de V . Del teorema anterior y la Observaci´n 5. Dem. Consideremos ϕ ∈ BilS (V ) siendo dim V = n y B una base ϕ-ortogonal de V . a o Definici´n 5. deducimos dim V0 + dim V+ + dim V− ≥ dim W− + dim V+ + dim V0 . Llamamos ´ o o ındice de Φ a dim V+ y signatura de Φ a dim V+ − dim V− .4. Podemos suponer B ordenada de forma tal que Φ(vi ) = 0. . Razonando an´logamente con V− ∩(W+ ⊕ V0 ) deducimos que dim W− ≥ dim V− a y resulta dim V− = dim W− . como v ∈ W− . s ∀i = p + 1.Entonces dim V+ = dim W+ y dim V− = dim W− . . . negativas y nulas de una u matriz diagonal asociada a una forma cuadr´tica no depende de la representaci´n diagonal. Por el teorema anterior esta definici´n no depende de V+ y V− . q el n´mero de entradas u u negativas de MB (ϕ) y t el n´mero de entradas nulas de MB (ϕ). Sea v ∈ W− ∩ (V+ ⊕ V0 ).

.6. u Definici´n 5. Si A es una matriz sim´trica real. y ∈ R. n.siendo ai > 0. ∀i = p + 1. . Sea ϕ ∈ BilS (V ). En el ejemplo 5. V = R2 . La Ley de Inercia de u Sylvester para matrices nos garantiza que esta definici´n no depende de la matriz diagonal D. tal que Φ(x. n. . De la Ley de Inercia de Sylvester para matrices se deduce inmediatamente que si dos o matrices sim´tricas son congruentes. Sea A ∈ Mn (R) sim´trica y D una matriz diagonal congruente con A. . Dem. . p y bi > 0. negativas y nulas de D depende solo de ϕ (por lo tanto de A) y no de D. .5 (Ley de inercia de Sylvester para matrices). . entonces el o e n´mero de entradas positivas. . ∀i = s + 1. . .√ .1 vimos que 1 1 2 2 √ . 1). . . Sea ϕ ∈ BilS (Rn ) definida por ϕ(u. . entonces tienen los mismos invariantes. . 2)} es una base ϕ-ortogonal de R2 . o Observar que el ´ ındice y la signatura de A coinciden con el ´ ındice y la signatura de ϕA ∈ BilS (Rn ) t A v. p ai ai 1 1 vi = 2 Φ (vi ) = −1. . luego 3 3 (otra base ϕ-ortonormal es la can´nica). . . Definimos wi = vi . (1.5. . √3 es una base ϕ-ortonormal de R2 {(2.4. y) = x2 − y 2 . Luego la Ley de inercia de Sylvester nos dice que el n´mero de entradas positivas. √3 . . . bi bi Luego C es una base ϕ-ortonormal de V . Definimos el ´ o e ındice de A como el n´mero de entradas diagonales positivas de D y la signatura de A como la diferencia entre el u n´mero de entradas diagonales positivas y el de entradas diagonales negativas de D. ∀i = s + 1. ∀i = 1. . entonces existe B base de Rn tal que MB (ϕ) = D. . . . x. . e Teorema 5. ∀i = s + 1. wn } es claramente ϕ-ortogonal y Φ(wi ) = Φ Φ(wi ) = Φ 1 1 vi = 2 Φ (vi ) = 1. . ∀i = p + 1. el ´ definida por ϕA (u. Si A es una matriz sim´trica real. o Proposici´n 5. bi La base C = {w1 . Ejemplo 5. . entonces A es congruente con una unica matriz diagonal e ´ 18 . Si D es una matriz diagonal congruente con A. p ai 1 wi = vi . . v) = ut A v. Observaci´n 5. v) = u ındice y el rango son los invariantes de la matriz sim´trica e A. .2. . La signatura. s 1 wi = vi . n. . ∀i = p + 1. . negativas y nulas de una matriz diagonal congruente con A es independiente u de la matriz diagonal.

. n. ˆ resulta que D y D tienen la misma cantidad de entradas diagonales que valen 1 y la misma cantidad de ˆ entradas diagonales que valen −1. entonces el conjunto B es una base ortonormal de V y Q = C [id ]B . Luego A y B son congruentes entre s´ ı.4 sabemos que existe B o base ϕA -ortonormal de Rn . . vn } el conjunto definido por vj = n qij wi . Sea ϕA ∈ BilS (Rn ) definida por ϕA (u. Q es ortogonal y D = Q−1 A Q = Qt A Q.D de la forma Dem.. si A y B son matrices sim´tricas. luego existen matrices D y Q = (qij ) en Mn (R) tales que D es diagonal. . Sea ϕ ∈ BilS (V ). . Dos matrices sim´tricas reales son congruentes si y solo si tienen los mismos invariantes. Como el ı ´ ındice de una matriz de esta forma es la cantidad de entradas diagonales que valen 1 y la signatura es la diferencia entre la cantidad de entradas diagonales que valen 1 y la de entradas diagonales que valen −1. Si D = MB (ϕA ). Como la cantidad de entradas diagonales que valen 1 y la cantidad de entradas diagonales que valen −1 en DA y DB depende solo de los invariantes de A y de B respectivamente y estos coinciden. entonces podemos considerar B ordenada de forma tal que D tiene la forma (7). luego D = D. Entonces existe una base ortonormal B de V tal que MB (ϕ) es diagonal.7. siendo D y D matrices diagonales ˆ de la forma (7). Dem.   −1   0   . entonces sabemos que A es congruente e con una unica matriz diagonal DA de forma (7) y B es congruente con una unica matriz diagonal DB de ´ ´ forma (7). . e Dem. . . entonces DA = DB . Como la matriz Q es ortogonal i=1 y la base C es ortonormal. . . j = 1. Sea C = {w1 . . La matriz A es sim´trica e real.  0  (7) 19 . entonces tienen los mismos e invariantes. Ya sabemos que si dos matrices sim´tricas reales son congruentes. Si C es la base can´nica de Rn .     1   −1   . . .8. Luego D = Qt A Q = (C [id ]B )t MC (ϕ) C [id ]B = MB (ϕ). ˆ ˆ Para probar la unicidad.. si la matriz A es congruente con D y con D. . . Para probar el rec´ ıproco. . Corolario 5. siendo Q = C [id ]B . wn } una base ortonormal cualquiera de V y A = MC (ϕ). entonces D y D son congruentes entre s´ y luego tienen los mismos invariantes. . entonces es A = MC (ϕA ) y D = Qt A Q. Por la Proposici´n 5. o Esto prueba la existencia de la matriz D. siendo V un espacio vectorial real con producto interno de dimensi´n o finita. Teorema 5. v) = ut A v.         D=         1 . Sea B = {v1 ..

Por la Ley de Inercia de Sylvester. negativos y nulos de A. Entonces la cantidad de entradas diagonales positivas. Hiperboloide de una hoja: 2.Corolario 5. Punto: x2 a2 x2 a2 x2 a2 x2 a2 x2 a2 + − y2 b2 y2 b2 − − z2 c2 z2 c2 = 1. Qt = Q−1 . Paraboloide hiperb´lico: o x2 a2 − − z = 0.9. Hiperboloide de dos hojas: 3.e. = 1. y2 b2 6. 1. z) ∈ R3 : a11 x2 + a22 y 2 + a33 z 2 + 2 a12 xy + 2 a13 xz + 2 a23 yz + b1 x + b2 y + b3 z + c = 0 . tenemos que los valores propios de D coinciden con sus entradas diagonales. Elipsoide: 4. B una base de V y A = MB (ϕ). a Ejemplos con det A = 0. el unico producto interno de V que hace que B sea una base ortonormal de V . 0)). ˜ ˜ Como B y B son dos bases ortonormales. a31 a32 a33 6. 1. ˜ Q = B [id ]B .1. Aplicando el ´ ˜ teorema anterior sabemos que existe una base ortonormal B de V tal que D = MB (ϕ) es diagonal. Cono: 5. Conjunto vac´ ıo: x2 a2 + + z2 c2 = −1.   a11 a12 a13 siendo A =  a21 a22 a23  = 0. Luego es ˜ A = MB (ϕ) = Qt MB (ϕ) Q = Qt D Q. o Sea . Ejemplos con det A = 0. + y2 b2 + z2 c2 = 1. y. Sea ϕ ∈ BilS (V ). Luego ˜ −1 D Q y resulta que A y D tienen los mismos valores propios. + + y2 b2 y2 b2 − + z2 c2 z2 c2 = 0. negativas y nulas de D es la cantidad de valores propios positivos. negativos y nulos de D y estos coinciden con los de A. Por otro lado. Luego la cantidad de entradas diagonales positivas. y. = 0 ((x. Superficies cu´dricas a Definici´n 6. z) = (0.1. 20 . Dem. Ejemplos de superficies cu´dricas. basta probar que se cumple el enunciado para alguna representaci´n matricial diagonal de ϕ. 6. 0. entonces Q = B [id ]B es una matriz ortogonal i. como D es una matriz A=Q diagonal. Paraboloide el´ ıptico: x2 a2 + y2 b2 − z = 0. y2 b2 2. Una superficie cu´drica es un subconjunto de R3 de la forma o a S = (x. negativas y nulas de una representaci´n matricial diagonal cualquiera de ϕ coincide o respectivamente con la cantidad de valores propios positivos.

6.3. Y ) = X. 0 0 λ3 21 . y. A X . α(X) = X. − y2 b2 6. y.2. Un plano (doble): 9. el producto interno usual (escalar) de R3 . y2 b2 4. Sea S = (x. o a Lo que probaremos a continuaci´n es que toda superficie cu´drica coincide con una de las anteriores. = −1. Una recta (doble): 10. Clasificaci´n de superficies cu´dricas. Cilindro hiperb´lico: o 5. + y2 b2 = 0 (x = 0 e y = 0). z) ∈ R3 : a11 x2 + a22 y 2 + a33 z 2 + 2 a12 xy + 2 a13 xz + 2 a23 yz + b1 x + b2 y + b3 z + c = 0 . A Y . z) = b1 x + b2 y + b3 z. Observar a e     b1 x que si escribimos X =  y y B =  b2 . a31 a32 a33  Definimos Φ : R3 → R y α : R3 → R mediante: Φ(x. y. Cilindro parab´lico: o x2 a2 x2 a2 − = 1. Luego S = X ∈ R3 : Φ(X) + α(X) + c = 0 . = 0 (x = 0). una e  λ1 0 0 siendo D =  0 λ2 0 . Sea ϕ la forma bilineal sim´trica asociada a Φ. a o a menos de trasladar. B . entonces existe Q ∈ M3 (R) matriz ortogonal tal que Qt A Q = D. rotar o intercambiar los ejes de coordenadas. Como A es  matriz sim´trica real. Observar que det A = λ1 λ2 λ3 . ϕ(X. − y = 0. siendo . Claramente Φ es una forma cuadr´tica y α ∈ R3 . ∗ α(x. Dos planos paralelos: 7. = 1 (x = a y x = −a). z) = a11 x2 + a22 y 2 + a33 z 2 + 2 a12 xy + 2 a13 xz + 2 a23 yz. Dos planos secantes: 8.  a11 a12 a13 siendo A =  a21 a22 a23  = 0 . entonces es b3 z Φ(X) = X t A X = X. Conjunto vac´ ıo: x2 a2 x2 a2 x2 a2 x2 a2 x2 a2 = 0 (x − a y b =0y x a + y b = 0). Cilindro el´ ıptico: x2 a2 + y2 b2 = 1. ∀X ∈ R3 .

Si λ1 . 1. entonces S es un elipsoide. ˜ siendo d = Φ(X0 ) + α(X0 ) + c. entonces S es un punto. Es ıa   x ˆ ˜ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ Φ(X) = Φ(Q X) = (Q X)t A Q X = X t Qt A Q X = X t D X = λ1 x2 + λ2 y 2 + λ3 z 2 . B + Φ(X0 ) + α(X0 ) + c ˜ ˜ = Φ(X) + X. Como Q es una matriz ortogonal. Si λ1 . entonces S es un hiperboloide de una hoja. Si sg λ1 = sg λ2 = sg λ3 = sg d. 3. 2. A menos de intercambiar x. Caso det A = 0 (λ1 λ2 λ3 = 0). Consideremos ahora el caso en que d = 0. Si λ1 . λ2 . λ2 y λ3 tienen el mismo signo. 22 . 2 A X0 + B + Φ(X0 ) + α(X0 ) + c ˜ = Φ(X) + d. y y z es o ˆ ˆ ˆ S : λ1 x2 + λ2 y 2 + λ3 z 2 + d = 0. Entonces la ecuaci´n de S respecto a las coordenadas X es o ˜ S : Φ(X) + d = 0. λ3 tienen el mismo signo y este signo es distinto del signo de d. 1 B + 2 A X0 = 0 ⇔ X0 = − A−1 B. λ2 . 2 En este caso la matriz A es invertible. A X0 + X. 4. X =  y  . λ2 y λ3 no tienen el mismo signo. ˆ ˆ ˆ Consideremos primero el caso en el cual d = 0. ˆ ˆ ˆ z ˆ Entonces la ecuaci´n de S respecto a las coordenadas x. X0 ) + Φ(X0 ) + α(X) + α(X0 ) + c ˜ ˜ ˜ = Φ(X) + 2 ϕ(X.3. λ3 y d tienen el mismo signo. 2. Si λ1 . Si sg λ1 = sg λ2 = sg λ3 = sg d. ˜ ˆ Realizamos el cambio de variable X = Q X. luego existe un unico X0 ∈ R3 tal que ´ ˜ Realizamos el cambio de variable X = X + X0 (traslaci´n de ejes). y y z tenemos los casos siguientes: ˆ ˆ ˆ 1.6. luego o ˜ ˜ Φ(X) + α(X) + c = Φ(X + X0 ) + α(X + X0 ) + c ˜ ˜ ˜ = Φ(X) + 2 ϕ(X. entonces S es el conjunto vac´ ıo. esto corresponde realizar un giro de ejes (det Q = 1) o un giro de ejes seguido de una simetr´ especular (det Q = −1). entonces S es un cono. entonces S es un hiperboloide de dos hojas. X0 ) + α(X) + Φ(X0 ) + α(X0 ) + c ˜ ˜ ˜ = Φ(X) + 2 X.

Si ∆ > 0. 2. 2π] tal que a = cos ω y b = sen ω. y y z β3 b3 z ˜ es S : λ1 x2 + λ2 y 2 + λ3 z 2 + β1 x + β2 y + β3 z + c = 0. entonces S es un plano (doble): x = ˜ −β1 2 λ1 . entonces S son dos planos paralelos: x = ˜ 3. Tenemos las siguientes posibilidades: 1. Para estos valores de a y b la x ecuaci´n de S respecto a las coordenadas x. Esto asegura la existencia de a y b. entonces S es el conjunto vac´ ıo.      β1 b1 x ˜ ˜ ˜ o ˜ ˜ ˜ Sean X =  y  y  β2  = Qt  b2 . Entonces la ecuaci´n de S respecto a las coordenadas x. Es S : λ1 x2 + β1 x + β2 y + β3 z + c = 0.6. ˜ ˜ ˜ ˜ ˜ ˜  Observar que como A = 0. entonces realizamos el cambio de variable  z = by + az ˜ ˆ ˆ S: S: λ1 x2 + β1 x + β2 (a y − b z ) + β3 (b y + a z ) + c = 0 ˆ ˆ ˆ ˆ ˆ ˆ ⇒ λ1 x2 + β1 x + (β2 a + β3 b) y + (β3 a − β2 b) z + c = 0 ˆ ˆ ˆ ˆ β3 a − β2 b = 0 a2 + b2 = 1 Observar que a y b se obtienen intersectando la circunferencia x2 + y 2 = 1 con la recta β3 x − β2 y = 0. y y z queda o ˆ ˆ ˆ S : λ1 x2 + β1 x + γ y + c = 0. λ2 = 0. B + c = X t D X + X. Caso det A = 0 (λ1 λ2 λ3 = 0). Qt B + c.3. Caso λ1 = 0. ˜ ˜ ˜ ˜ ˜ ˜ ˜ ˜ Φ Q X + α Q X + c = X t D X + Q X. λ2 = λ3 = 0 y λ1 = 0. √ −β1 + ∆ 2 λ1 yx= ˜ √ −β1 − ∆ . Si ∆ < 0. entonces no puede ser λ1 = λ2 = λ3 = 0. λ2 = λ3 = 0. adem´s implica que existe ω ∈ [0.1. luego γ = β2 a + β3 b = 0 o y S es un cilindro parab´lico. luego a menos de intercambiar los ejes tenemos dos posibilidades: λ1 = 0. luego a el cambio de coordenadas representa un giro de ejes alrededor del eje O˜. Si ∆ > 0. 2 λ1 23 . ˜ ˜ ˜ ˜  ˜ ˆ  x=x y = a y − b z y obtenemos ˜ ˆ ˆ Si β2 = 0 o β3 = 0. entonces: S : λ1 x2 + β1 x + c = 0. Elegimos a y b tales que Observar que las rectas de ecuaci´n β2 x + β3 y = 0 y β3 x − β2 y = 0 no coinciden. ˜ En este caso realizamos primero el cambio de variable X = Q X. ˜ ˜ 2 Sea ∆ = β1 − 4 λ1 c. λ3 = 0. ˆ ˆ ˆ con γ = β2 a + β3 b. o Si β2 = β3 = 0.

ˆ b) Si sg λ1 = sg λ2 = sg η.4. ˜ ˜ ˜ ˜ ˜ Si hacemos la traslaci´n de ejes o  1  x = x − 2βλ  ˜ ˆ 1 2 y = y − 2βλ2 . entonces S es la recta (doble) x = 0 y y = 0. 2). entonces S son dos planos secantes y = 2. entonces S es el conjunto vac´ ıo. entonces S es un cilindro hiperb´lico. ˆ ˆ ˆ −λ1 λ2 xey=− ˆ −λ1 λ2 x. entonces S es un paraboloide hiperb´lico. λ2 = 0 y λ3 = 0. 0). ˜ ˜ ˜ ˜˜ Observar que det A = −3 implica que el producto de los valores propios de A es negativo. −1. Si η = 0.Caso λ1 = 0. luego realizando el cambio de variable x = x − 1. siendo B = (4. Calculando obtenemos X0 = (−1. y = y + 2 y z = z obtenemos ˜ ˜ ˜ S : 2 x2 + y 2 − z 2 + 2 xz − 3 = 0. 2. o Es S : λ1 x2 + λ2 y 2 + β3 z + η = 0. Es S : λ1 x2 + λ2 y 2 + β1 x + β2 y + β3 z + c = 0. por otro lado la suma de los valores propios de A coincide con tr A = 2 > 0. Si sg λ1 = sg λ2 . Si sg λ1 = sg λ2 . entonces tenemos dos posibilidades: a) Si sg λ1 = sg λ2 . Ejemplo   2 0 1 Sea S : 2 x2 + y 2 − z 2 + 2 xz + 4 x − 4 y + 2 z + 3 = 0. luego det A = −3 = 0 1 0 −1 y sabemos que existe un vector X0 tal que 2 A X0 + B = 0. 1. Es S : λ1 x2 + λ2 y 2 + η = 0 ˆ ˆ 1. entonces S es un paraboloide el´ ıptico. o a 6. luego necesariamente hay un valor propio 24 . Es A =  0 1 0  . ˆ ˆ b) Si sg λ1 = sg λ2 . Caso β3 = 0. Caso β3 = 0. y y z queda o ˆ ˆ ˆ S : λ1 x2 + λ2 y 2 + β3 z + η = 0. c) Si sg λ1 = sg λ2 . 2. ˜ ˆ   z=z ˜ ˆ entonces la ecuaci´n de S respecto a las coordenadas x. Si η = 0 entonces tenemos dos posibilidades: a) Si sg λ1 = sg λ2 = sg η. ˆ ˆ ˆ siendo η = c − 2 β1 4 λ1 − 2 β2 4 λ2 . o Esto concluye la clasificaci´n de las superficies cu´dricas. entonces S es un cilindro el´ ıptico.

. . . vi . . . vi . ˜ ˆ Luego realizando el cambio de variable X = Q X obtenemos una ecuaci´n de la forma a2 x2 +b2 y 2 −c2 z 2 −3 = o ˆ ˆ ˆ 2 . . . . . vi . . . . o √ −1− 13 . vj . . . . vi . . . . . . . vn ) = 0. . . si car k = 2 y ω es una n-forma multilineal que verifica (9) entonces verifica (8): Sean v1 . . . . vj . . . estos son 1. En efecto. . . . . . . . Utilizando (9) y que vi = vj obtenemos: ω (v1 . . . . vn ) = −ω (v1 . . . . . . . vi . . . . . . . vn ∈ V con vi = vj e i = j. . . . . . . . luego ω (v1 . . . entonces verifica: ω (v1 . . . vj . . vj . . . vn ). . vn ) = 0 (8) cada vez que existan i = j tales que vi = vj . . . . . . . . . . . . . vi . . . 25 ∀i = j. . . . . . . . . . . . vi . . . vn ) + ω (v1 . . . 2 √ −1+ 13 2 Observar que en este caso podemos hallar expl´ ıcitamente los valores propios. . vj . vj . . vj . . . . vj . . . . . . . . . . . vj . . vi . Observar que lo anterior prueba que (8) y (9) son equivalentes si car k = 2. vj . . vi . . vj . . . . . . . . . . vj . . (9) . . . . . . vj . vi . . ˆ 7. . . . . . . . . . vn ) + ω (v1 . vn ) + ω (v1 . vi . . vi . . . . vn ) = −ω (v1 . . . . . . vi + vj . . . . . vj . . . Luego 2 ω (v1 . . . . . vi . b2 y −c2 los valores propios de A. . . . . . vi . . luego la ecuaci´n de S queda o 1 2 x + ˆ 3 √ −1 + 13 6 √ 6 y y − ˆ 2 1+ 13 z 2 = 1. . . . vi . vn ) . . . . . vn ) + 0 = ω (v1 . vn ∈ V. . . vn ) . . vn ) = 0 y como car k = 2 es ω (v1 . . . vn ) . . . . . . . . . . Formas multilineales alternadas Sea V un k-espacio vectorial y n un entero positivo. . Rec´ ıprocamente. . . . . . Una n-forma multilineal ω en V se dice alternada si verifica: ω (v1 . . siendo a a2 2 b2 2 c2 2 x + y − z =1 ˆ ˆ ˆ 3 3 3 que es la ecuaci´n de un hiperboloide de una hoja. . . . Operando llegamos a 0. . . . . . . vi + vj . vn ) = ω (v1 . . . . . . . . . . vj . . vj . vj . El valor de d se obtiene substituyendo las coordenadas de X0 en la f´rmula que o define a S: d = 2(−1)2 + (2)2 − (0)2 + 2(−1)(0) + 4(−1) − 4(2) + 2(0) + 3 = −3. vi . . . . . . . es 0 = ω(v1 . . . . . vi . . . . .negativo y dos positivos. vn ) +ω (v1 . . vn ) = −ω (v1 . . . . vn ) + ω (v1 . vn ) = −ω (v1 . v1 . vj . . . . vj . . . . . . vi . . vn ) = 0 + ω (v1 . . . . . . . vi . Observar que si ω es una n-forma alternada. . .

. v1 = n1 =1 aj1 ej1 . xnn . Supongamos que {e1 . . . z)  −x′ + 2 z ′  = (x. . . . z). . . . ik ∈ {1. Dem. . ∀j1 . o Dem. . Observar que Alt1 (V ) = V ∗ . (x′ . . . . en } es una base de V y ω ∈ Altk (V ). . luego ω (ej1 . ∀i1 . . . . ejk necesariamente hay elementos repetidos. y. Es claro que ω = 0 implica (11). y ′ . Si V = R3 . . . . x′ . .1. . ··· x1n . . . Entonces ω = 0 o si y solo si ω (ei1 . . .2. . Definimos Alt0 (V ) := k. (11) ajk ejk  =  n j1 =···=jk =1 aj1 · · · ajk ω (ej1 . . y. . Consideremos {e1 . .2. . . z)  −1 0 0 −2 −2 y ′ − 2 y′ z  ′  x 0 2   y′  . Altk (V ) = {0} para todo k > n. . . . . . . . . xnn )) = x11 . . 2. . jk =1 j1 =1 Como k > n. vk ) = ω   n n aj1 ej1 . definimos ω ∈ Altn (V ) mediante la funci´n determinante: o ω ((x11 . eik ) = 0. . jk y ω(v1 . Observar que la matriz en la igualdad a (10) es antisim´trica. . o Proposici´n 7. e Ejemplo 7. . . . . Si V = Rn . . luego j j ω(v1 . (x1n . . . Observar que podemos reescribir ω mediante: ω (x. z′ 0 (10) De esta forma es f´cil probar que ω es una 2-forma alternada en R3 . vk ∈ V . . luego Altk (V ) es un espacio vectorial. .1. xn1 ) . vk ) = 0. y ′ . . . . z ′ = x y ′ − y x′ + 2 y z ′ − 2 y ′ z = x y ′ + y −x′ + 2 z ′    y′ 0 1 = (x. . . . . vk = nk =1 ajk ejk . . y. . . . . y. . . ejk ) = 0. . xn1 · · · De ahora en adelante supondremos que V es un espacio vectorial de dimensi´n finita n. Como v1 . Sean v1 . . n} tales que 1 ≤ i1 < i2 < · · · < ik ≤ n. k ≤ n. Es un ejercicio el verificar que Altk (V ) es un subespacio del espacio de las k-formas multilineales en V . k k = 1. en el conjunto ej1 . en } una base de V y sea ω ∈ Altk (V ). . es decir verifica At = −A. . .Escribiremos Altk (V ) = {ω : V × · · · × V → k : ω es una k-forma multilineal alternada}. 26 . . . . z ′ )) = x y ′ −y x′ +2 y z ′ −2 y ′ z. . . z). ejk ) . Ejemplo 7. definimos ω ∈ Alt2 (V ) mediante ω ((x. . vk ∈ V son arbitrarios se deduce que ω = 0 Proposici´n 7.

. entonces la condici´n de que ω sea alternada se refleja en o ω vτ (1) . . . . vτ (k) = −ω (v1 . entonces De hecho este resultado se generaliza al siguiente (omitimos la prueba): Proposici´n 7. Si σ ∈ Sn . . (12) Dem. . . ejk ). j ∈ {1. . . k}. . . . entonces ω (ej1 . .3. . . . . . . . ∀v1 . ı Recordemos c´mo se calcula el signo de una permutaci´n. . . . 4. vk ) = 0. vk ∈ V. . 1 2 3 4 3 1 4 2 . vσ(k) = sg(σ) ω (v1 . . . . v1 = ω(v1 . . luego aj1 ej1 . . Llamaremos Sn al conjunto de permutaciones de n elementos. Sea ω ∈ Altk (V ) y σ ∈ Sk . . . . . . . . . . . cada intercambio corresponde a un cambio de signo en ω. . . . ik ∈ {1. n} tales que 1 ≤ i1 < i2 < · · · < ik ≤ n. ejk ) = 0. o Observaci´n 7. . . . . . . . en } es una base de V y ω. . . . . Luego todos los sumandos de (12) son nulos y ω(v1 . . . . Por ejemplo. . . . ∀v1 . . eik con 1 ≤ i1 < i2 < · · · < ik ≤ n. . . . vk ∈ V.4. . Aplicar la proposici´n anterior a ω − η ∈ Altk (V ). . . si σ = o o en la cuaterna (3. Corolario 7. ejk son distintos entre s´ podemos reordenarlos para obtener un conjunto ei1 . . . . ∀i1 . . a o El 1 no esta en inversi´n con ninguno. . i = j y definimos τ ∈ Sk como la trasposici´n que o intercambia i con j. eik ) = 0. . vk ) . . . n . o el 4 est´ en inversi´n con el 2. . 1. 27 . . 2) tenemos: el 3 est´ en inversi´n con el 1 y el 2. . Supongamos que {e1 . . . llamaremos sg(σ) al signo de σ. k ≤ n. si ej1 . vk = n jk =1 ajk ejk . . . n} en s´ mismo. . eik ) . Entonces ω = η si y solo si ω (ei1 . ejk ) a la k-upla (ei1 . Como v1 . . Es decir que Sn es el conjunto o de biyecciones del conjunto {1. . . . . . 2. . . eik ) realizando una cantidad finita de intercambios entre los elementos de (ej1 . . vk ) = ω   n n n j1 =1 aj1 ej1 . a o luego el n´mero total de inversiones es 2 + 0 + 1 = 3 y por lo tanto sg(σ) = (−1)3 = −1. entonces o ω vσ(1) . . . . ejk ) . jk =1 j1 =1 Observar que si existen p = q tales que ejp = ejq . Consideremos i. . . . . . vk ∈ V son arbitrarios se deduce que ω = 0. . Por otro lado. Notar que siempre podemos pasar de la k-upla (ej1 . . . . ejk ) = ± ω (ei1 . . . de donde aplicando (11) obtenemos ω (ej1 . vk ∈ V . .Supongamos que ω verifica (11). . . . . ı.1. eik ) = η (ei1 . Sean v1 . . vk ) . u Sea ω ∈ Altk (V ). η ∈ Altk (V ). ajk ejk  =  j1 =···=jk =1 aj1 · · · ajk ω (ej1 .

v. β ∈ V ∗ es α ∧ β ∈ Alt2 (V ) y (α ∧ β) (u. 2 e∗ (x. α1 . y ′ . ∀σ ∈ Sk . αk (v1 ) · · · α1 (vk ) . . e3 } la base can´nica y {e∗ . . . 2. e3 } la base can´nica y {e∗ . y ′ . . . {e1 . . y ′′ . e∗ (x. w) = α(u) α(v) α(w) β(u) β(v) β(w) γ(u) γ(v) γ(w) Si consideramos de nuevo V = R3 .3. . z) = z. αk (vk ) ∀v1 . entonces ω = e∗ ∧ e∗ + 2 e∗ ∧ e∗ . x′′ . ασ(1) ∧ · · · ∧ ασ(k) = sg(σ) α1 ∧ · · · ∧ αk . 3 Observar que si ω es la 2-forma del ejemplo 7. z ′ 1 2 (e∗ ∧ e∗ ) (x. vv ∈ V. = y z′ − z y′ . 1 2 2 3 Ejemplo 7. . . z ′ . αk ∈ V ∗ . Si α. . . y ′ . x′ .Definici´n 7. ∀α. 3. e2 .1. y ′ . x′ . z). Si existen i = j tales que αi = αj . x′ . 1 Entonces (e∗ ∧ e∗ ) (x. x′ . z) = x. z). e∗ . v ∈ V. . . . . {e1 . y. y. y.1. entonces α1 ∧ · · · ∧ αi ∧ · · · ∧ αj ∧ · · · ∧ αk = 0. z ′ 2 3 = = = x x′ y y′ x x′ z z′ y y′ z z′ = x y ′ − y x′ . entonces o 1 2 3 (e∗ ∧ e∗ ∧ e∗ ) (x. e∗ } la base dual en V ∗ . Si α. z). .4. ∀u. y. vk ) = α1 (v1 ) · · · . z ′′ 1 2 3 = x x′ x′′ y y ′ y ′′ z z ′ z ′′ . = x z ′ − z x′ . z). y. . . v) = α(u) α(v) β(u) β(v) = α(u) β(v) − α(v) β(u). es decir o 1 2 3 e∗ (x. β ∈ V ∗ . La prueba de las siguientes propiedades es simple y queda como ejercicio. e∗ } la base dual en V ∗ . γ ∈ V ∗ es α ∧ β ∧ γ ∈ Alt3 (V ) y (α ∧ β ∧ γ) (u. Ejemplo 7. 1. e∗ . . Claramente α1 ∧ · · · ∧ αk ∈ Altk (V ). e2 . definimos α1 ∧ · · · ∧ αk : V × · · · × V → k mediante o k (α1 ∧ · · · ∧ αk ) (v1 . . y. z ′ 1 3 (e∗ ∧ e∗ ) (x. Consideremos V = R3 . α ∧ α = 0 y α ∧ β = −β ∧ α. y. . β. en particular α1 ∧ · · · ∧ αi ∧ · · · ∧ αj ∧ · · · ∧ αk = −α1 ∧ · · · ∧ αj ∧ · · · ∧ αi ∧ · · · ∧ αk . Si α1 . 28 . z) = y. αk ∈ V ∗ .

eik ) = 1. jk ) = 1≤i1 <···<ik ≤n ai1 . . es decir que existen unicos ai1 . . . .. . . . luego la ecuaci´n (13) equivale a i i ω (j1 . . n ≥ k. . . Entonces en la suma de la ecuaci´n (13) el unico t´rmino no nulo corresponde al caso i1 = j1 . . n} y ω ∈ Altk (V ).3. . (B) si {j1 . .. es e∗1 (ejl ) = · · · = e∗k (ejl ) = 0. . . ik }. 1 e∗1 ∧ · · · ∧ e∗k (ej1 . ik } siendo 1 ≤ j1 < · · · < jk ≤ n y 1 ≤ i1 < · · · < ik ≤ n. . . . . ejk ) = e∗1 ∧ · · · ∧ e∗k (ei1 . . . luego necesariamente es i1 = j1 . i i Observar que aplicando el Corolario 7. Sea {e1 . . ik }. n} con 1 ≤ j1 < · · · < jk ≤ n. 1 ≤ j1 < · · · < jk ≤ n Esto concluye la prueba de que B es base de Altk (V ). . . Sea k ∈ {1. i i 1≤i1 <···<ik ≤n Recordemos el s´ ımbolo combinatorio n k = n! (n−k)!k! que est´ definido para todo n. e∗ } la base dual en V ∗ . . . . jk } = {i1 . . jk } = {i1 . . .. . . . . . . . . . . .5. ..jk . . . obtenemos que se verifica esta ultima igualdad si y solo si ´ ω (j1 . .. = (14) En el caso (A). . luego en el determinante de la ecuaci´n (14) la columna o i i ∗ ∧ · · · ∧ e∗ (e . . . . Si dim V = n y k ≤ n. 1 ≤ i1 < · · · < ik ≤ n tales que ´ ω= 1≤i1 <···<ik ≤n ai1 . jk ) = aj1 . eik ) e∗1 ∧ · · · ∧ e∗k .. entonces n 1 B = e∗1 ∧ · · · ∧ e∗k : 1 ≤ i1 < · · · < ik ≤ n i i es una base de Altk (V ).. . . . en } una base de V y {e∗ . Probaremos que ω se escribe en forma unica como combinaci´n ´ o lineal de B. . ik = jk y 1 0 ··· 0 1 ··· . . e∗k i (ejk ) (A) si ∃l : jl ∈ {i1 .. . . . . . ejk ) = i i e∗1 (ej1 ) · · · i . . k ∈ N. l-´sima es nula y resulta ei1 e j1 jk ik En el caso (B) es {j1 . . ... . . .. . . . . . . . ∀j1 . . . eik ) = i i i i = 1. adem´s obtuvimos c´mo representar una k-forma ω a o en t´rminos de esta base: e ω= ω (ei1 ..ik e∗1 ∧ · · · ∧ e∗k (ej1 . . e∗k i (ej1 ) · · · e∗1 (ejk ) i . . . . n. e ) = 0. .. . . . .ik e∗1 ∧ · · · ∧ e∗k . . . . ik = jk o ´ e o y en ese caso es e∗1 ∧ · · · ∧ e∗k (ei1 . n}. . .. . . . .Teorema 7. . Dem. . ejk ) . . . . . .. i i (13) para todo j1 .. . . .ik ∈ k. .6. jk ∈ {1. a n k Corolario 7. . .. . . jk ∈ {1. . 0 0 ··· 0 0 . . Calculando tenemos dos casos posibles: e∗1 ∧ · · · ∧ e∗k (ej1 . entonces dim Altk (V ) = 29 . . para todo k = 1.

. dim Alt1 (V ) = 1 2 3 {e∗ ∧ e∗ . .3 y 7.5. e3 } una base de V . e∗ (x1n . e∗ } es una base de Alt1 (V ) = V ∗ . . e∗ (x11 . . . ··· x1n . . n n = 1 y e∗ (x1n . . n 1 30 . En el caso de V = R3 estas bases fueron halladas expl´ ıcitamente en los ejemplos 7. {e1 n n (e∗ ∧ · · · ∧ e∗ ) ((x11 . . . . . .. . . e2 . . (x1n . Ejemplo 7. . Si V = kn y {e1 .4. . . .6. xn1 ) · · · n x11 . xnn ) 1 . . ··· . e∗ ∧ e∗ . e∗ . . . . . e∗ ∧ e∗ } es una base de Alt2 (V ). entonces Altk (V ) = {0}. {e∗ . . . xnn )) = 1 n e∗ (x11 .. . . . 3 1 = 3. Supongamos que dim V = 3 y sea {e1 . . en } es la base can´nica de kn . . . . . xn1 ) . dim Alt3 (V ) = 1 2 3 3 3 = 1. . xn1 ) · · · 1 . ∀k ≥ 4 y {1} es una base de Alt0 (V ) = k. . dim Alt0 (V ) = 3 0 = 1. . . . . . entonces dim Altn (V ) = o ∗ ∧ · · · ∧ e∗ } es una base de Alt (V ).Ejemplo 7. dim Alt2 (V ) = 1 2 1 3 2 3 {e∗ ∧ e∗ ∧ e∗ } es una base de Alt3 (V ). 3 2 = 3. xnn ) n = xn1 xnn Luego e∗ ∧ · · · ∧ e∗ = det (el determinante) y {det} es una base de Altn (V ). . . .