Está en la página 1de 48

Grupos Matriciales

Pablo De Caria, Laura P. Schaposnik M.


Facultad de Ciencias Exactas, Universidad Nacional de La Plata

10 de agosto de 2007

Resumen
Estudiaremos en este trabajo dos clases particulares de grupos: los matriciales y aquellos que
surgen como cociente de ellos. En este proceso trataremos varias de las propiedades que los diferencian
de cualquier otro tipo de grupos.
Se discutirán propiedades generales de grupos matriciales, especialmente del grupo lineal general
-general linear group- que consiste de todas las matrices invertibles de un cierto orden sobre un
cuerpo dado, y sus “grupos clásicos” asociados. Consideraremos, luego, ciertos grupos matriciales
particulares y estudiaremos sus propiedades.

Índice
1. Introducción 2
1.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. El espacio vectorial de matrices Mn,m (K) . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Definición de una norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2. Definición de una métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2. Grupos Matriciales 6
2.1. Grupos libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2. Grupos reducibles y descomponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3. Grupos lineales especiales y generales 8


3.1. Grupo lineal general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1.1. Subgrupos de GLn (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.1.2. Teoremas de Sylow y el grupo lineal general . . . . . . . . . . . . . . . . . . . . . 11
3.1.3. El par BN y los subgrupos parabólicos . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2. Grupo lineal especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.1. Grupos lineales proyectivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.2. Transvecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.3. Teoremas de Sylow y el grupo lineal especial . . . . . . . . . . . . . . . . . . . . 24

4. Algunos grupos lineales particulares 25


4.1. Grupo de matrices triangulares superiores . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2. Grupos afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3. Grupos ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3.1. Subgrupo ortogonal especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

1
4.3.2. Grupo de isometrı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.3.3. Grupos ortogonales generalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.4. Grupos simplécticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.5. Grupos unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.5.1. Grupo unitario especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.6. Grupos matriciales finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.6.1. S = SL2 (Fq ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.6.2. G = GL2 (Fp ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.6.3. Grupos de matrices finitos en GL(n,Z) . . . . . . . . . . . . . . . . . . . . . . . . 37
4.7. Grupos matriciales finitamente generados . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5. Grupos de Lie 39
5.1. Espacios tangentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2. Los grupos matriciales como grupos de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.3. La función exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

6. Apéndice 43
6.1. Operaciones de grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.1.1. Proyección al hiperplano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.1.2. Producto semi-directo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2. Formas sobre espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2.1. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2.2. Formas Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.3. Representación de grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.4. producto de kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

1. Introducción
1.1. Definiciones
La mayorı́a de la terminologı́a utilizada en el trabajo será convencional, pero se irán definiendo
conceptos a medida que resulte necesario. Por otro lado, utilizaremos los siguientes conceptos especı́ficos:

Dadas X e Y dos propiedades de grupos, diremos que un grupo G es localmente X si todo


subconjunto finito de G está contenido en un subgrupo con la propiedad X.

Diremos que G es X-por-Y si G tiene un subgrupo normal N tal que N tiene X y G/N tiene Y.

Finalmente, diremos que un grupo es localmente finito si y sólo si todo subgrupo finitamente
generado es finito.

1.2. El espacio vectorial de matrices Mn,m (K)

Sean m, n ∈ N y K un cuerpo. Llamamos Mn,m (K) al conjunto de matrices de m × n cuyas entradas


están en K. Dada A ∈ Mn,m (K) llamaremos Aij a la entrada (i, j) de A.

2
Mn,m (K) es un K-espacio vectorial con la suma matricial y la multiplicación escalar. El vector nulo
es la matriz nula de m × n y la base estándar del espacio es el conjunto {E ij }ij formado por aquellas
matrices E ij que poseen un 1 en la entrada Eij y 0 en las demás entradas, para cada i, j. La dimensión
de este espacio vectorial es claramente n × m.

Mn,n (K) = Mn (K) es también un anillo con la suma usual y la multiplicación por matrices
cuadradas, cuyos elementos neutros son la matriz nula de n × n para la suma y la identidad In para el
producto. Este anillo resulta no ser conmutativo excepto cuando n = 1.

1.2.1. Definición de una norma

Sea K = R o K = C. Podemos definir entonces una norma k k en Mn (K). Dado x ∈ K n


consideramos |x| la longitud estándar, y para cada A ∈ Mn (K) tomamos el conjunto SA como
½ ¾
|Ax| n
SA = : 0 6= x ∈ K
|x|
y teniendo en cuenta que x 6= 0 tendremos que

SA = {|Ax| : x ∈ K n , |x| = 1}

Por otro lado el conjunto {x ∈ K n : |x| = 1} ⊆ K n es cerrado y acotado por lo que diremos que es
compacto.

Podemos definir la función real k k : {x ∈ Rn : |x| = 1} → R de modo que kxk = |Ax|. Esta
función resulta acotada y su valor máximo es equivalente a

sup SA = máx SA

Esto nos muestra que el número real


kAk = máx SA
está definido. Llamaremos a esta función k k la norma del supremo en Mn (K).

Propiedad: k k es efectivamente una norma.

Demostración: Es evidente que k k es una función no negativa. Además, si A es no nula, debe


verificarse que al menos una de sus columnas es no nula. Supongamos que es la j − ésima y llamémosla
aj .

Ası́, Aej = aj , lo cual implica que kAk ≥ |aj | > 0. Se concluye que kAk = 0 si y sólo si A es la
matriz nula.

Para cualquier vector v con n coordenadas se verifica que (λA)v = λ(Av).


Esto implica que |(λA)v| = |λ||Av| lo que claramente determina que kλAk = |λ|kAk.

Sean A y B matrices de y v ∈ K n con |v| = 1. Entonces

|(A+B)v| = |Av + Bv| ≤ |Av| + |Bv| ≤ kAk + kBk

Como esto vale para todo v con las caracterı́sticas mencionadas, se infiere que kA + Bk ≤ kAk + kBk.

3
Ya hemos demostrado todo lo que se necesita para afirmar que k k es norma.¦

Para una matriz real A ∈ Mn (R) ⊂ Mn (C) podrı́amos pensar que tenemos dos normas distintas
como la que acabamos de definir:

kAkR = {|Ax| : x ∈ Rn , |x| = 1} y kAkC = {|Ax|C : x ∈ C n , |x| = 1}

Propiedad: Si A ∈ Mn (R) entonces kAkR = kAkC .

Demostración: Por un lado, vemos que {x ∈ Rn , |x| = 1} ⊂ {x ∈ C n , |x| = 1} por lo que


tendremos que kAkR ≤ kAkC .

Sea ahora un vector z ∈ C n tal que |z| = 1 y z = x + yi para x, y ∈ Rn . Luego, tendremos que
|x|2 + |y|2 = 1 y

|Az|2 ≤ |Ax|2 + |iAx|2


≤ |x|2 kAk2R + |y|2 kAk2R
= (|x|2 + |y|2 )kAk2R
= kAk2R

Luego, |Az| ≤ kAkR por lo que kAkC ≤ kAkR

Ası́, podemos concluir que kAkR = kAkC . ¦

1.2.2. Definición de una métrica

A partir de la norma k k en Mn (K) podemos definir una métrica ρ dada por

ρ(A, B) = kA − Bk

y utilizar la topologı́a asociada a ella.

Dada una sucesión de elementos {Aj }j≥0 de Mn (K), podemos decir que converge al lı́mite
A ∈ Mn (K) si
kAj − Ak → 0 si j → ∞

También podremos definir funciones continuas sobre Mn (K). Dado A ∈ Mn (K) y r > 0 llamamos
disco abierto de radio r y centro A en Mn (K) al conjunto

NMn (K) (A, r) = {B ∈ Mn (K) : kB − Ak < r}

Del mismo modo, dado un subconjunto Y de Mn (K) y A ∈ Y , llamamos

NY (A, r) = {B ∈ Y : kB − Ak < r} = NMn (K) (A, r) ∩ Y

Luego, un subconjunto V ⊆ Y se dice abierto en Y sii ∀A ∈ V existe δ > 0 tal que NY (A, δ) ⊆ V .

4
Definición: Dado un subconjunto Y ∈ Mn (K) y un espacio topológico X, decimos que ϕ : Y → X es
continua si para todo A ∈ Y y todo abierto U de X para el cual ϕ(A) ∈ U , existe δ > 0 tal que

B ∈ NY (A, δ) =⇒ ϕ(B) ∈ U

Nuestra definición es equivalente a decir que ϕ es continua sii para cada abierto U de X, se satisface
que el conjunto ϕ−1 (U ) ⊂ Y es abierto en Y.

Estudiemos ahora dos funciones continuas que nos serán de gran utilidad más adelante.

Propiedad: Para 1 ≤ r, s ≤ n números naturales, la función coordenada

Coordrs : Mn (K) → K
coordrs (A) = Ars
2
es continua. Si la función f : K n → K es continua, entonces su función asociada

F : Mn (K) → K
F (A) = f ((Aij )1≤i,j≤n )

es continua.

Demostración: Veamos cómo demostrar la primera parte de esta proposición ya que luego se
puede deducir fácilmente la continuidad de la función F1 . Tomemos la base unitaria estándar de K n ,
dada por ei para 1 ≤ i ≤ n. Tendremos pues
à n !1/2
X
|Ars | ≤ |Ais |2
¯ ni=1 ¯
¯X ¯
¯ ¯
= ¯ Ais ei ¯
¯ ¯
i=1
= |Aes |
≤ kAk

Luego, para A, A0 ∈ Mn (K) tendremos que

|A0rs − Ars | ≤ kA0 − Ak

Si A ∈ Mn (K) y ε > 0, luego kA0 − Ak < ε implica que |A0rs − Ars | < ε, lo que muestra que Coordrs es
continua para cada A ∈ Mn (K).¦

Corolario: La función determinante Det : Mn (K) → K y la función traza tr : Mn (K) → K son


continuas.
2 2
Demostración: La función f : K n −→ K que a cada elemento x ∈ K n le asocia el determinante
de la matriz que de forma natural se corresponde con x consiste en una suma de productos de coeficientes,
por lo que es continua. Si procedemos de forma similar con la traza llegaremos a una suma de coeficientes,
también continua. Sólo resta aplicar el teorema anterior.¦
1
Pues resulta ser una composición de dos funciones continuas.

5
2. Grupos Matriciales

Sea n un número natural y F un cuerpo. Llamamos grupo matricial, o grupo lineal sobre F al
grupo G cuyos elementos son matrices invertibles de n × n sobre F.

Estudiaremos ahora ciertas propiedades de los grupos lineales.

2.1. Grupos libres

Definición: un grupo G se dice libre si hay un subconjunto A de G tal que todo elemento de G puede
escribirse en forma única como producto de finitos elementos de A y sus inversos. Al grupo libre sobre
A se lo llama F [A].

Ejemplo: El grupo (Z,+) de enteros bajo la adición es libre, tomando A = {1}.>

Existe otra manera de definir a los grupos libres en función de homomorfismos:

Definición: Sea el par (F, i) donde F es un grupo e i una función i : A → F . Se dice que F es un
grupo libre sobre A respecto de i si para todo grupo G0 y toda función f : A → G0 existe un único
homomorfismo ϕ : F → G0 tal que
ϕ(i(a)) = f (a) ∀a ∈ A

Podemos representar este hecho a través del siguiente diagrama conmutativo:

i
A −→ F
f & . ϕ
G0

Vemos claramente que todo grupo libre es infinito. Por otro lado, si un grupo G libre puede ser
generado por un conjunto A de elementos de G y por otro conjunto B, los conjuntos A y B tienen igual
cardinalidad. Al cardinal del conjunto de generadores de G se lo llama rango del grupo libre G.

De aquı́ se ve claramente que dos grupos libres son isomorfos si y solo si tienen igual rango. A su
vez, todo subgrupo propio no trivial de un grupo libre es libre.

Propiedad: Todo grupo libre es lineal de grado 2 en cualquier caracterı́stica. Más aun, un producto
libre 2 de grupos lineales es lineal.

2.2. Grupos reducibles y descomponibles

Un grupo matricial G ≤ GL(V ) sobre un espacio vectorial V se dice reducible si existe un subespa-
cio G-invariante U de V distinto de {0} y V. Si no existe dicho subespacio, se dirá que G es irreducible.
2
El producto libre de grupos G y H es el conjunto de elementos de la forma g1 h1 g2 h2 ...gr hr donde g1 y hr pueden
ser el elemento neutro de G o H respectivamente

6
Un grupo matricial G ≤ GL(V ) se dirá descomponible si V es suma directa de dos subespacios
G-invariantes. De lo contrario, se dirá que es indescomponible.

Si V pudiera ser representado como suma directa de subespacios irreducibles, entonces G serı́a
completamente reducible.

Teorema de Maschke: Sea G un grupo lineal finito sobre F y supongamos que la caracterı́stica de F
es cero o un número coprimo con |G|. Si G es reducible, entonces es descomponible

Existen diferentes planteos del teorema anterior. Una versión relacionada con representaciones de
grupos es la siguiente:

Teorema: Sea G un grupo que actúa linealmente en un espacio vectorial V de dimensión finita sobre
un cuerpo K. Si la caracterı́stica de K no divide el orden de G, la representación V es completamente
reducible.

Demostración: Si K es el cuerpo de los reales o de los complejos, entonces V admite una forma
hermitiana G-invariante, digamos ( , ) : V × V → K, que será definida positiva. Luego, para cualquier
subespacio G-invariante W de V tendremos que V = W ⊕ W ⊥3 donde W ⊥ representa el complemento
ortogonal de W respecto a la forma ( , ).¦

Teorema de Clifford: Sea G un grupo lineal irreducible en un espacio vectorial V de dimensión n, y sea
N un subgrupo normal de G. Luego V es suma directa de N-espacios minimales W1 , ..., Wd permutados
transitivamente por G. En particular, d divide a n. El grupo N es completamente reducible y los grupos
lineales inducidos en Wi por N son isomorfos.

Luego, un subgrupo normal de un grupo lineal completamente reducible es completamente reducible.


En general, un grupo lineal G en V tiene un grupo normal unipotente 4 U tal que G/U es isomorfo a
un grupo lineal completamente reducible en V. El subgrupo U es nilpotente 5 de grado a lo sumo n − 1,
donde n = dim(V ).

Teorema de Mal’cev: Si todo subgrupo finitamente generado de un grupo lineal G es completamente


reducible, entonces G es completamente reducible.

Por otro lado, la imagen de la representación de un grupo es un grupo matricial, y ası́ aplicaremos
las mismas descripciones de grupos matriciales para las representaciones ρ : G → GL(V ). El último
teorema se podrı́a extender para mostrar que cualquier grupo localmente finito de caracterı́stica cero es
completamente reducible.
3
Esto vale ya que la forma ( , ) es no degenerada y a su vez W ⊥ resulta ser G-invariante.
4
Un grupo lineal se dice unipotente si todos sus elementos lo son. Un grupo lineal unipotente es conjugado de un
grupo de matrices triangulares superiores.
5
Una matriz se dice nilpotente si todos sus autovalores son 0. Otra forma de definir una matriz nilpotente es pidiendo
que exista una potencia de ésta que sea la matriz nula.

7
3. Grupos lineales especiales y generales

3.1. Grupo lineal general

Sea F un cuerpo de dimensión n, para n natural positivo. Llamamos grupo lineal general GLn (F )
al grupo de matrices invertibles de n × n con entradas en F y la multiplicación matricial usual. Si V es
un espacio vectorial de dimensión n sobre un cuerpo F , llamamos GL(V ) al grupo de transformaciones
lineales inversibles de V. Esto es,

GL(V ) = {ϕ : V → V | ϕ es lineal e inversible}

Propiedad: GLn (F ) es un grupo.

Demostración: La multiplicación entre matrices usual es asociativa. El elemento unidad es In , la


matriz de n × n que tiene 1 en su diagonal y ceros en las demás entradas. Finalmente, las matrices son
inversibles por elección. ¦

Ejemplo: Sea K = Z. Luego si A ∈ GLn (Z) tendremos que det A = ±1 >.

Propiedad: Sea el cuerpo K = R o K = C. Luego, GLn (K) ⊂ Mn (K) es un conjunto abierto.

Demostración: Sabemos que la función Det : Mn (K) → K es continua. Luego, dado un conjunto
cerrado C ∈ K sabemos que det−1 (C) será también cerrado. Ası́, en nuestro caso tendremos que

GLn (K) = Mn (K) − det−1 {0}

que es abierto pues {0} es cerrado.¦

Propiedad: GLn (F ) tiene infinitos elementos cuando F es infinito.

Demostración: Sea a ∈ F , a 6= 0. Luego a · In es una matriz invertible de n × n con inversa a−1 .In .
De hecho, el estas matrices forman un subgrupo de GLn (F ) isomorfo a F × = F/{0} ¦.

Propiedad: GL(V ) ∼
= GLn (F ).
Demostración: Recordemos que, fijada una base del espacio vectorial V, cada transfrormación
lineal esta unı́vocamente representada por una matriz con entradas en K, y cada matriz de GLn (F )
representa una única transfromación lineal de GL(V ) ¦.

Por otro lado, está claro que si F es un cuerpo finito, GLn (F ) tendrá solamente finitos elementos.
Será muy interesante preguntarse cuántos elementos tendrı́a en este caso. Antes de estudiar esta cuestión,
veamos algunos ejemplos.

Ejemplo 1: Sea n = 1. Luego GLn (Fq ) ∼ = Fq× que tiene q − 1 elementos. >
µ ¶
a b
Ejemplo 2: Sea n = 2. Sea M = . Luego, para que M resulte invertible, es necesario y
c d
suficiente que ad 6= bc. Si a, b, c y d son distintos de cero, podemos fijar a, b y c arbitrariamente, y d
podrá tomar cualquier valor excepto a−1 bc: Tendremos pues (q − 1)3 (q − 2) matrices.

8
Si exactamente una de las entradas es 0, luego las otras tres entradas pueden ser cualquier número
no nulo, dando un total de 4(q − 1)3 matrices.

Finalmente, si exactamente dos de las entradas son nulas, éstas tendrán que ser opuestas para que
la matriz resulte invertible. Las otras dos sólo deben ser no nulas, dando un total de 2(q − 1)2 matrices.

Luego, la cantidad de elementos de GL2 (Fq ) será:

(q − 1)3 (q − 2) + 4(q − 1)3 + 2(q − 1)2


= (q − 1)2 [(q − 1)(q − 2) + 4(q − 1) + 2]
= (q − 1)2 [q 2 + q]
= (q − 1)[q 2 − q] >

En general, determinar la cantidad de elementos de GLn (F ) calculando directamente el determinante


y viendo luego qué valores de las entradas lo anuları́an es un método complicado y que llevarı́a a un
probable error.

Un método más útil para determinar si una matriz es invertible, y con ello para calcular la cantidad
de elementos de GLn (F ), es teniendo en cuenta que su determinante será no nulo si y sólo si las filas
de la matriz son linealmente independientes.

Proposición: El número de elementos de GLn (Fq ) es


n−1
Y
(q n − q k )
k=0

Demostración: Calcularemos la cantidad de matrices de n × n cuyas filas son linealmente inde-


pendientes.

Para esto, construiremos una matriz de la siguiente manera: la primera fila puede ser cualquier cosa
salvo nula, por lo que habrá q n − 1 posibilidades. La segunda fila debe ser linealmente independiente de
la primera, lo que significa que no sea un múltiplo de ella. Como hay q − 1 múltiplos de la primer fila,
las posibilidades para la segunda se reducen a q n − q.

En general, la i − esimaf ila debe ser independiente de las i − 1 anteriores, lo que significa que no
puede ser una combinación lineal de las primeras i − 1 filas. Como hay q i−1 combinaciones lineales de
las primeras i − 1 filas, habrá q n − q i−1 posibilidades para la i − esima fila.

Una vez construida la matriz de este modo, estaremos seguros de que sus filas son linealmente
independientes y, con ello, de que la matriz es invertible (y además cualquier matriz de n × n con
determinante no nulo puede ser armada de esta manera).

Luego, la cantidad de matrices inversibles será

n−1
Y
(q n − 1)(q n − q), ..., (q n − q n−1 ) = (q n − q k ) ¦
k=0

9
Teorema: Dadas dos bases ordenadas cualesquiera del espacio vectorial V, existe un único elemento de
GLn (V ) que lleva la primera a la segunda.
Demostración: El elemento del que hablamos es la matriz de cambio de base que bien sabemos es
única.¦

A partir de este teorema se obtiene otro método para hallar el orden de GLn (V ) : éste será igual al
número de bases ordenadas de GF (q n ) 6 , es decir:

n−1
Y n−1
Y
|GLn (V )| = (q n − q i ) = q n(n−1)/2 (q n−i − 1)
i=0 i=0

Para seguir estudiando GLn (V ) introduciremos la noción de centro de un grupo:

Llamamos centro de un grupo G, Z(G), al conjunto de los elementos h ∈ G tales que ∀g ∈ G,


gh = hg.

Propiedad: Z(G) es un subgrupo de G.

Demostración: El elemento unidad 1 está en Z(G) pues ∀g ∈ G, 1 · g = g · 1 = g . Por otro lado,


sean h1 , h2 ∈ G. Luego, ∀g ∈ G tendremos que:

h1 h2 g = h1 (h2 g) = h1 (gh2 ) = (h1 g)h2 = gh1 h2

por lo que h1 h2 ∈ Z(G). Finalmente, si h ∈ Z(G), tendremos entonces que ∀g ∈ G

hg = gh

h−1 hgh−1 = h−1 ghh−1


gh−1 = h−1 g

por lo que h−1 ∈ Z(G).¦

Estamos ahora en condiciones de estudiar el centro de GLn (V ):

Proposición: Z(GLn (V )) = {a · In |a ∈ F × }

Demostración: Para que M esté en Z(GLn (V )) debe conmutar con todo N ∈ G. En particular,
M conmuta con las matrices elementales.

Si multiplicamos M por izquierda con una matriz elemental estaremos realizando algo equivalente a
una operación de fila elemental. El multiplicar a M por derecha por una matriz elemental será equivalente
a realizar una operación de columna elemental.

Por ejemplo, multiplicar la i − esima fila de M por a nos dará la misma matriz que al multiplicar
la i − esima columna de M por a. Esto implica que la matriz M debe ser diagonal.
6
Galois field GF(q) es F cuerpo finito de orden q

10
Luego, como intercambiar la i − esima y j − esima filas de M nos da la misma matriz que al
intercambiar sus i − esima y j − esima columnas, tenemos que la i − esima entrada en la diagonal de
M debe ser igual a la j − esima entrada en la diagonal, para todo i, j.

Teniendo en cuenta estos datos, podemos afirmar que M debe ser un múltiplo de In . Por otro lado,
es fácil ver que todos los múltiplos de In conmutan con los elementos N ∈ G ¦.

3.1.1. Subgrupos de GLn (K)

Desde ahora llamaremos grupo matricial a un grupo G ≤ GLn (K) que sea también subespacio
cerrado. Esto representa una variación con respecto a la definición presentada en la sección 2, pues
ahora se está exigiendo una caracterı́stica topológica.

Propiedad: Sea G ≤ GLn (K) un subgrupo matricial. Luego un subgrupo cerrado H ≤ G es un subgrupo
matricial de GLn (K).

Demostración: Sea {An }n≥0 una sucesión en H con lı́mite en GLn (K). Como An ∈ G ⊆ H ∀n, y
G es cerrado en GLn (K), tendremos que el lı́mite de la sucesión esta en G. A su vez, como H es cerrado
en G, {An }n≥0 tendrá su lı́mite en H: resulta entonces que H es cerrado en GLn (K) y con ello, H es un
subgrupo matricial de GLn (K).¦

Este resultado puede ser generalizado:

Propiedad: Sea G un grupo matricial y sean H ≤ K, K ≤ G subgrupos matriciales. Luego, H es un


subgrupo matricial de G.

Ejemplo: Veamos ahora un ejemplo de subgrupo matricial. Consideraremos a GLn (K) como un
subgrupo de Gn+1 (K) identificando las matrices de n × n dadas por A = [aij ] con

 
a11 . . . a1n 0
· ¸  . .. .. .. 
A 0  . . . 
= . . 
0 1  an1 . . . ann 0 
0 ... 0 1

Se puede verificar fácilmente que GLn (K) es cerrado en GLn+1 (K), por lo que GLn (K) es un
subgrupo matricial de GLn+1 (K). >

3.1.2. Teoremas de Sylow y el grupo lineal general

Estudiaremos ahora algunas relaciones entre los teoremas de Sylow y el grupo lineal general. Recorde-
mos primero lo que afirman dichos teoremas:

Primer teorema de Sylow: Sea G un grupo de orden n y p un primo tal que p|n, de modo que
podemos escribir n = pa m donde p no divide a m. Luego, G tiene un subgrupo S de orden pa , llamado
p-subgrupo de Sylow de G.

11
Segundo teorema de Sylow: Los p-subgrupos de Sylow de un grupo G son conjugados.

Tercer teorema de Sylow: Sea s el múmero de p-subgrupos de Sylow de un grupo G; Sea |G| = pa m
donde p no divide a m. Luego, s divide a m y s ≡ 1 (p).

Recordemos ahora que habı́amos estudiado


Q el orden del grupo lineal general GLn (Fq ) y habı́amos
encontrado que |GLn (Fq )| = q n(n−1)/2 n−1
i=0 (q n−i − 1). Luego, si q = pr , tendremos que GL (F ) tiene
n q
un p-subgrupo de Sylow de orden q n(n−1)/2 . Veamos cómo podemos describir uno de estos subgrupos.

Proposición: Sea q = pr ; Sea M Tn (Fq ) el conjunto de matrices triangulares superiores con 1 en sus
diagonales. Luego, M Tn (Fq ) es un p-subgrupo de Sylow de GLn (Fq ).

Demostración: Veamos primero que M Tn (Fq ) es un subgrupo.

Se ve claramente que la identidad es un elemento de M Tn (Fq ). Sean A y B ∈ M Tn (Fq ).

Si i > j valdrá que

n
X i−1
X n
X
(AB)ij = Aik Bkj = Aik Bkj + Aik Bkj
k=1 k=1 k=i

Como A y B ∈ M Tn (Fq ), Aik = 0 para k entre 1 e i − 1 y Bkj = 0 para k ≥ i > j , por lo que la
sumatoria es nula. Por lo tanto, AB es matriz triangular superior. A su vez

n
X X X X X
(AB)ii = Aik Bki = Aii Bii + Aik Bki + Aik Bki = 1 + 0.Bki + Aik · 0 = 1
k=1 k<i k>i k<i k>i

∴ AB ∈ M Tn (Fq )

Si se quiere conocer la inversa de A, se puede ver fácilmente que la adjunta de A es triangular


inferior con unos en la diagonal. Como detA = 1, se concluye que A−1 ∈ M Tn (Fq ).

Nos resta demostrar que el orden de M Tn (Fq ) es q n(n−1)/2 . Nuestras matrices tienen n(n − 1)/2
entradas estrictamente por arriba de la diagonal y estas entradas pueden ser cualquier elemento de Fq
por lo que tendremos un total de q n(n−1)/2 : tendremos ası́ que el orden de nuestro subgrupo coincide
con esa cifra, como estábamos buscando. ¦

Se ve de esta demostración que otro p-subgrupo de Sylow de GLn (Fq ) es el conjunto de matrices
triangulares inferiores que poseen 1 en las entradas de la diagonal. Como para n ≥ 2 estos dos subgrupos
no son iguales 7 tendremos que el número de p-subgrupos de Sylow de GLn (Fq ) será mayor que 1 y por
ello deducimos que es al menos p + 1. Notemos que p + 1 divide q 2 − 1, por lo que podrı́a ser el número
de p-subgrupos de Sylow de GLn (Fq ). De todos modos, s podrı́a llegar a tener otro valor pero, como
conocemos uno de los p-subgrupos, nos bastará conjugarlo para encontrar a los demás.
7
Cuando n = 1, p no divide el órden de GLn (Fq )

12
Ejemplo: Si n = 2, tendremos que |GL2 (Fq )| = q(q − 1)2 (q + 1) y |M Tn (Fq )| = q >

Pero tratemos de encontrar una forma más eficiente de conocer el número s.

Proposición: El número s de p-subgrupos de Sylow de GLn (Fq ) es [n!]q .

Demostración: Llamemos X al conjunto de p-subgrupos de Sylow del grupo GLn (Fq ). Por el
segundo teorema de Sylow, sabemos que si hacemos actuar a X sobre GLn (Fq ) por conjugación, la
acción es transitiva. Llamemos H = M Tn (Fq ) y sea N el normalizador de H,8 Luego, tendremos que

|GLn (Fq )| = |N | · |X|

Si pudiéramos entonces encontrar al normalizador de H y contar sus elementos, tendrı́amos una


manera de encontrar el número s de p-subgrupos de Sylow de GLn (Fq )9 .

Veamos que el normalizador de H es el grupo de matrices triangulares superiores sin ceros en sus
diagonales, que tiene (q − 1)q n(n−1)/2 elementos.

Sea A triangular superior y B ∈ H. Entonces ABA−1 es triangular superior al ser producto de tres
matrices de esa forma. Y es fácil verificar que

(ABA−1 )ii = Aii Bii A−1 −1


ii = Aii (A )ii
n
Y n
Y
(A −1 −1
)ii = (adjA)ii (detA) = Ajj (Aii Ajj )−1 = A−1
ii
j=1 j=1

∴ (ABA−1 )ii = 1 y ABA−1 ∈ H.

Se tiene entonces que AHA−1 ⊂ H y |AHA−1 | = |H|, por lo que debe valer la igualdad y por ende
A es elemento del normalizador.

Ahora supongamos que A está en el normalizador y veremos que entonces debe ser triangular
superior.

Sea C = A−1 . Luego debe ocurrir que ABC ∈ H ∀B ∈ H. En particular, esto es válido para las
matrices Bij = I + Eij , i < j, donde Eij es la matriz con sus entradas todas nulas excepto la ij, cuyo
valor es 1.

Para i < n, notar que Bin .C es una matriz que coincide con C, exceptuando que a la i − ésima fila
se le suma la enésima. Veamos que Cn1 no puede ser distinto de 0. Si lo fuera, notar que
Xn
[A.(Bin C)]i1 = ( Aik Ck1 ) + Ai1 Cn1 = (AC)i1 + Ai1 Cn1 = Ii1 + Ai1 Cn1
k=1

Como ABin C ∈ H, su primera columna coincidirá con la de la identidad, por lo que Ai1 Cn1 = 0 ∀i.
Como estamos suponiendo que Cn1 6= 0, debe ocurrir que Ai1 = 0, i = 1, ..., n. Pero esto indicarı́a que
la primera columna de A serı́a el vector nulo, lo cual es absurdo porque A es invertible. Luego, Cn1 = 0.
8
Esto es, N = {g ∈ GLn (Fq ) | gHg −1 = H}.
9
Notemos que este razonamiento vale para cualquier grupo finito G.

13
Veremos que para cualquier otro j 6= n Cnj = 0.

Fijemos j 6= n. Se puede ver fácilmente que


Xn
[A.(Bin C)]jj = ( Ajk Ckj ) + Aji Cnj = (AC)jj + Aji Cnj = Ijj + Aji Cnj = 1 + Aji Cnj
k=1

Como ∀i < n A.Bin .C ∈ H, (A.Bin .C)jj = 1, por lo que Aji Cnj = 0 ∀i < n y, si suponemos que
Cnj 6= 0, Aji = 0 ∀i < n.

Entonces [A.(Bin C)]j1 = Ajn .Cn1 y esto debe ser 0 porque ABin C ∈ H. Luego Ajn = 0.

Juntando todo se concluye que todas las entradas de la j-ésima fila de A son ceros, lo que es absurdo
y por la tanto debe valer que Cnj = 0 ∀j < n.

Podrı́amos seguir con manipulaciones de este tipo, de las cuales nos abstendremos, para concluir
que C es triangular superior y, por ende, C −1 = A también lo es.

Ası́, efectivamente, el normalizador de H consiste de todas las matrices triangulares superiores.

Luego

Q
q n(n−1)/2 nk=1 (q k − 1)
s =
q n(n−1)/2 (q − 1)n
Yn
1
= (q k − 1)
(q − 1)n
k=1
n
Y qk − 1
=
q−1
k=1
Yn
= (q k−1 + q k−2 + ... + 1)
k=1
= [n!]q ¦

Sea ahora V un espacio vectorial de dimensión n sobre Fq y consideremos GL(V ).

Podemos ver que GL(V ) y GLn (Fq ) son grupos isomorfos pues podemos definir el siguiente isomor-
fismo entre ambos. Sea {e1 , ..., en } una base de V y consideremos las transformaciones lineales de GL(V )
respecto a esa base. Si elegimos ahora dos bases distintas B1 y B2 podemos componer los isomorfismos
obtenidos de cada base, para tener un isomorfismo ψ : GLn (Fq ) → GLn (Fq ) dado por

ψ
GLn (Fq ) −→ GLn (Fq )
φ1 & % φ2
GL(V )

Ejemplo: Veamos qué es lo que hace nuestro isomorfismo ψ en un caso particular.

14
µ ¶
1 2
Sea A = ∈ GL2 (F5 ). Sea V un espacio vectorial de dimensión 2 sobre F5 . Elegimos
0 1
una base de V dada por e1 = (1, 0) y e2 = (0, 1). Si pensamos ahora a A como la matriz de una
transformación lineal T respecto a la base B1 = {e1 , e2 } de V , podremos mandar A por T pidiendo que

T (e1 ) = e1
T (e2 ) = 2e1 + e1

Esto determina unı́vocamente a T ∈ GL(V ). Tomemos ahora una nueva base B2 = {e1 +e2 , e1 −e2 }.
Como

T (e1 + e2 ) = 3e1 + e2 = 2(e1 + e2 ) + (e1 − e2 )


T (e1 − e2 ) = −e1 + e2 = −(e1 − e2 )

La matriz de T en esta nueva base será


µ ¶
2 −1
T =
1 0
µ ¶ µ ¶
1 2 2 −1
Luego, en nuestro isomorfismo ψ, la matriz es mandada a >.
0 1 1 0

Consideremos ahora al subgrupo H = ψ(M Tn (Fq )) de GLn (Fq ). En primer lugar, observamos que
H es un p-subgrupo de Sylow de GLn (Fq ). Considerando distintos cambios de base, podremos encontrar
distintos subgrupos H1 , H2 , ..., todos isomorfos a M Tn (Fq ).

Proposición: Todos los p-subgrupos de Sylow de GLn (Fq ) son isomorfos mediante un isomorfismo de
cambio de base.

Proposición: Sea T una transformación lineal de V en V, y sea A la matriz que representa a T


respecto a una base particular B. Luego las matrices A’ que representan a T respecto a otras bases son,
para P ∈ GLn (Fq ), de la forma
A0 = P AP −1

3.1.3. El par BN y los subgrupos parabólicos

Definición: Fijemos un conjunto S y sea

m : S × S −→ {1, 2, 3, ..., ∞}

una función tal que m(s, s) = 1 para todo s ∈ S y de manera que m(s, t) = m(t, s) para todo s, t ∈ S.

Un Sistema de Coxeter es un par (W,S) donde S es un conjunto de generadores de un grupo W,


y W tiene la presentación
s2 = 1 ∀s ∈ S
(st)m(s,t) = 1 ∀s, t ∈ S
Por convención, m(s, t) = ∞ significa que no se impone ninguna relación. Notar que si m(s, t) = 2
entonces st = ts, ya que s2 = 1 y t2 = 1.

15
Diremos, dadas estas condiciones, que W es un grupo de Coxeter , aun aunque esto represente un
abuso de lenguaje.

Definición: Sea G un grupo con un generador S. La longitud `(g) de un elemento g ∈ G con respecto
al conjunto generador S es el menor entero n tal que g tiene una expresión

g = s1 ...sn

con cada si ∈ S. Cualquier expresión


g = s1 ...sn
con n = `(g) se dice reducida.

T
Definición: Sea G un grupo. Supongamos que tenemos subgrupos B y N tales que H = B N es
normal en N. Sea W = N/H y supongamos que S es un conjunto de generadores de W.

Para ω ∈ W , la notación BωB significará que se elige n ∈ N tal que nH = ω en W=N/H, y entonces
BωB = BnB, notando que lo último no depende en la elección de n, sino que solamente del coset.

La dupla B, N (o más propiamente el cuádruple (G,B,N,S)) es un par BN en G si:

(W,S) es un sistema de Coxeter.


S
Descomposición de Bruhat-Tits: G = w∈W BωB (disjunta).
S
BhS 0 iB = ω∈hS 0 i BωB es un subgrupo de G, para cada subconjunto S’ de S.

BωB · BsB = BωsB si `(ωs) > `(ω), para todo s ∈ S, ω ∈ W .


S
BωB · BsB = BωsB BωB si `(ωs) < `(ω).

Para todo s ∈ S, sBs−1 * B.

El objetivo de esta sección es demostrar que al grupo lineal general podemos darle esta estructura.
Para ello, llamemos B al grupo de las matrices triangulares superiores invertibles, H al grupo de matrices
diagonales y N al grupo de matrices
T monomiales (aquellas con un único elemento no nulo en cada fila
y columna). Es evidente que B N = H.

Propiedad 1: H ¢ N .

Demostración: Sea A ∈ N y C ∈ H. Veamos que ACA−1 ∈ H.

n
X n
X
(ACA−1 )ij = Aik (CA−1 )kj = Aik Ckk A−1
kj
k=1 k=1

Juntando que A y A−1 son inversas la una de la otra y que ambas son monomiales se puede deducir
que la cantidad de arriba equivale a Cmm δij , para algún m entre 1 y n.

16
Por lo tanto ACA−1 ∈ H y entonces se concluye que H ¢ N .¦

Propiedad 2: N/H es isomorfo al grupo de simetrı́as Sn .

Demostración: Sea A ∈ N . Consideremos el coset AH. Es fácil ver que éste coincide con CH,
donde C se obtiene de A al reemplazar todos sus elementos no nulos por unos, lo cual es equivalente a
multiplicar a A por derecha por una matriz diagonal (elemento de H) fácil de determinar.

Se tendrá entonces que existe σ ∈ Sn tal que C = (eσ(1) eσ(2) ...eσ(n) ), donde los vectores canónicos
indican las columnas. Rebauticemos a C como Cσ .

No es difı́cil verificar que la función f : Sn −→ N/H tal que f (σ) = Cσ H es un isomorfismo.¦

A partir de ahora usaremos el término σ para denotar tanto a la permutación como a la matriz
Cσ , quedando el significado claro de acuerdo con el contexto. Y de esta manera Sn también puede ser
considerado un grupo matricial.

Propiedad 3: Sea si la transposición (i, i + 1) en Sn , i = 1, ..., n − 1. Entonces s1 , ..., sn−1 generan a


Sn . Es más, podemos transformar a Sn en un grupo de Coxeter teniendo en cuenta que s2i = 1 (para
i = 1, ..., n − 1), (si si+1 )3 (para i = 1, ..., n − 1); y (si sj )2 = 1 si |j − i| > 1.

Propiedad 4: G=BNB.

Demostración: Sea A ∈ G. A través de operaciones de filas y columnas intentaremos reducirla a


una matriz de N. El procedimiento es el siguiente:

Considerar la primera columna de A. Como A es invertible poseerá al menos un elemento no nulo.


De todos los elementos distintos de cero, consideremos el que ocupa la posición más baja en la matriz.
Supongamos que está en la fila s1 . Procedamos a restarle a todas las filas s tales que s > s1 un múltiplo
(1)
de la fila s1 de manera que obtengamos una matriz A(1) para la cual As1 = 0 ∀s > s1 . Consideremos
ahora la submatriz A’ que se obtiene de A(1) al eliminar la columna 1 y la fila s1 . Consideremos la
primera columna de A’. Como A(1) es invertible, la primera columna de A’ tendrá al menos un elemento
no nulo. Supongamos que el más bajo está en la fila s2 de A(1) . Realizar las mismas operaciones de filas
que antes y continuar ası́ hasta cubrir todas las columnas, resultando ası́ una matriz A(2) .

Todas las operaciones realizadas hasta el momento son equivalentes a multiplicar por izquierda a A
por matrices elementales triangulares. Notar que σ(i) = si , i = 1, ..., n, es una permutación.

Las operaciones a continuación serán las siguientes:


(2)
Notar que Aij es 0 para todo j < σ −1 (1). Restarle a todas las columnas s tales que s > σ −1 (1)
un múltiplo de la columna σ −1 (1) de modo que al terminar el proceso se tenga una matriz nueva A(3)
(3)
con A1s = 0 ∀s > σ −1 (1). Repetir operaciones similares con las columnas restantes. Todas ellas son
equivalentes a multiplicar por derecha a A(2) por matrices elementales triangulares. Al fin del proceso se
obtiene una matriz monomial. Multipliquémosla por una matriz diagonal para que todos sus coeficientes
no nulos sean unos. Se puede ver ası́ que el resultado final es la matriz Cσ , que es un elemento de N.

17
Como conclusión, podemos obtener dos matrices triangulares superiores B1 y B2 tales que B1 AB2 = Cσ .
y
B1 AB2 = Cσ =⇒ A = B1−1 Cσ B2−1 =⇒ A ∈ BN B
∴ G = BN B.¦

S
Propiedad 5: G = σ∈Sn BσB. Es más, esta unión es disjunta y ası́ se obtienen n! cosets dobles
distintos.

Demostración: Que la unión nos da G es una consecuencia de la propiedad anterior. Veamos que
es disjunta:
T
Supongamos que existen σ y τ en Sn tales que BσB Bτ B 6= ∅. Entonces existen B1 , B2 , B3 , B4
triangulares superiores tales que B1 σB2 = B3 τ B4 . Esto último es equivalente a σB2 B4−1 τ −1 = B1−1 B3 .
Además
(σB2 B4−1 τ −1 )ii = {(eσ(1) eσ(2) ...eσ(n) )[B2 B4−1 (eτ −1 (1) eτ −1 (2) ...eτ −1 (n) )]}ii =
 
eσ−1 (1)
 ..  −1 −1
{ .  [B2 B4 (eτ −1 (1) eτ −1 (2) ...eτ −1 (n) )]}ii = [B2 B4 (eτ −1 (1) eτ −1 (2) ...eτ −1 (n) )]σ−1 (i),i =
eσ−1 (n)
(B2 B4−1 )σ−1 (i)τ −1 (i) = (B1−1 B3 )ii 6= 0 i = 1, ..., n

Pero como B2 B4−1 es triangular superior, entonces σ −1 (i) ≤ τ −1 (i) i = 1, ..., n. Y no es difı́cil ver
que esto ocurre si y sólo si σ −1 = τ −1 , o sea, σ = τ . Esto descarta que la unión no sea disjunta.¦

S
Propiedad 6: Para cualquier ω ∈ Sn e i = 1, ..., n − 1, tenemos que BωB · Bsi B ⊆ BωB Bωsi B.

Esquema de la demostración: Consideremos una matriz de la forma ωB1 si .

ωB1 = IωB1 es un elemento de BωB. Si quisiéramos realizar las operaciones de filas descritas en
la propiedad 4 verı́amos que no hay nada que hacer (pues ω no está siendo multiplicada a izquierda
por una matriz triangular superior distinta de la identidad). Esto significa que los elementos no nulos
inferiores considerados son apreciables a simple vista para cualquier columna. Multiplicar a ωB1 por si
por derecha equivale a intercambiar las columnas i e i +1. Si al resultado lo sometemos a las operaciones
de filas descritas en la propiedad 4 (para encontrar σ tal que ωB1 si ∈ BσB), notamos que las operaciones
siguen siendo las mismas para las primeras i − 1 columnas. Luego hay dos posibilidades:

En la iteración correspondiente a la columna i, la posición más baja de los elementos no nulos


sigue siendo la misma en comparación con ωB1 : entonces ωB1 si ∈ BωB.

Se produce un cambio en la iteración i: entonces ωB1 si ∈ Bωsi B.

S
En resumen, se concluye que ωBsi ⊆ BωB Bωsi B y esto implica el resultado que querı́amos
demostrar.¦

18
Ejemplo: En GL4 (R) sean
   
0 0 0 1 0 0 0 1
 0 0 1 0   0 0 1 2 
ω= 1 0 0
 y A=  ∈ BωB
0   1 3 6 7 
0 1 0 0 0 1 1 5

 
0 0 0 1
 0 0 1 2 
En este caso As1 = 
 3
. Si a la fila 3 le restamos 3 veces la fila 4 obtenemos la matriz
1 6 7 
1 0 1 5
   
0 0 0 1 0 0 0 1
 0 0 1 2   0 0 1 0 
 . Además ωs1 =  , lo cual nos permite concluir que As1 ∈ Bωs1 B.
 0 1 3 −8   0 1 0 0 
1 0 1 5 1 0 0 0
 
0 0 0 1
 0 1 0 2 
Pero si multiplicamos a A por s2 obtenemos la matriz  
 1 6 3 7 . Restándole a la fila 2 la
0 1 1 5
 
0 0 0 1
 0 0 −1 −3 
fila 4 y a la fila 3 seis veces la fila 4 obtenemos  
 1 0 −3 −23 , lo cual implica que As2 ∈ BωB. >
0 1 1 5

Propiedad 7: Sea σ ∈ Sn . Entonces `(σsi ) > `(σ) ⇐⇒ σ(i) < σ(i + 1).

Demostración: Notar primero que no puede ocurrir que `(σsi ) = `(σ) debido a las propiedades que
conocemos sobre la paridad de permutaciones (en particular, multiplicar por una transposición cambia
la paridad).

Supongamos que σ(i) < σ(i + 1). Esto equivale a σsi (i) > σsi (i + 1).

Nuestra estrategia será multiplicar por derecha a σsi por transposiciones hasta llegar a la per-
mutación identidad. Si hacemos esto en k pasos, veremos que hay una forma similar de hacer lo mismo
con σ en k − 1 pasos. Si a una permutación τ la representamos a través del vector (τ (1)...τ (n)), lo que
estamos haciendo es intercambiar entradas contiguas hasta llegar a (1 2 3 4). Sea ahora τ = σsi . Como
σsi (i) > σsi (i + 1), si estamos interesados en llegar a (1 2 3 4), en por lo menos uno de los cambios
efectuados esos dos valores intercambian posiciones. Si prescindimos de este movimiento, se puede ver
que el método sirve para transformar a σ en la identidad (en un paso menos). Ahora, transformar a una
permutación en la identidad de esa manera equivale a multiplicarla por su inversa. De esto se deduce
que `((σsi )−1 ) > `(σ −1 ). Pero no es difı́cil ver que, para cualquier permutación τ , `(τ ) = `(τ −1 ).

∴ `(σsi ) > `(σ).

Recı́procamente, si σ(i) > σ(i + 1), se tendrá que σsi (i) < σsi (i + 1), lo cual implica por lo que
vimos que `(σsi si ) = `(σ) > `(σsi ).¦

19
Ejemplo: En S4
(4 1 3 2) = (1 2)(3 4)(2 3)(3 4) = (1 2 3 4)
Notemos que en un principio el 3 está antes que el 2, situación que es revertida cuando multiplicamos
por la transposición (3 4). Razonando como en la demostración anterior, si a (4 1 3 2) la multiplicamos
por (3 4) obtenemos una permutación de longitud uno menos. De hecho:

[(4 1 3 2)(3 4)](1 2)(2 3)(3 4) = (4 1 2 3)(1 2)(2 3)(3 4) = (1 2 3 4) >

Propiedad 8:

1. BωB · Bsi B = Bωsi B si `(ωsi ) > `(ω).


S
2. BωB · Bsi B = Bωsi B BωB si `(ωsi ) < `(ω).

Demostración:

1. `(ωsi ) > `(ω) implica que σ(i) < σ(i + 1).

Tomemos una matriz de la forma ωB1 ∈ BωB. Notemos que la primera columna de ωB1 tiene
una única entrada no nula en la fila ω(1). Dejando a esta última de lado, la segunda columna tiene un
único elemento no nulo en la fila ω(2) y ası́ sucesivamente. Procedemos a intercambiar las filas i e i + 1
(calcular ωB1 si ). Notar que ahora la columna i, dejando de lado las filas ω(1), ω(2), ..., ω(i − 1), tiene
un elemento no nulo en la fila ω(i + 1) > ω(i).

Esto significa que, cuando nos disponemos a realizar las operaciones de filas descritas en la propiedad
4, no tenemos que cambiar nada en las columnas 1, ..., i − 1, pero descenderá la posición no nula inferior
de la columna i. Y ya sabemos que esto implica que ωB1 si ∈ Bωsi B. Por lo tanto ωBs1 ⊆ Bωsi B. En
consecuencia BωB · Bsi B ⊆ Bωsi B, y ya sabı́amos que la otra inclusión también es verdadera. Luego
vale la igualdad.

2. `(ωsi ) > `(ω) implica que σ(i) > σ(i + 1).

Volvamos a tomar una matriz de la forma ωB1 ∈ BωB.

Consideremos la matriz ω + Eω(i),(i+1) = B1 ωB2 ∈ BωB. Aquı́, si se pretenden realizar las cons-
abidas operaciones de filas, las primeras i − 1 columnas permanecen inalteradas y tampoco cambia la
posición no nula inferior de la columna i (en parte debido a que σ(i) > σ(i + 1)). Sabemos que esto
significa que B1 ωB2 si ∈ BωB. Por lo tanto hay un elemento en BωB que también está en BωB · Bsi B.
Y no es difı́cil
S ver entonces que todo elemento en BωB está en BωB · Bsi B. Se puede concluir entonces
que Bωsi B BωB ⊆ BωB · Bsi B. Pero como sabemos que también vale la inclusión en el sentido
contrario, se concluye que la igualdad es válida.¦

Ya hemos probado casi todas las propiedades necesarias para probar que el grupo lineal especial
tiene una estructura de par BN. Todas aquellas que falten son también verificables, pero omitiremos las
demostraciones.

20
Los subgrupos B y W=N/H reciben el nombre de subgrupo de Borel y grupo de Weyl de G
respectivamente.

Propiedad 9: Sea K un subgrupo de GLn (F ) que contiene a B. Si σ ∈ K tiene la expresión reducida


σ = si1 si2 ...sik , entonces sij ∈ K ∀j ≤ k.

Demostración: La haremos por inducción sobre `(σ). Si `(σ) = 1 el resultado es evidente. Supong-
amos ahora que la propiedad vale para toda σ tal que `(σ) = k − 1.
T
Notar que `(σsik ) < `(σ), lo cual implica que BσB · Bsik B BσB 6= ∅ y esto nos permitirá escribir
a sik en función de matrices triangulares y de σ. Por lo tanto sik ∈ K. Esto implica que σsik ∈ K. Como
ésta es una permutación de longitud k − 1 (si `(σsi ) fuera menor que k − 1 se llegarı́a al absurdo de
que `(σ) < k)) se puede aplicar la hipótesis inductiva para concluir que las otras k − 1 transposiciones
también están en K.¦

Toda la teorı́a desarrollada nos permitirá demostrar un resultado muy importante.

Teorema: Cualquier subgrupo de G que contenga a B es de la forma


PI = hB, si : i ∈ Ii
Para algún conjunto I de {1,2,...,n-1}.

Demostración: Sea K ≤ G tal que B ⊆ K. Sea I el conjunto de los ı́ndices i para los cuales
si ∈ K. Veamos que K = PI . Es evidente que PI ⊂ K. Supongamos que la inclusión es estricta.
Tomemos entonces A ∈ K − PI . Esto significa que toda expresión σ = si1 si2 ...sik debe contener una
transposición sij tal que ij 6∈ I. En particular, esto ocurrirá para toda expresión reducida, llegándose a
la conclusión de que sij ∈ K, lo cual contradice la definición de I.

∴ K = PI .¦

No es difı́cil ver que cada PI es distinto de cualquier otro, por lo que se tienen exactamente 2n−1
subgrupos que contienen a las matrices triangulares superiores. Los PI reciben el nombre de grupos
parabólicos asociados al par BN.

3.2. Grupo lineal especial

Estudiaremos ahora un subgrupo muy interesante de GLn (V ). La función determinante,


det : GLn (F ) → F × ,10 es un homomorfismo.

Definimos el grupo lineal especial S = SLn (F ) como el núcleo11 del homomorfismo det. Dicho de
otro modo,
SLn (F ) = {M ∈ GLn (F ) | det(M ) = 1}

Propiedad: Sea el cuerpo K = R o K = C. Luego, SLn (K) ⊂ Mn (K) es un conjunto cerrado.


10
Donde F × es el grupo multiplicativo de F, de orden q − 1
11
También llamado kernel.

21
Demostración: Sabemos que la función Det : Mn (K) → K es continua. Luego, dado un conjunto
cerrado C ∈ K sabemos que det−1 (C) será también cerrado. En nuestro caso tendremos que

SLn (K) = det−1 {1} ⊂ GLn (K)

que es cerrado en Mn (K) y GLn (K) pues {1} es cerrado en K.¦

Ejemplo: Estudiemos SL1 (Q) como subgrupo de GL1 (Q) sujeto a las restricciones

a21 + b21 + a22 + b22 = 1

Este grupo es geométricamente equivalente a la esfera de 3 dimensiones en R4

SL1 (Q) ∼ S 3 ⊂ R4 >

Será interesante, como hicimos en el caso de GLn (F ), estudiar la cantidad de elementos que posee
SLn (F ).

Proposición: El número de elementos de SLn (Fq ) es

Qn−1 n
k=0 (q− qk )
q−1

Demostración: Consideremos el homomorfismo det : GLn (F ) → F × que es suryectivo 12 . Esto


es cierto pues, por ejemplo, la matriz  
a 0 ... 0
 0 1 ... 0 
 
 .. .. . . .. 
 . . . . 
0 0 ... 1

es una matriz invertible de n × n con determinante a. Como SLn (Fq ) es el núcleo del homomorfismo
tendremos, por el Primer Teorema del Isomorfismo, que

GLn (Fq )\SLn (Fq ) ∼


= F×

Por lo que Qn−1 n


− qk )
|GLn (Fq )| k=0 (q
|SLn (Fq )| = = ¦
|F × | q−1

También podremos estudiar el centro de SLn (F ) obteniendo el siguiente resultado, cuya demostración
es similar a la realizada para el caso de GLn (F ):

Proposición: Z(SLn (F )) = { a · In | a ∈ F × , an = 1}.

12
Es decir, la imagen de GLn (F ) por det es todo el espacio F ∗

22
3.2.1. Grupos lineales proyectivos

El grupo lineal general proyectivo y el grupo lineal especial proyectivo 13 , P GLn (F ) y


P SLn (F ) son los cocientes de GLn (F ) y SLn (F ) por sus subgrupos normales Z y Z ∩ SLn (F ) re-
spectivamente, donde Z es el grupo de matrices escalares no nulas.

Teorema: El grupo P SLn (Fq ) es simple14 para n ≥ 2 excepto en el caso en que n = 2 y q ∈ {2, 3}

Veamos algunos ejemplos recordando que en un conjunto de orden n el subconjunto de permutaciones


pares es llamado “alternating group” o grupo alternado y se lo denota An :15

Ejemplos:

Notemos que |P SL2 (F2 )| = 6 y |P SL2 (F3 )| = 12, por lo que se ve claramente que no pueden ser
simples.>

Vemos que |P SL2 (F4 )| = 60 = |P SL2 (F5 )| y cada uno es isomorfo al grupo alternado A5 .>

Por otro lado |P SL2 (F9 )| = 360 y resulta ser este grupo isomorfo a A6 .>

También es válido que P SL4 (F2 ) ∼


= A8 >

Todos los demás grupos de la forma P SLn (Fq ) no son isomorfos a ningún Ak .>

Reformulemos para el caso de cuerpos finitos lo que ya sabemos acerca del centro del grupo lineal
especial:

Sea Z el subgrupo de S que consiste de las matrices escalares en S 16 . La condición del determinante
equivale a pedir αn = 1, por lo que α debe estar en el único subgrupo de orden d = (q − 1, n) de F × .
Luego, |Z| = d y claramente Z ⊂ Z(S): de acuerdo a la última proposición vista, Z = Z(S).

Ejemplo:

Si n = 2 y q es impar, entonces tendremos que d = 2 y luego |P SL2 (Fq )| = q(q − 1)(q + 1)/2.>

Si n = 2 y q es una potencia de 2, luego d = 1 y en este caso |Z| = 1 y P SL2 (Fq ) = SL2 (Fq ) tiene
orden q(q − 1)(q + 1).>

3.2.2. Transvecciones

Llamamos transvección a una transformación lineal t en V espacio vectorial, cuyos autovalores


son todos 1 y que satisface rank(t − 1) = 1. Las transvecciones tienen la forma genérica
13
projective general linear group y projective special linear group
14
Recordemos que un grupo G se dice simple si sus únicos subgrupos normales son el trivial y el mismo G.
15
Los grupos alternados son subgrupos normales de grupos de permutaciones y tienen orden n!/2. Los grupos alternados
An para n ≥ 5 son grupos simples.
16
Éstas son matrices de determinante 1 que tienen la forma α · I donde α ∈ F .

23
tv,f : x 7−→ x + (xf )v

donde v ∈ V , f ∈ V ∗ , y vf = 0. Notemos que en particular las transvecciones tienen determinante


1 y por lo tanto se encuentran en SLn (V ). El mapa en el espacio proyectivo es llamado una elación y el
punto hai en él recibe el nombre de centro de la transvección o elación. Finalmente, el hiperplano dado
por ker(f ) se llama eje.

Teorema: El grupo SLn (F ) está generado por transvecciones, para n ≥ 2 y cualquiera sea el cuerpo
F.

Demostración: Una forma de calcular el determinante de una matriz A es reduciéndola a través


de operaciones de filas. Ası́, si det A=1, es posible reducir a A a la identidad mediante operaciones que
reemplazan una fila por ésta más un múltiplo de otra. Esto es equivalente a multiplicar por izquierda por
una matriz con unos en toda su diagonal y cuyos elementos restantes son 0 excepto uno de ellos. Estas
matrices representan claramente transvecciones, por lo que A−1 resulta ser producto de transvecciones
y, en consecuencia, éstas deben generar a SLn (F ).¦

µ ¶
0 1
Ejemplo: Consideremos la matriz en SL2 (R). Se puede verificar que
−1 1
µ ¶µ ¶ µ ¶ µ ¶µ ¶ µ ¶
1 −1 0 1 1 0 1 0 1 0 1 0
= =
0 1 −1 1 −1 1 1 1 −1 1 0 1
Ası́, µ ¶µ ¶µ ¶
1 0 1 −1 0 1
=I
1 1 0 1 −1 1
es decir,
µ ¶ µ ¶−1 µ ¶−1
0 1 1 −1 1 0
= >
−1 1 0 1 1 1

Notemos que cualquier transvección puede ser representada por una matriz con 1 en su diagonal
y en la esquina derecha, y ceros en las demás entradas, por lo que pertenece a SLn (Fq ). El grupo de
todas las elaciones con centro en hai, junto con la identidad, forman un subgrupo normal abeliano del
estabilizador del punto hai en P SLn (Fq ).

Ası́, muchas de las propiedades que describe el álgebra lineal sobre similitud entre matrices pueden
ser interpretadas como propiedades de clases en GLn (F ). Por ejemplo, dos matrices no singulares son
conjugdas en GLn (F ) si y sólo si tienen los mismos factores invariantes. Si F es algebraicamente cerrado,
entonces dos matrices no singulares son conjugadas en GLn (F ) si y sólo si tienen la misma forma de
Jordan.

3.2.3. Teoremas de Sylow y el grupo lineal especial

Recordemos que H = M Tn (Fq ) es el grupo de matrices triangulares superiores con 1 en sus diag-
onales. Vemos claramente que, como las matrices en H tiene determinante 1, H ⊆ S. Luego, todos los

24
p-grupos de Sylow de G están en su subgrupo normal S.

4. Algunos grupos lineales particulares

Uno de los resultados más importantes de la teorı́a de grupos es el teorema de Cayley que enuncia-
remos a continuación:

Teorema de Cayley: Todo grupo es isomorfo a un grupo de permutaciones.


Demostración: La demostración de este teorema la haremos en forma constructiva: daremos un
algoritmo que nos permitirá transformar cualquier grupo en un grupo de permutaciones.
Sea G un grupo y sea SG el grupo de simetrı́as de G 17 . Para cada g ∈ G definimos σg a la
permutación dada por:
σg (x) = xg ∀g ∈ G
En otras palabras, multiplicamos a cada elemento de G a derecha por g. Se puede ver fácilmente que
σg es efectivamente una permutación pues:

Vemos que es suryectiva ya que σg (xg −1 ) = x.

Dados x, y ∈ G vemos que σg (x) = σg (y) si y sólo si xg = yg, si y sólo si x = y, por lo que la
aplicación es uno a uno.

Llamamos H = {σg | g ∈ G} y definimos f : G → H de manera tal que f (g) = σg . Luego,


tendremos que f (g1 g2 ) = σg1 g2 y para cada x ∈ G

σg1 g2 (x) = xg1 g2 = (xg1 )g2 = σg2 (σg1 (x))

Luego, σg1 g2 = σg1 σg2 y f (g1 g2 ) = f (g1 )f (g2 ) por lo que f resulta ser un morfismo. Además

f es suryectiva en H.

Si f (g1 ) = f (g2 ) tendremos que ∀x ∈ G vale xg1 = xg2 por lo que g1 = g2 y con ello f resulta ser
uno a uno.

Ası́ tenemos que H es un subgrupo de SG isomorfo a G. ¦

Como consecuencia de este teorema, si G es un grupo finito de orden n, entonces G será isomorfo
a un subgrupo del grupo de simetrı́as Sn . Veremos luego que será posible en algunos casos que G sea
isomorfo a un subgrupo de Sk para k < n, lo que lleva a preguntarnos cuál será el menor entero positivo
r tal que G sea isomorfo a un subgrupo Sr .
Veamos ahora un ejemplo:
17
Recordemos que un grupo de simetrı́as es aquél que preserva simetrı́as: i.e. rotaciones, inversiones, reflexiones.

25
Ejemplo 1: Consideremos el grupo de simetrı́as de los triángulos equiláteros S3 . El teorema anterior
nos llevarı́a a una representación de sus elementos como permutaciones de {1, 2, 3, 4, 5, 6}. Pero si nom-
bramos los vértices del triángulo con 1, 2 y 3 podemos ver que los elementos pueden ser representados
como permutaciones de {1, 2, 3}.

4.1. Grupo de matrices triangulares superiores

Para n ≥ 1, una matriz A = [aij ] ∈ Mn (K) es triangular superior si tiene la forma

 
a11 a12 . . . ... ... a1n
 . .. .. 
 0 a21 . . . . a2n 
 .. 
 .. .. .. 
 0 0 . . . . 
A=
 .. .. .. .. .. .. 

 . . . . . . 
 .. .. .. 
 . . . 0 an−1 an−1 
 n−1 n 
..
0 0 . 0 0 ann
Esto es, posee entradas aij = 0 para i < j. Una matriz se dice unipotente si todas sus entradas en la
diagonal son 1,18 .
Dado K un cuerpo, llamamos subgrupo triangular superior o subgrupo Borel de GLn (K) al conjunto

U Tn (K) = {A ∈ GLn (K) : A es triangular superior}

Por otro lado, llamamos subgrupo unipotente 19 de GLn (K) al conjunto M Tn (K) que nombramos en la
sección 2, cuya forma es

M Tn (K) = {A ∈ GLn (K) : A es unipotente}

Se puede ver fácilmente que ambos subgrupos son cerrados en GLn (K). Por otro lado, notemos que
M Tn (K) ≤ U Tn (K) y es un subgrupo cerrado.
Propiedad: Todo grupo unipotente, mirado como grupo matricial, es conjugado en GLn (K) a un sub-
grupo de M Tn (K).
Ejemplo:
· 0 ¸ Estudiemos
· ¸ las transformaciones que realiza U T2 (R) en el plano R2 . Tomemos dos vec-
x x
tores y de R2 . Luego
y0 y
· ¸ · ¸· ¸ · ¸
x0 a b x ax + by
= =
y0 0 d y dy

Vemos que el eje x queda invariante: es un subespacio invariante y = 0 → y 0 = 0 llevado sobre sı́ mismo
por estas matrices. El eje y no es invariante.>
18
Esto es, aij = 0 para i < j y aii = 1.
19
También llamado grupo nilpotente.

26
Ejemplo: Para el caso particular
½· ¸ ¾
1 t
M T2 (K) = ∈ GLn (K) : t ∈ K ≤ GL2 (K)
0 1

vemos que la función

ϕ :
K → M T2 (K)
· ¸
1 t
ϕ(t) =
0 1
es un homomorfismo continuo, inyectivo y con inversa continua, lo que nos permite pensar a K como
grupo matricial 20 .>

4.2. Grupos afines

LLamamos grupo afı́n de dimensión n sobre K al grupo


½· ¸ ¾
A t n
Afn (K) = : A ∈ GLn (K), t ∈ K ≤ GLn+1 (K)
0 1
· ¸
x
Éste es claramente un subgrupo cerrado de GLn+1 (K) y, si identificamos x ∈ Kn con ∈ K n+1 ,
1
se tendrá la fórmula
· ¸· ¸ · ¸
A t x Ax + 1
=
0 1 1 1
obteniéndose ası́ una acción de Afn (K) sobre K n .
Las transformaciones ϕ de K n tal que ϕ(x) = Ax + 1 para A matriz inversible, son llamadas
transformaciones afines, y poseen la caracterı́stica de preservar lı́neas 21 .
Propiedad: Podemos pensar al espacio vectorial K n como subgrupo (cerrado) de translaciones de
Afn (K) del siguiente modo
½· ¸ ¾
In t n
T ransn (K) = : t∈K ≤ Afn (K)
0 1

Ejemplo: Existe un subgrupo cerrado de Afn (K) que es isomorfo a GLn (K) dado por
½· ¸ ¾
A 0
: A ∈ GLn (K) ≤ Afn (K) >
0 1

Proposición: T ransn (K) es un subgrupo normal de Afn (K) y éste último puede ser expresado como
el producto semi directo entre T ransn (K) y GLn (K):

Afn (K) = GLn (K) o T ransn (K) = {AT : A ∈ GLn (K), T ∈ T ransn (K)}
20
Puesto que resulta ser K isomorfo a M T2 (K).
21
Esto es, trasladan subespacios de dimensión 1 del K-espacio vectorial K n .

27
de manera que
T ransn (K) ∩ GLn (K) = {In+1 }

Demostración: Para ver que estamos ante un producto semi directo notemos que si
· ¸ · ¸
A 0 I t
∈ GLn (K) y ∈ T ransn (K)
0 1 0 1
Entonces tendremos que

· ¸· ¸· ¸−1 · ¸· ¸
A 0 I t A 0 A At A−1 0
=
0 1 0 1 0 1 0 1 0 1
· ¸
I At
=
0 1

que está en T ransn (K). La igualdad T ransn (K) ∩ GLn (K) = {In+1 } es evidente debido a las
definiciones.¦
Ejemplo: Las transformaciones afines sobre M T2 (R) actúan sobre el eje x mandando x → x0 =
ax + b del siguiente modo
· ¸ · ¸· ¸ · ¸
x0 a b x ax + b
= = >
1 0 1 1 1

4.3. Grupos ortogonales

Sea n ≥ 1. Una matriz A ∈ Mn (K) se dice ortogonal si AT A = In , es decir, A tiene inversa dada
por AT . El producto de dos matrices ortogonales A y B es ortogonal, puesto que
(AB)T (AB) = B T AT AB = BIn B T = BB T = In

Dado K cuerpo (en principio consideremos K = R pero podrı́amos también tomar K = C), el grupo
ortogonal es
On (K) = {A ∈ GLn (K) | A · AT = In }
La ecuación A · AT = In es equivalente a las n2 ecuaciones para los n2 números aij
n
X
aki akj = δij
k=1
On (K) resulta ser un subgrupo cerrado de Mn (K) por lo que será también un subgrupo matricial de
GLn (K).
Si ahora consideramos a la función determinante restringida a On (K), tendremos que
(detA)2 = detAT detA = det(AAT ) = det(In ) = 1
por lo que detA = ±1. Podremos separar luego a On (R) = O(n) en dos subconjuntos disjuntos dados
por
O(n)+ = {A ∈ O(n) : det A = 1} y O(n)− = {A ∈ O(n) : det A = −1}

Siendo O(n)+ un subgrupo.

28
4.3.1. Subgrupo ortogonal especial

Un subgrupo muy importante de O(n) es el llamado subgrupo ortogonal especial de GLn (R) dado
por
SO(n) = O(n)+ ≤ O(n)
Tanto O(n) como SO(n) están estrechamente relacionados con las isometrı́as en Rn , que son biyecciones
f : Rn → Rn que preservan distancias, esto es

|f (x) − f (y)| = |x − y| ∀x, y ∈ Rn

Si una isometrı́a fija al origen será una transformación lineal, también llamada isometrı́a lineal y, luego
de fijar la base canónica en Rn , se corresponderá con una matriz A ∈ GLn (R).
Proposición: Sea A ∈ GLn (R). Las siguientes condiciones son equivalentes:

A es una isometrı́a lineal.

Ax · Ay = x · y para todo par de vectores x, y ∈ Rn .

AT A = In , esto es, A es ortogonal.

Demostración: Sea A una isometrı́a lineal. Entonces para todo v ∈ Rn , valdrá que |Av| = |v|.
Sean ahora dos vectores x, y ∈ Rn

|A(x − y)|2 = (Ax − Ay) · (Ax − Ay)


= |Ax|2 + |Ay|2 − 2Ax · Ay
= |x|2 + |y|2 − 2Ax · Ay

Pero a su vez

|A(x − y)|2 = |x − y|2


= (x − y) · (x − y)
= |x|2 + |y|2 − 2x · y

Por lo que podemos concluir que

|x|2 + |y|2 − 2Ax · Ay = |x|2 + |y|2 − 2x · y =⇒ 2Ax · Ay = 2x · y

Si tomamos ahora dos vectores u, v ∈ Rn , tendremos que u · v = uT v y (Au) · (Av) = uT AT Av.


Luego, calculando esto para los vectores básicos, tendremos que para cada i, j = 1, . . . , n

eTi AT Aej = (AT A)ij

y recordemos que eTi ej = δij . Podemos concluir entonces que necesariamente AT A = In .


Finalmente, supongamos que AT A = In . Para cada vector w ∈ Rn valdrá que

29
|Aw|2 = (Aw) · (Aw)
= wT AT Aw
= wT w
= |w|2

por lo que A resulta ser una isometrı́a lineal.¦


Ejemplo: Sea H1 el subgrupo de dimensión 2 de SL2 (R) dado por
½· ¸ ¾
a b
H1 = para a, b ∈ R
0 1/a

y sea H2 el subgrupo de dimensión 1 de O(2) dado por


½· ¸ ¾
cos θ sin θ
H2 = SO(2) = para θ ∈ [0, 2π)
− sin θ cos θ

Luego, la intersección H1 ∩ H2 es el subgrupo de dimensión nula que contiene las dos operaciones
discretas de grupos ±I2 . >

4.3.2. Grupo de isometrı́as

Los elementos de SO(n) son llamados rotaciones o isometriı́as directas mientras que los elementos
de O(n)− son llamados usualmente isometrı́as indirectas. Podemos definir el grupo de isometrı́as en Rn
dado por

Isomn (R) = {f : Rn → Rn | f es una isometrίa}

Se ve claramente que T ransn (R) ⊆ Isomn (R) y además T ransn (R) es un subgrupo cerrado de
Isomn (R)22 . Otro modo de ver a éste como grupo matricial es el siguiente :
½· ¸ ¾
A t n
Isomn (R) = : A ∈ O(n), t ∈ R
0 1

Analizando del mismo modo en que lo hicimos para ver que Afn (R) podı́a ser expresado como
producto semi-directo, podemos mostrar que
Proposición: T ransn (R) es un subgrupo normal de Isomn (R) y éste último puede ser expresado como
producto semi-directo de T ransn (R) y O(n), es decir,

Isomn (R) = O(n) o T ransn (R) = {AT : A ∈ O(n), T ∈ T ransn (R)}

Proposición: Para un hiperplano H ⊆ Rn , la proyección al hiperplano en H es una isometrı́a indirecta


de Rn , dada por θH ∈ O(n).
22
De esto se deduce que Isomn (R) es un grupo matricial.

30
Demostración: Si elegimos una base ortonormal de H y le adjuntamos un vector unitario ortogonal
a H, podremos escribir cada elemento de Rn en términos de esta base. Luego, la matriz de θH estará dada
por · ¸
In−1 O(n−1)×1
= diag(1, . . . , 1, −1)
O1×(n−1) −1

que claramente tiene determinante -1, por lo que resulta ser una isometrı́a indirecta. ¦
Dado un elemento de O(n) diremos que éste es una proyección al hiperplano si representa a una en
la base usual de Rn . Esto es, si tiene la forma

P diag(1, . . . , 1, −1) P T

para algún elemento P ∈ O(n).


Un resultado importante que no demostraremos es el que nos asegura que cualquier elemento de
O(n) es producto de proyecciones a hiperplanos.
Propiedad: Todo A ∈ O(n) es producto de proyecciones a hiperplanos. El número de estas proyecciones
es par si A ∈ SO(n) y es impar si A ∈ O− (n).

4.3.3. Grupos ortogonales generalizados

Podemos generalizar el estudio de los grupos ortogonales tomando una matriz simétrica Q ∈ Mn (K)
y armando el conjunto
OQ = {A ∈ GLn (R) | AT QA = Q}

Vemos que es un subgrupo cerrado de GLn (R) y por lo tanto un subgrupo matricial. Más aún, si
detQ 6= 0, dada A ∈ OQ su determinante será ±1. Si ahora definimos los subconjuntos
+ −
OQ = det−1 (R+ ) y OQ = det−1 (R− ) (1)

podremos expresar a OQ como la unión disjunta


+ −
OQ = OQ ∪ OQ

Ejemplo: Si tomamos la matriz Q como


 
1 0 0 0
 0 1 0 0 
Q=
 0

0 1 0 
0 0 0 −1
+ +
El grupo asociado a ella OQ nos permite formar el llamado grupo de Lorentz que está dado por OQ ∩
SL2 (R). Este grupo preserva cada una de las dos componentes conexas del hiperboloide

x21 + x22 + x23 − x24 + = −1 >

31
4.4. Grupos simplécticos

Sea S ∈ Mn (R) tal que S T = −S. Para esta matriz, tendremos que

det(S T ) = det(−S) = (−1)n det(S)

por lo que deducimos que


det(S) = (−1)n det(S)
Cuando det(S) 6= 0 tendremos que n necesariamente es par, por lo que podemos expresarlo como
n = 2m.
Ejemplo: Si consideramos la matriz
· ¸
0 1
J=
−1 0

vemos que J se encuentra bajo las condiciones antes nombradas.>


Si consideramos m ≥ 1 definamos las matrices
 
J O2 . . . O2
 O2 J . . . O2 
 
J2m =  . .. . . .. 
 .. . . . 
O2 O2 . . . J

Luego, llamamos grupo simpléctico al conjunto de matrices de 2m × 2m sobre los reales dado por

Simp2m = {A ∈ GL2m (R) | AT J2m A = J2m } ≤ GL2m (R)

Existe una definición alternativa y ligeramente diferente del grupo simpléctico:

 
1 ... 0
 . 


0m 0 .. 0 

 0 ... 1 
Simp02m = {A ∈ GLn (K) | A · J2m
0
· AT = J2m
0
} para 0
J2m =



 -1 . . . 0 
 .. 
 0 . 0 0m 
0 . . . -1

y existe una relación entre ambas representaciones que podemos resumir con la siguiente proposición.
Proposición: Sea P ∈ GLn (R) una matriz tal que J 0 = P T J2m P . Luego
2m

Simp02m (R) = P −1 Simp2m (R)P = {P −1 AP : A ∈ Simp2m (R)}

En general
0
Simp2m (R) 6= SL2m (R) y Simp 2m (R) 6= SL2m (R)

32
Dada A ∈ Simp2m (R) o A ∈ Simp 0 (R) se ve fácilmente que det(A) = ±1. De hecho, det(A) = 1
2m
por lo que tendremos que
0
Simp2m (R) ≤ SL2m (R) y Simp 2m (R) ≤ SL2m (R)

Ejemplo: Estudiemos el comportamiento del determinante de las matrices en Sp2 (R) ⊂ GL2 (R):
· ¸· ¸· ¸ · ¸ · ¸
a c 0 1 a b 0 ad − bc 0 1
= =
b d −1 0 c d bc − ad 0 −1 0

Luego, tenemos que ad − bc = +1 por lo que Sp2 (R) = SL2 (R) >

4.5. Grupos unitarios

Dada una matriz A ∈ Mn (C) llamamos conjugado hermitiano de A a la matriz A∗ dada por

A∗ = (A)T = (AT )

En coordenadas, esto será


(A∗ij ) = aji

Llamamos grupo unitario al subgrupo de matrices de n × n dado por

U (n) = {A ∈ GLn (C) : A∗ A = I} ≤ GLn (C)

Esto nos está dando n2 ecuaciones para los númeos complejos aij , que podrı́amos escribirlo como
n
X
aki akj = δij
k=1

Y si separamos las partes reales e imaginarias tendrı́amos 2n2 ecuaciones.


Existe otra manera de definir el grupo unitario utilizando la noción de forma hermitiana del
producto · sobre C. Ası́ podremos decir que el grupo unitario está dado por

Un (C) = {T ∈ GLn (C) : T (x) · T (y) = x · y ∀x, y ∈ C n }

y si trabajamos con la base estándar, tendremos que


T
Un (C) = {A ∈ Mn (C) : A A = In }

Teniendo en cuenta esta última notación podemos ver fácilmente la siguiente propiedad.
Propiedad: Si M ∈ Un (C), luego det(M ) es un número complejo de norma 1.

33
4.5.1. Grupo unitario especial

Llamamos grupo unitario especial a

SU (n) = {A ∈ GLn (C) : A∗ A = I y det(A) = 1} ¢ U (n)

Nuevamente, podemos estudiar cuándo una matriz pertenece a este grupo armando ecuaciones para
cada entrada, obteniéndose ası́
n
X
aki akj = δij (1 ≤ i, j ≤ n)
k=1
det(A) = 1

4.6. Grupos matriciales finitos

Uno de los resultados más importantes en lo que respecta a grupos matriciales finitos es el que
obtuvo Jordan en 1878:
Existe una función f (n) sobre los enteros tal que para matriz A ∈ Mn (K) donde el cuerpo K tiene
caracterı́stica cero, tiene un subgrupo normal abeliano cuyo ı́ndice es menor que f (n).
Se ha probado también que existe una función f (m, n) tal que para todo grupo G ⊂ Mn (K) donde
K tiene caracterı́stica p > 0 y tal que el orden de los p-subgrupos de Sylow no exceda pm , existe un
subgrupo normal abeliano de ı́ndice menor a f (m, n).
Estudiaremos ahora ciertas caracterı́sticas particulares de subgrupos finitos de SLn (K) y GLn (K).

4.6.1. S = SL2 (Fq )

Consideraremos el caso en que F es un cuerpo y q un número impar.


Si t ∈ S y t2 = 1 luego cada uno de los dos autovalores de t está en el conjunto {−1, 1} y el producto
de estos autovalores es det(t) = 1 por lo que sólo tendremos dos posibilidades: o ambos autovalores
son 1 o ambos son -1. Luego, el polinomio caracterı́stico de t es (X + 1)2 o (X − 1)2 . Pero como
t2 = 1, el polinomio minimal de t divide a (X 2 − 1). En general, el polinomio minimal de cualquier
matriz cuadrada divide al polinomio caracterı́stico, por lo que en este caso nuestro polinomio minimal
tendrá dos posibilidades: X + 1 o X − 1,23 . Concluimos pues que t es la matriz identidad I o −I. En
particular, esto muestra que −I es la única involución en SL2 (Fq ) cuando q es impar.

4.6.2. G = GL2 (Fp )

Estudiemos primero el caso en que F es un cuerpo y p un número impar.


Teorema: Sea G = GL2 (Fp ), donde p es un número primo impar. Sea P ∈ Sylp (G). Supongamos que
L ⊆ G es normalizado por P y que p no a divide |L|. Si un 2-subgrupo de Sylow de L es abeliano,
entonces P centraliza a L.
23
Estamos suponiendo que −1 6= 1 lo cual es válido ya que la caracterı́stica es p 6= 2.

34
Demostración: Vamos a demostrarlo suponiendo que P no centraliza a L y llegando a un absurdo.
Si existe un subgrupo propio de L que es normalizado pero no centralizado por P, podemos reem-
plazar a L por este subgrupo: supongamos pues que L es minimal con respecto a la propiedad de que
es normalizado pero no centralizado por P.
Llamemos C = CL(P ) < L y sea q cualquier divisor primo de |L : C|. Elijamos un r-subgrupo de
Sylow R de L que sea P-invariante (esto es posible ya que p no divide a |L|). Luego R ! C, y por ello P
normaliza pero no centraliza a R. Por ser L el mı́nimo grupo con esta propiedad, tendremos que R = L,
por lo que L resulta ser un r-grupo.
Ahora sea 1 < [L, P ] = [L, P, P ] y luego [L, P ] es un subgrupo P-invariante de L que no es central-
izado por P: por ser L el menor grupo con esta propiedad, nuevamente tendremos que L = [L, P ] ⊆
G0 ⊆ SL2 (Fp ).
Si r = 2, L es abeliano por hipótesis. Pero SL2 (Fp ) contiene una única involución, por lo que L es
cı́clico. Pero esto es imposible ya que un grupo de orden p 6= 2 no puede actuar de manera no trivial
sobre un 2-grupo cı́clico.24 Concluimos pues que r es un número impar y que L tiene orden impar.
Sea ahora |L| una potencia de un número primo impar que divide a |SL2 (FP )| = p(p + 1)(p − 1)/2.
Como p + 1 y p − 1 no tienen divisores primos impares comunes, y sabemos que (|L|, p) = 1, tenemos
que |L| divide a p + 1 o |L| divide a P − 1, por lo que |L| ≤ p + 1. Pero P no es normal en PL (pues
de serlo P centralizarı́a a L) por lo que el número de p-subgrupos de Sylow de PL es mayor que 1. Se
desprende de los teoremas de Sylow que p + 1 ≤ n ≤ |L| y, como ya sabemos que |L| ≤ p + 1, deducimos
que |L| = p + 1. Pero esto implicarı́a que |L| es par, que es absurdo. ¦

Clases de conjugación de G = GL2 (Fq )


Recordemos que la clase de conjugación de un elemento x ∈ G es Cx = {gxg −1 | g ∈ G} y que su
estabilizador es Z(x) = {g ∈ G | gxg −1 = x}.
Recordemos además que para x ∈ G vale que

|G| = |Cx | · |Z(x)|

y además ya hemos visto que


|G| = (q + 1)q(q − 1)2
Buscaremos y caracterizaremos ahora todas las clases de conjugación de G = GL2 (Fq ). Consideraremos
distintas clases de matrices para organizar nuestro estudio:
¶ µ
a 0
Consideremos primero las matrices que pueden ser transformadas por conjugación en ,
0 b
donde a 6= b. Estamos considerando, pues, matrices diagonalizables con distintos autovalores. Esto
nos dará clases de conjugación distintas para cada par de autovalores {a, b}, puesto que éstos son
preservados por conjugación.
24
Esto es ası́ porque el orden del grupo de automorfismos de un grupo cı́clico de orden 2e es ϕ(2e ) = 2e−1 , que no es
divisible por p.

35
µ ¶
a 0
Dado un par {a, b} tendremos a ga,b = como el elemento representante de la clase de
0 b
conjugación. Notemos que el estabilizador de ga,b es el conjunto de matrices diagonales de G25 .
Calculemos ahora la cantidad de clases de conjugación que estamos considerando:

|Gga,b | = |G|/|Z(ga,b )| = (q + 1)q(q − 1)2 /(q − 1)2 = (q + 1)q


µ ¶
q−1
Luego, tendremos = (q−1)(q−2)
2 posibilidades distintas de elegir los autovalores a y b,
2
donde cada elección nos dará una clase distinta de conjugación. Ası́ tendremos

(q + 1)q(q − 1)(q − 2)
2
elementos distintos de G.

Consideremos
µ ¶ ahora las matrices diagonalizables con un único autovalor. Éstas serán de la forma
a 0
y como estas matrices quedan fijas por conjugación, son la única manera de diago-
0 a
nalizarlas.
El hecho de que estas matrices
µ queden
¶ fijas por conjugación nos dice que sus estabilizadores son
a 0
todo G. Luego, para ga = tendremos:
0 a

|Cga | = |G|/|Z(ga )| = |G|/|G| = 1

Ası́, cada clase de conjugación tiene sólo un elemento y, como hay q − 1 clases de este tipo26 ,
tendremos
q−1
elementos distintos de G.

Sean ahora elementos A ∈ G no diagonalizables, pero con autovalores en Fq . Esto implica que los
autovalores de A son todos iguales, ya que si no lo fueran podrı́amos conjugar la matriz diagonal
de los autovalores de A por la matriz armada con sus respectivos autovectores y obtendrı́amos A,
por lo que A serı́a diagonalizable.
Como A es conjugada de toda matriz con igualesµautovalores ¶ y no diagonalizable, podemos tomar
a 1
como representante de cada clase a las matrices .
0 a
µ ¶
b c
El estabilizador de estas matrices posee todos los elementos de la forma para b, c tales
0 b
que b 6= 0. Luego, los estabilizadores tendrán q(q − 1) elementos, y ası́ las clases de conjugación
tendrán

|C| = |G|/|Z| = (q + 1)q(q − 1)2 /q(q − 1) = (q + 1)(q − 1)


25
Que serán (q − 1)2 .
26
Una clase por cada elemento no nulo a del cuerpo.

36
elementos distintos de G. Por otro lado, como tenemos q − 1 clases con esta forma 27 , obtenemos
consecuentemente
(q − 1)2 (q + 1)
elementos distintos de G.
Finalmente, consideremos el único tipo de matrices que nos resta estudiar, aquéllas con autovalores
λ1 , λ2 en la extensión cuadrática Fq2 de Fq .
Por definición, tendremos que λ1 y λ2 son ambas raı́ces del mismo polinomio caracterı́stico de
grad 2. Pero sabemos que los polinomios cuadráticos tienen como máximo dos raı́ces, por lo
que en nuestro caso éstas serán λ1 y su conjugada φ(λ1 )28 . Luego tendremos que λ2 = φ(λ1 ).
Ası́ tendremos una clase de conjugación diferente para cada uno de los q 2 − 1 = q(q − 1) posibles
valores de λ1 pero, como el orden de los autovalores no importa, dividiremos este número por 2,
obteniendo q(q−1)
2 clases distintas de conjugación de este tipo.
Finalmente, para calcular la cantidad de elementos que estas clases tendrán no estudiaremos esta
vez a los estabilizadores: sabemos que las clases de conjugación forman una partición de G y a
su vez conocemos la cantidad de elementos que posee G, por lo que podemos calcular fácilmente
la cantidad de elementos de nuestras últimas clases restándole al total los elementos de los tres
conjuntos estudiados anteriormente. Tendremos ası́ que estas clases de conjugación aportan
q 2 (q − 1)2
2
elementos distintos a G. Podemos también encontrar la cantidad de elementos que tiene cada una
de estas clases: q(q − 1).
Finalmente, podemos calcular el cardinal del estabilizador pues

|Z| = |G|/|C| = (q + 1)q(q − 1)2 /q(q − 1) = (q + 1)(q − 1)

4.6.3. Grupos de matrices finitos en GL(n,Z)

En esta sección nos diferenciaremos del resto de los temas al no imponer la condición de que el
conjunto de coeficientes posibles de las matrices sea un cuerpo. Demostraremos un resultado muy im-
portante que nos da una cota superior para la cantidad de elementos de un grupo de matrices finito en
GL(n, Z). Antes deberemos demostrar varios lemas. Llamaremos a partir de ahora g al orden de G.

Lema 1: Sea S el conjunto {A1 , A2 , ..., Ak }, donde los elementos de S no necesariamente son distintos
y pertenecientes a GL(n, Z). Supongamos que S tiene la propiedad

Ai S = {Ai A1 , ..., Ai Ak } = S

Para todo i tal que 1 ≤ i ≤ k. Entonces


k
X
tr(Ai ) ≡ 0 mod k
i=1
µ ¶
27 a 1
Una para cada valor no nulo de a en .
0 a
28
Donde φ es el automorfismo canónico en Fq2 que deja fijo a Fq .

37
Pk
Demostración: Sea M = i=1 Ai . Por hipótesis, se verificará que
k
X k
X
Aj M = Aj Ai = Ai = M, 1≤i≤k
i=1 i=1

Sumando sobre todos los j obtenemos que M 2 = kM . Luego, los autovalores de M son 0 y k con sus
respectivas multiplicidades. Como tr(M ) es igual a la suma de sus autovalores, se concluye que es un
múltiplo de k, por lo que el lema queda demostrado.¦

P k
Lema 2: La suma σk = A∈G {tr(A)} es siempre un entero divisible por g, para todo natural k.
Demostración: Sea G(k) = {A(k) : A ∈ G}, donde A(k) representa la k-ésima potencia de A con
respecto al producto de Kronecker. Entonces G(k) es un subgrupo de GL(nk , Z) cuyo orden divide a g,
ya que la correspondencia A −→ A(k) , A ∈ G, es un homomorfismo. Además

tr{A(k) } = {tr(A)}k

El lema anterior implica que σg es divisible por g, ya que el conjunto {A(k) } obviamente posee la
propiedad de clausura requerida.¦

P
Notemos que A∈G 1 = g es también divisible por g. El lema 2 implica entonces de forma inmediata
lo siguiente:

Lema 3: Sea f (λ) un polinomio sobre Z. Entonces


X
f (tr(A)) ≡ 0 mod g
A∈G

Lema 4: El único elemento de G con traza n es la identidad.


Demostración: Sea A ∈ G, tr(A) = n. Como Ag = I, los autovalores de A son raı́ces de la unidad.
La suma de n números de valor absoluto 1 puede ser n si y sólo si cada uno de ellos es 1. Luego, todos
los autovalores de A son 1. Esto implica que todos los autovalores de B = I + A + ... + Ag−1 son g, por
lo que B es no singular. Pero (A − I)B = 0, debiendo valer obligatoriamente que A = I. Esto concluye
la demostración.¦

Combinaremos estos lemas para obtener el siguiente resultado:

Teorema: Sean t1 = 1, t2 , ..., tr , los distintos valores que toma la función traza para las matrices de G.
Entonces

(n − t2 )(n − t3 )...(n − tr ) ≡ 0 mod g


(2n)! ≡ 0 mod g

38
Demostración: f (λ) = (λ − t2 )(λ − t3 )...(λ − tr ) es un polinomio entero que tiene la propiedad de
que f (tr(A)) es distinto de cero si y sólo si tr(A) = n, es decir, si y sólo si A=I. Por el lema 4 tendremos
entonces que X
f (tr(A)) = (n − t2 )(n − t3 )...(n − tr )
A∈G

La congruencia es una consecuencia del lema 3. Para demostrar la segunda afirmación, notar que tr(A)
es un entero tal que tal que |tr(A)| ≤ n, ya que es la suma de n raı́ces de la unidad de orden g. Luego,
los únicos valores posibles para tr(A) son

0, ±1, ..., ±n
Qn−1 Q
Se deduce que (n − t2 )(n − t3 )...(n − tr ) es un divisor de i=0 (n − i) ni=1 (n + i) = (2n)!. Esto completa
la demostración. ¦

4.7. Grupos matriciales finitamente generados

Un resultado muy importante al respecto es el que obtuvo Tits al mostrar que un grupo matricial
finitamente generado o contiene un grupo libre no abeliano, o tiene un subgrupo soluble de ı́ndice finito.
En este caso llamamos a G “grupo soluble”si su serie de derivadas G = G0 ≥ G1 ≥ .. alcanza la
identidad en un número finito de pasos, donde cada Gi+1 es el subgrupo de Gi generado por todos los
elementos de la forma x−1 y −1 xy con x, y ∈ Gi .

5. Grupos de Lie

En esta sección daremos una modesta introducción a los conceptos de grupo de Lie y Álgebra de
Lie y veremos cómo se relacionan con los grupos matriciales. A su vez intentaremos concentrarnos en
los casos real y complejo.
Definición: Un subconjunto S de Rm recibe el nombre de variedad diferencial de dimensión d si cada
punto p ∈ S tiene una vecindad en S que es difeomorfa a un abierto de Rd .
Definición: Un grupo de Lie es una variedad diferencial con una estructura de grupo tal que la función
G × G 7→ G definida por (x, y) 7→ xy −1 es C ∞ .
Definición: Un álgebra de Lie V sobre un cuerpo F es un espacio vectorial dotado de un operador
bilineal [, ] : V × V → V , llamado corchete de Lie, con las siguientes propiedades:

[x, y] = −[y, x] (Antisimetrίa)

[[x, y], z] + [[y, z], x] + [[z, x], y] = 0 (Identidad de Jacobi)

2
Mn (R) es una variedad. De hecho, podemos identificar a este espacio vectorial con Rn (lo cual
haremos muy a menudo a partir de ahora) disponiendo todos los coeficientes de las matrices en una sola
fila. No nos interesará darle una estructura de Grupo de Lie porque no toda matriz tiene inversa con el
producto. Se concluye también que Mn (R) es de dimensión n2 .

39
2
GLn (R) es un abierto visto como subconjunto de Rn , por lo que la misma asociación continúa
funcionando de manera local y por eso se tiene también en este caso una variedad de dimensión n2 .
Además, la definición de producto matricial y la regla de Cramer nos garantizan que la función (A, B) 7→
AB −1 es infinitamente derivable, haciendo de GLn (R) un grupo de Lie.

5.1. Espacios tangentes

Definición: Sea G ≤ GLn (k) un grupo matricial. El espacio tangente de G en U ∈ G es

TU G = {γ 0 (0) ∈ Mn (k) : γ es una curva dif erenciable en G con γ(0) = U }

Ejemplo: Usando nuevamente el hecho de que GLn (R) es abierto se determina que su espacio
tangente en la identidad (y en cualquier otro punto) es todo Mn (R). >
Proposición: TU G es un subespacio vectorial real de Mn (k).
Demostración: Supongamos que α y β son curvas diferenciables en G tales que α(0) = β(0) = U .
Entonces
γ : dom α ∩ dom β → G; γ(t) = α(t)U −1 β(t)
es también una curva diferenciable en G con γ(0) = U . La regla del producto nos da

γ 0 (t) = α0 (t)U −1 β(t) + α(t)U −1 β 0 (t)

ası́
γ 0 (0) = α0 (0)U −1 β(0) + α(0)U −1 β 0 (0) = α0 (0) + β 0 (0)
lo que demuestra que TU G es cerrado con la suma.
Similarmente, si r ∈ R y α es una curva diferenciable en G con α(0) = U , entonces η(t) = α(rt)
define una curva que comparte esas caracterı́sticas. Como η 0 (0) = rα0 (0), vemos que TU G es cerrado
bajo multiplicación por escalares reales.¦

Propiedad: En Mn (k) definamos [, ] por

[A, B] = AB − BA

Entonces [, ] es un corchete de Lie.


Demostración: Es claro que es bilineal y [A, B] = −[B, A]. Además

[[A, B], C] + [[B, C], A] + [[C, B], A] = [AB − BA, C] + [BC − CB, A] + [CA − AC, B] =

ABC − BAC − CAB + CBA + BCA − CBA − ABC + ACB + CAB − ACB − BCA + ABC

Siendo claro que todos los elementos se anulan entre sı́.¦


Es posible afirmar que la elección de este corchete de Lie no es arbitraria, sino que surge de manera
natural dadas las caracterı́sticas de los grupos de Lie y sus álgebras correspondientes. No profundizare-
mos mucho en esto, pero daremos a continuación una idea de aquello.

40
En toda variedad V se pueden definir campos vectoriales que a cada v ∈ V le asocian elementos en
Tv V 29 .
Definición: Sean X e Y campos vectoriales tangentes en V, se define el Corchete de Lie de los campos
vectoriales X e Y como el campo vectorial [X, Y ] cuya fórmula es
[X, Y ](v) = DX(v) Y (v) − DY (v) X(v)

No es difı́cil ver que [X, Y ] es tangente a V, antisimétrico y satisface la identidad de Jacobi.


Propiedad: Para todo A, B ∈ TI GLn (K) se definen los campos tangentes sobre GLn (K)
XA (M ) = M A XB (M ) = M B
Entonces [A, B] = [XA , XB ](I). La notación puede resultar un poco confusa, pero el corchete del lado
izquierdo de la igualdad actúa sobre matrices y el de la derecha sobre campos verctoriales.
Demostración:
(I + tA)B − B
DXA (I) XB (I) = DA XB (I) = lı́m = AB
t→0 t
Similarmente DXB (I) XA (I) = BA, por lo que queda demostrada la propiedad.¦
Esto significa que podrı́amos haber comprobado que la función [A, B] 7→ AB − BA es un corchete
de Lie sobre el espacio de la matrices como consecuencia de las propiedades que posee el corchete de
Lie de campos vectoriales si hubiéramos introducido a éste con anterioridad.
Dicho todo esto, destacamos que ya nos es posible darle a TI GLn (K) una estructura de álgebra de
Lie.
A partir de ahora, siempre que hablemos de álgebra de Lie estaremos haciendo referencia a TI GLn (K),
al cual le daremos también el nombre de gln (K). Si un subespacio a de gln (K) hereda la estructura
recibirá el nombre de subálgebra y, si coincide con el espacio tangente en la identidad de A ≤ GLn (K),
lo llamaremos álgebra de Lie de A.

5.2. Los grupos matriciales como grupos de Lie


2
Lema: Sea f : Rn → R función tal que
¯ ¯
¯ f11 . . . f1n ¯
¯ ¯
¯ ¯
f = ¯ ... ..
. ¯
¯ ¯
¯ fn1 . . . fnn ¯
2
donde, para todo i y para todo j entre 1 y n, fij es una función cuyo dominio es Rn y con codominio
R. Entonces
¯ ∂f11 ¯ ¯ ¯ ¯ ¯
¯ ··· ∂f1n ¯ ¯ f11 ··· f1n ¯¯ ¯ f11 ··· f1n ¯
¯ ∂xi ∂xi ¯ ¯ ∂f ¯ ¯
∂f ¯ f ··· f2n ¯ ¯ 21 ··· ∂f2n ¯ ¯ f21 ··· f2n ¯
¯ 21 ¯ ¯ ∂xi ∂xi ¯ ¯ ¯
=¯ . .. ¯+¯ . .. ¯¯ + . . . + ¯ .. .. ¯
∂xi ¯ .. . ¯ ¯ .. . ¯ ¯ . . ¯
¯ ¯ ¯ ¯ ∂f ¯
¯ f ··· fnn ¯ ¯ f ··· fnn ¯ ¯ n1 ··· ∂fnn ¯
n1 n1 ∂xi ∂xi
29
Espacio tangente de V en v.

41
Este lema no resulta difı́cil de demostrar. De hecho es casi trivial para n = 2 y se extiende al caso
general por inducción, desarrollando un determinante de orden mayor a través de una fila y aplicando
la regla del producto de la derivación.
Propiedad: SLn (R) es una variedad.
Demostración: Sea
¯ ¯
¯ x11 . . . x1n ¯
¯ ¯
¯ ¯
f (x11 , . . . , x1n , x21 , . . . , x2n , . . . , xn1 , . . . , xnn ) = ¯ ... ..
. ¯
¯ ¯
¯ xn1 . . . xnn ¯

Entonces SLn (R) = f −1 (1). Veremos ahora que el gradiente de f no se anula en ningún punto.
Sea (x11 , . . . , x1n , x21 , . . . , x2n , . . . , xn1 , . . . , xnn ) ∈ SLn (R). Como el determinante es no nulo pode-
mos encontrar una submatriz de n − 1 × n − 1 con determinante distinto de cero. Supongamos que es
posible obtenerla eliminando la fila i y la columna j y que el valor del determinante es aij 6= 0. Usando
∂f
la regla de derivación expuesta se concluye que ∂x ij
es la suma de n − 1 determinantes con al menos una
fila nula más otro que coincide con el de la definición de f a excepción de que la fija i es reemplazada
por el vector canónico ej . Por lo tanto

∂f
= ± aij 6= 0
∂xij

Ası́ logramos lo que querı́amos y esto nos lleva a la conclusión de que SLn (R) es una superficie de
dimensión n2 − 1. Y no es difı́cil ver que, como consecuencia del teorema de la función implı́cita, SLn (R)
es también una variedad de dimensión n2 − 1.¦
Este resultado implica automáticamente que SLn (R) es un grupo de Lie porque ya sabı́amos que
(A, B) 7→ AB −1 es una función C ∞ en cualquier dominio que consta solamente de matrices invertibles.
Nuestra presentación de SLn (R) como superficie puede ser aprovechada para calcular de forma muy
simple espacios tangentes. De hecho, si A es una matriz en SLn (R), valdrá que TA SLn (R) es el conjunto
de matrices que, representadas vectorialmente, son ortogonales al gradiente de f en A.
∂f
Para ilustrar esto, sea A = I. Usando la regla de derivación de determinantes se ve que ∂x ij
(I) es la
suma de n − 1 determinantes que, como antes, son nulos, más el determinante de la matriz que coincide
con la identidad excepto que la i-ésima fila es reemplazada por el vector canónico ej . Notar que si i 6= j
la i-ésima columna es el vector nulo lo que, con no muchas más consideraciones, nos lleva a la igualdad
∂f
(I) = δij ∀ 1 ≤ i, j ≤ n
∂xij
Pn
Ası́, la condición de ortogonalidad con respecto al gradiente se traduce en i=1 xii = 0, lo cual se
puede reformular del siguiente modo.
Proposición:
TI SLn (R) = {A ∈ Mn (R) : tr(A) = 0}

Hasta ahora, únicamente podemos afirmar con seguridad que sólo dos grupos matriciales reales,

42
GLn (R) y SLn (R) son grupos de Lie con el producto, lo cual plantea el interrogante de que si los otros
también lo son. La respuesta es afirmativa, aunque la demostración no es tan simple y la omitiremos.
Teorema: Sea G ≤ GLn (R) un subgrupo matricial. Entonces G es un subgrupo de Lie de GLn (R)

5.3. La función exponencial

Definición: Se define la función exponencial matricial para toda matriz A ∈ Mn (C) como
X 1 1 1
exp(A) = An = I + A + A2 + A3 + . . .
n! 2! 3!
n≥0

serie la cual es siempre convergente. Notar que la curva α(t) = exp(tA) cumple que α(0) = I, α0 (0) = A.
Este hecho sugerente es llevado a su máxima expresión en la forma del siguiente teorema:
Teorema: Sea A un subgrupo de GLn (C) y sea a un subespacio de gln (C). Sea U un entorno de 0
en gln (C) difeomorfo a través del mapa exponencial con un entorno V de la identidad en GLn (C).
Supongamos que
eU ∩a = A ∩ V
Entonces A es un subgrupo de Lie de G, a es una subálgebra de Lie de gln (C) y a es el álgebra de Lie
de A.
Ejemplos: Es posible demostrar que el grupo unitario U (n) y SLn (C) son grupos de Lie a través
de una elección adecuada de un conjunto que verifique las condiciones del teorema anterior.
Ası́, para el caso de U (n) podemos tomar a = u(n) = {A ∈ gln (C) : A + At = 0}. Y, para SLn (C),
sl(n, C) = {A ∈ gln (C) : tr(A) = 0}.

Calcularemos ahora TI O(n, C)


Sea ψ : GLn (C) → Mn (C) tal que ψ(M ) = M M t . Entonces O(n, C) = ψ −1 (I) y ası́

TI O(n, C) = {B ∈ Mn (C)/ (DB ψ)(I) = 0}

(DB ψ)(M ) = BM t +M B t =⇒ (DB ψ)(I) = B+B t =⇒ B ∈ TI O(n, C) ⇔ B t = −B ⇔ B es antisimétrica

Y, nuevamente, definiendo o(n, C) = {B ∈ gln (C) : B + B t }, se puede ver que se satisfacen las
condiciones del teorema y, como consecuencia directa, se llega a que el grupo ortogonal es un grupo de
Lie. >
Vale la pena notar que la dimensión de un subgrupo de Lie cerrado coincide con la dimensión de su
álgebra de Lie. Ası́, la dimensión de U (n) es n2 , la de SL(n, C) es 2n2 − 2 y la de O(n, C) es n(n − 1).

6. Apéndice

6.1. Operaciones de grupos

Recordemos algunas operaciones entre grupos que nos serán útil tener en mente a la hora de leer
este trabajo.

43
6.1.1. Proyección al hiperplano

Recordemos que, dado un subespacio H de Rn con dim H = (n − 1), llamamos a H Hiperplano en


Rn . Asociado a cada hiperplano existe una transformación lineal θH : Rn → Rn llamada proyección al
hiperplano.
Para poder definir a θH observemos que cada elemento x ∈ Rn puede ser unı́vocamente representado
como x = xH + x0H tal que xH ∈ H e y · x0H = 0 ∀y ∈ H. Luego, tendremos que

θH : Rn → Rn
θH (x) = xH − x0H

6.1.2. Producto semi-directo

Sea G un grupo con H ≤ G y N ¢ G. Decimos que G es producto semi-directo de H y N si G = HN ,


con H ∩ N = {1}. Lo denotaremos G = H o N o G = N o H.
Cuando G = H o N , existen los isomorfismos ϕ : G/N → H y la inclusión i : H → G que
cumplen ϕ ◦ i = IdH .
Por otro lado, como N es subgrupo normal de G, H actúa por conjugación sobre N.
Ejemplo: El caso más sencillo de producto semi-directo es cuando se tiene el producto directo H ×N ,
donde la acción de conjugación de H sobre N es la trivial.

6.2. Formas sobre espacios vectoriales

6.2.1. Formas bilineales

Una forma bilineal sobre un espacio vectorial V es una función

b : V ×V →R

que satisface las siguientes condiciones, para cualquier escalar α y vectores v, w, v1 , w1 , v2 , w2 ∈ V

1. b(α v, w) = b(v, α w) = α b(v, w)

2. b(v1 + v2 , w) = b(v1 , w) + b(v2 , w)

3. b(v, w1 + w2 ) = b(v, w1 ) + b(v, w2 )

Fijada una base en V, digamos {v1 , ..., vn }, la matriz B para la cual cada entrada está dada por
Bij = b(vi , vj ) es la representación unı́voca de la forma bilineal b. Es decir, nos basta conocer lo que
vale la forma sobre la base del espacio para poder conocerla en su totalidad.
Si tomamos por ejemplo dos vectores u, w ∈ V expresados como combinación lineal de la base de la
siguiente manera X X
u= ui vi y w = wi vi
i i

44
tendremos que à !
X X X
b(u, w) = b ui vi , wi vi = ui b(vi , vj )wj = uT B w
i i i,j

Por otro lado, dada una matriz B ∈ Mn (K) podemos definir una forma bilineal para todo u, v ∈ V
dada por
b(v, w) = v T B w
que satisface las propiedades antes enunciadas ya que el producto es asociativo y además se pueden
sacar escalares de las matrices.

6.2.2. Formas Hermitianas

Una forma Hermitiana en un espacio vectorial V sobre los complejos C es una función ϕ : V ×V → C
tal que para todo vector u, v, w ∈ V y escalares a, b ∈ C se cumple que

1. ϕ(au + bv, w) = aϕ(u, w) + bϕ(v, w)

2. ϕ(u, v) = ϕ(v, u)

Luego, podemos deducir que

ϕ(u, av + bw) = aϕ(u, v) + bϕ(u, w)

por lo que diremos que ϕ es antisimétrica en la segunda coordenada. Más aún, como ϕ(v, v) = ϕ(v, v)
tenemos que ϕ(v, v) ∈ R.
Propiedad: Sea ( , ) : V × V → K una forma hermitiana no nula. Luego, existe un elemento v ∈ V
tal que (v, v) 6= 0.
Propiedad: Sea ( , ) : V × V → K una forma hermitiana. Luego existen vectores e1 , ..., en ∈ V que
forman una base de V, tales que (ei , ej ) = 0 si i 6= j.
Ejemplo: Un ejemplo de forma hermitiana es el producto interno en C n dado por, para cada par
u, v ∈ C n
n
X
(u1 , ..., un )(v1 , ..., vn ) = ui vj >
i=1

Toda forma hermitiana en C n está asociada a una matriz A ∈ Mn (K) que llamaremos matriz
hermitiana, que cumple, para todo par de vectores X, Y ∈ C n

ϕ(X, Y ) = X A Y T

6.3. Representación de grupos

Sea G un grupo y F = R o F = C.
Definición: Una representación de G sobre F es un homomorfismo ρ de G en GLn (F ) para algún
n ∈ N . El grado de ρ es el entero n.

45
Usaremos la notación de aplicar homomorfismos a la derecha: ası́, la imagen de g por el homomor-
fismo τ se escribirá gτ .
Ejemplo 1: Sea G el grupo diedral D8 = ha, b : a4 = b2 = 1, b−1 ab = a−1 i. Definimos las matrices
A y B de la siguiente manera
µ ¶ µ ¶
0 1 1 0
A= , B=
1 0 0 −1

y verificamos que
A4 = B 2 = I, B −1 AB = A−1
Luego, el homomorfismo
ρ : ai bj → Ai B j (0 ≤ i ≤ 3, 0 ≤ j ≤ 1)
es una representación de D8 en F, de grado 2. >
Daremos ahora la noción de FG-módulo y mostraremos la relación entre FG-módulos y representa-
ciones de G sobre F.
Ejemplo 2: Podemos asociar a C con matrices de 2 × 2 a través de la siguiente representación ρ

ρ : C → M2 (R)
· ¸
x −y
ρ(x + iy) =
y x

Aquı́ ρ es efectivamente un homomorfismo inyectivo. Notemos que a la conjugación ρ la lleva a

ρ(z) = ρ(z)T >

6.4. producto de kronecker

Definición: Si A es una matriz de m × n y B es una patriz de p × q, entonces el producto de Kronecker


A ⊗ B es una matriz de mp × nq cuya expresión en bloques es
 
a11 B . . . a1n B
 .. .. .. 
A⊗B =  . . . 
am1 B . . . amn B

Propiedades
Éstas son algunas de las propiedades del producto de Kronecker, las cuales no demostraremos:

A ⊗ (B + C) = A ⊗ B + A ⊗ C (Si B y C tienen el mismo tamaño)

(A + B) ⊗ C = A ⊗ C + B ⊗ C (Si B y C tienen el mismo tamaño)

(kA) ⊗ B = A ⊗ (kB) = k(A ⊗ B)

(A ⊗ B) ⊗ C = A ⊗ (B ⊗ C)

(A ⊗ B)(C ⊗ D) = AC ⊗ BD (Siempre y cuando puedan definirse AC y BD)

46
A ⊗ B es invertible si y sólo si A y B son invertibles, y la inversa está dada por A−1 ⊗ B −1

Si A y B son matrices cuadradas de orden n y q respectivamente


tr(A ⊗ B) = tr(A)tr(B) y det(A ⊗ B) = (detA)q (detB)n

47
Referencias

[1] Bacry, Henri. (1967); “Leçons sur la Théorie des Groupes et les Symétries des Particules Élémen-
taires”, Gordon and Breach.

[2] Ball, W. W. R. and Coxeter, H. S. M. (1987); “Mathematical Recreations and Essays”, 13th ed.
New York: Dover, pp. 73-75.

[3] Baker Andrew; “Matrix groups, an introduction to Lie Group Theory”, Springer.

[4] Boratynski, M. (2002); “A note on Hermitian forms and Maschke’s Theorem”

[5] Cameron, Peter J. (2005); “Matrix groups”

[6] Cooper, Harold ; “The conjugacy classes of GL(2, Fq )”

[7] Cunningham, Gabe (2005) ; “The General Linear Group”

[8] Cunningham, Gabe (2005) ; “Sylow Theorem and The General Linear Group”

[9] Fraleigh, John B. (1987) ; “Álgebra abstracta, primer curso”, Addison/Wesley iberoamericana.

[10] Halmos, P.R.; Gehring, F.W.; Ewing, J.H. (1992) ; “Algebra, an approach via Module Theory”,
Graduate Texts in Mathematics 136.

[11] Hungerford, Thomas W. (1974) ; “Algebra ”, Springer.

[12] Isaacs, I.M. (2002) ; “General linear groups and the technical lemma for J-Theorems ”.

[13] Kim, Minhyong Kim; “Some matrix groups”, (2005)

[14] Pollatsek Harriet; “Topics in Algebra: Lie groups”(2003) (Cap 1 & 5)

[15] Queen Mary, University of London (2006) ; “Projective and polar spaces”

[16] Ram Arun; “Minicourse: examples of groups. Lecture 2: Matrix grpoups and Lie Groups”

[17] Reich Eitan; “Bilinear forms”(2005)

[18] Matthew Garcia; “Manifold structures in algebra”

[19] Garrett P.; “Buildings and classical groups”

[20] Morris Newman (1972); “Integral matrices”, Academic Press.

48

También podría gustarte