Está en la página 1de 68

Álgebra Lineal y Geometría

Departamento de Álgebra
Universidad de Sevilla
Depto. de Álgebra

Copyright © 2021 Dpto. de Álgebra, Universidad de Sevilla.


Compilado 11 de febrero de 2021
Este trabajo está publicado bajo licencia Creative Commons 3.0 España (Re-
conocimiento - No comercial - Compartir bajo la misma licencia)
http://creativecommons.org/licenses/by-nc-sa/3.0/es
Usted es libre de

copiar, distribuir y comunicar públicamente la obra,

hacer obras derivadas,

bajo las siguientes condiciones:

Reconocimiento. Debe reconocer los créditos de la obra maestra especi-


ficada por el autor o el licenciador (pero no de una manera que sugiera
que tiene su apoyo o apoyan el uso que hace de su obra).

No comercial. No puede utilizar esta obra para fines comerciales.

Compartir bajo la misma licencia. Si altera o transforma esta obra, o ge-


nera una obra derivada, solamente puede distribuir la obra generada bajo
una licencia idéntica a esta.

II Álgebra Lineal y Geometría


Índice general

1. Sistemas de ecuaciones lineales y matrices 1


1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Equivalencia de sistemas . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Eliminación gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4. Matrices: suma y trasposición . . . . . . . . . . . . . . . . . . . . . . 15
1.5. Multiplicación de matrices . . . . . . . . . . . . . . . . . . . . . . . 23
1.6. Propiedades de la multiplicación matricial . . . . . . . . . . . . . . 27
1.7. Notación matricial para los sistemas de ecuaciones . . . . . . . . . 31
1.8. Operaciones elementales sobre filas . . . . . . . . . . . . . . . . . . 33
1.9. Forma escalonada por filas . . . . . . . . . . . . . . . . . . . . . . . 36
1.10.Forma escalonada reducida por filas . . . . . . . . . . . . . . . . . . 40
1.11.Compatibilidad de sistemas . . . . . . . . . . . . . . . . . . . . . . . 46
1.12.Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.13.Sistemas no homogéneos . . . . . . . . . . . . . . . . . . . . . . . . 55

2. Álgebra matricial 63
2.1. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.2. Matrices elementales y equivalencia . . . . . . . . . . . . . . . . . . 68
2.3. Forma normal del rango . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.4. * Producto directo de matrices . . . . . . . . . . . . . . . . . . . . . 81

3. Determinantes 83
3.1. Definición inductiva . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.3. * Rango y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.4. * Método del orlado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.5. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.6. Cofactores y matriz inversa . . . . . . . . . . . . . . . . . . . . . . . 106
3.7. * Determinantes y permutaciones . . . . . . . . . . . . . . . . . . . 109
3.7.1. * Efecto por trasposición y operaciones elementales . . . . 112
3.8. * Igualdad de ambas definiciones . . . . . . . . . . . . . . . . . . . 118

III
Depto. de Álgebra

3.9. * Coste de cálculo del determinante . . . . . . . . . . . . . . . . . . 120

4. Espacios vectoriales 123


4.1. Estructuras algebraicas. . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.2. Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.3. Conjunto generador y base . . . . . . . . . . . . . . . . . . . . . . . 140
4.4. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.5. * Espacio producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
4.6. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
4.7. Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

5. Subespacios vectoriales 161


5.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.2. Dimensión de subespacios . . . . . . . . . . . . . . . . . . . . . . . 165
5.3. Ecuaciones paramétricas de un subespacio . . . . . . . . . . . . . 169
5.4. Ecuaciones implícitas de un subespacio . . . . . . . . . . . . . . . 171
5.5. Conversión entre paramétricas e implícitas . . . . . . . . . . . . . . 174
5.6. Operaciones con subespacios . . . . . . . . . . . . . . . . . . . . . . 182
5.6.1. Intersección y suma de subespacios . . . . . . . . . . . . . . 182
5.6.2. Propiedades de la suma de subespacios . . . . . . . . . . . . 184
5.6.3. Fórmula de la dimensión . . . . . . . . . . . . . . . . . . . . 185
5.6.4. Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
5.7. * Espacio cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

6. Homomorfismos 197
6.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . 198
6.2. Matriz de un homomorfismo . . . . . . . . . . . . . . . . . . . . . . 202
6.3. Imagen y núcleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
6.4. Homomorfismos inyectivos y sobreyectivos . . . . . . . . . . . . . 213
6.5. El espacio vectorial de los homomorfismos . . . . . . . . . . . . . . 221
6.6. * Teoremas de isomorfía . . . . . . . . . . . . . . . . . . . . . . . . . 225
6.7. Cambio de base y homomorfismos . . . . . . . . . . . . . . . . . . 232
6.8. * Espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
6.8.1. * Base dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
6.8.2. * Interpretación de la matriz traspuesta . . . . . . . . . . . . 240

7. Forma canónica 241


7.1. Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
7.2. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . 244
7.3. Multiplicidad algebraica y geométrica . . . . . . . . . . . . . . . . . 252
7.4. Matrices diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . 254
7.5. Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 262

IV Álgebra Lineal y Geometría


Depto. de Álgebra

7.5.1. Matriz de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 262


7.5.2. Espacio de autovectores generalizados . . . . . . . . . . . . 264
7.5.3. Construcción de la base de M(λ0 ) . . . . . . . . . . . . . . . 271
7.5.4. Construcción de la base canónica del endomorfismo . . . . 282
7.5.5. Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
7.6. * Forma canónica real . . . . . . . . . . . . . . . . . . . . . . . . . . 288
7.7. * Aplicaciones de la forma canónica . . . . . . . . . . . . . . . . . . 294
7.7.1. * Potencias de una matriz . . . . . . . . . . . . . . . . . . . . 294
7.7.2. * Límite de la sucesión de potencias . . . . . . . . . . . . . . 296
7.7.3. * Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . 300
7.7.4. * Exponencial de una matriz . . . . . . . . . . . . . . . . . . 305
7.7.5. * Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . 309

8. Espacio vectorial con producto escalar 313


8.1. Productos escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
8.2. * Expresión matricial de un producto escalar . . . . . . . . . . . . . 319
8.3. Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
8.4. * Normas vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
8.5. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
8.6. Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
8.7. Método de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . 341
8.8. * Factorización QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
8.8.1. * Factorización QR reducida . . . . . . . . . . . . . . . . . . . 347
8.8.2. * Factorización QR completa . . . . . . . . . . . . . . . . . . 348
8.9. Descomposición ortogonal . . . . . . . . . . . . . . . . . . . . . . . 350
8.9.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
8.9.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
8.9.3. Proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . 353
8.9.4. Cálculo de ecuaciones de W ⊥ . . . . . . . . . . . . . . . . . . 355
8.9.5. Ampliación a una base ortogonal . . . . . . . . . . . . . . . 357
8.9.6. Producto vectorial en R3 . . . . . . . . . . . . . . . . . . . . . 359
8.9.7. * Cálculos adicionales . . . . . . . . . . . . . . . . . . . . . . 364
8.10.Isometrías . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368

9. Teoremas espectrales 373


9.1. Lema de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
9.2. Diagonalización de las matrices normales . . . . . . . . . . . . . . 379
9.3. Matriz definida positiva . . . . . . . . . . . . . . . . . . . . . . . . . 387
9.4. * Ley de inercia de Sylvester . . . . . . . . . . . . . . . . . . . . . . . 394
9.5. * Descomposición en valores singulares . . . . . . . . . . . . . . . . 397
9.6. Forma diagonal por cajas de las matrices ortogonales . . . . . . . 403

Álgebra Lineal y Geometría V


Depto. de Álgebra

9.6.1. Matrices ortogonales de orden 2 . . . . . . . . . . . . . . . . 403


9.6.2. * Espacios invariantes de isometrías . . . . . . . . . . . . . . 404
9.6.3. * Construcción de la forma diagonal por cajas . . . . . . . . 405

10.Espacios afines 407


10.1.Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
10.2.Sistemas de referencia afines . . . . . . . . . . . . . . . . . . . . . . 411
10.3.Subespacios afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
10.4.Ecuaciones implícitas y paramétricas . . . . . . . . . . . . . . . . . 423
10.5.Operaciones con subespacios afines . . . . . . . . . . . . . . . . . . 428
10.6.* Baricentro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
10.7.* Figuras elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . 438

11.Aplicaciones afines 441


11.1.Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . 442
11.2.Matriz de una aplicación afín . . . . . . . . . . . . . . . . . . . . . . 447
11.3.Afinidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
11.4.Afinidades y orientación . . . . . . . . . . . . . . . . . . . . . . . . . 456
11.5.Imagen de un subespacio afín . . . . . . . . . . . . . . . . . . . . . 457
11.6.Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . 459
11.7.Dilataciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462

12.Espacios afines euclídeos 467


12.1.Distancia y sistema de referencia métrico . . . . . . . . . . . . . . . 468
12.2.Perpendicular común . . . . . . . . . . . . . . . . . . . . . . . . . . 471
12.3.Hiperplano mediador . . . . . . . . . . . . . . . . . . . . . . . . . . 483
12.4.Ángulo no orientado . . . . . . . . . . . . . . . . . . . . . . . . . . . 489

13.Movimientos y semejanzas 497


13.1.Movimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498
13.1.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . 498
13.1.2. Simetría hiperplana . . . . . . . . . . . . . . . . . . . . . . . 501
13.1.3. Vector de desplazamiento . . . . . . . . . . . . . . . . . . . . 504
13.2.Teorema de Cartan–Dieudonné . . . . . . . . . . . . . . . . . . . . . 507
13.3.Movimientos del plano . . . . . . . . . . . . . . . . . . . . . . . . . . 514
13.4.Movimientos del espacio . . . . . . . . . . . . . . . . . . . . . . . . 526
13.5.* Semejanzas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547
13.6.* Semejanzas en el plano y en el espacio . . . . . . . . . . . . . . . 550

VI Álgebra Lineal y Geometría


Depto. de Álgebra

14.* Geometría elemental del plano 553


14.1.Triángulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554
14.2.Circunferencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 560
14.3.Elementos notables del triángulo . . . . . . . . . . . . . . . . . . . . 563


Nota: los apartados con asterisco son opcionales.

Álgebra Lineal y Geometría VII


Depto. de Álgebra

VIII Álgebra Lineal y Geometría


Depto. de Álgebra

312 Álgebra Lineal y Geometría


Capítulo 8

Espacio vectorial con producto


escalar

Nuestro punto de partida es un espacio vectorial V definido sobre K = R o


K = C. Vamos a desarrollar simultáneamente la noción de producto escalar y
sus consecuencias sobre ambos cuerpos, e iremos observando las diferencias
en cada caso.

313
Depto. de Álgebra

8.1. Productos escalares

Producto escalar

Un producto escalar sobre un espacio vectorial real o complejo es una


función 〈·|·〉 : V ×V → K que aplica un par de vectores x, y en un escalar
real o complejo 〈x|y 〉, con las siguientes propiedades para todo x, y , z ∈
V , y α ∈ K:

1. 〈x|x〉 es real, con 〈x|x〉 ≥ 0, y 〈x|x〉 = 0 si y solamente si x = 0.

2. 〈x|αy 〉 = α〈x|y 〉 para todos los escalares α.

3. 〈x|y + z 〉 = 〈x|y 〉 + 〈x|z 〉.

4. 〈x|y 〉 = 〈y |x〉. Para espacios reales queda 〈x|y 〉 = 〈y |x〉.

Nota 8.1.1. Observemos que de la definición anterior se tiene que

〈βx|y 〉 = 〈y |βx〉 = β〈y |x〉


= β · 〈y |x〉 = β〈x|y 〉.

Por tanto, no es lineal respecto a la primera componente. No hay unicidad en


la literatura respecto a la segunda propiedad del producto escalar sobre un es-
pacio vectorial complejo. En muchos textos aparece la condición de linealidad
respecto a la primera componente, es decir,

〈βx|y 〉 = β〈x|y 〉,

y entonces se deduce que 〈x|αy 〉 = α〈x|y 〉. Esto solamente afecta a los produc-
tos escalares definidos en espacios vectoriales sobre el cuerpo de los números
complejos. En cualquier caso, el contenido fundamental de la teoría no cambia,
aunque algunas definiciones deben ser retocadas.

Ejemplo 8.1.1.- Consideremos la aplicación 〈·|·〉 : R2 ×R2 → R dada por 〈x|y 〉 =


2x1 y 1 + 3x2 y 2 , donde µ ¶ µ ¶
x1 y1
x= ,y = .
x2 y2
Entonces

314 Álgebra Lineal y Geometría


Depto. de Álgebra

1. 〈x|x〉 = 2x12 + 3x22 es un número real no negativo, pues es la suma de nú-


meros no negativos, y solamente vale cero cuando x = 0.

2. 〈x|αy 〉 = 2x1 (αy 1 ) + 3x2 (αy 2 ) = α(2x1 y 1 + 3x2 y 2 ) = α〈x|y 〉.

3. 〈x|y + z 〉 = 2x1 (y 1 + z 1 ) + 3x2 (y 2 + z 2 ) = 〈x|y 〉 + 〈x, z 〉.

4. 〈y |x〉 = 2y 1 x1 + 3y 2 x2 = 〈x|y 〉.

Entonces 〈·|·〉 es un producto escalar sobre R2 .

Producto escalar estándar

La función 〈·|·〉e : Rn × Rn → R, que definimos como


n
X
〈x|y 〉e = xt y = x i y i = y t x.
i =1

es un producto escalar sobre R, que denominamos producto es-


calar estándar sobre Rn .

La función 〈·|·〉e : Cn × Cn → C, que definimos como


n
X
〈x|y 〉e = x∗ y = xi y i = y t x
i =1

es un producto escalar sobre C, que denominamos producto es-


calar estándar sobre Cn .

P RUEBA : Vamos a probar el caso complejo, porque el caso real es idéntico.

1. 〈x|x〉e ≥ 0. Por la definición,


n
X n
X
〈x|x〉e = xi xi = |x1 |2 ≥ 0,
i =1 i =1

y solamente toma el valor cero cuando x = 0.

2. 〈x|αy 〉e = α〈x|y 〉e .

〈x|αy 〉e = x∗ (αy ) = α(x∗ y ) = α〈x|y 〉e .

Álgebra Lineal y Geometría 315


Depto. de Álgebra

3. 〈x|y + z 〉e = 〈x|y 〉e + 〈x|z 〉e .

〈x|y + z 〉e = x∗ (y + z ) = x∗ y + x∗ z
= 〈x|y 〉e + 〈x|z 〉e .

4. 〈x|y 〉e = 〈y |x〉e .

〈x|y 〉e = x∗ y = (y ∗ x)∗ = y ∗ x = 〈y |x〉e .

Ejemplo 8.1.2.- Sea P una matriz no singular de orden n sobre C. La aplica-


ción φP : Cn × Cn → C definida por φP (v , w ) = v ∗ P ∗ P w es un producto esca-
lar sobre Cn . Para probarlo, basta considerar que φP (v , w ) = 〈v ′ |w ′ 〉e , donde
v ′ = P v , w ′ = P w y se siguen fácilmente las propiedades. El carácter no singu-
lar de P interviene para asegurar que v ′ 6= 0 si y solamente si v 6= 0.

Ejemplo 8.1.3.- Sea K uno de los cuerpos R o C y consideremos el espacio


vectorial V = M (n × n, K) de las matrices de orden n con coeficientes en K. Se
define un producto escalar sobre V mediante la expresión

〈A|B〉 = traza(A ∗ B).


Pn Pn
Si A = (ai j ) y B = (b i j ), entonces 〈A|B〉 = i =1 j =1 a i j b i j .

316 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 8.1.4.- Sea V el conjunto de funciones continuas en el intervalo [a, b]


con valores reales. Entonces V es un R-espacio vectorial, sobre el que se puede
definir el producto escalar
Zb
〈 f |g 〉 = f (x)g (x) d x.
a

P
Ejemplo 8.1.5.- Sea V el conjunto de sucesiones {ck } ⊂ C que verifican n≥0 |cn |2 <
∞. Tiene estructura de C-espacio vectorial y podemos definir un producto es-
calar con X
〈{ck }|{d k }〉 = ck dk .
n≥0

Como consecuencia de la definición de un producto escalar, se verifica que

〈x + y |z 〉 = 〈x|z 〉 + 〈y |z 〉. En efecto, pues

〈x + y |z 〉 = 〈z |x + y 〉
= 〈z |x〉 + 〈z |y 〉
= 〈x|z 〉 + 〈y |z 〉.

〈x|0〉 = 〈0|x〉 = 0. Tenemos que

〈0|x〉 = 〈0 · x|x〉 = 0 · 〈x|x〉 = 0,

y también 〈x|0〉 = 0.

Fijado x ∈ V , si 〈x|y 〉 = 0 para todo y ∈ V , entonces x = 0. El resultado se


tiene al tomar y = x.

Si 〈x1 |y 〉 = 〈x2 |y 〉 para todo y ∈ V , entonces x1 = x2 , pues 〈x1 − x2 |y 〉 = 0


para todo y ∈ V , y aplicamos el resultado anterior.

Álgebra Lineal y Geometría 317


Depto. de Álgebra

Espacios vectoriales euclídeos y unitarios

Los espacios vectoriales reales con un producto escalar se denominan


espacios euclídeos. Los espacios vectoriales complejos con un produc-
to escalar se denominan espacios unitarios.

De forma conjunta, hablaremos de espacios vectoriales con producto escalar o


producto interior y lo notaremos por el par (V, 〈·|·〉).
Si L ⊂ V es un subespacio vectorial de un espacio (V, 〈·|·〉) con producto
escalar, entonces (L, 〈·|·〉|L ) es un espacio con producto escalar, al considerar la
restricción de la aplicación 〈·|·〉.

318 Álgebra Lineal y Geometría


Depto. de Álgebra

8.2. * Expresión matricial de un producto escalar


Sea (V, 〈·|·〉) un espacio vectorial con producto escalar de dimensión finita y
B = {u1 , . . . , un } una base de V .

Matriz de Gram

La matriz de Gram del producto escalar 〈·|·〉 respecto de la base B es la


matriz cuadrada de orden n dada por
 
〈u1 |u1 〉 〈u1 |u2 〉 . . . 〈u1 |un 〉

 〈u2 |u1 〉 〈u2 |u2 〉 . . . 〈u2 |un 〉  ¡
 ¢
G = .. .. ..  = 〈ui |u j 〉 .
 . . . 
〈un |u1 〉 〈un |u2 〉 . . . 〈un |un 〉

Ejemplo 8.2.1.- En Rn , con respecto a la base estándar, la matriz de Gram del


producto escalar estándar 〈·|·〉e es igual a

G = (〈ei |e j 〉e ) = I n .

Lo mismo ocurre con el producto estándar de Cn con respecto a la base están-


dar.

Ejemplo 8.2.2.- Consideremos en R2 el producto escalar dado por 〈x|y 〉 =


2x1 y 1 + 3x2 y 2 , y tomemos la base
µ ¶ µ ¶
1 −1
B = {u1 = , u2 = }.
1 2
Entonces
µ ¶
5 4
〈u1 |u1 〉 = 5, 〈u1 |u2 〉 = 4, 〈u2|u2 〉 = 14, y G = .
4 14

Álgebra Lineal y Geometría 319


Depto. de Álgebra

En el caso real, la matriz G es simétrica, mientras que en el caso complejo


es hermitiana. La matriz de Gram permite una escritura más compacta de un
producto escalar.
Sean x, y ∈ V , y B = {u1 , . . . , un } una base de V . Si
   
x1 y1

 x2 


 y2 

[x]B =  ..  , [y ]B =  .. ,
 .   . 
xn yn

entonces
n
X n
X
〈x|y 〉 = 〈 x i ui y j uj 〉
i =1 j =1
n X
X n
= 〈xi ui |y j u j 〉
i =1 j =1
X n X n
= xi y j 〈ui |u j 〉
i =1 j =1
= [x]∗B ·G · [y ]B .

Expresión matricial del producto escalar

Sea [x]B , [y ]B los vectores coordenados de dos vectores x, y respecto


de una base B de un espacio vectorial (V, 〈·|·〉) con producto escalar. Si
G es la matriz de Gram asociada a 〈·|·〉 respecto de la base B, entonces

〈x|y 〉 = [x]∗B ·G · [y ]B .

Por supuesto, la matriz de Gram G depende de la base elegida, por lo que es


natural preguntarnos qué ocurre en un cambio de base. Sean G y G ′ las matri-
ces de Gram respecto de bases B y B ′ , respectivamente. Sea P = M(B ′ , B) la
matriz del cambio de base de B ′ a B. Entonces

[x]B = P [x]B ′ , [y ]B = P [y ]B ′ ,

320 Álgebra Lineal y Geometría


Depto. de Álgebra

〈x|y 〉 = [x]∗B G[y ]B


= [x]∗B ′ P ∗GP [y ]B ′ .

Por tanto,

[x]∗B ′ G ′ [y ]B ′ = [x]∗B ′ P ∗GP [y ]B ′ para todo x, y ∈ V,

de donde G ′ = P ∗GP .

Producto escalar y cambio de base

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar, y B, B ′ bases de


V . Si G y G ′ son las matrices de Gram respectivas del producto escalar
〈·|·〉, y P = M(B ′ , B) la matriz del cambio de base de B ′ a B, entonces

G ′ = P ∗GP.

Decimos que las matrices son *-congruentes.

El estudio de la *-congruencia de matrices es un tema de profundas ramifi-


caciones cuando cambiamos el cuerpo base.

Ejemplo 8.2.3.- Sea V = R3 con el producto escalar estándar 〈·|·〉e , y conside-


remos las bases
     
1 2 0
B = {e1 , e2 , e3 }, B ′ = {u′1 =  −1  , u′2 =  0  , u′3 =  1 }.
1 −1 1

La matriz de Gram respecto de la base B ′ es


   
〈u′1 |u′1 〉e 〈u′1 |u′2 〉e 〈u′1 |u′3 〉e 3 1 0
G ′ =  〈u′2 |u′1 〉e 〈u′2 |u′2 〉e 〈u′2 |u′3 〉e  =  1 5 −1  .
〈u′3 |u′1 〉e 〈u′3 |u′2 〉e 〈u′3 |u′3 〉e 0 −1 2

La matriz de Gram respecto de la base B es la matriz identidad, y la matriz del


cambio de base de B ′ a B es
 
1 2 0
P = M(B ′ , B) =  −1 0 1 .
1 −1 1

Álgebra Lineal y Geometría 321


Depto. de Álgebra

Entonces  
3 1 0
P t I 3P =  1 5 −1  = G ′ ,
0 −1 2
como sabíamos.

La matriz de Gram de un producto escalar es hermitiana (simétrica en el


caso real). Sin embargo, no toda matriz hermitiana (simétrica) da lugar a un
producto escalar.

322 Álgebra Lineal y Geometría


Depto. de Álgebra

8.3. Norma

Norma de un vector

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar. Se denomina


norma del vector x al número
p
kxk = 〈x|x〉.

La definición tiene sentido por las propiedades del producto escalar. Aunque
no aparece en la notación, la norma de un vector depende del producto escalar
usado.

Ejemplo 8.3.1.- En V = R4 , consideremos el producto escalar estándar 〈·|·〉e .


Entonces el vector
 
1
 1 
  p
v=  tiene como normas kv k = 1 + 1 + 1 + 1 = 2.
 −1 
−1

En cambio, con respecto al producto escalar definido por 〈x|y 〉 = x1 y 1 +2x2 y 2 +


3x3 y 3 + 4x4 y 4 se tiene que
p p
kv k = 1 + 2 + 3 + 4 = 10.

Ejemplo 8.3.2.- Si V = M (n×n, C), con el producto escalar 〈A|B〉 = traza(A ∗ B),
se tiene que
à !1/2
n X
X n
2
kAk = |ai j | .
i =1 j =1

Álgebra Lineal y Geometría 323


Depto. de Álgebra

Esta norma se conoce como norma de Frobenius de la matriz A, y se denota


como kAkF .

Nota 8.3.1. En Rn o Cn con el producto escalar estándar, la norma asociada se


¡P ¢1/2
denomina norma euclídea o 2-norma, y se suele notar como kxk2 = ni=1 |xi |2 .

Propiedades de la norma

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar. Para cualesquie-
ra x, y ∈ V y escalar α ∈ K se verifica

1. kxk ≥ 0, y kxk = 0 si y solamente si x = 0.

2. kαxk = |α| kxk.

3. kx − y k = ky − xk.

P RUEBA : Son inmediatas a partir de la definición de norma. 

Dado x ∈ V no nulo, es frecuente usar otro vector u ∈ V que tenga la misma


dirección y sentido que x, pero de norma igual a 1. Basta considerar
1
u= x.
kx k
Este proceso se denomina normalización.

Desigualdad CBS o de Cauchy-Schwarz

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar, y x, y ∈ V . En-


tonces
|〈x|y 〉| ≤ kxk ky k .
La igualdad se da si y solamente si un vector es múltiplo del otro.

P RUEBA : Si x = 0 no hay nada que probar. Sea α = 〈x|y 〉/〈x|x〉, y observemos


que
〈y |x〉
α= , y 〈x|αx − y 〉 = 0.
〈x|x〉

324 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces

0 ≤ kαx − y k2 = 〈αx − y |αx − y 〉 = α〈x|αx − y 〉 − 〈y |αx − y 〉


= −〈y |αx − y 〉 = −α〈y |x〉 + 〈y |y 〉
〈x|y 〉
= − 〈y |x〉 + ky k2
kxk2
1
= 2
(ky k2 kxk2 − 〈x|y 〉〈y |x〉).
kx k

Como 〈y |x〉 = 〈x|y 〉, se tiene que 〈x|y 〉〈y |x〉 = |〈x|y 〉|2 , de donde

ky k2 kxk2 − |〈x|y 〉|2


0≤ .
kxk2

Observemos que el valor 0 solamente se toma cuando ky k2 kxk2 − |〈x|y 〉|2 = 0.


Como kxk2 > 0, se deduce que ky k2 kxk2 − |〈x|y 〉|2 ≥ 0, y tenemos la desigual-
dad.
Veamos ahora las condiciones de igualdad. Si y = αx, entonces

|〈x|y 〉| = |α| kxk2 = kxk ky k .

Recíprocamente, si |〈x|y 〉| = kxk ky k, entonces kαx − y k = 0, de donde y = αx.




Esta desigualdad es una de las más importantes en matemáticas, y se suele usar


bajo el nombre de desigualdad CBS, con la “B” correspondiente a Victor Bunya-
kovskii, matemático ruso que extendió el resultado de Cauchy sobre números
reales a sumas de integrales.
Una de las consecuencias de la desigualdad CBS es la extensión al caso n-
dimensional del resultado clásico de la geometría del plano acerca de la rela-
ción entre las longitudes de los lados de un triángulo.

Desigualdad triangular

Sean x, y ∈ V . Entonces

kx + y k ≤ kxk + ky k .

La igualdad se da si y solamente si y o x es múltiplo no negativo del


otro.

Álgebra Lineal y Geometría 325


Depto. de Álgebra

P RUEBA : Se tiene que

kx + y k2 = 〈x + y |x + y 〉 = 〈x|x〉 + 〈x|y 〉 + 〈y |x〉 + 〈y |y 〉


= kxk2 + ky k2 + 2 Re(〈x|y 〉)
≤ kxk2 + ky k2 + 2|〈x|y 〉|.

Por la desigualdad CBS, |〈x|y 〉| ≤ kxk ky k, y entonces

kx + y k2 ≤ kxk2 + ky k2 + 2 kxk ky k = (kxk + ky k)2 .

Si kx + y k = kxk+ky k entonces todas las desigualdades son igualdades y 〈x|y 〉 =


kxk ky k. Recíprocamente, si 〈x|y 〉 = kxk ky k, entonces 〈x|y 〉 es un número real
y 〈x|y 〉 = 〈y |x〉 y kx + y k2 = (kxk + ky k)2 . Por tanto, la igualdad se tiene si y
solamente si

〈x|y 〉 = kxk ky k . (8.3.1)

Si uno de los vectores x, y es múltiplo real no negativo del otro, se obtiene la


igualdad (8.3.1). Si se tiene la igualdad (8.3.1), entonces se sigue la igualdad en
la desigualdad CBS, lo que implica que uno de los vectores es múltiplo del otro.
Por ejemplo, si y = αx,

〈x|y 〉 = 〈x|αx〉 = α kxk2 ,


kxk ky k = kxk kαxk = |α| kxk2 ,

y al igualar nos queda que α = |α|, de donde α ∈ R, y no negativo. Si los dos


vectores x, y son no nulos, entonces α > 0.
Si x = 0, nos vale cualquier α. Si x 6= 0, entonces y = αx 6= 0, de donde α > 0.


Un resultado interesante es que si una norma procede de un producto es-


calar, podemos recuperar la expresión de dicho producto a partir de la norma.

326 Álgebra Lineal y Geometría


Depto. de Álgebra

Producto escalar a partir de la norma

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar y k·k la norma
asociada. Consideremos u, v ∈ V .

1. Si V es un R-espacio vectorial, entonces

1¡ ¢
〈u|v 〉 = ku + v k2 − ku − v k2 .
4

2. Si V es un C-espacio vectorial, entonces

1¡ ¢
〈u|v 〉 = ku + v k2 − ku − v k2
4
i¡ ¢
+ ku − i v k 2 − ku + i v k 2 .
4

P RUEBA : Es una sencilla comprobación, a partir de

〈u|v 〉 + 〈v |u〉 = 2 Re(〈u|v 〉), 〈u|v 〉 − 〈v |u〉 = 2i Im(〈u|v 〉).

En un espacio vectorial euclídeo, la desigualdad CBS nos garantiza que si


x, y ∈ V no nulos, entonces
〈x|y 〉
−1 ≤ ≤ 1.
kx k ky k

Entonces existe un único valor θ ∈ [0, π] tal que

〈x|y 〉
cos θ = .
kx k ky k

Ángulo entre vectores

El único valor θ ∈ [0, π] tal que

〈x|y 〉
cos(θ) = .
kx k ky k

se denomina ángulo entre los vectores x, y .

Álgebra Lineal y Geometría 327


Depto. de Álgebra

Ejemplo 8.3.3.- En R3 con el producto escalar estándar, consideremos los vec-


tores    
0 0
x =  1 ,y =  0 .
1 −1
Entonces p
−1 2 3π
cos(θ) = p =− , de donde θ = .
2·1 2 4

Damos ahora un resultado matricial, que parece no relacionado con pro-


ductos escalares, pero la demostración más sencilla se basa en el producto es-
calar estándar de Cn .

Relación entre A, A ∗ A y A A ∗

Sea A una matriz de orden m × n. Entonces

1. null(A) = null(A ∗ A), null(A ∗ ) = null(A A ∗ ).

2. rango(A) = rango(A ∗ A) = rango(A A ∗ ) = rango(A ∗ ).

3. Col(A ∗ ) = Col(A ∗ A), Col(A) = Col(A A ∗ ).

P RUEBA :

1. Si A v = 0, entonces (A ∗ A)v = 0, por lo que null(A) ⊂ null(A ∗ A). Por otro


lado, si (A ∗ A)v = 0, entonces

kA v k2 = 〈A v |A v 〉e = v ∗ A ∗ A v = 0,

de donde A v = 0, y tenemos la igualdad null(A) = null(A ∗ A). Si aplicamos


este resultado a A ∗ nos queda la segunda igualdad.

2. A partir de lo anterior,

rango(A) = dim(Col(A)) = n − dim(null(A)) = n − dim(null(A ∗ A))


= dim(Col(A ∗ A)) = rango(A ∗ A),

y si aplicamos este resultado a A ∗ , nos queda rango(A ∗ ) = rango(A A ∗ ).

328 Álgebra Lineal y Geometría


Depto. de Álgebra

3. Si b ∈ Col(A ∗ A), entonces b = A ∗ A u = A ∗ (A u), de donde b ∈ Col(A ∗ ). Así,


Col(A ∗ A) ⊂ Col(A ∗ ), y como son de la misma dimensión, tenemos que
Col(A ∗ A) = Col(A ∗ ). Entonces, si tomamos A ∗ en lugar de A, obtenemos

Col(A) = Col((A ∗ )∗ ) = Col((A ∗ )∗ A ∗ ) = Col(A A ∗ ).

Álgebra Lineal y Geometría 329


Depto. de Álgebra

8.4. * Normas vectoriales


En un espacio vectorial general V , aunque no tenga producto escalar, se
puede definir el concepto de norma de un vector.

Normas vectoriales

Una norma sobre un espacio vectorial V es una aplicación k·k : V → R


que satisface las siguientes condiciones:

kxk ≥ 0, y kxk = 0 si y solamente si x = 0,

kαxk = |α| kxk,

kx + y k ≤ kxk + ky k,

para todo x, y ∈ V y todo escalar α ∈ K .

Por las propiedades que hemos visto, la norma inducida por un producto esca-
lar es una norma vectorial, que se denomina norma euclídea, y se representa
por k·k2 . Sobre Cn existen otras normas, como por ejemplo
Pn
kxk1 = i =1 |x i |, que llamamos 1-norma,

kxk∞ = máx{|xi | | i = 1, . . . , n}, que es la norma infinito.

Es fácil probar las condiciones de la definición. Una pregunta natural es si da-


da una norma vectorial k·k existe un producto escalar ψ del que proceda. La
respuesta para espacios reales y complejos procede de M. Frechet y J. von Neu-
mann.

Identidad del paralelogramo

Dada una norma k·k en un espacio vectorial V , existe un producto es-


calar ψ en V tal que kxk2 = ψ(x, x) si y solamente si la identidad del
paralelogramo

kx + y k2 + kx − y k2 = 2(kxk2 + ky k2 )

se verifica para todo x, y ∈ V .

330 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Veremos el caso real. Es inmediato que si existe un producto escalar


〈·|·〉, entonces se verifica la identidad del paralelogramo, pues

kx + y k2 + kx − y k2 = 〈x + y |x + y 〉 + 〈x − y |x − y 〉
= 〈x|x〉 + 〈x|y 〉 + 〈y |x〉 + 〈y |y 〉
+〈x|x〉 − 〈x|y 〉 − 〈y |x〉 + 〈y |y 〉
= 2(kxk2 + ky k2 ).

La parte difícil es establecer el recíproco. Supongamos que la norma k·k verifica


la identidad del paralelogramo. Vamos a probar que la función

1
ψ(x, y ) = (kx + y k2 − kx − y k2 )
4

define un producto escalar tal que ψ(x, x) = kxk2 . Es inmediato que

ψ(x, x) = kxk2 , por lo que es un número real no negativo, y solamente se


anula en x = 0.

ψ(x, y ) = ψ(y , x).

Tenemos que ver lo que ocurre con las dos restantes propiedades. Por la iden-
tidad del paralelogramo, podemos escribir

1
kx + y k2 + kx + z k2 = (kx + y + x + z k2 + ky − z k2 ),
2
1
kx − y k2 + kx − z k2 = (kx − y + x − z k2 + kz − y k2 ),
2

y al restar ambas igualdades nos queda

k2x + (y + z )k2 − k2x − (y + z )k2


kx + y k2 − kx − y k2 + kx + z k 2 − kx − z k 2 = .
2
Entonces
1
ψ(x, y ) = 4
(kx + y k2 − kx − y k2 + kx + z k2 − kx − z k2 )
1
= 8 (k2 x + (y + z )k2 − k2x − (y + z )k2 ) (8.4.1)
°2 °
° − °x − 1 (y + z )°2 ) = 2ψ(x, 1 (y + z )).
1 °
° 1
°
= 2
( x + 2
(y + z ) 2 2

Si sustituimos z = 0 tenemos la igualdad

1
ψ(x, y ) = 2ψ(x, y ) para todo y ∈ V.
2

Álgebra Lineal y Geometría 331


Depto. de Álgebra

Si aquí cambiamos y por y + z , obtenemos ψ(x, y + z ) = 2ψ(x, 21 (y + z )), y la


ecuación 8.4.1 nos proporciona

ψ(x, y ) + ψ(x, z ) = ψ(x, y + z ).

Ahora probemos que ψ(x, αy ) = αψ(x, y ) para todo número real α. Por lo an-
terior, el resultado es válido para los números enteros. Si α = β/γ es racional,
entonces
β β β
γ2 ψ(x, y ) = ψ(γx, βy ) = βγψ(x, y ), de donde ψ(x, y ) = ψ(x, y ).
γ γ γ

Como las funciones kx + αy k y kx − αy k son funciones continuas en α, la defi-


nición de ψ garantiza que ψ(x, αy ) es una función continua de α. Por tanto, si
α es irracional y {αn } es una sucesión de racionales que tiende a α, se verifica
que
ψ(x, αn y ) → ψ(x, αy ), y ψ(x, αn y ) = αn ψ(x, y ) → αψ(x, y ),
de donde ψ(x, αy ) = αψ(x, y ).


La identidad del paralelogramo se denomina así porque expresa que la suma


de los cuadrados de las diagonales de un paralelogramo es igual a dos veces la
suma de los cuadrados de los lados, en el caso real.

332 Álgebra Lineal y Geometría


Depto. de Álgebra

8.5. Ortogonalidad

Vectores ortogonales

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar y v , w ∈ V . Deci-


mos que v y w son ortogonales si 〈v |w 〉 = 0. En tal caso, lo notaremos
como v ⊥w .

Ejemplo 8.5.1.- En V = C2 con el producto escalar estándar, los vectores


µ ¶ µ ¶
2 + 3i 1+i
v= ,w = son ortogonales.
−1 + 5i −i

Ejemplo 8.5.2.- Sea V = C ([−1, 1]) el R-espacio vectorial de las funciones con-
tinuas en el intervalo [−1, 1], donde tenemos el producto escalar
Z1
〈 f |g 〉 = f (x)g (x) d x.
−1

Para cada i ≥ 0, definimos las funciones p 0 : x 7→ 1, p 1 : x 7→ x, y


µ ¶ µ ¶
2h + 1 h
p h+1 : x 7→ xp h (x) − p h−1 (x), para h > 1.
h +1 h +1

Estas funciones polinómicas se llaman polinomios de Legendre. Es fácil verifi-


car que p k ⊥p h para k 6= h.
En el mismo espacio podemos definir otro producto escalar mediante
Z1
f (x)g (x)
〈 f |g 〉 = p d x.
−1 1 − x2

Álgebra Lineal y Geometría 333


Depto. de Álgebra

Para i ≥ 0 definimos las funciones q i ∈ V como q 0 : x 7→ 1, q 1 : x 7→ x y

q h+1 : x 7→ 2xq h (x) − q h−1 (x) si h > 1.

Estas funciones polinómicas se llaman polinomios de Chebyshev. De nuevo se


verifica que q k ⊥q h si k 6= h.
Ambos productos son casos especiales de una construcción más general.
Sean −1 < r, s ∈ R. Se define en V un producto escalar mediante la expresión
Z1
〈 f |g 〉 = f (x)g (x)(1 − x)r (1 + x)s d x.
−1

Podemos decir entonces que dos vectores de Rn son ortogonales cuando el


ángulo entre ellos es igual a π/2. Los vectores ortogonales verifican una propie-
dad clásica.

Teorema de Pitágoras

Sea (V, 〈·|·〉) un espacio vectorial con producto escalar y consideremos


vectores v , w ∈ V . Si v ⊥w entonces kv + w k2 = kv k2 +kw k2 . El recípro-
co se tiene para R-espacios vectoriales.

P RUEBA : Se verifica que

kv + w k2 = 〈v + w |v + w 〉 = 〈v |v 〉 + 〈v |w 〉 + 〈w |v 〉 + 〈w |w 〉
= kv k2 + kw k2 + 2 Re(〈v |w 〉).

A partir de aquí tenemos el resultado. 

Conjuntos ortonormales

Un conjunto S = {u1 , u2 , . . . , ur } es un conjunto ortogonal si ui ⊥u j


cuando i 6= j , y ui 6= 0 para todo i = 1, . . . , r .
Un conjunto T = {u1 , u2 , . . . , ur } es un conjunto ortonormal si ui ⊥u j
cuando i 6= j y kui k = 1 para todo i = 1, . . . , r .

334 Álgebra Lineal y Geometría


Depto. de Álgebra

Es fácil ver que un conjunto ortogonal es linealmente independiente. En


efecto, consideremos un conjunto ortogonal {u1 , . . . , ur }, y una combinación
lineal
α1 u1 + α2 u2 + . . . + αr ur = 0.

Si realizamos el producto escalar a ambos lados de esta igualdad por ui , para


cada i = 1, . . . , r , nos queda

r
X r
X
0 = 〈 ui | αj uj 〉 = α j 〈ui |u j 〉.
j =1 j =1

Todos los sumandos de la derecha son nulos, salvo 〈ui |ui 〉, que es positivo.
Entonces αi = 0, para todo i = 1, . . ., r .

Ejemplo 8.5.3.- Consideremos V = R3 con el producto escalar estándar. El


conjunto
     
1 1 −1
B ′ = {u1 =  −1  , u2 =  1  , u3 =  −1 }
0 1 2
p
es
p un conjunto
p ortogonal, pero no es ortonormal. Como k u 1 k = 2, ku2 k =
3, ku3 k = 6, el conjunto B = { p1 u1 , p1 u2 , p1 u3 } es ortonormal.
2 3 6

Expansión de Fourier

Si B = {u1 , u2 , . . . , un } es una base ortogonal de un espacio vectorial con


producto escalar, entonces cada x ∈ V se puede expresar como

〈u1 |x〉 〈u2 |x〉 〈un |x〉


x= 2
u1 + 2
u2 + · · · + un .
ku1 k ku2 k kun k2

Esta expresión se denomina expansión de Fourier del vector x. Los es-


〈u |x〉
calares xi = kui k2 son las coordenadas de x respecto de la base B, y se
i
denominan coeficientes de Fourier.

Álgebra Lineal y Geometría 335


Depto. de Álgebra

Figura 8.1: Joseph Fourier (1768-1830)

P RUEBA : Si x = α1 u1 + α2 u2 + · · · + αn un , entonces
n
X n
X ° °2
〈u j |x〉 = 〈u j | αi ui 〉 = αi 〈u j |ui 〉 = α j °u j ° .
i =1 i =1


Ejemplo 8.5.4.- En R3 , consideremos la base ortogonal respecto al producto


escalar estándar dada por
     
1 1 0
B = {u1 =  −1  , u2 =  1  , u3 =  0 },
0 0 1
Entonces el vector  
2
x =  −3 
4
verifica
〈u1 |x〉e 〈u2 |x〉e 〈u3 |x〉e 5 1
x= 2
u1 + 2
u2 + 2
u3 = u1 − u2 + 4 u3 ,
ku1 k ku2 k ku3 k 2 2
por lo que sus coordenadas respecto a B son
 
5/2
[x]B =  −1/2  .
4

336 Álgebra Lineal y Geometría


Depto. de Álgebra

Proyección ortogonal de un vector

Sea W ⊂ V un subespacio de dimensión finita de (V, 〈·|·〉), con BW =


{w1 , . . . , wr } una base ortogonal de W . Para cada x ∈ V , el vector
r 〈w |x〉
X i
proyW (x) = wi
i =1 kwi k2

es un vector de W que verifica 〈w |x − proyW (x)〉 = 0 para todo w ∈ W .

P RUEBA : Como proyW (x) es combinación lineal de la base de W , pertenece al


subespacio. Observemos en primer lugar que, para cada j = 1, . . ., r se tiene que
r 〈w |x〉
X i
〈w j |x − proyW (x)〉 = 〈w j |x〉 − 〈w j | wi 〉
i =1 kwi k2
r 〈w |x〉
X i
= 〈w j |x〉 − 〈w j |wi 〉 = 〈w j |x〉 − 〈w j |x〉 = 0.
i =1 kwi k2
Por tanto, x −proyW (x) es un vector ortogonal a todos los elementos de la base
de W . Sea ahora w ∈ W , por lo que admite una expresión de la forma w =
Pr
j =1 α j w j . Entonces

r
X r
X
〈w |x − proyW (x)〉 = 〈 α j w j |x − proyW (x)〉 = α j 〈w j |x − proyW (x)〉 = 0.
j =1 j =1

Este vector proyW (x) se denomina proyección ortogonal de x sobre W . En


principio, su expresión depende de la base elegida, pero veremos más adelante
que queda unívocamente determinado por x y W .

Ejemplo 8.5.5.- Si en el ejemplo anterior consideramos W = 〈u1 , u2 〉, y el mis-


mo vector x, entonces
〈u1 |x〉e 〈u2 |x〉e 5 1
proyW (x) = 2
u1 + 2
u2 = u1 − u2 .
ku1 k ku2 k 2 2

Álgebra Lineal y Geometría 337


Depto. de Álgebra

Las bases ortogonales y ortonormales hacen que el cálculo del producto


escalar sea sencillo

Expresión del producto escalar con respecto a una base ortogonal


/ortonormal

Sea B = {u1 , . . . , un } una base de un espacio vectorial (V, 〈·|·〉) con pro-
ducto escalar y tomemos v , w ∈ V con expresiones
n
X n
X
v= v i ui , w = w j uj .
i =1 j =1

1. Si B es ortogonal, entonces
n
X
〈v |w 〉 = kui k2 v i w i .
i =1

2. Si B es ortonormal, entonces
n
X
〈v |w 〉 = v i w i = [v ]∗B [w ]B .
i =1

P RUEBA : Supongamos que B es una base ortogonal. Entonces 〈ui |u j 〉 = 0


si i 6= j y 〈ui |ui 〉 = kui k2 . De aquí,
n
X n
X n X
X n
〈v |w 〉 = 〈 v i ui | w j uj 〉 = v i w j 〈ui |u j 〉
i =1 j =1 i =1 j =1
n
X
= v i w i kui k2 .
i =1

En el caso ortonormal, cada kui k es igual a 1. 

338 Álgebra Lineal y Geometría


Depto. de Álgebra

8.6. Matrices unitarias


En esta sección examinamos las matrices cuadradas cuyas columnas (o fi-
las) son ortonormales respecto al producto escalar estándar.

Matrices unitarias y ortogonales

Una matriz unitaria es una matriz compleja Un×n cuyas colum-


nas (o filas) constituyen una base ortonormal de Cn .

Una matriz ortogonal es una matriz real Q n×n cuyas columnas


(o filas) constituyen una base ortonormal de Rn .

Las matrices unitarias y ortogonales tienen unas propiedades interesantes, una


de las cuales es ¡que son fáciles de invertir.
¢ Para ello, observemos que las colum-
nas de Un×n = u1 u2 . . . un forman un conjunto ortonormal si y sola-
mente si
½
∗ ∗ 1 si i = j ,
[U U ]i j = ui u j = ⇔ U ∗U = I ⇔ U −1 = U ∗ .
0 si i 6= j ,
Notemos que U ∗U = I si y solamente si UU ∗ = I , es decir, las columnas de U
son ortonormales si y solamente si las filas de U son ortonormales.
Otra importante propiedad es que la multiplicación por una matriz unita-
ria no cambia la longitud de un vector. En efecto, si U es una matriz unitaria,
entonces
kU xk22 = x∗U ∗U x = x∗ x = kxk22 , para todo x ∈ Cn . (8.6.1)
En resumen,

Propiedades de las matrices unitarias

1. Una matriz Un×n compleja (Q n×n real) es unitaria (ortogonal) si y


solamente si U ∗ = U −1 (Q t = Q −1 ).

2. Una matriz Un×n compleja (Q n×n real) es unitaria (ortogonal) si y


solamente si sus filas son ortonormales.

3. Si U es una matriz unitaria y x ∈ Cn , entonces kU xk2 = kxk2 . Aná-


logo para matrices ortogonales y vectores en Rn .

Álgebra Lineal y Geometría 339


Depto. de Álgebra

Las matrices unitarias tienen un papel destacado en los cambios de base de


espacios unitarios.

Cambio de base ortonormal

Sean B y B ′ bases ortonormales de un espacio vectorial (V, 〈·|·〉) con


producto escalar de dimensión finita. Entonces la matriz de cambio de
base P = M(B, B ′ ) es unitaria.

P RUEBA : Sean B = {u1 , . . . , un } y B ′ = {u′1 , . . . , u′n } las bases ortonormales. En-


tonces
〈ui |u j 〉 = 〈u′i |u′j 〉 = δi j .
La matriz de paso entre las bases es de la forma
 
a11 a12 ... a1n
¡ ¢  a21 a22 ... a2n 
P = M(B, B ′ ) = [u1 ]B ′ [u2 ]B ′ . . . [un ]B ′
 
= .. .. .. .. .
 . . . . 
an1 an2 . . . ann
Pn
Esto significa que ui = k=1
aki u′k , de donde

〈ui |u j 〉 = [ui ]∗B ′ [u j ]B ′ porque B ′ es base ortonormal


Xn
= aki ak j .
k=1

Esta última expresión es el elemento (i , j ) de la matriz P ∗ P . Dado que I =


(〈ui |u j 〉), tenemos el resultado. 

Nota 8.6.1. Hemos visto que la multiplicación por una matriz unitaria no altera
la norma euclídea de un vector. Algo parecido ocurre con la norma de Frobe-
nius de una matriz. Sea A n×n una matriz con coeficientes complejos y Un×n
una matriz unitaria. Entonces

kAU k2F = traza((AU )∗ (AU )) = traza(U ∗ A ∗ AU ).

Recordemos que se tiene, en general, que traza(A 1 A 2 ) = traza(A 2 A 1 ). Entonces


traza((U ∗ A ∗ A)U ) = traza(U (U ∗ A ∗ A)) = traza(A ∗ A) = kAk2F . De forma análoga
se tiene que kU AkF = kAkF .

340 Álgebra Lineal y Geometría


Depto. de Álgebra

8.7. Método de Gram-Schmidt


Si K = R, C, la base estándar de Kn es ortonormal con respecto al producto
escalar estándar. Sin embargo, nos planteamos una pregunta: dado un espa-
cio de dimensión finita con un producto escalar, ¿tiene una base ortonormal?
Pensemos en un subespacio vectorial, dado por un sistema de generadores, y
del que queremos calcular una base ortonormal para, posteriormente, realizar
proyecciones. La respuesta a esta pregunta la encontramos con el procedimien-
to de Gram-Schmidt.

Figura 8.2: Jorgen P. Gram (1850-1916), Erhard Schmidt (1876-1959)

Partamos entonces de un espacio vectorial (V, 〈·|·〉) con un producto esca-


lar. Sea S = {v1 , . . . , vs } un conjunto de vectores linealmente independientes.
Vamos a construir un conjunto ortonormal de vectores {q1 , . . . , qs } tal que para
cada k ∈ {1, . . . , s} se verifica que el subespacio vectorial generado por los vecto-
res {v1 , . . . , vk } es igual que el subespacio vectorial generado por {q1 , . . . , qk }.
El proceso es por inducción sobre s. Para s = 1, tomamos simplemente q1 =
v1 / kv1 k. En general, escribimos
q1′ = v1 ,
q2′ = v2 − λ12 q1′
..
.
qk′ = vk − λ1k q1′ − · · · − λk−1,k qk−1

, k = 2, . . ., s,

para ciertos escalares λi j . Buscamos esta forma en los vectores qi′ para que ge-
neren el mismo subespacio vectorial que los vi . En efecto, veamos que

〈v1 , . . . , vk 〉 = 〈q1′ , . . . , qk′ 〉

Álgebra Lineal y Geometría 341


Depto. de Álgebra

por inducción sobre k. Para k = 1 no hay nada que probar. Supuesto que 〈v1, . . . , vk−1 〉 =
〈q1′ , . . . , qk−1

〉, se tiene que la expresión

k−1
X
qk′ = vk − λi k qi′
i =1

implica que
qk′ ∈ 〈q1′ , . . . , qk−1

, vk 〉 = 〈v1 , . . . , vk−1 , vk 〉,
y tenemos la inclusión

〈q1′ , . . . , qk−1

, qk′ 〉 ⊂ 〈v1 , . . . , vk−1 , vk 〉.

Análogamente, la expresión
k−1
X
vk = qk′ + λi k qi′
i =1

implica que
〈v1 , . . . , vk−1 , vk 〉 ⊂ 〈q1′ , . . . , qk−1

, qk′ 〉.
Observemos que lo anterior es válido para coeficientes arbitrarios λi j . Quere-
mos imponer la condición de ortogonalidad en el conjunto {q1′ , . . . , qs′ }. Para ello
tiene que ocurrir que
° °2
〈q1′ |q2′ 〉 = 0 = 〈q1′ |v2 〉 − λ12 °q1′ ° ,

de donde podemos calcular λ12 y entonces tenemos el vector q2′ . En general, si


tenemos construidos q1′ , . . . , qk−1

, para obtener qk′ imponemos las condiciones
° °2
0 = 〈q1′ |qk′ 〉 = 〈q1′ |vk 〉 − λ1k °q1′ °
° °2
0 = 〈q2′ |qk′ 〉 = 〈q2′ |vk 〉 − λ2k °q2′ °
.. ..
. .
′ ′ ′
° ′ °2
0 = 〈qk−1 |qk 〉 = 〈qk−1 |vk 〉 − λk−1,k °qk−1 °

y podemos calcular todos los λ j k . Si ahora normalizamos qi = °°q1′ °° qi′ consegui-


i
mos el conjunto ortonormal. Observemos que la normalización de cada qi′ se
puede realizar en cada paso.
La forma de los coeficientes λi k es la asociada a la proyección ortogonal
de vk sobre el subespacio Wk−1 = 〈q1′ , . . . , qk−1

〉, si usamos su base ortogonal
′ ′
{q1 , . . . , qk }. Podemos escribir entonces que
1

q1′ = v1 ,
qk′ = vk − proyWk−1 (vk ), 2 ≤ k ≤ s.

342 Álgebra Lineal y Geometría


Depto. de Álgebra

Procedimiento de ortogonalización de Gram-Schmidt

Si S = {v1 , v2 , . . . , vs } es un conjunto de vectores linealmente indepen-


diente, entonces la sucesión de Gram-Schmidt definida por

k−1
X 〈qi′ |vk 〉 ′
q1′ = v1 , qk′ = vk − proyWk−1 (vk ) = vk − ° °2 qi , 2 ≤ k ≤ s,

i =1 °q ° i

es una base ortogonal de 〈S〉.

Si escribimos qi = °°q1′ °° qi′ , i = 1, 2, . . ., s, entonces {q1 , q2 , . . . , qs } es una base


i
ortonormal de 〈S〉.
Además, para cada i = 1, 2, . . ., s, se verifica que el subespacio generado por
{v1 , v2 , . . . , vi } es igual al subespacio generado por {q1′ , q2′ , . . . , qi′ }, que coincide
con el subespacio generado por {q1 , q2 , . . . , qi }. Otra forma equivalente de ex-
presar lo anterior es que si (V, 〈·|·〉) es un espacio vectorial con producto escalar
y de dimensión finita, entonces tiene una base ortonormal.

Método de Gram-Schmidt

Entrada: conjunto S = {v1 , v2 , . . . , vs } linealmente independiente.


Salida: conjunto ortonormal {q1 , q2 , . . . , qs } que verifica

〈q1 , . . . , qk 〉 = 〈v1 , . . . , vk 〉 para todo k = 1, . . . , s.

1. Definimos q1′ = v1 .

2. Para k = 2, . . . , s calculamos

qk′ = vk − proyWk−1 (vk ),Wk−1 = 〈q1′ , . . . , qk−1



〉,

k−1
X 〈q j |vk 〉
= vk − λ j k q ′j , donde λ j k = ° °2 .
j =1 ° ′°
°q j °

3. Normalizamos el conjunto {q1′ , . . . , qs′ } mediante

1
qk = ° ° q′ , k = 1, 2, . . . , s.
′° k
° qk

Álgebra Lineal y Geometría 343


Depto. de Álgebra

Ejemplo 8.7.1.- En V = R4 , con respecto al producto escalar estándar, sean


     
1 1 3
 0   2   1 
     
v1 =  ,v =  ,v =  .
 0  2  0  3  1 
−1 −1 −1

Vamos a calcular una base ortonormal del subespacio vectorial 〈v1 , v2 , v3 〉.


El proceso es:

q1′ = v1
〈q ′ |v2 〉e
q2′ = v2 − λ12 q1′ , λ12 = °1 °2 = 1,
°q ′ °
1
 
0
2
 
q2′ = v2 − q1′ = 
 
,
 0 
0
q3′ = v3 − λ13 q1′ − λ23 q2′ ,
〈q1′ |v3 〉e
λ13 = ° °2 = 2,
°q ′ °
1
〈q2′ |v3 〉e 1
λ23 = ° °2 = ,
°q ′ ° 2
2
 
1
1 
0

q3′ = v3 − 2q1′ − q2′ = 
 
.
2  1 
1

Entonces      
1 0 1
1 
 0



 1

 1 
 0


q1 = p   , q2 =   , q3 = p  .
2 0   0  3 1 
−1 0 1

344 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 8.7.2.- Sea V = C ([−1, 1]) con el producto escalar


Z1
〈 f |g 〉 = f (x)g (x) d x.
−1

Para cada i ≥ 0, sea f i la función polinómica f i : x 7→ x i . Entonces, para cada


n > 0, el conjunto { f 0 , f 1 , . . . , f n } es linealmente independiente y forma una base
de un subespacio W . Si aplicamos el procedimiento de Gram-Schmidt a esta
base, obtenemos una nueva base {p 0 , p 1 , . . . , p n } que es ortogonal; los p j son
los polinomios de Legendre.

R∞ ¯ ¯2
Ejemplo 8.7.3.- Sea V el espacio de la funciones f : R → R tales que −∞ f (x) d x
¯ ¯
es finita, con el producto escalar
Z∞
〈 f |g 〉 = f (x)g (x) d x.
−∞

Sea h la función definida por

si 0 < x ≤ 21 ,

 1
h(x) = −1 si 21 < x ≤ 1,

0 en otro caso.

Esta función se denomina wavelet de Haar. Para cada j , k ∈ N, se define la fun-


j j j
ción h k ∈ V mediante h k (x) = 2 j /2 h(2 j x −k). Entonces el conjunto {h k | j , k ∈ N}
es ortonormal.

Nota 8.7.1. ¿Qué ocurre si se aplica el procedimiento de Gram-Schmidt a un


conjunto {v1 , . . . , vs } que ya es ortogonal? Los vectores qk′ , 2 ≤ k ≤ s, que se cons-
truyen en cada paso son de la forma
k−1
X 〈q ′j |vk 〉
qk′ = vk − λ j k q ′j , donde λ j k = ° °2 .
j =1 ° ′°
°q j °

Observemos que q2′ es igual a v2 y, por inducción, todos los coeficientes λ j k son
nulos. Por tanto, se llega a que qi′ = vi , i = 1, . . ., s. Si el conjunto de partida es
ortonormal, entonces qi = vi , i = 1, . . . , s.

Álgebra Lineal y Geometría 345


Depto. de Álgebra

El razonamiento anterior nos permite enunciar el siguiente resultado.

Ampliación de un conjunto ortogonal a una base ortogonal

Sea (V, 〈·|·〉) un K-espacio vectorial de dimensión finita n con producto


escalar y S = {v1 , . . . , vs } un conjunto ortogonal (ortonormal). Entonces
existe una base B ortogonal (ortonormal) de V tal que S ⊂ B.

P RUEBA : Dado que el conjunto S es linealmente independiente, existen vec-


tores ws+1 , . . . , wn tales que B0 = {v1 , . . . , vs , ws+1 , . . . , wn } es una base de V . Si
aplicamos el procedimiento de Gram-Schmidt al conjunto B0 , entonces los
vectores qi′ son iguales a los vi , para i = 1, . . . , s, por lo que habremos construi-

do una base ortogonal B = {v1 , . . . , vs , qs+1 , . . . , qn′ }. Si el conjunto de partida es
ortonormal, obtendremos, tras normalizar, una base ortonormal que contiene
a S. 

346 Álgebra Lineal y Geometría


Depto. de Álgebra

8.8. * Factorización QR

8.8.1. * Factorización QR reducida


El proceso de Gram-Schmidt ¡se puede ver también ¢ en la forma de facto-
rización de matrices. Sea A m×s = v1 v2 . . . vs una matriz con columnas
independientes. Cuando se aplica Gram-Schmidt a las columnas de A, estamos
calculando una base ortonormal {q1 , q2 , . . . , qs } de Col(A), donde

q1′ = v1 ,
q2′ = v2 − λ12 q1′ ,
..
.
qs′ = vs − λ1s q1′ − . . . − λs−1,s qs−1

.

Escribamos los vectores vi en función de los q j . Entonces

v1 = q1′ = r 11 q1 ,
v2 = λ12 q1′ + q2′ = r 12 q1 + r 22 q2 ,
..
.
vs = λ1s q1′ + · · · + λs−1,s qs−1

+ qs′ = r 1s q1 + . . . + r s−1,s qs−1 + r ss qs ,
que en forma matricial podemos expresarlo como
 
r 11 r 12 . . . r 1s
¡ ¢ ¡ ¢ 0 r 22 . . . r 2s 
v1 v2 . . . vs q1 q2 . . . qs 
 
= .. .
 . 
0 0 . . . r ss
Observemos que todos los r i i son positivos, pues son normas de vectores. Te-
nemos así que A m×s = Q m×s R s×s , donde las columnas de Q forman una base
ortonormal de Col(A), y R es una matriz triangular superior con elementos no
nulos en la diagonal.
A esta descomposición la llamaremos factorización QR reducida o rectan-
gular, porque la matriz Q es rectangular y R es cuadrada.

Ejemplo 8.8.1.- Partimos del ejemplo (8.7.1) (pág. 344), donde


     
1 1 3
 0   2   1 
     
v1 =  ,v =  ,v =  ,
 0  2  0  3  1 
−1 −1 −1

Álgebra Lineal y Geometría 347


Depto. de Álgebra

y habíamos calculado
     
1 0 1
1 
 0



 1

 1 
 0


q1 = p   , q2 =   , q3 = p  .
2 0   0  3 1 
−1 0 1

El cambio de base viene dado por los coeficientes λi j del proceso, y podemos
despejar los vectores vi en función de los vectores q j .
° ° p
v1 = °q1′ ° q
° ′°1 ° ′° = 2q ,
p 1
v2 = λ12 °q1 ° q1 + q2° q2°
° ° ° ° = 2q1 +2q2
° ° p p
v3 = λ13 °q1′ ° q1 +λ23 °q2′ ° q2 + °q3′ ° q3 = 2 2q1 +q2 + 3q3 .
La descomposición QR reducida queda de la forma
 p p p 
¡ ¢ ¡ ¢ 2 2 2 2
A = v1 v2 v3 = q1 q2 q3  0 2
p
1 .
0 0 3

8.8.2. * Factorización QR completa


Se puede conseguir otra factorización con Q unitaria y R rectangular. Con-
siste en añadir a R filas de ceros hasta hacerla m × s, y en añadir a Q m − s
columnas ortogonales a las anteriores para formar una matriz unitaria. En este
caso se la llama factorización QR completa.

Ejemplo 8.8.2.- Para obtener la factorización QR completa del ejemplo ante-


rior, debemos ampliar el conjunto {q1 , q2 , q3 } a una base ortonormal. Como los
subespacios son iguales, ampliamos {v1 , v2 , v3 } a una base. Para ello, conside-
ramos una forma escalonada por filas de la matriz
¡ ¢
v1 v2 v3 e1 e2 e3 e4 ,
donde ei , i = 1, 2, 3, 4 son los vectores de la base estándar. Nos queda
 
1 0 0 0 −1/2 −1/2 −1
 0 1 0 0 1/2 −1/2 0 
 
 
 0 0 1 0 0 1 0 
0 0 0 1 0 −2 1

348 Álgebra Lineal y Geometría


Depto. de Álgebra

lo que indica que podemos tomar para ampliar e1. Sea v4 = e1 . Hay que calcular

q4′ = v4 − λ14 q1′ − λ24 q2′ − λ34 q3′

que sea ortogonal a q1′ , q2′ , q3′ . Efectuando los cálculos llegamos a
 
1/6

0
 p
λ14 = 1/2, λ24 = 0, λ34 = 1/3, q4′ =   , q4 = 6q4′ .
 
 −1/3 
1/6

Entonces
 p p p 
2 2 2 2
 0
¢ 2 1
¡ ¢ ¡ 
A= v1 v2 v3 = q1 q2 q3 q4  p .
 0 0 3 
0 0 0

Existe un procedimiento directo para el cálculo de una factorización QR


completa basado en las matrices de Householder.

Álgebra Lineal y Geometría 349


Depto. de Álgebra

8.9. Descomposición ortogonal

8.9.1. Definición

Complemento ortogonal

Sea M un subconjunto de un espacio vectorial (V, 〈·|·〉) con producto


escalar. Definimos el complemento ortogonal M ⊥ como

M ⊥ = {x ∈ V | 〈m|x〉 = 0 para todo m ∈ M}.

En otras palabras, el conjunto M ⊥ es el conjunto de vectores x que son ortogo-


nales a todos los elementos de M. Esto lo notaremos como x⊥M. Vamos a pro-
bar en primer lugar que M ⊥ es un subespacio vectorial de V . Sean v1 , v2 ∈ M ⊥ .
Entonces

〈m|v1 + v2 〉 = 〈m|v1 〉 + 〈m|v2 〉 = 0 para todo m ∈ M,

y
〈m|αv1 〉 = α〈m|v1 〉 = 0 para todo m ∈ M.
Esto es independiente de la estructura de M. Sin embargo, el caso que nos in-
teresa especialmente es cuando M es un subespacio vectorial W de dimensión
finita de V . En tal caso, existe una base finita de W formada por los vectores
w1 , . . . , wr . La definición impone, en principio, un conjunto infinito de condi-
ciones para caracterizar a los elementos de W ⊥ . Sin embargo, vamos a ver que

W ⊥ = {x ∈ V | 〈wi |x〉 = 0 para todo i = 1, . . . , r }. (8.9.1)

Es claro que si x ∈ W ⊥ , entonces está en el conjunto de la derecha. Si ahora


〈wi |x〉 = 0 para todo i = 1, . . ., r , consideremos un vector w ∈ W . Entonces w se
puede expresar como combinación lineal de w1 , . . . , wr , esto es,
r
X r
X r
X
w= αi wi , y 〈w |x〉 = 〈 αi wi |x〉 = αi 〈wi |x〉 = 0.
i =1 i =1 i =1

Tenemos así el resultado.


La caracterización del complemento ortogonal dado por las ecuaciones (8.9.1),
que hemos usado en el ejemplo anterior, nos permiten definir un método para

350 Álgebra Lineal y Geometría


Depto. de Álgebra

calcular unas ecuaciones implícitas de W ⊥ a partir de un conjunto de genera-


dores de W = 〈w1 , . . . , wr 〉. Están dadas por las relaciones
〈wi |x〉 = 0, i = 1, . . ., r
En el caso de Kn con el producto escalar estándar, lo anterior toma la forma
 ∗ 
w1
 .. 
M x = 0, donde M =  . .
wr∗

Ejemplo 8.9.1.- Consideremos el subespacio W = 〈w1 , w2 〉 ⊂ R3 , con el pro-


ducto escalar estándar, donde
   
1 2
w1 = −1 , w2 = 0  .
  
0 1
Entonces W ⊥ viene dado por las soluciones del sistema lineal homogéneo
 
½ −1/2
x1 −x2 = 0,
esto es W ⊥ = 〈h1 =  −1/2 〉.
2x1 +x3 = 0,
1

8.9.2. Propiedades
El uso de la palabra “complemento” para referirnos a W ⊥ tiene su origen en
el siguiente resultado.

Complemento ortogonal y suma directa

Sea W un subespacio vectorial de dimensión finita de un espacio vec-


torial V con producto escalar. Entonces

V = W ⊕ W ⊥.

En particular, si V es de dimensión finita, entonces dimW ⊥ = dimV −


dimW .

Álgebra Lineal y Geometría 351


Depto. de Álgebra

P RUEBA : Si v ∈ W ∩ W ⊥ , entonces v es un vector ortogonal a sí mismo,


es decir, 〈v |v 〉 = 0, de donde v = 0. Sea BW = {w1 , . . . , wr } una base ortogonal
de W , que existe por el procedimiento de Gram-Schmidt. Si v ∈ V , tenemos el
vector asociado
Xr 〈w |v 〉
k
proyW (v ) = 2
wk ∈ W.
k=1 kwk k

Recordemos que v −proyW (v ) ∈ W ⊥ , por el teorema de la proyección ortogonal


(pág. 337). Dado que v = proyW (v ) + (v − proyW (v )), tenemos el resultado.


Propiedades del complemento ortogonal

Si W1 y W2 son subespacios de un espacio vectorial (V, 〈·|·〉) con pro-


ducto escalar de dimensión finita, entonces

(W1⊥ )⊥ = W1 .

Si W1 ⊂ W2 , entonces W2⊥ ⊂ W1⊥ .

(W1 + W2 )⊥ = W1⊥ ∩ W2⊥ .

(W1 ∩ W2 )⊥ = W1⊥ + W2⊥ .

P RUEBA :

Sea v ∈ (W1⊥ )⊥ . Como V = W1 ⊕ W1⊥ , entonces v = a + b, con a ∈ W1 y


b ∈ W1⊥ . De aquí,

0 = 〈v |b〉 = 〈a|b〉 + 〈b|b〉 = 〈b|b〉, de donde b = 0,

y tenemos que v ∈ W1 . Por tanto, (W1⊥ )⊥ ⊂ W1 . Como

dim(W1⊥ )⊥ = dimV − dimW1⊥ = dimW1 ,

se sigue la igualdad entre los subespacios.

Si v ∈ W2⊥ , entonces v es ortogonal a todos los vectores de W2 , entre los


que se encuentran los de W1 . Por tanto, v ∈ W1⊥ .

Dado que W1 ,W2 ⊂ W1 +W2 , el resultado anterior implica que (W1+W2 )⊥ ⊂


W1⊥ ∩ W2⊥ . Para la otra inclusión, sea v ∈ W1⊥ ∩ W2⊥ y tomemos un vector

352 Álgebra Lineal y Geometría


Depto. de Álgebra

cualquiera w ∈ W1 + W2 . Entonces existen w1 ∈ W1 , w2 ∈ W2 tales que


w = w1 + w2 . De aquí,
〈v |w 〉 = 〈v |w1 〉 + 〈v |w2 〉 = 0.
| {z } | {z }
v ∈W1⊥ v ∈W2⊥

Por tanto, v ∈ (W1 + W2 )⊥ .

Aplicamos lo anterior para obtener

(W1⊥ + W2⊥ )⊥ = (W1⊥ )⊥ ∩ (W2⊥ )⊥ = W1 ∩ W2 .

Ejemplo 8.9.2.- El espacio W debe ser de dimensión finita para que se cum-
plan las propiedades del complemento ortogonal. Consideremos V el R-espacio
vectorial de las sucesiones a = {an | an = 0 salvo un número finito de términos },
P
con el producto escalar 〈a|b〉 = i ≥1 ai b i . Para cada h ≥ 1, sea vh la sucesión
que contiene la entrada h-ésima igual a 1 y las restantes son iguales a cero. En-
tonces B = {vh | h ≥ 1} es una base ortonormal de V . Consideremos el subes-
pacio W generado por las combinaciones lineales finitas del conjunto de suce-
siones {v1 − v2 , v2 − v3 , . . .}. Este subespacio no es todo V , pues v1 6∈ W y no es
P
de dimensión finita. Si 0V 6= y entonces podemos escribir y = ni=1 ai vi para
ciertos números reales ai y an 6= 0. Si y ∈ W ⊥ , entonces

a1 − a2 = 0, a2 − a3 = 0, . . . , an − an+1 = 0,

y esto contradice el carácter no nulo de y . Por tanto, W ⊥ = 0V , aunque W 6= V .


Además, V 6= W ⊕ W ⊥ y (W ⊥ )⊥ = V 6= W .

8.9.3. Proyección ortogonal


Dado un subespacio W , la identidad V = W ⊕W ⊥ nos permite probar que el
vector proyW (v ) solamente depende del subespacio W y v . En efecto, la suma
directa implica que existen unos únicos w ∈ W, w ′ ∈ W ⊥ tales que v = w + w ′ .
La expresión v = proyW (v ) + (v − proyW (v )) prueba que el cálculo de proyW (v )
se puede hacer con cualquier base ortogonal de W .

Álgebra Lineal y Geometría 353


Depto. de Álgebra

Ejemplo 8.9.3.- En R4, con el producto escalar estándar, consideremos el subes-


pacio W = 〈u1 , u2 〉 y el vector v ∈ R4 dados por
     
1 0 1
 2   1   1 
     
u1 =   , u2 =   , v =   .
 1   0   1 
2 1 1
Vamos a considerar diferentes alternativas para calcular proyW (v ), la proyec-
ción ortogonal de v sobre W .
El subespacio W ⊥ está definido por las ecuaciones
½
⊥ x1 + 2x2 + x3 + 2x4 = 0,
W
x2 + x4 = 0,
que resolvemos

à !  x1 = −x3 ,
1 0 1 0
µ ¶ 
1 2 1 2 rref −x4 ,

x2 =

→ , ,
0 1 0 1 0 1 0 1  x = x ,
 3 3

x4 = x4 ,
   
−1 0
0
   
−1
W ⊥ = 〈 u3 = 
   
 , u4 =  〉.
 1   0 
0 1

Sabemos que {u1 , u2 , u3 , u4 } es una base de R4 y podemos obtener una expre-


sión de la forma
v = α1 u1 + α2 u2 + α3 u3 + α4 u4
para ciertos escalares αi ∈ R, i = 1, 2, 3, 4. Se tiene entonces que proyW (v ) =
α1 u1 +α2 u2 . En este caso, la solución del sistema es α1 = 1, α2 = −1, α3 = 0, α4 =
0, por lo que
proyW (v ) = u1 − u2 = v .
Esto es lógico, porque ya se tenía que v ∈ W .
Otra forma de calcular la proyección ortogonal parte de una base ortogonal
de W . Si aplicamos el procedimiento de Gram-Schmidt al conjunto {u1 , u2 },
obtenemos que {q1′ , q2′ } es una base ortogonal de W , donde
 
−2
 1 
 
′ ′
q1 = u 1 , q2 =  .
 −2 
1

354 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces
 
1
〈q1′ |v 〉 〈q2′ |v 〉 3 1 
1

q1′ + q2′ = q1′ − q2′ = 
 
proyW (v ) = .
〈q1′ |q1′ 〉 〈q2′ |q2′ 〉 5 5  1 
1

8.9.4. Cálculo de ecuaciones de W ⊥


El concepto de complemento ortogonal permite relacionar el espacios de
columnas y el espacio nulo de una matriz A m×n con los de A ∗ .

Teorema de descomposición ortogonal

Sea A m×n una matriz compleja. Entonces

Col(A)⊥ = null(A ∗ ) y null(A)⊥ = Col(A ∗ ).

Como consecuencia,

Cm = Col(A) ⊕ Col(A)⊥ = Col(A) ⊕ null(A ∗ )

y
Cn = null(A) ⊕ null(A)⊥ = null(A) ⊕ Col(A ∗ ).

P RUEBA : Sea v ∈ Col(A)⊥ ⊂ Cm . Entonces v es ortogonal a las columnas de A,


es decir
〈A e j |v 〉 = 0, j = 1, . . . , n.
por lo que e∗j A ∗ v = 0 para todo j = 1, . . . , n, y de aquí tenemos que A ∗ v = 0. Por
tanto, v ∈ null(A ∗ ). El recíproco se obtiene fácilmente, pues todas las implica-
ciones son equivalencias.
Si aplicamos el resultado a A ∗ , obtenemos Col(A ∗ )⊥ = null(A), que es la se-
gunda igualdad. Las relaciones con la suma directa son consecuencia de la des-
composición ortogonal.

Álgebra Lineal y Geometría 355


Depto. de Álgebra

El resultado anterior nos permite calcular un conjunto generador de W ⊥ a par-


tir de unas ecuaciones implícitas de W , o unas ecuaciones implícitas de W ⊥ a
partir de unos generadores de W .

Ejemplo 8.9.4.- En R4 , con respecto a la base estándar y 〈·|·〉e , sea W el subes-


pacio dado por 
 x1 + x2 + x3 + x4 = 0,
W x + 2x2 + x3 = 0,
 1
x1 − x2 + x3 + 3x4 = 0.
Esto significa que W = null(A), donde
 
1 1 1 1
A= 1 2 1 0 .
1 −1 1 3

Entonces W ⊥ = null(A)⊥ = Col(A t ) y


     
1 1 1
1 2
     
−1
W ⊥ = 〈u1 , u2 , u3 〉, donde u1 = 
     
 , u2 =   , u3 =  .
 1   1   1 
1 0 3

Ejemplo 8.9.5.- Consideremos el subespacio W = 〈w1 , w2 〉 ⊂ R3 , con el pro-


ducto escalar estándar, donde
   
1 2
w1 =  1  , w2 =  0  .
0 −1

Entonces podemos escribir W = Col(A), donde


¡ ¢
A = w1 w2 ,

356 Álgebra Lineal y Geometría


Depto. de Álgebra

y el resultado anterior nos dice que W ⊥ = null(A t ). Por tanto, W ⊥ viene dado
por las soluciones del sistema lineal homogéneo
 
½ 1/2
x1 +x2 = 0,
esto es W ⊥ = 〈h1 =  −1/2 〉.
2x1 −x3 = 0,
1

Observemos que podemos calcular unas ecuaciones implícitas de (W ⊥)⊥ a par-


tir del generador de W ⊥ , lo que nos da

W = (W ⊥ )⊥ : x1 − x2 + 2x3 = 0.

8.9.5. Ampliación a una base ortogonal


Ahora vamos a aplicar el cálculo del complemento ortogonal para ampliar
un conjunto ortogonal a una base ortogonal.

Ampliación de un conjunto ortogonal a una base ortogonal del


espacio

Entrada: conjunto ortogonal S 0 = {q1′ , . . . , qs′ }.


Salida: base ortogonal B = {q1′ , . . . , qs′ , qs+1

, . . . , qn′ }.

1. Calculamos el complemento ortogonal S 0⊥ = 〈u′s+1 , . . . , u′n 〉.

2. Aplicamos el procedimiento de Gram-Schmidt a dicho conjunto.

Ejemplo 8.9.6.- Consideremos los vectores ortonormales


   
−2 0
1 1 
 
 0 
 
q1 =   , q2 =   .
3 0   1 
2 0

Álgebra Lineal y Geometría 357


Depto. de Álgebra

El conjunto ortogonal a S 0 = {q1 , q2 } está definido por las soluciones del sistema
lineal homogéneo
½ 2
− 3 x1 + 13 x2 + 32 x4 = 0,
x3 = 0.
Como à ! à !
−2/3 1/3 0 2/3 rref 1 −1/2 0 −1

→ ,
0 0 1 0 0 0 1 0
una base del espacio de soluciones es
   
1 1
   
 2   0 
u′3 =   , u′4 =   .
   
 0   0 
   
0 1
Ahora aplicamos el procedimiento de Gram-Schmidt al conjunto {u′3 , u′4 }.
 
1
 
 2 
′ ′  
q3 = u 3 =   ,
 0 
 
0
q4′ = u′4 − λq3′ ,
〈q ′ |u′ 〉e 1
λ = 3′ ′4 = ,
〈q3 |q3 〉e 5
     
1 1/2 4/5 
      4
 0  2  1   −2/5   
′       ′  −2 
q4 =   −  =  . Usamos q4 =  .
 0  5 0   0   0 
     
5
1 0 1
De esta forma ya tenemos un conjunto ortogonal {q1 , q2 , q3′ , q4′ } que contiene al
original. Para que sea ortonormal, basta normalizar los vectores qi′ , i = 3, 4:
 
1  
  4
1  2 
1  1 1 
 
′ ′  −2 
q3 = ° ′ ° q3 = p   , q4 = ° ′ ° q4 = p 
° ° ° ° .
q3 5
 0 
 q4 45  0 
5
0

358 Álgebra Lineal y Geometría


Depto. de Álgebra

8.9.6. Producto vectorial en R3


A partir de dos vectores u, v ∈ R3 , hay una manera formal de construir un
vector w de forma que 〈u, v 〉⊥ = 〈w 〉.
 µ ¶ 
u2 u3
det
 v v3 
µ 2
     
u1 v1  ¶ 
 u1 u3 
u =  u 2  , v =  v 2  , definimos u × v =  − det .
v v3
µ 1
 
u3 v3  ¶ 
 u1 u2 
det
v1 v2

Al vector u × v se lo denomina producto vectorial de u y v . De manera infor-


mal, se escribe también como
 
e1 e2 e3
u × v = det  u 1 u 2 u 3  .
v1 v2 v3

También se puede formar la matriz


µ ¶
u1 u2 u3
,
v1 v2 v3

cuya primera fila contiene las componentes de u y la segunda fila las compo-
nentes de v . Para calcular la primera componente de u × v , borramos la prime-
ra columna y obtenemos el determinante. Para la segunda componente, borra-
mos la segunda columna y calculamos el opuesto del determinante. Y la tercera
componente se consigue borrando la tercera columna y aplicamos el determi-
nante.

Ejemplo 8.9.7.- Consideremos los vectores de R3 dados por


   
1 2
u = −1 , v = 0  .
  
1 −3

Álgebra Lineal y Geometría 359


Depto. de Álgebra

Entonces
 
µ ¶ µ ¶ µ 3 ¶
−1 1 1 1 1 −1
u × v = det e − det e + det e3 = 5 .

0 −3 1 2 −3 2 2 0
2

Ejemplo 8.9.8.- Si tomamos los vectors de la base estándar de R3 , es fácil com-


probar que
e1 × e2 = e3 , e2 × e3 = e1 , e3 × e1 = e2 .
El ciclo (123) nos permite recordar las expresiones anteriores.

Propiedades del producto vectorial

Sean u, v y w vectores de R3 y α un escalar.

1. u × v = −(v × u).

2. u × (v + w ) = (u × v ) + (u × w ).

3. (v + w ) × u = (v × u) + (w × u).

4. α(u × v ) = (αu) × v = u × (αv ).

5. u × 0 = 0 × u = 0.

6. u × u = 0.

P RUEBA : Las pruebas son inmediatas a partir de la definición. 

Existen propiedades interesantes que relacionan el producto vectorial con


el producto escalar estándar de R3 .

360 Álgebra Lineal y Geometría


Depto. de Álgebra

Relación del producto vectorial y el producto escalar

Sean u, v y w vectores de R3 .

1. 〈u|u × v 〉 = 0, es decir, u × v es ortogonal a u.

2. 〈v |u × v 〉 = 0, es decir, u × v es ortogonal a v .

3. ku × v k2 = kuk2 kv k2 − 〈u|v 〉2 . (Identidad de Lagrange)

4. u × (v × w ) = 〈u|w 〉v − 〈u|v 〉w .

5. (u × v ) × w = 〈u|w 〉v − 〈v |w 〉u.

P RUEBA :

1. Sean u = (u 1 , u 2 , u 3 )t y v = (v 1 , v 2 , v 3 )t . Entonces

〈u|u × v 〉 = u 1 (u 2 v 3 − u 3 v 2 ) − u 2 (u 1 v 3 − u 3 v 1 ) + u 3 (u 1 v 2 − u 2 v 1 ) = 0.

2. Análogo al anterior.

3. Como

ku × v k2 = (u 2 v 3 − u 3 v 2 )2 + (u 1 v 3 − u 3 v 1 )2 + (u 1 v 2 − u 2 v 1 )2 ,

kuk2 kv k2 − 〈u|v 〉2 = (u 12 + u 22 + u 32 )(v 12 + v 22 + v 32 ) − (u 1 v 1 + u 2 v 2 + u 3 v 3 )2 ,

la prueba se completa desarrollando la parte derecha de cada una de es-


tas igualdades y comprobando su igualdad.

4. Si w = e1 , se tiene que
   
0 −u 2 v 2 − u 3 v 3
v × e1 =  v 3  , u × (v × e1 ) =  u1 v 2 ,
−v 2 u1 v 3
   
u1 v 1 〈u|v 〉
u 1 v − 〈uv 〉e1 = u 1 v 2  −  0 
u1 v 3 0

Álgebra Lineal y Geometría 361


Depto. de Álgebra

y tenemos la igualdad. Análogamente, la propiedad se cumple para w =


e2 y w = e3 . En resumen,
u × (v × e1 ) = 〈u|e1 〉v − 〈u|v 〉e1 = u 1 v − 〈u|v 〉e1 ,
u × (v × e2 ) = 〈u|e2 〉v − 〈u|v 〉e2 = u 1 v − 〈u|v 〉e2 ,
u × (v × e3 ) = 〈u|e3 〉v − 〈u|v 〉e3 = u 1 v − 〈u|v 〉e3 .
Si ahora escribimos w = w 1 e1 + w 2 e2 + w 3 e3 , entonces

u × (v × w ) = u × (w 1 (v × e1 )) + u × (w 2 (v × e2 )) + u × (w 3 (v × e3 ))
= w 1 (u 1 v − 〈u|ve1 〉) + w 2 (u 2 v − 〈u|ve2 〉) + w 3 (u 3 v − 〈u|ve3 〉)
= (w 1 u 1 + w 2 u 2 + w 3 u 3 )v − 〈u|v 〉(w 1 e1 + w 2 e2 + w 3 e3 )
= 〈u|w 〉v − 〈u|v 〉w .

5. Aplicamos el resultado anterior junto al cambio de signo cuando inter-


cambiamos los factores:

(u × v ) × w = −w × (u × v )
= −(〈w |v 〉u − 〈w |u〉v )
= 〈w |u〉v − 〈w |v 〉u.

Si u y v son vectores de R3 , entonces la norma de u × v tiene una interpre-


tación geométrica. La identidad de Lagrange nos dice que

ku × v k2 = kuk2 kv k2 − 〈u|v 〉2 .

Si θ es el ángulo entre u y v , entonces 〈u|v 〉 = kuk kv k cos θ, y la expresión an-


terior se puede escribir como

ku × v k2 = kuk2 kv k2 − kuk2 kv k2 cos2 θ


= kuk2 kv k2 (1 − cos2 θ) = kuk2 kv k2 sen2 θ.

Como 0 ≤ θ ≤ π, el valor del seno es no negativo y nos queda

ku × v k = kuk kv k sen θ.

Por otro lado, kv k sen θ es la altura del paralelogramo definido por u y v . De


aquí, el área A de este paralelogramo es

A = base · altura = kuk kv k sen θ = ku × v k .

Este resultado es correcto incluso cuando u y v son linealmente dependientes.


Tenemos así el siguiente resultado.

362 Álgebra Lineal y Geometría


Depto. de Álgebra

Interpretación geométrica del producto vectorial

Si u y v son vectores de R3 , entonces ku × v k es igual al área del parale-


logramo definido por u y v .

Podemos ahora dar una interpretación geométrica de los determinantes de


matrices 2 × 2 y 3 × 3.

Interpretación geométrica del determinante

1. Sean u = (u 1 , u 2 )t y v = (v 1 , v 2 )t vectores en R2 . El valor absoluto


del determinante µ ¶
u1 u2
det
v1 v2
es igual al área del paralelogramo definido por u y v .

2. Sean u = (u 1 , u 2 , u 3 )t , v = (v 1 , v 2 , v 3 )t y w = (w 1 , w 2 , w 3 )t vectores
de R3 . El valor absoluto del determinante
 
u1 u2 u3
det  v 1 v 2 v 3 
w1 w2 w3

es igual al volumen del paralelepípedo definido por u, v y w .

P RUEBA : Para el primer apartado necesitamos, en primer lugar, unos vectores


en R3 . Por simplicidad en la notación, llamamos u = (u 1 , u 2 , 0)t y v = (v 1 , v 2 , 0)t .
Entonces  
e1 e2 e3 µ ¶
u1 u2
u × v = det u 1 u 2 0 = det
  e .
v1 v2 3
v1 v2 0
Como ke3 k = 1, el área A del paralelogramo definido por u y v es
¯ µ ¶¯
¯ u 1 u 2 ¯
A = ku × v k = ¯¯det ¯,
v1 v2 ¯

y tenemos el resultado.
Para el segundo enunciado, consideremos como base del paralelepípedo
el paralelogramo definido por v y w , cuya área es kv × w k. La altura h es la

Álgebra Lineal y Geometría 363


Depto. de Álgebra

longitud de la proyección ortogonal de u sobre v × w . Por tanto,

¯ ¯
° ° ¯ 〈u|v × w 〉 ¯
h = °proy v ×w u = ¯
° ¯ ¯.
kv × w k ¯

El volumen V del paralelepípedo es

¯ ¯
¯ 〈u|v × w 〉 ¯
V = área de la base · h = kv × w k ¯
¯ ¯ = |〈u|v × w 〉| .
kv × w k ¯

Solamente falta calcular este producto escalar.

µ ¶ µ ¶ µ ¶
v2 v3 v1 v3 v1 v2
〈u|v × w 〉 = 〈u| det e − det e + det e 〉
w2 w3 1 w1 w3 2 w1 w2 3
µ ¶ µ ¶ µ ¶
v2 v3 v1 v3 v1 v2
= det u − det u + det u
w2 w3 1 w1 w3 2 w1 w2 3
 
u1 u2 u3
= det  v 1 v 2 v 3  .
w1 w2 w3

Queda así probado el enunciado. 

8.9.7. * Cálculos adicionales

Una última aplicación del complemento ortogonal es el cálculo de unas


ecuaciones implícitas de un subespacio vectorial de Kn a partir de un conjunto
de generadores. Por simplicidad, suponemos fijada la base estándar del espa-
cio vectorial Kn , que es ortonormal respecto al producto escalar estándar, y sea
W el subespacio vectorial generado por un conjunto S.

364 Álgebra Lineal y Geometría


Depto. de Álgebra

De paramétricas a implícitas: ortogonal

1. Se considera la matriz A, de orden m × n, cuyas columnas son las


componentes de los elementos de S.

2. Calculamos unas ecuaciones implícitas de W ⊥ a partir de A ∗ .

3. Obtenemos una base h1 , . . . , hs de null(A ∗ ) mediante la forma es-


calonada de A ∗ .

4. Si consideramos la matriz
¡ ¢
T= h1 . . . h s

entonces T ∗ es la matriz de coeficientes de un sistema lineal ho-


mogéneo que define a W .

Ejemplo 8.9.9.- Sea W el subespacio vectorial de R4 generado por los vectores


   
1 0
2  1 
    ¡ ¢
 
u1 =   , u2 =   , y formemos la matriz A = u1 u2 .
 1   0 
2 1

Entonces el complemento ortogonal W ⊥ está definido por las soluciones del


sistema lineal homogéneo A t x = 0:
µ ¶ µ ¶
t 1 2 1 2 rref 1 0 1 0
A = −
→ ,
0 1 0 1 0 1 0 1
de donde
   
−1 0
½
= 0, 0
   
⊥ x1 +x3 ⊥    −1 
W ≡ , y W = 〈h 1 =   , h2 =  〉.
x2 +x4 = 0  1   0 
0 1
Entonces, unas ecuaciones implícitas de W son
½
−x1 +x3 = 0,
W≡
−x2 +x4 = 0.

Álgebra Lineal y Geometría 365


Depto. de Álgebra

Ejemplo 8.9.10.- También tenemos un método para el cálculo de la intersec-


ción de dos subespacios vectoriales. Consideremos R4 con el producto escalar
estándar y los subespacios dados por
       
1 0 1 1
 2   1   1   2 
       
U = 〈u1 =   , u2 =  〉,V = 〈v1 =   , v2 =  〉.
 1   0   1   1 
2 1 1 0

Calculamos en primer lugar U ⊥ y V ⊥ . El conjunto U ⊥ es el espacio de solucio-


nes del sistema lineal homogéneo
½
x1 + 2x2 + x3 + 2x4 = 0,
x2 + x4 = 0,

por lo que calculamos la forma escalonada reducida por filas de la matriz de


coeficientes:

à !  x1 = −x3 ,
1 0 1 0
µ ¶ 
1 2 1 2 −x4 ,

rref x2 =
−→ , ,
0 1 0 1 0 1 0 1  x = x ,
 3 3

x4 = x4 ,
   
−1 0
0
   
−1
U ⊥ = 〈 u3 = 
   
 , u4 =  〉.
 1   0 
0 1

Análogamente para V ⊥ :

à ! à !  x1 = −x3 −2x4 ,
1 1 1 1 1 0 1 2

x4 ,

rref x2 =
−→ , ,
1 2 1 0 0 1 0 −1  x = x3 ,
 3

x4 = x4 ,
   
−1 −2
 0   1 
   

V = 〈v3 =  ,v =  〉.
 1  4  0 
0 1

366 Álgebra Lineal y Geometría


Depto. de Álgebra

El subespacio U ⊥ +V ⊥ está generado por los vectores {u3 , u4 , v3 , v4 }. Ahora


tenemos en cuenta la relación U ∩ V = (U ⊥ + V ⊥ )⊥ , por lo que calculamos el
espacio ortogonal a este conjunto de vectores:
   
−1 0 1 0 1 0 0 −1
   
 0 −1 0 1   0 1 0 −1 
¡ ¢t   rref  
u3 u4 v3 v4 = − → .
 −1 0 1 0   0 0 1 −1 
   
−2 1 0 1 0 0 0 0

Entonces  
1
1
 
U ∩ V = (U ⊥ + V ⊥ )⊥ = 〈w1 = 
 
〉.
 1 
1

Álgebra Lineal y Geometría 367


Depto. de Álgebra

8.10. Isometrías
Recordemos que las matrices unitarias U verifican que U ∗ = U −1 , que es
equivalente a decir que sus columnas o filas forman una base ortonormal de
Cn . En el caso real, U t = U −1 , y las llamamos ortogonales.
También presentamos un tipo especial de homomorfismo entre espacios
vectoriales con producto escalar.

Isometría

Sean (V, 〈·|·〉V ), (W, 〈·|·〉W ) espacios vectoriales de dimensión finita con
producto escalar. Una aplicación lineal f : V → W es una isometría si

〈v1 |v2 〉V = 〈 f (v1 )| f (v2 )〉W

para todo v1 , v2 ∈ V .

Ejemplo 8.10.1.- Sean V = R2 ,W = R3 con el producto escalar estándar. La


aplicación lineal f : R2 → R3 dada por
 
µ ¶ a1
a1
v= 7 f (v ) =  a2 

a2
0

es una isometría. Es claro que f no tiene inversa.

Nota 8.10.1. Si f : V → W es una isometría y v ∈ V , entonces

° f (v )°2 = 〈 f (v )| f (v )〉W = 〈v |v 〉V = kv k2 ,
° °
W V

es decir, conserva la
° norma.
° Recíprocamente, supongamos que f es una aplica-
ción lineal tal que f (v )°W = kv kV para todo v ∈ V . Como el producto escalar
°
se puede recuperar a partir de la norma (pág. 327), concluimos que f es una
isometría.

368 Álgebra Lineal y Geometría


Depto. de Álgebra

Condición equivalente de isometría

Sean V y W espacios vectoriales con producto escalar y de la misma


dimensión finita n. Si f ∈ Hom(V,W ), las siguientes afirmaciones son
equivalentes:

1. f es una isometría.

2. f es isomorfismo e isometría.

3. Si {v1 , . . . , vn } es una base ortonormal de V entonces


{ f (v1 ), . . . , f (vn )} es una base ortonormal de W .

4. Existe {v1 , . . . , vn } base ortonormal de V tal que { f (v1 ), . . . , f (vn )}


es una base ortonormal de W .

P RUEBA : (1) ⇒ (2). Supongamos que f es isometría. Si v 6= 0 es un vector de V


entonces 0 6= 〈v |v 〉 = 〈 f (v )| f (v )〉, por lo que f (v ) 6= 0. Esto implica que ker f =
0; dado que dimV = dimW , tenemos que f es isomorfismo.
(2) ⇒ (3). Sea ahora {v1 , . . . , vn } una base ortonormal de V . Como f es iso-
morfismo, { f (v1 ), . . . , f (vn )} es una base de W . Además,

〈 f (vi )| f (v j )〉 = 〈vi |v j 〉 = δi j ,

por lo que también es una base ortonormal.


(3) ⇒ (4). Es inmediato.
(4) ⇒ (1). Sea {v1 , . . . , vn } una base ortonormal de V y tomemos vectores
P P
u, v ∈ V . Entonces u = ni=1 ai vi , v = nj=1 b j v j y
n
X
〈u|v 〉 = a i bi .
i =1

Además,
à ! à !
n
X n
X
〈 f (u)| f (v )〉 = 〈 f ai vi | f b j vj 〉
i =1 j =1
n X
X n n
X
= ai b j 〈 f (vi )| f (v j )〉 = ai b i = 〈u|v 〉.
i =1 j =1 i =1

Las matrices unitarias complejas de orden n forman un grupo, que nota-


remos por U (n). Las matrices ortogonales reales también tienen estructura de

Álgebra Lineal y Geometría 369


Depto. de Álgebra

grupo, notado por O(n). Es claro que si A es una matriz ortogonal, entonces
1 = det(I ) = det(A A t ) = det(A)2 , de donde det(A) = ±1. El conjunto de matrices
ortogonales de orden n con determinante igual a 1 forma un grupo respecto
al producto, que notaremos por SO(n), y se denomina grupo especial ortogo-
nal. También es llamado el grupo de las rotaciones de Rn y veremos que está
asociado al conjunto de movimientos directos.
Es interesante una reformulación del teorema de condición equivalente de
isometría (pág. 369) cuando el espacio vectorial de partida y llegada coinciden.

Isometría y matriz unitaria

Sea f : V → V una aplicación lineal, con (V, 〈·|·〉) un K-espacio vectorial


de dimensión finita. Son equivalentes:

1. f es isometría.
° °
2. Si v ∈ V , entonces kv k = ° f (v )°.

3. Para toda base ortonormal B de V , la matriz de f respecto de la


base B es unitaria.

4. Existe una base ortonormal B de V tal que la matriz de f respecto


de la base B es unitaria.

P RUEBA : Si f es isometría,
° °2
kv k2 = 〈v |v 〉 = 〈 f (v )| f (v )〉 = ° f (v )° ,
° °
de donde kv k = ° f (v )°, pues son números no negativos. Como la norma de-
fine al producto escalar, la igualdad de las normas implica que f es isometría.
Tenemos así la equivalencia entre las dos primeras condiciones.
Sea entonces B = {v1 , . . . , vn } una base ortonormal de V y llamemos A =
MB ( f ). Por el teorema de equivalencia de isometrías, el conjunto { f (v1 ), . . . , f (vn )}
es una base ortonormal de V , de donde

〈 f (vi )| f (v j )〉 = δi j , i , j = 1, . . ., n.

Por el teorema de expresión del producto escalar respecto de una base ortonor-
mal (pág. 338), se tiene que

〈 f (vi )| f (v j )〉 = [ f (vi )]∗B [ f (v j )]B .

Si unimos ambas expresiones, nos queda que A ∗ A = I .

370 Álgebra Lineal y Geometría


Depto. de Álgebra

Supongamos ahora que existe una base ortonormal B tal que la matriz de
f respecto de la base B es unitaria. Si llamamos A es esta matriz, entonces

〈 f (u)| f (v )〉 = [u]∗B A ∗ A[v ]B = [u]∗B [v ]B = 〈u|v 〉.

En particular, la última equivalencia nos dice que si un endomorfismo f


está definido por una matriz unitaria U respecto de una base ortonormal, en-
tonces f es una isometría.

Álgebra Lineal y Geometría 371

También podría gustarte