Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Departamento de Álgebra
Universidad de Sevilla
Depto. de Álgebra
2. Álgebra matricial 63
2.1. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.2. Matrices elementales y equivalencia . . . . . . . . . . . . . . . . . . 68
2.3. Forma normal del rango . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.4. * Producto directo de matrices . . . . . . . . . . . . . . . . . . . . . 81
3. Determinantes 83
3.1. Definición inductiva . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.3. * Rango y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.4. * Método del orlado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.5. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.6. Cofactores y matriz inversa . . . . . . . . . . . . . . . . . . . . . . . 106
3.7. * Determinantes y permutaciones . . . . . . . . . . . . . . . . . . . 109
3.7.1. * Efecto por trasposición y operaciones elementales . . . . 112
3.8. * Igualdad de ambas definiciones . . . . . . . . . . . . . . . . . . . 118
III
Depto. de Álgebra
6. Homomorfismos 197
6.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . 198
6.2. Matriz de un homomorfismo . . . . . . . . . . . . . . . . . . . . . . 202
6.3. Imagen y núcleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
6.4. Homomorfismos inyectivos y sobreyectivos . . . . . . . . . . . . . 213
6.5. El espacio vectorial de los homomorfismos . . . . . . . . . . . . . . 221
6.6. * Teoremas de isomorfía . . . . . . . . . . . . . . . . . . . . . . . . . 225
6.7. Cambio de base y homomorfismos . . . . . . . . . . . . . . . . . . 232
6.8. * Espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
6.8.1. * Base dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
6.8.2. * Interpretación de la matriz traspuesta . . . . . . . . . . . . 240
∗
Nota: los apartados con asterisco son opcionales.
313
Depto. de Álgebra
Producto escalar
〈βx|y 〉 = β〈x|y 〉,
y entonces se deduce que 〈x|αy 〉 = α〈x|y 〉. Esto solamente afecta a los produc-
tos escalares definidos en espacios vectoriales sobre el cuerpo de los números
complejos. En cualquier caso, el contenido fundamental de la teoría no cambia,
aunque algunas definiciones deben ser retocadas.
4. 〈y |x〉 = 2y 1 x1 + 3y 2 x2 = 〈x|y 〉.
2. 〈x|αy 〉e = α〈x|y 〉e .
〈x|y + z 〉e = x∗ (y + z ) = x∗ y + x∗ z
= 〈x|y 〉e + 〈x|z 〉e .
4. 〈x|y 〉e = 〈y |x〉e .
P
Ejemplo 8.1.5.- Sea V el conjunto de sucesiones {ck } ⊂ C que verifican n≥0 |cn |2 <
∞. Tiene estructura de C-espacio vectorial y podemos definir un producto es-
calar con X
〈{ck }|{d k }〉 = ck dk .
n≥0
〈x + y |z 〉 = 〈z |x + y 〉
= 〈z |x〉 + 〈z |y 〉
= 〈x|z 〉 + 〈y |z 〉.
y también 〈x|0〉 = 0.
Matriz de Gram
G = (〈ei |e j 〉e ) = I n .
entonces
n
X n
X
〈x|y 〉 = 〈 x i ui y j uj 〉
i =1 j =1
n X
X n
= 〈xi ui |y j u j 〉
i =1 j =1
X n X n
= xi y j 〈ui |u j 〉
i =1 j =1
= [x]∗B ·G · [y ]B .
〈x|y 〉 = [x]∗B ·G · [y ]B .
[x]B = P [x]B ′ , [y ]B = P [y ]B ′ ,
Por tanto,
de donde G ′ = P ∗GP .
G ′ = P ∗GP.
Entonces
3 1 0
P t I 3P = 1 5 −1 = G ′ ,
0 −1 2
como sabíamos.
8.3. Norma
Norma de un vector
La definición tiene sentido por las propiedades del producto escalar. Aunque
no aparece en la notación, la norma de un vector depende del producto escalar
usado.
Ejemplo 8.3.2.- Si V = M (n×n, C), con el producto escalar 〈A|B〉 = traza(A ∗ B),
se tiene que
à !1/2
n X
X n
2
kAk = |ai j | .
i =1 j =1
Propiedades de la norma
Sea (V, 〈·|·〉) un espacio vectorial con producto escalar. Para cualesquie-
ra x, y ∈ V y escalar α ∈ K se verifica
3. kx − y k = ky − xk.
Entonces
Como 〈y |x〉 = 〈x|y 〉, se tiene que 〈x|y 〉〈y |x〉 = |〈x|y 〉|2 , de donde
Desigualdad triangular
Sean x, y ∈ V . Entonces
kx + y k ≤ kxk + ky k .
Sea (V, 〈·|·〉) un espacio vectorial con producto escalar y k·k la norma
asociada. Consideremos u, v ∈ V .
1¡ ¢
〈u|v 〉 = ku + v k2 − ku − v k2 .
4
1¡ ¢
〈u|v 〉 = ku + v k2 − ku − v k2
4
i¡ ¢
+ ku − i v k 2 − ku + i v k 2 .
4
〈x|y 〉
cos θ = .
kx k ky k
〈x|y 〉
cos(θ) = .
kx k ky k
Relación entre A, A ∗ A y A A ∗
P RUEBA :
kA v k2 = 〈A v |A v 〉e = v ∗ A ∗ A v = 0,
2. A partir de lo anterior,
Normas vectoriales
kx + y k ≤ kxk + ky k,
Por las propiedades que hemos visto, la norma inducida por un producto esca-
lar es una norma vectorial, que se denomina norma euclídea, y se representa
por k·k2 . Sobre Cn existen otras normas, como por ejemplo
Pn
kxk1 = i =1 |x i |, que llamamos 1-norma,
kx + y k2 + kx − y k2 = 2(kxk2 + ky k2 )
kx + y k2 + kx − y k2 = 〈x + y |x + y 〉 + 〈x − y |x − y 〉
= 〈x|x〉 + 〈x|y 〉 + 〈y |x〉 + 〈y |y 〉
+〈x|x〉 − 〈x|y 〉 − 〈y |x〉 + 〈y |y 〉
= 2(kxk2 + ky k2 ).
1
ψ(x, y ) = (kx + y k2 − kx − y k2 )
4
Tenemos que ver lo que ocurre con las dos restantes propiedades. Por la iden-
tidad del paralelogramo, podemos escribir
1
kx + y k2 + kx + z k2 = (kx + y + x + z k2 + ky − z k2 ),
2
1
kx − y k2 + kx − z k2 = (kx − y + x − z k2 + kz − y k2 ),
2
1
ψ(x, y ) = 2ψ(x, y ) para todo y ∈ V.
2
Ahora probemos que ψ(x, αy ) = αψ(x, y ) para todo número real α. Por lo an-
terior, el resultado es válido para los números enteros. Si α = β/γ es racional,
entonces
β β β
γ2 ψ(x, y ) = ψ(γx, βy ) = βγψ(x, y ), de donde ψ(x, y ) = ψ(x, y ).
γ γ γ
8.5. Ortogonalidad
Vectores ortogonales
Ejemplo 8.5.2.- Sea V = C ([−1, 1]) el R-espacio vectorial de las funciones con-
tinuas en el intervalo [−1, 1], donde tenemos el producto escalar
Z1
〈 f |g 〉 = f (x)g (x) d x.
−1
Teorema de Pitágoras
kv + w k2 = 〈v + w |v + w 〉 = 〈v |v 〉 + 〈v |w 〉 + 〈w |v 〉 + 〈w |w 〉
= kv k2 + kw k2 + 2 Re(〈v |w 〉).
Conjuntos ortonormales
r
X r
X
0 = 〈 ui | αj uj 〉 = α j 〈ui |u j 〉.
j =1 j =1
Todos los sumandos de la derecha son nulos, salvo 〈ui |ui 〉, que es positivo.
Entonces αi = 0, para todo i = 1, . . ., r .
Expansión de Fourier
P RUEBA : Si x = α1 u1 + α2 u2 + · · · + αn un , entonces
n
X n
X ° °2
〈u j |x〉 = 〈u j | αi ui 〉 = αi 〈u j |ui 〉 = α j °u j ° .
i =1 i =1
r
X r
X
〈w |x − proyW (x)〉 = 〈 α j w j |x − proyW (x)〉 = α j 〈w j |x − proyW (x)〉 = 0.
j =1 j =1
Sea B = {u1 , . . . , un } una base de un espacio vectorial (V, 〈·|·〉) con pro-
ducto escalar y tomemos v , w ∈ V con expresiones
n
X n
X
v= v i ui , w = w j uj .
i =1 j =1
1. Si B es ortogonal, entonces
n
X
〈v |w 〉 = kui k2 v i w i .
i =1
2. Si B es ortonormal, entonces
n
X
〈v |w 〉 = v i w i = [v ]∗B [w ]B .
i =1
Nota 8.6.1. Hemos visto que la multiplicación por una matriz unitaria no altera
la norma euclídea de un vector. Algo parecido ocurre con la norma de Frobe-
nius de una matriz. Sea A n×n una matriz con coeficientes complejos y Un×n
una matriz unitaria. Entonces
para ciertos escalares λi j . Buscamos esta forma en los vectores qi′ para que ge-
neren el mismo subespacio vectorial que los vi . En efecto, veamos que
por inducción sobre k. Para k = 1 no hay nada que probar. Supuesto que 〈v1, . . . , vk−1 〉 =
〈q1′ , . . . , qk−1
′
〉, se tiene que la expresión
k−1
X
qk′ = vk − λi k qi′
i =1
implica que
qk′ ∈ 〈q1′ , . . . , qk−1
′
, vk 〉 = 〈v1 , . . . , vk−1 , vk 〉,
y tenemos la inclusión
〈q1′ , . . . , qk−1
′
, qk′ 〉 ⊂ 〈v1 , . . . , vk−1 , vk 〉.
Análogamente, la expresión
k−1
X
vk = qk′ + λi k qi′
i =1
implica que
〈v1 , . . . , vk−1 , vk 〉 ⊂ 〈q1′ , . . . , qk−1
′
, qk′ 〉.
Observemos que lo anterior es válido para coeficientes arbitrarios λi j . Quere-
mos imponer la condición de ortogonalidad en el conjunto {q1′ , . . . , qs′ }. Para ello
tiene que ocurrir que
° °2
〈q1′ |q2′ 〉 = 0 = 〈q1′ |v2 〉 − λ12 °q1′ ° ,
q1′ = v1 ,
qk′ = vk − proyWk−1 (vk ), 2 ≤ k ≤ s.
k−1
X 〈qi′ |vk 〉 ′
q1′ = v1 , qk′ = vk − proyWk−1 (vk ) = vk − ° °2 qi , 2 ≤ k ≤ s,
′
i =1 °q ° i
Método de Gram-Schmidt
1. Definimos q1′ = v1 .
2. Para k = 2, . . . , s calculamos
1
qk = ° ° q′ , k = 1, 2, . . . , s.
′° k
° qk
q1′ = v1
〈q ′ |v2 〉e
q2′ = v2 − λ12 q1′ , λ12 = °1 °2 = 1,
°q ′ °
1
0
2
q2′ = v2 − q1′ =
,
0
0
q3′ = v3 − λ13 q1′ − λ23 q2′ ,
〈q1′ |v3 〉e
λ13 = ° °2 = 2,
°q ′ °
1
〈q2′ |v3 〉e 1
λ23 = ° °2 = ,
°q ′ ° 2
2
1
1
0
q3′ = v3 − 2q1′ − q2′ =
.
2 1
1
Entonces
1 0 1
1
0
1
1
0
q1 = p , q2 = , q3 = p .
2 0 0 3 1
−1 0 1
R∞ ¯ ¯2
Ejemplo 8.7.3.- Sea V el espacio de la funciones f : R → R tales que −∞ f (x) d x
¯ ¯
es finita, con el producto escalar
Z∞
〈 f |g 〉 = f (x)g (x) d x.
−∞
si 0 < x ≤ 21 ,
1
h(x) = −1 si 21 < x ≤ 1,
0 en otro caso.
Observemos que q2′ es igual a v2 y, por inducción, todos los coeficientes λ j k son
nulos. Por tanto, se llega a que qi′ = vi , i = 1, . . ., s. Si el conjunto de partida es
ortonormal, entonces qi = vi , i = 1, . . . , s.
8.8. * Factorización QR
q1′ = v1 ,
q2′ = v2 − λ12 q1′ ,
..
.
qs′ = vs − λ1s q1′ − . . . − λs−1,s qs−1
′
.
v1 = q1′ = r 11 q1 ,
v2 = λ12 q1′ + q2′ = r 12 q1 + r 22 q2 ,
..
.
vs = λ1s q1′ + · · · + λs−1,s qs−1
′
+ qs′ = r 1s q1 + . . . + r s−1,s qs−1 + r ss qs ,
que en forma matricial podemos expresarlo como
r 11 r 12 . . . r 1s
¡ ¢ ¡ ¢ 0 r 22 . . . r 2s
v1 v2 . . . vs q1 q2 . . . qs
= .. .
.
0 0 . . . r ss
Observemos que todos los r i i son positivos, pues son normas de vectores. Te-
nemos así que A m×s = Q m×s R s×s , donde las columnas de Q forman una base
ortonormal de Col(A), y R es una matriz triangular superior con elementos no
nulos en la diagonal.
A esta descomposición la llamaremos factorización QR reducida o rectan-
gular, porque la matriz Q es rectangular y R es cuadrada.
y habíamos calculado
1 0 1
1
0
1
1
0
q1 = p , q2 = , q3 = p .
2 0 0 3 1
−1 0 1
El cambio de base viene dado por los coeficientes λi j del proceso, y podemos
despejar los vectores vi en función de los vectores q j .
° ° p
v1 = °q1′ ° q
° ′°1 ° ′° = 2q ,
p 1
v2 = λ12 °q1 ° q1 + q2° q2°
° ° ° ° = 2q1 +2q2
° ° p p
v3 = λ13 °q1′ ° q1 +λ23 °q2′ ° q2 + °q3′ ° q3 = 2 2q1 +q2 + 3q3 .
La descomposición QR reducida queda de la forma
p p p
¡ ¢ ¡ ¢ 2 2 2 2
A = v1 v2 v3 = q1 q2 q3 0 2
p
1 .
0 0 3
lo que indica que podemos tomar para ampliar e1. Sea v4 = e1 . Hay que calcular
que sea ortogonal a q1′ , q2′ , q3′ . Efectuando los cálculos llegamos a
1/6
0
p
λ14 = 1/2, λ24 = 0, λ34 = 1/3, q4′ = , q4 = 6q4′ .
−1/3
1/6
Entonces
p p p
2 2 2 2
0
¢ 2 1
¡ ¢ ¡
A= v1 v2 v3 = q1 q2 q3 q4 p .
0 0 3
0 0 0
8.9.1. Definición
Complemento ortogonal
y
〈m|αv1 〉 = α〈m|v1 〉 = 0 para todo m ∈ M.
Esto es independiente de la estructura de M. Sin embargo, el caso que nos in-
teresa especialmente es cuando M es un subespacio vectorial W de dimensión
finita de V . En tal caso, existe una base finita de W formada por los vectores
w1 , . . . , wr . La definición impone, en principio, un conjunto infinito de condi-
ciones para caracterizar a los elementos de W ⊥ . Sin embargo, vamos a ver que
8.9.2. Propiedades
El uso de la palabra “complemento” para referirnos a W ⊥ tiene su origen en
el siguiente resultado.
V = W ⊕ W ⊥.
(W1⊥ )⊥ = W1 .
P RUEBA :
Ejemplo 8.9.2.- El espacio W debe ser de dimensión finita para que se cum-
plan las propiedades del complemento ortogonal. Consideremos V el R-espacio
vectorial de las sucesiones a = {an | an = 0 salvo un número finito de términos },
P
con el producto escalar 〈a|b〉 = i ≥1 ai b i . Para cada h ≥ 1, sea vh la sucesión
que contiene la entrada h-ésima igual a 1 y las restantes son iguales a cero. En-
tonces B = {vh | h ≥ 1} es una base ortonormal de V . Consideremos el subes-
pacio W generado por las combinaciones lineales finitas del conjunto de suce-
siones {v1 − v2 , v2 − v3 , . . .}. Este subespacio no es todo V , pues v1 6∈ W y no es
P
de dimensión finita. Si 0V 6= y entonces podemos escribir y = ni=1 ai vi para
ciertos números reales ai y an 6= 0. Si y ∈ W ⊥ , entonces
a1 − a2 = 0, a2 − a3 = 0, . . . , an − an+1 = 0,
Entonces
1
〈q1′ |v 〉 〈q2′ |v 〉 3 1
1
q1′ + q2′ = q1′ − q2′ =
proyW (v ) = .
〈q1′ |q1′ 〉 〈q2′ |q2′ 〉 5 5 1
1
Como consecuencia,
y
Cn = null(A) ⊕ null(A)⊥ = null(A) ⊕ Col(A ∗ ).
y el resultado anterior nos dice que W ⊥ = null(A t ). Por tanto, W ⊥ viene dado
por las soluciones del sistema lineal homogéneo
½ 1/2
x1 +x2 = 0,
esto es W ⊥ = 〈h1 = −1/2 〉.
2x1 −x3 = 0,
1
W = (W ⊥ )⊥ : x1 − x2 + 2x3 = 0.
El conjunto ortogonal a S 0 = {q1 , q2 } está definido por las soluciones del sistema
lineal homogéneo
½ 2
− 3 x1 + 13 x2 + 32 x4 = 0,
x3 = 0.
Como à ! à !
−2/3 1/3 0 2/3 rref 1 −1/2 0 −1
−
→ ,
0 0 1 0 0 0 1 0
una base del espacio de soluciones es
1 1
2 0
u′3 = , u′4 = .
0 0
0 1
Ahora aplicamos el procedimiento de Gram-Schmidt al conjunto {u′3 , u′4 }.
1
2
′ ′
q3 = u 3 = ,
0
0
q4′ = u′4 − λq3′ ,
〈q ′ |u′ 〉e 1
λ = 3′ ′4 = ,
〈q3 |q3 〉e 5
1 1/2 4/5
4
0 2 1 −2/5
′ ′ −2
q4 = − = . Usamos q4 = .
0 5 0 0 0
5
1 0 1
De esta forma ya tenemos un conjunto ortogonal {q1 , q2 , q3′ , q4′ } que contiene al
original. Para que sea ortonormal, basta normalizar los vectores qi′ , i = 3, 4:
1
4
1 2
1 1 1
′ ′ −2
q3 = ° ′ ° q3 = p , q4 = ° ′ ° q4 = p
° ° ° ° .
q3 5
0
q4 45 0
5
0
cuya primera fila contiene las componentes de u y la segunda fila las compo-
nentes de v . Para calcular la primera componente de u × v , borramos la prime-
ra columna y obtenemos el determinante. Para la segunda componente, borra-
mos la segunda columna y calculamos el opuesto del determinante. Y la tercera
componente se consigue borrando la tercera columna y aplicamos el determi-
nante.
Entonces
µ ¶ µ ¶ µ 3 ¶
−1 1 1 1 1 −1
u × v = det e − det e + det e3 = 5 .
0 −3 1 2 −3 2 2 0
2
1. u × v = −(v × u).
2. u × (v + w ) = (u × v ) + (u × w ).
3. (v + w ) × u = (v × u) + (w × u).
5. u × 0 = 0 × u = 0.
6. u × u = 0.
Sean u, v y w vectores de R3 .
2. 〈v |u × v 〉 = 0, es decir, u × v es ortogonal a v .
4. u × (v × w ) = 〈u|w 〉v − 〈u|v 〉w .
5. (u × v ) × w = 〈u|w 〉v − 〈v |w 〉u.
P RUEBA :
1. Sean u = (u 1 , u 2 , u 3 )t y v = (v 1 , v 2 , v 3 )t . Entonces
〈u|u × v 〉 = u 1 (u 2 v 3 − u 3 v 2 ) − u 2 (u 1 v 3 − u 3 v 1 ) + u 3 (u 1 v 2 − u 2 v 1 ) = 0.
2. Análogo al anterior.
3. Como
ku × v k2 = (u 2 v 3 − u 3 v 2 )2 + (u 1 v 3 − u 3 v 1 )2 + (u 1 v 2 − u 2 v 1 )2 ,
4. Si w = e1 , se tiene que
0 −u 2 v 2 − u 3 v 3
v × e1 = v 3 , u × (v × e1 ) = u1 v 2 ,
−v 2 u1 v 3
u1 v 1 〈u|v 〉
u 1 v − 〈uv 〉e1 = u 1 v 2 − 0
u1 v 3 0
u × (v × w ) = u × (w 1 (v × e1 )) + u × (w 2 (v × e2 )) + u × (w 3 (v × e3 ))
= w 1 (u 1 v − 〈u|ve1 〉) + w 2 (u 2 v − 〈u|ve2 〉) + w 3 (u 3 v − 〈u|ve3 〉)
= (w 1 u 1 + w 2 u 2 + w 3 u 3 )v − 〈u|v 〉(w 1 e1 + w 2 e2 + w 3 e3 )
= 〈u|w 〉v − 〈u|v 〉w .
(u × v ) × w = −w × (u × v )
= −(〈w |v 〉u − 〈w |u〉v )
= 〈w |u〉v − 〈w |v 〉u.
ku × v k2 = kuk2 kv k2 − 〈u|v 〉2 .
ku × v k = kuk kv k sen θ.
2. Sean u = (u 1 , u 2 , u 3 )t , v = (v 1 , v 2 , v 3 )t y w = (w 1 , w 2 , w 3 )t vectores
de R3 . El valor absoluto del determinante
u1 u2 u3
det v 1 v 2 v 3
w1 w2 w3
y tenemos el resultado.
Para el segundo enunciado, consideremos como base del paralelepípedo
el paralelogramo definido por v y w , cuya área es kv × w k. La altura h es la
¯ ¯
° ° ¯ 〈u|v × w 〉 ¯
h = °proy v ×w u = ¯
° ¯ ¯.
kv × w k ¯
¯ ¯
¯ 〈u|v × w 〉 ¯
V = área de la base · h = kv × w k ¯
¯ ¯ = |〈u|v × w 〉| .
kv × w k ¯
µ ¶ µ ¶ µ ¶
v2 v3 v1 v3 v1 v2
〈u|v × w 〉 = 〈u| det e − det e + det e 〉
w2 w3 1 w1 w3 2 w1 w2 3
µ ¶ µ ¶ µ ¶
v2 v3 v1 v3 v1 v2
= det u − det u + det u
w2 w3 1 w1 w3 2 w1 w2 3
u1 u2 u3
= det v 1 v 2 v 3 .
w1 w2 w3
4. Si consideramos la matriz
¡ ¢
T= h1 . . . h s
Análogamente para V ⊥ :
à ! à ! x1 = −x3 −2x4 ,
1 1 1 1 1 0 1 2
x4 ,
rref x2 =
−→ , ,
1 2 1 0 0 1 0 −1 x = x3 ,
3
x4 = x4 ,
−1 −2
0 1
⊥
V = 〈v3 = ,v = 〉.
1 4 0
0 1
Entonces
1
1
U ∩ V = (U ⊥ + V ⊥ )⊥ = 〈w1 =
〉.
1
1
8.10. Isometrías
Recordemos que las matrices unitarias U verifican que U ∗ = U −1 , que es
equivalente a decir que sus columnas o filas forman una base ortonormal de
Cn . En el caso real, U t = U −1 , y las llamamos ortogonales.
También presentamos un tipo especial de homomorfismo entre espacios
vectoriales con producto escalar.
Isometría
Sean (V, 〈·|·〉V ), (W, 〈·|·〉W ) espacios vectoriales de dimensión finita con
producto escalar. Una aplicación lineal f : V → W es una isometría si
para todo v1 , v2 ∈ V .
° f (v )°2 = 〈 f (v )| f (v )〉W = 〈v |v 〉V = kv k2 ,
° °
W V
es decir, conserva la
° norma.
° Recíprocamente, supongamos que f es una aplica-
ción lineal tal que f (v )°W = kv kV para todo v ∈ V . Como el producto escalar
°
se puede recuperar a partir de la norma (pág. 327), concluimos que f es una
isometría.
1. f es una isometría.
2. f es isomorfismo e isometría.
〈 f (vi )| f (v j )〉 = 〈vi |v j 〉 = δi j ,
Además,
à ! à !
n
X n
X
〈 f (u)| f (v )〉 = 〈 f ai vi | f b j vj 〉
i =1 j =1
n X
X n n
X
= ai b j 〈 f (vi )| f (v j )〉 = ai b i = 〈u|v 〉.
i =1 j =1 i =1
grupo, notado por O(n). Es claro que si A es una matriz ortogonal, entonces
1 = det(I ) = det(A A t ) = det(A)2 , de donde det(A) = ±1. El conjunto de matrices
ortogonales de orden n con determinante igual a 1 forma un grupo respecto
al producto, que notaremos por SO(n), y se denomina grupo especial ortogo-
nal. También es llamado el grupo de las rotaciones de Rn y veremos que está
asociado al conjunto de movimientos directos.
Es interesante una reformulación del teorema de condición equivalente de
isometría (pág. 369) cuando el espacio vectorial de partida y llegada coinciden.
1. f es isometría.
° °
2. Si v ∈ V , entonces kv k = ° f (v )°.
P RUEBA : Si f es isometría,
° °2
kv k2 = 〈v |v 〉 = 〈 f (v )| f (v )〉 = ° f (v )° ,
° °
de donde kv k = ° f (v )°, pues son números no negativos. Como la norma de-
fine al producto escalar, la igualdad de las normas implica que f es isometría.
Tenemos así la equivalencia entre las dos primeras condiciones.
Sea entonces B = {v1 , . . . , vn } una base ortonormal de V y llamemos A =
MB ( f ). Por el teorema de equivalencia de isometrías, el conjunto { f (v1 ), . . . , f (vn )}
es una base ortonormal de V , de donde
〈 f (vi )| f (v j )〉 = δi j , i , j = 1, . . ., n.
Por el teorema de expresión del producto escalar respecto de una base ortonor-
mal (pág. 338), se tiene que
Supongamos ahora que existe una base ortonormal B tal que la matriz de
f respecto de la base B es unitaria. Si llamamos A es esta matriz, entonces