Está en la página 1de 27

w

w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
Tema 4
Producto escalar
En bachiller habeis visto los conceptos de producto escalar, longitud, distancia y per-
pendicularidad en R
2
y R
3
. En este tema del curso se generalizan estos conceptos a R
n
,
junto sus propiedades.
Las secciones de las que consta el tema son:
Seccion 4.1: Producto escalar en R
n
.
Seccion 4.2: Metodo de Gram-Schmidt
Seccion 4.3: Proyeccion ortogonal.
Seccion 4.4: Isometras.
Seccion 4.5: Transformaciones del plano y del espacio.
Seccion 4.6: Problema de mnimos cuadrados y aplicaciones.
4.1. Producto escalar en R
n
A continuacion generalizamos la nocion de producto escalar.
Denicion 4.1.1. Sean v = (a
1
, . . . , a
n
), w = (b
1
, . . . , b
n
) dos vectores de R
n
, llamaremos
producto escalar (usual) de v y w al n umero real:
v w = a
1
b
1
+ ... + a
n
b
n
Si veis los vectores como matrices la, daros cuenta de la siguiente igualdad:
v w
..
notacion vectorial
= a
1
b
1
+ ... + a
n
b
n
= (a
1
, a
2
, ..., a
n
)
_
_
_
_
b
1
b
2
...
b
n
_
_
_
_
= v w
t
. .
notacion matricial
.
29
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
30 TEMA 4. PRODUCTO ESCALAR
Por tanto las propiedades del producto escalar son semejantes a las del producto de
matrices con una diferencia: el producto escalar s es conmutativo.
Propiedades Se verica
1. v.u = u.v
2. v.(u + w) = v.u + v.w
3. (r v).u = r (v.u) con r R.
De igual manera se generaliza la nocion de modulo de un vector.
Denicion 4.1.2. Se llama longitud (modulo o norma) del vector v = (a
1
, ..., a
n
) R
n
a v =

v v =
_
a
2
1
+ ... + a
2
n
Propiedades Se verica
1. v 0
2. v = 0 v = 0
3. r v = |r| v con r R.
Una vez que hemos denido la longitud de un vector, la distancia entre dos vectores
u y v viene denida por la longitud de vector de su resta,
dist(u, v) = u v.
Observad que si u y v pertenecen a la misma recta, la longitud u v no es mas que la
distancia normal (uni dimensional) que hay entre ellos.
4.1.1. Pitagoras y angulos
En esta seccion vamos a presentar propiedades que quiza no hayais visto en bachille-
rato.
Empecemos por la desigualdad de CauchySchwarz: sean u y w dos vectores de R
n
,
entonces
|u w| u w
Existe una demostracion geometrica que veremos mas adelante. Sin embargo, podemos
llegar al resultado simplemente haciendo cuentas.
Supongamos que n = 2, u = (a, b) y w = (x, y). Entonces
u
2
w
2
u w
2
= (a
2
+ b
2
)(x
2
+ y
2
) (ax + by)
2
= (ay bx)
2
0,
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.1. PRODUCTO ESCALAR EN R
N
31
teniendo la desigualdad.
Si n es un n umero cualquiera, u = (a
1
, . . . , a
n
) y w = (x
1
, . . . , x
n
). Entonces
u
2
w
2
u w
2
=

1i<jn
(a
i
x
j
a
j
x
i
)
2
0,
Cuando tendremos |u w| = u w ?
Observad que por la desigualdad de Cauchy-Schwarz,
u w
u w
toma valores entre -1
y 1.
Denicion 4.1.3. Se llama angulo formado por dos vectores u y w de R
n
al angulo
[0, ] tal que cos =
uw
uw
.
Ademas, la desigualdad de CauchySchwarz nos lleva a la desigualdad triangular:
u + w u +w
La demostracion es realmente sencilla:
u + w
2
= u
2
+w
2
+2 u.w
CauchySchwarz
..
u
2
+w
2
+2 u w|| = (u +w)
2
.
Si estudiais esta demostracion, dareis con el Teorema de Pitagoras para R
n
:
u + w
2
= u
2
+w
2
u.w = 0
4.1.2. Vectores ortogonales y ortonormales
Probablemente el Teorema de Pitagoras os haya recordado la denicion de vectores
ortogonales.
Denicion 4.1.4. Dos vectores no nulos v, w R
n
se dice que son ortogonales si vw = 0
Con lo cual, v, w son ortogonales si y solamente si v + w
2
= v
2
+w
2
,
Denicion 4.1.5. 1. Un conjunto de vectores no nulos se dice ortogonal si los vectores
que lo componen son ortogonales dos a dos.
2. Un vector v se dice unitario si v = 1.
3. Un conjunto de vectores unitarios que sea ortogonal se dice que es ortonormal
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
32 TEMA 4. PRODUCTO ESCALAR
El siguiente resultado os explica una de las razones del porque en R
3
, a la hora de
elegir una base, es aconsejable elegir vectores ortogonales de antemano.
Proposici on 4.1.1. Si {v
1
, . . . , v
n
} son ortogonales entonces son linealmente independi-
entes.
Demostracion. Como son ortogonales, son no nulos. Supongamos que uno de ellos fuera
combinacion lineal de los demas, por ejemplo
v
n
= t
1
v
1
+....+ t
n
v
n1
Entonces, si multiplicamos por v
n
tendramos que
v
n
v
n
= t
1
v
1
v
n
+ ... + t
n1
v
n1
v
n
Pero, como son ortogonales, v
1
v
n
= 0, ...., v
n1
v
n
= 0. Por lo tanto:
v
n

2
= v
n
v
n
= t
1
v
1
v
n
+ ... + t
n1
v
n1
v
n
= 0 + .... + 0 = 0
Luego v
n
= 0, lo que no es posible porque v
n
era no nulo.
Denicion 4.1.6. Una base ortogonal {v
1
, .., v
n
} (resp. ortonormal) es un conjunto de
vectores que es base y ortogonal (resp. ortonormal)
Si tenemos una base ortogonal B, y un vector v, entonces automaticamente tenemos
las coordenadas de v respecto B. Si v = t
1
v
1
+ ... + t
n
v
n1
= (t
1
, . . . , t
n
)
B
, entonces
v.v
i
= t
i
v
i
.v
i
t
i
=
v.v
i
v
i
.v
i
(4.1)
Si la base B es ortonormal, entonces la coordenada iesima viene dada por t
i
= v.v
i
.
Sin duda, el ejemplo mas sencillo de base ortonormal es la base canonica.
4.2. Metodo de GramSchmidt
Suponed que teneis un conjunto linealmente independiente de vectores de R
n
, {v
1
, ..., v
m
}
y quereis trabajar en el espacio que genera. Entonces lo mejor es conseguir un conjunto
ortonormal {w
1
, ..., w
m
} de modo que v
1
, .., v
m
= w
1
, .., w
m
. El metodo que hay que
seguir se denomina Metodo de GramSchmidt y consiste en los siguientes dos pasos.
Paso 1 Calculo u
1
, . . . , u
m
ortogonales, tal que v
1
, .., v
m
= u
1
, .., u
m
:
u
1
= v
1
,
u
2
= v
2
+
1
u
1
, con la condicion u
1
u
2
= 0. Entonces =
v
2
u
1
u
1

2
.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.3. PROYECCI

ON ORTOGONAL 33
u
3
= v
3
+
1
u
1
+
2
u
2
con la condicion u
1
u
3
= u
2
u
3
= 0. Entonces
1
=
v
3
u
1
u
1

2
,
2
=
v
3
u
2
u
1

2
....................................
u
k
= v
k
+
1
u
1
+
2
u
2
+.... +
k1
u
k1
, donde los
i
se eligen de forma que u
i
u
k
= 0.
Por lo tanto,
i
=
v
k
u
i
u
i

2
.....................................
Paso 2 Normalizar cada u
i
: w
i
=
u
i
u
i

.
Por que v
1
, .., v
m
= w
1
, .., w
m
?
Si el conjunto de partida ya es ortonormal y aplicais GramSchmidt, vais a obtener
los mismos vectores. Por que?
Es importante darse cuenta de que si B = {w
1
, . . . , w
n
} es una base ortonormal,
por un lado,
P
BC
=
_
_
_
_
.
.
.
.
.
.
.
.
.
w
1
.
.
. w
n
.
.
.
.
.
.
.
.
.
_
_
_
_
Por otro,
_
_
w
1


w
n

_
_
_
_
_
_
.
.
.
.
.
.
.
.
.
w
1
.
.
. w
n
.
.
.
.
.
.
.
.
.
_
_
_
_
= I
n
Entonces P
CB
= P
1
BC
= P
t
BC
. Es decir, la inversa de P
BC
es su traspuesta. Las matrices
que cumplen esta propiedad se denominan matrices ortogonales. Mas adelante veremos la
utilidad de estas matrices.
Una vez llegado a este punto, os recomendamos leer (o volver a leer) la construcci on
de la or descrita en el documento Introduccion del Tema 4.
4.3. Proyeccion ortogonal
Denicion 4.3.1. Sea = W un subespacio de R
n
. Se llama complemento ortogonal de
W a los vectores perpendiculares a W, es decir,
W

= {v R
n
/v w = 0, w W}
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
34 TEMA 4. PRODUCTO ESCALAR
Comprueba que W W

= 0.
Como el conjunto W

es un subespacio de R
n
, tendra su base y dimension. Dada una
base de W, tenemos de forma inmediata el subespacio W

denido en implcitas:
W = w
1
, . . . , w
k
W

=
_

_
(x
1
, . . . , x
n
) tal que
w
1
(x
1
, . . . , x
n
) = 0
.
.
.
w
k
(x
1
, . . . , x
n
) = 0
_

_
_

_
Con lo cual, ya sabemos calcular el complemento ortogonal.
Ejemplo 4.3.1. Consideremos el plano en R
2
del Ejemplo 1.2.6, W = (1, 2, 1), (2, 3, 1).
Su complemento ortogonal vendra dado por:
W

=
_
(x, y, z)|
(1, 2, 1) (x, y, z) = 0
(2, 3, 1) (x, y, z) = 0
__
=
_
(x, y, z)|
x + 2y z = 0
2x + 3y + z = 0
__
,
que es la recta denida por el vector director (5, 3, 1). En la siguiente gura aparece
dibujado dicho vector en rojo y el plano en azul.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.3. PROYECCI

ON ORTOGONAL 35
Centremonos ahora en su signicado. Primero calculamos una base ortogonal de W
aplicando Gram-Schmidt. A continuacion, la ampliamos a una base de R
n
. Finalmente
esta base la hacemos tambien ortogonal y la denotamos B = {v
1
, . . . , v
t
, v
t+1
, . . . , v
n
}.
Entonces,
{v
1
, . . . , v
t
} : base de W, {v
t+1
, . . . , v
n
} : base de W

. {v
1
, . . . , v
t
, v
t+1
, . . . , v
n
} : base de R
n
Esto quiere decir que W y W

se complementan, y por ello W

se denomina complemento
ortogonal. En otras palabras,
W W

= R
n
.
As cualquier vector v de R
n
, v = (t
1
, . . . , t
n
)
B
se descompone en dos, un vector de W y
otro vector perpendicular a W:
v = w
1
+ w
2
, w
1
W, w
2
W

,
w
1
= t
1
v
1
+ . . . + t
k
v
k
, w
2
= t
k+1
v
k+1
+ . . . + t
n
v
n
.
Denicion 4.3.2. Al vector w
1
= t
1
v
1
+ . . . + t
k
v
k
se denomina proyeccion ortogonal de
v sobre W. La denotaremos por proy
W
v.
Daros cuenta entonces de que:
1. v = w
1
+ w
2
= proy
W
v + proy
W
v.
2. Para todo v W, proy
W
v = v.
3. Para todo v W

, proy
W
v = 0.
Como consecuencia de lo visto hasta ahora, obtenemos el siguiente resultado.
Corolario 4.3.1. Si {u
1
, . . . , u
k
} es una base ortonormal de W entonces:
1. Notacion vectorial de proy
W
v:
proy
W
v = (v u
1
)u
1
+ . . . + (v u
k
)u
k
, v R
n
2. Notacion matricial de proy
W
v:
Sea U =
_
_
_
_
.
.
.
.
.
.
.
.
.
u
1
.
.
. u
k
.
.
.
.
.
.
.
.
.
_
_
_
_
, entonces proy
W
v = U U
t
v.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
36 TEMA 4. PRODUCTO ESCALAR
Demostracion. El primer punto es consecuencia de la ecuacion (4.1). El segundo punto es
consecuencia del desarrollo matricial del primero,
proy
W
v = (v u
1
)u
1
+ . . . + (v u
k
)u
k
= U
_
_
_
v u
1
.
.
.
v u
k
_
_
_
= U U
t
_
_
_
.
.
.
v
.
.
.
_
_
_
.
Por ultimo:
Proposici on 4.3.1. El vector w
1
es el vector de W m as cercano a v, en el sentido de
que es el que hace mnima la distancia v w, con w W .
Demostracion. Es una consecuencia directa del Teorema de Pitagoras.
Ademas, como w
1
y w
2
son perpendiculares, v
2
= w
1

2
+ w
2

2
, en particular
v
2
w
1

2
, por lo que v w
1
. Es decir, la longitud de un vector siempre es mayor
o igual que la de su proyeccion ortogonal sobre cualquier subespacio.
Ejemplo 4.3.2. Retomemos el Ejemplo 4.3.1. En R
3
, tenemos el plano W = (1, 2, 1),
junto su complemento ortogonal (una recta), W

=< (5, 3, 1) >. Dado v = (4, 2, 2),


calculemos proy
W
v y proy
W
v tal que v = proy
W
v + proy
W
v.
Los pasos son los siguientes:
1. Calcular una base ortonormal de W por el proceso de GramSchmidt. Denotemos
dicha base por B = {w
1
, w
2
}.
2. proy
W
v = U U
t
v, donde U es la matriz que tiene por columnas la base B.
3. proy
W
v = v proy
W
v.
Desarrollemos cada punto:
1. Base ortonormal de W por el proceso de GramSchmidt.
Siguiendo la notacion de la Seccion 4.2, hallemos primero una base ortogonal:
u
1
= (1, 2, 1), u
2
= (2, 3, 1)
7
6
(1, 2, 1) =
_
5
6
,
2
3
,
13
6
_
A continuacion, la ortonormalizamos obteniendo:
w
1
=
_
1

6
,
2

6
,
1

6
_
, w
2
=
_
5

210
,
4

210
,
13

210
_
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.3. PROYECCI

ON ORTOGONAL 37
2. proy
W
v = U U
t
v: La matriz U viene dada por
_
_
_
_
1

6
5

210
2

6
4

210
1

6
13

210
_
_
_
_
=
..
racionalizamos
_
_
_
_
1
6

6
1
42

210
1
3

6
2
105

210
1
6

6
13
210

210
_
_
_
_
.
Entonces,
proy
W
v = U U
t
v =
_
_
_
_
2
7
3
7
1
7
3
7
26
35

3
35
1
7

3
35
34
35
_
_
_
_
_
_
_
_
4
2
2
_
_
_
_
=
_
_
_
_
0
2
5
6
5
_
_
_
_
3. proy
W
v = v proy
W
v = (4, 2, 2) (0,
2
5
,
6
5
) = (4,
12
5
,
4
5
).
La siguiente gura muestra la descomposicion de v en dos vectores, uno en el plano W y
otro en W

. El plano esta dibujado W en azul, su ortogonal en rojo, el vector v en verde


y sus proyecciones en naranja.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
38 TEMA 4. PRODUCTO ESCALAR
Una vez llegado a este punto, os recomendamos leer (o volver a leer) la seccion Ilu-
minacion de objetosdel documento Introduccion del Tema 4.
4.4. Isometras
Si una aplicacion lineal no modica las longitudes, podemos imaginar como son las
imagenes de ciertos objetos. A estas aplicaciones se denominan isometras.
Denicion 4.4.1. Una aplicacion lineal f : R
n
R
m
es una isometra si conserva el
producto escalar, es decir, si u, v R
n
se verica que u v = f(u) f(v).
Otras deniciones de isometra son:
Aplicacion que conserva longitudes, es decir, u = f(u).
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.5. TRANSFORMACIONES GEOM

ETRICAS EN R
2
Y R
3
39
Aplicacion donde la imagen de la base canonica sigue siendo un conjunto ortonormal.
Como consecuencia del punto anterior, aplicacion denida por una matriz A =
M
CC
(f) ortogonal. Es decir, A
t
A = I
n
.
Es importante retener los siguientes puntos:
1. Una aplicacion lineal ortogonal es inyectiva. Si f(v) = 0 f(v) = 0 = v
v = 0 ker(f) = 0.
2. No tiene que ser biyectiva. Si n = m, s es biyectiva; si n < m, no es biyectiva.
3. En particular, un cambio de base entre dos bases ortonormales es una aplicacion
ortogonal.
4.5. Transformaciones geometricas en R
2
y R
3
En esta seccion presentamos las principales transformaciones geometricas del plano y
del espacio
4.5.1. Transformaciones en el plano
Las transformaciones del plano se dividen en:
proyecciones ortogonales sobre una recta,
simetras respecto una recta,
giros alrededor del origen.
Para cada una de ellas vamos a ver como se construye su matriz asociada.
Proyeccion ortogonal sobre la recta de ecuacion ax +by = 0
Denotemos f
p
la aplicacion de proyeccion ortogonal sobre la recta r : ax +by = 0, tal
que f
p
(v) = proy
r
v. Consideremos la base de R
2
formada por el vector director de la recta
(b, a) y el vector perpendicular a la recta (a, b). Normalizando, obtenemos la siguiente
base de R
2
.
B =
_
v
1
=
_
b

a
2
+ b
2
,
a

a
2
+ b
2
_
, v
2
=
_
a

a
2
+ b
2
,
b

a
2
+ b
2
__
Como f
p
(v
1
) = v
1
y f
p
(v
2
) = (0, 0), la matriz de f asociada a la base B viene dada por
M
BB
(f
p
) =
_
1 0
0 0
_
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
40 TEMA 4. PRODUCTO ESCALAR
Ahora, aplicando la teora matricial sobre los cambios de base, tenemos que
M
CC
(f
p
) = P
BC
M
BB
(f
p
) P
CB
,
donde
P
BC
=
_
b

a
2
+b
2
a

a
2
+b
2
a

a
2
+b
2
b

a
2
+b
2
_
, P
CB
= P
1
BC
= P
t
BC
=
_
b

a
2
+b
2
a

a
2
+b
2
a

a
2
+b
2
b

a
2
+b
2
_
As
M
CC
(f
p
) =
_
b

a
2
+b
2
a

a
2
+b
2
a

a
2
+b
2
b

a
2
+b
2
_
_
1 0
0 0
_
_
b

a
2
+b
2
a

a
2
+b
2
a

a
2
+b
2
b

a
2
+b
2
_
==
_
b
2
a
2
+b
2
ab
a
2
+b
2
ab
a
2
+b
2
a
2
a
2
+b
2
_
(4.2)
Veamos que aplicando la metodologa de la Seccion 4.3, obtenemos la misma matriz. Sea
U la matriz formad por la base ortonormal de la recta,
U =
_
b

a
2
+b
2
a

a
2
+b
2
_
,
entonces proy
r
v = U U
t
v. Vericad que la matriz U U
t
es exactamente la matriz (4.2).
Observad que los vectores de la recta dada < (b, a) > permanecen jos, es decir, para
v < (b, a) >, f(v) = v. En cambio, esta aplicacion no es una isometra. Por ejemplo,
(a, b) = (0, 0), f
p
(a, b) = (0, 0) y f(a, b) = 0. De hecho, la imagen de la proyeccion sobre
la recta es la propia recta y no todo R
2
.
Simetra respecto a la recta de ecuacion ax +by = 0
Denotemos por f
s
la aplicacion de simetra tal que f
s
(v) = 2f
p
(v) v. Utilizando esta
denicion de la aplicacion, la matriz que la dene sera 2M
CC
(f
p
) I. A un as, vamos a
seguir una razonamiento analogo al anterior para deducir la matriz.
Consideremos la base de R
2
formada por el vector director de la recta (b, a) y el
vector perpendicular a la recta (a, b). Normalizando obtenemos la base ortonormal del
plano
B =
_
v
1
=
_
b

a
2
+ b
2
,
a

a
2
+ b
2
_
, v
2
=
_
a

a
2
+ b
2
,
b

a
2
+ b
2
__
.
Entonces, f
s
(v
1
) = v
1
y f
s
(v
2
) = v
2
. Por lo tanto, la matriz de f asociada a la base B
viene dada por
M
BB
(f
s
) =
_
1 0
0 1
_
.
Ahora, aplicando la teora matricial sobre los cambios de base, tenemos que
M
CC
(f
s
) = P
BC
M
BB
(f
s
) P
CB
,
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.5. TRANSFORMACIONES GEOM

ETRICAS EN R
2
Y R
3
41
donde
P
BC
=
_
b

a
2
+b
2
a

a
2
+b
2
a

a
2
+b
2
b

a
2
+b
2
_
, P
CB
= P
1
BC
= P
t
BC
=
_
b

a
2
+b
2
a

a
2
+b
2
a

a
2
+b
2
b

a
2
+b
2
_
.
As
M
CC
(f
s
) =
_
b

a
2
+b
2
a

a
2
+b
2
a

a
2
+b
2
b

a
2
+b
2
_
_
1 0
0 1
_
_
b

a
2
+b
2
a

a
2
+b
2
a

a
2
+b
2
b

a
2
+b
2
_
=
_
b
2
a
2
a
2
+b
2
2ab
a
2
+b
2
2ab
a
2
+b
2
a
2
b
2
a
2
+b
2
_
(4.3)
Observad que los vectores de la recta dada < (b, a) > permanecen jos, es decir, para
v < (b, a) >, f(v) = v.
Si v / < (b, a) >, entonces f(v) = v, sabras decir por que?
Por otro lado, esta transformacion es una isometra porque no modica las longitudes.
Mas concretamente, v = f
s
(x).
Ejemplo 4.5.1. Veamos la simetra respecto la recta x = y. El metodo consta solo de dos
pasos:
1. Hallar una base ortonormal, denida por el vector normal de la recta y su perpen-
dicular.
2. Hacer la multiplicacion de la Igualdad (4.3).
Desarrollemos cada punto:
1. El vector director de la recta es (1, 1) y el de su complemento ortogonal (1, 1). Si
los normalizamos, obtenemos B = {(
1

2
,
1

2
), (
1

2
,
1

2
)}.
2.
M
CC
(f
s
) =
_
1

2
1

2
1

2
1

2
_
_
1 0
0 1
_
_
1

2
1

2
1

2
1

2
_
=
_
0 1
1 0
_
.
La matriz podramos haberla deducido directamente, pues es facil de observar que
f
s
(1, 0) = (0, 1) y f
s
(0, 1) = (1, 0). Observad que para hallar la imagen de un vector
tan solo hay que intercambiar sus coordenadas.
Gracamente, veamos como f
s
transforma la casa dibujada en la portada del libro de
G. Strang. Recordad que la casa vena denida por las coordenadas (6, 7), (6, 2),
(7, 1), (7, 1), (0, 8), (6, 7), (6, 2), (0, 2), (0, 7), (3, 7) y (3, 2),
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
42 TEMA 4. PRODUCTO ESCALAR
Entonces, para calcular su imagen, calculamos la imagenes de las coordenadas, las unimos
de nuevo y obtenemos la siguiente gura:
Giro alrededor del origen de angulo
Denotemos f
g
la aplicacion de giro alrededor del origen de un angulo dado tal que,
para v R
2
, f(v) es el vector que resulta de girar v un angulo de grados.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.5. TRANSFORMACIONES GEOM

ETRICAS EN R
2
Y R
3
43
La matriz de f
g
asociada a la base canonica vendra denida por las imagenes de (1, 0),
(0, 1).

Estas son las siguientes:
f
g
(1, 0) = (cos , sen), f
g
(0, 1) = (sen, cos )
Por lo tanto
M
CC
(f
g
) =
_
cos , sen
sen cos
_
Observad que el unico vector que permanece jo es el origen (0, 0). Ademas, esta aplicacion
es una isometra porque al girar no modicamos longitudes. Esto equivale a decir que
f
g
(0, 1) y f
g
(1, 0) permanecen siendo ortogonales y unitarios.
Ejemplo 4.5.2. Sea = 90 = 270. Entonces la matriz de giro es
M
CC
(f) =
_
cos 270, sen270
sen270 cos 270
_
=
_
0 1
1 0
_
.
Consideremos de nuevo la casa dibujada en la portada del libro de G. Strang. Entonces,
si le aplicamos el giro, queda de la siguiente manera:
Comparad, aunque sea solo por curiosidad, esta imagen con la imagen de la simetra
respecto la recta x = y.
Una vez vistos los giros, os recomendamos leer (o volver a leer) la construccion de los
petalos de la or descrita en el documento Introduccion del Tema 4.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
44 TEMA 4. PRODUCTO ESCALAR
4.5.2. Transformaciones en el espacio
De forma analoga, vamos a considerar en R
3
las siguientes transformaciones:
1. proyeccion ortogonal sobre un plano,
2. simetra respecto un plano,
3. proyeccion ortogonal sobre una recta,
4. simetra respecto una recta,
5. giro de angulo de una recta que pasa por el origen.
Para cada una de ellas vamos a ver c omo se construye su matriz asociada.
Proyeccion sobre un plano ax + by + cz = 0
Denotemos por f

P
la aplicacion de proyeccion ortogonal al plano : ax+by +cz = 0,
tal que para v R
3
, f

P
(v) = proy

v.
Consideremos ahora una base ortonormal del plano {v
1
, v
2
}, que calculamos partiendo
de una base del plano y aplicando Gram-Schmidt. A esta base le a nadimos el vector
unitario ortogonal al plano,
v
3
=
_
a

a
2
+b
2
+c
2
,
b

a
2
+b
2
+c
2
,
c

a
2
+b
2
+c
2
_
,
obteniendo una base B ortonormal de R
3
.
Fijaros que la ecuacion implcita de nos dice que su complemento ortogonal es la
recta

= (a, b, c).
Como f

P
(v
1
) = v
1
, f

P
(v
2
) = v
2
, f

P
(v
3
) = 0, la matriz de f

P
asociada a B viene dada
por
M
BB
(f

P
) =
_
_
1 0 0
0 1 0
0 0 0
_
_
Por consiguiente,
M
CC
(f

P
) = P
BC
M
BB
(f

P
)P
CB
, (4.4)
donde las columnas de P
BC
vienen denidas por los vectores de B y, debido a que B es
ortonormal, P
CB
= P
1
BC
= P
t
BC
.
Del mismo modo que ocurra en el plano, aplicando la metodologa de la Seccion 4.3,
obtenemos la misma matriz. Sea U la matriz formad por la base ortonormal del plano v
1
,
v
2
,
U =
_
_
_
.
.
.
.
.
.
v
1
v
2
.
.
.
.
.
.
_
_
_
,
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.5. TRANSFORMACIONES GEOM

ETRICAS EN R
2
Y R
3
45
entonces proy

v = U U
t
v. Vericad que la matriz U U
t
es exactamente la matriz (4.4).
Observad que los vectores del plano permanecen jos, es decir, para v , f(v) =
v. En cambio, esta aplicacion no es una isometra. Por ejemplo, (a, b, c) = (0, 0, 0),
f
P
(a, b, c) = (0, 0) y f
P
(a, b, c) = 0. De hecho, la imagen de la proyeccion sobre el
plano es el propio plano y no todo R
3
.
Simetra respecto a un plano ax + by + cz = 0
Denotemos por f

S
la aplicacion de simetra respecto al plano : ax +by +cz = 0, tal
que f

S
(v) = 2proy

(v) v. Utilizando esta denicion de la aplicacion, la matriz que la


dene sera 2M
CC
(f

P
) I. A un as, vamos a seguir una razonamiento analogo al anterior
para deducir la matriz.
Como antes, tomemos una base ortonormal del plano {v
1
, v
2
}, a nadimos el vector
unitario perpendicular al plano,
v
3
=
_
a

a
2
+b
2
+c
2
,
b

a
2
+b
2
+c
2
,
c

a
2
+b
2
+c
2
_
,
obteniendo una base B ortonormal de R
3
.
Como f

S
(v
1
) = v
1
, f

S
(v
2
) = v
2
, f

S
(v
3
) = v
3
, entonces
M
BB
(f

S
) =
_
_
1 0 0
0 1 0
0 0 1
_
_
.
As tenemos
M
CC
(f

S
) = P
BC
M
BB
(f

S
)P
CB
= P
BC
M
BB
(f

S
)P
t
BC
.
Observad que los vectores del plano son los unicos que permanecen jos, es decir, para
v , f

S
(v) = v. Por otro lado, esta transformacion es una isometra porque no modica
las longitudes. Mas concretamente, v = f

S
(x) para todo v.
Os habeis dado cuenta de que f

S
(v) = 2proy

(v) v = v 2proy

(v)?
Ejemplo 4.5.3. Consideremos el plano : x = y. Hallemos la matriz M
CC
(f

S
). Sigu-
iendo la metodologa descrita, pasos a dar en el problema son:
1. calcular base ortonormal del plano;
2. calcular vector unitario de su complemento ortonormal;
3. multiplicamos M
CC
(f

S
) = P
BC
M
BB
(f

S
)P
t
BC
.
Desarrollemos dichos pasos.
1. Una base ortonormal del plano viene dada por v
1
=
_
1

2
,
1

2
, 0
_
, v
2
= (0, 0, 1).
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
46 TEMA 4. PRODUCTO ESCALAR
2. El complemento ortonormal es la recta r = (1, 1, 0), por lo que v
3
=
_
1

2
,
1

2
, 0
_
.
3. As,
M
CC
(f

S
) =
_
_
1

2
0
1

2
1

2
0
1

2
0 1 0
_
_
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
1

2
0
1

2
1

2
0
1

2
0 1 0
_
_
t
=
_
_
0 1 0
1 0 0
0 0 1
_
_
.
Geometricamente, consideremos por ejemplo el cubo denido por los puntos (2, 3, 1),
(2, 4, 1), (2, 4, 2), (2, 3, 2), (1, 3, 2), (1, 4, 2), (1, 4, 1) y (1, 3, 1), el cubo rojo de la gura
que aparece a continuacion. Si hacemos su imagen por simetra, obtenemos el cubo verde.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.5. TRANSFORMACIONES GEOM

ETRICAS EN R
2
Y R
3
47
Proyeccion sobre una recta
Sea r = (a, b, c) una recta en el espacio y a la vez espacio vectorial (pasa por el
origen). Denotemos por f
r
P
la aplicacion de proyeccion ortogonal sobre la recta, tal que
para v R
3
, f
r
P
(v) = proy
r
v.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
48 TEMA 4. PRODUCTO ESCALAR
Tomemos el vector director unitario de la recta v
1
,
v
1
=
_
a

a
2
+ b
2
+ c
2
,
b

a
2
+ b
2
+ c
2
,
c

a
2
+ b
2
+ c
2
_
,
y lo completamos a una base B ortonormal de R
3
. Como f
r
P
(v
1
) = v
1
, f
r
P
(v
2
) = 0,
f
r
P
(v
3
) = 0, tenemos
M
BB
(f
r
P
) =
_
_
1 0 0
0 0 0
0 0 0
_
_
.
As, siguiendo el mismo razonamiento que en secciones anteriores,
M
CC
(f
r
P
) = P
BC
M
BB
(f
r
P
)P
CB
= P
BC
M
BB
(f
r
P
)P
t
BC
. (4.5)
Del mismo modo que ocurra en el plano, aplicando la metodologa de la Seccion 4.3,
obtenemos la misma matriz. Sea U la matriz formad por v
1
,
U =
_
_
_
a

a
2
+b
2
+c
2
b

a
2
+b
2
+c
2
c

a
2
+b
2
+c
2
_
_
_
,
entonces proy

v = U U
t
v. Vericad que la matriz U U
t
es exactamente la matriz (4.5).
Observad que los vectores de la recta r permanecen jos, es decir, para v r, f(v) =
v. En cambio, esta aplicacion no es una isometra. Por ejemplo, la imagen del plano
ax + by + cz = 0, complemento ortogonal de la recta, es 0.
Os habeis dado cuenta de que f
r
P
(v) = v proy
r
(v)?
Simetra respecto a una recta
Sea r = (a, b, c) una recta en el espacio y a la vez espacio vectorial (pasa por el origen).
Denotemos por f
r
S
la aplicacion de simetra respecto a r, tal que f
r
S
(v) = 2proy
r
(v) v.
Utilizando esta denicion de la aplicacion, la matriz que la dene sera 2M
CC
(f
P
) I.
A un as, vamos a seguir una razonamiento analogo al anterior para deducir la matriz.
Tomemos el vector unitario de la recta v
1
y lo completamos a una base B ortonormal de
R
3
.
Entonces, como f
r
S
(v
1
) = v
1
, f
r
S
(v
2
) = v
2
, f
r
S
(v
3
) = v
3
, tenemos
M
BB
(f
r
S
) =
_
_
1 0 0
0 1 0
0 0 1
_
_
As M
CC
(f
r
S
) = P
BC
M
BB
(f
r
S
)P
CB
= P
BC
M
BB
(f
r
S
)P
t
BC
.
Observad que los vectores de la recta son los unicos que permanecen jos. Por otro
lado, esta transformacion es una isometra porque no modica las longitudes. Mas conc-
retamente, v = f
r
S
(x) para todo v.
Os habeis dado cuenta de que f
r
S
(v) = 2proy
r
(v) v = v 2proy
r
(v)?
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.5. TRANSFORMACIONES GEOM

ETRICAS EN R
2
Y R
3
49
Giro de angulo alrededor de una recta que pasa por el origen
Sea r = (a, b, c) una recta en el espacio y a la vez espacio vectorial (pasa por el
origen). Denotemos por f
G
la aplicacion de giro respecto a r de angulo .
Para hallar la matriz que la dene, tomemos el vector unitario de la recta v
1
y lo
completamos a una base B ortonormal de R
3
.
Entonces, tenemos
f
G
(v
1
) = v
1
, f
G
(v
2
) = cos v
2
+ senv
3
, f
G
(v
3
) = senv
2
+ cos v
3
.
Por tanto
M
BB
(f
G
) =
_
_
1 0 0
0 cos sen
0 sen cos
_
_
Ahora, como en las transformaciones anteriores, M
CC
(f
G
) = P
BC
M
BB
(f
G
)P
CB
=
P
BC
M
BB
(f
G
)P
t
BC
.
4.5.3. Traslaciones
Una traslacion o desplazamiento de vector (a, b, c) tiene por ecuacion T(x, y, z) =
(x + a, y + b, z + c). Geometricamente equivale a sumar a cada vector del espacio el
vector (a, b, c). Dichas transformaciones no son lineales, pero permiten calcular algunas
transformaciones utiles en el plano y en el espacio
Por ejemplo, si queremos hacer una simetra respecto a el plano : ax + by + cz = d,
con d = 0 por lo que no pasa por el origen, ya no es valida la construccion descrita en
la seccion anterior. La idea consiste en trasladar el plano al origen, hacer la simetra y
volver al lugar del plano en el espacio. Se hace en tres pasos:
1. Trasladamos el plano al origen. Para ello calculamos un punto (a
0
, b
0
, c
0
) del plano
y tomamos como traslacion T
1
(x, y, z) = (x a
0
, y b
0
, z c
0
).
2. El plano trasladado es ahora ax+by+cz = 0. Calculamos ahora la simetra respecto
a este plano
3. Devolvemos el plano a su posicion mediante la traslacion inversa T
2
(x, y, z) = (x +
a
0
, y + b
0
, z + c
0
)
El mismo metodo se puede seguir para calcular cualquier tipo de simetras, proyec-
ciones o giros alrededor de puntos, rectas o planos que no pasen por el origen.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
50 TEMA 4. PRODUCTO ESCALAR
4.6. Aproximacion por mnimos cuadrados
Al principio de este curso, estudiar la resolucion de un sistema de ecuaciones lineales
como el que aparece a continuacion,
_

_
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
, (4.6)
equivala a saber si existe solucion, y si es as, calcularla. Basta aplicar Gauss a la matriz
ampliada (A| b) y aplicar el teorema de RoucheFrobenius.
Pero a estas alturas del curso, el problema lo podemos plantear de forma diferente:
Estudiar la resolucion de un sistema de ecuaciones lineales equivale a estudiar si el vector
independiente (b
1
, . . . , b
m
) pertenece al subespacio vectorial ImA.
Supongamos ahora que tenemos un sistema Ax = b incompatible. Cual sera el vector
de la forma Ax mas cercano a b? Esto nos dara una solucion aproximada del sistema.
La respuesta es facil: la proyeccion ortogonal del vector b al subespacio ImA. Fijaros que
si proy
ImA
b = y, entonces
existe un vector x tal que A x = y,
y b= A x b = mn
xR
n
Ax b.
Por lo tanto, lo visto en las secciones anteriores nos sirve para encontrar una solucion
aproximada del sistema que se denomina solucion por mnimos cuadrados.
Denicion 4.6.1. Sea A M
mn
(R), b R
m
. Una solucion por mnimos cuadrados del
sistema Ax = b es encontrar x R
n
que haga mnima la distancia Ax b
Si aplicamos la metodologa explicada anteriormente, podramos hallar una solucion
por mnimos cuadrados de un sistema incompatible siguiendo los siguientes pasos:
1. Calcula la proyeccion de b en el subespacio ImA. La denotamos y.
2. Resuelve al sistema de ecuaciones Ax = y.
Sin embargo, el siguiente resultado proporciona un metodo que conlleva menos calculo
que el anterior.
Proposici on 4.6.1. El conjunto de soluciones por mnimos cuadrados de Ax = b coincide
con el conjunto de soluciones del sistema A
t
Ax = A
t
b.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.6. APROXIMACI

ON POR M

INIMOS CUADRADOS 51
Demostracion. Decir que x es una solucion por mnimos cuadrados del sistema Ax = b,
equivale a decir que A x b es ortogonal ImA. Entonces:
(A x b) ImA (A x b) Ax = 0 x R
n

A
t
(A x b) x = 0 A
t
(A x b) = 0 A
t
A x = A
t
b.
A la hora de hacer problemas, tened en cuenta que:
1. El sistema A
t
Ax = A
t
b es siempre compatible.
2. La matriz A
t
A es cuadrada. Puede demostrarse que es invertible si y solo si las
columnas de A son independientes. En este caso hay algoritmos para calcular dicha
inversa de forma eciente. Quizas el mas conocido se basa en la descomposicion QR.
3. Se llama error de mnimos cuadrados a la distancia A x b, donde x es una solu-
cion en mnimos cuadrados del sistema.
4.6.1. Ajuste de curvas
La solucion por mnimos cuadrados tiene numerosas aplicaciones al ajuste de datos.
Recta de regresion
Suponed que tenemos n puntos disjuntos en el plano R
2
, (x
1
, y
1
), . . . , (x
n
, y
n
) y quer-
emos encontrar la recta y = cx + d que mejor se aproxime a esos puntos.
Este problema tiene solucion unica cuando todos los puntos pertenecen a la misma
recta, hecho que no suele ocurrir. Por tanto, se trata de encontrar la mejor solucion del
siguiente sistema:
cx
1
+ d = y
1
cx
2
+ d = y
2
........
cx
n
+ d = y
n
_

_
donde las incognitas son c y d. Si escribimos el sistema de forma matricial, tenemos:
_
_
_
_
x
1
1
x
2
1
... ...
x
n
1
_
_
_
_
_
c
d
_
=
_
_
_
_
y
1
y
2
...
y
n
_
_
_
_
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
52 TEMA 4. PRODUCTO ESCALAR
Observad si tenemos 3 puntos que no pertenecen a la misma recta, el rango de la matriz
de coecientes es 2 y el de la matriz ampliada es 3, por lo que el sistema es incompatible.
Entonces, aplicamos la proposicion 4.6.1 para encontrar la solucion por mnimos
cuadrados, resolviendo el sistema asociado
_
x
1
x
2
... x
n
1 1 ... 1
_
_
_
_
_
x
1
1
x
2
1
... ...
x
n
1
_
_
_
_
_
c
d
_
=
_
x
1
x
2
... x
n
1 1 ... 1
_
_
_
_
_
y
1
y
2
...
y
n
_
_
_
_
.
Observad la facilidad de calcular una solucion de este sistema, ya que consta de 2 ecua-
ciones con dos incognitas.
Ejemplo 4.6.1. Tenemos los puntos {(2, 1), (5, 2), (7, 3), (8, 3)} y vamos a calcular su
recta de regresion.
El sistema a resolver es el siguiente:
_
2 5 7 8
1 1 1 1
_
_
_
_
_
2 1
5 1
7 1
8 1
_
_
_
_
_
c
d
_
=
_
2 5 7 3
1 1 1 1
_
_
_
_
_
1
2
3
3
_
_
_
_
Una vez realizadas las operaciones,
_
142 22
22 4
__
c
d
_
=
_
57
9
_
La solucion es: c =
5
14
, d =
2
7
y la graca de la recta junto los puntos quedan reejados
en la siguiente gura.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.6. APROXIMACI

ON POR M

INIMOS CUADRADOS 53
4.6.2. Ajuste general de curvas
Una modicacion del metodo anterior sirve para ajustar datos a curvas que no sean
rectas, en el sentido de buscar la curva de una determinada familia que se ajuste mejor a
los puntos dados.
Supongamos, por ejemplo, que tenemos k funciones en x (polinomios) f
1
(x), . . . , f
k
(x),
y buscamos la mejor curva de la forma y = c
1
f
1
(x) + .... + c
k
f
k
(x) que se ajuste mejor a
los puntos dados del plano (x
1
, y
1
), . . . , (x
n
, y
n
).
As, nos encontramos con el problema de resolver el siguiente sistema lineal
c
1
f
1
(x
1
) + .... + c
k
f
k
(x
1
) = y
1
c
1
f
1
(x
1
) + .... + c
k
f
k
(x
1
) = y
1
....................
c
1
f
1
(x
1
) + .... + c
k
f
k
(x
1
) = y
1
_

_
,
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
54 TEMA 4. PRODUCTO ESCALAR
que tiene como las incognitas c
1
, . . . , c
k
. La expresion matricial de este sistema es:
_
_
_
_
f
1
(x
1
) f
2
(x
1
) ... f
k
(x
1
)
f
1
(x
2
) f
2
(x
2
) ... f
k
(x
2
)
... ... ... ...
f
1
(x
n
) f
2
(x
n
) ... f
k
(x
n
)
_
_
_
_
_
_
_
_
c
1
c
2
...
c
k
_
_
_
_
=
_
_
_
_
y
1
y
2
...
y
n
_
_
_
_
,
que en la mayora de los casos, habra que resolver por mnimos cuadrados. Por tanto, la
ecuacion auxiliar a resolver es
_
_
f
1
(x
1
) . . . f
1
(x
n
)
. . . . . . . . .
f
k
(x
1
) . . . f
k
(x
n
)
_
_
_
_
f
1
(x
1
) . . . f
k
(x
1
)
. . . . . . . . .
f
1
(x
n
) . . . f
k
(x
n
)
_
_
_
_
c
1
. . .
c
k
_
_
=
_
_
f
1
(x
1
) . . . f
1
(x
n
)
. . . . . . . . .
f
k
(x
1
) . . . f
k
(x
n
)
_
_
_
_
y
1
. . .
y
n
_
_
.
Ejemplo 4.6.2. Dados los puntos (1, 1), (2, 3), (3, 5), (4, 8), (5, 9), vamos a calcular la
mejor curva de la forma y = ax
2
+ bx que se aproxime a los puntos dados.
El sistema a resolver es:
_
1 4 9 16 25
1 2 3 4 5
_
_
_
_
_
_
_
1 1
4 2
9 3
16 4
25 5
_
_
_
_
_
_
_
a
b
_
=
_
1 4 9 16 25
1 2 3 4 5
_
_
_
_
_
_
_
1
3
5
8
9
_
_
_
_
_
_
.
Una vez realizadas las operaciones,
_
979 225
225 55
__
a
b
_
=
_
411
99
_
La solucion es: a =
33
322
, b =
2223
1610
y la graca de la curva junto los puntos quedan reejados
en la siguiente gura.
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
4.6. APROXIMACI

ON POR M

INIMOS CUADRADOS 55
Tras esta seccion, comprendereis mejor la seccion Mnimos Cuadradosdel documento
Introduccion del Tema 4.

También podría gustarte