Está en la página 1de 6
1 Producto interior. Longitud y ortogonalidad Ortogonalidad Definici´on 1 Sean u y v vectores de

1 Producto interior. Longitud y ortogonalidad

Ortogonalidad

Definici´on 1 Sean u y v vectores de R n . Se define el producto escalar (o producto interior) de u y v como

u · v = u T v

=

(u 1 , u 2 ,

Ejemplo 1 Calcular el producto escalar de u =

2

5

1

,

u n )

v

v

.

.

.

v

1

2

n

y v =

= u 1 v 1 + u 2 v 2 +

3

2

3

.

u n v n .

Dados u, v y w vectores de R n y λ un escalar, el producto escalar verifica las siguientes propiedades:

1.

u · v = v · u.

2. (u + v) · w = u · w + v · w.

3.

(λu) · v = λ(u · v) = u · (λv).

4. u · u 0 y u · u = 0 si y s´olo si u = 0.

Definici´on 2 Dado un vector u R n . Definimos su norma (o longitud) como el escalar no negativo

u = u T u = u · u = u 2 + u 2 2 + ··· + u

1

2

n

.

Ejercicio 2 Demostrar que para cualquier escalar c se tiene cu = |c| u .

Un vector cuya longitud es 1 se llama vector unitario. Para obtener un vector unitario u a partir de otro dado, v, basta dividir el vector v por su norma. Ambos vectores tienen la misma direcci´on, pero distinta longitud. Al proceso mediante el cual se obtiene u a partir de v se le conoce con el nombre de normalizaci´on.

Ejercicio 3 Sea v =

1

2

2

0

. Encontrar un vector unitario u en la misma direcci´on que v.

Ejercicio 4 Sea W el subespacio generado por x = ( 3 , 1) T . Encontrar un vector unitario z que sea una base de W .

2

Definici´on 3 Sean u, v R n . Se define la distancia entre los vectores u y v como la norma del vector u v,

dist(u, v) = u v = v u = dist(v, u).

Ejercicio 5 Calcular la distancia entre u =

7

2

y v =

3

2

.

Definici´on 4 Sean u, v R n . Diremos que u y v son ortogonales si u · v = 0.

1

Obs´ervese que el vector 0 es ortogonal a cualquier vector u, porque 0 · u = 0, siempre.

Definici´on 5 Dado un vector v y un subespacio W diremos que v es ortogonal a W si v · w = 0 para todo vector

w W.

Dos subespacios vectoriales V y W de un espacio vectorial se dicen ortogonales si v · w = 0 para todo vector v V y

w W . En este caso, diremos que V es el complemento ortogonal de W y lo denotamos por V = W (y W es tambi´en

el complemento ortogonal de V ). Dicho de otra forma: el complemento ortogonal de W es el conjunto de todos los

vectores v que son perpendiculares a W ,

W = {v R n : v · w = 0,

para todo w W }.

Observaci´on.

Obs´ervese que para comprobar si un vector v pertenece al complemento ortogonal

de un espacio dado W , basta con comprobar si v es ortogonal a un conjunto que genere W .

Ejemplo 6 Hay cuatro subespacios importantes N (A), C(A), F (A), N (A T ). ¿Cu´ales son ortogonales?

, f n } (visto como vectores columna).

Para demostrar que los subespacios son ortogonales, basta con ver que dado x N (A), entonces x es ortogonal a cada una de las filas. Pero como x N (A), por definici´on

El espacio F (A) es por definici´on el generado por las filas de A, F (A) = Gen{f 1 , f 2 ,

Ax =

.

.

.

f n T

f 1 T f 2 T

x = 0,

¡Cuidado con la notaci´on!

y por tanto

f 1 T x = 0,

.

.

.

,

f n T x = 0.

An´alogamente, para demostrar que C(A) = Gen{a 1 , a 2 ,

, a m } es el complemento ortogonal de N (A T ) comprobamos que

un vector y N (A T ) arbitrario es ortogonal a todas las columnas de A: Si y N (A T ), entonces

y por tanto

A T y =

a 1 T

a 2 T

.

.

.

a m T

y = 0,

a 1 T y = 0,

.

.

.

,

¡Cuidado con la notaci´on!

a m T y = 0.

Sea A una matriz m × n. El complemento ortogonal del espacio fila de A es el

espacio nulo de A y el complemento ortogonal del espacio columna de A es el espacio nulo de A T :

Importante.

(F (A)) = N (A),

(C(A)) = N(A T ).

2 Proyecciones ortogonales

¿Cu´al es la sombra que proyecta el vector b = (2, 3, 4) T sobre el plano xy? ¿Y sobre el eje z? ¿C´omo podemos calcular la proyecci´on de un vector sobre un subespacio arbitrario?

Idea.

Dado v R n y W un subespacio de R n , queremos descomponer v

como suma de dos vectores

v = p W + e,

tal que p W W y e W .

2

Ejemplo 7 Proyectar un vector v sobre un subespacio vectorial de dimensi´on 1 (una recta):

Sea a el vector director de la recta. Buscamos λ y p W tal que

p W = λa

Sabemos que si v = p W + e, entonces

W = λ a Sabemos que si v = p W + e , entonces a

a · e = 0

= v − p W = v − λ a v p W = v λa

e

Juntando estas dos expresiones se obtiene:

0 = a · e = a · (v λa) = a · v λa · a

y por tanto

( v − λ a ) = a · v − λ a · a y

λ = a T v a

a

T

λ = a T v a a T y p W = a T v a

y p W = a T v

a T a a

Ejercicio 8 Calcular la proyecci´on del vector v = (1, 1, 1) T sobre la recta cuyo vector director es a = (1, 2, 2) T .

Si W es un subespacio vectorial generado por los vectores {a 1 , v sobre W usamos la misma idea que en dimensi´on 1. Buscamos

, a p } linealmente independientes para proyectar

p W = [a 1 |

|a p ] p×n x = Ax.

Utilizando que A T · e = 0 concluimos x tiene que ser soluci´on del sistema

p W = A(A T A) 1 A T v

.

A T v = A T Ax

y entonces la proyecci´on es

Ejercicio 9 Dados el vector v = (6, 0, 0) T y el subespacio W = {(1, 1, 1) T , (0, 1, 2) T }. Calcular la proyecci´on de v sobre W .

Importante.

Teorema de la descomposici´on ortogonal Sea W un subespacio de R n . Todo vector v ∈ R n se escribe W un subespacio de R n . Todo vector v R n se escribe de manera unica´ suma de dos vectores

v = p W + e,

tales que p W W y e W .

como

Distancia m´ınima p W es el elemento de W que m´as cerca est´a de v : p W es el elemento de W que m´as cerca est´a de v:

para todo b W.

p W v p W b ,

Ejercicio 10 Encontrar la distancia del vector v = (1, 5, 10) T al subespacio W generado por (5, 2, 1) T , (1, 2, 1) T .

3 Problemas de m´ınimos cuadrados

Idea. En muchos problemas pr´acticos Ax = b no tiene soluci´on. Hay demasiadas ecuaciones. Sin embargo necesitamos encontrar una “soluci´on”, de forma que Ax se parezca lo m´as posible a b.

Sea e = b Ax; como el sistema no tiene soluci´on e

= 0, y buscamos x tal que e sea lo m´as peque˜no posible.

Definici´on 6 Dada A una matriz m × n y b R n . Una soluci´on de m´ınimos cuadrados de Ax = b es y R n tal que

b Ay b Ax ,

3

para todo x R n .

¿C´omo calculamos la soluci´on de m´ınimos cuadrados?

Idea. A es rectangular y Ax = b no tiene soluci´on. Multiplicar ambos lados de la ecuaci´on por A T ,

A T Ax = A T b.

Es un nuevo sistema, que s´ı tiene soluci´on. La soluci´on de este sistema, es la soluci´on de m´ınimos cuadrados del problema original.

Ejemplo 11 Dados los puntos (0, 6), (1, 0) y (2, 0) encontrar la recta que est´e m´as cerca de los tres puntos.

Buscamos y = mx + n con inc´ognitas m y n. El sistema que tenemos que resolver se escribe en forma matricial como

1

1

1

0

1

2

|

|

|

6

0

0

Es f´acil ver que este sistema es incompatible.

Buscamos una soluci´on de m´ınimos cuadrados. Para ello calculamos

A T A =

1

0

y resolvemos el sistema

1

1

1

2

1

1

1

0

1

2

= 3

3

3

3

3

5

3

5

,

n

m

A T b =

6

0

.

1

0

1

1

1

2

6

0

0

=

6

0

La soluci´on de m´ınimos cuadrados es m = 3 y n = 5, luego la recta que mejor aproxima a los tres puntos es y = 3x + 5.

4 El proceso de ortogonalizaci´on de Gram-Schmidt

Un problema de m´ınimos cuadrados es m´as f´acil de resolver si A T A es diagonal.

Definici´on 7 Los vectores {q 1 ,

q n } son

ortogonales si q i · q j = 0, para i si q i · q j = 0, para i

= j.

ortonormales si son ortogonales y q i · q i = 1 para todo i . si son ortogonales y q i · q i = 1 para todo i.

Definici´on 8 Una matriz Q con columnas ortonormales entre s´ı se llama ortogonal

Propiedad. Si Q es cuadrada y ortogonal

Q T = Q 1

, q n } base de ese mismo espacio

cuyos elementos sean ortogonales (o incluso ortonormales). La ventaja que tiene el trabajar con bases ortonormales

es que, si bien el espacio generado por ambas bases el mismo, las cuentas se simplifican si utilizamos Q = [q 1 | (Recordar que Q T Q = I).

|q n ]

Dada una base {a 1 ,

, a n } de un subespacio, queremos encontrar otra {q 1 ,

Proceso de Gram-Schmidt. Dados n vectores linealmente independientes {a 1 ,

, a n } de

, w n } a partir de la

un subespacio vectorial, construimos una base ortogonal de vectores {w 1 ,

base original. La base ortonormal {q 1 ,

, q n } se obtiene dividiendo cada w i por su norma.

Paso i: Elegimos

w 1 = a 1 .
w 1 = a 1 .

4

Paso ii: El vector w 2 tiene que ser ortogonal a w 1 . Por el teorema de de descomposici´on ortogonal sabemos que

a 2 = p W + e,

donde p W es la proyecci´on de a 2 sobre el subespacio W y e W . Sea en este caso W = Gen{w 1 }. Entonces e y w 1 son ortogonales. Por tanto tomamos e = w 2 y as´ı

w 2 = a 2 p W = a 2

w 1 T a 2 w 1 T w 1

w 1 .

Paso iii: Usamos la misma idea que en el paso anterior. El vector w 3 tiene que ser ortogonal a w 1 y w 2 . De nuevo, por el teorema de de descomposici´on ortogonal sabemos que

a 3 = p W + e,

donde p W es la proyecci´on de a 2 sobre el subespacio W y e W . Definamos W = Gen{w 1 , w 2 }. Entonces e es ortogonal a w 1 y w 2 , (que a su vez son ortogonales entre s´ı). Tomamos e = w 3 y as´ı, como estamos proyectando sobre un espacio generado por un conjunto ortogonal {w 1 , w 2 } tenemos

w 3 = a 3 p W = a 3

w 1 T a 3 w 1 T w 1

w 1

w 2 T a 3 w 2 T w 2

w 2 .

.

.

.

Paso n: Para calcular w n proyectamos a n sobre el espacio generado por {w 1 , hemos hecho, son ortogonales entre s´ı. Entonces

w n1 }, que por la construcci´on que

w n = a n p W = a n

w 1 T a n

w 2 T a n

w n1 T a n

w 1 T w 1

w 2 T w 2

w n1 T w n1

w 1

w 2 − ··· −

w 1 − w 2 − ··· − w n − 1 .

w n1 .

De esta forma obtenemos una base ortogonal {w 1 ,

conseguir una base ortonormal basta con dividir cada uno de los vectores de la base ortogonal por su norma; es decir

w n }. Para

, w n } y tal que Gen{a 1 ,

,

a n } = Gen{w 1 ,

,

{q 1 ,

, q n } = w w 1 1 ,

 

w

n

n .

,

w

5 Diagonalizaci´on de matrices sim´etricas

Recordatorio.

es sim´etrica si A T = A . A T = A.

A

A

es diagonalizable si existen matrices D diagonal y P invertible tal que D diagonal y P invertible tal que

A = P DP 1

Si Q es cuadrada y ortogonal Q − 1 = Q T Q es cuadrada y ortogonal Q 1 = Q T

Ejemplo 12 La matriz

A =  

6

2

1

2

6

1

1

1

4

tiene por valores propios λ = 8, 6, 3 y por vectores propios

v 1 =  

1

1

0

,

v 2 =  

5

1

1

2

,

v 3 =  

1

1

1

.

que son ortogonales entre s´ı. Si v 1 , v 2 , v 3 son vectores propios

w 1 = v v 1 ,

1

w 2 = v v 2 2 ,

w 3 = v v 3 3 ,

tambi´en lo son y A se puede diagonalizar como

A = [w 1 |w 2 |w 3 ]D[w 1 |w 2 |w 3 ] 1 = [w 1 |w 2 |w 3 ]D[w 1 |w 2 |w 3 ] T .

¿Cu´ando se puede hacer este tipo de diagonalizaci´on (diagonalizaci´on ortogonal)?

Importante. Dada A sim´etrica. Entonces

A es siempre diagonalizable

A

es siempre diagonalizable

Vectores propios de espacios propios diferentes son siempre ortogonales

Vectores propios de espacios propios diferentes son siempre ortogonales

Los vectores propios se pueden escoger todos ortogonales entre s´ı (con el proceso de Gram-

Los vectores propios se pueden escoger todos ortogonales entre s´ı (con el proceso de Gram- Schmidt, cuando sea necesario)

Es m´as:

el proceso de Gram- Schmidt, cuando sea necesario) Es m´as: A es diagonalizable ortogonalmente ⇐⇒ A

A es diagonalizable ortogonalmente ⇐⇒ A es sim´etrica.

Ejercicio 13 Diagonalizar ortogonalmente la siguiente matriz

A =

5

4

2

4

5

2

6

2

2

2

.