Está en la página 1de 5

EXAMEN ESTADÍSTICA MULTIVARIANTE: CONVOCATORIA ABRIL 2013.

1) Definición de componentes principales. Enunciado y demostración del teorema que permite


su cálculo.

2) Demostrar que si dos vectores aleatorios X e Y tienen la misma matriz de covarianzas,


entonces el método de clasificación basado en la función lineal de Fisher es equivalente al método
de clasificación basado en la distancia de Mahalanobis.

3) Calcular las componentes principales de un vector aleatorio (X1 , . . . , Xk ) a partir de la matriz


de correlaciones sabiendo que Corr(Xi , Xj ) = ρ para todo i 6= j. Dar las informaciones contenidas
en cada componente y decir qué valores puede tomar el parámetro ρ. ¿Cuánto valdrá la saturación
de la primera variable con la primera componente?

4) Dados tres vectores aleatorios bidimensionales con medias (0, 1), (1, 1) y (2, 0) y con matrices
de covarianzas común:  
1 −1
V = ,
−1 2
se pide:
a) Calcular las funciones discriminantes lineales.
b) Clasificar a z = (1, −1) usando dichas funciones.
c) Representar gráficamente las regiones de clasificación para un punto cualquiera del plano
z = (x, y).
d) Calcular la función discriminante de Fisher y el criterio de clasificación para distinguir entre
los grupos 2 y 3. Clasificar a z = (1, −1) usando esa función suponiendo que está en el grupo 2 o el
3. ¿Cuál es la función de Fisher más sencilla y la correspondiente regla de clasificación en este caso?
SOLUCIONES
Las cuestiones 1-2 son preguntas de teoría.
3) Por la simetría en la matriz de covarianzas, probamos con el vector v = (1, . . . , 1)0 ,
    
1 ρ ... ρ 1 1 + (k − 1)ρ
 ρ 1 ... ρ   1  
   1 + (k − 1)ρ 
 ... ... ... ...  ...  = 
 ,
... 
ρ ρ ... 1 1 1 + (k − 1)ρ

luego v es vector propio y 1+(k−1)ρ valor propio. Los restantes vectores propios son perpendiculares
a v. Probamos con un vector w = (x1 , . . . , xk )0 verificando x1 + · · · + xk = 0 y obtenemos
        
1 ρ ... ρ x1 x1 + (x2 + · · · + xk )ρ (1 − ρ)x1 x1
 ρ 1 . . . ρ   x2   x2 + (x1 + x3 + . . . )ρ   (1 − ρ)x2 
      
 x2
 
 ... ... ... ...  ...  =  =  = (1−ρ)  . . .
 ,
... ... 
ρ ρ ... 1 xk xk + (x1 + · · · + xk−1 )ρ (1 − ρ)xk xk

es decir, w es vector propio con valor propio 1 − ρ con multiplicidad k − 1.


Como V es semidefinida positiva, se tiene que cumplir 1 + (k − 1)ρ ≥ 0 y 1 − ρ ≥ 0, es decir
−1/(k − 1) ≤ ρ ≤ 1.
Los valores propios son iguales sii ρ = 0. Luego se tienen tres casos:
i) Si 0 < ρ ≤ 1, el mayor valor propio es λ1 = 1 + (k − 1)ρ con lo que la primera componente es:
Z1 + · · · + Zk
Y1 = √
k
donde Zi es la estandarizada de Xi , Zi = (Xi − µi )/σi . Los restantes valores propios son iguales

λ2 = · · · = λk = 1 − ρ

por lo que existen infinitas soluciones para las restantes componentes. Una puede ser
Z1 − Z2
Y2 = √ ,
2
Z1 + Z2 − 2Z3
Y3 = √ ,
6
Z1 + Z2 + Z3 − 3Z4
Y4 = √ ,
12
...
y
Z1 + · · · + Zk−1 − (k − 1)Zk
Yk = √ .
k2 − k
Las informaciones son:
I1 = (1 + (k − 1)ρ)/k, I2 = I3 = (1 − ρ)/k.
La saturación de la primera variable con la primera componente en este caso valdrá
p 1 p
Corr(X1 , Y1 ) = t1,1 λ1 = √ 1 + (k − 1)ρ.
k
ii) Si −1/2 ≤ ρ < 0, los k − 1 mayores valores propios son iguales

λ1 = · · · = λk−1 = 1 − ρ

2
por lo que hay infinitas soluciones para las dos primeras componentes. Una puede ser
Z1 − Z2
Y1 = √ ,
2
Z1 + Z2 − 2Z3
Y2 = √ ,
6
Z1 + Z2 + Z3 − 3Z4
Y3 = √ ,
12
...
y
Z1 + · · · + Zk−1 − (k − 1)Zk
Yk−1 = √ .
k2 − k
El restante valor propio es λk = 1 + (k − 1)ρ con lo que la última componente es:
Z1 + · · · + Zk
Yk = √ .
k
Las informaciones son:

I1 = · · · = Ik−1 = (1 − ρ)/k, Ik = (1 + (k − 1)ρ)/k.

La saturación de la primera variable con la primera componente en este caso valdrá


p 1 p
Corr(X1 , Y1 ) = t1,1 λ1 = √ 1 − ρ.
2
iii) Si ρ = 0, los k valores propios son todos iguales

λ1 = · · · = λk = 1

por lo que hay infinitas soluciones para las componentes. Una puede ser

Yi = Zi , i = 1, . . . , k.

Las informaciones son iguales:


I1 = · · · = Ik = 1/k.
La saturación de la primera variable con la primera componente en este caso valdrá 1.
4) Las matriz inversa es:
 −1  
1 −1 2 1
=
−1 2 1 1

a) Funciones discriminantes
     
 2 1 x 1  2 1 0 1
L1 (x, y) = 0 1 − 0 1 =x+y−
1 1 y 2 1 1 1 2

     
 2 1 x 1  2 1 1 5
L2 (x, y) = 1 1 − 1 1 = 3x + 2y −
1 1 y 2 1 1 1 2

     
 2 1 x 1  2 1 2
L3 (x, y) = 2 0 − 2 0 = 4x + 2y − 4
1 1 y 2 1 1 0

3
b) Clasificación de z = (1, −1):

L1 (1, −1) = −0.5

L2 (1, −1) = −1.5

L3 (1, −1) = −2
Luego se clasifica en la población primera (máxima Li ).
c) Regiones de clasificación:
Para distinguir entre 1 y 2 hacemos:
1 5
x+y− = 3x + 2y − ,
2 2
lo que da y = −2x + 2 (negra).
Para distinguir entre 1 y 3 hacemos:
1
x+y− = 4x + 2y − 4,
2
lo que da y = −3x + 72 (azul).
Para distinguir entre 2 y 3 hacemos:
5
3x + 2y − = 4x + 2y − 4,
2
lo que da x = 32 .
El punto de corte de las tres rectas es (3/2, −3/2).
La gráfica con las regiones de clasificación puede verse en la Figura 1 (gris 1, verde 2, amarilla
3).
d) La función de Fisher canónica se obtiene haciendo:
5 3
3x + 2y − − (4x + 2y − 4) = −x +
2 2
con lo que L(x, y) = −x y K = −3/2. De esta forma, como L(1, −1) = −1 > K = −3/2, z se
clasifica en 2.
Otra función de Fisher puede ser L∗ (x, y) = x con la que

K ∗ = (L∗ (1, 1) + L∗ (2, 0))/2 = 3/2.

De esta forma, como L∗ (1, −1) = 1 < K ∗ = 3/2, z se clasifica en 2 (igual que antes).

4
Figura 1: Regiones de clasificación (gris 1, verde 2, amarilla 3).

También podría gustarte