Está en la página 1de 10

m mm

m m
m

?V
  m
Dada una variable estadística n-dimensional (X1,X2 ,X3,...,Xn), llamaremos vector
de medias al vector columna formado por las medias de las distribuciones
marginales de cada variable por separado.

 
 ½
 ½
  ½
333
 ½
 ½
 g
„u expresión a partir de la matriz de datos es:
 
 
g
scribiendo la matriz X en términos de sus vectores fila, que son vectores de
dimensión 1xp que contienen los valores de las p variables en cada elemento de
la muestra, estos vectores son las columnas de X·, y se tiene que:



 Ñ ‰
g
g 

?m  Vm mm
Vm mm

Varianza: es la medida de la suma de los cuadrados de las desviaciones de una


variable con respecto a su media. Por tanto cuanto mayor sea esta medida,
menos representativa de la realidad será la media de dicha variable.

Covarianza: se mide como el valor que se espera de los productos de las


desviaciones de dos variables aleatorias respecto a sus correspondientes medias.

Cuando la distribución multidimensional estudiada tiene una dimensión superior a


2 es posible definir indicadores (basados en los momentos) que consideren a la
totalidad de las variables, en la práctica basta con analizar la totalidad de las
variables por parejas para poder contar con toda la información indispensable
para manejarse adecuadamente con una distribución multidimensional.
Dada una distribución de frecuencias multidimensional nos interesará, por un lado
conservar los indicadores univariantes de cada distribución marginal (medias,
varianzas, etc., de cada variable por separado) y considerar además algunos
indicadores (bivariantes), de cada pareja de variables posible.

s en este sentido que el indicador mas importante es la covarianza.

Propiedades:

1. La covarianza es el momento central de orden 1,1 de la distribución


bidimensional.
2. s invariante ante los cambios de origen en cualquiera de las dos variables.
3. „in embargo depende de los cambios de unidad. „i se cambia de unidad de
medida en ambas variables la covarianza se modifica proporcionalmente a
ambos cambios.
La covarianza entre dos variables (xj,xk) se calcula con:
 g
 â    ù  J â ù â J
g 
[ mide su dependencia lineal.
La matriz de varianza covarianza puede definirse como:
 g
    ù  J  ù  J
g 
s una matriz cuadrada y simétrica que contiene en la diagonal las varianzas y fuera
de la diagonal las covarianzas entre las variables. Al multiplicar los vectores:
  ù 
  ù J  ù J x ù Jx

 ‰ 

Ñ  ù 

 xù x  ‰ ‰


   J  ù J

x ù xJ 
 x ù x  x ù x
La matriz de varianza y covarianzas simétrica de orden p tiene la forma:

   333 g 
 ½
   333 333 ½
  333 333 ½
 333 333 ½
 ½
 g  g 333  g
‘nterpretación de la covarianza

„i  Œ Y hay dependencia directa, es decir, a grandes valores de x1




corresponden grandes valores de x2 .


„i  G Y una covarianza 0 se interpreta como la no existencia de una


relación lineal entre las dos variables estudiadas.


„i  § Y hay dependencia inversa o negativa, es decir, a grandes valores


de x1 corresponden pequeños valores de x2 .

Propiedades
1. La matriz de varianzas-covarianzas es simétrica respecto a su diagonal
principal.
2. La matriz de varianzas-covarianzas es definida positiva.
3. l determinante de la matriz de varianzas-covarianzas (también llamado
determinante de momentos) es siempre no negativo L mayor o igual a 0
4. n el caso bidimensional tendremos:
det V L „2 x1 „2 x2 - („x1x2 )2
Ejemplo
Las observaciones corresponden a distintas acciones que cotizan en el
mercado continuo español y las variables a tres medidas de rentabilidad de
estas acciones durante un período de tiempo.
Las variables son : X1 es la rentabilidad efectiva por dividendos, X2 es la
proporción de beneficios que va a dividendos y X3 el ratio entre precio por
acción y beneficios.
r    
×  × 
r     ×   ××
×    ×   ××
 ×    ×  
  ×× × ×  × 
   ××  ×  
     ×  
×    ×    ×
   ××  × × 
  ×   ×  
   ×  × × 
×   ×   ×   
××     × × ×
×   ×   × ×  ×
× ×  ×× ×   
×         
×   × ×  
×     ×