Está en la página 1de 18

LECCIÓN 4.

DISTRIBUCIONES DE FRECUENCIAS Q-DIMENSIONALES

TEMA 4

DISTRIBUCIONES DE FRECUENCIAS
Q-DIMENSIONALES

4.1. INTRODUCCIÓN

4.2. DISTRIBUCIONES BIDIMENSIONALES:


TABULACIÓN

4.3. DISTRIBUCIONES MARGINALES Y


CONDICIONADAS

4.3.1. Distribuciones Marginales


4.3.2. Distribuciones Condicionadas
4.3.3. Independencia Estadística

4.4. DISTRIBUCIONES Q-DIMENSIONALES

4.5. MOMENTOS BIDIMENSIONALES.


INDEPENDENCIA Y COVARIACIÓN

4.5.1. Momentos Respecto Al Origen


4.5.2. Momentos Centrales O Respecto A La
Media
4.5.3 Relación Entre Los Momentos
4.5.4 Independencia Y Covariación

4.6. MOMENTOS Q-DIMENSIONALES. MATRIZ DE


COVARIANZAS

89
ESTADÍSTICA I

4.1.- INTRODUCCIÓN

En la lección anterior estudiamos las características más importantes de una


variable X considerada aisladamente. Pero para una población o muestra
determinada podemos estudiar simultáneamente dos o más caracteres
diferentes. Por ejemplo: sobre un grupo de empresas podemos observar sus
ingresos, X, y gastos, Y; una entidad bancaria puede observar los ingresos
anuales de sus clientes, X, y la cuantía de los créditos que solicitan, Y; sobre
un colectivo de empresas podemos observar el número de trabajadores, X,
los salarios anuales que perciben, Y, y las horas de trabajo, Z.

En el caso de dos caracteres, cada observación son un par de valores que


designaremos (x, y). Por ejemplo: para una empresa la observación de sus
ingresos y gastos puede ser 5 y 2 millones de euros respectivamente.

En el caso de Q caracteres, la observación la formarán Q valores (X1,


X2,...,XQ). Por ejemplo: una observación de los tres caracteres, número de
trabajadores (X), salarios anuales que perciben en miles de euros (Y) y las
horas diarias de trabajo (Z), estaría formada por la terna (5, 30, 8).

El objetivo de este análisis simultáneo de 2 o más caracteres es estudiar las


posibles relaciones entre ellos para detectar la posible existencia de algún
tipo de dependencia o covariación (variación conjunta). Así podremos
responder a cuestiones tales como: ¿Existe relación entre los valores del
carácter X y el carácter Y? ¿Cómo influyen conjuntamente los caracteres X e
Y sobre el carácter Z?

Por ejemplo: ¿existe alguna relación entre peso y estatura? ¿Las horas
trabajadas y el número de trabajadores influyen en los salarios anuales?

El estudio de la dependencia entre caracteres cuantitativos constituye el


contenido de la Teoría de la Regresión y Correlación, distinguiendo entre
Regresión y Correlación Simple (para dos caracteres X e Y) y Regresión y
Correlación Múltiple (para más de dos caracteres). En esta lección vamos a
estudiar cuestiones generales como: tabulación y representación gráfica,
distribuciones marginales y condicionadas, y momentos, tanto para el caso
bidimensional como para el caso Q-dimensional.

Pero antes, nos detendremos en el concepto estadístico de DEPENDENCIA.

Cuando existe una relación entre dos variables, ésta podrá ser más o menos
intensa, variando entre: ausencia total de relación (INDEPENDENCIA) y
relación perfecta (DEPENDENCIA FUNCIONAL). A cualquier situación
intermedia la llamaremos DEPENDENCIA ESTADÍSTICA. Ejemplo de
independencia completa: la que se da entre las variables X = "Cifra final del
CIF de las empresas" e Y = "Beneficio Neto de dichas empresas".

90
LECCIÓN 4. DISTRIBUCIONES DE FRECUENCIAS Q-DIMENSIONALES

Independencia Dependencia Dependencia


Estadística funcional

La dependencia funcional entre variables consiste en la existencia de una


aplicación estrictamente matemática entre ellas. Por ejemplo: X = "Fuerzas
aplicadas sobre k cuerpos" e Y = "Aceleraciones que adquieren los mismos",
ya que F = m*a donde la masa "m" es constante.

La dependencia estadística se dará entre caracteres entre los que se sabe


que existe interrelación, pero en los que es imposible definir una relación
matemática estricta. Por ejemplo: sabemos que existe cierta relación entre
peso y estatura, pero no de manera exacta; lo mismo ocurre con los ingresos
anuales de los clientes de una entidad bancaria y la cuantía de sus solicitu-
des crediticias; e igual con las siete calificaciones finales de los alumnos de
un curso (variable heptadimensional).

4.2.- DISTRIBUCIONES BIDIMENSIONALES:


TABULACIÓN

Una distribución bidimensional está formada por el conjunto de pares de


valores de dos caracteres (Xi, Yj). Una forma de disponer las observaciones
es la tabla de doble entrada llamada TABLA DE CORRELACIÓN:

X\Y Y1 Y2 .... Yj .... Yk ni.


X1 n11 n12 .... n1j .... n1k n1.
X2 n21 n22 .... n2j .... n2k n2.
... .... .... .... .... .... ... ...
Xi ni1 ni2 .... nij .... nik ni.
... .... .... .... .... .... ... ...
Xh nh1 nh2 .... nhj .... nhk nh.
n.j n.1 n.2 .... n.j .... n.k N

En la parte superior y en la izquierda de la tabla se recogen respectivamente


los valores de cada variable (o las marcas de clase en el caso de valores
agrupados en intervalos).

Frecuencia absoluta conjunta nij

Es el número de veces que se presenta conjuntamente el par (Xi, Yj); por


ejemplo, n21 indica el número de veces que se ha presentado X2
91
ESTADÍSTICA I

conjuntamente con Y1. La suma de las frecuencias absolutas conjuntas será


igual al número total de observaciones N:
h k
  n ij  N
i 1 j 1

Frecuencia relativa conjunta fij

Es el cociente entre la frecuencia absoluta conjunta, nij, y la total, N:


nij
f ij =
N
Evidentemente,
h k h kn ij N
  f ij =   = =1
i =1 j =1 i =1 j =1 N N

Frecuencia absoluta marginal

En la última fila y en la última columna se totalizan las frecuencias


correspondientes a cada uno de los valores de las variables. Luego, ni.
representa el número de veces que se presenta el valor Xi con
independencia de los valores de la variable Y; es la frecuencia absoluta
marginal del valor Xi. Análogamente, n.j representa el número de veces que
se presenta el valor Yj con independencia de los valores que tome la variable
X; es la frecuencia absoluta marginal del valor Yj.

Frecuencia relativa marginal

Es el cociente entre la frecuencia absoluta marginal y la frecuencia total.


n n. j
fi .  i . f. j 
N N
Lógicamente:
k
ni. = n i 1  ni 2  ...  nik =  nij
j =1
h
n.j  n1j  + n2j + ... + nhj   nij
i =1
h
 ni. = n1. + n2. + ... + nh. = N
i =1
k
 n .j = n.1+ n.2 + ...+ n.k = N
j =1
Ejemplo 4.1. En una oposición se quiere estudiar la relación entre la edad
de los 15 aspirantes (X) y la calificación que han obtenido en la prueba (Y).
Observaciones:

92
LECCIÓN 4. DISTRIBUCIONES DE FRECUENCIAS Q-DIMENSIONALES

X 23 25 26 26 25 21 28 23 28 22 26 26 22 26 26
Y 3 3 4 3 8 4 5 5 5 4 3 3 6 3 4

Tabla de correlación:

X/Y 3 4 5 6 8 ni.
21 0 1 0 0 0 1
22 0 1 0 1 0 2
23 1 0 1 0 0 2
25 1 0 0 0 1 2
26 4 2 0 0 0 6
28 0 0 2 0 0 2
n.j 6 4 3 1 1 15

Cuando la distribución tenga pocas observaciones, aunque la tabla de


correlación siga siendo válida, es más frecuente y más cómodo tabular los
datos en columnas utilizando la nomenclatura (Xi, Yi, ni) en lugar de (Xi, Yj,
nij):

Xi Yi ni
X1 Y1 n1
X2 Y2 n2
. . .
. . .
. . .
Xk Yk nk
N

Además, en muchas ocasiones las frecuencias suelen ser unitarias, con lo


que prescindiríamos de la última columna:

Xi Yi
X1 Y1
X2 Y2
. .
. .
. .
XN YN

Ejemplo 4.2. Ingresos (X) y empleo (Y) de siete empresas

93
ESTADÍSTICA I

X (miles de euros) Y (nº empleados)


3460 36
2210 58
5360 75
2150 46
1060 25
570 16
990 21

Ejemplo 4.3. Edad (X) y número de hijos (Y) de seis mujeres.

X Y Xi Yi ni X/Y 1 2 3 4
28 2
28 2 1
29 1 28 0 1 0 0
29 1 2
29 1 29 2 0 1 0
29 3 1
29 3 30 0 0 0 1
30 4 1
30 4 32 1 0 0 0
32 1 32 1 1

4.3.- DISTRIBUCIONES MARGINALES Y


CONDICIONADAS

4.3.1.- Distribuciones marginales

Partiendo de una distribución bidimensional, nos puede interesar estudiar


aisladamente cada una de las variables sin hacer referencia alguna a los
valores de la otra. Así, tendremos dos distribuciones unidimensionales, una
para X y otra para Y, llamadas DISTRIBUCIONES MARGINALES. La distri-
bución marginal de X vendrá determinada por sus valores y sus frecuencias
marginales ni., o sea, el número total de veces que se repite cada valor Xi
independientemente de los valores de la variable Y. Por tanto, serán:

X Y
Xi ni. Yj n.j
X1 n1. Y1 n.1
X2 n2. Y2 n.2
. . . .
Xh nh. Yk n.k
N N

94
LECCIÓN 4. DISTRIBUCIONES DE FRECUENCIAS Q-DIMENSIONALES

Al ser dos distribuciones unidimensionales, podemos definir las medias y


varianzas marginales:
h k
 X i ni.  Y j n. j
j 1
X  i 1 Y 
N N

 2 n. j
k
 2 ni .
h
 Xi  X  Yj Y
j 1
S x2  i 1 S 2y 
N N

Ejemplo 4.4. Con los datos del ejemplo 4.1., obtener las distribuciones
marginales de X e Y.

X Y
Xi ni. Yj n.j
21 1 3 6
22 2 4 4
23 2 5 3
25 2 6 1
26 6 8 1
28 2
15 15

Por ejemplo, hay seis aspirantes que tienen 26 años (con independencia de
la puntuación obtenida); hay 3 aspirantes que han obtenido un 5 en la
oposición (con independencia de su edad).

4.3.2.- Distribuciones condicionadas

Son otro tipo de distribuciones unidimensionales en las que previamente se


define una condición. Por ejemplo, X condicionada a que Y tome el valor Y3 :

Xi/Y=Y3 ni/3
X1 n13
X2 n23
. .
Xh nh3
n.3

La frecuencia total no será N sino n.3, pues partimos de la condición de que


Y toma el valor Y3. La distribución de Y condicionada al valor X2 de X será:

95
ESTADÍSTICA I

Yj/X=X2 nj/2
Y1 n21
Y2 n22
. .
Yk n2k
n2.

En general, la distribución de X condicionada a Y=Yj y la distribución de Y


condicionada a X=Xi:

X Y
Xi/Y=Yj ni/j Yj/X=Xi nj/i
X1 n1j Y1 ni1
X2 n2j Y2 ni2
. . . .
Xh nhj Yk nik
n.j ni.

Lógicamente, las frecuencias relativas condicionadas se definirán como:


n ij n ij
n ij f ij nij f ij
f i/j = = N = f j /i = = N =
n.j n.j f .j n i. n i. f i.
N N
Ejemplo 4.5. Con los datos del ejemplo 4.1., obtener:

a) Distribución de las edades de los aspirantes con un 4 de puntuación.


b) Distribución de las puntuaciones para los aspirantes de 22 años.

a)
Xi/Y=4 ni/Y=4
21 1
22 1
26 2
4

b)
Yj/X=22 nj/X=22
4 1
6 1
2

96
LECCIÓN 4. DISTRIBUCIONES DE FRECUENCIAS Q-DIMENSIONALES

4.3.3.- Independencia estadística

La ausencia total de relación entre dos variables estadísticas se expresará


analíticamente como:

fi/j = fi. y fj/i = f.j

Si la variable Y no influye en X, la frecuencia relativa de X condicionada a un


valor concreto de Y (fi/j) coincidirá con la frecuencia relativa marginal de X (fi.)
independientemente de los valores que tome Y (lo mismo para Y condicio-
nada a X).

Luego, en el caso de independencia (sustituyendo en las fórmulas de la


frecuencia relativa condicionada):
f ij f ij
f i. = f .j =
f .j f i.

lo que implica que


f ij = f i.  f .j
o lo que es lo mismo,
n ij n i. n.j
= 
N N N

Luego, dos variables X e Y son independientes cuando la frecuencia relativa


conjunta es igual al producto de las frecuencias relativas marginales.

4.4.- DISTRIBUCIONES Q-DIMENSIONALES

En los problemas reales las variables que intervienen suelen ser más de dos.
La cuestión es estudiar la dependencia que hay entre ellas (la distribución
bidimensional no es más que un caso particular de la distribución Q-
dimensional).

Por tanto, vamos a estudiar una población representada por una variable Q-
dimensional (X1, X2, ..., XQ). El conjunto de observaciones de esta variable
acompañadas de sus respectivas frecuencias constituye la distribución
múltiple o distribución conjunta Q-dimensional. Esta distribución se tabula en
forma de columnas debido a la imposibilidad de construir tablas de más de
dos entradas:

97
ESTADÍSTICA I

X1 X2 .... XQ n(X1, X2, ...,XQ)


X11 X21 .... XQ1 n1
X12 X22 .... XQ2 n2
.... .... .... ... ...
X1i X2i .... XQi ni
.... .... .... ... ...
X1h X2h .... XQh nh
N

Ante la multiplicidad de observaciones diferentes de X (cada observación


consta de Q valores), en muchas ocasiones las frecuencias tenderán a ser
unitarias, con lo que la tabla anterior se reducirá:

X1 X2 .... XQ
X11 X21 .... XQ1
X12 X22 .... XQ2
.... .... .... ...
X1i X2i .... XQi
.... .... .... ...
X1N X2N .... XQN

El conjunto de observaciones se suele denominar "matriz de datos", ya que


dichas observaciones se pueden representar en una matriz de orden N*Q.

Distribuciones marginales y condicionadas

Con el fin de no perdernos en abstracciones innecesarias y mantener una


visión intuitiva, consideremos una distribución tridimensional. En este caso
suele ser habitual utilizar la notación (X, Y, Z) en lugar de (X1, X2, X3).

X Y Z n(x, y, z)
X1 Y1 Z1 n1
X2 Y2 Z2 n2
.... .... ... ...
Xi Yi Zi ni
.... .... ... ...
Xh Yh Zh nh
N

98
LECCIÓN 4. DISTRIBUCIONES DE FRECUENCIAS Q-DIMENSIONALES

De esta distribución conjunta obtenemos tres marginales unidimensionales y


tres bidimensionales.
 Las unidimensionales, X, Y y Z, se obtienen considerando individual-
mente cada variable con sus frecuencias, prescindiendo de los
valores de las otras dos.
 Las bidimensionales, (X, Y), (X, Z) y (Y, Z), se obtienen
prescindiendo de los valores de una de las tres componentes y
considerando la distribución conjunta de las otras dos.

Análogamente, las distribuciones condicionadas podrán ser unidimensio-


nales o bidimensionales.

Ejemplo 4.6. Distribuciones de las calificaciones de 3 asignaturas para un


grupo de 30 alumnos.

X Y Z n(x, y, z)
3 1 0 3
4 3 0 2
2 2 1 1
3 2 1 6
5 2 1 4
7 2 7 2
6 4 9 2
3 8 5 3
5 4 6 5
7 3 5 2
30

Distribución Distribución Distribución de X Distribución de (Y,Z)


marginal de marginal de condicionada a condicionada a X=3
Y (Y,Z) Y=2 y Z=1
Y nY Y Z n(Y,Z) X nx/y=2, z=1 Y Z n(Y,Z)/x=3
1 3 1 0 3 2 1 1 0 3
2 13 3 0 2 3 6 2 1 6
3 4 2 1 11 5 4 8 5 3
4 7 2 7 2
8 3 4 9 2
8 5 3
4 6 5
3 5 2
30 30 11 12

99
ESTADÍSTICA I

4.5.- MOMENTOS BIDIMENSIONALES. INDEPENDENCIA


Y COVARIACIÓN

Es el momento de órdenes r y s respecto a los parámetros P y Q como:


h k
r s
  ( X i - P ) (Y j - Q ) n ij
i =1 j =1
M rs (P,Q) =
N

4.5.1.- Momentos respecto al origen

Son aquellos en que P = Q = 0. Se denotan por ar,s.

h k
  X ri Y sj n ij
i =1 j =1
ars =
N

Para valores concretos de r y s:

h k h k h
  X i n ij  X i  n ij  X i ni .
i 1 j 1 i 1 j 1
a10    i 1 X
N N N
h k k h k
  Y j n ij  Y j  n ij  Y j n. j
i 1 j 1 j 1 i 1 j 1
a01    Y
N N N
h k h k h
2 2 2
  X i n ij  X i  n ij  X i ni .
i 1 j 1 i 1 j 1
a20    i 1
N N N
h k k h k
2 2 2
  Y j n ij  Y j  n ij  Y j n. j
i 1 j 1 j 1 i 1 j 1
a02   
N N N

4.5.2.- Momentos centrales o respecto a la media

Son aquellos en que P = X y Q = Y . Se denotan por mr,s.

100
LECCIÓN 4. DISTRIBUCIONES DE FRECUENCIAS Q-DIMENSIONALES

h k
r s
  ( X i - X ) (Y j - Y ) n ij
i =1 j =1
mrs =
N

Para valores concretos de r y s:

h k h k h
  ( X i - X ) nij  ( X i - X )  nij  ( X i - X ) n i.
i =1 j =1 i =1 j =1
m10 = = = i =1 =0
N N N
h k k h k
  (Y j - Y ) n ij  ( Y j - Y )  nij  (Y j -Y )n.j
i =1 j =1 j =1 i =1 j =1
m01 = = = =0
N N N
h k h k h
2 2 2
  ( X i - X ) n ij  ( X i - X )  n ij  ( X i - X ) ni.
i =1 j =1 i =1 j =1 j =1
m20 = = = = S 2x
N N N
h k k h k
2 2 2
  (Y j - Y ) nij  (Y j - Y )  nij  (Y j -Y ) n.j
i =1 j =1 j =1 i =1 j =1
m02 = = = = S 2y
N N N
h k
  ( X i - X )(Y j - Y ) n ij
i =1 j =1
m11 = = S xy = COVARIANZA
N

La covarianza Sxy es una medida de dispersión que hace referencia a la


variación lineal conjunta de ambas variables. Si es positiva, las dos variables
varían en el mismo sentido, y si es negativa, en sentido opuesto.

4.5.3.- Relación entre los momentos

Como ya indicamos en el análisis unidimensional, cualquier momento central


puede expresarse en función de los momentos respecto al origen. Como
ejemplos más significativos tenemos las siguientes igualdades:
2
m 20 = a 20 - a10

m02 = a02 - a 2
01
m11 = a11 - a10  a 01

101
ESTADÍSTICA I

Demostraciones

i =1
h
2
 ( X i - X ) n i.
h

i =1
 2
 X 2i n i. + X n i.  2 X X i n i . 
m20 = = =
N N
h h h
 X 2i n i.  n i.  X i n i.
2
= i =1 + X 2 i =1 - 2 X i =1 = a20 + X  2 X 2 = a20 - a10
2
N N N

La segunda demostración es análoga a la anterior, por lo que obviamos su


desarrollo.
h k
  ( X i - X )(Y j - Y )nij
i =1 j =1
m11 = =
N
h k h k h k h k
  X i Y j n ij - Y   X i n ij - X   Y j nij + X Y   nij
i =1 j =1 i =1 j =1 i =1 j =1 i =1 j =1
= 
N
h k h k h k
  X i Y j nij   X i nij   Y j nij
i =1 j =1 i =1 j =1 i =1 j =1
 -Y + XY= -X
N N N
= a11 - a01  a10 - a10  a01 + a10  a01 = a11 - a10  a01

PROBLEMA:

Sea una distribución marginal (X, Y) con medias marginales, X , e Y ,


desviaciones típicas marginales Sx y Sy, y covarianza Sxy. Sea la nueva
variable bidimensional (Z, W) donde

Xi - P Y j -Q
Zi = W j=
a b
Demostrar que

1) X = a  Z + P 2) Y = b  W + Q
3) S 2x = a2  S 2z 4) S 2y = b2  Sw
2

5) S xy = a  b  S zw

102
LECCIÓN 4. DISTRIBUCIONES DE FRECUENCIAS Q-DIMENSIONALES

Resolución:

Las cuatro primeras igualdades ya han sido demostradas en el anexo del


tema 3, pues se trata de medias y varianzas marginales. Procederemos a
demostrar la última igualdad.
h k
 
  Z i - Z W j - W n ij 
i =1 j =1
S zw = =
N

h k  X - P X - P  Y j - Q Y - Q 
     n ij
i
- -
i =1 j 1  a a  b b 
 =
N
1 h k
  ( X i - X ) ( Y j - Y ) n ij
ab i =1 j =1 1
= =  S xy
N ab

S xy = a  b  S zw

4.5.4.- Independencia y covariación

Si dos variables X e Y son independientes, serán incovariadas (o sea, su


covarianza Sxy es cero). Sin embargo, el recíproco no es siempre cierto: el
hecho de que Sxy = 0 no implica que X e Y sean independientes.

INDEPENDENCIA =========> Sxy = 0

Demostración:

Recordemos que si X e Y son independientes


n ij n i. n.j
= 
N N N
con lo que

h k
  Xi Y j nij
i =1 j =1 h k n n. j h ni . k n. j
a11 = =   Xi Y j i . =  Xi  Y j = a10  a01
N i =1 j =1 N N i =1 N j =1 N

Luego,
S xy  a11  a10  a01  a10  a01  a10  a01  0

103
ESTADÍSTICA I

4.6.- MOMENTOS Q-DIMENSIONALES. MATRIZ DE


COVARIANZAS

A) El caso de una distribución tridimensional (X, Y, Z) se define el momento


de órdenes r, s y t respecto a los parámetros P, Q y R como:
k
r s t
 ( X i - P ) (Y i - Q ) ( Z i - R ) n i
i =1
M rst (P,Q, R) =
N

a) Momentos respecto al origen


k
 X ri Y si Z ti ni
i =1
arst =
N
entre los que destacan:

a100 = X a010 = Y a001 = Z

b) Momentos centrales

k
r s t
 ( X i - X ) (Y i - Y ) ( Z i - Z ) n i
i =1
m rst =
N

entre los que destacan:

m 200 = S 2x m 020 = S 2y m 002 = S 2z


m 110 = S xy m 101 = S xz m 011 = S yz

que constituyen las varianzas y covarianzas.

Estas varianzas y covarianzas, excepto en el caso bidimensional, suelen


expresarse con otra nomenclatura, esto es:

S 2x = m 200 = S11 (variación de X consigo misma)


S 2y = m 020 = S 22 (variación de Y consigo misma)
S 2z = m 002 = S 33 (variación de Z consigo misma)
S xy = m110 = S12 = S 21 (variación conjunta de X e Y)
S xz = m101 = S13 = S 31 (variación conjunta de X y Z)
S yz = m 011 = S 23 = S 32 (variación conjunta de Y y Z)

104
LECCIÓN 4. DISTRIBUCIONES DE FRECUENCIAS Q-DIMENSIONALES

La matriz formada por todas las varianzas y covarianzas se denomina


MATRIZ DE COVARIANZAS, cuyo conocimiento es fundamental en las
teorías de la regresión y correlación.

 S11 S12 S13 


 
S 
 21 S 22 S 23 
 
 S 31 S 32 S 33 

Se trata de una matriz simétrica, ya que Sij = Sji, donde la diagonal principal
está formada por todas las varianzas marginales.

B) Para el caso de una distribución Q-dimensional tendremos las siguientes


fórmulas para el cálculo de los momentos:
k
 ( X1i - P1 )r1( X 2i - P2 )r2 ...( XQ - PQ )rQ ni
i
i=1
Mr r ...r ( P1, P2 ,...,PQ ) 
1 2 Q N
k
 X1r1 X r22 .... XQ
rQ n
i
i i i
ar1r 2 ...r Q  i=1
N
k
 ( X1i - X1 )r1( X 2i - X 2 )r2 ....( XQ - XQ )rQ ni
i
i=1
mr1r 2 ....r Q 
N

con

a100...0 = X 1 a0100...0 = X 2 ....... a000....01 = X Q

m200...0 = S11 m0200...0 = S 22 ....... m000...02 = SQQ

m1100...0 = S12 m10100...0 = S13 ....... m000...011 = S(Q -1)Q

con lo que la matriz de covarianzas vendrá determinada por:

105
ESTADÍSTICA I

 S11 S12 .... S1Q 


 
 .... S 2Q 
 S 21 S 22 
 
 ... ... .... ...
 
 SQ1 SQ2 .... SQQ 

106

También podría gustarte