Está en la página 1de 10

introduccin

Anteriormente se trabaj con variables aleatorias tanto discretas como continuas con

argumento de una sola variable. Este anlisis, al igual que en las funciones, se puede
prolongar a las variables aleatorias con ms de un argumento. Para fines de esta unidad,
se analizarn los conceptos ms comunes de las multivariables aleatorias tanto discretas
como continuas, para continuar con aplicacin tericas de la estadstica: las distribuciones
muestrales.
La unidad finaliza con el teorema que probablemente es el de mayor importancia
terica en la probabilidad y estadstica, el del lmite central.

9.1 Multivariables
En las unidades 5 a 8 se analizaron las variables aleatorias resultantes de experimentos
aleatorios donde slo intervena un factor, es decir, modelos que manejan series univariadas
de datos que slo se preocupan por entender la variabilidad de una sola variable. Un
ejemplo de este tipo de modelos lo tenemos en los casos estadsticos exploratorios bsicos
del anlisis de tendencia central y dispersin. Existe una gran variedad de modelos ms
que se emplean en las teoras de Pronsticos y regresin, los cuales sern vistos en el curso
de Estadstica aplicada.
Por otro lado, debido a que no siempre es suficiente entender la variabilidad de una
sola variable o de un conjunto de variables de manera independiente, la estadstica ha
diseado el anlisis multivariado de datos para analizar la variabilidad de un conjunto
de variables de forma conjunta. As, modelos univariados anteriormente presentados
tienen su extensin al anlisis multivariado.
Dada su extensin, en esta unidad nos enfocaremos en la clase de modelos
estadsticos exploratorios multivariados de anlisis de tendencia central, dispersin y
correlacin.
Cabe notar que un anlisis multivariado tendra sentido si y slo si las variables
de inters tienen interrelacin entre ellas, como se ver posteriormente, que exista
correlacin entre ellas.
Ejemplo 1

Datos multivariados
Despus de una severa tormenta en febrero de 1898, se rescataron algunos gorriones
moribundos y fueron puestos en cautiverio en los laboratorios de Brown University.
Posteriormente, las muestras sobreviviente y muerta se estudiaron para corroborar varias
hiptesis sobre el tema de seleccin natural. A estos gorriones se les pes y se les tomaron
ocho diferentes medidas morfolgicas. Los datos son los siguientes:

262

E stadstica

y probabilidad

Tomando los datos anteriores como una muestra de datos multivariados, en


donde cada medicin representa una variable diferente, varias preguntas pueden llegar
a nuestras cabezas:
1. Cmo se relacionan las medidas anteriores? Por ejemplo, sucede que cuando
una de las medidas tiende a ser grande las dems lo son?
2. Existen diferencias significativas entre los gorriones sobrevivientes y los que no
sobrevivieron?
3. Si es que difieren, puede construirse una funcin que dependa de las medidas
que nos ayude a dividir los datos en dos grupos? As, si esta funcin tiende a ser
grande para los sobrevivientes y pequea en valor para los que murieron, podra
utilizarse como un ndice de ajuste darwiniano.
Las preguntas anteriores sobre los datos de los gorriones pueden contestarse con
algunas de las herramientas del anlisis multivariado que se estudiarn en esta unidad. Nos
limitaremos a explicar las distribuciones bidimensionales o distribuciones en dos variables.
Para tres o ms variables se deben seguir los mismos principios que se explicarn para
dos variables, razn por la cual en lugar de utilizar slo x y y se emplearn subndices,
como x1 y x2.
Nota

El estudio de las multivariables aleatorias se va a simplificar para las discretas, en el caso


de las continuas se procede de forma similar, cambiando las sumatorias por integrales,
pero debido a la complejidad de los clculos y el objetivo del texto, no se contemplarn.
Los estudiantes interesados en el tema pueden consultar la bibliografa que aparece al
final del texto.
La forma de trabajo ser mucho menos detallada que en las unidades anteriores, ya
que se conservan las interpretaciones de los conceptos que hemos estudiado, como son:
la distribucin de probabilidad, funcin acumulada, valor esperado, etc. y, por consiguiente,
veremos slo algunos conceptos nuevos y las frmulas para llevar a efecto sus clculos.

D
istribucin de probabilidad conjunta discreta
Supngase un experimento aleatorio en el que intervienen dos factores, por ejemplo,
lanzar dos monedas donde se define una variable aleatoria para cada una de ellas: X1 y
X2. Por ejemplo, si X1: cantidad de caras guila de la moneda uno, es decir X1 = {0, 1},

U nidad 9 M ultivariables

y distribuciones muestrales

263

asimismo X2: cantidad de caras guila de la moneda dos, X2 = {0, 1}, los valores de cada
experimento se representan por las parejas (x1, x2), donde x1 X1 y x2 X2; es decir
X1 X2 = {(0, 0), (0, 1), (1, 0), (1, 1)}

Definidas las variables aleatorias del experimento, surge la necesidad de definir


tambin probabilidad para las parejas (x1, x2).
Definicin 9.1

Se le l
lama probabilidad conjunta el resultado de un experimento con dos factores cuyas variables aleatorias son X1 y X2, y parejas del experimento (x1, x2), representadas por

P(x1, x2) = P(X1 = x1, X2 = x2)

En el ejemplo anterior sobre lanzar dos monedas, es fcil verificar que las probabilidades correspondientes estn dadas por
P(0, 0) = P(0, 1) = P(1, 0) = P(1, 1) = 1/4

Dicha probabilidad cumple con los axiomas de probabilidad de Kolmogorov, por


tanto, desde el punto de vista axiomtico, es una probabilidad.
Propiedades de la probabilidad conjunta discreta
P(x1, x2) 0, para toda (x1, x2)
P( x1, x2 ) = 1
x1

x2

Funcin de distribucin acumulada


De forma similar que en las variables aleatorias unidimensionales, la funcin de distribucin
acumulada est dada por
F ( a, b ) =

P( x1, x2 ) = P( x1 a, x2 b )
x1 x2

Para el ejemplo de lanzar dos monedas, se tiene


F(0, 1) = P(0, 0) + P(0, 1) = 1/4 + 1/4 = 1/2

Propiedades de la funcin acumulada en dos variables


Al igual que en el caso unidimensional, las propiedades de una funcin acumulada estn
dadas por
F(x1, x2), la cual siempre es no decreciente para todas x1 y x2

Por ejemplo, en una variable sucede que si a < b, entonces


F(b) F(a) o F(b) F(a) 0

Por tanto, si a2 a1; b2 b1 , entonces


F(a2 , b2) F(a2 , b1) F(a1, b2) F(a1, b1)

264

E stadstica

y probabilidad

De igual forma
[F(a2 , b2) F(a2 , b1)] [F(a1, b2) F(a1, b1)] 0

Lo que indica que la funcin acumulada es no decreciente


lm F ( x1, , x2 ) = 0
x1
x2

Ejemplo 2

lm F ( x1, , x2 ) = 1

x1
x2

Se va a considerar a tres ejecutivos para un ascenso de un grupo de nueve; cuatro de


ellos estn casados, tres nunca han estado casados y dos estn divorciados. Dadas X1:
nmero de ejecutivos casados y X2: ejecutivos que nunca se han casado
a) se calculan las distribuciones de probabilidad conjunta de X1 y X2, suponiendo que se
toma una muestra al azar de tres de los nueve ejecutivos
b) se calcula F(1, 2)
Los pasos a seguir para resolver el problema son similares en el caso de una variable,
primero se definen las variables aleatorias del experimento
X1: nmero de ejecutivos casados
X2: nmero de ejecutivos que nunca se han casado

a) La distribucin de probabilidad en est caso est dada con base en los ejecutivos
considerados de entre los divorciados y, por tanto, pueden suceder tres casos: caso 1,
ningn divorciado; caso 2, un divorciado y, caso 3, dos divorciados.

1. P(x1, x2), para 0 divorciados.


4 C3 3C0 2 C0

P ( 3, 0 ) =

P (1, 2) =

4 C1 3 C2 2 C 0
9 C3

C C C
4
18
; P (2, 1) = 4 2 3 1 2 0 =
84
84
C
9 3

C C C
12
1
; P ( 0, 3) = 4 0 3 3 2 0 =
84
84
C
9 3

2. P(x1, x2), para un divorciado.


P (2, 0 ) =

9 C3

4C 2 3C 0 2C 1
9C 3

C C C
C C C
12
24
6
; P (1, 1) = 4 1 3 1 2 1 = ; P ( 0, 2) = 4 0 3 2 2 1 =
84
84
84
C
C
9 3
9 3

3. P(x1, x2), para dos divorciados.


P (1, 0 ) =

4 C1 3 C 0 2 C2
9 C3

C C C
4
3
; P ( 0, 1) = 4 0 3 1 2 2 =
84
84
9 C3

b)
F(1, 2) = P(0, 1) + P(0, 2) + P(1, 0) + P(1, 1) + P(1, 2) =
= 3/84 + 6/84 + 4/84 + 24/84 + 12/84 = 49/84 = 7/12

U nidad 9 M ultivariables

y distribuciones muestrales

265

Funcin de probabilidad marginal


Cuando se trabaja con varias variables puede ser necesario conocer las probabilidades
cuando se elige un valor de alguna de ellas y las otras pueden variar en todo su rango.
Definicin 9.2
Dadas X1 y X 2 dos variables aleatorias discretas con funcin de probabilidad conjunta
entonces la funcin de probabilidad marginal para X1 est dada por

P1( x1 ) =

P(x1, x2),

P( x1, x2 )
x2

es decir, x1 se considera constante, mientras que la otra variable x 2 recorre todos sus valores.
Asimismo para X 2 , resulta

P2 ( x2 ) =

P( x1, x2 )
x1

donde la variable que se considera constante es x 2 , mientras que la que recorre todos sus valores
es x1.

Ejemplo 3

Se retoma el ejemplo anterior:


dadas X1: nmero de ejecutivos casados y X2: ejecutivos que nunca se han casado, se calculan las probabilidades marginales para X1 y X2:
nmero de ejecutivos casados entre los tres considerados para el ascenso.
Por definicin de probabilidad marginal y utilizando la distribucin de probabilidad
calculada en el ejemplo 1 se tiene
P1(x1)= marginal para x1 o sea P1(x1), resulta
P1 (0 ) = P ( 0, x2 ) = P ( 0, 1) + P ( 0, 2) + P ( 0, 3) =
x2

P1 (1) = P (1, x2 ) =P (1, 0 ) + P (1, 1) + P (1, 2) =


x2

P1 (2 ) = P (2, x2 ) =P (2, 0 ) + P (2, 1) =


x2

P1 (3) = P ( 3, x2 ) =P ( 3, 0 ) =
x2

3
6
1 10
5
+
+
= =
84 84 84 84
42

4 24 12 40 10
+
+
=
=
84 84 84 84 21

12 18 30 5
+
=
=
84 84 84 14

4
1
=
84 21

Se comprueba que la suma de las probabilidades marginales resulta uno


10

40

30

P1( x1 ) = P1(0) + P1(1) + P1(2) + P1(3) = 84 + 84 + 84 + 84 = 1


x1

Asimismo, para P2(x2)


P2 ( 0 ) =

20
45
18
1
, P2 (1) = , P2 (2) =
y P2 ( 3) =
84
84
84
84

Se verifica que la suma de probabilidades marginales sea igual a uno


20

45

18

P2 ( x2 ) = P2 (0) + P2 (1) + P2 (2) + P2 (3) = 84 + 84 + 84 + 84 = 1


x2

266

E stadstica

y probabilidad

Funcin de probabilidad condicional


Al igual que en una variable tambin se puede hablar de probabilidades condicionales, es
decir probabilidades donde la ocurrencia de una variable est restringida a que primero
suceda otra, de acuerdo con lo analizado en la unidad 4 dichas probabilidades cumplen
con los axiomas de Kolmogorov.
Definicin 9.3
Dadas X1 y X2 dos variables aleatorias discretas se llama probabilidad condicional al hecho de
que suceda la variable aleatoria X1 = x1 puesto que sucedi X2 = x2

P ( X1 = x1 | X2 = x2 ) =

P [X1 = x1, X2 = x2 ]
, P2 ( X2 = x2 ) 0
P2 ( X2 = x2 )

Variables aleatorias independientes


En la unidad 4 se analiz el concepto de eventos independientes y la importancia de tales
eventos en el desarrollo de la teora de las probabilidades. Ahora se ver el concepto de variables
independientes de forma muy similar, pero dirigido en el estudio hacia la estadstica.
Definicin 9.4
Las variables aleatorias discretas X1 y X2 con funcin de probabilidad conjunta P(x1, x2) y funciones
marginales P1(x1) y P2(x2), se llaman variables independientes si y solo si

P(x1, x2) = P1(x1)P2(x2), para toda x1 X1 y x2 X2.

Ejemplo 4

Se retoma el ejemplo anterior:


dadas X1: nmero de ejecutivos casados y X2: ejecutivos
que nunca se han casado
a) se calcula P(X1= 1 X2 = 2)
b) se determina si X1 y X2 son independientes
c) si X 3 denota el nmero de ejecutivos divorciados entre los nueve considerados
para el ascenso, entonces X 3 = 3 X1 X2. Se busca P(X 3= 1 X2 = 1)
a) Probabilidad condicional. De la distribucin de probabilidad calculada en el ejemplo 1,
resulta
P(X1= 1, X2 = 2) = P(1, 2) = 12/84

para la siguiente probabilidad marginal se usa el resultado del ejemplo 2


P2(X2= 2) = P2(2) = 18/84 = 3/14

Por tanto,

12
P ( X1 = 1 , X2 = 2) 84 12 2
P ( X1 = 1 X2 = 2) =
=
=
=
18 18 3
P2 ( X2 = 2)
84

U nidad 9 M ultivariables

y distribuciones muestrales

267

b) Independencia. Se utiliza la definicin anterior sobre variables independientes.

P ( x1, x2 ) = P1( x1 ) P2 ( x2 )

conjunta

marginal

marginal

Las variables son dependientes puesto que para X1= 3 y X2= 0, de acuerdo con
los resultados de los ejemplos 1 y 2, se tiene
P(3, 0) = 4/84

Por otro lado,


P1(3)P2(0) = (4/84)(20/84)

Por tanto,
P(3, 0) P1(3)P2(0)

Con esto se verifica que las variables son dependientes, ya que existe al menos
una combinacin de valores de las variables con la cual no se cumple la condicin de
la definicin de variables independientes.
c) Condicional de X 3.
X 3: nmero de ejecutivos divorciados entre la muestra de nueve

entonces X 3 = 3 X1 X2.
P ( X 3 = 1 X2 = 1) =

P ( X 3 = 1 , X2 = 1)
P2 ( X2 = 1)

Se calculan las probabilidades por separado. Para P(X 3= 1, X2 = 1): esta probabi
lidad ocurre cuando X2 = 1 y, por tanto, de X 3 = 3 X1 X2, se tiene X1 = 1; es decir,
P(X 3= 1, X2 = 1) es equivalente a P(1, 1) = 24/84 = 2/7 (ver ejemplo 1), para finalizar
24
P ( X 3 = 1 , X2 = 1) 84 24 8
P ( X 3 = 1 X2 = 1) =
=
=
=
45 45 15
P2 ( X2 = 1)
84

Valor esperado
En la unidad 5 se analiz el valor esperado de una variable aleatoria discreta, su interpretacin y la frmula para calcularlo. Para el caso de dos o ms variables la interpretacin se
conserva, lo que se modifica un poco es la frmula para calcularlo.
Definicin 9.5
Dadas las variables aleatorias discretas X1 y X2 con funcin de probabilidad conjunta P(x1, x2), se
llama valor esperado al calculado por

E( X1X2 ) = x1x2P ( x1, x2 )


x1 x2

268

E stadstica

y probabilidad

Propiedades
si X1, X2 son independientes entonces E(X1X2) = E(X1)E(X2)
E(c) = c
E[g1(x1, x2) + g 2(x1, x2)] = E[g1(x1, x2)] + E[g 2(x1, x2)]
Ejemplo 5

Dadas X1: nmero de ejecutivos casados y X2: ejecutivos que nunca se han casado, se
calcula el valor esperado E(X1X2)
E( X1 X2 ) = x1 x2 P ( x1, x2 ) =
x1 x2

= 3( 0 )

x1

x1 = 0 x2 = 0

x2 P ( x1, x2 ) =

4
18
12
1
12
24
6
4 84
+ 2 (1)
+ 1 (2 )
+ 0 ( 3)
+ 2 (0)
+ 1(1)
+ 0 (2 )
+ 1( 0 ) =
=1
84
84
84
84
84
84
84
84 84

9.2 Covarianza
A
nteriormente se analizaron variables aleatorias y la forma cmo se dispersaban los valores de la variable, que se obtenan mediante la varianza. En el caso de dos o ms variables,
y la forma cmo estn distribuidos sus datos, se emplea la dispersin de datos para ver
si existe dependencia. El tema de la dependencia o independencia entre las variables es fundamental en estadstica. En las grficas siguientes se muestran algunos datos donde es posible
observar la dispersin y la posible dependencia entre las dos variables
Figura 9.1
Dispersin de algunos
valores de variables.

Cmo saber si existe dependencia


entre dos variables dadas y de qu
manera se mide dicha dependencia?

Definicin 9.6

En la primer grfica ocurre una dependencia, puesto que cuando los valores de la
variable X1 aumentan los de la variable X 2 tambin aumentan; en la segunda no existe
dicha dependencia o no es posible observarla claramente.
Supngase que se sabe que E(X1) = 1 y E(X 2) = 2, posteriormente para cada
valor de las variables se calculan las desviaciones x1 1 y x2 2, y el producto de stas
(x1 1)(x2 2). El producto representa una medida para la dependencia de las variables,
la cual se define a continuacin.
La covarianza de las variables aleatorias X1 y X2 , se define como el valor esperado del producto
(X1 1)(X 2 2), y se simboliza

Cov ( X1, X2 ) = E[( X1 1 )( X2 2 )]

U nidad 9 M ultivariables

y distribuciones muestrales

269

El valor de la covarianza depende de los valores de las variables; pero, con esta forma para
medir la dependencia entre variables se tiene un problema, por ejemplo, si la covarianza
vale cinco, no se puede saber exactamente si este valor se considera grande o pequeo, ya
que depende de los valores de las variables, por lo que surge la necesidad de un concepto
ms, el coeficiente de correlacin.
Definicin 9.7
X1 y X2 , es un valor numrico que se
[1, 1] y se simboliza (X1, X2) con

El coeficiente de correlacin de las variables aleatorias


encuentra en el intervalo

( X1, X2 ) =

Cov ( X1, X2 )
[ 1, 1]
V ( X1 )V ( X2 )

Con la definicin anterior queda establecida una regla para medir la dependencia
entre variables: si el coeficiente de correlacin en valor absoluto es cercano a uno, las
variables tienen un alto grado de dependencia, y en caso de estar cercano a cero las variables
tienen un alto grado de independencia. Si los valores extremos valen cero, las variables son
independientes; si valen uno las variables son dependientes.
Teorema 9.1
Dadas X1 y X2 las variables aleatorias, la covarianza se calcula mediante

Cov(X1, X2) = E(X1, X2) E(X1)E(X2)


Demostracin

Cov(X1, X2 ) = E [( X1 1 )( X2 2 )] = E( X1 X2 2X1 1X2 + 12 ) =


= E( X1 X2 ) 2E( X1 ) 1E( X2 ) + 12 =
= E( X1 X2 ) 12 E( X1 ) E( X2 ) + 12 =
= E( X1 X2 ) E( X1 ) E( X2 )

Corolario
Dadas X1 y X2 las variables aleatorias independientes, la covarianza vale cero

Cov(X1, X2) = 0
Ejemplo 6

Se calcula el coeficiente de correlacin de la variable aleatoria discreta del ejemplo 2.


P1(x1) marginal para x1, del ejemplo 3 se obtuvieron las siguientes probabilidades
P1( x1 ) P1( 0 ) =

10
5
40 10
30 5
4
1
= , P1(1) =
= , P1(2) =
=
y P1( 3) =
=
84
42
84 21
84 14
84 21

De forma similar marginal para P2(x2)


P2 ( 0 ) =

20
45
18
1
, P2 (1) = , P2 (2) =
y P2 ( 3) =
84
84
84
84

Se calculan los valores esperados de las variables


n

E ( X1 ) = xk P1( xk ) = 0
k =1

E ( X2 ) = xk P2 ( xk ) = 0
k =1

5
10
5
1
10 5 1 28 4
+1 + 2 + 3 = 0 + + + =
=
42
21
14
21
21 7 7 21 3

5
15
3
1
15 3 1 15 + 12 + 1
+1 + 2 + 3
=0+
+ +
=
=1
21
28
14
84
28 7 28
28

270

E stadstica

y probabilidad

E ( X1 ) = xk P1( xk ) = 0
k =1

E ( X2 ) = xk P2 ( xk ) = 0
k =1

5
10
5
1
10 5 1 28 4
+1 + 2 + 3 = 0 + + + =
=
42
21
14
21
21 7 7 21 3

5
15
3
1
15 3 1 15 + 12 + 1
+1 + 2 + 3
=0+
+ +
=
=1
21
28
14
84
28 7 28
28

Se calcula la covarianza
4
4
1
Cov ( X1, X2 ) = 1 (1) = 1 =
3
3
3

Para calcular el coeficiente de correlacin se necesitan las varianzas


2

n
5
10
5
1 4
V ( X1 ) = x2k P ( Xk ) (E ( X1 ))2 = 02 + 12 + 22 + 32 =
42
21
14
21 3
k

=0+

10 20 9 16 10 + 30 + 9 16 147 112 35 5
+
+ =
=
=
=
21 14 21 9
21
9
63
63 9

n
5
15
3
1
V ( X2 ) = x2k P2 ( xk ) (E ( X2 ))2 = 02 + 12 + 22 + 32 12 =
21
28
14



84
k

=0+

15 6 3
15 + 24 + 3 28 14 1
+ +
1 =
=
=
28 7 28
28
28 2

Finalmente el coeficiente de correlacin


1
2
3
( x1, x2 ) =
=
= 0.4 = 0.63
5
51

92

ejercicio 1
1. Dadas X1 y X2 las variables aleatorias con la distribucin de probabilidad conjunta
x1( x1 + x2 )
, x1 = 1, 2 y x2 = 1, 2, 3

f( x1, x2 ) =
33
0,
en otro caso


2.
3.
4.

calcula la distribucin de probabilidad conjunta.


Calcula el valor esperado del ejercicio anterior.
Calcula el coeficiente de correlacin de las variables del numeral 1.
Una cooperativa agrcola asegura que 30% de los melones embarcados pertenece a
la huerta uno, 20% a la huerta dos y 50% a la huerta tres. Define las variables
Xi: melones embarcados pertenecientes a la huerta i, para i =
{
1, 2, 3}


Calcula la probabilidad de que entre 18 melones embarcados, cuatro pertenezcan
a la huerta dos y de los restantes al menos diez sean de la huerta tres.
5. Determina si las variables del numeral 4 son independientes.

9.3 Distribuciones muestrales y poblacionales


En la presente seccin se analiza el muestreo aleatorio. Se dar una definicin formal de
muestra aleatoria, estadsticos y parmetros, conceptos fundamentales en el estudio del

También podría gustarte