Está en la página 1de 19

Distribuciones Multivariantes Distribuciones Multivariantes

Distribución conjunta de un vector aleatorio Objetivos del tema:

Distribuciones marginales y condicionadas Al final del tema el alumno será capaz de:

Independencia entre variables aleatorias  Utilizar la función de probabilidad o densidad conjunta para el cálculo de
probabilidades

Características de un vector aleatorio  Calcular distribuciones marginales y condicionadas a partir de las


conjuntas
Esperanza
Varianza, Covarianza, Correlación  Interpretar y calcular covarianzas y correlaciones entre variables aleatorias

Transformaciones de vectores aleatorios  Calcular medias y varianzas de transformaciones lineales de vectores


aleatorios

Distribución Normal multivariante 1


 Comprender las propiedades de la distribución Normal bivariante 2
Estadística. Profesora: María Durbán

Distribuciones Multivariantes 1. Distribución conjunta de un vector aleatorio

1.
1.Distribución
Distribuciónconjunta
conjuntade
deun
unvector
vectoraleatorio
aleatorio En el tema anterior estudiamos distribuciones de probabilidad para una
variable aleatoria. Sin embargo, a menudo nos interesa estudiar más de
una variable en un experimento aleatorio.
2. Distribuciones marginales y condicionadas
Por ejemplo, en la clasificación de señales emitidas y recibidas, cada señal
3. Independencia entre variables aleatorias se clasifica como de baja, media o alta calidad.
Podemos definir:
X=“número de señales de baja calidad recibidas”, e
4. Características de un vector aleatorio Y=“número de señales de alta calidad”.

Esperanza
Varianza, Covarianza, Correlación
En general, si X e Y son dos variables aleatorias, la distribución de
probabilidad que define simultáneamente su comportamiento se
5. Transformaciones de vectores aleatorios llama distribución de probabilidad conjunta.

6. Distribución Normal multivariante 3 4


Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio 1. Distribución conjunta de un vector aleatorio
Variables discretas Ejemplo

Dadas dos v.a. discretas, X , Y, definimos su función distribución de


probabilidad mediante la función de probabilidad conjunta: En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
p( x, y ) = Pr( X = x, Y = y ) aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
Como en el caso unidimensional está función debe verificar:
p ( x, y ) ≥ 0
X = Número de bits aceptables
∑∑ p( x, y) = 1
x y
Y = Número de bits sospechosos

La función de distribución conjunta:

F ( x0 , y0 ) = Pr( X ≤ x0 , Y ≤ y0 ) = ∑ ∑ Pr( X = x, Y = y)
x ≤ x0 y ≤ y0
5 6
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

1. Distribución conjunta de un vector aleatorio 1. Distribución conjunta de un vector aleatorio


Ejemplo Ejemplo

En el desarrollo de un nuevo receptor para la transmisión de información En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida. aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.: Se transmiten 4 bits y se definen las siguientes v.a.:
Y Y
4 4.1x10-5 4 4.1x10-5

3 4.1x10-5 1.84x10-3 3 4.1x10-5 1.84x10-3

p ( x, y ) ≥ 0
Pr( X ≤ 1, Y ≤ 2)
∑∑ p( x, y) = 1
x y
2 1.54x10-5 1.38x10-3 3.11x10-2 2 1.54x10-5 1.38x10-3 3.11x10-2

1 2.56x10-6 3.46x10-4 1.56x10-2 0.2333 1 2.56x10-6 3.46x10-4 1.56x10-2 0.2333

1.6x10-7 2.88x10-5 1.94x10-3 7.83x10-2 1.6x10-7 2.88x10-5 1.94x10-3 7.83x10-2


0 0.6561
0 0.6561

0 1 2 3 4 X 7
0 1 2 3 4 X 8
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio 1. Distribución conjunta de un vector aleatorio
Distribución Multinomial Ejemplo

Un experimento se repite n veces de forma independiente: Las probabilidades de que cierta lámpara de un modelo de proyector dure
menos de 40 horas, entre 40 y 80 horas, y más de 80 horas de uso son
1. El experimento tiene k posibles resultados 0.3 ; 0.5 y 0.2 respectivamente.

2. La probabilidad de cada resultado, p1 , p2 ,K pk se mantiene constante Calcular la probabilidad de que entre 8 de tales lámparas, 2 duren menos de
40 horas; cinco duren entre 40 y 80 horas, y una dure más de 80 horas.

La variable X i = el número de veces que ocurre el resultado i-ésimo


Hay 3 resultados posibles: X 1 = dura < 40 → p1 = 0.3
X 1 , X 2 , K X k siguen una distribución multinomial con función de probabilidad X 2 = dura 40 − 80 → p2 = 0.5
conjunta: X 3 = dura > 80 → p3 = 0.2
n!
Pr( X 1 = x1 , X 2 = x2 , K, X k = xk ) = p1x1 p2x2 K pkxk
x1 ! x2 !K xk !
8!
x1 + x2 + K + xk = n p1 + p2 + K + pk = 1 Pr( X 1 = 2, X 2 = 5, X 3 = 1) = 0.32 0.550.2 = 0.095
2!5!1!
9 10
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

1. Distribución conjunta de un vector aleatorio 1. Distribución conjunta de un vector aleatorio


Variables continuas Variables continuas

Dadas dos v.a. continuas, X , Y definimos su función distribución de La probabilidad ahora se calcula como un volumen:
probabilidad mediante la función de densidad conjunta:
b d
Pr(a ≤ X ≤ b, c ≤ Y ≤ d ) = ∫ ∫ f ( x, y )dxdy
a c
f ( x, y )
Como en el caso unidimensional está función debe verificar:
f ( x, y ) ≥ 0
+∞ +∞
∫ ∫
−∞ −∞
f ( x, y )dxdy = 1
Pr(−1 ≤ X ≤ 1, −1.5 ≤ Y ≤ 1.5)
2
La función de distribución conjunta:
d F ( x, y )
f ( x , y ) =
F ( x , y ) = Pr( X ≤ x , Y ≤ y ) = ∫ ∫
y0 x0
f ( x, y )dxdy
0 0
dxdy 0 0
−∞ −∞
11 12
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio 1. Distribución conjunta de un vector aleatorio
Variables continuas Ejemplo

La probabilidad ahora se calcula como un volumen:


b d Sea X la variable aleatoria que representa el tiempo hasta que un servidor
Pr(a ≤ X ≤ b, c ≤ Y ≤ d ) = ∫ ∫ f ( x, y )dxdy se conecta con tu ordenador (en milisegundos) e Y el tiempo hasta que el
a c
servidor te autoriza como usuario.

La función de densidad conjunta viene dada por:

f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y


Pr(−1 ≤ X ≤ 1, −1.5 ≤ Y ≤ 1.5)
¿ Pr( X < 1000, Y < 2000) ?

13 14
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

1. Distribución conjunta de un vector aleatorio 1. Distribución conjunta de un vector aleatorio


Ejemplo Ejemplo

f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
¿ Pr( X < 1000, Y < 2000) ? ¿ Pr( X < 1000, Y < 2000) ?
Y Y

3000 3000
Recinto donde la función de
densidad no es 0
2000 2000
Recinto de integración para el cálculo
de esa probabilidad
1000 1000

1000 2000 3000 X 15 1000 2000 3000 X 16


Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio 1. Distribución conjunta de un vector aleatorio
Ejemplo Ejemplo

f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y

Y Y 1000 y 2000 1000


1000 y Pr( X < 1000, Y < 2000) = ∫ ∫ f ( x, y )dxdy + ∫ ∫ f ( x, y )dxdy
Pr( X < 1000, Y < 2000) = ∫ ∫ f ( x, y )dxdy + 0 0 1000 0
0 0
3000 3000
= 0.915

2000 2000
x=y x=y
1000 1000

1000 2000 3000 X 17 1000 2000 3000 X 18


Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

Distribuciones Multivariantes 2. Distribuciones marginales

1. Distribución conjunta de un vector aleatorio Si se definen más de una v.a. en un experimento, es importante
distinguir entre la distribución de probabilidad conjunta y la distribución
de probabilidad de cada variable individualmente. A la distribución de
2. Distribuciones marginales y condicionadas cada variable se le denomina distribución marginal.

Variables Discretas
3. Independencia entre variables aleatorias
Dadas dos v.a. discretas, X , Y con función de probabilidad conjunta
p( x, y ) las funciones de probabilidad marginales de ambas variables son:
4. Características de un vector aleatorio
p X ( x) = Pr( X = x) = ∑ Pr( X = x, Y = y )
Esperanza ∀y
Son funciones de probabilidad
Varianza, Covarianza, Correlación
pY ( y ) = Pr(Y = y ) = ∑ Pr( X = x, Y = y )
∀x
5. Transformaciones de vectores aleatorios Se puede calcular su esperanza,
varianza, etc.

6. Distribución Normal multivariante 19 20


Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
2. Distribuciones marginales 2. Distribuciones marginales
Ejemplo Ejemplo

En el desarrollo de un nuevo receptor para la transmisión de información En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida. aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.: Se transmiten 4 bits y se definen las siguientes v.a.:
Y Y
X = Número de bits aceptables X = Número de bits aceptables
Las funciones de probabilidad 4 4.1x10 -5 Las funciones de probabilidad
Y = Número de bits sospechosos Y = Número de bits sospechosos
marginal se obtendrían marginal se obtendrían
sumando en ambas 3 4.1x10-5 1.84x10-3 sumando en ambas
direcciones. direcciones.
2 1.54x10-5 1.38x10-3 3.11x10-2

1 2.56x10-6 3.46x10-4 1.56x10-2 0.2333

1.6x10-7 2.88x10-5 1.94x10-3 7.83x10-2 0.0001 0.0036 0.0486 0.2916 0.6561


0 0.6561

0 1 2 3 4 X 21
0 1 2 3 4 X 22
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

2. Distribuciones marginales 2. Distribuciones marginales


Ejemplo Ejemplo

En el desarrollo de un nuevo receptor para la transmisión de información En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida. aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.: Se transmiten 4 bits y se definen las siguientes v.a.:
Y Y
X = Número de bits aceptables X = Número de bits aceptables
Las funciones de probabilidad 4 4.1x10 -5 Las funciones de probabilidad 4 0.00004
Y = Número de bits sospechosos Y = Número de bits sospechosos
marginal se obtendrían marginal se obtendrían
sumando en ambas 3 4.1x10-5 1.84x10-3 sumando en ambas 3 0.00188
direcciones direcciones
2 1.54x10-5 1.38x10-3 3.11x10-2 2 0.03250

1 0.24925
1 2.56x10-6 3.46x10-4 1.56x10-2 0.2333

1.6x10-7 2.88x10-5 1.94x10-3 7.83x10-2


0 0.6561
0 0.71637

0 1 2 3 4 X 23 X 24
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
2. Distribuciones marginales 2. Distribuciones marginales
Variables Continuas Ejemplo
Dadas dos v.a. continuas, X , Y con función de densidad conjunta f ( x, y )
las funciones de densidad marginal de ambas variables son:
Sea X la variable aleatoria que representa el tiempo hasta que un servidor
+∞ se conecta con tu ordenador (en milisegundos) e Y el tiempo hasta que el
f X ( x) = ∫ f ( x, y )dy Son funciones de densidad
servidor te autoriza como usuario.
−∞
+∞ La función de densidad conjunta viene dada por
fY ( y ) = ∫ f ( x, y )dx Se puede calcular su esperanza,
−∞
varianza, etc. f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
0.4

0.3 ¿ Pr(Y > 2000) ?

f(x)
0.2

0.1

0.0

-4 -2
x
0 2 4 25 26
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

2. Distribuciones marginales 2. Distribuciones marginales


Ejemplo Ejemplo

f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
¿ Pr(Y > 2000) ? Y ¿ Pr(Y > 2000) ?
Y
Podemos resolverlo de dos formas: Podemos resolverlo de dos formas:

Integrar la función de densidad conjunta 3000 Integrar la función de densidad conjunta


en el recinto adecuado en el recinto adecuado
Calcular la función de densidad marginal 2000
de Y y calcular esa probabilidad +∞ y

1000
Pr(Y > 2000) = ∫ ∫ f ( x, y )dxdy = 0.05
2000 0

27 1000 2000 3000 X 28


Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
2. Distribuciones marginales 2. Distribuciones marginales
Ejemplo Ejemplo

f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
Y ¿ Pr(Y > 2000) ? Y ¿ Pr(Y > 2000) ?
Y Y
Podemos resolverlo de dos formas: Podemos resolverlo de dos formas:

3000 Calcular la función de densidad marginal 3000 Calcular la función de densidad marginal
de Y y calcular esa probabilidad de Y y calcular esa probabilidad
2000 y 2000 +∞
fY ( y ) = ∫ f ( x, y )dx = 6 × 10−3 e −0.002 y (1 − e −0.001 y ) y>0 Pr(Y > 2000) = ∫ fY ( y )dy = 0.05
0 2000
1000 1000

0 0
1000 2000 3000 X 29 30
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

2. Distribuciones condicionadas 2. Distribuciones condicionadas

Cuando se definen más de una v.a. en un experimento, el conocimiento Cuando se definen más de una v.a. en un experimento, el conocimiento
de una de las variables puede afectar a las probabilidades que se asocian de una de las variables puede afectar a las probabilidades que se asocian
con los valores de la otra variable con los valores de la otra variable

Recordemos del Tema de Probabilidad el Teorema de Bayes:


Variables Discretas
Pr (A I B )
Pr (B A ) = Dadas dos v.a. discretas, X , Y con función de probabilidad conjunta
Pr (A ) Mide el tamaño p( x, y ) la funcion de probabilidad de Y condicionada a X=x0:
de uno con A∩ B
p(x0 , y ) Pr ( X = x0 , Y = y )
respecto al otro p ( y | x0 ) = = p X ( x0 ) > 0
p X (x0 ) Pr ( X = x0 ) A

Para un valor genérico de x


p (x, y ) Pr ( X = x, Y = y )
p( y | x ) = = p ( x, y ) = p ( y | x ) p X ( x )
p X (x ) Pr ( X = x )
31 Podemos calcular su esperanza, varianza, etc. 32
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
2. Distribuciones condicionadas 2. Distribuciones condicionadas
Ejemplo Ejemplo

En el desarrollo de un nuevo receptor para la transmisión de información En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida. aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.: Se transmiten 4 bits y se definen las siguientes v.a.:

X = Número de bits aceptables X = Número de bits aceptables


Y = Número de bits sospechosos Y = Número de bits sospechosos

Como sólo se transmiten 4 bits, si X=3, Y=0 ó 1


Como sólo se transmiten 4 bits, si X=4, necesariamente Y=0
si X=3, Y=0 ó 1 Pr(Y = 0, X = 3) 0.05832
Pr(Y = 0 | X = 3) = = = 0.2 Pr(Y = 0 | X = 3) + Pr(Y = 1| X = 3) = 1
Pr( X = 3) 0.2916
M Pr(Y = 1| X = 3) =
Pr(Y = 1, X = 3) 0.2333
= = 0.8 E[Y | X = 3] = 0 × 0.2 + 1× 0.8 = 0.8
Pr( X = 3) 0.2916
Saber lo que vale X cambia la probabilidad asociada con los valores de Y
33 Número esperado de bits sospechosos cuando el número de aceptables es 3 34
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

2. Distribuciones condicionadas 2. Distribuciones condicionadas


Variables Continuas Ejemplo
Dadas dos v.a. continuas, X , Y con función de densidad conjunta f ( x, y )
la función de densidad de Y condicionada a X
Sea X la variable aleatoria que representa el tiempo hasta que un servidor
se conecta con tu ordenador (en milisegundos) e Y el tiempo hasta que el
Es función de densidad
f ( x, y ) servidor te autoriza como usuario.
f ( y | x) = La función de densidad conjunta viene dada por
f X ( x)
Se puede calcular su esperanza,
varianza, etc. f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
¿Cuál será la probabilidad de que el tiempo hasta que el servidor te autoriza
como usuario sea más de 2000 milisegundos si el tiempo que ha tardado el
f ( x, y ) = f ( y | x ) f X ( x )
servidor en conectarse ha sido 1500 milisegundos?

¿ Pr(Y > 2000 | X = 1500) ?

35 36
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
2. Distribuciones condicionadas 2. Distribuciones condicionadas
Ejemplo Ejemplo

f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
Y ¿ Pr(Y > 2000 | X = 1500) ? Y ¿ Pr(Y > 2000 | X = 1500) ?
Y Y
f ( x, y ) f ( y | x) = 0.002e0.002 x −0.002 y 0 < x < y
f ( y | x) =
3000 f X ( x) 3000
+∞
2000 f X ( x) = ∫
+∞
f ( x, y )dy = 0.003e −0.003 x x>0 2000 Pr(Y > 2000 | X = 1500) = ∫ f ( y | X = 1500)dy
2000
x
+∞
=∫ 0.002e3−0.002 y dy
1000 0.002 x − 0.002 y 1000
f ( y | x) = 0.002e 0< x< y
2000

= 0.368
0 0
1000 2000 3000 X 37 1000 2000 3000 X 38
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

Distribuciones Multivariantes 3. Independencia entre variables aleatorias

1. Distribución conjunta de un vector aleatorio En algunos experimentos, el conocimiento de una de las variables puede
no afectar ninguna de las probabilidades que se asocian con los valores
de la otra variable
2. Distribuciones marginales y condicionadas

3.Independencia
3. Independenciaentre
entrevariables
variablesaleatorias
aleatorias

4. Características de un vector aleatorio


Recordemos del Tema de Probabilidad:

Esperanza Pr ( A ∩ B ) = Pr ( A) Pr (B )
Pr ( A | B ) = Pr ( A)
Varianza, Covarianza, Correlación

5. Transformaciones de vectores aleatorios


Pr (B | A) = Pr (B )

6. Distribución Normal multivariante 39 40


Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
3. Independencia entre variables aleatorias 3. Independencia entre variables aleatorias

Variables Discretas Variables Continua

Diremos que dos variables X , Y son independientes si: Diremos que dos variables X , Y son independientes si:

p ( y | x) = pY ( y ) p ( x | y ) = p X ( x) f ( y | x ) = fY ( y ) f ( x | y ) = f X ( x)

p ( x, y ) = p ( x | y ) pY ( y ) = p X ( x) pY ( y ) ∀x, y f ( x, y ) = f ( x | y ) fY ( y ) = f X ( x ) fY ( y ) ∀x, y

41 42
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

3. Independencia entre variables aleatorias Distribuciones Multivariantes


Ejemplo
1. Distribución conjunta de un vector aleatorio

Sea X la variable aleatoria que representa el tiempo hasta que un servidor


2. Distribuciones marginales y condicionadas
se conecta con tu ordenador (en milisegundos) e Y el tiempo hasta que el
servidor te autoriza como usuario.
La función de densidad conjunta viene dada por 3. Independencia entre variables aleatorias

f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y 4. Características de un vector aleatorio

Esperanza
f ( y | x) = 0.002e0.002 x −0.002 y 0 < x < y Varianza, Covarianza, Correlación

≠ Para todos los valores de x 5. Transformaciones de vectores aleatorios

fY ( y ) = 6 ×10−3 e −0.002 y (1 − e −0.001 y ) y>0


43 6. Distribución Normal multivariante 44
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
4. Características de un vector aleatorio 4. Características de un vector aleatorio

 X1  Covarianza
 
X
Dadas n v.a. X 1 , X 2 ,K, X n definimos el vector n-dimensional X =  2 
 M  Primero comenzamos por definir la covarianza entre dos variables:
 
 Xn 
La función de probabilidad/densidad del vector es la función de Es una medida de la relación lineal entre dos variables
probabilidad/densidad conjunta de los componentes del vector.
Cov( X , Y ) = E ( X − E [ X ]) (Y − E [Y ])  = E [ XY ] − E [ X ] E [Y ]
Esperanza
Propiedades
Se define el vector de medias como el vector cuyas componentes son
las medias o esperanzas de cada componente. Si X , Y son independientes ⇒ Cov( X , Y ) = 0 ya que E [ XY ] = E [ X ] E [Y ]
 E [ X1 ]  Si Cov( X , Y ) = 0 ⇒ X , Y sean independientes
 
E [ X 2 ] Si hacemos un cambio de origen y escala:
µ = E [ X] =  Z = aX + b
 M  ⇒ Cov(Z ,W ) = acCov( X , Y )
  W = cY + d
 E [ X n ] 45 46
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

4. Características de un vector aleatorio 4. Características de un vector aleatorio

Covarianza

Cov( X , Y ) = E ( X − E [ X ]) (Y − E [Y ])  = E [ XY ] − E [ X ] E [Y ]

¿Cómo lo calculamos?
Necesitamos calcular la esperanza de una función de dos variables ´Covarianza positiva Covarianza cero
aleatorias:
Hay relación
∑∑ h( x, y) p( x, y) pero no
E [ h( X , Y ) ] = x y lineal
+∞ +∞
∫ ∫
−∞ −∞
h( x, y ) f ( x, y )dxdy

47 48
Estadística. Profesora: María Durbán Covarianza
Estadística. Profesora: negativa
María Durbán Covarianza cero
4. Características de un vector aleatorio 4. Características de un vector aleatorio
Ejemplo
Correlación
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no La correlación entre dos variables también es una medida de la relación
aceptable, dependiendo de la calidad de la señal recibida. lineal entre dos variables
Se transmiten 4 bits y se definen las siguientes v.a.: Cov( X , Y )
ρ ( X ,Y ) =
X = Número de bits aceptables Var [ X ]Var [Y ]
Y = Número de bits sospechosos

¿Es la covarianza entre X e Y positiva o negativa?


Si X , Y son independientes ⇒ ρ ( X , Y ) = 0 ya que Cov ( X , Y ) = 0

Sabemos que X + Y ≤ 4 ⇒ cuando Y se acerca a 4, X se acerca a 0 | ρ ( X , Y ) |≤ 1


Por lo tanto la covarianza es negativa. Si Y = aX + b ⇒| ρ ( X , Y ) |= 1

49 50
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

4. Características de un vector aleatorio Distribuciones Multivariantes

Matriz de Varianzas y Covarianzas


1. Distribución conjunta de un vector aleatorio

Dadas n v.a. X 1 , X 2 ,K, X n llamamos matriz de varianzas y covarianzas


del vector X a la matriz cuadrada de orden n: 2. Distribuciones marginales y condicionadas

 Var [ X 1 ] Cov [ X 1 , X 2 ] L Cov [ X 1 , X n ] 


  3. Independencia entre variables aleatorias
Cov [ X 1 , X 2 ] Var [ X 2 ] M M
M X = E ( X - µ )( X - µ )′  =  
   M M O M 
 
 Cov [ X 1 , X n ] Var [ X n ] 
L L 4. Características de un vector aleatorio

Esperanza
Propiedades Varianza, Covarianza, Correlación

5. Transformaciones
5. Transformaciones de
de vectores
vectores aleatorios
aleatorios
Simétrica (ella y su matriz traspuesta coinciden)
Semidefinida positiva (todos sus autovalores son ≥ 0)
51 6. Distribución Normal multivariante 52
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios

Al igual que en el caso univariante, hay ocasiones en que es necesario


calcular la distribución de probabilidad de una función de dos o más v.a. Si Y tiene menor dimensión que X, completamos Y con elementos
de X hasta completar la misma dimensión.
Dado un vector aleatorio X con función de densidad conjunta f ( X),
lo transformamos en otro vector aleatorio Y de la misma dimensión Ejemplo
mediante una función g
y1 = g1 ( x1 , K , xn ) 4 x1 x2 0 < x1 , x2 < 1
Existen las f X1 X 2 ( x1 , x2 ) =
y2 = g 2 ( x1 , K, xn ) 0 en el resto
transformaciones
M inversas Calcular la función de densidad de Y1 = X 1 + X 2
yn = g n ( x1 , K, xn ) dx1 dx1
L 1. Definimos Y2 = X 2
dy1 dyn
dX dX
f (Y) = f ( g −1 (Y)) = M M 2. Buscamos la distribución conjunta de Y = (Y1 , Y2 )
dY dY
dxn dxn
L 3. Calculamos la marginal de Y1
dy1 dyn
53 54
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios

Ejemplo Ejemplo

4 x1 x2 0 < x1 , x2 < 1 0 < x1 , x2 < 1 (x1 =0,x 2 =0) → (y1 = 0 + 0, y2 = 0)


f X1 X 2 ( x1 , x2 ) =
0 en el resto
Y1 = X 1 + X 2 (x1 =0,x 2 =1) → (y1 = 1 + 0, y2 = 1)
Y2 = X 2 (x1 =1,x 2 =0) → (y1 = 1 + 0, y2 = 0)
 Buscamos la distribución conjunta de Y = (Y1 , Y2 ) (x1 =1,x 2 =1) → (y1 = 1 + 1, y2 = 1)
dX
f (Y) = f ( g −1 (Y))
dY (0,1) (1,1)

g ( X) = ( X 1 + X 2 , X 2 ) → g −1 (Y) = (Y1 − Y2 , Y2 )
1424 3 {
Y1 Y2 f (Y ) = 4( y1 − y2 ) y2
(0,0) (1,0)
dX 1 −1 ¿En−1 qué recinto está definida?
= =1 f ( g (Y)) = 4( y1 − y2 ) y2
dY 0 1
55 56
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios

Ejemplo Ejemplo
Calculamos las 4 rectas que delimitan el recinto:
0 < x1 , x2 < 1 (x1 =0,x 2 =0) → (y1 = 0 + 0, y2 = 0) 0 < x1 , x2 < 1
y2 = 0
Y1 = X 1 + X 2 (x1 =0,x 2 =1) → (y1 = 1 + 0, y2 = 1) Y1 = X 1 + X 2
0 < y1 < 1 0 < y2 < y1
y2 = 1
(x1 =1,x 2 =0) → (y1 = 1 + 0, y2 = 0) 1 < y2 < 2 y1 -1 < y2 < 1
Y2 = X 2 Y2 = X 2 y1 − y2 = 0
(x1 =1,x 2 =1) → (y1 = 1 + 1, y2 = 1) y1 − y2 = 1

(1,1) (1,1)
(0,1) (2,1)
1

(0,0)
y1 − y2 = 0 y1 − y2 = 1
f (Y) = 4( y1 − y2 ) y2
(0,0) (1,0) (1,0) 2
0 < y1 < 1 0 < y2 < y1
1 < y2 < 2 y1 -1 < y2 < 1
57 58
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios

Ejemplo Convolución de X1 y X2

Calculamos la marginal de Y1 Si X1 y X2 son variables aleatorias independientes con funciones de


densidad f X ( x1 ) y f X ( x2 ), la función de densidad de Y = X 1 + X 2 es
1 2

y1
3 3
∫ 4( y
1 − y2 ) y2 ∂y2 =
2
y1 0 < y1 < 1 +∞
fY1 ( y1 ) =
0 fY ( y ) = ∫ f X1 ( y − x) f X 2 ( x)∂x
1 −∞
8 3 3
∫y −1 4( y1 − y2 ) y2∂y2 = − 3 + 4 y1 − 2 y1 1 < y1 < 2
1

Se utiliza en casos como la transformada de Fourier

59 60
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios

Un caso que merece mención especial es el cálculo de esperanzas y Un caso que merece mención especial es el cálculo de esperanzas y
varianzas de transformaciones lineales: varianzas de transformaciones lineales:
Ym×1 = A m×n X n×1 m ≤ n Ym×1 = A m×n X n×1 m ≤ n

E [ Y ] = AE [ X ] E [ Y ] = AE [ X ]
Var [ Y ] = AM X A′ Var [ Y ] = AM X A′

Ejemplo Ejemplo

X  X 
Y = X1 + X 2 ⇒ Y = (1 1)  1  Y = X1 − X 2 ⇒ Y = (1 −1)  1 
 X2   X2 
E [ Y ] = E [ X1 ] + E [ X 2 ] E [ Y ] = E [ X1 ] − E [ X 2 ]
 Var [ X1 ] Cov( X1 , X 2 )  1  Var [ X1 ] Cov( X1 , X 2 )   1 
Var [ Y ] = (1 1)   = Var [ X1 ] + Var [ X 2 ] + 2Cov( X1 , X 2 ) Var [ Y ] = (1 −1)   = Var [ X1 ] + Var [ X 2 ] − 2Cov( X1 , X 2 )
 Cov ( X1 , X 2 ) Var [ X 2 ]  1 61  Cov ( X1 , X 2 ) Var [ X 2 ]   −1 62
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios


Ejemplo
Un caso que merece mención especial es el cálculo de esperanzas y
varianzas de transformaciones lineales: Una pieza en forma de U está formada por tres partes, A, B y C. La longitud
de A sigue una distribución Normal con media 10mm y desviación típica
Ym×1 = A m×n X n×1 m ≤ n
0.1mm. El grosor de las partes B y C se distribuye normalmente con media
E [ Y ] = AE [ X ] 2mm y desviación típica 0.05mm.
Suponiendo que las dimensiones de las partes son independientes:
Var [ Y ] = AM X A′
1. Determinar la media y desviación típica de la distribución del hueco D.
Caso particular: Distribución Normal 2. En esa pieza ha de encajar otra de 5.9 mm, ¿cuál es la probabilidad de
que una pieza de esta forma sea inservible?
X i ~ N ( µi , σ i ) i = 1, K, n independientes
Y = a1 X 1 + a2 X 2 + K + an X n Normal D
B C
n n
E [Y ] = ∑ ai µi Var [Y ] = ∑ ai2σ i2
i =1 i =1
A
63 64
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios
Ejemplo Ejemplo

1. Determinar la media y desviación típica de la distribución del hueco D. 2. En esa pieza ha de encajar otra de 7.9 mm, ¿cuál es la probabilidad de
que una pieza de esa forma sea inservible?
A ~ N (10, 0.1)
D = A− B −C D ~ N (6, 0.015)
B ~ N (2, 0.05) C ~ N (2, 0.05)
E [ D ] = 10 − 2 − 2 = 6  5.9 − 6 
Pr( D < 5.9) = Pr  Z < 
Var [ D ] = 0.1 + 0.05 + 0.05 = 0.015
2 2 2  0.122 
Pr( Z < −0.82) = 1 − Pr( Z ≤ 0.82)
D.T [ D ] = 0.122
1 − 0.7939 = 0.2061
D D
B C B C
El 20% de las
piezas fabricadas
A es inservible A
65 66
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán

Distribuciones Multivariantes 6. Distribución Normal multivariante

X 
1. Distribución conjunta de un vector aleatorio Si vector aleatorio X =  1  sigue una distribución Normal bivariante
X2
µ 
con vector de medias µ =  1  y matriz de varianzas-covarianzas
µ2 
2. Distribuciones marginales y condicionadas

 σ2 ρσ 1σ 2 
3. Independencia entre variables aleatorias Σ= 1 
 ρσ 1σ 2 σ 22 
4. Características de un vector aleatorio
tiene función de densidad:
Esperanza
 1 
f (X ) =
Varianza, Covarianza, Correlación 1
exp − ( X − µ)' Σ −1 ( X − µ) 
5. Transformaciones de vectores aleatorios (2π ) Σ 1/ 2
 2 

6. Distribución Normal multivariante 67 68


Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
The Bivariate Normal Distribution

f(x,y)

6. Distribución Normal multivariante σ1 = σ 2


σ1 = σ 2 σ1 = σ 2
y
y
y

 1 
f (X ) =
1
exp − ( X − µ )' Σ −1 ( X − µ)
(2π ) Σ 1/ 2
 2 
x
ρ=0
x
ρ = 0.90
ρ = −0.90

x
Contour Plots of the Bivariate Normal Distribution
 1 −ρ  y y y
σ1 = σ
 2 σ 1σ 2 
1  σ1
2
σ1 = σ 2
 σ 2
ρσ 1σ 2  
ρ=0
Función de densidad σ1 = σ 2

∑ = σ 1 σ 2 (1 − ρ ) −1 ρ = 0.9
Σ= 1

2 2 2
∑ = ρ = − 0.9

 ρσ 1σ 2 σ 22  (1 − ρ 2 )  − ρ 1  µ2 µ2 µ2
σ σ σ 22  Diagrama de dispersión
 1 2
µ1 x µ1 x µ1 x

Scatter Plots of data from the Bivariate Normal Distribution


1  1  x − µ  2  x − µ  2  x1 − µ1   x2 − µ 2   
f ( x1 , x2 ) = exp −  1  +  − 2ρ   
1 2 2 y y y
 σ1 = σ
( 2π ) σ 1σ 2  2(1 − ρ )  σ 1   σ 2   σ 1   σ 2   
2 σ1 = σ 2
(1 − ρ )
2 2 ρ=0 σ1 = σ 2
ρ = 0.9 ρ = − 0.9

µ2 µ2 µ2

69
µ1 x µ1 x µ1 x
Estadística. Profesora: María Durbán

6. Distribución Normal multivariante 6. Distribución Normal multivariante


Ejemplo

En el proceso de fabricación de lámparas electroluminiscentes (luz negra), se


X  µ   σ 12 ρσ 1σ 2  depositan capas de tinta en una base de plástico. El grosor de esas capas es
X= 1 µ= 1 Σ=  determinante a la hora de satisfacer las especificaciones relativas al color e intensidad
X2 µ2   ρσ 1σ 2 σ 22  de la luz.
Sean X e Y el grosor de dos capas de tinta, se sabe que ambas siguen una
distribución Normal, con medias 0.1mm y 0.23mm y desviaciones típicas 0.00031mm
Propiedades y 0.00017mm respectivamente. La correlación entre ambas es 0.
Las especificaciones de grosor son las siguientes:

ρ = 0 ⇒ X 1 , X 2 independientes 0.099535 ≤ X ≤ 0.100465


0.22966 ≤ Y ≤ 0.23039
X1 ~ N ( µ1 , σ 1 ) X 2 ~ N ( µ1 , σ 1 )
X1 | X 2 y X 2 | X1 son normales ¿Cuál es la probabilidad de que una lámpara elegida
al azar satisfaga las especificaciones?

71 72
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
6. Distribución Normal multivariante
Ejemplo

¿Cuál es la probabilidad de que una lámpara elegida al azar satisfaga las


especificaciones?
X ~ N (0.1, 0.00031) 0.099535 ≤ X ≤ 0.100465
Y ~ N (0.23, 0.00017) 0.22966 ≤ Y ≤ 0.23039
Pr(0.099535 ≤ X ≤ 0.100465, 0.22966 ≤ Y ≤ 0.23039)
ρ = 0 → independientes

Pr(0.099535 ≤ X ≤ 0.100465) Pr(0.22966 ≤ Y ≤ 0.23039)


Pr(−1.5 ≤ Z ≤ 1.5) Pr(−2 ≤ Z ≤ 2) =
( 2 Pr(Z ≤ 1.5) − 1)( 2 Pr( Z ≤ 2) − 1)
= 0.827
73
Estadística. Profesora: María Durbán

También podría gustarte