Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Vect Aleatorios PDF
Vect Aleatorios PDF
Distribuciones marginales y condicionadas Al final del tema el alumno será capaz de:
Independencia entre variables aleatorias Utilizar la función de probabilidad o densidad conjunta para el cálculo de
probabilidades
1.
1.Distribución
Distribuciónconjunta
conjuntade
deun
unvector
vectoraleatorio
aleatorio En el tema anterior estudiamos distribuciones de probabilidad para una
variable aleatoria. Sin embargo, a menudo nos interesa estudiar más de
una variable en un experimento aleatorio.
2. Distribuciones marginales y condicionadas
Por ejemplo, en la clasificación de señales emitidas y recibidas, cada señal
3. Independencia entre variables aleatorias se clasifica como de baja, media o alta calidad.
Podemos definir:
X=“número de señales de baja calidad recibidas”, e
4. Características de un vector aleatorio Y=“número de señales de alta calidad”.
Esperanza
Varianza, Covarianza, Correlación
En general, si X e Y son dos variables aleatorias, la distribución de
probabilidad que define simultáneamente su comportamiento se
5. Transformaciones de vectores aleatorios llama distribución de probabilidad conjunta.
F ( x0 , y0 ) = Pr( X ≤ x0 , Y ≤ y0 ) = ∑ ∑ Pr( X = x, Y = y)
x ≤ x0 y ≤ y0
5 6
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
En el desarrollo de un nuevo receptor para la transmisión de información En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida. aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.: Se transmiten 4 bits y se definen las siguientes v.a.:
Y Y
4 4.1x10-5 4 4.1x10-5
p ( x, y ) ≥ 0
Pr( X ≤ 1, Y ≤ 2)
∑∑ p( x, y) = 1
x y
2 1.54x10-5 1.38x10-3 3.11x10-2 2 1.54x10-5 1.38x10-3 3.11x10-2
0 1 2 3 4 X 7
0 1 2 3 4 X 8
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio 1. Distribución conjunta de un vector aleatorio
Distribución Multinomial Ejemplo
Un experimento se repite n veces de forma independiente: Las probabilidades de que cierta lámpara de un modelo de proyector dure
menos de 40 horas, entre 40 y 80 horas, y más de 80 horas de uso son
1. El experimento tiene k posibles resultados 0.3 ; 0.5 y 0.2 respectivamente.
2. La probabilidad de cada resultado, p1 , p2 ,K pk se mantiene constante Calcular la probabilidad de que entre 8 de tales lámparas, 2 duren menos de
40 horas; cinco duren entre 40 y 80 horas, y una dure más de 80 horas.
Dadas dos v.a. continuas, X , Y definimos su función distribución de La probabilidad ahora se calcula como un volumen:
probabilidad mediante la función de densidad conjunta:
b d
Pr(a ≤ X ≤ b, c ≤ Y ≤ d ) = ∫ ∫ f ( x, y )dxdy
a c
f ( x, y )
Como en el caso unidimensional está función debe verificar:
f ( x, y ) ≥ 0
+∞ +∞
∫ ∫
−∞ −∞
f ( x, y )dxdy = 1
Pr(−1 ≤ X ≤ 1, −1.5 ≤ Y ≤ 1.5)
2
La función de distribución conjunta:
d F ( x, y )
f ( x , y ) =
F ( x , y ) = Pr( X ≤ x , Y ≤ y ) = ∫ ∫
y0 x0
f ( x, y )dxdy
0 0
dxdy 0 0
−∞ −∞
11 12
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio 1. Distribución conjunta de un vector aleatorio
Variables continuas Ejemplo
13 14
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
¿ Pr( X < 1000, Y < 2000) ? ¿ Pr( X < 1000, Y < 2000) ?
Y Y
3000 3000
Recinto donde la función de
densidad no es 0
2000 2000
Recinto de integración para el cálculo
de esa probabilidad
1000 1000
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
2000 2000
x=y x=y
1000 1000
1. Distribución conjunta de un vector aleatorio Si se definen más de una v.a. en un experimento, es importante
distinguir entre la distribución de probabilidad conjunta y la distribución
de probabilidad de cada variable individualmente. A la distribución de
2. Distribuciones marginales y condicionadas cada variable se le denomina distribución marginal.
Variables Discretas
3. Independencia entre variables aleatorias
Dadas dos v.a. discretas, X , Y con función de probabilidad conjunta
p( x, y ) las funciones de probabilidad marginales de ambas variables son:
4. Características de un vector aleatorio
p X ( x) = Pr( X = x) = ∑ Pr( X = x, Y = y )
Esperanza ∀y
Son funciones de probabilidad
Varianza, Covarianza, Correlación
pY ( y ) = Pr(Y = y ) = ∑ Pr( X = x, Y = y )
∀x
5. Transformaciones de vectores aleatorios Se puede calcular su esperanza,
varianza, etc.
En el desarrollo de un nuevo receptor para la transmisión de información En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida. aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.: Se transmiten 4 bits y se definen las siguientes v.a.:
Y Y
X = Número de bits aceptables X = Número de bits aceptables
Las funciones de probabilidad 4 4.1x10 -5 Las funciones de probabilidad
Y = Número de bits sospechosos Y = Número de bits sospechosos
marginal se obtendrían marginal se obtendrían
sumando en ambas 3 4.1x10-5 1.84x10-3 sumando en ambas
direcciones. direcciones.
2 1.54x10-5 1.38x10-3 3.11x10-2
0 1 2 3 4 X 21
0 1 2 3 4 X 22
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
En el desarrollo de un nuevo receptor para la transmisión de información En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida. aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.: Se transmiten 4 bits y se definen las siguientes v.a.:
Y Y
X = Número de bits aceptables X = Número de bits aceptables
Las funciones de probabilidad 4 4.1x10 -5 Las funciones de probabilidad 4 0.00004
Y = Número de bits sospechosos Y = Número de bits sospechosos
marginal se obtendrían marginal se obtendrían
sumando en ambas 3 4.1x10-5 1.84x10-3 sumando en ambas 3 0.00188
direcciones direcciones
2 1.54x10-5 1.38x10-3 3.11x10-2 2 0.03250
1 0.24925
1 2.56x10-6 3.46x10-4 1.56x10-2 0.2333
0 1 2 3 4 X 23 X 24
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
2. Distribuciones marginales 2. Distribuciones marginales
Variables Continuas Ejemplo
Dadas dos v.a. continuas, X , Y con función de densidad conjunta f ( x, y )
las funciones de densidad marginal de ambas variables son:
Sea X la variable aleatoria que representa el tiempo hasta que un servidor
+∞ se conecta con tu ordenador (en milisegundos) e Y el tiempo hasta que el
f X ( x) = ∫ f ( x, y )dy Son funciones de densidad
servidor te autoriza como usuario.
−∞
+∞ La función de densidad conjunta viene dada por
fY ( y ) = ∫ f ( x, y )dx Se puede calcular su esperanza,
−∞
varianza, etc. f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
0.4
f(x)
0.2
0.1
0.0
-4 -2
x
0 2 4 25 26
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
¿ Pr(Y > 2000) ? Y ¿ Pr(Y > 2000) ?
Y
Podemos resolverlo de dos formas: Podemos resolverlo de dos formas:
1000
Pr(Y > 2000) = ∫ ∫ f ( x, y )dxdy = 0.05
2000 0
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
Y ¿ Pr(Y > 2000) ? Y ¿ Pr(Y > 2000) ?
Y Y
Podemos resolverlo de dos formas: Podemos resolverlo de dos formas:
3000 Calcular la función de densidad marginal 3000 Calcular la función de densidad marginal
de Y y calcular esa probabilidad de Y y calcular esa probabilidad
2000 y 2000 +∞
fY ( y ) = ∫ f ( x, y )dx = 6 × 10−3 e −0.002 y (1 − e −0.001 y ) y>0 Pr(Y > 2000) = ∫ fY ( y )dy = 0.05
0 2000
1000 1000
0 0
1000 2000 3000 X 29 30
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
Cuando se definen más de una v.a. en un experimento, el conocimiento Cuando se definen más de una v.a. en un experimento, el conocimiento
de una de las variables puede afectar a las probabilidades que se asocian de una de las variables puede afectar a las probabilidades que se asocian
con los valores de la otra variable con los valores de la otra variable
En el desarrollo de un nuevo receptor para la transmisión de información En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida. aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.: Se transmiten 4 bits y se definen las siguientes v.a.:
35 36
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
2. Distribuciones condicionadas 2. Distribuciones condicionadas
Ejemplo Ejemplo
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y ) 0< x< y
Y ¿ Pr(Y > 2000 | X = 1500) ? Y ¿ Pr(Y > 2000 | X = 1500) ?
Y Y
f ( x, y ) f ( y | x) = 0.002e0.002 x −0.002 y 0 < x < y
f ( y | x) =
3000 f X ( x) 3000
+∞
2000 f X ( x) = ∫
+∞
f ( x, y )dy = 0.003e −0.003 x x>0 2000 Pr(Y > 2000 | X = 1500) = ∫ f ( y | X = 1500)dy
2000
x
+∞
=∫ 0.002e3−0.002 y dy
1000 0.002 x − 0.002 y 1000
f ( y | x) = 0.002e 0< x< y
2000
= 0.368
0 0
1000 2000 3000 X 37 1000 2000 3000 X 38
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio En algunos experimentos, el conocimiento de una de las variables puede
no afectar ninguna de las probabilidades que se asocian con los valores
de la otra variable
2. Distribuciones marginales y condicionadas
3.Independencia
3. Independenciaentre
entrevariables
variablesaleatorias
aleatorias
Esperanza Pr ( A ∩ B ) = Pr ( A) Pr (B )
Pr ( A | B ) = Pr ( A)
Varianza, Covarianza, Correlación
Diremos que dos variables X , Y son independientes si: Diremos que dos variables X , Y son independientes si:
p ( y | x) = pY ( y ) p ( x | y ) = p X ( x) f ( y | x ) = fY ( y ) f ( x | y ) = f X ( x)
p ( x, y ) = p ( x | y ) pY ( y ) = p X ( x) pY ( y ) ∀x, y f ( x, y ) = f ( x | y ) fY ( y ) = f X ( x ) fY ( y ) ∀x, y
41 42
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
Esperanza
f ( y | x) = 0.002e0.002 x −0.002 y 0 < x < y Varianza, Covarianza, Correlación
X1 Covarianza
X
Dadas n v.a. X 1 , X 2 ,K, X n definimos el vector n-dimensional X = 2
M Primero comenzamos por definir la covarianza entre dos variables:
Xn
La función de probabilidad/densidad del vector es la función de Es una medida de la relación lineal entre dos variables
probabilidad/densidad conjunta de los componentes del vector.
Cov( X , Y ) = E ( X − E [ X ]) (Y − E [Y ]) = E [ XY ] − E [ X ] E [Y ]
Esperanza
Propiedades
Se define el vector de medias como el vector cuyas componentes son
las medias o esperanzas de cada componente. Si X , Y son independientes ⇒ Cov( X , Y ) = 0 ya que E [ XY ] = E [ X ] E [Y ]
E [ X1 ] Si Cov( X , Y ) = 0 ⇒ X , Y sean independientes
E [ X 2 ] Si hacemos un cambio de origen y escala:
µ = E [ X] = Z = aX + b
M ⇒ Cov(Z ,W ) = acCov( X , Y )
W = cY + d
E [ X n ] 45 46
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
Covarianza
Cov( X , Y ) = E ( X − E [ X ]) (Y − E [Y ]) = E [ XY ] − E [ X ] E [Y ]
¿Cómo lo calculamos?
Necesitamos calcular la esperanza de una función de dos variables ´Covarianza positiva Covarianza cero
aleatorias:
Hay relación
∑∑ h( x, y) p( x, y) pero no
E [ h( X , Y ) ] = x y lineal
+∞ +∞
∫ ∫
−∞ −∞
h( x, y ) f ( x, y )dxdy
47 48
Estadística. Profesora: María Durbán Covarianza
Estadística. Profesora: negativa
María Durbán Covarianza cero
4. Características de un vector aleatorio 4. Características de un vector aleatorio
Ejemplo
Correlación
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no La correlación entre dos variables también es una medida de la relación
aceptable, dependiendo de la calidad de la señal recibida. lineal entre dos variables
Se transmiten 4 bits y se definen las siguientes v.a.: Cov( X , Y )
ρ ( X ,Y ) =
X = Número de bits aceptables Var [ X ]Var [Y ]
Y = Número de bits sospechosos
49 50
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
Esperanza
Propiedades Varianza, Covarianza, Correlación
5. Transformaciones
5. Transformaciones de
de vectores
vectores aleatorios
aleatorios
Simétrica (ella y su matriz traspuesta coinciden)
Semidefinida positiva (todos sus autovalores son ≥ 0)
51 6. Distribución Normal multivariante 52
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios
Ejemplo Ejemplo
g ( X) = ( X 1 + X 2 , X 2 ) → g −1 (Y) = (Y1 − Y2 , Y2 )
1424 3 {
Y1 Y2 f (Y ) = 4( y1 − y2 ) y2
(0,0) (1,0)
dX 1 −1 ¿En−1 qué recinto está definida?
= =1 f ( g (Y)) = 4( y1 − y2 ) y2
dY 0 1
55 56
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios
Ejemplo Ejemplo
Calculamos las 4 rectas que delimitan el recinto:
0 < x1 , x2 < 1 (x1 =0,x 2 =0) → (y1 = 0 + 0, y2 = 0) 0 < x1 , x2 < 1
y2 = 0
Y1 = X 1 + X 2 (x1 =0,x 2 =1) → (y1 = 1 + 0, y2 = 1) Y1 = X 1 + X 2
0 < y1 < 1 0 < y2 < y1
y2 = 1
(x1 =1,x 2 =0) → (y1 = 1 + 0, y2 = 0) 1 < y2 < 2 y1 -1 < y2 < 1
Y2 = X 2 Y2 = X 2 y1 − y2 = 0
(x1 =1,x 2 =1) → (y1 = 1 + 1, y2 = 1) y1 − y2 = 1
(1,1) (1,1)
(0,1) (2,1)
1
(0,0)
y1 − y2 = 0 y1 − y2 = 1
f (Y) = 4( y1 − y2 ) y2
(0,0) (1,0) (1,0) 2
0 < y1 < 1 0 < y2 < y1
1 < y2 < 2 y1 -1 < y2 < 1
57 58
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
Ejemplo Convolución de X1 y X2
y1
3 3
∫ 4( y
1 − y2 ) y2 ∂y2 =
2
y1 0 < y1 < 1 +∞
fY1 ( y1 ) =
0 fY ( y ) = ∫ f X1 ( y − x) f X 2 ( x)∂x
1 −∞
8 3 3
∫y −1 4( y1 − y2 ) y2∂y2 = − 3 + 4 y1 − 2 y1 1 < y1 < 2
1
59 60
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios 5. Transformaciones de vectores aleatorios
Un caso que merece mención especial es el cálculo de esperanzas y Un caso que merece mención especial es el cálculo de esperanzas y
varianzas de transformaciones lineales: varianzas de transformaciones lineales:
Ym×1 = A m×n X n×1 m ≤ n Ym×1 = A m×n X n×1 m ≤ n
E [ Y ] = AE [ X ] E [ Y ] = AE [ X ]
Var [ Y ] = AM X A′ Var [ Y ] = AM X A′
Ejemplo Ejemplo
X X
Y = X1 + X 2 ⇒ Y = (1 1) 1 Y = X1 − X 2 ⇒ Y = (1 −1) 1
X2 X2
E [ Y ] = E [ X1 ] + E [ X 2 ] E [ Y ] = E [ X1 ] − E [ X 2 ]
Var [ X1 ] Cov( X1 , X 2 ) 1 Var [ X1 ] Cov( X1 , X 2 ) 1
Var [ Y ] = (1 1) = Var [ X1 ] + Var [ X 2 ] + 2Cov( X1 , X 2 ) Var [ Y ] = (1 −1) = Var [ X1 ] + Var [ X 2 ] − 2Cov( X1 , X 2 )
Cov ( X1 , X 2 ) Var [ X 2 ] 1 61 Cov ( X1 , X 2 ) Var [ X 2 ] −1 62
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
1. Determinar la media y desviación típica de la distribución del hueco D. 2. En esa pieza ha de encajar otra de 7.9 mm, ¿cuál es la probabilidad de
que una pieza de esa forma sea inservible?
A ~ N (10, 0.1)
D = A− B −C D ~ N (6, 0.015)
B ~ N (2, 0.05) C ~ N (2, 0.05)
E [ D ] = 10 − 2 − 2 = 6 5.9 − 6
Pr( D < 5.9) = Pr Z <
Var [ D ] = 0.1 + 0.05 + 0.05 = 0.015
2 2 2 0.122
Pr( Z < −0.82) = 1 − Pr( Z ≤ 0.82)
D.T [ D ] = 0.122
1 − 0.7939 = 0.2061
D D
B C B C
El 20% de las
piezas fabricadas
A es inservible A
65 66
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
X
1. Distribución conjunta de un vector aleatorio Si vector aleatorio X = 1 sigue una distribución Normal bivariante
X2
µ
con vector de medias µ = 1 y matriz de varianzas-covarianzas
µ2
2. Distribuciones marginales y condicionadas
σ2 ρσ 1σ 2
3. Independencia entre variables aleatorias Σ= 1
ρσ 1σ 2 σ 22
4. Características de un vector aleatorio
tiene función de densidad:
Esperanza
1
f (X ) =
Varianza, Covarianza, Correlación 1
exp − ( X − µ)' Σ −1 ( X − µ)
5. Transformaciones de vectores aleatorios (2π ) Σ 1/ 2
2
f(x,y)
1
f (X ) =
1
exp − ( X − µ )' Σ −1 ( X − µ)
(2π ) Σ 1/ 2
2
x
ρ=0
x
ρ = 0.90
ρ = −0.90
x
Contour Plots of the Bivariate Normal Distribution
1 −ρ y y y
σ1 = σ
2 σ 1σ 2
1 σ1
2
σ1 = σ 2
σ 2
ρσ 1σ 2
ρ=0
Función de densidad σ1 = σ 2
∑ = σ 1 σ 2 (1 − ρ ) −1 ρ = 0.9
Σ= 1
2 2 2
∑ = ρ = − 0.9
ρσ 1σ 2 σ 22 (1 − ρ 2 ) − ρ 1 µ2 µ2 µ2
σ σ σ 22 Diagrama de dispersión
1 2
µ1 x µ1 x µ1 x
µ2 µ2 µ2
69
µ1 x µ1 x µ1 x
Estadística. Profesora: María Durbán
71 72
Estadística. Profesora: María Durbán Estadística. Profesora: María Durbán
6. Distribución Normal multivariante
Ejemplo