Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PyEC10 PDF
PyEC10 PDF
pX ( x1 ,..., x k ) = P( X 1 = x1 ,...., X k = x k )
1 ,... X k
En forma similar a lo hecho para el caso bidimensional se pueden definir las funciones
de probabilidad marginal. Por ejemplo, la función de probabilidad marginal de X 1 está
dada por:
104
Notación: (X1,...,Xk) ~ M(n, p1,...pk)
n! k
x2 x2 xk
x ! x !...x ! p1 p 2 ... p k si 0 ≤ x i ≤ n ∀ i , ∑x i =n
1 2 k i =1
p X 1 ,..., X k ( x1 ,..., x k ) = (1)
0 en otro caso
Como hemos supuesto independencia entre las repeticiones, esa configuración tiene
x x x
probabilidad p1 1 p 2 2 .... p k k , pero es sólo una de las configuraciones posibles que
producen xi resultados Ri para 1 ≤ i ≤ k.
n n − x1 n − x1 − x 2 x n! (n − x1 )! x !
⋅ ⋅ ...... k = ⋅ ⋅⋅⋅⋅ k =
x1 x 2 x3 x k x1! (n − x1 )! x 2 ! (n − x1 − x 2 )! x k ! 0!
n!
=
x1! x 2 !.... x k !
105
Ejemplo: De una urna que contiene 3 bolillas rojas, 2 negras, 4 azules y 1 blanca se
extraen 12 bolillas con reposición. Definiendo
3 2 4 1
( X 1 , X 2 , X 3 , X 4 ) ~ M 12, , , ,
10 10 10 10
3 5 4 0
12! 3 2 4 1
p X , X , X , X (3,5,4,0) = = 0.006
1 2 3 4 3! 5! 4! 0! 10 10 10 10
3
Como X 1 ~ Bi12, , entonces
10
i 12 −i
2 2
12 3 7
P ( X 1 ≤ 2) = ∑ p X 1 (i ) = ∑ =0.25
i =0 i = 0 i 10 10
Como las v.a. que nos interesan son X1 y X4, defino una nueva v.a. Y = X2 + X3. El vector
aleatorio (X1 , X4 , Y) también tendrá distribución multinomial.
3 1 6
( X 1 , X 4 , Y ) ~ M 12, , ,
10 10 10
3 2 7
12! 3 1 6
p X1 , X 4 ,Y (3,2,7) = = 0.06
3! 2! 7! 10 10 10
106
P(( X 1 ,..., X k ) ∈ A) = ∫ ...∫ f X ( x1 , x 2 ,..., x k ) dx1 ...dx k ∀ A ⊆ ℜk
1 ,..., X k
A
∞ ∞
• ∫ ...... ∫ f X ,... X ( x1 ,...x k ) dx1 .....dx k = 1
−∞ −∞ 1 k
En forma similar a lo hecho para el caso bidimensional se pueden definir las funciones
de densidad marginal. Por ejemplo, la función de densidad marginal de X 1 está dada
por:
∞ ∞
f X 1 ( x1 ) = ∫ .... ∫ f X ( x1 , x 2 ,..., x k ) dx 2 ....dx k
1 ,..., X k
−∞ −∞
∞ ∞
f X 1 , X 2 ( x1 , x 2 ) = ∫ ... ∫ f X ( x1 , x 2 ,..., x k ) dx 3 ...dx k
1 ,..., X k
−∞ −∞
107
1 / 6 si 0 ≤ x 1 ≤ 1, 0 ≤ x 2 ≤ 2, 0 ≤ x 3 ≤ 3
f X1 , X 2 , X 3 ( x1 , x 2 , x 3 ) =
0 en otro caso
Es inmediato verificar que las componentes del vector son variables aleatorias
independientes, ya que
3 2 1 1
∫ ∫ dx 2 dx3 = ⋅ 6 = 1 si x1 ∈ [0,1]
f X 1 ( x1 ) = 0 0 6 6
0
si x1 ∉ [0,1]
3 1 1 1 1
si x 2 ∈ [0,2]
f X 2 ( x 2 ) = ∫0 ∫0 6 1 3 6
dx dx = ⋅ 3 =
2
0
si x 2 ∉ [0,2]
2 1 1 1 1
∫ ∫ dx1 dx 2 = ⋅ 2 = si x3 ∈ [0,3]
f X 3 ( x3 ) = 0 0 6 6 3
0
si x3 ∉ [0,3]
entonces,
f X1 , X 2 , X 3 ( x1 , x 2 , x 3 ) = f X 1 ( x1 ) f X 2 ( x 2 ) f X 3 ( x 3 ) ∀ ( x1 , x 2 , x 3 )
Sean X e Y dos v.a. de las cuáles se conoce la distribución conjunta. Estamos interesados
en la distribución de la v.a. V = X + Y.
Consideraremos dos ejemplos, uno para el caso de un vector aleatorio discreto y otro
para el caso continuo.
∞ k
P ( X + Y = k ) = ∑ p XY (i, k − i ) = ∑ p X (i ) pY ( k − i )
i =0 i =0
108
−µ −(λ + µ ) k
e −λ λi e µ k −i e k!
λi µ k −i =
k
P( X + Y = k ) = ∑ ⋅ = ∑
i =0 i! (k − i )! k! i = 0 i ! (k − i) !
−(λ + µ )
e
= (λ + µ ) k .
k!
X + Y ~ P(λ + µ)
Este resultado se extiende por inducción al caso de n v.a. : si X1,..., Xn son v.a.
independientes tales que Xi ~ P(λi) para i = 1,...,n, entonces X1 +...+ Xn ~ P(λ1 + ...+λn).
FV (v ) = P ( X + Y ≤ v ) = ∫∫ f ( x, y ) dx dy = ∫∫ f ( x ) f ( y ) dx dy
XY X Y
{( x , y ) / x + y ≤ v} {( x , y ) / x + y ≤ v}
v v− y v v− y
−λy
P ( X + Y ≤ v ) = ∫ ∫ f X ( x ) f Y ( y ) dx dy = ∫ ∫ λ e −λx λ e dx dy =
0 0 0 0
−λ y
v v− y v
= ∫λ e − λ x dx dy = λ e − λ y 1 − e − λ (v − y ) dy =
∫ λe ∫
0
0 0
v
v
−λ y
= ∫λ e dy − ∫ λ e − λ v dy = 1 − e − λ v − λ e − λ v v
0
0
( )
f V (v ) = λ e − λ v + λ 2 e − λ v v − λ e − λ v I ( 0 , ∞ ) (v ) = λ 2 e − λ v v I ( 0 , ∞ ) ( v )
109
lo que demuestra que V tiene distribución Gamma de parámetros (2,λ).
X + Y ~ Γ(α+β,λ)
M X +Y (t ) = M X (t ) M Y (t )
∞ ∞ ∞ ∞
(
M X +Y (t ) = E e t ( X +Y )
)= ∫ ∫ e t ( x+ y)
f XY ( x, y ) dx dy = ∫ ∫ e tx e ty f X ( x) f Y ( y ) dx dy =
− ∞− ∞ − ∞− ∞
∞ ∞
( ) ( )
= ∫ e tx f X ( x) dx ∫ e ty f Y ( y ) dy = E e tX E e tY = M X (t) M Y (t)
−∞ −∞
n
MX
1+ X 2 +...+ X n (t ) = ∏ M X i (t )
i =1
110
2
λ λ λ
M X +Y (t ) = M X (t ) M Y (t ) = =
λ −t λ −t λ −t
y se obtiene la función generadora de momentos de una v.a. Γ(2,λ) como queríamos
demostrar.
n n
E ∑ ai X i = ∑ ai µ i
i =1 i =1
(1)
n n
V ∑ ai X i = ∑ ai2σ i2 + 2∑ ai a j cov( X i , X j )
i =1 i =1 i< j
E (a1 X 1 + a 2 X 2 ) = a1 E ( X 1 ) + a 2 E ( X 2 )
En primer lugar,
k +1 k
E ∑ a i X i = E ∑ a i X i + a k +1 X k +1 = E (Y + a k +1 X k +1 )
i =1 i =1
k
siendo Y = ∑a X
i =1
i i . Como para n = 2 se cumple, se obtiene
k +1 k
E ∑ a i X i = E (Y + a k +1 X k +1 ) = E (Y ) + a k +1 E ( X k +1 ) = E ∑ a i X i + a k +1 µ k +1
i =1 i =1
k +1 k k +1
E ∑ a i X i = ∑ a i µ i +a k +1 µ k +1 = ∑ a i µ i
i =1 i =1 i =1
111
Probemos ahora la expresión correspondiente a la varianza. Observemos en primer lugar
que si n = 2,
(
V (a1 X 1 + a 2 X 2 ) = E [(a1 X 1 + a 2 X 2 ) − E (a1 X 1 + a 2 X 2 )] =
2
)
( ) (
= E [(a1 X 1 + a 2 X 2 ) − (a1 µ1 + a 2 µ 2 )] = E [(a1 X 1 − a1 µ1 ) + (a 2 X 2 − a 2 µ 2 )] =
2 2
)
= E (a1 ( X 1 − µ1 ) ) + E (a 2 ( X 2 − µ 2 ) ) + 2 E [a1 a 2 ( X 1 − µ1 )( X 2 − µ 2 )] =
2 2
En general,
n n n
n n n n
V ∑ a i X i = cov ∑ a i X i , ∑ a i X i = E ∑ a i X i ⋅ ∑ a j X j − E ∑ a i X i E ∑ a j X j =
i =1 i =1 i =1 i =1 j =1 i =1 j =1
n n n n
= E ∑∑ ai a j X i X j − ∑ ai µ i ∑ a j µ j =
i =1 j =1 i =1 j =1
n n n n
= ∑∑ ai a j E (X i X j ) − ∑∑ ai a j µ i µ j =
i =1 j =1 i =1 j =1
= ∑∑ ai a j (E ( X i X j ) − µ i µ j ) = ∑∑ ai a j cov( X i , X j )
n n n n
i =1 j =1 i =1 j =1
n n n n
E ∑ ai X i = ∑ ai µ i V ∑ ai X i = ∑ a i2σ i2
i =1 i =1 i =1 i =1
Dem: Resulta inmediatamente del hecho que, por ser las v.a. independientes,
cov( X i , X j ) = 0 ∀i ≠ j .
112
Corolario: Sean X 1 , X 2 ,..., X n v.a. independientes e idénticamente distribuidas (i.i.d.)
con E ( X i ) = µ y V ( X i ) = σ 2 ∀ i = 1,..., n y a1 , a 2 ,..., a n números reales, entonces
n n
n n
E ∑ ai X i = µ ∑ ai V ∑ a i X i = σ 2 ∑ ai2
i =1 i =1 i =1 i =1
n
n
a) E ∑ X i = nµ
i =1
V ∑ X i = nσ 2
i =1
n n
∑ Xi ∑ Xi
=σ
2
b) E ( X ) = E i =1 =µ V(X ) = V i =1
n n n
Dem: Ejercicio.
113