Está en la página 1de 10

Vectores aleatorios.

Extensión a más de dos dimensiones

Definición: Sean X 1 ,..., X k variables aleatorias discretas, la función de probabilidad


conjunta del vector aleatorio ( X 1 ,..., X k ) se define como:

pX ( x1 ,..., x k ) = P( X 1 = x1 ,...., X k = x k )
1 ,... X k

y, dado cualquier conjunto A ⊂ ℜ k ,

P (( X 1 ,... X k ) ∈ A) = ∑ .. ... ∑ p X ( x1 ,..., x k )


1 ,..., X k
( x1,..., xk )∈A

Esta función satisface las siguientes propiedades:

• p X ,..., X ( x1 ,..., x k ) ≥ 0 ∀ ( x ,..., x )


1 k 1 k

• ∑ ... ∑ p X ,..., X ( x1 , x 2 ,..., x k ) = 1


x1 xk 1 k

En forma similar a lo hecho para el caso bidimensional se pueden definir las funciones
de probabilidad marginal. Por ejemplo, la función de probabilidad marginal de X 1 está
dada por:

p X ( x1 ) = ∑ ... ∑ p X ,..., X ( x1 , x 2 ,..., x k )


1 x x 2
1
k
k

y la función de probabilidad marginal de ( X 1 , X 2 ) está dada por:

p X , X ( x1 , x 2 ) = ∑ ... ∑ p X ,..., X ( x1 , x 2 ,..., x k )


1 2 x3 xk 1 k

Distribución multinomial: Es una generalización de la distribución Binomial. Supongamos


que se repite n veces en forma independiente una experiencia, que en cada repetición
hay k resultados posibles (k ≥ 2), cada uno de los cuales ocurre con probabilidad pi
(1 ≤ i ≤ k) y que estas probabilidades se mantienen constantes en todas las repeticiones.
Este experimento se denomina experimento multinomial. Si definimos

Xi: número de veces que ocurre el resultado i (1 ≤ i ≤ k)

la distribución conjunta de (X1,...,Xk) se denomina distribución multinomial de parámetros


n, p1,...pk .

104
Notación: (X1,...,Xk) ~ M(n, p1,...pk)

La correspondiente función de probabilidad conjunta está dada por

 n! k
x2 x2 xk
 x ! x !...x ! p1 p 2 ... p k si 0 ≤ x i ≤ n ∀ i , ∑x i =n
 1 2 k i =1
p X 1 ,..., X k ( x1 ,..., x k ) =  (1)
 0 en otro caso

En efecto, en primer lugar hay que notar que si x1 + x 2 + ... + x k ≠ n , la función de


probabilidad puntual es cero. Sean ahora 0 ≤ x i ≤ n, tales que x1 + x 2 + ... + x k = n .
Indicando por Ri (1 ≤ i ≤ k) cada uno de los k resultados posibles, una de las posibles
configuraciones que producen xi resultados Ri (1 ≤ i ≤ k), es

R ...R R ...R ........Rk ...R k


11231 12232 123
x1 x2 xk

(alguno de los xi ' s podría ser 0, en cuyo caso no aparecería ningún Ri ).

Como hemos supuesto independencia entre las repeticiones, esa configuración tiene
x x x
probabilidad p1 1 p 2 2 .... p k k , pero es sólo una de las configuraciones posibles que
producen xi resultados Ri para 1 ≤ i ≤ k.

¿Cuántas configuraciones diferentes hay?

 n   n − x1   n − x1 − x 2  x  n! (n − x1 )! x !
  ⋅   ⋅   ...... k  = ⋅ ⋅⋅⋅⋅ k =
 x1   x 2   x3   x k  x1! (n − x1 )! x 2 ! (n − x1 − x 2 )! x k ! 0!

n!
=
x1! x 2 !.... x k !

y se obtiene la función de probabilidad dada en (1).

Observación: La distribución marginal de X i es binomial de parámetros n y p i para todo


1 ≤ i ≤ k . En general, las marginales de una distribución multinomial son binomiales o
multinomiales.

105
Ejemplo: De una urna que contiene 3 bolillas rojas, 2 negras, 4 azules y 1 blanca se
extraen 12 bolillas con reposición. Definiendo

X1: número de bolillas rojas


X2: número de bolillas negras
X3: número de bolillas azules
X4: número de bolillas blancas

el vector (X1, X2, X3, X4) tiene distribución multinomial, es decir

 3 2 4 1
( X 1 , X 2 , X 3 , X 4 ) ~ M 12, , , , 
 10 10 10 10 

a) ¿Cuál es la probabilidad de que se obtengan 3 bolillas rojas, 5 negras, 4 azules y


ninguna blanca?

3 5 4 0
12!  3   2   4   1 
p X , X , X , X (3,5,4,0) =         = 0.006
1 2 3 4 3! 5! 4! 0!  10   10   10   10 

b) Calcular la probabilidad de obtener a lo sumo dos bolillas rojas.

 3
Como X 1 ~ Bi12,  , entonces
 10 

i 12 −i
2 2
12   3  7
P ( X 1 ≤ 2) = ∑ p X 1 (i ) = ∑       =0.25
i =0 i = 0  i   10   10 

c) Calcular la probabilidad de obtener 3 bolillas rojas y 2 blancas.

Como las v.a. que nos interesan son X1 y X4, defino una nueva v.a. Y = X2 + X3. El vector
aleatorio (X1 , X4 , Y) también tendrá distribución multinomial.

 3 1 6
( X 1 , X 4 , Y ) ~ M 12, , , 
 10 10 10 

y, por lo tanto, la probabilidad pedida será

3 2 7
12!  3   1   6 
p X1 , X 4 ,Y (3,2,7) =       = 0.06
3! 2! 7!  10   10   10 

Definición: El vector aleatorio ( X 1 ,..., X k ) es continuo si existe una función


fX : ℜ k → ℜ ≥0 , denominada función de densidad conjunta, tal que
1 ,..., X k

106
P(( X 1 ,..., X k ) ∈ A) = ∫ ...∫ f X ( x1 , x 2 ,..., x k ) dx1 ...dx k ∀ A ⊆ ℜk
1 ,..., X k
A

Esta función satisface las siguientes propiedades:

• f X ,..., X ( x1 ,..., x k ) ≥ 0 ∀ ( x ,..., x )


1 k 1 k

∞ ∞
• ∫ ...... ∫ f X ,... X ( x1 ,...x k ) dx1 .....dx k = 1
−∞ −∞ 1 k

En forma similar a lo hecho para el caso bidimensional se pueden definir las funciones
de densidad marginal. Por ejemplo, la función de densidad marginal de X 1 está dada
por:

∞ ∞
f X 1 ( x1 ) = ∫ .... ∫ f X ( x1 , x 2 ,..., x k ) dx 2 ....dx k
1 ,..., X k
−∞ −∞

y la función de densidad marginal de ( X 1 , X 2 ) , está dada por:

∞ ∞
f X 1 , X 2 ( x1 , x 2 ) = ∫ ... ∫ f X ( x1 , x 2 ,..., x k ) dx 3 ...dx k
1 ,..., X k
−∞ −∞

Definición: X 1 ,..., X k son variables aleatorias independientes si y sólo si

p X 1 ,..., X k ( x1 ,..., x k ) = p X 1 ( x1 ) ... p X k ( x k ) ∀ ( x1 ,..., x k ) en el caso discreto

f X 1 ,..., X k ( x1 ,..., x k ) = f X 1 ( x1 ) .... f X k ( x k ) ∀ ( x1 ,..., x k ) en el caso continuo

Ejemplos: 1) En el caso de la distribución multinomial, las componentes del vector


aleatorio son v.a. con distribución binomial no independientes y esto que es intuitivo ya
que su suma es constante (es igual a n), puede verificarse aplicando la definición.

2) Sea ( X 1 , X 2 , X 3 ) un vector aleatorio con distribución uniforme en el prisma de


vértices (0,0,0),(1,0,0),(0,2,0),(1,2,0),(0,0,3),(1,0,3),(0,2,3),(1,2,3), cuyo volumen es igual a
6. Entonces, su función de densidad conjunta dada por

107
1 / 6 si 0 ≤ x 1 ≤ 1, 0 ≤ x 2 ≤ 2, 0 ≤ x 3 ≤ 3
f X1 , X 2 , X 3 ( x1 , x 2 , x 3 ) = 
 0 en otro caso

Es inmediato verificar que las componentes del vector son variables aleatorias
independientes, ya que

3 2 1 1
∫ ∫ dx 2 dx3 = ⋅ 6 = 1 si x1 ∈ [0,1]
f X 1 ( x1 ) =  0 0 6 6
0
 si x1 ∉ [0,1]

3 1 1 1 1
si x 2 ∈ [0,2]
f X 2 ( x 2 ) = ∫0 ∫0 6 1 3 6
 dx dx = ⋅ 3 =
2
0
 si x 2 ∉ [0,2]

2 1 1 1 1
∫ ∫ dx1 dx 2 = ⋅ 2 = si x3 ∈ [0,3]
f X 3 ( x3 ) =  0 0 6 6 3
0
 si x3 ∉ [0,3]

entonces,

f X1 , X 2 , X 3 ( x1 , x 2 , x 3 ) = f X 1 ( x1 ) f X 2 ( x 2 ) f X 3 ( x 3 ) ∀ ( x1 , x 2 , x 3 )

Distribución de la suma de dos variables aleatorias

Sean X e Y dos v.a. de las cuáles se conoce la distribución conjunta. Estamos interesados
en la distribución de la v.a. V = X + Y.

Consideraremos dos ejemplos, uno para el caso de un vector aleatorio discreto y otro
para el caso continuo.

Ejemplos: 1) Sean X ~ P(λ) e Y ~ P(µ), v.a. independientes, y sea V = X + Y. Claramente


el recorrido de la v.a. V es el conjunto RV = {0,1,2,....} . Sea k ∈ RV ,

∞ k
P ( X + Y = k ) = ∑ p XY (i, k − i ) = ∑ p X (i ) pY ( k − i )
i =0 i =0

por ser X e Y independientes. Entonces,

108
−µ −(λ + µ ) k
e −λ λi e µ k −i e k!
λi µ k −i =
k
P( X + Y = k ) = ∑ ⋅ = ∑
i =0 i! (k − i )! k! i = 0 i ! (k − i) !

−(λ + µ )
e
= (λ + µ ) k .
k!

Entonces, V = X + Y tiene distribución de Poisson de parámetro λ + µ. O sea

X + Y ~ P(λ + µ)

Este resultado se extiende por inducción al caso de n v.a. : si X1,..., Xn son v.a.
independientes tales que Xi ~ P(λi) para i = 1,...,n, entonces X1 +...+ Xn ~ P(λ1 + ...+λn).

2) Sean X e Y v.a. independientes con distribución exponencial de parámetro λ, o sea,


sean X ~ E(λ) e Y ~ E(λ) independientes, y sea V = X + Y. La v.a. V toma valores en el
intervalo (0,∞), por lo tanto, si v ≤ 0, FV(v)=0. Sea v > 0,

FV (v ) = P ( X + Y ≤ v ) = ∫∫ f ( x, y ) dx dy = ∫∫ f ( x ) f ( y ) dx dy
XY X Y
{( x , y ) / x + y ≤ v} {( x , y ) / x + y ≤ v}

pues X e Y son independientes. Entonces,

v v− y v v− y
   −λy 
P ( X + Y ≤ v ) = ∫  ∫ f X ( x ) f Y ( y ) dx  dy = ∫  ∫ λ e −λx λ e dx  dy =
0 0  0 0 

−λ y  
v v− y v
= ∫λ e − λ x dx  dy = λ e − λ y 1 − e − λ (v − y )  dy =
∫ λe ∫  
0    
 0  0

v
v
−λ y
= ∫λ e dy − ∫ λ e − λ v dy = 1 − e − λ v − λ e − λ v v
0
0

Derivando respecto de v, se obtiene la densidad de V = X + Y, que es

( )
f V (v ) = λ e − λ v + λ 2 e − λ v v − λ e − λ v I ( 0 , ∞ ) (v ) = λ 2 e − λ v v I ( 0 , ∞ ) ( v )

109
lo que demuestra que V tiene distribución Gamma de parámetros (2,λ).

3) Se puede demostrar que, en general, si X ~ Γ(α,λ) e Y ~ Γ(β,λ) son variables aleatorias


independientes, entonces

X + Y ~ Γ(α+β,λ)

Función generadora de momentos de la suma de v.a. independientes: Sean, en


principio X e Y dos v.a. independientes, entonces la función generadora de la suma X + Y
es el producto de las funciones generadoras, es decir

M X +Y (t ) = M X (t ) M Y (t )

En efecto, si por ejemplo X e Y son dos v.a. continuas e independientes,

∞ ∞ ∞ ∞
(
M X +Y (t ) = E e t ( X +Y )
)= ∫ ∫ e t ( x+ y)
f XY ( x, y ) dx dy = ∫ ∫ e tx e ty f X ( x) f Y ( y ) dx dy =
− ∞− ∞ − ∞− ∞

∞ ∞
( ) ( )
= ∫ e tx f X ( x) dx ∫ e ty f Y ( y ) dy = E e tX E e tY = M X (t) M Y (t)
−∞ −∞

como queríamos demostrar. Para el caso discreto, se demuestra en forma similar.

Es inmediato verificar, usando inducción que, si X 1 , X 2 ,..., X n son v.a. independientes,

n
MX
1+ X 2 +...+ X n (t ) = ∏ M X i (t )
i =1

Ejemplos: 1) Demostremos, usando funciones generadoras de momentos que si X ~ P(λ)


e Y ~ P(µ) son v.a. independientes, X + Y ~ P(λ + µ). En efecto,

λ (et −1) µ (et −1) (λ + µ ) (et −1)


M X +Y (t ) = M X (t ) M Y (t ) = e e =e

y se obtiene la función generadora de momentos de una v.a. Poisson con parámetro


(λ + µ). Recordemos que la función generadora de momentos determina la distribución de
la v.a..

2) Demostremos ahora, usando funciones generadoras de momentos que si X e Y son


v.a. independientes con distribución exponencial de parámetro λ o sea X ~E(λ) e Y ~ E(λ),
entonces V = X + Y ~ Γ (2,λ). En efecto,

110
2
λ λ  λ 
M X +Y (t ) = M X (t ) M Y (t ) = = 
λ −t λ −t λ −t 
y se obtiene la función generadora de momentos de una v.a. Γ(2,λ) como queríamos
demostrar.

Sumas y promedios de variables aleatorias

Propiedad: Sean X 1 , X 2 ,..., X n v.a. cualesquiera con E ( X i ) = µ i y V ( X i ) = σ i2 y


a1 , a 2 ,..., a n números reales, entonces

 n  n
E  ∑ ai X i  = ∑ ai µ i
 i =1  i =1
(1)
 n  n
V  ∑ ai X i  = ∑ ai2σ i2 + 2∑ ai a j cov( X i , X j )
 i =1  i =1 i< j

Dem: En primer lugar, probemos la expresión para la esperanza mediante inducción en n.


Si n = 2, ya hemos demostrado que

E (a1 X 1 + a 2 X 2 ) = a1 E ( X 1 ) + a 2 E ( X 2 )

Supongamos ahora que la expresión es cierta para n = k y probémosla para n = k + 1.

En primer lugar,

 k +1   k 
E  ∑ a i X i  = E  ∑ a i X i + a k +1 X k +1  = E (Y + a k +1 X k +1 )
 i =1   i =1 
k
siendo Y = ∑a X
i =1
i i . Como para n = 2 se cumple, se obtiene

 k +1   k 
E  ∑ a i X i  = E (Y + a k +1 X k +1 ) = E (Y ) + a k +1 E ( X k +1 ) = E  ∑ a i X i  + a k +1 µ k +1
 i =1   i =1 

y, utilizando la hipótesis inductiva

 k +1  k k +1
E  ∑ a i X i  = ∑ a i µ i +a k +1 µ k +1 = ∑ a i µ i
 i =1  i =1 i =1

como queríamos demostrar.

111
Probemos ahora la expresión correspondiente a la varianza. Observemos en primer lugar
que si n = 2,

(
V (a1 X 1 + a 2 X 2 ) = E [(a1 X 1 + a 2 X 2 ) − E (a1 X 1 + a 2 X 2 )] =
2
)
( ) (
= E [(a1 X 1 + a 2 X 2 ) − (a1 µ1 + a 2 µ 2 )] = E [(a1 X 1 − a1 µ1 ) + (a 2 X 2 − a 2 µ 2 )] =
2 2
)
= E (a1 ( X 1 − µ1 ) ) + E (a 2 ( X 2 − µ 2 ) ) + 2 E [a1 a 2 ( X 1 − µ1 )( X 2 − µ 2 )] =
2 2

= a12V ( X 1 ) + a 22V ( X 2 ) + 2a1 a 2 cov( X 1 , X 2 )

y, por lo tanto, se satisface la expresión para n = 2.

En general,

 n   n n
  n n   n   n 
V  ∑ a i X i  = cov ∑ a i X i , ∑ a i X i  = E  ∑ a i X i ⋅ ∑ a j X j  − E  ∑ a i X i  E  ∑ a j X j  =
 i =1   i =1 i =1   i =1 j =1   i =1   j =1 

 n n   n  n 
= E  ∑∑ ai a j X i X j  −  ∑ ai µ i  ∑ a j µ j  =
 i =1 j =1   i =1  j =1 

 n n  n n
=  ∑∑ ai a j E (X i X j ) − ∑∑ ai a j µ i µ j =
 i =1 j =1  i =1 j =1

= ∑∑ ai a j (E ( X i X j ) − µ i µ j ) = ∑∑ ai a j cov( X i , X j )
n n n n

i =1 j =1 i =1 j =1

Teniendo en cuenta que si i = j cov( X i , X i ) = V ( X i ) y que cov( X i , X i ) = cov( X j , X i ) ,


obtenemos el resultado que queríamos demostrar.

Corolario: Sean X 1 , X 2 ,..., X n v.a. independientes con E ( X i ) = µ i y V ( X i ) = σ i2 y


a1 , a 2 ,..., a n números reales, entonces

 n  n  n  n
E  ∑ ai X i  = ∑ ai µ i V  ∑ ai X i  = ∑ a i2σ i2
 i =1  i =1  i =1  i =1

Dem: Resulta inmediatamente del hecho que, por ser las v.a. independientes,

cov( X i , X j ) = 0 ∀i ≠ j .

112
Corolario: Sean X 1 , X 2 ,..., X n v.a. independientes e idénticamente distribuidas (i.i.d.)
con E ( X i ) = µ y V ( X i ) = σ 2 ∀ i = 1,..., n y a1 , a 2 ,..., a n números reales, entonces

 n  n
 n  n
E  ∑ ai X i  = µ ∑ ai V  ∑ a i X i  = σ 2 ∑ ai2
 i =1  i =1  i =1  i =1

Dem: Se verifica inmediatamente a partir del corolario anterior.

Propiedad: Sean X 1 , X 2 ,..., X n v.a. independientes e idénticamente distribuidas (i.i.d.)


con E ( X i ) = µ y V ( X i ) = σ 2 ∀ i = 1,..., n , entonces

 n
  n 
a) E  ∑ X i  = nµ
 i =1 
V  ∑ X i  = nσ 2
 i =1 

 n   n 
 ∑ Xi   ∑ Xi 
=σ
2
b) E ( X ) = E  i =1 =µ V(X ) = V  i =1
 n   n  n
   
   

Dem: Ejercicio.

113

También podría gustarte