Está en la página 1de 10

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J.

Martnez

2004

Vectores aleatorios.
Extensin a ms de dos dimensiones
Definicin: Sean X 1 ,..., X k variables aleatorias discretas, la funcin de probabilidad conjunta del vector aleatorio ( X 1 ,..., X k ) se define como:

pX

1 ,..., X k

( x1 ,..., x k ) = P ( X 1 = x1 ,...., X k = x k )

y, dado cualquier conjunto A k ,


P (( X 1 ,..., X k ) A) = .. ... p X
( x1,..., xk )A
1 ,..., X k

( x1 ,..., x k )

Esta funcin satisface las siguientes propiedades:


p X ,..., X ( x1 ,..., x k ) 0 1 k ( x ,..., x ) 1 k

... p X ,..., X ( x1 , x 2 ,..., x k ) = 1 k x1 xk 1

En forma similar a lo hecho para el caso bidimensional se pueden definir las funciones de probabilidad marginal. Por ejemplo, la funcin de probabilidad marginal de X 1 est dada por:
p X ( x1 ) = ... p X ,..., X ( x1 , x 2 ,..., x k ) 1 k 1 x x
2 k

y la funcin de probabilidad marginal de ( X 1 , X 2 ) est dada por:


p X , X ( x1 , x 2 ) = ... p X ,..., X ( x1 , x 2 ,..., x k ) . k 1 2 x3 xk 1

Distribucin multinomial: Es una generalizacin de la distribucin Binomial. Supongamos que se repite n veces en forma independiente una experiencia, que en cada repeticin hay k resultados posibles (k 2), cada uno de los cuales ocurre con probabilidad pi (1 i k) y que estas probabilidades se mantienen constantes en todas las repeticiones. Este experimento se denomina experimento multinomial. Si definimos Xi: nmero de veces que ocurre el resultado i (1 i k)

108

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez

2004

la distribucin conjunta de (X1,...,Xk) se denomina distribucin multinomial de parmetros n, p1,...pk . Notacin: (X1,...,Xk) ~ M(n, p1,...pk) La correspondiente funcin de probabilidad conjunta est dada por

n! xk x2 x2 x ! x !...x ! p1 p 2 ... p k k 1 2 p X 1 ,..., X k ( x1 ,..., x k ) = 0

si 0 xi n i ,

x
i =1

=n
(1)

en otro caso

En efecto, en primer lugar hay que notar que si x1 + x 2 + ... + x k n , la funcin de probabilidad puntual es cero. Sean ahora 0 xi n, tales que configuraciones que producen x i resultados Ri (1 i k), es
12 11 223 2 1 3

x1 + x 2 + ... + x k = n .

Indicando por Ri (1 i k) cada uno de los k resultados posibles, una de las posibles

R ...R R ...R ........R k ...R k 123 x1 x2 xk

(alguno de los xi ' s podra ser 0, en cuyo caso no aparecera ninguno de los correspondientes Ri ). Como hemos supuesto independencia entre las repeticiones, esa configuracin tiene x x x probabilidad p1 1 p 2 2 .... p k k , pero es slo una de las configuraciones posibles que producen x i resultados Ri para 1 i k. Cuntas configuraciones diferentes hay?

xk x ! n n x1 n x1 x 2 (n x1 )! n! ...... = k = x x x3 x k ! 0! 1 2 x k x1! (n x1 )! x 2 ! (n x1 x 2 )!
n! x1 ! x 2 !.... x k !

y se obtiene la funcin de probabilidad dada en (1).

109

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez

2004

Observacin: La distribucin marginal de X i es binomial de parmetros n y pi para todo

1 i k . En general, las marginales de una distribucin multinomial son binomiales o multinomiales.


Ejemplo: De una urna que contiene 3 bolillas rojas, 2 negras, 4 azules y 1 blanca se extraen 12 bolillas con reposicin. Definiendo X1: nmero de bolillas rojas X2: nmero de bolillas negras X3: nmero de bolillas azules X4: nmero de bolillas blancas el vector (X1, X2, X3, X4) tiene distribucin multinomial, es decir

3 2 4 1 ( X 1 , X 2 , X 3 , X 4 ) ~ M 12, , , , 10 10 10 10
a) Cul es la probabilidad de que se obtengan 3 bolillas rojas, 5 negras, 4 azules y ninguna blanca?

pX

1, X 2 , X 3 , X 4

(3,5,4,0) =

12! 3 2 4 1 = 0.006 3! 5! 4! 0! 10 10 10 10

b) Calcular la probabilidad de obtener a lo sumo dos bolillas rojas. Como X 1 ~ Bi12,

3 , entonces 10
2 2 i

12 3 P( X 1 2) = p X 1 (i ) = i =0 i = 0 i 10

7 10

12 i

=0.25

c) Calcular la probabilidad de obtener 3 bolillas rojas y 2 blancas. Como las v.a. que nos interesan son X1 y X4, defino una nueva v.a. Y = X2 + X3. El vector aleatorio (X1 , X4 , Y) tambin tendr distribucin multinomial.

3 1 6 ( X 1 , X 4 , Y ) ~ M 12, , , 10 10 10
y, por lo tanto, la probabilidad pedida ser

12! 3 p X1 , X 4 ,Y (3,2,7) = 3! 2! 7! 10

1 10

6 = 0.06 10

110

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez

2004

Definicin: El vector aleatorio

( X 1 ,..., X k )

es continuo si existe una funcin

fX

1 ,..., X k

: k 0 , denominada funcin de densidad conjunta, tal que


P (( X 1 ,..., X k ) A) = ... f X
A

1 ,..., X k

( x1 , x 2 ,..., x k ) dx1 ...dx k

A k

Esta funcin satisface las siguientes propiedades:

f X ,..., X ( x1 ,..., x k ) 0 1 k

( x ,..., x ) 1 k

...... f X ,... X ( x1 ,...x k ) dx1 .....dx k = 1 k 1

En forma similar a lo hecho para el caso bidimensional se pueden definir las funciones de densidad marginal. Por ejemplo, la funcin de densidad marginal de X 1 est dada por:

f X 1 ( x1 ) = .... f X

1 ,..., X k

( x1 , x 2 ,..., x k ) dx 2 ....dx k

y la funcin de densidad marginal de ( X 1 , X 2 ) , est dada por:

f X 1 , X 2 ( x1 , x 2 ) = ... f X

1 ,..., X k

( x1 , x 2 ,..., x k ) dx 3 ...dx k

Definicin: X 1 ,..., X k son variables aleatorias independientes si y slo si

p X 1 ,..., X k ( x1 ,..., x k ) = p X 1 ( x1 ) ... p X k ( x k ) f X1 ,..., X k ( x1 ,..., x k ) = f X1 ( x1 ) .... f X k ( x k )

( x1 ,..., x k ) ( x1 ,..., x k )

en el caso discreto salvo, eventualmente, en un

conjunto de probabilidad cero en el caso continuo.

111

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez

2004

Ejemplos: 1) En el caso de la distribucin multinomial, las componentes del vector aleatorio son v.a. con distribucin binomial no independientes y sto que es intuitivo ya que su suma es constante (es igual a n), puede verificarse aplicando la definicin. 2) Sea ( X 1 , X 2 , X 3 ) un vector aleatorio con distribucin uniforme en el prisma de vrtices (0,0,0),(1,0,0),(0,2,0),(1,2,0),(0,0,3),(1,0,3),(0,2,3),(1,2,3), cuyo volumen es igual a 6. Entonces, su funcin de densidad conjunta dada por

1 / 6 f X1 , X 2 , X 3 ( x1 , x 2 , x3 ) = 0

si 0 x 1 1, 0 x 2 2, 0 x3 3 en otro caso

Es inmediato verificar que las componentes del vector son variables aleatorias independientes, ya que

3 2 1 1 dx 2 dx3 = 6 = 1 f X 1 ( x1 ) = 6 6 0 0 0

si x1 [0,1] si x1 [0,1]

3 1 1 1 1 dx1 dx3 = 3 = f X 2 ( x2 ) = 6 2 6 0 0 0
2 1 1 1 1 dx1 dx 2 = 2 = f X 3 ( x3 ) = 6 6 3 0 0 0
entonces,

si x 2 [0,2] si x 2 [0,2]

si x3 [0,3] si x3 [0,3]

f X1 , X 2 , X 3 ( x1 , x 2 , x 3 ) = f X 1 ( x1 ) f X 2 ( x 2 ) f X 3 ( x 3 )

( x1 , x 2 , x 3 )

Distribucin de la suma de dos variables aleatorias


Sean X e Y dos v.a. de las cules se conoce la distribucin conjunta. Estamos interesados en la distribucin de la v.a. V = X + Y. Consideraremos dos ejemplos, uno para el caso de un vector aleatorio discreto y otro para el caso continuo.

112

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez

2004

Ejemplos: 1) Sean X ~ P() e Y ~ P(), v.a. independientes, y sea V = X + Y. Claramente el recorrido de la v.a. V es el conjunto RV = {0,1,2,....} . Sea k RV ,

P( X + Y = k ) = p XY (i, k i ) = p X (i ) pY ( k i )
i =0 i =0

por ser X e Y independientes. Entonces,

P( X + Y = k ) =

( + ) k e i e k i e k! = i k i = i =0 i =0 i ! (k i ) ! (k i )! i! k!
k

( + ) k!

( + ) k .

Entonces, V = X + Y tiene distribucin de Poisson de parmetro + . O sea X + Y ~ P( + )

Este resultado se extiende por induccin al caso de n v.a. : si X1,..., Xn son v.a. independientes tales que Xi ~ P(i) para i = 1,...,n, entonces X1 +...+ Xn ~ P(1 + ...+n). 2) Sean X e Y v.a. independientes con distribucin exponencial de parmetro , o sea, sean X ~ E() e Y ~ E() independientes, y sea V = X + Y. La v.a. V toma valores en el intervalo (0,), por lo tanto, si v 0, FV(v)=0. Sea v > 0,
FV (v ) = P ( X + Y v ) = ( x, y ) dx dy =

XY

f ( x ) f ( y ) dx dy
X Y

{( x , y ) / x + y v}

{( x , y ) / x + y v}

pues X e Y son independientes. Entonces,


v v y

P ( X + Y v ) = f X ( x ) f Y ( y ) dx dy = e x e
0 0 0 0

v v y

dx dy =

= e
0

v y v y (v y ) e x dx dy = e y 1 e dy =

113

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez

2004

= e
0

dy e v dy = 1 e v e v v
0

Derivando respecto de v, se obtiene la densidad de V = X + Y, que es

f V ( v ) = e v + 2 e v v e v I ( 0 , ) ( v ) = 2 e v v I ( 0 , ) (v )
lo que demuestra que V tiene distribucin Gamma de parmetros (2,). 3) Se puede demostrar que, en general, si X ~ (,) e Y ~ (,) son variables aleatorias independientes, entonces X + Y ~ (+,)

Funcin generadora de momentos de la suma de v.a. independientes: Sean, en principio X e Y dos v.a. independientes, entonces la funcin generadora de la suma X + Y es el producto de las funciones generadoras, es decir

M X +Y (t ) = M X (t ) M Y (t )
En efecto, si por ejemplo X e Y son dos v.a. continuas e independientes,

M X +Y (t ) = E e t ( X +Y ) =

) e

t ( x+ y)

f XY ( x, y ) dx dy = e tx e ty f X ( x) f Y ( y ) dx dy =

= e tx f X ( x) dx e ty f Y ( y ) dy = E e tX E e tY = M X (t) M Y (t)

( ) ( )

como queramos demostrar. Para el caso discreto, se demuestra en forma similar. Es inmediato verificar que si X 1 , X 2 ,..., X n son v.a. independientes,

MX

1+ X 2

+...+ X n (t ) = M X i (t )
i =1

Ejemplos: 1) Demostraremos, usando funciones generadoras de momentos que si X ~ P() e Y ~ P() son v.a. independientes, X + Y ~ P( + ). En efecto,

114

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez

2004

M X +Y (t ) = M X (t ) M Y (t ) = e

(et 1) (et 1)
e

=e

( + ) (et 1)

y se obtiene la funcin generadora de momentos de una v.a. Poisson con parmetro ( + ). Recordemos que la funcin generadora de momentos determina la distribucin de la v.a.. 2) Demostraremos ahora, usando funciones generadoras de momentos que si X e Y son v.a. independientes con distribucin exponencial de parmetro , o sea X ~ E() e Y ~ E(), entonces V = X + Y ~ (2,). En efecto,

y se obtiene la funcin generadora de momentos de una v.a. (2,).

M X +Y (t ) = M X (t ) M Y (t ) = = t t t

Sumas y promedios de variables aleatorias


En la pgina 100, demostramos que

E (a1 X 1 + a 2 X 2 ) = a1 E ( X 1 ) + a 2 E ( X 2 ).
Qu ocurre con la varianza de una combinacin lineal de dos variables aleatorias?

V (a1 X 1 + a 2 X 2 ) = E [(a1 X 1 + a 2 X 2 ) E (a1 X 1 + a 2 X 2 )] =


2

= E [(a1 X 1 + a 2 X 2 ) (a1 1 + a 2 2 )] = E [(a1 X 1 a1 1 ) + (a 2 X 2 a 2 2 )] =


2 2

) (
2

= E (a1 ( X 1 1 ) ) + E (a 2 ( X 2 2 ) ) + 2 E [a1 a 2 ( X 1 1 )( X 2 2 )] =
2

2 = a12V ( X 1 ) + a 2 V ( X 2 ) + 2a1 a 2 cov( X 1 , X 2 )

La siguiente proposicin generaliza estos resultados para todo

Proposicin: Sean X 1 , X 2 ,..., X n v.a. cualesquiera con E ( X i ) = i y V ( X i ) = i2 y

a1 , a 2 ,..., a n nmeros reales, entonces


n n E ai X i = ai i i =1 i =1
(1)

n n V ai X i = ai2 i2 + 2 ai a j cov( X i , X j ) i< j i =1 i =1


115

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez

2004

Dem: En primer lugar, probemos la expresin para la esperanza mediante induccin en n. Como dijimos, ya lo hemos demostrado para n=2, supongamos ahora que la expresin es cierta para n = k y probmosla para n = k + 1.

k +1 k E a i X i = E a i X i + a k +1 X k +1 = E (Y + a k +1 X k +1 ) i =1 i =1
siendo Y =

a X
i =1 i

. Como para n = 2 se cumple, se obtiene

k k +1 E ai X i = E (Y + a k +1 X k +1 ) = E (Y ) + a k +1 E ( X k +1 ) = E ai X i + a k +1 k +1 i =1 i =1
y, utilizando la hiptesis inductiva
k +1 k k +1 E ai X i = ai i +a k +1 k +1 = ai i i =1 i =1 i =1

como queramos demostrar. Probemos ahora la expresin correspondiente a la varianza.


n n n n n n n a j X j = V ai X i = cov ai X i , ai X i = E a X a X E a X E i i j j i i i =1 j =1 j =1 i =1 i =1 i =1 i =1

n n n n ai i a j j = a a X X = E i j i j j =1 i =1 j =1 i =1
n n n n ( ) a a E X X = i j a i a j i j = i j i =1 j =1 i =1 j =1

= ai a j (E ( X i X j ) i j ) = ai a j cov( X i , X j )
n n n n i =1 j =1 i =1 j =1

Teniendo en cuenta que si i = j , cov( X i , X i ) = V ( X i ) y que cov( X i , X i ) = cov( X j , X i ) , obtenemos el resultado que queramos demostrar.

116

Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez

2004

Corolario: Sean X 1 , X 2 ,..., X n v.a. independientes con E ( X i ) = i y V ( X i ) = i2 y

a1 , a 2 ,..., a n nmeros reales, entonces


n n E ai X i = ai i i =1 i =1 n n V ai X i = a i2 i2 i =1 i =1

Dem: Resulta inmediatamente del hecho que, por ser las v.a. independientes,

cov( X i , X j ) = 0

i j .

Corolario: Sean X 1 , X 2 ,..., X n v.a. independientes e idnticamente distribuidas (i.i.d.) con E ( X i ) = y V ( X i ) = 2 i = 1,..., n y a1 , a 2 ,..., a n nmeros reales, entonces
n n E ai X i = ai i =1 i =1 n n V a i X i = 2 a i2 i =1 i =1

Dem: Se verifica inmediatamente a partir del corolario anterior. Propiedad: Sean X 1 , X 2 ,..., X n v.a. independientes e idnticamente distribuidas (i.i.d.) con E ( X i ) = y V ( X i ) = 2 i = 1,..., n , entonces a) E

X
i =1

i = n

n V X i = n 2 i =1

n Xi b) E (X ) = E i =1 n
Dem: Ejercicio.

n Xi V(X ) = V i =1 n

2 = n

117

También podría gustarte