Está en la página 1de 5

1

Variables aleatorias independientes

El concepto de independencia es sumamente importante en teor a de probabilidad y su negaci on, la dependencia, es un importante objeto de estudio actualmente en diversas areas de la investigaci on. Para conceptualizar la independencia de variables aleatorias, imitaremos la idea de la independencia de conjuntos. Recordemos que dado un espacio de probabilidad (, F , P) dos eventos A, B F con P [B ] > 0 son independientes si y s olo si P A B = P [A] Esta denici on, completamente intuitiva, se extiende a conjuntos de probabilidad cero, d andonos por resultado que los conjuntos A, B F son independientes si y s olo si P [A B ] = P [A] P [B ] (1)

C omo extender esta idea a variables aleatorias? Sabemos, por denici on de variable aleatoria que 1 para cualesquiera conjuntos C, D B (R) tenemos { : X ( ) C } F { : Y ( ) D } F

La clase de conjuntos (X ) = { : X ( ) C ; C B (R)} es toda la informaci on disponible sobre la variable aleatoria X (obs ervese que C var a sobre B (R)), es decir, son todos aqu ellos eventos del espacio muestral relacionados con la variable aleatoria X . Es por esto que resulta intuitivo denir independencia de variables aleatorias en t erminos de estas clases de conjuntos. Denici on 1.1. Dos variables aleatorias X, Y son independientes si y s olo si para cualesquiera A (X ) y B (Y ) los eventos A y B son independientes. Equivalentemente, las variables aleatorias X, Y son independientes si y s olo si para cualesquiera C, D B (R) tenemos P [X C, Y D] = P [X C ] P [X D] De la misma manera que en el caso univariado, es deseable tener una caracterizaci on de la independencia en t erminos de las funciones de distribuci on y de densidad. Esto se logra gracias a que los conjuntos de la forma
n

(, xi ]
i=1

B (R) representa a los conjuntos Borelianos, todos aqu ellos conjuntos C R para los cu ales deseamos calcular P [X C ].

son sucientes para explicar las cantidades P [X C, Y D] , C, D B (R)

como se vio en la secci on ?? sobre la Funci on de distribuci on multivariada. Con esto, tenemos una denici on alternativa para la independencia de dos variables aleatorias mucho m as manejable. Denici on 1.2. Dos variables aleatorias X, Y con funci on de distribuci on conjunta F (x, y ) y marginales FX (x) y FY (y ) respectivamente son independientes si y s olo si para cualesquiera dos valores x, y R se tiene F (x, y ) = FX (x)FY (y ) (2) Es importante recalcar que esta denici on es independiente del car acter discreto o continuo (o ninguno de ambos) de las variables aleatorias X, Y , por lo cual es una denici on un tanto general todav a. Concentr emonos en cada caso y analicemos la relaci on de la ecuaci on (2) con las funciones de densidad.

1.1

Caso discreto

Cuando las variables aleatorias X, Y son discretas el an alisis es muy simple. Denotemos por p(x, y ) a la funci on de densidad conjunta del vector (X, Y ) y por pX (x), pY (y ) a las densidades marginales de cada variable. Partiendo directamente de la denici on conjuntista de independencia observamos que si X y Y son independientes, entonces para cualesquiera x Ran(X ), y Ran(Y ), p(x, y ) =P [X = x, Y = y ] = P [X {x}, Y {y }] =P [X {x}] P [Y {y }] = P [X = x] P [Y = y ] = pX (x)pY (y ) (3)

Es decir, la independencia implica la factorizaci on p(x, y ) = pX (x)pY (y ) para cualesquiera valores x Ran(X ), y Ran(Y ). Por otro lado, si suponemos que esta factorizaci on es cierta, entonces para cualesquiera conjuntos C, D tenemos P [X C, Y D] =
xC y D

p(x, y ) =
x C y D

pX (x)pY (y ) (4)

=
xC

p X ( x)
y D

pY (y ) = P [X C ] P [Y D]

En conclusi on hemos demostrado la siguiente Proposici on. Proposici on 1.1. Sean X, Y variables aleatorias discretas con funci on de densidad conjunta p(x, y ) y funciones de densidad marginales pX (x), pY (y ). Entonces, X es independiente de Y si y s olo si x Ran(X ), y Ran(Y ), 2 p(x, y ) = pX (x)pY (y )

Ejemplo 1.1 Supongamos que el n umero de personas que llegan al and en del tren entre las 5:00 am y las 5:15 am para abordar el primer tren de la ma nana sigue una distribuci on de Poisson con par ametro > 0. Cada individuo que llega a abordar este tren es hombre con probabilidad p (0, 1) y mujer con probabilidad 1 p independientemente de los dem as que han llegado y llegar an. Sean H el n umero de hombres que abordan el primer tren y M el n umero de mujeres que lo abordan. Cu al es la distribuci on conjunta de (H, M )? Son independientes? Soluci on: Para encontrar la funci on de densidad conjunta, tomemos m, n N cualesquiera, entonces

P [H = n, M = m] =
j =0

P H = n, M = m H + M = j P [H + M = j ]

(5)

= P H = n, M = m H + M = n + m P [H + M = n + m] Para comprender esta ecuaci on obs ervese que la primera igualdad es la f ormula de la probabilidad total aplicada al evento {H = n, M = m} usando la partici on de formada por los conjuntos {H + M = j }j N . La segunda igualdad se sigue de que para todo j = n + m P H = n, M = m H + M = j = 0 Ahora, H + M es el n umero total de pasajeros del tren y por lo tanto sigue una distribuci on de Poisson con par ametro > 0 por hip otesis. La otra hip otesis del enunciado nos dice que sabiendo que han llegado n + m personas, cada una es hombre ( exito) con probabilidad p (0, 1) por lo cu al el n umero total de hombres sigue una distribuci on Binomial con par ametros (n + m, p). Cabe destacar que esta distribuci on Binomial para H est a condicionada a que el n umero total de arribos es n + m. Como consecuencia P H = n, M = m H + M = n + m = Sustituyendo esto en la f ormula (5) obtenemos P [H = n, M = m] = (n + m)! n ep n e(1p) m n+m n e n+m = p (1 p)m p (1 p)m (n + m)! n!m! (n + m)! n p n (1p) m e (p) e ((1 p)) = n! m! n+m n p (1 p)m n

Esto demuestra que H y M son variables aleatorias independientes con distribuciones Poisson de par ametros p y (1 p) respectivamente. 3

Este resultado es muy intuitivo pues si pensamos que el n umero total de personas es Poisson , entonces el n umero promedio de personas que llegan al and en es . Como cada uno es hombre o mujer independientemente de los dem as y la proporci on de hombres es p y la de mujeres es 1 p, esperamos que el n umero de hombres que llegan al and en sea, en promedio, p y el de mujeres (1 p). El hecho de que la distribuci on sea Poisson se puede intuir pensando que los arribos de hombres siguen el mismo patr on que los arribos globales. Esta manera de resolver el ejemplo es muy informativa, pues nos dice que H, M son independientes y nos da de inmediato sus densidades. No obstante, puede parecer un truco el escribir = p + (1 p) en la exponencial. De no hacerlo as obtenemos la densidad conjunta como e (p)n ((1 p))m n!m! La buena noticia es que esta expresi on es suciente para obtener la independencia de las variables H, M . La raz on de que esto sea as se expresa en la siguiente Proposici on. p(n, m) = Proposici on 1.2. Sean X, Y variables aleatorias discretas con funci on de densidad conjunta p(x, y ). Las variables X, Y son independientes si y s olo si existen g (x), h(y ) tales que para cada x Ran(X ), y Ran(Y ) se tiene p(x, y ) = g (x)h(y ) Demostraci on. Supongamos primero que X, Y son independientes. En este caso basta tomar g (x) = pX (x) y h(y ) = pY (y ) como se ha demostrado al incio de esta secci on. Supongamos ahora que existen g (x), h(y ) para las cu ales p(x, y ) = g (x)h(y ), entonces 1=
x y

p(x, y ) =
x

g (x)
y

h(y )

por lo cu al existen g ( x) = C 1 ,
x y

h(y ) = C2 , y adem as C1 C2 = 1

Calculando la densidad marginal de X obtenemos p X ( x) =


y

p(x, y ) =
y

g (x)h(y ) = C2 g (x)

An alogamente pY (y ) = C1 h(y ) Esto implica que p(x, y ) = g (x)h(y ) = C1 C2 g (x)h(y ) = pX (x)pY (y ) es decir X y Y son independientes. 4

Observaci on 1.1. En caso que se pueda factorizar la densidad conjunta p(x, y ) cada una de las funciones involucradas en la factorizaci on es un m ultiplo de la densidad marginal. En el ejemplo 1.1 las funciones son ((1 p))m (p)n h(m) = g (n) = e n! m! de modo que nuestras constantes C1 y C2 son C1 = e(1p) , C2 = e(1p)

También podría gustarte