Está en la página 1de 13

12.

FUNCIONES Y TRANSFORMACIONES DE VARIABLES ALEATORIAS

LA VARIABLE ALEATORIA

Uno de los problemas que enfrenta el estadístico es el de evaluar funciones de


distribución o densidad de probabilidad de alguna variable aleatoria y=u(x 1,x2,…,xn),
lo que requiere técnicas especiales mediante las cuales se puedan transformar éstas de
forma que los resultados sean objetivos. Se aplicarán varios métodos, pero
recomendamos al lector estar atento al método de la función de generación de
momentos, el cual no siendo aplicado correctamente conduce a errores importantes,
cuando no hay completa linealidad en el modelo o función escogida

Variable Aleatoria. Repasando, es una variable numérica cuyo valor no puede


predecirse con certeza antes de la ocurrencia del experimento. Y su comportamiento
se describe mediante una ley de Probabilidad. Sea el experimento  y S el espacio
muestral asociado. Una función X que asigna a cada uno de los elementos s  S un
número real X(s), se llama Variable Aleatoria

S
X(s)
s

Sea  un experimento y S su espacio muestral asociado. Sea X una variable aleatoria


definida en S, y Rx su recorrido. Sean B un suceso respecto a Rx, esto es, B  R x .
Sea A definida como A  {s  S / X(s)  B}. Entonces, A y B son sucesos
equivalentes.

A B Rx
s
X(s)

X es una variable aleatoria del espacio S, Rx es el recorrido de X. Sea H una función


real, la variable aleatoria Y=H(X) con recorrido Ry. Para cualquier suceso C  R y se
define P(C)  P[{x  R x : H( x )  C}] . Por tanto, la probabilidad de un suceso
asociado con el recorrido de Y es la probabilidad del suceso equivalente (en función
de X)

1
Variable Aleatoria Discreta. Si el número de valores posibles de X es finito, esto es,
se pueden anotar los valores de X como, x1,..., xn

Sea X una variable aleatoria discreta, entonces Rx consta de un número de valores de


x1,..., xn como resultado posible de xi asociamos un número p(xi) = P(X=xi) llamado
probabilidad de xi, y se satisface,

P( x i )  0 i



i 1
p( x i )  1
donde, p es la probabilidad de la variable aleatoria X. La colección de pares
( x i , p( x i )), i  1,... es, algunas veces, la distribución de probabilidad de X

Dadas las variables aleatorias X y Y y ocurre:


- Caso 1: Si X es una variable aleatoria discreta, Y=H(x), entonces, Y es variable
aleatoria discreta
- Caso 2: Si X es variable aleatoria continua, Y es variable aleatoria discreta, la
función de distribución de probabilidades de Y se determina el suceso equivalente
que corresponde a los valores de Y. Si se conoce la función de distribución de
probabilidad de X. En general, si {Y=yi} es equivalente a un suceso, sea x el
recorrido de X, entonces, q( y i )  P( Y  y i )   f ( x)dx
k

Variable Aleatoria Continua. La variable aleatoria continua es X, si existe una


función f o una función de densidad de probabilidad de X que satisface
f (x)  0 x

 f (x)dx  1
Ahora bien, para cualquier a y b, tal que,    a  b   , tenemos
b
P(a  X  b)   f ( x )dx
a

Funciones de variables Aleatorias. Sean B y C sucesos equivalente. Si B es el


conjunto de valores de X tales que H( x) C , entonces,
B  {x  R x : H( x )  C}, B  R x

Sea X una variable aleatoria continua con función de distribución de probabilidad f y


H una función continua, entonces, Y=(H(x)) es variable aleatoria continua con
función de distribución de probabilidad g, con los siguientes pasos:
G( y)  P(Y  y)

2
derivar G(y) respecto a y y obtener g(y),
hallar los valores de y en le recorrido de Y para g(y)>0

Sea X una variable aleatoria continua con función de distribución de probabilidad f,


f(x)>0 para a<x<b. Sea y=H(x) monótona estrictamente y sea derivable para todo x,
luego la variable aleatoria Y=H(X) tiene la función de distribución de probabilidad:
dx
g ( y)  f ( x )
dy

X es variable aleatoria del espacio S, Rx es el recorrido de X, H es una función real, la


variable aleatoria Y=H(X) con recorrido en Ry. Para cualquier suceso
C  R y se define
P(C)  P(x  R x : H( x )  C]
Por tanto, la probabilidad de un suceso asociado con el recorrido de Y es la
probabilidad del suceso equivalente (en función de X)

Variables Aleatorias Bidimensionales. Sea un experimento  con espacio muestral


asociado S, X1=X1(s), ..., Xn=Xn(s)
X=X(s) y Y=(Ys) son dos funciones que asignan un número real a cada uno de los
resultados s  S , entonces, (X,Y) es la variable aleatoria bidimensional

- En el caso discreto, (X,Y) tiene valores posibles finitos o infinitamente numerables


- En el caso continuo, (X,Y) puede tener todos los valores en un conjunto no
numerable del plano Euclidiano

Sea (X,Y) una variable aleatoria bidimensional con cada resultado posible (x i,yj)
asociamos un número p(xi,yj) que representa P(X=xi,Y=yj) que satisface
p( x i , y j )  0 ( x, y)
 

 p(x , y )  1
j1 i 1
i j

La función p definida para todo (xi,yj) en el recorrido de (X,Y) es la función de


probabilidad de (X,Y) y la terna (xi,yj,p(xi,yj)) es la distribución de probabilidad de
(X,Y)

Sea (X,Y) una variable aleatoria continua que toma todos los valores de la región R
del plano Euclideo, la función de distribución de probabilidad conjunta f es la función
que satisface,

3
f ( x , y)  0 ( x , y)  R

 f (x, y)dxdy  1
R

La función de distribución acumulada de F de la variable aleatoria (X,Y) está definida


F(x, y)  P(X  x, Y  y)

Si F es la función de distribución acumulada de una variable bidimensional con


función de distribución de probabilidad conjunta f, entonces
 2 F( x, y)
 f ( x , y)
xy

Función de Distribución Acumulativa. Sea X una variable aleatoria discreta o


continua, F es la función de densidad acumulada de X,
F(x)  P(X  x) , si
Si X es variable aleatoria discreta,
F( x )   p( x j ), x j  x
j

Si X es variable aleatoria continua,



F( x )   f (s)ds


F es no decreciente, por tanto, x 1  x 2 , entonces, F(x 1 )  F(x 2 )


Lim F( x )  0 Lim F( x )  1
x x
d
Se cumple, también, f ( x )  F( x ) con valores x1,x2,... y son x1<x2<x3<...
dx

Sea F la función de distribución acumulada, entonces


p( x i )  P(X  x i )  F( x i )  F( x j1 )

Función de Masa de Probabilidad Discreta. FMP: p x ( x)  P[ X  x] , es una ley de


probabilidad que cumples tres axiomas:
- 0  p x ( x )  1 , para todo x
-  p x (x)  1
x i

- P[a  X  b]  x i a p x ( x )
x b

4
Función de Distribución Acumulada. FDA: Fx ( x) es la probabilidad del suceso de
que la variable aleatoria tome valores menores o iguales a x
Fx ( x )  P[X  x ]   p x ( x ) en el caso discreto
x i
x2
P[ x 1  X  x 2 ]   f x ( x )dx
x1
x
Fx ( x )  P[  X  ]   f x (u )du

dF ( x ) d x
se sabe que, x
dx

dx 

f x ( x )dx  f x ( x )

Propiedades:
- 0  Fx ( x )  1 - Fx ()  0 y Fx ()  1
- Fx ( x  )  Fx ( x ) para cualquier  >0 - Fx ( x 2 )  Fx ( x 1 )  P[ x 1  X  x 2 ]
La FDA es una función monótona creciente.

Variables Aleatorias de Distribución Conjunta.

FMP Conjunta: Cuando dos o mas variables tienen comportamientos conjuntos


Pxy (x, y)  P[( X  x)  (Y  y)]
Fxy ( x, y)  x  x y  y p xy ( x i , y i ) lo cual es igual a P[( X  x)  (Y  y)]
i i

FMP Marginal: Comportamiento de una variable sin considerar otra.


Para la variable aleatoria Y:
Px ( x )  P[X  x ]  y p xy ( x, y i )
i

Fx ( x)  P[ X  x]  x  x p x ( xi )  Fxy ( x, ) lo cual es igual a  


xi x y i
p xy ( x i , y i )
i

Similarmente se hace para la variable aleatoria X

FMP Condicional: Si se conoce el valor de una de las variables aleatorias Y=y0, las
probabilidades relativas de los diferentes valores de la otra variable están dados por
p xy ( x, y 0 ) , se tiene una fmp condicional de X dado Y
P[( X  x )  (Y  y)]
Px / y ( x, y)  P[X  x / Y  y]  , lo cual equivale a
P[Y  y]
p xy ( x, y) p xy ( x, y)
Px / y ( x, y)   . Se cumple además lo señalado
p y ( y)] x p xy (x i , y)i

anteriormente
0  ox / y  1 y 
x i
p x / y ( x i , y)  1 .

5
Idem para Y dado X

FMP Conjunta a partir de las probabilidades Marginales y Condicionales


Pxy (x, y)  p x / y ( x, y)p y ( y)  p y / x ( y, x)p x ( x)
x2 y2
función de distribución de probabilidad: P[x1  X  x 2]    f xy ( x, y)dydx
x1 y1

La función de distribución de probabilidad satisface: f xy (x, y)  0 y

 f xy ( x, y)dxdy  1 para todo el intervalo

Y la acumulada,
Fxy ( x, y)  P[( X  x )  (Y  y)]  P[   X  x      Y  y ]  
x y

 
f xy ( x 0 , y 0 )dy 0 dx 0


de donde, f xy ( x , y)  FXY ( x , y)
xy

Variables Independientes. Si función de distribución condicional es igual a función


de distribución marginal, entonces, X y Y son variables aleatorias independientes
p x / y ( x, y)  p X (x) , entonces, X y Y son independientes.
P[X  x / Y  y]  P[X  x]
Por lo tanto, lo siguiente es válido:
f x / y ( x , y)  f X ( x ) f X / Y ( y, x )  f Y ( y)
f XY ( x, y)  f X ( x )f Y ( y) FXY ( x, y)  FX ( x )FY ( y)
FX / Y ( x, y)  FX ( x )

Si la función de densidad condicional es igual a la función de densidad marginal,


entonces, X y Y son variables aleatorias independientes. Mucho cuidado, la
dependencia funcional implica dependencia estocástica, pero ésta no necesariamente
implica la dependencia funcional.

- Discreta: Sea (X,Y) una variable aleatoria bidimensional, Y y Y son


independientes, si y solo sí, p(xi,yj)=p(xi)q(yj), para todo i,j

- Continua: f(x,y)=g(x)h(y), para todo (x,y), f es la función de distribución de


probabilidad conjunta y g y h son las funciones de probabilidad marginales de X y Y
respectivamente

(X,Y) es variable aleatoria discreta, X y Y son independientes si y solo sí,

6
p( x i / y j )  p( x i ), i, j
q( y j / x i )  q( y j ), i, j
Y si (X,Y) es continua, entonces,
g( x / y)  g( x ), ( x, y)
h ( y / x )  h ( y), ( x, y)

Funciones de Variables Aleatorias. Sean B y C sucesos equivalente. Si B es el


conjunto de valores de X tales que H(x)  C , entonces,
B  {x  R x : H(x )  C}, B  R x

Función de Distribución Acumulada.

Sea X una variable aleatoria discreta o continua, F es la función de distribución


acumulada de X se define como F(x)=P(X=x),
X es variable aleatoria discreta, F( x )   j p( xj), x j  x

X es variable aleatoria continua, F( x )   f (s)ds


Si F es no decreciente, esto es, x 1  x 2 , entonces, F( x 1 )  F( x 2 )


Lim F( x )  0 Lim F( x )  1
x   x  

d
f (x)  F( x ) para la función de densidad acumulada de variables aleatorias
dx
continuas con función de densidad de probabilidad f

Sea X una variable aleatoria discreta con valores x1,..., xn y son x1  x 2 .... . Será F
la función de distribución acumulada de frecuencias, entonces,
p(x j )  P(X  x j )  F(x j )  F(x j1 )

Distribución de Probabilidad Marginal y Condicional

Densidad conjunta se integra sobre valores de Y y se tiene función de distribución de


probabilidad marginal de X:

f X (x)   f ( x, y)dy
  XY
x 
FX ( x )   f ( x 0 )dx 0  FXY ( x , ) o sea, f X ( x )  FXY ( x, )
 X x

Y para la Condicional:

7

f Y ( y 0 )   f XY ( x, y 0 )dx


f XY ( x, y)
por lo cual, f X / Y ( x, y) 
f Y ( y)
x
FX / Y ( x, y)  P[X  x / Y  y]   f X / Y (u, y)du


- Discreto: Si X=xi debe ocurrir Y=yj tenemos


p( x i )  P(X  x i )  P(X  x i , Y  y1 o X  x i , Y  y 2 o...)   j1 p( x i , y j ) ,

entonces, p es la distribución marginal de probabilidad de X.


Idem para Y: q( y j )  P(Y  y j )  i1 p(x i , y j )

- Continuo: Sea f una función de densidad de probabilidad conjunta de la variable


aleatoria continua (X,Y). Definimos g y h como las funciones de probabilidad
marginal de X y Y así,
 
g( x )   f ( x, y)dy h ( y)   f ( x, y)dx
 

De otra forma,
d  d
P(c  X  d)  P[c  X  d,    Y  ]    f ( x, y)dydx   g( x )dx
c  c

Sea (X,Y) una variable bidimensional continua con función de distribución de


probabilidad conjunta f. Y sean g y h son las funciones de probabilidad marginal de X
y Y respectivamente. Entonces, la función de distribución de probabilidad
condicional de X para Y=y es,
f ( x , y)
g ( x / y)  , h ( y)  0
h ( y)
similarmente
f ( x , y)
h( y / x)  , g( x )  0
g( x )

Funciones de una Variable Aleatoria Bidimensional.

Sea (X,Y) una variable aleatoria bidimensional continua con función de distribución
de probabilidad conjunta f. Sea Z=H1(X,Y) y W=H2(X,Y), donde H1 y H2 satisfacen:

z=H1(x,y) y w=H2(x,y), se pueden resolver únicamente para x y y, y en función de z y


w, digamos x=G1(z,w) y y=G2(z,w)

8
x x y y
Existe , , , y son continuas, luego la función de distribución de
z w z w
probabilidad conjunta (Z.W) esta dada por:
f [G 1 (z, w ), G 2 (z, w )]
k ( z, w ) 
J ( z, w )

en donde, J(z,w) es el Jacobiano,


x x
J (z, w )  z w
y y
z w

Sea la variable aleatoria (X,Y) continua, entonces X y Y son independientes,


entonces, la función de distribución de probabilidad f se puede escribir
f(x,y)=g(x)h(y).

Sea W=XY, luego la función de distribución de probabilidad de W, digamos p, está


dada por
 w1
p( w )   g(u )h  du

 u u

La función de densidad de probabilidad de W=XY y U=X es


w1
s( w , u )  g(u )h  , con w=x, y , u=x, Y=w/u
 u u

Con igual enunciado, para aplicar a Z=X/Y, en donde la función de distribución de


probabilidad de Z es,

q(z)   g( vz )h ( v) v dv , z=x/y, v=y


TÉCNICA DE FUNCIÓN DE DISTRIBUCIONES

El método consiste en obtener primero la función de distribución y luego la función


de densidad por medio de la diferenciación. Sea X1,X2,…,Xn variables aleatorias
continuas con una densidad de probabilidad conjunta dada, la densidad de
probabilidad de Y=u(x1,...,xn) se determina obteniendo
F(y)=P(Y≤y)=P[u(x1,…,xn)]
Y después,
dF( y)
f ( y) 
dy

9
Ejemplo, Si la densidad de probabilidad de X está dada por
6x (1  x ) 0  x 1
f (x)  
0 otro
Determine la densidad de probabilidad de Y=X3

Solución, Sea G(y)=P(Y≤y)=P(X3≤y)=P(X≤y1/3)


y1 / 3
G ( y)   6 x (1  x )dx 3y 2 / 3  2 y
0

Entonces, g(y)=2(y-1/3-1) para 0<y<1

Ejemplo, Si la densidad de X1 y X2 está dada por


6e 3x1  2 x 2 x 1  0, x 2  0
f ( x1, x 2)  
0 otro
Obtenga la función de densidad de la variable Y=X1+X2

Solución, integrando la función conjunta


y yx 2
F( y)    6e 3x1 2 x 2 dx 1dx 2 1  2e 3 y  3e 2 y
0 0
Y al diferenciar con respecto a y tenemos,
f ( y)  6(e 2 y e 3y ), y  0

TÉCNICA TRANSFORMACIÓN DE VARIABLES

Una Variable. Se trata de aplicar el primer método sin desarrollar la obtención


primero la función de distribución. En el caso discreto no hay problema real, en tanto
que X y Y=u(X) se relacionen biunivocamente. Por tanto, la sustitución debe ser
adecuada.

Ejemplo, sea X el número de caras obtenidas en 4 lanzamientos de una moneda.


Determina la distribución de probabilidad de y=(1+x)-1

Solución, Si aplicamos la Binomial con n=4 y p=1/2 obtenemos que la distribución de


probabilidad de X está dada por,
x 0 1 2 3 4
f(x) 1/16 4/16 6/16 4/16 1/16

y luego aplicando y=(1+x)-1 para sustituir los valores de Y por los de X, se tiene
y 0 1/2 1/3 1/4 1/5

10
G(y) 1/16 4/16 6/16 4/16 1/16

O También habiendo sustituido x=(1/y)-1 por x en


 4  1 
4

f ( x )     para x  0,1,2,3,4


 x  2 

obteniéndose,
 1    1 
4 4

g( y)  f   1   1  
1 para y  1,1 / 2,1 / 3,1 / 4,1 / 5
 y   y  2 

Teorema. g( y)  f w ( y)  w ( y) siempre que u ( x )  0

Ejemplo, Si la flecha doble de la figura se hace oscilar, la variable aleatoria  tenga


la densidad
1 /    / 2     / 2
f ()  
0 otro

Hallar la densidad de probabilidad de X, la abscisa sobre el eje x al cual apuntará la


flecha.

Solución, La relación entre x y  es, x=a.tan


d a
 2
dx a  x 2

y se deduce que
1 a 1 a
g( x )   para    x  
 a x
2 2
 a  x2
2

Ejemplo, Si X tiene una distribución N(0,1), determine la densidad de probabilidad


de Z=X2

11
2 dy 1 1 / 2
Solución, g( y)  e y   z , entonces,
2
/2

2 dz 2
2
h (z)  e z / 2
2

Dos Variables. Se trata del método anterior pero considerando dos variables. Sean la
distribución conjunta Y=u(X1,X2), si las relaciones entre y y x1 con x2 y entre y y x2
con x1 se mantienen constantes, entonces,
x x
g( y, x 2 )  f ( x 1 , x 2 )  1 g ( x 1 , y)  f ( x 1 , x 2 )  2
y y

Ejemplo, Sean x1 y x2 variables aleatorias independientes que tienen distribuciones


de Poisson con parámetros 1 y2, determine la distribución de probabilidad de la
variable aleatoria Y=X1+X2

Solución, Por la independencia de X1 y X2, la función conjunta es,


e 1 1 1 e  2  2 2
x x

f (x1 , x 2 )  
x 1! x 2!

Para x1=0,1,… y x2=0,1,… y ya que y=x1+x2, entonces x1=y-x2, entonces,


yx
e  ( 1   2 )  1 1  2 2 e  ( 1   2 )  2 2  1 2
x x x

f (x1 , x 2 )   g( y, x 2 ) 
x 1!*x 2 ! x 1!*x 2 !
e ( 1   2 )  1 1  2 2 e ( 1   2 ) 1   2 
y x x y

h ( y)   
x 2  0 x 2 !*(y  x 2 )! y!

Teorema. La función de distribución conjunta f(x1,x2) de las variables aleatorias X1 y


X2, y si se tiene que
y1=u(x1,x2) y y2=u(x1,x2),
entonces se puede hacer la transformación g(y1,y2)=f(w1(y1,y2),w2(y1,y2))*│J│,

donde w1 y w2 son soluciones de las ecuaciones simultaneas en derivadas parciales de


y1 y y2. J es el Jacobiano de la transformación,
x 1 x 1
y y 2
J 1
x 2 x 2
y1 y 2

TÉCNICA FUNCIÓN GENERATRIZ DE MOMENTO

12
Teorema. Si X1,X2,…,Xn son variables aleatorias independientes y Y=X1+…+Xn,
entonces,
n
M Y ( t )   M Xi ( t )
i 1
Donde Mxi(t) es el valor de la función de generación de momentos de xi en t

Ejemplo, Obtenga la distribución de probabilidades de la suma de n variables


aleatorias independientes X1,…,Xn que tengan distribución Poisson con parámetros
1,…,n, respectivamente

Solución, Sabemos que M Xi (t)  e  i ( e 1)


t

Y por tanto, siendo y=x1+…,xn, se tiene


n
M Y ( t )   e  i ( e 1)  e ( 1  i ) e 1)
t t

i 1

13

También podría gustarte