Está en la página 1de 10

Cálculo de Probabilidades II

José Luis Trujillo López

Capítulo 7: Transformaciones de variables y vectores aleatorios

7.1 Caso univariado

Sea Z la variable aleatoria distribuida normal estándar, Z N ( 0 ,1 ). Z tiene a ϕ como


función de densidad de probabilidad y Φ como función de probabilidad acumulada o
función de distribución y donde, para todo z ∈ R,

−1 2 z
1 z
ϕ ( z )= e 2
y Φ ( z )=∫ ϕ ( u ) du
√ π
2 −∞

Considere ahora a μ ∈ R , σ > 0 y defina X =μ+σZ . Se desea encontrar la f . d . p .de la


v.a. X.

Anteriormente se mostró que X así definida seguía una distribución normal con media μ y
varianza σ 2. Este resultado se volverá a demostrar, pero en esta ocasión trabajando
directamente con la f . p . a . para aplicar después la derivada para obtener la f . d . p . Esto es,

d
f X ( x )= F (x)
dx X

Así, sea X =μ+σZ . Luego su f . p . a .será

F X ( x ) =P ( X ≤ x )=P ( μ +σZ ≤ x )

¿ P Z≤( x −μ
σ )
¿Φ ( x−μ
σ )
, para todo x ∈ R .

Entonces, para todo x ∈ R,

d
f X ( x )= F (x)
dx X
¿
d
dx
Φ
[ ( )]
x−μ
σ

¿Φ
'
( x−μ
σ )σ
1

¿
1 x−μ
σ
ϕ
σ( )
{ ( )}
2
1 −1 x−μ
¿ exp .
√2 π σ 2 σ

Que corresponde efectivamente a la f . d . p . de la distribución normal con media μ y


varianza σ 2.

Teorema de Transformación

Sea X una variable aleatoria continua con F X y f X sus funciones de distribución y


de densidad de probabilidad respectivamente, y con soporte S X . Suponga, además

I) Sea y=g ( x ) una función uno-a-uno de S X a SY .


II) x=h ( y )=g−1 ( y ) es derivable con respecto a y , continua y no cero para todo
y ∈ SY . La función h es la inversa de la función g.

Entonces, la f . d . p . de Y =g ( X ) está dada por

f Y ( y )=f X ( h ( y ) )|dyd h ( y )|I SY ( y ).

Demostración

Sea Y =g ( X ) y X =g−1 ( Y )=h ( Y ) .

F Y ( y )=P ( Y ≤ y )=P ( g ( X ) ≤ y )= ( ¿ )

i) Si g es monótona creciente
( ¿ ) =P ( X ≤h ( y ) ) =F X ( h ( y ) )
Y consecuentemente
d d
f Y ( y )= F Y ( y )= [ F X ( h ( y ) ) ]
dy dy
dh ( y )
¿ F'X ( h ( y ) )
dy
dh ( y )
¿ f X (h ( y ) )
dy
dh
ii) Si g es monótona decreciente h también lo es y consecuentemente < 0. Así,
dy
( ¿ ) =P ( X ≥h ( y ) ) =1−F X ( h ( y ) )
Y entonces
d d
f Y ( y )= F Y ( y )= [ 1−F X ( h ( y ) ) ]
dy dy
dh ( y )
¿−F'X ( h ( y ))
dy

¿ f X (h ( y )) | | dh ( y )
dy
.

Así, ambos casos quedan considerados: si Y =g ( X ),

f Y ( y )=f X ( h ( y ) ) | |
dh ( y )
dy
.

Teorema de Transformación

Sea X una v . a .continua con f . d . p . f X y con soporte S X . Sea Y =g ( X ) tal que, el


soporte de X se puede separar como S X =I 1 ∪⋯ ∪ I m, donde la función g es uno-a-
uno de I k a SY para k =1 , … ,m . Con las mismas condiciones del teorema enunciado
anteriormente, se tiene

| |
m
d hk ( y )
f Y ( y ) = ∑ f X ( hk ( y ) ) IS ( y)
k=1 dy Y

Donde las h k son las funciones inversas de g sobre I k . Esto es, h k ( y )=g−1 ( y ) ∈ I k ,
para k =1 , … ,m .

7.2 Transformación integral de la probabilidad


El siguiente teorema es de gran importancia teórica y práctica, con aplicación en varios de
los algoritmos de simulación fundamental en el cálculo estadístico.

Teorema de la transformación integral de la probabilidad

Sea X una v . a .con f . p . a . F X continua estrictamente creciente. Entonces U =F X ( x )


se distribuye uniformemente en el intervalo ( 0 , 1 ). Viceversa, si U unif ( 0 , 1 ) y
Y =F−1
x ( U ), entonces Y sigue la misma distribución de X .

Demostración

i. Sea U =F X ( X ) con F U su función de distribución. Entonces, los valores que


toma U están en el intervalo ( 0 , 1 ) pues es una probabilidad. Luego, el soporte
de U es SU = ( 0 ,1 ) . Entonces, para 0<u< 1, se tiene
F U ( u ) =P ( U ≤ u )=P ( F X ( X ) ≤u )=P ( X ≤ F−1
X ( u) )

¿ F X ( F−1
X ( u) )

¿u
Que corresponde a la función de distribución de la distribución uniforme en el
intervalo ( 0 , 1 ).
ii. Por otro lado, sean U unif ( 0 , 1 ) y Y =F−1
X ( U ). Se sigue,

F Y ( y )=P ( Y ≤ y )=P ( F X ( U ) ≤ y ) =P ( U ≤ F X ( y ) )
−1

¿ FU ( F X ( y ) )
¿ FX ( y )
Por lo que Y tiene a F X como f . p . a .. Luego, Y y X siguen la misma
distribución.

7.3 Caso multivariado

Teorema sobre transformaciones multivariadas

T
Sea X =( X 1 , … , X n ) un vector aleatorio con función de densidad de probabilidad

conjunta f X ( x )=f X 1 … Xn ( x1 , … xn ). Sea S= { x : f X ( x )> 0 } el soporte de la distribución y


suponga que S puede descomponerse en los subconjuntos S1 , … , S m, tales que,
y 1=g1 ( x ) , … , y n=gn ( x ), forma una transformación uno-a-uno de Sk en R ⊂ Rn,
k =1 , … ,m . Sean entonces x 1=h1 k ( y ) ,… , x n=h nk ( y ), que denoten la transformación
inversa de R en Sk . Para k =1 , … ,m , denote el determinante jacobiano de la
transformación h ,

| |
∂ h1 k ( y ) ∂ h1 k ( y ) ∂ h1 k ( y )

∂ y1 ∂ y2 ∂ yn
∂ h2 k ( y ) ∂ h2 k ( y ) ∂ h2 k ( y )

J hk = ∂ y 1 ∂ y2 ∂ yn
⋮ ⋮ ⋱ ⋮
∂ hn k ( y ) ∂ hn k ( y ) ∂h n k ( y )

∂ y1 ∂ yn ∂ yn

Suponga además que las derivadas parciales incluidas en J hk son continuas


sobre R y que el determinante jacobiano J hk ≠ 0, k =1 , … ,m . Entonces, la
T
f . d . p .conjunta del v . a . Y =( Y 1 , … , Y n ) está dado por

m
f Y ( y )=f Y 1 …Y n ( y 1 , … , y n )=∑ f X ( hk ( y ))|J h k ( y )|
k=1

Para y=( y 1 , … , y n ) ∈ R y h k : Rn → R n, con h k =( h1 k , … , hnk ) y |J hk| denota el


valor absoluto del determinante jacobiano.

Proposición

Sean Z N ( 0 ,1 ) y Y χ 2n v . a .' s independientes. Entonces la v . a . T =Z / √ Y /n tiene


una función de densidad de probabilidad dada por

( 2 )
n+1
Γ
( 1+ )
2 − ( n +1)
t
f (t)= 2
IR (t )
√nπ Γ ( )
T
n n
2

Demostración

Sea T =Z / √Y /n y defina U =Y . Entonces, se tienen las siguientes igualdades


T =g1 ( Z ,Y )=Z / √ Y / n y Z=h1 ( T , U )=T √ U /n

U =g 2 ( Z , Y )=Y Y =h2 ( T ,U )=U

Y de donde el jacobiano de la transformación h=( h1 , h2 ) está dado por

| || |
∂h 1 ( t , u ) ∂ h1 (t , u ) −1
1
|Jh ( t , u )|= ∂t ∂u
=
√ u/n t u 2 /√n
=√u /n
2
∂ h2(t , u) ∂ h2 (t , u )
0 1
∂t ∂u

Por la independencia de Z y Y se tiene que f ZY ( z , y )=f Z ( z ) ⋅ f Y ( y ) . Recuerde además que


χ 2n Gamma ( n /2,2 ) . Luego del teorema de cambio de variable se sigue que para todo
t ∈ R ,u ∈ R +¿¿,

f TU ( t , u )=F ZY ( h1 ( t , u ) , h2 ( t ,u ) ) ⋅|Jh ( t ,u )|

¿ f Z ( t √ u/n ) ⋅ f y ( u ) ⋅ √ u/n

n −u
−1 2 −1
1 t u /n u2 e 2
¿ e 2
⋅ ⋅ √u /n
√2 π
()
n
n 2
Γ 2
2

n−1 −1 2
( t /n +1) u
2 2
u e
¿ n+1
2 2
√nπ Γ ( n /2 )
Por lo tanto, para toda t ∈ R, la densidad marginal de T está dada por


f T ( t ) =∫ f TU ( t ,u ) du
0

( )
2
−1 t

()
n−1
u 2 n+1
u

2
e
2
¿∫ du
0
2 √ nπ Γ
n
2 ()
n−1

ve−λv2
t2
¿∫ dv , con λ= +1 y v=u /2
0
√nπ Γ
n
2 () n

1 1 ( ∞ n+1
)
−1
¿ ∫ Kv
2 −λv
e dv K la constante normalizadora
√nπ Γ
2 ()
n K 0

Γ ( n+12 ) ∫ f ∞
¿
1
( w ; α , β ) dw donde W Gamma ( n+12 , 1λ )
( n2 )
W
√nπ Γ
−( ) n+1
2 0
λ

(
Γ
2 ) t
n+1

n ( n+1 )
2 −n+ 1
¿ 2
.
√nπ Γ ( )
2

7.4 La distribución t de Student

Definición

Sea T variable aleatoria con función de densidad dada por

( 2 )
n+1
Γ
( 1+ )
2 − ( n +1)
t
f (t)= 2
IR (t )
√nπ Γ ( )
T
n n
2

Entonces T se dice que sigue una distribución t de Student con n grados de libertad
y se denota T t n.

Propiedades

1. Sean Z N ( 0 ,1 ) y Y χ 2n v . a . ' s independientes. Entonces la variables aleatoria


Z
T= t n.
√Y /n
2. La distribución t n es simétrica alrededor de 0 para varios valores de n .
3. Para n>2 ,
n
E ( T )=0 , V (T )= .
n−2
4. La distribución de Cauchy ( 0 , 1 ) es el caso particular de la distribución t de
Student con 1 grado de libertad.
5. Si T n t n, para n granda ( ≥ 40 ) la distribución T n se aproxima razonablemente a la
distribución normal estándar. De hecho, T n converge en distribución a la
distribución normal estándar cuando n → ∞.
T n⟶ Z
Esto es, para todo t ∈ R,
lim P ( T n ≤ t ) =Φ ( t )
n→∞

Donde Φ denota la función de probabilidad acumulada de una normal estándar.

7.5 Transformación Box-Muller

Proposición

Muestre que si U 1 y U 2 son v . a . i. i. d . uniformemente en ( 0 , 1 ) y si se definen

X 1 =(−2 ln U 1 )1/ 2 cos 2 π U 2

1/ 2
X 2 =(−2 ln U 1 ) sin 2 π U 2

Entonces X 1 y X 2 son v . a . i. i. d .normal estándar.

Demostración

Sean U 1 y U 2 v . a . i. i. d . uniformemente en el intervalo ( 0 , 1 ). Se mostrará que

X 1 =(−2 ln U 1 )1/ 2 cos 2 π U 2 y X 2= (−2 lnU 1 )1/ 2 sin 2 π U 2

Son a su vez v . a . i. i. d . normal estándar. Con este fin se aplicará dos veces el
teorema sobre transformaciones antes presentado. Para esto considere las v . a . ' s Y i
definidas por

1/2
Y 1=g1 ( U )=( −2 lnU 1) , Y 2=g2 ( U )=2 π U 2

Y sus funciones inversas


2

U 1=h1 ( Y ) =e−Y /2 , U 2=h2 ( Y )=Y 2 /2 π


1

Luego el jacobiano de la transformación h=( h1 , h2 ) es

| || |
2
∂ hi − y1 e− y /2 0 − y1 − y
1
2
/2
Jh ( y )= = = e 1

∂ yj 0 1/2 π 2 π

Por el teorema sobre transformaciones, se sigue de la independencia de U 1 y U 2 que


f U ( h )=f U ( h 1) f U ( h2 ) .
1 2

[ ]
2
− y1
y
f Y ( y )=f U ( h1 ( y )) f U ( h2 ( y ))|Jh ( y )|= 1 e 2
I [ 0 ,1] ( h1 ( y ) ) ⋅ [ I [ 0 ,1 ] ( h2 ( y ) ) ]
1 2

Pues si U i unif ( 0 ,1 ), entonces f U ( u )=I [ 0,1] ( u ), y donde I [ 0 ,1 ] es la función indicadora


i

del intervalo [ 0 , 1 ]. Note en la expresión anterior que la función de densidad


conjunta de Y se puede descomponer como el producto de funciones que dependen
exclusivamente de y 1 y y 2 respectivamente por lo que se sigue que las v . a . ' s Y 1 y
Y 2 son independientes con f . d . p .conjunta dada por la expresión anterior.

Ahora bien, consideremos las variables X ' s definidas anteriormente. Entonces,

X 1 =g 1 ( Y ) =Y 1 cos Y 2 , X 2=g 2 ( Y )=Y 1 sin Y 2

Y sus funciones inversas

( )
1
X2
Y 1=h1 ( X )=( X 1+ X 2 ) 2 ,Y 2 =h2 ( X )=arctan
2 2
X1

En este caso el jacobiano de la transformación es

| || |
2 −1/ 2 2 −1/ 2
x 1 ( x 1+ x 2 ) x 2 ( x 1+ x 2 )
2 2
∂ hi 2 −1 /2
=( x 1 + x 2 )
2
Jh ( x )= =
∂ x j −x ( x + x )
2 2 −1
x1 ( x1 + x2 )
2 2 −1
2 1 2

Luego, aplicando nuevamente el teorema de transformación, la f . d . p .conjunta de


las v . a . ' s X queda

f X ( x )=f Y ( h1 , h2 )|Jh ( x )|
1 /2
( x 21+ x 22 ) −1 2 2
(x + x ) 2 −1/ 2
⋅ ( x 1+ x2 )
2 1 2 2
¿ e

1 − x /2 1 − x /22 2

¿ e ⋅ e 1 2

√2 π √2 π
¿ ϕ ( x 1) ⋅ ϕ ( x 2 )

Donde ϕ denota la f . d . p .de la distribución normal estándar. Por lo tanto, X 1 y X 2


son v . a . i. i. d .con X i N ( 0 ,1 ) .

La transformación anterior se debe a Box∧Muller . Por un tiempo ésta era la manera de


generar números pseudoaleatorios normalmente distribuidos. Ahora se emplean algoritmos
más eficientes.

También podría gustarte