Está en la página 1de 45

Distribuciones de probabilidad

bidimensionales o conjuntas

Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso

discreto tendremos:

p(x, y)

P(X x, Y

y).

Con:

p x

(

,

y

x

y

) 1,

(

p x

,

y

) 0.

1

Podemos encontrar la probabilidad marginal de la variable aleatoria X sumando sobre todos los posibles valores de la variable aleatoria Y:

p (x)   p x ( , y ) X y
p
(x)
p x
(
,
y
)
X
y

Igualmente, podemos encontrar probabilidad marginal de la variable aleatoria Y sumando sobre todos los posibles valores de la variable aleatoria Y:

p (y)   p ( x , y ) Y x
p (y)
p
(
x
,
y
)
Y
x

Función de probabilidad condicional

La función de probabilidad condicional de X dado Y = y es:

p(x|y)

p(x,y)

p (y)

Y

Y la función de probabilidad condicional de Y dado X = x es:

p(y|x)

p(x,y)

p

  • X (x)

La definición para dos variables aleatorias continuas es

semejante:

F(x,y) = P(X x, Yy).

La densidad de probabilidad f(x,y) se obtiene derivando la función de probabilidad con respecto a sus argumentos:

2

F

(

x

,

y

)

 

x

y

2

F

(

x

,

y

)

 

y

x

f

(

x

,

y

)

Por supuesto:

f

(

x

,

y

)

0,

 

 

f

(

x

,

y dxdy

)

6

1

 

Las densidades de probabilidad marginales y las probabilidades condicionales se definen de forma semejante al caso bidimensional discreto sin más que sustituir sumatorios por integrales. Así:

 

f

Y (

y

)



f

(

x

,

y dx

)

 
 

f

X (

x

)



f

(

x

,

y dy

)

f(x|y)

f(x,y)

f (y)

Y

 

f(y|x)

f(x,y)

f

X

(x)

Distribuciones bidimensionales

e independencia

Los sucesos aleatorios {X = x} e {Y = y} son independientes si:

P(x, y)  P (x)  P (y) X Y
P(x, y)
P (x)
P (y)
X
Y

Y entonces, dos variables aleatorias serán independientes si la relación anterior se cumple para todos los posibles pares (x,y).

Podremos entonces escribir:

p(x|y)

p

X

(x)

y

p(y|x)

p (y)

Y

El teorema de Bayes se expresa como:

p(x|y)

p (x) p(y|x)

X

p

Y

(

y

)

p(y|x)

p (y) p(x|y)

Y

p

(x)
X

10
10

Transformación de variables

aleatorias bidimensionales

Dada una variable bidimensional (X, Y), con función densidad de probabilidad conjunta f(x, y) y una transformación biunívoca:

U = u(X, Y),

V = v(X, Y)

la función de densidad de probabilidad conjunta de la nueva variable aleatoria bidimensional (U, V) será:

g(u, v) = f(x(u,v), y(u,v)) |J|

con:

J

x

u

y

u

x

v

y

v

u

x

v

x

1

u

y

v

y

11

Ejemplo de transformación bidimensional

Sean x,y dos números aleatorios generados por distribuciones normales tipificadas N(0,1). Si son independientes, su distribución sobre un plano será:

2 1  x  1  P x ( , y )  Exp 
2
1
x
1
P x
(
,
y
) 
Exp 
Exp  
2
2
2

2

y

2

 

1

1

2

2

1

2

(

2

x

2

y

)

Exp

2

Hagamos una transformación a coordenadas polares (R,θ). Con d = R 2 = x 2 + y 2 :

P d

(

,

)

(

x

,

y

)

(

d

,

)

(

P x

,

y

)

Exp

(

d

/ 2)

que es equivalente al producto de una distribución exponencial de vida media 2, y una distribución uniforme definida en el intervalo

[0,2π].

12

(Press et al., “Numerical Recipes”)

Transformación de Box-Müller:

¿Cómo conseguir una distribución normal bidimensional a partir de una uniforme?

Sean dos números aleatorios u 1 , u 2 derivados de una distribución uniforme. Se realizan las transformaciones:

2 R   2 ln u 1    2 u 2
2
R
  2 ln
u
1
  
2
u
2
x  R cos    2 ln u cos(2  u ) 1 2
x
R
cos
 
2 ln
u
cos(2
u
)
1
2
y
R
sin
 
2 ln
u
sin(2
u
)
1
2

demuestra que nos llevan a dos números aleatorios x,y cuya probabilidad sigue una distribución normal.

Puesto que las transformaciones dependen de funciones trigonométricas, no son muy eficientes para el cálculo computacional.

13

(Press et al., “Numerical Recipes”)

Para hacer el algoritmo de Box-Müller

(−1,1) (1,1) R v θ 2 v 1 (−1,−1) (1,−1)
(−1,1)
(1,1)
R
v
θ
2
v
1
(−1,−1)
(1,−1)

más rápido se definen las variables:

v 1 =2u 1 −1 v 2 =2u 2 −1

Se generan números hasta que

(v 1 ,v 2 ) se encuentre dentro del círculo de radio R = 1.

v

1

R

v

1

 

(

2

  • 2 )

1/ 2

  • v

1

v

2

v

2

 

(

2

  • 2 )

1/ 2

  • v

1

v

2

cos

sin

 

 

x v

1

 

 

y v

2

1/ 2

2 ln d

  • d

2 ln d

v

2

R

1/ 2

Estas transformaciones modificadas son más eficientes en el cálculo.

  • d

para d ≤ 1.

14

(Press et al., “Numerical Recipes”)

15

15

16
16
18
18
19
19

Covarianza

La covarianza mide la manera en que dos variables aleatorias X e Y varían juntas. Por ejemplo, si cuando una variable aleatoria X se acerca a su media, entonces es de esperar que la variable Y esté cercana a la suya, la covarianza es positiva. Si es de esperar que la variable Y esté lejana a su media,

entonces la covarianza es negativa.

Cov(X,Y) E(X )(Y )

Con: EX EY

20

Se cumple que:

Cov(X,Y) EX Y

Si X e Y son variables independientes, su covarianza

es cero. Observa que en este caso:

cov(X ,Y ) EX Y  EX EY    0

Se cumple que: Cov( X , Y )  E  X  Y  

Puesto que X e Y son variables independientes

Si la covarianza de X e Y es cero, no necesariamente X e Y son variables independientes.

21

Propiedades de la covarianza

Si a y b son constantes:

cov(

XX

,)

var



X

cov(

XY

,)

cov



YX

,

cov(

aX bY

,)

ab

cov

X Y

,

Nota:

Var(

aX bY

)

2

a

Var

Xb

2

Var

2

Y

ab

Cov(

XY

,)

23
23
24
24
25
26
29
34
35
37

37

38

38

39

39

40
41

41

42

42

43

43

44
45