Está en la página 1de 50

8.

Distribuciones continuas

1
Transformaciones de variables aleatorias

Densidad
3 / 2 x 2  1  x  1
f ( x)  
 0 en el resto

Distribución 0 x  1

F ( x)   1 / 2 ( x 3  1)  1  x  1
 1 x 1

Y  u( X )  2 X
Transformación o cambio de
variable aleatoria y  u( x )  2 x
¿Cuál será la función de densidad de
probabilidad transformada g(y)?
x  u 1 ( y )  w( y )  y2 / 2
G ( y )  P(Y  y )  P(2 X  y )  P( X  y / 2)  F ( y / 2)
1 1
g ( y )  G ' ( y )  F ' ( y / 2)  f ( y / 2)
2 2

3 / 16 y 2  2  y  2
g ( y)  
 0 en el resto

 0 y  2

G ( y )  1 / 2 [( y / 2)3  1]  2  y  2
 1 y2

3
Probemos ahora con una transformación que no sea
biyectiva, como:
Y  u( X )  X 2

y  u( x )  x 2

x  u 1 ( y )  w( y )   y
G ( y )  P(Y  y )  P( X  y )  P( y  X   y )
2

 F ( y )  F ( y )
1 1
g ( y )  G ' ( y )  F ' ( y )  F ' ( y ) 
2 y 2 y
1 1
f ( y)  f ( y ) 4
2 y 2 y
3 / 2 y 0  y  1
g ( y)  
 0 en el resto

0 y0

G( y)   y y 0  y 1
 1 y 1

5
Distribución log-normal Log-N(,)
Se trata de la densidad de probabilidad de una variable log x
distribuida según una función normal:

X  N ( ,  ) Y e X

G ( y )  P(Y  y )  P(e  y )  P( X  log y )  F (log y )


X

1 1
g ( y )  G ' ( y )  F ' (log y )  f (log y )
y y

1 1  (log y   ) 
2
g ( y)  exp   ; y0
2  y  2 2

6
7
8
9
Distribución exponencial Exp ()
La distribución exponencial es el equivalente continuo de
la distribución geométrica discreta. Que recordemos era:

G ( p)  P( X  x)  1  p  p, x  0,1, 2, ...
x

Describe procesos en los que nos interesa saber el


tiempo hasta que ocurre un determinado evento,
sabiendo que el tiempo que puede transcurrir desde
cualquier instante dado t, hasta que ello ocurra en un
instante tf, no depende del tiempo transcurrido
anteriormente.
10
Distribución exponencial Exp ()

Ejemplos de este tipo de


distribuciones son: el tiempo que
tarda una partícula radiactiva
en desintegrarse (datación de
fósiles o cualquier materia
orgánica mediante la técnica del
carbono 14) o el tiempo que
puede transcurrir en un servicio
de urgencias, para la llegada de
un paciente.

11
Distribución exponencial Exp ()
En un proceso de Poisson donde
se repite sucesivamente un
experimento a intervalos de
tiempo iguales, el tiempo que
transcurre entre la ocurrencia de
dos "sucesos raros" consecutivos
sigue un modelo probabilístico
exponencial. Por ejemplo, el
tiempo que transcurre entre que
sufrimos dos veces una herida
importante (o una coz de burro,
recuerda...) 12
Distribución exponencial Exp ()
 x
f ( x)  e para x  0,   0
2.0
1.8 
  
 f ( x)dx   e
1.6
 x
1.4
 dx
1.2  0

 x  
1.0
0.8  e 1
0.6 0
0.4
0.2
0.0
0 1 2 3 4 5 6 7 8

 1
Vida media    xe dx   x
0  13
Distribución exponencial Exp ()
x

t t x x
e dt   e 0
 1 e
0

1  e x , x  0
F ( x)  
 0, x0

14
15
16
Relación entre la distribución de Poisson y la
exponencial

Entre las distribuciones de Poisson y Exponencial existen


importantes relaciones.
• Distribución de Poisson: Sea Y una P( ) que representa el
número de llegadas en un intervalo de tiempo fijo. Recuerda que
 es la esperanza de esta distribución.
• Distribución exponencial: En este mismo problema
consideramos ahora el tiempo que transcurre entre dos llegadas.
Sea X la v.a que representa dicho tiempo. Se puede demostrar
que entonces X se distrubuye como una Exponencial().
Propiedad de ‘falta de memoria’ de la
distribución exponencial
• Se dice que la distribución exponencial no tiene memoria.
Esto es
P ( X  s  t | X  t )  P ( X  s ).
para todo s, t  0.
• Interpretación: Supongamos que queremos determinar la
probabilidad de que llegue un cliente en la próxima media
hora. Esta propiedad nos dice que nos da igual conocer
cuando llegó el último cliente o calcular directamente cuál
es la prob. De que llegue en los prox. 30 min SIN tener en
cuenta el pasado.
El tiempo en que un producto está de moda en su mercado
se distribuye como una exponencial de parámetro 8 meses.
Si sabemos que ya lleva 5 de moda, ¿cuál es la
probabilidad de que dure 10 más?
• Sea X: tiempo que el producto está de moda. Nos
piden: P ( X  10  5 | X  5)

• Por la propiedad de ausencia de memoria de las


distribuciones exponenciales sabemos que
P ( X  10  5 | X  5)  P ( X  10).
Por tanto

10*8 10*8
P( X  10)  1  P( X  10)  1  (1  e )e
Tippex de Powerpoint

20
21
23
24
25
26
Fiabilidad

En instalaciones o
aparatos con posibilidad
de accidentes graves:
centrales nucleares,
aviones, coches,... es
imprescindible conocer la
probabilidad de que éstos
acontezcan durante la
vida del sistema.

28
Fiabilidad
Definimos la variable aleatoria:

T = tiempo durante el que el elemento funciona


satisfactoriamente antes de que se produzca un
fallo.

La probabilidad de que el elemento proporcione


unos resultados satisfactorios en el momento t se
puede definir como la fiabilidad o confiabilidad:

R(t) = P(T > t)


29
La infiabilidad Q(t) es la probabilidad de que ocurra un
fallo antes del instante t: Q(t) = F(t) = 1 - R(t)

Sea λ(t) la tasa de fallos o averías por unidad de tiempo.


Supongamos que un elemento funciona en el instante t.
La probabilidad condicional de que se produzca una
avería entre el momento t y el t + dt puede escribirse:

Q(t  t )  Q(t ) R(t )  R(t  t )


P(t  T  t  t | T  t )     (t )t
R(t ) R(t )
1 R(t )  R(t  t )
  (t )
R(t ) t
1 dR(t ) d Ln R(t ) 
   (t );   (t )
R(t ) d (t ) d (t )
R(t )  Exp    (t )30dt 
 t

 0 
La curva de la bañera La tercera etapa
Curva típica de evolución de la tasa de fallos de fallos de
desgaste es
debida a la
superación de la
vida prevista del
componente
cuando
empiezan a
aparecer fallos
Existencia inicial de degradación
de dispositivos como
defectuosos o consecuencia
instalados del desgaste. Se
indebidamente caracteriza por
con una tasa de un aumento
fallos superior a rápido de la tasa
la normal. de fallos.

Fallos normales o aleatorios. El comportamiento de la


Esta tasa de fallos elevada tasa es constante durante esta etapa y los fallos son
va disminuyendo debidos a las propias condiciones normales de trabajo
con el tiempo hasta alcanzar de los dispositivos o a solicitaciones ocasionales
un valor casi constante. 31
superiores a las normales.

R(t )  Exp    (t )dt 
t

 0 

Si la tasa de fallos o averías por unidad de tiempo es


constante: λ(t) = λ, tendremos que la fiabilidad es:


R(t )  Exp    (t )dt   Exp(t )
t

 0 

una densidad de probabilidad exponencial.


Esta fórmula de fiabilidad se aplica a todos los dispositivos
que han sufrido un rodaje apropiado que permita excluir los
fallos iniciales, y que no estén afectados aún por el
desgaste (la zona plana de la bañera).

32

R(t )  Exp    (t )dt 
t

 0 

En 1951 Weibull propuso que la expresión empírica más


simple capaz de ajustar a una gran variedad de datos reales:

 
t  t  t0    t  t0  
0  (t )dt      R(t )  Exp    
 
  t  t  
F (t )  1  Exp  0
  r  
     
 1
  t  t0 
 1
 
 t  t0    
f (t )    Exp     
         y  t  33t0
Distribución de Weibull W(r, )

X  Exp( ) YX 1/ r

GY ( y)  P(Y  y)  P( X 1/ r  y)  P( X  y r )  FX ( y r )
r 1 r 1
gY ( y)  G'Y ( y)  F ' X ( y )ry
r
 f X ( y )ry
r

r 1  y r
g ( y)  ry e ; y0
34
Función generatriz de momentos

Discreta g (t )  E[e ]   e P( X  xi )
tX txi

i

Continua g (t )  E[e ]   e f ( x)dx
tX tx


  2 3
t 2 t 3 
g (t )  E[e ]   1  tx  x  x  ... f ( x)dx 
tX

 2! 3! 
2 3
t t
1  tm1  m2  m3  ... k
d g (t )
2! 3! mk  k
dt t 0
35
Función característica

 (t )  E[e ]   e P( X  xi )
itX itxi

i

 (t )  E[e ]   e f ( x)dx
itX itx


Observemos que:

1 
 e  (t )dt
itx
f ( x) 
2 

a partir de la anti-transformada de Fourier de la función


característica obtenemos la densidad de probabilidad.
36
Desarrollando en Taylor la función característica
alrededor de t = 0:
 ' ' (0)  (0)
(k )
 (t )   (0)   ' (0)t  t  ... 
2
t  ...
k

2! k!
 (t )  E[eitX ]   (0)  1
 ' (t )  E[iXe itX ]   ' (0)  E[iX ]  im1
 ' ' (t )  E[i 2 X 2 eitX ]   ' ' (0)  E[i 2 X 2 ]  i 2 m2
...
d k (t ) d k (0)
k
 E[i k
X k itX
e ]  k
 E[i k
X k
]  i k
mk
dt dt
2 k
i i
 (t )  1  im1t  m2t  ...  mk t  ...
2 k

2! k!
1 d k (t )
mk  k k 37
i dt t 0
Calculemos la esperanza y la varianza de la distribución exponencial.

 
 (t )  E[e ]   e f ( x)dx   e e dx 
itX itx itx  x
 

  

 (  it ) x  (  it ) x
e dx   e 
0   it 0   it
i 2i 2
 ' (t )   ' ' (t ) 
(  it ) 2 (  it )3
2
i 2i
 ' ( 0)   ' ' (0) 
 2
 ' ( 0) 1  ' ' (0) 2
E[ X ]   E[ X ] 
2

i  i 2
2
2 138 1
  E[ X ]  ( E[ X ]) 
2 2 2
 
 2
2
2
Sean {X1, X2, ... , XN } n variables aleatorias independientes
con funciones características {1(t), 2(t), ... , N(t) }, e
Y = X1+ X2+ ... + XN.
n
Y (t )   i (t )
Entonces:

i 1
Ejemplo:
Sean X1 = Exp(), X2 = Exp() ... , Xn = Exp() n variables
aleatorias independientes. ¿Cómo se distribuye Y = X1+
X2+ ... + Xn?


 k (t )  ; k  1, 2, ..., n
  it
  
n n

Y (t )    
k 1   it    it  39
Distribución de Erlang Er(n,  )

 n
n 1 x
f ( x)  x e ; n,   0 x  0
(n)

  n
 (t )  E[eitX ]   eitx f ( x)dx   eitx x n 1e x dx 
   ( n)
n 1
 n
  n
  u  1
 ( n)   ( n) 
n 1  (  it ) x u
x e dx    e du 
0 0
   it    it
    
n n n
1  1

n 1 u
u e du   ( n)   
(n) (  it ) n 0 (n) (  it ) n
   it 
40
41
42
43
45
46
47
50

También podría gustarte