Está en la página 1de 8

Estadstica 52

Tema 5: Modelos de probabilidad.


5.1 Modelos discretos.
(a) Distribucion uniforme discreta:
La variable aleatoria X tiene una distribucion uniforme discreta de parametro n,que denoteramos
por U(n), si su ley de probabilidad viene dada por:
S
X
= {x
1
, x
2
, . . . , x
n
}
p(X = x
i
) =
1
n
, para cada i = 1, 2, . . . , n.
(b) Distribuciones denidas sobre un experimento de Bernouilli
Un experimento aleatorio se denomina de Bernouilli si verica las tres condiciones siguientes:
1 El experimento consiste en observar elementos de una poblacion y clasicarlos en dos categoras:
exito y fracaso (que denominaremos E y F).
2 Llamaremos p a la probabilidad de que un elemento este en E y q = 1 p a la probabilidad
de que este en F.
3 Las observaciones son independientes.
Sobre los experimentos de Bernouilli se pueden denir varios modelos de variables aleatorias:
Distribucion de Bernouilli.
La variable aleatoria X que modeliza la clasicacion de un elemento observado en un experimento
de Bernouilli como E o F, tiene una distribucion que llamaremos Bernouilli de parametro p.
Lo denotaremos por X ;B(p). Su ley de probabilidad viene dada por:
S
X
= {0, 1}
p(X = 1) = p, p(X = 0) = 1 p
Sus medidas principales son:
E(X) = p V ar(X) = pq.
Distribucion binomial.
La variable aleatoria X que modeliza el n umero de elementos, entre n observados que tienen
la caracterstica E, tiene una distribucion que llamaremos binomial de parametros n y p. Lo
denotaremos por X ;B(n, p); su ley de probabilidad viene dada por:
S
X
= {0, 1, . . . , n}
Estadstica 53
p(X = k) =
_
n
k
_
p
k
(1 p)
nk
Sus medidas principales son:
E(X) = np V ar(X) = npq.
Propiedades 1 i. Si X ; B(n, p), entonces X es la suma de n variables de Bernouilli
independientes y de parametro p.
ii. Si X
1
, X
2
, . . . , X
k
son variables binomiales independientes de parametros n
i
y p, i =
1, 2, . . . , k, entonces X
1
+. . . +X
k
tiene distribucion B(n
1
+. . . +n
k
, p).
iii. Si X ;B(n, p) entonces Y = n X ;B(n, 1 p).
iv. La distribucion es simetrica si y solo si p =
1
2
. Si p <
1
2
, entonces existe asimetra a la
derecha y en caso contrario hay asimetra a la izquierda.
Observacion 1 Los valores de la media y de la varianza de X se deducen facilmente a
partir de la propiedad (i).
La propiedad (ii) se denomina propiedad de aditividad y no es cierta en general para
cualquier modelo de distribucion: por ejemplo, si X e Y son las variables que modelizan
el resultado de dos dados normales, ambas son uniformes discretas, pero su suma, que
modelizara la suma de resultados, no lo es.
Distribucion geometrica:
La variable aleatoria X que modeliza el n umero de observaciones (o ensayos) necesarias
para obtener el primer exito en un experimento de Bernouilli, tiene una distribucion que
llamaremos geometrica de parametro p. Lo denotaremos por X ;G(p); su ley de probabilidad
viene dada por:
S
X
= {1, 2, . . .}
p(X = k) = p(1 p)
k1
k = 1, 2, . . .
Sus medidas principales son:
E(X) =
1
p
V ar(X) =
1p
p
2
Observacion 2 En ocasiones conviene utilizar la variable Y que modeliza el n umero de
fracasos necesarios hasta obtener el primer exito en un experimento de Bernouilli; esta
variable esta relacionada con la anterior por la igualdad Y = X1; a partir de esta relacion
se deduce la ley de probabilidades, media y varianza de la variable Y (calc ulalas).
Distribucion binomial negativa.
La variable aleatoria X que modeliza el n umero de ensayos necesarios para obtener el r-
esimo exito, tiene una distribucion que llamamos binomial negativa de parametros r y p. Lo
denotaremos por X;BN(r, p). Su ley de probabilidad viene dada por:
S
X
= {r, r + 1, . . .}
Estadstica 54
p(X = k) =
_
k 1
r 1
_
p
r
(1 p)
kr
Sus medidas principales son:
E(X) =
r
p
V ar(X) =
r(1p)
p
2
Observacion 3 EL siguiente cuadro seala las diferencias entre las variables binomial y binnomial
negativa, indicando que es lo que permanece jo y cuales son los valores (aleatorios) de la variable:
N
o
de ensayos N
o
de exitos
Binomial jo aleatorio
Binomial negativa aleatorio jo
(c) Distribucion hipergeometrica.
La variable aleatoria X cuya distribucion se denomina hipergeometrica de parametros N, n y Q,
se dene sobre experimentos que consisten en observar elementos de una poblacion y clasicarlos
en dos categoras, exito y fracaso, (es decir, que cumplen la condicion 1) de los experimentos de
Bernouilli), pero en los que las observaciones no son independientes. Corresponde a modelizar el
n umero de individuos que tienen la caracterstica de interes, de n (diferentes) observados de una
poblacion nita, de tama no N, cuando en la poblacion hay Q individuos con esa caracterstica.
La denotaremos por X;H(N, n, Q); su ley de probabilidad viene dada por:
S
X
= [max{0, n (N Q)}, . . . , mn{Q, n}]
p(X = i) =
_
Q
i
__
N Q
n i
_
_
N
n
_
Sus medidas principales son:
E(X) =
nQ
N
V ar(X) =
nQ
N
_
1
Q
N
_ _
Nn
N1
_
Aproximacion de la distribucion hipergeometrica por la binomial.
Si X es una variable aleatoria con distribucion hipergeometrica H(N, n, Q), se puede demostrar
que cuando N , Q y
Q
N
p, la distribucion hipergeometrica tiende a una distribucion
binomial B(n, p). Esto permite aproximar la hipergeometrica H(N, n, Q) por una binomial de
parametros n y
Q
N
cuando N es sucientemente grande. En general, la aproximacion se considera
satisfactoria si N > 50 y
n
N
0.1.
(d) Distribuciones discretas denidas sobre un proceso de Poisson.
Un proceso de Poisson es un experimento en el que se observa la aparicion de sucesos puntuales
sobre un soporte continuo (intervalo de tiempo, de longitud, supercie, etc) y que cumple las
siguientes condiciones:
Estadstica 55
1 El n umero de resultados que ocurren en un intervalo de tiempo o region especca es indepen-
diente del n umero que ocurre en cualquier otro intervalo disjunto, es decir, no depende del
n umero de resultados que ocurren fuera de el.
2 La probabilidad de que un suceso ocurra en un intervalo o region muy peque na es proporcional
a la longitud del intervalo o area de la region.
3 La probabilidad de que ocurra mas de un resultado en un intervalo corto es despreciable.
Como consecuencia de las propiedades anteriores el promedio de sucesos por unidad de soporte
se mantiene constante y lo denotaremos por .
Distribucion de Poisson.
La variable aleatoria X que modeliza el n umero de sucesos en una unidad de soporte, en un
proceso de Poisson, tiene una distribucion que llamaremos de Poisson de parametro . La
denotaremos por X;P(). Su ley de probabilidad viene dada por:
S
X
= {0, 1 . . .}
p(X = k) =
()
k
e

k!
Sus medidas principales son:
E(X) = V ar(X) = .
Observacion 4 Si Y es la variable que modeliza el n umero de sucesos en t unidades de
soporte (t > 0), la variable Y es tambien de Poisson y su parametro es t, pues por las
propiedades de los procesos de Poisson se deduce que el n umero medio de sucesos en t unidades
de soporte es t.
Proposicion 1 Si X
1
, . . . , X
k
son variables aleatorias independientes, con distribucion de
Poisson, con parametros
i
, i = 1, 2, . . . , k entonces la variable aleatoria X =
k

i=1
X
i
tiene
distribucion de Poisson de parametro =
k

i=1

i
.
Teorema 1 Teorema de Poisson
Sea {X
n
}

n=1
una sucesion de v. a., tales que X
n
; B(n, p
n
). Si lim
n
np
n
= y X es una
v.a. con distribucion P(), se tiene que:
lim
n
p(X
n
x) = p(X x), para cada x IR.
Observacion 5 Este ultimo resultado se utiliza en la practica para aproximar las probabilidades
relativas a una variable B(n, p) con n grande y p peque o por probabilidades relativas a una
variable de Poisson de parametro = np. Utilizaremos esta aproximacion cuando n 25 y
p < 0.01.
Estadstica 56
5.2 Modelos continuos.
(a) Distribucion exponencial
La variable aleatoria T que en los procesos de Poisson modeliza el tiempo entre la ocurrencia de
dos sucesos consecutivos, tiene una distribucion que llamaremos exponencial de parametro > 0;
la denotaremos por T;Exp(). Su ley de probabilidades es:
S
X
= (0, )
f(t) =
_
0 si t < 0
e
t
si t 0
Su funcion de distribucion viene dada por:
F(t) = 1 e
t
Sus medidas principales son:
E(X) =
1

V ar(X) =
1

2
.
Es el ejemplo mas simple de las distribuciones utilizadas en abilidad.
Proposicion 2 Propiedad de perdida de memoria de la distribucion exponencial.
Si X es una v.a. con distribucion Exp(), entonces
p(X x +h/(X > x)) = p(X h)para cada x, h 0.
Demostracion
Para cada x > 0 y cada h 0,
p(X x +h/(X > x)) =
p(X x +h)
p(X > x)
=
=
e
(t+h)
e
t
= e
h
= p(X h)
(b) Distribucion uniforme continua
La variable aleatoria X tiene una distribucion uniforme continua de parametros a y b, que
denotaremos por U(a, b), si su ley de probabilidades es:
S
X
= [a, b] (o (a, b], [a, b), (a, b); denotaremos al intervalo por I)
f(x) =
_
1
ba
si x I
0 en otro caso
Sus medidas principales son:
E(X) =
a +b
2
V ar(X) =
(b a)
2
12
.
Estadstica 57
(c) Distribucion normal
La variable aleatoria X tiene una distribucion normal de parametros y , X ; N(, ) si su
ley de probabilidades es:
S
X
= IR
f(x) =
1

2
exp
_

1
2
_
x

_
2
_
, para cada x IR.
Propiedades 2 i. E(X) =
ii. V ar(X) =
2
iii. Es simetrica respecto de media, mediana y moda, que coinciden con .
iv. La funcion de densidad tiene puntos de inexion en .
v. La funcion de densidad tiende asintoticamente a 0 en .
vi. Q
1
= 0.675, Q
3
= + 0.675 y por tanto, el IRQ es 1.35.
vii. En 2 se encuentra el 95.5% de la distribucion y en 3 se encuentra el 99.7% de la
misma.
viii. Si X ;N(, ), entonces la variable estandarizada, Z =
X

tiene distribucion N(0, 1).


ix. Dos distribuciones normales cualesquiera estan relacionadas mediante una transformacion
lineal.
x. Si X
1
, X
2
, . . . , X
n
son variables aleatorias independientes, tales que X
i
; N(
i
,
i
), i =
1, . . . , n, entonces la v.a. X =
n

i=1
X
i
tiene distribucion N(
n

i=1

i
,

i=1

2
i
).
5.3 Teorema Central del Lmite.
El modelo normal es uno de los utilizados mas frecuentemente, debido a que en muchas situaciones, los
resultados de un experimento son consecuencia de m ultiples causas de pequea incidencia individual,
pero cuyos efectos se suman, dando lugar a los resultados del experimento (por ejemplo, los errores
de medida, en muchas situaciones); en estas situaciones, el modelo normal suele aproximar bien el
comportamiento de los resultados del experimento. El siguiente teorema explica el buen funcionamiento
del modelo normal:
Teorema 2 Sea {X
n
}

n=1
una sucesi on de variables aleatorias independientes con E(X
i
) =
i
y
V ar(X
i
) =
2
i
. Entonces la sucesion de variables aleatorias denida por:
Z
n
=
n

i=1
X
i

i=1

i
_
n

i=1

2
i
_
1/2
converge asintoticamente a una variable aleatoria con distribucion N(0, 1), es decir, si F
n
es la funcion
de distribucion de la variable Z
n
, n = 1, 2, . . ., y es la funcion de distribucion de una variable N(0, 1),
entonces para cada x IR,
lim
n
F
n
(x) = (x).
Estadstica 58
Tambien se dice que
n

i=1
X
i
es asintoticamente una variable N(
n

i=1

i
,

i=1

2
i
)
Observaci on 6 Si {X
n
}

n=1
es una sucesion de variables aleatorias independientes e identicamente
distribuidas, todas ellas tendran la misma media () y la misma desviacion tpioca (), y en ese
caso, la variable
n

i=1
X
i
es asintoticamente una variable N(n
,

n)
El teorema anterior nos dice que si X
1
, X
2
, . . . X
n
son variables aleatorias independientes, las
probabilidades p(X x) de la variable X =
n

i=1
X
i
se pueden aproximar por valores de la funcion
de distribucion de la variable Y ; N(
n

i=1
E(X
i
),

i=1

2
(X
i
)), si n es sucientemente grande.
En general, la aproximacion es v alida para valores n 30.
Correccion de continuidad: Si la variable X =
n

i=1
X
i
es discreta, para que la aproximacion de
la variable X por la variable Y ; N(
n

i=1
E(X
i
),

i=1

2
(X
i
)) resulte mas precisa se utiliza la
llamada correccion de medio punto o de continuidad, que asigna a F
X
(b) el valor F
Y
(b + 0.5) si
b S
X
.
Si aplicamos el teorema anterior a una sucesion de variables con distribucion B(p) (Bernouilli de
parametro p), se obtiene el siguiente resultado:
Teorema 3 Teorema de De Moivre
Sea {X
n
}

n=1
una sucesion de variables aleatorias independientes con distribucion B(n, p). Entonces
X
n
es asintoticamente normal, con parametros = np y =

npq.
Observaci on 7 Como la distribucion binomial es discreta y la normal es continua, hay que
aplicar la correccion de medio punto o de continuidad, para aproximar p(X b).
La aproximacion de la probabilidad p(X b) de una binomial X ; B(n, p) por la probabilidad
p(Y b +0.5) de una normal Y ;N(np,

npq) no es adecuada para valores b S


X
en las colas
de la distribucion binomial. En concreto, para valores fuera de un intervalo np 3

npq.
Tampoco es, en general, adecuada la aproximacion para valores p <
1
n+1
o p >
n
n+1
.
Si p es proximo a 0.5, con n > 10 la aproximacion es satisfactoria.
Si 0.1 p 0.9 y n 25 la aproximacion es satisfactoria.
Como consecuencia del teorema de Poisson y del teorema de De Moivre, se puede demostrar
que una distribucion de Poisson de parametro se puede aproximar por medio de una variable
aleatoria N(,

). Generalmente, esta aproximacion es satisfactoria si > 5.


Estadstica 59
5.4 Otras distribuciones continuas.
(a) Distribucion gamma:
La variable aleatoria X tiene una distribucion gamma de parametros y (ambos positivos) si
su ley de probabilidades es:
S
X
= (0, )
f(x) =
_
_
_
0 si x 0

()
(x)
1
e
x
si x > 0
Su funcion de distribucion viene dada por:
F(t) = 1
r1

i=0
e
x
(x)
i
i!
Sus medidas principales son:
E(X) =

V ar(X) =

2
.
En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes.
En el caso particular de que = 1, entonces la distribucion gamma es una exponencial de
parametro .
En el caso particular de que sea un n umero natural, la variable X es suma de v. a.
independientes con distribucion exponencial, de parametro
(b) Distribucion de Weibull.
La variable aleatoria X tiene una distribucion de Weibull de parametros y (ambos positivos)
si su ley de probabilidad es:
S
X
= (0, )
f(x) =
_
_
_
0 si x 0

exp
_

_
x

_
si x > 0
Su funcion de distribucion viene dada por:
F(t) = 1 exp
_

_
x

_
Sus medidas principales son:
E(X) =
_
1 +
1

_
V ar(X) =
2
_

_
1 +
2

_
1 +
1

_
2
_
En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes.

También podría gustarte