08 Tema5 Teoria

También podría gustarte

Está en la página 1de 8

Estadı́stica 52

Tema 5: Modelos de probabilidad.

5.1 Modelos discretos.

(a) Distribución uniforme discreta:


La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos
por U(n), si su ley de probabilidad viene dada por:

SX = {x1 , x2 , . . . , xn }
1
p(X = xi ) = , para cada i = 1, 2, . . . , n.
n
(b) Distribuciones definidas sobre un experimento de Bernouilli
Un experimento aleatorio se denomina de Bernouilli si verifica las tres condiciones siguientes:
1 El experimento consiste en observar elementos de una población y clasificarlos en dos categorı́as:
éxito y fracaso (que denominaremos E y F).
2 Llamaremos p a la probabilidad de que un elemento esté en E y q = 1 − p a la probabilidad
de que esté en F.
3 Las observaciones son independientes.
Sobre los experimentos de Bernouilli se pueden definir varios modelos de variables aleatorias:
• Distribución de Bernouilli.
La variable aleatoria X que modeliza la clasificación de un elemento observado en un experimento
de Bernouilli como E ó F, tiene una distribución que llamaremos Bernouilli de parámetro p.
Lo denotaremos por X ; B(p). Su ley de probabilidad viene dada por:

SX = {0, 1}

p(X = 1) = p, p(X = 0) = 1 − p

Sus medidas principales son:

E(X) = p V ar(X) = pq.

• Distribución binomial.
La variable aleatoria X que modeliza el número de elementos, entre n observados que tienen
la caracterı́stica E, tiene una distribución que llamaremos binomial de parámetros n y p. Lo
denotaremos por X ; B(n, p); su ley de probabilidad viene dada por:

SX = {0, 1, . . . , n}
Estadı́stica 53
!
n
p(X = k) = pk (1 − p)n−k
k
Sus medidas principales son:

E(X) = np V ar(X) = npq.

Propiedades 1 i. Si X ; B(n, p), entonces X es la suma de n variables de Bernouilli


independientes y de parámetro p.
ii. Si X1 , X2 , . . . , Xk son variables binomiales independientes de parámetros ni y p, i =
1, 2, . . . , k, entonces X1 + . . . + Xk tiene distribución B(n1 + . . . + nk , p).
iii. Si X ; B(n, p) entonces Y = n − X ; B(n, 1 − p).
iv. La distribución es simétrica si y sólo si p = 21 . Si p < 12 , entonces existe asimetrı́a a la
derecha y en caso contrario hay asimetrı́a a la izquierda.
Observación 1 – Los valores de la media y de la varianza de X se deducen fácilmente a
partir de la propiedad (i).
– La propiedad (ii) se denomina propiedad de aditividad y no es cierta en general para
cualquier modelo de distribución: por ejemplo, si X e Y son las variables que modelizan
el resultado de dos dados normales, ambas son uniformes discretas, pero su suma, que
modelizarı́a la suma de resultados, no lo es.
• Distribución geométrica:
La variable aleatoria X que modeliza el número de observaciones (o ensayos) necesarias
para obtener el primer éxito en un experimento de Bernouilli, tiene una distribución que
llamaremos geométrica de parámetro p. Lo denotaremos por X ; G(p); su ley de probabilidad
viene dada por:
SX = {1, 2, . . .}

p(X = k) = p(1 − p)k−1 ∀k = 1, 2, . . .

Sus medidas principales son:

1 1−p
E(X) = p V ar(X) = p2

Observación 2 En ocasiones conviene utilizar la variable Y que modeliza el número de


fracasos necesarios hasta obtener el primer éxito en un experimento de Bernouilli; esta
variable está relacionada con la anterior por la igualdad Y = X − 1; a partir de esta relación
se deduce la ley de probabilidades, media y varianza de la variable Y (calcúlalas).
• Distribución binomial negativa.
La variable aleatoria X que modeliza el número de ensayos necesarios para obtener el r-
ésimo éxito, tiene una distribución que llamamos binomial negativa de parámetros r y p. Lo
denotaremos por X; BN (r, p). Su ley de probabilidad viene dada por:

SX = {r, r + 1, . . .}
Estadı́stica 54
!
k−1
p(X = k) = pr (1 − p)k−r
r−1
Sus medidas principales son:

r r(1−p)
E(X) = p V ar(X) = p2

Observación 3 EL siguiente cuadro seãla las diferencias entre las variables binomial y binnomial
negativa, indicando qué es lo que permanece fijo y cuáles son los valores (aleatorios) de la variable:
No de ensayos No de éxitos
Binomial fijo aleatorio
Binomial negativa aleatorio fijo

(c) Distribución hipergeométrica.


La variable aleatoria X cuya distribución se denomina hipergeométrica de parámetros N, n y Q,
se define sobre experimentos que consisten en observar elementos de una población y clasificarlos
en dos categorı́as, éxito y fracaso, (es decir, que cumplen la condición 1) de los experimentos de
Bernouilli), pero en los que las observaciones no son independientes. Corresponde a modelizar el
número de individuos que tienen la caracterı́stica de interés, de n (diferentes) observados de una
población finita, de tamaño N, cuándo en la población hay Q individuos con esa caracterı́stica.
La denotaremos por X; H(N, n, Q); su ley de probabilidad viene dada por:

SX = [máx{0, n − (N − Q)}, . . . , mı́n{Q, n}]


! !
Q N −Q
i n−i
p(X = i) = !
N
n
Sus medidas principales son:

  
nQ nQ Q N −n
E(X) = N V ar(X) = N 1− N N −1

Aproximación de la distribución hipergeométrica por la binomial.


Si X es una variable aleatoria con distribución hipergeométrica H(N, n, Q), se puede demostrar
Q
que cuando N 7→ ∞, Q 7→ ∞ y N 7→ p, la distribución hipergeométrica tiende a una distribución
binomial B(n, p). Esto permite aproximar la hipergeométrica H(N, n, Q) por una binomial de
Q
parámetros n y N cuando N es suficientemente grande. En general, la aproximación se considera
n
satisfactoria si N > 50 y N ≤ 0.1.

(d) Distribuciones discretas definidas sobre un proceso de Poisson.


Un proceso de Poisson es un experimento en el que se observa la aparición de sucesos puntuales
sobre un soporte continuo (intervalo de tiempo, de longitud, superficie, etc) y que cumple las
siguientes condiciones:
Estadı́stica 55

1 El número de resultados que ocurren en un intervalo de tiempo o región especı́fica es indepen-


diente del número que ocurre en cualquier otro intervalo disjunto, es decir, no depende del
número de resultados que ocurren fuera de él.
2 La probabilidad de que un suceso ocurra en un intervalo o región muy pequeña es proporcional
a la longitud del intervalo o área de la región.
3 La probabilidad de que ocurra más de un resultado en un intervalo corto es despreciable.
Como consecuencia de las propiedades anteriores el promedio de sucesos por unidad de soporte
se mantiene constante y lo denotaremos por λ.
• Distribución de Poisson.
La variable aleatoria X que modeliza el número de sucesos en una unidad de soporte, en un
proceso de Poisson, tiene una distribución que llamaremos de Poisson de parámetro λ. La
denotaremos por X; P(λ). Su ley de probabilidad viene dada por:

SX = {0, 1 . . .}

(λ)k e−λ
p(X = k) =
k!
Sus medidas principales son:

E(X) = λ V ar(X) = λ.

Observación 4 Si Y es la variable que modeliza el número de sucesos en t unidades de


soporte (t > 0), la variable Y es también de Poisson y su parámetro es λt, pues por las
propiedades de los procesos de Poisson se deduce que el número medio de sucesos en t unidades
de soporte es λt.
Proposición 1 Si X1 , . . . , Xk son variables aleatorias independientes, con distribución de
k
P
Poisson, con parámetros λi , i = 1, 2, . . . , k entonces la variable aleatoria X = Xi tiene
i=1
k
P
distribución de Poisson de parámetro λ = λi .
i=1
Teorema 1 Teorema de Poisson
Sea {Xn }∞n=1 una sucesión de v. a., tales que Xn ; B(n, pn ). Si n7lim
→∞
npn = λ y X es una
v.a. con distribución P(λ), se tiene que:

lim p(Xn ≤ x) = p(X ≤ x), para cada x ∈ IR.


n7→∞

Observación 5 Este último resultado se utiliza en la práctica para aproximar las probabilidades
relativas a una variable B(n, p) con n grande y p peque o por probabilidades relativas a una
variable de Poisson de parámetro λ = np. Utilizaremos esta aproximación cuando n ≥ 25 y
p < 0.01.
Estadı́stica 56

5.2 Modelos continuos.

(a) Distribución exponencial


La variable aleatoria T que en los procesos de Poisson modeliza el tiempo entre la ocurrencia de
dos sucesos consecutivos, tiene una distribución que llamaremos exponencial de parámetro λ > 0;
la denotaremos por T; Exp(λ). Su ley de probabilidades es:

SX = (0, ∞)
(
0 si t < 0
f (t) = −λt
λe si t ≥ 0
Su función de distribución viene dada por:

F (t) = 1 − e−λt

Sus medidas principales son:

1 1
E(X) = λ V ar(X) = λ2
.

Es el ejemplo más simple de las distribuciones utilizadas en fiabilidad.

Proposición 2 Propiedad de pérdida de memoria de la distribución exponencial.


Si X es una v.a. con distribución Exp(λ), entonces

p(X ≥ x + h/(X > x)) = p(X ≥ h)para cada x, h ≥ 0.

Demostración
Para cada x > 0 y cada h ≥ 0,
p(X ≥ x + h)
p(X ≥ x + h/(X > x)) = =
p(X > x)

e−λ(t+h)
= = e−λh = p(X ≥ h)
e−λt
(b) Distribución uniforme continua
La variable aleatoria X tiene una distribución uniforme continua de parámetros a y b, que
denotaremos por U(a, b), si su ley de probabilidades es:

SX = [a, b] (ó (a, b], [a, b), (a, b); denotaremos al intervalo por I)
(
1
b−a si x ∈ I
f (x) =
0 en otro caso
Sus medidas principales son:

a+b (b − a)2
E(X) = V ar(X) = .
2 12
Estadı́stica 57

(c) Distribución normal


La variable aleatoria X tiene una distribución normal de parámetros µ y σ, X ; N (µ, σ) si su
ley de probabilidades es:
SX = IR
( 2 )
1 1 x−µ

f (x) = √ exp − , para cada x ∈ IR.
σ 2π 2 σ

Propiedades 2 i. E(X) = µ
ii. V ar(X) = σ2
iii. Es simétrica respecto de media, mediana y moda, que coinciden con µ.
iv. La función de densidad tiene puntos de inflexión en µ ± σ.
v. La función de densidad tiende asintóticamente a 0 en ±∞.
vi. Q1 = µ − 0.675σ, Q3 = µ + 0.675σ y por tanto, el IRQ es 1.35σ.
vii. En µ ± 2σ se encuentra el 95.5% de la distribución y en µ ± 3σ se encuentra el 99.7% de la
misma.
X−µ
viii. Si X ; N (µ, σ), entonces la variable estandarizada, Z = σ tiene distribución N (0, 1).
ix. Dos distribuciones normales cualesquiera están relacionadas mediante una transformación
lineal.
que Xi ; N (µi , σi ), i =
x. Si X1 , X2 , . . . , Xn son variables aleatorias independientes, tales s
n n n
Xi tiene distribución N ( σi2 ).
P P P
1, . . . , n, entonces la v.a. X = µi ,
i=1 i=1 i=1

5.3 Teorema Central del Lı́mite.


El modelo normal es uno de los utilizados más frecuentemente, debido a que en muchas situaciones, los
resultados de un experimento son consecuencia de ”múltiples causas de pequeã incidencia individual,
pero cuyos efectos se suman, dando lugar a los resultados del experimento” (por ejemplo, los errores
de medida, en muchas situaciones); en estas situaciones, el modelo normal suele aproximar bien el
comportamiento de los resultados del experimento. El siguiente teorema explica el buen funcionamiento
del modelo normal:

Teorema 2 Sea {Xn }∞ n=1 una sucesión de variables aleatorias independientes con E(Xi ) = µi y
2
V ar(Xi ) = σi . Entonces la sucesión de variables aleatorias definida por:
n n
Xi −
P P
µi
Zn = i=1 i=1
1/2
n

σi2
P
i=1

converge asintóticamente a una variable aleatoria con distribución N (0, 1), es decir, si Fn es la función
de distribución de la variable Zn , n = 1, 2, . . ., y φ es la función de distribución de una variable N (0, 1),
entonces para cada x ∈ IR,
lim Fn (x) = φ(x).
n7→∞
Estadı́stica 58
s
n n n
Xi es asintóticamente una variable N ( σi2 )
P P P
También se dice que µi ,
i=1 i=1 i=1

Observación 6 • Si {Xn }∞n=1 es una sucesión de variables aleatorias independientes e idénticamente


distribuidas, todas ellas tendrán la misma media (µ) y la misma desviación tı́pioca (σ), y en ese
n √
Xi es asintóticamente una variable N (nµ, σ n)
P
caso, la variable
i=1
• El teorema anterior nos dice que si X1 , X2 , . . . Xn son variables aleatorias independientes, las
n
probabilidades p(X ≤ x) de la variable X =
P
Xi se pueden aproximar por valores de la función
i=1 s
n n
de distribución de la variable Y ; N ( σ 2 (Xi )), si n es suficientemente grande.
P P
E(Xi ),
i=1 i=1
En general, la aproximación es válida para valores n ≥ 30.
n
• Corrección de continuidad: Si la variable X =
P
Xi es discreta, para que la aproximación de
i=1
s
n n
la variable X por la variable Y ; N ( σ 2 (Xi )) resulte más precisa se utiliza la
P P
E(Xi ),
i=1 i=1
llamada corrección de medio punto o de continuidad, que asigna a FX (b) el valor FY (b + 0.5) si
b ∈ SX .

Si aplicamos el teorema anterior a una sucesión de variables con distribución B(p) (Bernouilli de
parámetro p), se obtiene el siguiente resultado:

Teorema 3 Teorema de De Moivre


Sea {Xn }∞
n=1 una sucesión de variables aleatorias independientes con distribución B(n, p). Entonces

Xn es asintóticamente normal, con parámetros µ = np y σ = npq.

Observación 7 • Como la distribución binomial es discreta y la normal es continua, hay que


aplicar la corrección de medio punto o de continuidad, para aproximar p(X ≤ b).
• La aproximación de la probabilidad p(X ≤ b) de una binomial X ; B(n, p) por la probabilidad

p(Y ≤ b + 0.5) de una normal Y ; N (np, npq) no es adecuada para valores b ∈ SX en las colas

de la distribución binomial. En concreto, para valores fuera de un intervalo np ± 3 npq.
1 n
• Tampoco es, en general, adecuada la aproximación para valores p < n+1 ó p > n+1 .

• Si p es próximo a 0.5, con n > 10 la aproximación es satisfactoria.


• Si 0.1 ≤ p ≤ 0.9 y n ≥ 25 la aproximación es satisfactoria.
• Como consecuencia del teorema de Poisson y del teorema de De Moivre, se puede demostrar
que una distribución de Poisson de parámetro λ se puede aproximar por medio de una variable

aleatoria N (λ, λ). Generalmente, esta aproximación es satisfactoria si λ > 5.
Estadı́stica 59

5.4 Otras distribuciones continuas.

(a) Distribución gamma:


La variable aleatoria X tiene una distribución gamma de parámetros α y β(ambos positivos) si
su ley de probabilidades es:
SX = (0, ∞)

 0 si x ≤ 0
f (x) =
 β (βx)α−1 e−βx si x > 0
Γ(α)

Su función de distribución viene dada por:


r−1
(βx)i
e−βx
X
F (t) = 1 −
i=0
i!

Sus medidas principales son:

α α
E(X) = β V ar(X) = β2
.

En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes.
En el caso particular de que α = 1, entonces la distribución gamma es una exponencial de
parámetro β.
En el caso particular de que α sea un número natural, la variable X es suma de α v. a.
independientes con distribución exponencial, de parámetro β
(b) Distribución de Weibull.
La variable aleatoria X tiene una distribución de Weibull de parámetros α y β (ambos positivos)
si su ley de probabilidad es:
SX = (0, ∞)

 0 si x ≤ 0
f (x) = h  α i
 αα exp − x si x > 0
β β

Su función de distribución viene dada por:


 α 
x

F (t) = 1 − exp −
β

Sus medidas principales son:

      2 
1 2 1
E(X) = βΓ 1 + α V ar(X) = β 2 Γ 1 + α −Γ 1+ α

En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes.

También podría gustarte