Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Dis Tri Buci Ones Continu As
Dis Tri Buci Ones Continu As
Tema 6
Algunos modelos de distribuciones continuas
Definición
Diremos que una variable aleatoria X, de tipo continuo, tiene una distribución uniforme
en el intervalo [a, b], con −∞ < a < b < +∞, si su función de densidad es constante en dicho
intervalo o, equivalentemente:
1
, a≤x≤b
b−a
f (x) =
0 , en el resto
Función de distribución:
0 , x<a
Z x
x−a
F (x) = f (x)dx = , a≤x<b
−∞
b−a
, x≥b
1
cuya representación gráfica es
Definición alternativa
Diremos que una variable aleatoria X sigue una distribución uniforme en el intervalo
[a, b] si la probabilidad de que la variable aleatoria tome un valor en cualquier subintervalo es
proporcional a la longitud del subintervalo.
Momentos no centrados:
+∞ b k+1 b
1 bk+1 − ak+1
Z Z
k k k 1 1 x
mk = E(X ) = x f (x) dx = x dx = =
−∞ a b−a b−a k+1 a b−a k+1
de donde se deduce
a+b
Media: E[X] = (punto medio del intervalo)
2
(b − a)2
Varianza: V ar(X) = , que se obtiene a partir de los momentos centrados de orden dos
12
y uno.
La distribución uniforme proporciona una representación adecuada para redondear las di-
ferencias que surgen al medir cantidades físicas entre los valores observados y los reales. Por
ejemplo, si el peso de una persona se redondea al kg. más cercano, entonces, la diferencia entre
éste y el peso verdadero será algún valor entre −0,5 y 0,5 kg. Es común que el error de redondeo
se encuentre distribuido uniformemente en el intervalo (−0,5, 0,5).
Como caso particular, cuando a = 0 y b = 1 tenemos la distribución U(0,1), de gran utilidad
en la práctica, como se puede comprobar con la transformada integral de probabilidad, y que
juega un papel muy importante en la generación de números aleatorios de ciertas distribuciones.
Ejemplo:
El tiempo en minutos que tarda un señor para ir de su casa al trabajo oscila de forma uniforme
entre 20 y 30. Si debe llegar al trabajo a las 8 de la mañana, ¿a qué hora debe salir de su casa
para tener una probabilidad de 0.9 de no llegar tarde?
Si X denota el tiempo en ir de casa al trabajo (en minutos), su distribución es U(20,30).
Buscamos el valor de a tal que P {X ≤ a} = 0,9. Pero
a − 20 a − 20
P {X ≤ a} = FX (a) = = = 0,9 =⇒ a = 29.
30 − 20 10
Por tanto, debe salir de casa a las 7h 31m.
El tiempo medio que tarda en ir de casa al trabajo es de 25 minutos, y la desviación típica
de 2.88 minutos.
2. Distribución Normal
La distribución normal es la más importante y la de mayor uso en la Teoría de la Probabili-
dad y la Estadística Matemática. Fue obtenida inicialmente por De Moivre en 1733 como límite
de la distribución binomial, siendo luego relegada al olvido hasta que Gauss en 1809 y Lapla-
ce en 1812 la obtuvieron empíricamente al estudiar la distribución de errores accidentales en
Astronomía y Geodesia (de ahí que se conozca también como distribución de Gauss-Laplace).
Esta distribución es la piedra angular en la aplicación de la Inferencia Estadística en el
análisis de datos, puesto que las distribuciones de muchos estadísticos muestrales tienden a
la distribución normal cuando el tamaño de la muestra crece. Además, la distribución normal
proporciona una adecuada representación de las distribuciones de una gran cantidad de variables
físicas (de hecho, el nombre de normal tiene carácter histórico, ya que, en un principio se creyó
que la mayoría de las distribuciones eran de este tipo). Algunos ejemplos son:
- Datos meteorológicos como la temperatura, lluvias, etc.
- Mediciones efectuadas en organismos vivos: altura, peso, etc.
- Calificaciones en pruebas de aptitud.
- Medidas físicas de productos manufacturados, etc.
Definición
Una variable aleatoria X, de tipo continuo, se dice que sigue una distribución normal si su
función de densidad es
1 (x−µ)2
f (x) = √ e− 2σ2 , −∞ < x < ∞
2π σ
Se notará X ∼ N (µ, σ 2 ). Los parámetros de la distribución, µ y σ 2 verifican µ ∈ R, σ 2 > 0
y determinan completamente dicha función de densidad. Posteriormente se probará que estos
parámetros son la media y desviación típica, respectivamente, de la variable aleatoria X.
Algunas de las propiedades de dicha función, útiles para obtener su representación gráfica,
son
3. Tiene una asíntota horizontal en y = 0 dado que lím f (x) = lím f (x) = 0.
x→−∞ x→+∞
4. f (x) es creciente para x < µ y decreciente para x > µ, dado que f 0 (x) = − x−µ
σ2
f (x), que
es positiva si x < µ y negativa si x > µ.
6. Es convexa (f 00 (x) > 0) para x < µ − σ y x > µ + σ, cóncava (f 00 (x) < 0) para µ − σ <
x < µ + σ y en los puntos x = µ − σ y x = µ + σ tiene puntos de inflexión. Esto se deduce
Los siguientes gráficos muestran la función de densidad normal para diferentes valores de µ
yσ
t2 σ 2 2 2
t σ
etµ ∞
etµ+ 2 ∞
etµ+ 2 √
Z Z
1 1
− [(x−µ)2 −2σ 2 t(x−µ)] − [x−(µ+tσ 2 )]2
= √ e 2σ 2 dx = √ e 2σ 2 dx = √ 2πσ
σ 2π −∞ σ 2π −∞ σ 2π
con lo que
t2 σ 2
MX (t) = etµ+ 2 ∀t ∈ R.
Media y varianza:
Teniendo en cuenta la expresión que nos permite obtener los momentos no centrados a partir
de la función generatriz de momentos
r r)
mr = E[X ] = MX (t)
t=0
E[X] = µ
que, para esta distribución, coincide con la moda y la mediana; el momento no centrado de
orden dos,
E[X 2 ] = σ 2 + µ2 ,
de donde, la varianza es
Var[X] = σ 2 .
F (−x) = 1 − F (x) ∀x ∈ R.
En efecto, puesto que la función de densidad de la N (0, 1) verifica f (−x) = f (x) (simétrica
con respecto a x = 0) se tiene
Z −x Z +∞
F (−x) = f (u)du = f (u)du = 1 − F (x).
−∞ x
X−µ
Propiedad. Sea X ∼ N (µ, σ 2 ) y sea Z = σ
otra variable aleatoria obtenida a partir de X.
Entonces Z ∼ N (0, 1) y se cumple
x−µ
FX (x) = FZ ∀x ∈ R.
σ
Demostración:
X −µ
F (z) = P[Z ≤ z] = P ≤ z = P[X ≤ µ + σz] ∀z ∈ R.
σ
Luego
FZ (z) = FX (µ + σz)
y derivando
1 (µ+σz−µ)2 1 z2
fZ (z) = σfX (µ + σz) = σ √ e− 2σ2 = √ e− 2
2πσ 2π
que es la función de densidad de la N (0, 1). Además
X −µ x−µ x−µ x−µ
FX (x) = P[X ≤ x] = P ≤ =P Z≤ = FZ ∀x ∈ R.
σ σ σ σ
2
De forma totalmente análoga se prueba que si Z es una variable aleatoria N (0, 1), entonces la
variable aleatoria X = µ + σZ tiene una distribución N (µ, σ 2 ), ∀µ ∈ R, σ > 0.
P [Z ≥ a] = 1 − P [Z ≤ a]
P [Z ≤ −a] = P [Z ≥ a] = 1 − P [Z ≤ a]
P [Z ≥ −a] = P [Z ≤ a]
Como hemos comentado con anterioridad, se puede obtener de forma directa el valor de a
tal que P [Z ≤ a] sea uno de los valores de probabilidad que aparecen en la tabla (entre 0.5 y
1). Para otras opciones, se usará la propiedad de simetría ya comentada.
Áreas notables:
Las áreas más importantes, por su aplicación, para una distribución N (µ, σ 2 ) son
µ − 2σ − µ µ + 2σ − µ
P[µ − 2σ ≤ X ≤ µ + 2σ] = P ≤Z≤ = P[−2 ≤ Z ≤ 2]
σ σ
µ − 3σ − µ µ + 3σ − µ
P[µ − 3σ ≤ X ≤ µ + 3σ] = P ≤Z≤ = P[−3 ≤ Z ≤ 3]
σ σ
Aproximaciones
siendo Φ la función de distribución de una N (0, 1), es decir, para n suficientemente gran-
de podemos aproximar la función de distribución de una distribución B(n, p) por la de una
N (np, np(1 − p)).
Dado que la normal es una distribución de tipo continuo, el uso directo de la aproximación
anterior puede conducir a graves errores ya que asignaría probabilidad cero a puntos aislados y
a los extremos de intervalos cerrados. Se usa la siguiente corrección (corrección por continuidad)
" #
k − 12 − np k + 12 − np
1 1
P[X = k] = P k − ≤ X ≤ k + =P p ≤Z≤ p ∀k = 0, 1, · · · , n
2 2 np(1 − p) np(1 − p)
siendo Φ la función de distribución de una N (0, 1), es decir, para n suficientemente grande
podemos aproximar la distribución de una distribución P (λ) por la de una N (λ, λ).
De nuevo el error cometido al aproximar una variable aleatoria discreta por una continua se
corrige de la forma
k − 12 − λ k + 12 − λ
1 1
P[X = k] = P k − ≤ X ≤ k + =P √ ≤Z≤ √ ∀k = 0, 1, · · ·
2 2 λ λ
La corrección para intervalos cerrados es análoga al caso de la binomial.
Nota: Mediante el uso del ordenador es posible calcular probabilidades asociadas a la Poisson
sin tener que recurrir a la aproximación comentada. En caso de usarse, se recomienda que se
cumpla la condición λ ≥ 10.
ANEXO 1
Cálculo directo de la media en una distribución normal:
x−µ
σ =y
Z +∞ Z +∞
1 −
(x−µ)2
E[X] = x f (x) dx = x √ e 2σ dx = x − µ = σy → x = σy + µ
2 =
−∞ −∞ 2π σ dx = σ dy
Z +∞ Z +∞ Z +∞
1 1 −y2 /2 µ −y 2 /2 σ 2
=√ (µ + σy) e σ dy = √ e dy + √ y e−y /2 dy =
2π −∞ σ 2π −∞ 2π −∞
µ √ σ h −y2 /2 i+∞
=√ 2π + √ −e = µ + 0 = µ.
2π 2π −∞
x−µ
+∞ σ =y
Z
1 −
(x−µ)2
= (x − µ)2 √ e 2σ 2 dx = x − µ = σy → x = σy + µ =
−∞ 2π σ dx = σ dy
+∞
σ2
Z
−y 2 /2
y=u dy = du
=√ y2 e dy = −y 2 /2 2
=
2π −∞ ye = dv v = −e−y /2
σ2 +∞
σ2 √
h i+∞ Z
−y 2 /2 −y 2 /2
=√ −y e + e dy = √ (0 + 2π) = σ 2 .
2π −∞ −∞ 2π
3. Distribución gamma
Es una distribución con numerosos usos, entre los que se encuentra el siguiente: supongamos
que una pieza metálica se encuentra sometida a cierta fuerza, de manera que se romperá después
de aplicar un número específico de ciclos de fuerza. Si los ciclos ocurren de manera independiente
y a una frecuencia promedio, entonces el tiempo que transcurre antes de que el material se rompa
es una variable aleatoria con distribución gamma.
a) Γ(1) = 1
c) Si p ∈ Z+ , Γ(p) = (p − 1)!.
d) Si a > 0,
Z ∞
Γ(p)
xp−1 e−ax dx =
0 ap
√
e) Γ( 12 ) = π.
Definición
Se dice que una variable aleatoria de tipo continuo, sigue una distribución gamma de parámetros
p > 0 y a > 0 si su función de densidad es
ap p−1 −ax
x e x>0
Γ(p)
f (x) =
0 x≤0
y se indicará como X ∼ Γ(p, a).
Gráficas
Función de distribución
0 x≤0
F (x) = x
ap
Z
tp−1 e−at dt x>0
Γ(p)
0
Momentos no centrados
Γ(p + r)
E[X r ] =
ar Γ(p)
en particular, la media
p
E[X] =
a
Varianza. A partir del momento no centrado de orden dos E[X 2 ] = p(p + 1)/a2 ,
p
Var[X] =
a2
Función generatriz de momentos
−p p
t 1
M (t) = 1 − = t<a
a 1 − t/a
Otra propiedades de interés:
- Si X ∼ N (0, 1), entonces X 2 ∼ Γ(1/2, 1/2) (la demostración es un simple cambio de
variable).
Casos particulares
Distribución chi-cuadrado.
Hay que remarcar, principalmente, sus propiedades en relación con la distribución normal
(si X ∼ N (0, 1), entonces X 2 ∼ Γ(1/2, 1/2) ≡ χ2 (1))).
Distribución exponencial.
Su función de densidad es
f (x) = ae−ax , x > 0
y su función de distribución
1 1
E[X] = , V ar[X] =
a a2
Remarcamos dos importantes propiedades de esta distribución:
1) Relación con la Poisson: Sirve para representar el tiempo de espera entre dos ocurren-
cias consecutivas de un suceso cuando las ocurrencias se dan de forma independiente a lo
largo del tiempo. Más concretamente, si el número de ocurrencias en un intervalo de longi-
tud t sigue una distribución P(λt), el tiempo de espera entre dos ocurrencias consecutivas
(o hasta la primera ocurrencia) tiene una distribución Exp(λ).
Sean
entonces,
Ejemplos.- Intervalo de tiempo entre dos fallos de un motor, entre llegadas de autómóviles
a una gasolinera.
Ejercicio: En un párking público se ha observado que los coches llegan aleatoria e inde-
pendientemente a razón de 360 coches por hora.
a) Utilizando la distribución exponencial calcular la probabilidad de que el próximo coche
no llegue dentro de medio minuto.
b) Calcular la misma probabilidad anterior usando la distribución de Poisson.
a) Sea X el tiempo (en minutos) que transcurren entre dos llegadas consecutivas. Dado
que el parámetro a y la variable deben estar expresadas en las mismas unidades
360
a= = 6 coches por minuto.
60
Así, X ∼ Exp(6) y la probabilidad pedida P [X ≥ 0,5] se calcula como
30
P [Y = 0] = e−3 = 0,049.
0
2) Propiedad de olvido o falta de memoria (similar a la de la distribución geométrica)
En efecto,
ANEXO 2
Demostración de las propiedades de la función gamma:
a) Γ(1) = 1. Evidente.
b) Γ(p) = (p − 1)Γ(p − 1), p > 1. En efecto, integrando por partes, tomando
u = xp−1 , du = (p − 1)xp−2 dx
Z ∞
= (p − 1) xp−2 e−x dx = (p − 1)Γ(p − 1), p>1
0
u2
x= , dx = udu
2
se obtiene
√ Z ∞ − u2 √ 1√ √
1
Γ = 2 e 2 du = 2 2π π
2 0 2
4. Distribución beta
Es una distribución que permite generar una gran variedad de perfiles y se utiliza principal-
mente para representar variables físicas cuyos valores se encuentran restringidos a un intervalo
de longitud finita y para obtener ciertas cantidades que se conocen como límites de toleran-
cia (en Inferencia no paramétrica) sin necesidad de la hipótesis de normalidad. Además, la
distribución beta juega un papel importante en la Inferencia Bayesiana.
Previamente al estudio de distribución, vamos a definir la función beta que será de utilidad
posteriormente:
Para p, q > 0 se define la función beta y la representaremos por β(p, q) como
Z 1
β(p, q) = xp−1 (1 − x)q−1 dx, p, q > 0
0
la cual, se puede demostrar que es convergente para valores de x ∈ (0, 1) para p, q > 0.
Definición
Se dice que una variable aleatoria de tipo continuo, sigue una distribución beta de paráme-
tros p > 0 y q > 0 si su función de densidad es
1
xp−1 (1 − x)q−1 0<x<1
β(p, q)
f (x) =
0 en el resto
o bien,
Γ(p + q) p−1
x (1 − x)q−1 0<x<1
Γ(p)Γ(q)
f (x) =
0 en el resto
La forma de la función de densidad toma formas muy diferentes para los distintos valores
de p y q, lo que nos permite, eligiendo adecuadamente los parámetros, seleccionar la forma de
la función de densidad que más interese.
Gráficos
Función de distribución
0 x≤0
Z x
1
F (x) = xp−1 (1 − x)q−1 dx 0<x<1
β(p, q) 0
1 x≥1
Momentos no centrados
β(p + k, q) p(p + 1) · · · (p + k − 1)
E[X k ] = =
β(p, q) (p + q)(p + q + 1) · · · (p + q + k − 1)
en particular, la media
p
E[X] =
p+q
Varianza. A partir del momento no centrado de orden dos E[X 2 ] = [p(p + 1)]/[(p + q)(p +
q + 1)],
pq
Var[X] =
(p + q)2 (p+ q + 1)
Si X ∼ β(p, q) entonces Y = 1 − X ∼ β(q, p)
5. Otras distribuciones
Distribución de Weibull
La distribución de Weibull fue establecida por el físico suizo del mismo nombre, quien
demostró, con base en una evidencia empírica, que el esfuerzo al que se someten los materiales
puede modelizarse de manera adecuada mediante el empleo de esta distribución. Posteriormente
esta distribución se ha usado como modelo para tiempo de fallo para una amplia variedad de
componentes mecánicos y eléctricos.
Se dice que una variable aleatoria X de tipo continuo tiene distribución Weibull de parámetros
α y θ, α, θ > 0 si su función de densidad es
x α
θαα xα−1 e−( θ )
x>0
f (x) =
x≤0
0
y se denota X ∼ W (α, θ). Su función de distribución es
x α
1 − e−( θ )
x>0
F (x) =
x≤0
0
y sus principales características son
E[X n ] = θn Γ 1 + αn
E[X] = θΓ 1 + α1
Var[X] = θ2 Γ 1 + α2 − Γ2 1 + α1
Distribución de Pareto
Esta distribución surgió a finales del siglo XIX (Pareto, 1897) ante la preocupación de los
economistas matemáticos de proporcionar modelos probabilísticos que ajusten correctamente
la distribución de frecuencias de la renta personal.
Se dice que una variable aleatoria X de tipo continuo tiene distribución Pareto de parámetros
α y x0 , α, x0 > 0 si su función de densidad es
αxα0
α+1 x ≥ x0
f (x) = x
0 x<0
αxr0
E[X r ] =
α−r
αx0
E[X] = si α > 1
α−1
αx20
Var[X] = si α > 2
(α − 2)(α − 1)2
Distribución de Cauchy
Se dice que una variable aleatoria X de tipo continuo tiene distribución de Cauchy de paráme-
tros µ > 0 y θ si su función de densidad es
µ 1
f (x) = −∞<x<∞
π µ + (x − θ)2
2
ϕ(t) = eitθ−µ|t|
pero sin embargo no existe la función generatriz de momentos, ni los momentos de orden r ≥ 1.
Distribución de Laplace
Se dice que una variable aleatoria X de tipo continuo tiene distribución de Laplace de paráme-
tros α y λ (λ > 0) si su función de densidad es
λ −λ|x−α|
f (x) = e −∞<x<∞
2
λ2 eitα
ϕ(t) =
t2 + λ2
y su media y varianza.