Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DISTRIBUCIONES Notas PDF
DISTRIBUCIONES Notas PDF
Notas
Indice
INDICE ................................................................................................................................................................. 1
1. OBJETIVOS ...................................................................................................................................................... 1
2 FUNCIÓN DE DISTRIBUCIÓN DE PROBABILIDAD, FUNCIÓN DE DENSIDAD Y FUNCIÓN CARACTERÍSTICA DE UNA
VARIABLE ALEATORIA ............................................................................................................................................ 1
1. Objetivos
• Estimar la esperanza matemática y la varianza de una variable aleatoria discreta
• Conocer las principales distribuciones de probabilidad discretas y continuas, saber sus condiciones de
aplicación
• Saber estimar probabilidades con las distribuciones más frecuentes
• Conocer las distribuciones derivadas de la Normal: χ2 (ji) cuadrado de Pearson, t de Student y F de
Snedecor
1
2.1. Función de probabilidad (variables discretas)
40%
35%
30%
25%
20%
15%
10%
5%
0%
0 1 2 3
Así pues, La función de densidad (f.d.) es una función f ( x ) definida en ( −∞, ∞ ) que debe verificar:
2
f ( x) ≥ 0
y
∞
∫ f ( x ) dx = 1
−∞
Su representación gráfica es una función positiva (sobre el eje de abscisas) que encierra un área de 1 con
el eje de abscisas.
Se usa para calcular probabilidades:
Pr ( X ∈ A ) = ∫λ f ( x ) dx
Pr ( a ≤ X ≤ b ) = Pr ( X ∈[ a, b ]) = ∫ f ( x ) dx
b
En variables aleatorias continuas toda probabilidad puntual siempre vale cero, es decir
b
Pr ( X = a ) = ∫ f ( x ) dx = 0
a
3
(b) F ( x ) es continua y creciente
(c) Pasar de F ( x ) a f ( x ) :
dF ( x )
f ( x ) = F′ ( x ) =
dx
f ( x ) ←
→ F( x)
integrar
derivar
b
(d) Pr ( a < X < b ) = Pr ( a ≤ X ≤ b ) = Pr ( a < X ≤ b ) = Pr ( a ≤ X < b ) = ∫ f ( x ) dx = F ( b ) − F ( a )
a
(e) La función característica es, salvo por un signo, la transformada de Fourier de la función densidad de
probabilidad. Se define
φ ( w ) = E ( e j ω X ) = ∫ f ( x ) dx
+∞
−∞
φ ( w ) = E ( e j ω X ) = ∑ e j ω X Pr ( X = xi )
i
∀i
3.3. Observaciones
La función característica existe siempre, es decir, siempre se puede calcular la integral o la serie.
(a) ϕ (0) = 1
(b) ϕ (ω ) ≤ 1
(c) Si Y = a X + b , entonces ϕ Y (ω ) = e jωb ϕ X ( a ω )
(d) Si f ( x ) es par, entonces ϕ (ω ) es par y real
La función característica identifica de modo único una variable aleatoria debido a la fórmula de inversión:
1 +∞
f ( x) = ∫ e − j ω X φ ( x ) dx
2π −∞
La fórmula de inversión, derivada de la transformada inversa de Fourier, permite identificar de forma única la
función densidad de probabilidad de una variable aleatoria. Es decir, dos variables aleatorias con funciones
características iguales, tienen funciones de densidad iguales.
4
p ( x ) = p x (1− p )
1− x
∀ x = 0, 1
Cuando el resultado es dicotómico, la distribución queda caracterizada con el parámetro p .
Si se repite un número fijo de veces, n , un experimento de Bernoulli con parámetro p , el número de éxitos
sigue una distribución binomial de parámetros ( n, p ) .
La repetición del experimento no altera las probabilidades de éxito o fracaso.
Este modelo se puede aplicar a:
Poblaciones finitas: se toman elementos al azar con remplazamiento (urna con bolas, encuestas);
Poblaciones infinitas: se observan elementos al azar en un proceso generador estable (constante) y
sin memoria (observaciones independientes). (sexo de un recién nacido, producción de una
máquina).
Media: E( X ) = p
Varianza: var ( X ) = p (1 − p )
Función de probabilidad:
n
Pr ( X = k ) = p k q n − k ∀ 0≤ k n
k
Problemas de cálculo si n es grande y/o p cercano a 0 ó 1.
Media: E( X ) = n p
Varianza: var ( X ) = n p (1− p )
Ejemplo: sea X el número de varones en una familia de tres hijos y sea V el evento “ser varón”, con
Pr (V ) = p y el evento M “ser mujer”, con Pr ( M ) = 1 − p = q . Calcular Pr ( X = 2 ) .
• Solución intuitiva
X =2 ⇒ VV M o V MV o MVV
Pr ( X = 2 ) = p p q + p q p + q p p = 3 p2 q
• Solución utilizando el modelo binomial:
Cumple las hipótesis del modelo binomial (dos casos; se asume que la probabilidad no se altera,
n = 3)
5
3
Pr ( X = 2 ) = p 2 (1− p )
3− 2
= 3 p2 q
2
Pr ( x ) = Pr (1− p )
x −1
∀ x = 1, 2,
También se puede definir como el número de fracasos que ocurren hasta obtener el primer éxito:
Pr ( y ) = Pr (1− p )
y
∀ y = 1, 2,
Nota: y = x −1
donde: x es el número de repeticiones hasta conseguir el primer éxito.
Función de distribución:
F ( x ) = Pr ( X ≤ x ) = 1 − (1 − p )
x
∀ x = 1, 2,
1
Media: E( X ) =
p
1− p
Varianza: var ( X ) =
p2
A su vez, siendo Y el número de fracasos hasta conseguir el primer éxito.
Función de distribución:
F ( y ) = 1 − (1 − p )
y +1
∀ y = 1, 2,
1− p
Media: E (Y ) =
p
1− p
Varianza: var (Y ) =
p2
Ejemplo: calcular la probabilidad de que al lanzar una moneda al aire salga cara por primera vez en el tercer
lanzamiento
Pr ( ☺ ) = p
Pr (
) = 1− p
(a) solución intuitiva: ☺ ⇒ Pr ( pedida ) = q q p = q 2 p
(b) modelo geométrico:
• cumple las hipótesis del modelo geométrico (dos casos; se asume que la
probabilidad no se altera hasta que ocurra éxito por primera vez en el tercer
lanzamiento)
Pr ( X = 3) = (1− p ) p = (1− p ) p = q 2 p
3 −1 2
•
6
Un conjunto de N objetos contiene: k objetos clasificados como éxitos y N − k como fracasos. Se toma
Función de probabilidad:
λk
Pr ( X = k ) = e − k ∀ k = 1, 2,
k!
Media y varianza: E ( X ) = var ( X ) = λ
7
4. Propiedades de las diferentes distribuciones de probabilidad continua
Una variable aleatoria continua X se caracteriza por su función de densidad de probabilidad f ( x ) que
cumple:
(a) f X ( t ) ≥ 0
∞
(b) ∫
−∞ X
f ( t ) dt = 1
b
(c) Pr ( a ≤ X ≤ b ) = ∫ f X ( t ) dt
a
Cualquier función positiva e integrable puede ser la función de densidad de alguna variable aleatoria.
1
− x2
A partir de la función e 2
podemos obtener la familia de densidades normales o gaussianas.
Función de densidad
1
f ( x) = ∀ a≤ x≤b
b−a
Fuera de ese intervalo, la función de densidad toma valor 0
Función de distribución:
x−a
F( x) = ∀ a≤ x≤b
b−a
a +b
Media: E( X ) =
2
8
(b − a )
2
Varianza: var ( X ) =
12
Poisson P ( λ ) .
Función de densidad:
x x>0
1 −
f ( x) = e ϑ
1
ϑ λ = ϑ
Función de distribución:
1
−
F ( x ) = 1− e ϑ
∀ x>0
Media: E( X ) = ϑ
Varianza: var ( X ) = ϑ 2
La distribución exponencial tiene la propiedad de carencia o pérdida de memoria, esto es:
Propiedades:
9
(a) Γ (α ) = (α −1) Γ (α −1) ∀ α >1
(b) Γ (1) = 1
(c) Γ ( n ) = ( n −1)! ∀ n∈
1
(d) Γ = π
2
(e) mediante el cambio de variable x = λ y en la integral que define la función gamma se obtiene un
parámetro más en la expresión de las curvas
+∞
Γ (α ) = ∫ λ α y α −1 e − λ y d y
0
Si X ∼ Γ (α , λ )
α
Media: E( X ) =
λ
α
Varianza: var ( X ) =
λ2
10
En el caso particular de α = 1 , X ∼ Γ (1, λ ) entonces la distribución resultante es una exponencial:
X ∼ε (λ )
Ejemplo: Si X t mide la cantidad de ocurrencias en un proceso de Poisson de parámetro λ:
(a) El tiempo de espera hasta la primera ocurrencia es una variable aleatoria con distribución
ε ( λ ) = Γ (1, λ )
(b) El tiempo de espera hasta la a -ésima primera ocurrencia es una variable aleatoria con
distribución Γ (α , λ )
11
a distancia 2 ×σ , se tiene una probabilidad del 95 %;
a distancia 2,5 ×σ se tiene una probabilidad del 99 %:
escala σ , como N ( 0,1) . Esta distribución especial se llama distribución normal tipificada o reducida.
Justifica la técnica de tipificación, cuando se intenta comparar individuos diferentes obtenidos de sendas
poblaciones normales.
Función de densidad:
1
1 − z
f ( z) = e 2 ∀ −∞< z<∞
2π
x−µ
donde: z z=
σ
Función de distribución:
F ( x ) = Pr ( Z = z ) = φ ( z )
En la práctica:
X −µ x−µ x−µ x−µ
F ( x ) = Pr ( X ≤ x ) = Pr ≤ = Pr Z ≤ = φ
σ σ σ σ
Si Y = b x + a , siendo X ∼ N ( µ ,σ ) , entonces: Y ∼ N ( b µ + a, b σ ) .
2 2 2
12
4.4. Distribución de χ 2 de Pearson [X∼χ2(α,p)]
Este modelo de probabilidad puede ser introducido como caso particular de la familia de distribuciones
gamma de parámetros α y p , constantes positivos, cuya función de densidad se ha visto anteriormente y
responde a la siguiente forma
α p e − α x x p −1
f ( x) = ∀ x>0
Γ( p)
∞
donde: Γ ( p ) = ∫ e − x x p −1 dx
0
Propiedades:
• Tiene un sólo parámetro denominado grados de libertad;
13
• La función de densidad es asimétrica positiva. Sólo tienen densidad los valores positivos;
• La función de densidad se hace más simétrica incluso casi gaussiana cuando aumenta el número de
grados de libertad.
• Habitualmente, se considerarán anómalos aquellos valores de la variable en la “cola de la derecha”.
La gráfica de esta función de densidad es simétrica respecto del eje de ordenadas con independencia del
valor de k , y de forma algo semejante a la de una distribución normal:
Así,
x −µ
s
n
( xi − x ) 2
donde: s2 = ∑ es la varianza muestral, y
i =1 n −1
n
xi
x =∑ es la media muestral.
i =1 n
se distribuye como una variable t de Student con ( n −1) grados de libertad
Propiedades:
• Cuando aumentan los grados de libertad, se acerca a N ( 0,1) ;
14
• Es simétrica con respecto al cero;
• Se consideran valores anómalos los que se alejan de cero (positivos o negativos).
f ( x) = 2 n ∀ x>0
m+n
m n m 2
Γ Γ 1 + x
2 2 n
+∞
donde: Γ ( p ) = ∫ e − x x p −1 dx
−∞
σ y2 sx2
Así,
σ x2 s y2
( xi − x ) 2
m n
( yi − y ) 2
donde: s =∑
2
x y sy = ∑
2
son las varianzas muestrales,
i =1 m −1 j =1 n −1
sigue una ley de probabilidad F de Fisher con ( m −1, n −1) grados de libertad
Propiedades:
• Tiene dos parámetros denominados grados de libertad;
• Sólo toma valores positivos. Es asimétrica;
15
Apéndice 1. Condiciones de convergencia entre algunas distribuciones
Be ( p ) = B (1, p )
Exp (ν ) = Γ (1,ν )
Normal
n ≥ 30 N ( µ ,σ 2 )
n p ≥ 5, p ≤ 1
2
ó µ =np µ =λ
n q > 5, p > 1 σ = n p (1− p )
2
σ2 = λ λ ≥10
2
N > 50
n
≤ 0,1
N
Hipergeométrica
H ( N , k, n)
16
Apéndice 2. Tabla resumen de las medias y varianzas de las principales
distribuciones
Binomial n, p {0,1, 2, , n} np n p (1 − p )
Poisson λ {0,1, 2, } λ λ
1 (1− p )
Geométrica p {0,1, 2, }
p p2
(b − a )
2
a +b
Uniforme a, b ( a, b )
2 12
Normal µ ,σ 2 ( − ∞, ∞ ) µ σ2
1 1
Exponencial α ( 0,∞ )
α α2
π 4 −π
Rayleigh σ ( 0,∞ ) σ σ2
2 2
17