Está en la página 1de 17

DISTRIBUCIONES DE PROBABILIDAD

Notas

Indice
INDICE ................................................................................................................................................................. 1
1. OBJETIVOS ...................................................................................................................................................... 1
2 FUNCIÓN DE DISTRIBUCIÓN DE PROBABILIDAD, FUNCIÓN DE DENSIDAD Y FUNCIÓN CARACTERÍSTICA DE UNA
VARIABLE ALEATORIA ............................................................................................................................................ 1

3. PROPIEDADES DE LA FUNCIÓN DE DENSIDAD ...................................................................................................... 3


3. PROPIEDADES DE LAS DIFERENTES DISTRIBUCIONES DE PROBABILIDAD DISCRETAS ............................................. 4
4. PROPIEDADES DE LAS DIFERENTES DISTRIBUCIONES DE PROBABILIDAD CONTINUA ............................................... 8
APÉNDICE 1. CONDICIONES DE CONVERGENCIA ENTRE ALGUNAS DISTRIBUCIONES ................................................ 16
APÉNDICE 2. TABLA RESUMEN DE LAS MEDIAS Y VARIANZAS DE LAS PRINCIPALES DISTRIBUCIONES ........................ 17

1. Objetivos
• Estimar la esperanza matemática y la varianza de una variable aleatoria discreta
• Conocer las principales distribuciones de probabilidad discretas y continuas, saber sus condiciones de
aplicación
• Saber estimar probabilidades con las distribuciones más frecuentes
• Conocer las distribuciones derivadas de la Normal: χ2 (ji) cuadrado de Pearson, t de Student y F de
Snedecor

2 Función de distribución de probabilidad, función de densidad y función


característica de una variable aleatoria
Definición. La función de densidad de una variable aleatoria X permite trasladar la medida de probabilidad
o "suerte" de realización de los sucesos de una experiencia aleatoria a la característica numérica que define
la variable aleatoria.
Para definir F , la función distribución de probabilidad de X , distinguiremos el caso discreto, donde los
posibles valores de X forman un conjunto discreto (finito o numerable), del continuo, donde el recorrido de
la variable aleatoria es un intervalo de la recta real:
• Si X es discreta su función de distribución se define por
F ( x ) = Pr ( X ≤ x ) = ∑ f ( x)
xi ≤ x

donde xi ≤ x designa a aquellos valores que son inferiores o iguales a x


• En el caso de que X sea continua se tiene
x
F ( x ) = Pr ( X ≤ x ) = ∫ f ( x ) dx
−∞

cualquiera que sea el valor de x ,


donde: f: → , función de densidad, es no negativa e integrable.

1
2.1. Función de probabilidad (variables discretas)

40%
35%
30%
25%
20%
15%
10%

5%
0%
0 1 2 3

Asigna a cada posible valor de una variable discreta su probabilidad.


(Revisar los conceptos de frecuencia relativa y diagrama de barras).

2.2. Función de densidad (variables continuas)


Definición: es una función no negativa de integral 1. Resulta de la generalización del histograma con
frecuencias relativas para variables continuas.
¿Para qué se usa?: directamente, nunca.
Propiedades:
• Sus valores no representan probabilidades.
• Muchos procesos aleatorios vienen descritos por variables de forma que son conocidas las
probabilidades en intervalos.
• La integral definida de la función de densidad en dichos intervalos coincide con la probabilidad de los
mismos.
Es decir, identificamos la probabilidad de un intervalo con el área bajo la función de densidad.

Así pues, La función de densidad (f.d.) es una función f ( x ) definida en ( −∞, ∞ ) que debe verificar:

2
f ( x) ≥ 0
y

∫ f ( x ) dx = 1
−∞

Su representación gráfica es una función positiva (sobre el eje de abscisas) que encierra un área de 1 con
el eje de abscisas.
Se usa para calcular probabilidades:

Pr ( X ∈ A ) = ∫λ f ( x ) dx
Pr ( a ≤ X ≤ b ) = Pr ( X ∈[ a, b ]) = ∫ f ( x ) dx
b

En variables aleatorias continuas toda probabilidad puntual siempre vale cero, es decir
b
Pr ( X = a ) = ∫ f ( x ) dx = 0
a

2.3. Función de distribución


• Es la función que asocia a cada valor de una variable, la probabilidad acumulada de los valores
inferiores o iguales.
x
F ( x ) = Pr ( X ≤ x ) = ∫ f ( t ) dx
−∞

2.4. Generalización de las frecuencias acumuladas. Diagrama integral.


• A los valores extremadamente bajos les corresponden valores de la función de distribución cercanos a
cero.
• A los valores extremadamente altos les corresponden valores de la función de distribución cercanos a
uno.
• Lo encontraremos en los artículos y aplicaciones en forma de “valor p ”, significación,…

3. Propiedades de la función de densidad

3.1. Caso continuo


(a) Generales:
0 ≤ F( x) ≤ 1
F ( −∞ ) = 0
F(∞) = 1

3
(b) F ( x ) es continua y creciente

(c) Pasar de F ( x ) a f ( x ) :

dF ( x )
f ( x ) = F′ ( x ) =
dx
f ( x ) ←
→ F( x)
integrar

derivar

b
(d) Pr ( a < X < b ) = Pr ( a ≤ X ≤ b ) = Pr ( a < X ≤ b ) = Pr ( a ≤ X < b ) = ∫ f ( x ) dx = F ( b ) − F ( a )
a

(e) La función característica es, salvo por un signo, la transformada de Fourier de la función densidad de
probabilidad. Se define

φ ( w ) = E ( e j ω X ) = ∫ f ( x ) dx
+∞

−∞

3.2. Caso discreto


La función característica es en el caso discreto:

φ ( w ) = E ( e j ω X ) = ∑ e j ω X Pr ( X = xi )
i

∀i

3.3. Observaciones
La función característica existe siempre, es decir, siempre se puede calcular la integral o la serie.

Sus principales propiedades son:

(a) ϕ (0) = 1
(b) ϕ (ω ) ≤ 1
(c) Si Y = a X + b , entonces ϕ Y (ω ) = e jωb ϕ X ( a ω )
(d) Si f ( x ) es par, entonces ϕ (ω ) es par y real
La función característica identifica de modo único una variable aleatoria debido a la fórmula de inversión:

1 +∞
f ( x) = ∫ e − j ω X φ ( x ) dx
2π −∞

La fórmula de inversión, derivada de la transformada inversa de Fourier, permite identificar de forma única la
función densidad de probabilidad de una variable aleatoria. Es decir, dos variables aleatorias con funciones
características iguales, tienen funciones de densidad iguales.

3. Propiedades de las diferentes distribuciones de probabilidad discretas

3.1. Distribución de Bernoulli [X∼Be(p)]


Si al realizar un experimento sólo son posibles dos resultados, se habla de experimento de Bernoulli:
X = 1 éxito, con probabilidad p ;
X = 0 fracaso, con probabilidad q = 1− p .
Función de probabilidad:

4
p ( x ) = p x (1− p )
1− x
∀ x = 0, 1
Cuando el resultado es dicotómico, la distribución queda caracterizada con el parámetro p .

Si se repite un número fijo de veces, n , un experimento de Bernoulli con parámetro p , el número de éxitos
sigue una distribución binomial de parámetros ( n, p ) .
La repetición del experimento no altera las probabilidades de éxito o fracaso.
Este modelo se puede aplicar a:
Poblaciones finitas: se toman elementos al azar con remplazamiento (urna con bolas, encuestas);
Poblaciones infinitas: se observan elementos al azar en un proceso generador estable (constante) y
sin memoria (observaciones independientes). (sexo de un recién nacido, producción de una
máquina).
Media: E( X ) = p
Varianza: var ( X ) = p (1 − p )

3.2. Distribución binomial [ X∼B(n, p)]


Una variable aleatoria binomial representa el número de éxitos que ocurren en n repeticiones
independientes de un ensayo de Bernoulli cuya probabilidad de éxito es p .

Función de probabilidad:
n
Pr ( X = k ) =   p k q n − k ∀ 0≤ k n
k 
Problemas de cálculo si n es grande y/o p cercano a 0 ó 1.

Media: E( X ) = n p
Varianza: var ( X ) = n p (1− p )
Ejemplo: sea X el número de varones en una familia de tres hijos y sea V el evento “ser varón”, con
Pr (V ) = p y el evento M “ser mujer”, con Pr ( M ) = 1 − p = q . Calcular Pr ( X = 2 ) .
• Solución intuitiva
X =2 ⇒ VV M o V MV o MVV
Pr ( X = 2 ) = p p q + p q p + q p p = 3 p2 q
• Solución utilizando el modelo binomial:
Cumple las hipótesis del modelo binomial (dos casos; se asume que la probabilidad no se altera,
n = 3)

5
 3
Pr ( X = 2 ) =   p 2 (1− p )
3− 2
= 3 p2 q
 2

3.3. Distribución geométrica [X∼G(p)]


Una variable aleatoria geométrica representa el número de repeticiones hasta obtener el primer éxito, en la
realización de ensayos de Bernoulli con probabilidad p de éxito.
Función de probabilidad:

Pr ( x ) = Pr (1− p )
x −1
∀ x = 1, 2,
También se puede definir como el número de fracasos que ocurren hasta obtener el primer éxito:

Pr ( y ) = Pr (1− p )
y
∀ y = 1, 2,
Nota: y = x −1
donde: x es el número de repeticiones hasta conseguir el primer éxito.
Función de distribución:

F ( x ) = Pr ( X ≤ x ) = 1 − (1 − p )
x
∀ x = 1, 2,
1
Media: E( X ) =
p
1− p
Varianza: var ( X ) =
p2
A su vez, siendo Y el número de fracasos hasta conseguir el primer éxito.
Función de distribución:

F ( y ) = 1 − (1 − p )
y +1
∀ y = 1, 2,
1− p
Media: E (Y ) =
p
1− p
Varianza: var (Y ) =
p2
Ejemplo: calcular la probabilidad de que al lanzar una moneda al aire salga cara por primera vez en el tercer
lanzamiento
Pr ( ☺ ) = p
Pr (
) = 1− p
(a) solución intuitiva: ☺ ⇒ Pr ( pedida ) = q q p = q 2 p
(b) modelo geométrico:
• cumple las hipótesis del modelo geométrico (dos casos; se asume que la
probabilidad no se altera hasta que ocurra éxito por primera vez en el tercer
lanzamiento)

Pr ( X = 3) = (1− p ) p = (1− p ) p = q 2 p
3 −1 2

3.4. Distribución hipergeométrica [X∼H(N,k,n)]


donde: N es la población;
k son los éxitos;
N − k son los fracasos

6
Un conjunto de N objetos contiene: k objetos clasificados como éxitos y N − k como fracasos. Se toma

una muestra de tamaño n , al azar (y sin reemplazo) de entre los N objetos.

La variable aleatoria hipergeométrica representa el número de éxitos en la muestra


Función de probabilidad:
 k  N − k 
  
x n−k 
Pr ( X ) =   ∀ x = 1, 2, , min ( k , n )
N
 
n
k
Media: E( X ) = n p siendo p =
N
N −n
Varianza: var ( X ) = n p (1 − p )
N −1
Ejemplo: población = 1000 personas: 300 fumadores y 700 no fumadores; m.a. (3). Sea X el número de
fumadores. Calcular la probabilidad de que una persona fume.
(c) solución intuitiva:
X = 1 ⇒ F NF NF o NF F NF o NF NF F
300 × 700 × 699 700 × 300 × 699 700 × 699 × 300
Pr ( X =1) = + +
1000 × 999 × 998 1000 × 999 × 998 1000 × 999 × 998
(d) modelo hipergeométrico (cumple las hipótesis del modelo hipergeométrico):
 300  700 
  
 1  2 
Pr ( X =1) =
1000 
 
 3 

3.5. Distribución de Poison (o de los sucesos raros) [X∼P(λ)]


Una variable aleatoria de Poisson es en realidad una variable aleatoria binomial llevada al límite, es decir
cuando n →∞ y p → 0 (Teorema de Poisson)
Características del proceso: es estable: produce a largo plazo un número medio de sucesos constante λ
por unidad de observación (tiempo, espacio, área); los sucesos aparecen aleatoriamente de forma
independiente, es decir, el proceso no tiene memoria, ya que conocer sucesos en un intervalo no ayuda a
predecir sucesos en el siguiente.
• Se obtiene como aproximación de una distribución binomial con la misma media, para n grande
( n > 30 ) y p pequeño ( p < 0,1 ).

• Queda caracterizada por un único parámetro λ (que es a su vez su media y varianza).

Función de probabilidad:

λk
Pr ( X = k ) = e − k ∀ k = 1, 2,
k!
Media y varianza: E ( X ) = var ( X ) = λ

7
4. Propiedades de las diferentes distribuciones de probabilidad continua

Una variable aleatoria continua X se caracteriza por su función de densidad de probabilidad f ( x ) que
cumple:

(a) f X ( t ) ≥ 0

(b) ∫
−∞ X
f ( t ) dt = 1
b
(c) Pr ( a ≤ X ≤ b ) = ∫ f X ( t ) dt
a

Cualquier función positiva e integrable puede ser la función de densidad de alguna variable aleatoria.
1
− x2
A partir de la función e 2
podemos obtener la familia de densidades normales o gaussianas.

4.1. Distribución uniforme [X∼U(a,b)]


Una variable aleatoria sigue una distribución uniforme si su masa de probabilidad está repartida
uniformemente a lo largo de su soporte.

Esta variable corresponde al experimento ideal de elegir un número al azar en el intervalo ( a, b ) .

Función de densidad
1
f ( x) = ∀ a≤ x≤b
b−a
Fuera de ese intervalo, la función de densidad toma valor 0
Función de distribución:
x−a
F( x) = ∀ a≤ x≤b
b−a
a +b
Media: E( X ) =
2

8
(b − a )
2

Varianza: var ( X ) =
12

4.2. Distribución exponencial [X∼Exp(υ)]


La variable aleatoria X representa el tiempo que transcurre hasta la primera ocurrencia del proceso de

Poisson P ( λ ) .

Función de densidad:

x x>0
1 − 
f ( x) = e ϑ
 1
ϑ λ = ϑ
Función de distribución:
1

F ( x ) = 1− e ϑ
∀ x>0
Media: E( X ) = ϑ
Varianza: var ( X ) = ϑ 2
La distribución exponencial tiene la propiedad de carencia o pérdida de memoria, esto es:

Pr ( X < s + t | x > s ) = Pr ( X < t )


Ejemplo: supongamos que en promedio un cajero atiende a 6 personas por hora en un día. Si el cajero
acaba de atender a un cliente ¿cuál es la probabilidad de que pasen tres minutos hasta la llegada del
próximo cliente?
X es la variable aleatoria que representa el tiempo que transcurre hasta la llegada del próximo cliente.
1 60
Sigue un modelo exponencial de parámetro ϑ = = = 10 minutos :
λ 6
3

Pr ( x > 3) = 1− F ( 3) = e 10
= 0,74

4.2. Distribución gamma [X∼Gamma(α,λ)]


Para obtener la distribución gamma, primero observemos que para cada α >0 , la expresión x
α −1
e− x
representa una curva positiva e integrable en el intervalo [α , + ∞ ) . Su integral es la función gamma:

Γ (α ) = ∫ xα −1 e − x dx ∀ x > 0; α > 0
0

Propiedades:

9
(a) Γ (α ) = (α −1) Γ (α −1) ∀ α >1
(b) Γ (1) = 1

(c) Γ ( n ) = ( n −1)! ∀ n∈
1
(d) Γ  = π
2
(e) mediante el cambio de variable x = λ y en la integral que define la función gamma se obtiene un
parámetro más en la expresión de las curvas
+∞
Γ (α ) = ∫ λ α y α −1 e − λ y d y
0

el integrando dividido su integral da la familia de densidades buscada: X ∼ Γ (α , λ ) si su función


densidad está dada por:
 λ α α −1 − λ x
 x e si x > 0
f ( x ) =  Γ (α )
0 si x ≤ 0

se dice que X tiene distribución gamma de parámetros a (parámetro de forma) y λ (parámetro de
escala).

Si X ∼ Γ (α , λ )

α
Media: E( X ) =
λ
α
Varianza: var ( X ) =
λ2

10
En el caso particular de α = 1 , X ∼ Γ (1, λ ) entonces la distribución resultante es una exponencial:

X ∼ε (λ )
Ejemplo: Si X t mide la cantidad de ocurrencias en un proceso de Poisson de parámetro λ:
(a) El tiempo de espera hasta la primera ocurrencia es una variable aleatoria con distribución
ε ( λ ) = Γ (1, λ )
(b) El tiempo de espera hasta la a -ésima primera ocurrencia es una variable aleatoria con
distribución Γ (α , λ )

4.3. Distribución normal o gaussiana [X∼N(µ,σ2)]


La distribución normal está caracterizada por dos parámetros: µ y σ2.
Función de densidad
2
1  x−µ 
1 − 
σ 
f ( x) = e 2 ∀ −∞< x<∞
σ 2π
Media: E( X ) = µ
Varianza: var ( X ) = σ 2
Características:
• la función de densidad de la distribución normal es simétrica, mesocúrtica y unimodal: coinciden media,
mediana y moda;
• los puntos de inflexión de la función de densidad están a distancia σ de µ.
• si tomamos intervalos centrados en µ , y cuyos extremos están…

a distancia σ , se tiene una probabilidad del 68 %;

11
a distancia 2 ×σ , se tiene una probabilidad del 95 %;
a distancia 2,5 ×σ se tiene una probabilidad del 99 %:

Interpretación geométrica de N ( µ ,σ ) : la media µ sería el factor de traslación y la σ


2
el factor de escala,
o grado de dispersión…

No es posible calcular la probabilidad de un intervalo simplemente usando la primitiva de la función de


densidad, ya que no tiene primitiva expresable en términos de funciones “comunes”.
Todas las distribuciones normales N ( µ ,σ ) , pueden ponerse mediante una traslación µ , y un cambio de
2

escala σ , como N ( 0,1) . Esta distribución especial se llama distribución normal tipificada o reducida.

Justifica la técnica de tipificación, cuando se intenta comparar individuos diferentes obtenidos de sendas
poblaciones normales.
Función de densidad:
1
1 − z
f ( z) = e 2 ∀ −∞< z<∞

x−µ
donde: z z=
σ
Función de distribución:
F ( x ) = Pr ( Z = z ) = φ ( z )
En la práctica:
 X −µ x−µ   x−µ   x−µ 
F ( x ) = Pr ( X ≤ x ) = Pr  ≤  = Pr  Z ≤  = φ 
 σ σ   σ   σ 
Si Y = b x + a , siendo X ∼ N ( µ ,σ ) , entonces: Y ∼ N ( b µ + a, b σ ) .
2 2 2

12
4.4. Distribución de χ 2 de Pearson [X∼χ2(α,p)]
Este modelo de probabilidad puede ser introducido como caso particular de la familia de distribuciones
gamma de parámetros α y p , constantes positivos, cuya función de densidad se ha visto anteriormente y
responde a la siguiente forma
α p e − α x x p −1
f ( x) = ∀ x>0
Γ( p)

donde: Γ ( p ) = ∫ e − x x p −1 dx
0

Concretamente, si se considera α = 12 y p=n , donde n es un entero positivo, el modelo de


2

probabilidad resultante se denomina χ 2 , ji–cuadrado, con n grados de libertad.


Así,
( n −1) s 2
σ2
n
( xi − x ) 2
donde: s2 = ∑ es la varianza muestral; y
i =1 n −1
n
xi
x =∑ es la media muestral.
i =1 n
sigue la ley de probabilidad del modelo χ2 con ( n −1) grados de libertad.

Propiedades:
• Tiene un sólo parámetro denominado grados de libertad;

13
• La función de densidad es asimétrica positiva. Sólo tienen densidad los valores positivos;
• La función de densidad se hace más simétrica incluso casi gaussiana cuando aumenta el número de
grados de libertad.
• Habitualmente, se considerarán anómalos aquellos valores de la variable en la “cola de la derecha”.

4.4. Distribución t de Student [X∼t(µ,σ,k)]


Una variable aleatoria se distribuye según el modelo de probabilidad t de Student con k grados de libertad,
donde k es un entero positivo, si su función de densidad es la siguiente:
 k +1 
Γ  k +1 
  t 2  −  2 
f (t ) =  2  1+ ∀ −∞<t <∞
 
k k
π k Γ  
2
+∞
donde: Γ ( p ) = ∫ e − x x p −1 dx
−∞

La gráfica de esta función de densidad es simétrica respecto del eje de ordenadas con independencia del
valor de k , y de forma algo semejante a la de una distribución normal:

Así,
x −µ
s
n
( xi − x ) 2
donde: s2 = ∑ es la varianza muestral, y
i =1 n −1
n
xi
x =∑ es la media muestral.
i =1 n
se distribuye como una variable t de Student con ( n −1) grados de libertad
Propiedades:
• Cuando aumentan los grados de libertad, se acerca a N ( 0,1) ;

14
• Es simétrica con respecto al cero;
• Se consideran valores anómalos los que se alejan de cero (positivos o negativos).

4.5. Distribución F de Fisher Snedecor [X∼F(m,n)]


Una variable aleatoria se distribuye según el modelo de probabilidad F de Fisher con ( m, n ) grados de
libertad, donde m y n son enteros positivos, si su función de densidad es la siguiente:
m
m−2
 m + n  m  2
Γ   x
2

f ( x) =  2  n  ∀ x>0
m+n
 m   n  m  2
Γ   Γ  1 + x 
 2   2  n 
+∞
donde: Γ ( p ) = ∫ e − x x p −1 dx
−∞

σ y2 sx2
Así,
σ x2 s y2

( xi − x ) 2
m n
( yi − y ) 2
donde: s =∑
2
x y sy = ∑
2
son las varianzas muestrales,
i =1 m −1 j =1 n −1
sigue una ley de probabilidad F de Fisher con ( m −1, n −1) grados de libertad
Propiedades:
• Tiene dos parámetros denominados grados de libertad;
• Sólo toma valores positivos. Es asimétrica;

• Habitualmente se consideran valores anómalos los de la cola de la derecha.

15
Apéndice 1. Condiciones de convergencia entre algunas distribuciones

Be ( p ) = B (1, p )
Exp (ν ) = Γ (1,ν )

Normal
n ≥ 30 N ( µ ,σ 2 )

n p ≥ 5, p ≤ 1
2
ó µ =np µ =λ
n q > 5, p > 1 σ = n p (1− p )
2
σ2 = λ λ ≥10
2

Binomial λ =np Poisson


B ( n, p ) n > 30 P (λ )
p ≤ 0,1

N > 50
n
≤ 0,1
N

Hipergeométrica
H ( N , k, n)

16
Apéndice 2. Tabla resumen de las medias y varianzas de las principales
distribuciones

distribución parámetros intervalo media varianza


Bernuilli p {0,1} p p (1 − p )

Binomial n, p {0,1, 2, , n} np n p (1 − p )

Poisson λ {0,1, 2, } λ λ
1 (1− p )
Geométrica p {0,1, 2, }
p p2
(b − a )
2
a +b
Uniforme a, b ( a, b )
2 12
Normal µ ,σ 2 ( − ∞, ∞ ) µ σ2
1 1
Exponencial α ( 0,∞ )
α α2
π 4 −π
Rayleigh σ ( 0,∞ ) σ σ2
2 2

En una N ( 0,1) se verifica que m2 k − 1 = 0 y m2 k =


( 2k )! para k = 1, 2,
2k k !

17

También podría gustarte