Está en la página 1de 5

GUÍA ESTADISTICA I

Ing. Roberto Lince

DISTRIBUCIONES PROBABILISTICAS O MODELOS:

De la estructura experimental se desprende que, según las condiciones en las que se realiza cada tipo de
experimento, se obtienen los diferentes modelos probabilísticos o distribuciones de probabilidad según
el tipo de variable.
Así se tiene:

1. MODELOS DISCRETOS: (cuando la variable es discreta)

1. BINOMIAL: parte del proceso Bernoulli presenta las siguientes características:


a. El experimento se repite n veces
b. Los resultados de cada repetición se pueden clasificar como éxito o fracaso.
c. Los resultados individuales son independientes
d. La variable aleatoria se puede definir como el número de éxitos en n repeticiones
independientes

Función: n
b( x; n, p)    p x q n  x , x  0,1, 2,..., n. Dónde: q = 1 - p
 x
Parámetros:
n = número de repeticiones del experimento
p = probabilidad de éxito
x = el valor de la variable
Descriptores:
Media μ = n.p Varianza σ2 = npq

2. MULTINOMIAL: si un intento determinado puede resultar en cualquiera de los k resultados E1,


E2,…Ek con probabilidades p1, p2, …pk , entonces la distribución de probabilidad de las
variables aleatorias x1,x2,…xk, que representan el número de ocurrencias para E1, E2,…Ek en
n intentos independientes es:

Función:
 n  x1 x2
m( x1 , x 2 ,...x k ; p1 , p 2 ,... p k ; n)    p1 p 2 ... p kxk .
 1 2
x , x ,...x k 

k k

Dónde:  xi  n
i 1
y p
i 1
i 1

Parámetros:
n = número de repeticiones del experimento
pi = probabilidad de éxito de la variable i
xi = número de éxitos de la variable i

3. HIPERGEOMÉTRICO: parte del proceso Bernoulli presenta las siguientes características:


a. El experimento se repite n veces
b. Los resultados de cada repetición se pueden clasificar como éxito o fracaso.
c. Los resultados individuales son dependientes
d. La variable aleatoria se puede definir como el número de éxitos en n repeticiones
Función:  k  N  k 
  
 x  n  x 
h( x; n, N , k )  , x  0,1, 2,..., n.
N
 
Parámetros: n 

n = número de repeticiones del experimento


N = total de elementos del experimento (población)
k = número de elementos de la población que presentan la característica
x = valor de la variable

Descriptores:
Media μ = nk/N Varianza σ2 = nk/N.(1 – k/n)

4. HIPERGEOMÉTRICO MULTIVARIADO: Si N resultados pueden dividirse en las k celdas


A1,A2,…,Ak con a1,a2,…ak elementos respectivamente, entonces la distribución de
probabilidad de las variables aleatorias x1,x2,…xk que representan el número de elementos
seleccionados de A1, A2,…,Ak en una muestra aleatoria de tamaño n, será: (Walpole & Myers,
1992)

Función:
 a1  a 2   a k 
  ... 
hm( x1 , x 2 ,...x k ; a1 , a 2 ,...a k ; N , n)   1  2   k 
x x x
N
k k
 
 xi  n y  ai  N  n 
i 1 i 1
Dónde:

Parámetros:

n = número de repeticiones del experimento


N = total de elementos del experimento (población)
xi = valor de la variable i
ai = número de éxitos de la variable i

5. GEOMÉTRICO: parte del proceso Bernoulli, y presenta las siguientes características:


a. El experimento se repite n veces
b. Los resultados de cada repetición se pueden clasificar como éxito o fracaso.
c. Los resultados individuales son independientes
d. La variable aleatoria se puede definir como el número de repeticiones para que ocurra el
primer éxito

Función: g ( x; p)  p.q x 1 , x 1, 2, 3....

Parámetros:
p = probabilidad de éxito
x = el valor de la variable
Descriptores:
Media μ = 1/p Varianza σ2 = (1-p)/p2
6. BINOMIAL NEGATIVO: parte del proceso Bernoulli, y presenta las siguientes características:
a. El experimento se repite n veces
b. Los resultados de cada repetición se pueden clasificar como éxito o fracaso.
c. Los resultados individuales son dependientes
d. La variable aleatoria se puede definir como el número de repeticiones para que ocurra el k-
ésimo éxito

Función:  x  1 k x  k
b * ( x; k , p)    p .q , x  k , k  1, k  2,....
 k  1
Parámetros:
k = número del éxito buscado
p = probabilidad de éxito
x = el valor de la variable, número de repetición

7. POISSON: parte del proceso poisson y presenta las siguientes características:


a. La presencia de la característica está en función de un factor de ocurrencia
b. Existe independencia de ocurrencia en cada intervalo del factor

Función: e t (t ) x


p( x; t )  , x  0,1, 2,....
x!
Parámetros:
λ = tasa de ocurrencia de la característica por unidad de factor

Descriptores:
Media μ = λt Varianza σ2 = λt

8. BINOMIAL NEGATIVO: parte del proceso Bernoulli, y presenta las siguientes características:
a. El experimento se repite n veces
b. Los resultados de cada repetición se pueden clasificar como éxito o fracaso.
c. Los resultados individuales son dependientes
d. La variable aleatoria se puede definir como el número de repeticiones para que ocurra el k-ésimo éxito
 x  1 k x  k
b * ( x; k , p)    p .q , x  k , k  1, k  2,....
Función:  k  1
Parámetros:
k = número del éxito buscado
p = probabilidad de éxito
x = el valor de la variable, número de repetición

9. POISSON: parte del proceso poisson y presenta las siguientes características:


c. La presencia de la característica está en función de un factor de ocurrencia
d. Existe independencia de ocurrencia en cada intervalo del factor

e t (t ) x
Función: p( x; t )  , x  0,1, 2,....
x!
Parámetros:

λ = tasa de ocurrencia de la característica por unidad de factor

Descriptores:
Media μ = λt Varianza σ2 = λt

2. MODELOS CONTINUOS: (cuando la variable es continua)

1. MODELO NORMAL: corresponde a la función densidad de la variable aleatoria normal X, con media μ y
varianza σ2, y está dada por:

Función:  x 
2

1  
n( x;  ,  )  e  2 
,   x  
2
Parámetros:
μ = valor promedio
σ = desviación estándar

n n

Descriptores:  xi  (x i  )2
media   i 1
Varianza  2  i 1

n n 1
2. MODELO NORMAL ESTANDAR: corresponde a la función densidad de la variable aleatoria normal X, con media μ = 0 y varianza σ2
= 1 y está dada por la variable tipificada z:

Función: x
Z

Parámetros:
μ = valor promedio = 0
σ = desviación estándar = 1

5.5. RELACIONES ENTRE MODELOS:

Según las condiciones experimentales, pueden ser útiles las siguientes consideraciones entre modelos:

1) Hipergeométrico – Binomial,
Si se toma una muestra pequeña de una población grande, entonces la no reposición (modelo hipergeométrico) y la
reposición (modelo binomial) dan aproximadamente los mismos resultados. Siendo el modelo binomial el límite del
hipergeométrico cuando N tiende a infinito. Una regla empírica es que n ≤ 0.05N.

Esto es: Es decir:

 k  N  k 
   n x
 x  n  x    n  k   N  k 
x
h( x; n, N , k )  b( x; n, p)
N  x  N   N 
      
n 
2) Binomial – Poisson,
Si p es suficientemente pequeña, pueden hacerse aproximaciones satisfactorias de la binomial por
la de Poisson, aun si n es tan pequeña como 10. Dada una p pequeña, cuanto mayor sea n, tanto
mejores serán los resultados. Dada n, cuanto menor sea p, tanto más satisfactorias serán las
aproximaciones. Como regla práctica, si n > 100 y p < 0.01 se da una buena aproximación.

Esto es: Es decir:

 n  x n x  (np) x  b( x; n, p)  p( x; t )
  p q  e  np  
 x  x!  donde :   np.

3) Normal – Binomial,
Si n es suficientemente grande (n > 30), pueden hacerse aproximaciones satisfactorias de la
binomial por la normal estándar, utilizando el factor de corrección de continuidad (FCC = 1/2).
Como regla práctica, dado n, cuanto más se desvía p de 0.5, tanto mayor es el error de
aproximación. Dado p, cuanto mayor es n, tanto mejor resulta la aproximación.

Esto es: Es decir:

x  (1 / 2)  np n n( x;  ,  )  b( x; n, p )
Z    p x q n  x
npq  x donde :   np y   npq

También podría gustarte