Documentos de Académico
Documentos de Profesional
Documentos de Cultura
De la estructura experimental se desprende que, según las condiciones en las que se realiza cada tipo de
experimento, se obtienen los diferentes modelos probabilísticos o distribuciones de probabilidad según
el tipo de variable.
Así se tiene:
Función: n
b( x; n, p) p x q n x , x 0,1, 2,..., n. Dónde: q = 1 - p
x
Parámetros:
n = número de repeticiones del experimento
p = probabilidad de éxito
x = el valor de la variable
Descriptores:
Media μ = n.p Varianza σ2 = npq
Función:
n x1 x2
m( x1 , x 2 ,...x k ; p1 , p 2 ,... p k ; n) p1 p 2 ... p kxk .
1 2
x , x ,...x k
k k
Dónde: xi n
i 1
y p
i 1
i 1
Parámetros:
n = número de repeticiones del experimento
pi = probabilidad de éxito de la variable i
xi = número de éxitos de la variable i
Descriptores:
Media μ = nk/N Varianza σ2 = nk/N.(1 – k/n)
Función:
a1 a 2 a k
...
hm( x1 , x 2 ,...x k ; a1 , a 2 ,...a k ; N , n) 1 2 k
x x x
N
k k
xi n y ai N n
i 1 i 1
Dónde:
Parámetros:
Parámetros:
p = probabilidad de éxito
x = el valor de la variable
Descriptores:
Media μ = 1/p Varianza σ2 = (1-p)/p2
6. BINOMIAL NEGATIVO: parte del proceso Bernoulli, y presenta las siguientes características:
a. El experimento se repite n veces
b. Los resultados de cada repetición se pueden clasificar como éxito o fracaso.
c. Los resultados individuales son dependientes
d. La variable aleatoria se puede definir como el número de repeticiones para que ocurra el k-
ésimo éxito
Función: x 1 k x k
b * ( x; k , p) p .q , x k , k 1, k 2,....
k 1
Parámetros:
k = número del éxito buscado
p = probabilidad de éxito
x = el valor de la variable, número de repetición
Descriptores:
Media μ = λt Varianza σ2 = λt
8. BINOMIAL NEGATIVO: parte del proceso Bernoulli, y presenta las siguientes características:
a. El experimento se repite n veces
b. Los resultados de cada repetición se pueden clasificar como éxito o fracaso.
c. Los resultados individuales son dependientes
d. La variable aleatoria se puede definir como el número de repeticiones para que ocurra el k-ésimo éxito
x 1 k x k
b * ( x; k , p) p .q , x k , k 1, k 2,....
Función: k 1
Parámetros:
k = número del éxito buscado
p = probabilidad de éxito
x = el valor de la variable, número de repetición
e t (t ) x
Función: p( x; t ) , x 0,1, 2,....
x!
Parámetros:
Descriptores:
Media μ = λt Varianza σ2 = λt
1. MODELO NORMAL: corresponde a la función densidad de la variable aleatoria normal X, con media μ y
varianza σ2, y está dada por:
Función: x
2
1
n( x; , ) e 2
, x
2
Parámetros:
μ = valor promedio
σ = desviación estándar
n n
Descriptores: xi (x i )2
media i 1
Varianza 2 i 1
n n 1
2. MODELO NORMAL ESTANDAR: corresponde a la función densidad de la variable aleatoria normal X, con media μ = 0 y varianza σ2
= 1 y está dada por la variable tipificada z:
Función: x
Z
Parámetros:
μ = valor promedio = 0
σ = desviación estándar = 1
Según las condiciones experimentales, pueden ser útiles las siguientes consideraciones entre modelos:
1) Hipergeométrico – Binomial,
Si se toma una muestra pequeña de una población grande, entonces la no reposición (modelo hipergeométrico) y la
reposición (modelo binomial) dan aproximadamente los mismos resultados. Siendo el modelo binomial el límite del
hipergeométrico cuando N tiende a infinito. Una regla empírica es que n ≤ 0.05N.
k N k
n x
x n x n k N k
x
h( x; n, N , k ) b( x; n, p)
N x N N
n
2) Binomial – Poisson,
Si p es suficientemente pequeña, pueden hacerse aproximaciones satisfactorias de la binomial por
la de Poisson, aun si n es tan pequeña como 10. Dada una p pequeña, cuanto mayor sea n, tanto
mejores serán los resultados. Dada n, cuanto menor sea p, tanto más satisfactorias serán las
aproximaciones. Como regla práctica, si n > 100 y p < 0.01 se da una buena aproximación.
n x n x (np) x b( x; n, p) p( x; t )
p q e np
x x! donde : np.
3) Normal – Binomial,
Si n es suficientemente grande (n > 30), pueden hacerse aproximaciones satisfactorias de la
binomial por la normal estándar, utilizando el factor de corrección de continuidad (FCC = 1/2).
Como regla práctica, dado n, cuanto más se desvía p de 0.5, tanto mayor es el error de
aproximación. Dado p, cuanto mayor es n, tanto mejor resulta la aproximación.
x (1 / 2) np n n( x; , ) b( x; n, p )
Z p x q n x
npq x donde : np y npq