Está en la página 1de 2

DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN HIPERGEOMÉTRICA

X: número de éxitos obtenidos en n ensayos de N: número de elementos de una población.


Bernoulli. M: número de elementos de la población que poseen
A: evento de éxito en cada ensayo. → p = P ( A) éxito.
Si X b(n, p ), entonces  x = 0, 1, 2, , n: número de elementos de la muestra.
X: número de éxitos en la muestra de tamaño n (sin
n  n
f ( x) = P  X = x  =   p x (1 − p)n− x =   p x q n− x reemplazo).
 x  x Si X h ( N , n, M ) , entonces
Esperanza: E ( X ) = np
 M  N − M 
Varianza: V ( X ) = np (1 − p ) = npq   
x  n − x 
f ( x) = P  X = x  = 
DISTRIBUCIÓN GEOMÉTRICA N
X: número de pruebas requeridas hasta obtener el primer  
éxito. n
A: evento de éxito en cada prueba. → p = P ( A)  max 0, n − ( N − M )  x  min n, M 
Si X G ( p ) , entonces  x = 1, 2, 3, , nM
Esperanza: E( X ) =
f ( x) = P  X = x  = p(1 − p) x−1 = pq x−1 N
nM  N − M  N − n 
Función de distribución: Para x  , Varianza: V( X ) =   
N  N  N − 1 
F ( x) = 1 − (1 − p) = 1 − q
x x
DISTRIBUCIÓN BINOMIAL NEGATIVA o de PASCAL
1
Esperanza: E( X ) = Sea una secuencia de n ensayos con k posibles resultados
p E1, E2 , ... Ek con respectivas probabilidades p 1, p 2 ,
1− p q ... p k constantes en cada ensayo (  pi = 1) , se define:
Varianza: V(X ) = 2 = 2
p p
X i : número de veces que el evento Ei ocurre en las n
Teorema: Para r  , P  X  r  = (1 − p ) = q
r
( )
r
repeticiones. i = 1, k
DISTRIBUCIÓN BINOMIAL NEGATIVA o de PASCAL
X: número de veces que se repite el ensayo hasta obtener La distribución de probabilidad conjunta de las variables
k éxitos. aleatorias X1 , X 2 , ... X k es la distribución multinomial:
k: número de éxitos requeridos. f ( x1, x 2 ,..., x k ) = P  X1 = x1,..., X k = x k 
A: evento de éxito en cada ensayo. → p = P ( A)
Si X BN ( p, k ) , entonces  x = k , k + 1, k + 2, ,
x x x
n ! p 1 1  p 2 2  ...  p k k
=
 x − 1 k x − k  x − 1  k x −k x1 ! x 2 ! ...x k !
f ( x) = P  X = x  =   p (1 − p) = p q
 k − 1  k − 1 donde  xi = n y cada xi = 0,1, 2,..., n.
Esperanza: E( X ) =
k Esperanza: E ( X i ) = npi
p
Varianza: V ( X i ) = npi (1 − pi ) = npi qi
k (1 − p ) kq
Varianza: V(X ) = = 2 ESPERANZA
p2 p V. A. Discretas E ( X ) =  xp( x) =  xf ( x)
DISTRIBUCIÓN de POISSON xRX xRX
X: número de veces que ocurre un evento durante un +
intervalo  definido. V. A. Continuas E ( X ) =  xf ( x)dx =  xf ( x)dx
xRX −
 : promedio, media o valor esperado de X en el intervalo
VARIANZA
.
V. A. Discretas V ( X ) =  x 2 f ( x) − ( E ( X ) )
2
A: evento de éxito en cada ensayo. → p = P ( A)
xRX
Si X Poisson (  ) , entonces  x = 0, 1, 2, ,
+ 2
− x
e  V. A. Continuas V ( X ) = −
x f ( x ) dx − ( E ( X ) ) 2

f ( x) = P  X = x  =
x! SUMAS
Esperanza: E( X ) =  n
r n+1 − 1 n
r (r n − 1)
 r = r −1 ,  r = r −1
i i
Varianza: V(X ) =  i =0 i =1
Aproximación de una distribución binomial por una 
1
distribución de Poisson: Si en una distribución  ri = 1 − r , r 1
binomial, b( n, p ), n es grande y p es pequeño, entonces i =0
FUNCIÓN GAMMA
b(n, p) Poisson ( np )
+ x −1 −t
 ( x) =  t e dt
0

 x  0,  ( x + 1) = x ( x)

Propiedades  n  ,  (n) = (n − 1)!
 +
 (1) = 1 y  (1 2) =  t −1 2e−t dt = 
 0

También podría gustarte