Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Distribuciones Discretas
Prueba de Bernulli: es un experimento que acepta solo 2 resultados (Exito, Fallo), si:
P → es la probabiliad de exito
1−P → es la probabilidad de fracaso
x n− x
P ( X=x ) =p ( 1− p ) una prueba y 2 eventos
n , numero de muestra
Distribución Binomial: en base a la prueba de Bernulli, un experimento se pude repetir ( nx) veces, por tanto:
P ( X=x ) =b ( x ; n ; p )= ( nx) p ( 1− p )
x n−x
N pruebas 2 eventos
x=0 x
()
P ( X=x ) =B ( x , n , p ) =∑ n ∗p x ( 1− p ) desde el 0 en adelante
n− x
1 ¿ P ( X ≤ x )=B ( x , n , p )
2 ¿ P ( X ≥ x )=1− p ( X< x )=1−B ( x−1 , n , p )
3 ¿ P ( X=x )=B ( x ,n , p )−B ( x−1 , n , p )
Distribución Geométrica: Son las repeticiones independientes hasta conseguir el 1re éxito es donde “n” no
está definido:
x−1
P ( X=x ) =g ( x , p )= p ( 1− p ) ; x=1 ,2 , 3 , … … .
1 1− p
experanza matematica : E ( x ) = ; Varianza:V ( x )= 2
p p
Siendo n, numero de intentos totales. Para calcular la probabilidad de un evento x, hay que tener muy muy en
cuenta si x=número de intentos hasta “acertar” (x=1,2,3,…n) si x=número de “fallos” hasta “acertar” (x=1,2,3,
…..n-1)
Distribución Hipergeométrica: sirve para experimentos sin reemplazo, “muestra sin reemplazo de n
elementos de la población original” sin regresar la muestra a la población
x=0 , 1 , 2, 3 … … . n
N pruebas y N eventos
( )
2
−1 x−μ
∗
1 2 σ
( α ) P ( X =x )=f ( x ; μ ; σ )= ∗e
√ 2∗π∗σ
El area total limitada por la curva ( α ) y el eje x es 1; el área bajo la curva entre dos ordenados x=a y x=b
donde a<b, representa la probabilidad de que x este entre un intervalo a y b
Estandarizar las variables:
μ=0 ; σ=1 ; x=Z
2
−Z
1
f ( Z ; 0; 1 ) = e 2
√2 π
Por tanto, la función de densidad acumulada fda de Z es P(Z<z) y se denota como el área bajo la curva.
x −μ
Z=
σ
√n
Distribución Ji-cuadrada
Si S2 es la varianza de una muestra aleatoria de tamaño n, tomada una población normal con varianza σ2
entonces la variable aleatoria:
2 ( n−1 )∗S2
χ= v=n−1 grado de libertad
σ2
Distribución t-student
Si Z es una variable normal estándar y V una variable Ji cuadrada con v grados de libertad, entonces la
variable aleatoria T:
Z x−μ
t= →t= con v grados de libertad
√ V S
v √n
Distribución F de Fisher
Si U y V son variables aleatorias que tienen distribucion Ji cuadrada con v1 y v2 grados de libertad, entonces:
U
v1
F=
V
v2
Estadística Descriptiva
n
Media:
∑ xi
x= i=1
n
n
Varianza:
∑ ( x i−x )2
S2= i=1 → desviacion standard S=√ S2
n−1
2 suma de cuadrados
Cuadrado medio: S =CM =
grados de livertad
2 2
media muestral : x ; media poblacional : μ ; varianza muestral :S ; varianza poblacional :σ
Varianza de una variable que es una función de otras
y=f ( x 1 , x 2 , x 3 ,… .. , x n ) → S y =
2
∑ γi ( )
∂y 2 2
S
∂ x i xi
∑ γi
γ i=1 sin tamaño de muestra ; γ i=n−1 con tamaño de muestra
Intervalos de confianza-inferencia
Las distribuciones normal y T de student sirven para hacer inferencias sobre las medias.
La distribución Ji-cuadrada es para inferencias sobre varianzas.
La distribución F se empleará para comparar varianzas.
√n √n
2 2
σ ( n−1 )∗S ( n−1 )∗S 2
χ 2α χ 2α
,n−1 ,n−1
2 2
√ √
ρ ^ρ (1− ^ρ ) ρ^ ( 1− ^ρ )
^ρ −Z α ∗ ^ρ + Z α ∗
2
n 2
n
√
μ1−μ2 1 1
( x 1−x 2 ) +t α , n +n −2∗S p∗ +
2
1 2
1 1
( x 1−x 2 )−t α ,n + n −2∗S p∗ +
n1 n 2 √ 2
1 2 n1 n2
√
2 2
( n1 −1 )∗S1 + ( n2−1 )∗S 2
S p=
n1+ n2−2
2 2 2
σ1 S1 S1
2 2
∗F α 2
∗F α
σ2 S2 1− ,n2−1 ,n1−1
2 S2 1− ,n2−1 ,n1−1
2
1
F α =
1− , n2−1 , n1−1
2
Fα
,n2−1 ,n1−1
2
√ √
ρ 1− ρ 2 ρ^ 1 ( 1− ^ρ1) ρ^ 2 ( 1−^ρ2 ) ^ρ1 ( 1−^ρ1 ) ρ^ 2 ( 1−^ρ2 )
( ρ^ 1 − ^ρ2 )−Z α ∗ n1
+
n2
( ρ^ 1 − ^ρ2 ) +Z α ∗ n1
+
n2
2 2
Tamaño de muestra
2 2
t ∗S
( α
2
, n−1 )
n= 2
; E=error que se quiere
E
2
4∗S
n= 2
para n>30
E
2
Z α ∗^ρ ( 1− ^ρ )
( 2) x defectos
n= ; ρ= →
E
2
n cantidad , articulos , partes , etc ( buenos +defectos )
√ |t o|>t α ,n + n −2
H A : μ1 ≠ μ 2 1 1
Sp + 2 1 2
n1 n 2
H A : μ1 > μ2 t o >t α ,n +n −2
1 2
H A : μ1 < μ2 t o ←t α , n +n −2
1 2
√
2 2
( n1−1 ) S1 + ( n2−1 ) S 2
SP
n1+ n2−2
H 0 : μ1=μ2 x 1−x 2
t o=
√
H A : μ1 ≠ μ 2 2
S1 S2
2 |t o|>t α ,v
+ 2
H A : μ1 > μ2 n1 n2 t o >t α ,v
( )
2 2 2
H A : μ1 < μ2 S 1 S2
+
n1 n2
v= −2
( ) ( )
2 2 2 2
S1 S2 t o ←t α, v
n1 n2
+
n1 +1 n2 +1
2 2 2
H 0 :σ =σ 0 S1
F 0=
2 2
H A :σ ≠ σ 0 S2
2 F 0> F α o F0< F α
;n1−1 ;n2−1 1− ; n1−1 ;n2−1
2 2
1
2
H A :σ > σ 0
2
F 1−α ;n −1 ;n −1= F 0> Fα ;n −1 ;n −1
1 2
F α ;n −1 ;n −1 1 2
2 2
H A :σ < σ 0
2 1
F 0< F1−α ;n −1 ;n −1
1 2
H 0 : ρ= ρ0 ^ρ1− ρ^ 2
Z 0=
√
H A : ρ ≠ ρ0 |Z o|> Z α
H A : ρ> ρ0
ρ^ ( 1− ^ρ )
1 1
−
n1 n 2 ( ) Z o> Z α
2
H A : ρ< ρ0 x +x t o ←Z α
^ρ = 1 2
n1 +n2
ni ∑ Y ij k
Y ..
ni k
Y i . =∑ Y ij ; Y i . = ; Y ..=∑ ∑ Y ij ;Y ..= ; i=1 , 2 , … ..k ; N =∑ ni
j=1
i=1 j=1
S CT =S C TRAT + S C E
S CTRAT
Cuadrado medio de tratamiento: C M TRAT =
k −1
SCE
Cuadrado medio del error: C M E=
N−k
Bajo el supuesto de la hipótesis H0: estadístico de prueba
C M TRAT ( k−1 ) grados de libertad
F 0= con
C ME ( N−k ) grados de libertad
se rechaza H 0 si F 0> Fα , k−1, N −k
ANOVA para el DCA (diseño completamente al azar)
FV SC GL CM Fo
Tratamiento S CTRAT k-1 C M TRAT C M TRAT
Error S CE N-k CME C ME
Total S CT N-1
|Y i . −Y j .|>t α ; N−k
(2 ) √ C ME
( n1 + n1 )=LSD significativo
i j
Método de Tukey
C ME
|Y i . −Y j .|>q α ; (k , N −k )∗
ni √
=T α significativo
Método de Duncan
SY =i.
√ C ME
n AR
; n AR= k
∑ n1
i=1
k
r α ; ( P ; L )=significancia de Duncan
Y ...
Media global: Y . .. =
a∗b∗n
b n
Y i. .
Total, del nivel i del factor A: Y i .. =∑ ∑ Y ijk media del nivel idel factor A :Y i . .=
j=1 k=1 b∗n
a n
Y . j.
Total, del nivel i del factor B: Y . j . =∑ ∑ Y ijk media del nivel j del factor B :Y . j . =
i=1 k=1 a∗n
n
Y ij .
Total, del nivel i y j para la interacción AB: Y ij .=∑ Y ijk ; media de interaccion AB :Y i j. =
k=1 n
Suma de cuadrados:
S CT =S C A +S C B +S C AB + S C E
a b n 2
Y .. .
S CT =∑ ∑ ∑ Y
2
i jk − ; donde : N=a∗b∗n
i=1 j=1 k=1 N
a 2 2
Y i . . Y .. .
S C A =∑ −
i=1 b∗n N
b 2 2
Y . j. Y . ..
S C B= ∑ −
j=1 a∗n N
a b 2 2
Y ij. Y . ..
S C AB =∑ ∑ − −S C A −S C B
i=1 j=1 n N
Cuadrado medio:
SCA S CB S C AB S CE
C M A= ; C M B= ; C M AB= ; C M E=
a−1 b−1 ( a−1 ) ( b−1 ) ab ( n−1 3 )
ANOVA
FV SC GL CM Fo
Efecto A S CA a-1 CM A CMA / CME
Efecto B S CB b-1 CM B CMB / CME
Efecto AB S CA B (a-1)(b-1) CM AB CMAB / CME
Error S CE ab(n-1) CM E
Total S CT abn-1