Documentos de Académico
Documentos de Profesional
Documentos de Cultura
24oct PDF
24oct PDF
Historia
9. Obtención de conclusiones.
El estadístico auxilia.
Se origina por:
1. Variación natural entre u.e.
2. Variabilidad en la medición de la respuesta
3. Incapacidad de reproducir las condiciones de los
tratamientos exactamente de una u.e. a otra
4. Interacción de tratamientos y u.e.
5. Cualquier otro factor externo que afecte las características
medidas
µ Pn ¶ Ã n !
i=1 yi 1 X
E(ȳ) = E = E yi
n n i=1
n
1X
= E(yi )
n i=1
1
= nµ = µ
n
ȳ es un estimador insesgado de µ.
n
" #
¡ 2
¢ (yi − ȳ)2
X
E S = E
i=1
n−1
" n #
1 X
2 1
= E (yi − ȳ) = E [SS]
n−1 i=1
n − 1
Pn
donde SS = i=1 (yi − ȳ)2 es la Suma de Cuadrados
corregida de las observaciones.
" n #
X
E (SS) = E (yi − ȳ)2
i=1
n
" #
X
= E yi2 − nȳ 2
i=1
n
X
= E(yi2 ) − nE(ȳ 2 )
i=1
por lo tanto
E(y 2 ) = σ 2 + µ2
Y por otro:
n
à ! à n !
1 X 1 X
V (ȳ) = V yi = 2V yi
n i=1
n i=1
n
1 X
=iid 2
V (yi )
n i=1
2
1 2 σ
= nσ = .
n2 n
Entonces,
¡ 2¢ 2
V (ȳ) = E ȳ − [E(ȳ)]
¡ 2¢ 2
E ȳ = V (ȳ) + [E(ȳ)]
= σ 2 /n + µ2 .
Regresando,
n
X
E (SS) = E(yi2 ) − nE(ȳ 2 )
i=1
Xn
= (µ2 + σ 2 ) − n(µ2 + σ 2 /n)
i=1
= nµ + nσ 2 − nµ2 − σ 2
2
= (n − 1)σ 2
Por lo tanto,
2 1 1
(n − 1)σ 2 = σ 2
¡ ¢
E S = E (SS) =
n−1 n−1
S 2 es un estimador insesgado de σ 2 .
Si y ∼ N (µ, σ 2 ) entonces:
1 − 2σ12 (y−µ)2
f (y) = √ e −∞ < y < ∞
σ 2π
−∞ < µ < ∞
σ2 > 0
0.4
NH10,1L
0.3
NH10,4L
0.2
NH10,9L
0.1
5 10 15 20
Si y ∼ N (µ, σ 2 ) entonces:
y−µ
z= ∼ N (0, 1)
σ
Muchas técnicas estadísticas suponen que la variable
aleatoria en cuestión se distribuye normalmente. El Teorema
Central del Límite es muchas veces una justificación para
suponer normalidad.
Teorema Central del Límite.
Sean x1 , x2 , . . . , xn v.a.i.i.d de una función de probabilidad
fX (x) con media µ y varianza σ 2 .
Sea x̄ = x1 +x2 +...+x
n
n
, para un tamaño de muestra grande n,
la distribución de x̄ es aproximadamente:
√
n(x̄ − µ)
˙ (µ, σ 2 /n)
x̄∼N ó ∼N
˙ (0, 1)
σ
0.15
0.125 ΧH5L
0.1
ΧH10L
0.075
0.05 ΧH15L
0.025
5 10 15 20 25 30
0.4
tH1L
0.3
tH2L
0.2
tH30L
0.1
-6 -4 -2 2 4 6
χ2u /u
F = 2 ∼ Fu,v
χv /v
Sabemos que:
SS1 SS2
S12 = 2
y S2 =
n1 − 1 n2 − 1
y
SS1 (n1 − 1)S12 2
= ∼ χn1 −1
σ2 σ2
SS2 (n2 − 1)S22 2
= ∼ χn2 −1
σ2 σ2
Por lo tanto:
(n1 −1)S12
(n1 −1)σ 2
(n2 −1)S22
∼ Fn1 −1,n2 −1
(n2 −1)σ 2
Para probar si las dos fórmulas son iguales o no, se utiliza una
técnica de estadística inferencial llamada Prueba de Hipótesis,
la cual permite hacer la comparación de las dos fórmulas en
términos objetivos, con el conocimiento del riesgo asociado a
llegar a una conclusión errónea.
0.2
0.15
trat 1
0.1
trat 2
0.05
5 10 15 20 25 30
H0 : µ1 = µ2 hipótesis nula
vs.
Ha : µ1 6= µ2 hipótesis alternativa dos colas
µ1 < µ2 ó µ1 > µ2
Regresando al ejemplo.
1−α/2
Se compara t0 con tn1 +n2 −2 porcentil (1 − α/2) de la
distribución t con n1 + n2 − 2 g.l.
1−α/2
Si |t0 | > tn1 +n2 −2 se rechaza H0 .
µ r
(1−α/2) 1 1
P ȳ1 − ȳ2 − tn1 +n2 −2 Sp + ≤ µ1 − µ2
n1 n2
r ¶
(1−α/2) 1 1
≤ ȳ1 − ȳ2 + tn1 +n2 −2 Sp + =1−α
n1 n2
Si estamos probando
H0 : µ1 = µ2 vs. Ha : µ1 6= µ2
y no podemos suponer que las varianzas σ12 y σ22 son iguales,
la prueba t se modifica. La estadística de prueba es ahora:
ȳ1 − ȳ2
t0 = q 2 2
.
S1 S2
n1 + n2
Punta 1 Punta 2
7,3,3,4,8, 6,3,5,3,8,
3,2,9,5,4 2,4,9,4,5
ȳ1 = 4.80 ȳ2 = 4.90
S12 = (2.39)2 S22 = (2.23)2
Si
dj = y1j − y2j j = 1, . . . , 10
entonces
µd = E(dj ) = E(y1j − y2j ) = E(y1j ) − E(y2j )
= µ1 + βj − (µ2 + βj )
= µ1 − µ2 (se cancela el efecto de βj )
P ¯2
(dj −d)
donde d¯ = 1
Sd2
P
n j dj y = n−1 .
t0.975
9 = 2.262 p-value = 0.798
No se rechaza H0 .
Sp = 2.31 Sd = 1.20