Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Consulta Diseño Experimental Grupo 2
Consulta Diseño Experimental Grupo 2
POLITÉCNICA DE CHIMBORAZO
DISEÑO EXPERIMENTAL
CONSULTA
GRUPO: 2
Integrantes:
Calderón Alejandro
Bonilla Daniel
Andrade Erick
Aulla Eduardo
Caiza Cristian
FECHA: 2 021-01-03
En minitab elija Estadísticas > Estadísticas básicas > Prueba de normalidad. Los resultados de la
prueba indican si usted debe rechazar o no puede rechazar la hipótesis nula de que los datos
provienen de una población distribuida normalmente. Puede realizar una prueba de normalidad y
producir una gráfica de probabilidad normal en el mismo análisis. La prueba de normalidad y la
gráfica de probabilidad suelen ser las mejores herramientas para evaluar la normalidad.
Esta prueba evalúa la normalidad calculando la correlación entre los datos y las puntuaciones
normales de los datos. Si el coeficiente de correlación se encuentra cerca de 1, es probable que la
población sea normal. El estadístico de Ryan-Joiner evalúa la fuerza de esta correlación; si se
encuentra por debajo del valor crítico apropiado, usted rechazará la hipótesis nula de normalidad
de la población. Esta prueba es similar a la prueba de normalidad de Shapiro-Wilk. (Minitab, 2019)
• RJ
El estadístico de Ryan-Joiner mide qué tan bien siguen los datos una distribución normal al calcular
la correlación entre los datos y las puntuaciones normales de los datos. Si el coeficiente de
correlación está cerca de 1, es probable que la población sea normal. Esta prueba es similar a la
prueba de normalidad de Shapiro-Wilk. (Minitab, 2019)
Interpretación
• Valor p
El valor p es una probabilidad que mide la evidencia en contra de la hipótesis nula. Un valor p más
pequeño proporciona una evidencia más fuerte en contra de la hipótesis nula.
Interpretación
Utilice el valor p para determinar si los datos no siguen una distribución normal.
Para determinar si los datos no siguen una distribución normal, compare el valor p con el nivel de
significancia. Por lo general, un nivel de significancia (denotado como α o alfa) de 0.05 funciona
adecuadamente. Un nivel de significancia de 0.05 indica un riesgo de 5% de concluir que los datos
no siguen una distribución normal, cuando los datos sí siguen una distribución normal. (Minitab,
2019)
Si el valor p es menor que o igual al nivel de significancia, la decisión es rechazar la hipótesis nula
y concluir que sus datos no siguen una distribución normal.
Valor p > α: Usted no puede concluir que los datos no siguen una distribución normal (No
puede rechazar H0)
EJEMPLO (Minitab):
Grupo.A (15, 12, 11, 18, 15, 15, 9, 19, 14, 13, 11, 12, 18, 15, 16, 14, 16, 17, 15, 17, 13, 14, 13,
15, 17, 19, 17, 18, 16, 14)
Grupo.B (11, 16, 14, 18, 6, 8, 9, 14, 12, 12, 10, 15, 12, 9, 13, 16, 17, 12, 8, 7, 15, 5, 14, 13, 13,
12, 11, 13, 11, 7)
El test de Shapiro-Wilks plantea la hipótesis nula que una muestra proviene de una distribución
normal. Elegimos un nivel de significancia, por ejemplo (0,05), y tenemos una hipótesis alternativa
que sostiene que la distribución no es normal. (Guachalla, 2019)
Tenemos:
Toma de decisión:
Sig(p valor) > alfa: No rechazar H0 (normal).
Sig(p valor) < alfa: Rechazar H0 (no normal)
Grupo.A = c(15, 12, 11, 18, 15, 15, 9, 19, 14, 13, 11, 12, 18, 15, 16, 14, 16, 17, 15, 17, 13, 14, 13,
15, 17, 19, 17, 18, 16, 14)
shapiro.test(Grupo.A)
Grupo.B = c(11, 16, 14, 18, 6, 8, 9, 14, 12, 12, 10, 15, 12, 9, 13, 16, 17, 12, 8, 7, 15, 5, 14, 13, 13,
12, 11, 13, 11, 7)
shapiro.test(Grupo.B)
Vemos que en ambos casos el valor de probabilidad (p) es superior a nuestro nivel elegido (0,05),
por lo que no rechazamos la hipótesis nula, entonces los datos del grupo A y B están distribuidos
normalmente.
El objetivo de esta prueba de bondad y ajuste es señalar y determinar si los datos estudiados o
mediciones muestrales provienen de una población que tienen una distribución teórica
determinada.
Hipótesis
El primer paso será comprobar si ambas muestras tienen la misma distribución. Para ello
realizamos un contraste de hipótesis suponiendo que ambas muestras tienen la misma distribución
contra la hipótesis alternativa de que son distintas.
Estadístico
Trabajamos con las funciones de distribución acumuladas de dos muestras, F1(x) y F2(x):
Valor crítico
Para muestras grandes existe la aproximación al valor crítico para K-S que depende del nivel de
significación (%):
Regla de rechazo
Ejemplo:
Se ha realizado una muestra a 178 municipios al respecto del porcentaje de población activa
dedicada a la venta de ordenadores resultando los siguientes valores
Queremos contrastar que el porcentaje de municipios para cada grupo establecido se distribuye
uniformemente con un nivel de significación del 5%.
Bajo la hipótesis nula cada grupo debería estar compuesto por el 10% de la población dado que
existen diez grupos.
f observada f esperada f observada f observ relativa max
Variable no.i Fo(x i) nt.i =n P(x i) Fo(Xi) D= max/Ft(Xi) - F1(Xi)/
menos del 5% 18 0,101 17,8 0,1 0,0011
entre el 5 y 10 % 14 0,180 17,8 0,2 0,0202
entre el 10 y 15 % 13 0,253 17,8 0,3 0,0472
entre el 15 y 20 % 16 0,343 17,8 0,4 0,0573
entre el 20 y 25 % 18 0,444 17,8 0,5 0,0562
entre el 25 y 30 % 17 0,539 17,8 0,6 0,0607
entre el 30 y 35 % 19 0,646 17,8 0,7 0,0539
entre el 35 y 40 % 24 0,781 17,8 0,8 0,0191
entre el 40 y 45 % 21 0,899 17,8 0,9 0,0011
mas del 45 % 18 1 17,8 1 0,0000
Total 178
Siendo la máxima diferencia 0,0607 y por lo tanto el estadístico de kolmogorov que compararemos
con el establecido en la tabla que será para un nivel de significación del 5% y una muestra de 178,
esto es el estadístico de prueba.
Dado que el estadístico es menor (0,0607) que el valor de la tabla (1,1019) no rechazamos la
hipótesis de comportamiento uniforme de los grupos establecidos al respecto de la población activa
para la venta de ordenadores.
A la hora de realizar contrastes de hipótesis o intervalos de confianza, cuando los tamaños de cada
grupo son muy distintos ocurre que:
• Si los grupos con tamaños muestrales pequeños son los que tienen mayor varianza, la
probabilidad real de cometer un error de tipo I en los contrastes de hipótesis será menor de
lo que se obtiene al hacer el test. En los intervalos, los límites superior e inferior reales son
menores que los que se obtienen. La inferencia será por lo general más conservadora.
• Si por el contrario, son los grupos con tamaños muestrales grandes los que tienen mayor
varianza, entonces se tendrá el efecto contrario y las pruebas serán más liberales. Es decir,
la probabilidad real de cometer un error de tipo I es mayor que la devuelta por el test y los
intervalos de confianza verdaderos serán más amplios que los calculados.
Existen diferentes test que permiten evaluar la distribución de la varianza. Todos ellos consideran
como hipótesis nula que la varianza es igual entre los grupos y como hipótesis alternativa que no
lo es. La diferencia entre ellos es el estadístico de centralidad que utilizan:
• Los test que trabajan con la media de la varianza son los más potentes cuando las
poblaciones que se comparan se distribuyen de forma normal.
• Utilizar la media truncada mejora el test cuando los datos siguen una distribución de
Cauchy (colas grandes).
• La mediana consigue mejorarlo cuando los datos siguen una distribución asimétrica.
Por lo general, si no se puede alcanzar cierta seguridad de que las poblaciones que se comparan
son de tipo normal, es recomendable recurrir a test que comparen la mediana de la varianza.
El F-test, también conocido como contraste de la razón de varianzas, contrasta la hipótesis nula de
que dos poblaciones normales tienen la misma varianza. Es muy potente, detecta diferencias muy
sutiles, pero es muy sensible a violaciones de la normalidad de las poblaciones. Por esta razón, no
es un test recomendable si no se tiene mucha certeza de que las poblaciones se distribuyen de
forma normal.
Ejemplo:
Existe alguna diferencia en la variación de los resultados obtenidos del examen en los siguientes
grupos:
Puntaje Grupo 1 Puntaje Grupo 2
66 86
80 87
60 91
72 92
80 82
93 79
81 87
82 80
86 92
76 78
92 86
89 84
79 88
65 94
85 98
65 85
94 85
HIPÓTESIS
Conclusión
Como mi mayor F calculado es mayor al valor critico; entonces rechazo la Ho y acepto la H1,
entonces si existe diferencia en la variación de los resultados obtenidos del examen en los dos
grupos.
PRUEBA LEVENE
La prueba levene para la igualdad de varianzas nos indica si podemos o no suponer varianzas
iguales. Así si la probabilidad asociada al estadístico levene es mayor a 0,05 suponemos varianzas
iguales, en caso contrario que sea menor a 0,05 suponemos varianzas distintas.
Proceso de aplicación
Esta prueba se aplica solamente entre grupos con la misma cantidad de muestras
Ejemplo:
Hipótesis
A B C D
8 5 9 6
9 6 8 4
7 4 7 5
9 5 7 4
8 5 9 5
A Promedio Diferencia B Promedio Diferencia
8 8,2 0,2 5 5 0
9 8,2 0,8 6 5 1
7 8,2 1,2 4 5 1
9 8,2 0,8 5 5 0
8 8,2 0,2 5 5 0
RESUMEN
Grupos Cuenta Suma Promedio Varianza
A 5 3,2 0,64 0,188
B 5 2 0,4 0,3
C 5 4 0,8 0,2
D 5 3,2 0,64 0,188
ANÁLISIS DE VARIANZA
FV SC GL MC F Probabilidad F CRITICO
Entre grupos 0,408 3 0,136 0,62100457 0,61157333 3,23887152
Dentro de los grupos3,504 16 0,219
Total 3,912 19
• Dado que el p valor es mayor que el nivel de significancia (0,612>0,05) se acepta la
hipótesis nula lo que significa que existe igualdad de varianzas.
A B C D
8 5 9 6
9 6 8 4
7 4 7 5
9 5 7 4
8 5 9 5
Hipótesis
= µ = µ𝐵= µ𝐶= µ𝐷
1= µ ≠ µ𝐵≠ µ𝐶≠ µ𝐷
GRUPO A GRUPO B
Grados de libertad
Intragrupos ∑𝑘=1(𝑛𝑖 − ) (5 − ) + (5 − ) + (5 − ) + (5 − ) 6
𝑆𝐶 𝑛𝑡𝑒𝑟
𝑀𝐶 𝑛𝑡𝑒𝑟=
𝐺𝐿 𝑛𝑡𝑒𝑟
𝑀𝐶 𝑛𝑡𝑒𝑟= 0,408/3
𝑀𝐶 𝑛𝑡𝑒𝑟= 0, 4
𝑆𝐶 𝑛𝑡𝑒𝑟
𝑀𝐶 𝑛𝑡𝑒𝑟=
𝐺𝐿 𝑛𝑡𝑒𝑟
𝑀𝐶 𝑛𝑡𝑒𝑟= 0,504/ 6
𝑀𝐶 𝑛𝑡𝑒𝑟= 0,
Calcular F
𝑀𝐶 𝑛𝑡𝑒𝑟
𝐹
𝑀𝐶 𝑛𝑡𝑒𝑟
0, 36
𝐹
0, 9
𝐹 0,6
Se puede observar que el valor de F es mayor que 0.5 podemos decir que se acepta la hipótesis
nula por lo tanto quiere decir que las varianzas son iguales.
PRUEBA DE BARTLETT
La prueba de Bartlett es exacta solo para datos distribuidos normalmente. Cualquier desviación de
la normalidad puede hacer que estas pruebas produzcan resultados inexactos. Sin embargo, si los
datos se ajustan a la distribución normal, entonces la prueba F y la prueba de Bartlett normalmente
son más potentes que el método de comparaciones múltiples o el método de Levene.
• Proceso de aplicación
• Establecer la hipótesis
• Nivel de significación
• Cálculo del estadístico de prueba
• Determinación de la zona de rechazo
• Cálculo del estadígrafo
• Decisión
• Interpretación
Ejemplo
V1 V2 V3 V4 V5
rj 4 3 2 3 4
vj 3 2 1 2 3
2𝑗 22825 6258.3 612.5 14433.3 5316.7
𝑈 ∑ 𝑣𝑗 3+ + + +3
𝑗=1
𝑡
∑ /𝑣𝑗 /3 + / + / + / + /3 8/3
𝑗=1
∑ 𝑣𝑗𝑙𝑛(𝑆 2𝑗 3 ln( 8 5) + 𝑙𝑛6 58.3) + ln(6 .5) + ln( 4433.3) + 3 ln(53 6.7)
𝑗=1
98.9
𝐶 + (∑ − /𝑣)
3𝑡 − 𝑣𝑗
𝑗=1
8
𝐶 + ( − ) .6
(3 ∗ 5) − 3
𝑥2 [ 𝑣𝑙𝑛(𝐶𝑀𝐸) − ∑ 𝑣𝑗𝑙𝑛( 2
)]
𝐶
𝑗=1
𝑥 2 (𝛼,𝑇 2
1)= 𝑥 ( . 5,4)=9.488
Como 𝑥 2 .45 < 9.488 no se rechaza H0, es decir hay evidencia estadística para suponer que
los errores presentan varianza constante.
Para validar el supuesto de homogeneidad del error puro se realiza de manera gráfica un diagrama
de dispersión entre los residuales (eje Y) y las respuestas estimadas . Si se observa algún patrón
indica que posiblemente no se cumple el supuesto de homogeneidad del error puro. Para realizar
la prueba de manera formal se de plantear la hipótesis
Para ejecutar esta prueba se requiere que todas las observaciones en cada tengan el mismo
tamaño, es decir, .
Fué propuesta por Hartley (1940 - 1950). La prueba se basa en la estadística:
Si la hipótesis nula es cierta y los tamaños de las muestras son iguales n = n1 = n2 = · · · = nk, la
distribución muestral del estadístico Fmáx (asumiendo independencia de las muestras aleatorias
tomadas de las poblaciones normales) es FMÁX con k grados de libertad en el numerador y v =
n−1 grados de libertad en el denominador. En la tabla 1 se proporcionan los valores críticos de la
distribución FMÁX para α = 0.05
Si el diseño es desbalanceado, es decir, si los tamaños de muestras no son iguales, entonces hay
dos versiones sobre el cálculo de v:
1. Se puede obtener una prueba “liberal” (la probabilidad de error tipo I es mayor que α) haciendo
v = máx(ni)−1
2. Si los tamaños no son tan diferentes, una prueba conservativa puede hacerse usando
v=mín(ni)−1
Esta prueba es muy sensible a alejamientos del supuesto de normalidad y requiere que los tamaños
de muestras sean iguales; si los tamaños de muestras no son iguales, entonces la prueba ya no tiene
soporte teórico fuerte y no es aplicable. Esta prueba es una de las más fáciles de calcular, aunque
requiere el uso de tablas especiales. (Correa, Iral, & Rojas, Estudio de potencia de pruebas de
homogeneidad, 2006)
A: recientemente preparado
B: una hora en la oscuridad
C: una hora con luz tenue
D: una hora con luz fuerte
Para este ejemplo no se rechaza el supuesto de homogeneidad de varianzas para los datos de del
ejemplo de las condiciones de almacenamiento.
PRUEBA DE COCHRAN
La prueba introducida por Cochran (1941) era considerablemente de más fácil computo que las
otras pruebas en ese tiempo.
Cuando todas las muestras son de igual tamaño n = n1 = n2 = · · · = nk, la hipótesis acerca de la
igualdad de varianzas es rechazada si g > gα, n, k, donde el valor gα, n, k se obtiene de la tabla
de valores críticos para la prueba de Cochran en tablas especiales. Cuando el número de
observaciones en cada tratamiento no sea igual pero sea relativamente cercano, el mayor de los
ni puede usarse en lugar de n para determinar los grados de libertad requeridos en las tablas. La
prueba de Cochran es en particular ´útil para detectar si una varianza es mucho más grande que
las otras. (Correa, Estudio de potencia de pruebas de homogeneidad, 2006)
EJEMPLO
= µ𝑡1= µ𝑡2= µ𝑡3 Las terapias no muestran diferencia significativa en la relajación muscular de
los atletas
1 µ𝑡1≠ µ𝑡2≠ µ𝑡3 Las terapias muestran diferencia significativa en la relajación muscular de los
atletas
Al ser nuestro valor P=0.529 > al de nuestra significancia 0.5 pero no existe una diferencia
significativa se acepta la hipótesis nula y se concluye que no existe una diferencia entre las terapias
realizadas a los atletas.
EL SUPUESTO DE INDEPENDENCIA
El supuesto de independencia de las variables aleatorias error, se puede chequear gráficamente por
medio de un diagrama de dispersión entre los residuales (eje Y) y el orden en que se tomaron las
observaciones (si se tiene) (eje X). Para los datos del ejemplo, el gráfico se muestra en la figura 1.
No se observa un patrón característico, por lo tanto, parece indicar que los residuos se encuentran
independientes o aleatoriamente distribuidos.
PRUEBA DE DURBIN-WATSON
Para ejecutar esta prueba objetiva sobre la independencia de los errores se asume que las
observaciones y así los residuales tienen un orden natural tal como el tiempo o espacio. La prueba
de Durbin-Watson tiene como estadística de prueba
2. Aplique la regla de decisión comparando el valor de 𝒅 con los valores críticos dados en la
tabla 1. Esta regla depende del tipo de hipótesis a plantear así:
Para evitar los casos inconclusos, se hace una prueba modificada, aunque con ello se pierde
potencia.
Cuando se presenta correlación serial positiva o negativa se debería examinar el modelo y una
posible acción seria realizar estimación de mínimos cuadrados ponderados o generalizado
(colombia, 2021)
Ejemplo
Año yt xt
1986 295 273,4
1987 400 291,3
1988 90 306,9
1989 425 317,1
1990 547 336,1
1991 555 349,4
1992 620 362,9
1993 720 383,9
1994 880 402,8
1995 1050 437
1996 1290 472,2
1997 1528 510,4
1998 1586 544,5
1999 1960 588,1
2000 2118 630,4
2001 2116 685,9
2002 2477 742,8
2003 3199 801,3
2004 3702 903,1
2005 3310 983,6
EXCEL
Análisis de los residuales
DW 1,84660701
No rechazar la H0
Bibliografía
colombia, U. n. (04 de Enere de 2021). Universidad de colombia . Obtenido de Universidad de
colombia : http://red.unal.edu.co/cursos/ciencias/2007315/html/un2/cont_07_19.html
Estadística, 61-62.
Correa, J., Iral, R., & Rojas, L. (2006). Estudio de potencia de pruebas de homogeneidad. Revista
https://www.rpubs.com/F3rnando/507482
mx/minitab/19/help-and-how-to/statistics/basic-statistics/how-to/normality-test/interpret-
the-results/all-statistics-and-graphs/#rj