Está en la página 1de 28

ESCUELA SUPERIOR

POLITÉCNICA DE CHIMBORAZO

FACULTAD DE INGENIERÍA MECÁNICA


CARRERA DE INGENIERÍA INDUSTRIAL

DISEÑO EXPERIMENTAL
CONSULTA

GRUPO: 2
Integrantes:
Calderón Alejandro
Bonilla Daniel
Andrade Erick
Aulla Eduardo
Caiza Cristian

FECHA: 2 021-01-03

PERIODO ACADÉMICO ESPECIAL


OCTUBRE 2020 - MARZO 2021
PRUEBA DE NORMALIDAD (MINITAB)

En minitab elija Estadísticas > Estadísticas básicas > Prueba de normalidad. Los resultados de la
prueba indican si usted debe rechazar o no puede rechazar la hipótesis nula de que los datos
provienen de una población distribuida normalmente. Puede realizar una prueba de normalidad y
producir una gráfica de probabilidad normal en el mismo análisis. La prueba de normalidad y la
gráfica de probabilidad suelen ser las mejores herramientas para evaluar la normalidad.

PRUEBA DE NORMALIDAD DE RYAN-JOINER (SIMILAR A SHAPIRO-WILK)

Esta prueba evalúa la normalidad calculando la correlación entre los datos y las puntuaciones
normales de los datos. Si el coeficiente de correlación se encuentra cerca de 1, es probable que la
población sea normal. El estadístico de Ryan-Joiner evalúa la fuerza de esta correlación; si se
encuentra por debajo del valor crítico apropiado, usted rechazará la hipótesis nula de normalidad
de la población. Esta prueba es similar a la prueba de normalidad de Shapiro-Wilk. (Minitab, 2019)

• RJ

El estadístico de Ryan-Joiner mide qué tan bien siguen los datos una distribución normal al calcular
la correlación entre los datos y las puntuaciones normales de los datos. Si el coeficiente de
correlación está cerca de 1, es probable que la población sea normal. Esta prueba es similar a la
prueba de normalidad de Shapiro-Wilk. (Minitab, 2019)

Interpretación

Minitab utiliza el estadístico de Ryan-Joiner para calcular el valor p. El valor p es la probabilidad


de obtener un estadístico de prueba (como por ejemplo el estadístico de Ryan-Joiner) que es por
lo menor tan extremo como el valor que se calcula a partir de la muestra, cuando los datos son
normales. Valores más grandes del estadístico de Ryan-Joiner indican que los datos no siguen la
distribución normal. (Minitab, 2019)

• Valor p

El valor p es una probabilidad que mide la evidencia en contra de la hipótesis nula. Un valor p más
pequeño proporciona una evidencia más fuerte en contra de la hipótesis nula.
Interpretación

Utilice el valor p para determinar si los datos no siguen una distribución normal.

Para determinar si los datos no siguen una distribución normal, compare el valor p con el nivel de
significancia. Por lo general, un nivel de significancia (denotado como α o alfa) de 0.05 funciona
adecuadamente. Un nivel de significancia de 0.05 indica un riesgo de 5% de concluir que los datos
no siguen una distribución normal, cuando los datos sí siguen una distribución normal. (Minitab,
2019)

Valor p ≤ α: Los datos no siguen una distribución normal (Rechaza H0)

Si el valor p es menor que o igual al nivel de significancia, la decisión es rechazar la hipótesis nula
y concluir que sus datos no siguen una distribución normal.

Valor p > α: Usted no puede concluir que los datos no siguen una distribución normal (No
puede rechazar H0)

Si el valor p es mayor que el nivel de significancia, la decisión es que no se puede rechazar la


hipótesis nula. Usted no tiene suficiente evidencia para concluir que los datos no siguen una
distribución normal. (Minitab, 2019)

EJEMPLO (Minitab):

Grupo.A (15, 12, 11, 18, 15, 15, 9, 19, 14, 13, 11, 12, 18, 15, 16, 14, 16, 17, 15, 17, 13, 14, 13,
15, 17, 19, 17, 18, 16, 14)

Grupo.B (11, 16, 14, 18, 6, 8, 9, 14, 12, 12, 10, 15, 12, 9, 13, 16, 17, 12, 8, 7, 15, 5, 14, 13, 13,
12, 11, 13, 11, 7)

H0: La distribución es normal

H1: La distribución no es normal


Dado a que los valores del valor p tanto del grupo A como del B son mayores al nivel de
significancia (0,5), entonces aceptamos la hipótesis nula lo que quiere decir que los datos están
distribuidos normalmente.
PRUEBA DE SHAPIRO-WILKS

La prueba de normalidad de Shapiro-Wilk se usa para contrastar la normalidad de un conjunto de


datos, es aplicable cuando se analizan muestras compuestas por menos de 50 elementos (muestras
pequeñas).

El test de Shapiro-Wilks plantea la hipótesis nula que una muestra proviene de una distribución
normal. Elegimos un nivel de significancia, por ejemplo (0,05), y tenemos una hipótesis alternativa
que sostiene que la distribución no es normal. (Guachalla, 2019)

Tenemos:

H0: La distribución es normal

H1: La distribución no es normal

o más formalmente aún:

H0:X∼N (μ, σ2)

H1:X≁N (μ, σ2)

Toma de decisión:
Sig(p valor) > alfa: No rechazar H0 (normal).
Sig(p valor) < alfa: Rechazar H0 (no normal)

EJEMPLO: (Test de Shapiro Wilks en R)

Grupo.A = c(15, 12, 11, 18, 15, 15, 9, 19, 14, 13, 11, 12, 18, 15, 16, 14, 16, 17, 15, 17, 13, 14, 13,
15, 17, 19, 17, 18, 16, 14)

shapiro.test(Grupo.A)
Grupo.B = c(11, 16, 14, 18, 6, 8, 9, 14, 12, 12, 10, 15, 12, 9, 13, 16, 17, 12, 8, 7, 15, 5, 14, 13, 13,
12, 11, 13, 11, 7)

shapiro.test(Grupo.B)

Vemos que en ambos casos el valor de probabilidad (p) es superior a nuestro nivel elegido (0,05),
por lo que no rechazamos la hipótesis nula, entonces los datos del grupo A y B están distribuidos
normalmente.

PRUEBA DE KOLMOGOROV – SMIRNOFF

La prueba de Kolmogorov–Smirnoff (K-S) es un contraste no paramétrico que tiene como objetivo


determinar si la frecuencia de dos conjuntos de datos distintos siguen la misma distribución
alrededor de su media.

En otras palabras, la prueba Kolmogorov–Smirnoff (K-S) es un test que se adapta a la forma de


los datos y se utiliza para comprobar si dos muestras distintas siguen la misma distribución.

El objetivo de esta prueba de bondad y ajuste es señalar y determinar si los datos estudiados o
mediciones muestrales provienen de una población que tienen una distribución teórica
determinada.
Hipótesis

El primer paso será comprobar si ambas muestras tienen la misma distribución. Para ello
realizamos un contraste de hipótesis suponiendo que ambas muestras tienen la misma distribución
contra la hipótesis alternativa de que son distintas.

Estadístico

Trabajamos con las funciones de distribución acumuladas de dos muestras, F1(x) y F2(x):

Valor crítico

Para muestras grandes existe la aproximación al valor crítico para K-S que depende del nivel de
significación (%):

Fórmula valor crítico K – S.

Donde n1 y n2 son el tamaño de la muestra para la muestra de F1(x) y F2(x) respectivamente.

Algunos valores críticos calculados:


Valores críticos K – S.

Regla de rechazo

Ejemplo:

Se ha realizado una muestra a 178 municipios al respecto del porcentaje de población activa
dedicada a la venta de ordenadores resultando los siguientes valores

Variable menos del 5%entre el 5 y 10entre


% el 10 y 15entre
% el 15 y 20 %entre el 20 y 25 %entre el 25 y 30entre
% el 30 y 35entre
% el 35 y 40entre
% el 40 y 45 %mas del 45 % Total
no.i 18 14 13 16 18 17 19 24 21 18 178

Queremos contrastar que el porcentaje de municipios para cada grupo establecido se distribuye
uniformemente con un nivel de significación del 5%.

Bajo la hipótesis nula cada grupo debería estar compuesto por el 10% de la población dado que
existen diez grupos.
f observada f esperada f observada f observ relativa max
Variable no.i Fo(x i) nt.i =n P(x i) Fo(Xi) D= max/Ft(Xi) - F1(Xi)/
menos del 5% 18 0,101 17,8 0,1 0,0011
entre el 5 y 10 % 14 0,180 17,8 0,2 0,0202
entre el 10 y 15 % 13 0,253 17,8 0,3 0,0472
entre el 15 y 20 % 16 0,343 17,8 0,4 0,0573
entre el 20 y 25 % 18 0,444 17,8 0,5 0,0562
entre el 25 y 30 % 17 0,539 17,8 0,6 0,0607
entre el 30 y 35 % 19 0,646 17,8 0,7 0,0539
entre el 35 y 40 % 24 0,781 17,8 0,8 0,0191
entre el 40 y 45 % 21 0,899 17,8 0,9 0,0011
mas del 45 % 18 1 17,8 1 0,0000
Total 178

Siendo la máxima diferencia 0,0607 y por lo tanto el estadístico de kolmogorov que compararemos
con el establecido en la tabla que será para un nivel de significación del 5% y una muestra de 178,
esto es el estadístico de prueba.

Dado que el estadístico es menor (0,0607) que el valor de la tabla (1,1019) no rechazamos la
hipótesis de comportamiento uniforme de los grupos establecidos al respecto de la población activa
para la venta de ordenadores.

SUPUESTO DE HOMOGENEIDAD DE VARIANZAS

El supuesto de homogeneidad de varianzas, también conocido como supuesto de


homocedasticidad, considera que la varianza es constante (no varía) en los diferentes niveles de
un factor, es decir, entre diferentes grupos.

A la hora de realizar contrastes de hipótesis o intervalos de confianza, cuando los tamaños de cada
grupo son muy distintos ocurre que:
• Si los grupos con tamaños muestrales pequeños son los que tienen mayor varianza, la
probabilidad real de cometer un error de tipo I en los contrastes de hipótesis será menor de
lo que se obtiene al hacer el test. En los intervalos, los límites superior e inferior reales son
menores que los que se obtienen. La inferencia será por lo general más conservadora.

• Si por el contrario, son los grupos con tamaños muestrales grandes los que tienen mayor
varianza, entonces se tendrá el efecto contrario y las pruebas serán más liberales. Es decir,
la probabilidad real de cometer un error de tipo I es mayor que la devuelta por el test y los
intervalos de confianza verdaderos serán más amplios que los calculados.

Existen diferentes test que permiten evaluar la distribución de la varianza. Todos ellos consideran
como hipótesis nula que la varianza es igual entre los grupos y como hipótesis alternativa que no
lo es. La diferencia entre ellos es el estadístico de centralidad que utilizan:

• Los test que trabajan con la media de la varianza son los más potentes cuando las
poblaciones que se comparan se distribuyen de forma normal.

• Utilizar la media truncada mejora el test cuando los datos siguen una distribución de
Cauchy (colas grandes).

• La mediana consigue mejorarlo cuando los datos siguen una distribución asimétrica.

Por lo general, si no se puede alcanzar cierta seguridad de que las poblaciones que se comparan
son de tipo normal, es recomendable recurrir a test que comparen la mediana de la varianza.

F-test (razón de varianzas)

El F-test, también conocido como contraste de la razón de varianzas, contrasta la hipótesis nula de
que dos poblaciones normales tienen la misma varianza. Es muy potente, detecta diferencias muy
sutiles, pero es muy sensible a violaciones de la normalidad de las poblaciones. Por esta razón, no
es un test recomendable si no se tiene mucha certeza de que las poblaciones se distribuyen de
forma normal.

Ejemplo:

Existe alguna diferencia en la variación de los resultados obtenidos del examen en los siguientes
grupos:
Puntaje Grupo 1 Puntaje Grupo 2
66 86
80 87
60 91
72 92
80 82
93 79
81 87
82 80
86 92
76 78
92 86
89 84
79 88
65 94
85 98
65 85
94 85

HIPÓTESIS

Prueba F para varianzas de dos muestras

Puntaje Grupo 1 Puntaje Grupo 2


Media 79,11764706 86,70588235
Varianza 110,6102941 29,59558824
Observaciones 17 17
Grados de libertad 16 16
F 3,737391304
P(F<=f) una cola 0,006010986
Valor crítico para F (una 2,333483627
cola)

Conclusión

Como mi mayor F calculado es mayor al valor critico; entonces rechazo la Ho y acepto la H1,
entonces si existe diferencia en la variación de los resultados obtenidos del examen en los dos
grupos.
PRUEBA LEVENE

La prueba levene para la igualdad de varianzas nos indica si podemos o no suponer varianzas
iguales. Así si la probabilidad asociada al estadístico levene es mayor a 0,05 suponemos varianzas
iguales, en caso contrario que sea menor a 0,05 suponemos varianzas distintas.

Proceso de aplicación

• calcular la diferencia entre cada valor y la media de su grupo.


• Calcular la media de las diferencias de cada grupo.
• Calcular la media total de las diferencias.
• Calcular la suma de cuadrados intragupos.
• Calcular la suma de intergrupos.
• Calcular los grados de libertad.
• Calcular la media cuadrática intergrupos.
• Calcular la media cuadrática intragrupos.
• Calcular el estadístico de prueba

Esta prueba se aplica solamente entre grupos con la misma cantidad de muestras

Ejemplo:

Hipótesis

= µ = µ𝐵= µ𝐶= µ𝐷 : Existe Igualdad de varianzas

1= µ ≠ µ𝐵≠ µ𝐶≠ µ𝐷 : No existe igualdad de varianzas

A B C D
8 5 9 6
9 6 8 4
7 4 7 5
9 5 7 4
8 5 9 5
A Promedio Diferencia B Promedio Diferencia
8 8,2 0,2 5 5 0
9 8,2 0,8 6 5 1
7 8,2 1,2 4 5 1
9 8,2 0,8 5 5 0
8 8,2 0,2 5 5 0

C Promedio Diferencia D Promedio Diferencia


9 8 1 6 4,8 1,2
8 8 0 4 4,8 0,8
7 8 1 5 4,8 0,2
7 8 1 4 4,8 0,8
9 8 1 5 4,8 0,2

TABLA DE RESIDUOS ABSOLUTOS


A B C D
0,2 0 1 1,2
0,8 1 0 0,8
1,2 1 1 0,2
0,8 0 1 0,8
0,2 0 1 0,2

Análisis de Varianza de un factor

RESUMEN
Grupos Cuenta Suma Promedio Varianza
A 5 3,2 0,64 0,188
B 5 2 0,4 0,3
C 5 4 0,8 0,2
D 5 3,2 0,64 0,188

ANÁLISIS DE VARIANZA
FV SC GL MC F Probabilidad F CRITICO
Entre grupos 0,408 3 0,136 0,62100457 0,61157333 3,23887152
Dentro de los grupos3,504 16 0,219

Total 3,912 19
• Dado que el p valor es mayor que el nivel de significancia (0,612>0,05) se acepta la
hipótesis nula lo que significa que existe igualdad de varianzas.

A B C D
8 5 9 6
9 6 8 4
7 4 7 5
9 5 7 4
8 5 9 5

Hipótesis

= µ = µ𝐵= µ𝐶= µ𝐷

1= µ ≠ µ𝐵≠ µ𝐶≠ µ𝐷

GRUPO A GRUPO B

8 0.2 0.1936 5 0 0,16


9 0.8 0.0256 6 1 0,36
7 1.2 0.3136 4 1 0,36
9 0.8 0.0256 5 0 0.16
8 0.2 0.1936 5 0 0.16
8.2 0.64 0,7520 5 0.4 1.2
GRUPO C GRUPO D

9 1 0.64 6 1.2 0.3136


8 0 0.64 4 0.8 0.0256
7 1 0.64 5 0.2 0.1936
7 1 0.64 4 0.8 0.0256
9 1 0.044 5 0.2 0.1936
8 0.8 0.8 4.8 0.64 0.752

Grados de libertad

Intergrupos: k-1= 4-1=3

Intragrupos ∑𝑘=1(𝑛𝑖 − ) (5 − ) + (5 − ) + (5 − ) + (5 − ) 6

Cuadrática inter grupos

𝑆𝐶 𝑛𝑡𝑒𝑟
𝑀𝐶 𝑛𝑡𝑒𝑟=
𝐺𝐿 𝑛𝑡𝑒𝑟

𝑀𝐶 𝑛𝑡𝑒𝑟= 0,408/3
𝑀𝐶 𝑛𝑡𝑒𝑟= 0, 4

Media cuadrática intragrupos

𝑆𝐶 𝑛𝑡𝑒𝑟
𝑀𝐶 𝑛𝑡𝑒𝑟=
𝐺𝐿 𝑛𝑡𝑒𝑟

𝑀𝐶 𝑛𝑡𝑒𝑟= 0,504/ 6
𝑀𝐶 𝑛𝑡𝑒𝑟= 0,

Calcular F

𝑀𝐶 𝑛𝑡𝑒𝑟
𝐹
𝑀𝐶 𝑛𝑡𝑒𝑟

0, 36
𝐹
0, 9

𝐹 0,6
Se puede observar que el valor de F es mayor que 0.5 podemos decir que se acepta la hipótesis
nula por lo tanto quiere decir que las varianzas son iguales.

PRUEBA DE BARTLETT

La prueba de Bartlett es exacta solo para datos distribuidos normalmente. Cualquier desviación de
la normalidad puede hacer que estas pruebas produzcan resultados inexactos. Sin embargo, si los
datos se ajustan a la distribución normal, entonces la prueba F y la prueba de Bartlett normalmente
son más potentes que el método de comparaciones múltiples o el método de Levene.

• Proceso de aplicación
• Establecer la hipótesis
• Nivel de significación
• Cálculo del estadístico de prueba
• Determinación de la zona de rechazo
• Cálculo del estadígrafo
• Decisión
• Interpretación

Ejemplo

Del ejercicio sobre variedades de lenteja, realice la prueba de Bartlett

V1 V2 V3 V4 V5
rj 4 3 2 3 4
vj 3 2 1 2 3
2𝑗 22825 6258.3 612.5 14433.3 5316.7

= 𝑉1= 𝑉2= 𝑉3= 𝑉4= 𝑉5

1= 𝑉1≠ 𝑉2≠ 𝑉3≠ 𝑉4≠ 𝑉5

𝑈 ∑ 𝑣𝑗 3+ + + +3
𝑗=1
𝑡

∑ /𝑣𝑗 /3 + / + / + / + /3 8/3
𝑗=1

∑ 𝑣𝑗𝑙𝑛(𝑆 2𝑗 3 ln( 8 5) + 𝑙𝑛6 58.3) + ln(6 .5) + ln( 4433.3) + 3 ln(53 6.7)
𝑗=1

98.9

𝐶 + (∑ − /𝑣)
3𝑡 − 𝑣𝑗
𝑗=1

8
𝐶 + ( − ) .6
(3 ∗ 5) − 3

𝑥2 [ 𝑣𝑙𝑛(𝐶𝑀𝐸) − ∑ 𝑣𝑗𝑙𝑛( 2
)]
𝐶
𝑗=1

𝑥2 [ 𝑙𝑛( 49 .8 ) − 98.9] .45


.6

𝑥 2 (𝛼,𝑇 2
1)= 𝑥 ( . 5,4)=9.488

Como 𝑥 2 .45 < 9.488 no se rechaza H0, es decir hay evidencia estadística para suponer que
los errores presentan varianza constante.

PRUEBA F-MAX DE HARTLEY

Para validar el supuesto de homogeneidad del error puro se realiza de manera gráfica un diagrama
de dispersión entre los residuales (eje Y) y las respuestas estimadas . Si se observa algún patrón
indica que posiblemente no se cumple el supuesto de homogeneidad del error puro. Para realizar
la prueba de manera formal se de plantear la hipótesis
Para ejecutar esta prueba se requiere que todas las observaciones en cada tengan el mismo
tamaño, es decir, .
Fué propuesta por Hartley (1940 - 1950). La prueba se basa en la estadística:

Si la hipótesis nula es cierta y los tamaños de las muestras son iguales n = n1 = n2 = · · · = nk, la
distribución muestral del estadístico Fmáx (asumiendo independencia de las muestras aleatorias
tomadas de las poblaciones normales) es FMÁX con k grados de libertad en el numerador y v =
n−1 grados de libertad en el denominador. En la tabla 1 se proporcionan los valores críticos de la
distribución FMÁX para α = 0.05

Si el diseño es desbalanceado, es decir, si los tamaños de muestras no son iguales, entonces hay
dos versiones sobre el cálculo de v:

1. Se puede obtener una prueba “liberal” (la probabilidad de error tipo I es mayor que α) haciendo
v = máx(ni)−1

2. Si los tamaños no son tan diferentes, una prueba conservativa puede hacerse usando
v=mín(ni)−1
Esta prueba es muy sensible a alejamientos del supuesto de normalidad y requiere que los tamaños
de muestras sean iguales; si los tamaños de muestras no son iguales, entonces la prueba ya no tiene
soporte teórico fuerte y no es aplicable. Esta prueba es una de las más fáciles de calcular, aunque
requiere el uso de tablas especiales. (Correa, Iral, & Rojas, Estudio de potencia de pruebas de
homogeneidad, 2006)

EJEMPLO: Se realiza un estudio para evaluar la estabilidad de un reactivo en diferentes


condiciones de almacenamiento:

A: recientemente preparado
B: una hora en la oscuridad
C: una hora con luz tenue
D: una hora con luz fuerte

Para este ejemplo no se rechaza el supuesto de homogeneidad de varianzas para los datos de del
ejemplo de las condiciones de almacenamiento.
PRUEBA DE COCHRAN

La prueba introducida por Cochran (1941) era considerablemente de más fácil computo que las
otras pruebas en ese tiempo.

El estadístico de prueba es:

Cuando todas las muestras son de igual tamaño n = n1 = n2 = · · · = nk, la hipótesis acerca de la
igualdad de varianzas es rechazada si g > gα, n, k, donde el valor gα, n, k se obtiene de la tabla
de valores críticos para la prueba de Cochran en tablas especiales. Cuando el número de
observaciones en cada tratamiento no sea igual pero sea relativamente cercano, el mayor de los
ni puede usarse en lugar de n para determinar los grados de libertad requeridos en las tablas. La
prueba de Cochran es en particular ´útil para detectar si una varianza es mucho más grande que
las otras. (Correa, Estudio de potencia de pruebas de homogeneidad, 2006)

EJEMPLO

Se probaron 3 tipos de terapia de relajación muscular a atletas de alto rendimiento. Al final de


cada terapia se les preguntó si percibían relajación muscular. Las respuestas eran para el sí una
codificación de 1 y para el no una codificación de 0. Se muestra la tabla de resultados
Atleta teapia_1 terapia_2 terapia_3
1 0 0 1
2 0 1 0
3 0 1 1
4 1 0 1
5 0 1 1
6 0 1 0
7 1 1 1
8 0 0 1
9 1 0 0
10 1 1 1
11 1 0 0
12 0 1 0
13 0 0 1
14 1 1 1
Hipótesis

= µ𝑡1= µ𝑡2= µ𝑡3 Las terapias no muestran diferencia significativa en la relajación muscular de
los atletas

1 µ𝑡1≠ µ𝑡2≠ µ𝑡3 Las terapias muestran diferencia significativa en la relajación muscular de los
atletas

Al ser nuestro valor P=0.529 > al de nuestra significancia 0.5 pero no existe una diferencia
significativa se acepta la hipótesis nula y se concluye que no existe una diferencia entre las terapias
realizadas a los atletas.

EL SUPUESTO DE INDEPENDENCIA

El supuesto de independencia de las variables aleatorias error, se puede chequear gráficamente por
medio de un diagrama de dispersión entre los residuales (eje Y) y el orden en que se tomaron las
observaciones (si se tiene) (eje X). Para los datos del ejemplo, el gráfico se muestra en la figura 1.
No se observa un patrón característico, por lo tanto, parece indicar que los residuos se encuentran
independientes o aleatoriamente distribuidos.
PRUEBA DE DURBIN-WATSON

Para ejecutar esta prueba objetiva sobre la independencia de los errores se asume que las
observaciones y así los residuales tienen un orden natural tal como el tiempo o espacio. La prueba
de Durbin-Watson tiene como estadística de prueba

Se puede demostrar que:

1. El valor de 𝒅 esta siempre en el intervalo 0 ≤ 𝒅 ≤ 4

2. Si los residuales son positivamente correlacionados, entonces 𝒅 será cercano a 0 y los


residuales tienden a ser parecidos.

3. Si los residuales son negativamente correlacionados, entonces 𝒅 será cercano a 4 y así 4 −


𝒅 será cercano a 0. Además, los residuales tienden a ser muy diferentes.

4. La distribución de 𝒅 es simétrica alrededor de 2.


¿CÓMO APLICAR LA PRUEBA?

1. Obtenga el valor 𝒅 calculado con los residuales.

2. Aplique la regla de decisión comparando el valor de 𝒅 con los valores críticos dados en la
tabla 1. Esta regla depende del tipo de hipótesis a plantear así:

Para evitar los casos inconclusos, se hace una prueba modificada, aunque con ello se pierde
potencia.

si el valor de n es un valor intermedio se debe interpolar


Prueba simplificada de una cola: 𝑯𝟏 𝒑 > 𝟎

Si 𝑑 < 𝑑𝑢 rechace H0 al nivel ∝ en otro caso no rechace H0

Prueba simplificada de una cola: : 𝑯𝟏 𝒑 < 𝟎

Si 4 − 𝑑 < 𝑑𝑢 rechace H0 al nivel ∝ en otro caso no rechace H0

Prueba simplificada de dos colas: 𝑯𝟏 𝒑 𝟎

Si 𝑑 < 𝑑𝑢 o 4 − 𝑑 < 𝑑𝑢 rechace H0 al nivel ∝ en otro caso no rechace H0

¿Qué acción tomar si existe correlación serial positiva o negativa?

Cuando se presenta correlación serial positiva o negativa se debería examinar el modelo y una
posible acción seria realizar estimación de mínimos cuadrados ponderados o generalizado
(colombia, 2021)

Ejemplo

Se plantea la siguiente tabla y aplicar el método de Prueba de Durbin-Watson

Año yt xt
1986 295 273,4
1987 400 291,3
1988 90 306,9
1989 425 317,1
1990 547 336,1
1991 555 349,4
1992 620 362,9
1993 720 383,9
1994 880 402,8
1995 1050 437
1996 1290 472,2
1997 1528 510,4
1998 1586 544,5
1999 1960 588,1
2000 2118 630,4
2001 2116 685,9
2002 2477 742,8
2003 3199 801,3
2004 3702 903,1
2005 3310 983,6

H0: No existe autocorrelacion serial

H1: Existe autocorrelacion serial


Conclusión

EXCEL
Análisis de los residuales

Observación Pronóstico Y Residuos et^2 et-1 (et-et-1)^2


1 222,292591 72,7074088 5286,3673
2 312,33326 87,6667398 7685,45726 72,7074088 223,781582
3 390,804458 -300,804458 90483,3219 87,6667398 150909,871
4 442,112549 -17,1125486 292,83932 -300,804458 80481,0994
5 537,686443 9,31355686 86,7423414 -17,1125486 698,33905
6 604,588169 -49,5881693 2458,98654 9,31355686 3469,41335
7 672,495936 -52,4959365 2755,82335 -49,5881693 8,45510991
8 778,130241 -58,130241 3379,12491 -52,4959365 31,745387
9 873,201115 6,798885 46,2248372 -58,130241 4215,7914
10 1045,23413 4,76587483 22,7135629 6,798885 4,13313032
11 1222,29734 67,7026597 4583,65013 4,76587483 3961,03889
12 1414,45117 113,54883 12893,3367 67,7026597 2101,8713
13 1585,98116 0,01883997 0,00035494 113,54883 12889,0586
14 1805,2981 154,701903 23932,6788 0,01883997 23926,85
15 2018,07577 99,9242326 9984,85226 154,701903 3000,59318
16 2297,25214 -181,252144 32852,3395 99,9242326 79060,1545
17 2583,47081 -106,470807 11336,0327 -181,252144 5592,24835
18 2877,7378 321,262202 103209,403 -106,470807 182955,527
19 3389,81266 312,187336 97460,9326 321,262202 82,3532021
20 3794,74416 -484,744165 234976,905 312,187336 635099,817
643727,732 1188712,14
Denominador Numerador

DW 1,84660701
No rechazar la H0

Bibliografía
colombia, U. n. (04 de Enere de 2021). Universidad de colombia . Obtenido de Universidad de

colombia : http://red.unal.edu.co/cursos/ciencias/2007315/html/un2/cont_07_19.html

Correa, J. (2006). Estudio de potencia de pruebas de homogeneidad. Revista Colombiana de

Estadística, 61-62.
Correa, J., Iral, R., & Rojas, L. (2006). Estudio de potencia de pruebas de homogeneidad. Revista

Colombiana de Estadística, 60-61.

Guachalla, L. F. (23 de 06 de 2019). Rpubs. Obtenido de Rpubs:

https://www.rpubs.com/F3rnando/507482

Minitab. (2019). Minitab. Obtenido de Minitab: https://support.minitab.com/es-

mx/minitab/19/help-and-how-to/statistics/basic-statistics/how-to/normality-test/interpret-

the-results/all-statistics-and-graphs/#rj

También podría gustarte