Está en la página 1de 10

ANÁLISIS

DE VARIANZAS
Universidad El Bosque
Estadística
Stalyn Guerrero
Juan Sebastian García Rojas
Lizeth Dayana Castaño Cetina
Se utiliza de forma intensiva en el análisis y diseño de experimentos para
evaluar el efecto de tratamientos en la variabilidad de la variable respuesta.

ANOVA permite comparar múltiples medias, pero lo hace mediante el estudio


de las varianzas.

El funcionamiento básico de un ANOVA consiste en calcular la media de cada


uno de los grupos para a continuación comparar la varianza de estas medias
(varianza explicada por la variable grupo, intervarianza) frente a la varianza
promedio dentro de los grupos (la no explicada por la variable grupo,
intravarianza).
Se puede usar un método de análisis de varianza para probar el
significado de la regresión.
Este análisis se basa en una partición de la variabilidad total de la variable
y de respuesta. Para obtener esta partición se comienza con la identidad.

Se elevan al cuadrado ambos lados de la ecuación y se suma para todas


las n observaciones. Así se obtiene
04Nótese que el tercer término del lado derecho de esta ecuación se puede
escribir de la siguiente forma:

la suma de los residuales siempre es igual a cero y la suma de los residuales


ponderados por el valor ajustado Yi estimado correspondiente también es
igual a cero. Por lo anterior
El lado izquierdo de la ecuación es la suma corregida de cuadrados de las
observaciones, SST' que mide la variabilidad total en las observaciones. Los
dos componentes de SST miden, respectivamente, la cantidad de
variabilidad en las observaciones Yi explicada por la línea de regresión, y la
variación residual que queda sin explicar por la línea de regresión. Se ve
que SSRes

es la suma de cuadrados de los residuales o la suma de cuadrados de error


de la ecuación

1a suma de cuadrados de regresión, o del modelo.


La ecuación es la identidad fundamental del análisis de varianza para un
modelo de regresión. En forma simbólica, se acostumbra escribir

Si se comparan las ecuaciones, se veque la suma de cuadrados de regresión


se puede calcular como sigue:
La cantidad de grados de libertad se determina como la suma total
de cuadrados, SST' tiene dft = n - 1 grados de

libertad, porque se perdió un grado de libertad como resultado de la


restricción para las desviaciones . La suma de

cuadrados del modelo, o de la regresión es SSR y tiene dfR = 1 grado


de libertad, porque SSR queda completamente determinado por un
parámetro, que es Beta 1. Por último, antes se dijo que SSR tiene
dfRes = n - 2 grados de libertad, porque se imponen dos
restricciones a las desviaciones Yi - Yi estimado como resultado de
estimar Bo y BI' Obsérvese que los grados de libertad tienen una
propiedad aditiva:
08
Se puede aplicar la prueba F normal del análisis de varianza para
probar la hipótesis Ho: B1 = 0. El SSRes = (n - 2)MSRes sigue una
distribución X~ 2, n-2.

Si es cierta la hipótesis nula Ho: B1 =0, entonces SSR tiene una


distribución X~ 2,n-2; y SSRes y SSR son independientes. De acuerdo
con la definición de una estadística F
Sigue la distribución F_i n- 2. Los valores esperados de estos
cuadrados medios son

Estos cuadrados medios esperados indican que si es grande el valor observado de Fo,
es probable que la pendiente B1 diferente a 0.

También se menciona que si B1 es diferente a 0, entonces Fo sigue una distribución F


no central, con 1 y n - 2 grados de libertad, y un parámetro de no centralidad Lamba:
Este parámetro de no centralidad también indica que el valor observado
de F_0 debe ser grande si B1 es diferente de 0.por consiguiente, para
probar la hipotesis H0: B1 = 0, se calcula el estadítico F_0 de prueba y se
rechaza H0 si:
F_0 > F_alfa, 1,n-2

También podría gustarte