Está en la página 1de 4

ANÁLISIS DE VARIANZA (ANOVA)

El análisis de la varianza o abreviadamente ANOVA (del inglés analysis of variance) es un


procedimiento estadístico que permite dividir la variabilidad observada en componentes
independientes que pueden atribuirse a diferentes causas de interés. Es una técnica estadística
para comparar más de dos grupos, es decir un método para comparar más de dos tratamientos
y la variable de estudio o variable respuesta es numérica.

TÉCNICAS DE ANÁLISIS DE VARIANZA

Las primeras técnicas de análisis de varianza fueron desarrolladas por R.A. Fisher, un estadístico
y genetista. Es por ello que el análisis de Varianza (ANOVA) también se conoce como “Anova de
Fisher” o “análisis de varianza de Fisher”; esto también es debido al uso de la distribución F de
Fisher (una distribución de probabilidad) como parte del contraste de hipótesis. Surge de los
conceptos de regresión lineal. La regresión lineal, en estadística, es un modelo matemático que
se utiliza para aproximar la relación de dependencia entre una variable dependiente Y (por
ejemplo la ansiedad), las variables independientes Xi (por ejemplo diferentes tratamientos) y un
término aleatorio.

El análisis de varianza (ANOVA) sirve para determinar si diferentes tratamientos (por ejemplo,
mezclas con diferentes compuestos) muestran diferencias significativas, o si por el contrario,
puede establecerse que sus medias poblaciones no difieren (son prácticamente iguales, o su
diferencia no es significativa). Es decir, se utiliza la ANOVA para contrastar hipótesis acerca de
diferencias de medias (siempre más de dos). El ANOVA implica un análisis o descomposición de
la variabilidad total; ésta, a su vez, se puede atribuir principalmente a dos fuentes de variación:

1. Variabilidad intergrupo
2. Variabilidad intragrupo o error

TIPOS DE ANOVA

Existen dos tipos de análisis de varianza (ANOVA):

ANOVA I.- Cuando solo existe un criterio de clasificación (variable independiente; por
ejemplo, tipo de técnica terapéutica). A su vez, puede ser intergrupo (existen varios grupos
experimentales) e intragrupo (existe un único grupo experimental).
ANOVA II.- En este caso, hay más de un criterio de clasificación (variable independiente).
Igual que en el caso anterior, esta puede ser intergrupo e intragrupo.
CARACTERÍSTICAS

Cuando se aplica el análisis de varianza (ANOVA) en estudios experimentales, cada grupo consta
de un determinado número de sujetos, siendo posible que difieran los grupos en cuanto a este
número. Cuando el número de sujetos coincide, se habla de un modelo equilibrado o
balanceado. En estadística, para poder aplicar el análisis de varianza (ANOVA) deben cumplirse
una serie de supuestos:

1. Normalidad.- Esto quiere decir que las puntuaciones en la variable dependiente (por ejemplo
la ansiedad) deben seguir una distribución normal. Este supuesto se comprueba mediante las
llamadas pruebas de bondad de ajuste.

2. Independencia.- Implica que no exista autocorrelación entre las puntuaciones, es decir, la


existencia de independencia de las puntuaciones entre sí. Para asegurarnos del cumplimiento
de este supuesto, deberemos realizar un MAS (muestreo aleatorio simple) para seleccionar la
muestra que vamos a estudiar o sobre la que vamos a trabajar.

3. Homocedasticidad.- Este término significa “igualdad de varianzas de las subpoblaciones”. La


varianza es un estadístico de variabilidad y dispersión, y aumenta cuanto mayor sea la
variabilidad o dispersión de las puntuaciones.

El supuesto de homocedasticidad se comprueba mediante la Prueba de Levene o la de Barlett.


En caso de no cumplirlo, otra alternativa es realizar una transformación logarítmica de las
puntuaciones. Los supuestos anteriores deben cumplirse cuando se emplea el análisis de
varianza (ANOVA) intergrupo. Sin embargo, cuando se utiliza un ANOVA intragrupo, deben
cumplirse los supuestos anteriores y dos más:

1. Esfericidad.- Si no se cumple, indicaría que las diferentes fuentes de error correlacionan entre
sí. Una posible solución si eso pasa es realizar un MANOVA (Análisis Multivariado de la Varianza).

2. Aditividad.- Supone la no interacción sujeto x tratamiento; si se incumple engrosaría la


varianza error.
ANOVA DE UN FACTOR

El análisis de la varianza de un factor se utiliza para comparar el valor medio de una variable
dependiente cuantitativa en varios grupos, que se diferencian por los niveles del factor
considerado. Si denotamos por Y a la variable dependiente; al número de muestras o grupos
considerados (correspondientes cada uno a un nivel distinto del factor); a los tamaños de cada
una de las muestras; al tamaño muestral total; e al valor de la variable J y n1, n2, …,nj a los
tamaños de cada una de las muestras y n= nj el tamaño total muestral e Yij el valor de la
variable Y correspondiente a la observación i de la muestra j, la tabla siguiente resumiría los
datos disponibles:

La aplicación de la técnica ANOVA se basa en un contraste de hipótesis. La hipótesis nula que se


contrasta en el ANOVA de un factor es que las medias poblacionales son iguales entonces:

1. Plantear las hipótesis

𝐻0: 𝜇1 = 𝜇2 = . . . = 𝜇𝑘 = 𝜇

𝐻a: 𝜇𝑖 ≠ 𝜇𝑗 para algún 𝑖 ≠ j

2. Establecer el nivel de significación


3. Para contrastar dicha hipótesis, introducimos los conceptos de media cuadrática
intergrupos (CME) y de media cuadrática intra-grupos (CMD), que vienen dados,
respectivamente, por las expresiones:

∑ 𝑛𝑗 (𝑌̅𝑗 −𝑌̅)2 ∑ ∑(𝑌̅𝑖𝑗 −𝑌̅𝑗 )2


𝐶𝑀𝐸 = 𝐶𝑀𝐷 =
𝑗−1 𝑛−𝑗

Los numeradores de cada una de estas medias cuadráticas se conocen como suma de cuadrados
entre grupos, SCE , y como suma de cuadrados dentro de grupos, SCD . Por su parte, los
denominadores son los llamados grados de libertad asociados a dichas sumas j-1 y n- j,
respectivamente. El estadístico de prueba que utiliza ANOVA para contrastar la hipótesis nula
planteada se construye a partir de los conceptos anteriores; concretamente, viene dado por:

2
∑ 𝑛𝑗 (𝑌̅𝑗 − 𝑌̅)
𝐶𝑀𝐸 𝑗−1
𝐹𝑐 = = 2
𝐶𝑀𝐷 ∑ ∑(𝑌̅𝑖𝑗 − 𝑌̅𝑗 )
𝑛−𝑗

4. Región critica

RA
RR

𝐹1−𝛼,(𝑗−1,𝑛−𝑗)𝑔𝑙

5. Conclusión
Si el FC le pertenece a la región de rechazo se rechaza la H0 caso contrario se acepta

Ejemplo:

Consideremos cuatro compañías dedicadas al rubro de la construcción A, B, C y D, cuyas


acciones cotizan en la Bolsa de valores y seleccionamos aleatoriamente las cotizaciones de esas
acciones en diferentes instantes de tiempo. Así, para la compañía A se observa aleatoriamente
la cotización en 5 instantes de tiempo, en la B se observa en 4 instantes, en la C en 6 y, por
último, en la compañía D se observa la cotización de las acciones en 5 instantes de tiempo, la
siguiente tabla muestra la cotización en soles de las diferentes acciones en los instantes de
tiempo seleccionados:

COMPAÑIA OBSERVACIONES
A 670 840 780 610 900
B 600 800 690 650
C 800 810 730 690 750 720
D 970 840 930 790 920

Suponiendo que se verifican las hipótesis de normalidad, aleatoriedad, independencia y


homogeneidad de varianzas, se desea contrastar al nivel de significación del 1% si la cotización
media de las acciones de cada una de las cuatro compañías se pueden considerar iguales.

También podría gustarte