Está en la página 1de 4

An�lisis de la varianza

Ir a la navegaci�nIr a la b�squeda
�ANOVA� redirige aqu�. Para la organizaci�n pol�tica nacionalista gallega, v�ase
Anova-Irmandade Nacionalista.
En estad�stica, el an�lisis de la varianza (ANOVA por sus sigloides en ingl�s,
ANalysis Of VAriance) es una colecci�n de modelos estad�sticos y sus procedimientos
asociados, en el cual la varianza est� particionada en ciertos componentes debidos
a diferentes variables explicativas.

Las t�cnicas iniciales del an�lisis de varianza fueron desarrolladas por el


estad�stico y genetista R. A. Fisher en los a�os 1920 y 1930 y es algunas veces
conocido como "Anova de Fisher" o "an�lisis de varianza de Fisher", debido al uso
de la distribuci�n F de Fisher como parte del contraste de hip�tesis.

�ndice
1 Introducci�n
1.1 Visi�n general
1.2 Supuestos previos
2 Tipos de modelo
2.1 Modelo I: Efectos fijos
2.2 Modelo II: Efectos aleatorios (componentes de varianza)
3 Grados de libertad
4 Pruebas de significaci�n
5 Tablas ANOVA
6 Referencia
6.1 Bibliograf�a
6.2 Enlaces externos
Introducci�n
El an�lisis de la varianza parte de los conceptos de regresi�n lineal. Un an�lisis
de la varianza permite determinar si diferentes tratamientos muestran diferencias
significativas o por el contrario puede suponerse que sus medias poblacionales no
difieren. El an�lisis de la varianza permite superar las limitaciones de hacer
contrastes bilaterales por parejas que son un mal m�todo para determinar si un
conjunto de variables con n > 2 difieren entre s�. El primer concepto fundamental
es asumir que todo valor observado puede expresarse mediante la siguiente funci�n:

{\displaystyle y_{ij}=\mu +\tau _{i}+\epsilon _{ij}} {\displaystyle y_{ij}=\mu


+\tau _{i}+\epsilon _{ij}}

Donde:

{\displaystyle y_{ij}} {\displaystyle y_{ij}} ser�a el valor observado (variable


dependiente) [valor j-�simo del tratamiento i-�simo], y {\displaystyle \tau _{i}}
{\displaystyle \tau _{i}} es el efecto del tratamiento i.
{\displaystyle \mu } \mu ser�a una constante que en la recta de regresi�n equivale
a la ordenada en el origen,
{\displaystyle \tau _{i}} {\displaystyle \tau _{i}} es una variable que var�a de
tratamiento a tratamiento.
{\displaystyle \epsilon _{ij}} {\displaystyle \epsilon _{ij}} es una variable
aleatoria que a�ade a la funci�n cierto error que desv�a la puntuaci�n observada de
la puntuaci�n pronosticada.
Por tanto, a la funci�n de pron�stico la podemos llamar "media del tratamiento i":

{\displaystyle y_{i}=\mu +\tau _{i}} {\displaystyle y_{i}=\mu +\tau _{i}}

Podemos resumir que las puntuaciones observadas equivalen a las puntuaciones


esperadas, m�s el error aleatorio ( {\displaystyle y_{ij}=y_{i}+e_{ij}}
{\displaystyle y_{ij}=y_{i}+e_{ij}}). A partir de esa idea, se puede operar:
Restamos a ambos lados de la ecuaci�n (para mantener la igualdad) la media de la
variable dependiente:
{\displaystyle y_{ij}-{\overline {y}}=y_{i}+e_{ij}-{\overline {y}}} {\displaystyle
y_{ij}-{\overline {y}}=y_{i}+e_{ij}-{\overline {y}}}

Operando se llega finalmente a que:


{\displaystyle \sum _{i}\sum _{j}(y_{ij}-{\overline {y}})^{2}=n\sum _{i}(y_{i}-
{\overline {y}})^{2}+\sum _{i}\sum _{j}(y_{ij}-y_{i})^{2}} {\displaystyle \sum
_{i}\sum _{j}(y_{ij}-{\overline {y}})^{2}=n\sum _{i}(y_{i}-{\overline
{y}})^{2}+\sum _{i}\sum _{j}(y_{ij}-y_{i})^{2}}

Esta ecuaci�n se reescribe frecuentemente como:

{\displaystyle SS_{total}=SS_{fact}+SS_{error}\,} {\displaystyle


SS_{total}=SS_{fact}+SS_{error}\,}

de un factor, que es el caso m�s sencillo, la idea b�sica del an�lisis de la


varianza es comparar la variaci�n total de un conjunto de muestras y descomponerla
como:

{\displaystyle SS_{total}=SS_{fact}+SS_{int}\,} {\displaystyle SS_{total}=SS_{fact}


+SS_{int}\,}

Donde:

{\displaystyle SS_{fact}\,} {\displaystyle SS_{fact}\,} es un n�mero real


relacionado con la varianza, que mide la variaci�n debida al "factor",
"tratamiento" o tipo de situaci�n estudiado.
{\displaystyle SS_{int}\,} {\displaystyle SS_{int}\,} es un n�mero real relacionado
con la varianza, que mide la variaci�n dentro de cada "factor", "tratamiento" o
tipo de situaci�n.
En el caso de que la diferencia debida al factor o tratamiento no sea
estad�sticamente significativa puede probarse que las varianzas muestrales son
iguales:

{\displaystyle {\hat {s}}_{fact}={\frac {SS_{fact}}{a-1}},\qquad {\hat


{s}}_{int}={\frac {SS_{int}}{a(b-1)}}} {\displaystyle {\hat {s}}_{fact}={\frac
{SS_{fact}}{a-1}},\qquad {\hat {s}}_{int}={\frac {SS_{int}}{a(b-1)}}}

Donde:

{\displaystyle a\,} a\, es el n�mero de situaciones diferentes o valores del factor


se est�n comparando.
{\displaystyle b\,} b\, es el n�mero de mediciones en cada situaci�n se hacen o
n�mero de valores disponibles para cada valor del factor.
As� lo que un simple test a partir de la F de Snedecor puede decidir si el factor o
tratamiento es estad�sticamente significativo.

Visi�n general
Existen tres clases conceptuales de estos modelos:

El Modelo de efectos fijos asume que los datos provienen de poblaciones normales
las cuales podr�an diferir �nicamente en sus medias. (Modelo 1)
El Modelo de efectos aleatorios asume que los datos describen una jerarqu�a de
diferentes poblaciones cuyas diferencias quedan restringidas por la jerarqu�a.
Ejemplo: El experimentador ha aprendido y ha considerado en el experimento s�lo
tres de muchos m�s m�todos posibles, el m�todo de ense�anza es un factor aleatorio
en el experimento. (Modelo 2)
El Modelo de efectos mixtos describen situaciones que �ste puede tomar. Ejemplo: Si
el m�todo de ense�anza es analizado como un factor que puede influir donde est�n
presentes ambos tipos de factores: fijos y aleatorios. (Modelo 3)
Supuestos previos
El ANOVA parte de algunos supuestos o hip�tesis que han de cumplirse:

La variable dependiente debe medirse al menos a nivel de intervalo.


Independencia de las observaciones.
La distribuci�n de los residuales debe ser normal.
Homocedasticidad: homogeneidad de las varianzas.
La t�cnica fundamental consiste en la separaci�n de la suma de cuadrados (SS, 'sum
of squares') en componentes relativos a los factores contemplados en el modelo.
Como ejemplo, mostramos el modelo para un ANOVA simplificado con un tipo de
factores en diferentes niveles. (Si los niveles son cuantitativos y los efectos son
lineales, puede resultar apropiado un an�lisis de regresi�n lineal)

{\displaystyle SS_{\hbox{Total}}=SS_{\hbox{Error}}+SS_{\hbox{Factores}}}
{\displaystyle SS_{\hbox{Total}}=SS_{\hbox{Error}}+SS_{\hbox{Factores}}}

El n�mero de grados de libertad (gl) puede separarse de forma similar y corresponde


con la forma en que la distribuci�n chi-cuadrado (?� o Ji-cuadrada) describe la
suma de cuadrados asociada.

{\displaystyle gl_{\hbox{Total}}=gl_{\hbox{Error}}+gl_{\hbox{Factores}}}
{\displaystyle gl_{\hbox{Total}}=gl_{\hbox{Error}}+gl_{\hbox{Factores}}}

Tipos de modelo
Modelo I: Efectos fijos
El modelo de efectos fijos de an�lisis de la varianza se aplica a situaciones en
las que el experimentador ha sometido al grupo o material analizado a varios
factores, cada uno de los cuales le afecta s�lo a la media, permaneciendo la
"variable respuesta" con una distribuci�n normal.

Este modelo se supone cuando el investigador se interesa �nicamente por los niveles
del factor presentes en el experimento, por lo que cualquier variaci�n observada en
las puntuaciones se deber� al error experimental.

Modelo II: Efectos aleatorios (componentes de varianza)


Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren
diferencias incomparables en el material o grupo experimental. El ejemplo m�s
simple es el de estimar la media desconocida de una poblaci�n compuesta de
individuos diferentes y en el que esas diferencias se mezclan con los errores del
instrumento de medici�n.

Este modelo se supone cuando el investigador est� interesado en una poblaci�n de


niveles, te�ricamente infinitos, del factor de estudio, de los que �nicamente una
muestra al azar (t niveles) est�n presentes en el experimento.

Grados de libertad
Los grados de libertad pueden descomponerse al igual que la suma de cuadrados. As�,
GLtotal = GLentre + GLdentro. Los GLentre se calculan como: a - 1, donde a es el
n�mero de tratamientos o niveles del factor. Los GLdentro se calculan como N - a,
donde N es el n�mero total de observaciones o valores de la variable medida (la
variable respuesta).

Pruebas de significaci�n
El an�lisis de varianza lleva a la realizaci�n de pruebas de significaci�n
estad�stica, usando la denominada distribuci�n F de Snedecor.
Tablas ANOVA

También podría gustarte