Está en la página 1de 46

8va Clase

Analisis de Varianza
ANOVA
El análisis de la varianza
• Permite contrastar la hipótesis nula (H0) de que
las medias de K poblaciones (K >2) son iguales,
frente a la hipótesis alternativa (H1) de que por lo
menos una de las poblaciones difiere de las
demás en cuanto a su valor esperado.

• Este contraste es fundamental en el análisis de
resultados experimentales, en los que interesa
comparar los resultados de K 'tratamientos' o
'factores' con respecto a la variable dependiente o
de interés.
Ronald Fisher
“The greatest biologist since
Darwin. Not only was he the
most original and constructive
of the architects of the neo-
Darwinian synthesis. Fisher
also was the father of modern
statistics and experimental
design. He therefore provided
researchers in biology and
medicine with their most
important research tools”

Richard Dawkins
Aplicación
Empleado para determinar si hay diferencias significativas
entre diversos grupos (+ de 2 grupos).

Por ejemplo:
• Comparación de notas entre carreras
• Decomposición de efectos entre múltiples factores (p. ej.,
cómo las notas varían con la carreras y el sexo del
estudiante).
El Anova requiere el cumplimiento los
siguientes supuestos:

• Las poblaciones (distribuciones de probabilidad de la variable


dependiente correspondiente a cada factor) son normales.

• Las K muestras sobre las que se aplican los tratamientos son


independientes.

• Las poblaciones tienen todas igual varianza (homoscedasticidad).


Aplicaciones
Eje x: > 2 categorías (droga A, B, etc.)
Eje y: cantidad (tamaño del tumor)

 ANOVA de una vía

 Kruskal-Wallis
Distribución de F
La distribución F(X) es resultante de la razón de dos
variables (U1 y U2 ) con distribuciones chi-cuadrado (χ2)
escaladas:

𝑼𝟏 Τ𝒅𝟏
𝑭 𝑿 =
𝑼𝟐 Τ𝒅𝟐
Donde
• U1 y U2 variables con distribución chi-cuadrado y con
grados de libertad d1 y d2
• U1 y U2 son independientes
Distribución de F
Cómo se vería la distribución de la razón entre
distribuciones chi-cuadrado (χ2) con k = 3 y 6 escaladas?
Distribución de F
Cómo se vería la distribución de la razón entre
distribuciones chi-cuadrado (χ2) con k = 3 y 6 escaladas?

𝑼𝟏 Τ𝒅𝟏 𝒙𝟑 Τ𝟑
𝑭 𝑿 = 𝑭 𝑿 =
𝑼𝟐 Τ𝒅𝟐 𝒙𝟔 Τ𝟔

k=3
k=6
Distribución de F
Cómo se vería la distribución de la razón entre
distribuciones chi-cuadrado (χ2) con k = 3 y 6 escaladas?
f(X)

𝒙𝟑 Τ𝟑
F3,6 𝑭 𝑿 =
𝒙𝟔 Τ𝟔

X
Distribución de F
Generalizando para distintas distribuciones chi-
cuadrado (χ2)…
f(X)
k1 = 1, k2 = 1
k1 = 10, k2 = 10
k1 = 1, k2 = 10
k1 = 10, k2 = 1
k1 = 15, k2 = 20

X
ANOVA de 1 vía
Para k grupos y N individuos (ni en cada grupo),
descomponemos la variación total en variación entre grupos y
dentro de grupos (residuos):
ANOVA de 1 vía
Para k grupos y N individuos (ni en cada grupo), descomponemos
la variación total en variación entre grupos y dentro de grupos
(residuos):

Promedio global

x
ANOVA de 1 vía
Para k grupos y N individuos (ni en cada grupo),
descomponemos la variación total en variación entre grupos y
dentro de grupos (residuos):

Promedio global

x
x1 x2
ANOVA de 1 vía
Para k grupos y N individuos (ni en cada grupo),
descomponemos la variación total en variación entre grupos y
dentro de grupos (residuos):

Promedio global

x
x1 x2
ANOVA DE UNA VÍA (DE UN FACTOR)
𝜇𝑥 : media de población X (muestras independientes)

HIPÓTESIS:
• H0:𝜇1 = 𝜇2 = ⋯ = 𝜇𝑛 (No hay asociación)
• H1: No (𝜇1 = 𝜇2 = ⋯ = 𝜇𝑛 )↔ 𝜇𝑖 ≠ 𝜇𝑗 𝑝𝑎𝑟𝑎 𝑎𝑙
menos un i y un j (Hay asociación)
ANOVA de un factor
Estima cuánta de la variabilidad observada en los datos Variación
(variables dependiente: VD) puede ser explicada por el
factor (variable independiente: VI o factor)... entre
Ej: ¿Cuánto de la variación de ingresos se explica por el grupos
tipo de trabajo?

.. Y cuánta puede ser explicada por el error (Variación


interna en cada grupo). Variación
dentro
grupos

Si el factor explica gran parte de la variación


promedios diferentes en los grupos.
ANOVA de un factor: El modelo
𝑌𝑖𝑗 = 𝜇𝑖 + 𝜀𝑖𝑗

Valor en VD (cuantitativa) de
Error de la observación j, del
la observación j, del grupo i
grupo i: distancia de la
Promedio de la VD observación j con el
(cuantitativa) del grupo i promedio de su grupo i

La estimación del modelo


𝑌𝑖𝑗 = 𝜇𝑖
Si la predicción del modelo es ෢ ത
cierta, la variación de los datos 𝑌𝑖𝑗 = 𝑌𝑖
solo podría explicarse por la
variación ENTRE grupos  Los
promedios serían distintos
ANOVA de un factor: Análisis de varianza
Considerando todos los casos…
• Suma total de cuadrados (SCT):
෍ ෍ (𝑌𝑖𝑗 − 𝑌ഥ )2
𝑖 𝑗
• Suma de cuadrados explicados (SCE): Variación
෍ ෍ (𝑌𝑖 − 𝑌ഥ )2 = ෍ 𝑛𝑖 (𝑌𝑖 − 𝑌ഥ )2 entre
𝑖 𝑗 𝑖
grupos
• Suma de cuadrados no explicada o residual (SCR):
σ𝑖 σ𝑗(𝑌𝑖𝑗 − 𝑌𝑖 )2 = σ𝑖 σ𝑗 𝑒𝑖𝑗 2 Variación
SCT=SCE+SCR dentro
grupos
ANOVA de un factor: Estadístico del Test
y distribución nula
Medias de cuadrados: Suma de cuadrado/gl
• Media de cuadrados totales (MCT):
𝑆𝐶𝑇
𝑛−1 Entre grupo
• Media de cuadrados explicados/entre (MCE): MSGroups
𝑆𝐶𝐸
K numero de grupos 𝐾−1 Dentro de cada grupo
• Media de cuadrados residual/dentro (MCR): MSError
𝑆𝐶𝑅
𝑛−𝐾
𝑴𝑪𝑬
Estadístico F= ~𝑭𝑲−𝟏,𝒏−𝑲 𝒈𝒍
𝑴𝑪𝑹
ANOVA de 1 vía
La razón entre suma de cuadrados promedio
sigue una distribución de F (k – 1, N – k)

Fobservado = MSGroups
MSError

Fk-1, N-k
FObs
P=?
Tabla de ANOVA 1 VÍA
Ejemplo
Queremos comparar el sueldo de tres clases sociales (variable 1:
alta, media, baja):

n = 300
k=3
Ejemplo
Queremos comparar el sueldo de tres clases sociales (variable 1:
alta, media, baja):

H0: promedios iguales (alta = media = baja)


H1: promedios distintos (alta ≠ media ≠ baja)

Considerando todos los casos…


• Suma total de cuadrados (SCT): σ𝑖 σ𝑗 (𝑌𝑖𝑗 − 𝑌ഥ )2
• Suma de cuadrados explicados (SCE): σ𝑖 σ𝑗(𝑌𝑖 − 𝑌ഥ )2 = σ𝑖 𝑛𝑖 (𝑌𝑖 − 𝑌ഥ )2 SCT=SCE+SCR
• Suma de cuadrados no explicada o residual (SCR): σ𝑖 σ𝑗 (𝑌𝑖𝑗 − 𝑌𝑖 )2 = σ𝑖 σ𝑗 𝑒𝑖𝑗 2

Medias de cuadrados: Suma de cuadrado/gl


𝑆𝐶𝑇
• Media de cuadrados totales (MCT): 𝑛−1
𝑆𝐶𝐸 𝑴𝑪𝑬
• Media de cuadrados explicados/entre (MCE): Estadístico F= ~𝑭𝑲−𝟏,𝒏−𝑲 𝒈𝒍
𝐾−1 𝑴𝑪𝑹
𝑆𝐶𝑅
• Media de cuadrados residual/dentro (MCR): 𝑛−𝐾
Ejemplo
Tabla de ANOVA

df SS MS F P

Clase 2 1172509 586255 2211.6 < 2.2e-16 ***

Error 297 78728 265

• La probabilidad de obtener las diferencias observadas al


azar es menos de 2.2 en 1016.
• Con estos resultados rechazamos H0 e inferimos que el
sueldo difiere significativamente (P<0.05) entre las 3 clases.
ANOVA de 2 vías
• Una variable dependiente
Interval o razón con distribución normal

• Dos variables independientes


Nominales (grupos) e independientes entre sí

• Tres hipótesis:
Pone a prueba el efecto de una variable independiente
controlando por las demás variables independientes.
Uno: H0 = Variable 1 no tiene efecto en el resultado
Dos: H0 = Variable 2 no tiene efecto en el resultado
Tres: H0 = La interacción entre la variable 1 y 2 no tienen
efecto en el resultado.
Ejemplo
Queremos comparar el sueldo de tres clases sociales distintas
(variable 1: alta, media, baja) entre hombres y mujeres (variable 2:
h, m):
n = 300
Hombres
k1 = 3
k2 = 2

Mujeres
Ejemplo
Queremos comparar el sueldo de tres clases sociales distintas
(variable 1: alta, media, baja) entre hombres y mujeres (variable 2:
h, m):

Uno: H0: promedios iguales (alta = media = baja)


H1: promedios distintos (alta ≠ media ≠ baja)

Dos: H0: promedios iguales (h = m)


H1: promedios distintos (h ≠ m)

Tres: H0: no hay interacción clase*sexo


H1: el sueldo cambia dependiendo clase*sexo
Ejemplo
Tabla de ANOVA
df SS MS F P

Clase 2 1131254 565627 2439.8447 <2e-16

Sexo 1 379 379 1.6368 0.2018

Clase*Sexo 2 625 312 1.3473 0.2615

Error 294 68158 232

• Encontramos solamente diferencias significativas (P < 0.05)


entre clases
Kruskal-Wallis
(ANOVA con rangos)
Aplicación
Versión no paramétricas de la ANOVA
Prueba de  ANOVA
Kruskal-Wallis de una vía

• William Kruskal • Wilson Allen Wallis

1.919- 2.005 1.912-1.998


Test de Kruskal- Wallis

• Método no paramétrico que permite comparar, en


un solo test, las medianas de un conjunto de k
muestras independientes.

• Asume, bajo la hipótesis nula, que los datos vienen


de la misma distribución.

ANOVA
Método paramétrico para
comparar las medias de 3 o más
grupos independiente
Test de Kruskal- Wallis
Conceptualmente

El ANOVA y Kruskal-Wallis particionan la variación total


observada en una base de datos entre grupos versus
dentro de grupos.

Cuanto mayor la contribución de la variación entre grupos


en relación a la variación dentro de grupos, mayor es la
probabilidad de rechazar la H0.
Test de Kruskal- Wallis se emplea cuando:

• No se cumplen los supuestos de normalidad

• No se cmple homocedasticidad: si el error cometido


por el modelo no siempre tiene la misma varianza

• Se requiere una escala ordinal

• Sigue una distribución chi-cuadrado, muestra


pequeña

Las pruebas no paramétricas emplean ‘rankings’ o rangos en


vez de los datos originales para la prueba de hipótesis.
Test de Kruskal- Wallis

Hipótesis
• H0: las tres o más k muestras independientes, de tamaños
n1, n2, nk…proceden de la misma población o de
poblaciones con medianas iguales.

H0: m1 = m2 = .. = m k

• H1: las tres o más k muestras independientes, de tamaños


n1, n2, nk…proceden de distintas poblaciones o de
poblaciones con medianas distintas.*
H1: m1 ≠ m2 ≠ .. m k

*No implica que un grupo en concreto sea superior que otro


Test de Kruskal- Wallis
Principio
Emplean el índice H para prueba de hipótesis.

donde

es el número de observaciones en el grupo i


es el ranking (entre todas las obs.) de la observación j en el grupo i
es el número total de observaciones entre todos los grupos

es el ranking promedio de las observaciones j en i

es el promedio de todos los rij


Test de Kruskal- Wallis
Principio
Emplean el índice H para prueba de hipótesis.

donde

Variación entre grupos Variación total

La distribución de H se acerca a una distribución χ2


con g(grupos) - 1 o k – 1 grados de libertad. Por lo tanto,
ponemos a prueba la hipótesis con:

Si algún ni es pequeño (<5) la distribución de H puede ser distinta de la chi-cuadrado.


Test de Kruskal- Wallis

Ejercicio 1
• Ejemplo: Se han valorado los cambios de presión arterial sistólica
(mm Hg) a seis meses de seguimiento con tres regímenes
terapéuticos

Tratamiento A Tratamiento B Tratamiento C


+ 3,5 -4 0
+3 -4,5 -0,5
+2,5 -5 -1
0 -5,5 -31
-2 -7
Media = +1,4 Media = -5,2 Media = -8,125
Test de Kruskal- Wallis

• Ordenación de datos.
Se ordenan de menor a mayor todos los valores
observados en k muestras.

• Asignación de rangos
Se asigna el rango 1 al valor inferior, el rango 2 al 2º y
así sucesivamente. En caso de empates (mismo valor
para dos o más casos) se asigna la media de los
números de orden de los individuos empatados
Valor (tas) Grupo (tto) Rango Test de
Kruskal-
-31 C 1 Wallis
-7 B 2
-5,5 B 3
-5 B 4
-4,5 B 5
-4 B 6
-2 A 7
-1 C 8
-0,5 C 9
0 A 10,5
0 C 10,5
2,5 A 12
3 A 13
3,5 A 14
Test de Kruskal- Wallis

• Cálculo de la suma de rangos.


Se suman los rangos asignados para cada grupo

Grupo Rangos Suma de ni Rangos medios


rangos (S)
7+10,5+12+13+14
A 56,5 5 56,5/5=11,3
2+3+4+5+6
B 20 5 20/5 = 4
1+8+9+10,5
C 28,5 4 28,5/4= 7,1
Suma = 105 N = 14 105/14=7,5
Test de Kruskal- Wallis

• Cálculo de un test ji cuadrado


Si Ho fuese cierta, los rangos medios de cada grupo
coincidirían con el rango medio total.

Numerador: la diferencia entre lo observado y lo esperado


para cada grupo se eleva al cuadrado. Además debe
ponderarse por el tamaño muestral de cada grupo

Denominador: usar una medida de error

X2 = sumatoria ni (Rmedi – Rmed TOTAL) 2


N (N+1)/12
Test de Kruskal- Wallis

X2 = sumatoria ni (Rmedi – Rmed TOTAL) 2


N (N+1)/12

X2 = 5(11.3 - 7.5) 2 + 5(4 - 7.5) 2 + 4(7.1 - 7.5) 2


14(15)/12
X2 = 7.7
g.l.= k - 1

• Para hallar valor p usando Excel: =DISTR.CHI(7.7; 2)


p=0.02
Resumen
Familiarícense con:

 ANOVA

 Conceptos

 Aplicaciones

 Diferencias entre una y dos vías

 Kruskal-Wallis

 Conceptos

 Aplicaciones

También podría gustarte