Está en la página 1de 24

UNIDAD II

ESTADÍSTICA II.
Análisis de varianza (ANOVA)
En estadística, cuando se comparan las
medias de dos o más muestras en
relación a alguna variable de interés (por
ejemplo, la ansiedad después de un
tratamiento psicológico), se utilizan
pruebas que determinan si existen o no
diferencias significativas entre las medias.
Una de ellas es esta prueba ANOVA.
Análisis de varianza (ANOVA)
En estadística, encontramos el concepto de
análisis de Varianza (ANOVA), que consiste
en una agrupación de modelos estadísticos
y sus procedimientos asociados, donde la
varianza está particionada en ciertos
componentes, debido a variables
explicativas diversas. Si desglosamos sus
siglas en inglés, ANOVA significa: ANalysis
Of VAriance (Análisis de la varianza).
Análisis de varianza (ANOVA)
El Análisis de Varianza (ANOVA) es un tipo
de prueba paramétrica. Esto quiere decir
que deben cumplirse una serie de
supuestos para aplicarla, y que el nivel de
la variable de interés debe ser, como
mínimo, cuantitativo (es decir, como
mínimo de intervalo, por ejemplo el
coeficiente intelectual, donde existe un 0
relativo).
Técnicas de Análisis de
varianza (ANOVA)
Las primeras técnicas de análisis de varianza
fueron desarrolladas en los años ‘20 y ‘30
por R.A. Fisher, un estadístico y genetista. Es
por ello que el análisis de Varianza (ANOVA)
también se conoce como “Anova de Fisher” o
“análisis de varianza de Fisher”; esto
también es debido al uso de la distribución F
de Fisher (una distribución de probabilidad)
como parte del contraste de hipótesis.
Función de Análisis de
varianza (ANOVA)
Así, un análisis de varianza (ANOVA) sirve
para determinar si diferentes
tratamientos (por ejemplo, tratamientos
psicológicos) muestran diferencias
significativas, o si por el contrario, puede
establecerse que sus medias poblaciones
no difieren (son prácticamente iguales, o
su diferencia no es significativa).
Función de Análisis de
varianza (ANOVA)
Es decir, se utiliza la ANOVA para contrastar
hipótesis acerca de diferencias de medias
(siempre más de dos). El ANOVA implica un
análisis o descomposición de la variabilidad
total; ésta, a su vez, se puede atribuir
principalmente a dos fuentes de variación:
 Variabilidad intergrupo.
 Variabilidad intragrupo o error.
Características y supuestos de
Análisis de varianza (ANOVA)
Cuando se aplica el análisis de varianza
(ANOVA) en estudios experimentales,
cada grupo consta de un determinado
número de sujetos, siendo posible que
difieran los grupos en cuanto a este
número. Cuando el número de sujetos
coincide, se habla de un modelo
equilibrado o balanceado.
Características y supuestos de
Análisis de varianza (ANOVA)
En estadística, para poder aplicar el análisis de
varianza (ANOVA) deben cumplirse una serie de
supuestos:

1. Normalidad
Esto quiere decir que las puntuaciones en la
variable dependiente (por ejemplo la ansiedad)
deben seguir una distribución normal. Este
supuesto se comprueba mediante las
llamadas pruebas de bondad de ajuste
Características y supuestos de
Análisis de varianza (ANOVA)
En estadística, para poder aplicar el análisis de varianza
(ANOVA) deben cumplirse una serie de supuestos:

2. Independencia
Implica que no exista autocorrelación entre las
puntuaciones, es decir, la existencia de independencia de
las puntuaciones entre sí. Para asegurarnos del
cumplimiento de este supuesto, deberemos realizar un
MAS (muestreo aleatorio simple) para seleccionar la
muestra que vamos a estudiar o sobre la que vamos a
trabajar.
Características y supuestos de
Análisis de varianza (ANOVA)
En estadística, para poder aplicar el análisis de varianza (ANOVA)
deben cumplirse una serie de supuestos:

3. Homocedasticidad

Este término significa “igualdad de varianzas de las


subpoblaciones”. La varianza es un estadístico de variabilidad y
dispersión, y aumenta cuanto mayor sea la variabilidad o dispersión
de las puntuaciones.
El supuesto de homocedasticidad se comprueba mediante la Prueba
de Levene o la de Barlett. En caso de no cumplirlo, otra alternativa
es realizar una transformación logarítmica de las puntuaciones.
Variable respuesta vs
Explicativa
Empezamos por mirar las definiciones de
estos tipos de variables. Una variable de
respuesta es una cantidad particular que
hacemos una pregunta acerca de nuestro
estudio. Una variable explicativa es cualquier
factor que puede influir en la variable de
respuesta. Si bien puede haber muchas
variables explicativas, que afectará en primer
lugar a nosotros mismos con una sola
variable explicativa.
Variable respuesta vs
Explicativa
Una variable de respuesta puede no estar presente
en un estudio. El nombramiento de este tipo de
variables depende de las preguntas que se les pide
por un investigador. La realización de un estudio
observacional sería un ejemplo de un caso cuando
no hay una variable de respuesta. Un experimento
tendrá una variable de respuesta. El cuidadoso
diseño de un experimento intenta establecer que
los cambios en una variable de respuesta son
causadas directamente por los cambios en las
variables explicativas.
Variable respuesta vs
Explicativa
Ejemplo: supongamos que un investigador está interesado en
estudiar el estado de ánimo y actitudes de un grupo de
estudiantes universitarios de primer año. Todos los estudiantes
de primer año se dan una serie de preguntas. Estas preguntas
están diseñadas para evaluar el grado de nostalgia de un
estudiante. Los estudiantes también indican en la encuesta hasta
qué punto su colegio es de casa.

El investigador podría utilizar los datos para intentar responder si


los estudiantes que venían de más lejos tenían un mayor grado
de nostalgia. En este caso, los datos relativos a las preguntas
nostalgia son los valores de una variable de respuesta y los datos
que indican la distancia desde el hogar formas la variable
explicativa.
Ejemplo
Se quiere evaluar la eficacia de distintas dosis de un fármaco contra la
hipertensión arterial, comparándola con la de una dieta sin sal. Para ello se
seleccionan al azar 25 hipertensos y se distribuyen aleatoriamente en 5 grupos.
Al primero de ellos no se le suministra ningún tratamiento, al segundo una dieta
con un contenido pobre en sal, al tercero una dieta sin sal, al cuarto el fármaco
a una dosis determinada y al quinto el mismo fármaco a otra dosis. Las
presiones arteriales sistólicas de los 25 sujetos al finalizar los tratamientos son:
Ejemplo
El primer paso es crear la tabla ANOVA.

Suma de Grad. Med. F significancia


Cuadrado Lib. Cuadrática
s .
Inter-
grupo
2010.6 .05
4
Intra-
grupo
894.4
Total 2905.0
El único
dato que
4
nos dan es
la sc
Ejemplo
El primer paso es crear la tabla ANOVA.

5-1 =4 =
5(grupos) - 4*5= 20
1 (por cada
grupo)
Suma de Grad. Med. F significancia
Cuadrado Lib. Cuadrática
s .
Inter-
grupo
2010.6 4 .05
4
Intra-
grupo
894.4 20
Total 2905.0 24
4-1
25
Ejemplo
El primer paso es crear la tabla ANOVA.

2010.64/4

Suma de Grad. Med. F significancia


Cuadrado Lib. Cuadrática
s .
Inter-
grupo
2010.6 4 502.66 .05
4
Intra-
grupo
894.4 20 44.72
Total 2905.0 24
La med.4Cuadrática se calcula por la suma de
cuadrados entre los GL. MC=SC/GL
Ejemplo
El primer paso es crear la tabla ANOVA.
502.66/44.7
2

Suma de Grad. Med. F significanci


Cuadrado Lib. Cuadrática a
s .
Inter-
grupo
2010.6 4 502.66 11.24 .05
4
Intra-
grupo
894.4 20 44.72
Total 2905.0 24
El valor 4
F se calcula MC1/MC2
Ejemplo
El segundo paso es nuestra hipótesis

H0

Tenemos que buscar en nuestra


tabla F, que valor tiene nuestra
frontera con .05
Como encontramos el valor en
la tabla?
En esta tabla tenemos dos tipos de GL, el del numerador y
el del denominador.

El del numerador lo encontramos en los GL del Inter-grupo

El del denominador lo encontramos en los GL del Intra-grupo

Ambos se encuentran en nuestra tabla anova.

Ubicamos el valor con 4 y 20 así encontramos el valor de


2.86 en la tabla.
Ejemplo
El segundo paso es nuestra hipótesis

H0 <2.86 los
tratamientos
son iguales.

H1>2.86 los
H0 tratamientos
son
diferentes.

2.8
6
Ejemplo
El tercer paso es ubicar F en nuestra campana y concluir.

11.24

H0

2.8
6
Así rechazamos la hipótesis nula y concluimos que los resultados de los tratamientos
son diferentes.

También podría gustarte