Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. TEMA:
Análisis de Varianza
2. INTRODUCCION
El análisis de la varianza o (ANOVA) por sus siglas en inglés (Analysis Of Variance) se
desarrolló por el genetista Ronald Fisher en los años 1920 y 1930, Fisher analizo el uso de la
distribución “F” como parte del contaste de hipótesis (Fayas, 2012). En la estadística el
análisis de varianza es una colección de modelos estadísticos y sus procedimientos
asociados, de lo cual la varianza esta particionada en ciertos componentes debido a las
diferentes variables explicativas.
El análisis de varianza es parte del concepto de regresión lineal, la funcionalidad es amplia y
variable, el análisis de varianza permite determinar los diferentes tratamientos que
muestran una diferencia significativa en sus resultados o el contrario (Pedroza, 2015). De
todo el análisis se permite superar las limitaciones de hacer contrastes bilaterales entre
todos los tratamientos posibles.
3. OBJETIVOS
3.1. Objetivo general
Explicar las variaciones de un análisis de varianza, factores, variables cualitativas y análisis
de evidencia relacionado a los factores.
3.2. Objetivos específicos
- Analizar cómo se crea un análisis de varianza
- Conocer los fundamentos que se deben tomar en cuenta para realizar un análisis de varianza
contando con todas las variables y factores.
4. METODOLOGIA
Para el siguiente análisis se recurrió a fuentes fidedignas para la revisión de literatura se
analizó la información en función de los objetivos y el tema para redactar el documento
investigando y resumiendo la información para una mejor compresión y objetividad.
5. RESULTADOS
ANALISIS DE VARIANZA
Existen parámetros dentro de los análisis de grupos ANOVA como los modelos factoriales
equilibrados, es decir en los cuales se encuentran series de datos pareados con los valores de
sus medias aleatorias continúas siendo estas medidas en su varianza respecto a las variables
cualitativas o llamadas también factores dentro de los análisis. Para esto se proponen dos
tipos de hipótesis discrepantes en las cuales se cumple que H0=No hay diferencias entre las
medias encontradas en los grupos analizados versus H0= Existen al menos más de un valor
con una diferencia notable dentro de las medias analizadas. (JMP STATISTICAL DISCOVERY, 2017)
(Barcelona, 2016)
Por esto se logra determinar que las diferencias entre grupos y en los grupos se logra
encontrar mediante la proposición siguiente:
Mediante esta propuesta se determina las desviaciones que los valores analizados presentan
partiendo de los valores testigos siempre y cuando teniendo en cuenta los grados de libertad
de variación los cuales se determinan como la suma de los cuadrados totales siendo estos
iguales al número de observaciones menos uno. Estos cuadrados mencionados son las
incidencias anotadas en cada uno de los grupos y entre los grupos, elevadas al cuadrado
independientemente, de ser así, si esta suma es igual a N-1 se puede decir que no se tiene una
suma de cuadrados con errores o residuales; de ser así se precisa el inicio de un nuevo
análisis en el cual se mida la variabilidad en cada uno de los niveles para ajustar así los
grados de libertad con el porcentual de error para finalmente tener una lectura más precisa de
la varianza entre las muestras de los grupos estudiados. (Rodrigo, 2016)
METODO TUKEY
La prueba de Tukey, nombrado después Juan Tukey, es una prueba estadística utilizada
general y juntamente con ANOVA, La prueba Tukey se usa en experimentos que implican un
número elevado de comparaciones (Gonzales, 2010).
Es de fácil cálculo puesto que se define un solo comparador, resultante del producto del error
estándar de la media por el valor tabular en la tabla de Tukey usando como numerador el
número de tratamientos y como denominador los grados de libertad del error.
Se conoce como Tukey-Kramer cuando las muestras no tienen el mismo número de datos.
• Dado que el análisis de varianza acuse un efecto significativo, la prueba de Tukey provee un
nivel de significancia global de α cuando los tamaños de las muestras son iguales y de α a lo
sumo a cuando no son iguales (Garcia, 2016).
• Se basa en la construcción de intervalos de confianza de las diferencias por pares. Si estos
intervalos incluyen al 0, entonces no se rechaza la hipótesis nula
PRUEBA DE SCHEFFE
La prueba de Scheffé es una prueba que se aplica para hacer comparaciones múltiples de las
medias de grupos. Su uso está relacionado con la prueba del análisis de la varianza, y se
incluye dentro de las llamadas pruebas de comparaciones múltiples.
La prueba del análisis de la varianza contrasta la hipótesis de igualdad de medias de dos o
más grupos. Si el resultado se considera estadísticamente significativo, lo que se puede
afirmar es que al menos la media de uno de los grupos es distinta a las restantes, o bien que
hay otras medias diferentes entre sí (Mato, 2006).
El siguiente paso consiste en identificar qué grupos son los que tienen medias diferentes
entre sí. Una solución es comparar las medias por pares, usando una prueba estadística como
la t de Student. Pero al hacerlo así se produce un aumento del error tipo I que se quiere
admitir. Las pruebas de comparaciones múltiples corrigen el error para conseguir que no
sobrepase el nivel establecido, por ejemplo, del 5%.
La prueba de Scheffé se realiza comparando todos los posibles pares de medias, pero usando
como error típico el valor de la varianza residual o intragrupo obtenida en el análisis de la
varianza (Camacha, 2015).
METODO DE LA DIFERENCIA MINIMA DE FISHER
El método de la diferencia mínima de Fisher utiliza el estadístico F:
• Calcula una diferencia crítica a la que se comparan cada par de promedios
• Se pueden construir también intervalos de confianza para las diferencias por pares
• Sin embargo, el riesgo global α, tiende a crecer con este método (este método utiliza
tasas de error individuales) (Steel, 2010).
6. CONCLUSIONES
El análisis de varianza realiza una declaración de interacciones por sus componentes,
metodologías, fuentes de varianza entre otras, de lo cual genera la determinación de
la forma correcta en que deben estructurarse los datos de un experimento o
proyecto sé que realice.
Establecen procedimientos al realizar y recopilar datos, por lo tanto, los datos se
desenlosan en variables que según la metodología o prueba se puede hallar
respuestas y resultados
El análisis de varianza realiza datos simultáneos o independientes de varios
contrastes de hipótesis, probabilidad, variable significativa y verificar los datos.
7. REFERENCIAS BIBLIOGRAFICAS
Bibliografía
Camacha, M. (2015). Diseño óptimo robusto para experimentos con mezclas. Obtenido de
https://ruidera.uclm.es/xmlui/handle/10578/14391
Iveth, A. (2015). Cómo aplicar las pruebas parametricas bivariadas t de Student y ANOVA . Obtenido
de https://d1wqtxts1xzle7.cloudfront.net/62285491/articulo_Vanesa20200305-56077-
1omgwka-with-cover-page-v2.pdf?
Expires=1634700723&Signature=eLZldGcO3LVjA7~1wi~5d8Y56ufPTL9CLYm6Hi9SfUzLndf5Z-
xZ9NjNGNnGZGMi8LoE3b7VMaiXMV8VXjDmw5yJqcNywD0t3uOIhFx1MHOiq6~06YBPJL
Meza, N. (2009). aracterísticas del fruto de tomate de árbol (Cyphomandra betaceae [Cav.] Sendtn)
basadas en la coloración del arilo, en la Zona Andina Venezolana. Obtenido de
https://dialnet.unirioja.es/servlet/articulo?codigo=3308209
Rodrigo, J. A. (Enero de 2016). ANOVA análisis de varianza para comparar múltiples medias.
Obtenido de https://www.cienciadedatos.net/documentos/19_anova