Está en la página 1de 6

Universidad de Las Américas

Facultad de Ingenierías y Ciencias Aplicadas


Carrera de Ingeniería Agroindustrial y de Alimentos
Modelos de Investigación y Diseño de Experimentos
Integrantes: Gabriel Anda y Juan Fernando Proaño

1. TEMA:
Análisis de Varianza
2. INTRODUCCION
El análisis de la varianza o (ANOVA) por sus siglas en inglés (Analysis Of Variance) se
desarrolló por el genetista Ronald Fisher en los años 1920 y 1930, Fisher analizo el uso de la
distribución “F” como parte del contaste de hipótesis (Fayas, 2012). En la estadística el
análisis de varianza es una colección de modelos estadísticos y sus procedimientos
asociados, de lo cual la varianza esta particionada en ciertos componentes debido a las
diferentes variables explicativas.
El análisis de varianza es parte del concepto de regresión lineal, la funcionalidad es amplia y
variable, el análisis de varianza permite determinar los diferentes tratamientos que
muestran una diferencia significativa en sus resultados o el contrario (Pedroza, 2015). De
todo el análisis se permite superar las limitaciones de hacer contrastes bilaterales entre
todos los tratamientos posibles.
3. OBJETIVOS
3.1. Objetivo general
Explicar las variaciones de un análisis de varianza, factores, variables cualitativas y análisis
de evidencia relacionado a los factores.
3.2. Objetivos específicos
- Analizar cómo se crea un análisis de varianza
- Conocer los fundamentos que se deben tomar en cuenta para realizar un análisis de varianza
contando con todas las variables y factores.
4. METODOLOGIA
Para el siguiente análisis se recurrió a fuentes fidedignas para la revisión de literatura se
analizó la información en función de los objetivos y el tema para redactar el documento
investigando y resumiendo la información para una mejor compresión y objetividad.
5. RESULTADOS
ANALISIS DE VARIANZA

El método de análisis de varianza ANOVA es también conocido como el análisis factorial


creado por Fisher en el año 1930. Esta metodología es aplicada para el análisis del efecto de
uno o varias variables sobre las medias factoriales continuas de los análisis. Dentro de estos
análisis se contemplan hipótesis nulas e hipótesis alternativas; en el caso de las hipótesis
nulas se contemplan diferentes modelos ANOVA en los cuales sus medias son las mismas,
sin embargo, en las hipótesis alternativas se contempla una media divergente, gracias a esto
se puede establecer un modelo de análisis de varios factores sobre un objeto de análisis o solo
un factor sobre el mismo objeto. (Rodrigo, 2016) Tras esto se realizan comparaciones de las
varianzas resultantes de la comparación de dichos factores propuestos dando como resultado
la variación o desviación de los valores de normalidad o testigos; estos valores testigos
también pueden ser propuestos como valores de proyecciones esperados dentro de los
modelos de análisis estudiados. (MINITAB, 2019) (Rodrigo, 2016)
Una manera fácil de entender las diferencias de los modeles ANOVA de varios factores o de
un solo factor es revisándolos en el siguiente ejemplo:

Se inicia un supuesto análisis de un suplemento alimenticio suministrado a hombres y


mujeres de manera equitativa, este suplemento fue dado a poblaciones de distintas edades,
por ende, con variaciones de absorción del producto. Se generan tres rangos de edades
distintas para ambos géneros en los cuales se contempla el índice de asimilación de los
componentes de dicho suplemento. Tras la obtención de estas medias se propone el análisis
de como estos índices de absorción del producto se ve influenciado por el género del
consumidor. (JMP STATISTICAL DISCOVERY, 2017) De esta manera se observa que dentro del
modelo se puede realizar un análisis de un factor independiente al otro o a su vez un análisis
donde incluya ambos factores, dando así un análisis en el que se observe el índice de
absorbancia independiente del género o un índice de absorbancia independiente de la edad
(Barcelona, 2016) mientras que si se lo realiza con ambos factores se contempla un análisis del
índice de absorbancia influenciado por el género y una edad en específico, teniendo así
diversas lecturas y análisis dentro de un solo estudio. Para una correcta lectura de estas
variaciones medias se debe tener en cuenta poblaciones representativas siendo así al menos el
10% de representación de la población analizada dentro de la cual se debe encontrar un índice
de normalidad el cual funcionaría a su vez como valores testigos; de ser el caso, se sugiere el
uso de los modelos ANOVA cuando exista una normalidad notable dentro de las muestras
obtenidas, por el contrario si no se halla una normalidad remarcable se recomienda en su
lugar usar la prueba rápida de Kruskal-Wallis, el cual es un test no paramétrico de varianzas.
(Rodrigo, 2016)

Existen parámetros dentro de los análisis de grupos ANOVA como los modelos factoriales
equilibrados, es decir en los cuales se encuentran series de datos pareados con los valores de
sus medias aleatorias continúas siendo estas medidas en su varianza respecto a las variables
cualitativas o llamadas también factores dentro de los análisis. Para esto se proponen dos
tipos de hipótesis discrepantes en las cuales se cumple que H0=No hay diferencias entre las
medias encontradas en los grupos analizados versus H0= Existen al menos más de un valor
con una diferencia notable dentro de las medias analizadas. (JMP STATISTICAL DISCOVERY, 2017)
(Barcelona, 2016)

Por esto se logra determinar que las diferencias entre grupos y en los grupos se logra
encontrar mediante la proposición siguiente:

Variabilidad total = varianza entre los niveles + varianza de los niveles

Mediante esta propuesta se determina las desviaciones que los valores analizados presentan
partiendo de los valores testigos siempre y cuando teniendo en cuenta los grados de libertad
de variación los cuales se determinan como la suma de los cuadrados totales siendo estos
iguales al número de observaciones menos uno. Estos cuadrados mencionados son las
incidencias anotadas en cada uno de los grupos y entre los grupos, elevadas al cuadrado
independientemente, de ser así, si esta suma es igual a N-1 se puede decir que no se tiene una
suma de cuadrados con errores o residuales; de ser así se precisa el inicio de un nuevo
análisis en el cual se mida la variabilidad en cada uno de los niveles para ajustar así los
grados de libertad con el porcentual de error para finalmente tener una lectura más precisa de
la varianza entre las muestras de los grupos estudiados. (Rodrigo, 2016)

METODO TUKEY
La prueba de Tukey, nombrado después Juan Tukey, es una prueba estadística utilizada
general y juntamente con ANOVA, La prueba Tukey se usa en experimentos que implican un
número elevado de comparaciones (Gonzales, 2010).
Es de fácil cálculo puesto que se define un solo comparador, resultante del producto del error
estándar de la media por el valor tabular en la tabla de Tukey usando como numerador el
número de tratamientos y como denominador los grados de libertad del error.
Se conoce como Tukey-Kramer cuando las muestras no tienen el mismo número de datos.
• Dado que el análisis de varianza acuse un efecto significativo, la prueba de Tukey provee un
nivel de significancia global de α cuando los tamaños de las muestras son iguales y de α a lo
sumo a cuando no son iguales (Garcia, 2016).
• Se basa en la construcción de intervalos de confianza de las diferencias por pares. Si estos
intervalos incluyen al 0, entonces no se rechaza la hipótesis nula
PRUEBA DE SCHEFFE
La prueba de Scheffé es una prueba que se aplica para hacer comparaciones múltiples de las
medias de grupos. Su uso está relacionado con la prueba del análisis de la varianza, y se
incluye dentro de las llamadas pruebas de comparaciones múltiples.
La prueba del análisis de la varianza contrasta la hipótesis de igualdad de medias de dos o
más grupos. Si el resultado se considera estadísticamente significativo, lo que se puede
afirmar es que al menos la media de uno de los grupos es distinta a las restantes, o bien que
hay otras medias diferentes entre sí (Mato, 2006).
El siguiente paso consiste en identificar qué grupos son los que tienen medias diferentes
entre sí. Una solución es comparar las medias por pares, usando una prueba estadística como
la t de Student. Pero al hacerlo así se produce un aumento del error tipo I que se quiere
admitir. Las pruebas de comparaciones múltiples corrigen el error para conseguir que no
sobrepase el nivel establecido, por ejemplo, del 5%.
La prueba de Scheffé se realiza comparando todos los posibles pares de medias, pero usando
como error típico el valor de la varianza residual o intragrupo obtenida en el análisis de la
varianza (Camacha, 2015).
METODO DE LA DIFERENCIA MINIMA DE FISHER
El método de la diferencia mínima de Fisher utiliza el estadístico F:
• Calcula una diferencia crítica a la que se comparan cada par de promedios
• Se pueden construir también intervalos de confianza para las diferencias por pares
• Sin embargo, el riesgo global α, tiende a crecer con este método (este método utiliza
tasas de error individuales) (Steel, 2010).

PRUEBA DEL RANGO MULTIPLE ( DUNCAN)


La prueba del rango múltiple prueba las diferencias entre las medias empezando con la media
más grande contra la segunda más grande, y así sucesivamente, comparando en cada caso con
un valor crítico obtenido por tablas.
• Muy eficaz y popular debido a su poder de discriminación.
• Si el nivel de protección es α, entonces las pruebas de las medias tienen un nivel de
significación igual o mayor que α (Meza, 2009).
PRUEBA DE BONFERRONI
La prueba de Bonferroni permite comparar las medias de los t niveles de un factor después de
haber rechazado la hipótesis nula (Ho) de igualdad de medias mediante la técnica ANOVA.
Es un método que se utiliza para controlar el nivel de confianza simultáneo para un conjunto
completo de intervalos de confianza. Es importante considerar el nivel de confianza
simultáneo cuando se examinan múltiples intervalos de confianza porque las probabilidades
de que al menos uno de los intervalos de confianza no contenga el parámetro de población es
mayor para un conjunto de intervalos que para cualquier intervalo individual. Para
contrarrestar esta tasa de error más elevada, el método de Bonferroni ajusta el nivel de
confianza para cada intervalo individual, de manera que el nivel de confianza simultáneo
resultante sea igual al valor que ha especificado (Iveth, 2015).

6. CONCLUSIONES
 El análisis de varianza realiza una declaración de interacciones por sus componentes,
metodologías, fuentes de varianza entre otras, de lo cual genera la determinación de
la forma correcta en que deben estructurarse los datos de un experimento o
proyecto sé que realice.
 Establecen procedimientos al realizar y recopilar datos, por lo tanto, los datos se
desenlosan en variables que según la metodología o prueba se puede hallar
respuestas y resultados
 El análisis de varianza realiza datos simultáneos o independientes de varios
contrastes de hipótesis, probabilidad, variable significativa y verificar los datos.
7. REFERENCIAS BIBLIOGRAFICAS

Bibliografía
Camacha, M. (2015). Diseño óptimo robusto para experimentos con mezclas. Obtenido de
https://ruidera.uclm.es/xmlui/handle/10578/14391

Fayas, J. (2012). Analisis de varianza . Obtenido de


https://www.ucipfg.com/Repositorio/MGAP/MGAP-05/BLOQUE-ACADEMICO/Unidad-2/
complementarias/analisis_de_varianza_2012.pdf

Garcia, J. (2016). COMPARACIÓN DE LOS PROCEDIMIENTOS DE TUKEY, DUNCAN, DUNNETT, HSU Y


BECHHOFER PARA SELECCIÓN DE MEDIAS. Obtenido de
https://www.cienciadedatos.net/documentos/19_anova

Gonzales, W. (2010). análisis de variancia ciencia de alimentos. Obtenido de


https://www.scielo.sa.cr/scielo.php?pid=S1659-
13212010000200016&script=sci_arttext&tlng=en

Iveth, A. (2015). Cómo aplicar las pruebas parametricas bivariadas t de Student y ANOVA . Obtenido
de https://d1wqtxts1xzle7.cloudfront.net/62285491/articulo_Vanesa20200305-56077-
1omgwka-with-cover-page-v2.pdf?
Expires=1634700723&Signature=eLZldGcO3LVjA7~1wi~5d8Y56ufPTL9CLYm6Hi9SfUzLndf5Z-
xZ9NjNGNnGZGMi8LoE3b7VMaiXMV8VXjDmw5yJqcNywD0t3uOIhFx1MHOiq6~06YBPJL

Mato, D. (2006). Diseño y validación. Obtenido de https://dialnet.unirioja.es/servlet/tesis?


codigo=43521

Meza, N. (2009). aracterísticas del fruto de tomate de árbol (Cyphomandra betaceae [Cav.] Sendtn)
basadas en la coloración del arilo, en la Zona Andina Venezolana. Obtenido de
https://dialnet.unirioja.es/servlet/articulo?codigo=3308209

Pedroza, D. (2015). Sistema de análisis estadísticos con SPSS. Obtenido de http://www.sidalc.net/cgi-


bin/wxis.exe/?
IsisScript=iicacr.xis&method=post&formato=2&cantidad=1&expresion=mfn=001885

Steel, R. (2010). Bioestadistica . Obtenido de


http://www.repositorio.cenpat-conicet.gob.ar/bitstream/handle/123456789/1206/
bioestad-steel.pdf?sequence=1

Barcelona, U. d. (2016). ANÁLISIS DE LA VARIANZA CON UN FACTOR (ANOVA). Barcelona, España.

JMP STATISTICAL DISCOVERY. (2017). ANOVA de un factor. Obtenido de


https://www.jmp.com/es_es/statistics-knowledge-portal/one-way-anova.html
MINITAB. (2019). ¿Qué es ANOVA? Obtenido de MINITAB:
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/
anova/supporting-topics/basics/what-is-anova/

Rodrigo, J. A. (Enero de 2016). ANOVA análisis de varianza para comparar múltiples medias.
Obtenido de https://www.cienciadedatos.net/documentos/19_anova

También podría gustarte