Está en la página 1de 20

UNIVERSIDAD NACIONAL AUTONOMA DE HONDURAS

CENTRO UNIVERSITARIO REGIONAL NOR-ORIENTAL


UNAH-CURNO

TAREA DE:
Análisis cuantitativo ii

TEMA:
Análisis de la varianza

PRESENTADO POR:
GERMAN DAVID RIVERA CHIRINOS
CUENTA # 20192200160

CATEDRATICA:
LIC. Noe Heriberto Owen

JUTICALPA, OLANCHO
19 de agosto de 2021
El Análisis de la Varianza (ANOVA)

Introducción:

Los modelos de ANOVA (ANalysis Of VAriance) son técnicas de Análisis Multivariante de


dependencia, que se utilizan para analizar datos procedentes de diseños con una o más variables
independientes cualitativas (medidas en escalas nominales u ordinales) y una variable
dependiente cuantitativa (medida con una escala de intervalo o de razón). En este contexto, las
variables independientes se suelen denominar factores (y sus diferentes estados posibles o valores
son niveles o tratamientos) y la variable dependiente se conoce como respuesta.

Los modelos ANOVA permiten, básicamente, comparar los valores medios que toma la variable
dependiente en J poblaciones en las que los niveles de factores son distintos, con la finalidad de
determinar si existen diferencias significativas según dichos niveles o si, por el contrario, la
respuesta en cada población es independiente de los niveles de factores. Se trata, por tanto, de un
contraste paramétrico que extiende al caso de J poblaciones el contraste de la igualdad de medias
entre dos poblaciones independientes.
Modelo de efectos fijos

En estadística, un modelo de efectos fijos es un modelo estadístico que representa las cantidades
observadas en las variables explicativas que son tratadas como si las cantidades fueran no-
aleatorias. Esto está en contraste con el Modelo de efectos aleatorios y el Modelo mixto en los
que todas o algunas de las variables explicativas son tratadas como si se derivaran de causas
aleatorias.

Modelo de efectos aleatorios

En estadística, un modelo de efectos aleatorios, también conocido como modelo de componentes


de la varianza, es una especie de modelo lineal jerárquico. Se supone que el conjunto de datos que
se analiza consiste en una jerarquía de diferentes poblaciones cuyas diferencias se refieren a esa
jerarquía.
Efecto del Tratamiento

Efecto de un tratamiento (intervención) sobre los resultados, es decir sólo atribuible al efecto de la
intervención. Los investigadores tratan de estimar el verdadero efecto del tratamiento utilizando
la diferencia entre los resultados observados en el grupo de tratamiento y el grupo control.
Prueba F o Razón F

La prueba F llevan el nombre de su estadística de prueba, F, que fue nombrado así en honor al
científico inglés Ronald Fisher. La estadística F es simplemente un cociente de dos varianzas. Las
varianzas son una medida de dispersión, es decir, qué tan dispersos están los datos con respecto a
la media. Los valores más altos representan mayor dispersión.

La varianza es el cuadrado de la desviación estándar. Para nosotros los seres humanos, las
desviaciones estándar son más fáciles de entender que las varianzas, porque están en las mismas
unidades que los datos y no en unidades elevadas al cuadrado. Sin embargo, muchos análisis en
realidad utilizan las varianzas en los cálculos.

Las estadísticas F se basan en la proporción de cuadrados medios. El término “cuadrados medios”


puede parecer confuso, pero simplemente es una estimación de la varianza de la población que
explica los grados de libertad (GL) utilizados para calcular esa estimación.

A pesar de ser una relación de varianzas, la prueba F se puede utilizar en una amplia variedad de
situaciones. Como era de esperar, la prueba F puede evaluar la igualdad de las varianzas. Sin
embargo, al cambiar las varianzas que se incluyen en la relación, la prueba F se convierte en una
prueba muy flexible. Por ejemplo, las estadísticas F y las pruebas F se pueden utilizar para evaluar
la significancia general de un modelo de regresión, para comparar el ajuste de diferentes modelos,
para probar términos de regresión específicos y para evaluar la igualdad de las medias.
Suma de los cuadrados en ANOVA

En el análisis de varianza (ANOVA), la suma total de los cuadrados ayuda a expresar la variación
total que se puede atribuir a diferentes factores. Por ejemplo, usted hace un experimento para
probar la efectividad de tres detergentes para ropa.

La suma total de los cuadrados = suma de los cuadrados del tratamiento (SST) + suma de los
cuadrados del error residual (SSE)

La suma de los cuadrados del tratamiento es la variación atribuida a, o en este caso entre, los
detergentes para ropa. La suma de los cuadrados del error residual es la variación atribuida al
error.

El convertir la suma de los cuadrados en cuadrados medios al dividir entre los grados de libertad le
permitirá comparar estas relaciones y determinar si existe una diferencia significativa debido al
detergente. Mientras mayor sea esta relación, más afectarán los tratamientos el resultado.
Analisis de la varianza

El análisis de la varianza permite contrastar la hipótesis nula de que las medias de K poblaciones (K
>2) son iguales, frente a la hipótesis alternativa de que por lo menos una de las poblaciones difiere
de las demás en cuanto a su valor esperado. El objetivo del ANOVA es comparar los diversos
valores medios para determinar si alguno de ellos difiere significativamente del resto.
¿Cómo se interpreta la tabla ANOVA?

Paso 1: Determinar si las diferencias entre las medias de los grupos son estadísticamente
significativas.

Paso 2: Examinar las medias de los grupos.

Paso 3: Comparar las medias de los grupos.

Paso 4: Determinar hasta qué punto el modelo se ajusta a sus datos.

En ANOVA y DOE, un diseño balanceado tiene un número de observaciones que es igual para
todas las combinaciones posibles de los niveles de los factores. Un diseño no balanceado tiene un
número desigual de observaciones.

Diseño balanceado

Usted tiene exactamente una observación para todas las combinaciones posibles de los niveles de
los factores para los factores A, B y C: (0, 0, 0); (0, 0, 1); (0, 1, 0); (0, 1, 1); (1, 0, 0); (1, 0, 1); (1, 1, 0);
y (1, 1, 1)
Mínima Diferencia Significativa (LSD) como método de comparación de diferencia de medias

Cuando se rechaza la hipótesis nula de no diferencia de más de dos medias (H0: m 1 = m 2 = … =


mk) en un análisis de varianza surge la pregunta acerca de cuáles pares de medias son diferentes,
puesto que el rechazo de una hipótesis nula con cuatro tratamientos (H0: m 1 = m 2 = m 3 = m 4),
podría deberse a uno o varios de los seis pares de diferencias que se pueden tener.

Diseño no balanceado

En este caso, faltaría la combinación de niveles de factor (1, 0, 0) y usted tiene dos observaciones
de la combinación (0, 1, 0). Cualquiera de estas condiciones, por sí solas, hacen que el diseño sea
no balanceado.
En un anova de dos vías se clasifica a los individuos de acuerdo a dos factores (o vías) para estudiar
simultáneamente sus efectos. En este ejemplo se harían cinco grupos de tratamiento para los
hombres y otros cinco para las mujeres, en total diez grupos; en general, si el primer factor tiene a
niveles y el segundo tiene b, se tendrán ab muestras o unidades experimentales, cada una con n
individuos o repeticiones.

El análisis de varianza de dos vías, también conocido como plan factorial con dos factores, sirve
para estudiar la relación entre una variable dependiente cuantitativa y dos variables
independientes cualitativas (factores) cada uno con varios niveles

¿Cuál es la diferencia de ANOVA en una vía y en dos vías?

El ANOVA de una vía compara tres o más niveles (condiciones) de un factor. Por otro lado, ANOVA
de dos vías compara el efecto de múltiples niveles de dos factores. En ANOVA de una vía, el
número de observaciones no tiene que ser igual en cada grupo, mientras que debe ser igual en el
caso de ANOVA de dos vías.
Análisis factorial es una técnica estadística de reducción de datos usada para explicar las
correlaciones entre las variables observadas en términos de un número menor de variables no
observadas llamadas factores.

Las variables observadas se modelan como combinaciones lineales de factores más expresiones de
error. El análisis factorial se originó en psicometría, y se usa en las ciencias del comportamiento
tales como ciencias sociales, marketing, gestión de productos, investigación operativa, y otras
ciencias aplicadas que tratan con grandes cantidades de datos.
Se dice que los dos factores que interactúan en su impacto sobre la productividad son:
El diseño cuadro latino se usa cuando se tienen tres factores a evaluar en una misma unidad
experimental, por ejemplo, la ingesta de varios niveles de suplemento alimenticio, aplicado a
vacas de diferente edad, en diferentes tiempos

¿Cuál es el objetivo del diseño cuadrado latino?

El diseño de cuadrado grecolatino puede usarse para controlar sistemáticamente tres fuentes de
variabilidad extraña, es decir, para hacer la formación de bloques en tres direcciones. El diseño
permite la investigación de cuatro factores (renglones, columnas, letras latinas y letras griegas).

Ventajas

 Provee una mejor estimación del error experimental


 Mejora la precisión
 Hace que el experimento sea más eficiente
 Controla dos fuentes de variación

Este diseño exige que la variación entre los niveles de la variable de bloqueo debe ser máxima
(significante). Estos diseños son recomendados solamente cuando el número de tratamientos está
entre cinco y doce inclusive. Con menos de cinco tratamientos los grados de libertad son
insuficientes para la estimación del error experimental. Un cuadrado latino con tres tratamientos
tiene solamente dos grados de libertad para estimar el error experimental, mientras que un diseño
con cuatro tratamientos tiene solamente seis.
Desventajas

Cuando el número de tratamientos es grande, se puede presentar un problema potencial debido a


que el requerimiento de que el número de filas y columnas debe ser igual al número de
tratamientos es más difícil de obtener. También es más probable que el supuesto de interacción
sea violado.

También podría gustarte