Está en la página 1de 9

ANÁLISIS DE VARIANZA Y COVARIANZA

El análisis de varianza y el análisis de covarianza se utilizan para examinar las diferencias entre los valores
promedio de la variable dependiente, asociadas con el efecto de las variables independientes controladas,
después de tomar en cuenta la influencia de las variables independientes no controladas. En esencia, el
análisis de varianza (ANOVA) se usa como una prueba de medias para dos o más poblaciones.

En su forma más simple, el análisis de varianza debe tener una variable dependiente que sea métrica
(medida con una escala de intervalo o de razón). También debe existir una o más variables independientes
(uso del producto: frecuente, intermedio, esporádico y no usuarios). Todas las variables independientes
deben ser categóricas (no métricas). Las variables independientes categóricas también se conocen como
factores. Una combinación particular de niveles de factores o categorías se denomina tratamiento.

Si el conjunto de variables independientes consta de variables categóricas y métricas, a la técnica se le


denomina análisis de covarianza (ANCOVA).

ANÁLISIS DE VARIANZA DE UN FACTOR

Los investigadores de mercados a menudo se interesan por examinar las diferencias en los valores
promedios de la variable dependiente de varias categorías, en una sola variable independiente o factor.
Por ejemplo:

 ¿Los diversos segmentos difieren en términos de su volumen de consumo del producto?


 ¿Varían las evaluaciones de la marca hechas por grupos expuestos a distintos comerciales?
 ¿Los vendedores al detalle, los mayoristas y los agentes tienen actitudes diferentes hacia las
políticas de distribución?
 ¿Cómo varían las intenciones que tienen los consumidores de comprar una marca según los niveles
de precio?
 ¿Qué efecto tiene la familiaridad de los consumidores con la tienda (alta, media, baja) sobre la
preferencia por la tienda?
ESTADÍSTICOS ASOCIADOS CON EL ANÁLISIS DE VARIANZA DE UN FACTOR

PROCESO DEL ANÁLISIS DE VARIANZA DE UN FACTOR

El procedimiento para realizar el análisis de varianza de un factor implica identificar las variables
dependiente e independiente, descomponer la variación total, medir los efectos, probar la significancia e
interpretar los resultados. A continuación, describimos estos pasos de manera detallada.
Identificación de las variables dependiente-independiente

La variable dependiente se simboliza con Y y la variable independiente con X. X es una variable categórica
con c categorías. Existen n observaciones de Y para cada categoría de X. Como observamos, el tamaño
de la muestra en cada categoría de X es n y el tamaño total de la muestra N = n x c. Aunque se asume que
las muestras en las categorías de X (el tamaño de los grupos) son del mismo tamaño por razones de
simplicidad, éste no es un requisito.

Descomposición de la variación total

Al examinar las diferencias entre medias, el análisis de varianza de un factor requiere de la


descomposición de la variación total observada en la variable dependiente. Esta variación se mide usando
la suma de cuadrados corregida para la media (SC). El análisis de varianza recibe su nombre porque
examina la variabilidad o variación en la muestra (variable dependiente) y, con base en la variación,
determina si hay alguna razón para creer que las medias poblacionales son diferentes.

La variación total en Y, simbolizada por SCy, se resuelve en dos componentes:

donde los subíndices entre y dentro se refieren a las categorías de X. SCentre es la variación en Y
relacionada con la variación en las medias de las categorías de X; representa la variación entre las
categorías de X. En otras palabras, SCentre es la porción de la suma de cuadrados en Y relacionada con
la variable independiente o factor X. Por esta razón, SCentre también se simboliza con SCx. SCdentro no
está explicada por X y, por lo tanto, se le conoce como SCerror. La variación total en Y se puede
descomponer de la siguiente manera:

Donde:
Medición de los efectos

Los efectos de X sobre Y se miden con SCx. Debido a que SCx está relacionada con la variación en las
medias de las categorías de X, la magnitud relativa de SCx aumenta conforme se incrementan las
diferencias entre las medias de Y en las categorías de X. La magnitud relativa de SCx también aumenta
conforme las variaciones en Y dentro de las categorías de X disminuyen. La fuerza de los efectos de X
sobre Y se miden de la siguiente manera:

El valor de n2 varía entre 0 y 1, y asume un valor de 0 cuando todas las medias de la categoría son iguales,
indicando así que X no tiene un efecto sobre Y. El valor de n2 es 1 cuando no existe variación dentro de
cada categoría de X, pero existe cierta variación entre las categorías. De esta manera, n2 es una medida
de la variación en Y que está explicada por la variable independiente X. No sólo podemos medir los
efectos de X sobre Y, sino que también podemos hacer una prueba de su significancia.

Prueba de la significancia

En el análisis de varianza de un factor, el interés reside en poner a prueba la hipótesis nula que plantea
que las medias de las categorías son iguales en la población. En otras palabras,
De acuerdo con la hipótesis nula, SCx y SCerror provienen de la misma fuente de variación. En tal caso,
el estimado de la varianza poblacional de Y se puede basar en la variación de la categoría entre o en la
variación de la categoría dentro. En otras palabras, el estimado de la varianza poblacional de Y,

La hipótesis nula se prueba con el estadístico F, con base en la proporción entre los siguientes dos
estimados:

Interpretación de los resultados

Si la hipótesis nula que plantea medias de categoría iguales no se rechaza, entonces la variable
independiente no tiene un efecto significativo sobre la variable dependiente. Por otro lado, si se rechaza
la hipótesis nula, entonces el efecto de la variable independiente es significativo. En otras palabras, el
valor promedio de la variable dependiente será diferente para distintas categorías de la variable
independiente. Una comparación de los valores promedio de las categorías indica la naturaleza del efecto
de la variable independiente.

ANÁLISIS DE VARIANZA DE N FACTORES


En la investigación de mercados, con frecuencia existe un interés por el efecto de más de un factor al
mismo tiempo. Por ejemplo:

 ¿De qué manera varían las intenciones que tienen los consumidores de comprar una marca, de
acuerdo con diferentes niveles de precios y diferentes niveles de distribución?
 ¿De qué manera interactúan los niveles de publicidad (alto, medio y bajo) con los niveles de precio
(alto, medio y bajo), para afectar las ventas de una marca?
 ¿El nivel académico (bachillerato inconcluso o menos, preparatoria terminada, algunos estudios
universitarios y licenciatura determinada) y la edad (menos de 35, 35 a 55, más de 55) afectan el
consumo de una marca?
 ¿Qué efecto tiene la familiaridad de los consumidores con una tienda departamental (alta, media y
baja) y la imagen de la tienda (positiva, neutral y negativa) sobre la preferencia por la tienda?

Para determinar este tipo de efectos, se puede emplear un análisis de varianza de n factores. Una de las
principales ventajas de esta técnica es que permite al investigador examinar interacciones entre los
factores. Las interacciones ocurren cuando los efectos de un factor sobre la variable dependiente dependen
del nivel (categoría) de los otros factores. El procedimiento para realizar un análisis de varianza de n
factores es similar al del análisis de varianza de un factor. Los estadísticos asociados con el análisis de
varianza de n factores también se definen de manera similar. Considere el caso sencillo de dos factores,
X1 y X2, con categorías c1 y c2. La variación total en este caso se parte de la siguiente manera:

La fuerza del efecto conjunto de dos factores, llamado efecto general o n2 múltiple, se mide como sigue:

La significancia del efecto general se prueba con una prueba F, de la siguiente manera:
ANÁLISIS DE COVARIANZA

Al examinar las diferencias entre las medias de la variable dependiente, relacionadas con el efecto de las
variables independientes controladas, a menudo es necesario tomar en cuenta la influencia de variables
independientes no controladas. Por ejemplo:

 Al determinar la variación de las intenciones de compra de una marca en los consumidores con
diferentes niveles de precio, es probable que se necesite tomar en cuenta la actitud hacia la marca.
 Al determinar cómo evalúan una marca distintos grupos expuestos a comerciales diferentes, es
probable que sea necesario controlar los conocimientos previos.
 Al determinar la manera en que los distintos niveles de precio afectarán el consumo de cereal de
una familia, quizá sea necesario tomar en cuenta el tamaño de ésta.

En estos casos, debería utilizarse un análisis de covarianza, el cual incluye por lo menos una variable
independiente categórica, y por lo menos una variable independiente métrica o de intervalo. A la variable
independiente categórica se le llama factor; mientras que la variable independiente métrica se conoce
como covariable. La covariable se utiliza principalmente para eliminar variaciones extrañas de la variable
dependiente, ya que los efectos de los factores son muy importantes. La variación de la variable
dependiente debido a las covariables se elimina mediante un ajuste del valor promedio de la variable
dependiente dentro de cada tratamiento. Luego se realiza un análisis de varianza con las puntuaciones
ajustadas. La significancia del efecto combinado de las covariables, así como el efecto de cada covariable,
se prueba con la prueba F adecuada. Los coeficientes de las covariables ofrecen información sobre el
efecto que ejercen éstas sobre la variable dependiente. El análisis de covarianza es más útil cuando la
covariable tiene una relación lineal con la variable dependiente y no está relacionada con los factores.
ANOVA DE MEDIDAS REPETIDAS

En la investigación de mercados, con frecuencia hay grandes diferencias en los antecedentes y las
características individuales de los participantes. Si esta fuente de variación puede separarse de los efectos
del tratamiento (efectos de la variable independiente) y del error experimental, entonces mejora la
sensibilidad del experimento. Una forma de controlar las diferencias entre sujetos consiste en observar a
cada uno de ellos bajo cada condición experimental. En este sentido, cada sujeto sirve como su propio
control. Por ejemplo, en una encuesta que busca determinar las diferencias entre las evaluaciones de varias
aerolíneas, cada encuestado evalúa todas las líneas aéreas principales. Debido a que se obtienen medidas
repetidas de cada sujeto, a este diseño se le conoce como diseño dentro de sujetos o análisis de varianza
de medidas repetidas.

ANÁLISIS DE VARIANZA NO MÉTRICO

El análisis de varianza no métrico examina la diferencia de la tendencia central de más de dos grupos
cuando la variable dependiente se mide en una escala ordinal. Uno de estos procedimientos es la prueba
de la mediana de k muestras.

Una prueba más poderosa es el análisis de varianza de un factor de Kruskal-Wallis, que es una extensión
de la prueba de Mann-Whitney. Esta prueba también examina la diferencia entre las medianas.

El análisis de varianza no métrico no es muy popular en la investigación de mercados comercial.

ANÁLISIS DE VARIANZA MULTIVARIADO

El análisis de varianza multivariado (MANOVA) es similar al análisis de varianza (ANOVA), salvo que,
en vez de manejar una variable dependiente métrica, maneja dos o más. El objetivo es el mismo: el
MANOVA también se utiliza para examinar diferencias entre grupos. Mientras que el ANOVA examina
diferencias grupales sobre una sola variable dependiente, el MANOVA examina diferencias grupales en
muchas variables dependientes de forma simultánea. En el ANOVA, la hipótesis nula plantea que las
medias de la variable dependiente son iguales en todos los grupos. En el MANOVA, la hipótesis nula
plantea que los vectores de las medias de múltiples variables dependientes son iguales en todos los grupos.
El análisis de varianza multivariado debe emplearse cuando hay dos o más variables dependientes que
están correlacionadas. Si hay múltiples variables dependientes que no están correlacionadas o son
ortogonales, es más apropiado realizar un ANOVA en cada variable dependiente que un MANOVA.

Como ejemplo, suponga que cuatro grupos, cada uno consistente de 100 individuos elegidos al azar, se
exponen a cuatro comerciales diferentes del detergente Tide. Después de observar el comercial, cada
individuo califi ca su preferencia por el Tide, su preferencia por Procter & Gamble (la compañía que vende
el Tide) y su preferencia por el comercial. Debido a que estas tres variables de preferencia están
correlacionadas, se debe realizar un análisis de varianza multivariado, para determinar cuál comercial es
el más efi caz (el que produjo la mayor preferencia entre las tres variables de preferencia).

CONCLUSIÓN

ANOVA es una técnica de examinar la diferencia entre las medias de múltiples grupos de datos para la
homogeneidad.

ANCOVA es una técnica que elimina el impacto de una o más variables indeseables de escala métrica de
la variable dependiente antes de emprender la investigación.

RECOMENDACIÓN

El ANOVA se utiliza para comparar y contrastar las medias de dos o más poblaciones y el ANCOVA se
usa para comparar una variable en dos o más poblaciones mientras se consideran otras variables.

También podría gustarte