Está en la página 1de 4

Modelación Estadística

Resumen Certamen 2
Análisis de Varianza ANOVA
Es una técnica estadística tiene como objetivo ver si la variable dependiente en cada nivel de la variable independiente es igual. El
ANOVA es una extensión del t-test, que se utiliza para comparar las medias de dos grupos.
Los supuestos del ANOVA son los siguientes:
→ Homogeneidad: Se asume que las varianzas en cada grupo son aproximadamente iguales.
→ Normalidad: Se asume que las distribuciones de las variables dependientes en cada grupo son aproximadamente normales.
→ Independencia: Se asume que las observaciones dentro de cada grupo son independientes entre sí.
El modelo del ANOVA se puede escribir de la siguiente manera:
𝑌𝑖𝑖 = 𝜇 + 𝛼𝑖 + 𝜀𝑖𝑗

Donde:
𝑌𝑖𝑖 : es la observación j-ésima en el grupo i-ésimo. 𝛼𝑖 : es el efecto del grupo i-ésimo.
𝜇 : es la media general de todos los grupos. 𝜀𝑖𝑗 :es el error asociado con la observación j-ésima en el grupo i-ésimo.

Los pasos por seguir en un análisis ANOVA son los siguientes:


1) Definir las variables dependientes: Identificar la variable continua que se medirá en cada grupo y determinar si hay tres o
más grupos para comparar.
2) Seleccionar los grupos: Identificar los grupos o condiciones que se van a comparar y asegurarse de que sean mutuamente
excluyentes y exhaustivos.
3) Verificar los supuestos: Evaluar los supuestos de homogeneidad de varianzas, normalidad e independencia. Si los supuestos no
se cumplen, pueden ser necesarias transformaciones de datos o considerar alternativas al ANOVA.
4) Realizar el análisis ANOVA: Aplicar el modelo del ANOVA a los datos y calcular las estadísticas de prueba, como la F-ratio,
para determinar si existen diferencias significativas entre los grupos.
5) Interpretar los resultados: Evaluar las estadísticas de prueba y considerar el nivel de significancia elegido para determinar si
hay diferencias significativas entre los grupos. También se pueden examinar las medias y las comparaciones post hoc para
identificar cuales grupos difieren significativamente entre sí.
Las conclusiones a las que se puede llegar con un análisis ANOVA incluyen:
→ Si se encuentra una diferencia significativa entre los grupos: Significa que al menos un grupo difiere significativamente de
los demás en términos de la variable dependiente.
→ Si no se encuentra una diferencia significativa entre los grupos: Indica que no hay evidencia suficiente para concluir que
existen diferencias significativas entre los grupos en función de la variable dependiente.
Además, el ANOVA puede proporcionar información sobre el tamaño del efecto, que indica la magnitud de las diferencias observadas
entre los grupos.
Y la tabla ANOVA es:
Fuente de Variación Suma de cuadrados Grados de libertad Cuadrado medio F
𝑘
2 𝑉𝐸
Factor ( 𝑉𝐸) 𝑉𝐸 = ∑ 𝑛𝑖 ∙ (𝑦̅𝑖 − 𝑦̅)2 𝑘−1 𝑆̂𝑒 =
𝑘−1
𝑖=1
𝑘 𝑛𝑖 2
2 2 𝑉𝑁𝐸 𝑆̂𝑒
Error ( 𝑉𝑁𝐸) 𝑉𝑁𝐸 = ∑ ∑(𝑦𝑖𝑗 − 𝑦̅𝑖 ) 𝑁−𝑘 𝑆̂𝑟 = 2
𝑁−𝑘 𝑆̂𝑟
𝑖=1 𝑗=1
𝑘 𝑛𝑖
2 2 𝑉𝑇
Total ( 𝑉𝑇) 𝑉𝑇 = ∑ ∑(𝑦𝑖𝑗 − 𝑦̅) 𝑁−1 𝑆̂𝑇 =
𝑁−1
𝑖=1 𝑗=1

En resumen, el ANOVA es una técnica estadística utilizada para comparar las medias de tres o más grupos y determinar si hay
diferencias significativas entre ellos. Se basa en supuestos de homogeneidad de varianzas, normalidad e independencia. Los resultados
pueden proporcionar información sobre diferencias significativas entre grupos y comparaciones específicas entre pares de grupos.

Análisis de Varianza MANOVA


Es una técnica estadística que se utiliza para analizar simultáneamente múltiples variables dependientes continuas y determinar si
existen diferencias significativas entre los grupos en función de esas variables. A diferencia del ANOVA univariado, que sólo analiza
una variable dependiente a la vez, el MANOVA permite evaluar las relaciones entre múltiples variables dependientes y múltiples
grupos.
Los supuestos del MANOVA son similares a los del ANOVA y se dividen en tres categorías principales:
→ Supuestos de normalidad: Se asume que las variables dependientes siguen una distribución normal multivariada dentro de
cada grupo.
→ Supuestos de homogeneidad de varianzas: Se asume que las matrices de covarianza son iguales entre los grupos.
→ Supuestos de independencia: Se asume que las observaciones son independientes dentro y entre los grupos.
El modelo del MANOVA se puede escribir de la siguiente manera:
𝑌 = 𝑋×𝐵+𝜺

Donde:
𝑌: es una matriz de variables dependientes (n x p), donde n es el número de observaciones y p es el número de variables
dependientes.
𝑋: es una matriz de diseño (n x q), donde q es el número de grupos o condiciones.
𝐵: es una matriz de coeficientes (q x p) que representa los efectos de los grupos en las variables dependientes.
𝜺: es una matriz de errores (n x p) que representa la variabilidad aleatoria no explicada.
Los pasos por seguir en un análisis MANOVA son los siguientes:
1) Definir las variables dependientes: Identificar las variables continuas que se medirán en cada grupo y determinar si tienen
una relación multivariada.
2) Seleccionar los grupos: Identificar los grupos o condiciones que se compararán y asegurarse de que sean mutuamente
excluyentes y exhaustivos.
3) Verificar los supuestos: Evaluar los supuestos de normalidad, homogeneidad de varianzas e independencia. Si los supuestos no
se cumplen, pueden ser necesarias transformaciones de datos o considerar alternativas al MANOVA.
4) Realizar el análisis MANOVA: Aplicar el modelo del MANOVA a los datos y calcular las estadísticas de prueba para
determinar si hay diferencias significativas entre los grupos en función de las variables dependientes.
5) Interpretar los resultados: Evaluar las estadísticas de prueba y considerar el nivel de significancia elegido para determinar si
existen diferencias significativas entre los grupos. También se pueden examinar los efectos multivariados y las interacciones
entre variables dependientes.
Las conclusiones a las que se puede llegar con un análisis MANOVA incluyen:
→ Si se encuentra una diferencia significativa entre los grupos: Significa que al menos una de las variables dependientes
difiere significativamente entre los grupos considerados.
→ Si no se encuentra una diferencia significativa entre los grupos: Indica que no hay evidencia suficiente para concluir que
existen diferencias significativas entre los grupos en función de las variables dependientes.
→ Además, el MANOVA puede proporcionar información sobre la combinación lineal de las variables dependientes que mejor
diferencia los grupos.
En resumen, el MANOVA permite analizar simultáneamente múltiples variables dependientes continuas y determinar si existen
diferencias significativas entre los grupos en función de esas variables. Se basa en supuestos de normalidad, homogeneidad de varianzas
e independencia. Los resultados del MANOVA pueden proporcionar información sobre diferencias significativas entre grupos y patrones
multivariados entre variables dependientes.

Distribución Normal Multivariada


La distribución normal multivariada es una extensión de la distribución normal univariada a múltiples variables aleatorias. En lugar de
analizar una sola variable aleatoria, la distribución normal multivariada permite analizar simultáneamente múltiples variables aleatorias
que están correlacionadas entre sí.
En la distribución normal multivariada, las variables aleatorias se combinan en un vector aleatorio y se caracterizan por su media
vectorial y su matriz de covarianza. La forma general de la función de densidad de probabilidad de una distribución normal
multivariada es:
−1
𝑓(𝑋) = (2𝜋)−𝑘/2 ∙ |Σ|−1/2 ∙ exp [ ∙ (𝑋 − 𝜇)′ ∙ Σ −1 ∙ (𝑋 − 𝜇)]
2

Donde:
𝑋: es el vector aleatorio de variables. Σ: es la matriz de covarianza.
𝜇: es el vector de medias. 𝑘: es el número de variables aleatorias.
La distribución normal multivariada tiene varias propiedades importantes:
→ Linealidad: Cualquier combinación lineal de variables aleatorias normales multivariadas sigue siendo una distribución normal
multivariada.
→ Independencia lineal: Si las variables aleatorias son independientes, entonces también son independientes linealmente.
→ Transformaciones lineales: Si se realiza una transformación lineal de las variables aleatorias, la nueva distribución sigue
siendo una distribución normal multivariada.
→ Distribuciones marginales: Las distribuciones marginales de las variables individuales son distribuciones normales univariadas.
La distribución normal multivariada se utiliza en otras distribuciones como la distribución 𝑊𝑝 y la distribución 𝑇 2.

La distribución 𝑊𝑝 (Wilshart) se utiliza en el análisis de varianza multivariado (MANOVA) para probar la igualdad de los vectores de
medias entre grupos. La distribución 𝑊𝑝 se basa en la relación entre las matrices de covarianza y permite determinar si existen
diferencias significativas entre los grupos.
La distribución 𝑇 2 (Hotelling's T-squared) se utiliza en el análisis de componentes principales y en el análisis discriminante. La
distribución 𝑇 2se utiliza para probar la igualdad de los vectores de medias entre grupos, teniendo en cuenta tanto las diferencias en
las medias como en las covarianzas. Se basa en la relación entre las medias y las matrices de covarianza y permite determinar si
existen diferencias significativas entre los grupos.
Ambas distribuciones, 𝑊𝑝 y 𝑇 2se utilizan para realizar pruebas de hipótesis en el contexto de análisis multivariado y se basan en la
distribución normal multivariada para calcular los valores críticos y determinar la significancia estadística.
En resumen, la distribución normal multivariada es una extensión de la distribución normal univariada que permite analizar
simultáneamente múltiples variables aleatorias correlacionadas. Se utiliza en otras distribuciones como la distribución 𝑊𝑝 y la distribución
𝑇 2 para realizar pruebas de hipótesis en el análisis multivariado. La distribución normal multivariada tiene propiedades importantes como
la linealidad, la independencia y las transformaciones lineales.

Distribución Wishart 𝑾𝒑

La distribución de Wishart es una extensión al caso multivariado de la distribución 𝒳 2. Sean 𝑋1 , … , 𝑋10 iid que tienen distribución 𝑁𝑝 (0, 𝛴),
diremos que la matriz
𝑛

𝑀 = ∑ 𝑋𝑖 𝑋𝑖 ′ ~ 𝑊𝑝 (𝛴, 𝑛)
𝑖=1

Sea 𝑋 una matriz de dimensión (n x p):


𝑛 𝑋1 ′ 𝑛

𝑀 = ∑ 𝑋𝑖 𝑋𝑖 = (𝑋1 ⋯ 𝑋𝑛 ) ∙ ( ⋮ ) = 𝑋 ′ 𝑋 = (∑ 𝑋𝑖𝑗 𝑋𝑖𝑘 ′ )



⟹ 𝑀 ~ 𝑊𝑝 (𝛴, 𝑛)

𝑖=1 𝑋𝑛 𝑖=1 𝑗,𝑘 ∈{1,…,𝑝}

Si Σ = I𝑝×𝑝 diremos que la distribución es la distribución de Wishart estándar.

También podría gustarte