Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Temas Multivariante
Los mŽtodos de an‡lisis multivariante son tŽcnicas estad’sticas que se utilizan para
analizar simult‡neamente mœltiples variables y sus relaciones en conjuntos de datos
complejos. Estos mŽtodos pueden clasificarse segœn varios criterios:
1. Objetivo del mŽtodo: Los mŽtodos de an‡lisis multivariante pueden tener diferentes
objetivos, como reducci—n de dimensiones (por ejemplo, An‡lisis de Componentes
Principales), clasificaci—n (por ejemplo, An‡lisis de Discriminante), asociaci—n (por
ejemplo, An‡lisis de Correspondencias), etc.
ANOVA, o An‡lisis de Varianza, es una tŽcnica estad’stica utilizada para comparar las
medias de tres o m‡s grupos o poblaciones diferentes para determinar si existen
diferencias significativas entre ellas. El prop—sito principal del ANOVA es determinar si
las diferencias observadas en las muestras son el resultado de variaciones reales en
las poblaciones o si simplemente son el resultado del azar.
1. Modelo de efectos fijos: se considera que las categor’as o niveles de las variables
independientes son fijas y espec’ficas. Esto significa que se asume que las diferencias
entre estos niveles son constantes y no aleatorias. Por ejemplo, en un estudio sobre el
rendimiento acadŽmico, los efectos fijos podr’an representar las diferencias entre
diferentes escuelas espec’ficas.
La elecci—n entre estos tres enfoques depende de la naturaleza de los datos y las
preguntas de investigaci—n.
1. Normalidad de las medias muŽstrales: Se supone que las medias siguen una
distribuci—n normal. Si las medias no se ajustan a una distribuci—n normal, los
resultados del ANOVA pueden no ser v‡lidos.
los valores p asociados son 0.5613, 0.1738 y 0.4958 respectivamente. Estos valores p son
relativamente altos, lo que sugiere que no hay evidencia suficiente para rechazar la
hip—tesis nula de que los datos siguen una distribuci—n normal en estos grupos.
Shapiro.test(ANOVA$residual)
¥ Df representa los grados de libertad, que en este caso son 2. Esto se debe a que
est‡s comparando las varianzas entre dos grupos.
¥ F value es el estad’stico de prueba de Levene. Este valor es utilizado para evaluar
si las varianzas son homogŽneas entre los grupos. Cuanto m‡s cercano a 1 sea este valor,
m‡s homogŽneas son las varianzas.
¥ Pr (>F) es el valor p asociado a la prueba de Levene. Representa la probabilidad de
observar las diferencias en las varianzas entre los grupos si las varianzas son
homogŽneas. En este caso, el valor p es 0.5276, lo que indica que no hay evidencia
suficiente para rechazar la hip—tesis nula de que las varianzas son homogŽneas entre los
grupos = no encontr— evidencia de diferencias significativas en las varianzas.
¥ SCT (Suma de Cuadrados Total) representa la variabilidad total en los datos. SCT
refleja cu‡nto var’an todos los valores en el conjunto de datos sin importar en
quŽ grupo o categor’a se encuentren.
¥ SCR (Suma de Cuadrados del Error) representa la variabilidad debida a las
diferencias dentro de los grupos ( Intra grupos). SCF refleja cu‡nto var’an los
grupos entre s’. RESIDUOS
¥ SCF (Suma de Cuadrados de los Factores) representa la variabilidad debida a las
diferencias entre los grupos (intergrupo).
El valor F (F = 5.1965) es el estad’stico del ANOVA que sugiere una mayor variabilidad entre los
grupos en comparaci—n con la variabilidad dentro de los grupos. Intergrupos > Intragrupos
P-value: El valor p (p-value = 0.008451) es menor que 0.01, lo que indica que existe una diferencia
significativa entre los grupos en tŽrminos de valoraciones. En otras palabras, hay evidencia
estad’stica de que al menos uno de los grupos de ÒenvasesÓ es diferente en tŽrminos de las
valoraciones.
1. Contraste ANOVA:
- Aplicaci—n: El ANOVA se utiliza cuando se desean comparar las medias de m‡s de
dos grupos. Genera un valor p bajo (< 0.05) indica que al menos un grupo es
significativamente diferente de los dem‡s.
1. Especificar el tama–o del efecto (ES, Effect Size): Debes determinar el tama–o del
efecto que deseas detectar. El tama–o del efecto se expresa en tŽrminos de la
diferencia entre los grupos o la magnitud de la relaci—n que est‡s tratando de
identificar.
Las pruebas de bonferroni, holm y DMS realizan comparaciones por pares entre los grupos. Los valores en la tabla (0.3375,0.2250 y
0,1125) indican la signiÞcancia de las diferencias entre los niveles.
TukeyHSD es una comparaci—n de medias entre los niveles de la variable ÒenvaseÓ a partir de un an‡lisis de varianza (ANOVA). La comparaci—n
entre ÒE2Ó y ÒE1Ó tiene una diferencia media estimada de -0.85, un intervalo de conÞanza desde -2.12 hasta 0.42, y un p-valor ajustado de 0.25. Un
p-valor menor a un nivel de signiÞcancia (0.05 t’picamente) indica una diferencia signiÞcativa entre esos grupos.
El An‡lisis de Varianza de dos factores, o ANOVA de dos factores, es una tŽcnica estad’stica
utilizada para analizar la influencia de dos variables categ—ricas (tambiŽn llamadas factores)
en una variable continua. Es una extensi—n del ANOVA de una v’a, que se utiliza cuando se
tienen dos factores que podr’an estar contribuyendo al resultado de la variable dependiente.
INTERACCIîN NO SIGNIFICATIVA
Cuando las l’neas en los gr‡ficos de perfil son aproximadamente paralelas, significa
que los efectos de un factor no cambian de manera significativa a medida que el otro
factor var’a. En otras palabras, el impacto de un factor en la variable de respuesta es
constante o uniforme a travŽs de los niveles del otro factor.
INTERACCIîN SIGNIFICATIVA
Una vez que los datos est‡n tipificados y centrados, puedes realizar el an‡lisis de
componentes principales con mayor confianza, ya que los efectos de las diferencias de
escala y sesgos en la media se han eliminado.
¥ Naturaleza de los datos: Si las unidades de medida de las variables son diferentes y deseas comparar su
impacto relativo, la tipiÞcaci—n puede ser œtil. Si est‡s interesado en la interpretaci—n relativa a una media comœn,
centrar los datos podr’a ser preferible.
¥ Objetivos del an‡lisis: Si buscas comparar grupos o estudiar efectos relativos, el centrado puede ser œtil. Si
buscas evaluar la relaci—n relativa entre variables o ajustar modelos, la tipiÞcaci—n podr’a ser m‡s adecuada.
Calcular las matrices de covarianza y correlaci—n es esencial en PCA para estandarizar los
datos, identificar la estructura de covarianza, entender la varianza explicada y asegurar una
interpretaci—n adecuada de los componentes principales.
Si trabajamos con datos tipificados todas las variables tienen la misma importancia en
el an‡lisis) hay que cambiar en las f—rmulas la matriz de covarianzas S por la matriz
de correlaciones R