Está en la página 1de 85

METODOS ESTADISTICOS

MULTIVARIANTES
3.- ANALISIS FACTORIAL

1
1.- OBJETIVO DEL ANALISIS FACTORIAL
El Análisis Factorial tiene como objetivo simplificar las múltiples y complejas
relaciones que pueden existir entre un conjunto de variables observadas X1,
X2,….XP.

Para ello trata de encontrar dimensiones comunes o factores que ligan o


vinculan a las aparentemente variables no relacionadas

Se trata de encontrar un conjunto de k < p factores no directamente


observables, F1, F2,……………,Fk que expliquen suficientemente a las
variables observadas perdiendo el mínimo de información de modo que:

2
En consecuencia, el Análisis Factorial es una técnica de reducción de datos
que examina la interdependencia de variables y proporciona conocimiento de
la estructura subyacente de los datos

Las relaciones entre las variables observadas X1, X2,….XP vienen dadas por su
matriz de correlaciones R, de modo que, en el análisis factorial se puede partir
de una serie de coeficientes de correlación para el conjunto de variables
observadas y, a continuación, estudiar si subyace algún patrón de relaciones
tal que los datos puedan ser reordenados a un conjunto menos de factores
que podemos considerar como variables que recogen y resumen las
interrelaciones observadas.

3
2.- Ejemplos

1.- Supongamos que hemos tomado veinte medidas antropométricas del


cuerpo de una persona: Estatura, longitud del tronco y de las extremidades,
ancho de hombros, peso, etc. Es intuitivo pensar que todas estas medidas
no son independientes entre sí, y que conocidas alguna de ellas, podemos
prever con poco error las restantes. Una explicación de este hecho es que las
dimensiones del cuerpo humano dependen de ciertos factores, y si estos
fuesen conocidos, podríamos prever las dimensiones con un cierto pequeño
error.

4
2.- Supongamos que estamos interesados en estudiar el desarrollo humano
de los países mundo, y que disponemos de muchas variables económicas,
sociales y demográficas, en general dependientes entre sí, que están
relacionadas con el desarrollo. Podemos preguntarnos si el desarrollo de un
país depende de un pequeño número de factores tales que, conocidos sus
valores, podríamos prever el conjunto de las variables de cada país.

3.- Supongamos que medimos, con distintas pruebas, la capacidad mental de


un individuo para procesar información y resolver problemas. Podemos
preguntarnos si existen unos factores, no directamente observables, que
explican los resultados observados. El conjunto de estos factores será lo que
llamamos inteligencia y es importante conocer cuántas dimensiones distintas
tiene este concepto y cómo caracterizarlas y medirlas3.-

5
Ejemplo gráfico
Como ejemplo ilustrativo, supongamos que tenemos nueve variables observables X1, X2, ……., X9
que se intentan resumir por tres factores no observables F1, F2 y F3. Analizando las relaciones entre
las variables se observa que las variables X1, X3, X4, y X6 están fuertemente correlacionadas con otra
F1 que, por lo tanto, constituirá el primer factor. De manera similar las variables X2 y X7 se agrupan
en el segundo factor F2. Las variables restantes, X5, X8 y X9 se agrupan en el tercer factor F3

6
3.- ANALISIS FACTORIAL COMPONENTES PRINCIPALES
El Análisis Factorial ( AF) está relacionado con los Componentes Principales (CP),
en cuanto a que ambos reducen la cantidad de variables, pero existen ciertas
diferencias.

En primer lugar los CP se construyen para explicar las varianzas (que expliquen
la mayor parte de la variabilidad) , mientras que el AF se construyen para las
covarianzas o correlaciones entre las variables (interrelaciones entre las
variables).

En segundo lugar, las CP son una herramienta Descriptiva, mientras que el AF


presupone un modelo estadístico formal de generación de los datos, que
requiere la formulación de hipótesis estadísticas y la aplicación de métodos de
Inferencia Estadística

7
8
4.- Modelo Estadístico del AF
El objetivo del Análisis Factorial (AF) es caracterizar las p variables en X en
términos de un número pequeño de k factores comunes F, los cuales impactan
a todas las variables, y un conjunto de errores o factores específicos ε, los
cuales afectan solo a la variable X.

Consideremos las variables observables X1, X2, X3, …….., Xp como variables
tipificadas o estandarizadas (con media cero y varianza igual a 1) y vamos a
formalizar la relación entre variables observables y factores definiendo el
modelo factorial de la siguiente forma:

9
En este modelo, F1, F2, ……, Fk son los factores comunes; e1, e2, …….., ek son los
factores únicos o factores específicos; “ljh” es el peso del factor “h” en la
variable “j”, denominado también carga factorial o saturación de la variable “j”
en el factor “h”.

Según la formulación del modelo, cada una de las “p” variables observables es
una combinación lineal de “k” factores comunes (F) a todas las variables (k < p)
y de un factor único para cada variables (e). Así entonces, todas las variables
originales están influenciadas por todos los factores comunes (F), mientras que
cada para cada variable existe un factor único que es específico para esa
variable.
Tanto los factores comunes como los específicos son variables no
observables.

10
EL MODELO ESCRITO MATRICIALMENTE

11
5.- HIPOTESIS EN EL MODELO FACTORIAL

Considera los factores comunes F1, F2, ……, Fk como variables tipificadas de
media cero y varianza igual a 1.
Los factores F1, F2, ……, Fk no están correlacionados entre sí.

De acuerdo a lo anterior, la matriz de Varianzas – Covarianzas de los factores


comunes es la Matriz Identidad (E [ FF`] = I ) y la esperanza o valor esperado
del vector de factores comunes es el vector cero (E [ F] = 0).

También se supone además que la matriz de Varianzas – Covarianzas de los


factores específicos (e), es una matriz diagonal, lo que implica que las varianzas
de los factores únicos pueden ser distintas pero que estos factores únicos están
incorrelacionados entre sí.

E[ee`] = Ω es una matriz diagonal; E [ e ] = 0

12
También se debe de tener en cuenta que para poder realizar inferencias
que permitan distinguir, para cada variable, entre los factores comunes y el
factor único, es necesario suponer que los factores comunes (F) están
incorrelacionados con el factor único. Es decir, que la matriz de varianzas-
covarianzas entre los factores comunes y los factores únicos es la matriz
cero. (E[F e` ] = 0)

13
6.- TERMINOLOGÍA DERIVADA DE LAS HIPOTESIS:

 COMUNALIDAD Y ESPECIFICIDAD
Dado que las variables X son estandarizadas, su matriz de Varianzas-
Covarianzas es igual a la matriz de Correlación poblacional R, matriz que
puede descomponerse de la forma siguiente:

14
En esta descomposición podemos observar que la varianza de “Xj” se puede
expresar como:

Tenemos la descomposición de la varianza poblacional de la Variable Xj como

15
7.- ALGUNOS METODOS DE OBTENCIÓN DE LOS FACTORES

 METODO DEL FACTOR PRINCIPAL:

Una vez obtenidos los pesos (cargas factoriales o saturaciones) del primer
factor, que es el que más contribuye a la varianza de las variables, se elimina
su influencia considerando un nuevo modelo factorial.

16
Se repite el proceso hasta obtener los pesos de todos los factores, es decir,
la matriz factorial, al menos hasta que la varianza total explicada por los
factores comunes sea igual o próxima a la suma de las Comunalidades.

17
 METODO DEL CENTROIDE
En este método se elige el primer factor de modo que pase por el centro de
gravedad (centroide) de las variables sin unicidades. Se tiene entonces el
modelo factorial

El centro de gravedad o centroide tiene coordenadas

Si exigimos que el primer factor pase por C, el centroide tendrá todas sus
componentes nulas, excepto la primera

18
 METODOS DE LAS COMPONENTES PRINCIPALES
La teoría de Componentes principales estudiada anteriormente puede
utilizarse para la obtención de los factores en el modelo factorial. Es preciso
no confundir la Teoría General de Componentes Principales, con una de sus
aplicaciones para la obtención de factores en el modelo factorial.

Recordemos que en el Análisis de Componentes Principales, ACP, se dispone


de una muestra de tamaño “n” acerca de “p” variables X1, X2, . ……., Xp
(Estandarizadas o no) inicialmente correlacionadas, para posteriormente
obtener a partir de ellas un número k < p de variables incorrelacionadas, que
sean combinación lineal de las variables iniciales y que expliquen la mayor
parte de su variabilidad.

19
Pero el sistema de ecuaciones anterior es reversible, siendo posible expresar
las variables Xj en función de las componentes principales Zj de la siguiente
manera:

La matriz de coeficientes de este segundo sistema es la matriz traspuesta de la


matriz de coeficientes del sistema anterior, pudiendo utilizarse este segundo
sistema para la estimación de los factores. El único problema que podría
presentarse es que las componentes Zj no estén estandarizadas, condición que
si se ha exigido a los factores comunes. Este problema se resuelve utilizando
componentes principales tipificadas, definidas por:

20
21
8.- ROTACIÓN DE LOS FACTORES
El trabajo en el AF persigue que los factores comunes tangan una interpretación
clara, porque de esa manera se analizan mejor las interrelaciones existentes
entre las variables originales.

Dado que lo anterior no es fácil, se idearon los procedimientos de Rotación de


Factores para que, a partir de la solución inicial, obtener unos factores que
sean más fáciles de interpretar.

En la solución inicial cada uno de los factores comunes están correlacionados


en mayor o menor medida con cada una de las variables originales. Con los
Factores Rotados, se trata que cada una de las variables originales tenga una
correlación lo más próxima a 1 que sea posible con uno de los factores
comunes y correlaciones próximas a cero con el resto de los factores.

22
De esta manera entonces, cada factor tendrá una correlación alta con un grupo
de variables y baja con el resto de variables. Examinando las características de
las variables de un grupo asociado a un determinado factor, se pueden
encontrar rasgos comunes que permitan identificar el factor y darle una
denominación que responda a esos rasgos comunes.

Si se consigue identificar claramente estos rasgos, se habrá dado un importante


paso, ya que con los factores comunes no sólo se reducirá la dimensionalidad del
problema, sino que también se conseguirá desvelar la naturaleza de las
interrelaciones existentes entre las variables originales.

23
 Formas básicas de realizar rotación de los Factores:
• Rotación Ortogonal:

Los ejes se rotan de forma que quede preservada la incorrelación entre los
factores. Los ejes rotados quedan perpendiculares entre sí.

• Rotación Oblicua:

En esta rotación los ejes no son perpendiculares y los factores yda no están
incorrelacionados, con lo cual se pierde una propiedad deseable e los factores.
Sin embargo en algunas oportunidades esta pérdida suele compensarse con
una asociación más nítida de cada una de las variables con su factor.

24
ROTACIONES ORTOGONALES
MÉTODO VARIMAX:
Este método obtiene los ejes de los “factores comunes” maximizando la
suma de las varianzas de las cargas factoriales al cuadrado de cada factor.
Maximiza la varianza de las cargas cuadradas en cada columna.

Una propiedad importante del método Varimax es que, después de aplicado,


queda inalterada, tanto la varianza total explicada por los factores, como la
comunalidad década una de las variables. La nueva matriz corresponde
también a factores ortogonales y tiende a simplificar la matriz factorial por
columnas, siendo muy adecuado cuando el número de factores es pequeño.

MÉTODO QUARTIMAX
Se hace máxima la suma de las cuartas potencias de todas las cargas
factoriales:

25
MÉTODO EQUIMAX

Intenta alcanzar una posición o balance intermedio entre los dos métodos de
rotación anteriores. En resumen, intenta alcanzar un balance entre filas y
columnas

26
METODOS ESTADISTICOS MULTIVARIANTES

3.- ANALISIS FACTORIAL


1.- OBJETIVO DEL ANALISIS FACTORIAL
El Análisis Factorial tiene como objetivo simplificar las múltiples y complejas
relaciones que pueden existir entre un conjunto de variables observadas X1,
X2,….XP.

Para ello trata de encontrar dimensiones comunes o factores que ligan o


vinculan a las aparentemente variables no relacionadas

Se trata de encontrar un conjunto de k < p factores no directamente


observables, F1, F2,……………,Fk que expliquen suficientemente a las
variables observadas perdiendo el mínimo de información de modo que:
En consecuencia, el Análisis Factorial es una técnica de reducción de datos
que examina la interdependencia de variables y proporciona conocimiento de
la estructura subyacente de los datos

Las relaciones entre las variables observadas X1, X2,….XP vienen dadas por su
matriz de correlaciones R, de modo que, en el análisis factorial se puede partir
de una serie de coeficientes de correlación para el conjunto de variables
observadas y, a continuación, estudiar si subyace algún patrón de relaciones
tal que los datos puedan ser reordenados a un conjunto menos de factores
que podemos considerar como variables que recogen y resumen las
interrelaciones observadas.
2.- Ejemplos

1.- Supongamos que hemos tomado veinte medidas antropométricas del


cuerpo de una persona: Estatura, longitud del tronco y de las extremidades,
ancho de hombros, peso, etc. Es intuitivo pensar que todas estas medidas
no son independientes entre sí, y que conocidas alguna de ellas, podemos
prever con poco error las restantes. Una explicación de este hecho es que las
dimensiones del cuerpo humano dependen de ciertos factores, y si estos
fuesen conocidos, podríamos prever las dimensiones con un cierto pequeño
error.
2.- Supongamos que estamos interesados en estudiar el desarrollo humano
de los países mundo, y que disponemos de muchas variables económicas,
sociales y demográficas, en general dependientes entre sí, que están
relacionadas con el desarrollo. Podemos preguntarnos si el desarrollo de un
país depende de un pequeño número de factores tales que, conocidos sus
valores, podríamos prever el conjunto de las variables de cada país.

3.- Supongamos que medimos, con distintas pruebas, la capacidad mental de


un individuo para procesar información y resolver problemas. Podemos
preguntarnos si existen unos factores, no directamente observables, que
explican los resultados observados. El conjunto de estos factores será lo que
llamamos inteligencia y es importante conocer cuántas dimensiones distintas
tiene este concepto y cómo caracterizarlas y medirlas3.-
Ejemplo gráfico
Como ejemplo ilustrativo, supongamos que tenemos nueve variables observables X1, X2, ……., X9
que se intentan resumir por tres factores no observables F1, F2 y F3. Analizando las relaciones entre
las variables se observa que las variables X1, X3, X4, y X6 están fuertemente correlacionadas con otra
F1 que, por lo tanto, constituirá el primer factor. De manera similar las variables X2 y X7 se agrupan
en el segundo factor F2. Las variables restantes, X5, X8 y X9 se agrupan en el tercer factor F3
3.- ANALISIS FACTORIAL COMPONENTES PRINCIPALES
El Análisis Factorial ( AF) está relacionado con los Componentes Principales (CP),
en cuanto a que ambos reducen la cantidad de variables, pero existen ciertas
diferencias.

En primer lugar los CP se construyen para explicar las varianzas (que expliquen
la mayor parte de la variabilidad) , mientras que el AF se construyen para las
covarianzas o correlaciones entre las variables (interrelaciones entre las
variables).

En segundo lugar, las CP son una herramienta Descriptiva, mientras que el AF


presupone un modelo estadístico formal de generación de los datos, que
requiere la formulación de hipótesis estadísticas y la aplicación de métodos de
Inferencia Estadística
4.- Modelo Estadístico del AF
El objetivo del Análisis Factorial (AF) es caracterizar las p variables en X en
términos de un número pequeño de k factores comunes F, los cuales impactan
a todas las variables, y un conjunto de errores o factores específicos ε, los
cuales afectan solo a la variable X.

Consideremos las variables observables X1, X2, X3, …….., Xp como variables
tipificadas o estandarizadas (con media cero y varianza igual a 1) y vamos a
formalizar la relación entre variables observables y factores definiendo el
modelo factorial de la siguiente forma:
En este modelo, F1, F2, ……, Fk son los factores comunes; e1, e2, …….., ek son los
factores únicos o factores específicos; “ljh” es el peso del factor “h” en la
variable “j”, denominado también carga factorial o saturación de la variable “j”
en el factor “h”.

Según la formulación del modelo, cada una de las “p” variables observables es
una combinación lineal de “k” factores comunes (F) a todas las variables (k < p)
y de un factor único para cada variables (e). Así entonces, todas las variables
originales están influenciadas por todos los factores comunes (F), mientras que
cada para cada variable existe un factor único que es específico para esa
variable.
Tanto los factores comunes como los específicos son variables no
observables.
EL MODELO ESCRITO MATRICIALMENTE
5.- HIPOTESIS EN EL MODELO FACTORIAL

Considera los factores comunes F1, F2, ……, Fk como variables tipificadas de
media cero y varianza igual a 1.
Los factores F1, F2, ……, Fk no están correlacionados entre sí.

De acuerdo a lo anterior, la matriz de Varianzas – Covarianzas de los factores


comunes es la Matriz Identidad (E [ FF`] = I ) y la esperanza o valor esperado
del vector de factores comunes es el vector cero (E [ F] = 0).

También se supone además que la matriz de Varianzas – Covarianzas de los


factores específicos (e), es una matriz diagonal, lo que implica que las varianzas
de los factores únicos pueden ser distintas pero que estos factores únicos están
incorrelacionados entre sí.

E[ee`] = Ω es una matriz diagonal; E [ e ] = 0


También se debe de tener en cuenta que para poder realizar inferencias
que permitan distinguir, para cada variable, entre los factores comunes y el
factor único, es necesario suponer que los factores comunes (F) están
incorrelacionados con el factor único. Es decir, que la matriz de varianzas-
covarianzas entre los factores comunes y los factores únicos es la matriz
cero. (E[F e` ] = 0)
6.- TERMINOLOGÍA DERIVADA DE LAS HIPOTESIS:

 COMUNALIDAD Y ESPECIFICIDAD
Dado que las variables X son estandarizadas, su matriz de Varianzas-
Covarianzas es igual a la matriz de Correlación poblacional R, matriz que
puede descomponerse de la forma siguiente:
En esta descomposición podemos observar que la varianza de “Xj” se puede
expresar como:

Tenemos la descomposición de la varianza poblacional de la Variable Xj como


7.- ALGUNOS METODOS DE OBTENCIÓN DE LOS FACTORES

 METODO DEL FACTOR PRINCIPAL:

Una vez obtenidos los pesos (cargas factoriales o saturaciones) del primer
factor, que es el que más contribuye a la varianza de las variables, se elimina
su influencia considerando un nuevo modelo factorial.
Se repite el proceso hasta obtener los pesos de todos los factores, es decir,
la matriz factorial, al menos hasta que la varianza total explicada por los
factores comunes sea igual o próxima a la suma de las Comunalidades.
 METODO DEL CENTROIDE
En este método se elige el primer factor de modo que pase por el centro de
gravedad (centroide) de las variables sin unicidades. Se tiene entonces el
modelo factorial

El centro de gravedad o centroide tiene coordenadas

Si exigimos que el primer factor pase por C, el centroide tendrá todas sus
componentes nulas, excepto la primera
 METODOS DE LAS COMPONENTES PRINCIPALES
La teoría de Componentes principales estudiada anteriormente puede
utilizarse para la obtención de los factores en el modelo factorial. Es preciso
no confundir la Teoría General de Componentes Principales, con una de sus
aplicaciones para la obtención de factores en el modelo factorial.

Recordemos que en el Análisis de Componentes Principales, ACP, se dispone


de una muestra de tamaño “n” acerca de “p” variables X1, X2, . ……., Xp
(Estandarizadas o no) inicialmente correlacionadas, para posteriormente
obtener a partir de ellas un número k < p de variables incorrelacionadas, que
sean combinación lineal de las variables iniciales y que expliquen la mayor
parte de su variabilidad.
Pero el sistema de ecuaciones anterior es reversible, siendo posible expresar
las variables Xj en función de las componentes principales Zj de la siguiente
manera:

La matriz de coeficientes de este segundo sistema es la matriz traspuesta de la


matriz de coeficientes del sistema anterior, pudiendo utilizarse este segundo
sistema para la estimación de los factores. El único problema que podría
presentarse es que las componentes Zj no estén estandarizadas, condición que
si se ha exigido a los factores comunes. Este problema se resuelve utilizando
componentes principales tipificadas, definidas por:
8.- ROTACIÓN DE LOS FACTORES
El trabajo en el AF persigue que los factores comunes tangan una interpretación
clara, porque de esa manera se analizan mejor las interrelaciones existentes
entre las variables originales.

Dado que lo anterior no es fácil, se idearon los procedimientos de Rotación de


Factores para que, a partir de la solución inicial, obtener unos factores que
sean más fáciles de interpretar.

En la solución inicial cada uno de los factores comunes están correlacionados


en mayor o menor medida con cada una de las variables originales. Con los
Factores Rotados, se trata que cada una de las variables originales tenga una
correlación lo más próxima a 1 que sea posible con uno de los factores
comunes y correlaciones próximas a cero con el resto de los factores.
De esta manera entonces, cada factor tendrá una correlación alta con un grupo
de variables y baja con el resto de variables. Examinando las características de
las variables de un grupo asociado a un determinado factor, se pueden
encontrar rasgos comunes que permitan identificar el factor y darle una
denominación que responda a esos rasgos comunes.

Si se consigue identificar claramente estos rasgos, se habrá dado un importante


paso, ya que con los factores comunes no sólo se reducirá la dimensionalidad del
problema, sino que también se conseguirá desvelar la naturaleza de las
interrelaciones existentes entre las variables originales.
 Formas básicas de realizar rotación de los Factores:
• Rotación Ortogonal:

Los ejes se rotan de forma que quede preservada la incorrelación entre los
factores. Los ejes rotados quedan perpendiculares entre sí.

• Rotación Oblicua:

En esta rotación los ejes no son perpendiculares y los factores yda no están
incorrelacionados, con lo cual se pierde una propiedad deseable e los factores.
Sin embargo en algunas oportunidades esta pérdida suele compensarse con
una asociación más nítida de cada una de las variables con su factor.
ROTACIONES ORTOGONALES
MÉTODO VARIMAX:
Este método obtiene los ejes de los “factores comunes” maximizando la
suma de las varianzas de las cargas factoriales al cuadrado de cada factor.
Maximiza la varianza de las cargas cuadradas en cada columna.

Una propiedad importante del método Varimax es que, después de aplicado,


queda inalterada, tanto la varianza total explicada por los factores, como la
comunalidad década una de las variables. La nueva matriz corresponde
también a factores ortogonales y tiende a simplificar la matriz factorial por
columnas, siendo muy adecuado cuando el número de factores es pequeño.

MÉTODO QUARTIMAX
Se hace máxima la suma de las cuartas potencias de todas las cargas
factoriales:
MÉTODO EQUIMAX

Intenta alcanzar una posición o balance intermedio entre los dos métodos de
rotación anteriores. En resumen, intenta alcanzar un balance entre filas y
columnas
DESARROLLO DE UN EJEMPLO DE “ANALISIS FACTORIAL”,
usando Statgraphics Centurión.
Copie los datos de la planilla Excel en una hoja de Statgraphics Centurión.

Según lo indicado anteriormente, es necesario hacer un análisis previo que


pueda detectar la presencia de valores anómalos o atípicos. Para ello usaremos
el siguiente procedimiento en Statgraphics centurión
El grafico de la Matriz de Dispersión con todos los datos completos es:

Podemos observar que todas las variables presentan datos atípicos, y bastante
severos, con tendencia a valores altos.
La matriz de correlaciones de las variables de entrada es

Correlación , (tamaño de la muestra) , Valor-P: Entrega la significancia estadística,


que pone en números rojos cuando es significativa.
Para realizar un análisis de datos multivariados, bajo metodología Análisis
Factorial, utilizando Statgraphics Centurión, proceda de la siguiente manera:

Puede dejar vacía la ventana (Etiquetas de Puntos), que es una variable cualitativa.
En este caso se colocó en esta ventana la variable “Lithology”. Entonces el análisis
se hará además para todos los niveles de dicha variable categórica.

El presente análisis se hará trabajando con los datos originales. Se dejará como
trabajo de práctica y ejercitación, el rehacer el trabajo en AF eliminando los valores
atípicos de las distintas variables cuantitativas.
Explicación de las ventanas del panel desplegado
Una vez completado el cuadro de diálogo anterior y pulsado “Aceptar” (Enter),
aparecerá el siguiente cuadro de diálogo que a continuación se explica.
Existen también dos botones que acceden a cajas de dialogo adicionales
Botón de Estimación
Cuando en el cuadro de dialogo inicial anterior, se pulsa el “Botón Estimación”, se
accede a:
Estos campos controlan las iteraciones utilizadas en:
Resumen del Análisis: Análisis de Factores.
Pareciera entonces que sería conveniente utilizar el criterio extraer factores, que para
este caso serian tres o bien que el autovalor mínimo sea igual a 0,95. Apliquemos
entonces este criterio. Pulsar lado derecho del mouse y en la ventana de diálogo
seleccionar los que usted decida.
Entonces ahora aproximadamente 2/3 de la varianza es explicado por tres
factores. Por lo tanto las 8 variables las podemos agrupar en estos tres factores

Matriz de Cargas Antes de Rotar


Matriz de Cargas del Factor Después Rotación Varimax
GRAFICAS bidimensionales DE CARGAS DE LOS FACTORES
Diagramas o Gráficos de dispersión:

Es usual examinar algunos puntos que están lejos de otros, los cuales tiene un
valor pequeño para el primer factor (-0,054) y muy grande para el segundo factor
(11,025).
Estando desplegado el gráfico y en “opciones de ventana” tomando la opción
“Seleccionar”, en la parte superior de los íconos se muestra un número que donde se
ubica el dato en la Base de Datos. En este caso es el individuo 34.
Una variación interesante de este gráfico es ubicar los puntajes de los individuos
entregados por dos factores comunes (bigráfica) , de acuerdo a otra columna
cualitativa, que en este caso puede ser “Litología” o la “Alteración”.

Este gráfico nos dice que el Factor Común 1, separa muy bien los “Tufo Dacítico” debido
a que quedan a un mismo lado de él (lado izquierdo)
Para producir la gráfica anterior, usted debe:
Otros gráficos posibles de obtener. COMENTAR lo que presentan

También podría gustarte