Está en la página 1de 7

El análisis factorial intenta identificar variables subyacentes, o factores, que

expliquen la configuración de las correlaciones dentro de un conjunto de variables


observadas.

El análisis factorial se suele utilizar en la reducción de los datos para identificar un


pequeño número de factores que explique la mayoría de la varianza observada en
un número mayor de variables manifiestas. También puede utilizarse para generar
hipótesis relacionadas con los mecanismos causales o para inspeccionar las
variables para análisis subsiguientes

Es una técnica basada en autovalores y auto vectores, pero en lugar de operar


sobre la matriz de covarianzas se opera sobre la llamada matriz de covarianzas
reducida,

S∗ = S − Ψˆ

donde Ψˆ es una matriz diagonal que contiene las estimas de ψi.

Los elementos diagonales de S∗ contiene las comunalidades estimadas (las partes


de las varianzas de cada variable explicada por los factores comunes). Al contrario

América Jauregui LINM-72 Estadística


que el análisis de componentes principales, el análisis factorial no pretende recoger
toda la varianza observada de los datos, sino la que comparten los factores
comunes.

De hecho, el análisis factorial se centra más en recoger las covarianzas o


correlaciones que aparecen entre las variables originales.

El procedimiento es iterativo: se parte de unas comunalidades estimadas a partir de


las correlaciones entre las variables observadas y luego se efectúa un análisis de
componentes principales sobre la matriz S∗

La observación de Thurstone con la que se inicia el nuevo método es que las tablas
de correlaciones son, desde el punto de vista matemático, matrices y que en su
análisis pueden aplicarse las reglas, ya conocidas, del álgebra matricial. Por
ejemplo, el número de factores distintos que implican las correlaciones de una tabla
viene indicado por la característica de la misma considerada como una matriz.

La teoría general de Thurstone afirma que las actividades de los individuos son
función de un cierto número de parámetros o atributos mensurables que intervienen
en diferente combinación y cuantía en los diversos test. El método factorial debe ser
capaz de determinarlos objetivamente. Si uno o varios de ellos son generales es
cuestión experimental y depende de lo que indiquen los hechos.

El método de Thurstone condujo al descubrimiento de un número crecido de


factores en el campo de las aptitudes y en el de la personalidad. Se le conoce por
ello con el nombre de análisis multifactorial. Es, como dije, el método más usado
actualmente.

América Jauregui LINM-72 Estadística


El test de esfericidad de Bartlett pone a prueba la hipótesis nula de que las variables
analizadas no están correlacionadas en la muestra o, dicho de otro modo, que la
matriz de correlación es la identidad (las Inter correlaciones entre las variables son
cero).

Entre los métodos gráficos habituales estarían: histograma, gráfico de la densidad


suavizada, gráfico de tallo y hojas, gráfico de la distribución empírica (o versión
suavizada) y gráficos P-P o Q-Q.

Entre los métodos de contrastes de hipótesis generales (H0: F = F0) destacarían


las pruebas: Chi-cuadrado de Pearson, Kolmogórov-Smirnov, Cramer-van Mises o
Anderson-Darling. Además de los específicos de normalidad (H0: F= N (μ, σ2)

También se le conoce como contraste de adherencia a un ajuste, o como contraste


de la c 2. La hipótesis a contrastar es el hecho (nótese que no hay valor de un
parámetro) de que la muestra proviene de una distribución determinada y planteada
de probabilidad, frente a la alternativa de que esto no es así.

Se parte de una sola muestra (lógico) normalmente en datos en forma de escala


nominal, de ahí que este test se encuentre ubicado donde los está en la tabla
resumen que antes presentamos

A través de este contraste, y partiendo de los datos muestrales, se obtiene un


criterio de decisión sobre la hipótesis de que la población de la que se ha extraído

América Jauregui LINM-72 Estadística


la muestra se distribuya (se ajuste bien, se adhiera), o no, según algún modelo
teórico determinado y planteado a priori. Así:

H0: la muestra proviene (ajusta, adhiere) a una población cuya función es


(F(x))
H1: la muestra NO proviene (ajusta, adhiere) a una población cuya función
es (F(x))

y trabajando con un determinado nivel de significación plantearíamos que si:

Las observaciones muestrales podremos considerarlas y disponerlas como una


distribución de frecuencias; frecuencias, claro está, observadas.

Existen varios métodos de rotación que podemos agrupar en dos grandes tipos:
ortogonales y oblicuos.

La correlación entre las variables puede representarse como el ángulo entre dos
vectores y específicamente vendría dada como el coseno del ángulo entre dos
vectores. Así tendremos una rotación ortogonal cuando la correlación entre factores
sea nula o lo que es lo mismo, tienen un ángulo de 90 grados entre factores; y
hablaremos de rotación oblicua cuando la correlación entre factores no sea nula y
por tanto el ángulo distinto de 90 grados.

Lo más recomendable es la rotación ortogonal, aunque en el caso de que existan


razones para pensar que los factores están correlacionados entonces utilizaremos
la rotación oblicua.

América Jauregui LINM-72 Estadística


De entre las rotaciones ortogonales la más utilizada es la varimax mientras en que
las oblicuas es la oblimin.

En la rotación oblicua las ponderaciones factoriales no coinciden con las


correlaciones entre el factor y la variable, puesto que los factores están
correlacionados entre sí.

Por eso cuando se hace rotación oblicua la matriz factorial no rotada se convierte
en dos matrices diferentes: la matriz de ponderaciones (que es la que se utiliza en
la interpretación) y la matriz de correlaciones entre factores y variables. También
obtendremos otra matriz de correlaciones entre factores.

El análisis de componentes principales (ACP) consiste en expresar un conjunto de


variables en un conjunto de combinaciones lineales de factores no correlacionados
entre sí, estos factores dando cuenta una fracción cada vez más débil de la
variabilidad de los datos. Este método permite representar los datos originales
(individuos y variables) en un espacio de dimensión inferior del espacio original,
mientras limite al máximo la pérdida de información. La representación de los datos
en espacios de dimensión débil (aquà- 2 dimensiones) le facilita considerablemente
el análisis.

América Jauregui LINM-72 Estadística


Las estimaciones de los mínimos cuadrados se calculan mediante el ajuste de una
línea de regresión a los puntos de un conjunto de datos que tiene la suma mínima
de las desviaciones elevada al cuadrado (error de mínimos cuadrados).

Es un procedimiento de análisis numérico en la que, dados un conjunto de datos


(pares ordenados y familia de funciones), se intenta determinar la función continua
que mejor se aproxime a los datos (línea de regresión o la línea de mejor ajuste),
proporcionando una demostración visual de la relación entre los puntos de los
mismos. En su forma más simple, busca minimizar la suma de cuadrados de las
diferencias ordenadas (llamadas residuos) entre los puntos generados por la
función y los correspondientes datos.

Este método se utiliza comúnmente para analizar una serie de datos que se
obtengan de algún estudio, con el fin de expresar su comportamiento de manera
lineal y así minimizar los errores de la data tomada.

Como en cualquier otro proceso de investigación, hay una serie de decisiones que
han de tomarse en el diseño de la investigación. La selección de la muestra y las
variables son especialmente relevantes para la validez de los resultados del análisis
factorial.

Respecto al tamaño de la muestra es conveniente que sea el mayor posible ya que


el análisis factorial se basa en el cálculo de correlaciones y éstas, a su vez, están
determinadas por el tamaño muestral. No obstante, a pesar de la indudable
importancia del tamaño, resultan de mayor impacto las decisiones con relación a la
composición de la muestra y a los procesos de selección muestral que aseguren,
en la medida de lo posible, la representatividad respecto a la población. Además del
problema de la no representatividad, el uso de muestras demasiado homogéneas o
sesgadas en una determinada variable producirá resultados afectados por

América Jauregui LINM-72 Estadística


atenuación debida a la restricción de rango. Si la muestra utilizada tiene un tamaño
pequeño o es escasamente representativa los resultados deben interpretarse con
precaución.

Respecto a las variables, éstas deben ser cuantitativas. Para realizar la reducción
con variables ordinales o cualitativas existen otras técnicas más apropiadas. Por
otro lado, tan importante como la escala en que están medidas las variables es la
forma de selección de estas. Si el objetivo es encontrar variables latentes, la
selección de las variables a registrar debe estar determinada por los conocimientos
teóricos del ámbito de estudio. Seleccionarlas sin esta orientación teórica, puede
llevar a estructuras factoriales artificiales y con poca o nula aplicación teórica o
aplicada. Por último, si las variables están registradas en diferentes unidades de
medida, es necesario estandarizar los datos antes de realizar el análisis factorial.

El proceso para realizar un análisis factorial consta de una serie de fases En primer
lugar, hay que abrir la base de datos que contiene las variables sobre las que se
quiere realizar el análisis factorial. A continuación, se selecciona en el menú
principal Analizar Reducción de dimensiones Factor.

América Jauregui LINM-72 Estadística

También podría gustarte