Está en la página 1de 46

ANÁLISIS FACTORIAL

CON IBM SPSS

Dr. Carlos Risco Dávila


crisco@unitru.edu.pe
ANÁLISIS FACTORIAL
El análisis factorial intenta identificar variables subyacentes, o
factores, que expliquen la configuración de las correlaciones
dentro de un conjunto de variables observadas. El análisis
factorial se suele utilizar en la reducción de los datos para
identificar un pequeño número de factores que explique la
mayoría de la varianza observada en un número mayor de
variables manifiestas. También puede utilizarse para generar
hipótesis relacionadas con los mecanismos causales o para
inspeccionar las variables para análisis subsiguientes (por
ejemplo, para identificar la colinealidad antes de realizar un
análisis de regresión lineal).
Ejemplo. ¿Qué actitudes subyacentes hacen que las personas
respondan a las preguntas de una encuesta política de la manera
en que lo hacen? Examinando las correlaciones entre los
elementos de la encuesta se deduce que hay una superposición
significativa entre los diversos subgrupos de elementos (las
preguntas sobre los impuestos tienden a estar correlacionadas
entre sí, las preguntas sobre temas militares también están
correlacionadas entre sí, y así sucesivamente). Con el análisis
factorial, se puede investigar el número de factores subyacentes
y, en muchos casos, se puede identificar lo que los factores
representan conceptualmente. Adicionalmente, se pueden
calcular las puntuaciones factoriales para cada encuestado, que
pueden utilizarse en análisis subsiguientes. Por ejemplo, es
posible construir un modelo de regresión logística para predecir
el comportamiento de voto basándose en las puntuaciones
factoriales.
MODELO
El modelo básico del Análisis factorial se puede poner de la
forma:

Así cada una de las p variables observadas se escribe linealmente


en términos de q (generalmente menor que p) factores comunes,
porque influyen en todas las variables, y un factor único, porque
influye exclusivamente en la variables zj (j=1,…, p); los factores
comunes explican las correlaciones entre las variables, mientras
que cada factor único explica la varianza restante, incluyendo el
error de esa variable.
Frecuentemente se denomina carga o saturación a los coeficientes
de los factores. Los factores y los coeficientes son parámetros
poblacionales y solamente se pueden inferir a partir de datos
observados.
Cuando los factores comunes están incorrelacionados, la varianza
de cada zj estaría dada por:

De aquí que las constantes aji, las cargas, representan las


proporciones de la varianza unidad de zj de cada valor
respectivo.
Por lo tanto, la varianza de cada una de las variables analizadas
puede descomponerse en dos partes: una, la comunalidad , que
representa la varianza explicada por los factores comunes y otra,
la especificidad , que representa la parte de la varianza específica
de cada variable.
PASOS

Fase de cálculo:

Se ordena calcular la matriz de correlaciones entre todas


las variables, partir de la matriz de datos originales y, una
vez hallada, se examina con detenimiento.
Mediante otro mandato, se extraen los factores
necesarios para representar los datos.
Seguidamente se hace que los factores roten, con objeto
de facilitar su interpretación. Para una visión más rápida e
intuitiva se exige una representación gráfica.
Se calculan las puntuaciones factoriales para cada
observación, que pueden utilizarse en cálculos posteriores.
1. EXAMEN DE LA MATRIZ DE CORRELACIONES

Uno de los requisitos que se deben cumplir para


realizar un Análisis de factorial es que las
correlaciones sean altas. Además de la matriz, se
nos proporciona el grado de significación de cada
una de estas correlaciones. El p-valor
(significación) debe ser menor que α = 0.01, 0.05
por ejemplo.

1. El determinante de la matriz de correlación.


El determinante de la matriz de correlación es un
indicador del grado de las incorrelaciones. Un
determinante muy bajo indica que las correlaciones
son muy altas.
2. Test de Esfericidad de Bartlett.
Es Test de Esfericidad de Bartlett se utiliza para someter a
comprobación la hipótesis de que la matriz de correlaciones es
la matriz identidad (Ho: R = I) ó ІRІ =1. Si una matriz de
correlaciones es la matriz identidad significa que las
intercorrelaciones entre las variables son cero, que indicará que
el modelo factorial es inadecuado.
La expresión matemática de la prueba de Bartlett es:

Donde:
n es el número de individuos de la muestra y p el de variables
que entran a formar parte de la matriz de correlaciones.
3. El índice de KMO de Kaiser-Meyer-Olkin
La medida de la adecuación de la muestra de KMO, de
Kaiser-Meyer-Olkin, es un índice para comparar las
magnitudes de los coeficientes de correlación observados
con las magnitudes de los coeficientes de correlación
parcial. Contrasta si las correlaciones parciales entre las
variables son pequeñas.
Se calcula a través de la fórmula:

Donde rij es el coeficiente de correlación entre las


variables i y j, sij es el coeficiente de correlación parcial
entre las variables i y j.
Kaiser da un baremo de evaluación de KMO:

0.90 < KMO ≤ 1 Muy bueno


0.80 < KMO ≤ 0.90 Satisfactorio
0.70 < KMO ≤ 0.80 Mediano
0.60 < KMO ≤ 0.70 Mediocre
0.50 < KMO ≤ 0.60 Bajo
KMO ≤ 0.50 Inaceptable
4. Correlación anti-imagen.
La matriz de correlaciones anti-imagen contiene los
negativos de los coeficientes de correlación parcial y la
matriz de covarianza anti-imagen contiene los negativos
de las covarianzas parciales. En un buen modelo factorial
la mayoría de los elementos no diagonales deben ser
pequeños. En la diagonal de la matriz de correlaciones
anti-imagen se muestra la medida de adecuación
muestral para esa variable, los valores han de ser cuanto
más alto mejor.
5. Medida de Adecuación de la Muestra (MSA).
Una medida de la adecuación de la muestra se puede
calcular cada variable de forma similar al KMO. En esta
prueba solo se incluyen los coeficientes correspondientes
a la variable que se desea comprobar.
La expresión para calcularlo es la siguiente:

Si MSA es bajo, se desaconseja un análisis factorial. Si los


MSA se dan solo en unas cuantas variables, se podría
plantear la posibilidad de eliminarlas.
En el paquete estadístico SPSS, el índice MSA queda
reflejado en la diagonal principal de la matriz de
correlaciones anti-imagen.
6. Correlación múltiple.
El coeficiente de correlación múltiple entre cada una de
las variables y todas las demás es un buen indicador del
grado de correlación; es decir, la asociación lineal entre
las variables. Las variables que representan un
coeficiente de correlación múltiple bajo se podrían
eliminar del análisis.
El coeficiente de correlación múltiple coincide con la
comunalidad inicial cuando el método de extracción de
factores no es el de Componentes principales.
2. MÉTODO DE EXTRACCIÓN DE FACTORES

El objetivo del Análisis factorial, como ya hemos dicho,


consiste en determinar un número reducido de
factores que puedan representar a las variables
originales. Existen diversos métodos para extraer
dichos factores, cada uno de ellos con sus ventajas y
sus inconvenientes. Los métodos disponibles son:
Componentes principales, Mínimos cuadrados no
ponderados, Mínimos cuadrados generalizados,
Máxima verosimilitud, factorización de Ejes principales,
factorización Alfa y factorización Imagen.
Análisis de componentes principales.

Método para la extracción de factores utilizada para


formar combinaciones lineales independientes de las
variables observadas. La primera componente tiene la
varianza máxima. Las componentes sucesivas explican
progresivamente proporciones menores de la varianza y
no están correlacionadas las unas con las otras. El
análisis de componentes principales se utiliza para
obtener la solución factorial inicial. Puede utilizarse
cuando una matriz de correlaciones es singular.
3. MATRIZ FACTORIAL O DE COMPONENTES

Una vez que se extraen los factores aparece la matriz


factorial, que da laos coeficientes que tiene cada
variable en cada factor, las cargas de cada variable en
cada factor. Y éstas indican el peso que cada variable
asigna a cada factor. Cuando las variables tienen
cargas altas en un factor significa que están asociadas
a él. Cuando hay variables con ponderaciones altas en
un factor y bajas en todas las demás se dice que están
saturadas en ese factor. Un análisis factorial cobra
sentido cuando todas las variables están saturadas en
algún factor; es decir, tienen ponderaciones altas en
un factor y baja en todas las demás.
4. VALORES PROPIOS
Se calculan haciendo la suma de los cuadrados de los
coeficientes de cada factor, es decir, la suma de los
cuadrados de todos los números que aparecen en
cada columna de la matriz factorial.
Esta suma de cuadrados de cada columna es una
medida de la varianza de la matriz R que viene
explicada por ese factor.

5. COMUNALIDADES
Se denomina comunalidad a la proporción de varianza
explicada por los factores comunes. Parte de varianza
de cada variable observada debida a los factores
comunes.
6. DETERMINACIÓN DEL NÚMERO DE
FACTORES

Regla de Kaiser. Consiste en calcular los valores


propios de la matriz de correlaciones R y tomar como
número de factores el número de valores propios
superiores a la unidad.

Gráfico de sedimentación. Gráfico de la varianza


asociada a cada factor. Se utiliza para determinar
cuántos factores deben retenerse. Típicamente el
gráfico muestra la clara ruptura entre la pronunciada
pendiente de los factores más importantes y el
descenso gradual de los restantes (los sedimentos).
7. BONDAD DE AJUSTE

Evaluación de los residuales entre cada par de


variables. Las magnitudes de los residuales indican lo
bien que se ajusta el modelo a los datos. La valoración
de estos resultados es difícil de interpretar, puesto que
no existe indicaciones claras sobre el porcentaje
máximo permitido de residuales superiores a 0.05 por
considerar que el modelo se ajusta a los datos.
8. ROTACIONES FACTORIALES

El objetivo de la rotación factorial consiste en obtener una


nueva matriz que sea más fácilmente interpretable. Una
forma de conseguirlo es intentando aproximarla al principio
de estructura simple. Según este principio, la matriz factorial
debe reunir las siguientes características:
Cada factor debe tener unas cargas altas y las otras
próximas a cero.
Cada variable no debe estar saturada más que a un factor;
No deben existir factores con la misma distribución; es decir,
dos factores distintos deben presentar distribuciones
diferentes de cargas altas y bajas.
El SPSS permite seleccionar el método de rotación factorial.
Los métodos disponibles son: varimax, equamax, quartimax,
oblimin directo y promax.
Método Varimax.

Método de rotación ortogonal que minimiza el número de


variables que tienen saturaciones altas en cada factor.
Simplifica la interpretación de los factores.

Criterio Oblimin directo.

Método para la rotación oblicua (no ortogonal). Cuando


delta es igual a cero (el valor por defecto) las soluciones
son las más oblicuas. A medida que delta se va haciendo
más negativo, los factores son menos oblicuos. Para
anular el valor por defecto 0 para delta, introduzca un
número menor o igual que 0,8.
Método Quartimax.

Método de rotación que minimiza el número de factores


necesarios para explicar cada variable. Simplifica la
interpretación de las variables observadas.

Método Ecuamax.

Método de rotación que es combinación del método


varimax, que simplifica los factores, y el método
quartimax, que simplifica las variables. Se minimiza tanto
el número de variables que saturan alto en un factor
como el número de factores necesarios para explicar una
variable.
Método Promax.

Rotación oblicua que permite que los factores estén


correlacionados. Esta rotación se puede calcular más
rápidamente que una rotación oblimin directa, por lo
que es útil para conjuntos de datos grandes.
9. MATRIZ DE TRANSFORMACIÓN FACTORIAL

La matriz de transformación factorial es aquella que


multiplicada por la matriz factorial produce la matriz factorial
rotada.

10. INTERPRETACIÓN DE LOS FACTORES


A efectos prácticos, en la interpretación de los factores
se pueden sugerir los dos pasos siguientes:
Estudiar la composición de las cargas factoriales
significativas de cada factor,
Intentar dar un nombre a los factores. El nombre debe
asignarse de acuerdo con la estructura de sus
saturaciones; es decir, conociendo su contenido.
11. PUNTUACIONES FACTORIALES

Las puntuaciones factoriales permiten determinar en


qué medida los factores se dan en los individuos. La
puntuación factorial individual es la puntuación que el
individuo i habría obtenido en la variable j. El SPSS
permite seleccionar uno de los siguientes métodos
alternativos para calcular las puntuaciones factoriales:
Regresión, Bartlett o Anderson-Rubin.
12. VALIDACIÓN DEL MODELO

El último paso en el Análisis factorial es estudiar la


validez del modelo. Dicha validación debe hacerse en
dos direcciones: analizando la bondad de ajuste del
mismo y la generalidad de sus conclusiones.
A fin de determinar el ajuste del modelo, pueden
estudiarse las diferencias entre las correlaciones
observadas (como se dan en la matriz de correlación de
entrada) y las correlaciones reproducidas (como se
estiman a partir de la matriz factorial). Estas diferencias
se conocen como residuos. Si el modelo factorial es
adecuado, entonces estos residuos deben ser
pequeños. Se sabe, además, que hay más estabilidad
en los resultados si el número de casos por variable es
alto.
ANÁLISIS FACTORIAL CON IBM SPSS
Statistics 26
Es necesario cargar el archivo de nombre MUNDO
mediante Archivo  Datos. Este archivo contiene
indicadores económicos, demográficos, sanitarios y
de otros tipos para diversos países del Mundo. Para
realizar un análisis factorial, elija en los menús
ANALIZAR REDUCCIÓN DE DATOS  ANÁLISIS
FACTORIAL (Figura 01) y seleccione las variables y las
especificaciones para el análisis (Figura 02).
Figura 01

Figura 02
El botón Descriptivos de la Figura 02 nos lleva a la
pantalla de la Figura 03 en la que se establecen los
estadísticos mas relevantes relativos a las variables
que ofrecerá el análisis.

Figura 03
El botón Extracción de la Figura 02 nos lleva a la
pantalla de la Figura 04 cuyo cuadro Método permite
especificar el método de extracción factorial;
además tenemos el cuadro Analizar , visualizar y
extraer.

Figura 04
El botón Rotación de la Figura 02 nos lleva a la
pantalla de la Figura 05 cuyo cuadro Método permite
seleccionar el método de rotación factorial y cuadro
visualización.

Figura 05
El botón Puntuaciones de la Figura 02 nos lleva a la
pantalla de la Figura 06 cuyo botón Guardar como
variables crea una nueva variable para cada factor en
la solución final que contiene las puntuaciones.

Figura 06
El botón Opciones de la Figura 02 nos lleva a la
pantalla de la Figura 07 cuyo cuadro Valores perdidos
permite especificar el tratamiento que reciben los
valores perdidos.

Figura 07
En todas las figuras el botón Continuar permite pasar
a la Figura 02 para seguir fijando especificaciones.
Una vez elegidas las mismas, se pulsa el botón
Aceptar en la Figura 02 para obtener los resultados
del análisis factorial . Cuyos resultados se muestran a
continuación….
RESULTADOS
Matriz de correlacionesa

Mortalidad
infantil
(muertes por Tasa de Tasa de
Aumento de la 1000 Número natalidad (por mortalidad
Alfabetización población (% Esperanza de nacimientos promedio de 1.000 Log(10) de Habitantes en (por 1.000
(%) anual) vida femenina vivos) hijos habitantes) PIB_CAP ciudades (%) habitantes)
Correlación Alfabetización (%) 1.000 -.698 .865 -.901 -.866 -.870 .731 .654 -.485
Aumento de la población (% -.698 1.000 -.579 .603 .835 .856 -.571 -.365 -.029
anual)
Esperanza de vida femenina .865 -.579 1.000 -.962 -.847 -.865 .833 .766 -.703
Mortalidad infantil (muertes -.901 .603 -.962 1.000 .844 .870 -.824 -.744 .636
por 1000 nacimientos vivos)

Número promedio de hijos -.866 .835 -.847 .844 1.000 .975 -.713 -.608 .424
Tasa de natalidad (por 1.000 -.870 .856 -.865 .870 .975 1.000 -.783 -.635 .384
habitantes)
Log(10) de PIB_CAP .731 -.571 .833 -.824 -.713 -.783 1.000 .785 -.401
Habitantes en ciudades (%) .654 -.365 .766 -.744 -.608 -.635 .785 1.000 -.523
Tasa de mortalidad (por -.485 -.029 -.703 .636 .424 .384 -.401 -.523 1.000
1.000 habitantes)
Sig. (Unilateral) Alfabetización (%) .000 .000 .000 .000 .000 .000 .000 .000
Aumento de la población (% .000 .000 .000 .000 .000 .000 .000 .386
anual)
Esperanza de vida femenina .000 .000 .000 .000 .000 .000 .000 .000
Mortalidad infantil (muertes .000 .000 .000 .000 .000 .000 .000 .000
por 1000 nacimientos vivos)

Número promedio de hijos .000 .000 .000 .000 .000 .000 .000 .000
Tasa de natalidad (por 1.000 .000 .000 .000 .000 .000 .000 .000 .000
habitantes)
Log(10) de PIB_CAP .000 .000 .000 .000 .000 .000 .000 .000
Habitantes en ciudades (%) .000 .000 .000 .000 .000 .000 .000 .000
Tasa de mortalidad (por .000 .386 .000 .000 .000 .000 .000 .000
1.000 habitantes)
a. Determinante = 2.01E-007
KMO y prueba de Bartlett
Medida de adecuación muestral de Kaiser- .865
Meyer-Olkin.

Prueba de esfericidad Chi-cuadrado 1544.363


de Bartlett aproximado

gl 36
Sig. .000
Matrices anti-imagen

Mortalidad
infantil
(muertes por Tasa de Tasa de
Aumento de la 1000 Número natalidad (por mortalidad
Alfabetización población (% Esperanza de nacimientos promedio de 1.000 Log(10) de Habitantes en (por 1.000
(%) anual) vida femenina vivos) hijos habitantes) PIB_CAP ciudades (%) habitantes)
Covarianza anti-imagen Alfabetización (%) .139 .015 .001 .041 .014 -.007 .013 -.013 -.009
Aumento de la población (% .015 .097 .010 .009 -.010 -.015 -.015 -.029 .071
anual)
Esperanza de vida femenina .001 .010 .035 .022 -.001 .004 -.026 -.013 .044
Mortalidad infantil (muertes .041 .009 .022 .052 .006 -.007 .006 -.001 .000
por 1000 nacimientos vivos)

Número promedio de hijos .014 -.010 -.001 .006 .033 -.021 -.021 .013 -.021
Tasa de natalidad (por 1.000 -.007 -.015 .004 -.007 -.021 .022 .018 -.007 .008
habitantes)

Log(10) de PIB_CAP .013 -.015 -.026 .006 -.021 .018 .162 -.095 -.052
Habitantes en ciudades (%) -.013 -.029 -.013 -.001 .013 -.007 -.095 .311 -.008
Tasa de mortalidad (por 1.000 -.009 .071 .044 .000 -.021 .008 -.052 -.008 .149
habitantes)

Correlación anti-imagen Alfabetización (%) .936 .131 .007 .485 .207 -.118 .084 -.062 -.063
Aumento de la población (% .131 .839 .169 .120 -.167 -.333 -.120 -.166 .591
anual)
Esperanza de vida femenina .007 .169 .866 .518 -.031 .139 -.338 -.124 .606
Mortalidad infantil (muertes .485 .120 .518 .899 .151 -.198 .064 -.011 -.001
por 1000 nacimientos vivos)

Número promedio de hijos .207 -.167 -.031 .151 .846 -.780 -.287 .125 -.293
Tasa de natalidad (por 1.000 -.118 -.333 .139 -.198 -.780 .849 .306 -.079 .134
habitantes)

Log(10) de PIB_CAP .084 -.120 -.338 .064 -.287 .306 .872 -.421 -.334
Habitantes en ciudades (%) -.062 -.166 -.124 -.011 .125 -.079 -.421 .931 -.038
Tasa de mortalidad (por 1.000 -.063 .591 .606 -.001 -.293 .134 -.334 -.038 .669
habitantes)
Varianza total explicada

Sumas de las saturaciones al Suma de las saturaciones al


Autovalores iniciales cuadrado de la extracción cuadrado de la rotación
Componente

% de la % % de la % % de la %
Total varianza acumulado Total varianza acumulado Total varianza acumulado
1 6.691 74.344 74.344 6.691 74.344 74.344 4.524 50.265 50.265

2 1.245 13.831 88.175 1.245 13.831 88.175 3.412 37.910 88.175

3 .532 5.907 94.083

4 .198 2.196 96.279

5 .174 1.932 98.211

6 .066 .729 98.940

7 .056 .621 99.561

8 .025 .280 99.841

9 .014 .159 100.000

Método de extracción: Análisis de Componentes principales


Matriz de componentes a
Componente
1 2
Alfabetización (%) -.925 -.067
Aumento de la población (% anual) .727 .656

Esperanza de vida femenina -.963 .194

Mortalidad infantil (muertes por 1000 .961 -.132


nacimientos vivos)

Número promedio de hijos .931 .235


Tasa de natalidad (por 1.000 .949 .257
habitantes)
Log(10) de PIB_CAP -.867 .039
Habitantes en ciudades (%) -.785 .299

Tasa de mortalidad (por 1.000 .568 -.737


habitantes)
Método de extracción: Análisis de componentes
principales
a. 2 componentes extraídos.
Comunalidades
Inicial Extracción
Alfabetización (%) 1.000 .859
Aumento de la población (% anual) 1.000 .958

Esperanza de vida femenina 1.000 .964

Mortalidad infantil (muertes por 1000 1.000 .941


nacimientos vivos)

Número promedio de hijos 1.000 .921

Tasa de natalidad (por 1.000 habitantes) 1.000 .966

Log(10) de PIB_CAP 1.000 .754


Habitantes en ciudades (%) 1.000 .706

Tasa de mortalidad (por 1.000 habitantes) 1.000 .865

Método de extracción: Análisis de Componentes principales.


Co rre la c io ne s re pro duc ida s
Mortalidad
infantil
Aum ento (m uertes Tas a de Habitantes Tas a de
de la por 1000 Núm ero natalidad en m ortalidad
Alfabetizaci población Es peranza de nacim iento prom edio (por 1.000 Log(10) de ciudades (por 1.000
ón (%) (% anual) vida fem enina s vivos ) de hijos habitantes ) PIB_CAP (%) habitantes )
Correlación Alfabetización (%) .859 -.716 .877 -.880 -.876 -.894 .799 .706 -.476
reproducida Aum ento de la
población (%
-.716 .958 -.572 .612 .831 .858 -.605 -.375 -.070
anual)

Es peranza de vida
fem enina .877 -.572 .964 -.951 -.850 -.863 .842 .814 -.690

Mortalidad infantil
(m uertes por 1000
-.880 .612 -.951 .941 .863 .878 -.839 -.794 .643
nacim ientos vivos )

Núm ero prom edio


de hijos -.876 .831 -.850 .863 .921 .943 -.798 -.660 .355

Tas a de natalidad
(por 1.000 -.894 .858 -.863 .878 .943 .966 -.813 -.668 .350
habitantes )
Log(10) de
.799 -.605 .842 -.839 -.798 -.813 .754 .693 -.521
PIB_CAP
Habitantes en
ciudades (%) .706 -.375 .814 -.794 -.660 -.668 .693 .706 -.666

Tas a de
m ortalidad (por -.476 -.070 -.690 .643 .355 .350 -.521 -.666 .865
1.000 habitantes )

Res idualb Alfabetización (%)


.018 -.012 -.022 .010 .024 -.068 -.052 -.009

Aum ento de la
población (% .018 -.006 -.009 .004 -.002 .034 .009 .042
anual)
Es peranza de vida
fem enina -.012 -.006 -.011 .003 -.002 -.009 -.048 -.013

Mortalidad infantil
(m uertes por 1000
-.022 -.009 -.011 -.019 -.008 .014 .050 -.007
nacim ientos vivos )

Núm ero prom edio


de hijos .010 .004 .003 -.019 .032 .086 .052 .069

Tas a de natalidad
(por 1.000 .024 -.002 -.002 -.008 .032 .030 .033 .034
habitantes )
Log(10) de
-.068 .034 -.009 .014 .086 .030 .093 .120
PIB_CAP
Habitantes en
ciudades (%) -.052 .009 -.048 .050 .052 .033 .093 .144

Tas a de
m ortalidad (por -.009 .042 -.013 -.007 .069 .034 .120 .144
1.000 habitantes )

Método de extracción: Anális is de Com ponentes principales .


a. Com unalidades reproducidas
b. Los res iduos s e calculan entre las correlaciones obs ervadas y reproducidas . Hay 9 (25.0%) res iduales no redundantes con valores abs olutos m ayores que 0
Matriz de componentes rotadosa
Componente
1 2
Alfabetización (%) -.760 .531
Aumento de la población (% anual)
.978 .050
Esperanza de vida femenina -.624 .758
Mortalidad infantil (muertes por 1000
nacimientos vivos) .662 -.709

Número promedio de hijos .871 -.404


Tasa de natalidad (por 1.000 habitantes)
.898 -.399
Log(10) de PIB_CAP -.649 .577
Habitantes en ciudades (%) -.421 .728
Tasa de mortalidad (por 1.000 habitantes)
-.024 -.930
Método de extracción: Análisis de componentes principales.
Método de rotación: Normalización Varimax con Kaiser.
Método de rotación: Normalización Varimax con Kaiser.
a. La rotación ha convergido en 3 iteraciones.
Tarea para resolver en casa: Una empresa especializada
en el diseño de automóviles de turismo desea estudiar cuáles
son los deseos del público que compra automóviles. Para ello
diseña una encuesta con 10 preguntas donde se le pide a
cada uno de los 40 encuestados que valore de 1 a 5 una
característica es o no muy importante. Los encuestados
deberán contestar con un 5 si la característica es importante,
un 4 si es importante, un 3 si tiene regular característica, un 2
si es poco importante y un 1 si no es nada importante. Las 10
características (v1 a v10) a valorar son: precio,
financiamiento, consumo, combustible, seguridad, confort,
capacidad, prestaciones, modernidad y aerodinámica. El
archivo automóviles.sav recoge los datos. Realice un
análisis factorial que permite extraer unos factores adecuados
a los datos que resuman correctamente la información que
contienen.
REFERENCIAS BIBLIOGRÁFICAS

 Aparicio, G. y Hernández, A. (2021). Análisis


multivariante de datos: Como buscar patrones de
comportamiento en BIG DATA. Madrid: Ediciones
Pirámide.

PÉREZ, C. (2005). Métodos Estadísticos Avanzados


con SPSS. España: Prentice Hall.

 QUINTIN, M.; CABERO, M. y de PAZ, Y. (2008).


Tratamiento Estadístico de datos con SPSS. México:
THOMSON.

También podría gustarte