Está en la página 1de 44

Que tal amigas y amigos que gustan de la estadística, para mí es un enorme placer presentarles

este Curso Avanzado de SPSS. Hace un par de meses, cuando José Luis me planteó la posibilidad
de escribir un tercer curso sobre técnicas estadísticas multivariadas con el SPSS, me sentí
sumamente feliz, ya que podría continuar compartiendo mi experiencia docente en estadística
multivariada con todos vosotros.
Con este curso pretendemos cerrar un ciclo en cuanto al manejo estadístico del programa SPSS,
que es complemento de los dos cursos predecesores sobre ésta misma temática.
Este nuevo curso lo he enriquecido con notas y ejemplos que mis profesores Dr. D. Cecilio Mar
Molinero y Dr. D. Francisco José Callealta  me impartieron en las clases del curso de Doctorado que
aprobé hace un par de años en Sevilla. Gracias a ellos aprendí muchísimo sobre el manejo del
programa informático en mención, y que ahora os traslado a todos ustedes.
Otro aspecto que quiero resaltar de este nuevo curso, es que se analizan técnicas estadísticas
mulvitariadas bastante interesantes pero a la vez un tanto complicadas de analizar, así que se ha
tratado de utilizar un lenguaje sencillo para que nuestros amigos lectores aprovechen al máximo
cada lección del curso.
Un dato más, y es que se han incorporado ejemplos completos para que al momento de realizar un
análisis, se observe todo el proceso, y sea más comprensible para el estudiante al instante de arribar
a conclusiones en el fenómeno investigado.
En éste curso analizaremos las siguientes técnicas multivariadas de datos: Análisis Discriminante,
Análisis de Conglomerados No Jerárquicos y Análisis de Componentes Principales.
Nuevamente las gracias a mis amigos de AulaFacil.com por permitirme llegar a todos los internautas
deseosos de aprender las principales técnicas de análisis multivariante de datos. Desde ya les
auguro el mayor de los éxitos. Para consultas o comentarios, les dejo a continuación mi correo
electrónico.
Análisis Discriminante. Aspectos conceptuales

En primer lugar, supongamos que disponemos de un conjunto de individuos


clasificados en distintos grupos de acuerdo con la observación de una
determinada “característica” que los diferencia. Parece lógico pensar que esa
característica observada que los diferencia pudiera estar relacionada con otras
características más fácilmente observables, de forma que si dispusiéramos de
ellas y conociéramos la relación existente entre éstas y aquéllas (por ejemplo,
mediante algún tipo de función “predictiva”) podríamos tratar de anticipar su
comportamiento más probable, con cierta fiabilidad, sin necesidad de esperar a
observarla. Ello lógicamente es tanto más interesante cuanto mayor es el coste
asociado a la observación final de la característica que expresa finalmente la
clasificación real, tanto más cuando la observación de esta característica conlleve
la desaparición de la propia unidad observada (caso de que la característica sea,
por ejemplo, la muerte).

Introduzcamos como ilustración el siguiente ejemplo simplificado. Imaginemos que


a una inmobiliaria llegan una serie de compradores potenciales interesándose por
la compra de vivienda. Pensemos que el acto final de acabar comprando o no la
vivienda en cuestión puede ponerse en relación con (depende de) una serie de
características de los individuos que manifiestan el interés de comprar como
pueden ser la propia posesión (o no) de una primera vivienda, su proximidad a un
posible enlace matrimonial o convivencia, sus ahorros y capacidad de
endeudamiento, etc.; y supongamos hipotéticamente que pensásemos que la
decisión de compra, de una forma simplificada, estaría básicamente relacionada
con sólo dos características fácilmente observables como son la cantidad de
dinero que pensaban dejar para pagar a plazos por la compra de la vivienda (X1) y
el número de años que tardarían en pagarla (X2).

Si en los archivos de la inmobiliaria existen 49 casos de situaciones anteriores


similares en las que, además de conocer estas dos características, también se
conoce la decisión final sobre la compra que adoptaron los correspondientes
clientes, ¿podríamos establecer un procedimiento que nos permitiera saber, en
base a esa experiencia acumulada por la inmobiliaria, si sería muy probable que
un nuevo cliente, que dice que aplazaría 75 mil euros de pesetas a pagar en 5
años para adquirir la vivienda, ¿terminase comprando la vivienda? O, ¿si por el
contrario, sería más probable que no la comprara?

Los métodos de Análisis Discriminante, junto a los más recientes basados en


Modelos de Respuestas Cualitativas, son las técnicas estadísticas empleadas por
excelencia para resolver este tipo de problemas y sus generalizaciones.

Dado un conjunto de individuos, de los que se conocen sus características,


clasificados en K grupos diferentes, el Análisis Discriminante (AD) trata de
establecer las relaciones óptimas existentes entres aquéllas características de los
individuos y sus grupos de pertenencia; lo que permitiría clasificar (identificar)
nuevos individuos, a partir de sus características observadas, en uno de aquellos
grupos y mediante una regla de decisión óptima que permitirá predecir la
clasificación de los nuevos individuos de la forma más fiable posible con respecto
a la realidad.

La pertenencia de un individuo a un grupo se modeliza mediante una variable


categórica que toma tantos valores como grupos haya y que también se conoce
como variable grupo o variable independiente.

Las características observadas a partir de las que se va a proceder a la


identificación de los individuos se conocen como variables clasificadoras, variables
criterios, variables predictoras o variables explicativas, exigiéndoseles
generalmente en el Análisis Discriminante estar medidas en escalas de intervalo.

Y para obtener la relación óptima existente entre las características de los


individuos y sus grupos de pertenencia pueden plantearse varias opciones. La
opción que parte del establecimiento de un modelo similar al de regresión que nos
permite explicar la variable categórica en función de las demás variables
clasificadoras y la resolución de los problemas teóricos que plantea, conduce a los
mencionados Modelos de Respuesta Cualitativa.

En palabras del autor César Pérez López, “el análisis discriminante es una técnica
estadística que permite asignar o clasificar nuevos individuos dentro de grupos
previamente reconocidos o definidos. Para ilustrar el concepto, consideremos un
ejemplo típico en el campo de la medicina. Supongamos que se dispone de una
muestra de pacientes en los que se ha medido un conjunto de variables relativas
al diagnóstico de una enfermedad (presión sanguínea, edad, peso, etc.) y que con
esta información o por comprobación posterior, el investigador ha dividido la
muestra en dos (o más) grupos diagnósticos. La finalidad del análisis discriminante
es que cuando llegue un nuevo enfermo en el que son medidas las mismas
variables, sus valores permitan asignar dicho paciente a un grupo de diagnóstico
con la máxima probabilidad, cuantificación a la vez el valor de ésta probabilidad. El
análisis discriminante puede aplicarse a todos los campos de la ciencia en los que
el objeto de investigación sea la clasificación de individuos, a través de un perfil
observado. El análisis discriminante se conoce en ocasiones como análisis de
clasificación, ya que su objetivo fundamental es producir una regla o un esquema
de clasificación que permita a un investigador predecir la población a la que es
más probable que tenga que pertenecer una nueva observación (supuestas
conocidas varias poblaciones a las que pueden pertenecer las observaciones)”.

Ahora, nos concentraremos en las técnicas tradicionalmente empleadas para el


Análisis Discriminante iniciadas por Fisher en 1936, y que desarrollamos a
continuación.

Análisis discriminante. Con 2 grupos

CLASIFICACIÓN CON 2 GRUPOS.

En esta situación, partimos de que la población se divide en 2 grupos o


subpoblaciones, G1 y G2, sobre cuyos individuos se observan en general,
“p” variables X = (X1, X2...Xy). Y supongamos que, en cada grupo G f, (f
= 1, 2), la variable absolutamente continua X = (X 1, X2...Xy)’ se
distribuye según una cierta función de densidad de probabilidad fl(x).
Además representaremos por “u” y “E” el vector de medias y la matriz
de varianzas y covarianzas poblacionales y, análogamente, por u1, u2,
E1 y E2 los correspondientes vectores de medias y matrices de varianzas
y covarianzas de los respectivos grupos G 1 y G2. En estas circunstancias,
el Análisis Discriminante trata de establecer alguna regla que relacione
características y grupos, de forma que permita la identificación
(clasificación) óptima de individuos en función de sus características.
Un criterio muy importante empleado en el Análisis Discriminante, es
el criterio de máxima verosimilitud, siempre induce a considerar
como solución del problema planteado aquélla que explique con una
máxima probabilidad lo que se observa en la realidad. Por tanto, la
Regla de Máxima Verosimilitud aplicada al análisis discriminante para
identificar (clasificar) un individuo de características xen alguno de los 2
grupos existentes será:

Asignar x al grupo G1 f1(x) f1(x)

Es decir, la regla de máxima verosimilitud asigna el nuevo individuo,


que presenta características x, al grupo Gy en el que dichas
características presentan la máxima probabilidad o densidad de
probabilidad.

Para ilustrar intuitivamente el proceder de esta regla, supongamos que


tenemos una única característica unidimensional clasificadora continua
de forma que, en los grupos G1 y G2 se distribuya y localice
distintamente como aparece en los siguientes gráficos:

Como observamos en el gráfico, un individuo de característica x


presenta una densidad de probabilidad en cada distribución de cada
grupo. Así, la característica x del individuo en el grupo G 2, se encuentra
en una zona muy improbable, por ser mayor de lo común en este grupo.
Sin embargo, la característica x del individuo se encuentra en una zona
más probable en el grupo G1, ya que se encuentra más cercana a la
moda. Así pues, la regla de máxima verosimilitud nos inducirá a asignar
los individuos que presentasen la característica x al grupo G1, para el
que la densidad de probabilidad en dicho valor de la característica, x, es
más alta.
Análisis discriminante. Caso particular

CASO PARTICULAR: 2 GRUPOS NORMALES UNIVARIANTES CON


IGUAL VARIANZA (k=2, p=1).

En este caso sólo habría dos grupos (k=2) para clasificar a los individuos
en función de una única variable x (p=1). Además, supondremos que
esta característica clasificadora x se distribuye normalmente en ambos
grupos, con igual varianza s pero con distintas u1 y u2.

Si suponemos, sin perdida de generalidad, que u 1 u2, la función de


densidad de la característica para el grupo G 1 se encontraría a la
izquierda de la correspondiente función de densidad para el grupo G 2, ya
que, en el grupo G1los valores más probables están alrededor de u 1 y en
el grupo G2, alrededor de u2.

Existen valores de la característica para los que podemos encontrar


individuos ubicados en cualquiera de los dos grupos, aunque con
distintas verosimilitudes. Así, en la zona sombreada del siguiente gráfico
es más probable que el individuo pertenezca al grupo G 2 que al G1;
mientras que en la zona simétrica es más probable que el individuo
pertenezca al grupo G1 que al grupo G2.

Intuitivamente, de lo dicho hasta aquí, podemos deducir cual será la


forma de decidir sobre la pertenencia a los grupos de un elemento que
presenta una característica x. El eje de simetría del gráfico pasa por el
valor promedio de u1 y u2, y es éste punto el valor crítico que separa las
dos zonas de máxima verosimilitud de cada grupo. En la zona de la
izquierda es más probable la pertenencia al grupo G 1 pues la función de
densidad en este grupo es siempre superior a la del G 2, y en la zona
opuesta ocurre lo contrario. Luego, cualquier individuo con característica
a la izquierda de la línea vertical debe ser asignado al grupo G 1, y todo
individuo con característica a la derecha de esta línea debe ser asignado
al grupo G2.

Analíticamente, sustituyendo la densidad de probabilidad en cada grupo


Gj, por la expresión correspondiente a la de una distribución normal
univariante de media uj y desviación típica s, en la expresión de la regla
discriminante de máxima verosimilitud antes definida, ésta quedaría
como:

Hasta aquí hemos realizado un repaso de análisis multivariado, espero


no haberlo asustado a usted con toda ésta teoría, pero como la idea es
que a usted se le quite el miedo a utilizar el programa SPSS,
procedemos a continuación a realizar algunos ejemplos de Análisis
Discriminante con el software en cuestión.

Analisis Discriminante con SPSS 1

En la figura número 1 se observa la forma de acceder al Análisis


Discriminante en el SPSS. Primeramente, se da un clic en el menú
“Analizar”, luego en el submenú “Clasificar”, y luego damos un clic en la
opción “Discriminante”.
Una vez hemos elegido la opción “Discriminante”, nos aparece el
recuadro de la figura 2. Ahora lo que tenemos que hacer es seleccionar
las variables que deseemos llevar a nuestro análisis discriminante, tal y
como se muestra en la figura 2.

Es de aclarar que la base de datos que utilizaremos me fue


proporcionada en mis clases cuando cursaba el Doctorado, y presenta
información para analizar de un banco que se encuentra interesado en
saber si el cliente pagará a tiempo el préstamo, o si caerá en morosidad
y ya no pagará la deuda que tienen pendiente. En esta situación, se
utilizan las variables de “fallido” (caerá o no en mora), “patrimonio neto”
que es el capital con que cuenta, y la “deuda pendiente” que aún tiene
con el banco el cliente.
Analisis discriminativo con SPSS 2

Una vez que hemos seleccionado las variables en nuestro modelo de


análisis discriminante (figura 3), procedemos a definir los rangos de las
mismas. Para nuestro caso, el rango de “fallido” oscila de 1 a 2, y se
puede ver esto en la figura 4.
Cuando ya tenemos seleccionadas las variables, tanto de “agrupación”
como las “independientes”, entonces procedemos a determinar los
“estadísticos” (figura 5) que utilizaremos en nuestro análisis
discriminante. El resultado del mismo se puede observar en la figura 6.
Analisis discriminante con SPSS 3

En la opción de “estadísticos” encontramos muchas medidas, agrupadas


en tres grandes áreas: Descriptivos, Coeficientes de la función y
Matrices.

Para nuestro ejemplo, seleccionaremos las siguientes opciones: Medias,


Coeficiente de Fisher, Coeficientes No tipificados. Para elegirlas, basta
dar un clic en cada casilla y automáticamente son seleccionadas las
opciones. Una vez hemos definido las opciones, basta dar un clic en la
casilla de “aceptar” y los cambios quedan guardados.
En el Análisis Discriminante, también tenemos la opción de seleccionar
el método de “introducir independientes juntas” o “usar método de
inclusión por pasos”; entonces, para nuestro ejemplo, seleccionaremos
con un clic el segundo método, tal y como se muestra en la figura 8.
Analisis discriminatorio 4

Ahora, el siguiente paso es seleccionar el “método” que utilizaremos en


nuestro Análisis Discriminante. Para esto, basta con dar un clic en la
opción de “método” según se observa en la figura 9, y con esto se
obtiene el recuadro de la figura 10.

Si se observa detenidamente, el “método” presenta varias opciones,


entre ellas: Lambda de Wilks, Varianza no explicada, Distancia de
Mahalanobis, V de Rao, etc. Para nuestro ejemplo, dejaremos las
opciones que vienen por defecto en el SPSS, y una vez que hemos
finalizado con el método, únicamente damos clic en el botón de
“continuar”.

Otra opción que debemos revisar es la de “clasificar”, que debemos


elegir dentro de nuestro análisis discriminante, y para hacerlo, basta dar
un clic en el botón “clasificar” tal y como se observa en la figura 11.

 
 

Al dar clic en la opción de “clasificar” obtenemos el recuadro de que se


puede observar en la figura 12. Aquí tenemos las diversas opciones para
clasificar al grupo observado en diversas áreas.

Analisis discriminante con SPSS 4


 

Una opción interesante que tenemos en la opción de “Clasificación” es la


de “Reemplazar los valores perdidos con la media”. Resulta que en más
de alguna investigación que nosotros llevemos a cabo, tendremos por
algún motivo en nuestra base de datos valores perdidos, y para que
éstos datos no afecten los resultados finales, tenemos ésta opción de
reemplazo. Personalmente la recomiendo.

Siguiendo con nuestro ejemplo, seleccionaremos algunas opciones y el


resto las dejaremos en blanco, y le damos clic en el botón “continuar”
tal y como se observa en la figura 12 a.

 
 

Si deseamos que nuestro análisis sea “Guardado”, procedemos a dar un


clic en el botón de “Guardar, tal y como se observa en la figura 13, y al
hacer esto, nos aparece el recuadro de la figura 14.

 
 

Aquí podemos guardar los resultados en tres factores:

 Grupo de pertenencia pronosticado.


 Puntuaciones discriminantes.
 Probabilidades de pertenencia al grupo.
También tenemos la opción de exportar información del modelo a un
archivo con extensión “*.xml”.

Para el ejemplo, elegiremos todas las opciones mencionadas para


efectos meramente didácticos. Cuando tenemos listo todo el proceso,
debemos dar clic en el botón de “continuar”, así como se observa en la
figura 15.

Análisis Discriminante con SPSS. Resultados (I)


Ahora podemos decir que ya nos encontramos listos para ejecutar
nuestro análisis discriminante. Si no tenemos más opciones que elegir
para nuestro estudio, entonces bastará dar un clic en el botón de
“aceptar” para que el SPSS procese la información con las opciones que
nosotros hemos elegido, y nos brinde los resultados del mismo.
 

El visor de resultados del SPSS nos muestra los resultados del análisis
realizado, y el primer recuadro que aparece es el resumen del
procesamiento de casos.

Para nuestro ejemplo, podemos observar que en total eran 16 casos, de


los cuales no tuvimos ningún caso perdido o fuera de rango.

Discriminante

Las “estadísticas de grupo” muestran los resultados tanto de la media


como la desviación típica, así como los casos ponderados y no
ponderados válidos según listado.

Estadísticos de grupo

En esta primera tabla se muestran las características descriptivas


muestrales de las variables independientes (en este caso solo una X1=
PATRNETO). Debe observarse que el punto de corte de los dos grupos
para ésta variable se sitúa en el valor 7, resultado de (5 + 9)/2= 7.

En el recuadro siguiente se presentan los estadísticos por pasos, que el


SPSS denomina “Análisis 1”. Esta tabla muestra las variables
introducidas, el respectivo estadístico, los grados de libertad (gl) y la
significatividad (sig) de cada valor.

Análisis Discriminante con SPSS. Resultados (II)


Análisis 1

Estadísticos por pasos

Variables en el análisis

Variables no incluidas en el análisis

 
En las siguientes tablas se presenta el resumen de las funciones
canónicas discriminantes que nos aarrojado el SPSS. Se incluyen los
autovalores, la Lambda de Wilks, coeficientes en el modelo, entre otros.

Resumen de las funciones canónicas discriminantes

Autovalores

Se han empleado las 1 primeras funciones discriminantes canónicas en


el análisis.

La tabla de los Autovalores presenta los autovalores de las funciones


canónicas discriminantes, que miden las desviaciones de las
puntuaciones discriminantes entre grupos respecto a las desviaciones
dentro de los grupos. El autovalor de una función se interpreta como la
parte de variabilidad total de la nube de puntos proyectada sobre el
conjunto de todas las funciones atribuible a la función. Si su valor es
grande, la función discriminará mucho. En cuanto a las correlaciones
canónicas, miden las desviaciones de las puntuaciones discriminantes
entre grupos respecto a las desviaciones totales sin distinguir grupos. Si
su valor es grande (próximo a 1) la dispersión será debida a las
diferencias entre grupos, y por tanto, la función discriminará mucho. En
la tabla se observa que la primera función discriminante explica el total
100% de la variabilidad del fenómeno, y dicha función, es la que dará
prácticamente la clasificación.

Lambda de Wilks

Los llamados coeficientes estandarizados de las funciones discriminantes


canónicas son los coeficientes de la función lineal discriminante
calculados sobre las variables tipificadas. Se observa que la Lambdade
Wilks sólo es significativa en la primera función discriminante.

Análisis Discriminante con SPSS. Resultados (III)

Coeficientes estandarizados de las funciones discriminantes


canónicas.

En la matriz de correlación se presentan las correlaciones intra-grupo


entre las variables discriminantes y las funciones discriminantes
canónicas tipificadas, y es muy útil para analizar que variable tiene más
importancia en la discriminación:

Matriz de estructura
Correlaciones intra-grupo combinadas entre las variables discriminantes
y las funciones discriminantes canónicas tipificadas Variables ordenadas
por el tamaño de la correlación con la función.
 

<p 3"="" style="margin: 0cm 0cm 0.0001pt; font-family: 'Times New


Roman'; color: rgb(0, 0, 0); text-align: justify;">El punto de corte será
el cero, ya veremos más adelante como se plantea éste valor.

Coeficientes de las funciones canónicas discriminantes

Coeficientes no tipificados

Funciones en los centroides de los grupos

Funciones discriminantes canónicas no tipificadas evaluadas en las


medias de los grupos

Con los resultados obtenidos, el punto de corte discriminante será el


punto medio de las funciones en los centroides de los grupos:

C = (D1 + D2)/2 = 0

Estadísticos de clasificación

Resumen del proceso de clasificación

 
 

Probabilidades previas para los grupos

Los grupos son de igual tamaño, pues tienen el mismo número de


elementos, luego, la probabilidad de pertenencia a priori para cada uno
de los grupos es la misma.

Coeficientes de la función de clasificación

Funciones discriminantes lineales de Fisher

De la expresión de éstos coeficientes, se deduce que las funciones de


clasificación son:

F1= 0,777PTRNETO + 1,296DEUDAPEN – 5,876

F2= 1,813PTRNETO + 0.364DEUNAPEN – 9,396

Al simplificar las funciones F2 – F1= D – C


Nos queda la siguiente función discriminante:

F2 – F1= 1,035PATRNETO – 0,932DEUDAPEN – 3,520

Análisis Discriminante con SPSS. Resultados (IV)

Los estadísticos de clasificación son los que aparecen en la tabla


siguiente, en la que se aprecia que existe un caso mal clasificado (el que
se encuentra señalado con dos asteriscos).

Los gráficos de los grupos por separado son (hay que fijarse que el cero
es la puntuación de corte discriminante).

Gráficos por grupos separados


 

Resultados de la clasificación(a)

(a) Clasificados correctamente el 93,8% de los casos agrupados


originales.

En este caso solo hemos encontrado un caso mal clasificado según


nuestra función lineal discriminante, y se trata de un caso del grupo dos
(caso 13 en la tabla de los estadísticos de clasificación) que ha sido
incluido erróneamente dentro del grupo 1.

Análisis Discriminante con SPSS. Caso práctico (I)

BANCO DE MASARROJOS.

Esta práctica la realicé con mis profesores del curso de Doctorado, y se


realizó para ilustrar el análisis discriminante con más de dos grupos,
entonces se analizó la concesión de préstamos en el Banco
deMassarrojos (se utilizó el fichero BANCO DE MASSAROJOS.SAV). Las
variables que aparecen en dicho fichero son:

Categ: que es la variable utilizada como variable de agrupación, que


adopta tres valores:

1. cliente cumplidor, que paga puntualmente.


2. cliente moroso, con dificultades en el pago.
3. cliente fallido, que no consigue terminar de pagar.
Ingresos: ingresos anuales en miles de pesetas.
Patrneto: patrimonio neto en millones de pesetas.

Proviv: toma el valor de 1 si el individuo posee vivienda, y 0 en otro


caso.

Casado: toma el valor de 1 si la persona está casada, y 0 en otros


casos.

Salfijo: toma el valor de 1 si la persona tiene contrato fijo, y 0 en otro


caso.

Ahora bien, si realizamos el análisis discriminante considerando como


variable de agrupación la variable categ, el procedimiento a seguir en el
SPSS es el siguiente:

En la figura 17 observamos la manera de seleccionar la variable “categ”


como variable de agrupación. Únicamente seleccionamos la variable en
mención, y luego basta dar un clic en el botón que aparece en el círculo
en rojo, una vez realizada ésta acción, aparece la variable “categ” tal y
como se observa en la figura 18.

 
 

Cuando hemos seleccionado la variable de agrupación, procedemos a


elegir las variables independientes de nuestro modelo discriminante, que
para nuestro ejemplo, serán el resto de variables analizadas. Para elegir
dichas variables, procedemos con seleccionarlas o sombrearlas, y luego
damos un clic en el botón de envío que aparece en la figura 18 en el
círculo en rojo, y aparecerán en la figura 19 ya todas las variables de
nuestro modelo discriminante.

 
Análisis Discriminante con SPSS. Caso práctico (II)

El siguiente paso en nuestro procedimiento para realizar el análisis


discriminante es definir el rango de la variable de agrupación. La figura
20 nos muestra la manera de realizar esto, únicamente damos un clic en
el botón de “definir rango” y aparece el recuadro que indica la flecha.
Luego solamente debemos de colocar la numeración respectiva y
continuar con el proceso. Para el caso de nuestra variable de
agrupación, les recuerdo que los valores se encontraban en una escala
del 1 al 3, así que nuestro valor mínimo será el 1 y nuestro valor
máximo el 3.

 
 

Luego, seleccionaremos los estadísticos para nuestro modelo, para lo


cual presionamos sobre el botón de “estadísticos” tal y como se observa
en la figura 21, dándonos como resultado la figura 22.

 
Como es un ejemplo el que estamos realizando, entonces en la figura 22
seleccionamos el mayor número de estadísticos, para luego analizar los
resultados. En la práctica, usted deberá elegir aquellos estadísticos que
reúnan los requisitos y sus expectativas de análisis, para la investigación
que usted se encuentre realizando.

Cuando tenemos elegidos todos los estadísticos a emplear en nuestro


modelo, presionamos en el botón de “continuar” y todo queda guardado.
Análisis Discriminante con SPSS. Caso práctico (III)

El siguiente paso es seleccionar el método de inclusión para nuestro


modelo. Para ello damos un clic en el botón “método” (véase figura 23)
y con ello obtenemos un recuadro tal y como lo muestra la figura 24.

 
Para realizar el análisis del Banco de Massarojos, elegiremos como
método a la “Lambda de Wilks”, usaremos el valor de F predeterminado
del SPSS, y le solicitaremos que nos muestre un resumen de los pasos
llevados a cabo.

Una vez culminado esto, damos clic al botón “continuar” y nuestro


pedido ya queda guardado y listo para realizar el análisis respectivo.

Otra opción que nunca debemos olvidar, y quizás las más importante, es
la de “Clasificar”, que en la figura 25 se muestra el procedimiento para
obtener las alternativas de clasificación para nuestro análisis
discriminante.

Análisis Discriminante con SPSS. Caso práctico (IV)

La figura 26 muestra las posibilidades de “Clasificación” que podemos


elegir. Para el ejemplo, seleccionaremos que “Todos los grupos son
iguales”, la matriz “Ingra grupos”, y pediremos que nos muestren los
resultados para cada caso así como la tabla resumen de resultados. Con
todo esto procesado, únicamente damos clic en el botón “continuar” y
ya estamos listos para ordenar al SPSS que nos realice el análisis
discriminante que le hemos solicitado.
 

Ahora, ya nos encontramos listos para realizar el análisis discriminante


de los clientes del Banco de Massarojos. Para esto, damos clic en el
botón de “Aceptar” como se observa en la figura 27 y el visor de
resultados del SPSS nos muestra los resultados del análisis llevado a
cabo. A continuación presento los resultados:
Análisis de Componentes Principales con SPSS (IV)

APLICACIÓN PRÁCTICA.

Realizaremos un ejemplo con el fichero de datos Comarcas de


Guadalajara.sav. Las variables que vamos a incluir en el análisis
son: agri, sal, cons, emp, ind, m16a, m65a, serv, tactiv.

Lo que significa cada una de las variables son:

Agri: porcentaje de la población que trabaja en el sector agrícola.

Asal: Porcentaje de la población asalariada.

Cons: Porcentaje de la población que trabaja en el sector construcción.

Emp: Porcentaje de la población que posee su propia empresa.

Ind: Porcentaje de la población que trabaja en el sector industrial.

M16a: Porcentaje de la población de 16 años o menos.

M65a: Porcentaje de la población de 65 años o más.

Serv: Porcentaje de la población que trabaja en el sector servicios.

Tactiv: Tasa de población activa.

La base de datos en el SPSS se observa como en el siguiente recuadro:

 
 Luego, en la figura 37 procedemos a realizar nuestro análisis de
Componentes Principales, con el proceso que ya conocíamos:

En la figura 38 se observan las variables que elegiremos para desarrollar


nuestro ACP. Luego de seleccionadas nuestras variables, procedemos a
elegir los “Descriptivos” que podemos ver en la figura 39.

 
Análisis de Componentes Principales con SPSS (V)

Entre los descriptivos que utilizaremos para el ACP se seleccionaron los


siguientes: descriptivos univariados, solución inicial, matriz de
coeficientes y el test KMO y prueba de esfericidad de Bartlett. Esto
puede verse en la figura 39, y una vez elegidos los Descriptivos, basta
presionar el botón “continuar” para proseguir con nuestro análisis.

 
 La figura 40 nos muestra la extracción de los coeficientes para nuestro
ACP. Si observan detenidamente, el método es “Componentes
principales”, que es uno de los métodos de análisis factorial que se
pueden emplear. En “Analizar” podemos elegir entre la matriz de
correlaciones o la matriz de covarianza. También podemos elegir entre
las opciones de “Extraer” los Autovalores mayores que y el número de
factores; y las de “Mostrar”, también podemos ver lasolución inicial sin
rotar y el gráfico de sedimentación.

Finalmente, podemos ver el número máximo de interaciones para


convergencia que nosotros podemos establecer para el ACP que estemos
realizando.

 
 

La figura 41 presenta la opción “Rotación”, que básicamente podemos


utilizar alguno de los siguientes
métodos: Varimax, Oblimin directo, Quartimax,Equamax o Promax, o
simplemente omitir dichos métodos con la opción deNinguno.

Cada uno de estos métodos tiene su aplicación, y dependerá del caso en


el cuál se encuentre usted, para decidirse por uno u por otro método.

 
Análisis de Componentes Principales con SPSS (VI)

En el botón de “Puntuaciones factoriales” nos aparecen las opciones


de guardar como variables y seleccionar un método factorial (Regresión,
Barlett y Anderson-Rubin).

En el caso nuestro, seleccionamos la opción de guardar como variables


en nuestra base de datos, a través del método de Regresión. Cuando
estamos listos, basta dar un clic en el botón de “continuar” y todo lo que
hemos elegido queda guardado (ver figura 42).

 
 

El botón de “opciones” nos presenta varias alternativas, como podemos


verlo en la figura 43, y presenta la forma de tratar los valores perdidos
en nuestra base de datos. Las alternativas más comunes son: Excluir
casos según lista, Excluir casos según pareja, y Reemplazar por la
media.
Una vez que hayamos elegido la opción que más nos interese, damos
clic en la opción “continuar” y ya nos encontramos preparados para
desarrollar nuestro ACP.

Análisis de Componentes Principales con SPSS (VII)

Cuando ya tenemos previsto todo para nuestro ACP, entonces


procedemos a dar clic en el botón “Aceptar” (ver figura 44) para que el
Programa SPSS comience a desarrollar todos los cálculos y nos presente
los resultados en el visor de resultados.

A. factorial

Este es el visor de resultados del SPSS, en donde muestra todos los


cuadros, gráficos y resultados del análisis que le hemos solicitado
efectúe, en nuestro caso, un Análisis Factorial a con el Método de
Componentes Principales.
El primer cuadro es el que presenta los estadísticos descriptivos, en
donde se puede ver la “media” y “desviación típica” de cada una de las
variables en estudio.

Las comunalidades aparecen al principio, y se puede comprobar que son


muy altas (cercanas a 1), con lo cual se puede decir que las variables
quedan muy bien explicadas a través de las componentes extraídas.

Comunalidades

Método de extracción: Análisis de Componentes principales.

En otras palabras, de la totalidad o 100% del fenómeno estudiado, el


componente 1 explica dicho fenómeno en un 78.28% y el componente 2
lo explica en un 15.05%, entonces, si unimos ambos componentes, se
obtiene que el porcentaje que explican los dos componentes del
fenómeno investigado es de 93.33%, o que la varianza total del
fenómeno es explicada en un 93.3% por los componentes 1 y 2.

Varianza total explicada

Método de extracción: Análisis de Componentes principales.

También podría gustarte