Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2
Índice general
PRÓLOGO..........................................................................................................5
INTRODUCCIÓN…………………………………………………………… 6
Referencias……………………………………………………………………. 92
Glosario…………………………………………………...…………………… 94
3
Figura 8. Menú de PRELIS…………………………………………………….. 38
Figura 9. Opción New del menú PRELIS………………………………..…… 38
Figura 10. Opción Import Data del menú PRELIS…………………………….. 39
Figura 11. Opción Open del archivo SPSS del menú PRELIS………………… 40
Figura 12. Opción Open archivo data100.sav y guardar como PSF……...……. 40
Figura 13. Nuevo menú PRELIS (DATA.PSF): Opción Statistics…….…….....41
Figura 14. Nuevo menú PRELIS (DATA.PSF): Opción Output Options……... 42
Figura 15. Archivo chollev.dat ….…………………………………………….. 45
Figura 16. CHOLLEV.PSF (PRELIS)………………………………………... 46
Figura 17. Number of variables…………….………………………………….. 46
Figura 18. Las tres variables y sus valores…………………………………….. 47
Figura 19. VAR3 de Chollev.PSF (PRELIS)………………………………..… 48
Figura 20. Impute Missing Values de VAR3 de Chollev.PSF (PRELIS)……... 49
Figuras 21 y 22. Output Options de VAR3 de Chollev.PSF (PRELIS)……….. 50
Figura 23. VAR3 sin datos faltantes de Chollev.PSF (PRELIS)……..………...52
Figura 24. Bases de datos antes y después de la imputación………………….. 53
Figura 25. Modelo confirmatorio de seis variables observadas y dos
variables latentes……………………………………………….…... 54
Figura 26. Abrir LISREL………………………………………………………. 55
Figura 27. Buscar carpeta LISREL…………………………………………….. 55
Figura 28. Seleccionar y abrir carpeta SPLEX (SIMPLIS )…………..……..… 56
Figura 29. Seleccionar y abrir archivo EX5A.SPL…………………………….. 56
Figura 30. Comandos para correr un AFC……………………...……………… 57
Figura 31. Gráfica de resultados del AFC……………………………………...58
Figura 32. Gráfica de trayectorias (ahora archivo EX5A.PTH)……………….. 59
Figura 33. EX5B.SPL. AFC modificado………………………………………. 64
Figura 34. Archivo EX5B.PTH modificado (gráfica de trayectorias)…………. 66
Figura 35. AFC modificado de EX5A.SPL …………………………………… 71
Figura 36. Archivo EX5A.PTH AFC modificado (gráfica de trayectoria)..........72
Figura 37. Modelo hipotético del ejemplo de modelamiento estructural……… 73
Figura 38. Abrir LISREL………………………………………………………. 74
Figura 39. Oprimir New………………………………………………………... 74
Figura 40. Oprimir SIMPLIS Project y Aceptar……………………………….. 75
Figura 41. Nombrar y Guardar……………………………………………….…75
Figura 42. Escribir datos en pantalla……………………………………………76
Figura 43. Gráfica de trayectorias (archivo .PTH)…………………………….. 77
Figura 44. Modelo hipotético modificado del ejemplo de modelamiento……... 84
Figura 45. Ecuación estructural modificada en SIMPLIS……………………... 85
Figura 46. Gráfica modificada de trayectorias del MES………………………..86
4
PRÓLOGO
Es para Cincel un honor poder publicar este escrito del Dr. Littlewood y la Maestra
Bernal. Muy gentil y generosamente estos investigadores nos entregaron el manuscrito
para ser publicado electrónicamente por este Centro de Investigación, sin costo alguno
para los lectores interesados.
Hemos leído con atención el manuscrito y nos ha impresionado muy positivamente que
un método estadístico avanzado y complejo pueda tener una presentación tan clara y
sencilla. El texto acompaña al lector paso a paso en la comprensión de los conceptos y
en el manejo del programa LISREL. En realidad, su lectura atenta y la realización
juiciosa de los ejercicios habilitan al lector para llevar a cabo el proceso y la
interpretación de su primer modelamiento de Ecuaciones Estructurales, tal como lo
anuncia el título del libro.
Los principios y conceptos claves son presentados con sencillez lo mismo que el
procedimiento. Los ejercicios son claros y muy ilustrativos y hay referencias claves para
consulta y búsqueda de ayudas en Internet.
Este trabajo paciente y metódico constituye una contribución importante de los autores
para ayudar eficazmente a quienes están dando sus primeros pasos en el uso de esta
metodología analítica, pero también para refrescar y clarificar elementos claves para el
investigador y usuario experimentado. Adicionalmente cuenta con el valor agregado de
que sus autores son psicólogos investigadores que ubican al lector en el contexto de la
psicología y del manejo de datos de investigación.
El Editor
5
INTRODUCCIÓN
6
La segunda autora se graduó como psicóloga organizacional de la Universidad de las
Américas y es estudiante de la maestría en Psicología del Trabajo, las
Organizaciones y los Recursos Humanos de la Universidad de Valencia (España), ha
publicado y presentado artículos y ponencias arbitradas en congresos nacionales e
internacionales. Cuenta con 10 años de experiencia laboral en recursos humanos,
administración del cambio y consultoría en empresas tales como: Deloitte, ICTS
Global, Planfía Autofinanciamiento Chrysler e Intertécnica. En el 2002 recibió el
premio nacional de psicología del trabajo en la categoría jóvenes talentos. Sus líneas
de investigación también se relacionan con renuncia psicológica, rotación de
personal, clima organizacional, medición de actitudes y diseño de instrumentos de
medición.
7
CAPÍTULO I. INTRODUCCIÓN AL MODELAMIENTO DE
ECUACIONES ESTRUCTURALES (MES)
8
Fuente: Anónimo (s/f). http://www.cob.unt.edu/slides/Paswan/BUSI6280/SEM1_Intro.pdf
Las ventajas del MES son el uso el análisis factorial confirmatorio (AFC) para
reducir el error de medición mediante la consideración de varios indicadores por variable
latente, el análisis de modelos completos que contemplan la interacción de variables, la
capacidad para estudiar simultáneamente más de una variable dependiente, la capacidad
para analizar variables mediadoras y manejar datos complejos como los que resultan de
distribuciones no normales o bases incompletas.
Otras ventajas del MES son: no es necesario asumir medición perfecta de los
indicadores, ya que es posible estimar los términos de error o el componente de varianza
única de cada indicador; los errores pueden estar correlacionados entre sí, lo cual es
importante para estudios longitudinales, por ejemplo la satisfacción en el trabajo en un
momento puede correlacionarse con la satisfacción en un momento posterior; y las
varianzas residuales o la varianzas no explicadas (1- R cuadrada) pueden correlacionar,
lo cual también es importante en investigaciones de corte longitudinal o transversal.
9
RMSEA, GFI o NFI (explicados en el capítulo 3 “Mediciones de ajuste del
modelo”).
c. Enfoque de desarrollo del modelo: Es usual que se combinen la perspectiva
exploratoria y la confirmatoria. En el caso de tener un modelo deficiente, un
modelo alterno es probado mediante cambios de índices sugeridos de
modificación. Su debilidad radica en la confirmación post-hoc del modelo,
pero esto puede resolverse mediante la replicación del estudio con una nueva
muestra de sujetos.
Entre las ventajas del MES está la capacidad para modelar constructos como
variables latentes (variables que no son medidas directamente), que son estimadas en el
modelo a partir de variables medidas (indicadores) que reflejan dichas variables latentes.
Esto permite al investigador estimar la confiabilidad de medida del modelo, lo que en
teoría permite la estimación de las relaciones estructurales entre las variables latentes. El
análisis factorial, el análisis de trayectorias y la regresión son casos especiales del MES.
10
Objetivos del libro.
http://www.ssicentral.com/lisrel/downloads.html
Free student edition
Please note that the student edition of LISREL for Windows limits the size of
the model you may analyze, and that technical support is not available.
11
CAPÍTULO II. LAS CINCO ETAPAS DEL MES.
El MES tiene cinco etapas, pero son dos las principales: validación del modelo de
medición (etapa 2) y el ajuste del modelo estructural (etapa 4), y esto se logra mediante
el análisis factorial confirmatorio (CFA) y mediante el análisis de trayectorias entre
variables latentes, respectivamente.
Satisfacción
en el Desempeño
trabajo
Si el investigador piensa que hay otras variables que anteceden a estas dos, tales
como “Motivación de logro”, “Especificidad de la tarea” e “Inteligencia verbal”,
entonces modifica el diagrama así (figura 3). Estas tres son denominadas variables
exógenas y satisfacción en el trabajo y desempeño son llamadas variables endógenas.
12
Fuente: Elaboración propia
Las flechas rectas indican una relación causal y las flechas curvas indican que las
variables correlacionan entre sí (la causa es la que está al principio de la flecha y el
efecto está junto a la punta de la flecha).
Las variables mediadoras pueden estar entre una variable exógena y una
dependiente, o entre otras dos variables endógenas. Estas reciben las fechas que
provienen de las variables exógenas u otra variable endógena, las cuales denotan una
relación causal.
13
de logro”, “Especificidad de la tarea” e “Inteligencia verbal” (figura 4) y cómo entre
“Past Relation” y “Education” y entre “Time 1 Stress” y “Time 2 Stress” (figura 1), de
acuerdo a un fundamento teórico.
14
Nótese que el modelo de medición de las variables endógenas se construye de la
misma manera y que puede analizarse junto con el otro modelo.
En este ejemplo (figura 4), los seis reactivos son las variables observadas o
también llamadas variables manifiestas, que en el caso de un cuestionario son los
reactivos o items. También pueden denominárseles como indicadores. Aunque dos
indicadores pueden ser suficientes, tres reactivos como mínimo son recomendados para
estimar la confiabilidad y la validez del modelo; la especificación de la medición fija la
varianza del error y la validez del instrumento. Es una convención que los reactivos
deben tener carga factoriales altas, por ejemplo .70 o más en su variable latente; los
símbolos son la carga de los indicadores en la variable correspondiente (figura 1).
Regresando a la figura 1, los indicadores son simbolizados con una “X” (X1 al
X4) en el caso de las variables latentes exógenas o una “Y” (Y1 al Y6) en el caso de las
variables endógenas; cada indicador está conectado a su respectiva variable latente
mediante una flecha recta corta.
Modelo nulo 1: Las correlaciones entre las variables observadas se limitan a cero
y se establece que las variables latentes también correlacionan cero entre sí. Las medias
y varianzas de las variables medidas no se limitan. Este es el modelo default línea base
de “independencia” y es el modelo default de la mayoría de los casos.
15
Modelo nulo 2: Las correlaciones entre las variables observadas son todas
iguales y las medias y varianzas de las variables observadas no se limitan.
Modelo nulo 4: Las correlaciones entre las variables observadas son todas
iguales. Las medias se limitan a cero. Las varianzas de las variables observadas no se
limitan. Esta opción 4 sólo aplica a modelos cuyas medias e interceptos son parámetros
explícitos del modelo.
Este análisis se efectúa para confirmar que los indicadores se agrupan en sus
respectivos factores de acuerdo con la teoría del investigador. El AFC es clave en el
MES, puesto que evalúa el error de medición del modelo y valida los factores
involucrados.
16
Cronbach puede subestimar o sobreestimar la confiabilidad de una escala. La
subestimación es común y este coeficiente es diferente al rho de Spearman.
Eso es, se especifican un conjunto de ecuaciones donde los parámetros son las
incógnitas, y si las incógnitas pueden resolverse de una sola o varias maneras, entonces
se dice que el modelo es identificado; de otro modo, si no se pueden resolver las
ecuaciones, se dice que el modelo está subidentificado y no puede proseguir el AFC ni el
MES.
Una condición necesaria para identificación es que p(p+1)/2 sea igual o mayor
a los parámetros (flechas rectas y curvas) a estimar, dónde p es el número de variables
observadas (indicadores).
17
Una solución contra la subidentificación, es la eliminación de uno o más
parámetros del modelo.
Nótese que el AFC y el MES son similares, la diferencia estriba que en el MES
si hay relaciones causales (flechas rectas) entre variables latentes.
Las flechas que conectan las variables exógenas con las endógenas tienen la letra
gamma y las flechas que conectan las variables endógenas entre si usan la letra beta
(coeficiente de regresión o peso beta estandarizado). El modelo usualmente es el llamado
modelo default y es fundamentado en teoría.
3.3 El modelo de independencia. Este modelo asume que todas las relaciones
entre variables son inexistentes, por lo que asume que las correlaciones entre variables
son cero. También puede considerársele como el modelo nulo como se vió en el AFC.
Mientras que el modelo saturado tiene una proporción cero de parsimonia, este modelo
18
tiene una proporción de parsimonia 1. La mayoría de los índices tienen un valor de cero,
excepto RMSEA y GFI (explicados en el capítulo 3).
Métricos. Antes de correr el MES a cada variable latente debe asignársele una
escala métrica y esto puede hacerse mediante la limitación de una de las trayectorias a
uno de sus indicadores a un valor de 1. Una vez limitada esta trayectoria, las demás
trayectorias se estiman. El indicador limitado a 1 es llamado “reactivo referente”.
19
Generalmente este indicador es el que tiene la mayor carga factorial con la
variable latente. Esto se hace en el capítulo de ejercicios.
Ahora bien, la validez del modelo también se deriva de las cargas factoriales de
los indicadores. Esta puede verse desde el enfoque de validez convergente y validez
discriminante:
20
Validez convergente. Es demostrada con correlaciones aceptables entre
indicadores de una misma variable latente. Indicadores de ajuste de un modelo apoyan la
validez convergente con coeficientes del modelo iguales o superiores a .70.
Estructura factorial. Término general usado para referir los coeficientes del
modelo (todas las cargas factoriales del modelo) y que es utilizado para determinar la
varianza explicada por el modelo. Es un acuerdo que la varianza extraída del modelo
como mínimo debe ser .50 . Su formula es una modificación de la confiabilidad del
constructo, y es: [(SUMA(sli2)]/[(SUMA(sli2) + SUMA(ei))].
21
La SMC es el porcentaje de varianza explicada de la variable y se reporta como un índice
de ajuste de cada ecuación del modelo estructural.
SMC para la(s) variable(s) Y: Esta es reportada por LISREL e informa el porcentaje de
varianza de los indicadores dependientes que se atribuyen a la(s) variable(s) latente (s)
dependiente(s).
SMC para la variable(s) X: Esta es reportada por LISREL e informa el porcentaje de
varianza de los indicadores independientes que se atribuyen a la(s) variable(s) latente(s)
independiente(s).
SMC para las ecuaciones estructurales: Esta es reportada por LISREL e informa el
porcentaje de varianza de la(s) variable(s) dependiente(s) latente(s) que se atribuyen a
la(s) variable(s) independiente(s) latente(s).
Quantiles o Q-Plots o Stem and Leaf Plots. Son tablas que LISREL reporta y
ellas ordenan los residuales estándarizados por tamaño y calculan los puntos
porcentuales en una distribución muestral. Además, los residuales son graficados contra
las desviaciones normales que corresponden a dichos puntos porcentuales, llamados
quantiles. Los Stem and Leaf Plots son calculados por LISREL y se muestran en el
capítulo 5 de ejemplos del LISREL.
22
las variables latentes y la validez predictiva de las variables independientes, tal cómo
ocurre en el caso de la regresión múltiple.
Ahora se evalúa que tan bien los datos se ajustan al modelo teórico, mediante
las siguientes pruebas:
Si no hay ajuste del modelo, que es lo más usual, entonces el modelo debe
modificarse y evaluarse de nueva cuenta. Por ejemplo, el paquete LISREL tiene la
opción de “modification indices” o “índices de modificación” que sugieren qué
restricciones están en desacuerdo con los datos observados; esto también se explica en el
capítulo 5 de ejercicios.
23
CAPÍTULO 3. MEDICIONES DE AJUSTE DEL MODELO.
Jaccard y Wan (1996) recomiendan que como mínimo se consulten tres pruebas
de las cinco categorías abajo presentadas. Por otro lado, Kline (1998) propone que
cuando mínimo se consulten cuatro: Ji cuadrada; GFI; NFI o CFI; NNFI o SRMR.
Una buena bondad de ajuste no significa que todas las partes del modelo ajusten
bien. Es posible que modelos alternativos puedan ajustar mejor. Eso es, los índices de
ajuste descartan modelos, pero no indican cual es el mejor. También es importante
señalar que un buen ajuste no significa que las variables exógenas sean las causas de las
variables endógenas. También es posible obtener un mal ajuste debido a un pobre
modelo de medición (AFC) y no por un erróneo modelo estructural.
Los índices deben verse como medidas sobre qué tanto ha avanzado una
especialidad o una teoría: se considera que valores de .90 de CFI son aceptables, pero un
CFI de .85 puede mostrar qué área de conocimiento ha mejorado si un modelo anterior
reportó .70.
Debe advertirse que tanto los paquetes LISREL, AMOS, EQS o MpPlus no
calculan todas la pruebas abajo enlistadas, y conforme se desarrollan dichos paquetes y
se publican nuevas versiones, cambian las pruebas realizables. El lector no debe olvidar
que Kline (1998) propone que cuatro pruebas son suficientes para el MES.
24
1. Ji cuadrada 2. También se le conoce como discrepancia, Ji cuadrada de
razón de verosimilitud, o Ji cuadrada de bondad de ajuste, o CMIN (en
AMOS). Esta prueba no debe ser significativa si es que hay un buen ajuste. Si
la probabilidad de la Ji cuadrada es de .05 o menor, entonces se dice que la
covarianza del modelo treórico es diferente a la covarianza de los datos
observados. Pero, debido a que la Ji cuadrada es conservadora (propensa al
error de tipo II), es conveniente descartar una Ji cuadrada significativa si otras
pruebas apoyan el modelo.
25
7. Residual estandarizado de la raíz cuadrada media (SRMR). En inglés se
le denomina standardized root mean square residual y es la diferencia
promedio entre las varianzas y covarianzas pronosticadas y observadas,
basada en el error estándar del residual. Entre menor sea el SRMR, mejor el
ajuste del modelo. Un valor inferior a .05 es considerado aceptable.
Chisq es Ji cuadrada.
También son índices absolutos de ajuste, pero de un tipo diferente. Estos índices
son apropiados para comparar modelos que han sido estimados por máxima
verosimilitud (MLE) y estos no tienen puntos críticos como .90, ya que se usan para
comparar modelos donde un valor menor representa un mejor ajuste.
10. BICp. Es un estadístico que cambia la escala de Akaike a fin de que los
factores sumen 1.0. Los valores representan las probabilidades y la suma de
todos los modelos da 100% y esto indica que uno de los modelos es el
correcto. Un modelo que tenga .60 señala que dicho modelo tiene 60% de ser
el correcto. En otras palabras, el modelo corregido es aquel con mayores
posibilidades de ser el correcto.
11. BICL. También es un estadístico que cambia la escala de Akaike a fin de que
los factores sumen 1.0. Valores de .05 o mayores consideran que el modelo
es el más probable.
26
12. CAIC. También es consistente con AIC y penaliza las pequeñas muestras y
la complejidad del modelo. Entre menor es el valor de CAIC mejor es el
ajuste.
13. BCC o criterio Browne-Cudeck. Este estadístico debe lograr valores de .90
o superiores y se calcula así:
(chisq/n) + ((2k)/(n-v-2)), donde “n”es el número de sujetos, “v” es el
número de variables, y k = (.5v(v+1))-df, donde df es grados de
libertad.
27
18. Parámetro de no centralidad (NCP). También se le conoce como el
parámetro de no centralidad de McDonald o DK, y es una Ji cuadrada que
penaliza la complejidad del modelo. Se calcula así:
((chisqn-dfn)-(chisq-df))/(chisqn-dfn), donde chisqn y chisq son las Ji
cuadradas del modelo nulo y del modelo teórico, dfn y df son sus
correspondientes grados de libertad. A fin de forzar la escala a 1, la
conversión usada es exp(-DK/2). NPC es usada con una tabla de
distribución de Ji cuadrada de no centralidad para evaluar el poder y
calcular los estadísticos RMSEA, CFI, RNI y CI. Notar que LO 90 y HI
90 son los límites inferior y superior del intervalo de confianza del
90%.
28
con supuestos de la Ji cuadrada. Normado significa que varía entre 0 y 1,
donde 1 es ajuste perfecto.
24. TLI o índice Tucker-Lewis, o NNFI . TLI es similar al NFI, pero penaliza
la complejidad del modelo y es relativamente independiente del tamaño de
muestra.
NNFI puede no estar dentro del rango 0 a 1, pero puede fijarse dentro
de ese rango. Es el índice menos afectado por el tamaño de muestra y
un NNFI negativo indica que la razón de modelo nulo es menor a la
razón del modelo teórico que ocurre cuando el modelo teórico tiene
pocos grados de libertad y las correlaciones son bajas.
Estos índices penalizan la complejidad del modelo y no usan los puntos de corte
acostumbrados de .90. Se usan para comparar modelos y entre más alto es el valor mejor
es el ajuste.
29
26. PNFI o índice de ajuste pasimónico normado. También se le denomina
PNFI1 y es igual a PRATIO menos NFI. Entre más cercano esté el modelo
teórico al modelo saturado (trivial que explica todo), más penalizado es el
NFI. No hay valores de corte comúnmente aceptados, pero un PNFI igual o
mayor a .60 significa buena parsimonia, y al comparar modelos anidados, el
modelo con un mayor PNFI es el mejor.
28. PGFI o índice de ajuste de bondad parsimónico. PGFI es una variante del
GFI, pero penaliza el GFI al multiplicarlo por la razón de los grados de
libertad del modelo teórico entre los grados de libertad del modelo
independiente. Se considera que un PGFI igual o mayor a .60 indica buena
parsimonia.
30
CAPÍTULO IV. SUPUESTOS DEL MES.
Aún cuando MES usa el análisis de trayectorias, el MES relaja varios supuestos
relacionados con el nivel de medición de los datos, sus interacciones y la correlación del
error.
31
4.4 Outliers o casos atípicos. La presencia de datos atípicos puede afectar el
modelo. El muestreo jackknife puede identificar dichos casos. El
procedimiento jackknife calcula los coeficientes de trayectorias para toda la
muestra, y luego para muestras (n-1), donde elimina un caso. Lo mismo se
hace con las covarianzas. Al comparar las diferencias en coeficientes de
trayectorias y covarianzas entre la muestra total y muestras jackknife, es
posible identificar outliers.
Un modelo esta subidentificado cuando hay más parámetros por estimar que
elementos en la matriz de covarianzas. Generalmente los paquetes reportan
“failure to converge” o “negative error variances”
32
k. Si MLE (maximum likelihood estimation) es usado, hay dos
soluciones más: substituir los valores iniciales propuestos por el
paquete y/o aumentar el número de iteraciones usadas para el logro de
convergencia.
Signos de multicolinearidad.
a. Pesos estandarizados de regresión cercanos a 1 que dificultan el
cálculo de pesos de regresión diferentes para ambas trayectorias. El
resultado es un peso estandarizado de regresión cercano a 1 y otro
cercano a -1. Notar que los pesos varían entre -1 y 1.
b. Los errores estándar de dos variables, que son causadas por una
misma variable latente, son grandes en comparación con otros errores
de otras trayectorias dentro del modelo.
c. Grandes covarianzas de las estimaciones de parámetros de dos
trayectorias en comparación con las covarianzas de otras trayectorias
diferentes.
d. Errores con varianza negativa de una variable que antecede a dos
variables casi idénticas.
4.10 Alta precisión. Ya sea que los datos sean de tipo intervalo u ordinal, los
datos deben tener un amplio rango de valores (se recomienda un rango de 15).
33
modelo. La covarianza de los puntajes dependientes y los residuales debe ser
cero, y la distribución de residuales debe ser normal.
4.15 Tamaño de muestra. No debe ser pequeña puesto que el MES es sensible
al tamaño. Es común encontrar estudios que tienen muestras entre 200 y 400
sujetos y modelos que analizan entre 10 y 15 indicadores. Kline (1998: 12) y
Schumacker y Lomax (2004: 49) señalan que como mínimo se debe tener 100
sujetos, y Stevens (1996) propone 15 sujetos por cada indicador.
34
CAPÍTULO V. CUATRO EJERCICIOS DE LISREL (PRELIS Y SIMPLIS)
El lector puede realizar por cuenta propia cuatro ejemplos con el paquete
LISREL versión estudiantil. En este capítulo se explica cómo descargar el paquete
gratuito de internet y presenta imágenes que facilitan el uso de los comandos LISREL
necesarios para correr el AFC , el MES y/o otros análisis estadísticos.
El primer ejercicio (5.1) muestra cómo se preparan los datos con PRELIS, paso
necesario para acceder a datos que vienen de SPSS u otras bases, o para la captura
manual de datos; el segundo ejercicio (5.2) enseña cómo editar datos con PRELIS
cuando el investigador se enfrenta a datos faltantes o missing; el tercer ejercicio (5.3)
describe como hacer un análisis factorial confirmatorio (AFC) mediante SIMPLIS; y el
cuarto ejercicio (5.4) explica como se realiza el modelamiento de ecuación estructural
mediante SIMPLIS.
http://www.ssicentral.com/lisrel/downloads.html
El tercer paso es abrir el LISREL y hay dos maneras de iniciar LISREL: Una es
abrir C y la carpeta archivos del programa (figura 5 y figura 6) y la otra es mediante
“Todos los programas” (figura 7).
En caso de elegir C y la carpeta archivos del programa (figura 5), de click en esa
carpeta y verá que aparecen varias carpetas más; ahora debe dar click a la carpeta
LISWIN32S.EXE para iniciar LISREL (ver figura 6).
35
36
La otra opción para abrir LISREL es mediante “Todos los programas” (figura 7),
en la que se da click en LISREL 88S y se abre la pantalla similar a la de la figura 8.
PRELIS usa una hoja de cálculo y contiene un menú con las opciones, tal como
lo muestra la figura 8. En este caso se da click o abre File y se despliega un submenú.
37
Fuente. Elaboración propia.
La opción Open (figura 8) sirve para abrir archivos PRELIS y LISREL, más
adelante se explica su uso.
38
Fuente. Elaboración propia (3 pantallas).
Figura 10: Opción Import Data del menú PRELIS (en carpeta Tutorial
dentro del archivo “Lisrel student examples”)
39
Fuente. Elaboración propia.
Figura 11: Opción Open (abrir) archivo SPSS del menú PRELIS
Figura 12: Opción Open archivo data100.sav SPSS y guardar como PSF.
40
El archivo PRELIS DATA100.PSF guardado muestra un nuevo menú (figura
13) que permite la edición, transformación, análisis estadístico, y graficación de los
datos. La designación es de datos ordinales puesto que las variables tienen menos de 15
categorías o intervalos. Note que se ha abierto Statistics en menú y un submenú.
41
Seleccione:
Escriba:
42
5.2. Ejercicio de edición de datos (Imputación).
Listwise: Borrar sujetos de todas las variables con algún dato faltante en
cualquier variable.
Pairwise: Borrar al sujeto sólo en aquella variable donde tenga un dato
faltante.
Substitución de media: Substituir el dato faltante con la media de la
variable.
Imputación por regresión: Substituir con el valor pronosticado el valor
faltante.
Maximum Likelihood (EM): Substituir con el valor esperado.
Match Response Pattern: Parear variables con datos de variables
completas.
43
La elección del método afectará la cantidad de sujetos disponibles para el
análisis. Listwise y Pairwise tienden a sacrificar sujetos y reducir el tamaño de muestra.
La substitución de media es posible cuando faltan pocos datos y la imputación por
regresión es útil cuando es moderada la falta de datos. El EM se recomienda cuando es
relativamente grande la falta de datos y la falta es aleatoria.
La imputación puede hacerse para una sóla variable (Impute Missing Values) o
para muchas variables (Multiple Imputation), mediante la opción Statistics del menú
(figura 13). La imputación individual se hace con Match Response Pattern y la múltiple
con la substitución de medias, la eliminación de casos, o EM.
44
Se abre la siguiente ventana (figura 16) ventana.que por default muestra como tipo
PRELIS Data. Escriba en la ventana Nombre: CHOLLEV.PSF y de click en guardar.
45
Fuente. Elaboración propia.
Al guardar se abre una nueva ventana (figura 17), ahora en “number of variables”
seleccione 3 (porque son tres variables) y dar click en Ok se abrirá la ventana que
muestra la figura 19 y en ella se pueden ver las tres variables y sus valores.
Como se mencionó, una vez que dio click en OK, se abre una ventana que
muestra las tres variables con sus respectivas variables por sujeto (figura 18).
46
Recuerde que solo hay
datos faltantes en VAR 3
Seleccione la opción Data del menú y vea como en la figura 19 se abre el menú Define
variables seleccione VAR3 como la variable faltante en Missing Values y se escribe -
9.00000 y da OK: Se eligió VAR3 porque es la única variable en la que faltan datos
(marcados con -9.00)
47
Fuente. Elaboración propia.
48
A continuación vaya al menú Statistics (figura 20) y búsque Impute Missing Values
(o Multiple Imputation para substituir dos o más variables faltantes con medias).
49
Fuente. Elaboración propia.
ANTES DE LA IMPUTACIÓN
50
Continúa antes de la imputación
Means (N=19)
VAR1 VAR2 VAR3
-------- -------- --------
259.474 230.842 221.474
DESPÚES DE LA IMPUTACIÓN
Number of Missing Values per Variable
VAR1 VAR2 VAR3
-------- -------- --------
0 0 9
Imputations for VAR3
Case 2 imputed with value 204 (Variance Ratio = 0.000), NM= 1
Case 4 imputed with value 142 (Variance Ratio = 0.000), NM= 1
Case 5 imputed with value 182 (Variance Ratio = 0.000), NM= 1
Case 10 imputed with value 280 (Variance Ratio = 0.000), NM= 1
Case 13 imputed with value 248 (Variance Ratio = 0.000), NM= 1
Case 16 imputed with value 256 (Variance Ratio = 0.000), NM= 1
Case 18 imputed with value 216 (Variance Ratio = 0.000), NM= 1
Case 23 imputed with value 188 (Variance Ratio = 0.000), NM= 1
Case 25 imputed with value 256 (Variance Ratio = 0.000), NM= 1
Means (N=28)
VAR1 VAR2 VAR3
51
Continúa después de la imputación.
Como puede apreciarse en el archivo cholnew.psf, los datos faltantes han sido
substituidos (imputados) en VAR3: Caso 2 = 204, caso 4 = 142, caso 5 = 182, caso 10 =
280, etc. (ver figura 23). Cholnew.psf se abre dándole click a File, luego click a Open
(asegurar que el tipo de archivo es PRELIS data (*.psf). y luego dándole click a
Cholnew.PSF.
Ojo, abra el archivo nuevo cholnew.PSF con la opción File Open, en la ventana Tipo debe
elegirse PRELIS Data (*.psf). No vea el archivo chollev.PSF, vea cholnew.PSF.
Fuente. Elaboración propia.
52
Antes Después
Figura 24: Bases de datos antes y después de la imputación.
53
Fuente. Elaboración propia.
Las variables observadas son los 9 rectángulos y las latentes son los 3 óvalos. Las
trayectorias o líneas van de cada variable latente a sus variables observadas, y estas
trayectorias especifican que un parámetro o carga factorial se estimará. La carga
factorial al cuadrado es la comunalidad estimada de la variable.
54
disco C). Luego abra en la carpeta SIMPLIS el archivo EX5A.SPL (ver
figuras 28, 29 y 30) dando click en Open.
Figura 27. Buscar carpeta LISREL (en este caso LISREL 8.8 student
examples, seleccionar File y Open)
55
Fuente. Elaboración propia.
56
Así se ve la sintaxis en pantalla del ejemplo EX5A.SPL:
_________________________________________________________________
Nine Psychological Variables - A Confirmatory Factor Analysis
Observed Variables
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN
ADDITION COUNTDOT 'S-C CAPS'
Correlation Matrix From File EX5.COR
Sample Size 145
Latent Variables: Visual Verbal Speed
Relationships:
'VIS PERC' - LOZENGES = Visual
'PAR COMP' - WORDMEAN = Verbal
ADDITION - 'S-C CAPS' = Speed
Number of Decimals = 3
Wide Print
Print Residuals
Path Diagram
End of Problem
____________________________________________________________________
Ahora, procede dar click al icono (en la barra de menú, ver figura 30).
57
Van a aparecer tres ventanas (ver figura 31), la primera ventana muestra la gráfica con
las variables latentes en óvalos (Visual, Verbal y Speed) y nueve rectángulos (ver figura
32); la segunda ventana contiene los resultados (texto y tablas numéricas) y se llama
EX5A.OUT (ver tabla 2); y la tercera ventana contiene las instrucciones (comandos) y se
llama EX5A.SPL. Las tres ventanas aparecen juntas en la misma pantalla, y es posible
que las tres o algunas de las tres ventanas estén minimizadas.
Recuerde que los resultados son presentados en la gráfica EX5B.PTH (figura 32)
y el archivo EX5B.OUT (tabla 2, una enorme tabla que la resume la tabla 1), dónde es
posible encontrar cinco principales índices. Pero vea la tabla 1 que no es preparada por
LISREL, sino elaborada por los autores de este libro) que indican que el AFC requiere
modificarse, ya que la Ji cuadrada es significativa, RMSEA es mayor a .08, y GFI no
llegó a .95. Note que la tabla 2 es muy larga (cinco páginas), por eso se presenta la tabla
1 para simplificar la búsqueda de índices.
58
Al final de EX5A.OUT (tabla 2) se encuentran índices por modificar (modification
indices), entre los que destacan:
add Path from S-C CAPS to VISUAL a fin de disminuir la Ji cuadrada en 24.7 puntos,
y……..
add an Error Covariance between COUNTDOT and ADDITION a fin de disminuir
la Ji cuadrada en 25.1 puntos.
59
Tabla 2. Resultados del análisis factorial confirmatorio (EX5A.OUT)
__________________________________________________________________
DATE: 4/16/2009
TIME: 10:59
L I S R E L 8.54
BY
Website: www.ssicentral.com
Correlation Matrix
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.318 1.000
LOZENGES 0.436 0.419 1.000
PAR COMP 0.335 0.234 0.323 1.000
SEN COMP 0.304 0.157 0.283 0.722 1.000
WORDMEAN 0.326 0.195 0.350 0.714 0.685 1.000
ADDITION 0.116 0.057 0.056 0.203 0.246 0.170 1.000
COUNTDOT 0.314 0.145 0.229 0.095 0.181 0.113 0.585 1.000
S-C CAPS 0.489 0.239 0.361 0.309 0.345 0.280 0.403 0.512 1.000
60
Continúa tabla 2
Number of Iterations = 9
Measurement Equations
(0.0702) (0.0515)
12.348 4.819
SEN COMP = 0.830*Verbal, Errorvar.= 0.311 , R² = 0.689
(0.0715) (0.0537)
11.608 5.787
WORDMEAN = 0.826*Verbal, Errorvar.= 0.318 , R² = 0.682
(0.0716) (0.0541)
11.525 5.882
ADDITION = 0.660*Speed, Errorvar.= 0.564 , R² = 0.436
(0.0853) (0.0874)
7.742 6.458
COUNTDOT = 0.801*Speed, Errorvar.= 0.359 , R² = 0.641
(0.0846) (0.0896)
9.464 4.006
S-C CAPS = 0.677*Speed, Errorvar.= 0.542 , R² = 0.458
(0.0851) (0.0869)
7.949 6.235
Degrees of Freedom = 24
Minimum Fit Function Chi-Square = 52.626 (P = 0.000648)
Normal Theory Weighted Least Squares Chi-Square = 49.966 (P =
0.00143)
Estimated Non-centrality Parameter (NCP) = 25.966
61
Continúa tabla 2
Fitted Residuals
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.027 0.000
LOZENGES -0.024 0.068 0.000
PAR COMP 0.018 -0.008 0.001 0.000
SEN COMP 0.001 -0.074 -0.025 0.002 0.000
WORDMEAN 0.024 -0.035 0.043 -0.002 0.000 0.000
ADDITION -0.110 -0.116 -0.174 0.021 0.072 -0.003 0.000
COUNTDOT 0.040 -0.064 -0.050 -0.126 -0.030 -0.097 0.056 0.000
S-C CAPS 0.257 0.062 0.125 0.122 0.166 0.102 -0.044 -0.030 0.000
62
Continúa tabla 2
Stemleaf Plot
- 1|7
- 1|3210
- 0|765
- 0|44333321000000000000000
0|22244
0|6677
1|023
1|7
2|
2|6
Standardized Residuals
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC --
CUBES -0.793 --
LOZENGES -1.353 2.087 --
PAR COMP 0.438 -0.139 0.020 --
SEN COMP 0.020 -1.294 -0.565 0.416 --
WORDMEAN 0.529 -0.609 0.950 -0.356 -0.054 --
ADDITION -1.946 -1.762 -3.117 0.375 1.225 -0.056 --
COUNTDOT 0.884 -1.102 -1.141 -3.013 -0.655 -2.084 5.007 --
S-C CAPS 4.650 0.958 2.294 2.241 2.904 1.776 -2.007 -2.886 --
Stemleaf Plot
- 3|10
- 2|910
- 1|984311
- 0|8766411100000000000
0|44459
1|0028
2|1239
3|
4|7
5|0
Largest Negative Standardized Residuals
Residual for ADDITION and LOZENGES -3.117
Residual for COUNTDOT and PAR COMP -3.013
Residual for S-C CAPS and COUNTDOT -2.886
Largest Positive Standardized Residuals
Residual for COUNTDOT and ADDITION 5.007
Residual for S-C CAPS and VIS PERC 4.650
Residual for S-C CAPS and SEN COMP 2.904
63
Continúa tabla 2
64
¡Este botón corre el análisis SIMPLIS ! No
vaya a oprimir un botón similar que tiene una P
en vez de una L.
Para no confundirse con los resultados del archivo EX5A, cierre las tres ventanas con
terminaciones (SPL, OUT y PTH).
65
Nota: Observar la flecha agregada que va de Visual a S-C CAPS
Fuente: Elaboración propia.
L I S R E L 8.54
BY
66
Continúa tabla 4.
Observed Variables
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN
ADDITION COUNTDOT 'S-C CAPS'
Correlation Matrix From File EX5.COR
Sample Size 145
Latent Variables: Visual Verbal Speed
Relationships:
'VIS PERC' - LOZENGES 'S-C CAPS' = Visual
'PAR COMP' - WORDMEAN = Verbal
ADDITION - 'S-C CAPS' = Speed
Number of Decimals = 3
Wide Print
Print Residuals
Path Diagram
End of Problem
Correlation Matrix
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.318 1.000
LOZENGES 0.436 0.419 1.000
PAR COMP 0.335 0.234 0.323 1.000
SEN COMP 0.304 0.157 0.283 0.722 1.000
WORDMEAN 0.326 0.195 0.350 0.714 0.685 1.000
ADDITION 0.116 0.057 0.056 0.203 0.246 0.170 1.000
COUNTDOT 0.314 0.145 0.229 0.095 0.181 0.113 0.585 1.000
S-C CAPS 0.489 0.239 0.361 0.309 0.345 0.280 0.403 0.512 1.000
Number of Iterations = 8
Measurement Equations
VIS PERC = 0.708*Visual, Errorvar.= 0.498 , R² = 0.502
(0.0868) (0.0901)
8.163 5.533
67
Continúa tabla 4.
Degrees of Freedom = 23
Minimum Fit Function Chi-Square = 28.862 (P = 0.185)
Normal Theory Weighted Least Squares Chi-Square = 28.674 (P = 0.191)
Estimated Non-centrality Parameter (NCP) = 5.674
90 Percent Confidence Interval for NCP = (0.0 ; 23.499)
68
Continúa tabla 4.
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.342 1.000
LOZENGES 0.460 0.314 1.000
PAR COMP 0.343 0.234 0.315 1.000
SEN COMP 0.328 0.224 0.301 0.720 1.000
WORDMEAN 0.326 0.222 0.299 0.716 0.685 1.000
ADDITION 0.187 0.128 0.172 0.128 0.123 0.122 1.000
COUNTDOT 0.241 0.164 0.221 0.165 0.158 0.157 0.585 1.000
S-C CAPS 0.440 0.300 0.403 0.301 0.288 0.286 0.399 0.513 1.000
Continúa tabla 11.
Fitted Residuals
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.024 0.000
LOZENGES -0.024 0.105 0.000
PAR COMP -0.008 0.000 0.008 0.000
SEN COMP -0.024 -0.067 -0.018 0.002 0.000
WORDMEAN 0.000 -0.027 0.051 -0.002 0.000 0.000
ADDITION -0.071 -0.071 -0.116 0.075 0.123 0.048 0.000
COUNTDOT 0.073 -0.019 0.008 -0.070 0.023 -0.044 0.000 0.000
S-C CAPS 0.049 -0.061 -0.042 0.008 0.057 -0.006 0.004 -0.001 0.000
Stemleaf Plot
-10|6
- 8|
- 6|11071
- 4|42
- 2|7444
- 0|9886210000000000000
0|24888
2|3
4|8917
6|35
69
Continúa tabla 4
8|
10|5
12|3
Standardized Residuals
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC --
CUBES -0.676 --
LOZENGES -1.074 2.484 --
PAR COMP -0.200 0.000 0.180 --
SEN COMP -0.536 -1.116 -0.361 0.315 --
WORDMEAN -0.005 -0.457 1.021 -0.364 0.049 --
ADDITION -1.278 -1.021 -1.931 1.315 2.075 0.805 --
COUNTDOT 1.832 -0.307 0.177 -1.950 0.562 -1.029 -- --
S-C CAPS 1.952 -1.341 -1.343 0.180 1.174 -0.121 1.591 -1.593 --
Stemleaf Plot
- 1|996
- 1|3331100
- 0|755
- 0|443210000000000000
0|2223
0|68
1|023
1|68
2|01
2|5
70
Fuente: Elaboración propia
71
Nota: Observar la flecha curva agregada que conecta a COUNTDOT y ADDITION.
Fuente: Elaboración propia.
72
variables observadas (EdAsp OcAsp VerbAch QuantAch FamInc FaEd MoEd
VerbAb QuantAb); la matriz de covarianzas; el tamaño de la muestra (200); las 4
variables latentes (ASPIRE ACHIEVE HOME ABILITY); las relaciones entre las
variables latentes y las variables observadas); y las instrucciones de Print
Residuals, Path Diagram y End of problem. El modelo hipotético se presenta en la
figura 37. Notar que a diferencia del AFC, las variables latentes se conectan con flechas
rectas.
73
Fuente: Elaboración propia
74
Fuente: Elaboración propia
5.4.5. Escribir datos en pantalla: anotar el título y demás datos (figura 42).
75
Nota 1: La anotación 1* indica que los parámetros han sido fijados a 1, para que así sean la variable
observada de referencia de la variable latente.
Nota 2: Hay 24 parámetros libres a estimarse. El modelo esta sobreidentificado ya que p(p + 1)/ 2 =
9(9 + 1) / 2 = 45, y los grados de libertad son 21 (45 menos 24).
_____________________________________________________________________________
Fuente: Elaboración propia
Figura 42. Escribir datos en pantalla
76
Fuente: Elaboración propia
L I S R E L 8.54
BY
77
Continúa tabla 6
Covariance Matrix
EdAsp OcAsp VerbAch QuantAch FamInc FaEd
-------- -------- -------- -------- -------- --------
EdAsp 1.02
OcAsp 0.79 1.08
VerbAch 1.03 0.92 1.84
QuantAch 0.76 0.70 1.24 1.29
FamInc 0.57 0.54 0.88 0.63 0.85
FaEd 0.45 0.42 0.68 0.53 0.52 0.67
MoEd 0.43 0.39 0.64 0.50 0.47 0.55
VerbAb 0.58 0.56 0.89 0.72 0.55 0.42
QuantAb 0.49 0.50 0.89 0.65 0.51 0.39
Covariance Matrix
Number of Iterations = 10
78
Continúa tabla 6
Measurement Equations
Structural Equations
79
Continúa tabla 6
HOME ABILITY
-------- --------
HOME 0.53
(0.08)
6.45
Degrees of Freedom = 21
Minimum Fit Function Chi-Square = 57.17 (P = 0.00)
Normal Theory Weighted Least Squares Chi-Square = 58.85 (P =
0.00)
Estimated Non-centrality Parameter (NCP) = 37.85
90 Percent Confidence Interval for NCP = (18.69 ; 64.65)
80
Continúa tabla 6
Fitted Residuals
Fitted Residuals
81
Continúa tabla 6
Stemleaf Plot
- 4|51830
- 2|8193321
- 0|88433219000000000000
0|523
2|138
4|3
6|
8|249
10|44
12|
14|
16|4
Standardized Residuals
EdAsp OcAsp VerbAch QuantAch FamInc FaEd
-------- -------- -------- -------- -------- --------
EdAsp --
OcAsp -- --
VerbAch 1.42 -0.80 --
QuantAch -0.78 -0.36 -- --
FamInc 3.54 3.11 5.35 2.80 --
FaEd -2.25 -0.58 -2.63 -0.86 -2.81 --
MoEd -1.03 -1.03 -2.15 -0.84 -3.24 6.34
VerbAb 0.88 1.96 -2.28 1.31 4.59 -0.90
QuantAb -2.56 0.18 1.82 -0.57 3.47 -1.29
Standardized Residuals
82
Continúa tabla 6
Por otro lado, los índices de modificación (tabla 8) que aparecen en el archivo
con extensión OUT sugieren que se incluya una trayectoria de FamInc a ABILITY, a
fin de reducir la Ji cuadrada en 35.5 puntos y/o correlacionar MoEd y FaEd para así
reducir la Ji cuadrada en 40.2 puntos.
83
Debido a que la reducción de Ji cuadrada de 40.2 es la mayor, y teóricamente es
posible, se procede a modificar el modelo mediante el parámetro de correlación entre
MoEd y FaEd (ver figura 44).
84
Fuente: Elaboración propia
85
Fuente: Elaboración propia
L I S R E L 8.54
BY
86
Continúa tabla 9.
Covariance Matrix
Covariance Matrix
Number of Iterations = 9
87
Continúa tabla 9.
Measurement Equations
Structural Equations
88
Continúa tabla 9.
HOME ABILITY
-------- --------
HOME 0.66
(0.09)
7.32
Degrees of Freedom = 20
Minimum Fit Function Chi-Square = 19.17 (P = 0.51)
Normal Theory Weighted Least Squares Chi-Square = 18.60 (P =
0.55)
Estimated Non-centrality Parameter (NCP) = 0.0
90 Percent Confidence Interval for NCP = (0.0 ; 12.67)
89
Continúa tabla 9.
90
5.5. Problemas comunes al correr LISREL.
Son cuatro los problemas comunes a los que nos enfrentamos al realizar el MES:
La carencia de una teoría o hipótesis fundamentadas; la introducción errónea de texto
(p.e. una minúscula por una mayúscula) que resulta en “model does not converge”; la
omisión de comandos o el uso de comandos incorrectos; y multicolinealidad que impide
el cálculo de la matriz inversa y que se reporta como “Matrix to be analayzed is not
positive definitive”.
Por estas causas, es conveniente partir de una teoría bien fundamentada antes de
inciar el análisis con LISREL, y verificar que la introducción de datos, texto y comandos
se correcta.
91
Referencias
Bollen, Kenneth A. (1989). Structural equations with latent variables. NY: Wiley. A
leading, readable text on structural modeling.
Carmines, E. G. and McIver, J.P. (1981). Analyzing models with unobserved variables:
Analysis of covariance structures. Pp. 65-115 in George W. Bohmstedt and
Edward F. Borgatta, eds., Social Measurement. Thousand Oaks, CA: Sage
Publications
Jöreskog, K.G. (1970). A general method for the analysis of covariance structures.
Biometrika, 57, 239-251.
Marcoulides, G.A. and Schumacker, R.E. (2001). New Developments and Techniques in
Structural Equation Modeling. London: Lawrence Eribaum Associates.
Mulaik, S. A. & Millsap, R. E. (2000). Doing the four-step right. Structural Equation
Modeling 7, 36-73
92
Simon, H. (1953). Causal ordering and identifiability, in Hood, W.C.; Koopmans, T.C.,
Studies in Econometric Method, New York: Wiley, pp. 49–74
Stevens, J, (1996), Applied multivariate statistics for the social science, New Jersey:
Lawrence Erlbaum Associates.
93
Glosario.
94
Nota: el primer subíndice es consecuencia y el segundo es predictor, de tal manera que
’21’ significa de Xii 1 a Eta 2.
(Beta): Trayectorias estructurales, coeficientes de regresión o pesos betas
estándarizados que va de una variable endógena a otra variable endógena. Hay una
trayectoria que va de 1 a 2, y se le llama 21.
(Zeta): Estos son las varianzas no explicadas de una variable latente (1-R cuadrada).
Hay dos, 1 y 2. Notar que estos residuales pueden correlacionarse y se denominan
como 21.
Términos.
95
Estadística No Paramétrica. Estudia las pruebas y modelos estadísticos cuya
distribución subyacente no se ajusta a los llamados criterios paramétricos. Su
distribución no puede ser definida a priori, pues son los datos observados los que la
determinan. La utilización de estos métodos se hace recomendable cuando no se puede
asumir que los datos se ajusten a una distribución normal o cuando el nivel de medida
empleado no sea, como mínimo, de intervalo.
Estimación máxima de verosimilitud o maximum likelihood estimation. Técnica
estadística usada para estimar simultáneamente todos los parámetros del modelo.
LISREL. Procedimiento y paquete de análisis de Linear Structural RELations de
conjuntos de variables latentes y observables, y de su estructura de covarianzas. Realiza
análisis factorial confirmatorio y análisis de trayectorias.
Modelamiento de ecuación estructural (MES o SEM en inglés). Técnica estadística
multivariada que combina el análisis factorial confirmatorio y el análisis estructural de
trayectorias.
Modelo anidado (nested). Modelo que usa los mismos constructos que otro modelo,
pero difiere en el número o tipos de relaciones causales. Cuando una trayectoria es
modificada, se dice que el modelo esta anidado en el modelo original.
Modelo de medición. Submodelo de modelamiento de ecuación estructural que
especifica indicadores por constructo y evalúa la confiabilidad y validez de los
constructos involucrados.
Modelo estructural. Conjunto de relaciones entre variables o constructos; establece una
secuencia o trayectoria presumiblemente causal entre variables independientes y
variables dependientes.
Multicolinealidad. Grado en el que una variable independiente varía con otras variables
independientes. Altos niveles de multicolinealidad afectan los supuestos estadísticos de
independencia de las variables.
Pearson correlation (correlación producto momento de Pearson). Calcula la relación
entre dos variables de tipo intervalar y que están normalmente distribuidas.
Polychoric correlation (correlación policórica). Calcula la relación entre dos variables de
tipo intervalar y que están normalmente distribuidas, pero que están agrupadas en dos
categories (correlación tetracórica) o en múltiples categorías ordenadas (correlación
policórica). Polyserial correlation (correlación poliserial).Calcula la relación entre una
variable de tipo intervalar y de distribución continua, y una variable discreta de dos valores
como ocurre con sexo (correlación point-biserial) o que tiene más de dos valores igualmente
espaciados (correlación point-polyserial).
PRELIS. Es un acrónimo de PRE-processor de LISREL y es útil para preparar bases de
datos y obtener las matrices de correlaciones y covarianzas necesarias pare el MES.
Regresión Múltiple. Es un método para analizar el efecto de dos o más variables
independientes sobre una dependiente. Es una extensión de la regresión lineal sólo que
con un mayor número de variables independientes. Sirve para predecir el valor de una
variable dependiente conociendo el valor y la influencia de las variables independientes
incluidas en el análisis.
SIMPLIS. Es un acrónimo de SIMPLe english para LISREL que contiene una sintaxis o
commandos simples necesarios para llevar a cabo aplicaciones LISREL en Windows.
Validez. Es el grado en que un instrumento refleja un dominio realmente mide la
variable que pretende medir. Ejemplo: un instrumento para medir inteligencia válido
debe medir inteligencia y no la memoria.
Validez de constructo. Tipo de validez que determina qué tanto un instrumento de
medición efectivamente mide un constructo teórico.
96
Variable observada o indicador. Valor observado que se usa para medir indirectamente
un constructo teórico o variable latente. Es una variable operacionalizada; un ejemplo es
un reactivo o conjunto de reactivos de un cuestionario.
Variable. Es una propiedad que puede variar y cuya variación es susceptible de medirse.
La variable se aplica a un grupo de personas u objetos, los cuales pueden adquirir
diversos valores respecto a la variable.
Variable dependiente. Es el efecto resultante de la manipulación de la variable
independiente. La variable dependiente no se manipula, sino que se mide para ver el
efecto de la variable independiente sobre ella.
Variable endógena. Constructo que es una consecuencia dependiente de una variable
exógena. En el diagrama de trayectorias, las flechas apuntan a variables endógenas que
se representan con un óvalo.
Variable exógena. Constructo que predice o antecede a una o más variables endógenas.
En el diagrama de trayectorias, la flecha parte de ella y sale de un óvalo.
Variable independiente. Es la que se considera como supuesta causa en una relación
entre variables; es una condición antecedente.
Variable latente. Constructo que no es directamente observable o medible, pero que
puede ser medido indirectamente mediante variables observables.
97