Está en la página 1de 101

MI PRIMER MODELAMIENTO

DE
ECUACIÓN ESTRUCTURAL

LISREL

SEGUNDA EDICIÓN

2014

DR. HERMAN FRANK LITTLEWOOD ZIMMERMAN

MTRA. ELIZABETH REGINA BERNAL GARCÍA


MI PRIMER MODELAMIENTO DE ECUACION ESTRUCTURAL LISREL
2ª. Edición

Herman Frank Littlewood Zimmerman


hermanlittlewood@yahoo.com.mx

Elizabeth Regina Bernal García


psicologa_ebernal@yahoo.com

México, D.F. Agosto del 2014

Herman Frank Littlewood Zimmerman (autor-editor).


Bosques de Fontainebleau 63, Paseos del Bosque, Naucalpan, 53297, Estado de México, México.
2a. Edición
Agosto del 2014
ISBN: 978-607-00-8266-5
Índice general

PRÓLOGO……….…………………………………………………………… 6

CAPÍTULO I. INTODUCCIÓN AL MODELAMIENTO DE


ECUACIONES ESTRUCTURALES (MES)……………………………….. 8

CAPÍTULO II. LAS CINCO ETAPAS DEL MES………………………… 11


Etapa 1. Especificación del modelo……………………………………………. 11
Etapa 2. Modelo de medición………………………………………………….. 13
Etapa 3. Estimación del modelo (MES)………………………………………... 17
Etapa 4. Prueba del modelo MES……………………………………………… 23
Etapa 5. Modificación del modelo……………………………………………... 23

CAPÍTULO III. MEDICIONES DE AJUSTE DEL MODELO…………... 24


3.1 Primer categoría de índices de ajuste. Pruebas de bondad de ajuste de
covarianzas pronosticadas y observadas………………………………………. 24
3.2 Segunda categoría de índices de ajuste. Pruebas de bondad de ajuste de
estimación de máxima verosimilitud…………………………………………... 26
3.3 Tercer categoría de índices de ajuste. Pruebas de bondad de ajuste de no
centralidad……………………………………………………………………... 27
3.4 Cuarta categoría de índices de ajuste. Pruebas de bondad de ajuste que
comparan un modelo teórico contra el modelo nulo o alternativo…………….. 28
3.5. Quinta categoría de índices de ajuste. Pruebas de bondad de ajuste que
penalizan la falta de parsimonia……………………………………………….. 30

CAPÍTULO IV. SUPUESTOS DEL MES………………………………….. 31

CAPÍTULO V. CUATRO EJERCICIOS DE LISREL .………….……... 35


5.1. Ejercicio de introducción de datos………………………………………… 38
5.2. Ejercicio de edición de datos (Imputación)……………………………….. 44
5.3. Ejercicio de modelo de medición o análisis factorial confirmatorio…….... 53
5.4. Ejercicio de Ecuación Estructural…………………………………………. 77
5.5. Problemas comunes al correr LISREL……………………………………. 94

Referencias……………………………………………………………………. 95
Glosario…………………………………………………...…………………… 98
Índice de tablas y figuras

Figura 1. Ejemplo de un diagrama MES……………………………………….. 9


Figura 2. Especificación del modelo…………………………………………… 11
Figura 3. Modificación del modelo…………………………………………….. 12
Figura 4. Modelo exógeno de medición………………………………………. 14
Figura 5. Disco local (C:) y carpeta “Archivos del programa”…………………36
Figura 6. Carpeta LISWIN32S.EXE…………………………………………… 37
Figura 7. Escritorio: LISREL 9.1 student…………………………………….. 37
Figura 8. Menú de LISREL………………………………………………….. 38
Figura 9. . Opción New del menú LISREL..……………………………..…… 38
Figura 10. Opción Import Data del menú LISREL..………………………….. 40
Figura 11. Opción Open del archivo SPSS del menú LISREL…………………41
Figura 12. Opción Open archivo data100.sav y guardar como PSF……,,,……. 42
Figura 13. Nuevo menú PRELIS (DATA.lsf):Opción Statistics……….…….... 42
Figura 14. Nuevo menú PRELIS (DATA.lsf): Opción Output Options………. 43
Figura 15. Archivo chollev.dat ….…………………………………………….. 47
Figura 16. CHOLLEV.PSF (LISREL).………………………………………... 48
Figura 17. Number of variables…………….………………………………….. 48
Figura 18. Las tres variables y sus valores…………………………………….. 49
Figura 19. VAR3 de chollev.lsf (LISREL)………………………………….… 50
Figura 20. Impute Missing Values de VAR3 de chollev.lsf (LISREL)………... 51
Figuras 21 y 22. Output Options de VAR3 de chollev.lsf (LISREL)………….. 53
Figura 23. VAR3 sin datos faltantes de chollev.lsf (LISREL)……..…...……...56
Figura 24. Bases de datos antes y después de la imputación………………….. 56
Figura 25. Modelo confirmatorio de seis variables observadas y dos
variables latentes……………………………………………….…... 57
Figura 26. Abrir LISREL………………………………………………………. 58
Figura 27. Buscar carpeta LISREL…………………………………………….. 59
Figura 28. Seleccionar y abrir carpeta SPLEX (SIMPLIS )…………..……..… 59
Figura 29. Seleccionar y abrir archivo EX5A.SPL…………………………….. 60
Figura 30. Comandos para correr un AFC……………………...……………… 61
Figura 31. Gráfica de resultados del AFC………………………………………62
Figura 32. Gráfica de trayectorias (ahora archivo EX5A.PTH)……………….. 63
Figura 33. EX5C.SPL. AFC modificado………………………………………. 69
Figura 34. Archivo EX5C.PTH modificado (gráfica de trayectorias)…………. 70
Figura 35. AFC modificado de EX5A.SPL …………………………………… 75
Figura 36. Archivo EX5A.PTH AFC modificado (gráfica de
trayectoria)………………………………...………………………... 76
Figura 37. Modelo hipotético del ejemplo de modelamiento estructural……… 77
Figura 38. Abrir LISREL………………………………………………………. 78
Figura 39. Oprimir New………………………………………………………... 78
Figura 40. Oprimir SIMPLIS Project y Aceptar……………………………….. 78
Figura 41. Nombrar y Guardar……………………………………………….…79
Figura 42. Escribir datos en pantalla……………………………………………79
Figura 43. Gráfica de trayectorias (archivo .PTH)…………………………….. 80
Figura 44. Modelo hipotético modificado del ejemplo de modelamiento……... 88
Figura 45. Ecuación estructural modificada en SIMPLIS……………………... 88
Figura 46. Gráfica modificada de trayectorias del MES………………………..89

Tabla 1. Índices seleccionados de ajuste del AFC……………………………... 62


Tabla 2. Resultados del análisis factorial confirmatorio (EX5A.OUT)………..63
Tabla 3. Ïndices seleccionados de ajuste del AFC modificado………………… 69
Tabla 4. Resultados del AFC modificado (EXA5C.OUT)……………………. 70
Tabla 5. Índices seleccionados de ajuste del AFC……………………………... 76
Tabla 6. Resultados de la ecuación estructural (archivo con extensión OUT)… 80
Tabla 7. Índices seleccionados de ajuste de la ecuación estructural…………… 87
Tabla 8. Índices de modificación sugeridos para la ecuación estructural……… 87
Tabla 9. Resultados del MES modificado………………………………………89
Tabla 10.Ïndices seleccionados de ajuste del MES……………………………. 94
PRÓLOGO

El libro explica en los capítulos 1, 2 y 3 que es el modelamiento de ecuación estructural (MES) o Structural Equation
Modeling (SEM), que es un método cuantitativo que en la actualidad es utilizado por investigadores y consultores de
ciencias sociales y administración. El MES es una técnica estadística que permite al investigador poner a prueba modelos
teóricos que establecen relaciones, presumiblemente causales, entre variables latentes que se miden mediante variables
observadas o indicadores. Es común que los modelos consten de variables independientes, variables mediadoras que son
a la vez dependientes e independientes, y variables dependientes. El MES requiere de dos grandes pasos: a) el análisis
factorial confirmatorio (AFC) que valida el modelo de medición de las variables latentes (constructos) y b) la
comprobación de las trayectorias (parámetros) entre variables latentes.

En el capítulo 5 se explica y muestra gráficamente al lector como utilizar el programa SIMPLIS de LISREL que se
puede descargar gratuitamente de internet, necesario para: importar y adaptar bases de datos; realizar análisis factoriales
confirmatorios y llevar a cabo el modelamiento de la ecuación estructural.

El libro presenta en el capítulo 5 cuatro ejercicios prácticos y los lectores familiarizados con estadística descriptiva e
inferencial básica podrán realizar su primer modelamiento de ecuación estructural, e interpretar los resultados. Los
ejemplos usan bases de datos que se pueden acceder una vez que se descargó el paquete LISREL.

Debido a la constante actualización de los paquetes estadísticos, probablemente el lector encontrará diferencias entre
lo aquí presentado y el paquete descargado. Por tal motivo, los autores actualizaran el libro y darán explicaciones
detalladas en seminarios especializados.

Esta segunda edición considera la novena versión de LISREL, muy parecida a la octava version presentada en la
primera edición.

El primer autor del libro está certificado en el MES; es maestro de Psicología Industrial-Organizacional de The
University of Akron, E.U.A., Doctor en Ciencias de la Administración de la Escuela Superior de Comercio y
Administración del Instituto Politécnico Nacional, Doctor de la Facultad de Contaduría y Administración de la UNAM
y Doctor en Psicología de Universidad de las Américas; ha publicado investigaciones arbitradas relacionadas con el
MES en el país y en el extranjero; es árbitro de la Revista Interamericana de Psicología Ocupacional (Colombia), la
Academia de Ciencias Administrativas (ACACIA) y la Revista de Investigación Administrativa de la ESCA-IPN, y el
congreso de investigación de la Facultad de Contaduría, Administración e Informática de la UNAM; recibió el premio
nacional de psicología del trabajo en el 2003 y el reconocimiento del mejor trabajo de investigación ACACIA 2007, 2013
y 2014. Sus líneas de investigación se relacionan con renuncia psicológica o evitación del trabajo, rotación de personal,
desgaste ocupacional, clima organizacional, medición de actitudes y diseño de instrumentos de medición.
El autor tiene varias publicaciones que utilizan LISREL o AMOS, que pueden ser consultadas en internet y en la
sección de referencias de este libro.

La segunda autora se graduó como psicóloga organizacional de la Universidad de las Américas y Maestra en
Psicología del Trabajo, las Organizaciones y los Recursos Humanos de la Universidad de Valencia (España), ha publicado
y presentado artículos y ponencias arbitradas en congresos nacionales e internacionales. Cuenta con 10 años de
experiencia laboral en recursos humanos, administración del cambio y consultoría en empresas tales como: Deloitte,
ICTS Global, Planfía Autofinanciamiento Chrysler, Grupo Enrique e Intertécnica. En el 2002 recibió el premio nacional
de psicología del trabajo en la categoría jóvenes talentos. Sus líneas de investigación también se relacionan con renuncia
psicológica, rotación de personal, clima organizacional, medición de actitudes y diseño de instrumentos de medición.

La portada del libro presenta una figura de un modelamiento LISREL de una investigación sobre evitación del trabajo
o renuncia psicológica que puede consultarse en González Sánchez, I. Kertész, R., Romero González, R.E, García
Alvarez, C.M y Littlewood, H.F. (2008). Comportamiento Organizacional: Nuevos retos. Porrúa: México, D.F. ISBN:

978-970-819-053-4
CAPÍTULO I. INTRODUCCIÓN AL MODELAMIENTO DE ECUACIONES ESTRUCTURALES (MES).

El modelamiento de ecuación estructural (MES) es una técnica estadística para probar y estimar relaciones
presumiblemente causales que usan una combinación de datos estadísticos y suposiciones causales. El MES originalmente
fue articulado por el genetista Sewall Wright (1921), los economistas Trygve Haavelmo (1943) y Herbert Simon (1953), y
formalmente definido por Marcoulides y Schumaker (2001) y Schumacker y Lomax (2004)

El MES como lo conocemos en la actualidad es una derivación de las investigaciones realizadas por Karl Jöreskog
(1970). Jöreskog desarrolló un análisis de estructuras a partir de matrices de covarianzas mediante un modelo que denominó
LISREL. Esta representación propuesta tiene dos componentes: el de medición y el estructural. El componente de medición
refleja la relación entre las variables latentes (constructos o factores) e indicadores manifiestos (variables observadas), y se
le denomina análisis factorial confirmatorio. Por otro lado, el componente estructural refleja la relación entre variables
latentes.

El MES es un método estadístico que parte de la regresión múltiple, pero es más poderoso en cuanto al tratamiento
que le da a interacciones, relaciones no lineales, correlaciones entre variables independientes, error de medición, correlación
entre los términos de error, múltiples variables independientes medidas por varios indicadores, y la consideración de variables
independientes latentes medidas por varios indicadores. Es así que el MES es una alternativa robusta en comparación a la
regresión múltiple, análisis de trayectorias, series de tiempo y análisis de covarianzas en la validación de modelos hipotéticos.

El investigador inicia su estudio mediante la especificación de un modelo teórico que describe como se miden las
variables latentes y cómo se relacionan entre si dichas variables latentes. Las variables latentes son variables no observadas
directamente, tales como la satisfacción en el trabajo, justicia organizacional o compromiso organizacional; estas variables
son también denominadas “factores” y son estimadas o medidas con indicadores o variables observadas, como lo son los
reactivos de un cuestionario.

El primer paso consiste en llevar a cabo un análisis del modelo de medición (análisis factorial confirmatorio), que
consiste en verificar la validez de la medición de variables latentes mediante sus respectivos indicadores. El segundo gran
paso, consiste en especificar el modelo estructural, a fin de establecer como se relacionan entre si las variables latentes, de
manera similar como la regresión múltiple relaciona entre si a las variables independientes (VI) con la variable dependiente
(VD). Es común especificar el modelo mediante una gráfica como la mostrada en la figura 1.
Fuente: Anónimo (s/f). http://www.cob.unt.edu/slides/Paswan/BUSI6280/SEM1_Intro.pdf
Figura 1. Ejemplo de un diagrama MES

Las ventajas del MES son el uso el análisis factorial confirmatorio (AFC) para reducir el error de medición mediante
la consideración de varios indicadores por variable latente, el análisis de modelos completos que contemplan la interacción
de variables, la capacidad para estudiar simultáneamente más de una variable dependiente, la capacidad para analizar
variables mediadoras y manejar datos complejos como los que resultan de distribuciones no normales o bases incompletas.

Otras ventajas del MES son: no es necesario asumir medición perfecta de los indicadores, ya que es posible estimar
los términos de error o el componente de varianza única de cada indicador; los errores pueden estar correlacionados entre sí,
lo cual es importante para estudios longitudinales, por ejemplo la satisfacción en el trabajo en un momento puede
correlacionarse con la satisfacción en un momento posterior; y las varianzas residuales o la varianzas no explicadas (1- R
cuadrada) pueden correlacionar, lo cual también es importante en investigaciones de corte longitudinal o transversal.

Entre las ventajas del MES está la capacidad para modelar constructos como variables latentes (variables que no son
medidas directamente), que son estimadas en el modelo a partir de variables medidas (indicadores) que reflejan dichas
variables latentes. Esto permite al investigador estimar la confiabilidad de medida del modelo, lo que en teoría permite la
estimación de las relaciones estructurales entre las variables latentes. El análisis factorial, el análisis de trayectorias y la
regresión son casos especiales del MES.

El MES es parte de una familia de técnicas estadísticas que integra el análisis de trayectorias y el análisis factorial
mediante paquetes estadísticos como el LISREL o el AMOS. Por ejemplo, el MES en donde cada variable sólo tiene un
indicador es un caso de análisis de trayectorias (path analysis); el análisis factorial confirmatorio (AFC) permite analizar
varios constructos a la vez y sus respectivos indicadores, pero sin flechas que conectan entre si a las variables; y el modelo
híbrido es aquel que permite analizar el conjunto de indicadores por constructo (variable latente) y las trayectorias (flechas)
que conectan a los constructos entre si.

Los sinónimos de MES son análisis de covarianza estructural o modelamiento de covarianza estructural. Aunque
estos sinónimos señalan que el foco es el análisis de covarianza, el MES también puede analizar la matriz de correlaciones y
la estructura de medias de un modelo.

Objetivos del libro.

a. Describir en que consiste el MES.


b. Que el lector pueda realizar un modelamiento de ecuación estructural mediante el método SIMPLIS de LISREL,
mediante la descarga gratuita de la versión estudiantil de LISREL (http://www.ssicentral.com/lisrel/student.html)
NO descargue el “Free trial edition”, Si Descargue el “Free student
edition”.

La descarga puede llevar varios minutos.

Hay varios paquetes estadísticos que realizan el MES, y el libro solamente considera el paquete LISREL No obstante,
el lector puede aplicar otro paquete como el EQS, el AMOS o el Mplus.

LISREL (Linear Structural Relations) de SSI Scientific Software, es tal vez el paquete más reportado en revistas
científicas. Es posible descargar gratis la versión de estudiante (LISREL88StudentSetup.exe) también de esta liga:

http://www.ssicentral.com/lisrel/downloads.html

Download the student edition of LISREL for Windows (64.4 MB)

EQS de Peter Bentler y está disponible en: http://www.mvsoft.com/

AMOS distribuido por SPSS. Este programa puede aplicarse mediante


programación convencional o con gráficas amigables:
http://www-03.ibm.com/software/products/en/spss-amos

Mplus de Brent Meuthen se encuentra en: http://www.statmodel.com/.


CAPÍTULO II. LAS CINCO ETAPAS DEL MES.

El MES tiene cinco etapas, pero son dos las principales: validación del modelo de medición (etapa 2) y el ajuste del
modelo estructural (etapa 4), y esto se logra mediante el análisis factorial confirmatorio (CFA) y mediante el análisis de
trayectorias entre variables latentes, respectivamente.

En la descripción de las cinco etapas no se presentan análisis cuantitativos, sólo se explica en que consisten. En el
capítulo 3 se presentan y explican cuales son los índices o estadísticos usados por el MES, y en el capítulo 5 se realizan
ejercicios cuantitativos que demuestran cómo llevar los diferentes pasos del MES y cómo interpretar los resultados.

Etapa 1. Especificación del modelo.

Parte de la revisión de la literatura y la formulación de un modelo teórico. Esto consiste en identificar variables
latentes (constructos) y especificar las relaciones entre las variables. Por ejemplo, un problema de investigación se plantea
como: ¿hay relación entre el Desempeño y la Satisfacción en el trabajo?. En la figura 2 las variables latentes se identifican
con óvalos y considera la posibilidad de que ambas variables pueden ser causa, según el sentido de ambas fechas. Pudiera
sólo haber una flecha, si la teoría así lo indica (por ejemplo, de Satisfacción a Desempeño, si se considera a la Satisfacción
como la causa).

Figura 2. Especificación del modelo (especificación inicial)

Si el investigador piensa que hay otras variables que anteceden a estas dos, tales como “Motivación de logro”,
“Especificidad de la tarea” e “Inteligencia verbal”,
entonces modifica el diagrama así (figura 3). Estas tres son denominadas variables exógenas, y satisfacción en el trabajo y
desempeño son llamadas variables endógenas.
Fuente: Elaboración propia

Figura 3: Modificación del modelo (especificación final)

Las flechas rectas indican una relación causal y las flechas curvas indican que las variables correlacionan entre sí (la
causa es la que está al principio de la flecha y el efecto está junto a la punta de la flecha).

La inclusión de una variable trivial da a lugar a “missespecification” o especificación incorrecta del modelo que
resulta en la pérdida de precisión de estimación y la reproducción inadecuada de covarianzas observadas (no habrá ajuste de
datos), y la exclusión de una variable relevante da a lugar a estimación incompleta o sesgada del parámetro

Entonces, las variables latentes son variables no observadas, constructos o factores que son medidos
indirectamente a través de sus respectivos indicadores o reactivos. En la figura 3 son “Motivación de logro”; “Especificidad
de la tarea”; “Inteligencia verbal”; “Satisfacción en el trabajo” y “Desempeño” y en la figura 1 “Past Relation”, “Education”,
“Time 1 Stress”, y “Time 2 Stress” son las variables latentes.

La variables latentes pueden ser independientes (exógenas) que están a la izquierda de la figura, mediadoras o
dependientes (endógenas) que aparecen a la derecha de la figura. Las variables exógenas son independientes y no tienen
alguna variable que la anteceda. Las variables exógenas son etiquetadas con la letra griega “ “ y las variables endógenas
son identificadas con la letra griega eta “”. Cabe mencionar que estos y otros símbolos que más adelante se presentan, no
son necesarios para correr el paquete LISREL
Las variables mediadoras pueden estar entre una variable exógena y una dependiente, o entre otras dos variables
endógenas. Estas reciben las fechas que provienen de las variables exógenas u otra variable endógena, las cuales denotan
una relación causal.

Generalmente se asume que las variables latentes correlacionan entre si y esto se representa con una flecha curva de
covarianza de doble punta, cómo entre “Motivación de logro”, “Especificidad de la tarea” e “Inteligencia verbal” (figura 5)
y cómo entre “Past Relation” y “Education” y entre “Time 1 Stress” y “Time 2 Stress” (figura 1), de acuerdo a un fundamento
teórico.

Hasta aquí llega la primer etapa; se ha establecido la relación entre variables (latentes y observadas) que se visualiza
mediante un diagrama de óvalos, rectángulos y flechas (rectas y curvas).

Etapa 2. Modelo de medición.

En este segundo paso, las variables latentes (no directamente observables) requieren que el modelo de medición se
especifique y se valide. El resultado es la redacción o selección de variables observadas (por ejemplo, reactivos) para cada
una de las variables latentes. En el ejemplo del modelo de Desempeño se mide Motivación de logro; Especificidad de la tarea;
e Inteligencia verbal, con dos indicadores cada uno (figura 3). En la figura 1 “Past Relation” tiene tres indicadores;
“Education” sólo uno, ya que años de educación sólo requiere de un reactivo para su medición; y “Time 1 Stress” y “Time
2 Stress” tienen 3 indicadores cada uno.

El modelo de medición de Desempeño contempla variables exógenas latentes (variables independientes) y variables
endógenas latentes (variables dependientes), lo que significa que hay dos modelos de medición, uno para las variables
exógenas y otro para las endógenas (ver figura 4). Ambos modelos de medición pueden agruparse y analizarse en conjunto,
pero a fin de simplificar el ejemplo, sólo se muestra el modelo exógeno.
Fuente: Elaboración propia
Figura 4. Modelo exógeno de medición.

Nótese que el modelo de medición de las variables endógenas se construye de la misma manera y que puede analizarse
junto con el otro modelo.

En este ejemplo (figura 4), los seis reactivos son las variables observadas o también llamadas variables manifiestas,
que en el caso de un cuestionario son los reactivos o items. También pueden denominárseles como indicadores. Aunque dos
indicadores pueden ser suficientes, tres reactivos como mínimo son recomendados para estimar la confiabilidad y la validez
del modelo; la especificación de la medición fija la varianza del error y la validez del instrumento. Es una convención que
los reactivos deben tener carga factoriales altas, por ejemplo .70 o más en su variable latente; los símbolos  son la carga de
los indicadores en la variable correspondiente (figura 1).

Regresando a la figura 1, los indicadores son simbolizados con una “X” (X1 al X4) en el caso de las variables latentes
exógenas o una “Y” (Y1 al Y6) en el caso de las variables endógenas; cada indicador está conectado a su respectiva variable
latente mediante una flecha recta corta.

Los indicadores aparecen dentro de rectángulos y las variables latentes (Past Relation, Education, Time 1 Stress y
Time 2 Stress) dentro de óvalos. Las cuatro flechas rectas gruesas y largas sugieren que “Past Relation” y “Education” son
la causa de “Time 1 Stress”; y “Past Relation” y “Time 1 Stress” son causa de “Time 2 Stress”. La flecha curva con dos
puntas indica que “Past Relation” correlaciona con “Education” y “Time1 Stress” correlaciona con “Time 2 Strees”.
Como de explicó en la etapa 1, el proceso inicia con la formulación de una teoría o un modelo hipotético. Cada
variable o constructo es conceptualizado como una variable de tipo latente medida por varios indicadores. Es común que
varios indicadores sean seleccionados, mediante un análisis factorial exploratorio previo (common factor análisis o principal
axis factoring, por ejemplo), de una muestra de indicadores (reactivos); este análisis identifica las variables latentes y sus
indicadores correspondientes. Posteriormente se seleccionan tres, cuatro o cinco indicadores por variable latente y se
confirman con un Análisis Factorial Confirmatorio (AFC) en una muestra diferente de personas.

El AFC es el primer análisis y es necesario para determinar la validez de los indicadores en una segunda muestra.
Frecuentemente el AFC es referido como el “modelo nulo”. En este modelo, las covarianzas que aparecen en una matriz se
asumen igual a cero. En el AFC se pueden estimar uno o varios índices de ajuste (por ejemplo NFI, RFI, IFI, TLI o NNFI,
CFI, PNFI y PCFI, que son explicados en el capítulo 3). El AFC parte de un modelo nulo o una línea base contra el cual se
comparan los modelos default (modelos téoricos). Es posible tener cuatro opciones de modelos nulos, pero el primer modelo
es el que generalmente se usa; la elección de modelo nulo afecta el cálculo de los coeficientes de ajuste.

Modelo nulo 1: Las correlaciones entre las variables observadas se limitan a cero, y se establece que las variables
latentes también correlacionan cero entre sí. Las medias y varianzas de las variables medidas no se limitan. Este es el modelo
default línea base de “independencia” y es el modelo default de la mayoría de los casos.

Modelo nulo 2: La correlación entre las variables observadas son todas iguales, y las medias y varianzas de las
variables observadas no se limitan.

Modelo nulo 3: Las correlaciones de las variables observadas se limitan a cero. Las medias también son limitadas a
cero, pero las varianzas no se limitan. Esta opción 3 sólo aplica a modelos cuyas medias e interceptos son parámetros
explícitos del modelo.

Modelo nulo 4: Las correlaciones entre las variables observadas son todas iguales. Las medias se limitan a cero. Las
varianzas de las variables observadas no se limitan. Esta opción 4 sólo aplica a modelos cuyas medias e interceptos son
parámetros explícitos del modelo.

Una vez elegido el modelo, procede el análisis factorial confirmatorio (AFC).

Este análisis se efectúa para confirmar que los indicadores se agrupan en su respectivos factores de acuerdo a la
teoría del investigador. El AFC es clave en el MES, puesto que evalúa el error de medición del modelo y valida los factores
involucrados.

Este análisis puede hacerse mediante dos métodos:


Modelamiento de dos pasos. Kline (1998) recomienda que primero siempre se evalúe el modelo de medición y
luego se proceda con el segundo paso que es la puesta en prueba del MES (etapa 4).

Modelamiento de cuatro pasos. Mulaik y Millsap (2000) sugieren cuatro pasos más estrictos.
1. Análisis factorial común (exploratorio) para establecer la cantidad de variables latentes e indicadores.
2. AFC a fin de confirmar el modelo de medición. También puede limitarse las cargas factoriales a cero de las
variables medidas en otras variables latentes, para que cada variable medida cargue sólo en su variable latente.
3. Prueba del MES (etapa 4).
4. Probar modelos nested o anidados a fin de indentificar el mejor modelo (más parsimónico o simple).

Confiabilidad. Una vez realizado el análisis factorial confirmatorio y validado los constructos en una segunda
muestra, es necesario determinar el nivel de error de la medición de dichos constructos.

El coeficiente alpha de Cronbach es comúnmente usado para determinar que indicadores pertenecen a la misma
variable latente y el nivel de error de medición. Este coeficiente varía entre cero y 1, y generalmente se espera que los
indicadores tengan una confiabilidad de .70 o mayor. Puede haber conjuntos de indicadores con una confiabilidad inferior
a .70 y con índices aceptables de AFC superiores a .90. Esto puede ocurrir debido a una baja homogeneidad de varianza de
los reactivos o a la baja cantidad de reactivos por variable latente.

El coeficiente de rho de Raykov´s también pone a prueba la confiabilidad de un conjunto de reactivos. Raykov (1998)
ha demostrado que el coeficiente alpha de Cronbach puede subestimar o sobreestimar la confiabilidad de una escala. La
subestimación es común y este coeficiente es diferente al rho de Spearman.

Posteriormente, el investigador procede con el análisis, una vez que el modelo de medición ha sido validado. Uno o
dos modelos son comparados, uno puede ser el modelo nulo, en cuanto al ajuste con los datos empíricos que estima el grado
en el que las covarianzas predichas por un modelo corresponden a la varianzas observadas (datos). Los índices de
modificación u otros coeficientes pueden ser usados para cambiar y mejorar el modelo.

Condición previa para llevar a cabo la etapa 2 (Modelo de medición): La identificación.

La factibilidad del Análisis Factorial Confirmatrio (AFC) y la estimación del modelo estructural (MES) depende de
información disponible y la complejidad del modelo. La factibilidad es denominada como identificación. Tanto en el AFC
como en el MES los parámetros estimados (flechas rectas que conectan de manera causal a las variables latentes, flechas
curvas que correlacionan a variables latentes, flechas rectas cortas que conectan a los indicadores con su variable latente y
flechas rectas cortas que determinan el error de medición de cada indicador) determinan la matriz de covarianzas.
Eso es, se especifican un conjunto de ecuaciones donde los parámetros son las incógnitas, y si las incógnitas pueden
resolverse de una sola o varias maneras, entonces se dice que el modelo es identificado; de otro modo, si no se pueden
resolver las ecuaciones, se dice que el modelo está subidentificado y no puede proseguir el AFC ni el MES.

Hay tres niveles de identificación:

a. Subidentificación: Uno o más de los parámetros no pueden resolverse con la matriz de covarianzas, puesto
que hay más incógnitas de parámetros que ecuaciones.
b. Apenas identificado: Cuando hay información apenas suficiente en la matriz de covarianzas (mismo
número de incógnitas y de ecuaciones).
c. Sobreidentificación: Hay dos o más maneras para estimar las incógnitas de parámetros (más ecuaciones
que incógnitas).

Una condición necesaria para identificación es que p(p+1)/2 sea igual o mayor a los parámetros (flechas rectas y
curvas) a estimar, dónde p es el número de variables observadas (indicadores).

En el ejemplo de variables exógenas de Desempeño (figura 4) tenemos sobreindentificación necesaria para correr
un AFC: (6*(6+1))/2 = 21: Se tienen 15 parámetros libres (flechas) a estimar y como 21 es mayor, se tienen 6 grados de
libertad (21-15 = 6).

En el ejemplo completo de la figura 1 tenemos también sobreidentificación necesaria para correr un MES: (9*(9-
1))/2 = 36. Se tienen 26 parámetros libres a estimar y cómo 36 es mayor, se tienen 10 grados de libertad.

Una solución contra la subidentificación, es la eliminación de uno o más parámetros del modelo.

Nótese que el AFC y el MES son similares, al diferencia estriba que en el MES si hay relaciones causales (flechas
rectas) entre variables latentes.

El lector debe advertir que el paquete LISREL se encarga de evaluar la identificabilidad y que no realizará el AFC
ni el MES si no hay suficientes grados de libertad.

Etapa 3. Estimación del modelo (MES).

Una vez que se ha validado el modelo de medición y estimado la confiabilidad, procede este gran paso. En esta
etapa se valida la relación propuesta entre las variable latentes, como se propone en la figura 3 del ejemplo de “Desempeño”
o en la figura 1 de “Stress”.
La validación se logra al comparar la correspondencia de los datos empíricos (que se obtienen a través de los
indicadores) con el modelo teórico. En otras palabras, se compara la matriz de covarianzas observadas (o la matriz de
correlaciones observadas) y la matriz de covarianzas teóricas (o la matriz de correlaciones teóricas); LISREL se encarga de
obtener las matrices de covarianzas y de hacer dicha comparación.

El modelo estructural (MES). Este modelo contiene las variables endógenas y exógenas, los efectos directos (flechas
rectas) que conectan variables, correlaciones entre las variables exógenas e indicadores y los términos de error de cada
variable de acuerdo a una propuesta teórica (como lo proponen los modelos de las figuras 3 y 1).

Las flechas que conectan las variables exógenas con las endógenas tienen la letra gamma  y las flechas que conectan
las variables endógenas entre si usan la letra beta  (coeficiente de regresión o peso beta estandarizado). El modelo
usualmente es el llamado modelo default y es fundamentado en teoría.

3.1 El modelo default. Este es el modelo de investigación, más parsimónico (simple) que el saturado y casi siempre
ajusta mejor que el independiente. Eso es, el modelo default tiene una bondad de ajuste que se encuentra entre la explicación
perfecta del modelo saturado y del modelo de independencia.

3.2 El modelo saturado. Este en un modelo trivial que contiene tantas estimaciones de parámetros como grados de
libertad. Ocurre cuando el modelo contiene todas las flechas posibles. La mayoría de las mediciones de ajuste tienen un valor
de 1.0 (muy bueno), pero debido a que este modelo no es parsimónico (simple), las mediciones de ajuste basados en
parsimonia tienen valores de cero (muy malo), y algunos índices como el RMSEA no pueden calcularse. Estos índices son
explicados en el capítulo 3.

3.3 El modelo de independencia. Este modelo asume que todas las relaciones entre variables son inexistentes, por
lo que asume que las correlaciones entre variables son cero. También puede considerársele como el modelo nulo como se
vió en el AFC. Mientras que el modelo saturado tiene una proporción cero de parsimonia, este modelo tiene una proporción
de parsimonia 1. La mayoría de los índices tienen un valor de cero, excepto RMSEA y GFI (explicados en el capítulo 3).

3.4 Modelos MIMIC: Estos modelos tiene indicadores múltiples y múltiples modelos de independencia. Esto
significa que las variables latentes tienen los acostumbrados indicadores múltiples que son causados por variables observadas
adicionales. Gráficamente, el modelo contiene las flechas acostumbradas que parten de las variables latentes a cada uno de
los indicadores y los indicadores tienen los términos de error. Adicionalmente, hay rectángulos que representan a las variables
observadas con flechas que van a las variables latentes y flechas de covarianza que los conecta ya que son variables exógenas.
El ajuste del modelo se interpreta de la misma manera, pero las variables causales observadas deben asumirse que se miden
sin error. Este libro no trata este tipo de modelos y se recomienda se consulte el libro de Schumacker y Lomax (2004 y
2010).
3.5 Comentarios adicionales sobre los pasos seguidos en la especificación del modelo, y términos comunes
asociados al MES.

Se recuerda que el primer gran paso es la especificación de las variables latentes y sus respectivas variables observadas
(ver figuras 3 y 1). El paso siguiente fue el AFC a que se efectúo para validar la correspondencia de los indicadores con sus
respectivas variables latentes. El investigador al establecer la relación secuencial entre las variables latentes mediante flechas,
está determinando que efectos son nulos, cuáles son fijados como una constante (usualmente 1) y cuáles pueden variar. Los
efectos variables corresponden a las flechas del modelo, mientras que los efectos nulos no tienen flecha. Esto comúnmente
se representa en un diagrama como el de la figura 6 y el de la figura 1, los cuales pueden considerarse como modelos
suficientemente parsimónicos porque tienen pocas flechas que conectan a las variables latentes.

Modelo parsimónico. En la especificación del modelo es necesario determinar si este es suficientemente parsimónico
o simple y para ello hay índices de ajuste que se explican en el capítulo 3. Un modelo en el que ningún efecto es limitado a
cero, es uno que se ajustará a los datos, aún cuando el modelo no tenga lógica. La adición de flechas generalmente aumenta
el ajuste, pero afectará la parsimonía. Nótese que la falta de parsimonía puede ocurrir en modelos que tienen pocas variables.
Hay tres maneras para reducir la complejidad del modelo: una consiste en borrar flechas rectas que van de una variable
latente a otra; otra, borrar efectos directos que van de variables latentes a indicadores; o la última, borrar flechas curvas
(flechas con doble punta) que representan correlaciones entre términos de error o correlaciones entre variables latentes. La
letra phi se utiliza para representar esta curva de doble punta.

Concluyendo, la recomendación para lograr una parsimonía aceptable es iniciar con un modelo simple y gradualmente
añadir nuevas variable latentes y flechas, de acuerdo a una teoría previamente desarrollada.

Métricos. Antes de correr el MES a cada variable latente debe asignársele una escala métrica y esto puede hacerse
mediante la limitación de una de las trayectorias a uno de sus indicadores a un valor de 1. Una vez limitada esta trayectoria,
las demás trayectorias se estiman. El indicador limitado a 1 es llamado “reactivo referente”.
Generalmente este indicador es el que tiene la mayor carga factorial con la variable latente. Esto se hace en el capítulo
de ejercicios.

Términos de error de medición. Error de medición es el factor de error asociado con un indicador dado. Tal error
es denominado por la letra delta i en el caso de indicadores de constructos latentes exógenos, o denominado epsilon i en
el caso de indicadores de constructos latentes endógenos (ver figura 1). Los modelos de regresión asumen que el error es
cero, pero en el MES los términos de error son explícitamente modelados. En el caso de variables latentes que sólo tienen un
indicador, cómo en el caso de sexo (o Educación de la figura 1), el término de error es limitado a cero.
En el caso de modelos de regresión y trayectorias, sólo es posible modelar variables observadas, y solamente la
variable dependiente de la regresión o las variables endógenas del modelo de trayectorias, tienen estimaciones de error. Las
variables independientes en la regresión y las variables exógenas en el modelo de trayectorias se asumen medidas sin error.
El modelo de trayectorias es similar al MES, ya que también usa óvalos y flechas. Es por estas razones que el MES se
considera superior a la regresión y a al modelo de trayectorias.

Términos de error estructural. Nótese que los términos de error antes mencionados no deben confundirse con los
términos de error estructural que son también llamados términos de error residual o términos de disturbio. Este error refleja
la varianza no explicada de las variables latentes endógenas debido a las causas no medidas. Se usa la letra griega zeta para
su identificación (1-R cuadrada).

Coeficientes estructurales o de trayectorias. Son los efectos de tamaño (size effect) y se presentan como valores
junto a las flechas del modelo que conectan a variables latentes entre sí. También se le denominan pesos de regresión
(coeficientes beta) y cabe mencionar que no hay intercepto.

Los coeficientes del modelo (pattern coeficientes), en el caso de los índicadores,


se les conoce como cargas factoriales o coeficientes de validez; la variables
latentes del MES son similares a los factores identificados en un análisis factorial y los indicadores también tienen una carga
en su variable latente. Estos coeficientes se asocian con las flechas que parten de las variables latentes y llegan a los
indicadores. Es un acuerdo que los indicadores deben tener una carga mínima de .70 (Schumacker y Lomax, 2004: 212), y
cabe mencionar que la carga factorial puede usarse para evaluar la confiabilidad de las variables latentes.

La confiabilidad aceptable de un indicador, en relación a su constructo (variable latente), se establece como una carga
factorial mínima es .70. Considérese sli como las cargas estandarizadas de los indicadores de una variable en particular y ei
como los términos de error respectivos, donde el error es 1 menos la confiabilidad del indicador, que es el cuadrado de la
carga estandarizada del indicador.

Por ello, la confiabilidad es igual a [(SUMA(sli2)]/[(SUMA(sli2) + SUMA(ei))].

Ahora bien, la validez del modelo también se deriva de las cargas factoriales de los indicadores. Esta puede verse
desde el enfoque de validez convergente y validez discriminante:

Validez convergente. Es demostrada con correlaciones aceptables entre indicadores de una misma variable latente.
Indicadores de ajuste a de un modelo apoyan la validez convergente con coeficientes del modelo iguales o superiores a .70.
Validez discriminante. Es demostrada cuando los indicadores de una variable latente correlacionan mejor con dicha
variable latente que con otra(s) variable(s) latente(s). Este tipo de validez también puede determinarse cuando los índices de
modificación (MI) no señalan la necesidad de cargar algún(os) indicador(es) con una variable latente que no le corresponde.
Por otro lado, Anderson y Gerbing (1988) recomiendan probar cada par de variables latentes por separado, primero sin limitar
(constreñir) y luego con la correlación limitada a 1.0, esperando que la correlación limitada tenga un ajuste significativamente
menor.

Coeficientes estructurales estandarizados. Generalmente los investigadores usan coeficientes estandarizados al


calcular la matriz correlacional (o de covarianzas). La interpretación es similar a la hecha con la regresión: si el coeficiente
estructural es 2.0, entonces la variable latente dependiente aumenta en 2.0 unidades estándar por cada aumento unitario de
la variable latente independiente.

En LISREL, el resultado Eta es la matriz correlacional de las variables latentes dependientes e independientes. Eta
es un coeficiente correlación no lineal y se le conoce como la solución completamente estandarizada o Matriz correlacional
para Eta .

La razón crítica y la significancia de los coeficientes de trayectorias. Cuando la razón crítica de un peso de
regresión es mayor a 1.96, entonces es significativa a nivel de .05. En el caso de LISREL la razón crítica es el puntaje z.

3.5 Otros términos relacionados con el MES.

En el punto anterior destacan el error de medición asociados con los indicadores y las variables latentes, al que se le
denomina cómo confiabilidad. También destacan los coeficientes de los indicadores y de las trayectorias, puesto que son la
evidencia de su validez.

Ahora se presentan otros términos que contribuyen a determinar la varianza explicada del las variables endógenas y
el modelo integral propuesto por el investigador.

Estructura factorial. Término general usado para referir los coeficientes del modelo (todas las cargas factoriales
del modelo) y que es utilizado para determinar la varianza explicada por el modelo. Es un acuerdo que la varianza extraída
del modelo como mínima debe ser .50 . Su formula es una modificación de la confiabilidad del constructo, y es:
[(SUMA(sli2)]/[(SUMA(sli2) + SUMA(ei))].

Comunalidad. Es el cuadrado de la carga factorial y ella estima la comunalidad de cada varible. Ella mide el
porcentaje de varianza de un indicador (reactivo) explicada por la variable latente (factor) y puede interpretarse como la
confiabilidad de dicho indicador.
R cuadrada o la correlación múltiple cuadrada (SMC). Hay una R cuadrada o correlación múltiple cuadrada (SMC)
para cada una de las variables latentes del modelo. La SMC es el porcentaje de varianza explicada de la variable y se reporta
como un índice de ajuste de cada ecuación del modelo estructural.
SMC para la(s) variable(s) Y: Esta es reportada por LISREL e informa el porcentaje de varianza de los indicadores
dependientes que se atribuyen a la(s) variable(s) latente (s) dependiente(s).
SMC para la variable(s) X: Esta es reportada por LISREL e informa el porcentaje de varianza de los indicadores
independientes que se atribuyen a la(s) variable(s) latente(s) independiente(s).
SMC para las ecuaciones estructurales: Esta es reportada por LISREL e informa el porcentaje de varianza de la(s)
variable(s) dependiente(s) latente(s) que se atribuyen a la(s) variable(s) independiente(s) latente(s).

Quantiles o Q-Plots o Stem and Leaf Plots. Son tablas que LISREL reporta y ellas ordenan los residuales
estándarizados por tamaño y calculan los puntos porcentuales en una distribución muestral. Además, los residuales son
graficados contra las desviaciones normales que corresponden a dichos puntos porcentuales, llamados quantiles. Los Stem
and Leaf Plots son calculados por LISREL y se muestran en el capítulo 5 de ejemplos del LISREL.

3.6 Cálculo de de coeficientes de estimación de MES. Con LISREL, los coeficientes del MES pueden calcularse
de diversas maneras. La primera (MLE) es la más usada:

1. Estimación de máxima verosimilitud o maximum likelihood estimation (MLE). MLE es el más popular y busca
maximizar la probabilidad de que las covarianzas observadas sean tomadas de una población. Esto es, la MLE
selecciona estimaciones que tienen la mayor posibilidad de reproducir los datos observados. Los supuestos de la
MLE son: los errores de estimación sí correlacionan; muestras grandes; y los indicadores se distribuyen normalmente
y son medidos a nivel intervalar. En el capítulo de ejemplo, se usa este método.
2. Estimación Bayesiana. Usa información previa acerca de los parámetros del modelo para calcular distribuciones.
Este tipo de estimación se prefiere cuando se tiene una muestra pequeña, cuando la MLE arroja varianzas negativas
o se tienen datos ordinales.
3. Mínimos cuadrados ponderados o weighted least squares (WLS). Se usa cuando se viola normalidad.
4. Mínimos cuadrados generalizados o generalizad least squares (GLS). Funciona bien con muestras mayores a
2,500 personas o casos y distribuciones no normales.
5. Mínimos cuadrados ordinarios o ordinary least squares (OLS). Usado para obtener estimaciones iniciales de
parámetros requeridos por otros métodos.
6. Mínimos cuadrados no ponderados o unweighted least squares (ULS). No requiere asumir normalidad y no ofrece
pruebas de significancia, y es el único modelo que depende de la escala (estimaciones diferentes para diferentes
variables).

A manera de resumen, en esta etapa se ha propuesto un modelo que conecta indicadores con sus respectivas variables
latentes, y que conecta variables exógenas y endógenas a fin de explicar un fenómeno. También se enfatizó la importancia
del cálculo de coeficientes que se utilizan para estimar la confiabilidad de los indicadores y las variables latentes, y la validez
predictiva de las variables independientes, tal cómo ocurre en el caso de la regresión múltiple.

Ahora es el turno de evaluar la validez integral del modelo; eso es, la compatibilidad de los datos observados con el
modelo teórico propuesto.

Etapa 4. Prueba del modelo MES.

Ahora se evalúa que tan bien los datos se ajustan al modelo teórico, mediante las siguientes pruebas:
a. Pruebas globales de bondad de ajuste o índices de ajuste: La más popular es la Ji cuadrada. Kline (1998)
recomienda la elección de cuatro índices.
En el capítulo 3 se presenta una larga lista de indicadores entre los cuáles el investigador puede elegir lo
más apropiados.
b. Pruebas individuales de parámetros: Se usa la prueba t de student.

Etapa 5. Modificación del modelo.

Si no hay ajuste del modelo, que es lo más usual, entonces el modelo debe modificarse y evaluarse de nueva cuenta.
Por ejemplo, el paquete LISREL tiene la opción de “modification indices” o “índices de modificación” que sugieren que
restricciones están en desacuerdo con los datos observados; esto también se explica en el capítulo 5 de ejercicios.

Los índices de modificación (IM) se relacionan con la prueba multiplicadora de Lagrange (LM). Los IM
generalmente se usan para modificar los modelos a fin de obtener un mejor ajuste, y esto debe hacerse de acuerdo a la teoría.
Las flechas sólo deben agregarse cuando existe una justificación teórica; la mejora es medida en términos de reducción de la
Ji cuadrada.

Modificación de modelos. La construcción es una estrategia que inicia con un modelo nulo o un modelo simple al
que se le añaden trayectorias de manera gradual (una por una). Conforme se añaden trayectorias, la Ji cuadrada 2 (una
prueba que se explica en el capítulo 3) disminuye y mejora el ajuste del modelo. La agregación de trayectorias debe hacerse
de acuerdo a la teoría

Otra estrategia de construcción consiste primero en sobreajustar el modelo y posteriormente en recortar o quitar
trayectorias, una a la vez, de acuerdo a la Ji cuadrada y otros índices de modificación (presentados en el capítulo 3), hasta
obtener índices de ajuste satisfactorios.
CAPÍTULO 3. MEDICIONES DE AJUSTE DEL MODELO.

En este capítulo se presentan varias pruebas o índices de ajuste que el investigados consulta para determinar la validez
del modelo estructural , de acuerdo a la etapa 4 del capítulo anterior. LISREL calcula varios de ellos, tal como se apreciará
en el capítulo 5 de ejercicios.

Pruebas o índices de bondad de ajuste. Sirven para determinar si el modelo debe aprobarse o rechazarse; estos
indicadores no determinan que trayectorias son significativas. Si el modelo es aceptado, por separado el investigador debe
interpretar los coeficientes de las trayectorias.

Jaccard y Wan (1996) recomiendan que como mínimo se consulten tres pruebas de las cinco categorías abajo
presentadas. Por otro lado, Kline (1998) propone que cuando mínimo se consulten cuatro: Ji cuadrada; GFI; NFI o CFI;
NNFI o SRMR.

Debe tenerse en cuenta que la bondad de ajuste no es lo mismo que fuerza de la relación, ya que es posible obtener
un ajuste perfecto con variables no correlacionadas. Así mismo, entre más bajas son las correlaciones entre variables, es más
fácil obtener bondad de ajuste. Pero, cuando las correlaciones son bajas, los coeficientes de trayectorias también serán bajos:
Por lo tanto, es necesario reportar pruebas de ajuste y coeficientes estructurales.

Una buena bondad de ajuste no significa que todas las partes del modelo ajusten bien. Es posible que modelos
alternativos puedan ajustar mejor. Eso es, los índices de ajuste descartan modelos, pero no indican cual es el mejor. También
es importante señalar que un buen ajuste no significa que las variables exógenas sean las causas de las variables endógenas.
También es posible obtener un mal ajuste debido a un pobre modelo de medición (AFC) y no por un erróneo modelo
estructural.

Los índices deben verse como medidas sobre que tanto ha avanzado una especialidad o una teoría: Se considera que
valores de .90 de CFI son aceptables, pero un CFI de .85 puede mostrar que área de conocimiento ha mejorado si un modelo
anterior reportó .70.

Debe advertirse que tanto los paquetes LISREL, AMOS, EQS o MpPlus no calculan todas la pruebas abajo enlistadas,
y conforme se desarrollan dichos paquetes y se publican nuevas versiones, cambian las pruebas realizables. El lector no debe
olvidar que Kline (1998) propone que cuatro pruebas son suficientes para el MES.

3.1 Primer categoría de índices de ajuste.


Pruebas de bondad de ajuste de covarianzas pronosticadas y observadas (índices absolutos de ajuste).
Estas pruebas comparan la matriz de covarianzas observadas y la esperada por la teoría. LISREL realiza el análisis
con este tipo de matrices, y también puede hacerlo con matrices correlacionales (púes da el mismo resultado).

1. Ji cuadrada 2. También se le conoce como discrepancia, Ji cuadrada de razón de verosimilitud, o Ji


cuadrada de bondad de ajuste, o CMIN (en AMOS). Esta prueba no debe ser significativa si es que hay un buen
ajuste. Si la probabilidad de la Ji cuadrada es de .05 o menor, entonces se dice que la covarianza del modelo treórico
es diferente a la covarianza de los datos observados. Pero, debido a que la Ji cuadrada es conservadora (propensa
al error de tipo II), es conveniente descartar una Ji cuadrada significativa si otras pruebas apoyan el modelo.

Hay maneras en que la Ji cuadrada puede equivocarse: a) en el caso de grandes muestras, es mayor la probabilidad
de rechazar el modelo y el error de tipo II (rechazar algo verdadero). Aún pequeñas diferencias entre ambas
covarianzas se califican como significativas y b) la Ji cuadrada es muy sensible ante desviaciones de la normalidad.
Una solución es la consulta de la prueba Satorra-Bentler scaled Chi Square (prueba 3).

2. Ji cuadrada relativa. También conocida como la Ji cuadrada normal y se obtiene al dividir la Ji cuadrada entre
los grados de libertad (Ji cuadrada/DF), a fin de reducir su dependencia del tamaño de muestra.

Carmines y McIver (1980) proponen que el resultado de un modelo aceptable debe estar en el rango de 2:1 o 3:1.
Un valor menor a 1.0 es inaceptable.

3. Ji cuadrada escalada de Satorra-Bentler. Es un ajuste a la Ji cuadrada que es castigada por la kurtosis de los
datos. Este estadístico busca corregir el sesgo introducido por la anormalidad de la distribución.

4. Índice de bondad de ajuste (GFI). Se le conoce como el gamma-hat o Jöreskog-Sörbom GFI. El valor de GFI
varía entre cero y 1, pero pueden obtenerse valores negativos. Una muestra grande favorece el GFI. Aunque hay
analogía con R cuadrada, el GFI no puede interpretarse como el porcentaje de error explicado por el modelo. Es
el porcentaje de la covarianza observada explicada por la covarianza teórica. Es un acuerdo que valores superiores
a .90 apoyan el modelo.

5. Índice de bondad de ajuste ajustada (AGFI). Es una variante del GFI, ya que lo ajusta por sus grados de libertad:
la cantidad (1-GFI) es multiplicada por la razón de los grados de libertad del modelo dividido por los grados de
libertad de la línea base del modelo, entonces AGFI es 1 menos el resultado. AGFI también debe ser mayor a .90

6. Residuales de la media de raíz cuadrada (RMS, RMSR o RMR). En inglés se le conoce como root mean
square residuals y es la media absoluta de los residuales de la covarianza. Entre más cercano sea el valor a cero,
mejor es el ajuste. Valores menores a .10 se consideran aceptables. Debido a que RMS es difícil interpretar, es
mejor usar el SRMR (ver prueba 7). El RMR no estandarizado es un coeficiente que resulta de tomar la raíz
cuadrada de la media de los residuales elevados al cuadrado, que es la cantidad por la cual la varianza y covarianza
de la muestra difieren de la varianza y covarianza estimada.

7. Residual estandarizado de la raíz cuadrada media (SRMR). En inglés se le denomina standardized root mean
square residual y es la diferencia promedio entre las varianzas y covarianzas pronosticadas y observadas, basada
en el error estándar del residual. Entre menor sea el SRMR, mejor el ajuste del modelo. Un valor inferior a .05 es
considerado aceptable.

8. Hoelter N crítico. Útil para determinar si el tamaño de muestra es adecuado. Un tamaño de muestra es adecuado
si la prueba Hoelter N es mayor a 200 y se calcula así:
(((2.58+(2df - 1)*2)*.5)/((2chisq)/(n-1)))+1

Chisq es Ji cuadrada.

3.2 Segunda categoría de índices de ajuste.


Pruebas de bondad de ajuste de estimación de máxima verosimilitud.

También son índices absolutos de ajuste, pero de un tipo diferente. Estos índices son apropiados para comparar
modelos que han sido estimados por máxima verosimilitud (MLE) y estos no tienen puntos críticos como .90, ya que se usan
para comparar modelos donde un valor menor representa un mejor ajuste.

9. Akaike criterio de información (AIC). Este estadístico ajusta la Ji cuadrada a fin de penalizar la complejidad
del modelo por falta de parsimonia y sobreparametrización. AIC se usa para comparar modelos y para interpretar
un sólo modelo, y puede comparar modelos con diferentes números de variables latentes que pueden estar o no
anidadas. Entre más bajo es el valor de AIC mejor es el ajuste del modelo (cero es el valor de mejor ajuste). La
modificación de un modelo es suspendido cuando el AIC aumenta.
AIC se calcula sí:
(chisq/n) + (2k/(n-1)) donde k = (.5v(v+1))-df, y “v” es el número de variables y “df” son grados de libertad.

Cuando AIC en igual o menor a 2 no hay evidencia en contra del modelo, cuando está entre 2 y 4 hay
evidencia débil en contra del modelo y cuando es mayor a 4 hay evidencia en contra del modelo.
AICC es una versión para modelos con muestras pequeñas (ver tabla 2).

10. BICp. Es un estadístico que cambia la escala de Akaike a fin de que los factores sumen 1.0. Los valores
representan las probabilidades y la suma de todos los modelos da 100% y esto indica que uno de los modelos es
el correcto. Un modelo que tenga .60 señala que dicho modelo tiene 60% de ser el correcto. En otras palabras, el
modelo corregido es aquel con mayores posibilidades de ser el correcto.

11. BICL. También es un estadístico que cambia la escala de Akaike a fin de que los factores sumen 1.0. Valores
de .05 o mayores consideran que el modelo es el más probable.

12. CAIC. También es consistente con AIC y penaliza las pequeñas muestras y la complejidad del modelo. Ente
menor es el valor de CAIC mejor es el ajuste.

13. BCC o criterio Browne-Cudeck. Este estadístico debe lograr valores de .90 o superiores y se calcula así:
(chisq/n) + ((2k)/(n-v-2)), donde “n”es el número de sujetos, “v” es el número de variables, y k = (.5v(v+1))-
df, donde df es grados de libertad.

14. ECVI o índice esperado de validación cruzada. Es útil para comparar modelos no anidados como ocurre con
el análisis multimuestras usado para validar o replicar hallazgos. Al igual que AIC refleja la discrepancia entre
las matrices de covarianzas del modelo teórico y los datos. Ente menor es el valor de ECVI mejor es el ajuste. Al
comparar modelos anidados, ECVI penaliza el número de parámetros libres.

15. MECVI. Es el ECVI modificado y también es una variante de BCC y penaliza la complejidad del modelo. Entre
menor es el valor MECVI, mejor es el ajuste.

16. CVI o índice de validación cruzada. Es similar a ECVI y MECVI, y un valor de cero indica que ambas
covarianzas son similares, la de la muestra de calibración y la de la muestra de validación o replica. Es posible
calcular una doble validación cruzada al intercambiar los papeles de ambas muestras.

17. BIC o criterio bayesiano de información. También se le conoce como ABIC o criterio bayesiano de información
Akaike. Al igual que CAIC, este estadístico penaliza el tamaño de muestra y la complejidad del modelo.
Comparado con AIC, BCC or CAIC, BIC favorece modelos parsimónicos con pocos parámetros, y se recomienda
para muestras grandes con pocos parámetros. BIC es la aproximación del logaritmo del factor Bayes del modelo
teórico comparado con el modelo saturado. Si BIC es igual o menor a 2 no hay evidencia en contra del modelo,
si está entre 2 y 4, hay débil evidencia en contra del modelo, y si es mayor a 4, entonces hay evidencia en contra
del modelo.

3.3 Tercer categoría de índices de ajuste.


Pruebas de bondad de ajuste de no centralidad.
Estos índices prueban la propuesta de que la Ji cuadrada es mayor a cero, en vez de usar la usual hipótesis nula de
que la Ji cuadrada es igual a cero. Por lo tanto, usa la distribución no central de Ji cuadrada y los grados de libertad asociados
con el modelo saturado en vez de los asociados con el modelo de independencia. Estos
estadísticos están influidos por el tamaño de muestra; entre mayor es el tamaño de muestra mejor es el ajuste.

18. Parámetro de no centralidad (NCP). También se le conoce como el parámetro de no centralidad de McDonald
o DK, y es una Ji cuadrada que penaliza la complejidad del modelo. Se calcula así:
((chisqn-dfn)-(chisq-df))/(chisqn-dfn), donde chisqn y chisq son las Ji cuadradas del modelo nulo y del
modelo teórico, dfn y df son sus correspondientes grados de libertad. A fin de forzar la escala a 1, la
conversión usada es exp(-DK/2). NPC es usada con una tabla de distribución de Ji cuadrada de no
centralidad para evaluar el poder y calcular los estadísticos RMSEA, CFI, RNI y CI. Notar que LO 90 y HI
90 son los límites inferior y superior del intervalo de confianza del 90%.

19. CI o índice de centralidad. Parte de la Ji cuadrada, de los grados de libertad del modelo y el tamaño de la muestra.
Se espera que un modelo aceptable tenga un CI sea igual o mayor a .90.

3.4 Cuarta categoría de índices de ajuste.


Pruebas de bondad de ajuste que comparan un modelo teórico con el modelo nulo o alternativo.

Usualmente el modelo de comparación es el de independencia, puesto que es el que tiene la peor Ji cuadrada (la
mayor).

20. CFI o índice d ajuste comparativo. También se le conoce por el índice comparativo de ajuste de Bentler y
compara el modelo teórico con el modelo nulo que asume que las variables latentes del modelo no se correlacionan
entre si (modelo de independencia). Eso es, compara la matriz de covarianza de datos observados con la matriz
de covarianza del modelo nulo (matriz con ceros). CFI es similar a NFI, pero penaliza el tamaño de muestra. CFI
y RMSEA son los estadísticos menos afectados por el tamaño de muestra, y un CFI cercano a 1.0 indica un muy
buen ajuste y valores superiores a .90 se consideran aceptables. El CFI también es usado para evaluar variables
modificantes (aquellas que crean una relación heteroscedástica entre las variables independientes y dependientes,
de tal manera que la relación varía por clase de modificador).

CFI se calcula así:


(1-max(chisq-df,0))/(max(chisq-df),(chisqn-dfn),0)), donde chisq y chisqn son las Ji cuadradas del modelo
teórico y del modelo nulo, y df y dfn son los grados de libertad respectivos.

21. IFI o índice incremental de ajuste. También se le denomina IFI de Bollen o Delta 2, y se calcula así:
(Ji-cuadrada del modelo nulo – Ji cuadrada del modelo default )/(Ji cuadrada del modelo nulo – grados de
libertad del modelo default).
Para aceptar el modelo IFI debe ser igual o mayor a .90 y este estadístico es relativamente independiente
del tamaño de muestra.

22. NFI o índice de ajuste normado. Es conocido como el índice normado de Bentler-Bonett o Delta1. Es una
alternativa del CFI, pero no requiere cumplir con supuestos de la Ji cuadrada. Normado significa que varía entre
0 y 1, donde 1 es ajuste perfecto.

NFI se calcula así:


(Ji cuadrada del modelo nulo – Ji cuadrada del modelo default)/Ji cuadrada del modelo nulo.

El NFI refleja la proporción que el modelo teórico mejora el ajuste en relación al modelo nulo. Por ejemplo,
un NFI de .50 significa que el modelo mejora en un 50% el ajuste. Valores entre .90 y .95 son aceptables.
Debido a que subestima el ajuste en el caso de muestras pequeñas y no considera la complejidad del modelo,
es preferible consultar el NNFI (TLI).

23. BBI o índice Bentler-Bonnet. No confundirlo con el NFI. Es la Ji cuadrada del modelo teórico menos la Ji
cuadrada del modelo nulo, todo dividido por la Ji cuadrada del modelo nulo. El modelo debe ser superior a .90 a
fin de tener buen ajuste.

24. TLI o índice Tucker-Lewis, o NNFI . TLI es similar al NFI, pero penaliza la complejidad del modelo y es
relativamente independiente del tamaño de muestra.

TLI se calcula así:

(chisqn/dfn - chisq/df)/(chisqn/dfn - 1), donde chisq y chisqn son las Ji cuadradas del modelo teórico y del
modelo nulo, y df y dfn son los grados de libertad respectivos.

NNFI puede no estar dentro del rango 0 a 1, pero puede fijarse dentro de ese rango. Es el índice menos
afectado por el tamaño de muestra y un NNFI negativo indica que la razón de modelo nulo es menor a la
razón del modelo teórico que ocurre cuando el modelo teórico tiene pocos grados de libertad y las
correlaciones son bajas.

Valores cercanos a 1.0 indican buen ajuste, se considera que valores superiores a .90 son aceptables, y el
NNFI tiende a ser menor que GFI.
3.5 Quinta categoría de índices de ajuste.
Pruebas de bondad de ajuste que penalizan la falta de parsimonia.

Estos índices penalizan la complejidad del modelo y no usan los puntos de corte acostumbrados de .90. Se usan para
comparar modelos y entre más alto es el valor mejor es el ajuste.

25. PRATIO o razón de parsimonia. Es la razón de los grados de libertad del modelo teórico a los grados de libertad
del modelo independiente (nulo). El PRATIO no es una prueba de bondad de ajuste, pero se usa como el PNFI y
el PCFI que favorecen modelos parsimónicos (modelos con pocos parámetros).

26. PNFI o índice de ajuste pasimónico normado. También se le denomina PNFI1 y es igual a PRATIO menos
NFI. Entre más cercano este el modelo teórico al modelo saturado (trivial que explica todo), más penalizado es
el NFI. No hay valores de corte comúnmente aceptados, pero un PNFI igual o mayor a .60 significa buena
parsimonia, y al comparar modelos anidados, el modelo con un mayor PNFI es el mejor.

27. PCFI o índice de ajuste de pasimonia comparado. Es igual a PRATIO por CFI, y entre más cerca esté el modelo
teórico al modelo saturado, más se penaliza CFI. Al comparar modelos, el modelo con el menor PCFI es el mejor.

28. PGFI o índice de ajuste de bondad parsimónico. PGFI es una variante del GFI, pero penaliza el GFI al
multiplicarlo por la razón de los grados de libertad del modelo teórico entre los grados de libertad del modelo
independiente. Se considera que un PGFI igual o mayor a .60 indica buena parsimonia.

29. RMSEA o aproximación de la raíz cuadrada media del error. Se le conoce también como RMS o RMSE o
discrepancia por grado de libertad. Se considera que un RMSEA igual o menor a .08 es satisfactorio. RMSEA es
un índice de ajuste popular porque no necesita compararse con un modelo nulo y tampoco requiere la propuesta
de un modelo independiente. RMSEA tiene una distribución relacionada con le distribución Ji cuadrada no central
y por ello no necesita de un muestro de tipo bootstrap para fijar intervalos de confianza.

RMSEA se calcula así:

((chisq/((n-1)df))-(df/((n-1)df)))*.5, donde chisq es la Ji cuadrada del modelo, df es grados de libertad y n


es la cantidad de sujetos.

RMSEA corrige la complejidad del modelo, ya que el denominador es grados de libertad, pero se considera
que grados de libertad es una
medición imperfecta de complejidad. Ya que RMSEA calcula el promedio de falta de ajuste por grado de
libertad, es posible tener cero en falta de ajuste tanto en el modelo complejo como en el modelo simple. Por
lo tanto, es conveniente también consultar el PRATIO, y considerar el intervalo de confianza del 90% de
RMSEA donde el límite inferior tiene valores cercanos a cero y el límite superior valores inferiores a .08.

30. PCLOSE. Prueba la hipótesis nula de que RMSEA no es mayor a .05. Si PCLOSE es menor a .05, se rechaza la
hipótesis nula y concluye que RMSEA es mayor a .05, indicando un bajo ajuste. LISREL le denomina P-
Value for Test of Close Fit.

CAPÍTULO IV. SUPUESTOS DEL MES.

En los capítulos anteriores se han presentado supuestos sobre la normalidad de los las variables, los grados de libertad
y el tamaño de la muestra. En este capítulo se retoman, se tratan otros supuestos y proponen soluciones en caso de su
violación.

Aún cuando MES usa el análisis de trayectorias, el MES relaja varios supuestos relacionados con el nivel de medición
de los datos, sus interacciones y la correlación del error.

4.1. Distribución multivariada normal de los indicadores. En el caso de la estimación MLE, cada indicador debe
estar normalmente distribuido, ya que aún pequeñas desviaciones de la normalidad pueden arrojar grandes
diferencias en la Ji cuadrdada. Generalmente las violaciones de normalidad inflan la Ji cuadrada y el uso de
mediciones ordinales o dicotómicas causan anormalidad.

El muestreo Bollen-Stine bootstrap y la prueba Ji cuadrdada ajustada Satorra-Bentler son utilizados para
determinar el ajuste estructural en el caso de no normalidad. El paquete PRELIS de LISREL, puede realizar una
prueba de Ji cuadrada para probar normalidad.

En el caso de datos discretos (datos categóricos o datos ordinales con menos de 15 valores), se pueden considerar
normales si las pruebas de sesgo (skewness) o kurtosis están dentro de un rango de más o menos 1.5 (Schumacker
y Lomax, 2004: 69).

Severas desviaciones de normalidad ocurren con mayor frecuencia con variables binarias u ordinales. Por ello,
Bollen (1989) y Jöreskog y Sörbom (1997) recomiendan el uso de correlaciones policóricas (polychoric) junto
con la estimación WLS. LISREL, EQS y Mplus calculan la matriz de correlaciones policóricas.

4.2. Distribución multivariada normal de las variables dependientes


latentes. Cada variable dependiente latente del modelo debe estar normalmente distribuida. Las variables
dicotómicas violan este supuesto y por ello Kline (1998) recomienda el latent class analysis (LCA) en vez del
MES. Si el modelo tiene violaciones de normalidad, puede usarse las estimaciones de parámetros bootstrap.
4.3 Linealidad. El MES asume que la relación entre indicadores y variables latentes, y entre variables latentes es
lineal. La violación de linealidad significa que las estimación del ajuste del modelo y el error estándar están
sesgados (no robustos). Sin embargo, como en regresión, es posible usar transformaciones exponenciales,
logarítmicas y otras transformaciones no lineales. Estas transformaciones son añadidas mediante efectos
cuadráticos o no lineales, o mediante una correlación (fecha curva de doble punta).

4.4 Outliers o casos atípicos. La presencia de datos atípicos puede afectar el modelo. El muestreo jackknife puede
identificar dichos casos. El procedimiento jackknife calcula los coeficientes de trayectorias para toda la muestra,
y luego para muestras (n-1), donde elimina un caso. Lo mismo se hace con las covarianzas. Al comparar las
diferencias en coeficientes de trayectorias y covarianzas entre la muestra total y muestras jackknife, es posible
identificar outliers.

4.5 Datos incompletos o imputación. Es conveniente tener una base de datos completa, o en su defecto, substituir
los datos incompletos mediante un procedimiento de imputación, debido a la posible introducción de error de
medición que afecte el modelo. En el ejemplo 1 del capítulo de ejercicios se muestra como imputar.

4.6 Subidentificación o apenas identificación del modelo. Como se mencionó en el capitulo 2, un modelo apenas
identificado ocurre cuando hay tantos parámetros por estimar como elementos en la matriz de covarianzas. Por
ejemplo, si el modelo tiene una variable V1 que antecede a V2 y V3, y V2 también es causa de V3, entonces hay
tres parámetros (flechas) en el modelo y hay tres elementos de covarianza (1,2; 1,3; y 2,3). Este caso es posible
calcular las trayectorias, pero utiliza todos los grados de libertad y ya no es posible calcular pruebas de bondad
de ajuste (cero grados de libertad, Ji cuadrada de cero y “p” no puede calcularse).

Un modelo esta subidentificado cuando hay más parámetros por estimar que elementos en la matriz de covarianzas.
Generalmente los paquetes reportan “failure to converge” o “negative error variances”

Estrategias para corregir subidentificación o apenas identificación:

a. Eliminar flechas de retroalimentación o efectos recíprocos


b. Especificar en niveles fijos los coeficientes de estimación que tienen confiabilidad conocida.
c. Simplificar el modelo mediante la reducción de flechas que es lo mismo que limitar un coeficiente de
trayectoria a cero.
d. Simplificar el modelo mediante la limitación de flechas (estimación de trayectorias) de las siguientes
maneras: igualdad (ser igual a otro estimado); proporcionalidad (ser proporcional a otro estimado); o
desigualdad (ser mayor o menor a otro estimado). Para saber que flechas deben limitarse a igual es
necesario consultar “critical ratios for differences”; si una diferencia es menor a 1.96, entonces se acepta
que ambos parámetros son iguales y se limitan dichos parámetros.
e. Simplificar el modelo mediante la eliminación de variables.
f. Eliminar variables que tienen alta multicolinearidad con otras variables.
g. Añadir variables exógenas.
h. Tener al menos tres indicadores por variable latente.
i. Elegir la opción listwise, no pairwise, de missing data treatment.
j. Considerar el uso de estimación GLS o ULS en vez de MLE.
k. Si MLE (maximum likelihood estimation) es usado, hay dos soluciones más: substituir los valores iniciales
propuestos por el paquete y/o aumentar el número de iteraciones usadas para el logro de convergencia.

Es ideal para el MES contar con un modelo sobreidentificado, eso es, tener más conocidos (variables
observadas) que incógnitas (parámetros a estimar). Cuando hay sobreidentificación, los grados de libertad son
positivos (grados de libertad de la Ji cuadrada). Por ello, se recomienda correr un MES con datos ficticios a
fin de determinar si el modelo está subidentificado o apenas identificado. Una solución por subidentificación
consiste en añadir más variables exógenas.

4.7 Recursividad. Los modelos recursivos nunca son subidentificados. Recursividad ocurre cuando una flecha sólo
va a una posición y no tiene retroalimentación (regreso).

4.8 No empíricamente identificado por alta multicolinealidad. Un modelo puede ser teóricamente identificado,
pero no solucionable por problemas empíricos como multicolinealidad o estimaciones de trayectoria cercanos a
cero en modelos no recursivos.

Signos de multicolinearidad.
a. Pesos estandarizados de regresión cercanos a 1 que dificultan el calculo de pesos de regresión diferentes
para ambas trayectorias. El resultado es un peso estandarizado de regresión cercano a 1 y otro cercano a -
1. Notar que los pesos varían entre -1 y 1
b. Los errores estándar de dos variables, que son causadas por una misma variable latente, son grandes en
comparación con otros errores de otras trayectorias dentro del modelo.
c. Grandes covarianzas de las estimaciones de parámetros de dos trayectorias en comparación con las
covarianzas de otras trayectorias diferentes.
d. Errores con varianza negativa de una variable que antecede a dos variables casi idénticas.

4.9 Datos de intervalo. La estimación MLE asume que la medición es de tipo de intervalo, pero en el caso de
variables exógenas que son de tipo de dicotómico o dummy se dificulta su uso como variable exógena, y por ello
se recomienda la estimación Bayesiana o el uso de la matriz de correlaciones policóricas (LISREL).
4.10 Alta precisión. Ya sea que los datos sean de tipo intervalo u ordinal, los datos deben tener un amplio rango de
valores (se recomienda un rango de 15).

4.11 Residuales aleatorios pequeños. La media de los residuales (covarianza observada menos la estimada) debe
ser cero. Un modelo que ajusta bien debe tener residuales pequeños. Residuales grandes sugieren no
especificación (misspecification), como ocurre cuando se requieren añadir trayectorias al modelo. La covarianza
de los puntajes dependientes y los residuales debe ser cero, y la distribución de residuales debe ser normal.

4.12 Términos de error no correlacionados. Si los errores son especificados por el modelo, el error correlacionado
puede ser estimado y modelado por MES.

4.13 Multicolinealidad. Se asume la ausencia de multicolinealidad, pero la correlación entre variables


independientes puede modelarse. Una alta multicolinealidad resulta en una matriz de covarianza a la que no puede
calcularse la matriz inversa. LISREL informa que hay multicolinealidad mediante el mensaje “matrix sigma is
not positive definitive”.

Posibles soluciones: a. En LISREL es posible añadir un “ridge constant”, que es un peso agregado a la diagonal
de la matriz que cambia a positivo todos los número de la diagonal; b. quitar las variables que correlacionan
alto; c. usar diferentes valores iniciales; d. usar estimación ULS en vez de MLE; e. cambiar correlaciones
tetracóricas por correlaciones Pearson; y f. preferir listwise en vez de pairwie en el tratamiento de datos
faltanes.

4.14 Covarianzas no cero. CFI y otros indicadores de ajuste comparan la covarianza teórica con la observada.
Cuando la covarianza observada se acerca a cero, no hay que explicar, y cuando las variables tiene una baja
correlación entre si, también será difícil demostrar buen ajuste.

4.15 Tamaño de muestra. No debe ser pequeña puesto que el MES es sensible al tamaño. Es común encontrar
estudios que tienen muestras entre 200 y 400 sujetos y modelos que analizan entre 10 y 15 indicadores. Kline
(1998: 12) y Schumacker y Lomax (2004: 49) señalan que como mínimo se debe tener 100 sujetos, y Stevens
(1996) propone 15 sujetos por cada indicador.
CAPÍTULO V. CUATRO EJERCICIOS DE LISREL.

El lector puede realizar por cuenta propia cuatro ejemplos con el paquete LISREL versión estudiantil. En este capitulo
se explica cómo descargar el paquete gratuito de internet y presenta imágenes que facilitan el uso de los comandos LISREL
necesarios para correr el AFC , el MES y/o otros análisis estadísticos.

El primer ejercicio (5.1) muestra como se preparan los datos, paso necesario para acceder a datos que vienen de SPSS
u otras bases, o para la captura manual de datos; el segundo ejercicio (5.2) enseña cómo editar datos cuando el
investigador se enfrenta a datos faltantes o missing; el tercer ejercicio (5.3) describe como hacer un análisis factorial
confirmatorio (AFC) mediante SIMPLIS; y el cuarto ejercicio (5.4) explica como se realiza el modelamiento de
ecuación estructural mediante SIMPLIS.

Posteriormente, es indispensable que el lector use sus propias bases de datos y repita los ejercicios de este capítulo.

Pero antes de ir al primer ejercicio, es necesario tener en la computadora el paquete LISREL, ya sea en su versión
estudiantil o la versión completa. A continuación se describe paso a paso que hacer para baja el paquete versión estudiantil.

Como primer paso, acceda a la siguiente página en Internet:

http://www.ssicentral.com/lisrel/downloads.html

El segundo paso consiste en dar click en la siguiente liga:

Student edition of LISREL for Windows

Se recomienda instalarlo en unidad “C” del disco duro de su computadora.

¡Verifique que se descarga el “Free Student Edition” y no el


Free trial Edition!

El tercer paso es abrir el LISREL y hay dos maneras de iniciar LISREL: Una es abrir C y la carpeta archivos del
programa (figura 5 y figura 6) y la otra es mediante “Todos los programas” (figura 7).

En caso de elegir C y la carpeta archivos del programa (figura 5), de click en esa carpeta y verá que aparecen varias
carpetas más; ahora debe dar click a la carpeta LISWIN32S.EXE para iniciar LISREL (ver figura 6).

Fuente. Elaboración propia.

Figura 5: Disco local (C:) y carpeta “Archivos del programa”.


Fuente. Elaboración propia.


Figura 6: Carpeta LISWIN32S.EXE

Una vez que dio click a la carpeta LISWIN32S.EXE, aparecerá inmediatamente una pantalla como la de la figura 8
( Menú de PRELIS).

La otra opción para abrir LISREL es mediante “Escritorio” (figura 7), en la que se da click en LISREL 9 y se abre
la pantalla similar a la de la figura 8.

Fuente. Elaboración propia.


Figura 7: Escritorio: LISREL 9.1 student
5.1. Ejercicio de introducción de datos.

LISREL es usado para capturar datos que provienen de otros paquetes como SPSS o EXCEL, y para obtener: matrices
de varianzas-covarianzas; matrices de correlaciones; medias y desviaciones estándar, todo ello necesario para hacer el análisis
MES en SIMPLIS o LISREL. Cabe mencionar que los datos también pueden ser introducidos directamente, pero en este
ejemplo, se toman los datos de SPSS.

LISREL usa una hoja de cálculo y contiene un menú con las opciones, tal como lo muestra la figura 8. En este caso
se da click o abre File y se despliega un submenú.

Fuente. Elaboración propia.


Figura 8: Menú de LISREL

La opción New o Nuevo permite la creación de una sintaxis (sintaxis es un comando) que puede se abierta por
SIMPLIS y LISREL (figura 8 y 9). Esta opción se usará más adelante en el cuarto ejercicio (5.4). No la vamos a usar ahora.

La opción Open (figura 8) sirve para abrir archivos LISREL, más adelante se explica su uso.

Fuente. Elaboración propia.


Figura 9. Opción New (nuevo) del menú LISREL
Ahora, regrese a File y abra Import data (ver figura 8).

Import Data: Permite localizar archivos guardados de PRELIS (.pr2), SIMPLIS (.spl), LISREL (.ls8), SPSS (*.sav)
o All files (*.*). La versión estudiantil tiene ejemplos en las carpetas pr2ex (PRELIS), splex (SIMPLIS) y ls8ex (LISREL).
En este caso se busca la carpeta de Lisrel Student Examples que puede estar en el disco C (carpeta LISREL 9 Student
examples), se abre y luego se abre la carpeta Tutorial. Los cuatro pasos se muestran en la figura 10. En caso de no
encontrarlo, pídalo a hermanlittlewood@yahoo.com.mx.
Fuente. Elaboración propia (4 pantallas).
Figura 10: Opción Import Data del menú LISREL (en carpeta Tutorial dentro del archivo “Lisrel
student examples”)

Para abrir un archivo SPSS, elija el archivo DATA100.sav,


como muestran las figuras 10, 11, 12 y 13.

Asegúrese que en la ventana Tipo debe seleccionarse SPSS


for Windows (*.sav), ya que por default en la ventana tipo
aparece la opción Free Format Data (*.dat, *.raw).

Notar que en la ventana Tipo debe seleccionarse SPSS


for Windows (*.sav), ya que por default en la ventana tipo
Fuente. Elaboración propia.
Figura 11: Opción Open (abrir) archivo SPSS del menú LISREL

Ahora, proceda a abrir el archivo data100.sav de SPSS, y luego guarde como DATA100.lsf (archivo LISREL). Ver
figura 12.
Fuente. Elaboración propia.
Figura 12: Opción Open archivo data100.sav SPSS y guardar como lsf.

El archivo LISREL DATA100.lsf guardado muestra un nuevo menú (figura 13) que permite la edición,
transformación, análisis estadístico, y graficación de los datos. La designación es de datos ordinales puesto que las variables
tienen menos de 15 categorías o intervalos. Note que se ha abierto Statistics en menú y un submenú.

Fuente. Elaboración propia.


Figura 13. Nuevo menú LISREL (DATA.lsf): Opción Statistics

Los análisis estadísticos incluyen análisis factorial clásico u ordinal, regresiones varias, y métodos de cuadrados
mínimos de dos pasos. También es posible imputar datos (resolver casos de datos incompletos o faltantes), hacer análisis de
homogeneidad, análisis de normalidad, y muestreo bootstrapping.
La opción de menú Output Options (figura 14) permite guardar matrices de varianzas-covarianzas y estadísticos
descriptivos en archivos de sintaxis SIMPLIS o LISREL. Ahora de click en Statistics y luego de click en Output Options.
Seleccione
Covariances y marque la palomita, y escriba DATA100.COV en la ventana 2.

Seleccione:

Escriba:

Fuente. Elaboración propia.


Figura 14. Nuevo menú PRELIS (DATA.lsf): Opción Output Options.

Ahora de click en OK y se obtendrá un reporte de las covarianzas que por su longitud es preferible no comentarlo en
este ejercicio. Solamente se comenta que ya se tiene una matriz de covarianzas (también puede obtenerse una matriz de
correlaciones como lo veremos en los siguientes ejercicios). Este tipo de matriz queda guardada AUTOMÁTICAMENTE
en Tutorial de Student Examples (o en la carpeta que tiene abierta) con el nombre DATA100.COV y se usa para análisis
que se explican más adelante en los ejercicios.

La matriz de covarianzas o de correlaciones, es necesaria para el AFC o el MES. Es importante aclarar que LISREL
obtiene el mismo resultado de cualquiera de las dos matrices, pero es muy importante registrar que tipo de matriz se usa.
La matriz puede accederse mediante la opción aquí explicada en este ejercicio, pero el investigador pudiera anotar
directamente las covarianzas o correlaciones en la pantalla de LISREL, tal cómo se hace en el ejercicio 5.3. Por ello, hay dos
maneras de meter covarianzas o correlaciones en LISREL

FIN DEL EJERCICIO 5.1

5.2. Ejercicio de edición de datos (Imputación).

Este ejercicio tiene la finalidad de practicar la imputación o substitución de datos faltantes que pueden alterar los
resultados de la investigación. Sin no faltan datos o son muy pocos los faltantes (menos del 5%), no es necesario imputar.
Antes del ejercicio se explican casos de edición requeridos, ya sea por el tipo de escala de medición, por la restricción de
rango, así como por las diversas maneras de substituir datos faltantes mediante la imputación.

5.2.1. La escala de medición. La manera como se miden o escalan las variables influye en los análisis estadísticos.
Por ejemplo, con una escala de tipo nominal (por ejemplo, sexo), no deben calculársele la media o desviación estándar, y
sólo procede el cálculo de porcentajes por categoría. Otro ejemplo es una escala de tipo ordinal como la escala de actitud de
tipo Likert que permite el ordenamiento de categorías.

PRELIS reconoce datos continuos (CO) u ordinales (OR), y puede calcular diferentes tipos de correlaciones
dependiendo del nivel de medición (nominal, ordinal, intervalar o de razón). Una matriz de varianzas-covarianzas de datos
continuos (CO) usa correlaciones Pearson y una matriz de datos ordinales (OR) puede usar correlaciones tetracóricas.

Si hay sesgo de datos (distribución no normal), entonces puede usarse la transformación lineal Probit, o bien puede
usarse una matriz de varianza-covarianza asymptótica.

5.2.2. Restricción de rango. Datos con niveles de medición intervalar o de razón pueden ser discretos o continuos.
Por ejemplo, el número de hijos se reporta en enteros (discreto) y el promedio académico puede reportarse con decimales
(continuo).

LISREL puede definir si la variable es ordinal (OR) o continua (CO), dependiendo de la presencia de 15 puntos
escalares. Si la variable tiene menos de 15 categorías, entonces se le denomina ordinal (OR) y si tiene 15 o más, entonces es
continua (CO). El criterio de 15 puntos permite que la correlación Pearson varíe entre 0 y 1. En consecuencia, una escala
Likert de 5 opciones, debe usar la OR.

5.2.3. Datos faltantes. Los datos faltantes afectan el análisis estadístico y es común substituirlos. Las opciones para
el manejo de datos faltantes son:
Listwise: Borrar sujetos de todas las variables con algún dato faltante en cualquier variable.
Pairwise: Borrar al sujeto sólo en aquella variable donde tenga un dato faltante.
Substitución de media: Substituir el dato faltante con la media de la variable.
Imputación por regresión: Substituir con el valor pronosticado el valor faltante.
Maximum Likelihood (EM): Substituir con el valor esperado.
Match Response Pattern: Parear variables con datos de variables completas.

La elección del método afectará la cantidad de sujetos disponibles para el análisis. Listwise y Pairwise tienden a
sacrificar sujetos y reducir el tamaño de muestra. La substitución de media es posible cuando faltan pocos datos y la
imputación por regresión es útil cuando es moderada la falta de datos. El EM se recomienda cuando es relativamente grande
la falta de datos y la falta es aleatoria.

A continuación se presenta un ejemplo de imputación.

La imputación puede hacerse para una sóla variable (Impute Missing Values) o para muchas variables (Multiple
Imputation), mediante la opción Statistics del menú (figura 13). La imputación individual se hace con Match Response
Pattern y la múltiple con la substitución de medias, la eliminación de casos, o EM.

El ejemplo usado es el archivo chollev.dat (en carpeta Tutorial y tipo Free format) de niveles de colesterol de 28
pacientes que han sufrido de infarto. Se asume que los datos faltan de manera aleatoria (MAR) y que se distribuyen
normalmente. El colesterol es medido a los dos días (VAR1), a los 4 días (VAR2) y a los 14 días (VAR3) del infarto, pero
sólo en 19 de los 28 pacientes en VAR3. Los primeros 18 renglones (figura 17) son mostrados.

Selecione Import Data, seleccione la carpeta LISREL 9 Student Examples, en la carpeta Tutorial (ver figura 15),
abra el archivo chollev.dat en Free Format, guárdelo como chollev.lsf y elija Number of variables 3 y OK a fin de crear
el archivo LISREL. Antes, el archivo SPSS definió los datos faltantes para VAR3 como -.9.00.
¡¡Seleccione la opción Free
Format!! luego seleccione
chollev.dat y aparecerá en la
ventana “nombre” y de click
en abrir
cohíbe.daty oprima!!

Fuente. Elaboración propia.


Figura 15: Archivo chollev.dat (4 pantallas)

Se abre la siguiente ventana (figura 16) ventana que por default muestra como tipo LISREL Data. Escriba en la ventana
Nombre: chollev.lsf y de click en guardar.
Fuente. Elaboración propia.
Figura 16: Archivo chollev.lsf (LISREL).

Al guardar se abre una nueva ventana (figura 17), ahora en “number of variables” seleccione 3 (porque son tres variables) y
dar click en Ok se abrirá la ventana que muestra la figura 19 y en ella se pueden ver las tres variables y sus valores.

Fuente. Elaboración propia.


Figura 17: Number of variables

Como se mencionó, una vez que dio click en OK, se abre una ventana que muestra las tres variables con sus
respectivas variables por sujeto (figura 18).
Recuerde que sólo hay
datos faltantes en VAR 3

Fuente. Elaboración propia.


Figura 18: Las tres variables y sus valores

Seleccione la opción Data del menú y vea como en la figura 19 se abre el menú Define variables seleccione VAR3
como la variable faltante en Missing Values y se escribe -9.0 y dar OK: Se eligió VAR3 porque es la única variable en la
que faltan datos (marcados con -9.0)
Fuente. Elaboración propia.

Figura 19: VAR3 de chollev.lsf (LISREL), en menú Data y submenú Define


Variables

Ahora de click en ok dos veces. A continuación vaya al menú Statistics (figura 20) y búsque Impute Missing Values
(o Multiple Imputation en su caso).
Fuente. Elaboración propia.
Figura 20: Impute Missing Values de VAR3 de chollev.lsf (LISREL).

De click en Impute Missing Values. Se abre la ventana (figura 21). Ahora ingrese VAR3 en la ventana Imputed
variables y VAR1 y VAR2 en la ventana Matching Variables, y oprima Output Options para abrir una nueva ventana
(figura 22) y guarde los datos transformados en cuatro nuevos archivo de LISREL: chollevnew.lsf; el resultado (output) de
una matriz correlacional (chollevnew.cor); means o medias (chollevnew.me); y desviaciones estándar (chollevnew.sd).
Luego oprima Run.

También se puede poner a prueba la normalidad bivariada de los datos.


Fuente. Elaboración propia.
Figuras 21 y 22: Output Options de VAR3 de chollevnew.lsf (LISREL).

Por el momento usted solo ha calculado los resultados DESPUÉS de la imputación o substitución de datos faltantes, y es
también es posible hacer cálculos sin imputación (ANTES).

Puede compararse resultados ANTES y DESPUES de imputar. Ahora examine los resultados después de la imputación y
compárelos con el antes. Por ejemplo la media (mean) de VAR3 antes de la imputación es 221.474 y después de la imputación
es 220.714, un tanto diferente.

ANTES DE LA IMPUTACIÓN
Number of Missing Values per Variable
VAR1 VAR2 VAR3
-------- -------- --------
0 0 9
Distribution of Missing Values
Total Sample Size = 28
Number of Missing Values 0 1
Number of Cases 19 9

Effective Sample Sizes


Univariate (in Diagonal) and Pairwise Bivariate (off Diagonal)
VAR1 VAR2 VAR3
-------- -------- --------
VAR1 28
VAR2 28 28
VAR 19 19 19

Percentage of Missing Values

Univariate (in Diagonal) and Pairwise Bivariate (off Diagonal)


VAR1 VAR2 VAR3
-------- -------- --------
VAR1 0.00
VAR2 0.00 0.00
VAR3 32.14 32.14 32.14

Frequency PerCent Pattern


19 67.9 0 0 0
9 32.1 0 0 1

Correlation Matrix (N=19)


VAR1 VAR2 VAR3
-------- -------- --------
VAR1 1.000
VAR2 0.689 1.000
VAR3 0.393 0.712 1.000

Means (N=19)
VAR1 VAR2 VAR3
-------- -------- --------
259.474 230.842 221.474

Standard Deviations (N=19)


VAR1 VAR2 VAR3
-------- -------- --------
47.948 43.870 43.184

DESPÚES DE LA IMPUTACIÓN

Number of Missing Values per Variable


VAR1 VAR2 VAR3
-------- -------- --------
0 0 9
Imputations for VAR3
Case 2 imputed with value 204 (Variance Ratio = 0.000), NM= 1
Case 4 imputed with value 142 (Variance Ratio = 0.000), NM= 1
Case 5 imputed with value 182 (Variance Ratio = 0.000), NM= 1
Case 10 imputed with value 280 (Variance Ratio = 0.000), NM= 1
Case 13 imputed with value 248 (Variance Ratio = 0.000), NM= 1
Case 16 imputed with value 256 (Variance Ratio = 0.000), NM= 1
Case 18 imputed with value 216 (Variance Ratio = 0.000), NM= 1
Case 23 imputed with value 188 (Variance Ratio = 0.000), NM= 1
Case 25 imputed with value 256 (Variance Ratio = 0.000), NM= 1

Number of Missing Values per Variable After Imputation


VAR1 VAR2 VAR3
-------- -------- --------
0 0 0

Correlation Matrix (N=28)


VAR1 VAR2 VAR3
-------- -------- --------
VAR1 1.000
VAR2 0.673 1.000
VAR3 0.404 0.787 1.000

Means (N=28)
VAR1 VAR2 VAR3
Continúa después de la imputación.

-------- -------- --------


253.929 230.643 220.714

Standard Deviations (N=28)


VAR1 VAR2 VAR3
-------- -------- --------
47.710 46.967 42.771

Como puede apreciarse en el archivo chollevnew.lsf, los datos faltantes han sido substituidos (imputados) en VAR3:
Caso 2 = 204, caso 4 = 142, caso 5 = 182, caso 10 = 280, etc. (ver figura 23). cholnew.lsf se abre dándole click a File,
luego click a Open (asegurar que el tipo de archivo es PRELIS data (*.psf). y luego dándole click a Cholnew.PSF.

Nota: Se recomienda imputar cuando falta más de 5% de los datos.


Los valores -9.0 han sido
substituidos.

Ojo, abra el archivo nuevo chollevnew.lsf con la opción File Open, en la ventana Tipo debe elegirse LISREL Data (*.lsf).
No vea el archivo chollev.lsf, vea cholnew.lsf.
Fuente. Elaboración propia.
Figura 23: VAR3 sin datos faltantes de chollevnew.lsf (LISREL).

La figura 24 muestra las dos bases de datos juntas, antes y después de la imputación.

Antes Después
Fuente. Elaboración propia.
Figura 24: Bases de datos antes y después de la imputación.
A manera de resumen, en este ejercicio se substituyeron los datos faltantes y se crearon tres archivos que
contienen información de correlaciones (chollevnew.cor), medias (chollevnew.me) y desviaciones estándar
(chollevnew.sd) necesarios para realizar el AFC y el MES.

FIN DEL EJERCICIO 5.2.

5.3. Ejercicio de modelo de medición o análisis factorial confirmatorio (AFC).

Como se mencionó, el AFC busca validar la medición de las variables latentes mediante sus variables
observadas (indicadores o reactivos) y el diagrama de AFC muestra como círculos (variables latentes) se conectan
con rectángulos (variables observadas), pero sin flechas rectas que conecten a variables las variables latentes entre
sí. Dichas flechas rectas que conectan variables latentes son usadas en el MES, un paso posterior al AFC.

Este ejemplo trata el caso de seis pruebas de aptitudes que sea aplicaron a
145 estudiantes. Los archivos a utilizar son EX5A.spl y EX5B.spl de la carpeta simples (el lector los descargó al
bajar LISREL). El ejemplo consiste de una matriz de varianza-covarianza y tiene seis variables observadas: 1 Visual
Perception, 2 Cubes, 3 Lozenges, 4 Paragraph Comprehension, 5 Sentence Completion y 6 Word Meaning.
Las primeras dos pruebas miden aptitud espacial (variable latente) y las otras cuatro miden aptitud verbal (variable
latente). El modelo inicial confirmatorio se presenta en la figura 25.

Fuente. Notas del curso MES de Schumacker.

Figura 25. Modelo confirmatorio de seis variables observadas y dos


variables latentes
Las variables observadas son los 6 rectángulos y las latentes son los 2 óvalos. Las trayectorias o líneas van
de cada variable latente a sus variables observadas, y estas trayectorias especifican que un parámetro o carga
factorial se estimará. La carga factorial al cuadrado es la comunalidad estimada de la variable.

Los errores de medición son los 6 óvalos pequeños y ellos indican que la variable también mide algo diferente
a la variable latente. El error de medición representa la variación única de la variable observada no relacionada con
la variable latente. Por ejemplo, Cubes es una medición de aptitud espacial, pero también mide otro factor diferente
o no tiene confiabilidad perfecta (error de medición). El error de medición es estimado y diagramado con las flechas
que apuntan a cada variable observada.

La flecha curva y con doble punta, que une a las dos variables latentes, señala que ambas están
correlacionadas porque comparten varianza. Se propone que aptitud espacial y aptitud verbal se relacionan con un
factor general de aptitud. Las variables latentes (factores) por definición tienen coeficientes de modelo y estructura,
pero no se incluyen en el AFC y se fijan en cero (no hay trayectorias).

Sintaxis SIMPLIS. Como puede observarse abajo, las instrucciones que se anotan en SIMPLIS tienen un
título (Confirmatory Factor Initial Model), la lista de 6 variables observadas (sensibles a mayúsculas y
minúsculas), una matriz correlacional (en este caso no se invoca a un archivo que contenga la matriz, como el
archivo del ejercicio 5.1), medias y desviaciones estándar, la lista de variables latentes, las relaciones del
modelo, residuales y el diagrama de trayectorias.

El lector puede comprobarlo: Abra la versión estudiantil de LISREL (LISREL 9 student examples), y de
acuerdo a las imágenes (figura 26 y figura 27): busque la carpeta de LISREL en archivos del programa
(usualmente en el disco C). Luego abra en la carpeta SIMPLIS el archivo EX5A.SPL (ver figuras 28, 29 y
30) dando click en Open.

Fuente. Elaboración propia.


Figura 26. Abrir LISREL
Fuente. Elaboración propia.
Figura 27. Buscar carpeta LISREL (en este caso LISREL 9
student examples, seleccionar File y Open)

Fuente. Elaboración propia.


Figura 28. Seleccionar y abrir carpeta en SPLEX (SIMPLIS).
Fuente: Elaboración propia
Figura 29. Seleccionar y abrir el archivo EX5A.SPL.

Así se ve la sintaxis en pantalla del ejemplo EX5A.SPL:


_________________________________________________________________
Nine Psychological Variables - A Confirmatory Factor Analysis
Observed Variables
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN
ADDITION COUNTDOT 'S-C CAPS'
Correlation Matrix From File EX5.COR
Sample Size 145
Latent Variables: Visual Verbal Speed
Relationships:
'VIS PERC' - LOZENGES = Visual
'PAR COMP' - WORDMEAN = Verbal
ADDITION - 'S-C CAPS' = Speed
Number of Decimals = 3
Wide Print
Print Residuals
Path Diagram
End of Problem
____________________________________________________________________

Ahora, procede dar click al icono (en la barra de menú, ver figura 30).
Fuente: Elaboración propia
Figura 30. Comandos para correr un AFC

¡Este botón corre el análisis SIMPLIS ! No


vaya a oprimir un botón similar que tiene una P
en vez de una L.

Van a aparecer tres ventanas (ver figura 31), la primer ventana muestra la gráfica con las variables latentes en óvalos (Visual,
Verbal y Speed) y nueve rectángulos (ver figura 32); la segunda ventana contiene los resultados (texto y tablas numéricas)
y se llama EX5A.OUT (ver tabla 2); y la tercer ventana contiene las instrucciones (comandos) y se llama EX5A.SPL. Las
tres ventanas aparecen juntas en la misma pantalla, y es posible que las tres o algunas de las tres ventanas estén minimizadas.
Fuente: Elaboración propia
Figura 31. Gráfica de resultados del AFC

Recuerde que los resultados son presentados en la gráfica EX5B.PTH (figura 32) y el archivo EX5B.OUT (tabla 2,
una enorme tabla que la resume la tabla 1), dónde es posible encontrar cinco principales índices. Pero vea la tabla 1 que no
es preparada por LISREL, sino elaborada por los autores de este libro) que indican que el AFC requiere modificarse, ya que
la Ji cuadrada es significativa, RMSEA es mayor a .08, y GFI no llegó a .95. Note que la tabla 2 es muy larga (cinco páginas),
por eso se presenta la tabla 1 para simplificar la búsqueda de índices

Tabla 1. Índices seleccionados de ajuste del AFC


___________________
2
χ = 52. 99
df = 24
p value .00058
RMSEA =.091
GFI = .928
____________________
Nota: buscarlos en el archivo EX5A.PTH
Fuente: Elaboración propia de los autores y NO de LISREL.

Al final de EX5A.OUT (tabla 2) se encuentran índices a modificar (modification indices), entre los que destacan:

add Path from S-C CAPS to VISUAL a fin de disminuir la Ji cuadrada en 24.6 puntos, y……..
add an Error Covariance between COUNTDOT and ADDITION a fin de disminuir la Ji cuadrada en 24.2 puntos.
Ambas modificaciones son las que más disminuyen la Ji cuadrada.

Fuente. Elaboración propia.


Figura 32. Gráfica de trayectorias (ahora archivo EX5A.PTH).

Y también arroja el análisis de resultados con la matriz de covarianzas, índices de ajuste e índices de modificación,
mediante el archivo EX5A.OUT (Tabla 2).

Tabla 2. Resultados del análisis factorial confirmatorio (EX5A.OUT)


__________________________________________________________________
DATE: 8/ 2/2014
TIME: 20:20
L I S R E L 9.10 (STUDENT)

BY

Karl G. Jöreskog & Dag Sörbom

This program is published exclusively by


Scientific Software International, Inc.
http://www.ssicentral.com

Copyright by Scientific Software International, Inc., 1981-2012


Use of this program is subject to the terms specified in the
Universal Copyright Convention.

The following lines were read from file C:\LISREL9 Student Examples\SPLEX\EX5A.SPL:
Nine Psychological Variables - A Confirmatory Factor Analysis
Observed Variables
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN
ADDITION COUNTDOT 'S-C CAPS'
Correlation Matrix From File EX5.COR
Sample Size 145
Latent Variables: Visual Verbal Speed
Relationships:
'VIS PERC' - LOZENGES = Visual
'PAR COMP' - WORDMEAN = Verbal
ADDITION - 'S-C CAPS' = Speed
Number of Decimals = 3
Wide Print
Print Residuals
Path Diagram
End of Problem

Sample Size = 145

Nine Psychological Variables - A Confirmatory Factor Analysis

Correlation Matrix

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.318 1.000
LOZENGES 0.436 0.419 1.000
PAR COMP 0.335 0.234 0.323 1.000
SEN COMP 0.304 0.157 0.283 0.722 1.000
WORDMEAN 0.326 0.195 0.350 0.714 0.685 1.000
ADDITION 0.116 0.057 0.056 0.203 0.246 0.170 1.000
COUNTDOT 0.314 0.145 0.229 0.095 0.181 0.113 0.585 1.000
S-C CAPS 0.489 0.239 0.361 0.309 0.345 0.280 0.403 0.512 1.000

Total Variance = 9.000 Generalized Variance = 0.0319

Largest Eigenvalue = 3.581 Smallest Eigenvalue = 0.255

Condition Number = 3.745

Nine Psychological Variables - A Confirmatory Factor Analysis

Number of Iterations = 9

LISREL Estimates (Maximum Likelihood)

Measurement Equations

VIS PERC = 0.672*Visual, Errorvar.= 0.548 , R² = 0.452


Standerr (0.0907) (0.0967)
Z-values 7.414 5.664
P-values 0.000 0.000

CUBES = 0.513*Visual, Errorvar.= 0.737 , R² = 0.263


Standerr (0.0921) (0.101)
Z-values 5.570 7.325
P-values 0.000 0.000
LOZENGES = 0.684*Visual, Errorvar.= 0.532 , R² = 0.468
Standerr (0.0907) (0.0971)
Z-values 7.542 5.480
P-values 0.000 0.000

PAR COMP = 0.867*Verbal, Errorvar.= 0.248 , R² = 0.752


Standerr (0.0700) (0.0513)
Z-values 12.391 4.836
P-values 0.000 0.000

SEN COMP = 0.830*Verbal, Errorvar.= 0.311 , R² = 0.689


Standerr (0.0713) (0.0536)
Z-values 11.648 5.807
P-values 0.000 0.000

WORDMEAN = 0.826*Verbal, Errorvar.= 0.318 , R² = 0.682


Standerr (0.0714) (0.0539)
Z-values 11.565 5.903
P-values 0.000 0.000

ADDITION = 0.660*Speed, Errorvar.= 0.564 , R² = 0.436


Standerr (0.0850) (0.0871)
Z-values 7.769 6.480
P-values 0.000 0.000

COUNTDOT = 0.801*Speed, Errorvar.= 0.359 , R² = 0.641


Standerr (0.0843) (0.0893)
Z-values 9.497 4.020
P-values 0.000 0.000

S-C CAPS = 0.677*Speed, Errorvar.= 0.542 , R² = 0.458


Standerr (0.0849) (0.0866)
Z-values 7.977 6.256
P-values 0.000 0.000

Correlation Matrix of Independent Variables

Visual Verbal Speed


-------- -------- --------
Visual 1.000

Verbal 0.543 1.000


(0.085)
6.370

Speed 0.509 0.318 1.000


(0.096) (0.092)
5.317 3.444

Log-likelihood Values

Estimated Model Saturated Model


--------------- ---------------
Number of free parameters(t) 21 45
-2ln(L) 858.327 805.336
AIC (Akaike, 1974)* 900.327 895.336
BIC (Schwarz, 1978)* 962.839 1029.289

*LISREL uses AIC= 2t - 2ln(L) and BIC = tln(N)- 2ln(L)

Goodness of Fit Statistics

Degrees of Freedom for (C1)-(C2) 24


Maximum Likelihood Ratio Chi-Square (C1) 52.991 (P = 0.0006)
Browne's (1984) ADF Chi-Square (C2_NT) 50.313 (P = 0.0013)
Estimated Non-centrality Parameter (NCP) 28.991
90 Percent Confidence Interval for NCP (11.685 ; 54.026)

Minimum Fit Function Value 0.365


Population Discrepancy Function Value (F0) 0.200
90 Percent Confidence Interval for F0 (0.0806 ; 0.373)
Root Mean Square Error of Approximation (RMSEA) 0.0913
90 Percent Confidence Interval for RMSEA (0.0579 ; 0.125)
P-Value for Test of Close Fit (RMSEA < 0.05) 0.0237

Expected Cross-Validation Index (ECVI) 0.655


90 Percent Confidence Interval for ECVI (0.536 ; 0.828)
ECVI for Saturated Model 0.621
ECVI for Independence Model 4.690

Chi-Square for Independence Model (36 df) 662.024

Normed Fit Index (NFI) 0.919


Non-Normed Fit Index (NNFI) 0.930
Parsimony Normed Fit Index (PNFI) 0.613
Comparative Fit Index (CFI) 0.953
Incremental Fit Index (IFI) 0.954
Relative Fit Index (RFI) 0.879

Critical N (CN) 117.795

Root Mean Square Residual (RMR) 0.0755


Standardized RMR 0.0755
Goodness of Fit Index (GFI) 0.928
Adjusted Goodness of Fit Index (AGFI) 0.866
Parsimony Goodness of Fit Index (PGFI) 0.495

Nine Psychological Variables - A Confirmatory Factor Analysis

Fitted Covariance Matrix

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.345 1.000
LOZENGES 0.460 0.351 1.000
PAR COMP 0.317 0.242 0.322 1.000
SEN COMP 0.303 0.231 0.308 0.720 1.000
WORDMEAN 0.302 0.230 0.307 0.716 0.685 1.000
ADDITION 0.226 0.173 0.230 0.182 0.174 0.173 1.000
COUNTDOT 0.274 0.209 0.279 0.221 0.211 0.210 0.529 1.000
S-C CAPS 0.232 0.177 0.236 0.187 0.179 0.178 0.447 0.542 1.000
Fitted Residuals

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.027 0.000
LOZENGES -0.024 0.068 0.000
PAR COMP 0.018 -0.008 0.001 0.000
SEN COMP 0.001 -0.074 -0.025 0.002 0.000
WORDMEAN 0.024 -0.035 0.043 -0.002 0.000 0.000
ADDITION -0.110 -0.116 -0.174 0.021 0.072 -0.003 0.000
COUNTDOT 0.040 -0.064 -0.050 -0.126 -0.030 -0.097 0.056 0.000
S-C CAPS 0.257 0.062 0.125 0.122 0.166 0.102 -0.044 -0.030 0.000

Summary Statistics for Fitted Residuals

Smallest Fitted Residual = -0.174


Median Fitted Residual = 0.000
Largest Fitted Residual = 0.257

Stemleaf Plot

- 1|7
- 1|3210
- 0|765
- 0|44333321000000000000000
0|22244
0|6677
1|023
1|7
2|
2|6

Standardized Residuals

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.780 0.000
LOZENGES -1.251 2.050 0.000
PAR COMP 0.435 -0.139 0.019 0.000
SEN COMP 0.020 -1.293 -0.562 0.226 0.000
WORDMEAN 0.526 -0.609 0.945 -0.198 -0.037 0.000
ADDITION -1.944 -1.764 -3.114 0.374 1.225 -0.056 0.000
COUNTDOT 0.879 -1.102 -1.134 -2.991 -0.652 -2.074 4.137 0.000
S-C CAPS 4.644 0.959 2.290 2.238 2.902 1.776 -1.908 -2.310 0.000

Summary Statistics for Standardized Residuals

Smallest Standardized Residual = -3.114


Median Standardized Residual = 0.000
Largest Standardized Residual = 4.644

Stemleaf Plot

- 3|10
- 2|31
- 1|9983311
- 0|8766211000000000000
0|244599
1|028
2|0239
3|
4|16
Largest Negative Standardized Residuals
Residual for ADDITION and LOZENGES -3.114
Residual for COUNTDOT and PAR COMP -2.991
Largest Positive Standardized Residuals
Residual for COUNTDOT and ADDITION 4.137
Residual for S-C CAPS and VIS PERC 4.644
Residual for S-C CAPS and SEN COMP 2.902

The Modification Indices Suggest to Add the


Path to from Decrease in Chi-Square New Estimate
ADDITION Visual 10.4 -0.36
COUNTDOT Verbal 10.0 -0.28
S-C CAPS Visual 24.6 0.56
S-C CAPS Verbal 10.0 0.26

The Modification Indices Suggest to Add an Error Covariance


Between and Decrease in Chi-Square New Estimate
COUNTDOT ADDITION 24.2 0.60
S-C CAPS VIS PERC 9.1 0.18
S-C CAPS COUNTDOT 8.0 -0.36

Time used 0.094 seconds

____________________________________________________________
Fuente Elaboración propia (LISREL).

De acuerdo a los índices de modificación sugeridos al final de la tabla 2, se abre el mismo archivo EX5A.SPL
(figura 33) para realizar un AFC modificado. Notar excepto que tiene incluida la relación entre COUNTDOT y ADDITION.
Las comillas sencillas como en ´S-C CAPS´ se usa para el caso de variables que tienen un espacio como el que se ve entre
la letras C y C. El guión alto como el que está entre
´PAR COMP´ - WORDMEAN, significa que también se incluye a ´SEN COMP´. Otra opción es escribir en la línea 10 ´PAR
COM´ ´SEN COMP´ WORD MEAN = Verbal, para incluir a ´SEN COMP´ .

Pero también se puede abrir el archivo EX5C.SPL y esto es lo que se ve:


Fuente: Elaboración propia
Figura 33. EX5C.SPL AFC modificado

Ahora, procede dar click al icono (en la barra de menú):

¡Este botón corre el análisis SIMPLIS ! No


vaya a oprimir un botón similar que tiene una P
en vez de una L.
Para no confundirse con los resultados del archivo EX5A, cierre las tres ventanas con terminaciones (SPL, OUT y PTH).

Los resultados son presentados en la gráfica EX5C.PTH (figura 34) y el archivo EX5C.OUT (tabla 3, una enorme
tabla que la resume la tabla 4), dónde es posible encontrar cinco principales índices (ver tabla 3 que no es preparada por
LISREL, sino elaborada por los autores) que indican que el AFC ya quedo listo, ya que la Ji cuadrada no es significativa,
RMSEA es menor a .08, y GFI llegó a .95.

Tabla 3. Índices seleccionados de ajuste del AFC modificado


___________________
2
χ = 28. 84
df = 23
p value .1858
RMSEA =.042
GFI = .959
_____________________
Nota: buscarlos en el archivo EX5B.PTH
Fuente: Elaboración propia de los autores (NO por LISREL)
Al final de EX5C.=OUT ya no se encuentran índices a modificar sugeridos (modification indices).

Nota: Observar la correlación agregada entre ADDITIION y COUNTDOT.


Fuente: Elaboración propia.
Figura 34. Archivo EX5B.PTH AFC modificado (gráfica de trayectorias).

Tabla 4. Resultados del AFC modificado (EXA5B.OUT)


_________________________________________________________________

DATE: 8/ 2/2014
TIME: 21:00

L I S R E L 9.10 (STUDENT)

BY

Karl G. Jöreskog & Dag Sörbom

This program is published exclusively by


Scientific Software International, Inc.
http://www.ssicentral.com

Copyright by Scientific Software International, Inc., 1981-2012


Use of this program is subject to the terms specified in the
Universal Copyright Convention.

The following lines were read from file C:\LISREL9 Student Examples\SPLEX\EX5C.spl:

Nine Psychological Variables - A Confirmatory Factor Analysis


Observed Variables
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN
ADDITION COUNTDOT 'S-C CAPS'
Correlation Matrix From File EX5.COR
Sample Size 145
Latent Variables: Visual Verbal Speed
Relationships:
'VIS PERC' - LOZENGES = Visual
'PAR COMP' - WORDMEAN = Verbal
ADDITION - 'S-C CAPS' = Speed
Let COUNTDOT and ADDITION correlate
Number of Decimals = 3
Wide Print
Print Residuals
Path Diagram
End of Problem

Sample Size = 145

Nine Psychological Variables - A Confirmatory Factor Analysis

Correlation Matrix

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.318 1.000
LOZENGES 0.436 0.419 1.000
PAR COMP 0.335 0.234 0.323 1.000
SEN COMP 0.304 0.157 0.283 0.722 1.000
WORDMEAN 0.326 0.195 0.350 0.714 0.685 1.000
ADDITION 0.116 0.057 0.056 0.203 0.246 0.170 1.000
COUNTDOT 0.314 0.145 0.229 0.095 0.181 0.113 0.585 1.000
S-C CAPS 0.489 0.239 0.361 0.309 0.345 0.280 0.403 0.512 1.000

Total Variance = 9.000 Generalized Variance = 0.0319

Largest Eigenvalue = 3.581 Smallest Eigenvalue = 0.255

Condition Number = 3.745

Nine Psychological Variables - A Confirmatory Factor Analysis

Number of Iterations = 14

LISREL Estimates (Maximum Likelihood)

Measurement Equations

VIS PERC = 0.710*Visual, Errorvar.= 0.496 , R² = 0.504


Standerr (0.0875) (0.0918)
Z-values 8.112 5.407
P-values 0.000 0.000

CUBES = 0.488*Visual, Errorvar.= 0.762 , R² = 0.238


Standerr (0.0907) (0.100)
Z-values 5.384 7.599
P-values 0.000 0.000

LOZENGES = 0.655*Visual, Errorvar.= 0.571 , R² = 0.429


Standerr (0.0877) (0.0917)
Z-values 7.464 6.234
P-values 0.000 0.000

PAR COMP = 0.868*Verbal, Errorvar.= 0.247 , R² = 0.753


Standerr (0.0699) (0.0511)
Z-values 12.407 4.836
P-values 0.000 0.000

SEN COMP = 0.831*Verbal, Errorvar.= 0.310 , R² = 0.690


Standerr (0.0712) (0.0534)
Z-values 11.667 5.801
P-values 0.000 0.000

WORDMEAN = 0.824*Verbal, Errorvar.= 0.320 , R² = 0.680


Standerr (0.0714) (0.0539)
Z-values 11.545 5.941
P-values 0.000 0.000

ADDITION = 0.412*Speed, Errorvar.= 0.830 , R² = 0.170


Standerr (0.0910) (0.104)
Z-values 4.530 7.971
P-values 0.000 0.000

COUNTDOT = 0.529*Speed, Errorvar.= 0.721 , R² = 0.279


Standerr (0.0944) (0.102)
Z-values 5.599 7.036
P-values 0.000 0.000

S-C CAPS = 0.971*Speed, Errorvar.= 0.0579, R² = 0.942


Standerr (0.117) (0.194)
Z-values 8.320 0.299
P-values 0.000 0.765

Error Covariance for COUNTDOT and ADDITION = 0.367


(0.0842)
4.360

Correlation Matrix of Independent Variables

Visual Verbal Speed


-------- -------- --------
Visual 1.000

Verbal 0.544 1.000


(0.085)
6.396

Speed 0.628 0.380 1.000


(0.096) (0.087)
6.533 4.355

Log-likelihood Values
Estimated Model Saturated Model
--------------- ---------------
Number of free parameters(t) 22 45
-2ln(L) 834.171 805.336
AIC (Akaike, 1974)* 878.171 895.336
BIC (Schwarz, 1978)* 943.659 1029.289

*LISREL uses AIC= 2t - 2ln(L) and BIC = tln(N)- 2ln(L)

Goodness of Fit Statistics

Degrees of Freedom for (C1)-(C2) 23


Maximum Likelihood Ratio Chi-Square (C1) 28.835 (P = 0.1858)
Browne's (1984) ADF Chi-Square (C2_NT) 28.163 (P = 0.2097)
Estimated Non-centrality Parameter (NCP) 5.835
90 Percent Confidence Interval for NCP (0.0 ; 23.722)

Minimum Fit Function Value 0.199


Population Discrepancy Function Value (F0) 0.0402
90 Percent Confidence Interval for F0 (0.0 ; 0.164)
Root Mean Square Error of Approximation (RMSEA) 0.0418
90 Percent Confidence Interval for RMSEA (0.0 ; 0.0843)
P-Value for Test of Close Fit (RMSEA < 0.05) 0.578

Expected Cross-Validation Index (ECVI) 0.502


90 Percent Confidence Interval for ECVI (0.462 ; 0.626)
ECVI for Saturated Model 0.621
ECVI for Independence Model 4.690

Chi-Square for Independence Model (36 df) 662.024

Normed Fit Index (NFI) 0.956


Non-Normed Fit Index (NNFI) 0.985
Parsimony Normed Fit Index (PNFI) 0.611
Comparative Fit Index (CFI) 0.991
Incremental Fit Index (IFI) 0.991
Relative Fit Index (RFI) 0.931

Critical N (CN) 208.938

Root Mean Square Residual (RMR) 0.0442


Standardized RMR 0.0442
Goodness of Fit Index (GFI) 0.959
Adjusted Goodness of Fit Index (AGFI) 0.919
Parsimony Goodness of Fit Index (PGFI) 0.490

Nine Psychological Variables - A Confirmatory Factor Analysis

Fitted Covariance Matrix

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.346 1.000
LOZENGES 0.465 0.320 1.000
PAR COMP 0.335 0.231 0.309 1.000
SEN COMP 0.321 0.221 0.296 0.721 1.000
WORDMEAN 0.319 0.219 0.294 0.715 0.685 1.000
ADDITION 0.184 0.126 0.170 0.136 0.130 0.129 1.000
COUNTDOT 0.236 0.162 0.217 0.174 0.167 0.165 0.585 1.000
S-C CAPS 0.433 0.298 0.399 0.320 0.306 0.304 0.400 0.513 1.000

Fitted Residuals

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.028 0.000
LOZENGES -0.029 0.099 0.000
PAR COMP 0.000 0.003 0.014 0.000
SEN COMP -0.017 -0.064 -0.013 0.001 0.000
WORDMEAN 0.007 -0.024 0.056 -0.001 0.000 0.000
ADDITION -0.068 -0.069 -0.114 0.067 0.116 0.041 0.000
COUNTDOT 0.078 -0.017 0.012 -0.079 0.014 -0.052 0.000 0.000
S-C CAPS 0.056 -0.059 -0.038 -0.011 0.039 -0.024 0.003 -0.001 0.000

Summary Statistics for Fitted Residuals

Smallest Fitted Residual = -0.114


Median Fitted Residual = 0.000
Largest Fitted Residual = 0.116

Stemleaf Plot

-10|4
- 8|
- 6|9984
- 4|92
- 2|89844
- 0|773111000000000000
0|1337244
2|9
4|166
6|78
8|9
10|6

Standardized Residuals

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.826 0.000
LOZENGES -1.421 2.413 0.000
PAR COMP -0.006 0.060 0.306 0.000
SEN COMP -0.384 -1.075 -0.270 0.122 0.000
WORDMEAN 0.165 -0.404 1.147 -0.127 0.003 0.000
ADDITION -1.180 -0.996 -1.861 1.006 1.701 0.599 0.000
COUNTDOT 1.791 -0.270 0.235 -1.357 0.236 -0.861 0.000 0.000
S-C CAPS 2.242 -1.295 -1.249 -0.366 1.091 -0.652 0.368 -0.131 0.000

Summary Statistics for Standardized Residuals

Smallest Standardized Residual = -1.861


Median Standardized Residual = 0.000
Largest Standardized Residual = 2.413

Stemleaf Plot

- 1|9
- 1|4432210
- 0|987
- 0|4443311000000000000
0|1122234
0|6
1|011
1|78
2|24

Time used 0.047 seconds

____________________________________________________________
Fuente: Elaboración propia

Además de hacer la modifcación con la ayuda del archivo EX5C.SPL, es posible sobre-escribir en el archivo EX5A
para agregar Let COUNTDOT ADDITION correlate (ver figura 35) y se obrienen los mismos resultados.

Fuente: Elaboración propia


Figura 35. AFC modificado de EX5A.SPL (Let COUNTDOT ADDITION correlate).
Tabla 5. Índices seleccionados de ajuste del AFC
______________
2
χ = 28. 84
df = 23
p value .1858
RMSEA =.042
GFI = .959
______________
Nota: buscarlos en el archivo EX5A.PTH modificado
Fuente: Elaboración propia

Nota: Observar la flecha curva agregada que conecta a COUNTDOT y ADDITION.


Fuente: Elaboración propia.

Figura 36. Archivo EX5A.PTH. AFC modificado (gráfica de trayectorias).

En resumen, el AFC ha sido realizado exitosamente mediante las modificaciones sugeridas por modification indices,
y es posible la realización de la ECUACION ESTRUCTURAL en un paso siguiente. En otras palabras, las variables latentes
son validamente medidas por sus respectivas variables observadas (indicadores o reactivos).

Es posible que en otro caso se requieran llevar a cabo más de una


modificación, dependiendo del las sugerencias de modification
indices y la teoría.
FIN DEL EJERCICIO 5.3

5.4 Ejemplo de Ecuación Estructural.

Como ya se mencionó, el MES se realiza mediante la combinación de la


técnica AFC y el análisis de trayectorias (modelo estructural). Las trayectorias parten de las relaciones hipotéticas entre las
variables latentes.

El ejemplo usado en esta sección es otro diferente al usado en el ejemplo 5.3, se lleva a cabo al escribir directamente
en la pantalla de la computadora: el título del estudio (Educational Achievement Structural Equation Inicial Model);
las nueve variables observadas (EdAsp OcAsp VerbAch QuantAch FamInc FaEd MoEd VerbAb QuantAb); la matriz
de covarianzas; el tamaño de la muestra (200); las 4 variables latentes (ASPIRE ACHIEVE HOME ABILITY); las
relaciones entre las variables latentes y las variables observadas); y las instrucciones de Print Residuals, Path
Diagram y End of problem. El modelo hipotético se presenta en la figura 37. Notar que a diferencia del AFC, las variables
latentes se conectan con flechas rectas.

Fuente: Notas del Curso MES de Schumacker.

Figura 37. Modelo hipotético del ejemplo de modelamiento estructural.

Cabe mencionar que este ejemplo no se esta tomando de la carpeta de ejemplos


de LISREL, no muestra como se realizó la preparación de datos con PRELIS y tampoco muestra como se realizó el AFC con
SIMPLIS. En este ejemplo es posible realizar el análisis sólo anotando los datos directamente en la pantalla de LISREL.

Los pasos a seguir son:


5.4.1 Abrir LISREL (Figura 38)

Fuente: Elaboración propia


Figura 38. Abrir LISREL

5.4.2. Oprimir New (figura 39)

Fuente: Elaboración propia


Figura 39. New

5.4.3 Oprimir SIMPLIS Project y Aceptar (figura 40).

Fuente: Elaboración propia


Figura 40. Oprimir SIMPLIS project y aceptar
5.4.4. Nombrar (escribir “Educational Achievement Structural Equation Initial Model”) y Guardar (figura 41). Se
puede guardar en cualquier carpeta de su elección, en el ejemplo se esta guardando en “SPLEX”.

Fuente: Elaboración propia


Figura 41. Nombrar y Guardar.

5.4.5. Escribir datos en pantalla: anotar el título y demás datos (figura 42).

Nota 1: La anotación 1* indica que los parámetros han sido fijados a 1, para que así sean la variable observada de referencia de la variable latente.
Nota 2: Hay 24 parámetros libres a estimarse. El modelo esta sobreidentificado ya que p(p + 1)/ 2 = 9(9 + 1) / 2 = 45, y los grados de libertad son
21 (45 menos 24).
Fuente: Elaboración propia
Figura 42. Escribir datos en pantalla
5.4.6. Correr LISREL.
Se oprime el botón L que está en el menú.

Si al correr el reporte aparece la ventana “The model does not


converge” significa que existe un error de captura en la
información. ¡Verifique que todos los datos sean correctos!

Los resultados son la gráfica de trayectorias (figura 43) denominada como archivo “Educational Achievement
Stuctural Equation Initial Model.PTH”, los
resultados (tabla 6) y los índices de ajuste (tabla 7) denominados por el archivo ““Educational Achievement Stuctural
Equation Initial Model.OUT”

Fuente: Elaboración propia


Figura 43. Gráfica de trayectorias (archivo .PTH).

Tabla 6. Resultados de la ecuación estructural (archivo con extensión OUT)


_____________________________________________________________________
DATE: 8/ 2/2014
TIME: 21:39

L I S R E L 9.10 (STUDENT)

BY

Karl G. Jöreskog & Dag Sörbom

This program is published exclusively by


Scientific Software International, Inc.
http://www.ssicentral.com
Copyright by Scientific Software International, Inc., 1981-2012
Use of this program is subject to the terms specified in the
Universal Copyright Convention.

The following lines were read from file C:\LISREL9 Student Examples\SPLEX\EDU.spj:

Observed variables: EdAsp OcAsp VerbAch QuantAch FamInc FaEd


MoEd VerbAb QuantAb
Covariance matrix:
1.024
.792 1.077
1.027 .919 1.844
.756 .697 1.244 1.286
.567 .537 .876 .632 .852
.445 .424 .677 .526 .518 .670
.434 .389 .635 .498 .475 .545 .716
.580 .564 .893 .716 .546 .422 .373 .851
.491 .499 .888 .646 .508 .389 .339 .629 .871
Sample size: 200
Latent variables: ASPIRE ACHIEVE HOME ABILITY
Relationships:
EdAsp = 1*ASPIRE
OcAsp = ASPIRE
VerbAch = 1*ACHIEVE
QuantAch = ACHIEVE
FamInc = 1*HOME
FaEd MoEd = HOME
VerbAb = 1*ABILITY
QuantAb = ABILITY
ASPIRE = HOME ABILITY
ACHIEVE = ASPIRE HOME ABILITY
Print Residuals
Path Diagram
End of problem

Sample Size = 200

Covariance Matrix

EdAsp OcAsp VerbAch QuantAch FamInc FaEd


-------- -------- -------- -------- -------- --------
EdAsp 1.024
OcAsp 0.792 1.077
VerbAch 1.027 0.919 1.844
QuantAch 0.756 0.697 1.244 1.286
FamInc 0.567 0.537 0.876 0.632 0.852
FaEd 0.445 0.424 0.677 0.526 0.518 0.670
MoEd 0.434 0.389 0.635 0.498 0.475 0.545
VerbAb 0.580 0.564 0.893 0.716 0.546 0.422
QuantAb 0.491 0.499 0.888 0.646 0.508 0.389

Covariance Matrix

MoEd VerbAb QuantAb


-------- -------- --------
MoEd 0.716
VerbAb 0.373 0.851
QuantAb 0.339 0.629 0.871
Total Variance = 9.191 Generalized Variance = 0.673074D-03

Largest Eigenvalue = 6.249 Smallest Eigenvalue = 0.138

Condition Number = 6.734

Number of Iterations = 10

LISREL Estimates (Maximum Likelihood)

Measurement Equations

EdAsp = 1.000*ASPIRE, Errorvar.= 0.160 , R² = 0.844


Standerr (0.0415)
Z-values 3.854
P-values 0.000

OcAsp = 0.917*ASPIRE, Errorvar.= 0.351 , R² = 0.674


Standerr (0.0639) (0.0476)
Z-values 14.341 7.370
P-values 0.000 0.000

VerbAch = 1.000*ACHIEVE, Errorvar.= 0.205 , R² = 0.889


Standerr (0.0509)
Z-values 4.026
P-values 0.000

QuantAch = 0.759*ACHIEVE, Errorvar.= 0.342 , R² = 0.734


Standerr (0.0417) (0.0435)
Z-values 18.206 7.866
P-values 0.000 0.000

FamInc = 1.000*HOME, Errorvar.= 0.320 , R² = 0.625


Standerr (0.0394)
Z-values 8.106
P-values 0.000

FaEd = 1.007*HOME, Errorvar.= 0.130 , R² = 0.806


Standerr (0.0734) (0.0245)
Z-values 13.725 5.303
P-values 0.000 0.000

MoEd = 0.964*HOME, Errorvar.= 0.222 , R² = 0.690


Standerr (0.0758) (0.0300)
Z-values 12.707 7.394
P-values 0.000 0.000

VerbAb = 1.000*ABILITY, Errorvar.= 0.188 , R² = 0.779


Standerr (0.0353)
Z-values 5.328
P-values 0.000

QuantAb = 0.949*ABILITY, Errorvar.= 0.274 , R² = 0.685


Standerr (0.0677) (0.0384)
Z-values 14.017 7.146
P-values 0.000 0.000
Structural Equations

ASPIRE = 0.410*HOME + 0.590*ABILITY, Errorvar.= 0.335 , R² = 0.612


Standerr (0.125) (0.116) (0.0579)
Z-values 3.282 5.081 5.781
P-values 0.001 0.000 0.000

ACHIEVE = 0.548*ASPIRE + 0.242*HOME + 0.751*ABILITY, Errorvar.= 0.225 , R² = 0.863


Standerr (0.113) (0.128) (0.142) (0.0575)
Z-values 4.859 1.901 5.298 3.911
P-values 0.000 0.057 0.000 0.000

NOTE: R² for Structural Equations are Hayduk's (2006) Blocked-Error R²

Reduced Form Equations

ASPIRE = 0.410*HOME + 0.590*ABILITY, Errorvar.= 0.335, R² = 0.612


Standerr (0.125) (0.116)
Z-values 3.282 5.081
P-values 0.001 0.000

ACHIEVE = 0.467*HOME + 1.074*ABILITY, Errorvar.= 0.325, R² = 0.801


Standerr (0.143) (0.140)
Z-values 3.261 7.685
P-values 0.001 0.000

Covariance Matrix of Independent Variables

HOME ABILITY
-------- --------
HOME 0.532
(0.082)
6.486

ABILITY 0.432 0.663


(0.063) (0.088)
6.894 7.537

Covariance Matrix of Latent Variables

ASPIRE ACHIEVE HOME ABILITY


-------- -------- -------- --------
ASPIRE 0.864
ACHIEVE 1.014 1.639
HOME 0.473 0.712 0.532
ABILITY 0.568 0.914 0.432 0.663

Log-likelihood Values

Estimated Model Saturated Model


--------------- ---------------
Number of free parameters(t) 24 45
-2ln(L) 396.723 339.269
AIC (Akaike, 1974)* 444.723 429.269
BIC (Schwarz, 1978)* 523.883 577.693
*LISREL uses AIC= 2t - 2ln(L) and BIC = tln(N)- 2ln(L)

Goodness of Fit Statistics


Degrees of Freedom for (C1)-(C2) 21
Maximum Likelihood Ratio Chi-Square (C1) 57.454 (P = 0.0000)
Browne's (1984) ADF Chi-Square (C2_NT) 59.145 (P = 0.0000)
Estimated Non-centrality Parameter (NCP) 36.454
90 Percent Confidence Interval for NCP (17.633 ; 62.928)

Minimum Fit Function Value 0.287


Population Discrepancy Function Value (F0) 0.182
90 Percent Confidence Interval for F0 (0.0882 ; 0.315)
Root Mean Square Error of Approximation (RMSEA) 0.0932
90 Percent Confidence Interval for RMSEA (0.0648 ; 0.122)
P-Value for Test of Close Fit (RMSEA < 0.05) 0.00803

Expected Cross-Validation Index (ECVI) 0.527


90 Percent Confidence Interval for ECVI (0.433 ; 0.660)
ECVI for Saturated Model 0.450
ECVI for Independence Model 13.718

Chi-Square for Independence Model (36 df) 2725.685

Normed Fit Index (NFI) 0.979


Non-Normed Fit Index (NNFI) 0.977
Parsimony Normed Fit Index (PNFI) 0.571
Comparative Fit Index (CFI) 0.986
Incremental Fit Index (IFI) 0.986
Relative Fit Index (RFI) 0.964

Critical N (CN) 135.847

Root Mean Square Residual (RMR) 0.0471


Standardized RMR 0.0484
Goodness of Fit Index (GFI) 0.938
Adjusted Goodness of Fit Index (AGFI) 0.868
Parsimony Goodness of Fit Index (PGFI) 0.438

Fitted Covariance Matrix

EdAsp OcAsp VerbAch QuantAch FamInc FaEd


-------- -------- -------- -------- -------- --------
EdAsp 1.024
OcAsp 0.792 1.077
VerbAch 1.014 0.930 1.844
QuantAch 0.770 0.706 1.244 1.286
FamInc 0.473 0.433 0.712 0.540 0.852
FaEd 0.476 0.437 0.717 0.544 0.536 0.670
MoEd 0.456 0.418 0.686 0.521 0.513 0.517
VerbAb 0.568 0.521 0.914 0.693 0.432 0.435
QuantAb 0.539 0.494 0.867 0.658 0.409 0.412

Fitted Covariance Matrix

MoEd VerbAb QuantAb


-------- -------- --------
MoEd 0.716
VerbAb 0.416 0.851
QuantAb 0.394 0.629 0.871
Fitted Residuals

EdAsp OcAsp VerbAch QuantAch FamInc FaEd


-------- -------- -------- -------- -------- --------
EdAsp 0.000
OcAsp 0.000 0.000
VerbAch 0.013 -0.011 0.000
QuantAch -0.014 -0.009 0.000 0.000
FamInc 0.094 0.104 0.164 0.092 0.000
FaEd -0.031 -0.013 -0.040 -0.018 -0.018 0.000
MoEd -0.022 -0.029 -0.051 -0.023 -0.038 0.028
VerbAb 0.012 0.043 -0.021 0.023 0.114 -0.013
QuantAb -0.048 0.005 0.021 -0.012 0.099 -0.023

Fitted Residuals

MoEd VerbAb QuantAb


-------- -------- --------
MoEd 0.000
VerbAb -0.043 0.000
QuantAb -0.055 0.000 0.000

Summary Statistics for Fitted Residuals

Smallest Fitted Residual = -0.055


Median Fitted Residual = 0.000
Largest Fitted Residual = 0.164

Stemleaf Plot

- 4|51830
- 2|8193321
- 0|88433219000000000000
0|523
2|138
4|3
6|
8|249
10|44
12|
14|
16|4

Standardized Residuals

EdAsp OcAsp VerbAch QuantAch FamInc FaEd


-------- -------- -------- -------- -------- --------
EdAsp 0.000
OcAsp 0.000 0.000
VerbAch 1.024 -0.681 0.000
QuantAch -0.727 -0.350 0.000 0.000
FamInc 3.491 3.083 5.236 2.772 0.000
FaEd -2.135 -0.567 -2.425 -0.841 -2.291 0.000
MoEd -1.009 -1.023 -2.080 -0.828 -3.022 4.573
VerbAb 0.816 1.907 -1.736 1.240 4.530 -0.866
QuantAb -2.468 0.182 1.528 -0.552 3.442 -1.263
Standardized Residuals

MoEd VerbAb QuantAb


-------- -------- --------
MoEd 0.000
VerbAb -2.103 0.000
QuantAb -2.337 0.000 0.000

Summary Statistics for Standardized Residuals

Smallest Standardized Residual = -3.022


Median Standardized Residual = 0.000
Largest Standardized Residual = 5.236

Stemleaf Plot

- 3|0
- 2|5433111
- 1|7300
- 0|98877664000000000000
0|28
1|0259
2|8
3|145
4|56
5|2
Largest Negative Standardized Residuals
Residual for MoEd and FamInc -3.022
Largest Positive Standardized Residuals
Residual for FamInc and EdAsp 3.491
Residual for FamInc and OcAsp 3.083
Residual for FamInc and VerbAch 5.236
Residual for FamInc and QuantAch 2.772
Residual for MoEd and FaEd 4.573
Residual for VerbAb and FamInc 4.530
Residual for QuantAb and FamInc 3.442

The Modification Indices Suggest to Add the


Path to from Decrease in Chi-Square New Estimate
FamInc ABILITY 35.0 0.61
MoEd ABILITY 9.7 -0.29

The Modification Indices Suggest to Add an Error Covariance


Between and Decrease in Chi-Square New Estimate
MoEd FamInc 10.5 -0.10
MoEd FaEd 39.6 0.20

Time used 0.094 seconds

__________________________________________________________________
Fuente: Elaboración propia

Algunos índices de ajuste seleccionados señalan que no hay ajuste y que se requiere modificación de la ecuación
estructural (tabla 7).
Tabla 7. Índices seleccionados de ajuste de la ecuación estructural.
___________________________
2
χ = 57. 45
df = 21
p value .0000
RMSEA =.0932
GFI = .938
____________________________
Nota: buscarlos en el archivo Educational Achievement Structural
Equation Initial Model..PTH
Fuente: Elaboración propia

Por otro lado, los índices de modificación (tabla 8) que aparecen en el archivo con extensión OUT sugieren que se
incluya una trayectoria de FamInc a ABILITY, a fin de reducir la Ji cuadrada en 35.5 puntos y/o correlacionar MoEd y
FaEd para así reducir la Ji cuadrada en 40.2 puntos.

Tabla 8. Índices de modificación sugeridos para la ecuación estructural.


______________________________________________________________
The Modification Indices Suggest to Add the
Path to from Decrease in Chi-Square New Estimate
FamInc ABILITY 35.0 0.61
MoEd ABILITY 9.7 -0.29

The Modification Indices Suggest to Add an Error Covariance


Between and Decrease in Chi-Square New Estimate
MoEd FamInc 10.5 -0.10
MoEd FaEd 39.6 0.20
________________________________________________________________
Fuente: Elaboración propia

Debido a que la reducción de Ji cuadrada de 39.6 es la mayor, y teóricamente es posible, se procede a modificar el
modelo mediante el parámetro de correlación entre MoED y FaEd (ver figura 44).
Nota: Se ha incluido una flecha curva que correlaciona FaEd y MoED
Fuente: Notas del Curso MES de Schumacker.
Figura 44. Modelo hipotético modificado del ejemplo de modelamiento estructural.
De acuerdo a la figura 45 se incluye la instrucción Let the error covariances of FaEd and MoEd correlate.

Fuente: Elaboración propia


Figura 45. Ecuación estructural modificada en SIMPLIS.
Se oprime el botón L que está en el menú.

Los resultados del modelamiento de ecuación estructural se presentan en la gráfica de trayectorias (figura 46), la tabla
de resultados (tabla 9), y la tabla de índices de ajuste seleccionados ( tabla 10). Los resultados muestran que los datos se
ajustan al modelo teórico, en otras palabras, que el modelo teórico es confirmado.

Fuente: Elaboración propia


Figura 46. Gráfica modificada de trayectorias del MES

En la tabla 9 se muestran la matriz de covarianzas, las ecuaciones de medición, y los índices de ajuste.

Tabla 9. Resultados del MES modificado.


_________________________________________________________________
DATE: 8/ 2/2014
TIME: 21:56

L I S R E L 9.10 (STUDENT)

BY

Karl G. Jöreskog & Dag Sörbom

This program is published exclusively by


Scientific Software International, Inc.
http://www.ssicentral.com

Copyright by Scientific Software International, Inc., 1981-2012


Use of this program is subject to the terms specified in the
Universal Copyright Convention.

The following lines were read from file C:\LISREL9 Student Examples\SPLEX\EDU Modified.spj:

Modified Educational Achievement Example Model 2 Respecified


Observed variables: EdAsp OcAsp VerbAch QuantAch FamInc FaEd
MoEd VerbAb QuantAb
Covariance matrix:
1.024
.792 1.077
1.027 .919 1.844
.756 .697 1.244 1.286
.567 .537 .876 .632 .852
.445 .424 .677 .526 .518 .670
.434 .389 .635 .498 .475 .545 .716
.580 .564 .893 .716 .546 .422 .373 .851
.491 .499 .888 .646 .508 .389 .339 .629 .871
Sample size: 200
Latent variables: ASPIRE ACHIEVE HOME ABILITY
Relationships:
EdAsp = 1*ASPIRE
OcAsp = ASPIRE
VerbAch = 1*ACHIEVE
QuantAch = ACHIEVE
FamInc = 1*HOME
FaEd MoEd = HOME
VerbAb = 1*ABILITY
QuantAb = ABILITY
ASPIRE = HOME ABILITY
ACHIEVE = ASPIRE HOME ABILITY
Let the error covariances of FaEd and MoEd correlate
Path Diagram
End of problem

Sample Size = 200

Modified Educational Achievement Example Model 2 Respecified

Covariance Matrix

EdAsp OcAsp VerbAch QuantAch FamInc FaEd


-------- -------- -------- -------- -------- --------
EdAsp 1.024
OcAsp 0.792 1.077
VerbAch 1.027 0.919 1.844
QuantAch 0.756 0.697 1.244 1.286
FamInc 0.567 0.537 0.876 0.632 0.852
FaEd 0.445 0.424 0.677 0.526 0.518 0.670
MoEd 0.434 0.389 0.635 0.498 0.475 0.545
VerbAb 0.580 0.564 0.893 0.716 0.546 0.422
QuantAb 0.491 0.499 0.888 0.646 0.508 0.389

Covariance Matrix

MoEd VerbAb QuantAb


-------- -------- --------
MoEd 0.716
VerbAb 0.373 0.851
QuantAb 0.339 0.629 0.871

Total Variance = 9.191 Generalized Variance = 0.673074D-03

Largest Eigenvalue = 6.249 Smallest Eigenvalue = 0.138

Condition Number = 6.734

Modified Educational Achievement Example Model 2 Respecified

Number of Iterations = 9

LISREL Estimates (Maximum Likelihood)

Measurement Equations

EdAsp = 1.000*ASPIRE, Errorvar.= 0.161 , R² = 0.843


Standerr (0.0413)
Z-values 3.894
P-values 0.000

OcAsp = 0.918*ASPIRE, Errorvar.= 0.350 , R² = 0.675


Standerr (0.0638) (0.0475)
Z-values 14.377 7.376
P-values 0.000 0.000

VerbAch = 1.000*ACHIEVE, Errorvar.= 0.193 , R² = 0.896


Standerr (0.0505)
Z-values 3.817
P-values 0.000

QuantAch = 0.753*ACHIEVE, Errorvar.= 0.349 , R² = 0.729


Standerr (0.0414) (0.0438)
Z-values 18.180 7.965
P-values 0.000 0.000

FamInc = 1.000*HOME, Errorvar.= 0.190 , R² = 0.777


Standerr (0.0400)
Z-values 4.755
P-values 0.000

FaEd = 0.782*HOME, Errorvar.= 0.265 , R² = 0.604


Standerr (0.0640) (0.0345)
Z-values 12.215 7.680
P-values 0.000 0.000

MoEd = 0.720*HOME, Errorvar.= 0.373 , R² = 0.479


Standerr (0.0692) (0.0438)
Z-values 10.398 8.519
P-values 0.000 0.000

VerbAb = 1.000*ABILITY, Errorvar.= 0.188 , R² = 0.779


Standerr (0.0347)
Z-values 5.420
P-values 0.000
QuantAb = 0.949*ABILITY, Errorvar.= 0.274 , R² = 0.685
Standerr (0.0671) (0.0380)
Z-values 14.136 7.213
P-values 0.000 0.000

Error Covariance for MoEd and FaEd = 0.173


(0.0326)
5.290

Structural Equations

ASPIRE = 0.506*HOME + 0.447*ABILITY, Errorvar.= 0.319 , R² = 0.631


Standerr (0.153) (0.151) (0.0567)
Z-values 3.297 2.968 5.621
P-values 0.001 0.003 0.000

ACHIEVE = 0.526*ASPIRE + 0.302*HOME + 0.685*ABILITY, Errorvar.= 0.228 , R² = 0.862


Standerr (0.115) (0.161) (0.160) (0.0571)
Z-values 4.567 1.879 4.277 3.984
P-values 0.000 0.060 0.000 0.000

NOTE: R² for Structural Equations are Hayduk's (2006) Blocked-Error R²

Reduced Form Equations

ASPIRE = 0.506*HOME + 0.447*ABILITY, Errorvar.= 0.319, R² = 0.631


Standerr (0.153) (0.151)
Z-values 3.297 2.968
P-values 0.001 0.003

ACHIEVE = 0.568*HOME + 0.920*ABILITY, Errorvar.= 0.316, R² = 0.809


Standerr (0.174) (0.176)
Z-values 3.264 5.216
P-values 0.001 0.000

Covariance Matrix of Independent Variables

HOME ABILITY
-------- --------
HOME 0.662
(0.090)
7.355

ABILITY 0.537 0.663


(0.070) (0.088)
7.675 7.551

Covariance Matrix of Latent Variables

ASPIRE ACHIEVE HOME ABILITY


-------- -------- -------- --------
ASPIRE 0.863
ACHIEVE 1.016 1.651
HOME 0.575 0.870 0.662
ABILITY 0.568 0.915 0.537 0.663
Log-likelihood Values

Estimated Model Saturated Model


--------------- ---------------
Number of free parameters(t) 25 45
-2ln(L) 358.534 339.269
AIC (Akaike, 1974)* 408.534 429.269
BIC (Schwarz, 1978)* 490.992 577.693

*LISREL uses AIC= 2t - 2ln(L) and BIC = tln(N)- 2ln(L)

Goodness of Fit Statistics

Degrees of Freedom for (C1)-(C2) 20


Maximum Likelihood Ratio Chi-Square (C1) 19.265 (P = 0.5047)
Browne's (1984) ADF Chi-Square (C2_NT) 18.690 (P = 0.5420)
Estimated Non-centrality Parameter (NCP) 0.0
90 Percent Confidence Interval for NCP (0.0 ; 13.671)

Minimum Fit Function Value 0.0963


Population Discrepancy Function Value (F0) 0.0
90 Percent Confidence Interval for F0 (0.0 ; 0.0684)
Root Mean Square Error of Approximation (RMSEA) 0.0
90 Percent Confidence Interval for RMSEA (0.0 ; 0.0585)
P-Value for Test of Close Fit (RMSEA < 0.05) 0.898

Expected Cross-Validation Index (ECVI) 0.350


90 Percent Confidence Interval for ECVI (0.350 ; 0.418)
ECVI for Saturated Model 0.450
ECVI for Independence Model 13.718

Chi-Square for Independence Model (36 df) 2725.685

Normed Fit Index (NFI) 0.993


Non-Normed Fit Index (NNFI) 1.000
Parsimony Normed Fit Index (PNFI) 0.552
Comparative Fit Index (CFI) 1.000
Incremental Fit Index (IFI) 1.000
Relative Fit Index (RFI) 0.987

Critical N (CN) 389.050

Root Mean Square Residual (RMR) 0.0148


Standardized RMR 0.0155
Goodness of Fit Index (GFI) 0.980
Adjusted Goodness of Fit Index (AGFI) 0.954
Parsimony Goodness of Fit Index (PGFI) 0.435

The Modification Indices Suggest to Add an Error Covariance


Between and Decrease in Chi-Square New Estimate
VerbAb VerbAch 8.4 -0.09

Time used 0.094 seconds

_________________________________________________________________
Fuente: Elaboración propia
Finalmente, la tabla 10 presenta índices seleccionados que apoyan el ajuste de los datos con el modelo hipotético. ¡
el modelo ha sido validado!

Tabla 10. Índices seleccionados de ajuste del MES.


_____________
2
χ = 19.26
df = 20
p value .50
RMSEA =.00
GFI = .98
_______________
Nota: buscarlos en el archivo Modified Educational Achievement Structural
Equation Initial Model..PTH
Fuente: Elaboración propia

Ha terminado el análisis SEM mediante el uso de SIMPLIS que es la opción sencilla de LISREL. La versión LISREL
para estudiantes también tiene carpetas con más ejemplos que el lector puede realizar por cuenta propia y con la ayuda del
libro “A Beginner´s Guide to Structural Equation Modeling” publicado en el 2004 por Randall E. Schumacker y Richard G.
Lomax.
FIN DEL EJERCICIO 5.4

5.5. Problemas comunes al correr LISREL.


Son cuatro los problemas comunes a los que nos enfrentamos al realizar el MES: La carencia de una teoría o hipótesis
fundamentadas; la introducción errónea de texto (p.e. una minúscula por una mayúscula) que resulta en “model does not
converge”; la omisión de comandos o el uso de comandos incorrectos; y multicolinealidad que impide el cálculo de la matriz
inversa y que se reporta como “Matrix to be analayzed is not positive definitive”.

Por estas causas, es conveniente partir de una teoría bien fundamentada antes de inciar el análisis con LISREL, y
verificar que la introducción de datos, texto y comandos se correcta.

Ahora resta que el lector proceda pacientemente a aplicar el MES mediante LISREL a su base de datos. Tener el
cuenta que es usual que le modelo no ajuste en el primer intento, y que probablemente se requerirán modificaciones del
modelo de acuerdo a los índices de modificación sugeridos y a supuestos téoricos.

En el caso de no encontrar o haber descargado los archivos de ejercicios LISREL, es posible consultar y pedírselos a
los autores a la cuenta de correo eléctrónica hermanlittlewood@yahoo.com.mx
REFERENCIAS

Anderson, C. & Gerbing, D. W. (1988). Structural equation modeling in practice: A


review and recommended two-step approach. Psychological Bulletin 103 (3), 411-423.

Anónimo (s/f). SEM introduction. Recuperado el 15 de abril del 2009 de


http://www.cob.unt.edu/slides/Paswan/BUSI6280/SEM1_Intro.pdf

Bollen, Kenneth A. (1989). Structural equations with latent variables. NY: Wiley. A
leading, readable text on structural modeling.

Carmines, E. G. and McIver, J.P. (1981). Analyzing models with unobserved variables:
Analysis of covariance structures. Pp. 65-115 in George W. Bohmstedt and Edward F. Borgatta, eds., Social
Measurement. Thousand Oaks, CA: Sage Publications

Garson, D. (s/f). Structural Equation Modeling. Recuperado el 15 de abril del 2009 de


http://faculty.chass.ncsu.edu/garson/PA765/structur.htm .

Haavelmo, T. (1943).The statistical implications of a system of simultaneous equations.


Econometrica 11:1-2. Reprinted in D.F. Hendry and M.S. Morgan (Eds.), The
Foundations of Econometric Analysis, Cambridge University Press, 477-490.

Jaccard, J. and Choi K. W. (1996). LISREL approaches to interaction effects in multiple


regression. Thousand Oaks, CA: Sage Publications.

Jöreskog, K.G. (1970). A general method for the analysis of covariance structures.
Biometrika, 57, 239-251.

Jöreskog, K. G. & Sörbom, D. (1997). LISREL 8: A guide to the program and


applications. Chicago, IL: SPSS Inc

Kline, R. B. (1998). Principles and practice of structural equation modeling. NY:


Guilford Press.

Marcoulides, G.A. and Schumacker, R.E. (2001). New Developments and Techniques in
Structural Equation Modeling. London: Lawrence Eribaum Associates.
Mulaik, S. A. & Millsap, R. E. (2000). Doing the fouyr-step right. Structural Equation
Modeling 7, 36-73

Raykov, T. (1998). Coefficient alpha and composite reliability with interrelated


nonhomogeneous items Applied Psychological Measurement, 22(4), 375-385

Schumaker, R..E. (2007). Structural Equation Modeling on-line course notes.

Schumacker, R. E. and Lomax, R. G. (2004). A beginner's guide to structural


equation modeling, second edition. Mahwah, NJ: Lawrence Erlbaum Associates.

Schumacker, R. E. and Lomax, R. G. (2010). A beginner's guide to structural


equation modeling, third edition. New York, NY: Taylor and Francis Group (Routledge).

Simon, H. (1953). Causal ordering and identifiability, in Hood, W.C.; Koopmans, T.C.,
Studies in Econometric Method, New York: Wiley, pp. 49–74

Stevens, J, (1996), Applied multivariate statistics for the social science, New Jersey:
Lawrence Erlbaum Associates.

Thompson, B. (2000). Ten commandments of structural equation modeling. Pp. 261-


284 in L. Grimm & P. Yarnell, eds. Reading and understanding more multivariate statistics. Washington, DC:
American Psychological Association.

Wright, S. S. (1921). Correlation of causation. Journal of Agricultural Research, 20,


557–85.

Investigaciones personales en las que los autores han aplicado LISREL o AMOS.

Littlewood, H.F. y Alviter, L.E. (2013). Evitación del trabajo en cinco organizaciones
Mexicanas. Ciencias Administrativas: teoría y praxis. 9, 1, 155-174. ISSN: 1405-924X http://acacia.org.mx/revista/

Littlewood, H.F. y Alviter, L.E. (2012). Renuncia Psicológica en 17 organizaciones.


Revista Interamericana de Psicología Ocupacional. 31, 2, 128 - 147.
ISSN: 0120-3800.
Littlewood, H.F. (2011). Efecto Moderador de Sensibilidad a la Equidad en el Modelo de
Evitación del Trabajo. Revista Interamericana de Psicología Ocupacional. 30, 1, 62 - 87. ISSN 0120-3800

Littlewood, H.F. and Bernal, E.R. (2011). Mi primer modelamiento de ecuación


estructural. 1ª. Edición. http://www.cincel.com.co/mail_libro_gratis.php.

Uribe Prado, F.; Littlewood, H.F. y 13 autores (2008). Psicología de la Salud


Ocupacional en México. UNAM: México, D.F. ISBN: 978-607-2-00152-7

González Sánchez, I. Kertész, R., Romero González, R.E, García Alvarez, C.M y
Littlewood, H.F. (2008). Comportamiento Organizacional: Nuevos retos. Porrúa: México, D.F.
ISBN: 978-970-819-053-4

Littlewood, H.F. (2008). Evasión del trabajo, satisfacción en el trabajo y bienestar


emocional en médicos: potenciales consecuencias de la percepción de justicia organizacional. Gestión Pública y
Empresarial (U. de G.). 11, 81- 106.
http://www.cucea.udg.mx/paginas/gestionp/revista_no11/index.php.
http://www.cucea.udg.mx/publicaciones/index.php?id=3

Littlewood, H.F. (2007). De Cuerpo Presente: Un estudio de Evitación del Trabajo. Revista Interamericana de
Psicología Ocupacional. 26, 1, 22 - 33. ISSN 0120-3800

Littlewood, H.F. (2006). Antecedentes de la Rotación Voluntaria de Personal.


Investigación Administrativa IPN. 97, 35, 7 - 25. http://sepi.escasto.ipn.mx/RIA/PDFz/RIA97.pdf
http://www.sepi.escasto.ipn.mx/Revista/Documents/revistas/RIA97.pdf

Littlewood, H. F.(2005). Entrevista Realista de Selección, Satisfacción en el Trabajo e


Intención de Permanencia. UARICHA, 6, Pág. 32-38.
http://www.psicologia.umich.mx/downloads/UarichaWeb/Uaricha6/Entrevistarealistadeseleccionsatifaccioneneltrab
ajoeintenciondepermenencia.pdf

Littlewood, H. F.(2004). Análisis factorial Confirmatorio y Modelamiento de Ecuación


Estructural de Variables Afectivas y Cognitivas asociadas a la Rotación de Personal. Revista Interamericana de
Psicología Ocupacional, 23, 1, Pág. 27-37. ISSN: 0120-3800.
GLOSARIO

Letras griegas del modelo de medición (observar figura 1):


Recordar que LISREL no requiere de estos símbolos.

i (xi subíndice i): Son las variables latentes exógenas, “Past relationship y Education”, respectivamente.
xi (x subíndice i): Son los indicadores (variables observadas) de las variables exógenas latentes. Hay tres para “Past
relationship”. x1 es un reactivo de interacción, x2 un reactivo de amor y x3 un reactivo de calidad percibida.
x (lambda subíndice x): Son las cargas de los indicadores xi en las variables latentes exógenas. 11 es la carga de 1 a x1,
31 es la carga de 1 a x3. Son similares a cargas factoriales. Notar que las flechas apuntan a los indicadores (reactivos).
Una persona alta en la variable latente debe también tener altos puntajes en los indicadores.
i
que estos errores correlacionen entre sí. LISREL los coloca en una matriz llamada Los errores significan que las
mediciones observadas son imperfectas.
(phi): Es la matriz de varianza-covarianzas de las variable exógenas. 11 es la varianza de 1 y 22 es la varianza de 2.
21 es la covarianza entre 1
and 2. Se muestra con una línea curva de doble punta. Aunque la covarianza se muestra, la figura no muestra las varianzas.
1 (eta subíndice i): Son las variables latentes endógenas.
“stress at time 1 y stress at time 2”.
yi (y subíndice i): Son los indicadores de las variables latentes endógenas, 1 y 2. y1 es un indicador de depresión, y2 es
un indicador de estrés autoreportado, e y3 es un indicador de frustración. y4, y5, y6 son los mismos indicadores, pero medidos
en el tiempo 2.
y (lambda subíndice y): Son las cargas de los indicadores yi en las variables endógenas latentes. 11 es la carga de 1 a y1.
62 is la carga de 2 a y6. Esto es similar a cargas factoriales. La diferencia con el análisis factorial convencional
(exploratorio) es que los indicadores sólo cargan en un factor específico, por ejemplo, x1 tiene una carga de cero en 2. Esto
se muestra con la ausencia de 12, ya que 12 = 0.
i (epsilon): Son los errores de medición de los indicadores yi. Se consideran como varianza aleatoria o varianza única. Es
posible que estos errores correlaciones entre sí. Cuando la misma escala es usada en ambos puntos del tiempo, es de esperarse
que los e errores se correlacionen. LISREL coloca estos errores en la matriz .

Letras griegas del modelo estructural (observar figura 1):

(Xi): Variables latentes exógenas (1 “Past relationship” y 2 “Education”).


(Eta): Variables latentes endógenas (1 “stress at time one” y 2 “stress at time two”).
(Gamma): Trayectorias estructurales, coeficientes de regresión o peso beta estándarizado que va de una variable exógena
a una variable endógena. En la figura 1 hay trayectorias que van de 1 a 1, 1 a 2, y 2 a 1. Son llamadas 11, 21, e
12. Nota: el primer subíndice es consecuencia y el segundo es predictor, de tal manera que ’21’ significa de Xii 1 a Eta 2.
(Beta): Trayectorias estructurales, coeficientes de regresión o pesos betas estándarizados que va de una variable endógena
a otra variable endógena. Hay una trayectoria que va de 1 a 2, y se le llama 21.
(Zeta): Estos son las varianzas no explicadas de una variable latente (1-R cuadrada). Hay dos, 1 y 2. Notar que estos
residuales pueden correlacionarse y se denominan como 21.

Términos.

Análisis de Covarianza (ANCOVA). Es una técnica estadística que analiza la relación entre una variable dependiente y dos
o más independientes, eliminando y controlando el efecto de al menos una de estas independientes.
Análisis Factorial Confirmatorio (AFC o CFA en inglés). Una variante del análisis factorial que prueba propuestas teóricas
acerca de la estructura de un conjunto de mediciones.
Alfa de Cronbach o Cronbach´s alpha. Medida común de confiabilidad de un conjunto de indicadores (reactivos). Los
valores varían entre 0 y 1.0, donde valores altos indican confiabilidad aceptable.
Correlación. Coeficiente que indica la fuerza y dirección de la relación entre dos variables. Varía entre -1.00 y 1.00.
Confiabilidad. Se refiere al grado en que su aplicación repetida al mismo tiempo sujeto y objeto produce iguales resultados.
La confiabilidad de un instrumento de medición se determina mediante diversas técnicas estadística.
Covarianza. Parámetro que indica el grado en que dos variables varían simultáneamente o en conjunto. Una matriz de
varianza- covarianza es una matriz simétrica con varianzas en la diagonal y covarianzas fuera de la diagonal. La covarianza
asymptótica es una matriz de grandes muestras.
Error. Es una inconsistencia en las respuestas de una persona a una escala, es un rompimiento con el patrón ideal de
intensidad de la escala. Cuando el número de errores es excesivo, la escala no presenta reproductividad y no puede aceptarse.
La reproductividad se determina mediante un coeficiente.
Estadística. Ciencia que se ocupa del estudio de fenómenos de tipo genérico, normalmente complejos y enmarcados en un
universo variable, mediante el empleo de modelos de reducción de la información y de análisis de validación de los resultados
en términos de representatividad. La estadística aplicada a las ciencias sociales estudia el comportamiento de una población
mediante un estudio cuyo propósito es hacer inferencias a partir de un subconjunto de datos, llamado muestra, tomados de
ella.
Estadística Descriptiva. Se refiere a los métodos de recolección, descripción, visualización y resumen de los datos que
pueden ser presentados en forma numérica ò gráfica. Es una rama de la estadística aplicada.
Estadística Inferencial. Se refiere a la generación de los modelos y predicciones relacionadas a los fenómenos estudiados,
teniendo en cuenta el aspecto aleatorio y la incertidumbre en las observaciones. Extrapola los resultados obtenidos en el
análisis de los datos y a partir de ello predecir acerca de la población, con un margen de confianza conocido. Se apoya
fuertemente en el cálculo de probabilidades.
Estadística Paramétrica. Es la que requiere que los elementos que integran las muestras contengan elementos parámetros
o medibles.
Estadística No Paramétrica. Estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los
llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la
determinan. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una
distribución normal o cuando el nivel de medida empleado no sea, como mínimo, de intervalo
Estimación máxima de verosimilitud o maximum likelihood estimation. Técnica estadística usada para estimar
simultáneamente todos los parámetros del modelo.
LISREL. Procedimiento y paquete de análisis de Linear Structural RELations de conjuntos de variables latentes y
observables, y de su estructura de covarianzas. Realiza análisis factorial confirmatorio y análisis de trayectorias.
Modelamiento de ecuación estructural (MES o SEM en inglés). Técnica estadística multivariada que combina el análisis
factorial confirmatorio y el análisis estructural de trayectorias.
Modelo anidado (nested). Modelo que usa los mismos constructos que otro modelo, pero difiere en el número o tipos de
relaciones causales. Cuando una trayectoria es modificada, se dice que el modelo esta anidado en el modelo original.
Modelo de medición. Submodelo de modelamiento de ecuación estructural que especifica indicadores por constructo y
evalúa la confiabilidad y validez de los constructos involucrados.
Modelo estructural. Conjunto de relaciones entre variables o constructos; establece una secuencia o trayectoria
presumiblemente causal entre variables independientes y variables dependientes.
Multicolinealidad. Grado en el que una variable independiente varía con otras variables independientes. Altos niveles de
multicolinealidad afectan los supuestos estadísticos de independencia de las variables.
PRELIS. Es un acrónimo de PRE-processor de LISREL y es útil para preparar bases de datos y obtener las matrices de
correlaciones y covarianzas necesarias pare el MES.
Regresión Múltiple. Es un método para analizar el efecto de dos o más variables independientes sobre una dependiente. Es
una extensión de la regresión lineal sólo que con un mayor número de variables independientes. Sirve para predecir el valor
de una variable dependiente conociendo el valor y la influencia de las variables independientes incluidas en el análisis.
SIMPLIS. Es un acrónimo de SIMPLe english para LISREL que contiene una sintaxis o commandos simples necesarios
para llevar a cabo aplicaciones LISREL en Windows.
Validez. Es el grado en que un instrumento refleja un dominio realmente mide la variable que pretende medir. Ejemplo: un
instrumento para medir inteligencia válido debe medir inteligencia y no la memoria.
Validez de constructo. Tipo de validez que determina que tanto un instrumento de medición efectivamente mide un
constructo teórico.
Variable observada o indicador. Valor observado que se usa para medir indirectamente un constructo teórico o variable
latente. Es una variable operacionalizada; un ejemplo es un reactivo o conjunto de reactivos de un cuestionario.
Variable. Es una propiedad que puede variar y cuya variación es susceptible de medirse. La variable se aplica a un grupo de
personas u objetos, los cuales pueden adquirir diversos valores respecto a la variable.
Variable dependiente. Es el efecto resultante de la manipulación de la variable independiente. La variable dependiente no
se manipula, sino que se mide para ver el efecto de la variable independiente sobre ella.
Variable endógena. Constructo que es una consecuencia dependiente de una variable exógena. En el diagrama de
trayectorias, las flechas apuntan a variables endógenas que se representan con un óvalo.
Variable exógena. Constructo que predice o antecede a una o más variables endógenas. En el diagrama de trayectorias, la
flecha parte de ella y sale de un ovalo.
Variable independiente. Es la que se considera como supuesta causa en una relación entre variables; es una condición
antecedente.
Variable latente. Constructo que no es directamente observable o medible, pero que puede ser medido indirectamente
mediante variables observables.

Término estadístico en español Término estadístico en inglés


Moda Mode
Mediana Median
Media Mean
Desviación estándar Standard deviation
Varianza Variance
Máximo Maximum
Mínimo Minimum
Rango Range

También podría gustarte