Está en la página 1de 97

1

MI PRIMER MODELAMIENTO DE ECUACION ESTRUCTURAL LISREL

Herman Frank Littlewood Zimmerman


hermanlittlewood@yahoo.com.mx

Elizabeth Regina Bernal García


psicologa_ebernal@yahoo.com

México, D.F. Abril 2011

2
Índice general

PRÓLOGO..........................................................................................................5

INTRODUCCIÓN…………………………………………………………… 6

CAPÍTULO I. INTRODUCCIÓN AL MODELAMIENTO DE


ECUACIONES ESTRUCTURALES (MES)……………………………….. 8

CAPÍTULO II. LAS CINCO ETAPAS DEL MES………………………… 12


Etapa 1. Especificación del modelo……………………………………………. 12
Etapa 2. Modelo de medición………………………………………………….. 14
Etapa 3. Estimación del modelo (MES)………………………………………... 18
Etapa 4. Prueba del modelo MES……………………………………………… 23
Etapa 5. Modificación del modelo……………………………………………... 23

CAPÍTULO III. MEDICIONES DE AJUSTE DEL MODELO…………... 24


3.1 Primer categoría de índices de ajuste. Pruebas de bondad de ajuste de
covarianzas pronosticadas y observadas………………………………………. 24
3.2 Segunda categoría de índices de ajuste. Pruebas de bondad de ajuste de
estimación de máxima verosimilitud…………………………………………... 26
3.3 Tercer categoría de índices de ajuste. Pruebas de bondad de ajuste de no
centralidad……………………………………………………………………... 27
3.4 Cuarta categoría de índices de ajuste. Pruebas de bondad de ajuste que
comparan un modelo teórico contra el modelo nulo o alternativo…………….. 28
3.5. Quinta categoría de índices de ajuste. Pruebas de bondad de ajuste que
penalizan la falta de parsimonia……………………………………………….. 29

CAPÍTULO IV. SUPUESTOS DEL MES………………………………….. 31

CAPÍTULO V. CUATRO EJERCICIOS DE LISREL (PRELIS Y


SIMPLIS)……………………………………………………………….……... 35
5.1. Ejercicio de introducción de datos………………………………………… 37
5.2. Ejercicio de edición de datos (Imputación)……………………………….. 43
5.3. Ejercicio de modelo de medición o análisis factorial confirmatorio…….... 53
5.4. Ejercicio de Ecuación Estructural…………………………………………. 72
5.5. Problemas comunes al correr LISREL……………………………………. 91

Referencias……………………………………………………………………. 92
Glosario…………………………………………………...…………………… 94

Índice de tablas y figuras

Figura 1. Ejemplo de un diagrama MES……………………………………….. 9


Figura 2. Especificación del modelo…………………………………………… 12
Figura 3. Modificación del modelo…………………………………………….. 13
Figura 4. Modelo exógeno de medición………………………………………. 14
Figura 5. Disco local (C:) y carpeta “Archivos del programa”…………………36
Figura 6. Carpeta LISWIN32S.EXE…………………………………………… 36
Figura 7. Todos los programas: LISREL 88S………………………………….. 37

3
Figura 8. Menú de PRELIS…………………………………………………….. 38
Figura 9. Opción New del menú PRELIS………………………………..…… 38
Figura 10. Opción Import Data del menú PRELIS…………………………….. 39
Figura 11. Opción Open del archivo SPSS del menú PRELIS………………… 40
Figura 12. Opción Open archivo data100.sav y guardar como PSF……...……. 40
Figura 13. Nuevo menú PRELIS (DATA.PSF): Opción Statistics…….…….....41
Figura 14. Nuevo menú PRELIS (DATA.PSF): Opción Output Options……... 42
Figura 15. Archivo chollev.dat ….…………………………………………….. 45
Figura 16. CHOLLEV.PSF (PRELIS)………………………………………... 46
Figura 17. Number of variables…………….………………………………….. 46
Figura 18. Las tres variables y sus valores…………………………………….. 47
Figura 19. VAR3 de Chollev.PSF (PRELIS)………………………………..… 48
Figura 20. Impute Missing Values de VAR3 de Chollev.PSF (PRELIS)……... 49
Figuras 21 y 22. Output Options de VAR3 de Chollev.PSF (PRELIS)……….. 50
Figura 23. VAR3 sin datos faltantes de Chollev.PSF (PRELIS)……..………...52
Figura 24. Bases de datos antes y después de la imputación………………….. 53
Figura 25. Modelo confirmatorio de seis variables observadas y dos
variables latentes……………………………………………….…... 54
Figura 26. Abrir LISREL………………………………………………………. 55
Figura 27. Buscar carpeta LISREL…………………………………………….. 55
Figura 28. Seleccionar y abrir carpeta SPLEX (SIMPLIS )…………..……..… 56
Figura 29. Seleccionar y abrir archivo EX5A.SPL…………………………….. 56
Figura 30. Comandos para correr un AFC……………………...……………… 57
Figura 31. Gráfica de resultados del AFC……………………………………...58
Figura 32. Gráfica de trayectorias (ahora archivo EX5A.PTH)……………….. 59
Figura 33. EX5B.SPL. AFC modificado………………………………………. 64
Figura 34. Archivo EX5B.PTH modificado (gráfica de trayectorias)…………. 66
Figura 35. AFC modificado de EX5A.SPL …………………………………… 71
Figura 36. Archivo EX5A.PTH AFC modificado (gráfica de trayectoria)..........72
Figura 37. Modelo hipotético del ejemplo de modelamiento estructural……… 73
Figura 38. Abrir LISREL………………………………………………………. 74
Figura 39. Oprimir New………………………………………………………... 74
Figura 40. Oprimir SIMPLIS Project y Aceptar……………………………….. 75
Figura 41. Nombrar y Guardar……………………………………………….…75
Figura 42. Escribir datos en pantalla……………………………………………76
Figura 43. Gráfica de trayectorias (archivo .PTH)…………………………….. 77
Figura 44. Modelo hipotético modificado del ejemplo de modelamiento……... 84
Figura 45. Ecuación estructural modificada en SIMPLIS……………………... 85
Figura 46. Gráfica modificada de trayectorias del MES………………………..86

Tabla 1. Índices seleccionados de ajuste del AFC……………………………... 58


Tabla 2. Resultados del análisis factorial confirmatorio (EX5A.OUT)………..60
Tabla 3. Ïndices seleccionados de ajuste del AFC modificado………………… 65
Tabla 4. Resultados del AFC modificado (EXA5B.OUT)……………………. 66
Tabla 5. Índices seleccionados de ajuste del AFC……………………………... 71
Tabla 6. Resultados de la ecuación estructural (archivo con extensión OUT)… 77
Tabla 7. Índices seleccionados de ajuste de la ecuación estructural…………… 83
Tabla 8. Índices de modificación sugeridos para la ecuación estructural……… 83
Tabla 9. Resultados del MES modificado………………………………………86
Tabla 10.Ïndices seleccionados de ajuste del MES……………………………. 90

4
PRÓLOGO

Es para Cincel un honor poder publicar este escrito del Dr. Littlewood y la Maestra
Bernal. Muy gentil y generosamente estos investigadores nos entregaron el manuscrito
para ser publicado electrónicamente por este Centro de Investigación, sin costo alguno
para los lectores interesados.

Hemos leído con atención el manuscrito y nos ha impresionado muy positivamente que
un método estadístico avanzado y complejo pueda tener una presentación tan clara y
sencilla. El texto acompaña al lector paso a paso en la comprensión de los conceptos y
en el manejo del programa LISREL. En realidad, su lectura atenta y la realización
juiciosa de los ejercicios habilitan al lector para llevar a cabo el proceso y la
interpretación de su primer modelamiento de Ecuaciones Estructurales, tal como lo
anuncia el título del libro.

Los principios y conceptos claves son presentados con sencillez lo mismo que el
procedimiento. Los ejercicios son claros y muy ilustrativos y hay referencias claves para
consulta y búsqueda de ayudas en Internet.

Este trabajo paciente y metódico constituye una contribución importante de los autores
para ayudar eficazmente a quienes están dando sus primeros pasos en el uso de esta
metodología analítica, pero también para refrescar y clarificar elementos claves para el
investigador y usuario experimentado. Adicionalmente cuenta con el valor agregado de
que sus autores son psicólogos investigadores que ubican al lector en el contexto de la
psicología y del manejo de datos de investigación.

Esperamos que los lectores interesados obtengan el mejor provecho de la lectura y


estudio del libro y nos comuniquen sus impresiones y comentarios, tanto a los autores
como al editor.

El Editor

5
INTRODUCCIÓN

El libro explica en los capítulos 1, 2 y 3 qué es el modelamiento de ecuación


estructural (MES) o Structural Equation Modeling (SEM), que es un método
cuantitativo que en la actualidad es utilizado por investigadores y consultores de
ciencias sociales y administración. El MES es una técnica estadística que permite al
investigador poner a prueba modelos teóricos que establecen relaciones,
presumiblemente causales, entre variables latentes que se miden mediante variables
observadas o indicadores. Es común que los modelos consten de variables
independientes, variables mediadoras que son a la vez dependientes e independientes,
y variables dependientes. El MES requiere de dos grandes pasos: a) el análisis
factorial confirmatorio (AFC) que valida el modelo de medición de las variables
latentes (constructos) y b) la comprobación de las trayectorias (parámetros) entre
variables latentes.

En el capítulo 5 se explica y muestra gráficamente al lector como utilizar los


programas PRELIS y SIMPLIS de LISREL que se pueden descargar gratuitamente
de internet, necesarios para: importar y adaptar bases de datos; realizar análisis
factoriales confirmatorios y llevar a cabo el modelamiento de la ecuación
estructural.

El libro presenta en el capítulo 5 cuatro ejercicios prácticos y los lectores


familiarizados con estadística descriptiva e inferencial básica podrán realizar su
primer modelamiento de ecuación estructural, e interpretar los resultados. Los
ejemplos usan bases de datos a las que se puede acceder una vez que se descargó el
paquete LISREL.

Debido a la constante actualización de los paquetes estadísticos, probablemente el


lector encontrará diferencias entre lo aquí presentado y el paquete descargado. Por tal
motivo, los autores actualizarán el libro y darán explicaciones detalladas en
seminarios especializados.

El primer autor del libro está certificado en el MES; es maestro de Psicología


Industrial-Organizacional de The University of Akron, E.U.A., Doctor en Ciencias
de la Administración de la Escuela Superior de Comercio y Administración del
Instituto Politécnico Nacional (mención honorífica), candidato a doctor de la
Facultad de Contaduría y Administración de la UNAM y candidato a doctor en
Psicología en la Universidad de las Américas. Ha publicado investigaciones
arbitradas relacionadas con el MES en el país y en el extranjero; es árbitro de la
Revista Interamericana de Psicología Ocupacional (Colombia), la Academia de
Ciencias Administrativas (ACACIA) y el congreso de investigación de la Facultad de
Contaduría, Administración e Informática de la UNAM. Recibió el premio nacional
de psicología del trabajo en el 2003 y el reconocimiento del mejor trabajo de
investigación ACACIA 2007 en Procesos de Cambio y Desarrollo Organizacional.
Sus líneas de investigación se relacionan con renuncia psicológica, rotación de
personal, desgaste ocupacional, clima organizacional, medición de actitudes y diseño
de instrumentos de medición.

6
La segunda autora se graduó como psicóloga organizacional de la Universidad de las
Américas y es estudiante de la maestría en Psicología del Trabajo, las
Organizaciones y los Recursos Humanos de la Universidad de Valencia (España), ha
publicado y presentado artículos y ponencias arbitradas en congresos nacionales e
internacionales. Cuenta con 10 años de experiencia laboral en recursos humanos,
administración del cambio y consultoría en empresas tales como: Deloitte, ICTS
Global, Planfía Autofinanciamiento Chrysler e Intertécnica. En el 2002 recibió el
premio nacional de psicología del trabajo en la categoría jóvenes talentos. Sus líneas
de investigación también se relacionan con renuncia psicológica, rotación de
personal, clima organizacional, medición de actitudes y diseño de instrumentos de
medición.

En la página 1 del libro se presenta una figura de un modelamiento LISREL de una


investigación sobre evitación del trabajo o renuncia psicológica que puede
consultarse en González Sánchez, I. Kertész, R., Romero González, R.E, García
Alvarez, C.M y Littlewood, H.F. (2008). Comportamiento Organizacional: Nuevos
retos. Porrua: México, D.F. ISBN: 978-970-819-053-4.

7
CAPÍTULO I. INTRODUCCIÓN AL MODELAMIENTO DE
ECUACIONES ESTRUCTURALES (MES)

El modelamiento de ecuación estructural (MES) es una técnica estadística para


probar y estimar relaciones presumiblemente causales que usan una combinación de
datos estadísticos y suposiciones causales. El MES originalmente fue articulado por el
genetista Sewall Wright (1921), los economistas Trygve Haavelmo (1943) y Herbert
Simon (1953), y formalmente definido por Marcoulides y Schumaker (2001) y
Schumacker y Lomax (2004)

El MES como lo conocemos en la actualidad es una derivación de las


investigaciones realizadas por Karl Jöreskog (1970). Jöreskog desarrolló un análisis de
estructuras a partir de matrices de covarianzas mediante un modelo que denominó
LISREL. Esta representación propuesta tiene dos componentes: el de medición y el
estructural. El componente de medición refleja la relación entre las variables latentes
(constructos o factores) e indicadores manifiestos (variables observadas), y se le
denomina análisis factorial confirmatorio. Por otro lado, el componente estructural
refleja la relación entre variables latentes.

El MES es un método estadístico que parte de la regresión múltiple, pero es más


poderoso en cuanto al tratamiento que le da a interacciones, relaciones no lineales,
correlaciones entre variables independientes, error de medición, correlación entre los
términos de error, múltiples variables independientes medidas por varios indicadores, y
la consideración de variables independientes latentes medidas por varios indicadores. Es
así como el MES es una alternativa robusta en comparación con la regresión múltiple,
análisis de trayectorias, series de tiempo y análisis de covarianzas en la validación de
modelos hipotéticos.

El investigador inicia su estudio mediante la especificación de un modelo teórico


que describe como se miden las variables latentes y cómo se relacionan entre si dichas
variables latentes. Las variables latentes son variables no observadas directamente, tales
como la satisfacción en el trabajo, justicia organizacional o compromiso organizacional;
estas variables son también denominadas “factores” y son estimadas o medidas con
indicadores o variables observadas, como lo son los reactivos de un cuestionario.

El primer paso consiste en llevar a cabo un análisis del modelo de medición


(análisis factorial confirmatorio), que consiste en verificar la validez de la medición de
variables latentes mediante sus respectivos indicadores. El segundo gran paso, consiste
en especificar el modelo estructural, a fin de establecer cómo se relacionan entre sí las
variables latentes, de manera similar a como la regresión múltiple relaciona entre sí a las
variables independientes (VI) con la variable dependiente (VD). Es común especificar el
modelo mediante una gráfica como la mostrada en la figura 1.

8
Fuente: Anónimo (s/f). http://www.cob.unt.edu/slides/Paswan/BUSI6280/SEM1_Intro.pdf

Figura 1. Ejemplo de un diagrama MES

Las ventajas del MES son el uso el análisis factorial confirmatorio (AFC) para
reducir el error de medición mediante la consideración de varios indicadores por variable
latente, el análisis de modelos completos que contemplan la interacción de variables, la
capacidad para estudiar simultáneamente más de una variable dependiente, la capacidad
para analizar variables mediadoras y manejar datos complejos como los que resultan de
distribuciones no normales o bases incompletas.

Otras ventajas del MES son: no es necesario asumir medición perfecta de los
indicadores, ya que es posible estimar los términos de error o el componente de varianza
única de cada indicador; los errores pueden estar correlacionados entre sí, lo cual es
importante para estudios longitudinales, por ejemplo la satisfacción en el trabajo en un
momento puede correlacionarse con la satisfacción en un momento posterior; y las
varianzas residuales o la varianzas no explicadas (1- R cuadrada) pueden correlacionar,
lo cual también es importante en investigaciones de corte longitudinal o transversal.

El MES es usualmente utilizado como un procedimiento confirmatorio no


exploratorio, mediante tres enfoques:

a. Enfoque confirmatorio puro: Se analiza un modelo con pruebas de bondad de


ajuste a fin de determinar si la matriz de covarianzas es consistente con una
trayectoria. Sin embargo, como otros modelos no examinados pueden ajustarse
a los datos, el modelo aceptado es tan sólo un modelo no rechazado.
b. Enfoque de modelos alternos: Es posible probar dos o más modelos causales a
fin de identificar aquel que mejor ajusta. Existen diferentes mediciones de
bondad de ajuste y generalmente se reportan tres o cuatro, como la Ji cuadrada,

9
RMSEA, GFI o NFI (explicados en el capítulo 3 “Mediciones de ajuste del
modelo”).
c. Enfoque de desarrollo del modelo: Es usual que se combinen la perspectiva
exploratoria y la confirmatoria. En el caso de tener un modelo deficiente, un
modelo alterno es probado mediante cambios de índices sugeridos de
modificación. Su debilidad radica en la confirmación post-hoc del modelo,
pero esto puede resolverse mediante la replicación del estudio con una nueva
muestra de sujetos.

Por sí sólo el MES no puede resolver ambigüedades o inconsistencias en los


resultados, es por ello que el juicio y la capacidad teórica del investigador juegan un
papel crucial en la propuesta de modelos.

. El MES propone una postura de tipo confirmatoria en contraposición de lo


propuesto por el análisis factorial exploratorio; de esta manera, dicha postura busca
poner a prueba o confirmar teorías. Por lo general, el MES comienza con una hipótesis,
la cual es representada como un modelo que operacionaliza uno o más constructos
teóricos mediante instrumentos de medida y termina con la prueba del modelo. Las
suposiciones causales integradas en el modelo a menudo tienen implicaciones que
pueden ser probadas contra los datos. Con una teoría aceptada o el modelo confirmado,
el MES también puede ser usado inductivamente mediante la especificación del modelo
y el uso de datos que estiman los valores de los parámetros. A menudo la hipótesis
inicial requiere de ajustes, pero el MES rara vez es utilizado con una perspectiva
exploratoria.

Entre las ventajas del MES está la capacidad para modelar constructos como
variables latentes (variables que no son medidas directamente), que son estimadas en el
modelo a partir de variables medidas (indicadores) que reflejan dichas variables latentes.
Esto permite al investigador estimar la confiabilidad de medida del modelo, lo que en
teoría permite la estimación de las relaciones estructurales entre las variables latentes. El
análisis factorial, el análisis de trayectorias y la regresión son casos especiales del MES.

El MES es parte de una familia de técnicas estadísticas que integra el análisis de


trayectorias y el análisis factorial mediante paquetes estadísticos como el LISREL o el
AMOS. Por ejemplo, el MES en donde cada variable sólo tiene un indicador es un caso
de análisis de trayectorias (path analysis); el análisis factorial confirmatorio (AFC)
permite analizar varios constructos a la vez y sus respectivos indicadores, pero sin
flechas que conectan entre si a las variables; y el modelo híbrido es aquel que permite
analizar el conjunto de indicadores por constructo (variable latente) y las trayectorias
(flechas) que conectan a los constructos entre si.

Los sinónimos de MES son análisis de covarianza estructural o modelamiento de


covarianza estructural. Aunque estos sinónimos señalan que el foco es el análisis de
covarianza, el MES también puede analizar la matriz de correlaciones y la estructura de
medias de un modelo.

10
Objetivos del libro.

a. Describir en que consiste el MES.


b. Que el lector pueda realizar un modelamiento de ecuación estructural mediante el
método SIMPLIS de LISREL, mediante la descarga gratuita de la versión
estudiantil de LISREL (http://www.ssicentral.com/lisrel/downloads.html)
NO descargue el “Free 15-day trial edition”, Sí Descargue el “Free student
edition”.

La descarga puede llevar varios minutos.

Hay varios paquetes estadísticos que realizan el MES, y el libro solamente


considera el paquete LISREL. No obstante, el lector puede aplicar otro paquete como el
EQS, el AMOS o el Mplus.

LISREL (Linear Structural Relations) de SSI Scientific Software, es tal vez el


paquete más reportado en revistas científicas. Es posible descargar gratis la
versión de estudiante (LISREL88StudentSetup.exe) también de este vínculo:

http://www.ssicentral.com/lisrel/downloads.html
Free student edition

Please note that the student edition of LISREL for Windows limits the size of
the model you may analyze, and that technical support is not available.

Student edition of LISREL for Windows

EQS de Peter Bentler y está disponible en: http://www.mvsoft.com/

AMOS distribuido por SPSS. Este programa puede aplicarse mediante


programación convencional o con gráficas amigables:
http://www.spss.com/amos/

Mplus de Brent Meuthen se encuentra en: http://www.statmodel.com/.

11
CAPÍTULO II. LAS CINCO ETAPAS DEL MES.

El MES tiene cinco etapas, pero son dos las principales: validación del modelo de
medición (etapa 2) y el ajuste del modelo estructural (etapa 4), y esto se logra mediante
el análisis factorial confirmatorio (CFA) y mediante el análisis de trayectorias entre
variables latentes, respectivamente.

En la descripción de las cinco etapas no se presentan análisis cuantitativos, sólo


se explica en que consisten. En el capítulo 3 se presentan y explican los índices o
estadísticos usados por el MES, y en el capítulo 5 se realizan ejercicios cuantitativos que
demuestran cómo llevar los diferentes pasos del MES y cómo interpretar los resultados.

Etapa 1. Especificación del modelo.

Parte de la revisión de la literatura y la formulación de un modelo teórico. Esto


consiste en identificar variables latentes (constructos) y especificar las relaciones entre
las variables. Por ejemplo, un problema de investigación se plantea como: ¿hay relación
entre el Desempeño y la Satisfacción en el trabajo?. En la figura 2 las variables latentes
se identifican con óvalos y se considera la posibilidad de que ambas variables pueden ser
causa, según el sentido de ambas fechas. Pudiera sólo haber una flecha, si la teoría así lo
indica (por ejemplo, de Satisfacción a Desempeño, si se considera a la Satisfacción como
la causa).

Satisfacción
en el Desempeño
trabajo

Fuente: Elaboración propia

Figura 2. Especificación del modelo (especificación inicial)

Si el investigador piensa que hay otras variables que anteceden a estas dos, tales
como “Motivación de logro”, “Especificidad de la tarea” e “Inteligencia verbal”,
entonces modifica el diagrama así (figura 3). Estas tres son denominadas variables
exógenas y satisfacción en el trabajo y desempeño son llamadas variables endógenas.

12
Fuente: Elaboración propia

Figura 3: Modificación del modelo (especificación final)

Las flechas rectas indican una relación causal y las flechas curvas indican que las
variables correlacionan entre sí (la causa es la que está al principio de la flecha y el
efecto está junto a la punta de la flecha).

La inclusión de una variable trivial da a lugar a “missespecification” o


especificación incorrecta del modelo que resulta en la pérdida de precisión de estimación
y la reproducción inadecuada de covarianzas observadas (no habrá ajuste de datos), y la
exclusión de una variable relevante da a lugar a estimación incompleta o sesgada del
parámetro

Entonces, las variables latentes son variables no observadas, constructos o


factores que son medidos indirectamente a través de sus respectivos indicadores o
reactivos. En la figura 3 son “Motivación de logro”; “Especificidad de la tarea”;
“Inteligencia verbal”; “Satisfacción en el trabajo” y “Desempeño” y en la figura 1 “Past
Relation”, “Education”, “Time 1 Stress”, y “Time 2 Stress” son las variables latentes.

La variables latentes pueden ser independientes (exógenas) que están a la


izquierda de la figura, mediadoras o dependientes (endógenas) que aparecen a la
derecha de la figura. Las variables exógenas son independientes y no tienen alguna
variable que las anteceda. Las variables exógenas son etiquetadas con la letra griega “ “
y las variables endógenas son identificadas con la letra griega eta “”. Cabe mencionar
que estos y otros símbolos que más adelante se presentan, no son necesarios para correr
el paquete LISREL

Las variables mediadoras pueden estar entre una variable exógena y una
dependiente, o entre otras dos variables endógenas. Estas reciben las fechas que
provienen de las variables exógenas u otra variable endógena, las cuales denotan una
relación causal.

Generalmente se asume que las variables latentes correlacionan entre sí y esto se


representa con una flecha curva de covarianza de doble punta, cómo entre “Motivación

13
de logro”, “Especificidad de la tarea” e “Inteligencia verbal” (figura 4) y cómo entre
“Past Relation” y “Education” y entre “Time 1 Stress” y “Time 2 Stress” (figura 1), de
acuerdo a un fundamento teórico.

Hasta aquí llega la primer etapa; se ha establecido la relación entre variables


(latentes y observadas) que se visualiza mediante un diagrama de óvalos, rectángulos y
flechas (rectas y curvas).

Etapa 2. Modelo de medición.

En este segundo paso, las variables latentes (no directamente observables)


requieren que el modelo de medición se especifique y se valide. El resultado es la
redacción o selección de variables observadas (por ejemplo, reactivos) para cada una de
las variables latentes. En el ejemplo del modelo de Desempeño se mide Motivación de
logro, Especificidad de la tarea e Inteligencia verbal, con dos indicadores cada uno
(figura 4). En la figura 1 “Past Relation” tiene tres indicadores; “Education” sólo uno,
ya que años de educación sólo requiere de un reactivo para su medición; y “Time 1
Stress” y “Time 2 Stress” tienen 3 indicadores cada uno.

El modelo de medición de Desempeño contempla variables exógenas latentes


(variables independientes) y variables endógenas latentes (variables dependientes), lo
que significa que hay dos modelos de medición, uno para las variables exógenas y otro
para las endógenas (ver figura 4). Ambos modelos de medición pueden agruparse y
analizarse en conjunto, pero a fin de simplificar el ejemplo, sólo se muestra el modelo
exógeno.

Fuente: Elaboración propia

Figura 4. Modelo exógeno de medición.

14
Nótese que el modelo de medición de las variables endógenas se construye de la
misma manera y que puede analizarse junto con el otro modelo.

En este ejemplo (figura 4), los seis reactivos son las variables observadas o
también llamadas variables manifiestas, que en el caso de un cuestionario son los
reactivos o items. También pueden denominárseles como indicadores. Aunque dos
indicadores pueden ser suficientes, tres reactivos como mínimo son recomendados para
estimar la confiabilidad y la validez del modelo; la especificación de la medición fija la
varianza del error y la validez del instrumento. Es una convención que los reactivos
deben tener carga factoriales altas, por ejemplo .70 o más en su variable latente; los
símbolos  son la carga de los indicadores en la variable correspondiente (figura 1).

Regresando a la figura 1, los indicadores son simbolizados con una “X” (X1 al
X4) en el caso de las variables latentes exógenas o una “Y” (Y1 al Y6) en el caso de las
variables endógenas; cada indicador está conectado a su respectiva variable latente
mediante una flecha recta corta.

Los indicadores aparecen dentro de rectángulos y las variables latentes (Past


Relation, Education, Time 1 Stress y Time 2 Stress) dentro de óvalos. Las cuatro
flechas rectas gruesas y largas sugieren que “Past Relation” y “Education” son la causa
de “Time 1 Stress”; y “Past Relation” y “Time 1 Stress” son causa de “Time 2 Stress”.
La flecha curva con dos puntas indica que “Past Relation” correlaciona con “Education”
y “Time1 Stress” correlaciona con “Time 2 Stress”.

Como de explicó en la etapa 1, el proceso inicia con la formulación de una teoría


o un modelo hipotético. Cada variable o constructo es conceptualizado como una
variable de tipo latente medida por varios indicadores. Es común que varios indicadores
sean seleccionados, mediante un análisis factorial exploratorio previo (common factor
análisis o principal axis factoring, por ejemplo), de una muestra de indicadores
(reactivos); este análisis identifica las variables latentes y sus indicadores
correspondientes. Posteriormente se seleccionan tres, cuatro o cinco indicadores por
variable latente y se confirman con un Análisis Factorial Confirmatorio (AFC) en una
muestra diferente de personas.

El AFC es el primer análisis y es necesario para determinar la validez de los


indicadores en una segunda muestra. Frecuentemente el AFC es referido como el
“modelo nulo”. En este modelo, las covarianzas que aparecen en una matriz se asumen
iguales a cero. En el AFC se pueden estimar uno o varios índices de ajuste (por ejemplo
NFI, RFI, IFI, TLI o NNFI, CFI, PNFI y PCFI, que son explicados en el capítulo 3). El
AFC parte de un modelo nulo o una línea base contra el cual se comparan los modelos
default (modelos téoricos). Es posible tener cuatro opciones de modelos nulos, pero el
primer modelo es el que generalmente se usa; la elección de modelo nulo afecta el
cálculo de los coeficientes de ajuste.

Modelo nulo 1: Las correlaciones entre las variables observadas se limitan a cero
y se establece que las variables latentes también correlacionan cero entre sí. Las medias
y varianzas de las variables medidas no se limitan. Este es el modelo default línea base
de “independencia” y es el modelo default de la mayoría de los casos.

15
Modelo nulo 2: Las correlaciones entre las variables observadas son todas
iguales y las medias y varianzas de las variables observadas no se limitan.

Modelo nulo 3: Las correlaciones de las variables observadas se limitan a cero.


Las medias también son limitadas a cero, pero las varianzas no se limitan. Esta opción 3
sólo aplica a modelos cuyas medias e interceptos son parámetros explícitos del modelo.

Modelo nulo 4: Las correlaciones entre las variables observadas son todas
iguales. Las medias se limitan a cero. Las varianzas de las variables observadas no se
limitan. Esta opción 4 sólo aplica a modelos cuyas medias e interceptos son parámetros
explícitos del modelo.

Una vez elegido el modelo, procede el análisis factorial confirmatorio (AFC).

Este análisis se efectúa para confirmar que los indicadores se agrupan en sus
respectivos factores de acuerdo con la teoría del investigador. El AFC es clave en el
MES, puesto que evalúa el error de medición del modelo y valida los factores
involucrados.

Este análisis puede hacerse mediante dos métodos:

Modelamiento de dos pasos. Kline (1998) recomienda que primero siempre se


evalúe el modelo de medición y luego se proceda con el segundo paso que es la puesta
en prueba del MES (etapa 4).

Modelamiento de cuatro pasos. Mulaik y Millsap (2000) sugieren cuatro pasos


más estrictos.
1. Análisis factorial común (exploratorio) para establecer la cantidad de
variables latentes e indicadores.
2. AFC a fin de confirmar el modelo de medición. También pueden limitarse
las cargas factoriales a cero de las variables medidas en otras variables
latentes, para que cada variable medida cargue sólo en su variable latente.
3. Prueba del MES (etapa 4).
4. Probar modelos nested o anidados a fin de identificar el mejor modelo
(más parsimónico o simple).

Confiabilidad. Una vez realizado el análisis factorial confirmatorio y validados


los constructos en una segunda muestra, es necesario determinar el nivel de error de la
medición de dichos constructos.

El coeficiente alpha de Cronbach es comúnmente usado para determinar que


indicadores pertenecen a la misma variable latente y el nivel de error de medición. Este
coeficiente varía entre cero y 1, y generalmente se espera que los indicadores tengan una
confiabilidad de .70 o mayor. Puede haber conjuntos de indicadores con una
confiabilidad inferior a .70 y con índices aceptables de AFC superiores a .90. Esto puede
ocurrir debido a una baja homogeneidad de varianza de los reactivos o a la baja cantidad
de reactivos por variable latente.

El coeficiente de rho de Raykov´s también pone a prueba la confiabilidad de un


conjunto de reactivos. Raykov (1998) ha demostrado que el coeficiente alpha de

16
Cronbach puede subestimar o sobreestimar la confiabilidad de una escala. La
subestimación es común y este coeficiente es diferente al rho de Spearman.

Posteriormente, el investigador procede con el análisis, una vez que el modelo de


medición ha sido validado. Uno o dos modelos son comparados, uno puede ser el
modelo nulo, en cuanto al ajuste con los datos empíricos que estima el grado en el que
las covarianzas predichas por un modelo corresponden a la varianzas observadas (datos).
Los índices de modificación u otros coeficientes pueden ser usados para cambiar y
mejorar el modelo.

Condición previa para llevar a cabo la etapa 2 (Modelo de medición): La


identificación.

La factibilidad del Análisis Factorial Confirmatrio (AFC) y la estimación del


modelo estructural (MES) depende de información disponible y la complejidad del
modelo. La factibilidad es denominada como identificación. Tanto en el AFC como en
el MES los parámetros estimados (flechas rectas que conectan de manera causal a las
variables latentes, flechas curvas que correlacionan a variables latentes, flechas rectas
cortas que conectan a los indicadores con su variable latente y flechas rectas cortas que
determinan el error de medición de cada indicador) determinan la matriz de covarianzas.

Eso es, se especifican un conjunto de ecuaciones donde los parámetros son las
incógnitas, y si las incógnitas pueden resolverse de una sola o varias maneras, entonces
se dice que el modelo es identificado; de otro modo, si no se pueden resolver las
ecuaciones, se dice que el modelo está subidentificado y no puede proseguir el AFC ni el
MES.

Hay tres niveles de identificación:

a. Subidentificación: Uno o más de los parámetros no pueden resolverse


con la matriz de covarianzas, puesto que hay más incógnitas de
parámetros que ecuaciones.
b. Apenas identificado: Cuando hay información apenas suficiente en la
matriz de covarianzas (mismo número de incógnitas y de ecuaciones).
c. Sobreidentificación: Hay dos o más maneras para estimar las
incógnitas de parámetros (más ecuaciones que incógnitas).

Una condición necesaria para identificación es que p(p+1)/2 sea igual o mayor
a los parámetros (flechas rectas y curvas) a estimar, dónde p es el número de variables
observadas (indicadores).

En el ejemplo de variables exógenas de Desempeño (figura 4) tenemos


sobreindentificación necesaria para correr un AFC: (6*(6+1))/2 = 21: Se tienen 15
parámetros libres (flechas) a estimar y como 21 es mayor, se tienen 6 grados de libertad
(21-15 = 6).

En el ejemplo completo de la figura 1 tenemos también sobreidentificación


necesaria para correr un MES: (9*(9-1))/2 = 36. Se tienen 26 parámetros libres a estimar
y cómo 36 es mayor, se tienen 10 grados de libertad.

17
Una solución contra la subidentificación, es la eliminación de uno o más
parámetros del modelo.

Nótese que el AFC y el MES son similares, la diferencia estriba que en el MES
si hay relaciones causales (flechas rectas) entre variables latentes.

El lector debe advertir que el paquete LISREL se encarga de evaluar la


identificabilidad y que no realizará el AFC ni el MES si no hay suficientes grados de
libertad.

Etapa 3. Estimación del modelo (MES).

Una vez que se ha validado el modelo de medición y estimado la confiabilidad,


procede este gran paso. En esta etapa se valida la relación propuesta entre las variable
latentes, como se propone en la figura 3 del ejemplo de “Desempeño” o en la figura 1 de
“Stress”.

La validación se logra al comparar la correspondencia de los datos empíricos


(que se obtienen a través de los indicadores) con el modelo teórico. En otras palabras, se
compara la matriz de covarianzas observadas (o la matriz de correlaciones observadas)
y la matriz de covarianzas teóricas (o la matriz de correlaciones teóricas); LISREL se
encarga de obtener las matrices de covarianzas y de hacer dicha comparación.

El modelo estructural (MES). Este modelo contiene las variables endógenas y


exógenas, los efectos directos (flechas rectas) que conectan variables, correlaciones entre
las variables exógenas e indicadores y los términos de error de cada variable de acuerdo
a una propuesta teórica (como lo proponen los modelos de las figuras 3 y 1).

Las flechas que conectan las variables exógenas con las endógenas tienen la letra
gamma  y las flechas que conectan las variables endógenas entre si usan la letra beta 
(coeficiente de regresión o peso beta estandarizado). El modelo usualmente es el llamado
modelo default y es fundamentado en teoría.

3.1 El modelo default. Este es el modelo de investigación, más parsimónico


(simple) que el saturado y casi siempre ajusta mejor que el independiente. Eso es, el
modelo default tiene una bondad de ajuste que se encuentra entre la explicación perfecta
del modelo saturado y del modelo de independencia.

3.2 El modelo saturado. Este en un modelo trivial que contiene tantas


estimaciones de parámetros como grados de libertad. Ocurre cuando el modelo contiene
todas las flechas posibles. La mayoría de las mediciones de ajuste tienen un valor de 1.0
(muy bueno), pero debido a que este modelo no es parsimónico (simple), las mediciones
de ajuste basadas en parsimonia tienen valores de cero (muy malo), y algunos índices
como el RMSEA no pueden calcularse. Estos índices son explicados en el capítulo 3.

3.3 El modelo de independencia. Este modelo asume que todas las relaciones
entre variables son inexistentes, por lo que asume que las correlaciones entre variables
son cero. También puede considerársele como el modelo nulo como se vió en el AFC.
Mientras que el modelo saturado tiene una proporción cero de parsimonia, este modelo

18
tiene una proporción de parsimonia 1. La mayoría de los índices tienen un valor de cero,
excepto RMSEA y GFI (explicados en el capítulo 3).

3.4 Modelos MIMIC: Estos modelos tienen indicadores múltiples y múltiples


modelos de independencia. Esto significa que las variables latentes tienen los
acostumbrados indicadores múltiples que son causados por variables observadas
adicionales. Gráficamente, el modelo contiene las flechas acostumbradas que parten de
las variables latentes a cada uno de los indicadores y los indicadores tienen los términos
de error. Adicionalmente, hay rectángulos que representan a las variables observadas con
flechas que van a las variables latentes y flechas de covarianza que los conecta ya que
son variables exógenas. El ajuste del modelo se interpreta de la misma manera, pero las
variables causales observadas deben asumirse que se miden sin error. Este libro no trata
este tipo de modelos y se recomienda se consulte el libro de Schumacker y Lomax
(2004).

3.5 Comentarios adicionales sobre los pasos seguidos en la especificación del


modelo, y términos comunes asociados al MES.

Se recuerda que el primer gran paso es la especificación de las variables latentes


y sus respectivas variables observadas (ver figuras 3 y 1). El paso siguiente fue el AFC
que se efectúo para validar la correspondencia de los indicadores con sus respectivas
variables latentes. El investigador al establecer la relación secuencial entre las variables
latentes mediante flechas, está determinando que efectos son nulos, cuáles son fijados
como una constante (usualmente 1) y cuáles pueden variar. Los efectos variables
corresponden a las flechas del modelo, mientras que los efectos nulos no tienen flecha.
Esto comúnmente se representa en un diagrama como el de la figura 6 y el de la figura 1,
los cuales pueden considerarse como modelos suficientemente parsimónicos porque
tienen pocas flechas que conectan a las variables latentes.

Modelo parsimónico. En la especificación del modelo es necesario determinar si


este es suficientemente parsimónico o simple y para ello hay índices de ajuste que se
explican en el capítulo 3. Un modelo en el que ningún efecto es limitado a cero, es uno
que se ajustará a los datos, aún cuando el modelo no tenga lógica. La adición de flechas
generalmente aumenta el ajuste, pero afectará la parsimonía. Nótese que la falta de
parsimonía puede ocurrir en modelos que tienen pocas variables. Hay tres maneras para
reducir la complejidad del modelo: una consiste en borrar flechas rectas que van de una
variable latente a otra; otra, borrar efectos directos que van de variables latentes a
indicadores; o la última, borrar flechas curvas (flechas con doble punta) que representan
correlaciones entre términos de error o correlaciones entre variables latentes. La letra
phi se utiliza para representar esta curva de doble punta.

Concluyendo, la recomendación para lograr una parsimonía aceptable es iniciar


con un modelo simple y gradualmente añadir nuevas variable latentes y flechas, de
acuerdo a una teoría previamente desarrollada.

Métricos. Antes de correr el MES a cada variable latente debe asignársele una
escala métrica y esto puede hacerse mediante la limitación de una de las trayectorias a
uno de sus indicadores a un valor de 1. Una vez limitada esta trayectoria, las demás
trayectorias se estiman. El indicador limitado a 1 es llamado “reactivo referente”.

19
Generalmente este indicador es el que tiene la mayor carga factorial con la
variable latente. Esto se hace en el capítulo de ejercicios.

Términos de error de medición. Error de medición es el factor de error


asociado con un indicador dado. Tal error es denominado por la letra delta i en el caso
de indicadores de constructos latentes exógenos, o denominado epsilon i en el caso de
indicadores de constructos latentes endógenos (ver figura 1). Los modelos de regresión
asumen que el error es cero, pero en el MES los términos de error son explícitamente
modelados. En el caso de variables latentes que sólo tienen un indicador, cómo en el
caso de sexo (o Educación de la figura 1), el término de error es limitado a cero.

En el caso de modelos de regresión y trayectorias, sólo es posible modelar


variables observadas, y solamente la variable dependiente de la regresión o las variables
endógenas del modelo de trayectorias, tienen estimaciones de error. Las variables
independientes en la regresión y las variables exógenas en el modelo de trayectorias se
asumen medidas sin error. El modelo de trayectorias es similar al MES, ya que también
usa óvalos y flechas. Es por estas razones que el MES se considera superior a la
regresión y a al modelo de trayectorias.

Términos de error estructural. Nótese que los términos de error antes


mencionados no deben confundirse con los términos de error estructural que son también
llamados términos de error residual o términos de disturbio. Este error refleja la varianza
no explicada de las variables latentes endógenas debido a las causas no medidas. Se usa
la letra griega zeta para su identificación (1-R cuadrada).

Coeficientes estructurales o de trayectorias. Son los efectos de tamaño (size


effect) y se presentan como valores junto a las flechas del modelo que conectan a
variables latentes entre sí. También se le denominan pesos de regresión (coeficientes
beta) y cabe mencionar que no hay intercepto.

Los coeficientes del modelo (pattern coeficientes), en el caso de los índicadores,


se les conoce como cargas factoriales o coeficientes de validez; las variables latentes del
MES son similares a los factores identificados en un análisis factorial y los indicadores
también tienen una carga en su variable latente. Estos coeficientes se asocian con las
flechas que parten de las variables latentes y llegan a los indicadores. Es un acuerdo que
los indicadores deben tener una carga mínima de .70 (Schumacker y Lomax, 2004: 212),
y cabe mencionar que la carga factorial puede usarse para evaluar la confiabilidad de las
variables latentes.

La confiabilidad aceptable de un indicador, en relación a su constructo (variable


latente), se establece como una carga factorial mínima es .70. Considérese sli como las
cargas estandarizadas de los indicadores de una variable en particular y ei como los
términos de error respectivos, donde el error es 1 menos la confiabilidad del indicador,
que es el cuadrado de la carga estandarizada del indicador.

Por ello, la confiabilidad es igual a [(SUMA(sli2)]/[(SUMA(sli2) + SUMA(ei))].

Ahora bien, la validez del modelo también se deriva de las cargas factoriales de
los indicadores. Esta puede verse desde el enfoque de validez convergente y validez
discriminante:

20
Validez convergente. Es demostrada con correlaciones aceptables entre
indicadores de una misma variable latente. Indicadores de ajuste de un modelo apoyan la
validez convergente con coeficientes del modelo iguales o superiores a .70.

Validez discriminante. Es demostrada cuando los indicadores de una variable


latente correlacionan mejor con dicha variable latente que con otra(s) variable(s)
latente(s). Este tipo de validez también puede determinarse cuando los índices de
modificación (MI) no señalan la necesidad de cargar algún(os) indicador(es) con una
variable latente que no le corresponde. Por otro lado, Anderson y Gerbing (1988)
recomiendan probar cada par de variables latentes por separado, primero sin limitar
(constreñir) y luego con la correlación limitada a 1.0, esperando que la correlación
limitada tenga un ajuste significativamente menor.

Coeficientes estructurales estandarizados. Generalmente los investigadores


usan coeficientes estandarizados al calcular la matriz correlacional (o de covarianzas). La
interpretación es similar a la hecha con la regresión: si el coeficiente estructural es 2.0,
entonces la variable latente dependiente aumenta en 2.0 unidades estándar por cada
aumento unitario de la variable latente independiente.

En LISREL, el resultado Eta es la matriz correlacional de las variables latentes


dependientes e independientes. Eta es un coeficiente correlación no lineal y se le conoce
como la solución completamente estandarizada o Matriz correlacional para Eta.

La razón crítica y la significancia de los coeficientes de trayectorias. Cuando


la razón crítica de un peso de regresión es mayor a 1.96, entonces es significativa a nivel
de .05. En el caso de LISREL la razón crítica es el puntaje z.

3.5 Otros términos relacionados con el MES.

En el punto anterior destacan el error de medición asociados con los indicadores


y las variables latentes, al que se le denomina cómo confiabilidad. También destacan
los coeficientes de los indicadores y de las trayectorias, puesto que son la evidencia de su
validez.

Ahora se presentan otros términos que contribuyen a determinar la varianza


explicada de las variables endógenas y el modelo integral propuesto por el investigador.

Estructura factorial. Término general usado para referir los coeficientes del
modelo (todas las cargas factoriales del modelo) y que es utilizado para determinar la
varianza explicada por el modelo. Es un acuerdo que la varianza extraída del modelo
como mínimo debe ser .50 . Su formula es una modificación de la confiabilidad del
constructo, y es: [(SUMA(sli2)]/[(SUMA(sli2) + SUMA(ei))].

Comunalidad. Es el cuadrado de la carga factorial y ella estima la comunalidad


de cada variable. Ella mide el porcentaje de varianza de un indicador (reactivo)
explicada por la variable latente (factor) y puede interpretarse como la confiabilidad de
dicho indicador.

R cuadrada o la correlación múltiple cuadrada (SMC). Hay una R cuadrada o


correlación múltiple cuadrada (SMC) para cada una de las variables latentes del modelo.

21
La SMC es el porcentaje de varianza explicada de la variable y se reporta como un índice
de ajuste de cada ecuación del modelo estructural.
SMC para la(s) variable(s) Y: Esta es reportada por LISREL e informa el porcentaje de
varianza de los indicadores dependientes que se atribuyen a la(s) variable(s) latente (s)
dependiente(s).
SMC para la variable(s) X: Esta es reportada por LISREL e informa el porcentaje de
varianza de los indicadores independientes que se atribuyen a la(s) variable(s) latente(s)
independiente(s).
SMC para las ecuaciones estructurales: Esta es reportada por LISREL e informa el
porcentaje de varianza de la(s) variable(s) dependiente(s) latente(s) que se atribuyen a
la(s) variable(s) independiente(s) latente(s).

Quantiles o Q-Plots o Stem and Leaf Plots. Son tablas que LISREL reporta y
ellas ordenan los residuales estándarizados por tamaño y calculan los puntos
porcentuales en una distribución muestral. Además, los residuales son graficados contra
las desviaciones normales que corresponden a dichos puntos porcentuales, llamados
quantiles. Los Stem and Leaf Plots son calculados por LISREL y se muestran en el
capítulo 5 de ejemplos del LISREL.

3.6 Cálculo de coeficientes de estimación de MES. Con LISREL, los


coeficientes del MES pueden calcularse de diversas maneras. La primera (MLE) es la
más usada:

1. Estimación de máxima verosimilitud o maximum likelihood estimation


(MLE). MLE es el más popular y busca maximizar la probabilidad de que las
covarianzas observadas sean tomadas de una población. Esto es, la MLE
selecciona estimaciones que tienen la mayor posibilidad de reproducir los datos
observados. Los supuestos de la MLE son: los errores de estimación sí
correlacionan; muestras grandes; y los indicadores se distribuyen normalmente y
son medidos a nivel intervalar. En el capítulo de ejemplo, se usa este método.
2. Estimación Bayesiana. Usa información previa acerca de los parámetros del
modelo para calcular distribuciones. Este tipo de estimación se prefiere cuando se
tiene una muestra pequeña, cuando la MLE arroja varianzas negativas o se tienen
datos ordinales.
3. Mínimos cuadrados ponderados o weighted least squares (WLS). Se usa
cuando se viola normalidad.
4. Mínimos cuadrados generalizados o generalizad least squares (GLS).
Funciona bien con muestras mayores a 2,500 personas o casos y distribuciones
no normales.
5. Mínimos cuadrados ordinarios o ordinary least squares (OLS). Usado para
obtener estimaciones iniciales de parámetros requeridos por otros métodos.
6. Mínimos cuadrados no ponderados o unweighted least squares (ULS). No
requiere asumir normalidad y no ofrece pruebas de significancia, y es el único
modelo que depende de la escala (estimaciones diferentes para diferentes
variables).

A manera de resumen, en esta etapa se ha propuesto un modelo que conecta


indicadores con sus respectivas variables latentes, y que conecta variables exógenas y
endógenas a fin de explicar un fenómeno. También se enfatizó la importancia del
cálculo de coeficientes que se utilizan para estimar la confiabilidad de los indicadores y

22
las variables latentes y la validez predictiva de las variables independientes, tal cómo
ocurre en el caso de la regresión múltiple.

Ahora es el turno de evaluar la validez integral del modelo; eso es, la


compatibilidad de los datos observados con el modelo teórico propuesto.

Etapa 4. Prueba del modelo MES.

Ahora se evalúa que tan bien los datos se ajustan al modelo teórico, mediante
las siguientes pruebas:

a. Pruebas globales de bondad de ajuste o índices de ajuste: La más


popular es la Ji cuadrada. Kline (1998) recomienda la elección de
cuatro índices.

En el capítulo 3 se presenta una larga lista de indicadores entre los


cuáles el investigador puede elegir lo más apropiados.

b. Pruebas individuales de parámetros: Se usa la prueba t de student.

Etapa 5. Modificación del modelo.

Si no hay ajuste del modelo, que es lo más usual, entonces el modelo debe
modificarse y evaluarse de nueva cuenta. Por ejemplo, el paquete LISREL tiene la
opción de “modification indices” o “índices de modificación” que sugieren qué
restricciones están en desacuerdo con los datos observados; esto también se explica en el
capítulo 5 de ejercicios.

Los índices de modificación (IM) se relacionan con la prueba multiplicadora de


Lagrange (LM). Los IM generalmente se usan para modificar los modelos a fin de
obtener un mejor ajuste, y esto debe hacerse de acuerdo con la teoría. Las flechas sólo
deben agregarse cuando existe una justificación teórica; la mejora es medida en términos
de reducción de la Ji cuadrada.

Modificación de modelos. La construcción es una estrategia que inicia con un


modelo nulo o un modelo simple al que se le añaden trayectorias de manera gradual (una
por una). Conforme se añaden trayectorias, la Ji cuadrada 2 (una prueba que se explica
en el capítulo 3) disminuye y mejora el ajuste del modelo. La agregación de trayectorias
debe hacerse de acuerdo a la teoría

Otra estrategia de construcción consiste primero en sobreajustar el modelo y


posteriormente en recortar o quitar trayectorias, una a la vez, de acuerdo a la Ji cuadrada
y otros índices de modificación (presentados en el capítulo 3), hasta obtener índices de
ajuste satisfactorios.

23
CAPÍTULO 3. MEDICIONES DE AJUSTE DEL MODELO.

En este capítulo se presentan varias pruebas o índices de ajuste que el


investigador consulta para determinar la validez del modelo estructural, de acuerdo a la
etapa 4 del capítulo anterior. LISREL calcula varios de ellos, tal como se apreciará en
el capítulo 5 de ejercicios.

Pruebas o índices de bondad de ajuste. Sirven para determinar si el modelo


debe aprobarse o rechazarse; estos indicadores no determinan qué trayectorias son
significativas. Si el modelo es aceptado, por separado el investigador debe interpretar los
coeficientes de las trayectorias.

Jaccard y Wan (1996) recomiendan que como mínimo se consulten tres pruebas
de las cinco categorías abajo presentadas. Por otro lado, Kline (1998) propone que
cuando mínimo se consulten cuatro: Ji cuadrada; GFI; NFI o CFI; NNFI o SRMR.

Debe tenerse en cuenta que la bondad de ajuste no es lo mismo que fuerza de la


relación, ya que es posible obtener un ajuste perfecto con variables no correlacionadas.
Así mismo, entre más bajas son las correlaciones entre variables, es más fácil obtener
bondad de ajuste. Pero, cuando las correlaciones son bajas, los coeficientes de
trayectorias también serán bajos: por lo tanto, es necesario reportar pruebas de ajuste y
coeficientes estructurales.

Una buena bondad de ajuste no significa que todas las partes del modelo ajusten
bien. Es posible que modelos alternativos puedan ajustar mejor. Eso es, los índices de
ajuste descartan modelos, pero no indican cual es el mejor. También es importante
señalar que un buen ajuste no significa que las variables exógenas sean las causas de las
variables endógenas. También es posible obtener un mal ajuste debido a un pobre
modelo de medición (AFC) y no por un erróneo modelo estructural.

Los índices deben verse como medidas sobre qué tanto ha avanzado una
especialidad o una teoría: se considera que valores de .90 de CFI son aceptables, pero un
CFI de .85 puede mostrar qué área de conocimiento ha mejorado si un modelo anterior
reportó .70.

Debe advertirse que tanto los paquetes LISREL, AMOS, EQS o MpPlus no
calculan todas la pruebas abajo enlistadas, y conforme se desarrollan dichos paquetes y
se publican nuevas versiones, cambian las pruebas realizables. El lector no debe olvidar
que Kline (1998) propone que cuatro pruebas son suficientes para el MES.

3.1 Primera categoría de índices de ajuste.


Pruebas de bondad de ajuste de covarianzas pronosticadas y observadas
(índices absolutos de ajuste).

Estas pruebas comparan la matriz de covarianzas observadas y la esperada por la


teoría. LISREL realiza el análisis con este tipo de matrices, y también puede hacerlo con
matrices correlacionales (puede dar el mismo resultado).

24
1. Ji cuadrada 2. También se le conoce como discrepancia, Ji cuadrada de
razón de verosimilitud, o Ji cuadrada de bondad de ajuste, o CMIN (en
AMOS). Esta prueba no debe ser significativa si es que hay un buen ajuste. Si
la probabilidad de la Ji cuadrada es de .05 o menor, entonces se dice que la
covarianza del modelo treórico es diferente a la covarianza de los datos
observados. Pero, debido a que la Ji cuadrada es conservadora (propensa al
error de tipo II), es conveniente descartar una Ji cuadrada significativa si otras
pruebas apoyan el modelo.

Hay maneras en que la Ji cuadrada puede equivocarse: a) en el caso de


grandes muestras, es mayor la probabilidad de rechazar el modelo y el error de
tipo II (rechazar algo verdadero). Aún pequeñas diferencias entre ambas
covarianzas se califican como significativas y b) la Ji cuadrada es muy sensible
ante desviaciones de la normalidad. Una solución es la consulta de la prueba
Satorra-Bentler scaled Chi Square (prueba 3).

2. Ji cuadrada relativa. También conocida como la Ji cuadrada normal y se


obtiene al dividir la Ji cuadrada entre los grados de libertad
(Ji cuadrada/DF), a fin de reducir su dependencia del tamaño de muestra.

Carmines y McIver (1980) proponen que el resultado de un modelo aceptable


debe estar en el rango de 2:1 o 3:1. Un valor menor a 1.0 es inaceptable.

3. Ji cuadrada escalada de Satorra-Bentler. Es un ajuste a la Ji cuadrada que


es castigada por la kurtosis de los datos. Este estadístico busca corregir el
sesgo introducido por la anormalidad de la distribución.

4. Índice de bondad de ajuste (GFI). Se le conoce como el gamma-hat o


Jöreskog-Sörbom GFI. El valor de GFI varía entre cero y 1, pero pueden
obtenerse valores negativos. Una muestra grande favorece el GFI. Aunque
hay analogía con R cuadrada, el GFI no puede interpretarse como el
porcentaje de error explicado por el modelo. Es el porcentaje de la
covarianza observada explicada por la covarianza teórica. Es un acuerdo que
valores superiores a .90 apoyan el modelo.

5. Índice de bondad de ajuste ajustada (AGFI). Es una variante del GFI, ya


que lo ajusta por sus grados de libertad: la cantidad (1-GFI) es multiplicada
por la razón de los grados de libertad del modelo dividido por los grados de
libertad de la línea base del modelo, entonces AGFI es 1 menos el resultado.
AGFI también debe ser mayor a .90

6. Residuales de la media de raíz cuadrada (RMS, RMSR o RMR). En


inglés se le conoce como root mean square residuals y es la media absoluta de
los residuales de la covarianza. Entre más cercano sea el valor a cero, mejor
es el ajuste. Valores menores a .10 se consideran aceptables. Debido a que
RMS es difícil de interpretar, es mejor usar el SRMR (ver prueba 7). El RMR
no estandarizado es un coeficiente que resulta de tomar la raíz cuadrada de la
media de los residuales elevados al cuadrado, que es la cantidad por la cual la
varianza y covarianza de la muestra difieren de la varianza y covarianza
estimada.

25
7. Residual estandarizado de la raíz cuadrada media (SRMR). En inglés se
le denomina standardized root mean square residual y es la diferencia
promedio entre las varianzas y covarianzas pronosticadas y observadas,
basada en el error estándar del residual. Entre menor sea el SRMR, mejor el
ajuste del modelo. Un valor inferior a .05 es considerado aceptable.

8. Hoelter N crítico. Útil para determinar si el tamaño de muestra es adecuado.


Un tamaño de muestra es adecuado si la prueba Hoelter N es mayor a 200 y
se calcula así:
(((2.58+(2df - 1)*2)*.5)/((2chisq)/(n-1)))+1

Chisq es Ji cuadrada.

3.2 Segunda categoría de índices de ajuste.


Pruebas de bondad de ajuste de estimación de máxima verosimilitud.

También son índices absolutos de ajuste, pero de un tipo diferente. Estos índices
son apropiados para comparar modelos que han sido estimados por máxima
verosimilitud (MLE) y estos no tienen puntos críticos como .90, ya que se usan para
comparar modelos donde un valor menor representa un mejor ajuste.

9. Akaike criterio de información (AIC). Este estadístico ajusta la Ji cuadrada


a fin de penalizar la complejidad del modelo por falta de parsimonia y
sobreparametrización. AIC se usa para comparar modelos y para interpretar
un sólo modelo, y puede comparar modelos con diferentes números de
variables latentes que pueden estar o no anidadas. Entre más bajo es el valor
de AIC mejor es el ajuste del modelo (cero es el valor de mejor ajuste). La
modificación de un modelo es suspendido cuando el AIC aumenta.
AIC se calcula sí:
(chisq/n) + (2k/(n-1)) donde k = (.5v(v+1))-df, y “v” es el número de
variables y “df” son grados de libertad.

Cuando AIC en igual o menor a 2 no hay evidencia en contra del


modelo, cuando está entre 2 y 4 hay evidencia débil en contra del
modelo y cuando es mayor a 4 hay evidencia en contra del modelo.
AICC es una versión para modelos con muestras pequeñas.

10. BICp. Es un estadístico que cambia la escala de Akaike a fin de que los
factores sumen 1.0. Los valores representan las probabilidades y la suma de
todos los modelos da 100% y esto indica que uno de los modelos es el
correcto. Un modelo que tenga .60 señala que dicho modelo tiene 60% de ser
el correcto. En otras palabras, el modelo corregido es aquel con mayores
posibilidades de ser el correcto.

11. BICL. También es un estadístico que cambia la escala de Akaike a fin de que
los factores sumen 1.0. Valores de .05 o mayores consideran que el modelo
es el más probable.

26
12. CAIC. También es consistente con AIC y penaliza las pequeñas muestras y
la complejidad del modelo. Entre menor es el valor de CAIC mejor es el
ajuste.

13. BCC o criterio Browne-Cudeck. Este estadístico debe lograr valores de .90
o superiores y se calcula así:
(chisq/n) + ((2k)/(n-v-2)), donde “n”es el número de sujetos, “v” es el
número de variables, y k = (.5v(v+1))-df, donde df es grados de
libertad.

14. ECVI o índice esperado de validación cruzada. Es útil para comparar


modelos no anidados como ocurre con el análisis multimuestras usado para
validar o replicar hallazgos. Al igual que AIC refleja la discrepancia entre las
matrices de covarianza del modelo teórico y los datos. Ente menor es el valor
de ECVI mejor es el ajuste. Al comparar modelos anidados, ECVI penaliza
el número de parámetros libres.

15. MECVI. Es el ECVI modificado y también es una variante de BCC y


penaliza la complejidad del modelo. Entre menor es el valor MECVI, mejor
es el ajuste.

16. CVI o índice de validación cruzada. Es similar a ECVI y MECVI, y un


valor de cero indica que ambas covarianzas son similares, la de la muestra de
calibración y la de la muestra de validación o replica. Es posible calcular una
doble validación cruzada al intercambiar los papeles de ambas muestras.

17. BIC o criterio bayesiano de información. También se le conoce como


ABIC o criterio bayesiano de información Akaike. Al igual que CAIC, este
estadístico penaliza el tamaño de muestra y la complejidad del modelo.
Comparado con AIC, BCC or CAIC, BIC favorece modelos parsimónicos
con pocos parámetros, y se recomienda para muestras grandes con pocos
parámetros. BIC es la aproximación del logaritmo del factor Bayes del
modelo teórico comparado con el modelo saturado. Si BIC es igual o menor a
2 no hay evidencia en contra del modelo, si está entre 2 y 4, hay débil
evidencia en contra del modelo, y si es mayor a 4, entonces hay evidencia en
contra del modelo.

3.3 Tercer categoría de índices de ajuste.


Pruebas de bondad de ajuste de no centralidad.

Estos índices prueban la propuesta de que la Ji cuadrada es mayor a cero, en vez


de usar la usual hipótesis nula de que la Ji cuadrada es igual a cero. Por lo tanto, usa la
distribución no central de Ji cuadrada y los grados de libertad asociados con el modelo
saturado en vez de los asociados con el modelo de independencia. Estos
estadísticos están influidos por el tamaño de muestra; entre mayor es el tamaño de
muestra mejor es el ajuste.

27
18. Parámetro de no centralidad (NCP). También se le conoce como el
parámetro de no centralidad de McDonald o DK, y es una Ji cuadrada que
penaliza la complejidad del modelo. Se calcula así:
((chisqn-dfn)-(chisq-df))/(chisqn-dfn), donde chisqn y chisq son las Ji
cuadradas del modelo nulo y del modelo teórico, dfn y df son sus
correspondientes grados de libertad. A fin de forzar la escala a 1, la
conversión usada es exp(-DK/2). NPC es usada con una tabla de
distribución de Ji cuadrada de no centralidad para evaluar el poder y
calcular los estadísticos RMSEA, CFI, RNI y CI. Notar que LO 90 y HI
90 son los límites inferior y superior del intervalo de confianza del
90%.

19. CI o índice de centralidad. Parte de la Ji cuadrada, de los grados de libertad


del modelo y el tamaño de la muestra. Se espera que un modelo aceptable
tenga un CI igual o mayor a .90.

3.4 Cuarta categoría de índices de ajuste.


Pruebas de bondad de ajuste que comparan un modelo teórico con el modelo
nulo o alternativo.

Usualmente el modelo de comparación es el de independencia, puesto que es el


que tiene la peor Ji cuadrada (la mayor).

20. CFI o índice d ajuste comparativo. También se le conoce por el índice


comparativo de ajuste de Bentler y compara el modelo teórico con el modelo
nulo que asume que las variables latentes del modelo no se correlacionan
entre si (modelo de independencia). Eso es, compara la matriz de covarianza
de datos observados con la matriz de covarianza del modelo nulo (matriz con
ceros). CFI es similar a NFI, pero penaliza el tamaño de muestra. CFI y
RMSEA son los estadísticos menos afectados por el tamaño de muestra, y un
CFI cercano a 1.0 indica un muy buen ajuste y valores superiores a .90 se
consideran aceptables. El CFI también es usado para evaluar variables
modificantes (aquellas que crean una relación heteroscedástica entre las
variables independientes y dependientes, de tal manera que la relación varía
por clase de modificador).

CFI se calcula así:


(1-max(chisq-df,0))/(max(chisq-df),(chisqn-dfn),0)), donde chisq y
chisqn son las Ji cuadradas del modelo teórico y del modelo nulo, y df y
dfn son los grados de libertad respectivos.

21. IFI o índice incremental de ajuste. También se le denomina IFI de Bollen o


Delta 2, y se calcula así:
(Ji-cuadrada del modelo nulo – Ji cuadrada del modelo default )/(Ji
cuadrada del modelo nulo – grados de libertad del modelo default).
Para aceptar el modelo IFI debe ser igual o mayor a .90 y este
estadístico es relativamente independiente del tamaño de muestra.

22. NFI o índice de ajuste normado. Es conocido como el índice normado de


Bentler-Bonett o Delta1. Es una alternativa del CFI, pero no requiere cumplir

28
con supuestos de la Ji cuadrada. Normado significa que varía entre 0 y 1,
donde 1 es ajuste perfecto.

NFI se calcula así:


(Ji cuadrada del modelo nulo – Ji cuadrada del modelo default)/Ji
cuadrada del modelo nulo.

El NFI refleja la proporción en que el modelo teórico mejora el ajuste


en relación con el modelo nulo. Por ejemplo, un NFI de .50 significa
que el modelo mejora en un 50% el ajuste. Valores entre .90 y .95 son
aceptables. Debido a que subestima el ajuste en el caso de muestras
pequeñas y no considera la complejidad del modelo, es preferible
consultar el NNFI (TLI).

23. BBI o índice Bentler-Bonnet. No confundirlo con el NFI. Es la Ji cuadrada


del modelo teórico menos la Ji cuadrada del modelo nulo, todo dividido por la
Ji cuadrada del modelo nulo. El modelo debe ser superior a .90 a fin de tener
buen ajuste.

24. TLI o índice Tucker-Lewis, o NNFI . TLI es similar al NFI, pero penaliza
la complejidad del modelo y es relativamente independiente del tamaño de
muestra.

TLI se calcula así:

(chisqn/dfn - chisq/df)/(chisqn/dfn - 1), donde chisq y chisqn son las Ji


cuadradas del modelo teórico y del modelo nulo, y df y dfn son los
grados de libertad respectivos.

NNFI puede no estar dentro del rango 0 a 1, pero puede fijarse dentro
de ese rango. Es el índice menos afectado por el tamaño de muestra y
un NNFI negativo indica que la razón de modelo nulo es menor a la
razón del modelo teórico que ocurre cuando el modelo teórico tiene
pocos grados de libertad y las correlaciones son bajas.

Valores cercanos a 1.0 indican buen ajuste, se considera que valores


superiores a .90 son aceptables, y el NNFI tiende a ser menor que GFI.

3.5 Quinta categoría de índices de ajuste.


Pruebas de bondad de ajuste que penalizan la falta de parsimonia.

Estos índices penalizan la complejidad del modelo y no usan los puntos de corte
acostumbrados de .90. Se usan para comparar modelos y entre más alto es el valor mejor
es el ajuste.

25. PRATIO o razón de parsimonia. Es la razón de los grados de libertad del


modelo teórico a los grados de libertad del modelo independiente (nulo). El
PRATIO no es una prueba de bondad de ajuste, pero se usa como el PNFI y el
PCFI que favorecen modelos parsimónicos (modelos con pocos parámetros).

29
26. PNFI o índice de ajuste pasimónico normado. También se le denomina
PNFI1 y es igual a PRATIO menos NFI. Entre más cercano esté el modelo
teórico al modelo saturado (trivial que explica todo), más penalizado es el
NFI. No hay valores de corte comúnmente aceptados, pero un PNFI igual o
mayor a .60 significa buena parsimonia, y al comparar modelos anidados, el
modelo con un mayor PNFI es el mejor.

27. PCFI o índice de ajuste de pasimonia comparado. Es igual a PRATIO por


CFI, y entre más cerca esté el modelo teórico al modelo saturado, más se
penaliza CFI. Al comparar modelos, el modelo con el menor PCFI es el
mejor.

28. PGFI o índice de ajuste de bondad parsimónico. PGFI es una variante del
GFI, pero penaliza el GFI al multiplicarlo por la razón de los grados de
libertad del modelo teórico entre los grados de libertad del modelo
independiente. Se considera que un PGFI igual o mayor a .60 indica buena
parsimonia.

29. RMSEA o aproximación de la raíz cuadrada media del error. Se le


conoce también como RMS o RMSE o discrepancia por grado de libertad. Se
considera que un RMSEA igual o menor a .08 es satisfactorio. RMSEA es un
índice de ajuste popular porque no necesita compararse con un modelo nulo y
tampoco requiere la propuesta de un modelo independiente. RMSEA tiene
una distribución relacionada con le distribución Ji cuadrada no central y por
ello no necesita de un muestro de tipo bootstrap para fijar intervalos de
confianza.

RMSEA se calcula así:

((chisq/((n-1)df))-(df/((n-1)df)))*.5, donde chisq es la Ji cuadrada del


modelo, df es grados de libertad y n es la cantidad de sujetos.

RMSEA corrige la complejidad del modelo, ya que el denominador es


grados de libertad, pero se considera que grados de libertad es una
medición imperfecta de complejidad. Ya que RMSEA calcula el
promedio de falta de ajuste por grado de libertad, es posible tener cero
en falta de ajuste tanto en el modelo complejo como en el modelo
simple. Por lo tanto, es conveniente también consultar el PRATIO, y
considerar el intervalo de confianza del 90% de RMSEA donde el
límite inferior tiene valores cercanos a cero y el límite superior valores
inferiores a .08.

30. PCLOSE. Prueba la hipótesis nula de que RMSEA no es mayor a .05. Si


PCLOSE es menor a .05, se rechaza la hipótesis nula y concluye que RMSEA
es mayor a .05, indicando un bajo ajuste. LISREL le denomina P-Value
for Test of Close Fit.

30
CAPÍTULO IV. SUPUESTOS DEL MES.

En los capítulos anteriores se han presentado supuestos sobre la normalidad de


las variables, los grados de libertad y el tamaño de la muestra. En este capítulo se
retoman, se tratan otros supuestos y proponen soluciones en caso de su violación.

Aún cuando MES usa el análisis de trayectorias, el MES relaja varios supuestos
relacionados con el nivel de medición de los datos, sus interacciones y la correlación del
error.

4.1. Distribución multivariada normal de los indicadores. En el caso de la


estimación MLE, cada indicador debe estar normalmente distribuido, ya que
aún pequeñas desviaciones de la normalidad pueden arrojar grandes
diferencias en la Ji cuadrdada. Generalmente las violaciones de normalidad
inflan la Ji cuadrada y el uso de mediciones ordinales o dicotómicas causan
anormalidad.

El muestreo Bollen-Stine bootstrap y la prueba Ji cuadrdada ajustada Satorra-


Bentler son utilizados para determinar el ajuste estructural en el caso de no
normalidad. El paquete PRELIS de LISREL, puede realizar una prueba de Ji
cuadrada para probar normalidad.

En el caso de datos discretos (datos categóricos o datos ordinales con menos


de 15 valores), se pueden considerar normales si las pruebas de sesgo
(skewness) o kurtosis están dentro de un rango de más o menos 1.5
(Schumacker y Lomax, 2004: 69).

Severas desviaciones de normalidad ocurren con mayor frecuencia con


variables binarias u ordinales. Por ello, Bollen (1989) y Jöreskog y Sörbom
(1997) recomiendan el uso de correlaciones policóricas (polychoric) junto
con la estimación WLS. LISREL, EQS y Mplus calculan la matriz de
correlaciones policóricas.

4.2. Distribución multivariada normal de las variables dependientes


latentes. Cada variable dependiente latente del modelo debe estar
normalmente distribuida. Las variables dicotómicas violan este supuesto y
por ello Kline (1998) recomienda el latent class analysis (LCA) en vez del
MES. Si el modelo tiene violaciones de normalidad, pueden usarse las
estimaciones de parámetros bootstrap.

4.3 Linealidad. El MES asume que la relación entre indicadores y variables


latentes, y entre variables latentes es lineal. La violación de linealidad
significa que las estimación del ajuste del modelo y el error estándar están
sesgados (no robustos). Sin embargo, como en regresión, es posible usar
transformaciones exponenciales, logarítmicas y otras transformaciones no
lineales. Estas transformaciones son añadidas mediante efectos cuadráticos o
no lineales, o mediante una correlación (flecha curva de doble punta).

31
4.4 Outliers o casos atípicos. La presencia de datos atípicos puede afectar el
modelo. El muestreo jackknife puede identificar dichos casos. El
procedimiento jackknife calcula los coeficientes de trayectorias para toda la
muestra, y luego para muestras (n-1), donde elimina un caso. Lo mismo se
hace con las covarianzas. Al comparar las diferencias en coeficientes de
trayectorias y covarianzas entre la muestra total y muestras jackknife, es
posible identificar outliers.

4.5 Datos incompletos o imputación. Es conveniente tener una base de datos


completa, o en su defecto, substituir los datos incompletos mediante un
procedimiento de imputación, debido a la posible introducción de error de
medición que afecte el modelo. En el ejemplo 1 del capítulo de ejercicios se
muestra como imputar.

4.6 Subidentificación o apenas identificación del modelo. Como se mencionó


en el capitulo 2, un modelo apenas identificado ocurre cuando hay tantos
parámetros por estimar como elementos en la matriz de covarianzas. Por
ejemplo, si el modelo tiene una variable V1 que antecede a V2 y V3, y V2
también es causa de V3, entonces hay tres parámetros (flechas) en el modelo
y hay tres elementos de covarianza (1,2; 1,3; y 2,3). En este caso es posible
calcular las trayectorias, pero utiliza todos los grados de libertad y ya no es
posible calcular pruebas de bondad de ajuste (cero grados de libertad, Ji
cuadrada de cero y “p” no puede calcularse).

Un modelo esta subidentificado cuando hay más parámetros por estimar que
elementos en la matriz de covarianzas. Generalmente los paquetes reportan
“failure to converge” o “negative error variances”

Estrategias para corregir subidentificación o apenas identificación:

a. Eliminar flechas de retroalimentación o efectos recíprocos


b. Especificar en niveles fijos los coeficientes de estimación que tienen
confiabilidad conocida.
c. Simplificar el modelo mediante la reducción de flechas que es lo
mismo que limitar un coeficiente de trayectoria a cero.
d. Simplificar el modelo mediante la limitación de flechas (estimación de
trayectorias) de las siguientes maneras: igualdad (ser igual a otro
estimado); proporcionalidad (ser proporcional a otro estimado); o
desigualdad (ser mayor o menor a otro estimado). Para saber que
flechas deben limitarse a igual es necesario consultar “critical ratios
for differences”; si una diferencia es menor a 1.96, entonces se acepta
que ambos parámetros son iguales y se limitan dichos parámetros.
e. Simplificar el modelo mediante la eliminación de variables.
f. Eliminar variables que tienen alta multicolinearidad con otras
variables.
g. Añadir variables exógenas.
h. Tener al menos tres indicadores por variable latente.
i. Elegir la opción listwise, no pairwise, de missing data treatment.
j. Considerar el uso de estimación GLS o ULS en vez de MLE.

32
k. Si MLE (maximum likelihood estimation) es usado, hay dos
soluciones más: substituir los valores iniciales propuestos por el
paquete y/o aumentar el número de iteraciones usadas para el logro de
convergencia.

Es ideal para el MES contar con un modelo sobreidentificado, eso es,


tener más conocidos (variables observadas) que incógnitas (parámetros a
estimar). Cuando hay sobreidentificación, los grados de libertad son
positivos (grados de libertad de la Ji cuadrada). Por ello, se recomienda
correr un MES con datos ficticios a fin de determinar si el modelo está
subidentificado o apenas identificado. Una solución por subidentificación
consiste en añadir más variables exógenas.

4.7 Recursividad. Los modelos recursivos nunca son subidentificados.


Recursividad ocurre cuando una flecha sólo va a una posición y no tiene
retroalimentación (regreso).

4.8 No empíricamente identificado por alta multicolinealidad. Un modelo


puede ser teóricamente identificado, pero no solucionable por problemas
empíricos como multicolinealidad o estimaciones de trayectoria cercanos a
cero en modelos no recursivos.

Signos de multicolinearidad.
a. Pesos estandarizados de regresión cercanos a 1 que dificultan el
cálculo de pesos de regresión diferentes para ambas trayectorias. El
resultado es un peso estandarizado de regresión cercano a 1 y otro
cercano a -1. Notar que los pesos varían entre -1 y 1.
b. Los errores estándar de dos variables, que son causadas por una
misma variable latente, son grandes en comparación con otros errores
de otras trayectorias dentro del modelo.
c. Grandes covarianzas de las estimaciones de parámetros de dos
trayectorias en comparación con las covarianzas de otras trayectorias
diferentes.
d. Errores con varianza negativa de una variable que antecede a dos
variables casi idénticas.

4.9 Datos de intervalo. La estimación MLE asume que la medición es de tipo


de intervalo, pero en el caso de variables exógenas que son de tipo
dicotómico o dummy se dificulta su uso como variable exógena, y por ello se
recomienda la estimación Bayesiana o el uso de la matriz de correlaciones
policóricas (LISREL).

4.10 Alta precisión. Ya sea que los datos sean de tipo intervalo u ordinal, los
datos deben tener un amplio rango de valores (se recomienda un rango de 15).

4.11 Residuales aleatorios pequeños. La media de los residuales (covarianza


observada menos la estimada) debe ser cero. Un modelo que ajusta bien debe
tener residuales pequeños. Residuales grandes sugieren no especificación
(misspecification), como ocurre cuando se requiere añadir trayectorias al

33
modelo. La covarianza de los puntajes dependientes y los residuales debe ser
cero, y la distribución de residuales debe ser normal.

4.12 Términos de error no correlacionados. Si los errores son especificados


por el modelo, el error correlacionado puede ser estimado y modelado por
MES.

4.13 Multicolinealidad. Se asume la ausencia de multicolinealidad, pero la


correlación entre variables independientes puede modelarse. Una alta
multicolinealidad resulta en una matriz de covarianza a la que no puede
calcularse la matriz inversa. LISREL informa que hay multicolinealidad
mediante el mensaje “matrix sigma is not positive definitive”.

Posibles soluciones: a. En LISREL es posible añadir un “ridge constant”,


que es un peso agregado a la diagonal de la matriz que cambia a positivo
todos los número de la diagonal; b. quitar las variables que correlacionan
alto; c. usar diferentes valores iniciales; d. usar estimación ULS en vez de
MLE; e. cambiar correlaciones tetracóricas por correlaciones Pearson; y f.
preferir listwise en vez de pairwie en el tratamiento de datos faltanes.

4.14 Covarianzas no cero. CFI y otros indicadores de ajuste comparan la


covarianza teórica con la observada. Cuando la covarianza observada se
acerca a cero, no hay que explicar, y cuando las variables tiene una baja
correlación entre si, también será difícil demostrar buen ajuste.

4.15 Tamaño de muestra. No debe ser pequeña puesto que el MES es sensible
al tamaño. Es común encontrar estudios que tienen muestras entre 200 y 400
sujetos y modelos que analizan entre 10 y 15 indicadores. Kline (1998: 12) y
Schumacker y Lomax (2004: 49) señalan que como mínimo se debe tener 100
sujetos, y Stevens (1996) propone 15 sujetos por cada indicador.

34
CAPÍTULO V. CUATRO EJERCICIOS DE LISREL (PRELIS Y SIMPLIS)

El lector puede realizar por cuenta propia cuatro ejemplos con el paquete
LISREL versión estudiantil. En este capítulo se explica cómo descargar el paquete
gratuito de internet y presenta imágenes que facilitan el uso de los comandos LISREL
necesarios para correr el AFC , el MES y/o otros análisis estadísticos.

El primer ejercicio (5.1) muestra cómo se preparan los datos con PRELIS, paso
necesario para acceder a datos que vienen de SPSS u otras bases, o para la captura
manual de datos; el segundo ejercicio (5.2) enseña cómo editar datos con PRELIS
cuando el investigador se enfrenta a datos faltantes o missing; el tercer ejercicio (5.3)
describe como hacer un análisis factorial confirmatorio (AFC) mediante SIMPLIS; y el
cuarto ejercicio (5.4) explica como se realiza el modelamiento de ecuación estructural
mediante SIMPLIS.

Posteriormente, es indispensable que el lector use sus propias bases de datos y


repita los ejercicios de este capítulo.

Pero antes de ir al primer ejercicio, es necesario tener en la computadora el


paquete LISREL, ya sea en su versión estudiantil o la versión completa. A continuación
se describe paso a paso que hacer para bajar el paquete versión estudiantil.

Como primer paso, acceda a la siguiente página en Internet:

http://www.ssicentral.com/lisrel/downloads.html

El segundo paso consiste en dar click en el siguiente vínculo:


Student edition of LISREL for Windows

Se recomienda instalarlo en unidad “C” del disco duro de su computadora.

¡Verifique que se descarga el “Free Student Edition” y no el


Free 25-day trial Edition!

El tercer paso es abrir el LISREL y hay dos maneras de iniciar LISREL: Una es
abrir C y la carpeta archivos del programa (figura 5 y figura 6) y la otra es mediante
“Todos los programas” (figura 7).

En caso de elegir C y la carpeta archivos del programa (figura 5), de click en esa
carpeta y verá que aparecen varias carpetas más; ahora debe dar click a la carpeta
LISWIN32S.EXE para iniciar LISREL (ver figura 6).

35

Fuente. Elaboración propia.

Figura 5: Disco local (C:) y carpeta “Archivos del programa”.

Fuente. Elaboración propia.

Figura 6: Carpeta LISWIN32S.EXE

Una vez que dio click a la carpeta LISWIN32S.EXE, aparecerá inmediatamente


una pantalla como la de la figura 8 (Menú de PRELIS).

36
La otra opción para abrir LISREL es mediante “Todos los programas” (figura 7),
en la que se da click en LISREL 88S y se abre la pantalla similar a la de la figura 8.

Fuente. Elaboración propia.

Figura 7: Todos los programas: LISREL 88S

5.1. Ejercicio de introducción de datos.

Un programa de LISREL conocido como PRELIS es usado para capturar datos


que provienen de otros paquetes como SPSS o EXCEL, y para obtener: matrices de
varianzas-covarianzas; matrices de correlaciones; medias y desviaciones estándar, todo
ello necesario para hacer el análisis MES en SIMPLIS o LISREL. Cabe mencionar que
los datos también pueden ser introducidos directamente, pero en este ejemplo, se toman
los datos de SPSS.

PRELIS usa una hoja de cálculo y contiene un menú con las opciones, tal como
lo muestra la figura 8. En este caso se da click o abre File y se despliega un submenú.

37
Fuente. Elaboración propia.

Figura 8: Menú de PRELIS

La opción New o Nuevo permite la creación de una sintaxis (sintaxis es un


comando) que puede ser abierta por SIMPLIS y LISREL (figura 8 y 9). Esta opción se
usará más adelante en el cuarto ejercicio (5.4). No la vamos a usar ahora.

La opción Open (figura 8) sirve para abrir archivos PRELIS y LISREL, más
adelante se explica su uso.

Fuente. Elaboración propia.

Figura 9. Opción New del menú PRELIS

Ahora, regrese a File y abra Import data (ver figura 8).

Import Data: Permite localizar archivos guardados de PRELIS (.pr2), SIMPLIS


(.spl), LISREL (.ls8), SPSS (*.sav) o All files (*.*). La versión estudiantil tiene ejemplos
en las carpetas pr2ex (PRELIS), splex (SIMPLIS) y ls8ex (LISREL). En este caso se
busca la carpeta de Lisrel Student Examples que puede estar en el disco C (carpeta
LISREL 8.8 Student examples), se abre y luego se abre la carpeta Tutorial. Los tres
pasos se muestran en la figura 10. En caso de no encontrarlo, pídalo a
hermanlittlewood@yahoo.com.mx.

38
Fuente. Elaboración propia (3 pantallas).

Figura 10: Opción Import Data del menú PRELIS (en carpeta Tutorial
dentro del archivo “Lisrel student examples”)

Para abrir un archivo SPSS, elija el archivo DATA100.sav,


como muestran las figuras 10, 11 y 12.

Asegúrese que en la ventana Tipo debe seleccionarse SPSS


for Windows (*.sav), ya que por default en la ventana tipo
aparece la opción Free Format Data (*.dat, *.raw).

Notar que en la ventana Tipo debe seleccionarse SPSS


for Windows (*.sav), ya que por default en la ventana tipo
aparece la opción Free Format Data (*.dat, *.raw).

39
Fuente. Elaboración propia.

Figura 11: Opción Open (abrir) archivo SPSS del menú PRELIS

Ahora, proceda a abrir el archivo data100.sav de SPSS, y luego guarde como


DATA100.PSF (archivo PRELIS ). Ver figura 12.

Fuente. Elaboración propia.

Figura 12: Opción Open archivo data100.sav SPSS y guardar como PSF.

40
El archivo PRELIS DATA100.PSF guardado muestra un nuevo menú (figura
13) que permite la edición, transformación, análisis estadístico, y graficación de los
datos. La designación es de datos ordinales puesto que las variables tienen menos de 15
categorías o intervalos. Note que se ha abierto Statistics en menú y un submenú.

Fuente. Elaboración propia.

Figura 13. Nuevo menú PRELIS (DATA.PSF): Opción Statistics

Los análisis estadísticos incluyen análisis factorial clásico u ordinal, regresiones


varias, y métodos de cuadrados mínimos de dos pasos. También es posible imputar datos
(resolver casos de datos incompletos o faltantes), hacer análisis de homogeneidad,
análisis de normalidad, y muestreo bootstrapping.

La opción de menú Output Options (figura 14) permite guardar matrices de


varianzas-covarianzas y estadísticos descriptivos en archivos de sintaxis SIMPLIS o
LISREL. Ahora de click en Statistics y luego de click en Output Options.

41
Seleccione:

Escriba:

Fuente. Elaboración propia.

Figura 14. Nuevo menú PRELIS (DATA.PSF): Opción Output Options.

Ahora de click en OK y se obtendrá un reporte de las covarianzas que por su


longitud es preferible no comentarlo en este ejercicio. Solamente se comenta que ya se
tiene una matriz de covarianzas (también puede obtenerse una matriz de correlaciones
como lo veremos en los siguientes ejercicios). Este tipo de matriz queda guardada
AUTOMÁTICAMENTE en Tutorial de Student Examples (o en la carpeta que tiene
abierta) con el nombre DATA100.COV y se usa para análisis que se explican más
adelante en los ejercicios.

La matriz de covarianzas o de correlaciones, es necesaria para el AFC o el MES.


Es importante aclarar que LISREL obtiene el mismo resultado de cualquiera de las dos
matrices, pero es muy importante registrar que tipo de matriz se usa.

La matriz puede accederse mediante la opción aquí explicada en este ejercicio,


pero el investigador pudiera anotar directamente las covarianzas o correlaciones en la
pantalla de LISREL, tal cómo se hace en el ejercicio 5.3. Por ello, hay dos maneras de
meter covarianzas o correlaciones en LISREL

FIN DEL EJERCICIO 5.1

42
5.2. Ejercicio de edición de datos (Imputación).

Este ejercicio tiene la finalidad de practicar la imputación o substitución de datos


faltantes que pueden alterar los resultados de la investigación. Sin no faltan datos o son
muy pocos los faltantes (menos del 5%), no es necesario imputar. Antes del ejercicio se
explican casos de edición requeridos, ya sea por el tipo de escala de medición, por la
restricción de rango, así como por las diversas maneras de substituir datos faltantes
mediante la imputación.

5.2.1. La escala de medición. La manera como se miden o escalan las variables


influye en los análisis estadísticos. Por ejemplo, con una escala de tipo nominal (por
ejemplo, sexo), no deben calculársele la media o desviación estándar, y sólo procede el
cálculo de porcentajes por categoría. Otro ejemplo es una escala de tipo ordinal como la
escala de actitud de tipo Likert que permite el ordenamiento de categorías.

PRELIS reconoce datos continuos (CO) u ordinales (OR), y puede calcular


diferentes tipos de correlaciones dependiendo del nivel de medición (nominal, ordinal,
intervalar o de razón). Una matriz de varianzas-covarianzas de datos continuos (CO) usa
correlaciones Pearson y una matriz de datos ordinales (OR) puede usar correlaciones
tetracóricas (policóricas o poliseriales).

Si hay sesgo de datos (distribución no normal), entonces puede usarse la


transformación lineal Probit, o bien puede usarse una matriz de varianza-covarianza
asymptótica.

5.2.2. Restricción de rango. Datos con niveles de medición intervalar o de


razón pueden ser discretos o continuos. Por ejemplo, el número de hijos se reporta en
enteros (discreto) y el promedio académico puede reportarse con decimales (continuo).

PRELIS puede definir si la variable es ordinal (OR) o continua (CO),


dependiendo de la presencia de 15 puntos escalares. Si la variable tiene menos de 15
categorías, entonces se le denomina ordinal (OR) y si tiene 15 o más, entonces es
continua (CO). El criterio de 15 puntos permite que la correlación Pearson varíe entre 0
y 1. En consecuencia, una escala Likert de 5 opciones, debe usar la OR.

5.2.3. Datos faltantes. Los datos faltantes afectan el análisis estadístico y es


común substituirlos. Las opciones para el manejo de datos faltantes son:

Listwise: Borrar sujetos de todas las variables con algún dato faltante en
cualquier variable.
Pairwise: Borrar al sujeto sólo en aquella variable donde tenga un dato
faltante.
Substitución de media: Substituir el dato faltante con la media de la
variable.
Imputación por regresión: Substituir con el valor pronosticado el valor
faltante.
Maximum Likelihood (EM): Substituir con el valor esperado.
Match Response Pattern: Parear variables con datos de variables
completas.

43
La elección del método afectará la cantidad de sujetos disponibles para el
análisis. Listwise y Pairwise tienden a sacrificar sujetos y reducir el tamaño de muestra.
La substitución de media es posible cuando faltan pocos datos y la imputación por
regresión es útil cuando es moderada la falta de datos. El EM se recomienda cuando es
relativamente grande la falta de datos y la falta es aleatoria.

A continuación se presenta un ejemplo PRELIS de imputación.

La imputación puede hacerse para una sóla variable (Impute Missing Values) o
para muchas variables (Multiple Imputation), mediante la opción Statistics del menú
(figura 13). La imputación individual se hace con Match Response Pattern y la múltiple
con la substitución de medias, la eliminación de casos, o EM.

El ejemplo usado es el archivo chollev.dat (en carpeta Tutorial y tipo Free


format) de niveles de colesterol de 28 pacientes que han sufrido de infarto. Se asume que
los datos faltan de manera aleatoria (MAR) y que se distribuyen normalmente. El
colesterol es medido a los dos días (VAR1), a los 4 días (VAR2) y a los 14 días (VAR3)
del infarto, pero sólo en 19 de los 28 pacientes en VAR3. Los primeros 18 renglones
(figura 17) son mostrados.

Selecione Import Data, seleccione la carpeta LISREL 8.8 Student Examples,


en la carpeta Tutorial (ver figura 15), abra el archivo chollev.dat en Free Format,
guárdelo como chollev.psf y elija Number of variables 3 OK a fin de crear el archivo
PRELIS. Antes, el archivo SPSS definió los datos faltantes para VAR3 como -.9.00.

44

¡¡Seleccione la opción Free


Format!! luego seleccione
chollev.dat aparecerá en la
ventana “nombre” y de click
en abrir
cohíbe.daty oprima!!

Fuente. Elaboración propia.

Figura 15: Archivo chollev.dat

Se abre la siguiente ventana (figura 16) ventana.que por default muestra como tipo
PRELIS Data. Escriba en la ventana Nombre: CHOLLEV.PSF y de click en guardar.

45
Fuente. Elaboración propia.

Figura 16: Archivo CHOLLEV.PSF (PRELIS).

Al guardar se abre una nueva ventana (figura 17), ahora en “number of variables”
seleccione 3 (porque son tres variables) y dar click en Ok se abrirá la ventana que
muestra la figura 19 y en ella se pueden ver las tres variables y sus valores.

Fuente. Elaboración propia.

Figura 17: Number of variables

Como se mencionó, una vez que dio click en OK, se abre una ventana que
muestra las tres variables con sus respectivas variables por sujeto (figura 18).

46
Recuerde que solo hay
datos faltantes en VAR 3

Fuente. Elaboración propia.

Figura 18: Las tres variables y sus valores

Seleccione la opción Data del menú y vea como en la figura 19 se abre el menú Define
variables seleccione VAR3 como la variable faltante en Missing Values y se escribe -
9.00000 y da OK: Se eligió VAR3 porque es la única variable en la que faltan datos
(marcados con -9.00)

47
Fuente. Elaboración propia.

Figura 19: VAR3 de Chollev.PSF (PRELIS), en menú Data y submenú


Define Variables

Ahora de click en OK dos veces y guarde el valor de -9.0000 oprimiendo el ícono


cuadrado (parcialmente en amarillo) del menú que está debajo Data y Transform.

Al oprimir cambia el color

48
A continuación vaya al menú Statistics (figura 20) y búsque Impute Missing Values
(o Multiple Imputation para substituir dos o más variables faltantes con medias).

Fuente. Elaboración propia.

Figura 20: Impute Missing Values de VAR3 de Chollev.PSF (PRELIS).

De click en Impute Missing Values. Se abre la ventana (figura 21). Ahora


ingrese VAR3 en la ventana Imputed variables y VAR1 y VAR2 en la ventana
Matching Variables, y oprima Output Options para abrir una nueva ventana (figura
22) y guarde los datos transformados en cuatro nuevos archivo de PRELIS: cholnew.psf;
el resultado (output) de una matriz correlacional (cholnew.cor); means o medias
(cholnew.me); y desviaciones estándar (cholnew.sd). Luego oprima Run.

También se puede poner a prueba la normalidad bivariada de los datos.

49
Fuente. Elaboración propia.

Figuras 21 y 22: Output Options de VAR3 de Chollev.PSF (PRELIS).

Por el momento usted sólo ha calculado los resultados DESPUÉS de la imputación o


substitución de datos faltantes, y es también es posible hacer cálculos sin imputación al
archivo chollev.psf (ANTES de la imputación).

Puede compararse resultados ANTES y DESPUES de imputar. Ahora examine los


resultados después de la imputación y compárelos con el antes; para ello debe ver el archivo
chollev.psf y también el cholnew.psf. Por ejemplo la media (mean) de VAR3 antes de la
imputación es 221.474 y después de la imputación es 220.714, un tanto diferente.

ANTES DE LA IMPUTACIÓN

Number of Missing Values per Variable


VAR1 VAR2 VAR3
-------- -------- --------
0 0 9
Distribution of Missing Values
Total Sample Size = 28
Number of Missing Values 0 1
Number of Cases 19 9

Effective Sample Sizes


Univariate (in Diagonal) and Pairwise Bivariate (off Diagonal)
VAR1 VAR2 VAR3
-------- -------- --------
VAR1 28
VAR2 28 28
VAR 19 19 19

Percentage of Missing Values

50
Continúa antes de la imputación

Univariate (in Diagonal) and Pairwise Bivariate (off Diagonal)


VAR1 VAR2 VAR3
-------- -------- --------
VAR1 0.00
VAR2 0.00 0.00
VAR3 32.14 32.14 32.14

Frequency PerCent Pattern


19 67.9 0 0 0
9 32.1 0 0 1

Correlation Matrix (N=19)


VAR1 VAR2 VAR3
-------- -------- --------
VAR1 1.000
VAR2 0.689 1.000
VAR3 0.393 0.712 1.000

Means (N=19)
VAR1 VAR2 VAR3
-------- -------- --------
259.474 230.842 221.474

Standard Deviations (N=19)


VAR1 VAR2 VAR3
-------- -------- --------
47.948 43.870 43.184

DESPÚES DE LA IMPUTACIÓN
Number of Missing Values per Variable
VAR1 VAR2 VAR3
-------- -------- --------
0 0 9
Imputations for VAR3
Case 2 imputed with value 204 (Variance Ratio = 0.000), NM= 1
Case 4 imputed with value 142 (Variance Ratio = 0.000), NM= 1
Case 5 imputed with value 182 (Variance Ratio = 0.000), NM= 1
Case 10 imputed with value 280 (Variance Ratio = 0.000), NM= 1
Case 13 imputed with value 248 (Variance Ratio = 0.000), NM= 1
Case 16 imputed with value 256 (Variance Ratio = 0.000), NM= 1
Case 18 imputed with value 216 (Variance Ratio = 0.000), NM= 1
Case 23 imputed with value 188 (Variance Ratio = 0.000), NM= 1
Case 25 imputed with value 256 (Variance Ratio = 0.000), NM= 1

Number of Missing Values per Variable After Imputation


VAR1 VAR2 VAR3
-------- -------- --------
0 0 0

Correlation Matrix (N=28)


VAR1 VAR2 VAR3
-------- -------- --------
VAR1 1.000
VAR2 0.673 1.000
VAR3 0.404 0.787 1.000

Means (N=28)
VAR1 VAR2 VAR3

51
Continúa después de la imputación.

-------- -------- --------


253.929 230.643 220.714

Standard Deviations (N=28)


VAR1 VAR2 VAR3
-------- -------- --------
47.710 46.967 42.771

Como puede apreciarse en el archivo cholnew.psf, los datos faltantes han sido
substituidos (imputados) en VAR3: Caso 2 = 204, caso 4 = 142, caso 5 = 182, caso 10 =
280, etc. (ver figura 23). Cholnew.psf se abre dándole click a File, luego click a Open
(asegurar que el tipo de archivo es PRELIS data (*.psf). y luego dándole click a
Cholnew.PSF.

Nota: Se recomienda imputar cuando falta más de 5% de los datos.

Los valores -9.000 han


sido substituidos.

Ojo, abra el archivo nuevo cholnew.PSF con la opción File Open, en la ventana Tipo debe
elegirse PRELIS Data (*.psf). No vea el archivo chollev.PSF, vea cholnew.PSF.
Fuente. Elaboración propia.

Figura 23: VAR3 sin datos faltantes de cholnew.PSF (PRELIS).

La figura 24 muestra las dos bases de datos juntas, antes y después de la


imputación.

52
Antes Después
Figura 24: Bases de datos antes y después de la imputación.

A manera de resumen, en este ejercicio se substituyeron los datos faltantes


y se crearon tres archivos que contienen información de correlaciones
(cholnew.cor), medias (cholnew.me) y desviaciones estándar (cholnew.sd)
necesarios para realizar el AFC y el MES.

FIN DEL EJERCICIO 5.2.

5.3. Ejercicio de modelo de medición o análisis factorial confirmatorio


(AFC).

Como se mencionó, el AFC busca validar la medición de las variables latentes


mediante sus variables observadas (indicadores o reactivos) y el diagrama de
AFC muestra cómo círculos (variables latentes) se conectan con rectángulos
(variables observadas), pero sin flechas rectas que conecten a las variables
latentes entre sí. Dichas flechas rectas que conectan variables latentes son usadas
en el MES, un paso posterior al AFC.

Este ejemplo trata el caso de seis pruebas de aptitudes que se aplicaron a


145 estudiantes. Los archivos a utilizar son EX5A.spl y EX5B.spl de la carpeta
simplis (el lector los descargó al bajar LISREL). El ejemplo consiste de una
matriz de varianza-covarianza y tiene seis variables observadas: 1 Visual
Perception, 2 Cubes, 3 Lozenges, 4 Paragraph Comprehension, 5 Sentence
Completion y 6 Word Meaning. Las primeras dos pruebas miden aptitud
espacial (variable latente), las cuatro siguientes miden aptitud verbal (variable
latente) y las últimas tres miden velocidad(variable latente). El modelo inicial
confirmatorio se presenta en la figura 25.

53
Fuente. Elaboración propia.

Figura 25. Modelo confirmatorio de nueve variables observadas y tres


variables latentes

Las variables observadas son los 9 rectángulos y las latentes son los 3 óvalos. Las
trayectorias o líneas van de cada variable latente a sus variables observadas, y estas
trayectorias especifican que un parámetro o carga factorial se estimará. La carga
factorial al cuadrado es la comunalidad estimada de la variable.

Sintaxis SIMPLIS. Como puede observarse abajo, las instrucciones que


se anotan en SIMPLIS tienen un título (Confirmatory Factor Initial
Model), la lista de 9 variables observadas (sensibles a mayúsculas y
minúsculas), una matriz correlacional (en este caso no se invoca a un
archivo que contenga la matriz, como el archivo del ejercicio 5.1), medias
y desviaciones estándar, la lista de variables latentes, las relaciones del
modelo, residuales y el diagrama de trayectorias.

El lector puede comprobarlo: Abra la versión estudiantil de LISREL


(LISREL 88S), y de acuerdo a las imágenes (figura 26 y figura 27):
busque la carpeta de LISREL en archivos del programa (usualmente en el

54
disco C). Luego abra en la carpeta SIMPLIS el archivo EX5A.SPL (ver
figuras 28, 29 y 30) dando click en Open.

Fuente. Elaboración propia.

Figura 26. Abrir LISREL

Fuente. Elaboración propia.

Figura 27. Buscar carpeta LISREL (en este caso LISREL 8.8 student
examples, seleccionar File y Open)

55
Fuente. Elaboración propia.

Figura 28. Seleccionar y abrir carpeta en SPLEX (SIMPLIS).

Fuente: Elaboración propia

Figura 29. Seleccionar y abrir el archivo EX5A.SPL.

56
Así se ve la sintaxis en pantalla del ejemplo EX5A.SPL:
_________________________________________________________________
Nine Psychological Variables - A Confirmatory Factor Analysis
Observed Variables
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN
ADDITION COUNTDOT 'S-C CAPS'
Correlation Matrix From File EX5.COR
Sample Size 145
Latent Variables: Visual Verbal Speed
Relationships:
'VIS PERC' - LOZENGES = Visual
'PAR COMP' - WORDMEAN = Verbal
ADDITION - 'S-C CAPS' = Speed
Number of Decimals = 3
Wide Print
Print Residuals
Path Diagram
End of Problem
____________________________________________________________________

Ahora, procede dar click al icono (en la barra de menú, ver figura 30).

Fuente: Elaboración propia

Figura 30. Comandos para correr un AFC

¡Este botón corre el análisis SIMPLIS ! No


vaya a oprimir un botón similar que tiene una P
en vez de una L.

57
Van a aparecer tres ventanas (ver figura 31), la primera ventana muestra la gráfica con
las variables latentes en óvalos (Visual, Verbal y Speed) y nueve rectángulos (ver figura
32); la segunda ventana contiene los resultados (texto y tablas numéricas) y se llama
EX5A.OUT (ver tabla 2); y la tercera ventana contiene las instrucciones (comandos) y se
llama EX5A.SPL. Las tres ventanas aparecen juntas en la misma pantalla, y es posible
que las tres o algunas de las tres ventanas estén minimizadas.

Fuente: Elaboración propia

Figura 31. Gráfica de resultados del AFC

Recuerde que los resultados son presentados en la gráfica EX5B.PTH (figura 32)
y el archivo EX5B.OUT (tabla 2, una enorme tabla que la resume la tabla 1), dónde es
posible encontrar cinco principales índices. Pero vea la tabla 1 que no es preparada por
LISREL, sino elaborada por los autores de este libro) que indican que el AFC requiere
modificarse, ya que la Ji cuadrada es significativa, RMSEA es mayor a .08, y GFI no
llegó a .95. Note que la tabla 2 es muy larga (cinco páginas), por eso se presenta la tabla
1 para simplificar la búsqueda de índices.

Tabla 1. Índices seleccionados de ajuste del AFC


_____________________________________________
2
χ = 49. 97
df = 24
p value .00143
RMSEA =.087
GFI = .928
_____________________________________________
Nota: buscarlos en el archivo EX5A.PTH
Fuente: Elaboración propia de los autores y NO de LISREL.

58
Al final de EX5A.OUT (tabla 2) se encuentran índices por modificar (modification
indices), entre los que destacan:

add Path from S-C CAPS to VISUAL a fin de disminuir la Ji cuadrada en 24.7 puntos,
y……..
add an Error Covariance between COUNTDOT and ADDITION a fin de disminuir
la Ji cuadrada en 25.1 puntos.

Ambas modificaciones son las que más disminuyen la Ji cuadrada.

Fuente. Elaboración propia.

Figura 32. Gráfica de trayectorias (ahora archivo EX5A.PTH).

Y también arroja el análisis de resultados con la matriz de covarianzas, índices de


ajuste e índices de modificación, mediante el archivo EX5A.OUT (Tabla 2).

59
Tabla 2. Resultados del análisis factorial confirmatorio (EX5A.OUT)
__________________________________________________________________
DATE: 4/16/2009
TIME: 10:59

L I S R E L 8.54

BY

Karl G. Jöreskog & Dag Sörbom

This program is published exclusively by


Scientific Software International, Inc.
7383 N. Lincoln Avenue, Suite 100
Lincolnwood, IL 60712, U.S.A.
Phone: (800)247-6113, (847)675-0720, Fax: (847)675-2140
Copyright by Scientific Software International, Inc., 1981-2002

Use of this program is subject to the terms specified in the


Universal Copyright Convention.

Website: www.ssicentral.com

The following lines were read from file


C:\lisrel854_student\SPLEX\EX5A.SPL:

Nine Psychological Variables - A Confirmatory Factor Analysis


Observed Variables
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN
ADDITION COUNTDOT 'S-C CAPS'
Correlation Matrix From File EX5.COR
Sample Size 145
Latent Variables: Visual Verbal Speed
Relationships:
'VIS PERC' - LOZENGES = Visual
'PAR COMP' - WORDMEAN = Verbal
ADDITION - 'S-C CAPS' = Speed
Number of Decimals = 3
Wide Print
Print Residuals
Path Diagram
End of Problem

Sample Size = 145

Nine Psychological Variables - A Confirmatory Factor Analysis

Correlation Matrix
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.318 1.000
LOZENGES 0.436 0.419 1.000
PAR COMP 0.335 0.234 0.323 1.000
SEN COMP 0.304 0.157 0.283 0.722 1.000
WORDMEAN 0.326 0.195 0.350 0.714 0.685 1.000
ADDITION 0.116 0.057 0.056 0.203 0.246 0.170 1.000
COUNTDOT 0.314 0.145 0.229 0.095 0.181 0.113 0.585 1.000
S-C CAPS 0.489 0.239 0.361 0.309 0.345 0.280 0.403 0.512 1.000

60
Continúa tabla 2

Nine Psychological Variables - A Confirmatory Factor Analysis

Number of Iterations = 9

LISREL Estimates (Maximum Likelihood)

Measurement Equations

VIS PERC = 0.672*Visual, Errorvar.= 0.548 , R² = 0.452


(0.0910) (0.0971)
7.388 5.645
CUBES = 0.513*Visual, Errorvar.= 0.737 , R² = 0.263
(0.0924) (0.101)
5.551 7.300
LOZENGES = 0.684*Visual, Errorvar.= 0.532 , R² = 0.468
(0.0910) (0.0974)
7.516 5.461
PAR COMP = 0.867*Verbal, Errorvar.= 0.248 , R² = 0.752

(0.0702) (0.0515)
12.348 4.819
SEN COMP = 0.830*Verbal, Errorvar.= 0.311 , R² = 0.689
(0.0715) (0.0537)
11.608 5.787
WORDMEAN = 0.826*Verbal, Errorvar.= 0.318 , R² = 0.682
(0.0716) (0.0541)
11.525 5.882
ADDITION = 0.660*Speed, Errorvar.= 0.564 , R² = 0.436
(0.0853) (0.0874)
7.742 6.458
COUNTDOT = 0.801*Speed, Errorvar.= 0.359 , R² = 0.641
(0.0846) (0.0896)
9.464 4.006
S-C CAPS = 0.677*Speed, Errorvar.= 0.542 , R² = 0.458
(0.0851) (0.0869)
7.949 6.235

Correlation Matrix of Independent Variables

Visual Verbal Speed


-------- -------- --------
Visual 1.000

Verbal 0.543 1.000


(0.086)
6.326

Speed 0.509 0.318 1.000


(0.096) (0.093)
5.280 3.420

Goodness of Fit Statistics

Degrees of Freedom = 24
Minimum Fit Function Chi-Square = 52.626 (P = 0.000648)
Normal Theory Weighted Least Squares Chi-Square = 49.966 (P =
0.00143)
Estimated Non-centrality Parameter (NCP) = 25.966

61
Continúa tabla 2

90 Percent Confidence Interval for NCP = (9.461 ; 50.223)

Minimum Fit Function Value = 0.365


Population Discrepancy Function Value (F0) = 0.180
90 Percent Confidence Interval for F0 = (0.0657 ; 0.349)
Root Mean Square Error of Approximation (RMSEA) = 0.0867
90 Percent Confidence Interval for RMSEA = (0.0523 ; 0.121)
P-Value for Test of Close Fit (RMSEA < 0.05) = 0.0409
Expected Cross-Validation Index (ECVI) = 0.639
90 Percent Confidence Interval for ECVI = (0.524 ; 0.807)
ECVI for Saturated Model = 0.625
ECVI for Independence Model = 4.691

Chi-Square for Independence Model with 36 Degrees of Freedom =


657.458
Independence AIC = 675.458
Model AIC = 91.966
Saturated AIC = 90.000
Independence CAIC = 711.249
Model CAIC = 175.477
Saturated CAIC = 268.953
Normed Fit Index (NFI) = 0.920
Non-Normed Fit Index (NNFI) = 0.931
Parsimony Normed Fit Index (PNFI) = 0.613
Comparative Fit Index (CFI) = 0.954
Incremental Fit Index (IFI) = 0.955
Relative Fit Index (RFI) = 0.880
Critical N (CN) = 118.606
¿ Root Mean Square Residual (RMR) = 0.0755
Standardized RMR = 0.0755
Goodness of Fit Index (GFI) = 0.928
Adjusted Goodness of Fit Index (AGFI) = 0.866
Parsimony Goodness of Fit Index (PGFI) = 0.495

Nine Psychological Variables - A Confirmatory Factor Analysis

Fitted Covariance Matrix


VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.345 1.000
LOZENGES 0.460 0.351 1.000
PAR COMP 0.317 0.242 0.322 1.000
SEN COMP 0.303 0.231 0.308 0.720 1.000
WORDMEAN 0.302 0.230 0.307 0.716 0.685 1.000
ADDITION 0.226 0.173 0.230 0.182 0.174 0.173 1.000
COUNTDOT 0.274 0.209 0.279 0.221 0.211 0.210 0.529 1.000
S-C CAPS 0.232 0.177 0.236 0.187 0.179 0.178 0.447 0.542 1.000

Fitted Residuals

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.027 0.000
LOZENGES -0.024 0.068 0.000
PAR COMP 0.018 -0.008 0.001 0.000
SEN COMP 0.001 -0.074 -0.025 0.002 0.000
WORDMEAN 0.024 -0.035 0.043 -0.002 0.000 0.000
ADDITION -0.110 -0.116 -0.174 0.021 0.072 -0.003 0.000
COUNTDOT 0.040 -0.064 -0.050 -0.126 -0.030 -0.097 0.056 0.000
S-C CAPS 0.257 0.062 0.125 0.122 0.166 0.102 -0.044 -0.030 0.000

62
Continúa tabla 2

Summary Statistics for Fitted Residuals

Smallest Fitted Residual = -0.174


Median Fitted Residual = 0.000
Largest Fitted Residual = 0.257

Stemleaf Plot

- 1|7
- 1|3210
- 0|765
- 0|44333321000000000000000
0|22244
0|6677
1|023
1|7
2|
2|6

Standardized Residuals

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC --
CUBES -0.793 --
LOZENGES -1.353 2.087 --
PAR COMP 0.438 -0.139 0.020 --
SEN COMP 0.020 -1.294 -0.565 0.416 --
WORDMEAN 0.529 -0.609 0.950 -0.356 -0.054 --
ADDITION -1.946 -1.762 -3.117 0.375 1.225 -0.056 --
COUNTDOT 0.884 -1.102 -1.141 -3.013 -0.655 -2.084 5.007 --
S-C CAPS 4.650 0.958 2.294 2.241 2.904 1.776 -2.007 -2.886 --

Summary Statistics for Standardized Residuals

Smallest Standardized Residual = -3.117


Median Standardized Residual = 0.000
Largest Standardized Residual = 5.007

Stemleaf Plot

- 3|10
- 2|910
- 1|984311
- 0|8766411100000000000
0|44459
1|0028
2|1239
3|
4|7
5|0
Largest Negative Standardized Residuals
Residual for ADDITION and LOZENGES -3.117
Residual for COUNTDOT and PAR COMP -3.013
Residual for S-C CAPS and COUNTDOT -2.886
Largest Positive Standardized Residuals
Residual for COUNTDOT and ADDITION 5.007
Residual for S-C CAPS and VIS PERC 4.650
Residual for S-C CAPS and SEN COMP 2.904

63
Continúa tabla 2

The Modification Indices Suggest to Add the


Path to from Decrease in Chi-Square New Estimate
ADDITION Visual 10.5 -0.37
COUNTDOT Verbal 10.1 -0.28
S-C CAPS Visual 24.7 0.57
S-C CAPS Verbal 10.0 0.26

The Modification Indices Suggest to Add an Error Covariance


Between and Decrease in Chi-Square New Estimate
COUNTDOT ADDITION 25.1 0.62
S-C CAPS VIS PERC 9.1 0.18
S-C CAPS COUNTDOT 8.3 -0.38

Time used: 0.060 Seconds


_____________________________________________________________
Fuente Elaboración propia (LISREL).

De acuerdo con los índices de modificación sugeridos al final de la tabla 2, se


abre el archivo EX5B.SPL (figura 33) para realizar un AFC modificado. Notar que
EX5B.SPL es igual a EX5A.SPL, excepto que tiene incluida la trayectoria S-C CAPS
Visual, la única modificación tomada en cuenta. Las comillas sencillas como en ´S-C
CAPS´ se usa para el caso de variables que tienen un espacio como el que se ve entre la
letras C y C. El guión alto como el que está entre ´PAR COMP´ - WORDMEAN,
significa que también se incluye a ´SEN COMP´. Otra opción es escribir en la línea 10
´PAR COM´ ´SEN COMP´ WORDMEAN = Verbal, para incluir a ´SEN COMP´.

Fuente: Elaboración propia

Figura 33. EX5B.SPL AFC modificado

Ahora, procede dar click al icono (en la barra de menú):

64
¡Este botón corre el análisis SIMPLIS ! No
vaya a oprimir un botón similar que tiene una P
en vez de una L.

Para no confundirse con los resultados del archivo EX5A, cierre las tres ventanas con
terminaciones (SPL, OUT y PTH).

Los resultados son presentados en la gráfica EX5B.PTH (figura 34) y el archivo


EX5B.OUT (tabla 3, una enorme tabla que la resume la tabla 4), dónde es posible
encontrar cinco principales índices (ver tabla 3 que no es preparada por LISREL, sino
elaborada por los autores) que indican que el AFC ya quedo listo, ya que la Ji cuadrada
no es significativa, RMSEA es menor a .08, y GFI llegó a .95.

Tabla 3. Índices seleccionados de ajuste del AFC modificado


_________________________________________
2
χ = 28. 67
df = 23
p value .19138
RMSEA =.041
GFI = .958
_________________________________________
Nota: buscarlos en el archivo EX5B.PTH
Fuente: Elaboración propia de los autores (NO por LISREL)

Al final de EX5B.=OUT ya no se encuentran índices por modificar sugeridos


(modification indices).

65
Nota: Observar la flecha agregada que va de Visual a S-C CAPS
Fuente: Elaboración propia.

Figura 34. Archivo EX5B.PTH AFC modificado (gráfica de trayectorias).

Tabla 4. Resultados del AFC modificado (EXA5B.OUT)


_________________________________________________________________
DATE: 4/17/2009
TIME: 11:19

L I S R E L 8.54

BY

Karl G. Jöreskog & Dag Sörbom

This program is published exclusively by


Scientific Software International, Inc.
7383 N. Lincoln Avenue, Suite 100
Lincolnwood, IL 60712, U.S.A.

Phone: (800)247-6113, (847)675-0720, Fax: (847)675-2140


Copyright by Scientific Software International, Inc., 1981-2002
Use of this program is subject to the terms specified in the
Universal Copyright Convention.
Website: www.ssicentral.com

The following lines were read from file


C:\lisrel854_student\SPLEX\EX5B.SPL:

Nine Psychological Variables - A Confirmatory Factor Analysis

66
Continúa tabla 4.
Observed Variables
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN
ADDITION COUNTDOT 'S-C CAPS'
Correlation Matrix From File EX5.COR
Sample Size 145
Latent Variables: Visual Verbal Speed
Relationships:
'VIS PERC' - LOZENGES 'S-C CAPS' = Visual
'PAR COMP' - WORDMEAN = Verbal
ADDITION - 'S-C CAPS' = Speed
Number of Decimals = 3
Wide Print
Print Residuals
Path Diagram
End of Problem

Sample Size = 145

Nine Psychological Variables - A Confirmatory Factor Analysis

Correlation Matrix

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.318 1.000
LOZENGES 0.436 0.419 1.000
PAR COMP 0.335 0.234 0.323 1.000
SEN COMP 0.304 0.157 0.283 0.722 1.000
WORDMEAN 0.326 0.195 0.350 0.714 0.685 1.000
ADDITION 0.116 0.057 0.056 0.203 0.246 0.170 1.000
COUNTDOT 0.314 0.145 0.229 0.095 0.181 0.113 0.585 1.000
S-C CAPS 0.489 0.239 0.361 0.309 0.345 0.280 0.403 0.512 1.000

Nine Psychological Variables - A Confirmatory Factor Analysis

Number of Iterations = 8

LISREL Estimates (Maximum Likelihood)

Measurement Equations
VIS PERC = 0.708*Visual, Errorvar.= 0.498 , R² = 0.502
(0.0868) (0.0901)
8.163 5.533

CUBES = 0.483*Visual, Errorvar.= 0.767 , R² = 0.233


(0.0907) (0.101)
5.322 7.621

LOZENGES = 0.649*Visual, Errorvar.= 0.578 , R² = 0.422


(0.0874) (0.0911)
7.428 6.349

PAR COMP = 0.868*Verbal, Errorvar.= 0.247 , R² = 0.753


(0.0702) (0.0513)
12.372 4.806

SEN COMP = 0.830*Verbal, Errorvar.= 0.311 , R² = 0.689


(0.0715) (0.0537)
11.607 5.803

67
Continúa tabla 4.

WORDMEAN = 0.825*Verbal, Errorvar.= 0.319 , R² = 0.681


(0.0717) (0.0540)
11.515 5.908

ADDITION = 0.675*Speed, Errorvar.= 0.545 , R² = 0.455


(0.0889) (0.0936)
7.588 5.822

COUNTDOT = 0.867*Speed, Errorvar.= 0.248 , R² = 0.752


(0.0924) (0.116)
9.385 2.139

S-C CAPS = 0.459*Visual + 0.412*Speed, Errorvar.= 0.471 , R² = 0.529


(0.0890) (0.0887) (0.0730)
5.162 4.645 6.455

Correlation Matrix of Independent Variables

Visual Verbal Speed


-------- -------- --------
Visual 1.000

Verbal 0.558 1.000


(0.081)
6.885

Speed 0.392 0.219 1.000


(0.104) (0.096)
3.766 2.286

Goodness of Fit Statistics

Degrees of Freedom = 23
Minimum Fit Function Chi-Square = 28.862 (P = 0.185)
Normal Theory Weighted Least Squares Chi-Square = 28.674 (P = 0.191)
Estimated Non-centrality Parameter (NCP) = 5.674
90 Percent Confidence Interval for NCP = (0.0 ; 23.499)

Minimum Fit Function Value = 0.200


Population Discrepancy Function Value (F0) = 0.0394
90 Percent Confidence Interval for F0 = (0.0 ; 0.163)
Root Mean Square Error of Approximation (RMSEA) = 0.0414
90 Percent Confidence Interval for RMSEA = (0.0 ; 0.0842)
P-Value for Test of Close Fit (RMSEA < 0.05) = 0.583

Expected Cross-Validation Index (ECVI) = 0.505


90 Percent Confidence Interval for ECVI = (0.465 ; 0.628)
ECVI for Saturated Model = 0.625
ECVI for Independence Model = 4.691

Chi-Square for Independence Model with 36 Degrees of Freedom =


657.458
Independence AIC = 675.458
Model AIC = 72.674
Saturated AIC = 90.000
Independence CAIC = 711.249
Model CAIC = 160.162
Saturated CAIC = 268.953

68
Continúa tabla 4.

Normed Fit Index (NFI) = 0.956


Non-Normed Fit Index (NNFI) = 0.985
Parsimony Normed Fit Index (PNFI) = 0.611
Comparative Fit Index (CFI) = 0.991
Incremental Fit Index (IFI) = 0.991
Relative Fit Index (RFI) = 0.931

Critical N (CN) = 208.748

Root Mean Square Residual (RMR) = 0.0452


Standardized RMR = 0.0452
Goodness of Fit Index (GFI) = 0.958
Adjusted Goodness of Fit Index (AGFI) = 0.917
Parsimony Goodness of Fit Index (PGFI) = 0.489

Nine Psychological Variables - A Confirmatory Factor Analysis

Fitted Covariance Matrix

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.342 1.000
LOZENGES 0.460 0.314 1.000
PAR COMP 0.343 0.234 0.315 1.000
SEN COMP 0.328 0.224 0.301 0.720 1.000
WORDMEAN 0.326 0.222 0.299 0.716 0.685 1.000
ADDITION 0.187 0.128 0.172 0.128 0.123 0.122 1.000
COUNTDOT 0.241 0.164 0.221 0.165 0.158 0.157 0.585 1.000
S-C CAPS 0.440 0.300 0.403 0.301 0.288 0.286 0.399 0.513 1.000
Continúa tabla 11.

Fitted Residuals

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.024 0.000
LOZENGES -0.024 0.105 0.000
PAR COMP -0.008 0.000 0.008 0.000
SEN COMP -0.024 -0.067 -0.018 0.002 0.000
WORDMEAN 0.000 -0.027 0.051 -0.002 0.000 0.000
ADDITION -0.071 -0.071 -0.116 0.075 0.123 0.048 0.000
COUNTDOT 0.073 -0.019 0.008 -0.070 0.023 -0.044 0.000 0.000
S-C CAPS 0.049 -0.061 -0.042 0.008 0.057 -0.006 0.004 -0.001 0.000

Summary Statistics for Fitted Residuals

Smallest Fitted Residual = -0.116


Median Fitted Residual = 0.000
Largest Fitted Residual = 0.123

Stemleaf Plot
-10|6
- 8|
- 6|11071
- 4|42
- 2|7444
- 0|9886210000000000000
0|24888
2|3
4|8917
6|35

69
Continúa tabla 4

8|
10|5
12|3
Standardized Residuals

VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC --
CUBES -0.676 --
LOZENGES -1.074 2.484 --
PAR COMP -0.200 0.000 0.180 --
SEN COMP -0.536 -1.116 -0.361 0.315 --
WORDMEAN -0.005 -0.457 1.021 -0.364 0.049 --
ADDITION -1.278 -1.021 -1.931 1.315 2.075 0.805 --
COUNTDOT 1.832 -0.307 0.177 -1.950 0.562 -1.029 -- --
S-C CAPS 1.952 -1.341 -1.343 0.180 1.174 -0.121 1.591 -1.593 --

Summary Statistics for Standardized Residuals

Smallest Standardized Residual = -1.950


Median Standardized Residual = 0.000
Largest Standardized Residual = 2.484

Stemleaf Plot

- 1|996
- 1|3331100
- 0|755
- 0|443210000000000000
0|2223
0|68
1|023
1|68
2|01
2|5

Time used: 0.050 Seconds


_____________________________________________________________
Fuente: Elaboración propia

Notar que también puede modificarse exitosamente el AFC realizado en


EX5A.SPL si agrega una correlación entre COUNTDOT y ADDITION, de acuerdo con lo
sugerido por modification indices (EX5A.OUT), tal como muestra la figura 36. La
instrucción agregada es: Let COUNTDOT ADDITION correlate. Sólo se
muestra la sintaxis modificada del EX5A.SPL, (figura 35), la Tabla 5 con algunos
índices (que señalan ajuste), y la gráfica de trayectorias modificada EX5B.PTH archivo
figura 36).

70
Fuente: Elaboración propia

Figura 35. AFC modificado de EX5A.SPL (Let COUNTDOT


ADDITION correlate).

Tabla 5. Índices seleccionados de ajuste del AFC


_________________________________________
2
χ = 27. 97
df = 23
p value .21695
RMSEA =.039
GFI = .991
__________________________________________
Nota: buscarlos en el archivo EX5A.PTH
Fuente: Elaboración propia

71
Nota: Observar la flecha curva agregada que conecta a COUNTDOT y ADDITION.
Fuente: Elaboración propia.

Figura 36. Archivo EX5A.PTH. AFC modificado (gráfica de trayectorias).

En resumen, el AFC ha sido realizado exitosamente mediante las modificaciones


sugeridas por modification indices, y es posible la realización de la ECUACION
ESTRUCTURAL en un paso siguiente. En otras palabras, las variables latentes son
validamente medidas por sus respectivas variables observadas (indicadores o reactivos).

Es posible que en otro caso se requiera llevar a cabo más de una


modificación, dependiendo del las sugerencias de modification,
indices y la teoría.

FIN DEL EJERCICIO 5.3

5.4 Ejemplo de Ecuación Estructural.

Como ya se mencionó, el MES se realiza mediante la combinación de la


técnica AFC y el análisis de trayectorias (modelo estructural). Las trayectorias parten de
las relaciones hipotéticas entre las variables latentes.

El ejemplo usado en esta sección es otro diferente al usado en el ejemplo 5.3, se


lleva a cabo al escribir directamente en la pantalla de la computadora: el título del
estudio (Educational Achievement Structural Equation Inicial Model); las nueve

72
variables observadas (EdAsp OcAsp VerbAch QuantAch FamInc FaEd MoEd
VerbAb QuantAb); la matriz de covarianzas; el tamaño de la muestra (200); las 4
variables latentes (ASPIRE ACHIEVE HOME ABILITY); las relaciones entre las
variables latentes y las variables observadas); y las instrucciones de Print
Residuals, Path Diagram y End of problem. El modelo hipotético se presenta en la
figura 37. Notar que a diferencia del AFC, las variables latentes se conectan con flechas
rectas.

Fuente: Notas del Curso MES de Schumacker.

Figura 37. Modelo hipotético del ejemplo de modelamiento estructural.

Cabe mencionar que este ejemplo no se esta tomando de la carpeta de ejemplos


de LISREL, no muestra como se realizó la preparación de datos con PRELIS y tampoco
muestra como se realizó el AFC con SIMPLIS. En este ejemplo es posible realizar el
análisis sólo anotando los datos directamente en la pantalla de LISREL.

Los pasos a seguir son:

5.4.1 Abrir LISREL (Figura 38)

73
Fuente: Elaboración propia

Figura 38. Abrir LISREL

5.4.2. Oprimir New (figura 39)

Fuente: Elaboración propia

Figura 39. New

5.4.3 Oprimir SIMPLIS Project y Aceptar (figura 40).

74
Fuente: Elaboración propia

Figura 40. Oprimir SIMPLIS project y aceptar

5.4.4. Nombrar (escribir “Educational Achievement Structural Equation Initial


Model”) y Guardar (figura 41). Se puede guardar en cualquier carpeta de
su elección, en el ejemplo se esta guardando en “SPLEX”.

Fuente: Elaboración propia

Figura 41. Nombrar y Guardar.

5.4.5. Escribir datos en pantalla: anotar el título y demás datos (figura 42).

75
Nota 1: La anotación 1* indica que los parámetros han sido fijados a 1, para que así sean la variable
observada de referencia de la variable latente.
Nota 2: Hay 24 parámetros libres a estimarse. El modelo esta sobreidentificado ya que p(p + 1)/ 2 =
9(9 + 1) / 2 = 45, y los grados de libertad son 21 (45 menos 24).
_____________________________________________________________________________
Fuente: Elaboración propia
Figura 42. Escribir datos en pantalla

5.4.6. Correr LISREL.


Se oprime el botón L que está en el menú.

Si al correr el reporte aparece la ventana “The model does not


converge” significa que existe un error de captura en la
información. ¡Verifique que todos los datos sean correctos!

Los resultados son la gráfica de trayectorias (figura 43) denominada como


archivo “Educational Achievement Stuctural Equation Initial Model.PTH”, los
resultados (tabla 6) y los índices de ajuste (tabla 7) denominados por el archivo
“Educational Achievement Stuctural Equation Initial Model.OUT”

76
Fuente: Elaboración propia

Figura 43. Gráfica de trayectorias (archivo .PTH).

Tabla 6. Resultados de la ecuación estructural (archivo con extensión OUT)


_____________________________________________________________________
DATE: 4/17/2009
TIME: 14:24

L I S R E L 8.54

BY

Karl G. Jöreskog & Dag Sörbom

This program is published exclusively by


Scientific Software International, Inc.
7383 N. Lincoln Avenue, Suite 100
Lincolnwood, IL 60712, U.S.A.
Phone: (800)247-6113, (847)675-0720, Fax: (847)675-2140
Copyright by Scientific Software International, Inc., 1981-2002
Use of this program is subject to the terms specified in the
Universal Copyright Convention.
Website: www.ssicentral.com

The following lines were read from file C:\Documents and


Settings\L00622308\Mis documentos\Educational Achievement Structural
Equation Initial Model.spj:

Educational Achievement Structural Equation Initial Model

77
Continúa tabla 6

Observed variables: EdAsp OcAsp VerbAch QuantAch FamInc FaEd


MoEd VerbAb QuantAb
Covariance matrix:
1.024
.792 1.077
1.027 .919 1.844
.756 .697 1.244 1.286
.567 .537 .876 .632 .852
.445 .424 .677 .526 .518 .670
.434 .389 .635 .498 .475 .545 .716
.580 .564 .893 .716 .546 .422 .373 .851
.491 .499 .888 .646 .508 .389 .339 .629 .871
Sample size: 200
Latent variables: ASPIRE ACHIEVE HOME ABILITY
Relationships:
EdAsp = 1*ASPIRE
OcAsp = ASPIRE
VerbAch = 1*ACHIEVE
QuantAch = ACHIEVE
FamInc = 1*HOME
FaEd MoEd = HOME
VerbAb = 1*ABILITY
QuantAb = ABILITY
ASPIRE = HOME ABILITY
ACHIEVE = ASPIRE HOME ABILITY
Print Residuals
Path Diagram
End of problem

Sample Size = 200

Educational Achievement Structural Equation Initial Model

Covariance Matrix
EdAsp OcAsp VerbAch QuantAch FamInc FaEd
-------- -------- -------- -------- -------- --------
EdAsp 1.02
OcAsp 0.79 1.08
VerbAch 1.03 0.92 1.84
QuantAch 0.76 0.70 1.24 1.29
FamInc 0.57 0.54 0.88 0.63 0.85
FaEd 0.45 0.42 0.68 0.53 0.52 0.67
MoEd 0.43 0.39 0.64 0.50 0.47 0.55
VerbAb 0.58 0.56 0.89 0.72 0.55 0.42
QuantAb 0.49 0.50 0.89 0.65 0.51 0.39

Covariance Matrix

MoEd VerbAb QuantAb


-------- -------- --------
MoEd 0.72
VerbAb 0.37 0.85
QuantAb 0.34 0.63 0.87

Educational Achievement Structural Equation Initial Model

Number of Iterations = 10

LISREL Estimates (Maximum Likelihood)

78
Continúa tabla 6

Measurement Equations

EdAsp = 1.00*ASPIRE, Errorvar.= 0.16 , R² = 0.84


(0.042)
3.84

OcAsp = 0.92*ASPIRE, Errorvar.= 0.35 , R² = 0.67


(0.064) (0.048)
14.31 7.35

VerbAch = 1.00*ACHIEVE, Errorvar.= 0.20 , R² = 0.89


(0.051)
4.02

QuantAch = 0.76*ACHIEVE, Errorvar.= 0.34 , R² = 0.73


(0.042) (0.044)
18.16 7.85

FamInc = 1.00*HOME, Errorvar.= 0.32 , R² = 0.62


(0.040)
8.09

FaEd = 1.01*HOME, Errorvar.= 0.13 , R² = 0.81


(0.074) (0.025)
13.69 5.29

MoEd = 0.96*HOME, Errorvar.= 0.22 , R² = 0.69


(0.076) (0.030)
12.68 7.38

VerbAb = 1.00*ABILITY, Errorvar.= 0.19 , R² = 0.78


(0.035)
5.31

QuantAb = 0.95*ABILITY, Errorvar.= 0.27 , R² = 0.69


(0.068) (0.038)
13.98 7.13

Structural Equations

ASPIRE = 0.41*HOME + 0.59*ABILITY, Errorvar.= 0.33 , R² = 0.61


(0.13) (0.12) (0.058)
3.27 5.07 5.77

ACHIEVE = 0.55*ASPIRE + 0.24*HOME + 0.75*ABILITY, Errorvar.= 0.22 ,


R² = 0.86
(0.11) (0.13) (0.14) (0.058)
4.85 1.90 5.29 3.90

Reduced Form Equations


ASPIRE = 0.41*HOME + 0.59*ABILITY, Errorvar.= 0.33, R² = 0.61
(0.13) (0.12)
3.27 5.07

ACHIEVE = 0.47*HOME + 1.07*ABILITY, Errorvar.= 0.33, R² = 0.80


(0.14) (0.14)
3.25 7.67

79
Continúa tabla 6

Covariance Matrix of Independent Variables

HOME ABILITY
-------- --------
HOME 0.53
(0.08)
6.45

ABILITY 0.43 0.66


(0.06) (0.09)
6.86 7.50

Covariance Matrix of Latent Variables

ASPIRE ACHIEVE HOME ABILITY


-------- -------- -------- --------
ASPIRE 0.86
ACHIEVE 1.01 1.64
HOME 0.47 0.71 0.53
ABILITY 0.57 0.91 0.43 0.66

Goodness of Fit Statistics

Degrees of Freedom = 21
Minimum Fit Function Chi-Square = 57.17 (P = 0.00)
Normal Theory Weighted Least Squares Chi-Square = 58.85 (P =
0.00)
Estimated Non-centrality Parameter (NCP) = 37.85
90 Percent Confidence Interval for NCP = (18.69 ; 64.65)

Minimum Fit Function Value = 0.29


Population Discrepancy Function Value (F0) = 0.19
90 Percent Confidence Interval for F0 = (0.094 ; 0.32)
Root Mean Square Error of Approximation (RMSEA) = 0.095
90 Percent Confidence Interval for RMSEA = (0.067 ; 0.12)
P-Value for Test of Close Fit (RMSEA < 0.05) = 0.0059
Expected Cross-Validation Index (ECVI) = 0.54
90 Percent Confidence Interval for ECVI = (0.44 ; 0.67)
ECVI for Saturated Model = 0.45
ECVI for Independence Model = 13.72

Chi-Square for Independence Model with 36 Degrees of Freedom =


2712.06

Independence AIC = 2730.06


Model AIC = 106.85
Saturated AIC = 90.00
Independence CAIC = 2768.74
Model CAIC = 210.01
Saturated CAIC = 283.42

Normed Fit Index (NFI) = 0.98


Non-Normed Fit Index (NNFI) = 0.98
Parsimony Normed Fit Index (PNFI) = 0.57
Comparative Fit Index (CFI) = 0.99
Incremental Fit Index (IFI) = 0.99
Relative Fit Index (RFI) = 0.96

80
Continúa tabla 6

Critical N (CN) = 136.52

Root Mean Square Residual (RMR) = 0.047


Standardized RMR = 0.048
Goodness of Fit Index (GFI) = 0.94
Adjusted Goodness of Fit Index (AGFI) = 0.87
Parsimony Goodness of Fit Index (PGFI) = 0.44

Educational Achievement Structural Equation Initial Model

Fitted Covariance Matrix

EdAsp OcAsp VerbAch QuantAch FamInc FaEd


-------- -------- -------- -------- -------- --------
EdAsp 1.02
OcAsp 0.79 1.08
VerbAch 1.01 0.93 1.84
QuantAch 0.77 0.71 1.24 1.29
FamInc 0.47 0.43 0.71 0.54 0.85
FaEd 0.48 0.44 0.72 0.54 0.54 0.67
MoEd 0.46 0.42 0.69 0.52 0.51 0.52
VerbAb 0.57 0.52 0.91 0.69 0.43 0.43
QuantAb 0.54 0.49 0.87 0.66 0.41 0.41

Fitted Covariance Matrix

MoEd VerbAb QuantAb


-------- -------- --------
MoEd 0.72
VerbAb 0.42 0.85
QuantAb 0.39 0.63 0.87

Fitted Residuals

EdAsp OcAsp VerbAch QuantAch FamInc FaEd


-------- -------- -------- -------- -------- --------
EdAsp 0.00
OcAsp 0.00 0.00
VerbAch 0.01 -0.01 0.00
QuantAch -0.01 -0.01 0.00 0.00
FamInc 0.09 0.10 0.16 0.09 0.00
FaEd -0.03 -0.01 -0.04 -0.02 -0.02 0.00
MoEd -0.02 -0.03 -0.05 -0.02 -0.04 0.03
VerbAb 0.01 0.04 -0.02 0.02 0.11 -0.01
QuantAb -0.05 0.00 0.02 -0.01 0.10 -0.02

Fitted Residuals

MoEd VerbAb QuantAb


-------- -------- --------
MoEd 0.00
VerbAb -0.04 0.00
QuantAb -0.06 0.00 0.00

Summary Statistics for Fitted Residuals


Smallest Fitted Residual = -0.06
Median Fitted Residual = 0.00
Largest Fitted Residual = 0.16

81
Continúa tabla 6

Stemleaf Plot

- 4|51830
- 2|8193321
- 0|88433219000000000000
0|523
2|138
4|3
6|
8|249
10|44
12|
14|
16|4

Standardized Residuals
EdAsp OcAsp VerbAch QuantAch FamInc FaEd
-------- -------- -------- -------- -------- --------
EdAsp --
OcAsp -- --
VerbAch 1.42 -0.80 --
QuantAch -0.78 -0.36 -- --
FamInc 3.54 3.11 5.35 2.80 --
FaEd -2.25 -0.58 -2.63 -0.86 -2.81 --
MoEd -1.03 -1.03 -2.15 -0.84 -3.24 6.34
VerbAb 0.88 1.96 -2.28 1.31 4.59 -0.90
QuantAb -2.56 0.18 1.82 -0.57 3.47 -1.29

Standardized Residuals

MoEd VerbAb QuantAb


-------- -------- --------
MoEd - -
VerbAb -2.14 - -
QuantAb -2.37 - - - -

Summary Statistics for Standardized Residuals


Smallest Standardized Residual = -3.24
Median Standardized Residual = 0.00
Largest Standardized Residual = 6.34
Stemleaf Plot
- 3|2
- 2|86643221
- 1|300
- 0|99888664000000000000
0|29
1|348
2|08
3|155
4|6
5|4
6|3
Largest Negative Standardized Residuals
Residual for FaEd and VerbAch -2.63
Residual for FaEd and FamInc -2.81
Residual for MoEd and FamInc -3.24
Largest Positive Standardized Residuals
Residual for FamInc and EdAsp 3.54
Residual for FamInc and OcAsp 3.11

82
Continúa tabla 6

Residual for FamInc and VerbAch 5.35


Residual for FamInc and QuantAch 2.80
Residual for MoEd and FaEd 6.34
Residual for VerbAb and FamInc 4.59
Residual for QuantAb and FamInc 3.47

The Modification Indices Suggest to Add the


Path to from Decrease in Chi-Square New Estimate
FamInc ABILITY 35.5 0.62
MoEd ABILITY 9.8 -0.30

The Modification Indices Suggest to Add an Error Covariance


Between and Decrease in Chi-Square New Estimate
FaEd FamInc 7.9 -0.09
MoEd FamInc 10.5 -0.10
MoEd FaEd 40.2 0.21
Time used: 0.070 Seconds
__________________________________________________________________
Fuente: Elaboración propia

Algunos índices de ajuste seleccionados señalan que no hay ajuste y que se


requiere modificación de la ecuación estructural (tabla 7).

Tabla 7. Índices seleccionados de ajuste de la ecuación estructural.


_________________________________________
2
χ = 58. 85
df = 21
p value .00002
RMSEA =.095
GFI = .94
__________________________________________
Nota: buscarlos en el archivo Educational Achievement Structural
Equation Initial Model..PTH
Fuente: Elaboración propia

Por otro lado, los índices de modificación (tabla 8) que aparecen en el archivo
con extensión OUT sugieren que se incluya una trayectoria de FamInc a ABILITY, a
fin de reducir la Ji cuadrada en 35.5 puntos y/o correlacionar MoEd y FaEd para así
reducir la Ji cuadrada en 40.2 puntos.

Tabla 8. Índices de modificación sugeridos para la ecuación estructural.


______________________________________________________________
The Modification Indices Suggest to Add the
Path to from Decrease in Chi-Square New Estimate
FamInc ABILITY 35.5 0.62
MoEd ABILITY 9.8 -0.30

The Modification Indices Suggest to Add an Error Covariance


Between and Decrease in Chi-Square New Estimate
FaEd FamInc 7.9 -0.09
MoEd FamInc 10.5 -0.10
MoEd FaEd 40.2 0.21
________________________________________________________________
Fuente: Elaboración propia

83
Debido a que la reducción de Ji cuadrada de 40.2 es la mayor, y teóricamente es
posible, se procede a modificar el modelo mediante el parámetro de correlación entre
MoEd y FaEd (ver figura 44).

Nota: Se ha incluido una flecha curva que correlaciona FaEd y MoED


Fuente: Notas del Curso MES de Schumacker.

Figura 44. Modelo hipotético modificado del ejemplo de modelamiento estructural.

De acuerdo con la figura 45 se incluye la instrucción Let the error covariances


of FaEd and MoEd correlate en SIMPLIS.

84
Fuente: Elaboración propia

Figura 45. Ecuación estructural modificada en SIMPLIS.

Se oprime el botón L que está en el menú.

Los resultados del modelamiento de ecuación estructural se presentan en la


gráfica de trayectorias (figura 46), la tabla de resultados (tabla 9), y la tabla de índices de
ajuste seleccionados ( tabla 10). Los resultados muestran que los datos se ajustan al
modelo teórico, en otras palabras, que el modelo teórico es confirmado.

85
Fuente: Elaboración propia

Figura 46. Gráfica modificada de trayectorias del MES

En la tabla 9 se muestran la matriz de covarianzas, las ecuaciones de medición, y


los índices de ajuste.

Tabla 9. Resultados del MES modificado.


_________________________________________________________________
DATE: 4/17/2009
TIME: 15:33

L I S R E L 8.54

BY

Karl G. Jöreskog & Dag Sörbom

This program is published exclusively by


Scientific Software International, Inc.
7383 N. Lincoln Avenue, Suite 100
Lincolnwood, IL 60712, U.S.A.
Phone: (800)247-6113, (847)675-0720, Fax: (847)675-2140
Copyright by Scientific Software International, Inc., 1981-2002
Use of this program is subject to the terms specified in the
Universal Copyright Convention.
Website: www.ssicentral.com

The following lines were read from file C:\Documents and


Settings\L00622308\Mis documentos\Modified Educational Achievement
Structural Equation Initial Model.spj:

86
Continúa tabla 9.

Modified Educational Achievement Example Model 2 Respecified


Observed variables: EdAsp OcAsp VerbAch QuantAch FamInc FaEd
MoEd VerbAb QuantAb
Covariance matrix:
1.024
.792 1.077
1.027 .919 1.844
.756 .697 1.244 1.286
.567 .537 .876 .632 .852
.445 .424 .677 .526 .518 .670
.434 .389 .635 .498 .475 .545 .716
.580 .564 .893 .716 .546 .422 .373 .851
.491 .499 .888 .646 .508 .389 .339 .629 .871
Sample size: 200
Latent variables: ASPIRE ACHIEVE HOME ABILITY
Relationships:
EdAsp = 1*ASPIRE
OcAsp = ASPIRE
VerbAch = 1*ACHIEVE
QuantAch = ACHIEVE
FamInc = 1*HOME
FaEd MoEd = HOME
VerbAb = 1*ABILITY
QuantAb = ABILITY
ASPIRE = HOME ABILITY
ACHIEVE = ASPIRE HOME ABILITY
Let the error covariances of FaEd and MoEd correlate
Path Diagram
End of problem

Sample Size = 200

Modified Educational Achievement Example Model 2 Respecified

Covariance Matrix

EdAsp OcAsp VerbAch QuantAch FamInc FaEd


----- ------ -------- -------- -------- --------
EdAsp 1.02
OcAsp 0.79 1.08
VerbAch 1.03 0.92 1.84
QuantAch 0.76 0.70 1.24 1.29
FamInc 0.57 0.54 0.88 0.63 0.85
FaEd 0.45 0.42 0.68 0.53 0.52 0.67
MoEd 0.43 0.39 0.64 0.50 0.47 0.55
VerbAb 0.58 0.56 0.89 0.72 0.55 0.42
QuantAb 0.49 0.50 0.89 0.65 0.51 0.39

Covariance Matrix

MoEd VerbAb QuantAb


-------- -------- --------
MoEd 0.72
VerbAb 0.37 0.85
QuantAb 0.34 0.63 0.87

Modified Educational Achievement Example Model 2 Respecified

Number of Iterations = 9

87
Continúa tabla 9.

LISREL Estimates (Maximum Likelihood)

Measurement Equations

EdAsp = 1.00*ASPIRE, Errorvar.= 0.16 , R² = 0.84


(0.041)
3.88

OcAsp = 0.92*ASPIRE, Errorvar.= 0.35 , R² = 0.67


(0.064) (0.048)
14.34 7.36

VerbAch = 1.00*ACHIEVE, Errorvar.= 0.19 , R² = 0.90


(0.051)
3.81

QuantAch = 0.75*ACHIEVE, Errorvar.= 0.35 , R² = 0.73


(0.042) (0.044)
18.13 7.95

FamInc = 1.00*HOME, Errorvar.= 0.19 , R² = 0.78


(0.040)
4.74

FaEd = 0.78*HOME, Errorvar.= 0.27 , R² = 0.60


(0.064) (0.035)
12.18 7.66

MoEd = 0.72*HOME, Errorvar.= 0.37 , R² = 0.48


(0.069) (0.044)
10.37 8.50

VerbAb = 1.00*ABILITY, Errorvar.= 0.19 , R² = 0.78


(0.035)
5.41

QuantAb = 0.95*ABILITY, Errorvar.= 0.27 , R² = 0.69


(0.067) (0.038)
14.10 7.20

Error Covariance for MoEd and FaEd = 0.17


(0.033)
5.28

Structural Equations

ASPIRE = 0.51*HOME + 0.45*ABILITY, Errorvar.= 0.32 , R² = 0.63


(0.15) (0.15) (0.057)
3.29 2.96 5.61

ACHIEVE = 0.53*ASPIRE + 0.30*HOME + 0.69*ABILITY, Errorvar.= 0.23 ,


R² = 0.86
(0.12) (0.16) (0.16) (0.057)
4.56 1.87 4.27 3.97

Reduced Form Equations

88
Continúa tabla 9.

ASPIRE = 0.51*HOME + 0.45*ABILITY, Errorvar.= 0.32, R² = 0.63


(0.15) (0.15)
3.29 2.96

ACHIEVE = 0.57*HOME + 0.92*ABILITY, Errorvar.= 0.32, R² = 0.81


(0.17) (0.18)
3.26 5.20

Covariance Matrix of Independent Variables

HOME ABILITY
-------- --------
HOME 0.66
(0.09)
7.32

ABILITY 0.54 0.66


(0.07) (0.09)
7.64 7.51

Covariance Matrix of Latent Variables

ASPIRE ACHIEVE HOME ABILITY


-------- -------- -------- --------
ASPIRE 0.86
ACHIEVE 1.02 1.65
HOME 0.57 0.87 0.66
ABILITY 0.57 0.91 0.54 0.66

Goodness of Fit Statistics

Degrees of Freedom = 20
Minimum Fit Function Chi-Square = 19.17 (P = 0.51)
Normal Theory Weighted Least Squares Chi-Square = 18.60 (P =
0.55)
Estimated Non-centrality Parameter (NCP) = 0.0
90 Percent Confidence Interval for NCP = (0.0 ; 12.67)

Minimum Fit Function Value = 0.096


Population Discrepancy Function Value (F0) = 0.0
90 Percent Confidence Interval for F0 = (0.0 ; 0.064)
Root Mean Square Error of Approximation (RMSEA) = 0.0
90 Percent Confidence Interval for RMSEA = (0.0 ; 0.056)
P-Value for Test of Close Fit (RMSEA < 0.05) = 0.91

Expected Cross-Validation Index (ECVI) = 0.35


90 Percent Confidence Interval for ECVI = (0.35 ; 0.42)
ECVI for Saturated Model = 0.45
ECVI for Independence Model = 13.72

Chi-Square for Independence Model with 36 Degrees of Freedom =


2712.06
Independence AIC = 2730.06
Model AIC = 68.60
Saturated AIC = 90.00
Independence CAIC = 2768.74
Model CAIC = 176.05

89
Continúa tabla 9.

Saturated CAIC = 283.42

Normed Fit Index (NFI) = 0.99


Non-Normed Fit Index (NNFI) = 1.00
Parsimony Normed Fit Index (PNFI) = 0.55
Comparative Fit Index (CFI) = 1.00
Incremental Fit Index (IFI) = 1.00
Relative Fit Index (RFI) = 0.99

Critical N (CN) = 391.00

Root Mean Square Residual (RMR) = 0.015


Standardized RMR = 0.015
Goodness of Fit Index (GFI) = 0.98
Adjusted Goodness of Fit Index (AGFI) = 0.95
Parsimony Goodness of Fit Index (PGFI) = 0.44

The Modification Indices Suggest to Add an Error Covariance


Between and Decrease in Chi-Square New Estimate
VerbAb VerbAch 8.4 -0.09

Time used: 0.060 Seconds


_________________________________________________________________
Fuente: Elaboración propia

Finalmente, la tabla 10 presenta índices seleccionados que apoyan el ajuste de los


datos con el modelo hipotético. ¡ el modelo ha sido validado!

Tabla 10. Índices seleccionados de ajuste del MES.


_________________________________________
2
χ = 18.60
df = 20
p value .55
RMSEA =.00
GFI = .98
__________________________________________
Nota: buscarlos en el archivo Modified Educational Achievement Structural
Equation Initial Model..PTH
Fuente: Elaboración propia

Ha terminado el análisis SEM mediante el uso de SIMPLIS que es la opción


sencilla de LISREL. La versión LISREL para estudiantes también tiene carpetas con más
ejemplos que el lector puede realizar por cuenta propia y con la ayuda del libro “A
Beginner´s Guide to Structural Equation Modeling” publicado en el 2004 por Randall E.
Schumacker y Richard G. Lomax.

FIN DEL EJERCICIO 5.4

90
5.5. Problemas comunes al correr LISREL.

Son cuatro los problemas comunes a los que nos enfrentamos al realizar el MES:
La carencia de una teoría o hipótesis fundamentadas; la introducción errónea de texto
(p.e. una minúscula por una mayúscula) que resulta en “model does not converge”; la
omisión de comandos o el uso de comandos incorrectos; y multicolinealidad que impide
el cálculo de la matriz inversa y que se reporta como “Matrix to be analayzed is not
positive definitive”.

Por estas causas, es conveniente partir de una teoría bien fundamentada antes de
inciar el análisis con LISREL, y verificar que la introducción de datos, texto y comandos
se correcta.

Ahora resta que el lector proceda pacientemente a aplicar el MES mediante


LISREL a su base de datos. Tener el cuenta que es usual que el modelo no ajuste en el
primer intento, y que probablemente se requerirán modificaciones del modelo de acuerdo
con los índices de modificación sugeridos y con supuestos teóricos.

En el caso de no encontrar o haber descargado los archivos de ejercicios LISREL,


es posible consultar y pedírselos a los autores a la cuenta de correo electrónica
hermanlittlewood@yahoo.com.mx

91
Referencias

Anderson, C. & Gerbing, D. W. (1988). Structural equation modeling in practice: A


review and recommended two-step approach. Psychological Bulletin 103 (3),
411-423.

Anónimo (s/f). SEM introduction. Recuperado el 15 de abril del 2009 de


http://www.cob.unt.edu/slides/Paswan/BUSI6280/SEM1_Intro.pdf

Bollen, Kenneth A. (1989). Structural equations with latent variables. NY: Wiley. A
leading, readable text on structural modeling.

Carmines, E. G. and McIver, J.P. (1981). Analyzing models with unobserved variables:
Analysis of covariance structures. Pp. 65-115 in George W. Bohmstedt and
Edward F. Borgatta, eds., Social Measurement. Thousand Oaks, CA: Sage
Publications

Garson, D. (s/f). Structural Equation Modeling. Recuperado el 15 de abril del 2009 de


http://faculty.chass.ncsu.edu/garson/PA765/structur.htm .

Haavelmo, T. (1943).The statistical implications of a system of simultaneous equations.


Econometrica 11:1-2. Reprinted in D.F. Hendry and M.S. Morgan (Eds.), The
Foundations of Econometric Analysis, Cambridge University Press, 477-490.

Jaccard, J. and Choi K. W. (1996). LISREL approaches to interaction effects in multiple


regression. Thousand Oaks, CA: Sage Publications.

Jöreskog, K.G. (1970). A general method for the analysis of covariance structures.
Biometrika, 57, 239-251.

Jöreskog, K. G. & Sörbom, D. (1997). LISREL 8: A guide to the program and


applications. Chicago, IL: SPSS Inc

Kline, R. B. (1998). Principles and practice of structural equation modeling. NY:


Guilford Press.

Marcoulides, G.A. and Schumacker, R.E. (2001). New Developments and Techniques in
Structural Equation Modeling. London: Lawrence Eribaum Associates.

Mulaik, S. A. & Millsap, R. E. (2000). Doing the four-step right. Structural Equation
Modeling 7, 36-73

Raykov, T. (1998). Coefficient alpha and composite reliability with interrelated


nonhomogeneous items Applied Psychological Measurement, 22(4), 375-385

Schumacker, R. E. and Lomax, R. G. (2004). A beginner's guide to structural


equation modeling, Second edition. Mahwah, NJ: Lawrence Erlbaum Associates.

Schumaker, R..E. (2007). Structural Equation Modeling on-line course notes.

92
Simon, H. (1953). Causal ordering and identifiability, in Hood, W.C.; Koopmans, T.C.,
Studies in Econometric Method, New York: Wiley, pp. 49–74

Stevens, J, (1996), Applied multivariate statistics for the social science, New Jersey:
Lawrence Erlbaum Associates.

Thompson, B. (2000). Ten commandments of structural equation modeling. Pp. 261-


284 in L. Grimm & P. Yarnell, eds. Reading and understanding more
multivariate statistics. Washington, DC: American Psychological Association.

Wright, S. S. (1921). Correlation of causation. Journal of Agricultural Research, 20,


557–85.

93
Glosario.

Letras griegas del modelo de medición (observar figura 1):

Recordar que LISREL no requiere de estos símbolos.



i (xi subíndice i): Son las variables latentes exógenas, “Past relationship y Education”,
respectivamente.
xi (x subíndice i): Son los indicadores (variables observadas) de las variables exógenas
latentes. Hay tres para “Past relationship”. x1 es un reactivo de interacción, x2 un
reactivo de amor y x3 un reactivo de calidad percibida.
x (lambda subíndice x): Son las cargas de los indicadores xi en las variables latentes
exógenas. 11 es la carga de 1 a x1, 31 es la carga de 1 a x3. Son similares a cargas
factoriales. Notar que las flechas apuntan a los indicadores (reactivos). Una persona alta
en la variable latente debe también tener altos puntajes en los indicadores.
i (delta): Son errores de medición de los indicadores xi. Se consideran como varianza
aleatoria o varianza única. Es posible que estos errores correlacionen entre sí. LISREL
los coloca en una matriz llamada Los errores significan que las mediciones
observadas son imperfectas.
(phi): Es la matriz de varianza-covarianzas de las variable exógenas. 11 es la
varianza de 1 y 22 es la varianza de 2. 21 es la covarianza entre 1
and 2. Se muestra con una línea curva de doble punta. Aunque la covarianza se muestra,
la figura no muestra las varianzas.
1 (eta subíndice i): Son las variables latentes endógenas.
“stress at time 1 y stress at time 2”.
yi (y subíndice i): Son los indicadores de las variables latentes endógenas, 1 y 2. y1 es
un indicador de depresión, y2 es un indicador de estrés autoreportado, e y3 es un
indicador de frustración. y4, y5, y6 son los mismos indicadores, pero medidos en el
tiempo 2.
y (lambda subíndice y): Son las cargas de los indicadores yi en las variables endógenas
latentes. 11 es la carga de 1 a y1. 62 is la carga de 2 a y6. Esto es similar a cargas
factoriales. La diferencia con el análisis factorial convencional (exploratorio) es que los
indicadores sólo cargan en un factor específico, por ejemplo, x1 tiene una carga de cero
en 2. Esto se muestra con la ausencia de 12, ya que 12 = 0.
i (epsilon): Son los errores de medición de los indicadores yi. Se consideran como
varianza aleatoria o varianza única. Es posible que estos errores correlaciones entre sí.
Cuando la misma escala es usada en ambos puntos del tiempo, es de esperarse que los e
errores se correlacionen. LISREL coloca estos errores en la matriz .

Letras griegas del modelo estructural (observar figura 1):

(Xi): Variables latentes exógenas (1 “Past relationship” y 2 “Education”).


(Eta): Variables latentes endógenas (1 “stress at time one” y 2 “stress at time
two”).
(Gamma): Trayectorias estructurales, coeficientes de regresión o peso beta
estándarizado que va de una variable exógena a una variable endógena. En la figura 1
hay trayectorias que van de 1 a 1, 1 a 2, y 2 a 1. Son llamadas 11, 21, e 12.

94
Nota: el primer subíndice es consecuencia y el segundo es predictor, de tal manera que
’21’ significa de Xii 1 a Eta 2.
(Beta): Trayectorias estructurales, coeficientes de regresión o pesos betas
estándarizados que va de una variable endógena a otra variable endógena. Hay una
trayectoria que va de 1 a 2, y se le llama 21.
(Zeta): Estos son las varianzas no explicadas de una variable latente (1-R cuadrada).
Hay dos, 1 y 2. Notar que estos residuales pueden correlacionarse y se denominan
como 21.

Términos.

Análisis de Covarianza (ANCOVA). Es una técnica estadística que analiza la relación


entre una variable dependiente y dos o más independientes, eliminando y controlando el
efecto de al menos una de estas independientes.
Análisis Factorial Confirmatorio (AFC o CFA en inglés). Una variante del análisis
factorial que prueba propuestas teóricas acerca de la estructura de un conjunto de
mediciones.
Alfa de Cronbach o Cronbach´s alpha. Medida común de confiabilidad de un conjunto
de indicadores (reactivos). Los valores varían entre 0 y 1.0, donde valores altos indican
confiabilidad aceptable.
Correlación. Coeficiente que indica la fuerza y dirección de la relación entre dos
variables. Varía entre -1.00 y 1.00.
Confiabilidad. Se refiere al grado en que su aplicación repetida al mismo tiempo sujeto
y objeto produce iguales resultados. La confiabilidad de un instrumento de medición se
determina mediante diversas técnicas estadística.
Covarianza. Parámetro que indica el grado en que dos variables varían simultáneamente
o en conjunto. Una matriz de varianza- covarianza es una matriz simétrica con varianzas
en la diagonal y covarianzas fuera de la diagonal. La covarianza asymptótica es una
matriz de grandes muestras.
Error. Es una inconsistencia en las respuestas de una persona a una escala, es un
rompimiento con el patrón ideal de intensidad de la escala. Cuando el número de errores
es excesivo, la escala no presenta reproductividad y no puede aceptarse. La
reproductividad se determina mediante un coeficiente.
Estadística. Ciencia que se ocupa del estudio de fenómenos de tipo genérico,
normalmente complejos y enmarcados en un universo variable, mediante el empleo de
modelos de reducción de la información y de análisis de validación de los resultados en
términos de representatividad. La estadística aplicada a las ciencias sociales estudia el
comportamiento de una población mediante un estudio cuyo propósito es hacer
inferencias a partir de un subconjunto de datos, llamado muestra, tomados de ella.
Estadística Descriptiva. Se refiere a los métodos de recolección, descripción,
visualización y resumen de los datos que pueden ser presentados en forma numérica ò
gráfica. Es una rama de la estadística aplicada.
Estadística Inferencial. Se refiere a la generación de los modelos y predicciones
relacionadas con los fenómenos estudiados, teniendo en cuenta el aspecto aleatorio y la
incertidumbre en las observaciones. Extrapola los resultados obtenidos en el análisis de
los datos y a partir de ello predecir acerca de la población, con un margen de confianza
conocido. Se apoya fuertemente en el cálculo de probabilidades.
Estadística Paramétrica. Es la que requiere que los elementos que integran las muestras
contengan elementos parámetros o medibles.

95
Estadística No Paramétrica. Estudia las pruebas y modelos estadísticos cuya
distribución subyacente no se ajusta a los llamados criterios paramétricos. Su
distribución no puede ser definida a priori, pues son los datos observados los que la
determinan. La utilización de estos métodos se hace recomendable cuando no se puede
asumir que los datos se ajusten a una distribución normal o cuando el nivel de medida
empleado no sea, como mínimo, de intervalo.
Estimación máxima de verosimilitud o maximum likelihood estimation. Técnica
estadística usada para estimar simultáneamente todos los parámetros del modelo.
LISREL. Procedimiento y paquete de análisis de Linear Structural RELations de
conjuntos de variables latentes y observables, y de su estructura de covarianzas. Realiza
análisis factorial confirmatorio y análisis de trayectorias.
Modelamiento de ecuación estructural (MES o SEM en inglés). Técnica estadística
multivariada que combina el análisis factorial confirmatorio y el análisis estructural de
trayectorias.
Modelo anidado (nested). Modelo que usa los mismos constructos que otro modelo,
pero difiere en el número o tipos de relaciones causales. Cuando una trayectoria es
modificada, se dice que el modelo esta anidado en el modelo original.
Modelo de medición. Submodelo de modelamiento de ecuación estructural que
especifica indicadores por constructo y evalúa la confiabilidad y validez de los
constructos involucrados.
Modelo estructural. Conjunto de relaciones entre variables o constructos; establece una
secuencia o trayectoria presumiblemente causal entre variables independientes y
variables dependientes.
Multicolinealidad. Grado en el que una variable independiente varía con otras variables
independientes. Altos niveles de multicolinealidad afectan los supuestos estadísticos de
independencia de las variables.
Pearson correlation (correlación producto momento de Pearson). Calcula la relación
entre dos variables de tipo intervalar y que están normalmente distribuidas.
Polychoric correlation (correlación policórica). Calcula la relación entre dos variables de
tipo intervalar y que están normalmente distribuidas, pero que están agrupadas en dos
categories (correlación tetracórica) o en múltiples categorías ordenadas (correlación
policórica). Polyserial correlation (correlación poliserial).Calcula la relación entre una
variable de tipo intervalar y de distribución continua, y una variable discreta de dos valores
como ocurre con sexo (correlación point-biserial) o que tiene más de dos valores igualmente
espaciados (correlación point-polyserial).
PRELIS. Es un acrónimo de PRE-processor de LISREL y es útil para preparar bases de
datos y obtener las matrices de correlaciones y covarianzas necesarias pare el MES.
Regresión Múltiple. Es un método para analizar el efecto de dos o más variables
independientes sobre una dependiente. Es una extensión de la regresión lineal sólo que
con un mayor número de variables independientes. Sirve para predecir el valor de una
variable dependiente conociendo el valor y la influencia de las variables independientes
incluidas en el análisis.
SIMPLIS. Es un acrónimo de SIMPLe english para LISREL que contiene una sintaxis o
commandos simples necesarios para llevar a cabo aplicaciones LISREL en Windows.
Validez. Es el grado en que un instrumento refleja un dominio realmente mide la
variable que pretende medir. Ejemplo: un instrumento para medir inteligencia válido
debe medir inteligencia y no la memoria.
Validez de constructo. Tipo de validez que determina qué tanto un instrumento de
medición efectivamente mide un constructo teórico.

96
Variable observada o indicador. Valor observado que se usa para medir indirectamente
un constructo teórico o variable latente. Es una variable operacionalizada; un ejemplo es
un reactivo o conjunto de reactivos de un cuestionario.
Variable. Es una propiedad que puede variar y cuya variación es susceptible de medirse.
La variable se aplica a un grupo de personas u objetos, los cuales pueden adquirir
diversos valores respecto a la variable.
Variable dependiente. Es el efecto resultante de la manipulación de la variable
independiente. La variable dependiente no se manipula, sino que se mide para ver el
efecto de la variable independiente sobre ella.
Variable endógena. Constructo que es una consecuencia dependiente de una variable
exógena. En el diagrama de trayectorias, las flechas apuntan a variables endógenas que
se representan con un óvalo.
Variable exógena. Constructo que predice o antecede a una o más variables endógenas.
En el diagrama de trayectorias, la flecha parte de ella y sale de un óvalo.
Variable independiente. Es la que se considera como supuesta causa en una relación
entre variables; es una condición antecedente.
Variable latente. Constructo que no es directamente observable o medible, pero que
puede ser medido indirectamente mediante variables observables.

Término estadístico en español Término estadístico en inglès


Moda Mode
Mediana Median
Media Mean
Desviación estándar Standard deviation
Varianza Variance
Máximo Maximum
Mínimo Minimum
Rango Range

97

View publication stats

También podría gustarte