Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DE
ECUACIÓN ESTRUCTURAL
LISREL
SEGUNDA EDICIÓN
2014
PRÓLOGO……….…………………………………………………………… 6
Referencias……………………………………………………………………. 95
Glosario…………………………………………………...…………………… 98
Índice de tablas y figuras
El libro explica en los capítulos 1, 2 y 3 que es el modelamiento de ecuación estructural (MES) o Structural Equation
Modeling (SEM), que es un método cuantitativo que en la actualidad es utilizado por investigadores y consultores de
ciencias sociales y administración. El MES es una técnica estadística que permite al investigador poner a prueba modelos
teóricos que establecen relaciones, presumiblemente causales, entre variables latentes que se miden mediante variables
observadas o indicadores. Es común que los modelos consten de variables independientes, variables mediadoras que son
a la vez dependientes e independientes, y variables dependientes. El MES requiere de dos grandes pasos: a) el análisis
factorial confirmatorio (AFC) que valida el modelo de medición de las variables latentes (constructos) y b) la
comprobación de las trayectorias (parámetros) entre variables latentes.
En el capítulo 5 se explica y muestra gráficamente al lector como utilizar el programa SIMPLIS de LISREL que se
puede descargar gratuitamente de internet, necesario para: importar y adaptar bases de datos; realizar análisis factoriales
confirmatorios y llevar a cabo el modelamiento de la ecuación estructural.
El libro presenta en el capítulo 5 cuatro ejercicios prácticos y los lectores familiarizados con estadística descriptiva e
inferencial básica podrán realizar su primer modelamiento de ecuación estructural, e interpretar los resultados. Los
ejemplos usan bases de datos que se pueden acceder una vez que se descargó el paquete LISREL.
Debido a la constante actualización de los paquetes estadísticos, probablemente el lector encontrará diferencias entre
lo aquí presentado y el paquete descargado. Por tal motivo, los autores actualizaran el libro y darán explicaciones
detalladas en seminarios especializados.
Esta segunda edición considera la novena versión de LISREL, muy parecida a la octava version presentada en la
primera edición.
El primer autor del libro está certificado en el MES; es maestro de Psicología Industrial-Organizacional de The
University of Akron, E.U.A., Doctor en Ciencias de la Administración de la Escuela Superior de Comercio y
Administración del Instituto Politécnico Nacional, Doctor de la Facultad de Contaduría y Administración de la UNAM
y Doctor en Psicología de Universidad de las Américas; ha publicado investigaciones arbitradas relacionadas con el
MES en el país y en el extranjero; es árbitro de la Revista Interamericana de Psicología Ocupacional (Colombia), la
Academia de Ciencias Administrativas (ACACIA) y la Revista de Investigación Administrativa de la ESCA-IPN, y el
congreso de investigación de la Facultad de Contaduría, Administración e Informática de la UNAM; recibió el premio
nacional de psicología del trabajo en el 2003 y el reconocimiento del mejor trabajo de investigación ACACIA 2007, 2013
y 2014. Sus líneas de investigación se relacionan con renuncia psicológica o evitación del trabajo, rotación de personal,
desgaste ocupacional, clima organizacional, medición de actitudes y diseño de instrumentos de medición.
El autor tiene varias publicaciones que utilizan LISREL o AMOS, que pueden ser consultadas en internet y en la
sección de referencias de este libro.
La segunda autora se graduó como psicóloga organizacional de la Universidad de las Américas y Maestra en
Psicología del Trabajo, las Organizaciones y los Recursos Humanos de la Universidad de Valencia (España), ha publicado
y presentado artículos y ponencias arbitradas en congresos nacionales e internacionales. Cuenta con 10 años de
experiencia laboral en recursos humanos, administración del cambio y consultoría en empresas tales como: Deloitte,
ICTS Global, Planfía Autofinanciamiento Chrysler, Grupo Enrique e Intertécnica. En el 2002 recibió el premio nacional
de psicología del trabajo en la categoría jóvenes talentos. Sus líneas de investigación también se relacionan con renuncia
psicológica, rotación de personal, clima organizacional, medición de actitudes y diseño de instrumentos de medición.
La portada del libro presenta una figura de un modelamiento LISREL de una investigación sobre evitación del trabajo
o renuncia psicológica que puede consultarse en González Sánchez, I. Kertész, R., Romero González, R.E, García
Alvarez, C.M y Littlewood, H.F. (2008). Comportamiento Organizacional: Nuevos retos. Porrúa: México, D.F. ISBN:
978-970-819-053-4
CAPÍTULO I. INTRODUCCIÓN AL MODELAMIENTO DE ECUACIONES ESTRUCTURALES (MES).
El modelamiento de ecuación estructural (MES) es una técnica estadística para probar y estimar relaciones
presumiblemente causales que usan una combinación de datos estadísticos y suposiciones causales. El MES originalmente
fue articulado por el genetista Sewall Wright (1921), los economistas Trygve Haavelmo (1943) y Herbert Simon (1953), y
formalmente definido por Marcoulides y Schumaker (2001) y Schumacker y Lomax (2004)
El MES como lo conocemos en la actualidad es una derivación de las investigaciones realizadas por Karl Jöreskog
(1970). Jöreskog desarrolló un análisis de estructuras a partir de matrices de covarianzas mediante un modelo que denominó
LISREL. Esta representación propuesta tiene dos componentes: el de medición y el estructural. El componente de medición
refleja la relación entre las variables latentes (constructos o factores) e indicadores manifiestos (variables observadas), y se
le denomina análisis factorial confirmatorio. Por otro lado, el componente estructural refleja la relación entre variables
latentes.
El MES es un método estadístico que parte de la regresión múltiple, pero es más poderoso en cuanto al tratamiento
que le da a interacciones, relaciones no lineales, correlaciones entre variables independientes, error de medición, correlación
entre los términos de error, múltiples variables independientes medidas por varios indicadores, y la consideración de variables
independientes latentes medidas por varios indicadores. Es así que el MES es una alternativa robusta en comparación a la
regresión múltiple, análisis de trayectorias, series de tiempo y análisis de covarianzas en la validación de modelos hipotéticos.
El investigador inicia su estudio mediante la especificación de un modelo teórico que describe como se miden las
variables latentes y cómo se relacionan entre si dichas variables latentes. Las variables latentes son variables no observadas
directamente, tales como la satisfacción en el trabajo, justicia organizacional o compromiso organizacional; estas variables
son también denominadas “factores” y son estimadas o medidas con indicadores o variables observadas, como lo son los
reactivos de un cuestionario.
El primer paso consiste en llevar a cabo un análisis del modelo de medición (análisis factorial confirmatorio), que
consiste en verificar la validez de la medición de variables latentes mediante sus respectivos indicadores. El segundo gran
paso, consiste en especificar el modelo estructural, a fin de establecer como se relacionan entre si las variables latentes, de
manera similar como la regresión múltiple relaciona entre si a las variables independientes (VI) con la variable dependiente
(VD). Es común especificar el modelo mediante una gráfica como la mostrada en la figura 1.
Fuente: Anónimo (s/f). http://www.cob.unt.edu/slides/Paswan/BUSI6280/SEM1_Intro.pdf
Figura 1. Ejemplo de un diagrama MES
Las ventajas del MES son el uso el análisis factorial confirmatorio (AFC) para reducir el error de medición mediante
la consideración de varios indicadores por variable latente, el análisis de modelos completos que contemplan la interacción
de variables, la capacidad para estudiar simultáneamente más de una variable dependiente, la capacidad para analizar
variables mediadoras y manejar datos complejos como los que resultan de distribuciones no normales o bases incompletas.
Otras ventajas del MES son: no es necesario asumir medición perfecta de los indicadores, ya que es posible estimar
los términos de error o el componente de varianza única de cada indicador; los errores pueden estar correlacionados entre sí,
lo cual es importante para estudios longitudinales, por ejemplo la satisfacción en el trabajo en un momento puede
correlacionarse con la satisfacción en un momento posterior; y las varianzas residuales o la varianzas no explicadas (1- R
cuadrada) pueden correlacionar, lo cual también es importante en investigaciones de corte longitudinal o transversal.
Entre las ventajas del MES está la capacidad para modelar constructos como variables latentes (variables que no son
medidas directamente), que son estimadas en el modelo a partir de variables medidas (indicadores) que reflejan dichas
variables latentes. Esto permite al investigador estimar la confiabilidad de medida del modelo, lo que en teoría permite la
estimación de las relaciones estructurales entre las variables latentes. El análisis factorial, el análisis de trayectorias y la
regresión son casos especiales del MES.
El MES es parte de una familia de técnicas estadísticas que integra el análisis de trayectorias y el análisis factorial
mediante paquetes estadísticos como el LISREL o el AMOS. Por ejemplo, el MES en donde cada variable sólo tiene un
indicador es un caso de análisis de trayectorias (path analysis); el análisis factorial confirmatorio (AFC) permite analizar
varios constructos a la vez y sus respectivos indicadores, pero sin flechas que conectan entre si a las variables; y el modelo
híbrido es aquel que permite analizar el conjunto de indicadores por constructo (variable latente) y las trayectorias (flechas)
que conectan a los constructos entre si.
Los sinónimos de MES son análisis de covarianza estructural o modelamiento de covarianza estructural. Aunque
estos sinónimos señalan que el foco es el análisis de covarianza, el MES también puede analizar la matriz de correlaciones y
la estructura de medias de un modelo.
Hay varios paquetes estadísticos que realizan el MES, y el libro solamente considera el paquete LISREL No obstante,
el lector puede aplicar otro paquete como el EQS, el AMOS o el Mplus.
LISREL (Linear Structural Relations) de SSI Scientific Software, es tal vez el paquete más reportado en revistas
científicas. Es posible descargar gratis la versión de estudiante (LISREL88StudentSetup.exe) también de esta liga:
http://www.ssicentral.com/lisrel/downloads.html
El MES tiene cinco etapas, pero son dos las principales: validación del modelo de medición (etapa 2) y el ajuste del
modelo estructural (etapa 4), y esto se logra mediante el análisis factorial confirmatorio (CFA) y mediante el análisis de
trayectorias entre variables latentes, respectivamente.
En la descripción de las cinco etapas no se presentan análisis cuantitativos, sólo se explica en que consisten. En el
capítulo 3 se presentan y explican cuales son los índices o estadísticos usados por el MES, y en el capítulo 5 se realizan
ejercicios cuantitativos que demuestran cómo llevar los diferentes pasos del MES y cómo interpretar los resultados.
Parte de la revisión de la literatura y la formulación de un modelo teórico. Esto consiste en identificar variables
latentes (constructos) y especificar las relaciones entre las variables. Por ejemplo, un problema de investigación se plantea
como: ¿hay relación entre el Desempeño y la Satisfacción en el trabajo?. En la figura 2 las variables latentes se identifican
con óvalos y considera la posibilidad de que ambas variables pueden ser causa, según el sentido de ambas fechas. Pudiera
sólo haber una flecha, si la teoría así lo indica (por ejemplo, de Satisfacción a Desempeño, si se considera a la Satisfacción
como la causa).
Si el investigador piensa que hay otras variables que anteceden a estas dos, tales como “Motivación de logro”,
“Especificidad de la tarea” e “Inteligencia verbal”,
entonces modifica el diagrama así (figura 3). Estas tres son denominadas variables exógenas, y satisfacción en el trabajo y
desempeño son llamadas variables endógenas.
Fuente: Elaboración propia
Las flechas rectas indican una relación causal y las flechas curvas indican que las variables correlacionan entre sí (la
causa es la que está al principio de la flecha y el efecto está junto a la punta de la flecha).
La inclusión de una variable trivial da a lugar a “missespecification” o especificación incorrecta del modelo que
resulta en la pérdida de precisión de estimación y la reproducción inadecuada de covarianzas observadas (no habrá ajuste de
datos), y la exclusión de una variable relevante da a lugar a estimación incompleta o sesgada del parámetro
Entonces, las variables latentes son variables no observadas, constructos o factores que son medidos
indirectamente a través de sus respectivos indicadores o reactivos. En la figura 3 son “Motivación de logro”; “Especificidad
de la tarea”; “Inteligencia verbal”; “Satisfacción en el trabajo” y “Desempeño” y en la figura 1 “Past Relation”, “Education”,
“Time 1 Stress”, y “Time 2 Stress” son las variables latentes.
La variables latentes pueden ser independientes (exógenas) que están a la izquierda de la figura, mediadoras o
dependientes (endógenas) que aparecen a la derecha de la figura. Las variables exógenas son independientes y no tienen
alguna variable que la anteceda. Las variables exógenas son etiquetadas con la letra griega “ “ y las variables endógenas
son identificadas con la letra griega eta “”. Cabe mencionar que estos y otros símbolos que más adelante se presentan, no
son necesarios para correr el paquete LISREL
Las variables mediadoras pueden estar entre una variable exógena y una dependiente, o entre otras dos variables
endógenas. Estas reciben las fechas que provienen de las variables exógenas u otra variable endógena, las cuales denotan
una relación causal.
Generalmente se asume que las variables latentes correlacionan entre si y esto se representa con una flecha curva de
covarianza de doble punta, cómo entre “Motivación de logro”, “Especificidad de la tarea” e “Inteligencia verbal” (figura 5)
y cómo entre “Past Relation” y “Education” y entre “Time 1 Stress” y “Time 2 Stress” (figura 1), de acuerdo a un fundamento
teórico.
Hasta aquí llega la primer etapa; se ha establecido la relación entre variables (latentes y observadas) que se visualiza
mediante un diagrama de óvalos, rectángulos y flechas (rectas y curvas).
En este segundo paso, las variables latentes (no directamente observables) requieren que el modelo de medición se
especifique y se valide. El resultado es la redacción o selección de variables observadas (por ejemplo, reactivos) para cada
una de las variables latentes. En el ejemplo del modelo de Desempeño se mide Motivación de logro; Especificidad de la tarea;
e Inteligencia verbal, con dos indicadores cada uno (figura 3). En la figura 1 “Past Relation” tiene tres indicadores;
“Education” sólo uno, ya que años de educación sólo requiere de un reactivo para su medición; y “Time 1 Stress” y “Time
2 Stress” tienen 3 indicadores cada uno.
El modelo de medición de Desempeño contempla variables exógenas latentes (variables independientes) y variables
endógenas latentes (variables dependientes), lo que significa que hay dos modelos de medición, uno para las variables
exógenas y otro para las endógenas (ver figura 4). Ambos modelos de medición pueden agruparse y analizarse en conjunto,
pero a fin de simplificar el ejemplo, sólo se muestra el modelo exógeno.
Fuente: Elaboración propia
Figura 4. Modelo exógeno de medición.
Nótese que el modelo de medición de las variables endógenas se construye de la misma manera y que puede analizarse
junto con el otro modelo.
En este ejemplo (figura 4), los seis reactivos son las variables observadas o también llamadas variables manifiestas,
que en el caso de un cuestionario son los reactivos o items. También pueden denominárseles como indicadores. Aunque dos
indicadores pueden ser suficientes, tres reactivos como mínimo son recomendados para estimar la confiabilidad y la validez
del modelo; la especificación de la medición fija la varianza del error y la validez del instrumento. Es una convención que
los reactivos deben tener carga factoriales altas, por ejemplo .70 o más en su variable latente; los símbolos son la carga de
los indicadores en la variable correspondiente (figura 1).
Regresando a la figura 1, los indicadores son simbolizados con una “X” (X1 al X4) en el caso de las variables latentes
exógenas o una “Y” (Y1 al Y6) en el caso de las variables endógenas; cada indicador está conectado a su respectiva variable
latente mediante una flecha recta corta.
Los indicadores aparecen dentro de rectángulos y las variables latentes (Past Relation, Education, Time 1 Stress y
Time 2 Stress) dentro de óvalos. Las cuatro flechas rectas gruesas y largas sugieren que “Past Relation” y “Education” son
la causa de “Time 1 Stress”; y “Past Relation” y “Time 1 Stress” son causa de “Time 2 Stress”. La flecha curva con dos
puntas indica que “Past Relation” correlaciona con “Education” y “Time1 Stress” correlaciona con “Time 2 Strees”.
Como de explicó en la etapa 1, el proceso inicia con la formulación de una teoría o un modelo hipotético. Cada
variable o constructo es conceptualizado como una variable de tipo latente medida por varios indicadores. Es común que
varios indicadores sean seleccionados, mediante un análisis factorial exploratorio previo (common factor análisis o principal
axis factoring, por ejemplo), de una muestra de indicadores (reactivos); este análisis identifica las variables latentes y sus
indicadores correspondientes. Posteriormente se seleccionan tres, cuatro o cinco indicadores por variable latente y se
confirman con un Análisis Factorial Confirmatorio (AFC) en una muestra diferente de personas.
El AFC es el primer análisis y es necesario para determinar la validez de los indicadores en una segunda muestra.
Frecuentemente el AFC es referido como el “modelo nulo”. En este modelo, las covarianzas que aparecen en una matriz se
asumen igual a cero. En el AFC se pueden estimar uno o varios índices de ajuste (por ejemplo NFI, RFI, IFI, TLI o NNFI,
CFI, PNFI y PCFI, que son explicados en el capítulo 3). El AFC parte de un modelo nulo o una línea base contra el cual se
comparan los modelos default (modelos téoricos). Es posible tener cuatro opciones de modelos nulos, pero el primer modelo
es el que generalmente se usa; la elección de modelo nulo afecta el cálculo de los coeficientes de ajuste.
Modelo nulo 1: Las correlaciones entre las variables observadas se limitan a cero, y se establece que las variables
latentes también correlacionan cero entre sí. Las medias y varianzas de las variables medidas no se limitan. Este es el modelo
default línea base de “independencia” y es el modelo default de la mayoría de los casos.
Modelo nulo 2: La correlación entre las variables observadas son todas iguales, y las medias y varianzas de las
variables observadas no se limitan.
Modelo nulo 3: Las correlaciones de las variables observadas se limitan a cero. Las medias también son limitadas a
cero, pero las varianzas no se limitan. Esta opción 3 sólo aplica a modelos cuyas medias e interceptos son parámetros
explícitos del modelo.
Modelo nulo 4: Las correlaciones entre las variables observadas son todas iguales. Las medias se limitan a cero. Las
varianzas de las variables observadas no se limitan. Esta opción 4 sólo aplica a modelos cuyas medias e interceptos son
parámetros explícitos del modelo.
Este análisis se efectúa para confirmar que los indicadores se agrupan en su respectivos factores de acuerdo a la
teoría del investigador. El AFC es clave en el MES, puesto que evalúa el error de medición del modelo y valida los factores
involucrados.
Modelamiento de cuatro pasos. Mulaik y Millsap (2000) sugieren cuatro pasos más estrictos.
1. Análisis factorial común (exploratorio) para establecer la cantidad de variables latentes e indicadores.
2. AFC a fin de confirmar el modelo de medición. También puede limitarse las cargas factoriales a cero de las
variables medidas en otras variables latentes, para que cada variable medida cargue sólo en su variable latente.
3. Prueba del MES (etapa 4).
4. Probar modelos nested o anidados a fin de indentificar el mejor modelo (más parsimónico o simple).
Confiabilidad. Una vez realizado el análisis factorial confirmatorio y validado los constructos en una segunda
muestra, es necesario determinar el nivel de error de la medición de dichos constructos.
El coeficiente alpha de Cronbach es comúnmente usado para determinar que indicadores pertenecen a la misma
variable latente y el nivel de error de medición. Este coeficiente varía entre cero y 1, y generalmente se espera que los
indicadores tengan una confiabilidad de .70 o mayor. Puede haber conjuntos de indicadores con una confiabilidad inferior
a .70 y con índices aceptables de AFC superiores a .90. Esto puede ocurrir debido a una baja homogeneidad de varianza de
los reactivos o a la baja cantidad de reactivos por variable latente.
El coeficiente de rho de Raykov´s también pone a prueba la confiabilidad de un conjunto de reactivos. Raykov (1998)
ha demostrado que el coeficiente alpha de Cronbach puede subestimar o sobreestimar la confiabilidad de una escala. La
subestimación es común y este coeficiente es diferente al rho de Spearman.
Posteriormente, el investigador procede con el análisis, una vez que el modelo de medición ha sido validado. Uno o
dos modelos son comparados, uno puede ser el modelo nulo, en cuanto al ajuste con los datos empíricos que estima el grado
en el que las covarianzas predichas por un modelo corresponden a la varianzas observadas (datos). Los índices de
modificación u otros coeficientes pueden ser usados para cambiar y mejorar el modelo.
La factibilidad del Análisis Factorial Confirmatrio (AFC) y la estimación del modelo estructural (MES) depende de
información disponible y la complejidad del modelo. La factibilidad es denominada como identificación. Tanto en el AFC
como en el MES los parámetros estimados (flechas rectas que conectan de manera causal a las variables latentes, flechas
curvas que correlacionan a variables latentes, flechas rectas cortas que conectan a los indicadores con su variable latente y
flechas rectas cortas que determinan el error de medición de cada indicador) determinan la matriz de covarianzas.
Eso es, se especifican un conjunto de ecuaciones donde los parámetros son las incógnitas, y si las incógnitas pueden
resolverse de una sola o varias maneras, entonces se dice que el modelo es identificado; de otro modo, si no se pueden
resolver las ecuaciones, se dice que el modelo está subidentificado y no puede proseguir el AFC ni el MES.
a. Subidentificación: Uno o más de los parámetros no pueden resolverse con la matriz de covarianzas, puesto
que hay más incógnitas de parámetros que ecuaciones.
b. Apenas identificado: Cuando hay información apenas suficiente en la matriz de covarianzas (mismo
número de incógnitas y de ecuaciones).
c. Sobreidentificación: Hay dos o más maneras para estimar las incógnitas de parámetros (más ecuaciones
que incógnitas).
Una condición necesaria para identificación es que p(p+1)/2 sea igual o mayor a los parámetros (flechas rectas y
curvas) a estimar, dónde p es el número de variables observadas (indicadores).
En el ejemplo de variables exógenas de Desempeño (figura 4) tenemos sobreindentificación necesaria para correr
un AFC: (6*(6+1))/2 = 21: Se tienen 15 parámetros libres (flechas) a estimar y como 21 es mayor, se tienen 6 grados de
libertad (21-15 = 6).
En el ejemplo completo de la figura 1 tenemos también sobreidentificación necesaria para correr un MES: (9*(9-
1))/2 = 36. Se tienen 26 parámetros libres a estimar y cómo 36 es mayor, se tienen 10 grados de libertad.
Una solución contra la subidentificación, es la eliminación de uno o más parámetros del modelo.
Nótese que el AFC y el MES son similares, al diferencia estriba que en el MES si hay relaciones causales (flechas
rectas) entre variables latentes.
El lector debe advertir que el paquete LISREL se encarga de evaluar la identificabilidad y que no realizará el AFC
ni el MES si no hay suficientes grados de libertad.
Una vez que se ha validado el modelo de medición y estimado la confiabilidad, procede este gran paso. En esta
etapa se valida la relación propuesta entre las variable latentes, como se propone en la figura 3 del ejemplo de “Desempeño”
o en la figura 1 de “Stress”.
La validación se logra al comparar la correspondencia de los datos empíricos (que se obtienen a través de los
indicadores) con el modelo teórico. En otras palabras, se compara la matriz de covarianzas observadas (o la matriz de
correlaciones observadas) y la matriz de covarianzas teóricas (o la matriz de correlaciones teóricas); LISREL se encarga de
obtener las matrices de covarianzas y de hacer dicha comparación.
El modelo estructural (MES). Este modelo contiene las variables endógenas y exógenas, los efectos directos (flechas
rectas) que conectan variables, correlaciones entre las variables exógenas e indicadores y los términos de error de cada
variable de acuerdo a una propuesta teórica (como lo proponen los modelos de las figuras 3 y 1).
Las flechas que conectan las variables exógenas con las endógenas tienen la letra gamma y las flechas que conectan
las variables endógenas entre si usan la letra beta (coeficiente de regresión o peso beta estandarizado). El modelo
usualmente es el llamado modelo default y es fundamentado en teoría.
3.1 El modelo default. Este es el modelo de investigación, más parsimónico (simple) que el saturado y casi siempre
ajusta mejor que el independiente. Eso es, el modelo default tiene una bondad de ajuste que se encuentra entre la explicación
perfecta del modelo saturado y del modelo de independencia.
3.2 El modelo saturado. Este en un modelo trivial que contiene tantas estimaciones de parámetros como grados de
libertad. Ocurre cuando el modelo contiene todas las flechas posibles. La mayoría de las mediciones de ajuste tienen un valor
de 1.0 (muy bueno), pero debido a que este modelo no es parsimónico (simple), las mediciones de ajuste basados en
parsimonia tienen valores de cero (muy malo), y algunos índices como el RMSEA no pueden calcularse. Estos índices son
explicados en el capítulo 3.
3.3 El modelo de independencia. Este modelo asume que todas las relaciones entre variables son inexistentes, por
lo que asume que las correlaciones entre variables son cero. También puede considerársele como el modelo nulo como se
vió en el AFC. Mientras que el modelo saturado tiene una proporción cero de parsimonia, este modelo tiene una proporción
de parsimonia 1. La mayoría de los índices tienen un valor de cero, excepto RMSEA y GFI (explicados en el capítulo 3).
3.4 Modelos MIMIC: Estos modelos tiene indicadores múltiples y múltiples modelos de independencia. Esto
significa que las variables latentes tienen los acostumbrados indicadores múltiples que son causados por variables observadas
adicionales. Gráficamente, el modelo contiene las flechas acostumbradas que parten de las variables latentes a cada uno de
los indicadores y los indicadores tienen los términos de error. Adicionalmente, hay rectángulos que representan a las variables
observadas con flechas que van a las variables latentes y flechas de covarianza que los conecta ya que son variables exógenas.
El ajuste del modelo se interpreta de la misma manera, pero las variables causales observadas deben asumirse que se miden
sin error. Este libro no trata este tipo de modelos y se recomienda se consulte el libro de Schumacker y Lomax (2004 y
2010).
3.5 Comentarios adicionales sobre los pasos seguidos en la especificación del modelo, y términos comunes
asociados al MES.
Se recuerda que el primer gran paso es la especificación de las variables latentes y sus respectivas variables observadas
(ver figuras 3 y 1). El paso siguiente fue el AFC a que se efectúo para validar la correspondencia de los indicadores con sus
respectivas variables latentes. El investigador al establecer la relación secuencial entre las variables latentes mediante flechas,
está determinando que efectos son nulos, cuáles son fijados como una constante (usualmente 1) y cuáles pueden variar. Los
efectos variables corresponden a las flechas del modelo, mientras que los efectos nulos no tienen flecha. Esto comúnmente
se representa en un diagrama como el de la figura 6 y el de la figura 1, los cuales pueden considerarse como modelos
suficientemente parsimónicos porque tienen pocas flechas que conectan a las variables latentes.
Modelo parsimónico. En la especificación del modelo es necesario determinar si este es suficientemente parsimónico
o simple y para ello hay índices de ajuste que se explican en el capítulo 3. Un modelo en el que ningún efecto es limitado a
cero, es uno que se ajustará a los datos, aún cuando el modelo no tenga lógica. La adición de flechas generalmente aumenta
el ajuste, pero afectará la parsimonía. Nótese que la falta de parsimonía puede ocurrir en modelos que tienen pocas variables.
Hay tres maneras para reducir la complejidad del modelo: una consiste en borrar flechas rectas que van de una variable
latente a otra; otra, borrar efectos directos que van de variables latentes a indicadores; o la última, borrar flechas curvas
(flechas con doble punta) que representan correlaciones entre términos de error o correlaciones entre variables latentes. La
letra phi se utiliza para representar esta curva de doble punta.
Concluyendo, la recomendación para lograr una parsimonía aceptable es iniciar con un modelo simple y gradualmente
añadir nuevas variable latentes y flechas, de acuerdo a una teoría previamente desarrollada.
Métricos. Antes de correr el MES a cada variable latente debe asignársele una escala métrica y esto puede hacerse
mediante la limitación de una de las trayectorias a uno de sus indicadores a un valor de 1. Una vez limitada esta trayectoria,
las demás trayectorias se estiman. El indicador limitado a 1 es llamado “reactivo referente”.
Generalmente este indicador es el que tiene la mayor carga factorial con la variable latente. Esto se hace en el capítulo
de ejercicios.
Términos de error de medición. Error de medición es el factor de error asociado con un indicador dado. Tal error
es denominado por la letra delta i en el caso de indicadores de constructos latentes exógenos, o denominado epsilon i en
el caso de indicadores de constructos latentes endógenos (ver figura 1). Los modelos de regresión asumen que el error es
cero, pero en el MES los términos de error son explícitamente modelados. En el caso de variables latentes que sólo tienen un
indicador, cómo en el caso de sexo (o Educación de la figura 1), el término de error es limitado a cero.
En el caso de modelos de regresión y trayectorias, sólo es posible modelar variables observadas, y solamente la
variable dependiente de la regresión o las variables endógenas del modelo de trayectorias, tienen estimaciones de error. Las
variables independientes en la regresión y las variables exógenas en el modelo de trayectorias se asumen medidas sin error.
El modelo de trayectorias es similar al MES, ya que también usa óvalos y flechas. Es por estas razones que el MES se
considera superior a la regresión y a al modelo de trayectorias.
Términos de error estructural. Nótese que los términos de error antes mencionados no deben confundirse con los
términos de error estructural que son también llamados términos de error residual o términos de disturbio. Este error refleja
la varianza no explicada de las variables latentes endógenas debido a las causas no medidas. Se usa la letra griega zeta para
su identificación (1-R cuadrada).
Coeficientes estructurales o de trayectorias. Son los efectos de tamaño (size effect) y se presentan como valores
junto a las flechas del modelo que conectan a variables latentes entre sí. También se le denominan pesos de regresión
(coeficientes beta) y cabe mencionar que no hay intercepto.
La confiabilidad aceptable de un indicador, en relación a su constructo (variable latente), se establece como una carga
factorial mínima es .70. Considérese sli como las cargas estandarizadas de los indicadores de una variable en particular y ei
como los términos de error respectivos, donde el error es 1 menos la confiabilidad del indicador, que es el cuadrado de la
carga estandarizada del indicador.
Ahora bien, la validez del modelo también se deriva de las cargas factoriales de los indicadores. Esta puede verse
desde el enfoque de validez convergente y validez discriminante:
Validez convergente. Es demostrada con correlaciones aceptables entre indicadores de una misma variable latente.
Indicadores de ajuste a de un modelo apoyan la validez convergente con coeficientes del modelo iguales o superiores a .70.
Validez discriminante. Es demostrada cuando los indicadores de una variable latente correlacionan mejor con dicha
variable latente que con otra(s) variable(s) latente(s). Este tipo de validez también puede determinarse cuando los índices de
modificación (MI) no señalan la necesidad de cargar algún(os) indicador(es) con una variable latente que no le corresponde.
Por otro lado, Anderson y Gerbing (1988) recomiendan probar cada par de variables latentes por separado, primero sin limitar
(constreñir) y luego con la correlación limitada a 1.0, esperando que la correlación limitada tenga un ajuste significativamente
menor.
En LISREL, el resultado Eta es la matriz correlacional de las variables latentes dependientes e independientes. Eta
es un coeficiente correlación no lineal y se le conoce como la solución completamente estandarizada o Matriz correlacional
para Eta .
La razón crítica y la significancia de los coeficientes de trayectorias. Cuando la razón crítica de un peso de
regresión es mayor a 1.96, entonces es significativa a nivel de .05. En el caso de LISREL la razón crítica es el puntaje z.
En el punto anterior destacan el error de medición asociados con los indicadores y las variables latentes, al que se le
denomina cómo confiabilidad. También destacan los coeficientes de los indicadores y de las trayectorias, puesto que son la
evidencia de su validez.
Ahora se presentan otros términos que contribuyen a determinar la varianza explicada del las variables endógenas y
el modelo integral propuesto por el investigador.
Estructura factorial. Término general usado para referir los coeficientes del modelo (todas las cargas factoriales
del modelo) y que es utilizado para determinar la varianza explicada por el modelo. Es un acuerdo que la varianza extraída
del modelo como mínima debe ser .50 . Su formula es una modificación de la confiabilidad del constructo, y es:
[(SUMA(sli2)]/[(SUMA(sli2) + SUMA(ei))].
Comunalidad. Es el cuadrado de la carga factorial y ella estima la comunalidad de cada varible. Ella mide el
porcentaje de varianza de un indicador (reactivo) explicada por la variable latente (factor) y puede interpretarse como la
confiabilidad de dicho indicador.
R cuadrada o la correlación múltiple cuadrada (SMC). Hay una R cuadrada o correlación múltiple cuadrada (SMC)
para cada una de las variables latentes del modelo. La SMC es el porcentaje de varianza explicada de la variable y se reporta
como un índice de ajuste de cada ecuación del modelo estructural.
SMC para la(s) variable(s) Y: Esta es reportada por LISREL e informa el porcentaje de varianza de los indicadores
dependientes que se atribuyen a la(s) variable(s) latente (s) dependiente(s).
SMC para la variable(s) X: Esta es reportada por LISREL e informa el porcentaje de varianza de los indicadores
independientes que se atribuyen a la(s) variable(s) latente(s) independiente(s).
SMC para las ecuaciones estructurales: Esta es reportada por LISREL e informa el porcentaje de varianza de la(s)
variable(s) dependiente(s) latente(s) que se atribuyen a la(s) variable(s) independiente(s) latente(s).
Quantiles o Q-Plots o Stem and Leaf Plots. Son tablas que LISREL reporta y ellas ordenan los residuales
estándarizados por tamaño y calculan los puntos porcentuales en una distribución muestral. Además, los residuales son
graficados contra las desviaciones normales que corresponden a dichos puntos porcentuales, llamados quantiles. Los Stem
and Leaf Plots son calculados por LISREL y se muestran en el capítulo 5 de ejemplos del LISREL.
3.6 Cálculo de de coeficientes de estimación de MES. Con LISREL, los coeficientes del MES pueden calcularse
de diversas maneras. La primera (MLE) es la más usada:
1. Estimación de máxima verosimilitud o maximum likelihood estimation (MLE). MLE es el más popular y busca
maximizar la probabilidad de que las covarianzas observadas sean tomadas de una población. Esto es, la MLE
selecciona estimaciones que tienen la mayor posibilidad de reproducir los datos observados. Los supuestos de la
MLE son: los errores de estimación sí correlacionan; muestras grandes; y los indicadores se distribuyen normalmente
y son medidos a nivel intervalar. En el capítulo de ejemplo, se usa este método.
2. Estimación Bayesiana. Usa información previa acerca de los parámetros del modelo para calcular distribuciones.
Este tipo de estimación se prefiere cuando se tiene una muestra pequeña, cuando la MLE arroja varianzas negativas
o se tienen datos ordinales.
3. Mínimos cuadrados ponderados o weighted least squares (WLS). Se usa cuando se viola normalidad.
4. Mínimos cuadrados generalizados o generalizad least squares (GLS). Funciona bien con muestras mayores a
2,500 personas o casos y distribuciones no normales.
5. Mínimos cuadrados ordinarios o ordinary least squares (OLS). Usado para obtener estimaciones iniciales de
parámetros requeridos por otros métodos.
6. Mínimos cuadrados no ponderados o unweighted least squares (ULS). No requiere asumir normalidad y no ofrece
pruebas de significancia, y es el único modelo que depende de la escala (estimaciones diferentes para diferentes
variables).
A manera de resumen, en esta etapa se ha propuesto un modelo que conecta indicadores con sus respectivas variables
latentes, y que conecta variables exógenas y endógenas a fin de explicar un fenómeno. También se enfatizó la importancia
del cálculo de coeficientes que se utilizan para estimar la confiabilidad de los indicadores y las variables latentes, y la validez
predictiva de las variables independientes, tal cómo ocurre en el caso de la regresión múltiple.
Ahora es el turno de evaluar la validez integral del modelo; eso es, la compatibilidad de los datos observados con el
modelo teórico propuesto.
Ahora se evalúa que tan bien los datos se ajustan al modelo teórico, mediante las siguientes pruebas:
a. Pruebas globales de bondad de ajuste o índices de ajuste: La más popular es la Ji cuadrada. Kline (1998)
recomienda la elección de cuatro índices.
En el capítulo 3 se presenta una larga lista de indicadores entre los cuáles el investigador puede elegir lo
más apropiados.
b. Pruebas individuales de parámetros: Se usa la prueba t de student.
Si no hay ajuste del modelo, que es lo más usual, entonces el modelo debe modificarse y evaluarse de nueva cuenta.
Por ejemplo, el paquete LISREL tiene la opción de “modification indices” o “índices de modificación” que sugieren que
restricciones están en desacuerdo con los datos observados; esto también se explica en el capítulo 5 de ejercicios.
Los índices de modificación (IM) se relacionan con la prueba multiplicadora de Lagrange (LM). Los IM
generalmente se usan para modificar los modelos a fin de obtener un mejor ajuste, y esto debe hacerse de acuerdo a la teoría.
Las flechas sólo deben agregarse cuando existe una justificación teórica; la mejora es medida en términos de reducción de la
Ji cuadrada.
Modificación de modelos. La construcción es una estrategia que inicia con un modelo nulo o un modelo simple al
que se le añaden trayectorias de manera gradual (una por una). Conforme se añaden trayectorias, la Ji cuadrada 2 (una
prueba que se explica en el capítulo 3) disminuye y mejora el ajuste del modelo. La agregación de trayectorias debe hacerse
de acuerdo a la teoría
Otra estrategia de construcción consiste primero en sobreajustar el modelo y posteriormente en recortar o quitar
trayectorias, una a la vez, de acuerdo a la Ji cuadrada y otros índices de modificación (presentados en el capítulo 3), hasta
obtener índices de ajuste satisfactorios.
CAPÍTULO 3. MEDICIONES DE AJUSTE DEL MODELO.
En este capítulo se presentan varias pruebas o índices de ajuste que el investigados consulta para determinar la validez
del modelo estructural , de acuerdo a la etapa 4 del capítulo anterior. LISREL calcula varios de ellos, tal como se apreciará
en el capítulo 5 de ejercicios.
Pruebas o índices de bondad de ajuste. Sirven para determinar si el modelo debe aprobarse o rechazarse; estos
indicadores no determinan que trayectorias son significativas. Si el modelo es aceptado, por separado el investigador debe
interpretar los coeficientes de las trayectorias.
Jaccard y Wan (1996) recomiendan que como mínimo se consulten tres pruebas de las cinco categorías abajo
presentadas. Por otro lado, Kline (1998) propone que cuando mínimo se consulten cuatro: Ji cuadrada; GFI; NFI o CFI;
NNFI o SRMR.
Debe tenerse en cuenta que la bondad de ajuste no es lo mismo que fuerza de la relación, ya que es posible obtener
un ajuste perfecto con variables no correlacionadas. Así mismo, entre más bajas son las correlaciones entre variables, es más
fácil obtener bondad de ajuste. Pero, cuando las correlaciones son bajas, los coeficientes de trayectorias también serán bajos:
Por lo tanto, es necesario reportar pruebas de ajuste y coeficientes estructurales.
Una buena bondad de ajuste no significa que todas las partes del modelo ajusten bien. Es posible que modelos
alternativos puedan ajustar mejor. Eso es, los índices de ajuste descartan modelos, pero no indican cual es el mejor. También
es importante señalar que un buen ajuste no significa que las variables exógenas sean las causas de las variables endógenas.
También es posible obtener un mal ajuste debido a un pobre modelo de medición (AFC) y no por un erróneo modelo
estructural.
Los índices deben verse como medidas sobre que tanto ha avanzado una especialidad o una teoría: Se considera que
valores de .90 de CFI son aceptables, pero un CFI de .85 puede mostrar que área de conocimiento ha mejorado si un modelo
anterior reportó .70.
Debe advertirse que tanto los paquetes LISREL, AMOS, EQS o MpPlus no calculan todas la pruebas abajo enlistadas,
y conforme se desarrollan dichos paquetes y se publican nuevas versiones, cambian las pruebas realizables. El lector no debe
olvidar que Kline (1998) propone que cuatro pruebas son suficientes para el MES.
Hay maneras en que la Ji cuadrada puede equivocarse: a) en el caso de grandes muestras, es mayor la probabilidad
de rechazar el modelo y el error de tipo II (rechazar algo verdadero). Aún pequeñas diferencias entre ambas
covarianzas se califican como significativas y b) la Ji cuadrada es muy sensible ante desviaciones de la normalidad.
Una solución es la consulta de la prueba Satorra-Bentler scaled Chi Square (prueba 3).
2. Ji cuadrada relativa. También conocida como la Ji cuadrada normal y se obtiene al dividir la Ji cuadrada entre
los grados de libertad (Ji cuadrada/DF), a fin de reducir su dependencia del tamaño de muestra.
Carmines y McIver (1980) proponen que el resultado de un modelo aceptable debe estar en el rango de 2:1 o 3:1.
Un valor menor a 1.0 es inaceptable.
3. Ji cuadrada escalada de Satorra-Bentler. Es un ajuste a la Ji cuadrada que es castigada por la kurtosis de los
datos. Este estadístico busca corregir el sesgo introducido por la anormalidad de la distribución.
4. Índice de bondad de ajuste (GFI). Se le conoce como el gamma-hat o Jöreskog-Sörbom GFI. El valor de GFI
varía entre cero y 1, pero pueden obtenerse valores negativos. Una muestra grande favorece el GFI. Aunque hay
analogía con R cuadrada, el GFI no puede interpretarse como el porcentaje de error explicado por el modelo. Es
el porcentaje de la covarianza observada explicada por la covarianza teórica. Es un acuerdo que valores superiores
a .90 apoyan el modelo.
5. Índice de bondad de ajuste ajustada (AGFI). Es una variante del GFI, ya que lo ajusta por sus grados de libertad:
la cantidad (1-GFI) es multiplicada por la razón de los grados de libertad del modelo dividido por los grados de
libertad de la línea base del modelo, entonces AGFI es 1 menos el resultado. AGFI también debe ser mayor a .90
6. Residuales de la media de raíz cuadrada (RMS, RMSR o RMR). En inglés se le conoce como root mean
square residuals y es la media absoluta de los residuales de la covarianza. Entre más cercano sea el valor a cero,
mejor es el ajuste. Valores menores a .10 se consideran aceptables. Debido a que RMS es difícil interpretar, es
mejor usar el SRMR (ver prueba 7). El RMR no estandarizado es un coeficiente que resulta de tomar la raíz
cuadrada de la media de los residuales elevados al cuadrado, que es la cantidad por la cual la varianza y covarianza
de la muestra difieren de la varianza y covarianza estimada.
7. Residual estandarizado de la raíz cuadrada media (SRMR). En inglés se le denomina standardized root mean
square residual y es la diferencia promedio entre las varianzas y covarianzas pronosticadas y observadas, basada
en el error estándar del residual. Entre menor sea el SRMR, mejor el ajuste del modelo. Un valor inferior a .05 es
considerado aceptable.
8. Hoelter N crítico. Útil para determinar si el tamaño de muestra es adecuado. Un tamaño de muestra es adecuado
si la prueba Hoelter N es mayor a 200 y se calcula así:
(((2.58+(2df - 1)*2)*.5)/((2chisq)/(n-1)))+1
Chisq es Ji cuadrada.
También son índices absolutos de ajuste, pero de un tipo diferente. Estos índices son apropiados para comparar
modelos que han sido estimados por máxima verosimilitud (MLE) y estos no tienen puntos críticos como .90, ya que se usan
para comparar modelos donde un valor menor representa un mejor ajuste.
9. Akaike criterio de información (AIC). Este estadístico ajusta la Ji cuadrada a fin de penalizar la complejidad
del modelo por falta de parsimonia y sobreparametrización. AIC se usa para comparar modelos y para interpretar
un sólo modelo, y puede comparar modelos con diferentes números de variables latentes que pueden estar o no
anidadas. Entre más bajo es el valor de AIC mejor es el ajuste del modelo (cero es el valor de mejor ajuste). La
modificación de un modelo es suspendido cuando el AIC aumenta.
AIC se calcula sí:
(chisq/n) + (2k/(n-1)) donde k = (.5v(v+1))-df, y “v” es el número de variables y “df” son grados de libertad.
Cuando AIC en igual o menor a 2 no hay evidencia en contra del modelo, cuando está entre 2 y 4 hay
evidencia débil en contra del modelo y cuando es mayor a 4 hay evidencia en contra del modelo.
AICC es una versión para modelos con muestras pequeñas (ver tabla 2).
10. BICp. Es un estadístico que cambia la escala de Akaike a fin de que los factores sumen 1.0. Los valores
representan las probabilidades y la suma de todos los modelos da 100% y esto indica que uno de los modelos es
el correcto. Un modelo que tenga .60 señala que dicho modelo tiene 60% de ser el correcto. En otras palabras, el
modelo corregido es aquel con mayores posibilidades de ser el correcto.
11. BICL. También es un estadístico que cambia la escala de Akaike a fin de que los factores sumen 1.0. Valores
de .05 o mayores consideran que el modelo es el más probable.
12. CAIC. También es consistente con AIC y penaliza las pequeñas muestras y la complejidad del modelo. Ente
menor es el valor de CAIC mejor es el ajuste.
13. BCC o criterio Browne-Cudeck. Este estadístico debe lograr valores de .90 o superiores y se calcula así:
(chisq/n) + ((2k)/(n-v-2)), donde “n”es el número de sujetos, “v” es el número de variables, y k = (.5v(v+1))-
df, donde df es grados de libertad.
14. ECVI o índice esperado de validación cruzada. Es útil para comparar modelos no anidados como ocurre con
el análisis multimuestras usado para validar o replicar hallazgos. Al igual que AIC refleja la discrepancia entre
las matrices de covarianzas del modelo teórico y los datos. Ente menor es el valor de ECVI mejor es el ajuste. Al
comparar modelos anidados, ECVI penaliza el número de parámetros libres.
15. MECVI. Es el ECVI modificado y también es una variante de BCC y penaliza la complejidad del modelo. Entre
menor es el valor MECVI, mejor es el ajuste.
16. CVI o índice de validación cruzada. Es similar a ECVI y MECVI, y un valor de cero indica que ambas
covarianzas son similares, la de la muestra de calibración y la de la muestra de validación o replica. Es posible
calcular una doble validación cruzada al intercambiar los papeles de ambas muestras.
17. BIC o criterio bayesiano de información. También se le conoce como ABIC o criterio bayesiano de información
Akaike. Al igual que CAIC, este estadístico penaliza el tamaño de muestra y la complejidad del modelo.
Comparado con AIC, BCC or CAIC, BIC favorece modelos parsimónicos con pocos parámetros, y se recomienda
para muestras grandes con pocos parámetros. BIC es la aproximación del logaritmo del factor Bayes del modelo
teórico comparado con el modelo saturado. Si BIC es igual o menor a 2 no hay evidencia en contra del modelo,
si está entre 2 y 4, hay débil evidencia en contra del modelo, y si es mayor a 4, entonces hay evidencia en contra
del modelo.
18. Parámetro de no centralidad (NCP). También se le conoce como el parámetro de no centralidad de McDonald
o DK, y es una Ji cuadrada que penaliza la complejidad del modelo. Se calcula así:
((chisqn-dfn)-(chisq-df))/(chisqn-dfn), donde chisqn y chisq son las Ji cuadradas del modelo nulo y del
modelo teórico, dfn y df son sus correspondientes grados de libertad. A fin de forzar la escala a 1, la
conversión usada es exp(-DK/2). NPC es usada con una tabla de distribución de Ji cuadrada de no
centralidad para evaluar el poder y calcular los estadísticos RMSEA, CFI, RNI y CI. Notar que LO 90 y HI
90 son los límites inferior y superior del intervalo de confianza del 90%.
19. CI o índice de centralidad. Parte de la Ji cuadrada, de los grados de libertad del modelo y el tamaño de la muestra.
Se espera que un modelo aceptable tenga un CI sea igual o mayor a .90.
Usualmente el modelo de comparación es el de independencia, puesto que es el que tiene la peor Ji cuadrada (la
mayor).
20. CFI o índice d ajuste comparativo. También se le conoce por el índice comparativo de ajuste de Bentler y
compara el modelo teórico con el modelo nulo que asume que las variables latentes del modelo no se correlacionan
entre si (modelo de independencia). Eso es, compara la matriz de covarianza de datos observados con la matriz
de covarianza del modelo nulo (matriz con ceros). CFI es similar a NFI, pero penaliza el tamaño de muestra. CFI
y RMSEA son los estadísticos menos afectados por el tamaño de muestra, y un CFI cercano a 1.0 indica un muy
buen ajuste y valores superiores a .90 se consideran aceptables. El CFI también es usado para evaluar variables
modificantes (aquellas que crean una relación heteroscedástica entre las variables independientes y dependientes,
de tal manera que la relación varía por clase de modificador).
21. IFI o índice incremental de ajuste. También se le denomina IFI de Bollen o Delta 2, y se calcula así:
(Ji-cuadrada del modelo nulo – Ji cuadrada del modelo default )/(Ji cuadrada del modelo nulo – grados de
libertad del modelo default).
Para aceptar el modelo IFI debe ser igual o mayor a .90 y este estadístico es relativamente independiente
del tamaño de muestra.
22. NFI o índice de ajuste normado. Es conocido como el índice normado de Bentler-Bonett o Delta1. Es una
alternativa del CFI, pero no requiere cumplir con supuestos de la Ji cuadrada. Normado significa que varía entre
0 y 1, donde 1 es ajuste perfecto.
El NFI refleja la proporción que el modelo teórico mejora el ajuste en relación al modelo nulo. Por ejemplo,
un NFI de .50 significa que el modelo mejora en un 50% el ajuste. Valores entre .90 y .95 son aceptables.
Debido a que subestima el ajuste en el caso de muestras pequeñas y no considera la complejidad del modelo,
es preferible consultar el NNFI (TLI).
23. BBI o índice Bentler-Bonnet. No confundirlo con el NFI. Es la Ji cuadrada del modelo teórico menos la Ji
cuadrada del modelo nulo, todo dividido por la Ji cuadrada del modelo nulo. El modelo debe ser superior a .90 a
fin de tener buen ajuste.
24. TLI o índice Tucker-Lewis, o NNFI . TLI es similar al NFI, pero penaliza la complejidad del modelo y es
relativamente independiente del tamaño de muestra.
(chisqn/dfn - chisq/df)/(chisqn/dfn - 1), donde chisq y chisqn son las Ji cuadradas del modelo teórico y del
modelo nulo, y df y dfn son los grados de libertad respectivos.
NNFI puede no estar dentro del rango 0 a 1, pero puede fijarse dentro de ese rango. Es el índice menos
afectado por el tamaño de muestra y un NNFI negativo indica que la razón de modelo nulo es menor a la
razón del modelo teórico que ocurre cuando el modelo teórico tiene pocos grados de libertad y las
correlaciones son bajas.
Valores cercanos a 1.0 indican buen ajuste, se considera que valores superiores a .90 son aceptables, y el
NNFI tiende a ser menor que GFI.
3.5 Quinta categoría de índices de ajuste.
Pruebas de bondad de ajuste que penalizan la falta de parsimonia.
Estos índices penalizan la complejidad del modelo y no usan los puntos de corte acostumbrados de .90. Se usan para
comparar modelos y entre más alto es el valor mejor es el ajuste.
25. PRATIO o razón de parsimonia. Es la razón de los grados de libertad del modelo teórico a los grados de libertad
del modelo independiente (nulo). El PRATIO no es una prueba de bondad de ajuste, pero se usa como el PNFI y
el PCFI que favorecen modelos parsimónicos (modelos con pocos parámetros).
26. PNFI o índice de ajuste pasimónico normado. También se le denomina PNFI1 y es igual a PRATIO menos
NFI. Entre más cercano este el modelo teórico al modelo saturado (trivial que explica todo), más penalizado es
el NFI. No hay valores de corte comúnmente aceptados, pero un PNFI igual o mayor a .60 significa buena
parsimonia, y al comparar modelos anidados, el modelo con un mayor PNFI es el mejor.
27. PCFI o índice de ajuste de pasimonia comparado. Es igual a PRATIO por CFI, y entre más cerca esté el modelo
teórico al modelo saturado, más se penaliza CFI. Al comparar modelos, el modelo con el menor PCFI es el mejor.
28. PGFI o índice de ajuste de bondad parsimónico. PGFI es una variante del GFI, pero penaliza el GFI al
multiplicarlo por la razón de los grados de libertad del modelo teórico entre los grados de libertad del modelo
independiente. Se considera que un PGFI igual o mayor a .60 indica buena parsimonia.
29. RMSEA o aproximación de la raíz cuadrada media del error. Se le conoce también como RMS o RMSE o
discrepancia por grado de libertad. Se considera que un RMSEA igual o menor a .08 es satisfactorio. RMSEA es
un índice de ajuste popular porque no necesita compararse con un modelo nulo y tampoco requiere la propuesta
de un modelo independiente. RMSEA tiene una distribución relacionada con le distribución Ji cuadrada no central
y por ello no necesita de un muestro de tipo bootstrap para fijar intervalos de confianza.
RMSEA corrige la complejidad del modelo, ya que el denominador es grados de libertad, pero se considera
que grados de libertad es una
medición imperfecta de complejidad. Ya que RMSEA calcula el promedio de falta de ajuste por grado de
libertad, es posible tener cero en falta de ajuste tanto en el modelo complejo como en el modelo simple. Por
lo tanto, es conveniente también consultar el PRATIO, y considerar el intervalo de confianza del 90% de
RMSEA donde el límite inferior tiene valores cercanos a cero y el límite superior valores inferiores a .08.
30. PCLOSE. Prueba la hipótesis nula de que RMSEA no es mayor a .05. Si PCLOSE es menor a .05, se rechaza la
hipótesis nula y concluye que RMSEA es mayor a .05, indicando un bajo ajuste. LISREL le denomina P-
Value for Test of Close Fit.
En los capítulos anteriores se han presentado supuestos sobre la normalidad de los las variables, los grados de libertad
y el tamaño de la muestra. En este capítulo se retoman, se tratan otros supuestos y proponen soluciones en caso de su
violación.
Aún cuando MES usa el análisis de trayectorias, el MES relaja varios supuestos relacionados con el nivel de medición
de los datos, sus interacciones y la correlación del error.
4.1. Distribución multivariada normal de los indicadores. En el caso de la estimación MLE, cada indicador debe
estar normalmente distribuido, ya que aún pequeñas desviaciones de la normalidad pueden arrojar grandes
diferencias en la Ji cuadrdada. Generalmente las violaciones de normalidad inflan la Ji cuadrada y el uso de
mediciones ordinales o dicotómicas causan anormalidad.
El muestreo Bollen-Stine bootstrap y la prueba Ji cuadrdada ajustada Satorra-Bentler son utilizados para
determinar el ajuste estructural en el caso de no normalidad. El paquete PRELIS de LISREL, puede realizar una
prueba de Ji cuadrada para probar normalidad.
En el caso de datos discretos (datos categóricos o datos ordinales con menos de 15 valores), se pueden considerar
normales si las pruebas de sesgo (skewness) o kurtosis están dentro de un rango de más o menos 1.5 (Schumacker
y Lomax, 2004: 69).
Severas desviaciones de normalidad ocurren con mayor frecuencia con variables binarias u ordinales. Por ello,
Bollen (1989) y Jöreskog y Sörbom (1997) recomiendan el uso de correlaciones policóricas (polychoric) junto
con la estimación WLS. LISREL, EQS y Mplus calculan la matriz de correlaciones policóricas.
4.4 Outliers o casos atípicos. La presencia de datos atípicos puede afectar el modelo. El muestreo jackknife puede
identificar dichos casos. El procedimiento jackknife calcula los coeficientes de trayectorias para toda la muestra,
y luego para muestras (n-1), donde elimina un caso. Lo mismo se hace con las covarianzas. Al comparar las
diferencias en coeficientes de trayectorias y covarianzas entre la muestra total y muestras jackknife, es posible
identificar outliers.
4.5 Datos incompletos o imputación. Es conveniente tener una base de datos completa, o en su defecto, substituir
los datos incompletos mediante un procedimiento de imputación, debido a la posible introducción de error de
medición que afecte el modelo. En el ejemplo 1 del capítulo de ejercicios se muestra como imputar.
4.6 Subidentificación o apenas identificación del modelo. Como se mencionó en el capitulo 2, un modelo apenas
identificado ocurre cuando hay tantos parámetros por estimar como elementos en la matriz de covarianzas. Por
ejemplo, si el modelo tiene una variable V1 que antecede a V2 y V3, y V2 también es causa de V3, entonces hay
tres parámetros (flechas) en el modelo y hay tres elementos de covarianza (1,2; 1,3; y 2,3). Este caso es posible
calcular las trayectorias, pero utiliza todos los grados de libertad y ya no es posible calcular pruebas de bondad
de ajuste (cero grados de libertad, Ji cuadrada de cero y “p” no puede calcularse).
Un modelo esta subidentificado cuando hay más parámetros por estimar que elementos en la matriz de covarianzas.
Generalmente los paquetes reportan “failure to converge” o “negative error variances”
Es ideal para el MES contar con un modelo sobreidentificado, eso es, tener más conocidos (variables
observadas) que incógnitas (parámetros a estimar). Cuando hay sobreidentificación, los grados de libertad son
positivos (grados de libertad de la Ji cuadrada). Por ello, se recomienda correr un MES con datos ficticios a
fin de determinar si el modelo está subidentificado o apenas identificado. Una solución por subidentificación
consiste en añadir más variables exógenas.
4.7 Recursividad. Los modelos recursivos nunca son subidentificados. Recursividad ocurre cuando una flecha sólo
va a una posición y no tiene retroalimentación (regreso).
4.8 No empíricamente identificado por alta multicolinealidad. Un modelo puede ser teóricamente identificado,
pero no solucionable por problemas empíricos como multicolinealidad o estimaciones de trayectoria cercanos a
cero en modelos no recursivos.
Signos de multicolinearidad.
a. Pesos estandarizados de regresión cercanos a 1 que dificultan el calculo de pesos de regresión diferentes
para ambas trayectorias. El resultado es un peso estandarizado de regresión cercano a 1 y otro cercano a -
1. Notar que los pesos varían entre -1 y 1
b. Los errores estándar de dos variables, que son causadas por una misma variable latente, son grandes en
comparación con otros errores de otras trayectorias dentro del modelo.
c. Grandes covarianzas de las estimaciones de parámetros de dos trayectorias en comparación con las
covarianzas de otras trayectorias diferentes.
d. Errores con varianza negativa de una variable que antecede a dos variables casi idénticas.
4.9 Datos de intervalo. La estimación MLE asume que la medición es de tipo de intervalo, pero en el caso de
variables exógenas que son de tipo de dicotómico o dummy se dificulta su uso como variable exógena, y por ello
se recomienda la estimación Bayesiana o el uso de la matriz de correlaciones policóricas (LISREL).
4.10 Alta precisión. Ya sea que los datos sean de tipo intervalo u ordinal, los datos deben tener un amplio rango de
valores (se recomienda un rango de 15).
4.11 Residuales aleatorios pequeños. La media de los residuales (covarianza observada menos la estimada) debe
ser cero. Un modelo que ajusta bien debe tener residuales pequeños. Residuales grandes sugieren no
especificación (misspecification), como ocurre cuando se requieren añadir trayectorias al modelo. La covarianza
de los puntajes dependientes y los residuales debe ser cero, y la distribución de residuales debe ser normal.
4.12 Términos de error no correlacionados. Si los errores son especificados por el modelo, el error correlacionado
puede ser estimado y modelado por MES.
Posibles soluciones: a. En LISREL es posible añadir un “ridge constant”, que es un peso agregado a la diagonal
de la matriz que cambia a positivo todos los número de la diagonal; b. quitar las variables que correlacionan
alto; c. usar diferentes valores iniciales; d. usar estimación ULS en vez de MLE; e. cambiar correlaciones
tetracóricas por correlaciones Pearson; y f. preferir listwise en vez de pairwie en el tratamiento de datos
faltanes.
4.14 Covarianzas no cero. CFI y otros indicadores de ajuste comparan la covarianza teórica con la observada.
Cuando la covarianza observada se acerca a cero, no hay que explicar, y cuando las variables tiene una baja
correlación entre si, también será difícil demostrar buen ajuste.
4.15 Tamaño de muestra. No debe ser pequeña puesto que el MES es sensible al tamaño. Es común encontrar
estudios que tienen muestras entre 200 y 400 sujetos y modelos que analizan entre 10 y 15 indicadores. Kline
(1998: 12) y Schumacker y Lomax (2004: 49) señalan que como mínimo se debe tener 100 sujetos, y Stevens
(1996) propone 15 sujetos por cada indicador.
CAPÍTULO V. CUATRO EJERCICIOS DE LISREL.
El lector puede realizar por cuenta propia cuatro ejemplos con el paquete LISREL versión estudiantil. En este capitulo
se explica cómo descargar el paquete gratuito de internet y presenta imágenes que facilitan el uso de los comandos LISREL
necesarios para correr el AFC , el MES y/o otros análisis estadísticos.
El primer ejercicio (5.1) muestra como se preparan los datos, paso necesario para acceder a datos que vienen de SPSS
u otras bases, o para la captura manual de datos; el segundo ejercicio (5.2) enseña cómo editar datos cuando el
investigador se enfrenta a datos faltantes o missing; el tercer ejercicio (5.3) describe como hacer un análisis factorial
confirmatorio (AFC) mediante SIMPLIS; y el cuarto ejercicio (5.4) explica como se realiza el modelamiento de
ecuación estructural mediante SIMPLIS.
Posteriormente, es indispensable que el lector use sus propias bases de datos y repita los ejercicios de este capítulo.
Pero antes de ir al primer ejercicio, es necesario tener en la computadora el paquete LISREL, ya sea en su versión
estudiantil o la versión completa. A continuación se describe paso a paso que hacer para baja el paquete versión estudiantil.
http://www.ssicentral.com/lisrel/downloads.html
El tercer paso es abrir el LISREL y hay dos maneras de iniciar LISREL: Una es abrir C y la carpeta archivos del
programa (figura 5 y figura 6) y la otra es mediante “Todos los programas” (figura 7).
En caso de elegir C y la carpeta archivos del programa (figura 5), de click en esa carpeta y verá que aparecen varias
carpetas más; ahora debe dar click a la carpeta LISWIN32S.EXE para iniciar LISREL (ver figura 6).
Una vez que dio click a la carpeta LISWIN32S.EXE, aparecerá inmediatamente una pantalla como la de la figura 8
( Menú de PRELIS).
La otra opción para abrir LISREL es mediante “Escritorio” (figura 7), en la que se da click en LISREL 9 y se abre
la pantalla similar a la de la figura 8.
LISREL es usado para capturar datos que provienen de otros paquetes como SPSS o EXCEL, y para obtener: matrices
de varianzas-covarianzas; matrices de correlaciones; medias y desviaciones estándar, todo ello necesario para hacer el análisis
MES en SIMPLIS o LISREL. Cabe mencionar que los datos también pueden ser introducidos directamente, pero en este
ejemplo, se toman los datos de SPSS.
LISREL usa una hoja de cálculo y contiene un menú con las opciones, tal como lo muestra la figura 8. En este caso
se da click o abre File y se despliega un submenú.
La opción New o Nuevo permite la creación de una sintaxis (sintaxis es un comando) que puede se abierta por
SIMPLIS y LISREL (figura 8 y 9). Esta opción se usará más adelante en el cuarto ejercicio (5.4). No la vamos a usar ahora.
La opción Open (figura 8) sirve para abrir archivos LISREL, más adelante se explica su uso.
Import Data: Permite localizar archivos guardados de PRELIS (.pr2), SIMPLIS (.spl), LISREL (.ls8), SPSS (*.sav)
o All files (*.*). La versión estudiantil tiene ejemplos en las carpetas pr2ex (PRELIS), splex (SIMPLIS) y ls8ex (LISREL).
En este caso se busca la carpeta de Lisrel Student Examples que puede estar en el disco C (carpeta LISREL 9 Student
examples), se abre y luego se abre la carpeta Tutorial. Los cuatro pasos se muestran en la figura 10. En caso de no
encontrarlo, pídalo a hermanlittlewood@yahoo.com.mx.
Fuente. Elaboración propia (4 pantallas).
Figura 10: Opción Import Data del menú LISREL (en carpeta Tutorial dentro del archivo “Lisrel
student examples”)
Ahora, proceda a abrir el archivo data100.sav de SPSS, y luego guarde como DATA100.lsf (archivo LISREL). Ver
figura 12.
Fuente. Elaboración propia.
Figura 12: Opción Open archivo data100.sav SPSS y guardar como lsf.
El archivo LISREL DATA100.lsf guardado muestra un nuevo menú (figura 13) que permite la edición,
transformación, análisis estadístico, y graficación de los datos. La designación es de datos ordinales puesto que las variables
tienen menos de 15 categorías o intervalos. Note que se ha abierto Statistics en menú y un submenú.
Los análisis estadísticos incluyen análisis factorial clásico u ordinal, regresiones varias, y métodos de cuadrados
mínimos de dos pasos. También es posible imputar datos (resolver casos de datos incompletos o faltantes), hacer análisis de
homogeneidad, análisis de normalidad, y muestreo bootstrapping.
La opción de menú Output Options (figura 14) permite guardar matrices de varianzas-covarianzas y estadísticos
descriptivos en archivos de sintaxis SIMPLIS o LISREL. Ahora de click en Statistics y luego de click en Output Options.
Seleccione
Covariances y marque la palomita, y escriba DATA100.COV en la ventana 2.
Seleccione:
Escriba:
Ahora de click en OK y se obtendrá un reporte de las covarianzas que por su longitud es preferible no comentarlo en
este ejercicio. Solamente se comenta que ya se tiene una matriz de covarianzas (también puede obtenerse una matriz de
correlaciones como lo veremos en los siguientes ejercicios). Este tipo de matriz queda guardada AUTOMÁTICAMENTE
en Tutorial de Student Examples (o en la carpeta que tiene abierta) con el nombre DATA100.COV y se usa para análisis
que se explican más adelante en los ejercicios.
La matriz de covarianzas o de correlaciones, es necesaria para el AFC o el MES. Es importante aclarar que LISREL
obtiene el mismo resultado de cualquiera de las dos matrices, pero es muy importante registrar que tipo de matriz se usa.
La matriz puede accederse mediante la opción aquí explicada en este ejercicio, pero el investigador pudiera anotar
directamente las covarianzas o correlaciones en la pantalla de LISREL, tal cómo se hace en el ejercicio 5.3. Por ello, hay dos
maneras de meter covarianzas o correlaciones en LISREL
Este ejercicio tiene la finalidad de practicar la imputación o substitución de datos faltantes que pueden alterar los
resultados de la investigación. Sin no faltan datos o son muy pocos los faltantes (menos del 5%), no es necesario imputar.
Antes del ejercicio se explican casos de edición requeridos, ya sea por el tipo de escala de medición, por la restricción de
rango, así como por las diversas maneras de substituir datos faltantes mediante la imputación.
5.2.1. La escala de medición. La manera como se miden o escalan las variables influye en los análisis estadísticos.
Por ejemplo, con una escala de tipo nominal (por ejemplo, sexo), no deben calculársele la media o desviación estándar, y
sólo procede el cálculo de porcentajes por categoría. Otro ejemplo es una escala de tipo ordinal como la escala de actitud de
tipo Likert que permite el ordenamiento de categorías.
PRELIS reconoce datos continuos (CO) u ordinales (OR), y puede calcular diferentes tipos de correlaciones
dependiendo del nivel de medición (nominal, ordinal, intervalar o de razón). Una matriz de varianzas-covarianzas de datos
continuos (CO) usa correlaciones Pearson y una matriz de datos ordinales (OR) puede usar correlaciones tetracóricas.
Si hay sesgo de datos (distribución no normal), entonces puede usarse la transformación lineal Probit, o bien puede
usarse una matriz de varianza-covarianza asymptótica.
5.2.2. Restricción de rango. Datos con niveles de medición intervalar o de razón pueden ser discretos o continuos.
Por ejemplo, el número de hijos se reporta en enteros (discreto) y el promedio académico puede reportarse con decimales
(continuo).
LISREL puede definir si la variable es ordinal (OR) o continua (CO), dependiendo de la presencia de 15 puntos
escalares. Si la variable tiene menos de 15 categorías, entonces se le denomina ordinal (OR) y si tiene 15 o más, entonces es
continua (CO). El criterio de 15 puntos permite que la correlación Pearson varíe entre 0 y 1. En consecuencia, una escala
Likert de 5 opciones, debe usar la OR.
5.2.3. Datos faltantes. Los datos faltantes afectan el análisis estadístico y es común substituirlos. Las opciones para
el manejo de datos faltantes son:
Listwise: Borrar sujetos de todas las variables con algún dato faltante en cualquier variable.
Pairwise: Borrar al sujeto sólo en aquella variable donde tenga un dato faltante.
Substitución de media: Substituir el dato faltante con la media de la variable.
Imputación por regresión: Substituir con el valor pronosticado el valor faltante.
Maximum Likelihood (EM): Substituir con el valor esperado.
Match Response Pattern: Parear variables con datos de variables completas.
La elección del método afectará la cantidad de sujetos disponibles para el análisis. Listwise y Pairwise tienden a
sacrificar sujetos y reducir el tamaño de muestra. La substitución de media es posible cuando faltan pocos datos y la
imputación por regresión es útil cuando es moderada la falta de datos. El EM se recomienda cuando es relativamente grande
la falta de datos y la falta es aleatoria.
La imputación puede hacerse para una sóla variable (Impute Missing Values) o para muchas variables (Multiple
Imputation), mediante la opción Statistics del menú (figura 13). La imputación individual se hace con Match Response
Pattern y la múltiple con la substitución de medias, la eliminación de casos, o EM.
El ejemplo usado es el archivo chollev.dat (en carpeta Tutorial y tipo Free format) de niveles de colesterol de 28
pacientes que han sufrido de infarto. Se asume que los datos faltan de manera aleatoria (MAR) y que se distribuyen
normalmente. El colesterol es medido a los dos días (VAR1), a los 4 días (VAR2) y a los 14 días (VAR3) del infarto, pero
sólo en 19 de los 28 pacientes en VAR3. Los primeros 18 renglones (figura 17) son mostrados.
Selecione Import Data, seleccione la carpeta LISREL 9 Student Examples, en la carpeta Tutorial (ver figura 15),
abra el archivo chollev.dat en Free Format, guárdelo como chollev.lsf y elija Number of variables 3 y OK a fin de crear
el archivo LISREL. Antes, el archivo SPSS definió los datos faltantes para VAR3 como -.9.00.
¡¡Seleccione la opción Free
Format!! luego seleccione
chollev.dat y aparecerá en la
ventana “nombre” y de click
en abrir
cohíbe.daty oprima!!
Se abre la siguiente ventana (figura 16) ventana que por default muestra como tipo LISREL Data. Escriba en la ventana
Nombre: chollev.lsf y de click en guardar.
Fuente. Elaboración propia.
Figura 16: Archivo chollev.lsf (LISREL).
Al guardar se abre una nueva ventana (figura 17), ahora en “number of variables” seleccione 3 (porque son tres variables) y
dar click en Ok se abrirá la ventana que muestra la figura 19 y en ella se pueden ver las tres variables y sus valores.
Como se mencionó, una vez que dio click en OK, se abre una ventana que muestra las tres variables con sus
respectivas variables por sujeto (figura 18).
Recuerde que sólo hay
datos faltantes en VAR 3
Seleccione la opción Data del menú y vea como en la figura 19 se abre el menú Define variables seleccione VAR3
como la variable faltante en Missing Values y se escribe -9.0 y dar OK: Se eligió VAR3 porque es la única variable en la
que faltan datos (marcados con -9.0)
Fuente. Elaboración propia.
Ahora de click en ok dos veces. A continuación vaya al menú Statistics (figura 20) y búsque Impute Missing Values
(o Multiple Imputation en su caso).
Fuente. Elaboración propia.
Figura 20: Impute Missing Values de VAR3 de chollev.lsf (LISREL).
De click en Impute Missing Values. Se abre la ventana (figura 21). Ahora ingrese VAR3 en la ventana Imputed
variables y VAR1 y VAR2 en la ventana Matching Variables, y oprima Output Options para abrir una nueva ventana
(figura 22) y guarde los datos transformados en cuatro nuevos archivo de LISREL: chollevnew.lsf; el resultado (output) de
una matriz correlacional (chollevnew.cor); means o medias (chollevnew.me); y desviaciones estándar (chollevnew.sd).
Luego oprima Run.
Por el momento usted solo ha calculado los resultados DESPUÉS de la imputación o substitución de datos faltantes, y es
también es posible hacer cálculos sin imputación (ANTES).
Puede compararse resultados ANTES y DESPUES de imputar. Ahora examine los resultados después de la imputación y
compárelos con el antes. Por ejemplo la media (mean) de VAR3 antes de la imputación es 221.474 y después de la imputación
es 220.714, un tanto diferente.
ANTES DE LA IMPUTACIÓN
Number of Missing Values per Variable
VAR1 VAR2 VAR3
-------- -------- --------
0 0 9
Distribution of Missing Values
Total Sample Size = 28
Number of Missing Values 0 1
Number of Cases 19 9
Means (N=19)
VAR1 VAR2 VAR3
-------- -------- --------
259.474 230.842 221.474
DESPÚES DE LA IMPUTACIÓN
Means (N=28)
VAR1 VAR2 VAR3
Continúa después de la imputación.
Como puede apreciarse en el archivo chollevnew.lsf, los datos faltantes han sido substituidos (imputados) en VAR3:
Caso 2 = 204, caso 4 = 142, caso 5 = 182, caso 10 = 280, etc. (ver figura 23). cholnew.lsf se abre dándole click a File,
luego click a Open (asegurar que el tipo de archivo es PRELIS data (*.psf). y luego dándole click a Cholnew.PSF.
Ojo, abra el archivo nuevo chollevnew.lsf con la opción File Open, en la ventana Tipo debe elegirse LISREL Data (*.lsf).
No vea el archivo chollev.lsf, vea cholnew.lsf.
Fuente. Elaboración propia.
Figura 23: VAR3 sin datos faltantes de chollevnew.lsf (LISREL).
La figura 24 muestra las dos bases de datos juntas, antes y después de la imputación.
Antes Después
Fuente. Elaboración propia.
Figura 24: Bases de datos antes y después de la imputación.
A manera de resumen, en este ejercicio se substituyeron los datos faltantes y se crearon tres archivos que
contienen información de correlaciones (chollevnew.cor), medias (chollevnew.me) y desviaciones estándar
(chollevnew.sd) necesarios para realizar el AFC y el MES.
Como se mencionó, el AFC busca validar la medición de las variables latentes mediante sus variables
observadas (indicadores o reactivos) y el diagrama de AFC muestra como círculos (variables latentes) se conectan
con rectángulos (variables observadas), pero sin flechas rectas que conecten a variables las variables latentes entre
sí. Dichas flechas rectas que conectan variables latentes son usadas en el MES, un paso posterior al AFC.
Este ejemplo trata el caso de seis pruebas de aptitudes que sea aplicaron a
145 estudiantes. Los archivos a utilizar son EX5A.spl y EX5B.spl de la carpeta simples (el lector los descargó al
bajar LISREL). El ejemplo consiste de una matriz de varianza-covarianza y tiene seis variables observadas: 1 Visual
Perception, 2 Cubes, 3 Lozenges, 4 Paragraph Comprehension, 5 Sentence Completion y 6 Word Meaning.
Las primeras dos pruebas miden aptitud espacial (variable latente) y las otras cuatro miden aptitud verbal (variable
latente). El modelo inicial confirmatorio se presenta en la figura 25.
Los errores de medición son los 6 óvalos pequeños y ellos indican que la variable también mide algo diferente
a la variable latente. El error de medición representa la variación única de la variable observada no relacionada con
la variable latente. Por ejemplo, Cubes es una medición de aptitud espacial, pero también mide otro factor diferente
o no tiene confiabilidad perfecta (error de medición). El error de medición es estimado y diagramado con las flechas
que apuntan a cada variable observada.
La flecha curva y con doble punta, que une a las dos variables latentes, señala que ambas están
correlacionadas porque comparten varianza. Se propone que aptitud espacial y aptitud verbal se relacionan con un
factor general de aptitud. Las variables latentes (factores) por definición tienen coeficientes de modelo y estructura,
pero no se incluyen en el AFC y se fijan en cero (no hay trayectorias).
Sintaxis SIMPLIS. Como puede observarse abajo, las instrucciones que se anotan en SIMPLIS tienen un
título (Confirmatory Factor Initial Model), la lista de 6 variables observadas (sensibles a mayúsculas y
minúsculas), una matriz correlacional (en este caso no se invoca a un archivo que contenga la matriz, como el
archivo del ejercicio 5.1), medias y desviaciones estándar, la lista de variables latentes, las relaciones del
modelo, residuales y el diagrama de trayectorias.
El lector puede comprobarlo: Abra la versión estudiantil de LISREL (LISREL 9 student examples), y de
acuerdo a las imágenes (figura 26 y figura 27): busque la carpeta de LISREL en archivos del programa
(usualmente en el disco C). Luego abra en la carpeta SIMPLIS el archivo EX5A.SPL (ver figuras 28, 29 y
30) dando click en Open.
Ahora, procede dar click al icono (en la barra de menú, ver figura 30).
Fuente: Elaboración propia
Figura 30. Comandos para correr un AFC
Van a aparecer tres ventanas (ver figura 31), la primer ventana muestra la gráfica con las variables latentes en óvalos (Visual,
Verbal y Speed) y nueve rectángulos (ver figura 32); la segunda ventana contiene los resultados (texto y tablas numéricas)
y se llama EX5A.OUT (ver tabla 2); y la tercer ventana contiene las instrucciones (comandos) y se llama EX5A.SPL. Las
tres ventanas aparecen juntas en la misma pantalla, y es posible que las tres o algunas de las tres ventanas estén minimizadas.
Fuente: Elaboración propia
Figura 31. Gráfica de resultados del AFC
Recuerde que los resultados son presentados en la gráfica EX5B.PTH (figura 32) y el archivo EX5B.OUT (tabla 2,
una enorme tabla que la resume la tabla 1), dónde es posible encontrar cinco principales índices. Pero vea la tabla 1 que no
es preparada por LISREL, sino elaborada por los autores de este libro) que indican que el AFC requiere modificarse, ya que
la Ji cuadrada es significativa, RMSEA es mayor a .08, y GFI no llegó a .95. Note que la tabla 2 es muy larga (cinco páginas),
por eso se presenta la tabla 1 para simplificar la búsqueda de índices
Al final de EX5A.OUT (tabla 2) se encuentran índices a modificar (modification indices), entre los que destacan:
add Path from S-C CAPS to VISUAL a fin de disminuir la Ji cuadrada en 24.6 puntos, y……..
add an Error Covariance between COUNTDOT and ADDITION a fin de disminuir la Ji cuadrada en 24.2 puntos.
Ambas modificaciones son las que más disminuyen la Ji cuadrada.
Y también arroja el análisis de resultados con la matriz de covarianzas, índices de ajuste e índices de modificación,
mediante el archivo EX5A.OUT (Tabla 2).
BY
The following lines were read from file C:\LISREL9 Student Examples\SPLEX\EX5A.SPL:
Nine Psychological Variables - A Confirmatory Factor Analysis
Observed Variables
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN
ADDITION COUNTDOT 'S-C CAPS'
Correlation Matrix From File EX5.COR
Sample Size 145
Latent Variables: Visual Verbal Speed
Relationships:
'VIS PERC' - LOZENGES = Visual
'PAR COMP' - WORDMEAN = Verbal
ADDITION - 'S-C CAPS' = Speed
Number of Decimals = 3
Wide Print
Print Residuals
Path Diagram
End of Problem
Correlation Matrix
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.318 1.000
LOZENGES 0.436 0.419 1.000
PAR COMP 0.335 0.234 0.323 1.000
SEN COMP 0.304 0.157 0.283 0.722 1.000
WORDMEAN 0.326 0.195 0.350 0.714 0.685 1.000
ADDITION 0.116 0.057 0.056 0.203 0.246 0.170 1.000
COUNTDOT 0.314 0.145 0.229 0.095 0.181 0.113 0.585 1.000
S-C CAPS 0.489 0.239 0.361 0.309 0.345 0.280 0.403 0.512 1.000
Number of Iterations = 9
Measurement Equations
Log-likelihood Values
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.345 1.000
LOZENGES 0.460 0.351 1.000
PAR COMP 0.317 0.242 0.322 1.000
SEN COMP 0.303 0.231 0.308 0.720 1.000
WORDMEAN 0.302 0.230 0.307 0.716 0.685 1.000
ADDITION 0.226 0.173 0.230 0.182 0.174 0.173 1.000
COUNTDOT 0.274 0.209 0.279 0.221 0.211 0.210 0.529 1.000
S-C CAPS 0.232 0.177 0.236 0.187 0.179 0.178 0.447 0.542 1.000
Fitted Residuals
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.027 0.000
LOZENGES -0.024 0.068 0.000
PAR COMP 0.018 -0.008 0.001 0.000
SEN COMP 0.001 -0.074 -0.025 0.002 0.000
WORDMEAN 0.024 -0.035 0.043 -0.002 0.000 0.000
ADDITION -0.110 -0.116 -0.174 0.021 0.072 -0.003 0.000
COUNTDOT 0.040 -0.064 -0.050 -0.126 -0.030 -0.097 0.056 0.000
S-C CAPS 0.257 0.062 0.125 0.122 0.166 0.102 -0.044 -0.030 0.000
Stemleaf Plot
- 1|7
- 1|3210
- 0|765
- 0|44333321000000000000000
0|22244
0|6677
1|023
1|7
2|
2|6
Standardized Residuals
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.780 0.000
LOZENGES -1.251 2.050 0.000
PAR COMP 0.435 -0.139 0.019 0.000
SEN COMP 0.020 -1.293 -0.562 0.226 0.000
WORDMEAN 0.526 -0.609 0.945 -0.198 -0.037 0.000
ADDITION -1.944 -1.764 -3.114 0.374 1.225 -0.056 0.000
COUNTDOT 0.879 -1.102 -1.134 -2.991 -0.652 -2.074 4.137 0.000
S-C CAPS 4.644 0.959 2.290 2.238 2.902 1.776 -1.908 -2.310 0.000
Stemleaf Plot
- 3|10
- 2|31
- 1|9983311
- 0|8766211000000000000
0|244599
1|028
2|0239
3|
4|16
Largest Negative Standardized Residuals
Residual for ADDITION and LOZENGES -3.114
Residual for COUNTDOT and PAR COMP -2.991
Largest Positive Standardized Residuals
Residual for COUNTDOT and ADDITION 4.137
Residual for S-C CAPS and VIS PERC 4.644
Residual for S-C CAPS and SEN COMP 2.902
____________________________________________________________
Fuente Elaboración propia (LISREL).
De acuerdo a los índices de modificación sugeridos al final de la tabla 2, se abre el mismo archivo EX5A.SPL
(figura 33) para realizar un AFC modificado. Notar excepto que tiene incluida la relación entre COUNTDOT y ADDITION.
Las comillas sencillas como en ´S-C CAPS´ se usa para el caso de variables que tienen un espacio como el que se ve entre
la letras C y C. El guión alto como el que está entre
´PAR COMP´ - WORDMEAN, significa que también se incluye a ´SEN COMP´. Otra opción es escribir en la línea 10 ´PAR
COM´ ´SEN COMP´ WORD MEAN = Verbal, para incluir a ´SEN COMP´ .
Los resultados son presentados en la gráfica EX5C.PTH (figura 34) y el archivo EX5C.OUT (tabla 3, una enorme
tabla que la resume la tabla 4), dónde es posible encontrar cinco principales índices (ver tabla 3 que no es preparada por
LISREL, sino elaborada por los autores) que indican que el AFC ya quedo listo, ya que la Ji cuadrada no es significativa,
RMSEA es menor a .08, y GFI llegó a .95.
DATE: 8/ 2/2014
TIME: 21:00
L I S R E L 9.10 (STUDENT)
BY
The following lines were read from file C:\LISREL9 Student Examples\SPLEX\EX5C.spl:
Correlation Matrix
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.318 1.000
LOZENGES 0.436 0.419 1.000
PAR COMP 0.335 0.234 0.323 1.000
SEN COMP 0.304 0.157 0.283 0.722 1.000
WORDMEAN 0.326 0.195 0.350 0.714 0.685 1.000
ADDITION 0.116 0.057 0.056 0.203 0.246 0.170 1.000
COUNTDOT 0.314 0.145 0.229 0.095 0.181 0.113 0.585 1.000
S-C CAPS 0.489 0.239 0.361 0.309 0.345 0.280 0.403 0.512 1.000
Number of Iterations = 14
Measurement Equations
Log-likelihood Values
Estimated Model Saturated Model
--------------- ---------------
Number of free parameters(t) 22 45
-2ln(L) 834.171 805.336
AIC (Akaike, 1974)* 878.171 895.336
BIC (Schwarz, 1978)* 943.659 1029.289
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 1.000
CUBES 0.346 1.000
LOZENGES 0.465 0.320 1.000
PAR COMP 0.335 0.231 0.309 1.000
SEN COMP 0.321 0.221 0.296 0.721 1.000
WORDMEAN 0.319 0.219 0.294 0.715 0.685 1.000
ADDITION 0.184 0.126 0.170 0.136 0.130 0.129 1.000
COUNTDOT 0.236 0.162 0.217 0.174 0.167 0.165 0.585 1.000
S-C CAPS 0.433 0.298 0.399 0.320 0.306 0.304 0.400 0.513 1.000
Fitted Residuals
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.028 0.000
LOZENGES -0.029 0.099 0.000
PAR COMP 0.000 0.003 0.014 0.000
SEN COMP -0.017 -0.064 -0.013 0.001 0.000
WORDMEAN 0.007 -0.024 0.056 -0.001 0.000 0.000
ADDITION -0.068 -0.069 -0.114 0.067 0.116 0.041 0.000
COUNTDOT 0.078 -0.017 0.012 -0.079 0.014 -0.052 0.000 0.000
S-C CAPS 0.056 -0.059 -0.038 -0.011 0.039 -0.024 0.003 -0.001 0.000
Stemleaf Plot
-10|4
- 8|
- 6|9984
- 4|92
- 2|89844
- 0|773111000000000000
0|1337244
2|9
4|166
6|78
8|9
10|6
Standardized Residuals
VIS PERC CUBES LOZENGES PAR COMP SEN COMP WORDMEAN ADDITION COUNTDOT S-C CAPS
-------- -------- -------- -------- -------- -------- -------- -------- --------
VIS PERC 0.000
CUBES -0.826 0.000
LOZENGES -1.421 2.413 0.000
PAR COMP -0.006 0.060 0.306 0.000
SEN COMP -0.384 -1.075 -0.270 0.122 0.000
WORDMEAN 0.165 -0.404 1.147 -0.127 0.003 0.000
ADDITION -1.180 -0.996 -1.861 1.006 1.701 0.599 0.000
COUNTDOT 1.791 -0.270 0.235 -1.357 0.236 -0.861 0.000 0.000
S-C CAPS 2.242 -1.295 -1.249 -0.366 1.091 -0.652 0.368 -0.131 0.000
Stemleaf Plot
- 1|9
- 1|4432210
- 0|987
- 0|4443311000000000000
0|1122234
0|6
1|011
1|78
2|24
____________________________________________________________
Fuente: Elaboración propia
Además de hacer la modifcación con la ayuda del archivo EX5C.SPL, es posible sobre-escribir en el archivo EX5A
para agregar Let COUNTDOT ADDITION correlate (ver figura 35) y se obrienen los mismos resultados.
En resumen, el AFC ha sido realizado exitosamente mediante las modificaciones sugeridas por modification indices,
y es posible la realización de la ECUACION ESTRUCTURAL en un paso siguiente. En otras palabras, las variables latentes
son validamente medidas por sus respectivas variables observadas (indicadores o reactivos).
El ejemplo usado en esta sección es otro diferente al usado en el ejemplo 5.3, se lleva a cabo al escribir directamente
en la pantalla de la computadora: el título del estudio (Educational Achievement Structural Equation Inicial Model);
las nueve variables observadas (EdAsp OcAsp VerbAch QuantAch FamInc FaEd MoEd VerbAb QuantAb); la matriz
de covarianzas; el tamaño de la muestra (200); las 4 variables latentes (ASPIRE ACHIEVE HOME ABILITY); las
relaciones entre las variables latentes y las variables observadas); y las instrucciones de Print Residuals, Path
Diagram y End of problem. El modelo hipotético se presenta en la figura 37. Notar que a diferencia del AFC, las variables
latentes se conectan con flechas rectas.
5.4.5. Escribir datos en pantalla: anotar el título y demás datos (figura 42).
Nota 1: La anotación 1* indica que los parámetros han sido fijados a 1, para que así sean la variable observada de referencia de la variable latente.
Nota 2: Hay 24 parámetros libres a estimarse. El modelo esta sobreidentificado ya que p(p + 1)/ 2 = 9(9 + 1) / 2 = 45, y los grados de libertad son
21 (45 menos 24).
Fuente: Elaboración propia
Figura 42. Escribir datos en pantalla
5.4.6. Correr LISREL.
Se oprime el botón L que está en el menú.
Los resultados son la gráfica de trayectorias (figura 43) denominada como archivo “Educational Achievement
Stuctural Equation Initial Model.PTH”, los
resultados (tabla 6) y los índices de ajuste (tabla 7) denominados por el archivo ““Educational Achievement Stuctural
Equation Initial Model.OUT”
L I S R E L 9.10 (STUDENT)
BY
The following lines were read from file C:\LISREL9 Student Examples\SPLEX\EDU.spj:
Covariance Matrix
Covariance Matrix
Number of Iterations = 10
Measurement Equations
HOME ABILITY
-------- --------
HOME 0.532
(0.082)
6.486
Log-likelihood Values
Fitted Residuals
Stemleaf Plot
- 4|51830
- 2|8193321
- 0|88433219000000000000
0|523
2|138
4|3
6|
8|249
10|44
12|
14|
16|4
Standardized Residuals
Stemleaf Plot
- 3|0
- 2|5433111
- 1|7300
- 0|98877664000000000000
0|28
1|0259
2|8
3|145
4|56
5|2
Largest Negative Standardized Residuals
Residual for MoEd and FamInc -3.022
Largest Positive Standardized Residuals
Residual for FamInc and EdAsp 3.491
Residual for FamInc and OcAsp 3.083
Residual for FamInc and VerbAch 5.236
Residual for FamInc and QuantAch 2.772
Residual for MoEd and FaEd 4.573
Residual for VerbAb and FamInc 4.530
Residual for QuantAb and FamInc 3.442
__________________________________________________________________
Fuente: Elaboración propia
Algunos índices de ajuste seleccionados señalan que no hay ajuste y que se requiere modificación de la ecuación
estructural (tabla 7).
Tabla 7. Índices seleccionados de ajuste de la ecuación estructural.
___________________________
2
χ = 57. 45
df = 21
p value .0000
RMSEA =.0932
GFI = .938
____________________________
Nota: buscarlos en el archivo Educational Achievement Structural
Equation Initial Model..PTH
Fuente: Elaboración propia
Por otro lado, los índices de modificación (tabla 8) que aparecen en el archivo con extensión OUT sugieren que se
incluya una trayectoria de FamInc a ABILITY, a fin de reducir la Ji cuadrada en 35.5 puntos y/o correlacionar MoEd y
FaEd para así reducir la Ji cuadrada en 40.2 puntos.
Debido a que la reducción de Ji cuadrada de 39.6 es la mayor, y teóricamente es posible, se procede a modificar el
modelo mediante el parámetro de correlación entre MoED y FaEd (ver figura 44).
Nota: Se ha incluido una flecha curva que correlaciona FaEd y MoED
Fuente: Notas del Curso MES de Schumacker.
Figura 44. Modelo hipotético modificado del ejemplo de modelamiento estructural.
De acuerdo a la figura 45 se incluye la instrucción Let the error covariances of FaEd and MoEd correlate.
Los resultados del modelamiento de ecuación estructural se presentan en la gráfica de trayectorias (figura 46), la tabla
de resultados (tabla 9), y la tabla de índices de ajuste seleccionados ( tabla 10). Los resultados muestran que los datos se
ajustan al modelo teórico, en otras palabras, que el modelo teórico es confirmado.
En la tabla 9 se muestran la matriz de covarianzas, las ecuaciones de medición, y los índices de ajuste.
L I S R E L 9.10 (STUDENT)
BY
The following lines were read from file C:\LISREL9 Student Examples\SPLEX\EDU Modified.spj:
Covariance Matrix
Covariance Matrix
Number of Iterations = 9
Measurement Equations
Structural Equations
HOME ABILITY
-------- --------
HOME 0.662
(0.090)
7.355
_________________________________________________________________
Fuente: Elaboración propia
Finalmente, la tabla 10 presenta índices seleccionados que apoyan el ajuste de los datos con el modelo hipotético. ¡
el modelo ha sido validado!
Ha terminado el análisis SEM mediante el uso de SIMPLIS que es la opción sencilla de LISREL. La versión LISREL
para estudiantes también tiene carpetas con más ejemplos que el lector puede realizar por cuenta propia y con la ayuda del
libro “A Beginner´s Guide to Structural Equation Modeling” publicado en el 2004 por Randall E. Schumacker y Richard G.
Lomax.
FIN DEL EJERCICIO 5.4
Por estas causas, es conveniente partir de una teoría bien fundamentada antes de inciar el análisis con LISREL, y
verificar que la introducción de datos, texto y comandos se correcta.
Ahora resta que el lector proceda pacientemente a aplicar el MES mediante LISREL a su base de datos. Tener el
cuenta que es usual que le modelo no ajuste en el primer intento, y que probablemente se requerirán modificaciones del
modelo de acuerdo a los índices de modificación sugeridos y a supuestos téoricos.
En el caso de no encontrar o haber descargado los archivos de ejercicios LISREL, es posible consultar y pedírselos a
los autores a la cuenta de correo eléctrónica hermanlittlewood@yahoo.com.mx
REFERENCIAS
Bollen, Kenneth A. (1989). Structural equations with latent variables. NY: Wiley. A
leading, readable text on structural modeling.
Carmines, E. G. and McIver, J.P. (1981). Analyzing models with unobserved variables:
Analysis of covariance structures. Pp. 65-115 in George W. Bohmstedt and Edward F. Borgatta, eds., Social
Measurement. Thousand Oaks, CA: Sage Publications
Jöreskog, K.G. (1970). A general method for the analysis of covariance structures.
Biometrika, 57, 239-251.
Marcoulides, G.A. and Schumacker, R.E. (2001). New Developments and Techniques in
Structural Equation Modeling. London: Lawrence Eribaum Associates.
Mulaik, S. A. & Millsap, R. E. (2000). Doing the fouyr-step right. Structural Equation
Modeling 7, 36-73
Simon, H. (1953). Causal ordering and identifiability, in Hood, W.C.; Koopmans, T.C.,
Studies in Econometric Method, New York: Wiley, pp. 49–74
Stevens, J, (1996), Applied multivariate statistics for the social science, New Jersey:
Lawrence Erlbaum Associates.
Investigaciones personales en las que los autores han aplicado LISREL o AMOS.
Littlewood, H.F. y Alviter, L.E. (2013). Evitación del trabajo en cinco organizaciones
Mexicanas. Ciencias Administrativas: teoría y praxis. 9, 1, 155-174. ISSN: 1405-924X http://acacia.org.mx/revista/
González Sánchez, I. Kertész, R., Romero González, R.E, García Alvarez, C.M y
Littlewood, H.F. (2008). Comportamiento Organizacional: Nuevos retos. Porrúa: México, D.F.
ISBN: 978-970-819-053-4
Littlewood, H.F. (2007). De Cuerpo Presente: Un estudio de Evitación del Trabajo. Revista Interamericana de
Psicología Ocupacional. 26, 1, 22 - 33. ISSN 0120-3800
Términos.
Análisis de Covarianza (ANCOVA). Es una técnica estadística que analiza la relación entre una variable dependiente y dos
o más independientes, eliminando y controlando el efecto de al menos una de estas independientes.
Análisis Factorial Confirmatorio (AFC o CFA en inglés). Una variante del análisis factorial que prueba propuestas teóricas
acerca de la estructura de un conjunto de mediciones.
Alfa de Cronbach o Cronbach´s alpha. Medida común de confiabilidad de un conjunto de indicadores (reactivos). Los
valores varían entre 0 y 1.0, donde valores altos indican confiabilidad aceptable.
Correlación. Coeficiente que indica la fuerza y dirección de la relación entre dos variables. Varía entre -1.00 y 1.00.
Confiabilidad. Se refiere al grado en que su aplicación repetida al mismo tiempo sujeto y objeto produce iguales resultados.
La confiabilidad de un instrumento de medición se determina mediante diversas técnicas estadística.
Covarianza. Parámetro que indica el grado en que dos variables varían simultáneamente o en conjunto. Una matriz de
varianza- covarianza es una matriz simétrica con varianzas en la diagonal y covarianzas fuera de la diagonal. La covarianza
asymptótica es una matriz de grandes muestras.
Error. Es una inconsistencia en las respuestas de una persona a una escala, es un rompimiento con el patrón ideal de
intensidad de la escala. Cuando el número de errores es excesivo, la escala no presenta reproductividad y no puede aceptarse.
La reproductividad se determina mediante un coeficiente.
Estadística. Ciencia que se ocupa del estudio de fenómenos de tipo genérico, normalmente complejos y enmarcados en un
universo variable, mediante el empleo de modelos de reducción de la información y de análisis de validación de los resultados
en términos de representatividad. La estadística aplicada a las ciencias sociales estudia el comportamiento de una población
mediante un estudio cuyo propósito es hacer inferencias a partir de un subconjunto de datos, llamado muestra, tomados de
ella.
Estadística Descriptiva. Se refiere a los métodos de recolección, descripción, visualización y resumen de los datos que
pueden ser presentados en forma numérica ò gráfica. Es una rama de la estadística aplicada.
Estadística Inferencial. Se refiere a la generación de los modelos y predicciones relacionadas a los fenómenos estudiados,
teniendo en cuenta el aspecto aleatorio y la incertidumbre en las observaciones. Extrapola los resultados obtenidos en el
análisis de los datos y a partir de ello predecir acerca de la población, con un margen de confianza conocido. Se apoya
fuertemente en el cálculo de probabilidades.
Estadística Paramétrica. Es la que requiere que los elementos que integran las muestras contengan elementos parámetros
o medibles.
Estadística No Paramétrica. Estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los
llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la
determinan. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una
distribución normal o cuando el nivel de medida empleado no sea, como mínimo, de intervalo
Estimación máxima de verosimilitud o maximum likelihood estimation. Técnica estadística usada para estimar
simultáneamente todos los parámetros del modelo.
LISREL. Procedimiento y paquete de análisis de Linear Structural RELations de conjuntos de variables latentes y
observables, y de su estructura de covarianzas. Realiza análisis factorial confirmatorio y análisis de trayectorias.
Modelamiento de ecuación estructural (MES o SEM en inglés). Técnica estadística multivariada que combina el análisis
factorial confirmatorio y el análisis estructural de trayectorias.
Modelo anidado (nested). Modelo que usa los mismos constructos que otro modelo, pero difiere en el número o tipos de
relaciones causales. Cuando una trayectoria es modificada, se dice que el modelo esta anidado en el modelo original.
Modelo de medición. Submodelo de modelamiento de ecuación estructural que especifica indicadores por constructo y
evalúa la confiabilidad y validez de los constructos involucrados.
Modelo estructural. Conjunto de relaciones entre variables o constructos; establece una secuencia o trayectoria
presumiblemente causal entre variables independientes y variables dependientes.
Multicolinealidad. Grado en el que una variable independiente varía con otras variables independientes. Altos niveles de
multicolinealidad afectan los supuestos estadísticos de independencia de las variables.
PRELIS. Es un acrónimo de PRE-processor de LISREL y es útil para preparar bases de datos y obtener las matrices de
correlaciones y covarianzas necesarias pare el MES.
Regresión Múltiple. Es un método para analizar el efecto de dos o más variables independientes sobre una dependiente. Es
una extensión de la regresión lineal sólo que con un mayor número de variables independientes. Sirve para predecir el valor
de una variable dependiente conociendo el valor y la influencia de las variables independientes incluidas en el análisis.
SIMPLIS. Es un acrónimo de SIMPLe english para LISREL que contiene una sintaxis o commandos simples necesarios
para llevar a cabo aplicaciones LISREL en Windows.
Validez. Es el grado en que un instrumento refleja un dominio realmente mide la variable que pretende medir. Ejemplo: un
instrumento para medir inteligencia válido debe medir inteligencia y no la memoria.
Validez de constructo. Tipo de validez que determina que tanto un instrumento de medición efectivamente mide un
constructo teórico.
Variable observada o indicador. Valor observado que se usa para medir indirectamente un constructo teórico o variable
latente. Es una variable operacionalizada; un ejemplo es un reactivo o conjunto de reactivos de un cuestionario.
Variable. Es una propiedad que puede variar y cuya variación es susceptible de medirse. La variable se aplica a un grupo de
personas u objetos, los cuales pueden adquirir diversos valores respecto a la variable.
Variable dependiente. Es el efecto resultante de la manipulación de la variable independiente. La variable dependiente no
se manipula, sino que se mide para ver el efecto de la variable independiente sobre ella.
Variable endógena. Constructo que es una consecuencia dependiente de una variable exógena. En el diagrama de
trayectorias, las flechas apuntan a variables endógenas que se representan con un óvalo.
Variable exógena. Constructo que predice o antecede a una o más variables endógenas. En el diagrama de trayectorias, la
flecha parte de ella y sale de un ovalo.
Variable independiente. Es la que se considera como supuesta causa en una relación entre variables; es una condición
antecedente.
Variable latente. Constructo que no es directamente observable o medible, pero que puede ser medido indirectamente
mediante variables observables.