Documentos de Académico
Documentos de Profesional
Documentos de Cultura
7 Ecuaciones Estructurales-Structural Equation Modelling SEM (MEC)
7 Ecuaciones Estructurales-Structural Equation Modelling SEM (MEC)
SISTEMAS DE ECUACIONES
ESTRUCTURALES
Apuntes y ejercicios
Los presentes apuntes forman parte del borrador del libro de Joaquín
Aldás y Ezequiel Uriel Análisis Multivariante Aplicado que será
próximamente publicado por la editorial Thomson-Paraninfo. Por lo
tanto, como tal borrador pueden existir erratas, siendo bienvenidos todos
los comentarios que las detecten y sugerencias sobre la mejora del
capítulo.
2
14 ECUACIONES ESTRUCTURALES
MODELOS DE ESTRUCTURAS DE COVARIANZA
14.1 INTRODUCCIÓN
Esto hace que la lectura del capítulo dedicado al AFC sea un requisito imprescindible para
seguir la exposición del presente. Es más, a efectos didácticos, aprovecharemos que la
mayoría de aspectos a tratar fueron abordados de una manera formalizada en el tema del AFC
para no recurrir excesivamente a la formalización de los contenidos y dotar al capítulo
dedicado a los MEC de un carácter mucho más aplicado utilizando la presentación de
ejemplos como eje conductor del mismo.
En la figura 13.3 del capítulo anterior ya apuntábamos la diferencia entre un AFC y un MEC:
en el AFC no se plantean relaciones teóricas entre las variables latentes, en un MEC, sin
embargo, sí que se considera que un factor común puede influir sobre otro y se apunta la
dirección de esa causalidad. Siguiendo a Long (1983), los MEC intentan explicar las
relaciones entre un conjunto de variables observadas basándose en las relaciones de un
número más pequeño de variables latentes, caracterizando dichas relaciones mediante las
covarianzas de las variables observadas.
3
CASO 14.1. Modelización del desempeño de una fuerza de ventas
La figura 14.1 nos muestra un ejemplo de MEC que nos permitirá ilustrar esta definición,
introducir nuevos términos respecto a lo expuesto en el AFC y presentar la formalización
matemática del MEC en el epígrafe siguiente. Dicha figura modeliza la relación propuesta por
Bagozzi (1980) entre el desempeño en el trabajo de una fuerza de ventas y la satisfacción con
el mismo, indagando acerca de sus antecedentes. Expliquemos con más detalle el contenido
del modelo planteado.
δ1 δ2
ε2 ε3
X1 X2
Y2 Y3
λx11 λx21
λy22 λy32
ξ1 γ21
η2
φ21
ζ2
Y1
ξ3
λx53
X5 ε1
δ5
Entre los directores de una fuerza de venta existe el convencimiento de que existe una
relación entre el desempeño, o eficacia de los vendedores en su trabajo (variable latente η1) y
la satisfacción que estos declaran tener con su empleo (variable latente η2). Sobre lo que no
hay acuerdo es sobre si es el desempeño quien provoca la satisfacción o la satisfacción quien
influye positivamente sobre el desempeño. Asimismo, la influencia de una variable latente
sobre la otra puede no estar causada por la relación causal directa entre ambas, sino deberse a
la existencia de unos antecedentes comunes que afectan a los individuos y que, tras revisar la
4
literatura, Bagozzi (1980) sintetiza en: motivación para el logro (ξ1), es decir, valor que cada
individuo da a las recompensas que puede recibir por hacer bien su trabajo, la autoestima (ξ2),
es decir el buen concepto que uno tiene de sí mismo y que se considera que puede influir
sobre el buen desempeño de un trabajo y la inteligencia verbal (ξ3), esto es, la habilidad
cognitiva para percibir fielmente los contenidos de las conversaciones, las instrucciones
escritas y otra formas de comunicación, lo que hará que se pueda reaccionar adecuadamente
ante las objeciones de los clientes y organizar correctamente las tareas de ventas.
La figura 14.2 recoge el modelo estructural de nuestro ejemplo. Como se ha descrito, existen
tres factores latentes independientes (motivación para el logro, autoestima e inteligencia
verbal) y dos dependientes (desempeño y satisfacción). Bagozzi (1980), tras revisar la
literatura considera que la motivación para el logro influirá sobre la satisfacción de manera
directa, mientras que la autoestima y la inteligencia verbal lo harán de manera directa sobre el
desempeño y, a través de éste, sobre la satisfacción.
5
Figura 14.2. Componente estructural del MEC
ξ1 γ21
η2
φ21
ζ2
γ12
ζ1
φ32
η1
γ13
ξ3
Como ocurría con el AFC, cada factor latente ha de medirse de algún modo, es decir, se han
de encontrar variables observadas que midan ese factor, ya sea dependiente o independiente,
esto es, cada factor latente se modeliza como un factor común que subyace bajo una serie de
variables observadas. A esta parte del MEC se le denomina modelo de medida. A las variables
observadas que miden un factor dependiente se las denota como Y y a las que miden un factor
independiente como X. Las cargas factoriales de las variables observadas sobre el factor se
designan como λx si el factor es independiente y como λy si es dependiente.
El investigador ha de reconocer que sus medidas son imperfectas y tratará de modelizar esa
imperfección. Por ello, los MEC, como ocurría con los AFC incorporan los denominados
“errores de medida”, que denominábamos en el AFC como factores únicos. Los asociados a
las variables observadas (Y) de un factor dependiente se denotan con la letra ε y a los
asociados a variables observadas (X) de un factor independiente con δ.
La figura 14.3 ilustra los distintos componentes del modelo de medida con que cuenta el MEC
que estamos utilizando como ejemplo. Puede comprobarse que Bagozzi (1980) utiliza en
algunos casos un único indicador como instrumento de medida del factor latente (por ejemplo,
Y1 es el volumen anual de ventas en dólares de cada vendedor, como indicador del
desempeño) y en otros casos recurre a dos medidas que, en realidad, son baterías de preguntas
de las que se calcula su valor medio. Así, la medida Y2 de la satisfacción en el trabajo son
cuatro preguntas cuya contestación se recoge en una escala likert de seis puntos: ¿cree usted
que las oportunidades de promoción son mayor en trabajos distintos al suyo?, ¿le aconsejaría
a un amigo que busca trabajo que aceptara uno como el suyo? ¿cree usted que se sueldo es tan
alto como el que reciben otros por un trabajo similar al suyo? ¿cuán satisfecho está usted con
su trabajo?.
6
Figura 14.3. Componente de medida del MEC
δ1 δ2 ε2 ε3
X1 X2 Y2 Y3
ξ1
η2
ξ2
η1
λx32 λx42
λy11
X3 X4
Y1
δ3 δ4
ε1
δ5 X5 ξ3
λx53
η = Βη + Γξ + ζ (14-1)
donde, como se sintetiza en el cuadro 14.1, η es un vector r × 1 que contiene los r factores
dependientes, Β es una matriz r ×r que contiene los coeficientes que relacionan entre sí a los
factores dependientes, Γ es una matriz r ×s con los coeficientes que relacionan los r factores
dependientes con los s independientes. ξ es un vector s ×1 con los factores independientes. ζ
es un vector r ×1 que contiene los errores asociados con los factores dependientes y que,
como se ha señalado, indican que estos factores no están totalmente determinados por las
ecuaciones estructurales.
7
En la literatura econométrica, la ecuación (14-1), tras restar Βη a ambos miembros:
η - Βη = Γξ + ζ
y definir
&& = I - Β
Β
&& = Γξ + ζ
Βη (14-2)
Long (1983) señala que aunque la expresión (14-2) es más adecuada para deducir una serie de
resultados, (14-1) es más cómoda de interpretar, dado que un valor positivo en B indica una
&& indica
relación positiva entre los factores dependientes, mientras que una valor positivo de B
una relación negativa.
¿Cuáles son las hipótesis que se postulan en un modelo MEC? Pueden sintetizarse en las
siguientes:
1. Las variables están medidas en desviaciones respecto a su media, lo que implica que:
E ( η) = E ( ξ ) = E ( ζ ) = 0
E ( ξζ′ ) = E ( ζξ′ ) = 0 .
3. También se asume que B && es no singular (existe su inversa), lo que implica que (14-2)
se pueda resolver para el vector de factores dependientes, es decir, para η.
8
η1 = γ 12ξ 2 + γ 13ξ3 + β12η 2 + ζ 1
η 2 = γ 21ξ1 + β 21η1 + ζ 2
La ecuación anterior recoge exactamente las mismas matrices que se recogían en (14-1).
Además de las ecuaciones anteriores, sería necesario añadir para completar el contenido del
cuadro 14.1 las matrices que recogen las matrices de varianzas covarianzas de los factores
independientes (Φ) y entre los términos de error de los factores dependientes (Ψ), esto es:
Los otros dos sistemas de ecuaciones que representan un MEC son las que se ocupan de
reflejar el componente de medida, es decir, la parte del MEC que establece los indicadores de
cada factor y que ilustrábamos en la figura 14.3. Estos sistemas de ecuaciones son las
siguientes:
x = Λ xξ + δ (14-3)
y = Λ yη + ε (14-4)
Parte de los elementos implicados ya se han presentado con anterioridad. Los nuevos
elementos de las ecuaciones anteriores son el vector x de dimensión q×1 que contiene las
variables observadas que sirven para medir los factores independientes (q es el número de
esas variables observadas); y es el vector de variables observadas (hay p de ellas, por ello su
dimensión es p×1) que miden los factores dependientes. Por su parte, las matrices que
contienen los coeficientes de regresión o cargas factoriales entre esas variables y sus
respectivos factores vienen denotadas por Λx para los factores independientes y Λy para los
dependientes. Sus dimensiones son, respectivamente, q×s y p×r, siendo s y r el número de
factores de cada tipo.
Las hipótesis que se postulan sobre las variables de las ecuaciones anteriores son las
siguientes:
1. Las variables están medidas en desviaciones sobre la media, lo que implica que:
9
3. Los términos de error de las variables observadas están incorrelacionados entre sí:
E ( δε′ ) = E ( εδ′ ) = 0
Los cuadros 14.1 y 14.2 resumen la notación y las hipótesis que subyacen bajo un MEC. El
proceso de estimación consiste, como en el AFC, en estimar los parámetros que la matriz de
varianzas y covarianzas Σ - definida más adelante- que se deriva de las ecuaciones (14-1),
(14-3) y (14-4) y que inmediatamente deduciremos, sea lo más parecida posible a la matriz de
varianzas y covarianzas muestral S.
x1 = λ11x ξ1 + δ1 ⎫
⎪
x2 = λ21x ξ1 + δ 2 ⎪ y1 = λ11yη1 + ε1 ⎫
⎪ ⎪
x3 = λ32x ξ 2 + δ 3 ⎬ y2 = λ22y η 2 + ε 2 ⎬
x4 = λ42x ξ 2 + δ 4 ⎪ y3 = λ32y η 2 + ε 2 ⎪⎭
⎪
x5 = λ53x ξ3 + δ 5 ⎪⎭
Estas ecuaciones se pueden expresar en forma matricial, con la misma estructura que las
ecuaciones (14-3) y (14-4), de la siguiente forma:
⎡ x1 ⎤ ⎡ λ11x 0 0⎤ ⎡ δ1 ⎤
⎢x ⎥ ⎢ x ⎥ ⎢ ⎥
⎢ 2 ⎥ ⎢λ21 0 0 ⎥ ⎡ ξ1 ⎤ ⎢δ 2 ⎥
⎢ x3 ⎥ = ⎢ 0 λ32x ⎢ ⎥
0 ⎥ ⎢ξ 2 ⎥ + ⎢δ 3 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ x4 ⎥ ⎢ 0 λ42 0 ⎥ ⎢⎣ξ3 ⎥⎦ ⎢δ 4 ⎥
x
⎢⎣ x5 ⎥⎦ ⎢⎣ 0 0 λ53x ⎥⎦ ⎢⎣δ 5 ⎥⎦
x = Λx ξ + δ
10
⎡ y1 ⎤ ⎡λ11 0 ⎤ ⎡ ε1 ⎤
y
⎢ y ⎥ = ⎢ 0 λ y ⎥ ⎡η1 ⎤ + ⎢ε ⎥
22 ⎥ ⎢
⎢ 2⎥ ⎢ η ⎥ ⎢ 2⎥
y ⎥⎣ 2⎦
⎢
⎢⎣ y3 ⎥⎦ ⎣ 0 λ32 ⎦ ⎢⎣ε 3 ⎥⎦
y = Λy η + ε
⎡ y y ′⎤
⎡ ⎤⎡ ⎤ ⎡ yy′ yx′⎤
Σ = E ⎢ ⎥⎢ ⎥ ⎥ = E⎢
⎢
⎢⎣x⎦ ⎣x⎦ ⎥ ⎣ xy′ xx′ ⎥⎦
⎣⎢ ⎦⎥
⎡
⎢( Λ y η + ε )( Λ y η + ε )
′
( Λ η + ε ) ( Λ ξ + δ )′ ⎥⎤
y x
Σ=E⎢ ⎥
⎢ ( Λ x ξ + δ ) ( Λ y η + ε )′ ( x
Λ ξ + δ )( x
Λ ξ + δ ′
)⎦⎥
⎣
⎢ Λ ξη′ Λ ′ + δε′ ⎥
⎢ x y Λ x ξξ′Λ x′ + δδ′ ⎥
⎢ ′ ⎥
⎢⎣ + Λ x ξε′ + δη′ Λ y + Λ x ξδ′ + δξ′Λ x′ ⎥
⎦
&& −1 ( ΓΦΓ′ + Ψ ) Β
⎡Λ yΒ && ′−1Λ ′ + Θ Λ yΒ&& −1ΓΦΛ ′ ⎤
y ε x
Σ=⎢ && ⎥ (14-5)
′ ′
Λ x ΦΓ Β Λ y −1
′ ′
Λ x ΦΛ x + Θδ ⎦⎥
⎣⎢
Pues bien, la estimación de un modelo MEC pasa, como se ha señalado, por buscar aquellos
estimadores que hacen que la matriz Σ estimada según la expresión (14-5) se parezca lo más
posible a S.
11
dedicado al AFC. Por ello, tras un breve repaso, nos centraremos en su aplicación efectiva al
problema que estamos utilizando de ejemplo.
En esta notación para cada variable del modelo, ya sea latente u observada, sólo es relevante
si es una variable dependiente o independiente. Los parámetros que se han de estimar son: (1)
los coeficientes de regresión, y (2) las varianzas y covarianzas de las variables independientes
del modelo.
A los términos de error de las variables observadas se les asigna la etiqueta E y a los de las
variables latentes D (de disturbances). Haciendo uso de la notación matricial, el modelo de
Bentler-Weeks es un modelo de regresión como el siguiente:
η = Βη + γξ (14-6)
Solo las variables independientes tienen varianzas y covarianzas como parámetros del modelo
- aparecen recogidas en la matriz r × r denominada Φ −, ya que la matriz de varianzas y
covarianzas de η se puede deducir a partir de (14-7). Para clarificar la notación
identifiquemos todos los vectores y matrices implicados en nuestro ejemplo. Se comprobará
que utilizaremos una doble notación para identificar a las variables y, así, facilitar la
transición entre la notación empleada y la sintaxis de los programas que luego utilizaremos.
Es importante que el lector no confunda el contenido que tienen ahora los vectores η y ξ con
el que tenían en la notación anterior. Por ello en la figura 14.4 se ha adaptado la figura 14.1 a
la nueva notación.
En la figura 14.4 se muestra la equivalencia entre las dos notaciones. Observamos que, en
nuestro ejemplo, las variables independientes (no reciben flecha que no sea una covarianza)
son los factores motivación para el logro (ξ1), autoestima (ξ2) e inteligencia verbal (ξ3), así
como todos los términos de error (las D y las E). Por su parte, son variables dependientes (sí
reciben flecha) los factores desempeño (η1) y satisfacción (η2), así como todas las variables
observadas Y1, Y2, Y3, X1, X2, X3, X4, y X5. Pues bien, si denotamos con un asterisco todos los
parámetros que pueden ser susceptibles de estimación, el problema de nuestro ejemplo estaría
representado por las siguientes ecuaciones (decimos “pueden” porque en el proceso de
identificación del modelo, muchos de ellos se fijarán a 0 o a 1, de hecho nótese cómo los
coeficientes de regresión de las variables observadas respecto a los términos de error o de los
factores dependientes respecto a los términos de error ya se han fijado a 1, como ya se hizo en
el AFC):
12
Figura 14.4. Grafo mediante la notación Bentler-Weeks
∗Ε4 ∗Ε5
∗Ε2 ∗Ε3
ξ6=V4 ξ7=V5
ξ4=V2 ξ5=V3
* *
* *
η1=F3 *
ξ2=F2
*
*D2
η2=F4
* * *
* * * *
*D1
ξ8=V6 ξ9=V7
*
ξ1=F1
∗Ε6 ∗Ε7
* *
ξ3=V1
η3=F5
*
∗Ε8 ∗Ε1
ξ10=V8
V1 = *F1 + E1 ⎫
V2 = *F2 + E2 ⎪
⎪
V3 = *F2 + E3 ⎪
⎪
V4 = *F3 + E4 ⎪
V5 = *F3 + E5 ⎪⎪
⎬
V6 = *F4 + E6 ⎪
V7 = *F4 + E7 ⎪
⎪
V8 = *F5 + E8 ⎪
F1 = *F4 + *F5 + *F2 + D1 ⎪
⎪
F2 = *F1 + *F3 + D2 ⎪⎭
13
incluyen ahora todas las variables dependientes del modelo: Y1, Y2 y Y3 (V1, V2 y V3); X1, X2,
X3, X4, y X5 (V4, V5, V6, V7, y V8.); y η1 y η2 (F1 y F2)1.
⎡ V1 ⎤ ⎡0 0 0 0 0 0 0 0 * 0 ⎤ ⎡ V1 ⎤
⎢V ⎥ ⎢0 0 0 0 0 0 0 0 0 * ⎥⎥ ⎢⎢V2 ⎥⎥
⎢ 2⎥ ⎢
⎢V3 ⎥ ⎢0 0 0 0 0 0 0 0 0 * ⎥ ⎢V3 ⎥
⎢ ⎥ ⎢ ⎥⎢ ⎥
⎢V4 ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V4 ⎥
⎢V5 ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V5 ⎥
⎢ ⎥=⎢ ⎥⎢ ⎥+
⎢V6 ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V6 ⎥
⎢V ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V7 ⎥
⎢ 7⎥ ⎢ ⎥⎢ ⎥
⎢V8 ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V8 ⎥
⎢ F ⎥ ⎢0 0 0 0 0 0 0 0 0 * ⎥ ⎢ F1 ⎥
⎢ 1⎥ ⎢ ⎥⎢ ⎥
⎣⎢ F2 ⎦⎥ ⎣⎢0 0 0 0 0 0 0 0 * 0 ⎦⎥ ⎣⎢ F2 ⎦⎥
⎡ F3 ⎤
⎢F ⎥
0⎤ ⎢ ⎥
4
⎡0 0 0 1 0 0 0 0 0 0 0 0
⎢0 ⎢ F5 ⎥
⎢ 0 0 0 1 0 0 0 0 0 0 0 0 ⎥⎥ ⎢ ⎥
E1
⎢0 0 0 0 0 1 0 0 0 0 0 0 0⎥ ⎢ ⎥
⎢ ⎥ ⎢ E2 ⎥
⎢* 0 0 0 0 0 1 0 0 0 0 0 0⎥ ⎢ ⎥
⎢* ⎢ E3 ⎥
0 0 0 0 0 0 1 0 0 0 0 0⎥ ⎢ ⎥
+⎢ ⎥ E4
⎢0 * 0 0 0 0 0 0 1 0 0 0 0⎥ ⎢ ⎥
⎢0 ⎢ E5 ⎥
* 0 0 0 0 0 0 0 1 0 0 0⎥ ⎢ ⎥
⎢ ⎥ E6
⎢0 0 * 0 0 0 0 0 0 0 1 0 0⎥ ⎢ ⎥
⎢0 ⎢ E7 ⎥
* * 0 0 0 0 0 0 0 0 1 0⎥ ⎢ ⎥
⎢ ⎥ E8
⎢⎣* 0 0 0 0 0 0 0 0 0 0 0 1 ⎥⎦ ⎢ ⎥
⎢ D1 ⎥
⎢ ⎥
⎢⎣ D2 ⎥⎦
El cuadro 14.3 sintetiza las equivalencias entre las matrices de las dos notaciones que hemos
venido empleando hasta el momento y muestra la simplificación que supone la notación del
modelo de Bentler-Weeks.
1
Puede ser un buen ejercicio que el lector comprobase cómo operando con las matrices siguientes se llega a las
ecuaciones previamente expuestas.
14
Cuadro 14.3. Notaciones Bentler-Weeks y tradicional comparadas
Bentler-Weeks Notación tradicional
Símbolo Contenido Símbolo Contenido
Coef. regr. de VD B Coef. regr. de VD latentes prediciendo otras VD latentes
Β que predicen otras
Λy Coef. regr. VD observadas predichas por VD latentes
VD
Coef. regr. de VD Γ Coef regresión de VD latentes predichas por VI latentes
γ
predichas por VI Λx Coef regresión de VD observadas predichas por VI latentes
Φ Covarianzas entre VI latentes
Covarianzas entre Ψ Covarianzas errores asociados a VD latentes
Φ
VI Θδ Cov. errores VD observadas predichas por VI latentes
Θε Cov. errores VD observadas predichas por VD latentes
Fuente: Ullman (1996)
⎡ F3 F4 F5 E1 E2 E3 E4 E5 E6 E7 E8 D1 D2 ⎤
⎢F * 0 0 0 0 0 0 0 0 0 0 0 0 ⎥⎥
⎢ 3
⎢ F4 * * 0 0 0 0 0 0 0 0 0 0 0⎥
⎢ ⎥
⎢ F5 * * * 0 0 0 0 0 0 0 0 0 0⎥
⎢ E1 0 0 0 * 0 0 0 0 0 0 0 0 0⎥
⎢ ⎥
⎢ E2 0 0 0 0 * 0 0 0 0 0 0 0 0⎥
⎢E 0 0 0 0 0 * 0 0 0 0 0 0 0⎥
Φ=⎢ 3 ⎥
⎢ E4 0 0 0 0 0 0 * 0 0 0 0 0 0⎥
⎢E 0 0 0 0 0 0 0 * 0 0 0 0 0⎥
⎢ 5 ⎥
⎢ E6 0 0 0 0 0 0 0 0 * 0 0 0 0⎥
⎢ ⎥
⎢ E7 0 0 0 0 0 0 0 0 0 * 0 0 0⎥
⎢ E8 0 0 0 0 0 0 0 0 0 0 * 0 0⎥
⎢ ⎥
⎢ D1 0 0 0 0 0 0 0 0 0 0 0 * 0⎥
⎢⎢ D 0 0 0 0 0 0 0 0 0 0 0 * * ⎥⎥⎦
⎣ 2
15
14.3 IDENTIFICACIÓN DEL MODELO EN EL MEC
Todo lo que se indicó respecto a la identificación de un AFC es válido para un MEC, aunque
en este último caso tiene mayor complejidad debido a que el número de parámetros suele ser
muy superior. De nuevo existen dos tipos de condiciones: las necesarias y suficientes y las
que solamente son necesarias.
16
4. Los parámetros del coeficiente de regresión de la variable observada sobre el término
de error se fijan arbitrariamente a 1.
Apliquemos lo expuesto a nuestro ejemplo. Seguiremos para ello la figura 14.4 que es la que,
por recurrir a la notación de Bentler-Weeks, más fácilmente permitirá comprender la sintaxis
de SAS Calis que es el programa que vamos a utilizar en esta ocasión.
En primer lugar, ¿de cuántos datos disponemos? Contamos con 8 variables observadas, por lo
tanto con 8(8+1)/2=36 varianzas y covarianzas muestrales. Si, por el contrario, contamos con
los parámetros que hay que estimar antes de que el modelo esté identificado (véase la figura
14.4) tendríamos que estimar 40 (véanse los * de las matrices anteriores y también los 1, dado
que inicialmente habría que estimarlos, aunque en la identificación, como veremos, lo fijemos
a ese valor): 8 varianzas de los términos de error E, 2 varianzas de los términos de error D, 3
varianzas de los factores independientes, 8 coeficientes de regresión de las variables
observadas sobre los términos de error E, 2 coeficientes de regresión de los factores
dependientes sobre los términos de error D, 4 covarianzas (3 entre los factores independientes
y 1 entre los errores D), 8 coeficientes de regresión entre los factores y las variables
observadas y 5 entre factores dependientes e independientes. Por lo tanto, antes de aplicar las
restricciones adivionales, este modelo está claramente infraidentificado.
En el cuadro 14.4 está la sintaxis de SAS Calis que resuelve el MEC de nuestro ejemplo.
Sigámosla para explicar los pasos de identificación. En primer lugar fijamos a 1 los
coeficientes de regresión entre las variables observadas o factores a los que van asociados y
los términos de error (D y E). Puede comprobarse como delante de, por ejemplo, el error E3
no aparece ningún parámetro a estimar (se ha fijado a 1):
V3=LV3F2 F2+E3
V2=F2+E2
Finalmente se fijan a cero las varianzas de los términos de error de asociados a las variables
observadas cuando un factor está explicado sólo por una de ellas (caso de V1 y V8). Véase
cómo al resto de varianzas se les asocia un parámetro a estimar (VARF3, por ejemplo):
F3=VARF3,
F4=VARF4,
F5=VARF5,
D2=VARD2,
D1=VARD1,
E1=0,
E8=0,
E2-E7=VARE2-VARE7;
17
Cuadro 14.4 Sintaxis de SAS Calis para el problema de MEC
DATA D1 (TYPE=CORR);
INPUT _TYPE_ $ _NAME_ $ V1-V8;
CARDS;
N . 122 122 122 122 122 122 122 122
STD . 209.06 3.43 2.81 1.95 2.08 2.16 2.06 3.65
CORR V1 1.000 . . . . . . .
CORR V2 0.418 1.000 . . . . . .
CORR V3 0.394 0.627 1.000 . . . . .
CORR V4 0.129 0.202 0.266 1.000 . . . .
CORR V5 0.189 0.284 0.208 0.365 1.000 . . .
CORR V6 0.544 0.281 0.324 0.201 0.161 1.000 . .
CORR V7 0.507 0.225 0.314 0.172 0.174 0.546 1.000 .
CORR V8 -0.357 -0.156 -0.038 -0.199 -0.277 -0.294 -0.174 1.000
;
PROC CALIS CORR CORR RESIDUAL MODIFICATION METHOD=ML;
LINEQS
V1=F1+E1,
V2=F2+E2,
V3=LV3F2 F2+E3,
V4=F3+E4,
V5=LV5F3 F3+E5,
V6=F4+E6,
V7=LV7F4 F4+E7,
V8=F5+E8,
F1=PF1F2 F2+PF1F4 F4+PF1F5 F5+D1,
F2=PF2F1 F1+PF2F3 F3+D2;
STD
F3=VARF3,
F4=VARF4,
F5=VARF5,
D2=VARD2,
D1=VARD1,
E1=0,
E8=0,
E2-E7=VARE2-VARE7;
COV
F3 F4=CF3F4,
F4 F5=CF4F5,
F3 F5=CF3F5,
D1 D2=CD1D2;
VAR V1-V8;
RUN;
El resto de la sintaxis del cuadro 14.4 se entiende fácilmente tras lo expuesto. Así se han de
estimar cuatro covarianzas (entre los factores independientes y entre los errores asociados a
los factores dependientes):
F3 F4=CF3F4,
F4 F5=CF4F5,
F3 F5=CF3F5,
D1 D2=CD1D2;
V1=F1+E1,
V2=F2+E2,
V3=LV3F2 F2+E3,
V4=F3+E4,
V5=LV5F3 F3+E5,
V6=F4+E6,
18
V7=LV7F4 F4+E7,
V8=F5+E8,
F1=PF1F2 F2+PF1F4 F4+PF1F5 F5+D1,
F2=PF2F1 F1+PF2F3 F3+D2;
Nótese que SAS sustituye los asteriscos que indican un parámetro a estimar en EQS por el
nombre que lo identifica (PF2F3 por ejemplo). Si este nombre no aparece, esto indica que se
ha fijado a 1. Podemos ahora comprobar que el modelo está sobreidentificado, lo que no
ocurría antes de introducir las restricciones, ya que había 36 varianzas y covarianzas
muestrales, pero 40 parámetros a estimar. Sin embargo, se han fijado a 1 los 10 coeficientes
de regresión de los términos de error D y E. Asimismo se ha fijado a 1 para establecer la
unidad de medida los coeficientes de regresión entre V1 y F1, V2 y F2, V4 y F3, V6 y F4 y
V8 y F5 (5 en total) y, finalmente, se ha fijado a cero las varianzas de E1 y E8, por lo tanto los
parámetros a estimar son 40-10-5-2 = 23. Nuestro modelo está ahora sobreidentificado y
tenemos 36-23 = 13 grados de libertad. Identificado el modelo, pasemos ahora a la estimación
del mismo
Una vez se ha identificado el modelo, éste puede estimarse por cualquiera de los
procedimientos señalados en el capítulo anterior: máxima verosimilitud (ML), mínimos
cuadrados generalizados (GLS), mínimos cuadrados sin ponderar (ULS), etc. Las
estimaciones de los parámetros de forma que se minimice la diferencia entre la matriz de
varianzas covarianzas muestrales S y la matriz de varianzas covarianzas predicha Σ̂ que,
recordemos, venía dada por la expresión (14-5). Cada procedimiento de estimación define de
una manera distinta esa “diferencia” o función de ajuste. Un listado de las funciones de ajuste
de cada método se ofreció en el apartado 13.4.
Si nos fijamos en la sintaxis de SAS Calis del cuadro 14.4, comprobamos que en este caso el
método de estimación seleccionado ha sido el de máxima verosimilitud (METHOD=ML). ¿Qué
estimaciones de los parámetros se han obtenido?. En primer lugar. El programa ofrece las
estimaciones de los coeficientes de regresión entre los factores y las variables observadas, ya
sean estos dependientes o independientes (cuadro 14.5) para, inmediatamente, ofrecer las
estimaciones de los parámetros que vinculan los factores dependientes con los independientes
(cuadro 14.6), replicando las ecuaciones que mostrábamos en el apartado anterior.
19
Cuadro 14.5 Estimación de los coeficientes de regresión entre variables observadas y latentes
V1 = 1.0000 F1 + 1.0000 E1
V2 = 1.0000 F2 + 1.0000 E2
V3 = 0.9332*F2 + 1.0000 E3
Std Err 0.1622 LV3F2
t Value 5.7546
V4 = 1.0000 F3 + 1.0000 E4
V5 = 1.0980*F3 + 1.0000 E5
Std Err 0.3469 LV5F3
t Value 3.1651
V6 = 1.0000 F4 + 1.0000 E6
V7 = 0.9235*F4 + 1.0000 E7
Std Err 0.1492 LV7F4
t Value 6.1885
V8 = 1.0000 F5 + 1.0000 E8
De estos cuadros se deduce inmediatamente que la estimación que hace el programa de las
matrices γ y B (notación Bentler-Weeks) son las siguientes:
⎡0 0 0 0 0 0 0 0 1 0 ⎤
⎢0 0 0 0 0 0 0 0 0 1
⎥
⎢ ⎥
⎢0 0 0 0 0 0 0 0 0 0.93 ⎥
⎢ ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
Bˆ = ⎢ ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
⎢0 0 0 0 0 0 0 0 0 −0.25
⎥
⎢ ⎥
⎣⎢ 0 0 0 0 0 0 0 0 0.30 0 ⎦⎥
20
⎡ 0 0 0 1 0 0 0 0 0 0 0 0 0⎤
⎢ 0 0 0 0 1 0 0 0 0 0 0 0 0
⎥
⎢ ⎥
⎢ 0 0 0 0 0 1 0 0 0 0 0 0 0⎥
⎢ ⎥
⎢ 1 0 0 0 0 0 1 0 0 0 0 0 0⎥
⎢1.09 0 0 0 0 0 0 1 0 0 0 0 0⎥
γˆ = ⎢ ⎥
⎢ 0 1 0 0 0 0 0 0 1 0 0 0 0⎥
⎢ 0 0.92 0 0 0 0 0 0 0 1 0 0 0⎥
⎢ ⎥
⎢ 0 0 1 0 0 0 0 0 0 0 1 0 0⎥
⎢ 0 0.95 −0.17 0 0 0 0 0 0 0 0 1 0
⎥
⎢ ⎥
⎣⎢ 0.51 0 0 0 0 0 0 0 0 0 0 0 1 ⎦⎥
Para que todos los parámetros estén estimados, falta la matriz Φ que contiene las varianzas de
las variables independientes y covarianzas entre las mismas. El cuadro 14.7 ofrece estos
parámetros de donde se extrae inmediatamente la matriz que restaba por deducir:
Standard
Variable Parameter Estimate Error t Value
Standard
Var1 Var2 Parameter Estimate Error t Value
21
⎡ F3 F4 F5 E1 E2 E3 E4 E5 E6 E7 E8 D1 D2 ⎤
⎢F 0.34 0 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ 3 ⎥
⎢ F4 0.18 0.59 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
−0.20 −0.25
⎢ F5 1.00 0 0 0 0 0 0 0 0 0 0
⎥
⎢ E1 0 0 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢ E2 0 0 0 0 0.32 0 0 0 0 0 0 0 0 ⎥
⎢ 0 ⎥
ˆ = ⎢ E3
Φ
0 0 0 0 0 0.41 0 0 0 0 0 0
⎥
⎢ E4 0 0 0 0 0 0 0.65 0 0 0 0 0 0 ⎥
⎢E 0 0 0 0 0 0 0 0.58 0 0 0 0 0 ⎥
⎢ 5 ⎥
⎢ E6 0 0 0 0 0 0 0 0 0.40 0 0 0 0 ⎥
⎢E 0 0 0 0 0 0 0 0 0 0.49 0 0 0
⎥
⎢ 7 ⎥
⎢ E8 0 0 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢ D1 0 0 0 0 0 0 0 0 0 0 0 0.60 0 ⎥
⎢⎣ D2 0 0 0 0 0 0 0 0 0 0 0 0.14 0.41⎥⎦
Con esta estimación de los parámetros se obtiene la matriz de varianzas covarianzas predicha
Σ̂ que ha de parecerse a la muestral S para que el modelo ofrezca un buen ajuste. El cuadro
14.8 muestra como ofrece SAS esta información.
V1 V2 V3 V4 V5 V6 V7 V8
Una vez ofrecidas las estimaciones de los parámetros que definen el modelo, es necesario
evaluar la bondad de ajuste del mismo antes de pasar a interpretar los resultados.
Al igual que ocurría con la identificación del modelo, los principales indicadores de medida
de su ajuste, fueron abordados en el capítulo dedicado al AFC. Por ello, en éste nos
centraremos sólo en su aplicación al ejemplo.
22
el caso ideal debería ser una matriz nula. En todo caso, se espera que los residuos sean
pequeños y estén simétricamente distribuidos. Residuos grandes asociados a ciertas variables
pueden indicar una incorrecta especificación del modelo.
V1 V2 V3 V4 V5 V6 V7 V8
V8 V3 2.56117
V8 V1 2.00405
V5 V4 -2.00345
V6 V3 1.57901
V7 V3 1.57191
V8 V5 -1.44828
V8 V6 -1.30527
V8 V7 1.30526
V4 V3 1.11962
V8 V2 0.99900
El análisis de esta información muestra que los residuos no son demasiado altos y su
distribución es prácticamente simétrica y centrada en cero. Debemos prestar atención al hecho
de que la mayoría de los residuos más elevados van asociados a la variable V8. Este hecho
apunta a algún problema de especificación de alguno de los parámetros del modelo, lo que
deberá considerarse cuando se contemplen los indicadores para la reespecificación del mismo.
23
The CALIS Procedure
Covariance Structure Analysis: Maximum Likelihood Estimation
Limitándonos a los que se comentaron en el capítulo anterior, vemos que el estadístico χ2 del
modelo independiente −aquel que supone la completa independencia entre las variables− es
muy elevado (256.5), siendo significativamente mejorado por el asociado al modelo propuesto
(15.1), además de no ser significativo (p=0.30), lo que permite aceptar la hipótesis nula de
igualdad entre las matrices de covarianzas muestral y estimada.
Por otra parte, respecto a los estadísticos ad hoc que presentamos en el capítulo anterior,
vemos que todos cumplen los requisitos exigidos. Los estadísticos NFI (0.9413), NNFI
(0.9806), CFI (0.9910), GFI (0.9698) y AGFI (0.9165) toman valores superiores a 0.9; el AIC
(-10.94) y el CAIC (-60.39) mejoren los valores del modelo teórico (256.5 − 2 ×28=200.5
para AIC y 256.5–(ln122+1) ×28=93.98 para el CAIC). Estos estadísticos confirman,
también, el buen ajuste del modelo.
24
Cuadro 14.11 Historial de iteraciones
Ratio
Between
Actual
Objective Max Abs and
Function Active Objective Function Gradient Predicted
Iter Restarts Calls Constraints Function Change Element Lambda Change
Optimization Results
Constatado que el ajuste del modelo es razonable, debe procederse a la interpretación del
mismo y, si así se deriva de los resultados, a su posible reespecificación.
La interpretación del modelo pasa por establecer qué parámetros estimados han resultado ser
significativos. Aunque esta información ya está mostrada en los cuadros 14.5, 14.6 y 14.7, la
mostramos de nuevo en el cuadro 14.13 aprovechando esta ocasión para presentar los
resultados tal y como suele hacerse en la literatura. Los valores estandarizados se obtienen de
la salida de SAS recogida en el cuadro 14.12, y se suele ofrecer para facilitar la comparación
entre los coeficientes y también con los resultados de otros trabajos. El cuadro 14.13 utiliza
para referirse a los parámetros la notación clásica que es la más empleada.
25
Cuadro 14.12 Solución estandarizada
V1 = 1.0000 F1 + 0 E1
V2 = 0.8197 F2 + 0.5728 E2
V3 = 0.7649*F2 + 0.6441 E3
LV3F2
V4 = 0.5855 F3 + 0.8107 E4
V5 = 0.6429*F3 + 0.7660 E5
LV5F3
V6 = 0.7689 F4 + 0.6394 E6
V7 = 0.7101*F4 + 0.7041 E7
LV7F4
V8 = 1.0000 F5 + 0 E8
Error Total
Variable Variance Variance R-Square
1 V1 0 1.00000 1.0000
2 V2 0.32812 1.00000 0.6719
3 V3 0.41488 1.00000 0.5851
4 V4 0.65720 1.00000 0.3428
5 V5 0.58673 1.00000 0.4133
6 V6 0.40880 1.00000 0.5912
7 V7 0.49574 1.00000 0.5043
8 V8 0 1.00000 1.0000
9 F1 0.60009 1.00000 0.3999
10 F2 0.41588 0.67188 0.3810
F3 F4 CF3F4 0.40502
F3 F5 CF3F5 -0.34873
F4 F5 CF4F5 -0.32566
D1 D2 CD1D2 0.28431
26
Cuadro 14.13 Resultados del MEC
Estimación no Estimación
Matriz Parámetro t
estandarizada estandarizada
x
λ 11 1.000* − 1.0000
x
λ 21 1.0890 3.16 0.6249
Λx λx32 1.000* − 0.7689
λx42 0.9235 6.18 0.7101
λx53 1.000* − 1.0000
y
λ 11 1.000* − 1.0000
Λy λy22 1.000* − 0.8197
λy32 0.9332 5.75 0.7649
β12 -0.2583 -0.53 -0.2117
B
β21 0.3082 2.10 0.3579
γ12 0.9591 3.46 0.7374
Γ γ13 -0.1787 -1.74 -0.1787
γ21 0.5189 2.26 0.3706
ψ11 0.6000 2.01 0.6000
Ψ ψ22 0.4158 3.54 0.4158
ψ12 0.1420 0.58 0.1420
φ11 0.3428 2.39 0.3428
φ22 0.5912 4.18 0.5912
φ33 1.0000 7.78 1.0000
Φ
φ12 0.1823 2.40 0.4050
φ13 -0.2041 -2.50 -0.3487
φ23 -0.2504 -2.86 -0.3256
δ
θ1 0.6572 4.86 0.6572
θδ2 0.5867 3.97 0.5867
Θδ θδ3 0.4088 4.31 0.4088
θδ4 0.4957 5.34 0.4957
θδ5 0.000* − 0.0000
ε
θ1 0.000* − 0.0000
Θε θε2 0.3281 2.97 0.3281
θε3 0.4148 4.00 0.4148
Si recordamos los objetivos del trabajo de Bagozzi (1980), este autor trataba de determinar, en
primer lugar, si la satisfacción en el trabajo era antecedente o consecuencia del desempeño.
Para ello en el modelo había planteado la doble relación causal entre estos dos factores
latentes, cuyos coeficientes de regresión (véase la figura 14.1) eran β12 (influencia de la
satisfacción sobre el desempeño) y β21 (influencia del desempeño sobre la satisfacción). Si
nos fijamos en el valor del estadístico t para ambos parámetros en el cuadro 14.13,
comprobamos como β12 (t=-0.53) no es significativo, mientras que β21 (t=2.10) sí que lo es
para p<0.05. Esto nos permite concluir que la satisfacción en el trabajo es una de las variables
determinantes del desempeño de un vendedor en su puesto de trabajo.
La otra variable que influye directa y positivamente sobre la satisfacción en el lugar de trabajo
de un vendedor es la motivación para el logro (γ21=0.5189; t=2.26), es decir que cuanto más
valor da a las recompensas que puede recibir un vendedor por hacer bien su trabajo, mayor es
su satisfacción.
27
a obtener mejores resultados y, a través de los mismos, mejorar su satisfacción. Sin embargo
puede sorprender el signo negativo del coeficiente asociado a la inteligencia verbal −de hecho
era contrario al hipotetizado por Bagozzi (1980)- . El autor explica este signo, aunque la
variable está en el límite de la no significatividad, a partir del hecho de que aquellos
individuos de gran inteligencia, pueden llegar a encontrar aburrido y poco desafiante su
trabajo, llevándole este hecho a poner menos esfuerzo, obteniendo peores resultados.
Estaríamos ante un fenómeno equivalente a la sobrecualificación de muchos trabajadores que
se ha demostrado que es un elemento incentivador de la movilidad laboral.
Hasta aquí los principales resultados. Si nos fijamos en el cuadro 14.13, comprobaremos que
todo el resto de parámetros son significativos a excepción de la covarianza entre los términos
de error asociados a los factores satisfacción y desempeño (ψ12=0.1420; t=0.58). Recordemos
que una covarianza significativa implicaría que los factores asociados comparten una
variación común que no ha sido explicada por las relaciones que se expresan en el modelo.
Por ello este carácter no significativo es positivo al indicar que la relación entre los dos
factores no es espúrea y está asociada a antecedentes comunes considerados.
Todo lo expuesto podría ser suficiente para avalar el trabajo realizado por el investigador:
buen ajuste del modelo y resultados significativos y relevantes en su conjunto. Sin embargo
cabe la posibilidad de que el modelo sea susceptible de algún tipo de reespecificación que lo
mejore, dotando de mayor peso a los resultados obtenidos.
El lector debe remitirse al epígrafe equivalente del tema anterior para revisar los motivos que
pueden llevar a reespecificar un modelo (básicamente mejora del ajuste o contraste de alguna
hipótesis teórica) y las precauciones que debe tenerse respecto a la incorporación o
eliminación de relaciones no soportadas por marco teórico alguno.
En ese mismo epígrafe se desarrollaron tres criterios para eliminar o añadir relaciones:
significatividad de los parámetros, contraste del multiplicador de Lagrange y contraste de
Wald. Veamos su aplicación al problema que nos ocupa.
La primera modificación, y la más obvia, para mejorar el ajuste del modelo es eliminar en su
especificación aquellos parámetros que han resultado ser no significativos. En nuestro caso
esos parámetros son la covarianza entre los términos de error de los factores dependientes
(ψ21) y el coeficiente de regresión entre la satisfacción y el desempeño (β12), cuyo sentido
teórico ya se puso de manifiesto en la interpretación de los resultados. Para ello basta
introducir las siguientes modificaciones en la sintaxis que recogíamos en el cuadro 14.4:
La ecuación:
pasará a:
28
dado que PF1F2 es el coeficiente que representa el parámetro β12. Por otra parte cuando se
especifican las covarianzas a estimar, en lugar de escribir:
COV
D1 D2=CD1D2
COV
D1 D2=0
Para determinar qué relaciones podían introducirse para mejorar el ajuste, recurríamos al
contraste del multiplicador de Lagrange que estimaba la caída en la χ2 del modelo resultante
de permitir que un parámetro que se ha constreñido a un valor determinado sea estimado
libremente. Recordemos que se recomendaba ser muy exigente respecto al nivel de
significación del contraste y, además, que existiera justificación teórica para introducir esa
relación.
El SAS Calis, al contrario que el EQS, no ofrece una única lista con los multiplicadores de
Lagrange, sino que ofrece una lista para cada una de las matrices que recogen parámetros que
pueden estimarse. El cuadro 14.14 los muestra todos.
E3 F5 5.94852 0.0147
E8 E3 5.19135 0.0227
E3 F4 4.67535 0.0306
E5 E4 4.01358 0.0451
D2 F3 4.01300 0.0452
D2 E8 4.01289 0.0452
D2 F5 4.01288 0.0452
D2 F4 4.01275 0.0452
E8 E1 4.01231 0.0452
E1 F5 4.01230 0.0452
V3 F5 4.94161 0.0262
F2 F5 4.01289 0.0452
F2 F4 4.01262 0.0452
V1 F5 4.01235 0.0452
V1 F4 4.01203 0.0452
V3 F4 3.10215 0.0782
V5 F5 2.09740 0.1475
V6 F5 1.70375 0.1918
V7 F5 1.70369 0.1918
V2 F4 0.89390 0.3444
V8 V3 6.72289 0.0095
V3 V8 4.94161 0.0262
V8 F1 4.01639 0.0451
V8 V1 4.01639 0.0451
V4 V5 4.01389 0.0451
V5 V4 4.01351 0.0451
V8 F2 4.01296 0.0452
F2 V8 4.01289 0.0452
V1 V8 4.01235 0.0452
V3 V7 2.97562 0.0845
29
Comprobamos enseguida que sólo hay una relación que suponga una mejora significativa de
la χ2 del modelo para p<0.01, y es la que resultaría de relacionar la variable V3 (indicador del
factor satisfacción) con V8 (indicador del factor inteligencia verbal). Sin embargo, el modelo
tal como está, ya recoge esa influencia de la inteligencia sobre la satisfacción a través del
desempeño como variable moderadora, por lo que no aportaría nada nuevo a los resultados
obtenidos salvo un mejor ajuste.
El contraste de Wald (cuadro 14.15) se cuestiona qué parámetros serían susceptibles de ser
eliminados. Recordemos que la hipótesis nula que se contrasta es que la χ2 del modelo se
incrementa significativamente al eliminar esa relación, por lo que lo deseable, al contrario de
lo que ocurre con el contraste de los multiplicadores de Lagrange, es no poder rechazar la
hipótesis nula (p>0.05).
¿Qué conclusiones se obtienen del contraste de Wald? En primer lugar, se podrían eliminar
los parámetros que no habían resultado significativos: β12 y ψ21, lo que ha habíamos hecho en
primera instancia. Para eliminar la relación entre los factores 1 y 5, esto es, entre el
desempeño y la inteligencia verbal, deberíamos contar con alguna justificación teórica, pero
recordemos que su signo ya había sido contrario al hipotetizado. Si en nuestra revisión de la
literatura no habíamos podido anticipar correctamente el signo, menos base tendremos pues
para aventurarnos a eliminar la relación.
30
Cuadro 14.16 Indicadores de ajuste modelo reespecificado
Para finalizar este capítulo, ilustraremos la aplicación de los MEC con un ejemplo de
aplicación. Sharma (1996) propone el siguiente ejercicio. El Banco Nacional XYZ a
efectuado una encuesta sobre 1623 clientes suyos para tratar de evaluar su nivel de
satisfacción con las tarjetas de crédito que el banco les ofrece. El banco cree que la
satisfacción global (η1) con las tarjetas de crédito es función de su satisfacción con los
siguientes cuatro factores: facilidad de concesión de las tarjetas (ξ1), calidad de la
información de los extractos (ξ2), atención al cliente (ξ3) y gestión del pago diferido (ξ4). El
banco también considera que la satisfacción global determinará la intención del cliente de
seguir usando la tarjeta de crédito (η3) y si el cliente recomendará (η2) o no la tarjeta de este
banco a sus amigos y conocidos.
En su encuesta, el banco ha utilizado cuatro indicadores para medir la satisfacción con las
facilidades de concesión de las tarjetas (X1-X4), tres indicadores para medir la satisfacción con
la calidad de información de los extractos (X5-X7), cuatro indicadores para medir la
satisfacción con la calidad de atención al cliente (X8-X11), dos para medir la satisfacción con la
calidad de la gestión del pago diferido (X12-X13), dos indicadores para medir la satisfacción
global (Y1-Y2), dos para la intención de recomendar (Y3-Y4) y dos para medir la intención de
seguir utilizando la tarjeta (Y5-Y6).
La figura 14.5 ilustra las relaciones hipotetizadas por el banco y el cuadro 14.17 proporciona
la sintaxis necesaria para estimar, en este caso mediante el EQS, el modelo. En la sintaxis se
encuentra incluida la matriz de varianzas covarianzas muestral con la información necesaria
para la estimación. Dado que el lector puede obtener las salidas, sin más que ejecutar la
31
mencionada sintaxis, optaremos por presentar la información, no como sale del programa,
sino como habría que incluirla en el informe de un trabajo de investigación o en un artículo.
δ1 X1 λx11
δ2 X2 λx21
λx31 ξ1
δ3 X3
λx41
δ4 X4
φ12 ζ3
γ11 Y5 ε5
δ5 X5 λx52 λy35
λx62
φ13 η3
δ6 X6 ξ2
λx72 γ12 ζ1 λy36 Y6 ε6
δ7 X7 β31
φ14 η1
φ23
δ8 X8 γ13 ζ2
λx83 λy11 λy12 β21
Y3 ε3
δ9 X9 λx93 Y1 Y2
λy23
λx103 ξ3 η2
δ10 X10 φ24 γ14
λx113
ε1 ε2
λy24 Y4 ε4
δ11 X11
φ34
32
Cuadro 14.17 Sintaxis de EQS para el modelo MEC propuesto
/TITLE
MEC SATISFACCIÓN TARJETAS DE CRÉDITO SHARMA (1996)
/SPECIFICATIONS
CASE=1623; VAR=19; ME=GLS; MA=COV; ANAL=COV;
/MATRIX
3.20
1.71 2.62
1.36 1.25 3.58
1.19 1.10 1.75 3.63
1.23 1.16 0.96 0.78 3.09
1.42 1.28 1.13 0.93 1.82 3.29
0.32 0.28 0.13 0.11 0.13 0.13 1.88
0.14 0.14 0.15 0.09 0.10 0.26 0.51 2.55
0.31 0.16 0.31 0.16 0.21 0.30 0.76 0.63 2.63
0.22 0.15 0.15 0.21 0.22 0.27 0.77 0.64 0.79 2.38
0.51 0.40 0.50 0.38 0.31 0.51 0.04 0.03 0.02 0.00 1.93
0.47 0.46 0.51 0.35 0.40 0.40 0.03 0.05 0.01 0.01 0.64 1.68
0.61 0.44 0.46 0.40 0.50 0.38 0.04 0.03 0.01 0.01 0.63 0.76 2.31
0.77 0.59 0.59 0.42 0.52 0.58 0.03 0.06 0.03 0.06 0.00 0.02 0.03 2.63
0.74 0.65 0.55 0.48 0.49 0.44 0.01 0.07 0.02 0.07 0.00 0.06 0.06 0.86 2.03
0.58 0.53 0.48 0.33 0.35 0.37 0.04 0.03 0.02 0.05 0.03 0.00 0.07 0.65 0.67 2.44
0.73 0.66 0.55 0.38 0.41 0.60 0.02 0.04 0.05 0.01 0.00 0.02 0.06 0.72 0.80 0.63 2.71
0.29 0.30 0.30 0.35 0.20 0.19 0.04 0.05 0.06 0.00 0.02 0.06 0.03 0.07 0.04 0.06 0.01 2.26
0.27 0.31 0.29 0.28 0.20 0.31 0.01 0.04 0.05 0.02 0.06 0.00 0.03 0.01 0.00 0.02 0.02 0.72 1.77
/LABELS
V1=Y1; V2=Y2; V3=Y3; V4=Y4; V5=Y5; V6=Y6;
V7=X1; V8=X2; V9=X3; V10=X4; V11=X5; V12=X6; V13=X7; V14=X8; V15=X9;
V16=X10; V17=X11; V18=X12; V19=X13;
F1=F1; F2=F2; F3=F3; F4=F4; F5=N1; F6=N2; F7=N3;
/EQUATIONS
V1= F5+E1;
V2=*F5+E2;
V3= F6+E3;
V4=*F6+E4;
V5= F7+E5;
V6=*F7+E6;
V7= F1+E7;
V8=*F1+E8;
V9=*F1+E9;
V10=*F1+E10;
V11= F2+E11;
V12=*F2+E12;
V13=*F2+E13;
V14= F3+E14;
V15=*F3+E15;
V16=*F3+E16;
V17=*F3+E17;
V18= F4+E18;
V19=*F4+E19;
F5=*F1+*F2+*F3+*F4+D1;
F6=*F5+D2;
F7=*F5+D3;
/VARIANCES
F1 TO F4=*;
E1 TO E19=*;
D1 TO D3=*;
/COVARIANCES
F1 TO F4 =*;
/PRINT
FIT=ALL;
/LMTEST
/WTEST
/END
33
λ11x = λ52x = λ83x = λ124
x
= λ11y = λ23y = λ35y = 1
Se propone al lector a que identifique en la sintaxis del EQS dónde se han fijado a 1 los
mencionados parámetros.
La segunda condición es que, en el componente de medida del modelo, los errores asociados
con los indicadores no estén correlacionados a priori, cada variable carga sólo sobre un factor
y se permite a los factores (a los independientes, claro) covariar. Compruébese en la sintaxis
del EQS cómo se ha establecido que se estimen los valores de φ12, φ23, φ34, φ13, φ24, φ14.
La última condición pasa por asegurarnos que contamos con grados de libertad suficientes,
esto es, que el modelo está sobreidentificado. ¿Cuántos datos tenemos? Las varianzas y
covarianzas muestrales son 190 (19×20/2). ¿Qué parámetros hemos de estimar con esta
información?:
Es decir, en total hemos de estimar 50 parámetros. Por lo tanto, tenemos 140 grados de
libertad, estando sobreidentificado el modelo.
34
Cuadro 4.18 Resultados del MEC
Estimación no Estimación
Parámetro t
estandarizada estandarizada
λx11 1.000* − 0.628
x
λ 21 0.769 11.45 0.415
λx31 1.050 13.65 0.558
λx41 1.057 13.83 0.590
λx52 1.000* − 0.550
λx62 1.116 13.82 0.656
λx72 1.151 13.56 0.578
λx83 1.000* − 0.558
λx93 1.031 15.48 0.655
λx103 0.794 12.91 0.459
λx113 0.958 13.88 0.527
λx124 1.000* − 0.547
λx134 1.070 5.68 0.661
λy11 1.000* − 0.767
λy12 0.906 27.40 0.768
y
λ 23 1.000* − 0.760
y
λ 24 0.854 17.86 0.643
λy35 1.000* − 0.726
y
λ 36 1.133 21.56 0.805
β21 0.763 19.49 0.729
β31 0.680 19.14 0.730
γ11 0.258 5.17 0.162
γ12 0.785 11.37 0.435
γ13 0.834 13.48 0.551
γ14 0.388 6.11 0.232
φ11 0.732 10.20 1.000
φ22 0.571 9.18 1.000
φ33 0.811 9.85 1.000
φ44 0.668 5.14 1.000
φ12 0.020 0.78 0.031
φ23 0.027 1.01 0.040
φ34 0.027 0.87 0.037
φ13 0.037 1.24 0.048
φ24 0.026 0.97 0.042
φ14 0.031 1.03 0.044
*Parámetros constreñidos a ese valor en el proceso de identificación
35
Cuadro 4.18 Resultados del MEC (Continuación)
Estimación no Estimación
Parámetro t
estandarizada estandarizada
θδ1 1.125 17.66 1.125
δ
θ2 2.082 25.06 2.082
θδ3 1.786 21.06 1.786
θδ4 1.534 19.66 1.534
θδ5 1.316 21.45 1.316
δ
θ6 0.944 16.57 0.944
δ
θ7 1.508 20.25 1.508
θδ8 1.792 22.45 1.792
θδ9 1.145 18.60 1.145
θδ10 1.912 25.02 1.912
θδ11 1.936 25.34 1.936
δ
θ 12 1.566 12.10 1.566
δ
θ 13 0.987 7.14 0.987
θε1 1.301 19.19 1.301
θε2 1.060 19.00 1.060
θε3 1.483 13.05 1.483
ε
θ4 2.104 20.12 2.104
ε
θ5 1.443 17.70 1.443
θε6 1.122 12.32 1.122
Ψ1 0.693 9.75 0.693
Ψ2 0.952 9.02 0.952
Ψ3 0.753 11.21 0.753
2
χ (140 gl)=153.4 (p=0.207) CFI=0.992
NIF=0.921 IFI=0.993
NNFI=0.991 MFI=0.996
GFI=0.990 RMR=0.043
AGFI=0.986 SRMR=0.007
*Parámetros constreñidos a ese valor en el proceso de identificación
En primer lugar, se constanta que el ajuste del modelo es excelente, además de una χ2 no
significativa (χ2=153.4; p=0.207), todos los índices son superiores a 0.9. Por otra parte, puede
comprobarse en el cuadro 14.19 que los residuos de la matriz residual estandarizada de
varianzas covarianzas son pequeños (promedio fuera de la diagonal 0.0130), y su distribución
es simétrica y centrada en cero.
36
Cuadro 5.19 Residuos estandarizados
----------------------------------------
! !
120- -
! !
! !
! * !
! * ! RANGE FREQ PERCENT
90- * -
! * * ! 1 -0.5 - -- 0 0.00%
! * * ! 2 -0.4 - -0.5 0 0.00%
! * * ! 3 -0.3 - -0.4 0 0.00%
! * * ! 4 -0.2 - -0.3 0 0.00%
60- * * - 5 -0.1 - -0.2 0 0.00%
! * * ! 6 0.0 - -0.1 86 45.26%
! * * ! 7 0.1 - 0.0 104 54.74%
! * * ! 8 0.2 - 0.1 0 0.00%
! * * ! 9 0.3 - 0.2 0 0.00%
30- * * - A 0.4 - 0.3 0 0.00%
! * * ! B 0.5 - 0.4 0 0.00%
! * * ! C ++ - 0.5 0 0.00%
! * * ! -------------------------------
! * * ! TOTAL 190 100.00%
----------------------------------------
1 2 3 4 5 6 7 8 9 A B C EACH "*" REPRESENTS 6 RESIDUALS
ITERATIVE SUMMARY
PARAMETER
ITERATION ABS CHANGE ALPHA FUNCTION
1 0.494213 1.00000 0.74130
2 0.048266 1.00000 0.11648
3 0.019559 1.00000 0.09483
4 0.003406 1.00000 0.09458
5 0.000630 1.00000 0.09458
Centrándonos ya en la interpretación del modelo, recordemos que los objetivos del problema
propuesto por Sharma (1996), eran determinar si la satisfacción global con las tarjetas de
crédito que ofrecía el banco, por un lado es consecuencia de su facilidad de concesión, de la
calidad de la información de los extractos, de la atención al cliente y de la gestión del pago
diferido y, por otra parte, esta variable es el antecedente de la intención del cliente de seguir
utilizando la tarjeta y de su intención de recomendarla a familiares y amigos.
El hecho de que el modelo tenga un ajuste global aceptable, no quiere decir que todas las
relaciones propuestas sean significativas. De la lectura del cuadro 14.18, comprobamos que la
satisfacción global (η1), depende significativamente de ξ1 (facilidad de concesión de las
tarjetas (γ11=0.258, t=5.17)), de ξ2 (calidad de la información de los extractos (γ12=0.785,
t=11.37)), de ξ3 (atención al cliente (γ13=0.834, t=13.48)) y de ξ4 (gestión del pago diferido
(γ14=0.388, t=6.11)). Si nos fijamos en los valores estandarizados de estos coeficientes,
comprobamos que la influencia de la calidad de los extractos y la atención al cliente es mayor
que la de los otros dos factores.
37
Respecto al hecho de que la satisfacción global sea causa de establecimiento de relaciones
duraderas, vemos que, efectivamente, este factor ejerce una influencia significativa sobre η2
(intención de recomendar (β21=0.763, t=19.49)) y sobre η3 (intención de continuar utilizando
la tarjeta (β31=0.680, t=19.14)). La influencia de la satisfacción global sobre ambos factores, a
la luz de los coeficientes estandarizados, es prácticamente la misma.
¿Es necesario reespecificar el modelo, esto es, añadir o eliminar alguna de las relaciones para
lograr un mejor ajuste? Es difícil que esto sea así, pues el ajuste ya es muy bueno y los
resultados obtenidos están de acuerdo con las hipótesis planteadas. Sin embargo, no está de
más echar un vistazo a las propuestas del programa a través del contraste de los
multiplicadores de Lagrange y del contraste de Wald (cuadro 14.20). En cualquier caso, los
únicos parámetros que no han resultado ser significativos, han sido las covarianzas entre los
factores independientes. Por ello, si alguna relación es candidata a ser suprimida, serán sin
duda éstas.
En esta línea cabe interpretar la sugerencia de que se introduzca una relación causal desde la
intención de recomendar hacia la satisfacción global. Si esta relación tiene escaso sentido
teórico y no va a aportar sino una mejora marginal en el ajuste, optaríamos por no
introducirla.
38
Cuadro 5.20 Test de Wald y de los multiplicadores de Lagrange
39
REFERENCIAS BIBLIOGRÁFICAS
40
Ejercicio SEM para clase
Sharrma (1996) propone el siguiente ejercicio. El Banco Nacional XYZ ha efectuado una
encuesta sobre 1623 clientes suyos para tratar de evaluar su nivel de satisfacción con las
tarjetas de crédito que el banco les ofrece. El banco cree que la satisfacción global (η1) con
las tarjetas de crédito es función de su satisfacción con los siguientes cuatro factores: facilidad
de concesión de las tarjetas (ξ1), calidad de la información de los extractos (ξ2), atención al
cliente (ξ3) y gestión del pago diferido (ξ4). El banco también considera que la satisfacción
global determinará la intención del cliente de seguir usando la tarjeta de crédito (η3) y si el
cliente recomendará (η2) o no la tarjeta de este banco a sus amigos y conocidos.
En su encuesta, el banco ha utilizado cuatro indicadores para medir la satisfacción con las
facilidades de concesión de las tarjetas (X1-X4), tres indicadores para medir la satisfacción con
la calidad de información de los extractos (X5-X7), cuatro indicadores para medir la
satisfacción con la calidad de atención al cliente (X8-X11), dos para medir la satisfacción con la
calidad de la gestión del pago diferido (X12-X13), dos indicadores para medir la satisfacción
global (Y1-Y2), dos para la intención de recomendar (Y3-Y4) y dos para medir la intención de
seguir utilizando la tarjeta (Y5-Y6).
La figura 1 ilustra las relaciones hipotetizadas por el banco y el cuadro 1 ofrece la matriz de
varianzas covarianzas muestral con la información necesaria para la estimación. Se pide.
1. Escribe la sintaxis que permita estimar el modelo planteado, presta especial atención a
la identificación del modelo.
2. Realiza un cuadro con la información que, de las salidas del programa, habría que
incorporar si se estuviera redactando un artículo.
3. Interpreta los resultados obtenidos.
41
Figura 1 Síntesis de las relaciones planteadas
δ1 X1 λx11
δ2 X2 λx21
λx31 ξ1
δ3 X3
λx41
δ4 X4
φ12 ζ3
γ11 Y5 ε5
δ5 X5 λx52 λy35
λx62
φ13 η3
δ6 X6 ξ2
λx72 γ12 ζ1 λy36 Y6 ε6
δ7 X7 β31
φ14 η1
φ23
δ8 X8 γ13 ζ2
λx83 λy11 λy12 β21
Y3 ε3
δ9 X9 λx93 Y1 Y2
λy23
λx103 ξ3 η2
δ10 X10 φ24 γ14
λx113
ε1 ε2
λy24 Y4 ε4
δ11 X11
φ34
42
Ejercicio SEM para casa
En la página web de la asignatura puede encontrarse el trabajo de Churchill y Surprenant
(1982) que analiza los determinantes de la satisfacción del cliente tanto para bienes duraderos
como perecederos. Las relaciones que plantean y los nombres de las variables utilizadas para
medir cada uno de ellos se resumen en la figura 1. Se recomienda leer el trabajo con el fin de
entender los conceptos implicados en el sistema de ecuaciones estructurales.
Como se ha señalado, los autores estiman este modelo para dos tipos de bienes duraderos
(vídeo) y no duraderos (una planta). Esta es la razón de que, en el artículo, la matriz de
correlaciones tenga en el triángulo inferior las correlaciones para el bien perecedero y en el
triángulo superior los datos para el bien duradero. En la tabla 1 se muestra esta matriz.
Se pide.
1. Plantea la sintaxis para estimar el modelo de la figura 1, solo para el bien duradero
(vídeo).
2. Realiza un cuadro con la información que, de las salidas del programa, habría que
incorporar si se estuviera redactando un artículo.
3. Interpreta los resultados obtenidos.
43
Tabla 1. Matriz de correlaciones
N.B.
Referencias
Churchill, G.A. y Surprenant, C. (1982): “An Investigation into the determinants of Customer
Satisfacion”. Journal of Marketing Research, Vol. XIX, pp. 491-504.
44