Está en la página 1de 44

Departamento de Comercialización e Investigación de Mercados

Departament de Comercialització i Investigació de Mercats

Doctorado Interuniversitario en Marketing


Análisis de Datos Avanzado

SISTEMAS DE ECUACIONES
ESTRUCTURALES
Apuntes y ejercicios

Dr. Joaquin Aldas-Manzano


Nota importante

Los presentes apuntes forman parte del borrador del libro de Joaquín
Aldás y Ezequiel Uriel Análisis Multivariante Aplicado que será
próximamente publicado por la editorial Thomson-Paraninfo. Por lo
tanto, como tal borrador pueden existir erratas, siendo bienvenidos todos
los comentarios que las detecten y sugerencias sobre la mejora del
capítulo.

2
14 ECUACIONES ESTRUCTURALES
MODELOS DE ESTRUCTURAS DE COVARIANZA

14.1 INTRODUCCIÓN

Al presentar el análisis factorial confirmatorio (AFC) señalábamos que, además de su interés


en si mismo, ayudaba a realizar la transición entre las técnicas que se habían analizado hasta
el momento y el capítulo que nos ocupa ahora, esto es, el dedicado a presentar los modelos de
estructuras de covarianza (MEC). Y efectivamente, gran parte de los contenidos que son
necesarios para comprender los MEC, ya se han ofrecido en el capítulo anterior:
identificación de los modelos, mecanismos de estimación, indicadores de ajuste,
reespecificación de los modelos teóricos, etcétera.

Esto hace que la lectura del capítulo dedicado al AFC sea un requisito imprescindible para
seguir la exposición del presente. Es más, a efectos didácticos, aprovecharemos que la
mayoría de aspectos a tratar fueron abordados de una manera formalizada en el tema del AFC
para no recurrir excesivamente a la formalización de los contenidos y dotar al capítulo
dedicado a los MEC de un carácter mucho más aplicado utilizando la presentación de
ejemplos como eje conductor del mismo.

En la figura 13.3 del capítulo anterior ya apuntábamos la diferencia entre un AFC y un MEC:
en el AFC no se plantean relaciones teóricas entre las variables latentes, en un MEC, sin
embargo, sí que se considera que un factor común puede influir sobre otro y se apunta la
dirección de esa causalidad. Siguiendo a Long (1983), los MEC intentan explicar las
relaciones entre un conjunto de variables observadas basándose en las relaciones de un
número más pequeño de variables latentes, caracterizando dichas relaciones mediante las
covarianzas de las variables observadas.

3
CASO 14.1. Modelización del desempeño de una fuerza de ventas

La figura 14.1 nos muestra un ejemplo de MEC que nos permitirá ilustrar esta definición,
introducir nuevos términos respecto a lo expuesto en el AFC y presentar la formalización
matemática del MEC en el epígrafe siguiente. Dicha figura modeliza la relación propuesta por
Bagozzi (1980) entre el desempeño en el trabajo de una fuerza de ventas y la satisfacción con
el mismo, indagando acerca de sus antecedentes. Expliquemos con más detalle el contenido
del modelo planteado.

Figura 14.1. Modelo de desempeño y satisfacción de la fuerza de ventas

δ1 δ2
ε2 ε3

X1 X2
Y2 Y3

λx11 λx21
λy22 λy32
ξ1 γ21

η2

φ21
ζ2

φ31 ξ2 β21 β12 ψ21


λx32 λx42 γ12
ζ1
X3 X4
φ32
η1
δ3 δ4
γ13
λy11

Y1
ξ3

λx53
X5 ε1
δ5

Fuente: Bagozzi (1980)

Entre los directores de una fuerza de venta existe el convencimiento de que existe una
relación entre el desempeño, o eficacia de los vendedores en su trabajo (variable latente η1) y
la satisfacción que estos declaran tener con su empleo (variable latente η2). Sobre lo que no
hay acuerdo es sobre si es el desempeño quien provoca la satisfacción o la satisfacción quien
influye positivamente sobre el desempeño. Asimismo, la influencia de una variable latente
sobre la otra puede no estar causada por la relación causal directa entre ambas, sino deberse a
la existencia de unos antecedentes comunes que afectan a los individuos y que, tras revisar la

4
literatura, Bagozzi (1980) sintetiza en: motivación para el logro (ξ1), es decir, valor que cada
individuo da a las recompensas que puede recibir por hacer bien su trabajo, la autoestima (ξ2),
es decir el buen concepto que uno tiene de sí mismo y que se considera que puede influir
sobre el buen desempeño de un trabajo y la inteligencia verbal (ξ3), esto es, la habilidad
cognitiva para percibir fielmente los contenidos de las conversaciones, las instrucciones
escritas y otra formas de comunicación, lo que hará que se pueda reaccionar adecuadamente
ante las objeciones de los clientes y organizar correctamente las tareas de ventas.

Todo modelo de estructuras de covarianza, se descompone en dos componentes. El primero


de ellos es el componente estructural, que incluye las relaciones entre los factores latentes. La
convención de notación es la siguiente, al factor latente que actúa como variable
independiente (de él sólo salen relaciones directas, es decir, flechas de una punta) se denotan
con la letra griega ξ. Los factores latentes dependientes (reciben flechas de una sola punta) se
denotan por la letra griega η. Los parámetros que representan los coeficientes de regresión
entre los factores latentes se denotan con la letra γ, si la relación que representa es entre un
factor independiente sobre uno dependiente y mediante la letra β si es entre dos dependientes.
Las covarianzas entre los factores latentes independientes se recogen mediante la letra φ y
están ocasionadas por predictores comunes de los factores independientes no contemplados en
el modelo. Por su parte, los factores latentes dependientes no se espera que estén predichos
perfectamente por los independientes, por lo que se les asocia un término de error estructural
(ζ). Estos términos pueden covariar entre ellos (ψ), indicando que los factores dependientes
asociados con ellos comparten una variación común no explicada por las relaciones que se
expresan en el modelo.

La figura 14.2 recoge el modelo estructural de nuestro ejemplo. Como se ha descrito, existen
tres factores latentes independientes (motivación para el logro, autoestima e inteligencia
verbal) y dos dependientes (desempeño y satisfacción). Bagozzi (1980), tras revisar la
literatura considera que la motivación para el logro influirá sobre la satisfacción de manera
directa, mientras que la autoestima y la inteligencia verbal lo harán de manera directa sobre el
desempeño y, a través de éste, sobre la satisfacción.

5
Figura 14.2. Componente estructural del MEC

ξ1 γ21

η2

φ21
ζ2

φ31 ξ2 β21 β12 ψ21

γ12
ζ1
φ32
η1

γ13

ξ3

Como ocurría con el AFC, cada factor latente ha de medirse de algún modo, es decir, se han
de encontrar variables observadas que midan ese factor, ya sea dependiente o independiente,
esto es, cada factor latente se modeliza como un factor común que subyace bajo una serie de
variables observadas. A esta parte del MEC se le denomina modelo de medida. A las variables
observadas que miden un factor dependiente se las denota como Y y a las que miden un factor
independiente como X. Las cargas factoriales de las variables observadas sobre el factor se
designan como λx si el factor es independiente y como λy si es dependiente.

El investigador ha de reconocer que sus medidas son imperfectas y tratará de modelizar esa
imperfección. Por ello, los MEC, como ocurría con los AFC incorporan los denominados
“errores de medida”, que denominábamos en el AFC como factores únicos. Los asociados a
las variables observadas (Y) de un factor dependiente se denotan con la letra ε y a los
asociados a variables observadas (X) de un factor independiente con δ.

La figura 14.3 ilustra los distintos componentes del modelo de medida con que cuenta el MEC
que estamos utilizando como ejemplo. Puede comprobarse que Bagozzi (1980) utiliza en
algunos casos un único indicador como instrumento de medida del factor latente (por ejemplo,
Y1 es el volumen anual de ventas en dólares de cada vendedor, como indicador del
desempeño) y en otros casos recurre a dos medidas que, en realidad, son baterías de preguntas
de las que se calcula su valor medio. Así, la medida Y2 de la satisfacción en el trabajo son
cuatro preguntas cuya contestación se recoge en una escala likert de seis puntos: ¿cree usted
que las oportunidades de promoción son mayor en trabajos distintos al suyo?, ¿le aconsejaría
a un amigo que busca trabajo que aceptara uno como el suyo? ¿cree usted que se sueldo es tan
alto como el que reciben otros por un trabajo similar al suyo? ¿cuán satisfecho está usted con
su trabajo?.

6
Figura 14.3. Componente de medida del MEC

δ1 δ2 ε2 ε3

X1 X2 Y2 Y3

λx11 λx21 λy22 λy32

ξ1
η2

ξ2
η1
λx32 λx42

λy11
X3 X4
Y1

δ3 δ4
ε1

δ5 X5 ξ3
λx53

Presentados los términos y la notación específica de los modelos de estructura de covarianzas,


dedicaremos el siguiente epígrafe a la formalización matemática del problema que resuelve un
MEC.

14.2 FORMALIZACIÓN MATEMÁTICA DEL MEC

Los MEC son representados en la literatura a partir de diferentes aproximaciones. Nosotros


desarrollaremos aquí la que ha alcanzado mayor difusión, que es la debida a Karl Jöreskog de
la Universidad de Uppsala (véase como ejemplo Jöreskog y Sörbom, 1989). Dado que
muchos programas como SAS o EQS recurren, por el contrario, al sistema de notación de
Bentler y Weeks (1980), plantearemos una breve discusión sobre la convergencia de ambos
enfoques.

En su forma más general, los modelos de estructuras de covarianzas se pueden representar a


partir de tres sistemas de ecuaciones. En primer lugar, el componente estructural del MEC
recoge la relación causal entre las variables latentes:

η = Βη + Γξ + ζ (14-1)

donde, como se sintetiza en el cuadro 14.1, η es un vector r × 1 que contiene los r factores
dependientes, Β es una matriz r ×r que contiene los coeficientes que relacionan entre sí a los
factores dependientes, Γ es una matriz r ×s con los coeficientes que relacionan los r factores
dependientes con los s independientes. ξ es un vector s ×1 con los factores independientes. ζ
es un vector r ×1 que contiene los errores asociados con los factores dependientes y que,
como se ha señalado, indican que estos factores no están totalmente determinados por las
ecuaciones estructurales.

7
En la literatura econométrica, la ecuación (14-1), tras restar Βη a ambos miembros:

η - Βη = Γξ + ζ

y definir

&& = I - Β
Β

se puede expresar de la siguiente forma:

&& = Γξ + ζ
Βη (14-2)

Long (1983) señala que aunque la expresión (14-2) es más adecuada para deducir una serie de
resultados, (14-1) es más cómoda de interpretar, dado que un valor positivo en B indica una
&& indica
relación positiva entre los factores dependientes, mientras que una valor positivo de B
una relación negativa.

Cuadro 14.1. Resumen del componente estructural del MEC


Matriz Dimensión Media Covarianza Dimensión Descripción
η r×1 0 Cov(η)=E(ηη’) r×r Factores dependientes
ξ s×1 0 Φ=E(ξξ’) s×s Factores independientes
ζ r×1 0 Ψ=E(ζζ’) r×r Errores in las ecuaciones
Β r×r ⎯ ⎯ ⎯ Efectos directos η sobre η
&&
Β r×r ⎯ ⎯ ⎯ (I−B)
Γ r×s ⎯ ⎯ ⎯ Efectos directos ξ sobre η
Fuente: Long (1983)

¿Cuáles son las hipótesis que se postulan en un modelo MEC? Pueden sintetizarse en las
siguientes:

1. Las variables están medidas en desviaciones respecto a su media, lo que implica que:

E ( η) = E ( ξ ) = E ( ζ ) = 0

Esto no afecta a la generalizabilidad del modelo dado que a los parámetros


estructurales contenidos en Β y Γ no les afecta esta hipótesis.
2. Los términos de error de los factores dependientes y los factores independientes están
incorrelacionados entre sí, es decir:

E ( ξζ′ ) = E ( ζξ′ ) = 0 .

3. También se asume que B && es no singular (existe su inversa), lo que implica que (14-2)
se pueda resolver para el vector de factores dependientes, es decir, para η.

Para evitar confusiones en la notación, veamos su aplicación al ejemplo que venimos


utilizando. El componente estructural del modelo, que es el que recogemos en la ecuación
(14-1), venía ilustrada en la figura 14.2. Así, las ecuaciones que resumen las relaciones entre
los factores y que se desprenden directamente del gráfico, son las siguientes:

8
η1 = γ 12ξ 2 + γ 13ξ3 + β12η 2 + ζ 1
η 2 = γ 21ξ1 + β 21η1 + ζ 2

Si expresamos matricialmente las ecuaciones anteriores, tenemos que:


⎡ ξ1 ⎤
⎡η1 ⎤ ⎡ 0 β12 ⎤ ⎡η1 ⎤ ⎡ 0 γ 12 γ 13 ⎤ ⎢ ⎥ ⎡ ζ 1 ⎤
⎢η ⎥ = ⎢ β ⎥⎢ ⎥+⎢ ξ2 +
⎣ 2 ⎦ ⎣ 21 0 ⎦ ⎣η 2 ⎦ ⎣γ 21 0 0 ⎥⎦ ⎢ ⎥ ⎢⎣ζ 2 ⎥⎦
⎢⎣ξ3 ⎥⎦

La ecuación anterior recoge exactamente las mismas matrices que se recogían en (14-1).
Además de las ecuaciones anteriores, sería necesario añadir para completar el contenido del
cuadro 14.1 las matrices que recogen las matrices de varianzas covarianzas de los factores
independientes (Φ) y entre los términos de error de los factores dependientes (Ψ), esto es:

⎡φ11 φ12 φ13 ⎤


⎡ψ 11 ψ 12 ⎤
Ψ=⎢ ⎥ Φ = ⎢⎢φ21 φ22 φ23 ⎥⎥
⎣ψ 21 ψ 22 ⎦ ⎢⎣φ31 φ32 φ33 ⎥⎦

Los otros dos sistemas de ecuaciones que representan un MEC son las que se ocupan de
reflejar el componente de medida, es decir, la parte del MEC que establece los indicadores de
cada factor y que ilustrábamos en la figura 14.3. Estos sistemas de ecuaciones son las
siguientes:

x = Λ xξ + δ (14-3)
y = Λ yη + ε (14-4)

Parte de los elementos implicados ya se han presentado con anterioridad. Los nuevos
elementos de las ecuaciones anteriores son el vector x de dimensión q×1 que contiene las
variables observadas que sirven para medir los factores independientes (q es el número de
esas variables observadas); y es el vector de variables observadas (hay p de ellas, por ello su
dimensión es p×1) que miden los factores dependientes. Por su parte, las matrices que
contienen los coeficientes de regresión o cargas factoriales entre esas variables y sus
respectivos factores vienen denotadas por Λx para los factores independientes y Λy para los
dependientes. Sus dimensiones son, respectivamente, q×s y p×r, siendo s y r el número de
factores de cada tipo.

Las hipótesis que se postulan sobre las variables de las ecuaciones anteriores son las
siguientes:

1. Las variables están medidas en desviaciones sobre la media, lo que implica que:

E (x) = E (δ) = E (y ) = E (ε) = 0

2. Los factores y los términos de error de la ecuación de la ecuación en que aparecen


están incorrelacionados entre sí, es decir:

E ( ξδ′ ) = E ( δξ′ ) = E ( ηε′ ) = E ( εη′ ) = 0

9
3. Los términos de error de las variables observadas están incorrelacionados entre sí:

E ( δε′ ) = E ( εδ′ ) = 0

Toda esta información se resume en el cuadro 14.2.

Cuadro 14.2. Resumen del componente de medida del MEC


Matriz Dimensión Media Covarianza Dimensión Descripción
η r × 1 0 Cov(η)=E(ηη’) r×r Factores dependientes
ξ s × 1 0 Φ=E(ξξ’) s×s Factores independientes
x q × 1 0 Σxx=E(xx’) q×q Var. observadas indep.
y p×1 0 Σyy=E(yy’) p×p Var. observadas depend.
Λx q×s ⎯ ⎯ ⎯ Cargas de x sobre ξ
Λy p×r ⎯ ⎯ ⎯ Cargas de y sobre η
δ q×1 0 Θδ=E(δδ’) q×q Errores de x
ε p×1 0 Θε=E(εε’) p×p Errores de y
Fuente: Long (1983)

Los cuadros 14.1 y 14.2 resumen la notación y las hipótesis que subyacen bajo un MEC. El
proceso de estimación consiste, como en el AFC, en estimar los parámetros que la matriz de
varianzas y covarianzas Σ - definida más adelante- que se deriva de las ecuaciones (14-1),
(14-3) y (14-4) y que inmediatamente deduciremos, sea lo más parecida posible a la matriz de
varianzas y covarianzas muestral S.

Antes de examinar esta deducción, identifiquemos el componente de medida del MEC en el


ejemplo que venimos siguiendo. Basta observar la figura 14.3 para obtener de manera
inmediata las siguientes ecuaciones:

x1 = λ11x ξ1 + δ1 ⎫

x2 = λ21x ξ1 + δ 2 ⎪ y1 = λ11yη1 + ε1 ⎫
⎪ ⎪
x3 = λ32x ξ 2 + δ 3 ⎬ y2 = λ22y η 2 + ε 2 ⎬
x4 = λ42x ξ 2 + δ 4 ⎪ y3 = λ32y η 2 + ε 2 ⎪⎭

x5 = λ53x ξ3 + δ 5 ⎪⎭

Estas ecuaciones se pueden expresar en forma matricial, con la misma estructura que las
ecuaciones (14-3) y (14-4), de la siguiente forma:

⎡ x1 ⎤ ⎡ λ11x 0 0⎤ ⎡ δ1 ⎤
⎢x ⎥ ⎢ x ⎥ ⎢ ⎥
⎢ 2 ⎥ ⎢λ21 0 0 ⎥ ⎡ ξ1 ⎤ ⎢δ 2 ⎥
⎢ x3 ⎥ = ⎢ 0 λ32x ⎢ ⎥
0 ⎥ ⎢ξ 2 ⎥ + ⎢δ 3 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ x4 ⎥ ⎢ 0 λ42 0 ⎥ ⎢⎣ξ3 ⎥⎦ ⎢δ 4 ⎥
x

⎢⎣ x5 ⎥⎦ ⎢⎣ 0 0 λ53x ⎥⎦ ⎢⎣δ 5 ⎥⎦
x = Λx ξ + δ

10
⎡ y1 ⎤ ⎡λ11 0 ⎤ ⎡ ε1 ⎤
y

⎢ y ⎥ = ⎢ 0 λ y ⎥ ⎡η1 ⎤ + ⎢ε ⎥
22 ⎥ ⎢
⎢ 2⎥ ⎢ η ⎥ ⎢ 2⎥
y ⎥⎣ 2⎦

⎢⎣ y3 ⎥⎦ ⎣ 0 λ32 ⎦ ⎢⎣ε 3 ⎥⎦
y = Λy η + ε

Veamos, a continuación, cuál es la matriz de varianzas covarianzas Σ que se deriva de los


componentes estructural y de medida. Siguendo la notación de Long (1983), y dado que las
variables están medidas en desviaciones respecto a sus medias, la matriz de varianzas
covarianzas poblacional Σ vendrá dada por:

⎡ y y ′⎤
⎡ ⎤⎡ ⎤ ⎡ yy′ yx′⎤
Σ = E ⎢ ⎥⎢ ⎥ ⎥ = E⎢

⎢⎣x⎦ ⎣x⎦ ⎥ ⎣ xy′ xx′ ⎥⎦
⎣⎢ ⎦⎥

donde [y|x] es el vector de dimensión (p+q)×1 al disponer los vectores y y x uno a


continuación del otro. Si sustituimos las ecuaciones (14-3) y (14-4) en la expresión anterior,
tenemos:


⎢( Λ y η + ε )( Λ y η + ε )

( Λ η + ε ) ( Λ ξ + δ )′ ⎥⎤
y x
Σ=E⎢ ⎥
⎢ ( Λ x ξ + δ ) ( Λ y η + ε )′ ( x
Λ ξ + δ )( x
Λ ξ + δ ′
)⎦⎥

Efectuando las multiplicaciones de matrices se obtiene que

⎡ Λ ηη′ Λ ′ + εε′ Λ y ηξ′Λ x′ + εδ′ ⎤


⎢ y y

⎢ + Λ ηε′ + εη′ Λ ′ + Λ y ηδ′ + εξ′Λ x ⎥

Σ=E⎢ ⎥
y y

⎢ Λ ξη′ Λ ′ + δε′ ⎥
⎢ x y Λ x ξξ′Λ x′ + δδ′ ⎥
⎢ ′ ⎥
⎢⎣ + Λ x ξε′ + δη′ Λ y + Λ x ξδ′ + δξ′Λ x′ ⎥

Aplicando el operador esperanza matemática, y teniendo en cuenta las hipótesis subyacentes


de los cuadros 14.1 y 14.2, se llega a que:

&& −1 ( ΓΦΓ′ + Ψ ) Β
⎡Λ yΒ && ′−1Λ ′ + Θ Λ yΒ&& −1ΓΦΛ ′ ⎤
y ε x
Σ=⎢ && ⎥ (14-5)
′ ′
Λ x ΦΓ Β Λ y −1
′ ′
Λ x ΦΛ x + Θδ ⎦⎥
⎣⎢

Pues bien, la estimación de un modelo MEC pasa, como se ha señalado, por buscar aquellos
estimadores que hacen que la matriz Σ estimada según la expresión (14-5) se parezca lo más
posible a S.

Aclarada la notación, y formulado matemáticamente el MEC, pasaremos a continuación a su


identificación y estimación. Como ya señalábamos en la introducción a este capítulo, los
aspectos fundamentales de ambas tareas ya fueron tratados con profundidad en el capítulo

11
dedicado al AFC. Por ello, tras un breve repaso, nos centraremos en su aplicación efectiva al
problema que estamos utilizando de ejemplo.

Para finalizar la presentación de la formulación matemática del MEC, debemos introducir la


notación alternativa planteada por Bentler y Weeks (1980). Aunque no es una notación
comúnmente utilizada en los manuales y artículos que hacen uso de esta técnica, sí que es en
la que se basan dos de los programas más utilizados: el EQS y el SAS Calis, que son los que
venimos empleando en este texto y, por ello, es importante plantear su equivalencia con la
notación clásica que hemos utilizado en el desarrollo del tema.

En esta notación para cada variable del modelo, ya sea latente u observada, sólo es relevante
si es una variable dependiente o independiente. Los parámetros que se han de estimar son: (1)
los coeficientes de regresión, y (2) las varianzas y covarianzas de las variables independientes
del modelo.

A los términos de error de las variables observadas se les asigna la etiqueta E y a los de las
variables latentes D (de disturbances). Haciendo uso de la notación matricial, el modelo de
Bentler-Weeks es un modelo de regresión como el siguiente:

η = Βη + γξ (14-6)

Dado que q el número de variables dependientes (factores o observadas) y r el número de las


independientes (factores), entonces η es un vector q × 1 de variables dependientes, Β es una
matriz q × q de los coeficientes de regresión entre las variables dependientes, γ es una matriz
q × r de los coeficientes de regresión entre variables dependientes e independientes y ξ es un
vector r × 1 de variables independientes.

Solo las variables independientes tienen varianzas y covarianzas como parámetros del modelo
- aparecen recogidas en la matriz r × r denominada Φ −, ya que la matriz de varianzas y
covarianzas de η se puede deducir a partir de (14-7). Para clarificar la notación
identifiquemos todos los vectores y matrices implicados en nuestro ejemplo. Se comprobará
que utilizaremos una doble notación para identificar a las variables y, así, facilitar la
transición entre la notación empleada y la sintaxis de los programas que luego utilizaremos.
Es importante que el lector no confunda el contenido que tienen ahora los vectores η y ξ con
el que tenían en la notación anterior. Por ello en la figura 14.4 se ha adaptado la figura 14.1 a
la nueva notación.

En la figura 14.4 se muestra la equivalencia entre las dos notaciones. Observamos que, en
nuestro ejemplo, las variables independientes (no reciben flecha que no sea una covarianza)
son los factores motivación para el logro (ξ1), autoestima (ξ2) e inteligencia verbal (ξ3), así
como todos los términos de error (las D y las E). Por su parte, son variables dependientes (sí
reciben flecha) los factores desempeño (η1) y satisfacción (η2), así como todas las variables
observadas Y1, Y2, Y3, X1, X2, X3, X4, y X5. Pues bien, si denotamos con un asterisco todos los
parámetros que pueden ser susceptibles de estimación, el problema de nuestro ejemplo estaría
representado por las siguientes ecuaciones (decimos “pueden” porque en el proceso de
identificación del modelo, muchos de ellos se fijarán a 0 o a 1, de hecho nótese cómo los
coeficientes de regresión de las variables observadas respecto a los términos de error o de los
factores dependientes respecto a los términos de error ya se han fijado a 1, como ya se hizo en
el AFC):

12
Figura 14.4. Grafo mediante la notación Bentler-Weeks

∗Ε4 ∗Ε5
∗Ε2 ∗Ε3

ξ6=V4 ξ7=V5
ξ4=V2 ξ5=V3

* *
* *
η1=F3 *
ξ2=F2

*
*D2

η2=F4
* * *

* * * *
*D1
ξ8=V6 ξ9=V7
*
ξ1=F1
∗Ε6 ∗Ε7
* *

ξ3=V1
η3=F5

*
∗Ε8 ∗Ε1
ξ10=V8

V1 = *F1 + E1 ⎫
V2 = *F2 + E2 ⎪

V3 = *F2 + E3 ⎪

V4 = *F3 + E4 ⎪
V5 = *F3 + E5 ⎪⎪

V6 = *F4 + E6 ⎪
V7 = *F4 + E7 ⎪

V8 = *F5 + E8 ⎪
F1 = *F4 + *F5 + *F2 + D1 ⎪

F2 = *F1 + *F3 + D2 ⎪⎭

La expresión matricial de las ecuaciones nos permite obtener la representación de Bentler-


Weeks que se sintetizaba en la ecuación (14-6). Como puede comprobarse, en el vector ηse

13
incluyen ahora todas las variables dependientes del modelo: Y1, Y2 y Y3 (V1, V2 y V3); X1, X2,
X3, X4, y X5 (V4, V5, V6, V7, y V8.); y η1 y η2 (F1 y F2)1.

⎡ V1 ⎤ ⎡0 0 0 0 0 0 0 0 * 0 ⎤ ⎡ V1 ⎤
⎢V ⎥ ⎢0 0 0 0 0 0 0 0 0 * ⎥⎥ ⎢⎢V2 ⎥⎥
⎢ 2⎥ ⎢
⎢V3 ⎥ ⎢0 0 0 0 0 0 0 0 0 * ⎥ ⎢V3 ⎥
⎢ ⎥ ⎢ ⎥⎢ ⎥
⎢V4 ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V4 ⎥
⎢V5 ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V5 ⎥
⎢ ⎥=⎢ ⎥⎢ ⎥+
⎢V6 ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V6 ⎥
⎢V ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V7 ⎥
⎢ 7⎥ ⎢ ⎥⎢ ⎥
⎢V8 ⎥ ⎢0 0 0 0 0 0 0 0 0 0 ⎥ ⎢V8 ⎥
⎢ F ⎥ ⎢0 0 0 0 0 0 0 0 0 * ⎥ ⎢ F1 ⎥
⎢ 1⎥ ⎢ ⎥⎢ ⎥
⎣⎢ F2 ⎦⎥ ⎣⎢0 0 0 0 0 0 0 0 * 0 ⎦⎥ ⎣⎢ F2 ⎦⎥
⎡ F3 ⎤
⎢F ⎥
0⎤ ⎢ ⎥
4
⎡0 0 0 1 0 0 0 0 0 0 0 0
⎢0 ⎢ F5 ⎥
⎢ 0 0 0 1 0 0 0 0 0 0 0 0 ⎥⎥ ⎢ ⎥
E1
⎢0 0 0 0 0 1 0 0 0 0 0 0 0⎥ ⎢ ⎥
⎢ ⎥ ⎢ E2 ⎥
⎢* 0 0 0 0 0 1 0 0 0 0 0 0⎥ ⎢ ⎥
⎢* ⎢ E3 ⎥
0 0 0 0 0 0 1 0 0 0 0 0⎥ ⎢ ⎥
+⎢ ⎥ E4
⎢0 * 0 0 0 0 0 0 1 0 0 0 0⎥ ⎢ ⎥
⎢0 ⎢ E5 ⎥
* 0 0 0 0 0 0 0 1 0 0 0⎥ ⎢ ⎥
⎢ ⎥ E6
⎢0 0 * 0 0 0 0 0 0 0 1 0 0⎥ ⎢ ⎥
⎢0 ⎢ E7 ⎥
* * 0 0 0 0 0 0 0 0 1 0⎥ ⎢ ⎥
⎢ ⎥ E8
⎢⎣* 0 0 0 0 0 0 0 0 0 0 0 1 ⎥⎦ ⎢ ⎥
⎢ D1 ⎥
⎢ ⎥
⎢⎣ D2 ⎥⎦

La matriz que contiene las varianzas y covarianzas a estimar Φ se desprende de forma


inmediata de la figura 14.4. En ella se comprueba cómo todas las variables independientes
tienen varianza a estimar (denotada con un asterisco delante de su nombre, e.g. *E3) y además
también las covarianzas entre los factores F1, F2 y F3, así como entre los términos de error D1
y D2.

El cuadro 14.3 sintetiza las equivalencias entre las matrices de las dos notaciones que hemos
venido empleando hasta el momento y muestra la simplificación que supone la notación del
modelo de Bentler-Weeks.

1
Puede ser un buen ejercicio que el lector comprobase cómo operando con las matrices siguientes se llega a las
ecuaciones previamente expuestas.

14
Cuadro 14.3. Notaciones Bentler-Weeks y tradicional comparadas
Bentler-Weeks Notación tradicional
Símbolo Contenido Símbolo Contenido
Coef. regr. de VD B Coef. regr. de VD latentes prediciendo otras VD latentes
Β que predicen otras
Λy Coef. regr. VD observadas predichas por VD latentes
VD
Coef. regr. de VD Γ Coef regresión de VD latentes predichas por VI latentes
γ
predichas por VI Λx Coef regresión de VD observadas predichas por VI latentes
Φ Covarianzas entre VI latentes
Covarianzas entre Ψ Covarianzas errores asociados a VD latentes
Φ
VI Θδ Cov. errores VD observadas predichas por VI latentes
Θε Cov. errores VD observadas predichas por VD latentes
Fuente: Ullman (1996)

⎡ F3 F4 F5 E1 E2 E3 E4 E5 E6 E7 E8 D1 D2 ⎤
⎢F * 0 0 0 0 0 0 0 0 0 0 0 0 ⎥⎥
⎢ 3
⎢ F4 * * 0 0 0 0 0 0 0 0 0 0 0⎥
⎢ ⎥
⎢ F5 * * * 0 0 0 0 0 0 0 0 0 0⎥
⎢ E1 0 0 0 * 0 0 0 0 0 0 0 0 0⎥
⎢ ⎥
⎢ E2 0 0 0 0 * 0 0 0 0 0 0 0 0⎥
⎢E 0 0 0 0 0 * 0 0 0 0 0 0 0⎥
Φ=⎢ 3 ⎥
⎢ E4 0 0 0 0 0 0 * 0 0 0 0 0 0⎥
⎢E 0 0 0 0 0 0 0 * 0 0 0 0 0⎥
⎢ 5 ⎥
⎢ E6 0 0 0 0 0 0 0 0 * 0 0 0 0⎥
⎢ ⎥
⎢ E7 0 0 0 0 0 0 0 0 0 * 0 0 0⎥
⎢ E8 0 0 0 0 0 0 0 0 0 0 * 0 0⎥
⎢ ⎥
⎢ D1 0 0 0 0 0 0 0 0 0 0 0 * 0⎥
⎢⎢ D 0 0 0 0 0 0 0 0 0 0 0 * * ⎥⎥⎦
⎣ 2

15
14.3 IDENTIFICACIÓN DEL MODELO EN EL MEC

Todo lo que se indicó respecto a la identificación de un AFC es válido para un MEC, aunque
en este último caso tiene mayor complejidad debido a que el número de parámetros suele ser
muy superior. De nuevo existen dos tipos de condiciones: las necesarias y suficientes y las
que solamente son necesarias.

Al primer tipo de condiciones corresponden las siguientes:

1. La matriz de información debe ser definida positiva. La matriz de información es la


formada por las derivadas de segundo orden de la función de ajuste que se emplee
(véase el epígrafe 13.4) con respecto a los parámetros que se han de estimar en el
modelo. Si el modelo está identificado el rango de esta matriz debe ser igual al número
de parámetros libres del modelo (esto es, la matriz debe ser definida positiva). Esto es
equivalente a la comprobación que se hace en el modelo de regresión de que el rango
de la matriz de varianzas y covarianzas de los regresores debe ser igual al número de
regresores. De todas formas, en el caso del MEC, y como ya señalábamos en el
apartado anterior, diversos autores, como por ejemplo McDonald (1982), ponen en
duda que esta condición sea necesaria y suficiente. En todo caso, los programas
estadísticos la comprueban e informan de qué parámetros plantean problemas de
identificación, por lo que debe prestarse atención a esta parte de sus salidas.
2. Bekker, Merckens y Wansbeek (1994) presentaron un enfoque que supone evaluar el
jacobiano (derivadas de primer orden de la función de ajuste con respecto a los
parámetros libres), demostrando que caso de ser definida positiva el modelo estaría
identificado. Este enfoque, sin embargo, no ha sido todavía implementado en los
programas estadísticos al uso y no es, por ello, aplicable.

Por lo expuesto, lo habitual en la literatura es recurrir a condiciones necesarias que se


resumen en las siguientes (véase Hatcher, 1994 y Ullman, 1996):

1. El número de datos (varianzas y covarianzas muestrales) debe ser siempre superior al


número de parámetros a estimar.
2. Debe establecerse la escala de los factores dependientes e independientes. Esto se
logra fijando a 1 la carga factorial asociada a una de las variables observadas o fijando
a uno la varianza de un factor. Esto último sólo es aplicable a los factores
independientes, porque en los dependientes la varianza no es un parámetro a estimar
directamente.
3. Hay que asegurar la identificabilidad del componente de medida. Si solo hay un factor,
el modelo estará identificado si el factor tiene al menos tres variables observadas que
carguen sobre él. Si hay dos o más factores hay que fijarse en cuantas variables cargan
sobre cada uno. Si hay tres o más el modelo estará identificado si los errores asociados
con los indicadores no están correlacionados, cada variable carga sólo sobre un factor
y los factores pueden covariar entre ellos. Si sólo hay dos indicadores por factor, el
modelo puede estar identificado si los errores asociados con cada indicador no están
correlacionados, cada indicador carga sólo sobre un factor y ninguna de las
covarianzas entre los factores está fijada a cero. Si sólo hay un indicador, las varianzas
de los términos de error del indicador se han de fijar a cero.

16
4. Los parámetros del coeficiente de regresión de la variable observada sobre el término
de error se fijan arbitrariamente a 1.

Apliquemos lo expuesto a nuestro ejemplo. Seguiremos para ello la figura 14.4 que es la que,
por recurrir a la notación de Bentler-Weeks, más fácilmente permitirá comprender la sintaxis
de SAS Calis que es el programa que vamos a utilizar en esta ocasión.

En primer lugar, ¿de cuántos datos disponemos? Contamos con 8 variables observadas, por lo
tanto con 8(8+1)/2=36 varianzas y covarianzas muestrales. Si, por el contrario, contamos con
los parámetros que hay que estimar antes de que el modelo esté identificado (véase la figura
14.4) tendríamos que estimar 40 (véanse los * de las matrices anteriores y también los 1, dado
que inicialmente habría que estimarlos, aunque en la identificación, como veremos, lo fijemos
a ese valor): 8 varianzas de los términos de error E, 2 varianzas de los términos de error D, 3
varianzas de los factores independientes, 8 coeficientes de regresión de las variables
observadas sobre los términos de error E, 2 coeficientes de regresión de los factores
dependientes sobre los términos de error D, 4 covarianzas (3 entre los factores independientes
y 1 entre los errores D), 8 coeficientes de regresión entre los factores y las variables
observadas y 5 entre factores dependientes e independientes. Por lo tanto, antes de aplicar las
restricciones adivionales, este modelo está claramente infraidentificado.

En el cuadro 14.4 está la sintaxis de SAS Calis que resuelve el MEC de nuestro ejemplo.
Sigámosla para explicar los pasos de identificación. En primer lugar fijamos a 1 los
coeficientes de regresión entre las variables observadas o factores a los que van asociados y
los términos de error (D y E). Puede comprobarse como delante de, por ejemplo, el error E3
no aparece ningún parámetro a estimar (se ha fijado a 1):
V3=LV3F2 F2+E3

En segundo lugar establecemos la escala de los factores dependientes e independientes. Lo


hacemos fijando a 1 el coeficiente de regresión de una de las variables observadas que los
determinan (V1 para F1, V2 para F2, V4 para F3, V6 para F4 y V8 para F5), como se ve, por
ejemplo, delante de F2 no hay un parámetro a estimar (se ha fijado a 1), sin embargo en la
ecuación anterior delante de F2, había que estimar el coeficiente de regresión entre F2 y V3
denominado LV3F2:

V2=F2+E2

Finalmente se fijan a cero las varianzas de los términos de error de asociados a las variables
observadas cuando un factor está explicado sólo por una de ellas (caso de V1 y V8). Véase
cómo al resto de varianzas se les asocia un parámetro a estimar (VARF3, por ejemplo):

F3=VARF3,
F4=VARF4,
F5=VARF5,
D2=VARD2,
D1=VARD1,
E1=0,
E8=0,
E2-E7=VARE2-VARE7;

17
Cuadro 14.4 Sintaxis de SAS Calis para el problema de MEC

DATA D1 (TYPE=CORR);
INPUT _TYPE_ $ _NAME_ $ V1-V8;

CARDS;
N . 122 122 122 122 122 122 122 122
STD . 209.06 3.43 2.81 1.95 2.08 2.16 2.06 3.65
CORR V1 1.000 . . . . . . .
CORR V2 0.418 1.000 . . . . . .
CORR V3 0.394 0.627 1.000 . . . . .
CORR V4 0.129 0.202 0.266 1.000 . . . .
CORR V5 0.189 0.284 0.208 0.365 1.000 . . .
CORR V6 0.544 0.281 0.324 0.201 0.161 1.000 . .
CORR V7 0.507 0.225 0.314 0.172 0.174 0.546 1.000 .
CORR V8 -0.357 -0.156 -0.038 -0.199 -0.277 -0.294 -0.174 1.000
;
PROC CALIS CORR CORR RESIDUAL MODIFICATION METHOD=ML;
LINEQS
V1=F1+E1,
V2=F2+E2,
V3=LV3F2 F2+E3,
V4=F3+E4,
V5=LV5F3 F3+E5,
V6=F4+E6,
V7=LV7F4 F4+E7,
V8=F5+E8,
F1=PF1F2 F2+PF1F4 F4+PF1F5 F5+D1,
F2=PF2F1 F1+PF2F3 F3+D2;

STD
F3=VARF3,
F4=VARF4,
F5=VARF5,
D2=VARD2,
D1=VARD1,
E1=0,
E8=0,
E2-E7=VARE2-VARE7;

COV
F3 F4=CF3F4,
F4 F5=CF4F5,
F3 F5=CF3F5,
D1 D2=CD1D2;

VAR V1-V8;
RUN;

El resto de la sintaxis del cuadro 14.4 se entiende fácilmente tras lo expuesto. Así se han de
estimar cuatro covarianzas (entre los factores independientes y entre los errores asociados a
los factores dependientes):

F3 F4=CF3F4,
F4 F5=CF4F5,
F3 F5=CF3F5,
D1 D2=CD1D2;

Y las ecuaciones que modelizan el problema ya se explicaron al presentar la notación del


Bentler Weeks, siendo modificadas solamente paras fijar los parámetros que se han señalado:

V1=F1+E1,
V2=F2+E2,
V3=LV3F2 F2+E3,
V4=F3+E4,
V5=LV5F3 F3+E5,
V6=F4+E6,

18
V7=LV7F4 F4+E7,
V8=F5+E8,
F1=PF1F2 F2+PF1F4 F4+PF1F5 F5+D1,
F2=PF2F1 F1+PF2F3 F3+D2;

Nótese que SAS sustituye los asteriscos que indican un parámetro a estimar en EQS por el
nombre que lo identifica (PF2F3 por ejemplo). Si este nombre no aparece, esto indica que se
ha fijado a 1. Podemos ahora comprobar que el modelo está sobreidentificado, lo que no
ocurría antes de introducir las restricciones, ya que había 36 varianzas y covarianzas
muestrales, pero 40 parámetros a estimar. Sin embargo, se han fijado a 1 los 10 coeficientes
de regresión de los términos de error D y E. Asimismo se ha fijado a 1 para establecer la
unidad de medida los coeficientes de regresión entre V1 y F1, V2 y F2, V4 y F3, V6 y F4 y
V8 y F5 (5 en total) y, finalmente, se ha fijado a cero las varianzas de E1 y E8, por lo tanto los
parámetros a estimar son 40-10-5-2 = 23. Nuestro modelo está ahora sobreidentificado y
tenemos 36-23 = 13 grados de libertad. Identificado el modelo, pasemos ahora a la estimación
del mismo

14.4 ESTIMACIÓN DEL MODELO EN UN MEC

Para el análisis de los distintos procedimientos de estimación de los parámetros y los


indicadores acerca de la bondad de ajuste, se remite al lector al epígrafe 13.4 dado que todo lo
señalado para el AFC es válido para el MEC. En este capítulo repetiremos brevemente en qué
consiste el procedimiento de estimación y lo ilustraremos con el ejemplo que venimos
manejando.

Una vez se ha identificado el modelo, éste puede estimarse por cualquiera de los
procedimientos señalados en el capítulo anterior: máxima verosimilitud (ML), mínimos
cuadrados generalizados (GLS), mínimos cuadrados sin ponderar (ULS), etc. Las
estimaciones de los parámetros de forma que se minimice la diferencia entre la matriz de
varianzas covarianzas muestrales S y la matriz de varianzas covarianzas predicha Σ̂ que,
recordemos, venía dada por la expresión (14-5). Cada procedimiento de estimación define de
una manera distinta esa “diferencia” o función de ajuste. Un listado de las funciones de ajuste
de cada método se ofreció en el apartado 13.4.

Si nos fijamos en la sintaxis de SAS Calis del cuadro 14.4, comprobamos que en este caso el
método de estimación seleccionado ha sido el de máxima verosimilitud (METHOD=ML). ¿Qué
estimaciones de los parámetros se han obtenido?. En primer lugar. El programa ofrece las
estimaciones de los coeficientes de regresión entre los factores y las variables observadas, ya
sean estos dependientes o independientes (cuadro 14.5) para, inmediatamente, ofrecer las
estimaciones de los parámetros que vinculan los factores dependientes con los independientes
(cuadro 14.6), replicando las ecuaciones que mostrábamos en el apartado anterior.

19
Cuadro 14.5 Estimación de los coeficientes de regresión entre variables observadas y latentes

The CALIS Procedure


Covariance Structure Analysis: Maximum Likelihood Estimation

Manifest Variable Equations with Estimates

V1 = 1.0000 F1 + 1.0000 E1
V2 = 1.0000 F2 + 1.0000 E2
V3 = 0.9332*F2 + 1.0000 E3
Std Err 0.1622 LV3F2
t Value 5.7546
V4 = 1.0000 F3 + 1.0000 E4
V5 = 1.0980*F3 + 1.0000 E5
Std Err 0.3469 LV5F3
t Value 3.1651
V6 = 1.0000 F4 + 1.0000 E6
V7 = 0.9235*F4 + 1.0000 E7
Std Err 0.1492 LV7F4
t Value 6.1885
V8 = 1.0000 F5 + 1.0000 E8

Cuadro 14.6 Estimación de los coeficientes de regresión entre variables latentes

The CALIS Procedure


Covariance Structure Analysis: Maximum Likelihood Estimation

Latent Variable Equations with Estimates

F1 = -0.2583*F2 + 0.9591*F4 + -0.1787*F5 + 1.0000 D1


Std Err 0.4872 PF1F2 0.2770 PF1F4 0.1022 PF1F5
t Value -0.5301 3.4625 -1.7488
F2 = 0.3082*F1 + 0.5189*F3 + 1.0000 D2
Std Err 0.1462 PF2F1 0.2286 PF2F3
t Value 2.1078 2.2695

De estos cuadros se deduce inmediatamente que la estimación que hace el programa de las
matrices γ y B (notación Bentler-Weeks) son las siguientes:

⎡0 0 0 0 0 0 0 0 1 0 ⎤
⎢0 0 0 0 0 0 0 0 0 1

⎢ ⎥
⎢0 0 0 0 0 0 0 0 0 0.93 ⎥
⎢ ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
Bˆ = ⎢ ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢0 0 0 0 0 0 0 0 0 0 ⎥
⎢0 0 0 0 0 0 0 0 0 −0.25

⎢ ⎥
⎣⎢ 0 0 0 0 0 0 0 0 0.30 0 ⎦⎥

20
⎡ 0 0 0 1 0 0 0 0 0 0 0 0 0⎤
⎢ 0 0 0 0 1 0 0 0 0 0 0 0 0

⎢ ⎥
⎢ 0 0 0 0 0 1 0 0 0 0 0 0 0⎥
⎢ ⎥
⎢ 1 0 0 0 0 0 1 0 0 0 0 0 0⎥
⎢1.09 0 0 0 0 0 0 1 0 0 0 0 0⎥
γˆ = ⎢ ⎥
⎢ 0 1 0 0 0 0 0 0 1 0 0 0 0⎥
⎢ 0 0.92 0 0 0 0 0 0 0 1 0 0 0⎥
⎢ ⎥
⎢ 0 0 1 0 0 0 0 0 0 0 1 0 0⎥
⎢ 0 0.95 −0.17 0 0 0 0 0 0 0 0 1 0

⎢ ⎥
⎣⎢ 0.51 0 0 0 0 0 0 0 0 0 0 0 1 ⎦⎥

Para que todos los parámetros estén estimados, falta la matriz Φ que contiene las varianzas de
las variables independientes y covarianzas entre las mismas. El cuadro 14.7 ofrece estos
parámetros de donde se extrae inmediatamente la matriz que restaba por deducir:

Cuadro 14.7 Estimación de la matriz Φ

Variances of Exogenous Variables

Standard
Variable Parameter Estimate Error t Value

F3 VARF3 0.34280 0.14325 2.39


F4 VARF4 0.59120 0.14149 4.18
F5 VARF5 1.00000 0.12856 7.78
E2 VARE2 0.32812 0.11062 2.97
E3 VARE3 0.41488 0.10380 4.00
E4 VARE4 0.65720 0.13517 4.86
E5 VARE5 0.58673 0.14763 3.97
E6 VARE6 0.40880 0.09495 4.31
E7 VARE7 0.49574 0.09280 5.34
D1 VARD1 0.60009 0.29902 2.01
D2 VARD2 0.41588 0.11733 3.54

Covariances Among Exogenous Variables

Standard
Var1 Var2 Parameter Estimate Error t Value

F3 F4 CF3F4 0.18233 0.07602 2.40


F3 F5 CF3F5 -0.20418 0.08173 -2.50
F4 F5 CF4F5 -0.25040 0.08756 -2.86
D1 D2 CD1D2 0.14203 0.24288 0.58

21
⎡ F3 F4 F5 E1 E2 E3 E4 E5 E6 E7 E8 D1 D2 ⎤
⎢F 0.34 0 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ 3 ⎥
⎢ F4 0.18 0.59 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
−0.20 −0.25
⎢ F5 1.00 0 0 0 0 0 0 0 0 0 0

⎢ E1 0 0 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢ E2 0 0 0 0 0.32 0 0 0 0 0 0 0 0 ⎥
⎢ 0 ⎥
ˆ = ⎢ E3
Φ
0 0 0 0 0 0.41 0 0 0 0 0 0

⎢ E4 0 0 0 0 0 0 0.65 0 0 0 0 0 0 ⎥
⎢E 0 0 0 0 0 0 0 0.58 0 0 0 0 0 ⎥
⎢ 5 ⎥
⎢ E6 0 0 0 0 0 0 0 0 0.40 0 0 0 0 ⎥
⎢E 0 0 0 0 0 0 0 0 0 0.49 0 0 0

⎢ 7 ⎥
⎢ E8 0 0 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢ D1 0 0 0 0 0 0 0 0 0 0 0 0.60 0 ⎥
⎢⎣ D2 0 0 0 0 0 0 0 0 0 0 0 0.14 0.41⎥⎦

Con esta estimación de los parámetros se obtiene la matriz de varianzas covarianzas predicha
Σ̂ que ha de parecerse a la muestral S para que el modelo ofrezca un buen ajuste. El cuadro
14.8 muestra como ofrece SAS esta información.

Cuadro 14.8 Matriz de varianzas covarianzas estimada Σ̂

Predicted Model Matrix

V1 V2 V3 V4 V5 V6 V7 V8

V1 Y1 1.0000 0.4197 0.3917 0.1532 0.1682 0.5440 0.5024 -0.3626


V2 Y2 0.4197 1.0000 0.6270 0.2251 0.2471 0.2622 0.2422 -0.2177
V3 Y3 0.3917 0.6270 1.0000 0.2100 0.2306 0.2447 0.2260 -0.2031
V4 X1 0.1532 0.2251 0.2100 1.0000 0.3764 0.1823 0.1684 -0.2042
V5 X2 0.1682 0.2471 0.2306 0.3764 1.0000 0.2002 0.1849 -0.2242
V6 X3 0.5440 0.2622 0.2447 0.1823 0.2002 1.0000 0.5460 -0.2504
V7 X4 0.5024 0.2422 0.2260 0.1684 0.1849 0.5460 1.0000 -0.2313
V8 X5 -0.3626 -0.2177 -0.2031 -0.2042 -0.2242 -0.2504 -0.2313 1.0000

Determinant 0.135963 Ln -1.995371

Una vez ofrecidas las estimaciones de los parámetros que definen el modelo, es necesario
evaluar la bondad de ajuste del mismo antes de pasar a interpretar los resultados.

14.5 BONDAD DE AJUSTE DEL MODELO ESTIMADO

Al igual que ocurría con la identificación del modelo, los principales indicadores de medida
de su ajuste, fueron abordados en el capítulo dedicado al AFC. Por ello, en éste nos
centraremos sólo en su aplicación al ejemplo.

En lo que respecta a la matriz residual de varianzas y covarianzas, el SAS ofrece la versión


normalizada de ésta, los diez residuos más grandes y un gráfico de su distribución (cuadro
14.9). Recordemos que esta matriz es la diferencia entre la matriz estimada y la muestral y en

22
el caso ideal debería ser una matriz nula. En todo caso, se espera que los residuos sean
pequeños y estén simétricamente distribuidos. Residuos grandes asociados a ciertas variables
pueden indicar una incorrecta especificación del modelo.

Cuadro 14.9 Matriz de residual de varianzas covarianzas estimada

Asymptotically Standardized Residual Matrix

V1 V2 V3 V4 V5 V6 V7 V8

V1 Y1 0.0000 -0.1153 0.1153 -0.4999 0.5272 -0.0010 0.3951 2.0041


V2 Y2 -0.1153 0.0000 0.0000 -0.5261 0.9491 0.4141 -0.3310 0.9990
V3 Y3 0.1153 0.0000 0.0000 1.1196 -0.4955 1.5790 1.5719 2.5612
V4 X1 -0.4999 -0.5261 1.1196 0.0000 -2.0035 0.3553 0.0615 0.1178
V5 X2 0.5272 0.9491 -0.4955 -2.0035 0.0000 -0.8284 -0.1999 -1.4483
V6 X3 -0.0010 0.4141 1.5790 0.3553 -0.8284 0.0000 0.0000 -1.3053
V7 X4 0.3951 -0.3310 1.5719 0.0615 -0.1999 0.0000 0.0000 1.3053
V8 X5 2.0041 0.9990 2.5612 0.1178 -1.4483 -1.3053 1.3053 0.0000

Average Standardized Residual 0.606377


Average Off-diagonal Standardized Residual 0.779628

Rank Order of the 10 Largest Asymptotically Standardized Residuals

Row Column Residual

V8 V3 2.56117
V8 V1 2.00405
V5 V4 -2.00345
V6 V3 1.57901
V7 V3 1.57191
V8 V5 -1.44828
V8 V6 -1.30527
V8 V7 1.30526
V4 V3 1.11962
V8 V2 0.99900

Distribution of Asymptotically Standardized Residuals

Each * Represents 1 Residuals

----------Range--------- Freq Percent

-2.25000 -2.00000 1 2.78 *


-2.00000 -1.75000 0 0.00
-1.75000 -1.50000 0 0.00
-1.50000 -1.25000 2 5.56 **
-1.25000 -1.00000 0 0.00
-1.00000 -0.75000 1 2.78 *
-0.75000 -0.50000 1 2.78 *
-0.50000 -0.25000 3 8.33 ***
-0.25000 0 3 8.33 ***
0 0.25000 13 36.11 *************
0.25000 0.50000 3 8.33 ***
0.50000 0.75000 1 2.78 *
0.75000 1.00000 2 5.56 **
1.00000 1.25000 1 2.78 *
1.25000 1.50000 1 2.78 *
1.50000 1.75000 2 5.56 **
1.75000 2.00000 0 0.00
2.00000 2.25000 1 2.78 *
2.25000 2.50000 0 0.00
2.50000 2.75000 1 2.78 *

El análisis de esta información muestra que los residuos no son demasiado altos y su
distribución es prácticamente simétrica y centrada en cero. Debemos prestar atención al hecho
de que la mayoría de los residuos más elevados van asociados a la variable V8. Este hecho
apunta a algún problema de especificación de alguno de los parámetros del modelo, lo que
deberá considerarse cuando se contemplen los indicadores para la reespecificación del mismo.

El cuadro 14.10 ofrece el resto de indicadores de bondad de ajuste.

Cuadro 14.10 Indicadores de bondad de ajuste

23
The CALIS Procedure
Covariance Structure Analysis: Maximum Likelihood Estimation

Fit Function 0.1245


Goodness of Fit Index (GFI) 0.9698
GFI Adjusted for Degrees of Freedom (AGFI) 0.9165
Root Mean Square Residual (RMR) 0.0417
Parsimonious GFI (Mulaik, 1989) 0.4503
Chi-Square 15.0589
Chi-Square DF 13
Pr > Chi-Square 0.3037
Independence Model Chi-Square 256.50
Independence Model Chi-Square DF 28
RMSEA Estimate 0.0362
RMSEA 90% Lower Confidence Limit .
RMSEA 90% Upper Confidence Limit 0.1007
ECVI Estimate 0.5352
ECVI 90% Lower Confidence Limit .
ECVI 90% Upper Confidence Limit 0.6539
Probability of Close Fit 0.5697
Bentler's Comparative Fit Index 0.9910
Normal Theory Reweighted LS Chi-Square 15.0501
Akaike's Information Criterion -10.9411
Bozdogan's (1987) CAIC -60.3933
Schwarz's Bayesian Criterion -47.3933
McDonald's (1989) Centrality 0.9916
Bentler & Bonett's (1980) Non-normed Index 0.9806
Bentler & Bonett's (1980) NFI 0.9413
James, Mulaik, & Brett (1982) Parsimonious NFI 0.4370
Z-Test of Wilson & Hilferty (1931) 0.5149
Bollen (1986) Normed Index Rho1 0.8735
Bollen (1988) Non-normed Index Delta2 0.9915
Hoelter's (1983) Critical N 181

Limitándonos a los que se comentaron en el capítulo anterior, vemos que el estadístico χ2 del
modelo independiente −aquel que supone la completa independencia entre las variables− es
muy elevado (256.5), siendo significativamente mejorado por el asociado al modelo propuesto
(15.1), además de no ser significativo (p=0.30), lo que permite aceptar la hipótesis nula de
igualdad entre las matrices de covarianzas muestral y estimada.

Por otra parte, respecto a los estadísticos ad hoc que presentamos en el capítulo anterior,
vemos que todos cumplen los requisitos exigidos. Los estadísticos NFI (0.9413), NNFI
(0.9806), CFI (0.9910), GFI (0.9698) y AGFI (0.9165) toman valores superiores a 0.9; el AIC
(-10.94) y el CAIC (-60.39) mejoren los valores del modelo teórico (256.5 − 2 ×28=200.5
para AIC y 256.5–(ln122+1) ×28=93.98 para el CAIC). Estos estadísticos confirman,
también, el buen ajuste del modelo.

Finalmente, el último criterio de bondad de ajuste que presentábamos era la velocidad de


convergencia. El cuadro 14.11 nos muestra que la convergencia se produce tras 11
iteraciones, aunque tras la tercera, los cambios en la función objetivo son prácticamente
inexistentes, apuntando en la línea del buen ajuste del modelo que señalaban los otros
indicadores.

24
Cuadro 14.11 Historial de iteraciones

Ratio
Between
Actual
Objective Max Abs and
Function Active Objective Function Gradient Predicted
Iter Restarts Calls Constraints Function Change Element Lambda Change

1 0 2 0 0.12766 0.0192 0.0664 0 0.896


2 0 3 0 0.12486 0.00280 0.0253 0 0.925
3 0 4 0 0.12451 0.000342 0.0124 0 0.805
4 0 5 0 0.12446 0.000050 0.00354 0 0.785
5 0 6 0 0.12446 7.906E-6 0.00222 0 0.761
6 0 7 0 0.12445 1.309E-6 0.000491 0 0.761
7 0 8 0 0.12445 2.229E-7 0.000398 0 0.768
8 0 9 0 0.12445 3.913E-8 0.000068 0 0.786
9 0 10 0 0.12445 7.04E-9 0.000072 0 0.813
10 0 11 0 0.12445 1.296E-9 0.000013 0 0.847
11 0 12 0 0.12445 2.43E-10 0.000013 0 0.888

Optimization Results

Iterations 11 Function Calls


13
Jacobian Calls 12 Active Constraints
0
Objective Function 0.1244539143 Max Abs Gradient Element
0.0000132528
Lambda 0 Actual Over Pred Change
0.8879831316
Radius 0.0001298858

GCONV convergence criterion satisfied.

Constatado que el ajuste del modelo es razonable, debe procederse a la interpretación del
mismo y, si así se deriva de los resultados, a su posible reespecificación.

14.6 INTERPRETACIÓN DEL MODELO

La interpretación del modelo pasa por establecer qué parámetros estimados han resultado ser
significativos. Aunque esta información ya está mostrada en los cuadros 14.5, 14.6 y 14.7, la
mostramos de nuevo en el cuadro 14.13 aprovechando esta ocasión para presentar los
resultados tal y como suele hacerse en la literatura. Los valores estandarizados se obtienen de
la salida de SAS recogida en el cuadro 14.12, y se suele ofrecer para facilitar la comparación
entre los coeficientes y también con los resultados de otros trabajos. El cuadro 14.13 utiliza
para referirse a los parámetros la notación clásica que es la más empleada.

25
Cuadro 14.12 Solución estandarizada

Manifest Variable Equations with Standardized Estimates

V1 = 1.0000 F1 + 0 E1
V2 = 0.8197 F2 + 0.5728 E2
V3 = 0.7649*F2 + 0.6441 E3
LV3F2
V4 = 0.5855 F3 + 0.8107 E4
V5 = 0.6429*F3 + 0.7660 E5
LV5F3
V6 = 0.7689 F4 + 0.6394 E6
V7 = 0.7101*F4 + 0.7041 E7
LV7F4
V8 = 1.0000 F5 + 0 E8

Latent Variable Equations with Standardized Estimates

F1 = -0.2117*F2 + 0.7374*F4 + -0.1787*F5 + 0.7747 D1


PF1F2 PF1F4 PF1F5
F2 = 0.3759*F1 + 0.3706*F3 + 0.7868 D2
PF2F1 PF2F3

Squared Multiple Correlations

Error Total
Variable Variance Variance R-Square

1 V1 0 1.00000 1.0000
2 V2 0.32812 1.00000 0.6719
3 V3 0.41488 1.00000 0.5851
4 V4 0.65720 1.00000 0.3428
5 V5 0.58673 1.00000 0.4133
6 V6 0.40880 1.00000 0.5912
7 V7 0.49574 1.00000 0.5043
8 V8 0 1.00000 1.0000
9 F1 0.60009 1.00000 0.3999
10 F2 0.41588 0.67188 0.3810

Correlations Among Exogenous Variables

Var1 Var2 Parameter Estimate

F3 F4 CF3F4 0.40502
F3 F5 CF3F5 -0.34873
F4 F5 CF4F5 -0.32566
D1 D2 CD1D2 0.28431

26
Cuadro 14.13 Resultados del MEC
Estimación no Estimación
Matriz Parámetro t
estandarizada estandarizada
x
λ 11 1.000* − 1.0000
x
λ 21 1.0890 3.16 0.6249
Λx λx32 1.000* − 0.7689
λx42 0.9235 6.18 0.7101
λx53 1.000* − 1.0000
y
λ 11 1.000* − 1.0000
Λy λy22 1.000* − 0.8197
λy32 0.9332 5.75 0.7649
β12 -0.2583 -0.53 -0.2117
B
β21 0.3082 2.10 0.3579
γ12 0.9591 3.46 0.7374
Γ γ13 -0.1787 -1.74 -0.1787
γ21 0.5189 2.26 0.3706
ψ11 0.6000 2.01 0.6000
Ψ ψ22 0.4158 3.54 0.4158
ψ12 0.1420 0.58 0.1420
φ11 0.3428 2.39 0.3428
φ22 0.5912 4.18 0.5912
φ33 1.0000 7.78 1.0000
Φ
φ12 0.1823 2.40 0.4050
φ13 -0.2041 -2.50 -0.3487
φ23 -0.2504 -2.86 -0.3256
δ
θ1 0.6572 4.86 0.6572
θδ2 0.5867 3.97 0.5867
Θδ θδ3 0.4088 4.31 0.4088
θδ4 0.4957 5.34 0.4957
θδ5 0.000* − 0.0000
ε
θ1 0.000* − 0.0000
Θε θε2 0.3281 2.97 0.3281
θε3 0.4148 4.00 0.4148

Si recordamos los objetivos del trabajo de Bagozzi (1980), este autor trataba de determinar, en
primer lugar, si la satisfacción en el trabajo era antecedente o consecuencia del desempeño.
Para ello en el modelo había planteado la doble relación causal entre estos dos factores
latentes, cuyos coeficientes de regresión (véase la figura 14.1) eran β12 (influencia de la
satisfacción sobre el desempeño) y β21 (influencia del desempeño sobre la satisfacción). Si
nos fijamos en el valor del estadístico t para ambos parámetros en el cuadro 14.13,
comprobamos como β12 (t=-0.53) no es significativo, mientras que β21 (t=2.10) sí que lo es
para p<0.05. Esto nos permite concluir que la satisfacción en el trabajo es una de las variables
determinantes del desempeño de un vendedor en su puesto de trabajo.

La otra variable que influye directa y positivamente sobre la satisfacción en el lugar de trabajo
de un vendedor es la motivación para el logro (γ21=0.5189; t=2.26), es decir que cuanto más
valor da a las recompensas que puede recibir un vendedor por hacer bien su trabajo, mayor es
su satisfacción.

Indirectamente, es decir, a través del desempeño como variable mediadora, influyen en la


satisfacción en el trabajo la autoestima (γ12=0.9591; t=3.46) y la inteligencia verbal (γ13=-
0.17; t=-1.74). En el primer caso, el buen concepto que un vendedor tiene de sí mismo le lleva

27
a obtener mejores resultados y, a través de los mismos, mejorar su satisfacción. Sin embargo
puede sorprender el signo negativo del coeficiente asociado a la inteligencia verbal −de hecho
era contrario al hipotetizado por Bagozzi (1980)- . El autor explica este signo, aunque la
variable está en el límite de la no significatividad, a partir del hecho de que aquellos
individuos de gran inteligencia, pueden llegar a encontrar aburrido y poco desafiante su
trabajo, llevándole este hecho a poner menos esfuerzo, obteniendo peores resultados.
Estaríamos ante un fenómeno equivalente a la sobrecualificación de muchos trabajadores que
se ha demostrado que es un elemento incentivador de la movilidad laboral.

Hasta aquí los principales resultados. Si nos fijamos en el cuadro 14.13, comprobaremos que
todo el resto de parámetros son significativos a excepción de la covarianza entre los términos
de error asociados a los factores satisfacción y desempeño (ψ12=0.1420; t=0.58). Recordemos
que una covarianza significativa implicaría que los factores asociados comparten una
variación común que no ha sido explicada por las relaciones que se expresan en el modelo.
Por ello este carácter no significativo es positivo al indicar que la relación entre los dos
factores no es espúrea y está asociada a antecedentes comunes considerados.

Todo lo expuesto podría ser suficiente para avalar el trabajo realizado por el investigador:
buen ajuste del modelo y resultados significativos y relevantes en su conjunto. Sin embargo
cabe la posibilidad de que el modelo sea susceptible de algún tipo de reespecificación que lo
mejore, dotando de mayor peso a los resultados obtenidos.

14.7 REESPECIFICACIÓN DEL MODELO

El lector debe remitirse al epígrafe equivalente del tema anterior para revisar los motivos que
pueden llevar a reespecificar un modelo (básicamente mejora del ajuste o contraste de alguna
hipótesis teórica) y las precauciones que debe tenerse respecto a la incorporación o
eliminación de relaciones no soportadas por marco teórico alguno.

En ese mismo epígrafe se desarrollaron tres criterios para eliminar o añadir relaciones:
significatividad de los parámetros, contraste del multiplicador de Lagrange y contraste de
Wald. Veamos su aplicación al problema que nos ocupa.

La primera modificación, y la más obvia, para mejorar el ajuste del modelo es eliminar en su
especificación aquellos parámetros que han resultado ser no significativos. En nuestro caso
esos parámetros son la covarianza entre los términos de error de los factores dependientes
(ψ21) y el coeficiente de regresión entre la satisfacción y el desempeño (β12), cuyo sentido
teórico ya se puso de manifiesto en la interpretación de los resultados. Para ello basta
introducir las siguientes modificaciones en la sintaxis que recogíamos en el cuadro 14.4:

La ecuación:

F1=PF1F2 F2+PF1F4 F4 +PF1F5 F5 +D1

pasará a:

F1=PF1F4 F4 +PF1F5 F5 +D1

28
dado que PF1F2 es el coeficiente que representa el parámetro β12. Por otra parte cuando se
especifican las covarianzas a estimar, en lugar de escribir:

COV
D1 D2=CD1D2

habrá que poner:

COV
D1 D2=0

puesto que ahora CD1D2 es el coeficiente que representa al parámetro ψ21.

Para determinar qué relaciones podían introducirse para mejorar el ajuste, recurríamos al
contraste del multiplicador de Lagrange que estimaba la caída en la χ2 del modelo resultante
de permitir que un parámetro que se ha constreñido a un valor determinado sea estimado
libremente. Recordemos que se recomendaba ser muy exigente respecto al nivel de
significación del contraste y, además, que existiera justificación teórica para introducir esa
relación.

El SAS Calis, al contrario que el EQS, no ofrece una única lista con los multiplicadores de
Lagrange, sino que ofrece una lista para cada una de las matrices que recogen parámetros que
pueden estimarse. El cuadro 14.14 los muestra todos.

Cuadro 14.14 Multiplicadores de Lagrange

Rank Order of the 10 Largest Lagrange Multipliers in _PHI_

Row Column Chi-Square Pr > ChiSq

E3 F5 5.94852 0.0147
E8 E3 5.19135 0.0227
E3 F4 4.67535 0.0306
E5 E4 4.01358 0.0451
D2 F3 4.01300 0.0452
D2 E8 4.01289 0.0452
D2 F5 4.01288 0.0452
D2 F4 4.01275 0.0452
E8 E1 4.01231 0.0452
E1 F5 4.01230 0.0452

Rank Order of the 10 Largest Lagrange Multipliers in _GAMMA_

Row Column Chi-Square Pr > ChiSq

V3 F5 4.94161 0.0262
F2 F5 4.01289 0.0452
F2 F4 4.01262 0.0452
V1 F5 4.01235 0.0452
V1 F4 4.01203 0.0452
V3 F4 3.10215 0.0782
V5 F5 2.09740 0.1475
V6 F5 1.70375 0.1918
V7 F5 1.70369 0.1918
V2 F4 0.89390 0.3444

Rank Order of the 10 Largest Lagrange Multipliers in _BETA_

Row Column Chi-Square Pr > ChiSq

V8 V3 6.72289 0.0095
V3 V8 4.94161 0.0262
V8 F1 4.01639 0.0451
V8 V1 4.01639 0.0451
V4 V5 4.01389 0.0451
V5 V4 4.01351 0.0451
V8 F2 4.01296 0.0452
F2 V8 4.01289 0.0452
V1 V8 4.01235 0.0452
V3 V7 2.97562 0.0845

29
Comprobamos enseguida que sólo hay una relación que suponga una mejora significativa de
la χ2 del modelo para p<0.01, y es la que resultaría de relacionar la variable V3 (indicador del
factor satisfacción) con V8 (indicador del factor inteligencia verbal). Sin embargo, el modelo
tal como está, ya recoge esa influencia de la inteligencia sobre la satisfacción a través del
desempeño como variable moderadora, por lo que no aportaría nada nuevo a los resultados
obtenidos salvo un mejor ajuste.

El contraste de Wald (cuadro 14.15) se cuestiona qué parámetros serían susceptibles de ser
eliminados. Recordemos que la hipótesis nula que se contrasta es que la χ2 del modelo se
incrementa significativamente al eliminar esa relación, por lo que lo deseable, al contrario de
lo que ocurre con el contraste de los multiplicadores de Lagrange, es no poder rechazar la
hipótesis nula (p>0.05).

Cuadro 14.15 Test de Wald

Stepwise Multivariate Wald Test

------Cumulative Statistics----- --Univariate Increment--


Parameter Chi-Square DF Pr > ChiSq Chi-Square Pr > ChiSq

PF1F2 0.28102 1 0.5960 0.28102 0.5960


CD1D2 0.34305 2 0.8424 0.06203 0.8033
PF1F5 3.27340 3 0.3514 2.93035 0.0869

¿Qué conclusiones se obtienen del contraste de Wald? En primer lugar, se podrían eliminar
los parámetros que no habían resultado significativos: β12 y ψ21, lo que ha habíamos hecho en
primera instancia. Para eliminar la relación entre los factores 1 y 5, esto es, entre el
desempeño y la inteligencia verbal, deberíamos contar con alguna justificación teórica, pero
recordemos que su signo ya había sido contrario al hipotetizado. Si en nuestra revisión de la
literatura no habíamos podido anticipar correctamente el signo, menos base tendremos pues
para aventurarnos a eliminar la relación.

Introduciendo las modificaciones planteadas, y volviendo a estimar el modelo, el ajuste del


mismo mejora significativamente (cuadro 14.16). Fijándonos sólo en el indicador más
evidente, la χ2, esta se reduce de manera clara, siendo más constatable su no significatividad
(pasa de χ2 =15.0589; gl =13; p=0.3037 a χ2 =15.3998; gl=15; p=0.4230).

Los resultados se presentarían de un modo equivalente al mostrado para el modelo sin


reespecificar. Obviaremos esta información por no aportar nada nuevo a lo ya expuesto. El
lector, sin embargo, sólo tendría que ejecutar la sintaxis recogida en el cuadro 14.4 con las
modificaciones propuestas para poder obtener la información necesaria.

30
Cuadro 14.16 Indicadores de ajuste modelo reespecificado

The CALIS Procedure


Covariance Structure Analysis: Maximum Likelihood Estimation

Fit Function 0.1273


Goodness of Fit Index (GFI) 0.9691
GFI Adjusted for Degrees of Freedom (AGFI) 0.9259
Root Mean Square Residual (RMR) 0.0419
Parsimonious GFI (Mulaik, 1989) 0.5192
Chi-Square 15.3998
Chi-Square DF 15
Pr > Chi-Square 0.4230
Independence Model Chi-Square 256.50
Independence Model Chi-Square DF 28
RMSEA Estimate 0.0148
RMSEA 90% Lower Confidence Limit .
RMSEA 90% Upper Confidence Limit 0.0878
ECVI Estimate 0.5023
ECVI 90% Lower Confidence Limit .
ECVI 90% Upper Confidence Limit 0.6181
Probability of Close Fit 0.7000
Bentler's Comparative Fit Index 0.9983
Normal Theory Reweighted LS Chi-Square 15.4180
Akaike's Information Criterion -14.6002
Bozdogan's (1987) CAIC -71.6605
Schwarz's Bayesian Criterion -56.6605
McDonald's (1989) Centrality 0.9984
Bentler & Bonett's (1980) Non-normed Index 0.9967
Bentler & Bonett's (1980) NFI 0.9400
James, Mulaik, & Brett (1982) Parsimonious NFI 0.5036
Z-Test of Wilson & Hilferty (1931) 0.1941
Bollen (1986) Normed Index Rho1 0.8879
Bollen (1988) Non-normed Index Delta2 0.9983
Hoelter's (1983) Critical N 198

14.8 UN EJEMPLO COMPLETO DE MEC

Para finalizar este capítulo, ilustraremos la aplicación de los MEC con un ejemplo de
aplicación. Sharma (1996) propone el siguiente ejercicio. El Banco Nacional XYZ a
efectuado una encuesta sobre 1623 clientes suyos para tratar de evaluar su nivel de
satisfacción con las tarjetas de crédito que el banco les ofrece. El banco cree que la
satisfacción global (η1) con las tarjetas de crédito es función de su satisfacción con los
siguientes cuatro factores: facilidad de concesión de las tarjetas (ξ1), calidad de la
información de los extractos (ξ2), atención al cliente (ξ3) y gestión del pago diferido (ξ4). El
banco también considera que la satisfacción global determinará la intención del cliente de
seguir usando la tarjeta de crédito (η3) y si el cliente recomendará (η2) o no la tarjeta de este
banco a sus amigos y conocidos.

En su encuesta, el banco ha utilizado cuatro indicadores para medir la satisfacción con las
facilidades de concesión de las tarjetas (X1-X4), tres indicadores para medir la satisfacción con
la calidad de información de los extractos (X5-X7), cuatro indicadores para medir la
satisfacción con la calidad de atención al cliente (X8-X11), dos para medir la satisfacción con la
calidad de la gestión del pago diferido (X12-X13), dos indicadores para medir la satisfacción
global (Y1-Y2), dos para la intención de recomendar (Y3-Y4) y dos para medir la intención de
seguir utilizando la tarjeta (Y5-Y6).

La figura 14.5 ilustra las relaciones hipotetizadas por el banco y el cuadro 14.17 proporciona
la sintaxis necesaria para estimar, en este caso mediante el EQS, el modelo. En la sintaxis se
encuentra incluida la matriz de varianzas covarianzas muestral con la información necesaria
para la estimación. Dado que el lector puede obtener las salidas, sin más que ejecutar la

31
mencionada sintaxis, optaremos por presentar la información, no como sale del programa,
sino como habría que incluirla en el informe de un trabajo de investigación o en un artículo.

Figura 14.5 Síntesis de las relaciones planteadas

δ1 X1 λx11

δ2 X2 λx21

λx31 ξ1
δ3 X3
λx41

δ4 X4
φ12 ζ3
γ11 Y5 ε5
δ5 X5 λx52 λy35
λx62
φ13 η3
δ6 X6 ξ2
λx72 γ12 ζ1 λy36 Y6 ε6
δ7 X7 β31

φ14 η1
φ23
δ8 X8 γ13 ζ2
λx83 λy11 λy12 β21
Y3 ε3
δ9 X9 λx93 Y1 Y2
λy23
λx103 ξ3 η2
δ10 X10 φ24 γ14
λx113
ε1 ε2
λy24 Y4 ε4
δ11 X11
φ34

δ12 X12 λx124


λx134 ξ4
δ13 X13

32
Cuadro 14.17 Sintaxis de EQS para el modelo MEC propuesto
/TITLE
MEC SATISFACCIÓN TARJETAS DE CRÉDITO SHARMA (1996)

/SPECIFICATIONS
CASE=1623; VAR=19; ME=GLS; MA=COV; ANAL=COV;
/MATRIX
3.20
1.71 2.62
1.36 1.25 3.58
1.19 1.10 1.75 3.63
1.23 1.16 0.96 0.78 3.09
1.42 1.28 1.13 0.93 1.82 3.29
0.32 0.28 0.13 0.11 0.13 0.13 1.88
0.14 0.14 0.15 0.09 0.10 0.26 0.51 2.55
0.31 0.16 0.31 0.16 0.21 0.30 0.76 0.63 2.63
0.22 0.15 0.15 0.21 0.22 0.27 0.77 0.64 0.79 2.38
0.51 0.40 0.50 0.38 0.31 0.51 0.04 0.03 0.02 0.00 1.93
0.47 0.46 0.51 0.35 0.40 0.40 0.03 0.05 0.01 0.01 0.64 1.68
0.61 0.44 0.46 0.40 0.50 0.38 0.04 0.03 0.01 0.01 0.63 0.76 2.31
0.77 0.59 0.59 0.42 0.52 0.58 0.03 0.06 0.03 0.06 0.00 0.02 0.03 2.63
0.74 0.65 0.55 0.48 0.49 0.44 0.01 0.07 0.02 0.07 0.00 0.06 0.06 0.86 2.03
0.58 0.53 0.48 0.33 0.35 0.37 0.04 0.03 0.02 0.05 0.03 0.00 0.07 0.65 0.67 2.44
0.73 0.66 0.55 0.38 0.41 0.60 0.02 0.04 0.05 0.01 0.00 0.02 0.06 0.72 0.80 0.63 2.71
0.29 0.30 0.30 0.35 0.20 0.19 0.04 0.05 0.06 0.00 0.02 0.06 0.03 0.07 0.04 0.06 0.01 2.26
0.27 0.31 0.29 0.28 0.20 0.31 0.01 0.04 0.05 0.02 0.06 0.00 0.03 0.01 0.00 0.02 0.02 0.72 1.77
/LABELS
V1=Y1; V2=Y2; V3=Y3; V4=Y4; V5=Y5; V6=Y6;
V7=X1; V8=X2; V9=X3; V10=X4; V11=X5; V12=X6; V13=X7; V14=X8; V15=X9;
V16=X10; V17=X11; V18=X12; V19=X13;
F1=F1; F2=F2; F3=F3; F4=F4; F5=N1; F6=N2; F7=N3;

/EQUATIONS
V1= F5+E1;
V2=*F5+E2;
V3= F6+E3;
V4=*F6+E4;
V5= F7+E5;
V6=*F7+E6;
V7= F1+E7;
V8=*F1+E8;
V9=*F1+E9;
V10=*F1+E10;
V11= F2+E11;
V12=*F2+E12;
V13=*F2+E13;
V14= F3+E14;
V15=*F3+E15;
V16=*F3+E16;
V17=*F3+E17;
V18= F4+E18;
V19=*F4+E19;
F5=*F1+*F2+*F3+*F4+D1;
F6=*F5+D2;
F7=*F5+D3;

/VARIANCES
F1 TO F4=*;
E1 TO E19=*;
D1 TO D3=*;

/COVARIANCES
F1 TO F4 =*;

/PRINT
FIT=ALL;

/LMTEST
/WTEST

/END

Comenzamos con la identificación del modelo. En primer lugar es necesario establecer la


escala de los factores (variables latentes). Recordemos que esto se puede hacer, bien fijando a
1 el coeficiente de regresión de uno de los indicadores de cada factor, bien fijando a 1 la
varianza de aquel factor que sea independiente. En este caso se ha optado por fijar a 1 el
coeficiente de regresión de la variable X1 sobre el factor ξ1, de X5 sobre el factor ξ2, de X8
sobre ξ3, de X12 sobre ξ4, de Y1 sobre η1, de Y3 sobre η2 y de Y5 sobre η3, es decir:

33
λ11x = λ52x = λ83x = λ124
x
= λ11y = λ23y = λ35y = 1

Se propone al lector a que identifique en la sintaxis del EQS dónde se han fijado a 1 los
mencionados parámetros.

La segunda condición es que, en el componente de medida del modelo, los errores asociados
con los indicadores no estén correlacionados a priori, cada variable carga sólo sobre un factor
y se permite a los factores (a los independientes, claro) covariar. Compruébese en la sintaxis
del EQS cómo se ha establecido que se estimen los valores de φ12, φ23, φ34, φ13, φ24, φ14.

La última condición pasa por asegurarnos que contamos con grados de libertad suficientes,
esto es, que el modelo está sobreidentificado. ¿Cuántos datos tenemos? Las varianzas y
covarianzas muestrales son 190 (19×20/2). ¿Qué parámetros hemos de estimar con esta
información?:

• 19 coeficientes de regresión ente las variables observadas y los factores y (12 en


realidad, porque 7 se han fijado a 1, como ya hemos dicho).
• 4 coeficientes de regresión entre los factores independientes y los dependientes.
• 2 coeficientes de regresión entre factores dependientes.
• Las varianzas de los términos de error de 19 variables observadas.
• Las varianzas de los términos de error de 3 factores dependientes.
• Las 6 covarianzas entre los factores dependientes.
• 4 varianzas de los factores independientes.

Es decir, en total hemos de estimar 50 parámetros. Por lo tanto, tenemos 140 grados de
libertad, estando sobreidentificado el modelo.

Identificado el modelo, se procede a su estimación que, como se comprueba en la sintaxis, se


ha efectuado esta vez por mínimos cuadrados generalizados (ME=GLS). Los resultados
obtenidos en la estimación de los parámetros se muestran en el cuadro 4.18 tanto para el
modelo de medida como para el modelo estructural.

34
Cuadro 4.18 Resultados del MEC
Estimación no Estimación
Parámetro t
estandarizada estandarizada
λx11 1.000* − 0.628
x
λ 21 0.769 11.45 0.415
λx31 1.050 13.65 0.558
λx41 1.057 13.83 0.590
λx52 1.000* − 0.550
λx62 1.116 13.82 0.656
λx72 1.151 13.56 0.578
λx83 1.000* − 0.558
λx93 1.031 15.48 0.655
λx103 0.794 12.91 0.459
λx113 0.958 13.88 0.527
λx124 1.000* − 0.547
λx134 1.070 5.68 0.661
λy11 1.000* − 0.767
λy12 0.906 27.40 0.768
y
λ 23 1.000* − 0.760
y
λ 24 0.854 17.86 0.643
λy35 1.000* − 0.726
y
λ 36 1.133 21.56 0.805
β21 0.763 19.49 0.729
β31 0.680 19.14 0.730
γ11 0.258 5.17 0.162
γ12 0.785 11.37 0.435
γ13 0.834 13.48 0.551
γ14 0.388 6.11 0.232
φ11 0.732 10.20 1.000
φ22 0.571 9.18 1.000
φ33 0.811 9.85 1.000
φ44 0.668 5.14 1.000
φ12 0.020 0.78 0.031
φ23 0.027 1.01 0.040
φ34 0.027 0.87 0.037
φ13 0.037 1.24 0.048
φ24 0.026 0.97 0.042
φ14 0.031 1.03 0.044
*Parámetros constreñidos a ese valor en el proceso de identificación

35
Cuadro 4.18 Resultados del MEC (Continuación)
Estimación no Estimación
Parámetro t
estandarizada estandarizada
θδ1 1.125 17.66 1.125
δ
θ2 2.082 25.06 2.082
θδ3 1.786 21.06 1.786
θδ4 1.534 19.66 1.534
θδ5 1.316 21.45 1.316
δ
θ6 0.944 16.57 0.944
δ
θ7 1.508 20.25 1.508
θδ8 1.792 22.45 1.792
θδ9 1.145 18.60 1.145
θδ10 1.912 25.02 1.912
θδ11 1.936 25.34 1.936
δ
θ 12 1.566 12.10 1.566
δ
θ 13 0.987 7.14 0.987
θε1 1.301 19.19 1.301
θε2 1.060 19.00 1.060
θε3 1.483 13.05 1.483
ε
θ4 2.104 20.12 2.104
ε
θ5 1.443 17.70 1.443
θε6 1.122 12.32 1.122
Ψ1 0.693 9.75 0.693
Ψ2 0.952 9.02 0.952
Ψ3 0.753 11.21 0.753
2
χ (140 gl)=153.4 (p=0.207) CFI=0.992
NIF=0.921 IFI=0.993
NNFI=0.991 MFI=0.996
GFI=0.990 RMR=0.043
AGFI=0.986 SRMR=0.007
*Parámetros constreñidos a ese valor en el proceso de identificación

En primer lugar, se constanta que el ajuste del modelo es excelente, además de una χ2 no
significativa (χ2=153.4; p=0.207), todos los índices son superiores a 0.9. Por otra parte, puede
comprobarse en el cuadro 14.19 que los residuos de la matriz residual estandarizada de
varianzas covarianzas son pequeños (promedio fuera de la diagonal 0.0130), y su distribución
es simétrica y centrada en cero.

Si atendemos a otros criterios propuestos, comprobamos (véase cuadro 14.19) que la


convergencia se produce en pocas iteraciones (cinco) y que a partir de la tercera, la mejora en
la función de ajuste es prácticamente nula. Respecto al criterio de la matriz de información, el
programa nos indica que no ha detectado ningún problema significativo

36
Cuadro 5.19 Residuos estandarizados

LARGEST STANDARDIZED RESIDUALS:

V 11,V 6 V 18,V 4 V 15,V 6 V 11,V 3 V 13,V 5


0.054 0.052 -0.050 0.049 0.045

V 8,V 6 V 12,V 3 V 9,V 3 V 10,V 2 V 9,V 6


0.039 0.039 0.036 -0.035 0.034

V 12,V 1 V 6,V 6 V 7,V 1 V 9,V 2 V 13,V 2


-0.031 0.031 0.030 -0.029 -0.027

V 19,V 1 V 19,V 4 V 7,V 2 V 10,V 6 V 7,V 6


-0.026 0.025 0.025 0.024 -0.024

DISTRIBUTION OF STANDARDIZED RESIDUALS

----------------------------------------
! !
120- -
! !
! !
! * !
! * ! RANGE FREQ PERCENT
90- * -
! * * ! 1 -0.5 - -- 0 0.00%
! * * ! 2 -0.4 - -0.5 0 0.00%
! * * ! 3 -0.3 - -0.4 0 0.00%
! * * ! 4 -0.2 - -0.3 0 0.00%
60- * * - 5 -0.1 - -0.2 0 0.00%
! * * ! 6 0.0 - -0.1 86 45.26%
! * * ! 7 0.1 - 0.0 104 54.74%
! * * ! 8 0.2 - 0.1 0 0.00%
! * * ! 9 0.3 - 0.2 0 0.00%
30- * * - A 0.4 - 0.3 0 0.00%
! * * ! B 0.5 - 0.4 0 0.00%
! * * ! C ++ - 0.5 0 0.00%
! * * ! -------------------------------
! * * ! TOTAL 190 100.00%
----------------------------------------
1 2 3 4 5 6 7 8 9 A B C EACH "*" REPRESENTS 6 RESIDUALS

PARAMETER ESTIMATES APPEAR IN ORDER,


NO SPECIAL PROBLEMS WERE ENCOUNTERED DURING OPTIMIZATION.

ITERATIVE SUMMARY

PARAMETER
ITERATION ABS CHANGE ALPHA FUNCTION
1 0.494213 1.00000 0.74130
2 0.048266 1.00000 0.11648
3 0.019559 1.00000 0.09483
4 0.003406 1.00000 0.09458
5 0.000630 1.00000 0.09458

Centrándonos ya en la interpretación del modelo, recordemos que los objetivos del problema
propuesto por Sharma (1996), eran determinar si la satisfacción global con las tarjetas de
crédito que ofrecía el banco, por un lado es consecuencia de su facilidad de concesión, de la
calidad de la información de los extractos, de la atención al cliente y de la gestión del pago
diferido y, por otra parte, esta variable es el antecedente de la intención del cliente de seguir
utilizando la tarjeta y de su intención de recomendarla a familiares y amigos.

El hecho de que el modelo tenga un ajuste global aceptable, no quiere decir que todas las
relaciones propuestas sean significativas. De la lectura del cuadro 14.18, comprobamos que la
satisfacción global (η1), depende significativamente de ξ1 (facilidad de concesión de las
tarjetas (γ11=0.258, t=5.17)), de ξ2 (calidad de la información de los extractos (γ12=0.785,
t=11.37)), de ξ3 (atención al cliente (γ13=0.834, t=13.48)) y de ξ4 (gestión del pago diferido
(γ14=0.388, t=6.11)). Si nos fijamos en los valores estandarizados de estos coeficientes,
comprobamos que la influencia de la calidad de los extractos y la atención al cliente es mayor
que la de los otros dos factores.

37
Respecto al hecho de que la satisfacción global sea causa de establecimiento de relaciones
duraderas, vemos que, efectivamente, este factor ejerce una influencia significativa sobre η2
(intención de recomendar (β21=0.763, t=19.49)) y sobre η3 (intención de continuar utilizando
la tarjeta (β31=0.680, t=19.14)). La influencia de la satisfacción global sobre ambos factores, a
la luz de los coeficientes estandarizados, es prácticamente la misma.

¿Es necesario reespecificar el modelo, esto es, añadir o eliminar alguna de las relaciones para
lograr un mejor ajuste? Es difícil que esto sea así, pues el ajuste ya es muy bueno y los
resultados obtenidos están de acuerdo con las hipótesis planteadas. Sin embargo, no está de
más echar un vistazo a las propuestas del programa a través del contraste de los
multiplicadores de Lagrange y del contraste de Wald (cuadro 14.20). En cualquier caso, los
únicos parámetros que no han resultado ser significativos, han sido las covarianzas entre los
factores independientes. Por ello, si alguna relación es candidata a ser suprimida, serán sin
duda éstas.

Si nos fijamos en las propuestas de modificación, el contraste de Wald sugiere que se


eliminen las covarianzas entre los factores independientes, lo que ya suponíamos al no ser
significativos estos parámetros. ¿Tiene sentido hacerlo? Estas covarianzas indican, caso de ser
significativas, que hemos dejado fuera del modelo antecedentes comunes a esos factores. Por
lo tanto, su eliminación sólo contribuye a acentuar la conclusión de la solidez del modelo
propuesto. Podríamos eliminarlas, pero como la mejora de ajuste sería marginal y no nos
aporta más información que la señalada, dejamos de hacerlo.

En esta línea cabe interpretar la sugerencia de que se introduzca una relación causal desde la
intención de recomendar hacia la satisfacción global. Si esta relación tiene escaso sentido
teórico y no va a aportar sino una mejora marginal en el ajuste, optaríamos por no
introducirla.

38
Cuadro 5.20 Test de Wald y de los multiplicadores de Lagrange

WALD TEST (FOR DROPPING PARAMETERS)


MULTIVARIATE WALD TEST BY SIMULTANEOUS PROCESS

CUMULATIVE MULTIVARIATE STATISTICS UNIVARIATE INCREMENT


---------------------------------- --------------------

STEP PARAMETER CHI-SQUARE D.F. PROBABILITY CHI-SQUARE PROBABILITY


---- ----------- ---------- ---- ----------- ---------- -----------

1 F2,F1 0.615 1 0.433 0.615 0.433


2 F4,F3 1.382 2 0.501 0.767 0.381
3 F4,F2 2.233 3 0.525 0.851 0.356
4 F4,F1 3.128 4 0.537 0.895 0.344
5 F3,F2 4.029 5 0.545 0.901 0.343
6 F3,F1 5.372 6 0.497 1.343 0.247

MULTIVARIATE LAGRANGE MULTIPLIER TEST BY SIMULTANEOUS PROCESS IN STAGE 1

CUMULATIVE MULTIVARIATE STATISTICS UNIVARIATE INCREMENT


---------------------------------- --------------------

STEP PARAMETER CHI-SQUARE D.F. PROBABILITY CHI-SQUARE PROBABILITY


---- ----------- ---------- ---- ----------- ---------- -----------

1 F5,F6 5.179 1 0.023 5.179 0.023

39
REFERENCIAS BIBLIOGRÁFICAS

Bagozzi, R.P. (1980): “Performance and satisfaction in an industrial sales force: an


examination of their antecedents and simultaneity”. Journal of Marketing, vol. 44,
primavera, pp. 65-77.
Bekker, P.A.; Merckens, A. y Wansbeek, T.J. (1994): Identification, equivalent models and
computer algebra. San Diego, CA: Academic Press.
Bentler, P.M. y Weeks, D.G. (1980): “Linear structural equations with latent variables”.
Psychometrika, vol. 45, pp. 289-308.
Hatcher, L. (1994): A Step-by-Step Approach to Using the SAS System for Factor Análisis and
Structural Equation Modelling. Cary, NC: Sas Institute Inc.
Jöreskog, K.G. y Sörbom, D. (1989): Lisrel 7: A guide to the Program Applications. Chicago:
SPSS Inc.
Long, J.S. (1983): Covariance Structure Models: an introduction to LISREL. Sage University
Paper series on Quantitative Applications in the Social Sciences, nº 07-034. Newbury
Park, CA: Sage.
McDonald, R.P. (1982): “A note on the investigation of local and global identifiability”.
Psychometrika, Vol. 47, pp. 101-103.
Sharma, S. (1996): Applied Multivariate Techniques. Nueva York: John Wiley & Sons, Inc.
Ullman, J.D. (1996): “Structural Equation Modelling”, en Tabachnick y Fidell (1996), pp.
709-812.

40
Ejercicio SEM para clase
Sharrma (1996) propone el siguiente ejercicio. El Banco Nacional XYZ ha efectuado una
encuesta sobre 1623 clientes suyos para tratar de evaluar su nivel de satisfacción con las
tarjetas de crédito que el banco les ofrece. El banco cree que la satisfacción global (η1) con
las tarjetas de crédito es función de su satisfacción con los siguientes cuatro factores: facilidad
de concesión de las tarjetas (ξ1), calidad de la información de los extractos (ξ2), atención al
cliente (ξ3) y gestión del pago diferido (ξ4). El banco también considera que la satisfacción
global determinará la intención del cliente de seguir usando la tarjeta de crédito (η3) y si el
cliente recomendará (η2) o no la tarjeta de este banco a sus amigos y conocidos.

En su encuesta, el banco ha utilizado cuatro indicadores para medir la satisfacción con las
facilidades de concesión de las tarjetas (X1-X4), tres indicadores para medir la satisfacción con
la calidad de información de los extractos (X5-X7), cuatro indicadores para medir la
satisfacción con la calidad de atención al cliente (X8-X11), dos para medir la satisfacción con la
calidad de la gestión del pago diferido (X12-X13), dos indicadores para medir la satisfacción
global (Y1-Y2), dos para la intención de recomendar (Y3-Y4) y dos para medir la intención de
seguir utilizando la tarjeta (Y5-Y6).

La figura 1 ilustra las relaciones hipotetizadas por el banco y el cuadro 1 ofrece la matriz de
varianzas covarianzas muestral con la información necesaria para la estimación. Se pide.

1. Escribe la sintaxis que permita estimar el modelo planteado, presta especial atención a
la identificación del modelo.
2. Realiza un cuadro con la información que, de las salidas del programa, habría que
incorporar si se estuviera redactando un artículo.
3. Interpreta los resultados obtenidos.

Cuadro 1. Matriz de varianzas covarianzas muestral.


3.20
1.71 2.62
1.36 1.25 3.58
1.19 1.10 1.75 3.63
1.23 1.16 0.96 0.78 3.09
1.42 1.28 1.13 0.93 1.82 3.29
0.32 0.28 0.13 0.11 0.13 0.13 1.88
0.14 0.14 0.15 0.09 0.10 0.26 0.51 2.55
0.31 0.16 0.31 0.16 0.21 0.30 0.76 0.63 2.63
0.22 0.15 0.15 0.21 0.22 0.27 0.77 0.64 0.79 2.38
0.51 0.40 0.50 0.38 0.31 0.51 0.04 0.03 0.02 0.00 1.93
0.47 0.46 0.51 0.35 0.40 0.40 0.03 0.05 0.01 0.01 0.64 1.68
0.61 0.44 0.46 0.40 0.50 0.38 0.04 0.03 0.01 0.01 0.63 0.76 2.31
0.77 0.59 0.59 0.42 0.52 0.58 0.03 0.06 0.03 0.06 0.00 0.02 0.03 2.63
0.74 0.65 0.55 0.48 0.49 0.44 0.01 0.07 0.02 0.07 0.00 0.06 0.06 0.86 2.03
0.58 0.53 0.48 0.33 0.35 0.37 0.04 0.03 0.02 0.05 0.03 0.00 0.07 0.65 0.67 2.44
0.73 0.66 0.55 0.38 0.41 0.60 0.02 0.04 0.05 0.01 0.00 0.02 0.06 0.72 0.80 0.63 2.71
0.29 0.30 0.30 0.35 0.20 0.19 0.04 0.05 0.06 0.00 0.02 0.06 0.03 0.07 0.04 0.06 0.01 2.26
0.27 0.31 0.29 0.28 0.20 0.31 0.01 0.04 0.05 0.02 0.06 0.00 0.03 0.01 0.00 0.02 0.02 0.72 1.77

41
Figura 1 Síntesis de las relaciones planteadas

δ1 X1 λx11

δ2 X2 λx21

λx31 ξ1
δ3 X3
λx41

δ4 X4
φ12 ζ3
γ11 Y5 ε5
δ5 X5 λx52 λy35
λx62
φ13 η3
δ6 X6 ξ2
λx72 γ12 ζ1 λy36 Y6 ε6
δ7 X7 β31

φ14 η1
φ23
δ8 X8 γ13 ζ2
λx83 λy11 λy12 β21
Y3 ε3
δ9 X9 λx93 Y1 Y2
λy23
λx103 ξ3 η2
δ10 X10 φ24 γ14
λx113
ε1 ε2
λy24 Y4 ε4
δ11 X11
φ34

δ12 X12 λx124


λx134 ξ4
δ13 X13

42
Ejercicio SEM para casa
En la página web de la asignatura puede encontrarse el trabajo de Churchill y Surprenant
(1982) que analiza los determinantes de la satisfacción del cliente tanto para bienes duraderos
como perecederos. Las relaciones que plantean y los nombres de las variables utilizadas para
medir cada uno de ellos se resumen en la figura 1. Se recomienda leer el trabajo con el fin de
entender los conceptos implicados en el sistema de ecuaciones estructurales.

Figura 1. Modelo de determinantes de la satisfacción del cliente

Como se ha señalado, los autores estiman este modelo para dos tipos de bienes duraderos
(vídeo) y no duraderos (una planta). Esta es la razón de que, en el artículo, la matriz de
correlaciones tenga en el triángulo inferior las correlaciones para el bien perecedero y en el
triángulo superior los datos para el bien duradero. En la tabla 1 se muestra esta matriz.

Se pide.

1. Plantea la sintaxis para estimar el modelo de la figura 1, solo para el bien duradero
(vídeo).
2. Realiza un cuadro con la información que, de las salidas del programa, habría que
incorporar si se estuviera redactando un artículo.
3. Interpreta los resultados obtenidos.

43
Tabla 1. Matriz de correlaciones

N.B.

1. Es importante consultar el artículo para comparar los resultados.


2. Nótese que el artículo no ofrece las desviaciones típicas, por lo que será necesario
estimar el modelo basándose sólo en las correlaciones y los resultados pueden diferir
ligeramente de los publicados.

Referencias

Churchill, G.A. y Surprenant, C. (1982): “An Investigation into the determinants of Customer
Satisfacion”. Journal of Marketing Research, Vol. XIX, pp. 491-504.

44

También podría gustarte