Está en la página 1de 34

3

Análisis loglineal (I)


El procedimiento Loglineal: Selección de modelo

Los modelos estadísticos más comúnmente utilizados son, sin duda, los modelos lineales. Son
modelos en los que el valor esperado de un conjunto de observaciones (variable dependiente)
se hace depender de una combinación lineal de varios parámetros y variables (variables inde-
pendientes): se estiman los parámetros asociados a cada variable independiente mediante pro-
cedimientos como el de mínimos cuadrados o el de máxima verosimilitud y luego se utilizan
esas estimaciones para determinar qué variables independientes son las más relevantes para
explicar los valores observados en la variable dependiente. El análisis de varianza y el análisis
de regresión constituyen los ejemplos más representativos de este tipo de modelos.
Los modelos logarítmico-lineales (o, más brevemente, loglineales) son, en muchos aspec-
tos, similares al análisis de varianza y al de regresión: la variable dependiente se intenta expli-
car a través de una combinación lineal de parámetros y variables, y la meta del análisis consis-
te en obtener un modelo o ecuación capaz de dar cuenta del comportamiento observado en
los datos.
Sin embargo, las diferencias entre los modelos lineales y los loglineales son evidentes.
Éstos últimos tratan sólo con variables categóricas: la unidad de análisis no es una puntuación
individual sino una probabilidad o una frecuencia. Son modelos, por tanto, diseñados para es-
tudiar la asociación entre variables categóricas. Mientras en un modelo lineal típico (por
ejemplo, en un modelo de ANOVA) la variable dependiente Yij se refiere a la puntuación ob-
tenida en la variable cuantitativa Y por el individuo i bajo el tratamiento j, en un modelo logli-
neal la variable dependiente es una probabilidad (la probabilidad de que un elemento aleato-
riamente seleccionado de una determinada población reúna una combinación particular de ca-
racterísticas de esa población) o una frecuencia (la frecuencia con la que aparece esa combi-
nación particular de características poblacionales). Este hecho particular obliga (por razones
que se verán enseguida) a utilizar una métrica logarítmica en lugar de lineal, motivo por el
cual estos modelos forman parte (al igual que, por ejemplo, el modelo de regresión logística
recién estudiado) de la familia de los modelos lineales generalizados.
Existen dos formas fundamentales de aproximación logarítmica al estudio de tablas de
contingencias: los modelos loglineales propiamente dichos, en los cuales no se hace distin-
ción entre variables dependientes e independientes, y los modelos logit, en los que una de las
variables se toma como dependiente.
En este capítulo se exponen los modelos loglineales, en concreto, un tipo particular de
modelos loglineales llamados jerárquicos. El siguiente capítulo está dedicado a los modelos
loglineales generales, los cuales permiten ajustar cualquier tipo de modelo loglineal, con-

113
114 Capítulo 3

trastar diversas hipótesis que pueden resultar de interés en ciertos contextos (simetría com-
pleta y relativa, cuasi-independencia, etc.) y analizar tasas de respuesta, tiempos de espera,
etc.. Por último, en un tercer capítulo, se abordan los modelos logit. A cada tipo de modelo
corresponde un procedimiento SPSS distinto.

Asociación en tablas de contingencias


Desde el punto de vista de la asociación entre variables, en una tabla de contingencias bidi-
mensional sólo cabe preguntarse si las dos variables que definen la tabla son independientes
o están relacionadas (es decir, con dos variables únicamente es posible encontrar independen-
cia o asociación). Para dar respuesta a esta pregunta ya se han estudiado, entre otros, el esta-
dístico chi-cuadrado de Pearson (para decidir si dos variables están o no significativamente
asociadas mediante el contraste de la hipótesis nula de independencia) y las medidas de aso-
ciación (para intentar cuantificar el grado de asociación existente).
La cuestión que interesa destacar en este momento es que, al añadir una nueva dimensión
a una tabla de contingencias bidimensional y convertirla en tridimensional (tres variables),
las posibles pautas de asociación entre variables se incrementan de forma sustancial. Con tres
variables (X, Y y Z) es posible encontrar las siguientes pautas de asociación (lógicamente,
cada una de estas pautas de asociación posee, según se verá enseguida, su propio significado):
1. Las tres variables son independientes.
2. Existe asociación entre X e Y (pero no entre X y Z, ni entre Y y Z).
3. Existe asociación entre X y Z (pero no entre X e Y, ni entre Y y Z).
4. Existe asociación entre Y y Z (pero no entre X e Y, ni entre X y Z).
5. Existe asociación entre X e Y y entre X y Z (pero no entre Y y Z).
6. Existe asociación entre X e Y y entre Y y Z (pero no entre X y Z).
7. Existe asociación entre X y Z y entre Y y Z (pero no entre X e Y).
8. Existe asociación entre X e Y, entre X y Z y entre Y y Z.
9. Existe asociación entre X, Y y Z.
La pauta de asociación número 1 indica independencia completa. En ella sólo están presentes
los efectos principales de cada una de las variables, lo cual significa que las diferencias entre
las frecuencias de las casillas únicamente reflejan diferencias en los totales marginales de ca-
da variable individualmente considerada. Las tres variables de la tabla son mutuamente inde-
pendientes o, si se prefiere, cada par de variables es condicionalmente independiente, dada
la tercera. La independencia completa referida a una tabla tridimensional equivale a la hipóte-
sis nula de independencia contrastada al estudiar tablas bidimensionales. Lógicamente, al re-
chazar la hipótesis de independencia se obtendría evidencia de la existencia de alguna de las
restantes pautas de asociación.
La pauta de asociación número 2 (o, similarmente, la 3 y la 4) refleja asociación parcial.
La presencia de la interacción X-Y y la ausencia de las interacciones X-Z e Y-Z está indicando
que las variables X e Y son condicionalmente dependientes, dada Z. Es decir, las variables X
e Y están asociadas en los distintos niveles de Z.
La pauta de asociación número 5 (o, similarmente, la 6 y la 7) indica independencia con-
dicional. La ausencia de la interacción Y-Z indica que las variables Y y Z son condicionalmen-
te independientes, dada X. Es decir, Y y Z son independientes en los distintos niveles de X.
Análisis loglineal (I): Selección de modelo 115

La pauta de asociación número 8 indica que todas las variables están asociadas entre sí.
A esta pauta de asociación parcial suele llamársele asociación homogénea. La única interac-
ción ausente es la de segundo orden: X-Y-Z. La asociación homogénea significa que la rela-
ción en entre cada par de variables es la misma para cada nivel de la tercera (es decir, es la
misma, independientemente de la presencia o ausencia de la tercera variable).
Por último, en la pauta de asociación número 9 están presentes todas las interacciones po-
sibles, lo que significa que la asociación parcial entre cada par de variables es diferente en los
distintos niveles de la tercera.
Así pues, mientras que en una tabla bidimensional sólo cabe encontrar independencia o
asociación entre las dos variables que conforman la tabla, en una tabla tridimensional es posi-
ble encontrar numerosas pautas de asociación. Y si se añade una cuarta variable, el número
de posibles pautas de asociación se eleva considerablemente. Parece claro, por tanto, que para
estudiar con cierto orden las múltiples pautas de asociación presentes en una tabla de contin-
gencias multidimensional es necesario utilizar una estrategia que permita una aproximación
sistemática a las mismas. Justamente los modelos* loglineales ofrecen esa forma de aproxima-
ción. Representan, quizá, la más útil de las herramientas disponibles para el estudio de tablas
de contingencias multidimensionales, pues no sólo proporcionan una aproximación sistemá-
tica al estudio de la asociación entre las variables categóricas que conforman una tabla de
contingencias sino que, además, permiten obtener estimaciones para los efectos que puedan
resultar de interés.

Los modelos loglineales jerárquicos


El procedimiento que posibilita la elaboración de un modelo loglineal capaz de informar sobre
las pautas de asociación presentes en una tabla de contingencias consta de varios pasos**:
1. Formulación del modelo (o modelos) que podría dar cuenta de las frecuencias observa-
das.
2. Estimación de las frecuencias esperadas que se derivan del modelo formulado.
3. Evaluación del ajuste del modelo (comparando las frecuencias esperadas con las obser-
vadas).
4. Selección del modelo que mejor se ajusta a los datos.

La forma de llevar a cabo cada uno de estos pasos es lo que constituye el contenido funda-
mental de este capítulo. En los apartados que siguen se explican estos cuatro aspectos del
ajuste de los modelos loglineales jerárquicos y se describe cómo ajustar modelos loglineales
jerárquicos con el SPSS.

*
En el sentido utilizado aquí, el término modelo se refiere a una ecuación matemática que permite expresar las frecuencias
esperadas de una tabla de contingencias en función de un conjunto de parámetros referidos a las variables categóricas que
componen la tabla y a la relación existente entre las mismas.
*
Un análisis más detallado de los modelos que se estudian aquí puede encontrarse en Bishop, Fienberg y Holland (1975),
o Haberman (1978, 1979). Especialmente recomendables son, por su claridad, los trabajos de Wickens (1989), Agresti
(1990) y Powers y Xie (2000). En castellano, puede consultarse el trabajo de Ato y López (1996).
116 Capítulo 3

Formulación del modelo

Modelo de independencia

De acuerdo con el teorema del producto, dos sucesos son independientes si la probabilidad
de su intersección es igual al producto de sus probabilidades individuales; es decir, dos suce-
sos A y B son independientes si: . Aplicando la lógica de este teorema a
los sucesos fila y columna de una tabla de contingencias bidimensional, se considera que el
su ceso fila (i) es independiente del suceso columna (j) cuando la probabilidad de la intersec-
ción de ambos sucesos es igual al producto de sus probabilidades individuales:
,

es decir, cuando:

(para todo i y j) ,

lo cual significa que la probabilidad de encontrar una observación en una casilla cualquiera
es igual al producto de las probabilidades marginales de esa casilla. Aplicado esta idea a las
frecuencias de la Tabla 3.2 (ver más abajo), podría decirse que, si se asume que las variables
sexo y tabaquismo son independientes, la probabilidad del suceso varón-fumador es igual a
la probabilidad del suceso varón por la probabilidad del suceso fumador: (100/150) (60/100)
= 0,27.
Haciendo mij = nπij (es decir, hablando en términos de frecuencias en lugar de hacerlo en
términos de probabilidades), la frecuencia esperada (mij) de una casilla cualquiera (suponien-
do independencia entre las filas y las columnas) puede obtenerse de la siguiente manera:
(para todo i y j)

Esta forma particular de interpretar los datos de una tabla de contingencias bidimensional con-
siste simplemente en hipotetizar que la frecuencia esperada (mij) de una casilla cualquiera es
función directa de sus probabilidades marginales.
Expresando esta ecuación en escala logarítmica (simplemente por la comodidad de traba-
jar con un modelo aditivo en lugar de hacerlo con un modelo multiplicativo) se obtiene:
loge (mij) = loge (n) + loge (πi+) + loge (π+j)
Por tanto, si dos variables son independientes (es decir, si las filas y las columnas de una tabla
de contingencias bidimensional son independientes), el logaritmo de la frecuencia esperada
de una casilla cualquiera ij es función del efecto de la i-ésima fila y del efecto de la j-ésima
columna. Birch (1963) ha demostrado que, simplemente cambiando la terminología, es posi-
ble obtener una formulación alternativa similar a la utilizada en los modelos de ANOVA*:
loge (mij) = λ + λx(i) + λy(j)

*
Basta con sustituir en esta ecuación los valores propuestos más abajo para λ, λx(i) y λy(j). Ver, por ejemplo, Pardo y San
Martín, 1994, pág. 557.
Análisis loglineal (I): Selección de modelo 117

Esta ecuación se conoce con el nombre de modelo loglineal de independencia. Y, de modo


similar a como ocurre en los modelos de ANOVA, el término constante λ puede interpretarse
como un promedio global; y los términos λx(i) y λy(j) como desviaciones de ese promedio glo-
bal:

, ,

Modelo de dependencia

También es posible formular un modelo loglineal para la dependencia. Para ello basta con in-
troducir un término adicional referido a la interacción entre las variables X e Y. Haciendo (de
modo similar a como se hace con la interacción en un modelo de ANOVA):

las frecuencias esperadas de una tabla de contingencias bidimensional pueden expresarse


mediante la ecuación:

loge (mij) = λ + λx(i) + λy(j) + λxy(ij) ,

la cual se conoce como modelo loglineal de dependencia para una tabla de contingencias bi-
dimensional. Y dado el parecido de este modelo con el modelo de ANOVA de dos factores,
es habitual utilizar una terminología similar a la del ANOVA para definir cada uno de sus
componentes. Así, λ representa a la media total del logaritmo de las frecuencias esperadas;
λx(i) al efecto principal de la i-ésima categoría de la variable X (o efecto de la i-ésima fila); λy(j)
al efecto principal de la j-ésima categoría de la variable Y (o efecto de la j-ésima columna);
y λxy(ij) al efecto de la interacción, es decir, a la combinación entre la i-ésima categoría de la
variable X y la j-ésima categoría de la variable Y (o combinación entre la i-ésima fila y la j-
ésima columna).

Parámetros independientes o no redundantes

A partir de las definiciones propuestas en el apartado anterior es fácil deducir que los efectos
principales (al igual que ocurre en los modelos de ANOVA) se conciben como desviaciones
de los promedios de las filas y de las columnas respecto del promedio total. En consecuencia,

lo cual implica que, en un modelo loglineal, existen I–1 parámetros λx(i) independientes para
el efecto de las filas y J–1 parámetros λy(j) independientes para el efecto de las columnas.
118 Capítulo 3

Del mismo modo (también a partir de las definiciones propuestas en el apartado anterior),
el efecto de la interacción debe interpretarse como la desviación de la media de cada casilla
respecto de sus correspondientes medias marginales. En consecuencia,

lo cual implica que existen (I–1)(J–1) parámetros de interacción λxy(ij) linealmente indepen-
dientes.
El número máximo de parámetros independientes en un modelo loglineal es el número
de casillas de que consta la tabla de datos (I×J). Cuando se alcanza este máximo se habla de
modelo saturado. En tales casos, las frecuencias esperadas coinciden exactamente con las
observadas y, consecuentemente, el modelo se ajusta perfectamente a los datos. Al modelo
saturado, es decir, al modelo que incluye todos los parámetros independientes, suele llamár-
sele también modelo loglineal general.
Pero el modelo saturado no sólo no es el único disponible para una tabla dada, sino que,
dado que incluye todos los términos posibles, tampoco es el más interesante. La Tabla 3.1
muestra algunos modelos loglineales para una tabla de contingencias bidimensional.

Tabla 3.1. Algunos modelos loglineales para tablas de contingencias bidimensionales

1. loge(mij) = λ
2. loge(mij) = λ + λx(i)
3. loge(mij) = λ + λx(i) + λy(j)
4. loge(mij) = λ + λx(i) + λy(j) + λxy(ij)

El modelo 1 representa una situación de ausencia de efectos; postula que todas las frecuencias
esperadas son iguales: sólo existe un parámetro independiente: λ.
El modelo 2 postula que el único efecto presente es el de las filas (λx(i)). Este modelo su-
pone que sólo existe variabilidad entre las filas y que, por tanto, todas las categorías de la va-
riable columna son igualmente probables. El número de parámetros independientes aquí es
1+(I–1), es decir, λ y tantos λx(i) como número de filas menos una.
El modelo 3 incluye, además del efecto de las filas, el efecto de las columnas (λy(j)). Los
parámetros independientes ahora son I–1 para las filas y J–1 para las columnas, por lo que el
número total de parámetros independientes en este modelo es: 1+(I–1)+(J–1). Estos tres pri-
meros modelos son modelos de independencia*: ninguno de ellos incluye un parámetro referi-
do a la interacción filas-columnas.
El modelo 4 es el modelo saturado. Incluye todos los efectos posibles: el efecto de las
filas, el de las columnas y el de la interacción filas-columnas. Este modelo contiene 1+ (I–1)

*
El tercero de ellos es el modelo de independencia completa. Los dos primeros son llamados no comprensivos por Bishop,
Fienberg y Holland (1975) pues no incluyen términos referidos todas las variables presentes en la tabla. Lo cierto es que
los modelos no comprensivos carecen de significado, a no ser que uno de ellos demuestre ser el que mejor se ajusta a los
datos, en cuyo caso debería pensarse que alguna de las variables es redundante y, en consecuencia, las dimensiones de la
tabla deberían reducirse.
Análisis loglineal (I): Selección de modelo 119

+(J–1)+(I–1)(J–1) = IJ parámetros independientes, es decir, tantos como el número de casillas


de que consta la tabla. En una tabla de contingencias bidimensional, el modelo saturado es
el único modelo de dependencia.
Para entender mejor el significado de cada término de un modelo loglineal consideremos
los datos de la Tabla 3.2. Se refieren a una muestra de 150 sujetos clasificados atendiendo a
dos criterios: sexo y tabaquismo. La tabla ofrece las frecuencias observadas y sus logaritmos
naturales.

Tabla 3.2. Tabla de contingencias de sexo por tabaquismo (logaritmos entre paréntesis)

Tabaquismo

Sexo Fumadores No fumadores Exfumadores Totales

Varones 30 (3,4012) 50 (3,9120) 20 (2,9957) 100

Mujeres 30 (3,4012) 10 (2,3026) 10 (2,3026) 50

Totales 60 60 30 150

De acuerdo con lo dicho hasta aquí, el logaritmo de cada frecuencia esperada puede expresar-
se como una combinación lineal de la variable sexo, la variable tabaquismo y la interacción
entre sexo y tabaquismo. Por ejemplo, el modelo loglineal de dependencia para la primera ca-
silla de la tabla (es decir, para la casilla varones-fumadores) tiene la forma:

loge(m11) = λ + λsexo(varones) + λtabaco(fumadores) + λsexo*tabaco(varones*fumadores)

A partir de las definiciones propuestas para cada parámetro y sustituyendo cada frecuencia
esperada por su correspondiente observada (ver, más adelante, el apartado sobre Estimación
de las frecuencias esperadas), se obtiene:

λ = (3,4012 + 3,9120 + 2,9957 + 3,4012 + 2,3026 + 2,3026) / 6 = 3,0526


λsexo(varones) = (3,4012 + 3,9120 + 2,9957) / 3 – 3,026 = 3,4363 – 3,0526 = 0,3837
λtabaco(fumadores) = (3,4012 + 3,4012) / 2 – 3,0526 = 3,4012 – 3,053 = 0,3486
λsexo*tabaco(varones*fumadores) = 3,4012 – 3,4363 – 3,4012 + 3,0526 = –0,3837

En consecuencia, el modelo loglineal de dependencia aplicado a la primera casilla de la Tabla


3.2 (a la casilla varones-fumadores) ofrece el siguiente resultado:

loge(m11) = 3,0526 + 0,3837 + 0,3486 – 0,3837 = 3,4012,

el cual coincide exactamente con el valor del logaritmo natural de la primera casilla de la ta-
bla: loge(n11) = loge(30) = 3,4012.
Este resultado pone en la pista de algo que verá enseguida: el modelo loglineal que inclu-
ye todos los términos posibles (en el ejemplo, los términos sexo, tabaquismo y sexo* taba-
quismo), que ya se ha mencionado que recibe el nombre de modelo saturado, ofrece pronós-
ticos que coinciden exactamente con las frecuencias observadas de la tabla.
120 Capítulo 3

Tablas multidimensionales

Todo lo dicho hasta aquí para tablas bidimensionales es fácilmente generalizable a tablas de
contingencias de más de dos dimensiones. En tablas de contingencias tridimensionales, por
ejemplo, el modelo saturado es:
loge(mijk)= λ + λx(i) + λy(j) + λz(k) + λxy(ij) + λxz(ik) + λyz(jk) + λxyz(ijk)
(i = 1, 2, ..., I; j = 1, 2, ... J; k = 1, 2, ..., K). El modelo saturado incluye todos los parámetros
posibles: los referidos a los efectos principales de cada variable individualmente considerada,
los referidos a las interacciones de primer orden entre cada par de variables, y los referidos
a la interacción de segundo orden entre las tres variables de la tabla.
Y al igual que ocurre en los modelos para tablas bidimensionales, en los modelos para
tablas tridimensionales se verifica:

A partir de estas restricciones es fácil deducir que el número de parámetros independientes


del modelo saturado correspondiente a una tabla de contingencias tridimensional es IJK (es
decir, el número de casillas de la tabla).
La Tabla 3.3 recoge esos parámetros desglosados para cada efecto. Igualando a cero algu-
nos de los términos del modelo saturado pueden obtenerse el resto de modelos loglineales dis-
ponibles para una tabla de contingencias tridimensional. Aunque, según se verá enseguida,
no todos los posibles modelos poseen la misma utilidad.

Tabla 3.3. Parámetros independientes asociados


a cada efecto en el modelo saturado

λ : 1
λx(i) : (I–1)
λy(j) : (J–1)
λz(k) : (K–1)
λxy(ij) : (I–1) (J–1)
λxz(ik) : (I–1) (K–1)
λyz(jk) : (J–1) (K–1)
λxyz(ijk) : (I–1) (J–1) (K–1)
Total = IJK

Principio de jerarquía

Los posibles modelos loglineales para una tabla de contingencias se multiplican considera-
blemente conforme van aumentando las dimensiones de la misma. Sin embargo, no todos los
modelos que es posible definir en una situación concreta resultan igualmente útiles.
Análisis loglineal (I): Selección de modelo 121

Los modelos más frecuentemente utilizados son los modelos jerárquicos, que son mode-
los en los que siempre que está presente un término de orden superior también lo están todos
los términos de orden inferior que forman parte de él. Así, por ejemplo, si el término λxy(ij)
está presente en el modelo, también deben estarlo los dos términos contenidos en él, a saber:
λx(i) y λy(j). Por ejemplo, el modelo:

loge(mij) = λ + λx(i) + λxy(ij)

no es un modelo jerárquico porque, estando presente el efecto de la interacción filas-colum-


nas, λxy(ij), no lo está el efecto de las columnas λy(j). Un modelo jerárquico no permite interac-
ciones entre dos variables si no está presente el efecto de cada variable por separado.
El principio de jerarquía permite identificar de forma abreviada cada uno de los posibles
modelos de una tabla de contingencias dada. Así, en una tabla bidimensional, el modelo satu-
rado puede identificarse mediante el símbolo o abreviatura [XY], lo cual significa que en ese
modelo está presente la interacción XY (filas-columnas) y, consecuentemente, de acuerdo con
el principio de jerarquía, todos los elementos que incluye esa interacción, es decir, X e Y.
La Tabla 3.4 muestra algunos de estos modelos acompañados del símbolo o abreviatura
que les corresponde. Para identificar cada uno de los elementos del símbolo de un modelo se
utilizará el nombre de la configuración. Así, por ejemplo, el símbolo del modelo 3 de la Tabla
3.4 viene definido por dos configuraciones: XY y XZ.

Tabla 3.4. Algunos modelos loglineales jerárquicos (tablas tridimensionales)


Modelo Símbolo
1. loge(mijk) = λ + λx(i) + λy(j) + λz(k) [X, Y, Z]
2. loge(mijk) = λ + λx(i) + λy(j) + λz(k) + λxy(ij) [XY, Z]
3. loge(mijk) = λ + λx(i) + λy(j) + λz(k) + λxy(ij) + λxz(ik) [XY, XZ]
4. loge(mijk) = λ + λx(i) + λy(j) + λz(k) + λxy(ij) + λxz(ik) + λyz(jk) [XY, XZ, YZ]
5. loge(mijk) = λ + λx(i) + λy(j) + λz(k) + λxy(ij) + λxz(ik) + λyz(jk) + λxyz(ijk) [XYZ]

El modelo [X, Y, Z] es el modelo de independencia completa. Únicamente incluye los efectos


principales de cada una de las tres variables que conforman la tabla, lo cual significa, si se
ajusta bien a los datos, que las diferencias entre las frecuencias de las casillas sólo reflejan
diferencias en los totales marginales de cada variable individualmente considerada. El número
de parámetros independientes de este modelo es: 1+(I–1)+(J–1)+(K–1) = I+J+K–2.
El modelo [XY, Z] (o, similarmente, [XZ, Y] o [YZ, X]) es un modelo de asociación par-
cial. La presencia del término λxy(ij) y la ausencia de los términos λxz(ik) y λyz(jk) está indicando
que las variables X e Y son condicionalmente dependientes, dada Z (es decir, X e Y están aso-
ciadas cualquiera que sea el nivel de Z que se considere). El número de parámetros indepen-
dientes de este modelo es: 1+ (I–1)+(J–1)+(K–1)+(I–1)(J–1) = IJ+K–1.
El modelo [XY, XZ] (o, similarmente, [XY, YZ] o [XZ, YZ]) es un modelo de indepen-
dencia condicional. La ausencia del término λyz(jk) está indicando que las variables Y y Z (las
únicas que no aparecen juntas en ningún término del modelo) son condicionalmente indepen-
dientes, dada X. Los parámetros independientes de este modelo son: 1+(I–1)+(J–1)+(K–1)+
(I–1)(J–1)+(I–1)(K–1) = IJ+IK–I.
122 Capítulo 3

El modelo [XY, XZ, YZ] postula que todas las variables están asociadas al resto de varia-
bles que componen la tabla. Es un modelo de asociación homogénea. El único término ausen-
te es el que se refiere a la interacción de segundo orden: λxyz(ijk) = 0, para todo i, j y k. La aso-
ciación homogénea significa que la relación entre cada par de variables es la misma para cada
nivel de la tercera (es decir, es la misma, independientemente de cuál sea el nivel que se con-
sidere de la tercera variable). Los parámetros independientes ahora son: 1+(I–1)+(J–1)+
(K–1)+(I–1)(J–1)+(I–1)(K–1)+(J–1)(K–1) = IJ+IK+JK–I–J–K+1.
Por último, el modelo [XYZ] es el modelo saturado. En él están presentes todos los tér-
minos posibles, por lo que su número de parámetros independientes coincide con el número
de casillas de la tabla: IJK (ver Tabla 3.3). En este modelo se afirma que las tres variables es-
tán relacionadas, lo que significa que la asociación parcial entre cada par de variables depende
de qué niveles de la tercera variable se consideren.
Estas consideraciones sobre los modelos loglineales para tablas de contingencias tridi-
mensionales son generalizables a tablas de cualquier número de dimensiones. Para una tabla
dada, siempre existe un modelo saturado y un conjunto de modelos jerárquicos no saturados
o restringidos que se obtienen igualando a cero algunos de los términos del modelo saturado.

Estimación de las frecuencias esperadas

Una vez formulado el modelo que previsiblemente servirá para explicar la variación observa-
da en los datos, es necesario obtener las frecuencias esperadas que se derivan del mismo para,
más tarde, poder comprobar el grado de ajuste del modelo mediante la comparación entre las
frecuencias esperadas y las observadas.
En tablas bidimensionales, la estimación de las frecuencias esperadas no es una tarea
complicada. En el modelo de independencia [X, Y], las frecuencias esperadas {mij} se obtie-
nen, según se ha señalado ya, por medio de: mij = n πi+π+j. En consecuencia, las correspon-
dientes estimaciones serán .
En el modelo saturado [XY], las frecuencias esperadas coinciden con las observadas, es
decir: . Sea cual sea el número de dimensiones de una tabla de contingencias, las fre-
cuencias esperadas derivadas del modelo saturado siempre coinciden con las frecuencias ob-
servadas.
En tablas de contingencias de más dimensiones es posible obtener estimaciones de las
frecuencias esperadas por el procedimiento de máxima verosimilitud a través de ciertos esta-
dísticos mínimo-suficientes (Goodman, 1970; Bishop, Fienberg y Holland, 1975). Un grupo
de estadísticos es suficiente si permite reducir los datos de la tabla original y todavía es posi-
ble, con los datos resultantes, obtener la información necesaria para efectuar las estimaciones.
Los estadísticos mínimo-suficientes consiguen que esa reducción de datos sea máxima: permi-
ten ignorar aquella parte de la tabla que contiene información irrelevante para la estimación.
En un modelo loglineal concreto, estos estadísticos mínimo-suficientes son las distribu-
ciones marginales correspondientes a cada una de las configuraciones presentes en el símbolo
del modelo. Para identificar esas distribuciones marginales:
1. Seleccionar los totales marginales correspondientes a los términos λ de mayor orden in-
cluídos en el modelo (mayor orden = mayor número de variables; por ejemplo, en una
tabla tridimensional el término λ de mayor orden del modelo saturado es λxyz(ijk)).
Análisis loglineal (I): Selección de modelo 123

2. Repetir el paso 1 para los términos λ de siguiente orden.


3. Eliminar cualquier total marginal redundante (si se conoce el total nij+ para todos los valo-
res de i y j, no es necesario conocer, por ejemplo, el total ni++, pues éste puede obtenerse
sumando los j totales nij+ correspondientes a cada nivel de la variable Y).
4. Repetir los 3 pasos anteriores hasta haber tenido en cuenta todos los términos λ.

Veamos cómo identificar los estadísticos-mínimo suficientes con un modelo que permita ilus-
trar la aplicación de estos cuatro pasos:

loge(mijkl) = λ + λx(i) + λy(j) + λz(k) + λw(l) + λxy(ij) + λxz(ik) + λyz(jk) + λyw(jl) + λzw(kl )+ λxyz(ijk)

Aplicando el paso 1 se obtiene nijk+, que corresponde al término de mayor orden presente en
el modelo (λxyz(ijk)). El paso 2 nos lleva a seleccionar los totales de siguiente orden nij++, ni+k+,
n+jk+, n+j+l y n++kl. Siguiendo con el paso 3 se deben eliminar los totales nij++, ni+k+ y n+jk+, pues
la información que proporcionan puede obtenerse a partir de nijk+. Sólo quedan, por tanto, los
totales nijk+, n+j+l y n++kl. Estos son los estadísticos mínimo-suficientes, pues repitiendo los
pasos 1 a 3 ya sólo se obtienen totales marginales redundantes, a saber: ni+++, n+j++ y n++k+ (los
cuales están contenidos en nijk+) y n+++l (que está contenido, por ejemplo, en n+j+l).
Una vez obtenidos los estadísticos mínimo-suficientes correspondientes a un modelo
dado, ya es posible utilizar el método de máxima verosimilitud para efectuar estimaciones.
Bajo el esquema de muestreo multinomial o de Poisson un grupo de estimaciones son
máximo-verosímiles si, y sólo si:
1. Las configuraciones mínimo-suficientes de las frecuencias esperadas son iguales a
las correspondientes configuraciones de las frecuencias observadas .
2. Las estimaciones de las frecuencias esperadas satisfacen las restricciones del modelo
(ver, por ejemplo, Birch, 1963).

Así, por ejemplo, en el modelo de independencia completa [X, Y, Z], puesto que los únicos
términos λ presentes son los relacionados con los efectos principales de cada una de las varia-
bles (λx(i), λy(j) y λz(k)), los estadísticos mínimo-suficientes serán ni++, n+j+ y n++k. Y, dado que
en las estimaciones de máxima verosimilitud se debe verificar que las configuraciones míni-
mo-suficientes de las frecuencias esperadas sean iguales a las de las frecuencias observa-
das {n}, debe hacerse: m $ i ++ = ni ++ , m$ + j + = n + j + y m$ ++ k = n ++ k . Consecuentemente, las
estimaciones de máxima verosimilitud para cada una de las frecuencias esperadas vendrá dada
por:

Del mismo modo, en un modelo de asociación parcial, [XY, Z] por ejemplo, puesto que los
términos presentes son λx(i), λy(j), λz(k) y λxy(ij), los estadísticos mínimo-suficientes serán nij+ y
n++k. Y las estimaciones de máxima verosimilitud vendrán dadas por:
124 Capítulo 3

Los términos del modelo [XY, XZ] son λx(i), λy(j), λz(k), λxy(ij) y λxz(ik). Por tanto, los estadísticos
mínimo-suficientes serán nij+ y ni+k,. Y las estimaciones de máxima verosimilitud de las fre-
cuencias esperadas se obtendrán a partir de:

Existen, no obstante, modelos loglineales en los que, aunque las frecuencias esperadas siguen
siendo función de los estadísticos mínimo-suficientes del modelo, no es posible estimarlas de
forma directa a partir de los totales marginales de la tabla de frecuencias observadas. Esto es
debido a que la función de verosimilitud de esos modelos no posee solución única (ver Bis-
hop, Fienberg y Holland, 1975, págs. 73-83). Tal es el caso, por ejemplo, del modelo [XY,
XZ, YZ]. Cuando se da esta circunstancia, las frecuencias esperadas pueden obtenerse me-
diante métodos de ajuste iterativo. El procedimiento Selección de modelo utiliza una versión
del método de ajuste proporcional iterativo originalmente propuesto por Deming y Stephan
(1940; ver Pardo 2002, págs. 88-89); el procedimiento General utiliza el algoritmo de Newton-
Raphson (ver Haberman, 1974, 1978, 1979). Estos métodos iterativos permiten estimar fre-
cuencias esperadas cualquiera que sea el modelo loglineal y cualquiera que sea el número de
dimensiones de la tabla de contingencias. Puede demostrarse que las estimaciones así obteni-
das coinciden con las estimaciones obtenidas directamente a partir de los totales marginales
fijos utilizados como estadísticos mínimo-suficientes (ver Bishop, Fienberg y Holland, 1975,
págs. 85-87).

Evaluación del ajuste del modelo


Tras formular el modelo y obtener las frecuencias esperadas que se derivan del mismo, es
necesario comprobar si tal modelo es o no válido para dar cuenta los datos observados. Para
ello se utiliza un procedimiento estándar consistente en determinar el grado en el que las fre-
cuencias observadas de la tabla se ajustan (se parecen) a las frecuencias esperadas que se de-
rivan del modelo propuesto.
Para comprobar la bondad del ajuste de un modelo loglineal se dispone de dos estadísti-
cos diferentes*:

El primero es el estadístico X 2 de Pearson (1911; Fisher, 1922). Al estadístico G 2 (también


conocido como L2) se le suele llamar razón de verosimilitudes (Fisher, 1924; Neyman y Pear-
son, 1928; Wilks, 1935; ver Rao, 1973). Ambos estadísticos son asintóticamente equivalentes,
es decir, tienden a ofrecer el mismo resultado a medida que el tamaño de la muestra va au-
mentando.

*
El subíndice h se refiere a todos los subíndices necesarios para identificar una casilla cualquiera. Así, en una tabla bidi-
mensional, h = ij; en una tabla tridimensional, h = ijk; etc.
Análisis loglineal (I): Selección de modelo 125

Bajo la hipótesis nula de que el modelo propuesto es verdadero (es el adecuado, se ajus-
ta), ambos estadísticos se aproximan a la distribución de probabilidad χ2 con gl grados de li-
bertad, siendo gl el resultado de restar al número total de casillas de la tabla el número de pa-
rámetros independientes del modelo propuesto. Las probabilidades asociadas a cada valor de
X 2 o G 2 pueden obtenerse en la tabla de χ2 con los grados de libertad correspondientes al mo-
delo propuesto. Si el valor de X 2 o G 2 es mayor que el percentil 100(1–α) de la distribución
χ2, se rechazará la hipótesis de que el modelo se ajusta bien a los datos y se concluirá que tal
modelo no sirve para dar cuenta de las pautas de asociación presentes en la tabla. En caso
contrario, se podrá concluir que el modelo propuesto se ajusta bien a los datos y que, conse-
cuentemente, sirve para explicar la variabilidad observada en los mismos.
En general, la utilización del estadístico G 2 es preferible a la del estadístico X 2 pues, co-
mo se verá más adelante, G 2 posee una importante propiedad de descomposición que resulta
de especial utilidad a la hora de comparar diferentes modelos loglineales rivales (y, por tanto,
de especial utilidad para elegir el mejor modelo entre varios posibles).
La Tabla 3.5 ofrece un resumen de los grados de libertad que corresponden a cada uno
de los modelos que es posible formular con tablas de contingencias de dos y tres dimensiones,
así como el número de parámetros independientes asociados a cada modelo.

Tabla 3.5. Número de parámetros independientes y grados de libertad correspondientes a los distintos
modelos loglineales estudiados para tablas de contingencias de dos (parte superior de la tabla) y tres (parte
inferior de la tabla) dimensiones

Modelo Parámetros independientes Grados de libertad


[X, Y] I+J–1 (I–1)(J–1)
[XY] IJ 0

[X,Y ,Z] I+J+K–2 IJK–I–J–K+2


[XY, Z] IJ+K–1 (IJ–1)(K–1)
[XZ, Y] IK+J–1 (IK–1)(J–1)
[YZ, X] JK+I–1 (JK–1)(I–1)
[XY, XZ] IJ+IK–I I(J–1)(K–1)
[XY, YZ] IJ+JK–J J(I–1)(K–1)
[XZ, YZ] IK+JK–K K(I–1)(J–1)
[XY, XZ, YZ] IJ+IK+JK–I–J–K+1 (I–1)(J–1)(K–1)
[XYZ] IJK 0

Selección del mejor modelo


Ya se ha estudiado cómo se formula un modelo loglineal, cómo se estiman las frecuencias es-
peradas que se derivan de él, cómo se efectúa su ajuste y cómo se estiman sus parámetros. Pe-
ro la selección de un modelo loglineal concreto se va haciendo más complicada a medida que
aumenta el número de variables. En tablas de contingencias de tres dimensiones o más, el nú-
mero de modelos es tan grande que no resulta nada fácil seleccionar el modelo más apropiado.
En estos casos es útil disponer de algún criterio o estrategia que ayude a efectuar la selección.
126 Capítulo 3

El objetivo de esa selección ha de ser el de encontrar un modelo que guarde equilibrio entre
dos criterios:
1. Que sea lo bastante complejo como para ofrecer un buen ajuste a los datos.
2. Que sea lo bastante simple como para posibilitar una interpretación correcta.
Diferentes estrategias ayudan conseguir este objetivo. En este apartado se estudian tres: los
parámetros estandarizados, la partición de la razón de verosimilitudes G 2 y los residuos tipifi-
cados.

Parámetros estandarizados

Cada término del modelo loglineal general puede expresarse como una combinación lineal
de los logaritmos de las frecuencias esperadas en la que los pesos o coeficientes de la com-
binación suman cero*:

bajo la restricción:

(h se refiere a cualquier subíndice o combinación de subíndices). Las estimaciones de máxima


verosimilitud de los términos de un contraste de este tipo pueden obtenerse simplemente sus-
tituyendo loge(mh) por sus correspondientes estimadores. Con muestras grandes, estos esti-
madores se distribuyen normalmente, con media igual al propio parámetro y varianza (ver
Goodman, 1970):

Según esto, a cada parámetro λh de un modelo loglineal dado le corresponde al menos un va-
lor estandarizado Zh resultado de dividir la estimación obtenida para el mismo por su error
típico estimado:

Bajo la hipótesis de que un determinado efecto es nulo (λh = 0), los valores Zh serán tanto ma-
yores cuanto más relevante para explicar los datos sea el efecto λh. En consecuencia, puede
comenzarse ajustando el modelo saturado y observando el tamaño de los valores estandariza-
dos correspondientes a cada parámetro. Los parámetros cuyo valor estandarizado absoluto sea

*
Estas combinaciones lineales son habitualmente llamadas contrastes o comparaciones lineales Ver, en Pardo y San
Martín, 1998, capítulo 6, el apartado dedicado a las comparaciones lineales.
Análisis loglineal (I): Selección de modelo 127

mayor que, por ejemplo, 1,96 (punto crítico que corresponde a un nivel de significación
α = 0,05), deberán estar presentes en el modelo para que éste se ajuste bien a los datos. Los
parámetros cuyo valor estandarizado absoluto sea pequeño corresponderán a categorías irrele-
vantes para dar cuenta de los datos.
Los parámetros estandarizados, por tanto, proporcionan información sobre qué términos
del modelo saturado pueden ser excluidos y, en consecuencia, cuál de los modelos no satura-
dos podría merecer consideración. No obstante, debe tenerse en cuenta que esta información
es únicamente orientativa, pues la configuración concreta de un modelo (los términos que
incluye) afecta al valor que adoptan los parámetros asociados a cada término.

Partición de la razón de verosimilitudes G 2

Suele ocurrir que, en una situación concreta, son varios los modelos loglineales capaces de
ofrecer un buen ajuste a los datos disponibles. Esto significa que el estadístico G 2 puede re-
sultar no significativo con más de un modelo concreto. En estos casos, generalmente, la elec-
ción debe inclinarse por el modelo que contenga menor número de términos.
En ocasiones, sin embargo, puede interesar contrastar modelos rivales para averiguar cuál
de todos ellos ofrece un mejor ajuste. Fienberg (1970b) y Goodman (1971; puede consultarse
también Bonett y Bentler, 1983) han demostrado que es posible comparar dos modelos rivales
restando sus respectivos valores G 2 y comprobando si la diferencia resultante es significativa.
El único requisito necesario para poder efectuar esta comparación entre dos modelos es que
todos los términos de uno de ellos estén incluidos en el otro; es decir, que uno de los modelos
sea un subconjunto del otro. Consideremos los siguientes cinco modelos jerárquicos corres-
pondientes a una tabla de contingencias tridimensional:
a) [X, Y,Z]
b) [XY, Z]
c) [XY, XZ]
d) [XY, XZ, YZ]
e) [XYZ]

Estos 5 modelos están dispuestos de tal forma que cada uno de ellos incluye todos los térmi-
nos de los modelos anteriores a él (ver Tabla 3.4). Bajo estas circunstancias, la razón de vero-
similitudes G 2 posee dos importantes propiedades que no necesariamente se verifican con el
estadístico X 2 de Pearson:

1.

2.

En la primera propiedad puede apreciarse que el valor de G 2 va disminuyendo a medida que


los términos del modelo van aumentando (el límite de esta disminución se encuentra en el mo-
delo saturado, en el que el número de términos es el máximo posible y G 2 = 0). De la segunda
propiedad puede deducirse que esta disminución en G 2 es resultado directo de los nuevos tér-
minos que va incorporando cada modelo.
128 Capítulo 3

Consideremos, por ejemplo, los modelos c y d, y supongamos que los estadísticos G 2 ob-
tenidos al ajustar cada uno de ellos han sido y , respectivamente. Dado que el segundo
de los modelos contiene todos los términos del primero, se puede calcular:

y contrastar la hipótesis de que el término en el que ambos modelos difieren (es decir, λyz(jk))
vale cero. Con los grados de libertad resultantes de restar los de un modelo y otro puede ave-
riguarse si el valor obtenido para es significativo con un nivel de significación de, por
ejemplo, 0,05. Si lo es, podrá concluirse que el cambio en el ajuste que ofrece el modelo d es
significativo y, en consecuencia, que el término extra λyz(jk) incluido en él permite obtener una
mejora significativa del ajuste.

Análisis de los residuos

Generalmente, una vez seleccionado un modelo provisional, resulta de gran utilidad efectuar
una comparación celda a celda entre las frecuencias esperadas y las observadas. Las diferen-
cias resultantes de esa comparación se llaman residuos o errores y se definen de la siguiente
manera: .
El ajuste suele resultar mejor en unas celdas que en otras y la constatación de este hecho
puede arrojar luz sobre las pautas de asociación presentes en la tabla. El sentido (positivo o
negativo) de los residuos grandes puede estar indicando la presencia de tendencias no bien
representadas por el modelo. Una sencilla forma de evaluar estos residuos consiste en obtener
su valor estandarizado:

Elevados al cuadrado, los residuos tipificados poseen la propiedad de ser componentes del
estadístico X 2 de Pearson (de ahí que también reciban el nombre de residuos de Pearson):

(si no existen casillas con ceros estructurales). Bajo la hipótesis nula de que un modelo dado
se ajusta a los datos, los residuos tipificados Eh se distribuyen normalmente con:

Esto representa un pequeño inconveniente pues, dado que gl < nº casillas, la varianza de los
residuos siempre será menor que 1 y, en consecuencia, la variabilidad de los Eh no se corres-
ponderá exactamente con la de las variables distribuidas N(0, 1).
No obstante, puesto que se distribuye según χ2 con los grados de libertad corres-
pondientes al modelo propuesto, el percentil 95 de esa distribución (es decir, ) dividido
por el número de casillas de la tabla permite obtener un valor indicativo de la parte de
Análisis loglineal (I): Selección de modelo 129

ese que corresponde a cada casilla (particularmente cuando las frecuencias esperadas
son aproximadamente del mismo tamaño). Si el de una casilla dada es mayor que ,
se puede considerar que el residuo correspondiente a esa casilla es lo suficientemente grande
como para impedir el ajuste del modelo.
Pierce y Schafer (1986) y McCullag y Nelder (1989) han definido otro tipo de residuos
a los que han llamado residuos de desvianza (deviance residuals). Se definen como la raíz
cuadrada (con signo) de la contribución individual de cada casilla al estadístico G 2. Pueden
calcularse fácilmente mediante:

(En las casillas con ceros muestrales: ). Estos residuos se distribuyen de forma asin-
tóticamente normal. Y, de modo similar a como ocurre con los residuos Eh respecto del esta-
dístico X 2 de Pearson, los residuos de desvianza poseen la importante propiedad de ser com-
ponentes del estadístico G 2. Así, cuando no existen casillas con ceros estructurales:

Haberman (1973) ha definido otro tipo de residuos tipificados a los que ha llamado ajustados
o corregidos y que, a diferencia de lo que ocurre con los Eh, se distribuyen N(0, 1). Cualquiera
que sea el modelo ajustado, los residuos tipificados corregidos toman la forma:

En tablas bidimensionales, los residuos tipificados corregidos correspondientes al modelo de


independencia completa [X, Y] pueden obtenerse mediante:

El otro modelo de interés en tablas bidimensionales es el modelo de dependencia o saturado


[XY]. Pero en los modelos saturados el análisis de los residuos carece de sentido, pues, sim-
plemente, no existen (recuérdese que las frecuencias esperadas de los modelos saturados coin-
ciden exactamente con las frecuencias observadas, de modo que rij = 0, para todo i y j).
Las ecuaciones que permiten obtener en tablas de tres o más dimensiones varían para
cada modelo loglineal concreto. El lector interesado en conocer estas ecuaciones en los dife-
rentes modelos disponibles para tablas de contingencias tridimensionales puede consultar
Haberman, 1978, pág. 231. Y para un estudio detallado del procedimiento de cálculo de los
residuos tipificados corregidos puede consultarse Haberman (1973; 1978, págs. 272-275).
Tanto los residuos tipificados corregidos como los de desvianza o desviación poseen una
importante utilidad: puesto que se distribuyen normalmente con media 0 y error típico 1, es
decir, N (0, 1), son fácilmente interpretables: con un nivel de confianza de 0,95, los residuos
con valor absoluto mayor que 1,96 delatan casillas con más casos (si el residuo es positivo)
o menos casos (si el residuo es negativo) de los que cabría esperar según las predicciones del
modelo que se está ajustando.
130 Capítulo 3

Casillas vacías
Existen ciertos tipos de tablas de contingencias que, por sus características, requieren un trata-
miento especial. A fin de completar lo visto hasta aquí, vamos a referirnos ahora a un tipo par-
ticular de tablas: las que contienen casillas vacías, es decir, las que poseen alguna casilla con
frecuencia observada cero (nh = 0, para algún h). Generalmente, este tipo de tablas se conocen
en la literatura estadística como tablas incompletas. Al hablar de casillas vacías o casillas con
frecuencia cero debe establecerse una distinción fundamental entre:
1. Situaciones en las que es teóricamente imposible que puedan aparecer frecuencias en una
casilla, en cuyo caso se habla de casillas con ceros estructurales o a priori. Por ejemplo,
en un estudio clínico, la combinación de las variables sexo (hombre-mujer) y embarazo
(sí-no) arrojará una casilla con un cero estructural: hombre-sí.
2. Situaciones en las que alguna frecuencia observada vale cero simplemente porque el ta-
maño de la muestra es demasiado pequeño en relación al número de casillas de la tabla
o en relación a la baja frecuencia con la que aparecen ciertas combinaciones entre varia-
bles, en cuyo caso se habla de casillas con ceros muestrales.
Los ceros muestrales no representan un problema importante. Pueden hacerse desaparecer
simplemente incrementando el tamaño de la muestra utilizada. Incluso, si esto no da resultado
o no resulta fácil, siempre existe la posibilidad, como sugiere Goodman (1971), de añadir una
pequeña constante positiva (0,5, por ejemplo) a la frecuencia de cada casilla para obviar los
problemas computacionales asociados a las casillas vacías (el SPSS, por ejemplo, añade 0,5
puntos a cada casilla antes de estimar los parámetros del modelo saturado).
Los ceros estructurales, por el contrario, requieren un tratamiento especial*. Considere-
mos el caso de una tabla bidimensional I×J y llamemos C al conjunto de casillas no vacías:
C < IJ. El análisis de una tabla bidimensional incompleta se realiza ajustando los mismos mo-
delos loglineales ya descritos para tablas completas. Por ejemplo,

loge(mij) = λ + λx(i) + λy(j) y loge(mij) = λ + λx(i) + λy(j) + λxy(ij)

que son, respectivamente, los modelos loglineales de independencia y de dependencia para


una tabla de contingencias bidimensional. Respecto a los términos incluídos en cada uno de
estos dos modelos se verifica:

donde:

*
Existe abundante bibliografía relacionada con el análisis de tablas incompletas: Goodman (1968), Bishop y Fienberg
(1969), Mantel (1970), Fienberg (1972; 1980, págs. 141-159), Bishop, Fienberg y Holland (1975, págs. 177-210), Haberman
(1979, págs. 444-485), Wickens (1989, págs. 246-267), etc.
Análisis loglineal (I): Selección de modelo 131

Las frecuencias esperadas de estos modelos deben obtenerse utilizando una modificación del
procedimiento de ajuste proporcional iterativo mencionado más arriba en el apartado sobre
Estimación de las frecuencias esperadas. Esta modificación sirve para asegurar que las fre-
cuencias esperadas obtenidas bajo un modelo particular valdrán cero en las casillas que con-
tienen un cero estructural o a priori.
Una vez obtenidas las frecuencias esperadas puede ya evaluarse el ajuste del modelo me-
diante el estadístico usual G 2. Pero hay que tener en cuenta que los grados de libertad de una
tabla de contingencias incompleta no son los mismos que los de su correspondiente tabla com-
pleta. En tablas incompletas los grados de libertad pueden obtenerse de la siguiente manera:
gl = N1 – N2 – N3 ,
donde: N1 = «número de casillas de que consta la tabla», N2 = «número de parámetros indepen-
dientes» y N3 = «número de casillas con ceros estructurales».
La única complicación a la hora de determinar el valor de gl viene de N2. En una tabla in-
completa, el número de parámetros que es necesario estimar (es decir, el número de paráme-
tros independientes) es el mismo que en su correspondiente tabla completa, excepto por lo que
se refiere a los parámetros relacionados con marginales vacíos (si existen), los cuales ya se
sabe, a priori, que valen cero. Por supuesto, todo lo dicho para tablas bidimensionales es ge-
neralizable a tablas de más dimensiones.

El procedimiento Loglineal: Selección de modelo


El procedimiento Loglineal del SPSS incluye tres opciones distintas: General, Logit y Selección
de modelo. La opción Selección de modelo únicamente sirve para ajustar modelos loglineales
jerárquicos; permite elegir entre ajustar un modelo concreto o efectuar un ajuste por pasos (es
la única opción que permite utilizar el ajuste por pasos); pero sólo estima los parámetros del
modelo saturado y no calcula los residuos tipificados corregidos de Haberman ni los residuos
de desvianza. La opción General sirve para ajustar cualquier modelo loglineal (sea o no
jerárquico); a diferencia de lo que ocurre con la opción Selección de modelo, la opción General
permite obtener, entre otras cosas, los residuos tipificados corregidos de Haberman y los de
desvianza, así como las estimaciones de los parámetros de cualquier modelo loglineal (y no
sólo del saturado, como ocurre en la opción Selección de modelo); puesto que la opción General
ajusta modelos no jerárquicos, resulta útil para ajustar modelos que representan hipótesis con-
cretas (simetría completa y relativa, cuasi-independencia, etc.) y para analizar tasas de res-
puesta, tiempos de espera, etc.; lógicamente, al no estar sujeto al principio de jerarquía, no
es posible utilizar el ajuste por pasos. La opción Logit permite ajustar modelos logit, que son
modelos en los que una de las variables categóricas se toma como variable dependiente o res-
puesta; y ofrece información parecida a la que ofrece la opción General.
En este capítulo se explica el procedimiento Loglineal > Selección de modelo. En el siguien-
te capítulo se explica el procedimiento Loglineal > General. Y en un tercer capítulo se explica
el procedimiento Loglineal > Logit.

Para ajustar modelos loglineales jerárquicos:


' Seleccionar la opción Loglineal > Selección de modelo... del menú Analizar para acceder al
cuadro de diálogo Análisis loglineal: Selección de modelo que muestra la Figura 3.1.
132 Capítulo 3

Figura 3.1. Cuadro de diálogo Análisis loglineal: Selección de modelo

La lista de variables del archivo de datos ofrece un listado con todas las variables numéricas
del archivo. El procedimiento Loglineal no admite variables de cadena; por tanto, si se desea
incluir en el análisis una variable de cadena, ésta debe recodificarse asignándole formato nu-
mérico.
Factores. La primera acción que hay que llevar acabo es la de trasladar a esta lista las variables
con las que se va a construir el modelo loglineal que se desea ajustar. En el ejemplo de la Fi-
gura 3.1 se han seleccionado las variables intelig, sexo y automen (el significado de estas va-
riables se explica en los ejemplos que se proponen más adelante).
Definir rango... Tras seleccionar las variables que serán incluidas en el análisis, es necesario
indicar cuáles son los códigos que definen las categorías de cada una de las variables seleccio-
nadas. Para ello:
' Seleccionar, en la lista Factores, la variable cuyas categorías se quiere definir (puede
seleccionarse simultáneamente más de una variable si hay más de una variable con
el mismo número de categorías y con los mismos códigos asignados a las categorías).
' Pulsar el botón Definir rango... para acceder al subcuadro de diálogo Análisis logli-
neal: Definir rango que muestra la Figura 3.2.

Figura 3.2. Subcuadro de diálogo Análisis loglineal: Definir rango


Análisis loglineal (I): Selección de modelo 133

Los códigos Mínimo y Máximo deben ser valores enteros. De todas las categorías de
una variable, el SPSS incluirá en el análisis aquellas que se correspondan con los có-
digos introducidos, más todas las comprendidas entre ellos. Quedan excluidas, por
tanto, las categorías cuyo código sea menor que el valor Mínimo o mayor que el valor
Máximo.

Pesos de casilla. En el caso de que la tabla de contingencias que se va a analizar contenga ce-
ros estructurales (es decir, casillas en las que, por sus características, no es posible que apa-
rezcan frecuencias; ver, más arriba, el apartado Casillas vacías), la variable que contenga la
información sobre las casillas vacías debe trasladarse al cuadro Pesos de casilla (ver Figura
3.1). Generalmente se tratará de una variable cuyos códigos serán unos y ceros: «unos» para
las casillas no vacías y «ceros» para las casillas vacías o con ceros estructurales (para un estu-
dio más detallado de esta problemática, consultar, en el siguiente capítulo, el apartado Estruc-
tura de las casillas).

Ajuste por pasos y ajuste en un único paso


Para ajustar un modelo loglineal a los datos de una tabla de contingencias pueden seguirse dos
caminos alternativos. Por un lado, si interesa contrastar una hipótesis particular, se formulará
el modelo loglineal que exprese las pautas de asociación correspondientes a esa hipótesis y
se seguirán todos los pasos del proceso de ajuste relacionados con el modelo formulado. Por
el contrario, si no se dispone de una hipótesis a priori concreta sobre la relación entre las va-
riables que conforman la tabla, será preferible comenzar con el modelo saturado e ir eliminan-
do uno a uno términos no significativos hasta encontrar el modelo apropiado. Esta última es-
trategia es, quizá, la de uso más generalizado pues permite detectar relaciones que de otro mo-
do podrían pasar desapercibidas.
El recuadro Construcción de modelos (ver Figura 3.1) contiene opciones que permiten ele-
gir entre ajustar un modelo concreto o efectuar un ajuste por pasos:
 Utilizar la eliminación hacia atrás. Esta opción permite efectuar un ajuste por pasos partiendo
del modelo saturado (aunque el modelo del cual se parte puede cambiarse utilizando la
opción Modelo... –ver más adelante). Al efectuar un ajuste por pasos, los términos del mo-
delo de partida se van eliminando uno a uno comenzando por los de mayor orden (los tér-
minos de mayor orden son aquellos que incluyen un mayor número de variables). El pro-
ceso de eliminación continúa mientras quedan términos cuya contribución individual al
ajuste del modelo no resulta significativa; por tanto, el proceso se detiene cuando elimi-
nar cualquiera de los términos que todavía permanecen en el modelo llevaría a una pérdi-
da significativa del ajuste. Como criterio de eliminación se utiliza la estrategia descrita
más arriba en el apartado Partición de la razón de verosimilitudes G 2.
Por supuesto, el proceso de eliminación hacia atrás se basa en el principio de jerar-
quía; en consecuencia, si un término de orden superior no puede ser eliminado del mode-
lo (por ejemplo, λxy(ij)), tampoco serán eliminados los términos de orden inferior conteni-
dos en él (λx(i), y λy(j)).
Nº máximo de pasos. Este cuadro de texto permite introducir un número entero positivo pa-
ra indicar el número máximo de términos del modelo que serán evaluados en el proceso
de eliminación hacia atrás. Aunque esta opción puede tener cierta utilidad cuando lo que
134 Capítulo 3

se pretende es llegar a un modelo con un número mínimo de términos, lo habitual es per-


mitir que todos los términos del modelo de partida puedan ser evaluados.
Probabilidad de salida. En la eliminación hacia atrás, los términos se evalúan utilizando,
por defecto, un nivel de significación de 0,05. Este cuadro de texto permite incrementar
o disminuir ese nivel de significación introduciendo un valor distinto.
 Introducir en un único paso. Esta opción está diseñada para evaluar el ajuste de un modelo
loglineal concreto. Ahora bien, para definir el modelo que se desea ajustar es necesario
utilizar la opción Modelo... que se describe en el siguiente apartado.

Definir un modelo concreto


Si se utiliza la eliminación hacia atrás, el SPSS parte, por defecto, del modelo saturado. Y
si se opta por ajustar un modelo concreto, el SPSS ofrece, por defecto, el ajuste del modelo
saturado. El modelo saturado es, por tanto, el modelo de referencia tanto en la eliminación
hacia atrás como en el ajuste en un único paso. Para utilizar como modelo de referencia un
modelo distinto del saturado es necesario cambiar los valores por defecto de la opción Mode-
lo... Para ello:
' Pulsar el botón Modelo... del cuadro de diálogo Análisis loglineal: Selección de modelo
(ver Figura 3.1) para acceder al subcuadro de diálogo Análisis loglineal: Modelo que
muestra la Figura 3.3.

Figura 3.3. Cuadro de diálogo Análisis loglineal: Modelo

Especificar un modelo. Las opciones de este apartado permiten decidir si se desea ajustar el mo-
delo saturado o un modelo distinto del saturado:
 Saturado. Opción válida para utilizar el modelo saturado como punto de partida en
la eliminación hacia atrás y como modelo de referencia en el ajuste de un modelo
concreto. Es la opción que se encuentra activa por defecto.
 Personalizado. Esta opción permite especificar modelos distintos del saturado. Para
definir un modelo concreto es necesario seleccionar en la lista Factores las variables
Análisis loglineal (I): Selección de modelo 135

que se desea utilizar y trasladarlas a la lista Clase generadora utilizando el botón fle-
cha y las opciones del menú desplegable del recuadro Construir términos. Para definir,
por ejemplo, una interacción entre tres variables:
' Seleccionar esas tres variables en la lista Factores, seleccionar la opción Inte-
racción en el menú desplegable del recuadro Construir términos y pulsar el
botón flecha.
Al construir un modelo personalizado debe tenerse en cuenta el principio de jerarquía. Esto
significa que, en la lista Clase generadora, no hay que incluir los términos de menor orden
incluidos en los términos de mayor orden ya definidos. En el ejemplo de la Figura 3.3 se han
incluido dos términos: el referido a la interacción automen*intelig y el referido a la interac-
ción automen* sexo. De acuerdo con el principio de jerarquía, no es necesario incluir (de he-
cho el SPSS no lo permite) los efectos principales automen, intelig y sexo porque esos efectos
ya están incluidos en las dos interacciones definidas.

Información complementaria
El botón Opciones... (ver Figura 3.1) conduce a un subcuadro de diálogo que permite obtener
información adicional (residuos, gráficos, etc.) y controlar algunos aspectos relacionados con
el proceso de estimación (reglas de parada, etc.). Para obtener esta información adicional:
' Pulsar el botón Opciones... para acceder al subcuadro de diálogo Análisis loglineal: Op-
ciones que muestra la Figura 3.4.

Figura 3.4. Cuadro de diálogo Análisis loglineal: Opciones

Mostrar. Las dos opciones de este recuadro controlan la información que muestra el Visor en
relación con el contenido de cada casilla de la tabla de contingencias. Ambas opciones están
marcadas por defecto:
“ Frecuencias. Frecuencias observadas y esperadas de cada casilla.
“ Residuos. Diferencias entre las frecuencias observada y esperada de cada casilla. El
procedimiento ofrece los residuos en puntuación directa y los tipificados.
136 Capítulo 3

Gráfico. Las opciones de este recuadro (sólo disponibles si se ha definido un modelo persona-
lizado, pues todos los residuos del modelo saturado valen cero) ofrecen algunos gráficos que
ayudan a determinar el grado de ajuste del modelo final:
“ Residuos. Ofrece en un sólo gráfico los tres diagramas de dispersión resultantes de
combinar las frecuencias observadas, las esperadas y los residuos.
“ Probabilidad normal. Permite obtener dos gráficos de probabilidad normal (con y sin
tendencias) para los residuos tipificados.

Mostrar para el modelo saturado. Sólo para el modelo saturado, es posible obtener:
“ Estimaciones de los parámetros. Ofrece las estimaciones de cada parámetro indepen-
diente, acompañadas de sus correspondientes errores típicos y de sus intervalos de
confianza. Puesto que las estimaciones de los parámetros suman cero para cada efec-
to, el SPSS sólo ofrece las estimaciones no redundantes; es decir, sólo ofrece estima-
ciones para los parámetros independientes. El resto de estimaciones, en el caso de
que interesen, deben obtenerse a mano.
“ Tabla de asociación. Ofrece una evaluación previa del grado de significación de cada
uno de los términos del modelo saturado.

Criterios del modelo. Las opciones de este apartado permiten controlar algunos aspectos rela-
cionados con el proceso de estimación:
Nº máximo de iteraciones. El SPSS basa sus estimaciones en un algoritmo de ajuste propor-
cional iterativo. Esta opción ofrece la posibilidad de poner un límite al número de ite-
raciones permitidas en la estimación. El valor por defecto es 20.
Convergencia. El proceso de ajuste proporcional iterativo se detiene cuando la diferencia
entre la estimación de un paso previo y la estimación del paso siguiente es menor que el
valor de convergencia. Este valor es, por defecto, 10-3 veces la frecuencia observada más
grande o 0,25, el valor mayor de ambos. Este valor de convergencia puede cambiarse se-
leccionando cualquiera de las opciones del menú desplegable.
Delta. Para evitar los problemas de cálculo derivados de la presencia de casillas con ceros
muestrales, el SPSS añade una constante (delta) a cada casilla (esta constante sólo se
utiliza con el modelo saturado).
El valor por defecto de esta constante es 0,5, pero puede introducirse cualquier valor
comprendido entre 0 y 1. Si no existen casillas vacías, lo apropiado es situar este valor
en cero.

Ejemplo: Loglineal > Selección de modelo > Eliminación hacia atrás

Este ejemplo ilustra el proceso de evaluación de un modelo loglineal utilizando la estrategia


de ajuste por pasos y los datos de la Tabla 3.6. La tabla contiene las frecuencias obtenidas al
clasificar una muestra de 100 sujetos utilizando tres variables: concepción que se tiene de la
inteligencia (destreza, rasgo), sexo (varones, mujeres) y tipo de automensajes o instrucciones
dirigidas a sí mismo durante la realización de una tarea de rendimiento (automensajes ins-
trumentales, atribucionales y otros).
Análisis loglineal (I): Selección de modelo 137

Tabla 3.6. Frecuencias obtenidas al clasificar una muestra de 100 sujetos según las variables: X = «concep-
ción que se tiene de la inteligencia», Y = «sexo», y Z = «tipo de automensajes utilizados al realizar una tarea
de rendimiento»

(X) (Z) Tipo de automensajes


Concepción Totales Totales
inteligencia (Y) Sexo Instrum. Atribuc. Otros de XY de X
Varones 21 7 4 32
Destreza 41
Mujeres 3 4 2 9
Varones 5 10 3 18
Rasgo 59
Mujeres 6 28 7 41
Totales de Z 35 49 16 100

Según se ha señalado, una forma de comenzar a seleccionar el modelo loglineal que mejor se
ajustará a los datos consiste en proceder por pasos comparando modelos alternativos que di-
fieran en un solo término. En esta estrategia por pasos conviene comenzar con el modelo satu-
rado (del que se sabe que G 2 = 0 pues nijk = ) y continuar eliminando términos uno a uno
hasta encontrar el modelo capaz de ofrecer un buen ajuste con el menor número posible de
términos. Para aplicar esta estrategia por pasos:
' Reproducir en el Editor de datos los datos de la Tabla 3.6 tal como muestra la Figura
3.5 (o descargar el archivo Loglineal de la página web de la asignatura). A las va-
riables de la Tabla 3.6 se les ha asignado, en el Editor de datos, los nombres intelig,
sexo y automen. La variable ncasos recoge las frecuencias de las casillas. Se ha
utilizado la función Ponderar casos del menú Datos para ponderar los casos con la
variable ncasos.

Figura 3.5. Datos de la Tabla 3.6 reproducidos en el Editor de datos

' Seleccionar la opción Loglineal > Selección de modelo... del menú Analizar para acceder
al cuadro de diálogo Análisis loglineal: Selección de modelo (ver Figura 3.1).
' Seleccionar las variables intelig, sexo y automen y trasladarlas a la lista Factores.
138 Capítulo 3

' Manteniendo seleccionadas las variables intelig y sexo en la lista Factores, pulsar el
botón Definir rango... para acceder al subcuadro de diálogo Análisis loglineal: Definir
rango (ver Figura 3.2). Introducir el código 1 en el cuadro de texto Mínimo y el códi-
go 2 en el cuadro de texto Máximo. Pulsar el botón Continuar para volver al cuadro de
diálogo principal.
' Seleccionar la variable automen en la lista Factores y repetir la operación del párrafo
anterior, pero utilizando los códigos 1 y 3 como valores Mínimo y Máximo. Pulsar el
botón Continuar para volver al cuadro de diálogo principal.
' Pulsar el botón Opciones... para acceder al subcuadro de diálogo Análisis loglineal:
Opciones (ver Figura 3.4) y marcar las opciones Estimaciones de los parámetros y Ta-
blas de asociación del recuadro Mostrar para el modelo saturado. En el recuadro Criterios
del modelo, sustituir el valor 0,5 de la opción Delta por el valor 0 (puesto que en el
ejemplo no existen casillas vacías, no es necesario añadir ninguna constante a las fre-
cuencias observadas). Pulsar el botón Continuar para volver al cuadro de diálogo prin-
cipal.
Aceptando estas elecciones, el Visor de resultados ofrece la información que muestran las Ta-
blas 3.7 a 3.17.
La Tabla 3.7 indica, en el primer bloque de información (Casos), que se están utilizando
12 casos no ponderados (Válidos) que, en realidad, son 100 ponderados (Válidos pondera-
dos); no se ha desechado ningún caso por estar fuera del rango de categorías definido (Fuera
de rango = 0), ni existen valores perdidos (Perdidos = 0). El segundo bloque de información
(Categorías) recuerda qué variables se han incluido en el análisis (se muestra el nombre, no
la etiqueta) y el número de categorías de que consta cada una.

Tabla 3.7. Información sobre los datos


N
Casos Válido 12
Fuera del rango 0
Perdido 0
Válido ponderado 100
Categorías intelig 2
sexo 2
automen 3

La Tabla 3.8 indica cuál es el modelo del que parte el análisis (Clase generadora = intelig*se-
xo* automen), que no es otro que el modelo saturado, y algunos detalles relacionados con el
proceso de estimación: el algoritmo de ajuste iterativo ha logrado converger en la primera ite-
ración, la diferencia más grande entre los marginales observados y los estimados vale cero,
y se ha utilizado un criterio de convergencia de 0,25.

Tabla 3.8. Información sobre la convergencia (modelo saturado)


Clase generadora intelig*sexo*automen
Número de iteraciones 1
Diferencia máxima entre observados y marginales ajustados .000
Criterio de convergencia .250
Análisis loglineal (I): Selección de modelo 139

La Tabla 3.9 ofrece las frecuencias observadas y esperadas (en valor absoluto y porcentual),
y los residuos (en puntuaciones directas y tipificados) correspondientes al modelo saturado.
Ya se ha señalado repetidamente que el modelo saturado se ajusta perfectamente a los datos.
Esto significa que las frecuencias esperadas que se derivan del modelo saturado coinciden
exactamente con las observadas. Consecuentemente, todos los residuos valen cero. Este es
el motivo por el que los estadísticos de bondad de ajuste (la razón de verosimilitudes y el
estadístico chi-cuadrado de Pearson) también valen cero (ver Tabla 3.10).

Tabla 3.9. Frecuencias y residuos (modelo saturado)

Observado Esperado Residuos


a
intelig sexo automen Recuento % Recuento % Residuos típificados
destreza varones instrum 21.00 21.0% 21.000 21.0% .00 .00
atribuc 7.00 7.0% 7.000 7.0% .00 .00
otras 4.00 4.0% 4.000 4.0% .00 .00
mujeres instrum 3.00 3.0% 3.000 3.0% .00 .00
atribuc 4.00 4.0% 4.000 4.0% .00 .00
otras 2.00 2.0% 2.000 2.0% .00 .00
rasgo varones instrum 5.00 5.0% 5.000 5.0% .00 .00
atribuc 10.00 10.0% 10.000 10.0% .00 .00
otras 3.00 3.0% 3.000 3.0% .00 .00
mujeres instrum 6.00 6.0% 6.000 6.0% .00 .00
atribuc 28.00 28.0% 28.000 28.0% .00 .00
otras 7.00 7.0% 7.000 7.0% .00 .00
a. Para modelos saturados, se ha añadido .000 a todas las casillas observadas.

Tabla 3.10. Estadísticos de bondad de ajuste (modelo saturado)


Chi-cuadrado gl Sig.
Razón de verosimilitudes .00 0 .
Pearson .00 0 .

La Tabla 3.11 ofrece los contrastes de los términos o efectos de orden K, donde K se refiere
al número de variables que forman parte del efecto. La mitad superior muestra los contrastes
para los efectos de orden K o mayores; los efectos de orden K = 3 o mayores sólo incluyen un
efecto: el de orden 3; los efectos de orden k = 2 o mayores incluyen los tres efectos de orden
2 y el efecto de orden 3; los efectos de orden k = 1 o mayores incluyen los tres efectos de or-
den 1, los tres de orden 2, y el efecto de orden 3.
La mitad inferior de la tabla muestra los contrastes para los efectos de orden K. Para cada
efecto o grupo de efectos se ofrecen los grados de libertad (gl), el valor de los dos estadísticos
de contraste (la razón de verosimilitudes y el estadístico chi-cuadrado de Pearson, el nivel
crítico asociado a cada estadístico (Sig.) y el número de iteraciones necesarias para alcanzar
el criterio de convergencia. La hipótesis nula que se contrasta en cada caso es que el efecto
considerado (o grupo de efectos) vale cero (es nulo). Por tanto, estos contrastes permiten for-
marse una primera idea acerca de qué efectos estarán presentes en el modelo loglineal final:
un efecto o grupo de efectos se considera significativo cuando se rechaza la hipótesis nula.
Y, siguiendo el criterio de decisión estándar, se rechaza la hipótesis nula cuando el nivel crí-
tico (Sig.) asociado al estadístico de contraste correspondiente a cada efecto o grupo de efec-
140 Capítulo 3

tos es menor que 0,05. Así, observando el resultado de estos contrastes puede verse, por ejem-
plo, que el término referido a la interacción triple o interacción de segundo orden (K = 3) no
es significativo (Sig. = 0,870); o que entre los términos referidos a las interacciones dobles o
interacciones de primer orden (K = 2) existe al menos uno que es significativo (Sig. < 0,0005);
o que entre los términos referidos a los efectos principales (K = 1) existe al menos uno que
es significativo (Sig. < 0,0005).

Tabla 3.11. Contrastes de los efectos de orden k o mayores


Razón de
verosimilitudes Pearson Número de
K gl Chi-cuadrado Sig. Chi-cuadrado Sig. iteraciones
Efectos de orden K o mayores 1 11 66.69 .000 84.56 .000 0
2 7 45.75 .000 54.64 .000 2
3 2 .28 .870 .28 .871 4
Efectos de orden K 1 4 20.94 .000 29.92 .000 0
2 5 45.47 .000 54.36 .000 0
3 2 .28 .870 .28 .871 0

La Tabla 3.12 contiene las asociaciones parciales. Esta tabla ofrece un contraste separado
para cada efecto individualmente considerado. La hipótesis nula que se contrasta en cada caso
es que el efecto vale cero (es decir, que el efecto es nulo). Los resultados de esta tabla indican,
por ejemplo, que entre los efectos referidos a las interacciones dobles, el único no signifi-
cativo es el correspondiente a la interacción sexo*automen (Sig. = 0,126). Y que entre los
efectos principales sólo es significativo el referido a la variable automen (Sig. < 0,0005). Etc.

Tabla 3.12. Tabla de asociaciones parciales


Chi-cuadrado Número de
Efecto gl parcial Sig. iteraciones
intelig*sexo 1 13.50 .000 2
intelig*automen 2 9.04 .011 2
sexo*automen 2 4.14 .126 2
intelig 1 3.26 .071 2
sexo 1 .00 1.000 2
automen 2 17.68 .000 2

La Tabla 3.13 ofrece las estimaciones de los parámetros del modelo saturado. Para cada pará-
metro independiente, la tabla recoge el valor de la estimación, su error típico, su valor tipi-
ficado (Z) y los límites inferior y superior del intervalo de confianza calculado con un nivel
de confianza del 95 %.
Puesto que los parámetros correspondientes a las categorías de cada variable suman cero,
la tabla omite la información redundante y sólo incluye la referida a los parámetros indepen-
dientes. Así, por ejemplo, aunque el efecto principal de la variable sexo tiene dos parámetros
(uno para cada nivel de la variable: λsexo(varones) y λsexo(mujeres)), dado que las estimaciones de am-
bos parámetros suman cero, la tabla sólo ofrece el parámetro correspondiente a la primera
categoría de la variable (en este caso, varones). Por tanto,

λsexo(varones) = 0,0950
Análisis loglineal (I): Selección de modelo 141

Y, puesto que ambas estimaciones suman cero, el término λsexo(mujeres) valdrá –0,0950. En gene-
ral, la tabla ofrece, para los efectos principales, las estimaciones correspondientes a todas las
categorías excepto la última (que es redundante).

Tabla 3.13. Estimaciones de los parámetros (modelo saturado)


Intervalo de
confianza al 95%
Error Límite Límite
Efecto Parámetro Estimación típico Z Sig. inferior superior
intelig*sexo*automen 1 .0939 .18 .52 .605 -.262 .450
2 -.0409 .17 -.24 .808 -.371 .289
intelig*sexo 1 .4382 .13 3.32 .001 .180 .697
intelig*automen 1 .3960 .18 2.18 .029 .040 .752
2 -.3652 .17 -2.17 .030 -.695 -.035
sexo*automen 1 .3459 .18 1.91 .057 -.010 .702
2 -.2125 .17 -1.26 .207 -.543 .118
intelig 1 -.2105 .13 -1.60 .110 -.469 .048
sexo 1 .0950 .13 .72 .471 -.163 .353
automen 1 .0831 .18 .46 .647 -.273 .439
2 .4388 .17 2.60 .009 .109 .769

Por lo que se refiere a las interacciones dobles, la primera estimación corresponde a la combi-
nación de la primera categoría de la primera variable y la primera categoría de la segunda va-
riable; la segunda estimación, a la combinación de la primera categoría de la primera variable
y la segunda categoría de la segunda variable; etc. Las categorías de la última variable rotan
más rápido que las de la primera. Esto mismo vale también para las interacciones de mayor
orden.
Así, por ejemplo, aunque la interacción sexo*automen contiene seis parámetros (los resul-
tantes de combinar las dos categorías de sexo con las tres de automen), la tabla sólo ofrece
las estimaciones de los dos parámetros independientes. La primera estimación corresponde
a la combinación de las dos primeras categorías de ambas variables:
λsexo*automen(varones,instrumentales) = 0,3459
Y la segunda estimación corresponde a la combinación de la primera categoría de la primera
variable (sexo) y la segunda categoría de la segunda variable (automen):
λsexo*automen(varones,atribucionales) = –0,2125

Puesto que las estimaciones de las tres categorías de la variable automen suman cero en cada
categoría de la variable sexo, el valor estimado para la tercera categoría de automen valdrá:
λsexo*automen(varones,otras) = –(0,3459 – 0,2125) = –0,1334. Y puesto que las estimaciones correspon-
dientes a las dos categorías de la variable sexo suman cero en cada categoría de la variable
automen, las estimaciones correspondientes a la segunda categoría de la variable sexo (muje-
res) en cada categoría de la variable automen valdrán:
λsexo*automen(mujeres,instrumentales) = –0,3459
λsexo*automen(mujeres,atribucionales) = 0,2125
λsexo*automen(mujeres,otras) = 0,1334
142 Capítulo 3

Se considera que un parámetro es significativamente distinto de cero cuando su intervalo de


confianza no incluye el valor cero. Así, por ejemplo, el efecto referido a la interacción intelig
*automen es significativo, pues los límites de confianza de uno de los parámetros corres-
pondientes a esa interacción no incluye el valor cero.
Los valores tipificados (Z) se obtienen dividiendo la estimación obtenida para cada pará-
metro entre su error típico. Con tamaños muestrales grandes, estos valores tipificados se
distribuyen normalmente con media 0 y desviación típica 1, por lo que pueden utilizarse para
contrastar la hipótesis nula de que el parámetro vale cero en la población. Una estimación
cuyo valor tipificado en valor absoluto sea mayor que 1,96 (= cuantil 97,5 de la distribución
normal estandarizada) debe llevar a rechazar la hipótesis de que el correspondiente parámetro
vale cero.
Una vez estimados los parámetros, el SPSS muestra los resultados del proceso de elimi-
nación hacia atrás partiendo del modelo saturado (ver Tabla 3.14). En el paso 0 se ajusta el
modelo saturado (Clase generadora = intelig*sexo* automen). Según se ha señalado, el mo-
delo saturado se ajusta perfectamente a los datos: el valor del estadístico de contraste es cero.
Tras esto, se ofrece un contraste del término que habría que eliminar en primer lugar (Efecto
eliminado = intelig*sexo*automen (se comienza eliminando el término de mayor orden). La
hipótesis nula que se contrasta en este momento es que ese término vale cero, o lo que es lo
mismo, que su efecto es nulo. El resultado del contraste indica que, puesto que se mantiene
la hipótesis nula (Sig. = 0,870), el término puede ser eliminado.

Tabla 3.14. Pasos del proceso de eliminación hacia atrás


Chi-
Paso Efectos cuadrado gl Sig.
0 Clase generadora intelig*sexo*automen .00 0 .
Efecto eliminado 1 intelig*sexo*automen .28 2 .870
1 Clase generadora intelig*sexo, intelig*automen, sexo*automen .28 2 .870
Efecto eliminado 1 intelig*sexo 13.50 1 .000
2 intelig*automen 9.04 2 .011
3 sexo*automen 4.14 2 .126
2 Clase generadora intelig*sexo, intelig*automen 4.42 4 .352
Efecto eliminado 1 intelig*sexo 22.89 1 .000
2 intelig*automen 18.44 2 .000
3 Clase generadora intelig*sexo, intelig*automen 4.42 4 .352

Al eliminar el término referido a la interacción triple, el modelo resultante es el que contiene


todas las interacciones dobles (Clase generadora = intelig*sexo, intelig*automen, sexo*auto-
men). En el paso 1 se ofrece el ajuste de este modelo: la hipótesis nula que se contrasta es que
el modelo se ajusta a los datos. Puesto que la razón de verosimilitudes (Chi-cuadrado) tiene
asociado un nivel crítico mayor que 0,05 (Sig. = 0,870), se puede mantener la hipótesis nula
y concluir que el modelo [intelig*sexo, intelig*automen, sexo*automen] consigue un buen
ajuste a los datos.
Y dado que este modelo consigue un buen ajuste, debe continuarse averiguando si es po-
sible eliminar alguno de los términos todavía incluidos en él. Los términos de mayor orden
de ese modelo son los referidos a las tres interacciones dobles, de modo que el SPSS ofrece
un contraste de cada uno de esos términos individualmente considerados. La hipótesis nula
que se contrasta ahora es que el término evaluado vale cero. Observando el nivel crítico aso-
ciado a cada término(Sig.) se constata que únicamente la interacción sexo*automen posee un
Análisis loglineal (I): Selección de modelo 143

efecto no significativo (Sig. = 0,126). De modo que, en el siguiente paso, se puede eliminar
esta interacción y ajustar el modelo resultante: [intelig*sexo, intelig*automen].
El paso 2 ofrece el ajuste. El nivel crítico (Sig.) asociado a la razón de verosimilitudes
vale 0,352, por lo que se puede concluir que el modelo ofrece un buen ajuste.
Y puesto que este modelo ofrece un buen ajuste, se debe continuar averiguando si es posi-
ble eliminar alguno de los términos todavía incluidos en él. Los términos de mayor orden son
los referidos a las interacciones dobles intelig*sexo e intelig*automen, de modo que el SPSS
ofrece un contraste de esos dos términos individualmente considerados. La hipótesis nula que
se contrasta en cada caso es que el término analizado vale cero. Los niveles críticos asociados
a estos dos efectos indican que ambos son significativos: puesto que ambos poseen niveles
críticos menores que 0,05, en ambos casos se rechaza la hipótesis nula de que el efecto vale
cero. Esto significa que ninguno de los dos efectos debería quedar fuera del modelo: eliminar
cualquiera de ellos llevaría a una pérdida significativa de ajuste.
En consecuencia, el modelo final será el que incluya los términos referidos a esas dos
interacciones dobles: [intelig*sexo, intelig*automen]. Y eso es justamente lo que se indica
en el paso 3. Por supuesto, de acuerdo con el principio de jerarquía, este modelo también
incluye los tres efectos principales contenidos en esas dos interacciones dobles.
Expresando el modelo final en la notación propia de los modelos loglineales y teniendo
en cuenta que el principio de jerarquía obliga a incluir en el modelo los términos de orden
inferior que forman parte de los términos de mayor orden, se obtiene:

loge(mijk) = λ + λintelig + λsexo + λautomen + λintelig*sexo + λintelig*automen ,

que es un modelo de independencia condicional: las variables sexo y automen son condicio-
nalmente independientes, dada intelig. Es decir, de las tres variables estudiadas, sólo la varia-
ble sexo y el tipo de automensajes que se utilizan en una situación de logro son independien-
tes entre sí, y lo son cualquiera que sea el nivel de inteligencia que se considere: las variables
sexo y automen son independientes tanto entre los sujetos que conciben la inteligencia como
un rasgo como entre los sujetos que conciben la inteligencia como una destreza. De otro mo-
do: las variables intelig y sexo están relacionadas independientemente del tipo de automen
que utilicen los sujetos; y las variables intelig y automen están relacionadas independiente-
mente de que los sujetos sean varones o mujeres.
La Tabla 3.15 informa de algunos detalles relacionados con las estimaciones del modelo
final (Clase generadora = intelig*sexo, intelig*automen).

Tabla 3.15. Información sobre la convergencia (modelo final)


Clase generadora intelig*sexo, intelig*automen
Número de iteraciones 0
Diferencia máxima entre observados y marginales ajustados .000
Criterio de convergencia .250

Una vez alcanzado el modelo final, el Visor ofrece una tabla resumen (ver Tabla 3.16) con
las frecuencias observadas (en valor absoluto y porcentual), las frecuencias esperadas deri-
vadas del modelo final (en valor absoluto y porcentual), los residuos (diferencia entre las fre-
cuencias observadas y las estimadas) y los residuos tipificados. Una tabla adicional recoge
el valor que toman los dos estadísticos de bondad de ajuste (la razón de verosimilitudes y el
144 Capítulo 3

estadístico chi-cuadrado de Pearson), los grados de libertad del modelo (gl) y el nivel crítico
(Sig.) asociado a cada uno de ellos (ver Tabla 3.17).

Tabla 3.16. Frecuencias y residuos (modelo final)

Observado Esperado Residuos


intelig sexo automen Recuento % Recuento % Residuos tipificados
destreza varones instrum 21.00 21.0% 18.73 18.7% 2.27 .52
atribuc 7.00 7.0% 8.59 8.6% -1.59 -.54
otras 4.00 4.0% 4.68 4.7% -.68 -.32
mujeres instrum 3.00 3.0% 5.27 5.3% -2.27 -.99
atribuc 4.00 4.0% 2.41 2.4% 1.59 1.02
otras 2.00 2.0% 1.32 1.3% .68 .60
rasgo varones instrum 5.00 5.0% 3.36 3.4% 1.64 .90
atribuc 10.00 10.0% 11.59 11.6% -1.59 -.47
otras 3.00 3.0% 3.05 3.1% -.05 -.03
mujeres instrum 6.00 6.0% 7.64 7.6% -1.64 -.59
atribuc 28.00 28.0% 26.41 26.4% 1.59 .31
otras 7.00 7.0% 6.95 6.9% .05 .02

Tabla 3.17. Estadísticos de bondad de ajuste (modelo final)


Chi-cuadrado gl Sig.
Razón de verosimilitudes 4.42 4 .352
Pearson 4.51 4 .341

Debe tenerse en cuenta que el procedimiento Selección de modelo no calcula los residuos tipi-
ficados corregidos ni los residuos de desvianza (ver siguiente capítulo). Tampoco estima los
parámetros del modelo final. Por tanto, una vez obtenido por pasos el modelo jerárquico que
mejor ajuste ofrece a los datos con el menor número de parámetros (modelo final), suele re-
sultar útil ajustar el modelo obtenido mediante el procedimiento General para obtener toda esa
información complementaria.

Ejemplo: Loglineal > Selección de modelo > Ajuste en un único paso

El ajuste de un modelo loglineal jerárquico puede seguir dos estrategias alternativas: la elimi-
nación hacia atrás y el ajuste en un único paso. En el ejemplo anterior se ha utilizado la pri-
mera estrategia. Este ejemplo se centra en la segunda. Para ilustrar el proceso de ajuste en un
único paso se siguen utilizando los datos de la Tabla 3.6:
' Reproducir en el Editor de datos los datos de la Tabla 3.6 tal como se ha hecho en
el ejemplo anterior (o descargar el archivo Loglineal de la página web).
' Seleccionar la opción Loglineal > Selección de modelo... del menú Analizar para acceder
al cuadro de diálogo Análisis loglineal: Selección de modelo (ver Figura 3.1).
' Seleccionar las variables intelig, sexo y automen, trasladarlas a la lista Factores y pul-
sar el botón Definir rango... para introducir los códigos de cada variable tal como se
ha hecho en el ejemplo anterior.
Análisis loglineal (I): Selección de modelo 145

' Pulsar el botón Modelo..., seleccionar la opción Personalizado y trasladar a la lista Cla-
se generadora las interacciones dobles intelig*sexo e intelig*automen (el SPSS las or-
dena alfabéticamente). Pulsar el botón Continuar para volver al cuadro de diálogo
principal.
' Pulsar el botón Opciones... para acceder al subcuadro de diálogo Análisis loglineal:
Opciones y marcar las opciones Residuos y Probabilidad normal del apartado Gráficos.
Pulsar el botón Continuar para volver al cuadro de diálogo principal.
' Marcar la opción Introducir en un único paso del recuadro Construcción de modelos.

Aceptando estas elecciones, el Visor ofrece, entre otros, los resultados que muestran la Tabla
3.18 y las Figuras 3.6 y 3.7. La tabla de información sobre la convergencia (no se incluye
aquí) comienza recordando cuál es el modelo que se está ajustando (Clase generadora = inte-
lig*sexo, intelig*automen) y continúa informando de algunos detalles del proceso de estima-
ción (número de iteraciones, valor de convergencia, etc.). A continuación se ofrece la tabla
de frecuencias y residuos (no se incluye aquí; es idéntica a la Tabla 3.16). Por último, la Tabla
3.18 recoge los estadísticos que permiten evaluar el ajuste del modelo. Puesto que el valor del
nivel crítico asociado a la razón de verosimilitudes es mayor que 0,05 (Sig. = 0,352), se puede
asumir que el modelo ofrece un buen ajuste a los datos.

Tabla 3.18. Estadísticos de bondad de ajuste


Chi-cuadrado gl Sig.
Razón de verosimilitudes 4,42 4 ,352
Pearson 4,51 4 ,341

La estrategia de ajuste en un único paso (la que se está utilizando en este ejemplo) no permite
obtener las estimaciones de los parámetros (la opción Selección de modelo sólo estima los pará-
metros del modelo saturado) ni tampoco la tabla de asociaciones parciales. Como contra-
partida, ofrece algunos gráficos sobre los residuos que contienen información útil. Estos grá-
ficos no es posible obtenerlos cuando se utiliza el modelo saturado como punto de partida en
la eliminación hacia atrás.
El primero de estos gráficos (Figura 3.6) contiene los tres diagramas de dispersión resul-
tantes de combinar las frecuencias observadas, las esperadas y los residuos tipificados. Si el
modelo evaluado se ajusta bien a los datos, la nube de puntos del diagrama correspondiente
a las frecuencias observadas y a las esperadas mostrará una pauta lineal; por tanto, los puntos
estarán tanto más en una línea recta cuanto más parecido exista entre las frecuencias observa-
das y las esperadas. Por el contrario, los dos diagramas correspondientes a los residuos no
deben seguir, idealmente, ningún tipo de pauta. Si el modelo loglineal que se está evaluando
se ajusta bien a los datos, el tamaño de los residuos debe ser independiente del tamaño de las
frecuencias; por tanto, la presencia de alguna pauta de variación sistemática evidente podría
estar indicando que la modelización loglineal no es apropiada para los datos analizados.
Los dos gráficos siguientes (ver Figura 3.7) son diagramas de probabilidad normal. En
el primero de ellos (izquierda) están representados los residuos tipificados del modelo ajus-
tado (valor observado) frente a sus valores esperados normales: si los residuos tipificados se
distribuyen normalmente, los puntos del diagrama deben seguir una pauta lineal, es decir,
deben estar en torno a la diagonal. El segundo de ellos (derecha) es un diagrama de probabili-
dad normal sin tendencias. En él están representadas las desviaciones de cada residuo respecto
146 Capítulo 3

de su valor esperado normal; es decir, están representadas las distancias entre cada punto y
la diagonal del gráfico de la izquierda. Si los residuos tipificados se distribuyen normalmente,
esas desviaciones deben oscilar de forma aleatoria en torno al valor cero (representado por
la línea horizontal). La presencia de pautas de variación no aleatorias indica desviaciones de
la normalidad.
En el ejemplo, tanto en el gráfico de probabilidad normal como en el de probabilidad
normal sin tendencias se observa una pauta clara: los residuos negativos tienden a ser mayores
que sus valores esperados normales, mientras que los residuos positivos tienden a ser menores
que sus valores esperados normales. Sin embargo, esta pauta no es demasiado pronunciada;
el eje vertical indica que los residuos observados se alejan de sus correspondientes esperados
normales no más de tres décimas.

Figura 3.6. Diagramas de dispersión: frecuencias y residuos

Figura 3.7. Diagramas de probabilidad normal (izquierda) y probabilidad normal sin tendencias (derecha)

También podría gustarte