Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FORMULAS - EST - 2 - Segunda Parte PDF
FORMULAS - EST - 2 - Segunda Parte PDF
Supondremos que el Nivel de Significación α es predeterminado y que de las poblaciones tomaremos muestras de
tamaños conocidos n1 y n2 , respectivamente asumiendo normalidad de datos, i.e. Yi ~ N ( µi , σ i2 ) i = 1,2 , para
simplificar el análisis.
• En realidad esta prueba es una adaptación de la prueba sobre la media de una población, pues si
D = (Y1 − Y2 ) , entonces ya sabemos que µ D = ( µ1 − µ 2 ) y por tanto H 0 : µ1 = µ 2 equivale a H 0 : µ D = 0 .
D
• Si H 0 es verdadera, el estadístico t = tiene distribución t-Student con k=(n-1) grados de libertad.
SD
n
• La ventaja de esta prueba es que elimina otras fuentes de diferencias entre casos, ajenas al Factor bajo estudio.
La región crítica o zona de rechazo de H 0 , depende de cómo sea H 1
• Para este caso no existe una solución o Test óptimo exacto. Hay varias propuestas pero programas
computacionales como SPSS suelen usar una metodología (Test de Welch) donde se ponderan los grados de
libertad de las varianzas muestrales
En la metodología de Welch que usa SPSS, se calcula un promedio ponderado k de los grados de
libertad ( n1 − 1) y ( n2 − 1) , usando la fórmula
2
S12 S 22
+
n1 n 2
k= 2 2
S12 S 22
n1 + n2
n1 − 1 n2 − 1
Con este valor de k (redondeado) se va a la tabla t-Student de acuerdo al nivel de significación α y el tipo de
hipótesis alterna H 1 uni o bilateral
Observaciones:
• Los test anteriores se pueden aplicar al caso más general H0:µ1-µ2=d0, donde d0 es un valor predeterminado.
Sólo cambia el numerador del estadístico t que es ahora igual a [ (Y 1 − Y 2 ) − d 0 ]
• Es recomendable tener tamaños de muestra iguales. Esta precaución es importante sobre todo en el caso de
heterogeneidad de varianzas.
El contraste puede modificarse para cubrir la hipótesis general H 0 : P1 − P2 = D0 , donde D0 es una cantidad
( p 1 − p 2 ) − D0
predeterminada. El estadístico Z cambia a Z = donde en el denominador ya no se incluye una
p1 q 1 p2 q2
+
n1 n2
proporción promedio, pues ésta no tiene sentido en este caso.
Antes
Después Sin A Con A Total
Con A a b (a+b)
Sin A c d (c+d)
Total (a+c) (b+d) n
(d − a)
• Se calcula el estadístico de contraste Z = y la Regla de Decisión depende de la forma de H 1 , según:
(d + a)
Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste
H 1 : P1 > P2 Z > Z1−α Unilateral derecho
H 0 : P1 = P2 H 1 : P1 < P2 Z < − Z 1−α Unilateral izquierdo
H 1 : P1 ≠ P2 | Z |> Z1−α / 2 Bilateral
Z1−α y Z1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla N ( 0,1)
Este test se usa si (a+d) > 10, en caso contrario no es fiable y hay que aplicar otra prueba, llamada Prueba
Exacta de Fisher.
Esta prueba también permite comparar proporciones de dos características cualitativas diferentes pero medidas
en los mismos sujetos.
Recordemos finalmente, la definición de la función "arcoseno": Arcsen(x)=El ángulo (medido en radianes) cuyo
seno vale x, i.e. α=Arcsen(x)⇔Sen(x)= α.
χ 2 con (k-1)grados de libertad. Si se rechaza H 0 , luego se aplica contrastes por pares para identificar las
Con SPSS la metodología es exactamente igual a la aplicada en la comparación de dos proporciones para muestras
independientes.
• Esta prueba asume muestras grandes pues se apoya en la aproximación de la distribución de p usando la
distribución normal. Una regla es que no debe aplicarse el contraste χ 2 si más del 20% de las celdas o casillas
tienen una frecuencia esperada Eij menor que 5. En el caso de k = 2 poblaciones, no se debe usar si n.. < 20
o si siendo n.. < 40 , alguna Eij es menor que 5.
• SPSS calcula el % de celdas con frecuencia esperada pequeña (Eij<5) y nos los proporciona, como precaución
por si este porcentaje pasa del 20% del total de celdas. En este caso hay que usar la significación exacta.
Tenemos k poblaciones debidamente representadas por sus medias µ1 , µ 2 ,..., µ k y deseamos contrastar la
hipótesis de nulidad o de no diferencias H 0 : µ1 = µ 2 =,..., = µ k a partir de los datos de k muestras aleatorias
independientes y de tamaños n1 , n 2 ,..., n k respectivamente.
Plan de análisis
Primero se evalúa una Hipótesis global H0 de no diferencias, mediante un “Test Ómnibus”. Si no se rechaza H0,
ahí termina todo.
Segundo, si en el paso anterior se llega a rechazar H0, hay que ubicar cuáles poblaciones son diferentes mediante
contrastes específicos.
Modelo Lineal del Análisis de Varianza
Si Y ij representa el valor de la variable respuesta Y en el elemento # j de la muestra aleatoria de la Población #i,
podemos escribir Yij = µi + ε ij para i = 1,2,..., k ; j = 1,2,..., n (o ni en el caso llamado “no balanceado”, donde
las muestras son de tamaño desigual).
Aquí µi denota la media de la población #i y ε ij representa la variabilidad natural dentro de cada población, que
es variabilidad debida al azar y/o a otros factores no considerados o controlados en el modelo.
Donde:
ni
Yi . = ∑ Yij = Suma de valores en la muestra #i, Yi = Media de la muestra #i
j =1
k ni
S i2 = Varianza de la muestra #i, Y.. = ∑∑ Yij = Suma de valores en todas las muestras ,
i =1 j =1
k
N = ∑ ni = Tamaño global de muestra, Y.. = Media global y S 2 = Varianza global. En este contexto:
i =1
La cantidad ∑ (Y i − Y.. ) 2 se conoce como la Variabilidad entre sujetos o Entre muestras (Between groups
en SPSS) o también como la Suma de Cuadrados entre de muestras. Mide las diferencias entre sujetos que
se deben a que provienen de poblaciones distintas o de tratamientos/niveles distintos en el factor bajo
estudio. Se denotará SCTR
La cantidad ∑ (Y ij − Yi ) 2 se conoce como la Variabilidad intra sujetos o Dentro de muestras (Within groups
en SPSS) o también Suma de Cuadrados dentro de muestras. Mide las diferencias entre casos dentro de
cada muestra o sea es la variabilidad debida al azar y no al factor bajo estudio. Se denotará SCE.
Si H 0 : µ1 = µ 2 = ... = µ k es cierta, las diferencias entre medias Yi se deben sólo al azar y ambas sumas de
cuadrados medirían lo mismo: el efecto del azar.
La varianza por tratamiento o Cuadrado medio entre tratamientos (Between groups) denotada CMTR se define
como CMTR = SCTR /( k − 1)
La varianza del azar o Cuadrado Medio Dentro de Muestras o Residual (Within Groups) denotada CME se
define como CME = SCE /( N − k ) y en verdad es un promedio ponderado de las varianza muestrales S i2 pues
k
∑ (n i − 1) S i2
SCE
CME = i =1
=
k
N −k
∑ (ni =1
i − 1)
Si H 0 : µ1 = µ 2 = ... = µ k es cierta, las diferencias entre medias Yi se deben sólo al azar y ambos cuadrados
medios medirían lo mismo: la varianza del azar σ 2
Y debieran ser iguales.
Por lo anterior, un estadístico apropiado para contrastar H 0 : µ1 = µ 2 = ... = µ k es la variable F de Fisher, dada
por F = CMTR / CME : Para ver si se rechaza H 0 o no, se compara F con el percentil F1−α de la distribución F
de Fisher con ( k − 1) y ( N − k ) grados de libertad:
Si F > F1−α se rechaza H 0 : µ1 = µ 2 = ... = µ k y se admite que al menos dos medias poblacionales son diferentes.
Sobre los Supuestos. Ya se mencionó que estamos asumiendo normalidad, independencia y homogeneidad de
varianzas. Estos supuestos no siempre se cumplen y es necesario informarse de las consecuencias:
Cuando la prueba de Levéne o la de Bartlett indican heterogeneidad de varianzas, la prueba F del test global para
contrastar H 0 : µ1 = µ 2 = K = µ k no es eficiente y entonces hay que hacer algunos ajustes:
Si se trata de contrastes Post Hoc por que no hay hipótesis previas, se usa el subcomando Post Hoc → Equal
Variances Not Assumed y se selecciona alguno de los contrastes ofrecidos por SPSS. El Test de Games- Howell
es el más recomendable.
ζ)
Coeficiente Eta (ζ
SCTR
Se define como ζ = ζ 2
= y es la correlación tipo Pearson entre la variable respuesta Y y la
SCT
variable cualitativa “X=Población”, con k categorías o “valores”. Se le aplica el Criterio de Cohen para
correlaciones. Así, por ejemplo, un ζ > 0.5 se considera “grande”.
5.1 Utilidad.
Permite estudiar el efecto de dos factores a la vez: Factor A (filas) con i = 1,2,...,a niveles, y Factor B (columnas)
con j = 1,2,...,b niveles, que son aplicados simultáneamente a las unidades experimentales. Cada combinación AiBj
de niveles o tratamientos se aplica a n unidades. El tamaño global de muestra es N=n× ×a××b. Esta estrategia permite
estudiar los efectos de A, de B y sobre todo la “interacción” entre A y B, es decir un efecto especial que se
presenta debido a la combinación de los factores. Esta es la utilidad básica de este diseño.
Si hacemos una tabla con a filas y b columnas, cada “celdilla” representa una combinación de tratamientos de A y
de B que al ser aplicada, genera una población cuya media podemos denotar mediante µij = Media de la población
cuando se aplica el nivel #i del Factor A y el Nivel #j del Factor B.
Por ejemplo, para un factorial con a=2 y b=4, podríamos representar las 2x4=8 subpoblaciones mediante 8 medias:
Factor B
Factor A Nivel B1 Nivel B2 Nivel B3 Nivel B4 Efecto de A
Nivel A1 µ11 µ12 µ13 µ14 µ1•
Nivel A2 µ 21 µ 22 µ 23 µ 24 µ 2•
Efecto de B µ •1 µ •2 µ•3 µ •4 µ••
El Efecto de A, medido u obtenido promediando a través de los niveles del Factor B. Este efecto es representado
por los promedios de las filas 1 y 2, que denotamos µ1• y µ 2• . Una prueba para este efecto consiste en contrastar
si las medias de las filas son iguales, o sea contrastar H0: µ1• = µ 2• Este efecto se llama Efecto principal de A.
El Efecto de B, obtenido promediando a través de los niveles del Factor A, y que es representado por los
promedios de las columnas µ •1 , µ•2 , µ•3 y µ•4 . Una prueba para este efecto consiste en ver si las medias de las
columnas son iguales, o sea contrastar H0: µ •1 = µ•2 = µ•3 = µ•4 Este efecto se llama Efecto principal de B.
La Interacción de A y B ocurre cuando el efecto de un factor no es el mismo a todos los niveles del otro
factor. Es el efecto especial que se presenta debido a la combinación de los factores, por ejemplo, si tenemos
que las diferencias ( µ11 - µ 21 ), ( µ12 - µ 22 ), ( µ13 - µ 23 ), etc. no son todas iguales, diremos que hay interacción entre
A y B.
En este diseño, al igual que en el caso de un Factor, hay casos de Efectos Fijos, de Efectos Aleatorios y modelos
Mixtos. El caso más frecuente es el de Efectos Fijos y es el que desarrollaremos primero.
Como en el caso ONE-WAY, se calculan los Cuadrados Medios dividiendo las respectivas Sumas de Cuadrados
entre los respectivos Grados de Libertad. Y también los resultados se presentan en una Tabla de Análisis de
Varianza de Dos Factores (Two Way ANOVA).
La hipótesis nula es que las dos combinaciones tienen similar efecto, esto es que sus respectivas medias son
iguales H 0 : µij = µ i ' j '
Y ij − Y i ' j '
Se calcula t = , donde CME es el Cuadrado Medio del Error (que SPSS llama Error Mean
CME CME
+
nij ni ' j '
Square). El valor de t se compara con un valor tabular de la distribución t de Student con los grados de libertad
del Error (que SPSS llama Error df), según sea H1:
Aquí t1−α ó t1−α / 2 son los respectivos percentiles 1 − α ó 1 − α / 2 de la tabla t-Student con los grados de libertad
del CME ab(n-1).
Para interpretar cómo se dan los efectos, hay que mirar el cuadro adjunto de estadísticas (medias) y algún gráfico
de medias que aclare los resultados.
Observaciones:
• Los Supuestos son los mismos del ANOVA ONE WAY y las recomendaciones son idénticas.
• Si los tamaños de muestra son distintos, no es posible separar los Efectos Principales de la Interacción de modo
único. Este caso requiere técnicas especiales y la ayuda de un especialista.
Modelo de Mixto
En el Modelo de Mixto: A es Fijo y B es Aleatorio. Las Sumas de Cuadrados y los Cuadrados Medios son iguales
Tanto en el modelo de efectos aleatorios como en el mixto, el procedimiento con SPSS no cambia, basta
indicar al programa cuál factor es fijo o aletorio.
ζ)
Coeficiente Eta (ζ
SCTR
Se define como ζ = ζ 2
= y es la correlación tipo Pearson entre la variable respuesta Y y los
SCT
factores. Se le aplica el Criterio de Cohen para correlaciones. Así, por ejemplo, un ζ > 0.5 se considera “grande”.
6. Contrastes no paramétricos
6.1 Uso
Cuando no se puede asumir normalidad de datos por asimetría extrema o por ser las variables respuesta no
cuantitativas.
Por lo general para cada contraste paramétrico de los estudiados hasta ahora, hay un equivalente no paramétrico
que es alternativo pero menos potente: Para un mismo tamaño de muestra n y un mismo nivel α, el contraste no
paramétrico tiene menor probabilidad de detectar una H1 verdadera.
• Uso
Alternativa a la prueba t-Student para dos muestras relacionadas
• Fundamento
Si X e Y denotan las dos variables relacionadas, la hipótesis a probar es H0: P( X < Y ) = P( X > Y ). Esta hipótesis
equivale a la de similar posición central de las respectivas distribuciones y por comodidad, la representaremos
como H0: MeX = MeY donde Me representa la Mediana de la respectiva distribución.
Si H0 es verdadera y formamos las diferencias di=Xi-Yi, al ordenarlas esperamos que el número de diferencias
positivas sea igual al número de diferencias negativas y que el número de diferencias grandes y negativas sea igual
al número de diferencias grandes y positivas. Por tanto, si encontramos que existen pocas diferencias de un signo
dado y que la suma de los rangos de estas diferencias es pequeña, entonces tenemos evidencia de que H0 no se
cumple y podemos rechazarla. El estadístico de contraste se llama T de Wilcoxon.
• Uso
Alternativa a la prueba t-Student para muestras independientes
• Fundamento
Si X e Y denotan la variable respuesta en las respectivas muestras, la hipótesis a probar es H0:P(X < Y) =
P(X >Y). Esta hipótesis equivale a la de similar posición central de las distribuciones y por comodidad, la
representaremos como H0: MeX = MeY.
Si H0 es cierta, al “juntar” muestras es de esperar que las puntuaciones X e Y se intercalen. Si una de las muestras
ocupa consistentemente lugares bajos, pensaremos que H0 no es cierta. Como no tiene sentido usar directamente
las puntuaciones originales, las pasamos a rangos para el análisis. El estadístico de contraste se llama U de Man
Whitney
• Metodología con SPSS
Para someter a prueba H0 hay que examinar la significación verdadera en el cuadro Test statistics (SPSS hace
contraste a dos colas) y de resultar rechazada H0, examinar el cuadro Descriptive Statistics para ver si se
cumple su H1. Si n es grande (n > 40 en este test) probablemente SPSS muestre la significación aproximada
para n grande, que él llama Asymptotic (asintótica), pues muchas veces la significación exacta supera la
memoria del computador.
• Uso
Equivalente no paramétrico del ANOVA One Way por falta de normalidad por asimetría extrema o varianzas
heterogéneas. La hipótesis es la de igual tendencia central en k poblaciones, y se quiere contrastar H0 a partir de k
muestras independientes.
• Fundamento
Al juntar muestras y ordenar por rangos, si H0 es cierta se espera que las muestras se intercalen o se distribuyan
homogéneamente en los rangos. Si alguna muestra ocupa rangos extremos, hay indicios de la falsedad de la
hipótesis. Por comodidad escribiremos H0 como H0:Me1 = Me2 = ... =Mek
• Metodología en SPSS
Para contrastar H0:Me1 = Me2 = ... =Mek basta examinar la significación en el cuadro Test statistics (SPSS presenta
significación exacta y asintótica si el tamaño global de muestra es grande y en este caso usar la exacta) para ver si
se rechaza H0 o no.
Este contraste se apoya en la aproximación de la distribución binomial a la normal, por lo que sólo debe usarse si
ni ≥ 5. En caso contrario hay que usar “pruebas exactas”.
• Uso
Para ver si una muestra de datos proviene de una distribución normal
• Fundamento
El contraste más aplicado es el Test de Kolmogorov y Smirnov, que se apoya en la comparación de la distribución
acumulativa de la variable de la muestra versus la distribución acumulativa de una distribución normal que tenga la
misma media y varianza que la muestra. Este contraste asume muestras grandes (n > 50 y de preferencia alrededor
de 100 casos), en caso contrario, se aplica la variante de Saphiro y Wilk.
En todos los casos H0 es H0:La distribución en Normal.
Histograma de frecuencias: Si es marcadamente asimétrico hay razón para sospechar falta de normalidad.
Diagrama de Percentiles (Q-Q Plot en SPSS) donde en el eje horizontal van los percentiles de la muestra y en el
eje vertical van los percentiles de la distribución normal Z obtenida una normal de misma media y desviación
estándar que la muestra. Si hay normalidad los puntos deben caer en línea recta o siguiendo la recta, con
algunos puntos arriba y otros debajo de la recta. En caso contrario no hay normalidad.
• Si se compara dos o más grupos, lo mejor es hacer pruebas de normalidad dentro de cada grupo por
separado y no en global.
7. Análisis Factorial
Se usa en Psicometría como una herramienta para verificar la validez conceptual o validez de “constructo” de una
prueba psicométrica, entendiendo “constructo” como un concepto no observable pero sí inferible a través de de la
conducta, se trata de una definición teórica de determinado rasgo psicológico. Para registrar el grado de presencia
del constructo en una persona podemos hacer preguntas a la persona e inferir de sus respuestas la magnitud del
constructo en ella. Esta última alternativa es lo que se llama “definición operacional” del constructo y que se usa
en Psicometría.
Una “Prueba psicométrica” o Test es un conjunto de preguntas organizadas y con opciones de respuesta
predefinidas, construida a partir de un análisis teórico y también de contenido. Las preguntas o ítems son
manifestaciones del constructo
En Estadística:
El constructo se llama “Variable latente”: una variable que es no observable directamente.
Las preguntas o Items que usamos para registrar el constructo, se llaman “Variables Manifiestas”: variables
observables o registrables que se asumen como manifestaciones de la variable latente
Variables:
Los “rasgos psicológicos” que forman el constructo son las Dimensiones o Factores del Test y los Ítems asociados
a estos rasgos.
Los Ítems del test, que sí son observables, son manifestaciones de los factores o dimensiones del test. Los Ítems
son variables dependientes o causadas por los Factores
Ecuaciones:
• Tenemos un test con p preguntas o ítems, cuyas respuestas se codifican generando p variables cuantitativas:
X 1 , X 2 ,..., X p
• En el test hay m dimensiones o factores F1 , F2 ,..., Fm (pueden ser m áreas o aspectos de un mismo rasgo o m
rasgos distintos) que generan las respuestas a las preguntas de modo que hay “proporcionalidad” entre la
magnitud de la dimensión y el valor de la variable (la magnitud de la respuesta).
• Cada ítem o variable X i responde proporcional y principalmente a alguno de los m factores F j
X i = li1 F1 + li 2 F2 + ... + lij F j + ... + lim Fm + ε i donde lij es la constante de proporcionalidad de X i a F j y
la variable (no observable) ε i representa la variación fortuita o de azar. Se trata entonces de un modelo de
regresión, pero con la salvedad que las v.i. F j son no observables.
En forma compacta podemos escribir las ecuaciones que definen la relación de proporcionalidad mediante
m
X i = ∑ lij F j + ε i i = 1,2,..., p
j =1
Las ecuaciones representan matemáticamente las relaciones teóricas entre rasgos (las dimensiones o áreas
del test) y respuestas o conductas asociadas
Supuestos (Axiomas):
(1) F j es variable estandarizada (puntuación Zeta) con media 0 y varianza 1
(2) ε i , el efecto del azar en X i , tiene media 0 pero su porpia varianza V (ε i ) = σ ε2i i = 1,2,..., p . Esto quiere
decir que el efecto de azar es específico para cada variable, el azar no afecta a todas las respuestas del test por
igual. La varianza del azar se llama “varianza específica” y se denota V (ε i ) = ψ i2
(3) Hay independencia entre ε i y cualquier factor F j , de modo que ρ ε i F j = 0
(4) Los factores son independientes {F j } ( ρ F j F j ' = 0 ). Este supuesto no es obligatorio y muchas veces se
levanta. Cuando se asume (4) el modelo se llama Modelo Factorial Ortogonal, en caso contrario, cuando los
factores tienen correlaciones, se llama Modelo Factorial Oblícuo
• En las varianzas:
m m m
V ( X i ) = ∑ (lij ) + V (ε i ) = ∑ (lij ) 2 + ψ i2
2
i = 1,2,..., p . La cantidad ∑ (l ij ) 2 es la varianza del ítem X i
j =1 j =1 j =1
asociada o explicada por los factores comunes a los p ítems y por eso se llama “comunalidad” del ítem X i y se
denota hi2 . Es frecuente que los ítems se estandaricen o pasen a puntuaciones Z de modo que V ( X i ) = 1 y en este
contexto se tiene la ecuación:
m
1 = ∑ (lij ) 2 + ψ i2 = hi2 + ψ i2 = Comunalidad + Varianza específica
j =1
cargas factoriales.
(1) Determinar el número “m” de factores. Esto puede ser identificando o hallando el valor de m (Análisis
exploratorio) o confirmando un valor de m ya conocido o predeterminado (Análisis confirmatorio).
(2) Estimar cada carga factorial lij . Esto implica hallar la correlación entre cada ítem y cada uno de los m
factores, interpretando cada factor a partir de los ítems que correlacionan más con él y midiendo el efecto
factorial tanto en cada ítem (vía la comunalidad) como en el total de ítems de la prueba (vía la suma de
comunalidades)
Nota: Existe otro método más moderno que SPSS no usa, aunque se puede programar para aplicarlo y es el
Análisis paralelo de Horn, que consiste en comparar sucesivamente la varianza de cada factor de la muestra real
con la correspondiente varianza de factores calculados sobre una muestra de números al azar del mismo tamaño y
cantidad de variables de la base de datos: Si un factor de la muestra real tiene varianza mayor que el equivalente de
la muestra de números al azar, entonces es significativo y se toma en cuenta. El proceso se detiene cuando un
factor de la muestra real no supera a su equivalente de la muestra de números al azar.
Cuando hay más de un factor, se aplica la técnica de las “rotaciones”: un recálculo de las cargas factoriales,
que partiendo de las estimaciones iniciales de lij , redistribuye la varianza de cada factor o componente, aunque no
cambia la varianza total. Sabremos que la rotación ha sido exitosa cuando veamos que los ítems asignados a un
factor (por sus cargas factoriales más grandes) conforman un factor fácilmente explicable, o sea, identifican bien a
su respectivo “constructo”
• Oblicuas (no ortogonales):Al girar los ejes, éstos pueden formar un ángulo más o menos cerrado, los factores
resultantes son correlacionados, no son independientes. Los métodos oblicuos de SPSS son:
Oblimin: El más usado dentro de los oblicuos, tiende a formar factores con la mayor correlación pero con
estructura lo más simple (ítems cargados con la menor cantidad de factores).
Promax: Es una combinación de oblimín y varimax de modo que los factores son lo menos correlacionados dentro
de lo posible. Es un método de auge reciente.
Con rotaciones oblícuas, las cargas factoriales lij no coindicen con las correlaciones Item-Factor y se
reportan dos cuadros de resultados:
Las cargas factoriales están en la matriz “Pattern matrix” o “de configuración”. Estos son los coeficientes de
los factores en las variables: se asigna cada variable al factor con mayor carga en valor absoluto.
La matriz de correlaciones ítem-factor llama “Structure matrix” o “Estructura”. Ayuda a interpretar los
factores a partir de los ítems que correlacionan más con él, pero debe tenerse en cuenta que ahora es posible que un
ítem correlacione con más de un factor.
Debemos recordar que los factores siempre se interpretan de modo indirecto, vía las variables más asociadas a
cada factor (aquellas con mayores cargas factoriales) y se suele bautizarlos atribuyéndoles un significado
“promedio” de los significados de dichas variables. Por regla, se considera como asociada a un factor a toda
variable cuya correlación (en valor absoluto) con el factor, pase de un cierto límite o punto de corte. Lo mínimo es
0.3, aunque con este sistema es posible que una variable quede asociada a dos o más factores, por lo que se
recomienda usar un límite más alto, por ejemplo 0.5.
Naturalmente las cargas o correlaciones que uno examina son las obtenidas después de una rotación, si es que
hubo necesidad de hacerla. Si la rotación es oblicua, hay que analizar tanto la matriz de cargas o patrones
(“pattern matrix”) como la de correlaciones o configuración (“structure matrix”).
• De Cálculo agregado, donde los factores se miden promediando o sumando directamente las variables que
están asociadas a él, ya sea como promedio simple o como promedio ponderado (donde la ponderación está
asociada a la carga factorial o es la carga factorial misma). Esto no siempre es posible, si es que las variables
tienen unidades de medida distintas. Se usa mucho en construcción de pruebas o Psicometría.
• Métodos Análíticos, donde los factores se estiman apelando a algún sistema estadístico de regresión, siendo
las estimaciones iniciales de los factores, las componentes principales o cantidades análogas. Los métodos del
SPSS producen factores (factor scores) con media 0 y son:
(a) Regression: Produce factor scores con media cero, que pueden estar correlacionadas.
(b) Anderson: Produce factor scores independientes con media cero y varianza 1 siempre.
(c) Bartlett: Produce factor scores con media cero.
En el caso de pruebas psicométricas no es recomendable dejar que SPSS calcule los factores con alguno
de sus métodos, pues son más bien “ciegos”, pegados a la comodidad estadística y menos a la teoría
psicológica.
Generalized Least Squares: Mínimos cuadrados generalizados. Se caracteriza porque obtiene los factores de
modo que se minimice la diferencia global entre las correlaciones observadas y las reproducidas, privilegiando
aquellas parejas de variables con mayor "efecto factorial". Análogamente al método anterior, se aplica cuando se
conoce el número m de factores y se sabe que hay variables con "efecto" factorial muy disparejo en relación al
resto. Es uno de los que mejor funciona con ítems dicotómicos. También hace una prueba Chi2 de bondad de
ajuste, donde H0: El modelo usado es el adecuado
Maximun Likelihood: Asume normalidad de variables. Adicionalmente permite contrastar la hipótesis de que el
número de factores es una cierta cantidad m predeterminada, mediante un estadístico Chi2 (Chi-square), cuyo
Nivel de Significación debe ser MAYOR que 0.05 para aceptar que hay m factores.
Principal-Axis Factoring: Es una variante de A.C.P., que consiste en aplicar C.P. tomando como varianza inicial
de cada variable, no 1 sino un número menor, para amortiguar la tendencia de C.P. de dar un primer factor con
mucha varianza. Es el segundo método más usado, y también es de tipo exploratorio
Alpha factoring: Calcula los factores de modo que tengan máxima confiabilidad, considerando que las variables
son una muestra de un universo mayor de variables.
En general, el orden de métodos es: 1ero. Componentes ; 2do. Principal-Axis y 3ero. Otros ( Maximun
Likelihood, Unweighted Least Squares, etc ).
8.1 Uso
Cuando tenemos una variable Y cuya evolución queremos seguir en un grupo de participantes, en diversas oca-
siones, cada una de las cuales suele estar en un contexto específico o tratamiento (este conjunto de contextos o
repeticiones se llama “factor intrasujetos”). También puede ser cuando tenemos k variables respuesta Y1, Y2,…,Yk
medidas en los mismos participantes y que son comparables entre ellas (o sea están en la misma escala).
Se desea ver si las medias o las medianas (según el caso) de las k variables son iguales o si difieren, quizá con un
patrón de evolución o “tendencia” característica.
Además hay algunos otros factores cuyo efecto en esa evolución o “tendencia” se quiere identificar. El análisis se
llama de “análisis de medidas repetidas” porque cada individuo es medido sucesivas veces, o sea se repite la
medición de Y en cada participante k veces y por tanto los datos están correlacionados.
Si la variable Y es ordinal o no tiene distribución normal, la prueba más usada es el Test o Prueba de
Friedman, que compara las k medianas de las muestras relacionadas. Es una prueba o test “ómnibus” y de ser
significativa, los contrastes específicos siguientes son sucesivas pruebas T de Wilcoxon por pares o pruebas U de
Mann-Whitney
Metodología en SPSS
Para contrastar H0:Me1=Me2=…=Mek
• Digitar la base con los datos de cada participante en cada variable del grupo Y1, Y2, …,Yk de mediciones, en
un columnas diferentes. Si hubiera otras variables como factores, éstas van como identificadoras de cada grupo
en una columna por factor.
• Aplicar la secuencia de comandos:
Analizar⇒ ⇒Pruebas no paramétricas ⇒ Cuadros de diálogo antiguos→ → k muestras relacionadas→ →
Variables de prueba: Pasar las variables Y1, Y2,…, Yk → →Opciones: Estadísticos: check en Descriptivos
y en Cuartiles → Continuar→ →Exact→ →check en Exact→ →Continuar→ →Aceptar.
• Examinar la significación en el cuadro Estadísticos de contraste (de preferencia la significación exacta, la
asintótica sólo si el tamaño global de muestra es grande e impide obtener la exacta) para ver si se rechaza H0 o
8.3 Caso paramétrico: Análisis de varianza de medidas repetidas con distribución normal
Bajo el supuesto de normalidad, con este modelo podemos analizar el efecto (los cambios) del factor repeticiones o
“intra-sujetos” asociado a las k mediciones Y1, Y2,…,Yk de una variable Y observada en k situaciones distintas (o
de k variables Y1, Y2,…,Yk comparables) en los mismos n casos. Adicionalmente se estudia el efecto de los niveles
de otros factores inter-sujetos A, B, etc., es decir que las correspondientes combinaciones AiBj se aplican a grupos
distintos e independientes de casos.
Este diseño requiere menos casos que un diseño de ANOVA factorial y controla mejor la variación al azar entre
sujetos pero al precio de tener que controlar el efecto de posible “contaminación” por repeticiones, esto es que
como son los mismos participantes, además de las diferencias ocasionadas por los contextos hay una diferencia
generada por el aprendizaje o el efecto residual de la medición anterior, entre dos mediciones consecutivas.
Supuestos
Además de los supuestos del ANOVA se asumirá que las varianzas de las diferencias entre las mediciones intra-
sujetos son iguales y que lo mismo sucede con sus correlaciones (“esfericidad”). SPSS verifica este supuesto con
el Test W de Mauchly: Si se rechaza la hipótesis de esfericidad, SPSS hace una corrección en el estadístico F del
análisis al presentar el Análisis de varianza del contraste de diferencias entre repeticiones Y1, Y2,…,Yk. Presenta
dos correcciones de F: la de Greenhouse-Geisser y la de Huynh-Feldt, junto con los correspondientes contrastes.
La de Greenhouse-Geisser es más conservadora y es la que usaremos.
Metodología en SPSS
• Digitar la base con los datos de cada participante en cada variable del grupo Y1, Y2, …,Yk de mediciones, en
un columnas diferentes. Si hubiera otras variables como factores, éstas van como identificadoras de cada grupo
en una columna por factor.
• Aplicar la secuencia básica de comandos es:
Analizar⇒ ⇒Modelo lineal general⇒ ⇒Medidas repetidas→ →Nombre del factor intra-sujetos: reemplazar el
nombre factor1 por uno más específico si se desea→ →Número de niveles: poner el número k de
repeticiones→→Añadir→ →Definir→ → Variables intra-sujetos: Pasar las sucesivas mediciones Y1,…,Yk→
Factores inter-sujetos: Pasar los factores inter-sujetos→ →Opciones: check en Estadísticos descriptivos→ →
Continuar→ → Gráficos: Eje horizontal axis: poner el factor intra-sujetos; Líneas separadas: poner un
factor inter-sujetos → Añadir→ → Continuar→ → Aceptar.
• Examinar la significación en la tabla Prueba de esfericidad de Mauchlyb para ver si se cumple el supuesto de
homogeneidad de varianzas y correlaciones (“esfericidad”). La hipótesis nula H0 es que sí se cumple el supues-
to:
Si no se rechaza H0 (la esfericidad) pasar a la tabla Pruebas de efectos intra-sujetos y ver las significación del
factor intra-sujetos (y la de interacciones con factor inter-sujeto si lo hubiera) asumiendo esfericidad
Si se rechaza la hipótesis H0 de esfericidad, ver las significación del factor intra-sujetos (y la de interacciones
con factor inter-sujeto si lo hubiera) usando la prueba de Greenhouse-Geisser.
• Si hubiera hipótesis de tendencias lineal, cuadrática o cúbica en la evolución de los sujetos, examinar la tabla
Pruebas de contrastes intra-sujetos (factor intra-sujeto) y ver las significaciones para saber cuáles tendencias se
presentan y si cambian con los niveles del factor inter-sujeto. Apoyarse en las estadísticas y gráfico para
interpretar mejor, de ser necesario.
• Para evaluar el o los factores inter-sujetos examinar las significaciones tabla Pruebas de los efectos inter-
sujetos. Pero si ha habido interacción con el factor inter-sujeto, esto último es lo importante.