Está en la página 1de 14

BREVE GUÍA DE PROCEDIMIENTOS PARA EXPLORAR VALIDEZ Y

CONFIABILIDAD DE CUESTIONARIOS. APLICACIONES CON SPSS 11.0

Héctor Mora Nawrath

Esta breve guía incorpora las pruebas más usadas asociadas a la exploración de validez de
constructo y fiabilidad de incorpora el software spss 11.0. La idea es definir y graficar como dichas
pruebas pueden ser puestas en marcha en una investigación. Para practicar, utilice el archivo
Ev_docente.sav

Exploración de Validez y fiabilidad

I Validez

• Perspectiva clásica: grado en que un instrumento mide realmente lo que quiere medir.
• Grado en que una medición concuerda con un referente (énfasis en resultado, no en
instrumento).
• Se infiere la relación entre el concepto y el indicador; se busca el control de errores
sistemáticos (inexactitud debido a imperfecciones en instrumento, irregularidades durante
las mediciones o a los efectos de la operación misma de medida), y logro de representación
adecuada del concepto.
• Busca analizar un constructo para visualizar las distintas dimensiones que componen un
concepto (AF), mediante la identificación de propiedades o variables latentes –factores-;
cada factor es representado por los indicadores que alcanzan mayores correlaciones.
• Es un proceso que acumula evidencia empírica con el objetivo de establecer la pertinencia
en la medición de un concepto o constructo teórico, esto, a partir de inferencias o
interpretaciones que se elaboran con base en las puntuaciones obtenidas en una prueba.
• Debe contar con un referente teórico que especifique las relaciones entre el rasgo latente o
constructo y los elementos e indicadores específicos que dan cuenta de este.
• Requiere: homogeneidad (relación recíproca entre los indicadores de un constructo);
unidimensionalidad (un conjunto de ítems o indicadores mide sólo una dimensión);
convergencia (diferentes medidas de un concepto o ítem proporciona resultados
semejantes); divergencia (muestra bajos niveles de correlación con conceptos diferentes o
ítems).

2 Análisis factorial para la validez del constructo

2.1 Definición

• Conjunto de diversos procedimientos técnicos para el estudio de la relación de


interdependencia entre un conjunto de variables con la finalidad de agruparlas en función
de la “variabilidad compartida”; descubrir las estructuras subyacentes (factores),
dimensiones o conceptos latentes, cumpliendo la finalidad de resumir y reducir los datos.
• Hace posible definir la dimensionalidad de un constructo y presentar evidencias para
seleccionar los ítems o indicadores que se ajusten mejor a estas (factores).
• Permite determinar cuántos factores (dimensiones) se necesitan para explicar las
correlaciones que se dan entre el conjunto de puntuaciones (indicadores).
• Es útil si evaluamos la multidimensionalidad de un constructo, ya que permite una
exploración empírica, considerando que el objetivo es seleccionar aquellos ítems que
correlacionan mayor con el conjunto de ítems que están midiendo el constructo.
2.2 Objetivos

• Estructura latente: se logra a través de la síntesis de la información de “p” variables


observadas (indicadores), con la menor pérdida de información en un número inferior de
variables “K” no observadas (factores comunes o componentes principales).
• Modelo parsimonioso e interpretable: la solución factorial ha de ser sencilla, compuesta
por el menor número de factores, los cuales deben ser estadísticamente significativos y
susceptibles de interpretación.
• La obtención de puntuaciones factoriales, variables típicas o sucedáneas, para cada factor,
las que actúan como representación de los factores o componentes en análisis posteriores.

2.3 Análisis a considerar

2.3.1 Análisis de Componentes principales (ACP):

• Busca las combinaciones de “p” variables observadas (o indicadores) en un número


sustancialmente inferior de “k” variables latentes (o no observadas)… [para] reducir la
dimensionalidad de la serie de variables originales, pero conservando la mayor parte de la
información proporcionada por las variables observadas.
• Pueden ser extraídos tantos componentes como variables observadas, lo que permitiría
explicar toda la variabilidad en las variables originales; esto vulneraría el principio base en
la prueba: parsimonia, es decir, la reducción y simplificación para la interpretabilidad.
2.3.2 Rotación de la matriz:

• Implica girar en el origen los ejes de referencia de los factores hasta alcanzar una posición
determinada de las variables empíricas. El efecto de la rotación es redistribuir la varianza
de los primeros factores a los últimos para lograr un patrón de factores más simples y
teóricamente más significativos, para lo cual existen dos tipos: la ortogonal y la oblicua. La
finalidad de cualquier rotación es simplificar las filas y las columnas de la matriz de
factores para facilitar su interpretación. En dicha matriz, los componentes son
representados por las columnas y las filas dan cuenta de las cargas de las variables para
cada uno de estos.
• La rotación: La ortogonal consiste en que los ejes se mantengan formando un ángulo de
90°, lo que produce que todo componente sea independiente de los demás, en tanto se
mantienen perpendiculares entre sí. Estas rotaciones son adecuadas cuando el objetivo del
analista es reducir la información y que los factores no se encuentren correlacionados; La
oblicua permite que los ejes puedan tomar cualquier posición en el espacio factorial, de
manera que los hiperplanos se coloquen oblicuos los unos a los otros, lo que permite la
existencia de correlaciones entre los factores o componentes, siendo el coseno del ángulo
entre los ejes factoriales el indicativo de correlación. Es una rotación adecuada cuando se
busca la exploración de dimensiones latentes intercorrelacionadas.
• La simplificación de filas, se busca aproximar a cero tantos valores como sea posible
(maximizar la carga de una variable sobre un único factor;
• La simplificación de las columnas busca aproximar a cero tantos valores como sea posible
(que las cargas altas sea la menor posible). Rotaciones ortogonales que buscan dichos
objetivos: quartimax, equimax y varimax.

2.3.3 Varimax, rotación más adecuada para explorar validez:

• Busca simplificar las columnas de la matriz, alcanzando la máxima simplificación posible


al minimizar el número de variables que tienen cargas altas en un factor o componente,
maximizando la suma de las varianzas de las cargas factoriales dentro el factor, dejando
por cada columna cantidades próximas a 1 (entre -1 y +1) o a 0.
• Permite una separación más clara entre factores, y el patrón factorial resulta más robusto
cuando se analizan diferentes subconjuntos de variables, demostrando ser más eficiente en
el logro de la rotación ortogonal.
2.3.4 Requisitos y supuestos

2.3.4.1 Matriz de datos

• Histograma para observar la distribución de frecuencia de cada variable (explorar la


normalidad).
• Gráficos de dispersión: apreciar la relación entre dos o más variables, donde el
posicionamiento de los puntos a lo largo de una recta permite ver la existencia de
linealidad (constatar si la nube de puntos es aleatoria y dispersa).
• Las cajas o boxplot: observar la existencia de diferencias entre grupos, si es que se busca
constatar la existencia de dos o más grupos en una variable.
• Trabajo de depuración de la tabla de datos (datos ausentes); buscar la información,
suprimir a los individuos o variables que presentan ausencia de información.
• Se pueden estimar los valores ausentes considerando relaciones conocidas entre valores de
otras variables o la ponderación de valores de un conjunto de variables relacionada para
crear el valor sustituto.
• Casos que no siguen el mismo comportamiento o tendencia expresada por el conjunto. La
detección de casos atípicos se observa en aquellos que caen fuera de los rangos de la
distribución (gráfico de dispersión para pares de variables).

2.3.4.2 Linealidad y correlaciones

• Los coeficientes de correlación entre pares de variables han de ser lineales, para de este
modo obtener una buena representación al ejecutar los modelos utilizando esta técnica. Se
asume que las relaciones entre las variables observadas y los factores latentes,
representadas en un sistema de ecuaciones, han de ser también lineales.
• La manera de detectar la linealidad puede proceder a través de gráficos de dispersión,
gráficos de regresión parcial o gráficos de residuos.
• Los análisis factoriales son pertinentes cuando la correlación entre variables se encuentra
sobre ,2 (algunos autores señalan .3). Niveles inferiores en la matriz de correlación R entre
los ítems o variables, debería desestimar su utilización. Frente a incorrelación, carece de
sentido la búsqueda de estructuras latentes que agrupen a variables observadas como
expresiones de una misma dimensión o concepto.
Pruebas a utilizar.

Correlación bivariada: Explorar la correlación entre parase de variables para determinar la fuerza
con que se vinculan entre sí.

El índice de Kaiser-Meyer-Olkin (KMO): Es útil para comparar las magnitudes de los


coeficientes de correlación general o simple con respecto a las magnitudes de los coeficientes de
correlación parciales. Mide la correlación entre dos variables una vez que se han descontado los
efectos lineales de otras variables, donde, en un modelo factorial, se interpretan los efectos de otras
variables como los correspondientes a factores comunes. Si se obtienen valores bajos con el índice
KMO, entonces indica que las correlaciones entre pares de variables no pueden ser explicadas por
las otras variables y, por lo tanto, no es factible llevar a cabo el análisis factorial (valores extremos
entre .5 y 1).

Test de Barlett: Se usa para comprobar que la matriz de correlaciones no es una matriz identidad;
estima la intercorrelación a partir de una transformación del determinante de la matriz. Si las
variables no están intercorrelacionadas, entonces el test de esfericidad de Bartlett debe presentar un
valor superior al límite de .05.

KMO y prueba de Bartlett


Medida de adecuación muestral de
Kaiser-Meyer-Olkin. ,710

Prueba de esfericidad Chi-cuadrado


1032,201
de Bartlett aproximado
gl 406
Sig. ,000

Este procedimiento establece que efectivamente existen correlaciones suficientes entre variables,
arrojando como resultado un p < .05 (p = .00).
2 Interpretación de la matriz

• La matriz factorial es una reproducción simplificada de la matriz de correlaciones inicial,


donde cada componente o factor (j) está representado por una columna, las filas
representan las variables y los lij se consideran como los coeficientes de correlación en
situación de ortogonalidad entre los componentes –es decir, de no correlación entre estos-.
• Es de esperar que, para el desarrollo correcto de la prueba, existan componentes que se
encuentren saturados por un cierto número de variables, lo que implica que los coeficientes
factoriales equivalen a correlaciones de cada variable Xi con cada factor o componente j.
• Para la selección del número de componentes a retener en el modelo se deben considerar):
que existan un número reducido de factores –no superior a la mitad del número de
variables o indicadores-; que los componentes sean significativos e interpretables.
• Para cumplir con esto, existen cinco procedimientos complementarios: autovalores,
varianza atribuible a cada factor, gráfico de sedimentación e interpretabilidad.

2.1 Autovalores y comunalidades

2.1.1 Autovalores

• Es la cantidad de varianza explicada para cada componente principal o suma de los


cuadrados de los pesos de cualquier columna de la matriz.
• Su tamaño permite describir la dispersión de los datos o puntuaciones en el espacio
multivariables, donde se incluye un eje para cada variable observada.
• El punto de corte que se fija en ACP es 1, donde todo componente que presente valores
mayores deberá ser incluido en el modelo factorial, ya que valores inferiores significarían
que no logran explicar la varianza de una variable.
• Autovalores se calculan a partir de la suma de los cuadrados de los coeficientes factoriales
lij de cada variable empírica en el factor, lo que dividido por el total de variables y
multiplicado por 100 da cuenta de la varianza total de los datos para ese factor (varianza
total explicada por el componente).
• Al estar estandarizadas, el valor de las variables es igual 1, donde la suma de los
autovalores de todas las variables observadas será igual al número total de variables, y su
promedio igual a 1.
• Si dividimos el valor propio entre el número de variables nos indica la proporción (tanto
por ciento si multiplicamos por 100) de las varianza de las variables que explica el factor.
• Las cargas factoriales pueden tener como valor máximo 1, por tanto el valor máximo que
puede alcanzar el valor propio es igual al número de variables.
Varianza total explicada

Sumas de las saturaciones al cuadrado Suma de las saturaciones al cuadrado


Autovalores iniciales de la extracción de la rotación
% de la % de la % de la
Componente Total varianza % acumulado Total varianza % acumulado Total varianza % acumulado
1 11,190 41,443 41,443 11,190 41,443 41,443 4,673 17,307 17,307
2 2,365 8,758 50,201 2,365 8,758 50,201 4,531 16,783 34,090
3 2,007 7,433 57,634 2,007 7,433 57,634 2,733 10,121 44,211
4 1,469 5,439 63,073 1,469 5,439 63,073 2,661 9,857 54,068
5 1,347 4,988 68,061 1,347 4,988 68,061 2,590 9,591 63,659
6 1,138 4,213 72,275 1,138 4,213 72,275 2,326 8,616 72,275
7 ,946 3,503 75,778
8 ,829 3,070 78,847
9 ,768 2,846 81,693
10 ,694 2,571 84,264
11 ,619 2,292 86,556
12 ,583 2,158 88,714
13 ,545 2,019 90,733
14 ,442 1,639 92,372
15 ,388 1,438 93,810
16 ,305 1,128 94,939
17 ,295 1,093 96,031
18 ,234 ,867 96,898
19 ,187 ,692 97,590
20 ,167 ,618 98,208
21 ,121 ,449 98,657
22 ,103 ,381 99,038
23 8,307E-02 ,308 99,346
24 7,146E-02 ,265 99,611
25 5,310E-02 ,197 99,807
26 3,636E-02 ,135 99,942
27 1,564E-02 5,791E-02 100,000
Método de extracción: Análisis de Componentes principales.

Gráfica de sedimentación

• Es utilizado para determinar el número de factores a retener. Toma como referencia un


gráfico en el cual se representan los autovalores que corresponden a cada factor en el eje
vertical, y los componentes según su orden de extracción en el horizontal, donde la
conjunción de ambos da como resultado una curva decreciente que conecta las
puntuaciones.
• Para Hair et. al. (1999) existe otro criterio, el que denomina a priori, y que consiste en que
el investigador predetermina teóricamente el número de factores que debe retener antes del
análisis, y entrega la instrucción al computador para que detenga el análisis cuando se
logren los factores deseados.

Gráfico de sedimentación
12

10

4
Autovalor

0
1 3 5 7 9 11 13 15 17 19 21 23 25 27

Número de componente
2.1.2 Comunalidades

• Comunalidades se obtienen a través de la suma de lij2 para cada variable en los respectivos
factores o componentes (h2= l21j+l22j+...+ l2kj) y representa la proporción de varianza da
cada variable Xi que es explicada por los factores o componentes en el modelo. Cuando
estamos en presencia de comunalidades próximas a .0, quiere decir que las variables no han
quedado bien definidas en el modelo.

Una primera interpretación se desprende del examen de la tabla de comunalidades, la que expone la
proporción de varianza de cada variable o ítem explicada por el conjunto de factores comunes,
donde a mayor sea la cantidad de comunalidades cercanas a 1, mejor será la calidad de ajuste del
modelo.

Comunalidades

Inicial Extracción
DID Facilita comprensión de contenidos 1,000 ,698
DID Prepara clases y domina contenidos 1,000 ,692
DID Fomento del aprendizaje 1,000 ,689
DID Tiempo para aclarar contenidos 1,000 ,528
DID Ejercicios y lecturas acorde con contenidos 1,000 ,695
DID Resumenes al concluir clases 1,000 ,839
DID Uso de resultados para comprensión de contenidos 1,000 ,739
DID Información e ideas actualizada 1,000 ,751
DID Usa recursos didácticos como apoyo 1,000 ,713
DID Expone contenidos de manera coherente y ordenada 1,000 ,822
DID Facilita la comprensión de los contenidos del curso con ejemplos
1,000 ,718
claros
PER Puntualidad al incio y término del horario 1,000 ,710
PER Cumple con los compromisos académicos en los plazos
1,000 ,666
estiados
PER Se interesa porque los estudiantes tengan una buena
1,000 ,736
comprensión de la materia
PER Acepta críticas y comentarios efectuados por los alumnos 1,000 ,803
PER Responde cortesmente cuando se le plantean preguntas 1,000 ,702
PER Mantiene buenas relaciones con los estudiantes 1,000 ,774
PER Califica a los alumnos con criterios claros y objetivos 1,000 ,822
MOT Fomenta el interés de los alumnos por los temas tratados 1,000 ,650
MOT Estimula el mejoramiento del rendimiento de los estudiantes 1,000 ,823
MOT Promueve la reflexión y participación en clase 1,000 ,802
MOT Motiva a los estudiantes a profundizar sobre las materias 1,000 ,820
OR Disponibilidad horario consultas fijados 1,000 ,684
OR Demuestra una actitud hacia el diálogo con los alumnos 1,000 ,797
OR Orienta académicamente al alumno, cada vez que este lo requiere 1,000 ,625
OR Fomenta el trabajo en equipo 1,000 ,516
OR Asigna con claridad los contenidos y condiciones de trabajos y
1,000 ,700
evaluciones
Método de extracción: Análisis de Componentes principales.

2.1.3 Cargas factoriales:

Es cuanto determina la variable a la conformación de un factor o dimensión; mientras más elevada


sea la carga, mayor peso tiene en la interpretación del modelo. Las cargas factoriales menores a .3
están en el nivel mínimo y las sobre .5, están en un nivel significativo. Dado que la carga
representa la correlación entre la variable y el factor, el cuadrado de la carga representa la
proporción de varianza total de la variable de la que da cuenta el factor. Cuando una carga es de .3,
explica el 10%; si una carga es de .5, quiere decir que el 25% de la varianza que se atribuye al
factor.
Matriz de componentes rotadosa

Componente
1 2 3 4 5 6
DID Facilita comprensión de contenidos ,175 ,191 5,138E-02 ,773 ,173 1,294E-02
DID Prepara clases y domina contenidos ,329 ,143 ,123 ,655 ,245 ,244
DID Fomento del aprendizaje ,407 ,600 ,232 ,221 ,172 ,178
DID Tiempo para aclarar contenidos ,176 ,414 ,154 ,235 ,296 ,400
DID Ejercicios y lecturas acorde con contenidos 4,875E-02 2,513E-02 4,492E-02 ,824 -8,63E-02 5,902E-02
DID Resumenes al concluir clases ,216 ,112 -,165 ,183 ,845 7,675E-02
DID Uso de resultados para comprensión de contenidos 3,760E-02 ,210 ,355 -3,75E-03 ,746 -,104
DID Información e ideas actualizada ,165 ,135 ,659 ,400 ,276 ,188
DID Usa recursos didácticos como apoyo ,185 ,108 ,816 8,581E-04 -1,82E-02 2,765E-02
DID Expone contenidos de manera coherente y ordenada ,641 ,282 6,803E-02 ,226 1,556E-02 ,526
DID Facilita la comprensión de los contenidos del curso con ejemplos claros ,563 ,191 ,418 ,348 ,208 ,160
PER Puntualidad al incio y término del horario -2,55E-02 ,185 -,150 ,171 -4,48E-02 ,788
PER Cumple con los compromisos académicos en los plazos estiados ,636 ,198 ,290 ,329 3,834E-02 -,167
PER Se interesa porque los estudiantes tengan una buena comprensión de la materia ,487 ,512 ,122 ,149 ,415 ,167
PER Acepta críticas y comentarios efectuados por los alumnos ,574 ,567 ,155 8,446E-02 ,164 ,306
PER Responde cortesmente cuando se le plantean preguntas ,707 ,340 -,143 8,134E-02 7,728E-02 ,230
PER Mantiene buenas relaciones con los estudiantes ,734 ,359 -1,48E-02 4,812E-02 ,108 ,304
PER Califica a los alumnos con criterios claros y objetivos ,710 -5,74E-02 ,312 ,154 ,438 -1,88E-02
MOT Fomenta el interés de los alumnos por los temas tratados ,248 ,259 ,363 5,626E-02 ,567 ,255
MOT Estimula el mejoramiento del rendimiento de los estudiantes -7,54E-02 ,450 ,749 7,488E-02 ,190 -,107
MOT Promueve la reflexión y participación en clase ,166 ,834 ,254 4,576E-02 2,453E-02 ,107
MOT Motiva a los estudiantes a profundizar sobre las materias 2,266E-03 ,878 6,773E-02 8,150E-02 ,186 -6,18E-02
OR Disponibilidad horario consultas fijados ,353 2,629E-02 ,247 -8,84E-02 9,469E-02 ,693
OR Demuestra una actitud hacia el diálogo con los alumnos ,452 ,696 ,111 2,745E-02 4,116E-02 ,305
OR Orienta académicamente al alumno, cada vez que este lo requiere ,378 ,547 -1,10E-02 ,160 ,181 ,353
OR Fomenta el trabajo en equipo ,323 ,539 ,215 ,233 ,113 8,574E-02
OR Asigna con claridad los contenidos y condiciones de trabajos y evaluciones ,559 ,152 ,240 ,424 ,352 -4,97E-02

Método de extracción: Análisis de componentes principales.


Método de rotación: Normalización Varimax con Kaiser.
a. La rotación ha convergido en 13 iteraciones.
II Fiabilidad

• Puede definirse como el grado de precisión que una medición ofrece; para ser fiable, una
escala debe tener la capacidad de exhibir resultados consistentes en mediciones sucesivas
del mismo fenómeno.
• Puede determinarse mediante un coeficiente de confiabilidad, el cual corresponde a un
índice, que bajo la forma de proporción, da cuenta de la razón entre la varianza de la
puntuación verdadera de la escala y la varianza total.
• Tiene como objetivo determinar, probablísticamente, el grado de variación atribuible a
errores aleatorios o causales no vinculados a la construcción del instrumento. Garantiza la
consistencia expresada en la determinación del grado de error contenido en la aplicación de
una escala, y por tanto, en la medición del fenómeno.
• El error puede ser entendido como el componente de la puntuación observada en la
medición que no se relaciona con la capacidad que posee quien la responde. Siendo X una
puntuación observada, T una puntuación verdadera y E el error, el hecho de que una
puntuación observada sea igual a la puntuación verdadera más el error puede expresarse
como: X= T + E

1 Fiabilidad como consistencia Interna

• Determina la fiabilidad de las puntuaciones obtenidas a través de una sola administración


del test.
• Generaliza las puntuaciones respecto de un dominio o conjunto de ítems y observar si los
sujetos responden consistentemente a lo largo del conjunto de ítems utilizados.
• Estos procedimientos operan considerando las correlaciones entre diversas partes del test,
para lo cual existen dos caminos, la división en dos mitades y la consideración del universo
de ítems.
1.1 Dos mitades

• Asignación aleatoria de los ítems a una u otra mitad.


• Elección de elementos pares e impares, denominada mitad pares-mitad nones, existiendo
además la posibilidad de incluir en la primera mitad los primero ítems y en la segunda
mitad los restantes.
• Igualar las dos mitades considerando la dificultad de los ítems, la cual se define dividiendo
para cada elemento el número total de sujetos que los resolvieron correctamente por
aquellos que lo intentaron.

R E L I A B I L I T Y A N A L Y S I S - S C A L E (S P L I T)

Reliability Coefficients

N of Cases = 45,0 N of Items = 27

Correlation between forms = ,8405 Equal-length Spearman-Brown = ,9133

Guttman Split-half = ,9133 Unequal-length Spearman-Brown = ,9134

14 Items in part 1 13 Items in part 2

Alpha for part 1 = ,8769 Alpha for part 2 = ,9042

1.2 Universo de ítems.

• El coeficiente indica si una puntuación observada (muestra de ítems) estima bien la


puntuación verdadera (universo), considera un número indefinido de pruebas paralelas
representadas aleatoriamente por cada ítem o indicador.
• La diferencia que existe con las pruebas paralelas es que en éstas todos los ítems o
indicadores tienen idéntica varianza e idéntica correlación con el total de dominios de
ítems.
• Una población de ítems que pertenece al dominio, dimensión o constructo que se busca
medir (hipotéticamente infinita),
• Cualquier instrumento se compone por una muestra de k ítems, los que han sido colectados
de forma aleatoria del conjunto hipotético,
• Las puntuaciones verdaderas de un sujeto son las que se obtendrían si respondiera a todos
los ítems de la población, (observada equivalen a muestra de ítems).
• Las punt. observadas pueden ser fiables en la medida que alcance correlaciones altas con la
puntuación verdadera (k ítems tienen una correlación alta con el instrumento).
• Supone la existencia de una matriz de correlaciones entre todos los ítems del universo
hipotético.
• Las correlaciones de cada ítem con todos los demás deben ser iguales.

1.2.1 Alpha de Cronbach

• Supone que la proporción de la varianza verdadera (fiabilidad) es igual a la varianza


compartida dividida por la varianza total. La varianza verdadera queda definida
operativamente por la suma de las co-varianzas, por lo que discriminan los ítems
precisamente por estar relacionados unos con otros.
• El grado de relación alcanzado es lo que corresponde a la consistencia interna, indicando
en qué proporción discriminan los ítems al estar vinculados entre sí (una gran co-variación
es indicativa de relación entre ítems).
• Un test será poco fiable, si una porción de la varianza se origina debido a que los ítems son
distintos.
• Alcanza valores positivos comprendidos entre 0 y 1, donde 0 indica ausencia total de
consistencia interna, y 1, la redundancia total entre los ítems.
• Nunnally (1995) proponen valores entre 0,75 y 0,9; Cea D’Ancona (1998), no inferiores a
0,8. Peterson (1994) considera como mínimo 0,7 para investigaciones preliminares y 0,8
para investigaciones básicas. Morales et. al. (2003), en 0,5 si es una investigación básica y
sobre 0,85 si es una investigación diagnóstica o intervención.
• Se recomienda valores no inferiores a 0,8 para garantizar que el error típico de la medición
no sea muy alto. El procedimiento para determinar la contribución del ítem a la escala es
relativamente simple; se calcula el coeficiente alpha de toda la escala, donde se excluye un
ítem de los cálculos (el que se desea analizar).
R E L I A B I L I T Y A N A L Y S I S - S C A L E (A L P H A)

Item-total Statistics

Scale Scale Corrected


Mean Variance Item- Alpha
if Item if Item Total if Item
Deleted Deleted Correlation Deleted

E13_D 99,7778 226,8131 ,4962 ,9384


E14_D 99,2889 222,2101 ,6346 ,9366
E15_D 99,7556 216,8253 ,7713 ,9347
E16_D 99,6444 222,5525 ,6138 ,9369
E17_D 99,0889 232,9919 ,2857 ,9407
E18_D 100,0000 227,0000 ,4590 ,9389
E19_D 100,3111 227,7646 ,4422 ,9391
E20_D 99,5556 222,4798 ,6306 ,9367
E21_D 100,0444 227,3616 ,3887 ,9402
E26_D 99,3111 223,6737 ,7163 ,9360
E31_D 99,5333 220,9818 ,7544 ,9353
E22_P 99,0444 233,8162 ,2590 ,9410
E27_P 99,2222 225,9949 ,5970 ,9372
E28_P 99,3111 220,7646 ,7856 ,9350
E29_P 99,5333 218,0273 ,8002 ,9345
E30_P 98,8889 227,7828 ,6004 ,9373
E32_P 98,8889 225,9192 ,6886 ,9365
E33_P 99,7333 219,9727 ,6214 ,9369
E34_M 99,6889 222,4010 ,6489 ,9365
E35_M 99,7333 228,3818 ,4689 ,9386
E36_M 99,3556 223,7343 ,6235 ,9368
E37_M 99,6222 226,1495 ,5175 ,9381
E25_O 99,6667 225,9545 ,4449 ,9393
E38_O 99,2222 220,6313 ,7247 ,9356
E39_O 99,2667 222,9727 ,6735 ,9363
E40_O 98,9333 224,7000 ,6404 ,9367
E41_O 99,6667 220,1818 ,6787 ,9361

Reliability Coefficients

N of Cases = 45,0 N of Items = 27

Alpha = ,9395

Correlación ítem-total

• Esta prueba tiene por objetivo correlacionar cada ítem con la suma de todos aquellos que
conforman la escala (menos el ítem a correlacionar), lo que nos lleva a detectar si existe
relación entre la puntuación alta en un ítem y puntuaciones altas en el resto de la escala.
• La existencia de correlación ésta dada por un coeficiente distinto de 0, pudiendo asumir
valores positivos o negativos, y cuyos extremos son -1 y 1. La proximidad a estos puntos –
y lejanía de 0- determina la fuerza en la correlación, la que va desde las débiles (entre 1 a
2,5 o -2,5 a -1), a las medias (0,5 a 0,75 y -0,75 a -0,5) y a las fuertes (sobre 0,75 a 1 y -1 a
0,75), donde 1 y -1 corresponden a correlaciones perfectas.
• El supuesto es que los ítems que alcanzan una mayor correlación son los que comparten
más características con los demás, y por ende, estarían midiendo el mismo rasgo o
dimensión del fenómeno.
• Pueden ser suprimidos todos aquellos ítems con bajas correlaciones.
• Si un ítem es consistente con el resto de la escala, la correlación entre las puntuaciones que
las personas han dado al ítem debería concordar con las que ha dado al resto de los ítems,
de tal manera que la correlación –de signo positivo- entre el ítem analizado y la suma de
los restantes debería ser al menos moderada.

(el test se ejecuta junto a alpha de Cronbach, cuarta columna)

También podría gustarte