Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2. Según el modelo psicométrico, tests analizados desde la TCT y desde la TRI. Ambos
modelos pueden aplicarse a las puntuaciones de un mismo test.
4. Según el modo de interpretar las puntuaciones hablamos de tests referidos a normas (la
interpretación se realiza mediante un baremo obtenido en un grupo normativo) y tests
referidos al criterio (la interpretación se refiere al rendimiento individual conseguido
por una persona en relación a unos criterios o dominios establecidos de antemano). Cabe
interpretar desde ambas perspectivas el rendimiento en el mismo test.
1
Teoría Clásica de los Test (TCT)
Después de que los ítems son construidos y aplicados a los sujetos, hay que relacionar las
respuestas con el constructo que los inspiró. Es de decir, hay que obtener alguna forma de
puntuación en el constructo. Esta relación se establece por medio del denominado
«modelo de medida». Los modelos de medida de uso extendido en la psicometría
responden básicamente a dos formas:
Los que ponen el acento en la puntuación total obtenida a partir del conjunto de
ítems, que se basan en alguna forma de agregación de las puntuaciones de los
ítems, normalmente mediante su suma o suma ponderada. Esta aproximación es
denominada por Wilson (2005) la teoría simple de la puntuación. El modelo que la
justifica es la denominada Teoría Clásica de los Tests (TCT) y alguna de sus
extensiones, como la Teoría de la Generalizabilidad (TG).
Los que ponen el acento en los ítems considerados individualmente, y en los
patrones de respuesta. Hay diferente smodelos agrupados de forma general bajo la
denominación de Teoría de la Respuesta al Ítem.
La TCT fue formulada por Spearman (1904) casi en su totalidad. El modelo parte de que
las respuestas dadas a los ítems del test se combinan en una única puntuación total Xi para
cada sujeto i. La formalización de la relación de esta puntuación con el constructo se
refleja en el siguiente modelo:
Hay qué decidir qué, a quién y para qué se va a usar el test. Hay que pensar las
dimensiones para ver cuántas puntuaciones vamos a tener.
¿Haremos un test nuevo o una adaptación? La adaptación se llevará a cabo cuando el test
ha demostrado su utilidad en otros contextos culturales y lingüisticos; esto es
especialmente importante en estudios o aplicaciones psicológicas o educativas
internacionales (ej. Examen PISA).
2
2. Construcción provisional
Se recomienda que se elaboren el doble de ítems de los que se piensa que debería tener el
test.
Hay que elegir el formato de los ítems dependiendo si es un test de rendimiento óptimo o
típico.
4. Análisis de ítems
Con análisis de ítems nos referimos a los procedimientos dirigidos a extraer información
sobre su calidad.
Índice de dificultad
Este indicador sirve para cuantificar el grado de dificultad de cada ítem. Se aplica a los
ítems dicotómicos de los tests de rendimiento óptimo. El índice de dificultad de un ítem j,
pj, se define como la proporción de evaluados que ha acertado el ítem. Es el cociente
entre el número de evaluados que lo han acertado (Aj) y el total de evaluados que lo han
respondido (Nj).
3
El índice de dificultad corregido de un ítem de opción múltiple de K opciones, pcj , se
obtiene aplicando la siguiente expresión:
Por tanto, en general, los mejores ítems son los que aportan más varianza al test y son los
que tienen valores de p medios.
4
Índices basados en la correlación entre el ítem y el test
Otra estrategia para determinar si un ítem discrimina entre los evaluados que tienen altas
y bajas puntuaciones en el constructo consiste en correlacionar las puntuaciones en el
ítem con una medida del constructo, que por lo general es el rendimiento en el test. Esta
estrategia da lugar a los indicadores de discriminación basados en la correlación ítem-test.
Los indicadores de discriminación basados en la correlación ítem-test pueden aplicarse a
ítems dicotómicos y no dicotómicos, a tests de rendimiento óptimo y típico, y la muestra
completa participa en su cómputo. El índice de discriminación del ítem j basado en la
correlación ítem-test, rjX, se define como la correlación de Pearson entre las puntuaciones
en el ítem y en el test. Se le suele llamar correlación ítem-test.
Cuando un test tiene un número pequeño de ítems, resulta más apropiado obtener la
correlación ítem-test corregida, rcjX , o correlación del ítem con el resto del test. Consiste
en correlacionar las puntuaciones en un ítem con las puntuaciones en el total del test
después de restarle las puntuaciones del ítem cuyo indicador queremos obtener. La
correlación entre un ítem y el resto del test suele ser inferior a su correlación ítem-test.
En la práctica, es difícil encontrar valores positivos muy altos, porque el ítem es una
variable con escasa varianza. Se toman los valores entre 0.15-0.3 como aceptables y
mayores a 0.40 como buenos (aunque estos son valores arbitrarios). Se puede obtener con
una fórmula:
Por ejemplo, para 100 sujetos con un α=0.05, rxy será sig si es
mayor a 0.196
Si el valor es negativo y alto, es muy posible que no se haya cuantificado bien el ítem y
habría que recodificarlo o eliminarlo.
5. Fiabilidad y validez
Fiabilidad
Un aspecto muy influyente en el valor del coeficiente de fiabilidad es la longitud del test o
número de ítems que lo componen.
5
hablamos del coeficiente de determinación, p2xv o proporción de la variación de X
explicada por V, es decir, por las puntuaciones verdaderas, definido como p2xv = 𝜎𝑣2 2/𝜎𝑥2 .
Coeficiente α de Cronbach
Es un indicador de consistencia interna global entre todos los ítems del test (grado de
covariación media entre los ítems).
6
Fiabilidad ¿Cómo incrementarla?