Está en la página 1de 26

Psicometría

Lic. Mario Trógolo


Normas técnicas: Confiabilidad
Validez
 «Es el grado en que una prueba mide lo que pretende medir»
(Hogan, 2004)
 «Grado en que la teoría y la evidencia empírica apoyan las
interpretaciones que se hagan de los puntajes de un test para un
determinado propósito» (AERA, APA & NCME, 2014).

La APA (2014) propone diferentes «fuentes» de evidencia de


validez, basada en:

 Contenido del test


 Proceso de respuesta
 Estructura interna del test
 Relaciones con otras variables (test-criterio,
concurrente, convergente, discriminante,
incremental, predictiva, grupos contrastados)
 Consecuencias de la aplicación del test
Normas técnicas de los test

Publicación del «Standards for


Educational and Psychological Testing»

Normas recomendadas para la


construcción y aplicación de test

Validez Confiabilidad
Validez

En términos generales se habla de


validez cuando existen evidencias
empíricas que sustentan que el test mide
el constructo que pretende medir

La validez es una propiedad de las


puntuaciones y no del test
Confiabilidad
¿Es posible
medir sin error?
Errores sistemáticos y aleatorios

• Elección de los • Condiciones no • Calificar mal las • Distracciones

Al interpretar una prueba


Al construir una prueba

Al administrar una prueba

Factores internos
ítems uniformes respuestas • Preocupaciones
• Consignas • Instrucciones • Criterios • Deseabilidad
formuladas no disímiles de social
• Errores en el estandarizadas calificación
muestreo de • Fluctuaciones • Aspectos
contenido azarosas en las subjetivos del
personas evaluador
Confiabilidad
Desde la Teoría Clásica de los Test (TCT) se
sostiene que:

Cuanto mayor sea el error, menos


confiables son los resultados obtenidos en
una prueba

Error refiere a cualquier variación en la


puntuación no debidas al rasgo evaluado
Confiabilidad y validez
Confiabilidad:
• Exactitud o precisión de una medida
realizada a través de un test (APA,
1989).
• Grado en que las puntuaciones de un
test se encuentran libres de error
(AERA, 1999)
No es una característica del test,
sino una propiedad de sus
puntuaciones

Confiabilidad vs Validez
Dimensiones de la confiabilidad

Estabilidad

Consistencia interna

Confiabilidad inter-
examinadores
Estabilidad
Evalúa el grado
en que los
puntajes de un
test está libre
de errores Test-retest
causados por
Método
condiciones
personales Formas
temporales, o paralelas
cambios en las
condiciones de
administración
Estabilidad
Consiste en administrar repetidamente un test a
un mismo grupo de personas, con un intervalo
de tiempo intermedio

Se calculan las correlaciones (r de Pearson)


entre los puntajes obtenidos en las diferentes
administraciones

Se esperan correlaciones mayores a 0,70 o 0,80


para concluir que las puntuaciones son estables.
Ejemplo: test-retest
Ejemplo: test-retest
Ejemplo: test-retest
Ejemplo: Formas paralelas
Consistencia interna

Evalúa el grado en
que distintas partes o
ítems del test miden
el mismo dominio o Partición en
constructo mitades
(«homogéneas»).
Método
Indica en qué medida
la elección de la Covarianza de
muestra de ítems que ítems
componen la prueba
resulta fuente de
error de medición
Covarianza de ítems
• Analiza la intercorrelación promedio
entre todos los ítems/elementos de
una prueba
• Dos coeficientes muy utilizados son
el alfa de Cronbach (ítems
politómicos) y de Kuder-Richardson
(ítems dicotómicos)
• Estos coeficientes varían entre 0 y 1.
Se considera «aceptable» valores
superiores a 0.70 y «óptimo» valores
superiores a 0,80
Alfa de Cronbach: ejemplo
Acuerdo entre examinadores
Alude al grado en
que la medición
de un rasgo es
independiente de
la subjetividad Coeficiente Kappa
del evaluador. Se
busca determinar Método
si las
puntuaciones Correlación
obtenidas por un interclase
sujeto son
independientes
del observador
Método Dimensión de Procedimiento
confiabilidad estadístico
• Test-retest • Consistencia • R de Pearson
• Formas interna • Alfa de Cronbach
equivalentes • Estabilidad • Kuder-Richardson
• Partición de • Confiabilidad (KR-20)
mitades inter- • Correlación inter-
• Covariance de examinadores clase
ítems • Coeficiente
• Acuerdo entre Kappa
examinadores

También podría gustarte