Está en la página 1de 2

Confiabilidad

La confiabilidad se asume que la prueba mide una característica relativamente estable. A


diferencia de la inestabilidad, la falta de confiabilidad es el resultado de Errores de medición
producidos por estado internos temporales, como la motivación o la falta de disposición, o de
condición específicas.

Teoría clásica de la confiabilidad

La puntuación real de una persona en una prueba particular se define como el promedio de las
puntuaciónes que obtendría si presenta la prueba un número infinito de veces.

También se asume en la teoría clásica de los test que la varianza de la puntuaciónes


observadas (s2obs) de un grupos de personas es igual ala variaciones de su puntuaciónes
reales.

Coeficiente test retest

Este coeficiente, conocido también como coeficiente de estabilidad se encuentra


correlacionado las calificaciones obtenida por un grupo de persona en una aplicación con sus
puntuaciónes en la segunda aplicación de la prueba.

Coeficiente de formas paralelas

Lo que se necesita para superar esta fuente de error es una forma paralela del instrumento, es
una que conste de reactivos similares, pero no de la mismo reactivo.

Coeficiente de consistencia interna

Por esta razón se elaboró un método menos directo de tomar en cuenta los efectos de
diferentes muestras de los reactivos de una prueba sobre la confiabilidad.

Método de división por mitades

Consiste en dividir la prueba, una vez administrada, en dos mitades /tems pared e impares, o
bien mitad y mitad) y calcular la correlación entre los resultados de ambas partes.

Método de kuder. Richardson

Calcular una medida de confiabilidad dela consistencia interna para las medidas con opciones
dicotomas (acierto error. Con la diferencia de que la de cronbach se utiliza para medidas
continúas) no dicotomas.

Coeficiente alfa

Indice usado para medir la confiabilidad del tipo consistencia interna de una escala, es decir
para evaluar la magnitud en que los ítems de un instrumento están correlaciónados.

Confiabilidad entre calificadores

Las calificaciones deben ser idénticas, de lo contrario sería un error administrativo. Para poder
determinar la confiabilidad entre calificadores se hace haciendo que dos personas de manera
separada califiquen la respuesta de un número considerable de examinados y luego calcular la
correlación entre los conjuntos de calificaciones. También se puede optar por otro enfoque
que es hacer que la respuesta de un solo examinado se calificada por muchas personas. En la
prueba orales la evaluación no es tan confiable.

Interpretación de los coeficientes de confiabilidad

Los coeficientes de confiablidad en instrumentos afectivos tales como lista de verificación,


escalas de calificaciones, etc. suele ser más bajo que los de las pruebas cognitivas de
aprovechamiento, inteligencia o habilidades especiales. Las respuestas en estas pruebas van a
de pender de lo que se busque con dicha prueba.

Variabilidad y extensión de la prueba

Para que la confiabilidad sea más real un buen método utilizado para la confiabilidad en las
pruebas es hacerlas más extensas, pero aun así esta extensión no incrementa su confiabilidad.
Se utiliza la fórmula de Spearman-Brown para saber el efecto que tiene sobre la prueba
confiabilidad el alargar una prueba incluyendo más reactivos del mismo tipo general.

El resultado de esta fórmula lleva a la utilización de otra fórmula para determinar cuántas
veces más extensas debe ser una prueba de confiabilidad buscando la confiabilidad deseada,
dicha prueba se utiliza para determinar el incremento necesario y saber el número de
reactivos que se deben agregar para incrementar la confiabilidad de un valor desde r hasta r.

Error estándar de medición

El error estándar de medición es una estimación de la desviación estándar de una distribución


normal de las calificaciones de la prueba que se supone serian obtenidas por una persona que
presentara la prueba un número infinito de veces.

También podría gustarte