Está en la página 1de 5

La fiabilidad valora la consistencia y la precisión de la medida.

Cuando hablamos de fiabilidad nos referimos a


que si repetimos el test varias veces esperamos que el resultado sea siempre el mismo.
Un test será fiable en la medida en la que da resultados consistentes. Un test es fiable cuando las medidas
están libres de errores de medida. Cuando estudiamos la fiabilidad asumimos que el constructo es estable.

Un error de medida es la diferencia entre la puntuación observada y la puntuación


verdadera y la causa de esta diferencia es el error aleatorio.

- Error conceptual: ocurre cuando medimos una cosa pensando que medimos otra.
- Error sistemático: aquel que afecta siempre de la misma manera a la medida. Provoca sesgo en la
medida.
- Error aleatorio: provocado por factores múltiples e incontrolables.

La fiabilidad es la ausencia de errores de medida (consistencia o estabilidad de las medidas cuando el proceso
de medida se repite).
El coeficiente de correlación de fiabilidad es igual a la varianza de las puntuaciones
verdaderas partido la varianza de las puntuaciones empiricas.
Si toda la varianza observada es igual a la verdadera el coeficiente sera 1, maxima fiabilidad.
Cuanto más se aproxima el coeficiente a 1 más fiable es el test.

Cada uno utiliza un proceso diferente:


- analiza la estabilidad de la medida, consiste en hacer un test y
repetirlo.
- varias versiones de un mismo test, mide la equivalencia de las medidas.
- como correlacionan las puntuaciones, mide la consistencia
interna. Si todos los ítems miden el mismo constructo, las respuestas han de ir en la misma dirección.
Cosnsiste en coger una muestra representativa, se les aplica el test,
y se registran las puntuaciones, dejamos pasar un tiempo, vuelven y
se les vuelve a aplicar el mismo test con las mismas condiciones y se
vuelve a registrar el resultado.
Se tienen dos bloques de respuestas, que se correlacionan esperando
que el resultado sea 1, lo que implica que las respuestas son las
mismas o muy parecidas. Sirve para medir la estabilidad de la
medida.
El problema con este procedimiento es que se ha de dejar un tiempo
y se ha de saber cuanto hay que dejar, si se deja muy poco los participantes se acordaran de las respuestas. Si
se deja mucho tiempo, pueden aparecer diferencias reales (mejora de capacidades) o muerte experimental
(los participantes abandonan el experimento). En cada situación se ha de pensar cuanto tiempo se ha de dejar.

Inadecuada: r < 0,55


Adecuada pero con algunas carecncias: 0,55 =< r < 0,65
Adecuada: 0,65 =< r < 0,75
Buena: 0,75 =< r < 0,80
Excelente: r >= 0,80

Podemos obtener respuestas distintas sin esperar un tiempo si


utilizamos formas paralelas de un test. Se les da a los participantes la
forma A del test, y cuando acaban se les da la forma B. Si se
correlacionan las respuestas de ambos test se espera que se acerque
a 1. Esto nos informa de la equivalencia de la medida, nos dice si el
test A y el test B son intercambiables.
Podemos hacer que una parte responda primero la A y otra parte
responda primero la B.

Inadecuada: r < 0,50


Adecuada pero con algunas carencias: 0,50 =< r < 0,60
Adecuada: 0,60 =< r < 0,70
Buena: 0,70 =< r < 0,80
Excelente: r >= 0,80

Es posible obtener dos puntuaciones por cada individuo sin necesidad de tener dos formas paralelas a través
de buscar formas paralelas dentro del test. Si todos los items miden el mismo constructo, partes de este test
son formas paralelas, por lo que se pueden buscar formas paralelas de este test.
Una forma de hacer esto es lo que se denomina fiabilidad de dos
mitades, consicte en coger una muestra, hacer el test una vez y
registrar los ítems y antes de analizar las respuestas dividir los ítems
en dos mitades y las trato como si fuesen test paralelos.
Si correlaciono estas dos puntuaciones el coeficiente de relación ha de
ser alto ya que los ítems miden lo mismo, pero esta correlación no es
la fiabilidad del test, es la correlación de a mitad del test.
Cuando tengamos el coeficiente de la mitad del test aplicamos
Spearman-Brown.

Consiste en dividir dos veces la correlación de la mitad partido 1 más la correlación de las
mitades.

Si entendemos que cada uno de los ítems mide el mismo constructo


entenderemos que cada ítem es una forma paralela del test.
Este procedimiento lo que hace es mirar como todos los ítems covarian
entre ellos. En este procedimiento aplico el test una sola vez, registro las
respuestas y calculo la covarianza aplicando el coeficiente alfa de
Cronbach.
Este se calcula dividiendo el número de items
del test entre el número de items del test
menos 1, y esto multiplicandolo por 1 menos
la división de la suma de las varianzas de los ítems entre la varianza de la putnuación
total.
Hay otra forma de hacerlo para ítems dicotomicos, la formula de Kuder
Richardson: que es igual que la anterior salvo que la varianza de la puntuación
total está dividida por la suma de la proporción de respuestas positivss por la
proporción de respuestas negativas.

Inadecuada: r < 0,60


Adecuada pero con carencias: 0,60 =< r < 0,70
Adecauada: 0,70 =< r < 0,80
Buena: 0,80 =< r < 0,85
Excelente: r >= 0,85

Cada ítem que forma parte de un instrumento de medida tiene una contribución particular a la consistencia
interna de este.
Podemos calcular el coeficiente alfa para el conjunto de los ítems del test eliminando previamente del cálculo
los datos del ítem que queremos evaluar.
- Aumentar el número de ítems: formula de de Spearman-Brown. Deben discriminar igual que los ítems
que ya están en el test.
- Eliminar ítems problematicos: quitar ítems con indices de discriminación bajos.
- Mejorar las condiciones de aplicación.

Formula generica que permite responder a cuantos ítesm he de coger para pasar
de una fiabilidad de 0,70 a una de 0,80 por ejemplo.
El coeficiente de fiabilidad es igual al numero de veces que hemos alargado elt est por la fiabilidad del test
antes de alargarlo, dividido por 1 más (el número de veces alargadas el test menos 1) por la fiabilidad del test
antes de alargarlo.
El número de veces que se alarga el test se calcula sumando el número de ítems iniciales
más el número de ítems añadidos, todo esto entre el número de ítems iniciales.
Cuanto más se alarga el test más fiable es, pero este crecimiento no es exponencial, cuanto más se alarga,
menos incrementa la fiabilidad.

Dice cuantos ítems he de coger para pasar de una fiabilidad a otra.


Se calcula dividiendo la fiabilidad que se pretende conseguir multiplicada por (1
menos la fiabilidad del test original) entre la fiabilidad del test originial multiplicada
por (1 menos la fiabilidad que se pretende conseguir).
La K es el número de veces que hemos alargado el test y se calcula como se ve anterior mente, despues se
debe despejar la Fiabilidad que se pretende conseguir.

Se calcula sumando/restando la puntuación obtenida por el sujeto en el test


más/menos el error tipico de medida. El limite inferior se calcula a través de la
resta y el inferior a través de la suma.
El error tipico de medida se calcula multiplicando la desviación tipica del test por la
raiz cuadrada de 1 menos el coeficiente de fiabilidad del test.
- Estimación por intervalo de la puntuación verdadera
- Comparación de las puntuaciones observadas de dos personas
- Valoración del cambo de la puntuación observada de una persona despues de una intervención.

También podría gustarte