Está en la página 1de 19

Metodología de Investigación II

Dr. Unai Díaz Orueta

Tema 3: Fiabilidad y validez


Índice del Tema 3

3.1. Introducción y objetivos


3.2. La fiabilidad/confiabilidad
3.3. Validez

2
3.1. Introducción y objetivos

 Objetivo 1: aprender en qué consisten los conceptos de fiabilidad y validez


de un instrumento de valoración

 Objetivo 2: conocer los distintos tipos de fiabilidad y cómo se pueden


calcular

 Objetivo 3: conocer los distintos tipos de validez y cómo se pueden calcular

«Toda medición o instrumento de recolección de datos debe reunir tres


requisitos esenciales: confiabilidad, validez y objetividad»

(Hernández, Fernández y Baptista, 2014, p. 200).

3
3.1. Introducción y objetivos

• El conocimiento que se deriva de las investigaciones tiene que cumplir con


los requisitos del método científico (sistemático, fiable y válido)

• Por ello, los instrumentos de evaluación deben demostrar su fiabilidad y


validez, sobre todo en psicología y educación, ya que los constructos
pueden ser no directamente observables

• Medir significa atribuir números a lo que estamos observando, siguiendo


ciertas reglas, a través de instrumentos que tienen una serie de
propiedades, entre ellas, destacan:
– Fiabilidad (confiabilidad)
– Validez

4
3.2. La Fiabilidad / confiabilidad

• La fiabilidad (o confiabilidad) de un instrumento de medición es “el grado en


que un instrumento produce resultados consistentes y coherentes”
(Hernández et al., 2014, p. 200).

• Por tanto, en investigación, se dice que es fiable a todo aquel registro que
es constante, estable. Ejemplo: báscula.

• «La fiabilidad ha sido entendida como el grado de estabilidad, precisión o


consistencia que manifiesta el test como instrumento de medición de un
rasgo determinado» (Ramos y Estrada, 2010, p. 33).

5
3.2. La Fiabilidad / confiabilidad

Según Del Val, el concepto de fiabilidad se puede descomponer en tres puntos


principales (Ramos y Estrada, 2010):

•Haciendo referencia a la estabilidad temporal de la medida o de las


puntuaciones (medidas sucesivas con el mismo instrumento).

•Haciendo referencia al grado en que diferentes partes de la prueba midan el


mismo constructo de forma consistente (todas las preguntas de la prueba
miden el mismo constructo o variable).

•Haciendo referencia a que dos pruebas paralelas sean equivalentes.

6
3.2. La Fiabilidad / confiabilidad

Por último, la precisión en la medida hace referencia a la ausencia de errores.


Por tanto, estudiar la fiabilidad de un instrumento consiste en estimar la cantidad
de error aleatorio que se puede cometer al medir.

Los errores de medición se pueden deber a tres causas (Sáez, 2017):

•A las limitaciones de la técnica de medición por no estar bien diseñada, por


ejemplo, el lenguaje utilizado no se ajusta al nivel del evaluado.

•Errores de los sujetos de la muestra a la hora de aportar la información, por


ejemplo, falta de sinceridad o errores deliberados por parte del sujeto que
contesta.

•Por falta de experiencia o rigor del investigador, por ejemplo, errores a la hora
de administrar una prueba, por falta de información, entrenamiento…

7
3.2. La Fiabilidad / confiabilidad

Para analizar la fiabilidad de un instrumento se pueden utilizar distintas


perspectivas (Sáez, 2017; Ramos y Estrada, 2010):

Para medir la estabilidad de la información se utiliza el método test-retest

Para analizar el grado de equivalencia entre los datos se suele utilizar el


método de las formas paralelas y la fiabilidad entre observadores (o
jueces)

Grado de consistencia interna, el cual hace referencia a la congruencia


entre las respuestas del evaluado a las preguntas o ítems de la prueba que
hagan referencia al mismo constructo.

8
3.2. La Fiabilidad / confiabilidad

 La fiabilidad absoluta es muy difícil de calcular, ya que se obtiene


mediante al cálculo del error típico de la medida debido a los errores que se
han podido cometer a la hora de diseñar el instrumento y a los errores
debidos al azar o producidos por variables no controladas por el
experimentador (extrañas).

 La fiabilidad relativa es la que se puede evaluar mediante el índice de


estabilidad y el de equivalencia

Factores que pueden afectar a la fiabilidad de una prueba:

 Longitud de la prueba (cuantos más ítems más fiable)


 Variabilidad del grupo (cuanto más heterogéneo es el grupo más fiable)

9
3.2. La Fiabilidad / confiabilidad
Método test-retest

•Permite evaluar la estabilidad de la medida

•El procedimiento para comprobar este tipo de fiabilidad consiste en aplicar


dos veces las mismas pruebas a los mismos participantes y observar la
correlación entre las puntuaciones (medición 1 y medición 2)

•Un problema técnico importante para determinar este tipo de fiabilidad es


establecer el momento óptimo para pasar por segunda vez la prueba

•El análisis estadístico que se utiliza para este índice de estabilidad es la


correlación de Pearson, por el que se obtiene un Coeficiente de Estabilidad
de la prueba o coeficiente de fiabilidad test-retest.

•Este coeficiente puede adquirir valores entre 0 y 1 (cuánto más cerca esté del
1 más estable es la medida)

10
3.2. La Fiabilidad / confiabilidad

No obstante, para poder interpretar el coeficiente de estabilidad de forma


correcta es necesario tener en cuenta dos factores que podrían afectar a la
fiabilidad de la prueba:

•La estabilidad del rasgo que estamos midiendo, ya que, si es muy variable, no
será capaz de medirlo.

•El intervalo de tiempo que pasa entre las dos mediciones (efecto de
aprendizaje, maduración, entrenamiento…)

11
3.2. La Fiabilidad / confiabilidad
Método de las formas paralelas

•En primer lugar, hay que construir dos versiones del mismo instrumento de
forma que sean paralelas; es decir, que midan lo mismo mediante ítems
diferentes.

•Posteriormente, se aplican las dos versiones (denominadas formas paralelas o


alternativas) a un grupo amplio de sujetos (que sean representativos de la
población de interés).

•Una vez obtenidos los datos se calcula el coeficiente de correlación de Pearson


para saber la correlación entre las dos formas paralelas. Este coeficiente recibe el
nombre de Coeficiente de Equivalencia, ya que hace referencia al grado en que
las dos pruebas son equivalentes.

•Ese coeficiente, igual que el de estabilidad, obtiene valores de cero a uno, y,


cuanto más cerca del uno, mayor equivalencia entre las formas paralelas.

12
3.2. La Fiabilidad / confiabilidad

Fiabilidad entre observadores

•Asegurar que la puntuación obtenida en la prueba es la misma,


independientemente de quién la aplique

•El procedimiento consiste en que varios evaluadores distintos apliquen la


prueba a los mismos sujetos y se examina si hay diferencias entre los resultados
de ambos investigadores

•La prueba que se utiliza comúnmente es el índice Kappa de Cohen

•El resultado del índice de Kappa de Cohen es un valor entre 0 y 1 (cuanto más
alto sea el índice, más alto es el nivel de acuerdo entre los observadores

13
3.2. La Fiabilidad / confiabilidad

14
3.2. La Fiabilidad / confiabilidad
Método de consistencia interna

•El objetivo es comprobar la congruencia de los distintos ítems entre sí y


asegurarnos que miden el mismo constructo teórico.

Método de las dos mitades

–El procedimiento consiste en dividir los ítems de la prueba en dos mitades


equitativas (dificultad, contenido…).

–Posteriormente, se divide al grupo y se aplica la mitad de un cuestionario a


una parte del grupo, y la otra mitad a la otra parte.

–Finalmente, se analiza la correlación entre ambas.

–El análisis que se puede utilizar es la correlación de Spearman-Brown


(valor de 0 y 1; cuanto más se acerca al uno, más fiabilidad).

15
3.2. La Fiabilidad / confiabilidad
Método de consistencia interna

•Coeficiente Alfa de Cronbach


– Se intenta comprobar la relación de cada ítem con la puntuación total final
obtenida, es decir, comprobar la correlación entre los distintos ítems (en
escalas politómicas).

– Si la prueba utiliza ítems dicotómicos se suele aplicar la prueba Kuder


Richardson (KR 20 y KR 21) (Sáez, 2017).

– Si el valor del coeficiente está cerca de 1 significa que los ítems covarían
fuertemente entre sí. En cambio, si el valor se acerca a 0 significa que los
ítems son independientes entre sí.

– ¿Qué se podría hacer si se está diseñando una prueba y algunos ítems


obtienen valor bajo de fiabilidad interna?

16
3.2. La Fiabilidad / confiabilidad

17
¿Dudas?

18
www.unir.net

También podría gustarte