Está en la página 1de 23

Metodología de Investigación II

Dr. Luis Heredia Santaella

Tema 3: Fiabilidad y validez (1ª parte)


Índice del Tema 3

3.1. Introducción y objetivos


3.2. La fiabilidad/confiabilidad
3.3. Validez

2
3.1. Introducción y objetivos

✓ Objetivo 1: aprender en qué consisten los conceptos de fiabilidad y validez


de un instrumento de valoración

✓ Objetivo 2: conocer los distintos tipos de fiabilidad y cómo se pueden


calcular

✓ Objetivo 3: conocer los distintos tipos de validez y cómo se pueden calcular

«Toda medición o instrumento de recolección de datos debe reunir tres requisitos


esenciales: confiabilidad, validez y objetividad»
(Hernández, Fernández y Baptista, 2014, p. 200)

3
3.1. Introducción y objetivos
• El conocimiento que se deriva de las investigaciones tiene que cumplir con los
requisitos del método científico (sistemático, fiable y válido).

• Por ello, los instrumentos de evaluación deben demostrar su fiabilidad y validez, sobre
todo en psicología y educación, ya que los constructos pueden ser no directamente
observables.

• Medir significa atribuir números a lo que estamos observando, siguiendo ciertas


reglas, a través de instrumentos que tienen una serie de propiedades, entre ellas,
destacan:

• Fiabilidad (confiabilidad) ¡¡Este proceso es necesario para aquellos


• Validez investigadores que necesiten crear un
instrumento de valoración nuevo!!

4
3.2. La Fiabilidad / confiabilidad

• La fiabilidad (o confiabilidad) de un instrumento de medición es “el grado en


que un instrumento produce resultados consistentes y coherentes”
(Hernández et al., 2014, p. 200).

• Por tanto, en investigación, se dice que es fiable a todo aquel registro que
es constante, estable. Ejemplo: báscula.

• «La fiabilidad ha sido entendida como el grado de estabilidad, precisión o


consistencia que manifiesta el test como instrumento de medición de un
rasgo determinado» (Ramos y Estrada, 2010, p. 33) .

5
3.2. La Fiabilidad / confiabilidad
Según Del Val, el concepto de fiabilidad se puede descomponer en tres puntos
principales (Ramos y Estrada, 2010):

• Haciendo referencia a la estabilidad temporal de la medida o de las


puntuaciones (medidas sucesivas con el mismo instrumento).

• Haciendo referencia al grado en que diferentes partes de la prueba midan


el mismo constructo de forma consistente (todas las preguntas de la prueba
miden el mismo constructo o variable).
Evitar: Efecto de
aprendizaje

• Haciendo referencia a que dos pruebas paralelas sean equivalentes.

6
3.2. La Fiabilidad / confiabilidad
La precisión en la medida hace referencia a la ausencia de errores. Por tanto, estudiar la
fiabilidad de un instrumento consiste en estimar la cantidad de error aleatorio que se
puede cometer al medir.

Los errores de medición se pueden deber a tres causas (Sáez, 2017):


• A las limitaciones de la técnica de medición por no estar bien diseñada, por ejemplo, el lenguaje
utilizado no se ajusta al nivel del evaluado.

• Errores de los sujetos de la muestra a la hora de aportar la información, por ejemplo, falta de
sinceridad o errores deliberados por parte del sujeto que contesta.

• Por falta de experiencia o rigor del investigador, por ejemplo, errores a la hora de administrar una
prueba, por falta de información, entrenamiento…
Protocolo

7
3.2. La Fiabilidad / confiabilidad
Para analizar la fiabilidad de un instrumento se pueden utilizar distintas
perspectivas (Sáez, 2017; Ramos y Estrada, 2010):

✓ Para medir la estabilidad de la medida se utiliza el método test-retest.

✓ Para analizar el grado de equivalencia entre los datos se suele utilizar el


método de las formas paralelas y la fiabilidad entre observadores (o jueces).

✓ Para analizar la congruencia se utiliza el método de consistencia interna,


que evalúa si las preguntas o ítems de la prueba hacen referencia al mismo
constructo.

8
3.2. La Fiabilidad / confiabilidad
✓ La fiabilidad absoluta es muy difícil de calcular, ya que se obtiene mediante al cálculo
del error típico de la medida debido a los errores que se han podido cometer a la
hora de diseñar el instrumento y a los errores debidos al azar o producidos por
variables no controladas por el experimentador (extrañas).

✓ La fiabilidad relativa es la que se puede evaluar mediante el índice de estabilidad y el


de equivalencia

Factores que pueden afectar a la fiabilidad de una prueba:

✓ Longitud de la prueba (cuantos más ítems más fiable)

✓ Variabilidad del grupo (cuanto más heterogéneo es el grupo más fiable)

9
3.2. La Fiabilidad / confiabilidad

Número de veces que se alarga el test


Fatiga

10
3.2. La Fiabilidad / confiabilidad
Método test-retest
• Permite evaluar la estabilidad de la medida

• El procedimiento para comprobar este tipo de fiabilidad consiste en aplicar dos veces
las mismas pruebas a los mismos participantes y observar la correlación entre las
puntuaciones (medición 1 y medición 2)

• Un problema técnico importante para determinar este tipo de fiabilidad es establecer


el momento óptimo para pasar por segunda vez la prueba

• El análisis estadístico que se utiliza para este índice de estabilidad es la correlación


de Pearson, por el que se obtiene un Coeficiente de Estabilidad de la prueba o
coeficiente de fiabilidad test-retest.

• Este coeficiente puede adquirir valores entre 0 y 1 (cuánto más cerca esté del 1 más
estable es la medida)

11
3.2. La Fiabilidad / confiabilidad
Método test-retest

No obstante, para poder interpretar el coeficiente de estabilidad de forma correcta es


necesario tener en cuenta dos factores que podrían afectar a la fiabilidad de la prueba:

• La estabilidad del rasgo que estamos midiendo, ya que, si es muy variable, no será
capaz de medirlo.

• El intervalo de tiempo que pasa entre las dos mediciones (efecto de aprendizaje,
maduración, entrenamiento…).

12
3.2. La Fiabilidad / confiabilidad
Método de las formas paralelas

• En primer lugar, hay que construir dos versiones del mismo instrumento de forma que
sean paralelas; es decir, que midan lo mismo mediante ítems diferentes.

• Posteriormente, se aplican las dos versiones (denominadas formas paralelas o


alternativas) a un mismo grupo amplio de sujetos (que sean representativos de la
población de interés).

• Una vez obtenidos los datos se calcula el coeficiente de correlación de Pearson para
saber la correlación entre las dos formas paralelas. Este coeficiente recibe el nombre de
Coeficiente de Equivalencia, ya que hace referencia al grado en que las dos pruebas
son equivalentes.

• Ese coeficiente, igual que el de estabilidad, obtiene valores de cero a uno, y, cuanto
más cerca del uno, mayor equivalencia entre las formas paralelas.

13
3.2. La Fiabilidad / confiabilidad
Fiabilidad entre observadores

• Asegurar que la puntuación obtenida en la prueba es la misma, independientemente de


quién la aplique.

• El procedimiento consiste en que varios evaluadores distintos apliquen la prueba a los


mismos sujetos y se examina si hay diferencias entre los resultados de ambos
investigadores.

• La prueba que se utiliza comúnmente es el índice Kappa de Cohen.

• El resultado del índice de Kappa de Cohen es un valor entre 0 y 1 (cuanto más alto sea
el índice, más alto es el nivel de acuerdo entre los observadores.

14
3.2. La Fiabilidad / confiabilidad

15
3.2. La Fiabilidad / confiabilidad
Método de consistencia interna

El objetivo es comprobar la congruencia de los distintos ítems entre sí y asegurarnos que


miden el mismo constructo teórico.

• Método de las dos mitades

– El procedimiento consiste en dividir los ítems de la prueba en dos mitades


equitativas (dificultad, contenido…).

– Posteriormente, se divide al grupo y se aplica la mitad de un cuestionario a una


parte del grupo, y la otra mitad a la otra parte.

– Finalmente, se analiza la correlación entre ambas.

– El análisis que se puede utilizar es la correlación de Spearman-Brown


(valor de 0 y 1; cuanto más se acerca al uno, más fiabilidad).

16
3.2. La Fiabilidad / confiabilidad
Método de consistencia interna

• Coeficiente Alfa de Cronbach

– Se intenta comprobar la relación de cada ítem con la puntuación total final


obtenida, es decir, comprobar la correlación entre los distintos ítems (en escalas
politómicas).

– Si la prueba utiliza ítems dicotómicos se suele aplicar la prueba Kuder Richardson


(KR 20 y KR 21) (Sáez, 2017).

– Si el valor del coeficiente está cerca de 1 significa que los ítems co-varían
fuertemente entre sí. En cambio, si el valor se acerca a 0 significa que los ítems
son independientes entre sí.

– ¿Qué se podría hacer si se está diseñando una prueba y algunos ítems obtienen
valor bajo de fiabilidad interna?

17
3.2. La Fiabilidad / confiabilidad

¿Qué ítem eliminarías?

18
3.2. La Fiabilidad / confiabilidad

¿Qué ítem eliminarías?

19
3.2. La Fiabilidad / confiabilidad

20
3.2. La Fiabilidad / confiabilidad

21
¿Dudas?

22
www.unir.net

También podría gustarte