Está en la página 1de 4

VALIDEZ, de manera tradicional la validez se ha definido como el grado en que una

prueba mide lo que esta diseñada para medir, una desventaja de esta definición es la
implicación de que una prueba solo tiene validez, la cual supuestamente es
establecida por un solo estudio para determinar si la prueba mide lo que se supone
debe medir, una prueba puede tener muchas clases de validez, dependiendo de los
propósitos específicos para los cuales fue diseñada.
Definición Según Diversos Autores:

 Grado en que un instrumento realmente mide lo que el investigador pretende.


Según autor Thorndike 

 Grado en que un instrumento realmente mide la variable que pretende medir.


Según autor Hernández Sampieri 
Evidencias relacionadas con la validez

 Contenido
 Criterio
 Constructor
 Concurrente
 Predictiva.
Evidenciado Relacionada con el CONTENIDO: Es el grado en que la medición
representa al concepto medido. Se determina antes de la aplicación del instrumento,
mediante el juicio de Expertos.

Evidencia Relacionada con el CRITERIO. Establece la validez de un instrumento de


medición comparándola con algún criterio externo. Entre mas se relacionen los
resultados del instrumento con el criterio, mayor será su validez.
Evidencia Relacionada con el CRITERIO
Validez concurrente: Si el criterio se fija en el presente
Validez Predictiva. Si el criterio se fija en el futuro.

Constructor: Es una variable medida que tiene lugar dentro de una teoría o esquema
teórico

Evidencia relacionada con el constructor. La validez de un constructor incluye 3


etapas
1. Relación Teórica entre los conceptos.
2. Correlación de Conceptos y análisis.
3. Interpretación de la evidencia empírica de acuerdo con el nivel en que clarifica
la validez de un constructor de una medición en particular.

Cálculo de la validez
 Validez de contenido: juicio de expertos
 Validez de criterio: correlacionar la medición con el criterio para obtener el
coeficiente de validez.
 Validez de constructor: suele determinarse un procedimiento estadístico
denominado “Análisis de Factores”.
 Sólidos conocimientos estadísticos
 Programas apropiados de computadoras

CONFIABILIDAD, se refiere al grado en que su aplicación repetida al mismo sujeto u


objeto produce iguales resultados. Para tener claro nuestro horizonte, en lo referente
al cálculo, se debe tener claro qué es confiabilidad, para lo cual se puede definir de la
siguiente manera: Es la probabilidad de que un sistema, activo o componente lleve a
cabo su función adecuadamente durante un período bajo condiciones operacionales
previamente definidas y constantes
Ejemplo de resultados proporcionados por un instrumento de medición sin
confiabilidad

1° 2° 3°
PARTICIPANTES APLICACIÓN APLICACION APLICACION
Ariani 130 131 140
Rosanna 125 130 129
Rosario 118 127 124
Carmen 112 120 120
Alfredo 110 118 109
Zenon 110 118 108
jose 108 115 103

Tipos de confiabilidad
En relación con el calificador
En el curso del tiempo
En relación al contenido de la prueba

EN RELACIÓN CON EL CALIFICADOR. - 2 expertos califican los resultados


obtenidos por un grupo, luego calculan el coeficiente de correlación “producto
momento” o el porcentaje de Coincidencia entre ambos observadores. Se calcula el
índice de concordancia. A mayor concordancia más confiable resultara el instrumento.
EN EL CURSO DEL TIEMPO El investigador obtiene valores diferentes al aplicar el
instrumento a la misma unidad de estudio en ocasiones diferentes. Mientras más
tiempo pase entre la primera y segunda aplicación del instrumento, menor puede ser el
coeficiente de confiabilidad. Se recomienda:
a) Aplicar el instrumento dos veces a un mismo grupo.
b) Correlación de los resultados.
EN RELACIÓN AL CONTENIDO DE LA PRUEBA Muestreo o selección de los ítems.
Variedad de contenidos que se desean medir. Tratar de indagar sobre el grado de
homogeneidad de las respuestas.
Técnicas para el cálculo de la confiabilidad

 Coeficiente. Valor relativo que se le atribuye a cada prueba o examen, relación


o proporción entre una variable significativa y cierta base arbitrariamente fijada
dentro de un área espacial determinada y cierto periodo de tiempo
convencional, coeficientes de producción, de natalidad, de criminalidad, de
mortalidad, de divorcios.
 Correlación. Relación reciproca. Medida de la asociación lineal entre dos
variables.
 Estratificar. Conjunto de elementos que, con determinados caracteres
comunes, se ha integrado con otros conjuntos previos o posteriores para la
formación de una entidad o producto históricos, de una lengua.
 coeficiente test – retest, o medida de estabilidad se calcula para determinar
si un instrumento mide de manera consistente de una ocasión a otra. Este
coeficiente, conocido también como coeficiente de estabilidad, se encuentra
correlacionando las calificaciones. Obtenidas por un grupo de personas en una
aplicación con sus puntuaciones en la segunda aplicación de la prueba. El
investigador debe aplicar el mismo instrumento dos veces al mismo grupo
después de cierto periodo, debe calcular la confiabilidad la confiabilidad del
instrumento antes de la aplicación definitiva del mismo. Coeficiente de
correlación de Pearson altamente positivo = instrumento confiable.
 Coeficiente de formas paralelas. Cuando un intervalo entre la prueba inicial y
el retest es corto, los examinados recuerdan, por lo general, muchas de las
preguntas y respuestas de la prueba inicial. Como es obvio, esto afecta sus
respuestas en la segunda aplicación. Dificultad para obtener 2 pruebas
realmente paralelas, efecto que el primer instrumento tiene sobre los puntajes
del segundo, implica un doble trabajo de construcción de instrumento, confiable
solo si correlación entre los resultados de ambas aplicaciones es positiva.
 Coeficiente de consistencia interna, se dispone de formas paralelas para
una serie de pruebas, en particular para pruebas de habilidad
(aprovechamiento, inteligencia, aptitudes especiales). Sin embargo, una forma
paralela de una prueba a menudo es costosa y difícil de elaborar, por esa
razón se elaboró un método menos directo de tomar en cuenta los efectos de
diferentes muestras de los reactivos de una prueba sobre la confiabilidad. Este
método de consistencia interna, que incluye el método de división por mitades
de Spearman, las formulas de Kuder-Richardson y el coeficiente alfa de Cron-
bach.

FACTORES QUE PUEDEN AFECTAR LA CONFIABILIDAD Y VALIDEZ


Hay diversos factores que pueden afectar la confiabilidad y la validez de los
instrumentos de medición:

 La improvisación: elegir o desarrollar un instrumento de medición


sin responsabilidad.
 La utilización de instrumentos desarrollados en el extranjero y que no han sido
validos en nuestro contexto: cultura y tiempo, o el uso de instrumentos
“arcaicos” desactualizados e inapropiados para la época.
 El instrumento usado resulta inadecuado para las personas a las que se les
aplica: no es empático. (ejemplo: lenguaje muy elevado para el respondiente)
 Las condiciones en las que se aplica el instrumento de medición., puede hacer
de esta un instrumento largo y tedioso.
 Aspectos mecánicos: ejemplo: en un instrumento escrito no se lean bien las
instrucciones.
 No es empático sexo, edad, conocimiento, capacidad de respuesta, memoria,
ocupación, motivación al responder.
Como saber si un instrumento de Medición es confiable y valido
La determinación de la confiabilidad se realiza de la manera siguiente, aplicación de
un instrumento de medición dos o mas veces a grupo de personas u objetos en cierto
periodo. Si la correlación entre los resultados de las diferentes aplicaciones es
altamente positiva, el instrumento se considera confiable

 Coeficiente de validez
 Coeficiente de confiabilidad
 mínimo grado de error

También podría gustarte