UNIVERSIDAD NACIONAL EXPERIMENTAL

FRANCISCO DE MIRANDA
ÁREA DE TECNOLOGÍA COMPLEJO ACADÉMICO EL SABINO PROGRAMA DE INGENIERÍA INDUSTRIAL UNIDAD CURRICULAR: PROYECTO DE DISEÑO II

VALIDEZ Y CONFIABILIDAD DEL INSTRUMENTO
INTEGRANTES: Luis E. Rincón V. V-19.059.361. David J. Reyes C. V-19.648.878. María A. Petit P. V-19.879.670. Lenny E. Lúquez A. V-19.442.812. Julia S. Flores Y. V-20.254.053. 1. DEFINICIONES DE VALIDEZ: Según Silva (2010), la validez del instrumento “se refiere a la relación que existe entre lo que éste mide y lo que realmente se quiere medir”. Por otra parte, Sampieri (1997), considera que “se refiere al grado en que un instrumento realmente mide la variable que pretende medir”. En este orden de ideas, para Sabino (1998), la validez del instrumento indica "la capacidad para medir las cualidades para las cuales ha sido construido el instrumento". 2. TIPOS DE EVIDENCIA DE VALIDEZ: La validez es un concepto del cual pueden tenerse diferentes tipos de evidencia, como son: 1) evidencia relacionada con el contenido, 2) evidencia relacionada con el criterio y 3) evidencia relacionada con el constructo. 1) Evidencia relacionada con el contenido La validez de contenido se refiere al grado en que un instrumento refleja un dominio específico de contenido de lo que se mide. Es el grado en que la medición representa al concepto medido. Por ejemplo, una prueba de operaciones aritméticas no tendrá validez de contenido si incluye sólo problemas de resta y excluye problemas de suma, multiplicación o división. Un instrumento de medición debe contener representados a todos los ítems del dominio de contenido de las variables a medir. Hay que considerar que, la validez de contenido no puede expresarse cuantitativamente es más bien una cuestión de juicio, se estima de manera subjetiva o intersubjetiva empleando, usualmente, el denominado Juicio de Expertos. Los juicios de expertos se pueden obtener por métodos de experto único. Se pueden seguir, entre otros, el método de Agregados Individuales, el método Delphi, la técnica de Grupo Nominal y el método de Consenso Grupal.  Método de Agregados Individuales: Se pide individualmente a cada experto que dé una estimación directa de los ítems del instrumento. Este es un método económico porque, al igual que el método Delphi, no exige que se reúna a los expertos en un lugar determinado. Puede parecer un método limitado porque los expertos no pueden intercambiar sus opiniones, puntos de vista y experiencia, ya que se les requiere individualmente; no obstante, esta limitación puede ser precisamente lo que se esté buscando para evitar sesgos de los datos ocasionados por conflictos interpersonales, presiones entre los expertos, entre otros.  Método Delphi: Este método busca obtener la opinión de los expertos de una manera sistemática. En un primer momento, cada experto responde de manera individual y anónima a un cuestionario. Después se analizan las respuestas del conjunto de expertos, se remite a cada uno la respuesta mediana obtenida, así como el intervalo intercuartil para cada cuestión y se les pide que reconsideren su juicio anterior, teniendo en cuenta estos datos. Se realiza el procedimiento tres o cuatro veces, y todo juicio individual que quede fuera del intervalo intercuartil en que se mueve el grupo de expertos tiene que estar debidamente justificado o argumentado. La mediana de las respuestas obtenidas en esta última vuelta es el valor que se estaba buscando.  Técnica de Grupo Nominal: El primer paso es reunir a los expertos (entre ocho y diez personas) y pedirles que registren, individualmente y sin intercambiar opiniones, sus propias puntuaciones y consideraciones respecto a las probabilidades de error para cada una de las preguntas o tareas que se les detallan. Después, cada experto expone a los demás las

4. la validez de un instrumento de medición se evalúa sobre la base de tres tipos de evidencia. Validez Total = Validez de Contenido + Validez de Criterio + Validez de Constructo Así. se habla de validez predicativa. Para Sampieri (1997).  Método del Consenso Grupal: Se reúne a los expertos en un lugar determinado. se establecen las coincidencias del grupo. DEFINICIONES DE CONFIABILIDAD: Según Silva (2010). Si el criterio se fija en el presente. Por ello es requisito que el instrumento de medición demuestre ser confiable y válido. pero no medir lo que pretende). 3. da iguales o parecidos resultados". puede validarse aplicándolo tres o cuatro días antes de la elección y sus resultados compararlos con los resultados finales de la elección (si no hay fraude desde luego ). Luego se realiza un debate de cada uno de los apartados de ésta. Cabe agregar que un instrumento de medición puede ser confiable pero no necesariamente válido (un aparato por ejemplo puede ser consistente en los resultados que produce. puntúa y argumenta las probabilidades de error para cada tarea/pregunta considerada. un investigador valida un examen sobre manejo de aviones. Con estas instrucciones se maximizan los intercambios de información y opiniones dentro del grupo de expertos. y al acabar esta ronda. 3) Evidencia relacionada con el constructo Intenta responder la pregunta. produce iguales resultados”. o al mismo tiempo por investigadores. Por ejemplo. La teoría sugiere las tareas pruebas que son apropiadas para observar el atributo o rasgo y las evidencias a considerarse en la evaluación. los resultados de la investigación no se pueden tomar en serio. Entre mayor evidencia de validez de contenido. éste se acerca más a representar la variable o variables que pretende medir. Recopilación de los datos para probar las hipótesis. Entre más se relacionen los resultados del instrumento de medición al criterio. Tamayo (2007) considera que la confiabilidad "se logra cuando aplicada una prueba repetidamente a un individuo o grupo. los juicios se emiten de forma individual y la estimación final suele ser la media aritmética del conjunto de las estimaciones dadas por los expertos. se habla de validez concurrente (los resultados del instrumento se correlacionan con el criterio en el mismo momento o punto del tiempo). que sea satisfactoria para todos los expertos.puntuaciones y principales consideraciones registradas. Por ejemplo. la confiabilidad de un instrumento de medición “se refiere al grado en que su aplicación repetida al mismo sujeto u objeto. un cuestionario para detectar las preferencias del electorado por los distintos partidos contendientes. ¿hasta dónde el instrumento mide realmente un rasgo determinado y con cuánta eficiencia lo hace? Para estudiar este tipo de validez es necesario que exista una conceptualización clara del rasgo estudiado basado en una teoría determinada. Finalmente cada experto. Este criterio es un estándar con el que se juzga la validez del instrumento. 2) Evidencia relacionada con el criterio La validez de criterio establece la validez de un instrumento de medición comparándola con algún criterio externo. validez de criterio y validez de constructo tenga un instrumento de medición. Aunque hay intercambio de pareceres. una prueba para determinar la capacidad administrativa de altos ejecutivos se puede validar comparando sus resultados con el futuro desempeño de los ejecutivos medidos. de manera individual y por escrito. consistencia y exactitud de los resultados. que los resultados obtenidos por el instrumento sean similares si se vuelven a aplicar sobre las mismas muestras en igualdad de condiciones”. la confiabilidad “se refiere a la estabilidad. mostrando la exactitud con que el examen predice qué tan bien Un grupo de pilotos puede operar un aeroplano. De no ser así. Por ejemplo. es decir. Por otra parte. Si el criterio se fija en el futuro. DIFERENCIA VALIDEZ: ENTRE CONFIABILIDAD Y . se sugieren los siguientes pasos:    Identificar las construcciones que pudieran explicar la ejecución en el instrumento. mayor será su validez. Formulación de hipótesis comprobables a partir de la teoría. se indica al grupo que su tarea consiste en lograr una estimación de la pertinencia y otros aspectos relacionados con la elaboración de los ítems.

Este Coeficiente se aplica en tests con ítems de varias alternativas. su confiabilidad será mayor. es la cantidad de sujetos a los que se les aplica el instrumento. se debe buscar una población con características similares. En el caso de que la muestra sea igual a la población. con la precisión. generalmente dos. 5. sino dos o más versiones equivalentes de éste.Retest: Una forma de estimar la confiabilidad de un test o cuestionario es administrarlo dos veces al mismo grupo y correlacionar las puntuaciones obtenidas. la práctica. corresponde a los valores obtenidos en la primera aplicación e en la segunda.  Método del Coeficiente de Alfa Cronbach: Este coeficiente desarrollado por J. Las versiones. el método de mitades partidas requiere sólo una aplicación de la medición. Las versiones son similares en contenido. es el número de ítems del instrumento. es la varianza del ítem y es la varianza total del instrumento.  Método de Paralelas: Formas Alternativas o . L. donde es el coeficiente de correlación. La siguiente tabla muestra criterios de decisión: Rango 0.80 y 0. tenderá a tener también una baja puntuación en la otra mitad. Este método tiene la desventaja de que los puntajes pueden verse afectados por el recuerdo. Se emplea la siguiente ecuación. Esto resulta lógico.41 a 0. el conjunto total de ítems (o componentes) es dividido en dos mitades y las puntuaciones o resultados de ambas son comparados. donde es el coeficiente de Alfa Cronbach. requieren cuando menos dos administraciones de la medición en el mismo grupo de individuos. MÉTODOS DE CÁLCULO DE CONFIABILIDAD: Existen diversos procedimientos para calcular la confiabilidad de un instrumento de medición.95. El coeficiente que se obtiene recibe el nombre de coeficiente de estabilidad porque denota la coherencia de las puntuaciones en el tiempo. Específicamente. simplemente se aplica y se calcula el coeficiente. y a ese mismo se le aplica el instrumento ambas veces. hay mayor error en la medición. veámoslo con un ejemplo cotidiano: Si se desea probar qué tan confiable o consistente es la lealtad de un amigo hacia nuestra persona. instrucciones. Un individuo con baja puntuación en una mitad. Para un desarrollo adecuado y sean confiables deben variar entre 0. El instrumento es confiable si la correlación entre los resultados de ambas administraciones es significativamente positiva. Si el instrumento es confiable. y la última.40 0. que se refieran a la misma variable).21 a 0. Su ventaja reside en que no es necesario dividir en dos mitades a los ítems del instrumento de medición. Claro está que demasiados ítems provocarán cansancio en el respondiente. El grupo a seleccionar no puede pertenecer a la muestra. tests de personalidad y motores. Entre más se acerque el coeficiente a cero (0). Los patrones de respuesta deben variar poco entre las aplicaciones. duración y otras características. Cronbach requiere de una sola administración del instrumento de medición y produce valores que oscilan entre 0 y 1. Estos coeficientes pueden oscilar entre 0 (nula confiabilidad) y 1 (confiabilidad total). Se emplea la ecuación dada a continuación.  Método de Mitades Partidas (split-halves): Los procedimientos anteriores (medida de estabilidad y método de formas alternas). las puntuaciones de ambas mitades deben estar fuertemente correlacionadas.00 a 0.80 0.La confiablidad se diferencia de la validez en que la primera se relaciona con la consistencia. La confiabilidad varía de acuerdo al número de ítems que incluya el instrumento de medición. entre otros.00 Confiabilidad Muy Baja Baja Media Alta Muy Alta En este procedimiento no se administra el mismo instrumento de medición. son administradas a un mismo grupo de personas dentro de un periodo de tiempo relativamente corto.61 a 0. Todos utilizan fórmulas que producen coeficientes de confiabilidad.81 a 1. En cambio. Cuantos más ítems la confiabilidad aumenta (desde luego. Este procedimiento no es adecuado para aplicarlo a pruebas de conocimientos sino para la medición de aptitudes físicas y atléticas.20 0.  Método Test .60 0. cuantas más pruebas le pongamos.

se debe utilizar la siguiente ecuación. memoria. Por ejemplo. son errores que pueden afectar la validez y confiabilidad del instrumento de medición. Algunas personas creen que elegir un instrumento de medición o desarrollar uno es algo que puede tomarse a la ligera. Por otra parte. nivel ocupacional y educativo. la personalidad o los usos y gratificaciones de la televisión para el niño. estar actualizados al respecto y revisar cuidadosamente la literatura correspondiente. la subjetividad en los puntajes de las preguntas. Es por ello que los construyen con cuidado. puede ser inapropiado para otros grupos. Para calcular el coeficiente . Traducir un instrumento aun cuando adaptemos los términos a nuestro lenguaje y los contextualicemos no es de ninguna manera validarlo. ayuda adicional de otros sujetos. son cuestiones que pueden afectar negativamente la validez y la confiabilidad.Cuanto menor sea la variabilidad de respuesta. capacidad de respuesta.  No Empático: En ocasiones el instrumento resulta inadecuado para las personas a las que se les aplica. es la proporción de sujetos que pasaron un ítem sobre el total de ellos. hay instrumentos que fueron validados en nuestro contexto pero hace mucho tiempo.  La improvisación. que haya homogeneidad en las respuestas dentro de cada ítem. Aun a los investigadores experimentados les toma tiempo desarrollar un instrumento de medición. requiere amplios conocimientos en la materia. Hay instrumentos que hasta el lenguaje nos suena “arcaico”. edad. para poder construir un instrumento de medición se requiere conocer muy bien a la variable que se pretende medir y la teoría que la sustenta. es decir. pero sólo es el principio. donde es la cantidad de ítems que posee el instrumento. su interpretación es la misma que la del coeficiente alfa. motivación para responder y otras diferencias en los respondientes. Normalmente en los experimentos se puede contar con instrumentos de medición más largos y complejos que en los diseños no experimentales.  Naturaleza del Grupo y del Criterio: Debe ser aplicado el instrumento para el grupo al cual fue diseñado.  Método del Coeficiente KR-20: Kuder y Richardson desarrollaron un coeficiente para estimar la confiabilidad de una medición con una sola aplicación del instrumento. de dos alternativas. Esta improvisación genera casi siempre instrumentos poco válidos o confiables y no debe existir en la investigación social (menos aún en ambientes académicos). y es la varianza total del instrumento. además.  Administración y Calificación del Instrumento: Entre estos factores están: tiempo insuficiente para responder. es decir. Es un primer y necesario paso. FACTORES QUE AFECTAN LA VALIDEZ Y LA CONFIABILIDAD: Hay diversos factores que pueden afectar la confiabilidad y la validez de los instrumentos de medición. conocimientos. Las culturas.  Respuestas de los Sujetos: Algunos factores: bloqueo de los sujetos al responder debido a situaciones emocionales y las respuestas al azar. el cual se aplica en instrumentos cuyas respuestas son sólo dicotómicas. mayor será el coeficiente. hace mucho frío. Por ejemplo. no tomar en cuenta diferencias en cuanto a sexo. en caso de pruebas: las chuletas o copias. en una encuesta pública sería muy difícil poder aplicar una prueba larga o compleja. el instrumento es demasiado largo o tedioso. y esto debemos tomarlo en cuenta al elegir o desarrollar un instrumento de medición. lo que permite examinar cómo ha sido respondido cada ítem en relación a los restantes. los grupos y las personas cambian. generar o simplemente seleccionar un instrumento que mida la inteligencia. Utilizar un lenguaje muy elevado para el respondiente. 6.  Cultura y Tiempo: A veces se utilizan instrumentos desarrollados en el extranjero que no han sido validados a nuestro contexto.  Condiciones Ambientales: Si hay ruido. .

Sign up to vote on this title
UsefulNot useful