Documentos de Académico
Documentos de Profesional
Documentos de Cultura
s is l nt n
momento de su aplicación, es necesario que cumpla los
siguientes principios: Validez y Confiabilidad.
Validez.
Confiabilidad.
Objetividad.
Definición según diversos autores:
De acuerdo con Hernández, Fernández y Baptista (1998),”la validez
en términos generales, se refiere al grado en que un instrumento
realmente mide la variable que pretende medir” (pág.243).
Tamayo y Tamayo (1998) considera que validar es “determinar
cualitativa y/o cuantitativamente un dato” (224).
Según Rusque M (2003) “la validez representa la posibilidad de que
un método de investigación sea capaz de responder a las
interrogantes formuladas.
Validez
Un instrumento de recolección de datos es válido cuando mide
lo que se supone debe medir en términos de contenido,
predicción, concurrencia y construcción.
debe hacer es correlacionar su medición con el criterio, y este coeficiente se prueba está relacionada con algún criterio. Es de suponer
toma como coeficiente de validez. Un instrumento posee validez predictiva que el criterio con el que se está comparando la prueba
cuando es capaz de predecir, a partir de los resultados que arroja, tiene un valor intrínseco como medida de algún rasgo o
comportamientos futuros. característica. En este tipo de validez, se debe
Ejemplo: supongamos que Fernando trata de medir el grado en que es predeterminar cuál será el rasgo o criterio que se va a
aceptado por Laura. Entonces decide que va a tomarla de la mano y observará correlacionar con los resultados de la prueba. Ambos
su reacción. Supuestamente, si ella no retira la mano, esto indicaría cierta valores deben estar directamente relacionados en
aceptación, pero para asegurarse que su medición es válida decide utilizar términos de que el rasgo o criterio empírico sea
otra forma de medición adicional, por ejemplo, mirarla fijamente sin apartar la pronosticable lógicamente a partir de los resultados de la
vista de sus ojos, en apariencia, si Laura le sostiene la mirada, esto sería otro prueba a la cual se le va a medir su nivel o grado de
indicador de aceptación. Así, su medición de aceptación se valida mediante predictibilidad. Al igual que toda prueba de correlación,
dos métodos al comparar dos criterios. si los resultados se acercan a 1, mejor será la validez de
criterio del instrumento en cuestión.
Validez de constructo:
Este tipo de validación busca establecer hasta qué punto un instrumento mide
realidad compleja.
El cálculo de este coeficiente se utiliza para mediciones de variables o dimensiones que responden a una escala de
medición de intervalo o razón.
Es importante que para la aplicación de esta prueba, se tome un lapso de tiempo lo suficientemente largo para que los
sujetos se olviden de lo que contestaron y, por el otro, no tanto que se produzcan cambios importantes. (Pérez 1998:72).
Algunos expertos opinan que 15 días de distancia entre un test y otro es suficiente. Este tipo de medición se utiliza en
investigaciones cuantitativas.
Paso 1: Elaborar formas paralelas
Formas paralelas de un test: Hay dos tipos de criterios que dos test han de cumplir
Este método consiste en: para ser considerados paralelos
1.Elaborar dos formas paralelas de un mismo test, o lo que es lo 1.Criterio Estadístico: Las dos formas presentan
mismo, dos test paralelos medias iguales y variaciones iguales tanto en sus
puntuaciones empíricas, como verdaderas y errores
2.Aplicar una forma del test a la muestra de interés y tras un lapso (mediciones paralelas) u obtienen las mismas
de tiempo que no relevante para la aparición de cambios en los puntuaciones verdaderas, pero no se requiere igual
sujetos, aplicar la segunda forma del test a la muestra varianza de error (tau-equivalentes)
3.Calcular el coeficiente de correlación entre las puntuaciones 2.Criterios de formato y contenido: En la practica dos
empíricas obtenidas por los sujetos en las dos ocasiones. Si las test paralelos consisten en dos conjuntos distintos de
formas son paralelas esa correlación es el coeficiente de fiabilidad ítems referidos a una misma variable o constructo
psicológico , habitualmente con las mismas
del test
instrucciones y el mismo formato de prueba de ítems.
Pretenden muestrear el mismo contenido con
cuestiones formuladas de manera distinta.
Paso 2: La aplicación de las formas del test
1.Las dos formas deben ser administradas en las mismas condiciones, No puede considerarse formas paralelas
o al menos, bajo los mínimos cambios posibles en las condiciones. Se aquellas en que la diferencia consiste en que se ha
trata de no introducir factores que puedan provocar cambios en los variado el orden de los ítems o el orden de las
alternativas.
resultados.
2.Respecto al tiempo, debe utilizarse un lapso entre ambas formas, lo
suficientemente corto como para que los sujetos no hayan cambiado
en la variable de interés y lo suficientemente largo para que factores
de memoria, fatiga o entrenamiento tengan el mismo efecto.
Paso 3: Cálculo del coeficiente de correlación
Una vez se han administrado las dos formas paralelas
se dispondrá de una tabla
de datos con N sujetos por 2 variables, la
puntuación en la forma A y en la
forma B para cada sujeto. Se procede entonces a
calcular el coeficiente de
correlación de Pearson.
El resultado obtenido puede estar entre –1 y +1, pasando por 0 (ausencia de
es lo
mismo, que un 25% de la varianza empírica es varianza de error.
Split-halves (Divididas en mitades):
Los resultados obtenidos de la aplicación del instrumento se dividen en dos
mitades comparativas; así, a cada sujeto le corresponde dos calificaciones después de una
sola aplicación del instrumento. La confiabilidad se obtiene después de correlacionar esas
dos calificaciones.
Una manera de resolver el problema de cómo dividir el instrumento es
haciendo dos grupos con las calificaciones obtenidas de los ítems pares y nones. Se debe
estar seguros que todas las categorías estén representadas en las dos partes para que se
divida el instrumento
Se obtienen las puntuaciones de los ítems pares y de los ítems nones,
luego
ambas se correlacionan. Si ambas puntuaciones son altas se obtendrá un coeficiente de
confiabilidad alto.
Coeficiente Alfa de Cronbach.
Es un coeficiente que sirve para medir la fiabilidad de una
escala de medida, y cuya denominación Alfa fue realizada
por Cronbach en 1951, aunque sus orígenes se encuentran en
los trabajos de Hoyt (1941) y de Guttman (1945)
Este método permite medir la consistencia interna del instrumento. Se utiliza en la construcción de
escalas en las que no hay respuestas correctas o incorrectas, sino que cada entrevistado responde la alternativa
que mejor representa su forma de pensar sobre el objeto que se le pregunta.
Un investigador trata de medir una cualidad no directamente observable (por ejemplo, la inteligencia) en una
población de sujetos. Para ello mide n variables que sí son observables (por ejemplo, n respuestas a
un cuestionario o un conjunto de n problemas lógicos) de cada uno de los sujetos.
Se supone que las variables están relacionadas con la magnitud inobservable de interés. En particular, las n
variables deberían realizar mediciones estables y consistentes, con un elevado nivel de correlación entre ellas.
El alfa de Cronbach permite cuantificar el nivel de fiabilidad de una escala de medida para la magnitud
inobservable construida a partir de las n variables observadas.
El alfa de Cronbach no es un estadístico al uso, por lo que no viene acompañado de ningún p-valor que permita
rechazar la hipótesis de fiabilidad en la escala. No obstante, cuanto más se aproxime a su valor máximo, 1, mayor
es la fiabilidad de la escala. Además, en determinados contextos y por tácito convenio, se considera que valores
del alfa superiores a 0,7 o 0,8 (dependiendo de la fuente) son suficientes para garantizar la fiabilidad de la escala.
Coeficiente KR20:
El KR20 es un indicador de la fidelidad (consistencia interna).
Los métodos basados (Rulon, Alfa de Cronbach, Spearman, Brown) en la división en dos porciones (presumiblemente iguales) da desventaja
de ser relacionado con las opciones de la partición (véase la mitad igualdad-impar, de la primera y segunda parte, al azar).
Kuder y Richardson desarrollaron un procedimiento basado en los resultados obtenidos con cada ítem. De hecho, hay muchas maneras de
precisar otra vez los ítems (reactivos) en 2 grupos, que pueden conducir a las estimaciones diferentes de la consistencia interna.
Esta es la razón por la cual Kuder y Richardson consideren tantas (n) partes en la prueba de acuerdo a los ítems (n).
En los métodos de partición en dos, (conocido también como bisección) supone para cada parte ser equivalente ( las formas paralelas ). Para el
KR20, la misma lógica se adopta en el nivel de los ítems. Es lo que uno llama unidimensional.
El KR20 se aplica en la caja dicotómica de ítems.
Uno calcula el KR20 como sigue:
Se puede mostrar que el KR20 es el promedio de los Índices de la fidelidad el cuál se obtendrá si se calcula la fidelidad para todas las particiones
posibles en dos. Para ilustrar la aplicación del KR n° 20 de la fórmula de Kuder-Richardson, se puede tomar un ejemplo ficticio de una
examen de 10 preguntas en el que se calcula el coeficiente de la consistencia interna. El vector 5,4 contiene la cuenta obtenida por cada
pregunta así
como la cuenta total del examen.
Miremos al primer alumno, "Eric", que contestó correctamente a seis preguntas entre las 10 preguntas del examen. Las preguntas correctas
son, B, C, D, E, F, y que falló en las preguntas G, H, I, J.
Verticalmente, todos los alumnos tuvieron éxito en la pregunta (a) , mientras que solamente dos alumnos tuvieron éxito en la pregunta (J).