Está en la página 1de 4

Análisis de reactivos  Ngrupomayor = Número de personas

en el grupo más numeroso (GA o


 Permite acortar la prueba.
GB).
 Incrementa la confiabilidad y la
validez. Mientras más alto el índice de
discriminación, el reactivo mejor
Cualitativo: Cuantitativo: diferenciará a las personas con altas y
1. Validez de 1. Dificultad.
contenido. 2. Discriminación. bajas calificaciones.
2. Redacción.
- El índice se mueve entre -1 y +1.

Dificultad
Puntaje de aprobación:

 Porcentaje de personas que


contestaron correctamente los ítems. Confiabilidad
 Más cercano a 1 o 0  Menor Exactitud, precisión de la medición.
información diferencial sobre los
individuos. 1. Los resultados obtenidos deben ser
 Se debiese seleccionar los ítems con reproducibles.
dispersión moderada, pero con un 2. Ausencia relativa de errores de
promedio de dificultad de .50. medición en un instrumento. Para eso
se debe investigar la cantidad de error.
Puntaje de aprobación = Total de 3. Proporción entre la varianza
respuestas correctas / Total de respuestas verdadera y la varianza total.

Índice de discriminación
rtt= VT
Vo

 Di = Índice de discriminación del


rtt= 1- Ve
reactivo i.
 GAaciertos = Número de aciertos del
Vo
27% de personas con las puntuaciones
más altas.
EJ. ¿Cuál es la confiabilidad cuando la
 GBaciertos = Número de aciertos
proporción de la varianza total compuesta
DEL 27% de personas con las
de varianza verdadera es 0,90?
puntuaciones más bajas.
 Varianza total = 1 Se presentan 2 formas similares del
 Varianza verdadera = 0,90 (90%) instrumento, y se calcula la correlación
 Varianza de error = 0,10 (10%) entre los puntajes obtenidos por las
mismas personas.
Entre 0 y 1, si da 1 es perfectamente
confiable.  Se debe hacer en un tiempo que no
implique cambios relevantes en los
Métodos para calcular confiabilidad: sujetos.
 Cuidado con el equilibrio y
Modelo Alfa de Cronbach equivalencia (nivel de complejidad,
cantidad de ítems, consignas).
Valora la consistencia interna a partir de
 Debe haber otro test que mida la
la correlación entre elementos
misma variable/misma cantidad de
promedio.
ítems.
Asume que la escala está compuesta de  Coeficiente de equivalencia.
elementos homogéneos que miden la
misma dimensión y que la consistencia
División en mitades
interna puede evaluarse mediante la
correlación entre todos sus elementos. Se divide la prueba en mitades
comparables.
 No hay subcomponentes.
 Administración en una sesión.
 Deben medir la misma dimensión.
Test-retest
 Indicador de la consistencia
Segunda administración de la prueba a los interna.
mismos sujetos tras un cierto tiempo.  I. De rendimiento óptimo: Se
debiesen ordenar de par e impar.
 No + de 1 mes en niños.
 No + de 6 meses en adultos.
Cálculo Alfa de Cronbach
Con las 2 administraciones se dan 2 1. Aplicar escala.
conjuntos de puntajes independientes que 2. Calcular coeficientes de correlación r
serán correlacionados entre sí, esperando de Pearson entre todos los ítems
un mínimo de error entre ambos. (todos contra todos de par en par).
3. Elaborar matriz de correlación.
 Coeficiente de estabilidad
4. Calcular promedio de las
“temporal”. (El tiempo no altera los
correlaciones entre ítems.
resultados).
5. Aplicar la fórmula:

Formas paralelas o alternativas


Cálculo división por mitades
 P = promedio de correlaciones. Spearman Brow:
 N = número de variables.

Validez
Mide lo que dice medir. Una
prueba/escala es válida según el propósito
práctico de quien la utiliza.
 
EJ. Se aplica una prueba para medir la Validez de contenido
actitud de un grupo de estudiantes
Representatividad o adecuación del
respecto de su proceso de aprendizaje.
contenido de un instrumento de medición.
Que el significado de un ítem
Cálculo Kuder Richardson KR – 20
concuerde con el constructo que se
quiere medir.

Se realiza:

 De juicio/jueces. El investigador
 N = número de reactivos.
juzga la representatividad de los
 S2t = varianza.
reactivos.
 P = probabilidad de ocurrencia
 ¿Este reactivo mide la propiedad M?
(éxito).
 Q = probabilidad de fracaso.
Validez de criterio
Predicción o congruencia con un criterio
externo (en un momento o en el futuro).
Relación del instrumento con un
criterio externo.

 Predictiva: Asociación con un


criterio futuro. La variable se debe
medir en un tiempo 1 y predecir otra “En este estudio encontramos evidencia
en un tiempo 2. de que la escala posee…”
 Concurrente: Asociación con otro
- Transformar  Calcular variables
criterio evaluado simultáneamente.
Nivel de correlación de la escala con  Nombrar como “…” 
otra que mide lo mismo y ya está Seleccionar “todo” (arriba) 
validada. Seleccionar “sumar” (abajo) 
SUM (Fusion1, Fusion2, …) 
Aceptar.
Validez de constructo
- Mismo con el otro grupo de
Énfasis en la base teórica y la relación variables.
con otras variables. Qué tan - Analizar  Correlaciones 
exitosamente el instrumento representa Bivariadas  Escoger ambas
y mide el concepto teórico. creadas  Prueba de
 Incluye otras formas de validez. significancia: Unilateral.
 Busca conocer el significado de las - Transformar  Calcular variables
pruebas.  Nombrar “2_mitades”  ( 2 x
correlación encontrada / (1 + c)
Si las dimensiones se relacionan de
manera negativa, la correlación debiese
ser negativa (-) (una sube y la otra baja),
si no lo es, no es válida.

Si las dimensiones se relacionan de


manera positiva, la correlación debiese
ser positiva (+) (subir a la par).

Entre más cerca de 1, mayor la


correlación. La correlación puede ser
débil o fuerte.

La significancia debe ser menor o igual


a 0,05.

¿Cómo dar vuelta los ítems? Con la


fórmula (cantidad de respuestas – x
(ítem)).

*Cantidad de respuestas: EJ. Nada – Poco


– Mucho > Cantidad: 3.

También podría gustarte