Está en la página 1de 3

Foro Validez y confiabilidad:

1. Evidencia relacionada con el contenido: ¿Las preguntas qué tan bien representan a
todas las preguntas que pudieran hacerse? ¿Cuántas preguntas se podrían hacer en
cada celdilla de la tabla de especificaciones de la prueba? Infinitas.

2. Evidencia relacionada con el criterio:

• Validez concurrente: Piense en un ejemplo con la prueba de aprendizaje en


Ciencia= Otras pruebas que evalúen el aprendizaje en Ciencia, por ejemplo las
“Aprender”
• Validez predictiva: Piense en un ejemplo con la prueba de aprendizaje en
Ciencia= Otra evaluación sobre el aprendizaje en Ciencia, aplicada con
posterioridad a la implementación de un nuevo modelo de enseñanza basado en
la resolución de problemas.

3. Evidencia relacionada con el constructo: ¿Imagina un ejemplo con la prueba de


aprendizaje en Ciencia? Un posible constructo sería: “La interpretación y la resolución
de problemas significativos a partir de saberes y habilidades del campo de la ciencia
escolar, contribuyen al logro de la autonomía en el plano personal y social de las y los
estudiantes” (NAP, https://www.educ.ar/recursos/110571/nap-ciencias-naturales-
educacion-secundaria-ciclo-basico)

Factores que pueden afectar la confiabilidad y la validez: Aplique los diferentes


factores a la prueba en Ciencia

1°- Improvisación: es necesario conocer muy bien la variable qué se pretende medir
para no caer en la improvisación que genere un instrumento poco válido/confiable.

2°- Instrumentos desarrollados en el extranjero que no han sido validados para nuestro
contexto: cultura y tiempo: Debemos evitar tomar instrumentos extranjeros aplicando
una simple traducción, porque debemos considerar particularidades de cada contexto,
así como el diseño curricular de la provincia/país donde se aplicará.

3°- El instrumento resulta inadecuado para las personas a quienes se les aplica: no es
empático: al respecto, Hernández Sampieri, et al. (2006) sostiene que “Quien realiza
una investigación debe siempre adaptarse a los sujetos participantes” (p. 23), por eso
debe contempla las particularidades que presentan los sujetos participantes, teniendo
en cuenta sus características (edad, desarrollo cognitivo, capacidades, etc.)

4°- Cuestiones relacionadas con los estilos personales de los sujetos participantes: las
y los estudiantes pueden verse afectados por la “deseabilidad social” e intentar resolver
exitosamente la prueba, aunque eso dependerá del grado de conocimiento que
realmente hayan alcanzado.

5°- Las condiciones en las que se aplica el instrumento de medición: este factor
dependerá de las características que presente cada establecimiento educativo donde
se aplique la prueba y del espacio que se brinde para tal fin.

6°- La falta de estandarización: debemos procurar que la evaluación tenga las mismas
características para todos los participantes: misma cantidad de preguntas/consignas,
planteadas en el mismo orden..

La objetividad

¿Qué características de la prueba limitarían la objetividad? ¿Qué características de la


prueba ayudarían a la objetividad? Pueden limitar la objetividad el rol del aplicador,
porque su proceder puede afectar al desenvolvimiento de la prueba, y en
consecuencias, también a los resultados obtenidos. Mientras que el mayor grado de
estandarización (mismas instrucciones y condiciones para todos los participantes)
pueden ayudar a la objetividad.

Cálculo de la confiabilidad

1. Medida de estabilidad (confiabilidad por test-retest).¿Se habrá aplicado en el


PISA? ¿Por qué? Como la confiabilidad por test-retest se trata de “un mismo instrumento
de medición se aplica dos o más veces a un mismo grupo de personas, después de
cierto período” (Hernández Sampieri, et al., 2006: 25) no pudo aplicarse a PISA porque
evalúa a la misma población, no al mismo grupo de personas.

2. Método de formas alternativas o paralelas. ¿Se habrá aplicado en el PISA?


¿Por qué? No, porque PISA es un instrumento de evaluación que se aplica cada tres
años a la misma población.

3. Método de mitades partidas (split-halves). ¿Se habrá aplicado en el PISA?


¿Por qué? No, porque PISA es un instrumento de evaluación que se aplica en su
totalidad, a toda la población (estudiantes de 15 años).

4. Medidas de consistencia interna. Índice de Cronbach: es un índice-resumen


que surge de la matriz de correlación de todos los ítems entre sí ¿Se habrá aplicado
en el PISA? ¿Por qué? Creo que sí podría haberse aplicado a PISA para verificar la
consistencia interna de la prueba.

Cálculo de la validez
1. Validez de contenido. ¿Cuál sería el procedimiento con la prueba de Ciencia?
Primero, revisar cómo por otros investigadores han aplicado instrumentos similares a fin
de reunir un grupo de ítems que se desean evaluar. Luego, continuar la consulta con
expertos en Ciencia para determinar los ítems que, finalmente, evaluaremos.

2. Validez de criterio: se basa en la correlación entre la medición y el criterio externo;


¿Cuál sería el procedimiento con la prueba de Ciencia? Podríamos correlacionar los
resultados obtenidos en la prueba de Ciencia con los resultados de otras evaluaciones
similares, por ejemplo las “Aprender”.

También podría gustarte