Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teorico 7 - CONFIABILIDAD
Teorico 7 - CONFIABILIDAD
CONFIABILIDAD
- Para entender el concepto de confiabilidad, hay que hablar del “error de medición”; en la medición
nos encontramos con tres tipos de errores:
o Error de medición
(aleatorios)
Es la contracara de la confiabilidad.
Son aquellos sin posibilidad de ser controlados, y su causa es al azar. Y no se da
siempre en el mismo sentido: a veces se da de modo que favorece el rendimiento del
sujeto en el test y otras veces lo perjudica (en diferentes sesiones o en la misma). No es
algo negativo, sino que la medición no puede darse sin este error.
OM
Tiene tres orígenes posibles:
El examinado: puede estar cansado o no, interesado o no en la tarea de
evaluación; puede haber un rapport mejor o peor con el examinador; puede estar
ansioso, motivado, etc. Esto hace que su rendimiento varíe minuto a minuto, y
que varíe entre una sesión/entrevista de aplicación y la siguiente.
Examinador: no es lo mismo un examinador que tomó un test mil veces que uno
.C
que lo hace por primera vez; uno que sea más contenedor que otro más
distante. Un examinador podría verse afectado por crisis personales, estar de
muy buen humor, estar enfermo, etc. Así, introduce el error perjudicando o
DD
mejorando el rendimiento del sujeto.
Ambiente: no es lo mismo trabajar en un ambiente con buena luz, en silencio,
etc., que en un ambiente donde la luz se nos corta, hay mucho ruido de afuera, y
todo tipo de distracciones.
Estas tres fuentes producen el error de medición, el cual se da en toda medición.
Afecta la confiabilidad: cuanto mayor error de medición tengo, ese test va a tener
LA
menos confiabilidad. Cuanto menor sea este error, podemos tener más confianza en el
resultado que ese test de.
- CONFIABILIDAD:
OM
o Es la confianza que podemos tener en los resultados que nos da un test; la confianza que nos
ofrece una medición. Esperamos que sea: inalterable, consistente, coherente, estable en el
tiempo.
o Cuanto menor error de medición hay, mayor confiabilidad del test hay.
o Aspectos de la confiabilidad:
Estabilidad temporal (r):
.C
Test-retest:
o Administrarle el test a una muestra de sujetos y volver a
administrarlo luego de un intervalo (no hay número fijo de tiempo).
DD
o Debe ser breve pero no tanto (para que el sujeto no pueda recordar las
respuestas); ni tan largo como para que el niño madure y sus respuestas
cambien y, por tanto, no se pueda medir la estabilidad temporal de las
puntuaciones, sino que se mediría la evolución del niño.
o La estabilidad temporal o consistencia entre el test y retest, se expresa
mediante el coeficiente de correlación de pearson (r):
LA
resultados].
r=0 correlación nula [presencia de errores].
r=0,50 correlación media.
Puede asumir un signo positivo o negativo dependiendo de si es
directa (+) o inversa (-). En el caso de la confiabilidad debería
Homogeneidad:
Debe haber homogeneidad de los ítems y por tanto, en las mediciones que
se generan a partir del contenido de esos ítems.
Se miden mediante el cálculo de correlaciones múltiples (NO es análisis
factorial) entre todos los ítems y todas las respuestas de todos los sujetos que
OM
formaron esa muestra a la que se examinó.
Se calcula mediante el coeficiente alfa de Cronbach, el coeficiente alfa ordinal;
se puede hacer por división por mitades tratando una mitad del test como si
fuera el test y la otra mitad como si fuera el retest. Y se pueden usar otros
índices como el Kuder-Richardson (KR), la fórmula Guttman, Spearman-Brown,
los alfas por mitades.
.C
Todos estos índices se interpretan de la misma manera, deben ser todos
positivos y lo más cercanos a 1 posible. Un coeficiente de confiabilidad en
términos de estabilidad temporal, de consistencia y de homogeneidad se
considera:
DD
o A partir de 0,70: aceptable.
o A partir de 0,80: muy bueno.
o A partir de 0,90: excelente.
Una sola aplicación: reunimos una muestra de sujetos y podemos tomar en 1 sola
OM
sesión cierta cantidad de protocolos. Los procedimientos que podemos usar son:
CONSISTENCIA INTERNA:
o Calculamos, por ej: el alfa de Cronbach y ya está (dividimos a la misma
muestra en dos así una actúa como test y otra como retest). No los
vemos más a los sujetos.
o Evaluamos la consistencia y la homogeneidad.
.C
DIVISION POR MITADES:
o Tomamos el test a la muestra de sujetos, pero una vez que los sujetos se
DD
van, los dividimos en dos mitades cuando ingresamos los datos en la
base de datos (no lo dividimos al administrarlo, sino luego).
o Estas dos mitades tienen que ser homogéneas, apareadas en contenido
y dificultad.
o Así, se establece la correlación entre la primera mitad y la segunda.
o Si la correlación es alta y positiva (cerca de 1), estamos ante una buena
LA
confiabilidad.
o Evaluamos la consistencia interna del instrumento y homogeneidad.
o Se aplica la fórmula Spearman-Brown para estimar la confiabilidad del
instrumento.
FI
FORMULAS KUDER-RICHARDSON:
o Evalúa la homogeneidad del test.
o Calcula la correlación entre los ítems de una escala.
o El coeficiente KR-20 (es más anticuado) se usa cuando se desea
determinar la consistencia entre ítems dicotómicos y no ordinales.
ENTRE EVALUADORES:
o Una técnica psicométrica confiable debe arrojar los mismos resultados
independientemente de quien lleve a cabo la evaluación.
o Se utiliza cuando la grilla de puntuación está sujeta más a la opinión o
elementos subjetivos que puede aportar el evaluador.
OM
o Se utiliza este procedimiento para mejorar esa grilla de evaluación hasta
que se llega a un acuerdo tan alto que casi no hay variación (coeficientes
de confiabilidad de 0,90 a 0,99, es decir, excelentes).
o Si medimos la consistencia entre evaluadores, acá ya estamos viendo la
homogeneidad de los criterios de evaluación, y por ende, la claridad y
precisión que tienen las claves de puntuación.
.C
Dos aplicaciones:
DD
TEST-RETEST:
o A la misma muestra de sujetos se le administró el test, y luego de cierto
intervalo le volvemos a administrar el mismo test a esa misma muestra y
correlacionamos los resultados.
o Si la correlación es alta y positiva, quiere decir que hay una buena
LA
o Construcción:
Preparación de ítems:
Redacción numerosa de ítems.
Juicio experto: es el estudio de validez de contenido en donde 5 expertos
reciben el contenido de esos ítems junto con las definiciones teóricas de cada
una de las dimensiones que constituyen ese constructo según el modelo teórico.
Independientemente, opinan sobre la bondad o la inconveniencia de la
OM
formulación de esos ítems, y sobre cuáles hay que eliminar y cuáles no.
Estudio piloto: se hace con una pequeña muestra de sujetos y a partir de sus
críticas se establecen adecuaciones lingüísticas de las consignas e ítems
(estudio de validez aparente).
Estandarización:
Administración de tipificación: una muestra muy grande de sujetos en donde
.C
estos deben ser homogéneos en cuanto a características socio-demográficas, a
los cuales se va a destinar el test. Esta administración nos dará datos que nos
permitirán hacer distintos análisis:
DD
o Análisis de ítems: analizar su capacidad discriminativa; ver si esos
ítems son capaces de diferenciar entre sutilezas y peculiaridades del
rasgo o atributo tienen de los distintos sujetos. Elimina los ítems que
ofrecen baja capacidad de discriminación.
o Validez y confiabilidad.
LA
- Adaptación de un test:
Cuando hay que hacer esto, se deben determinar tres tipos de equivalencias:
o Conceptuales: que el concepto o constructo teórico que se quiere medir, tenga una definición