Está en la página 1de 50

Teoría y Construcción

de Pruebas Psicológicas

Escuela de Psicología

CLASE 9: ANÁLISIS DE
ÍTEMS I
Análisis de Ítems
2

 Cuando se ha construido un instrumento psicológico de


medición, se lo debe someter a diversas evaluaciones antes de
utilizarlo como instrumento de medición o en investigación.

Acciones previas al análisis de Ítems.

Tal como se ha expresado con anterioridad, se lleva a cabo en


primer lugar una APLICACIÓN PILOTO O DE PRE-TEST del
instrumento construido, con el objeto de verificar la comprensión
de las instrucciones y de los reactivos específicos que se
construyeron, para realizar las correcciones que se necesiten
antes de proceder a la aplicación definitiva del instrumento.

Como se dijo, consiste en una aplicación de la prueba en una


muestra accidental del grupo meta u objetivo, en una relación
cara a cara con los examinados, para incentivarlos a expresar las
dificultades que les surgen con la prueba.
Análisis de Ítems
3

Acciones previas al análisis de Ítems.

 Luego se lleva a cabo la APLICACIÓN EXPERIMENTAL de la prueba,


en que se obtienen datos del instrumento a partir de la aplicación en
una muestra que en cuanto tipo y tamaño reproduzca la población meta
de medición, con el fin de usarlos en diferentes análisis estadísticos.

 La aplicación del instrumento se realiza sobre una muestra


representativa de la población a la que va dirigida la medición.

 Se puede trabajar tanto con una muestra aleatoria como una no


aleatoria, siempre que en este segundo caso se trabaje con muestras que
permitan reproducir la estructura del colectivo.

 Se exige que el tamaño muestral permita inferencias con un error


máximo del 5% .
Análisis de Ítems
4

Objetivo del Análisis de Ítems.

Determinar la calidad de los ítems o reactivos de


una prueba, con el fin de decidir cuáles van a
formar parte de la prueba y cuáles deberán ser
eliminados.
Acciones en el Análisis de Ítems.

Se llevan a cabo dos tipos de análisis:

Análisis Análisis
global de los individual de
ítems los ítems
Esquema Resumen
5

Rango de los ptjes totales


obtenidos

Análisis Global

Forma de la distribución
resultante

Grado de
Análisis de ítems Dificultad/Grado
de atractivo
Proporción de la respuesta en
dirección a la variable
Índice de
Discriminación

Análisis Individual

Correlación ítem-
test
Cálculo índice de
consistencia interna
Correlación ítem-
variable
Análisis Global de los Ítems
6

Implica el análisis de la distribución de los puntajes


iniciales que arroja el test, lo que adquiere mucha
importancia en pruebas de comportamiento máximo.
Se lleva a cabo en base a dos indicadores:
1. Rango de los puntajes totales obtenidos
2. Forma de la distribución resultante
Análisis Global de Ítems
7

RANGO DE LOS PUNTAJES TOTALES


OBTENIDOS
Análisis Global de los Ítems (2)
8

1. El rango de los puntajes totales obtenidos, si no se


efectúa el recorrido total del rango de puntajes teórico,
permite inferir si para el grupo experimental hubo ítems
que resultaron ya sea muy difíciles o muy fáciles.

 Si el puntaje mínimo obtenido en el grupo no comienza en


el puntaje mínimo teórico, nos indica que hay algunos
ítems que fueron muy fáciles, en tanto si nadie alcanza el
puntaje máximo teórico, para el grupo experimental
algunos ítems resultaron muy difíciles.
 En el caso de pruebas de comportamiento típico, la
interpretación de lo anterior es que la prueba contiene
algunos ítems que nadie rechaza, y en otro extremo, que
nadie acepta totalmente. Esto se aprecia muy claramente
en pruebas actitudinales.
Análisis Global de Ítems
9

FORMA DE LA DISTRIBUCIÓN RESULTANTE


Análisis Global de los Ítems (3)
10

2. El segundo indicador es la forma de la distribución


resultante, que arroja información sobre el grado de
dificultad global del instrumento, en pruebas de
comportamiento máximo, y que en pruebas de
comportamiento típico posibilita efectuar estudios
descriptivos en torno a la o las variables que se están
midiendo.

 Si en una prueba de comportamiento máximo la mayoría de los ítems de


una prueba son fáciles, la distribución final de los puntajes será
asimétrica negativa: la mayor parte de los puntajes serán altos y se
discrimina en los puntajes bajos, o sea, a los sujetos que rinden menos.
 Se intenta obtener este tipo de distribución cuando se elaboran pruebas
para evaluar sujetos que presentan algún tipo de déficit.
Análisis Global de Ítems (4)
11

 Si la mayoría de los ítems de una prueba son difíciles, los


sujetos tendrán puntajes bajos en su mayoría, y se discrimina
a los sujetos que rinden más: da una distribución asimétrica
positiva.
 Sirven para rendimiento competitivo, como en selección de
personas.

 En pruebas de inteligencia, se busca la distribución


simétrica, normal, y poder definir el 50% central, a los
sujetos de inteligencia normal.
 Entre éstos no se diferencia, pero si se discrimina a los de
inteligencia inferior o muy superior. En este tipo de pruebas
intervienen ítems que son 25% difíciles, 50% de mediana
dificultad y 25% fáciles, aunque también se obtienen
distribuciones simétricas si sólo se usan ítems de mediana
dificultad.
Comparación de Moda, Mediana y
Promedio
12
Análisis Individual de los Ítems
13

1. CÁLCULO DE LA PROPORCIÓN DE LA
RESPUESTA EN DIRECCIÓN DE LA
VARIABLE
Análisis Individual de los Ítems
14

• Permite establecer la capacidad de discriminación


de cada uno de los reactivos, a través de dos indicadores:
1. el cálculo de la proporción de respuesta en la dirección de la
variable;
2. el cálculo de su índice de consistencia interna (o también
denominado índice de homogeneidad o índice de validez
interna).

1. La proporción de respuesta en la dirección de la variable se la


denomina como grado de dificultad de cada ítem en pruebas de
aprendizaje o capacidad.
• En ítems que miden actitudes, características personales, opiniones,
se la denomina grado de atractivo o de popularidad de los ítems.
Análisis Individual de los Ítems (2)
15

Se establece en ambos casos como una proporción o porcentaje (p), a


partir de la cantidad de personas que aprueban un ítem, y la cantidad
de personas total que lo ha debido enfrentar.

Los cálculos pueden contener variaciones, dependiendo de los objetivos


del constructor de la prueba.

Fórmula básica:

a: cantidad de personas que responden correctamente (o aprueban)


el ítem.
N: número de personas que abordaron o intentaron responder el
ítem.
Análisis Individual de los Ítems (3)
16

• Se entiende fácilmente que el grado de dificultad de un ítem


interviene en la discriminación del mismo: este grado de dificultad,
que se expresa a través de la proporción o del porcentaje de sujetos
que contestan correctamente al estímulo, hace que sea posible
diferenciar a los sujetos con relación al nivel de habilidad que
presentan.

• Un ítem muy fácil, que contesta correctamente el 100% del grupo


experimental, no permite discriminar entre los sujetos, porque no
permite dividir al grupo en aquellos que poseen la característica
medida (los que contestan bien) de aquellos que no la presentan.
• Lo mismo acontece con un ítem muy difícil, que nadie del grupo
contesta correctamente (0% de respuesta).

• En cambio los ítems ni muy fáciles ni muy difíciles son los que
aportan a la discriminación del test, porque dispersan a los sujetos.
Análisis Individual de los Ítems (4)
17

 El concepto de proporción o porcentaje de sujetos que contestan


correctamente un ítem está relacionado inversamente con la
dificultad, porque mientras mayor es la proporción de sujetos que
contestan, más fácil es el ítem.

 Se ha llegado al siguiente consenso* en torno al grado de dificultad


de ítems de pruebas de rendimiento y capacidad general:

 Si lo responde bien menos de 30% del grupo: ITEM DIFÍCIL.


 Si lo responde bien entre 30 y 70% del grupo: ITEM DE
MEDIANA DIFICULTAD.
 Si más de un 70% del grupo lo responde bien: ITEM FÁCIL.

 Este es el criterio que se aplica en la P.S.U. y que anteriormente


también se aplicó en la P.A.A.
ANALISIS INDIVIDUAL DE LOS ÍTEMS:

 El criterio anterior se estableció dado que había mucha


variabilidad en los criterios de los distintos autores para lo que
se consideraban ítems difíciles, medianos y fáciles, tal que:
hasta 15%, entre 15 y 85%, más de 85%; hasta 20, entre 20 y
80, y más de 80%.
 Al criterio de 30/70% se llegó en base al concepto de varianza
de los ítems
ANALISIS INDIVIDUAL DE LOS ÍTEMS:

 La varianza de cada ítem está relacionada con la proporción de


sujetos que contestan bien a un reactivo y los que lo contestan
mal, lo que se simboliza como p y q.

 Esta denominación parte del hecho que se supone una


distribución normal a la base de los rasgos medidos por cada
ítem, lo que posibilita que el grado de dificultad de cada ítem
se exprese en función de una escala de intervalos (o sea de
unidades iguales) por referencia a las tablas de frecuencia de
una distribución normal.
ANALISIS INDIVIDUAL DE LOS ÍTEMS:

 La varianza de cada ítem estaría dada por el producto p x q, y


la desviación estándar del mismo por _____
pxq
Si p = 0,5 t q = 0,5, la varianza del ítem es 0,25. Esta es la
varianza máxima que un item puede tener, porque destaca
más las diferencias individuales (dispersa más a los sujetos)
que otro ítem más difícil o más fácil.
ANALISIS INDIVIDUAL DE LOS ÍTEMS:

 Cuando p crece más, o cuando se hace más chica que 0,5 la


varianza del ítem decrece en forma continua. El salto en
magnitud entre p= 0,8 y p=0,7 fue lo que se tomó en cuenta para
establecer el criterio de corte al considerar el grado de dificultad
de los ítems para pruebas de rendimiento en general.
 La relación entre la varianza del item y la dificultad también
puede mostrarse de una manera más simple: gráficamente.
ANALISIS INDIVIDUAL DE LOS ÍTEMS:

 Así, si en un grupo de sujetos N=10, 5 resuelven un ítem y 5


fracasan (p=q=0,5) se pueden hacer 25 comparaciones,
diferenciaciones o discriminaciones entre esos sujetos.
 Si 8 lo resuelven y 2 no, sólo puedo hacer 16 comparaciones.
ANALISIS INDIVIDUAL DE LOS ÍTEMS:

 Consecuente con lo anterior, en pruebas de aprendizaje o


rendimiento educativo en general, se privilegia que los ítems
presenten un grado de dificultad medio.
 No obstante, dependiendo de los objetivos de medición, como
en selección o detección de déficits, las pruebas deberían, en
promedio, estar compuestas por ítems de menos de 30 y más
de 70% de respuesta correcta, respectivamente.
Análisis Individual de los Ítems (5)
24

 En pruebas de comportamiento máximo, el que un ítem


presente un grado de dificultad distinto del definido para el
objetivo de la prueba es causal de su eliminación del test..

 Lo anterior no acontece en pruebas de comportamiento


típico, dado que allí los ítems no se eliminan por el criterio de
su grado de atractivo o de popularidad.
 No obstante, en términos prácticos, se sabe que los ítems de
las pruebas de comportamiento típico que responde más del
75% de las personas de la muestra experimental,
corresponden a ítems que miden alguna característica que el
grupo de sujetos considera como propia, por lo que se
considera que no tiene mucho sentido mantenerlos en la
prueba. (Se estaría cargando la prueba con características que
el grupo objetivo de medición siente como obvias).
ANALISIS INDIVIDUAL DE LOS ÍTEMS:

 Retomando el cálculo del grado de dificultad o del grado de


atractivo de los ítems: la fórmula general p = a / N se
considera para el caso en que cada respuesta sea puntuada
con 1 ó 0 puntos.
 También es posible hacer el análisis del grado de dificultad
dividiendo al grupo experimental en la mediana de puntaje
total alcanzado, diferenciando así a un grupo de mejores
puntajes y otro grupo de puntajes más bajos. Esta práctica se
suele hacer cuando se desea obtener información cualitativa,
además de la cuantitativa en torno a la forma de responder
un ítem.
Análisis Individual de los Ítems (6)
26

Retomando el cálculo del grado de dificultad o del grado de


atractivo de los ítems.
 A partir de la fórmula básica, es posible hacer el análisis del grado de dificultad
dividiendo al grupo experimental en la mediana de puntaje total alcanzado,
diferenciando así a un grupo de mejores puntajes y otro grupo de puntajes más
bajos a partir del listado total de los puntajes obtenidos. Esta práctica se suele
hacer cuando se desea obtener información cualitativa, además de la cuantitativa,
en torno a la forma de responder un ítem. De esta forma tenemos:

 Donde,
 as = número de sujetos que respondieron correctamente al ítem en el
grupo de puntaje superior,
 ai = número de sujetos que respondieron correctamente al ítem, en el
grupo de puntaje inferior,
 Ns = número de sujetos del grupo superior,
 Ni = número de sujetos del grupo inferior.
Ejemplo
27

 Si tengo un grupo de 62 personas que han me


contestado una prueba, y en un ítem 32 personas
me lo responden bien, eso me daría una
proporción de respuesta correcta de 0,516 ó un
51,6%.
 Aplicando la fórmula aludida, puedo saber si:
 la proporción de personas del grupo de puntajes
superior que respondió bien el ítem es mayor que
la de los del grupo inferior que lo respondieron
bien ( a ), que sería lo esperable
 o si la proporción es la misma (b ), lo que
indicaría un ítem que no diferencia entre los
sujetos de mejor rendimiento y los de más bajo
rendimiento;
 o si por último la proporción de las personas que
bajo rendimiento global en la prueba son quienes
responden bien el ítem en más alta proporción que
los de altos puntajes, ( c ) lo que indicaría un ítem
ambiguo (que desconcierta a los sujetos de altos
puntajes).
Análisis Individual de los Ítems (7)
28

 En el caso que el puntaje a un ítem no sea 0 ó 1,


sino más, como 0,1,2,...n, entonces el
procedimiento cambia un poco, porque para
determinar el grado de dificultad de un ítem de
este tipo hay que obtener la proporción del
puntaje efectivamente alcanzado por el grupo y el
puntaje total teórico para el ítem.

Fórmula “compleja”:

p= ∑ Puntaje obtenido por los sujetos


Puntaje máximo teórico (Ptje. máx. ítem x N)
Análisis Individual de los Ítems (8)
29

Ejemplo:
 Si 50 personas enfrentan un ítem y el máximo puntaje que se puede
dar en el ítem son 3 puntos, entonces el puntaje total teórico en el
ítem son 150 puntos.
 Habría que ver la suma de los puntajes obtenidos en el ítem por las
personas que lo hayan abordado, y así se obtiene el grado de
dificultad o de atractivo del ítem.

 De todo lo anterior es posible deducir que la dificultad


de un ítem la determina el grupo experimental, no el
constructor de la prueba, ya que éste sólo planifica la
dificultad de acuerdo con el grado de discriminación
deseado.
Efectos de la Adivinación de Respuestas Correctas sobre el
Análisis de Ítems:
 Hay autores que enfatizan la corrección de respuestas dadas al
azar o por adivinación en pruebas psicológicas, porque incidiría
significativamente en el grado de dificultad que se calcula para
cada ítem.
 Las respuestas que cualquier persona da frente a una prueba se
pueden clasificar en 2 tipos: aquellas frente a las cuales el sujeto
está seguro de su respuesta y aquellas en las que no lo está.
 Si el ítem es de elección entre opciones, la persona tiene una
posibilidad de dar con la respuesta correcta, puramente por azar.
Efectos de la Adivinación de Respuestas Correctas sobre el Análisis de
Ítems:

 Si una prueba es de dos alternativas o de V-F, entonces la


probabilidad de acertar será de un 50%, pero también la
posibilidad de no acertar será del 50%.
 Si se quiere corregir el puntaje obtenido por una persona en
una prueba como esa, ese puntaje estará representado por la
diferencia entre el número de respuestas correctas y el
número de respuestas erróneas:
Ptje. final = C - I
Efectos de la Adivinación de Respuestas Correctas sobre el Análisis de
Ítems:

 Esa fórmula es un caso especial de una más general, que


se emplea para ítems de selección múltiple:
Ptje. final = C - I / n-1
 Si hay n alternativas por ítem, la probabilidad de una
respuesta correcta es 1/n, y la de una elección errónea de
alternativas sería n – 1/ n.
 O sea, por cada n – 1 respuestas incorrectas por azar,
podemos esperar tener un acierto casual, y esto explica
la fórmula para computar el puntaje.
Efectos de la Adivinación de Respuestas Correctas sobre el Análisis de
Ítems:

 En pruebas de aprendizaje y rendimiento educacional no se


puede hablar de puro azar en la elección de las respuestas,
porque el sujeto intuye, aunque sea de manera más o menos
nebulosa, alguna de las soluciones.
 Los sujetos, incluso en aquellos ítems en los que sienten que
menos saben, un cierto sentido común los hace orientarse
hacia la respuesta correcta, con mayor probabilidad de
acertarse que lo que dicen las teorías del cálculo de
probabilidades.
Efectos de la Adivinación de Respuestas Correctas sobre el Análisis de
Ítems:

 Desde el punto de vista del examinador, esto que le intenten


adivinar las respuestas va en contra de su intento de hacer
estándar la medición para todos los sujetos.
 La mayor parte de los psicólogos europeos trata de evitar esto
haciendo que las respuestas sean abiertas, o sea, que el sujeto
tenga que escribirlas por si mismo. En cambio los americanos
siguen prefiriendo las pruebas de selección múltiple, por la
facilidad de su corrección.
Efectos de la Adivinación de Respuestas Correctas sobre el Análisis de
Ítems:

 En general, las fórmulas de corrección por azar no se


justifican mucho en pruebas de potencia y de rendimiento,
porque los sujetos tienen suficiente tiempo para leer
calmadamente los estímulos y además es difícil que lleguen
con cero conocimientos a rendirla.
 Si se justifican en pruebas de velocidad, porque allí se ve
con claridad la diferencia entre los sujetos que realmente
saben y los rápidos que saben poco.
 Cronbach piensa que el corregir es engorroso y no tendría
gran influencia en los puntajes de las pruebas, como se
pudiera pensar.
Efectos de la Adivinación de Respuestas Correctas sobre el Análisis de
Ítems:

 Para calcular el grado de dificultad de los ítems con corrección


por azar incluida, habría que dividir la fórmula anterior por el
número de sujetos que enfrentan la prueba:
p = C - (I / n – 1)
N
 No obstante, si aparece importante que el grado de dificultad
calculado incorpore el hecho que puedan haber personas que no
hayan abordado el ítem, o que lo hayan omitido, entonces la
fórmula queda:
Efectos de la Adivinación de Respuestas Correctas sobre el Análisis de
Ítems:

 p = C – (I / n – 1)
N – (NoAb + Om)

 Se deben tomar las decisiones sobre el indicador que se va a


adoptar para el cálculo del grado de dificultad de los ítems con
anticipación, porque si no, pueden variar grandemente los
resultados.
Ítems transversales y longitudinales
38

 Por otra parte, a lo que se ha estado haciendo referencia


hasta este momento es a lo que se conoce como Análisis
de Ítems Transversal, que no toma en cuenta el factor
edad en los resultados, en tanto el Análisis de Ítems
Longitudinal intenta precisamente determinar si un
ítem discrimina por edad.
 Esto se ve preferentemente en pruebas psicológicas, y lo
que interesa es analizar el grado de dificultad de cada
ítem para las diferentes edades, en caso que la variable o
proceso sometido a evaluación evolucione con la edad.
Se intenta incluir en esas pruebas justamente ítems que
muestren diferencias con la edad: eso constituiría un
ítem evolutivo.
Ítems transversales y longitudinales (2)
39

 Se supone que un ítem transversal mantiene un mismo


porcentaje de respuesta a lo largo de varios años,
demostrando que no es capaz de diferenciar por edad.
Suelen aparecer con frecuencia ítems oscilantes, pero en el
fondo mantienen la misma proporción de respuesta por
edad.
 En ítems evolutivos también pueden aparecer ítems
oscilantes, que, aunque muestren aumento y disminución
en la proporción de respuesta, su progresión indicaría
cambio en la variable. El análisis de ítems evolutivo se debe
hacer siempre antes de realizar estudios descriptivos sobre
variables que experimenten un desarrollo con la edad,
porque si un ítem entregara el mismo porcentaje de
resultados para cada edad no serviría para un estudio
evolutivo, porque estaría aportando el mismo valor para
cada edad.
Análisis Individual de los Ítems
40

El Índice de Discriminación

 Uno de los indicadores para la capacidad de


discriminación de los ítems, es el denominado Índice de
Discriminación (I.D.), y que opera muy bien en pruebas
que miden aprendizaje o rendimiento educacional:
 El I.D. se establece como la diferencia entre la
proporción de personas de más alto puntaje final en una
prueba que responden bien a un ítem, y aquellas de más
bajo puntaje final que lo hacen.
 Es fácil de calcular cuando no se han trabajado los datos
a través de planillas de cálculo ni se van a procesar a
través de programas de análisis estadístico.
Análisis Individual de Ítems (b)
41

El Índice de Discriminación (2)

 El cálculo se puede hacer dividiendo al grupo en la mediana de


puntajes.
 La fórmula es:

 as: número de sujetos que respondieron correctamente al ítem en el


grupo de puntaje superior.
 ai: ídem, en el grupo de puntaje inferior.
 Ns: número de sujetos del grupo superior.
 Ni: ídem del grupo inferior.

 El valor de I.D. obtenido constituye una aproximación a un


coeficiente de correlación y fluctúa entre –1 y +1. Se lo considera
significativo a partir de valores +/- 0.20.
Análisis Individual de Ítems (c)
42

Análisis de las Alternativas

• Cuando se ve la discriminación de ítems en pruebas de más


de dos alternativas, es necesario analizar las opciones
incorrectas o distractores por separado: esto es lo que se
denomina el análisis de las alternativas.
• El objetivo es ver si todas ellas funcionan, o sea, estudiar el
porcentaje de sujetos que contesta cada alternativa
incorrecta.
• Se espera que ninguna tenga 0% de respuesta porque en ese
caso el funcionaría con un número menor de alternativas que
el previsto.
• Cuando un ítem es aplicado a más de 100 sujetos, se
considera que un distractor funciona cuando lo responde al
menos un 3% del grupo experimental. Si son menos de 100
sujetos, se exige que un 5% de sujetos elija un distractor para
considerar que es eficiente.
Análisis Individual de Ítems (d)
43

Análisis de las Alternativas (2)

• Ej.: ítem de 5 alternativas, aplicado a 60 personas:

Opciones: A (B) C D E N/C

Frecuencia 0 27 3 15 15 0
absoluta

Frecuencia 0% 45% 5% 25% 25% 0%


relativa

Frecuencia 14% 14% 14% 14%


ideal
Análisis Individual de Ítems (e)
44

En el ejemplo anterior…
 Se construyó como de 5 alternativas, pero ya en el
análisis experimental se ve que no es de 5 alternativas,
porque la alternativa A nadie la contestó ya sea porque
es muy obvia o muy difícil. La pregunta se redujo a 4
alternativas.
 La alternativa C justo cumple con el criterio mínimo de
elección, en tanto las opciones D y E concitan bastante
elección, por lo que deben contener suficientes
elementos de verdad como para ser plausibles.

 Hay que fijarse entonces cómo se distribuyen los


porcentajes de respuesta en todas las alternativas
incorrectas o distractores: esta distribución debería ser
más o menos pareja en lo teórico: debería darnos una
distribución rectangular.
Análisis Individual de Ítems (f)
45

Análisis de las Alternativas (3)

 El criterio de cuándo el porcentaje conviene o no


depende del que proporcione la alternativa correcta,
porque los distractores debieran concitar en forma
pareja el resto del porcentaje que deja la alternativa
correcta.
 Cuando aparecen situaciones como las del ejemplo, en
general el ítem no se rechaza, sino que se cambia la
alternativa, y se hacen además estudios cualitativos de
estas alternativas de baja elección.
 Suele suceder que, cuando se analiza una alternativa que
nadie ha contestado, se llegue a la conclusión que es
porque nadie la entendió.
Ejemplos de Análisis de alternativas
46

EJEMPLOS DE ÍTEMS DE SELECCIÓN


MÚLTIPLE PROVENIENTES DE PRUEBAS
DE CAPACIDAD EN CUANTO A LA
ADECUACIÓN DE LAS DIFERENTES
ALTERNATIVAS.
(ENTRE PARÉNTESIS SE CONSIGNA LA
OPCIÓN CORRECTA):
Ítem 1= 63 casos
r crítico para gl =61, 0.2477
47

Frecuencia ideal de distractores: 12 casos

OPCIONES A (B) C D E N/C

Frecuencia 6 15 19 8 12 3
Absoluta

Frecuencia 9% 24% 30% 13% 19% 5%


Relativa

Correlación -0,20 0,31 -0,51 -0,28 -0,33 -0,10


Item - Test
ITEM 2 = 48 CASOS
r crítico para g.l.: 46 =0.2842
48

Frecuencia ideal distractores: 8 casos

Opciones (A) B C D E N/C

Frecuencia 16 0 1 12 16 3
absoluta
Frecuencia 33% 0% 2% 25% 33% 7%
relativa
Correlación 0.28 --- -0.08 0.30 -0.44 -0.17
Item - Test
ITEM 3 = 104 CASOS
r crítico para g.l. = 102 = 0.1937
49

Frecuencia ideal distractores: 14.25 casos

Opciones: A B (C) D E N/C

Frecuencia 19 21 47 9 8 0
absoluta

Frecuencia 18% 20% 45% 9% 8% 0%


relativa

Correlación -0.22 0.34 0.52 -0.25 -0.30 ---


Item-Test
ITEM 4 = 100 CASOS
r crítico para g.l. = 98 = 0.196
50

Frecuencia ideal distractores: 17.75 casos

Opciones A (B) C D E N/C

Frecuencia 13 29 38 15 3 2
absoluta

Frecuencia 13% 29% 38% 15% 3% 2%


relativa

Correlación -0,20 0,31 -0,49 -0,43 -0,18 0,10


Item - Test