Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ej Proyecto Web PDF
Ej Proyecto Web PDF
Resumen
propósito del proyecto es construir una herramienta computacional que sirva de apoyo a los
profesores de nivel superior en la evaluación del aprendizaje que se realiza en las aulas.
Respuesta al Ítem. Los cuales se ha venido desarrollando en la última década gracias a las
Los Exámenes Adaptativos a diferencia del examen tradicional, que aplica un conjunto fijo de
ítems a un grupo de alumnos, adapta la dificultad de los ítems a la habilidad del alumno en base
a las respuestas en los ítems previos, logrando con esto exámenes individualizados para cada
alumno. Entre las ventajas destaca una mayor fiabilidad en la medición del nivel de aprendizaje
del alumno.
Introducción
ya que determina la medida en que se están cumpliendo los objetivos del proceso. Como
indicador del aprendizaje, se asume el nivel de conocimientos y habilidades que el alumno posee
en el área temática (materia, tema, etc.) de interés. En la evaluación del aprendizaje, son los
más utilizado, a pesar de las críticas al respecto, para medir el aprendizaje del alumno.
La Teoría de los Test proporciona diversas teorías, y estas a su vez modelos, para la medición
habilidades1. La Teoría Clásica de los Test que se ha usado durante mucho tiempo, presenta
en esta teoría. Las principales limitaciones son que en su contexto las características del examen
y las del alumno son dependientes, asimismo la habilidad del alumno se mide mediante el
Para subsanar esas limitaciones se desarrolla en los años 70s una nueva teoría de medición
conocida como la Teoría de Respuesta al Ítem, esta teoría se centra en el ítem e intenta establece
Una de las formas de aplicación de la Teoría de Respuesta al Ítem es mediante la aplicación del
sistema computacional para la administración del examen, evalúa al alumno seleccionando cada
ítem a su nivel de competencia. Las ventajas que esto atrae son varias, tanto en la precisión de
1
En la Teoría de los Test, habilidad se define como el rasgo inobservable que se desea medir, ya sea un rasgo de
personalidad, rasgo académico o de destreza.
las mediciones como en el tiempo invertido, en la disminución de la ansiedad de los alumnos al
Antecedentes
sustituir a las evaluaciones tradicionalmente diseñadas para lápiz y papel [BACKHOFF, 2005].
Lo anterior se ha venido reforzando por las evidencias científicas que documentan las muchas
ventajas que ofrece este tipo de evaluaciones cuando los exámenes son válidas y confiables, y se
los resultados obtenidos en esta dirección por [KOBAK, REYNOLDS y GREIST, 1993].
También, se refuerzan a partir de los resultados obtenidos en estudios donde exámenes en lápiz y
1. No hay diferencias significativas entre ambas presentaciones; las correlaciones son muy altas
entre ítems equivalentes y los índices de confiabilidad son muy similares para ambas
2. Hay una marcada preferencia de los alumnos por responder a las versiones computarizadas,
3. Las versiones de los exámenes computarizados que presentan un ítem por pantalla hacen que
el alumno ponga mayor atención a la pregunta y responda con mayor cuidado [VANSICKLE,
dos modelos de análisis: la Teoría Clásica del Test (TCT) y la Teoría de Respuesta al Ítem (TRI).
BRYK, 1994], [TRISTÁN, 1998], [FAN, 1998], y [MARTÍNEZ, 2002], y otros mas, muestran
que la Teoría de Respuesta al Ítem tiene ciertas ventajas sobre la Teoría Clásica del Test.
Estudios recientes como los de [ACKERMAN, GIERL y WALTER, 2003], [WALTER, 2003],
En la Universidad Autónoma de Baja California (UABC), han estado trabajando los últimos años
evaluación del aprendizaje, es decir, evaluar la adquisición de conocimientos del alumno, algo
exámenes de conocimientos son probablemente hasta ahora el modo más habitual de efectuar
dicha tarea, pudiendo estar ligados a diferentes contextos educativos. Así, un profesor puede
reflejan la situación real del aprendizaje, esto es debido al subjetivismo y de la falta de rigor
Los exámenes tradicionales suelen incluir ítems que abarcan todo el rango de conocimientos y
habilidades que se pretende evaluar, de modo que la compilación de este tipo de exámenes suele
extremadamente alta y baja. En una situación así, los alumnos más hábiles deben responder a un
elevado número de ítems que para ellos son fáciles, sin que aporten información valiosa acerca de
su nivel de habilidad: en casos como éste se sabe que el alumno es muy hábil, pero no se sabe
hasta qué punto lo es. Además, como consecuencia directa, se puede producir una considerable
desmotivación y aburrimiento por parte del alumno, quien no hace sino responder ítems (para él)
fáciles.
En el caso de los alumnos poco diestros la situación es similar: aunque los ítems fáciles
proporcionan cierta información sobre la habilidad del alumno, los ítems difíciles no sólo no
aportan información al respecto, sino que además pueden causar desconcierto y frustración en el
alumno. Para evitar este tipo de situaciones, un profesor experto consideraría que si el alumno ha
respondido mal a un ítem es porque éste era difícil para su nivel de habilidad, de manera que el
siguiente ítem que le formule será, en mayor o menor medida, más fácil. Igualmente, ante una
respuesta correcta, el profesor experto propondrá un ítem más difícil. La idea subyacente consiste
en administrar al alumno únicamente ítems que realmente aportan información útil con la
herramienta computacional que permita medir el nivel de conocimientos y habilidades que posee
en las respuestas a los ítems anteriores? Es decir una herramienta que estime cuanto sabe un
alumno de un tema, materia, área, unidad de aprendizaje etc., adaptando la dificultad de los ítems
Objetivo
Objetivo general
Objetivos específicos
• Construir el sistema siguiendo los lineamientos de la metodología UML. Las fases que
componen la construcción:
El propósito es el de aportar a los profesores una herramienta de medida que facilite la evaluación
del aprendizaje en alumnos de educación superior, es decir, una herramienta que mida el nivel de
conocimientos y habilidades que posee un alumno en cualquier área temática, brindando con ello
Para comprender el origen de este proyecto, esto es, para responder el porque del mismo es
Se espera que con este instrumento de medida el profesor obtenga la información necesaria para
Justificación
Para progresar en la calidad del proceso enseñanza – aprendizaje es necesario mejorar los
En los últimos 30 años, la metodología y las técnicas de elaboración de exámenes han permitido
ítems diferentes a cada alumno, dependiendo de sus respuestas a los ítems anteriores. Otra de las
herramientas que han sido de considerable valor para los nuevos Exámenes Adaptativos
Computarizados es el desarrollo de los sistemas de cómputo que permiten manejar grandes
Bancos de Ítems de una manera interactiva y con una gran velocidad de proceso.
Entre los beneficios que presenta el uso de Exámenes Adaptativos Computarizados está el que los
resultados pueden proporcionarse inmediatamente después del examen y que no hay problemas
de seguridad de los exámenes dado que cada examen es diferente. También está el hecho de que
la aplicación computarizada. Entre las ventajas económicas está el que no se necesita de personal
Estos sistemas son desarrollados para evaluaciones a gran escala, como son la admisión a
aula de clases sigue realizándose de forma tradicional, con exámenes a lápiz y papel, y donde el
respuestas acertadas. El examen depende de la clase de alumnos a los que se les aplique y las
características del alumno dependerán del tipo de examen que tenga que responder, es imposible
estudiar el comportamiento del alumno ante un ítem. De tal forma que el proporcionar al profesor
Se espera que
uno de sus alumnos posee sobre determinado tema y, gracias a ello, puede rediseñar su
enseñanza.
en la clase.
Alcance
Los Exámenes Adaptativos Computarizados, son una especie de “exámenes a la medida”2 que
involucran la selección de ítems mientras el examen está siendo administrado, y los ítems
administrados a cada alumno se escogen de acuerdo al nivel de dificultad que requiere el alumno
[WEISS, 1983].
1) La planeación del examen consiste definir los objetivos de la evaluación, esto es,
contestar las siguientes preguntas: ¿qué área temática se va a evaluar?, ¿que se pretende
Computacional para administrar del examen adaptativo. El sistema debe contar con un
2
Un examen a la medida, se puede pensar como un examen oral. El profesor infiere la pregunta que le hará al
alumno, en base a su última respuesta, que este al nivel de sus conocimientos y habilidades.
interfaz grafico para la presentación de los ítems, un algoritmo para la administración
adaptativa de ítems, es decir, la elección del ítem que mejor se adapte a habilidad del
Metodología
teórico conceptual para formar un cuerpo de ideas sobre la construcción del prototipo ejecutable
• Realizar una investigación sobre la evaluación del aprendizaje para tener un marco de
tecnologías de la información.
• Investigar sobre las aproximaciones psicometrícas de la Teoría de los Test que se emplean
• Seleccionar del modelo de medida mas adecuado para medir el rasgo de interés.
• Realizar una investigación sobre las API’s de lenguaje de programación Java que
cumplan con las necesidades de implementación del sistema, así como de las Bases de
Datos MySQL.
• Realizar una investigación del sistema moodle para la calibración de los ítems que
Referencias
Ackerman, Terry A., Gierl, M.J., & Walker, C.M (2003). Using Multidimensional Item
Response Theory to Evaluate Educational and Psychological Tests. Educational Measurement:
Issues & Practice; Fall2003, Vol. 22 Issue 3, p.37, 17p
Backhoff, E. Ibarra, M.A. & Rosas, M. (1994). Versión Computarizada del Examen de
Habilidades y Conocimientos Básicos. Trabajo presentado en el 23o Congreso Internacional de
Psicología Aplicada. Madrid, España.
Backhoff, E., Ibarra, M.A. & Rosas, M. (1995). Sistema Computarizado de Exámenes
(SICODEX). Revista Mexicana de Psicología, vol. 12, No. 1, pp. 55-62.
Backhoff, E. & Rosas, M. (2000). Sistema Computarizado de Exámenes Adaptativos de
Matemáticas. IV FORO DE EVALUACION EDUCATIVA. Ciudad Juárez, Chihuahua, y El
Paso, Texas, 30, 31 de octubre y 10 de noviembre de 2000.
Díaz, J. Hacia la evaluación de la inteligencia académica y del rendimiento escolar. Ciencia y
Sociedad. Volumen XXVI No. 2. Abril – Junio 2001.
http://www.intec.edu.do/departamentos/investigaciones/pdf/c.s.vol.xxvi.2.pdf. 18 de nov. 2006
Fan, Xitao (1998). Item Responde Theory and Classical Test Theory: an empirical
comparación of their item/person statics. Educational and psychological measurement, 58(3),
pp.357-381.
Hambleton, R. & Russell W. Jones. (1993). Comparison of classical test theory and item
response theory and their applications to test development. Educational measurement: issues
and practice, 12(3), pp.38-47.
Katz, L. & Dalby, J. (1985). Computer and manual administration of the Eysenk Personality
Inventory. Journal of Clinical Psychology, 37, 586-588.
Kim, J.S., Hanson, B.A. (2000). Test Equating Under the Multiple-Choice Model. Applied
Psychological Measurement; Sep2002, Vol. 26 Issue 3, p.255, 16p.
Martínez, Fernández, J.F. (2002). Comparación de las Teorías Clásica de Test (TCT y de la
Respuesta al Ítem (TRI): Implicaciones prácticas para la selección de aspirantes a ingreso a
Educación Superior. V FORO DE EVALUACIÓN EDUCATIVA. Ensenada, Baja California,
(29-31)/10/2002. pp.225-231
Martois, J. S. (1983). What is computer adaptive testing? Manuscrito no publicado.
Moe, K. y Johnson, M. (1988). Participants' reactions to computerized testing. Journal of
Educational Computing Research, 4, 49-86.
Seltzer, M., K. Frank & A.S. Bryk. (1994). The metric matters: the sensitivy of conclusion
about growth in student achievement to choice of metric. Educational evaluation and policy
analysis, 16, 4(49).
Tristán-López, A. (1998). Análisis de Rasch para todos. International engineering and
statistics, San Luis Potosí, México. ISBN: 970-92251-0-3
Vansickle, T., Kimmel, C. y Kapes, J. (1989). Test-retest equivalency of the computer-based
and paper-pencil versions of the Strong-Campbell Interest Inventory. Measurement and
Evaluation in Counseling and Development, 22(2), 88-93.
Walker, C.M. (2003). Comparing Multidimensional and Unidimensional Proficiency
Classifications: Multidimensional IRT as a Diagnostic Aid. Journal of Educational
Measurement; Fall 2003, Vol. 40 Issue 3, p.255, 21p
Weiss, D. J. (1983). Introduction: Latent trait theory. In D. J. Weiss (Ed.) New Horizons in
testing: Latent trait theory and computer adaptive testing (pp. 1-8). New York: Academic Press.