Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Nolla Domenjó La Evaluacion en Educacion Medica. Principios Basicos
Nolla Domenjó La Evaluacion en Educacion Medica. Principios Basicos
Médica Continuada
M. Nolla-Domenjó
Objetivo. Proporcionar una visión global de los aspec- especialmente la evaluación de los aprendizajes Fundació Doctor Robert.
tos más relevantes a tener en cuenta en un sistema de y, en definitiva, versará sobre uno de los temas Universitat Autònoma
de Barcelona.
evaluación. Desarrollo. Se proponen dos modelos funda- de más relevancia en la actualidad: la evaluación Barcelona, España.
mentales como marco de referencia de los procesos de de la competencia profesional.
evaluación. Se describen las características principales de En el módulo 2 de este programa de forma Correspondencia
Dra. Maria Nolla
cualquier sistema de evaluación. Finalmente, se apuntan ción, Palés [1] define el concepto de competencia Domenjó. Fundació
los retos a los que se enfrenta en la actualidad el amplio y describe su complejidad. Introduce el concepto Doctor Robert. Sant
campo de la evaluación en educación médica. de educación basada en resultados de aprendi Antoni M. Claret, 171.
E-08041 Barcelona.
zaje. Este enfoque lleva implícita la evaluación.
Palabras clave. Competencia profesional. Educación médica. Eva- Los resultados de aprendizaje son competencias E-mail
luación. comprobadas, es decir, evaluadas. Este aborda maria.nolla@uab.es
je refuerza la idea de que la evaluación es una
parte integrante de un programa o proceso de
formación. Debe pensarse en la evaluación des
Evaluation in medical education. Basic principles de el inicio, desde la planificación del proceso
formativo.
Aim. To provide a global vision of the most relevant aspects
to take into account of an evaluation system. Development.
The article also proposes two different fundamental models
as frameworks for the evaluation process. The main charac- ¿Qué? y ¿para qué?
teristics applicable to any evaluation system are described.
Finally the paper points the challenges that evaluation in La planificación del sistema de evaluación a
medical education is facing for the near future. utilizar incluye muchas preguntas a plantearse:
¿qué?, ¿para qué?, ¿cómo?, ¿cuándo?, ¿quién?,
Key words. Evaluation. Medical education. Professional competence.. etc. Todas ellas deben clarificarse en algún mo
mento u otro; sin embargo, las dos más funda
mentales que deben iniciar todo el proceso son
las dos primeras: ¿qué? y ¿para qué? Las respues
Introducción tas a estas dos preguntas determina el abanico de
posibilidades de las restantes.
La evaluación en educación médica es un cam
po realmente amplio. Desde la evaluación de los ¿Qué?
aprendizajes a los sistemas de calidad educativa y
evaluación de políticas educativas, existen mul Ya se ha comentado la amplitud de los aspectos
titud de aspectos que se deben tener en cuenta susceptibles de ser evaluados. Para no confun
en los proyectos formativos. Este artículo tratará dirse a la hora de responder a las otras preguntas
1. Las dos preguntas fundamentales sobre el sistema de o c) la evaluación de las habilidades quirúrgicas básicas
evaluación que se deben plantear desde el inicio son: o d) la evaluación de la satisfacción de los estudiantes
o a) ¿qué? y ¿cómo? o e) la evaluación de la calidad docente
o b) ¿cómo? y ¿cuándo?
o c) ¿qué? y ¿para qué? 7. ¿Cuál de los niveles de la pirámide de Miller
o d) ¿para qué? y ¿para quién? se evalúa mediante las evaluaciones clínicas
o e) ¿qué? y ¿cuándo? objetivas estructuradas (ECOE)?:
o a) primero
2. ¿Cuál de los siguientes aspectos a evaluar no forma o b) segundo
parte de los niveles del modelo de Donald Kirkpatrick?: o c) tercero
o a) impacto o d) cuarto
o b) reacción o e) todos los niveles
o c) aprendizaje
o d) calidad 8. ¿Cuál de los siguientes instrumentos evalúa más
o e) resultados adecuadamente el cuarto nivel de la pirámide de Miller?:
o a) ECOE
3. Los niveles de la pirámide de Miller son todos o b) pruebas escritas basadas en contextos clínicos
los siguientes excepto uno. Indique cuál es el falso: o c) pacientes simulados
o a) querer o d) observación directa
o b) saber o e) pruebas escritas descontextualizadas
o c) hacer
o d) demostrar cómo 9. ¿Cuál de las siguientes definiciones se refiere al concepto
o e) saber cómo de validez de un instrumento de evaluación?:
o a) grado en que un instrumento mide de
4. ¿Cuál de las siguientes características no forma consistente lo que se pretende medir
es fundamental en un sistema de evaluación?: o b) conocimiento, por todas las partes
o a) validez implicadas, de las reglas del juego
o b) fiabilidad o c) posibilidad de utilizarlo
o c) confianza o d) grado en que un instrumento
o d) transparencia mide lo que se quiere medir
o e) factibilidad o e) grado en que los candidatos aceptan
la evaluación porque la consideran adecuada
5. En la actualidad, ¿cuál es la principal dificultad
de la evaluación de la competencia clínica?: 10. Señalar la proposición incorrecta:
o a) la aceptación por parte de los profesionales o a) una evaluación formativa tiene como objetivo
o b) el coste del sistema de evaluación fundamental proporcionar a los estudiantes
o c) la carencia de medidas correctoras para feedback sobre su aprendizaje
los que no cumplen los mínimos requeridos o b) una evaluación sumativa es la base de la toma
o d) la imposibilidad de medirla de forma directa de decisiones sobre el nivel de competencia
o e) la contextualización necesaria de los instrumentos profesional del candidato
o c) una evaluación sumativa no puede ser en
ningún caso formativa, de manera simultánea
6. ¿Cuál de las siguientes evaluaciones supone el o d) la decisión de emplear una forma de evaluación
mayor reto en la actualidad en educación médica?: sumativa guiará la utilización de los resultados
o a) la evaluación de los conocimientos de la evaluación
o b) la evaluación de la práctica profesional o e) la evaluación guía el aprendizaje
Figura 2. Relación entre nivel de competencia según la pirámide de Miller y los instrumentos susceptibles de ser utilizados
(adaptado de [9]).
pretende medir. Tiene que ver con la repetición En 1977, Miller, en su participación en el II
de la medida En el ejemplo anterior de la cinta Simposio Médico Internacional en Roma, ya
métrica, es fiable en la medida en que cada vez aseveró que ‘cambiar el sistema de evaluación sin
que se mide un mismo objeto, el resultado es el modificar el programa de enseñanza ha tenido
mismo o muy similar. una mayor repercusión sobre la naturaleza y la
La fiabilidad generalmente se mide como un calidad del aprendizaje, que si se hubiera modifi
coeficiente de correlación, siendo 1,0 una corre cado el programa sin tocar los exámenes’.
lación perfecta, y 0,0, una no correlación total. Van der Vleuten [14] describió al menos cua
Los valores superiores a 0,7 se consideran indi tro vías por las que el sistema de evaluación di
cativos de que el instrumento es fiable. rige el aprendizaje: su contenido, su estructura
La fiabilidad entre evaluadores se refiere al o formato, lo que se pregunta (p. ej., la informa
grado de acuerdo entre evaluadores diferentes e ción que se proporciona), y la frecuencia, hora
independientes del mismo candidato. rio y número de evaluaciones repetidas.
Transparencia
el desarrollo de sistemas de evaluación adecua 7. Epstein RM. Assessment in medical education. N Engl J
dos a las características especiales de los profe Med 2007; 356: 387-96.
sionales con años de experiencia. 8. Dent JA, Harden RM. A practical guide for medical
Norcross et al [16] concluyen que el futuro de teachers. Edinburgh: Elsevier; 2005.
un sistema comprehensivo de evaluación de los 9. Van der Vleuten CPM. A paradigm shift in education:
médicos asistenciales depende del desarrollo y how to proceed with assessment? 9th International Ot
estandarización de instrumentos, técnicas y pro tawa Conference on Medical Education. Cape Town, 28
cedimientos para la evaluación de la competencia February-3 March 2000. URL: http://www.educ.unimaas.
y la actuación profesional, incluyendo medidas nl/ottawa.
de la práctica, de programas de evaluación de co 10. Villa A, Poblete M. Aprendizaje basado en competen
laboración en red, del control de costes, y del de cias. Bilbao: Universidad de Deusto; 2008.
sarrollo continuo de medidas correctoras que se 11. Shumway JM, Harden RM. AMEE Guide no. 25: The
correspondan con los hallazgos en la evaluación. assessment of learning outcomes for the competent and
reflective physician. Med Teach 2003; 25: 569-84.
12. Newble DI, Jaeger K. The effect of assessments and ex
aminations on the learning of medical students. Med
Educ 1983; 17: 165-71.
Bibliografía 13. Wood D. Formative assessment. Edinburgh: Association
for the Study of Medical Education; 2007.
1. Palés J. Planificar un curriculum o un programa forma 14. Van der Vleuten CPM. The assessment of professional
tivo. Educ Med 2006; 9: 59-65. competence: developments, research and practical im
2. Kirkpatrick DL. Evaluación de acciones formativas. Bar plications, Adv Health Sci Educ 1996; 1: 41-67.
celona: Gestión; 2000. 15. Brailovsky CA. Educación médica, evaluación de las
3. Kirkpatrick DL. Avaluació d’accions formatives: els qua competencias. In OPS/OMS, eds. Aportes para un cam
tre nivells. Barcelona: Epise Gestión; 2000. bio curricular en Argentina. Buenos Aires: University
4. Miller G. The assessment of clinical skills/competence/ Press; 2001. p. 103-20.
performance. Acad Med 1990; 65: S63-7. 16. Norcross WA, Henzel TR, Freeman K, Milner-Mares J,
5. Wall D. Evaluation: improving practice, influencing Hawkins RE. Toward meeting the challenge of physician
policy. Edinburgh: Association for the Study of Medical competence assessment: the University of California,
Education; 2007. San Diego Physician Assessment and Clinical Education
6. Morrison J. Evaluation. Br Med J 2003; 326: 385-7. (PACE) Program. Acad Med 2009; 84: 1008-14.