Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Modelo de Evaluació N de Usabilidad y Correspondencia Didáctica de Un Software Lúdico PDF
Modelo de Evaluació N de Usabilidad y Correspondencia Didáctica de Un Software Lúdico PDF
Trabajo de Grado
Director
Holman Diego Bolívar Barón
Ingeniero de Sistemas
________________________________
Ingeniero Holman Diego Bolívar
Director.
________________________________
Ingeniero Carlos Alberto Pulido
Revisor Metodológico.
De Sandy:
A mi abuela, Margoth
por su incondicional apoyo
AGRADECIMIENTOS
Paola Gutiérrez
Doy gracias a Dios por permitirme vivir esta etapa de mi vida, a mi abuelita
Margoth Hernández, quien me apoyo a lo largo de esta etapa y confió en mi como
una madre, a mi padres Miguel Herrera y Mary García, por sus buenos deseos en
mi vida, a mi prima Lina Gil por brindarme sus conocimientos y concejos, a mi
ahijada María José Gutiérrez y a mis amigos más cercanos por su apoyo
incondicional, a los docentes que me acompañaron en el tiempo que estuve en la
Universidad, a mi director de proyecto Holman Bolívar por brindarme su apoyo y
dedicación, finalmente agradezco a la Universidad Católica de Colombia por
darme la oportunidad de crecer como persona y profesionalmente.
Sandy Herrera
CONTENIDO
Pág.
INTRODUCCIÓN 19
3. MARCO REFERENCIAL 23
3.1.MARCO CONCEPTUAL 23
3.1.1 Proceso de enseñanza y aprendizaje 23
3.1.2. Educación 26
3.1.3. Pedagogía 27
3.1.4. La didáctica 29
3.1.5. Software lúdico 31
3.1.6. Ingeniería de software 36
3.1.9. Usabilidad 44
3.1.10. Evaluación de la usabilidad 45
3.1.11. Métodos de evaluación de usabilidad 46
3.1.12. Clasificación de los métodos 46
3.1.13. Descripción de modelos de evaluación de usabilidad 48
3.2.MARCO TEÓRICO 50
4. METODOLOGÍA PROPUESTA 52
4.1.PROCESO DE REVISIÓN SISTEMÁTICA 52
4.1.2. Revisión sistemática 52
4.1.3. Utilización de una revisión sistemática 52
4.1.4. Importancia de una revisión sistemática 52
4.1.5. Ventajas y desventajas 52
4.1.6. Características de una revisión sistemática 53
4.1.7. Revisión sistemática para el desarrollo del proyecto 53
CONCLUSIONES 140
BIBLIOGRAFÍA 141
LISTA DE TABLAS
Pág.
Tabla 1. Técnicas de evaluación de aprendizaje – enseñanza. 26
Tabla 2. Instrumentos relacionados a las técnicas de evaluación. 26
Tabla 3. Técnicas didácticas. 30
Tabla 4. Técnicas didácticas (continuación). 31
Tabla 5. Estas son las funciones de un software lúdico. 35
Tabla 6. Características de un software. 37
Tabla 7.Tipos de software existentes. 38
Tabla 8. Método de evaluación de Nielsen y Molich. 46
Tabla 9. Método de evaluación de Wixon y Wilson. 47
Tabla 10. Método de evaluación de Preece. 47
Tabla 11. Método de Scriven. 47
Tabla 12. Las diez principales heurísticas según Nielsen. 48
Tabla 13. Tipo de inspecciones. 49
Tabla 14. Tipo de guías de estilo. 49
Tabla 15. Descripción de ventajas y desventajas 53
Tabla 16. Identificación de las preguntas de protocolo de búsqueda. 56
Tabla 17. Palabras claves para la realizar la revisión. 57
Tabla 18. Bases de datos de búsqueda. 57
Tabla 19. Ecuaciones de búsqueda seleccionadas. 58
Tabla 20. Lista de artículos encontrados según ecuaciones de búsqueda. 58
Tabla 21. Lista de artículos encontrados según ecuaciones de búsqueda
(continuación). 59
Tabla 22. Ecuaciones de búsqueda seleccionada por la media aritmética. 59
Tabla 23. Artículos que responden las preguntas de protocolo de búsqueda. 59
Tabla 24. Artículos que responden las preguntas de protocolo de búsqueda
(continuación). 60
Tabla 25. Heurísticas para la evaluación de alto nivel orientada a la tarea. 64
Tabla 26. Heurísticas para la evaluación de alto nivel orientada a la tarea. 64
Tabla 27. Heurísticas para la evaluación de alto nivel orientada a la tarea. 65
Tabla 28. Métricas de usabilidad. 65
Tabla 29. Escala de Diferencial Semántico. 67
Tabla 30. Categorías y criterios heurísticos (dimensión pedagógica y usabilidad) 68
Tabla 31. Peso de cada categoría. 68
Tabla 32. Selección de características y subcaracterísticas. 71
Tabla 33. Características mínimas que deben ser satisfechas para la categoría de
usabilidad. 72
Tabla 34. Normalización de las métricas para la evaluación del producto. 72
Tabla 35. Listado de criterios, métrica y atributos. 75
Tabla 36. Diseño de plantilla para la recolección de información. 76
Tabla 37. Diseño de platilla para la recolección de informaciones de roles. 77
Tabla 38. Diseño de platilla para la recolección de informaciones de perfiles. 78
Tabla 39. Categorías y criterios heurísticos. 80
Tabla 40. Peso de cada categoría y sub-heurísticas 80
Tabla 41. Criterios de aprendizaje. 92
Tabla 42. Criterios de usabilidad. 92
Tabla 43. Descripción de criterios de usabilidad y aprendizaje. 94
Tabla 44. Relación de peso por aspecto. 99
Tabla 45. Aspectos seleccionados y su descripción. 101
Tabla 46. Criterios, subcriterios e ítem del aspecto funcionales. 102
Tabla 47. Criterios, subcriterios e ítem del aspecto pedagógico. 103
Tabla 48. Criterios, subcriterios e ítem del aspecto pedagógico (continuación). 104
Tabla 49. Criterios, subcriterios e ítem del aspecto pedagógico (continuación). 105
Tabla 50. Escala de valoración. 105
Tabla 51. Ficha de evaluación del software. 107
Tabla 52. Tipo de preguntas. 116
Tabla 53. Subcriterios y preguntas para el aspecto de usabilidad. 117
Tabla 54. Subcriterios y preguntas para el aspecto de pedagogía. 117
Tabla 55. Temas seleccionados para el modelo EMPI. 120
Tabla 56. Criterios determinados para el modelo EMPI. 121
Tabla 57. Subcriterios determinados para el modelo EMPI. 121
Tabla 58. Relación de atributo usabilidad vs métricas de modelos. 129
Tabla 59. Relación de atributo usabilidad vs métricas de modelos (continuación). 130
Tabla 60. Relación de atributo correspondencia didáctica vs métricas de modelos. 130
Tabla 61. Meticas y Criterios generales de usabilidad. 131
Tabla 62. Meticas y Criterios generales de correspondencia didáctica. 131
Tabla 63. Selección de métricas, criterios e ítems de usabilidad. 134
Tabla 64. Selección de métricas, criterios e ítems de usabilidad (continuación). 135
Tabla 65. Selección de métricas, criterios e ítems de correspondencia didáctica. 135
Tabla 66. Selección de métricas, criterios e ítems de correspondencia didáctica
(continuación). 136
LISTA DE FIGURAS
Pág.
Pág.
17
ABSTRACT
For this reason, it has been necessary to resort to theoretical concepts of usability,
learning, leisure software, and software engineering, likewise inquire about models,
techniques and instruments of evaluation of applications of learning by different
authors.
The main activities are conducted the review and analysis of the aspects that
should be taken into account to make the assessment of leisure software, also
identify metrics with their respective criteria for measuring quality.
The proposed model has as its main focus the evaluation from the perspective of
expert evaluators and real, with the application of different methods and tools that
allow scenarios based assessment evaluating usability attributes and
correspondence teaching.
18
INTRODUCCIÓN
1
ALBA OBESO, María Helena. Metodología de Medición y Evaluación de la Usabilidad en Sitios Web
Educativos. Oviedo, 2005, p. 2.
2
CHOCÓ DÍAZ, Arbey. El uso del software y sus efectos en las prácticas Escolares. Cauca, 2011, p. 1.
19
1. PLANTEAMIENTO DEL PROBLEMA
3
MARTIN, Roció. Las nuevas tecnologías en la educación. En: Sociedad de la información MADRID:
Fundación AUNA, 2005. p. 4.
4
HERNÁNDEZ. B, Víctor E. Un modelo de evaluación de software educativo para la enseñanza de la
Matemática, 2007, p. 4.
20
Actualmente existen modelos que permiten evaluar aplicaciones de aprendizaje,
en estos modelos existentes definen características enfocados a la evaluación de
la usabilidad en entornos web, software corporativo y software general, por lo cual
no se enfocan en la parte didáctica, pedagógica y lúdica, esto se debe a la
característica principal de este tipo de software, es decir que debido a que en su
desarrollo participan diferentes áreas o disciplinas es difícil establecer un modelo
que evalué todas las necesidades interdisciplinarias que pretenden ser suplidas
con el software. De allí la importancia de identificar ¿Cuál es el modelo que
permite la evaluación de usabilidad y correspondencia didáctica en un software
lúdico?
21
2. OBJETIVOS DEL PROYECTO
22
3. MARCO REFERENCIAL
5
YTURRALDE, Ernesto Worldwide Inc. Training & Consulting. Metodologías aplicadas [en línea].
<http://www.yturralde.com/metodologias.htm> [citado el 20 marzo del 2013].
23
Proceso de enseñanza. Es una actividad que se realiza conjuntamente en la
interacción de cuatro elementos, docentes o tutores, alumnos, el objeto del
conocimiento y un entorno educativo.
6
UNIVERSIDAD DE VALLADOLID, Departamento de informática. El Proceso Enseñanza-Aprendizaje [en
línea]. < http://www.infor.uva.es/~descuder/docencia/pd/node24.html> [citado el 20 de marzo del 2013].
24
Figura 3. Modelo de aprendizaje basado en proyectos.
7
UCSS. Técnicas e instrumentos de evaluación [en
línea].<http://190.254.1.202/ingenieria/DIPLOMADO%20DOCENCIA%20UNIVERSITARIA/Educacion%20Sup
erior/Eval_Competencia2.pdf> [citado el 20 de marzo del 2013].
25
Pueden existir tres tipos de técnicas de evaluación: técnicas no formales, técnicas
semiformales y técnicas formales.
9
FUNDACIÓN UNIVERSITARIA DEL ÁREA ANDINA. Clases De Modelos Pedagógicos [en línea]. <
http://www.joaquinparis.edu.co/DATA/MODELOS/PAGINAS/RAFAEL.htm#socialista> [citado el 23 de marzo
2013].
27
teorías del desarrollo cognitivo, como los aspectos efectivos y desde lo
sociocultural.
Método: responde al interrogante de que estrategia utilizar o como se debe
realizar, teniendo en cuenta en primer plano lo didáctico, que esta es la disciplina
instrumental de la pedagogía, se refiere a los métodos, técnicas, medios y
ambientes que permiten ensañar. A continuación se presentan los modelos
pedagógicos.
Modelo romántico. Este modelo parte del hecho que el maestro no debe
intervenir en el desenvolvimiento natural y espontáneo del estudiante y la relación
que tiene con el entorno que lo rodea, no interesa los contenidos. El maestro solo
28
es un guía que facilita la expresión, la originalidad y la espontaneidad del
estudiante, por esta razón no se evalúa. Los parámetros se describe de la
siguiente forma para este modelo:
10
JUNTA DE ANDALUCÍA. Guía de métodos y técnicas didácticas [en línea]. <
http://www.juntadeandalucia.es/agenciadecalidadsanitaria/acsa_formacion/html/Ficheros/Guia_de_Metodos_y
_Tecnicas_Didacticas.pdf> [citado el 23 de marzo 2013].
29
Tabla 3. Técnicas didácticas.
Técnicas Sub-técnicas
De carácter explicativo La explicación oral Técnica de aprendizaje dirigida generalmente a
un grupo, con la que se pretende que cada
alumno/a, por medio de la explicación,
comprenda datos, métodos, procedimientos o
conceptos, relacionándolos con los ya adquiridos
y estructurándolos de forma individual.
30
Tabla 4. Técnicas didácticas (continuación).
Técnicas Sub-técnicas
Investigación social Técnica de descubrimiento que favorece la
adquisición de objetivos de comprensión y
aplicación, potenciando el descubrimiento de
estructuras profundas, relaciones nuevas y
valoraciones críticas. Se trata de plantear “un
problema" pobremente definido y de
discutir sus posibles soluciones
El proyecto Técnica que facilita la transferencia del
aprendizaje al puesto de trabajo, ya que la
labor del docente no acaba en el aula, sino
que sigue asesorando al alumnado en la
aplicación de un plan de trabajo
personalizado, previamente definido.
Técnicas de trabajo en El debate dirigido o Un grupo reducido (entre 5 y 20) trata un
grupo discusión guiada tema en discusión informal, intercambiando
ideas y opiniones, con la ayuda activa y
estimulante de un conductor de grupo.
El foro El grupo expresa libre e informalmente sus
ideas y opiniones sobre un asunto,
moderados por el/la formador/a o tutor/a.
Generalmente acompaña a otras técnicas
(mesa redonda, role play, etc.) o se utiliza
como continuidad de la actividad, al finalizar
ésta.
Correo electrónico Es una herramienta de comunicación
asíncrona que permite enviar mensajes a los
participantes del curso. Suele ser el medio
más generalizado para realizar tutorías a
través de Internet
Foro Es una herramienta de comunicación
asíncrona, que permite que las consultas y
correos enviados, puedan ser resueltos y/u
observados tanto por el alumnado como por
el profesorado. A
través de esta herramienta el tutor puede
organizar debates, resolver dudas, convocar
Chat, etc.
Chat Es una herramienta de comunicación
síncrona que permite que los participantes en
una acción formativa puedan comunicarse en
tiempo real. Todas las personas que estén en
el Chat
pueden leer los mensajes de los demás en el
momento
Fuente: los autores.
31
razón de que son elaborados con un propósito y con características propias para
poder así determinar su carácter educacional11.
Aquellos investigadores que están detrás de esta nueva disciplina para mejorar el
proceso de enseñanza, definen como: “cualquier programa computacional que
cuyas características estructurales y funcionales le permiten servir de apoyo a la
enseñanza, el aprendizaje y la administración educacional”12.
El software lúdico es realizado con un fin específico, apoyar la labor del docente
en el proceso de aprendizaje de los estudiantes.
11
ABUD FIGUEROA, María Antonieta. MECSE: Conjunto de Métricas para Evaluar Software Educativo. EN:
Repositorio Digital, Instituto Politécnico Nacional [en línea]. Vol. 39 (2005) <
http://www.repositoriodigital.ipn.mx/bitstream/handle/123456789/5329/39-2.pdf?sequence=2> [citado el 2 de
febrero del 2013].
12
SÁNCHEZ J, Construyendo y Aprendiendo con el Computador. 1995.
13
MARQUES, Pere. El software educativo, Universidad Autónoma de Barcelona 19 de febrero del 2001.
14
HERNÁNDEZ B, Víctor E. Un modelo de evaluación de software educativo para la enseñanza de la
Matemática. 2007. p. 2-5
32
Componentes del software lúdico15. El software lúdico que tiene una
finalidad educativa, deben estar conformado por varios componentes, que son
fundamentales dentro del software para la enseñanza, que sirven para realizar un
seguimiento al programa y permite indicar si está cumpliendo con los
requerimientos.
• Navegación: se debe tener una manera en como los pasos deben guiar al
usuario cuando se esté ejecutando el software, esto será importante para
determinar su facilidad de uso.
• Usabilidad: los programas deben ser amigables, tener un uso fácil y que sean
autos explicativos, para que sean realmente utilizados por los usuarios y no tener
que realizar una lectura de manuales extensos.
15
Ibid., p. 2-5.
33
bien definido ya que se pretende es lograr con la aplicación es el procesos de
enseñanza y de aprendizaje.
• Contenido: es la administración del contenido que se está colocando en el
software, es importante por la calidad de material y este debe ser controlado para
que sea adecuado y preciso.
• Comunicación: conseguir tener una información clara para compartirla con el
estudiante que está ejecutando el programa para cumplir los objetivos.
• Documentación: debe tener una información que permita dar una ayuda de
cómo debe ser la ejecución del programa para ser utilizado de una forma clara.
• Metodología de enseñanza: se aborda la manera en como el software debe
manejar todo el proceso de enseñanza y de cómo transferir el conocimiento que
debe obtener el usuario.
• Interacción con el estudiante: es la capacidad de motivar al estudiante para
que el aprendizaje significativo ser realice de una forma que el ambiente sea
amigable hacia el estudiante, para mantener la curiosidad de los elementos
lúdicos
16
NUÑEZ MATUREl, Lissette y RUIZ PEREIRA, Dayamis. Software educativo sobre temas generales de la
Podología. EN: Revista Cubana de Informática Médica [en línea]. No. 24 (2011) <
http://www.rcim.sld.cu/revista_24/articulo_pdf/podologia.pdf> [citado el 7 de febrero del 2013].
34
que se pueda dedicar más a estimular el desarrollo de las facultades cognitivas
superiores de los alumnos.
Posibilitar un trabajo individual y también en grupo: estos programas se
adaptan a los conocimientos previos del estudiante y a su ritmo de trabajo, estos a
su vez facilitan el compartir información y la comunicación entre miembros del
grupo.
17
PAUR, Alicia Beatriz y SAENZ, Marta Susana. Evaluación de software educativo mediante variables que
califiquen su calidad. Tesina Licenciado en Informática. Universidad Nacional de la Patagonia San Juan
Bosco. Facultad de Ingeniería, 2004. 39 p.
35
3.1.6. Ingeniería de software18. La ingeniería de software es una disciplina que
realiza la integración de procesos, métodos y herramientas para el desarrollo de
software.
18
APARICIO, Alexandra. Ingeniería de Software. EN: Datateca, Universidad Nacional Abierta y a Distancia
[en línea]. (2012) <http://datateca.unad.edu.co/contenidos/301404/301404.pdf> [citado el 15 de marzo del
2013].
36
Un producto es visto de diferentes formas dependiendo del stakeholders que
interactúa con este.
Figura 8. Que es un producto de software.
37
Tabla 7.Tipos de software existentes.
Herramientas.
Métodos.
Proceso.
Enfoque de calidad.
38
Fases de la ingeniería de software. Se divide en tres fases, con
independencia de cada área de aplicación, tamaño o complejidad del proyecto.
• Corrección de errores.
• Adaptaciones requeridas a medida que evoluciona el entorno del software.
• Cambios debido a las mejoras producidas por los requisitos cambiantes del
cliente.
• Se encuentran cuatro tipos de cambio: corrección, adaptación, mejora y
prevención.
Es un ciclo de vida que tiene un sentido amplio, que incluye no sólo las etapas de
ingeniería sino toda la vida del producto: las pruebas, el uso (la vida útil del
software) y el mantenimiento.
40
• Se produzcan cambios en alguno de los componentes del sistema.
• El cliente requiera modificaciones funcionales no contempladas en el proyecto.
La norma ISO 8402 (UNE 66-001-92) define la calidad como “El conjunto de
características de una entidad que le confieren su aptitud para satisfacer las
necesidades expresadas y las implícitas”20.
19
CUEVA L, Juan M. Calidad del Software: conferencia, Grupo GIDIS, 21 de Octubre de 1999. Universidad
Nacional de la Pampa. p. 1.
20
Ibid., p. 1.
41
Corrección: es el grado en el cual el software cumple con su funcionalidad, la
medida más común para esto es:
Facilidad de uso. Mide lo amigable del software con el usuario final, se mide
en función de:
21
Ibid., p. 2.
43
Figura 17. Lista de presentación del aseguramiento de calidad.
Según la norma ISO 9241-11 define la usabilidad como “El grado en el cual un
producto puede ser usado por unos usuarios específicos para alcanzar metas
especificadas con efectividad, eficiencia y satisfacción en un contexto de uso
especificado.”22
22
INTERNATIONAL ORGANIZATION FOR STANDARDIZATION. Ergonomic requirements for office work
with visual display terminals (VDTs) - Part 11 :Guidance on usability: ISO, 1998 (ISO/DIS 4241-11).
44
Definición según Nielasen, la usabilidad se define en términos de cinco
atributos de usabilidad:
Categorías Descripción
Evaluación formal Se realiza la evaluación de la interfaz de usuario mediante análisis
técnicos.
Evaluación automática Se utilizan procedimientos automatizados para realizar la
evaluación de la usabilidad.
Evaluación empírica Se realiza a partir de experimentos con pruebas a usuarios y tiene
como objetivo de completar una evaluación del usuario.
Evaluación heurística Se realiza mediante la revisión de la interfaz del usuario y se
genera un informe sobre la opinión.
Fuente: los autores.
24
Ibid., p. 10.
46
Tabla 9. Método de evaluación de Wixon y Wilson.
27
Tabla 12. Las diez principales heurísticas según Nielsen .
Revisión de guías de estilo. Los evaluadores que son expertos revisan que
el software cumpla con las directrices que tiene fijadas por una institución, las más
características son:
49
3.2. MARCO TEÓRICO
A continuación se presentan los modelos propuestos que sirven como guía para
evaluar la usabilidad y correspondencia didáctica en diferentes entornos de
aprendizaje:
50
medición de jerarquía de tres niveles, donde se define los criterios, métricas y
atributos. Utiliza técnicas para la evaluación teniendo en cuenta los criterios.
Esta metodología propuesta realiza una evaluación objetiva de la calidad del
software educativo, contempla los aspectos de funcionales y pedagógicos, donde
cada uno tiene sus criterios definidos. La medición de cada criterio se hace por
subcriterios e ítems. Se diseñan fichas donde contiene los criterios, subcriterios e
ítems donde a cada uno da valores.
Metodología que propone la evaluación de un objeto de aprendizaje a través
de la combinación de métodos de heurística de usabilidad y criterios pedagógicos,
para reunir las categorías que se enfocan en la facilidad de aprendizaje y de uso.
Metodología propone la evaluación de la usabilidad en aplicaciones de
aprendizaje, donde identifica las dimensiones de análisis y sus respectivos
criterios, reúne la experiencia de evaluadores expertos y los estudios de los
usuarios, utiliza patrones de evaluación (ATs) donde se describen los objetos de la
aplicación a evaluar y cada acción que debe realizar el evaluador.
La evaluación de usabilidad en sistemas de aprendizaje mejora el proceso de
adquisición de conocimientos en la educación. La combinación de
comportamientos y mediciones que se basan en la facilidad de uso, rendimiento y
satisfacción de los usuarios como profesores y alumnos, permiten tener
resultados para rediseñar la interfaz ofrecida.
Una lista de control recoge aspectos enfocados a la usabilidad y pedagogía,
donde esta lista se enfoca en la experiencia de los maestros en la evaluación de
entornos educativos.
Técnicas como la observación y la entrevista, determinan una evaluación de
componentes del sistema de aprendizaje, la información que se obtiene en la
evaluación busca saber cuál es la aceptación del usuario final a la aplicación.
Los factores de evaluación de un software educativo son los encargados de la
integración de los avances tecnológicos como el diseño isntruccional y la
evolución de los sistemas.
Es importante entender las características de la calidad de aprendizaje a
distancia donde se tiene en cuenta la perspectiva del alumno y el instructor, donde
la facilidad de uso es la caracterices principal a evaluar.
Las listas de control se enfocan en la evaluación predictiva de software
educativo, pero no realiza la integración de los aspectos de facilidad de uso y
aprendizaje, por esta razón el modelo propuesto permite la integración de estos
dos aspectos, desde el conocimiento de los profesores.
Las heurísticas se desarrollan para evaluar específicamente entornos virtuales
de aprendizaje, donde se enfocan en la facilidad de uso de su interfaz.
Las técnicas y métricas de una evaluación de usabilidad permiten la
recolección de datos y consolidación de datos, para esto es importante
caracterizar cuales son las técnicas que se van emplear dependiendo del contexto
y usuarios.
Una metodología propuesta en el diseño de software educativo donde existe la
etapa de evaluación donde este puede ser realizada por evaluadores internos y
externos.
51
4. METODOLOGÍA PROPUESTA
Existes razones para llevar a cabo una revisión sistemática, una de ellas es la
búsqueda de sintetizar la información existente en relación con un área, otra razón
es identificar cuáles son las omisiones o vacíos que existen en la investigación
actual y así sugerir nuevas investigaciones en áreas y por ultimo proveer un nuevo
marco de trabajo para crear nuevas actividades en la investigación.
30
Ibid., p. 2-3.
31
GRIMÁN, Anna C. Revisiones Sistemáticas: Recomendaciones para un Proceso Adecuado a la Ingeniería
del Software. Madrid: España, 2008. p. 4-5.
32
MORGUES F, José A. Obtención de conocimiento empírico sobre la calidad de Casos de Uso. Valencia,
septiembre del 2010, 121 h. Tesis de master. Universidad Politécnica de Valencia.
53
Figura 21. Método para la realización de revisiones sistemáticas.
54
Evaluación de calidad de estudio: Su objetivo es encontrar información
adicional acera de los estudios seleccionados para mejorar los criterios de
inclusión y exclusión, y reducir las ambigüedades de los resultados.
Extracción y monitoreo de datos: El objetivo es diseñar una forma de filtrar
la información de los estudios primarios que obtuvieron los investigadores y así
mismo realizar un registro de los datos.
Síntesis de datos: A partir de la recolección de datos se realiza un resumen
de los datos que han sido filtrados de los estudios primarios seleccionados. En
este proceso se puede utilizar para realizar la síntesis una forma descriptiva (no
cuantitativa) o por meta - análisis.
55
5. IDENTIFICACIÓN DE FUENTES DE REFERENCIA
57
Tabla 19. Ecuaciones de búsqueda seleccionadas.
60
6. REVISIÓN DE MODELOS DE USABILIDAD
6.1.2. Objetivos: Los objetivos que del modelo MUSA son los siguientes:
33
FERREIRA SZPINIAK, Ariel y SANZ, Cecilia V. MUsa un modelo de evaluación de Entornos virtuales de
enseñanza y aprendizaje. Aplicación a un caso de estudio. Diciembre, 2012: Argentina, no. 8, p 94 – 103.
61
Figura 22. Diagrama de componentes del modelo MUSA.
Existen capas más cercanas al usuario utilizan escenarios de uso que permiten
guiar y sistematizar la evaluación.
62
• Nivel 1 General - orientado a la tarea: Examina el aspecto y comportamiento
desde el punto de vista de las tareas y objetivos de los usuarios.
• Nivel 2 Particular - orientado al diseño: Los aspectos concretos del conjunto
de interfaces provistas por el EVEA para completar las tareas.
63
Metodología utilizada: las heurísticas coinciden con las utilizadas en la
segunda capa para la evaluación orientada a la tarea (complejidad, visibilidad,
intuitividad, y topografía natural), y se agregan otras vinculadas al diseño en
general (productividad, retroalimentación, control por parte del usuario,
reversibilidad y manejo del error, diseño y organización, consistencia, ayuda y
documentación, y estándares).
Técnica: evaluación con heurística de usabilidad.
64
Tabla 27. Heurísticas para la evaluación de alto nivel orientada a la tarea.
Las métricas seleccionadas poseen directa relación con el estándar ISO 9241-11 y
posibilitan medir la usabilidad del EVEA sin necesidad de estar involucrados en su
desarrollo, en la tabla 28 se encuentran las métricas definidas.
6.1.4. Ajuste de MUSA a diferentes contextos. Cada capa del modelo plantea el
acercamiento hacia el usuario de acuerdo al objetivo que persigue, siendo la
65
primera la más lejana y la cuarta la más cercana, estas capas se pueden ajustarse
a distintos contextos dependiendo de la necesidad, nivel de profundidad de la
evaluación, recursos y tiempo disponible. Se puede utilizar las capas que sean
necesarias. Las alternativas planteadas con el fin de poder aplicar el MUSA en
diferentes situaciones y contextos son:
34
MASSA, Stella Maris y PESADO, Patricia. Evaluación de la usabilidad de un Objeto de Aprendizaje por
estudiantes. Diciembre, 2012: Argentina, no. 8, p 65 – 76.
66
CUSEOA aborda estos dos puntos de vista de la siguiente forma:
67
Tabla 30. Categorías y criterios heurísticos (dimensión pedagógica y usabilidad).
68
Figura 23. Diagrama de componentes del instrumento CUSEOA.
6.3.2. Etapas del modelo. A continuación se explica las etapas que conforman
este modelo:
35
DÍAZ, Antón; PÉREZ, Grimán y MENDOZA, L. Instrumento de evaluación de software educativo bajo un
enfoque sistémico.
69
La poca disponibilidad de tiempo de los docentes involucrados en la selección
de software educativo.
En la numerosa disponibilidad de material educativo computarizado comercial
que está disponible en el mercado y que puede ser usado como apoyo en el
proceso de enseñanza-aprendizaje, y que además requeriría la inversión de horas
de evaluación, de las cuales los docentes no disponen.
Por esta razón se procedió a realizar las siguientes 3 (tres) actividades para
efectuar los cambios necesarios en MOSCA para adaptarlo y especificarlo en el
área educativa.
Tabla 33. Características mínimas que deben ser satisfechas para la categoría de usabilidad.
72
Fuente: los autores.
- Verificar que el 75% de las métricas se encuentran dentro de los valores
óptimos (mayor o igual a 4) para cada una de sus subcaracterísticas y
características. Si no se cumple el 75% de las métricas asociadas, entonces esta
subcaracterística o característica tendrá calidad nula. En el caso de institutos
educativos la población de evaluadores serán docentes de aula y de informática y
los estudiantes; y en el caso de empresas desarrolladoras de software educativo,
la población de evaluadores serán los expertos en contenido, diseño instruccional,
en informática y el coordinador o líder del proyecto. Las pautas para promediar las
métricas se aplican tal como lo señala el algoritmo MOSCA en este apartado.
- Evaluar la categoría. En MOSCA, una categoría es satisfecha si el número de
características es altamente satisfecho; es decir, si satisface el 75% de las
características asociadas a la categoría.
- Tratándose de software educativo, donde existen características que son
imprescindibles que estén presentes, se proponen las características mínimas
satisfechas que debe tener cada categoría del producto para que ésta pueda ser
satisfecha.
36
CLAROS, Iván D y COLLAZOS, Cesar A. Propuesta Metodológica para la Evaluación de la Usabilidad en
Sitios Web: Experiencia Colombiana. EN: Interacción (noviembre): Colciencias (Colombia) Proyecto No. 4128-
14-18008 y Proyecto No. 030-2005, 2004, p. 1 – 10.
73
6.4.1. Etapas de la Metodología. A continuación se explica las etapas que
conforman la metodología:
Para realizar este proceso se puede realizar a través de diferentes técnicas que la
misma Ingeniería de la Usabilidad (IU) ofrece, como el caso de los Stakeholder
Meeting, esta técnica sirve para consolidar la opinión de los diferentes actores
involucrados en el desarrollo, como jefes del proyecto, desarrolladores y clientes. .
Para efectos de experiencia desarrollada con sitios gubernamentales, se escogió
la escala de 1 a 5 para la ponderación del modelo.
74
Etapa 4 - Definición del Modelo Mental de Cada Tarea. Recolectar y
analizar las conductas y necesidades que presentan los usuarios frente al sistema,
tratando de generar mapas o modelos que resuman las condiciones particulares
con las cuales los usuarios resuelven una tarea dada, la información utilizada para
hacerlo y el tipo de interacción que esperan recibir del sistema. Este es un proceso
altamente complejo del cual solo se propone realizar observaciones que permitan
ir recolectando información que se podría resumir en una plantilla propuesta ver
tabla 36.
75
Tabla 36. Diseño de plantilla para la recolección de información.
76
Etapa 7 - Consolidación general de resultados. Como estrategia de
consolidación se propone, contrastar el Modelo de Medición ponderado por las
necesidades y objetivos de Usabilidad para el sistema, con un modelo análogo
generado por los resultados obtenidos de aplicar las técnicas. A medida que las
ponderaciones coincidan o en el mejor de los casos, que los resultados obtenidos
sean mayores que los esperados, el sistema habrá alcanzado sus objetivos de
Usabilidad. Este paralelo entre lo esperado y lo realmente encontrado, permite
identificar las fortalezas y debilidades en la Usabilidad del sitio. A los resultados de
este proceso de comparación de le conoce como el Nivel de Usabilidad del Sitio
Web.
77
Tabla 38. Diseño de platilla para la recolección de informaciones de perfiles.
37
MASSA, Stella Maris, et al. Métricas de calidad de Objetos de Aprendizaje: una mirada pedagógica
entrelazada con la tecnología. EN: VI Congreso de Tecnología en Educación y Educación en Tecnología
(2011). p. 1 – 9.
78
6.5.2. Etapas de la metodología: a continuación se explican las etapas que
confirman esta metodología:
Etapa 2 - Puesta en marcha. Esta etapa está conformada por las siguientes
actividades:
79
6.5.3. Instrumentos e indicadores. A continuación se describen los instrumentos
y métricas que se utilizan en la metodología.
80
6.6. UNA APROXIMACIÓN A LA EVALUACIÓN DE LA USABILIDAD DE LAS
APLICACIONES DE APRENDIZAJE38
38
LANZILOTTI, Rosa, et al. ROSSANO. An approach to usability evaluation of e-learning applications. 2006
Vol. 4 P. 270 – 283.
81
Se identifican patrones de evaluación (ATs) para abordar las directrices.
Plataformas Aprendizaje.
Módulos de Aprendizaje.
Presentación.
Pro-actividad.
Actividad del usuario.
82
La eficiencia se especializa en:
Propósito.
Descripción de la actividad.
Salida.
Aspecto a evaluar.
Enfoque de la acción.
83
6.7. LA INVESTIGACIÓN SOBRE LA EVALUACIÓN DE LA USABILIDAD DE
LOS SISTEMAS DE APRENDIZAJES39
Etapa 2 - Tareas. Se realizan las tareas previstas, junto con las tareas de
búsqueda y un examen corto. A partir de estas tareas permite definir las siguientes
mediciones:
Corrección de Tareas.
Reconocimiento y recuperación de memoria.
Tiempo de aprendizaje.
39
ZHENGYI, Chai; YUJUAN, Zhao y SIFENG, Zhu. The research on usability evaluation of e-learning
systems. 2008. p, 424 – 427.
84
Figura 28. Diagrama de Componentes de Evaluación de Usabilidad en Sistemas de Aprendizaje.
• La idoneidad: que expresa el grado de adecuación del sistema para las tareas
que han de llevarse a cabo.
85
• La capacidad de aprendizaje: la cual refleja lo fácil que es para el usuario a
aprender el sistema y la rapidez con que pueda empezar a trabajar con él.
• La tasa de error: que refleja la relación de error mientras se trabaja con el
sistema.
• Facilidad de uso.
• Eficiencia.
• Simpatía.
• Actitud que el sistema induce en el usuario durante su uso.
El desarrollo de un producto de software tiene que ser evaluado para asegurar que
cumple con el objetivo. Hay muchas maneras de evaluar un producto de software,
pruebas de su funcionalidad, facilidad de uso, la integridad y la aceptación. Este
estudio evaluó la facilidad de uso y la aceptación de la educación web multimedia
entre los niños.
40
BAHARUDIN, Suzana, et al. Evaluating the usability and acceptance of multimedia web-based education
among children. 2011. p. 46 – 49.
86
Figura 29. Diagrama de componentes para los método de evaluación de la educación multimedia.
Usuarios moderados.
Usuarios de la web de alta.
87
Estos casos de prueba están diseñados para asegurar una cobertura adecuada de
todos los escenarios que ensamblan el uso del mundo real con la aplicación.
Este estudio se llevó a cabo con el fin de cumplir con tres objetivos. En primer
lugar es investigar las características de calidad y la facilidad de uso de los
programas de aprendizaje a distancia en línea. En segundo lugar está para
examinar las relaciones entre las características de calidad y el programa de
educación a distancia en línea. En tercer lugar es para examinar la relación entre
la aplicación y el aprendizaje a distancia en línea.
41
NOROL, Hamiza, et al. On line distance learning: Quality characteristics and usability evaluation. 2010. p.
575 - 579.
89
Usabilidad. La usabilidad es un concepto escurridizo que refleja la experiencia
del usuario con un producto, artefacto o servicio y el nivel de éxito que se ha
establecido para el producto / servicio.
La participación estudiantil.
El compromiso cognitivo.
La tecnología de auto-eficacia (es decir, la creencia de que uno tiene la
capacidad de interactuar con una tecnología dada).
Utilidad percibida de la tecnología empleada
La ventaja relativa o desventaja de entrega en línea.
6.10.1. Etapas. A continuación se explica las etapas que conforman este modelo:
42
FONT, Graciela. Heurísticas de usabilidad para e-learning. Vol. 03 No. 09 Julio 2010. p. 15.
91
Actividades 1 - Identificación de criterios desde las teorías del
aprendizaje: en función de lo expuesto se identificaron tres categorías de criterios
que deberían considerarse en la evaluación:
92
Actividad 1: análisis de cada criterio y su pertinencia en función del software a
evaluar.
Actividad 2 - Definición de subcriterios: una vez analizado los criterios que
se van a evaluar los mismos incluyen 38 subcriterios que orientan al evaluador en
relación al alcance de cada heurística.
94
7. REVISIÓN DE MODELOS DE CORRESPONDENCIA DIDÁCTICA
• Finalidad: transformación.
• Contenido: evaluar el impacto pedagógico del software educativo.
• Unidad de evaluación: estudiante, el profesor y el directivo.
• Rol del Evaluador: implicación.
• Toma de decisiones: profesores generales integrales, asesores de
computación, funcionarios, metodólogos y directivos de las escuelas, Direcciones
Municipales y Provinciales de Educación.
43
RODRÍGUEZ GONZÁLEZ, Mayda Agustina: ASTORGA GALARDY, Pedro y CHE SOLER, Justo. Modelo
Para La Evaluación Del Impacto Del Software Educativo. EN: XIV Congreso Internacional de Informática en la
Educación. Cuba, 2010, p 1 – 9.
95
• Participativo: participación de los sujetos del proceso cuyo impacto
pedagógico se busca reconocer.
• Transformador: la transformación de los sujetos del proceso de enseñanza-
aprendizaje (estudiantes, profesores y directivos).
• Enfoque: Histórico- Cultural y método Dialéctico-Materialista.
7.1.4. Fases del modelo. El modelo se compone de tres etapas que se relacionan
por medio de sus resultados, estas son: fase inicial, fase de seguimiento
(monitoreo) y fase final. El modelo propone siete etapas aplicables en cada etapa
y estas a su vez tienen sus respectivas actividades a desarrollar.
Figura 31. Diagrama de componentes del modelo de evaluación del impacto pedagógico.
97
• La organización escolar: Los indicadores relativos al nivel de organización
escolar que conciernen al funcionamiento, disponibilidad y gestión de recursos
humanos, planificación y materiales utilizados de forma racional que permiten el
aprovechamiento del software educativo.
• Indicadores_1: Nivel de gestión de recursos humanos y materiales para el uso
del software. Frecuencia en la planificación de actividades. Nivel o grado de
organización del laboratorio para el trabajo con software. Cambios que se
aprecian en el contexto de la institución educativa.
• Satisfacción con la calidad del software educativo: se refiere al grado con
el que un software educativo cumple con los requisitos especificados y las
necesidades o expectativas de los sujetos del proceso de enseñanza-
aprendizaje.
• Indicadores_2: Indicadores: Nivel de contribución del software educativo al
desarrollo de una actividad constante del alumno. Nivel de aceptación de la
presentación del contenido. Nivel de Satisfacción con la interfaz de trabajo. Nivel
de satisfacción con la estructura del software.
• Desempeño: indicadores referentes al nivel del desarrollo de un sujeto a
través de interacción con el software educativo en correspondencia con los
objetivos de la actividad pedagógica en que participa y el logro de un resultado
que evidencia su mejoramiento y satisfacción individual al ejercer sus tareas con
cuidado, precisión, profundidad, originalidad y rapidez.
• Indicadores_3: Nivel de disposición para la utilización del software educativo.
Nivel de conocimientos y habilidades. Nivel de Dirección del proceso de
enseñanza-aprendizaje con software educativo. Estrategias de aprendizaje. Nivel
de disposición para el cambio.
98
7.1.7. Instrumentos de evaluación: Se proponen doce instrumentos para la
evaluación del impacto pedagógico del software educativo, tales como:
Se contemplan los tres aspectos del software educacional como los son
funcional, pedagógico y técnico.
Cuenta con criterios, subcriterios e ítems que permiten realizar la evaluación
de cada de los aspectos que tiene el software educacional.
Permite seleccionar el nivel de evaluación los cual se tiene diferentes niveles
de abstracción respecto del concepto evaluado, así mismo facilita una
comprensión y una consulta de las diferentes evaluaciones realizadas el software
educativo.
Los niveles que se puede realizar la evaluación son a nivel de ítems, a nivel de
subcriterios.
Se aplica un peso de ponderación por aspecto, criterio, subciterios e ítems,
para llegar a realizar una valoración global del software educativo evaluado, a
continuación en la tabla 44 se relaciona el peso que tiene cada aspecto con
respecto al total.
44
PAUR, Alicia Beatriz y SAENZ, Marta Susana. Evaluación de software educativo mediante variables que
califiquen su calidad. Tesina Licenciado en Informática. Universidad Nacional de la Patagonia San Juan
Bosco. Facultad de Ingeniería, 2004. p, 98 – 113.
99
Fuente: los autores.
100
Etapa 1 - Determinar los diferentes niveles de evaluación. Esta grilla
presenta diferente niveles de evaluación para buscar lo siguiente:
Etapa 2 - Elección de aspecto. Determinan dos aspectos los cuales son los
más usados según la investigación realizada por la grilla, estos aspectos son:
funcional y pedagógico, en la tabla 45 se describe cada aspecto.
101
Etapa 3 - Elección de criterios, subcriterios e ítems. En esta etapa se
centra en la evaluación objetiva de los entornos educativos de multimedia,
seleccionando con cuidado los criterios que caracterizan este tipo de software. A
continuación se describen los criterios, subcriterios e ítems relacionados en el
aspecto funcional, pedagógico y técnico.
102
Tabla 47. Criterios, subcriterios e ítem del aspecto pedagógico.
103
Tabla 48. Criterios, subcriterios e ítem del aspecto pedagógico (continuación).
104
Tabla 49. Criterios, subcriterios e ítem del aspecto pedagógico (continuación).
105
Conformación de la grilla GRIESE: la grilla define unas fichas para realizar la
identificación del software, la evaluación del software y observaciones generales
del software, a continuación se presentan el diseño e información de cada ficha:
106
Tabla 51. Ficha de evaluación del software.
45
GEORGIADOU, Elissavet. Economides: Evaluation factors of educational software. 2010. p. 113-116.
107
parte, cada sector incluye una serie de criterios, con el fin de caracterizar un
software educativo de alta calidad.
7.3.2. Sectores. Para la evaluación del software educativo se realiza una división
por sectores, con el fin de abarcar los factores más importantes a tener en cuenta.
Para la evaluación del software educativo se realiza una división por sectores, con
el fin de abarcar los factores más importantes a tener en cuenta.
108
Factor Pedagógico: esto es un factor complicado, ya que existen diferentes
creencias sobre cómo aprenden los seres humanos.
109
Retroalimentación. Está estrechamente relacionado con el tema de
interacción, como la acción sin reacción es completamente improductiva para un
alumno, las directrices básicas sobre retroalimentación:
Memoria: ¿La cantidad de iconos influye para que los estudiantes recuerden
en un momento dado?
Percepción: ¿qué colores y fuentes proporcionan la mejor legibilidad?
Atención: ¿cómo pueden los usuarios prestar atención a información que es
relevante, cuando hay una gran cantidad de información en la pantalla
El uso del espacio: imagen más grande antes que una pequeña, un objeto en
movimiento antes que una estática, a un color antes que blanco y negro, las áreas
que demandan acciones están mejor situados cerca del centro de la atención del
usuario, una pantalla completa puede impedir la concentración del usuario.
Texto: el uso de tipo de letra debe ser coherente, legibilidad sugiere para la
lectura continua que el tamaño de la fuente debe ser alrededor de doce puntos
con la línea de separación de una línea y media, encabezados pueden ser el
tamaño inmediatamente superior del cuerpo de texto en un estilo o color diferente
desde el cuerpo principal del texto, grandes cantidades de texto son, difíciles de
leer y entender en una pantalla de ordenador, longitudes de línea de alrededor de
ocho a diez palabras parecen ser la óptima, cuando hay una gran cantidad de
texto que se va a mostrar es preferible dividirlo en varias pantallas, justificación
derecha del texto debe ser evitado, Intermitencia del texto es difícil de leer, pero es
apropiado para información vital, el texto encerrado dentro de una caja no es más
fácilmente leído o comprendido como texto sin formato con la misma facilidad.
Color: los colores de texto y fondo deben ser elegidos cuidadosamente con el
objetivo de maximizar el contraste, el color es un medio poderoso de destacar
información en comparación con el uso de formas pero el uso de cantidades
110
excesivas no sirven para dirigir la atención, la consistencia en el uso funcional de
color es importante.
Gráficos: un gran contraste entre los gráficos y el fondo debe mantenerse.
Las imágenes no cubiertos por la información contenida en el texto no va a
mejorar el aprendizaje. También, diagramas son útiles sólo si la información que
en ellos se utiliza con sentido, las imágenes pueden ayudar a los estudiantes a
entender y recordar y debe ser colocado cerca del texto que lo respalden.
Animación / Video: alertas de Movimiento, la animación será el centro de
atención, por lo que si otro evento de importancia se está produciendo en la
pantalla puede ser ignorada. El movimiento debe ser empleado para reforzar
conexiones y relaciones. Cuando la animación contiene información vital que es
importante para proporcionar una opción para repetir la secuencia. Más de una
animación a la vez en la misma pantalla daría lugar a confusión. El video debe
utilizarse para presentar 'la vida real' y no para impartir conceptos abstractos y
filosofías. Vídeo es menos efectivo cuando se usa simplemente para mostrar un
altavoz, y es menos eficaz que el uso de sonido solo. Los segmentos de vídeo es
mejor mantenerse cortos.
Audio: aunque el audio no es la información visual, se examina aquí, ya que
es una parte importante de la interfaz de la computadora. Cuando la
información es aural (es decir, el aprendizaje de idiomas) el uso del sonido es de
vital importancia. En otros casos debe ser una opción y no una necesidad. El
sonido puede ser utilizado para llamar la atención y reforzar información, que
también está siendo presentada gráficamente.
46
PULIDO GRANADOS, Elkin René y MEDINA GARCÍA, Víctor Hugo. Modelo de medición de usabilidad.
2008. Vol. 12 no. 1, p. 15.
111
Figura 38. Diagrama de componentes para metodología de evaluación de usabilidad.
112
generado de los resultados de la evaluación. En la medida en la cual estos dos
árboles coincidan (o en el mejor de los casos que los resultados de la evaluación
sean mayores que la ponderación), con mayor precisión el sistema habrá
alcanzado sus objetivos de Usabilidad. Este paralelo entre lo que se desea y
encuentra, define la medida de Usabilidad del sitio. Lo mejor de este proceso es la
información resultante de cada técnica aplicada.
47
LAGE Fernando J., ZUBENKO Yuriy, CATALDI Zulma. An extended methodology for educational software
design: some critical points. 2001. Vol. 1, p. 13-18.
113
Etapa 4: Evaluación. La evaluación de un programa diseñado según la
metodología propuesta puede ser evaluada por evaluadores internos, y externos,
los primeros son del equipo de desarrollo; mientras que los segundos pueden ser
profesores y estudiantes.
114
8. REVISIÓN DE MODELOS DE USABILIDAD Y CORRESPONDENCIA
DIDÁCTICA
48
BEDNARIK, Roman: GERDT, Petri: MIRAFTABI, Ramin y TUKIAINEN, Markku, Development of the TUP
Model - Evaluating Educational Software. EN: Advanced Learning Technologies. 30 Aug – 1 Sept, 2004, p.
699 – 701.
115
Etapa 1 - Identificar grupo de aspectos. El grupo de aspectos se
identifican por medio de normas y metodologías existentes en la evaluación de
calidad de software en general, para esto se utilizaron la Metodología de Nielsen
y la Norma ISO.
116
Tabla 53. Subcriterios y preguntas para el aspecto de usabilidad.
117
8.2. MODELO DE CALIDAD DE SOFTWARE EDUCATIVO49
49
PLAZA, Inmaculada. Proposal of a Quality Model for Educational Software. EN: EAEEIE Annual
Conference. 22 June – 24 June, 2009: Valencia, p. 1 – 6.
118
Figura 41. Diagrama de componentes del modelo.
50
CROZAT, Stéphane; HÛ, Olivier y TRIGANO, Philippe. A Method for Evaluating Multimedia Learning
Software. EN: IEEE International Conference. 7 Jun – 11 Jun, 1999: Florence, vol. 1, p 714 -719.
119
8.3.1. Objetivos. Los objetivos de este modelo son los siguientes:
8.3.2. Fases. Las fases de componente este método son las siguientes:
Fase 1: Estructura. en esta fase se encuentran las etapas para realizar una
estructura dinámica.
121
Figura 44. Etapas de la Fase de Estructura.
51
GERDT, Petri, et al. evaluating educational software environments. 2002. Vol. 1, p. 675 – 676.
122
Figura 45. Diagrama de componentes del Método de Evaluación de Ambientes de Software educativo.
8.4.1. Propósito. Con este modelo se propone crear una lista de verificación que
tenga en cuenta la instrucción, técnicas, y aspecto de la capacidad de los entornos
educativos. La lista de verificación propuesta se centra por igual en tres aspectos,
así como el modelo TUP, la usabilidad, la pedagogía y los aspectos tecnológicos.
Los tres aspectos están estrechamente relacionados entre sí y tienen la
funcionalidad del entorno en su núcleo.
123
Criterios del Aspecto de Usabilidad: evaluación de la capacidad de
aprendizaje, eficiencia, recordación de la interfaz de usuario, satisfacción, tasa de
error.
Criterios del Aspecto Pedagógico: enfoque educativo, solidez pedagógica
de los contenidos, tipos compatibles de Interacción.
8.5.1. Etapas. Las etapas que conforman el modelo Jigsaw son las siguientes:
52
SQUIRES, David y PREECE, Jenny. Usability and learning: Evaluating the potential of educational software.
1996. Vol. 27. no. 1, p. 15 – 22.
124
Figura 46. Diagrama de componentes para el modelo Jigsaw.
El aprendizaje apoyado por el uso del software debe ser interpretado desde un
punto de vista constructivista, y la investigación sobre cómo los estudiantes
construyen conceptos en ámbitos temáticos relevantes deben ser referidos
también. Otro factor a tener en cuenta es que el uso de software educativo
depende del contexto. No es posible evaluar una aplicación de software educativo
predictivamente sin referencia a un entorno percibido educativo.
125
Tarea 3 - Integrada. Resulta de la integración del aprendizaje y las tareas
operativas. La capacidad para realizar tareas integradas determina la eficacia con
que el software puede apoyar el aprendizaje.
126
9. MODELO PROPUESTO DE EVALUACIÓN DE SOFTWARE LÚDICO USCODI
(USABILIDAD Y CORRESPONDENCIA DIDÁCTICA)
129
Tabla 59. Relación de atributo usabilidad vs métricas de modelos (continuación).
131
9.2. DESCRIPCIÓN DE MODELO PROPUESTO USCODI (USABILIDAD Y
CORRESPONDENCIA DIDÁCTICA)
53
CLAROS, Iván D y COLLAZOS, Cesar A. Propuesta Metodológica para la Evaluación de la Usabilidad en
Sitios Web: Experiencia Colombiana. EN: Interacción (noviembre): Colciencias (Colombia) Proyecto No. 4128-
14-18008 y Proyecto No. 030-2005, 2004, p. 1 – 10.
54
BAHARUDIN, Ismail. et al, Evaluating the usability and acceptance of multimedia web-based education
among children. 2011, p. 46 -49.
55
FERREIRA SZPINIAK, Ariel y SANZ, Cecilia V. MUsa un modelo de evaluación de Entornos virtuales de
enseñanza y aprendizaje. Aplicación a un caso de estudio. Diciembre, 2012: Argentina, no. 8, p 94 – 103.
56
MASSA, Stella Maris y PESADO, Patricia. Evaluación de la usabilidad de un Objeto de Aprendizaje por
estudiantes. Diciembre, 2012: Argentina, no. 8, p 65 – 76.
57
CROZAT, Stéphane: HÛ, Olivier y TRIGANO, Philippe. A Method for Evaluating Multimedia Learning
Software. EN: IEEE International Conference. 7 Jun – 11 Jun, 1999: Florence, vol. 1, p 714 -719.
58
PLAZA, Inmaculada. Proposal of a Quality Model for Educational Software. EN: EAEEIE Annual
Conference. 22 June – 24 June, 2009: Valencia, p. 1 – 6.
59
BEDNARIK, Roman: GERDT, Petri: MIRAFTABI, Ramin y TUKIAINEN, Markku, Development of the TUP
Model - Evaluating Educational Software. EN: Advanced Learning Technologies. 30 Aug – 1 Sept, 2004, p.
699 – 701.
60
PAUR, Alicia Beatriz y SAENZ, Marta Susana. Evaluación de software educativo mediante variables que
califiquen su calidad. Tesina Licenciado en Informática. Universidad Nacional de la Patagonia San Juan
Bosco. Facultad de Ingeniería, 2004. 163 p.
61
DÍAZ, Antón, G: PÉREZ, Grimán y MENDOZA, L. Instrumento de evaluación de software educativo bajo un
enfoque sistémico.
62
RODRÍGUEZ GONZÁLEZ, Mayda Agustina: ASTORGA GALARDY, Pedro y CHE SOLER, Justo. Modelo
Para La Evaluación Del Impacto Del Software Educativo. EN: XIV Congreso Internacional de Informática en la
Educación. Cuba, 2010, p 1 – 9.
63
NARANJO SÁNCHEZ, Bertha Alice. Calidad del software educativo: Metodología de Evaluación de software
educativo para determinar el que cumple con las especificaciones basadas en estándares internacionales.
Virtual educa foro de encuentro.
64
GEORGIADOU ELISSAVET, Anastasios A. Economides: Evaluation factors of educational software. 2010.
p. 113-116.
65
SQUIRES, David and PREECE, Jenny. Usability Learning: Evaluating the potential of educational software.
1996. vol. 27. no. 1, p 15 – 22.
66
GERDT, Petri; MIRAFTABI, Ramin and TUKIAINEN, Markku. Evaluating educational software environments.
2002. vol. 1, p. 675-676.
67
GEORGIADOU ELISSAVET, ANASTASIOS A. ECONOMIDES. Evaluation factors of educational software.
2010, p. 113-116.
68
ZULMA, Cataldi. An extended methodology for educational software design: some critical points. 2001. vol.
1, p. 13-18.
69
C. Ardito, et al. An approach to usability evaluation of e-learning applications. 2006. vol. 4, p. 270 -283.
132
se involucran en este proceso y los contextos que son manejados por cada uno.
Por esta razón el modelo está compuesto por tres etapas, que se inicia desde la
identificación del entorno y los involucrados, hasta llegar en la respectiva
organización del proceso de evaluación. La primera etapa se encarga de obtener
la información inicial del software lúdico y los evaluadores, la segunda etapa se
encarga de recolectar las métricas y criterios asociados a los atributos claves y la
tercera capa se encarga de realizar una organización estructurada para el proceso
de evaluación, cada etapa tiene actividades secuenciales permitiendo la facilidad
de implementación del modelo propuesto.
133
9.2.2. Etapas del modelo. A continuación se realiza una explicación de cada una
de las etapas del modelo USCODI.
134
Tabla 64. Selección de métricas, criterios e ítems de usabilidad (continuación).
135
Tabla 66. Selección de métricas, criterios e ítems de correspondencia didáctica (continuación).
Métricas Criterio Ítem
Organización Herramientas cognitivas Posee guías para el docente
Posee guías para el alumno
Facilita el aprendizaje del tema
Tutorización y Actividades Se presentan variadas actividades: resolución de
evaluación problemas, estudio de caso, glosario, mapa conceptual,
etc.
La mayor parte de las actividades se corrigen
adecuadamente de manera automática.
En las actividades no existe posibilidad de que el
estudiante reciba feedback personalizado relativo a la
calidad o corrección de sus respuestas.
Fuente: los autores.
137
perspectiva del usuario final, así se podrá tener trazabilidad de los errores
encontrados, ver anexo C.
138
- Usuario experto: estos usuarios son los encargados realizar todo el proceso
de evaluación del software, estos son expertos en usabilidad y correspondencia
didáctica.
- Usuario final: estos usuarios son lo que tiene una relación específica con el
software lúdico dentro de su educación, estos usuarios son los alumnos.
139
CONCLUSIONES
140
BIBLIOGRAFÍA
CHOCÓ DÍAZ, Arbey. El uso del software y sus efectos en las prácticas Escolares.
Cauca, 2011.
141
FERREIRA SZPINIAK, Ariel y SANZ, Cecilia V. MUsa un modelo de evaluación de
Entornos virtuales de enseñanza y aprendizaje. Aplicación a un caso de estudio.
Diciembre, 2012: Argentina, no. 8, p 94 – 103.
143
SÁNCHEZ J, Construyendo y Aprendiendo con el Computador. 1995.
144
ANEXO A. PLANTILLA DE RECOLECCIÓN DE INFORMACIÓN.
145
ANEXO B. CHECKLIST DE EVALUACIÓN DE USABILIDAD.
146
misma forma.
147
contenidos, actividades, niveles y
prestaciones en general.
Si Se cumple totalmente
No No se cumple en lo absoluto
Leyenda del valor
NA Ítem no aplicable en el software
• Evalué cada ítem y coloque el valor en la
columna ‘Valor’ según la leyenda
Instrucciones • Se pude colocar observación si lo desea
148
ANEXO C. CHECKLIST DE EVALUACIÓN DE CORRESPONDENCIA
DIDÁCTICA.
149
CP.06 El software permite el
aprendizaje de nuevas
actitudes o valores
CPS.06 Se induce a la
participación directa por
parte de los estudiantes en
diversas actividades.
150
CPS.08 Se promueve la creación
de nuevas ideas y la
búsqueda de nuevos
procedimientos
/técnicas/métodos para la
resolución de problemas o
tareas.
151
ANEXO D. CASOS DE PRUEBA DE ESCENARIOS.
Nombre
Descripción
Precondiciones
Numero de paso Descripción de pasos Resultado esperado
152
ANEXO E. CUESTIONARIO DE USUARIO REAL.
153
ANEXO F. CASOS DE PRUEBA DE ESCENARIOS SIMULADOS.
154