Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Introducción
BY GRAPHICALLY representando algoritmos informáticos en acción, la tecnología de
visualización de algoritmos (AV) tiene como objetivo ayudar a los estudiantes de
ciencias de la computación a entender cómo funcionan los algoritmos. Desde su
llegada a finales de la década de 1970, la tecnología AV ha evolucionado a partir de
software orientado a lotes que permite a los instructores construir animación de
lms [1]; a sistemas altamente interactivos que permiten a los estudiantes explorar
dinámicamente animaciones de algoritmos por sí mismos (por ejemplo, [2, 3]); a
entornos de programación interactivos que permiten a los estudiantes construir
rápidamente sus propias visualizaciones (por ejemplo, [4, 5]). En las últimas dos
décadas, esta evolución del software se ha esforzado por mejorar la educación en
ciencias de la computación en una variedad de capacidades. Por ejemplo, se ha
utilizado AVsoftware:
1045-926X/02/$- véase la materia frontal r 2002 Elsevier Science Ltd. Todos los derechos
reservados
* para ayudar a los instructores a ilustrar las operaciones de algoritmos en una
conferencia (por ejemplo, [2]);
* para ayudar a los estudiantes a estudiar y aprender acerca de los algoritmos
fundamentales en un curso de ciencias de la computación (por ejemplo, [6]);
*
para ayudar a los instructores a rastrear errores en los programas de listas
vinculadas de los estudiantes durante las horas de
* para ayudar a los estudiantesaprender sobrelasoperaciones básicas deun
abstractdatatype en un laboratorio de ciencias de la computación (por ejemplo,
[8]).
A pesar de su atractivo intuitivo como ayuda pedagógica, la tecnología de
visualización de algoritmos no se ha dado cuenta de la educación convencional en
ciencias de la computación [4,9]. Mientras que esos pocos educadores que también
sonAVtechnologydevelopers tienden a emplear su propia tecnología AV, la mayoría
de los educadores de ciencias de la computación tienden a apegarse a tecnologías
pedagógicas más tradicionales, como pizarras, pizarras y Proyectores.
¿Por qué los educadores de informática tienden a no utilizar la tecnología AV? Los
instructores comúnmentecitan varias razones, incluyendo las siguientes
* Sienten que no tienen tiempo para aprender sobre ello.
* Creen que usarlo le llevaría el tiempo necesario para otras actividades de la clase.
* Creen que crear visualizaciones para uso en el aula requiere demasiado tiempo y
e¡ort. Tenga en cuenta que, en la literatura de tecnología AV, esta razón se utiliza
con frecuencia para motivar la nueva tecnología que es más fácil de usar, y que
apoya la creación más rápida de visualizaciones (véase, por ejemplo, [10-12]).
* Sienten que simplemente no es educativamente e-ecttive.
2. Alcance
El enfoque de este meta-estudio es en la e¡ectividad de la visualización del
algoritmo. Adoptamos una de-nición estándar de algorithmvisualization: una
subclase de softwarevisualización [18] relacionada con ilustrar algoritmos
informáticos en términos de sus operaciones de alto nivel, por lo general con el
propósito de mejorar la informática comprensión de los estudiantes del
comportamiento procesal de los algoritmos. La noción de e¡ectiveness, como se
utilizará aquí, se refiere a la unión de seres humanos y tecnología dentro del
contextodeaescenario de uso. Asociado con tal escenario de uso es
(a) un objetivo particular a alcanzar (por ejemplo, 'aprender cómo funciona el
algoritmo de destino');
(b) un individuo o grupo en particular que tenga ese objetivo;
EFICACIA DE LA VISUALIZACIÓN DEL ALGORITMO 263
OFF para OFF para OFF para OFF para OFF para OFF para OFF para
Conferen Estudi asign- Clase Labo Oficina Prueb
cias o ments Discusión rator Horas as
para las que los estudiantes utilizan el entorno de programación Pascal Genie,
que tiene herramientas SV de diseño y tiempo de ejecución integradas.
* Discusión en clase. Después de completar las tareas en las que construyen sus
propias visualizaciones, los estudiantes podrían usar la tecnología AV para
presentar sus visualizaciones a sus compañeros de clase e instructor para
comentarios y discusión [5]. En tales escenarios, la tecnología AV sirve tanto para
permitir una mayor participación de los estudiantes en la clase, como para
mediar en la interacción alumno-instructor.
* Laboratorios. En los laboratorios AV, los estudiantes exploran de forma
interactiva algoritmos y estructuras de datos a través de ejercicios de laboratorio
estructurados [8]. Al igual que las tareas, las sesiones de laboratorio tienen un
objetivo concreto, plasmado en una asignación entregable. Sin embargo, a
diferencia de las asignaciones, los laboratorios están limitados tanto por una
ubicación (un laboratorio que contiene estaciones de trabajo gráficas) como un
bloque contiguo de tiempo (una sesión o una sesión).
* Estudio.Los estudiantes inscritos en cursos de ciencias de la computación tienen
la oportunidad de estudiar para las pruebas en cualquier momento. Dependiendo
de sus preferencias individuales, los estudiantes pueden optar por
alistarAVintheirstudymediantelando sus propios visualizaciones, examinando
copias duras de visualizaciones construidas por otros (profesores o autores de
libros), o utilizando software AV interactivo para que tienen acceso.
*
O-cehours. En los cursos universitarios, profesores y
teachingassistantsprogramar horas semanales, durante los cuales los estudiantes
que necesitan ayuda pueden visitarlos. En esta configuración, los instructores
pueden usar AV para ayudarlos a diagnosticar errores en los programas de los
alumnos [20], o para ayudarlos a responder las preguntas de los alumnos. En este
último caso, AV desempeña un papel explicativo, similar a su papel en las
conferencias.
* Pruebas. En condiciones cerradas de toma de pruebas, se puede utilizar AV para
ayudar a plantear preguntas. Por ejemplo, Brown ([2, Apéndice A]) informa que
los exámenes en los cursos de algoritmos de BrownUniversityoften incluyeron
animaciones de algoritmos discutidas en la clase;se le pediría a los estudiantes
que 'nombre-ese-algoritmo', al igual que los estudiantes en una clase de historia
del arte podría seraskedtoidentificarpinturas. Alternativamente,
onecanimagineatestquestionque tiene studentsto indicar el comportamiento de
un algoritmo dibujando una serie de instantáneas de estructura de datos.
del sistema. Casi cada artículo y artículo que informa sobre un nuevo sistema AV
incluye este análisis.
* Las técnicas programáticas utilizan los programas reales necesarios para producir
visualizaciones dentro de un sistema AV determinado como base para la
evaluación. Por ejemplo, Cox y Roman [22] evalúan su sistema Pavane sumando
el número de líneas de código que
Técnicas de investigación utilizadas para evaluar la eficacia del AV
para especificar una visualización dentro del sistemaFthe menor ese número,
mejor.
* Las técnicas de evaluación analítica (por ejemplo, [23, 24]) tienen como objetivo
proporcionar una evaluación con principios de la e¡ectividad de un sistema
interactivo, evitando al mismo tiempo la sobrecarga de una extensa recopilación
de datos empíricos. En el caso de la evaluación analítica, se reduce a la usabilidad
Cuanto menos problemas de usabilidad identi-ed, más e¡ective el sistema.
* La evaluación empírica, a diferencia de las otras técnicas, implica la recopilación
de datos realesimplicados entaskswithAVsystems.Ananalysisprocessattempts
para transformar los datos en un conjunto de declaraciones que responden a las
preguntas de investigación planteadas por la evaluación.
3. Datos
Los datos de nuestro meta-estudio consisten en 24 estudios experimentales que han
considerado la aVa e¡ectiveness. Hasta nuestro conocimiento, este corpus
comprende cerca de toda la población, si no toda la población, de experimentos
avello publicados. La Tabla 2 proporciona una sinopsis de estos estudios. Para cada
experimento, los factores (variables independientes) aparecen en la columna 2; las
medidas (variables dependientes) aparecen en la columna 3; y un resumen de los
resultados clave del experimento aparece en la columna 4.
Veintidós de los experimentos intentan determinar si varios factores a¡ect
aprendizaje dentro del "estudio" escenario de uso descrito en la Sección 2. En estos
experimentos, el aprendizaje se opera en términos de algún tipo de post-prueba,
que los participantes toman al completar su sesión de estudio. Los otros dos
experimentos [26, 27] consideran escenarios de "asignación" en los que los
participantes utilizan AV para resolver problemas. En estos experimentos, la
resolución de problemas e-cacy se opera en términos de si los problemas se
resolvieron y cuánto tiempo se necesitaba.
La Figura 3 resume los resultados de los 24 experimentos. Como se ilustra en el
gure, los resultados han sido ampliamente dispares. Once de los 24 estudios dieron
como "signi-cant'resultF, es decir, un signo estadístico de la diferencia entre el
desempeño de (a) un grupo de estudiantes que utilizan algún con-guration de
AVtechnology, y (b) otro grupo de estudiantes usando una cono alternativa guración
de la tecnología AV, o ninguna tecnología AV en absoluto. Por ejemplo, Lawrence
[16, Capítulos 6 y 9] encontró, en dos experimentos separados, que los estudiantes
que exploraron animaciones de algoritmos impulsadas por conjuntos de datos de
entrada autoconstruidos puntuados signdsigni-cantlyhigher que los estudiantes que
velaban thesameanimationsdriven bydatasupplied bythe
experimenter,orwhohadnoaccesstosuchanimations. Del mismo modo, Crosby y
Stelovsky [28] encontraron que los estudiantes que interactuaban con una
animación de algoritmo realizaban signi-cantlymejor que los estudiantes que
escucharon una conferencia, y que 'concreto' estudiantes (medidos por el indicador
de tipo Myers-Briggs) bene-ted signi-cantly más de la animación del algoritmo que
los estudiantes 'abstract'. Finalmente, Hansen etal. [14] encontró que los
estudiantes que aprendieron un algoritmo usando su entorno de hipermedia HalVis,
que proporciona a susespectadores con múltiples vistas y los involucra en el diseño
de conjuntos inputdata, predicción interactiva, y queston-answering, signi-cantly
superó estudiantes que aprendieron el mismo algoritmo usando (a) materiales
textuales (Estudio I), (b) una conferencia (Estudio II), o (c) un entorno de animación
de algoritmo de una sola vista convencional sin instalacionesparapredicción
interactiva-respuesta(StudyV). Infollow-upstudies, Hansen etal. [14] Además, los
EFICACIA DE LA VISUALIZACIÓN DEL ALGORITMO 267
posterior a
de vista sively. hora de
la prueba
de negro posterior a
representación la prueba blancas
algorítmico Superio
r
posterior a
la prueba
selección
Lawrence [16, Capítulo 9] Aprendizaje medio/Nivel de Free-responsepost-test En la prueba libre después de la
participación del alumno (solo Precisión prueba, los participantes que
conferencia frente a conferencia + Precisión posterior a laescucharon la conferencia y vieron
animación de vista pasiva frente a prueba de opciónactivamente la animación con un
conferencia + animación de múltiple/verdadero-falso desempeño frecuente de los
visualización activa mediante la estudiantes que sólo escucharon la
construcción de propios conjuntos de conferencia
datos de entrada)
Crosby y Stelovsky [28] Learningmedium (conferencia vs Mejora previa a posterior a Los participantes que aprendieron con
multimedia) la prueba multimedia ssigni-cantly superaron a
Estilo cognitivo (S/hormigón vs. los participantes que aprendieron a
N/abstracto) través de la lectura Interacción Signi-
Testquestiontype (texto frente a cant entre el estilo cognitivo y el
gráficos) medio de aprendizaje: los
participantes 'S' realizaron signi-cantly
mejor con multimedia
Byrne etal. [17, Estudio I] Learningmedium (animationvs. Precisión posterior a la En las preguntas "duras" posteriores a
sin animación) prueba la prueba, los participantes que vieron
Predicción interactiva (predecir el Precisión de predicción la animación y/o hicieron predicciones
siguiente paso del algoritmo frente a realizaron de forma signi-cantly mejor
ninguna predicción) que los participantes que no lo
hicieron.
Byrne, etal. [17, Estudio II] Igual que el anterior Igual que el anterior Igual que antes, salvo que la di¡erencia
se detectó en las cuestiones
«procesales» posteriores a la prueba,
Pepino [20] Medio de aprendizaje (animación Precisión posterior a la No se encontraron signi-cant
frente a no animación) (Nota: Este prueba di¡erences entre los dos grupos
experimento fue un intento de Grupo de animación parecía estarmuy
mejorar motivado por la animación
el Byrne etal. [17] experimento)
Kann etal. [33] Nivel de participación del alumno Precisión de programación Los participantes que vieron la
(algoritmo del programa frente a Precisión posterior a la animación puntuaron signi-cantly más
algo./construcción de animación vs. prueba alto en la pos-prueba que los
programa algo./view anim. vs. participantes que no vieron
programa algo./view anim./construct Animación
anim.)
clave
de rastreo Número
cer (TPM) resuelto signi-cantly menos
a
conceptual
Grupos
Conceptual view group signi¢cantly
Hundhausen y Douglas
cing y programación
de-ned)
Jarc interactiva
10 (42% )
Resultado significativo
11 (46% )
Resultado significativo
1 (4%) en el que la
contribución de AV
Resultado significativo
en la dirección
Figura 3. Resumen de los resultados de los 24 experimentos en nuestro
equivocada
corpus
4. Método
En el éeld de la psicología, meta-analíticatécnicas (ver,por ejemplo,[29]) se han
desarrollado
parastatisticallyanalyzingabodyofrelatedexperimentalstudieswithsimilarindepende
nt ydependentvariables. El objetivo de estas meta-
analíticastécnicasistoinferinvariant causa-ectrelationshipsbasado en los 'ndings
deun corpus de estudios relacionados. Para doso, un metanálisis estadístico
combina y compara sistemáticamente los estudios para determinar el tamaño y el
nivel de signi-cance de sus variables independientes.
Forexample, con el fin de construir una taxonomía de la función de
tarea'quepuedeguiar el uso e¡ective de la tecnología de la visualización de la
274 C. D. HUNDHAUSENETAL.
información,Chen y Yu[30]realizar un meta-análisis estadístico de una muestra de
35 estudios experimentales de visualización de la información. Sin embargo, la
diversidad de los estudios en su muestra hace que sea difícil aplicar técnicas
metaanalíticas; en última instancia, se ven obligados a reducir su muestra a seis
estudios suciently homogéneos centrados en las tareas de recuperación de
información. Curiosamente, su análisis determina que las di¡erence individuales
tienen una relación más grande y consistente en el rendimiento humano que la
tecnología de visualización de la información en sí.
Consideramos el uso de técnicas metaanalíticas estadísticas en este meta-
estudio, pero finalmente decidimos en contra de ellas por dos razones. En primer
lugar, al igual que la muestra de Chen yYu, el corpus de estudios experimentales en
los que nos estamos centrando es bastante diverso. De hecho, mientras que
susvariables independientesy dependientespueden
aparecerdesimilarenelsuperficie,las formas en que esas variables son manipuladas
y operativas varían considerablemente. Por ejemplo,
whilesomestudiescomparetheuseofAVtechnologyagainsttheuseofconventionalmat
eriales de aprendizaje convencionales (por ejemplo,15,17,28]),
otroscomparecompetingversions ofAVtechnology (por ejemplo, [16, 31, 32]). Del
mismo modo, mientras que algunos estudios ponen en práctica el aprendizaje en
términos de una prueba posterior que consiste en preguntas de estilo examen (por
ejemplo, [15-17]), otros optan por medir el rendimiento en términos de precisión
en la programación [31, 33], seguimiento [31] y predicción [14,17] tareas. En
segundo lugar, incluso si, al igual que Chen y Yu, pudiéramos encontrar un pequeño
número de estudios su-ciently homogéneos sobre los cuales realizar un meta-
análisis estadístico, no creemos que tal meta-análisis sería informativo. Esto no es
sólo porque la muestra que consideraríamos en última instancia sería pequeña, sino
también porque grandes discrepancias en los resultados de los estudios de nuestra
muestra darían lugar a conclusiones estadísticamente poco informativas.
Por estas razones, creemos que cualquier metanálisis de este corpus de
estudiosdebe una forma aprincipioda de clasificar los estudios en grupos más
pequeños, como que los resultados de cada grupo, cuando se toman como un todo,
son más uniformes. ¿Cuál podría ser la base de una clase tan magistral? Al examinar
los estudios en nuestro corpus, hemos observado (véase también [5]) diesiones
notables en sus opciones de variables independientes (es decir, los factores que
plantean para causar e¡ectiveness) y sus opciones de variables dependientes (es
decir, las formas en que medir la e¡ecttiveness). Por ejemplo, algunos estudios
manipulan las características representacionales de las visualizaciones (por ejemplo,
color, sombreado, geometría), mientras que otros manipulan el nivel de actividad
del alumno (por ejemplo, el alumno visualiza la visualización; el alumno diseña datos
de entrada; el alumno hace predicciones con respecto a estados de visualización
futuros). Asimismo, los estudios miden la e¡ecttiveness en términos de desaering
tipos de adquisición de conocimientoFboth conceptual y procedimental.
EFICACIA DE LA VISUALIZACIÓN DEL ALGORITMO 275
El método de análisis que empleamos en este meta-estudio, entonces, implica la
primera clasificación de los estudios de varias maneras de principios basados en sus
variables independientes y dependientes, y luego examinar los resultados de los
estudios con respecto a estas clases. Nuestro análisis de los resultados del estudio
incluye tanto comparaciones cuantitativas de los números de resultados
estadísticos de signi-cant y no signi-cant en clases de estudios opuestos, como
evaluaciones cualitativas de tendencias.
Es importante tener en cuenta que nuestro análisis no hará juicios sobre la validez
de cada experimentoFes, la medida en que se puede confiar en los resultados de
cada experimento. Más bien, haremos la suposición simplificador de que los
resultados de cada experimento en nuestro corpus se pueden confiar
aproximadamente por igual. Si bien los resultados experimentales en los que
basamos nuestros análisis se ven claramente atemperados por la solidez de sus
diseños experimentales, y si bien claramente hay desviaciones en la solidez de los
diseños de experimentos en nuestro corpus, creemos que las diazas son menores .
Por lo tanto, criticar el diseño experimental constituiría, creemos, una distracción
innecesaria de nuestro enfoque en los resultados.
5. Análisis
5.1. IndependentVariables
Comenzamos nuestro análisis examinando las variables independientes de los
estudios, que son los factores que han postulado para causar e¡ectiveness.
Argumentamos que las "di¡erencias de los estudios en variables independientes en
realidad re-ect di¡ect di¡ect más profundas di¡erences en las teorías subyacentes de
e¡ectiveness:thestudies'assumptionsabouthow andwhyAVMightbe e¡ective. En los
estudios de nuestro corpus, la tecnología AV se alista como una herramienta
pedagógica; su objetivo es mejorar el aprendizaje. De ello se deduce que las teorías
de la e¡ecttiveness subyacentes a los estudios en nuestro corpus se corresponden
con teorías alternativas de aprendizaje.
Esta sección comienza presentando las cuatro teorías alternativas adoptadas por
los estudios en nuestro corpus. A continuación, vinculamos cada estudio a una
teoría particular basada en su elección de variables independientes. Después de eso,
evaluamos cuantitativamente la robustez de cada teoríaconsiderando el número de
resultados de signi-cant frente a los resultados no signi-cant de los estudios
asociados a ella. Por último, realizamos una verificación de la realidad de nuestros
ndings evaluando en qué medida los resultados empíricos de las teorías
competidoras realmente apoyan la teoría de que nuestro análisis ha encontrado que
tiene el mayor apoyo. Este análisis de granulado nos permite extraer conclusiones
más des-nitive sobre la solidez de esa teoría.
276 C. D. HUNDHAUSENETAL.
5.1.1. CuatroTeoríasde la exactitud
Los variados diseños de theAVexperimentalstudiesre avarietyof teorías subyacentes
de la ectividad. Si bien es cierto que se pueden hacer distinciones entre los
fundamentos teóricos de estos estudios, el análisis de pincel amplio presentado aquí
los coloca en cuatro amplios campos teóricos, queetiquetamosEpistemicFidelity,
Dual-coding,IndividualDifferences, y Constructivismo cognitivo. A continuación,
describimos estas teorías; para un tratamiento más completo, véase [5].
EstémicaFidelidad. La teoría de la fidelidad epistémica [5, 34, 35] tiene sus raíces
en un marco epistemológico representativo (véase, por ejemplo [36]), que supone
que los seres humanos llevan en sus cabezas modelos simbólicos del mundo físico,
y que tales modelos simbólicos son la base para todos de su razonamiento y acción.
La suposición clave de la teoría de la fidelidad epistémica, entonces, esesquegrafía
tiene una excelente capacidad para codificar el modelo mental de un experto de un
algoritmo,leadingtotherobust,e-cienttransferofthatmental modeltotheviewer (ver
Figura 4). Por lo tanto, la teoría de la fidelidad epistémica enfatiza el valor de una
buena coincidencia denotación entre la representación gráfica y el modelo mental
del experto. Cuanto mayor sea la ''delity' del partido, más robusta y e-cientisla
transferencia de ese modelo mental al espectador de la visualización, que no-
problematicallydecodifica e interioriza el conocimiento objetivo.
Codificación dual. Basada en la hipótesis integrada de código dual de Mayer y
Anderson ,37, la teoría de la codificación dual procede de la suposición de Paivio
[38] de que 'la cognición consiste en gran parte en la actividad de dos parcialmente
interconectados pero funcionalmente independientes y sistemas» (pág. 308). Uno
codifica eventos verbales (palabras); el otro codifica eventos no verbales
(imágenes). Según la hipótesis de Mayer y Anderson, las
visualizacionesqueencodeknowledge inbothverbal y non-verbalmodes permiten a
los espectadores construir dualrepresentationsinthebrain, y conexiones
referencialesentreesas representaciones. Como consecuencia, estas visualizaciones
facilitan la transferencia de conocimientos de destino de forma más eficiente y
robusta que las dovisualizaciones que no emplean la codificación dual.
IndividualDi¡erences. Un legado de experimentos psicológicos ha intentado poner
en funcionamiento, y comprender mejor, las dificultades individuales en las
capacidades cognitivas humanas y los estilos de aprendizaje (véase, por ejemplo,
[39]). La contribución clave de esta investigación ha sido no sólo una batería de
instrumentos para calificar y clasificar a los individuos a lo largo de varias
dimensiones, sino también resultados empíricos que hacen declaraciones
importantes sobre el rendimiento humano
Algorithms AV
Expert Viewer
Av
EFICACIA DE LA VISUALIZACIÓN DEL ALGORITMO 277
Codificar Decodific
ar
en relación con las di¡erences individuales tan medidas. Así, en el contexto de este
análisis, la teoría de Las dióncias individuales afirma que las diaerencias medibles en
habilidades y estilos humanos conducirán a diaerencias de rendimiento medibles en
escenarios de AVuse. Por ejemplo, dentro del ámbito del modelo de transferencia
de conocimiento de la teoría de la fidelidad epistémica (ver Figura4),
IndividualDi¡erenceswithrespecttolearningstyle(ver, por ejemplo, [40]) podría
permitir que algunas personas descodifican las visualizaciones de manera más
eficiente y robusta que otros individuos.
Constructivismo cognitivo. En lugar de considerar el conocimiento como
representaciones de una realidad objetivaque las personas llevan alrededor en sus
cabezas, el constructivismo cognitivo (véase, por ejemplo [41]) afirma que no hay
conocimiento absoluto. En cambio, sostiene que los individuos construyen su propio
conocimiento individual a partir de sus experiencias subjetivas en el mundo. Al
comprometerse activamente con su entorno, los individuos construyen activamente
nuevos entendimientos interpretando nuevas experiencias en el contexto de lo que
ya conocen.
Tenga en cuenta que el énfasis del Constructivismo Cognitivo en el aprendizaje
activo tiene implicaciones importantes para el uso e¡ective
deAVtechnology.Inparticular,itsuggeststhatindividuos no están de pie para bene-t
de la tecnología simplemente visualizando pasivamente visualizaciones,
nomatterhowhightheleveloftheirepistemic-delity. En su lugar, los usuarios de
tecnología AV deben comprometerse más activamente con la tecnología con el fin
de bene't la mayoría de ella. La tecnología, en este punto de vista, no se ve como un
transportador de conocimiento, sino como una herramienta para la construcción
del conocimiento.
Con el fin de destacar las distinciones clave entre las cuatro teorías que acabamos
de discutir, la Tabla 3 sinuso indica las teorías y el papel que atribuyen a un AV.
5.1.2. LinkingStudiestoTheories
Las variables independientes elegidas por cada uno de los 24 estudios
experimentales resumidos anteriormente, awellastheways inwhichthose those
independentvariables are manipulated, proporcionan información sobre los
fundamentos teóricos de cada estudio. Al examinar la manipulación experimental
278 C. D. HUNDHAUSENETAL.
de cada estudio, podemos vincularlo a una de las teorías de la
e¡ectivenessjustdiscussed.
La Tabla 4 vincula cada uno de los 24 estudios experimentales con una teoría
subyacente de la e¡ectatness. En cuatro casos [16, Capítulo 5 y 7, 28,14, StudyVI],
un estudio está vinculado a dos teorías subyacentes, porque el estudio de-ned
variables independientes, o realizó manipulaciones experimentales, que fueron
juzgadas para apoyar múltiples teorías subyacentes.
Como indica esta tabla, juzgamos que diez estudios se alineaban con la teoría de
la fidelidad epistémica. Estos estudios manipularon (a) las características de
representación de las visualizaciones o (b) el orden en que se presentan las
visualizaciones. La hipótesis de que estos estudios
279 C. D. HUNDHAUSENETAL.
30 %
0 2 4 6 8 10 12 14 16
Resultados experimentales
Constructivismo
individual
Diferencias
Codificación dual
282 C. D. HUNDHAUSENETAL.
Epistémica
Fidelidad
2 Por supuesto, estas predicciones suponen que los materiales de aprendizaje de un experimento
están bien diseñados ysuficiente información para permitir que los participantes se den bien en la
prueba posterior. De hecho, si los materiales experimentales sonFpor ejemplo, si la animación del
algoritmo está mal diseñada o carece de información necesariaFentonces ninguna cantidad de e¡ort
es probable que lead a una di¡erencia de aprendizaje medible.
284 C. D. HUNDHAUSENETAL.
a cabo este paso trazando el número de resultados y los resultados de signi-cant con
respecto a la 'E¡ort no equivalente/Equivalente de E¡ort equivalente'classi-cation
presentado en el Cuadro 5. En seis de los nueve estudios en los que las actividades
del grupo de tratamiento competidor requerían aproximadamente equivalentes, no
se encontraron resultados de signi-cant. Por el contrario,inten de los 14 estudios en
los que uno de los grupos de tratamientorequerido más,elgrupo
expendingthehigherlevelofe¡ortsigni-cantlyoutperformedel otro grupo. Estos
resultados concuerdan razonablemente con las predicciones de la teoría. En el caso
de los estudios 'E¡ort equivalentes', el Constructivismo Cognitivo predice el 67% de
los resultados. En el caso de los estudios 'E¡ort no equivalentes', el Constructivismo
Cognitivo predice el 71% de los resultados.
Esfuerzo no
Equivalente
Resultado significativo
Esfuerz
Equivalente
o
Resultado no
significativo
0 2 4 6
Resultados experimentales
Figura 6. Resultados de estudios experimentales con actividades e¡ort classi-cation de la Tabla 5
Este nding cuantitativo se refuerza aún más al contrastar dos estudios clasificados
como 'E¡ortequivalent'conestudiosclassi-edas'e¡ortnotequivalent de manera
similar. Gurka[20] intentó replicar uno de los experimentos deByrneetal. [17],que
obtuvo un signi-cantresultinfavorofparticipants que hizo
predictionsandviewedananimation. Sin embargo, Gurka eliminó las condiciones de
predicción de su experimento, optando en su lugar por comparar a un grupo de
participantes que utilizaron una animación contra un grupo de participantes que no
lo hicieron,withnosubstantialdi¡erencesinthegroups'levelsofengagement.
Ambosgruposdeparticipantes,por ejemplo,comprometidosenestudiospartof su
sesión de aprendizaje. Como lo predijo la teoría del Constructivista Cognitivo, la
ecualización de facto de Gurka de las actividades de los participantes condujo a un
resultado no signi-cant.
Del mismo modo, inaseriesofstudies,Hansenetal.
[14]foundthatparticipantswhousedtheir HalVis entorno multimedia, que
activamente involucra a sus usuarios haciendo que construyan sus propios
conjuntos de datos de entrada, respondan preguntas y hagan predicciones, con el
desempeño signi-cantly de los participantes que aprendieron de materiales
textuales (Estudios I y II), y se ha visto una conferencia (Estudio IV). En uno de sus
estudios (Estudio III), sin embargo, los investigadores intentaron
igualarlaslasactividadesdeTheHalVisytext-onlygroupsbyhavingstudents inthetext-
EFICACIA DE LA VISUALIZACIÓN DEL ALGORITMO 285
onlygroupnotonlyreadarticlesonalgorithm,but también completeaseriesof paper-
and-pencil Ejercicios. Como lo predijo la teoría del Constructivista Cognitivo, la
decisión de los investigadores de involucrar a los participantes de sólo texto tan
activamente como los participantes en el grupo HalVis llevó a su fracaso de la
diferencia de la firma entre los resultados de aprendizaje de los dos grupos.
En resumen, nuestro análisis de granulado muestra que el constructivismo
cognitivo predice no sólo el mayor porcentaje de resultados de signi-cant (77%), sino
también una mayoría (60%) de los resultados no signi-cant. Este análisis da más
credibilidad a nuestra conclusión de grano grueso de que la teoría constructivista
cognitiva es la más robusta. Por el contrario, la teoría de la fidelidad epistémica ha
tenido el éxito menos predictivo, después de haber predicho sólo el 30% de los
resultados de signi-cantresults, conotrasfirmi -
cantresultrunningcompletelycountertotheory's predictions. Por
último,duetolownumbersofsupportingstudies,itisfairtosaythatthejury todavía está
fuera en la codificación dual y las teorías de Di¡erences individuales.
5.2. DependentVariables
Ahora pasamos a un análisis de las variables dependientes de los estudiosFes que
es, las formas en que han medido la e¡ecttiveness. Los dos estudios en nuestro
corpus que examinaron escenarios de "asignación" midieron la e¡ectiveness en
términos del éxito de los participantes en la resolución de depuración y
rastreoproblemswiththehelpofAVtechnology[26,27]. Ninguno de estos
experimentos produjo un signi-cantresult. Un estudio de las variables dependientes
de los 22 estudios sugiere que miden formas de las maneras notablemente
similares. De hecho, todos estos experimentos eligieron medir la e¡ectatness en
términos de adquisición de conocimiento. La hipótesis subyacente era que la
manipulación experimental llevaría a algunos tratamientos experimentales a
adquirir conocimiento objetivo más sólidamente que otros.
En la inspección más cercana de los
22estudiosquemeasuree¡ectivenessintermsofknowledge adquisición, no
encontramos diferencias notables tanto en términos de lo que miden, y cómo lo
miden. A continuación, investigamos estas dos diesiones clave, en un intento de
determinar si ciertas opciones de variables dependientes han llevado a un mayor
éxito en la detección de di¡erences de aprendizaje.
5.2.1. DierencesinWhatKnowledgeisMeasured
La primera diferencia notable entre las variables dependientes de los estudios reside
en los tipos precisos de conocimiento que intentan medir. De acuerdo con los
exámenes universitarios típicos en ciencias de la computación, los estudios han
tenido como objetivo medir dos tipos distintos de conocimientos:
286 C. D. HUNDHAUSENETAL.
* conceptual o declarativaComprensi de las propiedades abstractas de un
algoritmo, por ejemplo, su ciencia de Big-O, su rango de salida o límites en los
datos de entrada que puede procesar. Una pregunta de prueba de ejemplo
podría ser '¿Cuál es la peor de las cuestiones del algoritmo?'
* proceduralFan comprensión del comportamiento procedimental, paso a paso de
un algoritmo, es decir, cómo funciona en un conjunto de datos de entrada. Una
pregunta de prueba de ejemplo puede implicar el seguimiento de las variables de
clave y las estructuras de datos de un algoritmo para un conjunto determinado
de datos de entrada.
Es importante señalar que estas dos formas de conocimiento no son
necesariamente distintas. Con frecuencia, se necesita un alto nivel de conocimiento
conceptual para poder entender el comportamiento procesal de un algoritmo.
Forexample,inorder tounderstand how theQuicksort algorithmworks,one
needsaconceptualunderstandingofrecursion. Por el contrario, entender las
operaciones de procedimiento puede ayudar con las preguntas conceptuales. Por
ejemplo, comprender el patrón de la estrategia de división y conquista de Quicksort
puede dar una idea de la eficiencia del algoritmo.
En el Cuadro 6 se clasifican los 22 estudios de medición de conocimientos en
función de si sus instrumentos de evaluación prueban (a)
conceptualandproceduralknowledge, (b) conceptualknowledgeonly o (c)
proceduralknowledgeonly. (Tenga en cuenta que algunos estudios incluyen
múltiples medidas dependientesque prueban más de una de estas combinaciones.
Estos estudios se enumeran varias vecesFonce para cada combinación respectiva.)
Dado que la mayoría de las visualizaciones se centran en el comportamiento
procedimental de un algoritmo, no es de extrañar que la mayoría de los estudios
hayan intentado medir el conocimiento procesal por sí solo. Por la misma razón,
sólo un pequeño número (3) de los estudios han medido el conocimiento conceptual
por sí solo. Nueve estudios han forjado un punto medio midiendo ambas formas de
conocimiento.
Bajo el supuesto de que cada estudio experimental tiene el mismo peso, la Figura
7 lleva el análisis más adelante presentando gráficamente el número de resultados
de signi-cant y no-signi-cant frente a las tres clases de experimentos categorizados
en la Tabla 6. Como se ilustra en el gure, las tres medidas de conocimiento
obtuvieron niveles comparables de
Cuadro 6. Classi-cation de estudios experimentales basados en el tipo de conocimiento
necesario para responder a las preguntas en sus instrumentos de
evaluación
Conceptual y procesal Sólo conceptual Sólo procesal
Procedimiento
67 %
solam
ente
0 2 4 6 8 10 12 1416
Resultados experimentales
apoyo; ninguna medida parece ser más sensible al aprendizaje de las e¡ects que
cualquier otra. Dado que las visualizaciones de algoritmoilustran el comportamiento
procedimental de los algoritmos, es quizás sorprendente quedos de los tres estudios
que midieron el conocimiento conceptual obtenido exclusivamente signi-
cantresults. Sin embargo, el tamaño de la muestra (3) es claramente demasiado
pequeño para extraer conclusiones generales.
Oftheothertwoknowledgemeasurements,proceduralknowledgeonlyappearstoha
vebeen more sensitive to learning di¡erences than
288 C. D. HUNDHAUSENETAL.
conceptualandproceduralknowledge, aunque este resultado esdi-cult para
interpretar. Se podría especular que la parte conceptual de la conceptual y
procesaltestsiswhatdiminishedtheirsensitivity. Si eso fuera así, esperaríamos que las
pruebas sólo conceptuales fueran aún menos sensibles que las pruebas de
procedimiento y conceptuales. Sin embargo, no es así. De hecho, nos da cuenta de
que la combinación de los resultados conceptuales-sólo con los resultados
conceptuales y-procesales aumenta tually la sensibilidad general deconceptual-y-
proceduralteststos45(-ve de the11signi-cantresults). A pesar de estos resultados
inconsistentes, las preguntas de las pruebas de procedimiento todavía parecen ser
algo más sensibles a las preguntas educativas de AVtechnology que a las
conceptuales.
5.2.2. DierencesinHowKnowledgeAcquisitionisMeasured
La metodología empleada para medir la adquisición de conocimientos constituye la
segunda di¡erencia notable en las variables dependientes de los estudios. En trece
de los 22 estudios (véase el Cuadro 7), una prueba posterior diseñada para medir la
adquisición de conocimientos constituyó la única base de medición. Las
puntuaciones posteriores a la prueba constituían los datos que se analizan
estadísticamente. Por el contrario, los otros nueve estudios (véase la Tabla 7)
dierona los participantes tanto una prueba previa como una pruebaposterior. En
estos estudios, la mejora previa a la prueba fue la base de los análisis estadísticos.
AsFigure8illustrates,theresultsofexperiments empleando estas técnicas de
medición de dos alternativas descripción notablemente. Siete de 13 (54%) de los
estudios que se midieron el aprendizaje utilizando una sola prueba posterior
encontró una diferencia estadística entre los grupos detratamiento. Por el contrario,
siete de los nueve (78%) los estudios que midieron el aprendizaje basado en la
mejora previa a la post-prueba encontraron estadísticamente signi-cant di¡erences.
En la interpretacióndethe78%successrateofpre-topost-
testimprovement,oneshouldkeepinmindit se basa casi en su totalidad en el trabajo
de una sola línea de estudios. Sin embargo, dada la desviación en las tasas de éxito,
uno puede concluir con cautela lamejora antes a después de la prueba puede ser
más sensible al aprendizaje de lasdesviaciones de aprendizaje que el simple
rendimiento posterior a la prueba.
Post-Prueba
solam
ente
0 2 4 6
Resultados experimentales
Figura 8. Resultados experimentales con respecto a dos métodos alternativos para evaluar el
aprendizaje
6.4.1. IndependentVariables
Como hemos visto, la mayoría de la investigación de AVe¡ectiveness en la última
década ha sido guiada por sólo dos teorías: Fidelidad Epistémica yC constructivismo
ognivo. En aras de obtener una visión más profunda de AVe¡ectiveness, creemos
que la investigación futura haría bien para explorar otras alternativas. Un lugar
EFICACIA DE LA VISUALIZACIÓN DEL ALGORITMO 293
obvio para comenzar es con la codificación dual y las disinocencias individuales,
ambos de which ya han obtenido apoyo mediante estudios en nuestro corpus. La
teoría de la codificación dual, de hecho, ha tenido éxito predictivo en un legado
Tabla8. Dos teorías alternativas Ofe ¡ ectivenessthatappear drums promisingavenues for
future research
Teoría Sinopsis Papel de AV
6.4.2. DependentVariables
Medición de la base de proceduralidad y
conocimientoconceptualintermsoftestperformancehasasolid en la práctica; de
hecho, es la misma medida utilizada en los cursos tradicionales de informática para
evaluar el rendimiento de los estudiantes. Sin embargo, con el fin de obtener una
comprensión más profunda de los beneficios educativos de La aVtechnology, los
futuros estudios empíricos deben, en nuestra opinión, tener el valorde explore
medidas alternativasFpreferiblemente en concierto con las medidas para no
desafiarse de la corriente principal.
294 C. D. HUNDHAUSENETAL.
Dado que las medidas dependientes de un estudio son una consecuencia lógica
de la teoría del aprendizaje que lo informa, se pueden explorar medidas alternativas
en el contexto de teorías alternativas. En marcado contraste con las teorías de
aprendizaje que en los estudios de nuestro corpus, las dos teorías de aprendizaje
alternativas introducidas anteriormente (verTabla 8) sitúan el conocimiento
notinthehead,butinthebroaderrealms ofsocial interaction(SituatedAction) y la
reproducción comunitaria (Constructivismo Sociocultural). Según estas teorías, la
adquisición de conocimientos individuales no sirve como una medida adecuada de
aprendizaje, que debe medirse dentro delcontexto más ampliode la interacción
social dentro de las comunidades de práctica.
Por ejemplo, la teoría de acción situada recomendaría la evaluación de una
visualización de algoritmo mediante la creación de una situación social en la que dos
alumnos utilizan la visualización para establecer una comprensión compartida del
algoritmo subyacente. Interacción, análisisdeconversaciónse
utilizaríaparadeterminar la extensión quela visualizaciónservesasun recurso de
mediación para los estudiantes. Por ejemplo, Douglas etal. [45] utilizar esta
evaluación measegurar en sus estudios de la humanvisualización de algoritmos de
clasificación.
Del mismo modo, el constructivismo sociocultural recomendaría evaluar una
visualización de algoritmos dentro del ámbito de su uso como artefacto cultural en
una comunidad de práctica como la reproducción en un curso de algoritmos
depregrado. En tal entorno, la e¡ectividad de la visualización se juzgaría de acuerdo
con su capacidad de permitiralearnersgraduallytoparticipar más plenamenteen la
comunidadFthatis,toincreasinglytakeontheiden tityandrolesofthecourseinstructor.
Por ejemplo, dentro del ámbito de un curso de algoritmos de nivel junior,
Hundhausen [5] utiliza técnicas etnográficas de la tecnología de la e¡eld para evaluar
cualitativamente la e¡ectiveness de esta manera.
6.4.3. Alcance
Limitamos intencionalmente el alcance de nuestro estudio aestudio a los estudios
experimentales de AV en escenarios educativos de uso. Al hacerlo, descuidamos
claramente las líneas importantes de trabajo empírico relacionados que son grist
para el análisis futuro. A continuación, describimos tres de los más importantes.
Otrasinvestigaciones. Nuestro meta-estudio se centra exclusivamente en
estudios experimentales de AVe¡ectiveness. Sin embargo, como señalamos en la
Sección 2.2, la experimentación controlada es sólo una de varias técnicas de
evaluación empírica que uno podría utilizar para estudiar AV e¡ectiveness. Otras
cuatro técnicas empíricas relevantes que han sido empleadas por investigaciones
anteriores de AVe¡ectiveness incluyen:
* Pruebas de usabilidadFestos esfuerzos para identificar, diagnosticar y, en última
instancia, remediar problemas conla interfaz de usuario de un sistema interactivo
EFICACIA DE LA VISUALIZACIÓN DEL ALGORITMO 295
mediante la grabación en vídeo de un sm de todo el número de participantes a
medida quecompletan las tareas representativas con el sistema (véase, por
ejemplo, [46]) .
* Técnicas etnográficas Festos incluyen cualquiera de las técnicas cualitativas que
uno podría utilizar para conducta-eldstudy[47]en un entorno naturalistaFpor
ejemploparticipantobservation, entrevistas, y la colección de artefactos.
* Cuestionarios y encuestasFa menudo se utilizan como una fuente
complementaria de data en estudios empíricos. Ellos obtienen respuestas
escritas a un conjunto de preguntas en las que el investigador está interesado
(véase, por ejemplo, [48]).
* ObservationalstudiesFestos investigan alguna actividad de interés en una forma
exploratoria, cualitativa, a menudo a travésdel análisis es deimágenes grabadas
en video de seres humanos que interactúan con la tecnología AV (véase, por
ejemplo, [25]).
Agradecimientos
El primer autor escribió una primera versión de este artículo como parte de su
examen completo de doctorado, El Computer
andInformationScienceDepartmentattheUniversityof Oregon, y agradece la
inspiración y la astuta guía de su entonces asesora, Sarah Douglas.
EFICACIA DE LA VISUALIZACIÓN DEL ALGORITMO 297
Referencias
1. R. Baecker (1975) Dos sistemas que producen representaciones animadas de la
ejecución de programas informáticos. SIGCSEBulletin 7,158-167.
2. M. H. Brown (1988) AlgorithmAnimation. The MIT Press, Cambridge, MA.
3. J. T. Stasko (1990) TANGO: un marco y sistema para la animación de algoritmos.
Computadora IEEE 23, 27-39.
4. J.T. Stasko (1997) Uso de animaciones construidas por estudiantes como ayudas de
aprendizaje. En: ProceedingsoftheACM
TechnicalSymposiumonComputerScienceEducation. ACM Press, Nueva York, págs. 25 x
29.
5. C. D. Hundhausen (1999) Toward e¡ective artefactos de visualización de algoritmos:
diseño de la participación y la comunicación en un curso de algoritmos de pregrado.
Tesis doctoral inédita, Departamento de Informática y Ciencias de la Información,
Universidad de Oregón.
6. P. Gloor (1998)Algoritmos Ated Anim. En: SoftwareVisualization: Programming as a
Multimedia Experience (M. Brown, J. Domingue, B. Price &J. Stasko, eds) The MIT
Press, Cambridge, MA, pp.409-416.
7. J. S. Gurka, &W. Citrin (1996) Testinge¡ectiveness of algorithm animation. En:
Proceedingsof the1996 IEEE Symposium onVisual Languages. IEEE Computer Society
Press, Los Alamitos, CA, pp.182-189.
8. T. Siestas (1990) Algorithmvisualization en oratorios de laboratorio de ciencias de
lacomputación. En: Proceedingsofthe 21st SIGCSE Technical Symposium on Computer
Science Education. ACM Press, Nueva York, págs. 105 a 110.
9. R. Baecker (1998) Clasificación de la clasificación: un caso práctico de visualización de
software para la enseñanza de la informática. En:
SoftwareVisualization:ProgrammingasaMultimediaExperience (M. Brown, J. Domingue,
B. Price &J. Stasko, eds) The MIT Press, Cambridge, MA, págs. 369 a 381.
10. R.Duisberg(1987)Visualprogrammingof programvisualizations.
En:ProceedingsoftheIEEE 1987VisualLanguageWorkshop. IEEE Computer Society Press,
Los Alamitos, CA.
11. E. Helttula, A.Hyrskykari & K.J.Raiha (1989) Animaciones Graphicalspeci-
cationofalgorithm con ALLADDIN. En: Actas de la 22a Conferencia Anual sobre
CienciasdeSistemas. IEEE Computer Society Press, Los Alanitos, CA, pp. 892-901.
12. J.T. Stasko (1991) Uso de manipulación directa para crear animaciones de algoritmos
por demostración. En: Actas de ACM CHI '91Conferencia sobre Factores Humanos en
Sistemas Informáticos. ACM Press, Nueva York, págs. 307 a 314.
13. A.W. Lawrence, A. N. Badre &J.T. Stasko (1994) Evaluar empíricamente el uso de
animaciones para enseñar algoritmos. En: Proceedingsofthe1994
IEEESymposiumonVisual Languages. IEEE Computer Society Press, Los Alamitos, CA,
pp.48-54.
14. S. R. Hansen, N. H. Narayanan & D. Schrimpsher (2000) Ayudar a los alumnos avisualizar
y comprender algoritmos. InteractiveMultimediaElectronicJournalofComputer-
EnhancedLearning1.
15. J.Stasko,A.Badre&C.Lewis(1993)Doalgorithmanimationsassistlearning? Estudio
empempírico y análisis. En:
298 C. D. HUNDHAUSENETAL.
ProceedingsofACMINTERCHI'93ConferenceonHumanFactorsinComputingSystems. ACM
Press, Nueva York, pp.61-66.
16. A.W. Lawrence (1993) Estudios empíricos del valor de la animación de algoritmos en la
comprensión de algoritmos. Tesis de doctorado inédita, Departamento de Ciencias de
la Computación, Instituto de Tecnología de Georgia.
17. M. D. Byrne, R. Catrambone & J. T. Stasko (1999) Evaluación de animaciones como
ayudas estudiantiles en el aprendizaje de algoritmos informáticos.
Computadoras&Educación 33, 253-278.
18. B. A. Price, R. M. Baecker & I. S. Small (1993) Aprincipled taxonomyofsoftware
visualization. JournalofVisualLanguagesandComputing 4, 211x266.
19. J. Bazik, R.Tamassia, S. Reiss & A. van Dam (1998) Visualización de software en la
enseñanza en la Universidad Brown. En: SoftwareVisualization: Programming asa
Multimedia Experience (M. Brown, J. Domingue, B. Price &J. Stasko, eds). The MIT
Press, Cambridge, MA, págs. 383 a 398.
20. J. S. Gurka (1996) Aspectos Pedagógicos de la Animación Algoritmo. Tesis de doctorado
inédita, Ciencias de la Computación, Universidad de Colorado.
21. D.R.Goldenson&B.J.Wang(1991)Uso de programadores de herramientas de edición de
estructura. En: Estudios Empíricos de Programadores: Cuarto Taller. Aldex Publishing,
Norwood, NJ, pp.99-120.
22. K.C.Cox&G.C.Roman(1994)AnevaluationofthePavanevisualizationsystem.TechnicalRep
ort WUCS-94-09, Department of Computer Science, Washington University of St. Louis,
St. Louis, MO, abril de 1994.
23. J. Nielsen (1992) Encontrar problemas de usabilidad a través de la evaluación heurística.
En: Proceedingsof ACM CHI '92 Conferencia sobre Factores Humanos en Computación
Systems. ACM Press, Nueva York, págs. 373 a 380.
24. P. G. Polson, C. Lewis, J. Rieman & C.Wharton (1992) Tutoriales cognitivos: un método
para la evaluación basada en teoría de interfaces de usuario. Revista Internacional de
Estudios Hombre-Máquina 36, 741-773.
25. D. J. Gilmore (1990) Methocuestiones dológicas en el estudio de la programación. En:
Psicología dela Programación(J.-M.Hoc,T.R.G.Green,R.Samurcay&D.J.Gilmore,eds).
AcademicPress, San Diego, págs. 83 x 98.
26. B. Precio (1990) Un marco para la animación automática de programas simultáneos.
Tesis de M.S., Departamento de Ciencias de la Computación, Universidad de Toronto.
27. P. Mulholland (1998) Enfoque aprincipiodático para la evaluación de SV: un estudio de
caso en Prolog.In: Visualización de software: Programación como experiencia
multimedia (M. Brown, J. Domingue, B. Price &J. Stasko, eds). The MIT Press,
Cambridge, MA, pp.439-452.
28. M. E. Crosby &J. Stelovsky (1995) De la instrucción multimedia a la evaluación
multimedia. JournalofEducationalMultimedia andHypermedia 4,147-162.
29. L.V. Hedges & I. Olkin (1985) StatisticalMethodsforMeta-Analysis. Prensa Académica,
Orlando.
30. C. Chen & Y.Yu (2000) Estudios empíricos de visualización de la información: un
metanálisis. InternationalJournalofHuman-ComputerStudies 53,851-866.
31. C.D.Hundhausen,&S.A.Douglas(2000)Usingvisualizationstolearnalgorithms:shouldstude
nts construir los suyos o ver los de un experto? En: Proceedings 2000 IEEE International
SymposiumonVisualLanguages. IEEE Computer Society Press, Los Alamitos, págs. 21 a
28.
EFICACIA DE LA VISUALIZACIÓN DEL ALGORITMO 299
32. D. J. Jarc, M. B. Feldman & R. S. Heller (2000) Evaluación de los beneficios de la
predicción interactiva utilizando cursos de animación de algoritmos basados en la web.
En: Actas SIGCSE 2000. ACM Press, Nueva York, págs. 377 a 381.
33. C. Kann, R.W. Lindeman, & R. Heller (1997) Integratingalgorithm animación en un
entorno de aprendizaje. Computadoras&Educación 28, 223-228.
34. E.Wenger (1987) Arti-cialIntelligenceandTutoringSystems. Morgan Kaufmann, Los Altos,
CA.
35. J. Roschelle (1990) Diseño para conversaciones. Presentado en el Simposio
AAAIsobreEntornos basados en wledgeno para El Aprendizaje y la Enseñanza, Stanford,
CA,1990.
36. A. Newell & H. A. Simon (1972)HumanProblemSolving. Prentice-Hall, EnglewoodCli¡s,
NJ.
37. R. E. Mayer & R. B. Anderson (1991) Las animaciones necesitan narraciones: una prueba
experimental de hipótesis de codificación dual. JournalofEducationalPsychology
83,484-490.
38. A.Paivio(1983)La caja empírica fordualcoding. En:Imágenes, Memoria
yCognición:Essaysin HonorofAllanPaivio (J. C.Yuille, ed.). Lawrence Erlbaum Associates,
Hillsdale, NJ.
39. C. Cooper (1997) IndividualDi ereces. Oxford Illustrated Press, Oxford.
40. R. Riding & S. Rayner (1998) Cognitvie Stylesand Estrategias de Aprendizaje. David
Fulton Publishers, Londres.
41. L. B. Resnick (1989) Introducción. En: Conocimiento, Aprendizaje e Instrucción: Ensayos
en honor a RobertGlaser (L. B. Resnick, ed.). Erlbaum, Hillsdale, NJ, pp.1-24.
42. C.Kehoe,J. T.Stasko&A.Taylor(2001)Rethinkingthe evaluationofalgorithmanimationsas
ayudas de aprendizaje: un estudio observacional. Revista Internacional de Estudios
Humanos-Computación 54, 265-284.
43. L. A. Suchman (1987) Plans and Situated Actions: The Problem of Human-Machine
Communication. Cambridge University Press, Nueva York.
44. J. Lave & E. Wenger (1991) Aprendizaje situado: Participación periférica legítima.
Cambridge University Press, Nueva York,138pp.
45. S.A.Douglas,C.D.Hundhausen&D.McKeown (1996)Explorandola visualización humana
de algoritmos informáticos. En: Actas 1996 Conferencia de interfaz gráfica. Canadian
Graphics Society,Toronto, CA, págs. 9 a 16.
46. J. Rubin (1994) HandbookofUsabilityTesting. JohnWiley y Sons, Nueva York.
47. R. Sanjek (1995) Etnografía. En: Diccionario Enciclopédico de Antropología Social y
Cultural (A. Barnard &J. Spencer, eds.). Routledge, Londres.
48. W. Foddy (1994) Construyendo preguntas para entrevistas y cuestionarios:Teoría y
práctica en investigación social. Cambridge University Press, Cambridge.
49. D. Lavery & G. Cockton (1995) Estudio de Apilot de los primeros métodos de evaluación
de la usabilidad para visualizaciones de software.
FIDETechnicalReportFIDE/95/141[,Universityof Glasgow,Glasgow, Escocia.
50. A. Badre, M. Baranek, J. M. Morris &J.T. Stasko (1992) Evaluación de los sistemas de
visualización de programas como ayudas educativas. En: Computer Assisted
Learning,ICCAL '92 (I. Tomek, ed.). Springer-Verlag, Nueva York, pp.87-99.
51. D. Kimelman, B. Rosenburg &T. Roth (1994) Strata-Various: Visualización multicapa de
la dinámica en el comportamiento del sistema de software. En: Visualización de
procedimientos '94 IEEE Computer Society Press, Los Alamitos, CA, pp.172-178.
300 C. D. HUNDHAUSENETAL.
52. M.J.Baker&S.G.Eick(1995)Space--llingsoftwarevisualization. JournalofVisualLanguages y
Computing 6,119-133.
53. T. Shimomura & S. Isoda (1991) Visualización de lista vinculada para depuración.
IEEESoftware 8, 44-51.
54. B.A. Myers (1990) Taxonomías de programación visual y programavisualización.
Journalof VisualLanguagesandComputing1,97-123.
55. N. C. Shu (1988) Programación visual. Van Nostrand Reinhold, Nueva York.
56. M. H. Brown (1988) Perspectivas sobre animación de algoritmos. En:
ProceedingsoftheACMSIGCHI '88ConferenceonHumanFactorsinComputingSystems.
ACM Press, Nueva York, págs. 33 x 38.
57. J.T. Stasko & C. Patterson (1992) Comprender y caracterizar sistemas de visualización de
software. En: Proceedingsofthe1992IEEESymposiumonVisualLanguages. IEEE Computer
Society Press, Los Alamitos, CA, págs. 3 a 10.
58. G.Singh& M.H. Chignell(1992)Componentesofthevisual ordenador:
areviewofrelevanttechnologies. VisualComputer 9,115-142.
59. E. Kraemer &J. T. Stasko (1993) La visualización de sistemas paralelos: una visión
general. Diario de ParallelandDistributedComputing18,105-117.
60. G. C. Roman & K. C. Cox (1993) Una taxonomía de los sistemas de visualización de
programas. IEEE
Computadora 26,11x24.