Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Permitida su reproducción total o parcial. Los autores son responsables por la selección y presentación de los hechos contenidos en
esta publicación, así como de las opiniones expresadas en ella, que no son necesariamente el pensamiento de la UNESCO y no
comprometen a la Organización.
Las denominaciones empleadas en esta publicación y la presentación de los datos que en ella figuran no implican, de parte de la
UNESCO, ninguna toma de posición respecto al estatuto jurídico de los países, ciudades, territorios o zonas, o de sus autoridades, ni
respecto al trazado de sus fronteras o límites
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizaje
Resumen Ejecutivo
Las principales razones usadas para justificar las TICs en educación son apoyar el crecimiento económico,
promover el desarrollo social, avanzar en la reforma educativa y apoyar la administración educativa. Sin
embargo, transformar la educación con las TICs está lejos de concretarse, pues las políticas para ello sólo se
encuentran en un nivel declarativo. Incluso, aquellos países más avanzados en el tema pasan por una etapa de
estancamiento, porque deben tratar explícitamente con la transformación de prácticas pedagógicas que es más
difícil de implementar y evaluar. Además, la pregunta sobre cuáles son los efectos de corto y largo plazo en el
aprendizaje de los alumnos todavía no tiene respuestas concluyentes.
Con la revisión de la literatura, identificamos dos dimensiones desde dónde analizar qué ha impedido que las
TICs tengan el impacto esperado. Estas dimensiones son 1) el diseño y la implementación de las TICs en el
contexto educativo, es decir, de cómo se generan e implementan iniciativas TIC en educación; y 2) la
evaluación del impacto, es decir, cuál es el valor de las TICs en el sistema educativo.
Con respecto al diseño de los programas educativos apoyados en TICs, en general se antepone la tecnología al
uso educativo, aunque debieran estar basados en teorías de aprendizaje y principios pedagógicos. Respecto de
la implementación de las TICs, el equipamiento y conectividad solamente habilitan la integración de las TIC
en las prácticas pedagógicas, proceso que no ocurre automáticamente como muchos esperaban,
identificándose barreras que deben ser manejadas apropiadamente.
En relación a la evaluación del impacto de las TICs en educación, aunque se han llevado a cabo numerosos
estudios sobre el particular no es posible obtener respuestas concluyentes. Por un lado, `por problemas
metodológicos, clasificables en tres ámbitos: qué medir, con qué medir y cómo medir. Por otro, por
problemas en la falta de metodologías estandarizadas ampliamente aceptadas para la medición del impacto, y
la carencia de suficiente investigación en la cual basarse para tomar decisiones en un entorno tecnológico
cambiante.
A partir de los tres ámbitos a medir, proponemos un modelo conceptual que descompone el proceso de diseño
y desarrollo de un programa de informática educativa (PIE) basado en evidencia rigurosa en tres etapas:
eficacia, efectividad y eficiencia. En cada una de ellas se identifica qué procesos y software diseñar e
implementar, qué medir dentro del proceso educativo considerando la escala y el tiempo requeridos,
utilizando técnicas de investigación cuantitativa y cualitativa que expliquen los resultados obtenidos. Este
modelo conceptual se ilustra con un ejemplo de un programa educativo basado en aprendizaje colaborativo
asistido por computador llamado Eduinnova.
El modelo conceptual propuesto en este trabajo, entrega herramientas al tomador de decisiones para construir
una política pública para el desarrollo de PIEs. Por ejemplo, pueden crearse fondos concursables que
incentiven el diseño, desarrollo y evaluación de: modelos pedagógicos basados en TICs (eficacia), los
procesos de intervención en aquellos proyectos que hayan demostrado su eficacia previamente (efectividad) y
el empaquetamiento y mejoras para la masificación en el sistema escolar de aquellas iniciativas efectivas
(eficiencia).
Con un proceso de las características descritas se puede construir una política de informática educativa desde
las necesidades específicas de las escuelas en vez de buscar usos al equipamiento instalado. Distintas
necesidades de aprendizaje, requerirán distintas soluciones de software y hardware posiblemente
diversificando el equipamiento existente en las escuelas.
Permitida su reproducción total o parcial. Los autores son responsables por la selección y presentación de los hechos contenidos en
esta publicación, así como de las opiniones expresadas en ella, que no son necesariamente el pensamiento de la UNESCO y no
comprometen a la Organización.
Las denominaciones empleadas en esta publicación y la presentación de los datos que en ella figuran no implican, de parte de la
UNESCO, ninguna toma de posición respecto al estatuto jurídico de los países, ciudades, territorios o zonas, o de sus autoridades, ni
respecto al trazado de sus fronteras o límites
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
1 Introducción
Hace más de veinticinco años, las tecnologías de infocomunicaciones (TICs) fueron introducidas al sistema
escolar (Robertson, 2002; Reynolds et al., 2003). La percepción general era que la tecnología ayudaría a
mejorar los niveles de aprendizaje al introducir cambios en los procesos y estrategias de enseñanza-
aprendizaje (Culp et al., 2003; Kozma, 2003), adaptándolos a las necesidades individuales de cada estudiante
(Sunkel, 2006). En la década de los noventa, la inversión en TICs creció en respuesta a la masificación de la
Internet y de la World Wide Web (Pelgrum, 2001) como un esfuerzo de acortar la brecha de inequidad entre
la gente con y sin acceso a las TICs, también conocida como brecha digital (Warschauer, 2003). En la
actualidad, las razones principales usadas para justificar la inversión de TICs en educación son: apoyar el
crecimiento económico, promover el desarrollo social, avanzar en la reforma educativa y apoyar la
administración educativa (Kozma, 2008).
Es posible clasificar el desarrollo de los países respecto de las TICs en educación en cuatro etapas
(Villanueva, 2003): la etapa emergente, que es cuando se ha tomado conciencia de los beneficios de las TIC
en la educación; la etapa de aplicación, que es cuando las autoridades educacionales comienzan a realizar
proyectos pilotos en escuelas seleccionadas; la etapa de integración, que es cuando las escuelas cuentan con
recursos tecnológicos, se han instalado procesos de capacitación de los docentes y se ha integrado el uso de
las TIC en el currículum; y la etapa de transformación, que es cuando las escuelas han incorporado las TIC
de manera sistemática e integral en el proceso de enseñanza/aprendizaje y en la organización de la tarea del
docente. Por ejemplo, en Iberoamérica, Brasil, Chile, Costa Rica y México ―países donde existen programas
públicos de informática educativa― se encuentran principalmente en una etapa de integración (Sunkel,
2006). Sin embargo, las políticas de transformar la educación sólo se encuentran en un nivel declarativo, pero
no se han llevado a la práctica (Moonen, 2008). Incluso, aquellos países más avanzados en uso de las TICs en
educación, cuando llegan a la etapa de integración sufren de un estancamiento del proceso de implementación
porque deben tratar explícitamente con el tema pedagógico que es mucho más complejo en términos de
medición de impacto (Moonen, 2008).
Con respecto al impacto de la tecnología, aún quedan respuestas abiertas sobre sus efectos de corto y largo
plazo en el aprendizaje de los alumnos y cómo ella afecta tareas de aprendizaje simples y complejas (Cox &
Marshall, 2007). Responder estas preguntas es de suma importancia porque permitirá 1) desarrollar políticas
de gobierno, 2) focalizar la formación de profesores, 3) mejorar el currículum nacional, 4) adecuar la
implementación en sala de clases y 5) analizar los costos y beneficios (Cox & Marshall, 2007).
La pregunta que hay que responder entonces es porqué, a pesar de todos los proyectos llevados a cabo, las
inversiones y el tiempo transcurrido, aún las TICs no satisfacen las expectativas de resultados que las llevó a
ser introducidas en la sala de clases. El análisis de la literatura, nos permite identificar al menos dos
dimensiones desde donde analizar qué ha impedido que se cumplan estas promesas. Estas dimensiones son: 1)
El diseño y la implementación de las TICs en el contexto educativo, es decir, de cómo se generan e
implementan iniciativas TIC en educación; y 2) La evaluación del impacto de las TICs en el sistema
educativo, es decir, qué se mide, con qué y cómo se evalúan los efectos de la introducción de las TICs en el
sistema escolar.
Este artículo está estructurado como sigue: en la sección 2, analizamos la dimensión de diseño y la
implementación de las TICs en el contexto educativo; en la sección 3, analizamos la dimensión de la
evaluación del impacto de las TICs; en la sección 4, planteamos un modelo conceptual que permite combinar
el diseño, desarrollo y la evaluación de programas educativos basados en TICs con el fin de manejar los
problemas identificados. En la sección 5 analizamos la diseminación de los resultados de esas evaluaciones y
su presentación en publicaciones especializadas y en eventos destinados a producir agendas de política El
artículo finaliza con las principales conclusiones y perspectivas de trabajo futuro.
3
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
4
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
ejemplo, llama la atención que muchos de los problemas actuales de la introducción de las TICs en el aula
están en la literatura señalados desde hace mucho tiempo: hace más de 18 años ya se señalaba que el cambio
progresivo ocurrirá, si se hace énfasis en la tecnología de la educación más que la introducción de tecnología
en la educación (Spencer, 1991). Más de 10 años después, el estudio Silicon Valley vs Silicon Glen, donde se
compara el impacto en el aprendizaje en California y Escocia, muestra que si bien hubo una “transformación”
desde el punto de vista de la infraestructura, el quehacer docente no cambió significativamente (Colon &
Simpson, 2003).
Tan importante es el modelo pedagógico que la evidencia muestra que aquellas tecnologías que fueron
desarrolladas por un equipo de investigación, tienen un mayor impacto que aquellas que fueron simplemente
adaptadas del mercado comercial o que solamente usan la tecnología como un medio de entrega (Liao & Hao,
2008).
La carencia de modelos pedagógicos en las propuestas de uso de TICs en los establecimientos, podría ser la
causa de la lentitud en la adopción de las TICs, ya que los profesores deben resolver el problema de cómo
incorporar de la mejor forma las nuevas tecnologías en las viejas prácticas de enseñanza (Hayes, 2007). Por
ello, los profesores necesitan apoyo para desarrollar estos nuevos enfoques antes de integrarlos a su quehacer
(Hayes, 2007). La capacitación de los profesores debe considerar además de los aspectos tecnológicos, nuevos
enfoques pedagógicos que incluyan las TICs (Hepp, 2003; Cox & Webb, 2004; Trucano, 2005; Sunkel, 2006;
Hayes, 2007), pero lamentablemente este proceso toma tiempo y requiere estrategias de formación docente de
largo plazo (Hepp, 2003; Trucano, 2005).
5
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Otro problema que ha dificultado la obtención de resultados, es que no se ha puesto suficiente atención a los
temas de seguimiento y evaluación que provean retroalimentación tanto para el diseño de la mayoría de las
iniciativas de TIC en educación como para la política educativa respecto de las lecciones aprendidas de los
proyectos pilotos (Trucano, 2005; Anderson & Plomp, 2009).
El seguimiento de un programa educativo basado en TICs debe examinar qué y cómo se está implementando
(fidelidad de la implementación) (Wagner et al., 2005) mientas que la evaluación analiza los efectos directos
o inmediatos de la intervención e implementación (Rovai, 2003) para medir desempeño. El objetivo principal
de medir la fidelidad de la implementación es determinar si el programa está operando como debe en términos
generales (Rovai, 2003; Wagner et al., 2005) y de acuerdo a las intenciones específicas de los diseñadores
(Agodini et al., 2003). Para que esto sea posible, los diseñadores deben primero especificar cuáles son los
aspectos importantes o críticos que los profesores deben llevar acabo dentro de la sala de clases y desarrollar
medidas para determinar cuándo y cómo estos aspectos son puestos en práctica en las salas de clases (Penuel,
2005). El seguimiento y evaluación puede entregar un entendimiento más profundo de la relación entre la
variación de la implementación de un programa y los efectos medidos (Agodini et al., 2003; Penuel, 2005).
También permite identificar cuáles son los límites de la aplicabilidad o flexibilidad del programa, así como
también posibles errores de diseño (Penuel, 2005; Light, 2008).
La falta de implementación de mecanismos de seguimiento y evaluación hace que no estén disponibles datos
o herramientas concretas respecto a los temas y desafíos que significan la integración de las TICs a las
escuelas, limitando su difusión fuera del círculo de expertos y usuarios experimentados, hacia la mayoría de
los tomadores de decisiones, donantes y educadores legos en el uso de las TICs en educación (Trucano,
2005).
6
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Lamentablemente, el impacto de las TICs en el aprendizaje no está del todo claro y todavía está abierto al
debate (Trucano, 2005). Si bien se han llevado a cabo numerosos estudios respecto de los efectos de las TICs
en educación, problemas mayores respecto a las políticas y metodologías con las cuales han sido llevados a
7
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
cabo algunos, no permiten establecer respuestas concluyentes (Cox & Marshall, 2007; Reeves, 2008).
Además, mucha de la evidencia ha sido obtenida de estudios de pequeña escala haciendo falta estudios
rigurosos de mayor escala que permitan hacer generalizaciones (Condie & Munro, 2007).
Tampoco existen metodologías estándares y ampliamente aceptadas para la medición del impacto (Trucano,
2005), ni suficiente investigación en la cual basarse para tomar decisiones en un entorno tecnológico
cambiante (Anderson & Plomp, 2009).
Un reciente análisis acerca de los efectos de las TICs en educación (Cox & Marshall, 2007), identifica una
serie problemas relacionados principalmente con el qué medir o con qué medir y que requieren atención
para llevar acabo investigaciones más profundas que provean resultados robustos y confiables en distintas
condiciones respecto del impacto de las TICs en educación.
Un primer tipo de problemas lo constituyen los distintos efectos que producen tipos de uso específicos de
TICs. El impacto en el aprendizaje de los alumnos depende fuertemente del tipo de recurso TIC, cómo se usa
y la asignatura en la cuál es usado (McFarlane, 2001; Cox & Marshall, 2007). Esta noción, que no es nueva,
tiene como consecuencia que el estudiar agregadamente los efectos del uso de TICs muy diferentes no
revelará efectos generales en el sistema educativo, medidos solamente en términos de pruebas estandarizadas
(McFarlane, 2001).
Por lo tanto, cualquier impacto debe ser medido investigando la naturaleza específica de las tareas basadas en
TIC y los tipos de conceptos, habilidades y procesos que éstas afectan (Cox & Marshall, 2007). Esto genera
una disyuntiva de cómo evaluar el impacto: si estudiando usos específicos en profundidad a través de casos, o
realizando estudios de gran tamaño, con resultados más generalizables, pero limitados respecto al
conocimiento de los usos específicos de las TIC (Cox & Marshall, 2007). Muchos de los estudios que
muestran efectos positivos de las TIC en educación (Watson, 1993; Harrison et al., 2002) fueron realizados de
esta última forma, no pudiendo conocer qué usos específicos produjeron impacto.
Un segundo tipo de problemas corresponde a cómo el diseño e implementación curricular afecta a los
alumnos. La evidencia de la literatura (Cox & Abbot, 2004; Cox & Marshall, 2007) muestra que cualquiera
sea el tipo de TIC utilizado, cómo se adapta y se implementa para el uso curricular afectará el impacto en los
alumnos (Cox & Marshall, 2007). Hasta ahora no existen estudios longitudinales a gran escala del impacto de
las TICs como los disponibles en los proyectos de desarrollo curricular. Esto no hace posible establecer
lineamientos específicos de cómo, cuándo, y bajo que circunstancias los docentes pueden diseñar métodos
apropiados para que una competencia sea aprendida de la mejor forma posible (Cox & Marshall, 2007).
El tercer tipo de problemas corresponde a los enfoques pedagógicos de los profesores. Los estudios
muestran que el enfoque pedagógico del profesor tiene un gran impacto en el uso de las TICs de sus alumnos
y por lo tanto en sus logros de aprendizaje (Cox & Webb, 2004). Incluso, la evidencia muestra que estos
efectos son mayores cuando los docentes usan sus conocimientos tanto de la asignatura, como de la forma en
que sus alumnos aprenden dichos contenidos en la asignatura que imparten (Cox & Marshall, 2007). Por lo
tanto, el impacto de las TICs en la enseñanza y aprendizaje se ve limitado cuando los docentes no aprecian
que la interactividad requiere nuevos enfoques pedagógicos y repensar como planifican sus clases y el
currículum completo. Estudiar el impacto de las TICs, también significa medir tanto la experticia de
profesores como la relevancia del software y su uso en todo el currículum (Cox & Marshall, 2007).
Finalmente, el cuarto tipo de problemas tiene que ver con la selección de los instrumentos de evaluación y
cómo interpretar sus resultados. Muchos de los estudios previos respecto al impacto de las TIC en
educación, muestran que los instrumentos y los métodos utilizados no miden realmente los objetivos y
resultados de aprendizajes promovidos por usos específicos de las TICs (Trucano, 2005; Cox & Marshall,
2007). Se buscan mejoras en procesos y conocimientos tradicionales en vez de nuevas formas de
conocimiento y razonamiento que podrían resultar del uso de las TICs (Penuel, 2005; Cox & Marshall, 2007)
como, por ejemplo, las denominadas competencias del siglo 21 (www.atc21s.org). La evidencia de
investigación es más robusta y confiable cuando las pruebas están relacionadas directamente con los efectos
probables de las TICs en el aprendizaje de los resultados (Cox & Abbot, 2004).
Sin embargo, estos no son todos los inconvenientes que podemos encontrar. Hay otra serie de dificultades
que se relacionan con el cómo medir, específicamente debilidades en la aplicación de comparaciones
experimentales en la evaluación de las TIC en educación, muchas de las cuales lamentablemente no son
reconocidas o son ignoradas (Reeves, 2008) y que discutiremos a continuación.
8
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
En primer lugar, el estricto control al tratamiento de las variables control y experimental que requieren las
metodologías de experimentación, es impráctico en la mayoría de los contextos educativos sujetos a
evaluación (Marshall & Cox, 2008). Las salas de clases no son laboratorios experimentales donde los
investigadores pueden comparar la efectividad de la tecnología con los métodos tradicionales controlando
todas las otras variables (Pilkington, 2008). Por lo tanto, aunque los experimentos con asignación aleatoria
puedan ser considerados por muchos como el estándar de oro (Slavin, 2008), la dificultad de aislar el rol de la
tecnología en el contexto educativo puede debilitar el valor de las conclusiones obtenidas (Pilkington, 2008).
Se debe complementar con otros métodos, especialmente cualitativos para entender las causas de los efectos
encontrados (Chatterji, 2005; Light, 2008).
En segundo lugar, décadas de estudios de evaluación claramente indican que hay sustantivas diferencias
entre el diseño de los ambientes de enseñanza-aprendizaje apoyadas por TICs y su implementación real
(Penuel, 2005; Reeves, 2008) y por tanto la evaluación recoge solo esta última, que además como proceso
está pobremente entendida (Trucano, 2005; Reeves, 2008). Es decir, se evalúa lo que ocurrió en lugar de lo
que se quiso implementar, que es un problema relacionado con la ausencia de mecanismos de seguimiento
como ya se mencionó en la sección anterior.
En tercer lugar, en los estudios experimentales, los instrumentos utilizados para medir resultados educativos
son rara vez investigados lo suficiente respecto a su confiabilidad y validez (Marshall & Cox, 2008), lo
cual puede invalidar los hallazgos de dichas experiencias (Chatterji, 2005). Estas pruebas se focalizan en
resultados que son más bien fáciles de medir, más que en aquellos que son más importantes, pero difíciles de
medir (Reeves, 2008).
En cuarto lugar, un enfoque experimental puede determinar solamente que método (clase tradicional vs. con
apoyo de tecnología) fue más efectivo, pero no indica las razones de ello (Chatterji, 2005; Reeves, 2008),
como ocurrió en los recientes estudios para evaluar el uso de software de lectura y matemáticas en Estados
Unidos (Dynarski et al., 2007; Campuzano et al., 2009) que no encontraron efectos significativos del uso de
software en dichas asignaturas, pero no entregan una explicación del porqué.
Un quinto problema relacionado con lo anterior es que si bien la evaluación puede arrojar diferencias
estadísticamente significativas, especialmente cuando grandes tamaños muestrales están involucrados, la
significancia social o educativa de dichos resultados es a menudo, débil (Reeves, 2008), por ejemplo
diferencias estadísticamente significativas con un tamaño del efecto muy bajo (Fan, 2001).
9
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
El modelo pedagógico apoyado por TICs (en adelante simplemente modelo pedagógico) define qué debe
llevarse a cabo apropiadamente dentro de las escuelas (Penuel, 2005). El proceso de intervención
corresponde a cómo el modelo pedagógico es instalado y adaptado al contexto de la escuela, desarrollando en
los profesores y estudiantes las competencias para la implementación autónoma del programa a través de
actividades como cursos de capacitación de profesores, experiencias prácticas y observaciones de clases,
todas ellas de acuerdo a un plan (Rodríguez et al., 2010). Además, durante la intervención se requiere poner
en marcha un esquema de seguimiento y evaluación (S+E) que permita establecer la fidelidad de la
implementación y si realmente la adopción se produce, a través de indicadores de proceso y resultados
(Wagner et al., 2005). Así, el proceso de integración de tecnología en el contexto escolar se hace sustentable
maximizando las posibilidades de impacto (Rodríguez et al., 2010). La componente final del PIE es el
proceso de transferencia que corresponde a un programa de formación de profesionales, que lleven a cabo
fielmente el proceso de intervención a una escala masiva (Rodríguez, 2008). Estos componentes explicitan la
lógica subyacente del PIE, conocida también como “teoría del programa” (Chatterji, 2005).
El componente central de un PIE es el modelo pedagógico, que especifica los supuestos de cómo aprenden
los alumnos (Penuel, 2005; Cox & Marshall, 2007), las habilidades requeridas por éstos (Cox & Marshall,
2007), los cambios propuestos de prácticas con el uso de TICs en los profesores (Penuel, 2005), las
competencias requeridas por ellos (Cox & Webb, 2004), los atributos del modelo que permitirán introducir
dichos cambios (Cox & Marshall, 2007), y especialmente cómo y en qué debieran manifestarse los resultados
(Agodini et al., 2003; Penuel, 2005; Cox & Marshall, 2007; Light, 2008). Todo lo anterior de acuerdo a una
teoría que lo sustente (McFarlane, 2001; Lai, 2008; Marshall & Cox, 2008; Reeves, 2008).
Un modelo pedagógico apoyado por TICs puede especificarse en función de los componentes curriculares
del aprendizaje de los alumnos (Van den Akker, 2003), que son el fundamento (¿por qué aprenden?), las
metas y objetivos (¿hacia qué objetivos aprenden?), los contenidos (¿qué aprenden?), las actividades de
aprendizaje (¿cómo aprenden?), el rol del profesor (¿cómo se facilita el aprendizaje?), materiales y recursos
(¿con qué aprenden?), agrupamiento (¿con quiénes aprenden?), lugar (¿dónde aprenden?), tiempo (¿cuándo
aprenden?) y la evaluación (¿cuál es el progreso?). Otros autores, expresan el modelo pedagógico en términos
de los cambios que ocurren dentro de la escuela denominándolos dominios de innovación (Mioduser et al.,
2003). Dichos dominios corresponden a la configuración espacial, temporal y digital (¿dónde aprenden?,
¿cuándo aprenden?, ¿cuál es alcance y apertura de las entidades virtuales con las cuales el alumno
interactúa?), el rol del estudiante (¿cómo varía el comportamiento de los alumnos?), del profesor (¿cómo se
relaciona con sus alumnos y colegas?) y el currículum (¿cuáles son los cambios en contenidos, soluciones
didácticas y mecanismos de evaluación?). Tanto los componentes curriculares como los dominios de
innovación sirven para caracterizar la integración de las TICs dentro del proceso de enseñanza-aprendizaje,
haciendo explícitos cuáles son los cambios de prácticas que requieren ser estudiados.
Por su parte, el proceso de intervención (Rodríguez, 2008) debe detallar: las actividades a llevar a cabo
dentro del establecimiento (qué hacer), los actores dentro del establecimiento que se verán afectados (para
quiénes); los diagnósticos, plan de trabajo, la capacitación a los profesionales de la escuela y el plan de
seguimiento y evaluación (cómo hacerlo); los recursos TIC, materiales y documentos (con qué) y una
definición de perfiles del equipo que realizará la intervención (con quiénes).
Finalmente el proceso de transferencia (Rodríguez, 2008), que forma a los profesionales que realizan la
intervención, estará compuesto por los planes de formación del equipo en: el modelo pedagógico de la
innovación, la intervención propiamente tal y la implementación del mecanismo de seguimiento y
evaluación.
La definición de un programa de informática educativa permite una mayor articulación entre los distintos
componentes operativos de las políticas de TIC en educación: desarrollo de infraestructura, capacitación de
profesores, soporte técnico, cambios pedagógicos y curriculares y desarrollo de contenidos (Kozma, 2008) en
un proyecto integral. Esto es no menor, ya que algunos autores creen que la falta de alineamiento de las
componentes operativos en la política explica en parte la situación actual de las TICs en educación (Moonen,
2008)
10
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
ambientes controlados si es que la tecnología podría mejorar los resultados de los alumnos. (Agodini et al.,
2003). Se estudia la efectividad cuando se evalúa si realmente usando la tecnología se obtienen mejores
resultados en los contextos educativos para que fueron diseñados (Agodini et al., 2003). Por su parte, la
eficiencia añade a la efectividad los costos del programa, para medir su aplicabilidad y replicabilidad práctica.
Por otro lado, los estudios de evaluación para medir los conceptos anteriores las dividiremos en dos grandes
grupos: formativos y sumativos. Los estudios de evaluación formativos, se llevan a cabo para mejorar los
ambientes de enseñanza-aprendizaje durante su desarrollo, mientras que los estudios sumativos buscan
demostrar su impacto una vez finalizado (Reeves, 2008).
Aplicación de la teoría
Hipótesis basadas en Mejora de la teoría basado
Experimentos diseñados por parte de
observaciones y/o en los resultados de las
para probar las hipótesis los profesionales del
teorías existentes pruebas
área
Desarrollo de soluciones
Análisis de problemas reales Reflexión para producir
informadas por Ciclos iterativos de pruebas
por investigadores y “principios de diseño”
principios de diseño y refinamiento de la
profesionales del área y mejorar la implementación
existentes e innovaciones solución en la práctica
en colaboración de la solución
tecnológicas
Figura 1: En la parte superior el enfoque de la investigación tradicional y en la inferior el estudio de diseño educativo (Reeves, 2006) .
11
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
instrumentos de evaluación especialmente pruebas de aprendizaje son aplicadas antes (pre-test) y después
(post-test) de la implementación. Cuando existen niveles mayores de aleatorización (curso, profesor,
escuela) la manera adecuada de analizar estos diseños es a través de modelos lineales jerárquicos (Slavin,
2008).
• Diseños cuasi-experimentales: cuando la aleatorización no es posible, el grupo control se selecciona de
forma que homologue las características del grupo experimental lo mejor posible (control pareado).
Cuando una escuela o cursos son asignados aleatoriamente para recibir el programa, pero hay demasiado
pocos de ellos para efectuar un análisis usando modelos lineales jerárquicos, se habla de cuasi-
experimentos aleatorios (Slavin, 2008). Estos diseños pueden ser además de dos tipos: prospectivos y
retrospectivos (Slavin, 2008). En los cuasi-experimentos prospectivos, los grupos control y experimental
se definen a priori, mientras que en los retrospectivos se definen posterior a la implementación.
La evidencia sugiere que cuando los grupos control y experimental están bien pareados, se usan covariables
relacionadas con el pre-test para ajustar los resultados, y no hay sesgos de selección a nivel de estudiantes,
ambos tipos de experimentos producen resultados similares (Slavin, 2008). Por lo tanto, si un diseño
experimental no es posible especialmente por motivos de orden práctico discutidos en la sección 3, un
cuasi-experimento prospectivo bien diseñado es un buen sustituto (Chatterji, 2005; Slavin, 2008). No son
recomendables los cuasi-experimentos retrospectivos ya que producen resultados sesgados a favor del grupo
que participa en el programa (Slavin, 2008).
Para comparar el desempeño de los grupos se utilizan distintos instrumentos de evaluación, y se debe asegurar
que éstos, especialmente los que miden el aprendizaje, tengan la suficiente confiabilidad. Ésta se mide en
términos de la consistencia interna de los ítemes que componen la prueba. Por lo tanto, cuando se construyan
instrumentos específicos que evalúen aprendizajes u otras aspectos que pruebas estandarizadas no recojan,
deben aplicarse previamente a una población similar a la objetivo para medir la consistencia interna del
instrumento. Uno de estos indicadores es el denominado alfa de Cronbach (Cronbach, 1951), que para
propósitos de comparar dos grupos, este indicador debe tener valores superiores a 0,7 u 0,8 (Bland & Altman,
1997).
En las evaluaciones de impacto, los resultados de los grupos se comparan a través del denominado “tamaño
del efecto” o δ de Cohen (Cohen, 1998) que corresponde a la diferencia estandarizada de medias del
indicador de impacto entre los grupos experimental y control (Fan, 2001). El tamaño del efecto debe
calcularse en relación al post-test ajustado por el pre-test, y si este resultado corregido no está disponible
deben restarse los tamaño del efecto del post y pre-test (Slavin, 2008). En términos generales, el tamaño del
efecto se clasifica en “pequeño” (0,2 ≤ δ < 0,5), “mediano” (0,5 ≤ δ < 0,8) y “grande” (δ ≥ 0,8). En el caso
de las TICs, el tamaño del efecto esperado para una innovación fluctúa entre 0,25 y 0,35 (Agodini et al., 2003;
Dynarski et al., 2007). Esto es consistente con la evidencia que proveen los meta-análisis, que son
metodologías que a través de análisis estadísticos combinan resultados de distintos estudios empíricos (Liao
& Hao, 2008). La combinación de distintos estudios de meta-análisis indica que el tamaño del efecto total en
aspectos cognitivos es de 0,41 en el caso de las tecnologías instruccionales y de 0,17 para el e-learning,
siendo el tamaño del efecto combinado entre ambas de 0,29 (Liao & Hao, 2008).
Además de calcular el tamaño del efecto, se deben realizar pruebas de significancia estadística que indiquen
que si hay o no diferencias entre los grupos experimental y control en alguna dirección. Existen dos tipos de
errores que deben controlarse apropiadamente cuando se realizan estas pruebas. El primero es el error de tipo
I (con una probabilidad α de ocurrencia), que es cuando se afirma que existe diferencia cuando en realidad no
la hay (falso positivo). El segundo es el error de tipo II (con una probabilidad β de ocurrencia) que consiste en
declarar que no se han encontrado diferencias estadísticamente significativas cuando sí las hay (falso
negativo). El nivel aceptable del error de tipo I normalmente se fija en una probabilidad α=0,05; mientras que
la potencia estadística (con probabilidad 1- β) de la prueba, tiene un valor convencionalmente aceptado
mínimo de 0,8 (Fox & Mathers, 1997).
También los tamaños muestrales están directamente relacionados con el tamaño del efecto buscado, la
significancia estadística y la potencia de la muestra tal como se muestra en la Figura 2, donde se grafican
distintos tamaños del efecto en relación al tamaño total de la muestra (asumiendo grupos control y
experimental combinados y de igual tamaño) y la potencia de la prueba.
12
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
900
800
700
300 δ = 0,75
200
100
0
0,80 0,82 0,84 0,86 0,88 0,90 0,92 0,94
Potencia (1-β)
Figura 2: Detectar tamaños del efecto pequeños minimizando el error de tipo II, requiere cada vez de tamaños muestrales más grandes.
Como puede observarse en la Figura 2, para α= 0,05 en la medida que el tamaño del efecto a detectar es
pequeño y se maximiza la potencia (partiendo de 1 - β = 0,8) los estudios requieren una muestra de tamaño
importante. Por ende, una tecnología con un tamaño del efecto pequeño tiene una reducida significancia
práctica y además ésta es costosa de demostrar. También se debe considerar que los tamaños del efecto de
una innovación van disminuyendo en la medida que crece la población afectada (Slavin, 2008; Slavin &
Smith, 2009). Esto significa que hay que asegurar la máxima eficacia posible desde etapas tempranas del
desarrollo de la innovación, para que cuando esta sea aplicada en gran escala produzca resultados que sean
importantes, y por tanto sean costo-efectivos. Si la eficacia en instancias tempranas no es la suficiente, es
posible que no valga la pena seguir desarrollando el programa de informática educativa.
Adicionalmente, cuando en una misma experiencia se prueban múltiples hipótesis, es decir, se mide el
impacto comparando los grupos experimental y control en más de un resultado, los errores de tipo I y II de las
distintas pruebas estadísticas se combinan, produciendo resultados erróneos (Schochet, 2008). Para ello se
deben seguir lineamientos y procedimientos de corrección que se describen en mayor detalle en un reporte
técnico del Institute of Education Sciences de Estados Unidos (Schochet, 2008).
La significancia y el tamaño del efecto deben ser interpretados en conjunto para obtener conclusiones
fidedignas (Fan, 2001). A continuación en la Tabla 2, se sintetiza una guía para interpretar los resultados
combinados de significancia estadística y tamaño del efecto para intervenciones educativas.
13
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Tabla 2: Guías para interpretar de los resultados de una experiencia combinando los resultados encontrados de la significancia
estadística con el tamaño del efecto (Fan, 2001)
1. Aparentemente no hay ni 1. Los efectos de la muestra son 1. Existe evidencia de que algún
efectos estadísticos ni prometedores, pero se debe efecto significativo existe,
prácticos tener cautela en interpretar el pero debe tenerse un poco de
2. A menos que la investigación tamaño del efecto por sí precaución respecto al tamaño
futura indique lo contrario, la mismo, porque un efecto de este efecto, porque puede
hipótesis nula es favorecida medio puede ser resultado del ocurrir por azar si la muestra
tanto en términos estadísticos azar, aun cuando parece ser es muy pequeña.
como prácticos. prácticamente significativo. 2. Si el error tipo II es una
No
2. Si hay preocupación respecto preocupación, revisar
al error de tipo II, revisar la críticamente la falta de
potencia de la prueba t porque potencia del test estadístico.
si el tamaño de la muestra es 3. Tentativamente, favorecer la
Significancia estadística
1. La significancia estadística 1. Es muy poco probable que el 1. Hay un alto grado de certeza
no está acompañada de la efecto observado se deba al de que el efecto observado no
significancia práctica, azar. se debe al azar y que la
pudiendo deberse ésta última 2. La magnitud del efecto es magnitud del efecto tiene
a la potencia estadística del importante en muchas áreas significancia práctica.
test (N grande). de las ciencias sociales y del 2. Concluya con confianza que
Si 2. Hay que tener considerable comportamiento. el efecto es significativo tanto
precaución en interpretar los 3. Concluya que el efecto es en un sentido práctico como
resultados de significancia significativo tanto en un estadístico.
estadística y no debieran sentido práctico como
interpretarse que tengan un estadístico
sentido de significancia
práctica.
Los resultados más confiables respecto al impacto de la tecnología se producen cuando se combinan la
existencia de la significancia estadística con tamaños del efecto mediano y grande. Las otras combinaciones
requieren más investigación, corrigiendo ciertos aspectos ya mencionados como la potencia de la prueba.
14
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
de ellas debe llevarse a cabo antes de aplicar una evaluación sumativa, para responder las preguntas respecto a
las causas de los efectos encontrados (Chatterji, 2005).
El paso de una etapa a otra se determina a través de una evaluación sumativa que mide el impacto del diseño
consolidado de la componente respectiva. De obtenerse los resultados esperados, se pasa a la siguiente etapa
donde además se diseñan los procesos a ser probados. Por ejemplo, al término de la etapa de la eficacia se
contará con un modelo pedagógico completamente desarrollado con una noción del impacto que es posible
lograr; al que se debe agregar el proceso de intervención para ser probado en la etapa de efectividad. El
proceso completo se ilustra a continuación en la Figura 3.
implementació ón
(tamaño muestral evaluación
implementaci
Escala de la sumativa de cada etapa)
ón de procesos
Informática Educativa
Efectividad
Especificació
Especificaci
Intervención
Modelo pedagógico
Evaluación
Resultado final etapa
sumativa
Diseño inicial
Figura 3: Ciclo de diseño y desarrollo de programas de informática educativa que consiste en tres ciclos de desarrollo de soluciones
prototipo que finaliza con una evaluación sumativa de resultados dependientes de la etapa.
En la medida que se avanza en las etapas, se requieren estudios en contextos educativos reales, que requieren
un mayor tiempo y escala de implementación alargando la duración del ciclo (representado por el diámetro
de cada círculo en la Figura 3). También se van especificando y documentando los procesos en mayor detalle
como parte del desarrollo del proceso de transferencia que produzca la escalabilidad deseada del programa
final.
A continuación, para cada etapa, se identifica qué evaluar, la escala y tiempo requerido de la implementación
necesarios para efectuar la evaluación.
4.2.1 Eficacia
En la etapa de eficacia, entendida esta como el grado en el que una determinada intervención, procedimiento,
régimen, o servicio originan un resultado beneficioso en condiciones ideales, el objetivo central es el
desarrollo del modelo pedagógico (expresado ya sea en términos de las componentes curriculares o dominios
de innovación) para responder si éste podría tener resultados en el aprendizaje de los alumnos. Normalmente
el componente central del modelo pedagógico es un ambiente de enseñanza-aprendizaje apoyado por TICs.
Por lo tanto, el ciclo de evaluación formativa busca obtener información que guíe las decisiones para mejorar
el software educativo a través de ensayos con alumnos en escuelas (Reeves, 2008). Los elementos centrales a
evaluar durante esta etapa son:
• La pertinencia, es decir, la utilidad que los profesores perciben (Penuel, 2005) y su relevancia respecto
al curriculum completo (Cox & Marshall, 2007) y si puede ser usados en distintos contextos curriculares
(Reeves, 2008).
15
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
• Los supuestos en los cuales está basado respecto a las teorías de aprendizaje que lo sustentan; las
actitudes de profesores y alumnos; el nivel de entendimiento conceptual y desarrollo cognitivo de los
alumnos (Penuel, 2005; Cox & Marshall, 2007; Marshall & Cox, 2008).
• El ambiente de enseñanza-aprendizaje, especialmente en términos de facilidad de uso (Penuel, 2005),
su transparencia de uso para la educación (Cox, 2008); a cómo el material de la asignatura es
representado (Cox, 2008); cómo la interacción humano-computador es dividida entre manipular el
software e involucrarse con una actividad de aprendizaje más profunda (Cox, 2008; Marshall & Cox,
2008) y cómo los estudiantes interpretan el conocimiento cuando se involucran con nuevas
presentaciones e interacciones humano-computador (Cox, 2008). Existen guías y metodologías para
evaluar estos aspectos (Squires & Preece, 1999; Reeves, 1994, 2006).
• La alfabetización en el medio TIC requerida para su uso (Marshall & Cox, 2008), ya que cómo los
alumnos piensan respecto al problema o tarea es influenciada por su familiaridad con las TICs y el
ambiente de enseñanza-aprendizaje con el cual trabajan (Cox & Marshall, 2007).
• El impacto en el aprendizaje de los alumnos, medidos en términos de las habilidades y conocimientos
que la innovación espera afectar (Penuel, 2005; Cox & Marshall, 2007).
Esta información puede ser recogida de muchas formas y de distintas fuentes, desde expertos en la asignatura
hasta alumnos que son representativos de la audiencia objetivo para las herramientas TICs (Reeves, 2008).
Algunas de las principales actividades a llevar a cabo durante la evaluación formativa incluyen: entrevistas en
profundidad con profesores, observación directa de sala de clases y revisión de documentos, especialmente
los estándares del gobierno local, la planificación de las clases y datos demográficos que caractericen la
diversidad de las salas de clases objetivo (Penuel, 2005). Otras actividades son la revisión de expertos,
observaciones de usuarios y pruebas de usabilidad (Reeves, 2008).
Los métodos de investigación asociados a los objetivos de evaluación de esta etapa se muestran en la síntesis
que se indica en la Tabla 4, en la sección 4.2.4.
La duración de la implementación de la evaluación sumativa de la etapa debe durar lo suficiente para que se
suministre evidencia de que el programa puede ser usados por períodos extensos (Slavin, 2008). Dado que
estudios muy cortos tienen una validez externa baja, algunos autores fijan un criterio de duración mínima de
12 semanas (Slavin, 2008).
Respecto del tamaño muestral para la evaluación de impacto en el aprendizaje, éste dependerá del tamaño del
efecto esperado (ver Figura 2), el cual debiera ser entre mediano y grande, pensando en que luego es posible
que parte de la eficacia se pierda cuando los profesores implementen el programa.
4.2.2 Efectividad
En esta etapa, entendida como el grado en que una determinada intervención, procedimiento, régimen o
servicio puestos en practica logran lo que se pretende conseguir para una población determinada, el objetivo
principal es desarrollar el proceso de intervención con su respectivo esquema de seguimiento y evaluación
que permita establecer si la adopción del modelo pedagógico se produjo o no. Los elementos centrales a
evaluar durante esta etapa son:
• El contexto donde se implementará el programa, expresado en términos de los tipos particulares de clases
donde se lleva a cabo (tipo y cantidad de alumnos) (Penuel, 2005) y otros como por ejemplo, la
organización de la escuela, roles del personal, experiencia de los profesores e infraestructura que
permitan evaluar los cambios a través del tiempo (Marshall & Cox, 2008). Las variables que midan el
contexto deben tener relación con los obstáculos o habilitadores del uso de TIC en la escuela. Además,
permitirá entender la relación entre el ambiente de aprendizaje y el contexto más amplio (Marshall &
Cox, 2008).
• El proceso de intervención expresado en términos de sus componentes: actividades a llevar a cabo
dentro del establecimiento, los diagnósticos, plan de trabajo, la capacitación a los profesionales de la
escuela y el plan de seguimiento y evaluación; además de los recursos TIC, materiales y documentos a
ser utilizados (Rodríguez, 2008).
16
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
• La fidelidad de la implementación por parte de los profesores, expresada en términos de las prácticas
críticas que ellos deben implementar, para desarrollar medidas de cuándo y cómo estos aspectos son
llevados a cabo en las salas de clases (Penuel, 2005). Esto refleja la efectividad del proceso de
intervención y la adopción de la innovación que es la que determina finalmente los resultados que logran
los alumnos (Rodríguez et al., 2010)
• El impacto en el aprendizaje de los alumnos, medidos en términos de las habilidades y conocimientos
que la innovación espera afectar (Penuel, 2005; Cox & Marshall, 2007).
• La relación entre la variabilidad de la implementación y los resultados, que permite entender los
límites de aplicabilidad del programa y explica las variaciones de efectividad dentro de la
implementación de la innovación (Penuel, 2005).
Respecto del contexto existen una serie de modelos que conceptualizan el entorno en el cual se busca integrar
un modelo pedagógico apoyado por TICs identificando actores y sus relaciones; habilitadores u obstáculos
que enfrenta el programa y apoyo al proceso (Kirkman, 2000; Mooij & Smeets, 2001; Lim, 2002; Tearle,
2003, 2004; Nachmias et al. 2004; Plomp et al., 2007). Estos modelos pueden ser usados como guía para
elaborar las estrategias de la intervención.
En el caso del proceso de intervención, el esquema de seguimiento y evaluación es el que precisamente
permite medir la fidelidad de la implementación. Este esquema requiere definir una serie de indicadores
(entrada, procesos y resultados), con sus respectivos instrumentos de evaluación y un plan de seguimiento
(Rodríguez et al., 2010). Los indicadores de entrada miden las condiciones de contexto y el objetivo es
identificar cuáles de ellas se deben mantener en el tiempo para que la innovación sea sustentable. Los
indicadores de procesos miden dos aspectos: el cumplimiento del plan de la intervención y la adopción de las
prácticas que el modelo requiere para ser exitoso. Los indicadores de resultados reflejan el impacto directo de
la implementación del programa como el desarrollo de competencias en los profesores o mejoras de
aprendizajes de los alumnos. Los instrumentos de evaluación son las herramientas con que se miden los
indicadores anteriormente descritos, y pueden ser de tipo cuantitativo o cualitativo dependiendo de lo qué
está siendo medido. Ejemplos de instrumentos son pruebas de aprendizaje, pautas de observación de sala de
clases y encuestas. El plan de seguimiento determina cuándo se aplican los diferentes instrumentos de
evaluación, implementando la evaluación de procesos.
Por lo tanto, en esta etapa, el ciclo formativo involucrará un conjunto de estudios pilotos para refinar los
instrumentos de evaluación y asegurar validez y confiabilidad de los mismos (Penuel, 2005; Marshall & Cox,
2008). Además, las evaluaciones formativas recogerán información valiosa de la implementación como por
ejemplo, si los alumnos entendieron todo o solo parte del material usado, participaron de las actividades
instruccionales, si entendieron las instrucciones o tenían la madurez mental necesaria para involucrarse
completamente en la tarea, si es que las prácticas pedagógicas de los profesores fueron orientadas a todos los
alumnos o no, y si el tiempo ocupado para la instrucción fue suficiente para entender las tareas (Marshall &
Cox, 2008). También pueden arrojar luces respecto a qué procesos cognitivos fueron usados por los alumnos
para resolver los problemas (Marshall & Cox, 2008) y si los profesores adaptaron la innovación en una forma
que socava los principios con el cual fue diseñada (Penuel, 2005). De esta forma los estudios formativos
(¿cuáles son las condiciones iniciales?, ¿qué factores críticos demoraron, impidieron o deformaron el plan
original?) entregarán factores clave para que los datos recopilados en el estudio sumativo expliquen el éxito o
fracaso del programa y permitan mejorarlo (Chatterji, 2005; Marshall & Cox, 2008).
Los métodos de investigación asociados a los objetivos de evaluación de esta etapa se muestran en la síntesis
que se indica en la Tabla 4, en la sección 4.2.4.
La duración de la implementación de la evaluación sumativa de la etapa debe durar lo suficiente para que se
suministre evidencia de que el programas pueden ser usados por períodos extensos (Slavin, 2008). Dado que
estudios muy cortos tienen una validez externa baja, algunos autores fijan un criterio de duración mínima de
12 semanas (Slavin, 2008).También, la investigación previa demuestra que a los profesores y a las escuelas le
toma tiempo adoptar innovaciones (Cox, 2008). Por lo tanto, el tiempo de implementación debe ser el
suficiente para que se produzca una adopción mínima de acuerdo a criterios fijados por los diseñadores y
medidos a través del esquema de seguimiento y evaluación. Dado que la implementación de acuerdo a los
criterios fijados anteriormente debe durar al menos 12 semanas, dependiendo de la duración de los procesos
de intervención el tiempo requerido debiera ser al menos un semestre.
17
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Adicionalmente, el tamaño del efecto medible debiera disminuir por la introducción de ineficacias, propias
del proceso de adopción (Rodríguez et al., 2010). Por lo tanto, el tamaño de la muestra debiera ajustarse para
medir tamaños del efecto mediano a bajo (ver Figura 2). Adicionalmente hay que considerar que en caso que
existan múltiples contextos educativos en que pueda aplicarse la innovación, se requiere una adecuada
representación muestral de cada uno, lo que influirá en el tamaño final de la muestra a considerar. También
es importante incluir la mayor cantidad de docentes posibles para medir la relación entre los resultados de
aprendizaje de los alumnos y la adopción del modelo pedagógico por parte de los profesores (Rodríguez et al.,
2010).
4.2.3 Eficiencia
En esta etapa, los objetivos son desarrollar el proceso de transferencia, estimar cuáles son los costos totales
del programa y estudiar mecanismos que permitan disminuirlos de forma de mejorar su costo-efectividad. De
acuerdo a lo anterior, y asumiendo que los contextos educativos de uso de la innovación fueron delimitados
en la etapa de efectividad, los elementos centrales a evaluar son:
• La fidelidad de la intervención por parte de los profesionales a cargo de ella. Esto permite evaluar la
efectividad del proceso de transferencia.
• La fidelidad de la implementación por parte de los profesores, expresada en términos de las prácticas
críticas que ellos deben implementar en las salas de clases (Penuel, 2005).
• El Costo Total de Apropiación (TCO, del inglés Total Cost of Ownership) que se refiere a todos los
costos asociados al uso de los computadores: hardware, software, costos administrativos, licencias,
instalación, actualización de software y hardware, capacitación y desarrollo, mantención, soporte técnico
y otros costos asociados con la adquisición, implementación, operación, mantenimiento y actualización
de los sistemas computacionales en una organización (Moyle, 2008).
• El impacto en el aprendizaje de los alumnos, medidos en términos de las habilidades y conocimientos
que la innovación espera afectar (Penuel, 2005; Cox & Marshall, 2007).
• La relación entre las variabilidades de la intervención, la implementación y los resultados, que
explican las variaciones de efectividad dentro de la implementación de la innovación además de la
efectividad de los procesos de transferencia.
Así como en la etapa de la efectividad se mide la fidelidad de la implementación para asegurar que el modelo
pedagógico está siendo aplicado adecuadamente, en esta etapa se mide la fidelidad de la intervención para
establecer que dichos procesos se llevan a cabo lo más cercano posible al diseño ya validado. Esto porque
cambios en la intervención pueden repercutir en la adopción de la innovación por parte de los profesores y por
ende en la implementación final afectando los resultados. Al evaluar la fidelidad de la implementación, la de
la intervención y los resultados es posible establecer relaciones de causalidad entre estos distintos elementos.
Por su parte, la estimación del TCO requiere identificar y definir al menos en términos operacionales los
activos tangibles e intangibles como las competencias de las personas que quedan instalados para
establecer mecanismos para su cuantificación (Moyle, 2008). Por ejemplo, dado que la etapa de efectividad se
identificó las competencias y prácticas que deben quedar instaladas, los costos asociados a estos activos
intangibles serán la capacitación de los profesores además de los mecanismos de seguimiento y evaluación
que permitan identificar su adopción.
La duración de la evaluación sumativa requiere al igual que en la etapa de efectividad un tiempo suficiente
para que se produzca la adopción de la innovación. Por ello, la implementación debiera tener una duración
similar. El diseño de los estudios debe ser lo más cercano al experimental aleatorio (ya sea a nivel de los
alumnos, cursos, profesores o colegios participantes) de forma que la evidencia de la efectividad encontrada
sea lo más rigurosa y contundente posible, dando cuenta del real tamaño del efecto que se produzca en la
aplicación en régimen permanente del programa. Dado lo anterior, lo más probable que el análisis requiera de
modelos jerárquicos lineales, por lo cual se requiere un adecuado tamaño muestral a nivel de cursos y
colegios para que las pruebas estadísticas tengan la potencia adecuada para detectar los tamaños del efecto
buscados (Agodini et al., 2003). Agodini et al. (2003) discuten en más detalle los temas conceptuales y
estadísticos respecto a este tipo de estudios.
18
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Los métodos de investigación asociados a los objetivos de evaluación de esta etapa se muestran en la síntesis
que se indica en la Tabla 4, en la sección 4.2.4.
Una medida de la costo-efectividad de un programa educativo es la relación entre el tamaño del efecto y el
costo total de apropiación del programa (Feinstein & Picciotto, 2001; Tan et al., 2001; Margolis et. al., 2006;
Harris, 2009), ambos medidos en una unidad común, como es el establecimiento tipo en que son aplicados y
la población afectada para determinar un costo por alumno. Buscar la eficiencia del programa significa
cambiar algunos de sus componentes como la intervención, los materiales o la propia tecnología, reduciendo
el costo. Sin embargo, se requiere evaluar si realmente estos cambios introducidos aún permiten el logro de
los objetivos del programa y si éstos no se ven comprometidos manteniendo o reduciendo levemente la
efectividad, lo cual implica moverse dentro del plano de la costo-efectividad. Así por ejemplo en Figura 4, la
costo-efectividad se mueve del punto (a) al punto (b), teniendo el punto (b) un menor costo que el punto (a),
también con un tamaño del efecto menor.
δ
Más efectivo
ño del efecto
a
0,8
b
Tamañ
Tama
0,5
Más caro
0,25
Mínima efectividad
0
Figura 4: Modificaciones en los componentes del PIE significan un cambio en la costo-efectividad del programa educativo
Dado que el tamaño del efecto disminuye en la medida que la población afectada aumenta (Slavin, 2008;
Slavin & Lake, 2008; Slavin et al., 2008; Slavin et al., 2009), y la estimación del TCO final debiera disminuir
hacia la etapa de eficiencia, la evolución de la costo-efectividad debiera tomar la forma que se muestra a
continuación en la Figura 5.
implementació ón
Escala de la
implementaci
Plano de costo-
costo-efectividad
δ
Eficiencia
Efectividad
Resultado final
etapa
19
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
En primer lugar, la Tabla 3, muestra un esquema general donde se indican cuales son los objetivos de
investigación de las evaluaciones formativas y sumativas de cada etapa, qué evaluar y los posibles diseños
detallados anteriormente en la sección 4.1.4.
Tabla 3: Objetivos de la investigación (Marshall & Cox, 2008) , elementos a evaluar y diseños posibles de los estudios para cada una de
las etapas del modelo propuesto.
Diseño de estudio
Etapa Objetivos de investigación Elementos centrales a evaluar
(evaluación sumativa)
• Medir el impacto en el aprendizaje • Pertinencia. • Cuasi-
de los alumnos. • Los supuestos en los cuales experimental
• Conocer los efectos en las está basado. pareado
estrategias y procesos de prospectivo de
• El ambiente de enseñanza- pequeña escala.
aprendizaje. aprendizaje.
• Determinar los efectos en la • La alfabetización en el medio
1. Eficacia colaboración, en el entorno aplicado TIC.
u otros.
(modelo • El impacto en el aprendizaje
pedagógico) • Determinar los efectos en las de los alumnos.
pedagogías y prácticas de los
profesores:
• Determinar el uso de los
computadores por género y
contribución para mejorar el acceso
y aprendizaje de niños con
necesidades especiales.
• Medir el impacto en el aprendizaje • Contexto. • Cuasi-
de los alumnos. • Proceso de intervención. experimental
• Determinar la adopción por parte de pareado
• Fidelidad de la prospectivo de
escuelas y profesores. implementación. mediana escala
• Conocer los efectos en las • Impacto en el aprendizaje de
estrategias y procesos de • Experimental
los alumnos. aleatorio de
aprendizaje.
• Relación entre la variabilidad mediana escala.
• Determinar los efectos en la de la implementación y los
colaboración, en el entorno aplicado resultados.
2. Efectividad u otros.
(Intervención) • Conocer las actitudes hacia los
computadores en el proceso
educativo.
• Determinar los efectos en las
pedagogías y prácticas de los
profesores.
• Determinar el uso de los
computadores por género y la
contribución para mejorar el acceso
y aprendizaje de niños con
necesidades especiales.
20
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Diseño de estudio
Etapa Objetivos de investigación Elementos centrales a evaluar
(evaluación sumativa)
• Medir el impacto en el aprendizaje • Fidelidad de la • Experimental
de los alumnos. implementación aleatorio de
• Determinar la adopción por parte de • Fidelidad de la intervención. gran escala.
escuelas y profesores. • Costo total de apropiación.
• Conocer los efectos en las • Impacto en el aprendizaje de
estrategias y procesos de los alumnos.
aprendizaje.
• Relación entre la variabilidad
• Determinar los efectos en la de la intervención, la
colaboración, en el entorno aplicado implementación y los
3. Eficiencia ∃ u otros. resultados.
(Transferencia y • Conocer las actitudes hacia los en el
estimación de proceso educativo.
costos) • Determinar los efectos en las
pedagogías y prácticas de los
profesores
• Determinar el uso de los
computadores por género y
contribución para mejorar el acceso
y aprendizaje de niños con
necesidades especiales.
• Determinar los costos totales de
operación y costo-efectividad.
Por su parte, a continuación la Tabla 4 muestra cuáles son los objetivos más comunes de la investigación de
TIC en educación y los métodos cuantitativo y cualitativos asociados (Marshall & Cox, 2008), además de su
aplicabilidad en cada una de las etapas del modelo conceptual.
21
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Tabla 4: Objetivos de investigación de TICs en educación más comunes, sus métodos asociados [Adaptado de (Marshall & Cox, 2008)]
y su aplicabilidad en cada etapa del modelo conceptual propuesto.
Finalmente la Tabla 5 muestra los instrumentos asociados a los métodos indicados en la Tabla 4.
22
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Una discusión respecto de las ventajas y desventajas de los métodos mixtos y especialmente en las ventajas y
desventajas de algunos métodos de recolección de datos como entrevistas, grupos focales, observaciones,
pruebas, estudios de documentos, informantes clave y casos de estudio se encuentra en (Harvey, 1998;
Frechtling, 2002).
El modelo conceptual se ilustra con un ejemplo incluido como anexo al presente documento.
23
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
A continuación discutiremos como estas orientaciones permiten crear agenda en la política pública y cómo
estos procesos requieren capacidades técnicas y asociaciones con instituciones especializadas.
Eficiencia
Resultado final
etapa Costo por alumno
Diseño inicial
Figura 6: Modelo conceptual incorporando la costo-efectividad como parte del proceso de evaluación.
Como se puede apreciar en la Figura 6, las iniciativas van pasando de nivel en la medida que adicionalmente a
las consideraciones de alcanzar un tamaño del efecto mínimo como plantea el modelo, sean competitivas con
otras propuestas en costo-efectividad. La comparación de costo-efectividad debiera efectuarse entre aquellas
innovaciones que tienen características similares de acuerdo a ciertos criterios definidos a-priori como
poblaciones a las que están dirigidas, niveles y asignaturas en que se trabaja y/o tecnologías que emplean.
Otra alternativa para lo anterior es que los fondos concursables sean temáticos o con ejes prioritarios de
aplicación.
Al final de este proceso, los PIE eficientes podrían masificarse centralizadamente por el gobierno, a través de
subsidios a los establecimientos o ser certificados como iniciativas de calidad para el financiamiento de los
establecimientos con fondos propios o de terceros. Además, abre la oportunidad de la articulación público-
privada a través de iniciativas de responsabilidad social empresarial (RSE), integrando los PIEs a la cartera de
proyectos que las empresas que trabajan en esa línea están buscando para financiar de ese modo.
Finalmente, un proceso de las características descritas es una herramienta para construir una política de
informática educativa desde las necesidades específicas de las escuelas en lugar del paradigma actual que es
buscar usos a la infraestructura instalada o en instalación. Distintas necesidades de aprendizaje, eventualmente
requerirán distintas soluciones de software y hardware diversificando la infraestructura existente en las
escuelas, que responde actualmente en su mayoría a estándares uniformes y centralizados no decididos por
ellas. Sobre la base de la información de impacto final provista por los programas de informática educativa
en fase de masificación, es posible llevar a cabo estudios de meta-análisis (Liao & Hao, 2008) que permitan
24
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
1
Bajo contrato ED-01CO0039/0007
25
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
presente sección es orientar respecto a algunos de los organismos existentes que trabajan en estos ámbitos que
permita orientar sobre la búsqueda de información respecto al tema.
Respecto a las agencias gubernamentales encargadas de desarrollar e implementar políticas públicas para
lograr un uso efectivo y eficiente de las TICs en la educación podemos encontrar: BECTA,
(www.becta.org.uk) del Reino Unido, Education.au (www.educationau.edu.au) de Australia, Enlaces -
Centro de Educación y Tecnología (www.enlaces.cl) del Ministerio de Educación de Chile, Korea Education
& Research Information Service, KERIS (http://english.keris.or.kr) de Corea del Sur, Learning Sciences Lab
de Singapur (http://www.lsl.nie.edu.sg/) y Office of Educational Technology (www.ed.gov/Technology) del
Departamento de Educación de Estados Unidos. Relacionado con lo anterior, pero en término de la
evaluación de impacto encontramos en Estados Unidos Institute of Education Sciences (IES, ies.ed.gov/) cuyo
centro National Center for Education Evaluation and Regional Assistance, dependiente del IES
(http://ies.ed.gov/ncee/) es el encargado de llevar a cabo las evaluaciones a nivel nacional y mantener el
repositorio de programas efectivos de acuerdo a evidencia rigurosa (WWC).
Dentro de los centros y agencias no gubernamentales que investigan y evalúan el uso de las TICs en
educación podemos encontrar: Center for Children and Technology, (http://cct.edc.org); Future Lab
(www.futurelab.org.uk); Mathematica Policy Research, Inc (www.mathematica-mpr.com) y Center for
Technology in Learning (http://ctl.sri.com/) perteneciente a SRI International.
En cuanto a organismos internacionales vinculados al tema de TICs y educación podemos encontrar al Banco
Interamericano de Desarrollo a través de su iniciativa de educación (http://www.iadb.org/edu/), el Banco
Mundial a través de InfoDev (Information for Development Program, www.infodev.org) que además provee
guías para el uso y evaluación de las TICs en educación (ICT-in-Education Toolkit
(http://www.ictinedtoolkit.org) y un blog (http://blogs.worldbank.org/edutech/) y la OCDE con su Centre for
Educational Research and Innovation (CERI2)
Por su parte las Naciones Unidas a través de la CEPAL y la UNESCO tiene distintas iniciativas en el tema. La
CEPAL publica regularmente estudios a través de su División de Desarrollo Social (www.eclac.org/dds)
respecto a las TIC y educación en América Latina. Por su parte la UNESCO dedica en su portal una sección al
tema3 y además ha desarrollado indicadores para evaluar el impacto de las TIC en educación4 .
Por otro lado, entre las revistas usadas para la elaboración de este artículo donde se publican artículos
relevantes respecto a la aplicación de TICs en educación y su evaluación de impacto podemos encontrar las
siguientes (entre paréntesis se indica su índice-H5): British Journal of Educational Technology (20),
Computers & Education (30), Educational Evaluation and Policy Analysis (28), Education and Information
Technologies (10), Educational Technology and Society (17), Journal of Educational Research (23) y Review
of Educational Research (44).
Finalmente entre las instituciones que actualmente trabajan en el desarrollo de estándares de competencias del
Siglo 21 podemos encontrar a la Universidad de Melbourne, Australia a través de su proyecto ATCS-21
(www.atc21s.org) y P21 (Partnership for 21st Century Skills, www.21stcenturyskills.org) en Estados Unidos
y la OECD con su iniciativa “Aprendices del Nuevo Milenio” (www.oecd.org/edu/nml).
2
http://www.oecd.org/department/0,3355,en_2649_35845581_1_1_1_1_1,00.html
3
http://portal.unesco.org/ci/en/ev.php-URL_ID=2929&URL_DO=DO_TOPIC&URL_SECTION=201.html
4
http://www.unescobkk.org/education/ict/themes/measuring-and-monitoring-change/
5
El índice H de la revista expresa el número de artículos (h) que han recibido al menos h citas en los últimos 3 años. Cuantifica tanto la
productividad como impacto científico de la revista (SCImago, 2007).
26
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
resultados a encontrar. A esto se suma que a pesar de los pocos casos de evidencia robusta, la relación entre
ésta y las decisiones gubernamentales que debieran basarse en ellas es débil o inexistente (Cox, 2008) y a que
en general la evidencia de efectividad de los programas educativos es a menudo citada para justificar
decisiones tomadas u opiniones ya formadas (Slavin, 2008).
Sin embargo, en la actualidad el movimiento que busca incentivar el uso de programas y prácticas basadas en
investigación rigurosa, ha empezado a ganar terreno dentro de las políticas gubernamentales (Slavin, 2008).
Por lo tanto se necesita proveer a los tomadores de decisiones de metodologías que permitan ir
paulatinamente respondiendo a las preguntas abiertas y/o construyendo programas y prácticas que sean
metodológicamente correctas para que vayan siendo validadas en distintos niveles y escalas de
implementación. Ya hay esfuerzos en esta dirección algunos de los cuales se mencionaron en la sección 5.
Es de suma importancia difundir la experiencia ganada en la implementación y evaluación del impacto de las
TICs en educación de forma de que ésta salga del círculo de la comunidad científica experta para que sea
empleada por tomadores de decisiones y educadores en general (Trucano, 2005).
Este artículo es un esfuerzo en esta dirección que permita hacer conciencia de que el desafío de la integración
de las TICs en el sistema escolar todavía no está resuelto y hay una serie de temas que abordar y mejorar, para
no seguir cometiendo los errores del pasado.
Agradecimientos
Este trabajo contó con el apoyo de UNESCO.
Referencias
1. Agodini, R., Dynarski, M., Honey, M., & Levin, D. (2003). The Effectiveness of Educational
Technology: Issues and Recommendations for the National Study. Mathematica Policy Research,
Inc. Descargado October 29, 2009, desde http://www.mathematica-mpr.com/PDFs/edtechrec.pdf.
2. Anderson, R. E., & Plomp, T. (2009). Introduction. In T. Plomp et al. (Eds.), Cross-National Information
and Communication Technology Policies and Practices in Education (Second Edition., p. 3—17).
IAP-Information Age Publishing.
3. Balanskat, A., Blamire, R., & Kefala, S. (2006). The ICT Impact Report: A review of studies of ICT
impact on schools in
Europe. Descargado en Diciembre 29, 2009, desde http://ec.europa.eu/education/pdf/doc254_en.pdf.
4. Barrera-Osorio, F., & Linden, L. (2009). The Use and Misuse of Computers in Education:
Evidence from a Randomized Controlled Trial of a
Language Arts Program. Descargado en marzo 08, 2010, desde
http://www.columbia.edu/~ll2240/Barrera-Linden%20Computadores_2009-03-25.pdf.
5. Bland, J. M., & Altman, D. G. (1997). Statistics notes: Cronbach's alpha. BMJ, 314(7080), 572.
6. Campuzano, L., Dynarski, M., Agodini, R., & Rall, K. (2009). Effectiveness of Reading and Mathematics
Software Products: Findings from Two Student Cohorts. Descargado Enero 27, 2010, desde
http://ies.ed.gov/ncee/pubs/20094041/.
7. Castro, C. (2004). Are new technologies better technologies? For whom? In Adapting technology for
school improvement: a global perspective (pp. 39-54). International Institute for Educational
Planning - Unesco.
9. Cohen, J. (1998). Statistical power analysis for the behavioral sciences. Hillsdale, NJ: Lawrence
Earlbaum Associates.
27
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
10. Condie, R., & Munro, B. (2007). The Impact of ICT in schools a landscape review. BECTA Research.
11. Conlon, T., & Simpson, M. (2003). Silicon Valley versus Silicon Glen: the impact of computers upon
teaching and learning: a comparative study. British Journal of Educational Technology, 34(2), 137-
150.
12. Cortez, C., Nussbaum, M., López, X., Rodríguez, P., Santelices, R., Rosas, R., et al. (2005). Teachers'
support with ad-hoc collaborative networks. Journal of Computer Assisted Learning, 21(3), 171-180.
13. Cox, M. (2008). Research IT in education. In J. Voogt. G. Knezek (Eds.), International Handbook of
Information Technology in Primary and Secondary Education (pp. 965-981).
14. Cox, M., & Abbot, C. (2004). ICT and attainment: A review of the research literature. ICT in Schools
Research and Evaluation Series – No.17, DfES-Becta. Descargado enero 25, 2010, desde
http://publications.teachernet.gov.uk/eOrderingDownload/ICT and attainment.pdf.
15. Cox, M., & Marshall, G. (2007). Effects of ICT: Do we know what we should know? Education and
Information Technologies, 12(2), 59-70.
16. Cox, M., & Webb, M. (2004). ICT and pedagogy: A review of the research literature. ICT in Schools
Research and Evaluation Series – No.18, DfES- Becta. Descargado Enero 25, 2010, desde
http://publications.becta.org.uk/display.cfm?resID=25813.
17. Cronbach, L. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297-334.
18. Cuban, L. (2001). Oversold & Unde rused. Computers in the Classroom. Harvard University Press,
London.
19. Culp, K. M., Honey, M., & Mandinach, E. (2003, October). A Retrospective on Twenty Years of
Education Technology Policy. U.S. Department of Education, Office of Educational Technology.
Descargado enero 25, 2010, desde http://www.ed.gov/rschstat/eval/tech/20years.pdf.
20. Dool, P. V. D., & Kirschner, P. (2003). Integrating the Educative Functions of Information and
Communications Technology (ICT) in teachers' and learners' toolboxes: a reflection on pedagogical
benchmarks for ICT - in teacher education. Technology, Pedagogy and Education, 12(1), 161.
21. Dynarski, M., Agodini, R., Heaviside, S., Novak, T., Carey, N., Campuzano, L., et al. (2007).
Effectiveness of Reading and Mathematics Software Products: Findings from the First Student
Cohort. U.S. Department of Education, Institute of Education Sciences. Descargado enero 25, 2010,
desde http://ies.ed.gov/ncee/pubs/20074005/.
22. Earle, R. S. (2002). The Integration of Instructional Technology into Public Education: Promises and
Challenges. Educational Technology, 42(1), 5-13.
23. Fan, X. (2001). Statistical Significance and Effect Size in Education Research: Two Sides of a Coin. The
Journal of Educational Research, 94(5), 275-282.
24. Feinstein, O. N., & Picciotto, R. (2001). Evaluation and Poverty Reduction. World Bank Series on
Evaluation and Development (Vol. 3, p. 382). Washington, D.C: Transaction Publishers, New
Brunswick, New Jersey.
25. Fox, N., & Mathers, N. (1997). Empowering research: statistical power in general practice research. Fam.
Pract., 14(4), 324-329.
26. Frechtling, J. (2002). The 2002 User Friendly Handbook for Project Evaluation (NSF 02-057). Arlington.
28
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
27. Harris, D. N. (2009). Toward Policy-Relevant Benchmarks for Interpreting Effect Sizes: Combining
Effects With Costs. Educational Evaluation and Policy Analysis, 31(1), 3-29.
28. Harrison, C., Comber, C., Fischer, T., Haw, K., Lewin, C., Lunzer, E., et al. (2002). ImpaCT2: The
impact of information and communication technologies on pupil learning and attainment. BECTA.
Descargado enero 25, 2010, desde
http://partners.becta.org.uk/page_documents/research/ImpaCT2_strand1_report.pdf.
29. Harvey, J. (1998). Evaluation Cookbook. Learning Technology Dissemination Initiative, Institute for
Computer Based Learning, Heriot-Watt University, Edinburgh. Descargado enero 25, 2010 desde
http://www.icbl.hw.ac.uk/ltdi/cookbook/cookbook.pdf.
30. Hayes, D. N. A. (2007). ICT and learning: Lessons from Australian classrooms. Computers & Education,
49(2), 385-395.
31. Hennessy, S., Ruthven, K., & Brindley, S. (2005). Teacher Perspectives on Integrating ICT into Subject
Teaching: Commitment, Constraints, Caution, and Change. Journal of Curriculum Studies, 37(2),
155-192.
32. Hepp, P. (2003). Critical factors for an ICT in education policy in developing countries. In Proceedings
of the Information Technology: Research and Education, ITRE2003 (pp. 501 - 505). Presented at the
Information Technology: Research and Education.
33. Infante, C., Hidalgo, P., Nussbaum, M., Alarcón, R., & Gottlieb, A. (2009). Multiple Mice based
collaborative one-to-one learning. Computers & Education, 53(2), 393-401.
34. Infante, C., Weitz, J., Reyes, T., Nussbaum, M., Gómez, F., & Radovic, D. (2009). Co-located
collaborative learning video game with single display groupware. Interactive Learning
Environments.
35. Kirkman, C. (2000). A model for the effective management of information and communications
technology development in schools derived from
six contrasting case studies. Technology, Pedagogy and Education, 9(1), 37-52.
36. Kozma, R. B. (2003). Technology and Classroom Practices: An International Study. Journal of Research
on Technology in Education, 36(1), 1-14.
37. Kozma, R. B. (2008). Comparative Analysis of Policies for ICT in Education. In J. Voogt. G. Knezek
(Eds.), International Handbook of Information Technology in Primary and Secondary Education
(pp. 1083-1096).
38. Lai, K. (2008). ICT Supporting the Learning Process: The Premise, Reality, and Promise. In J. Voogt. G.
Knezek (Eds.), International Handbook of Information Technology in Primary and Secondary
Education (pp. 215-230).
39. Law, N. (2009). Curriculum and Staff Development For ICT In Education. In Cross-National
Information and Communication Technology Policies and Practices in Education (Second Edition.,
p. 19—39). IAP-Information Age Publishing.
40. Lemke, C., Coughlin, E., & Reifsneider, D. (2009). Technology in Schools: What research says? A 2009
Update. Culver City, CA: Commissioned by Cisco. Descargado marzo 08, 2010 desde
http://www.cisco.com/web/strategy/docs/education/tech_schools_09_research.pdf.
29
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
41. Liao, Y., & Hao, Y. (2008). Large -scale studies and quantitative methods. In J. Voogt. G. Knezek (Eds.),
International Handbook of Information Technology in Primary and Secondary Education (pp. 1019-
1035).
42. Light, D. (2008). Evaluating Educational Technology Interventions: How do we know its working?
Center for Children and Technology, Education Development Center, Inc. Descargado enero 25,
2010, desde http://cct.edc.org/report.asp?id=254.
43. Lim, C. P. (2002). A theoretical framework for the study of ICT in schools: a proposal. British Journal of
Educational Technology, 33(4), 411-421.
44. Margolis, J., Nussbaum, M., Rodríguez, P., & Rosas, R. (2006). Methodology for evaluating a novel
education technology: a case study of handheld video games in Chile. Computers & Education,
46(2), 174-191.
45. Marshall, G., & Cox, M. (2008). Research Methods: Their design, applicability and reliability. In J.
Voogt. G. Knezek (Eds.), International Handbook of Information Technology in Primary and
Secondary Education (pp. 983-1002).
46. McFarlane, A. (2001). Perspectives on the relationships between ICT and assessment. Journal of
Computer Assisted Learning, 17(3), 227-234.
47. Mioduser, D., Nachmias, R., Tubin, D., & Forkosh-Baruch, A. (2003). Analysis Schema for the Study of
Domains and Levels of Pedagogical Innovation in Schools Using ICT. Education and Information
Technologies, 8(1), 23-36.
48. Mooij, T., & Smeets, E. (2001). Modelling and supporting ICT implementation in secondary schools.
Computers & Education, 36(3), 265-281.
49. Moonen, J. (2008). Policy from a global perspective. In J. Voogt. G. Knezek (Eds.), International
Handbook of Information Technology in Primary and Secondary Education (p. 1171—1178).
50. Moyle, K. (2008). Total Cost Of Ownership And Total Value Of Ownership. In J. Voogt. G. Knezek
(Eds.), International Handbook of Information Technology in Primary and Secondary Education
(pp. 615-631).
51. Nachmias, R., Mioduser, D., Cohen, A., Tubin, D., & Forkosh-Baruch, A. (2004). Factors Involved in the
Implementation of Pedagogical Innovations Using Technology. Education and Information
Technologies, 9(3), 291-308.
52. Njenga, J. K., & Fourie, L. C. H. (2010). The myths about e-learning in higher education. British Journal
of Educational Technology, 41(2), 199-212.
53. Nussbaum, M., & Rosas, R. (2004). Enlaces Móvil: Tecnología Portátil En La Sala De Clases - Informe
final.
54. Osborne, J., & Hennessy, S. (2003). Literature Review in Science Education and the Role of ICT:
Promise, Problems and Future Directions. Future Lab. Descargado enero 31, 2010, desde
http://www.futurelab.org.uk/resources/documents/lit_reviews/Secondary_Science_Review.pdf.
55. Pawar, U. S., Pal, J., & Toyama, K. (2006). Multiple Mice for Computers in Education in Developing
Countries. In Information and Communication Technologies and Development, 2006. ICTD '06. (pp.
64-71). Presented at the Information and Communication Technologies and Development, 2006.
ICTD '06.
30
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
56. Pelgrum, W. (2001). Obstacles to the integration of ICT in education: results from a worldwide
educational assessment. Computers & Education, 37(2), 163-178.
57. Penuel, W. R. (2005). Recommendations for Evaluation Research within Educational Innovations. Center
for Technology in learning, SRI International. Descargado enero 25, 2010, desde
http://ctl.sri.com/publications/downloads/Rec_Eval_Research_within_Edu_Innovations.pdf.
58. Pilkington, R. M. (2008). Measuring the impact of Information Technology on Student's Learning. In J.
Voogt. G. Knezek (Eds.), International Handbook of Information Technology in Primary and
Secondary Education (pp. 1003-1018).
59. Plomp, T., Pelgrum, W., & Law, N. (2007). SITES2006–International comparative survey of pedagogical
practices and ICT in education. Education and Information Technologies, 12(2), 83-92.
60. Reeves, T. (2008). Evaluation of the Design and Development of IT Tools in Education. In J. Voogt. G.
Knezek (Eds.), International Handbook of Information Technology in Primary and Secondary
Education (pp. 1037-1051).
61. Reeves, T. (2006). Design research from a technology perspective. In J. van den Akker, K. Gravemeijer,
S. McKenney & N. Nieveen (Eds.) Educational Design Research. London: Routledge.
62. Reeves, T. (1994). Evaluating What Really Matters in Computer-Based Education. In In M. Wild & D.
Kirkpatrick (Eds.) Computer Education: New perspectives. (pp. 219-246). Perth, Australia:
MASTEC. Descargado enero 25, 2010 desde http://www.educationau.edu.au/evaluating-what-really-
matters-computer-based-education.
63. Reeves, T. (2000). Enhancing the Worth of Instructional Technology Research through "Design
Experiments" and Other Development Research Strategies. Descargado diciembre 8, 2009, desde
http://it.coe.uga.edu/~treeves/AERA2000Reeves.pdf.
64. Reynolds, D., Treharne, D., & Tripp, H. (2003). ICT - the hopes and the reality. British Journal of
Educational Technology, 34(2), 151-167.
65. Robertson, J. (2002). The ambiguous embrace: twenty years of IT (ICT) in UK primary schools. British
Journal of Educational Technology, 33(4), 403-409.
66. Rodríguez, P., & Gómez, F. (2007). Tecnología Portátil en la Sala de Clases: desarrollo de un producto y
estándar de clase mundial para la transformación de la práctica pedagógica - Informe Final Proyecto
CORFO Innova Chile 05CT5IP-02.
67. Rodríguez, P., Nussbaum, M., López, X., & Sepúlveda, M. (2010). A Monitoring and Evaluation Scheme
for an ICT-Supported Education Program in Schools. To appear on Educational Technology &
Society.
68. Rodríguez, P. (2008). Estándar de Modelo de Informática Educativa. Enlaces, Centro de Educación
y Tecnología. Descargado diciembre 7, 2009,
http://intranet.redenlaces.cl/index.php?id=11414&no_cache=1&uid=2549¶m=publico.
69. Rovai, A. P. (2003). A practical framework for evaluating online distance education programs. The
Internet and Higher Education, 6(2), 109-124.
70. Sánchez, J., & Salinas, A. (2008). ICT & learning in Chilean schools: Lessons learned. Comput. Educ.,
51(4), 1621-1633.
31
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Ciencia, Tecnología, Sociedad e Innovación (CTS+I). Palacio de Minería, 19-23 junio 2006, Ciudad
de México, México. Descargado marzo 30, 2010, desde
http://www.oei.es/memoriasctsi/mesa2/m02p33.pdf.
72. Schochet, P. Z. (2008, May). Technical Methods Report: Guidelines for Multiple Testing in Impact
Evaluations (NCEE 2008-4018). Washington, DC: National Center for Education Evaluation and
Regional Assistance, Institute of Education Sciences, U.S. Department of Education. Descargado
enero 25, 2010 desde http://ies.ed.gov/ncee/pdf/20084018.pdf.
73. SCImago. (2007). SJR — SCImago Journal & Country Rank. Descargado enero 19, 2010, desde
http://www.scimagojr.com.
74. Slavin, R., & Smith, D. (2009). The Relationship Between Sample Sizes and Effect Sizes in Systematic
Reviews in Education. Educational Evaluation and Policy Analysis, 31(4), 500-506.
76. Slavin, R. E., Cheung, A., Groff, C., & Lake, C. (2008). Effective Reading Programs for Middle and
High Schools: A Best-Evidence Synthesis. Reading Research Quarterly, 43(3), 290-322.
77. Slavin, R. E., & Lake, C. (2008). Effective Programs in Elementary Mathematics: A Best-Evidence
Synthesis. Review of Educational Research, 78(3), 427-515.
78. Slavin, R. E., Lake, C., Chambers, B., Cheung, A., & Davis, S. (2009). Effective Reading Programs for
the Elementary Grades: A Best-Evidence Synthesis. Review of Educational Research, 79(4), 1391-
1466.
79. Spencer, K. (1991). Modes, media and methods: the search for educational effectiveness. British Journal
of Educational Technology, 22(1), 12-22.
80. Squires, D., & Preece, J. (1999). Predicting quality in educational software: Evaluating for learning,
usability and the synergy between them. Interacting with Computers, 11(5), 467-483.
82. Sutherland, R., Armstrong, V., Barnes, S., Brawn, R., Breeze, N., Gall, M., et al. (2004). Transforming
teaching and learning: embedding ICT into everyday classroom practices. Journal of Computer
Assisted Learning, 20(6), 413 - 424.
83. Tan, Jee-Peng , Anderson, J. R. , Belli, P., Barnum, H.N., & Dixon, J. A. (2001). Economic analysis of
investment operations analytical tools and practical applications, Vol. 1 of 1. R Descargado enero
27, 2010, desde http://www-
wds.worldbank.org/servlet/main?menuPK=64187510&pagePK=64193027&piPK=64187937&theSit
ePK=523679&entityID=000160016_20060127112546.
84. Tearle, P. (2003). ICT implementation: what makes the difference? British Journal of Educational
Technology, 34(5), 567-583.
85. Tearle, P. (2004). A theoretical and instrumental framework for implementing change in ICT in
education. Cambridge Journal of Education,, 34(3), 331-351.
86. Tondeur, J., Braak, J. V., & Valcke, M. (2007). Curricula and the use of ICT in education: Two worlds
32
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
87. Trucano, M. (2005). Knowledge Maps: ICTs in Education. ICT and Education Series. Washington, DC:
infoDev / World Bank. Descargado enero 25, 2010, desde
http://www.infodev.org/en/Document.8.aspx.
88. Underwood, J. (2009). The impact of digital technology. BECTA. Descargado enero 20, 2010, desde
http://publications.becta.org.uk/display.cfm?resID=41343&page=1835.
89. Van den Akker, J. (2003). Curriculum perspectives: An introduction. In In J. van den Akker, U. Hameyer,
& W. Kuiper (Eds.) Curriculum landscapes and trends (pp. 1-10). Dordrecht: Kluwer. Descargado
marzo 1, 2010, desde http://www.neccs.nl/curriculum/Curriculum_landscapes.doc.
90. Van den Akker, J., Gravemeijer, K., McKenney, S., & Nieveen, N. (2006). Educational Design
Research. London: Routledge.
91. Villanueva, C. (2003). Measuring Ict Use In Education In Asia And The Pacific Through Performance
Indicators. Presented at the Joint UNECE/UNCTAD/UNESCO/ITU/ OECD/Eurostat Statistical
Workshop on Monitoring the Information Society: Data, Measurement and Methods (Geneva, 8-9
December 2003). Descargado enero 20, 2010, desde
http://www.unece.org/stats/documents/ces/sem.52/6.e.pdf.
92. Wagner, D. A., Day, B., James, T., Kozma, R. B., Miller, J., & Unwin, T. (2005). Monitoring and
Evaluation of ICT in Education Projects: A Handbook for Developing Countries. ICT and Education
Series. Washington, DC: infoDev / World Bank. Descargado enero 29, 2010, desde
http://www.infodev.org/en/Publication.9.html.
93. Warschauer, M. (2003). Technology and Social Inclusion - Rethinking the Digital Divide. The MIT Press.
94. Watson, D. (1993). The ImpacT Report: an evaluation of the impact of information technology on
children's achievements in primary and secondary schools. London: Department for Education and
King's College Centre for Educational Studies.
95. World Bank. (2004). Monitoring and Evaluation: some tools, methods & approaches. The International
Bank for Reconstruction and Development/THE WORLD BANK. Descargado enero 29, 2010,
desde
http://lnweb90.worldbank.org/oed/oeddoclib.nsf/b57456d58aba40e585256ad400736404/a5efbb5d77
6b67d285256b1e0079c9a3/$FILE/MandE_tools_methods_approaches.pdf.
96. Zurita, G., & Nussbaum, M. (2004a). Computer supported collaborative learning using wirelessly
interconnected handheld computers. Computers & Education, 42(3), 289-314.
97. Zurita, G., & Nussbaum, M. (2004b). A constructivist mobile learning environment supported by a
wireless handheld network. Journal of Computer Assisted Learning, 20(4), 235-243.
98. Zurita, G., & Nussbaum, M. (2007). A conceptual framework based on Activity Theory for mobile
CSCL. British Journal of Educational Technology, 38(2), 211-235.
99. Zurita, G., Nussbaum, M., & Salinas, R. (2005). Dynamic Grouping in Collaborative Learning Supported
by Wireless Handhelds. Educational Technology & Society, 8(3), 149-161.
33
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
1 Eficacia
El objetivo de los estudios de eficacia fue evaluar tanto cuantitativa como cualitativamente actividades
colaborativas (del inglés Collaborative Learning, CL) sin (Figura 7a) y con apoyo tecnológico (Figura 7b)
para probar que actividades colaborativas asistidas por computación móvil (del inglés Mobile Computer
Supported Collaborative Learning MCSCL), producirían mejoras en el aprendizaje. Se desarrollaron
actividades MCSCL para distintos niveles y asignaturas usando PDAs y se probaron en entornos educativos
reales.
(a) Actividades colaborativas con papel (a) Actividades colaborativas con PDAs
En todos los estudios se observaron pequeños grupos de alumnos usando las actividades CL con y sin apoyo
tecnológico, grupos experimental (GE) y control (GC), respectivamente, durante 4 semanas en el año 2002 en
1 escuela pública de nivel socio-económico bajo, en Santiago, Chile. Se aplicaron pruebas pre y post para
evaluar el aprendizaje en Lenguaje y Matemáticas según los contenidos curriculares enseñados. Además, se
usaron instrumentos específicos para otros aspectos a evaluar en los estudios. El resumen de los estudios se
muestra a continuación en la Tabla 6.
Tabla 6: Resumen de las investigaciones de eficacia realizadas en el marco del programa Eduinnova
Objetivos de investigación Nivel y asignatura Resultados
Comprobar si crean ambientes de Primero básico, Se evidencian todos los principios evaluados en GE mientras que en
aprendizaje MCSCL Lenguaje GC solo aparecieron algunos.
constructivistas
(Zurita & Nussbaum, 2004a) Impacto en el aprendizaje:
GE = GC (pre-test). GE > GC : δ post-test =+0,98.
Establecer si actividades MCSCL Primero básico, Todos los problemas evidenciados sin apoyo tecnológico se
mejoran la colaboración sin apoyo Lenguaje y superaron usando MCSCL.
tecnológico Matemáticas
(Zurita & Nussbaum, 2004b) Impacto en el aprendizaje:
• Matemáticas: No hay diferencias
• Lenguaje: No hay diferencias en el pre-test.. GE > GC; δ post-
test 0,78.
Estudiar configuración grupos para Primero básico: Las diferentes configuraciones tienen distinto impacto en los
actividad MCSCL Matemáticas aspectos socio-motivacionales evaluados en el estudio.
(Zurita, Miguel Nussbaum, &
Salinas, 2005) Impacto en el aprendizaje:
No hay diferencias en el pre-test. GE > GC; δ post-test = 1,01.
34
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Con los estudios de eficacia se entendió cómo desarrollar actividades MCSCL efectivas, demostrando su
valor al hacer práctica la colaboración dentro de la sala de clases para los profesores (pertinencia). Además,
la investigación validó los supuestos en los cuales está basado (aprendizaje colaborativo y constructivismo)
y el ambiente de aprendizaje, en términos de su facilidad de uso (público objetivo tenia poca alfabetización
digital) y la representación del material. Adicionalmente, las actividades diseñadas bajos ciertos principios
que fueron identificados (Zurita & Nussbaum, 2007) funcionaban en distintos niveles (educación básica y
media) y asignaturas (Lenguaje, Matemáticas y Ciencias) del contexto educativo estudiado.
2 Efectividad
La siguiente etapa del desarrollo del programa fue diseñar una intervención para que los profesores
participantes se apropiaran del modelo pedagógico definido en Cortez et. al (2005). Se llevaron a cabo dos
estudios, en 5 colegios cada uno. El primero de ellos en 2004 (Figura 8a) y el segundo en el periodo 2005-
2006 (Figura 8b). En este último, se modificó la intervención de 2004 para incluir lo aprendido en dicha
implementación. Ambos estudios fueron del tipo cuasi-experimental prospectivo, de mediana escala con
grupos experimental y control. Se realizaron evaluaciones pre y post de mejora en el aprendizaje. Como
métodos cualitativos se realizaron observaciones, evaluación específica de tareas, grupos focales.
En el caso del estudio 2004, se hicieron sendas evaluaciones de contenidos de Física I y II medio al final de
cada semestre, mientras que en el estudio 2005-2006 la evaluación fue anual siendo la prueba post aplicada 8
meses después del pre-test de principios del año escolar. Un resumen de los grupos y principales resultados
cuantitativos se muestran a continuación en la Tabla 7.
35
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Tabla 7: Resumen de los principales resultados de los estudios de efectividad del programa Eduinnova.
Estudio Colegios, niveles y asignaturas Grupos Principales resultados cuantitativos*
• Escuelas con subsidio • Grupo experimental (GE): Física I Medio:
público, con ingresos medios cursos de profesor participante
o bajos y gran cantidad de que usaron PDAs. • Primer semestre
cursos por nivel. o GE > GCI-A: δ post-test = 0,14 (1-β=0,71).
• Grupo Control Interno A
• Santiago (3), Antofagasta (2), (GCI-A): cursos de profesor o GE > GCI-B: δ post-test = 0,55.
2004 (Nussbaum & Rosas, 2004)
Isla de Pascua (1) y Galvarino participante que no usaron PDAs o GCI-A > GCI-B: δ post-test = 0,42.
(1). • Segundo semestre:
• Grupo Control Interno B
• Física I y II Medio (GCI-B): cursos que no usaron o GE > GCI-A; δ post-test = 0,22.
PDAs, de profesor que no o GE > GCI-B: δ post-test = 0,45.
participó en los mismos o GCI-A > GCI-B: δ post-test = 0,25. (1-
colegios. β=0,72);
Física II Medio:
• Primer semestre:
o GE = GCI-A.
o GE > GCI-B; δ post-test = 0,37.
o GCI-A > GCI-B: δ post-test = 0,25.
• Segundo semestre: (post-test)
o GE = GCI-A.
o GE > GCI-B: δ post-test = 0,88.
o GCI-A > GCI-B: δ post-test = 0,87.
• Escuelas con subsidio • Grupo experimental (GE): Física I Medio (2005): GE = GCI = GCE.
público, con ingresos medios ídem anterior.
2005-2006 (Rodríguez & Gómez,
En el estudio de 2004 (Tabla 7) se produjeron diferencias significativas entre GE y GCI-B, por lo cual se
concluyó que el tratamiento (capacitación de profesores uso de la tecnología) produce mejores resultados.
Pero dado que también hubo diferencias estadísticamente significativas entre GCI-A y GCI-B (profesores
distintos, ambos sin PDAs), no se pudo concluir que la tecnología por si sola contribuyó en las mejoras
encontradas Esto porque la capacitación también involucró nivelar los conocimientos de Física de los
docentes participantes, que por si solo podría explicar las diferencias. Este argumento se refuerza porque
existen tamaños del efecto pequeños o simplemente no hay diferencias significativas entre GE y GCI-A (cuya
diferencia es el uso de la tecnología). Por lo tanto, se reformuló la propuesta de intervención, que se probó en
un nuevo estudio realizado en el periodo 2005-2006.
En el estudio 2005-2006, el análisis muestra consistentemente para Física y Matemáticas en II medio que los
resultados del GE son mejores que los de GCI y GCE (Tabla 7). Dado que no existen diferencias entre GCI y
GCE, concluimos que este impacto es atribuible a la tecnología, encontrando evidencia robusta (con adecuado
control de los errores de tipo I y II) de tamaños del efecto de magnitud importante (Tabla 7).
Con los estudios de efectividad se entendió con mayor profundidad el contexto (colegios subsidiados por el
Estado) donde se implementaba el programa. Esto significó que la intervención se hizo cargo de debilidades
estructurales del sistema educativo, como la falta de planificación y manejo deficiente del tiempo dentro de
la sala de clases, de los profesores. Además, el estudio del contexto realizado durante el 2004 reveló que era
36
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
necesario modificar la intervención para mejorar la percepción de los profesores y alumnos respecto del
programa.
Sobre al impacto sobre el aprendizaje, de acuerdo a lo discutido en la sección 4.1.4, tenemos evidencia
robusta respecto a la efectividad del programa educativo evaluado durante 2005-2006 (Tabla 7). Por otro lado,
el estudio de la fidelidad de la implementación a través del esquema de seguimiento y evaluación, estableció
una relación entre la variabilidad de la implementación (medida en términos de la adopción de los
profesores) y los resultados de aprendizaje de los alumnos. El análisis reveló que aquellos profesores del
GE con un nivel alto de adopción de la metodología (medido con una pauta de observación) producen
resultados en sus alumnos mejores que aquellos con una adopción menor, elevando el tamaño del efecto de
0,41 a 0,56 (comparado con GCI) y de 0,32 a 0,45 (comparado con GCE) (Rodríguez et al., 2010). Esto
muestra lo importante que es probar los procesos de intervención para que la adopción sea lo más alta posible.
Al final de esta etapa se obtuvo una intervención que permite a profesores y alumnos adoptar el modelo
pedagógico de aprendizaje colaborativo, con instrumentos de evaluación validados para medir dicha adopción
en el tiempo (mecanismos de seguimiento y evaluación).
3 Eficiencia
Durante el año 2008-2009 comenzó la masificación del programa involucrando 30 colegios (Figura 9). Se
calculó el costo a partir de la intervención mejorada posterior al estudio 2005-2006. Este cálculo se realizó
especificando una escuela tipo donde sería aplicada la tecnología, definiendo el total de cursos, profesores y
alumnos que implementan la tecnología. Así, se calculó la cantidad de recursos materiales y humanos para
satisfacer una demanda fija de colegios, obteniéndose el costo total del programa por colegio y el costo
unitario por alumno atendido. El análisis de factibilidad arrojó que el equipamiento necesario (que es poco
más del 75% del costo unitario por alumno atendido) es demasiado caro para el tipo de colegios al que apunta
el programa. Esto porque Eduinnova requiere un netbook por alumno dentro de la sala de clases, que cuesta
aproximadamente US$400 cada uno.
Por lo tanto, se buscó usar el equipamiento existente en los colegios para implementar el programa. La
solución fue emplear punteros múltiples (MM) (Pawar et al., 2006) para compartir un PC con varios alumnos
Así, colaboran tres alumnos para resolver un problema en el mismo computador, cada uno con su propio
dispositivo de input. Los estudios de eficacia muestran efectos comparables a las aplicaciones en plataformas
individuales (Infante et al., 2009a; Infante et al.,2009b). Las evaluaciones de usabilidad en ambos estudios
mostraron que no había cambios significativos respecto a la alcanzada con PDAs. Respecto la efectividad, se
encontró diferencias estadísticamente significativas a favor del grupo experimental, con tamaños del efecto de
0,52 y 0,66 dependiendo el tipo de aplicación utilizada.
37
Nussbaum, M. & Rodríguez, P. (2010) Perspectivas de la inclusión de las TICs en educación y su
evaluación en el logro de aprendizajes
Por ende, podemos usar MM para recalcular el costo de la intervención. Esta vez los equipos necesarios se
suponen disponibles en el colegio (laboratorio de 15 computadores) y el costo marginal es comprar punteros
adicionales. Con ello, el programa mejora considerablemente su costo-efectividad, disminuyendo el costo
unitario del programa a un 25,37% del original.
38