Está en la página 1de 25

Evaluación de la alineación del feedback en las tareas lingüísticas:

perspectivas del profesor y del estudiante


María Fernández-Toro & Concha Furnborough
School of Languages and Applied Linguistics, The Open University, Milton Keynes,
United Kingdom
La alineación del feedback es clave para la eficacia del feedback formativo, pero a
menudo los profesores sólo pueden adivinar si su feedback es coherente con las
necesidades y expectativas de los estudiantes. Este estudio tiene como objetivo
identificar las áreas de posible desalineación mediante la combinación de datos
auto-declarados y el análisis del feedback.
Se realizaron dos encuestas paralelas a 736 estudiantes y 96 profesores de un
programa de licenciatura a distancia en Estudios de Lengua, para comparar sus
actitudes y comportamientos auto-declarados. Los datos de las encuestas se
triangularon mediante el análisis de 216 tareas calificadas, utilizando la
Herramienta de Categorización del Análisis del Feedback (FACT en inglés) según
la orientación (enfoque en un puntos fuerte o en un punto débil) y la profundidad
(capas de andamiaje) de los comentarios.
La desalineación fue más evidente en relación con el feedback sobre los puntos
fuertes y las suposiciones mutuas sobre la responsabilidad sobre el feedback. Los
resultados apoyan la necesidad de un enfoque del feedback más dialógico y
confirman el valor del análisis del feedback como un medio para evaluar la
alineación del feedback para una evaluación sostenible.
Palabras clave: aprendizaje a distancia, aprendizaje de idiomas, feedback de tareas,
alineación del feedback, andamiaje, feedback sostenible

Introducción

En los últimos años, el análisis del feedback se ha utilizado a menudo en un


intento de identificar las características que componen el feedback "eficaz" (Chase
& Houmanfar, 2009; Chetwynd & Dobbyn, 2011; Donovan, 2014; Hamer , 2015;
Hughes, 2011; Hyatt, 2005). Sin embargo, el feedback en sí mismo sólo es eficaz
en la medida en que los estudiantes le dedican atención a este feedback (Handley,
Price y Millar, 2011), y esta dedicación sólo es posible si los estudiantes y los
profesores comparten la misma idea sobre el papel del feedback en el proceso de
aprendizaje. Más que la calidad intrínseca del feedback del profesor, lo que
determina su eficacia es la medida en que dicho feedback se alinea con las
necesidades y expectativas de los estudiantes (Orsmond y Merry, 2011).

Además, en la última década se ha producido un cambio hacia modelos


sostenibles de evaluación en los que los propios alumnos definen cada vez más el
carácter y papel del feedback (Beck, Skinner, & Schwabrow, 2013; Boud, 2000;
Boud & Soler, 2016; Carless, Salter, Yang, & Lam, 2011; Everhard, 2015b;
Fastré, Klink, Sluijsmans, & Merriënboer, 2013; Nguyen & Walker, 2014). Por lo
tanto, es esencial obtener una mejor comprensión de las opiniones y percepciones
de los estudiantes y sus profesores con respecto al feedback, e identificar aquellas
áreas en las que se necesitaría una mejor alineación.

1 Revisión de la literatura
1.1 El papel del feedback
El feedback sobre la evaluación se ha definido como los consejos que se dan a los
estudiantes sobre cómo resolver "la diferencia entre [sus] niveles reales y deseados de
rendimiento" (Black & William, 1998; Hunt, 2001; Ramaprasad, 1983). Esto requiere
que los alumnos perciban esa diferencia y aprecien que es necesario que tanto ellos
como sus profesores actúen para resolverla (Black & William, 1998; Ramaprasad,
1983).
La acción para resolver esa diferencia depende en gran medida de la alineación de
perspectivas entre estudiantes y profesores. En su estudio sobre la relación entre la
autorregulación y el feedback, Nicol y Macfarlane-Dick (2006) dejan claras las
responsabilidades de ambas partes para conseguirlo, estableciendo una distinción entre
el feedback ofrecido por los profesores sobre las tareas de sus estudiantes, caracterizado
como feedback externo, y el feedback interno que los estudiantes producen a medida
que interpretan y construyen sobre esta información a diferentes niveles, por ejemplo,
cognitivo, metacognitivo y socioafectivo o motivacional. Nicol y Macfarlane-Dick
sostienen que el feedback sólo será eficaz si los estudiantes son capaces de incorporarlo
a sus futuros procesos de aprendizaje. Esto requiere un feedback adecuado por parte de
los profesores, que se basa en perspectivas compartidas entre profesores y estudiantes.
Esta alineación de perspectivas es crucial para los estudiantes a distancia (Hurd, 2000,
2006; White, 2003), ya que en muchos casos el feedback sobre las tareas constituye su
principal o único contacto con su profesor, y una oportunidad única para obtener
información de apoyo sobre su rendimiento (Hyland, 2001; Ros i Solé & Truman, 2005;
Truman, 2008). De ahí que lo que está en juego para estos estudiantes sea especialmente
importante.
El papel del feedback en la motivación también es importante (Walker & Symons, 1997,
pp. 16-17). Nicol y Macfarlane-Dick identifican el "fomento de las creencias
motivacionales positivas y la autoestima" (2006, pp. 211-212) como uno de sus
principios de buenas prácticas de feedback para facilitar la autorregulación. Otros
estudios (Nicol & Milligan, 2006) han demostrado que la combinación de feedback
externo e interno puede ayudar a los estudiantes a asumir más responsabilidad en la
gestión de su propio aprendizaje. Además, la capacidad de utilizar una combinación de
recursos externos e internos se ha identificado como un elemento que define la
autonomía del alumno (Everhard, 2015b).
Everhard sitúa la relación entre la evaluación y la autonomía del alumno como un
continuo entre la heteronomía y la autonomía. La evaluación sumativa (evaluación del
aprendizaje) representa el mayor grado de heteronomía, ya que la regulación del
aprendizaje es competencia de "otros más informados". Entre los dos extremos, la
evaluación formativa (evaluación para el aprendizaje) representa diversos grados de
interdependencia en los que el control es compartido. El mayor grado de autonomía del
alumno se da en la evaluación sostenible (evaluación como aprendizaje), donde los
alumnos regulan su propio aprendizaje mediante el uso de recursos internos y externos.
(Everhard, 2015b, p. 19)
El aprendizaje de un idioma presenta retos adicionales. A diferencia de otras
asignaturas, el aprendizaje de idiomas exige una gran cantidad de autoexpresión e
implica el autoconcepto del alumno (Horwitz, Horwitz & Cope, 1986), lo que puede dar
lugar a lo que se conoce como "ansiedad lingüística" (cf. Ehrman, 1996; Gardner y
MacIntyre, 1993). Se ha comprobado que la dimensión emocional es clave para el éxito
o el fracaso en el aprendizaje de una lengua (Arnold, 1999; Hurd, 2008; Oxford, 1990).
Estos efectos son potencialmente mayores en el caso de los estudiantes de idiomas a
distancia (Hurd, 2005), por lo que deben tenerse en cuenta en el feedback que se les da
por sus evaluaciones (Truman, 2008).
1.2 Alineación entre las percepciones del profesor y del alumno
Lo expuesto hasta ahora muestra que las percepciones de los profesores y de los
estudiantes sobre los objetivos y la práctica del feedback deben estar alineadas entre sí.
Sin embargo, se ha observado que las percepciones de los estudiantes y sus reacciones
al feedback revalen en ocasiones un concepto limitado de los objetivos de la evaluación
(Maclellan, 2001). Weaver (2006) relacionó la incertidumbre de los estudiantes sobre lo
que se les exigía con la falta de orientación sobre la interpretación y el uso del feedback.
Los resultados de McDowell (2007) y Burke (2009) también confirmaron áreas de
desajuste entre las expectativas de los profesores y la conciencia de los estudiantes, y el
peligro de que los profesores asuman niveles poco realistas de conciencia metacognitiva
en sus estudiantes. Otros estudios han confirmado un desajuste entre las propias
necesidades y expectativas de los estudiantes respecto al feedback, por un lado, y las
suposiciones y prácticas de los profesores, por otro (Cohen & Cavalcanti, 1990;
Orsmond & Merry, 2011).
Fundamentalmente, las respuestas reales de los estudiantes al feedback que reciben
siguen siendo en gran medida invisibles (Price, Handley & Millar, 2011) y, por lo tanto,
desconocidas para sus profesores. Esto es especialmente probable que ocurra en el
aprendizaje a distancia porque las oportunidades de contacto directo entre estudiantes y
profesores son más limitadas que en el aprendizaje en el aula, lo que hace que sea más
probable que sus respectivas ideas sobre el feedback difieran. En su Teoría de la
Distancia Transaccional, Moore (1997; 1980, 2012) postuló que en la educación a
distancia, la "distancia" no sólo se refiere al espacio y al tiempo, sino a "un espacio
psicológico y de comunicación" entre los alumnos y sus instructores, que él denominó
"distancia transaccional", y que podría dar lugar a malentendidos (Moore, 2012, p. 22).
El primer objetivo de este trabajo es, por tanto, identificar las áreas específicas de
desajuste entre las ideas de estudiantes y profesores sobre el feedback que pueden
dificultar su eficacia.
1.3 Análisis del feedback del profesor
Incluso en aquellos casos en los que las opiniones y percepciones de los estudiantes y
sus profesores parecen estar alineadas, sus respectivos comportamientos a la hora de dar
y recibir feedback real pueden contar una historia diferente. Por lo tanto, es importante
entender cómo se utiliza el feedback en la vida real, y hasta qué punto el
comportamiento real al recibir el feedback coincide con las suposiciones y expectativas
reportadas por los estudiantes y los profesores. Este es el otro propósito del presente
estudio.
Glover y Brown (2006, pp. 83-85) idearon un enfoque sistemático para analizar los
comentarios y anotaciones de los profesores en las tareas escritas con el fin de mejorar
la calidad del feedback formativo en las tareas de Ciencias. Propusieron dos conjuntos
de categorías: tipo y profundidad. El tipo se refería a los comentarios centrados en el
contenido, en las destrezas, en las estrategias para el aprendizaje futuro y en los
comentarios de carácter motivacional. Los comentarios centrados en el contenido o en
las destrezas se clasificaron además en función de su profundidad. En el caso de los
comentarios sobre los puntos débiles, se incluyeron tres niveles posibles: (1) "Reconoce
el problema", (2) "Proporciona una respuesta correcta", (3) "Da la razón por la que la
respuesta del estudiante era inapropiada o por la que la respuesta preferida era
apropiada". Se aplicó una clasificación similar a los comentarios sobre los puntos
fuertes, aunque las categorías 2 y 3 no estaban tan claramente diferenciadas: Los elogios
por sí solos ("bien", "bien hecho") se interpretaron como categoría 1; y "la base para el
elogio y el estímulo" como categoría 2 o 3, dependiendo del alcance de la explicación
proporcionada.
El estudio de Brown y Glover de 2006, centrado en tareas de ciencias, se replicó
para tareas de tecnología con resultados ampliamente comparables (Walker,
2009). El método se extendió más tarde más allá del área temática STEM
(Ciencia, Tecnología, Ingeniería y Matemáticas), a través de un estudio
comparativo del feedback de tareas en tecnología e idiomas (Fernández-Toro,
Truman & Walker, 2013). Esto reveló diferencias significativas a la hora de
proporcionar feedback en las tareas de idiomas, en particular, que el número de
comentarios sobre destrezas superaba con creces el número de comentarios sobre
contenido. La profundidad del feedback también era diferente en los idiomas, con
un mayor énfasis en la corrección (categoría 2), y proporcionalmente menos
énfasis en la indicación (categoría 1) y la explicación (categoría 3). La corrección
seguía siendo el tipo de comentario más común en ambas asignaturas. También se
observó que en las tareas de lengua algunos errores no sólo se indicaban, sino que
se categorizaban sin llegar a corregirse. Se trata de una práctica habitual en el caso
de los errores lingüísticos frecuentes, en los que una indicación sobre el tipo de
error cometido (por ejemplo, "ortografía") suele ser todo lo que necesitan los
alumnos para aportar la corrección por sí mismos (Ros i Solé & Truman, 2005).
Esta práctica se reconoce en la versión modificada de la clasificación original de
Glover y Brown utilizada en el presente estudio, donde se ha añadido el nivel
adicional de "categorización".

2 Feedback Analysis Categorisation Tool (FACT)


El "Cuadro de Análisis del Feedback para Profesores", posteriormente rebautizado
como Herramienta de Categorización del Análisis del Feedback (en inglés Feedback
Analysis Categorisation Tool - FACT), fue desarrollado para proporcionar un método de
observación para evaluar el feedback de los profesores en las tareas de idiomas, como
alternativa a los métodos de evaluación comúnmente utilizados que implican datos
auto-declarados. Aunque se basa en la noción de profundidad del feedback de Glover y
Brown (2006), el enfoque FACT no considera las diferentes categorías como niveles de
profundidad mutuamente excluyentes, sino como capas disponibles de andamiaje que
pueden o no ocurrir juntas dentro de un comentario dado. El andamiaje consiste en
""controlar" los elementos de la tarea que inicialmente están más allá de la capacidad
del alumno, permitiéndole así concentrarse y completar sólo aquellos elementos que
están dentro de su rango de competencia". (Wood, Bruner & Ross, 1976, p. 90). Esto
permite al alumno operar dentro de lo que Vygotsky definió como la zona de desarrollo
próximo (Vygotsky, 1978, p. 86), que es la diferencia entre la capacidad actual del
alumno y lo que es capaz de lograr con el apoyo de otros. El andamiaje se elimina
gradualmente hasta que el alumno es capaz de realizar la tarea de forma independiente.
El instrumento revisado que se utilizó en este estudio añade dos capas de andamiaje a
los "niveles de profundidad" identificados por Glover y Brown (2006). Se trata de la
categorización de los errores o los puntos fuertes como capa 2; y el feed-forward
(Walker, 2009) como capa 5. Los cinco niveles de andamiaje se ejemplifican en la Tabla
1.
El análisis FACT comprende cinco posibles capas de andamiaje. Se utilizan las mismas
categorías para el feedback sobre puntos débiles y puntos fuertes: (1) indicado; (2)
categorizado/descrito; (3) corregido/ejemplificado; (4) explicado; (5) consejo
relacionado con la acción futura para evitar un punto débil o construir sobre un punto
fuerte.

Tabla 1. Categorías de andamiaje en el feedback para los trabajos de lengua


Categoría Feedback sobre puntos débiles Feedback sobre puntos fuertes
1 Identifica el punto débil Identifica el punto fuerte
Ejemplo: Subraya el error o Ejemplo: ‘Bien’ escrito al lado de la
añade un interrogante al lado de frase, palabra o párrafo.
la frase, palabra o párrafo.
2 Categoriza el punto débil Categoriza o describe el punto fuerte
Ejemplo: Concordancia de (según los criterios de corrección)
género Ejemplo: ‘Usas una buena variedad de
estructuras lingüísticas, incluidas
cláusulas con el subjuntivo’.
3 Corrige el punto débil Ilustra el punto fuerte con un
Ejemplo: El estudiante escribe ejemplo del trabajo del estudiante
‘manos blancos’ y el profesor lo Ejemplo: ‘Buen uso del subjuntivo’
corrige a ‘manos blancas’. escrito al lado de la frase que ha escrito
el estudiante
4 Da una explicación Da una explicación
Ejemplo: ‘Aunque termina en ‘o’ Ejemplo: ‘Este conector deja muy claro
mano es un sustantivo femenino. al lector que aquí empieza una sección
nueva’.
5 Aconseja cómo prevenir esos Aconseja cómo desarrollar en el
puntos débiles en el futuro futuro lo que el estudiante hace bien
Ejemplo: ‘Revisa las Ejemplo: ‘Un ejemplo excelente,
terminaciones verbales en la puedes consultar […] para ver una
sección 6.1 de tu libro de interesante discusión de un caso
gramática’. similar’.

Cabe destacar que, aunque los niveles de andamiaje se presentan de forma lineal
en el cuadro 1 y se denominan ocasionalmente "niveles", no se producen
necesariamente de forma secuencial. Por ejemplo, un punto débil puede ser
identificado (1) y corregido (3) sin ser categorizado (2), o un punto fuerte puede
ser descrito (2) y explicado (4) sin hacer referencia a ejemplos específicos (3) del
trabajo del alumno. Además, una simple corrección puede suscitar procesos de
reflexión más profundos que una explicación muy general. En otras palabras, el
nivel 4 no es necesariamente más profundo desde el punto de vista cognitivo que
el nivel 3.
El análisis FACT puede aplicarse tanto a las tareas orales como a las escritas, y el
feedback en sí mismo también puede ser en forma oral o escrita, siempre que el
feedback oral se transcriba para su análisis.

3 El estudio
Este estudio se diseñó para evaluar las actitudes y percepciones de los estudiantes y los
profesores respecto al feedback sobre tareas de lengua, con el fin de identificar hasta
qué punto estos conjuntos de actitudes y percepciones estaban alineados (1) entre sí, y
(2) con los comportamientos reales relacionados con el feedback:
(1) Se esperaba que los datos de la encuesta comparativa de los estudiantes y los
profesores arrojaran luz sobre los posibles desajustes entre sus respectivas percepciones
de los aspectos clave del proceso de feedback de las tareas.
(2) Además de las encuestas de profesores y estudiantes, se utilizó el análisis FACT del
feedback de los profesores para verificar mediante triangulación cualquier problema
identificado en los datos de las encuestas. Se prestó especial atención a los posibles
desajustes entre las percepciones de los profesores sobre lo que estaban haciendo, tal y
como se desprende de sus respuestas al cuestionario, y lo que realmente estaban
haciendo, tal y como se desprende del análisis FACT.
El estudio se llevó a cabo en una institución de educación superior a distancia (la Open
University del Reino Unido) donde el uso del feedback electrónico, tanto grabado como
escrito, llevaba siendo práctica habitual en el Departamento de Lenguas durante varios
años.
La investigación se centró en dos amplias cuestiones:
(1) ¿Cuáles son las diferencias y similitudes entre las percepciones de los
estudiantes y los profesores sobre el feedback de las tareas?
(2) ¿En qué medida se reflejan estas percepciones en el feedback real de los
profesores?
4 Método
Este proyecto incluyó dos pasos. El primero consistió en establecer las opiniones
y percepciones de los estudiantes sobre el feedback, y compararlas con las
percepciones de los profesores sobre su propia práctica para responder a la
pregunta 1. El segundo paso consistió en utilizar la herramienta FACT para
analizar cuantitativamente la orientación de los comentarios de los profesores
(enfoque en los puntos fuertes y enfoque en los puntos débiles) y las capas de
andamiaje proporcionadas en cada caso para responder a la pregunta 2.

4.1 Recogida de datos


Se utilizaron tres instrumentos para recoger los datos del estudio:
(1) Encuesta a los estudiantes
(2) Encuesta a los profesores
(3) Análisis FACT de los comentarios reales de los profesores

Encuesta
Las encuestas a los estudiantes y a los profesores se llevaron a cabo en línea, hacia la
mitad de los cursos. Consistían en dos cuestionarios paralelos que incluían elementos
similares para estudiantes y profesores (véase el material complementario: Encuesta de
estudiantes y Encuesta de profesores). Incluían una serie de preguntas o afirmaciones
que utilizaban predominantemente escalas de Lickert para obtener percepciones del
proceso de feedback, cómo los estudiantes percibían y respondían al feedback que
recibían, y cómo los profesores reflexionaban sobre su propio feedback. Las preguntas
eran genéricas y no se referían a una tarea concreta. Todas las respuestas de la encuesta
eran anónimas.
El cuestionario de los estudiantes fue completado por 736 estudiantes de todos los
idiomas en diferentes niveles (Tabla 2) y era suficientemente representativo del grupo
de estudiantes, con una tasa de respuesta global del 8%.

Tabla 2. Resumen de respuestas


Principiante Inter. bajo Inter. alto Avanzado Total
Chino 27 - - - 27
Francés 106 72 23 31 232
Alemán 63 41 16 9 129
Italiano 85 46 - - 131
Español 90 80 18 22 210
Galés 7 - - - 7
Total 378 239 57 62 736
El cuestionario para profesores se envió a todos los profesores de la carrera de
Estudios de Lengua. 105 profesores respondieron a la encuesta, proporcionando
96 respuestas completas.

Feedback de los profesores

Se obtuvo el feedback de los profesores de español, a los que se invitó a poner a


disposición sus trabajos corregidos, tanto orales como escritos, para su análisis
mediante la herramienta FACT. Se seleccionó una muestra de 36 profesores,
repartidos uniformemente entre los cuatro niveles del curso (9 profesores por
nivel). En el estudio se utilizaron un total de 108 tareas escritas y 108 tareas orales
(es decir, 3 muestras por profesor, que reflejan una amplia gama de calificaciones
otorgadas). El proyecto cumplió las normas éticas de la Open University y fue
aprobado por el Comité de Ética de la Investigación Humana de la institución. Se
obtuvo el consentimiento informado de los profesores para utilizar sus
comentarios como datos. No fue necesario el consentimiento de los estudiantes,
ya que lo que se iba a analizar era el feedback del profesor y no la producción
escrita del estudiante. Se eliminaron todos los nombres de los profesores y de los
estudiantes antes del análisis y se transcribieron los archivos de audio.

4.2 Análisis de datos


4.2.1 Datos de la encuesta
Se analizaron los dos cuestionarios en busca de áreas de alineación o
desalineación entre las percepciones de estudiantes y profesores, centrándose en
cuatro áreas generales:
● La importancia que los estudiantes conceden al feedback (según la opinión
de los estudiantes y la percepción de los profesores)
● La percepción del propósito y la naturaleza del feedback (entre los
estudiantes/entre los profesores)
● La comprensión por parte de los estudiantes del feedback recibido (según
los estudiantes y los profesores)
● Los enfoques de los profesores a la hora de dar feedback (según los
informes de los profesores y la percepción de los estudiantes)
La última área se centró más específicamente en el equilibrio entre comentarios
sobre puntos débiles y comentarios sobre puntos fuertes, así como el nivel de
apoyo proporcionado, para reflejar las categorías del FACT utilizadas
posteriormente en el análisis de los comentarios de los profesores.

4.2.2 Datos de los comentarios de los profesores


A continuación, se aplicó el método FACT para codificar los comentarios de los
profesores para un total de 108 tareas escritas y 108 tareas orales, junto con los
formularios electrónicos de feedback que las acompañaban. Cada comentario o
anotación se codificó en función de su orientación (centrada en un punto débil o un
punto fuerte) y de los niveles de andamiaje (1: indicado; 2: categorizado/descrito; 3:
corregido/ejemplificado; 4: explicado; 5: feed-forward).
Dos investigadoras analizaron de forma independiente una muestra de 6 tareas (3 orales
y 3 escritas) y posteriormente se comprobó la fiabilidad entre evaluadoras. Como era la
primera vez que se probaba la herramienta FACT, fue necesario realizar varios ajustes
para aclarar las siguientes cuestiones:
● Definir lo que constituye un comentario o anotación (por ejemplo, una sola frase
puede referirse a más de una cuestión)
● Decidir si los comentarios que incluyen más de un nivel de feedback deben
codificarse dos veces
● Decidir si los comentarios que se refieren tanto a un punto fuerte como a un
punto débil deben codificarse dos veces.
El enfoque general fue codificar los elementos en más de una categoría cuando fuera
necesario, a fin de proporcionar una descripción más precisa de las estrategias
utilizadas. Este enfoque se adoptó para evitar la pérdida de información y fiabilidad que
pudiera resultar de una simplificación excesiva. Después de tres rondas de prueba, se
obtuvo una versión altamente fiable de las convenciones de codificación, con un índice
de fiabilidad entre evaluadoras de 0,97. En lo sucesivo, todos los elementos de feedback
se denominarán "comentarios", tanto si se trata de comentarios reales como de
anotaciones ad hoc (como vistos, palabras subrayadas, letras tachadas, etc.) en un
trabajo escrito.
Cada comentario del profesor fue codificado por una investigadora experimentada,
hablante nativa de español, y después fue transferido a una hoja de cálculo. A
continuación, un consultor externo llevó a cabo un análisis estadístico de los datos
codificados con el fin de establecer las frecuencias de los diferentes tipos de
comentarios en los tres medios utilizados en el programa de Estudios de Lengua: las
anotaciones de los profesores en los trabajos escritos, los comentarios grabados en audio
en las tareas orales y los formularios electrónicos de feedback (utilizados tanto para las
tareas orales como para las escritas).

5 Resultados
5.1 Encuestas a estudiantes y profesores
5.1.1 Importancia de los comentarios
La encuesta confirmó los comentarios informales de los profesores, que daban por
sentado que los estudiantes se preocupaban principalmente por la nota obtenida (Tabla
3). Por otro lado, los propios estudiantes hacían más hincapié en "ver lo que habían
hecho mal".
Tabla 3. Aspecto más importante del feedback para los estudiantes
Según los profesores (%) Según los propios alumnos (%)
Buena nota 33 Ver lo que han hecho mal 35
Sentirse apoyados 27 Buena nota 21
Consejos para el futuro 14 Valorar el propio progreso 19
Valorar el propio progreso 13 Consejos para el futuro 17
Ver lo que han hecho mal 13 Sentirse apoyados 8
A la inmensa mayoría de los estudiantes les interesaba ver los comentarios (el 84% dijo
que los miraba el mismo día en que se los devolvían), y el 95% respondió que siempre
miraba todos los comentarios que recibía. En cambio, los profesores creían que sólo el
73% de los estudiantes miraban todos los comentarios. Entre el 30% y el 40% de los
profesores también consideraban que había algunas partes de la información que una
"minoría significativa" de estudiantes no miraba.

5.1.2 Percepción del propósito y la naturaleza del feedback


Se pidió a los estudiantes y a los profesores sus opiniones sobre 14 afirmaciones sobre
el feedback.
Áreas de alineación entre las percepciones de estudiantes y profesores. Como era de
esperar, hubo ciertos aspectos fundamentales en los que había un amplio consenso
(Tabla 4).
Tabla 4. Áreas de consenso/alineación entre estudiantes y profesores
Afirmaciones Profesores Estudiantes
(%) (%)
1. Los comentarios sobre el uso de la lengua por 97 93
parte de los estudiantes eran útiles
3. Los comentarios ayudan a los estudiantes a 99 94
ver lo que han hecho mal
2. Los comentarios sobre el contenido y la 93 87
estructura eran útiles
10. El feedback ayuda a los estudiantes a 84 87
aprender

Áreas de desajuste entre las percepciones de los estudiantes y de los profesores. En


otras áreas, los profesores estaban muy seguros de que el feedback lograba sus
objetivos, mientras que los estudiantes estaban mucho menos seguros (aunque los
porcentajes seguían siendo altos). Obsérvese que, aunque había un acuerdo casi
universal en que el feedback ayudaba a los estudiantes a ver lo que habían hecho mal
(Tabla 4), los estudiantes estaban bastante menos seguros que sus profesores de que les
ayudaba a identificar lo que habían hecho bien o cómo podían mejorar su rendimiento
(Tabla 5).
Tabla 5. Áreas de discrepancia entre estudiantes y profesores
Afirmaciones Profesores Estudiantes
(%) (%)
12. El feedback ayuda a los estudiantes a 97 87
entender la nota
11. El feedback hace que los estudiantes se 95 82
sientan más apoyados
4. El feedback ayuda a los estudiantes a 97 85
entender lo que han hecho bien
5. El feedback muestra a los estudiantes cómo 99 83
pueden mejorar

Por el contrario, hubo otras áreas (Tabla 6) en las que los estudiantes se sentían más
seguros o convencidos que sus profesores:
Tabla 6. Áreas en las que las percepciones de los estudiantes son más positivas
que las de sus profesores
Afirmaciones Profesores Estudiantes
(%) (%)
7. Los estudiantes se esfuerzan en aplicar el 69 87
feedback
14. Los estudiantes desean ver el feedback 60 87
6. Los estudiantes se acuerdan de la mayor parte 41 76
del feedback

Una minoría importante, tanto de estudiantes (30%) como de profesores (27%), parecía
no estar segura de que el feedback aumentara realmente la confianza de los estudiantes
en su aprendizaje.
También había otras discrepancias importantes referidas a la esencia de la práctica del
feedback. Los estudiantes consideraban más importante que los propios profesores el
papel del profesor como fuente de correcciones y explicaciones de los errores cometidos
(Tabla 7).
Tabla 7. Papel de los profesores en el feedback de las tareas
Afirmación Profesores Estudiantes
(%) (%)
8. Los profesores deberían corregir todos los 38 58
errores
9. Los profesores deberían explicar todos los 44 72
errores

5.1.3 Comprensión de la información recibida


En general, los estudiantes consideraron que entendían la información recibida; sólo el
20% de los estudiantes consideraron que la información ("ocasionalmente" / "a
menudo" / "siempre") no estaba clara; si este fuera el caso, el 62% dijo que preguntaría
a su profesor, aunque el 56% de los profesores afirmó que nunca o rara vez se les pedía
una aclaración, y el 38% que sólo lo hacía una "minoría significativa".
5.1.4 Enfoques para dar feedback
Feedback sobre los puntos débiles. Los estudiantes mostraron un alto nivel de
satisfacción en todos los aspectos (Tabla 8); se sentían satisfechos de que los profesores
indicaban y corregían los errores "con suficiente frecuencia", aunque la mayoría de los
estudiantes insatisfechos (12% de los encuestados) habrían deseado más explicaciones.
Tabla 8. Feedback sobre puntos débiles
% Profesores % Estudiantes % Estudiantes
(Entre satisfechos no satisfechos
paréntesis: *Ver (Entre
nota abajo) paréntesis: ‘No
con suficiente
frecuencia’)
1 Indica errores 97 (67; 30) 95 5 (2)
2 Corrige errores 94 (61; 33) 94 6 (3)
3 Da explicaciones 90 (50; 40) 85 15 (12)
*Nota: Las cifras entre paréntesis para los profesores son para ‘en todas las ocasiones’;
‘generalmente (más de la mitad de las veces)’

Feedback sobre los puntos fuertes. La mayor proporción de profesores (72%) trataba
de indicar "en todas las ocasiones" cuando los estudiantes lo hacían bien (Tabla 9). Sin
embargo, las cifras para describir realmente los puntos fuertes de los estudiantes, y en
menor medida para decirles cómo mejorar en el futuro, fueron sustancialmente más
bajas, y esto también se refleja en el mayor porcentaje de estudiantes que expresan su
insatisfacción en estos aspectos.
Tabla 9. Feedback sobre los puntos fuertes
Afirmación % Profesores % Estudiantes % Estudiantes no
(Entre satisfechos satisfechos
paréntesis: *Ver (Entre paréntesis:
nota abajo) ‘No con suficiente
frecuencia’)
4 Indica los puntos 95 (72; 23) 90 10 (6)
fuertes
5 Describe los puntos 81 (46; 35) 76 24 (22)
fuertes específicamente
6 Explica cómo mejorar 88 (61; 27) 80 20 (17)
en el futuro
*Nota: Las cifras entre paréntesis para los profesores corresponden a "en todas las
ocasiones"; "generalmente (más de la mitad de las veces)
5.2 Análisis FACT
En el marco del estudio se analizaron 108 tareas orales y 108 escritas en español, y se
codificaron y registraron todos los comentarios. Se etiquetaron un total de 12509
comentarios (Tabla 10).
Tabla 10. Resumen de los resultados generales
Orientación Número de % del Media por
del comentarios total estudiante por
comentario trabajo evaluado
Puntos fuertes 3635 29% 16.8
Puntos débiles 8874 71% 41.1
Total 12509

Los comentarios sobre los puntos débiles representan más de dos tercios de todos los
comentarios (71%), mientras que menos de un tercio (29%) se refieren a los puntos
fuertes del trabajo de los alumnos.
Tabla 11. Número de comentarios en cada nivel de feedback para los puntos
fuertes y débiles
Nivel 1 2 3 4 5 Total
Puntos fuertes 1216 2070 280 45 24 3635
Puntos débiles 84 1501 4284 2126 879 8874
Total 1300 3571 4564 2171 903 12509

También se observa un considerable contraste entre los niveles de feedback ofrecido


sobre los puntos fuertes y los débiles, respectivamente (Tabla 11).
Esto se aprecia con mayor claridad cuando se recalculan las distribuciones en forma de
porcentajes (Figura 1), ya que esto revela que se etiquetaron más del doble de puntos
débiles respecto al número de puntos fuertes.

Figura 1. Distribución de los niveles de feedback dentro de puntos fuertes


(strengths) y débiles (weaknesses)
Los comentarios sobre los puntos fuertes se limitan casi por completo a los
niveles 1 (indicado) y 2 (categorizado o descrito), con sólo un 8% en el nivel 3
(ejemplificado) y una proporción insignificante (1%) en los niveles 4 (explicado)
y 5 (feed-forward). Por el contrario, casi la mitad de los comentarios sobre los
puntos débiles se han etiquetado en el nivel 3 (corregido), y la mayor parte del
resto se reparte en orden decreciente entre los niveles 4 (explicado), 2
(categorizado) y 5 (avance).

6 Discusión
6.1 Importancia del feedback
Aunque había una aparente discrepancia entre las respuestas iniciales de los estudiantes
y las de sus profesores (Tabla 3), ambas partes consideraron que todas las opciones
enumeradas eran importantes para los estudiantes, y casi todos los estudiantes
declararon haber mirado el feedback que recibieron.
En términos generales, la cifra del 73% de profesores que pensaban que casi todos, o
una mayoría significativa, de sus estudiantes "miraban" todos sus comentarios coincidía
con los datos de los estudiantes. Sin embargo, sólo la mitad de los estudiantes dijo haber
hecho un trabajo de seguimiento, es decir, el tipo de dedicación que indicaría que el
feedback se estaba utilizando como herramienta de aprendizaje (véase Furnborough &
Truman, 2009 para resultados similares de las respuestas al feedback de la evaluación
en estudiantes principiantes de idiomas a distancia).
6.2 Percepción del propósito y la naturaleza del feedback
Hubo un amplio acuerdo sobre ciertos aspectos fundamentales, lo que sugiere que
el feedback sobre las tareas cumplía una función valiosa (Tabla 4). Sin embargo,
aunque se percibía que el feedback ayudaba a los estudiantes a ver en qué se
habían equivocado, tanto profesores como estudiantes estaban bastante menos
seguros de que estos últimos estuvieran necesariamente aprendiendo de este
proceso. Los estudiantes tampoco consideraban que les ayudara a identificar lo
que habían hecho bien, o cómo podían mejorar (Tabla 5). Estas son áreas cruciales
de desalineación, que demuestran que los profesores estaban mucho más seguros
que los estudiantes de que el feedback estaba funcionando bien. El énfasis de los
profesores en la importancia que tiene para sus estudiantes "sentirse apoyados" a
través del feedback (Tabla 3) también plantea la cuestión de si los profesores y los
estudiantes tienen la misma comprensión de lo que significa sentirse “apoyado".

6.3 Comprensión de la información recibida


La mayoría de los estudiantes estaban convencidos de que la información que se les
proporcionaba era, en general, clara, y afirmaban que, cuando no lo era, pedían
aclaraciones a su profesor. Sin embargo, la percepción de los profesores era que, en la
mayoría de los casos, sus alumnos no se dirigían a ellos. Esto último es coherente con
los resultados de un estudio anterior (Furnborough, 2012) en el que los alumnos con
más confianza indicaron una fuerte preferencia por resolver los problemas por su cuenta
si era posible, y sólo acudían al profesor como último recurso. En el presente estudio, el
29% de los estudiantes encuestados indicaron que "seguirían adelante con el módulo y
esperarían que se aclarara más adelante". Tal vez por esta razón, los profesores también
parecían tener una opinión inferior de los esfuerzos de los estudiantes para prestar
atención al feedback y de su capacidad para recordarlo, de lo que justificaban las
propias respuestas de los estudiantes (Tabla 6).
Sin embargo, los esfuerzos de los estudiantes para interpretar el feedback del
profesor de forma independiente pueden no dar fruto. Un estudio en el que se
pidió a 10 estudiantes que hablaran sobre el feedback de sus profesores en una
tarea escrita (Fernández-Toro & Furnborough, 2014) demostró que incluso los
estudiantes con más confianza tienen tendencia a malinterpretar el feedback. Esto
suele ocurrir cuando el nivel de andamiaje proporcionado no se ajusta a la
capacidad del estudiante para inferir las lecciones precisas que debe extraer de él.
Las preguntas de los alumnos son el medio más eficaz para que el profesor pueda
calibrar esa capacidad y ajustar el nivel de feedback en consecuencia. Bloxham y
Campbell (2010) experimentaron con hojas adicionales en las que se pedía a
nueve estudiantes que identificaran aspectos específicos de su trabajo sobre los
que querían recibir comentarios de sus profesores. Descubrieron que "la limitada
comprensión de los estudiantes de las expectativas y normas de los profesores
puede limitar su capacidad para iniciar un diálogo significativo con sus
profesores", y que hay que “sembrar las semillas” para ese tipo de conversación
en el feedback inicial de los profesores (Bloxham & Campbell, 2010, p. 299).
A falta de este tipo de comunicación, es probable que sea mayor la falta de
alineación entre las suposiciones de los profesores y la capacidad de los
estudiantes. Por lo tanto, hay un fuerte argumento para los diseños de evaluación
que crean proactivamente oportunidades para que los estudiantes respondan
explícitamente al feedback (por ejemplo, Barker & Pinard, 2014; O'Siochru,
2011), especialmente en un entorno de aprendizaje a distancia donde hay poco o
ningún contacto cara a cara.

6.4 Dar/recibir información sobre los puntos fuertes y débiles


El análisis de los comentarios reveló que los profesores comentaban los puntos débiles
2,4 veces más que los puntos fuertes. Esto no es del todo sorprendente en el contexto de
un programa de lenguas extranjeras en el que es de esperar que se produzcan muchos
errores lingüísticos; de hecho, "arriesgarse" utilizando nuevas palabras y estructuras
lingüísticas está reconocido como una estrategia clave para el aprendizaje de idiomas.
Yang y Carless (2013, p. 285) señalan que "la disciplina académica influye
profundamente en el proceso de feedback." Un estudio anterior en el que se comparaba
la actitud de los estudiantes hacia el feedback en dos asignaturas (Fernández-Toro et al.,
2013), mostraba que los estudiantes de Lenguas consideran que los comentarios de
feedback son principalmente útiles para "ver en qué se han equivocado", mientras que
este no es el caso de los estudiantes de Tecnología (por ejemplo, un 42% de menciones
en Lenguas frente a un 16% en Tecnología). Sin embargo, los datos de nuestra encuesta
sugieren que los profesores pueden no apreciar plenamente la naturaleza, el alcance y
las implicaciones de este énfasis en los puntos débiles.
Feedback sobre los puntos débiles. Dado el papel clave que desempeñan los errores en
el desarrollo de la lengua, no es sorprendente que casi la mitad (48%) de los
comentarios sobre los puntos débiles fueran correcciones de errores (Nivel 3). Los datos
de la encuesta confirmaron que los profesores eran en general conscientes de ello (el
61% informó de que corregía los errores "en todas las ocasiones", el 33% "más de la
mitad de las veces"), y los estudiantes estaban en general satisfechos (95%) con la
cantidad de correcciones proporcionadas. Sin embargo, los estudiantes parecían dar más
importancia que los profesores a la responsabilidad del profesor de corregir y explicar
los errores (Tabla 7). Esto sugiere que los profesores esperan que sus alumnos asuman
más responsabilidad de la que los propios alumnos están dispuestos a asumir.
La proporción de explicaciones proporcionadas fue mucho menor (24%), la mitad que
las correcciones de errores. En general, los profesores eran conscientes de que daban
explicaciones con menos frecuencia que correcciones, pero la proporción declarada
(50% "en todas las ocasiones"; 40% "más de la mitad de las veces") no refleja la
magnitud de la diferencia real encontrada. Además, el 12% de los alumnos afirmaron
que sus profesores no explicaban los errores con suficiente frecuencia. Por supuesto, los
profesores pueden tener razones pedagógicas muy sólidas para ser selectivos en cuanto
a los errores que deciden explicar. Por ejemplo, las explicaciones no son necesarias
cuando los alumnos han cometido un error por descuido que pueden autocorregir (Ros i
Solé & Truman, 2005). Sin embargo, incluso los alumnos que creen que entienden las
anotaciones de sus profesores pueden, de hecho, malinterpretarlas. Los resultados del
estudio de protocolos en voz alta de Fernández-Toro y Furnborough (2014) mencionado
anteriormente sugieren que esto podría ocurrir con más frecuencia de lo que los
estudiantes y los profesores suponen. Al calibrar la capacidad de sus alumnos para
interpretar y dar seguimiento al feedback de manera efectiva, los profesores
inevitablemente hacen suposiciones, y hay pocas oportunidades para probar esas
suposiciones con el fin de ajustar el nivel del feedback posterior. Estas oportunidades
deben crearse de forma proactiva mediante actividades que susciten la comunicación
entre profesores y alumnos, por ejemplo, actividades guiadas en las que los alumnos
repasen el feedback y digan qué correcciones y explicaciones adicionales han
descubierto, y qué estrategias seguirán para mejorar. Los profesores que participaron en
un ensayo de seguimiento del enfoque de protocolos en voz alta (Fernández-Toro y
Furnborough, 2014) con sus propios estudiantes proporcionando "feedback sobre el
feedback" informaron que la experiencia tuvo impacto en sus prácticas de feedback.
Comentarios sobre los puntos fuertes. Una alta proporción de profesores informó que
utilizaba "todas las ocasiones" para indicar cuando los estudiantes lo hacían bien (Tabla
9); esto es coherente con su opinión de que el apoyo y el estímulo son particularmente
importantes para los estudiantes (Tabla 1). El hecho de que proporcionen una media de
17 comentarios sobre los puntos fuertes para cada tarea evaluada de los estudiantes
(Tabla 10) confirma su deseo de indicar el buen rendimiento.
Sin embargo, el nivel de feedback proporcionado en dichos comentarios revela un
considerable desajuste entre las suposiciones de los profesores, las expectativas de los
estudiantes y el nivel de feedback que los profesores realmente dan sobre los puntos
fuertes. En primer lugar, se podría argumentar que, si los profesores realmente
aprovecharan "todas las ocasiones" para reconocer los puntos fuertes (como afirma
hacer el 72%), el análisis de los comentarios de los profesores debería dar como
resultado una proporción bien equilibrada entre puntos fuertes y débiles, lo que
claramente no es el caso. En segundo lugar, el análisis de FACT revela que la mayor
proporción de comentarios sobre los puntos fuertes es en forma de indicaciones
(codificadas como nivel 1 - por ejemplo, marcas o reconocimientos generales como
"bien", "bien hecho", etc.), o meras descripciones del punto fuerte en cuestión
(codificadas como nivel 2 - por ejemplo, "utilizas una buena gama de vocabulario").
Los ejemplos específicos, las explicaciones y los consejos sobre cómo aprovechar los
puntos fuertes son mucho más raros. Los datos auto-declarados por los profesores
parecen confirmar este patrón, aunque no sea tan pronunciado.
En cuanto a las preferencias de los estudiantes, los resultados de la encuesta
indican claramente que el 22% desearía que sus profesores proporcionaran más
descripciones de los puntos fuertes indicados en el feedback, y el 17% querría más
consejos sobre cómo podrían aprovechar esos puntos fuertes. Aunque la gran
mayoría de los estudiantes consideraron que la cantidad de información
proporcionada dentro de cada una de estas categorías era "suficiente", las
discrepancias observadas no deben ser ignoradas. No proporcionar información
suficientemente precisa sobre los puntos fuertes puede afectar al aprendizaje de
los alumnos al menos de dos maneras: En primer lugar, los elogios sin pruebas
pueden ser descartados como una mera palmadita en la espalda o, en el peor de los
casos, percibidos como paternalistas. Un experimento en el que participaron 115
estudiantes de educación física (Vallerand & Reid, 1984) confirmó que, aunque el
feedback positivo contribuía a la motivación intrínseca, estos efectos estaban
mediados por la competencia percibida (Vallerand & Reid, 1984, p. 99). La mejor
manera de hacer que los alumnos sean conscientes de su capacidad para realizar
una tarea es proporcionarles pruebas de su competencia. Por lo tanto, es
importante utilizar ejemplos concretos para justificar los elogios. En segundo
lugar, al no proporcionar ejemplos específicos, explicaciones y consejos en el
feedback, los profesores están privando a los estudiantes competentes de la
oportunidad de aprovechar sus puntos fuertes. Mientras que los estudiantes menos
competentes reciben muchos comentarios en el nivel 3 y superior (especialmente
correcciones), un estudiante que quisiera subir su nota de 90 a 100 puede recibir
muy poca orientación sobre cómo lograrlo. Si se añaden las capas de andamiaje
que faltan, el feedback sobre los puntos fuertes sería realmente útil cuando los
estudiantes lo hacen bien.

6.5 El método de análisis FACT


Estos resultados demuestran el potencial del análisis FACT como instrumento de
investigación para triangular los datos auto-declarados por profesores y estudiantes. Con
un índice de fiabilidad entre evaluadores de 0,97, la versión final de la herramienta
demostró ser un medio valioso para operacionalizar el feedback de las tareas sobre la
base de sus características observables. Sin embargo, la complejidad de los criterios
utilizados y la cantidad de formación necesaria para alcanzar ese nivel de fiabilidad lo
hacen inadecuado para otros usos, como la formación de profesores. Para ello, se
elaboró una versión simplificada de los criterios de análisis FACT, presentada en forma
de lista de comprobación, como herramienta de autorreflexión para los profesores
(véase el material complementario: Folleto - Reflexión sobre su propia práctica).
También podrían elaborarse versiones equivalentes para la revisión por pares y la
autoevaluación.
También hay que destacar que el análisis FACT es una herramienta meramente
descriptiva. Su característica singular es que hace visibles los desajustes en cuanto a la
naturaleza y el andamiaje proporcionado en el feedback. Sin embargo, no constituye en
sí mismo una solución a los desajustes. Como herramienta de aprendizaje, el análisis del
feedback sólo es útil como parte de un conjunto de estrategias integradas destinadas a
crear lo que Nicol (2010, p. 512) denomina "contexto dialógico". Handley et al. (2011)
subrayan la importancia de integrar el diálogo sobre el feedback a lo largo de la
duración del camino de aprendizaje de los estudiantes, ya que el efecto acumulativo de
las experiencias anteriores influye en la atención que el estudiante preste al feedback en
la tarea actual, que a su vez influirá en el nivel de dedicación a la evaluación en el
futuro. Para poner en práctica este enfoque, Boud y Molloy (2013) se centran no ya en
las tareas sino en el currículo en su conjunto, y reposicionan el feedback como "un
espacio curricular clave para comunicar, para conocer, para juzgar y para actuar" (Boud
& Molloy, 2013, p. 706).
El diseño del plan de estudios desempeña un papel fundamental a la hora de
proporcionar un contexto de diálogo para el aprendizaje a través del feedback. Sin
embargo, la estructura establecida para el proceso de feedback debe ser lo
suficientemente flexible como para permitir que se produzca un diálogo significativo
(Moore, 2012). Por lo tanto, no sería aconsejable utilizar el análisis FACT de forma
prescriptiva, por ejemplo, dando instrucciones a todos los profesores para que corrijan
cada uno de los errores encontrados en una tarea concreta, dado que algunos estudiantes
serán capaces de autocorregirse y otros no.
Como ya se ha dicho anteriormente, los profesores juzgan constantemente la capacidad
de un alumno para contribuir al proceso de resolver la diferencia entre el rendimiento
real y el deseado, y los pequeños ajustes que hacen sobre la base de tales juicios son
clave para la eficacia del feedback. Sin embargo, los juicios pueden ser difíciles de
hacer, especialmente en un entorno de aprendizaje a distancia. En este sentido, el
análisis FACT ha demostrado ser especialmente valioso como medio para calibrar el
nivel de feedback que requiere cada estudiante. Fernández-Toro y Furnborough (2014)
invitaron a 10 estudiantes a hablar sobre el feedback escrito que habían recibido de sus
profesores, que había sido analizado con el FACT. La profundidad de cada comentario
de feedback se comparó entonces con la profundidad del comentario del estudiante
sobre el feedback en cuestión, revelando así cualquier laguna pendiente. En algunos
casos, los estudiantes fueron capaces de proporcionar un nivel de comentario más
profundo (por ejemplo, explicando una corrección que su profesor había hecho), pero en
otros casos no pudieron hacerlo (por ejemplo, no se dieron cuenta de una corrección, o
dedujeron una explicación incorrecta). Este enfoque, denominado "feedback sobre el
feedback", se ha desarrollado desde entonces como una actividad de aprendizaje cuyo
objetivo es dar a los estudiantes la oportunidad de dirigir el proceso de feedback a través
de un diálogo bidireccional con sus profesores.

7 Conclusiones
La principal contribución de este proyecto se deriva de la triangulación de los datos
auto-declarados de las encuestas de profesores y estudiantes con los datos de
observación del análisis del feedback. Esto permitió evaluar hasta qué punto el tipo y la
cantidad del andamiaje proporcionado en el feedback de las tareas se ajustaba a las
suposiciones y expectativas de los estudiantes y del profesor.
En algunos casos, el análisis de los comentarios confirmó las afirmaciones de los
participantes en la encuesta, mientras que en otros reveló claras discrepancias entre sus
opiniones y los comentarios reales proporcionados. Las dos áreas más llamativas de
desajuste estaban relacionadas con el feedback sobre los puntos fuertes (ayudar a los
estudiantes a apreciar lo que hicieron bien), y el feed-forward (dar sugerencias prácticas
para mejorar en el futuro). Estas áreas son directamente relevantes para los siete
principios de la buena práctica del feedback que Nicol y Macfarlane-Dick (2006)
identifican como necesarios para desarrollar la autorregulación, especialmente para el
principio 1: "ayuda a clarificar lo que es un buen rendimiento" y el principio 6:
"proporciona oportunidades para resolver la diferencia entre el rendimiento actual y el
deseado".
En cuanto al feedback sobre los puntos débiles, el análisis FACT reveló que los
profesores hicieron un amplio uso de las correcciones, mientras que su uso de otros
tipos de feedback, incluyendo la explicación de los errores (una función que los
estudiantes valoran mucho), era mucho menos frecuente. Una vez más, puede ser
necesario reconsiderar este enfoque en consonancia con el principio 6 citado
anteriormente para ayudar a los estudiantes a "resolver la diferencia" a través de un
mejor andamiaje.
Sin embargo, sería demasiado simplista recomendar que el feedback más eficaz es el
que incluye todos los niveles posibles de andamiaje. No existe un conjunto ideal de
características del feedback en sí mismo que lo haga particularmente efectivo. Las
primeras investigaciones sobre feedback que pretendían identificar tales características
ideales a través del análisis del feedback han sido criticadas desde entonces como
"atomistas" y carentes de validez por Handley et al. (2011, p. 546), quienes argumentan
que el énfasis no debería estar en el feedback en sí mismo, sino en "la relación entre el
feedback y el aprendizaje del estudiante" (Handley et al., 2011, p. 546). En ese sentido,
la presente contribución está en consonancia con las recomendaciones de Nicol y
Macfarlane-Dick, ya que "proporciona información a los profesores que puede utilizarse
para ayudar a moldear la enseñanza" (Nicol & Macfarlane-Dick, 2006, p. 205, principio
7).
Siempre que se haya creado un contexto dialógico adecuado a través del diseño del plan
de estudios, el análisis FACT (o algunos de sus elementos) también puede aprovecharse
como medio para guiar a los estudiantes en la construcción de comentarios para sus
compañeros. Los resultados de nuestra encuesta revelaron algunas discrepancias entre
las opiniones respectivas de los estudiantes y de los profesores sobre quien tenía
responsabilidad sobre el feedback, ya que los profesores esperaban que sus estudiantes
se dedicaran de forma más proactiva de lo que ellos eran capaces o estaban dispuestos a
hacer. Los trabajos recientes sobre la revisión por pares y la autoevaluación han
destacado el desarrollo de la capacidad de los estudiantes para hacer juicios críticos
sobre la calidad de su propio trabajo y el de sus compañeros (Boud, Lawson, &
Thompson, 2013; Everhard, 2015a; Nicol, 2011; Tai, Ajjawi, Boud, Dawson, &
Panadero, 2017). Everard caracteriza la naturaleza de la evaluación formativa en
términos de "juicio crítico, utilizando criterios transparentes acordados; importancia
otorgada al feedback de múltiples fuentes", y concibe la relación entre alumnos y
profesores como una relación de interdependencia (Everhard, 2015b, p. 27). El análisis
del feedback es, por tanto, una herramienta ideal en la evaluación formativa, ya que
puede utilizarse para refinar el feedback que los profesores, los propios alumnos y sus
compañeros generan en torno a un conjunto de criterios acordados. Si el diálogo de
aprendizaje tiene éxito, los alumnos pasarán gradualmente de la interdependencia a la
autonomía a medida que se apropien del proceso y aprendan a utilizar las herramientas a
su disposición para alcanzar sus propios objetivos. La evaluación (e implícitamente, el
feedback) es sostenible cuando "satisface las necesidades del presente sin comprometer
la capacidad de los estudiantes para satisfacer sus propias necesidades de aprendizaje en
el futuro" (Boud, 2000, p. 151). Dentro de un modelo sostenible de evaluación, los
estudiantes son capaces de aprovechar las lecciones aprendidas a través del análisis del
feedback para supervisar, planificar y regular su propio aprendizaje.
El reto fundamental es que las instituciones educativas desarrollen y apliquen
modelos de evaluación sostenibles en los que se permita y fomente el diálogo
sobre el feedback.

Agradecimientos
Este proyecto fue financiado por JISC (Joint Information Systems Committee), un
organismo público del Reino Unido cuyo objetivo es potenciar el uso de las TIC en el
aprendizaje, la enseñanza, la investigación y la administración. También queremos dar las
gracias a Bea de los Arcos por su inestimable trabajo de codificación de los datos FACT,
y a Daniel Richards y Paul Grayson por su ayuda en el análisis estadístico. Por último,
nos gustaría dar las gracias a todos los estudiantes y profesores que aceptaron participar
en el proyecto.

<Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator y


post-edición de Anna Comas-Quinn>

Referencias
Arnold, J. (Ed.). (1999). Affect in Language Learning. Cambridge: Cambridge
University Press.
Barker, M., & Pinard, M. (2014). Closing the feedback loop? Iterative feedback
between profesor and student in coursework assessments. Assessment & Evaluation in
Higher Education, 39(8), 899–915. doi: 10.1080/02602938.2013.875985
Beck, R. J., Skinner, W. F., & Schwabrow, L. A. (2013). A study of sustainable
assessment theory in higher education profesorials. Assessment & Evaluation in Higher
Education, 38(3), 326–348. doi: 10.1080/02602938.2011.630978
Black, P., & William, D. (1998). Assessment and classroom learning. Assessment in
Education: Principles, Policy and Practice, 5(1), 7–74.
Bloxham, S., & Campbell, L. (2010). Generating dialogue in assessment feedback:
exploring the use of interactive cover sheets. Assessment & Evaluation in Higher
Education, 35(3), 291–300. doi: 10.1080/02602931003650045
Boud, D. (2000). Sustainable assessment: rethinking assessment for the learning society.
Studies in Continuing Education, 22(2), 151–167.
Boud, D., Lawson, R., & Thompson, D. G. (2013). Does student engagement in
self-assessment calibrate their judgement over time? Assessment & Evaluation in
Higher Education, 38(8), 941–956. doi: 10.1080/02602938.2013.769198
Boud, D., & Molloy, E. (2013). Rethinking models of feedback for learning: the
challenge of design. Assessment & Evaluation in Higher Education, 38(6), 698–712.
doi: 10.1080/02602938.2012.691462
Boud, D., & Soler, R. (2016). Sustainable assessment revisited. Assessment &
Evaluation in Higher Education, 41(3), 400–413. doi: 10.1080/02602938.2015.1018133
Burke, D. (2009). Strategies for using feedback students bring to higher education.
Assessment & Evaluation in Higher Education, 34(1), 41–50. doi:
10.1080/02602930801895711
Carless, D., Salter, D., Yang, M., & Lam, J. (2011). Developing sustainable feedback
practices. Studies in Higher Education, 36(4), 395–407. doi:
10.1080/03075071003642449
Chase, J. A., & Houmanfar, R. (2009). The Differential Effects of Elaborate Feedback
and Basic Feedback on Student Performance in a Modified, Personalized System of
Instruction Course. Journal of Behavioral Education, 18(3), 245–265. doi:
10.1007/s10864-009-9089-2
Chetwynd, F., & Dobbyn, C. (2011). Assessment, feedback and marking guides in
distance education. Open Learning, 26(1), 67–78.
Cohen, A. D., & Cavalcanti, A. C. (1990). Feedback on compositions: Teacher and
student verbal reports. In B. Kroll (Ed.), Second language writing: Research insights for
the classroom (pp. 155–177). Cambridge: Cambridge University Press.
Donovan, P. (2014). Closing the feedback loop: physics undergraduates’ use of
feedback comments on laboratory coursework. Assessment & Evaluation in Higher
Education, 39(8), 1017–1029. doi: 10.1080/02602938.2014.881979
Ehrman, M. E. (1996). Understanding Second Language Difficulties. Thousand Oaks,
CA: Sage.
Everhard, C. J. (2015a). Investigating Peer- and Self-Assessment of Oral Skills as
Stepping-Stones to Autonomy in EFL Higher Education. Assessment and Autonomy in
Language Learning, 29.
Everhard, C. J. (2015b). The Assessment-Autonomy Relationship. Assessment and
Autonomy in Language Learning, 27.
Fastré, G. M. J., Klink, M. R. van der, Sluijsmans, D., & Merriënboer, J. J. G. van.
(2013). Towards an integrated model for developing sustainable assessment skills.
Assessment & Evaluation in Higher Education, 38(5), 611–630. doi:
10.1080/02602938.2012.674484
Fernández-Toro, M., & Furnborough, C. (2014). Feedback on feedback: eliciting
learners’ responses to written feedback through student-generated screencasts.
Educational Media International, 51(1), 35–48. doi: 10.1080/09523987.2014.889401
Fernández-Toro, M., Truman, M., & Walker, M. (2013). Are the principles of effective
feedback transferable across disciplines? A comparative study of written assignment
feedback in Languages and Technology. Assessment & Evaluation in Higher Education,
38(7), 816–830. doi: 10.1080/02602938.2012.724381
Furnborough, C. (2012). Making the most of others: autonomous interdependence in
adult beginner distance language learners. Distance Education, 33(1), 99–116.
Furnborough, C., & Truman, M. (2009). Adult beginner distance language learner
perceptions and use of assignment feedback. Distance Education, 30(3), 399–418. doi:
10.1080/01587910903236544
Gardner, R., & MacIntyre, P. (1993). A student’s contributions to second-language
learning. Part II: Affective variables. Language Teaching, 26, 1–11.
Glover, C., & Brown, E. (2006). Written Feedback for Students: too much, too detailed
or too incomprehensible to be effective? Bioscience Education, 7. doi:
10.3108/beej.2006.07000004
Hamer, J., Purchase, H., Luxton-Reilly, A., & Denny, P. (2015). A comparison of peer
and profesor feedback. Assessment & Evaluation in Higher Education, 40(1), 151–164.
doi: 10.1080/02602938.2014.893418
Handley, K., Price, M., & Millar, J. (2011). Beyond ‘doing time’: investigating the
concept of student engagement with feedback. Oxford Review of Education, 37(4),
543–560. doi: 10.1080/03054985.2011.604951
Horwitz, E. K., Horwitz, M. B., & Cope, A. (1986). Foreign language classroom
anxiety. The Modern Language Journal, 70(2), 125–132.
Hughes, G. (2011). Towards a personal best: a case for introducing ipsative assessment
in higher education. Studies in Higher Education, 36(3), 353–367. doi:
10.1080/03075079.2010.486859
Hunt, M. (2001). Checking on progress: Developing approaches to giving formal and
informal feedback. In L. Arthur & S. Hurd (Eds.), Supporting lifelong language
learning: Theoretical and practical approaches (pp. 165–176). London: CILT and The
Open Unioversity.
Hurd, S. (2000). Distance language learners and learner support: Beliefs, difficulties and
use of strategies. Links & Letters, 7, 61–80.
Hurd, S. (2005). Autonomy and the distance language learner. In B. Holmberg, M.
Shelley, & C. White (Eds.), Distance education and languages: Evolution and change.
Clevedon: Multilingual Matters.
Hurd, S. (2006). Towards a better understanding of the dynamic role of the distance
language learner: Learner perceptions of personality, motivation, roles and approaches.
Distance Education, 27, 303–329. doi: 10.1080/01587910600940406
Hurd, S. (2008). Affect and strategy use in independent language learning. In S. Hurd &
T. Lewis (Eds.), Language learning strategies in independent settings (pp. 218–236).
Clevedon: Multilingual Matters.
Hyatt, D. F. (2005). ‘Yes, a very good point!’: a critical genre analysis of a corpus of
feedback commentaries on Master of Education assignments. Teaching in Higher
Education, 10(3), 339–353. doi: 10.1080/13562510500122222
Hyland, F. (2001). Providing effective support: investigating feedback to distance
language learners. Open Learning, 16(3), 233–247.
Maclellan, E. (2001). Assessment for Learning: the differing perceptions of profesors
and students. Assessment & Evaluation in Higher Education, 26(4), 307–318.
McDowell, L. (2007). Students’ experiences of feedback on academic assignments in
higher education: Implications for practice. In A. Haynes & L. McDowell (Eds.),
Balancing dilemmas in assessment and learning in contemporary education (pp.
237–249). New York: Routledge.
Moore, M. G. (1997). Theory of transactional distance. In D. Keegan (Ed.), Theoretical
Principles of Distance Education (pp. 22–38). Routledge.
Moore, M. G. (1980). Independent study. In R. Boyd & J. Apps (Eds.), Redefning the
discipline of adult education (pp. 16–31). San Francisco: Jossey-Bass.
Moore, M. G. (2012). The Theory of Transactional Distance. In Michael Grahame
Moore (Ed.), Handbook of Distance Education. Routledge Handbooks Online. doi:
10.4324/9780203803738.ch5
Nguyen, T. T. H., & Walker, M. (2014). Sustainable assessment for lifelong learning.
Assessment & Evaluation in Higher Education, 0(0), 1–15. doi:
10.1080/02602938.2014.985632
Nicol, D. J. (2010). From monologue to dialogue: improving written feedback processes
in mass higher education. Assessment & Evaluation in Higher Education, 35(5),
501–517. doi: 10.1080/02602931003786559
Nicol, D. J. (2011). Developing students’ ability to construct feedback. QAA Scotland,
Enhancement Themes. Retrieved from
http://www.reap.ac.uk/Portals/101/Documents/PEER/CaseForConstruction_DN.pdf
Nicol, D. J., & Macfarlane-Dick, D. (2006). Formative assessment and self‐regulated
learning: a model and seven principles of good feedback practice. Studies in Higher
Education, 31(2), 199–218. doi: 10.1080/03075070600572090
Nicol, D. J., & Milligan, C. (2006). Rethinking technology-supported assessment
practices in relation to the seven principles of good feedback practice. In C. Bryan & K.
Clegg (Eds.), Innovative assessment in higher education, (pp. 64–77). Abingdon:
Routledge.
Orsmond, P., & Merry, S. (2011). Feedback alignment: effective and ineffective links
between profesors’ and students’ understanding of coursework feedback. Assessment &
Evaluation in Higher Education, 36(2), 125–136. doi: 10.1080/02602930903201651
O’Siochru, C. (2011). Using Staff-Student Reviews of Past Feedback to Increase the
Impact of that Feedback on Current Assignments. Psychology Learning & Teaching,
10(2), 118–127. doi: 10.2304/plat.2011.10.2.118
Oxford, R. L. (1990). Language Learning Strategies. What every Teacher should Know.
Boston, Mass.: Heinle & Heinle publishers.
Price, M., Handley, K., & Millar, J. (2011). Feedback: focusing attention on
engagement. Studies in Higher Education, 36(8), 879–896. doi:
10.1080/03075079.2010.483513
Ramaprasad, A. (1983). On the definition of feedback. Behavioural Science, 28, 4–13.
Ros i Solé, C., & Truman, M. (2005). Trial by error? Teachers’ and their learners’
attitudes to faults and their correction in distance learning.
Tai, J., Ajjawi, R., Boud, D., Dawson, P., & Panadero, E. (2017). Developing evaluative
judgement: enabling students to make decisions about the quality of work. Higher
Education. doi: 10.1007/s10734-017-0220-3
Truman, M. (2008). Self-correction strategies in distance language learning. In S. Hurd
& T. Lewis (Eds.), Language learning strategies in independent settings (pp. 262–282).
Clevedon: Multilingual Matters.
Vallerand, R. J., & Reid, G. (1984). On the causal effects of perceived competence on
intrinsic motivation: A test of cognitive evaluation theory. Journal of Sport Psychology,
6(1), 94–102.
Walker, C. J., & Symons, C. (1997). The meaning of human motivation. In J. L. Bess
(Ed.), Teaching well and liking it: Motivating faculty to teach effectively (pp. 3–18).
Baltimore: Johns Hopkins University Press.
Walker, M. (2009). An investigation into written comments on assignments: do students
find them usable? Assessment and Evaluation in Higher Education, 31(1), 67–78.
Weaver, M. R. (2006). Do students value feedback? Student perceptions of profesors’
written responses. Assessment & Evaluation in Higher Education, 31(3), 379–394. doi:
10.1080/02602930500353061
White, C. (2003). Language learning in distance education. Cambridge: Cambridge
University Press.
Wood, D., Bruner, J. S., & Ross, G. (1976). The role of profesoring in problem solving.
Journal of Child Psychology and Psychiatry, 17(2), 89–100. doi:
10.1111/j.1469-7610.1976.tb00381.x
Yang, M., & Carless, D. (2013). The feedback triangle and the enhancement of dialogic
feedback processes. Teaching in Higher Education, 18(3), 285–297. doi:
10.1080/13562517.2012.719154

También podría gustarte