Está en la página 1de 12

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/311811449

Resultados SIMCE y Plan de Evaluaciones 2016-2020: Nudos críticos y perspectivas


de cambio

Article · June 2016

CITATIONS READS

0 81

2 authors:

Gonzalo Oyarzún Vargas María Teresa Flórez Petour


Alberto Hurtado University University of Chile
2 PUBLICATIONS   1 CITATION    9 PUBLICATIONS   33 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

The process of social construction of education policy: the case of SIMCE (El proceso de construcción social de la política educacional: el caso del SIMCE)
View project

Tensions and opportunities in the process of changing the assessment culture of a selective state school in Santiago (Tensiones y oportunidades en el
proceso de cambio de cultura evaluativa en un liceo emblemático de Santiago) View project

All content following this page was uploaded by Gonzalo Oyarzún Vargas on 22 December 2016.

The user has requested enhancement of the downloaded file.


Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

Resultados SIMCE y Plan de Evaluaciones 2016-2020:


Nudos críticos y perspectivas de cambio

Por María Teresa Flórez


Académica del Departamento de Estudios Pedagógicos, U. de Chile.
Doctora en Educación e Investigadora asociada del Centro de Evaluación
Educativa, U. de Oxford.
mtflorez@u.uchile.cl

Gonzalo Oyarzún Vargas


Profesor de Inglés y asistente de investigación Fondecyt, U. Alberto Hurtado.
Estudiante del Magíster en Política Educativa UAH gs.oyarzun@gmail.com

Ante un contexto marcado por un álgido debate nacional y por la gestación de diversas reformas en materia
educacional, resulta prioritario examinar los cambios realizados al Sistema de Medición de la Calidad de la
Educación (SIMCE) y el plan de evaluaciones 2016-2020 recientemente aprobado por el Consejo Nacional
de Educación. En ese sentido, el presente artículo tiene por objeto aportar, por una parte, una
contextualización a las modificaciones impulsadas en la materia por el Ministerio de Educación y la Agencia
de Calidad, y, por otra, visibilizar las críticas políticas, técnicas y pedagógicas a las herramientas de medición
utilizadas, ahondando en la tensión que representa la búsqueda de un cambio de paradigma centrado en
la mejora escolar, sin alterar los pilares de un sistema de rendición de cuentas con altas consecuencias.

1
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

I. Introducción

A inicios de junio, la Agencia de Calidad junto al MINEDUC dieron a conocer los resultados educativos 2015
de los estudiantes de 8º Básico y 2º Medio del país, publicando los puntajes obtenidos en las pruebas SIMCE,
junto a los “Otros Indicadores de Calidad” (OIC), que – según indican las autoridades – buscan medir
aspectos vinculados al desarrollo social y personal de los estudiantes, tales como la autoestima académica
y motivación escolar, clima de convivencia, participación y formación ciudadana, y hábitos de vida
saludable. En dicha instancia, se destacó el alza sostenida durante los últimos 10 años que han presentado
los puntajes en las áreas de matemáticas y ciencias naturales, mientras se mostró preocupación por los
bajos resultados en el área de comprensión lectora, sumado a las brechas socioeconómicas y de género en
la materia. Además de la inclusión de los OIC, esta entrega de resultados constituye la primera desde la
aprobación de las modificaciones estipuladas por el nuevo Plan de Evaluaciones 2016-2020, por lo que
adquiere mayor relevancia contextualizar la gestación de dichos cambios y analizar en perspectiva la
magnitud y orientación de los mismos.

II. Contextualización: Propuestas y omisiones de la Comisión SIMCE 2014

El SIMCE ha sido objeto de profundas críticas durante los últimos años, tanto por múltiples organizaciones
sociales como por un grupo importante de académicos e investigadores en educación, incluyendo a Premios
Nacionales en el área (Alto al SIMCE, 2013). En ese contexto, sumado a la instalación del marco legal para
el Sistema de Aseguramiento de la Calidad, el MINEDUC convocó en 2014 a un grupo de expertos,
denominado “Equipo de Tarea”, para revisar el sistema de evaluación escolar, efectuar un diagnóstico de
su situación actual, y mejorar sus aspectos problemáticos. Sus acuerdos se publicaron en 2015 en un
informe ejecutivo que resume las principales conclusiones de la comisión (Equipo de Tarea, 2015), las cuales
sentaron las bases para el nuevo plan de evaluaciones presentado por la Agencia de Calidad y el MINEDUC
(MINEDUC, 2015), y por ello resulta relevante abordarlo brevemente antes de referirse al plan.

Más que por su contenido declarado, el informe ejecutivo llama la atención por sus silencios y omisiones.
Entre ellos, se destaca la desatención a las críticas concernientes a la validez técnica del SIMCE (Ortiz, 2012;
Flórez, 2013). Por ejemplo, los cuestionamientos en torno a la multiplicidad de objetivos asignados a esta
prueba, donde se presentan debilidades en tres dimensiones: 1) a lo largo de su historia estos propósitos
se han ido multiplicando; 2) existen objetivos en tensión (objetivo de uso pedagógico y apoyo, y objetivo
de control y rendición de cuentas); y 3) se carece de evidencia que corrobore su aporte a la consecución de
algunos de sus propósitos más frecuentemente declarados: mejorar la calidad y equidad del sistema
educacional. Por el contrario, la evidencia apunta a que el SIMCE iría en contra de dichos objetivos, puesto
que genera diversas consecuencias nocivas, tales como un empobrecimiento de la experiencia pedagógica
de las escuelas (CIDE, 2012) y una estigmatización de las escuelas municipales, que no seleccionan y
trabajan con los estudiantes de contextos más vulnerables (Bellei, 2007).

Diversos estudios han erigido también una problematización respecto a la calidad técnica de los
instrumentos del SIMCE (Ortiz, 2012; Flórez, 2013; ACER, 2013), cuestionando la predominancia de
preguntas de selección múltiple; la ausencia de cobertura de ciertas áreas del currículum, especialmente

2
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

aquellas asociadas al desarrollo de habilidades de mayor complejidad; los problemas de construcción de


sus preguntas; la carencia de preguntas innovadoras y el predominio de tareas más bien rutinarias; los
problemas de confiabilidad en sus procesos de aplicación y revisión, especialmente en el caso de las
preguntas abiertas; entre otros aspectos. Sumado a ello, varios miembros que integraron la Comisión SIMCE
2014 - encargados de evaluar el SIMCE - han estado involucrados en la creación e implementación de este
sistema, lo que genera, como indica Haertel (1999), un "sesgo confirmacionista" a la hora de juzgar su
calidad.

Todos estos aspectos son reconocidos en la literatura como posibles amenazas a la validez de un sistema
de evaluación (Stobart, 2009). Pese a ello, el Informe Ejecutivo no se hace cargo de estas problemáticas,
abogando que las consecuencias negativas son producto de los usos equivocados por parte de los medios,
los actores de la comunidad educativa, y a las políticas educacionales que se concatenan con la prueba. El
único punto en que asume algunas de estas tensiones se relaciona con reconocer que ha habido un excesivo
énfasis en el aspecto de presión y rendición de cuentas y poco desarrollo de la dimensión de apoyo
pedagógico. No obstante, se omite, tal como la literatura internacional indica, que la solución no pasa por
equilibrar ambos propósitos, sino por optar por alguno de ellos, puesto que un mismo instrumento de
evaluación difícilmente puede sostener ambos al mismo tiempo (Wandall, 2009). Ello debido a que cada
uno de estos propósitos implica diseños de evaluación y usos de la información diferentes. Una evaluación
destinada al control y la rendición de cuentas debe mantener la confidencialidad de sus materiales. Ello
implica que la información que se puede entregar para el apoyo será siempre muy limitada y, por ello, poco
útil para los actores de la comunidad escolar. Por el contrario, un sistema que opta por el propósito
formativo, como lo han hecho países como Dinamarca y Uruguay, puede entregar resultados inmediatos al
docente, quien tiene además acceso a las preguntas y a su análisis didáctico sobre la base de las respuestas
de los estudiantes. Este tipo de información sí beneficiaría el trabajo pedagógico de los profesores y
profesoras, pero ello implicaría tomar una decisión por un propósito formativo, en lugar de tratar de
mantener ambos en una co-existencia tensionada.

¿Por qué, entonces, se mantiene la presión como un aspecto importante de este sistema? Ello tiene que
ver con otro de los silencios del Informe Ejecutivo: el vínculo inalienable entre el SIMCE y el mercado
escolar. El propósito inicial del SIMCE queda delimitado en la Ley Orgánica Constitucional de Enseñanza
(LOCE), una de las leyes creadas a fines de la dictadura, y que consolida la instalación de un sistema de
mercado en educación a nivel nacional (Prieto, 1983; Cox, 2003). La consolidación de dicho sistema
priorizaba construir un mecanismo que objetivase la “medición de la calidad” del servicio prestado por las
escuelas, de modo tal de aportar, por una parte, información que orientara la elección parental y, por otra,
dotase a las escuelas de una base racional para la fijación de precios de los servicios educacionales. De esta
forma, al distinguir la ‘eficacia’ de las escuelas, expresada en el puntaje obtenido, se podría dinamizar la
competencia entre los establecimientos, mejorando así – basado en la teoría del libre mercado - su calidad
y eficiencia, pues la preponderancia y presión ejercida por la libertad de elección, apoyada vía
financiamiento a la demanda, devendría en que las ‘mejores’ escuelas aumentasen su matrícula, mientras
aquellas que obtuviesen bajos resultados perderían alumnos hasta desaparecer (Espínola, 1989; Friedman
& Friedman, 1980; Jofré, 1988). Dicha intencionalidad fue posteriormente complementada con la
obligatoriedad de publicar los resultados, presión que aumenta durante los años 90’ y 2000 con la
instalación de una serie de políticas de incentivos y consecuencias para las escuelas en relación con los
puntajes del SIMCE (SNED, Ley SEP, entre otras). Pese al carácter eminentemente político del SIMCE, el

3
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

Informe Ejecutivo plantea esta presión desde una mirada despolitizada y positiva, en el sentido que
generaría una urgencia por mejorar los resultados de aprendizaje. La omisión aquí pasa por no comprender
que un diagnóstico y mejora profundos del SIMCE pasarían primero por cuestionar a qué concepción de
educación y sociedad obedece este sistema de evaluación, qué grado de acuerdo existe entre los actores
del sistema educacional con respecto a esta visión y, en ese sentido, qué sistema de evaluación querríamos
y necesitaríamos en función de la educación y la sociedad que queremos.

Así, el carácter moderado de las propuestas del Plan de Evaluaciones 2016-2020 se explica, en parte, por la
falta de un cuestionamiento profundo del SIMCE en la Comisión 2014. Si bien puede ser valorable que en
el informe ejecutivo se critique el nuevo Sistema de Ordenación de Escuelas, se promueva una valoración
de las evaluaciones que los docentes realizan en aula, y se reconozca que ha existido un exceso de presión
sobre los establecimientos, las conclusiones son claramente insuficientes frente a la demanda de cambios
profundos exigidos por la ciudadanía.

III. El Plan de Evaluaciones 2016-2020: Propuestas y nudos críticos

El plan propuesto para el período 2016-2020 por el MINEDUC y la Agencia de Calidad (MINEDUC, 2015),
con la aprobación del Consejo Nacional de Educación (CNED), se vincula directamente con las conclusiones
y la perspectiva moderada del Informe Ejecutivo de la Comisión SIMCE 2014. A continuación se señalan los
cambios propuestos en el Plan, valorando aquellos aspectos en los que se avanza, pero señalando en qué
sentido dichos cambios son insuficientes.

● Disminuir la presión

Asumiendo el exceso de presión diagnosticado por la Comisión SIMCE 2014, el Plan intenta disminuirla a
través de la reducción de la cantidad de pruebas que se realizan por año y de la transformación de algunas
pruebas censales en muestrales. Este cambio se valora, especialmente en relación con la eliminación de la
prueba censal de 2° básico, caso que causó particular controversia debido a la escolarización excesiva del
aprendizaje que implicaba en la infancia. No obstante, hay que recordar que el aumento mayor de las
pruebas se generó durante el gobierno de Sebastián Piñera, llegando a aplicarse hasta 15 pruebas por año.
Lo que aquí se propone, en ese sentido, no es un cambio radical, sino simplemente un regreso a la situación
previa a 2010. Los profesores detectan esta presión mucho antes de 2010 (ver, por ejemplo, número
especial de la Revista Docencia, 2009, sobre estandarización), ya que ésta no está ligada solamente a la
cantidad de pruebas que se realizan, sino al contexto de política educacional en que se inserta el SIMCE.
Mientras ese contexto siga operando, la presión seguirá siendo la misma. Mientras no haya una
modificación del sistema de voucher, la competencia y el marketing educacional; los incentivos y castigos
ligados a los resultados del SIMCE; el 67% que vale el SIMCE en la clasificación de los establecimientos en
el nuevo Sistema de Ordenación de Escuelas (pese a la defensa de éste aporta a una definición ‘más integral’
de la calidad), será poco lo que cambie en términos de la sensación de presión que somete a las escuelas a
un ritmo y a un tipo de trabajo que provoca una creciente sensación de pérdida de sentido.

4
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

● Revisar la calidad del sistema de evaluación

De forma consistente con el Informe Ejecutivo, el Plan 2016-2020 omite múltiples aspectos relacionados
con la mejora de la calidad del SIMCE en términos de su validez. Si bien se valora el reconocimiento de las
tensiones entre los propósitos de rendición de cuentas y de apoyo pedagógico, así como la voluntad de
someter el instrumento a revisiones periódicas de expertos, se ignoran aquí nuevamente diversos aspectos
relacionados con la calidad técnica del sistema de evaluación.

En el Plan se alude a que se trabajará con un concepto actualizado de validez, desde la mirada inaugurada
por Samuel Messick (1980, 1989) y que predomina hasta hoy en los estándares internacionales. En este
concepto las interpretaciones, acciones y consecuencias derivadas de los sistemas de evaluación
constituyen un elemento central. Pese a ello, el Plan repite los silencios de la Comisión 2014 en relación
con problemas de cobertura, comparabilidad de constructo en el tiempo, calidad de las preguntas, tipo de
tareas y formas de aprendizaje subyacentes a ellas, multiplicidad de propósitos, objetivos en tensión, entre
otros. Junto con ello, si bien es positivo que se rescate la importancia de investigar las consecuencias del
SIMCE para mejorar su validez, no se indica qué se hará para mejorar este aspecto si se llega a comprobar
que las consecuencias negativas del SIMCE son generalizadas. ¿Se cambiará la prueba para promover
visiones del aprendizaje más complejas y menos mecanicistas? ¿Se explorará la voluntad política para
modificar sus consecuencias en relación con la legislación en torno a SIMCE? Dado el carácter moderado
de los cambios propuestos, resulta dudoso que la evidencia pudiera motivar cambios de esta naturaleza.

Dentro de la dimensión técnica, además, se destaca en el Plan la necesidad de mantener la comparabilidad


de resultados, aspecto que se ha utilizado como argumento para no modificar de manera significativa el
instrumento. No obstante, se ignora en ello que esto ya se hizo en un momento de la historia del SIMCE, a
partir de otra oleada de críticas técnicas en los años 90’ (Schiefelbein, 1998; Eyzaguirre y Fontaine, 1999).
Si ya se pudo antes establecer un corte en la comparabilidad de resultados, sobre la base de la necesidad
de mejorar el instrumento, ¿por qué no aprovechar esta nueva coyuntura para establecer una nueva
evaluación, de mejor calidad, cuyos resultados se puedan comparar en el futuro?

Por otra parte, hay en el Plan una defensa de la importancia de disponibilidad de resultados para cada
escuela para ver su mejoramiento y desde allí se justifica la persistencia en la publicación de resultados. Por
una parte, se ignora aquí que esta interpretación carece de validez, en el sentido que el SIMCE no tiene
actualmente cómo asegurar a nivel de escuela que las mejoras que se observan de una aplicación a otra de
las pruebas se deba a una mejora en el aprendizaje. Ello porque, al no tratarse de los mismos grupos de
estudiantes, no es posible saber si las diferencias de puntaje obedecen a una progresión de los aprendizajes
o simplemente a características de cada grupo. Esta dificultad es reconocida por los propios creadores del
SIMCE en entrevistas de investigación (Flórez, 2013). Junto con ello, cabe preguntarse si la entrega de
resultados a cada escuela requiere necesariamente que estos sean publicados. Podrían perfectamente
entregarse a cada escuela, sin la necesidad de la presión mediática y de mercado que se genera con la
publicación, por lo que este argumento tampoco se sostiene.

Por otra parte, respondiendo a las críticas establecidas en el informe de ACER (2013) acerca de la calidad
de los procesos de elaboración de las pruebas SIMCE, en la propuesta del Plan se establece un compromiso
por resguardar condiciones laborales y la consolidación de equipos de trabajo en la construcción y

5
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

corrección del SIMCE. Ello resulta muy positivo, en el sentido que garantiza de mejor manera la calidad de
los procesos de la evaluación. No obstante, no se incluye en este punto la importancia de monitorear de
calidad de licitaciones externas a partir de las cuales se ejecutan muchos de los procesos del SIMCE.
Solamente se indica que cuentan con una “cartera de proveedores externos y contrapartes internas
debidamente calificados” (2015: 58), pese a que hay evidencia de la calidad cuestionable de algunos de
estos proveedores, por ejemplo, en términos de las condiciones laborales a las que somete a los correctores
de preguntas abiertas, lo que afecta la calidad y confiabilidad del proceso (Flórez, 2013). En ese sentido, el
compromiso del Plan debería ir en función de monitorear la calidad de todos los procesos, externos e
internos, aspecto fundamental en una mirada actualizada de validez en evaluación.

Finalmente, resulta positivo que se indique que habrá un aumento de las acomodaciones para estudiantes
con discapacidad sensorial, así como incorporación de paneles de revisión de posibles sesgos en las
pruebas. No obstante, queda la duda en torno a qué sucede con la multiplicidad de otras necesidades
educativas especiales y si el SIMCE buscará adaptarse al estándar actual, que obedece más bien a una
mirada de diseño universal1. Junto con ello, el carácter estandarizado de la prueba y el tipo de preguntas
que presenta, tal como critica Gardner en relación con la evaluación tradicional (Gardner, 1995), no permite
a todos los estudiantes demostrar aprendizaje, y privilegia a aquellos que tienen más habilidades lógico-
matemáticas y verbales. Ello pese a que en su propuesta de desarrollo profesional docente (ver sección
siguiente), el Plan declara promover un enfoque de Evaluación para el Aprendizaje, donde un aspecto
fundamental es permitir a todos los estudiantes demostrar aprendizaje (Azúa, 2012). Por último, no queda
claro si los paneles de revisión de sesgo incluirán también posible sesgo socioeconómico de las preguntas,
para evitar que las pruebas estén sistemáticamente discriminando a ciertos grupos y, así, generando
interpretaciones no válidas de los resultados. Ello resulta particularmente importante en una prueba cuyos
resultados año a año aparecen ligados al nivel socioeconómico de los estudiantes.

● Incorporación de la evaluación de aula y de instancias de desarrollo profesional

Resulta altamente valorable que tanto en el Informe Ejecutivo de la Comisión SIMCE 2014 como en el Plan
2016-2020 se señale la importancia de comenzar a incorporar la evaluación de los docentes en aula como
parte del sistema nacional de evaluación, y se promueva una visión más consistente con la Evaluación para
el Aprendizaje (EPA). No obstante, en este proceso los docentes siguen estando ajenos a la toma de
decisiones de política en relación con el diseño de las pruebas nacionales y, así, es posible que sigan
percibiéndolas como ajenas e impuestas.

Por otra parte, si no se cambian las características y el contexto de la prueba, es altamente probable que
EPA y la evaluación externa por medio de SIMCE lleguen a percibirse más bien como dos políticas
contradictorias. Ello es consistente con la evidencia internacional en torno a EPA, que señala que los
docentes perciben dificultades para conciliar este enfoque con las evaluaciones externas sobre las cuales

1
“Diseño Universal” o “Diseño para Todos”, préstamo del área de arquitectura, que en lugar de proponer la creación de medidas
especiales para un modelo prediseñado, considera que una evaluación debe desde el inicio considerar un diseño que sea usable
para la mayor cantidad de usuarios posible. Según la definición de Thompson et al. (2005), un diseño universal en evaluación
significa que las evaluaciones “(…) son diseñadas desde el principio, y continuamente refinadas, para permitir la participación del
rango más amplio de estudiantes posible, generando así inferencias más válidas acerca de su desempeño.”

6
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

no tienen control (Black et al., 2010). La Agencia propone en el Plan la realización de una serie de pruebas
formativas que se pondrán a disposición de los establecimientos, con el fin de promover un enfoque en que
la evaluación se ponga en función del aprendizaje, a partir del monitoreo de los procesos de aula. No
obstante, esta mirada, en primer lugar, corresponde a la evaluación formativa propia del neo-conductismo
más que a la de la Evaluación para el Aprendizaje, que se inserta en un marco de pedagogía socio-
constructivista (Stobart, 2010). Esto porque se propone una serie de pruebas de uso formativo, mientras
que EPA propone que la evaluación se incorpore al proceso cotidiano de enseñanza y aprendizaje, a partir
del establecimiento de criterios compartidos y contextualizados (Stobart, 2010). En segundo lugar, dado
que no se cambia el contexto de política educacional en que se inserta SIMCE, si las pruebas formativas que
propondrá la Agencia son muy similares a SIMCE, entonces existe el riesgo de que las escuelas terminen
por adaptarse completamente a la lógica SIMCE, en lugar de generar una valoración de las evaluaciones de
aula de los docentes.

● Mejoramiento de la calidad y mayor responsabilización del Estado

La necesidad del SIMCE se fundamenta en el Plan de Evaluación 2016-2020 desde la importancia de buscar
el mejoramiento de la educación pública, lo que justificaría la necesidad del Estado de contar con
mecanismos para asegurar su calidad. Sin embargo, tal como en este artículo se ha abordado, el SIMCE no
cuenta con ninguna evidencia que corrobore su capacidad de mejorar la calidad de la educación pública. Es
más, la investigación disponible apunta más bien a que su implementación, asociada a altas consecuencias
para las escuelas, ha generado efectos que contravienen la consecución de un mejoramiento efectivo (Ortiz,
2012). Esta mirada es propia de los modelos neo-liberales de gobernanza, donde la evaluación es entendida
como una forma de controlar a distancia, sostenida en la creencia (no fundada en evidencia) de que la
evaluación por sí sola genera mejoras (Grek, 2008 and 2009; Ozga et al., 2009). En ese contexto, cabe
preguntarse qué pasa con la mejora de aquellos aspectos más estructurales que las escuelas no pueden
solucionar por sí mismas (condiciones materiales, contexto de la escuela, alimentación, etc.) y qué apoyos
se entregarán en este sentido.

IV. Comentarios finales

En suma, si bien hay ciertos aspectos valorables tanto del informe ejecutivo del Equipo de Tarea como del
nuevo Plan de Evaluaciones (crítica al Sistema de Ordenación de Escuelas y uso publicitario de los
resultados, diagnóstico de una presión excesiva sobre los establecimientos y reducción de algunas pruebas
SIMCE, reconocimiento a la importancia de las evaluaciones de los docentes, entre otros), consideramos
que las modificaciones aprobadas no alteran los efectos perniciosos que actualmente promueve el SIMCE,
tanto para la consolidación de la competencia entre escuelas – eje del mercado educacional - como
respecto a su influencia en el empobrecimiento del quehacer cotidiano de las escuelas, donde la mayoría
de los directores y profesores admiten, dada la relevancia para la supervivencia de las escuelas, realizar
entrenamiento SIMCE a través de ensayos, talleres, incremento de horas de las asignaturas medidas, y
adecuación de las evaluaciones internas acorde al formato del SIMCE, entre otras (CIDE, 2012; Manzi, 2013).

En ese sentido, consideramos que las modificaciones actuales rehúyen la discusión de fondo respecto a la
coherencia y utilidad de los instrumentos implementados para la consecución de los propósitos educativos
que orientan al sistema escolar, aspecto que debiese, por cierto, transitar desde la competencia escolar

7
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

como articulador de la mejora hacia un modelo que fomentase la colaboración entre establecimientos y la
justicia social (Green, 2013; Pino, 2014).

Asimismo, persiste la tensión por la multiplicidad de objetivos del sistema de medición, donde conviven
contradictoriamente dinámicas de presión y apoyo a las escuelas, u objetivos de control estatal con los de
retroalimentación pedagógica a partir del mismo instrumento. Así, queda la interrogante respecto al cómo
se transitará hacia un nuevo modelo evaluativo orientado a la mejora, y el rol que jugarán las comunidades
escolares en el mismo.

Por último, queda pendiente la modificación de los múltiples enclaves legales que hoy mantienen e
incentivan las políticas de accountability, entre ellas, la Ley General de Educación y la Ley de Aseguramiento
de la Calidad que, en caso de ser reformadas, podría transformar el carácter censal del SIMCE y la
obligatoriedad en la publicidad de sus resultados. Del mismo modo, involucrar y empoderar a las
comunidades educativas en la creación de instrumentos evaluativos más pertinentes y útiles a los diversos
contextos de enseñanza, en coherencia con lo manifestado por el 71% de profesores y 66% de directores
que considera que los establecimientos pueden evaluar su trabajo y el avance de sus estudiantes (CIDE,
2012). De este modo, queda como desafío idear una estructura pertinente que concite y genere puntos de
diálogo y encuentro entre los organismos del aparato central con las comunidades educativas, en pos de ir
generando las bases para construir un nuevo sistema de evaluación que busque promover la mejora de la
educación entendida como un derecho social, y que conciba la evaluación como un proceso sistemático,
contextualizado y permanente, orientado a obtener y analizar información relevante que permite emitir
juicios de valor y tomar decisiones educativas.

8
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

V. Referencias

ACER (2013). Evaluación de los procesos y productos relacionados con la producción de instrumentos,
operaciones de campo y manejo de datos de las pruebas nacionales SIMCE. Santiago: Agencia de Calidad de
la Educación.

Alto al SIMCE (2013). Carta abierta por un Nuevo Sistema de Evaluación Educacional. Disponible en
http://www.elmostrador.cl/media/2013/09/Carta-abierta.pdf

Azúa, X. (Editora) (2012). Qué se evalúa cuando se evalúa. Santiago: Ed. Universitaria.

Bellei, C. (2007). Expansión de la educación privada y mejoramiento de la educación en Chile. Evaluación a


partir de la evidencia. En Revista Pensamiento Educativo, Vol. 40, Nº 1, 2007.

Black, P., Harrison, C., Lee, C., Marshall, B., Wiliam, D. (2010) Assessment for Learning, Putting it into
practice. London: Open University Press.

CIDE (2012). IX Encuesta a actores del sistema educativo 2012. Universidad Alberto Hurtado. Disponible en
http://www.cide.cl/documentos/Informe_IX_Encuesta_CIDE_2012.pdf

Cox, C. (2003). Las políticas educacionales de Chile en las últimas dos décadas del siglo XX. En C. Cox (ed.).
Políticas educacionales en el cambio de siglo. La reforma del sistema escolar de Chile. Santiago de Chile:
Editorial Universitaria: 19-114.

Chile. Ley 20.370, del 12 de septiembre de 2009. Establece la Ley General de Educación. Disponible en
https://www.leychile.cl/Navegar?idNorma=1006043

Chile. Ley 2.0501, del 26 de febrero de 2011. Calidad y Equidad de la Educación. Disponible en
http://www.leychile.cl/Navegar?idLey=20501

Equipo de Tarea (2015). Hacia un sistema completo y equilibrado de evaluación de los aprendizajes en Chile.
Informe Equipo de Tarea para la revisión del SIMCE. Santiago de Chile. Disponible en
http://www.mineduc.cl/wp-content/uploads/sites/19/2015/11/Informe-Equipo-de-Tarea-
Revisi%C3%B3n-Simce.pdf

Espínola, V. (1989). Los resultados del modelo económico de la enseñanza básica: La demanda tiene la
palabra. En: García-Huidobro, J.E. (Editor) Escuela, Calidad e Igualdad. Los desafíos de para educar en
democracia. 1989. Santiago de Chile: CIDE, pp.41-81. Disponible en
http://biblioteca.uahurtado.cl/ujah/reduc/pdf/pdf/5548.pdf

9
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

Eyzaguirre, B. & Fontaine, L. (1999). ¿Qué mide realmente el SIMCE? Estudios Públicos, 75.

Flórez, M.T. (2013). Análisis crítico de la validez del sistema de medición de la calidad de la educación
(Simce). Informe Final Consejo Nacional de Educación. Santiago: CNED.

Friedman, M., & Friedman, R. (1980). Free to choose: A personal statement (1st ed.). New York, NY: Harcourt
Brace Jovanovich.

Gardner, H. (1995). “Más Allá de la Evaluación”. En: Los Componentes de una Educación de las Inteligencias
Múltiples. Barcelona: Paidós. 173-219.

Greene, J. C. (2013). Making the world a better place through evaluation. En M.C Alkin (Ed.), Evaluation
roots: A wider perspective of theorists’ views and influences, second edition. Thousand Oaks, CA: Sage.
[Versión Kindle Fire]. Recuperado de Amazon.com

Grek, S. (2008). From symbols to numbers: the shifting technologies of education governance in Europe.
European Educational Research Journal, 7(2), 208-218.

Grek, S. (2009). Governing by numbers: the PISA 'effect' in Europe. Journal of Education Policy, 24(1), 23-
37.

Jofré, G. (1988). El Sistema de subvenciones en educación: La experiencia chilena. Revista Estudios Públicos,
n. 32, pp. 193-237. Revisado el 14 de Enero de 2016, en
http://www.cepchile.cl/dms/archivo_1599_1154/rev32_jofre.pdf

Manzi, J. (2014). Análisis sobre valoraciones, comprensión y uso del SIMCE por parte de directores escolares
de establecimientos subvencionados. Proyecto FONIDE N°: F711269. Exposición presentada en el seminario
“Desafíos de calidad y equidad: Elementos para una reforma educativa”, organizado por el Centro de
Políticas Públicas UC.

Messick, S. (1980). Test validity and the ethics of assessment. American Psychologist, 35, 1012- 1027.

Messick, S. (1989). Validity. In Linn, R. L. (ed.), Educational Measurement (3rd ed.). Nueva York: American
Council on Education/Macmillan.

MINEDUC (2015). Propuesta de plan de evaluaciones nacionales e internacionales 2016-2020. Santiago:


MINEDUC.

Ortiz, I. (2012). En torno a la validez del Sistema de Medición de la Calidad de la Educación en Chile. Estudios
pedagógicos, 38(2), 355-373.

Ozga, J., Grek, S., & Lawn, M. (2009). The new production of governing knowledge. Soziale Welt, 4, 353–
371.

10
Cuaderno de Educación Nº 73, junio de 2016
Sección Artículo

Pino, M. (2014). Los valores que sustentan el SIMCE: Pensando en un sistema de evaluación más allá de una
medición estandarizada. Revista Docencia, 52, pp. 14 – 29

Prieto, A. (1983). La modernización educacional. Santiago: Ediciones Universidad Católica.

Revista Docencia (2009), N° 38, año XIV. Número especial sobre evaluación estandarizada.

Schiefelbein, E. (1998). “Análisis del SIMCE y sugerencias para mejorar su impacto en la calidad”. En: La
realidad en cifras. Santiago: FLACSO, pp. 241-280.

Stobart, G. (2009). Determining validity in national curriculum assessments. Educational Research, 51(2),
161-179.

Stobart, G. (2010). Tiempos de pruebas: los usos y abusos de la evaluación. Madrid: Morata.

Thompson, S. J., Johnstone, C. J., Anderson, M. E., & Miller, N. A. (2005). Considerations for the Development
and Review of Universally Designed Assessments. CEO Technical Report 42.

Wandall, J. (2011). National Tests in Denmark – CAT as a Pedagogic Tool. Danish National School Agency.

11

View publication stats

También podría gustarte