Evaluar sin castigar, propuestas para reemplazar el SIMCE

TEMAS: , ,

El SIMCE es parte del alma del sistema escolar chileno y en su momento de gloria, las escuelas se etiquetaron como rojas, amarillas o verdes según los resultados que obtenían. El gobierno de Boric quiere terminar con este instrumento. La columna recorre su historia, revisa las últimas tendencias internacionales en evaluación y propone cuatro principios para promover más justicia que rendición de cuentas en las escuelas.


La semana pasada, en una decisión que ha generado una fuerte controversia, el Consejo Nacional de Educación[1] (CNED) rechazó la propuesta del Ministerio de Educación de suspender todas las pruebas SIMCE durante 2022. La razón principal por la que se proponía esta suspensión era que las prioridades del sistema educacional debían ser la recuperación de aprendizajes y el bienestar socioemocional de los y las estudiantes, objetivos que evidentemente se tensionan con la aplicación masiva de estas pruebas estandarizadas que, como veremos, tienen múltiples consecuencias sobre las comunidades escolares. El MINEDUC propuso reemplazar el SIMCE censal de este año por un estudio muestral que permitiera tener un panorama nacional de los aprendizajes. Se propuso también que estas pruebas muestrales fueran complementadas por una evaluación voluntaria aplicada por los propios colegios (denominada Diagnóstico Integral de Aprendizajes – DIA) y que permite que los y las docentes cuenten con información de manera mucho más oportuna que el SIMCE, el cual requiere varios meses para reportar resultados[2].

El CNED no aprobó esta idea y resolvió la aplicación del SIMCE en al menos 4to básico y 2do medio, en Lenguaje y Matemáticas[3]. Como consecuencia, al final de uno de los años más difíciles y estresantes para el sistema educacional, y a diferencia de lo ocurrido en 2020 y 2021 (donde sí se suspendió esta evaluación debido a la crisis sanitaria) dedicaremos nuevamente tiempos y recursos cuantiosos a aplicar la prueba SIMCE.

“Este tipo de políticas funciona esencialmente en base a la desconfianza, amenaza y presión a los actores y la más “extrema” de sus expresiones es el cierre de escuelas según su desempeño”

Si bien existe un grupo minoritario de actores políticos y educacionales que ha celebrado la decisión[4] (bajo el argumento principal de que gracias a ella tendremos información indispensable para tomar decisiones en este período, en la política educativa y en las escuelas), lo cierto es que todo parece indicar que el camino tomado por el CNED decretó la muerte definitiva de un instrumento de política que enfrentaba hace tiempo serios problemas de legitimidad y un fuerte cuestionamiento respecto a su utilidad. En las siguientes líneas describimos por qué creemos que estamos de manera ineludible frente al fin del SIMCE[5] tal como lo conocemos (una prueba censal de alta intensidad, fuertes consecuencias y escaso uso pedagógico) y por qué nos parece central complejizar el debate saliendo del esquema SIMCE/NO SIMCE, priorizando la pregunta sobre cuál es el sistema de evaluación que necesita Chile y sus comunidades educativas. Este debate es esencial dado que el gobierno de Gabriel Boric se comprometió a presentar una reforma en este tema durante 2022. Antes de abordar los desafíos de futuro revisaremos brevemente la historia de un instrumento que ha sido parte central del modelo educativo que se ha ido conformando en nuestro país[6].

EL ROL MEDULAR DEL SIMCE EN EL SISTEMA EDUCATIVO CHILENO

La evaluación es una herramienta constitutiva del proceso educacional, y un componente central dentro de la sala de clases y a nivel del sistema escolar. La evaluación permite monitorear el progreso del aprendizaje de los y las estudiantes, para luego apoyarlos con medidas pertinentes y oportunas. Al mismo tiempo, la evaluación define qué aspectos del aprendizaje son observados con más atención por los docentes o por otros agentes externos al centro educativo y, por tanto, tiene una enorme repercusión en lo que se enseña y aprende (Baird et al. 2017). Además, si bien la evaluación debe considerar diversos elementos técnicos en su desarrollo, es también una actividad social cargada de valores y su validez e impacto en el sistema están mediados por factores socioculturales, tales como la percepción sobre sus usos y efectividad, o la construcción de identidades y relaciones en torno a la evaluación (Elwood & Murphy, 2015).

El SIMCE ha sido la principal estrategia de evaluación de aprendizajes promovida por el estado chileno y una de las políticas más consistentes y determinantes para la práctica escolar en las últimas tres décadas. Esta prueba dio sus primeros pasos en plena dictadura y fue desde el comienzo entendida como una pieza angular de la creación de un “mercado educativo”: si las familias iban a elegir las escuelas libremente, debían contar con un indicador de eficacia. Esto además ayudaría a movilizar a las comunidades, que buscarían un mejor resultado con sus estudiantes para así sostener su matrícula y, por tanto, su financiamiento. Siguiendo la marcha de sistemas como Estados Unidos e Inglaterra (ver recuadro), en las décadas siguientes esta lógica de “evaluación para el mercado” fue complementándose y sofisticándose, en el marco de lo que se ha denominado la “rendición de cuentas con altas consecuencias”, a través de la cual se asocian importantes incentivos y sanciones a los resultados de las evaluaciones nacionales (Hargreaves et al. 2001; Sahlberg, 2016). Este tipo de políticas funciona esencialmente en base a la desconfianza, amenaza y presión a los actores y la más “extrema” de sus expresiones es el cierre de escuelas según su desempeño (De la Torre & Gwynne, 2009).

La siguiente tabla sintetiza algunos de los principales hitos que definen la historia del SIMCE. En ella puede apreciarse cómo este instrumento fue ampliando su complejidad e incidencia en el sistema educacional:

Tabla 1

La historia del SIMCE

1967 – 1986Se aplican en Chile diferentes pruebas que se consideran precursoras del SIMCE. En orden cronológico: Prueba Nacional (Mineduc), Programa de Evaluación del Rendimiento escolar (PER de la Pontificia Universidad Católica de Chile), Sistema de Evaluación de la Calidad de la Educación (SECE del Mineduc)
1988El SIMCE se aplica por primera vez, consolidando los esfuerzos realizados en las evaluaciones precursoras. La Pontificia Universidad Católica de Chile está a cargo de su diseño, aplicación y análisis. Sus resultados son privados para las escuelas.
1992El SIMCE se traspasa al Mineduc y se desarrolla buscando cumplir con el mandato de la LOCE (Ley Orgánica Constitucional de Enseñanza).
1995Por primera vez se publican resultados SIMCE de las escuelas en los diarios de circulación nacional.
1996Se implementa el Sistema Nacional de Evaluación de Desempeño de Excelencia (SNED), que consiste en un beneficio económico para docentes y asistentes de la educación asociado principalmente a resultados SIMCE.
2003Se convoca a un grupo de especialistas a revisar el SIMCE. A partir de esta revisión se intensifica la cantidad de pruebas aplicadas y se buscan mecanismos para potenciar el uso “adecuado” de sus resultados en las escuelas.
2008Se promulga la ley que crea una Subvención Escolar Preferencial, que establece un primer mecanismo de clasificación de escuelas en base a su resultado SIMCE.
2011Se promulga la Ley 20.529, que establece el Sistema Nacional de Aseguramiento de la Calidad de la Educación Parvularia, Básica y Media y su Fiscalización. Con este sistema, el SIMCE es empleado para clasificar a los establecimientos según su desempeño en estas pruebas, pudiendo perder el reconocimiento oficial ante malos resultados persistentes.
2015Se convoca a un segundo grupo de especialistas a revisar el SIMCE. A partir de esta revisión, se consolida la idea de restringir la publicación de datos por escuela, de potenciar la evaluación formativa y se reduce la cantidad de pruebas censales de 14 a 9 eliminando, por ejemplo, la prueba de 2do básico de lectura.
2019 – 2021Las pruebas SIMCE dejan de ser aplicadas a nivel nacional, debido al estallido social de octubre del 2019, y luego por la crisis sanitaria provocada por el COVID-19. Se suspenden también de esta manera las consecuencias de esta evaluación. 
2021El Consejo Nacional aprueba un nuevo plan que rige la aplicación del SIMCE entre los años 2021 y 2026, en el que se vuelve a intensificar y expandir las pruebas SIMCE, retomando la aplicación anual de las pruebas censales de lenguaje y matemáticas en 8º básico y la prueba de escritura 6º básico, junto con incorporar nuevamente la aplicación censal de la prueba de lectura en 2º básico.
2022El Mineduc propone mantener la suspensión de las pruebas SIMCE considerando el contexto de crisis derivado de la pandemia por COVID 19 y aplicar de manera muestral pruebas en 4to básico y 2do medio. Esto último es observado por el CNED, forzando a mantener la aplicación censal de las pruebas de 4to básico y 2do medio.
Fuente: elaboración propia

De acuerdo a la definición oficial vigente, el propósito principal del SIMCE es “contribuir al mejoramiento de la calidad y equidad de la educación, informando sobre los logros de aprendizaje de los estudiantes en diferentes áreas de aprendizaje del currículo nacional, y relacionándolos con el contexto escolar y social en el que estos aprenden”. Pero lo cierto es que el SIMCE ha sido y es usado oficialmente para múltiples objetivos en los distintos niveles del sistema: para proveer incentivos económicos, para fijar las metas de los directores de escuela, para clasificar escuelas y establecer comparaciones, para sancionar a los establecimientos que no tienen un buen desempeño, para definir la focalización de distintos programas de apoyo, para destacar “casos exitosos”, y un largo etcétera (Flórez, 2013; Falabella, 2020; Meckes & Carrasco, 2010).

Según un estudio de IIPE-UNESCO (2021), uno de los principales problemas del SIMCE es que se orienta a estos múltiples propósitos simultáneamente y no logra cumplir bien con ninguno. Además, ha existido un claro desbalance en la fuerza relativa que han tenido estos diferentes usos, imponiéndose muy claramente la lógica de control y “estado evaluador” por sobre el uso pedagógico de los resultados de estas pruebas (Flórez, 2015).

CONSECUENCIAS Y LIMITACIONES DEL SIMCE: LO QUE DICE LA EVIDENCIA

El debate sobre los efectos y consecuencias que tienen las evaluaciones de aprendizaje ha capturado la atención de investigadores en todo el mundo. La evidencia nacional e internacional tiende a converger en que las evaluaciones con altas consecuencias tienen efectos negativos en la enseñanza, incluyendo la sobre focalización en los contenidos evaluados, el empobrecimiento de las prácticas de enseñanza en función del formato y contenido de las evaluaciones, e incluso el uso sistemático de trampas o engaños para mejorar los resultados (Hannaway & Hamilton, 2008; Berliner, 2011; Falabella & Opazo, 2014; Meckes et al., 2016; Baird et al., 2017;). También se han observado efectos negativos en la percepción del trabajo docente, tales como la sensación de agobio, la estigmatización de la labor de algunas escuelas, y el debilitamiento del carácter profesional de la docencia y su autonomía (Berryhill et al., 2009; Falabella & Opazo, 2014; Hopfenbeck et al. 2015; Falabella, 2020).

“Debería derogarse la norma que hoy hace que una escuela pueda ser cerrada por su resultado deficiente en el SIMCE”

La investigación sobre potenciales efectos positivos de las evaluaciones con consecuencias en el aprendizaje arroja resultados controversiales (Coe & Sahlgren, 2014). Mientras en una revisión realizada por UNESCO (2017) se concluye que no hay indicios claros de que presionar a las escuelas por resultados vía evaluaciones externas permita mejorar el aprendizaje, investigadores como Lee (2008), Burgess (2013) y Bergbauer et al. (2018) sí reportan un efecto positivo en el aprendizaje, aunque estos efectos deben observarse con cautela debido a que en general no considerarían un análisis de largo plazo (Coe & Sahlgren, 2014) y a que pueden enmascarar prácticas que “inflan” artificialmente el desempeño de los estudiantes (Hofflinger & von Hippel, 2020). De hecho, los datos de PISA 2018 muestran que un eventual impacto positivo en resultados de aprendizaje derivado de usar las evaluaciones como mecanismo de rendición de cuentas, se diluye a nivel de sistema cuando se incorpora la variable del nivel socioeconómico de los estudiantes (OECD, 2020).

De manera consistente con la evidencia que releva los efectos negativos de las pruebas estandarizadas como el SIMCE, diversos actores del sistema educacional chileno han cuestionado esta política, remeciendo su legitimidad tanto en la opinión pública como al interior de las escuelas (Acuña et al., 2019; Florez & Oyarzún, 2016)[7]. Esto puede apreciarse, por ejemplo, en que más de la mitad de los directores de escuela encuestados por el estudio “La Voz de los Directores” (UDP, 2019) está en desacuerdo con la idea de “que los establecimientos clasificados como de desempeño insuficiente por 4 años consecutivos pierdan el reconocimiento oficial y los cierren”, o también en que la medida de suspender el SIMCE durante la pandemia fue la más valorada por los directores escolares (incluso más que la entrega de materiales pedagógicos o la adaptación de la alimentación escolar) (Montecinos et al. 2020).

ENTONCES, DESPUÉS DEL SIMCE ¿QUÉ?

La respuesta a la pregunta sobre cuál es la política de evaluación más pertinente para la fase actual de la educación en Chile debe tomar en cuenta la investigación nacional e internacional reciente, así como también las necesidades de un sistema escolar cuyo contexto está marcado por un claro estancamiento en su desempeño y fuertes desigualdades, problemas que se han agravado por la crisis socioeducativa provocada por la pandemia.

A partir de estas consideraciones, creemos que un nuevo sistema de evaluación debe responder a cuatro principios fundamentales:

  1. Evaluar para apoyar la enseñanza y potenciar el aprendizaje como foco central: el sistema de evaluación nacional debe tener como propósito principal apoyar las acciones de docentes, directivos y de autoridades locales y nacionales a través de la entrega de información válida y confiable para potenciar el aprendizaje de acuerdo a los énfasis del currículum nacional. Esto implica que los dispositivos de evaluación deben ser diseñados e implementados privilegiando su uso pedagógico (lo que supone, por ejemplo, enriquecer el tipo de información con la que puedan contar las escuelas, incluyendo diversas áreas del curriculum y objetivos de aprendizaje que tradicionalmente son más complejos de evaluar en pruebas censales).
  2. Evaluar sin castigar: priorizar el apoyo por sobre otros propósitos implica necesariamente suspender todos aquellos usos y consecuencias de las evaluaciones que sabemos que generan efectos negativos en el proceso educacional. La consecuencia inmediata de esto es que debería derogarse la norma que hoy hace que una escuela pueda ser cerrada por su resultado deficiente en el SIMCE. También implica revisar el uso público que se hace de las pruebas, terminando con los ranking o clasificaciones públicas que poco ayudan a la mejora y generan presión y estigmatización. Dado que las consecuencias de esta medición son múltiples y están mandatadas en distintos cuerpos legales (leyes 19.410, 20.370, 20.248, 20.529), habrá que modificar varias normas para construir un sistema de evaluación coherente[8].
  3. Evaluar para tener información útil, pertinente y oportuna: el sistema de evaluación, a diferencia de lo que ocurre hoy, debe tener múltiples niveles y distinguir instrumentos para distintos objetivos. Los componentes básicos de este nuevo sistema deberían ser, por una parte, estudios evaluativos que permitan conocer cómo se encuentra el país en distintas áreas de aprendizaje y niveles educativos (pruebas muestrales) y, por otra, evaluaciones realizadas a nivel de cada establecimiento o territorio (pruebas como el DIA[9] u otra desarrollada a nivel local), que ayuden a que los docentes puedan tomar decisiones pertinentes y a tiempo, en concordancia con sus necesidades pero con la posibilidad de mirar el aprendizaje de sus estudiantes dentro de un contexto más allá de la sala de clases. Fomentar y desarrollar capacidades para la evaluación local y contextualizada debería ser una prioridad en la concreción de este principio. Junto con la distinción de niveles, se debe incentivar y apoyar el uso efectivo de la información que se genera, lo que es un elemento central, pero que tiende a ser insuficientemente logrado (Datnow & Hubbard, 2015; Mandinach & Schildkamp, 2021). Consideramos que la incorporación de pruebas censales podría ser viable sólo después de que se han desactivado los dispositivos que hacen un uso punitivo de la evaluación y que generan las consecuencias negativas que hemos descrito[10]
  4. Evaluar para profesionalizar la docencia: Como se señaló, las evaluaciones con consecuencias tienen un impacto negativo en el desarrollo de la docencia como profesión autónoma y competente. El nuevo sistema debe bregar porque la evaluación desarrollada por los y las docentes sea la fuente principal para la toma de decisiones en el aula y un elemento central en las discusiones pedagógicas en la escuela, a nivel local y también nacional, cuestión que hoy no ocurre dado el excesivo énfasis que se ha puesto desde la política educacional en la evaluación externa. Para ello se debe poner en marcha un completo plan para fortalecer las capacidades docentes para desarrollar evaluaciones, interpretar y usar sus resultados, tanto a nivel de la formación inicial como continua, así como también apoyar la tarea evaluativa de maestros y maestras con apoyos, instrumentos, tiempos no lectivos y orientaciones ad-hoc. El sentido de este principio es devolver a los y las docentes su rol como los profesionales más competentes y válidos para observar y analizar el aprendizaje de sus estudiantes y tomar las medidas que les permitan avanzar en su proceso de aprendizaje dentro de la sala de clases.

Los principios que acá proponemos pueden ser un punto de partida para una política evaluativa funcional a la idea de contar con un sistema de educación justo, con foco en el aprendizaje de los y las estudiantes y que apoya la labor profesional docente. Para ello, es fundamental hacerse cargo de las necesidades actuales del sistema escolar (más apoyo y revalorización de la profesión docente, menos presión y desconfianza)  y atender también a las lecciones que deja la evidencia respecto a los múltiples efectos nocivos que ha tenido un sistema fracasado como el SIMCE.  El gobierno del presidente Boric  y el MINEDUC tienen acá una buena oportunidad de concretar su agenda de cambios, propiciando un debate amplio sobre este tema con los diversos actores del sector, dando un fuerte protagonismo a las comunidades docentes.

RECUADRO

Cómo han evolucionado los sistemas de evaluación en el mundo

La experiencia internacional sobre evaluaciones de aprendizaje nacionales muestra dos tendencias claras. Por una parte, la cantidad de países que han decidido desarrollar un sistema nacional de evaluación (ya sea con pruebas muestrales o censales) ha aumentado sostenidamente: de 70 países entre 1990 y 1999, a 111 entre 2000 y 2006, y a 135 entre 2007 y 2013 (Benavot & Köseleci, 2015). Por otra, a pesar de la diversidad de modelos, los sistemas escolares han ido tendiendo a privilegiar evaluaciones nacionales de carácter muestral, que buscan apoyar la toma decisiones a nivel agregado, sin consecuencias formales sobre docentes y escuelas (Clarke & Luna-Bazaldua, 2021; UNESCO, 2019). En efecto, de acuerdo a los datos reportados por PISA 2018 (OECD, 2020) el uso de evaluaciones con fines de responsabilización por resultados (por ejemplo, para hacer comparaciones entre escuelas o para hacer juicios sobre la eficacia docente) disminuyó considerablemente entre 2012 y 2018 entre los países participantes. Es el caso de países como Corea (Chung, 2017) o Islandia (Ministerio de Educación e Infancia, 2022), que han suprimido las pruebas censales con consecuencias, reemplazándolas por estudios muestrales o por materiales de evaluación que son administrados por docentes. Otros países como Inglaterra, Estados Unidos o Australia enfrentan fuertes cuestionamientos a sus sistemas evaluativos vigentes[11]. Pareciera que, luego de una etapa donde las evaluaciones se expandieron por el mundo y donde en muchos lugares se les asoció a altas consecuencias como hace el SIMCE, se ha decidido progresivamente limitar el peso relativo de estas pruebas y el alcance de sus consecuencias.




NOTAS Y REFERENCIAS

[1] Organismo autónomo encargado de tomar algunas decisiones clave de la política educacional en nuestro país: https://www.cned.cl/

[2] Las evaluaciones a gran escala como el SIMCE están basadas en un censo a todos los estudiantes de un nivel escolar (pruebas censales) y suelen ser utilizadas para apoyar la toma de decisiones a nivel de sistema, de las escuelas o de estudiantes. También para responsabilizar a docentes, escuelas, autoridades u otros actores por los resultados de aprendizaje de sus estudiantes, al asociar incentivos o sanciones a estos resultados. Otras evaluaciones a gran escala basadas en muestras (pruebas muestrales), se realizan con el objetivo principal de monitorear la eficacia y la equidad de un sistema educativo (Muskin, 2017).

[3] Acá pueden leerse la argumentación entregada por este Consejo para fundamentar su decisión https://www.cned.cl/sites/default/files/072acdo_rex140_2022.pdf

[4] Ver por ejemplo: https://www.latercera.com/opinion/noticia/necesidad-del-simce/ZHVRMVQVPNB6JGSUWHQFHWPGOU/

[5] La idea del fin o caducidad de esta política no es nueva y ha estado continuamente presente en el debate educacional de los últimos años. Ver por ejemplo https://www.uahurtado.cl/academica-alejandra-falabella-sobre-simce-caduco-no-funciona-es-un-modelo-fracasado/ o https://www.elmostrador.cl/noticias/opinion/2022/05/05/fin-del-simce/

[6] En este ensayo se ilustra con mayor detalle tanto la configuración como las consecuencias de este “modelo educacional” https://terceradosis.cl/2021/11/14/educacion-lo-hemos-probado-todo-y-ahora-que/

[7] Un actor clave en este proceso ha sido la campaña “Alto al SIMCE”, cuyo despliegue e influencia se describe en este trabajo de Parcerisa y Villalobos (2021): https://www.scielo.cl/scielo.php?pid=S0718-50492021000100216&script=sci_arttext&tlng=en

[8] Estos cambios que proponemos implican también revisar la institucionalidad en la que opera el sistema de evaluación, para que instituciones relevantes en su desarrollo como el CNED tengan una composición y procedimientos que no pierdan conexión con la necesidades del sistema, como ha ocurrido últimamente.

[9] Detalles de esta evaluación pueden encontrarse en https://diagnosticointegral.agenciaeducacion.cl

[10] Cuando no se usan en un contexto de premios y sanciones, este tipo de pruebas (censales) tiene el valor de reportar resultados válidos y confiables a todas las comunidades educativas del país, siguiendo un principio de equidad respecto del tipo de información a la que esas comunidades pueden acceder.

[11] En Estados Unidos, la política de No Child Left Behind (NCLB) fue reemplazada en 2015 por Every Student Succeeds Act (ESSA) donde, si bien se mantienen las altas consecuencias asociadas a las pruebas, se flexibilizan los criterios para establecer metas de mejoramiento con un fuerte componente local, permite a los Estados limitar el tiempo de enseñanza dedicado a los exámenes y prohíbe la asociación entre desempeño docente y resultados de los y las estudiantes (Brown et al. 2016); pese a estos cambios, se estima que el sistema continuará siendo resistido por las comunidades educativas (Wang, 2017). En el caso de Inglaterra, los exámenes de fines de la Educación Secundaria y de ingreso a la educación Superior llevan suspendidos tres años y, si bien se ha propuesto retomar su aplicación regular en 2023, movimientos sociales y académicos plantean la necesidad urgente de reformar un sistema que estresa a estudiantes y docentes (Shaw & Nisbet, 2021). En el caso de Australia, con un sistema muy parecido al SIMCE, donde los resultado por escuela son públicos aunque para menos asignaturas, se constata una crítica a la utilidad de sus pruebas (Carter et al., 2018) y una profunda crisis en la enseñanza debido a una estampida de docentes que abandonan su carrera debido a la alta presión que enfrentan y la percepción de no ser valorados como profesionales. Precisamente esta semana se inicia un paro por estas razones en uno de los  estados más grandes del país.

REFERENCIAS

Acuña, F., Mendoza, M. & Rozas, T. (2019). El hechizo del SIMCE: sobre cómo ocultar la competencia escolar en nombre del aseguramiento de la calidad de la educación. Revista Chilena de Pedagogía, 2019, Vol. 1(1). 54-70.

Baird, J., Andrich, D. Hopfenbeck, T. & Stobart, G. (2017) Assessment and learning: fields apart?, Assessment in Education: Principles, Policy & Practice, 24:3, 317-350, DOI: 10.1080/0969594X.2017.1319337

Benavot, A. & Köseleci (2015). Seeking Quality in Education: The Growth of National Learning Assessments, 1990 – 2013. Background paper prepared for the Education for All Global Monitoring Report 2015, Education for All 2000-2015: achievements and challenges, UNESCO.

Bergbauer, Hanushek, & Woessmann (2018). Testing. NBER Working Paper 24836 Cambridge, MA: National Bureau of Economic Research.

Berliner, D. (2011). Rational responses to high stakes testing: The case of curriculum narrowing and the harm that follows. Cambridge journal of education, 41(3), 287-302.

Berryhill, J., Linney, J. A., & Fromewick, J. (2009). The effects of education accountability on teachers: Are policies too stress provoking for their own good? International Journal of Education Policy and Leadership, 4(5), 1–14.

Brown, C., Boser, U., Sargrad, S., & Marchitello, M. (2016). Implementing the Every Student Succeeds Act: Toward a Coherent, Aligned Assessment System. Center for American Progress.

Carter, D., Manuel, J., & Dutton, J. (2018). How do secondary school English teachers score NAPLAN?: A snapshot of English teachers’ views. Australian Journal of Language and Literacy, 41(3), 144-154.

Chung, Pearl J. 2017. The State of Accountability in the Education Sector of Republic of Korea. Background Paper for the 2017–18 Global Education Monitoring Report. Paris: UNESCO.

Clarke, M., & Luna-Bazaldua, D. (2021). Primer on Large-Scale Assessments of Educational Achievement. National Assessments of Educational Achievement series. Washington, DC: World Bank. doi:10.1596/978-1-4648-1659-8

Coe, R. and Sahlgren G.H, (2014) “Incentives and ignorance in qualifications, assessment, and accountability”. In G.H. Sahlgren (ed.) Tests worth teaching to: incentivising quality in qualifications and accountability. Centre for Market Reform of Education

Datnow, A., & Hubbard, L. (2015). Teachers’ use of assessment data to inform instruction: Lessons from the past and prospects for the future. Teachers College Record, 117(4), 1-26.

Elwood, J. & Murphy, P. (2015) Assessment systems as cultural scripts: a sociocultural theoretical lens on assessment practice and products, Assessment in Education: Principles, Policy & Practice, 22:2, 182-192, DOI: 10.1080/0969594X.2015.1021568

Falabella, Alejandra. (2020). Evaluaciones a Gran Escala: Una Historia Ecléctica. En A. Falabella y J. E García-Huidobro (Eds.). A 100 años de la ley de educación primaria obligatoria: la educación chilena en el pasado, presente y futuro (p.130-147). Facultad de Educación Universidad Alberto Hurtado.

Flórez, M. T. (2013). Análisis crítico de la validez del sistema de medición de la calidad de la educación (SIMCE). Reino Unido: Universidad de Oxford.

Flórez, T. (2015) Validity and equity in educational measurement: the case of SIMCE. Psicoperspectivas, 14(3), 31-44. DOI: 10.5027.

Flórez, M., & Vargas Oyarzún, G. (2016). Resultados Simce y Plan de Evaluaciones 2016-2020: nudos críticos y perspectivas de cambio. Cuaderno de Educación Nº 73. Universidad Alberto Hurtado.

Hannaway, J., & Hamilton, L. (2008). Performance-based accountability policies: Implications for school and classroom practices. Washington: Urban Institute and RAND Corporation.

Hargreaves, A. (2020) Large-scale assessments and their effects: The case of mid-stakes tests in Ontario. J Educ Change 21, 393–420. https://doi.org/10.1007/s10833-020-09380-5

Hofflinger, A., & von Hippel, P. T. (2020). Missing children: how Chilean schools evaded accountability by having low-performing students miss high-stakes tests. Educational Assessment, Evaluation and Accountability, 32(2), 127-152.

Hopfenbeck, T., Flórez Petour M. & Tolo, A. (2015) Balancing tensions in educational policy reforms: large-scale implementation of Assessment for Learning in Norway, Assessment in Education: Principles, Policy & Practice, 22:1, 44-60, DOI: 10.1080/0969594X.2014.996524

Mandinach, E. B., & Schildkamp, K. (2021). Misconceptions about data-based decision making in education: An exploration of the literature. Studies in Educational Evaluation, 69, 100842.

Meckes, L., y Carrasco, R. (2010) Two decades of SIMCE: an overview of the National Assessment System in Chile. Assessment in Education: Principles, Policy y Practice, 17(2), 233–248. DOI: 10.1080/09695941003696214

Meckes, L., Taut, S., & Espinoza, A. M. (2016). Lectura en primer ciclo básico: ¿Cómo influye el SIMCE en las estrategias de las escuelas? Midevidencias, 10, 1-5

Ministerio de Educación e Infancia de Islandia (29 de junio de 2022). Samræmd könnunarpróf ekki lögð fyrir. Recuperado de: https://www.stjornarradid.is/efst-a-baugi/frettir/stok-frett/2022/02/22/Samraemd-konnunarprof-ekki-logd-fyrir/

Montecinos, C., Muñoz, G., Valenzuela, J. P., Vanni, X., & Weinstein, J. (2020). La Voz de los Directores y Directoras En La Crisis Covid-19. Programa de Liderazgo Educativo de la Facultad de Educación U. Diego Portales, CIAE/IE Universidad de Chile, Centro Líderes Educativos Pontificia Universidad Católica de Valparaíso. Disponible en: https://www.lidereseducativos.cl/wp-content/uploads/2020/09/IE-ENCUESTA-OK3.pdf

Muskin, J. A. (2017). Continuous assessment for improved teaching and learning: A critical review to inform policy and practice. UNESCO International Bureau of Education. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000255511

OECD (2020), PISA 2018 Results (Volume V): Effective Policies, Successful Schools, PISA, OECD Publishing, Paris, https://doi.org/10.1787/ca768d40-en.

Rogers, S. L., Barblett, L., & Robinson, K. (2016). Investigating the impact of NAPLAN on student, parent and teacher emotional distress in independent schools. The Australian Educational Researcher, 43(3), 327-343.

Shaw, S., & Nisbet, I. (2021). Attitudes to Fair Assessment in the Light of COVID-19. Research Matters, 31, 6-21.

UNESCO (2017). Global Education Monitoring Report 2017/8: Accountability in education: Meeting our commitment. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000261016

UNESCO (2019). The promise of large-scale learning assessments: Acknowledging limits to unlock opportunities. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000369947/PDF/369947spa.pdf.multi

Wang, Y. (2017). The social networks and paradoxes of the opt-out movement amid the Common Core State Standards implementation.

Un comentario de “Evaluar sin castigar, propuestas para reemplazar el SIMCE

  1. Luis Navarro dice:

    Buena síntesis de los principales debates sobre el SIMCE y su trayectoria. En contraste, las propuestas resultan algo magras pues merecen más espacio. Queda claro que se trata de principios enfocados en el uso pedagógico (en el establecimiento) de los informes de resultados de aprendizaje estimados a través de evaluaciones en dispositivos nacionales. Falta, sin embargo, hacerse cargo de la relación entre estas evaluaciones y la evaluación de las condiciones de operación (o los procesos) en que se «producen» estos resultados. Falta también avanzar en la articulación con los niveles meso y macro del sistema escolar. Falta, por último, revisar la relación entre políticas e instrumentos de evaluación y políticas y herramientas de apoyo.

Deja un comentario