SciELO - Scientific Electronic Library Online

 
vol.17Introducción. Treinta años de evaluaciones educativas en América Latina: características, límites y desafiosTrês décadas de avaliação educacional na Colômbia índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Compartilhar


Jornal de Políticas Educacionais

versão On-line ISSN 1981-1969

J. Pol. Educ-s vol.17  Curitiba  2023  Epub 08-Abr-2024

https://doi.org/10.5380/jpe.v17i0.92216 

DOSSIÊ: 30 AÑOS DE EVALUACIONES EDUCATIVAS EN AMÉRICA LATINA. CARACTERÍSTICAS, LÍMITES Y DESAFÍOS

La institucionalización de la evaluación educativa en Argentina: disputas por sus sentidos y usos

A institucionalização da avaliação educacional na Argentina: disputas sobre seus significados e usos

The institutionalization of educational evaluation in Argentina: disputes over its meanings and uses

1Doctora en Educación. Investigadora docente del área de Educación de la Universidad Nacional de General Sarmiento y Directora de la Licenciatura en Educación de dicha universidad. Buenos Aires. Argentina

2Doctora en Educación. Docente e Investigadora en la Facultad de Filosofía y Letras de la Universidad de Buenos Aires y en la Escuela de Humanidades de la Universidad Nacional del Oeste. Buenos Aires. Argentina

3Magister en Estudios Sociales Latinoamericanos. Profesora en Ciencia Política de la Facultad de Ciencias Sociales de la UBA. Es docente en el Instituto Superior del Profesorado Dr. Joaquín V. González e investigadora en el departamento de educación del Centro Cultural de la Cooperación Floreal Gorini. Buenos Aires. Argentina


Resumen

Los 30 años de institucionalización de las evaluaciones educativas en Argentina permiten considerar que, con un despliegue heterogéneo respecto de las decisiones sobre la materia, se avanzó en su instalación como política educativa nacional y federal. El artículo reconstruye diferentes períodos de la evaluación educativa para problematizar sus alcances, sentidos y usos. El enfoque que lo orienta es de tipo cualitativo, a partir del trabajo con fuentes oficiales y bibliografía especializada. Los Operativos Nacionales de Evaluación surgieron en 1993 en consonancia con los proyectos políticos neoliberales instalados en parte de Latinoamérica. Desde entonces, fueron adquiriendo variada relevancia según los gobiernos. En 2016 con la llegada de un gobierno de orientación de derecha, se le otorgó fuerte centralidad a la política de evaluación, buscando generar un sentido inaugural y de transparencia. Con el cambio político en 2019 se buscó redefinir sus alcances e implementar instrumentos complementarios desde una perspectiva integral. El artículo plantea que las políticas de evaluación sostenidas en los últimos años fueron instalando con más fuerza la necesidad de contar con evidencia oportuna para la toma de decisiones en los diferentes niveles de gobierno, muy a contramano de los enunciados que versan sobre la falta de “cultura evaluativa”. Asimismo, reflexiona sobre lo complejo de incorporar la dimensión investigativa y de la información, en tanto ello se inscribe en discusiones más amplias sobre el derecho a la educación.

Palabras clave: Evaluación Educativa; Institucionalización; Disputas de Sentidos; Usos Políticos y Pedagógicos

Resumo

Os 30 anos de institucionalização das avaliações educacionais na Argentina permitem considerar que, com um desdobramento heterogêneo em relação às decisões sobre o tema, houve avanços na sua instalação como política educacional nacional e federal. O artigo reconstrói diferentes períodos da avaliação educacional para problematizar seu alcance, significados e usos. A abordagem que o orienta é qualitativa, baseada no trabalho com fontes oficiais e bibliografia especializada. As Operações Nacionais de Avaliação surgiram em 1993, em consonância com os projetos políticos neoliberais instalados em parte da América Latina. Desde então, elas adquiriram relevância variável, dependendo do governo. Em 2016, com a chegada de um governo de direita, a política de avaliação ganhou forte centralidade, buscando gerar um senso inaugural de transparência. Com a mudança política em 2019, o objetivo era redefinir seu escopo e implementar instrumentos complementares a partir de uma perspectiva abrangente. O artigo argumenta que as políticas de avaliação sustentadas nos últimos anos estavam instalando mais fortemente a necessidade de evidências oportunas para a tomada de decisões em diferentes níveis de governo, bem ao contrário das declarações que tratam da falta de "cultura de avaliação". Ele também reflete sobre a complexidade de incorporar a dimensão da pesquisa e da informação, uma vez que ela faz parte de discussões mais amplas sobre o direito à educação.

Palavras-chave: Avaliação Educacional; Institucionalização; Disputas de Sentidos; Usos Políticos e Pedagógicos

Abstract

The 30 years of institutionalization of educational assessments in Argentina allow us to consider that, with a heterogeneous deployment regarding decisions on the issue, progress was made in its installation as a national and federal educational policy. The article reconstructs different periods of educational assessment in order to problematize its scope, meanings and uses. The approach that guides it is qualitative, based on the official sources and specialized bibliography. National Assessment Operative emerged in 1993 in line with the neoliberal political projects installed in part of Latin America. Since then, they have acquired varying relevance depending on the government. In 2016, with the arrival of a rightwing government, the assessment policy was given strong centrality, seeking to generate an inaugural sense of transparency. With the political change in 2019, the aim was to redefine its scope and implement complementary instruments from a comprehensive perspective. The article argues that the assessment policies sustained in recent years were installing more strongly the need for timely evidence for decision making at different levels of government, quite contrary to the statements that deal with the lack of "assessment culture". It also reflects on the complexity of incorporating the research and information dimension, as it is part of broader discussions on the right to education.

Keywords: Educational Evaluation; Institutionalization; Disputes of Senses; Political and Pedagogical Uses

Introducción4

El presente artículo se propone trazar un recorrido sobre la evaluación educativa en la Argentina de los últimos treinta años, a partir de un trabajo cualitativo basado en el análisis documental de fuentes oficiales y bibliografía especializada, Como resultado, se muestra en primer lugar que la evaluación educativa tomó la forma casi exclusiva de evaluación de aprendizajes y en segundo lugar, que más allá de un camino errático y marcado por distintas intensidades respecto a su relevancia, objetivos e incluso instrumentos, sin dudas se trata de una política altamente institucionalizada. En este sentido, a contramano de los enunciados que versan sobre la falta de “cultura evaluativa”, las políticas de evaluación sostenidas fueron instalando, cada vez con más fuerza, la necesidad de contar con evidencia oportuna para la toma de decisiones en los diferentes niveles de gobierno y a escala institucional.

Sostendremos aquí que en estos 30 años de aplicación de pruebas estandarizadas de aprendizajes a nivel nacional se observa un recorrido de institucionalización de la política de evaluación nacional y federal. En este marco, mientras hasta el 2015 se observa un trayecto sostenido y sin cambios cualitativamente sustantivos, desde entonces identificamos dos momentos que, por las definiciones conceptuales, técnicas y políticas producidas en el marco de los cambios en la orientación política de los gobiernos nacionales, es preciso caracterizar en particular.

Surgimiento e institucionalización de las evaluaciones nacionales de aprendizaje en Argentina

Las evaluaciones estandarizadas de aprendizaje comenzaron a implementarse en Argentina desde 1993 con un despliegue heterogéneo, aunque ininterrumpido, logrando cada vez mayor instalación en la agenda educativa y pública.

Estas evaluaciones surgieron en consonancia con los proyectos políticos neoliberales que se instalaron en buena parte de Latinoamérica. En este contexto, mediante la Ley Federal de Educación (N° 24.195/1993) se implementó una reforma del sistema educativo, que por primera vez modificó su estructura académica 44 5 y redefinió las responsabilidades del gobierno de la educación, el cual se inscribe en un proceso más amplio de reforma del Estado y de descentralización, privatización y desregulación de los servicios sociales.

Esta misma ley incluye un apartado, novedoso por entonces, sobre “la calidad de la educación y su evaluación” y define “evaluar el funcionamiento del sistema educativo en todas las jurisdicciones, niveles, ciclos y regímenes especiales, a partir del diseño de un sistema de evaluación y control periódico de la calidad” (art. 53, k), bajo la coordinación del Ministerio de Educación nacional e integrado por unidades jurisdiccionales de las provincias y el Gobierno Autónomo de la Ciudad de Buenos Aires.

Entre las atribuciones otorgadas al Ministerio, se destaca la de promover acciones para el mejoramiento continuo de la calidad de la educación en nuestro país. En esta línea, en 1993 se iniciaron una serie de acciones entre las que se encuentra la generación de sistemas de información y evaluación que proporcionen las bases para la definición de políticas, la planificación, la gestión y la supervisión adecuada del sistema educativo. De esta manera surge la necesidad de diseñar e instrumentar el Sistema Nacional de Evaluación de Ia Calidad, que busca a través de la evaluación de logros académicos de los y las estudiantes suministrar información válida y confiable sobre cuánto es lo que aprende y qué es lo que aprende en cada recorrido por el Sistema Educativo y cuáles son los factores asociados a ese aprendizaje (MINISTERIO DE EDUCACIÓN, s/a).

En ese mismo año, comenzaron a implementarse los Operativos Nacionales de Evaluación (ONE) 6 y, desde 2016, con algunas modificaciones que se analizarán en el siguiente apartado, se denominan pruebas Aprender. Sin embargo, los rasgos centrales han permanecido, en tanto en Argentina las evaluaciones estandarizadas de aprendizajes se construyen tomando como referencia los diseños curriculares nacionales y jurisdiccionales y se definen federalmente los contenidos y capacidades a evaluar. En todas las ediciones se administran cuestionarios complementarios a estudiantes participantes, equipos directivos de las escuelas y, en algunos casos, se han sumado encuestas a docentes. Como asunto central, estas evaluaciones no son de certificación y sus resultados no tienen consecuencias directas para las escuelas ni para estudiantes, y por lo mismo se resguarda su confidencialidad. Aunque, ha habido discursos que han traccionado a utilizarlas para construir rankings entre instituciones según sus resultados, y por lo mismo temor y resistencias (Las controversias que plantea la difusión de los resultados y sus variadas modalidades, serán abordadas en las discusiones finales.)

En la línea de la producción de información sobre el sistema educativo, desde 1996 se implementa el Relevamiento Anual (RA), un operativo de carácter censal y anual, cuya unidad de relevamiento y análisis son las unidades educativas. Se trata de la fuente oficial de información sobre las principales variables del sistema. La implementación se ajusta a un glosario, criterios metodológicos y procedimientos comunes que aseguran la comparabilidad de los datos en adecuadas condiciones de cobertura y calidad. Como se verá a continuación, a diferencia del camino heterogéneo que tuvo la evaluación educativa, el RA fue sostenido sin cambios significativos por casi tres décadas, más allá de ajustes técnicos que se fueron realizando en el marco de la Red Federal de Información, que reúne a los equipos especializados de las 24 jurisdicciones y el equipo nacional.

Ahora bien, el análisis retrospectivo de los 30 años de historia de las evaluaciones estandarizadas en Argentina, permite dar cuenta de los avances en su instalación como política educativa nacional y federal. Más allá las resistencias iniciales - particularmente de sindicatos docentes y especialistas y de algunas jurisdicciones con intensidad variable en diferentes períodos, hubieron esfuerzos sostenidos para constituir equipos nacionales y jurisdiccionales que fortalecieron progresivamente esta línea de trabajo y sus necesarios anclajes territoriales.

En este proceso de institucionalización, también las evaluaciones fueron adquiriendo variada relevancia en el discurso político y educativo, así como también continuidades y rupturas entre los distintos gobiernos.

En cuanto a la organización político administrativa, la dependencia a cargo de las evaluaciones estandarizadas dentro del Ministerio de Educación y su jerarquía fue variando. En 1993 se creó la Dirección Nacional de Evaluación, en el 2000 el Instituto de Evaluación de la Calidad de la Educación y en el 2003 la Dirección Nacional de Investigación y Evaluación de la Calidad Educativa (DiNIECE).

En esta línea, puede advertirse un despliegue heterogéneo respecto de las decisiones sobre qué, cuándo, cómo y para qué evaluar. En cuanto a los ONE (véase cuadro 1), desde el año 1993 al 2000 se realizaron operativos todos los años; en 2001 y 2002 se interrumpieron por la crisis política y económica que atravesaba el país 7, y desde el 2003 al 2007 fueron bianuales y luego, trianuales hasta 2016.

Cuadro 1 Evaluaciones nacionales de aprendizaje en Argentina 

ONE Aprender
Nivel Año/grado Materia 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022 2023
3ero Matemática M M M M M M M M M M M M
Lengua M M M M M M M M M M M M
P Ciencias Sociales M M M M M
Ciencias Naturales M M M M M
r 4to Producción escrita M
6to Matemática M M M M C M M M M M C c C M C
m Lengua M M M M c M M M M M C c C M
a Ciencias Sociales M M M M c M M M M C
r Ciencias Naturales M M M M c M M M M C
i 7mo Matemática M M M M M M M
0 Lengua M M M M M M M
Ciencias Sociales ME M M M M M
Ciencias Naturales ME M M M M M
2do/3ero Matemática M M M M M M M M M M M M
s Lengua M M M M M M M M M M M M
e Ciencias Sociales M M M M
c Ciencias Naturales M M M M
u
n
5to/6to Matemática M M M M C C C c M M M C C C c c C
Lengua M M M M C C C c M M M C C C c c C
d Ciencias Sociales ME ME M M c c c
a r
i
Ciencias Naturales ME ME M M c c c M
Física ME ME c
Química ME ME c
0 Geografía ME ME c
Historia ME ME c
Educación Ciudadana M
Referencias M Muestra C Censo ME Muestra experimental

Fuentes: Informes de resultados ONE - Gaminian (2015) - https://www.argentina.gob.ar/educacion/evaluacion-informacion-educativa/aprender

En cuanto al Aprender, comenzaron a implementarse anualmente en ambos niveles educativos en 2016 y 2017, pero desde 2018 adquirieron una frecuencia bianual, a excepción de la interrupción de evaluaciones estandarizadas en 2020 debido a la pandemia, que obligó a una frecuencia trianual, y que en 2022, se definió evaluar (anualmente) también en educación primaria.

Como puede observarse en el Cuadro 1, las definiciones en torno a la periodicidad, áreas y años/niveles educativos evaluados, han tenido un recorrido errático, que dificulta posibles clasificaciones y sistematización. Esto mismo se observa ante los límites para el aprovechamiento de la información producida en los operativos y la comparabilidad de sus resultados.

Volviendo a los ONE, si bien se fueron difundiendo informes sobre el desempeño de las y los estudiantes en cada operativo, no es posible construir una serie histórica, como sí lo es con el Relevamiento Estadístico Anual. La principal razón de esta imposibilidad es el cambio de criterio entre los operativos de 2003 y 2005, sin haber “recalculado los resultados anteriores para permitir comparaciones” (GANIMIAN, 2015). Aunque también en algunos momentos puntuales, prevalecía el interés del carácter diagnóstico de estas evaluaciones, que eran construidas con criterios específicos en sus nuevas ediciones.

El cambio de ciclo político, con la llegada de un gobierno posneoliberal en 2003, imprimió transformaciones en el plano de las políticas educativas. En cuanto al marco legal, se derogó la Ley Federal y se sancionó una nueva Ley de Educación Nacional 26.206/2006 (LEN), la cual resitúa la responsabilidad del Estado nacional en el cumplimiento del derecho a la educación y aún en un contexto de gobierno federal, se repusieron los criterios comunes para la formación en los diferentes niveles. En cuanto a la política de información y evaluación del sistema educativo, se sostiene que debe ser continua y periódica, para la toma de decisiones tendiente al mejoramiento de la calidad de la educación (Art.94). Se propone también una visión amplia en cuanto a sus objetos (Art.95), como será retomado en el análisis del período más reciente.

En este contexto, se perciben algunas tensiones internas entre continuar implementando las evaluaciones estandarizadas, pero con cierta incomodidad a la hora de presentar sus resultados, lo cual ha suscitado críticas. Por caso, no hubo difusión de la cobertura de las pruebas desde el 2005, y no se publicaron los resultados por provincia, ni por sector de gestión ni por ámbito de los ONE 2013 (GANIMIAN, 2015). Asunto, que vuelve a poner de relevancia las dificultades existentes para la comparabilidad de los resultados de las evaluaciones nacionales de aprendizaje y ciertas distinciones o precisiones necesarias para el aprovechamiento de la información producida en estos costosos operativos.

Finalmente, resulta sintomático que los resultados de los ONE desarrollados entre 1993 y 2009 no estén disponibles, ni esté publicada ninguna información sobre los mismos en la página oficial del Ministerio de la Nación. Los únicos datos disponibles sean los del último operativo (2013), que en realidad fueron escalados 8 para construir desde allí la nueva serie de Aprender. Este hecho da cuenta, por un lado, de la dificultad de construir y sostener políticas de archivo en nuestro país y, por el otro,coincide con el sentido inaugural que se le intentó dar a la evaluación de aprendizajes en este nuevo período, como se analizará en el próximo apartado.

En contraposición, los resultados del Relevamiento Anual (RA), son presentados a través del anuario estadístico educativo y las bases de datos desde hace 27 años, pero con mucha menos visibilidad y controversias que los de las evaluaciones de aprendizajes y casi sin interrelación entre ambos resultados. En este sentido, cabe destacar que, si bien esta fuente de relevamiento estadístico fue creada casi en simultáneo a los ONE, durante la mayor parte del período analizado, estas dos fuentes (pruebas estandarizadas y relevamiento estadístico) se han sostenido en paralelo bajo la misma dependencia gubernamental, aunque, la función evaluativa se deposita exclusivamente en los operativos de evaluación, mientras que al Relevamiento anual se le asigna una función exclusivamente descriptiva.

En suma, más allá de los sentidos heterogéneos y los cambios entre gestiones de gobierno, como se anticipó, el sostenimiento de las evaluaciones estandarizadas como política de estado, fue produciendo una instalación paulatina del dispositivo en el sistema y la comunidad educativa, así como en la agenda pública y en quienes demandan y utilizan esta información, tanto por parte de quienes toman decisiones, como para especialistas del campo de la educación.

La evaluación educativa en el macrismo: un objetivo en sí mismo

En el marco de la historia de instalación de las políticas de evaluación nacionales analizadas precedentemente, interesa focalizar en los cambios sucedidos entre 2015 y 2019, por identificarse elementos de ruptura con lo anterior - más allá de las continuidades analizadas - que requieren de una atención particular, y dimensionar tanto los sentidos como los efectos de las decisiones tomadas.

En diciembre de 2015 asumió a nivel nacional un gobierno de orientación neoliberal, encabezado por Mauricio Macri. Como suele ser costumbre, a poco tiempo del cambio gubernamental, el Poder Ejecutivo (PE) emitió su estructura ministerial 9 y en lo relativo al Ministerio de Educación, incorporó en su denominación al área de Deportes. Ya para abril de 2016, el PE creó la Secretaría de Evaluación Educativa con el decreto Nº 552 (SEE), en la órbita del ministerio con su ya nuevo nombre. La creación de dicha dependencia vino a reemplazar a la mencionada DiNIECE y con un rango institucional mayor: la nueva estructura organizativa jerarquizó las políticas de evaluación en términos presupuestarios 10 y en la creación de nuevos cargos en el área.

Por otro lado, la nueva Secretaría incluyó administrativamente tanto a los equipos técnicos que trabajan con fuentes de información como a los de investigación educativa. Sin embargo, el nombre de la dependencia no incluyó ninguna referencia al respecto. Este aspecto también resulta relevante si se considera que, finalmente, la dependencia creada implicó un importante achicamiento del personal que integraba el área de información y estadística, a la vez que un incremento notorio en los equipos de evaluación (RODRIGO; RODRIGUEZ MOYANO, 2020; TIEMPO ARGENTINO, 2016).

Es importante anudar la creación de la SEE con los documentos normativos específicos más importantes aprobados en el marco del Consejo Federal de Educación (CFE) 11 y que hacen al corpus institucional en cuyo marco se inscribió una parte sustantiva de la política educativa desarrollada a nivel nacional.

Por un lado y siendo un documento que incluye lo evaluativo entre otras dimensiones, encontramos el Plan Estratégico Nacional 2016-2021 llamado “Argentina Enseña y Aprende”, aprobado mediante resolución Nº 285/16, en el que se señala a la evaluación y la información como uno de los tres ejes trasversales para la “puesta al servicio de la escuela, la comunidad y las autoridades provinciales y nacionales para la mejora de la enseñanza y de los aprendizajes” (p. 6). Así, se propone la

[...] ampliación y fortalecimiento de un sistema integral de evaluación de los aprendizajes que sea confiable, transparente y riguroso, destinado a promover información estratégica para planificar el proceso educativo hacia la mejora continua. (p. 12).

Nos interesa destacar el siguiente objetivo del plan:

Se requiere promover una cultura de uso de datos y de decisiones basadas en evidencia a través de estrategias de sensibilización y formación en la materia de todos los actores del sistema educativo, y de desarrollo de estrategias de difusión de la información en forma simple y clara. (p. 25).

Como se observa, se proponen promover “algo” que supuestamente no existía, la cultura del uso de datos, a la vez que queda expresada la preponderancia de la comunicación de las acciones. Al respecto, la primera titular de la SEE, Elena Duro, señalaba: “No podemos mejorar la escuela ni los aprendizajes si no instauramos una cultura evaluativa” (VAZQUEZ, 2016). Resuena así el espíritu “refundacional” que caracterizó al macrismo en toda su retórica gubernamental (TZEIMAN, 2017).

El segundo documento fue la resolución Nº 280/16 y su modificatoria, la Nº 324/1712, en torno a la implementación de un “Sistema de Evaluación Nacional de la Calidad y Equidad Educativa”. En la primera se establecen los objetivos y misiones de la SEE, las cuatro áreas prioritarias del nombrado sistema (Operativo Aprender, autoevaluación en escuelas de la educación obligatoria, evaluación de programas y proyectos por parte de los gobiernos educativos y el fortalecimiento federal de las capacidades estatales en cada jurisdicción) y los compromisos asumidos tanto por Nación como por las provincias en relación a Aprender. Se establece que desde el 2016 el operativo nacional de evaluación de aprendizajes pasa a llamarse Aprender, que será anual, de carácter obligatorio y marcando su relevancia, con suspensión de clases. También funda la por entonces llamada Red de Evaluación Federal de la Calidad y Equidad Educativa, estableciendo que cada jurisdicción se comprometa a crear una Unidad Jurisdiccional de Evaluación Educativa 13 para integrarla. Esta tiene la finalidad de aunar esfuerzos para “el afianzamiento de una cultura de la evaluación en todos los niveles del sistema educativo”. Nótese cómo aparece también la idea de “cultura” que la funcionaria citada destacaba en el mismo año de sanción de la normativa.

El tercer documento es la Resolución Nº 315/17, la cual hace foco en la autoevaluación en las instituciones educativas. La misma mandata a la SEE a que produzca una caja de herramientas de instrumentos de autoevaluación institucional, la cual debe “poner en juego la información proveniente de los Operativos Nacionales de Aprendizaje Aprender y de los Relevamientos Anuales en materia de trayectorias escolares, e involucrar a equipos directivos, docentes, estudiantes y familias” (Art.2). Interesa destacar este documento porque su implementación y su discontinuidad posterior expresan más el intento de instalar una finalidad no relativa al instrumento en sí de la evaluación, que una nueva herramienta para proveer información particular.

Un indicador de la centralidad casi excluyente de la política de evaluación sobre otras, es la concentración de las fuentes de financiamiento (nacionales e internacionales) disponibles en esta área. Un ejemplo de ello es la utilización del financiamiento del BID 14 destinado a “incrementar la educación inicial con criterios de calidad priorizando a los que viven en zonas de mayor vulnerabilidad del país, de acuerdo con el criterio de Necesidades Básicas Insatisfechas (NBI)”, al financiamiento de los módulos de autoevaluación, a la vez que no se construyeron las escuelas del nivel anunciadas al inicio del gobierno.

Lo señalado hasta aquí permite arribar a algunas reflexiones en torno a una de las hipótesis del presente trabajo: la política de evaluación durante el macrismo fue proyectada y colocada en la agenda como un fin en sí mismo, cuyos efectos buscados no fueron la mejora en los instrumentos de recolección en función de obtener mejores evidencias, sino el impacto en la opinión pública que por su intermedio (y su modo de instalación) era posible lograr.

En primer lugar, interesa identificar los momentos del año en que se difundieron los resultados de cada operativo y encontrar similitudes: los de Aprender 2016, 2017 y 2018 fueron presentados por el Presidente Mauricio Macri entre el 14 y el 21 de marzo de cada año posterior, al inicio del ciclo lectivo, coincidente también con momento definitorios de la discusión salarial docente en cada jurisdicción (LA NACIÓN, 2017; MINISTERIO DE EDUCACIÓN, 2018 y 2019). Podríamos concluir, que el uso de las evaluaciones estuvo más vinculado a la instalación de unos sentidos afines a la estigmatización del sindicalismo docente (EL OBSERVADOR, 2019) y a la redefinición del rol nacional del Ministerio de Educación como garante de condiciones mínimas para las discusiones provinciales sobre el salario docente, que a la búsqueda de obtener información precisa sobre los problemas más importantes del sistema. La máxima autoridad nacional anunciando los resultados da cuenta de la búsqueda por colocar ciertos temas en la agenda pública, a la vez que intenta imprimir sentidos sobre los actores mencionados. Por caso, vale recordar la tan dramática referencia en el anuncio del 2017 del mandatario al “caer” en la escuela pública:

La mitad de los chicos que hoy comienza la escuela pública en algún lugar de la Argentina, no termina […] Cuatro de cada 10 del primario -sexto grado en escuela públicano comprende textos y en la escuela privada son 2 de cada 10. Marca otro problema de fondo, la terrible inequidad entre los que pueden ir a escuela privada y aquel que tiene que caer en la escuela pública. (CARELLI LYNCH, 2017).

También en 2017, el ministro de educación Alejandro Finocchiaro no dejó lugar a dudas sobre la motivación de responsabilizar al sindicalismo y en particular, a la central que aglutina a la mayor cantidad de trabajadores y trabajadoras de la educación:

Todo lo que estamos haciendo es una reforma radical. Ya es una reforma radical. Estamos cambiando la matriz cultural de la educación. El proyecto CTERA 15, que gobernó este país durante 10 o 12 años, lo que produjo fue la pérdida de casi un ciclo lectivo por paro durante 10 años. (AVIGNOLO, 2017).

En segundo lugar y en sintonía con la interpelación a la comunidad docente, recuperamos la crítica de El Observador de la UNIPE (2019) respecto de que, a la vez que culpabiliza a la comunidad docente por los resultados, se la excluye de la discusión técnica sobre los criterios que rigen la construcción y el diseño del instrumento de medición. Por tanto, vuelve a notarse que las pruebas, lejos de ser legitimadas por la rigurosidad técnica con que son construidas o por la utilidad de los resultados para la toma de decisiones, son legitimadas por el efecto público que genera la difusión de sus resultados.

En tercer lugar, se observa un fuerte discurso refundacional y de oposición con los gobiernos anteriores, toda vez que se refiere a la necesidad de “instalar una cultura de la evaluación” y, a la vez, de colocación de la evaluación en un nivel de alta primacía política. La relevancia funcional de la nueva SEE que acompañó también esta definición, sin embargo, no implicó obtener información educativa más valiosa ni una mejora en la elaboración de diagnósticos sobre el sistema para la toma de decisiones. Cabe destacar que la palabra “mejora” en la retórica del gobierno no apareció asociada tanto a la búsqueda por elaborar herramientas que en forma más fina produzcan información importante, como a la idea de mejora como un efecto en sí de la política de evaluación.

En cuarto lugar, los cambios en la periodicidad de la prueba parecen menos decisiones técnicas, que presupuestarias o de oportunidad política. Inicialmente, se anuncia su implementación anual y censal, a pesar de que hay consenso técnico acerca de que es muy probable que no haya cambios sustantivos entre las tomas de las pruebas anuales, especialmente si no se modifican las características de su implementación ni las condiciones en que se inscriben. No obstante, como se analizó, se implementan las pruebas anuales y censales para nivel primario y secundario los dos primeros años de gobierno (2017 es el año de mayor presupuesto destinado a evaluación) y luego, a partir de la crisis económica que se profundiza en 2018, se modifica la periodicidad, otra vez sin justificación técnica de ningún tipo.

En quinto lugar, se observa también, en contraposición con las gestiones pasadas, una cantidad muy importante de materiales de sensibilización y productos por edición de Aprender: desde afiches por escuela y manuales para los distintos roles hasta informes técnicos sobre variados temas e informes por escuela con resultados exclusivamente de Aprender. Esto interpela a dos cuestiones. Por un lado, remite a lo costoso de esta política, que en diversos casos implicó la contratación de servicios externos a la propia SEE para su realización, porque los equipos que integran la dependencia no alcanzaban para procesar la información, analizarla, difundirla o elaborar los materiales de comunicación en los tiempos que se pretendía. Por tanto, además de los costos, hay algo en relación a los tiempos que supone la puesta en marcha de todo el operativo que por lo menos hace preguntar sobre los sentidos que la orientan. Por el otro y puntualmente en relación a los llamados “Reportes por escuela”, cabe reflexionar también sobre sus propósitos, ya que se observa una sobreestimación respecto a lo que cada institución puede hacer con la información producida por operativos de evaluación. Así, simultáneamente, mientras se pregona la supuesta idea de que la información resultante puede servir a nivel institucional, cuando es sabido que sus resultados son más afines a decisiones a tomar desde niveles centrales (nacionales o provinciales), se genera un imaginario respecto a quienes son los responsables de los malos (o buenos) resultados. En efecto, los resultados pasan a ser corresponsabilidad de todos los niveles estatales que inciden en la escuela, borrando las diferencias que cada actor y cada nivel tiene.

Hacia una evaluación integral del sistema educativo

Con el cambio de gobierno en diciembre de 2019, se modifica la estructura organizativa del Estado. Entre otras cosas, se reponen con categoría de Ministerios, áreas que el gobierno anterior había degradado al nivel de Secretarías (Salud, Cultura, Trabajo, Ciencia y Tecnología) y se modifica su estructura interna. El Ministerio de Educación, que hasta entonces albergaba también otras áreas, vuelve a centrarse exclusivamente en el sector educativo. La reforma incluye el reemplazo de la SEE, por la Secretaría de Información y Evaluación Educativa.

Este cambio de estructura anticipaba ya una mirada diferente tanto técnica como política sobre las políticas de evaluación. Por un lado, da el mismo estatus a distintas fuentes de producción de información y por otro, presupone un propósito de integración de todas esas fuentes con fines evaluativos, como ya se ha señalado. En primer lugar, se trataba de superar la triple reducción en la que se habían sostenido las políticas del gobierno anterior: 1) la reducción de la calidad del sistema educativo, al aprendizaje de los alumnos y las alumnas, desconociendo otras dimensiones como indicadores de calidad, tales como el acceso, la retención, el abandono, la segregación por sector socioeconómico, las condiciones de enseñanza, la desigual distribución de recursos materiales, entre otras; 2) la reducción del aprendizaje, al desempeño en pruebas estandarizadas, como si los resultados en las pruebas estandarizadas fueran indicador de todo lo que se aprende en la escuela; 3) la reducción de las políticas de mejora de la calidad, a la medición del desempeño en dichas pruebas.

En segundo lugar, era necesario despejar una confusión técnica que atraviesa las discusiones nacionales e internacionales sobre la evaluación de los sistemas educativos: el tipo de instrumento de recolección de información y las categorías que se usan para construir el dato (niveles de desempeño) queda identificado con el uso del dato. Sin embargo, que el instrumento para relevar información acerca de los aprendizajes sea muy próximo a una prueba de evaluación escolar y que su procesamiento utilice alguna escala de niveles de desempeño, no significa que sus resultados se conviertan automáticamente en una evaluación del sistema educativo. Las pruebas estandarizadas de aprendizajes producen una información que se convertirá en evaluación, sólo en la medida en que introduzcamos allí un juicio de valor (los niveles de desempeño son un indicador de aprendizajes, no un juicio de valor). Del mismo modo, información recogida por otras fuentes, a través de otros instrumentos, pueden convertirse en base para la evaluación del sistema, dependiendo el tipo de análisis que hagamos de ese dato.

Finalmente, la instalación de un nuevo enfoque en las políticas evaluativas requería discutir públicamente las dos premisas que, como hemos señalado en el apartado anterior, presidieron la retórica que instaló, con mucha eficacia, el operativo Aprender: que no existía en la Argentina una “cultura de la evaluación educativa” y que venían a “transparentar” lo que pasaba en las escuelas.

En relación con el primer punto, mostramos ya al inicio de este artículo, que desde hace 30 años se vienen sosteniendo de manera sistemática evaluaciones estandarizadas de aprendizajes en la Argentina a nivel provincial, nacional e internacional, así como un relevamiento estadístico censal anual de una serie muy importante de indicadores educativos. Discutir el carácter fundacional de la “cultura evaluativa” que se auto atribuía el macrismo requería, por un lado, visibilizar la larga trayectoria de producción de información y evaluación estatal del sistema educativo en la Argentina, a través de una política comunicacional sostenida de intervención en la discusión pública; por otro, poner en evidencia su inconsistencia conceptual e histórica, toda vez que, como ha dicho Phillip Jackson hace más de 30 años, las escuelas son recintos básicamente evaluativos, es decir, si hay una actividad que está en el corazón de la cultura escolar es precisamente, la actividad evaluativa.

En relación con el segundo, estaba claro que instalar un nuevo enfoque sobre las políticas evaluativas, requería salir al cruce de la idea de “transparencia” que el gobierno anterior había asociado al lanzamiento de las pruebas Aprender. Éste había funcionado como el “concepto estrella” de la anterior gestión de gobierno; a través de su contracara (según el caso, la opacidad, la tergiversación de información, la ineficiencia, la corrupción), colocaba un manto de sospecha sobre el funcionamiento de todas las áreas del Estado y en general, sobre lo público, que, en particular aplicado a las políticas de evaluación educativa, termina recayendo tanto sobre la docencia, como sobre los responsables políticos del sistema educativo. Pero además, y esto constituye un serio problema teórico y técnico que está en la base del modo en que se interpretaron los resultados de los operativos, vino a generar la ilusión de que todo lo que ocurría en las escuelas se podía transparentar a través de pruebas estandarizadas de aprendizajes, a pesar de que sabemos desde hace mucho, que esa “transparencia estandarizada” opaca lo que es propio de la práctica escolar: su heterogeneidad y su complejidad.

En síntesis: el cambio de enfoque que se propone en este período, procuraba reubicar la aplicación de pruebas estandarizadas como una fuente más de información que, junto con otras, ofrecieran la base sobre la cual evaluar la calidad de la educación en sus distintas dimensiones y, a la vez, permitiera construir mejores hipótesis acerca de los problemas que debían ser abordados por las políticas educativas. En otras palabras, se trataba de salir de la discusión esquemática “a favor” o “en contra” de la aplicación de pruebas estandarizadas, para integrarlas en un modelo de evaluación de la calidad del sistema educativo más complejo, es decir, alimentado por fuentes de información más diversas y adecuadas a la complejidad de lo que se pretende evaluar.

En este marco, se reubica el objeto de las políticas de evaluación educativa, es decir, qué se evalúa. Partiendo de la Ley de Educación Nacional que establece en su art. 84°, que

El Estado debe garantizar las condiciones materiales y culturales para que todos/as los/as alumnos/as logren aprendizajes comunes de buena calidad, independientemente de su origen social, radicación geográfica, género o identidad cultural [...].

Se va a sostener que lo que las políticas de evaluación y de producción de información sobre el sistema educativo deben permitir determinar es si el Estado está cumpliendo con la garantía de este derecho y cuáles son los factores que obstaculizan su universalización. Desde esta perspectiva, la evaluación de la calidad educativa se entiende como la evaluación del ejercicio de un derecho, y en tanto tal, concierne tanto a la relevancia y nivel de los aprendizajes como a la justicia de su distribución.

En consonancia con esta definición sobre el objeto de la evaluación, se redefinen sus propósitos, es decir, el modo en que se responde la pregunta central de las políticas evaluativas: para qué se evalúa. Al respecto se sostendrá que las políticas integradas de producción de información y evaluación deben: 1) Ofrecer evidencia técnicamente sólida que permita construir mejores hipótesis como base para la toma de decisiones de planeamiento e implementación de políticas nacionales y jurisdiccionales orientadas a garantizar el cumplimiento del derecho de todos a una educación de calidad; 2) Monitorear el cumplimiento de la responsabilidad estatal en la garantía de este derecho.

Aunque en una lectura rápida se puede interpretar que se trata de dos propósitos similares, interesa remarcar que, en el primer caso, el acento está puesto en la producción de una información (descriptiva y/o evaluativa) que, con la mediación de la identificación de problemas y la construcción de hipótesis, sirva como base para diseñar políticas de mejora. Esta formulación discute con dos ideas bastante rústicas desde el punto de vista técnico, pero de mucha pregnancia pública y política: que la evaluación per se, es una política de mejora y que del dato “emana”, es decir, se desprenden de manera directa y sin mediaciones, la orientación que deben asumir las políticas 16. Por otro lado, el segundo propósito, remite a la necesidad de producir información descriptiva que muestre, en una serie continua, el movimiento de los indicadores que son objetivo de las políticas. En este caso, la función es de control y seguimiento de los efectos de las políticas.

Finalmente, en relación con la pregunta cómo se evalúa en el marco de este enfoque, cabe mencionar aquí, a modo de ejemplo, tres acciones llevadas adelante en la primera mitad de este período de gobierno: la Evaluación Nacional de la Continuidad Pedagógica, la Evaluación integral de la Educación Secundaria y el Plan Nacional de Evaluación Educativa 2020-2021. Las tres acciones ilustran la puesta en práctica de los tres principios básicos de este enfoque: la diversificación de las fuentes de información que se utilizan como base para la evaluación, la integración de esas fuentes a los fines de su análisis y comunicación y el cumplimiento del derecho a la educación como objeto.

La Evaluación Nacional del Proceso de Continuidad Pedagógica (ENCP) 17, se puso en marcha en el mes de mayo de 2020 con el objetivo de relevar el estado de situación de la educación en el contexto de la pandemia por COVID-19 y analizar los procesos de continuidad pedagógica que se estaban desarrollando, con especial atención en las desigualdades y las formas en que los condicionan. El relevamiento incluyó diversas dimensiones (políticas nacionales e internacionales; las condiciones institucionales de organización y sostenimiento de la continuidad pedagógica; las condiciones de enseñanza y de organización del trabajo docente; las posibilidades de interacción y de desarrollo de actividades educativas en los hogares de alumnos y alumnas de todo el país. Asimismo, incluyó el desarrollo de un dispositivo de actualización de estudiantes que se hubieren matriculado en cada escuela para determinar con precisión la proporción de estudiantes que no habían retomado su escolaridad. El operativo involucró, entre otras cosas, la aplicación de encuestas a una muestra de 5 mil directoras y directores, 25 mil docentes y 2800 familias en pleno aislamiento. Los primeros datos estuvieron disponibles en julio de 2020, constituyendo uno de los primeros países en disponer de una evaluación sistemática de la continuidad pedagógica durante la pandemia, a esa escala.

La principal novedad de esta acción radicó en la variedad de fuentes y de datos que se produjeron y en la utilización del concepto de evaluación para abarcar líneas de producción de información que no incluían aplicación de pruebas estandarizadas. De alguna manera, la ENCP permitió comenzar a instalar la idea de que la evaluación, es decir la valoración o la producción de un juicio de valor, puede y debe realizarse sobre otro tipo de datos.

Por su parte, la Evaluación de la educación secundaria en la Argentina 2019 18 presenta, por primera vez, una evaluación integral de un nivel del sistema educativo y la articulación de los resultados de las pruebas estandarizadas de aprendizaje con información producida a través de otras fuentes. Es decir, los resultados de las pruebas estandarizadas dejan de difundirse aisladamente y se aplica una mirada evaluativa sobre distintas dimensiones que dan cuenta, en conjunto, de la complejidad de lo que se pretende evaluar: las condiciones y los recursos con los que se desarrollan los procesos pedagógicos, las características de la población estudiantil, las trayectorias educativas y los resultados de los aprendizajes del último año del nivel, para lo cual se utilizan una diversidad de fuentes de datos educativos y sociales. Este informe tuvo una muy buena recepción entre las autoridades y llevó a los medios de comunicación a moderar el tono sensacionalista que suelen tener las notas que difunden resultados de pruebas estandarizadas, haciendo referencia también a las condiciones de escolarización (por ej, crecimiento de la pobreza, trabajo infantil, salarios docentes).

Finalmente, el Plan Nacional de Evaluación 2021-2022 (PNE) 19 constituyó el primer plan integral de evaluación del sistema educativo. La integralidad del plan radicaba tanto en las dimensiones del proceso educativo que se proponían como objeto de evaluación (la enseñanza, el aprendizaje, la organización escolar, las trayectorias escolares), como en la articulación de una diversidad de fuentes de información de datos educativos y sociales. Para su abordaje, el plan contempla la implementación y sistematización de información proveniente de quince fuentes diferentes, muchas de las cuales ya se implementaban (como el Relevamiento Anual o las pruebas del Programa para la Evaluación Internacional de Alumnos de la OCDE-PISA), pero que no se integraban con finalidad evaluativa. No disponemos aquí de espacio para desarrollarlas, sólo señalaremos que, entre las más novedosas, se incluyen encuestas a estudiantes de autopercepción de sus aprendizajes, relevamiento de las condiciones materiales y pedagógicas de la enseñanza a través de encuestas a equipos docentes y directivos, la integración de resultados de una investigación educativa producida federalmente que aportara una mirada cualitativa sobre algunos procesos que suelen quedar ausentes en las evaluaciones a gran escala 20.

Este plan fue resultado de un proceso de discusión que involucró a las autoridades educativas de todo el país y sus equipos técnicos, a los sindicatos docentes y a la comunidad académica. Fue acordado en el CFE con el acuerdo previo del Consejo Nacional de la Calidad Educativa 21. En suma, se trató de un plan que logró alcanzar un amplísimo consenso.

Reflexiones finales

Habiendo realizado una reconstrucción de la historia de las evaluaciones nacionales de aprendizaje en Argentina, proponemos algunas reflexiones finales.

En cuanto a la difusión y uso de los resultados de las evaluaciones estandarizadas, en estos 30 años, han existido variadas modalidades y productos, así como distintos niveles de desagregación de los datos (a nivel nacional, jurisdiccional y a nivel institucional/escolar) en relación con los sentidos otorgados a los resultados y sus destinatarios. Los informes nacionales de los ONE tenían un carácter técnico destinados a la gestión y especialistas. En cambio, como se analizó, desde el inicio de los Aprender, se ampliaron sus productos y públicos, con fuerte énfasis en su diseño y simplificación discursiva, bajo el argumento de que sean “más accesibles”. Al mismo tiempo, se sumaron informes jurisdiccionales, reportes por escuela, se publicaron informes temáticos y las bases de microdatos, para avanzar en la disponibilización de los datos y como se analizó, desde 2020, con una perspectiva integral se sumaron fuentes de información para complejizar los análisis e intervenir en el debate público con otros argumentos en torno tanto a la evaluación, como la información educativa. De todas maneras, sigue siendo un desafío pendiente el aprovechamiento de toda la información producida.

Ahora bien, la posibilidad de desagregar los datos plantea una tensión entre el acceso a la información y su confidencialidad, en términos de hasta qué escala y para quiénes se resguarda la identidad de una escuela, que si bien está regulado por normativa, sigue siendo un campo de disputa.

Más allá de los cuestionamientos en torno a los resultados de los ONE, debe considerarse la comparabilidad como problema técnico más estructural de las evaluaciones estandarizadas. Por ejemplo, al analizar los resultados de Aprender 2021 en relación con los del 2018, se advierte que “deben ser interpretados con cautela, dado que la tasa de participación en las pruebas varía entre años y dista de ser universal” (CATRI; NISTAL; ORLICKI; VOLMAN, 2022). En rigor, las diferentes decisiones relativas a la construcción del instrumento, a las condiciones de toma o detalles del procesamiento, aún debidamente fundamentados, pueden incidir en la posibilidad efectiva de comparar resultados entre aplicaciones (SEIE, 2019).

Como se analizó, con el surgimiento de Aprender, se ponderó y privilegió un tipo de evaluación que produce una tipo de información (estandarizada y de “aprendizajes”) que resulta más útil a los sentidos políticos de aquel período. En paralelo, la reducción de los equipos destinados al trabajo con el Relevamiento Anual, acompañó el discurso enfático acerca de que la fuente más importante de información educativa era la surgida con Aprender. Por tanto, privilegiar unos operativos o fuentes por sobre otros, dice más sobre los efectos públicos a provocar, que sobre la necesidad de contar con evidencias para el diseño y la implementación de políticas educativas.

A la vez, como sucede en otros países, tanto los ONE como Aprender son presentados como operativos de evaluación y no de producción de información, lo que sí sucede con el RA. Esta diferenciación contribuye a la retórica según la cual la evaluación educativa es la principal fuente de información sobre la educación, al mismo tiempo que confunde los términos: en todo caso, son todas fuentes de información educativa, cuyos resultados (así como los instrumentos en sí), deben someterse a juicios evaluativos para la toma de decisiones.

La apuesta por avanzar hacia una evaluación integral del sistema educativo otorga el mismo estatus a las diferentes fuentes de producción de información y se propone un análisis articulado de las mismas con fines evaluativos. En esta línea, los resultados de las evaluaciones de aprendizaje se difunden integrados con otras dimensiones - las condiciones en que se enseña y aprende, las características de la población estudiantil y sus trayectorias escolares - en un modelo de evaluación de la calidad del sistema educativo más comprehensivo, adecuado a la complejidad de lo que se pretende evaluar.

4Interesa mencionar que las autoras del presente artículo ocupamos funciones ejecutivas y políticas en la Secretaría de Evaluación e Información Educativa del Ministerio de Educación de la Nación entre diciembre del 2019 y casi finales del 2021.

5La educación primaria de 7 años de duración obligatoria y gratuita desde 1884 (Ley 1420), pasó a denominarse Educación General Básica, de 9 años de duración a partir de los 6 años de edad, entendida como una unidad pedagógica integral y organizada en 3 ciclos de tres años cada uno; extendiendo por primera dos años la obligatoriedad escolar.. Luego de su cumplimiento, se establece un tramo de Educación Polimodal, impartida por instituciones específicas de tres años de duración como mínimo.

6El Gobierno de la Ciudad de Buenos Aires había desarrollado una experiencia propia de evaluación previa al sistema nacional (desde 1992), y en otras jurisdicciones también han implementado sistemas propios de evaluación desde 1997.

7Al igual que sucedió con el Relevamiento Anual.

8Desde la creación de Aprender en 2016, todos los operativos Aprender subsiguientes, y el ONE 2013 se escalan para que sus puntajes sean comparables. Para mayor detalle, ver “Escalamiento y comparabilidad de los puntajes TRI” en “Aprender 2019: documento metodológico”.

9Mediante los decretos Nros. 13/15 y 223/16.

10Tal como expresaron diversas universidades nacionales y un centro de investigación en un informe titulado “En caida libre” (2019): el presupuesto para el 2017, el primero confeccionado por el nuevo gobierno, expresa un aumento notorio tanto en términos nominales como reales respecto al 2016. A la vez, entre 2016 y 2020, es una de las pocas partidas que presentó aumentos, en el marco de un presupuesto que fue descendiendo en términos generales.

11El Consejo Federal de Educación es organismo de concertación de la política educativa nacional (art. 113 de la LEN) presidido por el Ministro de Educación de la Nación e integrado por las autoridades responsables de la conducción educativa de cada jurisdicción (son 24) y tres representantes del Consejo de Universidades (art. 116 de la LEN).

12La Resolución Nº 324/2017 modificó la citada al agregar el Operativo Enseñar, destinado a la evaluación de estudiantes y docentes de los Institutos de Formación Docente y estableciendo distintos ajustes de implementación de Aprender. Asimismo se destaca que elimina la suspensión de clases establecida para el día de la aplicación de Aprender para toda la población escolar.

13Como se dijo anteriormente, desde 1993 se establecía que el Sistema Nacional de Evaluación de la Calidad estaría integrado por unidades jurisdiccionales de las provincias y el Gobierno de la Ciudad de Buenos Aires.

14Se llevaron adelante 8 convocatorias a financiamiento en el marco del Programa de Apoyo al Plan Nacional de Primera Infancia y a la Política de Universalización de la Educación Inicial PRINI I - Componente II (BID-4229/OC-AR).

15La Confederación de Trabajadores de la Educación de la República Argentina es una organización gremial de segundo grado que nuclea a los sindicatos docentes de base de todas las jurisdicciones educativas del país.

16Estas ideas pueden reconocerse en consignas muy difundidas, como “#MEDIR PARA MEJORAR”, sostenida insistentemente por la organización Argentinos por la Educación durante el período macrista.

19Ver Plan en la resolución CFE Nº 396/21.

21Organismo asesor dependiente del Ministerio de Educación de la Nación, integrado por integrantes de la comunidad académica y científica de reconocida trayectoria en la materia, representantes de dicho Ministerio, del Consejo Federal de Educación, del Congreso Nacional, de las organizaciones del trabajo y la producción y de las organizaciones gremiales docentes con personería nacional (art. 98 de la LEN).

Referencias

ARGENTINA. Consejo Federal de Educación. Res. Nº 280, de 18 de mayo de 2016. [ Links ]

ARGENTINA. Consejo Federal de Educación. Res. Nº 285, de 23 de agosto de 2016 [ Links ]

ARGENTINA. Consejo Federal de Educación. Res. Nº 315, de 9 de febrero de 2017. [ Links ]

ARGENTINA. Consejo Federal de Educación. Res. Nº 324, de 2 de agosto de 2017. [ Links ]

ARGENTINA. Consejo Federal de Educación. Res. Nº 396, de 9 de julio de 2021. [ Links ]

ARGENTINA. DECRETO N° 13/2015, de 10 de diciembre de 2015. [ Links ]

ARGENTINA. DECRETO N° 223/2016, de 19 de enero de 2016. [ Links ]

ARGENTINA. DECRETO N° 552/2016, de 5 de abril de 2016. [ Links ]

ARGENTINA. Ley de Educación Nacional N° 26.206, del 14 de diciembre del 2006. [ Links ]

ARGENTINA. Ley Federal de Educación N° 24.195, del 14 de abril de 1993. [ Links ]

AVIGNOLO, Maria Laura. Finocchiaro: "Estamos cambiando la matriz cultural de la educación. Clarín, 2 de noviembre de 2017. [ Links ]

CARELLI LYNCH, Guido. Macri habló de los que "caen" en la escuela pública y fue criticado. Clarín, 22 de marzo de 2017. [ Links ]

CATRI Gabriela; NISTAL, Martin; ORLICKI, Eugenia; VOLMAN, Victor. Aprender 2021. [ Links ]

Observatorio de Argentinos por la Educación. Junio 2022. [ Links ]

Colectivo de Observatorios y Equipos De Investigación En Educación UNIPE, OPPPED FFYL-UBA, CCC FLOREAL GORINI, Aula Abierta-UNAHUR, UNDAV, NIFEDE-UNTREF, UNGS Y CEIECS-UNSAM. En caída libre. Balance del presupuesto educativo nacional durante el gobierno de Cambiemos. 2019. [ Links ]

DiNIECE, (sin/año). La Evaluación de la Calidad Educativa en Argentina. Experiencias Provinciales. Ministerio de Educación, Ciencia y Tecnología. [ Links ]

EL OBSERVADOR - DOSSIER DEL OBSERVATORIO EDUCATIVO DE UNIPE. Sobre los usos políticos de las evaluaciones educativas. p. 6, Nº7, 2019. [ Links ]

GANIMIAN, Alejandro J. El termómetro educativo: Informe sobre el desempeño de Argentina en los Operativos Nacionales de Evaluación (ONE) 2005-2013. Ciudad de Buenos Aires: Proyecto Educar 2050, 2015. [ Links ]

JACKSON Philip. W. La vida en las aulas. Madrid: Morata, 1991. [ Links ]

LA NACIÓN. Mauricio Macri presentó los resultados de la prueba Aprender 2016: dijo que son "dolorosos". 21 de marzo de 2017. [ Links ]

MINISTERIO DE EDUCACIÓN. El presidente Mauricio Macri presentó los resultados de la Evaluación Aprender. Argentina, Noticias, 14 de marzo de 2019. [ Links ]

MINISTERIO DE EDUCACIÓN. El presidente Mauricio Macri, en la presentación de los resultados de la evaluación. Aprender 2017. Argentina, Noticias, 21 de marzo de 2018. [ Links ]

MINISTERIO DE EDUCACIÓN. Evaluación de los resultados del SINEC 1993/1999. Debilidades y fortalezas en las pruebas de evaluación. Programa Promoción y Evaluación de la Calidad Educativa. s/d. p. 66. [ Links ]

RODRIGO, Lucrecia; RODRIGUEZ MOYANO, Ines. Los programas de evaluación en la agenda de gobierno en la Argentina reciente: discursos, acciones e institucionalidades de las políticas orientadas a la mejora de la calidad educativa durante la gestión de Cambiemos (2015-2019). Revista on line de Política e Gestão Educacional, vol. 24, núm. 1, p. 762-777, 2020. [ Links ]

SECRETARÍA DE EVALUACIÓN E INFORMACIÓN EDUCATIVA. Autoevaluación Aprender. Argentina. s.d. [ Links ]

SECRETARÍA DE EVALUACIÓN E INFORMACIÓN EDUCATIVA. Evaluación de la educación secundaria en Argentina 2019. Argentina, 2019. [ Links ]

SECRETARÍA DE EVALUACIÓN E INFORMACIÓN EDUCATIVA. Evaluación nacional del proceso de continuidad pedagógica. Argentina. [ Links ]

SECRETARÍA DE EVALUACIÓN E INFORMACIÓN EDUCATIVA. Investigación Educativa Federal. Argentina. [ Links ]

SECRETARÍA DE EVALUACIÓN E INFORMACIÓN EDUCATIVA. Sitio oficial. Evaluación Educativa: la construcción de una política federal 2016-2019. Argentina, 2019. [ Links ]

TIEMPO ARGENTINO. Más desmantelamientos en Educación: ahora es el turno del área de estadística. Buenos Aires, 3 de agosto de 2016. [ Links ]

TZEIMAN, Andrés. Radiografía política del macrismo. La derecha argentina: entre la nación excluyente y el desafío democrático. Buenos Aires: La Caterva, 2017. [ Links ]

VAZQUEZ, Luciana. Elena Duro: "Generar una competencia entre escuelas no suma a la cultura evaluativa. La Nación, 22 abril 2016. [ Links ]

Recibido: Agosto de 2023; Aprobado: Octubre de 2023; Publicado: Diciembre de 2023

Creative Commons License Este é um artigo publicado em acesso aberto (Open Access) sob a licença Creative Commons Attribution NonCommercial No Derivative, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que sem fins comerciais, sem alterações e que o trabalho original seja corretamente citado.