¿Qué debería publicarse por escuela? Puntaje, contexto y eficacia
Por Ivana Templado – El discurso del presidente Milei en la apertura de las sesiones ordinarias del Congreso de la Nación, hace alusión a algunos temas referidos a la educación, aunque de modo muy tangencial y general[1]. La prioridad del Estado nacional sigue puesta en otras cuestiones por fuera de la educación, como la estabilización macro, la reducción del Estado (desregulación/privatizaciones) o la apertura económica y el posicionamiento geopolítico del país. El clásico tironeo entre lo urgente y lo importante o entre el corto y el largo plazo. Si bien, es verdad también, que sigue sobre la mesa la discusión del proyecto de Ley de Libertad educativa impulsado en 2025.
Teniendo en cuenta los lineamientos principales de aquel proyecto, retomo y analizo una de sus propuestas más discutidas: la publicación de los resultados por escuelas. La comparación en crudo de los resultados de Aprender suele mezclar cosas distintas: (i) el rendimiento observado de los estudiantes, (ii) el contexto socioeconómico de quienes asisten a cada escuela y (iii) la eficacia de la institución. Por eso es que hay que ser tan cautelosos al utilizar esa información, ya sea como insumo para decisiones de política, ya sea para financiamiento o para brindarla para la toma de decisiones de elección educativa. Si el indicador no separa composición y desempeño institucional, el riesgo es que la publicación termine reflejando principalmente diferencias sociales y no el aporte de las escuelas.
Sabemos que en el sistema educativo argentino, la educación obligatoria depende de las 23 provincias y la CABA, sabemos también de la heterogeneidad de resultados asociados a esta distribución federal, que se trata, de facto, de 24 sistemas educativos diferentes con algunos lineamientos generales comunes pero con amplia autonomía para el financiamiento, regulación y gestión hacia adentro de cada jurisdicción. Teniendo en cuenta esto, en lo que sigue voy a representar el desempeño de una escuela típica en cada jurisdicción, usando, por simplicidad, los promedios provinciales.
Con datos de nivel primario de Aprender 2023, y foco en el sector estatal y urbano, la idea es separar el componente socioeconómico del alumnado, del desempeño institucional. Para ello, se postula un modelo en el cual los aprendizajes solo dependen de características propias del estudiante y sus familias. Luego se predice el aprendizaje teniendo en cuenta solo estas variables, si una parte importante está explicado por las mismas, entonces, la escuela aporta poco a dicho desempeño (ver Cuadro 1 para metodología).
El Gráfico 1 muestra una medida de eficacia: el aporte promedio de las escuelas de cada provincia[2], que busca capturar cuánto suma o resta la escuela una vez controladas características observables del estudiante y su contexto (incluyendo el quintil socioeconómico, la edad y género del estudiante, entre otros controles), y separando variación entre escuelas y dentro de escuelas.
Los valores positivos indican que, en promedio, las escuelas de esa provincia logran resultados por encima de lo esperable dado el perfil de sus estudiantes; mientras que los valores negativos indican resultados por debajo de lo esperable. En el gráfico se observa heterogeneidad: algunas provincias aparecen con eficacia promedio positiva (CABA, Formosa y Córdoba son algunas), mientras que otras presentan valores negativos (por ejemplo Santiago del Estero, Catamarca, Chaco). Lo ideal sería armar esta medición para varios años y tener en cuenta escuelas que consistentemente están por encima de lo esperado; en este caso se hizo para 2023 por simplicidad.
Gráfico 1: Medida de eficacia por provincia

Otra forma de ver el problema de la incidencia de la composición socioeconómica en los puntajes es ¿qué pasaría si todos los estudiantes fueran de los quintiles más pobres? ¿Cuál sería el desempeño promedio de las escuelas? El Gráfico 2 hace dicha comparación y muestra, para cada provincia, el puntaje de Lengua promedio observado con el contrafactual del puntaje que se obtendría si todos los estudiantes fueran del quintil 1 (todo lo demás, igual al observado). Esto permite observar cuánto del rendimiento promedio provincial está asociado a la composición socioeconómica del alumnado.
La brecha entre ambos ilustra un punto simple pero muy relevante: provincias con mejores resultados observados no necesariamente lo son por una ventaja del sistema escolar en sí, sino también por el perfil socioeconómico promedio de su matrícula. En el extremo, si dos provincias exhiben puntajes observados similares, pero una de ellas cae mucho más al asumir que sus estudiantes provienen de un nivel socioeconómico bajo, sugeriría que parte de su desempeño está más asociado al contexto que a la eficacia institucional.
Gráfico 2: Puntaje de Lengua observado promedio y puntaje contrafactual Q1

La comparación de ambos gráficos ayuda a evitar dos errores frecuentes: (i) confundir alto puntaje con alta eficacia escolar, y (ii) asumir que los contextos explican todo y que las escuelas no aportan. Aun así, el Gráfico 3 muestra el punto de contacto entre ambas dimensiones, las provincias que logran, en promedio, mayores puntajes incluso en un escenario contrafactual de una población de estudiantes de nivel socioeconómico bajo, tienden a ser también las que exhiben los mayores niveles de eficacia promedio estimada.
Gráfico 3: Puntaje esperado en Q1 y eficacia escolar promedio por provincia

En resumen, si el Estado avanzara en la publicación de resultados por escuela, estos ejercicios sugieren que publicar puntajes brutos sin contexto es insuficiente y potencialmente engañoso. Un esquema más responsable debería incluir, junto al resultado observado, al menos un indicador que intente captar desempeño neto de composición (por ejemplo, una medida de eficacia como la mostrada aquí) e, idealmente, su estabilidad en el tiempo. La transparencia es valiosa, pero el indicador que se publique es igual de importante, porque por un lado debería evitar que se convierta en un ranking de composición social, y por otro, sí debería promover una herramienta para identificar y aprender de escuelas que logran buenos resultados en su contexto.

Ivana Templado, economista senior de la Fundación de Investigaciones Económicas Latinoamericanas (FIEL)
[1] “Por eso también estamos reformando la educación inicial y primaria para asegurar los conocimientos básicos de lectocomprensión que las últimas décadas se perdieron. Renovamos la currícula educativa, fortaleciendo las competencias fundamentales, ampliando las pruebas Aprender en primaria y secundaria.”
“En materia de capital humano, necesitamos reformar la educación inicial, primaria y secundaria. Todos sabemos lo bajo que ha caído la calidad de nuestro sistema educativo; las estadísticas son apabullantes. Por eso, durante nuestro Gobierno, la escuela servirá a su propósito original: darle las herramientas a nuestros niños para que puedan procurarse un futuro mejor, no para adoctrinarlos.”
“En materia de Capital Humano, […] y una gran mayoría de egresados escolares que no sabían leer o escribir, ni hacer cuentas matemáticas simples…”
[2] Estimado mediante un modelo multinivel (efecto escuela tipo BLUP),
