• Inicio / Voces / Incentivando el análisis de resultados académicos
    • Incentivando-analisis-resultados-academicos-catherine-rodriguez.jpg
      Incentivando-analisis-resultados-academicos-catherine-rodriguez.jpg
  • Incentivando el análisis de resultados académicos

  • 24 de marzo de 2026

    Catherine Rodriguez, Investigadora Universidad de los Andes.

    Doctorado: Boston University.
    Pregrado: Universidad del Rosario.

    Página personal: https://www.linkedin.com/in/catherine-rodriguez-orgales

     

    Sobre la iniciativa voces: https://economia.uniandes.edu.co/voces


    Mejorando la implementación de programas educativos: evidencia de República Dominicana

    A pesar de los grandes avances en cobertura educativa logrados por los países en desarrollo, los niveles de aprendizaje siguen siendo bajos, pese a los esfuerzos de distintas políticas orientadas a mejorarlos. Esto ha llevado a que cada vez más investigadores se interesen no solo en el diseño de las políticas, sino también en cómo se implementan realmente en las escuelas y en las aulas. La evidencia muestra que incluso intervenciones bien diseñadas pueden tener efectos limitados si no se llevan a la práctica de manera efectiva. Por ejemplo, Angrist y Dercon (2024), con información de 50 países sobre políticas implementadas durante la pandemia, encuentran grandes brechas entre lo que debía hacerse y lo que realmente ocurrió. Esto sugiere que mejorar los aprendizajes requiere no solo mejores políticas, sino también asegurar su adecuada implementación en el terreno.

    En una investigación realizada junto con la Dirección de Evaluación de la Calidad del Ministerio de Educación de la República Dominicana, con el apoyo logístico del Instituto Dominicano de Evaluación e Investigación de la Calidad Educativa, y en coautoría con Daniel Morales y Carlos Schmidt-Padilla, estudiamos cómo una estrategia de bajo costo, basada en la teoría del comportamiento y en el uso de recordatorios, puede fortalecer una política educativa implementada a nivel nacional.

    La política y el experimento controlado

    Desde la década de 1980, la República Dominicana, como muchos otros países de América Latina, ha destinado recursos importantes a medir qué tanto están aprendiendo los estudiantes mediante evaluaciones estandarizadas nacionales e internacionales. En 2017, el país dio un paso más con la introducción gradual de las Evaluaciones Diagnósticas, unas pruebas pensadas no solo para medir resultados, sino para generar información útil que ayudara a mejorar el aprendizaje. Estas pruebas se aplican a todos los estudiantes de ciertos grados y siguen un ciclo de tres años: tercer grado de primaria en 2017, sexto de primaria en 2018 y sexto de secundaria en 2019, para luego repetir nuevamente la secuencia.

    Desde su introducción, el Ministerio de Educación ha preparado informes específicos para cada escuela y ha promovido su uso a nivel escolar. En 2019, redobló estos esfuerzos enviando a todos los directores un correo electrónico oficial con instrucciones, enlaces a los reportes de cada centro y orientaciones sobre las acciones que debían emprender a partir de los resultados académicos de los estudiantes en las evaluaciones diagnósticas de 2018 y 2019. A las escuelas se les pidió descargar sus reportes desde el servidor del Ministerio, revisar los resultados de aprendizaje de sus estudiantes, organizar tres talleres (con el equipo directivo, los docentes y las familias) y preparar un plan de mejora antes de la siguiente ronda de evaluación en 2020.

    En este contexto, diseñamos un experimento para poner a prueba una idea sencilla: si recordarles a los directores lo que debían hacer podía ayudar a que la política se implementara mejor. Para ello, un grupo de directores seleccionado al azar recibió llamadas telefónicas recordándoles que debían descargar los informes y realizar las actividades de seguimiento solicitadas por el Ministerio. Las llamadas variaron tanto en cantidad como en contenido. Mientras algunas escuelas no recibieron ninguna, otras recibieron entre una y cuatro, siempre siguiendo el calendario oficial de los talleres y resaltando la actividad que correspondía realizar en ese momento.

    Los impactos

    En línea con la literatura que documenta bajos niveles de implementación de políticas en países en desarrollo, nuestros datos muestran que solo alrededor de la mitad de los directores del grupo de control abrió el correo enviado por el Ministerio, y apenas cerca del 30 % hizo clic en al menos uno de los enlaces con la información necesaria para poner en marcha la estrategia. Las llamadas de recordatorio aumentaron de forma importante ambos indicadores. La probabilidad de abrir el correo subió en 20 puntos porcentuales y la de hacer clic en los enlaces en 26 puntos porcentuales. En términos relativos, esto representa aumentos de 40 % y 86 % en estos primeros pasos de la política. Los efectos fueron mayores entre las escuelas que recibieron más llamadas, aunque las ganancias adicionales tendieron a reducirse a medida que aumentaba la cantidad de llamadas en algunos indicadores de interacción inicial. Además, el contenido del mensaje también importó. Las llamadas de verificación de recepción del correo fueron especialmente efectivas para generar un primer nivel de compromiso.

    El nivel de cumplimiento fue todavía menor en las acciones más importantes que exigía la política. Solo el 11 % de las escuelas del grupo de control envió al Ministerio evidencia de haber realizado al menos un taller, y apenas el 6 % presentó un plan de mejora escolar. Sin embargo, las llamadas de recordatorio produjeron aumentos importantes en ambas acciones. La probabilidad de enviar evidencia del taller subió en 27 puntos porcentuales y la de presentar un plan de mejora aumentó en 8 puntos porcentuales. También en este caso, recibir más llamadas estuvo asociado con mayores efectos. Además, el contenido del mensaje marcó diferencias interesantes. Los recordatorios dirigidos al equipo directivo aumentaron sobre todo la probabilidad de enviar evidencia de que se había realizado al menos un taller de análisis dentro de la escuela. Por su parte, los recordatorios enfocados en el taller con docentes tuvieron los mayores efectos sobre la presentación de planes de mejora, algo esperable porque son los profesores quienes desempeñan un papel central en su elaboración.

    Finalmente, la evidencia sugiere que, cuatro años después, los estudiantes de las escuelas que recibieron las llamadas muestran mejoras modestas en aprendizaje. Dado el bajo costo de la intervención y el tiempo transcurrido entre esta y la siguiente aplicación de las pruebas, este resultado apunta al potencial que puede tener el uso efectivo de los resultados de las evaluaciones para mejorar el aprendizaje en el futuro.

    Este artículo aporta a varias discusiones importantes en economía de la educación. En primer lugar, muestra que, incluso en un entorno de bajo riesgo, sin mecanismos formales de supervisión ni consecuencias directas sobre salarios o evaluación del desempeño, simples recordatorios pueden influir de manera importante en las decisiones de los servidores públicos. En segundo lugar, va un paso más allá al mostrar que tanto el número como el contenido de las llamadas de recordatorio tienen efectos diferenciados sobre la implementación. En tercer lugar, muestra que el análisis y uso de la información que proveen las pruebas estandarizadas tiene el potencial de mejorar la calidad de los aprendizajes de los estudiantes.

     

    Referencias

    Angrist, Noam, and Stefan Dercon. 2024. “Understanding Gaps between Policy and Practice.” What Works Hub for Global Education Working Paper 2024/04.