El 80% de los contenidos de las pruebas PISA evaluados, incluidos en los diseños curriculares de todo el país, muestran un retroceso respecto de 2018, que debería ser corregido en las aulas.
En Argentina, solo 1 de cada 4 alumnos de 15 años (27%) puede resolver un ejercicio de regla de tres simple, según se desprende de un exahustivo análisis de los resultados de las pruebas PISA de Matemáticas desde 2006 hasta 2022.
Apenas el 36% de los estudiantes alcanza el rendimiento necesario para resolver un ejercicio de proporciones con un nivel “1a” de dificultad (por debajo del mínimo requerido en PISA), mientras que el 20% puede resolver ejercicios de un nivel 2 (el mínimo esperado, según los parámetros de la prueba).
Los contenidos evaluados muestran un retroceso respecto de 2018, cuando el 69,1% de los alumnos no había logrado el nivel mínimo, mientras que la proporción había sido 66,5% en 2012. Esto había sido 63,6% en 2009 y 64,1% en 2006.
El informe “Abriendo la caja: ¿qué evalúa PISA en Matemática?”, del Observatorio de Argentinos por la Educación, con autoría de Nicolás Buchbinder (Universidad de Colorado Boulder), Martín Nistal y Eugenia Orlicki (Observatorio de Argentinos por la Educación) extrae las respuestas y niveles de dificultad de los ejercicios “liberados” por PISA, en relación con los contenidos enseñados en cada país.
A pesar de los bajos resultados, el trabajo muestra que hay una relación estrecha entre los contenidos evaluados y el currículum nacional de Matemática: el 79,2% de los contenidos de la prueba PISA están incluidos en los diseños curriculares de Argentina, mientras que el 17,8% aparece en algunos currículums y el 3% no está presente.
Comparación con vecinos
En otros países de la región es aún más alta la proporción de contenidos evaluados cuya enseñanza está prevista en las currículas nacionales: sube al 84,1% en Uruguay; 98,1% en Chile; y 99,6% en Brasil.
“La Teoría de Respuesta al Ítem, muy difundida en evaluaciones estandarizadas, permite estimar qué porcentaje de estudiantes podría responder a cada uno de los ejercicios de una evaluación y eso es lo que intentamos hacer con los ejemplos liberados de PISA. Ésta es una práctica no tan frecuente que podríamos adoptar en nuestras evaluaciones nacionales y jurisdiccionales para mejorar los reportes de resultados”, sostuvo el coautor Nicolás Buchbinder.
Para Andrés Rieznik, doctor en Física, divulgador y profesor de UTDT, “la comparación con países vecinos a la hora de evaluar los éxitos y fracasos del sistema educativo argentino es dolorosa y necesaria. Estamos muy por detrás de Chile y Uruguay”.
La profesora del departamento de Matemática de la Universidad de San Andrés e investigadora del ConiceT, Marcela Svarc, dice que “es esperable que mejorar la enseñanza en el nivel secundario impacte positivamente en las tasas de aprobación y en la reducción de la deserción universitaria”.
Según Inés Zerboni, licenciada en Psicopedagogía y Neuropsicología, directora de Proyecto E, se necesita el compromiso de toda la sociedad para revertir esto, tal como se lo está logrando con los acuerdos por la alfabetización y comprensión lectora; es crucial que los estudiantes de hoy en día desarrollen competencias matemáticas, no sólo para su vida académica y profesional, sino también para enfrentar los desafíos de la vida diaria. Debemos aprender de países como Singapur, que han logrado excelentes resultados en esta área”.
La metodología del estudio
En la prueba PISA de Matemática, cada estudiante recibe como máximo 30 ejercicios; no todos responden las mismas consignas. La OCDE, el organismo que toma la evaluación, publicó 10 ejercicios (“ítems liberados”) con su grado y nivel de dificultad. El informe muestra algunos de esos ejercicios, que evalúan el cálculo de proporciones en situaciones literales y abstractas, regla de tres simple y ecuaciones sencillas.
“Para realizar las pruebas PISA, primero se analizan las currículas nacionales para entender qué se enseña en cada país. Luego, se compara ese contenido con la evaluación de PISA para identificar coincidencias y diferencias. Con esta información, se desarrollan y adaptan ejercicios de evaluación culturalmente relevantes y alineados con los objetivos curriculares locales”, comienzan explicando los autores.
“Posteriormente, los ejercicios se validan y adaptan para asegurar la equivalencia en todos los países participantes. Finalmente, los resultados se contextualizan considerando las diferencias curriculares, lo que permite interpretaciones más precisas y comparaciones justas entre países”, completan.