Recomiendo leer
Tweet
Empieza el curso y reaparece la tentación de “pasarles un examen” para saber dónde están o, simplemente, para rellenar el informe que te piden. Comprensible; pero poco útil si lo entiendes como un filtro o utilizas esa información de manera apresurada. Una evaluación diagnóstica sensata no clasifica ni pronostica el año: sirve para decidir qué harás las primeras semanas de curso—a quién reagrupar, qué andamios activar, qué secuencia ajustar—con la mayor suavidad posible. La investigación apunta indicios, además, de un detalle que a veces sorprende: pequeñas pruebas bien diseñadas pueden mejorar el aprendizaje, no solo medirlo. (Roediger & Karpicke, 2006).
Algunas claves para hacerlo bien
El primer pilar es provocar el pensamiento antes de enseñar. El llamado efecto pretesting muestra que intentar responder a preguntas antes de estudiar (y fallar, inevitablemente) prepara el terreno para aprender mejor después, siempre que haya instrucción o feedback que cierre el ciclo y, por supuesto, que no exista una penalización por fallar esas preguntas. En un estudio clásico, el alumnado que recibió preguntas previas sobre un texto—y no pudo responderlas bien—lo recordó mejor que quienes solo estudiaron más tiempo, incluso tras una semana de demora: un efecto de preprueba atribuible a los intentos de evocación, no solo a “prestar más atención”. (Richland, Kornell, & Kao, 2009).
En definitiva, se trata de ver estas pruebas diagnosticas como prácticas de evocación. Tomar pequeñas pruebas, frecuentes y de baja presión, consolida la memoria mejor que releer; el beneficio se hace mayor con el tiempo porque lo recuperado se olvida más lentamente. Conviene verlo menos como “examen” y más como aprendizaje: extraer de memoria pone a trabajar los procesos que estabilizan el recuerdo. (Roediger & Karpicke, 2006).
El segundo pilar, más fundamental si cabe, consiste en entender que diagnosticar no es contar aciertos, sino cartografiar concepciones, es decir, detectar cuáles son las concepciones erróneas más importantes sobre aquello que se va a aprender en los primeros meses de curso. Para eso sirve la evaluación diagnostica: ¿qué es lo más difícil de entender? ¿Qué les cuesta más, o tienen peor base? Aquí encajan dos ideas que merece la pena traer al aula. La primera, las preguntas bisagra de Dylan Wiliam: preguntas que te permiten decidir por dónde empezar, qué conceptos reforzar, o qué elementos están consolidados. Bien planteadas, recogen respuesta de toda la clase y discriminan entre “acerté por la razón correcta” y “acerté de casualidad” (Wiliam, 2015).
En este sentido, la segunda idea es una veterana en didáctica de las ciencias: los ítems diagnósticos de dos niveles: primero un test de opción múltiple, eliges una opción, después justificas. Las opciones incorrectas no se inventan; representan ideas erróneas típicas recogidas por la investigación, de manera que el patrón de errores es informativo. Este enfoque, sistematizado por Treagust (1988), ha dado lugar a instrumentos validados como los concept inventories: por ejemplo, el Force Concept Inventory consiste en una lista de intuiciones erróneas pero persistentes sobre fuerzas y movimiento. Mirar el error así—como dato—es el corazón del diagnóstico útil. (Treagust, 1988; Hestenes, Wells, & Swackhamer, 1992).
Todo esto descansa en la tercera idea que conviene no olvidar: devolver buen feedback y actuar en consecuencia. El modelo de Hattie y Timperley sigue siendo una brújula razonable: clarificar la meta (feed up), ubicar dónde estás (feed back) y señalar el siguiente paso (feed forward), evitando la retroalimentación que halaga pero no mueve el aprendizaje. Lo decisivo no es el formato (oral, escrito) sino que la retroalimentación cambie lo que el alumnado hace después y lo haga pronto. (Hattie & Timperley, 2007).
¿Cómo se traduce todo esto en septiembre sin convertirlo en una gincana?
Propónte tres momentos que se integran en la enseñanza, no la interrumpen. El primer día, lanza 6–8 preguntas que activen los prerrequisitos del primer trimestre; no van a nota y se revisan en el momento para encuadrar la primera parte del curso. En la primera semana, aplica un mini-diagnóstico de diez o doce minutos con 6–8 ítems (si puedes, de dos niveles: responder y justificar) y una o dos justificaciones: el objetivo es detectar patrones, no agotar el temario. Y, al comenzar el tema, inserta una pregunta bisagra que te permita decidir si seguir o volver atrás; planifica la respuesta a los errores antes de entrar en clase (Richland et al., 2009; Wiliam, 2015; Treagust, 1988).
Peligros comunes de la evaluacion inicial
El diagnóstico inicial interpretado como un examen puede confundir barreras lingüísticas, de contexto o de familiaridad con “falta de competencia”, y la tentación de bajar expectativas o de prejuzgar al alumnado en el primer día es real. Vale la pena recordar las propias guías de implementación: empieza por algo pequeño, comprueba si funciona en tu contexto. No requiere plataformas rimbombantes ni exámenes kilométricos; sí, un poco de diseño con una intención clara.

Bibliografía
Education Endowment Foundation. (2019). Putting evidence to work: A school’s guide to implementation. https://d2tic4wvo1iusb.cloudfront.net/eef-guidance-reports/implementation/EEF_Implementation_Guidance_Report_2019.pdf CloudFront
Education Endowment Foundation. (2021). Teacher feedback to improve pupil learning (Guidance report). https://educationendowmentfoundation.org.uk/education-evidence/guidance-reports/feedback EEF
Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112. https://doi.org/10.3102/003465430298487 SAGE Journals
Hestenes, D., Wells, M., & Swackhamer, G. (1992). Force concept inventory. The Physics Teacher, 30(3), 141–158. https://doi.org/10.1119/1.2343497 pubs.aip.org
Richland, L. E., Kornell, N., & Kao, L. S. (2009). The pretesting effect: Do unsuccessful retrieval attempts enhance learning? Journal of Experimental Psychology: Applied, 15(3), 243–257. https://doi.org/10.1037/a0016496learninglab.uchicago.edu
Roediger, H. L., III, & Karpicke, J. D. (2006). Test-enhanced learning: Taking memory tests improves long-term retention. Psychological Science, 17(3), 249–255. https://doi.org/10.1111/j.1467-9280.2006.01693.x SAGE Journals
Treagust, D. F. (1988). Development and use of diagnostic tests to evaluate students’ misconceptions in science. International Journal of Science Education, 10(2), 159–169. https://doi.org/10.1080/0950069880100204 Taylor & Francis Online
Wiliam, D. (2015). Designing great hinge questions. Educational Leadership, 73(1), 40–44. https://www.ascd.org/el/articles/designing-great-hinge-questions






Deja un comentario