L’évaluation authentique au service de l’apprentissage

À quoi sert l’évaluation des étudiants à l’université? À départager les bons étudiants des mauvais? À assigner une note aux étudiants? À faire pester les enseignants?

Si je vous disais que l’évaluation peut être positive et stimulante, me croiriez-vous?

Je parle de l’évaluation authentique. En une phrase, l’évaluation authentique consiste à « évaluer les apprentissages des étudiants de façon constructive et itérative, dans des situations semblables à celles que l’on retrouve dans la réalité de la vie professionnelle » (Prégent et al., 2009, p. 139). Tous les mots de cette définition sont importants. D’abord, l’évaluation authentique est constructive et itérative. Cela signifie que l’évaluation doit faire voir à l’étudiant ce qu’il fait bien et ce qu’il fait moins bien. Pour ce faire, il est recommandé d’utiliser une grille d’évaluation. Les avantages pédagogiques d’une grille d’évaluation sont nombreux: plus grande objectivité, équité, transparence, etc. Personnellement, lorsque j’utilise une grille d’évaluation détaillée, je n’ai jamais à négocier les notes avec les étudiants.

De plus, l’évaluation authentique est itérative, c’est-à-dire que des rétroactions répétées doivent être fournies aux étudiants. Suis-je en train de dire que les enseignants doivent préciser leurs attentes avant l’évaluation finale? Oui! La rétroaction étant un facteur clé de l’apprentissage et de la réussite (Hattie et Timperley, 2007), il est essentiel que les enseignants donnent de la rétroaction à leurs étudiants. Il faut toutefois admettre que la rétroaction détaillée est chronophage. Dans un billet précédent, je concluais justement qu’il fallait parfois dire non aux évaluations formatives. Comment l’enseignant universitaire peut-il concilier la nécessité de donner suffisamment de rétroaction aux étudiants avec ses autres obligations professionnelles? Une partie de la réponse pourrait se trouver dans la grille d’évaluation. En effet, la grille utilisée pour attribuer les notes terminales aux étudiants peut être mise à profit pour donner de la rétroaction pendant la réalisation d’un travail. Il suffit d’omettre les notes littérales ou chiffrées à cette étape.

Le dernier aspect, mais non le moindre, est le caractère authentique de la situation d’évaluation. Dans un contexte d’enseignement comme le mien où les étudiants sont inscrits dans un programme professionnel, il est facile d’imaginer des situations authentiques: rédaction d’une note de breffage pour un ministre, production de contenus pour un blogue corporatif, etc. Il faut toutefois garder à l’esprit que pour être efficace, l’évaluation authentique doit cibler précisément les compétences visées par un cours et être cohérente avec les activités d’apprentissage effectuées préalablement par les étudiants dans ce cours. C’est le principe d’alignement pédagogique, dont j’ai parlé dans un autre billet. Si la tâche d’évaluation n’est pas alignée avec le reste, elle ne sert pas à grand-chose du point de vue de l’apprentissage.

Qu’en dites-vous?

Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81-112.

Prégent, R., Bernard, H., & Kozanitis, A. (2009). Enseigner à l’université dans une approche-programme: guide à l’intention des nouveaux professeurs et chargés de cours. Montréal: Presses internationales Polytechnique.

Comment mesurer l’efficacité d’un dispositif de formation à distance?

Depuis que j’évolue dans le domaine de la formation à distance (FAD), il me vient plusieurs idées d’activités pédagogiques qui intègrent les technologies. Je veux tout essayer! Les jeux sérieux, les wikis, les groupes de discussion, les vidéos, etc. J’en suis toutefois arrivée au point où j’ai besoin d’adopter une approche plus structurée dans ma démarche : je souhaite maintenant vérifier l’efficacité des dispositifs pédagogiques que je mets en place dans mes cours de rédaction.

Le hic, c’est que mesurer l’efficacité, c’est plus facile à dire qu’à faire. Partons des synthèses scientifiques sur l’efficacité de la FAD. Dans une méta-analyse datant de 2010, l’on conclut que les formations hybrides donnent de meilleurs résultats d’apprentissage que les formations entièrement en présentiel (Means et al., 2010). La synthèse de Bernard et al. (2009) apporte une nuance importante, à savoir que ce serait la combinaison de plusieurs éléments qui contribuerait à produire de meilleurs résultats d’apprentissage et non uniquement la modalité d’une formation. Il est donc pertinent de se questionner sur l’efficacité de chaque composante d’une FAD.

Dans les deux études que je viens de mentionner, l’efficacité est mesurée en termes de résultats d’apprentissage. D’emblée, ce critère soulève des questions : comment définir les résultats d’apprentissage? Parle-t-on des notes obtenues par les étudiants dans une activité précise? Considère-t-on la perception des étudiants quant à l’effet d’une FAD sur leur apprentissage? Vous aurez compris que tout chercheur désirant s’aventurer dans ce domaine doit pouvoir s’appuyer sur une définition claire de l’efficacité. Dans quel sens est-ce qu’un dispositif est efficace? Est-il efficace en termes de cout, de temps, de résultats d’apprentissage, de satisfaction? Deuxièmement, il faut se demander à qui profite le dispositif pédagogique. À l’étudiant, à l’enseignant ou aux deux?

Récemment, j’ai commencé à utiliser une nouvelle méthode de rétroaction lorsque je corrige les textes de mes étudiants. Cette méthode s’appelle la rétroaction-conversation et consiste à dialoguer avec l’étudiant à l’intérieur de son texte, en utilisant la fonction commentaire de Word. C’est comme une sorte de clavardage différé. Les réactions des étudiants m’indiquent que la méthode vaut la peine d’être étudiée. Comment puis-je en mesurer l’efficacité?

Dans un premier temps, je crois qu’il faudrait analyser les commentaires que les étudiants rédigent en réponse à mes questions, afin de vérifier dans quelle mesure ils comprennent la rétroaction. Si les résultats de cette étude s’avèrent positifs, je pourrais ensuite tenter de vérifier si la rétroaction-conversation induit un effet sur l’apprentissage des étudiants. Pour ce faire, je pourrais comparer les connaissances des étudiants avant et après la rétroaction-conversation. Je pourrais également vérifier les connaissances de deux groupes distincts, l’un faisant l’expérience de la rétroaction-conversation et l’autre faisant l’expérience d’une autre méthode.

De manière complémentaire, il serait important de savoir ce que les étudiants pensent de la rétroaction-conversation. Ont-ils l’impression d’apprendre? Aiment-ils cette méthode d’apprentissage? En effet, j’estime qu’une étude sur l’efficacité d’un dispositif pédagogique doit prendre en compte la qualité de l’expérience étudiante telle que perçue par les principaux intéressés.

Références

Bernard, R. M., Abrami, P. C., Borokhovski, E., Wade, C. A., Tamim, R. M., Surkes, M. A. et Bethel, E. C. (2009). A meta-analysis of three types of interaction treatments in distance education. Review of educational research, 79(3), 1243-1289.

Means, B., Toyama, Y., Murphy, R., Bakia, M. et Jones, K. (2010). Evaluation of evidence-based practices in online learning: A meta-analysis and review of online learning studies.