Quand on demande aux enseignants ce qu’ils font, ils répondent « je fais cours » ; jamais « je donne des examens ». Et pourtant, comme l’observe Paola Roldán, l’évaluation nous préoccupe autant, sinon plus, que l’acte même de donner cours. Cette dissociation — entre le moment créatif et artisanal du cours et ce que nous ressentons comme la « souffrance » de l’examen — devient particulièrement complexe à l’ère de l’intelligence artificielle générative.
Mais aujourd’hui, cette souffrance prend une nouvelle dimension : quelle valeur a un examen qu’une application d’IA peut résoudre en quelques secondes ? Cette question touche au cœur même de notre métier et nous oblige à tout repenser.
Les questions qu’on ne peut pas repousser
Comment accréditer des connaissances quand un logiciel peut résoudre la tâche que nous demandons de manière quasi professionnelle ? Qu’est-ce que nous accréditions vraiment ? Quels sont les nouveaux défis auxquels nous sommes confrontés en tant qu’enseignants et quels mécanismes sont nécessaires pour favoriser des évaluations qui font partie de l’apprentissage, qui promeuvent la pensée critique et l’analyse ? Quels sont les défis pour les institutions en matière d’accréditation des connaissances ?
Évaluer dans ce contexte signifie se poser non seulement la question « que sait chaque étudiant », mais aussi « comment le sait-il », « quelles décisions prend-il », « comment dialogue-t-il avec l’information » et « quel sens lui donne-t-il ». L’évaluation ne peut se comprendre comme un audit de ce qui a été produit, mais comme une conversation sur ce qui a été pensé, une cartographie du parcours cognitif et émotionnel de l’étudiant.
C’est pour cette raison que l’irruption de l’IA nous oblige à repenser l’évaluation non comme un moment final de vérification, mais comme un processus continu et intégré à l’apprentissage. Les évaluations formatives dont nous parlons toujours et que nous pratiquons peu prennent de l’importance, permettant aux étudiants de réfléchir sur leur propre processus de construction des connaissances et de développer une métacognition sur leurs stratégies d’apprentissage.
Stratégies pour évaluer ce qui est spécifiquement humain
Les IAs opèrent sur des bases de données publiques et des modèles statistiques généraux. C’est pourquoi les vraies questions pertinentes sont celles profondément ancrées dans l’expérience de classe :
- Matériels exclusifs du cours : Incluez des extraits de lectures traitées en classe, des transcriptions de débats ou des exemples analysés collectivement. Une IA n’a pas eu accès à ces discussions spécifiques.
- Interprétation de représentations visuelles propres : Les graphiques, schémas ou images d’expériences réalisées par les étudiants eux-mêmes exigent une lecture contextualisée que seuls eux peuvent fournir.
- Jugement critique avec critères explicites : Au lieu de demander « qu’est-ce que X ? », demandez « quel argument est plus solide face à X, et pourquoi ? ». Toutes les options doivent être plausibles et se différencier par des nuances conceptuelles.
- Transfert vers des contextes authentiques : Concevez des scénarios cohérents où l’étudiant doit adapter les concepts à des situations nouvelles. Cela évalue la compréhension profonde, pas la reproduction.
La mettre en pratique avec Educativa
Notre LMS offre des outils spécifiques pour concrétiser ces idées :
- Format « Sélection d’options »: Permet de lier des ressources multimédia de classe et d’ajouter une rétroaction formative.
- Format « Compléter les espaces »: Idéal pour l’analyse de cas contextualisés avec des options spécifiques.
- Format « Relier les concepts »: Parfait pour cartographier les réseaux d’idées travaillées collectivement.
- Étiquettes et unités: Filtrent les questions par type de pensée (analyse, jugement critique, transfert).
NOUVEAU TYPE D’ÉLÉMENT:
- Format « Ordonnancement/Séquence »: Permet de créer des questions où les étudiants doivent ordonner les options dans une séquence valide. Idéal pour évaluer la compréhension des processus, des chronologies travaillées en classe ou des hiérarchies conceptuelles spécifiques du cours.
Rappel technique
Une fois qu’une question est utilisée dans une évaluation avec remises, elle ne peut pas être modifiée. Testez les nouveaux designs dans les évaluations formatives avant de les utiliser dans les instances d’accréditation.
Vers une évaluation transformatrice
Dans ce contexte, les autoévaluations jouent un rôle central. Non pas comme de simples questionnaires de révision à la fin du processus, mais comme des dispositifs intégrés qui accompagnent l’apprentissage. Quand un étudiant réfléchit à « quelle partie de ce problème m’a été la plus difficile et pourquoi ? », il développe une compétence qu’aucune IA ne peut reproduire : la métacognition sur son propre processus de construction des connaissances.
La clé est de concevoir des autoévaluations qui soient de véritables espaces de réflexion, où les étudiants peuvent cartographier leur parcours cognitif et émotionnel.
Si vous avez des questions, l’équipe d’assistance est disponible pour vous aider à soporte@educativa.com.