Concevoir un QCM avec l’IA peut sembler simple en apparence… mais cette promesse technologique interroge nos pratiques pédagogiques.
Introduction, Un outil ne fait pas une pédagogie
“Super, j’ai généré un QCM en deux minutes !” m'a dit un collègue après que je lui ai présenté l'outil.
Et c’est souvent le premier réflexe enthousiaste lorsqu’on découvre un outil comme QuizWizard.
Et à juste titre : en quelques clics, on peut produire une activité d’entraînement, une évaluation formative, un quiz de révision. Gain de temps, clarté, efficacité.
Mais vient ensuite une autre question, plus subtile : ce QCM… évalue-t-il vraiment ce que je veux que mes élèves apprennent ?
Un bon outil peut alléger notre charge de travail,
mais un mauvais QCM peut alourdir la confusion des élèves, fausser nos décisions pédagogiques, renforcer des inégalités.
C’est ce que rappelle avec finesse un document essentiel que j’ai (re)lu pour aller plus loin :
le Cahier du Louvain Learning Lab n°10 “QCM or not QCM ?”, publié par l’UCLouvain.
Un guide rigoureux, accessible, et profondément éthique sur la manière de concevoir des QCM qui font sens: bien alignés pédagogiquement, disposant d’un barème équitable, capables de générer une vraie rétroaction.
Et si l’intelligence artificielle, au lieu de tout faire à notre place,
pouvait devenir un partenaire discret dans cette conception plus exigeante ?
Un levier pour formuler des objectifs précis, proposer des items variés, voire automatiser une première version, sans jamais remplacer le jugement pédagogique.
Dans cet article, je reprends les 9 étapes clés proposées par le LLL, et je les relis à la lumière de ce que peut, ou ne peut pas, nous apporter une IA générative comme ChatGPT, dans une perspective d’évaluation assistée par l’intelligence artificielle.
2. Neuf étapes clés pour concevoir un QCM avec l’IA (et ce qu’elle peut vraiment apporter)
Symboles représentant les choix pédagogiques dans la conception d’un QCM
Parce qu’évaluer, ce n’est pas produire.
Et qu’un QCM généré par l’IA ne vaut jamais plus que l’intention pédagogique qui le précède, et la relecture critique qui le suit.
Concevoir un bon QCM ne se résume pas à rédiger quelques questions à choix multiples.
C’est un véritable parcours pédagogique, qui engage notre manière d’enseigner, d’évaluer, et de faire apprendre. Parcours ancré dans l’alignement pédagogique, la compréhension fine des niveaux cognitifs (via la taxonomie de Bloom), et la volonté de fournir un feedback constructif aux élèves.
Le Cahier du LLL n°10 identifie neuf jalons essentiels pour construire des QCM cohérents, exigeants et équitables.
Ces étapes couvrent tout le cycle : de l’intention pédagoqique initiale à la rétroaction, en passant par la formulation des questions et de leurres plausibles, la gestion d’un barème QCM juste, ou encore l’analyse des résultats.
À chaque étape, j’ai interrogé ce que peut apporter, ou non, une IA générative comme ChatGPT.
Pas pour déléguer aveuglément ou l’utiliser à tout prix, mais pour savoir où cette technologie peut vraiment nous faire gagner du temps, de la clarté, de la justesse... en un mot, de l'efficience, tout en restant ancrée dans notre intention pédagogique explicite.
Voici donc ces neuf étapes, relues à la lumière de l’intelligence artificielle,
non pas comme un remplacement du jugement enseignant, mais comme un appui discret, potentiellement puissant, dans une démarche exigeante de co-construction d’évaluations justes et utiles.
2.1. Aligner évaluation et apprentissage pour concevoir un QCM avec l’IA
Avant même de rédiger la première question, une étape est souvent négligée ou faite trop rapidement : celle de l’alignement pédagogique.
Autrement dit : ce que je vais évaluer est-il vraiment ce que j’ai fait apprendre, et que je veux que mes élèves retiennent, appliquent ou transfèrent ?
Ce questionnement sur le niveau cognitif ciblé est central, notamment dans une logique d’évaluation formative ou de diagnostic pédagogique assisté par l’IA.
Le Cahier du LLL, référence en la matière publiée par l’UCLouvain, rappelle que tout QCM devrait être au service d’un apprentissage ciblé, et que ce ciblage doit être formulé avec précision.
Deux repères incontournables sont proposés :
En clair : générer une question avec une IA générative, ce n’est pas encore évaluer.
Pour concevoir un QCM avec l’IA, il faut d’abord définir, avec rigueur, l’intention pédagogique explicite, le niveau de mobilisation attendu, et les stratégies de réponse plausibles. Ce qu’on veut vraiment que l’élève sache, sache faire, ou sache mobiliser.
Ce que peut apporter l’IA à cette étape
Un LLM comme ChatGPT peut jouer un rôle utile en amont de la rédaction des items, en tant qu’assistant de clarification pédagogique :
Cette assistance reste cependant propositionnelle : l’IA génère des formulations, pas des intentions pédagogiques.
C’est toujours l’enseignant·e qui détient la décision finale, en fonction du contexte, des objectifs du cours et des caractéristiques des apprenant·es.
L’IA peut aider à la clarifier, pas à la décider.
2.2. Choisir le bon type de question (et ne pas tout faire rentrer dans un QCM conçu avec l’IA)
Même avec un bon alignement pédagogique, une autre erreur guette :
forcer un objectif dans un format mal adapté, ce qui peut nuire à la validité de l’évaluation.
Le Cahier du LLL le rappelle avec justesse : toutes les compétences ne sont pas “QCM-compatibles”.
Et parmi celles qui le sont, il existe une diversité de formats à explorer, selon le type de savoir, le niveau cognitif visé et les capacités que l’on souhaite mobiliser :
Mais surtout, le cahier invite à sortir de la routine et à oser des formats plus riches : les flipped items (questions inversées ou contextualisées) permettent de monter en complexité, même dans un QCM, en proposant une mise en situation, une analyse d’erreur, ou un raisonnement à reconstruire.
Ce type de format est particulièrement utile lorsqu’on choisit de concevoir un QCM avec l’IA dans une logique de complexification progressive.
Un bon QCM n’est donc pas une série mécanique de définitions à cocher, mais une palette stratégique de formats, à articuler selon ce que l’on veut faire émerger chez l’élève. Les formats de questiosn sont choisis en fonction de l’intention pédagogique explicite, du niveau cognitif ciblé, et des stratégies de réponse souhaitées.
Ce que peut apporter l’IA à cette étape
Un LLM peut jouer un rôle d’assistant pédagogique créatif, à condition de lui donner un cadre précis :
Mais attention :
En clair : l’IA peut enrichir la forme, mais seul l’enseignant·e peut en justifier le fond.
2.3. Rédiger des questions de qualité (et ne pas confondre vitesse et rigueur)
C’est souvent ici que l’IA impressionne le plus :
en quelques secondes, elle peut générer une série de QCM à partir d’un texte ou d’un thème donné. Mais concevoir un QCM avec l’IA n’exonère pas des exigences de formulation d’item.
Le Cahier du LLL est clair : un QCM bien rédigé ne se juge pas à sa rapidité de production.
Il se juge à sa clarté, à sa cohérence, et à sa capacité à mobiliser un raisonnement juste, autrement dit, à favoriser une évaluation juste et discriminante.
Voici quelques repères rappelés dans le cahier pour formuler un item de qualité :
Enfin, le cahier déconseille de :
Ce que peut apporter l’IA à cette étape
Un LLM peut être un bon générateur d’ébauches, à condition d’assumer que ces ébauches nécessitent toujours une relecture humaine attentive :
Mais attention :
Autrement dit : l’IA peut proposer. Mais seule la relecture critique transforme une question générée… en vraie situation d’apprentissage.
2.4. Établir la note (et gérer le hasard avec justesse)
Une fois les questions rédigées, une autre question délicate se pose :
Comment traduire les réponses des élèves en une note juste, qui reflète réellement leur niveau de maîtrise ?
Le Cahier du LLL rappelle que noter un QCM, ce n’est pas faire une moyenne brute.
Le système de notation doit impérativement tenir compte d’un facteur clé : le hasard, inhérent à tout test à choix multiples.
Ce que dit la recherche
Le cahier propose une méthode rigoureuse : le standard-setting statistique, qui permet de fixer un seuil de réussite juste , en fonction du nombre d’options par item et de la probabilité de réponse correcte par hasard.
Lorsqu’on choisit de concevoir un QCM avec l’IA, il est essentiel d’intégrer ces paramètres de notation dès la phase de conception.
Par exemple :
pour un QCM à 4 choix, le seuil d'obtention de la moyenne est de 62,5 %, pas 50 %.
C’est ce qu’on appelle la règle du (n+1)/2n.
Autre recommandation forte du cahier :
Le Cahier du LLL rappelle que cela ne renforce ni la validité, ni la fidélité, ni le pouvoir discriminant du test, et que cela peut provoquer une perturbation inutile des élèves.
Ce que peut apporter l’IA à cette étape
À cette étape, un LLM ne remplace ni un cadre institutionnel, ni une réflexion éthique sur l’évaluation.
Mais il peut aider à mieux comprendre et modéliser certains choix :
Mais attention :
Ce que rappelle le cahier, et que l’IA ne peut pas ressentir :
Noter, ce n’est pas trancher arbitrairement.
C’est rendre visible un niveau de maîtrise, en respectant les règles du jeu définies à l’avance, dans une perspective d’évaluation équitable et alignée.
2.5. Relire avant diffusion (et ne pas faire confiance à la première version d’un QCM conçu avec une IA)
Même avec un bon alignement, des formats adaptés, des questions soignées et un barème bien pensé, un QCM peut encore être source d’erreur, d’ambiguïté ou… d’injustice.
Le Cahier du LLL insiste sur un principe simple mais essentiel de toute évaluation : la relecture !
Pourquoi ? Parce que l’enseignant·e connaît trop bien la bonne réponse.
Il ou elle ne voit plus ce que l’élève ne verra pas.
Il ou elle ne repère plus certains biais linguistiques, des formulations trompeuses, ou encore des indices involontaires dans les réponses.
Le cahier recommande donc trois niveaux de relecture :
Ce que peut apporter l’IA à cette étape
Un LLM bien utilisé peut jouer un rôle complémentaire de correcteur technique, sans jamais remplacer une vraie relecture pédagogique humaine :
Mais :
Moralité ?
L’IA peut jouer le rôle d’un assistant linguistique ou d’un correcteur orthopédagogique,
mais la relecture pédagogique reste une affaire de regard collectif.
C’est dans la confrontation des points de vue que l’équité progresse.
2.6. Informer et impliquer les élèves (plutôt que de les surprendre)
Un QCM peut être rigoureux, bien rédigé, bien noté…
Mais il reste un dispositif opaque pour celui ou celle qui le subit sans en comprendre les règles.
Le Cahier du LLL insiste donc sur une dimension trop souvent négligée : clarifier les attendus et rendre les élèves partenaires actifs de l’évaluation.
Cela passe par plusieurs leviers pédagogiques très concrets :
Bref : un QCM, ce n’est pas un piège.
C’est une invitation à mobiliser ses apprentissages dans un cadre transparent, structuré et assumé. Informer les élèves sur les règles du jeu permet de concevoir un QCM avec l’IA qui ne soit ni perçu comme arbitraire, ni comme un piège.
Ce que peut apporter l’IA à cette étape
Un LLM peut être un outil d’explication et de médiation pédagogique :
Mais attention :
Un bon usage de l’IA ici ?
Non pas pour "entraîner à réussir" un QCM,
mais pour rendre visibles ses règles du jeu, et former des élèves capables de les interroger afin de se repérer dans un dispositif d’évaluation juste..
2.7. Automatiser la passation (sans sacrifier l’équité)
Une fois les questions prêtes, la tentation est grande de tout déléguer à la plateforme.
Moodle, Wooclap, TestWe, … Les outils numériques permettent aujourd’hui de :
Mais là encore, le Cahier du LLL invite à une automatisation consciente, respectueuse du cadre pédagogique.
Générer 10 versions différentes d’un QCM ne garantit pas l’équité si certaines versions sont plus difficiles que d’autres car plus complexes, déséquilibrées ou inégalement distribuées.
Il faut s’assurer que chaque version couvre les mêmes types d’items, les mêmes niveaux cognitifs, les mêmes champs disciplinaires.
Cela implique :
Automatiser, oui, mais pas au détriment du sens pédagogique, de l’équité ni de l’expérience des élèves.
Ce que peut apporter l’IA à cette étape
Un LLM peut être un assistant technique à la préparation, mais il ne remplace pas le jugement pédagogique dans l’exécution :
Mais :
En résumé : l’IA peut aider à préparer des passations plus fluides et techniquement cohérentes,
mais ne peut garantir ni l’équité, ni la sécurité, ni l’accessibilité réelle d’un QCM en ligne.
C’est une aide pour soulager.
Pas un garant d’une évaluation juste.
2.8. Analyser les résultats (et ne pas se contenter d’un score final)
Un QCM bien construit ne s’arrête pas à la note.
Ce n’est pas un simple verdict.
C’est un outil de diagnostic pédagogique, au service de l’ajustement de l’enseignement, et non une machine à classer.
Le Cahier du LLL met en lumière un levier souvent ignoré ou sous-exploité :
l’analyse postérieure des résultats à travers des indicateurs psychométriques simples et puissants :
Le cahier recommande ensuite plusieurs actions correctrices concrètes, selon les résultats observés :
Ce que peut apporter l’IA à cette étape
Un LLM bien guidé peut jouer un rôle précieux d’interprète pédagogique des résultats, à condition de lui fournir des données fiables :
Mais :
Ce que l’IA peut faire ici, c’est vous aider à faire parler les chiffres,
sans les transformer en vérités brutes.
Car évaluer, ce n’est pas juger, c’est comprendre pour mieux accompagner.
Et l’analyse post-évaluation fait partie intégrante de la démarche pour concevoir un QCM avec l’IA utile et formatif.
2.9. Donner un feedback utile (pas seulement une note)
Un QCM peut être bien aligné, bien rédigé, bien noté, bien analysé…
Mais si, à la fin, l’élève ne reçoit qu’un chiffre, alors l’évaluation est incomplète.
Le Cahier du LLL insiste : un feedback, ce n’est pas une correction. C’est une information qui permet d’agir.
En l’absence de feedback :
Un bon feedback, selon le cahier, est :
Différents dispositifs de rétroaction formative sont évoqués :
Ce que peut apporter l’IA à cette étape
Un LLM bien configuré peut devenir un allié discret pour formuler un feedback pédagogique clair, utile, et déculpabilisant :
Mais :
Ce que l’IA peut faire ici : outiller une parole juste, accélérer la production de feedback personnalisés, et aider à structurer une rétroaction formative accessible.
Mais ce qu’elle ne peut pas faire, c’est remplacer la relation pédagogique,
ni anticiper ce que l’élève fera, ou ne fera pas, de ce retour.
3. L’IA pour concevoir des QCM : un levier d’autonomie ou de paresse pédagogique ?
Visuel métaphorique du dilemme entre autonomie pédagogique et paresse technologique
L’intelligence artificielle peut impressionner par sa rapidité.
En quelques secondes, elle génère des questions, formate un quiz interactif, reformule une consigne.
Et dans un quotidien enseignant saturé, cela peut sembler magique, voire salutaire.
Mais à force de déléguer, on peut finir par renoncer à penser.
Car un QCM n’est pas une simple tâche à produire. C’est un acte pédagogique structurant, qui engage notre vision du savoir, de l’apprentissage et de la progression des élèves.
Derrière chaque question posée se cache une autre question, plus essentielle :
qu’est-ce que je veux que mes élèves mobilisent, transforment, retiennent, et transfèrent ?
Ce que l’IA peut (et doit) rester :
Ce que l’IA ne doit pas devenir :
Revenir à l’essentiel : concevoir un QCM avec l’IA, pas juste en consommer
L’enjeu n’est pas de produire plus.
L’enjeu est de concevoir mieux, dans une logique d’évaluation alignée, exigeante, et juste.
Ce que ce parcours en 9 étapes nous rappelle, c’est que chaque phase de la conception d’un QCM peut être enrichie par l’IA, mais aucune ne peut être confiée entièrement à elle.
La technologie n’est pas neutre.
Elle peut nous soulager… ou nous éloigner, selon l’intention avec laquelle nous l’utilisons.
Utiliser l’IA pour gagner en efficience, oui.
L’utiliser pour éviter de penser, non.

Je découvre ton blog, il est super. Ton article est top, Je l’ai ajouté à mes favoris il va me servir pour faire mes QCM merci pour ce partage.