Comprendre ChatGPT (2) : comment enseigner avec l’IA ?

Cette deuxième partie prolonge notre exploration de ChatGPT avec un focus clair : enseigner avec l’IA. Il s’agit de développer une véritable confiance numérique et d’oser des usages pédagogiques lucides, sans naïveté ni rejet.

III. Enseigner avec l’IA : de la lucidité technique à la confiance numérique

Comprendre comment fonctionne une IA, ce n’est pas devenir technicien.
C’est simplement retrouver du pouvoir d’agir.
Beaucoup d’enseignants le sentent : face à ces outils nouveaux, la frontière entre curiosité et inquiétude est ténue.
On aimerait explorer, mais sans se perdre.
On voudrait essayer, mais sans tout risquer.

C’est ici qu’intervient ce que le psychologue Albert Bandura appelait le sentiment d’efficacité personnelle, cette conviction intime : « Je peux y arriver. »
Appliqué au numérique, il devient sentiment de compétence numérique : non pas “je sais tout faire”, mais “je me sens capable d’essayer”.
La nuance est décisive.
Car entre savoir et oser, il y a tout un espace à habiter : celui de l’expérience progressive.

Cette intuition est confirmée par des travaux comme ceux de Stéphanie Boéchat-Heer, 2018 (pdf), qui mettent en évidence une corrélation nette entre le sentiment d’auto-efficacité des enseignants et trois leviers : la qualité de la formation reçuela fréquence d’usage des outils numériques, et la collaboration entre pairs.
L’étude souligne que nombre d’enseignants utilisent encore les technologies comme simple support, faute d’un accompagnement centré sur les compétences pédagogiques et didactiques liées au numérique.

En formation, cela implique un changement de focale :
ne pas seulement former aux outils, mais montrer leur plus-value concrète dans la discipline, créer des espaces d’entraînement et de feedback, et valoriser les récits d’expérimentation entre collègues.

Ces constats font écho à mon propre travail de terrain : les formations que je propose s’appuient sur cette logique de progressivité, d’exemples contextualisés et de partage d’expérience, pour construire une confiance durable et non dogmatique. Car pour construire la confiance numérique, il ne suffit pas de former à l’outil. Il faut accompagner l’expérience vécue, reconnaître les doutes, valoriser les essais, même hésitants. Ces éléments sont fondamentaux pour enseigner avec l’IA de manière réfléchie.

Trois leviers pour enseigner avec l’IA en toute confiance

  1. 1
    Comprendre les mécanismes pour réduire l’anxiété.
    Chaque fois qu’on éclaire un fonctionnement (tokens, fenêtre contextuelle, limites du modèle), la peur recule un peu.
    Ce n’est pas la complexité qui inquiète, mais l’opacité.
    Comprendre, même partiellement, rend la technologie moins magique donc moins menaçante.
  2. 2
    Expérimenter à petits pas pour renforcer la confiance.
    Pas besoin d’un projet ambitieux.
    Il suffit parfois d’un geste minuscule : demander à ChatGPT de reformuler une consigne, de proposer une autre façon d’expliquer une notion, ou d’imaginer un contre-exemple.
    Ces micro-essais sans enjeu construisent une familiarité sereine et renforcent la confiance pour enseigner avec l’IA, un pas après l’autre.
  3. 3
    Partager entre pairs pour stabiliser la compétence.
    Ce qu’on comprend seul, on l'oublie vite.
    Ce qu’on échange, on l'intègre durablement.
    Raconter ses essais, même modestes, transforme l’outil en objet de co-apprentissage, et non en menace isolante.
    C’est tout l’esprit du Cadre de référence des compétences numériques (CRCN) et du DigCompEdu : la confiance collective comme condition d’innovation raisonnée.

Trois micro-expérimentations pour apprivoiser ChatGPT

  1. Choisissez un texte déjà écrit (votre mail, une consigne, une source...).
    Demandez à ChatGPT :
    Peux-tu reformuler ce texte pour qu’il soit compris par un élève de 12 ans ?
    Comparez ensuite votre version et la sienne.
    Vous venez d’observer comment l’IA pense la simplification.La reformulation éclair.
  2. Le miroir de consigne.
    Donnez à l’IA une consigne de travail, puis demandez-lui :
    Comment un élève pourrait mal interpréter cette consigne ?
    Ce petit jeu révèle la logique implicite de vos formulations et anticipe les malentendus.
  3. Le pas de côté collectif.
    En salle des profs, testez ensemble une même question sur ChatGPT.
    Comparez vos réponses.
    Vous venez de créer une situation de pairagogie réflexive : on apprend ensemble à lire la machine.

💬 Question réflexive : Quel usage simple pourriez-vous tester sans crainte dès cette semaine ?

La confiance numérique n’est pas un préalable à l’action : elle se construit dans l’action.
Chaque micro-essai réussi, chaque erreur comprise, chaque échange partagé renforce cette posture de lucidité tranquille.
Et c’est souvent à ce moment précis, quand l’enseignant cesse de “maîtriser” pour commencer à jouer sérieusement avec l’outil, que la pédagogie redevient un espace d’exploration, pas d’épuisement.

IV. Enseigner avec l’IA : transformer l’outil en allié pédagogique

Enseignant utilisant l’intelligence artificielle comme support d’apprentissage en classe

Un enseignant accompagne ses élèves dans une expérimentation d’apprentissage avec l’IA.

On parle souvent de l’intelligence artificielle comme d’un gain de temps. Or enseigner avec l’IA ne revient pas à aller plus vite, mais à penser différemment.
Dans la classe, son véritable potentiel n’est pas de faire “plus vite”, c’est d’aider à penser autrement.
L’enseignant ne délègue pas son jugement : il l’exerce autrement, à travers le dialogue avec un outil imparfait.

Dans beaucoup de salles de classe, ChatGPT entre par effraction.
Un élève s’en sert pour un devoir, un autre pour comprendre une consigne.
Ce qui semblait une triche devient alors une occasion rare : observer une pensée en train de se fabriquer, mais sans intention humaine.
Et si cette étrangeté devenait un support d’apprentissage ?
Si l’IA cessait d’être un rival invisible, pour devenir un interlocuteur à interroger ensemble ?

1. Différencier sans s’épuiser en enseignant avec l’IA

L’un des premiers usages légitimes et doux : adapter sans s’épuiser.
Demander à l’IA de produire trois variantes d’un même texte, pour un lecteur débutant, intermédiaire et avancé, permet d’ouvrir des chemins différenciés, sans doubler la charge de préparation.
Mais l’essentiel n’est pas la production automatique : c’est l’analyse collective de ce que ces versions disent du sens, du ton, du vocabulaire. Cela montre une manière concrète d’enseigner avec l’IA sans renoncer à l’exigence pédagogique.

L’enseignant guide alors la comparaison :

Qu’est-ce qui change entre ces textes ? Pourquoi ? Qu’est-ce que cela révèle de notre manière d’écrire pour être compris ?”

Ainsi, l’IA devient un prétexte à expliciter la pédagogie, pas un substitut à la réflexion didactique.

2. L’IA au service d’une pédagogie inclusive

Une simple consigne peut exclure sans le vouloir.
Demander à ChatGPT de la reformuler “pour un élève dyslexique” ou “pour un élève allophone” permet d’explorer la plasticité du langage pédagogique.
Il ne s’agit pas de copier la proposition, mais d’observer ce que l’outil comprend, et ce qu’il oublie.
C’est une manière de penser la langue comme un espace de justice cognitive : comment formuler pour que chacun puisse entrer dans les apprentissages ?

3. Enseigner avec l’IA comme tiers apprenant réflexif

Le plus fécond, peut-être, c’est quand l’IA devient un co-agent de questionnement.
Dans certaines classes, les élèves comparent deux réponses générées à la même question.
Ils débattent : laquelle est la plus claire ? la plus juste ? la plus nuancée ?
Ce débat, qu’on croyait technique, devient un exercice métacognitif.
Les élèves apprennent à lire les réponses de l’IA comme des textes produits par un système, pas comme des vérités.
Ils découvrent, presque malgré eux, la grammaire du raisonnement critique. Ces débats sont donc des occasions uniques d’enseigner avec l’IA comme levier de pensée critique.

C’est là que l’enseignant reprend toute sa place : non comme garant du savoir, mais comme médiateur entre l’humain et l’algorithme.
Un médiateur qui invite à observer, douter, reformuler.

De l’assistant à l’interlocuteur : penser avec l’IA, pas à sa place

Si l’IA…

Alors l’enseignant peut…

Propose une réponse fausse

En faire un point de départ : « Qu’est-ce qui a pu induire cette erreur ? »

Donne une réponse correcte mais plate

Chercher la nuance : « Comment la rendre plus vivante, plus humaine ? »

Produit plusieurs versions différentes

Comparer, classer, argumenter : « Laquelle vous semble la plus convaincante ? Pourquoi ? »

Simplifie trop un contenu

Discuter de ce qu’on perd en simplifiant : « Jusqu’où peut-on rendre clair sans appauvrir ? »

Chaque échange avec l’IA peut devenir une situation de pensée collective.
Le savoir n’est plus transmis : il se co-construit dans le frottement entre la logique humaine et la logique probabiliste.

💬 Question réflexive : Comment transformer une réponse IA en activité d’analyse collective ?

Faire entrer l’IA en classe, ce n’est pas introduire un gadget :
c’est ouvrir un miroir cognitif où élèves et enseignants apprennent ensemble à penser le savoir.
Et peut-être, dans ce miroir, redécouvrir que l’intelligence n’est pas ce que la machine calcule, mais ce que nous faisons de ses erreurs.

V. Enseigner avec l’IA : vigilance et justice cognitive

Élèves participant à un échange en classe sur l’usage responsable de l’intelligence artificielle

Des élèves échangent en classe sur les usages responsables et éthiques de l’intelligence artificielle.

La confiance n’exclut pas la vigilance.
Dans l’euphorie de la découverte, il est tentant d’oublier que tout outil a sa logique, et donc ses angles morts.
Or, enseigner l’IA, c’est aussi apprendre à en surveiller les ombres : celles des biais, des illusions de neutralité, des dépendances invisibles.

1. Trois filtres pour enseigner avec l’IA sans naïveté

Chaque usage éducatif de ChatGPT devrait passer, consciemment ou non, par trois filtres critiques, les mêmes déjà évoqués dans la partie II :

  1. 1
    Véracité : ce que dit le modèle est-il vrai, ou simplement vraisemblable ?
    L’erreur ici n’est pas une faute, mais une occasion d’exercer la rigueur intellectuelle.
  2. 2
    Pertinence : la réponse éclaire-t-elle la question posée, ou détourne-t-elle le sujet ?
    L’IA adore les paraphrases : à nous de repérer les détours élégants mais creux.
  3. 3
    Valeur éducative : la réponse aide-t-elle à apprendre, à comprendre, à penser ?
    Ce critère est le cœur du métier : ne jamais confondre clarté et profondeur.

Ces trois filtres ne sont pas des garde-fous techniques, mais des postures de lecture.
Ils rappellent que la vigilance, en éducation, n’est pas de la méfiance : c’est une exigence professionnelle.

2. Protéger les données pour enseigner avec l’IA en toute éthique

Un principe simple, souvent oublié :

Aucune production d’élève ne doit être confiée à un outil d’IA connecté sans un cadre éthique explicite, une anonymisation rigoureuse, et une intention pédagogique assumée.

Derrière cette règle, il n’y a pas qu’un risque juridique (RGPD, traçabilité).
Il y a un enjeu éthique plus profond : le respect de l'humanité de l’apprenant.
Chaque production, surtout maladroite, est un geste de confiance. Elle engage une pensée, un effort, une intention. L’IA peut accompagner une correction : clarifier, structurer, faire gagner du temps. Mais elle ne peut pas se substituer à la relation entre un élève qui s’expose et un adulte qui répond.

Ce n’est pas seulement une question de cadre légal, mais de posture pédagogique :
corriger, c’est entrer en lien. C’est reconnaître un cheminement.
Et ce lien, aucun algorithme ne peut le créer à notre place.

3. La justice cognitive : un horizon éthique pour l’école augmentée

Derrière la vigilance, se dessine un autre enjeu : la justice cognitive.
Si certains enseignants, ou certains élèves, disposent du savoir et du matériel pour comprendre ces outils, et d’autres non, une nouvelle fracture s’installe : entre ceux qui interprètent l’algorithme et ceux qui le subissent.

L’enjeu n’est donc pas seulement d’apprendre à utiliser l’IA, mais d’en démocratiser la compréhension.
C’est cela, la justice cognitive : garantir à chacun le droit de comprendre les outils qui modèlent son monde.

Pour un enseignant, cette justice se traduit par une posture éthique claire :

“L’enseignant n’est pas remplacé, il devient médiateur entre le savoir et l’algorithme.”

Cette médiation, humble et exigeante, consiste à rendre visible ce qui est caché pour garantir que chacun puisse enseigner avec l’IA dans un cadre éthique et équitable. Il s'agit de dévoiler les logiques statistiques derrière une phrase fluide, les biais culturels derrière une réponse polie, les hiérarchies implicites derrière une apparente neutralité.

💬 Question réflexive : Jusqu’où peut-on déléguer sans renoncer à sa responsabilité éducative ?

L’intelligence artificielle ne menace pas la mission éducative.
Elle la rend plus urgente.
Car dans un monde où les réponses se multiplient à l’infini, le rôle du pédagogue est de préserver la rareté la plus précieuse : celle du jugement éclairé.
Non pas celui qui sait tout, mais celui qui sait s’arrêter, douter, et transmettre cette vigilance comme un héritage commun.

VI. Enseigner avec l’IA : vers une culture éducative partagée

Enseignants collaborant autour d’ordinateurs sur l’usage éducatif de l’intelligence artificielle

Des enseignants collaborent pour construire une culture commune autour de l’IA en éducation.

L’intelligence artificielle n’appartient à personne.
Elle n’est ni un outil réservé aux technophiles, ni un danger réservé aux sceptiques.
Elle est devenue une langue collective en formation, une grammaire nouvelle que nous apprenons, tous ensemble, à déchiffrer.

Mais comme toute langue, elle peut soit relier, soit isoler.
Et c’est là que se joue le cœur de la culture éducative à venir : non pas uniquement apprendre l’IA, mais apprendre avec elle, dans un cadre partagé, éclairé, bienveillant.

1. Du geste individuel à la communauté apprenante

Chaque enseignant qui expérimente, observe, tâtonne, fait déjà œuvre de culture.
Car la culture de l’IA éducative ne naîtra pas des institutions, elle émergera des pratiques locales, lentes, solidaires.
Quand un collègue partage sa première séquence augmentée, ou raconte une erreur devenue leçon collective, il contribue à ce bien commun fragile : une acculturation douce et partagée.

C’est ce qu’on pourrait appeler une pairagogie réflexive :

apprendre ensemble à penser nos usages.

2. L’institution comme levier, non comme injonction

Les cadres existent déjà, DigCompEduCRCNéformations académiquesréseaux de formateurs, mais leur puissance ne dépend pas de leur structure : elle dépend de la manière dont ils sont habités.
Une culture partagée ne se décrète pas : elle se cultive par contagion de curiosité.
L’institution ne devrait pas dire “utilisez l’IA”, mais “racontez ce que vous avez découvert en l’utilisant”.
C’est par le récit, non par la règle, que naît la culture.

3. Enseigner avec l’IA : de la technique à la reliance humaine

Adopter l’IA en éducation, ce n’est pas se soumettre à la technique, c’est retisser du lien autour d’elle.
Entre pairs, entre générations, entre disciplines.
Car la culture numérique n’est pas un savoir de plus : c’est un changement de paradigme, une écologie de la relation.
Apprendre ensemble à interroger la machine, c’est aussi réapprendre à dialoguer entre humains, à croiser les regards, à confronter sans juger.

💬 Question réflexive : Comment faire de cette acculturation un projet d’équipe, plutôt qu’une charge individuelle ?

Mais elle agit comme un révélateur : elle nous oblige à redéfinir ce que signifie éduquer, au-delà des outils.
Comme le souligne Bernard Charlot, ce n’est pas d’un sursaut technologique dont l’école a besoin, mais d’une réaffirmation de ses finalités fondamentales : humaniser, socialiser, subjectiver.
Dans un monde où l’information circule plus vite que le sens, le rôle de l’enseignant reste de susciter le désir d’apprendre, de relier les savoirs à la vie, et d’ouvrir des espaces de subjectivation.
C’est là que se joue l’enjeu éthique : non pas suivre le rythme de la machine, mais préserver ce qui, dans la relation éducative, relève encore du commun, du vivant, du sens partagé.
Finalement, cette mutation n’est pas d’abord technique. Elle est anthropologique.
Elle repose sur une question ancienne, plus que jamais actuelle :
apprendre ensemble à rester humains, dans un monde qui accélère.

Conclusion : enseigner avec l’IA, la justesse avant la maîtrise

Au fond, la différence entre nos deux enseignants du début n’était pas technique.
Ils utilisaient le même outil, posaient parfois les mêmes questions.
Mais l’un cherchait des réponses ; l’autre cherchait à comprendre.

Entre eux, il n’y avait pas un écart de compétence, mais un écart de conscience.
Celui qui transforme l’usage en apprentissage, la performance en discernement.

Nous ne sommes pas condamnés à choisir entre fascination et rejet.
L’enjeu n’est pas de tout maîtriser, mais de trouver une justesse dans la relation : ni naïveté ni peur mais une curiosité vigilante.

C’est peut-être cela, enseigner à l’ère de l’intelligence artificielle :
cultiver un art du dialogue avec l’imprévisible.
Faire de chaque réponse trop parfaite une question à rouvrir.
Et de chaque erreur algorithmique, une occasion de penser.

Car si l’IA nous apprend quelque chose, ce n’est pas la vitesse.
C’est la patience.
La patience de reformuler, de douter, de transmettre autrement.

Et dans ce monde où les modèles prédisent, peut-être que notre rôle d’enseignants est simplement de continuer à interpréter.
De maintenir vivante cette part d’incertitude où naît encore la pensée.

Si vous souhaitez prendre du recul et avancer avec discernement, je vous conseille de lire mon parcours d’introduction à l’IA en éducation.

Si vous avez aimé l'article, vous êtes libres de le partager ! :)

Vous pouvez aussi aimer :

10 phrases pour dire non sans culpabiliser

10 phrases pour dire non sans culpabiliser
  • Un article clair et éclairant sur un sujet qui bouscule en profondeur le monde de l’éducation.

    J’apprécie particulièrement la façon dont l’IA, et notamment ChatGPT, est présentée ici comme un outil au service de la pédagogie, et non comme une menace.
    La réflexion sur la posture de l’enseignant face à ces nouvelles technologies est très pertinente : il ne s’agit pas de remplacer, mais de réinventer les façons d’apprendre et de transmettre.
    Une lecture stimulante, qui invite à aborder l’IA avec curiosité et discernement.

  • Sacré débat l’IA à l’école.. Mais je suis totalement aligné avec ton article ! Je pense qu’il faut accompagner les enfants aussi à bien l’utiliser et s’en servir comme bon outils au quotidien et non comme assistant de délégation. Les meilleurs élèves de demain seront très certainement les élèves qui seront faire du bon prompting :)Merci encore pour l’ouverture et les conseils

    • Oui, pour moi tout l’enjeu est justement là : ne pas se demander “avec ou sans IA”, mais “comment faire avec”.
      Pas pour déléguer notre pensée, mais pour mieux la voir à l’œuvre.

      Et j’aime beaucoup ce que tu dis sur le prompting : c’est vrai que bien interagir avec une IA deviendra une forme de compétence. Mais j’ajouterais ceci :
      Les meilleurs élèves ne seront pas ceux qui sauront juste “bien utiliser ChatGPT”,
      mais ceux qui auront appris à revenir à eux, à penser avec l’outil sans s’y fondre, à se poser les bonnes questions avant d’en poser à la machine.

      L’IA n’est pas un futur lointain : elle est déjà dans les trous de nos évaluations, dans les copies trop propres, dans le doute des enseignants.
      Raison de plus pour ne pas en faire un tabou, mais un terrain de réflexion active.

      Merci encore pour ton ouverture

  • un bel article sur un sujet doublement complexe l’éducation et l IA. j’aime beaucoup cette idée d’être un ‘binôme » entre enseignant et ia, on cherche une complémentarité. Le passage sur la partie légale est vraiment pertinente aussi

    • Merci beaucoup pour ce retour.
      Le binôme IA/enseignant me semble en effet une piste féconde, à condition qu’il ne s’agisse pas d’une délégation aveugle, mais d’une alliance éclairée, où l’être humain garde sa part d’humanité et de discernement.
      Quant au volet légal, il reste trop souvent marginalisé dans les formations alors qu’il conditionne la sérénité d’usage. Je suis ravi que ce passage ait trouvé un écho.

  • {"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
    >