ChatGPT intrigue, fascine ou inquiète.
Pourtant, le comprendre change tout.
Cet article vous explique simplement comment fonctionne un LLM (Large Langage Model), le cœur de ChatGPT, pour que vous puissiez enseigner avec plus de discernement, d’autonomie et de confiance. Autrement dit, il s’agit d’apprendre à comprendre ChatGPT avant de s’en remettre à lui.
Parce que comprendre l’outil, c’est déjà transformer sa pratique.
I. Deux enseignants face à ChatGPT : deux façons de comprendre ChatGPT et l’IA
Éric : déléguer pour alléger
Jeudi soir, 21h12. Lampe de bureau, fond sonore : radio classique.
Éric s’installe devant son ordinateur portable. Il ouvre un document vide, puis s'arrête. Il sait déjà ce qu’il va faire. Il tape :
“Préparer une dissertation corrigée sur : ‘Sommes-nous vraiment libres ?’”
ChatGPT lui livre en quelques secondes une copie propre, bien argumentée, presque trop lisse. Il survole, corrige une virgule, change un mot. Clique sur Enregistrer.
Il se lève, passe à la cuisine, se sert un verre de vin.
“Encore une chose de faite.”
Depuis quelques semaines, ChatGPT est devenu son réflexe. Pour les cours, les devoirs, les bulletins. Une habitude qui dispense de comprendre ChatGPT en profondeur : un outil pratique, presque magique, mais dont les limites pour les enseignants apparaissent peu à peu.
Le confort algorithmique : un coût invisible
Le lendemain, en plein cours, une élève lève la main :
“Monsieur, est-ce que la liberté, c’est forcément être seul face à ses choix ?”
Éric marque un temps d’arrêt. La question est bonne. Elle mériterait un détour, un récit, une nuance.
Il pense à ce qu’il aurait répondu. Puis se surprend à chercher, mentalement, ce que disait déjà “la fiche” générée la veille.
Il répond, bien sûr, avec logique, avec méthode. Mais quelque chose cloche.
Il ne s’en rend pas encore compte, mais peu à peu, ses cours ne le nourrissent plus.
Ils sont bien faits, structurés, efficaces... mais délégués.
Et pourtant, il ne se sent pas moins impliqué. Simplement ailleurs.
En réalité, tout dépend de la manière dont on cherche à comprendre ChatGPT : comme un assistant, ou comme un miroir de nos pratiques. Grâce à l’IA, il passe moins de temps à préparer ses séances, à corriger, à rédiger les bulletins. Il arrive en classe plus détendu, plus disponible. Il peut écouter davantage, improviser un peu plus, s’arrêter sur un élève en retrait.
Mais parfois, en fin de journée, une gêne le traverse. Comme si quelque chose manquait.
Ce n’est pas qu’il doute de sa légitimité. Mais un fil s’est distendu, celui du plaisir à construire, à penser par lui-même, à façonner ses outils de travail.
Il ne se sent pas imposteur. Mais moins auteur. Et c’est cette nuance, presque invisible, qui l’interroge sur la posture de l’enseignant face à l’IA.
Sophie : prolonger la pensée grâce à ChatGPT
Jeudi soir, 21h12. Lampe d’architecte, fond sonore : pluie contre la vitre.
Sophie est assise à son bureau, un carnet ouvert à sa droite, le visage éclairé par la lumière de l’écran. Elle vient de taper :
“Exemples d’utopies littéraires à confronter en classe de Terminale.”
La réponse de l’IA s’affiche. Claire, bien formulée, structurée. Elle la lit attentivement, puis fronce les sourcils :
“More, Platon… mais pas un mot sur Cabet ?”
Elle soupire, puis note dans la marge : “Introduire Icaria pour contraster avec les utopies antiques.” Une idée de plus à explorer. Ce que propose l’IA est utile, mais souvent trop consensuel, trop scolaire : un bon exemple pour apprendre à utiliser ChatGPT avec discernement. Alors elle coupe, décale, enrichit.
Depuis qu’elle utilise cet outil, elle gagne du temps. Mais pas pour en faire moins. Pour faire mieux. Elle se surprend à chercher davantage d’exemples, à construire des ponts qu’elle n’aurait pas pris le temps d’explorer seule. Elle ne confie pas son travail à l’IA, elle le prolonge avec elle.
Elle aime cette nouvelle dynamique. Elle n’a pas le sentiment de perdre la main. Au contraire : elle affine, elle choisit, elle questionne. Elle sent que ce travail préparatoire nourrit son plaisir d’enseigner.
Le lendemain, en classe, elle projette quelques extraits. Puis elle lance :
“Voilà ce que propose une IA. Et vous, comment en parleriez-vous ?”
Les mains se lèvent, les regards s’animent. Elle ne cherche pas à tout maîtriser. Elle vient avec des pistes, des angles, des questions. Elle laisse l’imprévu entrer.
Ce n’est pas plus brillant. Ce n’est pas moins exigeant. C’est juste plus vivant et montre comment ChatGPT peut prolonger la pensée enseignante sans la remplacer. Peut-être parce qu’elle a appris à comprendre ChatGPT comme un outil de pensée, pas de substitution.
ChatGPT dans la pratique enseignante : un même outil, deux postures
Deux enseignants. Deux soirs de préparation. Deux façons de comprendre ChatGPT. Deux rapports à un même outil.
L’un délègue pour alléger, l’autre explore pour approfondir.
Éric gagne du temps de préparation qu’il réinvestit dans la relation avec ses élèves, dans l’écoute, la présence, la gestion de classe.
Sophie, elle, gagne du temps mental qu’elle consacre à approfondir ses contenus, à affiner ses angles d’approche, à enrichir sa pédagogie.
Ni l’un ni l’autre n’a tort. Mais quelque chose diverge dans leur manière d’utiliser l'IA avec discernement. Une divergence qui révèle deux façons de comprendre ChatGPT, à la fois comme outil et miroir.
Et si la différence ne tenait pas à la technique, mais à la posture face à l’outil ?
Et vous ?
Un même outil d’intelligence artificielle peut inspirer deux pratiques d’enseignement radicalement différentes.
Dans laquelle de ces postures vous reconnaissez-vous le plus souvent ?
Ou peut-être… dans un mélange des deux ?
II. Comprendre ChatGPT : vers une littératie algorithmique critique
Sous le code, une logique statistique à décrypter : celle des grands modèles de langage.
La différence entre Éric et Sophie ne réside pas dans leur niveau de compétence numérique, mais dans leur rapport au texte produit par la machine.
L’un l’accepte comme une vérité déjà prête, l’autre le lit comme une proposition à discuter.
Et c’est précisément là que commence la compréhension d’un LLM :
non pas dans la technique, mais dans la capacité à lire et interroger une réponse générée, la capacité à développer une véritable littératie algorithmique critique.
ChatGPT n’est pas une conscience qui “sait”.
C’est un modèle de langage entraîné sur d’immenses volumes de textes pour prédire le mot suivant le plus probable : un point essentiel pour comprendre comment fonctionne ChatGPT.
Vous avez déjà été confronté à ce principe des centaines, voire des milliers de fois, sans le savoir : c’est exactement ce que fait votre téléphone lorsque vous tapez un message.
Par exemple, si vous écrivez :
“Le chat dort sur le…”
le système se souvient de millions de phrases semblables rencontrées auparavant.
Il calcule alors que le mot le plus probable pour continuer est “canapé”, “lit” ou “tapis”, selon les contextes observés.
Il ne sait pas où dort le chat : il devine le mot qui, statistiquement, a le plus de chances de suivre.
ChatGPT fonctionne de la même manière, à une échelle vertigineuse. Le terme GPT veut dire « Generative Pre-trained Transformer (un transformeur génératif préentraîné selon le Bureau de la traduction du Canada) . Cela signifie que l’IA a été entrainée sur des milliards de données, et que chaque phrase qu’il génère n’est pas le fruit d’une idée, mais le résultat d’un calcul statistique fondé sur des milliers d’occurrences antérieures. Cette mécanique probabiliste est centrale pour comprendre ChatGPT en tant que LLM.
Autrement dit : il ne pense pas le monde, il le recompose selon les régularités qu’il a apprises, une limite fondamentale de l’IA générative que les enseignants doivent comprendre.
Comprendre ChatGPT : lire ses réponses avec esprit critique
Comprendre ces mécanismes, c’est déjà commencer à comprendre ChatGPT comme un système algorithmique. Ce n’est pas devenir expert en intelligence artificielle, c’est acquérir une forme de lucidité fonctionnelle : savoir pourquoi une réponse paraît fluide, et pourquoi elle peut être trompeuse : une étape essentielle pour développer une lecture critique de ChatGPT.
On appelle cela une littératie algorithmique :
permettre aux individus de comprendre, d'évaluer et de gérer les algorithmes de manière autodéterminée (Dogruel, Masur & Joeckel, 2021).
De la même façon qu’on apprend aux élèves à lire un texte en repérant les intentions, les omissions ou les biais possibles, il devient crucial d’apprendre à “lire” les réponses d’un LLM comme ChatGPT, comme des productions algorithmiques, pas comme des énoncés neutres.
Une même question posée deux fois peut produire deux réponses différentes. C’est dans cette variabilité, loin d’être une faiblesse, que réside l’opportunité pédagogique : ouvrir la discussion sur les limites, les zones d’ombre, les critères d’évaluation d’une réponse.
Question réflexive : Comment réagiriez-vous si un élève s’appuyait sur une réponse erronée de ChatGPT ? Est-ce un échec... ou une occasion de renforcer sa vigilance intellectuelle et de développer son discernement face à l’IA ?
Pour vous accompagner dans votre réflexion
Comment lire une réponse de ChatGPT comme un texte algorithmique
Et si une réponse IA se lisait comme un texte… mais écrit par une machine ?
Loin d’être neutre, chaque sortie de ChatGPT est une production algorithmique façonnée par son entraînement (les textes lus), son architecture (comment il “raisonne”) et sa dynamique probabiliste (il ne répond jamais deux fois pareil).
Pour aider élèves (et enseignants) à développer une littératie algorithmique, voici 4 filtres critiques pour “lire” une réponse générée :
1. Véracité : distinguer le vrai du vraisemblable
Ce qui est dit est-il factuellement exact ?
- Chercher des sources indépendantes.
- Croiser les informations.
- Repérer les approximations.
2. Pertinence : vérifier si ChatGPT répond vraiment à la question
La réponse traite-t-elle réellement la question posée ?
- Identifier les hors-sujets ou généralités floues.
- Vérifier si tous les éléments de la consigne sont pris en compte.
3. Structure : comprendre comment ChatGPT construit sa réponse
Comment est construite la réponse ?
- Y a-t-il des enchaînements logiques ?
- Quels types de discours sont mobilisés ? (explicatif, argumentatif, injonctif ?)
- Quels biais culturels ou normatifs apparaissent ?
4. Valeur éducative : apprendre à lire une réponse avec discernement
Quel rapport au savoir cette réponse construit-elle ?
- Encourage-t-elle la pensée critique ou la récitation ?
- Propose-t-elle une réflexion ou une simplification trompeuse ?
- Peut-elle servir de tremplin pour apprendre… ou risque-t-elle de figer le raisonnement ?
L’IA ne pense pas, mais elle donne à penser à condition de ne pas la croire sur parole.
Comment ChatGPT fonctionne : les bases à connaître pour comprendre ses réponses
Derrière les phrases fluides et les idées apparemment cohérentes, il est utile de connaître le fonctionnement de ChatGPT. Voici quatre éléments techniques essentiels pour comprendre ChatGPT en tant que modèle de langage.
1. Les données d’entraînement : comment ChatGPT apprend à écrire
ChatGPT n’a pas accès à Internet lorsqu’il répond.
Il s’appuie sur un apprentissage antérieur, réalisé à partir de milliards de textes issus de livres, d’articles, de forums, de sites éducatifs, etc.
Il en a extrait des régularités de langage, pas des connaissances exactes. Un point essentiel pour comprendre ChatGPT : il ne restitue pas des savoirs, il reproduit des régularités textuelles.
Ainsi, lorsqu’il parle de philosophie, de biologie ou de pédagogie, il ne “sait” pas, il recombine statistiquement des fragments linguistiques pour produire un texte vraisemblable et non pour restituer une vérité.
Il reconstruit du sens à partir de formes, pas à partir d’idées. Son entraînement s’arrête à une date donnée (par exemple 2023 pour ChatGPT-4), ce qui explique pourquoi certaines informations peuvent être obsolètes.
C’est aussi pourquoi certaines de ses réponses peuvent paraître crédibles… tout en contenant des erreurs subtiles.
D’où l’importance de la validation humaine et du regard critique, la fameuse littératie algorithmique dont je viens de parler.
2. La fenêtre contextuelle : ce que ChatGPT retient (et oublie) d’une conversation
Lorsqu’on échange avec ChatGPT, il ne “se souvient” pas de tout ce qu’on lui a dit depuis le début de la conversation.
Il conserve seulement une quantité limitée de texte, appelée fenêtre contextuelle. Ce fonctionnement par mémoire courte est central pour comprendre ChatGPT dans ses capacités et ses limites en conversation longue.
C’est sa mémoire à court terme.
Pour le dire simplement : ChatGPT ressemble parfois à un interlocuteur bienveillant mais distrait : il écoute avec attention, mais ne retient que la fin de la conversation.
Si on parle trop longtemps sans reformuler, il perd le fil et se met à répondre à côté.
Plus la fenêtre est grande, plus le modèle peut garder en tête les éléments récents (consignes, exemples, corrections).
Mais lorsqu’elle est dépassée, il “oublie” littéralement ce qui précède : d’où certaines répétitions ou incohérences dans ses réponses longues.
Les modèles récents disposent de fenêtres de plus en plus larges, parfois l’équivalent d’un livre entier, mais la limite reste structurelle.
Et même lorsque la mémoire “longue” est activée, il ne s’agit pas d’un souvenir au sens humain : le modèle ne se remémore pas, il rappelle du texte stocké selon les instructions de la session.
Comprendre cela aide à formuler ses demandes avec précision, à segmenter ses consignes, et à savoir quand relancer la conversation dans un nouveau chat plutôt que la prolonger indéfiniment.
3. Les tokens : les unités cachées qui composent le langage de ChatGPT
Un token est une unité textuelle minimale utilisée par le modèle après tokenisation : ce peut être un mot entier, un fragment de mot, un espace ou un signe de ponctuation. Par exemple, « IA » peut être découpé en « I » + « A », et « enseignant » en plusieurs fragments "ens" + "eign" + "a" + "nt". Le modèle ne manipule donc pas des mots comme nous, mais des séquences de tokens qu’il apprend à enchaîner.
Sa tâche fondamentale consiste à prédire le token le plus probable suivant, à partir de tous ceux qui précèdent. Le concept de tokenisation est souvent mal compris, alors qu’il est essentiel pour comprendre ChatGPT en profondeur.
C’est cette mécanique de prédiction, et non une compréhension sémantique, qui produit la fluidité apparente de ses réponses.
La fenêtre contextuelle et la longueur des réponses sont comptées en tokens : quand on dépasse la limite, le modèle “oublie” le début de l’échange. En pratique, mieux vaut segmenter ses demandes en étapes courtes et ciblées plutôt que d’envoyer un seul bloc très long.
La façon dont un texte est découpé en tokens dépend du modèle utilisé : chaque architecture a sa propre méthode de segmentation, ce qui peut modifier la longueur effective d’une même phrase.
4. Les benchmarks : comment on mesure la performance d’un modèle d’IA
Les chercheurs comparent les modèles de langage grâce à des tests standardisés, appelés benchmarks :
traduction, raisonnement logique, compréhension de texte, etc.
Ces scores donnent une idée de leur performance, mais pas de leur pertinence éducative.
Un modèle peut réussir un test sans pour autant être fiable pour enseigner : il peut très bien “bien raisonner” sur le papier, tout en produisant des biais ou des erreurs de contexte.
Les benchmarks mesurent surtout des performances sur des tâches fermées : raisonnement, connaissances factuelles, ou inférences à court terme.
Mais ils n’évaluent ni la qualité du raisonnement contextualisé, ni la valeur éducative des réponses. Ces limites des benchmarks techniques doivent être connues pour vraiment comprendre ChatGPT dans son cadre d’usage en éducation.
Là encore, le jugement humain reste irremplaçable.
Les benchmarks mesurent la puissance technique d’un modèle ;
l’enseignant, lui, évalue sa valeur éducative.
Et parce que la plupart de ces tests sont conçus en anglais, ils reflètent surtout une culture et des priorités anglo-américaines : un autre rappel que l’intelligence artificielle reste un produit social autant que technologique.
En résumé :
Les LLM ne sont pas des oracles.
Ils sont des miroirs statistiques du langage humain : utiles, fascinants, mais incomplets.
Les comprendre un peu mieux, c’est déjà apprendre à les cadrer, les corriger, les mettre à leur juste place dans l’acte d’enseigner.
Tous ces éléments — entraînement, tokens, mémoire, benchmarks — sont les bases nécessaires pour comprendre ChatGPT en tant que technologie.
Rendez-vous sur cet article pour explorer comment enseigner avec l’IA de façon éclairée et responsable.
