Inégalités scolaires et IA : le grand malentendu


Inégalités scolaires et IA : dans le débat public comme dans les salles de classe, la question suscite autant d’inquiétudes que d’espérances. Avant de céder à l’enthousiasme ou à la crainte, il convient d’interroger ce que cette technologie révèle, masque ou transforme au sein de l’institution scolaire.

Marius Bourgeoys

-Leader Pédagogique-

Est-il acceptable de préparer les jeunes pour un monde qui n’existe plus ?

Cette question résonne comme un appel à la lucidité. L’intelligence artificielle transforme déjà nos manières de produire, de chercher, de dialoguer… et d’apprendre. Pourtant, l’école, lieu par excellence de préparation au monde, avance à pas inégaux dans cette transition.

D’un côté, certains élèves utilisent quotidiennement des outils d’IA pour comprendre un texte, structurer une idée, ou simuler un raisonnement. De l’autre, une part croissante de la jeunesse reste à l’écart, par manque d’accès, de formation ou d’accompagnement. Ce décalage d’appropriation entre élèves, familles, territoires et enseignants, esquisse une nouvelle fracture éducative, plus insidieuse encore que les précédentes.

Faut-il en conclure que l’IA renforce mécaniquement les inégalités scolaires ? Ou bien est-ce notre manière collective de l’accueillir – ou de l’ignorer – qui risque de les aggraver ?

Ce texte propose de penser l’IA non comme une menace abstraite, ni comme une promesse magique, mais comme un miroir de nos choix éducatifs. Car ce n’est pas la technologie qui décide du monde dans lequel grandiront nos enfants, c’est ce que nous décidons d’en faire. C’est déjà ce que j’explorais dans cet article sur l’enseignement vivant à l’heure de l’IA, en montrant que l’IA, loin d’être neutre, prolonge ou révèle nos choix éducatifs, y compris ceux que nous ne formulons pas clairement.

1. Inégalités scolaires et IA : un accès inégal et des fractures invisibles

Tas d’ordinateurs et d’écrans cassés sur fond bleu sombre

Une montagne d’ordinateurs obsolètes symbolise les inégalités d’équipement

Le discours public sur l’IA en éducation suppose souvent que l’accès est, sinon généralisé, du moins équitable. Il ne l’est pas, ni matériellement, ni du point de vue des usages. Les inégalités scolaires et l’IA forment ici un couple révélateur : ce n’est pas seulement l’outil qui compte, mais les conditions réelles de son appropriation.

Selon l’étude GoStudent 2024, seuls 11 % des élèves français âgés de 10 à 16 ans déclarent avoir accès à l’IA à l’école. Ce chiffre, obtenu via un sondage mené en octobre‑novembre 2023 auprès de plus de 1 000 jeunes perçoit déjà un retard par rapport à d’autres pays européens.  Cette donnée, encore peu commentée, révèle une première fracture importante : tous les élèves n’expérimentent pas l’IA dans un cadre pédagogique sécurisé. Beaucoup y accèdent chez eux, ou pas du tout. Cette fracture numérique à l’école illustre l’ampleur des écarts d’opportunité face à l’IA.

Fracture numérique : quand l’accès à l’IA creuse les écarts éducatifs

De plus, selon une enquête Pew Research Center (États‑Unis), 26 % des adolescents américains (13‑17 ans) déclarent avoir déjà utilisé ChatGPT pour leurs devoirs scolaires ce qui marque une augmentation par rapport à 2023, mais reste malgré tout très limité. pewresearch.org Mais l’inégalité ne s’arrête pas là. Cette même étude révèle que 84 % des adolescents issus de milieux favorisés connaissent et utilisent ChatGPT, contre 67 % chez ceux issus de milieux modestes. Ce que cela montre, ce n’est pas seulement un écart d’accès, mais un décalage d’appropriation : tous les jeunes n’ont pas la même capacité à mobiliser efficacement ces outils. Autrement dit, une fracture d’usage, cognitive autant que technique, comme je le montrais dans cet article sur l’évaluation à l’ère de l’IA. Et l’on peut raisonnablement penser que cette disparité se retrouve dans d’autres pays, dont la France.

Décalage d’appropriation : quand l’IA révèle les inégalités sociales et culturelles

En effet, cette fracture est approfondie dans l’étude menée par Kumps et al. Eiah 2025 sur les usages de ChatGPT dans la Belgique francophone. Cette étude révèle que 70,95 % des répondants ont déjà utilisé ChatGPT, tandis que 29,05 % ne l’ont jamais fait. Parmi les utilisateurs, les auteurs distinguent quatre profils d’élèves et d'étudiants :

  • les chercheurs d’information,
  • les créateurs de contenu,
  • les utilisateurs hybrides,
  • et les utilisateurs limités, ces derniers étant les plus nombreux (53 %).

Ces profils recoupent souvent les lignes de fracture sociales, scolaires ou culturelles : capital numérique, environnement familial, degré d’autonomie. Les utilisateurs limités se caractérisent par des usages restreints, souvent associés à une compréhension faible des fonctionnalités disponibles.

Ces profils ne se répartissent pas au hasard. Ils traduisent des écarts d’autonomie, de familiarité numérique, de soutien à la maison... autrement dit, des inégalités déjà bien connues de l’école, , que l’IA ne fait qu’accentuer.

Les non-utilisateurs, souvent plus jeunes ou moins exposés aux outils numériques, rappellent l’urgence de concevoir des dispositifs pédagogiques adaptés dès le secondaire, pour éviter une exclusion durable.

Ce constat rejoint une alerte du Conseil économique, social et environnemental CESE, qui parle d’« une fracture numérique intergénérationnelle, sociale et territoriale qui s’amplifie avec l’essor de l’IA », y compris chez les jeunes eux-mêmes. En 2025, près d’un jeune sur cinq parmi les moins de 25 ans se déclare encore “éloigné du numérique”.

2. Comment l’IA reflète et renforce les inégalités scolaires existantes

Jeune fille la tête cachée derrière un smartphone turquoise, représentant un usage passif de la technologie

Une adolescente absorbée par son smartphone évoque les usages détournés des outils numériques

Si l’IA ne crée pas les inégalités scolaires, elle peut les exacerber par effet de miroir. Elle reflète, et trop souvent amplifie, les écarts déjà présents dans les parcours, les ressources, les manières d’apprendre.

Des recherches récentes montrent que les usages de l’IA varient fortement selon les profils d’élèves. Ceux qui possèdent déjà des compétences d’organisation, de reformulation ou d’auto-évaluation l’utilisent comme un outil de progression : ils sollicitent l’IA pour explorer des idées, affiner une structure, mieux comprendre une consigne. En revanche, les élèves en difficulté ont tendance à s’en remettre à l’outil de façon plus passive, voire à en faire un substitut à la tâche attendue. Ce type d’usage passif de l’IA en milieu scolaire peut aggraver la dépendance technologique sans renforcer les apprentissages.

C’est ce que confirme l’étude EIAH 2025 citée précédemment :

Les utilisateurs limités se distinguent par une fréquence d’usage plus faible, une posture plus passive et une perception moindre de l’utilité de l’outil.

Kumps et al. // EIAH 2025

Ce que cette typologie rend visible, c’est une gradation d’appropriation, qui recoupe en grande partie les inégalités scolaires préexistantes. Autrement dit : ceux qui ont déjà des difficultés risquent d’utiliser l’IA non pour apprendre, mais pour éviter d’apprendre. Les effets de l’IA sur les apprentissages sont donc ambivalents et profondément liés au contexte éducatif.

Quand l’IA devient une échappatoire : usages opportunistes et mal encadrés

Ce phénomène est confirmé par les observations de terrain. Une collégienne parisienne, interrogée dans une enquête du Monde, résume avec lucidité :

« Ceux qui ne s’en servent pas du tout sont les meilleurs élèves. Ceux qui s’en servent pour faire les devoirs à leur place, en revanche, ont plutôt de mauvais résultats. Ils se disent que, tant qu’à faire, autant avoir des bonnes notes sans trop travailler. »

Ce glissement progressif d’un outil d’aide vers un outil de contournement illustre bien les risques d’un usage mal encadré. L’IA transforme déjà les stratégies de triche scolaire, non par malveillance, mais par opportunisme, ou par méconnaissance des usages pédagogiques possibles.

L’IA renforce ainsi une dissociation inquiétante : d’un côté des élèves qui expérimentent, créent, explorent, dans une culture du questionnement critique ; de l’autre, des élèves pour qui l’IA devient un raccourci cognitif, une boîte noire de plus, qui pense à leur place. C’est précisément ce qui rend la formation à l’esprit critique si urgente à l’ère de l’IA, comme je l’explorais dans cet article consacré à cette question. Car penser par soi-même ne s’improvise pas, surtout quand la machine pense plus vite que nous.

Ce qui est en jeu, c’est donc la capacité des élèves à comprendre l’intention pédagogique derrière la tâche, et à mobiliser l’IA pour y répondre avec discernement. Et cette capacité, on le sait, n’est pas répartie également.

Les inégalités liées à l’IA ne sont pas frontales, elles sont silencieuses, diffuses, cumulatives. Elles ne concernent pas seulement l’accès à l’outil, mais la possibilité d’en faire un levier de progression, plutôt qu’un échappatoire ou un piège. Les disparités dans l’usage éducatif de l’IA s’ajoutent ainsi aux inégalités scolaires déjà existantes.

Encore faut-il se demander : qu’est-ce qui, dans l’organisation scolaire elle-même, rend ces usages possibles, ou au contraire, les invisibilise ?

3. L’école face à l’IA : entre cadre officiel et inégalités persistantes

Robot humanoïde pensif à côté d’un marteau de juge représentant les défis juridiques liés à l’usage de l’IA à l’école

L’intelligence artificielle face aux enjeux juridiques et éducatifs

Sur le papier, la France ne manque pas de cadres de référence pour intégrer l’intelligence artificielle à l’école. En juillet 2025, le ministère publiait un cadre d'usage de l'ia en éducation précisant que les IA génératives peuvent être utilisées à partir de la 4e, à condition de respecter certaines règles pédagogiques et éthiques. Mais entre politiques éducatives et intelligence artificielle, le décalage entre les intentions et la réalité demeure fort.

En parallèle, au niveau européen, la Commission et l’OCDE travaillent à un cadre de maîtrise de l’IA pour l’enseignement primaire et secondaire pour le primaire et le secondaire. Un projet qui vise à définir les compétences essentielles que chaque élève devrait maîtriser pour vivre dans un monde avec l’IA : comprendre ce qu’est l’IA, interagir de manière critique avec ses dispositifs, en créer, gérer et concevoir. Autant d’enjeux liés aux inégalités scolaires et à l’IA, dans un contexte où les écarts d’accompagnement risquent de se creuser.

Un cadre officiel encore peu visible et peu appliqué dans les établissements

Mais dans la réalité du quotidien scolaire, ces textes ont peu d’effets. Ils ne sont ni diffusés clairement, ni accompagnés d’un plan de formation massif, ni portés comme une priorité stratégique. Ce décalage crée une situation paradoxale : les enseignants ne rejettent pas l’IA, mais sont souvent contraints de l’ignorer, faute de repères, de temps et de soutien. L’intégration de l’IA dans l’enseignement reste alors trop souvent une initiative individuelle.

Cette ambivalence se traduit aussi dans les mesures contradictoires prises récemment. À l’automne 2024, la circulaire « Portable en pause » visait à renforcer l’interdiction du téléphone portable au collège, en obligeant les élèves à le déposer dans des casiers scellés. Mais à la rentrée 2025, après sa généralisation, seuls 9 % des établissements ont appliqué cette mesure, jugée inadaptée ou irréaliste.

Il existe une contradiction entre le fait d’avoir prêché le numérique à tous crins et le fait de vouloir restreindre l’accès des élèves.

Olivier Raluy // conseiller principal d’éducation cité dans Le Monde

Il ne s’agit donc pas d’une méfiance injustifiée, mais d’une prudence légitime face à un vide juridique et pédagogique. Dans ce contexte, les enseignants n’ont ni les outils, ni les garanties pour intégrer l’IA dans leur pédagogie, et leur responsabilité individuelle ne peut compenser l’absence de position claire de l’institution. L’existence d’un cadre formel, peu appliqué ou peu connu, contribue paradoxalement à renforcer les inégalités face aux outils numériques éducatifs.

Résultat : ce sont les familles les mieux informées, les élèves les plus autonomes, qui compensent cette absence de cadre par eux-mêmes, accentuant encore les inégalités initiales.

Ce que cette situation révèle, ce n’est pas une hostilité de principe, mais une peur d’agir sans balises. Or, dans ce vide normatif, le statu quo devient un choix : celui de laisser chacun se débrouiller et souvent, se perdre.

4. Peut-on faire de l’IA un levier contre les inégalités scolaires ?

Groupe d’élèves assis sur des marches, travaillant ensemble sur des cahiers et un ordinateur

Des élèves d’origines diverses collaborent à l’école

Malgré les risques documentés, l’intelligence artificielle peut devenir un levier d’équité éducative. À condition, toutefois, de renverser l’approche dominante : il ne s’agit plus de laisser chacun « expérimenter » l’IA comme il peut, mais de garantir les conditions d’un usage juste, accompagné et partagé. C’est là que se joue l’essentiel du lien entre inégalités scolaires et IA.

Plusieurs recherches plaident en ce sens. L’étude francophone EIAH 2025 souligne la nécessité d’un accompagnement différencié pour combler les écarts d’appropriation. L’UNESCO, de son côté, insiste sur la place de l’IA dans la réduction des inégalités d’accès aux connaissances, à condition qu’elle ne reste pas réservée à une élite techno-savante. IA et équité dans l’éducation doivent être pensées ensemble, dans une logique d’inclusion.

Concrètement, trois leviers sont identifiés par la majorité des publications scientifiques récentes :

1. Des outils ouverts, encadrés, interopérables

Tant que les seules IA disponibles sont des modèles généralistes, opaques, non hébergés en France et juridiquement incertains, l’usage en classe restera marginal ou clandestin.
Ce qu’il faut, c’est un écosystème public ou validé, conforme au RGPD, interopérable avec les ENT, et pensé pour la réalité pédagogique. C’est une condition nécessaire pour un accès équitable aux technologies éducatives.

2. Une formation systémique, pas ponctuelle

L’enjeu ne se limite pas à « former les enseignants à l’IA ». Il s’agit de former à la littératie numérique, à la posture critique, à l’éthique des usages. Cela suppose du temps, de l’accompagnement, et surtout une reconnaissance institutionnelle claire que l’IA fait désormais partie du métier. La réduction des inégalités numériques passe par une montée en compétence globale du système éducatif.

Marius Bourgeoys

-Leader pédagogique-

 Devenir littéré avec le numérique et l’IA, c’est désormais une condition de base pour exercer notre mission éducative avec pertinence et excellence.

3. Un projet collectif, non une injonction individuelle

L’égalité ne peut pas reposer sur la bonne volonté de chacun. Ce qu’il faut, c’est une stratégie partagée : des équipes formées ensemble, des expérimentations accompagnées, un cadre clair et juste pour protéger sans bloquer, accompagner sans contraindre. Les usages pédagogiques inclusifs de l’IA doivent être pensés collectivement, pas subis individuellement.

Si ces conditions sont réunies, l’IA ne sera ni une menace à contenir ni une mode à suivre, mais une ressource parmi d’autres pour mieux faire ce que l’école doit faire : permettre à chaque élève de grandir, comprendre, choisir, se projeter.

Conclusion – Une promesse suspendue

Est-il acceptable de préparer les jeunes pour un monde qui n’existe plus ?

Cette question, posée par Marius Bourgeoys, traverse tout le débat sur l’IA en éducation. Elle nous oblige à dépasser les oppositions binaires (entre technophilie et résistance, entre innovation et protection) pour poser une interrogation plus fondamentale : de quel monde voulons-nous que l’école soit le reflet ?

Non, l’IA ne renforce pas mécaniquement les inégalités scolaires. Ce n’est pas une force autonome.
Mais la manière dont elle est introduite, pensée, ou laissée de côté, oui, peut les aggraver. C’est bien dans cette articulation entre inégalités scolaires et IA que se joue une partie de notre avenir éducatif.

Former à l’IA et rattraper le présent : un enjeu de justice éducative

Dans un contexte où les élèves ne disposent pas tous des mêmes ressources, ni des mêmes repères, ne rien faire revient à laisser faire. L’absence de stratégie éducative partagée face à l’IA risque de creuser davantage les écarts. Et dans cette indifférence, les plus fragiles sont toujours les premiers laissés pour compte.

L’enjeu n’est pas d’enseigner l’IA comme une matière de plus. C’est de reconnaître qu’elle transforme déjà nos manières d’apprendre, d’évaluer, de comprendre : une transformation des apprentissages à laquelle l’école ne peut rester aveugle.

Et que l’absence de réponse pédagogique construite est déjà une réponse : inégalitaire, silencieuse, cumulative.

C’est aussi reconnaître que former à l’IA, ce n’est pas préparer au futur, c’est rattraper le présent.

Et si les politiques ambitieuses tardent, il nous reste ce que nous faisons déjà dans bien d’autres domaines : apprendre par nous-mêmes, chercher à comprendre, nous faire accompagner si besoin, explorer à tâtons, parfois ensemble.
Non pas par devoir, mais par souci de justice, et pour ne pas laisser les enjeux d’égalité numérique à l’école devenir un angle mort éducatif.

Parfois, un accompagnement discret, un regard guidé, une lecture partagée suffit à transformer ce tâtonnement en chemin.

Alors oui, l’IA pourrait devenir un levier d’égalité.
Mais pour cela, il faudra un choix politique clair : ni l’évitement, ni la précipitation. Un chemin de discernement, accompagné, collectif.

Sinon, à quoi servira-t-il de parler d’égalité, si le monde pour lequel on prépare les jeunes n’existe déjà plus ?

Si vous avez aimé l'article, vous êtes libres de le partager ! :)

Vous pouvez aussi aimer :

10 phrases pour dire non sans culpabiliser

10 phrases pour dire non sans culpabiliser
  • Je n’avais pas vu les choses ainsi non plus : l’IA qui peut amplifier ou réduire les écarts selon le contexte d’usage.
    Trois leviers me paraissent décisifs : 1) l’accès effectif aux outils (infrastructures, terminaux, connexions), 2) la formation et l’accompagnement des enseignants, 3) la littératie numérique des élèves (comprendre limites, biais, sources). J’ajoute un point : concevoir l’équité “by design” (ressources ouvertes, consignes inclusives, évaluation transparente) et veiller aux questions de données et de confidentialité. Là se joue l’impact réel.

  • Ton article m’a beaucoup parlé. La question que tu poses : « Est-il acceptable de préparer les jeunes pour un monde qui n’existe plus ? » est vraiment marquante. Elle résume à elle seule l’urgence de repenser l’école à l’heure de l’IA. J’aime la façon dont tu montres que ce n’est pas la technologie en elle-même qui creuse les écarts, mais notre manière collective de l’accueillir. Tu réussis à rendre ce débat complexe clair et profondément humain 🙂

  • « Ce n’est pas la technologie qui décide du monde dans lequel grandiront nos enfants, c’est ce que nous décidons d’en faire » Tout à fait d’accord. Ton article m’a donné envie de creuser plus et de lire l’étude EIAH 2025. Merci pour article documenté.
    Magali

  • {"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
    >