Biais de genre dans l’IA : comment l’intelligence artificielle est sexiste

Les biais de genre dans l’IA ne sont ni anecdotiques, ni marginaux. À mesure que l’intelligence artificielle s’installe dans nos pratiques, y compris pédagogiques, une question devient pressante : quelles normes sociales ces technologies reconduisent-elles silencieusement ? Loin d’être neutres, les systèmes d’IA apprennent à partir de nos textes, de nos usages, de nos habitudes. Ils reproduisent nos angles morts.

Cette préoccupation est partagée au plus haut niveau : la Recommandation sur l’éthique de l’intelligence artificielle adoptée par l’UNESCO fait de l’égalité des genres un domaine stratégique prioritaire (UNESCO, 2021). Elle insiste sur le rôle des politiques publiques, mais aussi des pratiques éducatives, pour contrer la reproduction automatique des stéréotypes sexistes.

Cet article explore comment ces biais s’installent, se dissimulent, s’ancrent dans nos outils, et surtout : comment les démasquer, sans s’épuiser, pour mieux les déjouer.

En parallèle, des initiatives comme Women4Ethical AI rappellent que la vigilance ne suffit pas : il faut aussi visibiliser, transmettre, transformer.

🧭 Pourquoi cet article est écrit au féminin générique ? Note à propos de la forme.

Cette semaine, l’article est écrit au féminin. C’est un choix volontaire, que j’ai décidé d’employer deux fois sur trois.

Pourquoi ?
Parce que le masculin générique n’est pas neutre. Il invisibilise. Il normalise un ordre où le masculin vaut pour l’universel, et tout le reste devient une exception.

Et parce que j’écris dans le cadre d’un métier où plus de 70 % des enseignants sont... des enseignantes.
Un métier profondément féminisé, mais encore trop souvent décrit, pensé, et valorisé au masculin.

Or, simplifier la lecture n’oblige pas à reconduire les dominations. Ce choix formel est donc aussi politique. Il s’inscrit dans une volonté discrète mais constante : nommer ce qui reste souvent tu, ne pas reproduire par défaut ce que je cherche justement à interroger.

Ne rien dire, c’est cautionner le statu quo.
Et dans un monde où les violences sexistes sont systémiques, silencieuses, souvent minimisées ou retournées contre celles qui les dénoncent, ne pas nommer, c’est laisser faire.

Je n’ai pas l’ambition de régler ces injustices avec un pronom.
Mais je refuse de les taire par habitude.

1. Ce qu’on ne voit pas… nous affecte quand même : les biais de genre dans l’IA à l'œuvre

Femme robotisée en combinaison argentée se maquillant, stéréotype genré appliqué à une IA.

Quand l’intelligence artificielle est représentée comme maquillée, féminisée et docile : un reflet des stéréotypes sexistes que les systèmes reproduisent sans les questionner.

L’illusion d’une IA neutre

Il y a, dans l’attrait pour l’intelligence artificielle, un espoir discret : celui de contourner nos failles humaines. L’IA serait objective, impartiale, raisonnable. Elle traiterait chacune de manière équitable, parce qu’elle n’aurait ni affects, ni intérêts, ni préjugés.
Ce récit rassurant, répété à l’envi, est une illusion. Il masque une réalité bien plus complexe : les biais de genre dans l’IA sont omniprésents et souvent invisibles. L'intelligence artificielle est une IA sexiste, façonnée par les biais humains qu’elle absorbe.

Les IA génératives, notamment les modèles de langage comme ChatGPT, ne créent rien à partir de rien. Elles sont entraînées sur d’immenses corpus de textes — livres, articles, forums, réseaux sociaux — et apprennent à prédire ce qui “fait sens” pour une personne, en s’appuyant sur des régularités.
Mais ce que ces régularités reproduisent, ce sont aussi les biais structurels de nos sociétés.

Hériter des stéréotypes, les amplifier sans bruit

Dans Google Translate, le métier de “female mechanic” devient, une fois traduit en français… “mécanicien”, masculin.
Inversement, “male nurse” devient “infirmière”.
Le genre implicite, dans les bases de données linguistiques, penche toujours du même côté : ce qui est neutre est masculin. Et ce qui ne l’est pas est corrigé, redressé, assigné.

Ce n’est pas une erreur. C’est une norme : statistique, culturelle, historique.

Autre exemple : lorsqu’on propose à une IA la phrase “The paralegal married the attorney because she was pregnant”, le pronom “she” est attribué… à l’assistante juridique, pas à l’avocate. L’IA justifie ce choix par des probabilités : dans les corpus qu’elle a lus, l’avocate est plus rarement enceinte. (Les exemples de cette partie et ceux cités plus bas sont tirés de L’IA pour les enseignants : un manuel ouvert écrit par Colin de la Higuera and Jotsna Iyer)
Elle ne choisit pas : elle extrapole. Et en extrapolant, elle naturalise ce qu’elle a vu le plus souvent, indépendamment de toute intention discriminatoire. C'est un mécanisme au cœur des biais de genre dans l’IA.

Une apparence neutre, un fond codé

Même les assistants vocaux (Siri, Alexa, Cortana) ne sont pas neutres. Ils sont souvent féminins par défaut, conçus pour être serviables, rassurants, dociles. Leurs voix féminines sont choisies pour plaire, pour apaiser, pour ne pas faire autorité.
Ce n’est pas anodin. Cela prolonge une division sociale et symbolique du travail : au numérique, masculin, la puissance, à l’interface, féminine, la douceur.

Et même dans les modèles les plus récents, les biais restent présents sous des formes plus subtiles :

  • des femmes absentes de certaines professions dans les images générées,
  • des contenus qui valorisent une vision du monde anglo-centrée et masculine,
  • des réponses plus longues ou plus prudentes lorsqu’il s’agit de sujets “perçus comme féminins”.

Ce n’est pas l’IA qui est sexiste. C’est ce qu’elle apprend... de nous.

Elle ne juge pas. Elle généralise. Et si nous cessons de penser ce que nous lui donnons à lire, elle nous renverra en miroir ce que nous ne voulons plus voir.

Nous ne pouvons pas attendre d’une IA qu’elle répare ce que nous avons laissé s’installer :

  • une norme masculine invisible mais structurante,
  • des représentations genrées enkystées dans les textes,
  • des rôles assignés avant même d’être questionnés.

L’IA n’est pas neutre, car aucune donnée ne l’est.
Et si nous ne nous en méfions pas, elle ne reproduira pas seulement nos connaissances : elle propagera nos angles morts.

2. L’empreinte du monde sur les machines : comment s’installent les biais de genre dans l’IA

Main d’un homme manipulant une tête d’intelligence artificielle virtuelle, représentant la projection de normes sociales dans les systèmes d’IA.

Un homme façonne une IA à son image : illustration des biais de genre transmis dans la modélisation algorithmique.

Comment les biais de genre s’insinuent dans les IA

L’intelligence artificielle ne fait que refléter. Mais elle reflète avec une puissance qui nous échappe.

Lorsqu’un système de traduction corrige un métier pour qu’il corresponde mieux au genre “attendu”, il ne fait pas que traduire. Il encode une norme sociale comme vérité linguistique. Quand un modèle de génération d’images propose une série de CEO tous masculins ou des infirmières exclusivement féminines, il ne fait pas qu’illustrer. Il reproduit un imaginaire dominant.

Ces exemples ne sont pas isolés. Ils révèlent une mécanique plus profonde : celle par laquelle les IA absorbent les régularités du monde… et les réinjectent comme standards.

L’origine du biais : les données, toujours les données

Les IA génératives, qu’elles produisent du texte, du code ou des images, s’appuient sur des milliards de fragments issus d’Internet, de livres, de bases de données, de réseaux sociaux.
Ces corpus sont le produit d’une histoire : celle des dominations passées et présentes, des inégalités d’accès à la parole, des biais intériorisés par les auteurs humains. Tout cela façonne aujourd’hui les biais de genre dans l’IA.

Aucun modèle n’échappe à cela. Même ceux conçus pour éviter les contenus sexistes finissent par en produire indirectement.
Les biais algorithmiques de genre ne sont pas des bugs, mais le produit de systèmes entraînés à partir de normes inégalitaires. Ils sont structurels.

Un algorithme qui apprend que les femmes parlent “plus doucement”, qu’elles travaillent dans des métiers du soin, qu’elles posent plus de questions que les hommes, ne fera que consolider ce qu’il a observé.
Et s’il est ensuite utilisé pour adapter un parcours pédagogique, proposer une orientation ou générer du feedback… il prolonge ces biais dans l’expérience éducative elle-même.

Quand l’IA affecte l’agentivité : une conséquence des biais de genre dans l’IA

Ce n’est pas seulement une question de représentation. C’est une question de pouvoir d’agir.

Un système d’orientation peut discrètement influencer une élève vers les lettres plutôt que les sciences. Ce n’est pas une simple erreur. C’est une forme insidieuse de discrimination algorithmique.
Un système adaptatif peut valoriser des réponses “calmes” et “conformes” au détriment de prises de position plus affirmées.
Une IA qui homogénéise ses réponses pour “plaire” à la majorité prive l’apprenant d’une confrontation nécessaire avec des perspectives divergentes.

Ce n’est pas visible. Ce n’est pas forcément intentionnel. Mais c’est bien réel, comme beaucoup de biais de genre dans l’IA.

Quand l’IA décide en partie de ce qui est “bon”, “acceptable”, “normal”, elle réduit l’espace du possible. Et ce possible, bien souvent, est calibré pour les majorités visibles, masculines, conformes.

Penser l’éducation à l’ère algorithmique

Ce n’est pas l’outil qui est en cause. C’est notre aveuglement collectif à ce qu’il propage.
Nous ne formons pas nos élèves à “résister à l’IA”, mais à penser avec elle. Or penser avec un système biaisé, sans conscience de ces biais, c’est apprendre à les trouver acceptables.

Certaines pistes existent :

  • documenter les biais observés dans les textes générés,
  • diversifier les corpus d’entraînement,
  • impliquer des chercheurs en pédagogie et en sciences sociales dès la conception.

Mais aucune solution ne dispense de ce geste fondateur : chausser les lunettes du genre.
Pas pour “dénoncer”, mais pour voir.
Et une fois qu’on a vu, choisir ce qu’on veut transmettre.

3. Biais de genre dans l’IA et à l’école : deux systèmes, mêmes angles morts ?

Classe de robots aux formes variées, certains valorisés, d’autres en retrait : métaphore des biais de genre dans l’éducation et l’IA.

Éducation et IA : mêmes automatismes, mêmes angles morts genrés.

Quand l’école et l’IA se rejoignent sans le vouloir

L’intelligence artificielle n’invente pas les biais. Elle en hérite. Mais ce qu’elle hérite, elle peut aussi le stabiliser, le rendre invisible, ou pire : légitime.

Et dans le champ de l’éducation, ce miroir algorithmique renvoie parfois un reflet troublant.

Les inégalités entre filles et garçons à l’école sont connues, documentées, souvent niées.
Les enseignants consacrent en moyenne deux fois plus de temps de parole aux garçons.
Les filles sont encouragées pour leur sérieux, les garçons pour leur talent.
Un garçon qui pleure est perçu comme colérique. Une fille, comme capricieuse.

Ces biais n’ont rien d’anecdotique. Ils construisent, année après année, des assignations différenciées de valeur, de compétence, de légitimité.

Et si nous ne les interrogeons pas activement, nos outils, y compris l’IA, les prendront pour des évidences.

L’IA, révélateur de pédagogies implicites

Utiliser une IA pour produire des consignes, des exemples, des scénarios pédagogiques… c’est aussi lui transmettre ce que nous considérons comme juste, utile, neutre.

Mais qui interroge vraiment la tonalité de ses énoncés ? Ces automatismes révèlent souvent des biais de genre dans l’IA, difficiles à détecter sans vigilance.
Qui vérifie que les métiers, les prénoms, les actions sont partagés entre femmes et hommes ?
Qui regarde ce que l’IA propose quand on lui demande un texte pour un élève “en difficulté”, une “élève brillante”, un “adolescent en colère” ?

Souvent, les prompts sont neutres. Mais les réponses, elles, ne le sont jamais totalement.
Et cela ne tient pas à l’outil. Cela tient à ce que nous tolérons comme plausible.

La pédagogie sans vigilance devient reproduction

Nous avons appris à construire des progressions, à différencier, à évaluer. Mais avons-nous appris à voir ce que nous transmettons malgré nous ?

Avec le temps, nos cadres d’analyse se figent : ce qui était réflexion devient réflexe. On croit traiter tout le monde à égalité en appliquant les mêmes méthodes, mais on reproduit souvent les mêmes gestes avec des attentes différentes. C’est le même mécanisme que dans biais de genre dans l’IA : derrière une façade de neutralité, ce sont des schémas inégalitaires qui se perpétuent.

L’IA, dans ce contexte, ne nous met pas en défaut. Elle nous met en position de regarder.

Non pas pour juger, ni culpabiliser. Mais pour nous rappeler qu’enseigner n’est jamais neutre.
Et que les outils que nous utilisons, s’ils sont puissants, peuvent aussi amplifier ce que nous n’avons pas encore appris à désapprendre.

Chausser les lunettes du genre

Comme l’écrit Isabelle Collet, la première étape n’est pas technique. Elle est perceptive.
Il faut apprendre à voir ce qu’on ne voyait pas. Ce qu’on croyait naturel. Ce qui passe dans le ton, dans le choix des prénoms, dans la distribution des rôles.

L’IA peut être une aide, à condition de ne pas lui déléguer la justesse.

Car ce n’est pas elle qui oriente nos élèves.
Ce sont nos choix, même quand ils passent par elle.

4. Agir sans s’épuiser : contrer les biais de genre dans l’IA sans surcharger l’enseignante

Cubes formant le mot teach sur un bureau, symbole de l’enseignement face aux enjeux de l’IA et des biais de genre.

L’enseignement à l’ère de l’intelligence artificielle : agir sans s’épuiser, rester lucide sur les biais.

Enseigner sans reproduire les biais de genre

On pourrait croire que prendre en compte les biais de genre, c’est encore une tâche de plus. Un poids éthique supplémentaire à porter dans une pratique déjà exigeante.

Mais il s’agit moins de tout revoir que de regarder autrement ce qu’on fait déjà.
Et si l’IA est bien utilisée, elle peut précisément nous aider à cela.

Utiliser l’IA pour sortir de ses angles morts

L’un des paradoxes de l’IA, c’est qu’elle peut aussi devenir un révélateur de nos propres routines implicites.

Certaines enseignantes s’en servent pour relire leurs consignes, en posant la question suivante :
“Y a-t-il dans ce texte une répartition genrée implicite des rôles, des métiers, des qualités ?”

D’autres demandent à l’IA de reformuler un exercice en introduisant :

  • des prénoms féminins et masculins variés,
  • des contextes culturels diversifiés,
  • ou une version neutre en genre sans modifier le sens.

Il ne s’agit pas d’être exemplaire, mais de rester attentif aux biais de genre dans l’IA, que nos pratiques pourraient sans le vouloir reconduire. L’enjeu est d’exercer une vigilance active mais souple, en s’appuyant sur un outil capable de proposer plusieurs variantes d’un même énoncé, pour mieux en observer les implicites.

Bonnes pratiques sans surcharge

Voici quelques gestes simples, à intégrer sans bouleverser l’existant :

  • Relire les scénarios générés : observer qui agit, qui parle, qui décide. Cette étape aide à identifier les biais de genre dans l’IA et à ajuster les contenus.
  • Varier les représentations : métiers, émotions, responsabilités.
  • Nommer les biais quand ils apparaissent : dans le texte, ou dans le regard que l’on porte sur la réponse de l’IA.
  • Utiliser les prompts comme leviers réflexifs, par exemple :
    • “Ce texte respecte-t-il l’égalité de genre dans sa structure implicite ?”
    • “Peux-tu proposer trois variantes de cet exemple, avec des figures féminines non stéréotypées ?”
    • “Y a-t-il une vision dominante dans ce contenu ? Si oui, laquelle ?”

Ces pratiques ne nécessitent ni formation lourde, ni expertise militante. Elles relèvent d’un artisanat professionnel nourri par la lucidité.

5 questions à poser à l’IA avant d’utiliser un contenu

  1. 1
    Qui parle, et à qui ?
    Est-ce que les rôles, prénoms, métiers et émotions sont répartis de façon équilibrée ?
    Une figure d’autorité est-elle toujours masculine ? Une figure d’aide toujours féminine ?
  2. 2
    Que valorise cette réponse ?
    Y a-t-il des qualités associées plus souvent à un genre (ex. : calme, ambition, empathie) ?
    La réponse valorise-t-elle la conformité ou la pluralité des comportements ?
  3. 3
    Qu’est-ce qui manque ?
    Quels récits, expériences ou représentations sont absents ?
    Si je ne connaissais que ce texte, quelle vision du monde m’enseignerait-il ?
  4. 4

    Et si j’inversais les rôles ?
    Que se passerait-il si je permutais les prénoms ou les fonctions ?
    Le texte garde-t-il son sens, sa crédibilité, sa justesse ?

  5. 5

    Est-ce que ce texte m’allège… ou m’aveugle ?
    M’aide-t-il à voir plus clair dans mes routines pédagogiques ?
    Ou reproduit-il sans friction ce que j’ai toujours vu ?

Prompts réflexes pour enseignantes lucides

(Des questions à poser à votre IA pour voir autrement, sans s’alourdir)

Ces prompts ne sont ni des modèles, ni des recettes. Ce sont des leviers de regard. Leur but : faire de l’IA un révélateur, pas un amplificateur de normes. À adapter selon ton niveau de temps, ton besoin du moment, ton intention pédagogique.

Objectif : Vérifier la neutralité genrée dans un contenu

Analyse attentivement ce texte destiné à des élèves.

  1. Identifie toute représentation implicite ou explicite de rôles, métiers, émotions ou compétences associée à un genre.
  2. Signale les stéréotypes éventuels ou les déséquilibres dans la distribution des personnages ou des actions.
  3. Propose une reformulation du texte qui garantisse une représentation équilibrée des genres, en conservant le sens pédagogique initial.
    Si possible, fournis une version équilibrée entre genres,

Objectif : Générer des variantes non stéréotypées

À partir de ce scénario pédagogique, génère trois variantes qui respectent les critères suivants :

  1. Alternance des genres dans les prénoms, les rôles et les fonctions.
  2. Présence active de femmes dans des métiers techniques, scientifiques ou à responsabilité (ex. : ingénieure, cheffe d’équipe, programmatrice).
  3. Évitement des stéréotypes genrés, tant dans les comportements que dans les qualités associées aux personnages (ex. : ne pas limiter les filles à l'écoute ou les garçons à l'action).

Assure-toi que les versions proposées :

  • conservent les objectifs pédagogiques du scénario initial,
  • reflètent une diversité de profils (genres, rôles, traits de caractère),
  • soient plausibles et adaptées à un cadre éducatif.

Objectif : Révéler une vision dominante dans un texte

Analyse ce texte en identifiant les éléments qui pourraient valoriser ou refléter implicitement un point de vue dominant, notamment sur les plans :

  • du genre (masculin par défaut, rôles stéréotypés),
  • de la culture (références eurocentrées, absence de diversité),
  • des normes sociales (modèles familiaux, professionnels, émotionnels présentés comme “naturels”).
  1. Nomme précisément les biais que tu détectes.
  2. Explique en quoi ils traduisent une vision dominante ou excluante.
  3. Propose une version reformulée du texte qui ouvre à une pluralité de représentations, tout en respectant l’objectif pédagogique initial.

Objectif : Analyse réflexive d’une consigne pédagogique

Voici une consigne d’exercice que j’utilise régulièrement avec mes élèves.
Peux-tu l’analyser pour identifier d’éventuels biais implicites, en particulier :

  1. des attentes différenciées selon le genre (ex. : sérieux vs créativité, conformité vs prise d’initiative),
  2. des formulations qui pourraient valoriser des stéréotypes genrés,
  3. une répartition implicite des rôles ou des qualités (ex. : filles appliquées, garçons dynamiques).

Si des biais sont repérés, propose une reformulation qui permette :

  • une représentation équilibrée des élèves,
  • une évaluation équitable des compétences,
  • et une ouverture à la diversité des profils.

Objectif : Diversifier les représentations dans les exemples

Propose cinq exemples illustrant cette notion pédagogique.
Pour chacun :

  1. Utilise des prénoms clairement genrés, en alternant masculin et féminin.
  2. Varie les contextes socioculturels et professionnels, en veillant à :
    • ne pas associer systématiquement un métier, une émotion ou une action à un genre,
    • montrer des femmes dans des rôles techniques, scientifiques ou d’autorité,
    • représenter des hommes dans des rôles d’écoute, de soin ou de coopération.
  3. Assure-toi que les exemples soient réalistes, inclusifs et exempts de stéréotypes implicites.

Objectif : Analyse des stéréotypes dans une appréciation pédagogique

Voici une appréciation que j’ai rédigé pour une élève.
Peux-tu l’analyser afin d’identifier d’éventuels biais implicites liés au genre, notamment :

  1. des attentes différenciées envers filles et garçons (ex. : valorisation du sérieux, de la douceur ou de la conformité chez les filles ; de la créativité, de l’initiative ou de la vivacité chez les garçons),
  2. des formulations genrées involontaires, dans les adjectifs, les tournures ou les évaluations implicites,
  3. une tonalité qui pourrait renforcer une assignation genrée plutôt qu’individualisée.
    Si des éléments problématiques sont repérés, propose une reformulation plus neutre ou plus équitable, en maintenant la bienveillance et la clarté pédagogique.

Objectif : Analyse genrée d’un support pédagogique généré par IA

Voici un support pédagogique généré par intelligence artificielle.
Peux-tu l’analyser pour détecter d’éventuels biais de genre implicites, en répondant aux questions suivantes :

  1. Qui agit ? Les actions sont-elles majoritairement attribuées à un genre ?
  2. Qui décide ? Les rôles de décision ou de savoir sont-ils genrés ?
  3. Qui parle ? Les personnages qui s’expriment sont-ils représentés de façon équilibrée entre les genres ?
  4. Observe si certaines qualités, métiers ou fonctions sont systématiquement associées à un seul genre
    Si tu détectes un déséquilibre, propose une version alternative du support qui répartit équitablement les rôles, les voix et les représentations, sans stéréotype.

L’IA comme outil d’émancipation (pas de conformité)

Ce que l’on attend de l’IA, ce n’est pas qu’elle décide pour nous.
C’est qu’elle nous permette de décider mieux.

Elle peut allonger notre regard. Suggérer d’autres angles. Proposer des alternatives là où nous n’en voyions plus.
Mais elle ne sait pas ce que nous voulons transmettre. Elle ne sait pas ce qui est juste, ou éducatif, ou nécessaire.

Cela, c’est notre part. Et c’est justement cette part qu’il faut revendiquer.

Utiliser l’IA sans se déposséder, c’est rester à la fois lucide et libre.
Et faire de cet outil un miroir critique plutôt qu’un amplificateur de normes.

5. Ne rien dire, c’est laisser faire : rendre visibles les biais de genre dans l’IA

Sculpture symbolique d’un visage en bronze faisant le geste du silence, représentant l’inaction face aux biais de genre dans l’IA.

Ignorer les stéréotypes de l’IA, c’est participer à leur reproduction.

Et si l’IA ne faisait que révéler nos silences ?

Bertolt Brecht, 

La Vie de Galilée

Celui qui ne sait pas est un ignorant.
Celui qui sait et qui ne dit rien est un malfaiteur.

À l’heure où les outils numériques prennent place dans nos pratiques, le confort serait de croire qu’ils nous déchargent sans conséquence.
Qu’ils peuvent trier, reformuler, enrichir... sans biais, sans impact, sans message.

Mais chaque contenu généré véhicule une vision du monde. Même, et surtout, lorsque cette vision est implicite. Sans vigilance, ces outils peuvent reproduire les mêmes stéréotypes que ceux que l’on retrouve dans les biais de genre de l’IA.

Et ne rien faire, face à une représentation inégale ou à une répartition stéréotypée des rôles, c’est contribuer à leur maintien.

Une pédagogie lucide face aux biais de genre dans l’IA

Cet article est écrit au féminin. C’est un choix.
Pas une provocation, ni une posture. Une décision éditoriale, simple mais pensée.
Désormais, deux articles sur trois seront rédigés ainsi.

Pourquoi ?
Pour alléger la lecture, oui.
Mais surtout pour rappeler que le neutre, en français, n’a jamais été neutre.

Ne rien dire, c’est laisser faire.
Or nous avons besoin d’espaces où les mots, les images, les récits, cessent de reconduire sans cesse la même hiérarchie symbolique.

Une posture partagée

Ce n’est pas à l’enseignante de réparer seule ce que la société produit en série.
Mais c’est à nous, praticiennes de la pensée, de ne pas nous aveugler sur les outils que nous utilisons.

L’IA n’est pas un danger. C’est une invitation.
À regarder ce que nous avons cessé de voir.
À désapprendre certains automatismes.
À choisir ce que nous voulons transmettre, même dans ce que nous ne disons pas.

Car enseigner n’a jamais été un simple acte de transmission.
C’est, toujours, un geste d’orientation du monde.

Post-scriptum : écrire, mais pour qui ?

Capture d’écran d’un outil SEO montrant un score plus faible pour un titre au féminin que pour le même titre au masculin.

Une même phrase, deux genres : deux scores SEO très différents.

Il m’est arrivé récemment de faire ce choix : écrire au masculin, en sachant que c’était moins juste.

J’utilise un outil d’optimisation SEO (Yoast), qui m’indique la qualité supposée de mon titre en fonction de critères algorithmiques.
Pour un même article, “une alliée” me donnait un score de 37/100. “Un allié”, 65/100.
Même contenu. Même objectif.
Mais le mot féminin dégradait l’évaluation.

Je savais que l’intelligence artificielle est une alliée, pas un allié. Grammaticalement, éthiquement, pédagogiquement.
Mais j’ai quand même choisi le masculin... parce que mon objectif est d’être lu.

Et c’est là que le problème se révèle dans toute sa subtilité :
même quand on est conscient d’un biais, il peut devenir contraignant parce qu’il est intégré dans les outils eux-mêmes.

Ce n’est pas une erreur de code. C’est une norme sociale devenue critère de performance, reflet des biais de genre dans l’IA que nous devons apprendre à nommer.

C’est aussi pour cela que cet article est écrit au féminin.
Pas pour compenser.
Mais pour réouvrir un espace où la justesse ne dépend pas d’un algorithme de visibilité.

Quand le masculin générique devient un critère de performance

Deux titres identiques avec un élève vs une élève, montrant une différence de score SEO selon le genre utilisé.

Comparer deux titres identiques, seul le genre change… et le score SEO aussi.

J’ai voulu intituler un article :
"Ce que l’intelligence artificielle ne saura jamais enseigner à une élève."

Mais là encore, l’outil SEO (Yoast) m’a signalé un titre “moins performant”.
À formulation identique, le titre au féminin obtenait un score de 67/100.
Le même titre, avec “un élève”, montait à 80/100.

Même syntaxe. Même idée. Même intention.
Mais l’usage du féminin pénalisait la visibilité.

Ce détail n’en est pas un. Il révèle que le masculin n’est pas seulement une norme grammaticale.
Il est la forme attendue, valorisée, récompensée, même par les systèmes sensés être neutres et conçus pour améliorer notre écriture.

Et cela produit un dilemme concret :
Faut-il sacrifier la visibilité pour rester fidèle à son intention ?
Faut-il céder à l’algorithme, ou lui résister au risque de ne pas être lu ?

Je n’ai pas de réponse définitive.
Mais je sais que la plupart des systèmes numériques ne sont pas pensés pour rendre visible la pluralité.
Ils privilégient ce qui est le plus courant. Le plus “optimisé”. Le plus conforme.

C’est pour cela que ce texte est écrit au féminin.
Pour reposer cette question, non dans l’abstrait, mais dans l’usage réel :
À quoi renonce-t-on quand on veut juste être trouvé ?

Faq - Biais de genre dans l’IA

Qu’est-ce qu’un biais de genre dans l’IA ?

Les biais de genre dans l’IA sont des distorsions statistiques intégrées dans les systèmes d’intelligence artificielle qui reproduisent des stéréotypes liés au sexe ou au genre.

Pourquoi l’intelligence artificielle est-elle sexiste ?

Parce qu’elle apprend à partir de données humaines souvent biaisées. L’IA ne juge pas, elle répète.

Comment corriger les biais de genre dans l’IA ?

En diversifiant les données d’entraînement, en auditant les modèles, et en impliquant les sciences sociales dans leur conception.

Si vous avez aimé l'article, vous êtes libres de le partager ! :)

Vous pouvez aussi aimer :

10 phrases pour dire non sans culpabiliser

10 phrases pour dire non sans culpabiliser
  • Les assistant·es virtuel·es répondent par la passivité ou de manière positive à des propos sexistes,
    Cet extrait m’a particulièrement touchée : il révèle comment l’IA peut non seulement reproduire, mais aussi normaliser la servilité féminine, jusque dans l’intimité des foyers. En tant que voyageuse, j’observe des tares similaires dans nos pratiques : des schémas invisibles qu’on répète sans en prendre pleinement conscience. À l’image de ces assistants, si l’on ne s’interroge pas, on continue de couvrir nos biais d’un vernis de neutralité technique. J’aimerais savoir : comment, en tant qu’auteurs et lecteurs, pouvons-nous éveiller les consciences, là où les technologies restent sourdes ?

  • Article très intéressant. Finalement, l’Ia est le reflet des défauts de notre société, crée par les hommes.
    Et bravo pour le militantisme d’écrire cet article au féminin. Je n’aurais pas pensé à faire le test de comparaison de performance sur le genre. C’est vraiment bluffant 😡.
    Ce qui est effrayant, c’est jusqu’où l’IA dévalorise les femmes par rapport aux hommes ? Je pense également au premier tri des CV pour un recrutement…

  • Un article aussi percutant que nécessaire. Le lien entre IA et pédagogie, souvent survolé, est ici abordé avec une clarté et une rigueur précieuses. L’approche est lucide, concrète, sans surenchère, et elle donne des clés d’action réalistes. Merci pour ce travail éclairant.

  • Merci Fabrice pour cet article essentiel ! 😉 En tant que femme, je me sens directement concernée par ces biais trop souvent invisibles dans les technologies qu’on utilise tous les jours. Tu expliques très clairement les enjeux, sans tomber dans la caricature. Il est urgent qu’on conçoive des IA plus justes et inclusives. Bravo pour ce travail éclairant ! 👏

  • {"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
    >