5 mars 2026
Temps de lecture : 6 min
Il est tentant de croire que l’intelligence artificielle, parce qu’elle se base sur des formules mathématiques, est fondamentalement neutre. En réalité, elle ne l’est pas. Non seulement elle reproduit les préjugés humains, mais sa mécanique même les aggrave.
Fanny Jourdan, chercheuse en IA spécialisée dans l’étude des biais à l’IRT Saint Exupéry et à l’institut Mila, rappelle que les modèles de langage (LLM) comme ChatGPT ne possèdent ni morale ni capacité de raisonnement intellectuel : leur tâche consiste simplement à prédire le mot suivant de manière statistique. L’objectif principal d’un algorithme de classification ou de prédiction est de maximiser ses chances d’avoir juste et de minimiser ses erreurs. C’est pourquoi il va chercher à faire des généralités pour être le plus proche de la vérité. Pour ne pas prendre de risque, il va donc partir du principe qu’un chirurgien est un homme, même si 14% des chirurgiens sont des femmes.
Le fond du problème vient des jeux de données sur lesquels les algorithmes sont entraînés : des milliards d’informations issues d’Internet. Elles sont le miroir de notre société et peuvent présenter des biais sexistes et inégalitaires.
Les biais algorithmiques ont toujours existé dans le domaine de l’IA dite classique. Mais le phénomène prend une ampleur inédite avec l’essor de l’IA générative observe Fanny Jourdan : « Les nouveaux modèles s’entraînent sur un Internet déjà inondé de textes générés par l’IA. Ils ne font pas que reproduire ces biais, ils les aggravent ». Le risque est de voir apparaître une boucle toxique, loin de la réalité. Une situation inquiétante, quand l’on sait que ChatGPT vient de passer la barre des 900 millions d’utilisateurs actifs. Des utilisateurs qui créent une multitude de contenus qui véhiculent cette vision du monde biaisée.
Mais il ne faut pas mettre pour autant tous les LLM dans le même panier. Contrairement à de nombreux modèles américains, le français Mistral est soumis aux régulations européennes strictes telles que le RGPD et l’AI Act, ce qui lui impose des obligations légales en matière d’éthique et de respect des données. Cela ne signifie pas que Le Chat, son agent IA, soit totalement exempt de biais, mais il possède une approche plus éthique car il s’abstient d’utiliser des données privées volées ou extraites sans autorisation. En évitant de s’entraîner sur des réseaux sociaux où les opinions extrêmes sont courantes, le modèle a moins de risques de générer des contenus biaisés. A relativiser tout de même : Le Chat ne comptabilise qu’un peu plus d’un million d’utilisateurs.
Comment alors sortir de cette boucle toxique et indiquer à la machine qu’elle fait fausse route ? C’est là qu’intervient le RLHF, un apprentissage par renforcement basé sur les commentaires humains. Cette technique est appliquée dans un second temps, une fois que le modèle a terminé son entraînement de base massif.
« Le principe est celui d’un apprentissage supervisé par l’humain. Des évaluateurs vont poser des questions à l’IA, noter ses réponses et lui indiquer les bonnes et les mauvaises réponses », explique la chercheuse.
Cependant, l’efficacité du RLHF repose entièrement sur les personnes chargées de noter la machine. Fanny Jourdan souligne que le modèle de base reste mathématique, mais que la phase de réglage dépend de la conscience qu’ont les évaluateurs des biais potentiels.
C’est ici que la diversité des équipes devient un enjeu technique. « Une personne issue d’une minorité et habituée à vivre des discriminations aura beaucoup plus naturellement le réflexe de vérifier si le modèle génère des biais. C’est cette personne qui sera capable de dire à la machine ‘Tu as représenté un chirurgien homme alors que je sais qu’il y a des femmes chirurgiens’ », illustre-t-elle.
Comment en est-on arrivé là ? Il ne faut pas oublier que les algorithmes sont développés par des humains. Or, les domaines liés à l’IA sont majoritairement masculins, les femmes représentant seulement 10 à 20% du secteur selon une estimation du collectif féministe #JamaisSansElles. Ces hommes, de manière inconsciente, intègrent leurs propres biais cognitifs dans les machines.
Ce phénomène est parfaitement illustré par le concept du « Regard Codé » (Coded Gaze), théorisé par Joy Buolamwini du MIT. Ce concept démontre que les priorités, les expériences et surtout les angles morts des concepteurs sont littéralement injectés dans le code.
Nina Franiatte est chercheuse et consultante chez Onepoint en psychologie cognitive. Elle explique que ce phénomène s’appelle le biais d’endogroupe : « C’est une tendance naturelle à favoriser et à représenter les individus qui nous ressemblent ». Elle ajoute que nous ne pouvons être neutre, même dans le domaine de l’IA. Nous sommes le produit d’une culture, nous imitons des comportements. Même le fait de s’exprimer dans une langue plutôt qu’une autre comporte son lot de subjectivité.
Comment alors se débarrasser de ces biais ou du moins les atténuer ? C’est un processus complexe car nos biais cognitifs opèrent le plus souvent de manière totalement inconsciente.
Pour Nina Franiatte, la méthode principale et la plus accessible reste la sensibilisation : « Ce qui fonctionne le mieux est d’expliquer aux individus le fonctionnement de leur propre cerveau pour qu’ils prennent conscience des raccourcis trompeurs qu’ils utilisent au quotidien ». Il est par exemple possible de confronter les personnes à des petits problèmes intégrant des pièges cognitifs, puis de leur expliquer leur erreur afin de réactiver leurs connaissances logiques. À force de répétition, ce raisonnement logique et réfléchi s’automatise et remplace l’intuition biaisée. Ce genre d’exercices, de pair avec de la sensibilisation, pourrait donc jouer un rôle en entreprise pour limiter ces bais.
Si l’on prend le sujet plus globalement, la véritable solution à long terme se trouve dans l’éducation, selon la chercheuse. Il faut agir dès l’enfance et l’adolescence pour déconstruire les stéréotypes (comme l’idée que les métiers de la tech sont réservés aux hommes) et ouvrir d’autres perspectives avant que les biais ne s’ancrent définitivement.
Pour Elodie Dratler, fondatrice de Wominds, l’enjeu derrière l’existence de biais sexistes et inégalitaires va au-delà de la justice sociale, c’est une question de fiabilité et de performance économique.
« Une IA qui ignore ou pénalise la moitié de l’humanité n’est pas une technologie performante, c’est une technologie inefficace qui hallucine », lance-t-elle.
Ignorer ces biais, c’est concevoir des produits défaillants qui entraînent des erreurs de recrutement, de diagnostics médicaux ou d’octroi de crédits bancaires, qui coûtent très cher aux entreprises.
« La mixité est devenue le meilleur outil de « débugage » des intelligences artificielles », affirme Elodie Dratler et transforme la lutte contre les biais algorithmiques en un formidable tremplin professionnel pour les femmes.
Historiquement, la tech a souvent été perçue comme une « citadelle » réservée aux ingénieurs masculins maîtrisant des langages informatiques complexes. Mais de nouveaux besoins naissent. « L’IA modifie progressivement cette dynamique. Elle rend certaines expertises plus accessibles et valorise davantage les profils hybrides capables de comprendre la technologie tout en la reliant aux enjeux business, marketing et consommateurs. Dans l’adtech, cette capacité est essentielle afin de comprendre le comportement des audiences, de traduire la donnée en stratégie média et de relier la technologie aux objectifs business des marques », observe Alia Abdelhafidh, head of Sales de Seedtag.
Ce qui prime désormais, ce n’est plus la capacité à coder, mais l’expertise métier, la clarté de la pensée et la capacité à poser les bonnes questions. « Les femmes, souvent cantonnées à des rôles transverses ou de services, possèdent cette expertise métier indispensable pour nourrir intelligemment les algorithmes et repérer les angles morts. L’IA devient un grand « égalisateur » de compétences », ajoute Elodie Dratler.
Selon Mai Nguyen, experte spécialisée dans la gouvernance et la maîtrise des risques liés à l’IA, plus la machine sera omniprésente, plus le marché aura besoin de compétences intrinsèquement humaines qu’elle ne possède pas, comme l’empathie, les émotions et la justesse. « La nécessité de cadrer et de sécuriser ces outils ouvre d’immenses opportunités professionnelles, notamment à travers de nouveaux postes stratégiques comme celui de Chief AI Risk Officer ou de chef de produit IA », continue-t-elle.
Faire entrer les femmes dans l’univers de l’IA serait ainsi la condition sine qua non pour garantir la fiabilité, la précision et la rentabilité des entreprises.
A condition de dépasser le syndrome de l’imposteur.
« Dans un domaine défini par l’incertitude, l’influence revient souvent aux personnes qui s’affirment le plus lors des discussions publiques sur ce que l’IA peut et doit faire. Il faut s’assurer que davantage de femmes se sentent légitimes pour s’emparer de la conversation, monter en compétences et contribuer à façonner l’évolution de cette technologie », affirme Sarah Maina, Regional Manager France & MENA de AppsFlyer.
Elodie Dratler est optimiste quant à l’avenir. Elle estime que ces nouveaux outils d’IA vont permettre aux femmes de devenir des expertes augmentées, passant d’un statut d’exécutantes à celui de véritables pilotes dans les prises de décision. Enfin, elle est convaincue que l’automatisation massive par l’IA libérera du temps de qualité pour replacer l’humain au centre du travail, en valorisant les interactions intellectuelles et notre capacité à collaborer toutes et tous ensemble.
Pour aller plus loin :
Les travaux de recherche de Fanny Jourdan :
Les travaux de recherche de Nina Franiatte :
Topics
TOUS LES MATINS, RECEVEZ UNE DOSE D'ADTECH, D'EVENEMENTS, D'INNOVATIONS, MEDIA, MARKETING...
Je découvre les newsletters Minted !