9 octobre 2025
Temps de lecture : 5 min
Benjamin Lanfry : Je ne le pense pas. La consommation média des utilisateurs reste très orientée vers des contenus non pilotés par l’IA ou par des bots. Si un individu lambda regarde son téléphone, il consulte des applications de news ou des réseaux sociaux. Le contenu généré par des bots n’a pas de véritable valeur informationnelle. Il n’y a pas d’histoire ou de contenu de fond qui justifierait une dérive massive de la consommation.
Historiquement, le trafic MFA n’est pas organique (il provient souvent du bas des articles ou des réseaux sociaux) et ne génère pas de véritable audience. Pour moi, cela ne représente pas une menace capable de transformer les utilisateurs en « zombies ». Je crois que l’information de qualité conservera sa valeur pour les utilisateurs, même si elle est présentée par un véhicule différent.
A lire également : Pourquoi le slop web pourrait bientôt nous transformer en zombies
C’était un sujet qui est arrivé très tôt chez nous, principalement depuis les États-Unis. Notre position dans la chaîne de valeur nous impose d’être accountable (responsable) auprès de nos clients concernant les sites et éditeurs sur lesquels leurs campagnes sont diffusées.
Historiquement, nous avions déjà une batterie de tests, incluant des vérifications manuelles sur les pages pour voir la décence du contenu, l’absence de stacking (technique frauduleuse qui consiste à empiler plusieurs publicités les unes au-dessus des autres sur un seul placement, ndlr) ou de chevauchement de publicités ? Nous avons également développé des solutions d’IA internes. La difficulté était que, même avant l’IA, certains acteurs MFA parvenaient à simuler des métriques de qualité que les annonceurs recherchaient.
Pour standardiser notre approche, nous avons établi un partenariat avec Jounce Media, une société spécialisée dans la recherche et la méthodologie MFA. Elle indique que 20% des dépenses publicitaires sont gaspillées sur ces sites.
Nous travaillons également avec DeepSee, des experts de la supply chain qui vont plus loin en évaluant la qualité des contenus pour s’assurer qu’ils sont générés par des humains et qu’il s’agit d’éditorial de qualité. Toutes ces vérifications sont intégrées à nos processus de sélection d’inventaire.
Contrairement à de nombreux acteurs intermédiaires pour qui les revenus générés par les MFA représentent une part importante de leur chiffre d’affaires (ce qui rend difficile la décision de couper cet inventaire, surtout pour des entreprises cotées en bourse), nous n’avons pas basé nos revenus sur les MFA. Cela nous a permis de mettre en place des garde-fous sans impact financier.
L’absence de standard pour le MFA est un réel problème. Aujourd’hui, la détection est rendue d’autant plus difficile que les sites MFA vont s’améliorer pour imiter les signaux de qualité.
Selon moi, tant que les annonceurs, ceux qui financent l’écosystème, n’exigeront pas de changement, il sera difficile de voir une correction. Lorsque tous les acteurs sont poussés à payer des prix toujours plus bas et à optimiser pour des métriques de performance parfois aberrantes, cela encourage toute la chaîne à s’aligner sur ces KPI.
Pour que les grandes entreprises comme Google, Amazon ou Meta changent leurs pratiques, il faudrait un mouvement fort initié aux États-Unis. Il faudrait qu’un grand annonceur comme Procter & Gamble soit prêt à suspendre ses dépenses pour imposer un changement de politique chez les Big Tech.
Oui, l’écosystème fonctionne par cycles, et je pense que nous nous dirigeons vers un cycle de qualité, potentiellement accompagné d’une simplification : moins de partenaires, plus d’achats directs avec les éditeurs.
Un indice très révélateur est l’évolution des pratiques d’exclusion. Historiquement, on utilisait des blacklists ou block lists. Cependant, cette approche est bancale, car des milliers, voire des centaines de milliers de nouveaux domaines MFA, souvent générés par l’IA, arrivent chaque jour. Par définition, si un site est nouveau, il n’est pas bloqué.
De plus en plus de grands annonceurs travaillent désormais avec des listes d’inclusion (allow lists). Ces listes sont constituées par des experts tiers et deviennent un standard. Cela est un signal fort que le marché priorise la qualité.
La combinaison de plusieurs approches est nécessaire. Parmi ces méthodes fondamentales, l’approche de vérification manuelle reste clé, malgré ses limites inhérentes. De même, l’utilisation de solutions de pré-bid est nécessaire pour vérifier en temps réel, avant l’affichage de l’impression, si les critères de l’annonceur sont respectés. Il est également crucial de faire appel à des experts prestataires tiers, tels que Jounce Media et DeepSee. Une logique itérative doit être mise en œuvre en intégrant les retours des annonceurs sur des métriques spécifiques. Par exemple, l’Ad collision, qui désigne le fait d’avoir deux publicités du même annonceur sur la même page, est un facteur parfois recherché par certains (comme dans le luxe) et rejeté par d’autres, et doit donc être pris en compte pour l’optimisation. Enfin, au niveau interne, il est fondamental que les intermédiaires disposent d’équipes dédiées à la qualité qui sont indépendantes et ne sont pas incitées par le revenu, afin d’éviter de fermer les yeux sur les problèmes de qualité.
Oui, absolument. Les agences médias devraient être force de proposition pour créer un standard de mesure de la qualité média. On pourrait imaginer un score de qualité média qui prendrait en compte des facteurs positifs (robustesse et décence du contenu, génération par des humains) et des facteurs négatifs (indexation sur des sites de fake news, nombre excessif de formats publicitaires par page). Ce sont les annonceurs qui doivent faire pression pour exiger de tels outils.
Toute la chaîne de valeur (SSP, DSP, agences) doit se coordonner. Un exemple simple d’amélioration serait d’utiliser le protocole Open RTB pour améliorer la boucle de rétroaction (feedback loop). Si un DSP perd une enchère, le protocole lui permet déjà de savoir pourquoi. Si la raison est un problème de qualité, cette information pourrait être transmise à l’éditeur. Cela permettrait à l’éditeur de comprendre la perte de revenus due à des sites inappropriés qui ne rencontraient pas les critères de l’annonceur.
Tant qu’il n’y aura pas de réglementation éthique globale ou européenne appliquée aux modèles d’IA, il sera difficile de faire confiance à l’IA pour surveiller l’IA.
Aujourd’hui, les grands modèles de langage (LLM) sont propriétaires et l’enjeu capitalistique est énorme. Pour instaurer la confiance et la transparence, on pourrait s’inspirer du Big Data, où des protocoles standard et collaboratifs comme Hadoop (technologie open source qui permet de stocker et traiter de très grandes quantités de données, ndlr) existent. Nous avons besoin d’un modèle d’IA qui serait transparent et collaboratif, comme un « Linux du LLM ». Cela pourrait permettre un jour une forme de contrôle automatisé du LLM par le LLM.
A lire également :
Topics
TOUS LES MATINS, RECEVEZ UNE DOSE D'ADTECH, D'EVENEMENTS, D'INNOVATIONS, MEDIA, MARKETING...
Je m'inscris à la newsletter quotidienne !