9 octobre 2025

Temps de lecture : 5 min

MFA : Ogury appelle les agences à instaurer un score de qualité média

L'écosystème publicitaire est confronté à une prolifération de sites dits « Made For Advertising » (MFA), souvent alimentés par l'Intelligence Artificielle Générative. Nous avons interviewé Benjamin Lanfry, Client Services & Partnerships chez Ogury, pour décrypter cette menace et identifier les solutions. Parmi elles, la création d’un score de qualité média.

Avec l’essor de l’IA Générative, craignez-vous que les utilisateurs deviennent des « zombies » à cause de ces sites MFA et plus généralement du slop web, avec l’augmentation du contenu sans fond généré par l’IA ?

Benjamin Lanfry, Client Services & Partnerships chez Ogury

Benjamin Lanfry : Je ne le pense pas. La consommation média des utilisateurs reste très orientée vers des contenus non pilotés par l’IA ou par des bots. Si un individu lambda regarde son téléphone, il consulte des applications de news ou des réseaux sociaux. Le contenu généré par des bots n’a pas de véritable valeur informationnelle. Il n’y a pas d’histoire ou de contenu de fond qui justifierait une dérive massive de la consommation.

Historiquement, le trafic MFA n’est pas organique (il provient souvent du bas des articles ou des réseaux sociaux) et ne génère pas de véritable audience. Pour moi, cela ne représente pas une menace capable de transformer les utilisateurs en « zombies ». Je crois que l’information de qualité conservera sa valeur pour les utilisateurs, même si elle est présentée par un véhicule différent.

A lire également : Pourquoi le slop web pourrait bientôt nous transformer en zombies

Comment Ogury a-t-il vu évoluer ce phénomène et comment l’entreprise gère-t-elle la détection des sites MFA, d’autant plus que l’IA peut rendre la simulation de qualité plus difficile ?

C’était un sujet qui est arrivé très tôt chez nous, principalement depuis les États-Unis. Notre position dans la chaîne de valeur nous impose d’être accountable (responsable) auprès de nos clients concernant les sites et éditeurs sur lesquels leurs campagnes sont diffusées.

Historiquement, nous avions déjà une batterie de tests, incluant des vérifications manuelles sur les pages pour voir la décence du contenu, l’absence de stacking (technique frauduleuse qui consiste à empiler plusieurs publicités les unes au-dessus des autres sur un seul placement, ndlr) ou de chevauchement de publicités ? Nous avons également développé des solutions d’IA internes. La difficulté était que, même avant l’IA, certains acteurs MFA parvenaient à simuler des métriques de qualité que les annonceurs recherchaient.

Pour standardiser notre approche, nous avons établi un partenariat avec Jounce Media, une société spécialisée dans la recherche et la méthodologie MFA. Elle indique que 20% des dépenses publicitaires sont gaspillées sur ces sites.

Nous travaillons également avec DeepSee, des experts de la supply chain qui vont plus loin en évaluant la qualité des contenus pour s’assurer qu’ils sont générés par des humains et qu’il s’agit d’éditorial de qualité. Toutes ces vérifications sont intégrées à nos processus de sélection d’inventaire.

Contrairement à de nombreux acteurs intermédiaires pour qui les revenus générés par les MFA représentent une part importante de leur chiffre d’affaires (ce qui rend difficile la décision de couper cet inventaire, surtout pour des entreprises cotées en bourse), nous n’avons pas basé nos revenus sur les MFA. Cela nous a permis de mettre en place des garde-fous sans impact financier.

L’absence de standard de mesure pour le MFA (contrairement à la viewability qui a une norme MRC) est-elle un obstacle majeur ? Quel rôle les annonceurs et les Big Tech, comme Google, doivent-ils jouer ?

L’absence de standard pour le MFA est un réel problème. Aujourd’hui, la détection est rendue d’autant plus difficile que les sites MFA vont s’améliorer pour imiter les signaux de qualité.

Selon moi, tant que les annonceurs, ceux qui financent l’écosystème, n’exigeront pas de changement, il sera difficile de voir une correction. Lorsque tous les acteurs sont poussés à payer des prix toujours plus bas et à optimiser pour des métriques de performance parfois aberrantes, cela encourage toute la chaîne à s’aligner sur ces KPI.

Pour que les grandes entreprises comme Google, Amazon ou Meta changent leurs pratiques, il faudrait un mouvement fort initié aux États-Unis. Il faudrait qu’un grand annonceur comme Procter & Gamble soit prêt à suspendre ses dépenses pour imposer un changement de politique chez les Big Tech.

Observez-vous des signaux que le marché, pour contrebalancer cette tendance, est en train de s’orienter vers plus de qualité ?

Oui, l’écosystème fonctionne par cycles, et je pense que nous nous dirigeons vers un cycle de qualité, potentiellement accompagné d’une simplification : moins de partenaires, plus d’achats directs avec les éditeurs.

Un indice très révélateur est l’évolution des pratiques d’exclusion. Historiquement, on utilisait des blacklists ou block lists. Cependant, cette approche est bancale, car des milliers, voire des centaines de milliers de nouveaux domaines MFA, souvent générés par l’IA, arrivent chaque jour. Par définition, si un site est nouveau, il n’est pas bloqué.

De plus en plus de grands annonceurs travaillent désormais avec des listes d’inclusion (allow lists). Ces listes sont constituées par des experts tiers et deviennent un standard. Cela est un signal fort que le marché priorise la qualité.

Quelles solutions concrètes existent pour garantir un environnement brand safe, au-delà des listes d’inclusion ?

La combinaison de plusieurs approches est nécessaire. Parmi ces méthodes fondamentales, l’approche de vérification manuelle reste clé, malgré ses limites inhérentes. De même, l’utilisation de solutions de pré-bid est nécessaire pour vérifier en temps réel, avant l’affichage de l’impression, si les critères de l’annonceur sont respectés. Il est également crucial de faire appel à des experts prestataires tiers, tels que Jounce Media et DeepSee. Une logique itérative doit être mise en œuvre en intégrant les retours des annonceurs sur des métriques spécifiques. Par exemple, l’Ad collision, qui désigne le fait d’avoir deux publicités du même annonceur sur la même page, est un facteur parfois recherché par certains (comme dans le luxe) et rejeté par d’autres, et doit donc être pris en compte pour l’optimisation. Enfin, au niveau interne, il est fondamental que les intermédiaires disposent d’équipes dédiées à la qualité qui sont indépendantes et ne sont pas incitées par le revenu, afin d’éviter de fermer les yeux sur les problèmes de qualité.

Les agences média ont-elles un rôle à jouer dans l’établissement de normes communes ou d’un standard ?

Oui, absolument. Les agences médias devraient être force de proposition pour créer un standard de mesure de la qualité média. On pourrait imaginer un score de qualité média qui prendrait en compte des facteurs positifs (robustesse et décence du contenu, génération par des humains) et des facteurs négatifs (indexation sur des sites de fake news, nombre excessif de formats publicitaires par page). Ce sont les annonceurs qui doivent faire pression pour exiger de tels outils.

Comment la technologie pourrait-elle aider à améliorer la transparence dans la chaîne de valeur ?

Toute la chaîne de valeur (SSP, DSP, agences) doit se coordonner. Un exemple simple d’amélioration serait d’utiliser le protocole Open RTB pour améliorer la boucle de rétroaction (feedback loop). Si un DSP perd une enchère, le protocole lui permet déjà de savoir pourquoi. Si la raison est un problème de qualité, cette information pourrait être transmise à l’éditeur. Cela permettrait à l’éditeur de comprendre la perte de revenus due à des sites inappropriés qui ne rencontraient pas les critères de l’annonceur.

Peut-on envisager de faire confiance à l’IA pour contrôler l’IA, ou la vérification doit-elle rester manuelle et humaine ?

Tant qu’il n’y aura pas de réglementation éthique globale ou européenne appliquée aux modèles d’IA, il sera difficile de faire confiance à l’IA pour surveiller l’IA.

Aujourd’hui, les grands modèles de langage (LLM) sont propriétaires et l’enjeu capitalistique est énorme. Pour instaurer la confiance et la transparence, on pourrait s’inspirer du Big Data, où des protocoles standard et collaboratifs comme Hadoop (technologie open source qui permet de stocker et traiter de très grandes quantités de données, ndlr) existent. Nous avons besoin d’un modèle d’IA qui serait transparent et collaboratif, comme un « Linux du LLM ». Cela pourrait permettre un jour une forme de contrôle automatisé du LLM par le LLM.

A lire également :

Allez plus loin avec Minted

LA NEWSLETTER

LES ÉVÉNEMENTS

LES ÉMISSIONS