15 janvier 2026

Temps de lecture : 3 min

Slop, CTV et crawlers IA : les tendances 2026 selon IAS

En 2026, les annonceurs passent d’une phase de questionnement à une phase d’action face à l’IA générative. L’enjeu est d'en maîtriser les usages, d’éliminer les contenus de faible qualité et de garantir transparence, qualité et durabilité des investissements, notamment sur la CTV et les nouveaux environnements média. Explications avec Clément Bascoulergue, Directeur France d’Integral Ad Science.

Après une année 2025 riche en interrogations, comment les annonceurs abordent-ils concrètement la transition vers l’IA générative en 2026 ?

Clément Bascoulergue : Nous passons d’une ère de questionnement en 2025 à une ère de structuration et de solutions en 2026. Aujourd’hui, environ 80 % des clients expriment le besoin de savoir s’ils diffusent leurs publicités à côté de contenus générés par l’IA. L’enjeu en 2026 n’est pas de rejeter l’IA en bloc, car près de 90 % du web l’utilise désormais d’une manière ou d’une autre, mais de trier le bon grain du mauvais. Les annonceurs veulent surtout éviter les contenus de faible qualité, ce qu’on appelle le « AI Slop ».

A lire également : IA générative dans l’adtech : IAS fait face à une menace croissante et à des opportunités inédites

Clément Bascoulergue, Directeur France d’Integral Ad Science.

Quelle est l’ampleur du phénomène de « basse qualité » que vous anticipez pour le web ?

Les chiffres prévus pour 2026 sont marquants : 50 % des sites MFA (Made For Advertising) et 55 % des sites dits « encombrés » (ad clutter) sont désormais générés par l’IA. Ces sites, souvent comparés à des « sapins de Noël » à cause de l’empilement excessif de publicités, n’ont pas d’audience naturelle et nuisent à la perception des marques. À l’inverse, nous constatons que 85 % des sites de haute qualité sont toujours générés par des humains. L’objectif en 2026 est donc de déployer des outils de détection et d’analyse plus fins pour protéger les investissements.

Face à l’exploitation de leurs contenus, quelle est la position des éditeurs vis-à-vis des agents et crawlers d’IA ?

En 2026, la situation se structure : les agents les plus importants, ceux qui souhaitent se développer de manière « propre », commencent à se déclarer officiellement, à l’image du crawler de Google. Pour les éditeurs de presse, il est vital de savoir si une page publicitaire est consultée par un humain ou par un agent d’IA et la transparence sur ces flux devient la norme pour les acteurs de confiance. Cependant, le défi reste entier pour détecter les agents non déclarés qui « scrapent » les contenus sans autorisation, ce que nous classons dans la catégorie du trafic non humain sophistiqué (SIVT).

Certains disent que les éditeurs n’auraient pas intérêt à bloquer ces robots car ils gonflent artificiellement leur trafic. Qu’en pensez-vous ?

C’est une théorie qui circule, suggérant que ce trafic de robots pourrait booster les performances affichées des éditeurs. Toutefois, pour 2026, nous privilégions une approche de régulation. Utiliser des robots pour gonfler son audience est une pratique risquée pour un éditeur ayant pignon sur rue : cela génère des scores de fraude élevés (GIVT ou SIVT) qui risquent d’entraîner un blocage pur et simple de la part des outils de vérification utilisés par les annonceurs. Notre objectif pour cette année est d’être le plus précis possible dans la classification de ces nouveaux modèles de crawling afin de décourager ces mauvaises pratiques et de protéger l’investissement des marques.

Comment la demande de transparence des annonceurs va-t-elle évoluer en 2026 face à la multiplication des solutions publicitaires dites « boîte noire » ?

C’est une tendance qui s’accélère : les géants du numérique poussent des solutions packagées où l’IA pilote tout. Si la promesse de performance est là, les annonceurs craignent en 2026 de perdre le contrôle et de ne plus savoir précisément où leurs publicités sont diffusées. Il y a un besoin vital de transparence pour éviter ces « black boxes » et s’assurer que l’optimisation ne se fait pas au détriment de la qualité de l’environnement.

Sur quels fronts technologiques allez-vous agir en 2026 concernant les nouveaux environnements tels que la CTV ou l’in-game advertising ?

La vidéo est un sujet central pour 2026, mais sa classification est plus complexe que le texte. Nous travaillons activement sur la détection des deep fakes pour distinguer le vrai du faux dans les contenus. En France, nous arrivons en 2026 à un point de bascule où la demande des annonceurs dépasse l’offre de qualité. Ce déséquilibre attire malheureusement la fraude, notamment le « device spoofing », où un fraudeur fait croire qu’il vend un inventaire CTV alors qu’il s’agit d’un autre type d’appareil moins qualitatif. Pour contrer cela, la transparence et la mesure seront les clés de 2026. Nous collaborons d’ailleurs étroitement avec Médiamétrie pour lancer des pilotes de mesure cross-média dès le premier trimestre (Q1) 2026.

Concernant l’In-game advertising, c’est un environnement que nous valorisons car il offre d’excellents scores de visibilité et d’attention. Le frein principal était le manque de mesure, mais les solutions et les indicateurs clés (KPI) sont désormais prêts pour qualifier ces inventaires en 2026.

L’IA a capté tous les budgets en 2025, au détriment de la durabilité. Le sujet va-t-il revenir au centre des enjeux publicitaires en 2026 ?

Il est vrai que les budgets de formation et de RSE ont parfois été siphonnés par l’IA en 2025. Cependant, nous pensons que la durabilité reste un pilier fondamental pour 2026. C’est pourquoi nous intégrons désormais la mesure carbone comme un quatrième pilier de la qualité média, aux côtés de la visibilité, de la fraude et de la brand safety. L’idée est simple : une impression publicitaire non vue ou frauduleuse est une dépense carbone inutile qu’il faut éliminer.

Allez plus loin avec Minted

LA NEWSLETTER

LES ÉVÉNEMENTS

LES ÉMISSIONS