Où en sont les marketeurs dans le déploiement de solutions basées sur l’IA générative ? C’est la question que nous avons posée à Pierre Biousse, expert “Gen AI” chez Ekimetrics, qui supervise depuis maintenant 18 mois le développement et l’industrialisation de solutions de ce genre.
Avec un mantra, selon l’expert, il faut essayer et, dans l’idéal, viser l’industrialisation dès les premiers tests, pour ne pas se cantonner éternellement à des POC.
Minted. Cela fait maintenant 18 mois que ChatGPT est entré dans nos vies, ouvrant la porte à de nombreux cas d’usages marketing. Qu’est-ce qui a changé ?
Pierre Biousse. Les motivations restent les mêmes, à savoir être capable de construire du contenu à l’échelle et de meilleure qualité. Deux plafonds de verre que le recours à l’IA générative permet de casser.
Un exemple ?
Nous travaillons avec un acteur du domaine de la santé qui est, à ce titre, soumis à pas mal de contraintes réglementaires en matière de communication. Contraintes qui diffèrent, bien évidemment, selon les pays. C’est compliqué, dans ces conditions, d’avoir une communication pertinente et impactante, sans pour autant transiger avec le cadre légal.
C’est là que l’IA générative intervient. On définit, pour chacune des marques, ses caractéristiques et ses spécificités et on met, en balance, les contraintes règlementaires avec lesquelles elle doit composer. On automatise la création du contenu en respectant des pratiques prédéfinies. Chose qui sera plus compliquée à mettre en place en s’appuyant uniquement sur des équipes juniors.
Quelle est, dans cette configuration, le rôle de l’humain : contrôler ?
Il y a, en réalité, deux niveaux de contrôle. Le premier est effectué par l’outil, qui se relit lui-même, ce qui lui permet parfois d’identifier des approximations ou erreurs.
Le second est réalisé par l’humain qui a alors deux options : modifier directement le contenu ou aider l’outil à itérer en lui donnant son feedback.
J’entends tout et son contraire sur les vertus et les dangers de confier ce travail de création de contenus à une IA générative. Aucun risque d’être déclassé par les moteurs de recherche ce faisant ?
Il se trouve que nous accompagnons Google sur le sujet et que Google apporte justement des recommandations aux utilisateurs de ses solutions, notamment Google Analytics et Shopping, pour les aider à automatiser la gestion de leurs fiches produits.
C’est une offre que nous poussons à de nombreux retailers et qui montre que Google est plutôt ouvert sur le sujet. Il y a, bien sûr, des limites à tout cela.
S’il s’agit d’avoir recours à des pratiques un peu “bourrines”, juste pour cracker l’algorithme de Google, vous encourrez effectivement le risque d’être pénalisé. Mais s’il s’agit juste d’améliorer la qualité du contenu et, par rebond, l’expérience utilisateur, j’en doute.
Pour les retailers, c’est d’autant plus bénéfique que cela permet, in fine, d’améliorer les taux de conversion puisque chaque étape du tunnel d’achat est optimisée.
Quels sont, au-delà la création de contenus, les autres principaux cas d’usages ?
Le premier concerne l’automatisation du service support. Il s’agit d’apporter des réponses aux interrogations du client, même après l’acte d’achat, en langage naturel. Et, pour y arriver, de ne pas avoir besoin de passer par un ticket client. C’est un genre de service qui se développe notamment via Whatsapp.
L’autre sujet, c’est la compréhension des besoins clients pour faire du cross-sell ou modifier la proposition de valeur d’un produit.. C’est par exemple s’appuyer sur le social listening et les “reviews” d’un produit pour analyser ce qui plait, ce qui ne plait pas, qu’il s’agisse d’une couleur, d’une fonctionnalité ou d’un packaging.
Nous avons mis en place ce genre d’outil pour un acteur de la cosmétique. Cela lui permet de se positionner face à la concurrence et d’itérer plus rapidement, avec ses équipes R&D, lorsque quelque chose ne marche pas. C’est un outil qui a contribué à diviser le time-to-market d’un produit par deux. Au-delà de ça, cela permet évidemment de booster les ventes.
Côté techno, quelles sont celles que vous voyez émerger ?
Nous sommes agnostiques. Cela dépend, le plus souvent, de la stack sur laquelle s’appuie le client même si, dans la réalité, GPT4 et Gemini sont les deux LLM que nous utilisons le plus.
Je peux vous donner l’exemple d’un projet que nous avons mené pour un fabricant automobile qui s’appuie sur Google Cloud Platform. Il s’agit d’un outil de type “talk to data”, qui a été mis en place via GPT4, avant une migration vers Gemini.
De quoi parle-t-on ?
Il s’agit, concrètement, de poser une question en langage naturel à l’outil, de façon à ce que ce dernier vous apporte la réponse que vous recherchez. C’est, par exemple, s’appuyer sur un hub de données qui a été ingéré par l’outil pour être capable de déterminer le prix qu’il faut attribuer à un véhicule pour que ce dernier se vende facilement.
C’est un outil qui doit être accessible à tous, qu’il s’agisse du C-level, très haut dans l’entreprise, du spécialiste pricing du pôle contrôle de gestion ou du concessionnaire.
C’est la fin du dashboarding quoi…
Oui mais c’est un vrai savoir-faire pour y arriver. Il faut être capable de naviguer entre différentes bases de données, avec des taxonomies différentes, et il faut être capable de développer l’algorithme qui va comprendre la question et la traduire de façon à ce que le modèle comprenne. Et il faut, bien évidemment, lui donner du feedback pour qu’il s’améliore.
Un peu comme ce que certains essaient de mettre en place au sein de leurs outils de marketing mix modeling, pour ne plus avoir à passer par des requêtes SQL pour interroger la machine…
Tout à fait. C’est aussi ce que nous souhaitons mettre en place pour un client que nous accompagnons dans la consolidation de ses données “sell-out”.
Le but, c’est d’avoir des réponses précises à des questions comme “quelle est ma part de marché en Europe ?”, “Qu’est-ce qui drive la performance de ma marque ?”.