15 mars 2026

Temps de lecture : 7 min

LLM : doivent-ils devenir un bien commun ?

Les IA en tant qu'infrastructures du savoir doivent être régulés et gouvernés. Il en va de notre souveraineté économique, politique et culturelle. Cela doit-il passer par un modèle open-source soutenu par la puissance publique ?

Dans ma veille cette semaine, un post proposait que l’Europe prenne une participation dans Anthropic afin de provoquer un « moment Airbus » de l’IA : attirer un acteur de frontière, réputé pour son approche éthique, l’ancrer sur le continent et en faire un fournisseur stratégique pour les institutions comme pour les entreprises, tout en réduisant la dépendance européenne aux grandes plateformes américaines.

L’idée a manifestement enflammé les foules… Il faut dire que le moment s’y prête, avec un climat de permacrise qui contribue à une militarisation accélérée des technologies d’IA, et un bras de fer presque hollywoodien entre Anthropic et la Maison-Blanche

Reste toutefois quelques réalités à (re)préciser. L’Europe dispose déjà de ses propres acteurs, notamment Mistral en France, et gagnerait sans doute davantage à investir pour en faire émerger de nouveaux plutôt qu’à chercher à en rapatrier. Surtout, tant qu’Anthropic reste une société de droit américain, elle demeure exposée aux pressions politiques de Washington. Quel que soit son actionnariat.

L’épisode du classement en « supply-chain risk » montre bien qu’en matière stratégique, la juridiction l’emporte sur le capital. Si l’objectif est une souveraineté réelle, alors il faut aller plus loin. Changer la nationalité juridique. Placer la gouvernance sous droit européen. Et prévoir des protections explicites contre les mécanismes d’extraterritorialité. Sans cela, on fait juste entrer chez soi un cheval de Troie.

« Quitter ChatGPT pour Claude semble être devenu la nouvelle façon d’afficher sa vertu »

Il y a aussi un angle qu’on oublie un peu vite dans les discussions récentes : OpenAI, Anthropic et les autres restent des entreprises privées. Leur objectif n’est pas le bien commun ; c’est la croissance et le profit. Ces derniers jours, à lire LinkedIn, quitter ChatGPT pour Claude semble être devenu la nouvelle façon d’afficher sa vertu. C’est touchant. Et, au mieux, naïf.

Au fond, l’intérêt de la proposition tient moins à la solution qu’elle propose qu’à la question qu’elle ouvre. En effet, les grands modèles de langage prennent peu à peu place dans notre manière d’accéder à l’information et à la connaissance. Ils organisent et synthétisent une immense masse de données, de récits, de savoirs et d’informations stratégiques ancrées dans l’expérience humaine ; en les rendant interrogeables, ils transforment peu à peu la manière dont ces connaissances circulent, se recomposent et deviennent accessibles.

Une évolution qui n’est pas sans rappeler certains basculements historiques. 

Les LLM, nouvelles infrastructures du savoir

Pendant des siècles, une grande partie de la transmission du savoir en Europe passe par les institutions religieuses. Les monastères, les écoles cathédrales puis les premières universités conservent, copient et enseignent les textes, et participent à la circulation des connaissances dans un espace savant relativement structuré.

Au XVe siècle, l’invention de l’imprimerie accélère fortement cette diffusion. Les livres peuvent être reproduits en grand nombre, leur coût diminue et les textes circulent beaucoup plus largement. À partir du XIXe siècle, une nouvelle étape apparaît : les États commencent à organiser eux-mêmes l’accès au savoir. En France, les collections qui formeront la Bibliothèque nationale deviennent un bien national après la Révolution. Quelques décennies plus tard, les lois portées par Jules Ferry instaurent l’école gratuite et obligatoire.

Aujourd’hui, les LLM marquent une transformation plus profonde, car ces systèmes sont entraînés sur une grande partie de nos traces humaines et deviennent peu à peu une machine de médiation cognitive. Cette idée n’est d’ailleurs pas entièrement nouvelle, Michel Foucault parlait de l’archive comme de la structure qui détermine ce qu’une époque peut dire et penser. Les modèles de langage commencent à jouer un rôle analogue : une couche d’interprétation entre les individus et la masse du savoir disponible.

Vous voyez ou je veux en venir, non ? Si ces systèmes organisent l’accès au savoir, doivent-ils être pensés uniquement comme des produits privés, ou comme une nouvelle infrastructure cognitive publique ?

Le sourd colonialisme des IA, via les biais culturels

Derrière les algorithmes se cachent des visions du monde. Parce qu’ils sont entraînés sur des données majoritairement occidentales, les grands modèles de langage ne sont jamais neutres et finissent par imposer une culture au détriment des autres.

Des chercheuses comme Timnit Gebru, qui a justement quitté Google après un conflit très médiatisé sur les biais et les risques des grands modèles de langage, alertent depuis plusieurs années sur ces dynamiques de pouvoir et sur les biais structurels qui traversent les systèmes d’IA. Le MIT Technology Review consacre d’ailleurs une série entière à ce phénomène, qu’il appelle « AI colonialism », et recense différents cas d’expérimentation qui explorent des voies pour s’en émanciper.

Attention toutefois aux amalgames. Deux réalités doivent être distinguées. L’ancrage industriel d’un modèle d’un côté. L’ancrage culturel de l’autre. Les deux ne coïncident pas toujours. Un modèle peut être développé dans un pays tout en évoluant dans un espace sémantique largement anglo-saxon. Les corpus existent souvent dans d’autres langues. Leur mobilisation reste inégale. Données dispersées, archives peu numérisées, ensembles difficiles à connecter ou à exploiter à grande échelle, enjeux économiques. La question des datasets devient alors centrale, car comment préserver une culture dans l’IA si les archives qui la portent ne sont pas réellement mobilisables ?

Certaines initiatives se dessinent ainsi. Une première dynamique est nationale, même si ces projets reposent souvent sur des coalitions d’acteurs, entreprises privées, institutions de recherche et partenariats public-privé, plutôt que sur les seuls gouvernements. Des pays cherchent à développer ou soutenir des modèles associés à leur propre espace linguistique, scientifique ou industriel, comme Apertus en Suisse, Mistral en France, ALLaM en Arabie saoudite, BharatGen en Inde, ou encore Matilda en Australie. 

D’autres initiatives se structurent à une échelle régionale ou explicitement multilingue. Latam-GPT en Amérique latine, SEA-LION en Asie du Sud-Est ou OpenGPT-X en Europe cherchent ainsi à mutualiser les ressources pour représenter plusieurs langues et contextes culturels au sein d’une même infrastructure.

Enfin, une troisième catégorie se développe autour de projets centrés sur une langue ou une communauté particulière. Des initiatives comme Projecte Aina en Catalogne, Sahabat AI en Indonésie ou Te Hiku Māori en Nouvelle-Zélande ont pour objectif de préserver, renforcer ou rendre visibles des langues et des savoirs qui risquent autrement de disparaître des grands corpus d’entraînement.

Drones militaires autonomes, désinformation industrielle… « chaque technologie crée aussi son accident »

Il y a aussi une autre dimension qui est capitale (j’allais écrire « cruciale », mot qu’on emploie désormais même là où il ne se passe rien, je m’abstiens) : l’IA ne restera pas confinée aux écrans. 

Elle viendra soutenir des systèmes de santé déjà sous tension, confrontés à la fois au vieillissement de la population et à une pénurie structurelle de main-d’œuvre. On voit apparaître des humanoïdes de soin ou de compagnonnage, aux côtés des voitures et d’autres formes de transport autonomes (au Japon, des chercheurs ont même lancé  Buddharoid, un moine artificiel destiné à explorer les interactions entre spiritualité, robotique et IA).

N’oublions pas non plus le domaine de la défense. L’IA s’intègre déjà à des robots, à des drones et à toute une gamme de systèmes autonomes. Et pourtant, tout cela reste encore relativement familier. La réalité qui se dessine pourrait bien être plus étrange…

Jugez plutôt : en Allemagne, la startup SWARM Biotactics développe déjà des essaims d’insectes cyborgs équipés d’interfaces neuronales et de capteurs militaires, destinés à opérer comme des unités de reconnaissance. En Russie, la startup Neiry expérimente des « biodrones » : des pigeons dotés d’implants cérébraux permettant d’orienter leur trajectoire et de les transformer en plateformes de surveillance.

Ce qui est fascinant se trouve surtout dans toute l’infrastructure qui reçoit et analyse les données. L’insecte, le pigeon ou le micro-drone n’est alors qu’un vecteur mobile relié à un système d’IA plus vaste. Elle prendra la forme d’un tissu discret de capteurs, d’agents et de logiciels disséminés dans l’environnement, presque invisibles et continuellement actifs.

Et que dire de la manipulation cognitive ? Plusieurs États expérimentent déjà ce terrain. Prenez L’Iran : ses médias d’État et des comptes sociaux alignés mènent une guerre informationnelle parallèle, nourrie par des contenus faux ou générés par IA. De quoi saturer l’espace public. 

Le philosophe Paul Virilio rappelait que chaque technologie crée aussi son accident : inventer le navire, c’est inventer le naufrage ; inventer l’avion, c’est inventer le crash. Les infrastructures cognitives que nous construisons aujourd’hui inventeront elles aussi leurs propres formes d’accidents politiques, sociaux, militaires ou culturels.

Eviter le « Minitel de l’IA » : un champion national dépassé

Et face à cela, la loi, seule, ne suffira probablement pas. En tout cas pas dans le contexte actuel. On peut écrire les meilleures règles du monde… il n’en demeure pas moins que la capacité de dire non reste d’abord une affaire de portefeuille. On ne régule jamais dans le vide : la capacité d’une société à refuser une technologie dépend directement de la manière dont elle partage la richesse que cette technologie produit. 

Si les LLM frontière deviennent des infrastructures publiques comme l’électricité, il faut éviter le piège du Minitel de l’IA, cette structure rigide déjà obsolète à son lancement. Maintenir un modèle propriétaire exige une agilité incompatible avec le temps administratif. Le portage public doit délaisser le produit fini pour la puissance brute souveraine dédiée aux architectures open source. L’État garantit l’accès massif au calcul pour propulser ces systèmes transparents. Le token devient la monnaie d’accès à la ressource. La souveraineté ne réside plus dans un logiciel figé. Elle s’ancre dans la maîtrise de l’infrastructure physique. Le socle est public. Le moteur est open source. L’innovation reste libre. On évite l’enfermement dans un champion national dépassé. 

Sur ce socle commun peut alors se construire tout un écosystème de services : sécurité, applications, verticales sectorielles. Les entreprises disposent déjà de leurs propres données, de leurs archives et de leurs savoir-faire. Les individus, eux aussi, portent leur expérience et leur regard. Ces prismes viennent se greffer au-dessus du modèle commun et deviennent le véritable espace de différenciation. La véritable barrière à l’entrée se situerait peut-être là : dans ces écosystèmes de données incarnées, construits à la fois par les organisations et par les personnes. Le modèle devient un socle commun ; la valeur et les usages se distribuent ensuite dans l’écosystème qui se construit au-dessus. 

Une question politique : comment servir l’intérêt général sans étouffer l’innovation ni concentrer le pouvoir ?

Bien sûr, je raisonne avec le contexte d’aujourd’hui. Les LLM eux-mêmes évolueront sans doute, ou seront remplacés par d’autres architectures. Mais ce point importe peu ici. Quelle que soit la forme que prendra l’architecture technique, nous sommes face à une transformation durable. 

Au fond, la question que posent les LLM est une question politique classique, celle que chaque génération a dû résoudre pour les infrastructures de son époque : comment une société organise-t-elle les systèmes dont dépend sa vie collective, de manière à ce qu’ils servent l’intérêt général sans étouffer l’innovation ni concentrer un pouvoir excessif dans quelques mains ?

Les réponses varieront selon les contextes. Une chose, en revanche, ne peut pas varier : la clarté du diagnostic. Les LLM constituent une infrastructure cognitive. Or une infrastructure se gouverne. Tout comme le savoir, la culture et tout ce qui façonne l’esprit individuel et collectif des citoyens d’un pays s’organisent, se transmettent et se protègent

Le reste est modalité.

Allez plus loin avec Minted

LES NEWSLETTERS MINTED

LES FUTURE OF

LES ÉMISSIONS