La relation entre les grands laboratoires d’IA et l’appareil de défense américain se durcit, sur fond de course à l’échelle et de bataille de légitimité. Entre pragmatisme industriel et lignes rouges éthiques, OpenAI et Anthropic incarnent deux stratégies qui reconfigurent l’écosystème et ses rapports au politique.
À Washington, l’IA n’est plus un sujet de prospective mais un enjeu d’acquisition, de doctrine et de souveraineté opérationnelle. Dans ce contexte, la divergence entre OpenAI et Anthropic sur la coopération avec la défense américaine prend valeur de signal pour tout l’écosystème. D’un côté, OpenAI assume une trajectoire d’intégration progressive aux usages étatiques, au moment même où sa plateforme grand public atteint une masse critique et devient un standard de fait. De l’autre, Anthropic cherche à préserver une frontière plus nette entre innovation commerciale et finalités militaires, au risque d’apparaître moins « actionnable » pour les donneurs d’ordre publics. La tension n’est pas seulement morale. Elle est stratégique, car elle conditionne l’accès aux budgets, la capacité à influencer les normes, et la manière dont les modèles seront durcis, audités et déployés dans des environnements à haute contrainte.
Un différend qui dépasse la posture éthique
Le point de friction est connu, mais ses implications sont souvent sous-estimées. OpenAI a accepté une relation avec le Pentagone, décision d’autant plus visible qu’elle intervient dans une phase d’hypercroissance de ChatGPT. Le symbole est double. D’abord, il valide l’idée que les modèles généralistes peuvent devenir des briques d’infrastructure, y compris pour des organisations où la sécurité, la traçabilité et la résilience priment sur l’expérience utilisateur. Ensuite, il renforce l’avantage de distribution d’OpenAI, déjà alimenté par l’adoption massive de ses produits. Le récit public de cette montée en puissance s’appuie sur des métriques spectaculaires, dont ChatGPT atteint 900 millions d’utilisateurs, qui donnent à OpenAI un levier de négociation unique face aux administrations, mais aussi face aux régulateurs.
Anthropic, à l’inverse, a cultivé une identité de laboratoire « safety-first », structurée autour de mécanismes de gouvernance et de promesses de prudence. Refuser certains partenariats militaires revient à défendre une ligne de marque, mais aussi une hypothèse de marché, celle d’une demande croissante pour des modèles certifiables, auditables et alignés sur des principes explicites. Le problème est que la défense américaine ne raisonne pas en catégories morales abstraites. Elle raisonne en réduction de cycle décisionnel, en supériorité informationnelle et en capacité à opérer dans des environnements dégradés. Autrement dit, même si les cas d’usage les plus sensibles restent politiquement explosifs, l’incitation structurelle à intégrer l’IA dans la planification, le renseignement, la logistique ou la cyberdéfense est forte. La question devient alors moins « faut-il y aller » que « qui y va, avec quelles garanties, et qui écrit les règles du jeu ».
Le cœur du sujet, la gouvernance des modèles à l’échelle
La tension OpenAI-Anthropic met en lumière un déplacement du débat. Pendant des années, l’IA militaire a été discutée sous l’angle des armes autonomes et de la décision létale. Or, l’essentiel des déploiements à court terme se situe ailleurs, dans des fonctions de support où la frontière entre civil et militaire est poreuse. Les modèles généralistes excellent dans la synthèse, la recherche, l’assistance à la rédaction, l’analyse d’images ou de signaux, la génération de code et l’automatisation de procédures. Ces capacités, une fois intégrées à des chaînes opérationnelles, peuvent modifier la vitesse et la qualité de la décision sans jamais « appuyer sur la gâchette ». C’est précisément ce qui rend la gouvernance difficile. Les risques ne se limitent pas à l’usage final, mais incluent la dérive d’usage, la réutilisation de composants, la contamination de données, et l’opacité des dépendances logicielles.
Pour un décideur public, l’arbitrage se fait entre trois contraintes. Premièrement, la sécurité nationale pousse à internaliser ou à contractualiser des capacités de pointe, plutôt que de dépendre d’un marché grand public. Deuxièmement, la réalité industrielle impose de s’appuyer sur des acteurs capables de livrer des modèles robustes, de les maintenir, de les adapter et de les faire évoluer. Troisièmement, la légitimité démocratique exige des garde-fous, des audits et une doctrine d’emploi. Or, ces trois contraintes entrent en collision avec la dynamique économique des laboratoires. Les modèles coûtent cher à entraîner et à servir, et la rentabilité dépend d’un volume d’usage et de contrats à forte valeur. Les marchés publics, en particulier défense et renseignement, offrent des tickets élevés, des engagements pluriannuels et une forme de validation institutionnelle. Cela explique pourquoi l’argument éthique ne peut être dissocié de l’architecture d’incitations.
Dans ce cadre, la stratégie d’OpenAI peut être lue comme une tentative de verrouiller une position d’infrastructure, en acceptant des compromis de conformité et de contrôle. La stratégie d’Anthropic, elle, vise à monétiser la confiance, en pariant que la demande de « modèles gouvernables » deviendra un avantage compétitif. Mais ce pari dépend d’un point clé, la capacité à traduire des principes en mécanismes vérifiables. Les administrations ne se contenteront pas de déclarations. Elles demanderont des preuves, des procédures d’évaluation, des garanties contractuelles, et potentiellement des accès techniques, par exemple pour l’audit, la red teaming, la journalisation ou la segmentation des environnements. La question devient alors un problème d’ingénierie de la conformité autant qu’un débat de valeurs.
Une bataille d’influence sur la norme et sur l’opinion
La dimension politique est renforcée par la montée d’une demande sociétale de contrôle. Aux États-Unis, les appels à encadrer l’IA se multiplient, y compris depuis des coalitions idéologiquement hétérogènes. Le fait que des personnalités de gauche, de droite et religieuses appellent à placer l’humain au centre de l’IA illustre un point important pour les industriels. La régulation ne viendra pas seulement des experts, mais d’une pression publique transpartisane, susceptible de se cristalliser sur des symboles, dont l’IA militaire est un des plus inflammables. Pour OpenAI, l’enjeu est de démontrer que la coopération avec l’État peut être encadrée, traçable et compatible avec des engagements de sûreté. Pour Anthropic, l’enjeu est de ne pas être cantonné à une posture de refus, mais de proposer un cadre opérationnel alternatif, capable de répondre aux besoins publics sans franchir certaines lignes.
Cette bataille d’influence se joue aussi sur le terrain industriel. La compétition mondiale pour les talents et les capacités de calcul fragilise les stratégies de long terme. L’exemple d’une hémorragie de talents dans un grand acteur asiatique rappelle que la stabilité organisationnelle est un actif stratégique, au même titre que les données ou les GPU. Le fait que l’équipe fondatrice de Qwen claque la porte chez Alibaba souligne la volatilité du secteur, et donc la tentation, pour les États, de sécuriser des partenariats avec des acteurs jugés plus pérennes ou plus alignés avec leurs priorités. Dans ce contexte, la défense américaine peut apparaître comme un client stabilisateur, mais aussi comme un facteur de polarisation, susceptible d’accélérer les départs, de compliquer le recrutement international, ou d’exposer l’entreprise à des controverses récurrentes.
Ce qui va changer à court terme, contrats, contrôles et segmentation
À horizon court, trois évolutions sont probables. D’abord, la contractualisation va se durcir. Les administrations exigeront davantage de clauses sur la localisation des données, l’isolement des environnements, la gestion des incidents, la réversibilité et la continuité d’activité. Ensuite, la segmentation technique va devenir la norme. On verra se multiplier des variantes de modèles, des politiques d’accès plus fines, des garde-fous spécifiques à certains domaines, et des pipelines d’évaluation dédiés. Enfin, la question de l’auditabilité va passer au premier plan. Les débats sur l’alignement resteront, mais ils seront traduits en exigences mesurables, tests de robustesse, évaluations adversariales, et reporting.
Pour l’écosystème, la tension entre OpenAI et Anthropic agit comme un révélateur. Elle montre que l’IA militaire n’est pas un marché vertical parmi d’autres, mais un accélérateur de structuration. Il force les laboratoires à expliciter leur doctrine, à industrialiser la gouvernance des modèles, et à choisir entre deux formes de pouvoir. Le pouvoir par l’échelle et l’intégration, au risque d’être aspiré par les logiques étatiques. Ou le pouvoir par la confiance et la contrôlabilité, au risque de laisser à d’autres la définition des standards opérationnels. Dans les deux cas, la trajectoire américaine pèsera sur le reste du monde, car elle influence les pratiques d’achat, les cadres de conformité et les attentes de sécurité. La question n’est plus de savoir si l’IA entrera dans la défense, mais sous quelle architecture de responsabilité et avec quel partage du contrôle entre fournisseurs, intégrateurs et État.