IA et défense, le retour du politique dans la gouvernance des modèles

La lettre d’employés de Google et d’OpenAI en soutien à Anthropic remet au centre une question que l’industrie avait tenté de traiter par l’éthique interne : qui décide des usages militaires des modèles, et selon quelles règles vérifiables. Derrière l’affrontement avec le Pentagone, c’est la frontière entre conformité, souveraineté technologique et responsabilité des fournisseurs d’IA qui se redessine.

Le débat sur l’IA militaire n’est plus cantonné aux comités d’éthique et aux chartes de principes. Il s’institutionnalise, sous pression conjointe des administrations, des marchés publics et des salariés des laboratoires. Le signal le plus net vient d’une mobilisation interne rare dans ce secteur, où la culture du secret et la compétition pour le calcul dominent. Plus de 200 employés de Google et d’OpenAI ont signé une lettre ouverte pour soutenir Anthropic et sa position visant à restreindre l’usage militaire de l’IA. L’épisode intervient après un bras de fer avec le Pentagone, présenté comme un ultimatum, auquel Anthropic aurait opposé un refus. Ce n’est pas seulement un désaccord commercial. C’est une contestation explicite de la doctrine implicite qui s’installe depuis deux ans aux États-Unis, selon laquelle les modèles de pointe doivent être mobilisables pour la sécurité nationale, au même titre que les semi-conducteurs ou le cloud.

Une ligne de fracture qui traverse les entreprises

La singularité de la séquence tient au fait qu’elle oppose moins des entreprises entre elles qu’elle ne révèle des fractures internes. Les grands laboratoires ont déjà vécu des crises liées à la défense, de Project Maven chez Google aux débats sur la surveillance. Mais l’IA générative change l’échelle du problème. D’un côté, les administrations cherchent des capacités transversales, rapidement intégrables, qui améliorent la planification, le renseignement, la cybersécurité, la logistique, voire l’aide à la décision opérationnelle. De l’autre, les fournisseurs de modèles savent que la frontière entre « usage défensif » et « contribution à la létalité » est poreuse dès lors qu’un système augmente la vitesse de ciblage, la qualité de fusion de données ou l’automatisation de tâches critiques. La lettre de salariés, en soutenant une posture restrictive, met en cause la capacité des directions à arbitrer seules ce continuum d’usages.

Pour les décideurs publics, l’enjeu est double. Il s’agit d’abord d’éviter une dépendance stratégique à des acteurs privés dont la gouvernance peut être contestée de l’intérieur, et dont les politiques d’usage peuvent changer au gré des cycles médiatiques ou des tensions de recrutement. Il s’agit ensuite de construire un cadre d’acquisition et de conformité qui ne repose pas sur des promesses générales, mais sur des mécanismes auditables. Or, les modèles fondationnels sont difficiles à « cantonner » par simple clause contractuelle. Les mêmes capacités de raisonnement, de génération de code ou d’orchestration d’outils peuvent servir à durcir une posture cyber défensive ou à accélérer des opérations offensives. Cette ambivalence rend les engagements de non-usage militaire soit trop vagues pour être crédibles, soit trop stricts pour être compatibles avec la demande publique.

Régulation par le marché public et par l’infrastructure

La tension actuelle doit être lue comme une forme de régulation de fait, où le marché public devient un instrument normatif. Le Pentagone, en posant des exigences, cherche à standardiser l’accès aux capacités de pointe, à sécuriser des chaînes d’approvisionnement logicielles et à réduire l’incertitude juridique. Les laboratoires, eux, tentent de préserver une marge de manœuvre réputationnelle et de limiter l’exposition à des scénarios d’emploi qu’ils ne contrôlent pas. Dans ce bras de fer, la variable décisive n’est pas seulement la politique d’usage affichée, mais la capacité à imposer des garde-fous techniques et organisationnels : filtrage d’outputs, restrictions d’outillage, traçabilité, red teaming, segmentation des environnements, et surtout gouvernance des fine-tunings et des agents.

Cette dernière dimension devient centrale avec la montée des agents capables d’agir sur des systèmes informatiques. L’acquisition par Anthropic d’une brique orientée agentification illustre l’accélération du secteur vers des modèles qui ne se contentent plus de répondre, mais exécutent, naviguent, automatisent. Anthropic vient d’annoncer l’acquisition de la start-up Vercept. Pour la défense, l’intérêt est évident : automatisation de workflows, exploitation de données hétérogènes, simulation, maintenance, cyber. Pour les régulateurs et les directions de la conformité, le risque augmente symétriquement : un agent outillé peut transformer une capacité générale en capacité opérationnelle, en réduisant le coût d’exécution et en augmentant la vitesse. La question n’est donc plus seulement « le modèle peut-il aider à faire X », mais « le produit complet, agent plus outils plus accès, rend-il X trivial ». Cela déplace la régulation vers l’architecture produit, les permissions, les logs, et la gouvernance des connecteurs.

Un autre levier de régulation implicite est l’infrastructure. Les modèles de pointe exigent du calcul, des centres de données, des puces, et des accords d’hébergement. Cette dépendance crée une surface de contrôle, mais aussi une vulnérabilité. OpenAI a désespérément besoin de plus de puissance de calcul. Dans un contexte où l’accès au compute devient un goulot d’étranglement, les contrats publics peuvent devenir un moyen d’assurer des volumes, de financer des capacités, voire de négocier des conditions d’usage. À l’inverse, les laboratoires peuvent être tentés d’accepter des compromis sur les restrictions militaires en échange d’un accès privilégié à l’infrastructure, ou d’un soutien politique sur les chaînes d’approvisionnement. La politique publique se joue alors autant dans les clauses d’achat que dans les permis de construire de data centers, les allocations énergétiques et les contrôles à l’export.

Ce que révèle la séquence sur la doctrine américaine

Les États-Unis avancent sur une ligne étroite : conserver l’avantage technologique tout en évitant une crise de légitimité. La mobilisation de salariés rappelle que la « licence sociale » de l’IA n’est pas acquise, y compris au sein des entreprises qui la produisent. Pour Washington, le risque est de voir la capacité d’intégration de l’IA dans la défense ralentie par des conflits de gouvernance, des démissions, ou des contentieux. Pour les laboratoires, le risque est symétrique : être perçus comme des acteurs de la militarisation de l’IA, avec un coût sur le recrutement, la relation client et la régulation. Le point d’équilibre pourrait passer par une doctrine plus explicite, distinguant des catégories d’usage, des niveaux d’autonomie, et des exigences de contrôle humain, avec des obligations de traçabilité et d’audit indépendants.

Mais une doctrine ne suffit pas si elle n’est pas traduite en exigences techniques. Les décideurs publics vont probablement pousser vers des architectures « gouvernables » : modèles déployés en environnements souverains, segmentation stricte des données, mécanismes de monitoring, et capacités de désactivation. Les laboratoires, eux, chercheront à standardiser des politiques d’usage et des outils de conformité réutilisables, pour éviter une négociation au cas par cas avec chaque agence. Dans ce cadre, la question clé devient celle de la vérifiabilité. Une restriction d’usage militaire crédible doit être démontrable, pas seulement déclarative. Or, la vérification est difficile dès lors que des tiers peuvent fine-tuner, chaîner des outils, ou répliquer des capacités via des modèles open source. Le débat se déplace donc vers la responsabilité du fournisseur : jusqu’où doit-il anticiper les détournements, et à quel niveau de la pile doit-il imposer des contrôles.

Perspectives, vers une normalisation conflictuelle

À court terme, la tension entre Anthropic, OpenAI, Google et le Pentagone annonce une normalisation conflictuelle plutôt qu’un moratoire. La demande militaire pour des capacités d’IA va croître, tirée par la compétition stratégique et par l’industrialisation de la guerre électronique et cyber. En parallèle, la pression interne et sociétale va pousser les laboratoires à formaliser des lignes rouges, au risque de créer des asymétries concurrentielles : un acteur qui refuse certains usages peut perdre des contrats, mais gagner en attractivité et en confiance. À moyen terme, l’État fédéral pourrait chercher à réduire cette variabilité en imposant des standards, soit via des cadres d’acquisition, soit via des obligations de reporting et d’audit pour les modèles à usage dual.

Le scénario le plus probable est celui d’un compromis structuré : autoriser des usages militaires encadrés, tout en interdisant explicitement certaines fonctions liées à l’autonomie létale, au ciblage sans contrôle humain, ou à la génération de plans opérationnels offensifs. Ce compromis ne sera pas stable tant que l’agentification progresse et que la frontière entre assistance et exécution s’efface. Pour les entreprises, l’enjeu est de transformer l’éthique en ingénierie de gouvernance, avec des contrôles intégrés au produit. Pour les pouvoirs publics, l’enjeu est de ne pas confondre accès à la technologie et maîtrise de ses effets. La séquence actuelle marque un retour du politique dans la gouvernance des modèles, mais elle rappelle surtout que, dans l’IA, la régulation la plus efficace est souvent celle qui s’écrit dans l’architecture, les contrats et l’infrastructure, bien avant de s’écrire dans la loi.




error: Content is protected !!