En 2024, l’Armée française ouvre un cycle de tests autour de solutions d’IA fournies par Orasio, signe d’un basculement vers une logique d’industrialisation des usages algorithmiques. Au-delà de la démonstration technologique, l’enjeu porte sur la souveraineté, la sécurité logicielle et la capacité à insérer ces briques dans une chaîne opérationnelle contrainte par le droit, la doctrine et le temps réel.
La décision de l’Armée française de tester les solutions d’intelligence artificielle fournies par la société Orasio en 2024 marque moins un effet d’annonce qu’un jalon dans une trajectoire déjà engagée par les états-majors occidentaux. La question n’est plus de savoir si l’IA peut produire de la valeur sur des cas d’usage militaires, mais à quelles conditions elle devient un composant fiable d’un système de forces. Les tests annoncés doivent donc être lus comme un exercice d’intégration, au sens fort du terme, où la performance algorithmique n’est qu’un paramètre parmi d’autres face aux exigences de robustesse, de cyberrésilience, de traçabilité et d’acceptabilité opérationnelle.
Du prototype à la capacité
Dans le champ défense, le mot « test » recouvre une réalité plus exigeante que la simple évaluation fonctionnelle. Il s’agit typiquement de confronter une solution à des données imparfaites, à des flux hétérogènes, à des environnements dégradés et à des contraintes de connectivité qui rendent caduques nombre de démonstrations en laboratoire. L’IA militaire utile n’est pas seulement celle qui « prédit » ou « détecte » mieux, mais celle qui s’insère dans une boucle décisionnelle existante, avec des responsabilités clairement distribuées entre opérateurs, commandement et systèmes. Cela implique des interfaces, des procédures, des seuils d’alerte, des mécanismes de repli et surtout une compréhension partagée de ce que le modèle sait faire, de ce qu’il ne sait pas faire, et de la manière dont il échoue.
Cette phase est également un test de gouvernance des données. Les armées disposent de gisements informationnels considérables, mais fragmentés, classifiés, soumis à des régimes d’accès et à des formats hérités. L’industrialisation d’une IA opérationnelle suppose une chaîne MLOps adaptée au secret défense, à la traçabilité des versions, à la reproductibilité des entraînements et à la gestion des dérives de performance dans le temps. Autrement dit, la valeur se déplace du modèle vers l’ingénierie du système complet, incluant l’observabilité, la validation continue et la capacité à auditer ce qui a été déployé, quand, par qui, et avec quelles données.
Un enjeu d’écosystème, souveraineté, dépendances et vitesse d’itération
Le choix d’un acteur comme Orasio s’inscrit dans une problématique d’écosystème national et européen. La défense ne peut pas se contenter d’acheter des briques « sur étagère » si celles-ci créent des dépendances critiques, qu’elles soient technologiques, juridiques ou industrielles. La souveraineté, ici, ne se limite pas à l’hébergement ou à la nationalité du fournisseur. Elle concerne la capacité à maintenir, modifier et faire évoluer les modèles et les pipelines de données sans dépendre d’une feuille de route externe, ni d’API opaques. Elle concerne aussi la maîtrise des coûts d’adaptation, souvent sous-estimés, car l’IA en contexte militaire est une discipline d’exception où les données changent, les menaces évoluent et les priorités opérationnelles se reconfigurent rapidement.
Cette logique rejoint un constat plus large sur la place de la data science et de l’IA prédictive comme instruments de puissance industrielle. La thèse selon laquelle la data science et l’IA prédictive sont des atouts déterminants pour la reconquête de notre souveraineté industrielle prend une résonance particulière dans la défense, où la souveraineté est à la fois un objectif stratégique et une contrainte de sécurité. Mais la souveraineté n’est pas un état, c’est une capacité dynamique. Elle se mesure à la vitesse d’itération, à la possibilité de réentraîner sur de nouveaux théâtres, à l’accès aux compétences, et à l’existence d’une base industrielle et technologique capable de tenir la charge sur la durée, y compris en conditions de crise.
Le test doit donc être lu comme un signal adressé à plusieurs publics. Aux opérationnels, d’abord, pour démontrer que l’IA peut réduire la friction informationnelle, accélérer la fusion multi-capteurs, améliorer la priorisation et la détection d’anomalies. Aux ingénieurs et aux architectes systèmes, ensuite, car l’intégration impose de traiter des sujets rarement visibles dans les démonstrateurs, comme la latence, la résilience aux pannes, la compatibilité avec des systèmes existants et la gestion du cycle de vie logiciel. Aux industriels, enfin, car la défense cherche des partenaires capables de co-développer, d’absorber des exigences de certification et de sécurité, et de soutenir des déploiements incrémentaux plutôt que des programmes monolithiques.
Innovation utile ou risque systémique, la sécurité logicielle et la maîtrise des comportements
À mesure que l’IA devient un composant de la chaîne opérationnelle, la surface d’attaque s’élargit. Les risques ne se limitent pas aux vulnérabilités classiques, mais incluent l’empoisonnement de données, les attaques adversariales, la compromission de la chaîne d’approvisionnement logicielle, ou encore la manipulation des sorties par des entrées soigneusement construites. Dans ce contexte, l’émergence d’outils d’analyse automatisée du code et de correction assistée est un indicateur de maturité du marché. Le fait qu’Anthropic ait annoncé Claude Code Security, un outil autonome de détection des vulnérabilités intégré à Claude Code illustre une tendance de fond, l’IA n’est pas seulement un outil opérationnel, elle devient aussi un outil de sécurisation et d’industrialisation du logiciel. Pour la défense, l’enjeu est double. Accélérer la remédiation et la revue de code, tout en évitant de créer une dépendance à des assistants dont le fonctionnement interne, l’entraînement et les garanties de confidentialité ne sont pas toujours compatibles avec des environnements classifiés.
Au-delà du code, la question la plus structurante reste celle de la maîtrise des comportements. Les systèmes d’IA modernes, notamment lorsqu’ils s’appuient sur des modèles génératifs ou des agents semi-autonomes, peuvent produire des sorties plausibles mais erronées, ou adopter des stratégies inattendues lorsqu’ils optimisent un objectif mal spécifié. Les alertes de chercheurs de premier plan sur les risques de perte de contrôle ne relèvent pas du sensationnalisme, elles rappellent un principe d’ingénierie. Plus un système est capable, plus ses modes de défaillance deviennent difficiles à anticiper. Lorsque Yoshua Bengio affirme que les IA seront prêtes à tuer pour rester en vie, le propos, pris au pied de la lettre, choque. Mais il pointe un problème concret pour les architectures d’agents, l’alignement des objectifs, la prévention des comportements instrumentaux et la nécessité de garde-fous vérifiables. Dans un cadre militaire, cela se traduit par des exigences de contrôle humain, de limitation des degrés d’autonomie, de journalisation exhaustive et de tests red team systématiques, y compris sur des scénarios extrêmes.
Ce que les tests peuvent débloquer, doctrine, achats et passage à l’échelle
Si les essais sont concluants, l’effet le plus important pourrait être doctrinal plutôt que technologique. L’IA modifie la manière dont on conçoit la supériorité informationnelle, en déplaçant l’avantage vers ceux qui savent capter, nettoyer, fusionner et exploiter des flux massifs plus vite que l’adversaire, tout en conservant une capacité de décision robuste. Mais cette promesse ne se réalise que si l’organisation absorbe l’outil. Cela implique de former, de redéfinir des rôles, d’adapter les règles d’engagement et de clarifier la responsabilité en cas d’erreur. Dans les armées, la confiance est une ressource opérationnelle. Elle se construit par la répétition, la transparence des limites et la démonstration que l’outil améliore réellement la mission sans fragiliser la sécurité.
Sur le plan industriel, la bascule vers l’échelle dépendra de la capacité à contractualiser autrement. Les cycles d’achat traditionnels, longs et spécifiés à l’avance, s’accordent mal avec des systèmes qui doivent être réentraînés, recalibrés et mis à jour en continu. Les tests peuvent servir à définir des métriques de performance opérationnelle, des critères de robustesse et des exigences de cybersécurité qui deviendront des standards de fait pour les futurs appels d’offres. Ils peuvent aussi clarifier la répartition de la propriété intellectuelle, la portabilité des modèles, et les conditions d’accès aux données, autant de sujets qui déterminent la soutenabilité à long terme.
À court terme, l’enjeu est de transformer l’expérimentation en capacité, sans céder à la fascination du « modèle » au détriment du système. À moyen terme, la France cherchera vraisemblablement à articuler ces briques avec des initiatives européennes, pour mutualiser certains investissements tout en conservant des marges de manœuvre nationales sur les fonctions critiques. Les tests d’Orasio seront donc scrutés comme un révélateur. Non seulement des performances d’une solution, mais de la maturité de l’appareil de défense à intégrer l’IA comme une technologie de production, avec ses contraintes d’ingénierie, ses risques systémiques et ses arbitrages de souveraineté.