La start-up Anthropic refuse de permettre l’utilisation létale de son outil Claude dans l’armée américaine. Ce choix a provoqué des tensions avec Washington, mettant en lumière les enjeux de l’IA dans les conflits modernes.
Cet article a pu être traité avec une technologie d’optimisation et de correction automatisée (I.A.).
En cas d’erreur ou pour toute demande concernant le traitement du texte présenté sur ce site veuillez remplir le formulaire de contact. En savoir plus