Le ministère de la Défense des États-Unis augmente ses exigences envers Anthropic, une start-up californienne spécialisée dans l’intelligence artificielle. La société est actuellement en désaccord avec les autorités sur l’utilisation de son modèle de langage, Claude, qui est refusé pour des applications liées à la surveillance de masse ou aux actions militaires automatisées.
Cette situation soulève des préoccupations éthiques sur l’utilisation des technologies d’IA dans des contextes sensibles. La tension entre la nécessité d’innovation technologique et les implications morales de son utilisation est plus que jamais au cœur du débat. Les entreprises technologiques sont-elles prêtes à assumer leurs responsabilités face à l’éventuelle militarisation de leurs créations ?