Des chercheurs ont développé un nouvel outil visant à rendre inutilisables les données volées par les systèmes d’intelligence artificielle, en les polluant pour que ces derniers produisent des résultats erronés. Bien que cette méthode puisse limiter l’exploitation des données sensibles, elle suscite également des inquiétudes concernant la fiabilité des modèles d’apprentissage automatique, souvent appelés LLM. Ce dilemme soulève des questions sur l’équilibre entre la protection des données et la qualité des résultats fournis par les systèmes d’IA.