Un nouvel outil pour déjouer le vol de données des IA

Des chercheurs ont développé un nouvel outil visant à rendre inutilisables les données volées par les systèmes d’intelligence artificielle, en les polluant pour que ces derniers produisent des résultats erronés. Bien que cette méthode puisse limiter l’exploitation des données sensibles, elle suscite également des inquiétudes concernant la fiabilité des modèles d’apprentissage automatique, souvent appelés LLM. Ce dilemme soulève des questions sur l’équilibre entre la protection des données et la qualité des résultats fournis par les systèmes d’IA.




Cet article a pu être traité avec une technologie d’optimisation et de correction automatisée (I.A.). En cas d’erreur ou pour toute demande concernant le traitement du texte présenté sur ce site veuillez remplir le formulaire de contact. En savoir plus