L’entraînement des intelligences artificielles génératives nécessite une grande quantité de données. Bien souvent, les chercheurs récupèrent les contenus en masse sur le Web, sans obtenir le consentement de leurs auteurs. Pour pouvoir se défendre, ces derniers font de plus en plus appel à des solutions qui permettent d’empoisonner toute IA qui tenterait de s’en servir.
Il existait déjà Nightshade pour protéger les images, qui modifie les pixels de manière imperceptible afin de tromper l’IA. Pour la musique, il existe désormais HarmonyCloak. Développé par des chercheurs de l’université du Tennessee aux États-Unis, le logiciel ajoute des sons imperceptibles pour l’oreille humaine. Toutefois, toute IA entraînée dessus entendrait tout autre chose, une série de sons désorganisés, empoisonnant ainsi son entraînement. La méthode rappelle AntiFake, un système similaire qui protège la voix du clonage, mais dont les perturbations sont toutefois audibles. Lorsque l’IA tente ensuite de générer une chanson en ayant été entraînée sur des morceaux protégés par HarmonyCloak, le résultat est incohérent.
Voici deux clips audio générés par une IA. Pour le premier, l’IA a été entraînée sur les morceaux « propres ». Pour le second, elle a été entraînée sur des morceaux protégés par HarmonyCloak et produit donc un résultat chaotique. © Université du Tennessee, New Atlas
Une protection qui persiste après conversion à un autre format
L’outil génère le bruit afin qu’il se confonde complètement avec la musique, de manière à le rendre imperceptible pour l’oreille humaine, une sorte de couche supplémentaire que seule l’IA peut entendre. Et la protection ne peut pas être retirée simplement en compressant le morceau, signifiant qu’il est possible de le convertir au format MP3, par exemple, sans perdre la protection.
HarmonyCloak propose deux modes de fonctionnement. Le premier optimise la protection pour un modèle d’IA spécifique, obtenant ainsi un niveau de protection supérieur. Le second mode protège contre toutes les IA. Dans les deux cas, l’IA ne pourrait pas simplement décoder la protection et la contourner, puisqu’elle est unique, adaptée à chaque morceau. Les chercheurs comptent présenter HarmonyCloak au symposium de l’IEEE sur la sécurité et la confidentialité au mois de mai 2025.
Par FUTURA
Commentaires