spot_img

Du poison numérique pour combattre les Deepfake de l’IA

Une pilule empoisonnée

L’IA générative, capable de créer des images visuelles de manière impressionnante, s’améliore rapidement et devient plus accessible. Toutefois, les artistes sont de plus en plus préoccupés par la possibilité que leurs œuvres puissent être utilisées sans leur autorisation. Une solution potentielle à ce problème émerge sous la forme d’un nouvel outil baptisé Nightshade.

Nightshade repose sur l’idée ingénieuse d’utiliser des attaques d’empoisonnement des données spécifiquement optimisées pour cibler les informations utilisées pour former les modèles d’IA génératifs. Bien que ces attaques soient connues depuis longtemps dans le domaine de l’apprentissage automatique, ce qui distingue Nightshade, c’est sa capacité à perturber les modèles d’IA génératifs. Une prouesse considérée impossible en raison de la taille de ces modèles.

Se protéger du vol de son image

La protection contre le vol de propriété intellectuelle et les deepfakes générés par l’IA est devenue cruciale avec la popularité croissante des modèles d’IA génératifs. En juillet, des chercheurs du MIT ont suggéré une méthode pour injecter de petits morceaux de code dans les données provoquant une distorsion et rendant les images générées inutilisables.

L’IA générative fait référence à des modèles d’IA qui utilisent des instructions pour créer du texte, des images, de la musique ou des vidéos. Des géants technologiques comme Google, Amazon, Microsoft et Meta ont massivement investi dans le développement d’outils d’IA générative.

Comment fonctionne Nightshade?

Nightshade s’attaque au problème en ciblant les instructions spécifiques utilisées pour créer du contenu, telles que les demandes de création d’images d’animaux ou d’objets. L’idée est de fragiliser le modèle d’IA générative en perturbant ces instructions, empêchant ainsi la génération d’œuvres d’art.

Pour éviter d’être détecté, Nightshade veille à ce que les données empoisonnées, que ce soit le texte ou l’image, semblent naturelles et trompent à la fois les détecteurs automatisés et les vérificateurs humains, obtenant ainsi l’effet souhaité.

Bien que Nightshade ne soit actuellement qu’une preuve de concept, il pourrait permettre aux artistes de lutter contre l’utilisation non autorisée de leurs œuvres en perturbant les modèles d’IA génératifs. Si un grand nombre d’artistes utilisent cette méthode, elle pourrait sérieusement compromettre ces modèles.

Cathy Norton
Cathy Norton
Je baigne dans les cryptos depuis 2012. C'est un domaine qui me passionne. Et comme tout passionné, j'aime transmettre mon savoir qui grandit jour après jour. Un domaine infini qui se renouvelle sans cesse. C'est ça qui est passionnant.

Autres Articles

spot_img
4,317SuiveursSuivre

Derniers Articles