Des outils pour embrouiller la IA

Nightshade, le logiciel qui « empoisonne l’IA » 

Destiné aux artistes qui en ont ras la banane que les modèles d’IA s’entraînent sur leurs œuvres, la logique de Nightshade est très simple : retourner l’IA contre l’IA. 

Développé par des chercheurs de Glaze Project de l’University of Chicago sous la direction deBen Zhao, le logiciel modifie subtilement l’image au niveau du pixel. Il utilise le célèbre cadre d’apprentissage automatique en libre accès PyTorch pour identifier le contenu d’une image donnée, puis applique une balise qui modifie subtilement l’image au niveau du pixel, de sorte que d’autres programmes d’intelligence artificielle voient quelque chose de totalement différent de ce qu’il y a réellement. Il embrouille complètement la machine, de sorte que : « Les yeux humains pourront voir l’image d’une vache dans un champ verdoyant, mais une IA verra un grand sac à main en cuir posé dans l’herbe. […] Entraîné sur un nombre suffisant d’images empoisonnées, l’IA finira par être convaincu que les vaches ont de belles poignées en cuir marron et des poches latérales, ainsi qu’une fermeture éclair et peut-être un joli logo. »

Il s’agit du deuxième outil de ce type créé par l’équipe : il y a près d’un an, l’équipe a dévoilé Glaze (https://news.uchicago.edu/story/uchicago-scientists-develop-new-tool-protect-artists-ai-mimicry), un programme distinct conçu pour modifier les œuvres d’art numériques à la demande de l’utilisateur afin de faire croire aux algorithmes d’apprentissage de l’IA que l’image a un style différent de celui qui est réellement présent (par exemple, des couleurs et des coups de pinceau différents de ce qu’ils sont réellement).

Mais alors que l’équipe de Chicago a conçu Glaze comme un outil défensif – et recommande toujours aux artistes de l’utiliser en complément de Nightshade pour éviter que le style d’un artiste ne soit imité par des modèles d’IA – Nightshade est conçu comme un « outil offensif ».

Les artistes souhaitant utiliser Nightshade doivent disposer d’un Mac équipé de puces Apple (M1, M2 ou M3) ou d’un PC fonctionnant sous Windows 10 ou 11. L’outil peut être téléchargé pour les deux systèmes d’exploitation ici. Le fichier Windows est également capable de fonctionner sur le GPU d’un PC, à condition qu’il s’agisse d’un GPU Nvidia figurant sur la liste du matériel pris en charge.

L’équipe de Glaze/Nightshade nie poursuivre des fins destructrices et écrit : « L’objectif de Nightshade n’est pas de casser les modèles, mais d’augmenter le coût de l’entraînement sur des données sans licence, de sorte que l’obtention de licences d’images auprès de leurs créateurs devienne une alternative viable ».

En d’autres termes, les créateurs cherchent à faire en sorte que les développeurs de modèles d’IA doivent payer les artistes pour s’entraîner sur des données non corrompues provenant d’eux.

Vía https://techtrash.kessel.media/posts/pst_a23507ea3a3f40b7861296f7515371e2/comme-un-lapin / https://venturebeat.com/ai/nightshade-the-free-tool-that-poisons-ai-models-is-now-available-for-artists-to-use/

Kudurru, pour stopper les voyous

Pages Tumblr, portfolios, comptes Instagram… Créé par la start-up Spawning.ai, le logiciel Kudurru permet de détecter les tentatives de collecte massive sur n’importe quelle plateforme d’images, procédé extrêmement courant dans le domaine de l’intelligence artificielle.

Concrètement, le modèle de Kudurru permet d’identifier les adresses IP pendant leur tentative d’extraction, puis de leur bloquer l’accès. Ce qui « revient à empoisonner » le modèle d’IA et à amoindrir sa fiabilité, décrit Jordan Meyer, cofondateur de Spawning. Pour y parvenir, l’internaute a le choix entre l’obstruction pure et simple et la redirection vers un autre lien que celui demandé (exemple suggéré : le hit d’Astley Never Gonna Give You Up, devenu symbole du trolling sur les réseaux sociaux). 

Photoguard, pour protéger vos photos

Avec Photoguard, le principe est peu ou prou le même : ajouter des « perturbations » invisibles à l’œil nu dans les images que l’on souhaite, afin d’empêcher que celles-ci ne fassent l’objet d’extractions ou de modifications malveillantes. Comme l’indique Radio Canada, il suffit de télécharger sa photo dans l’outil, accessible en ligne, « puis PhotoGuard s’occupe de retoucher certains pixels, imperceptibles à l’œil nu, qui envoient des signaux qui perturbent la lecture de l’algorithme d’IA ». Seul bémol, les résultats ne sont pour l’heure « consolidés qu’avec le modèle d’apprentissage Stable Diffusion », d’après l’équipe de recherche. À éviter, donc, si vous craignez plutôt les algorithmes de Midjourney.

AntiFake, pour que votre voix reste unique

Les initiatives de ce type ne se limitent pas aux images et aux textes. Côté données sonores, des chercheurs de l’université de Washington à St. Louis, dans le Missouri, ont mis au point l’outil AntiFake. Celui-ci « empêche les criminels d’utiliser les informations liées à votre voix pour la synthétiser et usurper votre identité », vante l’ingénieur Ning Zhang, l’un des co-créateurs du dispositif. 

Pour ce faire, le logiciel enrichit un fichier son original en y ajoutant quelques traces de bruits supplémentaires, imperceptibles à l’oreille humaine, qui rendent impossible l’imitation crédible d’une voix humaine. « Nous modifions le fichier juste assez pour qu’il sonne toujours correctement à l’oreille humaine tout en apparaissant complètement différent aux yeux de l’IA », poursuit Ning Zhang.

Via https://usbeketrica.com/fr/article/detournement-droit-d-auteur-5-outils-pour-embrouiller-les-ia