Le SAND Lab de l’Université de Chicago a développé Fawkes (du masque de Guy Fawkes qu’il imaginait dans V pour Vendetta et qui est d’ailleurs devenu le symbole du groupe de hackers Anonymous), un algorithme et un outil logiciel (s’exécutant localement sur votre ordinateur) qui donne aux individus la possibilité de limiter la façon dont leurs propres images peuvent être utilisées pour les suivre.
À un niveau élevé, Fawkes prend vos images personnelles et leur apporte de minuscules modifications au niveau des pixels qui sont invisibles à l’œil humain, dans un processus que les chercheurs ont appelé le camouflage d’image. Vous pouvez ensuite utiliser ces photos « masquées » comme vous le feriez normalement, les partager sur les réseaux sociaux, les envoyer à des amis, les imprimer ou les afficher sur des appareils numériques, comme vous le feriez pour toute autre photo. La différence, cependant, est que si et quand quelqu’un essaie d’utiliser ces photos pour créer un modèle de reconnaissance faciale, des images « masquées » enseigneront au modèle une version très déformée de ce qui vous ressemble. L’effet de cette « cape d’invisibilité » n’est pas facilement détectable et ne provoquera pas d’erreurs dans la formation du modèle. Cependant, lorsque quelqu’un essaie de vous identifier en utilisant une image inchangée de vous (par exemple, une photo prise en public) et va tenter de vous identifier, le système n’y parviendra pas.
Voyez-vous une différence entre l’image de gauche (l’originale) et l’image de droite (la « masquée ») ?
En savoir plus
L’algorithme ajoute de minuscules modifications indétectables à l’œil nu. Devant les services de reconnaissance faciale les plus avancés tels que l’API Microsoft Azure Face, Amazon Rekognition et l’API Megvii Face Search, l’effet « furtif » de Fawkes a atteint les 100%. Les chercheurs assurent que Fawkes a été testé de manière approfondie et s’est avéré efficace dans divers environnements, en plus de montrer une efficacité à 100% par rapport aux modèles de reconnaissance faciale de pointe.
Ainsi, même si vos photos sur Internet sont récupérées illégalement et vendues pour alimenter une IA, le modèle de visage formé avec ces données ne peut pas vraiment permettre à un algorithme de reconnaître votre visage avec succès.
Le but de cette recherche est d’aider les internautes à protéger efficacement leur vie privée tout en partageant leurs photos. Par conséquent, la « cape d’invisibilité » elle-même doit être « invisible » pour éviter d’affecter l’effet visuel de la photo. Raison pour laquelle la modification mineure est faite au niveau du pixel de la photo pour tromper l’analyse de l’IA.
En fait, pour les réseaux de neurones profonds, certaines petites perturbations avec des balises spécifiques peuvent changer la « cognition » du modèle. Par exemple, en ajoutant un peu de bruit à une image, un système prendra un panda pour un gibbon.
Fawkes profite de cette fonctionnalité. Les chercheurs ont fait une publication technique et proposé en téléchargement les codes source des binaires (sur Windows, macOS et Linux ainsi que sur GitHub pour développement et évaluation).
« Fawkes est conçu pour augmenter considérablement les coûts de construction et de maintenance de modèles précis pour la reconnaissance faciale à grande échelle. Si nous pouvions réduire la précision de ces modèles pour les rendre non fiables, ou forcer les propriétaires du modèle à payer des coûts par personne importants pour maintenir la précision, alors nous aurions largement réussi. Par exemple, quelqu’un examinant attentivement un grand nombre de photos d’un seul utilisateur pourrait être en mesure de détecter que certaines d’entre elles sont masquées. Cependant, cette même personne est très probablement capable d’identifier la personne cible en un temps égal ou inférieur en utilisant des moyens traditionnels (sans le modèle de reconnaissance faciale) ».
Télécharger Fawkes
Attribution image couverture: SAND Lab, University of Chicago, via The New Tork Times