HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

PhotoGuard, l’algorithme du MIT qui veut protéger vos photos des IA

[ad_1]

PhotoGuard, l’algorithme du MIT qui veut protéger vos photos des IA. Il est plus que temps de se pencher sur ces questions.

Dall-E et Stable Diffusion n’étaient que les premiers. Les systèmes d’IA générative prolifèrent et les sociétés tentent de se différencier. Les chatbots gagnent des capacités d’édition et de création d’images, avec des géants comme Shutterstock et Adobe qui mènent la danse. Mais ces fonctions propulsées par l’IA ne sont pas sans danger, comme la manipulation sans autorisation ou le vol de droit d’auteur. L’introduction de filigrane peut aider, mais la nouvelle technique PhotoGuard développée par MIT CSAIL va plus loin.

PhotoGuard, l’algorithme du MIT qui veut protéger vos photos des IA

PhotoGuard fonctionne en modifiant certains pixels d’une image pour qu’une IA ne puisse plus comprendre ce qu’est l’image. Ces “perturbations” sont invisibles à l’œil humain, mais facilement lisibles par les machines. La méthode d’attaque par encodage pour introduire ces artéfacts cible la représentation latente du modèle algorithmique de l’image cible – les mathématiques complexes qui décrivent la position et la couleur de chaque pixel – pour empêcher l’IA de comprendre de quoi il s’agit.

Cette méthode de “diffusion” avancée vient camoufler une image, la faisant passer pour autre chose aux yeux de l’IA. Le système définit une image cible et optimise les perturbations dans cette image pour que celle-ci ressemble à sa cible. Chaque modification qu’une IA tente de réaliser sur ces images “immunisées” seront appliquées aux images “cibles”, produisant une image de sortie non réaliste.

Il est plus que temps de se pencher sur ces questions

“Cette attaque fait croire au modèle que l’image d’entrée (à éditer) est autre chose (une image grise, par exemple)”, expliquait l’auteur principal de cette étude, Hadi Salman, à Engadget. “L’attaque par diffusion force le modèle de diffusion à réaliser ses modifications sur une image cible (laquelle peut être grise ou tout à fait aléatoire).” Cette technique n’est pas infaillible, des personnes malveillantes pourraient inverser cette protection en ajoutant du bruit numérique, en rognant ou en faisant tourner l’image.

“Une approche collaborative impliquant les développeurs de modèles, les plateformes de media sociaux et les régulateurs propose une défense robuste contre la manipulation d’image sans autorisation. Travailler sur ce sujet est d’une importance capitale aujourd’hui,” déclarait Hadi Salman dans un communiqué. “Et si je suis heureux de contribuer à cette solution, il y a encore beaucoup à faire pour rendre cette protection efficace. Les sociétés qui développent ces modèles doivent travailler sur des protections robustes contre les menaces potentielles proposées par ces outils IA.”

[ad_2]
Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité