samedi, 20 avril 2024

Une défense prometteuse contre le grattage de la biométrie faciale échoue

Éliminer l’empoisonnement des informations de la liste des stratégies possibles pour éviter les algorithmes biométriques de grattage de photos d’horizon à horizon.

Une équipe de chercheurs public-privé a jeté un coup d’œil à prétend que les photographies numériques (dans ce cas, les photos de visage largement trouvées sur les services de réseaux sociaux) pourraient être modifiées, ou inquiètes, juste assez pour toxiquer les modèles de reconnaissance faciale s’entraînant sur les images modifiées.

L’empoisonnement dans ce cas suggère qu’un modèle identifierait mal les images récupérées. L’espoir préliminaire était que les personnes et les organisations pourraient utiliser un outil logiciel assez basique pour rendre le grattage du visage imprudent, voire difficile.

Des chercheurs de Google, de l’Université de Stanford et de l’Université d’État de l’Oregon ont en fait publié leurs conclusions sur le libre -accéder à la plateforme arXiv.org. L’article n’est pas évalué par des pairs.

Ils expliquent que les images modifiées devraient être si habilement conçues qu’elles pourraient ne jamais être découvertes par les profiteurs de la biométrie faciale. Si un algorithme bien meilleur augmente, le code irrité est aussi bon que fissuré.

Et, selon leur rapport, l’accès en boîte noire à une attaque peut entraîner un modèle à contourner les images cibles. Il existe d’autres variantes de l’empoisonnement de l’information, mais elles semblent compter sur des hypothèses extrêmement positives.

Une variété de start-ups de logiciels et de services, en particulier Clearview AI, ont revendiqué des milliards d’images Web afin de créer des bases de données biométriques contenant des milliards de photos.

La plupart des images – constituées de celles stockées par Clearview – ont été prises à partir de services de réseaux sociaux qui interdisent spécifiquement le scraping. Cette pratique a en fait frustré les propriétaires de services et les militants des droits à l’identité.

Clearview propose des abonnements à la police, et la police utilise souvent les algorithmes de l’entreprise pour reconnaître les images de personnes capturées sur les réseaux de reconnaissance faciale. (Ses services sont utilisés par le gouvernement ukrainien, peut-être pour identifier les troupes russes et les morts à la guerre.)

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici