samedi, 20 avril 2024

Les chercheurs utilisent le maquillage pour échapper à la reconnaissance faciale via une nouvelle attaque de boîte noire

Des chercheurs de l’université israélienne Ben Gourion du Néguev ont trouvé un moyen de contrecarrer les caméras de reconnaissance faciale en utilisant certains modèles générés par logiciel et des techniques de maquillage naturel, avec un taux de réussite de 98 %, rapporte Vice.< /p>

Pour l’étude ‘Esquiver les attaques en utilisant un maquillage naturel soigneusement conçu‘, le Une équipe de cinq personnes a utilisé YouCam Makeup, une application selfie pour appliquer numériquement du maquillage sur des régions identifiables du visage de 20 participants. Dans la deuxième condition, un maquilleur a physiquement recréé les motifs de maquillage appliqués numériquement et générés par logiciel sur les participants, mais de manière naturaliste. Les participants ont traversé un couloir filmé par deux caméras. Dans les tests de maquillage physique et numérique, les participants ont été signalés comme des individus sur liste noire pour que les systèmes soient alertés.

Le système biométrique du visage n’a pu identifier aucun des participants sur lesquels le maquillage a été appliqué numériquement. Pour l’expérience de récréation de maquillage physique, « le système de reconnaissance faciale n’a pu identifier les participants que dans 1,22% des images (contre 47,57 % sans maquillage et 33,73% avec maquillage naturel aléatoire), ce qui est inférieur à un seuil raisonnable d’un réaliste. environnement opérationnel », indique le document.

 » [La maquilleuse] n’a pas fait trop de tours, elle a juste vu le maquillage dans l’image, puis elle a essayé de le copier dans le monde physique. Ce n’est pas une copie parfaite là-bas. Il y a des différences, mais cela a quand même fonctionné », a déclaré à Vice Nitzan Guettan, doctorant et auteur principal de l’étude.

« Notre attaquant suppose un scénario de boîte noire, ce qui signifie que l’attaquant ne peut pas accéder au modèle FR cible, à son architecture ou à l’un de ses paramètres. Par conséquent, la seule option de l’attaquant est de modifier son visage avant d’être capturé par les caméras qui alimentent l’entrée du modèle FR cible », selon le document de recherche.

Des attaques d’apprentissage automatique (AML) contradictoires ont déjà été menées. En juin, la société israélienne Adversa a annoncé la création de « Adversarial Octopus », une attaque transférable de type boîte noire conçue pour tromper les modèles biométriques.

Bien que les systèmes de reconnaissance faciale n’aient pas toujours été en mesure d’identifier les personnes portant des couvre-visages, la pandémie a accéléré la progression de cette capacité. Corsight AI a annoncé en juillet que le système de reconnaissance faciale de l’entreprise, Fortify, est capable d’identifier simultanément les personnes portant des casques de moto et des couvre-visages.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici