de développement de ce que l’on appelle des accords-cadres pour les attaques de présentation en utilisant un algorithme de développement de variables cachées pour découvrir, pour n’en citer que quelques-uns, la meilleure façon de créer des accords-cadres solides. Ces images développées ou transformées correspondent aux éléments de nombreux modèles de conception enregistrés dans les systèmes de reconnaissance faciale et sont utilisées dans les attaques de discussion. Les chercheurs dans leur article invitent absolument
développeurs et autres à être conscients des visages principaux et du danger qu’ils présentent aux systèmes de reconnaissance faciale. L’une des principales cibles serait les téléphones protégés par des verrous de reconnaissance faciale. Ils pensent que les attaques pourraient être réduites en utilisant des algorithmes avec « une fonction objective bien conçue formée sur une grande base de données bien équilibrée avec un faux détecteur d’image. » Les fonctions objectives utilisées dans la formation au code de reconnaissance faciale doivent être améliorées, selon
au papier. Le simple fait d’étendre la base de données a rendu les algorithmes plus fiables, mais pas invulnérables.
Toute l’actualité en temps réel, est sur L’Entrepreneur