Le TFV5 peut accroître l’équité en matière d’efficacité de la technologie entre les sexes et la race et réduire les dangers pour la sécurité
Trueface affirme que son ensemble de données biométriques Fairface Face a contribué à réduire considérablement les facteurs de biais dans sa conception de reconnaissance faciale TFV5. Cyrus Behroozi, un concepteur de logiciels de vision par ordinateur de l’entreprise, a élaboré dans un article sur Medium les résultats de l’évaluation par Trueface de TFV5.
Le message fournit également un plan qui guide les clients pour réduire les faux positifs et les négatifs incorrects dans leurs applications de reconnaissance faciale en augmentant les seuils fonctionnels de leurs modèles.
Dans l’article, Behroozi expose les différences mesurables entre le modèle TFV5 et son prédécesseur le TFV4. Une distinction substantielle est que le compromis d’erreur de détection (DET) est beaucoup plus faible dans la nouvelle conception. Ceci est généralement atteint en décrivant le taux positif incorrect (FPR) par rapport à la limite de similarité.
« L’ensemble de données Fairface contient une variété équilibrée d’images de visage de sept groupes ethniques principaux et ne contient pas plus d’une seule image pour chaque identité. Dans l’évaluation, nous créons un modèle de reconnaissance faciale pour chaque image de l’ensemble de données, puis comparons chaque modèle de visage les uns par rapport aux autres pour générer un score de ressemblance », a-t-il décrit.
Par rapport au TFV4 , le tout nouveau design semble entraîner une réduction considérable de la prédisposition dans les groupes ethniques traditionnellement sous-représentés d’Asie de l’Est et du Sud. Behroozi note que cela est principalement dû au jeu de données de formation biométrique moralement constitué d’images de ces groupes.
Behroozi a également gardé à l’esprit que cela peut apporter l’équité technologique malgré le sexe et l’origine ethnique. Il ajoute en outre qu’une telle diminution des positifs incorrects pourrait également réduire les risques de sécurité lorsqu’elle est appliquée à un accès biométrique à des scénarios de contrôle. « En général, nous recommandons à nos clients de fonctionner à un seuil de score de similitude compris entre 0,3 et 0,4, bien que le seuil spécifique soit finalement déterminé par le taux de faux positifs ou de faux défavorables souhaités. Ce que vous découvrirez dans les 2 graphiques ci-dessous est que TFV5 a significativement moins de positifs incorrects dans la région opératoire pour toutes les cultures ethniques », a-t-il ajouté.
Cet article faisait suite à l’examen initial par Trueface du facteur de biais dans son modèle de reconnaissance faciale biométrique publié dans 2020. Dans ce document, Behroozi a expliqué comment Fairface a été créée en incluant une variété équivalente d’échantillons de visage de chaque culture ethnique et groupe de genre.