Les entreprises développant des algorithmes de biométrie et d’intelligence artificielle doivent débarrasser leurs systèmes de la prédisposition de groupe et rendre leur approche transparente, selon une lettre ouverte publiée par AnyVision en action à l’US National Institute of Standards and Technology (NIST) exiger public discute de l’approche proposée pour évaluer la confiance des utilisateurs dans les systèmes d’IA.
Le NIST a développé un fichier répertoriant les facteurs de confiance des systèmes d’IA et a demandé des commentaires dans le cadre d’un effort visant à stimuler la controverse sur le sujet.
La lettre d’AnyVision, signée par le PDG Avi Golan et intitulée « Purger les biais démographiques tout en augmentant la transparence dans la reconnaissance faciale », souligne l’importance de comprendre le cas d’utilisation pour évaluer la confiance que les utilisateurs doivent accorder aux systèmes. Golan décrit les récentes évolutions de l’UE vers la directive sur l’IA, qui classe l’identification biométrique à distance comme « à haut risque », comme une tentative de clarifier les cas d’utilisation.
« Ce sont des étapes dans les meilleures instructions pour comprendre et classant l’IA car il est entendu que l’IA offre des avantages considérables consistant en une vitesse, une précision, des économies de dépenses, une détection des escroqueries, des diagnostics médicaux et une expérience client améliorés », décrit Golan. « Dans le même temps, il est essentiel de remédier à ses faiblesses historiques. Par la suite, les entreprises d’IA devraient continuer à éliminer les biais de groupe de leurs algorithmes et être transparentes sur leur approche et les données de formation utilisées pour établir leurs modèles. Ce niveau de nuance est manquant. de la majorité des conversations aujourd’hui associées à la reconnaissance faciale. »
« C’est pourquoi nous recrutons le NIST pour aider à définir et à façonner la discussion autour de l’utilisation responsable de la reconnaissance faciale et de la surveillance vidéo en rédigeant des directives comparables — les meilleures pratiques qui peuvent aider les entreprises, de tous bords, à déployer la technologie — en toute sécurité, fermement et de manière éthique », ajoute-t-il.
AnyVision a réalisé l’obstacle de reconnaissance faciale équitable dans le cadre de la conférence européenne sur Computer System Vision 2020, et indique que les résultats des 10 premiers groupes ont démontré que la prédisposition raciale peut être diminuée ou même supprimée avec une grande variété de données d’entraînement, tout en offrant une haute degré de précision biométrique.
Golan utilise également les connaissances d’AnyVision acquises grâce à son expérience de travail avec des joueurs internationaux et des entreprises du monde entier, et a révélé le désir de l’entreprise de traiter avec le NIST et des universitaires et ONG de premier plan pour préparer des normes et meilleures pratiques pour la diminution de la prédisposition.
AnyVision s’est classé parmi les leaders dans les cinq groupes de classification dans l’analyse comparative de la précision de la confirmation biométrique du NIST en mars.
Toute l’actualité en temps réel, est sur L’Entrepreneur