samedi, 2 mars 2024

Un professeur remporte une subvention du comité de protection de la vie privée pour lutter contre les préjugés liés à la reconnaissance faciale au Canada

Dr. Gideon

Christian a en fait reçu une subvention de 50 000 $ du Programme de contributions du Commissariat à la protection de la vie privée du Canada pour son travail d’étude, « Atténuer les effets de la race, du genre et de la vie privée de la technologie de reconnaissance faciale par l’IA » afin de déterminer les problèmes dans le l’avancement et la mise en œuvre de la reconnaissance faciale au pays, selon un article de l’Université de Calgary.

« Il existe ce concept erroné selon lequel l’innovation, contrairement aux êtres humains, n’est pas biaisée », déclare Christian, PhD. « Ce n’est pas exact. Il a été révélé que l’innovation avait la capacité de reproduire la prédisposition humaine. »

Le travail de Christian se concentrera sur le développement du secteur économique et la mise en œuvre de la reconnaissance faciale au Canada. Il examinera également les préjugés raciaux inhérents à de nombreuses formes de reconnaissance faciale et développera une structure pour répondre aux préoccupations concernant les résultats de la reconnaissance faciale.

Il y a actuellement eu une variété de cas impliquant des arrestations injustifiées basées sur la reconnaissance faciale. aux États-Unis. Certains bureaux ont également utilisé le logiciel de manière disproportionnée dans des cas déterminant des visages noirs, les restrictions dans des villes comme la Nouvelle-Orléans ayant été abrogées.

Christian a découvert qu’au Canada, « les femmes noires, les immigrantes qui ont effectivement ont demandé le statut de réfugié avec succès, (ont en fait vu) leur statut de réfugié retiré au motif que l’innovation de reconnaissance faciale faisait correspondre leur visage à celui d’une autre personne. « 

Un test des différences de groupe réalisé par le NIST en 2019 a révélé que certains Les algorithmes produisent des taux d’erreur plus élevés pour les personnes à la peau plus foncée, tandis que les algorithmes les plus performants ont renvoyé des taux d’erreur presque identiques pour différents groupes. Une évaluation de suivi réalisée en 2022 a montré des progrès substantiels vers des performances indiscernables par les algorithmes de reconnaissance faciale les plus précis.

Christian cite un taux d’erreur pour les femmes noires tiré du rapport Gender Tones de Delight Buolamwini, qui a été réalisé avec une analyse faciale. plutôt que des algorithmes de reconnaissance biométrique, un an avant la toute première évaluation démographique du NIST.

« La prédisposition raciale n’est pas nouvelle », déclare Christian. « Ce qui est tout à fait nouveau, c’est la façon dont ces prédispositions apparaissent dans la technologie de l’intelligence artificielle… Ce problème particulier de cette technologie, s’il n’est pas traité, a la capacité d’annuler tous les progrès que nous avons réalisés grâce à la motion pour les droits civiques. »

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici