mardi, 23 avril 2024

Un juge canadien envoie l’utilisation de la biométrie faciale par le gouvernement dans une demande d’asile pour examen

Une

évaluation judiciaire de l’utilisation par le Canada de la reconnaissance faciale dans l’évaluation des demandes d’immigration a en fait été achetée par un juge fédéral dans une affaire impliquant un ensemble de demandeurs d’asile , rapporte Georgia Straight.

La Commission de défense des réfugiés a découvert que les femmes n’étaient pas des résidentes somaliennes comme elles l’ont déclaré dans leur demande, mais plutôt des Kenyanes qui avaient effectivement soumis des permis de recherche sous des noms présumés. Cette décision était basée sur des correspondances biométriques obtenues par l’agence avec l’application de Clearview AI.

Les avocats des deux femmes somaliennes qui prétendent que leur demande d’asile a été rejetée par erreur ont soumis l’article Gender Shades publié en 2018 par dans le cadre de l’étude de recherche sur l’apprentissage automatique.

Cet article a examiné l’application logicielle d’analyse faciale et a trouvé beaucoup plus taux d’erreur de classification lorsque les algorithmes ont été appliqués aux femmes à la peau plus foncée. Il n’a pas mentionné Clearview ni la reconnaissance biométrique du visage du test, mais plutôt la classification du sexe et de la race.

Le PDG de Clearview, Hoan Ton-That, a en fait déclaré à Biometric Update que l’application logicielle de l’entreprise a statistiquement très peu de biais.

La RPD a utilisé son système mondial de gestion des cas pour déterminer que les femmes kenyanes admises dans le cadre d’une étude de recherche ne sont pas allées dans les universités dans lesquelles elles prétendaient s’inscrire. et les coûts de préparation aux situations d’urgence Blair a demandé l’abandon du statut de réfugié des femmes sur la base de la conclusion qu’elles avaient en fait déformé leur identité.

Le match est contesté par les plaignants, qui allèguent que les étudiants kenyans probablement encore aux études au Manitoba. Ils déclarent également que les preuves contre eux « proviennent probablement d’une application logicielle de reconnaissance faciale douteuse telle que Clearview AI » et ne doivent pas être avoués.

Le juge Avvy Yao-Yao Go a statué que la SPR s’est appuyée à tort sur Loi sur la vie privée pour avouer les contrastes d’images biométriques, et ne pas avoir réellement excusé Blair de les divulguer. Go a également statué que la SPR avait ignoré les preuves contraires à sa conclusion et que les similitudes faciales étaient insuffisantes pour rejeter les allégations.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici