La Police fédérale australienne (AFP) et l’Université Monash ont conclu un tout nouveau partenariat visant à développer une base de données biométriques faciales d’origine éthique pour lutter contre l’exploitation des enfants.
La job est une création du laboratoire AiLECS (AI for Law Enforcement and Neighborhood Safety), une entité conçue pour combiner des chercheurs de la faculté des technologies de l’information de l’Université Monash et de l’AFP, avec un accent particulier sur les emplois basés sur l’intelligence artificielle (IA) pour la sécurité publique .
Baptisée « My Images Matter », la campagne de crowdsourcing demande aux personnes âgées 18 ans et plus pour soumettre des photos d’eux-mêmes en tant qu’enfants.
Les fichiers seront ensuite utilisés pour former des conceptions d’IA biométriques qui pourront potentiellement « reconnaître l’existence d’enfants dans des circonstances » sûres « , pour aider à reconnaître ‘ des situations dangereuses et potentiellement signaler du matériel d’exploitation d’enfants. »
La production de la base de données a été motivée par le f agissez souvent, explique le professeur Campbell Wilson, partenaire codirecteur du laboratoire AiLECS, des conceptions d’apprentissage automatique comparables sont formées avec des images qui sont supprimées d’Internet ou sans autorisation documentée pour leur utilisation.
« S’approvisionner en images sur Internet est gênant lorsqu’il n’y a pas d’autre moyen de savoir si les enfants sur ces photos ont réellement consenti à ce que leurs photos soient soumises ou utilisées pour une étude de recherche », ajoute Wilson.
« En obtenant des photos d’adultes, par le biais autorisation éclairée, nous essayons de construire des innovations éthiquement responsables et transparentes. »
Pour le contexte, l’AFP a admis avoir utilisé l’innovation de reconnaissance faciale de Clearview en 2020. Depuis, l’entreprise est en fait associée à une série des affaires judiciaires pour avoir prétendument extrait les informations biométriques faciales des utilisateurs des médias sociaux.
Plus récemment, Clearview a en fait été condamné à une amende d’environ 7,5 millions de ₤ (9,5 millions de dollars) par le ICO (Info Commissioner’s Workplace) du Royaume-Uni.
Pour éviter de telles circonstances et pour permettre aux utilisateurs de contrôler leur vie privée, toutes les informations recueillies dans le cadre de My Photos Matter seront enregistrées et traitées conformément aux concepts de réduction des données.
« Nous ne recueillons aucun détail individuel des contributeurs en dehors des adresses e-mail liées à l’autorisation d’utilisation de l’étude de recherche, et ces identifiants d’e-mail seront stockés différemment des images », explique Chef de projet, Dr Nina Lewis.
Conformément à ces normes, les contributeurs auront la possibilité d’obtenir des informations et des mises à jour sur chaque étape de l’étude de recherche, ainsi que de choisir de modifier les autorisations des utilisateurs ou de retirer leur approbation d’étude de recherche et retirer les images de la base de données à une date ultérieure.
La tâche vise à développer une base de données de 100 000 images d’origine éthique d’ici la fin de 2022.
Yoti a commencé à créer une base de données de photos d’enfants envoyées par leurs mamans et papas pour l’entraîner s innovation d’évaluation de l’âge en 2021.
Toute l’actualité en temps réel, est sur L’Entrepreneur