samedi, 26 novembre 2022

L’utilisation de la biométrie de surveillance en ligne ne respecte pas le seuil légal canadien, selon un rapport

 

Les outils de surveillance en ligne pour la conduite d’examens à distance ne vont pas assez loin pour garantir le consentement libre, clair et individuel des étudiants canadiens dont ils collectent les données biométriques, selon un nouveau rapport publié par l’Université d’Ottawa et soutenu par le Commissariat à la protection de la vie privée du Canada.

Avec l’apprentissage en personne perturbé par la pandémie COVID-19, de nombreux établissements se sont tournés vers des plates-formes logicielles comme moyen de mener des examens. Souvent basés sur l’intelligence artificielle, des outils tels que Respondus, Monitor, ProctorU, Examity et d’autres utilisent l’exploration de données et la reconnaissance faciale pour surveiller la tricherie – et présentent ce que Céline Castets-Renard, la professeure de droit qui a dirigé le projet, a appelé « les problèmes juridiques de discrimination socio-économique et respect de la vie privée. »

Le rapport souligne des problèmes familiers liés à la discrimination liée à l’IA, en particulier « l’excès de pouvoir tel que la surveillance publique ou la surveillance policière à l’aide d’un logiciel de reconnaissance faciale basé sur l’IA, avec un potentiel de discrimination, comme les préjugés liés à la race, au sexe et à l’âge ». Mais il identifie également le risque de certains facteurs socio-économiques et situationnels qui pourraient déclencher des alertes logicielles injustifiées. Selon le rapport, « un animal domestique qui fait du bruit, comme un aboiement ou un gazouillis, lors d’un examen de surveillance en ligne a été identifié comme une cause de signalement d’un incident potentiel de tricherie ». Les animaux de compagnie, les enfants et d’autres variables audiovisuelles peuvent faire croire au logiciel de surveillance qu’il se passe quelque chose de suspect alors que ce n’est pas le cas, un problème aggravé dans les grandes maisons multigénérationnelles.

Les outils biométriques, tels que la reconnaissance faciale, sont susceptibles d’erreurs similaires. « L’analyse biométrique de frappe qui sert à suivre les données de frappe, le suivi oculaire qui surveille et analyse les mouvements oculaires, la surveillance audio qui enregistre et surveille les étudiants par son et la détection faciale sont toutes des méthodes utilisées par certains logiciels de surveillance », indique le rapport de recherche. Et tous comportent des risques inacceptables que la technologie signale par erreur certaines variations de données comme de la triche.

Le rapport se termine par une série de recommandations concernant la façon dont l’IA est définie et catégorisée, et comment la surveillance humaine des technologies de surveillance en évolution peut aider à maintenir la transparence et à réduire les erreurs et les biais. La recommandation finale résume soigneusement les conclusions des chercheurs, appelant à « une réflexion collective sur l’opportunité d’interdire certaines utilisations de l’IA, et les moyens de déterminer comment identifier ces utilisations interdites ».

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici