jeudi, 18 avril 2024

L’analyse d’Ada Lovelace suggère que la loi sur l’IA de l’UE pourrait réduire la réglementation de la biométrie

Une interdiction de la reconnaissance faciale par la loi sur l’IA de l’UE pourrait en fait minimiser les protections par rapport à la sécurité biométrique offerte par les lois nationales existantes, la directive générale sur la protection des données (RGPD) et la directive sur l’application des lois, selon un analyse professionnelle de l’Institut Ada Lovelace.

Écrit par Lillian Edwards, professeur de droit, d’innovation et de société à l’Université de Newcastle, l’explicateur garde à l’esprit qu’une poussée vers une harmonisation maximale, intégrée au manque de portée sur les domaines personnels , l’application de la loi et les domaines en ligne, pourraient conduire à une réglementation moins stricte dans la pratique.

L’analyse est accompagnée d’un aperçu de la politique et d’un avis professionnel d’Edwards, intitulé « Gérer l’IA en Europe : quatre problèmes et quatre options ».

L’explicateur fait neuf points clés sur la loi, y compris le obligation de le comprendre dans le contexte d’autres législations de l’UE comme la loi sur les fournisseurs numériques (DSA) , la loi sur les marchés numériques (DMA) et la loi sur la gouvernance numérique (DGA). La loi vise principalement les utilisations de l’IA par le secteur public et les forces de l’ordre, note Edwards, et se compose d’une compétence territoriale étendue, comme le RGPD.

Ramifications biométriques

L’explicateur explore l’impact de la loi sur l’IA sur la biométrie et la reconnaissance faciale en particulier.

Que ce soit en interdisant l’utilisation de la reconnaissance faciale est identifié comme un domaine de controverse autour de la loi, mais les restrictions sont « vraiment minimes », sans renvoi à des applications médico-légales ou rétrospectives.

« L’interdiction » imposée par la loi peut souvent être moins stricte que les contrôles de protection des données existants en vertu du RGPD et du règlement sur l’application de la loi (LED) », écrit Edwards. « Par conséquent, si l’argument d’harmonisation optimale (ci-dessus) s’applique, la loi peut en réalité réduire la défense par rapport à la sécurité biométrique actuellement offerte par les lois nationales existantes. »

Le dossier note également que l’analyse faciale basée sur la biométrie ou les algorithmes de catégorisation sont classés comme « danger limité », une classification à moindre risque que les systèmes de reconnaissance et de confirmation biométriques.

L’analyse poursuit en expliquant la différence entre la désignation de la biométrie comme « risque élevé » et la catégorisation basée sur la biométrie comme « menace restreinte » et les exigences qui sous-tendent ces catégories et les évaluations de conformité.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici