vendredi, 19 avril 2024

Les commissions de l’UE proposent une loi sur l’IA renforcée plus sévère en matière de surveillance biométrique

Les comités de l’Union européenne se penchent sur la loi sur l’IA. L’UE est considérée comme le pionnier mondial de la réglementation, faisant de ses comités traitant de problèmes douteux une cible pour les militants. Il y a un an, elle révélait des propositions phares pour contrôler l’intelligence artificielle avec la loi sur l’intelligence artificielle, la première au monde à cette échelle.

La loi vise à régir le développement et la mise en œuvre de systèmes experts pour sécuriser les citoyens tout en s’assurant l’innovation serait considérée comme digne de confiance. Il classe l’utilisation de l’IA en quatre groupes de danger, avec une politique correspondante, consistant en de lourdes amendes pour les entreprises qui enfreignent les directives. Les innovations biométriques telles que la reconnaissance faciale dans les lieux publics présentent un risque élevé, un pas en dessous de la classification « inappropriée ».

Les groupes de projet s’efforcent d’influencer la prise de décision du bloc alors que les deux commissions d’intérêt spécial du Parlement européen couvrant son mandat publient leurs propositions d’amendements à la loi.

Le chef de file les rapporteurs de la commission du marché intérieur et de la défense des consommateurs (IMCO) et de la commission des libertés civiles, de la justice et des affaires de la Chambre (LIBE) ont en fait ajouté des détails à la loi, comme l’élargissement de la biométrie pour inclure le comportement, tout en effaçant d’autres parties telles que arrangement pour utiliser l’IA pour l’identification biométrique à distance en temps réel en public pour la police.

Des changements amélioreraient la sécurité des données individuelles, comme l’IA s’appuyant sur de grandes bases de données pour la formation et le déploiement.

« Les systèmes d’IA utilisés par les autorités chargées de l’application de la loi ou en leur nom pour prévoir les possibilités la capacité d’une personne physique de se mettre en colère ou de récidiver, sur la base du profilage et de l’évaluation privée des risques, présentent un risque spécifique de discrimination par rapport à des personnes ou groupes de personnes spécifiques, car elles violent le respect de soi en plus du principe juridique essentiel de la présomption de innocence », mentionne un ajout. « De tels systèmes d’IA doivent pour cette raison être interdits. »

Les groupes de projet font pression

Mozilla et le groupe de projet European Digital Rights (EDRi) cherchent tous deux à influencer davantage le développement de la loi sur l’IA.

La Fondation Mozilla fait pression pour « attribuer des tâches aux systèmes d’IA à haut risque tout au long de la chaîne d’approvisionnement de l’IA ; faire de la base de données grand public sur l’IA un fondement de l’ouverture et de la surveillance efficace des régulateurs et au grand public et offrant aux personnes et aux communautés les moyens de faire quelque chose en cas de dommage. »

EDRi encourage quelque chose de plus une méthode de base. Ils indiquent que IMCO et LIBE travaillent sur des rapports vers octobre 2022, au-delà de ce projet initial des rapporteurs des commissions. C’est maintenant l’étape où les députés des commissions peuvent proposer leurs propres modifications. Il y a ensuite des séries de règlement jusqu’en octobre.

EDRi dit que c’est le moment important, tandis que les commissions du Parlement discutent de leurs propres amendements comme prochaine étape, les « trilogues » entre le Parlement, le Conseil et la Commission « sont bien – connus pour leur opacité et le manque d’opportunités d’analyse publique. » Seul le Parlement est élu et donc plus susceptible d’être en contact avec la volonté du peuple.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici