vendredi, 19 avril 2024

La reconnaissance faciale et l’IA obtiennent le mauvais œil des groupes communautaires et des gouvernements

 

En Europe et aux États-Unis, la répression contre la reconnaissance faciale s’organise par des groupes préoccupés par les excès de la police, la confidentialité et la sécurité des données biométriques.

« La reconnaissance faciale menace nos libertés », lit-on dans une pétition déposée auprès du Parlement belge avec le soutien d’organisations telles que la Ligue belge des droits de l’homme. La pétition demande l’interdiction de la reconnaissance faciale dans les lieux publics et son utilisation par les autorités pour identifier les personnes.

« L’utilisation de cette technologie dans nos rues nous ferait nous identifiables et surveillés en permanence », indique-t-il. « Cela revient à donner aux autorités le pouvoir d’identifier l’intégralité de sa population dans l’espace public, ce qui constitue une atteinte à la vie privée et au droit à l’anonymat des citoyens. »

La pétition soutient que la reconnaissance faciale nuira aux groupes marginalisés. Il met en évidence les risques de violation de données exposant les données biométriques, l’incidence accrue de préjugés et de discrimination systémique et la normalisation de la surveillance de masse.

Il n’y a aucune raison de croire que la surveillance biométrique sera opérée avec respect. « Aucune loi n’encadre l’utilisation des technologies de reconnaissance faciale par les pouvoirs publics. »

La campagne américaine vise ICE et Clearview AI

Pendant ce temps, en Californie, une équipe juridique travaillant avec des militants et des groupes communautaires a lancé une campagne qui dénonce l’utilisation abusive de la reconnaissance faciale par la police.

« Eyes on Tech s’attache à exposer les dangers de la reconnaissance faciale lorsque la police de surveillance secrète et le profit sont centrés, et non sur nos communautés », a déclaré Paromita Shah, directrice exécutive de Just Futures Law, dans une déclaration.

« La reconnaissance faciale s’infiltre dans nos communautés, et personne ne l’utilise plus que la police », a déclaré Shah. « Les entreprises technologiques privées comme Clearview AI violent nos droits à la vie privée et donnent aux forces de l’ordre, y compris (immigration et douanes), nos informations sur un plateau d’argent. »

L’organisation poursuit Clearview devant la Cour supérieure du comté d’Alameda au nom de quatre plaignants alléguant que l’entreprise a violé les droits de l’État de Californie et les lois sur la protection des consommateurs.

Le plan de surveillance de masse obtient de faibles résultats auprès des députés européens

De retour dans l’UE, les régulateurs ont exprimé leur inquiétude face aux mesures de surveillance proposées pour les Jeux olympiques et paralympiques de 2024 à Paris.

« Votez pour mettre fin à l’avenir de la surveillance biométrique de masse en Europe », lit-on dans une lettre de députés européens aux membres de l’Assemblée nationale. Leur objection porte sur l’article 7 d’un projet de loi relatif aux Jeux, qui stipule que les images captées par les caméras de surveillance « peuvent faire l’objet d’un traitement incluant un système d’intelligence artificielle ».

« La France établirait un précédent de surveillance d’un genre jamais vu auparavant en Europe, en utilisant le prétexte des Jeux Olympiques », lit-on dans la lettre. « Cette mesure menace l’essence même du droit à la vie privée, à la protection des données et à la liberté d’expression, la rendant contraire au droit international et européen des droits de l’homme. »

L’article 7 stipule que le traitement spécifié « n’utilise aucun système d’identification biométrique, ne traite aucune donnée biométrique et ne met en œuvre aucune technique de reconnaissance faciale ».

Mais les signataires de la lettre soutiennent que la loi – qui n’est pas rédigée pour s’appliquer exclusivement aux événements olympiques ou paralympiques, mais largement aux « événements sportifs, récréatifs ou culturels, qui, par leur ampleur ou leurs circonstances, sont particulièrement exposés au risque d’actes de terrorisme ou de menace grave pour la sécurité des personnes « – serait en contradiction avec le langage utilisé dans un précurseur de la loi sur l’IA, qui interdit l’utilisation de l’analyse automatisée des caractéristiques humaines, des signaux biométriques et comportementaux.

« Notamment, le seul pays à adopter jusqu’à présent la surveillance biométrique de masse de l’ensemble de la population est la Chine autoritaire », indique la lettre. « Pour un pays démocratique comme la France, encourager ces signaux enverrait carte blanche aux régimes répressifs du monde entier pour qu’ils fassent de même avec leurs citoyens. »

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici