jeudi, 18 avril 2024

La lettre de politique biométrique d’Oosto à la Maison Blanche souligne les différences entre les cas d’utilisation

Les parties prenantes et les défenseurs interviennent avec des réponses à un gouvernement américain demande d’informations sur les usages publics et privés de la biométrie, offrant un instantané d’un dialogue social tendu contre l’inertie de l’incompréhension et de l’intérêt personnel.

L’Office of Science and Technology Policy (OSTP) a publié la RFI en octobre pour recueillir des informations sur les « déploiements, propositions, projets pilotes ou essais antérieurs, et l’utilisation actuelle des technologies biométriques » pour la vérification d’identité, l’identification et l’inférence d’attributs.

Lorsque les commentaires ont pris fin au cours du week-end, des soumissions avaient été faites par divers groupes de parties prenantes. Un examen quelque peu optimiste pourrait conclure que l’opinion converge au moins autour de la nécessité de définitions claires, de la valeur apportée par les efforts du NIST et de la nécessité d’une action accrue du gouvernement fédéral.

Fournisseur de données biométriques

Oosto a partagé son « échelle de sensibilité » pour six applications courantes de reconnaissance faciale avec la Maison Blanche. Les cas d’utilisation et les risques associés ont été définis par l’entreprise à la fin de l’année dernière dans le cadre d’une proposition sur la conformité à l’éthique de l’IA.

Une lettre ouverte du PDG d’Oosto, Avi Golan, passe en revue les produits de l’entreprise et la façon dont ils peuvent contribuer à la sécurité physique, offrant une explication sur les listes de surveillance et les listes de sécurité. Il discute ensuite des efforts de l’entreprise pour assurer une gestion responsable, y compris son comité d’éthique, ses conditions de service et ses paramètres de confidentialité avancés. Le sujet potentiellement épineux des sources de données utilisées par Oosto est abordé, puis les six cas d’utilisation sont explorés.

« Il est essentiel que les dirigeants gouvernementaux reconnaissent le pouvoir de l’IA visuelle pour sauver et maintenir des vies », déclare Golan. « Aujourd’hui, l’IA visuelle est souvent mal comprise ou mal représentée. En tant que cabinet leader mondial dans ce domaine, nous encourageons les régulateurs à mener une diligence raisonnable afin de fournir des conseils significatifs et un cadre juridique approprié réglementant l’utilisation de la biométrie dans des scénarios spécifiques au contexte. De plus, nous avons besoin d’une politique nationale cohérente pour l’utilisation éthique de la reconnaissance faciale par rapport à un patchwork de réglementations différentes au niveau des États qui rendent la conformité commerciale difficile. »

Golan soutient que l’utilisation de la biométrie faciale pour autonomiser les entreprises et les gouvernements n’est pas mutuellement exclusive avec la protection des libertés civiles et des droits à la vie privée, et appelle à une définition commune de la « reconnaissance faciale éthique ».

Société civile

Un groupe d’experts juridiques et de défenseurs de la société civile, dont Yussuf Bashir de Haki na Sheria et Grace Mutung’u, chercheuse au CIPIT, ont également pris la parole, appelant à une réponse globale du gouvernement aux technologies biométriques sous la forme de moratoires sur la participation obligatoire aux technologies biométriques. systèmes, une législation ciblant des impacts disparates et un examen approfondi des impacts de la biométrie sur les droits de l’homme.

Une lettre rédigé en réponse à la RFI et cosigné par le Digital Welfare State & Human Rights Project, Center for Human Rights and Global Justice (CHRGJ) de la NYU School of Law et l’Institute for Law, Innovation & Technology (iLIT) à la Beasley School of Law de l’Université Temple accuse les technologies biométriques de « menaces existentielles… pour les droits de l’homme, la démocratie et l’état de droit ».

L’Union des libertés civiles de New York écrit pour exprimer ses inquiétudes concernant la reconnaissance faciale dans le cadre scolaire et les forces de l’ordre, faisant référence au fiasco de Lockport et à Clearview AI, respectivement.

Elizabeth M. Renieris et Yong Suk Lee du Notre Dame Technology Ethics Center (ND TEC) se concentrent sur les cas d’utilisation et dommages potentiels de la technologie biométrique. Leur lettre présente donc une litanie de problèmes potentiels liés aux biais, à la mauvaise science et aux risques de confidentialité des données, bien que les auteurs notent qu’ils « sont encouragés par les efforts de l’OSTP pour envisager des politiques qui peuvent exploiter équitablement les avantages de ces technologies tout en fournissant des informations efficaces et des garanties itératives contre leurs abus et préjudices anticipés. »

Industrie du logiciel

Une législation fédérale sur la protection de la vie privée et des définitions claires sont le point de départ nécessaire pour une bonne politique en matière de biométrie, déclare un groupe de l’industrie du logiciel basé à Washington.

La Software & Information Industry Association (SIIA) a salué les efforts de l’OSTP pour créer une déclaration des droits pour une société automatisée, ou « Déclaration des droits de l’IA », et recommande que l’organisme soutienne les efforts actuels pour développer lignes directrices pour une utilisation responsable et éthique de la biométrie et d’autres technologies d’IA. Cela signifie soutenir le travail du National Institute of Standards and Technology (NIST).

SIIA recommande également une distinction entre les utilisations de la biométrie par les secteurs privé et public, et s’inquiète du fait que l’inclusion de « données dérivées » dans la définition des technologies biométriques pourrait inutilement brouiller les cartes.

Le Conseil de l’industrie des technologies de l’information (ITIC) demande à l’OSTP de se concentrer sur l’exploitation des normes et des cadres existants pour réglementer les applications à haut risque de la biométrie.

Le groupe en outre fait écho Oosto sur la nécessité de distinguer les cas d’utilisation, et le SIIA sur la nécessité de différencier les applications des secteurs public et privé. De même, l’ITIC est d’accord avec la SIIA sur la nécessité de soutenir le NIST, en particulier son travail sur un cadre de gestion des risques liés à l’IA.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici