mardi, 23 avril 2024

Le NIST approfondit les préjugés en biométrie

Si le NIST était une émission télévisée, ce serait Dragnet, l’émission d’enquêteurs américains sobres et fondées sur les faits qui a permis de résoudre des infractions pénales une observation discrète, une enquête calme à la fois.

Exemple concret : le NIST, l’organisation en chef des exigences biométriques du gouvernement américain, a publié « A Proposition for Determining and Handling Bias Within Expert System ».

C’est une proposition modeste. Certaines prédispositions à l’état périphérique du marché nécessitent d’être retirées de la racine et de la tige, mais la profondeur et l’étendue des entrées dans l’IA font du travail un défi important.

Au lieu de cela, les scientifiques du NIST recherchent d’abord un moyen de repérer biais biométrique, puis le gérer, deux objectifs plus réalisables provoquant une numération finale.

Ils ont également demandé l’avis du public sur la meilleure façon d’évaluer la confiance dans l’IA. Et le NIST continue d’explorer l’IA pour les métriques de confiance. Il évalue la précision de la reconnaissance faciale avec son test de fournisseur de reconnaissance faciale largement connu (et pour certains, naturellement infâme).

Le tout nouveau projet de rapport du cabinet soutient une conversation entre entrepreneurs, scientifiques universitaires, professionnels du droit, sociologues, même les populations marginalisées les plus susceptibles de souffrir d’une prédisposition à l’IA.

Pour commencer, le NIST souhaite amener cette communauté à trouver des exigences de consensus et un cadre basé sur les risques qui pourraient aboutir à une « IA crédible et responsable ». « 

L’échelle même de la nouvelle proposition du NIST finit par être claire quand on regarde combien de concepts de base restent indéfinis. Les chercheurs de l’entreprise déclarent que le concept d’atténuation du danger dans l’IA elle-même est un « bloc de construction encore insuffisamment spécifié créant la fiabilité. »

Les chercheurs, traitant du voisinage de l’IA, ont découvert 8 parties d’un système expert crédible, chacune de qui peuvent être spécifiés de manière différente par différentes communautés : précision, expliquabilité et interprétabilité, confidentialité personnelle, fiabilité, efficacité, sûreté et sécurité.

Cela va plus loin, cependant. En annonçant le projet, le NIST a souligné qu’il existe des systèmes d’IA sur le terrain écrits pour modéliser la «criminalité» ou «l’aptitude au travail», alors qu’aucun des deux concepts ne peut être mesuré de manière crédible.

Au contraire, les développeurs d’applications logicielles remplacent le béton mais des métriques biaisées comme l’endroit où vit une personne ou le nombre d’années d’études ont été complétées par un candidat.

Les commentaires sont les bienvenus jusqu’au 5 août.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici