jeudi, 18 avril 2024

Les réflexions sur l’éthique de l’IA deviennent concrètes et utiles

À l’heure actuelle, il ne peut y avoir de créateurs d’algorithmes inconscients du différend sur les principes de l’IA. Les utilisateurs sont une histoire différente jusqu’à présent, mais les décideurs savent qu’ils ont la responsabilité de stabiliser les risques avec des avantages dans les systèmes de biométrie du visage, par exemple.

Un nouvel article du Royaume-Uni devrait être intéressant. Il s’agit d’un compte rendu solide des outils que les fabricants – et les utilisateurs finaux – peuvent utiliser pour mieux s’assurer que les algorithmes sont moralement sourcés, industrialisés et déployés.

Une grande partie de la recherche examine les boîtes à outils pour tout, de l’équité et des audits aux évaluations d’impact et à la conception. Il détaille qui dans une entreprise ou une chaîne de valeur utilise normalement un outil, qui agit sur les résultats, à quelle phase de la production de la biométrie qu’un outil est utilisé et d’autres guides.

Le travail approfondi a été effectué par une paire de chercheurs de l’Université de Southampton.

Les discussions conceptuelles élevées sur le marché de l’IA qui ont traité les données – en particulier les mégadonnées – et la sécurité des données de 2017 à 2020 sont devenues des débats pratiques concentrés sur les modèles et algorithmes. Les données restent un facteur vital à prendre en compte pour ceux qui réfléchissent aux principes ; il a simplement des affaires en 2021.

Il y a eu quelques exceptions aux confabs d’entreprise aérés et philosophiques, mais les résultats ont été très mitigés. À ce jour, une grande partie des travaux du gouvernement fédéral se sont concentrés sur les principes.

Sur les 39 outils qui ont été évalués « concrets » et « pratiques » (peut-être le plus grand ensemble d’outils d’éthique de l’IA collectés pour l’analyse), 36 étaient documents d’auto-évaluation internes. Et, pour la plupart, absolument rien n’existe pour déclencher la publication des résultats des outils.

Les auteurs, comparant ces outils à ceux utilisés dans d’autres industries et rôles, tels que les documents sur les effets environnementaux, ont trouvé tout cela est inquiétant.

Les normes IEEE nécessitaient simplement une vérification externe, ont-ils découvert, et deux outils comprenaient des registres publics pour forcer la transparence.

Il doit y avoir encore plus de place pour les examens et les évaluations des principes provenant de sources externes pour éviter la pensée de groupe et la pression excessive sur les revenus, qui peuvent nuire à l’avancement des systèmes biométriques et à la société dans son ensemble.

En même temps, les outils doivent être inclusifs. Il existe peu de chances pour les utilisateurs finaux et les consommateurs, pour n’en citer que quelques-uns, de participer aux audits et aux évaluations.

Ceci pourrait être la conclusion la moins surprenante dans la mesure où le marché de l’innovation, de l’argent aux mises à jour et aux mises à niveau, est normalement un affaire de vente. Historiquement, les commentaires ont été rejetés : « Vous n’êtes qu’un utilisateur. »

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici