vendredi, 19 avril 2024

Permettre aux entreprises de comprendre et de s’attaquer à leurs biais en matière d’IA, le NIST lance une « approche socio-technique »

Les entreprises vont

avoir besoin d’outils, de capacités et d’une surveillance humaine pour découvrir et se débarrasser de la prédisposition dans leurs applications d’intelligence artificielle pour maintenir un monde en ligne sûr, compose Steve Durbin, directeur général de la société de menace à la sécurité Info Security Forum dans un document de réflexion pour le Forum économique mondial. Le NIST souhaite que les entités tentent une technique « socio-technique » d’IA pour lutter contre la prédisposition.

« La discrimination dirigée par l’IA peut être abstraite, non intuitive, subtile, intangible et difficile à repérer. Le code source peut seront probablement interdits au public ou les auditeurs pourraient ne pas comprendre comment un algorithme est déployé », écrit Durbin, exposant le problème.

« La complexité d’entrer dans un algorithme d’IA pour voir comment il a été écrit et y répondre ne peut pas être sous-estimée. »

Durbin utilise les lois sur la vie privée comme contraste et mise en garde. Les lois sur la protection de la vie privée comptent sur la notification et le choix, par exemple lorsque des clauses de non-responsabilité apparaissent sur les sites. « Si de telles notifications étaient utilisées par l’IA, cela aurait de graves effets sur la sécurité et la vie privée des clients et de la société », rappelle-t-il.

L’IA pourrait accélérer les attaques de logiciels malveillants en repérant les vulnérabilités ou en empoisonnant l’IA de sécurité systèmes en les alimentant avec des informations incorrectes. Durbin utilise quelques solutions.

Déterminer l’éthique, utiliser l’IA pour lutter contre la discrimination

Durbin conseille 5 méthodes générales pour aborder les problèmes de discrimination dans l’IA.

« En raison compte tenu du fait que les décisions en matière d’IA affectent et impactent de plus en plus la vie des individus à grande échelle, les entreprises ont le devoir moral, social et fiduciaire de gérer l’adoption de l’IA de manière équitable », note-t-il, ce qui incite à traiter l’éthique comme une mesure pour les entreprises et les organisations.

Les entreprises doivent adopter des outils et des techniques pour les aider à comprendre et à trouver les prédispositions dans tous les systèmes qu’elles utilisent. L’autonomie des algorithmes doit être équilibrée avec la création d’un comité de principe. Les travailleurs devraient être habilités à promouvoir une IA responsable.

Utiliser l’IA pour exécuter des algorithmes parallèlement aux processus de choix humains, puis comparer les résultats et examiner les facteurs de décision de l’IA peut aider à bénéficier des approches standard d’évaluation de l’équité humaine, écrit Durbin .

« Les conceptions de l’IA doivent être fiables, justes et explicables par conception », conclut-il, « Alors que l’IA finit par être plus égalisée et que de toutes nouvelles conceptions de gouvernance prennent forme, il s’ensuit que davantage d’innovations basées sur l’IA sont à l’horizon. »

Le manuel de jeu « socio-technique » du NIST pour prendre les prédispositions

Les experts de l’Institut national américain des normes et de la technologie (NIST) sont sur le point de lancer un nouveau manuel pour aborder les biais de l’IA et d’autres risques, rapporte Nextgov.

Composées à la fois pour les entités publiques et personnelles, les recommandations, prévues dans les prochains jours, seront polyvalentes et polyvalentes et contiendront des domaines tels que la gestion humaine des systèmes d’IA. L’importance « socio-technique » ayant une prise de conscience de l’impact humain sur l’innovation, selon Nextgov, afin d’éviter qu’elle ne soit utilisée d’une manière que ses concepteurs n’avaient en fait pas prévue.

Le playbook est destiné à aider les entités évitent les préjugés humains dans leurs innovations en IA.

Semblable à Durbin, le playbook devrait motiver la gouvernance de l’innovation et clarifier les fonctions d’obligation.

Le NIST a également travaillé sur les deux examinant le degré de biais dans la biométrie faciale et comment mieux échelonner les variations d’efficacité entre les sujets de diverses données démographiques, avec sa série continue de tests de reconnaissance faciale des fournisseurs.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici