vendredi, 29 mars 2024

Le NIST pousse le cadre pour favoriser une IA de confiance

L’Institut national des normes et de l’innovation (NIST) du Département américain du commerce a publié de tout nouveaux conseils pour aider les organisations dans le style, le développement, le déploiement et l’utilisation de l’intelligence artificielle (IA). En tant que principale autorité américaine en matière d’exigences biométriques et d’analyse comparative, les conseils du NIST sur une IA digne de confiance pourraient avoir une influence majeure sur le marché. Selon le cadre de gestion des risques de l’intelligence artificielle

(AI RMF 1.0), les innovations en matière d’IA peuvent profiter à la société , mais leurs éventuels dommages ne peuvent être ignorés. Les menaces en contact avec l’IA consistent en des biais qui peuvent affecter la vie des individus de différentes manières, des expériences négatives avec les chatbots aux refus des demandes d’emploi et de prêt. « Ce cadre volontaire aidera à développer et à publier des technologies d’IA de

manière qui permettent aux États-Unis, à d’autres nations et entreprises d’améliorer la fiabilité de l’IA tout en gérant les risques en fonction de nos valeurs démocratiques », commente le secrétaire adjoint au Commerce, Don Graves. « Il devrait accélérer le développement et le développement de l’IA tout en faisant progresser – au lieu de restreindre ou de nuire – les droits civils, les libertés civiles et l’équité pour tous. » Plus précisément, le document se compose de 2 sections. Le premier passe en revue les dangers susmentionnés liés à l’IA

et propose une liste de qualités d’IA « crédible ». D’autre part, la seconde moitié du rapport met en évidence 4 fonctions essentielles pour aider les services à résoudre les dangers des applications d’IA du monde réel. Il s’agit respectivement de « gouverner, cartographier, mesurer et gérer ». La fonction « gouverner » vise à développer une « culture de la gestion des risques » qui est « cultivée et présente » et la « carte » vise à reconnaître le contexte des applications spécifiques de l’IA et les risques associés. La fonction « étape » vise à garantir que les dangers déterminés sont évalués, évalués ou suivis et la fonction « gérer » fait référence à la hiérarchisation des menaces et à la garantie qu’elles sont traitées en fonction de l’effet du projet. La structure de gestion des risques de l’IA peut aider les entreprises et d’autres entreprises dans tous les secteurs et toutes les tailles pour relancer ou améliorer leurs méthodes de gestion des risques liés à l’IA », explique Laurie

Locascio, directrice du NIST. Nous nous attendons à ce que l’AI RMF contribue à faire progresser les meilleures pratiques et exigences

. » L’AI RMF 1.0 a été mandaté dans une instruction du Congrès de janvier 2021. Il se compose de 400 ensembles de commentaires formels que le NIST a reçus d’environ 240 entreprises dans les phases de préparation de la structure. Le NIST a également publié un

AI RMF Playbook, une série de normes pour aider à parcourir et à mettre en œuvre le cadre. L’entreprise se prépare à collaborer avec la communauté de l’IA pour mettre régulièrement à jour le cadre. Le NIST a également déclaré qu’il développerait des ressources pour une IA fiable et responsable. Pendant ce temps, en Europe, les législateurs poursuivent également la création d’

une structure de régulation axée sur l’intelligence artificielle conçue pour favoriser la diffusion d’une IA éthique. Généralement connue sous le nom de loi sur l’IA, la législation proposée

reste dans la procédure d’amendement pour inclure une définition plus précise de ce qu’est l’identification biométrique à distance et de ce qui peut être spécifié comme critère à haut risque pour la catégorie des systèmes d’IA.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici