mercredi, 28 février 2024

Les créent un groupe pour réfléchir à la réglementation de l’IA

Le gouvernement fédéral américain a en fait développé un groupe de sécurité de l’intelligence artificielle, composé de créateurs, d’utilisateurs et d’universitaires de l’IA, dans le but de mettre en place des garde-fous sur l’utilisation et le progrès de l’IA.

/p>

Le nouveau Consortium américain de l’AI Security Institute (AISIC), qui fait partie du National Institute of Standards and Technology, est chargé de créer des normes pour l’équipe rouge des systèmes d’IA, d’examiner les capacités de l’IA, de gérer les risques et de garantir la sécurité et la sécurité. , et le filigrane du contenu généré par l’IA.

Jeudi, le Département américain du Commerce, l’agence mère du NIST, a révélé à la fois le développement de l’AISIC et une liste de plus de 200 entreprises et sociétés participantes. Amazon.com, l’Université Carnegie Mellon, l’Université Duke, la Free Software Application Structure et Visa sont tous membres de l’AISIC, en plus de nombreux développeurs importants d’outils d’IA, notamment Apple, Google, Microsoft et OpenAI.

Le consortium « veillera à ce que l’Amérique soit en tête du peloton » dans l’établissement de normes de sécurité pour l’IA tout en encourageant l’innovation, a déclaré le secrétaire américain au Commerce. » a déclaré Gina Raimondo dans une déclaration. « Ensemble, nous pouvons relever ces défis pour établir les mesures et les normes dont nous avons besoin pour maintenir l’avantage concurrentiel de l’Amérique et développer l’IA de manière responsable. »

En plus de la déclaration du nouveau consortium, l’administration Biden a nommé cette semaine Elizabeth. Kelly, ancien consultant en politique financière du président, en tant que directeur du tout nouveau U.S. Artificial Intelligence Security Institute (USAISI), une organisation au sein du NIST qui hébergera l’AISIC.

Il n’est pas clair si le travail du syndicat aboutira dans des politiques ou des lois toutes nouvelles. Alors que le président a publié le 30 octobre un décret sur la sécurité de l’IA, le calendrier des travaux du consortium est incertain. Si Biden perd l’élection présidentielle plus tard cette année, la dynamique des politiques en matière d’IA pourrait s’arrêter.

Néanmoins, le récent décret de Biden suggère qu’une certaine réglementation est nécessaire. « Exploiter l’IA pour l’excellence et comprendre ses innombrables avantages nécessite d’atténuer ses risques considérables », indique le décret. « Cet effort exige un effort à l’échelle de la société, incluant le gouvernement, le secteur privé, la communauté universitaire et la société civile. »

Parmi les objectifs de Biden :

  • Exiger des développeurs d’IA systèmes pour partager leurs résultats de tests de sécurité avec le gouvernement fédéral américain.
  • Développer des normes, des outils et des tests pour garantir que les systèmes d’IA sont sûrs, sécurisés et dignes de confiance.
  • Protégez les citoyens américains contre les escroqueries et les tromperies basées sur l’IA.
  • Établissez un programme de cybersécurité pour établir des outils d’IA permettant de découvrir et de corriger les vulnérabilités des logiciels cruciaux.

L’AI Security Institute Le Consortium recherche les contributions de ses membres dans bon nombre de ces endroits, notamment en ce qui concerne le développement d’outils de test et les exigences de l’industrie pour une mise en œuvre sécurisée de l’IA.

Les législateurs ont en fait introduit de nombreux coûts liés à l’IA au Congrès américain lors du Congrès américain. la session 2023-24. L’Expert System Bug Bounty Act obligerait le ministère de la Défense à produire un programme de bug bounty pour les outils d’IA qu’il utilise. La loi sur le blocage du nucléaire par l’introduction d’un système expert autonome interdirait l’utilisation de fonds fédéraux pour des systèmes d’armes autonomes capables de libérer des armes nucléaires sans intervention humaine significative. Toutefois, au cours d’une année électorale, il est difficile de faire passer les coûts au Congrès.

Un certain nombre de personnes, dont et Stephen Hawking, ont soulevé de nombreuses questions concernant l’IA, y compris la menace lointaine que l’IA finira par prendre le contrôle du monde. Les préoccupations à plus court terme consistent à utiliser l’IA pour développer des armes biologiques, de toutes nouvelles cyberattaques ou des projets de désinformation.

D’autres, dont le capital-risqueur Marc Andreessen, ont suggéré que de nombreuses questions concernant l’IA sont exagérées.

Andreessen, dans un article de prolongé du 6 juin 2023, a soutenu que l’IA préserverait le monde. Il n’a exigé aucune barrière réglementaire « quelle qu’elle soit » sur le développement de l’IA open source, en raison des avantages pour les étudiants qui apprennent à construire des systèmes d’IA.

Cependant, écrit-il, les opportunistes ayant une chance de gagner de l’argent grâce à la politique ont a en fait développé une « panique morale » concernant les dangers de l’IA comme moyen d’imposer de toutes nouvelles contraintes, réglementations et lois. Les dirigeants des sociétés d’IA existantes « sont susceptibles de gagner plus d’argent si des barrières réglementaires sont érigées pour former un cartel de fournisseurs d’IA bénis par le gouvernement et sécurisés par de toutes nouvelles start-ups et concurrents open source. »

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici