dimanche, 28 avril 2024

Biden fait la loi sur l’IA

Joe Biden

Crédit : Dreamstime

Dans un décret radical, le président des États-Unis Joseph R. Biden Jr. a établi lundi une série complète d’exigences, de défenses en matière de sécurité et de confidentialité personnelle, ainsi que de mesures de surveillance pour l’avancement et l’utilisation de l’intelligence artificielle (IA).

Parmi plus de deux douzaines d’efforts, l’ordre de Biden « Intelligence artificielle sûre, sécurisée et digne de confiance » était long à venir, selon de nombreux observateurs qui ont observé le domaine de l’IA – en particulier avec la montée en puissance de l’IA générative (genAI) l’année précédente.

Outre la sécurité et la précaution, le décret de Biden aborde les problèmes de confidentialité et de genAI des Américains liés à la prédisposition et aux libertés civiles. Les systèmes d’embauche automatisés basés sur GenAI, par exemple, se sont avérés avoir des préjugés inhérents et peuvent offrir à certains candidats des avantages en fonction de leur race ou de leur sexe.

En utilisant les directives existantes en vertu de la loi sur la production de défense, une loi datant de la guerre froide qui donne au président un pouvoir d’urgence substantiel pour contrôler les industries nationales, l’ordre nécessite que les développeurs de genAI partagent les tests de sécurité. résultats et autres détails avec le gouvernement fédéral. L’Institut national des normes et technologies (NIST) doit créer des normes pour garantir que les outils d’IA sont sûrs et sécurisés avant leur diffusion publique.

« Cette ordonnance met en évidence un changement indispensable de l’attention internationale vers le contrôle de l’IA, en particulier après le boom de l’IA générative que nous avons tous connu cette année », a déclaré Adnan Masood, architecte principal en IA de la société de services de changement numérique UST. « L’aspect le plus important de cette ordonnance est la reconnaissance claire du fait que l’IA n’est pas simplement une autre avancée technologique ; c’est un changement de paradigme qui peut redéfinir les normes sociales. « 

Reconnaître les ramifications d’une IA non traitée est un début, Masood a noté, mais les informations comptent davantage. assurez-vous que les systèmes d’IA sont sûrs et partagez les résultats de ces tests avec le public », a déclaré Masood.

L’ordonnance exige que le gouvernement fédéral américain développe un « programme de cybersécurité sophistiqué » pour développer des outils d’IA pour découvrir et corriger les vulnérabilités d’applications logicielles importantes. De plus, le Conseil de sécurité nationale doit se coordonner avec le chef d’état-major de la Maison Blanche pour garantir que la communauté militaire et du renseignement utilise l’IA en toute sécurité et moralement dans toute mission.

Le ministère américain du Commerce a été chargé de développer une assistance pour le matériel. l’authentification et le filigrane pour identifier clairement le matériel généré par l’IA, un problème qui augmente rapidement à mesure que les outils genAI deviennent compétents pour simuler l’art et d’autres matériaux. « Les agences fédérales utiliseront ces outils pour permettre aux Américains de comprendre facilement que les communications qu’ils reçoivent de leur gouvernement sont authentiques – et donneront l’exemple au secteur économique et aux gouvernements du monde entier », indique l’ordonnance.

À ce jour, les développeurs d’applications logicielles indépendants et les départements d’informatique universitaires ont mené la charge contre le vol délibéré ou involontaire des droits d’auteur et de l’art par l’IA. Progressivement, les développeurs ont construit des outils capables de filigraner des matériaux spéciaux et même des données sur les toxines consommées par les systèmes genAI, qui recherchent sur Internet des informations sur lesquelles s’entraîner.

Aujourd’hui, les responsables du Groupe des Sept (G7) ) d’importantes nations commerciales ont également convenu d’un ensemble de 11 points de principes de sécurité de l’IA et d’une procédure standard volontaire pour les développeurs d’IA. Cet ordre ressemble à l’ensemble de concepts « volontaires » que l’administration Biden a publiés plus tôt cette année ; ce dernier a été critiqué comme étant trop flou et généralement frustrant.

« À mesure que nous faisons avancer ce programme dans notre pays, l’administration traitera avec ses alliés et partenaires à l’étranger sur une structure mondiale solide pour régir le progrès et l’utilisation de l’IA,  » Le décret de Biden indique. « L’administration a déjà demandé conseil à des organismes communs sur les cadres de gouvernance de l’IA au cours des derniers mois – en collaborant avec l’Australie, le Brésil, le Canada, le Chili, l’Union européenne, la France, l’Allemagne, l’Inde, Israël, l’Italie, le Japon, le Kenya, Le Mexique, les Pays-Bas, la Nouvelle-Zélande, le Nigeria, les Philippines, Singapour, la Corée du Sud, les Émirats arabes unis et le Royaume-Uni. »

L’ordonnance de Biden cible également les entreprises qui établissent des conceptions de langage de grande envergure (LLM) qui pourraient constituer un sérieux problème. risque pour la sécurité nationale, la sécurité économique ou la santé publique ; ils seront nécessaires pour alerter le gouvernement fédéral lors de la formation de la conception et devraient partager les résultats de tous les tests de sécurité.

Avivah Litan, vice-présidente et experte différenciée de l’étude Gartner Research, a déclaré alors que les nouvelles règles entrent en vigueur. fort, avec des tests de clarté et de sécurité ciblés sur les plus grands concepteurs d’IA, les exigences échouent toujours ; ce fait reflète les limites de l’application des règles en vertu d’un décret et l’obligation pour le Congrès d’adopter des lois sur place.

Elle constate que les nouvelles exigences ne sont pas à la hauteur dans un certain nombre d’endroits :

  • Qui définit les systèmes d’IA les plus puissants ?
  • Comment cela s’applique-t-il aux conceptions d’IA open source ?
  • Comment les normes d’authentification de contenu seront-elles appliquées sur l’ensemble des réseaux sociaux plates-formes et autres sites de clients populaires ?
  • En général, quels secteurs/entreprises restent concernés lorsqu’il s’agit de respecter ces exigences et directives ?

« De même, il est Je ne vois pas très bien à quoi ressembleront les systèmes d’application, même s’ils existent. Quelle entreprise suivra et imposera ces actions ? Quelles sont les accusations en cas de non-conformité ? » » a déclaré Litan.

Masood était d’accord, affirmant que même si la Maison Blanche avait fait « un pas en avant considérable », le décret ne faisait qu’effleurer la surface d’une énorme difficulté.  » Par son style, cela nous pousse à avoir plus de questions que de réponses : qu’est-ce qui constitue un risque pour la sécurité ?  » a déclaré Masood.  » Qui gère cette prise de décision ? Comment pouvons-nous précisément tester les dangers possibles ? Plus sérieusement, comment pouvons-nous éliminer les capacités nuisibles dès leur apparition ? « 

L’ordre tente de répondre à un problème vital Il s’agit d’utiliser l’IA en bio-ingénierie. L’ordonnance imposera cette disposition simplement en utilisant les normes émergentes comme une base pour le financement fédéral des projets de sciences de la vie », a déclaré Litan. « Il faut aller plus loin et mettre en œuvre ces normes pour le capital personnel ou pour tout organisme et source de financement non fédéral (comme le capital-risque). Il faut également aller encore plus loin et décrire qui et comment ces normes seront appliquées et quelles sont les sanctions. sont pour non-conformité. »

Ritu Jyoti, vice-présidente experte de la société de recherche IDC, a déclaré que ce qui la distingue est la reconnaissance claire de Biden « que nous avons l’obligation d’exploiter la puissance de l’IA ». pour l’excellence tout en protégeant les personnes de ses dangers potentiellement étendus. « 

Plus tôt cette année, le Parlement européen a autorisé un projet de loi sur l’IA. La loi proposée a besoin de systèmes d’IA générative comme ChatGPT pour respecter les exigences de transparence en révélant si le matériel a été généré par l’IA et pour différencier les images profondément fausses des images authentiques.

Alors que les États-Unis ont peut-être suivi l’Europe dans la création lignes directrices pour régir l’IA, Jyoti a déclaré que le gouvernement fédéral américain n’est pas toujours derrière ses alliés et que l’Europe a en fait fait un bien meilleur travail en matière d’établissement de garde-fous. « Je pense qu’il existe une opportunité pour les pays du monde entier d’interagir sur la gouvernance de l’IA pour le bien social », a-t-elle déclaré.

Litan n’était pas d’accord, affirmant que la loi européenne sur l’IA était en avance sur le décret présidentiel en raison de la Le fait que les lignes directrices européennes clarifient le champ d’activité auquel elles s’appliquent, « ce qu’elles peuvent faire sous forme de réglementation, c’est-à-dire qu’elles s’appliquent à tous les systèmes d’IA mis sur le marché, mis en service ou utilisés dans l’UE », a-t-elle déclaré. a déclaré.

Caitlin Fennessy, vice-présidente et directrice des connaissances de l’Association internationale des professionnels de la vie privée (IAPP), un groupe de défense à but non lucratif, a déclaré que les exigences de la Maison Blanche définiront les attentes du marché en matière d’IA responsable grâce à la sélection. et les exigences de transparence.

Fennessy a également applaudi les efforts du gouvernement américain en matière de filigrane numérique pour le contenu généré par l’IA et les normes de sécurité de l’IA pour les marchés publics, parmi de nombreuses autres mesures.

« Notamment, le président a combiné cette ordonnance avec l’exigence que le Congrès adopte une législation bipartite sur la confidentialité, soulignant le lien critique entre la confidentialité et la gouvernance de l’IA », a déclaré Fennessy. « Tirer parti de la loi sur la production de défense pour contrôler l’IA explique l’importance des dangers envisagés pour la sécurité nationale et l’urgence que l’administration ressent pour agir. » La Maison Blanche a fait valoir que l’ordonnance contribuerait à promouvoir un « environnement d’IA juste, ouvert et compétitif », en garantissant que les petits développeurs et propriétaires d’entreprises aient accès à un support technique et à des ressources, en aidant les petites entreprises à commercialiser les avancées de l’IA et en motivant la Federal Trade Commission à exercer son autorité.

Les questions de migration et de visas de travail ont également été résolues par la Maison Blanche, qui a déclaré qu’elle utiliserait les autorités d’immigration existantes pour élargir la capacité des immigrants et des non-immigrants hautement qualifiés et compétents dans des domaines vitaux à étudier, à rester. , et opèrent aux États-Unis, « en modernisant et en améliorant les critères de visa, les entretiens et les évaluations ».

Le gouvernement américain, a déclaré Fennessy, montre l’exemple en travaillant rapidement avec des professionnels pour construire et gouverner l’IA et proposant une formation en IA dans les agences gouvernementales.

« L’accent mis sur les spécialistes de la gouvernance de l’IA et la formation garantira que les mesures de sécurité de l’IA sont développées avec une compréhension approfondie de la technologie et du contexte d’utilisation requis pour permettre au développement de se poursuivre au rythme de tels une manière en laquelle nous pouvons avoir confiance », a-t-il déclaré.

Jaysen Gillespie, responsable de l’analyse et de la science des données chez RTB House, une société de marketing basée sur l’IA basée en Pologne, a déclaré que Biden partait d’une position avantageuse en raison du fait que même la plupart des dirigeants d’entreprises d’IA conviennent qu’une certaine politique est nécessaire. Il est également très probable qu’il bénéficiera, a déclaré Gillespie, de toute pollinisation croisée des discussions que le chef de la majorité sénatoriale Chuck Schumer (Démocrate-NY) a effectivement eu et continue d’avoir avec des chefs d’entreprise essentiels.

« Les lignes directrices sur l’IA semblent également être l’un des rares sujets où une méthode bipartite pourrait être vraiment possible », a déclaré Gillespie, dont l’entreprise utilise l’IA dans le marketing ciblé, consistant en des techniques de reciblage et d’enchères en temps réel. « Compte tenu du contexte derrière son futur décret, le président a une réelle opportunité d’établir un leadership – à la fois individuel et pour les États-Unis – sur ce qui pourrait être le sujet le plus crucial de ce siècle. »

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline