dimanche, 28 avril 2024

Les dirigeants mondiaux se démènent pour réglementer l’avenir de l’IA

Il ne fait aucun doute que le rythme du développement de l’IA s’est accéléré au cours de l’année dernière. En raison des progrès technologiques rapides, l’idée selon laquelle l’IA pourrait un jour être plus intelligente que les humains est passée de la science-fiction à une réalité plausible à court terme.

Geoffrey Hinton, lauréat du prix Turing, a conclu en mai que le moment où l’IA pourrait être plus intelligente que les humains n’était pas dans 50 à 60 ans comme il l’avait initialement pensé – mais peut-être en 2028. De plus, le co-fondateur de DeepMind, Shane Legg a déclaré récemment qu’il pense qu’il y a une chance sur deux d’atteindre l’intelligence générale artificielle (AGI) d’ici 2028. (AGI fait référence au moment où les systèmes d’IA possèdent des capacités cognitives générales et peuvent effectuer des tâches intellectuelles au niveau des humains ou au-delà, plutôt que étant étroitement concentré sur l’accomplissement de fonctions spécifiques, comme cela a été le cas jusqu’à présent.)

Cette possibilité à court terme a suscité des débats animés – et parfois houleux – sur l’IA, en particulier sur les implications éthiques et l’avenir de la réglementation. Ces débats sont passés des cercles universitaires à l’avant-plan de la politique mondiale, incitant les gouvernements, les dirigeants de l’industrie et les citoyens concernés à s’attaquer aux questions qui pourraient façonner l’avenir de l’humanité.

Ces débats ont fait un grand pas en avant avec plusieurs annonces réglementaires importantes, même si une ambiguïté considérable demeure.

Événement

L’IA libérée

Une soirée exclusive d’informations et de réseautage sur invitation uniquement, conçue pour les cadres supérieurs d’entreprise supervisant les piles de données et les stratégies.

 


En savoir plus

Le débat sur les risques existentiels de l’IA

Il n’existe guère d’accord universel sur les prédictions concernant l’IA, hormis la probabilité que de grands changements se produisent à l’avenir. Néanmoins, les débats ont suscité des spéculations sur la façon dont – et dans quelle mesure – les développements de l’IA pourraient mal tourner.

Par exemple, Sam Altman, PDG d’OpenAI a exprimé son point de vue sans détour lors d’une audience du Congrès en mai sur les dangers que l’IA pourrait engendrer. « Je pense que si cette technologie tourne mal, elle peut tourner mal. Et nous voulons le dire clairement. Nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise. »

Altman n’était pas le seul à partager ce point de vue. « Atténuer le risque d’extinction dû à l’IA devrait être une priorité mondiale, aux côtés d’autres risques à l’échelle sociétale tels que les pandémies et la guerre nucléaire », lit-on dans une seule phrase déclaration publiée fin mai par le Center for AI Safety, une organisation à but non lucratif. C’était signé par des centaines de personnes, dont Altman et 38 membres de Google< L'unité DeepMind AI de /a>. Ce point de vue a été exprimé au plus fort de la catastrophe de l’IA, lorsque les inquiétudes concernant d’éventuels risques existentiels étaient les plus répandues.

Il est certainement raisonnable de spéculer sur ces questions à l’approche de 2028 et de se demander dans quelle mesure nous sommes préparés aux risques potentiels. Cependant, tout le monde ne croit pas que les risques soient si élevés, du moins pas les risques existentiels les plus extrêmes qui motivent tant de discussions sur la réglementation.

Voix de scepticisme et d’inquiétude de l’industrie

Andrew Ng, l’ancien directeur de Google Brain, s’oppose aux scénarios apocalyptiques. Il a déclaré récemment que la « mauvaise idée que l’IA pourrait faire nous disparaissent » fusionnait avec la « mauvaise idée selon laquelle un bon moyen de rendre l’IA plus sûre est d’imposer de lourdes exigences en matière de licences » à l’industrie de l’IA.

De l’avis de Ng, il s’agit d’un moyen pour les grandes technologies de créer une capture réglementaire afin de garantir que les alternatives open source ne peut pas rivaliser. La capture réglementaire est un concept dans lequel une agence de régulation adopte des politiques qui favorisent l’industrie au détriment de l’intérêt public au sens large, dans ce cas avec des réglementations trop lourdes ou trop coûteuses à respecter pour les petites entreprises.

Yann LeCun, scientifique en chef de l’IA chez Meta – qui, comme Hinton, est lauréat du Turing Award – est allé plus loin le week-end dernier. Publication sur X, anciennement connu sous le nom de Twitter, il a affirmé qu’Altman, le PDG d’Anthropic, Dario Amodei, et le PDG de Google DeepMind, Demis Hassabis, étaient tous engageants. dans un « lobbying massif des entreprises » en promouvant des scénarios apocalyptiques d’IA qui sont « absurdes ».

L’effet net de ce lobbying, a-t-il soutenu, serait une réglementation qui limiterait effectivement les projets d’IA open source en raison des coûts élevés liés au respect des réglementations, ne laissant en réalité qu’« un petit nombre d’entreprises [qui] contrôleront l’IA ».

La poussée réglementaire

Néanmoins, la marche vers la réglementation s’accélère. En juillet, la Maison Blanche a annoncé un engagement volontaire d’OpenAI et d’autres développeurs d’IA de premier plan, notamment Anthropic, Alphabet, Meta et Microsoft, qui se sont engagés à créer des moyens de tester leurs outils de sécurité avant leur publication publique . Entreprises supplémentaires a rejoint cet engagement en septembre, portant le total à 15 entreprises.

États-Unis position du gouvernement

Cette semaine, la Maison Blanche a publié un Executive Order sur « l’intelligence artificielle sûre, sécurisée et digne de confiance », visant pour une approche équilibrée entre un développement sans entrave et une surveillance stricte.

Selon Selon Wired, l’ordonnance vise à la fois à promouvoir une utilisation plus large de l’IA et à maintenir l’IA commerciale sous contrôle plus strict, avec des dizaines de directives que les agences fédérales devront mettre en œuvre au cours de l’année prochaine. Ces directives couvrent une gamme de sujets, de la sécurité nationale et de l’immigration au logement et aux soins de santé, et imposent de nouvelles exigences aux entreprises d’IA pour qu’elles partagent les résultats des tests de sécurité avec le gouvernement fédéral.

Kevin Roose, journaliste technologique au New York Times, a noté que la commande semble avoir un un petit peu pour tout le monde, résumant la tentative de la Maison Blanche de suivre une voie médiane en matière de gouvernance de l’IA. Le cabinet de conseil EY a fourni une analyse.

Même si la législation n’est pas permanente (le prochain président peut simplement l’annuler s’il le souhaite), il s’agit d’un stratagème stratégique visant à placer le point de vue des États-Unis au centre de la course mondiale aux enjeux élevés visant à influencer l’avenir de la gouvernance de l’IA. . Selon le président Biden, le décret « est le plus important mesure qu’un gouvernement, où qu’il soit dans le monde, ait jamais pris en matière de sûreté, de sécurité et de confiance en matière d’IA. »

Ryan Heath chez Axios a commenté que « l’approche est plus la carotte que le bâton, mais elle pourrait suffire à faire passer les États-Unis devant leurs rivaux étrangers dans la course à la réglementation de l’IA ». Dans sa newsletter Platformer, Casey Newton a applaudi l’administration. Ils ont « développé suffisamment d’expertise au niveau fédéral [pour] rédiger un décret de grande envergure mais nuancé qui devrait atténuer au moins certains dommages tout en laissant une marge à l’exploration et à l’entrepreneuriat ».

La « Coupe du monde » de la politique en matière d’IA

Les États-Unis ne sont pas les seuls à prendre des mesures pour façonner l’avenir de l’IA. Le Centre pour l’IA et la politique numérique a récemment déclaré que la semaine dernière avait lieu la « Coupe du monde » de la politique en matière d’IA. Outre les États-Unis, le G7 a également annoncé un ensemble de 11 principes d’IA non contraignants, appelant « les organisations développant des systèmes d’IA avancés à s’engager à appliquer le Code de conduite international. »

À l’instar de l’ordonnance américaine, le code du G7 est conçu pour favoriser « des systèmes d’IA sûrs, sécurisés et dignes de confiance ». Cependant, comme le souligne VentureBeat, « différentes juridictions peuvent adopter leurs propres approches pour mettre en œuvre ces principes directeurs ».

La semaine dernière, lors de sa grande finale, le sommet britannique sur la sécurité de l’IA a réuni des gouvernements, des experts en recherche, des groupes de la société civile et des sociétés d’IA de premier plan du monde entier pour discuter des risques de l’IA et de la manière de les atténuer. Le sommet s’est particulièrement concentré sur les modèles « Frontier AI », les grands modèles de langage (LLM) les plus avancés avec des capacités qui se rapprochent ou dépassent les performances du niveau humain dans de multiples tâches, y compris celles développées par Alphabet, Anthropic, OpenAI et plusieurs autres sociétés.

Comme rapporté par Le New York Times, un résultat de ce conclave est le « La Déclaration de Bletchley « , signé par des représentants de 28 pays, dont les États-Unis et la Chine, qui mettent en garde contre les dangers posés par les systèmes d’IA frontaliers les plus avancés. Positionné par le gouvernement britannique comme une « première mondiale » sur la gestion de ce qu’ils considèrent comme les formes d’IA les plus risquées, la déclaration ajoute : « Nous sommes résolus à travailler ensemble de manière inclusive pour garantir une IA centrée sur l’humain, digne de confiance et responsable. »

Cependant, l’accord ne fixe aucun objectif politique spécifique. Néanmoins, David Meyer de Fortune a estimé qu’il s’agit d’un « début prometteur » pour la coopération internationale sur un sujet qui n’est apparu comme un problème sérieux que l’année dernière.

Équilibrer innovation et réglementation

À mesure que nous approchons de l’horizon défini par des experts tels que Geoffrey Hinton et Shane Legg, il est évident que les enjeux du développement de l’IA augmentent. De la Maison Blanche au G7, en passant par l’UE, les Nations Unies, la Chine et le Royaume-Uni, les cadres réglementaires sont devenus une priorité absolue. Ces premiers efforts visent à atténuer les risques tout en favorisant l’innovation, même si des questions subsistent quant à leur efficacité et leur impartialité dans leur mise en œuvre réelle.

Ce qui est tout à fait clair, c’est que l’IA est une question d’importance mondiale. Les prochaines années seront cruciales pour composer avec les complexités de cette dualité : trouver un équilibre entre la promesse d’innovations positives qui changent la vie, telles que des traitements médicaux plus efficaces et la lutte contre le changement climatique, et l’impératif de garanties éthiques et sociétales. Aux côtés des gouvernements, des entreprises et du monde universitaire, l’activisme populaire et l’implication des citoyens deviennent de plus en plus des forces vitales pour façonner l’avenir de l’IA.

Il s’agit d’un défi collectif qui façonnera non seulement l’industrie technologique mais potentiellement l’avenir de l’humanité.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline