- Voir toutes les images
Quelques jours après le PDG d’OpenAI, Sam Altman a déclaré que la société pourrait devoir cesser ses activités en Europe si les réglementations de la loi sur l’IA de l’UE étaient adoptées dans leur forme actuelle, il a en fait apparemment annulé ses remarques.
Même s’il a récemment informé les législateurs américains, il était en faveur de la gestion de l’IA, lorsqu’il s’est entretenu avec des journalistes au Royaume-Uni plus tôt aujourd’hui, Altman a déclaré qu’il avait « beaucoup de problèmes » à propos de la loi européenne sur l’IA et a même accusé le bloc de « sur-réglementer ».
OpenAI est la société soutenue par Microsoft qui a mis en place le système d’IA générative révolutionnaire mais plutôt discutable de ChatGPT.
« Nous essaierons de se conformer, mais si nous ne pouvons pas nous y conformer, nous cesserons nos activités », a déclaré Altman, selon un rapport du Financial Times. La loi est actuellement débattue par des agents du Parlement, du Conseil et de la Commission de l’UE, et devrait être finalisée l’année prochaine.
Dans un Tweet publié vendredi tôt le matin, Altman a semblé calmer la rhétorique, écrivant : « une semaine extrêmement efficace de conversations en Europe sur la meilleure façon de contrôler l’IA ! Nous sommes ravis de continuer à courir ici et n’avons évidemment aucune stratégie pour partir. »
Ses remarques précédentes avaient en fait irrité les législateurs en Europe , avec une variété de dirigeants politiques faisant valoir que le niveau de politique proposé par l’UE était nécessaire pour traiter les problèmes liés à l’IA générative.
» Soyons clairs, nos règles sont mises en place pour la sécurité et le bien-être de nos résidents et cela ne peut être négocié « , a déclaré le commissaire européen Thierry Breton à Reuters.
» L’Europe a en fait été en avance sur la courbe en développant un cadre réglementaire solide et bien équilibré pour l’IA qui traite des dangers associés aux droits essentiels ou à la sécurité, mais permet également à l’innovation pour l’Europe de devenir un précurseur en matière d’IA crédible », a-t-il déclaré.
Altman pense que contrôler l’IA serait « sensé »
S’exprimant au sous-comité judiciaire du Sénat sur la vie privée, la technologie et la loi plus tôt ce mois-ci, Altman a informé les législateurs américains que la directive serait « raisonnable » car les gens doivent comprendre s’ils parlent à un système d’IA ou s’ils regardent au matériel– images, vidéos ou fichiers– créé par un chatbot.
Lorsqu’on lui a demandé tout au long de l’audience si les résidents devaient s’inquiéter du fait que les élections pourraient être manipulées par de grandes conceptions linguistiques (LLM) telles que GPT-4 et son application de chatbot ChatGPT, Altman a déclaré que c’était l’un de ses « emplacements ». la plus préoccupante. »
« La capacité plus basique de ces modèles à manipuler, convaincre, offrir une désinformation interactive individuelle– étant donné que nous allons faire face à une élection l’année prochaine et que ces modèles s’améliorent, je pense qu’il s’agit d’un problème important », a-t-il déclaré.
« Je pense que nous aurons également besoin de règles et de normes sur ce qui est attendu en termes de divulgation d’une entreprise proposant un design qui pourrait avoir ce genre de capacités dont nous parlons. Je suis nerveux à ce sujet. »
Toute l’actualité en temps réel, est sur L’Entrepreneur