Dimanche soir, le sénateur Chris Murphy (D-CT) a tweeté une affirmation choquante à propos de ChatGPT – que le modèle « a appris » à faire de la chimie avancée – et les chercheurs en IA ont immédiatement repoussé avec frustration : « Votre description de ChatGPT est dangereusement mal renseignée », Melanie Mitchell, chercheuse en IA et professeure au Institut Santa Fe, a écrit dans un tweet. « Chaque phrase est incorrecte. J’espère que vous en apprendrez plus sur le fonctionnement réel de ce système, comment il a été formé et quelles sont ses limites. »
Suresh Venkatasubramanian, ancien conseiller politique de la Maison Blanche en matière d’IA auprès de la < a href="https://lentrepreneur.co/tag/joe-biden" data-internallinksmanager029f6b8e52c="19" title="Joe Biden">Biden Administration de 2021-2022 (où il a aidé à développer The Blueprint for an AI Bill of Rights) et professeur d’informatique à l’Université Brown, a déclaré que les tweets de Murphy « perpétuent la peur autour de l’IA générative ». Venkatasubramanian a récemment partagé ses réflexions avec VentureBeat lors d’un entretien téléphonique. Il a parlé des dangers de perpétuer des discussions sur l’IA « sensible » qui n’existe pas, ainsi que de ce qu’il considère comme une campagne organisée autour de la désinformation sur l’IA. (Cette interview a été éditée et condensée pour plus de clarté.)
VentureBeat : Que pensez-vous des tweets de Christopher Murphy ?
Suresh Venkatasubramanian : Dans l’ensemble, je pense que les commentaires du sénateur sont décevants car ils perpétuent la peur autour des systèmes d’IA générative qui ne sont pas très constructifs et empêchent nous de nous attaquer réellement aux vrais problèmes des systèmes d’IA qui ne sont pas génératifs. Et dans la mesure où il y a un problème, c’est avec la partie générative et non la partie IA. Et aucune intelligence extraterrestre ne vient pour nous, malgré ce que vous avez tous entendu. Désolé, j’essaie d’être poli, mais j’ai un peu de mal.
Événement
Transformer 2023
Rejoignez-nous à San Francisco les 11 et 12 juillet, où des cadres supérieurs expliqueront comment ils ont intégré et optimisé les investissements dans l’IA pour réussir et éviter les pièges courants.
VB : Qu’avez-vous pensé de sa réponse à la réponse, où il maintenait toujours que quelque chose arrivait et que nous ne sommes pas prêts ?
Venkatasubramanian : je dirais que quelque chose est déjà là et que nous n’y étions pas prêts et que nous devrions faire quelque chose à ce sujet, plutôt que de nous inquiéter d’un hypothétique qui pourrait arriver et qui n’est pas arrivé encore rien fait. Concentrez-vous sur les méfaits déjà observés avec l’IA, puis inquiétez-vous de la prise de contrôle potentielle de l’univers par l’IA générative.
VB : Cela m’a fait penser à notre conversation de la semaine dernière ou de la semaine précédente où vous avez parlé d’ mauvaise communication entre les responsables des politiques et les responsables techniques. Avez-vous l’impression que cela relève de ce contexte ?
Venkatasubramanian : C’est pire. Ce n’est pas de la désinformation, c’est de la désinformation. En d’autres termes, c’est manifeste et organisé. C’est une campagne organisée de peur. Je dois comprendre à quelle fin, mais j’ai l’impression que le but, le cas échéant, est de pousser une réaction contre l’IA sensible qui n’existe pas afin que nous puissions ignorer tous les vrais problèmes de l’IA qui existent. Je pense que c’est terrible. Je pense que cela corrompt vraiment notre discours politique sur les impacts réels de l’IA – vous savez, lorsque les contribuables noirs sont audités trois fois plus que les contribuables blancs, ce n’est pas un problème d’IA sensible. C’est un problème de système de décision automatisé. Nous devons résoudre ce problème.
VB : Pensez-vous que le sénateur Murphy ne comprend tout simplement pas, ou pensez-vous qu’il essaie en fait de promouvoir la désinformation ?
Venkatasubramanian : je ne pense pas que le sénateur essaie de promouvoir la désinformation. Je pense qu’il est juste vraiment inquiet. Je pense que tout le monde est généralement concerné. ChatGPT a annoncé une nouvelle démocratisation de la peur. Ceux d’entre nous qui ont été effrayés et terrifiés au cours de la dernière décennie environ sont maintenant rejoints par tout le monde dans le pays grâce à ChatGPT. Ils voient donc maintenant ce qui nous préoccupe depuis longtemps. Je pense que c’est bien d’avoir ce niveau d’élévation des préoccupations autour de l’IA. Je souhaite juste que le sénateur ne tombe pas dans le piège tendu par la rhétorique autour de l’intelligence extraterrestre qui a franchement forcé des personnes autrement réfléchies à y succomber. Lorsque vous obtenez des articles d’opinion du New York Times rédigés par des personnes qui devraient être mieux informées, vous avez un problème.
VB : d’autres ont souligné sur Twitter que l’anthropomorphisme de ChatGPT de cette manière est également un problème. Pensez-vous que c’est un problème ?
Venkatasubramanian : il s’agit d’un choix de conception délibéré, de ChatGPT en particulier. Vous savez, Google Bard ne fait pas cela. Google Bard est un système permettant de faire des requêtes et d’obtenir des réponses. ChatGPT met trois petits points [comme si c’était] « penser » comme le fait votre message texte. ChatGPT sort les mots un par un comme s’il était en train de taper. Le système est conçu pour donner l’impression qu’il y a une personne à l’autre bout. C’est trompeur. Et ce n’est pas juste, franchement.
VB : Pensez-vous que les commentaires du sénateur Murphy sont un exemple de ce qui va venir d’autres dirigeants ayant les mêmes sources d’informations sur l’IA générative ?
Venkatasubramanian : Je pense qu’il y a encore une campagne concertée pour envoyer uniquement ce message aux personnes aux plus hauts niveaux de pouvoir. Je ne sais pas par qui. Mais quand vous avez un show-and-tell à D.C. et à San Francisco avec des contrefaçons profondes, et quand vous avez des articles d’opinion sont écrits sur la sensibilité, soit c’est une panique de masse collective, soit c’est une panique de perte collective menée par le même groupe de personnes .
Je dirai également que cela reflète ma propre frustration face au discours, où j’ai l’impression que nous allions dans la bonne direction à un moment donné et je pense que nous sommes toujours parmi les personnes les plus réfléchies et qui réfléchissent à ce sujet au gouvernement et dans les cercles politiques. Mais ChatGPT a changé le discours, ce qui me semble approprié car il a changé les choses.
Mais cela a également changé les choses d’une manière qui n’est pas utile. Parce que les hypothétiques autour de l’IA générative ne sont pas aussi critiques que les vrais méfaits. Si ChatGPT doit être utilisé, comme on le prétend, dans une hotline anti-suicide, les gens vont être blessés. Nous pouvons attendre jusque-là, ou nous pouvons commencer à dire que tout système utilisé comme ligne d’assistance téléphonique pour le suicide doit être soumis à des directives strictes. Et peu importe qu’il s’agisse de ChatGPT ou non. C’est mon propos.
La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur les technologies d’entreprise transformatrices et d’effectuer des transactions. Découvrez nos Briefings.
.
Toute l’actualité en temps réel, est sur L’Entrepreneur