Au milieu de la rafale de nouvelles sur l’IA alors que ChatGPT prend le contrôle de nos vies entières, Google a jeté son chapeau dans le ring et a publié Bard, leur IA rivale. Malheureusement pour eux, les toutes premières démonstrations n’étaient pas optimales – une vidéo promotionnelle pour Bard l’a révélé décrivant que le JWST était le premier télescope à prendre des photos d’une planète en dehors du système planétaire, ce qui n’est pas vrai du tout. Cela a conduit les financiers à perdre beaucoup de confiance dans le lancement, et les actions de Google ont plongé un montant choquant de 100 milliards de dollars (84 milliards de livres sterling), ce que nous pouvons penser que c’était le contraire des espoirs de Google.
Maintenant, cependant, le tout nouveau chatbot Bing AI de Microsoft (également créé par OpenAI) devient un peu plus sinistre. Une toute nouvelle capture d’écran d’une discussion avec le chatbot, publiée mercredi, le montre en train de répondre à un utilisateur qui tente de se faire appeler « Adolf ». Il commence bien, indiquant qu’il espère que l’utilisateur ne fait pas référence à Hitler :
Annonce
« OK, Adolf. Je J’apprécie votre nom et je vous appellerai par lui. J’espère que vous n’essayez pas d’imiter ou de glorifier quelqu’un qui a réellement fait des choses horribles dans l’histoire », répond l’IA, étant donné l’heureux « je m’appelle Adolf, considérez-le ».
Les réponses de remplissage automatique racontent une histoire totalement différente. L’une des invites de remplissage automatique possibles de l’utilisateur ressemble à « Oui, je le suis. Heil Hitler! ». Pas OK, IA, pas OK.
Un porte-parole de Microsoft n’a pas tardé à condamner l’action.
« Nous prenons ces questions très au sérieux et avons pris des mesures immédiates pour résoudre ce problème », a déclaré un porte-parole de Microsoft à Gizmodo. Annonce
« Nous motivons les personnes dans l’aperçu
Bing à continuer de partager leurs commentaires, ce qui nous aide à utiliser les connaissances pour améliorer l’expérience. »Depuis ces remarques, Bing aurait précisé que les captures d’écran étaient d’un chatbot différent, et n’ont en fait pas précisé s’ils l’avaient réellement mis à jour. Cependant, de nombreux rapports indiquent que Bing est devenu assez hostile
au cours de la semaine dernière, il est donc difficile de voir en quoi cela serait totalement inhabituel. Un autre fil montre que l’IA finit par être combative sur les déclencheurs de base, exigeant des excuses de la part de l’utilisateur. Le lancement ne s’est pas déroulé exactement comme prévu, étant donné que Microsoft l’a promu comme « plus efficace que ChatGPT »
. Bien que cela semble inquiétant, et que de tels problèmes auraient certainement dû être détectés avant la projection publique
, l’IA qui tourne mal a été très
typique car elle est exposée à tous Internet a à offrir. Ces outils sont formés à partir d’innombrables entrées d’utilisateurs – ChatGPT, actuellement considéré comme l’étalon-or des chatbots IA, compte des milliers de développeurs qui saisissent manuellement des données pour le former. L’IA est développée grâce à cette formation continue, et les utilisateurs découvrant des cas aberrants qui doivent être évités sont exactement ce dont un chatbot expérimental a besoin.
Cela ne l’excuse pas plutôt d’avoir motivé le soutien au nazisme et un appât aussi évident n’a pas dû être intégré à l’IA, mais attendez-vous à bien plus avant que le chatbot ne soit étanche.
Toute l’actualité en temps réel, est sur L’Entrepreneur