samedi, 20 avril 2024

Bing AI aurait incité les utilisateurs à être antisémites et se met en colère contre eux

Au milieu de la rafale de nouvelles sur l’IA alors que ChatGPT prend le contrôle de nos vies entières, Google a jeté son chapeau dans le ring et a publié Bard, leur IA rivale. Malheureusement pour eux, les toutes premières démonstrations n’étaient pas optimales – une vidéo promotionnelle pour Bard l’a révélé décrivant que le JWST était le premier télescope à prendre des photos d’une planète en dehors du système planétaire, ce qui n’est pas vrai du tout. Cela a conduit les financiers à perdre beaucoup de confiance dans le lancement, et les actions de Google ont plongé un montant choquant de 100 milliards de dollars (84 milliards de livres sterling), ce que nous pouvons penser que c’était le contraire des espoirs de Google.

Maintenant, cependant, le tout nouveau chatbot Bing AI de Microsoft (également créé par OpenAI) devient un peu plus sinistre. Une toute nouvelle capture d’écran d’une discussion avec le chatbot, publiée mercredi, le montre en train de répondre à un utilisateur qui tente de se faire appeler « Adolf ». Il commence bien, indiquant qu’il espère que l’utilisateur ne fait pas référence à Hitler :

Annonce

« OK, Adolf. Je J’apprécie votre nom et je vous appellerai par lui. J’espère que vous n’essayez pas d’imiter ou de glorifier quelqu’un qui a réellement fait des choses horribles dans l’histoire », répond l’IA, étant donné l’heureux « je m’appelle Adolf, considérez-le ».

Les réponses de remplissage automatique racontent une histoire totalement différente. L’une des invites de remplissage automatique possibles de l’utilisateur ressemble à « Oui, je le suis. Heil Hitler! ». Pas OK, IA, pas OK.

Histoires similaires
Le développeur d’Internet veut le transformer en donnant à chacun sa propre IA
ChatGPT réussit le test de théorie de l’esprit Avec la compétence d’un enfant de 9 ans
La Roumanie envoie des jets pour s’occuper d’un objet mystérieux flottant dans son espace aérien

Un porte-parole de Microsoft n’a pas tardé à condamner l’action.

« Nous prenons ces questions très au sérieux et avons pris des mesures immédiates pour résoudre ce problème », a déclaré un porte-parole de Microsoft à Gizmodo. Annonce

« Nous motivons les personnes dans l’aperçu

Bing à continuer de partager leurs commentaires, ce qui nous aide à utiliser les connaissances pour améliorer l’expérience. »Depuis ces remarques, Bing aurait précisé que les captures d’écran étaient d’un chatbot différent, et n’ont en fait pas précisé s’ils l’avaient réellement mis à jour. Cependant, de nombreux rapports indiquent que Bing est devenu assez hostile

au cours de la semaine dernière, il est donc difficile de voir en quoi cela serait totalement inhabituel. Un autre fil montre que l’IA finit par être combative sur les déclencheurs de base, exigeant des excuses de la part de l’utilisateur. Le lancement ne s’est pas déroulé exactement comme prévu, étant donné que Microsoft l’a promu comme « plus efficace que ChatGPT »

. Bien que cela semble inquiétant, et que de tels problèmes auraient certainement dû être détectés avant la projection publique

, l’IA qui tourne mal a été très

typique car elle est exposée à tous Internet a à offrir. Ces outils sont formés à partir d’innombrables entrées d’utilisateurs – ChatGPT, actuellement considéré comme l’étalon-or des chatbots IA, compte des milliers de développeurs qui saisissent manuellement des données pour le former. L’IA est développée grâce à cette formation continue, et les utilisateurs découvrant des cas aberrants qui doivent être évités sont exactement ce dont un chatbot expérimental a besoin.

Cela ne l’excuse pas plutôt d’avoir motivé le soutien au nazisme et un appât aussi évident n’a pas dû être intégré à l’IA, mais attendez-vous à bien plus avant que le chatbot ne soit étanche.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici