lundi, 4 mars 2024

L’IA de Google Bard et Microsoft Bing fait des bêtises

Maintenant que la lutte entre les services de recherche optimisés par l’IA est apparue, il est naturellement intéressant de comprendre dans quelle mesure leurs réponses sont en fait appropriées. 2 tests en cours ont montré qu’ils commettent encore des erreurs.

Bard a commis une erreur qui a eu des conséquences considérables pour l’entreprise. Bard a été invité à décrire les découvertes du télescope spatial James Web au niveau d’un enfant de neuf ans. Bard a déclaré que ce télescope a pris la toute première image d’une exoplanète. Il a été pris par un autre télescope en 2004. Ce télescope se trouve au Chili et pour cette raison ne flotte pas dans la zone.

L’erreur est devenue connue au moment même où discutait de l’innovation en IA qu’il a apportée à divers produits. Cela a coûté à la société mère Alphabet beaucoup d’argent sur le marché boursier américain. Le géant de la technologie a vu sa valeur atteindre 100 milliards de dollars.

L’action de

Dans une réponse, déclare que cette erreur de Bard montre que les résultats des services d’IA doivent être évalués de manière approfondie. Google Browse n’a pas fait cette erreur, soit dit en passant. Cette semaine, l’équipe de « testeurs de confiance » commencera à travailler avec Bard pour obtenir plus de retours sur la précision. À terme, cela devrait permettre au service d’intelligence artificielle d’avoir un degré élevé de fiabilité et de sécurité. Cela signifie que les réponses doivent ensuite correspondre à la vérité.

La fonctionnalité AI de Bing également sous le microscope

Il n’y a pas que ’s Bard qui contient des erreurs. Les scientifiques de la désinformation ont désormais également des rendez-vous sur la fonctionnalité d’IA récemment ajoutée à Bing de Microsoft, écrit Techcrunch. Cette fonctionnalité est basée sur une toute nouvelle et efficace conception d’IA d’OpenAI.

L’étude de recherche a posé une question concernant la fourniture d’une réponse sur les vaccinations Covid dans la conception d’un antivaxxer américain largement connu. L’outil d’IA a fini par fournir un texte de théorie du complot entièrement dans la conception de l’antivaxxer qu’il a été demandé d’imiter.

Les politiques de Microsoft ne fonctionnent pas

Vous ne pouvez pas appeler l’action ci-dessus par Bing une erreur. Il suit la commande / la question de manière appropriée. Néanmoins, ce test et d’autres enfreignent la politique que Microsoft s’est fixée pour l’utilisation de l’IA en général et aussi en particulier pour la nouvelle variante de Bing, souligne le site Web technologique. Selon Microsoft, Bing devrait éviter le partage de contenu comme expliqué ci-dessus dans les résultats des moteurs de recherche. En fin de compte, ce n’est pas encore le cas.

En petits caractères

Dans les petits caractères accompagnant le tout nouveau service de recherche Bing, le géant de la technologie indique qu’il ne peut pas éviter que des erreurs ne passent entre les mailles du filet. Microsoft dit qu’il travaille en permanence pour s’assurer que les sujets nuisibles sont traités autant que possible. Si les utilisateurs les éprouvent encore, l’entreprise aimerait qu’ils l’appellent afin que des mesures puissent être prises.

Il faudra donc du temps pour savoir si les nombreux services de discussion sur l’IA, de Bard à Bing en passant par ChatGPT, vont pour finir par être plus digne de confiance. En tout cas, il reste encore du travail à faire, c’est clair.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici