lundi, 4 mars 2024

GenAI est très imprécis pour une utilisation professionnelle – et devient de plus en plus opaque

Crédit : Shutterstock/Jamie Jin

Big Language Models (LLM), les plateformes algorithmiques sur lesquels sont construits les outils d’IA générative (genAI) comme ChatGPT, sont extrêmement peu fiables lorsqu’ils sont connectés aux bases de données d’entreprise et finissent par être moins transparents, selon 2 études.

Une étude de recherche de l’Université de Stanford a montré que les LLM continuent de consommer d’énormes quantités d’informations et de croître en taille, la genèse des informations qu’ils utilisent finit par être plus difficile à retracer. Cela, à son tour, rend difficile pour les organisations de savoir si elles peuvent créer en toute sécurité des applications utilisant les conceptions industrielles des fondations genAI et pour les universitaires de compter sur elles pour la recherche.

Cela rend également plus difficile pour les législateurs de créer des politiques significatives pour contrôler la puissante innovation et « pour que les clients comprennent les limites de la conception ou recherchent réparation pour les préjudices provoqués », indique l’étude de Stanford.

Les LLM (également appelés modèles de fondation) tels que GPT, LLaMA et DALL-E sont apparus au cours de l’année écoulée et ont transformé l’intelligence artificielle (IA), donnant un coup de pouce à un certain nombre d’entreprises qui les explorent. en productivité et en efficacité. Ces avantages s’accompagnent d’une grande part d’imprévisibilité.

« La transparence est une condition préalable essentielle à la responsabilité publique, à l’innovation clinique et à une gouvernance fiable des innovations numériques », a déclaré Rishi Bommasani, responsable de la société au Center for Research on Structure de Stanford. Des modèles. « L’absence d’ouverture est en fait depuis longtemps un problème pour les clients des technologies numériques. « 

Université de Stanford

Par exemple, les publicités et les prix en ligne trompeurs, les pratiques salariales incertaines dans le covoiturage, les schémas obscurs qui incitent les utilisateurs à des achats inconscients et une myriade de problèmes de transparence autour du contenu en petites quantités ont produit une large communauté de désinformation sur les réseaux sociaux, a noté Bommasani.

 » Alors que la transparence autour des [modèles de structure] commerciaux diminue, nous sommes confrontés à  » des risques comparables pour la sécurité des consommateurs « , a-t-il déclaré.

Par exemple, OpenAI, qui a le mot  » open  » dans son nom, a clairement déclaré qu’il ne serait pas transparent sur la majorité des éléments. de son modèle phare, GPT-4, les chercheurs de Stanford ont gardé à l’esprit.

Pour examiner la transparence, Stanford a combiné une équipe composée de scientifiques du MIT et de Princeton pour créer un système de notation appelé Structure Model Openness Index. (FMTI). Il évalue 100 différents éléments ou signes de transparence, depuis la façon dont une entreprise développe un modèle de fondation, comment il fonctionne et comment il est utilisé en aval.

L’étude de Stanford a examiné 10 LLM et a découvert que le taux d’ouverture moyen n’était que de 37 %. LLaMA a obtenu le meilleur score, avec un classement en matière de transparence de 52 pour cent ; il a été suivi par GPT-4 et PaLM 2, qui ont obtenu respectivement 48 % et 47 %.

« Si vous n’avez pas de transparence, les régulateurs ne peuvent même pas formuler les meilleures préoccupations, et encore moins prendre des mesures dans ces domaines », a déclaré Bommasani.

Par ailleurs, presque tous les employeurs seniors (95 %) pensent que les outils genAI sont fréquemment utilisés par les employés, et plus de la moitié (53 %) déclarent que cela favorise désormais départements spécifiques de l’organisation, selon une autre étude réalisée par la société de cybersécurité et antivirus Kaspersky Laboratory. Cette étude a révélé que 59 % des dirigeants révèlent désormais de profonds problèmes concernant les menaces de sécurité liées à la genAI qui pourraient mettre en péril les informations délicates de l’entreprise et conduire à une perte de contrôle des fonctions de base des services.

« Semblable au BYOD, genAI apporte d’énormes avantages en matière de productivité aux entreprises, mais même si nos résultats révèlent que les responsables des salles de conférence reconnaissent clairement son existence dans leurs organisations, le degré de son utilisation et de sa fonction reste entouré de mystère », a déclaré David Emm, chercheur principal en sécurité chez Kaspersky, dans un communiqué. .

Le problème des LLM va plus loin que la simple ouverture ; l’exactitude générale des conceptions a en fait été remise en question presque depuis la minute où OpenAI a publié ChatGPT il y a un an.

Juan Sequeda, responsable du laboratoire d’IA d’information. world, un fournisseur de plateforme de catalogage de données, a déclaré que son entreprise vérifiait les LLM connectés aux bases de données SQL et était chargée de fournir des réponses aux préoccupations spécifiques de l’entreprise. En utilisant des données réelles des compagnies d’assurance, l’étude de recherche a montré que les LLM renvoient des réponses précises à de nombreuses demandes de services standard dans seulement 22 % du temps. Et pour les questions de niveau intermédiaire et expert, la précision a chuté à 0 %.

Le manque de normes texte-vers-SQL adaptées aux paramètres de l’entreprise pourrait affecter la capacité des LLM à réagir avec précision aux questions ou aux « invites » des utilisateurs.

« Il est entendu que les LLM manquent de contexte interne à l’entreprise, ce qui est essentiel à l’exactitude », a déclaré Sequeda. « Notre étude révèle un espace en ce qui concerne l’utilisation des LLM, en particulier avec les bases de données SQL, qui constituent la principale source d’informations structurées dans l’entreprise. Je supposerais que l’écart existe également pour d’autres bases de données. »

Entreprises investir des millions de dollars dans des installations de stockage de données cloud, des renseignements organisationnels, des outils de visualisation et des systèmes ETL et ELT, tout cela afin de mieux tirer parti des données, a gardé Sequeda à l’esprit. Être capable d’utiliser les LLM pour poser des questions sur ces informations ouvre de grandes possibilités pour améliorer les procédures telles que les indicateurs de performance cruciaux, les mesures et la planification stratégique, ou pour créer des applications totalement nouvelles qui utilisent l’expertise approfondie du domaine pour développer plus de valeur.

L’étude s’est principalement concentrée sur la réponse aux questions à l’aide de GPT-4, avec des invites zéro directement sur les bases de données SQL. Le taux de précision ? Simplement 16 %.

Le résultat net de réponses inexactes basées sur les bases de données de l’entreprise est une désintégration de la confiance. « Que se passe-t-il si vous présentez au conseil d’administration des chiffres qui ne sont pas exacts ? Ou à la SEC ? Dans chaque cas, les dépenses seraient élevées », a déclaré Sequeda.

Le problème avec les LLM est qu’ils sont des dispositifs d’analyse et de correspondance de modèles qui prédisent le mot suivant en fonction des mots qui l’ont réellement précédé. Leurs prévisions sont basées sur l’observation de modèles provenant de l’ensemble du matériel du Web ouvert. Étant donné que le Web ouvert est essentiellement un vaste ensemble de données, le LLM renverra des choses qui semblent extrêmement possibles mais qui peuvent aussi être inexactes, selon Sequeda.

« Un autre facteur est que les conceptions ne font que rendre « Si les entreprises tentent de réaliser des LLM à à une échelle considérable sans s’occuper de la précision, les efforts cesseront de fonctionner », a poursuivi Sequeda. « Les utilisateurs découvriront rapidement qu’ils ne peuvent pas compter sur les LLM et cesseront de les utiliser. Nous observons en fait une tendance similaire en matière d’informations et d’analyses depuis de nombreuses années. »

La précision des LLM est passée à 54 % lorsque des préoccupations sont posées concernant une représentation Knowledge Graph de la base de données SQL d’entreprise. « Pour cette raison, l’achat par les fournisseurs de Understanding Chart d’une plus grande précision pour les systèmes de questions-réponses basés sur LLM », a déclaré Sequeda. « On ne sait toujours pas pourquoi cela se produit, car nous ne comprenons pas ce qui se passe à l’intérieur du LLM.

« Ce que nous comprenons, c’est que si vous donnez un LLM en temps opportun avec l’ontologie cartographiée, dans un tableau de connaissances, qui comprend le contexte vital de l’organisation, la précision est 3 fois plus élevée que si vous ne le faisiez pas », a poursuivi Sequeda. « Cependant, il est nécessaire de se demander ce qu’indique ‘suffisamment précis’ ?’ p>

Pour augmenter la possibilité d’actions précises de la part des LLM, les entreprises doivent disposer d’une « structure d’information solide », ou ce que Sequeda et d’autres appellent des données prêtes pour l’IA ; cela indique que les données sont cartographiées dans un tableau de connaissances pour augmenter la précision des réactions et pour s’assurer qu’il y a une explicabilité, « ce qui signifie que vous pouvez faire en sorte que le LLM révèle son travail. »

Une autre méthode pour améliorer la précision de la conception consisterait à utiliser des petits modèles de langage (SLM) ou peut-être des modèles linguistiques spécifiques à l’industrie (ILM). « Je pourrais imaginer un avenir dans lequel chaque entreprise exploitera une variété de LLM particuliers, chacun étant adapté à des types particuliers de réponses aux questions », a déclaré Sequeda.
« Néanmoins, la méthode reste exactement la même : anticiper le mot suivant. Cette prédiction peut être élevée, mais il y aura toujours une chance que la prédiction soit fausse. »

Toutes les entreprises doit également garantir la surveillance et la gouvernance pour empêcher que les informations sensibles et exclusives ne soient menacées par des modèles qui ne sont pas prévisibles, a déclaré Sequada.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici