Au cours de sa conférence TED 2023, l’informaticienne Yejin Choi a fait une déclaration relativement contradictoire lorsqu’elle a déclaré : « L’IA aujourd’hui est incroyablement intelligente et après cela, d’une stupidité choquante. » Comment quelque chose pourrait-il être stupide ?
En soi, l’IA – composée d’IA générative – n’est pas développée pour fournir des détails précis, spécifiques au contexte et orientés vers une tâche particulière. En vérité, déterminer une conception dans cette méthode est une course folle. Considérez ces conceptions comme étant axées sur la pertinence en fonction de ce qu’elle a vécu, puis en créant des actions sur ces théories probables.
C’est pourquoi, alors que L’IA générative continue de nous charmer par sa créativité, elle échoue fréquemment face aux exigences B2B. Bien sûr, il est judicieux que ChatGPT transforme la copie des médias sociaux en rap, mais s’il n’est pas poursuivi en laisse courte, l’IA générative peut le faire. C’est à ce moment que la conception produit des informations incorrectes déguisées en faits. Quel que soit le marché sur lequel se trouve une entreprise, ces failles dramatiques sont certainement mauvaises pour les affaires.
L’essentiel pour une IA générative prête pour l’entreprise reste la structuration rigoureuse des informations afin qu’elles offrent un contexte approprié, qui peut ensuite être exploité pour former des grands modèles de langage (LLM) hautement raffinés. Un équilibre bien chorégraphié entre des LLM raffinés, une automatisation actionnable et des points de contrôle humains sélectionnés forme de solides structures anti-hallucinations qui permettent à l’IA générative de fournir de bons résultats qui créent une véritable valeur d’entreprise B2B.
Occasion
Changement 2023
Rejoignez-nous à San Francisco les 11 et 12 juillet, où des cadres supérieurs expliqueront comment ils ont intégré et amélioré les investissements financiers dans l’IA pour réussir et éviter les erreurs typiques.
Inscrivez-vous maintenant pour
toute organisation qui
veut tirer le meilleur parti du potentiel infini de l’IA générative, voici trois structures essentielles à intégrer dans votre stack technologique. Construire de solides structures anti-hallucinations
Got It AI, une société capable d’identifier les faussetés génératives, a effectué un test et a découvert que le LLM de ChatGPT produisait des réactions incorrectes environ 20 % du temps. Ce taux d’échec élevé ne sert pas les objectifs d’un service. Donc, pour résoudre ce problème et empêcher l’IA générative d’halluciner, vous ne pouvez pas la laisser fonctionner dans le vide. Il est nécessaire que le système soit formé sur des données premium pour obtenir des résultats, et qu’il soit fréquemment surveillé par des personnes. Au fil du temps, ces boucles de rétroaction peuvent aider les erreurs appropriées et améliorer la précision de la conception. Il est crucial que l’écriture magnifique de l’IA générative soit connectée à un système orienté contexte et axé sur les résultats. La phase initiale du système de toute entreprise est l’ardoise vierge qui ingère des informations personnalisées pour une entreprise et ses objectifs particuliers. L’étape intermédiaire est le cœur d’un système bien conçu, qui comprend un réglage approfondi du LLM. OpenAI décrit le réglage fin des conceptions comme « une technique efficace pour produire une toute nouvelle conception spécifique à votre cas d’utilisation ». Cela se produit en prenant la méthode normale de l’IA générative et des modèles de formation sur de nombreux autres exemples spécifiques au cas, obtenant ainsi de meilleurs résultats. À ce stade, les entreprises ont le choix entre l’utilisation d’un mélange d’automatisation codée en dur et de LLM affinés. Bien que la chorégraphie puisse être différente d’une
entreprise à l’autre, tirer parti de chaque innovation à sa force garantit les résultats les plus adaptés au contexte. Une fois que tout est configuré sur le back-end, il est temps de laisser l’IA générative briller vraiment dans l’interaction avec l’extérieur. Non seulement les réponses sont développées rapidement et extrêmement précises, mais elles fournissent également un ton personnel sans lutter contre la fatigue de l’empathie. Orchestrez l’innovation avec des points de contrôle humains En gérant de nombreux leviers technologiques, toute entreprise peut offrir les vérités structurées et le contexte nécessaires pour permettre aux LLM de faire ce qu’ils font le mieux.
Les dirigeants doivent reconnaître les tâches exigeantes en calcul pour les êtres humains, mais simples pour l’automatisation, et vice versa. Ensuite, tenez compte de l’endroit où l’IA est bien meilleure que les deux. Essentiellement, n’utilisez pas l’IA lorsqu’un service plus simple, comme l’automatisation ou même l’effort humain, suffira. Lors d’une discussion avec le PDG d’OpenAI, Sam Altman, lors des Stripe Sessions à San Francisco, le créateur de Stripe, John Collison, a déclaré que Stripe utilise le GPT-4 d’OpenAI » partout où quelqu’un effectue un travail manuel ou s’occupe d’une série de tâches.
» Les entreprises doivent utiliser l’automatisation pour effectuer le sale boulot, comme agréger des détails et passer au peigne fin des documents spécifiques à l’entreprise. Ils peuvent également coder en dur des exigences concluantes en noir et blanc, comme les politiques de retour. Ce n’est qu’après avoir établi cette base solide qu’elle est prête pour l’IA générative. En raison du fait que les entrées sont hautement organisées avant que l’IA générative ne touche les informations, les systèmes sont mis en place pour s’attaquer précisément à plus de complexité. Garder les êtres humains au courant est toujours essentiel pour valider la précision de la sortie du modèle
, ainsi que pour fournir des commentaires sur le modèle et corriger les résultats si nécessaire. Mesurer les résultats via l’ouverture À l’heure actuelle, les LLM sont des boîtes noires. Lors du lancement de GPT-4, OpenAI a précisé que « Compte tenu à la fois du paysage concurrentiel et des implications de sécurité des conceptions à grande échelle comme GPT-4, ce rapport ne contient pas plus de détails sur l’architecture (comprenant la taille de la conception), le matériel, la formation
calcul, construction d’ensembles de données, formation
technique, ou comparable. « Bien qu’il y ait eu quelques progrès pour rendre les modèles moins opaques, la façon dont le modèle fonctionne est encore plutôt un mystère. Non seulement il est incertain de ce qui se cache sous le capot, mais il est également ambigu de savoir quelle est la différence entre les conceptions – autres que les dépenses et la façon dont vous interagissez avec elles – parce que l’industrie dans son ensemble n’a pas de mesures d’efficacité normalisées. Il y a maintenant des entreprises qui changent cela et apportent de la clarté dans les conceptions d’IA génératives. Ces mesures d’efficacité standardisées présentent des avantages pour l’entreprise en aval. Des entreprises comme Gentrace relient les données aux commentaires des clients afin que tout le monde puisse voir à quel point un LLM s’est bien comporté pour les sorties d’IA génératives. D’autres entreprises comme Paperplane.ai vont encore plus loin en enregistrant des informations génératives sur l’IA et en les reliant aux commentaires des utilisateurs afin que les dirigeants puissent évaluer progressivement la qualité, la vitesse et les dépenses des versions.
Toute l’actualité en temps réel, est sur L’Entrepreneur