mardi, 16 avril 2024

Google fournit la prise en charge de Gemini LLM à l’entrepôt de données BigQuery

Google intègre son grand modèle de langage Gemini 1.0 Pro à sa plateforme d’IA et d’apprentissage automatique, Vertex AI, pour aider les entreprises à ouvrir de toutes nouvelles capacités de grands modèles de langage (LLM), consistant en l’analyse de texte, d’images. et vidéo.

L’API Gemini, qui a été rendue couramment proposée, peut également être utilisée dans le service de stockage d’informations de Google, BigQuery, pour développer des applications analytiques génératives basées sur l’IA.

« La conception Gemini 1.0 Pro est créée pour une échelle d’entrée-sortie plus élevée et une bien meilleure qualité des résultats dans un large éventail de tâches telles que la synthèse de texte et l’analyse des sentiments. Vous pouvez désormais y accéder à l’aide de simples déclarations SQL ou de l’API DataFrame intégrée de BigQuery depuis le meilleur site Web. Console BigQuery », a déclaré Gerrit Kazmaier, responsable de base de l’analyse des données chez Google Cloud, dans une déclaration.

La société devrait également intégrer la version vision du modèle Gemini Pro. dans les mois à venir.

En outre, Google étend les API de traitement de documents et de synthèse vocale de Vertex AI à BigQuery pour aider les entreprises à examiner les données non structurées, telles que les documents et l’audio.

Plus tôt ce mois-ci, l’entreprise a dévoilé un aperçu de la recherche vectorielle BigQuery, qui, lorsqu’elle est intégrée à Vertex AI, peut rendre possible la recherche de ressemblance vectorielle sur les données dans BigQuery en plus d’autres fonctions telles que la génération augmentée par récupération (RAG), le clustering de texte. et résumé.

Hyoun Park, expert principal chez Amalgam Insights, considère l’assistance de RAG comme un enjeu de table pour les fournisseurs d’installations de stockage de données de nos jours.

« La génération améliorée de récupération est une capacité pour chaque stockage de données. « L’installation aura besoin de soutien, car cela fait référence à l’accès à des informations provenant d’une source tierce lorsque quelqu’un pose une question », a déclaré Park. « Par exemple, si quelqu’un pose une question relative aux ressources humaines, le RAG demandera également au système RH du membre du personnel des informations pertinentes et existantes pour contextualiser la préoccupation. La capacité pertinente ici est d’accéder à une mise à jour en temps réel d’une table ou d’une source de données particulière. quand quelqu’un pose une question à un LLM. »

D’autres entreprises suivent des instructions similaires. Steven Dickens, vice-président et responsable de la pratique chez The Futurum Group, a déclaré que les piliers des installations de stockage tels que Teradata et Cloudera ajoutent également des capacités vectorielles aux côtés d’acteurs tels qu’Oracle et Elastic.

Lisez ensuite ceci :

  • Pourquoi les entreprises abandonnent le cloud
  • 5 méthodes simples pour exécuter un LLM localement
  • Codage avec l’IA : conseils et bonnes pratiques des concepteurs
  • Rencontrez Zig : l’option moderne du C
  • Qu’est-ce que l’IA générative ? Système expert qui produit
  • Les meilleurs logiciels open source de 2023

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici