Crédit : IDG
Aujourd’hui, lors de la conférence annuelle re: Create d’AWS, le PDG Adam Selipsky et d’autres hauts dirigeants ont annoncé de nouveaux services et mises à jour pour susciter un intérêt commercial croissant pour les systèmes d’IA générative et affronter des concurrents tels que Microsoft, Oracle, Google et IBM.
AWS, le plus grand fournisseur de cloud en termes de part de marché, souhaite profiter de l’intérêt croissant pour l’IA générative. Les entreprises devraient investir 16 milliards de dollars dans le monde dans l’IA générative et les technologies associées en 2023, selon un rapport du cabinet d’études de marché IDC. Ces coûts, qui incluent les logiciels d’IA générative ainsi que le matériel d’infrastructure et les services informatiques et commerciaux associés, devraient atteindre 143 milliards de dollars en 2027, avec un taux de développement annuel composé (TCAC) de 73,3 %. Ce développement exponentiel, selon
selon IDC, est près de 13 fois supérieur au TCAC des investissements informatiques mondiaux sur la même durée. Comme la majorité de ses concurrents, en particulier Oracle, Selipsky a exposé que la « stratégie générative d’AWS est divisée en trois niveaux : le tout premier, ou couche d’installations, pour la formation ou l’établissement de grandes conceptions de langage (LLM) ; une couche intermédiaire, qui comprend les grandes conceptions de langage de base nécessaires à la création d’applications ; et une troisième couche, qui comprend les applications qui utilisent les deux autres couches. AWS renforce l’infrastructure pour l’IA générative Les fournisseurs de cloud, qui incluent depuis l’année dernière des capacités d’infrastructure et des puces pour prendre en charge le calcul haute performance avec des performances énergétiques améliorées, ont dévoilé cette semaine les derniers modèles de ses puces Graviton et Trainium. Le processeur Graviton4, selon AWS, offre des performances de calcul jusqu’à 30 % supérieures, 50 % de cœurs en plus et 75 % de bande passante mémoire en plus que la génération actuelle
Les processeurs Graviton3. Trainium2, quant à lui, est développé pour fournir un entraînement jusqu’à quatre fois beaucoup plus rapide que les puces Trainium de première génération. Ces puces pourront être déployées dans des UltraClusters EC2 d’environ 100 000 puces, permettant ainsi d’entraîner des modèles de structure (FM) et des LLM en une partie du temps qu’ils
ont utilisé jusqu’à présent tout en améliorant les performances énergétiques jusqu’à présent. à deux fois plus que la génération précédente, a indiqué l’entreprise. Les concurrents Microsoft, Oracle, Google et IBM fabriquent tous leurs propres puces pour le calcul haute performance, y compris le travail d’IA générative. Alors que Microsoft a récemment lancé ses processeurs Maia AI Accelerator et Azure Cobalt pour les travaux de formation en conception, Oracle s’est en fait associé à Ampere pour produire ses propres puces, comme l’Oracle Ampere A1.
Auparavant, Oracle utilisait des puces Graviton. pour ses installations d’IA. La branche cloud computing de Google, Google Cloud, fabrique ses propres puces d’IA sous la forme de systèmes de traitement tensoriel (TPU), et sa toute dernière puce est la TPUv5e, qui peut être combinée à l’aide de la technologie Multislice. IBM, par l’intermédiaire de son département de recherche, s’est également penché sur une puce, appelée Northpole, capable de prendre en charge efficacement le travail génératif. Chez re: Develop, AWS a également étendu sa collaboration avec Nvidia, notamment en prenant en charge le DGX Cloud, un nouveau travail GPU nommé Ceiba et de nouvelles instances pour prendre en charge les charges de travail d’IA générative. AWS a déclaré qu’il hébergerait le cluster de GPU DGX Cloud de Nvidia, qui peut accélérer la formation de l’IA générative et des LLM pouvant aller au-delà de 1 000 milliards de spécifications. OpenAI a également utilisé le DGX Cloud pour former le LLM qui sous-tend ChatGPT.
Plus tôt en février, Nvidia avait déclaré qu’il proposerait le DGX Cloud via Oracle Cloud, Microsoft Azure, Google Cloud Platform, et d’autres sociétés de cloud computing. En mars, Oracle a annoncé une assistance pour le DGX Cloud, suivi de près par Microsoft. Les responsables de re: Invent ont également révélé que de nouveaux boîtiers Amazon EC2 G6e, notamment des GPU Nvidia L40S et des instances G6 alimentées par des GPU L4, étaient en préparation. Les GPU L4 sont réduits par rapport au Hopper H100 mais utilisent beaucoup plus d’efficacité énergétique. Ces toutes nouvelles circonstances s’adressent aux start-ups, aux entreprises et aux scientifiques souhaitant explorer l’IA. Nvidia a également partagé des stratégies pour intégrer son microservice NeMo Retriever dans AWS afin d’aider les utilisateurs à faire progresser les outils d’IA génératifs tels que les chatbots. NeMo Retriever est un microservice d’IA génératif qui permet aux entreprises de connecter des LLM personnalisés aux données commerciales, afin que l’entreprise puisse créer des actions d’IA appropriées basées sur ses propres données. De plus, AWS a déclaré qu’il serait le tout premier fournisseur de services cloud à intégrer les superpuces GH200 Grace Hopper de Nvidia dans le cloud. La plate-forme multi-nœuds Nvidia GH200 NVL32 relie 32 superpuces Grace Hopper via les interconnexions NVLink et NVSwitch de Nvidia. La plate-forme sera disponible sur les environnements Amazon Elastic Compute Cloud (EC2) connectés au moyen de la virtualisation de réseau d’Amazon (AWS
Nitro System) et du clustering hyperscale (Amazon EC2 UltraClusters). De nouvelles conceptions de fondation pour offrir plus d’options pour la structure des applications Afin de fournir davantage de modèles de structure et d’alléger la structure des applications, AWS a révélé des mises à jour des conceptions de fondation existantes au sein de son service de création d’applications d’IA générative, Amazon Bedrock. Les conceptions mises à jour apportées à Bedrock comprennent Claude 2.1 et Meta Llama 2 70B d’Anthropic, qui ont toutes deux été rendues généralement disponibles.
Amazon a également ajouté ses structures exclusives Titan Text Lite et Titan Text Express.
conçoit pour Bedrock. De plus, le fournisseur de services cloud a inclus un modèle en avant-première, Amazon Titan Image Generator, au service de création d’applications IA. Les conceptions de structure actuellement proposées dans Bedrock se composent de grands modèles de langage (LLM) issus des écuries d’AI21 Labs, Cohere Command, Meta, Anthropic et Stability AI. Ses rivaux Microsoft, Oracle, Google et IBM utilisent également de nombreuses conceptions de structure, notamment des conceptions propriétaires et open source.
Alors que Microsoft propose Llama 2 de Meta ainsi que les conceptions GPT d’OpenAI, Google propose des modèles exclusifs tels que PaLM 2, Codey, Imagen et Chirp.
Oracle, quant à lui, propose des conceptions de Cohere. AWS a également publié une toute nouvelle fonction au sein de Bedrock, baptisée Model Assessment, qui permet aux entreprises d’évaluer, de comparer et de choisir la
conception fondamentale la plus adaptée à leur cas d’utilisation et aux exigences de leur organisation. Bien qu’il ne soit pas entièrement similaire, Model Assessment peut être comparé au Design Garden de Google Vertex AI, qui est un référentiel de modèles de structure de Google et de ses partenaires. Le service OpenAI de Microsoft Azure utilise également la possibilité de sélectionner des conceptions de langages volumineux.
Les LLM peuvent également être découverts sur Azure Marketplace. Amazon Bedrock et SageMaker bénéficient de nouvelles fonctionnalités pour réduire la création d’applications. Amazon Bedrock et SageMaker ont en fait été mis à niveau par AWS non seulement pour aider à former des modèles
, mais également pour accélérer le développement d’applications. Ces mises à jour comprennent des fonctions telles que la génération améliorée de récupération (RAG), la capacité de modifier les LLM et la capacité de pré-entraîner les modèles Titan Text Lite et Titan Text Express à partir de Bedrock. AWS a également présenté SageMaker HyperPod et SageMaker Reasoning, qui aident respectivement à faire évoluer les LLM et à réduire le coût de la version IA
. Vertex AI de Google, Watsonx.ai d’IBM, Azure OpenAI de Microsoft et des fonctions spécifiques du service d’IA générative d’Oracle offrent également des fonctionnalités similaires à celles d’Amazon Bedrock, permettant notamment aux entreprises d’affiner les conceptions et la capacité RAG. De plus, Generative AI Studio de Google, qui est une suite low-code pour le réglage, la publication et le suivi des conceptions de fondations, peut être comparé à SageMaker Canvas d’AWS, une autre plate-forme low-code pour les experts en entreprise, qui a en fait été mise à jour cette semaine. pour aider à la génération de modèles. Chacune des sociétés cloud, y compris AWS, dispose également de bibliothèques d’applications logicielles
et de services tels que Guardrails pour Amazon Bedrock, pour permettre aux entreprises d’être certifiées selon les meilleures pratiques en matière de formation de données et de modèles. Amazon Q, la réponse d’AWS au Copilot piloté par GPT de Microsoft Selipsky a présenté mardi la star de la conférence re:
Create 2023 du géant du cloud : Amazon Q, la réponse de l’entreprise à l’IA générative Copilot pilotée par GPT de Microsoft assistant. L’annonce de Q par Selipsky était similaire au discours d’ouverture du PDG de Microsoft, Satya Nadella, à Ignite and Build, où il a annoncé de nombreuses intégrations et versions de Copilot
à travers une grande variété d’articles exclusifs, notamment Workplace 365 et Dynamics 365. Amazon Q peut être utilisé par les entreprises dans une gamme de fonctions, notamment le développement d’applications, la modification de code, la création d’intelligence d’entreprise, le rôle d’assistant d’IA générative pour les applications d’entreprise et l’aide aux agents du service client au moyen de l’offre Amazon Connect. Les rivaux ne sont pas loin derrière. En août, Google a également ajouté son assistant génératif basé sur l’IA, Duet AI, à la majorité de ses
services cloud, notamment l’analyse d’informations, les bases de données et la gestion des installations et des applications. De même, le service d’IA générative géré d’Oracle permet également aux entreprises d’incorporer des interfaces d’IA générative basées sur LLM dans leurs applications via une API, a déclaré la société
, ajoutant qu’elle apporterait son propre assistant d’IA générative à ses services cloud. et NetSuite. D’autres mises à jour liées à l’IA générative sur re: Create consistent en une prise en charge améliorée des bases de données vectorielles pour Amazon Bedrock. Ces bases de données incluent Amazon Aurora et MongoDB. Les autres bases de données prises en charge comprennent Pinecone, Redis Enterprise
Cloud et Vector Engine pour Amazon OpenSearch Serverless.
Toute l’actualité en temps réel, est sur L’Entrepreneur