vendredi, 1 mars 2024

AWS re:Invent 2023 : 7 points à retenir du grand événement annuel

Lors de la conférence AWS re: Invent la semaine dernière, les projecteurs étaient concentrés sur l’intelligence artificielle, avec le tout nouvel assistant d’IA générative, Amazon Q, faisant ses débuts en tant que star du programme. De nombreuses autres nouveautés ont suscité l’intérêt des superviseurs de bases de données, des data scientists, des ingénieurs de données et des concepteurs, notamment de nouveaux services d’extraction, de modification et de chargement (ETL), un tout nouveau hub d’optimisation des coûts et un niveau de tarifs professionnels remanié pour AWS. outil de développement basé sur le cloud, appelé Amazon CodeCatalyst.

Voici 7 points cruciaux à retenir de la conférence :

Une infrastructure renforcée pour l’IA générative

Le fournisseur de services cloud, qui a en fait ajouté des capacités d’installations et des puces depuis l’année dernière pour prendre en charge le calcul haute performance avec des performances énergétiques améliorées, a annoncé les derniers modèles de ses puces Graviton et Trainium.

Le processeur Graviton4, selon AWS, offre des performances de calcul jusqu’à 30 % supérieures, 50 % de cœurs en plus et 75 % de bande passante mémoire en plus que les processeurs Graviton3 de la génération existante.

Trainium2, d’autre part, est développé pour offrir une formation jusqu’à quatre fois plus rapide que les puces Trainium de première génération.

Chez re: Invent, AWS a également étendu sa collaboration avec Nvidia, consistant en la prise en charge du DGX Cloud, un tout nouveau GPU tâche appelée Ceiba et de toutes nouvelles instances pour prendre en charge le travail d’IA générative.

Nvidia a également partagé des stratégies pour intégrer son microservice NeMo Retriever dans AWS afin d’aider les utilisateurs dans le développement d’outils d’IA générative tels que les chatbots. NeMo Retriever est un microservice d’IA génératif qui permet aux entreprises de connecter des modèles de langage étendus (LLM) personnalisés aux données commerciales, afin que l’entreprise puisse produire des réactions d’IA correctes en fonction de ses propres informations.

Encore plus, AWS a déclaré qu’il serait le tout premier fournisseur de services cloud à intégrer les superpuces GH200 Grace Hopper de Nvidia dans le cloud.

Nouvelles conceptions de base pour Amazon Bedrock

Les modèles mis à niveau ajoutés à Bedrock comprennent les modèles Anthropic. Claude 2.1 et Meta Llama 2 70B, tous deux habituellement proposés. Amazon a également inclus ses modèles de base propriétaires Titan Text Lite et Titan Text Express dans Bedrock.

De plus, le fournisseur de services cloud a ajouté un design en avant-première, Amazon Titan Image Generator, à l’application d’IA. service de création.

AWS a également lancé une nouvelle fonction au sein de Bedrock qui permet aux entreprises d’évaluer, de comparer et de choisir le meilleur modèle de base pour leur cas d’utilisation et leurs besoins de services.

Appelée Model Assessment sur Amazon Bedrock et actuellement en version préliminaire, la fonctionnalité vise à rationaliser plusieurs tâches telles que la reconnaissance de critères, la configuration d’outils d’évaluation et l’exécution d’évaluations, a déclaré l’entreprise, ajoutant que cela permet d’économiser du temps et de l’argent.

Mises à jour d’Amazon SageMaker pour prendre en charge l’IA générative

Afin d’aider les entreprises à former et à publier efficacement de grands modèles de langage, AWS a introduit 2 nouvelles offres : SageMaker HyperPod et SageMaker Inference – au sein de son Amazon SageMaker. Service d’IA et d’apprentissage automatique.

Contrairement au processus de formation manuel des modèles, qui est susceptible d’entraîner des retards, des dépenses inutiles et d’autres complications, HyperPod élimine les lourdes tâches liées à la construction et à l’amélioration des installations d’intelligence artificielle pour modèles de formation, réduisant ainsi le temps de formation jusqu’à 40 %, a déclaré la société.

SageMaker Inference, quant à lui, vise à aider les entreprises à minimiser les dépenses de publication de conception et à réduire la latence dans les réactions des modèles. Pour ce faire, Reasoning permet aux entreprises de publier de nombreuses conceptions sur la même instance cloud afin de mieux utiliser les accélérateurs sous-jacents.

AWS a également mis à niveau sa plate-forme d’apprentissage d’appareils low code destinée aux experts en services, SageMaker Canvas.

Les experts peuvent utiliser le langage naturel pour préparer les informations dans Canvas afin de produire des modèles d’apprentissage automatique, a déclaré Swami Sivasubramanian, responsable des services de base de données, d’analyse et d’apprentissage automatique pour AWS. La plate-forme sans code prend en charge les LLM d’Anthropic, Cohere et AI21 Labs.

SageMaker inclut également désormais la fonctionnalité Design Examination, désormais appelée SageMaker Clarify, accessible depuis SageMaker Studio.

Amazon Q : l’assistant d’IA générative pour tout ce qui concerne

Mardi dernier, le PDG d’AWS, Adam Selipsky, a présenté la vedette de la conférence re: Develop 2023 du géant du cloud : Amazon Q, la réponse de l’entreprise au GPT de Microsoft. Assistant IA génératif Copilot piloté. Amazon Q peut être utilisé par les entreprises à travers diverses fonctions, notamment la création d’applications, la modification du code, la production de business intelligence, le fonctionnement comme un assistant d’IA génératif pour les applications de service et l’aide aux agents du service client via l’offre Amazon Link. .

Amazon Braket pour la réservation d’ordinateurs quantiques

Les fournisseurs de cloud ont révélé un tout nouveau programme, baptisé Amazon Braket Direct, pour permettre aux scientifiques d’accéder directement et privément aux systèmes informatiques quantiques.

Amazon Braket pour la réservation d’ordinateurs quantiques

Les fournisseurs de cloud ont révélé un tout nouveau programme, baptisé Amazon Braket Direct, pour permettre aux scientifiques d’accéder directement et privément aux systèmes informatiques quantiques.

p>

Le programme fait partie du service d’informatique quantique géré par AWS, nommé Amazon Braket, qui a été présenté en 2020.

Amazon Bracket Direct permet aux chercheurs de toute l’entreprise d’obtenir un accès privé à toutes les fonctionnalités de différentes unités de traitement quantique (QPU) sans temps d’attente et offre également la possibilité de recevoir des conseils professionnels pour leurs charges de travail de la part de l’équipe de professionnels de l’informatique quantique d’AWS, a déclaré AWS.

Actuellement, le programme Direct prend en charge la réservation des systèmes informatiques quantiques IonQ Aria, QuEra Aquila et Rigetti Aspen-M-3.

L’IonQ est au prix de 7 000 $ de l’heure et le QuEra Aquila est au prix de 2 500 $ de l’heure. Le prix de l’Aspen-M-3 est un peu plus élevé, à 3 000 $ de l’heure.

Expense Optimization Hub pour aider les entreprises à réduire leurs dépenses

Les mises à jour annoncées lors de l’article : Développer incluent une nouvelle fonctionnalité de facturation AWS. et une fonctionnalité de gestion des dépenses, baptisée AWS Expense Optimization Center, qui permet aux entreprises de reconnaître, de filtrer, de regrouper et de mesurer facilement les économies réalisées grâce aux suggestions d’optimisation des coûts AWS.

Le nouveau Hub, selon les sociétés cloud, rassemble toutes les actions suggérées pour optimiser les coûts dans les services AWS Cloud Financial Management (CFM), y compris AWS Expense Explorer et AWS Calculate Optimizer, en un seul endroit.

Il intègre les prix et les taux de remise spécifiques au client dans ces suggestions, et elle déduplique les résultats et les économies pour fournir une vue combinée des chances d’optimisation des coûts d’une entreprise, AWS inclus.

Cette fonctionnalité est susceptible d’aider les FinOps ou les groupes de gestion des installations à comprendre les chances d’optimisation des coûts.

Zéro-ETL, bases de données vectorielles et autres mises à jour

Poursuivant ses efforts vers zéro ETL pour les services d’entreposage d’informations, AWS a révélé de nouvelles intégrations Amazon RedShift avec Amazon Aurora PostgreSQL, Amazon DynamoDB et Amazon RDS pour MySQL.

Les entreprises utilisent généralement l’extraction, la transformation et le chargement (ETL) pour incorporer des informations provenant de nombreuses sources dans un seul magasin de données constantes à regrouper dans une installation de stockage d’informations à des fins d’analyse.

Cependant, la plupart des ingénieurs de l’information déclarent que la modification d’informations provenant de diverses sources peut être une tâche difficile et longue, car le processus implique des actions telles que le nettoyage, le filtrage, l’amélioration et la synthèse des informations brutes. Un autre problème est la dépense supplémentaire liée à la préservation des équipes qui préparent les pipelines de données pour l’exécution des analyses, a déclaré AWS.

En revanche, les toutes nouvelles combinaisons zéro ETL, selon l’entreprise, suppriment l’obligation d’effectuer un ETL. entre Aurora PostgreSQL, DynamoDB, RDS pour MySQL et RedShift, car les données transactionnelles de ces bases de données peuvent être répliquées dans RedShift presque immédiatement et sont prêtes à être analysées.

Autres mises à jour génératives liées à l’IA sur : Invent comprend une prise en charge mise à jour des bases de données vectorielles pour Amazon Bedrock. Ces bases de données sont constituées d’Amazon Aurora et de MongoDB. Les autres bases de données prises en charge incluent Pinecone, Redis Business Cloud et Vector Engine pour Amazon OpenSearch Serverless. L’entreprise a également ajouté un tout nouveau niveau de tarifs d’entreprise à son outil de développement basé sur le cloud, appelé Amazon CodeCatalyst.

Ensuite, jetez un œil à ceci. :

  • Le meilleur logiciel open source de 2023
  • Les accréditations pour les salons sont-elles toujours importantes ?
  • Le cloud computing n’est plus un jeu d’enfant
  • Qu’est-ce que l’IA générative ? Système expert qui développe
  • Codage avec l’IA : conseils et bonnes pratiques des développeurs
  • Pourquoi Wasm est l’avenir du cloud computing

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici