mardi, 5 mars 2024

Les grandes révélations d’Adam Selipsky à AWS re:Invent 2023

Crédit : Amazon Web Provider

Amazon Web Provider (AWS) a en fait teasé l’aperçu lancement de son nouvel élément de chatbot d’intelligence artificielle générative (genAI) lors du re: Create de cette année.

Dans son discours d’ouverture, le PDG Adam Selipsky a affirmé que le chatbot, Amazon Q, est capable de proposer des réponses aux questions, de générer du contenu et de faire quelque chose, simplifiant ainsi le travail et accélérant la prise de décision.

Le service peut également personnaliser les interactions avec des utilisateurs individuels en fonction des identités, des rôles et des autorisations existants, mais n’utilise pas les clients d’une entreprise pour entraîner ses conceptions sous-jacentes.

Lors de la keynote, Selipsky a mis un accent particulier sur Q, allant jusqu’à déclarer que « cela va être transformateur ».

Fondamentalement, Q a la capacité d’être utilisé dans de nombreux éléments d’un service. Par exemple, du côté du développement, Amazon a mis en avant la fonctionnalité de traduction de code de Q appelée Amazon Code Transformation, affirmant qu’elle avait la capacité de mettre à niveau 1 000 applications de production et leurs dépendances de Java 8 vers Java 17 en 2 jours.

Une autre fonctionnalité consiste à offrir aux membres du personnel des informations spécifiques au titre et à garantir que les détails nécessaires ne soient pas accessibles à ceux qui ne disposent pas des approbations appropriées.

Outre Amazon Q, Selipsky a également dévoilé Amazon S3 Express One Zone, un stockage Amazon S3 hautes performances à zone unique permettant d’accéder à des informations constantes en millisecondes à un chiffre dans les applications sensibles à la latence.

« Amazon S3 Express One Zone est le stockage d’éléments cloud à latence le plus abordable disponible, avec un accès aux données 10 fois plus rapide et des dépenses de demande jusqu’à 50 % inférieures à celles d’Amazon S3 Standard, quelle que soit la disponibilité AWS. Zone au sein d’une région AWS », a déclaré AWS.

Les itérations les plus récentes de ses familles de puces Graviton et Trainium, Graviton4 et Trainium2, ont également été révélées. Selon les affirmations d’AWS, Graviton4 a des performances de calcul 30 % supérieures, 50 % de cœurs en plus et 75 % de bande passante mémoire en plus que Graviton3.

Trainium2, spécialement conçu pour la formation genAI et Device Learning (ML), offre une formation jusqu’à quatre fois plus rapide par rapport aux puces Trainium de première génération et peut être publié dans des UltraClusters EC2 contenant jusqu’à 100 000 unités. puces, tout en améliorant de deux fois les performances énergétiques.

Graviton4 est également disponible dans les instances Amazon EC2 R8g à mémoire optimisée, qui sont proposées en avant-première dès maintenant et la disponibilité générale est attendue en 2024. Trainium2 devrait également arriver l’année prochaine.

La relation continue entre AWS et NVIDIA a également été élargie grâce à une multitude d’annonces faites. L’une de ces déclarations était que les deux hommes collaboraient pour fournir le tout premier « supercalculateur d’IA cloud » Job Ceiba, utilisant la superpuce Grace Hopper de NVIDIA et l’évolutivité AWS UltraCluster.

Le fabricant de puces a également déclaré que sa formation en IA était en tant que -a-service Le service DGX Cloud sera le tout premier à proposer le NVIDIA GH200 NVL32 pour offrir aux concepteurs « la plus grande mémoire partagée en une seule fois », a déclaré le géant du cloud.

De plus, il y aura de nouvelles instances Amazon EC2 alimentées par des unités de traitement graphique (GPU) NVIDIA GH200, H200, L40S et L4 pour les travaux de genAI, HPC, de style et de simulation.

Pour Amazon Bedrock, Selipsky a dévoilé une variété de services nouveaux et mis à jour tels que l’aperçu pour le réglage fin de la précision fondamentale de la conception, l’accessibilité de base de la génération améliorée de récupération (RAG) avec des bases de connaissances, la pré- formation pour Amazon Text Lite et Express en avant-première, accessibilité générale des agents pour Amazon Bedrock pour orchestrer des tâches en plusieurs étapes afin d’accélérer le développement de genAI et aperçu de Guardrails pour promouvoir des interactions sécurisées entre les applications genAI et les utilisateurs.

Quatre combinaisons pour la connexion et l’analyse des informations sans structure et gestion de pipelines d’informations complexes d’extraction, de modification et de chargement (ETL) ont été annoncées.

Les combinaisons Amazon Aurora PostgreSQL, Amazon DynamoDB et Amazon RDS pour MySQL zéro ETL avec Amazon Redshift ont été révélées, en plus de la combinaison Amazon DynamoDB zéro ETL avec Amazon OpenSearch Service.

Les trois premières intégrations permettent aux utilisateurs d’évaluer des informations provenant de nombreuses sources sans structure et en préservant des pipelines de données personnalisés, tandis que la dernière combinaison permet une recherche en texte intégral et vectorielle sur des données fonctionnelles en temps quasi réel.

Un aperçu de la capacité genAI pour Amazon DataZone a également été révélé, la société affirmant qu’elle inclura le contexte de l’entreprise dans les catalogues de données et « réduira également considérablement le temps nécessaire pour offrir un contexte aux données organisationnelles ». .

Pour compléter les annonces de Selipsky, Job Kuiper, le réseau haut débit par satellite en orbite terrestre basse (LEO) d’AWS, fournira une connexion cloud privée prête pour l’entreprise, en plus de la connectivité publique annoncée précédemment.

Sasha Karen s’est rendue à re: Invent 2023 en tant que visiteuse d’AWS.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici