jeudi, 29 septembre 2022

Nvidia fait passer les GPU Hopper pour l’IA en pleine production

Nvidia a annoncé aujourd’hui que le système de traitement graphique (GPU) Nvidia H100 Tensor Core reste en production complète, avec des partenaires technologiques mondiaux qui prévoient de présenter en octobre la toute première vague de produits et services basés sur l’architecture Nvidia Hopper.

Le PDG de Nvidia, Jensen Huang, a fait cette annonce lors de l’événement d’automne GTC en ligne de Nvidia.

Révélé en avril, le H100 est construit avec 80 milliards de transistors et dispose d’une série d’avancées technologiques. Parmi eux se trouvent le nouveau Transformer Engine efficace et une interconnexion Nvidia NVLink pour accélérer les plus grandes conceptions de systèmes experts (IA), comme les systèmes de recommandation sophistiqués et les grands modèles de langage, et pour stimuler les innovations dans des domaines tels que l’IA conversationnelle et la découverte de médicaments.

« Hopper est le nouveau moteur des usines d’IA, traitant et affinant des montagnes d’informations pour former des modèles avec des billions de paramètres qui sont utilisés pour faire progresser l’IA basée sur le langage, la robotique, les soins de santé et les sciences de la vie », a déclaré Jensen. Huang, créateur et PDG de Nvidia, dans une déclaration. « Le moteur Transformer de Hopper améliore les performances d’environ un ordre de grandeur, mettant l’IA et le HPC à grande échelle à la portée des entreprises et des scientifiques. »

Événement

Sommet GamesBeat Prochain 2022

Inscrivez-vous avec les leaders du jeu en direct les 25 et 26 octobre à San Francisco pour analyser les prochaines énormes opportunités sur le marché du jeu.

Inscrivez-vous ici

Dans En plus de l’architecture de Hopper et du Transformer Engine, un certain nombre d’autres innovations essentielles alimentent le GPU H100 pour offrir le prochain énorme bond en avant dans la plate-forme de centre d’information de calcul accéléré de Nvidia, composée d’un GPU multi-instance de deuxième génération, d’un ordinateur personnel, de Nvidia NVLink de quatrième génération et recommandations DPX.

« Nous sommes ravis de vous annoncer que le Nvidia H100 est désormais entièrement en production », sa id Ian Buck, responsable de base de l’informatique accélérée chez Nvidia, dans une instruction à la presse. « Nous sommes prêts à prendre des commandes pour livraison au premier trimestre (à partir de Nvidia en octobre). Et à partir du mois prochain, nos partenaires système d’Asus à Supermicro commenceront à expédier leurs systèmes H100, en commençant par les produits PCIe et en se développant dans le future cette année aux plates-formes NVLink HDX. »

Une licence de cinq ans pour la suite logicielle Nvidia AI Business est désormais composée de H100 pour les serveurs grand public. Cela améliore le développement et le déploiement des flux de travail d’IA et garantit que les entreprises ont accès aux structures et aux outils d’IA nécessaires pour construire des chatbots d’IA, des moteurs de suggestion, l’IA de vision et plus encore.

Déploiement mondial de Hopper

Hopper GPU

H100 permet aux entreprises de réduire les coûts de déploiement de l’IA, offrant exactement la même efficacité d’IA avec 3,5 fois plus d’efficacité énergétique et 3 fois moins de dépenses totales de possession, tout en utilisant 5 fois moins de nœuds de serveur par rapport à la génération précédente.

Pour les clients qui souhaitent essayer la nouvelle innovation immédiatement, Nvidia a révélé que H100 sur les serveurs Dell PowerEdge est désormais disponible sur Nvidia LaunchPad, qui propose des laboratoires pratiques gratuits, offrant un accès professionnel au matériel le plus récent et à Nvidia Logiciel d’IA.

Les consommateurs peuvent également commencer à acheter des systèmes Nvidia DGX H100, qui incluent 8 GPU H100 et offrent 32 pétaflops d’efficacité avec une précision FP8. Nvidia Base Command et l’application logicielle Nvidia AI Business alimentent chaque système DGX, permettant des implémentations d’un seul nœud à un Nvidia DGX SuperPOD, prenant en charge l’avancement sophistiqué de l’IA de grands modèles de langage et d’autres travaux énormes.

Systèmes alimentés par H100 des principaux fabricants d’ordinateurs au monde devraient être livrés dans les semaines à venir, avec plus de 50 conceptions de serveurs sur le marché d’ici la fin de l’année et bien d’autres au tout premier semestre 2023. Les systèmes de construction des partenaires se composent d’Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo et Supermicro.

De plus, certaines des plus grandes organisations mondiales d’enseignement supérieur et de recherche utiliseront le H100 pour alimenter leurs supercalculateurs de nouvelle génération. Parmi eux figurent le Barcelona Supercomputing Center, le Los Alamos National Lab, le Swiss National Supercomputing Center (CSCS), le Texas Advanced Computing Center et l’Université de Tsukuba.

Par rapport à la génération A100 précédente, Dollar a déclaré que le système précédent avait 320 systèmes A100 dans un centre de données, mais avec Hopper, un centre d’information n’aurait besoin que de 64 systèmes H100 pour correspondre à ce débit des données plus anciennes. Cela représente une diminution de 20 % des nœuds et une grande amélioration de l’efficacité énergétique.

Le credo de GamesBeat lorsqu’il couvre l’industrie du jeu est  » là où la passion rencontre les affaires.  » Qu’est-ce que cela implique ? Nous souhaitons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux vidéo, mais également en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts , ou regardez nos vidéos, GamesBeat vous aidera à découvrir le marché et à vous engager avec plaisir. Découvrez nos aperçus.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici