- Microsoft dévoile deux toutes nouvelles puces pour renforcer son infrastructure d’IA.
- Microsoft étend également ses collaborations avec AMD et Nvidia.
- Peut-il parcourir ses dernières préoccupations en matière de personnel pour pousser son programme d’IA ?
La semaine a été chargée pour Microsoft. Non seulement le géant de la technologie a enfin lancé ses propres puces pour renforcer les installations d’IA, mais l’entreprise a également dû faire face au drame qui se déroulait chez OpenAI.
Sam Altman, PDG d’OpenAI, a en fait été limogé et reste toujours. limogé par le conseil d’administration. Depuis lors, toutes les grandes nouvelles de l’événement Ignite de Microsoft ont été éclipsées. C’est un coup dur non seulement pour OpenAI mais pour Microsoft lui-même, surtout compte tenu du succès qu’OpenAI a réellement connu sous la direction d’Altman.
Dans son discours d’ouverture à Ignite, Satya Nadella, PDG de Microsoft, a déclaré qu’à mesure qu’OpenAI innove, Microsoft fournira toute cette innovation dans le cadre d’Azure AI, en incluant davantage dans sa brochure. Il s’agit de la nouvelle offre de modèles en tant que service (MaaS) dans Azure.
MaaS est une API de raisonnement payante et hébergée pour le réglage fin de Llama 2 dans le catalogue de modèles Azure AI. Microsoft élargit sa collaboration avec Meta pour fournir Llama 2 en tant que premier foyer de grands modèles linguistiques (LLM) via MaaS dans Azure AI Studio. MaaS permet aux développeurs d’IA générative de créer facilement des applications LLM en offrant un accès à Llama 2 en tant qu’API.
L’accélérateur Microsoft Azure Maia AI est le tout premier développé par Microsoft pour la formation en conception de langages importants. et l’inférence dans le Microsoft Cloud. (Image de Microsoft).
Sam Altman rejoint Microsoft
Alors qu’Altman n’était pas présent à l’événement Ignite, un rapport de Bloomberg indique que les dirigeants de Microsoft ont été surpris par cette annonce. Nadella est une personne en particulier qui a été aveuglée et furieuse par la nouvelle.
Comme Microsoft est le plus grand financier d’OpenAI, Nadella joue un rôle central dans les négociations avec le conseil d’administration des stratégies pour ramener Altman. Il semble que le navire d’Altman ait pris le large.
Il est peut-être encore tôt, mais la décision de se débarrasser d’Altman pourrait non seulement affecter l’avenir d’OpenAI, mais pourrait également avoir des répercussions sur la façon dont Microsoft progresse dans son développement. d’énormes stratégies d’IA.
Les détails ont rapporté que Microsoft, le plus grand bailleur de fonds d’OpenAI, envisage de prendre part à un poste au conseil d’administration si le PDG évincé, Sam Altman, revient chez le concepteur de ChatGPT, selon 2 des personnes bien informées sur les pourparlers. Microsoft pourrait soit siéger au conseil d’administration d’OpenAI, soit en tant qu’observateur du conseil d’administration sans droit de vote, a déclaré l’une des sources.
Dans le développement le plus récent, Nadella a tweeté qu’Altman s’inscrirait désormais plutôt auprès de Microsoft.
« Nous restons attachés à notre partenariat avec OpenAI et avons confiance dans notre feuille de route d’articles, dans notre capacité à continuer à innover avec tout ce que nous avons révélé à Microsoft Ignite et à continuer à soutenir nos clients et partenaires », a tweeté Nadella. .
Le tweet de Nadella confirmant qu’Altman s’est bien inscrit auprès de Microsoft.
Les nouvelles puces Microsoft complètent le puzzle de l’IA
Revenant sur Microsoft Ignite, la société a annoncé deux toutes nouvelles puces pour contribuer à améliorer les installations d’IA de l’entreprise. Compte tenu du besoin croissant de travaux supplémentaires sur l’IA, les centres d’information qui traitent ces demandes doivent être en mesure de répondre aux besoins. Cela indique qu’il existe des puces capables d’alimenter le centre d’information et de satisfaire les besoins des consommateurs.
Bien que Microsoft collabore déjà avec AMD et Nvidia pour les puces, les deux nouvelles puces révélées par l’entreprise pourraient simplement être la dernière pièce de Microsoft. nécessite de contrôler totalement la chaîne d’approvisionnement de son infrastructure d’IA.
Les 2 nouvelles puces sont :
- L’accélérateur d’IA Microsoft Azure Maia – optimisé pour les tâches d’IA et les tâches génératives. IA. Développé spécifiquement pour la pile matérielle Azure, le positionnement de la conception des puces avec l’infrastructure d’IA plus large développée en gardant à l’esprit les charges de travail de Microsoft peut générer des gains substantiels en termes de performances et d’efficacité.
- Le processeur Microsoft Azure Cobalt, un Arm- processeur personnalisé pour exécuter des charges de travail de calcul à usage général sur le Microsoft Cloud. Il est optimisé pour offrir une efficacité et des performances supérieures dans les offres cloud natives. La puce vise également à améliorer « l’efficacité par watt » de Microsoft dans l’ensemble de ses centres d’information, ce qui implique essentiellement d’obtenir plus de puissance de calcul pour chaque unité d’énergie consommée.
Les puces représentent la dernière pièce du puzzle pour Microsoft, lorsqu’il s’agit de fournir des systèmes d’installations – qui incluent tout, depuis les options de silicium, les logiciels et les serveurs jusqu’aux racks et aux systèmes de refroidissement – qui ont été développés de bout en bout et peuvent être améliorés en gardant à l’esprit les charges de travail internes et client.
Un testeur de niveau système dans un laboratoire Microsoft à Redmond, Washington, imite les conditions qu’une puce connaîtra dans un centre d’informations Microsoft. (Image de Microsoft).
Selon Omar Khan, directeur général du marketing des produits Azure chez Microsoft, Maia 100 est la toute première génération de la série, avec 105 milliards de transistors, ce qui en fait l’un des des plus grandes puces basées sur la technologie de procédure 5 nm. Les innovations de Maia 100 concernent le silicium, les applications logicielles, le réseau, les racks et les capacités de refroidissement. Cela équipe l’infrastructure Azure AI d’une optimisation système de bout en bout adaptée pour répondre aux besoins d’une IA révolutionnaire telle que GPT.
Cobalt 100, la toute première génération de sa série également, est un processeur 64 bits. Puce à 128 cœurs qui offre jusqu’à 40 % d’amélioration des performances par rapport aux générations actuelles de puces Azure Arm et alimente des services tels que Microsoft Teams et Azure SQL.
« Le développement de réseaux tombe sur notre Maia 100 de première génération et Puces Cobalt 100. De la technologie de fibre creuse à l’accessibilité générale d’Azure Boost, nous permettons des solutions de mise en réseau et de stockage plus rapides dans le cloud. Vous pouvez désormais atteindre un débit allant jusqu’à 12,5 Go, 650 000 opérations d’entrée-sortie par seconde dans le stockage distant. efficacité pour exécuter des travaux gourmands en données, et jusqu’à 200 Go de bande passante réseau pour les travaux gourmands en réseau », a déclaré Khan.
Président-directeur général Satya Nadella et Nvidia créateur, président et PDG Jensen Huang, à Microsoft Fire up 2023. (Source– Microsoft)
Des puces pour tous
Microsoft rejoint une liste d’autres entreprises qui ont ont décidé de construire leurs propres puces, en particulier compte tenu du coût croissant des puces en plus du temps d’attente prolongé pour les obtenir. De nombreuses entreprises technologiques importantes ont en fait annoncé des stratégies pour développer leurs propres puces afin de répondre aux besoins croissants et aux cas d’utilisation en cours de développement.
OpenAI avait en fait déjà révélé son intention de disposer de ses propres puces, même si elle dépendait fortement de Nvidia. Bloomberg a rapporté que Sam Altman recherchait activement des financiers pour lancer cette offre. Altman prévoyait de créer une entreprise de puces axée sur l’IA qui pourrait produire des semi-conducteurs qui rivaliseraient avec ceux de Nvidia Corp., qui domine actuellement le marché des tâches de systèmes experts.
D’autres sociétés qui développent et produisent également leurs propres semi-conducteurs. ses propres puces incluent Apple, Amazon, Meta, Tesla et Ford. Chacune des puces est développée pour s’adapter aux cas d’utilisation de l’entreprise.
Malgré la révélation de 2 nouvelles puces pour l’IA, Microsoft a également révélé des extensions. à ses collaborations avec Nvidia et AMD. Azure travaille en étroite collaboration avec Nvidia pour fournir des créateurs virtuels (VM) basés sur des unités de traitement graphique Nvidia H100 Tensor Core (GPU) pour les travaux d’IA de taille moyenne à massive, composés de machines virtuelles Azure Confidential.
Khan a mentionné que Microsoft ajoutait le dernier GPU Nvidia H200 Tensor Core à sa flotte l’année prochaine pour prendre en charge une inférence de conception plus large sans diminution de la latence. Avec AMD, Khan a précisé que les clients Microsoft pourront accéder à des machines virtuelles optimisées pour l’IA et alimentées par le nouvel accélérateur MI300 d’AMD au début de l’année prochaine.
« Ces investissements financiers ont permis à Azure de devenir un pionnier en matière de performances pour le calcul intensif d’IA dans le cloud et ont constamment nous a classé comme le cloud principal parmi les 500 meilleurs supercalculateurs au monde. Avec ces ajouts au portefeuille matériel des installations Azure, notre plate-forme nous permet d’offrir la meilleure efficacité et efficience dans tous les travaux », a précisé Khan.
.
Toute l’actualité en temps réel, est sur L’Entrepreneur