dimanche, 14 avril 2024

Les tendances de l’IA usurpent la chaîne d’approvisionnement et les problèmes de carnet de commandes pour les fournisseurs de réseaux

Crédit : Dreamstime

Le buzz autour de tout ce qui concerne l’IA est devenu plus fort dans le réseau monétaire des acteurs rapporte ce trimestre, même si une partie de l’innovation a eu une réelle influence financière sur les résultats de la plupart des fournisseurs et que les défis liés à la chaîne d’approvisionnement et aux stocks sont encore plus immédiats.

De nombreux fournisseurs, dont Cisco, Arista, Juniper, Extreme, Aruba de HPE et d’autres indiquent qu’ils expédient effectivement davantage de produits, grâce à des efforts de plusieurs mois qui consistent en une refonte considérable des articles et un travail acharné de la part de leurs groupes de chaîne d’approvisionnement pour faire face aux manques d’éléments, mais le scénario reste difficile. certaines entreprises clientes étant toujours aux prises avec des retards de commandes.

« De toute évidence, les stocks diminuent comme nous l’avions prévu cette année, mais ils restent encore, environ 3 fois plus élevés que ce à quoi nous nous attendrions généralement et en quelque sorte un pré -niveau historique de la pandémie », a déclaré Rami Rahim, PDG de Juniper, aux analystes de Wall Street ce trimestre. Juniper a signalé un stock d’environ 2 milliards de dollars au début de l’année et prévoit que ce montant sera réduit de moitié d’ici la fin de son .

Cisco fait également état de niveaux de stocks historiques, mais affirme que la situation s’est considérablement améliorée.

« Le vieillissement de notre carnet de commandes a en fait continué de s’accentuer à mesure que la situation de l’approvisionnement se normalise et, comme prévu, l’augmentation des livraisons aux consommateurs a diminué. notre carnet de commandes de fin d’année doublera environ les niveaux historiques alors que nous entrons dans la période financière 24 », a déclaré le directeur financier de Cisco, Scott Herren, aux experts lors de la dernière présentation des résultats de Cisco. « Ces stocks excédentaires diminueront au cours de la toute première moitié de l’exercice 24, la majeure partie étant résorbée au premier trimestre, d’ailleurs », a-t-il déclaré.

Bien que les problèmes de stocks et de chaîne d’approvisionnement restent un problème sujet de préoccupation, le sujet des chances d’avancement de l’IA était d’avoir un moment au soleil pour tous les fournisseurs.

Le PDG de Cisco, Chuck Robbins, a déclaré que l’entreprise avait pris quelque 500 millions de dollars en commandes de matériels Ethernet pour l’IA.

« La vitesse de l’IA va fondamentalement changer notre monde et produire pour nous de nouveaux moteurs de croissance », a déclaré Robbins. « La conception ASIC de Cisco et sa structure évolutive pour l’IA nous positionnent efficacement pour construire l’infrastructure dont les hyperscalers et autres ont besoin pour développer des clusters AI ML. Nous prévoyons qu’Ethernet sera le leader dans la liaison des charges de travail d’IA au cours des 5 prochaines années. »

Cisco a récemment dévoilé de tout nouveaux processeurs Silicon One programmables haut de gamme axés sur le support d’une infrastructure massive d’IA/ML pour les entreprises et les hyperscalers. Les modèles IA/ML sont passés de quelques GPU à des dizaines de milliers connectés en parallèle et en série. La variété des GPU et l’ampleur du réseau sont sans précédent, a déclaré Cisco.

« Les opportunités offertes par l’IA sont intéressantes et, alors que nos plus grands clients du cloud examinent leur cloud intemporel et que leur réseau d’IA se prépare, Arista s’adapte à ces changements, et doubler nos investissements dans l’IA », a déclaré Jayshree Ulall, PDG d’Arista, aux experts lors du récent appel monétaire d’Arista. « Nous prévoyons des clusters et des versions de production plus importants en 2025 et au-delà. Dans les années à venir, les réseaux d’IA finiront par être une extension des réseaux cloud pour former un réseau front-end et back-end cohérent et fluide. »

« Nous sommes au milieu d’essais pour les réseaux d’IA back-end, menant à des pilotes en 2024 », a ajouté Ulall.

Arista et Cisco parient gros qu’Ethernet sera l’outil de mise en réseau de l’IA. vendent l’avenir en faisant partie d’un groupe récemment révélé : l’Ultra Ethernet Consortium (UEC), hébergé par la Linux Foundation, qui travaille à établir des avancées Ethernet au niveau physique, des liaisons, du transport et des logiciels.

Les Le groupe comprend AMD, Broadcom, Eviden, HPE, Intel, Meta et Microsoft pour améliorer l’innovation Ethernet actuelle afin de faire face à l’échelle et à la vitesse nécessaires à l’IA.

« Les demandes de trafic et d’efficacité de l’IA sont diverses car elles comprend un petit nombre de flux synchronisés à large bande passante, ce qui les rend sujets à des pannes qui ralentissent le temps d’exécution des tâches des clusters d’IA lorsqu’ils relient des milliers de GPU, produisant des milliards de paramètres », a déclaré Ulall.

Arista a développé des fonctions pour son logiciel de mise en réseau EOS, telles que l’équilibrage de charge intelligent et des analyseurs avancés pour signaler et rebondir, des outils capables d’atteindre une efficacité prévisible et l’innovation reconnue en matière d’Ethernet et d’IP sera finalement l’architecture de base pour gérer cela, a déclaré Ulall.

L’objectif suprême de Cisco est de combiner ces technologies Ethernet améliorées et de les amener encore plus loin pour permettre aux consommateurs d’établir ce qu’il appelle une structure planifiée. Dans une structure planifiée, les éléments physiques (puces, optiques, commutateurs) sont bouclés comme un grand châssis modulaire et interagissent les uns avec les autres pour offrir des habitudes de planification optimales.

« Au fur et à mesure que nous organisons la structure et « Ces consommateurs sont plus à l’aise en passant d’InfiniBand à Ethernet, je pense que c’est à ce moment-là que nous commencerons à voir le véritable effet de l’IA. Et peut-être que c’est fin 24, mais je croirais certainement en 25 », a déclaré Robbins. p>

En attendant, Juniper est un concurrent du secteur des réseaux qui voit l’IA affecter ses résultats financiers.

« Les consommateurs reconnaissent la direction de Juniper lorsqu’il s’agit d’opérations basées sur l’IA fournies au moyen d’un cloud de microservices contemporain », a déclaré Rahim de Juniper. « Les revenus de la section Mist de notre organisation, qui sont des éléments pilotés par Mist AI [Le système de gestion cloud de base de Juniper] a connu un trimestre record, avec une croissance de près de 100 % d’une année sur l’autre au cours du deuxième trimestre, avec des commandes en hausse de près de 40 % sur un an. »

Juniper a récemment intégré ChatGPT Conception de grands langages (LLM) basée sur l’IA avec l’assistant réseau virtuel de Mist, Marvis. Marvis peut détecter et décrire une myriade de problèmes de réseau, notamment des arrêts persistants de clients filaires ou sans fil, des câbles défectueux, des trous de couverture des points d’accès, des liaisons WAN problématiques et une capacité de radiofréquence inadéquate.

En ajoutant les fonctionnalités de ChatGPT, Juniper élargit la fonction de Marvis et augmente ses options de paperasse et de support pour aider les administrateurs informatiques à obtenir rapidement l’assistance nécessaire en cas de problèmes ou de difficultés, a mentionné Juniper.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici