Scaleway a dévoilé les tout nouveaux serveurs lors de son événement ai-PULSE à Paris. Les instances Arm de police fonctionnent sur des puces Ampere Altra. Les toutes nouvelles offres sont « conçues pour satisfaire les demandes des applications basées sur l’IA », telles que l’exécution d’un chatbot ou l’examen de grandes quantités d’informations. Gardez à l’esprit qu’il ne se concentre pas sur les conceptions de formation avec les exigences de performances les plus exigeantes pour les charges de travail d’IA.
La société française Scaleway existe depuis 1999 et fonctionne à Paris, Amsterdam et Varsovie. Il dessert 25 000 clients et propose actuellement plusieurs options axées sur le cloud et l’IA. Par exemple, il fonctionne également avec Nvidia pour rendre le matériel d’IA facilement disponible dans le cloud.
Efficace (mais pas puissant)
Étant donné que la formation d’un modèle est un processus ponctuel, Le PDG d’Ampère, Jeff Wittich, affirme que la performance est moins pertinente en raison de l’emplacement qu’ailleurs. « En fait, les processeurs à usage général sont bons en raisonnement, et ils l’ont toujours été », a déclaré Wittich. « Le raisonnement est votre conception à grande échelle que vous utilisez tout le temps, donc l’efficacité est plus importante ici. »
Et en raison de l’emplacement, ils garantissent d’utiliser jusqu’à 3,6 fois moins d’énergie électrique par charge de travail d’inférence que le Option NVIDIA. En bref, le mot magique est efficacité plutôt que performance brute. Il convient de garder à l’esprit que l’exemple qu’ils utilisent (inférence pour Whisper, un outil d’IA pour la reconnaissance vocale d’OpenAI) a été évalué sur un GPU Nvidia A10. Cette puce a maintenant plus de deux ans et envisage depuis longtemps d’être remplacée par des versions plus contemporaines. Par exemple, le Nvidia L40S est basé sur l’architecture Ada Lovelace, bien plus efficace, en plus d’améliorations significatives des performances. Le problème : étant donné la pénurie actuelle de puces Nvidia, elles coûtent cher. Pas seulement pour acheter, mais aussi pour louer de telles performances sur une base cloud.
Au moins, Ampere ne recule pas devant des promesses fermes : en discussion avec The Register, l’entreprise souligne le PDG du français Lampi. .ai, qui a déclaré que COP-Arm est 10 fois beaucoup plus rapide pour un dixième du coût par rapport à la concurrence x86.
Toute l’actualité en temps réel, est sur L’Entrepreneur