dimanche, 14 avril 2024

Tirez le meilleur parti des GPU pour les applications d’apprentissage automatique

Alors que les unités de traitement graphique (GPU) étaient autrefois réservées aux domaines des jeux à forte intensité graphique et du streaming vidéo, les GPU sont désormais également liés à l’apprentissage automatique (ML). Leur capacité à effectuer plusieurs calculs synchronisés qui dispersent les tâches, accélérant considérablement le traitement des charges de travail ML, rend les GPU idéaux pour alimenter les applications de systèmes experts (IA).

L’architecture de flux de données à instruction unique et plusieurs données (SIMD)dans un GPU permet aux informaticiens de diviser des tâches complexes en de nombreuses petites unités. Les entreprises qui poursuivent des initiatives d’IA et de ML sont désormais plus susceptibles de choisir des GPU plutôt que des systèmes de traitement principaux (CPU) pour analyser rapidement des ensembles de données volumineux dans des charges de travail de découverte d’appareils algorithmiquement complexes et gourmandes en matériel. Cela est particulièrement vrai pour les grands modèles de langage (LLM) et les applications d’IA génératives développées sur les LLM.

Les processeurs moins coûteux sont plus que capables d’exécuter des tâches de recherche particulières pour lesquelles le traitement parallèle n’est pas nécessaire. Ceux-ci incluent des algorithmes qui effectuent des calculs statistiques, tels que le traitement du langage naturel (NLP), et certains algorithmes de connaissance approfondie. Il existe également des exemples d’IA adaptés aux processeurs, tels que la télémétrie et le routage réseau, la reconnaissance d’objets dans les caméras électroniques de vidéosurveillance, la détection de défauts dans la fabrication et la détection d’objets dans les scanners CT et IRM.

Autoriser le GPU- développement d’applications basées sur le développement

Bien que les cas d’utilisation du processeur ci-dessus continuent d’offrir des avantages aux organisations, l’énorme poussée de l’IA générative nécessite davantage de GPU. Cela a en fait été une aubaine pour les producteurs de GPU dans tous les domaines, et plus particulièrement pour Nvidia, leader indéniable du classement. Et pourtant, à mesure que la demande de GPU augmente dans le monde entier, de plus en plus d’entreprises comprennent qu’il est difficile de configurer des piles GPU et de les établir sur des GPU.

Pour surmonter ces obstacles, Nvidia et d’autres sociétés ont présenté différents ensembles d’outils et de frameworks pour permettre aux concepteurs de gérer plus facilement les charges de travail de ML et d’écrire du code hautes performances. Celles-ci incluent des structures de connaissance approfondie optimisées pour le GPU telles que PyTorch et TensorFlow ainsi que la structure CUDA de Nvidia. Il n’est pas exagéré d’affirmer que la structure CUDA a changé la donne en accélérant les tâches GPU pour les scientifiques et les informaticiens.

GPU sur site par rapport aux GPU cloud

Considéré Comme les GPU sont plus efficaces que les CPU pour exécuter de nombreux travaux d’exploration de machines, il est important de comprendre quelle approche de déploiement – sur site ou basée sur le cloud – est la plus idéale pour les initiatives d’IA et de ML qu’une entreprise donnée entreprend.

Dans une version de GPU sur site, une entreprise doit acheter et configurer ses propres GPU. Cela nécessite une dépense d’investissement considérable pour couvrir à la fois les dépenses en GPU et la construction d’un centre de données dédié, en plus du coût fonctionnel lié à la conservation des deux. Ces entreprises bénéficient d’un avantage lié à la propriété : leurs développeurs sont libres de répéter et d’expérimenter constamment sans encourir de dépenses d’utilisation supplémentaires, ce qui ne serait pas le cas avec une implémentation de GPU basée sur le cloud.

Les GPU basés sur le cloud, en revanche, offrent un paradigme de paiement à l’utilisation qui permet aux organisations d’augmenter ou de réduire leur utilisation du GPU en un rien de temps. Les fournisseurs de GPU cloud utilisent des équipes d’assistance dédiées pour gérer toutes les tâches liées aux installations cloud GPU. Dans cette méthode, le fournisseur de services cloud GPU permet aux utilisateurs de démarrer rapidement en fournissant des services, ce qui permet de gagner du temps et de minimiser les responsabilités. Cela garantit également que les concepteurs ont accès aux innovations les plus récentes et aux meilleurs GPU pour leurs cas d’utilisation actuels du ML.

Les services peuvent bénéficier du meilleur des deux mondes grâce à un déploiement de GPU hybride. Dans cette approche, les concepteurs peuvent utiliser leurs GPU sur site pour tester et former des conceptions, et consacrer leurs GPU basés sur le cloud pour faire évoluer les services et offrir une plus grande durabilité. Les versions hybrides permettent aux entreprises de stabiliser leurs dépenses entre CapEx et OpEx tout en garantissant que les ressources GPU sont proposées à proximité des opérations du centre de données de l’entreprise.

Optimiser les charges de travail d’intelligence artificielle

Travailler avec des GPU est un défi, tant du point de vue de la configuration que du développement d’applications. Les entreprises qui optent pour des versions sur site subissent souvent des pertes d’efficacité car leurs développeurs doivent effectuer des procédures répétitives pour préparer un environnement idéal pour leurs opérations.

Pour préparer le GPU à l’exécution de tâches, il faut compléter le actions suivantes :

  • Installez et configurez les pilotes CUDA et la boîte à outils CUDA pour interagir avec le GPU et effectuer toute opération GPU supplémentaire.
  • Configurez les bibliothèques CUDA essentielles pour optimisez les performances du GPU et utilisez les ressources de calcul du GPU.
  • Configurez des frameworks de connaissance approfondie tels que TensorFlow et PyTorch pour effectuer des charges de travail d’intelligence artificielle telles que la formation, le raisonnement et le réglage.
  • Configurez des outils tels que JupyterLab pour exécuter et évaluer le code et Docker pour exécuter des applications GPU conteneurisées.

Cette longue procédure de préparation des GPU et de configuration des environnements souhaités submerge fréquemment les développeurs et peut également conduire à des erreurs dues à des versions inégalées ou obsolètes des outils requis.

Lorsque les entreprises fournissent à leurs concepteurs une infrastructure clé en main préconfigurée et une pile GPU basée sur le cloud, les développeurs peuvent éviter d’effectuer des tâches et des procédures administratives difficiles telles que le téléchargement d’outils. En fin de compte, cela permet aux concepteurs de se concentrer sur un travail à forte valeur ajoutée et de maximiser leur productivité, car ils peuvent instantanément commencer à développer et tester des solutions.

Une technique de GPU cloud offre également aux entreprises la flexibilité de publier le GPU idéal pour n’importe quel cas d’utilisation. Cela leur permet d’adapter l’utilisation du GPU aux besoins de leur organisation, même si ces exigences changent, améliorant ainsi les performances et l’efficacité, sans être liés à un achat de GPU particulier.

De plus, sous réserve de la rapidité avec laquelle les GPU progressent, le partenariat avec un fournisseur de services GPU cloud utilise la capacité GPU partout où l’organisation en a besoin, et le fournisseur cloud maintiendra et mettra à niveau ses GPU pour garantir aux consommateurs un accès constant à Des GPU qui utilisent des performances optimales. Un paradigme de déploiement cloud ou hybride permettra aux équipes de science des données de se concentrer sur des activités génératrices de revenus plutôt que de provisionner et de préserver les GPU et l’infrastructure associée, en plus d’éviter d’investir dans du matériel qui pourrait rapidement devenir obsolète.

Kevin Cochrane est le principal responsable du marketing chez Vultr.

— Generative AI Insights fournit un emplacement pour les leaders technologiques–y compris les fournisseurs et autres contributeurs externes- – explorer et discuter des difficultés et des opportunités de l’intelligence artificielle générative. Le choix est vaste, allant des analyses approfondies de la technologie aux études de cas en passant par l’opinion d’experts, mais il est également subjectif, basé sur notre jugement sur les sujets et les traitements qui serviront le mieux le public techniquement sophistiqué d’InfoWorld. InfoWorld refuse toute garantie marketing pour la publication et se réserve le droit de modifier tout le contenu contribué. Contactez doug_dineley@foundryco.com!.?.!. Lisez ensuite ceci : Pourquoi les entreprises abandonnent le cloud 5 méthodes simples pour organiser un LLM dans votre région Codage avec l’IA : Conseils et bonnes pratiques des concepteurs Rencontrez Zig : l’alternative contemporaine à C Qu’est-ce que

l’IA générative ? Système expert qui produit la meilleure application logicielle open source de 2023

  • .

    Toute l’actualité en temps réel, est sur L’Entrepreneur

  • LAISSER UN COMMENTAIRE

    S'il vous plaît entrez votre commentaire!
    S'il vous plaît entrez votre nom ici