vendredi, 29 mars 2024

Les processeurs et la mémoire économes en énergie réduisent votre empreinte carbone

Le marché de la technologie fonctionne sur des puces en silicium ; pour cette raison, tout effort visant à réduire l’empreinte carbone et à produire des alternatives plus vertes doit commencer par les puces qui se trouvent au centre de tous les gadgets intelligents. Toute option doit découvrir une méthode pour réduire la consommation d’énergie des milliards d’ordinateurs portables, de téléphones, de tablettes et de systèmes enracinés partout.

Heureusement, la consommation d’énergie est depuis longtemps une préoccupation pour l’industrie. Les utilisateurs de téléphones portables et d’ordinateurs portables exigent une longue durée de vie de la batterie et une faible consommation d’énergie des puces. L’écran d’affichage est un moyen simple de fournir un gadget qui fonctionne pendant des heures sans être branché. Au cours des dernières années, des progrès constants ont produit des appareils intelligents qui fournissent des milliards de fois plus de puissance de calcul pour la même quantité d’électricité.

Dans le même temps, les opérateurs de centres de données sont également bien conscients que la consommation d’électricité leur coûte deux fois. Ils veulent des puces qui peuvent fournir le plus d’efficacité par watt, car l’énergie électrique est l’un des principaux éléments de ligne pour faire fonctionner le. Deuxièmement, toute l’énergie électrique qui pénètre dans les ordinateurs est transformée en chaleur, donc le centre doit également payer pour l’enlever du bâtiment.

Ces deux forces financières du marché ont en fait poussé les fabricants de puces pour produire des puces plus vertes avec une empreinte carbone plus faible. Même si l’objectif n’était que de faire des économies, la dynamique économique est résolument alignée sur les impératifs environnementaux.

Beaucoup d’entreprises n’hésitent pas à commémorer leur prise de conscience environnementale. Apple, par exemple, déclare être neutre en carbone pour ses opérations commerciales mondiales, et d’ici 2030, cela signifie avoir « un impact net nul sur l’environnement dans l’ensemble de l’organisation, ce qui comprend les chaînes d’approvisionnement de production et tous les cycles de vie des produits ».

Ces forces se reflètent sur le marché de différentes manières, parfois divergentes. Voici quelques-unes des principales façons dont le marché des puces construit un tout nouveau matériel qui réduit l’empreinte carbone de l’informatique.

Pousser la partie « incorporée » des circuits intégrés (CI)

Les nouvelles puces M1 et M2 d’Apple offrent un service unique qui intègre sur une seule puce principale les processeurs utilisés pour l’informatique générale (CPU) et traitement graphique (GPU). De nombreux systèmes informatiques actuels utilisent différentes puces, généralement sur différentes cartes de circuits imprimés, pour traiter les mêmes tâches. Les puces Apple partagent la même mémoire et utilisent la combinaison étroite pour fournir des vitesses considérablement plus rapides pour de nombreuses tâches qui nécessitent à la fois que le CPU et le GPU fonctionnent soigneusement ensemble.

Alors qu’une grande partie de la documentation commerciale se concentre sur l’augmentation de la vitesse, l’intégration étroite et les ressources partagées réduisent également considérablement la consommation d’énergie. Dans son annonce du M2, Apple s’est vanté que lorsqu’il comparait ses nouveaux ordinateurs portables à un rival PC (Samsung Galaxy avec un i7), sa puce « égale son efficacité maximale en utilisant un cinquième de la puissance ».

Accepter les puces ARM

Alors que le marché des processeurs a été dominé par la vénérable architecture Intel ou x86 pendant des décennies, dernièrement, une variété d’utilisateurs sont passés à l’architecture ARM (Acorn RISC Maker), en partie depuis les puces l’utilisation de l’ensemble de directives de cette architecture fournit plus de calcul pour moins d’énergie électrique.

Amazon, par exemple, fait la promotion de ses puces Graviton 2 et Graviton 3, qu’il a conçues en interne et configurées dans les données. Lorsque les utilisateurs recompilent le code dans le nouvel ensemble de directives, Amazon estime qu’il n’est pas rare que le code utilise 60 % d’électricité en moins par rapport à ses instances habituelles. Les économies réelles varient d’une application à l’autre.

Les utilisateurs d’AWS ne voient jamais les dépenses d’énergie, mais Amazon répercute les économies de coûts dans les prix en fonction des circonstances. Ses machines ARM coûteraient environ 30% de moins pour à peu près la même puissance de calcul. Dans certains cas, les utilisateurs ne comprennent même pas qu’ils réalisent des économies. AWS a silencieusement déplacé certains des services gérés comme la base de données Aurora vers des circonstances ARM.

Amazon est loin d’être la seule entreprise à tester l’architecture ARM. Un certain nombre d’autres sociétés construisent des serveurs basés sur ARM et rapportent des succès similaires en matière de coupure de courant. Qualcomm, par exemple, travaillerait avec de grands et petits fournisseurs de services cloud pour utiliser ses puces ARM. Il a également récemment acquis Nuvia, une qui concevait ses propres puces ARM.

Entre-temps, en avril, Microsoft a publié un aperçu des puces Altra d’Ampère avec l’affirmation que ces puces pourraient fournir jusqu’à 50 % d’efficacité bien meilleure pour cent.

Utiliser des GPU pour les gros travaux

Les unités de traitement graphique (GPU) ont commencé comme des puces conçues pour aider les joueurs de jeux vidéo à profiter de fréquences d’images plus rapides, mais elles sont devenues des outils importants pour aider à corriger gros travaux de calcul utilisant moins d’énergie. Cela peut être un choc pour certains joueurs qui ont fini par se familiariser avec la configuration de gros GPU qui exigent 600 watts, 700 watts, 800 watts ou plus de l’alimentation. Les GPU haut de gamme deviennent de plus en plus affamés.

La véritable mesure, cependant, est la puissance par unité de travail. Les gros GPU peuvent grignoter de l’électricité, mais ils font encore plus de travail en cours de route. En général, ils peuvent être une méthode efficace pour calculer. C’est pourquoi les GPU sont désormais généralement utilisés pour effectuer de gros travaux de traitement parallèles pour une large gamme d’applications scientifiques et financières. De nombreux algorithmes de découverte de fabricants s’appuient également sur les GPU.

Les meilleurs GPU sont souvent très recherchés par les mineurs de crypto-monnaie, car ils fournissent certaines des sources les plus efficaces de calcul par système d’énergie. Le marché est très évolué puisque les algorithmes de minage utilisent un travail prévisible et stable simple à prévoir.

Produire des puces spécialisées

Pour certaines applications, la demande est suffisante pour nécessiter le développement de puces personnalisées conçues pour résoudre leurs problèmes beaucoup plus rapidement et plus efficacement. Dernièrement, des entreprises comme et Amazon ont en fait développé des puces uniques créées pour accélérer l’intelligence artificielle.

Les unités de traitement tensorielles (TPU) de sont à la base de la plupart des expériences d’intelligence artificielle de l’entreprise. Ils sont très efficaces et Google leur attribue le mérite d’avoir aidé à réduire au maximum l’efficacité du centre d’information. L’entreprise revend les TPU pour le travail des clients, mais les libère également en interne pour des tâches telles que la prévision des besoins afin de gérer la consommation d’énergie.

« Aujourd’hui, généralement, un centre de données est deux fois plus économe en énergie qu’un centre d’information d’entreprise commun », s’est vanté Urs Hölzle, vice-président senior des installations techniques chez Google.

« Et par rapport à 5 ans plus tôt, nous fournissons désormais environ sept fois plus de puissance de calcul avec exactement la même quantité de l’énergie électrique. »

Dans une présentation en cours à AWS Top à San Francisco en avril 2022, Ali Saidi, ingénieur principal principal chez AWS, a discuté des économies d’énergie d’Inferentia, une puce qui a été développée pour utiliser la machine apprendre les conceptions le plus rapidement possible. Ces modèles sont généralement utilisés à fond dans les applications de première ligne pour la classification ou la détection. Il est particulièrement intéressant d’accélérer la recherche du mot déclencheur utilisé par les interfaces utilisateur vocales telles que Siri ou Alexa.

« [Inferentia] atteint une efficacité énergétique bien supérieure de 1,5 x à 3 x, par rapport au [Nvidia’s Turing T4], avec une amélioration de l’efficacité énergétique médiane d’environ deux fois », a déclaré Saidi au public. « Cela implique que les circonstances inf1 sont plus écologiques et plus abordables à gérer, et comme toujours, nous utilisons cela pour répercuter les économies de coûts sur nos consommateurs. »

Coupes de bonne taille

Lorsqu’Intel a commencé à créer des puces x86 pour les ordinateurs portables bas de gamme, il a commencé à supprimer toutes les fonctionnalités supplémentaires dont l’utilisateur type n’aura pas besoin lors de l’ouverture de quelques fenêtres de navigateur. Ses puces bas de gamme comme les gammes Atom et Celeron ne peuvent pas effectuer de calculs comme les serveurs haut de gamme, mais l’utilisateur moyen n’a pas besoin de cette puissance pour examiner ses e-mails. Les économies de coûts se multiplient car les batteries peuvent également être de plus petite taille et durer encore longtemps.

Travailler avec une moindre précision

Lorsqu’Amazon a développé son processeur Gravitron 3, il a ajouté le bfloat16, un format unique de moindre précision pour les calculs à basse résolution. La puce peut effectuer 4 de ces opérations dans la même quantité de temps et d’énergie qu’elle utilise pour les calculs en virgule flottante à double précision. Certains algorithmes d’apprentissage automatique ne semblent pas se soucier de la distinction, et ils peuvent donc fonctionner sur ces puces en utilisant 1/4 de la puissance.

Améliorer la mémoire

Les processeurs sont le seul objectif des ingénieurs cherchant à réduire la consommation d’énergie. La dernière exigence de RAM, DDR5, fonctionne à des vitesses plus rapides mais à des tensions plus faibles, ce qui lui permet de conserver l’énergie électrique tout en terminant le calcul plus tôt. Les différences de tension sont faibles (1,2 v contre 1,1 v) mais elles s’additionnent progressivement.

D’autres peaufinent l’architecture des puces de mémoire pour améliorer la consommation d’énergie. Un choix appelé LRDIMM (Load Reduced Double Inline Memory Modules) ajoute une mémoire tampon qui peut répondre plus rapidement et réduire la charge sur les circuits d’interaction entre la mémoire et le CPU. Ceux-ci se trouvent souvent dans les serveurs des centres de données à forte utilisation constante.

Tracer des lignes plus fines

Au fur et à mesure que les lignes de fabrication du silicium établissent de meilleurs processus, la quantité d’énergie utilisée pour chaque calcul diminue. Les lignes plus fines nécessitent moins d’électrons pour les remplir. Alors que beaucoup pensent que la loi de Moore et le rétrécissement incessant de la taille de chaque transistor sont une question de vitesse, les économies de coûts en électricité sont un avantage supplémentaire. Les puces plus récentes construites sur la dernière technologie de fabrication ont tendance à utiliser moins d’énergie que les plus anciennes. Les puces construites sur le processus 5 nm sirotent moins que celles sur la procédure 7 nm, et ainsi de suite.

Aller au-delà du stockage mécanique

Beaucoup des meilleurs serveurs et ordinateurs portables utilisent des « disques » puissants avec mémoire flash pour enregistrer les informations, principalement parce qu’ils sont beaucoup plus rapides. Les disques magnétiques rotatifs plus anciens restent cependant compétitifs en offrant un taux de stockage par octet inférieur.

Cela évolue à mesure que de plus en plus de centres d’information prennent en compte les dépenses énergétiques. Lorsque VAST Data a présenté son option de stockage la plus récente, il a souligné que les coûts énergétiques doivent être une grande partie de la raison pour laquelle une entreprise peut souhaiter acheter ses racks de stockage remplis de mémoire flash.

« D’un point de vue énergétique, notre option est beaucoup plus efficace. Vous pouvez économiser environ 10 fois sur ce que les clients auraient autrement besoin de prévoir si vous disposiez d’une infrastructure basée sur des disques durs », a déclaré Jeff Denton, dans une séance de questions-réponses avec VentureBeat. « Cette densité d’installations produit constamment des économies de coûts. Lorsque vous augmentez l’efficacité, les économies d’énergie, le centre de données, les économies de coûts de surface et les économies de coûts, notre société pense que nous avons enfin atteint la parité des coûts avec des installations basées sur des disques durs et fondamentalement éliminant le dernier argument pour les supports mécaniques dans l’entreprise. »

Éteindre chaque fois que possible

Dans certains cas, les meilleures puces sont celles qui ne font rien du tout. Les concepteurs de téléphones mobiles tentent de stabiliser le besoin de plus de performances avec le besoin utile d’une longue durée de vie de la batterie. Les puces des différents appareils intelligents sont toutes améliorées pour utiliser la plus petite quantité d’énergie tout en offrant des écrans vidéo haute résolution et une interaction permanente.

L’une des méthodes essentielles consiste pour la puce à arrêter les cœurs de processeur ou les sous-systèmes supplémentaires lorsqu’ils ne sont pas utilisés. Les utilisateurs d’appareils intelligents peuvent voir l’autonomie de la batterie suivre l’utilisation de leur téléphone et les téléphones les plus intelligents sont ceux qui consomment le moins d’énergie possible lorsqu’ils sont assis dans une poche.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici