mercredi, 24 avril 2024

Existe-t-il un moyen plus respectueux de l’environnement de former l’intelligence artificielle?

L’apprentissage automatique change le monde et le change rapidement. Au cours des dernières années, il nous a apporté des assistants virtuels qui comprennent le langage, les camions autonomes, les découvertes de médicaments flambant neufs, le triage basé sur l’IA pour les scans médicaux, la reconnaissance de l’écriture manuscrite et plus encore.

Une chose que l’intelligence artificielle ne devrait pas changer est le climat.

Le problème est lié à la façon dont l’apprentissage automatique est établi. Pour que l’intelligence artificielle (et la connaissance approfondie) soit en mesure de prendre des décisions et des prédictions avec précision, elle doit être «formée».

Pensez à un marché en ligne pour la vente de chaussures, qui a eu un problème avec les gens qui tentent d’offrir d’autres choses sur le site Web – des vélos et des chats et des billets de théâtre. Les propriétaires de marché choisissent de limiter le site Web aux chaussures uniquement, en développant une IA pour reconnaître les images de chaussures et en refusant toute annonce sans chaussures sur la photo.

L’entreprise rassemble des dizaines de milliers de photos de chaussures et un nombre comparable de photos sans chaussures. Il travaille avec des scientifiques des données pour concevoir un modèle mathématique complexe et le convertir en code. Et puis ils commencent à former leur conception d’apprentissage de dispositif de détection de chaussures.

C’est la partie essentielle: la conception informatique regarde toutes les images de chaussures et tente de déterminer ce qui les rend « shoey ». Qu’est-ce qu’ils ont que les images non-chaussures n’ont pas? Sans trop s’enliser dans les informations techniques, ce processus prend beaucoup de temps et de ressources de calcul. La formation de conceptions d’apprentissage d’appareils précises implique d’exécuter de nombreuses puces telles que des GPU, à pleine puissance, 24 heures sur 24 pendant des semaines ou des mois, à mesure que les conceptions sont entraînées, modifiées et affinées.

En plus du temps et des coûts, la formation en IA utilise beaucoup d’énergie. Les puces informatiques modernes n’utilisent qu’une puissance minimale lorsqu’elles sont inactives, mais lorsqu’elles fonctionnent à pleine capacité, elles peuvent brûler grâce à l’électricité, produisant des masses de chaleur résiduelle (qui doivent également être drainées à l’aide de systèmes de refroidissement qui utilisent, oui, plus d’énergie) .

Toute consommation d’énergie significative a des implications pour la modification de l’environnement, car la majorité de notre énergie électrique est toujours créée à partir de sources de combustibles non renouvelables, produisant du CO2 pendant leur combustion. Une étude récente de l’Université du Massachusetts a déclaré que la formation d’une seule IA innovante de traitement du langage produisait 626 000 livres de CO2, la même quantité que cinq véhicules produiraient au cours de leur vie!

Une équipe de l’Institut canadien des algorithmes d’apprentissage de Montréal (MILA) a publié le calculateur d’émissions d’apprentissage du fabricant en décembre de l’année dernière pour aider les scientifiques dans le domaine de l’IA à estimer la quantité de carbone produite lors de la formation de leur fabricant.

Ce problème s’aggrave, car les scientifiques et les ingénieurs de l’information résolvent des problèmes d’IA plus complexes en leur donnant plus de puissance, en utilisant un calcul plus gros et plus coûteux pour résoudre des problèmes difficiles au lieu de se concentrer sur les performances.

GPT-3, le design de langage basé sur l’IA récemment publié par OpenAI, a été formé sur 45 téraoctets de données textuelles (la totalité de Wikipédia en anglais, couvrant quelque 6 millions d’articles, ne comprend que 0,6% de son données d’entraînement) avec les dépenses écologiques de cette technologie d’apprentissage automatique hyper-puissante encore non identifiées.

Pour être honnête, d’autres processus de calcul sont également sur une trajectoire inquiétante. Une étude menée par l’expert en TIC Anders Andrae a révélé que, selon ses prévisions les plus optimistes, d’ici 2030, le marché des TIC, qui fournit des services Web, vidéo, voix et autres services cloud, serait responsable de 8% du total des besoins énergétiques mondiaux alors que son la projection a mis ce nombre à 21% – les centres de données en utilisant plus d’un tiers.

Parmi les recommandations cruciales de la recherche de l’Université du Massachusetts pour réduire les déchets engendrés par la formation à l’IA figurait «  ».

Les logiciels peuvent également être utilisés pour augmenter les performances du matériel, diminuant ainsi la puissance de calcul requise pour les conceptions d’IA, mais l’effet le plus significatif viendra probablement de l’utilisation de sources de ressources renouvelables pour les centres d’information eux-mêmes. Le centre de données de Facebook à Odense, au Danemark, fonctionnerait entièrement sur des sources de ressources renouvelables. Google dispose de ses propres centres d’information écoénergétiques, comme celui-ci à Hamina, en Finlande.

À très long terme, alors que les économies commerciales mondiales s’éloignent des combustibles fossiles, peut-être que le lien entre la charge de calcul et la production de CO2 sera rompu et que tout l’apprentissage automatique sera neutre en carbone. Même un apprentissage approfondi à plus long terme sur les conditions météorologiques et climatiques pourrait aider l’humanité à mieux comprendre comment lutter et même inverser le changement climatique.

Jusque-là, les entreprises responsables doivent réfléchir à l’effet carbone de leurs nouvelles innovations consistant en la connaissance des appareils et prendre des mesures pour mesurer la dépense carbone de l’avancement de leur conception en mettant à jour l’efficacité du développement, des logiciels et du matériel.

.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici