Comment réduire l’empreinte carbone de l’IA ?

deep tech innovation IA environnement écologie
deep tech innovation IA environnement écologie
Image par James de Pixabay

Technologie sans conscience n’est que ruine de l’Homme.

Pourquoi cet article est intéressant ?  L. Bardon . – En 2019, des chercheurs de l’université du Massachusetts, Amherst, publiaient un article montrant que l’énergie nécessaire pour entraîner un seul réseau neuronal pourrait entraîner des émissions de CO2 près de cinq fois supérieures à celles d’une voiture américaine moyenne pendant sa durée de vie.

❌Le coût carbone, lié a croissance de l’Internet des objets et aux efforts réalisés pour intégrer des systèmes d”IA dans des appareils électroniques comme les smartphones et les haut-parleurs intelligents, monte en flèche. 

 ✅Il y  a quelques années, Google révélait avoir donné le contrôle du refroidissement de plusieurs de ses centres de données leviathan à un algorithme d’IA. Google avait testé pendant 2 ans un algorithme qui apprennait à ajuster au mieux les systèmes de refroidissement (ventilateurs, ventilation et autres équipements) pour réduire la consommation d’énergie. Ce système faisait auparavant des recommandations aux gestionnaires de centres de données, qui décidaient de les mettre en œuvre ou non, ce qui se traduisait par des économies d’énergie d’environ 40%.

🌊Le présent est la bêta version du futur.


Synthèse

Les expériences d’apprentissage automatique devenant de plus en plus sophistiquées, leur empreinte carbone s’envole. Des chercheurs ont calculé le coût carbone lié à l’entraînement d’une série de modèles au sein de centres de données situés dans différentes zones géographiques. Leurs conclusions pourraient aider les chercheurs à réduire les émissions générées par les travaux reposant sur l’intelligence artificielle (IA).

Les installations situées à différents endroits ont des empreintes carbone différentes en raison de la variation mondiale des sources d’énergie, ainsi que des fluctuations de la demande.

Les chercheurs ont ainsi constaté que l’entraînement de BERT, un modèle de langage d’apprentissage automatique, dans des centres de données situés dans le centre des États-Unis ou en Allemagne, émettait 22 à 28 kilogrammes de dioxyde de carbone, selon la période de l’année. Ce chiffre représente plus du double des émissions générées par la même expérience en Norvège, qui tire la majeure partie de son électricité de l’énergie hydroélectrique, ou en France, qui s’appuie principalement de l’énergie nucléaire.

Le moment de la journée où se déroulent les expériences a également son importance. Par exemple, entraîner une IA à Washington pendant la nuit, alors que l’électricité de l’État provient uniquement de l’énergie hydroélectrique, a entraîné des émissions plus faibles que pendant la journée.

L’étude peut aider les scientifiques à choisir le centre de données à utiliser pour minimiser les émissions.

La responsabilité de la réduction des émissions devrait incomber au fournisseur de services dans le cloud plutôt qu’au chercheur. Les fournisseurs pourraient s’assurer qu’à tout moment, les centres de données ayant la plus faible intensité de carbone sont les plus utilisés.

La suite ici (Elizabeth Gibney)

(Visited 1 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

1 commentaire

  1. Merci Loïc, très intéressant sur l’aspect “carboné” de l’IA… donc du numérique. La sobriété, ineluctable pour contrer efficacement le réchauffement climatique, est indispensable dans ce secteur (prolifération de data-centers pour stocker les big-data…sans parler d’un autre aspect concernant la protection des données personnelles sur des clouds souverains français ou européens, mais non américains (conflit juridique RGPD/Cloud Act).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :