L’intelligence artificielle (IA) est considérée comme une technologie numérique clé dans presque tous les domaines de la vie. Les chercheurs du projet SustAIn se plaignent du fait que l’immense consommation de ressources et d’énergie de systèmes pertinents tels que ChatGPT, avec des conséquences négatives massives sur l’environnement et la protection du climat, est largement négligée. Selon eux, le règlement sur l’IA, qui est actuellement négocié dans un processus bloqué par les organes législatifs de l’UE, devrait introduire les premières obligations à l’échelle européenne visant à rendre les produits d’IA plus durables. Le Parlement européen a pris des mesures importantes dans cette bonne direction. Mais les gouvernements nationaux représentés au Conseil des ministres s’y opposent, ce qui pourrait s’avérer fatal et constitue une « négligence ».
Publicité
Données manquantes – la consommation des ressources de l’IA « un grand point noir »
Dans le cadre du programme parrainé par l’État Initiative de recherche L’organisation de la société civile AlgorithmWatch, l’Institut de recherche économique écologique et le laboratoire DAI de la TU Berlin ont travaillé sur un indice de durabilité pour l’IA. L’accent principal est mis sur la manière dont les conséquences des systèmes d’IA sur le climat et l’environnement peuvent être mesurées et rendues transparentes. Par exemple, les organisations qui développent elles-mêmes l’IA ou l’achètent en externe devraient pouvoir tester la durabilité de leurs systèmes concernés à l’aide d’un outil numérique d’auto-évaluation.
Pour le moment, la consommation détaillée des ressources de l’IA est un grand point noir, Kilian Vieth-Ditlmann, chef adjoint de l’équipe politique d’AlgorithmWatch, a expliqué les résultats mercredi : « Nous connaissons les émissions des infrastructures numériques, mais nous ne les connaissons pas. Nous disposons de chiffres exacts pour les systèmes d’IA. » Leurs émissions de CO₂ et leur consommation d’eau douce, par exemple, ne sont pas suffisamment transparentes. Mais il est difficile de réglementer quelque chose « qu’on ne peut pas voir » parce que les données manquent. Il y a actuellement beaucoup de discussions sur les futurs dangers hypothétiques de la technologie, tandis que les effets néfastes actuels sont pour la plupart ignorés.
Des possibilités techniques de mesure existent – la volonté politique fait défaut
Les fournisseurs de grands modèles de langage tels que GPT, LaMDA ou LLaMA n’indiquent souvent que le niveau de consommation d’énergie et d’émissions directes pour un cycle de formation, ont écrit les chercheurs dans leur publication de mercredi. 3ème numéro du magazine SustAIn. C’est complètement incomplet. Ils illustrent cela à partir des chiffres disponibles du modèle Bloom. La consommation d’électricité pendant la phase de formation a entraîné l’émission d’environ 24,7 tonnes d’équivalent CO₂. Mais si l’on inclut dans le calcul la production de matériel et l’énergie de fonctionnement, cette valeur double. Toutefois, cela n’inclut pas encore les émissions continues lors de l’application du modèle. Les premières indications indiquent que ceux-ci sont « très élevés – tant dans la production du matériel nécessaire à l’application que dans son fonctionnement ».
Selon l’équipe, les entreprises peuvent déjà enregistrer et communiquer automatiquement une grande partie des données nécessaires pour évaluer la durabilité des systèmes d’IA. Il s’agit notamment des données d’exploitation des systèmes informatiques, c’est-à-dire de la fréquence à laquelle les calculs sont effectués et de la durée de ces processus. Il ne s’agit pas d’un manque de possibilités techniques de mesure, mais plutôt d’un manque de volonté politique pour mieux concevoir l’IA.
Une consommation d’eau douce « stupéfiante »
En outre, selon les scientifiques, l’empreinte hydrique des systèmes d’IA – l’eau douce utilisée pour produire de l’électricité et refroidir les serveurs – ne fait toujours pas l’objet d’une attention suffisante. Même si le besoin de production de puces est ignoré, Des millions de litres d’eau douce se sont évaporés lors de la formation de grands modèles linguistiques pour le refroidissement des centrales électriques et des serveurs. ChatGPT nécessite également 500 millilitres d’eau pour un dialogue simple avec 20 à 50 questions et réponses. Avec plus de 100 millions d’utilisateurs actifs, la consommation est « vertigineuse ».
«C’est pourquoi nous devons mesurer l’impact des systèmes d’IA sur le climat tout au long de leur cycle de vie, depuis l’extraction des matières premières jusqu’à leur élimination», exigent les chercheurs. C’est le seul moyen de « prendre des décisions éclairées, fondées sur une solide base de connaissances » et de prendre des mesures ciblées. Vieth-Ditlmann a salué le fait que le Parlement européen ait soutenu cette approche, au moins pour les systèmes à haut risque et les modèles de base. L’Allemagne et la France en particulier ont préconisé une autorégulation sans exigences spécifiques pour mesurer les impacts environnementaux. Le ministre fédéral de l’Économie, Robert Habeck (Verts), ignore également les demandes légitimes des députés européens, même si celles-ci n’impliquent pas beaucoup d’efforts bureaucratiques.
Évaluer la durabilité des systèmes d’IA
L’équipe a identifié 13 critères généraux avec plus de 40 indicateurs pour évaluer la durabilité des systèmes d’IA et, sur cette base, a conçu un questionnaire destiné aux organisations. Un exemple : le critère de durabilité sociale « autodétermination et protection des données » exige que les utilisateurs aient le contrôle de l’utilisation de leurs informations personnelles via des fonctions d’adhésion ou de désinscription. Dans 48 à 66 questions, les entreprises ou les organismes publics sont également invités à indiquer s’ils suivent un code de conduite ou si les centres de données et le matériel qu’ils utilisent disposent de certifications de durabilité. Le questionnaire est évalué à l’aide d’un système de points et de feux tricolores.
Dans le même temps, les chercheurs critiquent la publicité personnalisée comme étant une « collecte massive de données via des identifiants numériques et des systèmes basés sur l’IA » ayant des effets néfastes. De tels serveurs consommaient beaucoup d’énergie, provoquaient des émissions de CO₂ et incitaient les gens à acheter des biens et services de consommation plus gourmands en ressources. Les processus de traitement des données associés devraient donc également être réduits ou de tels modèles publicitaires devraient être interdits.
(bme)
“Coffee addict. Lifelong alcohol fanatic. Typical travel expert. Prone to bouts of apathy. Internet pioneer.”