Cela peut sembler magique. Tapez une demande dans ChatGPT, cliquez sur un bouton et — hop ! — voici une analyse en cinq paragraphes de l'œuvre de Shakespeare Hamlet et, en prime, c'est écrit en pentamètre iambique. Ou parlez à DALL-E de l'animal chimérique de votre rêve, et il en ressort une image d'un hybride gecko-loup-étoile de mer. Si vous vous sentez déprimé, appelez le « fantôme » numérique de votre grand-mère décédée et recevez un peu de réconfort (SN : 15/06/24, p. 10).
Malgré ce que cela peut paraître, rien de tout cela ne se matérialise de nulle part. Chaque interaction avec un chatbot ou un autre système d'IA générative est acheminée via des fils et des câbles vers un centre de données – un entrepôt rempli de piles de serveurs qui transmettent ces invites à travers des milliards (et potentiellement des milliards) de paramètres qui dictent la réponse d'un modèle génératif.
Le traitement et la réponse aux invites consomment de l'électricité, tout comme l'infrastructure de support comme les ventilateurs et la climatisation qui refroidissent les serveurs vrombissants. En plus des factures de services publics élevées, cela entraîne de nombreuses émissions de carbone liées au réchauffement climatique. La production d’électricité et le refroidissement des serveurs consomment également des tonnes d’eau, qui sont utilisées dans la production de combustibles fossiles et d’énergie nucléaire, ainsi que pour les systèmes de dissipation thermique par évaporation ou liquide.
Cette année, alors que la popularité de l’IA générative continue de croître, les environnementalistes ont tiré la sonnette d’alarme sur cette technologie gourmande en ressources. Le débat sur la manière de peser les coûts par rapport aux avantages moins tangibles qu’apporte l’IA générative, tels qu’une productivité accrue et un accès à l’information, est ancré dans des divisions idéologiques sur l’objectif et la valeur de la technologie.
Les partisans soutiennent que cette dernière révolution de l’IA est un bien sociétal, voire une nécessité, qui nous rapproche plus que jamais de l’intelligence artificielle générale, de systèmes informatiques hyperperformants qui, selon certains, pourraient constituer une technologie révolutionnaire au même titre que l’imprimerie ou Internet.
L'IA générative « est un accélérateur pour tout ce que vous voulez faire », déclare Rick Stevens, directeur de laboratoire associé à l'Argonne National Laboratory et informaticien à l'Université de Chicago. Selon lui, la technologie a déjà permis des gains de productivité importants pour les entreprises et les chercheurs.
Une analyse a révélé des gains de performances de 40 % lorsque des travailleurs qualifiés utilisaient des outils d’IA, note-t-il. Les assistants IA peuvent stimuler l’apprentissage du vocabulaire dans les écoles, ajoute-t-il. Ou aider les médecins à diagnostiquer et à traiter les patients et à améliorer l'accès aux informations médicales, explique Charlotte Blease, chercheuse interdisciplinaire à l'Université d'Uppsala en Suède qui étudie les données de santé. L'IA générative pourrait même aider les urbanistes à réduire la circulation (et réduire les émissions de carbone dans le processus), ou aider les agences gouvernementales à mieux prévoir la météo, explique Priya Donti, ingénieur électricien et informaticien au MIT et cofondatrice de l'organisation à but non lucratif Climate Change AI. . La liste est longue.
Aujourd’hui, à ce moment critique, des experts de domaines aussi variés que l’économie, l’ingénierie informatique et la durabilité s’efforcent d’évaluer le véritable fardeau de la technologie.
Combien d’énergie l’IA consomme-t-elle ?
ChatGPT et d'autres outils génératifs sont gourmands en énergie, déclare Alex de Vries, fondateur de l'agence de recherche et de conseil Digiconomist et titulaire d'un doctorat. candidat à la Vrije Universiteit Amsterdam. « Plus vous agrandissez ces modèles – plus il y a de paramètres, plus il y a de données – plus ils fonctionnent. Mais bien sûr, plus gros nécessite également plus de ressources informatiques pour les former et les exécuter, ce qui nécessite plus de puissance », explique de Vries, qui étudie l’impact environnemental de technologies telles que la crypto-monnaie et l’IA. « Plus c'est gros, mieux c'est, ça marche pour l'IA générative, mais ça ne marche pas pour l'environnement. »
Former des modèles d’IA génératifs pour cracher une analyse de Shakespeare ou l’image d’un animal fantastique coûte cher. Le processus implique de développer une architecture d’IA, d’accumuler et de stocker des quantités de données numériques, puis de faire en sorte que le système d’IA ingère et incorpore ces données – qui peuvent représenter tout ce qui est accessible au public sur Internet – dans ses processus de prise de décision. Affiner les modèles pour qu'ils soient plus humains et évitent les réponses dangereuses demande des efforts supplémentaires (SN : 27/01/24, p. 18).
Au total, la formation d’un seul modèle consomme plus d’énergie que 100 foyers américains en un an. Selon l'Agence internationale de l'énergie, l'interrogation de ChatGPT consomme environ 10 fois plus d'énergie qu'une recherche en ligne standard. Composer un e-mail avec un chatbot IA peut prendre sept fois plus d’énergie que charger complètement un iPhone 16, estiment certains chercheurs.
Bien que la formation soit clairement une ressource inutile, lorsque des millions de personnes comptent sur les chatbots pour leurs tâches quotidiennes, cela s'additionne, explique Shaolei Ren, ingénieur électricien et informatique à l'Université de Californie à Riverside. À tel point que le secteur de l’IA pourrait bientôt consommer autant d’énergie par an que les Pays-Bas, estimait de Vries en 2023 dans Joule. Compte tenu de la croissance rapide de l’IA générative, la trajectoire actuelle dépasse déjà les prévisions.
Et ce n'est que de l'électricité. Dix à 50 requêtes ChatGPT utilisent un demi-litre d’eau, selon une analyse réalisée en 2023 par Ren et ses collègues. Cela s’est également avéré être une grande sous-estimation, dit-il, divisée par quatre.
Certains ingénieurs et experts en IA contestent ces chiffres. « Je ne comprends pas quelle est la science derrière ces [estimates] », déclare David Patterson, ingénieur chez Google et professeur émérite à l'Université de Californie à Berkeley. « La seule façon que je puisse imaginer d'obtenir un [accurate] La réponse serait une coopération étroite avec une entreprise comme Google.
Pour le moment, c'est impossible. Les entreprises technologiques publient des informations limitées sur leurs centres de données et leurs modèles d'IA, déclarent de Vries et Ren. Il est donc difficile d’évaluer avec précision le coût de l’IA du début à la fin ou de prédire l’avenir. Dans leurs estimations, les deux chercheurs se sont appuyés sur des indicateurs indirects, tels que les chiffres de production de serveurs d'IA de la société technologique Nvidia ou la combinaison des connaissances sur l'emplacement des centres de données avec des informations provenant de rapports de développement durable d'entreprise.
Cependant, les tendances du monde réel témoignent de l’appétit énergétique vorace de l’IA. Pendant des décennies, avant le boom de l'IA générative, les gains d'efficacité ont compensé la demande croissante d'énergie liée à l'expansion des centres de données et de l'informatique, explique Andrew Chien, informaticien à l'Université de Chicago. Cela a changé. Fin 2020, l’expansion des centres de données a commencé à dépasser les améliorations d’efficacité, dit-il. La consommation d'énergie autodéclarée de Google et de Microsoft a plus que doublé entre 2019 et 2023. La sortie de ChatGPT fin 2022 a déclenché une frénésie d'IA générative – exacerbant le problème, dit Chien. Avant 2022, la demande totale d’énergie aux États-Unis était stable depuis environ 15 ans. Maintenant, ça augmente.
« Le moyen le plus simple d'économiser de l'énergie est de ne rien faire », explique Patterson. Mais « le progrès implique des investissements et des coûts ». L’IA générative est une technologie très jeune, et s’arrêter maintenant entraverait son potentiel, affirme-t-il. « Il est trop tôt pour le savoir [generative AI] ne fera pas plus que compenser l'investissement.
Une voie plus durable pour l’IA
La décision ne doit pas nécessairement être entre arrêter complètement le développement de l’IA générative ou lui permettre de se poursuivre sans restriction. Au lieu de cela, la plupart des experts notent qu'il existe une manière plus responsable d'aborder la technologie, en atténuant les risques et en maximisant les récompenses.
Des politiques obligeant les entreprises à divulguer où et comment elles utilisent l'IA générative, ainsi que la consommation d'énergie correspondante, seraient un pas dans la bonne direction, estime Lynn Kaack, experte en informatique et en politiques publiques à l'école Hertie de Berlin. Réguler l'utilisation de la technologie et l'accès à celle-ci peut s'avérer difficile, mais Kaack affirme que c'est la clé pour minimiser les dommages environnementaux et sociaux.
Peut-être que tout le monde, par exemple, ne devrait pas pouvoir produire librement des clones de voix et des images photoréalistes en un seul clic. Devrions-nous consacrer la même quantité de ressources à la prise en charge d’une machine à mèmes générative qu’à l’exécution d’un modèle de prévision des ouragans ?
Des recherches plus approfondies sur les limites de la technologie pourraient également permettre d'économiser de nombreuses consommations inutiles. L’IA « est très puissante dans certains types d’applications, mais totalement inutile dans d’autres », explique Kaack.
Pendant ce temps, les centres de données et les développeurs d’IA pourraient prendre des mesures pour réduire leurs émissions de carbone et leur utilisation des ressources, explique Chien. Des changements simples, comme former des modèles uniquement lorsqu'il y a suffisamment d'énergie sans carbone sur le réseau (par exemple, les jours ensoleillés lorsque les panneaux solaires produisent un excès d'énergie) ou réduire subtilement les performances du système en période de pointe de demande d'énergie, pourraient faire une différence mesurable. Le remplacement du refroidissement par évaporation, gourmand en eau, par un refroidissement par immersion liquide ou d'autres stratégies en boucle fermée permettant le recyclage de l'eau réduirait également la demande.
Chacun de ces choix implique des compromis. Les systèmes plus économes en carbone utilisent généralement plus d’eau, explique Ren. Il n’existe pas de solution universelle. L’alternative à l’exploration et à l’incitation de ces options – même si elles rendent légèrement plus difficile pour les entreprises le développement de modèles d’IA de plus en plus grands – met en danger une partie de notre destin environnemental collectif, dit-il.
« Il n'y a aucune raison de croire que la technologie va nous sauver », dit Chien – alors pourquoi ne pas couvrir nos paris ?