L'IA peut-elle réduire l'empreinte carbone de la tech ?
Partout dans le monde, les serveurs de données bourdonnent, consommant à la fois des mégawatts et de précieuses ressources naturelles pour donner vie à notre monde numérique.
Les quelque 8 000 centres de données de la planète constituent le fondement de notre existence en ligne et vont croître encore davantage avec l'avènement de l'intelligence artificielle - à tel point que des recherches estiment que d'ici 2025, l'industrie informatique pourrait utiliser 20 % de toute l'électricité produite, et émettent jusqu'à 5,5 pour cent des émissions mondiales de carbone.
Cela pose une question réelle – et pour certains, de plus en plus urgente – sur l'empreinte carbone de l'industrie, alors que les startups et les entreprises sont à la traîne de la dernière marche en avant de la Silicon Valley.
"La boîte de Pandore est ouverte", a déclaré Arun Iyengar, PDG d'Untether AI, une entreprise hautement spécialisée dans la fabrication de puces qui s'efforce de rendre l'IA plus économe en énergie.
"Nous pouvons utiliser l'IA de manière à améliorer les exigences climatiques ou nous pouvons ignorer les exigences climatiques et nous retrouver confrontés aux conséquences dans une dizaine d'années en termes d'impact."
La transformation des serveurs de données mondiaux vers l'IA est déjà bien avancée, dans ce qu'un dirigeant de Google a qualifié de " point d'inflexion unique dans une génération dans l'informatique ".
Mais la portée de la mission est immense.
La création d'outils d'IA générative tels que GPT-4, qui alimente ChatGPT, ou Palm2 de Google, derrière le bot Bard, peut être décomposée en deux étapes clés, la " formation " proprement dite puis l'exécution (ou " inférence ").
En 2019, des chercheurs de l'Université du Massachusetts à Amherst ont formé plusieurs grands modèles linguistiques et ont découvert que la formation d'un seul modèle d'IA peut émettre l'équivalent en émissions de CO2 de cinq voitures au cours de leur durée de vie.
Une étude plus récente réalisée par Google et l'Université de Californie à Berkeley a rapporté que la formation GPT-3 entraînait 552 tonnes d'émissions de carbone, ce qui équivaut à conduire un véhicule de tourisme sur 1,24 million de miles (2 millions de kilomètres).
Le modèle de dernière génération d'OpenAI, GPT-4, est formé sur environ 570 fois plus de paramètres (ou d'entrées) que GPT-3, et l'échelle de ces systèmes ne fera qu'augmenter à mesure que l'IA deviendra plus puissante et omniprésente.
Nvidia, le géant des puces d'IA, fournit les processeurs indispensables à l'entraînement, appelés GPU. Et même si elles sont plus économes en énergie que les puces classiques, elles restent de redoutables consommatrices d'énergie.
L'autre aspect de l'IA générative est le déploiement, ou l'inférence : lorsque le modèle formé est appliqué pour identifier des objets, répondre à des invites textuelles ou quel que soit le cas d'utilisation.
Le déploiement ne nécessite pas nécessairement la puissance informatique d'une puce Nvidia, mais prises cumulativement, les interactions infinies dans le monde réel dépassent de loin la formation en termes de charge de travail.
"L'inférence va devenir encore plus problématique désormais avec ChatGPT, qui peut être utilisé par n'importe qui et intégré dans la vie quotidienne via des applications et des recherches sur le Web", a déclaré Lynn Kaack, professeur adjoint d'informatique à l'école Hertie de Berlin.
Les plus grandes sociétés de cloud computing insistent sur leur engagement à être aussi économes en énergie que possible.
Amazon Web Services s'engage à être neutre en carbone d'ici 2040, tandis que Microsoft s'est engagé à être neutre en carbone d'ici 2030.
Les dernières preuves du sérieux des entreprises en matière d'efficacité énergétique sont rassurantes.
Entre 2010 et 2018, la consommation énergétique mondiale des centres de données n'a augmenté que de 6 %, malgré une augmentation de 550 % des charges de travail et des instances informatiques, selon l'Agence internationale de l'énergie.
Les magnats de l'IA de la Silicon Valley estiment que les discussions sur l'empreinte carbone actuelle de l'IA sont hors de propos et sous-estiment son potentiel révolutionnaire.
Les opposants ont les choses "à l'envers", a déclaré le PDG de Nvidia, Jensen Huang, aux journalistes lors d'une récente visite au siège de son entreprise en Californie.
Le déploiement massif de l'IA et d'une informatique plus rapide réduira à terme le besoin d'accéder aux nuages de données mondiaux, a-t-il soutenu.
Les super pouvoirs de l'IA transformeront votre ordinateur portable, votre voiture ou l'appareil que vous avez dans votre poche en un superordinateur économe en énergie sans qu'il soit nécessaire de " récupérer " les données du cloud.
"Dans le futur, il y aura un petit modèle qui sera placé sur votre téléphone et 90 pour cent des pixels seront générés, 10 pour cent seront récupérés, au lieu de 100 pour cent - et vous allez donc économiser ( énergie)", a-t-il déclaré.
Sam Altman, d'OpenAI, estime quant à lui que l'IA sera bientôt capable de construire un avenir complètement nouveau pour l'humanité.
"Je pense qu'une fois que nous aurons une super intelligence vraiment puissante, la lutte contre le changement climatique ne sera pas particulièrement difficile", a récemment déclaré Altman.
"Cela illustre à quel point nous devrions rêver grand... Pensez à un système dans lequel vous pourriez dire : 'Dites-moi comment produire beaucoup d'énergie propre à moindre coût, dites-moi comment capturer efficacement le carbone et dites-moi comment construire une usine pour faites cela à l'échelle planétaire.
Mais certains experts craignent que la course folle à l'IA ait dissipé les craintes concernant la planète, du moins pour le moment.
"Les grandes entreprises dépensent actuellement beaucoup d'argent pour déployer l'IA. Je ne pense pas qu'elles pensent encore à l'impact environnemental", a déclaré Iyengar d'Untether AI.
Mais il a ajouté : "Je pense que cela s'en vient".
© Copyright AFP 2024. All rights reserved.