L'intelligence artificielle fait l'objet de travaux depuis des dizaines d'années mais sa présence s'est faite plus marquante avec l'arrivée des IA génératives, à commencer par ChatGPT d'OpenAI dévoilé fin 2022.

Depuis, le secteur est en ébullition, entre la multiplication des IA, leur intrication dans les activités économiques humaines et la production à tour de bras d'accélérateurs IA pour les animer.

Tout ceci demande des ressources, beaucoup de ressources, et notamment en matière d'énergie. Les datacenters IA sont des gouffres en matière de consommation d'électricité et d'eau pour refroidir les installations et l'accélération du marché de l'IA ne fait qu'amplifier le phénomène.

Un rythme insoutenable

Dès à présent, certains observateurs s'inquiètent de cette tendance et Rene Hass, le CEO de ARM, entreprise qui produit des architectures de puces, estime que si l'on ne trouve pas des moyens d'optimiser l'efficacité énergétique des composants, les datacenters IA vont devenir un problème.

datacenter

Ce travail d'optimisation est une des spécialités de ARM et le dirigeant plaide logiquement pour sa paroisse. Si l'efficacité énergétique est certainement à prendre en compte pour éviter le gaspillage des ressources, elle ne pourra guère empêcher la rapide montée de la consommation d'électricité.

Interrogé par le Wall Street Journal, il relève que si la consommation d'électricité par les datacenters IA représente actuellement 4% de la production d'électricité aux Etats-Unis, elle pourrait peser 20 à 25% d'ici 2030.

Efficacité énergétique, nouvelles sources d'énergie, différentes pistes

La faute en reviendrait particulièrement aux modèles de langage ou LLM qui seraient "insatiables". Ses remarques vont dans le sens de plusieurs rapports, dont ceux de l'IEA (Agence internationale de l'Energie) qui anticipe la monte très rapide de la consommation d'électricité des datacenters IA, note le site The Register.

Traiter une requête par LLM consomme environ 10 fois plus d'énergie que le faire depuis un moteur de recherche traditionnel et l'on imagine l'immense consommation électrique nécessaire si un acteur comme Google basculait vers un modèle purement IA dans le traitement des requêtes.

Les appels à la surveillance de la consommation électrique des datacenters IA se multiplient donc pour éviter de se retrouver dans une situation difficile et dans l'attente de la mise en application de solutions qui pourraient passer par des réacteurs nucléaires miniatures (SMR) alimentant ces infrastructures.

Source : The Register