Comment l’IA générative révèle les limites de l’infrastructure des centres de données

L’essor de l’IA générative ne connaît pas de limite, bien au contraire. Selon une enquête récente, l’énergie nécessaire pour faire fonctionner cette technologie double tous les 100 jours. L’entraînement et le déploiement de modèles d’IA générative sont extrêmement gourmands en énergie, ce qui induit une hausse exponentielle de la consommation d’énergie et un besoin croissant de puissance de calcul. L’Agence internationale de l’énergie indique que les centres de données consomment déjà jusqu’à 2% de l’électricité mondiale?; une part qui ne fera qu’augmenter. L’IA générative nécessite du matériel de plus en plus puissant et gourmand en énergie, ce qui rend de plus en plus urgente la recherche de moyens innovants pour dissiper la chaleur des unités de traitement graphique (GPU).

post-image-3

Selon les chiffres de Goldman Sachs, on estime que chaque tâche de ChatGPT consomme près de 10 fois plus d’énergie qu’une recherche sur Google. Cette situation exerce une pression supplémentaire sur l’alimentation électrique des centres de données et nécessite des solutions de refroidissement innovantes. Le refroidissement traditionnel par air n’est plus adapté et, à une époque où la durabilité s’érige en priorité pour les entreprises, le refroidissement par liquide est une étape logique. Il permet de réduire la consommation d’énergie jusqu’à 40 % et de réduire nettement les émissions de CO? des centres de données.

Toujours plus de courant

Les GPU, qui alimentent les systèmes d’intelligence artificielle, consomment cinq à dix fois plus d’énergie que les unités centrales de traitement (CPU) traditionnelles en raison de leur plus grande densité de transistors. Les GPU gagnent, quant à eux, en compacité grâce à de nouvelles méthodes de conception, telles que l’empilement du silicium 3D, ce qui augmente encore les besoins en énergie et libère plus de chaleur. Dans le même temps, la température maximale de sécurité (TCase) des puces modernes passe de 90-100 °C à 70-80°, ce qui nécessite des solutions de refroidissement plus efficaces pour éviter la surchauffe.

En raison de ces facteurs, le refroidissement par air n’est plus suffisant pour les centres de données d’IA. L’enjeu ne se limite pas à la puissance des composants, il concerne aussi la densité grandissante des datacenters. Sans serveurs plus grands, ce qui n’est pratiquement pas faisable, une dissipation efficace de la chaleur est nécessaire. Le refroidissement par liquide devient indispensable pour l’application à grande échelle de l’intelligence artificielle.

Montée en puissance du refroidissement liquide

Le refroidissement liquide est en plein essor, en particulier dans les instituts de recherche publics qui ont besoin de la dernière technologie de centre de données pour le calcul à haute performance (HPC) et l’IA. Les entreprises, qui tentent généralement d’éviter les risques, suivent désormais de plus en plus le mouvement. L’industrie automobile et les institutions financières, souvent réticentes au risque en raison des exigences réglementaires, adoptent la technologie, tout comme les fournisseurs de services dans les centres de données de colocation. Ces secteurs peuvent fonctionner plus efficacement grâce au refroidissement liquide et mieux répondre aux besoins énormes en énergie de l’IA générative.

La différence avec le refroidissement liquide

Le refroidissement liquide offre des avantages significatifs au niveau du serveur et dans l’ensemble du centre de données. Les systèmes utilisant un refroidissement par eau à température ambiante réduisent la dépendance à l’égard d’équipements de refroidissement coûteux et maximisent leur efficacité énergétique. Les serveurs dépourvus de ventilateurs consomment moins d’énergie, et le refroidissement liquide permet une utilisation plus efficace de l’énergie. Dans certains centres de données refroidis par liquide, seul un tiers de l’énergie est consacré au refroidissement, le reste est consacré à la puissance informatique.

L’une des mesures de l’efficacité est le Power Usage Effectiveness (PUE), qui divise la consommation totale d’énergie du centre de données par les besoins en énergie de l’équipement informatique. Les centres de données conventionnels ont souvent un PUE de 1,5, tandis que les centres de données à refroidissement liquide atteignent un PUE de 1,1, voire 1,04. Cela signifie que pratiquement aucune énergie n’est perdue pour le refroidissement. De plus, la chaleur dégagée par le refroidissement liquide peut être réutilisée, par exemple pour chauffer les bâtiments en hiver — une solution que certaines organisations mettent d’ores et déjà en œuvre.

Vers un centre de données plus propre

Les besoins en énergie de l’IA générative ne cessent de croître et les systèmes à refroidissement liquide offrent la densité énergétique requise. Ils aident les entreprises à réduire leur consommation d’énergie, tandis que les centres de données peuvent héberger les GPU nécessaires aux innovations en matière d’IA. Le refroidissement par air ne suffit plus pour répondre aux énormes besoins de l’IA générative.

Show More
Back to top button