S’il est une vague qui aura tout emporté en 2023, c’est celle de l’Intelligence Artificielle.
Certes, toutes les technologies sous-jacentes à l’IA sont connues et pratiquées depuis longtemps. Mais c’était sans compter sur OpenAI et son produit phare, ChatGPT. L’IA générative a la particularité d’être proposée et accessible à toutes les organisations et au grand public, qui peuvent l’interroger en langage naturel. C’est là qu’est la révolution. Microsoft l’a bien compris qui a acquis OpenAI à prix d’or, ce qui a entraîné tout l’écosystème IT et toute l’économie dans son sillage. Pas un éditeur, pas un constructeur, pas un service Cloud qui n’offre aujourd’hui son IA. Qu’est-ce qui a permis cette révolution ? Ce sont les GPU, les processeurs des cartes graphiques désormais utilisés comme moteur d’exécution des algorithmes de l’IA. Précédemment, les infrastructures pour faire tourner du ML (Machine Learning) ou de l’IA étaient si lourdes qu’elles restaient réservées à des projets de recherche sur de puissantes machines de calcul. Aujourd’hui, l’IA devient enfin accessible à tous !
L’IA se déploie sur des serveurs équipés de GPU
Quel est l’impact de l’IA sur les datacenters ? L’IA s’exécute sur des serveurs, ceux-ci reposent sur une infrastructure de base qui les héberge, les alimente en énergie, les refroidit et les protège : le datacenter. L’explosion de l’IA, surtout si elle est adoptée par toutes les solutions informatiques, va donc se déployer au travers des datacenters. Mais l’IA nécessite de la puissance et se déploie sur des serveurs équipés de GPU. Or comparé à un CPU (processeur informatique), un GPU consomme au moins 100 fois plus d’énergie. La demande liée à l’IA explose, celle des infrastructures nécessaires pour la faire tourner suit. Les datacenters vont devoir s’adapter et offrir des configurations de salles capables de supporter l’augmentation de puissance liée aux serveurs de l’IA. Concrètement, les usages de type poste de travail et gestion (ERP, CRM) ne nécessitent pas de forte puissance : les baies qui hébergent les serveurs sont alimentées avec une puissance de 4 à 5 kW, et c’est la majorité. L’arrivée des infrastructures convergées concentre les machines ce qui nécessite plus de puissance. Les plus performantes disposent de 10 à 15 kW par baie. La performance des GPU impose des puissances qui peuvent atteindre 60, 80 voire 100 kW à la baie. Aux Etats-Unis, le géant CyrusOne a même annoncé la construction d’un datacenter destiné à l’IA proposant jusqu’à 300 kW par rack ! La plupart des datacenters ne sont pas adaptés pour fournir ces puissances. En particulier, le refroidissement par air a ses limites : il est peu efficace mais suffit pour un usage classique. A partir de 35 kW, il faut revoir le refroidissement et adopter le liquid cooling (refroidissement par eau ou avec un fluide), le liquid cooling direct sur le processeur CPU ou GPU, ou encore l’immersion (les serveurs sont placés dans un liquide diélectrique non conducteur).
Tous les datacenters ne sont pas concernés
Faut-il revoir la conception des datacenters ? L’explosion de l’IA ne va pas concerner tous les datacenters, la majorité des équipements qui y sont hébergés concernent le stockage des données. Son empreinte, comme celle des serveurs et des réseaux, reste faible et ne nécessite pas de la forte puissance électrique à la baie. Ils pourront cependant augmenter la puissance de 5 à 10, voire 15 kW pour répondre à des attentes de densification raisonnable. Pour autant, l’IA interpelle tous les opérateurs de datacenters, et certains d’entre eux envisagent de réserver des espaces au HPC (Calcul), à l’exemple de Digital Realty ou NDC (Nation Data Center) qui l’ont annoncé, ou encore Eclairion spécialisé dans l’hébergement du HPC. Ce qui ressort cependant des attentes des opérateurs, c’est la nécessité de travailler et d’optimiser l’urbanisation des salles informatiques et la mesure, et de disposer de solutions alternatives de refroidissement comme le liquid cooling, voire l’immersion. La nécessité également de renforcer la sécurité du datacenter, à la fois pour protéger la donnée des risques d’intrusion, et même terroristes, et pour se protéger des risques d’incendie, plus de puissance entraînant mécaniquement plus d’incidents électriques. Sans oublier la cybersécurité, actuellement le parent pauvre de la sécurité des datacenters. Le datacenter de demain ne sera pas de l’extérieur si différent de celui d’aujourd’hui. Par contre, à l’intérieur, il sera un plus grand concentré de technologies et d’énergie, et une machine optimisée par et pour l’IA. C’est à ce prix que l’IA va le révolutionner.