Selon Nutanix, toutes les couches de l’IT seront amenées à évoluer en même temps que le développement de l’IA.
Nutanix, un leader du cloud hybride et du multicloud présente ses tendances pour le futur de l’IA. Selon Nutanix, l’IA va s’imposer dans le cloud, son évolution reposera sur l’algèbre linéaire, les systèmes d’infrastructure vont changer et les GPU seront mis de côté alors qu’Apple ne s’est pas encore prononcé sur le sujet. Voici les cinq tendances qui selon Induprakas Keri, SVP & General Manager of Hybrid Multicloud de Nutanix vont animer l’année 2024.
Les entreprises se tournent de plus en plus vers le cloud hybride
L’IA étant un cas d’utilisation du cloud hybride, des données publiques sont utilisées pour créer un modèle de base. Il faut ensuite affiner et augmenter ce modèle pour le rendre plus spécifique à l’entreprise, et cela ne peut vraiment se faire que dans le data center de l’entreprise. Avec une infrastructure en tant que service, la perte de données est inévitable. Toute l’inférence se fait ensuite à la périphérie.
L’algèbre linéaire revient à la page
Le sujet de l’algèbre linéaire redevient clé pour aider à faire avancer les projets d’applications basées sur l’IA. De nombreuses opérations en IA, comme les transformations, les rotations et la mise à l’échelle, sont des opérations d’algèbre linéaire. Elle pourrait faire avancer les applications d’IA telles que le traitement du langage naturel et la vision par ordinateur. La maîtrise de l’algèbre linéaire permet de comprendre les modèles qui décrivent l’impact des changements sur les résultats, ce qui permet de déboguer et d’améliorer les modèles. L’algèbre linéaire est essentielle pour analyser et trouver un sens aux ensembles de données complexes et volumineux utilisés dans les applications d’IA.
Les organisations rationalisent l’infrastructure
Les développeurs ne devraient pas avoir à se soucier de l’infrastructure. Ils pensent avant tout aux applications cloud hybride et à la gestion de leurs modèles. Ils recherchent le bon modèle et l’infrastructure peut les y aider. Si l’infrastructure comprend ce qu’est un modèle – et ce qu’est une version d’un modèle – On peut obtenir ce modèle à partir du cloud public et le rendre disponible pour affinage, sans que le développeur n’ait à aller chercher les données. La clé du succès réside dans une infrastructure cohérente et évolutive capable de couvrir l’ensemble du flux de travail de l’IA : de la formation dans le cloud, à l’enrichissement, en passant par le raffinement et la formation dans les centres de données principaux, et l’inférence à la périphérie.
La fin de l’ère des GPU
Le règne des unités de traitement graphique (GPU) dans le domaine du calcul à haute performance, qui alimente les systèmes d’IA, est en train de s’essouffler. En particulier pour les tâches qui nécessitent un traitement parallèle, telles que le rendu vidéo et l’apprentissage profondeur (deep learning). D’autres technologies émergent actuellement comme alternatives aux GPU. Les chercheurs font progresser l’utilisation des unités de traitement tensoriel (TPU), des réseaux de portes programmables (FPGA) et même des unités centrales de traitement (CPU) à usage général. Les logiciels finiront par aider les systèmes informatiques à choisir les ressources de traitement les plus disponibles et efficaces.
L’infrastructure scale-out sera essentielle
Contrairement à l’architecture “scale-up”, où l’expansion est verticale et implique l’ajout de puissance à une machine existante (par exemple plus de CPU), l’infrastructure “scale-out” est horizontale et implique l’ajout de machines ou de nœuds à un réseau pour augmenter la capacité. Dans le cas d’une application de cloud hybride, on doit pouvoir s’appuyer sur une infrastructure scale out pour permettre aux modèles de parcourir le chemin depuis la périphérie jusqu’au data center et au cloud public.
En toile de fond, Induprakas Keri commente dans un article de blog qu’il faut aussi, quand il s’agit d’IA, garder un œil sur Apple. La plus grande entreprise au monde a récemment brillé par son absence dans les conversations sur l’avenir de l’IA. Induprakas Keri déclare à ce sujet qu’il ne s’attend pas à ce que cela dure longtemps. “Ce qu’Apple a fait avec son chipset est incroyable. Le M2 dispose d’un GPU, d’un CPU et d’un moteur matriciel. Ils ne font rien du côté des serveurs, mais s’ils décidaient un jour de s’y lancer, je pense que ce serait tout simplement fantastique. Ils donneront du fil à retordre aux opérateurs historiques”.