L’architecture NetApp Ontap AI combine aux supercalculateurs Nvidia DGX des baies de stockage en réseau 100 flash NetApp AFF A800.
A la mi-août, sur le congrès Siggraph de Vancouver, Nvidia a présenté ses premiers coprocesseurs graphiques fondés sur l’architecture Turing évolutive jusqu’à 16 téraflops. Disponibles au dernier trimestre 2018, ces extensions GPU sont particulièrement adaptées aux scènes photo-réalistes en temps réel et aux services en Intelligence Artificielle (IA).
Pour sa part, NetApp enregistre une croissance de 50% en un an sur le segment des baies 100% flash, avec des recettes de 1,47 milliard de dollars (+12%) au premier trimestre de l’exercice en cours.
Les deux partenaires ciblent ensemble les besoins croissants autour du deep learning et de l’IA. Leur objectif ? Simplifier et accélérer l’accès aux données, puis faire évoluer les flux de données de la périphérie jusqu’au Cloud, en passant le cœur du datacenter. «L’architecture NetApp Ontap AI intervient sur le pipeline complet. Elle aide à dimensionner les applications et leurs workflows de façon à générer l’impact souhaité sur les activités métiers», avance Octavian Tanase, vice-président senior Ontap chez NetApp.
Des charges de traitements exigeantes
L’architecture créée en collaboration par NetApp et Nvidia associe de puissants processeurs graphiques aux logiciels et systèmes Flash connectés aux infrastructures cloud. Mais pour que les applications d’IA soient efficaces et pérennes, il faut disposer aussi d’une visibilité complète sur ses données et être en mesure de les contrôler partout.
«Les entreprises de toutes tailles et de tous secteurs commencent à utiliser l’IA pour résoudre des défis concrets. Malgré leur attrait, les modèles et les charges applicatives sont difficiles à déployer et nécessitent des moyens importants, confirme Ritu Jyoti, vice-présidente de programme chez IDC. L’architecture NetApp Ontap AI forme une solution puissante pour obtenir plus rapidement des résultats générés par l’IA, en facilitant le déploiement des traitements.»
Une Data Fabric en point d’orgue
NetApp Ontap AI exploite l’environnement Data Fabric, en créant un flux de données fluide sur l’ensemble de l’infrastructure de l’entreprise. Ce flux intègre plusieurs sources de données, de façon dynamique. La puissance de traitement et la capacité de stockage 100% flash éliminent les goulots d’étranglement et assurent un accès continu aux données.
«Grâce aux calculs par processeurs graphiques associés à l’innovation de NetApp en matière de systèmes de stockage flash, nos clients peuvent déployer leurs solutions d’IA plus rapidement, en suivant un modèle simple, éprouvé et performant», assure Jim McHugh, vice-président et directeur général des systèmes Deep Learning de Nvidia.
Auteur : Olivier Bouzereau