Snowflake Arctic, lancé en avril dernier, est désormais pris en charge par NVIDIA et offre de meilleurs performances aux utilisateurs.
Snowflake a annoncé lors de son Snowflake Summit 2024, une nouvelle collaboration avec NVIDIA. Les clients et les partenaires peuvent désormais créer des applications de données IA personnalisées dans Snowflake, optimisées par NVIDIA AI.
Avec cette nouvelle collaboration, Snowflake a adopté le logiciel NVIDIA AI Enterprise pour intégrer les microservices de NeMo Retriever dans Snowflake Cortex AI, le grand modèle de langage (LLM) et service de recherche vectorielle entièrement géré par Snowflake. Les organisations vont pouvoir connecter de manière transparente des modèles personnalisés à diverses données business et fournir des réponses précises. De plus, Snowflake Arctic est désormais entièrement pris en charge par le logiciel NVIDIA TensorRT-LLM, fournissant aux utilisateurs des performances optimisées. Arctic est également disponible en tant que microservice d’inférence NVIDIA NIM, ce qui permet à davantage de développeurs d’accéder à l’intelligence efficace d’Arctic.
“L’association de la pile complète de calcul accéléré et de logiciels de NVIDIA avec les capacités d’IA de pointe de Snowflake dans Cortex AI change la donne,”, déclare Sridhar Ramaswamy, CEO de Snowflake. “Ensemble, nous ouvrons une nouvelle ère de l’intelligence artificielle où les clients de tous les secteurs et de tous les niveaux de compétence peuvent créer des applications d’IA personnalisées sur leurs données d’entreprise avec facilité, efficacité et confiance.”
Snowflake et NVIDIA collaborent pour intégrer les technologies clés de la plateforme logicielle NVIDIA AI Enterprise, telles que NeMo Retriever, dans Cortex AI, afin que les utilisateurs professionnels puissent créer et exploiter efficacement des applications personnalisées basées sur l’intelligence artificielle qui maximisent leurs investissements dans l’IA.
Les capacités logicielles de NVIDIA AI Enterprise qui seront proposées dans Cortex AI sont les suivantes : NVIDIA NeMo Retriever permet de récupérer des informations avec une grande précision et de puissantes performances pour les entreprises qui créent des applications d’IA basées sur la génération augmentée par récupération dans Cortex AI. Le serveur d’inférence NVIDIA Triton permet de déployer, d’exécuter et de mettre à l’échelle l’inférence de l’intelligence artificielle pour n’importe quelle application sur n’importe quelle plateforme.
Les microservices d’inférence NVIDIA NIM, un ensemble de conteneurs d’IA préconstruits et faisant partie de NVIDIA AI Enterprise, peuvent être déployés directement dans Snowflake sous la forme d’une application native alimentée par Snowpark Container Services, permettant aux entreprises de déployer facilement une série de modèles de base directement dans Snowflake.
Le LLM de pointe Snowflake Arctic, entraîné sur les GPU NVIDIA H100 Tensor Core, est disponible en tant que NIM NVIDIA pour que les utilisateurs puissent commencer à utiliser Arctic en quelques secondes. Le NIM Arctic hébergé par NVIDIA est en ligne sur le catalogue d’API de NVIDIA pour l’accès des développeurs en utilisant des crédits gratuits, et sera proposé en tant que NIM téléchargeable, donnant aux utilisateurs plus de choix pour déployer le LLM d’entreprise le plus ouvert sur leur infrastructure préférée.
Rappelons que plus tôt cette année, Snowflake et NVIDIA ont annoncé l’extension de leur collaboration initiale pour fournir une seule infrastructure d’IA unifiée et une plateforme de calcul dans le Data Cloud IA.