Accueil Snowflake facilite le déploiement de l'IA avec de nouvelles capacités

Snowflake facilite le déploiement de l’IA avec de nouvelles capacités

Snowflake a récemment présenté des mises à jour pour simplifier et sécuriser le déploiement d’applications d’intelligence artificielle (IA) pour les entreprises, avec de nouvelles fonctionnalités axées sur la gestion des données et l’optimisation des modèles IA.

IA conversationnelle et multimodale

Avec Snowflake Cortex AI, les entreprises peuvent désormais intégrer des sources de données variées et développer des applications conversationnelles enrichies. Ce service offre la prise en charge de données multimodales, permettant d’inclure des images et, bientôt, de l’audio dans des chatbots et applications de traitement de langage naturel (NLP), grâce au modèle Llama 3.2 de Meta et au nouvel outil Cortex COMPLETE (en préversion privée).

Snowflake propose aussi des connecteurs, dont un pour SharePoint (en préversion publique), facilitant l’accès aux bases de connaissances internes sans traitement manuel. Les entreprises peuvent également exploiter des données tierces via Snowflake Marketplace, une option en préversion qui assure le respect des droits d’auteur.

Fiabilité des modèles et sécurité renforcées

Pour aider les entreprises à garantir la fiabilité de leurs applications d’IA, Snowflake introduit AI Observability, qui offre une surveillance complète des performances en intégrant la technologie TruEra acquise en 2024. Les développeurs peuvent mesurer plus de 20 indicateurs, comme la latence et la pertinence, pour s’assurer que les modèles IA sont adaptés aux usages en production.

Snowflake introduit également Cortex Analyst, qui simplifie l’analyse de données avec des fonctionnalités interactives et des jointures avancées. Mukesh Dubey, de Bayer, explique que cet outil « permet d’obtenir des réponses précises aux requêtes en langage naturel sur des données structurées, ce qui est crucial pour nos opérations en sciences de la vie ».

Options d’inférence et flexibilité de traitement

Snowflake permet désormais des inférences en lots sur des modèles de langage (LLM), facilitant l’analyse de données massives avec des modèles pré-entraînés comme Llama et Jamba. Le Cortex Playground (en préversion publique) offre aux utilisateurs une interface de test pour comparer ces modèles et choisir celui qui convient le mieux.

Avec Cortex Serverless Fine-Tuning, Snowflake permet aussi de personnaliser des modèles en fonction des données de l’entreprise, tandis que la nouvelle fonctionnalité Provisioned Throughput garantit des performances constantes pour les tâches d’inférence à grande échelle.

Accélération du développement de modèles ML

Pour répondre aux besoins de calcul élevés des modèles d’apprentissage automatique, Snowflake prend désormais en charge le traitement sur GPU via le Container Runtime, en préversion publique sur AWS. Les équipes ML peuvent exécuter leurs modèles directement dans Snowflake Notebooks, optimisés pour des calculs distribués. Le Model Serving, également disponible en préversion sur AWS, permet de déployer des modèles à partir de conteneurs pour une exécution sur CPU ou GPU, sans configuration complexe.

Avec ces nouvelles capacités, Snowflake offre aux entreprises un environnement robuste et flexible pour gérer leurs données et accélérer le développement d’applications d’IA, facilitant la transition vers une intelligence artificielle plus fiable et mieux intégrée dans leurs opérations.