Snowflake s’associe à Mistral AI pour étendre les capacités de l’IA générative et permettre à davantage de développeurs d’exploiter de manière transparente la puissance des grands modèles de langage.
Snowflake et le français Mistral AI annoncent un partenariat mondial pour apporter les modèles de langage les plus puissants de Mistral AI directement dans son Data Cloud. Ainsi, les clients de Snowflake ont accès au LLM le plus récent et le plus puissant de Mistral AI appelé Mistral Large, dont les benchmarks en font l’un des modèles les plus performants au monde. Snowflake et la startup française fourniront les capacités dont les entreprises ont besoin pour exploiter de manière transparente la puissance des LLM, tout en préservant la sécurité, la confidentialité et la gouvernance de leurs données.
Ce partenariat pluriannuel comprend également un investissement parallèle de Snowflake Ventures dans la série A de Mistral AI.
Les clients de Snowflake ont accès à Mixtral 8x7B, le modèle open source de Mistral AI qui dépasse le GPT3.5 d’OpenAI en termes de vitesse et de qualité sur la plupart des benchmarks, ainsi qu’à Mistral 7B, le premier modèle de base de Mistral AI optimisé pour une faible latence avec un faible besoin en mémoire et un débit élevé pour sa taille. Les modèles de Mistral AI sont désormais disponibles pour les clients en public preview dans le cadre de Snowflake Cortex, son service géré pour créer des LLM et des applications d’IA.
Avec Snowflake Cortex LLM Functions, maintenant en public preview, les utilisateurs de Snowflake peuvent exploiter l’IA avec leurs données d’entreprise pour prendre en charge un large éventail de cas d’utilisation. En utilisant des fonctions spécialisées, tout utilisateur ayant des compétences en SQL peut exploiter de plus petits LLM pour traiter de manière rentable des tâches spécifiques telles que l’analyse des sentiments, la traduction et le résumé en quelques secondes. Pour les cas d’utilisation plus complexes, les développeurs Python peuvent passer du concept à des applications d’IA complètes telles que les chatbots en quelques minutes, en combinant la puissance des LLM de base – y compris les LLM de Mistral AI dans Snowflake Cortex – avec des éléments de chat, bientôt en public preview, au sein de Streamlit dans Snowflake. Cette expérience rationalisée s’applique également au génération augmentée de récupération (RAG) avec les fonctions vectorielles intégrées et les types de données vectorielles de Snowflake tout en garantissant que les données ne quittent jamais le périmètre de sécurité et de gouvernance de Snowflake.
Au-delà des benchmarks, le nouveau modèle phare de Mistral AI possède des capacités de raisonnement uniques, maîtrise le code et les mathématiques. Il parle également couramment cinq langues : français, anglais, allemand, espagnol et italien, conformément à l’engagement de Mistral AI de promouvoir les spécificités culturelles et linguistiques de la technologie d’IA générative et peut également traiter des centaines de pages de documents en un seul appel.