Créez plus rapidement des solutions d’IA grâce à une nouvelle prise en charge multimodale, une meilleure observabilité et bien plus encore
Au Snowflake BUILD, nous présentons de nouvelles fonctionnalités puissantes conçues pour accélérer la création et le déploiement d’applications d’IA générative sur les données d’entreprise, tout en vous aidant à garantir la confiance et la sécurité. Ces nouveaux outils rationalisent les flux de travail, fournissent des informations à grande échelle et mettent rapidement les applications d’IA en production. Des clients tels que Skai ont utilisé ces fonctionnalités pour mettre leur solution d’IA générative en production en seulement deux jours au lieu de plusieurs mois.
Voici comment Snowflake Cortex AI et Snowflake ML accélèrent la mise en place de solutions d’IA fiables pour les applications d’IA générative les plus stratégiques :
Traitement du langage naturel (NLP) pour les pipelines de données : les grands modèles de langage (LLM) ont un potentiel transformateur, mais ils intègrent souvent l’inférence par batch dans les pipelines, ce qui peut s’avérer lourd. Désormais, grâce à une simple requête, les développeurs peuvent déduire des opinions ou catégoriser les avis clients sur des millions de dossiers, ce qui améliore l’efficacité et fait gagner du temps. Par exemple, TS Imagine a mis en œuvre l’IA générative à grande échelle avec Snowflake Cortex AI, ce qui lui a permis de réduire ses coûts de 30 % et d’économiser 4 000 heures consacrées auparavant à des tâches manuelles.
Applications conversationnelles : la création de réponses fiables et engageantes aux questions des utilisateurs est désormais plus simple, ce qui ouvre la voie à des cas d'usage puissants, tels que l'analyse en libre-service et la recherche de documents via des chatbots.
Développement et déploiement de modèles basés sur des processeurs graphiques : développez des modèles de ML puissants et avancés avec vos packages Python préférés sur des GPU ou des CPU les servant à l’inférence dans des conteneurs, le tout sur la même plateforme que vos données gouvernées. Des clients comme Avios, CHG Healthcare et Keysight Technologies développent déjà des modèles basés sur des conteneurs dans Snowflake ML.
Optimisez les performances du pipeline NLP avec une inférence par batch de LLM rentable
Avec une technologie qui évolue rapidement, les modèles sont disponibles dans différentes tailles, fenêtres contextuelles et capacités. Il est donc essentiel de sélectionner le modèle adapté à votre cas d’usage spécifique. Par exemple, si vos documents sont dans plusieurs langues, un LLM avec de fortes capacités multilingues est essentiel. Cependant, pour des tâches NLP plus simples telles que la classification, un modèle avancé peut être excessif et un LLM plus petit peut être plus efficace. Les fonctions LLM Cortex offrent des modèles optimisés pour des cas d’usage spécifiques, tels que la traduction, le résumé et la classification. Ces modèles évolutifs peuvent gérer des millions d’enregistrements, ce qui vous permet de créer efficacement des pipelines de données NLP hautes performances. Cependant, l’évolution du traitement des données LLM à des millions d’enregistrements peut poser des défis de transfert et d’orchestration des données, facilement résolus par les fonctions SQL conviviales dans Snowflake Cortex.
Optimisez les performances et les coûts avec un plus grand choix de modèles
Cortex AI fournit un accès facile à des modèles à la pointe du secteur via des fonctions LLM ou des API REST, vous permettant de vous concentrer sur l’innovation en matière d’IA générative. Nous proposons une large sélection de modèles dans différentes tailles, longueurs de fenêtres contextuelles et supports de langage. Parmi les ajouts récents figurent le modèle d’intégration multilingue de Voyage, les modèles Llama 3.1 et 3.2 de Meta et le modèle Jamba-Instruct d’AI21.
Avec Cortex Playground (bientôt en public preview), vous pouvez essayer des modèles directement dans Snowsight. Cette interface no-code vous permet d’expérimenter, de comparer et d’évaluer rapidement des modèles dès leur mise à disposition.
Les techniques de personnalisation de modèles vous permettent d’optimiser les modèles pour votre cas d’usage spécifique. Snowflake introduit le fine-tuning serverless (bientôt disponible pour tous nos clients), permettant ainsi aux développeurs de régler les modèles pour un meilleur rapport coûts-performances. Ce service entièrement géré évite aux développeurs de créer ou de gérer leur propre infrastructure pour l’entraînement et l’inférence.
Bénéficiez d’une prise en charge multimodale dans la fonction COMPLETE
Améliorez les applications et pipelines d’IA avec une prise en charge multimodale pour des réponses plus riches. Grâce aux nouvelles fonctionnalités d’IA générative, les développeurs peuvent désormais traiter des données multimodales en utilisant les informations les plus pertinentes dans leurs applications. Nous activons l’inférence LLM multimodale (bientôt en private preview) dans le cadre de la fonction Cortex COMPLETE pour les entrées d’image à l’aide des modèles Llama 3.2 disponibles dans Snowflake Cortex AI. La prise en charge des intégrations audio, vidéo et image suivra bientôt. La prise en charge multimodale étendue enrichit les réponses pour diverses tâches telles que la synthèse, la classification et l’extraction d’entités sur divers types de médias.
Fournissez des analyses multimodales avec une syntaxe SQL familière
Les requêtes de base de données sont la force sous-jacente qui transmet les informations aux entreprises et alimente les expériences basées sur les données pour les utilisateurs. Traditionnellement, SQL était limité aux données structurées soigneusement organisées en tables. Snowflake présentera de nouvelles fonctions SQL multimodales (bientôt en private preview) qui permettront aux équipes data d’exécuter des flux de travail analytiques sur des données non structurées, telles que des images. Avec ces fonctions, les équipes peuvent exécuter des tâches telles que des filtres sémantiques et des jointures entre des jeux de données non structurées en utilisant une syntaxe SQL familière.
Traitez en toute confiance de grandes tâches d’inférence avec une capacité de débit provisionnée
Une expérience utilisateur finale cohérente est souvent un facteur de contrôle, car les développeurs vont au-delà des démonstrations de faisabilité. Grâce à Provisional Throughput (bientôt en public preview sur AWS), nos clients peuvent réserver un débit dédié, garantissant ainsi des performances constantes et prévisibles pour leurs workloads. De plus, nous avons lancé l’inférence cross-régions, vous permettant d’accéder à vos LLM préférés même s’ils ne sont pas disponibles dans votre région principale.
Développer plus rapidement des applications d’IA conversationnelles de haute qualité
Snowflake propose désormais de nouveaux outils pour simplifier le développement et le déploiement d’applications d’IA conversationnelle.
Prétraitement avancé des documents pour la RAG
Plus tôt cette année, nous avons lancé Cortex Search pour aider nos clients à extraire des informations à partir de données non structurées et à transformer de vastes collections de documents en ressources prêtes pour l’IA sans codage complexe. La solution de récupération entièrement gérée permet aux développeurs de créer des applications d’IA évolutives qui extraient des informations à partir de données non structurées dans l’environnement sécurisé de Snowflake. Cette capacité est particulièrement puissante lorsqu’elle est associée aux fonctions d’extraction et de découpe de texte qui tiennent compte de la mise en page, qui optimisent les documents à récupérer en rationalisant le prétraitement grâce à des fonctions SQL courtes.
Désormais, vous pouvez rendre vos documents prêts pour l’IA plus rapidement grâce à deux nouvelles fonctions de prétraitement SQL. Nous mettons en œuvre des solutions rationalisées pour le traitement de documents à partir du stockage Blob (e.g., Amazon S3) en représentations textuelles à des fins d’utilisation dans des applications de génération augmentée de récupération (RAG). Les utilisateurs SQL peuvent désormais remplacer les pipelines de traitement de documents complexes par des fonctions SQL simples de Cortex AI, telles que PARSE_DOCUMENT (public preview) et SPLIT_TEXT_RECURSIVE_CHARACTER (private preview). La fonction d'analyse se charge d'extraire le texte et la mise en page des documents. Les développeurs n’ont pas à déplacer les données brutes de leur emplacement de stockage d’origine. La fonction text splitting prend en charge le découpage du texte extrait en segments plus optimisés pour l’indexation et la récupération. En savoir plus.
Améliorations des analyses conversationnelles dans Cortex Analyst
Élargissez le champ des analyses précises en libre-service en langage naturel avec Cortex Analyst. Snowflake Cortex Analyst continue d’évoluer en tant que service entièrement géré, fournissant des analyses conversationnelles en libre-service qui permettent aux utilisateurs d’interagir en toute transparence avec des données structurées dans Snowflake. Les récentes mises à jour améliorent l’expérience utilisateur et la profondeur analytique, notamment la prise en charge SQL Joins des schémas Star et Snowflake (public preview) tout en maintenant une haute qualité, ce qui permet des explorations de données plus complexes et des informations plus riches. En outre, les conversations multitours (public preview) permettent aux utilisateurs de poser des questions complémentaires pour des interactions plus fluides. L'intégration à Cortex Search (public preview) améliore la précision des requêtes SQL générées en récupérant dynamiquement des valeurs littérales exactes ou similaires pour les champs de données complexes et à cardinalité élevée, tandis que les contrôles d'accès basés sur les rôles au niveau de l'API renforcent la sécurité et la gouvernance.
Ensemble, ces mises à jour permettent aux entreprises de tirer en toute sécurité des informations exactes et actualisées de leurs données, ce qui réduit le coût global de la prise de décision basée sur les données. Pour en savoir plus sur ces nouvelles fonctionnalités et les mises à jour associées, consultez notre article de blog sur Cortex Analyst.
Outils avancés d’orchestration et d’observabilité pour les applications LLM
Réduisez l’intégration et l’orchestration manuelles dans les applications de chat avec l’API Cortex Chat (bientôt en public preview), qui simplifie la création d’applications interactives dans Snowflake. En combinant la récupération et la génération en un seul appel API, vous pouvez désormais créer des applications de chat agentiques pour parler aux données structurées et non structurées. Le prompt optimisé permet des réponses de haute qualité ainsi que des références qui réduisent les hallucinations et augmentent la confiance. Un point de terminaison d’intégration unique simplifie l’architecture des applications.
Améliorez la fiabilité des applications d’IA grâce à une évaluation et une surveillance intégrées grâce à la nouvelle solution intégrée AI Observability for LLM Apps (private preview). Cette suite d’observabilité fournit des outils essentiels pour améliorer l’évaluation et la confiance dans les applications de LLM, soutenant ainsi les efforts de conformité des clients en matière d’IA. Ces fonctionnalités d’observabilité permettent aux développeurs d’applications d’évaluer les indicateurs de qualité, tels que la pertinence, l’ancrage et le biais, ainsi que les indicateurs de performance traditionnels, tels que la latence tout au long du processus de développement. Elles permettent également un suivi minutieux des journaux d’applications, ce qui permet aux entreprises de surveiller de près leurs applications d’IA.
Les développeurs d’IA peuvent désormais suivre et évaluer en toute transparence les indicateurs de performance des applications, ce qui les aide à choisir des modèles, des prompts et des services de récupération optimisés pour leurs cas d’usage spécifiques. En outre, les développeurs peuvent gérer les journaux et tirer parti de la surveillance prédéfinie pour les applications au sein de Snowflake ou pour les applications externes à l’aide de la bibliothèque open source TruLens, que Snowflake supervise dans le cadre de l’acquisition TruEra.
Intégrations de nouvelles sources de données
Rapprochez l’IA de vos données avec de nouvelles intégrations de sources de données. Snowflake Connector for SharePoint (public preview) permet aux équipes data de créer des applications d’IA sur des données SharePoint dans Snowflake, sans avoir à mettre en place manuellement des pipelines ou prétraiter les données, tout en respectant les politiques d’accès existantes.
En outre, vous pouvez désormais améliorer les fonctionnalités des chatbots avec Cortex Knowledge Extensions (private preview) sur la Marketplace Snowflake. Ces extensions permettent aux équipes data d’enrichir les chatbots d’IA d’entreprise avec du contenu récent et propriétaire de fournisseurs tiers, tels que des publications de recherche ou de journaux. Pour les éditeurs et les fournisseurs de contenu, cela ouvre une nouvelle source de revenus tout en protégeant la propriété intellectuelle contre toute utilisation non autorisée, comme pour l'entraînement des LLM. Et pour les consommateurs, elle permet un accès plus rapide à des réponses d’IA de haute qualité, à l’abri des préoccupations de qualité ou de conformité commerciale.
Accédez rapidement à des informations de ML fiables avec des GPU
Alors que les entreprises accumulent davantage de données dans une grande variété de formats et que les techniques de modélisation sont de plus en plus sophistiquées, les tâches d’un data scientist et d’un ML engineer deviennent de plus en plus complexes. Snowflake ML fournit les composants de base dont les équipes de data science et de ML ont besoin pour passer rapidement du prototype à la production pour les fonctionnalités et les modèles sur la même plateforme qu’elles utilisent pour gouverner et gérer leurs données. Des organisations telles que CHG Healthcare, Stride, IGS Energy et Cooke Aquaculture développent des modèles de ML sophistiqués de bout en bout directement dans Snowflake. Nous avons récemment annoncé de nouvelles innovations pour développer et servir des modèles de ML avec des GPU distribués pour des cas d’usage avancés tels que les systèmes de recommandation, la vision informatique, les intégrations personnalisées et les modèles d’arbres de décision.
Accélérez le développement ML avec des notebooks alimentés par GPU
Les GPU offrent un calcul puissant qui accélère les tâches de ML gourmandes en ressources telles que l’entraînement de modèles. Ce calcul accéléré améliore considérablement la vitesse à laquelle les équipes peuvent itérer et déployer des modèles, en particulier lorsque vous travaillez avec de grands jeux de données ou utilisez des frameworks de deep learning avancés tels que PyTorch. Pour prendre en charge des flux de travail gourmands en ressources sans avoir à déplacer de gros volumes de données, et sans limitations sur le code ou les bibliothèques qu’ils peuvent utiliser, Snowflake ML prend désormais en charge Container Runtime (public preview sur AWS et public preview bientôt sur Azure) accessible via Snowflake Notebooks (disponible pour tous nos clients), une surface de développement cellulaire et interactive unifiée qui mélange Python, SQL et Markdown.
Après des tests internes, nous avons constaté que les API Snowflake ML dans Container Runtime pouvaient exécuter efficacement des tâches d’entraînement ML sur des GPU avec une vitesse d’exécution 3-7x supérieure par rapport à l’exécution du même workload avec vos données Snowflake en utilisant des bibliothèques open source en dehors de l’environnement d’exécution. Cet environnement d’exécution entièrement géré basé sur des conteneurs est préconfiguré avec les frameworks et bibliothèques Python les plus populaires, avec la flexibilité de s’étendre à partir de hubs open source tels que PyPI et Hugging Face.
Dimensionnez l’inférence dans des conteneurs avec des GPU
Après le développement, vous pouvez envoyer des modèles pour la production à partir du Snowflake Model Registry pour tout ML, LLM ou modèle d’intégration à l’aide de CPU ou de GPU distribués dans Snowpark Container Services (disponible pour tous nos clients sur Azure et AWS). Model Serving in Containers (public preview dans AWS) permet une inférence plus rapide et plus puissante à l'aide d'instances de GPU à la demande, sans besoin d’optimisation manuelle pour l'utilisation des ressources.
Détectez rapidement la dégradation des modèles grâce à une surveillance intégrée
Pour maintenir l’inférence des modèles de ML -en production, vous pouvez utiliser l’ensemble étendu de fonctionnalités de machine learning intégrées nativement (MLOps) de Snowflake, y compris Observability for ML Models (public preview). Les équipes peuvent désormais suivre, définir des alertes et résoudre rapidement la dégradation, la dérive et d’autres indicateurs de modèles directement à partir de tableaux de bord intégrés liés à Snowflake Model Registry. ML Explainability (public preview) est également intégré à la plateforme, pour permettre aux utilisateurs de calculer facilement les valeurs Shapley pour les modèles connectés dans Snowflake Model Registry, qu’ils soient entraînés en interne ou en externe.
Ces nouvelles fonctionnalités de surveillance ML rejoignent l’ensemble des fonctionnalités MLOps disponibles dans Snowflake ML, y compris Model Registry, ML Lineage (public preview) et Feature Store (disponible pour tous nos clients).
Exploitez toute la puissance des données d’entreprise grâce aux agents d’IA dans Snowflake Intelligence
Snowflake Intelligence (bientôt disponible en private preview) est une plateforme qui permet de créer des agents de données permettant aux utilisateurs professionnels d’analyser, de résumer et de prendre des mesures à partir de données structurées et non structurées, le tout dans une interface conversationnelle unifiée. Snowflake Intelligence permet aux utilisateurs de se connecter en toute transparence aux données d’entreprise, telles que les transactions commerciales, les documents dans les bases de connaissances telles que SharePoint et les outils de productivité tels que Jira et Google Workspace, afin que les utilisateurs professionnels puissent générer des informations basées sur les données et prendre des mesures dans un langage naturel sans compétences techniques ou connaissances en codage requises.
En savoir plus
Grâce aux dernières améliorations apportées à Cortex AI et Snowflake ML, les développeurs peuvent créer des applications d’IA générative en toute confiance dans l’environnement sécurisé de Snowflake.
Commencez à créer des applications d’IA et des modèles personnalisés dès aujourd’hui en utilisant les ressources suivantes :
Solutions NLP pour pipelines de données : essayez notre quickstart pour l’analyse des avis clients avec Snowflake Cortex.
Applications conversationnelles : créez un chatbot basé sur la RAG en utilisant notre quickstart, ou rejoignez le RAG ’n’ Roll Hackathon pour tenter de gagner 10 000 USD en prix.
ML basé sur GPU : commencez à entraîner un modèle XGBoost avec des GPU ou à dimensionner des intégrations personnalisées à partir de Snowflake Notebooks.
À noter : cet article contient des déclarations prévisionnelles, notamment de futures offres de produits. Il ne constitue en aucun cas un engagement à fournir des offres de produits. Les offres et résultats réels peuvent varier et faire l’objet de risques connus et inconnus, ainsi que d’incertitudes. Découvrez notre dernier 10‑Q pour en savoir plus.