IA et ML

Démocratiser l’IA d’entreprise : les nouvelles fonctionnalités d’IA de Snowflake accélèrent et simplifient encore l’innovation data-driven

Lors du Snowflake Summit 2025, nous avons introduit des innovations pour rendre l’IA simple, fiable et efficace. Entièrement gérées dans le périmètre sécurisé de Snowflake, ces fonctionnalités permettent aux utilisateurs métiers et aux data scientists de transformer des données structurées et non structurées en informations exploitables, sans outils ni infrastructure complexes.

Que les clients analysent des tables, traitent des documents, déploient des agents d’IA ou entraînent des modèles, ces fonctionnalités sont intégrées à la plateforme sécurisée de Snowflake avec une gouvernance unifiée, éliminant ainsi la gestion de l’infrastructure ou les outils complexes.

Lors du Summit, nous avons dévoilé quatre avancées majeures en matière d’IA :

  1. Agents de données : nous offrons des fonctionnalités intelligentes avec Snowflake Intelligence (bientôt en public preview) et Snowflake Cortex Agents (bientôt disponibles pour tous nos clients). Snowflake Intelligence transforme les données structurées et non structurées en actions rapides et fiables tandis que Cortex Agents orchestre les tâches en plusieurs étapes et s'intègre dans Microsoft Teams ou des applications personnalisées.

  2. Cortex AISQL et analytique : en intégrant le traitement de données multimodal à l’aide de l’IA dans un SQL familier, Cortex AISQL (en public preview) rend les flux de travail d’IA complexes accessibles et complète l’offre complète d’informations sur les données non structurées de Snowflake. Cela inclut Document AI amélioré avec des extractions de tables compatibles avec les schémas et un nouveau modèle d’extraction Arctic-Extract. Celui-ci prend en charge l’extraction de documents en 29 langues, à partir de notre nouvelle fonction ai_extract (bientôt en public preview).

  3. Modèles d’IA générative à la pointe, évaluation, observabilité et passerelle d’IA : AI Observability dans Snowflake Cortex AI (bientôt disponible pour tous nos clients) permet une surveillance no-code et pro-code des applications d’IA générative. Snowflake donne également accès à des LLM depuis OpenAI via Microsoft Azure OpenAI Service, Anthropic, Meta, Mistral et d’autres fournisseurs de premier plan, le tout dans le périmètre sécurisé de Snowflake. L’AI Governance Gateway offre des fonctionnalités qui permettent aux clients de mettre en œuvre facilement des politiques de gouvernance, notamment un contrôle d’accès robuste, un suivi granulaire de l’utilisation et l’application budgétaire (bientôt en private preview).

  4. Machine learning (ML) : créez et distribuez des modèles prêts à la production avec une évolutivité et une flexibilité améliorées, y compris l’introduction du Data Science Agent autonome pour augmenter la productivité des flux de travail de développement. 

Ensemble, ces lancements forment un socle d’IA unifié qui simplifie le développement, s’adapte de manière fiable et préserve la confiance dans l’environnement gouverné de Snowflake.

Quote Icon

Chez Luminate, nous révolutionnons la façon dont nous fournissons des informations axées sur les données via l’IA générative. La plate-forme unifiée de Snowflake offre à nos développeurs un traitement et une récupération évolutifs pour des données structurées et non structurées - les bases de la construction et de l'orchestration des agents de données alimentant nos applications. L'utilisation de Cortex IA dans les limites de gouvernance de Snowflake nous fait gagner du temps de développement et nous permet de débloquer le plein potentiel des données du secteur du divertissement avec une IA agentique. » Glenn Walker, Chief Data Officer, Luminate Data

1. Agents de données : créez des agents et analysez des données multimodales à grande échelle

Les agents de données fournissent des informations en libre-service avec Snowflake Intelligence, offrant aux utilisateurs métiers une interface de langage naturel pour interroger toutes leurs données. Les utilisateurs peuvent poser des questions complexes et recevoir des réponses gouvernées et explicables en quelques secondes sans tableaux de bord ni SQL.

Cortex Agents et des outils tels que Cortex Analyst et Cortex Search permettent aux développeurs de créer des applications d’IA fiables et prêtes à la production qui raisonnent à partir de données structurées et non structurées, orchestrant les flux de travail avec des LLM, du SQL et la recherche sémantique.

Model Context Protocol (MCP) fournit une norme ouverte pour connecter les systèmes d’IA aux sources de données. Nous sommes ravis de vous annoncer que la prise en charge du serveur MCP sera disponible (bientôt en private preview) sur Snowflake. Au lancement, les développeurs pourront utiliser Cortex Analyst et Cortex Search comme outils avec le serveur MCP Snowflake. 

Figure 1: Snowflake Cortex AI stack with the latest innovations.
Figure 1: Snowflake Cortex AI stack with the latest innovations.

1a. Exploiter l’intelligence en libre-service pour les équipes stratégiques

Snowflake Intelligence fournit aux utilisateurs métiers une interface de langage naturel basée sur l’IA pour interagir avec les données structurées et non structurées. Les utilisateurs peuvent poser des questions complexes en langage naturel et recevoir des réponses explicables et gouvernées en quelques secondes, sans SQL ni tableaux de bord nécessaires. Ces agents s’exécutent à l’intérieur du périmètre de sécurité de Snowflake, appliquant automatiquement les contrôles d’accès basés sur les rôles, de masquage et d’audit. Ils peuvent raisonner à partir des données d’entreprise, identifier les relations entre les diverses sources de données et renvoyer des réponses synthétisées à partir de tables, PDF, Jira, Salesforce, Zendesk et plus encore.

 

1b. Simplifier les informations sur les données pour tous grâce aux agents de données

Les agents de données permettent aux équipes non techniques d’extraire des informations en langage naturel. Les utilisateurs peuvent voir comment les informations sont générées grâce aux graphiques automatiques, à la traçabilité et à l’explicabilité. Les développeurs peuvent déployer rapidement de nouveaux cas d’usage et intégrer des analyses dans l’application de leur choix, accélérant ainsi l’innovation et l’impact.

1c. Créer des applications conversationnelles fiables

Avec Cortex Agents (bientôt disponible pour tous nos clients), les développeurs peuvent créer des applications d’IA générative qui raisonnent à la fois sur des données structurées et non structurées. Ces agents permettent des résultats explicables de haute qualité en orchestrant des flux de travail combinant des LLM, du SQL et la recherche sémantique. Basés sur des modèles tels que Claude 3.7 Sonnet, OpenAI GPT-4.1 et o4-mini (bientôt disponibles pour tous nos clients), ces agents planifient, exécutent et affinent des tâches pour obtenir des résultats précis. L’explicabilité intégrée et l’accès API permettent un déploiement et des intégrations rapides avec Microsoft Teams et Copilot, permettant ainsi aux utilisateurs d’interagir avec l’IA directement dans leurs outils de collaboration. 

2. Cortex AISQL et analytique : redéfinir les données multimodales en informations avec Snowflake

Les données non structurées restent sous-exploitées en raison de leur complexité. Cortex AISQL résout ce problème en permettant aux équipes d’analyser des documents, des images et d’autres formats en utilisant une syntaxe SQL familière, sans outils spécialisés. Lors du Summit, nous avons présenté :

  • SQL et IA : extrayez des métadonnées, classez des opinions ou recherchez des intégrations, le tout dans SQL.

  • Extraction de valeur à partir de données non structurées : utilisez Document AI, qui prend désormais en charge l’extraction de tables compatibles avec les schémas (en public preview), pour extraire des tables structurées à partir de PDF complexes avec un nettoyage minimal. 

  • Génération automatique de modèles sémantiques (private preview) : éliminez la configuration manuelle des modèles, explorez des informations avec la visualisation graphique native et créez des expériences de marque avec Snowpark Container Services.

2a. Transformer vos analystes en développeurs d’IA avec Cortex AISQL

Cortex AISQL réimagine SQL comme langage central pour l’IA d’entreprise. Ses opérateurs d’IA natifs laissent les équipes construire des flux de travail multimodaux, combinant du texte, de l’audio, des images et des données structurées, sans apprendre de nouveaux outils ni dupliquer les données. 

Il offre des améliorations de performances de 30 à 70 % par rapport à plusieurs pipelines traditionnels (sur la base de résultats de benchmark internes, mis en œuvre pour une utilisation normale), grâce à l’inférence par batch optimisée et à un algorithme d’optimisation des performances (private preview), permettant ainsi aux analystes de devenir des développeurs d’IA. 

Les cas d’usage incluent la correspondance d’enregistrements, la détection des fraudes et les jointures sémantiques à l’échelle de l’entreprise, toutes écrites en SQL.

2b. Extraire la valeur des données non structurées

Nous avons également présenté notre modèle de vision de nouvelle génération pour Document AI, appelé Arctic-Extract (private preview).

Il prend en charge un total de 29 langues (dont le japonais, le coréen, l'allemand, le français, l'espagnol et le chinois) et des capacités de raisonnement améliorées, notamment la classification et la normalisation.

Côté récupération, Cortex Search ajoute :

  • Batch fuzzy search pour les tâches à haut rendement telles que la résolution d’entités et la détection des fraudes

  • Des API avancées (disponibles pour tous nos clients) pour la recherche multi-champs, la notation et le classement par métadonnées

  • Une IU d’administration dans Snowsight (disponible pour tous nos clients) et Quality Evaluation Studio (bientôt en public preview) pour la gestion de la recherche sans code, les diagnostics et le réglage de la pertinence

Les équipes peuvent également intégrer des vecteurs personnalisés (public preview) pour alimenter Cortex Search, en combinant la plateforme sécurisée de Snowflake avec des résultats de modèles propriétaires pour plus de performances et de contrôle.

2c. Accélérer l’extraction d’informations des données avec des modèles sémantiques automatisés et un aperçu des graphiques

La génération automatique de modèles sémantiques (private preview) facilite et accélère la création de modèles sémantiques pour Cortex Analyst. En analysant les métadonnées des schémas, l’historique des requêtes et les tableaux de bord, elle construit des modèles performants et réutilisables, éliminant ainsi des semaines de travail manuel. La fonctionnalité Charts (en public preview) permet aux utilisateurs d’explorer des informations visuellement parallèlement aux résultats de l’IA. 

Snowpark Container Services (disponible pour tous nos clients sur AWS et Azure et bientôt disponible sur Google Cloud Platform) offre un environnement d’exécution évolutif permettant d’héberger des applications et des API full-stack nativement dans Snowflake, avec une journalisation, une gouvernance et une sécurité centralisées.

3. Observabilité de l’IA générative, choix de modèles et infrastructure évolutive : déployer l’IA en toute confiance

Pour aider les entreprises à faire évoluer l’IA de manière sécurisée et fiable, Snowflake propose : 

  • AI Observability : des outils d’évaluation no-code pour la précision et les performances de l’IA générative

  • Accès au modèle : les meilleurs LLM de Meta, OpenAI, Anthropic et Mistral

  • Rendement prévu : performances prévisibles en matière d’inférence à l’échelle de la production

3a. Évaluation et traçage dans Cortex AI

AI Observability (disponible pour tous nos clients) dans Snowsight aide les équipes à mesurer la précision et la couverture à l’aide de jeux de données d’évaluation. La notation LLM-as-a-judge évalue le fondement, l’utilité et la nocivité, exécutée en toute sécurité dans Snowflake. Les fonctionnalités telles que les journaux de traçabilité des agents et les comparaisons de modèles simplifient le débogage, le perfectionnement des prompts et la gouvernance.

3b. Accès à OpenAI, Anthropic et à d’autres modèles en toute sécurité sur Snowflake

L’écosystème de modèles de Snowflake donne désormais accès aux LLM de pointe d’OpenAI, Anthropic, Meta et Mistral, y compris les modèles de dernière génération tels que GPT-4.1 et o4-mini d’OpenAI via Microsoft Azure OpenAI Service dans Azure AI Foundry, ainsi que Claude Opus 4 et Claude Sonnet 4 d’Anthropic. Ces modèles s’exécutent à l’intérieur des limites de sécurité de Snowflake, de sorte que les données restent protégées et ne sont jamais utilisées pour l’entraînement.

Nos clients peuvent faire correspondre le meilleur modèle à chaque cas d’usage, résumé, classification, traduction, raisonnement agentique et plus encore, sans avoir à gérer l’infrastructure.

Cortex AI s’étend également à Google Cloud Platform. Avec Snowpark Container Services sur Google Cloud Platform (bientôt disponible pour tous nos clients), nos clients peuvent déployer des modèles open source dans les régions GCP, évitant ainsi le déplacement des données et maintenant la gouvernance.

Cortex AI s’étend également à Google Cloud Platform. Grâce à Snowpark Container Services sur Google Cloud Platform (bientôt disponible pour tous nos clients), nos clients peuvent déployer des modèles open source dans les régions GCP, évitant ainsi le déplacement des données et maintenant la gouvernance.

3c. Rendement prévu pour l’IA d’entreprise

Le rendement prévu (disponible pour tous nos clients sur AWS et Azure) offre aux équipes une capacité d’inférence dédiée pour les applications d’IA générative. Accessible via une API REST dans toutes les régions Snowflake, il permet des performances constantes sans imprévisibilité des services partagés. Il est idéal pour passer d'une démonstration de faisabilité à la production, sans les frais généraux de configuration de l'infrastructure. 

3d. AI Governance Gateway : contrôle d’entreprise pour l’IA générative

L’AI Governance Gateway offre une vitrine unique permettant aux clients d’accéder aux LLM de pointe via SQL (ou API REST) directement dans le périmètre sécurisé de Snowflake. Grâce à un contrôle d’accès complet basé sur les rôles (RBAC), nos clients peuvent mettre en œuvre des politiques de gouvernance robustes. Les vues granulaires de suivi de l’utilisation de chaque fonctionnalité d’IA, combinées aux contrôles d’application budgétaire (bientôt en private preview), permettent à nos clients de surveiller et de gérer l’utilisation de l’IA générative au sein de leur entreprise. Nos clients peuvent piloter une IA responsable avec Cortex Guard pour filtrer les contenus nuisibles, tandis que AI Observability permet aux clients d’évaluer, de déboguer et d’optimiser leurs applications d’IA générative pour plus de précision et de performances. Cela améliore la confiance et la transparence des déploiements en production. Cortex AI rapproche l’IA de vos données et, grâce à AI Governance Gateway, vos clients peuvent accélérer la livraison d’applications d’IA générative.

4. Modèles créés et opérationnalisés en production avec Snowflake ML

Le ML prédictif reste une pierre angulaire stratégique pour les cas d’usage tels que la détection des fraudes, la segmentation client et les moteurs de recommandation. Cependant, pour créer et déployer de tels modèles, il est souvent nécessaire de rassembler plusieurs outils disparates, difficiles à gouverner et coûteux à entretenir. 

Avec Snowflake ML, les entreprises disposent désormais d’une solution de ML moderne étroitement intégrée aux données gouvernées sur les flux de travail de bout en bout. Des clients tels que Coinbase et Cloudbeds fournissent des informations prédictives. Scene+, un important programme de fidélisation des clients au Canada, a réduit les délais de production de plus de 60 % et les coûts de plus de 35 % pour plus de 30 modèles avec Snowflake ML.

Lors du Summit, nous avons poursuivi notre rythme rapide d’innovation avec une série de nouvelles annonces axées sur le ML évolutif et flexible, qui permettront à nos clients de : 

  • Améliorer la productivité des data scientists en automatisant la génération de pipelines de ML avec Data Science Agent (bientôt en private preview)

  • Créer des modèles prêts pour la production plus rapidement grâce à des API d’entraînement distribuées dans Container Runtime (disponible pour tous nos clients) et gérer les tâches d’entraînement facilement grâce au suivi natif des expériences (bientôt en private preview).

  • Déployer et orchestrer facilement des pipelines de ML sur les données Snowflake, à partir de n’importe quel IDE de votre choix avec ML Jobs (bientôt disponible pour tous nos clients).

  • Proposer des fonctionnalités pour les prédictions en ligne à faible latence (bientôt en private preview) sur le calcul évolutif du Snowflake Feature Store 

Tout cela est intégré à ML Observability pour faciliter la surveillance et les alertes avec la prise en charge des indicateurs personnalisés. 

Figure 2: An integrated set of development and production capabilities in Snowflake ML.
Figure 2: An integrated set of development and production capabilities in Snowflake ML.

4a. Rapprocher l’IA agentique du ML fiable pour une productivité accélérée.

Chez Snowflake, nous nous engageons à ce que tous nos clients puissent utiliser facilement et efficacement les toutes dernières technologies du secteur, y compris l’IA générative. Nous voyons une opportunité inexploitée d’appliquer les dernières innovations des LLM pour donner plus de moyens aux data scientists. Lors du Summit, nous avons annoncé que nous appliquons l’IA agentique pour booster la productivité dans le ML prédictif avec un Data Science Agent (bientôt en private preview dans AWS) qui itère, ajuste et génère de manière autonome un pipeline de ML entièrement exécutable à partir de prompts de langage naturel simples. 

Figure 3: Data Science Agent generates ML pipelines in the form of Snowflake Notebooks cells.
Figure 3: Data Science Agent generates ML pipelines in the form of Snowflake Notebooks cells.

Avec des modèles de raisonnement Anthropic sous-jacents, Data Science Agent utilise la planification multi-étapes pour décomposer un problème en étapes distinctes et choisit la technique la plus performante pour chaque phase du flux de travail de ML, y compris la préparation des données, le feature engineering et l’entraînement. 

Après avoir généré rapidement un pipeline de ML vérifié, les équipes peuvent fournir des suivis basés sur leurs connaissances du domaine pour itérer facilement les performances et la précision pour la meilleure version à venir. Le résultat est un pipeline de ML entièrement fonctionnel prêt à la production qui peut être facilement exécuté à partir de Snowflake Notebooks sur Container Runtime. En automatisant le travail fastidieux d’expérimentation et de débogage, les data scientists peuvent économiser des heures de travail manuel et se concentrer sur des initiatives plus percutantes. 

4b. Créer et orchestrer des pipelines de ML évolutifs sur les données Snowflake à partir de n’importe quel IDE 

Pour le développement ML, nous avons annoncé une suite de nouvelles fonctionnalités qui facilitent et rendent plus puissants la création de modèles sur des données Snowflake à partir de Snowflake Notebooks intégrés nativement ou de tout IDE externe de votre choix avec des mécanismes pushdown pratiques. Nos clients peuvent désormais accéder facilement aux API ML distribuées dans Container Runtime (disponibles pour tous nos clients sur AWS et Azure) pour accélérer le chargement des données, l’entraînement des modèles et le réglage des hyperparamètres depuis n’importe quel IDE.

Les versions des modèles étant itérées lors des exécutions d’entraînement, le modèle le plus performant peut être rapidement identifié, partagé et reproduit à partir d’un suivi d’expérience intégré nativement (bientôt en private preview), accessible via des API ou l’interface utilisateur Snowsight. 

Pour faciliter le développement et l’automatisation de pipelines de ML, orchestrés par Snowflake Tasks ou des outils externes comme Airflow, ML Jobs (bientôt disponible pour tous nos clients sur AWS et Azure) offre un mécanisme pratique pour déclencher l’exécution de code ML à distance. En outre, les interfaces incluses dans ML Jobs permettent également aux équipes qui préfèrent travailler à partir d’un IDE externe (VS Code, PyCharm, SageMaker Notebooks) d’envoyer des fonctions, des fichiers ou des modules jusqu’au Container Runtime de Snowflake.

Figure 4: Execute code remotely as an ML Job directly from any IDE (e.g., VS Code) or pipeline orchestrator.
Figure 4: Execute code remotely as an ML Job directly from any IDE (e.g., VS Code) or pipeline orchestrator.

4c. Déployer des modèles de ML conçus n’importe où à grande échelle 

Quel que soit l’endroit ou la façon dont un modèle est construit, il peut être journalisé dans Snowflake Model Registry et servi pour une inférence évolutive sur Snowpark Container Services (disponible pour tous nos clients sur AWS et Azure), à l’aide du calcul CPU ou GPU pour des prédictions par batch ou en temps réel. Nos clients peuvent également déployer des modèles sur un point de terminaison API REST pour des applications d’inférence à faible latence. Cela inclut la prise en charge du déploiement facile des modèles depuis Hugging Face (bientôt en private preview) en un clic sans téléchargement de modèle côté client. En pointant simplement sur la poignée et la tâche du modèle pour la journalisation et la diffusion dans Snowflake, les équipes peuvent accéder instantanément aux modèles Hugging Face les plus entraînés, allant de la classification des images à la similarité des phrases et la détection des objets. 

Figure 5: Bring a model trained anywhere to run inference on Snowflake data.
Figure 5: Bring a model trained anywhere to run inference on Snowflake data.

Nous avons également annoncé que le Snowflake Feature Store prend désormais également en charge la distribution de fonctionnalités d’inférence en ligne à faible latence (bientôt en private preview) en plus de la prise en charge par batch des cas d’usage tels que les recommandations personnalisées, la tarification, la détection des anomalies et le service client. 

Les modèles stockant l’inférence dans Snowflake sont automatiquement intégrés aux fonctionnalités de ML Observability de Snowflake (disponible pour tous nos clients) pour permettre des prédictions fiables dans le temps.

En savoir plus et consulter les ressources

Lors du Summit, nous avons introduit des innovations pour rendre l’IA d’entreprise facile à utiliser, efficace à déployer et fiable à exécuter. Snowflake Intelligence transforme les données structurées et non structurées en informations exploitables, tandis que Cortex Agents orchestre des tâches complexes en plusieurs étapes sur les données. 

Cortex AISQL apporte le traitement de données multimodales aux flux de travail SQL familiers, et AI Observability fournit des outils de surveillance et d’évaluation robustes pour faire évoluer les applications d’IA générative. Pour les flux de travail traditionnels, Snowflake ML facilite et rend plus flexibles la conception et la distribution de modèles en production.

Grâce à ces avancées, Snowflake permet aux entreprises de transformer en toute confiance leurs données en actions intelligentes à grande échelle. 

Démarrez avec Snowflake pour l’IA en utilisant les ressources suivantes :

Déclarations prévisionnelles

Cet article contient des déclarations prévisionnelles, notamment de futures offres de produits. Il ne constitue en aucun cas un engagement à fournir des offres de produits. Les offres et résultats réels peuvent varier et faire l’objet de risques connus et inconnus, ainsi que d’incertitudes. Découvrez notre dernier 10‑Q pour en savoir plus.

Partager cet article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Démarrez votre essai gratuitde 30 jours

Essayez Snowflake gratuitement pendant 30 jours et découvrez l’AI Data Cloud qui élimine la complexité, les coûts et les contraintes d’autres solutions.