Développement rapide, facile et sécurisé d’applications LLM avec Snowflake Cortex
L’IA générative (GenAI) et les grands modèles de langage (LLM) transforment notre façon de travailler à l’échelle mondiale. Snowflake est ravi d’annoncer une gamme de produits innovants qui apporte au monde de l’IA générative la facilité d’utilisation, la sécurité et la gouvernance de notre plateforme. Grâce à ces nouvelles offres, n’importe quel utilisateur peut incorporer des LLM dans des processus analytiques en quelques secondes. Les développeurs peuvent créer des applications basées sur l’IA générative en quelques minutes, ou exécuter des workloads puissants en quelques heures, tels que le réglage des modèles de base sur les données d’entreprise, le tout sans sortir du périmètre de sécurité de Snowflake. Ces avancées permettent aux développeurs et aux analystes de tous niveaux d’intégrer l’IA générative aux données d’entreprise déjà sécurisées et gouvernées.
Examinons toutes les fonctionnalités que les développeurs peuvent utiliser pour tirer parti de l’IA générative sur leurs données d’entreprise, en toute sécurité et sans effort avec Snowflake.
Pour intégrer l’IA générative en toute sécurité à leurs données déjà gouvernées, les clients de Snowflake ont accès à deux composants fondamentaux :
Snowflake Cortex : Snowflake Cortex (disponible en private preview) est un service intelligent et entièrement géré qui offre un accès à des modèles d’IA, à des LLM et à des fonctionnalités de recherche vectorielle à la pointe du secteur. Ainsi, les entreprises sont en mesure d’analyser rapidement leurs données et de créer des applications d’IA. Pour permettre aux entreprises de créer rapidement des applications LLM qui comprennent leurs données, Snowflake Cortex offre aux utilisateurs l’accès à un ensemble croissant de fonctions sans serveur qui permettent l’inférence sur des LLM génératifs de pointe, tels que le modèle Llama 2 de Meta AI, des modèles spécifiques aux tâches pour accélérer l’analyse et une fonctionnalité de recherche vectorielle avancée.
La puissance de Snowflake Cortex ne se limite pas aux développeurs. Snowflake Cortex est également le service sous-jacent qui permet des expériences basées sur des LLM qui incluent une interface utilisateur à part entière, dont Document AI (en private preview), Snowflake Copilot (en private preview) et Universal Search (en private preview).
Snowpark Container Services : cet environnement d’exécution Snowpark supplémentaire (bientôt en public preview pour certaines régions AWS) permet aux développeurs de déployer, de gérer et de faire évoluer facilement les workloads en conteneurs personnalisés, ainsi que les modèles pour des tâches telles que le réglage des LLM open source à l’aide d’une infrastructure sécurisée gérée par Snowflake avec des instances de processeur graphique. Et ils peuvent effectuer tout cela sans sortir de leur compte Snowflake. Consultez davantage d’informations et restez informé.
Grâce à ces deux composants, les développeurs disposent d’une capacité illimitée à créer des applications LLM, sans avoir à déplacer leurs données en dehors de l’espace gouverné par Snowflake.
Utiliser l’IA en quelques secondes
Pour démocratiser l’accès aux données d’entreprise et à l’IA et veiller à ce que leur adoption ne se limite pas à une poignée d’experts, Snowflake propose une innovation permettant à n’importe quel utilisateur d’exploiter des LLM de pointe sans intégrations personnalisées ni développement front-end. Cela inclut des expériences totalement basées sur une interface utilisateur, telles que Snowflake Copilot, et l’accès à des fonctions SQL et Python basées sur des LLM qui peuvent accélérer l’analyse de manière rentable avec des modèles spécialisés et à usage général disponibles via Snowflake Cortex. Plus d’informations ici.
Créer des applicationsLLM à partir de vos données en quelques minutes
Désormais, les développeurs peuvent créer des applications LLM qui apprennent les nuances uniques de leur activité et de leurs données en quelques minutes, sans intégration, déploiement manuel de LLM ni gestion d’infrastructure basée sur le processeur graphique. Pour créer ces applications LLM personnalisées avec leurs données à l’aide de la génération augmentée de récupération (RAG) nativement intégrée dans Snowflake, les développeurs disposent des outils suivants :
Fonctions de Snowflake Cortex : grâce à Snowflake Cortex, un service entièrement géré, tous les clients ont accès aux éléments de base nécessaires pour le développement d’applications LLM sans avoir à gérer une infrastructure complexe.
Cela comprend un ensemble de fonctions à usage général qui exploitent des LLM open source à la pointe du secteur et des LLM propriétaires hautes-performances afin de faciliter la prise en charge d’un large éventail de cas d’usage par le prompt engineering. Les modèles initiaux comprennent :
- Complete (en private preview) : les utilisateurs peuvent envoyer une requête (appelée prompt) et sélectionner le LLM qu’ils veulent utiliser. Pour la phase de private preview, les utilisateurs auront le choix entre trois tailles de modèle (7B, 13B et 70B) de Llama 2.
- Text to SQL (en private preview) : génère du code SQL à partir du langage naturel, en utilisant le même LLM Snowflake qui sous-tend l’expérience Snowflake Copilot.
En outre, ces deux fonctions incluent l’intégration vectorielle et la fonctionnalité de recherche sémantique, afin que les utilisateurs puissent facilement contextualiser les réponses du modèle avec leurs données pour créer des applications personnalisées en quelques minutes. Cela comprend :
- Embed Text (bientôt en private preview) : cette fonction transforme un texte en intégrations vectorielles à l’aide d’un modèle d’intégration sélectionné par l’utilisateur.
- Vector Distance (bientôt en private preview) : pour calculer la distance entre les vecteurs, les développeurs auront le choix entre trois fonctions : similarité cosinus - vector_cosine_distance(), norme L2 - vector_l2_distance() et produit scalaire - vector_inner_product().
- Native Vector Data Type (bientôt en private preview) : pour permettre à ces fonctions de s’exécuter sur vos données, le vecteur est désormais un type de données pris en charge de manière native dans Snowflake, en plus de tous les autres types de données pris en charge de manière native.
Streamlit in Snowflake (public preview) : avec Streamlit, les équipes peuvent accélérer davantage la création d’applications LLM, avec la possibilité de développer des interfaces en seulement quelques lignes de code Python, sans exiger d’expérience front-end. Ces applications peuvent ensuite être déployées et partagées en toute sécurité au sein d’une organisation par le biais d’URL uniques qui exploitent les contrôles d’accès basés sur les rôles existants dans Snowflake, et peuvent être générées en un seul clic. Plus d’informations ici.
SnowparkContainerServices: déployer des interfaces utilisateur personnalisées, affiner des LLM opensource, et plus encore
Pour personnaliser davantage les applications LLM, les développeurs ne font face à pratiquement aucune limite quant à ce qu’ils peuvent créer et déployer dans Snowflake avec Snowpark Container Services (bientôt en public preview dans certaines régions AWS). Cet environnement d’exécution Snowpark supplémentaire permet aux développeurs de déployer, de gérer et de faire évoluer facilement les workloads en conteneurs (tâches, services, fonctions de service) à l’aide d’une infrastructure sécurisée et gérée par Snowflake proposant des options matérielles configurables (processeurs graphiques NVIDIA, par exemple).
Voici d’autres exemples d’adaptations courantes que les développeurs peuvent apporter à l’application LLM sans avoir à déplacer de données en dehors de l’espace gouverné et sécurisé de Snowflake :
- Déployer et affiner les bases de données vectorielles et LLM open source : l’association d’une infrastructure alimentée par processeur graphique et de Snowpark Model Registry permet de déployer, d’affiner et de gérer en toute simplicité n’importe quel LLM open source ou d’exécuter une base de données vectorielle open source telle que Weaviate avec la simplicité de Snowflake et dans les limites sécurisées de votre compte.
- Utiliser des applications, des LLM et des bases de données vectorielles commerciaux : dans le cadre de l’intégration avec Snowflake Native Apps en private preview, Snowpark Container Services peut être utilisé pour exécuter des applications sophistiquées entièrement dans leur compte Snowflake. Il peut s’agir de LLM commerciaux d’AI21 Labs ou Reka.ai, de notebooks de premier plan comme Hex, d’outils LLMOps avancés de Weights & Biases, de bases de données vectorielles telles que Pinecone, et bien plus encore. Découvrez ici les dernières annonces relatives au développement d’applications dans Snowflake.
- Développer des interfaces utilisateur (UI) personnalisées pour les applications LLM : Snowpark Container Services fournit une flexibilité absolue aux développeurs d’entreprise chargés du développement d’applications LLM. S’ils veulent créer des front-ends personnalisés en utilisant des frameworks tels que ReactJS, il leur suffit de déployer une image de conteneur avec son code pour la rendre disponible dans Snowflake.
Des ressources pour vous lancer
Snowflake permet à tous les utilisateurs de générer rapidement et en toute sécurité de la valeur à partir de leurs données d’entreprise grâce aux LLM et à l’IA. Que vous souhaitiez utiliser l’IA en quelques secondes ou que vous ayez besoin de la flexibilité nécessaire pour créer des applications LLM personnalisées en quelques minutes, Snowflake Cortex, Streamlit et Snowpark Container Services vous fournissent les éléments de base nécessaires, sans vous demander de déplacer de données hors de l’espace sécurisé et gouverné de Snowflake. Vous trouverez dans les ressources suivantes de plus amples informations pour vous aider à vous lancer :
- Créez des applications en utilisant Streamlit dans Snowflake
- Consultez davantage d’informations sur Snowpark Container Services et restez informé pour le public preview
- Pour accéder à chacun des previews, contactez votre équipe commerciale.