Rapprochez l’IA générative et les LLM de vos données
Le potentiel de l’IA générative et des grands modèles de langage (LLM) pour les entreprises est considérable.
Nous avons déjà évoqué cette opportunité auparavant et lors du Summit 2023, nous avons annoncé l’arrivée de plusieurs fonctionnalités qui, ensemble, permettront à nos clients de rapprocher l’IA générative et les LLM de leurs données propriétaires, ce par le biais d’une plateforme unique et sécurisée.
La plateforme Snowflake unique en son genre a déjà aidé nos clients à s’affranchir des silos de données et leur a permis de bénéficier de diverses possibilités de développement directement là où se trouvent leurs données. Notamment la possibilité d’exécuter et d’ajuster les principaux LLM dans Snowflake grâce à Snowpark Container Services, de tirer le meilleur parti des données grâce aux LLM intégrés et d’améliorer la productivité à l’aide d’expériences alimentées par les LLM. Poursuivez votre lecture pour en savoir plus sur ces annonces.
Rapprochez les LLM de vos données
Lors du Summit, nous avons lancé Snowpark Container Services (en private preview), un outil qui permet aux développeurs d’enregistrer et de déployer facilement des applications de données conteneurisées à l’aide d’une infrastructure sécurisée gérée par Snowflake, proposant des options matérielles configurables telles que le calcul accéléré avec les processeurs graphiques NVIDIA. Cette flexibilité supplémentaire élargit de manière significative le champ d’application de l’IA et du machine learning, ainsi que des workloads d’application pouvant être directement intégrés aux données Snowflake.
Afin que nos clients puissent exploiter les principaux LLM plus facilement et de façon plus sécurisée, Snowpark Container Services peut être utilisé dans le cadre d’une application native Snowflake, permettant aux clients d’accéder directement aux principaux LLM sur la Marketplace Snowflake, et de les installer et les exécuter entièrement sur leurs comptes Snowflake. Parmi les premiers LLM commerciaux, on trouve AI21 Labs, Reka ou NVIDIA (environnement NeMo faisant partie de la plateforme logicielle NVIDIA AI Enterprise).
Pour ces fournisseurs, le poids de leurs LLM et toute autre propriété intellectuelle ne sont pas exposés au client de l’application, car la logique et les données de l’application native Snowflake ne sont pas accessibles au client final, même lorsque l’application est déployée et exécutée dans Snowpark Container Services sur le compte Snowflake du client final. Étant donné que le LLM s’exécute depuis le compte du client final, les données d’entreprise gouvernées utilisées à des fins d’optimisation ou pour toute autre interaction avec le LLM ne sont jamais exposées au fournisseur. Les deux parties y trouvent leur compte. Visionnez cette démo pour voir ce processus en action.
Donnez vie aux LLM grâce à Streamlit
Streamlit a été pensé comme un moyen simple et pratique de donner vie aux données et aux modèles d’IA et de ML sous la forme d’applications interactives conçues avec Python. Il en va de même pour les LLM. Rapidement, Streamlit s’est imposé comme une solution incontournable pour concevoir des interfaces utilisateur pour des applications alimentées par les LLM. En effet, plus de 7 000 applications Streamlit alimentées par les LLM ont déjà été créées sur le Community Cloud, un nombre qui ne cesse d’augmenter chaque jour. Plus de 190 000 extraits de code Streamlit existent rien que sur GitHub, facilitant les interactions avec GPT4 et d’autres LLM. Cela signifie que les analystes, les data scientists et même les étudiants peuvent effectuer rapidement des analyses, créer des prototypes de nouvelles applications et tisser des fragments Streamlit auto-générés dans d’autres applications.
Grâce à l’intégration de Streamlit dans Snowflake (bientôt en public preview), les clients Snowflake peuvent utiliser Streamlit pour développer et déployer des interfaces utilisateur puissantes pour leurs applications et expériences alimentées par les LLM sans quitter la plateforme Snowflake. Ainsi, les entreprises peuvent partager facilement des applications en s’appuyant sur la gouvernance Snowflake existante et déployer rapidement ces applications sans contrainte opérationnelle grâce à une exécution totale sur la plateforme Snowflake.
Tirez le meilleur parti de vos données grâce aux LLM natifs
En outre, Snowflake conçoit des LLM directement dans la plateforme afin d’aider ses clients à améliorer leur productivité et à extraire de nouvelles informations à partir de leurs données. La compréhension et l’extraction de valeur à partir de données non structurées, comme des documents, constituaient un défi complexe pour ses clients. Au travers de Document AI (en private preview), Snowflake offre un LLM de pointe aidant nos clients à extraire des informations rapidement et en toute simplicité à partir de documents. Découvrez ce processus en action ici.
Document AI exploite un LLM multimodal conçu à cet effet, intégré nativement dans la plateforme Snowflake. Nos clients peuvent facilement extraire du contenu de leurs documents, tel que des montants de facture ou des clauses contractuelles, en toute sécurité, puis s’appuyer sur une interface visuelle et le langage naturel pour ajuster les résultats. Étant donné que toutes les fonctionnalités sont intégrées à la plateforme Snowflake unique, les développeurs et data engineers peuvent aussi effectuer une inférence en invoquant les modèles intégrés ou affinés via un programme, comme dans les pipelines Streams et Tasks ou dans les applications.
Optimiser la productivité grâce à des expériences alimentées par les LLM
Comme nous avons pu l’observer dans le secteur, les LLM constituent également un moyen performant d’accroître la productivité des utilisateurs, en réduisant le recours au codage manuel ou encore en favorisant la découvrabilité. Lors du Summit, nous avons présenté plusieurs améliorations en cours de développement, visant à offrir des expériences alimentées par les LLM aux clients Snowflake. Parmi ces améliorations figurent les expériences de recherche conversationnelle, pour aider nos clients à découvrir des données et des applications en se fondant sur des questions professionnelles dans la Marketplace Snowflake, ainsi que des fonctionnalités conversationnelles de conversion de texte en code, facilitant la consultation de données et la découverte de nouvelles informations dans Snowsight, même pour les utilisateurs qui ne maîtrisent pas le SQL. Nous continuerons d’apporter des améliorations dans ce domaine afin de permettre à tous, y compris aux personnes ne disposant d’aucune compétence de codage, de découvrir leurs données et d’en tirer profit.
Et maintenant?
L’IA générative est à l’origine d’un changement fondamental pour les logiciels et les entreprises, et ce n’est que le début. Gardez un œil sur notre site pour les développeurs pour en savoir plus sur la façon dont vous pouvez utiliser Snowflake pour tirer parti des LLM au sein de votre entreprise.
En savoir plus : pour en savoir plus sur la façon dont Snowflake conçoit une plateforme axée sur les données pour l’IA générative et les LLM, consultez ce blog.