BUILD: The Dev Conference for AI & Apps (Nov. 12-14)

Hear the latest product announcements and push the limits of what can be done in the AI Data Cloud.

製品 & テクノロジー

Snowflake Cortexによる迅速、簡単、安全なLLMアプリ開発

Snowflake Cortexによる迅速、簡単、安全なLLMアプリ開発

生成AIと大規模言語モデル(LLM)は、私たちの働き方を世界規模で変革しています。Snowflakeは、革新的な製品ラインアップを発表することにより、Snowflakeのプラットフォームの使いやすさ、セキュリティ、ガバナンスを生成AIの世界にもたらします。これらの新しいサービスにより、どんなユーザーも数秒でLLMを分析プロセスに組み込めるようになります。開発者は、Snowflakeのセキュリティ境界内から出ることなく、生成AIを活用したアプリを数分で作成でき、企業データでの基盤モデルのファインチューニングといった強力なワークフローを数時間で実行できます。これらの進歩により、開発者やアナリストのスキルレベルに関係なく、すでにセキュリティとガバナンスが確保されている企業データの場所で生成AIを使用できるようになります。 

それでは、開発者がSnowflakeで企業データに対して生成AIを安全かつ簡単に活用するために使用できる、すべての機能について詳しく見ていきましょう。

Snowflakeのお客様は、すでにガバナンスが確保されているデータの場所で生成AIを安全に活用するために、次の2つの基盤コンポーネントを使用できます。

Snowflake Cortex:Snowflake Cortex(プライベートプレビュー中)は、業界をリードするAIモデル、LLM、ベクトル検索機能へのアクセスを提供する、インテリジェントなフルマネージド型サービスです。これにより、組織は迅速にデータを分析し、AIアプリケーションを構築できます。企業が自社のデータを理解するLLMアプリを迅速に構築できるようにするために、Snowflake Cortexは、業界をリードする生成LLM(Meta AIのLlama2など)の推論を可能にするサーバーレス関数セット(随時追加)、アナリティクスを高速化するタスク固有のモデル、高度なベクトル検索機能などへのアクセスをユーザーに提供します。 

Snowflake Cortexは、開発者のみに力を与えるわけではありません。本格的なユーザーインターフェイスでのLLMを活用したエクスペリエンスを可能にする、基盤サービスでもあります。このエクスペリエンスには、ドキュメントAI(プライベートプレビュー中)、Snowflake Copilot(プライベートプレビュー中)、ユニバーサル検索(プライベートプレビュー中)が含まれます。

Snowparkコンテナサービス:この追加のSnowparkランタイム(近日中に一部のAWSリージョンでのパブリックプレビュー開始)により、開発者は、GPUインスタンスを備えた安全なSnowflakeマネージドのインフラストラクチャを使用して、オープンソースLLMのファインチューニングなどのタスクのために、コンテナ化されたカスタムワークロードとモデルを簡単に展開、管理、スケーリングできます。これらはすべて、Snowflakeアカウントの境界内から出ることなく実行できます。詳細と最新情報については、こちらをご覧ください。 

この2つのコンポーネントにより、開発者はデータをSnowflakeのガバナンスが確保された境界の外部に移動させる必要がなくなり、無限に近い力を得られます。

数秒でAIを使用

Snowflakeは、企業データとAIへのアクセスを民主化して少数のエキスパート以外も使用できるようにするために、カスタム統合やフロントエンド開発なしにあらゆるユーザーが最先端のLLMを活用できるイノベーションを提供します。これには、Snowflake Copilotなどの完全なUIベースのエクスペリエンスと、Snowflake Cortexで利用可能な、専門的なモデルと汎用モデルを通じてコスト効率の良い方法で分析を加速できるLLMベースのSQL/Python関数へのアクセスが含まれます。詳細については、こちらをご確認ください。

データを使用してLLMアプリを数分で構築

開発者は、統合、手動のLLM展開、GPUベースのインフラストラクチャ管理を行うことなく、ビジネスやデータの特有のニュアンスを学習するLLMアプリを数分で構築できるようになりました。開発者は、Snowflake内で検索拡張生成(RAG)をネイティブに使用してデータでカスタマイズしたLLMアプリケーションを構築するために、以下を使用できます。 

Snowflake Cortex関数:フルマネージド型サービスであるSnowflake Cortexでは、すべてのお客様が、複雑なインフラストラクチャ管理なしにLLMアプリ開発に必要なビルディングブロックにアクセスできます。 

これには、業界をリードするオープンソースLLMと高性能な独自LLMを活用する、汎用関数のセットが含まれています。そのため、プロンプトエンジニアリングで簡単に幅広いユースケースに対応できるようになります。初期モデルには、以下が含まれます。

  • Complete(プライベートプレビュー中):ユーザーはプロンプトを渡して、使用するLLMを選択できます。プライベートプレビューでは、Llama 2の3つのモデルサイズ(7B、13B、70B)から選択できます。
  • Text to SQL (プライベートプレビュー中):Snowflake Copilotエクスペリエンスを強化しているSnowflake LLMを使用して、自然言語からSQLを生成します。

これらの関数には、ベクトルの埋め込みとセマンティック検索の機能も含まれます。これらにより、ユーザーは自分のデータを使用してモデルの応答を簡単にコンテキスト化し、カスタマイズされたアプリを数分以内に作成できます。これには、以下が含まれます。

  • Embed Text (近日中にプライベートプレビュー開始):この関数は、ユーザーが選択した埋め込みモデルを使用して、与えられたテキスト入力をベクトル埋め込みに変換します。 
  • ベクトル距離(近日中にプライベートプレビュー開始):ベクトル間の距離を計算するために、開発者はコサイン類似度(vector_cosine_distance())、L2ノルム(vector_l2_distance())、内部積(vector_inner_product())の3つの関数から選択できます。
  • ネイティブベクトルデータ型(近日中にプライベートプレビュー開始): これらの関数をデータに対して実行できるようにするために、Snowflakeでは他のすべてのネイティブにサポートされるデータ型に加えて、ベクトルもネイティブにサポートされるデータ型になりました。 

Streamlit in Snowflake(パブリックプレビュー中):Streamlitを使用すると、チームはLLMアプリの作成をさらに加速できます。インターフェイスをわずか数行のPythonコードで開発でき、フロントエンドの経験は必要ありません。アプリは、Snowflakeの既存のロールベースのアクセス制御を活用する独自のURLを使用して、組織全体に安全に展開、共有できます。また、ワンクリックで生成できます。詳細については、こちらでご確認ください。 

Snowparkコンテナサービス:カスタムUIの展開、オープンソースLLMのファインチューニングなどを可能にする

開発者は、Snowparkコンテナサービス(近日中に一部のAWSリージョンでのパブリックプレビュー開始)を使用することで実質的にどんなものでもSnowflakeで構築、展開できるため、LLMアプリをさらにカスタマイズできます。この追加のSnowparkランタイムオプションにより、開発者はNVIDIA GPUなどの構成可能なハードウェアオプションを備えた安全なSnowflakeマネージドのインフラストラクチャを使用して、コンテナ化されたワークロード(ジョブ、サービス、サービス関数)を簡単に展開、管理、スケーリングできます。

開発者は、Snowflakeのガバナンスが確保された安全な境界の外にデータを移動することなく、LLMアプリに適用できます。以下に、最も一般的な例を挙げます。

  • オープンソースのLLMとベクトルデータベースの展開やファインチューニング:GPU搭載のインフラストラクチャとSnowparkモデルレジストリを組み合わせると、アカウント内の安全な境界内で、任意のオープンソースLLMの展開、ファインチューニング、管理、さらにWeaviateなどのオープンソースのベクトルデータベースの実行を簡単に行えます。
  • 商用アプリ、LLM、ベクトルデータベースの使用:Snowflakeネイティブアプリとの統合(プライベートプレビュー)の一環として、Snowparkコンテナサービスを使用して洗練されたアプリをSnowflakeアカウント内から離れずに実行できます。これには、AI21ラボやReka.aiの商用LLM、Hexなどの主要ノートブック、Weights & Biasesの高度なLLMOpsツール、Pineconeなどのベクトルデータベースが含まれます。  Snowflakeでのアプリケーション開発に関する最新の発表については、こちらをご覧ください。 
  • LLMアプリ用のカスタムユーザーインターフェイス(UI)の開発:Snowparkコンテナサービスは、LLMアプリケーションを開発する企業の開発者に最高クラスの柔軟性を提供します。ReactJSなどのフレームワークを使用してカスタムフロントエンドを作成する場合は、コードと一緒にコンテナイメージを展開するだけでSnowflakeで利用できるようになります。 

開始に必要なリソース

Snowflakeは、すべてのユーザーがLLMとAIを使用して簡単かつ安全に企業データから価値を引き出すことを可能にします。AIを数秒で即座に使用したいときも、カスタムLLMアプリを数分で構築できる柔軟性が欲しいときも、Snowflakeのガバナンスが確保された安全な境界の外にデータを移動させる必要はありません。Snowflake Cortex、Streamlit、Snowparkコンテナサービスにより、そのために必要なビルディングブロックが提供されます。以下から、開始に役立つ詳細情報を参照できます。 

Share Article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

30日間の無料トライアルを開始する

Snowflakeの30日間無料トライアルで、他のソリューションに内在する複雑さ、コスト、制約の課題を解決するデータクラウドを体験できます。