製品 & テクノロジー

Snowflake Cortex LLM関数、一般提供開始 新しいLLM、検索の改善、AI安全性の強化

Snowflake Cortex LLM関数、一般提供開始 新しいLLM、検索の改善、AI安全性の強化

Snowflake Cortexは、業界をリードする大規模言語モデル(LLM)へのアクセスを可能にするフルマネージド型のサービスです。これらのLLMは、Cortex上のLLM関数を介して特定のリージョンで直接使用できるため、管理されたデータに生成AIを安全に持ち込むことができます。チームはAIアプリケーションの構築に集中でき、Snowflakeはモデル最適化とGPUインフラストラクチャーに対処してコスト効率の高い性能を実現できます。

以下は、効率的でユーザーフレンドリーで信頼性の高い生成AIを提供するというミッションの一環として本日リリースされた一連のアップデートです。 

  • より高性能なLLM:Cortexは、Mistral AIとGoogleの高性能LLMに加えて、Snowflake Arctic、Llama 3(8Bと70Bの両方)、Reka-Core LLMもサポートしています。これらの基盤モデルはすべて、単一の使いやすいCOMPLETE関数で利用できます。
  • Arctic embedを使用した効率的なRAGおよびセマンティック検索:埋め込み関数とベクトル関数はパブリックプレビュー中です。これには、世界最高の実用的なテキスト埋め込み検索モデルであるArctic embedのサポートが含まれます。
  • Llama GuardによるAIの安全性の強化:Metaとのコラボレーションの一環として、LLMベースの入出力保護モデルであるLlama GuardがSnowflake Arcticにネイティブに統合され、まもなくCortex LLM Functionsの他のモデルで使用できるようになります。

これらのアップデートを組み合わせることで、さまざまな業界で価値が生まれ、特に2つのユースケースで活用されています。

  • テキスト分析と生成:ある大手ビデオホスティングプラットフォームでは、テキストベースのユーザーインタラクションから得られるデータインサイトが限られていたため、無料ユーザーから有料ユーザーへの変換に苦労していました。埋め込み関数とベクトル距離関数を使用してセマンティック検索タスクを実行することで、ターゲットセグメントをより明確に定義できるようになりました。次に、完全な機能の基盤モデルを使用して、パーソナライズされたメールを作成しました。これらのLLM操作はSnowflakeでバッチ操作として簡単に実行できるため、チームはこれを継続的に実行し、無料から有料へのコンバージョンを増やしています。
  • チャットボットの文書化。ある多国籍で持続可能なエネルギーテクノロジー企業は、地理的に分散した技術チーム間のコラボレーションを効果的に促進するのに苦労しました。その知識は、70万ページ以上の非公開の研究開発文書に含まれていました。SnowflakeでCortexとStreamlitを組み合わせたRAGベースのアーキテクチャを使用して、ドキュメントチャットボットを作成しました。この新しいアプリケーションは、ナレッジシェアリングを合理化し、情報検索時間を短縮し、全体的な生産性を向上させます。

Snowflake Arctic、Llama 3、Rekaモデルのサポートにより、高性能LLMの柔軟性が拡大

最先端のモデルの進化が続く中、顧客はユースケースに最適な結果を得るために、迅速かつ安全にモデルのテストと評価を行う柔軟性を必要としています。そのため、Snowflake Cortexは以下のサポートを追加しています。 

  • Snowflake Arctic:エンタープライズタスクのためのSnowflakeの効率的で真にオープンなモデル。Arcticは、SQLの生成、コーディング、ベンチマークに沿った指示などのエンタープライズタスクを得意としています。Apache 2.0ライセンスで利用可能で、重み付けとコードへの無制限のアクセスを提供します。2024年6月3日まで、Snowflakeのお客様がSnowflake Arcticに無料でアクセスできます。1日制限あり
  • Meta Llama 3 8Bおよび70BLlama 3モデルは、さまざまな自然言語処理タスクで優れた性能を発揮する、パワフルなオープンソースモデルです。これらのモデルでは、推論、コード生成、命令フォローなどの機能が向上し、モデル応答の多様性が高まります。
  • Reka CoreこのLLMは、画像、動画、音声とテキストの総合的な理解を示す最新のマルチモーダルモデルです。現在、Snowflake Cortexは、近い将来予想されるマルチモーダルをサポートするテキストモダリティを提供しています。 

データに対してこれらのモデルを使用するのは、SQLとPythonの両方で利用できるCOMPLETE関数でモデル名を変更するだけです。

Arctic埋め込みを使用した効率的なRAGおよびセマンティック検索

LLMを使用してビジネス上の疑問に正確に答えるには、企業は自社のデータで学習済みモデルを強化する必要があります。検索拡張生成(RAG)は、LLM生成に事実に基づくリアルタイムデータを組み込むため、この問題に対する一般的なソリューションです。

Snowflakeのお客様は、完全に統合されたソリューションを使用して、ドキュメントチャットなどのRAG指向ユースケースを簡単にテストおよび評価できるようになりました。Arctic embedがCortex EMBED関数のオプションとして利用可能になりました。EMBED関数ベクトル距離関数、およびVECTORは、Snowflakeのネイティブデータ型として現在パブリックプレビュー中であり、まもなく一般提供開始となります。これらすべてがSnowflakeプラットフォームにネイティブに組み込まれているため、別のベクトルストアを設定、維持、管理する必要はありません。この一体感のあるエクスペリエンスにより、アイデアから実装までの道筋が加速し、組織がサポートできるユースケースの幅が広がります。 

Snowflakeで独自のドキュメントチャットボットを構築する準備はできましたか?このステップバイステップのクイックスタートをお試しください 。

Snowflakeは、企業が自社のデータと安全にやり取りできるよう、より高度で効率的なデータ検索を開発し続けています。私たちは、オープンかつ協力的な方法でデータを取得し、業界を前進させています。このアプローチを念頭に置き、世界最高の実用的なテキスト埋め込みモデルであるArctic embedをオープンソース化し、最近、University of Waterlooと提携して検索ベンチマークを進化させることを発表しました。 

Snowflake ArcticにおけるLlama GuardによるAIの安全性の強化

Snowflakeでは、生成AIアプリケーションの高い安全性基準を維持することを重視しています。Metaとの継続的な焦点およびパートナーシップの一環として、Llama GuardモデルはSnowflake Arcticにネイティブに統合されており(近日中に他のモデルにも提供予定)、LLMプロンプトと応答から潜在的に有害なコンテンツをプロアクティブにフィルタリングします。Snowflake ArcticをLlama Guardと組み合わせることで、生成AIアプリケーションの好ましくないコンテンツを最小限に抑え、より安全なユーザーエクスペリエンスをすべての人に提供します。MetaのLlama Guardは、Metaが収集したデータセットに基づいて指示を調整されています。既存のベンチマークで優れた性能を発揮し、現在利用可能なコンテンツモデレーションツールと同等またはそれ以上の性能を発揮します。このモデルでは、LLMプロンプトで特定の安全リスクを特定し、LLMが生成するプロンプトへの応答を分類できます。また、Llama GuardをCortexの他のモデルと併用できるようにすることも近日中に計画しています。

エンタープライズAIの強化:セキュリティと信頼に根ざしたLLM

データセキュリティは、実稼働グレードの生成AIアプリケーションを構築する鍵です。Snowflakeは、業界最高水準のデータセキュリティとプライバシーに尽力し、法人のお客様が取り込みから推論までのAIライフサイクルを通じて最も価値のある資産であるデータを保護できるようにします。  高いセキュリティ基準は、Cortexのすべてに適用できます。要約などのタスク固有の関数を使用するか、Snowflake、Mistral AI、Metaなどの基盤モデルを使用するかにかかわらず、常に次のことが当てはまります。

  • Snowflakeは、顧客データを使用して、顧客間で使用するLLMをトレーニングしません。
  • LLMはSnowflake内で実行されます。データがSnowflakeのサービス境界を離れることはなく、サードパーティプロバイダーと共有されることはありません。
  • ロールベースのアクセス制御(RBAC)を使用して、Cortex LLM関数へのアクセスを管理できます。

詳細については、AI Trust and Safety FAQとAIセキュリティフレームワークのホワイト ペーパーを参照してください。

価格と可用性

Snowflake Cortex LLM関数は、処理されたトークンの数に応じてコンピュートコストが発生します。各関数のトークン100万個あたりのクレジットコストについては、消費テーブルを参照してください。この機能は一部のリージョンで利用可能です。詳細については、リージョン機能マトリックスを参照してください。

はじめに

Snowflake Cortexにより、組織はデータをSnowflakeのセキュリティとガバナンスの境界に保持したまま、LLMを使用して生成AIアプリケーションを迅速に提供できます。ぜひお試しください。

他の業界やSnowflakeのエキスパートから最新の生成AI機能の使い方を学び、仲間と交流してみませんか?6月3日から6日までサンフランシスコで開催されるSnowflake Data Cloud Summitにご参加ください。

Share Article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

30日間の無料トライアルを開始する

Snowflakeの30日間無料トライアルで、他のソリューションに内在する複雑さ、コスト、制約の課題を解決するデータクラウドを体験できます。