Snowflake Cortex AIでのDeepSeek-R1のプレビュー開始の発表

Snowflake Cortex AIに、DeepSeek-R1が導入されました。DeepSeekの解説にあるとおり、このモデルは、教師ありファインチューニング(SFT)なしの大規模な強化学習(RL)によってトレーニングされており、数学、コード、推論タスクにおいて、OpenAI-o1に匹敵する性能を達成できます。DeepSeekが公開したベンチマークによると、DeepSeek-R1はオープンソースモデルの中でトップであり、世界で最も先進的なクローズドソースモデルと肩を並べます。Snowflakeのお客様は、Cortex AI上でDeepSeek-R1の早期プレビューをリクエストできるようになりました。
Snowflakeは、このプライベートプレビューの一環として、簡単、効率的、信頼できる、という製品原則に従ったアクセスを提供できるよう注力します。
このモデルは、バッチ(SQL関数)とインタラクティブ(PythonとREST API)の両方に対応するサーバーレス推論のプライベートプレビュー版です。プレビュー中にアクセスをリクエストされたい方は、担当のセールスチームにお問い合わせください。このモデルは、リクエストされたアカウントでのみ利用可能です。
このモデルは、Snowflakeのサービス境界内で米国でホストされます。モデルのプロバイダーとはデータを共有しません。
モデルの一般提供開始後に、お客様はロールベースのアクセス制御(RBAC)によってモデルへのアクセスを管理できるようになります。アカウント管理者は、ガバナンスポリシーによって承認されたモデルを選択することでアクセスを制限できます。
Snowflake Cortex AI
Snowflake Cortex AIは、構造化データと非構造化データに対応した、統合された機能とサービス(フルマネージドのLLM推論、ファインチューニング、RAGなど)のスイートです。構造化データと非構造化データを同時に迅速に分析できるようになり、AIアプリの構築が加速します。お客様は、オープンソースであるか専有であるかにかかわらず、業界の主要なLLMにアクセスしてワークフローやアプリケーションに簡単に統合できます。Snowflakeはオープンソースエコシステムを採用しており、Meta、Mistral、Snowflakeの複数のLLMをサポートしています。私たちは、このオープンなアクセスとコラボレーションが、この分野のイノベーションの促進につながると信じています。
DeepSeek-R1
DeepSeekのGitHubへの投稿によると、DeepSeekでは、前段階として教師ありファインチューニング(SFT)に依存することなしに、強化学習(RL)をベースモデルに直接適用したとのことです。このアプローチにより、モデルは複雑な問題を解決するための思考連鎖(CoT)を探索できるようになり、結果としてDeepSeek-R1-Zeroが開発されました。初期モデルは、自己検証、リフレクション、長いCoTの生成などの機能を実際に示すことができましたが、繰り返しが終わらない、可読性が低い、言語混合などの課題を抱えていました。これらの問題に対処するために、DeepSeekチームはRLの前にコールドスタートデータを組み込むことで推論性能を強化しました。チームはその方法についても説明しています。

チームは、精度の低いFP8トレーニングと補助損失のないロードバランシング戦略を導入したことによって、トレーニングの計算コストを大幅に削減しながら最先端のパフォーマンスを実現しました。
Cortex AIでのDeepSeek-R1の使用
Snowflake Cortex AIでは、大規模言語モデル(LLM)に簡単にアクセスできます。統合やAPIキーを管理する必要はありません。データとAIにまたがって一貫したガバナンス制御を実装できます。モデルには、サポート対象リージョンからアクセスできます。また、クロスリージョン推論を有効にすることで、他のリージョンからもアクセス可能です。Cortex Guardを有効にすると、不適切な応答や安全でない応答をフィルタリングできます。ガードレールは、有害なコンテンツをフィルタリングするためのポリシーを適用することでガバナンスを強化します。
SQLとPython
モデルをデータパイプラインまたはStreamlit in Snowflakeアプリに統合することで、テーブル内の複数の行を処理できるようになります。この統合には、COMPLETE関数を使用できます。この関数はSQLとPythonのどちらでもアクセス可能です。また、LLM推論アプリケーションに使用されるCortex AIのCOMPLETE関数内で「guardrails: true」を追加するだけで、有害なコンテンツをフィルタリングできます。DeepSeekモデルにはSnowflake Notebookから、またはご利用中のその他のIDEから(カスタムクライアント用のOAuthを使用)アクセスできます。SQL関数の使用方法に関するその他のテンプレートや詳細については、こちらをご覧ください。Pythonの構文についてはこちらをご確認ください。
SELECT SNOWFLAKE.CORTEX.COMPLETE('deepseek-r1',
[{'content': CONCAT('Summarize this customer feedback in bullet points:<feedback>', content ,'</feedback>')}],
{'guardrails': true}
);
Cortex Guardを有効化すると、凶悪犯罪、ヘイト、性的コンテンツ、自傷行為など、有害なコンテンツに関連する言語モデル応答が自動的にフィルタリングされ、「Cortex Guardでフィルタリングされた応答」というメッセージが返されます。 AIの安全性に関するSnowflakeの見解の詳細については、AIセキュリティフレームワークに関するホワイトペーパーをお読みください。
REST API
Snowflakeの外部で実行されるサービスやアプリケーションからCortex AIの推論呼び出しを低レイテンシーで実行できるようにするには、REST APIインターフェイスの利用が効果的です。以下に例を示します。
curl -X POST \
"model": "deepseek-r1",
"messages": [{ "content": "Summarize this customer feedback in bullet points: <feedback>”}],
"top_p": 0,
"temperature": 0.6,
}' \
https://<account_identifier>.snowflakecomputing.com/api/v2/cortex/inference:complete
次の展開
DeepSeekによると、DeepSeekはLLMの推論機能をSFTの必要なしにRLのみによって強化できることを実証した、最初のオープンソースモデルです。Cortex AIは、SQL関数とREST APIによる簡素化された統合を可能にします。また、Cortex Guardにより、お客様は必要な安全管理措置を実施できます。SnowflakeのAIリサーチチームは、推論コストをさらに削減するためにDeepSeek-R1の強化を予定しています。お客様は、DeepSeek-R1によって費用対効果を高め、生成AIアプリケーションの提供を加速できるようになります。この画期的な進歩は、この分野における今後の発展の基盤となるものです。
注:このページには、Snowflakeが将来提供する製品に関する記述を含め、将来の見通しに関する記述が含まれていますが、これはいかなる製品の提供も約束するものではありません。実際の成果や提供物は異なる可能性があり、既知および未知のリスクおよび不確実性の影響を受けます。詳細については、最新の四半期報告書(10-Q)をご覧ください。