MetaのLlama 4大規模言語モデルがSnowflake Cortex AIで利用可能に

Snowflakeは、業界をリードするLLMの提供に注力しています。そしてこのたび、Snowflake Cortex AIで、Metaの最新Llama 4モデルの利用が可能になりました。
Llama 4モデルは、高パフォーマンスの推論を提供します。そのため、お客様はエンタープライズグレードの生成AIアプリケーションを構築してパーソナライズされた体験を提供できるようになります。Llama 4 MaverickモデルとLlama 4 Scoutモデルは、Cortex AI上のセキュアなSnowflake境界内でアクセスできます。Metaによると、Llama 4 Scoutは同クラスで世界最高レベルとなるマルチモーダルモデルであり、業界をリードする最大1,000万トークンのコンテキストウィンドウをサポートしています。Metaによると、これらのモデルは、充実したエンドユーザー体験を提供するために、大量のラベルのないテキスト、画像、動画のデータでトレーニングされています。これらのモデルは、ネイティブなマルチモダリティを目的として設計されており、テキストトークンとビジョントークンをシームレスに統合するための初期融合が組み込まれています。この設計は、さまざまなユースケースと開発者のニーズに対応しています。そのため、開発者はエンタープライズグレードのAIアプリケーションを構築できるようになります。
エキスパートアーキテクチャ(MoE)の組み合わせによる高速で高品質の推論
Llama 4は、MoEアーキテクチャを使用したMeta初のモデルです。単一のトークンによって全パラメータのごく一部のみがアクティベートされます。その結果、MoEアーキテクチャはモデルトレーニングと推論の両方においてコンピュート効率が高く、他のアーキテクチャと比較して高品質の推論を提供します。Llama 4 MaverickとLlama 4 Scoutは、Snowflake内で生成AIアプリケーションと統合できます。
Llama 4 Maverickは、12の言語をサポートすることで言語の壁を解消し、画像とテキストの理解において業界トップのパフォーマンスを提供します。汎用LLMであるLlama 4 Maverickは、170億のアクティブパラメータ(合計パラメータ数は4000億)を含み、Llama 3.3 70Bと比較して高品質の推論を提供します。このモデルは、正確な画像理解とクリエイティブなライティングに適しています。トーンの応答品質や拒否について最適化された、最先端のインテリジェンスを高速で提供します。
Llama 4 Scoutは、170億のアクティブパラメータ(合計パラメータは1,090億)を備えた、比較的小規模の汎用モデルです。業界をリードする1,000万トークンのコンテキストウィンドウサイズをサポートします。これにより、複数のドキュメントの要約、タスクをパーソナライズするための広範なユーザーアクティビティの解析、膨大なコードベースの推論など、さまざまな可能性が広がります。
オープンソースへのSnowflakeのコミットメント
MetaのオープンソースのLlamaモデルは、企業が独自のAI体験を生み出すことを可能にしました。Snowflakeでは、Cortex AI内でこれらのモデルを活用し、進化するビジネスニーズを満たすカスタムソリューションを構築しています。お客様はLlamaモデルを使用して、複雑なタスクを処理するAIエージェントを強化し、Cortex AnalystやCortex Searchなどのツールと統合し、シングルプラットフォームでデータの価値を最大限に引き出せるようになります。
「TripAdvisorは、毎月4億5000万人の旅行者に利用されている、世界最大の旅行ガイドプラットフォームです。私たちはSnowflakeでLlamaモデルを活用して、関連性の高いパーソナライズされた旅行プランのレコメンデーションを提供するとともに、エンゲージメントの強化やビジネス収益の改善も実現しています。Cortex AIでLlama 4モデルを使用できるようになったことについて、私たちのチームは大変嬉しく感じています。限界が押し広げられ、さらにパーソナライズされた旅行を実現してユーザー体験を高められるようになるからです」
— Rahul Todkar氏
私たちのAIリサーチチームは、これらのLlamaモデルを基盤として最先端のテクノロジーを積極的に開発しています。たとえば、Arctic Ulyssesは、低レイテンシーと高スループットの推論のために最適化された、私たちが開発した新しいテクノロジーであり、長いシーケンスタスクに適しています。さらに、MetaのLlamaモデルを基盤に構築され、Snowflake-Llama-3.3-70BとSnowflake-Llama-3.1-405Bで利用可能なSwiftKVは、SwiftKVに最適化されていないCortex AIのベースラインMeta Llamaモデルと比較して、Cortex AIでのLlama LLMの推論コストを最大75%削減します。これは、お客様の目に見えるコスト削減とパフォーマンスの向上に直接つながり、生成AIイニシアチブのスケーラブルな展開を促進します。SwiftKVは、推論のプリフィル段階を最適化することで、多くのエンタープライズアプリケーションにとって重要な要件である、長い入力プロンプトの効率的な処理を保証します。
SQLとPythonによる統合アクセス
Cortex AIでプレビュー中のLlama 4シリーズは、確立されたSQL関数と標準のREST APIエンドポイントを通じて簡単にアクセスできます。お客様は、複雑な統合手順を行うことなく、Llama 4の高度な推論機能を既存のアプリケーションやデータパイプラインに使用できます。この新しいLlama 4モデルは、Cortex AI内のシンプルなCOMPLETE関数を使用して呼び出せます。
SELECT SNOWFLAKE.CORTEX.COMPLETE('llama4-maverick',
[{'role':'user','content':CONCAT('Summarize this customer feedback in bullet points:<feedback>',content,'</feedback>')}]
,{'guardrails':true})
FROM my_table;
REST APIによる統合アクセス
Snowflakeの外部で実行されるサービスやアプリケーションからCortex AIの推論呼び出しを低レイテンシーで実行できるようにするには、REST APIインターフェイスの利用が効果的です。以下に例を示します。
curl -X POST \
-H "Authorization: Bearer <jwt>" \
-H 'Content-Type: application/json' \
-H 'Accept: application/json, text/event-stream' \
-d '{
"model": "llama4-maverick",
"messages": [
{
"role": "user",
"content": "What is the weather like in San Francisco?"
}
],
"max_tokens": 4096,
"top_p": 1,
"stream": true
}' \
https://<account_identifier>.snowflakecomputing.com/api/v2/cortex/inference:complete
高度な推論機能を活用するための信頼できる道筋
Snowflakeは、OpenAIやAnthropicなどのプレミアモデルへのネイティブな統合を備えた唯一のクラウドデータプラットフォームです。Llama 4をSnowflake Cortex AIに統合することにより、お客様は最先端のAIモデルにアクセスしてインテリジェントなアプリケーションとデータエージェントを構築できるようになります。これらはすべて、Snowflakeのセキュリティとガバナンスが確保された、統合環境内で実行されます。この強力な組み合わせにより、企業は反復タスクを自動化し、データからより深いインサイトを獲得し、顧客により多くの価値を提供できるようになります。
Snowflake Cortex AIでLlama 4を使用して、次世代のAIアプリケーションを構築する方法についての詳細は、続報をお待ちください。
さらに詳しく
Summit 2025に参加して、Snowflakeの最新のAIイノベーションについて確認する
業界をリードするAIとデータのユースケースのガイドを今すぐダウンロードする
Metaの最新の発表を確認する