MetaのLlama 3.1 405BがSnowflake Cortex AIでエンタープライズアプリケーション開発可能に
本日、Snowflakeは、多言語大規模言語モデル(LLM)のLlama 3.1コレクションがSnowflake Cortex AIで利用できるようになりました。これにより、企業はMetaの最も高度なオープンソースモデルに安全かつサーバーレスでアクセスできます。Snowflakeは、Llama 3.1モデルのコレクションに128kというベンダー最大のコンテキストウィンドウを提供します。
Snowflakeのお客様は、Cortex AIを使用し、Metaの最新オープンソースモデルのAIアプリ開発で自社のデータを安全に利用できます。Llama 3.1 405Bと8Bおよび70Bモデルがサーバーレス推論で利用できるようになりました。さらに、Llama 3 8Bおよび70Bモデルは、引き続きサーバーレス推論とファインチューニングの両方に使用できます(パブリックプレビュー中)。
信頼性の高い安全な使用のための最高品質の信頼と安全機能を備えた最新のLlama 3.1多言語LLMコレクションは、最先端のテクノロジーに簡単にアクセスでき、幅広いプラットフォームサポートによって活発な生成AIユーザーコミュニティにいつでもサービスを提供できます。
Llama 3.1 405Bの概要
Llamaは、開発者、研究者、企業が生成AIのアイデアを構築、実験し、責任を持って拡張できるよう設計された、アクセス可能なオープンLLMです。Llama 3.1 405Bは、一般的な知識、操縦性、数学、ツールの使用、多言語翻訳などにおいて、業界をリードする独自のAIモデルと同等の性能を発揮する初めてのオープンソースモデルです。
強化された能力に基づいて、Llama 3.1 405Bは次のようなユースケースについて評価する必要があります。
- 長いドキュメント処理:128kトークンのより大きなコンテキストウィンドウにより、お客様は長いドキュメントの分割やチャンクを行うことなく、他の自然言語処理タスクの要約、分析、実行を行うことができます。
- 高度な多言語アプリ:モデルは10の言語との対話向けに最適化されており、スペイン語、ポルトガル語、イタリア語、ドイツ語などの複数の異なる言語を使用するアプリに堅牢なソリューションを提供します。
- 合成データ生成:お客様は、合成データを生成し、それをポストトレーニングで適用して、より小規模なLlamaモデルを改善できます。
- 蒸留レシピ:顧客は蒸留を使用して、Llama 3.1 405Bのような大型モデルから小型で効率的なモデルを作成できます。詳細な方法と例を含むスクリプトとノートブックへのアクセスにより、自己抽出が可能になります。これらの小型モデルは、同等の性能を低コストで低レイテンシーで提供し、リソースに制約のある環境に最適です。
Llama 3.1モデルの新しいコレクションは、エコシステム全体をカバーする、真にコミュニティ重視のものです。Llamaのモデルは、何億回もダウンロードされており、何千ものコミュニティプロジェクトによってサポートされています。クラウドプロバイダーからスタートアップまで、世界はLlamaと共に成長し、複雑なエンタープライズユースケースをグローバルに解決しています。
堅牢な安全機能によりリスクを最小化
SnowflakeがエンタープライズカスタマーにAIツールを提供し続ける中で、生成AIを使いやすくすることは、安全性がなければ意味がないということが分かりました。生成AIアプリケーションが本番環境に移行し、ユーザーベースが拡大すると、有害なインタラクションのリスクが高まります。スケーラビリティやコストの増加を損なうことなく、堅牢な安全機能を実装することが不可欠です。Llama 3.1モデルコレクションは、信頼性と安全性を追求し、コミュニティのコラボレーションを促進し、生成AIの安全プラクティスを標準化するモデルとツールをリリースしています。
HakkodaのAIリーダーであるRyan Klapper氏は、次のように述べています。「生成AIの活用は安全性と信頼性にかかっています。Snowflakeプラットフォームは、業界をリードする大規模言語モデルを大規模にイノベーションし活用するために必要な保証を与えてくれます。」「Snowflake Cortex AI内のMetaのLlamaモデルは、社内のRAGベースのアプリケーションにサービスを提供する機会をさらに広げる強力な組み合わせです。これらのアプリケーションを通じて、ステークホルダーは社内のナレッジセンターとよりシームレスにやり取りすることができ、正確かつ関連性の高い情報にいつでもアクセスできます」
モデルベンチマークとその他のユースケースの詳細については、MetaのLlama 3.1 405Bに関する発表をご覧ください。
Snowflakeは、微調整と長いコンテキスト推論向けに最適化された機能をオープンソース化しています
SnowflakeのAI研究チームは、1,000億個以上のパラメータモデルの推論と微調整を効率的かつコスト効率良く行うために、Cortex AIで使用される大量の推論と微調整のためのスタックに取り組んでいます。現在、MetaのLlama 3.1 405Bが発売され、この取り組みはかつてないほど重要になっています。
MetaによるLlama 3.1コレクションのOSSリリースは、Snowflake AIリサーチチームにさらなるイノベーションのオープンソース化を促すきっかけとなりました。AIコミュニティがこの強力かつ大規模なモデルを活用し、その上に構築できるよう、私たちは大規模LLM推論システム最適化スタックと大規模LLMファインチューニングシステム最適化スタックをオープンソース化しています。
詳細については、推論システム最適化とファインチューニングシステム最適化に関するSnowflakeのエンジニアリングブログをご覧ください。
Llama 3.1 405Bを使用して構築:Cortex AIでは、使い慣れたSQL構文を使用してテーブル内のデータに対して推論を実行できます。顧客ID、顧客名、顧客フィードバックなどの関連する列を含むサンプルテーブル(顧客調査結果など)をアップロードします。次のSQL関数を使用して、顧客フィードバックのサマリー列を作成できます。
可用性:Llama 3.1 405BモデルはAWS us-west-2で提供されており、今後数週間でより多くのお客様が利用できるようになります。今後のアップデートのためにアベイラビリティマトリクスにアクセスできます。利用可能なモデルや使用手順など、Cortex AIの詳細については、Snowflakeのドキュメントセンターを参照してください 。
Llama 3.1 405Bを使用して特定のユースケース向けのAIアプリケーションを構築する方法をご紹介します。詳しくは、Snowflake Cortex AIのホームページをご覧ください。クイックスタートガイドで実際にお試しください。