Snowflake、Mistral AIとの提携によりSnowflake Cortexを介し、業界をリードする言語モデルの提供を開始

本報道資料は米国スノーフレイク社が3月5日に発表した内容の抄訳です。

  • Mistral AIの最新かつ最も強力なモデルであるMistral LargeをSnowflakeデータクラウドで使用することで、生成AIを利用した企業データのフル活用をセキュアな環境で実現
  • Snowflake VenturesとMistral AIとの提携により生成AI機能が拡張、より多くの開発者が先進の大規模言語モデルのパワーをシームレスに利用可能に
  • Snowflake CortexのLLM機能(現在パブリックプレビュー中)により、生成AIアプリの構築を迅速、容易かつ安全に構築

データクラウドを提供するSnowflake(ニューヨーク証券取引所:SNOW)およびヨーロッパで有数のAIソリューションプロバイダーであるMistral AIは、両社のグローバルパートナーシップにより、Mistral AIの最も強力な言語モデルがデータクラウド内でSnowflakeユーザーに直接提供されることをお知らせいたします。複数年にわたる本パートナーシップには、Snowflake VenturesによるMistralのシリーズAへの並行投資が含まれており、Mistral AIとSnowflakeの両社は、企業にとって最も貴重なアセットであるデータのセキュリティ、プライバシー、ガバナンスを維持しながら、大規模言語モデル(LLM)のパワーをシームレスに活用するために必要な機能を提供します。

Mistral AIとの新たなパートナーシップにより、Snowflakeユーザーは、Mistral AIの最新かつ最も強力なLLMであり、ベンチマークにおいて世界トップクラスの性能であることが示されているMistral Largeを利用できるようになります。Mistral AIの新しいフラッグシップモデルは、ベンチマークの評価にとどまらず、独自の推論能力を備え、コーディングや数学に精通し、フランス語、英語、ドイツ語、スペイン語、イタリア語の5か国語に対応しています。これは、生成AI技術の文化的、言語的特異性を促進するというMistral AIのコミットメントに沿ったものとなっています。また、1回の呼び出しで何百ページもの文書を処理することも可能です。さらにSnowflakeユーザーは、サイズの割にメモリ要件が低くスループットの高い、低レイテンシに最適化されたMistral AI初の基盤モデルであるMistral 7Bに加え、ほとんどのベンチマークOpenAIのGPT3.5を上回る速度と品質を持つMistral AIのオープンソースモデルであるMixtral 8x7Bを利用できるようになります。Mistral AIのモデルは現在、Snowflake Cortexの一部としてパブリックプレビュー版が使用可能です。Snowflake Cortexは、SnowflakeのフルマネージドLLMおよびベクトル検索サービスで、企業によるアナリティクスの高速化や企業データを活用したAIアプリの迅速かつ安全な構築を可能にします。

SnowflakeのCEOであるSridhar Ramaswamy(スリダール・ラマスワミ)は次のように述べています。「Mistral AIと提携することで、Snowflakeユーザーに市場で最も強力なLLMの1つを直接提供できるようになります。これにより、すべてのユーザーがシンプルでスケールの大きい最先端のAI搭載アプリを構築できるようになります。私たちは信頼できるデータ基盤であるSnowflakeを利用し、Snowflake Cortexを通じて企業によるLLMのパワーの活用方法に変革をもたらそうとしています。これにより企業は、データクラウドのセキュリティとプライバシーの領域内で、新たなAIユースケースに対しコスト効率良く対応することが可能となります」 

Mistral AIのCEO兼共同創設者であるArthur Mensch氏は次のように述べています。「セキュリティ、プライバシー、ガバナンスに対するSnowflakeのコミットメントは、すべての人が、どこにいてもフロンティアAIを利用できるようにする、というMistral AIの大志と一致しています。またMistral AIは、効率的で有用かつ信頼できるAIモデルを開発し、世界中の企業による生成AIの活用方法を進化させる、というSnowflakeの価値観を共有しています。当社のモデルがSnowflakeデータクラウドで利用できるようになることで、AIの民主化が促進され、ユーザーはグローバルな規模で価値を促進する、より高度なAIアプリを作成できるようになります」

Snowflake CortexはSnowday 2023において、検索拡張生成(RAG: Retrieval Augmented Generation)などのユースケース向けの、Meta AIのLlama 2モデルを始めとする基盤LLMに加え、業界をリードする、センチメント分析、翻訳、要約といった特殊タスク向けLLMへのサポートを初めて発表しました。Snowflakeは、Mistral AIとの提携やSnowflake Cortex内の一連の基盤LLMを進化させることで生成AIにおける取り組みに継続して投資しており、ビジネスのあらゆる場面で最先端の生成AIを容易に活用するための手段を企業に提供しています。幅広いユーザーがAIを利用できるようなサーバーレスエクスペリエンスの提供に向け、Snowflake CortexはNVIDIAと提携して、NVIDIA Triton Inference Serverをはじめとするツールを活用するフルスタックのアクセラレーテッドコンピューティングプラットフォームを提供することで、GPUインフラの長周期的な調達と複雑な管理を排除します。

Snowflake Cortex LLM機能のパブリックプレビューが開始されたことで、Snowflakeユーザーは企業データを基にAIを活用し、幅広いユースケースに対応できるようになりました。特殊機能を使用することで、SQLのスキルを持つユーザーであれば誰でも、より小さなLLMを活用して、センチメント分析、翻訳、要約などの特殊タスクにコスト効率良く数秒で対応することができます。より複雑なユースケースの場合、Python開発者は、Snowflake Cortexで利用できるMistral AIのLLMといった基盤LLMのパワーと、SnowflakeのStreamlit内のチャット要素(近日パブリックプレビュー予定)を組み合わせることで、コンセプトからチャットボットのようなフルスタックのAIアプリまで数分で構築することができます。この合理化されたエクスペリエンスは、Snowflakeの統合されたベクトル関数やベクトルデータタイプ(双方とも近日パブリックプレビュー予定)を使用するRAGにも当てはまる一方、Snowflakeにおけるデータのセキュリティやガバナンスは確保されたままです。 

Snowflakeは、ユーザーやデータクラウドのエコシステムだけでなく、より広範なテクノロジーコミュニティのために、AIイノベーションの促進に尽力しています。その一環として、Snowflakeは最近、オープンで安全かつ責任あるAIの推進に取り組む開発者、研究者、組織で構成される国際的コミュニティ、AI Alliance加盟しました。SnowflakeはAI Allianceを通じ、 生成AIがもたらすメリットのさらなる民主化を図るため、その課題と機会の両方に今後も包括的かつオープンに取り組んでいきます。

関連情報:

  • SnowflakeによるAIイノベーションの最新情報や近々発表予定の告知についてお知りになりたい方は、2024年6月3~6日にサンフランシスコで開催されるSnowflake Data Cloud Summit 2024こちらから申し込みください。 
  • こちらの動画で、企業がどのように生成AIとLLMを企業データに導入しているかをご覧いただけます。
  • あらゆるユーザーがいかにしてSnowflake Cortexを通じ、数秒で生成AIやLLMのパワーを活用しているか、詳しく見ることができます。

LinkedInTwitterで、Snowflakeの最新のニュースや発表をチェック

このプレスリリースには、明示または黙示を問わず、(i)Snowflakeの事業戦略、(ii)開発中または一般に提供されていないSnowflakeの製品、サービス、テクノロジー、(iii)市場の拡大、トレンド、競争状況に関する考察、(iv)Snowflake製品とサードパーティプラットフォームの統合およびサードパーティプラットフォーム上でのSnowflake製品の相互運用性と可用性についての言及など、将来の見通しに関する記述が含まれています。これらの将来の見通しに関する記述は、さまざまなリスク、不確実性、前提に左右されます。これには、Snowflakeが証券取引委員会に提出するForm 10-Q(四半期レポート)やForm 10-K(年次レポート)内の「リスク要因」などのセグメントに記載されているリスク、不確実性、前提が含まれます。これらのリスク、不確実性、前提を考慮すると、将来の見通しに関する記述において予想または暗示されている結果と比較して、実際には大きく異なる結果や反対の結果に至る可能性があります。  これらの記述は、初回記述日の時点に限った記述であり、かかる記述の時点で入手可能な情報に、および/または経営陣がかかる時点で抱いていた誠実な信念に、基づいています。法律で義務付けられている場合を除き、Snowflakeには、本プレスリリース内の記述を更新する義務または意図は、一切ありません。そのため、将来の見通しに関するいかなる記述も、未来の出来事についての予測として利用してはなりません。  

本プレスリリース内の将来の製品に関する情報は、一般的な製品の方向性を概説することを目的としています。本情報は、当社がいかなる製品、特性、機能性を将来提供する決意表明、確約、法的義務にもならないと同時に、いかなる契約に組み入れられるとも、意図されておらず、見なされてはならないものとします。製品、特性、または機能性が最終的に利用可能となる実際のタイミングは、本プレスリリースに提示されたタイミングとは異なる場合があります。

 

© 2024 Snowflake Inc All rights reserved.  Snowflake、Snowflakeのロゴ、および本書に記載されているその他すべてのSnowflakeの製品、機能、サービス名は、米国およびその他の国におけるSnowflake Inc.の登録商標または商標です。  本書で言及または使用されているその他すべてのブランド名またはロゴは、識別目的でのみ使用されており、各所有者の商標である可能性があります。  Snowflakeが、必ずしもかかる商標所有者と関係を持ち、または出資や支援を受けているわけではありません。

Snowflakeについて

Snowflakeは、Snowflakeデータクラウドを通じてあらゆる組織がデータをモビライズできるよう支援します。Snowflakeのお客様は、データクラウドを活用して、サイロ化したデータの統合、データの発見と安全な共有、データアプリケーションの推進、多様な人工知能(AI)/機械学習(ML)ワークロードや分析ワークロードの実行を実現しています。データやユーザーがどこに存在するかに関係なく、Snowflakeは複数のクラウドと地域にまたがって単一のデータエクスペリエンスを提供します。さまざまな業界の何千ものお客様(2024年1月31日時点で、2023年のForbes Global 2000(G2K)の691社を含む)が、Snowflakeデータクラウドによってビジネスを強化しています。詳しくは、snowflake.comをご覧ください。

本件に関するお問い合わせ
Snowflake合同会社
PR担当 山中
[email protected]