エンタープライズAIライフサイクルの統合:Snowflake、AWSおよびNVIDIAと提携し、AIデータクラウドにBlackwellコンピュートを提供

NVIDIA BlackwellによるAIデータクラウドの最適化:独自の知的財産(IP)を保護し、AI開発のフルライフサイクルを加速させる Optimizing the AI Data Cloud with NVIDIA Blackwell to Secure Proprietary IP and Accelerate Full-Lifecycle AI Development

これまでエンタープライズAIは断片化されていました。トレーニング、推論、サービングのそれぞれに独立した環境が必要でした。このような分離により、信頼境界を越える複雑なデータ移動が頻繁に発生します。その結果、セキュリティリスクと運用オーバーヘッドが増大します。Snowflakeは、Amazon Web Services(AWS)およびNVIDIAとのコラボレーションにより、これらの課題に対処しています。Snowflake AIデータクラウド内でAIライフサイクルを統合します。

NVIDIA RTX PROTM 6000 BlackwellサーバーエディションGPUは、まもなくSnowflakeプラットフォームに導入されます。Amazon EC2 G7eインスタンスを備えた一部のAWSリージョンで利用可能になります。この統合により、高性能なビジュアルおよび生成AIコンピュートがエンタープライズデータに直接隣接して配置されます。NVIDIA BlackwellクラスのコンピュートをSnowflakeのアーキテクチャに組み込みました。これにより、お客様は高スループット処理を必要とする強力なAIモデル、エージェント、アプリケーションを構築できます。これらはすべて、データが存在する場所のガバナンスが効いたセキュリティ境界内で実行されます。 

AIライフサイクルのための単一プラットフォーム

今回のリリースにより、Snowflakeは単なる高速なインスタンスの提供にとどまりません。モダンなAIチームが求める多様なレイテンシーとワークフローをサポートする、まとまりのあるプラットフォームを提供します。同時に、運用スピードの向上を通じて総保有コスト(TCO)を削減します:

  • トレーニングおよびデータロード向けのSnowflakeコンテナランタイム:データサイエンティストはSnowflake Notebookを使用して、GPU搭載コンテナをプロビジョニングできるようになりました。これにより、インタラクティブな開発とSnowflake MLでの容易な展開が可能になります。この環境では、コードを変更することなくGPUアクセラレーションにアクセスできます。NVIDIA cuDFおよびcuMLライブラリを使用したpandasやscikit-learnのワークフローをサポートします。また、スケーラブルな分散トレーニングもサポートしています。これにより、チームは最小限の構成で、Blackwellクラスター全体でマルチノードのPyTorchトレーニングジョブを起動できます。これらのGPUにデータを供給するため、Snowflake ML DataConnectorは画像やPDFなどの非構造化データの並列読み取りを可能にします。Snowflakeステージから直接読み取ることで、I/Oのボトルネックなしに最適なGPU使用率をサポートします。

  • リアルタイムおよびバッチ推論による柔軟な展開:ミリ秒単位のレイテンシーが求められるユーザー向けアプリケーションの場合、モデルをSnowparkコンテナサービス(SPCS)に展開できます。これにより、リアルタイム推論が可能になります。数百万の履歴レコードのスコアリングなど、大規模なデータ処理には、プラットフォームがSnowpark用に最適化されたウェアハウスを活用します。これには、NVIDIA Blackwellアーキテクチャのサポートが計画されています。

  • 精度への架け橋となるセマンティックコンテキスト:エンタープライズグレードのAIには、汎用モデル単独では達成できないレベルの精度が求められます。NVIDIA Blackwellアーキテクチャは、Snowflake Intelligenceに必要な高速な推論ループを加速させます。Snowflakeのセマンティックレイヤーにアクセラレーテッドコンピュートを導入します。これにより、企業はモデルがビジネスロジックやデータの背後にある特定の「意味」を理解できるようになります。精度のギャップを埋め、本番環境の意思決定に必要な精度のしきい値を満たすことができます。

エンタープライズコンピュートの新しい標準

NVIDIA RTX PRO 6000 BlackwellGPUは、大規模言語モデルやマルチモーダルワークフローの厳しい要求に応えるように設計されています。各GPUは96GBのGDDR7メモリを提供します。単一のカードで700億を超えるパラメータモデルや視覚言語モデル(VLM)をサポートし、GPU間の通信レイテンシーを最小限に抑えます。

ネイティブFP4をサポートする第5世代Tensorコアの搭載により、推論スループットが向上します。前世代と比較して最大5倍のパフォーマンスを実現します。このアーキテクチャは、AIの展開における精度とレイテンシーのためにコンピュートレイヤーを最適化します。

NVIDIA RTX PRO 6000 Blackwellサーバーエディションと新しいNVIDIA RTX PRO 4500 BlackwellサーバーエディションGPUは、まもなくSnowflakeのお客様に提供される予定です。

ユースケース:非構造化保険データ向けのマルチモーダルインテリジェンス

大手保険プロバイダーは、毎年数百万件の請求を管理しています。構造化データと、高解像度の事故写真や手書きの報告書などの膨大な非構造化アセットを組み合わせて処理しています。このデータに基づいてインテリジェントな検索システムを構築するには、組織はパイプラインを必要とします。メモリやI/Oの壁にぶつかることなく、複雑なファイルを大規模に取り込み、埋め込み、分析できるパイプラインです:

  1. 大規模なゼロコピー取り込み:毎日10万件の事故報告書を取り込むことは、従来のシステムにとって巨大なI/Oのボトルネックを生み出します。Snowflake MLは、DataConnectorまたはSnowparkの動的ファイルアクセスを使用することでこの問題に対処します。これらをカスタムコードを含むユーザー定義関数の一部として使用し、Snowflakeステージから直接、ファイルを並列でストリーミングおよび分析します。このパイプラインは、RTX PRO Blackwell 6000の96GBのGDDR7メモリを活用します。これにより、高解像度画像の大量のバッチをインメモリで処理します。ディスクにスピルすることなく、GPU上で直接サイズ変更と正規化を実行します。これにより、Snowflakeはデータ変換フェーズがコンピュート機能のペースに追随できるようにします。

  2. 合理化されたマルチモーダルトレーニング:請求を「理解」するためには、モデルは視覚的な損傷とテキストを統合されたベクトル空間にマッピングする必要があります。データサイエンティストはSnowflake Notebookを利用できます。これにより、データ上で直接、カスタムの埋め込みモデル(CLIPなど)の分散PyTorchトレーニングジョブを起動できます。Snowflakeはクラスター管理の複雑さを抽象化します。一方、基盤となるBlackwellアーキテクチャはトレーニングプロセスを加速させます。この組み合わせにより、チームは数百万の請求ペアのトレーニングを数日ではなく数時間で完了できます。生成されたモデルアーティファクトは、スケーラブルな推論のためにSnowflakeモデルレジストリで自動的にバージョン管理されます。

  3. 不正検知のための統合された展開:トレーニングが完了すると、モデルは不正検知パイプラインの中核として機能します。1クリックの展開で、データサイエンティストはSnowflake ML APIを使用できます。これにより、リアルタイム推論のためにSnowparkコンテナサービスにモデルを公開したり、バッチ処理のためにSnowparkを備えた仮想ウェアハウスに公開したりできます。この柔軟性により、同じBlackwellハードウェアを使用して、数千件の過去の請求に対する高帯域幅の履歴分析や、新しくアップロードされた画像の低レイテンシーな評価を実行できます。これらはすべて、Snowflake Horizonが提供するガバナンスとリネージ追跡を維持しながら行われます。

ユースケース:定量ファイナンスにおけるポートフォリオ最適化の高速化

リサーチチームはSnowflake NotebookとNVIDIA BlackwellのFP4精度を活用しています。これにより、数十年にわたる非構造化オルタナティブデータ(音声や画像)に対して、取引戦略のバックテストを高速で実行できます。これにより、ガバナンスの効いたデータ環境内で取引可能なシグナルを迅速に生成できます。その結果、圧倒的なスピードの優位性がもたらされます。企業は時間のかかる従来の処理から脱却できます。現在では、複雑なポートフォリオ最適化をほぼリアルタイムで実行できます。これにより、従来比で最大80倍の処理速度を達成しています。この統合されたアプローチにより、トレーダーはデータドリブンな意思決定をより迅速に行うことができます。同時に、機密情報をシングルプラットフォーム内でセキュアに保ち、ガバナンスを維持できます。アーキテクチャの詳細をご覧ください

使用を開始する

今すぐNVIDIA Blackwell GPUをSnowflakeに統合しましょう。これにより、高スループットなAIユースケースをさらに拡大できます。NVIDIA RTX PRO 6000 Blackwell GPUは、一部のAWSリージョンにおいてAmazon EC2 G7eインスタンスで利用可能です。NVIDIA RTX PRO 4500 Blackwell GPUを搭載したインスタンスも近日提供予定です。展開に関するドキュメントとクイックスタートガイドは、近日中に公開される予定です。詳細については、以下のリソースをご確認ください: 

 

将来の見通しに関する記述

このページには、Snowflakeが将来提供する製品に関する記述を含め、将来の見通しに関する記述が含まれていますが、これはいかなる製品の提供も約束するものではありません。実際の成果や提供物は異なる可能性があり、既知および未知のリスクおよび不確実性の影響を受けます。詳細については、最新の四半期報告書(10-Q)をご覧ください。

グローバル調査

2026 生成AIの画期的なROI

アーリーアダプターの企業や組織は、エージェントを活用し、生成AIの成功をさらに発展させています。
記事をシェアする

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Where Data Does More

  • 30日間の無料トライアル
  • クレジットカード不要
  • いつでもキャンセル