
ブログ
GPUによるSnowflakeでのscikit-learnとpandasの強化
GPUを使用して、scikit-learn、pandas、UMAP、HDBSCANを使用したモデル開発サイクルを加速する方法について紹介しています。コードの変更は不要です。
ガバナンスが確保されたデータと同じプラットフォーム上に分散したGPUやCPUを配置することで、プロトタイプから実稼働環境まで機械学習を加速できます。一元的なUIを通じて、メンテナンスや構成のインフラストラクチャなしに、リアルタイムとバッチワークフローのモデル開発とMLOpsを合理化できます。
概要
ツール、リアルタイムおよびバッチのワークフロー、そしてスケーラブルなコンピュートインフラストラクチャをデータのある場所へと集約します。MLの特徴量からモデルの開発、展開、監視までを、完全に統合されたプラットフォーム上で実現します。
データの存在するプラットフォーム上で、あらゆるオープンソースモデルを使用してモデルパイプラインをエンドツーエンドで統合できます。
組み込みのインフラストラクチャ最適化により、MLパイプラインをCPUやGPU上でスケーリングできます。手動のチューニングや設定は不要です。
ライフサイクル全体を通じて、Snowflakeで特徴量やモデルの発見、管理、ガバナンス維持を実施できます。





MLワークフロー
モデル開発
ML Jobsを使用して、データロードを最適化し、コンテナランタイムを活用し、Snowflake Notebookまたは任意のIDEから、データロードを最適化しつつモデルトレーニングを分散実行できます。


特徴量管理
Snowflake特徴量ストアを活用して、バッチデータやストリーミングデータに対し、継続的かつ自動化された更新を実行します。30ミリ秒未満という極めて低レイテンシーの環境で、ML特徴量の作成、管理、そして提供を実現します。
トレーニングと推論全体にわたって、特徴量の発見可能性、再利用、ガバナンスを促進します。
統合された特徴量ストアUIにより、パイプライン全体にわたって特徴量を簡単に検索して視覚的にトレースできます。
実稼働での展開
100ミリ秒未満でモデルを提供し、パーソナライズされたレコメンデーションや不正検知などの低レイテンシーのオンラインユースケースを強化できます。

Snowflake MLが提供する、開発から実稼働までを支える
統合機能の詳細はこちらをご覧ください。
今すぐ開始する
エンドツーエンドのML
はい、データサイエンティストやMLエンジニアは、CPUやGPUで分散処理を実行するモデルを構築して展開できます。これは、Snowflake MLプラットフォームを支える基盤となるRayベースのモダンコンテナのインフラストラクチャによって実現しています。
はい、Snowflake MLはオンラインとバッチの両方のワークロードを処理します。リアルタイムのニーズに対しては、オンラインで特徴量ストアとモデル推論を一般提供しており、パーソナライズされたレコメンデーション、不正検知、価格最適化、異常検知などのユースケースを強化できます。
いいえ、外部で任意の場所に構築したモデルを持ち込み、Snowflakeデータで実稼働させることができます。推論時には、MLのオブザーバビリティやRBACガバナンスなどの統合されたMLOps機能を活用できます。
はい、Snowflake MLはあらゆるオープンソースライブラリと高度な互換性があります。pipを使用してオープンソースリポジトリにセキュアにアクセスし、Hugging Faceなどのハブから任意のモデルを取り込みます。
Snowflakeは、最新のクレジット料金テーブルを使用した使用量ベースの価格設定モデルを採用しています。
はい、無料トライアル体験から直接、MLクイックスタートを試すことができます。