注:本記事は(2019年11月20日)に公開された(Snowflake Launches Kafka Connector)を翻訳して公開したものです。この記事の翻訳には機械翻訳を使用しています。

データの価値を享受するには、データを収集し、保存し、分析する必要があります。Apache Kafka は、イベント データの信頼性の高い収集、送信、および配信に最適なシステムです。クラウド向けに構築されたデータプラットフォームであるSnowflakeは、そのデータを保存および分析するための最高のシステムです。

最新のデータパイプラインでは、SnowflakeとKafkaが自然に適合します。

Confluent と連携して、JSON および Avro イベントを Snowflake テーブルに配信するように Kafka Connect クラスターを簡単に構成できる Snowflake Connector for Kafka の一般提供 により、ペアリングがさらに簡単になりました。

イベントがSnowflakeに取り込まれると、Snowflakeの マテリアライズドビューデータパイプライン 機能などのツールを使用して、データをさらに処理し、他のビジネスデータと統合し、分析で使用するために絞り込むことができます。

はじめるには

Kafka コネクタは Maven リポジトリから入手でき、Kafka Connect クラスターにインストールできます。 コネクタのインスタンスは、単純な JSON 設定または Confluent コントロールセンターを使用して作成できます。一連のトピック用に構成されると、コネクタはユーザーに代わってステージ、パイプ、ファイルを作成および管理し、メッセージをSnowflakeに確実に取り込むことができます。 

オープンソースであり、Apache 2.0ライセンスの下で自由に利用できる コネクタの使用に直接料金はかかりません。 コネクタは、テーブル、ステージ、ファイル、およびパイプを利用し、これらはすべて通常の料金で課金されます。

詳細については、Kafka コネクタのスノーフレークに関するドキュメントを参照してください。