注:本記事は(2019年11月20日)に公開された(Snowflake Launches Kafka Connector)を翻訳して公開したものです。この記事の翻訳には機械翻訳を使用しています。
データの価値を享受するには、データを収集し、保存し、分析する必要があります。Apache Kafka は、イベント データの信頼性の高い収集、送信、および配信に最適なシステムです。クラウド向けに構築されたデータプラットフォームであるSnowflakeは、そのデータを保存および分析するための最高のシステムです。
最新のデータパイプラインでは、SnowflakeとKafkaが自然に適合します。
Confluent と連携して、JSON および Avro イベントを Snowflake テーブルに配信するように Kafka Connect クラスターを簡単に構成できる Snowflake Connector for Kafka の一般提供 により、ペアリングがさらに簡単になりました。
イベントがSnowflakeに取り込まれると、Snowflakeの マテリアライズドビュー や データパイプライン 機能などのツールを使用して、データをさらに処理し、他のビジネスデータと統合し、分析で使用するために絞り込むことができます。
はじめるには
Kafka コネクタは Maven リポジトリから入手でき、Kafka Connect クラスターにインストールできます。 コネクタのインスタンスは、単純な JSON 設定または Confluent コントロールセンターを使用して作成できます。一連のトピック用に構成されると、コネクタはユーザーに代わってステージ、パイプ、ファイルを作成および管理し、メッセージをSnowflakeに確実に取り込むことができます。
オープンソースであり、Apache 2.0ライセンスの下で自由に利用できる コネクタの使用に直接料金はかかりません。 コネクタは、テーブル、ステージ、ファイル、およびパイプを利用し、これらはすべて通常の料金で課金されます。
詳細については、Kafka コネクタのスノーフレークに関するドキュメントを参照してください。