502 Bad Gateway

502 Bad Gateway


cloudflare
資料の 英語版 に戻る
Apache Kafka 接続
最終更新: 2024年11月28日
Apache Kafka 接続

Apache Kafkaを使用してデータにアクセスするには、そのデータ用の接続資産を作成します。

Apache Kafka は、分散イベント・ストリーミング・プラットフォームです。 Apache Kafka リアルタイム処理サーバーに接続して、トピックとの間でイベントのストリームの書き込みと読み取りを行います。

サポートされるバージョン

Apache Kafka バージョン 0.11 - 2.x

Apache Kafka への接続を作成します

接続資産を作成するには、以下の接続の詳細が必要です。

Kafka サーバー・ホスト名: Kafka サーバーのホスト名とポート番号。 hostname:port-numberという形式を使用します。 Kafka クラスターに接続するには、値を hostname1:port-number1,hostname2:port-number2,hostname3:port-number3のようにコンマで区切ります。 クラスターに接続する場合、ブートストラッピング用に指定されたサーバーに関係なく、接続ではすべてのサーバーが使用されます。 これらのサーバーは、動的に変更される可能性があるフル・クラスター・メンバーシップをディスカバーするための初期接続に使用されるため、このリストにサーバーのフル・セットを含める必要はありません。 ただし、 Kafka クラスターに 3 つ以下のホストがある場合は、データ損失を防ぐために、すべてのホストをこのリストに含めてください。

セキュア接続

Kafka サーバーでセットアップされているネットワーク認証プロトコルを選択します。 「なし」 がデフォルトです。 その他の選択項目とそのプロパティーを以下に示します。

SASL OAUTHBEARER

「OAuth 2.0を選択します。

  • サーバー URL: トークン・エンドポイント URL。 例: https://example.com/oauth2/default/v1/token
  • クライアント ID: OAuth クライアント ID。
  • クライアント・シークレット: OAuth クライアント・シークレット
  • スコープ OAuth サーバーへの呼び出しで参照するオプションのスコープ。
  • 追加プロパティー: 追加の OAuth 構成オプション。 key=value ペアとして入力します。 この複数行プロパティーの値は、Java プロパティー・クラスの要件に準拠している必要があります。
  • トラストストア証明書: PEM 形式のトラステッド証明書。 X.509証明書のみがサポートされます。

SASL_Plain

ユーザー・プリンシパル名: Kafka サーバーまたはクラスター内の認証済みユーザー。

パスワード: ユーザー・プリンシパル名のパスワード。

SASL_SSL

ユーザー・プリンシパル名: Kafka サーバーまたはクラスター内の認証済みユーザー。

パスワード: ユーザー・プリンシパル名のパスワード。

トラストストア証明書: PEM 形式のトラストストア証明書。 X.509証明書のみがサポートされます。

SCRAM-SHA-256 または SCRAM-SHA-512

ユーザー・プリンシパル名: Kafka サーバーまたはクラスター内の認証済みユーザー。

パスワード: ユーザー・プリンシパル名のパスワード。

トラストストア証明書: PEM 形式のトラストストア証明書。 X.509証明書のみがサポートされます。

SSL

トラストストア証明書: PEM 形式のトラストストア証明書。 X.509証明書のみがサポートされます。

: PEM 形式の秘密鍵。 鍵は PKCS #8 構文を使用する必要があります。

鍵証明書チェーン: PEM 形式の秘密鍵の証明書チェーン。 X.509証明書のみがサポートされます。

鍵パスワード: この値は、鍵が暗号化されている場合は必須です。

メッセージ形式

スキーマ・レジストリーは、メッセージを管理し、スキーマをトピックにマップするサード・パーティー・ソフトウェアです。これにより、プロデューサーは、メッセージのどのタイプ (スキーマ) を受け入れるかを認識し、コンシューマーはトピック内のメッセージの読み取りと構文解析の方法を知ることができます。 「メッセージ形式にスキーマ・レジストリーを使用」を選択した場合は、スキーマ・レジストリー・サービスに安全に接続するために、これらの追加の詳細を選択できます。

前提条件

Confluent(Confluent バージョン6.xと7.xをサポート) またはIBM Event Streams を使用して、Kafkaサーバーのスキーマ・レジストリをセットアップする。

スキーマ・レジストリー URL: スキーマ・レジストリー・サービスの URL。

認証

スキーマ・レジストリー・サービスに対する認証方式を選択します。 「なし」 がデフォルトです。 その他の選択項目とそのプロパティーを以下に示します。

  • Kafka サーバーの SASL ユーザー資格情報を使用します。 この選択は、 Kafka サーバーへのセキュア接続のために SASL_Plain または SASL_SSL のプロパティーを入力した場合に選択できます。 スキーマ・レジストリー・サービスに対する認証には、SASL セキュリティー設定のユーザー名とパスワードが使用されます。

  • ユーザー資格情報: スキーマ・レジストリー・サービスのユーザー名とパスワード。

セキュア接続

スキーマ・レジストリー・サービスに対するセキュア・ネットワーク認証プロトコルを選択します。 「なし」 がデフォルトです。 その他の選択項目とそのプロパティーを以下に示します。

  • Kafka サーバー SSL ユーザー資格情報の使用: Kafka サーバーへのセキュア接続の SSL のプロパティーを入力した場合は、この選択を選択できます。 スキーマ・レジストリー・サービスへのセキュア接続には、 Kafka サーバー接続からの証明書構成が使用されます。

  • SSL

    • トラストストア証明書: PEM 形式のトラストストア証明書。 X.509証明書のみがサポートされます。
    • : PEM 形式の秘密鍵。 鍵は PKCS #8 構文を使用する必要があります。
    • 鍵証明書チェーン: PEM 形式の秘密鍵の証明書チェーン。 X.509証明書のみがサポートされます。
    • 鍵パスワード: 鍵が暗号化されている場合、この値は必須です。

スキーマ・レジストリー・タイプ

スキーマ・レジストリー・タイプを選択する:

  • Confluent
  • IBM Event Streams (Confluent 互換 API)

プラットフォーム内の場所に基づいて接続を作成する方法を選択してください

プロジェクト内
「資産」>「新規資産」>「データ・ソースへの接続」をクリックします。 プロジェクトへの接続の追加を参照してください。

カタログ内
「カタログに追加」>「接続」をクリックします。 カタログへの接続資産の追加を参照してください。

Platform assets catalog
で、 「新規接続」をクリックします。 プラットフォーム接続の追加を参照してください。

次のステップ: 接続からデータ資産を追加する

この接続を使用できる場所

Apache Kafka 接続は、以下のワークスペースおよびツールで使用できます:

プロジェクト

カタログ

  • Platform assets catalog

  • その他のカタログ (IBM Knowledge Catalog)

    注:

    プレビュー、プロファイル、およびマスキングは、IBM Knowledge Catalog のこの接続では認証されていません。

Apache Kafka のセットアップ

もっと見る

親トピック: サポートされた接続

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細