Skip Navigation
Show nav
Dev Center
  • Get Started
  • ドキュメント
  • Changelog
  • Search
  • Get Started
    • Node.js
    • Ruby on Rails
    • Ruby
    • Python
    • Java
    • PHP
    • Go
    • Scala
    • Clojure
    • .NET
  • ドキュメント
  • Changelog
  • More
    Additional Resources
    • Home
    • Elements
    • Products
    • Pricing
    • Careers
    • Help
    • Status
    • Events
    • Podcasts
    • Compliance Center
    Heroku Blog

    Heroku Blog

    Find out what's new with Heroku on our blog.

    Visit Blog
  • Log inorSign up
View categories

Categories

  • Heroku のアーキテクチャ
    • Dyno (アプリコンテナ)
      • Dyno Management
      • Dyno Concepts
      • Dyno Behavior
      • Dyno Reference
      • Dyno Troubleshooting
    • スタック (オペレーティングシステムイメージ)
    • ネットワーキングと DNS
    • プラットフォームポリシー
    • プラットフォームの原則
  • Developer Tools
    • コマンドライン
    • Heroku VS Code Extension
  • デプロイ
    • Git を使用したデプロイ
    • Docker によるデプロイ
    • デプロイ統合
  • 継続的デリバリーとインテグレーション
    • 継続的統合
  • 言語サポート
    • Node.js
      • Working with Node.js
      • Node.js Behavior in Heroku
      • Troubleshooting Node.js Apps
    • Ruby
      • Rails のサポート
      • Bundler の使用
      • Working with Ruby
      • Ruby Behavior in Heroku
      • Troubleshooting Ruby Apps
    • Python
      • Working with Python
      • Python でのバックグランドジョブ
      • Python Behavior in Heroku
      • Django の使用
    • Java
      • Java Behavior in Heroku
      • Working with Java
      • Maven の使用
      • Spring Boot の使用
      • Troubleshooting Java Apps
    • PHP
      • PHP Behavior in Heroku
      • Working with PHP
    • Go
      • Go の依存関係管理
    • Scala
    • Clojure
    • .NET
      • Working with .NET
  • データベースとデータ管理
    • Heroku Postgres
      • Postgres の基礎
      • Postgres スターターガイド
      • Postgres のパフォーマンス
      • Postgres のデータ転送と保持
      • Postgres の可用性
      • Postgres の特別なトピック
      • Migrating to Heroku Postgres
    • Heroku Data For Redis
    • Apache Kafka on Heroku
    • その他のデータストア
  • AI
    • Working with AI
    • Heroku Inference
      • Inference API
      • Quick Start Guides
      • AI Models
      • Inference Essentials
    • Vector Database
    • Model Context Protocol
  • モニタリングとメトリクス
    • ログ記録
  • アプリのパフォーマンス
  • アドオン
    • すべてのアドオン
  • 共同作業
  • セキュリティ
    • アプリのセキュリティ
    • ID と認証
      • シングルサインオン (SSO)
    • Private Space
      • インフラストラクチャネットワーキング
    • コンプライアンス
  • Heroku Enterprise
    • Enterprise Accounts
    • Enterprise Team
    • Heroku Connect (Salesforce 同期)
      • Heroku Connect の管理
      • Heroku Connect のリファレンス
      • Heroku Connect のトラブルシューティング
  • パターンとベストプラクティス
  • Heroku の拡張
    • Platform API
    • アプリの Webhook
    • Heroku Labs
    • アドオンのビルド
      • アドオン開発のタスク
      • アドオン API
      • アドオンのガイドラインと要件
    • CLI プラグインのビルド
    • 開発ビルドパック
    • Dev Center
  • アカウントと請求
  • トラブルシューティングとサポート
  • Salesforce とのインテグレーション
  • パターンとベストプラクティス
  • Heroku での Kafka Connector の実行

Heroku での Kafka Connector の実行

日本語 — Switch to English

この記事の英語版に更新があります。ご覧の翻訳には含まれていない変更点があるかもしれません。

最終更新日 2022年12月01日(木)

Table of Contents

  • コネクターの種類
  • Apache Kafka のための事前に作成されたコネクター
  • Heroku でのコネクターの実行

Apache Kafka Connector は、Apache Kafka​ やその他のシステムまたはデータストア間でデータを移動または変更するために設計されたパッケージアプリケーションです。これらは、Apache Kafka Connect​ フレームワークを使用して作成されます。Apache Kafka Connect フレームワークにより、データベースへのデータの同期などの一般的なデータ転送タスクを作成してバンドルすることが容易になります。これは、開発者が自分のユースケースに固有の作業に焦点を絞ることができるように、そのタスクに固有ではない機能を処理することによって行われます。この記事は、Heroku で事前に作成されたコネクターを実行するための考慮事項に重点を置いています。カスタムコネクターを作成することを計画している場合は、「Connector Developer Guide​」(コネクター開発者ガイド) に従うことができます。その場合、コネクターが Heroku でスムーズに動作するように、この記事の考慮事項を念頭に置いておいてください。

Premier または Signature Success Plan の Heroku Enterprise​ の顧客は、Customer Solutions Architecture (CSA) チームに、このトピックに関する詳細なガイダンスを要求​できます。ここでエキスパートコーチングセッション​について学習するか、または Salesforce の担当者にお問い合わせください。

コネクターの種類

コネクターには、次の 2 種類があります。

ソース​コネクター - これらのコネクターは Apache Kafka へ​データを送信するために使用されます。

シンク​コネクター - これらのコネクターは Apache Kafka から​データを取得するために使用されます。

多くのコネクターは、設定に応じてソースまたはシンクのどちらかとして機能できます。次に示すのは、Postgres 内の変更を監視し、それを Apache Kafka の対応するトピックに追加するデータベースコネクターの例です。このコネクターはまた、反対の方向に動作して、Apache Kafka から Postgres 内のテーブルに変更を追加することもできます。

JDBC コネクターの例

Apache Kafka のための事前に作成されたコネクター

一般的なタスクのためのコネクターは、GitHub​ や Apache Kafka エコシステムのページ​で見つけることができます。

既存のコネクターのライセンスと技術的要件の両方がアプリケーションに適していることを確認してください。コネクターによっては、ライセンスの制限があるか、または Kafka が自動的に管理されるクラウド環境ではなく、ユーザーが直接管理する環境を対象にしているものがあります。特に、Heroku でコネクターを実行するためのいくつかの考慮事項を見てみましょう。

Heroku でのコネクターの実行

Heroku では、コネクターは、Kafka Connect API​ を使用してデータを生成または消費することによって Apache Kafka クラスターにアクセスするアプリケーションです。

互換性

Heroku でコネクターを実行する前に、それを次の条件に対して評価してください。

長期間のローカル保存

Heroku dyno には一時的なファイルシステム​があり、ローカルデータが 24 時間を超えて存在することはありません。長期間のローカル保存を必要とするコネクターは互換性がありませんが、一部のコネクターはこの要件を変更するように設定できます。

自動的なトピック作成

一部のコネクターは状態を管理するためにトピック​を自動的に作成しますが、Apache Kafka on Heroku​ は現在、自動的なトピック作成をサポートしていません。特定のトピックが必要なコネクターを使用するには、それを事前に作成し、コネクターで最初の書き込み時の作成を無効にします。自動的なトピックのハード要件があるコネクターは Heroku と互換性がありません。

オペレーターレベルのクラスターアクセス

Apache Kafka クラスターへのオペレーターレベルのアクセス (クラスター設定の変更など) が必要なコネクターは、Apache Kafka on Heroku と互換性がありません。Apache Kafka on Heroku は、Heroku が更新、稼働時間、メンテナンスに責任を負うマネージドサービスです。

他のシステムへのオペレーターレベルのアクセス

接続されているシステム (PostgreSQL など) へのオペレーターレベルのアクセスが必要なコネクターは、Apache Kafka on Heroku と互換性がありません。たとえば、Debezium PostgreSQL コネクター​では、PostgreSQL サーバーに出力プラグインをインストールする必要があります。これにより、マネージド Heroku PostgreSQL サービスで許可されているものを超えるアクセスが必要になります。

操作

Heroku でコネクターを操作する場合は、次のガイドラインに従ってください。

タスクのスケーリング

コネクターがサポートし、複数のインスタンス (分散ワーカー)​ を実行するように設定されている場合は、Heroku 上の他のすべてのアプリケーションと同様にスケーリング​できます。

タスクの監視

タスクにどれだけ高い回復性が必要かということも考慮する必要があります。たとえば、このドキュメント​に記載されているように、「タスクが失敗した場合、タスクの失敗は例外的なケースとみなされるため、再分散はトリガーされません。このため、失敗したタスクはフレームワークによって自動的には再起動されず、REST API​ 経由で再起動する必要があります。」つまり、タスクを監視していない場合は、想定どおりに処理されない可能性があります。New Relic​、Librato​、または同様のサービスなど、Heroku 上の別のアプリケーションと同じようにコネクターアプリケーションを監視​できます。

設定の管理

一部のコネクターは、設定をプロパティファイルに保存します。Heroku では、12 要素アーキテクチャ​に従います。これは、設定を環境設定​として環境内に保存するように指定します。

プロパティファイルが必要なコネクターを使用するには、コネクタープロセスを起動する前に環境設定に基づいてファイルを書き込む初期化スクリプトを作成できます。このリポジトリの例​では、dyno の起動時にその Procfile​ によって起動される起動分散スクリプト​を使用して設定ファイルを書き込みます。

システムパッケージのインストール

dyno は、Heroku によってキュレートおよび維持されているオペレーティングシステムイメージであるスタック​上で動作します。各スタックには、インストールされたシステムパッケージ​のセットが含まれています。

Kafka Connector に追加のパッケージが必要な場合は、Apt Buildpack​ や Aptfile​ を使用してインストールできます。このプロセスについての詳細は、「サードパーティ buildpack の使用​」を参照してください。

必要なパッケージを Apt Buildpack でインストールできない場合は、代わりに Docker デプロイ​を使用できる可能性があります。

関連カテゴリー

  • パターンとベストプラクティス
アプリケーションの負荷テスト Heroku Postgres の監視のベストプラクティス

Information & Support

  • Getting Started
  • Documentation
  • Changelog
  • Compliance Center
  • Training & Education
  • Blog
  • Support Channels
  • Status

Language Reference

  • Node.js
  • Ruby
  • Java
  • PHP
  • Python
  • Go
  • Scala
  • Clojure
  • .NET

Other Resources

  • Careers
  • Elements
  • Products
  • Pricing
  • RSS
    • Dev Center Articles
    • Dev Center Changelog
    • Heroku Blog
    • Heroku News Blog
    • Heroku Engineering Blog
  • Twitter
    • Dev Center Articles
    • Dev Center Changelog
    • Heroku
    • Heroku Status
  • Github
  • LinkedIn
  • © 2025 Salesforce, Inc. All rights reserved. Various trademarks held by their respective owners. Salesforce Tower, 415 Mission Street, 3rd Floor, San Francisco, CA 94105, United States
  • heroku.com
  • Legal
  • Terms of Service
  • Privacy Information
  • Responsible Disclosure
  • Trust
  • Contact
  • Cookie Preferences
  • Your Privacy Choices