翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Kafka クライアントのベストプラクティス
Apache Kafka と Amazon を操作するときはMSK、最適なパフォーマンスと信頼性を実現するために、クライアントとサーバーの両方を正しく設定することが重要です。このガイドでは、Amazon のベストプラクティスのクライアント側設定に関する推奨事項を示しますMSK。
Amazon MSK レプリケーターのベストプラクティスについては、「」を参照してくださいMSK レプリケーターを使用するためのベストプラクティス。
Kafka クライアントの可用性
Apache Kafka のような分散システムでは、信頼性と耐障害性に優れたメッセージングインフラストラクチャを維持するために、高可用性を確保することが不可欠です。ブローカーは、アップグレード、パッチ適用、ハードウェア障害、ネットワークの問題など、計画的イベントと計画外のイベントの両方でオフラインになります。Kafka クラスターはオフラインブローカーに対して寛容であるため、Kafka クライアントはブローカーのフェイルオーバーを正常に処理する必要があります。Kafka クライアントの高可用性を確保するために、以下のベストプラクティスをお勧めします。
プロデューサーの可用性
ブローカーのフェイルオーバー中に失敗したメッセージの送信を再試行するようにプロデューサーに指示
retries
するように を設定します。ほとんどのユースケースでは、整数最大値または同様の最大値の値をお勧めします。これを怠ると、Kafka の高可用性が損なわれます。を設定
delivery.timeout.ms
して、メッセージを送信してからブローカーから確認応答を受け取るまでの合計時間の上限を指定します。これは、メッセージの有効期限に関するビジネス要件を反映している必要があります。フェイルオーバーオペレーションを完了するために十分な再試行ができるように、時間制限を十分高く設定します。ほとんどのユースケースでは、60 秒以上の値を使用することをお勧めします。再送信が試行されるまでに 1 つのリクエストが待機する最大数
request.timeout.ms
に設定します。ほとんどのユースケースでは、10 秒以上の値を使用することをお勧めします。再試行間の遅延を設定して、再試行の嵐や可用性への影響を回避する
retry.backoff.ms
ように を設定します。ほとんどのユースケースでは、最小値を 200 ミリ秒にすることをお勧めします。高い耐久性を設定する
acks=all
ように を設定します。これは、RF=3
および のサーバー側の設定と一致しmin.isr=2
ている必要があります。これにより、 内のすべてのパーティションが書き込みISRを承認します。オフラインの 1 つのブローカーでは、これはmin.isr
、つまり です2
。
コンシューマーの可用性
新しいコンシューマーグループまたは再作成されたコンシューマーグループについては、
latest
最初にauto.offset.reset
を に設定します。これにより、トピック全体を消費してクラスター負荷を追加するリスクを回避できます。auto.commit.interval.ms
を使用する場合に を設定しますenable.auto.commit
。ほとんどのユースケースでは、追加の負荷のリスクを避けるために、最小値を 5 秒にすることをお勧めします。一時的なエラーを処理するために、コンシューマーのメッセージ処理コード内に例外処理を実装します。例えば、サーキットブレーカーや指数バックオフのあるスリープなどです。そうしないと、アプリケーションがクラッシュし、過剰なリバランシングが発生する可能性があります。
トランザクションメッセージの読み取り方法を制御する
isolation.level
ように を設定します。デフォルトでは
read_uncommitted
、常に暗黙的に を設定することをお勧めします。これは、一部のクライアント実装には欠落しています。階層型ストレージ
read_uncommitted
を使用する場合は、 の値を使用することをお勧めします。最も近いレプリカリードを使用する
client.rack
ように を設定します。ネットワークトラフィックのコストとレイテンシーを最小限に抑えるaz id
ために、 を に設定することをお勧めします。「ラック認識 による Amazon MSKコンシューマーのネットワークトラフィックコストの削減」を参照してください。
コンシューマーの再調整
実装された起動ジッターを含め、アプリケーションの起動時間より大きい値
session.timeout.ms
に設定します。ほとんどのユースケースでは、60 秒の値をお勧めします。グループコーディネーターがコンシューマーを正常と見なす方法を微調整
heartbeat.interval.ms
するように を設定します。ほとんどのユースケースでは、10 秒の値をお勧めします。コンシューマーがグループを離れるタイミングを特定するためにセッションタイムアウトに依存するのではなくSIGTERM、 でコンシューマーをクリーンに閉じるように、アプリケーションにシャットダウンフックを設定します。Kstream アプリケーションは の値
internal.leave.group.on.close
に設定できますtrue
。コンシューマーグループ内の個別の値
group.instance.id
に設定します。ホスト名、タスク ID、または pod-id が理想的です。トラブルシューティング中に、より決定的な動作とクライアントとサーバーのログの相関関係を向上させるために、常にこれを設定することをお勧めします。平均デプロイ時間に沿った値
group.initial.rebalance.delay.ms
に設定します。これにより、デプロイ中の継続的な再調整が停止します。スティッキーアサイザーを使用する
partition.assignment.strategy
ように を設定します。StickyAssignor
または をお勧めしますCooperativeStickyAssignor
。
Kafka クライアントのパフォーマンス
Kafka クライアントの高パフォーマンスを確保するために、以下のベストプラクティスをお勧めします。
プロデューサーのパフォーマンス
プロデューサーがバッチがいっぱいになるまで待機する時間を制御する
linger.ms
ように を設定します。バッチが小さいほど、一度により多くのスレッドと I/O オペレーションに変換されるため、Kafka には計算コストがかかります。以下の値をお勧めします。低レイテンシーを含むすべてのユースケースの最小値は 5 ミリ秒です。
ほとんどのユースケースでは、25 ミリ秒の値を大きくすることをお勧めします。
低レイテンシーのユースケースでは、ゼロの値を使用することはお勧めしません。(値が 0 の場合、通常、IO オーバーヘッドが原因でレイテンシーが発生します)。
クラスターに送信されるバッチサイズを制御する
batch.size
ように を設定します。これを 64KB または 128KB の値に増やすことをお勧めします。より大きなバッチサイズを使用する場合
buffer.memory
に を設定します。ほとんどのユースケースでは、664MB の値をお勧めします。バイトの受信に使用されるTCPバッファを制御する
send.buffer.bytes
ように を設定します。高レイテンシーネットワークでプロデューサーを実行するときに OS がこのバッファを管理できるようにするには、-1 の値をお勧めします。バッチの圧縮を制御するには、 compression.type を設定します。lz4 または zstd のいずれかで、高レイテンシーネットワークでプロデューサーを実行することをお勧めします。
コンシューマーのパフォーマンス
fetch.min.bytes
を設定して、フェッチ数とクラスター負荷を減らすために有効になる最小フェッチサイズを制御します。すべてのユースケースでは、32 バイトの最小値を使用することをお勧めします。
ほとんどのユースケースでは、128 バイトの値を大きくすることをお勧めします。
fetch.max.wait.ms を設定して、fetch.min.bytes が無視されるまでコンシューマーが待機する時間を決定します。ほとんどのユースケースでは、1000 ミリ秒の値をお勧めします。
コンシューマーの数は、パーティションの数と少なくとも同じにすることをお勧めします。
バイトの受信に使用されるTCPバッファを制御する
receive.buffer.bytes
ように を設定します。高レイテンシーネットワークでコンシューマーを実行するときに、OS がこのバッファを管理できるようにするには、-1 の値をお勧めします。
クライアント接続
接続ライフサイクルには、Kafka クラスターの計算コストとメモリコストがかかります。一度に作成された接続が多すぎると、Kafka クラスターの可用性に影響を与える可能性のある負荷が発生します。この可用性への影響により、アプリケーションがさらに多くの接続を作成することがよくあり、カスケード障害が発生し、完全な停止が発生する可能性があります。合理的なレートで作成された場合、多数の接続を実現できます。
高い接続作成率を管理するには、次の緩和策をお勧めします。
アプリケーションデプロイメカニズムがすべてのプロデューサー/コンシューマーを一度に再起動するのではなく、できれば小さなバッチで再起動していることを確認します。
アプリケーションレイヤーでは、デベロッパーは、管理者クライアント、プロデューサークライアント、またはコンシューマークライアントを作成する前に、ランダムジッター (ランダムスリープ) が実行されていることを確認する必要があります。
ではSIGTERM、接続を閉じるときにランダムなスリープを実行して、すべての Kafka クライアントが同時に閉じられないようにする必要があります。ランダムなスリープは、 SIGKILLが発生する前にタイムアウト内である必要があります。
例 A (Java)
sleepInSeconds(randomNumberBetweenOneAndX); this.kafkaProducer = new KafkaProducer<>(this.props);
例 B (Java)
Runtime.getRuntime().addShutdownHook(new Thread(() -> { sleepInSeconds(randomNumberBetweenOneAndTwentyFive); kafkaProducer.close(Duration.ofSeconds(5)); });
アプリケーションレイヤーでは、デベロッパーは、クライアントがアプリケーションごとに 1 回だけシングルトンパターンで作成されることを確認する必要があります。例えば、lambda を使用する場合、クライアントはメソッドハンドラーではなく、グローバルスコープで作成する必要があります。
接続数は、安定することを目標にモニタリングすることをお勧めします。デプロイ時とブローカーのフェイルオーバー中は、接続creation/close/shiftは正常です。
Kafka クライアントモニタリング
Kafka エコシステムの健全性と効率を維持するには、Kafka クライアントのモニタリングが不可欠です。Kafka の管理者、開発者、運用チームのメンバーのいずれであっても、クライアント側のメトリクスを有効にすることは、計画的および計画外のイベント中のビジネスへの影響を理解するために不可欠です。
希望するメトリクスキャプチャメカニズムを使用して、次のクライアント側のメトリクスをモニタリングすることをお勧めします。
でサポートチケットを発行する場合は AWS、インシデント中に観察された異常値を含めます。また、エラー (警告ではない) を詳述したクライアントアプリケーションログのサンプルを含めます。
プロデューサーメトリクス
バイトレート
record-send-rate
records-per-request-avg
acks-latency-avg
request-latency-avg
request-latency-max
record-error-rate
record-retry-rate
エラーレート
注: 再試行による一時的なエラーは、リーダーのフェイルオーバーやネットワーク再送信などの一時的な問題を処理する Kafka のプロトコルの一部であるため、懸念される要因ではありません。 record-send-rate
は、プロデューサーが再試行をまだ進めているかどうかを確認します。
コンシューマーメトリクス
records-consumed-rate
bytes-consumed-rate
フェッチレート
records-lag-max
record-error-rate
fetch-error-rate
ポーリングレート
rebalance-latency-avg
コミットレート
注: フェッチレートとコミットレートが高いと、クラスターに不要な負荷が発生します。リクエストは大きなバッチで実行するのが最適です。
一般的なメトリクス
connection-close-rate
connection-creation-rate
接続数
注: 接続の作成/終了が高いと、クラスターに不要な負荷が発生します。