View a markdown version of this page

高スループットの Amazon ECS ログの設定 - Amazon Elastic Container Service

高スループットの Amazon ECS ログの設定

ログスループットの高いシナリオでは、FireLens と Fluent Bit を組み合わせた awsfirelens ログドライバーを使用することをお勧めします。 Fluent Bit は、リソースを効率的に処理し、数百万のログレコードを処理できる軽量ログプロセッサです。ただし、大規模に最適なパフォーマンスを実現するには、その設定を調整する必要があります。

このセクションでは、システムの安定性を維持し、データ損失を回避しながら、高いログスループットを処理するための高度な Fluent Bit 最適化手法について説明します。

FireLens でカスタム設定ファイルを使用する方法については、「カスタム設定ファイルを使用する」を参照してください。その他の例については、GitHub の「Amazon ECS FireLens の例」を参照してください。

注記

workersthreaded など、このセクションの一部の設定オプションでは、Fluent Bit バージョン 3 以降の AWS が必要です。使用可能なバージョンについては、「 AWS for Fluent Bit リリース」を参照してください。

チャンクを理解する

Fluent Bit はチャンクと呼ばれる単位でデータを処理します。INPUT プラグインがデータを受信すると、エンジンは OUTPUT 送信先に送信される前にメモリまたはファイルシステムに保存されるチャンクを作成します。

バッファリング動作は、INPUT セクションの storage.type 設定によって異なります。デフォルトでは、Fluent Bit はメモリバッファリングを使用します。高スループットまたは本番稼働シナリオでは、ファイルシステムのバッファリングはより良い耐障害性を提供します。

詳細については、Fluent Bit ドキュメントの「チャンク」および Fluent Bit リポジトリ例の AWS の「チャンクとは」を参照してください。

メモリバッファリング (デフォルト)

デフォルトでは、Fluent Bit はメモリバッファリング (storage.type memory) を使用します。Mem_Buf_Limit パラメータを使用して、INPUT プラグインあたりのメモリ使用量を制限できます。

次の例は、メモリバッファ入力設定を示します。

[INPUT] Name tcp Tag ApplicationLogs Port 5170 storage.type memory Mem_Buf_Limit 5MB
重要

プラグインで Mem_Buf_Limit を超えると、Fluent Bit は入力を一時停止し、新しいレコードは失われます。これにより、バックプレッシャーが発生し、アプリケーションが遅くなる可能性があります。Fluent Bit ログには次の警告が表示されます。

[input] tcp.1 paused (mem buf overlimit)

メモリバッファリングは、ログスループットが低~中程度の単純なユースケースに適しています。データ損失が懸念される高スループットまたは本番環境のシナリオでは、代わりにファイルシステムのバッファリングを使用します。

詳細については、Fluent Bit ドキュメントの「バッファリングとメモリ」および Fluent Bit リポジトリ例の AWS の「メモリバッファリングのみ」を参照してください。

ファイルシステムのバッファリング

高スループットのシナリオでは、ファイルシステムのバッファリングを使用することをお勧めします。Fluent Bit がバッファリングとストレージを管理する方法の詳細については、 Fluent Bit ドキュメントの「バッファリングとストレージ」を参照してください。

ファイルシステムのバッファリングには、次の利点があります。

  • バッファ容量が大きい — 通常、ディスクスペースはメモリよりも豊富です。

  • 永続性 – バッファされたデータは Fluent Bit 再起動後も保持されます。

  • グレースフルデグラデーション – 出力の失敗時に、メモリの枯渇を引き起こすのではなく、データがディスクに蓄積されます。

ファイルシステムのバッファリングを有効にするには、カスタム Fluent Bit 設定ファイルを指定します。次の例は、推奨される設定です。

[SERVICE] # Flush logs every 1 second Flush 1 # Wait 120 seconds during shutdown to flush remaining logs Grace 120 # Directory for filesystem buffering storage.path /var/log/flb-storage/ # Limit chunks stored 'up' in memory (reduce for memory-constrained environments) storage.max_chunks_up 32 # Flush backlog chunks to destinations during shutdown (prevents log loss) storage.backlog.flush_on_shutdown On [INPUT] Name forward unix_path /var/run/fluent.sock # Run input in separate thread to prevent blocking threaded true # Enable filesystem buffering for persistence storage.type filesystem [OUTPUT] Name cloudwatch_logs Match * region us-west-2 log_group_name /aws/ecs/my-app log_stream_name $(ecs_task_id) # Use multiple workers for parallel processing workers 2 # Retry failed flushes up to 15 times retry_limit 15 # Maximum disk space for buffered data for this output storage.total_limit_size 10G

主な設定パラメータ:

storage.path

Fluent Bit がバッファされたチャンクをディスクに保存するディレクトリ。

storage.backlog.flush_on_shutdown

有効にすると、Fluent Bit はシャットダウン中にすべてのバックログファイルシステムのチャンクを送信先にフラッシュしようとします。これにより、Fluent Bit が停止する前にデータ配信を確保できますが、シャットダウン時間が長くなる可能性があります。

storage.max_chunks_up

メモリに残っているチャンクの数。デフォルトは 128 チャンクで、各チャンクは最大 4~5 MB を使用できるため、500 MB 以上のメモリを消費する可能性があります。メモリに制約のある環境では、この値を小さくします。たとえば、バッファリングに 50 MB 使用できる場合は、これを 8~10 チャンクに設定します。

storage.type filesystem

入力プラグインのファイルシステムストレージを有効にします。名前にかかわらず、 Fluent Bit は mmap を使用してチャンクをメモリとディスクの両方にマッピングし、パフォーマンスを犠牲にすることなく永続性を提供します。

storage.total_limit_size

特定の OUTPUT プラグインのバッファリングされたデータの最大ディスク容量。この制限に達すると、その出力の最も古いレコードがドロップされます。サイズの詳細については、「storage.total_limit_size を理解する」を参照してください。

threaded true

Fluent Bit のメインイベントループとは別に、独自のスレッドで入力を実行します。これにより、遅い入力がパイプライン全体をブロックすることを防ぎます。

詳細については、Fluent Bit ドキュメントの「ファイルシステムのバッファリング」および Fluent Bit リポジトリ例の AWS の「ファイルシステムとメモリのバッファリング」を参照してください。

storage.total_limit_size を理解する

各 OUTPUT プラグインの storage.total_limit_size パラメータは、その出力のバッファされたデータの最大ディスク容量を制御します。この制限に達すると、その出力の最も古いレコードがドロップされ、新しいデータのためのスペースが確保されます。ディスク容量を完全に使い切ると、Fluent Bit はレコードのキューに失敗し、それらは失われます。

次の式を使用して、ログレートと必要な復旧ウィンドウに基づいて適切な storage.total_limit_size を計算します。

If log rate is in KB/s, convert to MB/s first: log_rate (MB/s) = log_rate (KB/s) / 1000 storage.total_limit_size (GB) = log_rate (MB/s) × duration (hours) × 3600 (seconds/hour) / 1000 (MB to GB)

次の表は、一般的なログレートと復旧ウィンドウの計算例を示しています。

ログレート 1 時間 6 時間 12 時間ごと 24 時間
0.25 MB/秒 0.9 GB 5.4 GB 10.8 GB 21.6 GB
0.5 MB/秒 1.8 GB 10.8 GB 21.6 GB 43.2 GB
1 MB/秒 3.6 GB 21.6 GB 43.2 GB 86.4 GB
5 MB/秒 18 GB 108 GB 216 GB 432 GB
10 MB/秒 36 GB 216 GB 432 GB 864 GB

ピークスループットを観察し、適切なバッファサイズを選択するには、メジャースループット FireLens サンプルを使用します。

式、計算例、ベンチマークを使用して、停止中のベストエフォートリカバリのためのランウェイを提供する適切な storage.total_limit_size を選択します。

Amazon ECS タスクストレージの要件

OUTPUT セクション全体のすべての storage.total_limit_size 値を合計し、オーバーヘッドのバッファを追加します。この合計により、Amazon ECS タスク定義に必要なストレージスペースが決まります。例えば、3 つの出力 × 各 10 GB = 30 GB + バッファ (5~10 GB) = 合計 35~40 GB が必要です。合計が使用可能なストレージを超える場合、Fluent Bit はレコードのキューに失敗し、それらは失われます。

次のストレージオプションが利用可能です。

バインドマウント (エフェメラルストレージ)
  • AWS Fargate では、デフォルトは 20 GB のエフェメラルストレージ (最大 200 GB) です。タスク定義で ephemeralStorage を使用して設定します。詳細については、「AWS CloudFormation ユーザーガイド」の「EphemeralStorage」を参照してください。

  • EC2 では、Amazon ECS 最適化 AMI (OS と Docker 間で共有) を使用する場合、デフォルトは 30 GB です。ルートボリュームのサイズを変更して増加させます。

Amazon EBS ボリューム
「Amazon EFS ボリューム」
  • シンプルでスケーラブルなファイルストレージを提供します。

  • タスク定義で storage.path (デフォルト: /var/log/flb-storage/) を指すボリューム設定と mountPoint が必要です。

  • 詳細については、「タスク定義内での Amazon EFS ファイルシステムの指定」を参照してください。

データボリュームの詳細については、「Amazon ECS タスクのストレージオプション」を参照してください。

出力設定の最適化

ネットワークの問題、サービスの停止、送信先スロットリングにより、ログの配信が妨げられる場合があります。適切な出力設定により、データ損失のない耐障害性を保証します。

出力フラッシュが失敗した場合、 Fluent Bit はオペレーションを再試行できます。次のパラメータは再試行動作を制御します。

retry_limit

レコードをドロップする前の最初の試行後の最大再試行回数。デフォルトは 1 です。例えば、retry_limit 3 は合計 4 回の試行 (最初の 1 回 + 再試行の 3 回) を意味します。本番環境では、数分の停止に対応できるよう、エクスポネンシャルバックオフを用いた再試行数を 15 回以上に設定することをお勧めします。

無制限の再試行では、no_limits または False に設定します。

  • メモリバッファリングでは、無制限の再試行により、メモリ制限に達すると入力プラグインが一時停止します。

  • ファイルシステムのバッファリングでは、storage.total_limit_size に達すると最も古いレコードがドロップされます。

重要

すべての再試行回数 (最初の 1 回 + 再試行の retry_limit 回) を使い切ると、レコードはドロップされます。auto_retry_requests true (デフォルト) を使用する AWS プラグインは、Fluent Bit の再試行メカニズムの前に追加の再試行レイヤーを提供します。詳細については、Fluent Bit ドキュメントの「再試行を設定する」を参照してください。

例えば、デフォルト設定 (scheduler.base 5scheduler.cap 2000net.connect_timeout 10s) を使用した retry_limit 3 では、約 70 秒のスケジューラ待機時間 (10 秒 + 20 秒 + 40 秒)、40 秒のネットワーク接続タイムアウト (4 回の試行 x 10 秒)、および AWS プラグインの再試行が提供され、ネットワーク条件と OS TCP タイムアウトに応じて合計約 2~10 分になります。

scheduler.base

再試行間の基本秒数 (デフォルト: 5)。10 秒をお勧めします。

scheduler.cap

再試行間の最大秒数 (デフォルト: 2000)。60 秒をお勧めします。

再試行間の待機時間は、ジッターを伴うエクスポネンシャルバックオフを使用します。

wait_time = random(base, min(base × 2^retry_number, cap))

例: scheduler.base 10 および scheduler.cap 60 を使用:

  • 最初の再試行: 10~20 秒のランダム待機

  • 2 回目の再試行: 10~40 秒のランダム待機

  • 3 回目の再試行以降: 10~60 秒のランダム待機 (上限あり)

詳細については、Fluent Bitドキュメントの「再試行の待機時間を設定する」および「ネットワーク」を参照してください。

workers

並列出力処理のスレッド数。複数のワーカーが同時フラッシュを許可し、多くのチャンクを処理する際のスループットを向上させます。

auto_retry_requests

Fluent Bit の組み込み再試行メカニズムの前に追加の再試行レイヤーを提供する AWS プラグイン固有の設定。デフォルトは true です。有効にすると、AWS 出力プラグインは、リクエストが失敗したフラッシュと見なされ、retry_limit 設定の対象となる前に、失敗したリクエストを内部で再試行します。

[SERVICE] セクションの Grace パラメータは、バッファされたデータをフラッシュするためにシャットダウン中に Fluent Bit が待機する時間を設定します。Grace 期間はコンテナの stopTimeout と調整する必要があります。SIGKILL を受信する前に Fluent Bit がフラッシュを完了できるように、stopTimeoutGrace 期間を超えていることを確認します。たとえば、Grace が 120 秒の場合、 stopTimeout を 150 秒に設定します。

次の例は、高スループットシナリオで推奨されるすべての設定を含む完全な Fluent Bit 設定を示しています。

[SERVICE] # Flush logs every 1 second Flush 1 # Wait 120 seconds during shutdown to flush remaining logs Grace 120 # Directory for filesystem buffering storage.path /var/log/flb-storage/ # Limit chunks stored 'up' in memory (reduce for memory-constrained environments) storage.max_chunks_up 32 # Flush backlog chunks to destinations during shutdown (prevents log loss) storage.backlog.flush_on_shutdown On # Minimum seconds between retries scheduler.base 10 # Maximum seconds between retries (exponential backoff cap) scheduler.cap 60 [INPUT] Name forward unix_path /var/run/fluent.sock # Run input in separate thread to prevent blocking threaded true # Enable filesystem buffering for persistence storage.type filesystem [OUTPUT] Name cloudwatch_logs Match * region us-west-2 log_group_name /aws/ecs/my-app log_stream_name $(ecs_task_id) # Use multiple workers for parallel processing workers 2 # Retry failed flushes up to 15 times retry_limit 15 # Maximum disk space for buffered data for this output storage.total_limit_size 10G

データ損失シナリオを理解する

長時間の停止中や出力先に問題がある場合、レコードが失われる可能性があります。このガイドの設定に関する推奨事項は、データ損失を最小限に抑えるためのベストエフォートアプローチですが、長期にわたる障害の間のゼロ損失を保証することはできません。これらのシナリオを理解することは、レジリエンスを最大化するように Fluent Bit を設定するのに役立ちます。

レコードは 2 つの方法で失われます: ストレージがいっぱいになると最も古いレコードがドロップされる、またはシステムがより多くのデータを受け入れることができないと最新のレコードが拒否される。

最も古いレコードがドロップされた

最も古いバッファされたレコードは、再試行回数を使い切ったとき、または storage.total_limit_size がいっぱいになり、新しいデータのためのスペースを確保する必要がある場合にドロップされます。

再試行制限を超えた

AWS プラグインの再試行 (auto_retry_requests true の場合) + 最初の 1 回の Fluent Bit 試行 + retry_limit 回の再試行の後に発生します。軽減するには、無制限の再試行のために OUTPUT プラグインごとに retry_limit no_limits を設定します。

[OUTPUT] Name cloudwatch_logs Match ApplicationLogs retry_limit no_limits auto_retry_requests true
重要

無制限の再試行は、再試行回数を使い切ったことによるレコードのドロップを防止しますが、storage.total_limit_size がいっぱいになる可能性があります。

ストレージ制限に達した (ファイルシステムのバッファリング)

設定した storage.total_limit_size でバッファリングできる時間よりも長く出力先が使用できない場合に発生します。例えば、1 MB/秒のログレートで 10 GB のバッファを使用すると、約 2.7 時間のバッファリングが可能になります。軽減するには、OUTPUT プラグインごとに storage.total_limit_size を増やし、適切な Amazon ECS タスクストレージをプロビジョニングします。

[OUTPUT] Name cloudwatch_logs Match ApplicationLogs storage.total_limit_size 10G

最新のレコードが拒否された

最新のレコードは、ディスク容量を使い切ったとき、または Mem_Buf_Limit のために入力が一時停止されたときにドロップされます。

ディスク容量を使い切った (ファイルシステムのバッファリング)

ディスク容量を完全を使い切ったときに発生します。Fluent Bit は新しいレコードのキューに失敗し、それらは失われます。軽減するには、すべての storage.total_limit_size 値を合計し、適切な Amazon ECS タスクストレージをプロビジョニングします。詳細については、「Amazon ECS タスクストレージの要件」を参照してください。

メモリ制限に達した (メモリバッファリング)

出力先が使用できず、メモリバッファがいっぱいになったときに発生します。一時停止した入力プラグインは、新しいレコードの受け入れを停止します。軽減するには、耐障害性を高めるために storage.type filesystem を使用するか、Mem_Buf_Limit を増やします。

データ損失を最小限にするためのベストプラクティス

データ損失を最小限にするには、次のベストプラクティスを検討してください:

  • ファイルシステムのバッファリングを使用する — 停止時の耐障害性を向上させるように storage.type filesystem を設定します。

  • ストレージを適切なサイズにする — ログレートと希望する復旧期間に基づいて storage.total_limit_size を計算します。

  • 適切なディスクをプロビジョニングする — Amazon ECS タスクに十分なエフェメラルストレージ、Amazon EBS、または Amazon EFS があることを確認します。

  • 再試行動作を設定するretry_limit (再試行回数を使い切るとレコードがドロップされます) と no_limits (無期限に再試行されますが、ストレージがいっぱいになる可能性があります) のバランスを取ります。

マルチ送信先ログを使用して信頼性を高める

複数の送信先にログを送信すると、単一障害点がなくなります。たとえば、CloudWatch Logs で機能停止が発生した場合でも、ログは Amazon S3 に到達します。

マルチ送信先ログには、次の利点があります。Amazon S3 出力プラグインは、gzip 形式や Parquet 形式などの圧縮オプションもサポートしているため、ストレージコストを削減できます。詳細については、「Fluent Bit ドキュメント」の「S3 圧縮」を参照してください。

マルチ送信先ログには、次の利点があります。

  • 冗長性 – 一方の送信先が失敗しても、ログはもう一方の送信先に到達します。

  • 復旧 – 一方のシステムのギャップを他方のシステムから再構築します。

  • 耐久性 – ログを Amazon S3 にアーカイブして長期保持します。

  • コスト最適化 – 最近のログを CloudWatch Logs などの高速クエリサービスに短期間保存し、すべてのログを低コストの Amazon S3 ストレージにアーカイブして長期保持します。

次の Fluent Bit 設定は、CloudWatch Logs と Amazon S3 の両方にログを送信します。

[OUTPUT] Name cloudwatch_logs Match * region us-west-2 log_group_name /aws/ecs/my-app log_stream_name $(ecs_task_id) workers 2 retry_limit 15 [OUTPUT] Name s3 Match * bucket my-logs-bucket region us-west-2 total_file_size 100M s3_key_format /fluent-bit-logs/$(ecs_task_id)/%Y%m%d/%H/%M/$UUID upload_timeout 10m # Maximum disk space for buffered data for this output storage.total_limit_size 5G

どちらの出力も同じ Match * パターンを使用するため、すべてのレコードは両方の送信先に個別に送信されます。どちらか一方の送信先が停止しても、ログは引き続き他の送信先に流れ続け、失敗したフラッシュは後で再試行できるようにファイルシステムバッファに蓄積されます。

tail 入力プラグインでファイルベースのログを使用する

ログ損失が重大な懸念事項となる高スループットのシナリオでは、別の方法として、アプリケーションがディスク上のファイルにログを書き込み、tail 入力プラグインを使用してそれらを読み取るように Fluent Bit を設定します。このアプローチは、Docker ログドライバーレイヤーを完全にバイパスします。

tail プラグインを使用したファイルベースのログ記録には、次の利点があります。

  • オフセット追跡 – tail プラグインはデータベースファイルにファイルオフセットを保存できるため (DB オプションを使用)、Fluent Bit 再起動した際に耐久性があります。これにより、コンテナの再起動時にログが消失するのを防ぐことができます。

  • 入力レベルのバッファリングMem_Buf_Limit を使用して入力プラグインでメモリバッファ制限を直接設定できるため、メモリ使用量をより詳細に制御できます。

  • Docker のオーバーヘッドを回避 – Docker のログバッファを経由することなく、ログはファイルから Fluent Bit に直接送信されます。

このアプローチを使用するには、アプリケーションが stdout ではなくファイルにログを書き込む必要があります。アプリケーションコンテナと Fluent Bit コンテナの両方が、ログファイルが保存されている共有ボリュームをマウントします。

次の例は、ベストプラクティスを使用した tail 入力設定を示しています。

[INPUT] Name tail # File path or glob pattern to tail Path /var/log/app.log # Database file for storing file offsets (enables resuming after restart) DB /var/log/flb_tail.db # when true, controls that only fluent-bit will access the database (improves performance) DB.locking true # Skip long lines instead of skipping the entire file Skip_Long_Lines On # How often (in seconds) to check for new files matching the glob pattern Refresh_Interval 10 # Extra seconds to monitor a file after rotation to account for pending flush Rotate_Wait 30 # Maximum size of the buffer for a single line Buffer_Max_Size 10MB # Initial allocation size for reading file data Buffer_Chunk_Size 1MB # Maximum memory buffer size (tail pauses when full) Mem_Buf_Limit 75MB

tail 入力プラグインを使用する場合は、次の点を考慮してください。

  • ディスクの枯渇を防ぐために、アプリケーションログのログローテーションを実装します。基盤となるボリュームメトリクスをモニタリングしてパフォーマンスを測定します。

  • ログ形式に基づいて、Ignore_OlderRead_from_Head および複数行パーサーなどの設定を検討してください。

詳細については、「Fluent Bit ドキュメント」の「Tail」を参照してください。ベストプラクティスについては、「Fluent Bit トラブルシューティングガイド」の AWS の「ベストプラクティスを使用した Tail 設定」を参照してください。

FireLens に直接ログ記録する

awsfirelens ログドライバーがタスク定義で指定されている場合、Amazon ECS コンテナエージェントは次の環境変数をコンテナに挿入します。

FLUENT_HOST

FireLens コンテナに割り当てられた IP アドレス。

注記

bridge ネットワークモードの EC2 を使用している場合、FireLens ログルーターコンテナ (コンテナ定義に firelensConfiguration オブジェクトがあるコンテナ) を再起動した後で、アプリケーションコンテナの FLUENT_HOST 環境変数が不正確になる可能性があります。これは、FLUENT_HOST が動的 IP アドレスであり、再起動後に変更される場合があるためです。アプリケーションコンテナから FLUENT_HOST IP アドレスへの直接的なロギングは、アドレスの変更後に失敗することがあります。個々のコンテナの再起動に関する詳細については、「コンテナ再起動ポリシーを使用して Amazon ECS タスク内の個々のコンテナを再起動する」を参照してください。

FLUENT_PORT

Fluent Forward プロトコルがリッスンしているポート。

これらの環境変数を使用して、stdout に書き込む代わりに Fluent Forward プロトコルを使用してアプリケーションコードから Fluent Bit ログルーターに直接ログを記録できます。このアプローチでは、Docker ログドライバーレイヤーをバイパスします。これにより、次の利点が得られます。

  • 低レイテンシー – Docker のログインフラストラクチャを経由することなく、ログは Fluent Bit に直接送信されます。

  • 構造化ログ – JSON エンコーディングのオーバーヘッドなしで、構造化ログデータをネイティブに送信します。

  • より良い制御 – アプリケーションは独自のバッファリングとエラー処理ロジックを実装できます。

次の Fluent ロガーライブラリは Fluent Forward プロトコルをサポートし、ログを Fluent Bit に直接送信するために使用できます。

Docker バッファ制限を設定する

タスク定義を作成する際は、log-driver-buffer-limit で値を指定することで、メモリにバッファリングされるログの行数を指定できます。これにより、Docker と Fluent Bit の間のバッファが制御されます。詳細については、Docker ドキュメントの「Fluentd ロギングドライバー」を参照してください。

このオプションは、スループットが高いために Docker がバッファメモリを使い果たし、新しいメッセージを追加するためにバッファメッセージを破棄する可能性がある場合に使用します。

このオプションを使用する場合は、次の点を考慮してください。

  • このオプションは、EC2 およびプラットフォームバージョン 1.4.0 以降の Fargate でサポートされています。

  • このオプションは、logDriverawsfirelens に設定されている場合にのみ有効です。

  • デフォルトのバッファ制限は 1048576 (ログの行数) です。

  • バッファ制限は、0 ログ行以上、536870912 ログ行未満である必要があります。

  • このバッファに使用されるメモリの最大量は、各ログ行のサイズとバッファのサイズ積です。たとえば、アプリケーションのログ行が平均 2 KiB の場合、4096 のバッファ制限では最大 8 MiB を使用します。タスクレベルで割り当てられるメモリの合計量は、ログドライバーのメモリバッファに加えて、すべてのコンテナに割り当てられたメモリ量よりも大きくなければなりません。

次のタスク定義は、log-driver-buffer-limit を設定する方法を示しています。

{ "containerDefinitions": [ { "name": "my_service_log_router", "image": "public.ecr.aws/aws-observability/aws-for-fluent-bit:3", "cpu": 0, "memoryReservation": 51, "essential": true, "firelensConfiguration": { "type": "fluentbit" } }, { "essential": true, "image": "public.ecr.aws/docker/library/httpd:latest", "name": "app", "logConfiguration": { "logDriver": "awsfirelens", "options": { "Name": "firehose", "region": "us-west-2", "delivery_stream": "my-stream", "log-driver-buffer-limit": "52428800" } }, "dependsOn": [ { "containerName": "my_service_log_router", "condition": "START" } ], "memoryReservation": 100 } ] }