Configuração de logs do Amazon ECS para obtenção de alto throughput
Para cenários com alto throughput de logs, recomendamos o uso do driver de log awsfirelens com o FireLens e o Fluent Bit. O Fluent Bit é um processador de log leve que é eficiente com recursos e capaz de lidar com milhões de registros de log. Porém, atingir o desempenho ideal em grande escala requer ajustar sua configuração.
Esta seção aborda técnicas avançadas de otimização de Fluent Bit para lidar com a alto throughput de logs e, ao mesmo tempo, manter a estabilidade do sistema e garantir que não haja perda de dados.
Para obter informações sobre como usar arquivos de configuração personalizados com o FireLens, consulte Uso de um arquivo de configuração personalizado. Para receber exemplos adicionais, consulte Exemplos do FireLens do Amazon ECS
nota
Algumas opções de configuração nesta seção, como workers e threaded, exigem o AWS para Fluent Bit versão 3 ou posterior. Para obter informações sobre versões disponíveis, consulte Versões do AWS para Fluent Bit
Noções básicas sobre blocos
O Fluent Bit processa dados em unidades chamadas blocos. Quando um plug-in INPUT recebe dados, o mecanismo cria um bloco que é armazenado na memória ou no sistema de arquivos antes de ser enviado aos destinos OUTPUT.
O comportamento do buffer depende da configuração storage.type nas seções INPUT. Por padrão, o Fluent Bit usa buffer de memória. Em cenários de throughput alto ou de produção, o buffer do sistema de arquivos oferece maior resiliência.
Para obter mais informações, consulte Blocos
Buffer de memória (padrão)
Por padrão, o Fluent Bit usa buffer de memória (storage.type memory). Você pode limitar o uso de memória por plug-in INPUT usando o parâmetro Mem_Buf_Limit.
O exemplo a seguir mostra uma configuração de entrada com buffer de memória:
[INPUT] Name tcp Tag ApplicationLogs Port 5170 storage.type memory Mem_Buf_Limit 5MB
Importante
Quando Mem_Buf_Limit é ultrapassado para um plug-in, o Fluent
Bit pausa a entrada, e os novos registros são perdidos. Isso pode causar contrapressão e tornar sua aplicação mais lenta. O seguinte aviso aparece nos logs do Fluent Bit:
[input] tcp.1 paused (mem buf overlimit)
O armazenamento em buffer de memória é adequado para casos de uso simples com throughput de logs baixo a moderado. Em cenários de throughput alto ou de produção, nos quais a perda de dados é uma preocupação, use o buffer do sistema de arquivos.
Para obter mais informações, consulte Buffer e memória
Buffer do sistema de arquivos
Para cenários de alto throughput, recomendamos o uso do processo de buffer do sistema de arquivos. Para obter mais informações sobre como o Fluent Bit gerencia o processo de buffer e o armazenamento, consulte Processo de buffer e armazenamento
O processo de buffer do sistema de arquivos oferece as seguintes vantagens:
-
Maior capacidade de buffer: o espaço em disco geralmente é mais abundante do que a memória.
-
Persistência: os dados armazenados em buffer persistem após as reinicializações do Fluent Bit.
-
Degradação normal: durante falhas de saída, os dados se acumulam no disco em vez de causarem esgotamento da memória.
Para habilitar o buffer do sistema de arquivos, forneça um arquivo de configuração personalizado do Fluent Bit. O exemplo a seguir mostra a configuração recomendada:
[SERVICE] # Flush logs every 1 second Flush 1 # Wait 120 seconds during shutdown to flush remaining logs Grace 120 # Directory for filesystem buffering storage.path /var/log/flb-storage/ # Limit chunks stored 'up' in memory (reduce for memory-constrained environments) storage.max_chunks_up 32 # Flush backlog chunks to destinations during shutdown (prevents log loss) storage.backlog.flush_on_shutdown On [INPUT] Name forward unix_path /var/run/fluent.sock # Run input in separate thread to prevent blocking threaded true # Enable filesystem buffering for persistence storage.type filesystem [OUTPUT] Name cloudwatch_logs Match * regionus-west-2log_group_name/aws/ecs/my-applog_stream_name $(ecs_task_id) # Use multiple workers for parallel processing workers 2 # Retry failed flushes up to 15 times retry_limit 15 # Maximum disk space for buffered data for this output storage.total_limit_size 10G
Principais parâmetros de configuração:
storage.path-
O diretório em que o Fluent Bit armazena os blocos armazenados em buffer no disco.
storage.backlog.flush_on_shutdown-
Quando habilitado, o Fluent Bit tenta liberar todos os blocos do sistema de arquivos de backlog para seus respectivos destinos durante o desligamento. Isso ajuda a garantir a entrega dos dados antes que o Fluent Bit pare, mas pode prolongar o tempo de desligamento.
storage.max_chunks_up-
O número de blocos que permanecem na memória. O padrão é 128 blocos, que podem consumir mais de 500 MB de memória, pois cada bloco pode usar até 4–5 MB. Em ambientes com memória limitada, reduza esse valor. Por exemplo, se você tiver 50 MB disponíveis para buffer, defina isso como 8–10 blocos.
storage.type filesystem-
Habilita o armazenamento do sistema de arquivos para o plug-in de entrada. Apesar do nome, o Fluent Bit usa
mmappara mapear fragmentos na memória e no disco, fornecendo persistência sem sacrificar o desempenho. storage.total_limit_size-
O espaço máximo em disco para dados armazenados em buffer de um plug-in de saída específico. Quando esse limite é atingido, os registros mais antigos dessa saída são descartados. Para obter mais informações sobre os tamanhos, consulte Noções básicas sobre o storage.total_limit_size.
threaded true-
Executa a entrada em seu próprio thread, separado do loop de eventos principal do Fluent Bit. Isso evita que entradas lentas bloqueiem todo o pipeline.
Para mais informações, consulte Buffer do sistema de arquivos
Noções básicas sobre o storage.total_limit_size
O parâmetro storage.total_limit_size em cada plug-in OUTPUT controla o espaço máximo em disco para dados armazenados em buffer para essa saída. Quando esse limite é atingido, os registros mais antigos dessa saída são descartados para liberar espaço para novos dados. Quando o espaço em disco se esgota completamente, o Fluent Bit não consegue ser colocado na fila e acaba se perdendo.
Use a seguinte fórmula para calcular o storage.total_limit_size adequado com base na sua taxa de log e no intervalo de recuperação desejado:
If log rate is in KB/s, convert to MB/s first: log_rate (MB/s) = log_rate (KB/s) / 1000 storage.total_limit_size (GB) = log_rate (MB/s) × duration (hours) × 3600 (seconds/hour) / 1000 (MB to GB)
A tabela a seguir apresenta exemplos de cálculos para taxas logarítmicas comuns e janelas de recuperação:
| Taxa de registro | 1 hora | 6 horas | 12 horas | 24 horas |
|---|---|---|---|---|
| 0.25 MB/s | 0,9 GB | 5,4 GB | 10,8 GB | 21,6 GB |
| 0.5 MB/s | 1,8 GB | 10,8 GB | 21,6 GB | 43,2 GB |
| 1 MB/s | 3,6 GB | 21,6 GB | 43,2 GB | 86,4 GB |
| 5 MB/s | 18 GB | 108 GB | 216 GB | 432 GB |
| 10 MB/s | 36 GB | 216 GB | 432 GB | 864 GB |
Para observar o pico de throughput e escolher tamanhos de buffer adequados, use a amostra measure-throughput FireLens
Use a fórmula, os exemplos de cálculos e a análise comparativa para escolher um storage.total_limit_size adequado que ofereça margem suficiente para uma recuperação com o máximo esforço possível durante uma interrupção.
Requisitos de armazenamento de tarefas do Amazon ECS
Some todos os valores de storage.total_limit_size das seções OUTPUT e acrescente uma margem para cobrir as despesas gerais. Esse total determina o espaço de armazenamento necessário na definição da tarefa do Amazon ECS. Por exemplo, 3 saídas × 10 GB cada = 30 GB + buffer (5–10 GB) = 35–40 GB são necessários. Se o total exceder o espaço de armazenamento disponível, o Fluent Bit pode não conseguir colocar os registros na fila, e eles serão perdidos.
Estão disponíveis as seguintes opções de armazenamento:
- Montagens de diretório (armazenamento temporário)
-
-
Para o AWS Fargate, o padrão é 20 GB de armazenamento temporário (máximo de 200 GB). Configure usando
ephemeralStoragena definição da tarefa. Para obter mais informações, consulte EphemeralStorage no Guia do usuário do AWS CloudFormation. -
No EC2, o padrão é de 30 GB ao usar a AMI otimizada para o Amazon ECS (espaço compartilhado entre o sistema operacional e o Docker). Aumente alterando o tamanho do volume raiz.
-
- Volumes do Amazon EBS
-
-
Oferece armazenamento em bloco de alta disponibilidade, durabilidade e alta performance.
-
Requer configuração de volume e
mountPointna definição da tarefa que aponta parastorage.path(padrão:/var/log/flb-storage/). -
Para obter mais informações, consulte Adiar a configuração de volumes para o momento da inicialização na definição de tarefa do Amazon ECS.
-
- Volumes Amazon EFS
-
-
Oferece um armazenamento de arquivos simples e escalável.
-
Requer configuração de volume e
mountPointna definição da tarefa que aponta parastorage.path(padrão:/var/log/flb-storage/). -
Para obter mais informações, consulte Especificar um sistema de arquivos do Amazon EFS na definição de tarefa do Amazon ECS.
-
Para obter mais informações sobre volumes de dados, consulte Opções de armazenamento para tarefas do Amazon ECS.
Otimizar a configuração de saída
Problemas de rede, interrupções no serviço e controle de utilização de destino podem impedir a entrega dos logs. A configuração adequada da saída garante resiliência sem perda de dados.
Quando uma descarga de saída falha, o Fluent Bit pode repetir a operação. Os seguintes parâmetros controlam o comportamento de novas tentativas:
retry_limit-
O número máximo de tentativas após a tentativa inicial antes de descartar os registros. O padrão é 1. Por exemplo,
retry_limit 3significa 4 tentativas totais (1 inicial + 3 tentativas). Para ambientes de produção, recomendamos 15 ou mais, o que cobre vários minutos de interrupção com recuo exponencial.Defina como
no_limitsouFalsepara tentativas infinitas:-
Com o buffer de memória, tentativas infinitas fazem com que o plug-in de entrada seja pausado quando os limites de memória são atingidos.
-
Com o buffer do sistema de arquivos, os registros mais antigos são descartados quando
storage.total_limit_sizeé atingido.
Importante
Após esgotar todas as tentativas de repetição (1 tentativa inicial +
retry_limitrepetições), os registros são descartados. Os plug-ins do AWS comauto_retry_requests true(padrão) oferecem uma camada adicional de repetição antes do mecanismo de repetição do Fluent Bit. Para mais informações, consulte Configurar tentativas de repetiçãona documentação do Fluent Bit. Por exemplo, o
retry_limit 3com as configurações padrão (scheduler.base 5,scheduler.cap 2000,net.connect_timeout 10s) prevê aproximadamente 70 segundos de tempo de espera do agendador (10 s + 20 s + 40 s), 40 segundos de tempo limite de conexão de rede (4 tentativas × 10 s), mais tentativas de plug-ins da AWS — totalizando aproximadamente 2 a 10 minutos, dependendo das condições da rede e dos tempos limite de espera do TCP do sistema operacional. -
scheduler.base-
O intervalo básico em segundos entre tentativas (padrão: 5). Recomendamos 10 segundos.
scheduler.cap-
O intervalo máximo em segundos entre tentativas (padrão: 2000). Recomendamos 60 segundos.
O tempo de espera entre tentativas utiliza um recuo exponencial com variação:
wait_time = random(base, min(base × 2^retry_number, cap))
Por exemplo, com scheduler.base 10 e scheduler.cap 60:
-
Primeira tentativa: espera aleatória entre 10 e 20 segundos
-
Segunda tentativa: espera aleatória entre 10 e 40 segundos
-
A partir da terceira tentativa: espera aleatória entre 10 e 60 segundos (limite máximo)
Para obter mais informações, consulte Configurar o tempo de espera para nova tentativa
workers-
O número de threads para processamento de saída paralelo. Vários operadores permitem descargas simultâneas, melhorando o throughput ao processar muitos blocos.
auto_retry_requests-
Uma configuração específica do plug-in AWS que oferece uma camada adicional de tentativas antes do mecanismo de repetição integrado do Fluent Bit. O padrão é
true. Quando ativado, o plug-in de saída do AWS tenta novamente as solicitações com falha internamente antes que a solicitação seja considerada uma atualização com falha, de acordo com a configuração doretry_limit.
O parâmetro Grace na seção [SERVICE] define o tempo de espera do Fluent Bit durante o desligamento para limpar os dados em buffer. O período de Grace deve ser coordenado com o stopTimeout do contêiner. Certifique-se de que stopTimeout exceda o período de Grace para permitir que o Fluent Bit faça a descarga completa antes de receber SIGKILL. Por exemplo, se Grace for 120 segundos, defina stopTimeout como 150 segundos.
O exemplo a seguir mostra uma configuração completa de Fluent Bit com todas as definições recomendadas para cenários de alto throughput:
[SERVICE] # Flush logs every 1 second Flush 1 # Wait 120 seconds during shutdown to flush remaining logs Grace 120 # Directory for filesystem buffering storage.path /var/log/flb-storage/ # Limit chunks stored 'up' in memory (reduce for memory-constrained environments) storage.max_chunks_up 32 # Flush backlog chunks to destinations during shutdown (prevents log loss) storage.backlog.flush_on_shutdown On # Minimum seconds between retries scheduler.base 10 # Maximum seconds between retries (exponential backoff cap) scheduler.cap 60 [INPUT] Name forward unix_path /var/run/fluent.sock # Run input in separate thread to prevent blocking threaded true # Enable filesystem buffering for persistence storage.type filesystem [OUTPUT] Name cloudwatch_logs Match * regionus-west-2log_group_name/aws/ecs/my-applog_stream_name $(ecs_task_id) # Use multiple workers for parallel processing workers 2 # Retry failed flushes up to 15 times retry_limit 15 # Maximum disk space for buffered data for this output storage.total_limit_size 10G
Compreender os cenários de perda de dados
Os registros podem ser perdidos durante interrupções prolongadas ou problemas com os destinos de saída. As recomendações de configuração contidas neste guia são medidas que visam minimizar a perda de dados, mas não podem garantir que não haverá nenhuma perda durante falhas prolongadas. Compreender esses cenários ajuda a configurar o Fluent Bit para maximizar a resiliência.
Os registros podem ser perdidos de duas maneiras: os registros mais antigos são excluídos quando o espaço de armazenamento fica cheio, ou os registros mais recentes são rejeitados quando o sistema não consegue aceitar mais dados.
Os registros mais antigos foram excluídos
Os registros mais antigos armazenados no buffer são descartados quando as tentativas de repetição se esgotam ou quando o storage.total_limit_size fica cheio e precisa liberar espaço para novos dados.
- Limite de repetição excedido
-
Ocorre depois que o plug-in da AWS faz uma nova tentativa (se
auto_retry_requests true) mais 1 tentativa inicial do Fluent Bit maisretry_limittentativas. Para mitigar o problema, definaretry_limit no_limitspor plug-in OUTPUT para tentativas infinitas:[OUTPUT] Name cloudwatch_logs Match ApplicationLogs retry_limit no_limits auto_retry_requests trueImportante
As tentativas infinitas evitam a perda de registros devido ao esgotamento das tentativas, mas podem fazer com que o
storage.total_limit_sizefique cheio. - Limite de armazenamento atingido (buffer do sistema de arquivos)
-
Isso ocorre quando o destino de saída fica indisponível por um período superior ao tempo de armazenamento em buffer definido no
storage.total_limit_sizeconfigurado. Por exemplo, um buffer de 10 GB com uma taxa de log de 1 MB/s oferece aproximadamente 2,7 horas de armazenamento em buffer. Para mitigar o problema, aumentestorage.total_limit_sizepor plug-in OUTPUT e aloque espaço de armazenamento adequado para as tarefas do Amazon ECS:[OUTPUT] Name cloudwatch_logs Match ApplicationLogs storage.total_limit_size 10G
Registros mais recentes rejeitados
Os registros mais recentes são descartados quando o espaço em disco se esgota ou quando a entrada é pausada devido a Mem_Buf_Limit.
- Espaço em disco esgotado (buffer do sistema de arquivos)
-
Ocorre quando o espaço em disco está completamente esgotado. O Fluent Bit não consegue enfileirar novos registros, e estes são perdidos. Para mitigar esse problema, some todos os valores de
storage.total_limit_sizee provisione armazenamento adequado para as tarefas do Amazon ECS. Para obter mais informações, consulte Requisitos de armazenamento de tarefas do Amazon ECS. - Limite de memória atingido (armazenamento em buffer de memória)
-
Ocorre quando o destino de saída não está disponível e o buffer de memória fica cheio. Os plug-ins de entrada em pausa deixam de aceitar novos registros. Para mitigar, use
storage.type filesystempara melhorar a resiliência ou aumenteMem_Buf_Limit
Práticas recomendadas para minimizar a perda de dados
Considere as seguintes práticas recomendadas para minimizar a perda de dados:
-
Usar o buffer do sistema de arquivos: defina
storage.type filesystempara garantir maior resiliência durante interrupções no fornecimento de energia. -
Escolha o tamanho de armazenamento adequado: calcule
storage.total_limit_sizecom base na taxa logarítmica e na janela de recuperação desejada. -
Reservar espaço em disco suficiente: certifique-se de que a tarefa do Amazon ECS tenha armazenamento temporário, Amazon EBS ou Amazon EFS suficiente.
-
Configurar o comportamento de repetição: equilíbrio entre
retry_limit(elimina registros após esgotar as tentativas) eno_limits(tenta indefinidamente, mas pode esgotar o espaço de armazenamento).
Usar o registro em log em vários destinos para confiabilidade
O envio de logs para vários destinos elimina pontos únicos de falha. Por exemplo, se o Amazon CloudWatch Logs sofrer uma interrupção, os logs ainda chegarão ao Amazon S3.
O registro em log em vários destinos oferece os seguintes benefícios. O plug-in de saída do Amazon S3 também oferece suporte a opções de compactação, como gzip e formato Parquet, que podem reduzir os custos de armazenamento. Para mais informações, consulte Compactação do S3
O registro em log em vários destinos pode oferecer os seguintes benefícios:
-
Redundância: se um destino falhar, os logs ainda chegarão ao outro.
-
Recuperação: reconstrua lacunas em um sistema a partir do outro.
-
Durabilidade: arquive logs no Amazon S3 para retenção de longo prazo.
-
Otimização de custos: mantenha logs recentes em um serviço de consulta rápida, como o Amazon CloudWatch Logs, com retenção mais curta, enquanto arquiva todos os logs no armazenamento do Amazon S3 de baixo custo para retenção de longo prazo.
A configuração do Fluent Bit a seguir envia logs ao Amazon CloudWatch Logs e ao Amazon S3:
[OUTPUT] Name cloudwatch_logs Match * regionus-west-2log_group_name/aws/ecs/my-applog_stream_name $(ecs_task_id) workers 2 retry_limit 15 [OUTPUT] Name s3 Match * bucketmy-logs-bucketregionus-west-2total_file_size 100M s3_key_format /fluent-bit-logs/$(ecs_task_id)/%Y%m%d/%H/%M/$UUID upload_timeout 10m # Maximum disk space for buffered data for this output storage.total_limit_size 5G
Como ambas as saídas usam o mesmo padrão Match *, todos os registros são enviados aos dois destinos de maneira independente. Durante uma interrupção em um destino, os logs continuam fluindo para o outro, enquanto as descargas com falha se acumulam no buffer do sistema de arquivos para uma nova tentativa posterior.
Usar o log com base em arquivo com o plug-in de entrada tail
Para cenários de alto throughput em que a perda de logs é uma preocupação crítica, é possível usar uma abordagem alternativa: fazer com que sua aplicação grave os logs em arquivos no disco e configurar o Fluent Bit para lê-los usando o plug-in de entrada tail. Essa abordagem ignora completamente a camada do driver de log do Docker.
O registro em log baseado em arquivo com o plug-in tail oferece os seguintes benefícios:
-
Rastreamento de deslocamento: o plug-in tail pode armazenar deslocamentos de arquivos em um arquivo de banco de dados (usando a opção
DB), proporcionando durabilidade entre reinicializações do Fluent Bit. Isso ajuda a evitar a perda de logs durante a reinicialização do contêiner. -
Processo de buffer em nível de entrada: é possível configurar limites de buffer de memória diretamente no plug-in de entrada usando
Mem_Buf_Limit, fornecendo um controle mais granular sobre o uso da memória. -
Evita a sobrecarga do Docker: os logs vão diretamente do arquivo para o Fluent Bit sem passarem pelos buffers de log do Docker.
Para usar essa abordagem, sua aplicação deve gravar logs em arquivos em vez de stdout. Tanto o contêiner da aplicação quanto o contêiner do Fluent
Bit montam um volume compartilhado onde os arquivos de log são armazenados.
O exemplo a seguir mostra uma configuração de entrada de cauda com práticas recomendadas:
[INPUT] Name tail # File path or glob pattern to tail Path/var/log/app.log# Database file for storing file offsets (enables resuming after restart) DB /var/log/flb_tail.db # when true, controls that only fluent-bit will access the database (improves performance) DB.locking true # Skip long lines instead of skipping the entire file Skip_Long_Lines On # How often (in seconds) to check for new files matching the glob pattern Refresh_Interval 10 # Extra seconds to monitor a file after rotation to account for pending flush Rotate_Wait 30 # Maximum size of the buffer for a single line Buffer_Max_Size 10MB # Initial allocation size for reading file data Buffer_Chunk_Size 1MB # Maximum memory buffer size (tail pauses when full) Mem_Buf_Limit 75MB
Ao usar o plug-in de entrada tail, considere o seguinte:
-
Implemente a alternância de logs para os logs da sua aplicação para evitar o esgotamento do disco. Monitore as métricas de volume subjacentes para avaliar a performance.
-
Considere configurações como
Ignore_Older,Read_from_Heade analisadores multilinha com base no formato do seu log.
Para mais informações, consulte Tail
Registrar em log diretamente no FireLens
Quando o driver de log awsfirelens for especificado em uma definição de tarefa, o agente do Amazon ECS injetará as seguintes variáveis de ambiente no contêiner:
FLUENT_HOST-
O endereço IP atribuído ao contêiner do FireLens.
nota
Se você estiver usando o EC2 com o modo de rede
bridge, a variável de ambienteFLUENT_HOSTno contêiner da aplicação poderá se tornar imprecisa após uma reinicialização do contêiner do roteador de log do FireLens (o contêiner com o objetofirelensConfigurationna definição de contêiner). Isso ocorre porque oFLUENT_HOSTé um endereço IP dinâmico e pode mudar após uma reinicialização. O registro em log diretamente do contêiner da aplicação para o endereço IP doFLUENT_HOSTpode começar a falhar após a alteração do endereço. Para obter mais informações sobre como reiniciar contêineres individuais, consulte Reiniciar contêineres individuais em tarefas do Amazon ECS com políticas de reinicialização de contêineres. FLUENT_PORT-
A porta em que o protocolo Fluent Forward está escutando.
Você pode usar essas variáveis de ambiente para registrar diretamente no roteador de log do Fluent
Bit a partir do código da sua aplicação usando o protocolo Fluent Forward, em vez de gravar no stdout. Essa abordagem ignora a camada do driver de log do Docker, o que oferece os seguintes benefícios:
-
Menor latência: os logs vão diretamente para o Fluent Bit sem passarem pela infraestrutura de registro em log do Docker.
-
Registro em log estruturado: envie dados de log estruturados de maneira nativa sem sobrecarga de codificação JSON.
-
Melhor controle: sua aplicação pode implementar sua própria lógica de buffer e tratamento de erros.
As seguintes bibliotecas de agente de log Fluent são compatíveis com o protocolo Fluent Forward e podem ser usadas para enviar logs diretamente para o Fluent Bit:
-
Python: fluent-logger-python
-
Java: fluent-logger-java
-
Node.js: fluent-logger-node
-
Ruby: fluent-logger-ruby
Configurar o limite de buffer do Docker
Ao criar uma definição de tarefa, você pode especificar o número de linhas de log que são armazenadas em buffer na memória especificando o valor em log-driver-buffer-limit. Isso controla o buffer entre o Docker e o Fluent Bit. Para obter mais informações, consulte Driver de registro do Fluentd
Use essa opção quando houver throughput alto, porque o Docker pode ficar sem memória buffer e descartar mensagens de buffer para que ele possa adicionar novas mensagens.
Considere o seguinte ao usar essa opção:
-
Essa opção é compatível com o tipo EC2 e Fargate com a versão da plataforma
1.4.0ou posterior. -
A opção só é válida quando
logDriverestiver definido comoawsfirelens. -
O limite de buffer padrão é de
1048576linhas de log. -
O limite de buffer deve ser maior ou igual a
0ou menor que as linhas de log536870912. -
A quantidade máxima de memória usada para esse buffer é o produto do tamanho de cada linha de log pelo tamanho do buffer. Por exemplo, se as linhas de log da aplicação tivessem em média
2KiB, um limite de buffer de 4096 usaria no máximo8MiB. A quantidade total de memória alocada no nível da tarefa deve ser maior que a quantidade de memória alocada para todos os contêineres, mais o limite de buffer da memória.
A seguinte definição de tarefa mostra como configurar log-driver-buffer-limit:
{ "containerDefinitions": [ { "name": "my_service_log_router", "image": "public.ecr.aws/aws-observability/aws-for-fluent-bit:3", "cpu": 0, "memoryReservation": 51, "essential": true, "firelensConfiguration": { "type": "fluentbit" } }, { "essential": true, "image": "public.ecr.aws/docker/library/httpd:latest", "name": "app", "logConfiguration": { "logDriver": "awsfirelens", "options": { "Name": "firehose", "region": "us-west-2", "delivery_stream": "my-stream", "log-driver-buffer-limit": "52428800" } }, "dependsOn": [ { "containerName": "my_service_log_router", "condition": "START" } ], "memoryReservation": 100 } ] }