

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Tutorial: Criação de um fluxo do Firehose a partir do console
<a name="basic-create"></a>

Você pode usar o Console de gerenciamento da AWS ou um AWS SDK para criar um stream do Firehose para o destino escolhido. 

Você pode atualizar a configuração do seu stream do Firehose a qualquer momento após sua criação, usando o console Amazon Data Firehose ou. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Seu fluxo do Firehose permanecerá no estado `Active` enquanto a configuração for atualizada, e será possível continuar enviando dados. A configuração atualizada normalmente entra em vigor em poucos minutos. O número da versão de um fluxo do Firehose será aumentado em `1` depois que você atualizar a configuração. Ele é refletido no nome do objeto do Amazon S3 entregue. Para obter mais informações, consulte [Configuração de formato de nome de objeto do Amazon S3](s3-object-name.md).

Execute as etapas nos tópicos a seguir para criar um fluxo do Firehose.

**Topics**
+ [

# Escolha da fonte e do destino para seu fluxo do Firehose
](create-name.md)
+ [

# Definição de configurações da fonte
](configure-source.md)
+ [

# (Opcional) Configuração de transformação de registro e conversão de formato
](create-transform.md)
+ [

# Definição de configurações do destino
](create-destination.md)
+ [

# Definição das configurações de backup
](create-configure-backup.md)
+ [

# Definir as configurações avançadas
](create-configure-advanced.md)

# Escolha da fonte e do destino para seu fluxo do Firehose
<a name="create-name"></a>

****

1. Abra o console do Firehose em [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/).

1. Escolha **Criar fluxo do Firehose**. 

1. Na página **Criar fluxo do Firehose**, escolha uma fonte para seu fluxo do Firehose em uma das opções a seguir.
   + **Direct PUT**: escolha esta opção para criar um fluxo do Firehose no qual as aplicações de produção gravem diretamente. Para obter uma lista de serviços e agentes da AWS e dos serviços de código aberto integrados com o Direct PUT no Amazon Data Firehose. Essa lista não é completa e pode haver serviços adicionais que podem ser usados para enviar dados diretamente para o Firehose.
     + AWS SDK
     + AWS Lambda
     + AWS CloudWatch Logs
     + AWS CloudWatch Events
     + AWS Cloud Metric Streams
     + AWS IoT
     + AWS Eventbridge
     + Amazon Simple Email Service
     + Amazon SNS
     + Logs de ACL da Web do AWS WAF
     + Amazon API Gateway: logs de acesso
     + Amazon Pinpoint
     + Logs do agente do Amazon MSK
     + Logs de consultas do Amazon Route 53 Resolver
     + Logs de alertas do AWS Network Firewall
     + Logs de fluxos do AWS Network Firewall
     + SLOWLOG do Amazon ElastiCache Redis
     + Kinesis Agent (linux)
     + Kinesis Tap (windows)
     + Fluentbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data Streams**: escolha esta opção para configurar um fluxo do Firehose que use um fluxo de dados do Kinesis como fonte de dados. Você então poderá usar o Firehose para ler dados com facilidade de um fluxo de dados do Kinesis existente e carregá-lo nos destinos. Para obter mais informações sobre o uso do Kinesis Data Streams como fonte de dados, consulte [Envio de dados a um fluxo do Firehose usando o Kinesis Data Streams](writing-with-kinesis-streams.md).
   + **Amazon MSK**: escolha esta opção para configurar um fluxo do Firehose que use o Amazon MSK como fonte de dados. Em seguida, é possível usar o Firehose para ler dados facilmente de um cluster do Amazon MSK existente e carregá-los nos buckets do S3 especificados. Para obter mais informações, consulte [Envio de dados a um fluxo do Firehose com o Amazon MSK](writing-with-msk.md).

1. Escolha um destino para seu fluxo do Firehose a partir de um dos destinos a seguir com suporte no Firehose.
   + Amazon OpenSearch Service
   + Amazon OpenSearch de tecnologia sem servidor
   + Amazon Redshift
   + Amazon S3
   + Tabelas do Apache Iceberg
   + Coralogix
   + Datadog
   + Dynatrace
   + Elastic
   + Endpoint de HTTP
   + Honeycomb
   + Logic Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. Em **nome do fluxo do Firehose**, é possível usar o nome que o console gerar para você ou adicionar um fluxo do Firehose de sua escolha.

# Definição de configurações da fonte
<a name="configure-source"></a>

É possível definir as configurações da fonte com base na fonte escolhida para enviar informações para um fluxo do Firehose a partir do console. É possível definir as configurações da fonte do Amazon MSK e do Amazon Kinesis Data Streams como fonte. Não há configurações de fonte disponíveis para o Direct PUT como fonte.

# Definição de configurações de fonte para o Amazon MSK
<a name="writing-with-msk"></a>

Ao escolher o Amazon MSK para enviar informações para um fluxo do Firehose, será possível escolher entre clusters provisionados pelo MSK e clusters do MSK com tecnologia sem servidor. Em seguida, é possível usar o Firehose para ler dados facilmente de um determinado cluster e tópico Amazon MSK e carregá-los no destino do S3 especificado.

Na seção **Configurações da fonte** da página, forneça valores para os campos a seguir.

****Conectividade com o cluster do Amazon MSK****  
Escolha a opção **Agentes privados de bootstrap** (recomendado) ou **Agentes públicos de bootstrap** de acordo com a configuração do cluster. Os agentes de bootstrap são o que o cliente Apache Kafka usa como ponto de partida para se conectar ao cluster. Os agentes públicos de bootstrap destinam-se ao acesso do público externo à AWS, enquanto os agentes privados de bootstrap destinam-se ao acesso de dentro da AWS. Para obter mais informações sobre o Amazon MSK, consulte [Amazon Managed Streaming for Apache Kafka](https://docs.aws.amazon.com/msk/latest/developerguide/what-is-msk.html).   
Para se conectar a um cluster do Amazon MSK provisionado ou sem servidor por meio de agentes privados de bootstrap, o cluster deve atender a todos os requisitos a seguir.  
+ O cluster deve estar ativo.
+ O cluster deve ter o IAM como um dos métodos de controle de acesso.
+ A conectividade privada de várias VPCs deve estar habilitada para o método de controle de acesso do IAM.
+ Você deve adicionar a esse cluster uma política baseada em recursos que conceda à entidade principal do serviço do Firehose permissão de invocar a operação de API `CreateVpcConnection` do Amazon MSK.
Para se conectar a um cluster do Amazon MSK provisionado por meio de agentes de bootstrap públicos, o cluster deve atender a todos os requisitos a seguir.  
+ O cluster deve estar ativo.
+ O cluster deve ter o IAM como um dos métodos de controle de acesso.
+ O cluster deve ser acessível ao público.

****Conta do cluster do MSK****  
É possível escolher a conta em que o cluster do Amazon MSK reside. Ela pode ser uma das opções a seguir.  
+ **Conta atual**: permite que você consuma dados de um cluster MSK na conta atual da AWS. Para isso, você deve especificar o ARN do cluster do Amazon MSK no qual o fluxo do Firehose lerá os dados.
+ **Entre contas**: permite que você consuma dados de um cluster MSK em outra conta da AWS. Para obter mais informações, consulte [Entrega entre contas do Amazon MSK](controlling-access.md#cross-account-delivery-msk).

****Tópico****  
Especifique o tópico do Apache Kafka do qual você deseja que fluxo do Firehose ingira os dados. Você não pode atualizar este tópico após a conclusão da criação do fluxo do Firehose.  
O Firehose descompacta automaticamente as mensagens do Apache Kafka.

# Definição de configurações de fonte para o Amazon Kinesis Data Streams
<a name="writing-with-kinesis-streams"></a>

Defina as configurações de fonte do Amazon Kinesis Data Streams para enviar informações para um fluxo do Firehose da forma a seguir.

**Importante**  
Ao usar a Kinesis Producer Library (KPL) para gravar dados em um fluxo de dados do Kinesis, é possível usar agregação para combinar os registros gravados. Ao usar esse fluxo de dados como fonte para seu fluxo do Firehose, o Amazon Data Firehose desagregará os registros antes de entregá-los ao destino. Se você configurar seu fluxo do Firehose transformar os dados, o Amazon Data Firehose desagregará os registros antes de entregá-los ao AWS Lambda. Para obter mais informações, consulte [Developing Amazon Kinesis Data Streams Producers Using the Kinesis Producer Library](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html) e [Aggregation](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation).

Em **Configurações de fonte**, escolha um fluxo existente na lista **Fluxo de dados do Kinesis** ou insira um ARN de fluxo de dados no formato `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]`.

Se não houver um fluxo de dados existente, escolha **Criar** para criar um novo no console do Amazon Kinesis Data Streams. Talvez você precise de um perfil do IAM que tenha a permissão necessária no fluxo do Kinesis. Para obter mais informações, consulte [Concessão ao Firehose de acesso a um destino do Amazon S3](controlling-access.md#using-iam-s3). Após criar um novo ´fluxo, selecione o ícone de atualização para atualizar a lista **Fluxo do Kinesis**. Se você tiver um grande número de fluxos, filtre a lista com a opção **Filter by name**. 

**nota**  
Quando um fluxo de dados do Kinesis é configurado como a fonte de um fluxo do Firehose, as operações `PutRecord` e `PutRecordBatch` do Amazon Data Firehose são desabilitadas. Para adicionar dados ao seu fluxo do Firehose nesse caso, use as operações `PutRecord` e `PutRecords` do Kinesis Data Streams.

O Amazon Data Firehose começa a ler os dados a partir da posição `LATEST` do seu fluxo do Kinesis. Para obter mais informações sobre as posições do Kinesis Data Streams, consulte [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html).

 O amazon Data Firehose chama a operação [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html) do Kinesis Data Streams uma vez por segundo para cada fragmento. Entretanto, quando o backup completo está ativado, o Firehose chama a operação `GetRecords` do Kinesis Data Streams duas vezes por segundo para cada fragmento, uma para o destino de entrega principal e outra para o backup completo.

Mais de um fluxo do Firehose podem ler o mesmo fluxo do Kinesis. Outras aplicações do Kinesis (consumidores) também podem ler o mesmo fluxo. Cada chamada de qualquer fluxo do Firehose ou de outra aplicação consumidora conta em relação ao limite total do controle de utilização para o fragmento. Para evitar a limitação, planeje suas aplicações cuidadosamente. Para obter mais informações sobre os limites do Kinesis Data Streams, consulte [Limites do Amazon Kinesis Data Streams](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html). 

Vá para a próxima etapa para configurar a transformação do registro e a conversão de formato.

# (Opcional) Configuração de transformação de registro e conversão de formato
<a name="create-transform"></a>

Configure o Amazon Data Firehose para transformar e converter seus dados de registros.

## Se você escolher o Amazon MSK como fonte para seu fluxo do Firehose.
<a name="create-transform-msk"></a>

**Na seção **Transformar registros de origem com AWS Lambda**, forneça valores para o campo a seguir.**

1.   
**Transformação de dados**  
Para criar um fluxo do Firehose que não transforme os dados recebidos, não marque a caixa de seleção **Habilitar transformação de dados**.   
Para especificar uma função do Lambda para o Firehose invocar e usar para transformar os dados recebidos antes de entregá-los, marque a caixa de seleção **Habilitar transformação de dados**. É possível configurar uma nova função do Lambda usando um dos esquemas do Lambda ou selecionar uma função do Lambda já existente. Sua função do Lambda deve conter o modelo de status exigido pelo Firehose. Para obter mais informações, consulte [Transformação de dados da fonte no Amazon Data Firehose](data-transformation.md).

1. Na seção **Convert record format (Converter formato do registro)**, forneça valores para o seguinte campo:  
**Record format conversion (Conversão do formato do registro)**  
Para criar um fluxo do Firehose que não converta o formato dos registros dos dados de entrada, selecione **Desabilitado**.   
Para converter o formato dos registros de entrada, selecione **Enabled (Habilitado)** e especifique o formato de saída que deseja. Você precisa especificar uma AWS Glue tabela que contenha o esquema que você deseja que o Firehose use para converter seu formato de registro. Para obter mais informações, consulte [Conversão do formato de dados de entrada no Amazon Data Firehose](record-format-conversion.md).  
Para obter um exemplo de como configurar a conversão do formato de registro com CloudFormation, consulte [AWS::KinesisFirehose:: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

## Se você escolher o Amazon Kinesis Data Streams ou Direct PUT como origem para o fluxo do Firehose:
<a name="create-transform-directput"></a>

 

**Na seção **Configurações da fonte**, forneça os campos a seguir.**

1. Em **Transformar registros**, escolha uma das opções a seguir:

   1. **Se seu destino for Amazon S3 ou Splunk, na seção **Descompactar registros de origem CloudWatch Amazon** Logs, escolha Ativar descompressão.**

   1. Na seção **Transformar registros de origem com AWS Lambda**, forneça valores para o seguinte campo:  
**Transformação de dados**  
Para criar um fluxo do Firehose que não transforme os dados recebidos, não marque a caixa de seleção **Habilitar transformação de dados**.   
Para especificar uma função do Lambda para o Amazon Data Firehose invocar e usar para transformar os dados recebidos antes de entregá-los, marque a caixa de seleção **Habilitar transformação de dados**. É possível configurar uma nova função do Lambda usando um dos esquemas do Lambda ou selecionar uma função do Lambda já existente. A função do Lambda deve conter o modelo de status exigido pelo Amazon Data Firehose. Para obter mais informações, consulte [Transformação de dados da fonte no Amazon Data Firehose](data-transformation.md).

1. Na seção **Convert record format (Converter formato do registro)**, forneça valores para o seguinte campo:  
**Record format conversion (Conversão do formato do registro)**  
Para criar um fluxo do Firehose que não converta o formato dos registros dos dados de entrada, selecione **Desabilitado**.   
Para converter o formato dos registros de entrada, selecione **Enabled (Habilitado)** e especifique o formato de saída que deseja. Você precisa especificar uma AWS Glue tabela que contenha o esquema que você deseja que o Amazon Data Firehose use para converter seu formato de registro. Para obter mais informações, consulte [Conversão do formato de dados de entrada no Amazon Data Firehose](record-format-conversion.md).  
Para obter um exemplo de como configurar a conversão do formato de registro com CloudFormation, consulte [AWS::KinesisFirehose:: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

# Definição de configurações do destino
<a name="create-destination"></a>

Esta seção descreve as configurações que você deve definir para seu fluxo do Firehose com base no destino selecionado. 

**Topics**
+ [

## Definições de configurações de destino para o Amazon S3
](#create-destination-s3)
+ [

## Definições de configurações de destino para tabelas do Apache Iceberg
](#create-destination-iceberg)
+ [

## Definições de configurações de destino para o Amazon Redshift
](#create-destination-redshift)
+ [

## Definir configurações de destino para o OpenSearch Serviço
](#create-destination-elasticsearch)
+ [

## Definir configurações de destino para OpenSearch Serverless
](#create-destination-opensearch-serverless)
+ [

## Definição das configurações de destino para Endpoint de HTTP
](#create-destination-http)
+ [

## Definições de configurações de destino para o Datadog
](#create-destination-datadog)
+ [

## Definições de configurações de destino para o Honeycomb
](#create-destination-honeycomb)
+ [

## Definição de as configurações de destino para o Coralogix
](#create-destination-coralogix)
+ [

## Definições de configurações de destino para o Dynatrace
](#create-destination-dynatrace)
+ [

## Defina as configurações de destino para LogicMonitor
](#create-destination-logicmonitor)
+ [

## Definição das configurações de destino para o Logz.io
](#create-destination-logz)
+ [

## Definições de configurações de destino para o MongoDB Atlas
](#create-destination-mongodb)
+ [

## Definições de configurações de destino para o New Relic
](#create-destination-new-relic)
+ [

## Definição de configurações de destino para o Snowflake
](#create-destination-snowflake)
+ [

## Definição de configurações de destino para o Splunk
](#create-destination-splunk)
+ [

## Definição de configurações de destino para a Splunk Observability Cloud
](#create-destination-splunk-cloud)
+ [

## Definições de configurações de destino para o Sumo Logic
](#create-destination-sumo-logic)
+ [

## Definição de configurações de destino para o Elastic
](#create-destination-elastic)

## Definições de configurações de destino para o Amazon S3
<a name="create-destination-s3"></a>

Você deve especificar as configurações a seguir para usar o Amazon S3 como destino para seu fluxo do Firehose.

****
+ Insira valores para os seguintes campos.  
 **Bucket do S3**   
Escolha um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. É possível criar um novo bucket do S3 ou escolher um já existente.  
 **Novo delimitador de linha**   
É possível configurar seu fluxo do Firehose para adicionar um novo delimitador de linha entre os registros nos objetos que são entregues ao Amazon S3. Para fazer isso, escolha **Habilitado**. Para não adicionar um novo delimitador de linha entre registros nos objetos que são entregues ao Amazon S3, escolha **Desabilitado**. Se você planeja usar o Athena para consultar objetos do S3 com registros agregados, habilite essa opção.  
 **Particionamento dinâmico**   
Escolha **Habilitado** para habilitar e configurar o particionamento dinâmico.   
 **Desagregação de vários registros**   
Esse é o processo de análise de todos os registros no fluxo do Firehose, com sua separação baseada em JSON válido ou no delimitador de nova linha especificado.  
Se você agregar vários eventos, registros ou registros em uma única PutRecord chamada de PutRecordBatch API, ainda poderá ativar e configurar o particionamento dinâmico. Com dados agregados, quando você habilita o particionamento dinâmico, o Amazon Data Firehose analisa os registros e procura vários objetos JSON válidos em cada chamada de API. Quando o fluxo do Firehose é configurado com o Kinesis Data Stream como fonte, você também pode usar a agregação integrada na Kinesis Producer Library (KPL). A funcionalidade de partição de dados é executada após a desagregação dos dados. Portanto, cada registro em cada chamada de API pode ser entregue a diferentes prefixos do Amazon S3. Você também pode aproveitar a integração da função do Lambda para realizar qualquer outra desagregação ou qualquer outra transformação antes da funcionalidade de particionamento de dados.  
Se os dados estiverem agregados, o particionamento dinâmico só poderá ser aplicado após a desagregação de dados ser realizada. Portanto, se você habilitar o particionamento dinâmico para seus dados agregados, deverá escolher **Habilitado** para habilitar a desagregação de vários registros. 
O fluxo do Firehose realiza as etapas de processamento a seguir, nesta ordem: desagregação de KPL (protobuf), desagregação de JSON ou delimitador, processamento de Lambda, particionamento de dados, conversão de formato dos dados e entrega ao Amazon S3.  
 **Tipo de desagregação de vários registros**   
Se você habilitou a desagregação de vários registros, deverá especificar o método a ser usado pelo Firehose para desagregar os dados. Use o menu suspenso para escolher **JSON** ou **Delimitado.**   
 **Análise em linha**   
Esse é um dos mecanismos com suporte para o particionamento dinâmico dos dados vinculados ao Amazon S3. Para usar a análise em linha para fazer o particionamento dinâmico de dados, você deve especificar os parâmetros de registro de dados a serem usados como chaves de particionamento e fornecer um valor para cada chave de particionamento especificada. Escolha **Habilitado** para habilitar e configurar o particionamento em linha.  
Se você especificou uma função AWS Lambda nas etapas acima para transformar seus registros de origem, poderá usar essa função para particionar dinamicamente seus dados vinculados ao S3 e ainda poderá criar suas chaves de particionamento com análise embutida. Com o particionamento dinâmico, você pode usar a análise embutida ou a função AWS Lambda para criar suas chaves de particionamento. Ou você pode usar a análise embutida e a função AWS Lambda ao mesmo tempo para criar suas chaves de particionamento.   
 **Chaves de particionamento dinâmico**   
É possível usar os campos **Chave** e **Valor** para especificar os parâmetros de registro de dados a serem usados como chaves de particionamento dinâmico e consultas jq para gerar os valores das chaves de particionamento dinâmico. O Firehose oferece suporte somente ao jq 1.6. É possível especificar até 50 chaves de particionamento dinâmico. Você deve inserir expressões jq válidas para os valores de chave de particionamento dinâmico para configurar com êxito o particionamento dinâmico para o fluxo do Firehose.  
 **Prefixo de bucket do S3**   
Ao habilitar e configurar o particionamento dinâmico, você deve especificar os prefixos de bucket do S3 para os quais o Amazon Data Firehose deverá entregar os dados particionados.  
Para que o particionamento dinâmico seja configurado corretamente, o número dos prefixos de bucket do S3 deve ser idêntico ao número de chaves de particionamento especificadas.  
 Você pode particionar seus dados de origem com análise embutida ou com a função Lambda especificada AWS . Se você especificou uma função AWS Lambda para criar chaves de particionamento para seus dados de origem, deverá digitar manualmente o (s) valor (es) do prefixo do bucket do S3 usando o seguinte formato: "lambda:keyID”. partitionKeyFrom Se você estiver usando análise embutida para especificar as chaves de particionamento para seus dados de origem, você pode digitar manualmente os valores de visualização do bucket do S3 usando o seguinte formato: “partitionKeyFromquery:keyID” ou escolher o botão **Aplicar chaves de particionamento dinâmico para usar seus pares de particionamento dinâmico** para gerar automaticamente seus prefixos de bucket do S3. key/value Ao particionar seus dados com análise embutida ou AWS Lambda, você também pode usar os seguintes formulários de expressão no prefixo do bucket do S3:\$1 \$1namespace:value\$1, em que o namespace pode ser Query ou Lambda. partitionKeyFrom partitionKeyFrom   
 **Fuso horário do bucket do S3 e do prefixo de saída de erro do S3**   
Escolha um fuso horário que você deseja usar para data e hora em [prefixos personalizados para objetos do Amazon S3](s3-prefixes.md). Por padrão, o Firehose adiciona um prefixo de hora em UTC. É possível alterar o fuso horário usado nos prefixos do S3 se quiser usar um fuso horário diferente.   
 **Sugestões de armazenamento em buffer**   
O Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.   
 **Compactação do S3**   
Escolha a compactação de dados GZIP, Snappy, Zip ou Snappy compatível com Hadoop ou nenhuma compactação de dados. As compactações Snappy, Zip e Snappy compatível com Hadoop não estão disponíveis para fluxos do Firehose com o Amazon Redshift como destino.   
**Formato de extensão de arquivo do S3 (opcional)**  
Especifique um formato de extensão de arquivo para objetos entregues ao bucket de destino do Amazon S3. Se você habilitar esse atributo, a extensão de arquivo especificada substituirá as extensões de arquivo padrão anexadas pelos atributos de conversão de formato de dados ou compactação do S3, como .parquet ou .gz. Verifique se você configurou a extensão de arquivo correta ao usar esse atributo com a conversão de formato de dados ou a compactação do S3. A extensão do arquivo deve começar com um ponto (.) e pode conter os caracteres permitidos: 0-9a-z\$1-\$1.\$1' (). A extensão do arquivo não pode exceder 128 caracteres.  
**Criptografia do S3**  
O Firehose oferece suporte à criptografia do lado do servidor Amazon S3 AWS Key Management Service com (SSE-KMS) para criptografar dados entregues no Amazon S3. Você pode optar por usar o tipo de criptografia padrão especificado no bucket S3 de destino ou criptografar com uma chave da lista de AWS KMS chaves que você possui. Se você criptografar os dados com AWS KMS chaves, poderá usar a chave AWS gerenciada padrão (aws/s3) ou uma chave gerenciada pelo cliente. Para obter mais informações, consulte [Proteção de dados usando criptografia do lado do servidor com chaves AWS gerenciadas pelo KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Definições de configurações de destino para tabelas do Apache Iceberg
<a name="create-destination-iceberg"></a>

O Firehose oferece suporte ao Apache Iceberg Tables como destino em todas as regiões, exceto [Regiões da AWS](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html?icmpid=docs_homepage_addtlrcs#region)China AWS GovCloud (US) Regions, Ásia-Pacífico (Taipei), Ásia-Pacífico (Malásia), Ásia-Pacífico (Nova Zelândia) e México (Central).

Para obter mais informações sobre as tabelas do Apache Iceberg como seu destino, consulte [Entrega de dados às tabelas do Apache Iceberg com o Amazon Data Firehose](apache-iceberg-destination.md).

## Definições de configurações de destino para o Amazon Redshift
<a name="create-destination-redshift"></a>

Esta seção descreve as configurações para usar o Amazon Redshift como destino do seu fluxo do Firehose.

Escolha um dos procedimentos a seguir dependendo de você ter um cluster provisionado pelo Amazon Redshift ou um grupo de trabalho do Amazon Redshift Sem Servidor.
+ [Cluster provisionado do Amazon Redshift](#create-destination-redshift-provisioned)
+ [Definições de configurações de destino para grupo de trabalho do Amazon Redshift sem servidor](#create-destination-redshift-serverless)
**nota**  
O Firehose não pode gravar em clusters do Amazon Redshift que usem encaminhamento de VPC aprimorado.

### Cluster provisionado do Amazon Redshift
<a name="create-destination-redshift-provisioned"></a>

Esta seção descreve as configurações para usar o cluster provisionado do Amazon Redshift como destino do seu fluxo do Firehose.

****
+ Insira valores para os seguintes campos:  
 **Cluster**   
O cluster do Amazon Redshift no qual os dados do bucket do S3 são copiados. Configure o cluster do Amazon Redshift para que esteja acessível publicamente e desbloqueie os endereços IP do Amazon Data Firehose IP. Para obter mais informações, consulte [Conceder ao Firehose acesso a um destino do Amazon Redshift](controlling-access.md#using-iam-rs).  
 **Autenticação**   
Você pode optar por inserir username/password diretamente ou recuperar o segredo AWS Secrets Manager para acessar o cluster do Amazon Redshift.  
  + **Nome do usuário**

    Especifique um usuário do Amazon Redshift que tenha permissões para acessar o cluster do Amazon Redshift. Esse usuário deve ter a permissão `INSERT` do Amazon Redshift para copiar dados do bucket do S3 no cluster do Amazon Redshift.
  + **Senha** 

    Especifique a senha do usuário com permissões para acessar o cluster.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha as credenciais para o cluster do Amazon Redshift. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager para suas credenciais do Amazon Redshift. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Banco de dados**   
O banco de dados do Amazon Redshift no qual os dados são copiados.  
 **Tabela**   
A tabela do Amazon Redshift no qual os dados são copiados.  
 **Columns**   
(Opcional) As colunas específicas da tabela na qual os dados serão copiados. Use essa opção se o número de colunas definidas nos objetos do Amazon S3 for menor que o número de colunas na tabela do Amazon Redshift.   
 **Destino intermediário do S3**   <a name="redshift-s3-bucket"></a>
O Firehose entrega os dados ao bucket do S3 primeiro e, em seguida, emite um comando **COPY** do Amazon Redshift para carregar os dados no cluster do Amazon Redshift. Especifique um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. Crie um novo bucket do S3 ou escolha um bucket já existente do qual você seja proprietário.  
O Firehose não exclui os dados do bucket do S3 depois de carregá-los no cluster do Amazon Redshift. É possível gerenciar os dados no bucket do S3 usando uma configuração de ciclo de vida. Para obter mais informações, consulte [Gerenciamento do ciclo de vida de objetos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) no *Guia do usuário do Amazon Simple Storage Service*.  
 **Prefixo de bucket intermediário do S3**   
(Opcional) Para usar o prefixo padrão para objetos do Amazon S3, deixe esta opção em branco. O Firehose usa automaticamente um prefixo no formato de hora UTC "`YYYY/MM/dd/HH`" para objetos entregues ao Amazon S3. É possível adicionar ao início deste prefixo. Para obter mais informações, consulte [Configuração de formato de nome de objeto do Amazon S3](s3-object-name.md).  
 **Opções do COPY**   <a name="redshift-copy-parameters"></a>
Parâmetros que podem ser especificados no comando **COPY** do Amazon Redshift. Eles podem ser necessários para a configuração. Por exemplo, "`GZIP`" é necessário se a compactação de dados do Amazon S3 estiver ativada. “`REGION`" é necessário se seu bucket do S3 não estiver na mesma AWS região do seu cluster do Amazon Redshift. Para obter mais informações, consulte [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) no *Guia do desenvolvedor de banco de dados do Amazon Redshift*.  
 **COPY command**   <a name="redshift-copy-command"></a>
O comando **COPY** do Amazon Redshift. Para obter mais informações, consulte [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) no *Guia do desenvolvedor de banco de dados do Amazon Redshift*.  
 **Período de novas tentativas**   
Período (0 a 7.200 segundos) para o Firehose fazer nova tentativa se o comando **COPY** dos dados no cluster do Amazon Redshift falhar. O Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Firehose não fará novas tentativas após uma falha no comando **COPY**.  
 **Sugestões de armazenamento em buffer**   
O Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.  
 **Compactação do S3**   
Escolha a compactação de dados GZIP, Snappy, Zip ou Snappy compatível com Hadoop ou nenhuma compactação de dados. As compactações Snappy, Zip e Snappy compatível com Hadoop não estão disponíveis para fluxos do Firehose com o Amazon Redshift como destino.   
**Formato de extensão de arquivo do S3 (opcional)**  
Formato de extensão de arquivo S3 (opcional): especifique um formato de extensão de arquivo para objetos entregues ao bucket de destino do Amazon S3. Se você habilitar esse atributo, a extensão de arquivo especificada substituirá as extensões de arquivo padrão anexadas pelos atributos de conversão de formato de dados ou compactação do S3, como .parquet ou .gz. Verifique se você configurou a extensão de arquivo correta ao usar esse atributo com a conversão de formato de dados ou a compactação do S3. A extensão do arquivo deve começar com um ponto (.) e pode conter os caracteres permitidos: 0-9a-z\$1-\$1.\$1' (). A extensão do arquivo não pode exceder 128 caracteres.  
**Criptografia do S3**  
O Firehose oferece suporte à criptografia do lado do servidor Amazon S3 AWS Key Management Service com (SSE-KMS) para criptografar dados entregues no Amazon S3. Você pode optar por usar o tipo de criptografia padrão especificado no bucket S3 de destino ou criptografar com uma chave da lista de AWS KMS chaves que você possui. Se você criptografar os dados com AWS KMS chaves, poderá usar a chave AWS gerenciada padrão (aws/s3) ou uma chave gerenciada pelo cliente. Para obter mais informações, consulte [Proteção de dados usando criptografia do lado do servidor com chaves AWS gerenciadas pelo KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

### Definições de configurações de destino para grupo de trabalho do Amazon Redshift sem servidor
<a name="create-destination-redshift-serverless"></a>

Esta seção descreve as configurações para usar o grupo de trabalho do Amazon Redshift sem servidor como destino do fluxo do Firehose.

****
+ Insira valores para os seguintes campos:  
 **Workgroup name (Nome do grupo de trabalho)**   
O grupo de trabalho do Amazon Redshift Sem Servidor ou um grupo de trabalho do Amazon Redshift no qual os dados do bucket do S3 são copiados. Configure o grupo de trabalho do Amazon Redshift sem servidor para ser acessível publicamente e desbloquear os endereços IP do Firehose. Para obter mais informações, consulte a seção Conectar-se a uma instância do Amazon Redshift Sem Servidor acessível publicamente em [Conectar-se ao Amazon Redshift Sem Servidor](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-connecting.html) e também [Conceder ao Firehose acesso a um destino do Amazon Redshift](controlling-access.md#using-iam-rs).  
 **Autenticação**   
Você pode optar por inserir username/password diretamente ou recuperar o segredo AWS Secrets Manager para acessar o grupo de trabalho Amazon Redshift Serverless.  
  + **Nome do usuário**

    Especifique um usuário do Amazon Redshift com permissões para acessar o grupo de trabalho do Amazon Redshift sem servidor. Esse usuário deve ter a permissão `INSERT` do Amazon Redshift para copiar dados do bucket do S3 para o grupo de trabalho do Amazon Redshift Sem Servidor.
  + **Senha** 

    Especifique a senha do usuário com permissões para acessar o grupo de trabalho do Amazon Redshift sem servidor.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha as credenciais do grupo de trabalho Amazon Redshift Serverless. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager para suas credenciais do Amazon Redshift. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Banco de dados**   
O banco de dados do Amazon Redshift no qual os dados são copiados.  
 **Tabela**   
A tabela do Amazon Redshift no qual os dados são copiados.  
 **Columns**   
(Opcional) As colunas específicas da tabela na qual os dados serão copiados. Use essa opção se o número de colunas definidas nos objetos do Amazon S3 for menor que o número de colunas na tabela do Amazon Redshift.   
 **Destino intermediário do S3**   <a name="redshift-s3-bucket"></a>
O Amazon Data Firehose entrega os dados ao bucket do S3 primeiro e, em seguida, emite um comando **COPY** do Amazon Redshift para carregar os dados no grupo de trabalho do Amazon Redshift sem servidor. Especifique um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. Crie um novo bucket do S3 ou escolha um bucket já existente do qual você seja proprietário.  
O Firehose não exclui os dados do bucket do S3 depois de carregá-los no grupo de trabalho do Amazon Redshift sem servidor. É possível gerenciar os dados no bucket do S3 usando uma configuração de ciclo de vida. Para obter mais informações, consulte [Gerenciamento do ciclo de vida de objetos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) no *Guia do usuário do Amazon Simple Storage Service*.  
 **Prefixo de bucket intermediário do S3**   
(Opcional) Para usar o prefixo padrão para objetos do Amazon S3, deixe esta opção em branco. O Firehose usa automaticamente um prefixo no formato de hora UTC "`YYYY/MM/dd/HH`" para objetos entregues ao Amazon S3. É possível adicionar ao início deste prefixo. Para obter mais informações, consulte [Configuração de formato de nome de objeto do Amazon S3](s3-object-name.md).  
 **Opções do COPY**   <a name="redshift-copy-parameters"></a>
Parâmetros que podem ser especificados no comando **COPY** do Amazon Redshift. Eles podem ser necessários para a configuração. Por exemplo, "`GZIP`" é necessário se a compactação de dados do Amazon S3 estiver ativada. “`REGION`" é obrigatório se seu bucket do S3 não estiver na mesma AWS região do seu grupo de trabalho Amazon Redshift Serverless. Para obter mais informações, consulte [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) no *Guia do desenvolvedor de banco de dados do Amazon Redshift*.  
 **COPY command**   <a name="redshift-copy-command"></a>
O comando **COPY** do Amazon Redshift. Para obter mais informações, consulte [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) no *Guia do desenvolvedor de banco de dados do Amazon Redshift*.  
 **Período de novas tentativas**   
Período (0 a 7.200 segundos) para o Firehose fazer nova tentativa se o comando **COPY** dos dados no grupo de trabalho do Amazon Redshift sem servidor falhar. O Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Firehose não fará novas tentativas após uma falha no comando **COPY**.  
 **Sugestões de armazenamento em buffer**   
O Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.  
 **Compactação do S3**   
Escolha a compactação de dados GZIP, Snappy, Zip ou Snappy compatível com Hadoop ou nenhuma compactação de dados. As compactações Snappy, Zip e Snappy compatível com Hadoop não estão disponíveis para fluxos do Firehose com o Amazon Redshift como destino.   
**Formato de extensão de arquivo do S3 (opcional)**  
Formato de extensão de arquivo S3 (opcional): especifique um formato de extensão de arquivo para objetos entregues ao bucket de destino do Amazon S3. Se você habilitar esse atributo, a extensão de arquivo especificada substituirá as extensões de arquivo padrão anexadas pelos atributos de conversão de formato de dados ou compactação do S3, como .parquet ou .gz. Verifique se você configurou a extensão de arquivo correta ao usar esse atributo com a conversão de formato de dados ou a compactação do S3. A extensão do arquivo deve começar com um ponto (.) e pode conter os caracteres permitidos: 0-9a-z\$1-\$1.\$1' (). A extensão do arquivo não pode exceder 128 caracteres.  
**Criptografia do S3**  
O Firehose oferece suporte à criptografia do lado do servidor Amazon S3 AWS Key Management Service com (SSE-KMS) para criptografar dados entregues no Amazon S3. Você pode optar por usar o tipo de criptografia padrão especificado no bucket S3 de destino ou criptografar com uma chave da lista de AWS KMS chaves que você possui. Se você criptografar os dados com AWS KMS chaves, poderá usar a chave AWS gerenciada padrão (aws/s3) ou uma chave gerenciada pelo cliente. Para obter mais informações, consulte [Proteção de dados usando criptografia do lado do servidor com chaves AWS gerenciadas pelo KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Definir configurações de destino para o OpenSearch Serviço
<a name="create-destination-elasticsearch"></a>

O Firehose oferece suporte ao Elasticsearch versões 1.5, 2.3, 5.1, 5.3, 5.5, 5.6, bem como todas as versões 6.\$1, 7.\$1 e 8.\$1. O Firehose é compatível com o Amazon OpenSearch Service 2.x e 3.x.

Esta seção descreve as opções para usar o OpenSearch Serviço em seu destino.

****
+ Insira valores para os seguintes campos:  
** **OpenSearch Domínio do serviço** **  
O domínio do OpenSearch serviço para o qual seus dados são entregues.  
** **Índice** **  
O nome do índice de OpenSearch serviço a ser usado ao indexar dados em seu cluster OpenSearch de serviços.  
** **Index rotation** **  
Escolha se e com que frequência o índice OpenSearch de serviços deve ser rotacionado. Se o rodízio de índices estiver habilitado, o Amazon Data Firehose adicionará o carimbo de data/hora correspondente ao nome de índice especificado e fará o rodízio. Para obter mais informações, consulte [Configurar a rotação do índice para o OpenSearch serviço](es-index-rotation.md).  
** **Tipo** **  
O nome do tipo de OpenSearch serviço a ser usado ao indexar dados em seu cluster OpenSearch de serviços. Para o Elasticsearch 7.x e OpenSearch 1.x, só pode haver um tipo por índice. Se você tentar especificar um novo tipo para um índice existente que já tem outro tipo, o Firehose retornará um erro durante o runtime.   
Para o Elasticsearch 7.x, deixe esse campo vazio.  
** **Período de novas tentativas** **  
Duração do tempo para que o Firehose tente novamente se uma solicitação de indexação falhar. OpenSearch Para o período de novas tentativas, é possível definir qualquer valor entre 0 e 7.200 segundos. O padrão para a duração da nova tentativa é de 300 segundos. O Firehose fará uma nova tentativa várias vezes, com um recuo exponencial até que o período de novas tentativas expire.  
Depois que o período de novas tentativas expirar, o Firehose entregará os dados para a fila de mensagens não entregues (DLQ), um bucket de erros S3 configurado. Para dados entregues ao DLQ, você precisa redirecionar os dados do bucket de erro S3 configurado para o destino. OpenSearch   
Se você quiser impedir que o stream do Firehose entregue dados ao DLQ devido ao tempo de inatividade ou à manutenção dos OpenSearch clusters, você pode configurar a duração da nova tentativa para um valor maior em segundos. É possível aumentar o valor da duração da nova tentativa acima para 7.200 segundos entrando em contato com o [suporte da AWS](https://aws.amazon.com/contact-us/).   
** **Tipo DocumentID** **  
Indica o método para configurar o ID do documento. Os métodos compatíveis são ID do documento gerado pelo Firehose e ID do documento gerado pelo OpenSearch serviço. A ID do documento gerada pelo Firehose é a opção padrão quando o valor da ID do documento não está definido. OpenSearch O ID do documento gerado pelo serviço é a opção recomendada porque suporta operações de gravação pesada, incluindo análise de registros e observabilidade, consumindo menos recursos de CPU no domínio do OpenSearch Serviço e, portanto, resultando em melhor desempenho.  
** **Destination VPC connectivity (Conectividade da VPC de destino)** **  
Se seu domínio OpenSearch de serviço estiver em uma VPC privada, use esta seção para especificar essa VPC. Especifique também as sub-redes e os subgrupos que você deseja que o Amazon Data Firehose use ao enviar dados para o seu domínio de serviço. OpenSearch Você pode usar os mesmos grupos de segurança que o domínio do OpenSearch Serviço está usando. Se você especificar grupos de segurança diferentes, certifique-se de que eles permitam tráfego HTTPS de saída para o grupo de segurança do domínio do OpenSearch Serviço. Além disso, certifique-se de que o grupo de segurança do domínio OpenSearch Service permita tráfego HTTPS dos grupos de segurança que você especificou ao configurar seu stream do Firehose. Se você usar o mesmo grupo de segurança para o stream do Firehose e para o domínio OpenSearch Service, verifique se a regra de entrada do grupo de segurança permite tráfego HTTPS. Para obter mais informações sobre regras de grupo de segurança, consulte [Regras de grupo de segurança](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#SecurityGroupRules) na documentação da Amazon VPC.  
Ao especificar sub-redes para entregar dados ao destino em uma VPC privada, verifique se você tem um número suficiente de endereços IP livres nas sub-redes escolhidas. Se não houver um endereço IP gratuito disponível em uma sub-rede especificada, o Firehose não poderá criar ou ENIs adicionar dados para a entrega de dados na VPC privada, e a entrega será degradada ou falhará.  
**Sugestões de buffer**  
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

## Definir configurações de destino para OpenSearch Serverless
<a name="create-destination-opensearch-serverless"></a>

Esta seção descreve as opções para usar o OpenSearch Serverless como seu destino.

****
+ Insira valores para os seguintes campos:  
** **OpenSearch Coleção sem servidor** **  
O endpoint de um grupo de índices OpenSearch sem servidor para os quais seus dados são entregues.  
** **Índice** **  
O nome do índice OpenSearch Serverless a ser usado ao indexar dados para sua OpenSearch coleção Serverless.  
** **Destination VPC connectivity (Conectividade da VPC de destino)** **  
Se sua coleção OpenSearch Serverless estiver em uma VPC privada, use esta seção para especificar essa VPC. Especifique também as sub-redes e os subgrupos que você deseja que o Amazon Data Firehose use ao enviar dados para sua coleção Serverless. OpenSearch   
Ao especificar sub-redes para entregar dados ao destino em uma VPC privada, verifique se você tem um número suficiente de endereços IP livres nas sub-redes escolhidas. Se não houver um endereço IP gratuito disponível em uma sub-rede especificada, o Firehose não poderá criar ou ENIs adicionar dados para a entrega de dados na VPC privada, e a entrega será degradada ou falhará.  
** **Período de novas tentativas** **  
Duração do tempo para o Firehose tentar novamente se uma solicitação de indexação para Serverless falhar OpenSearch . Para o período de novas tentativas, é possível definir qualquer valor entre 0 e 7.200 segundos. O padrão para a duração da nova tentativa é de 300 segundos. O Firehose fará uma nova tentativa várias vezes, com um recuo exponencial até que o período de novas tentativas expire.  
Depois que o período de novas tentativas expirar, o Firehose entregará os dados para a fila de mensagens não entregues (DLQ), um bucket de erros S3 configurado. Para dados entregues ao DLQ, você precisa redirecionar os dados do bucket de erro S3 configurado para OpenSearch o destino sem servidor.   
Se você quiser impedir que o stream do Firehose entregue dados ao DLQ devido ao tempo de inatividade ou à manutenção de clusters OpenSearch sem servidor, você pode configurar a duração da nova tentativa para um valor maior em segundos. É possível aumentar o valor da duração da nova tentativa acima para 7.200 segundos entrando em contato com o [suporte da AWS](https://aws.amazon.com/contact-us/).   
**Sugestões de buffer**  
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

## Definição das configurações de destino para Endpoint de HTTP
<a name="create-destination-http"></a>

Esta seção descreve as opções para usar o **endpoint de HTTP** como destino.

**Importante**  
Se você escolher um endpoint de HTTP como destino, revise e siga as instruções em [Noções básicas das especificações de solicitação e resposta de entrega de endpoint de HTTP](httpdeliveryrequestresponse.md).

****
+ Forneça os valores para os seguintes campos:  
 **Nome do endpoint de HTTP - opcional**   
Especifique um nome de usuário amigável para o endpoint de HTTP. Por exemplo, .`My HTTP Endpoint Destination`  
 **URL do endpoint de HTTP**   
Especifique o URL para o endpoint de HTTP no formato a seguir: `https://xyz.httpendpoint.com`. A origem deve ser um URL HTTPS.  
 **Autenticação**   
Você pode optar por inserir a chave de acesso diretamente ou recuperar o segredo AWS Secrets Manager para acessar o endpoint HTTP.  
  + **(Opcional) Chave de acesso** 

    Entre em contato com o proprietário do endpoint se você precisar obter a chave de acesso para permitir a entrega de dados do Firehose ao endpoint.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha a chave de acesso para o endpoint HTTP. Se você não encontrar seu segredo na lista suspensa, crie um AWS Secrets Manager para a chave de acesso. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificação de conteúdo**   
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP ou **Desativado**** para codificar enable/disable o conteúdo da sua solicitação.   
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.  
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.  
Para os destinos do endpoint HTTP, se você estiver vendo 413 códigos de resposta do endpoint de destino no CloudWatch Logs, diminua o tamanho da dica de buffer no stream do Firehose e tente novamente.

## Definições de configurações de destino para o Datadog
<a name="create-destination-datadog"></a>

Esta seção descreve as opções para usar o **Datadog** como destino. [Para obter mais informações sobre o Datadog, consulte https://docs.datadoghq.com/integrations/ amazon\$1web\$1services/.](https://docs.datadoghq.com/integrations/amazon_web_services/)

****
+ Forneça os valores para os campos a seguir.  
 **URL do endpoint de HTTP**   
Escolha para onde você deseja enviar dados dentre uma das opções a seguir no menu suspenso.  
  + **Registros do Datadog - US1**
  + **Registros do Datadog - US3**
  + **Registros do Datadog - US5**
  + **Registros do Datadog - AP1**
  + **Logs do Datadog: EU**
  + **Logs do Datadog: GOV**
  + **Métricas do Datadog - EUA**
  + **Métricas do Datadog - US5**
  + **Métricas do Datadog - AP1**
  + **Métricas do Datadog: EU**
  + **Configurações do Datadog - US1**
  + **Configurações do Datadog - US3**
  + **Configurações do Datadog - US5**
  + **Configurações do Datadog - AP1**
  + **Configurações do Datadog - UE**
  + **Configurações do Datadog - GOV EUA**  
 **Autenticação**   
Você pode optar por inserir a chave da API diretamente ou recuperar o segredo AWS Secrets Manager para acessar o Datadog.  
  + **Chave de API** 

    Entre em contato com o Datadog para obter a chave de API necessária para permitir a entrega de dados do Firehose a esse endpoint.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha a chave de API do Datadog. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificação de conteúdo**   
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP ou **Desativado**** para codificar enable/disable o conteúdo da sua solicitação.   
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

## Definições de configurações de destino para o Honeycomb
<a name="create-destination-honeycomb"></a>

Esta seção descreve as opções para usar o **Honeycomb** como destino. Para obter mais informações sobre o Honeycomb, consulte [https://docs.honeycomb. -cloudwatch-metrics/. io/getting-data-in/metrics/aws](https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/ )

****
+ Forneça os valores para os seguintes campos:  
 **Endpoint do Honeycomb Kinesis**   
Especifique o URL do endpoint HTTP no seguinte formato: https://api.honeycom b.io/1/kinesis\$1events/ \$1\$1dataset\$1\$1   
 **Autenticação**   
Você pode optar por inserir a chave da API diretamente ou recuperar o segredo AWS Secrets Manager para acessar o Honeycomb.  
  + **Chave de API** 

    Entre em contato com o Honeycomb para obter a chave de API necessária para permitir a entrega de dados do Firehose a esse endpoint.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha a chave de API do Honeycomb. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificação de conteúdo**   
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP** para habilitar a codificação de conteúdo da solicitação. Essa é a opção recomendada quando o destino é o Honeycomb.  
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

## Definição de as configurações de destino para o Coralogix
<a name="create-destination-coralogix"></a>

Esta seção descreve as opções para usar o **Coralogix** como destino. Para obter mais informações sobre o Coralogix, consulte [Conceitos básicos do Coralogix](https://coralogix.com/docs/guide-first-steps-coralogix/).

****
+ Forneça os valores para os seguintes campos:  
 **URL do endpoint de HTTP**   
Escolha o URL do endpoint de HTTP entre as opções a seguir no menu suspenso:  
  + **Coralogix - EUA**
  + **Coralogix - SINGAPURA**
  + **Coralogix - IRLANDA**
  + **Coralogix - ÍNDIA**
  + **Coralogix - ESTOCOLMO**  
 **Autenticação**   
Você pode optar por inserir a chave privada diretamente ou recuperar o segredo AWS Secrets Manager para acessar o Coralogix.  
  + **Chave privada** 

    Entre em contato com o Coralogix para obter a chave privada necessária para permitir a entrega de dados do Firehose a esse endpoint.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha a chave privada do Coralogix. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificação de conteúdo**   
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP** para habilitar a codificação de conteúdo da solicitação. Essa é a opção recomendada quando o destino é o Coralogix.  
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
  + applicationName: o ambiente em que você está executando o Data Firehose
  + SubsystemName: o nome da integração do Data Firehose
  + computerName: o nome do fluxo do Firehose em uso  
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia com base no provedor de serviços.

## Definições de configurações de destino para o Dynatrace
<a name="create-destination-dynatrace"></a>

Esta seção descreve as opções para usar o **Dynatrace** como destino. Para obter mais informações, consulte [https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/](https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/).

****
+ Escolha as opções para usar o Dynatrace como destino de seu fluxo do Firehose.  
 **Tipo de ingestão**   
Escolha se você deseja entregar **Métricas** ou **Logs** (padrão) no Dynatrace para análise e processamento adicionais.  
 **URL do endpoint de HTTP**   
Escolha o URL do endpoint de HTTP (**Dynatrace EUA**, **Dynatrace UE** ou **Dynatrace Global**) no menu suspenso.  
 **Autenticação**   
Você pode optar por inserir o token da API diretamente ou recuperar o segredo AWS Secrets Manager para acessar o Dynatrace.  
  + **Token de API** 

    Gere o token de API necessário para habilitar a entrega de dados do Dynatrace a esse endpoint a partir do Firehose. Para obter mais informações, consulte [API do Dynatrace - Tokens e autenticação](https://docs.dynatrace.com/docs/dynatrace-api/basics/dynatrace-api-authentication).
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha o token da API para o Dynatrace. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **URL da API**   
Forneça o URL da API do ambiente do Dynatrace.  
 **Codificação de conteúdo**   
Escolha se você deseja habilitar a codificação de conteúdo para compactar o corpo da solicitação. O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Quando habilitado, o conteúdo será compactado no formato **GZIP**.  
 **Período de novas tentativas**   
Especifique por quanto tempo o Firehose faz novas tentativas de enviar os dados ao endpoint de HTTP selecionado.   
Depois de enviar os dados, o Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite de confirmação, o Firehose iniciará contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Firehose envia dados para o endpoint de HTTP, seja a tentativa inicial ou uma nova tentativa, ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Firehose ainda aguardará a confirmação até recebê-la ou até que o tempo limite de espera de confirmação seja atingido. Se o tempo limite para confirmação expirar, o Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
**Sugestões de armazenamento em buffer**  
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. As sugestões de buffer incluem o tamanho e o intervalo do buffer para seus fluxos. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

## Defina as configurações de destino para LogicMonitor
<a name="create-destination-logicmonitor"></a>

Esta seção descreve as opções para usar o **LogicMonitor** como destino. Para obter mais informações, consulte [https://www.logicmonitor.com](https://www.logicmonitor.com).

****
+ Forneça os valores para os seguintes campos:  
 **URL do endpoint de HTTP**   
Especifique o URL para o endpoint de HTTP no formato a seguir.  

  ```
  https://ACCOUNT.logicmonitor.com
  ```  
 **Autenticação**   
Você pode optar por inserir a chave da API diretamente ou recuperar o segredo AWS Secrets Manager para acessar LogicMonitor.  
  + **Chave de API** 

    Entre em contato LogicMonitor para obter a chave de API necessária para habilitar a entrega de dados do Firehose para esse endpoint.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha a chave de API para LogicMonitor. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificação de conteúdo**   
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP ou **Desativado**** para codificar enable/disable o conteúdo da sua solicitação.   
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

## Definição das configurações de destino para o Logz.io
<a name="create-destination-logz"></a>

Esta seção descreve as opções para usar o **Logz.io** como destino. Para obter mais informações, consulte [https://logz.io/](https://logz.io/).

**nota**  
Na região da Europa (Milão), não há suporte para o Logz.io como destino do Amazon Data Firehose.

****
+ Forneça os valores para os seguintes campos:  
 **URL do endpoint de HTTP**   
Especifique o URL para o endpoint de HTTP no formato a seguir. A origem deve ser um URL `HTTPS`.  

  ```
  https://listener-aws-metrics-stream-<region>.logz.io/
  ```
Por exemplo  

  ```
  https://listener-aws-metrics-stream-us.logz.io/
  ```  
 **Autenticação**   
Você pode optar por inserir o token de envio diretamente ou recuperar o segredo AWS Secrets Manager para acessar o Logz.io.  
  + **Token de envio** 

    Entre em contato com o Logz.io obter o token de envio necessário para permitir a entrega de dados do Firehose a esse endpoint.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha o token de envio do Logz.io. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao Logz.io.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

## Definições de configurações de destino para o MongoDB Atlas
<a name="create-destination-mongodb"></a>

Esta seção descreve as opções para usar o **MongoDB Atlas** como destino. Para ter mais informações, consulte [MongoDB Atlas na Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws).

****
+ Forneça os valores para os seguintes campos:  
**URL do API Gateway**  
Especifique o URL para o endpoint de HTTP no formato a seguir.  

  ```
   https://xxxxx.execute-api.region.amazonaws.com/stage
  ```
A origem deve ser um URL `HTTPS`.   
 **Autenticação**   
Você pode optar por inserir a chave da API diretamente ou recuperar o segredo AWS Secrets Manager para acessar o MongoDB Atlas.  
  + **Chave de API** 

    Siga as instruções do [MongoDB Atlas na Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws) para obter o `APIKeyValue` necessário para permitir a entrega de dados do Firehose a esse endpoint.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha a chave de API para o API Gateway que é apoiado pela interação do Lambda com o MongoDB Atlas. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
**Codificação de conteúdo**  
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP ou **Desativado**** para codificar enable/disable o conteúdo da sua solicitação.   
**Período de novas tentativas**  
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao provedor terceirizado selecionado.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
**Sugestões de armazenamento em buffer**  
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.  
**Parâmetros: opcional**  
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos. 

## Definições de configurações de destino para o New Relic
<a name="create-destination-new-relic"></a>

Esta seção descreve as opções para usar o **New Relic** como destino. Para obter mais informações, consulte [https://newrelic.com](https://newrelic.com). 

****
+ Forneça os valores para os seguintes campos:  
 **URL do endpoint de HTTP**   
Escolha o URL do endpoint de HTTP entre as opções a seguir na lista suspensa.  
  + **Logs do New Relic - EUA**
  + **Métricas do New Relic - EUA**
  + **Métricas do New Relic - UE**  
 **Autenticação**   
Você pode optar por inserir a chave da API diretamente ou recuperar o segredo AWS Secrets Manager para acessar o New Relic.  
  + **Chave de API** 

    Insira sua chave de licença, que é uma sequência hexadecimal de 40 caracteres, nas configurações da One Account do New Relic. Essa chave de API é necessária para habilitar a entrega de dados do Firehose a esse endpoint.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha a chave de API da New Relic. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificação de conteúdo**   
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP ou **Desativado**** para codificar enable/disable o conteúdo da sua solicitação.   
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar dados ao endpoint de HTTP do New Relic.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

## Definição de configurações de destino para o Snowflake
<a name="create-destination-snowflake"></a>

Esta seção descreve as opções para uso do Snowflake como destino.

**nota**  
A integração do Firehose com o Snowflake está disponível no Leste dos EUA (Norte da Virgínia), Oeste dos EUA (Oregon), Europa (Irlanda), Leste dos EUA (Ohio), Ásia-Pacífico (Tóquio), Europa (Frankfurt), Ásia-Pacífico (Cingapura), Ásia-Pacífico (Seul) e Ásia-Pacífico (Sydney), Ásia-Pacífico (Mumbai), Europa (Londres), América do Sul (São Paulo), Canadá (Central), Europa (Paris), Ásia-Pacífico (Osaka), Europa (Estocolmo), Ásia-Pacífico (Jacarta). Regiões da AWS

**Configurações de conexão**

****
+ Forneça os valores para os seguintes campos:  
 **URL da conta do Snowflake**   
Especifique um URL de conta do Snowflake. Por exemplo: `xy12345.us-east-1.aws.snowflakecomputing.com`. Consulte a [Documentação do Snowflake](https://docs.snowflake.com/en/user-guide/admin-account-identifier#format-2-legacy-account-locator-in-a-region) para saber como determinar o URL da sua conta. Observe que você não deve especificar o número da porta, enquanto o protocolo (https://) é opcional.  
 **Autenticação**   
Você pode optar por inserir o login do usuário, a chave privada e a senha manualmente ou recuperar o segredo para acessar o Snowflake. AWS Secrets Manager   
  + **Login do usuário**

    Especifique o usuário do Snowflake a ser usado para carregar dados. Certifique-se de que o usuário tenha acesso para inserir dados na tabela do Snowflake.
  + **Chave privada**

    Especifique a chave privada para autenticação com o Snowflake no formato `PKCS8`. Além disso, não inclua cabeçalho e rodapé do PEM como parte da chave privada. Se a chave estiver dividida em várias linhas, remova as quebras de linha. Veja a seguir um exemplo de como sua chave privada deve se parecer.

    ```
    -----BEGIN PRIVATE KEY-----
    KEY_CONTENT
    -----END PRIVATE KEY-----
    ```

    Remova o espaço em `KEY_CONTENT` e forneça-o ao Firehose. Não são necessários caracteres de nova linha header/footer ou de nova linha.
  + **Senha** 

    Especifique a senha para descriptografar a chave privada criptografada. É possível deixar esse campo vazio se a chave privada não estiver criptografada. Para obter informações, consulte [Uso da autenticação de pares de chaves e alternância de chaves](https://docs.snowflake.com/en/user-guide/data-load-snowpipe-streaming-configuration#using-key-pair-authentication-key-rotation).
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha as credenciais do Snowflake. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Configuração de perfil**   
Usar o perfil padrão do Snowflake: se esta opção for selecionada, o Firehose não passará nenhum perfil para o Snowflake. O perfil padrão será assumido para carregar dados. Certifique-se de que o perfil padrão tenha permissão para inserir dados na tabela do Snowflake.  
Usar o perfil personalizado do Snowflake: insira um perfil não padrão do Snowflake a ser assumido pelo Firehose ao carregar dados na tabela do Snowflake.  
 **Conectividade do Snowflake**   
As opções são **Privada** ou **Pública**.  
 **ID da VPCE privada (opcional)**   
O ID da VPCE do Firehose para se conectar de forma privada com o Snowflake. O formato do ID é com.amazonaws.vpce. [região] .vpce-svc-. *[id]* Para obter mais informações, consulte [AWS PrivateLink & Snowflake](https://docs.snowflake.com/en/user-guide/admin-security-privatelink).  
Se seu cluster do Snowflake tiver um link privado habilitado, use uma política de rede baseada em `AwsVpceIds` para permitir dados do Amazon Data Firehose. O Firehose não exige que você configure uma política de rede baseada em IP na sua conta do Snowflake. Ter uma política de rede baseada em IP ativada pode interferir na conectividade do Firehose. Se você tiver um caso extremo que exija uma política baseada em IP, entre em contato com a equipe do Firehose enviando um [ticket de suporte](https://support.console.aws.amazon.com/support/home?region=us-east-1#/case/create). Para obter uma lista do VPCE IDs que você pode usar, consulte o. [Acesso ao Snowflake na VPC](controlling-access.md#using-iam-snowflake-vpc)

**Configurar o banco de dados**
+ Você deve especificar as configurações a seguir para usar o Snowflake como destino para seu fluxo do Firehose.
  + Banco de dados do Snowflake: todos os dados no Snowflake são mantidos em bancos de dados.
  + Esquema do Snowflake: cada banco de dados consiste em um ou mais esquemas, que são agrupamentos lógicos de objetos de banco de dados, como tabelas e visualizações
  + Tabela do Snowflake: todos os dados no Snowflake são armazenados em tabelas de banco de dados, estruturadas logicamente como coleções de colunas e linhas.

 **Opções de carregamento de dados para sua tabela do Snowflake** 
+ Uso de chaves JSON como nomes de colunas 
+ Uso de colunas VARIANT
  + Nome da coluna de conteúdo: especifique um nome de coluna na tabela, onde os dados brutos devem ser carregados.
  + Nome da coluna de metadados (opcional): especifique um nome de coluna na tabela onde as informações de metadados devem ser carregadas. Ao ativar esse campo, você verá a coluna a seguir na tabela do Snowflake com base no tipo de origem. 

    **Para Direct PUT como origem**

    ```
    {
    "firehoseDeliveryStreamName" : "streamname",
    "IngestionTime" : "timestamp"
    }
    ```

    **Para o fluxo de dados do Kinesis como origem**

    ```
    {
    "kinesisStreamName" : "streamname",
    "kinesisShardId" : "Id",
    "kinesisPartitionKey" : "key",
    "kinesisSequenceNumber" : "1234",
    "subsequenceNumber" : "2334",
    "IngestionTime" : "timestamp"
    }
    ```

 **Período de novas tentativas** 

Período (0 a 7.200 segundos) durante o qual o Firehose fará novas tentativas se a abertura de canal ou a entrega ao Snowflake falhar devido a problemas de serviço do Snowflake. O Firehose fará novas tentativas com um recuo exponencial, até que a o período de novas tentativas termine. Se você definir a o período de novas tentativas como 0 (zero) segundos, o Firehose não fará novas tentativas após falhas no Snowflake e encaminhará os dados para o bucket de erros do Amazon S3.

 **Sugestões de buffer** 

O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços. Para obter mais informações, consulte [Configuração de sugestões de armazenamento em buffer](create-configure-backup.md#buffering-hints).

## Definição de configurações de destino para o Splunk
<a name="create-destination-splunk"></a>

Esta seção descreve as opções para usar o Splunk como destino.

**nota**  
O Firehose entrega dados para clusters do Splunk configurados com Classic Load Balancer ou Application Load Balancer. 

****
+ Forneça os valores para os seguintes campos:  
 **Splunk cluster endpoint**   
Para determinar o endpoint, consulte [Configuração do Amazon Data Firehose para envio de dados para a plataforma do Splunk](http://docs.splunk.com/Documentation/AddOns/latest/Firehose/ConfigureFirehose) na documentação do Splunk.  
 **Splunk endpoint type**   
Escolha `Raw endpoint` na maioria dos casos. Escolha `Event endpoint` se você pré-processou seus dados usando AWS Lambda para enviar dados para índices diferentes por tipo de evento. Para obter informações sobre qual endpoint usar, consulte [Configurar o Amazon Data Firehose para enviar dados para a plataforma Splunk](http://docs.splunk.com/Documentation/AddOns/released/Firehose/ConfigureFirehose) na documentação do Splunk.  
 **Autenticação**   
Você pode optar por inserir o token de autenticação diretamente ou recuperar o segredo AWS Secrets Manager para acessar o Splunk.  
  + **Token de autenticação** 

    Para configurar um endpoint do Splunk que possa receber dados do Amazon Data Firehose, consulte [Visão geral da instalação e configuração do complemento do Splunk para o Amazon Data Firehose](http://docs.splunk.com/Documentation/AddOns/released/Firehose/Installationoverview) na documentação do Splunk. Salve o token que você obtiver do Splunk quando configurar o endpoint para esse fluxo do Firehose e adicione-o aqui.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha o token de autenticação do Splunk. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **HEC acknowledgement timeout**   
Especifique quanto tempo o Amazon Data Firehose aguardará a confirmação do índice do Splunk. Se o Splunk não enviar a confirmação antes de o tempo limite ser atingido, o Amazon Data Firehose considerará que houve uma falha na entrega de dados. Em seguida, o Amazon Data Firehose fará uma nova tentativa ou fará o backup dos dados no bucket do Amazon S3, dependendo do valor do período de novas tentativas que você definir.   
 **Período de novas tentativas**   
Especifique por quanto o tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao Splunk.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do Splunk. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o Splunk (seja uma tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do Splunk.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia com base no provedor de serviços.

## Definição de configurações de destino para a Splunk Observability Cloud
<a name="create-destination-splunk-cloud"></a>

Esta seção descreve as opções para usar a **Splunk Observability Cloud** como destino. Para obter mais informações, consulte [https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html\$1 - connect-to-aws-using -api](https://docs.splunk.com/Observability/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api). the-splunk-observability-cloud

****
+ Forneça os valores para os seguintes campos:  
 **URL do endpoint de ingestão na nuvem**   
É possível encontrar o URL de ingestão de dados em tempo real da Splunk Observability Cloud em Profile > Organizations > Real-time Data Ingest Endpoint no console do Splunk Observability.   
 **Autenticação**   
Você pode optar por inserir o token de acesso diretamente ou recuperar o segredo AWS Secrets Manager para acessar o Splunk Observability Cloud.  
  + **Token de acesso** 

    Copie seu token de acesso do Splunk Observability com o escopo de autorização de INGEST de **Tokens de acesso**, nas **Configurações** do console do Splunk Observability.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha o token de acesso para o Splunk Observability Cloud. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificação de conteúdo**   
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP ou **Desativado**** para codificar enable/disable o conteúdo da sua solicitação.   
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

## Definições de configurações de destino para o Sumo Logic
<a name="create-destination-sumo-logic"></a>

Esta seção descreve as opções para usar o **Sumo Logic** como destino. Para obter mais informações, consulte [https://www.sumologic.com](https://www.sumologic.com).

****
+ Forneça os valores para os seguintes campos:  
 **URL do endpoint de HTTP**   
Especifique o URL para o endpoint de HTTP no formato a seguir: `https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token`. A origem deve ser uma URL HTTPS.   
 **Codificação de conteúdo**   
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP ou **Desativado**** para codificar enable/disable o conteúdo da sua solicitação.   
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao Sumo Logic.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino do Elastic varia de acordo com o provedor de serviços.

## Definição de configurações de destino para o Elastic
<a name="create-destination-elastic"></a>

Esta seção descreve as opções para usar o **Elastic** como destino. 

****
+ Forneça os valores para os seguintes campos:  
 **URL do endpoint do Elastic**   
Especifique o URL para o endpoint de HTTP no formato a seguir: `https://<cluster-id>.es.<region>.aws.elastic-cloud.com`. A origem deve ser um URL HTTPS.   
 **Autenticação**   
Você pode optar por inserir a chave de API diretamente ou recuperar o segredo AWS Secrets Manager para acessar a Elastic.  
  + **Chave de API** 

    Entre em contato com o Elastic para obter a chave de API necessária para permitir a entrega de dados do Firehose para esse serviço.
  + **Secret**

    Selecione um segredo AWS Secrets Manager que contenha a chave de API da Elastic. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte [Autentique-se com o AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificação de conteúdo**   
O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha **GZIP** (que é o selecionado por padrão) ou **Desativado** para codificação de enable/disable conteúdo da sua solicitação.   
 **Período de novas tentativas**   
Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao Elastic.   
Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.   
Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.   
Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.  
Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.  
 **Parâmetros: opcional**   
O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.   
 **Sugestões de armazenamento em buffer**   
O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado quando o destino é O Elastic é de 1 MiB.

# Definição das configurações de backup
<a name="create-configure-backup"></a>

O Amazon Data Firehose usa o Amazon S3 para fazer backup de todos os dados ou apenas dos dados com falha que ele tenta entregar ao destino escolhido. 

**Importante**  
Só há suporte para as configurações de backup se a fonte do fluxo do Firehose for o Direct PUT ou o Kinesis Data Streams.
O atributo de buffer zero está disponível somente para os destinos da aplicação, e não está disponível para o destino de backup do Amazon S3.

É possível especificar as configurações de backup do S3 para seu fluxo do Firehose se tiver feito uma das escolhas a seguir.
+ Se você definir o Amazon S3 como destino para seu stream do Firehose e optar por especificar uma função AWS Lambda para transformar registros de dados ou se optar por converter formatos de registro de dados para seu stream do Firehose.
+ Se você definir o Amazon Redshift como destino para seu stream do Firehose e optar por especificar uma função AWS Lambda para transformar registros de dados.
+ Se você definir qualquer um dos seguintes serviços como destino para seu stream do Firehose — Amazon OpenSearch Service, Datadog, Dynatrace, HTTP Endpoint, LogicMonitor MongoDB Cloud, New Relic, Splunk ou Sumo Logic, Snowflake, Apache Iceberg Tables.

Veja a seguir as configurações de backup para seu fluxo do Firehose.
+ Backup do registro de origem no Amazon S3: se o S3 ou o Amazon Redshift for o destino selecionado, essa configuração indicará se você deseja habilitar o backup dos dados da fonte ou mantê-lo desabilitado. Se qualquer outro serviço compatível (exceto o S3 ou o Amazon Redshift) estiver definido como seu destino selecionado, essa configuração indicará se você deseja fazer backup de todos os dados da fonte ou apenas dos dados com falha.
+ Bucket de backup do S3: esse é o bucket do S3 em que o Amazon Data Firehose faz backup dos dados.
+ Prefixo de bucket de backup do S3: esse é o prefixo em que o Amazon Data Firehose faz backup dos dados.
+ Prefixo da saída de erros do bucket de backup do S3: todos os dados com falha são copiados nesse prefixo da saída de erros do bucket do S3.
+ Sugestões sobre armazenamento em buffer, compactação e criptografia de backup: o Amazon Data Firehose usa o Amazon S3 para fazer backup de todos os dados ou apenas dos dados com falha que ele tenta entregar ao destino escolhido. O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los (colocá-los no backup) ao Amazon S3. Você pode escolher um tamanho de buffer de 1 a 128 MiBs e um intervalo de buffer de 60 a 900 segundos. A condição que é satisfeita primeiro aciona a entrega de dados ao Amazon S3. Se você habilitar a transformação dos dados, o intervalo de buffer é aplicado desde o momento em que os dados transformados são recebidos pelo Amazon Data Firehose até a entrega de dados ao Amazon S3. Se a entrega de dados ao destino ficar atrasada em relação à gravação de dados no fluxo do Firehose, o Amazon Data Firehose aumentará o tamanho do buffer dinamicamente para recuperar o atraso. Essa ação ajuda a garantir que todos os dados sejam entregues no destino. 
+ Compactação do S3: escolha compactação de dados Snappy compatível com GZIP, Snappy, Zip ou Hadoop, ou nenhuma compactação de dados. A compactação Snappy, Zip e Snappy compatível com Hadoop não está disponível para fluxos do Firehose com o Amazon Redshift como destino. 
+ Formato de extensão de arquivo S3 (opcional): especifique um formato de extensão de arquivo para objetos entregues ao bucket de destino do Amazon S3. Se você habilitar esse atributo, a extensão de arquivo especificada substituirá as extensões de arquivo padrão anexadas pelos atributos de conversão de formato de dados ou compactação do S3, como .parquet ou .gz. Verifique se você configurou a extensão de arquivo correta ao usar esse atributo com a conversão de formato de dados ou a compactação do S3. A extensão do arquivo deve começar com um ponto (.) e pode conter os caracteres permitidos: 0-9a-z\$1-\$1.\$1' (). A extensão do arquivo não pode exceder 128 caracteres.
+ O Firehose oferece suporte à criptografia do lado do servidor Amazon S3 AWS Key Management Service com (SSE-KMS) para criptografar dados entregues no Amazon S3. Você pode optar por usar o tipo de criptografia padrão especificado no bucket S3 de destino ou criptografar com uma chave da lista de AWS KMS chaves que você possui. Se você criptografar os dados com AWS KMS chaves, poderá usar a chave AWS gerenciada padrão (aws/s3) ou uma chave gerenciada pelo cliente. Para obter mais informações, consulte [Proteção de dados usando criptografia do lado do servidor com chaves AWS gerenciadas pelo KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Configuração de sugestões de armazenamento em buffer
<a name="buffering-hints"></a>

O Amazon Data Firehose armazena em buffer os dados em streaming em memória recebidos até um determinado tamanho (tamanho de armazenamento em buffer) e por um determinado período (intervalo de armazenamento em buffer) antes de entregá-los aos destinos especificados. Você deve usar as sugestões de armazenamento em buffer quando quiser entregar arquivos de tamanho ideal para o Amazon S3 e obter melhor performance das aplicações de processamento de dados ou para ajustar a taxa de entrega do Firehose de acordo com a velocidade de destino.

É possível configurar o tamanho do armazenamento em buffer e o intervalo do buffer ao criar novos fluxos do Firehose ou atualizar o tamanho do armazenamento buffer e o intervalo de armazenamento em buffer nos fluxos do Firehose existentes. O tamanho do buffer é medido em MBs e o intervalo de buffer é medido em segundos. Contudo, se especificar um valor para um deles, você também deverá fornecer um valor para o outro. A primeira condição de buffer atendida aciona o Firehose para entregar os dados. Se você não configurar os valores de armazenamento em buffer, os valores padrão serão usados.

Você pode configurar dicas de buffer do Firehose por meio do,, ou. Console de gerenciamento da AWS AWS Command Line Interface AWS SDKs Para streams existentes, você pode reconfigurar dicas de buffer com um valor adequado aos seus casos de uso usando a opção **Editar** no console ou usando a API. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Para novos streams, você pode configurar dicas de buffer como parte da criação de um novo stream usando o console ou usando a API. [CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html) Para ajustar o tamanho do buffer, defina `SizeInMBs` e `IntervalInSeconds` no `DestinationConfiguration` parâmetro específico de destino da API [CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html)ou [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html). 

**nota**  
As sugestões de armazenamento em buffer são aplicadas em um nível de fragmento ou partição, enquanto as sugestões de armazenamento em buffer de particionamento dinâmico são aplicadas em nível de fluxo ou tópico.
Para atender às latências mais baixas dos casos de uso em tempo real, é possível usar a sugestão de intervalo de armazenamento em buffer zero. Quando você configura o intervalo de armazenamento em buffer como zero segundos, o Firehose não armazena dados em buffer e os entrega em alguns segundos. Antes de alterar as sugestões de armazenamento em buffer para um valor menor, consulte o fornecedor as sugestões de armazenamento em recomendadas do Firehose para seus destinos.
O atributo de buffer zero está disponível somente para os destinos da aplicação, e não está disponível para o destino de backup do Amazon S3.
O atributo de armazenamento em buffer zero não está disponível para o particionamento dinâmico.
O Firehose usa o upload de várias partes para o destino do S3 quando você configura um intervalo de tempo de armazenamento em buffer inferior a 60 segundos para oferecer latências mais baixas. Devido ao upload de várias partes para o destino do S3, você verá algum aumento nos custos da API `PUT` do S3 se escolher um intervalo de tempo de buffer menor que 60 segundos.

Para intervalos de sugestões de armazenamento em buffer e valores padrão específicos do destino, consulte a tabela a seguir:


| Destino | Tamanho do armazenamento em buffer, em MB (padrão entre parênteses) | Intervalo de armazenamento em buffer, em segundos (padrão entre parênteses) | 
| --- | --- | --- | 
| Amazon S3 | 1-128 (5) | 0-900 (300) | 
| Tabelas do Apache Iceberg | 1-128 (5) | 0-900 (300) | 
| banco de dados de origem | 1-128 (5)  | 0-900 (300) | 
| OpenSearch Sem servidor | 1-100 (5)  | 0-900 (300) | 
| OpenSearch | 1-100 (5) | 0-900 (300) | 
| Splunk | 1-5 (5) | 0-60 (60) | 
| Datadog | 1-4 (4) | 0-900 (60) | 
| Coralogix | 1-64 (6) | 0-900 (60) | 
| Dynatrace | 1-64 (5) | 0-900 (60) | 
| Elastic | 1 | 0-900 (60) | 
| Honeycomb | 1-64 (15) | 0-900 (60) | 
| Endpoint de HTTP | 1-64 (5) | 0-900 (60) | 
| LogicMonitor | 1-64 (5) | 0-900 (60) | 
| Logzio | 1-64 (5) | 0-900 (60) | 
| mongoDB  | 1-16 (5) | 0-900 (60) | 
| newRelic | 1-64 (5) | 0-900 (60) | 
| sumoLogic | 1-64 (1) | 0-900 (60) | 
| Splunk Observability Cloud  | 1-64 (1) | 0-900 (60) | 
| Snowflake | 1 - 128 (1) | 0 - 900 (0) | 

# Definir as configurações avançadas
<a name="create-configure-advanced"></a>

A seção a seguir contém detalhes sobre as configurações avançadas do fluxo do Firehose.
+ Criptografia do lado do servidor - O Amazon Data Firehose oferece suporte à criptografia do lado do servidor do Amazon S3 AWS com o Key Management Service (AWS KMS) para criptografar dados entregues no Amazon S3. Para obter mais informações, consulte [Proteção de dados usando criptografia do lado do servidor com chaves gerenciadas pelo KMS ( AWS SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html).
+ Registro em log de erros: o Amazon Data Firehose registra em log os erros relacionados a processamento e entrega. Além disso, quando a transformação de dados está ativada, ela pode registrar invocações do Lambda e enviar erros de entrega de dados para o Logs. CloudWatch Para obter mais informações, consulte [Monitore o Amazon Data Firehose usando registros CloudWatch](monitoring-with-cloudwatch-logs.md).
**Importante**  
Embora opcional, é extremamente recomendável habilitar o registro em log dos erros do Amazon Data Firehose durante a criação do fluxo do Firehose. Essa prática garante que você possa acessar os detalhes do erro em caso de falhas no processamento de registros ou na entrega.
+ O Amazon Data Firehose usa os perfis do IAM para todas as permissões de que o fluxo do Firehose precisa. É possível escolher criar um novo perfil quando as permissões necessárias são atribuídas automaticamente ou escolher um perfil existente criado para o Amazon Data Firehose. A função é usada para conceder ao Firehose acesso a vários serviços, incluindo seu bucket do S3, chave AWS KMS (se a criptografia de dados estiver ativada) e função Lambda (se a transformação de dados estiver ativada). O console talvez crie um perfil com espaços reservados. Para obter mais informações, consulte [O que é IAM?](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html). 
**nota**  
O perfil do IAM (incluindo espaços reservados) é criada com base na configuração que você escolhe ao criar um fluxo do Firehose. Se você fizer alguma alteração na fonte ou no destino do fluxo do Firehose, será necessário atualizar manualmente o perfil do IAM.
+ Tags - Você pode adicionar tags para organizar seus AWS recursos, monitorar custos e controlar o acesso.

  Se tags forem especificadas na ação `CreateDeliveryStream`, o Amazon Data Firehose realizará uma autorização adicional na ação `firehose:TagDeliveryStream` para verificar se os usuários têm permissões para criar tags. Se essa permissão não for fornecida, as solicitações para criar novos fluxos do Firehose com tags de recursos do IAM falharão com `AccessDeniedException`, conforme a seguir.

  ```
  AccessDeniedException 
  User: arn:aws:sts::x:assumed-role/x/x is not authorized to perform: firehose:TagDeliveryStream on resource: arn:aws:firehose:us-east-1:x:deliverystream/x with an explicit deny in an identity-based policy.
  ```

  O exemplo a seguir demonstra uma política que permite aos usuários criar um fluxo do Firehose e aplicar tags.

Depois que você definir as configurações avançadas e as configurações de backup, revise suas opções e escolha **Criar fluxo do Firehose**.

O novo fluxo do Firehose passa alguns segundos no estado **Em criação** antes de ficar disponível. Depois que o fluxo do Firehose entrar no estado **Ativo**, será possível iniciar o envio de dados do produtor para ele.