

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Tutorial: Creare uno stream Firehose dalla console
<a name="basic-create"></a>

È possibile utilizzare Console di gestione AWS o un AWS SDK per creare uno stream Firehose verso la destinazione prescelta. 

Puoi aggiornare la configurazione del tuo stream Firehose in qualsiasi momento dopo la creazione, utilizzando la console Amazon Data Firehose o. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Lo stream Firehose rimane nello `Active` stato durante l'aggiornamento della configurazione e puoi continuare a inviare dati. Di norma la configurazione aggiornata entra in vigore entro pochi minuti. Il numero di versione di uno stream Firehose viene aumentato di un valore di `1` dopo l'aggiornamento della configurazione. Questo numero viene riportato nel nome oggetto Amazon S3 distribuito. Per ulteriori informazioni, consulta [Configurazione del formato dei nomi degli oggetti Amazon S3](s3-object-name.md).

Eseguite i passaggi descritti nei seguenti argomenti per creare uno stream Firehose.

**Topics**
+ [

# Scegli la fonte e la destinazione per il tuo stream Firehose
](create-name.md)
+ [

# Configurazione delle impostazioni di origine
](configure-source.md)
+ [

# (Facoltativo) Configurare la trasformazione dei record e la conversione del formato
](create-transform.md)
+ [

# Configurare le impostazioni di destinazione
](create-destination.md)
+ [

# Configurare le impostazioni di backup
](create-configure-backup.md)
+ [

# Configurare le impostazioni avanzate
](create-configure-advanced.md)

# Scegli la fonte e la destinazione per il tuo stream Firehose
<a name="create-name"></a>

****

1. Aprire la console Firehose all'indirizzo. [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/)

1. Scegli **Crea un flusso Firehose**. 

1. Nella pagina **Crea stream Firehose**, scegli una fonte per il tuo stream Firehose tra una delle seguenti opzioni.
   + **Direct PUT**: scegliete questa opzione per creare uno stream Firehose su cui le applicazioni di produzione scrivono direttamente. Di seguito è riportato un elenco di AWS servizi, agenti e servizi open source che si integrano con Direct PUT in Amazon Data Firehose. Questo elenco non è esaustivo e potrebbero esserci servizi aggiuntivi che possono essere utilizzati per inviare dati direttamente a Firehose.
     + AWS SDK
     + AWS Lambda
     + AWS CloudWatch Tronchi
     + AWS CloudWatch Eventi
     + AWS Flussi metrici su cloud
     + AWS IoT
     + AWS Eventbridge
     + Amazon Simple Email Service
     + Amazon SNS
     + AWS Registri ACL Web WAF
     + Gateway Amazon API: log di accesso
     + Amazon Pinpoint
     + Log di broker Amazon MSK
     + Log di query di risolutore Amazon Route 53
     + AWS Registri degli avvisi del Network Firewall
     + AWS Registri di flusso del Network Firewall
     + Amazon Elasticache Redis SLOWLOG
     + Kinesis Agent (Linux)
     + Kinesis Tap (Windows)
     + Fluentbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data** Streams: scegli questa opzione per configurare un flusso Firehose che utilizza un flusso di dati Kinesis come origine dati. È quindi possibile utilizzare Firehose per leggere facilmente i dati da un flusso di dati Kinesis esistente e caricarli nelle destinazioni. Per ulteriori informazioni sull'utilizzo di Kinesis Data Streams come origine dati[, consulta Invio di dati a un flusso Firehose con Kinesis](writing-with-kinesis-streams.md) Data Streams.
   + **Amazon MSK**: scegli questa opzione per configurare uno stream Firehose che utilizza Amazon MSK come origine dati. È quindi possibile utilizzare Firehose per leggere facilmente i dati da un cluster Amazon MSK esistente e caricarli in bucket S3 specifici. Per ulteriori informazioni, consulta [Invio di dati a uno stream Firehose con Amazon MSK](writing-with-msk.md).

1. Scegliete una destinazione per il vostro stream Firehose tra una delle seguenti destinazioni supportate da Firehose.
   +  OpenSearch Servizio Amazon
   + Amazon OpenSearch Serverless
   + Amazon Redshift
   + Amazon S3
   + Tabelle Apache Iceberg
   + Coralogix
   + Datadog
   + Dynatrace
   + Elastic
   + Endpoint HTTP
   + Honeycomb
   + Logic Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. Per **il nome dello stream Firehose**, puoi utilizzare il nome che la console genera per te o aggiungere uno stream Firehose a tua scelta.

# Configurazione delle impostazioni di origine
<a name="configure-source"></a>

È possibile configurare le impostazioni della sorgente in base alla fonte scelta per inviare informazioni a uno stream Firehose dalla console. Puoi configurare le impostazioni di origine per Amazon MSK e Amazon Kinesis Data Streams come origine. Non sono disponibili impostazioni di origine per Direct PUT come origine.

# Configurazione delle impostazioni di origine per Amazon MSK
<a name="writing-with-msk"></a>

Quando scegli Amazon MSK per inviare informazioni a uno stream Firehose, puoi scegliere tra cluster con provisioning MSK e cluster MSK-Serverless. È quindi possibile utilizzare Firehose per leggere facilmente i dati da un cluster e un argomento Amazon MSK specifici e caricarli nella destinazione S3 specificata.

Nella sezione **Impostazioni di origine** della pagina, fornisci i valori per i seguenti campi.

****Connettività dei cluster Amazon MSK****  
Scegli l'opzione **Broker bootstrap privati** (consigliata) o **Broker bootstrap pubblici** in base alla configurazione del cluster. I broker bootstrap sono ciò che il client Apache Kafka utilizza come punto di partenza per connettersi al cluster. I broker bootstrap pubblici sono destinati all'accesso pubblico dall'esterno AWS, mentre i broker bootstrap privati sono destinati all'accesso dall'interno. AWS Per ulteriori informazioni su Amazon MSK, consulta [Streaming gestito da Amazon per Apache Kafka](https://docs.aws.amazon.com/msk/latest/developerguide/what-is-msk.html).   
Per connetterti a un cluster Amazon MSK con provisioning o serverless tramite broker bootstrap privati, il cluster deve soddisfare tutti i seguenti requisiti:  
+ Il cluster deve essere attivo.
+ Il cluster deve avere IAM come uno dei metodi di controllo dell'accesso.
+ La connettività privata multi-VPC deve essere abilitata per il metodo di controllo dell'accesso IAM.
+ È necessario aggiungere a questo cluster una policy basata sulle risorse che conceda al responsabile del servizio Firehose l'autorizzazione a richiamare l'operazione dell'API Amazon MSK. `CreateVpcConnection`
Per connetterti a un cluster Amazon MSK con provisioning tramite broker bootstrap pubblici, il cluster deve soddisfare tutti i seguenti requisiti.  
+ Il cluster deve essere attivo.
+ Il cluster deve avere IAM come uno dei metodi di controllo dell'accesso.
+ Il cluster deve essere accessibile pubblicamente.

****Account del cluster MSK****  
Puoi scegliere l'account in cui risiede il cluster Amazon MSK. Questo può essere uno dei seguenti.  
+ **Account corrente**: consente di inserire i dati da un cluster MSK nell'account corrente AWS . A tale scopo, è necessario specificare l'ARN del cluster Amazon MSK da cui lo stream Firehose leggerà i dati.
+ **Cross-account**: consente di importare dati da un cluster MSK in un altro account. AWS Per ulteriori informazioni, consulta [Consegna su più account da Amazon MSK](controlling-access.md#cross-account-delivery-msk).

****Argomento****  
Specificate l'argomento di Apache Kafka da cui desiderate che lo stream Firehose inserisca i dati. Non è possibile aggiornare questo argomento dopo il completamento della creazione dello stream Firehose.  
Firehose decomprime automaticamente i messaggi di Apache Kafka.

# Configurazione delle impostazioni di origine per Amazon Kinesis Data Streams
<a name="writing-with-kinesis-streams"></a>

Configura le impostazioni di origine per Amazon Kinesis Data Streams per inviare informazioni a un flusso Firehose come segue.

**Importante**  
Se utilizzi la Kinesis Producer Library (KPL) per scrivere i dati su un flusso di dati Kinesis, puoi utilizzare l'aggregazione per abbinare i record che scrivi al flusso di dati Kinesis. Se poi utilizzi quel flusso di dati come fonte per il tuo flusso Firehose, Amazon Data Firehose disaggrega i record prima di consegnarli alla destinazione. Se configuri il flusso Firehose per trasformare i dati, Amazon Data Firehose disaggrega i record prima di inviarli a. AWS Lambda Per ulteriori informazioni, consulta [Sviluppo di producer di flussi di dati Amazon Kinesis tramite la Kinesis Producer Library](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html) e [Aggregazione](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation).

**Nelle impostazioni di origine**, scegli uno stream esistente nell'elenco dei flussi di **dati Kinesis o inserisci un flusso** di dati ARN nel formato. `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]`

Se non disponi di un flusso di dati esistente, scegli **Crea** per crearne uno nuovo dalla console Amazon Kinesis. Potrebbe essere necessario un ruolo IAM con l'autorizzazione necessaria sullo stream Kinesis. Per ulteriori informazioni, consulta [Concedi a Firehose l'accesso a una destinazione Amazon S3](controlling-access.md#using-iam-s3). Dopo aver creato un nuovo stream, scegli l'icona di aggiornamento per aggiornare l'elenco degli stream **Kinesis**. Se disponi di un numero elevato di flussi, filtra l'elenco utilizzando **Filter by name (Filtra per nome)**. 

**Nota**  
Quando configuri un flusso di dati Kinesis come origine di un flusso Firehose, Amazon Data Firehose e le operazioni sono disabilitate. `PutRecord` `PutRecordBatch` In questo caso, per aggiungere dati allo stream Firehose, utilizza Kinesis Data Streams and operations. `PutRecord` `PutRecords`

Amazon Data Firehose inizia a leggere i dati dalla `LATEST` posizione dello stream Kinesis. Per ulteriori informazioni sulle posizioni di Kinesis Data Streams, vedere. [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html)

 Amazon Data Firehose chiama l'operazione Kinesis Data [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html)Streams una volta al secondo per ogni shard. Tuttavia, quando il backup completo è abilitato, Firehose chiama l'operazione Kinesis Data `GetRecords` Streams due volte al secondo per ogni shard, una per la destinazione di consegna principale e l'altra per il backup completo.

È possibile leggere più stream Firehose dallo stesso stream Kinesis. Anche altre applicazioni Kinesis (consumer) possono leggere dallo stesso flusso. Ogni chiamata da uno stream Firehose o da un'altra applicazione consumer viene conteggiata ai fini del limite di throttling complessivo per lo shard. Per evitare la limitazione, pianificare con attenzione le applicazioni. Per ulteriori informazioni sui limiti di Kinesis Data Streams, consulta [Limiti di Amazon Kinesis Streams](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html). 

Procedi al passaggio successivo per configurare la trasformazione dei record e la conversione del formato.

# (Facoltativo) Configurare la trasformazione dei record e la conversione del formato
<a name="create-transform"></a>

Configura Amazon Data Firehose per trasformare e convertire i dati dei tuoi record.

## Se scegli Amazon MSK come sorgente per il tuo stream Firehose.
<a name="create-transform-msk"></a>

**Nella sezione **Trasforma i record di origine con AWS Lambda**, fornisci i valori per il campo seguente.**

1.   
**Trasformazione dei dati**  
Per creare uno stream Firehose che non trasformi i dati in entrata, non selezionare la casella di controllo **Abilita la trasformazione dei dati.**   
**Per specificare una funzione Lambda da richiamare e utilizzare da Firehose per trasformare i dati in entrata prima di consegnarli, seleziona la casella di controllo Abilita la trasformazione dei dati.** Puoi configurare una nuova funzione Lambda utilizzando uno degli schemi Lambda o scegliere una funziona Lambda esistente. La funzione Lambda deve contenere il modello di stato richiesto da Firehose. Per ulteriori informazioni, consulta [Trasforma i dati di origine in Amazon Data Firehose](data-transformation.md).

1. Nella sezione **Convert record format (Converti formato record)** fornire i valori per il seguente campo:  
**Record format conversion (Conversione del formato record)**  
**Per creare uno stream Firehose che non converta il formato dei record di dati in entrata, scegliete Disabilitato.**   
Per convertire il formato dei record in entrata, scegli **Enabled (Abilitato)**, quindi specifica il formato di output desiderato. È necessario specificare una AWS Glue tabella che contenga lo schema che si desidera che Firehose utilizzi per convertire il formato di record. Per ulteriori informazioni, consulta [Convertire il formato dei dati di input in Amazon Data Firehose](record-format-conversion.md).  
Per un esempio di come impostare la conversione del formato di record con CloudFormation, vedi [AWS:::KinesisFirehose: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

## Se scegli Amazon Kinesis Data Streams o Direct PUT come origine per il tuo flusso Firehose
<a name="create-transform-directput"></a>

 

**Nella sezione **Impostazioni sorgente**, fornisci i seguenti campi.**

1. In **Trasforma record**, scegli una delle seguenti opzioni:

   1. **Se la tua destinazione è Amazon S3 o Splunk, nella sezione **Decomprimi i record di origine di CloudWatch Amazon** Logs, scegli Attiva la decompressione.**

   1. Nella sezione **Trasforma i record di origine con AWS Lambda**, fornisci i valori per il campo seguente:  
**Trasformazione dei dati**  
Per creare uno stream Firehose che non trasformi i dati in entrata, non selezionare la casella di controllo **Abilita la trasformazione dei dati.**   
**Per specificare una funzione Lambda che Amazon Data Firehose possa richiamare e utilizzare per trasformare i dati in entrata prima di consegnarli, seleziona la casella di controllo Abilita la trasformazione dei dati.** Puoi configurare una nuova funzione Lambda utilizzando uno degli schemi Lambda o scegliere una funziona Lambda esistente. La tua funzione Lambda deve contenere il modello di stato richiesto da Amazon Data Firehose. Per ulteriori informazioni, consulta [Trasforma i dati di origine in Amazon Data Firehose](data-transformation.md).

1. Nella sezione **Convert record format (Converti formato record)** fornire i valori per il seguente campo:  
**Record format conversion (Conversione del formato record)**  
**Per creare uno stream Firehose che non converta il formato dei record di dati in entrata, scegliete Disabilitato.**   
Per convertire il formato dei record in entrata, scegli **Enabled (Abilitato)**, quindi specifica il formato di output desiderato. È necessario specificare una AWS Glue tabella che contenga lo schema che desideri che Amazon Data Firehose utilizzi per convertire il formato di record. Per ulteriori informazioni, consulta [Convertire il formato dei dati di input in Amazon Data Firehose](record-format-conversion.md).  
Per un esempio di come impostare la conversione del formato di record con CloudFormation, vedi [AWS:::KinesisFirehose: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

# Configurare le impostazioni di destinazione
<a name="create-destination"></a>

Questa sezione descrive le impostazioni da configurare per lo stream Firehose in base alla destinazione selezionata. 

**Topics**
+ [

## Configurazione delle impostazioni di destinazione per Amazon S3
](#create-destination-s3)
+ [

## Configura le impostazioni di destinazione per Apache Iceberg Tables
](#create-destination-iceberg)
+ [

## Configurazione delle impostazioni di destinazione per Amazon Redshift
](#create-destination-redshift)
+ [

## Configurare OpenSearch le impostazioni di destinazione per il servizio
](#create-destination-elasticsearch)
+ [

## Configura le impostazioni di destinazione per Serverless OpenSearch
](#create-destination-opensearch-serverless)
+ [

## Configura le impostazioni di destinazione per HTTP Endpoint
](#create-destination-http)
+ [

## Configura le impostazioni di destinazione per Datadog
](#create-destination-datadog)
+ [

## Configura le impostazioni di destinazione per Honeycomb
](#create-destination-honeycomb)
+ [

## Configura le impostazioni di destinazione per Coralogix
](#create-destination-coralogix)
+ [

## Configura le impostazioni di destinazione per Dynatrace
](#create-destination-dynatrace)
+ [

## Configura le impostazioni di destinazione per LogicMonitor
](#create-destination-logicmonitor)
+ [

## Configura le impostazioni di destinazione per Logz.io
](#create-destination-logz)
+ [

## Configurare le impostazioni di destinazione per MongoDB Atlas
](#create-destination-mongodb)
+ [

## Configura le impostazioni di destinazione per New Relic
](#create-destination-new-relic)
+ [

## Configura le impostazioni di destinazione per Snowflake
](#create-destination-snowflake)
+ [

## Configura le impostazioni di destinazione per Splunk
](#create-destination-splunk)
+ [

## Configura le impostazioni di destinazione per Splunk Observability Cloud
](#create-destination-splunk-cloud)
+ [

## Configura le impostazioni di destinazione per Sumo Logic
](#create-destination-sumo-logic)
+ [

## Configura le impostazioni di destinazione per Elastic
](#create-destination-elastic)

## Configurazione delle impostazioni di destinazione per Amazon S3
<a name="create-destination-s3"></a>

Per utilizzare Amazon S3 come destinazione per il flusso di Firehose, è necessario specificare le seguenti impostazioni:

****
+ Inserisci i valori per i seguenti campi.  
 **Bucket S3**   
Scegliere un bucket S3 di proprietà dove devono essere distribuiti i dati in streaming. Puoi creare un nuovo bucket S3 o sceglierne uno esistente.  
 **Nuovo delimitatore di riga**   
Puoi configurare lo stream Firehose per aggiungere un nuovo delimitatore di riga tra i record negli oggetti che vengono consegnati ad Amazon S3. Per farlo, scegli **Abilitato**. Per non aggiungere un nuovo delimitatore di riga tra i record negli oggetti distribuiti ad Amazon S3, scegli **Disabilitato**. Se prevedi di utilizzare Athena per interrogare oggetti S3 con record aggregati, abilita questa opzione.  
 **Partizionamento dinamico**   
Scegli **Abilitato** per abilitare e configurare il partizionamento dinamico.   
 **Disaggregazione di più record**   
Si tratta del processo di analisi dei record nello stream Firehose e di separazione degli stessi in base a un codice JSON valido o al nuovo delimitatore di riga specificato.  
Se si aggregano più eventi, registri o record in un'unica chiamata PutRecordBatch API, è comunque possibile abilitare PutRecord e configurare il partizionamento dinamico. Con i dati aggregati, quando abiliti il partizionamento dinamico, Amazon Data Firehose analizza i record e cerca più oggetti JSON validi all'interno di ogni chiamata API. Quando il flusso Firehose è configurato con Kinesis Data Stream come sorgente, puoi anche utilizzare l'aggregazione integrata nella Kinesis Producer Library (KPL). La funzionalità di partizione dei dati viene eseguita dopo la disaggregazione dei dati. Pertanto, ogni record di ogni chiamata API può essere inviato a diversi prefissi Amazon S3. Puoi anche sfruttare l'integrazione della funzione Lambda per eseguire qualsiasi altra deaggregazione o qualsiasi altra trasformazione prima della funzionalità di partizionamento dei dati.  
Se i dati sono aggregati, il partizionamento dinamico può essere applicato solo dopo aver eseguito la disaggregazione dei dati. Quindi, se abiliti il partizionamento dinamico dei dati aggregati, devi scegliere **Abilitato** per abilitare la disaggregazione di più record. 
Firehose stream esegue le seguenti fasi di elaborazione nel seguente ordine: deaggregazione KPL (protobuf), deaggregazione JSON o delimiter, elaborazione Lambda, partizionamento dei dati, conversione del formato dei dati e distribuzione di Amazon S3.  
 **Tipo di deaggregazione multi-record**   
Se è stata abilitata la deaggregazione di più record, è necessario specificare il metodo di disaggregazione dei dati da parte di Firehose. Utilizza il menu a discesa per scegliere **JSON** o **Delimitata**.   
 **Analisi in linea**   
Questo è uno dei meccanismi supportati per partizionare in modo dinamico i dati destinati ad Amazon S3. Per utilizzare l'analisi in linea per il partizionamento dinamico dei dati, devi specificare i parametri del record di dati da utilizzare come chiavi di partizionamento e fornire un valore per ogni chiave di partizionamento specificata. Scegli **Abilitato** per abilitare e configurare l'analisi in linea.  
Se hai specificato una funzione AWS Lambda nei passaggi precedenti per trasformare i record di origine, puoi usare questa funzione per partizionare dinamicamente i dati associati a S3 e puoi comunque creare le tue chiavi di partizionamento con l'analisi in linea. Con il partizionamento dinamico, puoi utilizzare l'analisi in linea o la funzione AWS Lambda per creare le tue chiavi di partizionamento. Oppure puoi utilizzare contemporaneamente l'analisi in linea e la funzione AWS Lambda per creare le tue chiavi di partizionamento.   
 **Chiavi di partizionamento dinamico**   
Puoi utilizzare i campi **Chiave** e **Valore** per specificare i parametri del record di dati da usare come chiavi di partizionamento dinamico e le query jq per generare valori delle chiavi di partizionamento dinamico. Firehose supporta solo jq 1.6. È possibile specificare fino a 50 chiavi di partizionamento dinamico. È necessario inserire espressioni jq valide per i valori della chiave di partizionamento dinamico per configurare correttamente il partizionamento dinamico per il flusso Firehose.  
 **Prefisso del bucket S3**   
Quando abiliti e configuri il partizionamento dinamico, devi specificare i prefissi dei bucket S3 a cui Amazon Data Firehose deve fornire i dati partizionati.  
Affinché il partizionamento dinamico sia configurato correttamente, il numero di prefissi del bucket S3 deve essere identico al numero delle chiavi di partizionamento specificate.  
 Puoi partizionare i dati di origine con l'analisi in linea o con la funzione AWS Lambda specificata. Se hai specificato una funzione AWS Lambda per creare chiavi di partizionamento per i tuoi dati di origine, devi digitare manualmente i valori del prefisso del bucket S3 utilizzando il seguente formato: "lambda:keyID». partitionKeyFrom Se utilizzi l'analisi in linea per specificare le chiavi di partizionamento per i tuoi dati di origine, puoi digitare manualmente i valori di anteprima del bucket S3 utilizzando il seguente formato: "partitionKeyFromquery:keyID» oppure puoi scegliere il pulsante **Applica chiavi di partizionamento dinamico per utilizzare le coppie di partizionamento dinamico** per generare automaticamente i prefissi dei bucket S3. key/value Durante il partizionamento dei dati con analisi in linea o AWS Lambda, puoi anche utilizzare le seguenti forme di espressione nel prefisso del bucket S3:\$1 \$1namespace:value\$1, dove lo spazio dei nomi può essere Query o Lambda. partitionKeyFrom partitionKeyFrom   
 **Bucket S3 e fuso orario del prefisso di output di errore S3**   
Scegli un fuso orario che desideri utilizzare per la data e l'ora nei [prefissi personalizzati per gli oggetti Amazon S3](s3-prefixes.md). Per impostazione predefinita, Firehose aggiunge un prefisso orario in UTC. È possibile modificare il fuso orario utilizzato nei prefissi S3 se si desidera utilizzare un fuso orario diverso.   
 **Suggerimenti per il buffering**   
Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.   
 **Compressione S3**   
Scegli la compressione dei dati GZIP, Snappy, Zip o Snappy compatibile con Hadoop oppure nessuna compressione dei dati. La compressione Snappy, il formato zip e Snappy compatibile con Hadoop non è disponibile per i flussi Firehose con Amazon Redshift come destinazione.   
**Formato di estensione del file S3 (opzionale)**  
Specificare un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z\$1 -\$1.\$1' (). L'estensione del file non può superare i 128 caratteri.  
**Crittografia S3**  
Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con (SSE-KMS) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta [Protezione dei dati mediante la crittografia lato server con AWS chiavi gestite da KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Configura le impostazioni di destinazione per Apache Iceberg Tables
<a name="create-destination-iceberg"></a>

Firehose supporta Apache Iceberg Tables come destinazione in tutte le regioni tranne [Regioni AWS](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html?icmpid=docs_homepage_addtlrcs#region)Cina AWS GovCloud (US) Regions, Asia Pacifico (Taipei), Asia Pacifico (Malesia), Asia Pacifico (Nuova Zelanda) e Messico (Centrale).

Per ulteriori informazioni su Apache Iceberg Tables come destinazione, consulta. [Distribuisci dati ad Apache Iceberg Tables con Amazon Data Firehose](apache-iceberg-destination.md)

## Configurazione delle impostazioni di destinazione per Amazon Redshift
<a name="create-destination-redshift"></a>

Questa sezione descrive le impostazioni per l'utilizzo di Amazon Redshift come destinazione dello stream Firehose.

Scegli una delle procedure seguenti a seconda che tu disponga di un cluster con provisioning di Amazon Redshift o di un gruppo di lavoro Amazon Redshift serverless.
+ [Cluster con provisioning di Amazon Redshift](#create-destination-redshift-provisioned)
+ [Configura le impostazioni di destinazione per il gruppo di lavoro Amazon Redshift Serverless](#create-destination-redshift-serverless)
**Nota**  
Firehose non è in grado di scrivere su cluster Amazon Redshift che utilizzano un routing VPC avanzato.

### Cluster con provisioning di Amazon Redshift
<a name="create-destination-redshift-provisioned"></a>

Questa sezione descrive le impostazioni per l'utilizzo del cluster con provisioning di Amazon Redshift come destinazione dello stream Firehose.

****
+ Immetti i valori per i seguenti campi:  
 **Cluster**   
Il cluster Amazon Redshift sul quale vengono copiati i dati del bucket S3. Configura il cluster Amazon Redshift in modo che sia accessibile al pubblico e sblocca gli indirizzi IP di Amazon Data Firehose. Per ulteriori informazioni, consulta [Concedi a Firehose l'accesso a una destinazione Amazon Redshift](controlling-access.md#using-iam-rs).  
 **Autenticazione**   
Puoi scegliere di accedere username/password direttamente o recuperare il segreto da cui accedere Gestione dei segreti AWS al cluster Amazon Redshift.  
  + **Nome utente**

    Specificare un utente Amazon Redshift con le autorizzazioni per accedere al cluster Amazon Redshift. Tale utente deve disporre dell'autorizzazione `INSERT` di Amazon Redshift per copiare i dati dal bucket S3 al cluster Amazon Redshift.
  + **Password** 

    Specificare la password per l'utente che dispone delle autorizzazioni per accedere al cluster.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga le credenziali per il cluster Amazon Redshift. Se non vedi il tuo segreto nell'elenco a discesa, creane uno Gestione dei segreti AWS per le tue credenziali Amazon Redshift. Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Database**   
Il database Amazon Redshift su cui vengono copiati i dati.  
 **Tabella**   
La tabella Amazon Redshift su cui vengono copiati i dati.  
 **Colonne**   
(Opzionale) Le colonne specifiche della tabella su cui vengono copiati i dati. Utilizza questa opzione se il numero di colonne definite negli oggetti Amazon S3 è inferiore al numero delle colonne nella tabella Amazon Redshift.   
 **Destinazione S3 intermedia**   <a name="redshift-s3-bucket"></a>
Firehose invia prima i dati al bucket S3 e poi emette un **COPY** comando Amazon Redshift per caricare i dati nel cluster Amazon Redshift. Specificare un bucket S3 di proprietà dove devono essere distribuiti i dati in streaming. Crea un nuovo bucket S3 o scegline uno esistente di proprietà.  
Firehose non elimina i dati dal bucket S3 dopo averli caricati nel cluster Amazon Redshift. Puoi gestire i dati nel bucket S3 utilizzando una configurazione del ciclo di vita. Per ulteriori informazioni, consulta [Gestione del ciclo di vita degli oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) nella *Guida per l'utente di Amazon Simple Storage Service*.  
 **Prefisso S3 intermedio**   
(Facoltativo) Per utilizzare il prefisso predefinito per gli oggetti Amazon S3, lascia vuota questa opzione. Firehose utilizza automaticamente un prefisso in formato orario "`YYYY/MM/dd/HH`" UTC per gli oggetti Amazon S3 consegnati. Puoi aggiungerlo all'inizio di questo prefisso. Per ulteriori informazioni, consulta [Configurazione del formato dei nomi degli oggetti Amazon S3](s3-object-name.md).  
 **COPY options (Opzioni COPY)**   <a name="redshift-copy-parameters"></a>
Parametri che puoi specificare nel comando **COPY** di Amazon Redshift. Questi potrebbero essere necessari per la configurazione. Ad esempio, "`GZIP`" è necessario se la compressione dei dati di Amazon S3 è abilitata. «`REGION`" è obbligatorio se il bucket S3 non si trova nella stessa AWS regione del cluster Amazon Redshift. Per ulteriori informazioni, consulta [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) nella *Guida per gli sviluppatori di database di Amazon Redshift*.  
 **COPY command (Comando COPY)**   <a name="redshift-copy-command"></a>
Il comando **COPY** di Amazon Redshift. Per ulteriori informazioni, consulta [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) nella *Guida per gli sviluppatori di database di Amazon Redshift*.  
 **Retry duration (Durata nuovi tentativi)**   
Periodo di tempo (0—7200 secondi) entro il quale Firehose riprova in caso di errore dei dati del cluster **COPY** Amazon Redshift. Firehose riprova ogni 5 minuti fino al termine del nuovo tentativo. Se si imposta la durata del nuovo tentativo su 0 (zero) secondi, Firehose non riprova in caso **COPY** di errore del comando.  
 **Suggerimenti per il buffering**   
Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.  
 **Compressione S3**   
Scegli la compressione dei dati GZIP, Snappy, Zip o Snappy compatibile con Hadoop oppure nessuna compressione dei dati. La compressione Snappy, il formato zip e Snappy compatibile con Hadoop non è disponibile per i flussi Firehose con Amazon Redshift come destinazione.   
**Formato di estensione del file S3 (opzionale)**  
Formato di estensione file S3 (opzionale): specifica un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z\$1 -\$1.\$1' (). L'estensione del file non può superare i 128 caratteri.  
**Crittografia S3**  
Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con (SSE-KMS) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta [Protezione dei dati mediante la crittografia lato server con AWS chiavi gestite da KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

### Configura le impostazioni di destinazione per il gruppo di lavoro Amazon Redshift Serverless
<a name="create-destination-redshift-serverless"></a>

Questa sezione descrive le impostazioni per l'utilizzo del gruppo di lavoro Amazon Redshift Serverless come destinazione del flusso Firehose.

****
+ Immetti i valori per i seguenti campi:  
 **Workgroup name (Nome del gruppo di lavoro)**   
Il gruppo di lavoro Amazon Redshift serverless in cui vengono copiati i dati del bucket S3. Configura il gruppo di lavoro Amazon Redshift Serverless in modo che sia accessibile al pubblico e sblocca gli indirizzi IP Firehose. Per ulteriori informazioni, consulta la sezione Connessione a un'istanza Amazon Redshift serverless accessibile pubblicamente in [Connessione ad Amazon Redshift serverless](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-connecting.html) e anche [Concedi a Firehose l'accesso a una destinazione Amazon Redshift](controlling-access.md#using-iam-rs).  
 **Autenticazione**   
Puoi scegliere di accedere username/password direttamente o recuperare il codice segreto Gestione dei segreti AWS per accedere al gruppo di lavoro Amazon Redshift Serverless.  
  + **Nome utente**

    Specificare un utente Amazon Redshift con le autorizzazioni per accedere al gruppo di lavoro Amazon Redshift Serverless. Questo utente deve disporre dell'autorizzazione `INSERT` di Amazon Redshift per copiare i dati dal bucket S3 al gruppo di lavoro Amazon Redshift serverless.
  + **Password** 

    Specificare la password per l'utente che dispone delle autorizzazioni per accedere al gruppo di lavoro Amazon Redshift Serverless.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga le credenziali per il gruppo di lavoro Serverless Amazon Redshift. Se non vedi il tuo segreto nell'elenco a discesa, creane uno Gestione dei segreti AWS per le tue credenziali Amazon Redshift. Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Database**   
Il database Amazon Redshift su cui vengono copiati i dati.  
 **Tabella**   
La tabella Amazon Redshift su cui vengono copiati i dati.  
 **Colonne**   
(Opzionale) Le colonne specifiche della tabella su cui vengono copiati i dati. Utilizza questa opzione se il numero di colonne definite negli oggetti Amazon S3 è inferiore al numero delle colonne nella tabella Amazon Redshift.   
 **Destinazione S3 intermedia**   <a name="redshift-s3-bucket"></a>
Amazon Data Firehose invia prima i dati al bucket S3 e poi emette un **COPY** comando Amazon Redshift per caricare i dati nel tuo gruppo di lavoro Serverless Amazon Redshift. Specificare un bucket S3 di proprietà dove devono essere distribuiti i dati in streaming. Crea un nuovo bucket S3 o scegline uno esistente di proprietà.  
Firehose non elimina i dati dal bucket S3 dopo averli caricati nel gruppo di lavoro Amazon Redshift Serverless. Puoi gestire i dati nel bucket S3 utilizzando una configurazione del ciclo di vita. Per ulteriori informazioni, consulta [Gestione del ciclo di vita degli oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) nella *Guida per l'utente di Amazon Simple Storage Service*.  
 **Prefisso S3 intermedio**   
(Facoltativo) Per utilizzare il prefisso predefinito per gli oggetti Amazon S3, lascia vuota questa opzione. Firehose utilizza automaticamente un prefisso in formato orario "`YYYY/MM/dd/HH`" UTC per gli oggetti Amazon S3 consegnati. Puoi aggiungerlo all'inizio di questo prefisso. Per ulteriori informazioni, consulta [Configurazione del formato dei nomi degli oggetti Amazon S3](s3-object-name.md).  
 **COPY options (Opzioni COPY)**   <a name="redshift-copy-parameters"></a>
Parametri che puoi specificare nel comando **COPY** di Amazon Redshift. Questi potrebbero essere necessari per la configurazione. Ad esempio, "`GZIP`" è necessario se la compressione dei dati di Amazon S3 è abilitata. «`REGION`" è obbligatorio se il bucket S3 non si trova nella stessa AWS regione del gruppo di lavoro Serverless Amazon Redshift. Per ulteriori informazioni, consulta [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) nella *Guida per gli sviluppatori di database di Amazon Redshift*.  
 **COPY command (Comando COPY)**   <a name="redshift-copy-command"></a>
Il comando **COPY** di Amazon Redshift. Per ulteriori informazioni, consulta [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) nella *Guida per gli sviluppatori di database di Amazon Redshift*.  
 **Retry duration (Durata nuovi tentativi)**   
Periodo di tempo (0—7200 secondi) entro il quale Firehose riprova in caso di errore dei dati del gruppo di lavoro **COPY** Amazon Redshift Serverless. Firehose riprova ogni 5 minuti fino al termine del nuovo tentativo. Se si imposta la durata del nuovo tentativo su 0 (zero) secondi, Firehose non riprova in caso **COPY** di errore del comando.  
 **Suggerimenti per il buffering**   
Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.  
 **Compressione S3**   
Scegli la compressione dei dati GZIP, Snappy, Zip o Snappy compatibile con Hadoop oppure nessuna compressione dei dati. La compressione Snappy, il formato zip e Snappy compatibile con Hadoop non è disponibile per i flussi Firehose con Amazon Redshift come destinazione.   
**Formato di estensione del file S3 (opzionale)**  
Formato di estensione file S3 (opzionale): specifica un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z\$1 -\$1.\$1' (). L'estensione del file non può superare i 128 caratteri.  
**Crittografia S3**  
Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con (SSE-KMS) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta [Protezione dei dati mediante la crittografia lato server con AWS chiavi gestite da KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Configurare OpenSearch le impostazioni di destinazione per il servizio
<a name="create-destination-elasticsearch"></a>

Firehose supporta le versioni di Elasticsearch: 1.5, 2.3, 5.1, 5.3, 5.5, 5.6 e tutte le versioni 6.\$1, 7.\$1 e 8.\$1. Firehose supporta Amazon OpenSearch Service 2.x e 3.x.

Questa sezione descrive le opzioni per utilizzare OpenSearch Service per la destinazione.

****
+ Immetti i valori per i seguenti campi:  
** **OpenSearch Dominio di servizio** **  
Il dominio del OpenSearch servizio a cui vengono consegnati i dati.  
** **Indice** **  
Il nome dell'indice del OpenSearch servizio da utilizzare per l'indicizzazione dei dati nel cluster di OpenSearch servizio.  
** **Index rotation (Rotazione indice)** **  
Scegli se e con quale frequenza ruotare l'indice del OpenSearch servizio. Se la rotazione dell’indice è abilitata, Amazon Data Firehose aggiunge il timestamp corrispondente al nome dell’indice specificato ed esegue la rotazione. Per ulteriori informazioni, consulta [Configura la rotazione dell'indice per Service OpenSearch](es-index-rotation.md).  
** **Tipo** **  
Il nome del tipo di OpenSearch servizio da utilizzare per l'indicizzazione dei dati nel cluster di servizio. OpenSearch Per Elasticsearch 7.x e OpenSearch 1.x, può esserci un solo tipo per indice. Se provi a specificare un nuovo tipo per un indice esistente che ha già un altro tipo, Firehose restituisce un errore in fase di runtime.   
Per Elasticsearch 7.x, lasciare vuoto questo campo.  
** **Retry duration (Durata nuovi tentativi)** **  
Intervallo di tempo entro il quale Firehose deve riprovare se una richiesta di indice fallisce. OpenSearch Per la durata dei nuovi tentativi, è possibile impostare qualsiasi valore compreso tra 0 e 7200 secondi. La durata predefinita dei nuovi tentativi è 300 secondi. Firehose riproverà più volte con il back up esponenziale disattivato fino alla scadenza della durata del nuovo tentativo.  
Una volta scaduta la durata del nuovo tentativo, Firehose invia i dati a Dead Letter Queue (DLQ), un bucket di errori S3 configurato. Per i dati consegnati a DLQ, è necessario reindirizzare i dati dal bucket di errore S3 configurato alla destinazione. OpenSearch   
Se desideri impedire allo stream di Firehose di fornire dati a DLQ a causa di tempi di inattività o di manutenzione dei OpenSearch cluster, puoi configurare la durata dei nuovi tentativi su un valore più alto in secondi. [È possibile aumentare il valore della durata del nuovo tentativo fino a 7200 secondi contattando l'assistenza.AWS](https://aws.amazon.com/contact-us/)   
** **Tipo di ID documento** **  
Indica il metodo per impostare l'ID documento. I metodi supportati sono ID documento generato da FireHose e ID documento generato dal OpenSearch servizio. L'ID documento generato da FireHose è l'opzione predefinita quando il valore dell'ID del documento non è impostato. OpenSearch L'ID documento generato dal servizio è l'opzione consigliata perché supporta operazioni che richiedono molta scrittura, tra cui l'analisi dei log e l'osservabilità, consumando meno risorse della CPU nel dominio del OpenSearch servizio e quindi migliorando le prestazioni.  
** **Destination VPC connectivity (Connettività VPC di destinazione)** **  
Se il tuo dominio di OpenSearch servizio si trova in un VPC privato, utilizza questa sezione per specificare quel VPC. Specificate anche le sottoreti e i sottogruppi che desiderate che Amazon Data Firehose utilizzi quando invia dati al tuo dominio di servizio. OpenSearch Puoi utilizzare gli stessi gruppi di sicurezza utilizzati dal dominio OpenSearch Service. Se specifichi gruppi di sicurezza diversi, assicurati che consentano il traffico HTTPS in uscita al gruppo di sicurezza del dominio del OpenSearch servizio. Assicuratevi inoltre che il gruppo di sicurezza del dominio di OpenSearch servizio consenta il traffico HTTPS proveniente dai gruppi di sicurezza specificati durante la configurazione dello stream Firehose. Se utilizzi lo stesso gruppo di sicurezza sia per lo stream Firehose che per il dominio di OpenSearch servizio, assicurati che la regola in entrata del gruppo di sicurezza consenta il traffico HTTPS. Per ulteriori informazioni sulle regole dei gruppi di sicurezza, consulta [Regole del gruppo di sicurezza](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#SecurityGroupRules) nella documentazione di Amazon VPC.  
Quando specifichi delle sottoreti per la consegna dei dati alla destinazione in un VPC privato, assicurati di avere un numero sufficiente di indirizzi IP liberi nelle sottoreti scelte. Se non è disponibile un indirizzo IP gratuito in una sottorete specificata, Firehose non può creare o ENIs aggiungere dati per la consegna dei dati nel VPC privato e la consegna verrà compromessa o avrà esito negativo.  
**Suggerimenti sul buffer**  
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.

## Configura le impostazioni di destinazione per Serverless OpenSearch
<a name="create-destination-opensearch-serverless"></a>

Questa sezione descrive le opzioni per l'utilizzo di OpenSearch Serverless per la destinazione.

****
+ Immetti i valori per i seguenti campi:  
** **OpenSearch Collezione Serverless** **  
L'endpoint per un gruppo di indici OpenSearch Serverless a cui vengono distribuiti i dati.  
** **Indice** **  
Il nome dell'indice OpenSearch Serverless da utilizzare per l'indicizzazione dei dati nella raccolta Serverless. OpenSearch   
** **Destination VPC connectivity (Connettività VPC di destinazione)** **  
Se la tua raccolta OpenSearch Serverless si trova in un VPC privato, usa questa sezione per specificare quel VPC. Specificate anche le sottoreti e i sottogruppi che desiderate che Amazon Data Firehose utilizzi quando invia dati alla tua raccolta Serverless. OpenSearch   
Quando specifichi delle sottoreti per la consegna dei dati alla destinazione in un VPC privato, assicurati di avere un numero sufficiente di indirizzi IP liberi nelle sottoreti scelte. Se non è disponibile un indirizzo IP gratuito in una sottorete specificata, Firehose non può creare o ENIs aggiungere dati per la consegna dei dati nel VPC privato e la consegna verrà compromessa o avrà esito negativo.  
** **Retry duration (Durata nuovi tentativi)** **  
Intervallo di tempo entro il quale Firehose deve riprovare se una richiesta di indicizzazione a OpenSearch Serverless fallisce. Per la durata dei nuovi tentativi, è possibile impostare qualsiasi valore compreso tra 0 e 7200 secondi. La durata predefinita dei nuovi tentativi è 300 secondi. Firehose riproverà più volte con il back up esponenziale disattivato fino alla scadenza della durata del nuovo tentativo.  
Una volta scaduta la durata del nuovo tentativo, Firehose invia i dati a Dead Letter Queue (DLQ), un bucket di errori S3 configurato. Per i dati consegnati a DLQ, è necessario reindirizzare i dati dal bucket di errore S3 configurato alla destinazione Serverless. OpenSearch   
Se desideri impedire allo stream Firehose di fornire dati a DLQ a causa di tempi di inattività o di manutenzione di cluster OpenSearch Serverless, puoi configurare la durata dei tentativi su un valore più alto in secondi. [È possibile aumentare il valore della durata del nuovo tentativo portandolo a 7200 secondi contattando l'assistenza.AWS](https://aws.amazon.com/contact-us/)   
**Suggerimenti sul buffer**  
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.

## Configura le impostazioni di destinazione per HTTP Endpoint
<a name="create-destination-http"></a>

Questa sezione descrive le opzioni per l'utilizzo di un **endpoint HTTP** come destinazione.

**Importante**  
Se scegli un endpoint HTTP come destinazione, consulta e segui le istruzioni riportate in [Comprendi le specifiche di richiesta e risposta di consegna degli endpoint HTTP](httpdeliveryrequestresponse.md).

****
+ Fornisci i valori per i seguenti campi:  
 **Nome dell'endpoint HTTP: facoltativo**   
Specifica un nome intuitivo per l'endpoint HTTP. Ad esempio, `My HTTP Endpoint Destination`.  
 **URL dell'endpoint HTTP**   
Specifica l'URL per l'endpoint HTTP nel seguente formato: `https://xyz.httpendpoint.com`. L’URL deve essere un URL HTTPS.  
 **Autenticazione**   
Puoi scegliere di inserire direttamente la chiave di accesso o recuperare il segreto da cui accedere Gestione dei segreti AWS all'endpoint HTTP.  
  + **(Facoltativo) Chiave di accesso** 

    Contatta il proprietario dell'endpoint se hai bisogno di ottenere la chiave di accesso per abilitare la consegna dei dati al suo endpoint da Firehose.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga la chiave di accesso per l'endpoint HTTP. Se non vedi il tuo segreto nell'elenco a discesa, creane uno Gestione dei segreti AWS per la chiave di accesso. Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Codifica del contenuto**   
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** o **Disabilitato** per la codifica enable/disable del contenuto della tua richiesta.   
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati all'endpoint HTTP selezionato.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.  
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.  
Per le destinazioni degli endpoint HTTP, se visualizzi 413 codici di risposta dall'endpoint di destinazione in CloudWatch Logs, riduci la dimensione del suggerimento di buffering sullo stream Firehose e riprova.

## Configura le impostazioni di destinazione per Datadog
<a name="create-destination-datadog"></a>

Questa sezione descrive le opzioni per l'utilizzo di **Datadog** come destinazione. [Per ulteriori informazioni su Datadog, consulta amazon\$1web\$1services/. https://docs.datadoghq.com/integrations/](https://docs.datadoghq.com/integrations/amazon_web_services/)

****
+ Fornisci valori per i seguenti campi.  
 **URL dell'endpoint HTTP**   
Scegli dove vuoi inviare i dati da una delle seguenti opzioni nel menu a discesa.  
  + **Registri Datadog - US1**
  + **Registri Datadog - US3**
  + **Registri Datadog - US5**
  + **Registri Datadog - AP1**
  + **Registri Datadog - UE**
  + **Registri Datadog - GOV**
  + **Parametri Datadog - USA**
  + **Metriche Datadog - US5**
  + **Metriche Datadog - AP1**
  + **Parametri Datadog - UE**
  + **Configurazioni Datadog - US1**
  + **Configurazioni Datadog - US3**
  + **Configurazioni Datadog - US5**
  + **Configurazioni Datadog - AP1**
  + **Configurazioni Datadog - EU**
  + **Configurazioni Datadog - US GOV**  
 **Autenticazione**   
Puoi scegliere di inserire direttamente la chiave API o recuperare il segreto da cui accedere a Datadog. Gestione dei segreti AWS   
  + **Chiave API** 

    Contatta Datadog per ottenere la chiave API necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga la chiave API per Datadog. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Codifica del contenuto**   
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** o **Disabilitato** per la codifica enable/disable del contenuto della tua richiesta.   
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati all'endpoint HTTP selezionato.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.

## Configura le impostazioni di destinazione per Honeycomb
<a name="create-destination-honeycomb"></a>

Questa sezione descrive le opzioni per l'utilizzo di **Honeycomb** come destinazione. [Per ulteriori informazioni su Honeycomb, https://docs.honeycom consulta b. -cloudwatch-metrics/. io/getting-data-in/metrics/aws](https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/ )

****
+ Fornisci i valori per i seguenti campi:  
 **Endpoint Honeycomb Kinesis**   
Specificate l'URL per l'endpoint HTTP nel seguente formato: b.io/1/kinesis\$1events/ \$1\$1dataset\$1\$1 https://api.honeycom   
 **Autenticazione**   
Puoi scegliere di inserire direttamente la chiave API o recuperare il segreto da cui accedere a Honeycomb. Gestione dei segreti AWS   
  + **Chiave API** 

    Contatta Honeycomb per ottenere la chiave API necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga la chiave API per Honeycomb. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Codifica del contenuto**   
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** per abilitare la codifica del contenuto della richiesta. Questa è l'opzione consigliata per la destinazione Honeycomb.  
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati all'endpoint HTTP selezionato.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.

## Configura le impostazioni di destinazione per Coralogix
<a name="create-destination-coralogix"></a>

Questa sezione descrive le opzioni per l'utilizzo di **Coralogix** come destinazione. [Per ulteriori informazioni su Coralogix, consulta Introduzione a Coralogix.](https://coralogix.com/docs/guide-first-steps-coralogix/)

****
+ Fornisci i valori per i seguenti campi:  
 **URL dell'endpoint HTTP**   
Scegli l'URL dell'endpoint HTTP tra le seguenti opzioni nel menu a discesa:  
  + **Coralogix - STATI UNITI**
  + **Coralogix - SINGAPORE**
  + **Coralogix - IRLANDA**
  + **Coralogix - INDIA**
  + **Coralogix - STOCCOLMA**  
 **Autenticazione**   
Puoi scegliere di inserire direttamente la chiave privata o recuperare il codice segreto per accedere a Coralogix. Gestione dei segreti AWS   
  + **Chiave privata** 

    Contatta Coralogix per ottenere la chiave privata necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.
  + **Secret**

    Seleziona una cartella segreta Gestione dei segreti AWS che contenga la chiave privata per Coralogix. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Codifica del contenuto**   
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** per abilitare la codifica del contenuto della richiesta. Questa è l'opzione consigliata per la destinazione Coralogix.  
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati all'endpoint HTTP selezionato.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
  + applicationName: l’ambiente in cui viene eseguito Data Firehose
  + subsystemName: il nome dell’integrazione Data Firehose
  + computerName: il nome del flusso Firehose in uso  
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia in base al fornitore di servizi.

## Configura le impostazioni di destinazione per Dynatrace
<a name="create-destination-dynatrace"></a>

Questa sezione descrive le opzioni per l'utilizzo di **Dynatrace** come destinazione. [Per ulteriori informazioni, consulta https://www.dynatrace.com/support/ help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch -metric-streams/.](https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/)

****
+ Scegli le opzioni per utilizzare Dynatrace come destinazione per il tuo stream Firehose.  
 **Tipo di ingestione**   
Scegliete se desiderate fornire **metriche** o **log** (impostazione predefinita) in Dynatrace per ulteriori analisi ed elaborazioni.  
 **URL dell'endpoint HTTP**   
**Scegli l'URL dell'endpoint HTTP (**Dynatrace US, Dynatrace** **EU o Dynatrace Global**) dal menu a discesa.**  
 **Autenticazione**   
Puoi scegliere di inserire direttamente il token API o recuperare il codice segreto per accedere a Dynatrace. Gestione dei segreti AWS   
  + **Token API** 

    Genera il token API Dynatrace necessario per abilitare la consegna dei dati a questo endpoint da Firehose. Per ulteriori informazioni, consulta API [Dynatrace](https://docs.dynatrace.com/docs/dynatrace-api/basics/dynatrace-api-authentication) - Tokens and authentication.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga il token API per Dynatrace. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **URL API**   
Fornisci l'URL API dell'ambiente Dynatrace.  
 **Codifica del contenuto**   
Scegli se vuoi abilitare la codifica del contenuto per comprimere il corpo della richiesta. Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. **Se abilitata, il contenuto viene compresso nel formato GZIP.**  
 **Retry duration (Durata nuovi tentativi)**   
Specificate per quanto tempo Firehose riprova a inviare dati all'endpoint HTTP selezionato.   
Dopo l’invio dei dati, Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.   
Ogni volta che Firehose invia dati all'endpoint HTTP, durante il tentativo iniziale o dopo un nuovo tentativo, riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Firehose attende comunque la conferma fino a quando non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desiderate che Firehose tenti di inviare nuovamente i dati, impostate questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
**Suggerimenti per il buffering**  
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. I suggerimenti sul buffer includono la dimensione e l'intervallo del buffer per i tuoi stream. La dimensione del buffer consigliata per la destinazione varia in base al fornitore di servizi.

## Configura le impostazioni di destinazione per LogicMonitor
<a name="create-destination-logicmonitor"></a>

Questa sezione descrive le opzioni per l'utilizzo di **LogicMonitor** come destinazione. Per ulteriori informazioni, consulta [https://www.logicmonitor.com](https://www.logicmonitor.com).

****
+ Fornisci i valori per i seguenti campi:  
 **URL dell'endpoint HTTP**   
Specificare l'URL per l'endpoint HTTP nel formato seguente.  

  ```
  https://ACCOUNT.logicmonitor.com
  ```  
 **Autenticazione**   
Puoi scegliere di inserire direttamente la chiave API o recuperare il codice segreto Gestione dei segreti AWS per accedere. LogicMonitor  
  + **Chiave API** 

    Contattateci LogicMonitor per ottenere la chiave API necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga la chiave API per. LogicMonitor Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Codifica del contenuto**   
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** o **Disabilitato** per la codifica enable/disable del contenuto della tua richiesta.   
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati all'endpoint HTTP selezionato.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.

## Configura le impostazioni di destinazione per Logz.io
<a name="create-destination-logz"></a>

Questa sezione descrive le opzioni per l'utilizzo di **Logz.io** come destinazione. [Per ulteriori informazioni, vedere https://logz.io/.](https://logz.io/)

**Nota**  
Nella regione Europa (Milano), Logz.io non è supportato come destinazione di Amazon Data Firehose.

****
+ Fornisci i valori per i seguenti campi:  
 **URL dell'endpoint HTTP**   
Specificate l'URL per l'endpoint HTTP nel formato seguente. L'URL deve essere un `HTTPS` URL.  

  ```
  https://listener-aws-metrics-stream-<region>.logz.io/
  ```
Ad esempio  

  ```
  https://listener-aws-metrics-stream-us.logz.io/
  ```  
 **Autenticazione**   
Puoi scegliere di inserire direttamente il token di spedizione o recuperare il codice segreto Gestione dei segreti AWS per accedere a Logz.io.  
  + **Token di spedizione** 

    Contatta Logz.io per ottenere il token di spedizione necessario per abilitare la consegna dei dati a questo endpoint da Firehose.
  + **Secret**

    Seleziona un codice segreto Gestione dei segreti AWS che contenga il token di spedizione per Logz.io. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Logz.io.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.

## Configurare le impostazioni di destinazione per MongoDB Atlas
<a name="create-destination-mongodb"></a>

Questa sezione descrive le opzioni per l'utilizzo di **MongoDB** Atlas per la tua destinazione. Per ulteriori informazioni, consulta [MongoDB Atlas su Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws).

****
+ Fornisci i valori per i seguenti campi:  
**URL del gateway API**  
Specificate l'URL per l'endpoint HTTP nel seguente formato.  

  ```
   https://xxxxx.execute-api.region.amazonaws.com/stage
  ```
L'URL deve essere un `HTTPS` URL.   
 **Autenticazione**   
Puoi scegliere di inserire direttamente la chiave API o recuperare il codice segreto Gestione dei segreti AWS per accedere a MongoDB Atlas.  
  + **Chiave API** 

    Segui le istruzioni in [MongoDB Atlas su Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws) per ottenere ciò che ti serve per abilitare `APIKeyValue` la consegna dei dati a questo endpoint da Firehose.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga la chiave API per API Gateway supportata da Lambda che interagisce con MongoDB Atlas. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
**Codifica del contenuto**  
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** o **Disabilitato** per la codifica enable/disable del contenuto della tua richiesta.   
**Retry duration (Durata nuovi tentativi)**  
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati al provider terzo selezionato.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
**Suggerimenti per il buffering**  
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.  
**Parametri: facoltativo**  
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni. 

## Configura le impostazioni di destinazione per New Relic
<a name="create-destination-new-relic"></a>

Questa sezione descrive le opzioni per l'utilizzo di **New Relic** come destinazione. Per ulteriori informazioni, consulta [https://newrelic.com](https://newrelic.com). 

****
+ Fornisci i valori per i seguenti campi:  
 **URL dell'endpoint HTTP**   
Scegli l'URL dell'endpoint HTTP tra le seguenti opzioni nell'elenco a discesa.  
  + **Log di New Relic - USA**
  + **Parametri di New Relic - USA**
  + **Parametri di New Relic - UE**  
 **Autenticazione**   
Puoi scegliere di inserire direttamente la chiave API o recuperare il codice segreto per accedere Gestione dei segreti AWS a New Relic.  
  + **Chiave API** 

    Inserisci la tua chiave di licenza, che è una stringa esadecimale di 40 caratteri, dalle impostazioni del tuo account New Relic One. È necessaria questa chiave API per abilitare la consegna dei dati a questo endpoint da Firehose.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga la chiave API per New Relic. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Codifica del contenuto**   
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** o **Disabilitato** per la codifica enable/disable del contenuto della tua richiesta.   
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati all'endpoint HTTP New Relic.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.

## Configura le impostazioni di destinazione per Snowflake
<a name="create-destination-snowflake"></a>

Questa sezione descrive le opzioni per l'utilizzo di Snowflake per la destinazione.

**Nota**  
L'integrazione di Firehose con Snowflake è disponibile negli Stati Uniti orientali (Virginia settentrionale), Stati Uniti occidentali (Oregon), Europa (Irlanda), Stati Uniti orientali (Ohio), Asia Pacifico (Tokyo), Europa (Francoforte), Asia Pacifico (Singapore), Asia Pacifico (Seoul) e Asia Pacifico (Sydney), Asia Pacifico (Mumbai), Europa (Londra), Sud America (San Paolo), Canada (Centrale), Europa (Parigi), Asia Pacifico (Osaka), Europa (Stoccolma), Asia Pacifico (Giacarta). Regioni AWS

**Impostazioni di connessione**

****
+ Fornisci i valori per i seguenti campi:  
 **URL dell’account Snowflake**   
Specificate l'URL di un account Snowflake. Ad esempio: `xy12345.us-east-1.aws.snowflakecomputing.com`. Consulta la [documentazione di Snowflake](https://docs.snowflake.com/en/user-guide/admin-account-identifier#format-2-legacy-account-locator-in-a-region) su come determinare l'URL del tuo account. Tieni presente che non devi specificare il numero di porta, mentre il protocollo (https://) è facoltativo.  
 **Autenticazione**   
Puoi scegliere di inserire manualmente userlogin, chiave privata e passphrase oppure recuperare il codice segreto per accedere a Snowflake. Gestione dei segreti AWS   
  + **Login utente**

    Specificare l'utente Snowflake da utilizzare per il caricamento dei dati. Assicurati che l’utente abbia accesso per inserire i dati nella tabella Snowflake.
  + **Chiave privata**

    Specificate la chiave privata per l'autenticazione con Snowflake nel formato. `PKCS8` Inoltre, non includete l'intestazione e il piè di pagina PEM come parte della chiave privata. Se la chiave è divisa su più righe, rimuovi le interruzioni di riga. Di seguito è riportato un esempio di come deve essere la tua chiave privata.

    ```
    -----BEGIN PRIVATE KEY-----
    KEY_CONTENT
    -----END PRIVATE KEY-----
    ```

    Rimuovi lo spazio all'interno `KEY_CONTENT` e forniscilo a Firehose. Sono richiesti caratteri netti header/footer o di nuova riga.
  + **Passphrase** 

    Specifica la passphrase per decrittografare la chiave privata crittografata. Puoi lasciare vuoto questo campo se la chiave privata non è crittografata. Per informazioni, consulta [Utilizzo dell'autenticazione a coppie di chiavi e della rotazione delle chiavi](https://docs.snowflake.com/en/user-guide/data-load-snowpipe-streaming-configuration#using-key-pair-authentication-key-rotation).
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga le credenziali per Snowflake. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Configurazione dei ruoli**   
Usa il ruolo Snowflake predefinito: se questa opzione è selezionata, Firehose non passerà alcun ruolo a Snowflake. Si presume che il ruolo predefinito sia il caricamento dei dati. Assicurati che il ruolo predefinito disponga dell’autorizzazione per inserire dati nella tabella Snowflake.  
Usa il ruolo Snowflake personalizzato: inserisci un ruolo Snowflake non predefinito che verrà assunto da Firehose durante il caricamento dei dati nella tabella Snowflake.  
 **Connettività Snowflake**   
Le opzioni sono **Privato** o **Pubblico**.  
 **ID VPCE privato (opzionale)**   
L’ID VPCE per consentire a Firehose di connettersi privatamente con Snowflake. Il formato ID è com.amazonaws.vpce. [regione] .vpce-svc-*[id]*. [Per ulteriori informazioni, vedere & Snowflake.AWS PrivateLink ](https://docs.snowflake.com/en/user-guide/admin-security-privatelink)  
Se il tuo cluster Snowflake è abilitato al collegamento privato, utilizza una policy di rete `AwsVpceIds` basata su una politica di rete per consentire i dati di Amazon Data Firehose. Firehose non richiede la configurazione di una politica di rete basata su IP nel tuo account Snowflake. L'attivazione di una policy di rete basata su IP potrebbe interferire con la connettività Firehose. [Se hai un caso limite che richiede una policy basata su IP, contatta il team di Firehose inviando un ticket di supporto.](https://support.console.aws.amazon.com/support/home?region=us-east-1#/case/create) Per un elenco dei VPCE IDs che puoi utilizzare, consulta. [Accesso a Snowflake in VPC](controlling-access.md#using-iam-snowflake-vpc)

**Configurazione del database**
+ Per utilizzare Snowflake come destinazione per il flusso di Firehose, è necessario specificare le seguenti impostazioni:
  + Database Snowflake: tutti i dati in Snowflake vengono mantenuti nei database.
  + Schema Snowflake: ogni database è costituito da uno o più schemi, che sono raggruppamenti logici di oggetti del database, come tabelle e viste
  + Tabella Snowflake: tutti i dati in Snowflake vengono archiviati in tabelle di database, strutturate logicamente come raccolte di colonne e righe.

 **Opzioni di caricamento dei dati per la tabella Snowflake** 
+ Usa le chiavi JSON come nomi di colonna 
+ Usa le colonne VARIANT
  + Nome della colonna di contenuto: specifica il nome di una colonna nella tabella, in cui devono essere caricati i dati grezzi.
  + Nome della colonna di metadati (opzionale): specifica un nome di colonna nella tabella, in cui devono essere caricate le informazioni sui metadati. Quando abiliti questo campo, vedrai la colonna seguente nella tabella Snowflake in base al tipo di fonte. 

    **Per Direct PUT come sorgente**

    ```
    {
    "firehoseDeliveryStreamName" : "streamname",
    "IngestionTime" : "timestamp"
    }
    ```

    **Per Kinesis Data Stream come sorgente**

    ```
    {
    "kinesisStreamName" : "streamname",
    "kinesisShardId" : "Id",
    "kinesisPartitionKey" : "key",
    "kinesisSequenceNumber" : "1234",
    "subsequenceNumber" : "2334",
    "IngestionTime" : "timestamp"
    }
    ```

 **Retry duration (Durata nuovi tentativi)** 

Intervallo di tempo (0—7200 secondi) entro cui Firehose riprova se l'apertura del canale o la consegna a Snowflake falliscono a causa di problemi del servizio Snowflake. Firehose riprova con un backoff esponenziale fino al termine della durata del nuovo tentativo. Se si imposta la durata del nuovo tentativo su 0 (zero) secondi, Firehose non riprova in caso di errori Snowflake e indirizza i dati al bucket di errore di Amazon S3.

 **Suggerimenti sul buffer** 

Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro. Per ulteriori informazioni, consulta [Configura i suggerimenti per il buffering](create-configure-backup.md#buffering-hints).

## Configura le impostazioni di destinazione per Splunk
<a name="create-destination-splunk"></a>

Questa sezione descrive le opzioni per l'utilizzo di Splunk come destinazione.

**Nota**  
Firehose fornisce dati ai cluster Splunk configurati con Classic Load Balancer o Application Load Balancer. 

****
+ Fornisci i valori per i seguenti campi:  
 **Splunk cluster endpoint (Endpoint del cluster Splunk)**   
Per determinare l'endpoint, consulta [Configurare Amazon Data Firehose per inviare dati alla piattaforma Splunk nella documentazione Splunk](http://docs.splunk.com/Documentation/AddOns/latest/Firehose/ConfigureFirehose).  
 **Splunk endpoint type (Tipo endpoint Splunk)**   
Selezionare `Raw endpoint` nella maggior parte dei casi, Scegli `Event endpoint` se hai preelaborato i dati utilizzando AWS Lambda per inviare dati a diversi indici in base al tipo di evento. Per informazioni su quale endpoint utilizzare, consulta l’argomento relativo alla [configurazione di Amazon Data Firehose per l’invio di dati alla piattaforma Splunk](http://docs.splunk.com/Documentation/AddOns/released/Firehose/ConfigureFirehose) nella documentazione di Splunk.  
 **Autenticazione**   
Puoi scegliere di inserire direttamente il token di autenticazione o recuperare il segreto da Gestione dei segreti AWS cui accedere a Splunk.  
  + **Authentication token (Token di autenticazione)** 

    Per configurare un endpoint Splunk in grado di ricevere dati da Amazon Data Firehose, consulta [Panoramica sull'installazione e la configurazione del componente aggiuntivo Splunk per Amazon Data Firehose](http://docs.splunk.com/Documentation/AddOns/released/Firehose/Installationoverview) nella documentazione di Splunk. Salva il token che ottieni da Splunk quando configuri l'endpoint per questo stream Firehose e aggiungilo qui.
  + **Secret**

    Seleziona un codice segreto Gestione dei segreti AWS che contenga il token di autenticazione per Splunk. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **HEC acknowledgement timeout (Timeout riconoscimento HEC)**   
Specificate per quanto tempo Amazon Data Firehose attende la conferma dell'indice da parte di Splunk. Se Splunk non invia la conferma prima del raggiungimento del timeout, Amazon Data Firehose lo considera un errore di consegna dei dati. Amazon Data Firehose quindi riprova o esegue il backup dei dati nel bucket Amazon S3, a seconda del valore della durata dei tentativi impostato.   
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Splunk.   
Dopo l’invio dei dati, Amazon Data Firehose attende prima un riconoscimento da parte di Splunk. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati a Splunk (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma da parte di Splunk.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia in base al fornitore di servizi.

## Configura le impostazioni di destinazione per Splunk Observability Cloud
<a name="create-destination-splunk-cloud"></a>

Questa sezione descrive le opzioni per l'utilizzo di **Splunk Observability Cloud** come destinazione. Per ulteriori informazioni, consulta [https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html\$1 - -api connect-to-aws-using](https://docs.splunk.com/Observability/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api). the-splunk-observability-cloud

****
+ Fornisci i valori per i seguenti campi:  
 **URL dell'endpoint di inserimento del cloud**   
L'URL di inserimento dati in tempo reale di Splunk Observability Cloud si trova in Profilo > Organizzazioni > Endpoint di inserimento dati in tempo reale nella console di Splunk Observability.   
 **Autenticazione**   
Puoi scegliere di inserire direttamente il token di accesso o recuperare il codice segreto per accedere a Splunk Observability Cloud. Gestione dei segreti AWS   
  + **Token di accesso** 

    Copia il token di accesso Splunk Observability con l’ambito di autorizzazione INGEST da **Token di accesso** in **Impostazioni** della console Splunk Observability.
  + **Secret**

    Seleziona un segreto Gestione dei segreti AWS che contenga il token di accesso per Splunk Observability Cloud. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Codifica del contenuto**   
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** o **Disabilitato** per la codifica enable/disable del contenuto della tua richiesta.   
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati all'endpoint HTTP selezionato.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all’altro.

## Configura le impostazioni di destinazione per Sumo Logic
<a name="create-destination-sumo-logic"></a>

Questa sezione descrive le opzioni per l'utilizzo di **Sumo Logic** come destinazione. Per ulteriori informazioni, consulta [https://www.sumologic.com](https://www.sumologic.com).

****
+ Fornisci i valori per i seguenti campi:  
 **URL dell'endpoint HTTP**   
Specifica l'URL per l'endpoint HTTP nel seguente formato: `https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token`. L'URL deve essere un URL HTTPS.   
 **Codifica del contenuto**   
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** o **Disabilitato** per la codifica enable/disable del contenuto della tua richiesta.   
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Sumo Logic.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione Elastic varia da un fornitore di servizi all'altro.

## Configura le impostazioni di destinazione per Elastic
<a name="create-destination-elastic"></a>

Questa sezione descrive le opzioni per l'utilizzo di **Elastic** come destinazione. 

****
+ Fornisci i valori per i seguenti campi:  
 **URL dell'endpoint Elastic**   
Specifica l'URL per l'endpoint HTTP nel seguente formato: `https://<cluster-id>.es.<region>.aws.elastic-cloud.com`. L’URL deve essere un URL HTTPS.   
 **Autenticazione**   
Puoi scegliere di inserire direttamente la chiave API o recuperare il codice segreto Gestione dei segreti AWS per accedere a Elastic.  
  + **Chiave API** 

    Contatta Elastic per ottenere da Firehose la chiave API necessaria per abilitare la consegna dei dati al suo servizio.
  + **Secret**

    Seleziona un campo segreto Gestione dei segreti AWS che contenga la chiave API per Elastic. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. Gestione dei segreti AWS Per ulteriori informazioni, consulta [Effettua l'autenticazione con Gestione dei segreti AWS Amazon Data Firehose](using-secrets-manager.md).  
 **Codifica del contenuto**   
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli **GZIP** (che è quello selezionato per impostazione predefinita) o **Disabilitato** per la codifica enable/disable del contenuto della richiesta.   
 **Retry duration (Durata nuovi tentativi)**   
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Elastic.   
Dopo l’invio dei dati, Amazon Data Firehose attende innanzitutto un riconoscimento dall’endpoint HTTP. Se si verifica un errore o se il riconoscimento non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati sul bucket Amazon S3.   
Ogni volta che Amazon Data Firehose invia dati all'endpoint HTTP (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di conferma e attende una conferma dall'endpoint HTTP.   
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.  
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.  
 **Parametri: facoltativo**   
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata HTTP. Questi parametri consentono di identificare e organizzare le destinazioni.   
 **Suggerimenti per il buffering**   
Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione Elastic è di 1 MiB.

# Configurare le impostazioni di backup
<a name="create-configure-backup"></a>

Amazon Data Firehose utilizza Amazon S3 per eseguire il backup di tutti i dati (o solo quelli non riusciti) che tenta di consegnare alla destinazione prescelta. 

**Importante**  
Le impostazioni di backup sono supportate solo se l'origine del flusso Firehose è Direct PUT o Kinesis Data Streams.
La funzionalità di zero buffering è disponibile solo per le destinazioni delle applicazioni e non è disponibile per la destinazione di backup Amazon S3.

È possibile specificare le impostazioni di backup S3 per lo stream Firehose se si è effettuata una delle seguenti scelte.
+ Se imposti Amazon S3 come destinazione per il tuo stream Firehose e scegli di specificare una funzione AWS Lambda per trasformare i record di dati o se scegli di convertire i formati di record di dati per il tuo flusso Firehose.
+ Se imposti Amazon Redshift come destinazione per il tuo stream Firehose e scegli di specificare una funzione AWS Lambda per trasformare i record di dati.
+ Se imposti uno dei seguenti servizi come destinazione per il tuo stream Firehose: Amazon OpenSearch Service, Datadog, Dynatrace, HTTP Endpoint, LogicMonitor MongoDB Cloud, New Relic, Splunk o Sumo Logic, Snowflake, Apache Iceberg Tables.

Di seguito sono riportate le impostazioni di backup per lo stream Firehose.
+ Backup dei record di origine in Amazon S3: se S3 o Amazon Redshift è la destinazione selezionata, questa impostazione indica se desideri abilitare il backup dei dati di origine o mantenerlo disabilitato. Se qualsiasi altro servizio supportato (diverso da S3 o da Amazon Redshift) è impostato come destinazione selezionata, questa impostazione indica se desideri eseguire il backup di tutti i dati di origine o solo dei dati non riusciti.
+ Bucket di backup S3: questo è il bucket S3 in cui Amazon Data Firehose esegue il backup dei dati.
+ Prefisso del bucket di backup S3: questo è il prefisso con cui Amazon Data Firehose esegue il backup dei dati.
+ Prefisso di output degli errori del bucket di backup S3: il backup di tutti i dati non riusciti viene eseguito nel prefisso di output degli errori di questo bucket S3.
+ Suggerimenti per il buffering, compressione e crittografia per il backup: Amazon Data Firehose utilizza Amazon S3 per eseguire il backup di tutti o solo i dati che tenta di consegnare alla destinazione prescelta. Amazon Data Firehose memorizza nel buffer i dati in entrata prima di consegnarli (eseguendone il backup) su Amazon S3. Puoi scegliere una dimensione del buffer di 1—128 e un intervallo di buffer di 60—900 secondi MiBs . La condizione che viene soddisfatta per prima attiva la distribuzione dei dati ad Amazon S3. Se abiliti la trasformazione dei dati, l'intervallo di buffer si applica dal momento in cui i dati trasformati vengono ricevuti da Amazon Data Firehose alla consegna dei dati ad Amazon S3. Se la consegna dei dati alla destinazione è inferiore alla scrittura dei dati nel flusso Firehose, Amazon Data Firehose aumenta la dimensione del buffer in modo dinamico per recuperare il ritardo. Questa azione aiuta a garantire che tutti i dati vengano consegnati alla destinazione. 
+ Compressione S3: scegli la compressione dei dati Snappy con GZIP, Snappy, Zip o Snappy compatibile con Hadoop oppure nessuna compressione dei dati. La compressione Snappy compatibile con Snappy, Zip e Hadoop non è disponibile per lo stream Firehose con Amazon Redshift come destinazione. 
+ Formato di estensione file S3 (opzionale): specifica un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z\$1 -\$1.\$1' (). L'estensione del file non può superare i 128 caratteri.
+ Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con (SSE-KMS) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta [Protezione dei dati mediante la crittografia lato server con AWS chiavi gestite da KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Configura i suggerimenti per il buffering
<a name="buffering-hints"></a>

Amazon Data Firehose memorizza i dati di streaming in entrata fino a una certa dimensione (dimensione di buffering) e per un determinato periodo di tempo (intervallo di buffering) prima di consegnarli alle destinazioni specificate. I suggerimenti di buffering possono essere utilizzati quando si desidera distribuire file di dimensioni ottimali ad Amazon S3 e ottenere prestazioni migliori dalle applicazioni di elaborazione dati o per adattare la velocità di consegna di Firehose alla velocità di destinazione.

È possibile configurare la dimensione e l'intervallo di buffer durante la creazione di nuovi flussi Firehose o aggiornare la dimensione e l'intervallo di buffering sui flussi Firehose esistenti. La dimensione del buffering viene misurata in e l'intervallo di buffering viene misurato in secondi. MBs Tuttavia, se specifichi un valore per uno di essi, devi fornire un valore per l'altro. La prima condizione del buffer soddisfatta attiva Firehose per fornire i dati. Se non si configurano i valori di buffering, vengono utilizzati i valori predefiniti.

È possibile configurare i suggerimenti di buffering di Firehose tramite, o. Console di gestione AWS AWS Command Line Interface AWS SDKs Per gli stream esistenti, è possibile riconfigurare i suggerimenti di buffering con un valore adatto ai casi d'uso utilizzando l'opzione **Modifica** nella console o utilizzando l'API. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Per i nuovi stream, puoi configurare i suggerimenti di buffering come parte della creazione di nuovi stream utilizzando la console o l'API. [CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html) Per regolare la dimensione del buffering, imposta `SizeInMBs` e `IntervalInSeconds` inserisci il `DestinationConfiguration` parametro specifico di destinazione dell'API or. [CreateDeliveryStream[UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html)](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html) 

**Nota**  
I suggerimenti sul buffer vengono applicati a livello di shard o di partizione, mentre i suggerimenti sul buffer di partizionamento dinamico vengono applicati a livello di stream o topic.
Per soddisfare le latenze più basse dei casi d'uso in tempo reale, puoi utilizzare un hint a intervallo di buffering zero. Quando si configura l'intervallo di buffering su zero secondi, Firehose non memorizzerà i dati nel buffer e li consegnerà entro pochi secondi. Prima di modificare i suggerimenti di buffering con un valore inferiore, rivolgiti al fornitore per conoscere i suggerimenti di buffering consigliati da Firehose per le relative destinazioni.
La funzionalità di zero buffering è disponibile solo per le destinazioni delle applicazioni e non è disponibile per la destinazione di backup Amazon S3.
La funzionalità Zero Buffering non è disponibile per il partizionamento dinamico.
Firehose utilizza il caricamento in più parti per la destinazione S3 quando si configura un intervallo di tempo del buffer inferiore a 60 secondi per offrire latenze inferiori. A causa del caricamento in più parti per la destinazione S3, noterai un certo aumento dei costi dell'`PUT`API S3 se scegli un intervallo di tempo di buffer inferiore a 60 secondi.

Per gli intervalli di suggerimenti per il buffering specifici della destinazione e i valori predefiniti, consulta la seguente tabella:


| Destinazione | Dimensione del buffering in MB (impostazione predefinita tra parentesi) | Intervallo di buffering in secondi (impostazione predefinita tra parentesi) | 
| --- | --- | --- | 
| Simple Storage Service (Amazon S3) | 1-128 (5) | 0-900 (300) | 
| Tavoli Apache Iceberg | 1-128 (5) | 0-900 (300) | 
| Amazon Redshift | 1-128 (5)  | 0-900 (300) | 
| OpenSearch Senza server | 1-100 (5)  | 0-900 (300) | 
| OpenSearch | 1-100 (5) | 0-900 (300) | 
| Splunk | 1-5 (5) | 0-60 (60) | 
| Datadog | 1-4 (4) | 0-900 (60) | 
| Coralogix | 1-64 (6) | 0-900 (60) | 
| Dynatrace | 1-64 (5) | 0-900 (60) | 
| Elastic | 1 | 0-900 (60) | 
| Honeycomb | 1-64 (15) | 0-900 (60) | 
| Endpoint HTTP | 1-64 (5) | 0-900 (60) | 
| LogicMonitor | 1-64 (5) | 0-900 (60) | 
| Loggiato | 1-64 (5) | 0-900 (60) | 
| MongoDB  | 1-16 (5) | 0-900 (60) | 
| Nuova reliquia | 1-64 (5) | 0-900 (60) | 
| SumoLogic | 1-64 (1) | 0-900 (60) | 
| Splunk Observability Cloud  | 1-64 (1) | 0-900 (60) | 
| Snowflake | 1 - 128 (1) | 0 - 900 (0) | 

# Configurare le impostazioni avanzate
<a name="create-configure-advanced"></a>

La sezione seguente contiene dettagli sulle impostazioni avanzate per lo stream Firehose.
+ Crittografia lato server: Amazon Data Firehose supporta la crittografia lato server Amazon S3 con AWS Key Management Service (AWS KMS) per crittografare i dati forniti in Amazon S3. Per ulteriori informazioni, consulta [Protezione dei dati tramite](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html) crittografia lato server con chiavi gestite da KMS (SSE-KMS). AWS 
+ Registrazione degli errori: Amazon Data Firehose registra gli errori relativi all'elaborazione e alla consegna. Inoltre, quando la trasformazione dei dati è abilitata, può registrare le chiamate Lambda e inviare errori di consegna dei dati ai registri. CloudWatch Per ulteriori informazioni, consulta [Monitora Amazon Data Firehose utilizzando i log CloudWatch](monitoring-with-cloudwatch-logs.md).
**Importante**  
Sebbene facoltativo, si consiglia vivamente di abilitare la registrazione degli errori di Amazon Data Firehose durante la creazione di stream Firehose. Questa pratica garantisce la possibilità di accedere ai dettagli degli errori in caso di errori di elaborazione o distribuzione dei record.
+ Autorizzazioni: Amazon Data Firehose utilizza i ruoli IAM per tutte le autorizzazioni necessarie allo stream Firehose. Puoi scegliere di creare un nuovo ruolo in cui le autorizzazioni richieste vengono assegnate automaticamente o scegliere un ruolo esistente creato per Amazon Data Firehose. Il ruolo viene utilizzato per concedere a Firehose l'accesso a vari servizi, tra cui il bucket S3, la chiave AWS KMS (se la crittografia dei dati è abilitata) e la funzione Lambda (se la trasformazione dei dati è abilitata). La console potrebbe creare un ruolo con segnaposto. Per ulteriori informazioni, consulta [Cos'è IAM?](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html). 
**Nota**  
Il ruolo IAM (inclusi i placeholder) viene creato in base alla configurazione scelta durante la creazione di uno stream Firehose. Se si apportano modifiche all'origine o alla destinazione del flusso Firehose, è necessario aggiornare manualmente il ruolo IAM.
+ Tag: puoi aggiungere tag per organizzare AWS le risorse, tenere traccia dei costi e controllare l'accesso.

  Se specifichi tag nell'`CreateDeliveryStream`azione, Amazon Data Firehose esegue un'autorizzazione aggiuntiva sull'`firehose:TagDeliveryStream`azione per verificare se gli utenti dispongono delle autorizzazioni per creare tag. Se non si fornisce questa autorizzazione, le richieste di creazione di nuovi flussi Firehose con tag di risorse IAM falliranno con uno degli `AccessDeniedException` esempi seguenti.

  ```
  AccessDeniedException 
  User: arn:aws:sts::x:assumed-role/x/x is not authorized to perform: firehose:TagDeliveryStream on resource: arn:aws:firehose:us-east-1:x:deliverystream/x with an explicit deny in an identity-based policy.
  ```

  L'esempio seguente illustra una politica che consente agli utenti di creare uno stream Firehose e applicare i tag.

Dopo aver scelto le impostazioni di backup e avanzate, rivedi le tue scelte, quindi scegli **Create Firehose stream**.

Il nuovo stream Firehose impiega alcuni istanti nello stato **Creating** prima di essere disponibile. Dopo che lo stream Firehose è in stato **Attivo**, puoi iniziare a inviargli dati dal tuo produttore.