

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Tutoriel : Création d'un stream Firehose depuis la console
<a name="basic-create"></a>

Vous pouvez utiliser le AWS Management Console ou un AWS SDK pour créer un flux Firehose vers la destination de votre choix. 

Vous pouvez mettre à jour la configuration de votre stream Firehose à tout moment après sa création, à l'aide de la console Amazon Data Firehose ou. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Votre flux Firehose reste en l'`Active`état pendant la mise à jour de votre configuration, et vous pouvez continuer à envoyer des données. La configuration mise à jour prend généralement effet au bout de quelques minutes. Le numéro de version d'un stream Firehose est augmenté d'une valeur égale à une `1` fois que vous avez mis à jour la configuration. Il est pris en compte dans le nom de l'objet Amazon S3 délivré. Pour de plus amples informations, veuillez consulter [Configurer le format du nom d'objet Amazon S3](s3-object-name.md).

Suivez les étapes décrites dans les rubriques suivantes pour créer un stream Firehose.

**Topics**
+ [

# Choisissez la source et la destination de votre stream Firehose
](create-name.md)
+ [

# Configuration des paramètres de source
](configure-source.md)
+ [

# (Facultatif) Configurer la transformation des enregistrements et la conversion des formats
](create-transform.md)
+ [

# Configuration des paramètres de destination
](create-destination.md)
+ [

# Configuration des paramètres de sauvegarde
](create-configure-backup.md)
+ [

# Configurer les paramètres avancés
](create-configure-advanced.md)

# Choisissez la source et la destination de votre stream Firehose
<a name="create-name"></a>

****

1. Ouvrez la console Firehose à l'adresse. [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/)

1. Choisissez **Créer un flux Firehose**. 

1. Sur la page **Create Firehose stream**, choisissez une source pour votre stream Firehose parmi les options suivantes.
   + **Direct PUT** — Choisissez cette option pour créer un flux Firehose dans lequel les applications du producteur écrivent directement. Voici une liste de AWS services, d'agents et de services open source qui s'intègrent à Direct PUT dans Amazon Data Firehose. Cette liste n'est pas exhaustive et certains services supplémentaires peuvent être utilisés pour envoyer des données directement à Firehose.
     + AWS SDK
     + AWS Lambda
     + AWS CloudWatch Journaux
     + AWS CloudWatch Événements
     + AWS Streams métriques dans le cloud
     + AWS IoT
     + AWS Eventbridge
     + Amazon Simple Email Service
     + Amazon SNS
     + AWS Journaux ACL Web WAF
     + Amazon API Gateway – Journaux d'accès
     + Amazon Pinpoint
     + Journaux du broker Amazon MSK
     + Journaux de requête Amazon Route 53 Resolver
     + AWS Journaux des alertes du Network Firewall
     + AWS Journaux de flux de Network Firewall
     + Amazon Elasticache Redis SLOWLOG
     + Kinesis Agent (Linux)
     + Kinesis Tap (Windows)
     + Fluentbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data** Streams : choisissez cette option pour configurer un flux Firehose qui utilise un flux de données Kinesis comme source de données. Vous pouvez ensuite utiliser Firehose pour lire facilement les données d'un flux de données Kinesis existant et les charger dans des destinations. Pour plus d'informations sur l'utilisation de Kinesis Data Streams comme source de données, [consultez la section Envoi de données vers un flux Firehose avec Kinesis Data Streams](writing-with-kinesis-streams.md).
   + **Amazon MSK** — Choisissez cette option pour configurer un flux Firehose qui utilise Amazon MSK comme source de données. Vous pouvez ensuite utiliser Firehose pour lire facilement les données d'un cluster Amazon MSK existant et les charger dans des compartiments S3 spécifiés. Pour plus d'informations, consultez [Envoyer des données vers un flux Firehose avec Amazon MSK](writing-with-msk.md).

1. Choisissez une destination pour votre stream Firehose parmi l'une des destinations suivantes prises en charge par Firehose.
   + Amazon OpenSearch Service
   + Amazon OpenSearch sans serveur
   + Amazon Redshift
   + Amazon S3
   + Tables Apache Iceberg
   + Coralogix
   + Datadog
   + Dynatrace
   + Elasticité
   + Point de terminaison HTTP
   + Honeycomb
   + Logic Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. Pour le **nom du flux Firehose**, vous pouvez soit utiliser le nom que la console génère pour vous, soit ajouter le flux Firehose de votre choix.

# Configuration des paramètres de source
<a name="configure-source"></a>

Vous pouvez configurer les paramètres de source en fonction de la source que vous choisissez pour envoyer des informations à un flux Firehose depuis la console. Vous pouvez configurer les paramètres de source pour Amazon MSK et Amazon Kinesis Data Streams en tant que source. Aucun paramètre de source n'est disponible pour Direct PUT en tant que source.

# Configurer les paramètres de source pour Amazon MSK
<a name="writing-with-msk"></a>

Lorsque vous choisissez Amazon MSK pour envoyer des informations à un flux Firehose, vous pouvez choisir entre des clusters provisionnés par MSK et des clusters sans serveur MSK. Vous pouvez ensuite utiliser Firehose pour lire facilement les données d'un cluster et d'un sujet Amazon MSK spécifiques et les charger dans la destination S3 spécifiée.

Dans la section **Paramètres source** de la page, indiquez des valeurs pour les champs suivants.

****Connectivité du cluster Amazon MSK****  
Choisissez l'option **Brokers d'amorçage privés** (recommandé) ou **Brokers d'amorçage publics** en fonction de la configuration de votre cluster. Les brokers d'amorçage sont ce que le client Apache Kafka utilise comme point de départ pour se connecter au cluster. Les courtiers bootstrap publics sont destinés à un accès public depuis l'extérieur AWS, tandis que les courtiers bootstrap privés sont destinés à un accès depuis l'intérieur. AWS Pour plus d'informations sur Amazon MSK, consultez [Amazon Managed Streaming for Apache Kafka](https://docs.aws.amazon.com/msk/latest/developerguide/what-is-msk.html).   
Pour se connecter à un cluster Amazon MSK provisionné ou sans serveur via des brokers d'amorçage privés, le cluster doit répondre à toutes les exigences suivantes.  
+ Le cluster doit être actif.
+ Le cluster doit avoir IAM comme l'une de ses méthodes de contrôle d'accès.
+ La connectivité privée multi-VPC doit être activée pour la méthode de contrôle d'accès IAM.
+ Vous devez ajouter à ce cluster une politique basée sur les ressources qui accorde au principal du service Firehose l'autorisation d'appeler l'opération d'API Amazon MSK. `CreateVpcConnection`
Pour se connecter à un cluster Amazon MSK provisionné via des brokers d'amorçage publics, le cluster doit répondre à toutes les exigences suivantes.  
+ Le cluster doit être actif.
+ Le cluster doit avoir IAM comme l'une de ses méthodes de contrôle d'accès.
+ Le cluster doit être accessible au public.

****Compte de cluster MSK****  
Vous pouvez choisir le compte sur lequel réside le cluster Amazon MSK. Il peut s'agir de l'une des options suivantes.  
+ **Compte courant** : vous permet d'ingérer les données d'un cluster MSK dans le compte courant AWS . Pour cela, vous devez spécifier l'ARN du cluster Amazon MSK à partir duquel votre flux Firehose lira les données.
+ **Multi-comptes** : vous permet d'ingérer les données d'un cluster MSK dans un autre compte. AWS Pour de plus amples informations, veuillez consulter [Livraison entre comptes depuis Amazon MSK](controlling-access.md#cross-account-delivery-msk).

****Rubrique****  
Spécifiez le sujet Apache Kafka à partir duquel vous souhaitez que votre flux Firehose ingère des données. Vous ne pouvez pas mettre à jour cette rubrique une fois la création du stream Firehose terminée.  
Firehose décompresse automatiquement les messages d'Apache Kafka.

# Configuration des paramètres de source pour Amazon Kinesis Data Streams
<a name="writing-with-kinesis-streams"></a>

Configurez les paramètres de source pour Amazon Kinesis Data Streams afin d'envoyer des informations à un flux Firehose comme suit.

**Important**  
Si vous utilisez la bibliothèque producteur Kinesis (KPL) pour écrire des données dans un flux de données Kinesis, vous pouvez utiliser un regroupement pour combiner ces enregistrements Kinesis. Si vous utilisez ensuite ce flux de données comme source pour votre flux Firehose, Amazon Data Firehose désagrège les enregistrements avant de les envoyer à destination. Si vous configurez votre flux Firehose pour transformer les données, Amazon Data Firehose désagrège les enregistrements avant de les transmettre. AWS Lambda Pour de plus amples informations, veuillez consulter [Developing Amazon Kinesis Data Streams Producers Using the Kinesis Producer Library](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html) and [Aggregation](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation).

Dans les **paramètres Source**, choisissez un flux existant dans la liste des **flux de données Kinesis** ou entrez un ARN de flux de données au format. `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]`

Si vous ne disposez pas d'un flux de données existant, choisissez **Create** pour en créer un nouveau depuis la console Amazon Kinesis. Vous aurez peut-être besoin d'un rôle IAM disposant des autorisations nécessaires sur le flux Kinesis. Pour de plus amples informations, veuillez consulter [Accorder à Firehose l'accès à une destination Amazon S3](controlling-access.md#using-iam-s3). Après avoir créé un nouveau flux, cliquez sur l'icône d'actualisation pour mettre à jour la liste des **flux Kinesis**. Si vous avez un grand nombre de flux, filtrez la liste avec l'option **Filter by name** (Filtrer par nom). 

**Note**  
Lorsque vous configurez un flux de données Kinesis comme source d'un flux Firehose, Amazon Data `PutRecord` Firehose et ses opérations sont désactivés. `PutRecordBatch` Dans ce cas, pour ajouter des données à votre flux Firehose, utilisez les Kinesis Data Streams et les opérations. `PutRecord` `PutRecords`

Amazon Data Firehose commence à lire les données à partir de la `LATEST` position de votre flux Kinesis. Pour plus d'informations sur les positions de Kinesis Data Streams, [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html)consultez.

 Amazon Data Firehose lance l'[GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html)opération Kinesis Data Streams une fois par seconde pour chaque partition. Toutefois, lorsque la sauvegarde complète est activée, Firehose lance l'`GetRecords`opération Kinesis Data Streams deux fois par seconde pour chaque partition, une pour la destination de diffusion principale et une autre pour une sauvegarde complète.

Plusieurs flux Firehose peuvent être lus à partir du même flux Kinesis. D'autres applications Kinesis (de type consommateur) peuvent également lire des données à partir du même flux. Chaque appel provenant d'un stream Firehose ou d'une autre application grand public est pris en compte dans la limite de limitation globale de la partition. Pour éviter les restrictions, planifiez attentivement vos applications. Pour plus d'informations sur les limites de Kinesis Data Streams, consultez [Amazon Kinesis Streams Limits](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html). 

Passez à l'étape suivante pour configurer la transformation des enregistrements et la conversion des formats.

# (Facultatif) Configurer la transformation des enregistrements et la conversion des formats
<a name="create-transform"></a>

Configurez Amazon Data Firehose pour transformer et convertir vos données d'enregistrement.

## Si vous choisissez Amazon MSK comme source pour votre stream Firehose.
<a name="create-transform-msk"></a>

**Dans la section **Transformer les enregistrements source avec AWS Lambda**, fournissez des valeurs pour le champ suivant.**

1.   
**Transformation de données**  
Pour créer un flux Firehose qui ne transforme pas les données entrantes, ne cochez pas la case **Activer la transformation des données**.   
Pour spécifier une fonction Lambda que Firehose doit invoquer et utiliser pour transformer les données entrantes avant de les transmettre, cochez la case **Activer** la transformation des données. Vous pouvez configurer une nouvelle fonction Lambda à l'aide de vos plans Lambda ou en choisir une existante. Votre fonction Lambda doit contenir le modèle d'état requis par Firehose. Pour de plus amples informations, veuillez consulter [Transformez les données sources dans Amazon Data Firehose](data-transformation.md).

1. Dans la section **Conversion du format d’enregistrement**, saisissez des valeurs pour le champ suivant :  
**Conversion du format d’enregistrement**  
**Pour créer un flux Firehose qui ne convertit pas le format des enregistrements de données entrants, choisissez Disabled.**   
Pour convertir le format des enregistrements entrants, sélectionnez **Enabled (Activé)**, puis indiquez le format de sortie voulu. Vous devez spécifier une AWS Glue table contenant le schéma que vous souhaitez que Firehose utilise pour convertir votre format d'enregistrement. Pour de plus amples informations, veuillez consulter [Convertir le format des données d'entrée dans Amazon Data Firehose](record-format-conversion.md).  
Pour un exemple de configuration de la conversion de format d'enregistrement avec CloudFormation, voir [AWS: : KinesisFirehose : : DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

## Si vous choisissez Amazon Kinesis Data Streams ou Direct PUT comme source pour votre flux Firehose
<a name="create-transform-directput"></a>

 

**Dans la section **Paramètres de la source**, fournissez les champs suivants.**

1. Sous **Transformer les enregistrements**, sélectionnez l'une des options suivantes :

   1. Si votre destination est Amazon S3 ou Splunk, dans la section **Décompresser les enregistrements source Amazon CloudWatch Logs**, sélectionnez **Activer** la décompression.

   1. Dans la section **Transformer les enregistrements source avec AWS Lambda**, fournissez des valeurs pour le champ suivant :  
**Transformation de données**  
Pour créer un flux Firehose qui ne transforme pas les données entrantes, ne cochez pas la case **Activer la transformation des données**.   
Pour spécifier une fonction Lambda à invoquer par Amazon Data Firehose et à utiliser pour transformer les données entrantes avant de les transmettre, cochez la case **Activer** la transformation des données. Vous pouvez configurer une nouvelle fonction Lambda à l'aide de vos plans Lambda ou en choisir une existante. Votre fonction Lambda doit contenir le modèle de statut requis par Amazon Data Firehose. Pour de plus amples informations, veuillez consulter [Transformez les données sources dans Amazon Data Firehose](data-transformation.md).

1. Dans la section **Conversion du format d’enregistrement**, saisissez des valeurs pour le champ suivant :  
**Conversion du format d’enregistrement**  
**Pour créer un flux Firehose qui ne convertit pas le format des enregistrements de données entrants, choisissez Disabled.**   
Pour convertir le format des enregistrements entrants, sélectionnez **Enabled (Activé)**, puis indiquez le format de sortie voulu. Vous devez spécifier une AWS Glue table contenant le schéma que vous souhaitez qu'Amazon Data Firehose utilise pour convertir votre format d'enregistrement. Pour de plus amples informations, veuillez consulter [Convertir le format des données d'entrée dans Amazon Data Firehose](record-format-conversion.md).  
Pour un exemple de configuration de la conversion de format d'enregistrement avec CloudFormation, voir [AWS: : KinesisFirehose : : DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

# Configuration des paramètres de destination
<a name="create-destination"></a>

Cette section décrit les paramètres que vous devez configurer pour votre stream Firehose en fonction de la destination que vous sélectionnez. 

**Topics**
+ [

## Configurer les paramètres de destination pour Amazon S3
](#create-destination-s3)
+ [

## Configuration des paramètres de destination pour les tables Apache Iceberg
](#create-destination-iceberg)
+ [

## Configuration des paramètres de destination pour Amazon Redshift
](#create-destination-redshift)
+ [

## Configurer les paramètres de destination pour le OpenSearch service
](#create-destination-elasticsearch)
+ [

## Configuration des paramètres de destination pour OpenSearch Serverless
](#create-destination-opensearch-serverless)
+ [

## Configurer les paramètres de destination pour le point de terminaison HTTP
](#create-destination-http)
+ [

## Configurer les paramètres de destination pour Datadog
](#create-destination-datadog)
+ [

## Configurer les paramètres de destination pour Honeycomb
](#create-destination-honeycomb)
+ [

## Configuration des paramètres de destination pour Coralogix
](#create-destination-coralogix)
+ [

## Configuration des paramètres de destination pour Dynatrace
](#create-destination-dynatrace)
+ [

## Configurer les paramètres de destination pour LogicMonitor
](#create-destination-logicmonitor)
+ [

## Configurer les paramètres de destination pour Logz.io
](#create-destination-logz)
+ [

## Configurer les paramètres de destination pour MongoDB Atlas
](#create-destination-mongodb)
+ [

## Configurer les paramètres de destination pour New Relic
](#create-destination-new-relic)
+ [

## Configurer les paramètres de destination pour Snowflake
](#create-destination-snowflake)
+ [

## Configurer les paramètres de destination pour Splunk
](#create-destination-splunk)
+ [

## Configurer les paramètres de destination pour Splunk Observability Cloud
](#create-destination-splunk-cloud)
+ [

## Configuration des paramètres de destination pour Sumo Logic
](#create-destination-sumo-logic)
+ [

## Configuration des paramètres de destination pour Elastic
](#create-destination-elastic)

## Configurer les paramètres de destination pour Amazon S3
<a name="create-destination-s3"></a>

Vous devez spécifier les paramètres suivants afin d’utiliser Amazon S3 comme destination pour votre flux Firehose.

****
+ Saisissez des valeurs pour les champs suivants.  
 **Compartiment S3**   
Parmi les compartiments S3 que vous possédez, choisissez celui dans lequel les données de streaming doivent être livrées. Vous pouvez créer un compartiment S3 ou en choisir un existant.  
 **Nouveau délimiteur de ligne**   
Vous pouvez configurer votre flux Firehose pour ajouter un nouveau délimiteur de ligne entre les enregistrements des objets envoyés à Amazon S3. Pour ce faire, choisissez **Activé**. Pour ne pas ajouter de nouveau délimiteur de ligne entre les enregistrements des objets diffusés à Amazon S3, choisissez **Désactivé**. Si vous envisagez d'utiliser Athena pour interroger des objets S3 avec des enregistrements agrégés, activez cette option.  
 **Partitionnement dynamique**   
Choisissez **Activé** pour activer et configurer le partitionnement dynamique.   
 **Déagrégation de plusieurs enregistrements**   
Il s'agit du processus qui consiste à analyser les enregistrements du flux Firehose et à les séparer en fonction du JSON valide ou du nouveau délimiteur de ligne spécifié.  
Si vous regroupez plusieurs événements, journaux ou enregistrements en un seul PutRecord appel d' PutRecordBatch API, vous pouvez toujours activer et configurer le partitionnement dynamique. Avec les données agrégées, lorsque vous activez le partitionnement dynamique, Amazon Data Firehose analyse les enregistrements et recherche plusieurs objets JSON valides dans chaque appel d'API. Lorsque le flux Firehose est configuré avec Kinesis Data Stream comme source, vous pouvez également utiliser l'agrégation intégrée dans la Kinesis Producer Library (KPL). La fonctionnalité de partition des données est exécutée après la désagrégation des données. Par conséquent, chaque enregistrement de chaque appel d'API peut être transmis à différents préfixes Amazon S3. Vous pouvez également tirer parti de l'intégration de la fonction Lambda pour effectuer toute autre désagrégation ou toute autre transformation avant la fonctionnalité de partitionnement des données.  
Si vos données sont agrégées, le partitionnement dynamique ne peut être appliqué qu'après la désagrégation des données. Ainsi, si vous activez le partitionnement dynamique de vos données agrégées, vous devez sélectionner **Activé** pour activer la désagrégation multi-enregistrements. 
Firehose Stream exécute les étapes de traitement suivantes dans l'ordre suivant : désagrégation KPL (protobuf), désagrégation JSON ou délimiteur, traitement Lambda, partitionnement des données, conversion des formats de données et livraison Amazon S3.  
 **Type de désagrégation à enregistrements multiples**   
Si vous avez activé la désagrégation multi-enregistrements, vous devez spécifier la méthode que Firehose utilisera pour désagréger vos données. Utilisez le menu déroulant pour choisir **JSON** ou **Délimité**.   
 **Analyse en ligne**   
Il s'agit de l'un des mécanismes pris en charge pour partitionner dynamiquement vos données destinées à Amazon S3. Pour utiliser l'analyse en ligne pour le partitionnement dynamique pour vos données, vous devez spécifier les paramètres d'enregistrement de données à utiliser comme clés de partitionnement et fournir une valeur pour chaque clé de partitionnement spécifiée. Choisissez **Activé** pour activer et configurer le l'analyse en ligne.  
Si vous avez spécifié une fonction AWS Lambda dans les étapes ci-dessus pour transformer vos enregistrements source, vous pouvez utiliser cette fonction pour partitionner dynamiquement vos données liées à S3 et vous pouvez toujours créer vos clés de partitionnement grâce à l'analyse en ligne. Avec le partitionnement dynamique, vous pouvez utiliser l'analyse en ligne ou votre fonction AWS Lambda pour créer vos clés de partitionnement. Vous pouvez également utiliser à la fois l'analyse en ligne et votre fonction AWS Lambda pour créer vos clés de partitionnement.   
 **Clés de partitionnement dynamique**   
Vous pouvez utiliser les champs **Clé** et **Valeur** pour spécifier les paramètres d'enregistrement de données à utiliser comme clés de partitionnement dynamique et les requêtes JQ pour générer des valeurs de clé de partitionnement dynamique. Firehose ne prend en charge que jq 1.6. Vous pouvez spécifier jusqu'à 50 clés de partitionnement dynamique. Vous devez entrer des expressions jq valides pour les valeurs de vos clés de partitionnement dynamique afin de configurer correctement le partitionnement dynamique pour votre flux Firehose.  
 **Préfixe du compartiment S3**   
Lorsque vous activez et configurez le partitionnement dynamique, vous devez spécifier les préfixes de compartiment S3 auxquels Amazon Data Firehose doit fournir les données partitionnées.  
Pour que le partitionnement dynamique soit correctement configuré, le nombre de préfixes du compartiment S3 doit être identique au nombre de clés de partitionnement spécifiées.  
 Vous pouvez partitionner vos données sources à l'aide de l'analyse en ligne ou de la fonction Lambda AWS que vous avez spécifiée. Si vous avez spécifié une fonction AWS Lambda pour créer des clés de partitionnement pour vos données sources, vous devez saisir manuellement les valeurs du préfixe du compartiment S3 en utilisant le format suivant : « Lambda:KeyID ». partitionKeyFrom Si vous utilisez l'analyse en ligne pour spécifier les clés de partitionnement de vos données sources, vous pouvez soit saisir manuellement les valeurs d'aperçu du compartiment S3 en utilisant le format suivant : « partitionKeyFrom query:keyID », soit cliquer sur le bouton **Appliquer les clés de partitionnement dynamique pour utiliser vos paires de partitionnement dynamique afin de générer automatiquement** les préfixes de vos compartiments S3. key/value Lorsque vous partitionnez vos données à l'aide de l'analyse en ligne ou de AWS Lambda, vous pouvez également utiliser les formes d'expression suivantes dans le préfixe de votre compartiment S3 : \$1 \$1namespace:value\$1, où l'espace de noms peut être Query ou Lambda. partitionKeyFrom partitionKeyFrom   
 **Bucket S3 et fuseau horaire du préfixe de sortie d'erreur S3**   
Choisissez le fuseau horaire que vous souhaitez utiliser pour la date et l'heure dans les [préfixes personnalisés des objets Amazon S3](s3-prefixes.md). Par défaut, Firehose ajoute un préfixe horaire en UTC. Vous pouvez modifier le fuseau horaire utilisé dans les préfixes S3 si vous souhaitez utiliser un autre fuseau horaire.   
 **Conseils de mise en mémoire tampon**   
Firehose met en mémoire tampon les données entrantes avant de les livrer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.   
 **Compression S3**   
Choisissez la compression de données GZIP, Snappy, Zip ou Snappy compatible avec Hadoop, ou aucune compression de données. La compression Snappy compatible avec Snappy, Zip et Hadoop n’est pas disponible pour les flux Firehose avec Amazon Redshift comme destination.   
**Format d'extension de fichier S3 (facultatif)**  
Spécifiez un format d'extension de fichier pour les objets livrés au compartiment de destination Amazon S3. Si vous activez cette fonctionnalité, l'extension de fichier spécifiée remplacera les extensions de fichier par défaut ajoutées par les fonctionnalités de conversion de format de données ou de compression S3 telles que .parquet ou .gz. Assurez-vous d'avoir configuré la bonne extension de fichier lorsque vous utilisez cette fonctionnalité avec la conversion de format de données ou la compression S3. L'extension de fichier doit commencer par un point (.) et peut contenir les caractères autorisés : 0-9a-z \$1 -\$1.\$1' (). L'extension de fichier ne peut pas dépasser 128 caractères.  
**Chiffrement S3**  
Firehose prend en charge le chiffrement côté serveur Amazon S3 avec AWS Key Management Service (SSE-KMS) pour chiffrer les données livrées dans Amazon S3. Vous pouvez choisir d'utiliser le type de chiffrement par défaut spécifié dans le compartiment S3 de destination ou de chiffrer avec une clé de la liste des AWS KMS clés que vous possédez. Si vous chiffrez les données à l'aide de AWS KMS clés, vous pouvez utiliser la clé AWS gérée par défaut (aws/s3) ou une clé gérée par le client. Pour plus d'informations, voir [Protection des données à l'aide du chiffrement côté serveur avec des clés AWS gérées par KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Configuration des paramètres de destination pour les tables Apache Iceberg
<a name="create-destination-iceberg"></a>

Firehose prend en charge les tables Apache Iceberg comme destination dans toutes les régions sauf en [Régions AWS](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html?icmpid=docs_homepage_addtlrcs#region)Chine AWS GovCloud (US) Regions, en Asie-Pacifique (Taipei), en Asie-Pacifique (Malaisie), en Asie-Pacifique (Nouvelle Zélande) et au Mexique (Centre).

Pour plus d'informations sur les tables Apache Iceberg en tant que destination, consultez[Fournissez des données aux tables Apache Iceberg avec Amazon Data Firehose](apache-iceberg-destination.md).

## Configuration des paramètres de destination pour Amazon Redshift
<a name="create-destination-redshift"></a>

Cette section décrit les paramètres d'utilisation d'Amazon Redshift comme destination de votre stream Firehose.

Choisissez l'une des procédures suivantes selon que vous disposez d'un cluster Amazon Redshift provisionné ou d'un groupe de travail Amazon Redshift sans serveur.
+ [Cluster provisionné Amazon Redshift](#create-destination-redshift-provisioned)
+ [Configuration des paramètres de destination pour le groupe de travail Amazon Redshift Serverless](#create-destination-redshift-serverless)
**Note**  
Firehose ne peut pas écrire sur les clusters Amazon Redshift qui utilisent un routage VPC amélioré.

### Cluster provisionné Amazon Redshift
<a name="create-destination-redshift-provisioned"></a>

Cette section décrit les paramètres d'utilisation du cluster provisionné Amazon Redshift comme destination de votre flux Firehose.

****
+ Saisissez des valeurs pour les champs suivants :  
 **Cluster**   
Cluster Amazon Redshift dans lequel vos données de compartiment S3 sont copiées. Configurez le cluster Amazon Redshift pour qu'il soit accessible au public et débloquez les adresses IP Amazon Data Firehose. Pour de plus amples informations, veuillez consulter [Accorder à Firehose l'accès à une destination Amazon Redshift](controlling-access.md#using-iam-rs).  
 **Authentification**   
Vous pouvez choisir de saisir le code secret username/password directement ou de le récupérer AWS Secrets Manager pour accéder au cluster Amazon Redshift.  
  + **Nom utilisateur**

    Spécifiez un utilisateur Amazon Redshift autorisé à accéder au cluster Amazon Redshift. Cet utilisateur doit avoir l'autorisation `INSERT` d'Amazon Redshift pour copier des données du compartiment S3 vers le cluster Amazon Redshift.
  + **Mot de passe :** 

    Spécifiez le mot de passe de l'utilisateur autorisé à accéder au cluster.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant les informations d'identification du cluster Amazon Redshift. Si votre code secret ne figure pas dans la liste déroulante, créez-en un AWS Secrets Manager pour vos informations d'identification Amazon Redshift. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Base de données**   
La base de données Amazon Redshift dans laquelle les données sont copiées.  
 **Tableau **   
La table Amazon Redshift dans laquelle les données sont copiées.  
 **Colonnes**   
(Facultatif) Colonnes spécifiques de la table dans laquelle les données sont copiées. Utilisez cette option si le nombre de colonnes défini dans vos objets Amazon S3 est inférieur au nombre de colonnes de la table Amazon Redshift.   
 **Destination S3 intermédiaire**   <a name="redshift-s3-bucket"></a>
Firehose envoie d'abord vos données dans votre compartiment S3, puis émet une commande Amazon **COPY** Redshift pour charger les données dans votre cluster Amazon Redshift. Spécifiez un compartiment S3 que vous possédez dans lequel les données de diffusion en continu doivent être diffusées. Créez un nouveau compartiment S3 ou choisissez un compartiment existant dont vous êtes propriétaire.  
Firehose ne supprime pas les données de votre compartiment S3 après les avoir chargées dans votre cluster Amazon Redshift. Vous pouvez gérer les données de votre compartiment S3 à l'aide d'une configuration du cycle de vie. Pour plus d'informations, consultez l[Gestion du cycle de vie des objets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) dans le *Guide de l'utilisateur Amazon Simple Storage Service*.  
 **Préfixe du compartiment S3 intermédiaire**   
(Facultatif) Pour utiliser le préfixe par défaut des objets Amazon S3, laissez cette option vide. Firehose utilise automatiquement un préfixe au format « `YYYY/MM/dd/HH` » UTC pour les objets Amazon S3 livrés. Vous pouvez ajouter le début de ce préfixe. Pour de plus amples informations, veuillez consulter [Configurer le format du nom d'objet Amazon S3](s3-object-name.md).  
 **COPY options** (Options COPY)   <a name="redshift-copy-parameters"></a>
Paramètres que vous pouvez spécifier dans la commande **COPY** d'Amazon Redshift. Ils peuvent être nécessaires pour votre configuration. Par exemple, « `GZIP` » est obligatoire si la compression des données Amazon S3 est activée. « `REGION` » est obligatoire si votre compartiment S3 ne se trouve pas dans la même AWS région que votre cluster Amazon Redshift. Pour plus d'informations, veuillez consulter la rubrique [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) dans le *Guide du développeur de la base de données Amazon Redshift*.  
 **COPY command** (Commande COPY)   <a name="redshift-copy-command"></a>
La commande **COPY** Amazon Redshift. Pour plus d'informations, veuillez consulter la rubrique [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) dans le *Guide du développeur de la base de données Amazon Redshift*.  
 **Retry duration** (Durée de la nouvelle tentative)   
Durée (0 à 7 200 secondes) pendant laquelle Firehose doit réessayer si les données de votre cluster **COPY** Amazon Redshift échouent. Firehose réessaie toutes les 5 minutes jusqu'à la fin de la période d'essai. Si vous définissez la durée de la nouvelle tentative à 0 (zéro) seconde, Firehose ne réessaie pas en cas d'échec d'une commande. **COPY**  
 **Conseils de mise en mémoire tampon**   
Firehose met en mémoire tampon les données entrantes avant de les livrer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.  
 **Compression S3**   
Choisissez la compression de données GZIP, Snappy, Zip ou Snappy compatible avec Hadoop, ou aucune compression de données. La compression Snappy compatible avec Snappy, Zip et Hadoop n’est pas disponible pour les flux Firehose avec Amazon Redshift comme destination.   
**Format d'extension de fichier S3 (facultatif)**  
Format d'extension de fichier S3 (facultatif) : spécifiez un format d'extension de fichier pour les objets livrés au compartiment de destination Amazon S3. Si vous activez cette fonctionnalité, l'extension de fichier spécifiée remplacera les extensions de fichier par défaut ajoutées par les fonctionnalités de conversion de format de données ou de compression S3 telles que .parquet ou .gz. Assurez-vous d'avoir configuré la bonne extension de fichier lorsque vous utilisez cette fonctionnalité avec la conversion de format de données ou la compression S3. L'extension de fichier doit commencer par un point (.) et peut contenir les caractères autorisés : 0-9a-z \$1 -\$1.\$1' (). L'extension de fichier ne peut pas dépasser 128 caractères.  
**Chiffrement S3**  
Firehose prend en charge le chiffrement côté serveur Amazon S3 avec AWS Key Management Service (SSE-KMS) pour chiffrer les données livrées dans Amazon S3. Vous pouvez choisir d'utiliser le type de chiffrement par défaut spécifié dans le compartiment S3 de destination ou de chiffrer avec une clé de la liste des AWS KMS clés que vous possédez. Si vous chiffrez les données à l'aide de AWS KMS clés, vous pouvez utiliser la clé AWS gérée par défaut (aws/s3) ou une clé gérée par le client. Pour plus d'informations, voir [Protection des données à l'aide du chiffrement côté serveur avec des clés AWS gérées par KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

### Configuration des paramètres de destination pour le groupe de travail Amazon Redshift Serverless
<a name="create-destination-redshift-serverless"></a>

Cette section décrit les paramètres d'utilisation du groupe de travail Amazon Redshift Serverless comme destination de votre stream Firehose.

****
+ Saisissez des valeurs pour les champs suivants :  
 **Nom du groupe de travail**   
Le groupe de travail Amazon Redshift sans serveur dans lequel vos données de compartiment S3 sont copiées. Configurez le groupe de travail Amazon Redshift Serverless pour qu'il soit accessible au public et débloquez les adresses IP Firehose. Pour de plus amples informations, consultez la section de l'instance Se connecter à Amazon Redshift sans serveur lorsqu'il est publiquement accessible dans [Connexion à Amazon Redshift sans serveur](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-connecting.html) et également [Accorder à Firehose l'accès à une destination Amazon Redshift](controlling-access.md#using-iam-rs).  
 **Authentification**   
Vous pouvez choisir de saisir le code secret username/password directement ou de le récupérer AWS Secrets Manager pour accéder au groupe de travail Amazon Redshift Serverless.  
  + **Nom utilisateur**

    Spécifiez un utilisateur Amazon Redshift autorisé à accéder au groupe de travail Amazon Redshift Serverless. Cet utilisateur doit avoir l'autorisation `INSERT` d'Amazon Redshift pour copier des données du compartiment S3 vers le groupe de travail Amazon Redshift sans serveur.
  + **Mot de passe :** 

    Spécifiez le mot de passe de l'utilisateur autorisé à accéder au groupe de travail Amazon Redshift Serverless.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant les informations d'identification du groupe de travail Amazon Redshift Serverless. Si votre code secret ne figure pas dans la liste déroulante, créez-en un AWS Secrets Manager pour vos informations d'identification Amazon Redshift. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Base de données**   
La base de données Amazon Redshift dans laquelle les données sont copiées.  
 **Tableau **   
La table Amazon Redshift dans laquelle les données sont copiées.  
 **Colonnes**   
(Facultatif) Colonnes spécifiques de la table dans laquelle les données sont copiées. Utilisez cette option si le nombre de colonnes défini dans vos objets Amazon S3 est inférieur au nombre de colonnes de la table Amazon Redshift.   
 **Destination S3 intermédiaire**   <a name="redshift-s3-bucket"></a>
Amazon Data Firehose envoie d'abord vos données dans votre compartiment S3, puis émet une commande Amazon **COPY** Redshift pour charger les données dans votre groupe de travail Amazon Redshift Serverless. Spécifiez un compartiment S3 que vous possédez dans lequel les données de diffusion en continu doivent être diffusées. Créez un nouveau compartiment S3 ou choisissez un compartiment existant dont vous êtes propriétaire.  
Firehose ne supprime pas les données de votre compartiment S3 après les avoir chargées dans votre groupe de travail Amazon Redshift Serverless. Vous pouvez gérer les données de votre compartiment S3 à l'aide d'une configuration du cycle de vie. Pour plus d'informations, consultez l[Gestion du cycle de vie des objets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) dans le *Guide de l'utilisateur Amazon Simple Storage Service*.  
 **Préfixe du compartiment S3 intermédiaire**   
(Facultatif) Pour utiliser le préfixe par défaut des objets Amazon S3, laissez cette option vide. Firehose utilise automatiquement un préfixe au format « `YYYY/MM/dd/HH` » UTC pour les objets Amazon S3 livrés. Vous pouvez ajouter le début de ce préfixe. Pour de plus amples informations, veuillez consulter [Configurer le format du nom d'objet Amazon S3](s3-object-name.md).  
 **COPY options** (Options COPY)   <a name="redshift-copy-parameters"></a>
Paramètres que vous pouvez spécifier dans la commande **COPY** d'Amazon Redshift. Ils peuvent être nécessaires pour votre configuration. Par exemple, « `GZIP` » est obligatoire si la compression des données Amazon S3 est activée. « `REGION` » est obligatoire si votre compartiment S3 ne se trouve pas dans la même AWS région que votre groupe de travail Amazon Redshift Serverless. Pour plus d'informations, veuillez consulter la rubrique [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) dans le *Guide du développeur de la base de données Amazon Redshift*.  
 **COPY command** (Commande COPY)   <a name="redshift-copy-command"></a>
La commande **COPY** Amazon Redshift. Pour plus d'informations, veuillez consulter la rubrique [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) dans le *Guide du développeur de la base de données Amazon Redshift*.  
 **Retry duration** (Durée de la nouvelle tentative)   
Durée (0 à 7 200 secondes) pendant laquelle Firehose doit réessayer si les données de votre groupe de travail **COPY** Amazon Redshift Serverless échouent. Firehose réessaie toutes les 5 minutes jusqu'à la fin de la période d'essai. Si vous définissez la durée de la nouvelle tentative à 0 (zéro) seconde, Firehose ne réessaie pas en cas d'échec d'une commande. **COPY**  
 **Conseils de mise en mémoire tampon**   
Firehose met en mémoire tampon les données entrantes avant de les livrer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.  
 **Compression S3**   
Choisissez la compression de données GZIP, Snappy, Zip ou Snappy compatible avec Hadoop, ou aucune compression de données. La compression Snappy compatible avec Snappy, Zip et Hadoop n’est pas disponible pour les flux Firehose avec Amazon Redshift comme destination.   
**Format d'extension de fichier S3 (facultatif)**  
Format d'extension de fichier S3 (facultatif) : spécifiez un format d'extension de fichier pour les objets livrés au compartiment de destination Amazon S3. Si vous activez cette fonctionnalité, l'extension de fichier spécifiée remplacera les extensions de fichier par défaut ajoutées par les fonctionnalités de conversion de format de données ou de compression S3 telles que .parquet ou .gz. Assurez-vous d'avoir configuré la bonne extension de fichier lorsque vous utilisez cette fonctionnalité avec la conversion de format de données ou la compression S3. L'extension de fichier doit commencer par un point (.) et peut contenir les caractères autorisés : 0-9a-z \$1 -\$1.\$1' (). L'extension de fichier ne peut pas dépasser 128 caractères.  
**Chiffrement S3**  
Firehose prend en charge le chiffrement côté serveur Amazon S3 avec AWS Key Management Service (SSE-KMS) pour chiffrer les données livrées dans Amazon S3. Vous pouvez choisir d'utiliser le type de chiffrement par défaut spécifié dans le compartiment S3 de destination ou de chiffrer avec une clé de la liste des AWS KMS clés que vous possédez. Si vous chiffrez les données à l'aide de AWS KMS clés, vous pouvez utiliser la clé AWS gérée par défaut (aws/s3) ou une clé gérée par le client. Pour plus d'informations, voir [Protection des données à l'aide du chiffrement côté serveur avec des clés AWS gérées par KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Configurer les paramètres de destination pour le OpenSearch service
<a name="create-destination-elasticsearch"></a>

Firehose prend en charge les versions d'Elasticsearch : 1.5, 2.3, 5.1, 5.3, 5.5, 5.6, ainsi que toutes les versions 6.\$1, 7.\$1 et 8.\$1. Firehose est compatible avec Amazon OpenSearch Service 2.x et 3.x.

Cette section décrit les options d'utilisation OpenSearch du Service pour votre destination.

****
+ Saisissez des valeurs pour les champs suivants :  
** **OpenSearch Domaine de service** **  
Le domaine de OpenSearch service vers lequel vos données sont livrées.  
** **Index** **  
Le nom OpenSearch de l'index de service à utiliser lors de l'indexation des données dans votre cluster OpenSearch de services.  
** **Index rotation** **  
Choisissez si et à quelle fréquence l'index OpenSearch de service doit être pivoté. Si la rotation de l’index est activée, Amazon Data Firehose ajoute l’horodatage correspondant au nom de l’index spécifié et effectue la rotation. Pour de plus amples informations, veuillez consulter [Configurer la rotation de l'index pour le OpenSearch service](es-index-rotation.md).  
** **Type** **  
Le nom du type de OpenSearch service à utiliser lors de l'indexation des données dans votre cluster OpenSearch de services. Pour Elasticsearch 7.x et OpenSearch 1.x, il ne peut y avoir qu'un seul type par index. Si vous essayez de spécifier un nouveau type pour un index existant qui a déjà un autre type, Firehose renvoie une erreur lors de l’exécution.   
Pour Elasticsearch 7.x, laissez ce champ vide.  
** **Retry duration** (Durée de la nouvelle tentative) **  
Durée pendant laquelle Firehose doit réessayer en cas d'échec d'une demande d'index. OpenSearch Pour la durée de la nouvelle tentative, vous pouvez définir une valeur comprise entre 0 et 7 200 secondes. La durée de nouvelle tentative par défaut est de 300 secondes. Firehose réessaiera plusieurs fois avec un arrêt exponentiel jusqu'à ce que le délai de réessai expire.  
Une fois le délai de nouvelle tentative expiré, Firehose fournit les données à Dead Letter Queue (DLQ), un compartiment d'erreur S3 configuré. Pour les données transmises à DLQ, vous devez rediriger les données du compartiment d'erreur S3 configuré vers OpenSearch leur destination.   
Si vous souhaitez empêcher Firehose Stream de fournir des données à DLQ en raison d'une interruption de service ou de la maintenance de OpenSearch clusters, vous pouvez configurer la durée des nouvelles tentatives à une valeur plus élevée en secondes. [Vous pouvez augmenter la durée de la nouvelle tentative ci-dessus à 7200 secondes en contactant le AWS support.](https://aws.amazon.com/contact-us/)   
** **Type de DocumentID** **  
Indique la méthode de configuration de l'ID du document. Les méthodes prises en charge sont l'ID de document généré par Firehose et l'ID de document généré par le OpenSearch Service. L'ID de document généré par Firehose est l'option par défaut lorsque la valeur de l'ID de document n'est pas définie. OpenSearch L'ID de document généré par le service est l'option recommandée car elle prend en charge les opérations nécessitant beaucoup d'écriture, notamment l'analyse des journaux et l'observabilité, consommant ainsi moins de ressources CPU dans le domaine des OpenSearch services et améliorant ainsi les performances.  
** **Connectivité du VPC de destination** **  
Si votre domaine OpenSearch de service se trouve dans un VPC privé, utilisez cette section pour spécifier ce VPC. Spécifiez également les sous-réseaux et sous-groupes que vous souhaitez qu'Amazon Data Firehose utilise lorsqu'il envoie des données à votre domaine de service. OpenSearch Vous pouvez utiliser les mêmes groupes de sécurité que ceux utilisés par le domaine de OpenSearch service. Si vous spécifiez différents groupes de sécurité, assurez-vous qu'ils autorisent le trafic HTTPS sortant vers le groupe de sécurité du domaine de OpenSearch service. Assurez-vous également que le groupe de sécurité du domaine de OpenSearch service autorise le trafic HTTPS provenant des groupes de sécurité que vous avez spécifiés lors de la configuration de votre flux Firehose. Si vous utilisez le même groupe de sécurité pour votre stream Firehose et pour le domaine de OpenSearch service, assurez-vous que la règle entrante du groupe de sécurité autorise le trafic HTTPS. Pour plus d'informations sur les règles des groupes de sécurité, consultez [Règles des groupes de sécurité](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#SecurityGroupRules) dans la documentation Amazon VPC.  
Lorsque vous spécifiez des sous-réseaux pour fournir des données à la destination dans un VPC privé, assurez-vous de disposer d'un nombre suffisant d'adresses IP libres dans les sous-réseaux sélectionnés. Si aucune adresse IP gratuite n'est disponible dans un sous-réseau spécifié, Firehose ne peut pas créer ou ENIs ajouter de données pour la livraison de données dans le VPC privé, et la livraison sera dégradée ou échouera.  
**Indices de mémoire tampon**  
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.

## Configuration des paramètres de destination pour OpenSearch Serverless
<a name="create-destination-opensearch-serverless"></a>

Cette section décrit les options permettant d'utiliser OpenSearch Serverless pour votre destination.

****
+ Saisissez des valeurs pour les champs suivants :  
** **OpenSearch Collecte sans serveur** **  
Point de terminaison d'un groupe d'index OpenSearch sans serveur auquel vos données sont livrées.  
** **Index** **  
Le nom de l'index OpenSearch Serverless à utiliser lors de l'indexation des données dans votre collection OpenSearch Serverless.  
** **Connectivité du VPC de destination** **  
Si votre collection OpenSearch Serverless se trouve dans un VPC privé, utilisez cette section pour spécifier ce VPC. Spécifiez également les sous-réseaux et sous-groupes que vous souhaitez qu'Amazon Data Firehose utilise lorsqu'il envoie des données à votre collection Serverless. OpenSearch   
Lorsque vous spécifiez des sous-réseaux pour fournir des données à la destination dans un VPC privé, assurez-vous de disposer d'un nombre suffisant d'adresses IP libres dans les sous-réseaux sélectionnés. Si aucune adresse IP gratuite n'est disponible dans un sous-réseau spécifié, Firehose ne peut pas créer ou ENIs ajouter de données pour la livraison de données dans le VPC privé, et la livraison sera dégradée ou échouera.  
** **Retry duration** (Durée de la nouvelle tentative) **  
Durée pendant laquelle Firehose doit réessayer en cas d'échec d'une demande d'index adressée à OpenSearch Serverless. Pour la durée de la nouvelle tentative, vous pouvez définir une valeur comprise entre 0 et 7 200 secondes. La durée de nouvelle tentative par défaut est de 300 secondes. Firehose réessaiera plusieurs fois avec un arrêt exponentiel jusqu'à ce que le délai de réessai expire.  
Une fois le délai de nouvelle tentative expiré, Firehose fournit les données à Dead Letter Queue (DLQ), un compartiment d'erreur S3 configuré. Pour les données transmises à DLQ, vous devez rediriger les données du compartiment d'erreur S3 configuré vers une destination OpenSearch sans serveur.   
Si vous souhaitez empêcher Firehose Stream de fournir des données à DLQ en raison d'une interruption de service ou de la maintenance de clusters OpenSearch sans serveur, vous pouvez configurer la durée des nouvelles tentatives à une valeur plus élevée en secondes. [Vous pouvez augmenter la durée de la nouvelle tentative ci-dessus à 7200 secondes en contactant le AWS support.](https://aws.amazon.com/contact-us/)   
**Indices de mémoire tampon**  
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.

## Configurer les paramètres de destination pour le point de terminaison HTTP
<a name="create-destination-http"></a>

Cette section décrit les options dont vous disposez pour utiliser le **point de terminaison HTTP** comme destination.

**Important**  
Si vous choisissez un point de terminaison HTTP comme destination, consultez et suivez les instructions figurant dans [Comprendre les spécifications de demande et de réponse des points de terminaison HTTP](httpdeliveryrequestresponse.md).

****
+ Fournissez des valeurs pour les champs suivants :  
 **Nom du point de terminaison HTTP : facultatif**   
Spécifiez un nom convivial pour le point de terminaison HTTP. Par exemple, `My HTTP Endpoint Destination`.  
 **URL du point de terminaison HTTP**   
Spécifiez l'URL du point de terminaison HTTP au format suivant : `https://xyz.httpendpoint.com`. L'URL doit être une URL HTTPS.  
 **Authentification**   
Vous pouvez choisir de saisir directement la clé d'accès ou de récupérer le secret AWS Secrets Manager pour accéder au point de terminaison HTTP.  
  + **(Facultatif) Clé d'accès** 

    Contactez le propriétaire du terminal si vous avez besoin d'obtenir la clé d'accès pour permettre la livraison de données à son point de terminaison depuis Firehose.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant la clé d'accès pour le point de terminaison HTTP. Si votre code secret ne figure pas dans la liste déroulante, créez-en un AWS Secrets Manager pour la clé d'accès. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Encodage de contenu**   
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** ou **Disabled** pour le codage enable/disable du contenu de votre demande.   
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données au point de terminaison HTTP sélectionné.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.  
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.  
Pour les destinations du point de terminaison HTTP, si 413 codes de réponse proviennent du point de terminaison de destination dans CloudWatch Logs, réduisez la taille de l'indicateur de mise en mémoire tampon sur votre flux Firehose et réessayez.

## Configurer les paramètres de destination pour Datadog
<a name="create-destination-datadog"></a>

Cette section décrit les options dont vous disposez pour utiliser **Datadog** comme destination. [Pour plus d'informations sur Datadog, consultez https://docs.datadoghq.com/integrations/ amazon\$1web\$1services/.](https://docs.datadoghq.com/integrations/amazon_web_services/)

****
+ Entrez des valeurs pour les champs suivants.  
 **URL du point de terminaison HTTP**   
Choisissez l'endroit où vous souhaitez envoyer les données à partir de l'une des options suivantes du menu déroulant.  
  + **Logs Datadog - US1**
  + **Logs Datadog - US3**
  + **Logs Datadog - US5**
  + **Logs Datadog - AP1**
  + **Journaux Datadog – EU**
  + **Journaux Datadog – GOV**
  + **Métriques Datadog – US**
  + **Métriques Datadog - US5**
  + **Métriques Datadog - AP1**
  + **Métriques Datadog – EU**
  + **Configurations Datadog - US1**
  + **Configurations Datadog - US3**
  + **Configurations Datadog - US5**
  + **Configurations Datadog - AP1**
  + **Configurations Datadog - UE**
  + **Configurations Datadog - US GOV**  
 **Authentification**   
Vous pouvez choisir de saisir directement la clé d'API ou de récupérer le code secret AWS Secrets Manager pour accéder à Datadog.  
  + **Clé API** 

    Contactez Datadog pour obtenir la clé d'API dont vous avez besoin pour permettre la livraison de données à ce point de terminaison depuis Firehose.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant la clé d'API de Datadog. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Encodage de contenu**   
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** ou **Disabled** pour le codage enable/disable du contenu de votre demande.   
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données au point de terminaison HTTP sélectionné.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.

## Configurer les paramètres de destination pour Honeycomb
<a name="create-destination-honeycomb"></a>

Cette section décrit les options dont vous disposez pour utiliser **Honeycomb** comme destination. Pour plus d'informations sur Honeycomb, consultez [https://docs.honeycomb. io/getting-data-in/metrics/aws -cloudwatch-metrics/.](https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/ )

****
+ Fournissez des valeurs pour les champs suivants :  
 **Point de terminaison Kinesis Honeycomb**   
Spécifiez l'URL du point de terminaison HTTP au format suivant : https://api.honeycom b.io/1/kinesis\$1events/ \$1\$1dataset\$1\$1   
 **Authentification**   
Vous pouvez choisir de saisir directement la clé API ou de récupérer le secret AWS Secrets Manager pour accéder à Honeycomb.  
  + **Clé API** 

    Contactez Honeycomb pour obtenir la clé d'API dont vous avez besoin pour permettre la livraison de données à ce point de terminaison depuis Firehose.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant la clé d'API pour Honeycomb. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Encodage de contenu**   
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** pour activer le codage du contenu de votre demande. Il s'agit là de l'option recommandée pour la destination Honeycomb.  
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données au point de terminaison HTTP sélectionné.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.

## Configuration des paramètres de destination pour Coralogix
<a name="create-destination-coralogix"></a>

Cette section décrit les options dont vous disposez pour utiliser **Coralogix** comme destination. Pour plus d'informations sur Coralogix, voir [Commencer](https://coralogix.com/docs/guide-first-steps-coralogix/) avec Coralogix.

****
+ Fournissez des valeurs pour les champs suivants :  
 **URL du point de terminaison HTTP**   
Choisissez l'URL du point de terminaison HTTP parmi les options suivantes du menu déroulant :  
  + **Coralogix – États-Unis**
  + **Coralogix – SINGAPOUR**
  + **Coralogix – IRLANDE**
  + **Coralogix – INDE**
  + **Coralogix – STOCKHOLM**  
 **Authentification**   
Vous pouvez choisir de saisir directement la clé privée ou de récupérer le secret AWS Secrets Manager pour accéder à Coralogix.  
  + **Clé privée** 

    Contactez Coralogix pour obtenir la clé privée dont vous avez besoin pour permettre la livraison de données à ce point de terminaison depuis Firehose.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant la clé privée de Coralogix. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Encodage de contenu**   
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** pour activer le codage du contenu de votre demande. Il s'agit là de l'option recommandée pour la destination Coralogix.  
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données au point de terminaison HTTP sélectionné.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
  + applicationName : l'environnement dans lequel vous exécutez Data Firehose
  + SubsystemName : nom de l'intégration Data Firehose
  + computerName : nom du flux Firehose en cours d’utilisation  
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie en fonction du fournisseur de services.

## Configuration des paramètres de destination pour Dynatrace
<a name="create-destination-dynatrace"></a>

Cette section décrit les options dont vous disposez pour utiliser **Dynatrace** comme destination. Pour plus d'informations, consultez [https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/](https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/).

****
+ Choisissez des options pour utiliser Dynatrace comme destination pour votre stream Firehose.  
 **Type d'ingestion**   
Choisissez si vous souhaitez fournir des **métriques** ou des **journaux** (par défaut) dans Dynatrace pour une analyse et un traitement plus approfondis.  
 **URL du point de terminaison HTTP**   
Choisissez l'URL du point de terminaison HTTP (**Dynatrace US**, **Dynatrace EU ou Dynatrace Global**) dans le **menu** déroulant.  
 **Authentification**   
Vous pouvez choisir de saisir directement le jeton d'API ou de récupérer le secret AWS Secrets Manager pour accéder à Dynatrace.  
  + **Jeton d'API** 

    Générez le jeton d'API Dynatrace dont vous avez besoin pour permettre la livraison de données à ce point de terminaison depuis Firehose. Pour plus d'informations, consultez l'[API Dynatrace - Tokens](https://docs.dynatrace.com/docs/dynatrace-api/basics/dynatrace-api-authentication) et authentification.
  + **Secret**

    Sélectionnez un secret AWS Secrets Manager qui contient le jeton d'API pour Dynatrace. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **URL de l'API**   
Fournissez l'URL de l'API de votre environnement Dynatrace.  
 **Encodage de contenu**   
Choisissez si vous souhaitez activer le codage du contenu pour compresser le corps de la demande. Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Lorsque cette option est activée, le contenu est compressé au format **GZIP**.  
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Firehose tente à nouveau d'envoyer des données au point de terminaison HTTP sélectionné.   
Après avoir envoyé des données, Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois que Firehose envoie des données au point de terminaison HTTP, que ce soit lors de la tentative initiale ou après une nouvelle tentative, il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne voulez pas que Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
**Conseils de mise en mémoire tampon**  
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. Les indications relatives à la mémoire tampon incluent la taille de la mémoire tampon et l'intervalle de vos flux. La taille de mémoire tampon recommandée pour la destination varie en fonction du fournisseur de services.

## Configurer les paramètres de destination pour LogicMonitor
<a name="create-destination-logicmonitor"></a>

Cette section décrit les options dont vous disposez pour utiliser **LogicMonitor** en tant que destination. Pour de plus amples informations, veuillez consulter [https://www.logicmonitor.com](https://www.logicmonitor.com).

****
+ Fournissez des valeurs pour les champs suivants :  
 **URL du point de terminaison HTTP**   
Spécifiez l'URL du point de terminaison HTTP au format suivant.  

  ```
  https://ACCOUNT.logicmonitor.com
  ```  
 **Authentification**   
Vous pouvez choisir de saisir directement la clé API ou de récupérer le secret AWS Secrets Manager pour y accéder LogicMonitor.  
  + **Clé API** 

    Contactez-nous LogicMonitor pour obtenir la clé d'API dont vous avez besoin pour activer la livraison de données à ce point de terminaison depuis Firehose.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant la clé d'API pour LogicMonitor. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Encodage de contenu**   
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** ou **Disabled** pour le codage enable/disable du contenu de votre demande.   
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données au point de terminaison HTTP sélectionné.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.

## Configurer les paramètres de destination pour Logz.io
<a name="create-destination-logz"></a>

Cette section décrit les options dont vous disposez pour utiliser **Logz.io** comme destination. Pour plus d'informations, consultez [https://logz.io/](https://logz.io/).

**Note**  
Dans la région Europe (Milan), Logz.io n’est pas pris en charge en tant que destination Amazon Data Firehose.

****
+ Fournissez des valeurs pour les champs suivants :  
 **URL du point de terminaison HTTP**   
Spécifiez l'URL du point de terminaison HTTP au format suivant. L'URL doit être une `HTTPS` URL.  

  ```
  https://listener-aws-metrics-stream-<region>.logz.io/
  ```
Par exemple  

  ```
  https://listener-aws-metrics-stream-us.logz.io/
  ```  
 **Authentification**   
Vous pouvez choisir de saisir directement le code d'expédition ou de récupérer le code secret AWS Secrets Manager pour accéder à Logz.io.  
  + **Jeton d'expédition** 

    Contactez Logz.io pour obtenir le jeton d'expédition dont vous avez besoin pour activer la livraison de données à ce point de terminaison depuis Firehose.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant le jeton d'expédition pour Logz.io. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données à Logz.io.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.

## Configurer les paramètres de destination pour MongoDB Atlas
<a name="create-destination-mongodb"></a>

Cette section décrit les options d'utilisation de **MongoDB Atlas** pour votre destination. Pour plus d’informations, consultez [MongoDB Atlas sur Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws).

****
+ Fournissez des valeurs pour les champs suivants :  
**URL de la passerelle API**  
Spécifiez l'URL du point de terminaison HTTP au format suivant.  

  ```
   https://xxxxx.execute-api.region.amazonaws.com/stage
  ```
L'URL doit être une `HTTPS` URL.   
 **Authentification**   
Vous pouvez choisir de saisir directement la clé d'API ou de récupérer le secret AWS Secrets Manager pour accéder à MongoDB Atlas.  
  + **Clé API** 

    Suivez les instructions de [MongoDB Atlas sur Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws) pour obtenir les informations dont vous avez besoin pour activer la `APIKeyValue` livraison de données à ce point de terminaison depuis Firehose.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant la clé d'API pour API Gateway qui est soutenue par Lambda interagissant avec MongoDB Atlas. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
**Encodage de contenu**  
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** ou **Disabled** pour le codage enable/disable du contenu de votre demande.   
**Retry duration** (Durée de la nouvelle tentative)  
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données au fournisseur tiers sélectionné.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
**Conseils de mise en mémoire tampon**  
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.  
**Paramètres – facultatif**  
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations. 

## Configurer les paramètres de destination pour New Relic
<a name="create-destination-new-relic"></a>

Cette section décrit les options dont vous disposez pour utiliser **New Relic** comme destination. Pour de plus amples informations, veuillez consulter [https://newrelic.com](https://newrelic.com). 

****
+ Fournissez des valeurs pour les champs suivants :  
 **URL du point de terminaison HTTP**   
Choisissez l'URL du point de terminaison HTTP parmi les options suivantes de la liste déroulante.  
  + **Journaux New Relic – US**
  + **Métriques New Relic – US**
  + **Métriques New Relic – EU**  
 **Authentification**   
Vous pouvez choisir de saisir directement la clé API ou de récupérer le secret AWS Secrets Manager pour accéder à New Relic.  
  + **Clé API** 

    Entrez votre clé de licence, qui est une chaîne hexadécimale de 40 caractères, dans les paramètres de votre compte New Relic One. Vous avez besoin de cette clé d'API pour permettre la livraison de données à ce point de terminaison depuis Firehose.
  + **Secret**

    Sélectionnez un secret AWS Secrets Manager contenant la clé d'API de New Relic. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Encodage de contenu**   
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** ou **Disabled** pour le codage enable/disable du contenu de votre demande.   
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données au point de terminaison HTTP New Relic.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.

## Configurer les paramètres de destination pour Snowflake
<a name="create-destination-snowflake"></a>

Cette section décrit les options d'utilisation de Snowflake pour votre destination.

**Note**  
L'intégration de Firehose à Snowflake est disponible dans l'est des États-Unis (Virginie du Nord), l'ouest des États-Unis (Oregon), l'Europe (Irlande), l'est des États-Unis (Ohio), l'Asie-Pacifique (Tokyo), l'Europe (Francfort), l'Asie-Pacifique (Singapour), l'Asie-Pacifique (Séoul), l'Asie-Pacifique (Mumbai), l'Europe (Londres), l'Amérique du Sud (Sao Paulo), le Canada (centre), Europe (Paris), Asie-Pacifique (Osaka), Europe (Stockholm), Asie-Pacifique (Jakarta). Régions AWS

**Réglages de connexion**

****
+ Fournissez des valeurs pour les champs suivants :  
 **URL du compte Snowflake**   
Spécifiez l'URL d'un compte Snowflake. Par exemple : `xy12345.us-east-1.aws.snowflakecomputing.com`. Reportez-vous à la [documentation de Snowflake](https://docs.snowflake.com/en/user-guide/admin-account-identifier#format-2-legacy-account-locator-in-a-region) pour savoir comment déterminer l'URL de votre compte. Notez que vous ne devez pas spécifier le numéro de port, alors que le protocole (https ://) est facultatif.  
 **Authentification**   
Vous pouvez choisir de saisir le nom d'utilisateur, la clé privée et le mot de passe manuellement ou de récupérer le code secret pour accéder à AWS Secrets Manager Snowflake.  
  + **Login utilisateur**

    Spécifiez l'utilisateur Snowflake à utiliser pour le chargement des données. Assurez-vous que l’utilisateur bénéficie d’un accès pour insérer des données dans la table Snowflake.
  + **Clé privée**

    Spécifiez la clé privée pour l'authentification avec Snowflake au `PKCS8` format. En outre, n'incluez pas d'en-tête et de pied de page PEM dans la clé privée. Si la clé est divisée sur plusieurs lignes, supprimez les sauts de ligne. Voici un exemple de ce à quoi doit ressembler votre clé privée.

    ```
    -----BEGIN PRIVATE KEY-----
    KEY_CONTENT
    -----END PRIVATE KEY-----
    ```

    Supprimez l'espace `KEY_CONTENT` et fournissez-le à Firehose. Aucun caractère header/footer ou caractère de nouvelle ligne n'est requis.
  + **Passphrase (Phrase secrète)** 

    Spécifiez la phrase secrète pour déchiffrer la clé privée chiffrée. Vous pouvez laisser ce champ vide si la clé privée n’est pas chiffrée. Pour plus d'informations, consultez la section [Utilisation de l'authentification par paire de clés et de la rotation des clés](https://docs.snowflake.com/en/user-guide/data-load-snowpipe-streaming-configuration#using-key-pair-authentication-key-rotation).
  + **Secret**

    Sélectionnez un secret AWS Secrets Manager contenant les informations d'identification de Snowflake. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Configuration des rôles**   
Utiliser le rôle Snowflake par défaut – Si cette option est sélectionnée, Firehose ne transmettra aucun rôle à Snowflake. Le rôle par défaut est supposé charger les données. Assurez-vous que le rôle par défaut est autorisé à insérer des données dans la table Snowflake.  
Utiliser un rôle Snowflake personnalisé – Saisissez un rôle Snowflake autre que celui par défaut qui sera assumé par Firehose lors du chargement de données dans la table Snowflake.  
 **Connectivité de Snowflake**   
Les options sont **Privée** ou **Publique**.  
 **ID VPCE privé (facultatif)**   
L’ID VPCE permettant à Firehose de se connecter en privé à Snowflake. Le format de l'identifiant est com.amazonaws.vpce. [région] .vpce-svc-. *[id]* Pour plus d'informations, voir [AWS PrivateLink & Snowflake](https://docs.snowflake.com/en/user-guide/admin-security-privatelink).  
Si votre cluster Snowflake est activé par les liens privés, utilisez une politique réseau `AwsVpceIds` basée pour autoriser les données Amazon Data Firehose. Firehose ne vous oblige pas à configurer une politique réseau basée sur l'IP dans votre compte Snowflake. L'activation d'une politique réseau basée sur l'IP peut interférer avec la connectivité Firehose. Si vous avez un cas particulier qui nécessite une politique basée sur l'IP, contactez l'équipe Firehose en soumettant [un](https://support.console.aws.amazon.com/support/home?region=us-east-1#/case/create) ticket d'assistance. Pour obtenir la liste des VPCE IDs que vous pouvez utiliser, reportez-vous au[Accès à Snowflake en VPC](controlling-access.md#using-iam-snowflake-vpc).

**Configuration de base de données**
+ Vous devez spécifier les paramètres suivants afin d’utiliser Snowflake comme destination pour votre flux Firehose.
  + Base de données Snowflake – Toutes les données de Snowflake sont conservées dans des bases de données.
  + Schéma Snowflake – Chaque base de données comprend un ou plusieurs schémas, qui sont des regroupements logiques d’objets de base de données, tels que des tables et des vues.
  + Table Snowflake – Toutes les données de Snowflake sont stockées dans des tables de base de données, structurées logiquement sous forme de collections de colonnes et de lignes.

 **Options de chargement des données pour votre table Snowflake** 
+ Utiliser les clés JSON comme noms de colonnes 
+ Utiliser les colonnes VARIANT
  + Nom de la colonne de contenu — Spécifiez un nom de colonne dans le tableau où les données brutes doivent être chargées.
  + Nom de colonne de métadonnées (facultatif) — Spécifiez un nom de colonne dans le tableau où les informations de métadonnées doivent être chargées. Lorsque vous activez ce champ, vous verrez la colonne suivante dans le tableau Snowflake en fonction du type de source. 

    **Pour Direct PUT comme source**

    ```
    {
    "firehoseDeliveryStreamName" : "streamname",
    "IngestionTime" : "timestamp"
    }
    ```

    **Pour Kinesis Data Stream en tant que source**

    ```
    {
    "kinesisStreamName" : "streamname",
    "kinesisShardId" : "Id",
    "kinesisPartitionKey" : "key",
    "kinesisSequenceNumber" : "1234",
    "subsequenceNumber" : "2334",
    "IngestionTime" : "timestamp"
    }
    ```

 **Retry duration** (Durée de la nouvelle tentative) 

Durée (0 à 7 200 secondes) nécessaire à Firehose pour réessayer en cas d'échec de l'ouverture du canal ou de la livraison à Snowflake en raison de problèmes de service Snowflake. Firehose réessaie avec un recul exponentiel jusqu'à la fin de la durée de la nouvelle tentative. Si vous définissez la durée de la nouvelle tentative sur 0 (zéro) seconde, Firehose ne réessaie pas en cas d'échec de Snowflake et achemine les données vers le compartiment d'erreur Amazon S3.

 **Conseils sur la mémoire tampon** 

Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre. Pour de plus amples informations, veuillez consulter [Configurer les conseils de mise en mémoire tampon](create-configure-backup.md#buffering-hints).

## Configurer les paramètres de destination pour Splunk
<a name="create-destination-splunk"></a>

Cette section décrit les options permettant d'utiliser Splunk comme destination.

**Note**  
Firehose fournit des données aux clusters Splunk configurés avec un Classic Load Balancer ou un Application Load Balancer. 

****
+ Fournissez des valeurs pour les champs suivants :  
 **Splunk cluster endpoint** (Point de terminaison de cluster Splunk)   
Pour déterminer le point de terminaison, consultez la section [Configurer Amazon Data Firehose pour envoyer des données à la plateforme Splunk](http://docs.splunk.com/Documentation/AddOns/latest/Firehose/ConfigureFirehose) dans la documentation Splunk.  
 **Splunk endpoint type** (Type de point de terminaison Splunk)   
Choisissez `Raw endpoint` dans la plupart des cas. Choisissez `Event endpoint` si vous avez prétraité vos données en utilisant AWS Lambda pour envoyer des données à différents index par type d'événement. Pour en savoir plus sur le point de terminaison à utiliser, consultez [Configurer Amazon Data Firehose pour envoyer des données sur la plateforme Splunk](http://docs.splunk.com/Documentation/AddOns/released/Firehose/ConfigureFirehose) dans la documentation Splunk.  
 **Authentification**   
Vous pouvez choisir de saisir directement le jeton d'authentification ou de récupérer le secret AWS Secrets Manager pour accéder à Splunk.  
  + **Jeton d'authentification** 

    Pour configurer un point de terminaison Splunk capable de recevoir des données d'Amazon Data Firehose, [consultez la section Présentation de l'installation et de la configuration du module complémentaire Splunk pour Amazon Data Firehose](http://docs.splunk.com/Documentation/AddOns/released/Firehose/Installationoverview) dans la documentation Splunk. Enregistrez le jeton que vous recevez de Splunk lorsque vous configurez le point de terminaison pour ce stream Firehose et ajoutez-le ici.
  + **Secret**

    Sélectionnez un secret AWS Secrets Manager qui contient le jeton d'authentification pour Splunk. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **HEC acknowledgement timeout** (Expiration de l'accusé de réception HEC)   
Spécifiez la durée pendant laquelle Amazon Data Firehose attend l'accusé de réception de l'index par Splunk. Si Splunk n'envoie pas d'accusé de réception avant l'expiration du délai imparti, Amazon Data Firehose considère qu'il s'agit d'un échec de livraison des données. Amazon Data Firehose effectue des nouvelles tentatives ou sauvegarde les données dans votre compartiment Amazon S3, selon la valeur de la durée des nouvelles tentatives que vous définissez.   
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données à Splunk.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part de Splunk. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données à Splunk (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de Splunk.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie en fonction du fournisseur de services.

## Configurer les paramètres de destination pour Splunk Observability Cloud
<a name="create-destination-splunk-cloud"></a>

Cette section décrit les options dont vous disposez pour utiliser **Splunk Observability Cloud** comme destination. Pour plus d'informations, consultez [https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html\$1 - connect-to-aws-using -api](https://docs.splunk.com/Observability/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api). the-splunk-observability-cloud

****
+ Fournissez des valeurs pour les champs suivants :  
 **URL du point de terminaison de l'ingestion dans le Cloud**   
Vous pouvez trouver l'URL d'ingestion de données en temps réel de votre Splunk Observability Cloud dans Profil > Organisations > Point de terminaison d'ingestion de données en temps réel dans la console Splunk Observability.   
 **Authentification**   
Vous pouvez choisir de saisir directement le jeton d'accès ou de récupérer le secret AWS Secrets Manager pour accéder à Splunk Observability Cloud.  
  + **Jeton d'accès** 

    Copiez votre jeton d’accès Splunk Observability avec la portée d’autorisation INGEST depuis **Jetons d’accès** sous **Paramètres**, dans la console Splunk Observability.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant le jeton d'accès à Splunk Observability Cloud. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Encodage de contenu**   
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** ou **Disabled** pour le codage enable/disable du contenu de votre demande.   
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données au point de terminaison HTTP sélectionné.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination varie d'un fournisseur de services à l'autre.

## Configuration des paramètres de destination pour Sumo Logic
<a name="create-destination-sumo-logic"></a>

Cette section décrit les options dont vous disposez pour utiliser **Sumo Logic** comme destination. Pour de plus amples informations, veuillez consulter [https://www.sumologic.com](https://www.sumologic.com).

****
+ Fournissez des valeurs pour les champs suivants :  
 **URL du point de terminaison HTTP**   
Spécifiez l'URL du point de terminaison HTTP au format suivant : `https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token`. L'URL doit être une URL HTTPS.   
 **Encodage de contenu**   
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** ou **Disabled** pour le codage enable/disable du contenu de votre demande.   
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données à Sumo Logic.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille de mémoire tampon recommandée pour la destination Elastic varie d'un fournisseur de services à l'autre.

## Configuration des paramètres de destination pour Elastic
<a name="create-destination-elastic"></a>

Cette section décrit les options dont vous disposez pour utiliser **Elastic** comme destination. 

****
+ Fournissez des valeurs pour les champs suivants :  
 **URL du point de terminaison Elastic**   
Spécifiez l'URL du point de terminaison HTTP au format suivant : `https://<cluster-id>.es.<region>.aws.elastic-cloud.com`. L'URL doit être une URL HTTPS.   
 **Authentification**   
Vous pouvez choisir de saisir directement la clé d'API ou de récupérer le code secret AWS Secrets Manager pour accéder à Elastic.  
  + **Clé API** 

    Contactez Elastic pour obtenir la clé d'API dont vous avez besoin pour permettre à Firehose de fournir des données à leur service.
  + **Secret**

    Sélectionnez un code secret AWS Secrets Manager contenant la clé d'API pour Elastic. Si vous ne voyez pas votre secret dans la liste déroulante, créez-en un dans AWS Secrets Manager. Pour de plus amples informations, veuillez consulter [Authentifiez-vous AWS Secrets Manager dans Amazon Data Firehose](using-secrets-manager.md).  
 **Encodage de contenu**   
Amazon Data Firehose utilise le codage du contenu pour compresser le corps d'une demande avant de l'envoyer à la destination. Choisissez **GZIP** (qui est sélectionné par défaut) ou **Désactivé** pour le codage enable/disable du contenu de votre demande.   
 **Retry duration** (Durée de la nouvelle tentative)   
Spécifiez la durée pendant laquelle Amazon Data Firehose tente à nouveau d'envoyer des données à Elastic.   
Après avoir envoyé des données, Amazon Data Firehose attend d’abord un accusé de réception de la part du point de terminaison HTTP. Si une erreur se produit ou si l’accusé de réception n’arrive pas avant la fin du délai imparti pour les accusés de réception, Amazon Data Firehose démarre le compteur de durée des nouvelles tentatives. Il effectue de nouvelles tentatives jusqu’à ce que la durée des nouvelles tentatives arrive à expiration. Après cela, Amazon Data Firehose considère qu’il s’agit d’un échec de livraison des données et sauvegarde les données dans votre compartiment Amazon S3.   
Chaque fois qu'Amazon Data Firehose envoie des données au point de terminaison HTTP (tentative initiale ou nouvelle tentative), il redémarre le compteur de délais d'accusé de réception et attend un accusé de réception de la part du point de terminaison HTTP.   
Même si la durée de la nouvelle tentative expire, Amazon Data Firehose attend toujours l'accusé de réception jusqu'à ce qu'il le reçoive ou que le délai d'expiration de l'accusé de réception soit atteint. Si l'accusé de réception expire, Amazon Data Firehose détermine s'il reste du temps dans le compteur de nouvelles tentatives. Si c'est le cas, il réitère les tentatives et répète la logique jusqu'à ce qu'il reçoive un accusé de réception ou qu'il détermine que le délai imparti pour les nouvelles tentatives est arrivé à son terme.  
Si vous ne souhaitez pas qu'Amazon Data Firehose essaie à nouveau d'envoyer des données, définissez cette valeur sur 0.  
 **Paramètres – facultatif**   
Amazon Data Firehose inclut ces paires clé-valeur dans chaque appel HTTP. Ces paramètres peuvent vous aider à identifier et organiser vos destinations.   
 **Conseils de mise en mémoire tampon**   
Amazon Data Firehose met en mémoire tampon les données entrantes avant de les envoyer à la destination spécifiée. La taille recommandée de la mémoire tampon pour la destination Elastic est de 1 Mio.

# Configuration des paramètres de sauvegarde
<a name="create-configure-backup"></a>

Amazon Data Firehose utilise Amazon S3 pour sauvegarder toutes les données ou uniquement les données échouées qu'il tente de livrer à la destination que vous avez choisie. 

**Important**  
Les paramètres de sauvegarde ne sont pris en charge que si la source de votre flux Firehose est Direct PUT ou Kinesis Data Streams.
La fonctionnalité de mise en mémoire tampon zéro n'est disponible que pour les destinations de l'application et n'est pas disponible pour la destination de sauvegarde Amazon S3.

Vous pouvez spécifier les paramètres de sauvegarde S3 pour votre flux Firehose si vous avez fait l'un des choix suivants.
+ Si vous définissez Amazon S3 comme destination pour votre flux Firehose et que vous choisissez de spécifier une fonction AWS Lambda pour transformer les enregistrements de données ou si vous choisissez de convertir les formats d'enregistrement de données pour votre flux Firehose.
+ Si vous définissez Amazon Redshift comme destination pour votre flux Firehose et que vous choisissez de spécifier une fonction AWS Lambda pour transformer les enregistrements de données.
+ Si vous définissez l'un des services suivants comme destination pour votre flux Firehose : Amazon OpenSearch Service, Datadog, Dynatrace, HTTP Endpoint, LogicMonitor MongoDB Cloud, New Relic, Splunk ou Sumo Logic, Snowflake, Apache Iceberg Tables.

Voici les paramètres de sauvegarde de votre stream Firehose.
+ Sauvegarde des enregistrements source dans Amazon S3 : si S3 ou Amazon Redshift est la destination que vous avez sélectionnée, ce paramètre indique si vous souhaitez activer la sauvegarde des données source ou la désactiver. Si un autre service pris en charge (autre que S3 ou Amazon Redshift) est défini comme destination sélectionnée, ce paramètre indique si vous souhaitez sauvegarder toutes vos données sources ou uniquement les données ayant échoué.
+ Compartiment de sauvegarde S3 : il s'agit du compartiment S3 dans lequel Amazon Data Firehose sauvegarde vos données.
+ Préfixe du compartiment de sauvegarde S3 : il s'agit du préfixe dans lequel Amazon Data Firehose sauvegarde vos données.
+ Préfixe de sortie d'erreur du compartiment de sauvegarde S3 : toutes les données ayant échoué sont sauvegardées dans ce préfixe de sortie d'erreur de compartiment S3.
+ Conseils de mise en mémoire tampon, compression et chiffrement pour la sauvegarde : Amazon Data Firehose utilise Amazon S3 pour sauvegarder toutes les données ou uniquement les données qu'il tente de livrer à la destination de votre choix, ou uniquement celles qui ont échoué. Amazon Data Firehose met en mémoire tampon les données entrantes avant de les transmettre (en les sauvegardant) à Amazon S3. Vous pouvez choisir une taille de tampon de 1 à 128 MiBs et un intervalle de mémoire tampon de 60 à 900 secondes. La première condition qui est satisfaite déclenche la livraison des données à Amazon S3. Si vous activez la transformation des données, l'intervalle de mémoire tampon s'applique entre le moment où les données transformées sont reçues par Amazon Data Firehose et leur livraison à Amazon S3. Si la livraison des données vers la destination prend du retard par rapport à l'écriture des données dans le flux Firehose, Amazon Data Firehose augmente la taille de la mémoire tampon de manière dynamique pour rattraper le retard. Cette action permet de garantir que toutes les données sont livrées à destination. 
+ Compression S3 : choisissez la compression de données Snappy, Zip ou GZIP compatible avec Hadoop, ou aucune compression de données. Compatible avec Snappy, Zip et Hadoop La compression Snappy n'est pas disponible pour le flux Firehose avec Amazon Redshift comme destination. 
+ Format d'extension de fichier S3 (facultatif) : spécifiez un format d'extension de fichier pour les objets livrés au compartiment de destination Amazon S3. Si vous activez cette fonctionnalité, l'extension de fichier spécifiée remplacera les extensions de fichier par défaut ajoutées par les fonctionnalités de conversion de format de données ou de compression S3 telles que .parquet ou .gz. Assurez-vous d'avoir configuré la bonne extension de fichier lorsque vous utilisez cette fonctionnalité avec la conversion de format de données ou la compression S3. L'extension de fichier doit commencer par un point (.) et peut contenir les caractères autorisés : 0-9a-z \$1 -\$1.\$1' (). L'extension de fichier ne peut pas dépasser 128 caractères.
+ Firehose prend en charge le chiffrement côté serveur Amazon S3 avec AWS Key Management Service (SSE-KMS) pour chiffrer les données livrées dans Amazon S3. Vous pouvez choisir d'utiliser le type de chiffrement par défaut spécifié dans le compartiment S3 de destination ou de chiffrer avec une clé de la liste des AWS KMS clés que vous possédez. Si vous chiffrez les données à l'aide de AWS KMS clés, vous pouvez utiliser la clé AWS gérée par défaut (aws/s3) ou une clé gérée par le client. Pour plus d'informations, voir [Protection des données à l'aide du chiffrement côté serveur avec des clés AWS gérées par KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Configurer les conseils de mise en mémoire tampon
<a name="buffering-hints"></a>

Amazon Data Firehose met en mémoire tampon les données de streaming entrantes en mémoire jusqu'à une certaine taille (taille de mise en mémoire tampon) et pendant une certaine période (intervalle de mise en mémoire tampon) avant de les transmettre aux destinations spécifiées. Vous pouvez utiliser des conseils de mise en mémoire tampon lorsque vous souhaitez fournir des fichiers de taille optimale à Amazon S3 et améliorer les performances des applications de traitement des données ou pour ajuster le taux de livraison de Firehose en fonction de la vitesse de destination.

Vous pouvez configurer la taille de la mémoire tampon et l'intervalle de mise en mémoire tampon lors de la création de nouveaux flux Firehose ou mettre à jour la taille de la mémoire tampon et l'intervalle de mise en mémoire tampon sur vos flux Firehose existants. La taille de la mémoire tampon est mesurée en secondes MBs et l'intervalle de mise en mémoire tampon est mesuré en secondes. Toutefois, si vous spécifiez une valeur pour l'un d'eux, vous devez également fournir une valeur pour l'autre. La première condition de mémoire tampon satisfaite déclenche la livraison des données par Firehose. Si vous ne configurez pas les valeurs de mise en mémoire tampon, les valeurs par défaut sont utilisées.

Vous pouvez configurer les indices de mise en mémoire tampon de Firehose via le AWS Management Console, AWS Command Line Interface ou. AWS SDKs Pour les flux existants, vous pouvez reconfigurer les indications de mise en mémoire tampon avec une valeur adaptée à vos cas d'utilisation à l'aide de l'option **Modifier** de la console ou de l'API. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Pour les nouveaux flux, vous pouvez configurer des indices de mise en mémoire tampon dans le cadre de la création de nouveaux flux à l'aide de la console ou de l'[CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html)API. Pour ajuster la taille de la mémoire tampon, définissez `SizeInMBs` et `IntervalInSeconds` dans le `DestinationConfiguration` paramètre spécifique à la destination de l'[UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html)API [CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html)or. 

**Note**  
Les conseils de mémoire tampon sont appliqués au niveau d'une partition ou d'une partition, tandis que les conseils de partitionnement dynamique sont appliqués au niveau du flux ou du sujet.
Pour réduire les temps de latence des cas d'utilisation en temps réel, vous pouvez utiliser un indice d'intervalle de mise en mémoire tampon nul. Lorsque vous configurez l'intervalle de mise en mémoire tampon à zéro seconde, Firehose ne met pas les données en mémoire tampon et les fournit en quelques secondes. Avant de remplacer les indications de mise en mémoire tampon par une valeur inférieure, consultez le fournisseur pour connaître les indications de mise en mémoire tampon recommandées pour Firehose pour leurs destinations.
La fonctionnalité de mise en mémoire tampon zéro n'est disponible que pour les destinations de l'application et n'est pas disponible pour la destination de sauvegarde Amazon S3.
La fonction de mise en mémoire tampon zéro n'est pas disponible pour le partitionnement dynamique.
Firehose utilise le téléchargement en plusieurs parties pour la destination S3 lorsque vous configurez un intervalle de temps de mémoire tampon inférieur à 60 secondes afin de réduire les latences. En raison du chargement en plusieurs parties pour la destination S3, vous constaterez une certaine augmentation des coûts de `PUT` l'API S3 si vous choisissez un intervalle de temps de mémoire tampon inférieur à 60 secondes.

Pour les plages d'indices de mise en mémoire tampon et les valeurs par défaut spécifiques à la destination, consultez le tableau suivant :


| Destination | Taille de la mémoire tampon en Mo (valeur par défaut entre parenthèses) | Intervalle de mise en mémoire tampon en secondes (par défaut entre parenthèses) | 
| --- | --- | --- | 
| Amazon S3 | 1-128 (5) | 0-900 (300) | 
| Tables Apache Iceberg | 1-128 (5) | 0-900 (300) | 
| Amazon Redshift | 1-128 (5)  | 0-900 (300) | 
| OpenSearch Sans serveur | 1 à 100 (5)  | 0-900 (300) | 
| OpenSearch | 1 à 100 (5) | 0-900 (300) | 
| Splunk | 1-5 (5) | 0 à 60 ans (60) | 
| Datadog | 1-4 (4) | 0 à 900 (60) | 
| Coralogix | 1-64 (6) | 0 à 900 (60) | 
| Dynatrace | 1-64 (5) | 0 à 900 (60) | 
| Elasticité | 1 | 0 à 900 (60) | 
| Honeycomb | 1-64 (15) | 0 à 900 (60) | 
| Point de terminaison HTTP | 1-64 (5) | 0 à 900 (60) | 
| LogicMonitor | 1-64 (5) | 0 à 900 (60) | 
| Logzio | 1-64 (5) | 0 à 900 (60) | 
| MongoDB  | 1 à 16 ans (5) | 0 à 900 (60) | 
| Nouvelle relique | 1-64 (5) | 0 à 900 (60) | 
| SumoLogic | 1-64 (1) | 0 à 900 (60) | 
| Splunk Observability Cloud  | 1-64 (1) | 0 à 900 (60) | 
| Snowflake | 1 à 128 (1) | 0 - 900 (0) | 

# Configurer les paramètres avancés
<a name="create-configure-advanced"></a>

La section suivante contient des détails sur les paramètres avancés de votre stream Firehose.
+ Chiffrement côté serveur : Amazon Data Firehose prend en charge le chiffrement côté serveur Amazon S3 avec le service de gestion des AWS clés (AWS KMS) pour chiffrer les données livrées dans Amazon S3. Pour plus d'informations, voir [Protection des données à l'aide du chiffrement côté serveur avec des clés AWS gérées par KMS (SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html).
+ Journalisation des erreurs : Amazon Data Firehose enregistre les erreurs liées au traitement et à la livraison. En outre, lorsque la transformation des données est activée, elle peut enregistrer les appels Lambda et envoyer des erreurs de livraison de données à Logs. CloudWatch Pour de plus amples informations, veuillez consulter [Surveillez Amazon Data Firehose à l'aide des journaux CloudWatch](monitoring-with-cloudwatch-logs.md).
**Important**  
Bien que facultative, il est fortement recommandé d'activer la journalisation des erreurs d'Amazon Data Firehose lors de la création du stream Firehose. Cette pratique garantit que vous pouvez accéder aux détails de l'erreur en cas de traitement de l'enregistrement ou d'échec de la diffusion.
+ Autorisations : Amazon Data Firehose utilise des rôles IAM pour toutes les autorisations dont le stream Firehose a besoin. Vous pouvez choisir de créer un nouveau rôle dans lequel les autorisations requises sont attribuées automatiquement, ou de choisir un rôle existant créé pour Amazon Data Firehose. Le rôle est utilisé pour accorder à Firehose l'accès à divers services, notamment votre compartiment S3, votre clé AWS KMS (si le chiffrement des données est activé) et la fonction Lambda (si la transformation des données est activée). La console peut créer un rôle avec des espaces réservés. Pour plus d'informations, consultez la page [Qu'est-ce qu'IAM?](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html). 
**Note**  
Le rôle IAM (y compris les espaces réservés) est créé en fonction de la configuration que vous choisissez lors de la création d'un stream Firehose. Si vous apportez des modifications à la source ou à la destination du stream Firehose, vous devez mettre à jour manuellement le rôle IAM.
+ Balises - Vous pouvez ajouter des balises pour organiser vos AWS ressources, suivre les coûts et contrôler l'accès.

  Si vous spécifiez des balises dans l'`CreateDeliveryStream`action, Amazon Data Firehose octroie une autorisation supplémentaire à l'`firehose:TagDeliveryStream`action afin de vérifier si les utilisateurs sont autorisés à créer des balises. Si vous ne fournissez pas cette autorisation, les demandes de création de nouveaux flux Firehose avec des balises de ressources IAM échoueront avec l'erreur suivante`AccessDeniedException`.

  ```
  AccessDeniedException 
  User: arn:aws:sts::x:assumed-role/x/x is not authorized to perform: firehose:TagDeliveryStream on resource: arn:aws:firehose:us-east-1:x:deliverystream/x with an explicit deny in an identity-based policy.
  ```

  L'exemple suivant illustre une politique qui permet aux utilisateurs de créer un flux Firehose et d'appliquer des balises.

Une fois que vous avez choisi votre sauvegarde et vos paramètres avancés, passez en revue vos choix, puis choisissez **Create Firehose stream**.

Le nouveau stream Firehose passe quelques instants à l'état de **création** avant d'être disponible. Une fois que votre stream Firehose est en état **actif**, vous pouvez commencer à lui envoyer des données depuis votre producteur.