Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Ouvrez la console Firehose à l'adresse. https://console.aws.amazon.com/firehose/
-
Choisissez Créer un flux Firehose.
-
Sur la page Create Firehose stream, choisissez une source pour votre stream Firehose parmi les options suivantes.
-
Direct PUT — Choisissez cette option pour créer un flux Firehose dans lequel les applications du producteur écrivent directement. Voici une liste de AWS services, d'agents et de services open source qui s'intègrent à Direct PUT dans Amazon Data Firehose. Cette liste n'est pas exhaustive et certains services supplémentaires peuvent être utilisés pour envoyer des données directement à Firehose.
-
AWS SDK
-
AWS Lambda
-
AWS CloudWatch Journaux
-
AWS CloudWatch Événements
-
AWS Streams métriques dans le cloud
-
AWS IoT
-
AWS Eventbridge
-
Amazon Simple Email Service
-
Amazon SNS
-
AWS Journaux ACL Web WAF
-
Amazon API Gateway – Journaux d'accès
-
Amazon Pinpoint
-
Journaux du broker Amazon MSK
-
Journaux de requête Amazon Route 53 Resolver
-
AWS Journaux des alertes du Network Firewall
-
AWS Journaux de flux de Network Firewall
-
Amazon Elasticache Redis SLOWLOG
-
Kinesis Agent (Linux)
-
Kinesis Tap (Windows)
-
Fluentbit
-
Fluentd
-
Apache Nifi
-
Snowflake
-
-
Amazon Kinesis Data Streams : choisissez cette option pour configurer un flux Firehose qui utilise un flux de données Kinesis comme source de données. Vous pouvez ensuite utiliser Firehose pour lire facilement les données d'un flux de données Kinesis existant et les charger dans des destinations. Pour plus d'informations sur l'utilisation de Kinesis Data Streams comme source de données, consultez la section Envoi de données vers un flux Firehose avec Kinesis Data Streams.
-
Amazon MSK — Choisissez cette option pour configurer un flux Firehose qui utilise Amazon MSK comme source de données. Vous pouvez ensuite utiliser Firehose pour lire facilement les données d'un cluster Amazon MSK existant et les charger dans des compartiments S3 spécifiés. Pour plus d'informations, consultez Envoyer des données vers un flux Firehose avec Amazon MSK.
-
Choisissez une destination pour votre stream Firehose parmi l'une des destinations suivantes prises en charge par Firehose.
-
Amazon OpenSearch Service
-
Amazon OpenSearch sans serveur
-
Amazon Redshift
-
Amazon S3
-
Tables Apache Iceberg
-
Coralogix
-
Datadog
-
Dynatrace
-
Elasticité
-
Point de terminaison HTTP
-
Honeycomb
-
Logic Monitor
-
Logz.io
-
MongoDB Cloud
-
New Relic
-
Splunk
-
Splunk Observability Cloud
-
Sumo Logic
-
Snowflake
-
-
Pour le nom du flux Firehose, vous pouvez soit utiliser le nom que la console génère pour vous, soit ajouter le flux Firehose de votre choix.