Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Abre la consola Firehose en. https://console.aws.amazon.com/firehose/
-
Seleccione Crear flujo de Firehose.
-
En la página Crear flujo de Firehose, elija una fuente para su flujo de Firehose de una de las siguientes opciones.
-
Direct PUT: elija esta opción para crear un flujo de Firehose en el que las aplicaciones de los productores escriban directamente. Esta es una lista de servicios y agentes de AWS y servicios de código abierto que se integran con Direct PUT en Amazon Data Firehose. Esta lista no es exhaustiva y es posible que haya servicios adicionales que se puedan utilizar para enviar datos directamente a Firehose.
-
AWS SDK
-
AWS Lambda
-
AWS CloudWatch Registros
-
AWS CloudWatch Eventos
-
AWS Flujos de métricas en la nube
-
AWS IoT
-
AWS Eventbridge
-
Amazon Simple Email Service
-
Amazon SNS
-
AWS Registros de ACL web de WAF
-
Amazon API Gateway: registros de acceso
-
Amazon Pinpoint
-
Registro de agente de Amazon MSK
-
Registros de consultas de Amazon Route 53 Resolver
-
AWS Registros de alertas de Network Firewall
-
AWS Registros de flujo de Network Firewall
-
Amazon ElastiCache Redis SLOWLOG
-
Agente de Kinesis (Linux)
-
Kinesis Tap (Windows)
-
Fluentbit
-
Fluentd
-
Apache Nifi
-
Snowflake
-
-
Amazon Kinesis Data Streams seleccione esta opción para configurar un flujo de Firehose que utilice un flujo de datos de Kinesis como origen de datos. A continuación, puede usar Firehose para leer fácilmente los datos de un flujo de datos de Kinesis existente y cargarlos en los destinos. Para obtener más información sobre el uso de Kinesis Data Streams como origen de datos, consulte Enviar datos a un flujo de Firehose con Kinesis Data Streams.
-
Amazon MSK: seleccione esta opción para configurar un flujo de Firehose que utilice Amazon MSK como origen de datos. A continuación, puede utilizar Firehose para leer fácilmente los datos de un clúster existente de Amazon MSK y cargarlos en los buckets de S3 especificados. Para obtener más información, consulte Envío de datos a un flujo de Firehose con Amazon MSK.
-
Elija un destino para su flujo de Firehose de uno de los siguientes destinos compatibles con Firehose.
-
OpenSearch Servicio Amazon
-
Amazon OpenSearch Serverless
-
Amazon Redshift
-
Amazon S3
-
Tablas de Apache Iceberg
-
Coralogix
-
Datadog
-
Dynatrace
-
Elastic
-
Punto de conexión HTTP
-
Honeycomb
-
Logic Monitor
-
Logz.io
-
MongoDB Cloud
-
New Relic
-
Splunk
-
Splunk Observability Cloud
-
Sumo Logic
-
Snowflake
-
-
Para el nombre del flujo de Firehose, puede usar el nombre que la consola genere para usted o añadir el flujo de Firehose que elija.