Configura origine e destinazione - Amazon Data Firehose

Amazon Data Firehose era precedentemente noto come Amazon Kinesis Data Firehose

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Configura origine e destinazione

  1. Accedi AWS Management Console e apri la console Amazon Data Firehose all'indirizzo https://console.aws.amazon.com/firehose

  2. Scegliete Create Firehose stream.

  3. Immetti i valori per i seguenti campi:

    Origine
    • Direct PUT: scegliete questa opzione per creare uno stream Firehose su cui le applicazioni di produzione scrivono direttamente. Attualmente, i seguenti sono AWS servizi e agenti e servizi open source integrati con Direct PUT in Amazon Data Firehose:

      • AWS SDK

      • AWS Lambda

      • AWS CloudWatch Tronchi

      • AWS CloudWatch Eventi

      • AWS Cloud Metric Stream

      • AWS IOT

      • AWS Eventbridge

      • Amazon Simple Email Service

      • Amazon SNS

      • AWS Registri ACL Web WAF

      • Gateway Amazon API: log di accesso

      • Amazon Pinpoint

      • Log di broker Amazon MSK

      • Log di query di risolutore Amazon Route 53

      • AWS Registri degli avvisi del Network Firewall

      • AWS Registri di flusso del Network Firewall

      • Amazon Elasticache Redis SLOWLOG

      • Kinesis Agent (Linux)

      • Kinesis Tap (Windows)

      • Fluentbit

      • Fluentd

      • Apache Nifi

      • Snowflake

    • Stream Kinesis: scegliete questa opzione per configurare un flusso Firehose che utilizza un flusso di dati Kinesis come origine dati. Puoi quindi utilizzare Amazon Data Firehose per leggere facilmente i dati da un flusso di dati Kinesis esistente e caricarli nelle destinazioni. Per ulteriori informazioni sull'utilizzo di Kinesis Data Streams come origine dati, consulta Writing to Amazon Data Firehose Using Kinesis Data Streams.

    • Amazon MSK: scegli questa opzione per configurare uno stream Firehose che utilizza Amazon MSK come origine dati. È quindi possibile utilizzare Firehose per leggere facilmente i dati da un cluster Amazon MSK esistente e caricarli in bucket S3 specifici. Per ulteriori informazioni sull'utilizzo di Amazon MSK come origine dati, consulta Writing to Amazon Data Firehose Using Amazon MSK.

    Destinazione dello stream Firehose

    La destinazione del tuo stream Firehose. Amazon Data Firehose può inviare record di dati a varie destinazioni, tra cui Amazon Simple Storage Service (Amazon S3), Amazon Redshift OpenSearch , Amazon Service e qualsiasi endpoint HTTP di tua proprietà o di uno dei tuoi fornitori di servizi di terze parti. Di seguito sono riportate le destinazioni supportate:

    • OpenSearch Servizio Amazon

    • Amazon OpenSearch Serverless

    • Amazon Redshift

    • Amazon S3

    • Coralogix

    • Datadog

    • Dynatrace

    • Elastic

    • Endpoint HTTP

    • Honeycomb

    • Logic Monitor

    • Logz.io

    • MongoDB Cloud

    • New Relic

    • Splunk

    • Splunk Observability Cloud

    • Sumo Logic

    • Snowflake

    Nome dello stream Firehose

    Il nome del tuo stream Firehose.