

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Tutorial: Membuat aliran Firehose dari konsol
<a name="basic-create"></a>

Anda dapat menggunakan Konsol Manajemen AWS atau AWS SDK untuk membuat aliran Firehose ke tujuan yang Anda pilih. 

Anda dapat memperbarui konfigurasi aliran Firehose kapan saja setelah dibuat, menggunakan konsol Amazon Data Firehose atau. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Aliran Firehose Anda tetap dalam `Active` status saat konfigurasi diperbarui, dan Anda dapat terus mengirim data. Konfigurasi yang diperbarui biasanya akan mulai berlaku dalam beberapa menit. Nomor versi aliran Firehose ditingkatkan dengan nilai `1` setelah Anda memperbarui konfigurasi. Hal ini tercermin dalam nama objek Amazon S3 yang dikirimkan. Untuk informasi selengkapnya, lihat [Konfigurasikan format nama objek Amazon S3](s3-object-name.md).

Lakukan langkah-langkah dalam topik berikut untuk membuat aliran Firehose.

**Topics**
+ [

# Pilih sumber dan tujuan untuk aliran Firehose Anda
](create-name.md)
+ [

# Konfigurasikan pengaturan sumber
](configure-source.md)
+ [

# (Opsional) Konfigurasikan transformasi rekaman dan konversi format
](create-transform.md)
+ [

# Konfigurasikan pengaturan tujuan
](create-destination.md)
+ [

# Konfigurasikan pengaturan cadangan
](create-configure-backup.md)
+ [

# Mengonfigurasi pengaturan lanjutan
](create-configure-advanced.md)

# Pilih sumber dan tujuan untuk aliran Firehose Anda
<a name="create-name"></a>

****

1. Buka konsol Firehose di. [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/)

1. Pilih **Buat aliran Firehose**. 

1. Pada halaman **aliran Create Firehose**, pilih sumber untuk aliran Firehose Anda dari salah satu opsi berikut.
   + **Direct PUT** - Pilih opsi ini untuk membuat aliran Firehose yang ditulis langsung oleh aplikasi produser. Berikut adalah daftar AWS layanan dan agen dan layanan open source yang terintegrasi dengan Direct PUT di Amazon Data Firehose. Daftar ini tidak lengkap, dan mungkin ada layanan tambahan yang dapat digunakan untuk mengirim data langsung ke Firehose.
     + AWS SDK
     + AWS Lambda
     + AWS CloudWatch Log
     + AWS CloudWatch Acara
     + AWS Aliran Metrik Awan
     + AWS IoT
     + AWS Eventbridge
     + Layanan Email Sederhana Amazon
     + Amazon SNS
     + AWS Log ACL web WAF
     + Amazon API Gateway - Akses log
     + Amazon Pinpoint
     + Log Broker MSK Amazon
     + Log kueri Amazon Route 53 Resolver
     + AWS Log Peringatan Firewall Jaringan
     + AWS Log Aliran Firewall Jaringan
     + Amazon Elasticache Redis SLOWLOG
     + Agen Kinesis (linux)
     + Keran Kinesis (jendela)
     + Fluentbit
     + Lancar
     + Apache Nifi
     + Kepingan salju
   + **Amazon Kinesis Data** Streams — Pilih opsi ini untuk mengonfigurasi aliran Firehose yang menggunakan aliran data Kinesis sebagai sumber data. Anda kemudian dapat menggunakan Firehose untuk membaca data dengan mudah dari aliran data Kinesis yang ada dan memuatnya ke tujuan. Untuk informasi selengkapnya tentang penggunaan Kinesis Data Streams sebagai sumber data[, lihat Mengirim data ke aliran Firehose dengan Kinesis](writing-with-kinesis-streams.md) Data Streams.
   + **Amazon MSK** — Pilih opsi ini untuk mengonfigurasi aliran Firehose yang menggunakan Amazon MSK sebagai sumber data. Anda kemudian dapat menggunakan Firehose untuk membaca data dengan mudah dari kluster MSK Amazon yang ada dan memuatnya ke dalam bucket S3 tertentu. Untuk informasi selengkapnya, lihat [Mengirim data ke aliran Firehose dengan Amazon MSK](writing-with-msk.md).

1. Pilih tujuan aliran Firehose Anda dari salah satu tujuan berikut yang didukung Firehose.
   +  OpenSearch Layanan Amazon
   + Amazon Tanpa OpenSearch Server
   + Amazon Redshift
   + Amazon S3
   + Tabel Gunung Es Apache
   + Coralogix
   + Datadog
   + Dynatrace
   + Elastis
   + Titik Akhir HTTP
   + Honeycomb
   + Monitor Logika
   + Logz.io
   + Awan MongoDB
   + Relik Baru
   + Splunk
   + Cloud Observabilitas Splunk
   + Logika Sumo
   + Kepingan salju

1. Untuk **nama aliran Firehose**, Anda dapat menggunakan nama yang dihasilkan konsol untuk Anda atau menambahkan aliran Firehose pilihan Anda.

# Konfigurasikan pengaturan sumber
<a name="configure-source"></a>

Anda dapat mengonfigurasi pengaturan sumber berdasarkan sumber yang Anda pilih untuk mengirim informasi ke aliran Firehose dari konsol. Anda dapat mengonfigurasi pengaturan sumber untuk Amazon MSK dan Amazon Kinesis Data Streams sebagai sumbernya. Tidak ada pengaturan sumber yang tersedia untuk Direct PUT sebagai sumbernya.

# Konfigurasikan pengaturan sumber untuk Amazon MSK
<a name="writing-with-msk"></a>

Ketika Anda memilih Amazon MSK untuk mengirim informasi ke aliran Firehose, Anda dapat memilih antara kluster MSK yang disediakan dan MSK-Serverless. Anda kemudian dapat menggunakan Firehose untuk membaca data dengan mudah dari kluster dan topik MSK Amazon tertentu dan memuatnya ke tujuan S3 yang ditentukan.

Di bagian **Pengaturan sumber** halaman, berikan nilai untuk bidang berikut.

****Konektivitas kluster MSK Amazon****  
Pilih salah satu **broker bootstrap pribadi** (disarankan) atau opsi **pialang bootstrap publik** berdasarkan konfigurasi cluster Anda. Broker Bootstrap adalah apa yang digunakan klien Apache Kafka sebagai titik awal untuk terhubung ke cluster. Broker bootstrap publik ditujukan untuk akses publik dari luar AWS, sedangkan broker bootstrap swasta dimaksudkan untuk akses dari dalam AWS. Untuk informasi selengkapnya tentang Amazon MSK, lihat [Amazon Managed Streaming for Apache](https://docs.aws.amazon.com/msk/latest/developerguide/what-is-msk.html) Kafka.   
Untuk terhubung ke cluster MSK Amazon yang disediakan atau tanpa server melalui broker bootstrap pribadi, cluster harus memenuhi semua persyaratan berikut.  
+ Klaster harus aktif.
+ Cluster harus memiliki IAM sebagai salah satu metode kontrol aksesnya.
+ Konektivitas pribadi multi-VPC harus diaktifkan untuk metode kontrol akses IAM.
+ Anda harus menambahkan ke klaster ini kebijakan berbasis sumber daya yang memberikan izin kepada kepala layanan Firehose untuk menjalankan operasi Amazon MSK API. `CreateVpcConnection`
Untuk terhubung ke cluster MSK Amazon yang disediakan melalui broker bootstrap publik, cluster harus memenuhi semua persyaratan berikut.  
+ Klaster harus aktif.
+ Cluster harus memiliki IAM sebagai salah satu metode kontrol aksesnya.
+ Cluster harus dapat diakses publik.

****Akun klaster MSK****  
Anda dapat memilih akun tempat klaster MSK Amazon berada. Ini bisa menjadi salah satu dari berikut ini.  
+ **Akun saat ini** — Memungkinkan Anda untuk menelan data dari kluster MSK di akun saat ini AWS . Untuk ini, Anda harus menentukan ARN cluster MSK Amazon dari mana aliran Firehose Anda akan membaca data.
+ **Cross-account** — Memungkinkan Anda untuk menelan data dari klaster MSK di akun lain. AWS Untuk informasi selengkapnya, lihat [Pengiriman lintas akun dari Amazon MSK](controlling-access.md#cross-account-delivery-msk).

****Topik****  
Tentukan topik Apache Kafka dari mana Anda ingin aliran Firehose Anda untuk menelan data. Anda tidak dapat memperbarui topik ini setelah pembuatan aliran Firehose selesai.  
Firehose secara otomatis mendekompresi pesan Apache Kafka.

# Konfigurasikan setelan sumber untuk Amazon Kinesis Data Streams
<a name="writing-with-kinesis-streams"></a>

Konfigurasikan setelan sumber untuk Amazon Kinesis Data Streams untuk mengirim informasi ke aliran Firehose sebagai berikut.

**penting**  
Jika Anda menggunakan Kinesis Producer Library (KPL) untuk menulis data ke aliran data Kinesis, Anda dapat menggunakan agregasi untuk menggabungkan catatan yang Anda tulis ke aliran data Kinesis tersebut. Jika Anda kemudian menggunakan aliran data tersebut sebagai sumber untuk aliran Firehose Anda, Amazon Data Firehose menghapus agregasi catatan sebelum mengirimkannya ke tujuan. Jika Anda mengonfigurasi aliran Firehose untuk mengubah data, Amazon Data Firehose melakukan de-agregasi catatan sebelum mengirimkannya. AWS Lambda Untuk informasi selengkapnya, lihat [Mengembangkan Produsen Amazon Kinesis Data Streams Menggunakan Kinesis Producer Library](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html) dan [Agregasi](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation).

Di bawah **pengaturan Sumber**, pilih aliran yang ada di daftar **aliran data Kinesis**, atau masukkan ARN aliran data dalam format. `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]`

Jika Anda tidak memiliki aliran data yang ada, pilih **Buat** untuk membuat yang baru dari konsol Amazon Kinesis. Anda mungkin memerlukan peran IAM yang memiliki izin yang diperlukan pada aliran Kinesis. Untuk informasi selengkapnya, lihat [Berikan akses Firehose ke tujuan Amazon S3](controlling-access.md#using-iam-s3). Setelah Anda membuat aliran baru, pilih ikon penyegaran untuk memperbarui daftar **aliran Kinesis**. Jika Anda memiliki sejumlah besar aliran, filter daftar menggunakan **Filter berdasarkan nama**. 

**catatan**  
Saat Anda mengonfigurasi aliran data Kinesis sebagai sumber aliran Firehose, Firehose dan operasi Amazon Data akan dinonaktifkan. `PutRecord` `PutRecordBatch` Untuk menambahkan data ke aliran Firehose Anda dalam kasus ini, gunakan Kinesis Data Streams dan operasi. `PutRecord` `PutRecords`

Amazon Data Firehose mulai membaca data dari `LATEST` posisi aliran Kinesis Anda. Untuk informasi selengkapnya tentang posisi Kinesis Data Streams, lihat. [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html)

 Amazon Data Firehose memanggil operasi Kinesis Data [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html)Streams sekali per detik untuk setiap pecahan. Namun, ketika pencadangan penuh diaktifkan, Firehose memanggil operasi Kinesis Data `GetRecords` Streams dua kali per detik untuk setiap pecahan, satu untuk tujuan pengiriman utama dan satu lagi untuk pencadangan penuh.

Lebih dari satu aliran Firehose dapat membaca dari aliran Kinesis yang sama. Aplikasi Kinesis lainnya (konsumen) juga dapat membaca dari aliran yang sama. Setiap panggilan dari aliran Firehose atau aplikasi konsumen lainnya dihitung terhadap batas pelambatan keseluruhan untuk pecahan. Untuk menghindari throttling, rencanakan aplikasi Anda dengan hati-hati. Untuk informasi selengkapnya tentang batas Kinesis Data Streams, lihat [Batas Amazon Kinesis Streams](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html). 

Lanjutkan ke langkah berikutnya untuk mengonfigurasi transformasi rekaman dan konversi format.

# (Opsional) Konfigurasikan transformasi rekaman dan konversi format
<a name="create-transform"></a>

Konfigurasikan Amazon Data Firehose untuk mengubah dan mengonversi data rekaman Anda.

## Jika Anda memilih Amazon MSK sebagai sumber aliran Firehose Anda.
<a name="create-transform-msk"></a>

**Di bagian **Transform source records with AWS Lambda**, berikan nilai untuk bidang berikut.**

1.   
**Transformasi data**  
Untuk membuat aliran Firehose yang tidak mengubah data yang masuk, jangan centang kotak centang **Aktifkan transformasi data**.   
**Untuk menentukan fungsi Lambda agar Firehose dipanggil dan digunakan untuk mengubah data yang masuk sebelum mengirimkannya, centang kotak centang Aktifkan transformasi data.** Anda dapat mengonfigurasi fungsi Lambda baru menggunakan salah satu cetak biru Lambda atau memilih fungsi Lambda yang ada. Fungsi Lambda Anda harus berisi model status yang diperlukan oleh Firehose. Untuk informasi selengkapnya, lihat [Mengubah data sumber di Amazon Data Firehose](data-transformation.md).

1. Di bagian **Konversi format catatan**, berikan nilai untuk bidang berikut:  
**Rekam konversi format**  
**Untuk membuat aliran Firehose yang tidak mengonversi format rekaman data yang masuk, pilih Dinonaktifkan.**   
Untuk mengonversi format catatan masuk, pilih **Diaktifkan**, lalu tentukan format output yang Anda inginkan. Anda perlu menentukan AWS Glue tabel yang menyimpan skema yang ingin Firehose gunakan untuk mengonversi format rekaman Anda. Untuk informasi selengkapnya, lihat [Mengkonversi format data masukan di Amazon Data Firehose](record-format-conversion.md).  
Untuk contoh cara mengatur konversi format rekaman dengan CloudFormation, lihat [AWS::KinesisFirehose: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

## Jika Anda memilih Amazon Kinesis Data Streams atau Direct PUT sebagai sumber aliran Firehose Anda
<a name="create-transform-directput"></a>

 

**Di bagian **Pengaturan sumber**, berikan bidang berikut.**

1. Di bawah **Transform records**, pilih salah satu dari berikut ini:

   1. **Jika tujuan Anda adalah Amazon S3 atau Splunk, di bagian **Decompress source record Amazon CloudWatch Logs**, pilih Aktifkan dekompresi.**

   1. Di bagian **Transform source records with AWS Lambda**, berikan nilai untuk bidang berikut:  
**Transformasi data**  
Untuk membuat aliran Firehose yang tidak mengubah data yang masuk, jangan centang kotak centang **Aktifkan transformasi data**.   
**Untuk menentukan fungsi Lambda agar Amazon Data Firehose dapat dipanggil dan digunakan untuk mengubah data yang masuk sebelum mengirimkannya, centang kotak centang Aktifkan transformasi data.** Anda dapat mengonfigurasi fungsi Lambda baru menggunakan salah satu cetak biru Lambda atau memilih fungsi Lambda yang ada. Fungsi Lambda Anda harus berisi model status yang diperlukan oleh Amazon Data Firehose. Untuk informasi selengkapnya, lihat [Mengubah data sumber di Amazon Data Firehose](data-transformation.md).

1. Di bagian **Konversi format catatan**, berikan nilai untuk bidang berikut:  
**Rekam konversi format**  
**Untuk membuat aliran Firehose yang tidak mengonversi format rekaman data yang masuk, pilih Dinonaktifkan.**   
Untuk mengonversi format catatan masuk, pilih **Diaktifkan**, lalu tentukan format output yang Anda inginkan. Anda perlu menentukan AWS Glue tabel yang menyimpan skema yang ingin digunakan Amazon Data Firehose untuk mengonversi format rekaman Anda. Untuk informasi selengkapnya, lihat [Mengkonversi format data masukan di Amazon Data Firehose](record-format-conversion.md).  
Untuk contoh cara mengatur konversi format rekaman dengan CloudFormation, lihat [AWS::KinesisFirehose: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

# Konfigurasikan pengaturan tujuan
<a name="create-destination"></a>

Bagian ini menjelaskan pengaturan yang harus Anda konfigurasikan untuk aliran Firehose Anda berdasarkan tujuan yang Anda pilih. 

**Topics**
+ [

## Konfigurasikan setelan tujuan untuk Amazon S3
](#create-destination-s3)
+ [

## Konfigurasikan pengaturan tujuan untuk Apache Iceberg Tables
](#create-destination-iceberg)
+ [

## Konfigurasikan setelan tujuan untuk Amazon Redshift
](#create-destination-redshift)
+ [

## Konfigurasikan setelan tujuan untuk OpenSearch Layanan
](#create-destination-elasticsearch)
+ [

## Konfigurasikan pengaturan tujuan untuk Tanpa OpenSearch Server
](#create-destination-opensearch-serverless)
+ [

## Konfigurasikan pengaturan tujuan untuk HTTP Endpoint
](#create-destination-http)
+ [

## Konfigurasikan pengaturan tujuan untuk Datadog
](#create-destination-datadog)
+ [

## Konfigurasikan pengaturan tujuan untuk Honeycomb
](#create-destination-honeycomb)
+ [

## Konfigurasikan pengaturan tujuan untuk Coralogix
](#create-destination-coralogix)
+ [

## Konfigurasikan setelan tujuan untuk Dynatrace
](#create-destination-dynatrace)
+ [

## Konfigurasikan setelan tujuan untuk LogicMonitor
](#create-destination-logicmonitor)
+ [

## Konfigurasikan pengaturan tujuan untuk Logz.io
](#create-destination-logz)
+ [

## Konfigurasikan pengaturan tujuan untuk MongoDB Atlas
](#create-destination-mongodb)
+ [

## Konfigurasikan pengaturan tujuan untuk New Relic
](#create-destination-new-relic)
+ [

## Konfigurasikan pengaturan tujuan untuk Snowflake
](#create-destination-snowflake)
+ [

## Konfigurasikan pengaturan tujuan untuk Splunk
](#create-destination-splunk)
+ [

## Konfigurasikan pengaturan tujuan untuk Splunk Observability Cloud
](#create-destination-splunk-cloud)
+ [

## Konfigurasikan pengaturan tujuan untuk Sumo Logic
](#create-destination-sumo-logic)
+ [

## Konfigurasikan pengaturan tujuan untuk Elastic
](#create-destination-elastic)

## Konfigurasikan setelan tujuan untuk Amazon S3
<a name="create-destination-s3"></a>

Anda harus menentukan pengaturan berikut agar dapat menggunakan Amazon S3 sebagai tujuan untuk aliran Firehose Anda.

****
+ Masukkan nilai untuk bidang berikut.  
 **Ember S3**   
Pilih bucket S3 yang Anda miliki tempat data streaming harus dikirim. Anda dapat membuat bucket S3 atau memilih yang sudah ada.  
 **Pembatas baris baru**   
Anda dapat mengonfigurasi aliran Firehose untuk menambahkan pembatas baris baru di antara catatan dalam objek yang dikirimkan ke Amazon S3. Untuk melakukannya, pilih **Diaktifkan**. **Untuk tidak menambahkan pembatas baris baru di antara catatan dalam objek yang dikirim ke Amazon S3, pilih Dinonaktifkan.** Jika Anda berencana menggunakan Athena untuk menanyakan objek S3 dengan catatan agregat, aktifkan opsi ini.  
 **Partisi dinamis**   
Pilih **Diaktifkan** untuk mengaktifkan dan mengonfigurasi partisi dinamis.   
 **Deagregasi multi rekor**   
Ini adalah proses penguraian melalui catatan di aliran Firehose dan memisahkannya berdasarkan JSON yang valid atau pada pembatas baris baru yang ditentukan.  
Jika Anda menggabungkan beberapa peristiwa, log, atau catatan ke dalam panggilan tunggal PutRecord dan PutRecordBatch API, Anda masih dapat mengaktifkan dan mengonfigurasi partisi dinamis. Dengan data agregat, saat Anda mengaktifkan partisi dinamis, Amazon Data Firehose mem-parsing catatan dan mencari beberapa objek JSON yang valid dalam setiap panggilan API. Ketika aliran Firehose dikonfigurasi dengan Kinesis Data Stream sebagai sumber, Anda juga dapat menggunakan agregasi bawaan di Kinesis Producer Library (KPL). Fungsionalitas partisi data dijalankan setelah data dideagregasi. Oleh karena itu, setiap rekaman di setiap panggilan API dapat dikirimkan ke awalan Amazon S3 yang berbeda. Anda juga dapat memanfaatkan integrasi fungsi Lambda untuk melakukan deagregasi lain atau transformasi lainnya sebelum fungsionalitas partisi data.  
Jika data Anda digabungkan, partisi dinamis hanya dapat diterapkan setelah deagregasi data dilakukan. Jadi, jika Anda mengaktifkan partisi dinamis ke data agregat Anda, Anda harus memilih **Diaktifkan** untuk mengaktifkan deagregasi multi rekaman. 
Firehose stream melakukan langkah-langkah pemrosesan berikut dengan urutan sebagai berikut: deagregasi KPL (protobuf), deagregasi JSON atau pembatas, pemrosesan Lambda, partisi data, konversi format data, dan pengiriman Amazon S3.  
 **Jenis deagregasi multi record**   
Jika Anda mengaktifkan deagregasi multi rekaman, Anda harus menentukan metode Firehose untuk mendeagregasi data Anda. **Gunakan menu drop-down untuk memilih **JSON** atau Delimited.**   
 **Penguraian sebaris**   
Ini adalah salah satu mekanisme yang didukung untuk secara dinamis mempartisi data Anda yang terikat untuk Amazon S3. Untuk menggunakan penguraian inline untuk partisi dinamis data Anda, Anda harus menentukan parameter catatan data yang akan digunakan sebagai kunci partisi dan memberikan nilai untuk setiap kunci partisi yang ditentukan. Pilih **Diaktifkan** untuk mengaktifkan dan mengonfigurasi penguraian sebaris.  
Jika Anda menentukan fungsi AWS Lambda dalam langkah-langkah di atas untuk mengubah catatan sumber Anda, Anda dapat menggunakan fungsi ini untuk secara dinamis mempartisi data Anda yang terikat ke S3 dan Anda masih dapat membuat kunci partisi Anda dengan parsing inline. Dengan partisi dinamis, Anda dapat menggunakan penguraian sebaris atau fungsi AWS Lambda Anda untuk membuat kunci partisi Anda. Atau Anda dapat menggunakan penguraian inline dan fungsi AWS Lambda Anda secara bersamaan untuk membuat kunci partisi Anda.   
 **Tombol partisi dinamis**   
Anda dapat menggunakan bidang **Kunci** dan **Nilai** untuk menentukan parameter catatan data yang akan digunakan sebagai kunci partisi dinamis dan kueri jq untuk menghasilkan nilai kunci partisi dinamis. Firehose hanya mendukung jq 1.6. Anda dapat menentukan hingga 50 tombol partisi dinamis. Anda harus memasukkan ekspresi jq yang valid untuk nilai kunci partisi dinamis agar berhasil mengonfigurasi partisi dinamis untuk aliran Firehose Anda.  
 **Awalan ember S3**   
Saat mengaktifkan dan mengonfigurasi partisi dinamis, Anda harus menentukan awalan bucket S3 tempat Amazon Data Firehose akan mengirimkan data yang dipartisi.  
Agar partisi dinamis dapat dikonfigurasi dengan benar, jumlah awalan bucket S3 harus identik dengan jumlah kunci partisi yang ditentukan.  
 Anda dapat mempartisi data sumber Anda dengan penguraian sebaris atau dengan fungsi Lambda yang Anda tentukan AWS . Jika Anda menetapkan fungsi AWS Lambda untuk membuat kunci partisi untuk data sumber Anda, Anda harus mengetikkan nilai awalan bucket S3 secara manual menggunakan format berikut: "Lambda:KeyID”. partitionKeyFrom Jika Anda menggunakan penguraian inline untuk menentukan kunci partisi untuk data sumber Anda, Anda dapat mengetikkan nilai pratinjau bucket S3 secara manual menggunakan format berikut: "partitionKeyFromquery:keyID” atau Anda dapat memilih tombol **Terapkan tombol partisi dinamis untuk menggunakan pasangan partisi dinamis** Anda untuk menghasilkan awalan bucket S3 secara otomatis. key/value Saat mempartisi data dengan penguraian sebaris atau AWS Lambda, Anda juga dapat menggunakan formulir ekspresi berikut di awalan bucket S3:\$1 \$1namespace:value\$1, di mana namespace dapat berupa Query atau Lambda. partitionKeyFrom partitionKeyFrom   
 **Bucket S3 dan zona waktu awalan keluaran kesalahan S3**   
Pilih zona waktu yang ingin Anda gunakan untuk tanggal dan waktu di [awalan khusus untuk objek Amazon S3](s3-prefixes.md). Secara default, Firehose menambahkan awalan waktu di UTC. Anda dapat mengubah zona waktu yang digunakan dalam awalan S3 jika Anda ingin menggunakan zona waktu yang berbeda.   
 **Petunjuk penyangga**   
Firehose menyangga data yang masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.   
 **Kompresi S3**   
Pilih kompresi data GZIP, Snappy, Zip, atau Hadoop-Compatible Snappy, atau tanpa kompresi data. Kompresi Snappy, Zip, dan Snappy yang kompatibel dengan Hadoop tidak tersedia untuk aliran Firehose dengan tujuan Amazon Redshift.   
**Format ekstensi file S3 (opsional)**  
Tentukan format ekstensi file untuk objek yang dikirim ke bucket tujuan Amazon S3. Jika Anda mengaktifkan fitur ini, ekstensi file yang ditentukan akan mengganti ekstensi file default yang ditambahkan oleh Konversi Format Data atau fitur kompresi S3 seperti.parquet atau.gz. Pastikan jika Anda mengonfigurasi ekstensi file yang benar saat Anda menggunakan fitur ini dengan Konversi Format Data atau kompresi S3. Ekstensi file harus dimulai dengan titik (.) dan dapat berisi karakter yang diizinkan: 0-9a-z\$1 -\$1.\$1' (). Ekstensi file tidak boleh melebihi 128 karakter.  
**Enkripsi S3**  
Firehose mendukung enkripsi sisi server Amazon S3 AWS Key Management Service dengan (SSE-KMS) untuk mengenkripsi data yang dikirimkan di Amazon S3. Anda dapat memilih untuk menggunakan jenis enkripsi default yang ditentukan dalam bucket S3 tujuan atau untuk mengenkripsi dengan kunci dari daftar AWS KMS kunci yang Anda miliki. Jika Anda mengenkripsi data dengan AWS KMS kunci, Anda dapat menggunakan kunci AWS terkelola default (aws/s3) atau kunci yang dikelola pelanggan. Untuk informasi selengkapnya, lihat [Melindungi Data Menggunakan Enkripsi Sisi Server dengan Kunci yang Dikelola KMS ( AWS SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Konfigurasikan pengaturan tujuan untuk Apache Iceberg Tables
<a name="create-destination-iceberg"></a>

Firehose mendukung Apache Iceberg Tables sebagai tujuan di semua kecuali [Wilayah AWS](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html?icmpid=docs_homepage_addtlrcs#region)Wilayah Tiongkok, Asia Pasifik (Taipei) AWS GovCloud (US) Regions, Asia Pasifik (Malaysia), Asia Pasifik (Selandia Baru), dan Meksiko (Tengah).

Untuk informasi selengkapnya tentang Apache Iceberg Tables sebagai tujuan Anda, lihat. [Mengirimkan data ke Apache Iceberg Tables dengan Amazon Data Firehose](apache-iceberg-destination.md)

## Konfigurasikan setelan tujuan untuk Amazon Redshift
<a name="create-destination-redshift"></a>

Bagian ini menjelaskan setelan untuk menggunakan Amazon Redshift sebagai tujuan streaming Firehose Anda.

Pilih salah satu dari prosedur berikut berdasarkan apakah Anda memiliki klaster yang disediakan Amazon Redshift atau grup kerja Amazon Redshift Tanpa Server.
+ [Cluster Penyediaan Amazon Redshift](#create-destination-redshift-provisioned)
+ [Konfigurasikan setelan tujuan untuk workgroup Amazon Redshift Tanpa Server](#create-destination-redshift-serverless)
**catatan**  
Firehose tidak dapat menulis ke cluster Amazon Redshift yang menggunakan perutean VPC yang disempurnakan.

### Cluster Penyediaan Amazon Redshift
<a name="create-destination-redshift-provisioned"></a>

Bagian ini menjelaskan setelan untuk menggunakan klaster yang disediakan Amazon Redshift sebagai tujuan streaming Firehose Anda.

****
+ Masukkan nilai untuk bidang berikut:  
 **Kluster**   
Klaster Amazon Redshift tempat tujuan data bucket S3 disalin. Konfigurasikan klaster Amazon Redshift agar dapat diakses publik dan buka blokir alamat IP Amazon Data Firehose. Untuk informasi selengkapnya, lihat [Berikan akses Firehose ke tujuan Amazon Redshift](controlling-access.md#using-iam-rs).  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan secara username/password langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses cluster Amazon Redshift.  
  + **Nama pengguna**

    Tentukan pengguna Amazon Redshift dengan izin untuk mengakses klaster Amazon Redshift. Pengguna ini harus memiliki izin `INSERT` Amazon Redshift untuk menyalin data dari bucket S3 ke klaster Amazon Redshift.
  + **Kata Sandi** 

    Tentukan kata sandi untuk pengguna yang memiliki izin untuk mengakses cluster.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kredensil untuk cluster Amazon Redshift. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu AWS Secrets Manager untuk kredensi Amazon Redshift Anda. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Basis Data**   
Basis data Amazon Redshift tempat tujuan data disalin.  
 **Tabel**   
Tabel Amazon Redshift tempat tujuan data disalin.  
 **Kolom**   
(Opsional) Kolom tertentu dari tabel tempat tujuan data disalin. Gunakan opsi ini jika jumlah kolom yang didefinisikan di objek Amazon S3 Anda kurang dari jumlah kolom dalam tabel Amazon Redshift.   
 **Tujuan S3 Menengah**   <a name="redshift-s3-bucket"></a>
Firehose mengirimkan data Anda ke bucket S3 Anda terlebih dahulu dan kemudian mengeluarkan **COPY** perintah Amazon Redshift untuk memuat data ke cluster Amazon Redshift Anda. Tentukan bucket S3 yang Anda miliki tempat data streaming harus dikirim. Anda dapat membuat bucket S3 atau memilih bucket yang Anda miliki.  
Firehose tidak menghapus data dari bucket S3 Anda setelah memuatnya ke cluster Amazon Redshift Anda. Anda dapat mengelola data dalam bucket S3 Anda menggunakan konfigurasi siklus hidup. Untuk informasi selengkapnya, lihat [Manajemen Siklus Hidup Objek](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) di *Panduan Pengguna Layanan Penyimpanan Sederhana Amazon*.  
 **Awalan S3 menengah**   
(Opsional) Untuk menggunakan prefiks default untuk objek Amazon S3, biarkan opsi ini kosong. Firehose secara otomatis menggunakan awalan dalam format waktu UTC "`YYYY/MM/dd/HH`" untuk objek Amazon S3 yang dikirimkan. Anda dapat menambahkan ke awal prefiks ini. Untuk informasi selengkapnya, lihat [Konfigurasikan format nama objek Amazon S3](s3-object-name.md).  
 **Opsi COPY**   <a name="redshift-copy-parameters"></a>
Parameter yang dapat Anda tentukan di perintah **COPY** Amazon Redshift. Ini mungkin diperlukan untuk konfigurasi Anda. Misalnya, "`GZIP`" diperlukan jika kompresi data Amazon S3 diaktifkan. “`REGION`” diperlukan jika bucket S3 Anda tidak berada di AWS Wilayah yang sama dengan cluster Amazon Redshift Anda. Untuk informasi selengkapnya, lihat [SALIN](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) di *Panduan Developer Basis Data Amazon Redshift*.  
 **perintah COPY**   <a name="redshift-copy-command"></a>
Perintah **COPY** Amazon Redshift. Untuk informasi selengkapnya, lihat [SALIN](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) di *Panduan Developer Basis Data Amazon Redshift*.  
 **Coba lagi durasi**   
Durasi waktu (0—7200 detik) untuk Firehose mencoba lagi jika data ke klaster **COPY** Amazon Redshift Anda gagal. Firehose mencoba lagi setiap 5 menit sampai durasi coba lagi berakhir. Jika Anda menyetel durasi coba lagi ke 0 (nol) detik, Firehose tidak akan mencoba lagi setelah **COPY** kegagalan perintah.  
 **Petunjuk penyangga**   
Firehose menyangga data yang masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.  
 **Kompresi S3**   
Pilih kompresi data GZIP, Snappy, Zip, atau Hadoop-Compatible Snappy, atau tanpa kompresi data. Kompresi Snappy, Zip, dan Snappy yang kompatibel dengan Hadoop tidak tersedia untuk aliran Firehose dengan tujuan Amazon Redshift.   
**Format ekstensi file S3 (opsional)**  
Format ekstensi file S3 (opsional) — Tentukan format ekstensi file untuk objek yang dikirim ke bucket tujuan Amazon S3. Jika Anda mengaktifkan fitur ini, ekstensi file yang ditentukan akan mengganti ekstensi file default yang ditambahkan oleh Konversi Format Data atau fitur kompresi S3 seperti.parquet atau.gz. Pastikan jika Anda mengonfigurasi ekstensi file yang benar saat Anda menggunakan fitur ini dengan Konversi Format Data atau kompresi S3. Ekstensi file harus dimulai dengan titik (.) dan dapat berisi karakter yang diizinkan: 0-9a-z\$1 -\$1.\$1' (). Ekstensi file tidak boleh melebihi 128 karakter.  
**Enkripsi S3**  
Firehose mendukung enkripsi sisi server Amazon S3 AWS Key Management Service dengan (SSE-KMS) untuk mengenkripsi data yang dikirimkan di Amazon S3. Anda dapat memilih untuk menggunakan jenis enkripsi default yang ditentukan dalam bucket S3 tujuan atau untuk mengenkripsi dengan kunci dari daftar AWS KMS kunci yang Anda miliki. Jika Anda mengenkripsi data dengan AWS KMS kunci, Anda dapat menggunakan kunci AWS terkelola default (aws/s3) atau kunci yang dikelola pelanggan. Untuk informasi selengkapnya, lihat [Melindungi Data Menggunakan Enkripsi Sisi Server dengan Kunci yang Dikelola KMS ( AWS SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

### Konfigurasikan setelan tujuan untuk workgroup Amazon Redshift Tanpa Server
<a name="create-destination-redshift-serverless"></a>

Bagian ini menjelaskan setelan untuk menggunakan workgroup Amazon Redshift Serverless sebagai tujuan streaming Firehose Anda.

****
+ Masukkan nilai untuk bidang berikut:  
 **Nama Workgroup**   
Workgroup Amazon Redshift Tanpa Server tempat data bucket S3 disalin. Konfigurasikan workgroup Amazon Redshift Tanpa Server agar dapat diakses publik dan buka blokir alamat IP Firehose. Untuk informasi selengkapnya, lihat bagian Connect ke instans Amazon Redshift Tanpa Server yang dapat diakses publik di Menyambung [ke Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-connecting.html) Tanpa Server dan juga. [Berikan akses Firehose ke tujuan Amazon Redshift](controlling-access.md#using-iam-rs)  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan secara username/password langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses workgroup Amazon Redshift Tanpa Server.  
  + **Nama pengguna**

    Tentukan pengguna Amazon Redshift dengan izin untuk mengakses grup kerja Amazon Redshift Tanpa Server. Pengguna ini harus memiliki `INSERT` izin Amazon Redshift untuk menyalin data dari bucket S3 ke workgroup Amazon Redshift Serverless.
  + **Kata Sandi** 

    Tentukan kata sandi untuk pengguna yang memiliki izin untuk mengakses grup kerja Amazon Redshift Tanpa Server.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kredensil untuk workgroup Amazon Redshift Serverless. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu AWS Secrets Manager untuk kredensi Amazon Redshift Anda. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Basis Data**   
Basis data Amazon Redshift tempat tujuan data disalin.  
 **Tabel**   
Tabel Amazon Redshift tempat tujuan data disalin.  
 **Kolom**   
(Opsional) Kolom tertentu dari tabel tempat tujuan data disalin. Gunakan opsi ini jika jumlah kolom yang didefinisikan di objek Amazon S3 Anda kurang dari jumlah kolom dalam tabel Amazon Redshift.   
 **Tujuan S3 Menengah**   <a name="redshift-s3-bucket"></a>
Amazon Data Firehose mengirimkan data Anda ke bucket S3 Anda terlebih dahulu dan kemudian mengeluarkan **COPY** perintah Amazon Redshift untuk memuat data ke dalam grup kerja Amazon Redshift Tanpa Server Anda. Tentukan bucket S3 yang Anda miliki tempat data streaming harus dikirim. Anda dapat membuat bucket S3 atau memilih bucket yang Anda miliki.  
Firehose tidak menghapus data dari bucket S3 Anda setelah memuatnya ke workgroup Amazon Redshift Tanpa Server Anda. Anda dapat mengelola data dalam bucket S3 Anda menggunakan konfigurasi siklus hidup. Untuk informasi selengkapnya, lihat [Manajemen Siklus Hidup Objek](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) di *Panduan Pengguna Layanan Penyimpanan Sederhana Amazon*.  
 **Awalan S3 menengah**   
(Opsional) Untuk menggunakan prefiks default untuk objek Amazon S3, biarkan opsi ini kosong. Firehose secara otomatis menggunakan awalan dalam format waktu UTC "`YYYY/MM/dd/HH`" untuk objek Amazon S3 yang dikirimkan. Anda dapat menambahkan ke awal prefiks ini. Untuk informasi selengkapnya, lihat [Konfigurasikan format nama objek Amazon S3](s3-object-name.md).  
 **Opsi COPY**   <a name="redshift-copy-parameters"></a>
Parameter yang dapat Anda tentukan di perintah **COPY** Amazon Redshift. Ini mungkin diperlukan untuk konfigurasi Anda. Misalnya, "`GZIP`" diperlukan jika kompresi data Amazon S3 diaktifkan. “`REGION`” diperlukan jika bucket S3 Anda tidak berada di AWS Wilayah yang sama dengan workgroup Amazon Redshift Tanpa Server Anda. Untuk informasi selengkapnya, lihat [SALIN](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) di *Panduan Developer Basis Data Amazon Redshift*.  
 **perintah COPY**   <a name="redshift-copy-command"></a>
Perintah **COPY** Amazon Redshift. Untuk informasi selengkapnya, lihat [SALIN](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) di *Panduan Developer Basis Data Amazon Redshift*.  
 **Coba lagi durasi**   
Durasi waktu (0—7200 detik) untuk Firehose mencoba lagi jika data ke grup kerja **COPY** Amazon Redshift Tanpa Server gagal. Firehose mencoba lagi setiap 5 menit sampai durasi coba lagi berakhir. Jika Anda menyetel durasi coba lagi ke 0 (nol) detik, Firehose tidak akan mencoba lagi setelah **COPY** kegagalan perintah.  
 **Petunjuk penyangga**   
Firehose menyangga data yang masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.  
 **Kompresi S3**   
Pilih kompresi data GZIP, Snappy, Zip, atau Hadoop-Compatible Snappy, atau tanpa kompresi data. Kompresi Snappy, Zip, dan Snappy yang kompatibel dengan Hadoop tidak tersedia untuk aliran Firehose dengan tujuan Amazon Redshift.   
**Format ekstensi file S3 (opsional)**  
Format ekstensi file S3 (opsional) — Tentukan format ekstensi file untuk objek yang dikirim ke bucket tujuan Amazon S3. Jika Anda mengaktifkan fitur ini, ekstensi file yang ditentukan akan mengganti ekstensi file default yang ditambahkan oleh Konversi Format Data atau fitur kompresi S3 seperti.parquet atau.gz. Pastikan jika Anda mengonfigurasi ekstensi file yang benar saat Anda menggunakan fitur ini dengan Konversi Format Data atau kompresi S3. Ekstensi file harus dimulai dengan titik (.) dan dapat berisi karakter yang diizinkan: 0-9a-z\$1 -\$1.\$1' (). Ekstensi file tidak boleh melebihi 128 karakter.  
**Enkripsi S3**  
Firehose mendukung enkripsi sisi server Amazon S3 AWS Key Management Service dengan (SSE-KMS) untuk mengenkripsi data yang dikirimkan di Amazon S3. Anda dapat memilih untuk menggunakan jenis enkripsi default yang ditentukan dalam bucket S3 tujuan atau untuk mengenkripsi dengan kunci dari daftar AWS KMS kunci yang Anda miliki. Jika Anda mengenkripsi data dengan AWS KMS kunci, Anda dapat menggunakan kunci AWS terkelola default (aws/s3) atau kunci yang dikelola pelanggan. Untuk informasi selengkapnya, lihat [Melindungi Data Menggunakan Enkripsi Sisi Server dengan Kunci yang Dikelola KMS ( AWS SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Konfigurasikan setelan tujuan untuk OpenSearch Layanan
<a name="create-destination-elasticsearch"></a>

Firehose mendukung versi Elasticsearch — 1.5, 2.3, 5.1, 5.3, 5.5, 5.6, serta semua versi 6.\$1, 7.\$1, dan 8.\$1. Firehose mendukung Amazon OpenSearch Service 2.x dan 3.x.

Bagian ini menjelaskan opsi untuk menggunakan OpenSearch Layanan untuk tujuan Anda.

****
+ Masukkan nilai untuk bidang berikut:  
** **OpenSearch Domain layanan** **  
Domain OpenSearch Layanan tempat data Anda dikirimkan.  
** **Indeks** **  
Nama indeks OpenSearch Layanan yang akan digunakan saat mengindeks data ke kluster OpenSearch Service Anda.  
** **Rotasi indeks** **  
Pilih apakah dan seberapa sering indeks OpenSearch Layanan harus diputar. Jika rotasi indeks diaktifkan, Amazon Data Firehose akan menambahkan tanda waktu yang sesuai ke nama indeks yang ditentukan dan dirotasi. Untuk informasi selengkapnya, lihat [Konfigurasikan rotasi indeks untuk OpenSearch Layanan](es-index-rotation.md).  
** **Jenis** **  
Nama tipe OpenSearch Layanan yang akan digunakan saat mengindeks data ke kluster OpenSearch Service Anda. Untuk Elasticsearch 7.x dan OpenSearch 1.x, hanya ada satu jenis per indeks. Jika Anda mencoba menentukan jenis baru untuk indeks yang sudah ada yang sudah memiliki jenis lain, Firehose mengembalikan kesalahan saat runtime.   
Untuk Elasticsearch 7.x, biarkan bidang ini kosong.  
** **Coba lagi durasi** **  
Durasi waktu Firehose untuk mencoba lagi jika permintaan indeks gagal. OpenSearch Untuk durasi coba lagi, Anda dapat mengatur nilai apa pun antara 0-7200 detik. Durasi coba ulang default adalah 300 detik. Firehose akan mencoba lagi beberapa kali dengan mundur eksponensial hingga durasi percobaan ulang berakhir.  
Setelah durasi percobaan ulang berakhir, Firehose mengirimkan data ke Dead Letter Queue (DLQ), bucket kesalahan S3 yang dikonfigurasi. Untuk data yang dikirim ke DLQ, Anda harus mengarahkan ulang data kembali dari bucket kesalahan S3 yang dikonfigurasi ke tujuan. OpenSearch   
Jika Anda ingin memblokir aliran Firehose agar tidak mengirimkan data ke DLQ karena waktu henti atau pemeliharaan OpenSearch cluster, Anda dapat mengonfigurasi durasi coba lagi ke nilai yang lebih tinggi dalam hitungan detik. [Anda dapat meningkatkan nilai durasi coba lagi di atas menjadi 7200 detik dengan menghubungi dukungan.AWS](https://aws.amazon.com/contact-us/)   
** **Jenis DocumentID** **  
Menunjukkan metode untuk mengatur ID dokumen. Metode yang didukung adalah ID dokumen buatan FireHose dan ID dokumen yang dihasilkan OpenSearch Layanan. ID dokumen yang dihasilkan Firehose adalah opsi default saat nilai ID dokumen tidak disetel. OpenSearch ID dokumen yang dihasilkan layanan adalah opsi yang direkomendasikan karena mendukung operasi berat tulis, termasuk analitik log dan observabilitas, mengkonsumsi lebih sedikit sumber daya CPU di domain OpenSearch Layanan dan dengan demikian, menghasilkan peningkatan kinerja.  
** **Konektivitas VPC tujuan** **  
Jika domain OpenSearch Layanan Anda berada dalam VPC pribadi, gunakan bagian ini untuk menentukan VPC tersebut. Tentukan juga subnet dan subgrup yang Anda inginkan Amazon Data Firehose untuk digunakan saat mengirimkan data ke domain Layanan Anda. OpenSearch Anda dapat menggunakan grup keamanan yang sama dengan yang digunakan domain OpenSearch Layanan. Jika Anda menentukan grup keamanan yang berbeda, pastikan bahwa mereka mengizinkan lalu lintas HTTPS keluar ke grup keamanan domain OpenSearch Layanan. Pastikan juga bahwa grup keamanan domain OpenSearch Layanan mengizinkan lalu lintas HTTPS dari grup keamanan yang Anda tentukan saat mengonfigurasi aliran Firehose. Jika Anda menggunakan grup keamanan yang sama untuk aliran Firehose dan domain OpenSearch Layanan, pastikan aturan masuk grup keamanan mengizinkan lalu lintas HTTPS. Untuk informasi lebih lanjut tentang aturan grup keamanan, lihat [Aturan grup keamanan](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#SecurityGroupRules) dalam Dokumentasi Amazon VPC.  
Saat Anda menentukan subnet untuk mengirimkan data ke tujuan dalam VPC pribadi, pastikan Anda memiliki cukup banyak alamat IP gratis di subnet yang dipilih. Jika tidak ada alamat IP gratis yang tersedia di subnet tertentu, Firehose tidak dapat membuat atau ENIs menambahkan pengiriman data di VPC pribadi, dan pengiriman akan terdegradasi atau gagal.  
**Petunjuk penyangga**  
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk Tanpa OpenSearch Server
<a name="create-destination-opensearch-serverless"></a>

Bagian ini menjelaskan opsi untuk menggunakan OpenSearch Tanpa Server untuk tujuan Anda.

****
+ Masukkan nilai untuk bidang berikut:  
** **OpenSearch Koleksi tanpa server** **  
Titik akhir untuk sekelompok indeks OpenSearch Tanpa Server tempat data Anda dikirim.  
** **Indeks** **  
Nama indeks OpenSearch Tanpa Server yang akan digunakan saat mengindeks data ke koleksi Tanpa Server Anda OpenSearch .  
** **Konektivitas VPC tujuan** **  
Jika koleksi OpenSearch Tanpa Server Anda ada di VPC pribadi, gunakan bagian ini untuk menentukan VPC tersebut. Tentukan juga subnet dan subgrup yang Anda inginkan Amazon Data Firehose untuk digunakan saat mengirimkan data ke koleksi Tanpa Server Anda. OpenSearch   
Saat Anda menentukan subnet untuk mengirimkan data ke tujuan dalam VPC pribadi, pastikan Anda memiliki cukup banyak alamat IP gratis di subnet yang dipilih. Jika tidak ada alamat IP gratis yang tersedia di subnet tertentu, Firehose tidak dapat membuat atau ENIs menambahkan pengiriman data di VPC pribadi, dan pengiriman akan terdegradasi atau gagal.  
** **Coba lagi durasi** **  
Durasi waktu Firehose untuk mencoba lagi jika permintaan indeks ke Tanpa Server gagal OpenSearch . Untuk durasi coba lagi, Anda dapat mengatur nilai apa pun antara 0-7200 detik. Durasi coba ulang default adalah 300 detik. Firehose akan mencoba lagi beberapa kali dengan mundur eksponensial hingga durasi percobaan ulang berakhir.  
Setelah durasi percobaan ulang berakhir, Firehose mengirimkan data ke Dead Letter Queue (DLQ), bucket kesalahan S3 yang dikonfigurasi. Untuk data yang dikirim ke DLQ, Anda harus mengarahkan ulang data kembali dari bucket kesalahan S3 yang dikonfigurasi ke tujuan Tanpa Server. OpenSearch   
Jika Anda ingin memblokir aliran Firehose agar tidak mengirimkan data ke DLQ karena waktu henti atau pemeliharaan kluster OpenSearch Tanpa Server, Anda dapat mengonfigurasi durasi coba lagi ke nilai yang lebih tinggi dalam hitungan detik. [Anda dapat meningkatkan nilai durasi coba lagi di atas menjadi 7200 detik dengan menghubungi dukungan.AWS](https://aws.amazon.com/contact-us/)   
**Petunjuk penyangga**  
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk HTTP Endpoint
<a name="create-destination-http"></a>

Bagian ini menjelaskan opsi untuk menggunakan **Titik akhir HTTP** untuk tujuan Anda.

**penting**  
Jika Anda memilih titik akhir HTTP sebagai tujuan Anda, tinjau dan ikuti petunjuk di [Memahami permintaan pengiriman titik akhir HTTP dan spesifikasi respons](httpdeliveryrequestresponse.md).

****
+ Berikan nilai untuk bidang berikut:  
 **Nama titik akhir HTTP - opsional**   
Tentukan nama yang ramah pengguna untuk titik akhir HTTP. Misalnya, `My HTTP Endpoint Destination`.  
 **URL titik akhir HTTP**   
Tentukan URL untuk titik akhir HTTP dalam format berikut: `https://xyz.httpendpoint.com`. URL harus berupa URL HTTPS.  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan kunci akses secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses titik akhir HTTP.  
  + **(Opsional) Kunci akses** 

    Hubungi pemilik endpoint jika Anda perlu mendapatkan kunci akses untuk mengaktifkan pengiriman data ke titik akhir mereka dari Firehose.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kunci akses untuk titik akhir HTTP. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu AWS Secrets Manager untuk kunci akses. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Pengkodean konten**   
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** atau **Dinonaktifkan** untuk pengkodean enable/disable konten permintaan Anda.   
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke titik akhir HTTP yang dipilih.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.  
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.  
Untuk tujuan titik akhir HTTP, jika Anda melihat 413 kode respons dari titik akhir tujuan di CloudWatch Log, turunkan ukuran petunjuk buffering pada aliran Firehose Anda dan coba lagi.

## Konfigurasikan pengaturan tujuan untuk Datadog
<a name="create-destination-datadog"></a>

Bagian ini menjelaskan opsi untuk menggunakan **Datadog** untuk tujuan Anda. [Untuk informasi selengkapnya tentang Datadog, lihat https://docs.datadoghq.com/integrations/ amazon\$1web\$1services/.](https://docs.datadoghq.com/integrations/amazon_web_services/)

****
+ Berikan nilai untuk bidang berikut.  
 **URL titik akhir HTTP**   
Pilih tempat Anda ingin mengirim data dari salah satu opsi berikut di menu tarik-turun.  
  + **Log Datadog - US1**
  + **Log Datadog - US3**
  + **Log Datadog - US5**
  + **Log Datadog - AP1**
  + **Log datadog - UE**
  + **Log datadog - GOV**
  + **Metrik Datadog - AS**
  + **Metrik Datadog - US5**
  + **Metrik Datadog - AP1**
  + **Metrik Datadog - UE**
  + **Konfigurasi Datadog - US1**
  + **Konfigurasi Datadog - US3**
  + **Konfigurasi Datadog - US5**
  + **Konfigurasi Datadog - AP1**
  + **Konfigurasi Datadog - EU**
  + **Konfigurasi Datadog - US GOV**  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan kunci API secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses Datadog.  
  + **Kunci API** 

    Hubungi Datadog untuk mendapatkan kunci API yang Anda perlukan untuk mengaktifkan pengiriman data ke titik akhir ini dari Firehose.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kunci API untuk Datadog. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Pengkodean konten**   
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** atau **Dinonaktifkan** untuk pengkodean enable/disable konten permintaan Anda.   
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke titik akhir HTTP yang dipilih.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk Honeycomb
<a name="create-destination-honeycomb"></a>

Bagian ini menjelaskan opsi untuk menggunakan **Honeycomb** untuk tujuan Anda. Untuk informasi lebih lanjut tentang Honeycomb, lihat [https://docs.honeycomb. io/getting-data-in/metrics/aws -cloudwatch-metrics/.](https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/ )

****
+ Berikan nilai untuk bidang berikut:  
 **Titik akhir Kinesis Honeycomb**   
Tentukan URL untuk titik akhir HTTP dalam format berikut: https://api.honeycom b.io/1/kinesis\$1events/ \$1\$1dataset\$1\$1   
 **Autentikasi**   
Anda dapat memilih untuk memasukkan kunci API secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses Honeycomb.  
  + **Kunci API** 

    Hubungi Honeycomb untuk mendapatkan kunci API yang Anda perlukan untuk mengaktifkan pengiriman data ke titik akhir ini dari Firehose.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kunci API untuk Honeycomb. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Pengkodean konten**   
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** untuk mengaktifkan pengkodean konten permintaan Anda. Ini adalah opsi yang disarankan untuk tujuan Honeycomb.  
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke titik akhir HTTP yang dipilih.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk Coralogix
<a name="create-destination-coralogix"></a>

Bagian ini menjelaskan opsi untuk menggunakan **Coralogix** untuk tujuan Anda. Untuk informasi selengkapnya tentang Coralogix, lihat [Memulai](https://coralogix.com/docs/guide-first-steps-coralogix/) Coralogix.

****
+ Berikan nilai untuk bidang berikut:  
 **URL titik akhir HTTP**   
Pilih URL titik akhir HTTP dari pilihan berikut di menu tarik-turun:  
  + **Coralogix - US**
  + **Coralogix - SINGAPORE**
  + **Coralogix - IRELAND**
  + **Coralogix - INDIA**
  + **Coralogix - STOCKHOLM**  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan kunci pribadi secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses Coralogix.  
  + **Kunci pribadi** 

    Hubungi Coralogix untuk mendapatkan kunci pribadi yang Anda perlukan untuk mengaktifkan pengiriman data ke titik akhir ini dari Firehose.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kunci pribadi untuk Coralogix. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Pengkodean konten**   
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** untuk mengaktifkan pengkodean konten permintaan Anda. Ini adalah opsi yang direkomendasikan untuk tujuan Coralogix.  
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke titik akhir HTTP yang dipilih.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
  + applicationName: lingkungan tempat Anda menjalankan Data Firehose
  + subsystemName: nama integrasi Data Firehose
  + computerName: nama aliran Firehose yang sedang digunakan  
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang disarankan untuk tujuan bervariasi berdasarkan penyedia layanan.

## Konfigurasikan setelan tujuan untuk Dynatrace
<a name="create-destination-dynatrace"></a>

Bagian ini menjelaskan opsi untuk menggunakan **Dynatrace** untuk tujuan Anda. Untuk informasi selengkapnya, lihat [https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/](https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/).

****
+ Pilih opsi untuk menggunakan Dynatrace sebagai tujuan aliran Firehose Anda.  
 **Jenis konsumsi**   
Pilih apakah Anda ingin mengirimkan **Metrik** atau **Log** (default) di Dynatrace untuk analisis dan pemrosesan lebih lanjut.  
 **URL titik akhir HTTP**   
Pilih URL titik akhir HTTP (**Dynatrace US, Dynatrace** **EU, atau **Dynatrace** Global)** dari menu tarik-turun.  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan token API secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses Dynatrace.  
  + **Token API** 

    Buat token API Dynatrace yang Anda perlukan untuk mengaktifkan pengiriman data ke titik akhir ini dari Firehose. Untuk informasi selengkapnya, lihat [Dynatrace API - Token dan](https://docs.dynatrace.com/docs/dynatrace-api/basics/dynatrace-api-authentication) otentikasi.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi token API untuk Dynatrace. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **URL API**   
Berikan URL API lingkungan Dynatrace Anda.  
 **Pengkodean konten**   
Pilih apakah Anda ingin mengaktifkan pengkodean konten untuk mengompres isi permintaan. Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Saat diaktifkan, konten yang dikompresi dalam format **GZIP**.  
 **Coba lagi durasi**   
Tentukan berapa lama Firehose mencoba mengirim data ke titik akhir HTTP yang dipilih.   
Setelah mengirim data, akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Firehose mengirimkan data ke titik akhir HTTP, baik selama upaya awal atau setelah mencoba lagi, Firehose memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Firehose mencoba mengirim data lagi, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
**Petunjuk penyangga**  
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Petunjuk buffer mencakup ukuran buffer dan interval untuk aliran Anda. Ukuran buffer yang disarankan untuk tujuan bervariasi sesuai dengan penyedia layanan.

## Konfigurasikan setelan tujuan untuk LogicMonitor
<a name="create-destination-logicmonitor"></a>

Bagian ini menjelaskan opsi untuk digunakan **LogicMonitor**untuk tujuan Anda. Untuk informasi selengkapnya, lihat [https://www.logicmonitor.com](https://www.logicmonitor.com).

****
+ Berikan nilai untuk bidang berikut:  
 **URL titik akhir HTTP**   
Tentukan URL untuk titik akhir HTTP dalam format berikut.  

  ```
  https://ACCOUNT.logicmonitor.com
  ```  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan kunci API secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses LogicMonitor.  
  + **Kunci API** 

    Hubungi LogicMonitor untuk mendapatkan kunci API yang Anda perlukan untuk mengaktifkan pengiriman data ke titik akhir ini dari Firehose.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kunci API untuk LogicMonitor. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Pengkodean konten**   
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** atau **Dinonaktifkan** untuk pengkodean enable/disable konten permintaan Anda.   
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke titik akhir HTTP yang dipilih.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk Logz.io
<a name="create-destination-logz"></a>

Bagian ini menjelaskan opsi untuk menggunakan **Logz.io untuk tujuan** Anda. Untuk informasi lebih lanjut, lihat [https://logz.io/](https://logz.io/).

**catatan**  
Di wilayah Eropa (Milan), Logz.io tidak didukung sebagai tujuan Amazon Data Firehose.

****
+ Berikan nilai untuk bidang berikut:  
 **URL titik akhir HTTP**   
Tentukan URL untuk titik akhir HTTP dalam format berikut. URL harus berupa `HTTPS` URL.  

  ```
  https://listener-aws-metrics-stream-<region>.logz.io/
  ```
Sebagai contoh  

  ```
  https://listener-aws-metrics-stream-us.logz.io/
  ```  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan token pengiriman secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses Logz.io.  
  + **Token pengiriman** 

    Hubungi Logz.io untuk mendapatkan token pengiriman yang Anda perlukan untuk mengaktifkan pengiriman data ke titik akhir ini dari Firehose.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi token pengiriman untuk Logz.io. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke Logz.io.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk MongoDB Atlas
<a name="create-destination-mongodb"></a>

Bagian ini menjelaskan opsi untuk menggunakan **MongoDB Atlas** untuk tujuan Anda. Untuk informasi selengkapnya, lihat [MongoDB Atlas di Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws).

****
+ Berikan nilai untuk bidang berikut:  
**URL API Gateway**  
Tentukan URL untuk titik akhir HTTP dalam format berikut.  

  ```
   https://xxxxx.execute-api.region.amazonaws.com/stage
  ```
URL harus berupa `HTTPS` URL.   
 **Autentikasi**   
Anda dapat memilih untuk memasukkan kunci API secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses MongoDB Atlas.  
  + **Kunci API** 

    Ikuti petunjuk di [MongoDB Atlas di Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws) untuk mendapatkan `APIKeyValue` yang Anda perlukan untuk mengaktifkan pengiriman data ke titik akhir ini dari Firehose.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi Kunci API untuk API Gateway yang didukung oleh Lambda yang berinteraksi dengan MongoDB Atlas. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
**Pengkodean konten**  
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** atau **Dinonaktifkan** untuk pengkodean enable/disable konten permintaan Anda.   
**Coba lagi durasi**  
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke penyedia pihak ketiga yang dipilih.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
**Petunjuk penyangga**  
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.  
**Parameter - opsional**  
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan. 

## Konfigurasikan pengaturan tujuan untuk New Relic
<a name="create-destination-new-relic"></a>

Bagian ini menjelaskan opsi untuk menggunakan **New Relic** untuk tujuan Anda. Untuk informasi selengkapnya, lihat [https://newrelic.com](https://newrelic.com). 

****
+ Berikan nilai untuk bidang berikut:  
 **URL titik akhir HTTP**   
Pilih URL titik akhir HTTP dari opsi berikut dalam daftar drop-down.  
  + **Log Relik Baru - AS**
  + **Metrik Relik Baru - AS**
  + **Metrik Relik Baru - UE**  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan kunci API secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses New Relic.  
  + **Kunci API** 

    Masukkan Kunci Lisensi Anda, yang merupakan string heksadesimal 40 karakter, dari pengaturan Akun New Relic One Anda. Anda memerlukan kunci API ini untuk mengaktifkan pengiriman data ke titik akhir ini dari Firehose.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kunci API untuk New Relic. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Pengkodean konten**   
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** atau **Dinonaktifkan** untuk pengkodean enable/disable konten permintaan Anda.   
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke titik akhir HTTP Relic Baru.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk Snowflake
<a name="create-destination-snowflake"></a>

Bagian ini menjelaskan opsi untuk menggunakan Snowflake untuk tujuan Anda.

**catatan**  
Integrasi Firehose dengan Snowflake tersedia di AS Timur (Virginia N.), AS Barat (Oregon), Eropa (Irlandia), AS Timur (Ohio), Asia Pasifik (Tokyo), Eropa (Frankfurt), Asia Pasifik (Singapura), Asia Pasifik (Seoul), dan Asia Pasifik (Sydney), Asia Pasifik (Mumbai), Eropa (London), Amerika Selatan (Sao Paulo), Kanada (Tengah), Eropa (Paris), Asia Pasifik (Osaka), Eropa (Stockholm), Asia Pasifik (Jakarta). Wilayah AWS

**Pengaturan koneksi**

****
+ Berikan nilai untuk bidang berikut:  
 **URL akun Snowflake**   
Tentukan URL akun Snowflake. Sebagai contoh: `xy12345.us-east-1.aws.snowflakecomputing.com`. Lihat [dokumentasi Snowflake](https://docs.snowflake.com/en/user-guide/admin-account-identifier#format-2-legacy-account-locator-in-a-region) tentang cara menentukan URL akun Anda. Perhatikan bahwa Anda tidak harus menentukan nomor port, sedangkan protokol (https://) adalah opsional.  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan userlogin, kunci pribadi, dan frasa sandi secara manual atau mengambil rahasia dari untuk mengakses Snowflake. AWS Secrets Manager   
  + **Login pengguna**

    Tentukan pengguna Snowflake yang akan digunakan untuk memuat data. Pastikan pengguna memiliki akses untuk memasukkan data ke dalam tabel Snowflake.
  + **Kunci pribadi**

    Tentukan kunci pribadi untuk otentikasi dengan Snowflake dalam format. `PKCS8` Selain itu, jangan sertakan header dan footer PEM sebagai bagian dari kunci pribadi. Jika kunci dibagi menjadi beberapa baris, hapus jeda baris. Berikut ini adalah contoh dari apa kunci pribadi Anda harus terlihat seperti.

    ```
    -----BEGIN PRIVATE KEY-----
    KEY_CONTENT
    -----END PRIVATE KEY-----
    ```

    Hapus ruang `KEY_CONTENT` dan berikan itu ke Firehose. Tidak ada header/footer atau karakter baris baru yang diperlukan.
  + **Frasa sandi** 

    Tentukan frasa sandi untuk mendekripsi kunci privat yang dienkripsi. Anda dapat membiarkan bidang ini kosong jika kunci privat tidak dienkripsi. Untuk selengkapnya, lihat [Menggunakan Otentikasi Pasangan Kunci & Rotasi Kunci](https://docs.snowflake.com/en/user-guide/data-load-snowpipe-streaming-configuration#using-key-pair-authentication-key-rotation).
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kredensil untuk Snowflake. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Konfigurasi peran**   
Gunakan peran Snowflake default - Jika opsi ini dipilih, Firehose tidak akan meneruskan peran apa pun ke Snowflake. Peran default diasumsikan untuk memuat data. Pastikan peran default memiliki izin untuk memasukkan data ke tabel Snowflake.  
Gunakan peran Snowflake khusus - Masukkan peran Snowflake non-default yang akan diasumsikan oleh Firehose saat memuat data ke tabel Snowflake.  
 **Konektivitas Snowflake**   
Pilihannya adalah **Privat** atau **Publik**.  
 **ID VPCE Privat (opsional)**   
ID VPCE untuk Firehose untuk terhubung secara privat dengan Snowflake. Format ID adalah com.amazonaws.vpce. [wilayah] .vpce-svc-. *[id]* Untuk informasi lebih lanjut, lihat [AWS PrivateLink & Kepingan Salju](https://docs.snowflake.com/en/user-guide/admin-security-privatelink).  
Jika klaster Snowflake Anda mengaktifkan tautan pribadi, gunakan kebijakan jaringan `AwsVpceIds` berbasis untuk mengizinkan data Amazon Data Firehose. Firehose tidak mengharuskan Anda mengonfigurasi kebijakan jaringan berbasis IP di akun Snowflake Anda. Memiliki kebijakan jaringan berbasis IP yang diaktifkan dapat mengganggu konektivitas Firehose. [Jika Anda memiliki kasus tepi yang memerlukan kebijakan berbasis IP, hubungi tim Firehose dengan mengirimkan tiket dukungan.](https://support.console.aws.amazon.com/support/home?region=us-east-1#/case/create) Untuk daftar VPCE IDs yang dapat Anda gunakan, lihat. [Mengakses Snowflake di VPC](controlling-access.md#using-iam-snowflake-vpc)

**Konfigurasi basis data**
+ Anda harus menentukan pengaturan berikut agar dapat menggunakan Snowflake sebagai tujuan untuk aliran Firehose Anda.
  + Basis data Snowflake – Semua data di Snowflake disimpan dalam basis data.
  + Skema Snowflake – Setiap basis data terdiri dari satu atau lebih skema, yang merupakan pengelompokan logis objek basis data, seperti tabel dan tampilan
  + Tabel Snowflake – Semua data di Snowflake disimpan dalam tabel basis data, terstruktur secara logis sebagai kumpulan kolom dan baris.

 **Opsi pemuatan data untuk tabel Snowflake Anda** 
+ Gunakan tombol JSON sebagai nama kolom 
+ Gunakan kolom VARIANT
  + Nama kolom konten - Tentukan nama kolom dalam tabel, di mana data mentah harus dimuat.
  + Nama kolom metadata (opsional) - Tentukan nama kolom dalam tabel, tempat informasi metadata harus dimuat. Saat Anda mengaktifkan bidang ini, Anda akan melihat kolom berikut di tabel Snowflake berdasarkan jenis sumber. 

    **Untuk Direct PUT sebagai sumber**

    ```
    {
    "firehoseDeliveryStreamName" : "streamname",
    "IngestionTime" : "timestamp"
    }
    ```

    **Untuk Kinesis Data Stream sebagai sumber**

    ```
    {
    "kinesisStreamName" : "streamname",
    "kinesisShardId" : "Id",
    "kinesisPartitionKey" : "key",
    "kinesisSequenceNumber" : "1234",
    "subsequenceNumber" : "2334",
    "IngestionTime" : "timestamp"
    }
    ```

 **Coba lagi durasi** 

Durasi waktu (0-7200 detik) untuk Firehose untuk mencoba lagi jika membuka saluran atau pengiriman ke Snowflake gagal karena masalah layanan Snowflake. Firehose mencoba lagi dengan backoff eksponensial hingga durasi coba lagi berakhir. Jika Anda menyetel durasi coba lagi ke 0 (nol) detik, Firehose tidak akan mencoba lagi saat kegagalan Snowflake dan merutekan data ke bucket kesalahan Amazon S3.

 **Petunjuk penyangga** 

Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan. Untuk informasi selengkapnya, lihat [Konfigurasikan petunjuk buffering](create-configure-backup.md#buffering-hints).

## Konfigurasikan pengaturan tujuan untuk Splunk
<a name="create-destination-splunk"></a>

Bagian ini menjelaskan opsi untuk menggunakan Splunk untuk tujuan Anda.

**catatan**  
Firehose mengirimkan data ke cluster Splunk yang dikonfigurasi dengan Classic Load Balancer atau Application Load Balancer. 

****
+ Berikan nilai untuk bidang berikut:  
 **Titik akhir klaster splunk**   
Untuk menentukan titik akhir, lihat [Mengonfigurasi Amazon Data Firehose untuk Mengirim Data ke Platform Splunk dalam dokumentasi Splunk](http://docs.splunk.com/Documentation/AddOns/latest/Firehose/ConfigureFirehose).  
 **Jenis titik akhir splunk**   
Pilih `Raw endpoint` dalam banyak kasus. Pilih `Event endpoint` apakah Anda telah memproses data sebelumnya AWS Lambda untuk mengirim data ke indeks yang berbeda berdasarkan jenis acara. Untuk informasi tentang titik akhir yang akan digunakan, lihat [Konfigurasikan Amazon Data Firehose untuk mengirim data ke platform Splunk](http://docs.splunk.com/Documentation/AddOns/released/Firehose/ConfigureFirehose) dalam dokumentasi Splunk.  
 **Autentikasi**   
Anda dapat memilih untuk memasukkan token otentikasi secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses Splunk.  
  + **Token otentikasi** 

    Untuk menyiapkan endpoint Splunk yang dapat menerima data dari Amazon Data Firehose, lihat [Ikhtisar instalasi dan konfigurasi untuk Add-on Splunk untuk Amazon Data Firehose dalam](http://docs.splunk.com/Documentation/AddOns/released/Firehose/Installationoverview) dokumentasi Splunk. Simpan token yang Anda dapatkan dari Splunk saat Anda mengatur titik akhir untuk aliran Firehose ini dan tambahkan di sini.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi token otentikasi untuk Splunk. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Batas waktu pengakuan HEC**   
Tentukan berapa lama Amazon Data Firehose menunggu pengakuan indeks dari Splunk. Jika Splunk tidak mengirimkan pengakuan sebelum batas waktu tercapai, Amazon Data Firehose menganggapnya sebagai kegagalan pengiriman data. Amazon Data Firehose kemudian akan mencoba kembali atau mencadangkan data ke bucket Amazon S3 Anda, tergantung pada nilai durasi percobaan ulang yang Anda tetapkan.   
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke Splunk.   
Setelah mengirim data, Amazon Data Firehose menunggu pengakuan dari Splunk terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke Splunk (baik upaya awal atau percobaan lagi), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari Splunk.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang disarankan untuk tujuan bervariasi berdasarkan penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk Splunk Observability Cloud
<a name="create-destination-splunk-cloud"></a>

Bagian ini menjelaskan opsi untuk menggunakan **Splunk Observability Cloud untuk tujuan** Anda. Untuk informasi selengkapnya, lihat [https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/awsconnect-to-aws-using-apiconfig.html\$1](https://docs.splunk.com/Observability/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api) - -api. the-splunk-observability-cloud

****
+ Berikan nilai untuk bidang berikut:  
 **URL Titik Akhir Cloud Ingest**   
Anda dapat menemukan URL Penyerapan Data Real-time Splunk Observability Cloud di Profile > Organizations > Real-time Data Ingest Endpoint di konsol Splunk Observability.   
 **Autentikasi**   
Anda dapat memilih untuk memasukkan token akses secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses Splunk Observability Cloud.  
  + **Token Akses** 

    Salin token akses Observabilitas Splunk Anda dengan cakupan otorisasi PENYERAPAN dari **Token Akses** di bawah **Pengaturan** di konsol Observabilitas Splunk.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi token akses untuk Splunk Observability Cloud. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Pengkodean Konten**   
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** atau **Dinonaktifkan** untuk pengkodean enable/disable konten permintaan Anda.   
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke titik akhir HTTP yang dipilih.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan bervariasi dari tiap-tiap penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk Sumo Logic
<a name="create-destination-sumo-logic"></a>

Bagian ini menjelaskan opsi untuk menggunakan **Sumo Logic** untuk tujuan Anda. Untuk informasi selengkapnya, lihat [https://www.sumologic.com](https://www.sumologic.com).

****
+ Berikan nilai untuk bidang berikut:  
 **URL titik akhir HTTP**   
Tentukan URL untuk titik akhir HTTP dalam format berikut: `https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token`. URL harus berupa URL HTTPS.   
 **Pengkodean konten**   
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** atau **Dinonaktifkan** untuk pengkodean enable/disable konten permintaan Anda.   
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke Sumo Logic.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan Elastic bervariasi dari penyedia layanan ke penyedia layanan.

## Konfigurasikan pengaturan tujuan untuk Elastic
<a name="create-destination-elastic"></a>

Bagian ini menjelaskan opsi untuk menggunakan **Elastic** untuk tujuan Anda. 

****
+ Berikan nilai untuk bidang berikut:  
 **URL titik akhir elastis**   
Tentukan URL untuk titik akhir HTTP dalam format berikut: `https://<cluster-id>.es.<region>.aws.elastic-cloud.com`. URL harus berupa URL HTTPS.   
 **Autentikasi**   
Anda dapat memilih untuk memasukkan kunci API secara langsung atau mengambil rahasia dari AWS Secrets Manager untuk mengakses Elastic.  
  + **Kunci API** 

    Hubungi Elastic untuk mendapatkan kunci API yang Anda perlukan untuk mengaktifkan pengiriman data ke layanan mereka dari Firehose.
  + **Rahasia**

    Pilih rahasia dari AWS Secrets Manager yang berisi kunci API untuk Elastic. Jika Anda tidak melihat rahasia Anda di daftar drop-down, buat satu di AWS Secrets Manager. Untuk informasi selengkapnya, lihat [Otentikasi dengan AWS Secrets Manager Firehose Data Amazon](using-secrets-manager.md).  
 **Pengkodean konten**   
Amazon Data Firehose menggunakan pengkodean konten untuk mengompres isi permintaan sebelum mengirimnya ke tujuan. Pilih **GZIP** (yang dipilih secara default) atau **Dinonaktifkan** untuk pengkodean enable/disable konten permintaan Anda.   
 **Coba lagi durasi**   
Tentukan berapa lama Amazon Data Firehose mencoba mengirim data ke Elastic.   
Setelah mengirim data, Amazon Data Firehose akan menunggu pengakuan dari titik akhir HTTP terlebih dahulu. Jika terjadi kesalahan atau pengakuan tidak diberikan dalam periode batas waktu pengakuan, Amazon Data Firehose akan memulai penghitung durasi percobaan ulang. Kinesis Data Firehose terus mencoba kembali sampai durasi coba lagi berakhir. Setelah itu, Amazon Data Firehose menganggap pengiriman data gagal dan mencadangkan data ke bucket Amazon S3 Anda.   
Setiap kali Amazon Data Firehose mengirimkan data ke titik akhir HTTP (baik upaya awal atau percobaan ulang), itu memulai ulang penghitung batas waktu pengakuan dan menunggu pengakuan dari titik akhir HTTP.   
Bahkan jika durasi percobaan ulang berakhir, Amazon Data Firehose masih menunggu pengakuan sampai menerimanya atau periode batas waktu pengakuan tercapai. Jika waktu pengakuan habis, Amazon Data Firehose menentukan apakah ada waktu tersisa di penghitung coba lagi. Jika ada waktu yang tersisa, Kinesis Data Firehose akan mencoba lagi dan mengulangi logika sampai menerima pengakuan atau dapat menentukan bahwa waktu coba lagi telah berakhir.  
Jika Anda tidak ingin Amazon Data Firehose mencoba lagi mengirim data, tetapkan nilai ini ke 0.  
 **Parameter - opsional**   
Amazon Data Firehose menyertakan pasangan kunci-nilai ini di setiap panggilan HTTP. Parameter ini dapat membantu Anda mengidentifikasi dan mengatur tujuan.   
 **Petunjuk penyangga**   
Amazon Data Firehose melakukan buffer pada data masuk sebelum mengirimkannya ke tujuan yang ditentukan. Ukuran buffer yang direkomendasikan untuk tujuan Elastic adalah 1 MiB.

# Konfigurasikan pengaturan cadangan
<a name="create-configure-backup"></a>

Amazon Data Firehose menggunakan Amazon S3 untuk mencadangkan semua atau hanya data yang gagal yang coba dikirim ke tujuan yang Anda pilih. 

**penting**  
Pengaturan Backup hanya didukung jika sumber aliran Firehose Anda adalah Direct PUT atau Kinesis Data Streams.
Fitur buffering nol hanya tersedia untuk tujuan aplikasi dan tidak tersedia untuk tujuan cadangan Amazon S3.

Anda dapat menentukan pengaturan cadangan S3 untuk aliran Firehose Anda jika Anda membuat salah satu pilihan berikut.
+ Jika Anda menetapkan Amazon S3 sebagai tujuan aliran Firehose Anda dan Anda memilih untuk menentukan fungsi AWS Lambda untuk mengubah catatan data atau jika Anda memilih untuk mengonversi format rekaman data untuk aliran Firehose Anda.
+ Jika Anda menetapkan Amazon Redshift sebagai tujuan aliran Firehose Anda dan Anda memilih untuk menentukan fungsi AWS Lambda untuk mengubah catatan data.
+ Jika Anda menetapkan salah satu layanan berikut sebagai tujuan untuk aliran Firehose Anda — Amazon OpenSearch Service, Datadog, Dynatrace, HTTP Endpoint,, LogicMonitor MongoDB Cloud, New Relic, Splunk, atau Sumo Logic, Snowflake, Apache Iceberg Tables.

Berikut ini adalah pengaturan cadangan untuk aliran Firehose Anda.
+ Pencadangan catatan sumber di Amazon S3 - jika S3 atau Amazon Redshift adalah tujuan yang Anda pilih, pengaturan ini menunjukkan apakah Anda ingin mengaktifkan cadangan data sumber atau menonaktifkannya. Jika layanan lain yang didukung (selain S3 atau Amazon Redshift) ditetapkan sebagai tujuan yang Anda pilih, maka pengaturan ini menunjukkan jika Anda ingin mencadangkan semua data sumber atau data yang gagal saja.
+ Bucket cadangan S3 - ini adalah bucket S3 tempat Amazon Data Firehose mencadangkan data Anda.
+ Awalan bucket cadangan S3 - ini adalah awalan tempat Amazon Data Firehose mencadangkan data Anda.
+ Awalan keluaran kesalahan bucket cadangan S3 - semua data yang gagal dicadangkan dalam awalan keluaran kesalahan bucket S3 ini.
+ Petunjuk penyangga, kompresi, dan enkripsi untuk pencadangan - Amazon Data Firehose menggunakan Amazon S3 untuk mencadangkan semua atau hanya gagal data yang coba dikirim ke tujuan yang Anda pilih. Amazon Data Firehose menyangga data yang masuk sebelum mengirimkannya (mencadangkannya) ke Amazon S3. Anda dapat memilih ukuran buffer 1—128 MiBs dan interval buffer 60—900 detik. Syarat pertama yang dipenuhi memicu pengiriman data ke Amazon S3. Jika Anda mengaktifkan transformasi data, interval buffer berlaku dari waktu data yang diubah diterima oleh Amazon Data Firehose hingga pengiriman data ke Amazon S3. Jika pengiriman data ke tujuan tertinggal dari penulisan data ke aliran Firehose, Amazon Data Firehose meningkatkan ukuran buffer secara dinamis untuk mengejar ketinggalan. Tindakan ini membantu memastikan bahwa semua data dikirim ke tujuan. 
+ Kompresi S3 - pilih kompresi data Snappy, Snappy, Zip, atau Hadoop-Compatible Snappy, atau tidak ada kompresi data. Kompresi Snappy Snappy, Zip, dan Hadoop-Compatible Snappy tidak tersedia untuk aliran Firehose dengan Amazon Redshift sebagai tujuannya. 
+ Format ekstensi file S3 (opsional) — Tentukan format ekstensi file untuk objek yang dikirim ke bucket tujuan Amazon S3. Jika Anda mengaktifkan fitur ini, ekstensi file yang ditentukan akan mengganti ekstensi file default yang ditambahkan oleh Konversi Format Data atau fitur kompresi S3 seperti.parquet atau.gz. Pastikan jika Anda mengonfigurasi ekstensi file yang benar saat Anda menggunakan fitur ini dengan Konversi Format Data atau kompresi S3. Ekstensi file harus dimulai dengan titik (.) dan dapat berisi karakter yang diizinkan: 0-9a-z\$1 -\$1.\$1' (). Ekstensi file tidak boleh melebihi 128 karakter.
+ Firehose mendukung enkripsi sisi server Amazon S3 AWS Key Management Service dengan (SSE-KMS) untuk mengenkripsi data yang dikirimkan di Amazon S3. Anda dapat memilih untuk menggunakan jenis enkripsi default yang ditentukan dalam bucket S3 tujuan atau untuk mengenkripsi dengan kunci dari daftar AWS KMS kunci yang Anda miliki. Jika Anda mengenkripsi data dengan AWS KMS kunci, Anda dapat menggunakan kunci AWS terkelola default (aws/s3) atau kunci yang dikelola pelanggan. Untuk informasi selengkapnya, lihat [Melindungi Data Menggunakan Enkripsi Sisi Server dengan Kunci yang Dikelola KMS ( AWS SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Konfigurasikan petunjuk buffering
<a name="buffering-hints"></a>

Amazon Data Firehose menyangga data streaming yang masuk dalam memori ke ukuran tertentu (ukuran buffering) dan untuk jangka waktu tertentu (interval buffering) sebelum mengirimkannya ke tujuan yang ditentukan. Anda akan menggunakan petunjuk buffering ketika Anda ingin mengirimkan file berukuran optimal ke Amazon S3 dan mendapatkan kinerja yang lebih baik dari aplikasi pemrosesan data atau untuk menyesuaikan tingkat pengiriman Firehose agar sesuai dengan kecepatan tujuan.

Anda dapat mengonfigurasi ukuran buffering dan interval buffer sambil membuat aliran Firehose baru atau memperbarui ukuran buffering dan interval buffering pada aliran Firehose yang ada. Ukuran buffering diukur dalam MBs dan interval buffering diukur dalam hitungan detik. Akan tetapi, jika Anda menentukan nilai untuk salah satunya, Anda juga harus menyediakan nilai untuk yang lain. Kondisi buffer pertama yang puas memicu Firehose untuk mengirimkan data. Jika Anda tidak mengonfigurasi nilai buffering, maka nilai default akan digunakan.

Anda dapat mengonfigurasi petunjuk buffering Firehose melalui,, atau. Konsol Manajemen AWS AWS Command Line Interface AWS SDKs Untuk aliran yang ada, Anda dapat mengonfigurasi ulang petunjuk buffering dengan nilai yang sesuai dengan kasus penggunaan menggunakan opsi **Edit** di konsol atau menggunakan API. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Untuk aliran baru, Anda dapat mengonfigurasi petunjuk buffering sebagai bagian dari pembuatan aliran baru menggunakan konsol atau menggunakan API. [CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html) Untuk menyesuaikan ukuran buffering, atur `SizeInMBs` dan `IntervalInSeconds` di `DestinationConfiguration` parameter spesifik tujuan [CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html)atau [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html)API. 

**catatan**  
Petunjuk buffer diterapkan pada tingkat pecahan atau partisi, sementara petunjuk buffer partisi dinamis diterapkan pada tingkat aliran atau topik.
Untuk memenuhi latensi yang lebih rendah dari kasus penggunaan waktu nyata, Anda dapat menggunakan petunjuk interval buffering nol. Saat Anda mengonfigurasi interval buffering sebagai nol detik, Firehose tidak akan menyangga data dan akan mengirimkan data dalam beberapa detik. Sebelum Anda mengubah petunjuk buffering ke nilai yang lebih rendah, tanyakan kepada vendor untuk petunjuk buffering Firehose yang direkomendasikan untuk tujuan mereka.
Fitur buffering nol hanya tersedia untuk tujuan aplikasi dan tidak tersedia untuk tujuan cadangan Amazon S3.
Fitur buffering nol tidak tersedia untuk partisi dinamis.
Firehose menggunakan unggahan multi-bagian untuk tujuan S3 saat Anda mengonfigurasi interval waktu buffer kurang dari 60 detik untuk menawarkan latensi yang lebih rendah. Karena unggahan multi-bagian untuk tujuan S3, Anda akan melihat beberapa peningkatan biaya `PUT` API S3 jika Anda memilih interval waktu buffer kurang dari 60 detik.

Untuk rentang petunjuk buffering spesifik tujuan dan nilai default, lihat tabel berikut:


| Destinasi | Ukuran buffering dalam MB (default dalam tanda kurung) | Interval buffering dalam hitungan detik (default dalam tanda kurung) | 
| --- | --- | --- | 
| Amazon S3 | 1-128 (5) | 0-900 (300) | 
| Tabel Gunung Es Apache | 1-128 (5) | 0-900 (300) | 
| Amazon Redshift | 1-128 (5)  | 0-900 (300) | 
| OpenSearch Tanpa server | 1-100 (5)  | 0-900 (300) | 
| OpenSearch | 1-100 (5) | 0-900 (300) | 
| Splunk | 1-5 (5) | 0-60 (60) | 
| Datadog | 1-4 (4) | 0-900 (60) | 
| Coralogix | 1-64 (6) | 0-900 (60) | 
| Dynatrace | 1-64 (5) | 0-900 (60) | 
| Elastis | 1 | 0-900 (60) | 
| Honeycomb | 1-64 (15) | 0-900 (60) | 
| Titik akhir HTTP | 1-64 (5) | 0-900 (60) | 
| LogicMonitor | 1-64 (5) | 0-900 (60) | 
| Logzio | 1-64 (5) | 0-900 (60) | 
| MongoDB  | 1-16 (5) | 0-900 (60) | 
| NewRelic | 1-64 (5) | 0-900 (60) | 
| SumoLogic | 1-64 (1) | 0-900 (60) | 
| Cloud Observabilitas Splunk  | 1-64 (1) | 0-900 (60) | 
| Kepingan salju | 1 - 128 (1) | 0 - 900 (0) | 

# Mengonfigurasi pengaturan lanjutan
<a name="create-configure-advanced"></a>

Bagian berikut berisi detail tentang pengaturan lanjutan untuk aliran Firehose Anda.
+ Enkripsi sisi server - Amazon Data Firehose mendukung enkripsi sisi server Amazon S3 AWS dengan Key Management Service (AWS KMS) untuk mengenkripsi data yang dikirimkan di Amazon S3. Untuk informasi selengkapnya, lihat [Melindungi Data Menggunakan Enkripsi Sisi Server dengan Kunci Terkelola KMS ( AWS SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html).
+ Pencatatan kesalahan - Amazon Data Firehose mencatat kesalahan yang terkait dengan pemrosesan dan pengiriman. Selain itu, ketika transformasi data diaktifkan, ia dapat mencatat pemanggilan Lambda dan mengirim kesalahan pengiriman data ke Log. CloudWatch Untuk informasi selengkapnya, lihat [Pantau Amazon Data Firehose Menggunakan Log CloudWatch](monitoring-with-cloudwatch-logs.md).
**penting**  
Meskipun opsional, mengaktifkan pencatatan kesalahan Amazon Data Firehose selama pembuatan aliran Firehose sangat disarankan. Praktik ini memastikan bahwa Anda dapat mengakses detail kesalahan jika terjadi pemrosesan catatan atau kegagalan pengiriman.
+ Izin - Amazon Data Firehose menggunakan peran IAM untuk semua izin yang dibutuhkan aliran Firehose. Anda dapat memilih untuk membuat peran baru di mana izin yang diperlukan ditetapkan secara otomatis, atau memilih peran yang sudah ada yang dibuat untuk Amazon Data Firehose. Peran ini digunakan untuk memberikan akses Firehose ke berbagai layanan, termasuk bucket S3, kunci AWS KMS (jika enkripsi data diaktifkan), dan fungsi Lambda (jika transformasi data diaktifkan). Konsol dapat membuat peran dengan placeholder. Untuk informasi lebih lanjut, lihat [Apa itu IAM?](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) . 
**catatan**  
Peran IAM (termasuk placeholder) dibuat berdasarkan konfigurasi yang Anda pilih saat membuat aliran Firehose. Jika Anda membuat perubahan apa pun pada sumber atau tujuan aliran Firehose, Anda harus memperbarui peran IAM secara manual.
+ Tag - Anda dapat menambahkan tag untuk mengatur AWS sumber daya Anda, melacak biaya, dan mengontrol akses.

  Jika Anda menentukan tag dalam `CreateDeliveryStream` tindakan, Amazon Data Firehose akan melakukan otorisasi tambahan pada `firehose:TagDeliveryStream` tindakan tersebut untuk memverifikasi apakah pengguna memiliki izin untuk membuat tag. Jika Anda tidak memberikan izin ini, permintaan untuk membuat aliran Firehose baru dengan tag sumber daya IAM akan gagal dengan hal seperti berikut. `AccessDeniedException`

  ```
  AccessDeniedException 
  User: arn:aws:sts::x:assumed-role/x/x is not authorized to perform: firehose:TagDeliveryStream on resource: arn:aws:firehose:us-east-1:x:deliverystream/x with an explicit deny in an identity-based policy.
  ```

  Contoh berikut menunjukkan kebijakan yang memungkinkan pengguna membuat aliran Firehose dan menerapkan tag.

Setelah Anda memilih pengaturan cadangan dan lanjutan, tinjau pilihan Anda, lalu pilih **Create Firehose stream**.

Aliran Firehose baru membutuhkan beberapa saat dalam status **Membuat** sebelum tersedia. Setelah aliran Firehose Anda dalam status **Aktif**, Anda dapat mulai mengirim data ke sana dari produsen Anda.