

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# チュートリアル: コンソールから Firehose ストリームを作成する
<a name="basic-create"></a>

 AWS マネジメントコンソール または AWS SDK を使用して、選択した送信先への Firehose ストリームを作成できます。

Firehose ストリームの設定は、Amazon Data Firehose コンソールまたは [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) を使用して、作成後にいつでも更新できます。設定の更新中は Firehose ストリームは `Active` 状態のままとなり、データの送信を続行できます。通常、更新された設定は数分以内に有効になります。設定を更新する度に、Firehose ストリームのバージョン番号は `1` の値ずつ上がり、配信される Amazon S3 オブジェクト名に反映されます。詳細については、「[Amazon S3 オブジェクト名の形式を設定する](s3-object-name.md)」を参照してください。

Firehose ストリームを作成するには、次のトピックのステップを実行します。

**Topics**
+ [

# Firehose ストリームのソースと宛先を選択する
](create-name.md)
+ [

# ソース設定を構成する
](configure-source.md)
+ [

# (オプション) レコード変換と形式転換を設定する
](create-transform.md)
+ [

# 宛先の設定を構成する
](create-destination.md)
+ [

# バックアップの設定を構成する
](create-configure-backup.md)
+ [

# 詳細設定の設定
](create-configure-advanced.md)

# Firehose ストリームのソースと宛先を選択する
<a name="create-name"></a>

****

1. Firehose コンソール ([https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/)) を開きます。

1. **[Firehose ストリームを作成]** を選択します。

1. **[Firehose ストリームを作成]** ページで、次のいずれかのオプションから Firehose ストリームのソースを選択します。
   + **Direct PUT** – プロデューサーアプリケーションが直接書き込む Firehose ストリームを作成するときは、こちらを選択します。Amazon Data Firehose の Direct PUT と統合する AWS サービス、エージェント、オープンソースサービスのリストを次に示します。このリストは網羅的なものではなく、Firehose に直接データを送信するために使用できる他のサービスが存在する可能性もあります。
     + AWS SDK
     + AWS Lambda
     + AWS CloudWatch Logs
     + AWS CloudWatch Events
     + AWS Cloud メトリクスストリーム
     + AWS IoT
     + AWS Eventbridge
     + Amazon Simple Email Service
     + Amazon SNS
     + AWS WAF ウェブ ACL ログ
     + Amazon API Gateway - アクセスログ
     + Amazon Pinpoint
     + Amazon MSK ブローカーログ
     + Amazon Route 53 Resolver クエリログ
     + AWS Network Firewall アラートログ
     + AWS Network Firewall フローログ
     + Amazon Elasticache Redis SLOWLOG
     + Kinesis Agent (linux)
     + Kinesis Tap (windows)
     + Fluentbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data Streams** – Kinesis データストリームをデータソースとして使用する Firehose ストリームを設定するには、このオプションを選択します。これで、Firehose を使用して、既存の Kinesis データストリームからデータを簡単に読み取り、宛先にロードすることができるようになります。Kinesis Data Streams をデータソースとして使用する方法の詳細については、「[Sending data to a Firehose stream with Kinesis Data Streams](writing-with-kinesis-streams.md)」を参照してください。
   + **Amazon MSK** – Amazon MSK をデータソースとして使用するように Firehose ストリームを設定するときは、このオプションを選択します。これで、Firehose を使用して既存の Amazon MSK クラスターから簡単にデータを読み込み、指定した S3 バケットにロードすることができます。詳細については、「[Sending data to a Firehose stream with Amazon MSK](writing-with-msk.md)」を参照してください。

1. Firehose がサポートする次のいずれかの宛先から、Firehose ストリームの宛先を選択します。
   + Amazon OpenSearch Service
   + Amazon OpenSearch Serverless
   + Amazon Redshift
   + Amazon S3
   + Apache Iceberg テーブル
   + Coralogix
   + Datadog
   + Dynatrace
   + Elastic
   + HTTP エンドポイント
   + Honeycomb
   + Logic Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. **[Firehose ストリーム名]** で、コンソールが生成する名前を使用するか、任意の Firehose ストリームを追加できます。

# ソース設定を構成する
<a name="configure-source"></a>

ソース設定は、コンソールから Firehose ストリームに情報を送信するために選択するソースに基づいて設定できます。Amazon MSK および Amazon Kinesis Data Streams のソース設定をソースとして構成できます。Direct PUT のためにソースとして使用できるソース設定はありません。

# Amazon MSK のソース設定を構成する
<a name="writing-with-msk"></a>

Amazon MSK を選択して Firehose ストリームに情報を送信する場合は、MSK プロビジョンドクラスターと MSK サーバーレスクラスターから選択できます。これで、Firehose を使用して、特定の Amazon MSK クラスターとトピックから簡単に読み取りを行い、これを指定した S3 宛先にロードすることができるようになります。

このページにある **[ソース設定]** セクションで、次のフィールドに値を入力します。

****Amazon MSK クラスター接続****  
クラスター設定に基づいて、**[プライベートブートストラップブローカー]** (推奨) か **[パブリックブートストラップブローカー]**] のいずれかを選択します。ブートストラップブローカーは、Apache Kafka クライアントがクラスターに接続するときの出発点として使用するものです。パブリックブートストラップブローカーは AWS の外部からのパブリックアクセスが対象で、プライベートブートストラップブローカーは AWS の内部からのアクセスが対象です。詳細については、「[Amazon Managed Streaming for Apache Kafka](https://docs.aws.amazon.com/msk/latest/developerguide/what-is-msk.html)」を参照してください。  
プライベートブートストラップブローカーを介して Amazon MSK プロビジョンドクラスターまたはサーバーレスクラスターに接続するには、クラスターが以下の要件をすべて満たしている必要があります。  
+ クラスターがアクティブである必要があります。
+ アクセスコントロール方法の 1 つとしてクラスターが IAM を持っている必要があります。
+ IAM アクセスコントロール方法でマルチ VPC プライベート接続が有効になっている必要があります。
+ このクラスターに、Amazon MSK `CreateVpcConnection` API オペレーションを呼び出す許可を Firehose サービスプリンシパルに付与するリソースベースのポリシーを追加する必要があります。
パブリックブートストラップブローカーを介して Amazon MSK プロビジョンドクラスターに接続するには、クラスターが以下の要件をすべて満たしている必要があります。  
+ クラスターがアクティブである必要があります。
+ アクセスコントロール方法の 1 つとしてクラスターが IAM を持っている必要があります。
+ クラスターはパブリックにアクセス可能でなければなりません。

****MSK クラスターアカウント****  
Amazon MSK クラスターが存在するアカウントを選択できます。これには、次のいずれかを指定できます。  
+ **[現在のアカウント]** – 現在の AWS アカウントの MSK クラスターからデータを取り込むことを許可します。そのためには、Firehose ストリームがデータを読み取る Amazon MSK クラスターの ARN を指定する必要があります。
+ **[クロスアカウント]** – 別の AWS アカウントの MSK クラスターからデータを取り込むことを許可します。詳細については、「[Amazon MSK からのクロスアカウント配信](controlling-access.md#cross-account-delivery-msk)」を参照してください。

****トピック****  
Firehose ストリームでデータを取り込む Apache Kafka トピックを指定します。Firehose ストリームの作成が完了した後に、このトピックを更新することはできません。  
Firehose は Apache Kafka メッセージを自動解凍します。

# Amazon Kinesis Data Streams のソース設定を構成する
<a name="writing-with-kinesis-streams"></a>

Amazon Kinesis Data Streams のソース設定を構成して、次のように Firehose ストリームに情報を送信します。

**重要**  
Kinesis Producer Library (KPL) を使用して Kinesis データストリームにデータを書き込む場合、集約を使用してその Kinesis データストリームに書き込むレコードを結合できます。その後そのデータストリームを Firehose ストリームのソースとして使用する場合、Amazon Data Firehose はレコードの集約を解除してから宛先に配信します。データを変換するように Firehose ストリームを設定する場合、Amazon Data Firehose はレコードの集約を解除してから AWS Lambda に配信します。詳細については、「[Kinesis Producer Library を使用した Amazon Kinesis Data Streams プロデューサーの開発](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html)」および「[集約](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation)」を参照してください。

**[ソース設定]** で、**[Kinesis データストリーム]** リストで既存のストリームを選択するか、または形式 `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]` でデータストリーム ARN を入力します。

既存のデータストリームがない場合は、**[作成]** を選択して、Amazon Kinesis コンソールから新しいデータストリームを作成します。Kinesis ストリームに必要な許可を持つ IAM ロールが必要な場合があります。詳細については、「[Firehose に Amazon S3 宛先へのアクセスを付与する](controlling-access.md#using-iam-s3)」を参照してください。新しいストリームを作成した後に、[更新] アイコンを選択して **[Kinesis ストリーム]** のリストを更新します。多数のストリームがある場合は、[**Filter by name**] を使用してリストをフィルタリングします。

**注記**  
Firehose ストリームのソースとして Kinesis データストリームを設定すると、Amazon Data Firehose の `PutRecord` および `PutRecordBatch` オペレーションは無効になります。この場合、Firehose ストリームにデータを追加するには、Kinesis Data Streams の `PutRecord` および `PutRecords` オペレーションを使用します。

Amazon Data Firehose は、Kinesis ストリームの `LATEST` の場所からデータの読み取りを開始します。Kinesis Data Streams の場所の詳細については、「[GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html)」を参照してください。

 Amazon Data Firehose は、Kinesis Data Streams の [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html) オペレーションを各シャードにつき 1 秒に 1 回呼び出します。ただし、フルバックアップが有効になっている場合、Firehose は、各シャードについて 1 秒に 2 回、Kinesis Data Streams `GetRecords` オペレーションを呼び出します。1 つは主な配信先用、もう 1 つはフルバックアップ用です。

複数の Firehose ストリームが同じ Kinesis ストリームから読み取ることができます。他の Kinesis アプリケーション (コンシューマー) も同じストリームから読み取ることができます。任意の Firehose ストリームまたは他のコンシューマーアプリケーションからの呼び出しはすべて、シャードの全体的なスロットリング制限数に含まれます。スロットリングを回避するため、アプリケーションを注意深く計画してください。Kinesis Data Streams の制限事項の詳細については、「[Amazon Kinesis Streams の制限](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html)」を参照してください。

レコード変換と形式転換を設定するには、次のステップに進みます。

# (オプション) レコード変換と形式転換を設定する
<a name="create-transform"></a>

Amazon Data Firehose を設定して、レコードデータを変換します。

## Firehose ストリームのソースとして Amazon MSK を選択する場合
<a name="create-transform-msk"></a>

****AWS Lambda でソースレコードを変換**セクションで、次のフィールドに値を指定します。**

1.   
**データ変換**  
着信データを変換しない Firehose ストリームを作成するには、**[データ変換を有効にする]** チェックボックスのチェックを外します。  
着信データを配信前に変換するために Firehose が呼び出し、使用する Lambda 関数を指定するには、**[データ変換を有効にする]** を選択します。いずれかの Lambda 設計図を使用して新しい Lambda 関数を設定するか、既存の Lambda 関数を選択することができます。Lambda 関数には、Firehose に必要なステータスモデルが含まれる必要があります。詳細については、「[Amazon Data Firehose でソースデータを変換する](data-transformation.md)」を参照してください。

1. [**Convert record format (レコード形式を変換)**] セクションで、次のフィールドに値を入力します。  
**レコード形式の変換**  
入力データの形式を変換しない Firehose ストリームを作成するには、**[無効]** を選択します。  
受信レコードの形式を変換するには、[**Enabled (有効)**] を選択し、目的の出力形式を指定します。Firehose がレコード形式を変換するために使用するスキーマを保持する AWS Glue テーブルを指定する必要があります。詳細については、「[Amazon Data Firehose で入力データ形式を変換する](record-format-conversion.md)」を参照してください。  
を使用してレコード形式の変換を設定する方法の例については CloudFormation、[AWS「::KinesisFirehose::DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples)」を参照してください。

## Firehose ストリームのソースとして Amazon Kinesis Data Streams または Direct PUT を選択する場合
<a name="create-transform-directput"></a>

 

****[ソース設定]** セクションで、次のフィールドを入力します。**

1. **[レコードを変換]** で、次のいずれかを選択します。

   1. 宛先が Amazon S3 または Splunk の場合、**[Amazon CloudWatch Logs でソースレコードを解凍]** セクションで、**[解凍をオンにする]** を選択します。

   1. ** AWS Lambda を使用したソースレコードの変換**セクションで、次のフィールドの値を指定します。  
**データ変換**  
着信データを変換しない Firehose ストリームを作成するには、**[データ変換を有効にする]** チェックボックスのチェックを外します。  
着信データを配信前に変換するために Amazon Data Firehose が呼び出し、使用する Lambda 関数を指定するには、**[データ変換を有効にする]** を選択します。いずれかの Lambda 設計図を使用して新しい Lambda 関数を設定するか、既存の Lambda 関数を選択することができます。Lambda 関数には、Amazon Data Firehose に必要なステータスモデルが含まれる必要があります。詳細については、「[Amazon Data Firehose でソースデータを変換する](data-transformation.md)」を参照してください。

1. [**Convert record format (レコード形式を変換)**] セクションで、次のフィールドに値を入力します。  
**レコード形式の変換**  
入力データの形式を変換しない Firehose ストリームを作成するには、**[無効]** を選択します。  
受信レコードの形式を変換するには、[**Enabled (有効)**] を選択し、目的の出力形式を指定します。Amazon Data Firehose がレコード形式を変換するために使用するスキーマを保持する AWS Glue テーブルを指定する必要があります。詳細については、「[Amazon Data Firehose で入力データ形式を変換する](record-format-conversion.md)」を参照してください。  
でレコード形式変換を設定する方法の例については CloudFormation、[AWS「::KinesisFirehose::DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples)」を参照してください。

# 宛先の設定を構成する
<a name="create-destination"></a>

このセクションでは、選択した宛先に基づいて Firehose ストリームのために構成する必要がある設定について説明します。

**Topics**
+ [

## Amazon S3 の宛先の設定を構成する
](#create-destination-s3)
+ [

## Apache Iceberg テーブルの宛先の設定を構成する
](#create-destination-iceberg)
+ [

## Amazon Redshift の宛先の設定を構成する
](#create-destination-redshift)
+ [

## OpenSearch Service の宛先の設定を構成する
](#create-destination-elasticsearch)
+ [

## OpenSearch Serverless の宛先の設定を構成する
](#create-destination-opensearch-serverless)
+ [

## HTTP エンドポイントの宛先の設定を構成する
](#create-destination-http)
+ [

## Datadog の宛先の設定を構成する
](#create-destination-datadog)
+ [

## Honeycomb の宛先の設定を構成する
](#create-destination-honeycomb)
+ [

## Coralogix の宛先の設定を構成する
](#create-destination-coralogix)
+ [

## Dynatrace の宛先の設定を構成する
](#create-destination-dynatrace)
+ [

## LogicMonitor の宛先の設定を構成する
](#create-destination-logicmonitor)
+ [

## Logz.io の宛先の設定を構成する
](#create-destination-logz)
+ [

## MongoDB Atlas の送信先の設定を構成する
](#create-destination-mongodb)
+ [

## New Relic の宛先の設定を構成する
](#create-destination-new-relic)
+ [

## Snowflake の宛先の設定を構成する
](#create-destination-snowflake)
+ [

## Splunk の宛先の設定を構成する
](#create-destination-splunk)
+ [

## Splunk Observability Cloud の宛先の設定を構成する
](#create-destination-splunk-cloud)
+ [

## Sumo Logic の宛先の設定を構成する
](#create-destination-sumo-logic)
+ [

## Elastic の宛先の設定を構成する
](#create-destination-elastic)

## Amazon S3 の宛先の設定を構成する
<a name="create-destination-s3"></a>

Firehose ストリームの宛先として Amazon S3 を使用するには、次の設定を指定する必要があります。

****
+ 以下のフィールドに値を入力します。  
 **S3 バケット**   
ストリーミングデータの配信先となる、お客様が所有している S3 バケットを選択します。新しい S3 バケットを作成するか、既存のバケットを選択することができます。  
 **改行区切り記号**   
Amazon S3 に配信されるオブジェクトのレコード間に改行区切り記号を追加するように Firehose ストリームを設定できます。これを行うには、[**[Enabled (有効)]** をクリックします。Amazon S3 に配信されるオブジェクトのレコード間に改行区切り文字を追加しない場合は、 [**Disabled (無効)**] をクリックします。集約されたレコードを持つ S3 オブジェクトを、Athena を使用してクエリする場合は、このオプションを有効にします。  
 **動的パーティショニング**   
**[Enabled (有効)]** をクリックして、動的パーティショニングを有効にして設定します。  
 **マルチレコードの集約解除**   
これは、Firehose ストリーム内のレコードを解析し、有効な JSON または指定された改行区切り文字に基づいてレコードを分離するプロセスです。  
複数のイベント、ログ、またはレコードを 1 つの PutRecord および PutRecordBatch API コールに集約した場合でも、動的パーティショニングを有効にして設定できます。集約データでは、動的パーティショニングを有効にすると、Amazon Data Firehose はレコードを解析し、各 API コール内で複数の有効な JSON オブジェクトを検索します。Firehose ストリームがソースとして Kinesis Data Stream で設定されている場合、Kinesis Producer Library (KPL) の組み込み集約を使用することもできます。データパーティション機能は、データが集約解除された後に実行されます。したがって、各 API コールの各レコードを異なる Amazon S3 プレフィックスに配信できます。また、Lambda 関数の統合を活用して、データパーティショニング機能の前に、他の集約解除や他の変換を実行することもできます。  
データが集約されている場合、動的パーティショニングは、データの集約解除が実行された後にのみ適用できます。したがって、集約データに対して動的パーティショニングを有効にする場合は、**[Enabled (有効)]** をクリックして、マルチレコード集約解除を有効にします。
Firehose ストリームは、KPL (protobuf) の集約解除、JSON または区切り文字の集約解除、Lambda 処理、データパーティショニング、データ形式変換、および Amazon S3 配信の順序で処理ステップを実行します。  
 **マルチレコードの集約解除のタイプ**   
マルチレコードの集約解除を有効にした場合、Firehose でデータを集約解除する方法を指定する必要があります。ドロップダウンメニューから [**JSON**] または [**Delimited (区切り)**] をクリックします。  
 **インライン解析**   
これは、Amazon S3 にバインドされたデータの動的パーティショニングを行うためにサポートされているメカニズムの 1 つです。データの動的パーティショニングにインライン解析を使用するには、パーティショニングキーとして使用するデータレコードパラメータを指定し、指定したパーティショニングキーの値を提供する必要があります。**[Enabled (有効)]** をクリックして、インライン解析を有効にして設定します。  
上記のステップでソースレコードを変換するために AWS Lambda 関数を指定した場合、この関数を使用して S3 にバインドされたデータを動的にパーティション分割し、インライン解析を使用してパーティショニングキーを作成できます。動的パーティショニングでは、インライン解析または AWS Lambda 関数を使用してパーティショニングキーを作成できます。または、インライン解析と AWS Lambda 関数の両方を同時に使用して、パーティショニングキーを作成できます。  
 **動的パーティショニングキー**   
[**キー**] および [**値**] フィールドを使用して、動的パーティションニングキーとして使用するデータレコードパラメータを指定し、動的パーティショニングキーの値を生成するための jq クエリを指定することができますます。Firehose では jq 1.6 のみをサポートしています。最大 50 個の動的パーティショニングキーを指定できます。Firehose ストリームの動的パーティショニングを正常に設定するには、動的パーティショニングキーの値に有効な jq 式を入力する必要があります。  
 **S3 バケットプレフィックス**   
動的パーティショニングを有効にして設定する場合は、Amazon Data Firehose がパーティション化されたデータを配信する S3 バケットプレフィックスを指定する必要があります。  
動的パーティショニングを正しく設定するには、S3 バケットプレフィクスの数が、指定したパーティショニングキーの数と同じである必要があります。  
 ソースデータは、インライン解析または指定した AWS Lambda 関数でパーティション化できます。ソースデータのパーティショニングキーを作成するために AWS Lambda 関数を指定した場合、「partitionKeyFromLambda:keyID」の形式を使用して S3 バケットプレフィックス値を手動で入力する必要があります。インライン解析を使用してソースデータのパーティショニングキーを指定する場合は、「partitionKeyFromQuery:keyID」の形式を使用して S3 バケットプレビューの値を手動で入力するか、[**動的パーティショニングキーの適用**] ボタンをクリックし、動的パーティショニングキーと値のペアを使用して S3 バケットプレフィックスを自動生成することができます。インライン解析または AWS Lambda を使用してデータをパーティション化するときに、S3 バケットプレフィックス \$1\$1namespace:value\$1 で次の式フォームを使用することもできます。ここで、名前空間は partitionKeyFromQuery または partitionKeyFromLambda のいずれかになります。  
 **S3 バケットと S3 エラー出力プレフィックスのタイムゾーン**   
[Amazon S3 オブジェクトのカスタムプレフィックス](s3-prefixes.md)で日付と時刻で使用するタイムゾーンを選択します。デフォルトでは、Firehose は時刻プレフィックスを UTC で追加します。異なるタイムゾーンを使用する場合は、S3 プレフィックスで使用されるタイムゾーンを変更できます。  
 **バッファリングのヒント**   
Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
 **S3 圧縮**   
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮、またはデータ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームには使用できません。  
**S3 のファイル拡張子の形式 (オプション)**  
Amazon S3 の宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z\$1-\$1.\$1‘()。ファイル拡張子は最大 128 文字です。  
**S3 暗号化**  
Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、[AWS 「KMS マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)」を参照してください。

## Apache Iceberg テーブルの宛先の設定を構成する
<a name="create-destination-iceberg"></a>

Firehose は、中国リージョン、アジアパシフィック (台北）、アジアパシフィック (マレーシア）、アジアパシフィック (ニュージーランド) AWS GovCloud (US) Regions、メキシコ (中部) [AWS リージョン](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html?icmpid=docs_homepage_addtlrcs#region)を除くすべての で Apache Iceberg Tables を送信先としてサポートしています。

宛先としての Apache Iceberg テーブルの詳細については、「[Amazon Data Firehose を使用して Apache Iceberg テーブルにデータを配信する](apache-iceberg-destination.md)」を参照してください。

## Amazon Redshift の宛先の設定を構成する
<a name="create-destination-redshift"></a>

このセクションでは、Firehose ストリームの宛先として Amazon Redshift を使用するための設定について説明します。

Amazon Redshift プロビジョンドクラスターまたは Amazon Redshift Serverless ワークグループのどちらを使用しているかに基づき、以下の手順のいずれかを選択します。
+ [Amazon Redshift プロビジョンドクラスター](#create-destination-redshift-provisioned)
+ [Amazon Redshift Serverless ワークグループの宛先の設定を構成する](#create-destination-redshift-serverless)
**注記**  
Firehose は、拡張 VPC ルーティングを使用する Amazon Redshift クラスターに書き込むことはできません。

### Amazon Redshift プロビジョンドクラスター
<a name="create-destination-redshift-provisioned"></a>

このセクションでは、Firehose ストリームの宛先として Amazon Redshift プロビジョンドクラスターを使用するときの設定について説明します。

****
+ 以下のフィールドに値を入力します。  
 **クラスター**   
S3 バケットデータのコピー先となる Amazon Redshift クラスター。Amazon Redshift クラスターをパブリックアクセス可能に設定し、Amazon Data Firehose の IP アドレスをブロック解除します。詳細については、「[Amazon Redshift の宛先へのアクセスを Firehose に付与する](controlling-access.md#using-iam-rs)」を参照してください。  
 **認証**   
ユーザー名/パスワードを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Amazon Redshift クラスターにアクセスするかを選択できます。  
  + **[ユーザーネーム]** 

    Amazon Redshift クラスターへの許可がある Amazon Redshift ユーザーを指定します。このユーザーには、S3 バケットから Amazon Redshift クラスターにデータをコピーする Amazon Redshift `INSERT` アクセス許可が必要です。
  + **[パスワード]** 

    クラスターへの許可を持つユーザーのパスワードを指定します。
  + **シークレット**

    Amazon Redshift クラスターの認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、Amazon Redshift の認証情報用に AWS Secrets Manager でシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **データベース**   
データのコピー先となる Amazon Redshift データベース。  
 **テーブル**   
データのコピー先となる Amazon Redshift テーブル。  
 **列**   
(オプション) データのコピー先となるテーブル内の特定の列。Amazon S3 オブジェクトで定義した列数が Amazon Redshift テーブル内の列数より少ない場合に、このオプションを使用します。  
 **中間の S3 送信先**   <a name="redshift-s3-bucket"></a>
Firehose は最初にデータを S3 バケットに配信してから、Amazon Redshift **COPY** コマンドを発行してデータを Amazon Redshift クラスターにロードします。ストリーミングデータの配信先となる、お客様が所有している S3 バケットを指定します。新しい S3 バケットを作成するか、お客様が所有する既存のバケットを選択します。  
Firehose は、Amazon Redshift クラスターにロードした後で S3 バケットからデータを削除することはしません。ライフサイクル設定を使用して、S3 バケットでデータを管理できます。詳細については、*Amazon Simple Storage Service ユーザーガイド*の「[オブジェクトのライフサイクルの管理](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html)」を参照してください。  
 **中間の S3 プレフィックス**   
(オプション) Amazon S3 オブジェクトに対してデフォルトのプレフィックスを使用するには、このオプションを空白のままにします。Firehose は、Amazon S3 オブジェクトに提供された「`YYYY/MM/dd/HH`」UTC 時間形式をプレフィックスで自動的に使用する点に注意してください。このプレフィックスの開始に追加できます。詳細については、「[Amazon S3 オブジェクト名の形式を設定する](s3-object-name.md)」を参照してください。  
 **COPY オプション**   <a name="redshift-copy-parameters"></a>
Amazon Redshift **COPY** コマンドで指定できるパラメータです。これらのパラメータは、設定に必要になる場合があります。例えば、Amazon S3 データ圧縮が有効になっている場合は`GZIP`「」が必要です。S3 バケットが Amazon Redshift クラスターと同じ AWS リージョンにない場合は`REGION`「」が必要です。詳細については、*Amazon Redshift データベース開発者ガイド*の「[COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)」を参照してください。  
 **COPY コマンド**   <a name="redshift-copy-command"></a>
Amazon Redshift **COPY** コマンド。詳細については、*Amazon Redshift データベース開発者ガイド*の「[COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)」を参照してください。  
 **再試行の期間**   
Amazon Redshift クラスターへのデータ **COPY** が失敗した場合に Firehose が再試行する時間 (0～7200 秒)です。Firehose は再試行の期間が終了するまで 5 分ごとに再試行します。再試行の期間を 0 (ゼロ) 秒に設定した場合、Firehose は **COPY** コマンドが失敗しても再試行しません。  
 **バッファリングのヒント**   
Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
 **S3 圧縮**   
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮、またはデータ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームには使用できません。  
**S3 のファイル拡張子の形式 (オプション)**  
S3 のファイル拡張子の形式 (オプション) – Amazon S3 宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z\$1-\$1.\$1‘()。ファイル拡張子は最大 128 文字です。  
**S3 暗号化**  
Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、[AWS 「KMS マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)」を参照してください。

### Amazon Redshift Serverless ワークグループの宛先の設定を構成する
<a name="create-destination-redshift-serverless"></a>

このセクションでは、Firehose ストリームの宛先として Amazon Redshift Serverless ワークグループを使用するときの設定について説明します。

****
+ 以下のフィールドに値を入力します。  
 **ワークグループ名**   
S3 バケットデータのコピー先となる Amazon Redshift Serverless ワークグループ。Amazon Redshift Serverless ワークグループをパブリックアクセス可能に設定し、Firehose の IP アドレスをブロック解除します。詳細については、「[Amazon Redshift Serverless への接続](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-connecting.html)」の「パブリックにアクセス可能なときの Amazon Redshift Serverless に接続する」と、「[Amazon Redshift の宛先へのアクセスを Firehose に付与する](controlling-access.md#using-iam-rs)」を参照してください。  
 **認証**   
ユーザー名/パスワードを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Amazon Redshift Serverless ワークグループにアクセスするかを選択できます。  
  + **[ユーザーネーム]** 

    Amazon Redshift Serverless ワークグループへの許可を持つ Amazon Redshift ユーザーを指定します。このユーザーには、S3 バケットから Amazon Redshift Serverless ワークグループにデータをコピーする Amazon Redshift `INSERT` アクセス許可が必要です。
  + **[パスワード]** 

    Amazon Redshift Serverless ワークグループにアクセスするための許可を持っているユーザーのパスワードを指定します。
  + **シークレット**

    Amazon Redshift Serverless ワークグループの認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、Amazon Redshift の認証情報用に AWS Secrets Manager でシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **データベース**   
データのコピー先となる Amazon Redshift データベース。  
 **テーブル**   
データのコピー先となる Amazon Redshift テーブル。  
 **列**   
(オプション) データのコピー先となるテーブル内の特定の列。Amazon S3 オブジェクトで定義した列数が Amazon Redshift テーブル内の列数より少ない場合に、このオプションを使用します。  
 **中間の S3 送信先**   <a name="redshift-s3-bucket"></a>
Amazon Data Firehose は最初にデータを S3 バケットに配信してから、Amazon Redshift **COPY** コマンドを発行してデータを Amazon Redshift Serverless ワークグループにロードします。ストリーミングデータの配信先となる、お客様が所有している S3 バケットを指定します。新しい S3 バケットを作成するか、お客様が所有する既存のバケットを選択します。  
Firehose は、Amazon Redshift Serverless ワークグループにロードした後は、S3 バケットからデータを削除しません。ライフサイクル設定を使用して、S3 バケットでデータを管理できます。詳細については、*Amazon Simple Storage Service ユーザーガイド*の「[オブジェクトのライフサイクルの管理](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html)」を参照してください。  
 **中間の S3 プレフィックス**   
(オプション) Amazon S3 オブジェクトに対してデフォルトのプレフィックスを使用するには、このオプションを空白のままにします。Firehose は、Amazon S3 オブジェクトに提供された「`YYYY/MM/dd/HH`」UTC 時間形式をプレフィックスで自動的に使用する点に注意してください。このプレフィックスの開始に追加できます。詳細については、「[Amazon S3 オブジェクト名の形式を設定する](s3-object-name.md)」を参照してください。  
 **COPY オプション**   <a name="redshift-copy-parameters"></a>
Amazon Redshift **COPY** コマンドで指定できるパラメータです。これらのパラメータは、設定に必要になる場合があります。例えば、Amazon S3 データ圧縮が有効になっている場合は`GZIP`「」が必要です。S3 バケットが Amazon Redshift Serverless ワークグループと同じ AWS リージョンにない場合は`REGION`「」が必要です。詳細については、*Amazon Redshift データベース開発者ガイド*の「[COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)」を参照してください。  
 **COPY コマンド**   <a name="redshift-copy-command"></a>
Amazon Redshift **COPY** コマンド。詳細については、*Amazon Redshift データベース開発者ガイド*の「[COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)」を参照してください。  
 **再試行の期間**   
Amazon Redshift Serverless ワークグループへのデータ **COPY** が失敗した場合に Firehose が再試行する時間 (0～7200 秒)。Firehose は再試行の期間が終了するまで 5 分ごとに再試行します。再試行の期間を 0 (ゼロ) 秒に設定した場合、Firehose は **COPY** コマンドが失敗しても再試行しません。  
 **バッファリングのヒント**   
Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
 **S3 圧縮**   
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮、またはデータ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームには使用できません。  
**S3 のファイル拡張子の形式 (オプション)**  
S3 のファイル拡張子の形式 (オプション) – Amazon S3 宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z\$1-\$1.\$1‘()。ファイル拡張子は最大 128 文字です。  
**S3 暗号化**  
Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、[AWS 「KMS マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)」を参照してください。

## OpenSearch Service の宛先の設定を構成する
<a name="create-destination-elasticsearch"></a>

Firehose は、Elasticsearch バージョン 1.5、2.3、5.1、5.3、5.5、5.6 と、すべての 6.\$1、7.\$1、8.\$1 バージョンをサポートします。Firehose は Amazon OpenSearch Service 2.x および 3.x をサポートしています。

このセクションでは、送信先に OpenSearch Service を使用するためのオプションについて説明します。

****
+ 以下のフィールドに値を入力します。  
** **OpenSearch Service ドメイン** **  
データの配信先となる OpenSearch Service ドメイン。  
** **インデックス** **  
OpenSearch Service クラスターに対してデータのインデックスを作成するときに使用する OpenSearch Service のインデックス名。  
** **インデックスのローテーション** **  
OpenSearch Service インデックスをローテーションするかどうかと、その頻度を選択します。インデックスのローテーションが有効になっている場合、Amazon Data Firehose は指定されたインデックス名に対応するタイムスタンプを追加し、ローテーションします。詳細については、「[OpenSearch Service のインデックスローテーションを設定する](es-index-rotation.md)」を参照してください。  
** **タイプ** **  
OpenSearch Service クラスターに対してデータのインデックスを作成するときに使用する OpenSearch Service タイプ名。Elasticsearch 7.x と OpenSearch 1.x では、インデックスあたり 1 つのタイプのみが存在できます。既に別のタイプを持つ既存のインデックスに新しいタイプを指定しようとすると、Firehose は実行時にエラーを戻します。  
Elasticsearch 7.x では、このフィールドは空のままにしておきます。  
** **再試行の期間** **  
OpenSearch へのインデックスのリクエストが失敗した場合に Firehose が再試行する時間。再試行期間については、0～7,200 秒の任意の値を設定できます。デフォルトの再試行期間は 300 秒です。Firehose は、再試行期間が終了するまで、エクスポネンシャルバックオフで複数回再試行します。  
再試行期間が終了すると、Firehose は、設定された S3 エラーバケットであるデッドレターキュー (DLQ) にデータを配信します。DLQ に配信されるデータについては、設定された S3 エラーバケットから OpenSearch の宛先にデータをリドライブする必要があります。  
OpenSearch クラスターのダウンタイムまたはメンテナンスを理由として、Firehose ストリームによる DLQ へのデータ配信をブロックしたい場合は、再試行期間を秒単位でより大きい値に設定できます。[AWS サポート](https://aws.amazon.com/contact-us/)に問い合わせて、再試行期間を 7,200 秒超に増やすことができます。  
** **DocumentID タイプ** **  
ドキュメント ID を設定する方法を示します。サポートされている方法は、Firehose が生成したドキュメント ID と OpenSearch Service が生成したドキュメント ID です。Firehose が生成したドキュメント ID は、ドキュメント ID の値が設定されていない場合のデフォルトオプションです。推奨されている方法は OpenSearch Service が生成したドキュメント ID です。ログ分析やオブザーバビリティなど書き込み負荷が高いオペレーションに対応しており、OpenSearch Service ドメインで消費される CPU リソースが少なく、パフォーマンスが向上するためです。  
** **送信先 VPC 接続** **  
OpenSearch Service ドメインがプライベート VPC 内にある場合は、このセクションを使用してその VPC を指定します。また、OpenSearch Service ドメインにデータを送信するときに Amazon Data Firehose で使用するサブネットとサブグループも指定します。OpenSearch Service ドメインで使用しているものと同じセキュリティグループを使用できます。別のセキュリティグループを指定する場合は、そのセキュリティグループで、OpenSearch Service ドメインのセキュリティグループへのアウトバウンド HTTPS トラフィックを必ず許可します。また、OpenSearch Service ドメインのセキュリティグループで、Firehose ストリームの設定時に指定したセキュリティグループからの HTTPS トラフィックを必ず許可します。Firehose ストリームと OpenSearch Service ドメインの両方に同じセキュリティグループを使用する場合は、セキュリティグループのインバウンドルールで HTTPS トラフィックを必ず許可します。セキュリティグループのルールの詳細については、Amazon VPCドキュメントの「[セキュリティグループのルール](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#SecurityGroupRules)」を参照してください。  
プライベート VPC の宛先にデータを配信するためのサブネットを指定する場合は、選択したサブネットに十分な数の空き IP アドレスがあることを確認してください。指定されたサブネットに使用可能な空き IP アドレスがない場合、Firehose はプライベート VPC でデータ配信用の ENI を作成または追加できず、配信のパフォーマンスが低下するか、または配信が失敗します。  
**バッファリングのヒント**  
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## OpenSearch Serverless の宛先の設定を構成する
<a name="create-destination-opensearch-serverless"></a>

このセクションでは、送信先に OpenSearch Serverless を使用する方法ついて説明します。

****
+ 以下のフィールドに値を入力します。  
** **OpenSearch Serverless コレクション** **  
データの配信先となる OpenSearch Serverless インデックスのグループのエンドポイント。  
** **[Index]** (インデックス) **  
OpenSearch Serverless コレクションにデータのインデックスを作成するときに使用する OpenSearch Serverless のインデックス名。  
** **送信先 VPC 接続** **  
OpenSearch Serverless コレクションがプライベート VPC 内にある場合は、このセクションを使用してその VPC を指定します。また、OpenSearch Serverless コレクションにデータを送信するときに Amazon Data Firehose で使用するサブネットとサブグループも指定します。  
プライベート VPC の宛先にデータを配信するためのサブネットを指定する場合は、選択したサブネットに十分な数の空き IP アドレスがあることを確認してください。指定されたサブネットに使用可能な空き IP アドレスがない場合、Firehose はプライベート VPC でデータ配信用の ENI を作成または追加できず、配信のパフォーマンスが低下するか、または配信が失敗します。  
** **再試行の期間** **  
OpenSearch Serverless へのインデックスのリクエストが失敗した場合に Firehose が再試行する時間。再試行期間については、0～7,200 秒の任意の値を設定できます。デフォルトの再試行期間は 300 秒です。Firehose は、再試行期間が終了するまで、エクスポネンシャルバックオフで複数回再試行します。  
再試行期間が終了すると、Firehose は、設定された S3 エラーバケットであるデッドレターキュー (DLQ) にデータを配信します。DLQ に配信されるデータについては、設定された S3 エラーバケットから OpenSearch Serverless の宛先にデータをリドライブする必要があります。  
OpenSearch Serverless クラスターのダウンタイムまたはメンテナンスを理由として、Firehose ストリームによる DLQ へのデータ配信をブロックしたい場合は、再試行期間を秒単位でより大きい値に設定できます。[AWS サポート](https://aws.amazon.com/contact-us/)に問い合わせて、再試行期間を 7,200 秒超に増やすことができます。  
**バッファリングのヒント**  
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## HTTP エンドポイントの宛先の設定を構成する
<a name="create-destination-http"></a>

このセクションでは、送信先に **HTTP エンドポイント**を使用するためのオプションについて説明します。

**重要**  
HTTP エンドポイントを送信先として選択した場合は、[HTTP エンドポイント配信リクエストとレスポンスの仕様を理解する](httpdeliveryrequestresponse.md) の手順を確認して従ってください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント名 - オプション**   
HTTP エンドポイントのわかりやすい名前を指定します。例えば、`My HTTP Endpoint Destination`。  
 **HTTP エンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します: `https://xyz.httpendpoint.com`。URL は HTTPS URL であることが必要です。  
 **認証**   
アクセスキーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して HTTP エンドポイントにアクセスするかを選択できます。  
  + **(オプション) アクセスキー** 

    Firehose からエンドポイントへのデータ配信を有効にするためにアクセスキーを取得する必要がある場合は、エンドポイントの所有者に連絡します。
  + **シークレット**

    HTTP エンドポイントのアクセスキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、アクセスキー AWS Secrets Manager の にシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
HTTP エンドポイントの宛先で、CloudWatch Logs で宛先エンドポイントからの 413 のレスポンスコードが表示される場合は、Firehose ストリームのバッファリングのヒントサイズを小さくして、もう一度試してください。

## Datadog の宛先の設定を構成する
<a name="create-destination-datadog"></a>

このセクションでは、送信先に **Datadog** を使用するためのオプションについて説明します。Datadog の詳細については、「[https://docs.datadoghq.com/integrations/amazon\$1web\$1services/](https://docs.datadoghq.com/integrations/amazon_web_services/)」を参照してください。

****
+ 次のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
ドロップダウンメニューで、次のいずれかのオプションからデータを送信する場所を選択します。  
  + **Datadog ログ - US1**
  + **Datadog ログ - US3**
  + **Datadog ログ - US5**
  + **Datadog ログ - AP1**
  + **Datadog ログ - EU**
  + **Datadog ログ - GOV**
  + **Datadog メトリクス - 米国**
  + **Datadog メトリクス - US5**
  + **Datadog メトリクス - AP1**
  + **Datadog メトリクス - EU**
  + **Datadog の設定 - US1**
  + **Datadog の設定 - US3**
  + **Datadog の設定 - US5**
  + **Datadog の設定 - AP1**
  + **Datadog の設定 - EU**
  + **Datadog の設定 - US GOV**  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Datadog にアクセスするかを選択できます。  
  + **API キー** 

    Datadog に連絡し、Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。
  + **シークレット**

    Datadog の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Honeycomb の宛先の設定を構成する
<a name="create-destination-honeycomb"></a>

このセクションでは、送信先に **Honeycomb** を使用する方法について説明します。Honeycomb の詳細については、[https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/](https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/ ) を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **Honeycomb Kinesis エンドポイント**   
HTTP エンドポイントの URL を次の形式で指定します。: https://api.honeycomb.io/1/kinesis\$1events/\$1\$1dataset\$1\$1   
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Honeycomb にアクセスするかを選択できます。  
  + **API キー** 

    Honeycomb に連絡し、Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。
  + **シークレット**

    Honeycomb の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。**[GZIP]** を選択して、リクエストのコンテンツエンコーディングを有効にします。こちらは、Honeycomb が送信先である場合に推奨される方法です。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Coralogix の宛先の設定を構成する
<a name="create-destination-coralogix"></a>

このセクションでは、送信先に **Coralogix** を使用する方法について説明します。Coralogix の詳細については、「[Get Started with Coralogix](https://coralogix.com/docs/guide-first-steps-coralogix/)」を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
ドロップダウンメニューの次のオプションから HTTP エンドポイント URL を選択します。  
  + **Coralogix - 米国**
  + **Coralogix - シンガポール**
  + **Coralogix - アイルランド**
  + **Coralogix - インド**
  + **Coralogix - ストックホルム**  
 **認証**   
プライベートキーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Coralogix にアクセスできます。  
  + **プライベートキー** 

    Coralogix に連絡し、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なプライベートキーを取得します。
  + **シークレット**

    Coralogix のプライベートキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。**[GZIP]** を選択して、リクエストのコンテンツエンコーディングを有効にします。こちらは、Coralogix が送信先である場合に推奨される方法です。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
  + applicationName: Data Firehose を実行している環境
  + subsystemName: Data Firehose 統合の名前
  + computerName: 使用中の Firehose ストリームの名前  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。宛先に推奨されるバッファリングサイズは、サービスプロバイダーによって異なります。

## Dynatrace の宛先の設定を構成する
<a name="create-destination-dynatrace"></a>

このセクションでは、送信先に **Dynatrace** を使用するためのオプションについて説明します。詳細については、「[https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/](https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/)」を参照してください。

****
+ Firehose ストリームの宛先として Dynatrace を使用するオプションを選択します。  
 **取り込みタイプ**   
さらなる分析と処理のために Dynatrace で **[メトリクス]** または **[ログ]** (デフォルト) を配信するかどうかを選択します。  
 **HTTP エンドポイント URL**   
ドロップダウンメニューから、HTTP エンドポイント URL (**Dynatrace US**、**Dynatrace EU**、または **Dynatrace Global**) を選択します。  
 **認証**   
API トークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Dynatrace にアクセスするかを選択できます。  
  + **API トークン** 

    Firehose からこのエンドポイントへのデータ配信を有効にするために必要な Dynatrace API トークンを生成します。詳細については、「[Dynatrace API - Tokens and authentication](https://docs.dynatrace.com/docs/dynatrace-api/basics/dynatrace-api-authentication)」を参照してください。
  + **シークレット**

    Dynatrace の API トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **API URL**   
Dynatrace 環境の API URL を指定します。  
 **コンテンツのエンコーディング**   
リクエストの本文を圧縮するためにコンテンツエンコーディングを有効にするかどうかを選択します。Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。有効にすると、圧縮したコンテンツが **GZIP** 形式で表示されます。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Firehose が再試行する時間を指定します。  
データの送信後、Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Firehose は、再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Firehose がデータを HTTP エンドポイントに送信するたびに (初回試行中または再試行後のいずれかにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Firehose は、確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
**バッファリングのヒント**  
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。バッファリングのヒントには、ストリームのバッファリングサイズと間隔が含まれます。宛先に推奨されるバッファリングサイズは、サービスプロバイダーによって異なります。

## LogicMonitor の宛先の設定を構成する
<a name="create-destination-logicmonitor"></a>

このセクションでは、送信先に **LogicMonitor** を使用するためのオプションについて説明します。詳細については、「[https://www.logicmonitor.com](https://www.logicmonitor.com)」を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します。  

  ```
  https://ACCOUNT.logicmonitor.com
  ```  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して LogicMonitor にアクセスするかを選択できます。  
  + **API キー** 

    LogicMonitor に連絡し、Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。
  + **シークレット**

    LogicMonitor の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Logz.io の宛先の設定を構成する
<a name="create-destination-logz"></a>

このセクションでは、送信先に **Logz.io** を使用する方法について説明します。詳細については、[https://logz.io/](https://logz.io/) を参照してください。

**注記**  
欧州 (ミラノ) リージョンでは、Logz.io は Amazon Data Firehose の宛先としてサポートされていません。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します。URL は `HTTPS` URL である必要があります。  

  ```
  https://listener-aws-metrics-stream-<region>.logz.io/
  ```
例  

  ```
  https://listener-aws-metrics-stream-us.logz.io/
  ```  
 **認証**   
 AWS Secrets Manager にアクセスするには、配送トークンを直接入力するか、 からシークレットを取得することができます Logz.io 。  
  + **シッピングトークン** 

    Firehose からこのエンドポイントへのデータ配信を有効にするために必要なシッピングトークンを取得するには、Logz.io にお問い合わせください。
  + **シークレット**

    Logz.io の配送トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **再試行の期間**   
Amazon Data Firehose が Logz.io へのデータ送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## MongoDB Atlas の送信先の設定を構成する
<a name="create-destination-mongodb"></a>

このセクションでは、送信先に **MongoDB Atlas** を使用するためのオプションについて説明します。詳細については、「[MongoDB Atlas を Amazon Web Services で実行](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws)」を参照してください。

****
+ 以下のフィールドに値を入力します。  
**API Gateway URL**  
HTTP エンドポイントの URL を次の形式で指定します。  

  ```
   https://xxxxx.execute-api.region.amazonaws.com/stage
  ```
URL は `HTTPS` URL である必要があります。  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して MongoDB Atlas にアクセスするかを選択できます。  
  + **API キー** 

    「[MongoDB Atlas を Amazon Web Services で実行](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws)」の指示に従って、Firehose からこのエンドポイントへのデータ配信を有効にするために必要な `APIKeyValue` を取得します。
  + **シークレット**

    MongoDB Atlas とやり取りする Lambda によってバックアップされる API Gateway の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
**コンテンツのエンコーディング**  
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
**再試行の期間**  
Amazon Data Firehose が、選択したサードパーティープロバイダーへのデータの送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
**バッファリングのヒント**  
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
**Parameters - オプション**  
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

## New Relic の宛先の設定を構成する
<a name="create-destination-new-relic"></a>

このセクションでは、送信先に **New Relic** を使用するためのオプションについて説明します。詳細については、[https://newrelic.com](https://newrelic.com) を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
ドロップダウンリストの次のオプションから HTTP エンドポイント URL を選択します。  
  + **New Relic ログ - 米国**
  + **New Relic メトリクス - 米国**
  + **New Relic メトリクス - EU**  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して New Relic にアクセスするかを選択できます。  
  + **API キー** 

    New Relic One アカウント設定から、40 文字の 16 進文字列であるライセンスキーを入力します。Firehose からこのエンドポイントへのデータ配信を有効にするには、この API キーが必要です。
  + **シークレット**

    New Relic の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
Amazon Data Firehose が New Relic HTTP エンドポイントへのデータの送信を再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Snowflake の宛先の設定を構成する
<a name="create-destination-snowflake"></a>

このセクションでは、宛先に Snowflake を使用するためのオプションについて説明します。

**注記**  
Firehose と Snowflake の統合は、米国東部 (バージニア北部）、米国西部 (オレゴン）、欧州 (アイルランド）、米国東部 (オハイオ）、アジアパシフィック (東京）、欧州 (フランクフルト）、アジアパシフィック (シンガポール）、アジアパシフィック (ソウル）、アジアパシフィック (シドニー）、アジアパシフィック (ムンバイ）、欧州 (ロンドン）、南米 (サンパウロ）、カナダ (中部）、欧州 (パリ）、アジアパシフィック (大阪）、欧州 (ストックホルム）、アジアパシフィック (ジャカルタ) で利用できます AWS リージョン。

**接続の設定**

****
+ 以下のフィールドに値を入力します。  
 **Snowflake アカウント URL**   
Snowflake アカウントの URL を指定します。例: `xy12345.us-east-1.aws.snowflakecomputing.com`。アカウント URL を特定する方法については、[Snowflake のドキュメント](https://docs.snowflake.com/en/user-guide/admin-account-identifier#format-2-legacy-account-locator-in-a-region)を参照してください。ポート番号を指定してはなりませんが、プロトコル (https://) はオプションであることに留意してください。  
 **認証**   
ユーザーログイン、プライベートキー、パスフレーズを手動で入力するか、 からシークレットを取得 AWS Secrets Manager して Snowflake にアクセスするかを選択できます。  
  + **ユーザーログイン**

    データのロードに使用する Snowflake ユーザーを指定します。Snowflake テーブルにデータを挿入するためのアクセスがユーザーに付与されていることを確認します。
  + **プライベートキー**

    Snowflake で認証するためのプライベートキーを `PKCS8` 形式で指定します。さらに、プライベートキーの一部として PEM ヘッダーとフッターを含めないでください。キーが複数の行に分割されている場合は、改行を削除します。プライベートキーがどのように表示されるかの例を次に示します。

    ```
    -----BEGIN PRIVATE KEY-----
    KEY_CONTENT
    -----END PRIVATE KEY-----
    ```

    `KEY_CONTENT` のスペースを削除し、それを Firehose に提供します。ヘッダー/フッターや改行文字は必要ありません。
  + **パスフレーズ** 

    暗号化されたプライベートキーを復号するパスフレーズを指定します。プライベートキーが暗号化されていない場合は、このフィールドを空のままにできます。詳細については、「[Using Key Pair Authentication & Key Rotation](https://docs.snowflake.com/en/user-guide/data-load-snowpipe-streaming-configuration#using-key-pair-authentication-key-rotation)」を参照してください。
  + **シークレット**

    Snowflake の認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **ロールの設定**   
デフォルトの Snowflake ロールを使用 – このオプションが選択されている場合、Firehose は Snowflake にロールを渡しません。デフォルトのロールは、データをロードするために引き受けられます。Snowflake テーブルにデータを挿入するための許可がデフォルトのロールに付与されていることを確認してください。  
カスタム Snowflake ロールを使用 – Snowflake テーブルにデータをロードする際に Firehose が引き受けるデフォルト以外の Snowflake ロールを入力します。  
 **Snowflake 接続**   
オプションは、**[プライベート]** または **[パブリック]** です。  
 **プライベートVPCE ID (オプション)**   
Firehose が Snowflake とプライベートに接続するための VPCE ID。ID の形式は com.amazonaws.vpce.[region].vpce-svc-*[id]* です。詳細については、「[AWS PrivateLink & Snowflake](https://docs.snowflake.com/en/user-guide/admin-security-privatelink)」を参照してください。  
Snowflake クラスターでプライベートリンクが有効になっている場合は、`AwsVpceIds` ベースのネットワークポリシーを使用して Amazon Data Firehose データを許可します。Firehose では、Snowflake アカウントで IP ベースのネットワークポリシーを設定する必要はありません。IP ベースのネットワークポリシーを有効にすると、Firehose の接続が妨げられる可能性があります。IP ベースのポリシーを必要とするエッジケースがある場合は、[サポートチケット](https://support.console.aws.amazon.com/support/home?region=us-east-1#/case/create)を送信して Firehose チームにお問い合わせください。使用できる VPCE ID のリストについては、「[VPC での Snowflake へのアクセス](controlling-access.md#using-iam-snowflake-vpc)」を参照してください。

**データベース設定**
+ Firehose ストリームの宛先として Snowflake を使用するには、次の設定を指定する必要があります。
  + Snowflake データベース - Snowflake のすべてのデータはデータベースに保持されます。
  + Snowflake スキーマ – 各データベースは 1 つ以上のスキーマで構成され、テーブルやビューなどのデータベースオブジェクトの論理グループです。
  + Snowflake テーブル – Snowflake のすべてのデータはデータベーステーブルに保存され、列と行のコレクションとして論理的に構造化されます。

 **Snowflake テーブルのデータロードオプション** 
+ 列名として JSON キーを使用する 
+ VARIANT 列を使用する
  + コンテンツ列名 – テーブル内の列名を指定します。ここでは、未処理のデータをロードする必要があります。
  + メタデータ列名 (オプション) – テーブル内の列名を指定します。ここでは、メタデータ情報をロードする必要があります。このフィールドを有効にすると、ソースタイプに基づいて Snowflake テーブルに次の列が表示されます。

    **Direct PUT をソースとする場合**

    ```
    {
    "firehoseDeliveryStreamName" : "streamname",
    "IngestionTime" : "timestamp"
    }
    ```

    **Kinesis データストリームをソースとする場合**

    ```
    {
    "kinesisStreamName" : "streamname",
    "kinesisShardId" : "Id",
    "kinesisPartitionKey" : "key",
    "kinesisSequenceNumber" : "1234",
    "subsequenceNumber" : "2334",
    "IngestionTime" : "timestamp"
    }
    ```

 **再試行の期間** 

Snowflake サービスの問題を理由として、チャネルを開くこと、または Snowflake への配信のいずれかが失敗した場合に、Firehose が再試行する時間 (0～7,200 秒)。Firehose は、再試行期間が終了するまでエクスポネンシャルバックオフで再試行します。再試行期間を 0 (ゼロ) 秒に設定すると、Firehose は Snowflake の障害発生時に再試行せず、データを Amazon S3 エラーバケットにルーティングします。

 **バッファリングのヒント** 

Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。詳細については、「[バッファリングのヒントを設定する](create-configure-backup.md#buffering-hints)」を参照してください。

## Splunk の宛先の設定を構成する
<a name="create-destination-splunk"></a>

このセクションでは、送信先に Splunk を使用するためのオプションについて説明します。

**注記**  
Firehose は、Classic Load Balancer または Application Load Balancer を使用して設定された Splunk クラスターにデータを配信します。

****
+ 以下のフィールドに値を入力します。  
 **Splunk クラスターエンドポイント**   
エンドポイントを確認するには、Splunk ドキュメントの「[Configure Amazon Data Firehose to Send Data to the Splunk Platform](http://docs.splunk.com/Documentation/AddOns/latest/Firehose/ConfigureFirehose)」を参照してください。  
 **Splunk エンドポイントタイプ**   
ほとんどの場合は `Raw endpoint` を選択します。を使用してデータを前処理 AWS Lambda し、イベントタイプ別に異なるインデックスにデータを送信する`Event endpoint`場合は、 を選択します。使用するエンドポイントについては、Splunk ドキュメントの「[Configure Amazon Data Firehose to send data to the Splunk platform](http://docs.splunk.com/Documentation/AddOns/released/Firehose/ConfigureFirehose)」を参照してください。  
 **認証**   
認証トークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Splunk にアクセスするかを選択できます。  
  + **認証トークン** 

    Amazon Data Firehose からデータを受信できる Splunk エンドポイントをセットアップするには、Splunk ドキュメントの「[Installation and configuration overview for the Splunk Add-on for Amazon Data Firehose](http://docs.splunk.com/Documentation/AddOns/released/Firehose/Installationoverview)」を参照してください。この Firehose ストリームのエンドポイントを設定するときに Splunk から取得したトークンを保存し、ここで追加します。
  + **シークレット**

    Splunk の認証トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **HEC 送達確認のタイムアウト**   
Amazon Data Firehose が Splunk からのインデックス確認応答を待機する時間を指定します。Splunk が確認を送信しないままタイムアウトに達すると、Amazon Data Firehose ではデータ配信失敗とみなされます。その後、Amazon Data Firehose は設定された再試行期間値に従って、再試行するか、データを Amazon S3 バケットにバックアップします。  
 **再試行の期間**   
Amazon Data Firehose が Splunk へのデータ送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず Splunk からの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを Splunk に送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、Splunk からの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。宛先に推奨されるバッファリングサイズは、サービスプロバイダーによって異なります。

## Splunk Observability Cloud の宛先の設定を構成する
<a name="create-destination-splunk-cloud"></a>

このセクションでは、送信先に **Splunk Observability Cloud** を使用する方法について説明します。[詳細については、https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html\$1connect-to-aws-using-the-splunk-observability-cloud-api](https://docs.splunk.com/Observability/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api) を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **Cloud Ingest のエンドポイント URL**   
Splunk Observability Cloud のリアルタイムデータインジェスト URL は、Splunk Observability のコンソールから、[Profile] > [Organizations] > [Profile ] の順にクリックすると見つけることができます。  
 **認証**   
アクセストークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Splunk Observability Cloud にアクセスするかを選択できます。  
  + **アクセストークン** 

    Splunk Observability コンソールの **[設定]** の **[アクセストークン]** から、INGEST 認可スコープを持つ Splunk Observability アクセストークンをコピーします。
  + **シークレット**

    Splunk Observability Cloud のアクセストークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Sumo Logic の宛先の設定を構成する
<a name="create-destination-sumo-logic"></a>

このセクションでは、送信先に **Sumo Logic** を使用するためのオプションについて説明します。詳細については、「[https://www.sumologic.com](https://www.sumologic.com)」を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します: `https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token`。URL は HTTPS URL であることが必要です。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
Amazon Data Firehose が Sumo Logic へのデータ送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。Elastic を送信先とする場合の推奨のバッファサイズは、サービスプロバイダーに応じて異なります。

## Elastic の宛先の設定を構成する
<a name="create-destination-elastic"></a>

このセクションでは、送信先に **Elastic** を使用する方法について説明します。

****
+ 以下のフィールドに値を入力します。  
 **Elastic のエンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します: `https://<cluster-id>.es.<region>.aws.elastic-cloud.com`。URL は HTTPS URL であることが必要です。  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Elastic にアクセスするかを選択できます。  
  + **API キー** 

    Elastic に連絡し、Firehose からこのサービスへのデータ配信を有効にするために必要な API キーを取得します。
  + **シークレット**

    Elastic の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。**[GZIP]** (デフォルトによる選択) または **[無効]** を選択し、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
Amazon Data Firehose が Elastic へのデータの送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。Elastic の送信先の推奨バッファサイズは 1 MiB です。

# バックアップの設定を構成する
<a name="create-configure-backup"></a>

Amazon Data Firehose は、Amazon S3 を使用して、選択した宛先への配信を試みるすべてのデータまたは失敗したデータのみをバックアップします。

**重要**  
Backup 設定は、Firehose ストリームのソースが Direct PUT か Kinesis Data Streams である場合のみサポートされます。
ゼロバッファリング機能はアプリケーションの宛先のためにのみ使用でき、Amazon S3 バックアップの宛先のためには使用できません。

次のいずれかを選択した場合は、Firehose ストリームの S3 バックアップ設定を指定できます。
+ Amazon S3 を Firehose ストリームの送信先として設定し、データレコードを変換する AWS Lambda 関数を指定するか、Firehose ストリームのデータレコード形式を変換することを選択した場合。
+ Amazon Redshift を Firehose ストリームの送信先として設定し、データレコードを変換する AWS Lambda 関数を指定することを選択した場合。
+ 次のいずれかのサービスを Firehose ストリームの宛先として設定した場合 – Amazon OpenSearch Service、Datadog, Dynatrace、HTTP エンドポイント、LogicMonitor、MongoDB Cloud、New Relic、Splunk、Sumo Logic、Snowflake、Apache Iceberg テーブル。

Firehose ストリームのバックアップ設定は次のとおりです。
+ Amazon S3 でのソースレコードバックアップ- S3 または Amazon Redshift が選択した送信先である場合、この設定は、ソースデータのバックアップを有効にするか無効のままにするかを示します。選択した送信先としてサポートされている他のサービス (S3 または Amazon Redshift 以外) が設定されている場合、この設定は、すべてのソースデータまたは失敗したデータのみをバックアップするかどうかを示します。
+ S3 バックアップバケット - これは、Amazon Data Firehose がデータをバックアップする S3 バケットです。
+ S3 バックアップバケットプレフィックス- これは、Amazon Data Firehose がデータをバックアップするプレフィックスです。
+ S3 バックアップバケットエラー出力プレフィックス - すべての失敗したデータは、この S3 バケットエラー出力プレフィックスにバックアップされます。
+ バッファリングのヒント、圧縮、およびバックアップの暗号化 - Amazon Data Firehose は、選択した宛先に配信しようとするすべてのデータまたは失敗したデータのみをバックアップするために Amazon S3 を使用します。Amazon Data Firehose は、Amazon S3 に配信 (バックアップ) する前に着信データをバッファリングします。バッファサイズ (1～128 MB) およびバッファ間隔 (60～900 秒) を選択できます。最初に満たされた条件は、Amazon S3 へのデータ配信をトリガーします。データ変換を有効にした場合は、変換されたデータが Amazon Data Firehose によって受信されてから Amazon S3 に配信されるまでの時間、バッファリング間隔が適用されます。宛先へのデータ配信が Firehose ストリームへのデータ書き込みよりも遅れると、Amazon Data Firehose はバッファリングサイズを動的に引き上げて遅れを取り戻します。このアクションにより、すべてのデータが送信先に確実に配信されます。
+ S3 圧縮 - GZIP、Snappy、Zip、Hadoop 互換の Snappy データ圧縮、またはデータ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームでは使用できません。
+ S3 のファイル拡張子の形式 (オプション) – Amazon S3 宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z\$1-\$1.\$1‘()。ファイル拡張子は最大 128 文字です。
+ Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、[AWS 「KMS マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)」を参照してください。

## バッファリングのヒントを設定する
<a name="buffering-hints"></a>

Amazon Data Firehose は、着信ストリーミングデータを、特定のサイズ (バッファリングサイズ)、および特定の期間 (バッファリング間隔) にわたって、メモリにバッファリングしてから、指定された宛先に配信します。バッファリングのヒントは、最適にサイズ設定されたファイルを Amazon S3 に配信し、データ処理アプリケーションのパフォーマンスを改善する場合や、Firehose 配信レートを宛先の速度に合わせて調整する場合に使用します。

新しい Firehose ストリームの作成時にバッファリングサイズとバッファリング間隔を設定したり、既存の Firehose ストリームのバッファリングサイズとバッファリング間隔を更新したりできます。バッファリングサイズは MB 単位で、バッファリング間隔は秒単位です。ただし、一方のパラメータに値を指定する場合は、他方にも値を指定する必要があります。最初に満たされたバッファリング条件によって、Firehose によるデータの配信がトリガーされます。バッファリングの値を設定しない場合、デフォルトの値が使用されます。

Firehose バッファリングヒントは AWS マネジメントコンソール、 AWS Command Line Interface、、または AWS SDKs を使用して設定できます。既存のストリームでは、コンソールの **[編集]** オプションまたは [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) API を使用して、ユースケースに適した値でバッファリングのヒントを再設定できます。新しいストリームでは、コンソールまたは [CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html) API を使用して、新しいストリーム作成の一部としてバッファリングのヒントを設定できます。バッファリングサイズを調整するには、[CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html) または [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) API の宛先固有の `DestinationConfiguration` パラメータで `SizeInMBs` と `IntervalInSeconds` を設定します。

**注記**  
バッファリングのヒントはシャードレベルまたはパーティションレベルで適用され、動的パーティショニングバッファリングのヒントはストリームレベルまたはトピックレベルで適用されます。
リアルタイムユースケースのより低いレイテンシーに対応するために、ゼロバッファリング間隔ヒントを使用できます。バッファリング間隔を 0 秒として設定すると、Firehose はデータをバッファリングせず、数秒以内にデータを配信します。バッファリングのヒントをより小さい値に変更する前に、宛先用の、Firehose の推奨バッファリングのヒントについてベンダーに確認してください。
ゼロバッファリング機能はアプリケーションの宛先のためにのみ使用でき、Amazon S3 バックアップの宛先のためには使用できません。
ゼロバッファリング機能は、動的パーティショニングでは使用できません。
より低いレイテンシーを提供するために 60 秒未満のバッファリング時間間隔を設定すると、Firehose は S3 の宛先のためにマルチパートアップロードを使用します。S3 の宛先のマルチパートアップロードにより、60 秒未満のバッファリング時間間隔を選択すると、S3 `PUT` API のコストが若干増加します。

宛先固有のバッファリングのヒントの範囲とデフォルトの値については、次の表を参照してください:


| 目的地 | バッファリングサイズ (MB) (括弧内の値はデフォルト) | バッファリング間隔 (秒) (括弧内の値はデフォルト) | 
| --- | --- | --- | 
| Amazon S3 | 1-128 (5) | 0-900 (300) | 
| Apache Iceberg テーブル | 1-128 (5) | 0-900 (300) | 
| Amazon Redshift | 1-128 (5)  | 0-900 (300) | 
| OpenSearch Serverless | 1-100 (5)  | 0-900 (300) | 
| OpenSearch | 1-100 (5) | 0-900 (300) | 
| Splunk | 1-5 (5) | 0-60 (60) | 
| Datadog | 1-4 (4) | 0-900 (60) | 
| Coralogix | 1-64 (6) | 0-900 (60) | 
| Dynatrace | 1-64 (5) | 0-900 (60) | 
| Elastic | 1 | 0-900 (60) | 
| Honeycomb | 1-64 (15) | 0-900 (60) | 
| HTTP エンドポイント | 1-64 (5) | 0-900 (60) | 
| LogicMonitor | 1-64 (5) | 0-900 (60) | 
| Logzio | 1-64 (5) | 0-900 (60) | 
| mongoDB  | 1-16 (5) | 0-900 (60) | 
| newRelic | 1-64 (5) | 0-900 (60) | 
| sumoLogic | 1-64 (1) | 0-900 (60) | 
| Splunk Observability Cloud  | 1-64 (1) | 0-900 (60) | 
| Snowflake | 1 - 128 (1) | 0 - 900 (0) | 

# 詳細設定の設定
<a name="create-configure-advanced"></a>

次のセクションには、Firehose ストリームの高度な設定に関する詳細が含まれています。
+ サーバー側の暗号化 - Amazon Data Firehose はAmazon S3 で配信されたデータを暗号化するための AWS Key Management Service (AWS KMS) による Amazon S3 サーバー側の暗号化をサポートしています。詳細については、[AWS 「KMS マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)」を参照してください。
+ エラーログ記録 - Amazon Data Firehose は、処理と配信に関連するエラーを記録します。さらに、データ変換が有効になっている場合は、Lambda 呼び出しをログに記録したりデータ配信エラーを CloudWatch Logs に送信したりできます。詳細については、「[CloudWatch Logs を使用して Amazon Data Firehose をモニタリングする](monitoring-with-cloudwatch-logs.md)」を参照してください。
**重要**  
オプションとして、Firehose ストリームの作成時に Amazon Data Firehose エラーログ記録を有効にすることが強く推奨されています。これにより、レコード処理や配信に失敗した場合でもそのエラーの詳細にアクセスすることができます。
+ 許可 - Amazon Data Firehose は、Firehose ストリームに必要なすべての許可のために IAM ロールを使用します。必要な許可が自動的に割り当てられる新しいロールを作成するか、Amazon Data Firehose 用に作成された既存のロールを選択できます。ロールは、S3 バケット、 AWS KMS キー (データ暗号化が有効になっている場合）、Lambda 関数 (データ変換が有効になっている場合) など、さまざまな サービスへのアクセス権を Firehose に付与するために使用されます。コンソールはプレースホルダーを含むロールを作成する可能性があります。詳細については、「[IAM とは何ですか?」を参照してください。](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html)
**注記**  
IAM ロール (プレースホルダーを含む) は、Firehose ストリームの作成時に選択した設定に基づいて作成されます。Firehose ストリームのソースまたは宛先に変更を加える場合は、IAM ロールを手動で更新する必要があります。
+ タグ - タグを追加して、 AWS リソースの整理、コストの追跡、アクセスの制御を行うことができます。

  `CreateDeliveryStream` アクションでタグを指定すると、Amazon Data Firehose は `firehose:TagDeliveryStream` アクションに対して追加の認可を実行し、タグを作成するための許可がユーザーに付与されているかどうかを検証します。この許可を指定しない場合、IAM リソースのタグを使用して新しい Firehose ストリームを作成するリクエストは、次のような `AccessDeniedException` で失敗します。

  ```
  AccessDeniedException 
  User: arn:aws:sts::x:assumed-role/x/x is not authorized to perform: firehose:TagDeliveryStream on resource: arn:aws:firehose:us-east-1:x:deliverystream/x with an explicit deny in an identity-based policy.
  ```

  次の例は、ユーザーが Firehose ストリームを作成してタグを適用できるようにするポリシーを示しています。

バックアップと詳細設定を選択したら、選択内容を確認し、**[Firehose ストリームを作成]** を選択します。

新しい Firehose ストリームは、使用可能になる前にしばらく **[作成中]** 状態になります。Firehose ストリームが **[アクティブ]** 状態になったら、プロデューサーからそこにデータの送信を開始することができます。