

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Tutorial: Einen Firehose-Stream von der Konsole aus erstellen
<a name="basic-create"></a>

Sie können das AWS-Managementkonsole oder ein AWS SDK verwenden, um einen Firehose-Stream zu Ihrem ausgewählten Ziel zu erstellen. 

Sie können die Konfiguration Ihres Firehose-Streams jederzeit nach seiner Erstellung aktualisieren, indem Sie die Amazon Data Firehose-Konsole verwenden oder. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Ihr Firehose-Stream bleibt so`Active`, wie Ihre Konfiguration aktualisiert wird, und Sie können weiterhin Daten senden. Die aktualisierte Konfiguration wird in der Regel innerhalb weniger Minuten wirksam. Die Versionsnummer eines Firehose-Streams wird `1` nach dem Update der Konfiguration um den Wert von erhöht. Sie wird im Namen des gelieferten Amazon-S3-Objektnamen wiedergegeben. Weitere Informationen finden Sie unter [Amazon S3 S3-Objektnamenformat konfigurieren](s3-object-name.md).

Führen Sie die Schritte in den folgenden Themen aus, um einen Firehose-Stream zu erstellen.

**Topics**
+ [

# Wählen Sie Quelle und Ziel für Ihren Firehose-Stream
](create-name.md)
+ [

# Quelleinstellungen konfigurieren
](configure-source.md)
+ [

# (Optional) Konfiguration der Datensatztransformation und Formatkonvertierung
](create-transform.md)
+ [

# Zieleinstellungen konfigurieren
](create-destination.md)
+ [

# Konfigurieren Sie die Backup-Einstellungen
](create-configure-backup.md)
+ [

# Konfigurieren von erweiterten Einstellungen
](create-configure-advanced.md)

# Wählen Sie Quelle und Ziel für Ihren Firehose-Stream
<a name="create-name"></a>

****

1. Öffnen Sie die Firehose-Konsole unter [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/).

1. Wählen Sie **Create Firehose stream (Firehose-Stream erstellen)** aus. 

1. Wählen Sie auf der **Firehose Firehose-Stream erstellen** aus einer der folgenden Optionen eine Quelle für Ihren Firehose-Stream aus.
   + **Direct PUT** — Wählen Sie diese Option, um einen Firehose zu erstellen, in den Producer-Anwendungen direkt schreiben. Hier finden Sie eine Liste von AWS Diensten, Agenten und Open-Source-Diensten, die in Direct PUT in Amazon Data Firehose integriert sind. Diese Liste erhebt keinen Anspruch auf Vollständigkeit, und es kann zusätzliche Dienste geben, mit denen Daten direkt an Firehose gesendet werden können.
     + AWS SDK
     + AWS Lambda
     + AWS CloudWatch Logs
     + AWS CloudWatch Events
     + AWS Metrische Cloud-Streams
     + AWS IoT
     + AWS Eventbridge
     + Amazon Simple Email Service
     + Amazon SNS
     + AWS WAF-Web-ACL-Protokolle
     + Amazon API Gateway – Zugriffsprotokolle
     + Amazon Pinpoint
     + Amazon-MSK-Broker-Protokolle
     + Abfrageprotokolle von Amazon Route 53 Resolver
     + AWS Protokolle der Netzwerk-Firewall-Warnmeldungen
     + AWS Netzwerk-Firewall-Flussprotokolle
     + Amazon ElastiCache Redis SLOWLOG
     + Kinesis Agent (linux)
     + Kinesis Tap (windows)
     + Fluentbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data Streams** — Wählen Sie diese Option, um einen Firehose-Stream zu konfigurieren, der einen Kinesis-Datenstream als Datenquelle verwendet. Anschließend können Sie Firehose verwenden, um Daten einfach aus einem vorhandenen Kinesis-Datenstrom zu lesen und in Ziele zu laden. Weitere Informationen zur Verwendung von Kinesis Data Streams als Datenquelle finden Sie unter [Senden von Daten an einen Firehose-Stream mit Kinesis](writing-with-kinesis-streams.md) Data Streams.
   + **Amazon MSK** — Wählen Sie diese Option, um einen Firehose-Stream zu konfigurieren, der Amazon MSK als Datenquelle verwendet. Anschließend können Sie Firehose verwenden, um Daten einfach aus einem vorhandenen Amazon MSK-Cluster zu lesen und in bestimmte S3-Buckets zu laden. Weitere Informationen finden Sie unter [Senden von Daten an einen Firehose-Stream mit Amazon MSK](writing-with-msk.md).

1. Wählen Sie ein Ziel für Ihren Firehose-Stream aus einem der folgenden Ziele, die Firehose unterstützt.
   +  OpenSearch Amazon-Dienst
   + Amazon OpenSearch Serverlos
   + Amazon Redshift
   + Amazon S3
   + Apache Iceberg-Tabellen
   + Coralogix
   + Datadog
   + Dynatrace
   + Elastic
   + HTTP-Endpunkt
   + Honeycomb
   + Logic.Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. Für den **Firehose-Streamnamen** können Sie entweder den Namen verwenden, den die Konsole für Sie generiert, oder einen Firehose-Stream Ihrer Wahl hinzufügen.

# Quelleinstellungen konfigurieren
<a name="configure-source"></a>

Sie können die Quelleinstellungen auf der Grundlage der Quelle konfigurieren, die Sie auswählen, um Informationen von der Konsole an einen Firehose-Stream zu senden. Sie können Quelleinstellungen für Amazon MSK und Amazon Kinesis Data Streams als Quelle konfigurieren. Für Direct PUT als Quelle sind keine Quelleinstellungen verfügbar.

# Quelleinstellungen für Amazon MSK konfigurieren
<a name="writing-with-msk"></a>

Wenn Sie Amazon MSK zum Senden von Informationen an einen Firehose-Stream wählen, können Sie zwischen MSK bereitgestellten Clustern und MSK-Serverless-Clustern wählen. Anschließend können Sie Firehose verwenden, um Daten einfach aus einem bestimmten Amazon MSK-Cluster und Thema zu lesen und sie in das angegebene S3-Ziel zu laden.

Geben Sie im Abschnitt **Quelleinstellungen** der Seite Werte für die folgenden Felder ein.

****Amazon-MSK-Cluster-Konnektivität****  
Wählen Sie je nach Ihrer Cluster-Konfiguration entweder die Option **Private Bootstrap-Broker** (empfohlen) oder **Öffentliche Bootstrap-Broker**. Der Apache-Kafka-Client verwendet Bootstrap-Broker als Ausgangspunkt für die Verbindung mit dem Cluster. Öffentliche Bootstrap-Broker sind für den öffentlichen Zugriff von außen vorgesehen AWS, während private Bootstrap-Broker für den Zugriff von innen vorgesehen sind. AWS Weitere Informationen über Amazon MSK finden Sie unter [Amazon Managed Streaming for Apache Kafka](https://docs.aws.amazon.com/msk/latest/developerguide/what-is-msk.html).   
Um eine Verbindung zu einem bereitgestellten oder serverless Amazon-MSK-Cluster über einen privaten Bootstrap Broker herzustellen, muss der Cluster alle der folgenden Anforderungen erfüllen.  
+ Der Cluster muss aktiv sein.
+ Der Cluster muss IAM als eine seiner Zugriffskontrollmethoden verwenden.
+ Private Multi-VPC-Konnektivität muss für die IAM-Zugriffskontrollmethode aktiviert sein.
+ Sie müssen diesem Cluster eine ressourcenbasierte Richtlinie hinzufügen, die dem Firehose-Service Principal die Erlaubnis erteilt, den Amazon MSK-API-Vorgang aufzurufen. `CreateVpcConnection`
Um über einen öffentlichen Bootstrap-Broker eine Verbindung zu einem bereitgestellten Amazon-MSK-Cluster herzustellen, muss der Cluster alle der folgenden Anforderungen erfüllen.  
+ Der Cluster muss aktiv sein.
+ Der Cluster muss IAM als eine seiner Zugriffskontrollmethoden verwenden.
+ Der Cluster muss öffentlich zugänglich sein.

****MSK-Cluster-Konto****  
Sie können das Konto auswählen, in dem sich der Amazon MSK-Cluster befindet. Dies kann eines der folgenden sein.  
+ **Girokonto** — Ermöglicht es Ihnen, Daten aus einem MSK-Cluster in das AWS Girokonto aufzunehmen. Dazu müssen Sie den ARN des Amazon MSK-Clusters angeben, aus dem Ihr Firehose-Stream Daten liest.
+ **Kontoübergreifend** — Ermöglicht es Ihnen, Daten aus einem MSK-Cluster in ein anderes Konto aufzunehmen. AWS Weitere Informationen finden Sie unter [Kontenübergreifender Versand von Amazon MSK](controlling-access.md#cross-account-delivery-msk).

****Topic****  
Geben Sie das Apache Kafka-Thema an, aus dem Firehose Firehose-Stream Daten aufnehmen soll. Sie können dieses Thema nicht aktualisieren, nachdem die Firehose-Stream-Erstellung abgeschlossen ist.  
Firehose dekomprimiert automatisch Apache Kafka-Nachrichten.

# Quelleinstellungen für Amazon Kinesis Data Streams konfigurieren
<a name="writing-with-kinesis-streams"></a>

Konfigurieren Sie die Quelleinstellungen für Amazon Kinesis Data Streams, um Informationen an einen Firehose-Stream zu senden, wie folgt.

**Wichtig**  
Wenn Sie die Kinesis Producer Library (KPL) verwenden, um Daten an einen Kinesis Data Stream zu schreiben, können Sie die Aggregation dazu verwenden, die an diesen Kinesis Data Stream geschriebenen Datensätze zu kombinieren. Wenn Sie diesen Datenstream dann als Quelle für Ihren Firehose-Stream verwenden, deaggregiert Amazon Data Firehose die Datensätze, bevor es sie an das Ziel übermittelt. Wenn Sie Ihren Firehose-Stream so konfigurieren, dass er die Daten transformiert, deaggregiert Amazon Data Firehose die Datensätze, bevor es sie an übermittelt. AWS Lambda Weitere Informationen finden Sie unter [Entwickeln von Amazon-Kinesis-Data-Streams-Produzenten mit der Kinesis Producer Library](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html) und [Aggregation](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation).

Wählen Sie unter den **Quelleinstellungen** einen vorhandenen Stream in der **Kinesis-Datenstream-Liste** aus, oder geben Sie einen Datenstream-ARN im Format `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]` ein.

Wenn Sie noch keinen bestehenden Datenstream haben, wählen Sie **Create**, um einen neuen über die Amazon Kinesis Kinesis-Konsole zu erstellen. Möglicherweise benötigen Sie eine IAM-Rolle, die über die erforderlichen Berechtigungen für den Kinesis-Stream verfügt. Weitere Informationen finden Sie unter [Firehose Zugriff auf ein Amazon S3 S3-Ziel gewähren](controlling-access.md#using-iam-s3). Nachdem Sie einen neuen Stream erstellt haben, wählen Sie das Aktualisierungssymbol, um die **Kinesis-Stream-Liste** zu aktualisieren. Wenn Sie eine große Anzahl an Streams haben, können Sie die Liste mit **Filter by name** (Nach Namen filtern) filtern. 

**Anmerkung**  
Wenn Sie einen Kinesis-Datenstream als Quelle für einen Firehose-Stream konfigurieren, sind Amazon Data Firehose `PutRecord` und der `PutRecordBatch` Betrieb deaktiviert. Verwenden Sie in diesem Fall die Kinesis Data Streams `PutRecord` and `PutRecords` Operations, um Ihrem Firehose-Stream Daten hinzuzufügen.

Amazon Data Firehose beginnt mit dem Lesen von Daten von der `LATEST` Position Ihres Kinesis-Streams. Weitere Informationen zu den Positionen von Kinesis Data Streams finden Sie unter [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html).

 Amazon Data Firehose ruft den Kinesis Data Streams [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html)Streams-Vorgang einmal pro Sekunde für jeden Shard auf. Wenn jedoch die vollständige Sicherung aktiviert ist, ruft Firehose den Kinesis Data Streams `GetRecords` Streams-Vorgang zweimal pro Sekunde für jeden Shard auf, einen für das primäre Lieferziel und einen weiteren für ein vollständiges Backup.

Mehr als ein Firehose-Stream kann aus demselben Kinesis-Stream lesen. Andere Kinesis-Anwendungen (Konsumenten) können ebenfalls Daten aus demselben Stream lesen. Jeder Anruf von einem Firehose-Stream oder einer anderen Verbraucheranwendung wird auf das allgemeine Drosselungslimit für den Shard angerechnet. Planen Sie Ihre Anwendungen mit Bedacht, um eine Drosselung zu vermeiden. Weitere Informationen zu den Volume-Limits bei Kinesis Data Streams finden Sie unter [Amazon Kinesis Streams Limits](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html). 

Fahren Sie mit dem nächsten Schritt fort, um die Datensatztransformation und die Formatkonvertierung zu konfigurieren.

# (Optional) Konfiguration der Datensatztransformation und Formatkonvertierung
<a name="create-transform"></a>

Konfigurieren Sie Amazon Data Firehose, um Ihre Datensatzdaten zu transformieren und zu konvertieren.

## Wenn Sie Amazon MSK als Quelle für Ihren Firehose-Stream wählen.
<a name="create-transform-msk"></a>

**Geben **Sie im Abschnitt Quelldatensätze mit AWS Lambda transformieren** Werte für das folgende Feld an.**

1.   
**Datentransformation**  
Um einen Firehose-Stream zu erstellen, der eingehende Daten nicht transformiert, aktivieren Sie nicht das Kontrollkästchen **Datentransformation aktivieren**.   
Um eine Lambda-Funktion anzugeben, die Firehose aufrufen und verwenden soll, um eingehende Daten vor der Übertragung zu transformieren, aktivieren Sie das Kontrollkästchen **Datentransformation aktivieren**. Sie können eine neue Lambda-Funktion mit einem der Lambda-Vorlage konfigurieren oder eine vorhandene Lambda-Funktion auswählen. Ihre Lambda-Funktion muss das von Firehose benötigte Statusmodell enthalten. Weitere Informationen finden Sie unter [Transformieren Sie Quelldaten in Amazon Data Firehose](data-transformation.md).

1. Machen Sie im Bereich **Convert record format (Datensatzformat konvertieren)** Angaben im folgenden Feld:  
**Konvertierung des Datensatzformats**  
Um einen Firehose-Stream zu erstellen, der das Format der eingehenden Datensätze nicht konvertiert, wählen Sie **Disabled**.   
Um das Format der eingehenden Datensätze zu konvertieren, wählen Sie **Enabled (Aktiviert)**. Geben Sie dann das gewünschte Ausgabeformat an. Sie müssen eine AWS Glue Tabelle angeben, die das Schema enthält, das Firehose für die Konvertierung Ihres Datensatzformats verwenden soll. Weitere Informationen finden Sie unter [Konvertieren Sie das Eingabedatenformat in Amazon Data Firehose](record-format-conversion.md).  
Ein Beispiel dafür, wie Sie die Konvertierung von Datensatzformaten einrichten CloudFormation, finden Sie unter [AWS::KinesisFirehose: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

## Wenn Sie Amazon Kinesis Data Streams oder Direct PUT als Quelle für Ihren Firehose-Stream wählen
<a name="create-transform-directput"></a>

 

**Geben Sie im Abschnitt **Quelleinstellungen** die folgenden Felder ein.**

1. Wählen Sie unter **Datensätze transformieren** eine der folgenden Optionen aus:

   1. Wenn Ihr Ziel Amazon S3 oder Splunk ist, wählen Sie im Abschnitt **Amazon CloudWatch Logs für Quelldatensätze dekomprimieren** die Option Dekomprimierung **aktivieren** aus.

   1. Geben **Sie im Abschnitt Quelldatensätze mit AWS Lambda transformieren** Werte für das folgende Feld an:  
**Datentransformation**  
Um einen Firehose-Stream zu erstellen, der eingehende Daten nicht transformiert, aktivieren Sie nicht das Kontrollkästchen **Datentransformation aktivieren**.   
Um eine Lambda-Funktion anzugeben, die Amazon Data Firehose aufrufen und verwenden soll, um eingehende Daten vor der Übermittlung zu transformieren, aktivieren Sie das Kontrollkästchen **Datentransformation aktivieren**. Sie können eine neue Lambda-Funktion mit einem der Lambda-Vorlage konfigurieren oder eine vorhandene Lambda-Funktion auswählen. Ihre Lambda-Funktion muss das von Amazon Data Firehose geforderte Statusmodell enthalten. Weitere Informationen finden Sie unter [Transformieren Sie Quelldaten in Amazon Data Firehose](data-transformation.md).

1. Machen Sie im Bereich **Convert record format (Datensatzformat konvertieren)** Angaben im folgenden Feld:  
**Konvertierung des Datensatzformats**  
Um einen Firehose-Stream zu erstellen, der das Format der eingehenden Datensätze nicht konvertiert, wählen Sie **Disabled**.   
Um das Format der eingehenden Datensätze zu konvertieren, wählen Sie **Enabled (Aktiviert)**. Geben Sie dann das gewünschte Ausgabeformat an. Sie müssen eine AWS Glue Tabelle angeben, die das Schema enthält, das Amazon Data Firehose für die Konvertierung Ihres Datensatzformats verwenden soll. Weitere Informationen finden Sie unter [Konvertieren Sie das Eingabedatenformat in Amazon Data Firehose](record-format-conversion.md).  
Ein Beispiel dafür, wie Sie die Konvertierung von Datensatzformaten einrichten CloudFormation, finden Sie unter [AWS::KinesisFirehose: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

# Zieleinstellungen konfigurieren
<a name="create-destination"></a>

In diesem Abschnitt werden die Einstellungen beschrieben, die Sie für Ihren Firehose-Stream basierend auf dem von Ihnen ausgewählten Ziel konfigurieren müssen. 

**Topics**
+ [

## Zieleinstellungen für Amazon S3 konfigurieren
](#create-destination-s3)
+ [

## Konfigurieren Sie die Zieleinstellungen für Apache Iceberg-Tabellen
](#create-destination-iceberg)
+ [

## Zieleinstellungen für Amazon Redshift konfigurieren
](#create-destination-redshift)
+ [

## Konfigurieren Sie die Zieleinstellungen für den Dienst OpenSearch
](#create-destination-elasticsearch)
+ [

## Konfigurieren Sie die Zieleinstellungen für Serverless OpenSearch
](#create-destination-opensearch-serverless)
+ [

## Konfigurieren Sie die Zieleinstellungen für den HTTP-Endpunkt
](#create-destination-http)
+ [

## Konfigurieren Sie die Zieleinstellungen für Datadog
](#create-destination-datadog)
+ [

## Konfigurieren Sie die Zieleinstellungen für Honeycomb
](#create-destination-honeycomb)
+ [

## Konfigurieren Sie die Zieleinstellungen für Coralogix
](#create-destination-coralogix)
+ [

## Konfigurieren Sie die Zieleinstellungen für Dynatrace
](#create-destination-dynatrace)
+ [

## Konfigurieren Sie die Zieleinstellungen für LogicMonitor
](#create-destination-logicmonitor)
+ [

## Konfiguriere die Zieleinstellungen für Logz.io
](#create-destination-logz)
+ [

## Zieleinstellungen für MongoDB Atlas konfigurieren
](#create-destination-mongodb)
+ [

## Konfigurieren Sie die Zieleinstellungen für New Relic
](#create-destination-new-relic)
+ [

## Konfigurieren Sie die Zieleinstellungen für Snowflake
](#create-destination-snowflake)
+ [

## Konfigurieren Sie die Zieleinstellungen für Splunk
](#create-destination-splunk)
+ [

## Konfigurieren Sie die Zieleinstellungen für Splunk Observability Cloud
](#create-destination-splunk-cloud)
+ [

## Konfigurieren Sie die Zieleinstellungen für Sumo Logic
](#create-destination-sumo-logic)
+ [

## Konfigurieren Sie die Zieleinstellungen für Elastic
](#create-destination-elastic)

## Zieleinstellungen für Amazon S3 konfigurieren
<a name="create-destination-s3"></a>

Sie müssen die folgenden Einstellungen angeben, um Amazon S3 als Ziel für Ihren Firehose-Stream verwenden zu können:

****
+ Geben Sie Werte für folgende Felder ein.  
 **S3 bucket**   
Wählen Sie einen S3-Bucket, den Sie besitzen und an den die Streaming-Daten geliefert werden sollen. Sie können einen neuen S3-Bucket erstellen oder einen vorhandenen wählen.  
 **Neues Zeilentrennzeichen**   
Sie können Ihren Firehose-Stream so konfigurieren, dass ein neues Zeilentrennzeichen zwischen Datensätzen in Objekten hinzugefügt wird, die an Amazon S3 geliefert werden. Wählen Sie dazu **Aktiviert**. Um kein neues Zeilentrennzeichen zwischen Datensätzen in Objekten hinzuzufügen, die an Amazon S3 geliefert werden, wählen Sie **Deaktiviert**. Wenn Sie Athena verwenden möchten, um S3-Objekte mit aggregierten Datensätzen abzufragen, aktivieren Sie diese Option.  
 **Dynamische Partitionierung**   
Wählen Sie **Aktiviert**, um die dynamische Partitionierung zu aktivieren und zu konfigurieren.   
 **Deaggregation mehrerer Datensätze**   
Dabei werden die Datensätze im Firehose-Stream analysiert und entweder anhand eines gültigen JSON-Codes oder anhand des angegebenen neuen Zeilentrennzeichens getrennt.  
Wenn Sie mehrere Ereignisse, Protokolle oder Datensätze zu einem einzigen PutRecord PutRecordBatch API-Aufruf zusammenfassen, können Sie dennoch die dynamische Partitionierung aktivieren und konfigurieren. Wenn Sie bei aggregierten Daten die dynamische Partitionierung aktivieren, analysiert Amazon Data Firehose die Datensätze und sucht innerhalb jedes API-Aufrufs nach mehreren gültigen JSON-Objekten. Wenn der Firehose-Stream mit Kinesis Data Stream als Quelle konfiguriert ist, können Sie auch die integrierte Aggregation in der Kinesis Producer Library (KPL) verwenden. Die Datenpartitionsfunktion wird ausgeführt, nachdem die Daten deaggregiert wurden. Daher kann jeder Datensatz in jedem API-Aufruf an unterschiedliche Amazon-S3-Präfixe übermittelt werden. Sie können die Lambda-Funktionsintegration auch nutzen, um jede andere Deaggregation oder jede andere Transformation vor der Datenpartitionierungsfunktion durchzuführen.  
Wenn Ihre Daten aggregiert sind, kann die dynamische Partitionierung erst nach der Deaggregation der Daten angewendet werden. Wenn Sie also die dynamische Partitionierung für Ihre aggregierten Daten aktivieren, müssen Sie **Aktiviert** auswählen, um die Deaggregation mehrerer Datensätze zu aktivieren. 
Firehose Stream führt die folgenden Verarbeitungsschritte in der folgenden Reihenfolge durch: KPL-Deaggregation (Protobuf), JSON- oder Delimiter-Deaggregation, Lambda-Verarbeitung, Datenpartitionierung, Datenformatkonvertierung und Amazon S3 S3-Lieferung.  
 **Deaggregationstyp für mehrere Datensätze**   
Wenn Sie die Deaggregation mehrerer Datensätze aktiviert haben, müssen Sie die Methode angeben, mit der Firehose Ihre Daten deaggregieren soll. Verwenden Sie das Dropdown-Menü, um entweder **JSON** oder **Delimited** auszuwählen.   
 **Inline-Parsing**   
Dies ist einer der unterstützten Mechanismen zur dynamischen Partitionierung Ihrer Daten, die für Amazon S3 bestimmt sind. Um Inline-Parsing als dynamische Partitionierungsmethode für Ihre Streaming-Daten zu verwenden, müssen Sie Datensatzparameter auswählen, die als Partitionierungsschlüssel verwendet werden sollen, und für jeden angegebenen Partitionierungsschlüssel einen Wert angeben. Wählen Sie **Aktiviert**, um die Inline-Parsing zu aktivieren und zu konfigurieren.  
Wenn Sie in den obigen Schritten eine AWS Lambda-Funktion für die Transformation Ihrer Quelldatensätze angegeben haben, können Sie diese Funktion verwenden, um Ihre an S3 gebundenen Daten dynamisch zu partitionieren, und Sie können Ihre Partitionierungsschlüssel trotzdem mit Inline-Parsing erstellen. Bei der dynamischen Partitionierung können Sie entweder Inline-Parsing oder Ihre AWS Lambda-Funktion verwenden, um Ihre Partitionierungsschlüssel zu erstellen. Oder Sie können sowohl Inline-Parsing als auch Ihre AWS Lambda-Funktion gleichzeitig verwenden, um Ihre Partitionierungsschlüssel zu erstellen.   
 **Dynamische Partitionierung-Schlüssel**   
Sie können die Felder **Schlüssel** und **Wert** verwenden, um die Datensatzparameter anzugeben, die als dynamische Partitionierungsschlüssel verwendet werden sollen, und JQ-Abfragen, um dynamische Partitionierungsschlüsselwerte zu generieren. Firehose unterstützt nur jq 1.6. Sie können bis zu 50 dynamische Partitionierungsschlüssel angeben. Sie müssen gültige JQ-Ausdrücke für Ihre dynamischen Partitionierungsschlüsselwerte eingeben, um die dynamische Partitionierung für Ihren Firehose-Stream erfolgreich zu konfigurieren.  
 **S3-Bucket-Präfix**   
Wenn Sie die dynamische Partitionierung aktivieren und konfigurieren, müssen Sie die S3-Bucket-Präfixe angeben, an die Amazon Data Firehose partitionierte Daten liefern soll.  
Damit die dynamische Partitionierung korrekt konfiguriert werden kann, muss die Anzahl der S3-Bucket-Präfixe mit der Anzahl der angegebenen Partitionierungsschlüssel identisch sein.  
 Sie können Ihre Quelldaten mit Inline-Parsing oder mit Ihrer angegebenen AWS Lambda-Funktion partitionieren. Wenn Sie eine AWS Lambda-Funktion zum Erstellen von Partitionierungsschlüsseln für Ihre Quelldaten angegeben haben, müssen Sie die S3-Bucket-Präfixwerte manuell im folgenden Format eingeben: "partitionKeyFromLambda:KeyID“. Wenn Sie Inline-Parsing verwenden, um die Partitionierungsschlüssel für Ihre Quelldaten anzugeben, können Sie die S3-Bucket-Vorschauwerte entweder manuell im folgenden Format eingeben: "partitionKeyFromquery:keyID“ oder Sie können die Schaltfläche **Dynamische Partitionierungsschlüssel anwenden wählen, um Ihre dynamischen Partitionierungspaare** zur automatischen Generierung Ihrer S3-Bucket-Präfixe zu verwenden. key/value Bei der Partitionierung Ihrer Daten mit Inline-Parsing oder AWS Lambda können Sie auch die folgenden Ausdrucksformen in Ihrem S3-Bucket-Präfix verwenden:\$1 \$1namespace:value\$1, wobei der Namespace entweder Query oder Lambda sein kann. partitionKeyFrom partitionKeyFrom   
 **Zeitzone für das Ausgabepräfix für S3-Bucket und S3-Fehler**   
Wählen Sie eine Zeitzone, die Sie für Datum und Uhrzeit in [benutzerdefinierten Präfixen für Amazon S3 S3-Objekte](s3-prefixes.md) verwenden möchten. Standardmäßig fügt Firehose ein Zeitpräfix in UTC hinzu. Sie können die in S3-Präfixen verwendete Zeitzone ändern, wenn Sie eine andere Zeitzone verwenden möchten.   
 **Hinweise zum Puffern**   
Firehose puffert eingehende Daten, bevor sie an das angegebene Ziel gesendet werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.   
 **S3-Komprimierung**   
Wählen Sie GZIP-, Snappy-, Zip- oder Hadoop-kompatible Snappy-Datenkomprimierung oder keine Datenkomprimierung. Mit Snappy, Zip und Hadoop kompatible Snappy-Komprimierung ist für Firehose-Streams mit Amazon Redshift als Ziel nicht verfügbar.   
**S3-Dateierweiterungsformat (optional)**  
Geben Sie ein Dateierweiterungsformat für Objekte an, die an den Amazon S3 S3-Ziel-Bucket geliefert werden. Wenn Sie diese Funktion aktivieren, überschreibt die angegebene Dateierweiterung die Standarddateierweiterungen, die durch Funktionen zur Datenformatkonvertierung oder S3-Komprimierung wie .parquet oder .gz hinzugefügt wurden. Vergewissern Sie sich, dass Sie die richtige Dateierweiterung konfiguriert haben, wenn Sie diese Funktion mit Datenformatkonvertierung oder S3-Komprimierung verwenden. Die Dateierweiterung muss mit einem Punkt (.) beginnen und kann die zulässigen Zeichen enthalten: 0-9a-z\$1 -\$1.\$1' (). Die Dateierweiterung darf 128 Zeichen nicht überschreiten.  
**S3-Verschlüsselung**  
Firehose unterstützt die serverseitige Amazon S3-Verschlüsselung mit AWS Key Management Service (SSE-KMS) zur Verschlüsselung von gelieferten Daten in Amazon S3. Sie können wählen, ob Sie den im Ziel-S3-Bucket angegebenen Standardverschlüsselungstyp verwenden oder mit einem Schlüssel aus der Liste der Schlüssel verschlüsseln möchten, die Sie besitzen. AWS KMS Wenn Sie die Daten mit AWS KMS Schlüsseln verschlüsseln, können Sie entweder den AWS verwalteten Standardschlüssel (aws/s3) oder einen vom Kunden verwalteten Schlüssel verwenden. Weitere Informationen finden Sie unter [Schutz von Daten mithilfe serverseitiger Verschlüsselung mit AWS KMS-verwalteten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html) Schlüsseln (SSE-KMS). 

## Konfigurieren Sie die Zieleinstellungen für Apache Iceberg-Tabellen
<a name="create-destination-iceberg"></a>

Firehose unterstützt Apache Iceberg Tables als Ziel in allen Regionen [AWS-Regionen](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html?icmpid=docs_homepage_addtlrcs#region)außer China AWS GovCloud (US) Regions, Asien-Pazifik (Taipeh), Asien-Pazifik (Malaysia), Asien-Pazifik (Neuseeland) und Mexiko (Zentral).

Weitere Informationen zu Apache Iceberg Tables als Ziel finden Sie unter. [Liefern Sie Daten mit Amazon Data Firehose an Apache Iceberg Tables](apache-iceberg-destination.md)

## Zieleinstellungen für Amazon Redshift konfigurieren
<a name="create-destination-redshift"></a>

In diesem Abschnitt werden Einstellungen für die Verwendung von Amazon Redshift als Firehose-Stream-Ziel beschrieben.

Wählen Sie eines der folgenden Verfahren, je nachdem, ob Sie über einen von Amazon Redshift bereitgestellten Cluster oder eine Arbeitsgruppe von Amazon Redshift Serverless verfügen.
+ [Von Amazon Redshift bereitgestellte Cluster](#create-destination-redshift-provisioned)
+ [Zieleinstellungen für Amazon Redshift Serverless Workgroup konfigurieren](#create-destination-redshift-serverless)
**Anmerkung**  
Firehose kann nicht in Amazon Redshift Redshift-Cluster schreiben, die erweitertes VPC-Routing verwenden.

### Von Amazon Redshift bereitgestellte Cluster
<a name="create-destination-redshift-provisioned"></a>

In diesem Abschnitt werden die Einstellungen für die Verwendung des von Amazon Redshift bereitgestellten Clusters als Firehose-Stream-Ziel beschrieben.

****
+ Geben Sie Werte für folgende Felder ein:  
 **Cluster**   
Das Amazon-Redshift-Cluster, in das S3-Bucket-Daten kopiert werden. Konfigurieren Sie den Amazon Redshift Redshift-Cluster so, dass er öffentlich zugänglich ist, und entsperren Sie die IP-Adressen von Amazon Data Firehose. Weitere Informationen finden Sie unter [Firehose Zugriff auf ein Amazon Redshift Redshift-Ziel gewähren](controlling-access.md#using-iam-rs).  
 **Authentifizierung**   
Sie können wählen, ob Sie das username/password direkt eingeben oder das Geheimnis abrufen möchten, AWS Secrets Manager um auf den Amazon Redshift Redshift-Cluster zuzugreifen.  
  + **Benutzername**

    Geben Sie einen Amazon Redshift Redshift-Benutzer mit Zugriffsberechtigungen für den Amazon Redshift Redshift-Cluster an. Dieser Benutzer muss über die `INSERT`-Berechtigung von Amazon Redshift für das Kopieren von Daten aus dem S3-Bucket in den Amazon-Redshift-Cluster verfügen.
  + **Passwort** 

    Geben Sie das Passwort für den Benutzer an, der über Zugriffsberechtigungen für den Cluster verfügt.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das die Anmeldeinformationen für den Amazon Redshift Redshift-Cluster enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines AWS Secrets Manager für Ihre Amazon Redshift Redshift-Anmeldeinformationen. Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Datenbank**   
Die Amazon-Redshift-Datenbank, in die die Daten kopiert werden.  
 **Tabelle**   
Die Amazon-Redshift-Tabelle, in die die Daten kopiert werden.  
 **Spalten**   
(Optional) Die spezifischen Spalten der Tabelle, zu der die Daten kopiert werden. Verwenden Sie diese Option, wenn die Anzahl der in Ihren Amazon-S3-Objekten definierten Spalten kleiner als die Anzahl der Spalten in der Amazon-Redshift-Tabelle ist.   
 **Intermediäres S3-Zwischenziel**   <a name="redshift-s3-bucket"></a>
Firehose liefert Ihre Daten zuerst an Ihren S3-Bucket und gibt dann einen Amazon Redshift **COPY** Redshift-Befehl aus, um die Daten in Ihren Amazon Redshift Redshift-Cluster zu laden. Geben Sie einen S3-Bucket an, den Sie besitzen und an den die Streaming-Daten geliefert werden sollen. Erstellen Sie einen neuen S3-Bucket oder wählen Sie einen vorhandenen Bucket aus, den Sie besitzen.  
Firehose löscht die Daten nicht aus Ihrem S3-Bucket, nachdem sie in Ihren Amazon Redshift Redshift-Cluster geladen wurden. Sie können die Daten in Ihrem S3-Bucket mithilfe einer Lebenszykluskonfiguration verwalten. Weitere Informationen finden Sie unter [Objekt-Lebenszyklusmanagement](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) im *Benutzerhandbuch zum Amazon Simple Storage Service*.  
 **Intermediate S3-Präfix**   
(Optional) Lassen Sie die Option leer, wenn Sie das Standardpräfix für Amazon-S3-Objekte verwenden möchten. Firehose verwendet automatisch ein Präfix im `YYYY/MM/dd/HH` UTC-Zeitformat für gelieferte Amazon S3 S3-Objekte. Sie können am Anfang dieses Präfix Elemente hinzufügen. Weitere Informationen finden Sie unter [Amazon S3 S3-Objektnamenformat konfigurieren](s3-object-name.md).  
 **COPY-Optionen**   <a name="redshift-copy-parameters"></a>
Parameter, die Sie im **COPY**-Befehl von Amazon Redshift angeben können. Diese sind für Ihre Konfiguration möglicherweise erforderlich. Beispielsweise ist "`GZIP`" erforderlich, wenn die Amazon S3 S3-Datenkomprimierung aktiviert ist. „`REGION`" ist erforderlich, wenn sich Ihr S3-Bucket nicht in derselben AWS Region wie Ihr Amazon Redshift Redshift-Cluster befindet. Weitere Informationen finden Sie unter [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) im *Entwicklerhandbuch für Amazon Redshift Database*.  
 Befehl **COPY**   <a name="redshift-copy-command"></a>
Der **COPY**-Befehl von Amazon Redshift. Weitere Informationen finden Sie unter [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) im *Entwicklerhandbuch für Amazon Redshift Database*.  
 **Retry duration**   
Zeitdauer (0—7200 Sekunden), bis Firehose es erneut versucht, falls Daten in Ihrem Amazon Redshift **COPY** Redshift-Cluster ausfallen. Firehose versucht es alle 5 Minuten, bis die Wiederholungsdauer abgelaufen ist. Wenn Sie die Wiederholungsdauer auf 0 (Null) Sekunden setzen, versucht Firehose bei einem **COPY** fehlgeschlagenen Befehl nicht erneut.  
 **Hinweise zum Puffern**   
Firehose puffert eingehende Daten, bevor sie an das angegebene Ziel gesendet werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.  
 **S3-Komprimierung**   
Wählen Sie GZIP-, Snappy-, Zip- oder Hadoop-kompatible Snappy-Datenkomprimierung oder keine Datenkomprimierung. Mit Snappy, Zip und Hadoop kompatible Snappy-Komprimierung ist für Firehose-Streams mit Amazon Redshift als Ziel nicht verfügbar.   
**S3-Dateierweiterungsformat (optional)**  
S3-Dateierweiterungsformat (optional) — Geben Sie ein Dateierweiterungsformat für Objekte an, die an den Amazon S3 S3-Ziel-Bucket geliefert werden. Wenn Sie diese Funktion aktivieren, überschreibt die angegebene Dateierweiterung die Standarddateierweiterungen, die durch Datenformatkonvertierungs- oder S3-Komprimierungsfunktionen wie .parquet oder .gz hinzugefügt wurden. Vergewissern Sie sich, dass Sie die richtige Dateierweiterung konfiguriert haben, wenn Sie diese Funktion mit Datenformatkonvertierung oder S3-Komprimierung verwenden. Die Dateierweiterung muss mit einem Punkt (.) beginnen und kann die zulässigen Zeichen enthalten: 0-9a-z\$1 -\$1.\$1' (). Die Dateierweiterung darf 128 Zeichen nicht überschreiten.  
**S3-Verschlüsselung**  
Firehose unterstützt die serverseitige Amazon S3-Verschlüsselung mit AWS Key Management Service (SSE-KMS) zur Verschlüsselung von gelieferten Daten in Amazon S3. Sie können wählen, ob Sie den im Ziel-S3-Bucket angegebenen Standardverschlüsselungstyp verwenden oder mit einem Schlüssel aus der Liste der Schlüssel verschlüsseln möchten, die Sie besitzen. AWS KMS Wenn Sie die Daten mit AWS KMS Schlüsseln verschlüsseln, können Sie entweder den AWS verwalteten Standardschlüssel (aws/s3) oder einen vom Kunden verwalteten Schlüssel verwenden. Weitere Informationen finden Sie unter [Schutz von Daten mithilfe serverseitiger Verschlüsselung mit AWS KMS-verwalteten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html) Schlüsseln (SSE-KMS). 

### Zieleinstellungen für Amazon Redshift Serverless Workgroup konfigurieren
<a name="create-destination-redshift-serverless"></a>

In diesem Abschnitt werden Einstellungen für die Verwendung der Amazon Redshift Serverless Workgroup als Firehose-Stream-Ziel beschrieben.

****
+ Geben Sie Werte für folgende Felder ein:  
 **Workgroup name (Name der Arbeitsgruppe)**   
Die Arbeitsgruppe von Amazon Redshift Serverless, in die S3-Bucket-Daten kopiert werden. Konfigurieren Sie die Amazon Redshift Serverless-Arbeitsgruppe so, dass sie öffentlich zugänglich ist, und entsperren Sie die Firehose-IP-Adressen. Weitere Informationen finden Sie im Abschnitt Herstellen einer öffentlich zugänglichen Instance von Amazon Redshift Serverless unter [Verbindung mit Amazon Redshift Serverless herstellen](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-connecting.html) und auch [Firehose Zugriff auf ein Amazon Redshift Redshift-Ziel gewähren](controlling-access.md#using-iam-rs).  
 **Authentifizierung**   
Sie können wählen, ob Sie das username/password direkt eingeben oder das Geheimnis von abrufen möchten AWS Secrets Manager , um auf die Amazon Redshift Serverless Workgroup zuzugreifen.  
  + **Benutzername**

    Geben Sie einen Amazon Redshift-Benutzer mit Zugriffsberechtigungen für die Amazon Redshift Serverless-Arbeitsgruppe an. Dieser Benutzer muss über die `INSERT`-Berechtigung von Amazon Redshift für das Kopieren von Daten aus dem S3-Bucket in die Arbeitsgruppe von Amazon Redshift Serverless verfügen.
  + **Passwort** 

    Geben Sie das Passwort für den Benutzer an, der über Zugriffsberechtigungen für die Amazon Redshift Serverless-Arbeitsgruppe verfügt.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das die Anmeldeinformationen für die Amazon Redshift Serverless Workgroup enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines AWS Secrets Manager für Ihre Amazon Redshift Redshift-Anmeldeinformationen. Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Datenbank**   
Die Amazon-Redshift-Datenbank, in die die Daten kopiert werden.  
 **Tabelle**   
Die Amazon-Redshift-Tabelle, in die die Daten kopiert werden.  
 **Spalten**   
(Optional) Die spezifischen Spalten der Tabelle, zu der die Daten kopiert werden. Verwenden Sie diese Option, wenn die Anzahl der in Ihren Amazon-S3-Objekten definierten Spalten kleiner als die Anzahl der Spalten in der Amazon-Redshift-Tabelle ist.   
 **Intermediäres S3-Zwischenziel**   <a name="redshift-s3-bucket"></a>
Amazon Data Firehose übermittelt Ihre Daten zuerst an Ihren S3-Bucket und gibt dann einen Amazon **COPY** Redshift-Befehl aus, um die Daten in Ihre Amazon Redshift Serverless-Arbeitsgruppe zu laden. Geben Sie einen S3-Bucket an, den Sie besitzen und an den die Streaming-Daten geliefert werden sollen. Erstellen Sie einen neuen S3-Bucket oder wählen Sie einen vorhandenen Bucket aus, den Sie besitzen.  
Firehose löscht die Daten nicht aus Ihrem S3-Bucket, nachdem sie in Ihre Amazon Redshift Serverless-Arbeitsgruppe geladen wurden. Sie können die Daten in Ihrem S3-Bucket mithilfe einer Lebenszykluskonfiguration verwalten. Weitere Informationen finden Sie unter [Objekt-Lebenszyklusmanagement](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) im *Benutzerhandbuch zum Amazon Simple Storage Service*.  
 **Intermediate S3-Präfix**   
(Optional) Lassen Sie die Option leer, wenn Sie das Standardpräfix für Amazon-S3-Objekte verwenden möchten. Firehose verwendet automatisch ein Präfix im `YYYY/MM/dd/HH` UTC-Zeitformat für gelieferte Amazon S3 S3-Objekte. Sie können am Anfang dieses Präfix Elemente hinzufügen. Weitere Informationen finden Sie unter [Amazon S3 S3-Objektnamenformat konfigurieren](s3-object-name.md).  
 **COPY-Optionen**   <a name="redshift-copy-parameters"></a>
Parameter, die Sie im **COPY**-Befehl von Amazon Redshift angeben können. Diese sind für Ihre Konfiguration möglicherweise erforderlich. Beispielsweise ist "`GZIP`" erforderlich, wenn die Amazon S3 S3-Datenkomprimierung aktiviert ist. „`REGION`" ist erforderlich, wenn sich Ihr S3-Bucket nicht in derselben AWS Region wie Ihre Amazon Redshift Serverless-Arbeitsgruppe befindet. Weitere Informationen finden Sie unter [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) im *Entwicklerhandbuch für Amazon Redshift Database*.  
 Befehl **COPY**   <a name="redshift-copy-command"></a>
Der **COPY**-Befehl von Amazon Redshift. Weitere Informationen finden Sie unter [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) im *Entwicklerhandbuch für Amazon Redshift Database*.  
 **Retry duration**   
Zeitdauer (0—7200 Sekunden), bis Firehose es erneut versucht, falls Daten **COPY** an Ihre Amazon Redshift Serverless-Arbeitsgruppe ausfallen. Firehose versucht es alle 5 Minuten, bis die Wiederholungsdauer abgelaufen ist. Wenn Sie die Wiederholungsdauer auf 0 (Null) Sekunden setzen, versucht Firehose bei einem **COPY** fehlgeschlagenen Befehl nicht erneut.  
 **Hinweise zum Puffern**   
Firehose puffert eingehende Daten, bevor sie an das angegebene Ziel gesendet werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.  
 **S3-Komprimierung**   
Wählen Sie GZIP-, Snappy-, Zip- oder Hadoop-kompatible Snappy-Datenkomprimierung oder keine Datenkomprimierung. Mit Snappy, Zip und Hadoop kompatible Snappy-Komprimierung ist für Firehose-Streams mit Amazon Redshift als Ziel nicht verfügbar.   
**S3-Dateierweiterungsformat (optional)**  
S3-Dateierweiterungsformat (optional) — Geben Sie ein Dateierweiterungsformat für Objekte an, die an den Amazon S3 S3-Ziel-Bucket geliefert werden. Wenn Sie diese Funktion aktivieren, überschreibt die angegebene Dateierweiterung die Standarddateierweiterungen, die durch Datenformatkonvertierungs- oder S3-Komprimierungsfunktionen wie .parquet oder .gz hinzugefügt wurden. Vergewissern Sie sich, dass Sie die richtige Dateierweiterung konfiguriert haben, wenn Sie diese Funktion mit Datenformatkonvertierung oder S3-Komprimierung verwenden. Die Dateierweiterung muss mit einem Punkt (.) beginnen und kann die zulässigen Zeichen enthalten: 0-9a-z\$1 -\$1.\$1' (). Die Dateierweiterung darf 128 Zeichen nicht überschreiten.  
**S3-Verschlüsselung**  
Firehose unterstützt die serverseitige Amazon S3-Verschlüsselung mit AWS Key Management Service (SSE-KMS) zur Verschlüsselung von gelieferten Daten in Amazon S3. Sie können wählen, ob Sie den im Ziel-S3-Bucket angegebenen Standardverschlüsselungstyp verwenden oder mit einem Schlüssel aus der Liste der Schlüssel verschlüsseln möchten, die Sie besitzen. AWS KMS Wenn Sie die Daten mit AWS KMS Schlüsseln verschlüsseln, können Sie entweder den AWS verwalteten Standardschlüssel (aws/s3) oder einen vom Kunden verwalteten Schlüssel verwenden. Weitere Informationen finden Sie unter [Schutz von Daten mithilfe serverseitiger Verschlüsselung mit AWS KMS-verwalteten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html) Schlüsseln (SSE-KMS). 

## Konfigurieren Sie die Zieleinstellungen für den Dienst OpenSearch
<a name="create-destination-elasticsearch"></a>

Firehose unterstützt Elasticsearch-Versionen — 1.5, 2.3, 5.1, 5.3, 5.5, 5.6 sowie alle 6.\$1-, 7.\$1- und 8.\$1-Versionen. Firehose unterstützt Amazon OpenSearch Service 2.x und 3.x.

In diesem Abschnitt werden Optionen für die Nutzung von OpenSearch Service für Ihr Ziel beschrieben.

****
+ Geben Sie Werte für folgende Felder ein:  
** **OpenSearch Dienstdomäne** **  
Die OpenSearch Dienstdomäne, an die Ihre Daten übermittelt werden.  
** **Index** **  
Der OpenSearch Service-Indexname, der bei der Indizierung von Daten in Ihrem OpenSearch Service-Cluster verwendet werden soll.  
** **Index rotation** **  
Wählen Sie aus, ob und wie oft der OpenSearch Serviceindex rotiert werden soll. Wenn Indexrotation aktiviert ist, fügt Amazon Data Firehose dem angegebenen Indexnamen den entsprechenden Zeitstempel an und rotiert. Weitere Informationen finden Sie unter [Konfigurieren Sie die Indexrotation für Service OpenSearch](es-index-rotation.md).  
** **Typ** **  
Der Name des OpenSearch Diensttyps, der bei der Indizierung von Daten für Ihren OpenSearch Servicecluster verwendet werden soll. Für Elasticsearch 7.x und OpenSearch 1.x kann es nur einen Typ pro Index geben. Wenn Sie versuchen, einen neuen Typ für einen vorhandenen Index anzugeben, der bereits einen anderen Typ hat, gibt Firehose zur Laufzeit einen Fehler zurück.   
Lassen Sie dieses Feld für Elasticsearch 7.x leer.  
** **Retry duration** **  
Zeitdauer, die Firehose benötigt, um es erneut zu versuchen, falls eine Indexanforderung fehlschlägt. OpenSearch Für die Dauer des Wiederholungsversuchs können Sie einen beliebigen Wert zwischen 0 und 7200 Sekunden festlegen. Die Standarddauer für den Wiederholungsversuch beträgt 300 Sekunden. Firehose versucht es mehrmals mit exponentiellem Back Off, bis die Wiederholungsdauer abgelaufen ist.  
Nach Ablauf der Wiederholungsdauer übermittelt Firehose die Daten an die Dead Letter Queue (DLQ), einen konfigurierten S3-Fehler-Bucket. Für Daten, die an DLQ geliefert werden, müssen Sie die Daten erneut vom konfigurierten S3-Fehler-Bucket zum Ziel zurückleiten. OpenSearch   
Wenn Sie verhindern möchten, dass der Firehose-Stream aufgrund von Ausfallzeiten oder Wartungsarbeiten an OpenSearch Clustern Daten an DLQ übermittelt, können Sie die Wiederholungsdauer auf einen höheren Wert in Sekunden konfigurieren. [Sie können den Wert für die Wiederholungsdauer auf einen Wert von über 7200 Sekunden erhöhen, indem Sie sich an den Support wenden.AWS](https://aws.amazon.com/contact-us/)   
** **DocumentID-Typ** **  
Gibt die Methode zum Einrichten der Dokument-ID an. Die unterstützten Methoden sind Firehose-generierte Dokument-ID und OpenSearch Service-generierte Dokument-ID. Die von Firehose generierte Dokument-ID ist die Standardoption, wenn der Dokument-ID-Wert nicht festgelegt ist. OpenSearch Die vom Dienst generierte Dokument-ID ist die empfohlene Option, da sie schreibintensive Operationen wie Protokollanalysen und Beobachtbarkeit unterstützt, wodurch weniger CPU-Ressourcen in der OpenSearch Dienstdomäne verbraucht werden und somit die Leistung verbessert wird.  
** **Destination VPC connectivity (Ziel-VPC-Konnektivität** **  
Wenn sich Ihre OpenSearch Service-Domain in einer privaten VPC befindet, verwenden Sie diesen Abschnitt, um diese VPC anzugeben. Geben Sie auch die Subnetze und Untergruppen an, die Amazon Data Firehose verwenden soll, wenn es Daten an Ihre OpenSearch Service-Domain sendet. Sie können dieselben Sicherheitsgruppen verwenden, die die OpenSearch Service-Domain verwendet. Wenn Sie verschiedene Sicherheitsgruppen angeben, stellen Sie sicher, dass diese ausgehenden HTTPS-Verkehr zur Sicherheitsgruppe der OpenSearch Dienstdomäne zulassen. Stellen Sie außerdem sicher, dass die Sicherheitsgruppe der OpenSearch Service-Domain HTTPS-Verkehr von den Sicherheitsgruppen zulässt, die Sie bei der Konfiguration Ihres Firehose-Streams angegeben haben. Wenn Sie dieselbe Sicherheitsgruppe sowohl für Ihren Firehose-Stream als auch für die OpenSearch Service-Domain verwenden, stellen Sie sicher, dass die eingehende Regel der Sicherheitsgruppe HTTPS-Verkehr zulässt. Weitere Informationen zu den Regeln der Sicherheitsgruppe finden Sie unter [Sicherheitsgruppenregeln](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#SecurityGroupRules) im Amazon-VPC-Benutzerhandbuch.  
Wenn Sie Subnetze für die Übertragung von Daten an das Ziel in einer privaten VPC angeben, stellen Sie sicher, dass Sie über genügend freie IP-Adressen in den ausgewählten Subnetzen verfügen. Wenn in einem bestimmten Subnetz keine kostenlose IP-Adresse verfügbar ist, kann Firehose die Datenlieferung in der privaten VPC nicht erstellen oder hinzufügen ENIs , und die Lieferung wird beeinträchtigt oder schlägt fehl.  
**Puffer-Hinweise**  
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.

## Konfigurieren Sie die Zieleinstellungen für Serverless OpenSearch
<a name="create-destination-opensearch-serverless"></a>

In diesem Abschnitt werden Optionen für die Verwendung von OpenSearch Serverless für Ihr Ziel beschrieben.

****
+ Geben Sie Werte für folgende Felder ein:  
** **OpenSearch Serverlose Erfassung** **  
Der Endpunkt für eine Gruppe von OpenSearch serverlosen Indizes, an die Ihre Daten übermittelt werden.  
** **Index** **  
Der OpenSearch Serverless-Indexname, der bei der Indizierung von Daten für Ihre Serverless-Sammlung verwendet werden soll. OpenSearch   
** **Destination VPC connectivity (Ziel-VPC-Konnektivität** **  
Wenn sich Ihre OpenSearch Serverless-Sammlung in einer privaten VPC befindet, verwenden Sie diesen Abschnitt, um diese VPC anzugeben. Geben Sie auch die Subnetze und Untergruppen an, die Amazon Data Firehose verwenden soll, wenn es Daten an Ihre OpenSearch Serverless-Sammlung sendet.  
Wenn Sie Subnetze für die Übertragung von Daten an das Ziel in einer privaten VPC angeben, stellen Sie sicher, dass Sie über genügend freie IP-Adressen in den ausgewählten Subnetzen verfügen. Wenn in einem bestimmten Subnetz keine kostenlose IP-Adresse verfügbar ist, kann Firehose die Datenlieferung in der privaten VPC nicht erstellen oder hinzufügen ENIs , und die Lieferung wird beeinträchtigt oder schlägt fehl.  
** **Retry duration** **  
Zeitdauer, bis Firehose es erneut versucht, falls eine Indexanforderung an OpenSearch Serverless fehlschlägt. Für die Dauer des Wiederholungsversuchs können Sie einen beliebigen Wert zwischen 0 und 7200 Sekunden festlegen. Die Standarddauer für den Wiederholungsversuch beträgt 300 Sekunden. Firehose versucht es mehrmals mit exponentiellem Back Off, bis die Wiederholungsdauer abgelaufen ist.  
Nach Ablauf der Wiederholungsdauer übermittelt Firehose die Daten an die Dead Letter Queue (DLQ), einen konfigurierten S3-Fehler-Bucket. Für Daten, die an DLQ geliefert werden, müssen Sie die Daten erneut vom konfigurierten S3-Fehler-Bucket zum serverlosen Ziel zurückleiten. OpenSearch   
Wenn Sie verhindern möchten, dass Firehose Stream aufgrund von Ausfallzeiten oder Wartungsarbeiten an OpenSearch serverlosen Clustern Daten an DLQ übermittelt, können Sie die Wiederholungsdauer auf einen höheren Wert in Sekunden konfigurieren. [Sie können den Wert für die Dauer der Wiederholungsversuche auf einen Wert von über 7200 Sekunden erhöhen, indem Sie sich an den Support wenden.AWS](https://aws.amazon.com/contact-us/)   
**Puffer-Hinweise**  
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.

## Konfigurieren Sie die Zieleinstellungen für den HTTP-Endpunkt
<a name="create-destination-http"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **HTTP Endpunkt** als Ihr Ziel beschrieben.

**Wichtig**  
Wenn Sie einen HTTP-Endpunkt als Ziel wählen, lesen und befolgen Sie die Anweisungen unter[Verstehen Sie die Anforderungen- und Antwortspezifikationen für die HTTP-Endpunktzustellung](httpdeliveryrequestresponse.md).

****
+ Geben Sie Werte für folgende Felder an:  
 **Name des HTTP-Endpunkts – optional**   
Geben Sie einen benutzerfreundlichen Namen für den HTTP-Endpunkt an. Beispiel, `My HTTP Endpoint Destination`.  
 **URL des HTTP-Endpunkts**   
Geben Sie die URL für den HTTP-Endpunkt im folgenden Format an: `https://xyz.httpendpoint.com`. Die URL muss eine HTTPS-URL sein.  
 **Authentifizierung**   
Sie können entweder den Zugriffsschlüssel direkt eingeben oder das Geheimnis abrufen, AWS Secrets Manager um auf den HTTP-Endpunkt zuzugreifen.  
  + **(Optional) Zugriffsschlüssel** 

    Wenden Sie sich an den Endpunktbesitzer, wenn Sie den Zugriffsschlüssel benötigen, um die Datenlieferung an seinen Endpunkt von Firehose zu ermöglichen.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das den Zugriffsschlüssel für den HTTP-Endpunkt enthält. Wenn Sie Ihr Geheimnis nicht in der Dropdownliste sehen, erstellen Sie eines AWS Secrets Manager für den Zugriffsschlüssel. Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Inhaltskodierung**   
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP** oder **Deaktiviert** für die enable/disable Inhaltskodierung Ihrer Anfrage.   
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an den ausgewählten HTTP-Endpunkt zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.  
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.  
Wenn Sie für die HTTP-Endpunktziele 413 Antwortcodes vom Zielendpunkt in CloudWatch Logs sehen, verringern Sie die Größe der Pufferhinweise in Ihrem Firehose-Stream und versuchen Sie es erneut.

## Konfigurieren Sie die Zieleinstellungen für Datadog
<a name="create-destination-datadog"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **Datadog** als Ziel beschrieben. [Weitere Informationen zu Datadog finden Sie unter amazon\$1web\$1services/. https://docs.datadoghq.com/integrations/](https://docs.datadoghq.com/integrations/amazon_web_services/)

****
+ Geben Sie Werte für die folgenden Felder an.  
 **URL des HTTP-Endpunkts**   
Wählen Sie aus einer der folgenden Optionen im Dropdownmenü aus, wohin Sie Daten senden möchten.  
  + **Datadog protokolliert - US1**
  + **Datadog-Protokolle - US3**
  + **Datadog-Protokolle - US5**
  + **Datadog-Protokolle - AP1**
  + **Datadog-Protokolle – US**
  + **Datadog-Protokolle – GOV**
  + **Datadog-Metriken – USA**
  + **Datadog-Metriken - US5**
  + **Datadog-Metriken - AP1**
  + **Datadog-Metriken – EU**
  + **Datadog-Konfigurationen - US1**
  + **Datadog-Konfigurationen - US3**
  + **Datadog-Konfigurationen - US5**
  + **Datadog-Konfigurationen - AP1**
  + **Datadog-Konfigurationen - EU**
  + **Datadog-Konfigurationen — US-Regierung**  
 **Authentifizierung**   
Sie können entweder den API-Schlüssel direkt eingeben oder den geheimen Schlüssel für den Zugriff auf Datadog abrufen. AWS Secrets Manager   
  + **API-Schlüssel** 

    Wenden Sie sich an Datadog, um den API-Schlüssel zu erhalten, den Sie benötigen, um die Datenlieferung an diesen Endpunkt von Firehose zu aktivieren.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das den API-Schlüssel für Datadog enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in. AWS Secrets Manager Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Inhaltskodierung**   
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP** oder **Deaktiviert** für die enable/disable Inhaltskodierung Ihrer Anfrage.   
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an den ausgewählten HTTP-Endpunkt zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.

## Konfigurieren Sie die Zieleinstellungen für Honeycomb
<a name="create-destination-honeycomb"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **Honeycomb** als Ziel beschrieben. Weitere Informationen zu Honeycomb finden Sie unter [https://docs.honeycomb. -cloudwatch-metrics/. io/getting-data-in/metrics/aws](https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/ )

****
+ Geben Sie Werte für folgende Felder an:  
 **Honeycomb-Kinesis-Endpunkt**   
Geben Sie die URL für den HTTP-Endpunkt im folgenden Format an: b.io/1/kinesis\$1events/ \$1\$1dataset\$1\$1 https://api.honeycom   
 **Authentifizierung**   
Sie können entweder den API-Schlüssel direkt eingeben oder den geheimen Schlüssel für den Zugriff auf Honeycomb abrufen. AWS Secrets Manager   
  + **API-Schlüssel** 

    Wenden Sie sich an Honeycomb, um den API-Schlüssel zu erhalten, den Sie benötigen, um die Datenlieferung an diesen Endpunkt von Firehose zu aktivieren.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das den API-Schlüssel für Honeycomb enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in AWS Secrets Manager. Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Inhaltskodierung**   
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP**, um die Inhaltskodierung Ihrer Anfrage zu aktivieren. Dies ist die empfohlene Option für das Ziel Honeycomb.  
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an den ausgewählten HTTP-Endpunkt zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.

## Konfigurieren Sie die Zieleinstellungen für Coralogix
<a name="create-destination-coralogix"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **Coralogix** als Ziel beschrieben. [Weitere Informationen zu Coralogix finden Sie unter Erste Schritte mit Coralogix.](https://coralogix.com/docs/guide-first-steps-coralogix/)

****
+ Geben Sie Werte für folgende Felder an:  
 **URL des HTTP-Endpunkts**   
Wählen Sie die HTTP-Endpunkt-URL aus den folgenden Optionen im Dropdown-Menü aus:  
  + **Coralogix – USA**
  + **Coralogix – SINGAPUR**
  + **Coralogix – IRLAND**
  + **Coralogix - INDIEN**
  + **Coralogix - STOCKHOLM**  
 **Authentifizierung**   
Sie können entweder den privaten Schlüssel direkt eingeben oder den geheimen Schlüssel für den Zugriff auf Coralogix abrufen. AWS Secrets Manager   
  + **Privater Aktivierungsschlüssel** 

    Wenden Sie sich an Coralogix, um den privaten Schlüssel, den Sie für die Datenlieferung an diesen Endpunkt benötigen, von Firehose zu erhalten.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das den privaten Schlüssel für Coralogix enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in. AWS Secrets Manager Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Inhaltskodierung**   
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP**, um die Inhaltskodierung Ihrer Anfrage zu aktivieren. Dies ist die empfohlene Option für das Coralogix-Ziel.  
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an den ausgewählten HTTP-Endpunkt zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
  + applicationName: Die Umgebung, in der Sie Data Firehose ausführen
  + subsystemName: Der Name der Data-Firehose-Integration
  + computerName: Der Name des verwendeten Firehose-Streams  
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel variiert je nach Dienstanbieter.

## Konfigurieren Sie die Zieleinstellungen für Dynatrace
<a name="create-destination-dynatrace"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **Dynatrace** als Ziel beschrieben. [Weitere Informationen finden Sie unter -metric-streams/ https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch.](https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/)

****
+ Wählen Sie Optionen, um Dynatrace als Ziel für Ihren Firehose-Stream zu verwenden.  
 **Art der Einnahme**   
Wählen Sie aus, ob Sie **Metriken** oder **Protokolle** (Standard) zur weiteren Analyse und Verarbeitung in Dynatrace bereitstellen möchten.  
 **URL des HTTP-Endpunkts**   
Wählen Sie die HTTP-Endpunkt-URL (**Dynatrace US, Dynatrace** **EU oder **Dynatrace** Global**) aus dem Drop-down-Menü aus.  
 **Authentifizierung**   
Sie können entweder das API-Token direkt eingeben oder das Geheimnis für den Zugriff auf Dynatrace abrufen. AWS Secrets Manager   
  + **API-Token** 

    Generieren Sie das Dynatrace-API-Token, das Sie benötigen, um die Datenlieferung von Firehose an diesen Endpunkt zu aktivieren. Weitere Informationen finden Sie unter [Dynatrace API](https://docs.dynatrace.com/docs/dynatrace-api/basics/dynatrace-api-authentication) — Tokens und Authentifizierung.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das das API-Token für Dynatrace enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in. AWS Secrets Manager Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **API-URL**   
Geben Sie die API-URL Ihrer Dynatrace-Umgebung an.  
 **Inhaltskodierung**   
Wählen Sie aus, ob Sie die Inhaltskodierung aktivieren möchten, um den Hauptteil der Anfrage zu komprimieren. Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wenn diese Option aktiviert ist, wird der Inhalt im **GZIP-Format** komprimiert.  
 **Retry duration**   
Geben Sie an, wie lange Firehose erneut versucht, Daten an den ausgewählten HTTP-Endpunkt zu senden.   
Nach dem Senden von Daten wartet Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Firehose Daten an den HTTP-Endpunkt sendet, entweder beim ersten Versuch oder nach einem erneuten Versuch, startet es den Timeout-Zähler für die Bestätigung neu und wartet auf eine Bestätigung vom HTTP-Endpunkt.   
Selbst wenn die Wiederholungsdauer abläuft, wartet Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Firehose, ob noch Zeit im Wiederholungszähler übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
**Hinweise zum Puffern**  
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die Pufferhinweise beinhalten die Puffergröße und das Intervall für Ihre Streams. Die empfohlene Puffergröße für das Ziel variiert je nach Dienstanbieter.

## Konfigurieren Sie die Zieleinstellungen für LogicMonitor
<a name="create-destination-logicmonitor"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **LogicMonitor** als Ziel beschrieben. Weitere Informationen finden Sie unter [https://www.logicmonitor.com](https://www.logicmonitor.com).

****
+ Geben Sie Werte für folgende Felder an:  
 **URL des HTTP-Endpunkts**   
Geben Sie die URL für den HTTP-Endpunkt im folgenden Format an.  

  ```
  https://ACCOUNT.logicmonitor.com
  ```  
 **Authentifizierung**   
Sie können entweder den API-Schlüssel direkt eingeben oder das Geheimnis abrufen, von dem aus Sie AWS Secrets Manager darauf zugreifen können LogicMonitor.  
  + **API-Schlüssel** 

    Wenden Sie sich LogicMonitor an Firehose, um den API-Schlüssel zu erhalten, den Sie benötigen, um die Datenlieferung an diesen Endpunkt zu aktivieren.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das den API-Schlüssel für LogicMonitor enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in AWS Secrets Manager. Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Inhaltskodierung**   
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP** oder **Deaktiviert** für die enable/disable Inhaltskodierung Ihrer Anfrage.   
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an den ausgewählten HTTP-Endpunkt zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.

## Konfiguriere die Zieleinstellungen für Logz.io
<a name="create-destination-logz"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **Logz.io** als Ziel beschrieben. [Weitere Informationen finden Sie unter https://logz.io/.](https://logz.io/)

**Anmerkung**  
In der Region Europa (Mailand) wird Logz.io nicht als Ziel für Amazon Data Firehose unterstützt.

****
+ Geben Sie Werte für folgende Felder an:  
 **URL des HTTP-Endpunkts**   
Geben Sie die URL für den HTTP-Endpunkt im folgenden Format an. Die URL muss eine `HTTPS` URL sein.  

  ```
  https://listener-aws-metrics-stream-<region>.logz.io/
  ```
Beispiel  

  ```
  https://listener-aws-metrics-stream-us.logz.io/
  ```  
 **Authentifizierung**   
Sie können entweder das Versand-Token direkt eingeben oder das Secret von abrufen, AWS Secrets Manager um auf Logz.io zuzugreifen.  
  + **Versand-Token** 

    Wenden Sie sich an Logz.io, um das Versand-Token zu erhalten, das Sie benötigen, um die Datenlieferung an diesen Endpunkt von Firehose zu aktivieren.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das das Versand-Token für Logz.io enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in. AWS Secrets Manager Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an Logz.io zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.

## Zieleinstellungen für MongoDB Atlas konfigurieren
<a name="create-destination-mongodb"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **MongoDB Atlas** für Ihr Ziel beschrieben. Weitere Informationen finden Sie unter [MongoDB Atlas in Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws).

****
+ Geben Sie Werte für folgende Felder an:  
**URL des API Gateway**  
Geben Sie die URL für den HTTP-Endpunkt im folgenden Format an.  

  ```
   https://xxxxx.execute-api.region.amazonaws.com/stage
  ```
Die URL muss eine `HTTPS` URL sein.   
 **Authentifizierung**   
Sie können entweder den API-Schlüssel direkt eingeben oder das Geheimnis abrufen, AWS Secrets Manager um auf MongoDB Atlas zuzugreifen.  
  + **API-Schlüssel** 

    Folgen Sie den Anweisungen in [MongoDB Atlas on Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws), um die Informationen zu erhalten`APIKeyValue`, die Sie benötigen, um die Datenlieferung an diesen Endpunkt von Firehose zu aktivieren.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das den API-Schlüssel für API Gateway enthält, der von Lambda unterstützt wird, das mit MongoDB Atlas interagiert. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in. AWS Secrets Manager Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
**Inhaltskodierung**  
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP** oder **Deaktiviert** für die enable/disable Inhaltskodierung Ihrer Anfrage.   
**Retry duration**  
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an den ausgewählten Drittanbieter zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
**Hinweise zum Puffern**  
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.  
**Parameter – optional**  
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren. 

## Konfigurieren Sie die Zieleinstellungen für New Relic
<a name="create-destination-new-relic"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **New Relic** als Ziel beschrieben. Weitere Informationen finden Sie unter [https://newrelic.com](https://newrelic.com). 

****
+ Geben Sie Werte für folgende Felder an:  
 **URL des HTTP-Endpunkts**   
Wählen Sie die HTTP-Endpunkt-URL aus den folgenden Optionen in der Drop-down-Liste aus.  
  + **New-Relic-Protokolle – USA**
  + **New-Relic-Metriken – USA**
  + **New-Relic-Metriken – EU**  
 **Authentifizierung**   
Sie können entweder den API-Schlüssel direkt eingeben oder das Geheimnis von abrufen, AWS Secrets Manager um auf New Relic zuzugreifen.  
  + **API-Schlüssel** 

    Geben Sie Ihren Lizenzschlüssel, eine 40-stellige hexadezimale Zeichenfolge, in den Einstellungen Ihres New Relic One Accounts ein. Sie benötigen diesen API-Schlüssel, um die Datenlieferung von Firehose an diesen Endpunkt zu ermöglichen.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das den API-Schlüssel für New Relic enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in AWS Secrets Manager. Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Inhaltskodierung**   
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP** oder **Deaktiviert** für die enable/disable Inhaltskodierung Ihrer Anfrage.   
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an den New Relic HTTP-Endpunkt zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.

## Konfigurieren Sie die Zieleinstellungen für Snowflake
<a name="create-destination-snowflake"></a>

In diesem Abschnitt werden Optionen für die Verwendung von Snowflake für Ihr Ziel beschrieben.

**Anmerkung**  
Die Firehose-Integration mit Snowflake ist in den USA Ost (Nord-Virginia), USA West (Oregon), Europa (Irland), USA Ost (Ohio), Asien-Pazifik (Tokio), Europa (Frankfurt), Asien-Pazifik (Singapur), Asien-Pazifik (Seoul) und Asien-Pazifik (Sydney), Asien-Pazifik (Mumbai), Europa (London), Südamerika (Sao Paulo), Kanada (Zentral), Europa (Paris), Asien-Pazifik, Asien-Pazifik, Asien-Pazifik (Paris), Asien-Pazifik verfügbar (Osaka), Europa (Stockholm), Asien-Pazifik (Jakarta). AWS-Regionen

**Verbindungseinstellungen**

****
+ Geben Sie Werte für folgende Felder an:  
 **Snowflake-Konto-URL**   
Geben Sie eine Snowflake-Konto-URL an. Beispiel: `xy12345.us-east-1.aws.snowflakecomputing.com`. Informationen zum Ermitteln Ihrer Konto-URL finden Sie in der [Snowflake-Dokumentation](https://docs.snowflake.com/en/user-guide/admin-account-identifier#format-2-legacy-account-locator-in-a-region). Beachten Sie, dass Sie die Portnummer nicht angeben dürfen, wohingegen das Protokoll (https://) optional ist.  
 **Authentifizierung**   
Sie können entweder den Benutzernamen, den privaten Schlüssel und die Passphrase manuell eingeben oder das Geheimnis für den Zugriff auf Snowflake abrufen. AWS Secrets Manager   
  + **Anmeldung des Benutzers**

    Geben Sie den Snowflake-Benutzer an, der zum Laden von Daten verwendet werden soll. Stellen Sie sicher, dass der Benutzer Zugriff dafür hat, Daten in die Snowflake-Tabelle einzufügen.
  + **Privater Aktivierungsschlüssel**

    Geben Sie den privaten Schlüssel für die Authentifizierung mit Snowflake im Format an. `PKCS8` Nehmen Sie außerdem keine PEM-Header und -Fußzeile als Teil des privaten Schlüssels auf. Wenn der Schlüssel auf mehrere Zeilen aufgeteilt ist, entfernen Sie die Zeilenumbrüche. Im Folgenden finden Sie ein Beispiel dafür, wie Ihr privater Schlüssel aussehen muss.

    ```
    -----BEGIN PRIVATE KEY-----
    KEY_CONTENT
    -----END PRIVATE KEY-----
    ```

    Entfernen Sie das Leerzeichen darin `KEY_CONTENT` und stellen Sie es Firehose zur Verfügung. Es sind keine Zeichen header/footer oder Zeilenumbrüche erforderlich.
  + **Passphrase** 

    Geben Sie die Passphrase zum Entschlüsseln des verschlüsselten privaten Schlüssels an. Sie können dieses Feld leer lassen, wenn der private Schlüssel nicht verschlüsselt ist. Weitere Informationen finden Sie unter [Verwenden von Schlüsselpaar-Authentifizierung und Schlüsselrotation](https://docs.snowflake.com/en/user-guide/data-load-snowpipe-streaming-configuration#using-key-pair-authentication-key-rotation).
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das die Anmeldeinformationen für Snowflake enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in. AWS Secrets Manager Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Konfiguration der Rollen**   
Standard-Snowflake-Rolle verwenden – wenn diese Option ausgewählt ist, übergibt Firehose keine Rolle an Snowflake. Die Standardrolle wird zum Laden von Daten angenommen. Bitte stellen Sie sicher, dass die Standardrolle berechtigt ist, Daten in die Snowflake-Tabelle einzufügen.  
Benutzerdefinierte Snowflake-Rolle verwenden – geben Sie eine nicht standardmäßige Snowflake-Rolle ein, die Firehose beim Laden von Daten in die Snowflake-Tabelle übernehmen soll.  
 **Snowflake-Konnektivität**   
Die Optionen sind **Privat** oder **Öffentlich**.  
 **Private VPCE-ID (optional)**   
Die VPCE-ID für Firehose für die private Verbindung mit Snowflake. Das ID-Format ist com.amazonaws.vpce. [Region] .vpce-svc-. *[id]* [Weitere Informationen finden Sie unter & Snowflake.AWS PrivateLink ](https://docs.snowflake.com/en/user-guide/admin-security-privatelink)  
Wenn Ihr Snowflake-Cluster für private Links aktiviert ist, verwenden Sie eine `AwsVpceIds` basierte Netzwerkrichtlinie, um Amazon Data Firehose-Daten zuzulassen. Firehose verlangt nicht, dass Sie eine IP-basierte Netzwerkrichtlinie in Ihrem Snowflake-Konto konfigurieren. Die Aktivierung einer IP-basierten Netzwerkrichtlinie könnte die Firehose-Konnektivität beeinträchtigen. Wenn Sie einen Sonderfall haben, für den IP-basierte Richtlinien erforderlich sind, wenden Sie sich an das Firehose-Team, indem Sie ein [Support-Ticket](https://support.console.aws.amazon.com/support/home?region=us-east-1#/case/create) einreichen. Eine Liste der VPCE IDs , die Sie verwenden können, finden Sie im. [Zugreifen auf Snowflake in VPC](controlling-access.md#using-iam-snowflake-vpc)

**Datenbankkonfiguration**
+ Sie müssen die folgenden Einstellungen angeben, um Snowflake als Ziel für Ihren Firehose-Stream verwenden zu können:
  + Snowflake-Datenbank – alle Daten in Snowflake werden in Datenbanken verwaltet.
  + Snowflake-Schema – jede Datenbank besteht aus mindestens einem Schema, bei dem es sich um logische Gruppierungen von Datenbankobjekten wie Tabellen und Ansichten handelt.
  + Snowflake-Tabelle – alle Daten in Snowflake werden in Datenbanktabellen gespeichert, die logisch als Sammlungen von Spalten und Zeilen strukturiert sind.

 **Optionen zum Laden von Daten für Ihre Snowflake-Tabelle** 
+ Verwenden Sie JSON-Schlüssel als Spaltennamen 
+ Verwenden Sie VARIANT-Spalten
  + Name der Inhaltsspalte — Geben Sie einen Spaltennamen in der Tabelle an, in die die Rohdaten geladen werden müssen.
  + Name der Metadatenspalte (optional) — Geben Sie einen Spaltennamen in der Tabelle an, in die die Metadateninformationen geladen werden müssen. Wenn Sie dieses Feld aktivieren, wird in der Snowflake-Tabelle je nach Quelltyp die folgende Spalte angezeigt. 

    **Für Direct PUT als Quelle**

    ```
    {
    "firehoseDeliveryStreamName" : "streamname",
    "IngestionTime" : "timestamp"
    }
    ```

    **Für Kinesis Data Stream als Quelle**

    ```
    {
    "kinesisStreamName" : "streamname",
    "kinesisShardId" : "Id",
    "kinesisPartitionKey" : "key",
    "kinesisSequenceNumber" : "1234",
    "subsequenceNumber" : "2334",
    "IngestionTime" : "timestamp"
    }
    ```

 **Retry duration** 

Zeitdauer (0—7200 Sekunden), bis Firehose es erneut versucht, falls das Öffnen des Kanals oder die Zustellung an Snowflake aufgrund von Problemen mit dem Snowflake-Dienst fehlschlägt. Firehose wiederholt es mit exponentiellem Backoff, bis die Wiederholungsdauer endet. Wenn Sie die Wiederholungsdauer auf 0 (Null) Sekunden festlegen, versucht Firehose bei Snowflake-Fehlern nicht erneut und leitet Daten an den Amazon S3 S3-Fehler-Bucket weiter.

 **Puffer-Hinweise** 

Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich. Weitere Informationen finden Sie unter [Pufferhinweise konfigurieren](create-configure-backup.md#buffering-hints).

## Konfigurieren Sie die Zieleinstellungen für Splunk
<a name="create-destination-splunk"></a>

In diesem Abschnitt werden Optionen für die Verwendung von Splunk als Ziel beschrieben.

**Anmerkung**  
Firehose liefert Daten an Splunk-Cluster, die mit Classic Load Balancer oder einem Application Load Balancer konfiguriert sind. 

****
+ Geben Sie Werte für folgende Felder an:  
 **Splunk cluster-Endpunkt**   
Informationen zur Bestimmung des Endpunkts finden [Sie in der Splunk-Dokumentation unter Amazon Data Firehose zum Senden von Daten an die Splunk-Plattform konfigurieren](http://docs.splunk.com/Documentation/AddOns/latest/Firehose/ConfigureFirehose).  
 **Splunk-Endpunkttypen**   
Wählen Sie in den meisten Fällen `Raw endpoint`. Wählen Sie aus`Event endpoint`, ob Sie Ihre Daten vorverarbeitet haben, um Daten je AWS Lambda nach Ereignistyp an verschiedene Indizes zu senden. Informationen dazu, welchen Endpunkt Sie verwenden sollten, finden Sie unter [Konfigurieren von Amazon Data Firehose zum Senden von Daten an die Splunk-Plattform](http://docs.splunk.com/Documentation/AddOns/released/Firehose/ConfigureFirehose) in der Splunk-Dokumentation.  
 **Authentifizierung**   
Sie können entweder das Authentifizierungstoken direkt eingeben oder das Geheimnis für den AWS Secrets Manager Zugriff auf Splunk abrufen.  
  + **Authentifizierungstoken** 

    Informationen zur Einrichtung eines Splunk-Endpunkts, der Daten von Amazon Data Firehose empfangen kann, finden Sie in der [Splunk-Dokumentation unter Installations- und Konfigurationsübersicht für das Splunk-Add-on für Amazon Data Firehose](http://docs.splunk.com/Documentation/AddOns/released/Firehose/Installationoverview). Speichern Sie das Token, das Sie von Splunk erhalten, wenn Sie den Endpunkt für diesen Firehose-Stream einrichten, und fügen Sie es hier hinzu.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das das Authentifizierungstoken für Splunk enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in. AWS Secrets Manager Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **HEC Bestätigungs-Timeout**   
Geben Sie an, wie lange Amazon Data Firehose auf die Indexbestätigung von Splunk wartet. Wenn Splunk die Bestätigung nicht sendet, bevor das Timeout erreicht ist, betrachtet Amazon Data Firehose dies als Fehler bei der Datenzustellung. Amazon Data Firehose führt dann entweder eine Wiederholung durch oder sichert die Daten in Ihrem Amazon-S3-Bucket, abhängig von dem Wert für die Wiederholungsdauer, den Sie festlegen.   
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an Splunk zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung von Splunk. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an Splunk sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung von Splunk gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel variiert je nach Dienstanbieter.

## Konfigurieren Sie die Zieleinstellungen für Splunk Observability Cloud
<a name="create-destination-splunk-cloud"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **Splunk Observability Cloud** als Ziel beschrieben. Weitere Informationen finden Sie unter -apiconfig.html\$1 [https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws- -api connect-to-aws-using](https://docs.splunk.com/Observability/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api). the-splunk-observability-cloud

****
+ Geben Sie Werte für folgende Felder an:  
 **URL des Cloud-Ingest-Endpunkts**   
Sie finden die URL für die Echtzeit-Datenaufnahme Ihrer Splunk Observability Cloud in der Splunk-Observability-Konsole unter Profil > Organisationen > Endpunkt zur Echtzeit-Datenerfassung.   
 **Authentifizierung**   
Sie können entweder das Zugriffstoken direkt eingeben oder das Geheimnis für den Zugriff auf Splunk Observability Cloud abrufen. AWS Secrets Manager   
  + **Zugriffstoken** 

    Kopieren Sie Ihr Splunk-Observability-Zugriffstoken mit dem INGEST-Autorisierungsbereich von **Zugriffstoken** unter **Einstellungen** in der Splunk-Observability-Konsole.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das das Zugriffstoken für Splunk Observability Cloud enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in. AWS Secrets Manager Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Inhaltskodierung**   
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP** oder **Deaktiviert** für die enable/disable Inhaltskodierung Ihrer Anfrage.   
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an den ausgewählten HTTP-Endpunkt zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.

## Konfigurieren Sie die Zieleinstellungen für Sumo Logic
<a name="create-destination-sumo-logic"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **Sumo Logic** als Ziel beschrieben. Weitere Informationen finden Sie unter [https://www.sumologic.com](https://www.sumologic.com).

****
+ Geben Sie Werte für folgende Felder an:  
 **URL des HTTP-Endpunkts**   
Geben Sie die URL für den HTTP-Endpunkt im folgenden Format an: `https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token`. Die URL muss eine HTTPS-URL sein.   
 **Inhaltskodierung**   
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP** oder **Deaktiviert** für die enable/disable Inhaltskodierung Ihrer Anfrage.   
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an Sumo Logic zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Elastic-Ziel ist von Dienstanbieter zu Dienstanbieter unterschiedlich.

## Konfigurieren Sie die Zieleinstellungen für Elastic
<a name="create-destination-elastic"></a>

In diesem Abschnitt werden Optionen für die Verwendung von **Elastic** als Ziel beschrieben. 

****
+ Geben Sie Werte für folgende Felder an:  
 **Elastic Endpunkt-URL**   
Geben Sie die URL für den HTTP-Endpunkt im folgenden Format an: `https://<cluster-id>.es.<region>.aws.elastic-cloud.com`. Die URL muss eine HTTPS-URL sein.   
 **Authentifizierung**   
Sie können entweder den API-Schlüssel direkt eingeben oder den geheimen Schlüssel von abrufen, AWS Secrets Manager um auf Elastic zuzugreifen.  
  + **API-Schlüssel** 

    Wenden Sie sich an Elastic, um den API-Schlüssel, den Sie benötigen, um die Datenlieferung an ihren Service von Firehose zu aktivieren.
  + **Secret**

    Wählen Sie ein Geheimnis aus AWS Secrets Manager , das den API-Schlüssel für Elastic enthält. Wenn Sie Ihr Geheimnis nicht in der Drop-down-Liste sehen, erstellen Sie eines in AWS Secrets Manager. Weitere Informationen finden Sie unter [Authentifizieren Sie sich mit AWS Secrets Manager in Amazon Data Firehose](using-secrets-manager.md).  
 **Inhaltskodierung**   
Amazon Data Firehose verwendet Inhaltskodierung, um den Hauptteil einer Anfrage zu komprimieren, bevor sie an das Ziel gesendet wird. Wählen Sie **GZIP** (was standardmäßig ausgewählt ist) oder **Deaktiviert** für die enable/disable Inhaltskodierung Ihrer Anfrage.   
 **Retry duration**   
Geben Sie an, wie lange Amazon Data Firehose erneut versucht, Daten an Elastic zu senden.   
Nach dem Senden von Daten wartet Amazon Data Firehose zunächst auf eine Bestätigung vom HTTP-Endpunkt. Wenn ein Fehler auftritt oder die Bestätigung nicht innerhalb des Timeout-Intervalls für die Bestätigung eintrifft, startet Amazon Data Firehose den Zähler für die Wiederholdauer. Der Vorgang wird wiederholt, bis die Wiederholungsdauer abgelaufen ist. Danach betrachtet Amazon Data Firehose dies als Fehler bei der Datenbereitstellung und sichert die Daten in Ihrem Amazon-S3-Bucket.   
Jedes Mal, wenn Amazon Data Firehose Daten an den HTTP-Endpunkt sendet (entweder beim ersten Versuch oder bei einem erneuten Versuch), wird der Timeout-Zähler für die Bestätigung neu gestartet und auf eine Bestätigung vom HTTP-Endpunkt gewartet.   
Selbst wenn die Dauer des Wiederholungsversuchs abläuft, wartet Amazon Data Firehose immer noch auf die Bestätigung, bis sie eingeht oder das Bestätigungs-Timeout erreicht ist. Wenn bei der Bestätigung eine Zeitüberschreitung eintritt, bestimmt Amazon Data Firehose, ob im Wiederholungszähler noch Zeit übrig ist. Ist noch Zeit übrig, führt es erneut eine Wiederholung durch und wiederholt die Logik, bis es eine Bestätigung erhält, oder feststellt, dass die Wiederholungszeitdauer abgelaufen ist.  
Wenn Sie nicht möchten, dass Amazon Data Firehose erneut versucht, Daten zu senden, setzen Sie diesen Wert auf 0.  
 **Parameter – optional**   
Amazon Data Firehose fügt diese Schlüssel-Wert-Paare jedem HTTP-Aufruf bei. Diese Parameter können Ihnen helfen Ihnen, Ihre Ziele zu identifizieren und zu organisieren.   
 **Hinweise zum Puffern**   
Amazon Data Firehose puffert eingehende Daten, bevor sie im angegebenen Ziel bereitgestellt werden. Die empfohlene Puffergröße für das Elastic-Ziel beträgt 1 MiB.

# Konfigurieren Sie die Backup-Einstellungen
<a name="create-configure-backup"></a>

Amazon Data Firehose verwendet Amazon S3, um alle oder nur fehlgeschlagene Daten zu sichern, die versucht werden, an das von Ihnen gewählte Ziel zu liefern. 

**Wichtig**  
Backup-Einstellungen werden nur unterstützt, wenn die Quelle für Ihren Firehose-Stream Direct PUT oder Kinesis Data Streams ist.
Die Funktion Zero Buffering ist nur für die Anwendungsziele und nicht für das Amazon S3 S3-Backup-Ziel verfügbar.

Sie können die S3-Backup-Einstellungen für Ihren Firehose-Stream angeben, wenn Sie eine der folgenden Optionen getroffen haben.
+ Wenn Sie Amazon S3 als Ziel für Ihren Firehose-Stream festlegen und eine AWS Lambda-Funktion zur Transformation von Datensätzen angeben oder wenn Sie Datensatzformate für Ihren Firehose-Stream konvertieren möchten.
+ Wenn Sie Amazon Redshift als Ziel für Ihren Firehose-Stream festlegen und eine AWS Lambda-Funktion zur Transformation von Datensätzen angeben.
+ Wenn Sie einen der folgenden Dienste als Ziel für Ihren Firehose-Stream festlegen: Amazon OpenSearch Service, Datadog, Dynatrace, HTTP Endpoint,, MongoDB Cloud, New Relic LogicMonitor, Splunk oder Sumo Logic, Snowflake, Apache Iceberg Tables.

Im Folgenden sind die Backup-Einstellungen für Ihren Firehose-Stream aufgeführt.
+ Sicherung von Quelldatensätzen in Amazon S3 – wenn S3 oder Amazon Redshift Ihr ausgewähltes Ziel ist, gibt diese Einstellung an, ob Sie die Quelldatensicherung aktivieren oder deaktivieren möchten. Wenn ein anderer unterstützter Service (außer S3 oder Amazon Redshift) als Ihr ausgewähltes Ziel festgelegt ist, gibt diese Einstellung an, ob Sie alle Ihre Quelldaten oder nur fehlerhafte Daten sichern möchten.
+ S3-Backup-Bucket — das ist der S3-Bucket, in dem Amazon Data Firehose Ihre Daten sichert.
+ S3-Backup-Bucket-Präfix — Dies ist das Präfix, mit dem Amazon Data Firehose Ihre Daten sichert.
+ Ausgabepräfix für Fehler im S3-Backup-Bucket – alle fehlgeschlagenen Daten werden in diesem S3-Bucket-Fehlerausgabepräfix gesichert.
+ Pufferhinweise, Komprimierung und Verschlüsselung für Backups — Amazon Data Firehose verwendet Amazon S3, um alle oder nur fehlgeschlagene Daten zu sichern, die versucht werden, an das von Ihnen gewählte Ziel zu liefern. Amazon Data Firehose puffert eingehende Daten, bevor sie an Amazon S3 übermittelt (gesichert) werden. Sie können eine Puffergröße von 1—128 MiBs und ein Pufferintervall von 60—900 Sekunden wählen. Die Bedingung, die erfüllt ist, löst eine erste Datenübermittlung an Amazon S3 aus. Wenn Sie die Datentransformation aktivieren, gilt das Pufferintervall vom Empfang der transformierten Daten bei Amazon Data Firehose bis zur Datenlieferung an Amazon S3. Wenn die Datenlieferung an das Ziel hinter dem Schreiben von Daten in den Firehose-Stream zurückbleibt, erhöht Amazon Data Firehose die Puffergröße dynamisch, um catch. Diese Aktion trägt dazu bei, dass alle Daten an das Ziel geliefert werden. 
+ S3-Komprimierung — wählen Sie GZIP-, Snappy-, Zip- oder Hadoop-kompatible Snappy-Datenkomprimierung oder keine Datenkomprimierung. Snappy-, Zip- und Hadoop-kompatible Snappy-Komprimierung ist für Firehose-Streams mit Amazon Redshift als Ziel nicht verfügbar. 
+ S3-Dateierweiterungsformat (optional) — Geben Sie ein Dateierweiterungsformat für Objekte an, die an den Amazon S3 S3-Ziel-Bucket geliefert werden. Wenn Sie diese Funktion aktivieren, überschreibt die angegebene Dateierweiterung die Standarddateierweiterungen, die durch Datenformatkonvertierungs- oder S3-Komprimierungsfunktionen wie .parquet oder .gz hinzugefügt wurden. Vergewissern Sie sich, dass Sie die richtige Dateierweiterung konfiguriert haben, wenn Sie diese Funktion mit Datenformatkonvertierung oder S3-Komprimierung verwenden. Die Dateierweiterung muss mit einem Punkt (.) beginnen und kann die zulässigen Zeichen enthalten: 0-9a-z\$1 -\$1.\$1' (). Die Dateierweiterung darf 128 Zeichen nicht überschreiten.
+ Firehose unterstützt die serverseitige Amazon S3-Verschlüsselung mit AWS Key Management Service (SSE-KMS) zur Verschlüsselung von gelieferten Daten in Amazon S3. Sie können wählen, ob Sie den im Ziel-S3-Bucket angegebenen Standardverschlüsselungstyp verwenden oder mit einem Schlüssel aus der Liste der Schlüssel verschlüsseln möchten, die Sie besitzen. AWS KMS Wenn Sie die Daten mit AWS KMS Schlüsseln verschlüsseln, können Sie entweder den AWS verwalteten Standardschlüssel (aws/s3) oder einen vom Kunden verwalteten Schlüssel verwenden. Weitere Informationen finden Sie unter [Schutz von Daten mithilfe serverseitiger Verschlüsselung mit AWS KMS-verwalteten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html) Schlüsseln (SSE-KMS). 

## Pufferhinweise konfigurieren
<a name="buffering-hints"></a>

Amazon Data Firehose puffert eingehende Streaming-Daten im Speicher auf eine bestimmte Größe (Puffergröße) und für einen bestimmten Zeitraum (Pufferintervall), bevor sie an die angegebenen Ziele gesendet werden. Sie würden Pufferhinweise verwenden, wenn Sie Dateien mit optimaler Größe an Amazon S3 senden und eine bessere Leistung von Datenverarbeitungsanwendungen erzielen möchten oder um die Firehose-Zustellungsrate an die Zielgeschwindigkeit anzupassen.

Sie können die Puffergröße und das Pufferintervall beim Erstellen neuer Firehose-Streams konfigurieren oder die Puffergröße und das Pufferintervall für Ihre vorhandenen Firehose aktualisieren. Die Puffergröße wird in Sekunden gemessen MBs und das Pufferintervall wird in Sekunden gemessen. Wenn Sie jedoch für einen dieser beiden Parameter einen Wert angeben, müssen Sie auch für den anderen Parameter einen Wert angeben. Die erste Pufferbedingung, die erfüllt ist, veranlasst Firehose, die Daten zu liefern. Wenn Sie die Pufferwerte nicht konfigurieren, werden die Standardwerte verwendet.

Sie können Firehose-Pufferhinweise über AWS-Managementkonsole AWS Command Line Interface, oder konfigurieren. AWS SDKs Für bestehende Streams können Sie die Pufferhinweise mit einem Wert neu konfigurieren, der Ihren Anwendungsfällen entspricht, indem Sie die Option **Bearbeiten** in der Konsole oder die API verwenden. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) Für neue Streams können Sie Pufferhinweise als Teil der Erstellung neuer Streams mithilfe der Konsole oder mithilfe der API konfigurieren. [CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html) Um die Puffergröße anzupassen, legen Sie `SizeInMBs` und `IntervalInSeconds` in den zielspezifischen `DestinationConfiguration` Parameter der [CreateDeliveryStream[UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html)](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html)OR-API fest. 

**Anmerkung**  
Pufferhinweise werden auf Shard- oder Partitionsebene angewendet, während Pufferhinweise für dynamische Partitionierungen auf Stream- oder Themenebene angewendet werden.
Um geringeren Latenzen bei Echtzeit-Anwendungsfällen gerecht zu werden, können Sie einen Hinweis ohne Pufferintervall verwenden. Wenn Sie das Pufferintervall auf Null Sekunden konfigurieren, puffert Firehose keine Daten und liefert Daten innerhalb weniger Sekunden. Bevor Sie die Pufferhinweise auf einen niedrigeren Wert ändern, erkundigen Sie sich beim Anbieter nach den empfohlenen Pufferhinweisen von Firehose für deren Ziele.
Die Funktion Zero Buffering ist nur für die Anwendungsziele und nicht für das Amazon S3 S3-Backup-Ziel verfügbar.
Die Funktion Zero Buffering ist für dynamische Partitionierung nicht verfügbar.
Firehose verwendet mehrteiligen Upload für das S3-Ziel, wenn Sie ein Pufferzeitintervall von weniger als 60 Sekunden konfigurieren, um geringere Latenzen zu bieten. Aufgrund des mehrteiligen Uploads für das S3-Ziel werden Sie einen gewissen Anstieg der `PUT` S3-API-Kosten feststellen, wenn Sie ein Pufferzeitintervall von weniger als 60 Sekunden wählen.

Die Bereiche und Standardwerte für zielspezifische Pufferhinweise finden Sie in der folgenden Tabelle:


| Ziel | Puffergröße in MB (Standard in Klammern) | Pufferintervall in Sekunden (Standard in Klammern) | 
| --- | --- | --- | 
| Amazon S3 | 1-128 (5) | 0-900 (300) | 
| Apache Iceberg-Tabellen | 1-128 (5) | 0-900 (300) | 
| Amazon Redshift | 1-128 (5)  | 0-900 (300) | 
| OpenSearch Serverlos | 1-100 (5)  | 0-900 (300) | 
| OpenSearch | 1-100 (5) | 0-900 (300) | 
| Splunk | 1-5 (5) | 0-60 (60) | 
| Datadog | 1—4 (4) | 0-900 (60) | 
| Coralogix | 1-64 (6) | 0-900 (60) | 
| Dynatrace | 1-64 (5) | 0-900 (60) | 
| Elastic | 1 | 0-900 (60) | 
| Honeycomb | 1-64 (15) | 0-900 (60) | 
| HTTP-Endpunkt | 1-64 (5) | 0-900 (60) | 
| LogicMonitor | 1-64 (5) | 0-900 (60) | 
| Logik | 1-64 (5) | 0-900 (60) | 
| MongoDB  | 1-16 (5) | 0-900 (60) | 
| Neues Relikt | 1-64 (5) | 0-900 (60) | 
| SumoLogic | 1-64 (1) | 0-900 (60) | 
| Splunk Observability Cloud  | 1-64 (1) | 0-900 (60) | 
| Snowflake | 1-128 (1) | 0 bis 900 (0) | 

# Konfigurieren von erweiterten Einstellungen
<a name="create-configure-advanced"></a>

Der folgende Abschnitt enthält Details zu den erweiterten Einstellungen für Ihren Firehose-Stream.
+ Serverseitige Verschlüsselung — Amazon Data Firehose unterstützt die serverseitige Amazon S3-Verschlüsselung mit AWS Key Management Service (AWS KMS) zur Verschlüsselung der in Amazon S3 übermittelten Daten. Weitere Informationen finden Sie unter [Schutz von Daten mithilfe serverseitiger Verschlüsselung mit AWS KMS-verwalteten Schlüsseln (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)).
+ Fehlerprotokollierung — Amazon Data Firehose protokolliert Fehler im Zusammenhang mit der Verarbeitung und Lieferung. Wenn die Datentransformation aktiviert ist, kann sie außerdem Lambda-Aufrufe protokollieren und Fehler bei der Datenübermittlung an Logs senden. CloudWatch Weitere Informationen finden Sie unter [Überwachen Sie Amazon Data Firehose mithilfe von Protokollen CloudWatch](monitoring-with-cloudwatch-logs.md).
**Wichtig**  
Obwohl optional, wird dringend empfohlen, die Amazon Data Firehose-Fehlerprotokollierung während Firehose Firehose-Stream-Erstellung zu aktivieren. Diese Vorgehensweise stellt sicher, dass Sie im Falle von Fehlern bei der Verarbeitung oder Übermittlung von Datensätzen auf Fehlerdetails zugreifen können.
+ Berechtigungen — Amazon Data Firehose verwendet IAM-Rollen für alle Berechtigungen, die der Firehose-Stream benötigt. Sie können wählen, ob Sie eine neue Rolle erstellen, bei der die erforderlichen Berechtigungen automatisch zugewiesen werden, oder eine bestehende Rolle wählen, die für Amazon Data Firehose erstellt wurde. Die Rolle wird verwendet, um Firehose Zugriff auf verschiedene Dienste zu gewähren, darunter Ihren S3-Bucket, Ihren AWS KMS-Schlüssel (wenn die Datenverschlüsselung aktiviert ist) und die Lambda-Funktion (wenn die Datentransformation aktiviert ist). Die Konsole erstellt möglicherweise eine Rolle mit Platzhaltern. Weitere Informationen finden Sie unter [Was ist IAM?](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html). 
**Anmerkung**  
Die IAM-Rolle (einschließlich Platzhaltern) wird auf der Grundlage der Konfiguration erstellt, die Sie beim Erstellen eines Firehose-Streams ausgewählt haben. Wenn Sie Änderungen an der Firehose-Stream-Quelle oder dem Ziel vornehmen, müssen Sie die IAM-Rolle manuell aktualisieren.
+ Tags — Sie können Tags hinzufügen, um Ihre AWS Ressourcen zu organisieren, Kosten zu verfolgen und den Zugriff zu kontrollieren.

  Wenn Sie in der `CreateDeliveryStream` Aktion Tags angeben, führt Amazon Data Firehose eine zusätzliche Autorisierung für die `firehose:TagDeliveryStream` Aktion durch, um zu überprüfen, ob Benutzer berechtigt sind, Tags zu erstellen. Wenn Sie diese Berechtigung nicht erteilen, schlagen Anfragen zum Erstellen neuer Firehose-Streams mit IAM-Ressourcen-Tags fehl, und zwar mit einem `AccessDeniedException` solchen Fehler wie dem Folgenden.

  ```
  AccessDeniedException 
  User: arn:aws:sts::x:assumed-role/x/x is not authorized to perform: firehose:TagDeliveryStream on resource: arn:aws:firehose:us-east-1:x:deliverystream/x with an explicit deny in an identity-based policy.
  ```

  Das folgende Beispiel zeigt eine Richtlinie, die es Benutzern ermöglicht, einen Firehose-Stream zu erstellen und Tags anzuwenden.

Nachdem Sie Ihr Backup und Ihre erweiterten Einstellungen ausgewählt haben, überprüfen Sie Ihre Auswahl und wählen Sie dann **Firehose-Stream erstellen**.

Der neue Firehose-Stream benötigt im Status **Creating** einen Moment, bis er verfügbar ist. Sobald sich Ihr Firehose-Stream im Status **Aktiv** befindet, können Sie damit beginnen, Daten von Ihrem Producer an ihn zu senden.