

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Amazon Managed Service für Apache Flink 1.15
<a name="flink-1-15-2"></a>

 Managed Service für Apache Flink unterstützt die folgenden neuen Funktionen in Apache 1.15.2: 


****  

| Feature | Description | Apache-FLIP-Referenz  | 
| --- | --- | --- | 
| Asynchrone Senke  | Ein AWS unterstütztes Framework für die Erstellung asynchroner Ziele, das es Entwicklern ermöglicht, benutzerdefinierte AWS Konnektoren mit weniger als der Hälfte des bisherigen Aufwands zu erstellen. Weitere Informationen finden Sie unter [Die generische asynchrone Basissenke](https://flink.apache.org/2022/05/06/async-sink-base.html). | [FLIP-171: Asynchrone Senke](https://cwiki.apache.org/confluence/display/FLINK/FLIP-171%3A+Async+Sink). | 
| Kinesis Data Firehose Senke  | AWS hat mithilfe des Async-Frameworks einen neuen Amazon Kinesis Firehose Sink beigesteuert.  | [Amazon Kinesis Data Firehose Senke](https://nightlies.apache.org/flink/flink-docs-release-1.15//docs/connectors/datastream/firehose/). | 
| Anhalten mit Savepoint  | Anhalten mit Savepoint sorgt für einen sauberen Anhaltevorgang und unterstützt vor allem die Exakt-einmal-Semantik für Kunden, die sich darauf verlassen. | [FLIP-34: Terminate/Suspend Job bei](https://cwiki.apache.org/confluence/pages/viewpage.action?pageId=103090212) Savepoint. | 
| Scala-Entkopplung  | Benutzer können die Java-API jetzt von jeder Scala-Version aus nutzen, einschließlich Scala 3. Kunden müssen die Scala-Standardbibliothek ihrer Wahl in ihren Scala-Anwendungen bündeln.  | [FLIP-28: Langfristiges Ziel, flink-table Scala-frei zu machen](https://cwiki.apache.org/confluence/display/FLINK/FLIP-28%3A+Long-term+goal+of+making+flink-table+Scala-free). | 
| Scala | Siehe Scala-Entkopplung oben  | [FLIP-28: Langfristiges Ziel, flink-table Scala-frei zu machen](https://cwiki.apache.org/confluence/display/FLINK/FLIP-28%3A+Long-term+goal+of+making+flink-table+Scala-free). | 
| Einheitliche Konnektor-Metriken | Flink hat [Standardmetriken](https://nightlies.apache.org/flink/flink-docs-release-1.15//docs/ops/metrics/) für Aufträge, Aufgaben und Operatoren definiert. Managed Service für Apache Flink wird weiterhin Senken- und Quell-Metriken unterstützen und in 1.15 numRestarts parallel zu fullRestarts für Verfügbarkeitsmetriken einführen.  | [FLIP-33: Konnektor-Metriken standardisieren](https://cwiki.apache.org/confluence/display/FLINK/FLIP-33%3A+Standardize+Connector+Metrics) und [FLIP-179: Standardisierte Operator-Metriken verfügbar machen](https://cwiki.apache.org/confluence/display/FLINK/FLIP-179%3A+Expose+Standardized+Operator+Metrics). | 
| Checkpointing von abgeschlossenen Aufgaben  | Dieses Feature ist in Flink 1.15 standardmäßig aktiviert und ermöglicht es, weiterhin Checkpoints durchzuführen, auch wenn Teile des Auftragsdiagramms die Verarbeitung aller Daten abgeschlossen haben, was passieren kann, wenn er gebundene (Batch-)Quellen enthält.  | [FLIP-147: Checkpoints nach Abschluss von Aufgaben unterstützen](https://cwiki.apache.org/confluence/display/FLINK/FLIP-147%3A+Support+Checkpoints+After+Tasks+Finished).  | 

## Änderungen in Amazon Managed Service für Apache Flink mit Apache Flink 1.15
<a name="flink-1-15-2-changes"></a>

**Studio-Notebooks**

Managed Service für Apache Flink Studio unterstützt jetzt Apache Flink 1.15. Managed Service für Apache Flink Studio nutzt Apache-Zeppelin-Notebooks, um eine zentrale Benutzeroberfläche für die Entwicklung, das Debuggen von Code und die Ausführung von Apache-Flink-Streamverarbeitungsanwendungen bereitzustellen. Weitere Informationen über Managed Service für Apache Flink Studio und die ersten Schritte finden Sie unter [Verwenden Sie ein Studio-Notebook mit Managed Service für Apache Flink](how-notebook.md).

**EFO-Konnektor**

Stellen Sie beim Upgrade auf Managed Service für Apache Flink Version 1.15 sicher, dass Sie den neuesten EFO-Konnektor verwenden, d. h. eine beliebige Version 1.15.3 oder neuer. Weitere Informationen zu den Gründen finden Sie unter [FLINK-29324](https://issues.apache.org/jira/browse/FLINK-29324 ).

**Scala-Entkopplung **

Ab Flink 1.15.2 müssen Sie die Scala-Standardbibliothek Ihrer Wahl in Ihren Scala-Anwendungen bündeln. 

**Kinesis Data Firehose Senke **

Stellen Sie beim Upgrade auf Managed Service für Apache Flink Version 1.15 sicher, dass Sie die neueste [Amazon Kinesis Data Firehose Senke](https://nightlies.apache.org/flink/flink-docs-release-1.15//docs/connectors/datastream/firehose/) verwenden.

**Kafka-Konnektoren **

Stellen Sie beim Upgrade auf Amazon Managed Service for Apache Flink for Apache Flink Version 1.15 sicher, dass Sie den neuesten Kafka-Connector verwenden. APIs Apache Flink ist veraltet [FlinkKafkaConsumer](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/kafka/#kafka-consumer)und [FlinkKafkaProducer](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/kafka/#kafka-producer)diese APIs für die Kafka-Senke können sich nicht auf Kafka für Flink 1.15 festlegen. Stellen Sie sicher, dass Sie [KafkaSource](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/kafka/#kafka-source)und [KafkaSink](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/kafka/#kafka-sink)verwenden. 

## Komponenten
<a name="flink-1-15-2-components"></a>


****  

| Komponente | Version | 
| --- | --- | 
| Java  | 11 (empfohlen) | 
| Scala | 2.12 | 
| Verwalteter Dienst für Apache Flink Flink Runtime () aws-kinesisanalytics-runtime | 1.2.0 | 
| [AWS Kinesis-Anschluss () flink-connector-kinesis](https://mvnrepository.com/artifact/org.apache.flink/flink-connector-kinesis/1.15.4) | 1.15.4 | 
| [Apache Beam (nur Beam-Anwendungen)](https://aws.amazon.com/developer/language/python/) | 2.33.0, mit Jackson-Version 2.12.2 | 

## Bekannte Probleme
<a name="flink-1-15-known-issues"></a>

**Kafka Commit beim Checkpointing schlägt nach einem Neustart des Brokers wiederholt fehl**

Es gibt ein bekanntes Open-Source-Apache Flink-Problem mit dem Apache Kafka-Konnektor in Flink Version 1.15, das durch einen kritischen Open-Source-Fehler im Kafka-Client 2.8.1 verursacht wurde. Weitere Informationen finden Sie unter [Kafka Commit on Checkpointing schlägt nach einem Neustart des Brokers wiederholt fehl und kann die Verbindung zum Gruppenkoordinator nach einer](https://issues.apache.org/jira/browse/FLINK-28060) Ausnahme [nicht KafkaConsumer wiederherstellen](https://issues.apache.org/jira/browse/KAFKA-13840). commitOffsetAsync 

Um dieses Problem zu vermeiden, empfehlen wir, Apache Flink 1.18 oder höher in Amazon Managed Service für Apache Flink zu verwenden.