Amazon Managed Service pour Apache Flink 1.15 - Service géré pour Apache Flink

Le service géré Amazon pour Apache Flink était auparavant connu sous le nom d’Amazon Kinesis Data Analytics pour Apache Flink.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Amazon Managed Service pour Apache Flink 1.15

Le service géré pour Apache Flink prend en charge les nouvelles fonctionnalités suivantes dans Apache 1.15.2 :

Fonctionnalité Description FLIPRéférence Apache
Récepteur asynchrone Un framework AWS contributif pour la création de destinations asynchrones qui permet aux développeurs de créer des AWS connecteurs personnalisés avec moins de la moitié de l'effort précédent. Pour plus d’informations, consultez The Generic Asynchronous Base Sink. FLIP-171 : Réservoir asynchrone.
Récepteur Kinesis Data Firehose AWS a contribué à un nouvel Amazon Kinesis Firehose Sink utilisant le framework Async. Récepteur Amazon Kinesis Data Firehose
Arrêter avec point de sauvegarde Arrêter avec point de sauvegarde garantit un fonctionnement sans faille et surtout en garantissant une sémantique unique pour les clients qui comptent dessus. FLIP-34 : Terminer/suspendre le Job avec Savepoint.
Découplage Scala Les utilisateurs peuvent désormais exploiter le Java API à partir de n'importe quelle version de Scala, y compris Scala 3. Les clients devront intégrer la bibliothèque standard Scala de leur choix à leurs applications Scala. FLIP-28 : Objectif à long terme de rendre Flink-Table sans Scala.
Scala Voir le découplage de Scala ci-dessus FLIP-28 : Objectif à long terme de rendre Flink-Table sans Scala.
Métriques du connecteur unifié Flink a défini des métriques standard pour les tâches et les opérateurs. Le service géré pour Apache Flink continuera à prendre en charge les métriques du récepteur et de la source et introduira numRestarts en parallèle avec fullRestarts dans la version 1.15 pour les métriques de disponibilité. FLIP-33 : Standardiser les métriques du connecteur et FLIP-179 : Exposer les métriques standardisées des opérateurs.
Point de contrôle des tâches terminées Cette fonctionnalité est activée par défaut dans Flink 1.15 et permet de continuer à effectuer des points de contrôle même si certaines parties du graphique de tâches ont fini de traiter toutes les données, ce qui peut se produire s’il contient des sources limitées (par lots). FLIP-147 : Points de contrôle du support une fois les tâches terminées.

Blocs-notes Studio

Le service géré pour Apache Flink prend désormais en charge Apache Flink 1.15. Le service géré pour Apache Flink Studio utilise les blocs-notes Apache Zeppelin pour fournir une expérience de développement à interface unique pour le développement, le débogage de code et l’exécution d’applications de traitement de flux Apache Flink. Vous pouvez en savoir plus sur le service géré pour Apache Flink Studio et sur la façon de démarrer sur Utiliser un bloc-notes Studio avec service géré pour Apache Flink.

EFOconnecteur

Lors de la mise à niveau vers le service géré pour Apache Flink version 1.15, assurez-vous que vous utilisez le EFO connecteur le plus récent, c'est-à-dire une version 1.15.3 ou ultérieure. Pour plus d'informations sur les raisons, consultez FLINK-29324.

Découplage Scala

Pour commencer avec Flink 1.15.2, vous devrez intégrer la bibliothèque standard Scala de votre choix à vos applications Scala.

Récepteur Kinesis Data Firehose

Lors de la mise à niveau vers la version 1.15 du service géré pour Apache Flink, assurez-vous que vous utilisez le récepteur Amazon Kinesis Data Firehose le plus récent.

Connecteurs Kafka

Lors de la mise à niveau vers Amazon Managed Service for Apache Flink pour Apache Flink version 1.15, assurez-vous d'utiliser le connecteur Kafka le plus récent. APIs Apache Flink est obsolète FlinkKafkaConsumeret FlinkKafkaProducerThese APIs for the Kafka sink ne peut pas être validé dans Kafka pour Flink 1.15. Assurez-vous d'utiliser KafkaSourceet KafkaSink.

Composant Version
Java 11 (recommandée)
Scala 2,12
Service géré pour Apache Flink Flink Runtime () aws-kinesisanalytics-runtime 1.2.0
AWS Connecteur Kinesis () flink-connector-kinesis 1.15.4
Apache Beam (applications Beam uniquement) 2.33.0, avec la version Jackson 2.12.2

Kafka Commit lors du point de contrôle échoue à plusieurs reprises après le redémarrage d'un broker

Il existe un problème connu d'Apache Flink open source avec le connecteur Apache Kafka dans la version 1.15 de Flink, causé par un bogue critique du client Kafka open source dans le client Kafka 2.8.1. Pour plus d'informations, consultez Kafka Commit lorsque le point de contrôle échoue à plusieurs reprises après le redémarrage d'un broker et KafkaConsumer ne parvient pas à rétablir la connexion au coordinateur de groupe après commitOffsetAsync une exception.

Pour éviter ce problème, nous vous recommandons d'utiliser Apache Flink 1.18 ou version ultérieure dans Amazon Managed Service pour Apache Flink.