

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon Managed Service for Apache Flink 1.15
<a name="flink-1-15-2"></a>

 Managed Service for Apache Flink は、Apache 1.15.2 の以下の新機能をサポートしています。


****  

| 機能 | 説明 | Apache Flip リファレンス  | 
| --- | --- | --- | 
| Async Sink  | デベロッパーが以前の作業の半分未満でカスタム AWS コネクタを構築できるようにする、非同期送信先を構築するための AWS 貢献されたフレームワーク。詳細については、「[汎用非同期ベースシンク](https://flink.apache.org/2022/05/06/async-sink-base.html)」を参照してください。 | 「[FLIP-171: 非同期シンク](https://cwiki.apache.org/confluence/display/FLINK/FLIP-171%3A+Async+Sink)」。 | 
| Kinesis Data Firehose Sink  | AWS は、非同期フレームワークを使用して新しい Amazon Kinesis Firehose シンクを提供しました。 | [Amazon Kinesis Data Firehose Sink](https://nightlies.apache.org/flink/flink-docs-release-1.15//docs/connectors/datastream/firehose/) | 
| セーブポイントでの停止  | セーブポイントでの停止によりクリーンな停止操作が保証され、さらに最も重要な利点としてセーブポイントに依存している顧客のために、1 回限りのセマンティクスをサポートします。 | 「[FLIP-34: セーブポイントでのJob 終了/サスペンド](https://cwiki.apache.org/confluence/pages/viewpage.action?pageId=103090212)」。 | 
| Scala デカップリング  | ユーザーは Scala 3 を含む、すべての Scala バージョンから Java API を利用できるようになりました。顧客は、選択した Scala 標準ライブラリーを Scala アプリケーションにバンドルする必要があります。 | 「[FLIP-28: フリンクテーブルを Scala フリーにするという長期的な目標](https://cwiki.apache.org/confluence/display/FLINK/FLIP-28%3A+Long-term+goal+of+making+flink-table+Scala-free)」。 | 
| Scala | 上記の Scala デカップリングを参照してください。 | 「[FLIP-28: フリンクテーブルを Scala フリーにするという長期的な目標](https://cwiki.apache.org/confluence/display/FLINK/FLIP-28%3A+Long-term+goal+of+making+flink-table+Scala-free)」。 | 
| Unified Connector Metrics | Flink はジョブ、タスク、オペレータの「[スタンダードメトリクス](https://nightlies.apache.org/flink/flink-docs-release-1.15//docs/ops/metrics/)」を定義しています。Managed Service for Apache Flink は引き続きシンクとソースのメトリクスをサポートし、1.15 では Availability Metrics の fullRestarts と並行して numRestarts を導入します。 | 「[FLIP-33: Standardize Connector Metrics](https://cwiki.apache.org/confluence/display/FLINK/FLIP-33%3A+Standardize+Connector+Metrics)」および「[FLIP-179: Expose Standardized Operator Metrics](https://cwiki.apache.org/confluence/display/FLINK/FLIP-179%3A+Expose+Standardized+Operator+Metrics)」。 | 
| 完了したタスクのチェックポイント機能  | この機能は Flink 1.15 ではデフォルトで有効になっており、ジョブグラフの一部がすべてのデータの処理を終了してもチェックポイントの実行を継続できるようになっています。それにバインドされた（バッチ）ソースが含まれている場合に発生する可能性があります。 | 「[FLIP-147: タスク終了後のチェックポイントのサポート](https://cwiki.apache.org/confluence/display/FLINK/FLIP-147%3A+Support+Checkpoints+After+Tasks+Finished)」。 | 

## Apache Flink 1.15 における Amazon Managed Service for Apache Flink の変更点
<a name="flink-1-15-2-changes"></a>

**Studio のノートブック**

Managed Service for Apache Flink Studio は、Apache Flink 1.15 をサポートするようになりました。Managed Service for Apache Flink Studio は、Apache Zeppelin ノートブックを利用して、Apache Flink ストリーム処理アプリケーションの開発、コード・デバッグ、実行のための単一インターフェースの開発体験を提供します。Managed Service for Apache Flink Studio の詳細と入門については、「[Managed Service for Apache Flink で Studio ノートブックを使用します](how-notebook.md)」を参照してください。

「**EFO コネクター**」

Managed Service for Apache Flink バージョン 1.15 にアップグレードする際は、必ず最新の EFO コネクタ (バージョン 1.15.3 以降) を使用してください。理由の詳細については、「[FLINK-29324](https://issues.apache.org/jira/browse/FLINK-29324 )」を参照してください。

「**Scala デカップリング**」

Flink 1.15.2 以降では、任意の Scala スタンダードライブラリを Scala アプリケーションにバンドルする必要が出てきます。

**Kinesis Data Firehose Sink **

Managed Service for Apache Flink バージョン 1.15 にアップグレードする場合は、最新の [Amazon Kinesis Data Firehose Sink](https://nightlies.apache.org/flink/flink-docs-release-1.15//docs/connectors/datastream/firehose/)を使用していることを確認してください。

**Kafka Connectors **

Apache Flink バージョン 1.15 の Amazon Managed Service for Apache Flink にアップグレードする場合は、最新の Kafka コネクタ API を使用していることを確認してください。Apache Flink は「[FlinkKafkaConsumer](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/kafka/#kafka-consumer)」と「[FlinkKafkaProducer](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/kafka/#kafka-producer)」を非推奨としました。これらの Kafka シンク用 API は Flink 1.15 用の Kafkar にコミットできません。「[KafkaSource](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/kafka/#kafka-source)」と「[KafkaSink](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/kafka/#kafka-sink)」を使用していることを確認してください。

## コンポーネント
<a name="flink-1-15-2-components"></a>


****  

| コンポーネント | バージョン | 
| --- | --- | 
| Java  | 11 (推奨) | 
| Scala | 2.12 | 
| Apache Flink Flink ランタイム用 Managed Service(aws-kinesis-analytics-Runtime) | 1.2.0 | 
| [AWS Kinesis Connector (flink-connector-kinesis)](https://mvnrepository.com/artifact/org.apache.flink/flink-connector-kinesis/1.15.4) | 1.15.4 | 
| 「[Apache Beam （Beamアプリケーションのみ）](https://aws.amazon.com/developer/language/python/)」 | Jackson バージョン 2.12.2 を搭載した 2.33.0 | 

## 既知の問題
<a name="flink-1-15-known-issues"></a>

**ブローカーの再起動後にチェックポイント処理時の Kafka コミットが繰り返し失敗する**

Apache Flink 1.15 の Apache Kafka コネクタには既知のオープンソースの問題があり、これは Kafka Client 2.8.1 のオープンソース Kafka Client に存在する重大なバグが原因です。詳細については、「[Kafka Commit on checkpointing fails repeatedly after a broker restart](https://issues.apache.org/jira/browse/FLINK-28060)」と「[KafkaConsumer is unable to recover connection to group coordinator after commitOffsetAsync exception](https://issues.apache.org/jira/browse/KAFKA-13840)」を参照してください。

この問題を回避するには、Amazon Managed Service for Apache Flink で Apache Flink 1.18 以降を使用することをお勧めします。