

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# Amazon Managed Service for Apache Flink 1.18
<a name="flink-1-18"></a>

 Managed Service for Apache Flink 現在支援 Apache Flink 1.18.1 版。了解 Managed Service for Apache Flink 支援 Apache Flink 1.18.1 推出的重要新功能和變更。

**注意**  
如果您使用的是舊版支援的 Apache Flink，而且想要將現有應用程式升級至 Apache Flink 1.18.1，則可以使用就地 Apache Flink 版本升級來執行此操作。透過就地版本升級，您可以針對跨 Apache Flink 版本的單一 ARN 保留應用程式可追蹤性，包括快照、日誌、指標、標籤、Flink 組態等。您可以在 `RUNNING`和 `READY` 狀態使用此功能。如需詳細資訊，請參閱[針對 Apache Flink 使用就地版本升級](how-in-place-version-upgrades.md)。


**Apache Flink 文件參考支援的 功能**  

| 支援的功能 | Description | Apache Flink 文件參考  | 
| --- | --- | --- | 
| Opensearch 連接器 | 此連接器包含提供at-least-once保證的接收器。 | [github：Opensearch 連接器](https://github.com/apache/flink-connector-opensearch/blob/main/docs/content/docs/connectors/datastream/opensearch.md) | 
| Amazon DynamoDB 連接器 | 此連接器包含提供at-least-once保證的接收器。 | [Amazon DynamoDB Sink](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/dynamodb/) | 
| MongoDB 連接器 | 此連接器包含提供at-least-once保證的來源和接收器。 | [MongoDB 連接器](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/datastream/mongodb/) | 
| 使用 Flink 規劃器解耦 Hive |  您可以直接使用 Hive 方言，無需額外的 JAR 交換。  | [FLINK-26603：使用 Flink 規劃器解耦 Hive](https://issues.apache.org/jira/browse/FLINK-26603) | 
| 根據預設，在 RocksDBWriteBatchWrapper 中停用 WAL |  這可提供更快的復原時間。  | [FLINK-32326：預設在 RocksDBWriteBatchWrapper 中停用 WAL](https://issues.apache.org/jira/browse/FLINK-32326) | 
|  改善啟用浮水印對齊時的浮水印彙總效能  |  改善啟用浮水印對齊時的浮水印彙總效能，並新增相關基準。  | [FLINK-32524：浮水印彙總效能](https://issues.apache.org/jira/browse/FLINK-32420) | 
| 讓浮水印對齊準備好供生產使用 | 消除大型任務超載 JobManager 的風險 | [ FLINK-32548：準備好浮水印對齊](https://issues.apache.org/jira/browse/FLINK-32548) | 
|  非同步接收器的可設定 RateLimitingStratey   |  RateLimitingStrategy 可讓您設定要擴展的內容、擴展的時間，以及擴展的數量。  | [ FLIP-242：為非同步接收器引進可設定的 RateLimitingStrategy ](https://cwiki.apache.org/confluence/display/FLINK/FLIP-242%3A+Introduce+configurable+RateLimitingStrategy+for+Async+Sink) | 
|  大量擷取資料表和資料欄統計資料  | 改善查詢效能。 | [ FLIP-247：大量擷取指定分割區的資料表和資料欄統計資料](https://cwiki.apache.org/confluence/display/FLINK/FLIP-247%3A+Bulk+fetch+of+table+and+column+statistics+for+given+partitions) | 

如需 Apache Flink 1.18.1 版本文件，請參閱 [ Apache Flink 1.18.1 版本公告。](https://flink.apache.org/2024/01/19/apache-flink-1.18.1-release-announcement/)

## Amazon Managed Service for Apache Flink with Apache Flink 1.18 的變更
<a name="flink-1-15-2-known-issues"></a>

**Akka 取代為 Pekko**

 Apache Flink 1.18 中的 Apache Flink 將 Akka 取代為 Pekko。Managed Service for Apache Flink 1.18.1 及更新版本完全支援此變更。由於此變更，您不需要修改應用程式。如需詳細資訊，請參閱 [FLINK-32468： Replace Akka by Pekko](https://issues.apache.org/jira/browse/FLINK-32468)。

**在執行緒模式中支援 PyFlink 執行期執行**

此 Apache Flink 變更為 Pyflink 執行期架構 程序模式引進新的執行模式。程序模式現在可以在相同的執行緒中執行 Python 使用者定義的函數，而不是個別的程序。

**反向移植錯誤修正**

Amazon Managed Service for Apache Flink 後端連接埠修正來自 Flink 社群的重大問題。這表示執行時間與 Apache Flink 1.18.1 版不同。以下是我們已向後移植的錯誤修正清單：


**反向移植錯誤修正**  

| Apache Flink JIRA 連結 | Description | 
| --- | --- | 
| [FLINK-33863](https://issues.apache.org/jira/browse/FLINK-33863) | 此修正可解決壓縮快照的狀態還原失敗的問題。 | 
| [FLINK-34063](https://issues.apache.org/jira/browse/FLINK-34063) | 此修正可解決啟用快照壓縮時來源運算子遺失分割的問題。Apache Flink 為所有檢查點和儲存點提供選用的壓縮 （預設：關閉）。Apache Flink 已識別 Flink 1.18.1 中的錯誤，其中在啟用快照壓縮時，無法正確還原運算子狀態。這可能會導致資料遺失或無法從檢查點還原。 | 
| [FLINK-35069](https://issues.apache.org/jira/browse/FLINK-35069) | 此修正解決 Flink 任務在視窗結束時卡住觸發計時器的問題。 | 
| [FLINK-35097](https://issues.apache.org/jira/browse/FLINK-35097) | 此修正以原始格式解決資料表 API 檔案系統連接器中重複記錄的問題。 | 
| [FLINK-34379](https://issues.apache.org/jira/browse/FLINK-34379) | 此修正解決了啟用動態資料表篩選時 OutOfMemoryError 的問題。 | 
| [FLINK-28693](https://issues.apache.org/jira/browse/FLINK-28693) | 此修正解決了如果浮水印具有 columnBy 表達式，資料表 API 無法產生圖形的問題。 | 
| [FLINK-35217](https://issues.apache.org/jira/browse/FLINK-35217) | 此修正可解決特定 Flink 任務失敗模式期間檢查點損毀的問題。 | 

## 元件
<a name="flink-1-15-2-components"></a>


****  

| 元件 | 版本 | 
| --- | --- | 
| Java  | 11 (建議使用) | 
| Scala |  自 1.15 版起，Flink 與 Scala 無關。作為參考，MSF Flink 1.18 已針對 Scala 3.3 (LTS) 驗證。  | 
| Managed Service for Apache Flink 執行期 (aws-kinesisanalytics-runtime) | 1.2.0 | 
| [AWS Kinesis 連接器 (flink-connector-kinesis)【來源】](https://mvnrepository.com/artifact/org.apache.flink/flink-connector-kinesis/4.2.0-1.18) | 4.2.0-1.18 | 
| [AWS Kinesis 連接器 (flink-connector-kinesis)【Sink】](https://mvnrepository.com/artifact/org.apache.flink/flink-connector-aws-kinesis-streams/4.2.0-1.18) | 4.2.0-1.18 | 
| [Apache Beam (僅限於 Beam 應用程式)](https://aws.amazon.com/developer/language/python/) |  從 2.57.0 版開始。如需詳細資訊，請參閱 [Flink 版本相容性](https://beam.apache.org/documentation/runners/flink/#flink-version-compatibility)。  | 

## 已知問題
<a name="flink-1-18-known-issues"></a>

**Amazon Managed Service for Apache Flink Studio**

Studio 使用 Apache Zeppelin 筆記本提供單一介面開發體驗，用於開發、偵錯程式碼和執行 Apache Flink 串流處理應用程式。Zeppelin 的 Flink 解譯器需要升級，才能支援 Flink 1.18。此工作是與 Zeppelin 社群排程進行，我們將在完成時更新這些備註。您可以繼續使用 Flink 1.15 搭配 Amazon Managed Service for Apache Flink Studio。如需詳細資訊，請參閱[建立 Studio 筆記本](https://docs.aws.amazon.com/managed-flink/latest/java/how-zeppelin-creating.html)。

**當子任務受到背壓時，浮水印閒置不正確**

當子任務受到背壓時，浮水印產生中存在已知問題，該問題已從 Flink 1.19 及更新版本修正。當 Flink 任務圖表受到背壓時，這可能會顯示為延遲記錄數量的峰值。我們建議您升級至最新的 Flink 版本，以插入此修正。如需詳細資訊，請參閱當[子任務受到背壓/封鎖時，浮水印閒置逾時會計不正確](https://issues.apache.org/jira/browse/FLINK-35886)。