Amazon 6.8.0 EMR版 - Amazon EMR

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

Amazon 6.8.0 EMR版

6.8.0 應用程式版本

此版本支援下列應用程式: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, Iceberg, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Trino, Zeppelin、 和 ZooKeeper.

下表列出此版本 Amazon 中可用的應用程式版本,EMR以及前三個 Amazon EMR版本 (如適用) 中的應用程式版本。

如需每個 Amazon 版本應用程式版本的全面歷史記錄EMR,請參閱下列主題:

應用程式版本資訊
emr-6.8.0 emr-6.7.0 emr-6.6.0 emr-6.5.0
AWS SDK 適用於 Java 1.12.1701.12.1701.12.1701.12.31
Python 2.7、3.72.7、3.72.7、3.72.7、3.7
Scala 2.12.152.12.152.12.102.12.10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.15.11.14.21.14.21.14.0
Ganglia3.7.23.7.23.7.23.7.2
HBase2.4.122.4.42.4.42.4.4
HCatalog3.1.33.1.33.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.33.1.33.1.23.1.2
Hudi0.11.1-amzn-00.11.0-amzn-00.10.1-amzn-00.9.0-amzn-1
Hue4.10.04.10.04.10.04.9.0
Iceberg0.14.0-amzn-00.13.1-amzn-00.13.10.12.0
JupyterEnterpriseGateway2.1.02.1.02.1.02.1.0
JupyterHub1.4.11.4.11.4.11.4.1
Livy0.7.10.7.10.7.10.7.1
MXNet1.9.11.8.01.8.01.8.0
Mahout - - - -
Oozie5.2.15.2.15.2.15.2.1
Phoenix5.1.25.1.25.1.25.1.2
Pig0.17.00.17.00.17.00.17.0
Presto0.2730.2720.2670.261
Spark3.3.03.2.13.2.03.1.2
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.9.12.4.12.4.12.4.1
Tez0.9.20.9.20.9.20.9.2
Trino (Presto SQL)388378367360
Zeppelin0.10.10.10.00.10.00.10.0
ZooKeeper3.5.103.5.73.5.73.5.7

6.8.0 版本備註

下列版本備註包含 Amazon 6.8.0 EMR版的資訊。變更是相對於 6.7.0 版而言。

新功能
  • Amazon EMR 步驟功能現在支援 Apache Livy 端點和 JDBC/ODBC 用戶端。如需詳細資訊,請參閱設定 Amazon EMR 步驟 的執行期角色

  • Amazon 6.8.0 EMR版隨附 Apache 2.4.12 HBase版。使用此HBase版本,您可以封存和刪除HBase資料表。Amazon S3 封存程序會重新命名所有資料表檔案,並移至封存目錄。此程序可能既昂貴又耗時。現在,您可以略過封存程序,並快速捨棄並刪除大型資料表。如需詳細資訊,請參閱使用 HBase shell

已知問題
  • Hadoop 3.3.3 引入了 YARN(YARN-9608) 的變更,該變更會讓容器在應用程式完成之前以停用狀態執行的節點保持。此變更確保本機資料 (例如隨機顯示資料) 不會遺失,而且您不需要重新執行作業。在 Amazon EMR 6.8.0 和 6.9.0 中,此方法也可能導致啟用或未啟用受管擴展的叢集資源使用率不足。

    使用 Amazon EMR 6.10.0,此問題的解決方法是在 falseyarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications將 的值設定為 yarn-site.xml。在 Amazon EMR6.11.0 及更新版本以及 6.8.1、6.9.1 和 6.10.1 中,預設會將組態設為 false以解決此問題。

變更、強化功能和已解決的問題
  • 當 Amazon 6.5.0、6.6.0 或 6.7.0 EMR版透過 Apache Spark Shell 讀取 Apache Phoenix 資料表時,Amazon EMR會產生 NoSuchMethodError。Amazon 6.8.0 EMR版會修正此問題。

  • Amazon 6.8.0 EMR版隨附 Apache Hudi 0.11.1;不過,Amazon EMR 6.8.0 叢集也與 Hudi 0.12.0 hudi-spark3.3-bundle_2.12的開放原始碼相容。

  • Amazon 6.8.0 EMR版隨附 Apache Spark 3.3.0。此 Spark 版本使用 Apache Log4j 2 和 log4j2.properties 檔案,以設定 Spark 程序中的 Log4j。如果您在叢集中使用 Spark 或使用自訂組態參數建立EMR叢集,而且想要升級至 Amazon 6.8.0 EMR版,則必須遷移至 Apache Log4j 2 的新spark-log4j2組態分類和金鑰格式。如需詳細資訊,請參閱從 Apache Log4j 1.x 遷移至 Log4j 2.x

  • 當您啟動 Amazon EMR 5.36 或更新版本、6.6 或更新版本或 7.0 或更新版本叢集時,Amazon EMR會使用預設 Amazon 的最新 Amazon Linux 2023 或 Amazon Linux 2 EMR 版本AMI。如需詳細資訊,請參閱使用適用於 Amazon 的預設 AMI Amazon LinuxEMR

    注意

    此版本不會再收到自動AMI更新,因為它已經再成功執行 1 個修補程式版本。修補程式版本以第二個小數點後的數字表示 (6.8.1)。若要查看您是否使用最新的修補程式版本,請在版本指南 中檢查可用的版本,或在主控台中建立叢集時檢查 Amazon EMR版本下拉式清單,或使用 ListReleaseLabelsAPI或 list-release-labelsCLI動作。若要取得新版本的更新,請在 What's new? 頁面上訂閱RSS摘要。

    OsReleaseLabel (Amazon Linux 版本) Amazon Linux 核心版本 可用日期 支援地區
    2.0.20241001.0 4.14.352 2024 年 10 月 4 日 美國東部 (維吉尼亞北部)、 美國東部 (俄亥俄)、 美國西部 (加利福尼亞北部)、 美國西部 (奧勒岡)、 歐洲 (斯德哥爾摩)、 歐洲 (米蘭)、 歐洲 (法蘭克福)、 歐洲 (愛爾蘭)、 歐洲 (倫敦)、 歐洲 (巴黎)、 亞太區域 (香港)、 亞太區域 (孟買)、 亞太區域 (東京)、 亞太區域 (首爾)、 亞太區域 (大阪)、 亞太區域 (新加坡)、 亞太區域 (雪梨), 亞太區域 (雅加達)、 非洲 (開普敦)、 南美洲 (聖保羅)、 中東 (巴林)、 加拿大 (中部), AWS GovCloud (美國西部), AWS GovCloud (美國東部)、 中國 (北京)、 中國 (寧夏)
    2.0.20240816.0 4.14.350 2024 年 8 月 21 日 美國東部 (維吉尼亞北部)、 美國東部 (俄亥俄)、 美國西部 (加利福尼亞北部)、 美國西部 (奧勒岡)、 歐洲 (斯德哥爾摩)、 歐洲 (米蘭)、 歐洲 (法蘭克福)、 歐洲 (愛爾蘭)、 歐洲 (倫敦)、 歐洲 (巴黎)、 亞太區域 (香港)、 亞太區域 (孟買)、 亞太區域 (東京)、 亞太區域 (首爾)、 亞太區域 (大阪)、 亞太區域 (新加坡)、 亞太區域 (雪梨), 亞太區域 (雅加達)、 非洲 (開普敦)、 南美洲 (聖保羅)、 中東 (巴林)、 加拿大 (中部), AWS GovCloud (美國西部), AWS GovCloud (美國東部)、 中國 (北京)、 中國 (寧夏)
    2.0.20240809.0 4.14.349 2024 年 8 月 20 日 美國東部 (維吉尼亞北部)、 美國東部 (俄亥俄)、 美國西部 (加利福尼亞北部)、 美國西部 (奧勒岡)、 歐洲 (斯德哥爾摩)、 歐洲 (米蘭)、 歐洲 (法蘭克福)、 歐洲 (愛爾蘭)、 歐洲 (倫敦)、 歐洲 (巴黎)、 亞太區域 (香港)、 亞太區域 (孟買)、 亞太區域 (東京)、 亞太區域 (首爾)、 亞太區域 (大阪)、 亞太區域 (新加坡)、 亞太區域 (雪梨), 亞太區域 (雅加達)、 非洲 (開普敦)、 南美洲 (聖保羅)、 中東 (巴林)、 加拿大 (中部), AWS GovCloud (美國西部), AWS GovCloud (美國東部)、 中國 (北京)、 中國 (寧夏)
    2.0.20240719.0 4.14.348 2024 年 7 月 25 日 美國東部 (維吉尼亞北部)、 美國東部 (俄亥俄)、 美國西部 (加利福尼亞北部)、 美國西部 (奧勒岡)、 歐洲 (斯德哥爾摩)、 歐洲 (米蘭)、 歐洲 (法蘭克福)、 歐洲 (愛爾蘭)、 歐洲 (倫敦)、 歐洲 (巴黎)、 亞太區域 (香港)、 亞太區域 (孟買)、 亞太區域 (東京)、 亞太區域 (首爾)、 亞太區域 (大阪)、 亞太區域 (新加坡)、 亞太區域 (雪梨), 亞太區域 (雅加達)、 非洲 (開普敦)、 南美洲 (聖保羅)、 中東 (巴林)、 加拿大 (中部), AWS GovCloud (美國西部), AWS GovCloud (美國東部)、 中國 (北京)、 中國 (寧夏)
    2.0.20240709.1 4.14.348 2024 年 7 月 23 日 美國東部 (維吉尼亞北部)、 美國東部 (俄亥俄)、 美國西部 (加利福尼亞北部)、 美國西部 (奧勒岡)、 歐洲 (斯德哥爾摩)、 歐洲 (米蘭)、 歐洲 (法蘭克福)、 歐洲 (愛爾蘭)、 歐洲 (倫敦)、 歐洲 (巴黎)、 亞太區域 (香港)、 亞太區域 (孟買)、 亞太區域 (東京)、 亞太區域 (首爾)、 亞太區域 (大阪)、 亞太區域 (新加坡)、 亞太區域 (雪梨), 亞太區域 (雅加達)、 非洲 (開普敦)、 南美洲 (聖保羅)、 中東 (巴林)、 加拿大 (中部)、 AWS GovCloud (美國西部), AWS GovCloud (美國東部)、 中國 (北京)、 中國 (寧夏)、 亞太區域 (海德拉巴)、 中東 (UAE)、 歐洲 (西班牙)、 歐洲 (蘇黎世)、 亞太區域 (墨爾本)、 以色列 (特拉維夫)
    2.0.20230808.0 4.14.320 2023 年 8 月 24 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、亞太區域 (雅加達)、亞太區域 (墨爾本)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)、加拿大 (中部)
    2.0.20230727.0 4.14.320 2023 年 8 月 14 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、歐洲 (斯德哥爾摩)、歐洲 (米蘭)、歐洲 (法蘭克福)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、亞太區域 (雅加達)、亞太區域 (墨爾本)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)、加拿大 (中部)。
    2.0.20230719.0 4.14.320 2023 年 8 月 2 日 美國東部 (維吉尼亞北部)、 美國東部 (俄亥俄)、 美國西部 (加利福尼亞北部)、 美國西部 (奧勒岡)、 歐洲 (斯德哥爾摩)、 歐洲 (米蘭)、 歐洲 (西班牙)、 歐洲 (法蘭克福)、 歐洲 (蘇黎世)、 歐洲 (愛爾蘭)、 歐洲 (倫敦)、 歐洲 (巴黎)、 亞太區域 (香港)、 亞太區域 (孟買)、 亞太區域 (海德拉巴)、 亞太區域 (東京)、 亞太區域 (首爾)、 亞太區域 (大阪)、 亞太區域 (新加坡)、 亞太區域 (雪梨), 亞太區域 (雅加達)、 亞太區域 (墨爾本)、 非洲 (開普敦)、 南美洲 (聖保羅)、 中東 (巴林)、 中東 (UAE)、 加拿大 (中部)
    2.0.20230628.0 4.14.318 2023 年 7 月 12 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20230612.0 4.14.314 2023 年 6 月 23 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20230504.1 4.14.313 2023 年 5 月 16 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20230418.0 4.14.311 2023 年 5 月 3 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20230404.1 4.14.311 2023 年 4 月 18 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20230404.0 4.14.311 2023 年 4 月 10 日 美國東部 (維吉尼亞北部)、歐洲 (巴黎)
    2.0.20230320.0 4.14.309 2023 年 3 月 30 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20230307.0 4.14.305 2023 年 3 月 15 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20230207.0 4.14.304 2023 年 2 月 22 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20230119.1 4.14.301 2023 年 2 月 3 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20221210.1 4.14.301 2023 年 12 月 22 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20221103.3 4.14.296 2022 年 12 月 5 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2.0.20221004.0 4.14.294 2022 年 11 月 2 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
    2022 年 2 月 2 日0912.1 4.14.291 2022 年 9 月 6 日 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林)
已知問題
  • 當您在 Amazon 6.6.0、6.7.0 和 6.8.0 EMR版上使用 DynamoDB 連接器搭配 Spark 時,所有來自資料表的讀取都會傳回空白結果,即使輸入分割參考非空白資料。這是因為 Spark 3.2.0 預設將 spark.hadoopRDD.ignoreEmptySplits 設為 true。解決辦法之一是,將 spark.hadoopRDD.ignoreEmptySplits 明確設為 false。Amazon 6.9.0 EMR版會修正此問題。

  • 當您使用 Spark 搭配 Hive 分割區位置格式來讀取 Amazon S3 中的資料時,並在 Amazon EMR版本 5.30.0 至 5.36.0,以及 6.2.0 至 6.9.0 上執行 Spark 時,您可能會遇到問題,導致叢集無法正確讀取資料。如果您的分割區具有以下所有特性,便會發生此種情形:

    • 兩個或更多分割區從同一資料表掃描而來。

    • 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首,例如,s3://bucket/table/p=as3://bucket/table/p=a b 的字首。

    • 另一個分割區目錄中字首後面的第一個字元具有小於 / 字元 (U+002F) 的 UTF-8 值。例如,s3://bucket/table/p=a b 中 a 和 b 之間有空白字元 (U+0020) 即屬於此類別。請注意還有 14 個其他非控制字元:!"#$%&‘()*+,-。如需詳細資訊,請參閱 UTF-8 編碼表和 Unicode 字元

    若要避免發生此問題,請在 spark-defaults 分類中將 spark.sql.sources.fastS3PartitionDiscovery.enabled 組態設定為 false

  • 使用 Amazon 5.36.0 和 6.6.0 到 6.9.0 EMR版,SecretAgentRecordServer服務元件可能會因 Log4j2 屬性中的檔案名稱模式組態不正確而發生日誌資料遺失。該錯誤組態會導致元件一天只產生一個日誌檔案。當使用輪換策略時,它會覆寫現有的檔案,而不會如預期產生新的日誌檔案。如需避免此狀況發生,請使用引導操作來每小時產生日誌檔案,並在檔案名稱中附加自動遞增的整數以處理輪換。

    對於 Amazon EMR 6.6.0 到 6.9.0 版本,請在啟動叢集時使用下列引導動作。

    ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"

    對於 Amazon EMR 5.36.0,請在啟動叢集時使用下列引導動作。

    ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"

如需有關發行時間表的詳細資訊,請參閱 變更日誌

6.8.0 元件版本

Amazon 在此版本中EMR安裝的元件如下所列。其中有一些屬於大數據應用程式套件。其他則對 Amazon 而言是獨一無二的EMR,並針對系統程序和功能進行安裝。這些通常會以 emraws 開頭。Amazon EMR最新版本中的大數據應用程式套件通常是社群中發現的最新版本。我們EMR盡快在 Amazon 中提供社群版本。

Amazon 中的某些元件與社群版本EMR不同。這些元件具有版本標籤,格式為 CommunityVersion-amzn-EmrVersionEmrVersion 從 0 開始。例如,如果使用 2.2 版命名myapp-component的開放原始碼社群元件已修改三次,以包含在不同的 Amazon EMR版本中,則其發行版本會列為 2.2-amzn-2

元件 版本 描述
aws-sagemaker-spark-sdk1.4.2Amazon SageMaker Spark SDK
emr-ddb4.16.0適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。
emr-goodies3.2.0適用 Hadoop 生態系統的超便利程式庫。
emr-kinesis3.5.0適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。
emr-notebook-env1.7.0適用於 emr 筆記本的 Conda env,前者包含 Jupyter Enterprise Gateway
emr-s3-dist-cp2.22.0針對 Amazon S3 最佳化的分散式複製應用程式。
emr-s3-select2.1.0EMR S3Select 連接器
emrfs2.53.0適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。
flink-client1.15.1Apache Flink 命令列用戶端指令碼和應用程式。
flink-jobmanager-config1.15.1管理 Apache Flink EMR節點上的資源 JobManager。
ganglia-monitor3.7.2Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。
ganglia-metadata-collector3.7.2Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。
ganglia-web3.7.1由 Ganglia 中繼資料收集器收集,以檢視指標的 Web 應用程式。
hadoop-client3.2.1-amzn-8Hadoop 命令列用戶端,例如「hdfs」、「Hadoop」或「yarn」。
hadoop-hdfs-datanode3.2.1-amzn-8HDFS 儲存區塊的節點層級服務。
hadoop-hdfs-library3.2.1-amzn-8HDFS command-line 用戶端和程式庫
hadoop-hdfs-namenode3.2.1-amzn-8HDFS 服務,用於追蹤檔案名稱和區塊位置。
hadoop-hdfs-journalnode3.2.1-amzn-8HDFS 服務,用於管理 HA 叢集上的 Hadoop 檔案系統日誌。
hadoop-httpfs-server3.2.1-amzn-8HTTP HDFS操作的端點。
hadoop-kms-server3.2.1-amzn-8以 Hadoop 的 為基礎的密碼編譯金鑰管理伺服器 KeyProvider API。
hadoop-mapred3.2.1-amzn-8MapReduce 執行引擎程式庫,用於執行 MapReduce 應用程式。
hadoop-yarn-nodemanager3.2.1-amzn-8YARN 服務,用於管理個別節點上的容器。
hadoop-yarn-resourcemanager3.2.1-amzn-8YARN 服務,用於配置和管理叢集資源和分散式應用程式。
hadoop-yarn-timeline-server3.2.1-amzn-8用於擷取YARN應用程式目前和歷史資訊的 服務。
hbase-hmaster2.4.12-amzn-0負責協調區域和執行管理命令的HBase叢集的服務。
hbase-region-server2.4.12-amzn-0服務一或多個HBase區域的服務。
hbase-client2.4.12-amzn-0HBase command-line 用戶端。
hbase-rest-server2.4.12-amzn-0為 提供RESTfulHTTP端點的服務HBase。
hbase-thrift-server2.4.12-amzn-0向 提供 Thrift 端點的服務HBase。
hbase-operator-tools2.4.12-amzn-0Apache HBase叢集的修復工具。
hcatalog-client3.1.3-amzn-1操作 hcatalog-server 的「hcat」命令列用戶端。
hcatalog-server3.1.3-amzn-1為分散式應用程式提供 HCatalog、資料表和儲存管理層的服務。
hcatalog-webhcat-server3.1.3-amzn-1HTTP 端點提供REST介面給 HCatalog。
hive-client3.1.3-amzn-1Hive 命令列用戶端。
hive-hbase3.1.3-amzn-1Hive-hbase 用戶端。
hive-metastore-server3.1.3-amzn-1存取 Hive 中繼存放區的服務,這是在 Hadoop 操作SQL上儲存 中繼資料的語意儲存庫。
hive-server23.1.3-amzn-1依 Web 請求接受 Hive 查詢的服務。
hudi0.11.1-amzn-0增量處理架構,以低延遲和高效率強化資料管道。
hudi-presto0.11.1-amzn-0用於使用 Hudi 執行 Presto 的套件程式庫。
hudi-trino0.11.1-amzn-0用於使用 Hudi 執行 Trino 的套件程式庫。
hudi-spark0.11.1-amzn-0用於使用 Hudi 執行 Spark 的套件程式庫。
hue-server4.10.0使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式
iceberg0.14.0-amzn-0Apache Iceberg 是一種適用於大型分析資料集的開放式資料表格式
jupyterhub1.4.1適用於 Jupyter 筆記本的多使用者伺服器
livy-server0.7.1-incubatingREST 與 Apache Spark 互動的介面
nginx1.12.1nginx 【引擎 x】 是 HTTP和 反向代理伺服器
mxnet1.9.1靈活有效率的程式庫,具可擴展性,適用於深度學習。
mariadb-server5.5.68+MariaDB 資料庫伺服器。
nvidia-cuda11.7.0Nvidia 驅動程式和 Cuda 工具組
oozie-client5.2.1Oozie 命令列用戶端。
oozie-server5.2.1接受 Oozie 工作流程要求的服務。
opencv4.5.0開放原始碼電腦 Vision 程式庫。
phoenix-library5.1.2適用於伺服器和用戶端的 phoenix 程式庫
phoenix-connectors5.1.2適用於 Spark-3 的 Apache Phoenix 連接器
phoenix-query-server5.1.2提供 Avatica JDBC存取權以及通訊協定緩衝區和JSON格式存取權的輕量型伺服器 API
presto-coordinator0.273.3-amzn-0在 presto-workers 之間接受查詢和執行管理查詢的服務。
presto-worker0.273.3-amzn-0執行查詢各部分的服務。
presto-client0.273.3-amzn-0安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端,該主節點上的 Presto 伺服器未啟動。
trino-coordinator388-amzn-0在 trino-workers 之間接受查詢和執行管理查詢的服務。
trino-worker388-amzn-0執行查詢各部分的服務。
trino-client388-amzn-0安裝於 HA 叢集的待命主節點的 Trino 命令列用戶端,該主節點上的 Trino 伺服器未啟動。
pig-client0.17.0Pig 命令列用戶端。
r4.0.2統計運算 R 專案
ranger-kms-server2.0.0Apache Ranger Key Management System
spark-client3.3.0-amzn-0Spark 命令列用戶端。
spark-history-server3.3.0-amzn-0用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。
spark-on-yarn3.3.0-amzn-0的記憶體內執行引擎YARN。
spark-yarn-slave3.3.0-amzn-0從屬所需的 Apache Spark YARN 程式庫。
spark-rapids22.06.0-amzn-0使用 加速 Apache Spark 的 NVIDIA Spark RAPIDS外掛程式GPUs。
sqoop-client1.4.7Apache Sqoop 命令列用戶端。
tensorflow2.9.1TensorFlow 適用於高效能數值運算的開放原始碼軟體程式庫。
tez-on-yarn0.9.2tez YARN 應用程式和程式庫。
webserver2.4.41+Apache HTTP 伺服器。
zeppelin-server0.10.1能進行互動式資料分析,以 Web 為基礎的筆記型電腦。
zookeeper-server3.5.10用於維護組態資訊、命名、提供分散式同步,並提供群組服務的集中化服務。
zookeeper-client3.5.10ZooKeeper 命令列用戶端。

6.8.0 組態類別

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態XML檔案,例如 hive-site.xml。如需詳細資訊,請參閱設定應用程式

當您為執行中叢集的執行個體群組指定組態時,就會發生重新設定動作。Amazon EMR只會為您修改的分類啟動重新設定動作。如需詳細資訊,請參閱重新設定執行中叢集中的執行個體群組

emr-6.8.0 分類
分類 描述 重新設定動作

capacity-scheduler

變更 Hadoop 中 capacity-scheduler.xml 檔案的值。

Restarts the ResourceManager service.

container-executor

變更 Hadoop YARN的 container-executor.cfg 檔案中的值。

Not available.

container-log4j

變更 Hadoop YARN的 container-log4j.properties 檔案中的值。

Not available.

core-site

變更 Hadoop 中 core-site.xml 檔案的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

變更 Docker 相關設定。

Not available.

emrfs-site

變更EMRFS設定。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

變更 flink-conf.yaml 設定。

Restarts Flink history server.

flink-log4j

變更 Flink log4j.properties 設定。

Restarts Flink history server.

flink-log4j-session

變更 Kubernetes/Yarn 工作階段的 Flink log4j-session.properties 設定。

Restarts Flink history server.

flink-log4j-cli

變更 Flink log4j-cli.properties 設定。

Restarts Flink history server.

hadoop-env

在 Hadoop 環境中變更所有 Hadoop 元件的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

變更 Hadoop 中 log4j.properties 檔案的值。

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

變更 hadoop ssl 伺服器組態

Not available.

hadoop-ssl-client

變更 hadoop ssl 用戶端組態

Not available.

hbase

Apache 的 Amazon EMR精選設定HBase。

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

變更 HBase環境中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

變更 HBasehbase-log4j.properties 檔案中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

變更 HBase的 hadoop-metrics2-hbase.properties 檔案中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

變更 HBasehbase-policy.xml 檔案中的值。

Not available.

hbase-site

變更 HBasehbase-site.xml 檔案中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

設定HDFS加密區域。

This classification should not be reconfigured.

hdfs-env

變更HDFS環境中的值。

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

變更 HDFShdfs-site.xml 中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

變更 HCatalog環境中的值。

Restarts Hive HCatalog Server.

hcatalog-server-jndi

變更 jndi.properties HCatalog中的值。

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

變更 HCatalog. proto-hive-sitexml 中的值。

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

變更 HCatalog W ebHCat環境中的值。

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

變更 HCatalog W ebHCat的 log4j2.properties 中的值。

Restarts Hive WebHCat server.

hcatalog-webhcat-site

變更 HCatalog W ebHCat的 webhcat-site.xml 檔案中的值。

Restarts Hive WebHCat server.

hive

Apache Hive 的 Amazon EMR精選設定。

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

變更 Hive 的 beeline-log4j2.properties 檔案中的值。

Not available.

hive-parquet-logging

變更 Hive 的 parquet-logging.properties 檔案中的值。

Not available.

hive-env

變更 Hive 環境中的值。

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

在 Hive 的 hive-exec-log4j2.properties 檔案中變更值。

Not available.

hive-llap-daemon-log4j2

變更 Hive llap-daemon-log4j2.properties 檔案中的值。

Not available.

hive-log4j2

變更 Hive 的 hive-log4j2.properties 檔案中的值。

Not available.

hive-site

變更 Hive 的 hive-site.xml 檔案中的值

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值

Not available.

hue-ini

變更 Hue 的 ini 檔案中的值

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

變更HTTPFS環境中的值。

Restarts Hadoop Httpfs service.

httpfs-site

變更 Hadoop 中 httpfs-site.xml 檔案的值。

Restarts Hadoop Httpfs service.

hadoop-kms-acls

變更 Hadoop 中 kms-acls.xml 檔案的值。

Not available.

hadoop-kms-env

變更 Hadoop KMS環境中的值。

Restarts Hadoop-KMS service.

hadoop-kms-log4j

變更 Hadoop 的 kms-log4j.properties 檔案中的值。

Not available.

hadoop-kms-site

變更 Hadoop 中 kms-site.xml 檔案的值。

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

變更 Hudi 環境中的值。

Not available.

hudi-defaults

變更 Hudi 的 hudi-defaults.conf 檔案中的值。

Not available.

iceberg-defaults

變更 Iceberg 的 iceberg-defaults.conf 檔案中的值。

Not available.

jupyter-notebook-conf

變更 Jupyter 筆記本中 jupyter_notebook_config.py 檔案的值。

Not available.

jupyter-hub-conf

變更 JupyterHubsjupyterhub_config.py 檔案中的值。

Not available.

jupyter-s3-conf

設定 Jupyter 筆記本 S3 持久性。

Not available.

jupyter-sparkmagic-conf

變更 Sparkmagic 中 config.json 檔案的值。

Not available.

livy-conf

變更 Livy 的 livy.conf 檔案中的值。

Restarts Livy Server.

livy-env

變更 Livy 環境中的值。

Restarts Livy Server.

livy-log4j

變更 Livy log4j.properties 設定。

Restarts Livy Server.

mapred-env

變更 MapReduce 應用程式環境中的值。

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

變更 Oozie 環境中的值。

Restarts Oozie.

oozie-log4j

變更 Oozie 的 oozie-log4j.properties 檔案中的值。

Restarts Oozie.

oozie-site

變更 Oozie 的 oozie-site.xml 檔案中的值。

Restarts Oozie.

phoenix-hbase-metrics

變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。

Not available.

phoenix-hbase-site

變更 Phoenix 的 hbase-site.xml 檔案中的值。

Not available.

phoenix-log4j

變更 Phoenix 中 log4j.properties 檔案的值。

Restarts Phoenix-QueryServer.

phoenix-metrics

變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。

Not available.

pig-env

在 Pig 環境中變更值。

Not available.

pig-properties

變更 Pig 的 pig.properties 檔案中的值。

Restarts Oozie.

pig-log4j

變更 Pig 的 log4j.properties 檔案中的值。

Not available.

presto-log

變更 Presto 的 log.properties 檔案中的值。

Restarts Presto-Server (for PrestoDB)

presto-config

變更 Presto 的 config.properties 檔案中的值。

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

變更 Presto 的 password-authenticator.properties 檔案中的值。

Not available.

presto-env

變更 Presto 的 presto-env.sh 檔案中的值。

Restarts Presto-Server (for PrestoDB)

presto-node

變更 Presto 的 node.properties 檔案中的值。

Not available.

presto-connector-blackhole

變更 Presto 的 blackhole.properties 檔案中的值。

Not available.

presto-connector-cassandra

變更 Presto 的 cassandra.properties 檔案中的值。

Not available.

presto-connector-hive

變更 Presto 的 hive.properties 檔案中的值。

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

變更 Presto 的 jmx.properties 檔案中的值。

Not available.

presto-connector-kafka

變更 Presto 的 kafka.properties 檔案中的值。

Not available.

presto-connector-localfile

變更 Presto 的 localfile.properties 檔案中的值。

Not available.

presto-connector-memory

變更 Presto 的 memory.properties 檔案中的值。

Not available.

presto-connector-mongodb

變更 Presto 的 mongodb.properties 檔案中的值。

Not available.

presto-connector-mysql

變更 Presto 的 mysql.properties 檔案中的值。

Not available.

presto-connector-postgresql

變更 Presto 的 postgresql.properties 檔案中的值。

Not available.

presto-connector-raptor

變更 Presto 的 raptor.properties 檔案中的值。

Not available.

presto-connector-redis

變更 Presto 的 redis.properties 檔案中的值。

Not available.

presto-connector-redshift

變更 Presto 的 redshift.properties 檔案中的值。

Not available.

presto-connector-tpch

變更 Presto 的 tpch.properties 檔案中的值。

Not available.

presto-connector-tpcds

變更 Presto 的 tpcds.properties 檔案中的值。

Not available.

trino-log

變更 Trino 的 log.properties 檔案中的值。

Restarts Trino-Server (for Trino)

trino-config

變更 Trino 的 config.properties 檔案中的值。

Restarts Trino-Server (for Trino)

trino-password-authenticator

變更 Trino 的 password-authenticator.properties 檔案中的值。

Restarts Trino-Server (for Trino)

trino-env

變更 Trino 的 trino-env.sh 檔案中的值。

Restarts Trino-Server (for Trino)

trino-node

變更 Trino 的 node.properties 檔案中的值。

Not available.

trino-connector-blackhole

變更 Trino 的 blackhole.properties 檔案中的值。

Not available.

trino-connector-cassandra

變更 Trino 的 cassandra.properties 檔案中的值。

Not available.

trino-connector-hive

變更 Trino 的 hive.properties 檔案中的值。

Restarts Trino-Server (for Trino)

trino-connector-iceberg

變更 Trino 的 iceberg.properties 檔案中的值。

Restarts Trino-Server (for Trino)

trino-connector-jmx

變更 Trino 的 jmx.properties 檔案中的值。

Not available.

trino-connector-kafka

變更 Trino 的 kafka.properties 檔案中的值。

Not available.

trino-connector-localfile

變更 Trino 的 localfile.properties 檔案中的值。

Not available.

trino-connector-memory

變更 Trino 的 memory.properties 檔案中的值。

Not available.

trino-connector-mongodb

變更 Trino 的 mongodb.properties 檔案中的值。

Not available.

trino-connector-mysql

變更 Trino 的 mysql.properties 檔案中的值。

Not available.

trino-connector-postgresql

變更 Trino 的 postgresql.properties 檔案中的值。

Not available.

trino-connector-raptor

變更 Trino 的 raptor.properties 檔案中的值。

Not available.

trino-connector-redis

變更 Trino 的 redis.properties 檔案中的值。

Not available.

trino-connector-redshift

變更 Trino 的 redshift.properties 檔案中的值。

Not available.

trino-connector-tpch

變更 Trino 的 tpch.properties 檔案中的值。

Not available.

trino-connector-tpcds

變更 Trino 的 tpcds.properties 檔案中的值。

Not available.

ranger-kms-dbks-site

變更 Ranger 的 dbks-site.xml 檔案中的值KMS。

Restarts Ranger KMS Server.

ranger-kms-site

變更 Ranger 的 ranger-kms-site.xml 檔案中的值KMS。

Restarts Ranger KMS Server.

ranger-kms-env

在 Ranger KMS環境中變更值。

Restarts Ranger KMS Server.

ranger-kms-log4j

變更 Ranger 的 kms-log4j.properties 檔案中的值KMS。

Not available.

ranger-kms-db-ca

變更 S3 for MySQL 與 Ranger SSL連線上的 CA 檔案值KMS。

Not available.

spark

Apache Spark 的 Amazon EMR精選設定。

This property modifies spark-defaults. See actions there.

spark-defaults

變更 Spark 的 spark-defaults.conf 檔案中的值。

Restarts Spark history server and Spark thrift server.

spark-env

變更 Spark 環境中的值。

Restarts Spark history server and Spark thrift server.

spark-hive-site

變更 Spark 的 hive-site.xml 檔案中的值

Not available.

spark-log4j2

變更 Spark 中 log4j2.properties 檔案中的值。

Restarts Spark history server and Spark thrift server.

spark-metrics

變更 Spark 中 metrics.properties 檔案的值。

Restarts Spark history server and Spark thrift server.

sqoop-env

變更 Sqoop 環境中的值。

Not available.

sqoop-oraoop-site

變更 Sqoop OraOop的 oraoop-site.xml 檔案中的值。

Not available.

sqoop-site

變更 Sqoop 的 sqoop-site.xml 檔案中的值。

Not available.

tez-site

變更 Tez 的 tez-site.xml 檔案中的值。

Restart Oozie and HiveServer2.

yarn-env

變更YARN環境中的值。

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

變更 YARN的 yarn-site.xml 檔案中的值。

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

變更 Zeppelin 環境中的值。

Restarts Zeppelin.

zeppelin-site

變更 zeppelin-site.xml 中的組態設定。

Restarts Zeppelin.

zookeeper-config

變更 ZooKeeperzoo.cfg 檔案中的值。

Restarts Zookeeper server.

zookeeper-log4j

變更 ZooKeeper的 log4j.properties 檔案中的值。

Restarts Zookeeper server.

6.8.0 變更日誌

變更 6.8.0 版本和版本備註的日誌
日期 事件 描述
2023-08-21 更新 新增 Hadoop 3.3.3 的已知問題。
2023-07-26 更新 新的作業系統版本標籤 2.0.20230612.02.0.20230628.0
2022-09-06 部署完成 Amazon EMR 6.8 完全部署到所有支援的區域
2022-09-06 初次出版 Amazon EMR 6.8 版本備註首次發佈
2022-08-31 初始版本 Amazon EMR 6.8 發佈至有限的商業區域