亚马逊EMR版本 6.8.0 - Amazon EMR

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

亚马逊EMR版本 6.8.0

6.8.0 应用程序版本

此版本支持以下应用程序:Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, Iceberg, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Trino, ZeppelinZooKeeper.

下表列出了此版本的 Amazon 中可用的应用程序版本EMR和前三个亚马逊版本中的应用程序EMR版本(如果适用)。

要全面了解每个 Amazon 版本的应用程序版本历史记录EMR,请参阅以下主题:

应用程序版本信息
emr-6.8.0 emr-6.7.0 emr-6.6.0 emr-6.5.0
适用于 Java 的AWS SDK 1.12.1701.12.1701.12.1701.12.31
Python 2.7、3.72.7、3.72.7、3.72.7、3.7
Scala 2.12.152.12.152.12.102.12.10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.15.11.14.21.14.21.14.0
Ganglia3.7.23.7.23.7.23.7.2
HBase2.4.122.4.42.4.42.4.4
HCatalog3.1.33.1.33.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.33.1.33.1.23.1.2
Hudi0.11.1-amzn-00.11.0-amzn-00.10.1-amzn-00.9.0-amzn-1
Hue4.10.04.10.04.10.04.9.0
Iceberg0.14.0-amzn-00.13.1-amzn-00.13.10.12.0
JupyterEnterpriseGateway2.1.02.1.02.1.02.1.0
JupyterHub1.4.11.4.11.4.11.4.1
Livy0.7.10.7.10.7.10.7.1
MXNet1.9.11.8.01.8.01.8.0
Mahout - - - -
Oozie5.2.15.2.15.2.15.2.1
Phoenix5.1.25.1.25.1.25.1.2
Pig0.17.00.17.00.17.00.17.0
Presto0.2730.2720.2670.261
Spark3.3.03.2.13.2.03.1.2
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.9.12.4.12.4.12.4.1
Tez0.9.20.9.20.9.20.9.2
Trino(Prest SQL o)388378367360
Zeppelin0.10.10.10.00.10.00.10.0
ZooKeeper3.5.103.5.73.5.73.5.7

6.8.0 发布说明

以下发行说明包含 Amazon 6.8.0 EMR 版本的信息。更改与 6.7.0 有关。

新功能
  • Amaz EMR on steps 功能现在支持 Apache Livy 终端节点和JDBC/ODBC客户端。有关更多信息,请参阅为 Amazon EMR 步骤配置运行时角色

  • 亚马逊EMR版本6.8.0附带了Apache HBase 版本2.4.12。在此HBase版本中,您可以存档和删除HBase表。Amazon S3 存档过程会将所有表文件重命名为存档目录。这一过程成本高昂且时间较长。现在,您可以跳过存档过程,快速删除大型表。有关更多信息,请参阅 使用外HBase壳

已知问题
  • Hadoop 3.3.3 在 YARN (YARN-9608) 中引入了一项更改,即在应用程序完成之前,容器运行的节点一直处于停用状态。此更改可确保如随机数据等本地数据不会丢失,并且您无需重新运行作业。在 Amazon EMR 6.8.0 和 6.9.0 中,这种方法还可能导致启用或未启用托管扩展的集群上的资源利用不足。

    在 A mazon EMR 6.10.0 中,有一种解决方法可以将的值设置为 in 来解决此问题。yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications false yarn-site.xml在亚马逊EMR版本 6.11.0 及更高版本以及 6.8.1、6.9.1 和 6.10.1 中,配置false默认设置为以解决此问题。

更改、增强和解决的问题
  • 当亚马逊EMR发布 6.5.0、6.6.0 或 6.7.0 通过 Apache Spark shell 读取 Apache Phoenix 表时,亚马逊制作了一个。EMR NoSuchMethodError亚马逊EMR版本 6.8.0 修复了这个问题。

  • 亚马逊EMR版本6.8.0附带A pache Hudi 0.11.1;但是,EMR亚马逊6.8.0集群也与Hudi 0.12.0的开源集群兼容。hudi-spark3.3-bundle_2.12

  • 亚马逊EMR版本 6.8.0 附带了 Apache Spark 3.0。此 Spark 发行版使用 Apache Log4j 2 和 log4j2.properties 文件,在 Spark 进程中配置 Log4j。如果您在集群中使用 Spark 或使用自定义配置参数创建EMR集群,并且想要升级到 Amazon EMR 版本 6.8.0,则必须迁移到 Apache Log4j 2 的新spark-log4j2配置分类和密钥格式。有关更多信息,请参阅 从 Apache Log4j 1.x 迁移到 Log4j 2.x

  • 当您启动带有最新补丁版本(亚马逊 EMR 5.36 或更高版本、6.6 或更高版本、7.0 或更高版本)的集群时,亚马逊将EMR使用最新的亚马逊 Linux 2023 或亚马逊 Linux 2 版本作为默认亚马逊 Linux 2 版本。EMR AMI有关更多信息,请参阅使用亚马逊的默认 Amazon Linux AMI EMR

    注意

    此版本不再获得自动AMI更新,因为又有 1 个补丁版本接替了该版本。补丁版本以第二位小数点后的数字 (6.8.1) 表示。要查看您是否使用的是最新补丁版本,请查看发布指南中的可用版本,或者在控制台中创建集群时查看 Amazon EMR 版本下拉列表,或者使用ListReleaseLabelsAPI或list-release-labelsCLI操作。要获取有关新版本的更新,请订阅 “新增内容?” RSS 页面。

    OsReleaseLabel (亚马逊 Linux 版本) Amazon Linux 内核版本 可用日期 支持的区域
    2.0.20241001.0 4.14.352 2024 年 10 月 4 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) AWS GovCloud 、(美国东部)、(美国东部) AWS GovCloud 、中国(北京)、中国(宁夏)
    2.0.20240816.0 4.14.350 2024 年 8 月 21 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) AWS GovCloud 、(美国东部)、(美国东部) AWS GovCloud 、中国(北京)、中国(宁夏)
    2.0.20240809.0 4.14.349 2024 年 8 月 20 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) AWS GovCloud 、(美国东部)、(美国东部) AWS GovCloud 、中国(北京)、中国(宁夏)
    2.0.20240719.0 4.14.348 2024 年 7 月 25 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) AWS GovCloud 、(美国东部)、(美国东部) AWS GovCloud 、中国(北京)、中国(宁夏)
    2.0.20240709.1 4.14.348 2024 年 7 月 23 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) AWS GovCloud 、(美国东部)、(美国东部) AWS GovCloud 、中国(北京)、中国(宁夏)、亚洲太平洋(海得拉巴)、中东(UAE)、欧洲(西班牙)、欧洲(苏黎世)、亚太地区(墨尔本)、以色列(特拉维夫)
    2.0.20230808.0 4.14.320 2023 年 8 月 24 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)
    2.0.20230727.0 4.14.320 2023 年 8 月 14 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲地区(法兰克福)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、
    2.0.20230719.0 4.14.320 2023 年 8 月 2 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(西班牙)、欧洲(法兰克福)、欧洲(苏黎世)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东UAE()、加拿大(中央)
    2.0.20230628.0 4.14.318 2023 年 7 月 12 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20230612.0 4.14.314 2023 年 6 月 23 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20230504.1 4.14.313 2023 年 5 月 16 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20230418.0 4.14.311 2023 年 5 月 3 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20230404.1 4.14.311 2023 年 4 月 18 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20230404.0 4.14.311 2023 年 4 月 10 日 美国东部(弗吉尼亚州北部)、欧洲地区(巴黎)
    2.0.20230320.0 4.14.309 2023 年 3 月 30 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20230307.0 4.14.305 2023 年 3 月 15 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20230207.0 4.14.304 2023 年 2 月 22 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20230119.1 4.14.301 2023 年 2 月 3 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20221210.1 4.14.301 2023 年 12 月 22 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20221103.3 4.14.296 2022 年 12 月 5 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20221004.0 4.14.294 2022 年 11 月 2 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
    2.0.20220912.1 4.14.291 2022 年 9 月 6 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
已知问题
  • 当您在EMR亚马逊 6.0、6.7.0 和 6.8.0 版本上将 DynamoDB 连接器与 Spark 配合使用时,即使输入拆分引用非空数据,所有从表中读取的内容都会返回空结果。这是因为 Spark 3.2.0 将 spark.hadoopRDD.ignoreEmptySplits 默认设置为 true。解决方法是将 spark.hadoopRDD.ignoreEmptySplits 显式设置为 false。亚马逊 6.9.0 EMR 版本修复了这个问题。

  • 当你使用带有 Hive 分区位置格式的 Spark 来读取 Amazon S3 中的数据,并在亚马逊EMR版本 5.30.0 到 5.36.0 和 6.2.0 到 6.9.0 上运行 Spark 时,你可能会遇到一个问题,导致集群无法正确读取数据。如果您的分区具有以下所有特征,会发生这种情况:

    • 从同一个表扫描两个或多个分区。

    • 至少有一个分区目录路径是至少一个其他分区目录路径的前缀,例如,s3://bucket/table/p=as3://bucket/table/p=a b 的前缀。

    • 另一个分区目录中前缀之后的第一个字符的值为 UTF -8,小于该/字符 (U+002F)。例如,在 s3://bucket/table/p=a b 中,a 和 b 之间出现的空格字符 (U+0020) 就属于此类。请注意,还有其他 14 个非控制字符:!"#$%&‘()*+,-。有关更多信息,请参阅 UTF-8 编码表和 Unicode 字符

    解决方法是在 spark-defaults 分类中将 spark.sql.sources.fastS3PartitionDiscovery.enabled 配置设置为 false

  • 在 Amazon 5.36.0 和 6.6.0 到 6.9.0 EMR 版本中,由于 Log4 SecretAgent j2 属性中的文件名模式配置不正确,RecordServer服务组件可能会丢失日志数据。错误的配置导致组件每天只生成一个日志文件。当应用轮换策略时,它会重写现有文件,而不是按预期生成新的日志文件。应变方法是使用引导操作每小时生成一次日志文件,并在文件名中附加一个自动增量的整数来处理轮换。

    对于 Amazon EMR 6.0 到 6.9.0 版本,请在启动集群时使用以下引导操作。

    ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"

    对于 Amazon EMR 5.36.0,请在启动集群时使用以下引导操作。

    ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"

有关发布时间表的更多信息,请参阅更改日志

6.8.0 组件版本

下面列出了 Amazon 随此版本EMR安装的组件。一些组件作为大数据应用程序包的一部分安装。其他则是 Amazon 独有的EMR,是为系统流程和功能而安装的。它们通常以 emraws 开头。Amazon 最新EMR版本中的大数据应用程序包通常是社区中的最新版本。我们会EMR尽快在 Amazon 上发布社区版本。

Amazon 中的某些组件与社区版本EMR不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的发行版标注。EmrVersion 从 0 开始。例如,如果myapp-component以 2.2 版本命名的开源社区组件经过三次修改以包含在不同的 Amazon EMR 版本中,则其发布版本将列为2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk1.4.2亚马逊 SageMaker Spark SDK
emr-ddb4.16.0适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies3.2.0适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis3.5.0适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-notebook-env1.7.0适用于 EMR Notebooks(可提供 jupyter 企业网关)的 Conda env
emr-s3-dist-cp2.22.0针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select2.1.0EMRS3Select 连接器
emrfs2.53.0适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client1.15.1Apache Flink 命令行客户端脚本和应用程序。
flink-jobmanager-config1.15.1管理 Apache Flink EMR JobManager 节点上的资源。
ganglia-monitor3.7.2适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector3.7.2用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web3.7.1用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client3.2.1-amzn-8Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode3.2.1-amzn-8HDFS用于存储区块的节点级服务。
hadoop-hdfs-library3.2.1-amzn-8HDFS命令行客户端和库
hadoop-hdfs-namenode3.2.1-amzn-8HDFS用于跟踪文件名和区块位置的服务。
hadoop-hdfs-journalnode3.2.1-amzn-8HDFS用于管理 HA 集群上的 Hadoop 文件系统日志的服务。
hadoop-httpfs-server3.2.1-amzn-8HTTPHDFS操作端点。
hadoop-kms-server3.2.1-amzn-8基于 Hadoop 的加密密钥管理服务器。 KeyProvider API
hadoop-mapred3.2.1-amzn-8MapReduce 用于运行 MapReduce 应用程序的执行引擎库。
hadoop-yarn-nodemanager3.2.1-amzn-8YARN用于管理单个节点上的容器的服务。
hadoop-yarn-resourcemanager3.2.1-amzn-8YARN用于分配和管理群集资源和分布式应用程序的服务。
hadoop-yarn-timeline-server3.2.1-amzn-8用于检索YARN应用程序的当前和历史信息的服务。
hbase-hmaster2.4.12-amzn-0为负责协调区域和执行管理命令的HBase集群提供服务。
hbase-region-server2.4.12-amzn-0为一个或多个HBase地区提供服务的服务。
hbase-client2.4.12-amzn-0HBase命令行客户端。
hbase-rest-server2.4.12-amzn-0为其提供RESTfulHTTP终端节点的服务HBase。
hbase-thrift-server2.4.12-amzn-0为其提供 Thrift 端点的HBase服务。
hbase-operator-tools2.4.12-amzn-0适用于 Apache HBase 集群的修复工具。
hcatalog-client3.1.3-amzn-1用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server3.1.3-amzn-1提供服务HCatalog,为分布式应用程序提供表和存储管理层。
hcatalog-webhcat-server3.1.3-amzn-1HTTP端点为其提供REST接口HCatalog。
hive-client3.1.3-amzn-1Hive 命令行客户端。
hive-hbase3.1.3-amzn-1Hive-hbase 客户端。
hive-metastore-server3.1.3-amzn-1用于访问 Hive 元数据仓的服务,Hive 元存储库是一个语义存储库,用于存储 Hadoop 操作的SQL元数据。
hive-server23.1.3-amzn-1用于将 Hive 查询作为 Web 请求接受的服务。
hudi0.11.1-amzn-0增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto0.11.1-amzn-0用于运行 Presto 以及 Hudl 的捆绑库。
hudi-trino0.11.1-amzn-0用于运行 Trino 以及 Hudi 的捆绑库。
hudi-spark0.11.1-amzn-0用于运行 Spark 以及 Hudi 的捆绑库。
hue-server4.10.0用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
iceberg0.14.0-amzn-0Apache Iceberg 是一种适用于超大型分析数据集的开放表格式。
jupyterhub1.4.1Jupyter notebook 的多用户服务器
livy-server0.7.1-incubatingREST用于与 Apache Spark 交互的接口
nginx1.12.1nginx [engine x] HTTP 是一个反向代理服务器
mxnet1.9.1用于深度学习的灵活的、可扩展且高效的库。
mariadb-server5.5.68+MariaDB 数据库服务器。
nvidia-cuda11.7.0Nvidia 驱动程序和 Cuda 工具包
oozie-client5.2.1Oozie 命令行客户端。
oozie-server5.2.1用于接受 Oozie 工作流请求的服务。
opencv4.5.0开源计算机视觉库。
phoenix-library5.1.2服务器和客户端的 phoenix 库
phoenix-connectors5.1.2Apache Phoenix-Connectors for Spark-3
phoenix-query-server5.1.2轻量级服务器,提供JDBC对 Avatica 的访问权限以及协议缓冲区和JSON格式访问权限 API
presto-coordinator0.273.3-amzn-0用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker0.273.3-amzn-0用于执行查询的各个部分的服务。
presto-client0.273.3-amzn-0Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。
trino-coordinator388-amzn-0用于在 trino-worker 之中接受查询并管理查询的服务。
trino-worker388-amzn-0用于执行查询的各个部分的服务。
trino-client388-amzn-0Trino 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Trino 服务器)上。
pig-client0.17.0Pig 命令行客户端。
r4.0.2用于统计计算的 R 项目
ranger-kms-server2.0.0Apache Ranger 密钥管理系统
spark-client3.3.0-amzn-0Spark 命令行客户端。
spark-history-server3.3.0-amzn-0用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn3.3.0-amzn-0的内存中执行引擎。YARN
spark-yarn-slave3.3.0-amzn-0YARN从属服务器需要的 Apache Spark 库。
spark-rapids22.06.0-amzn-0Nvidia Spark RAPIDS 插件可以加速 Apache Spark。GPUs
sqoop-client1.4.7Apache Sqoop 命令行客户端。
tensorflow2.9.1TensorFlow 用于高性能数值计算的开源软件库。
tez-on-yarn0.9.2tez YARN 应用程序和库。
webserver2.4.41+Apache HTTP 服务器。
zeppelin-server0.10.1支持交互式数据分析的基于 Web 的 Notebook。
zookeeper-server3.5.10用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client3.5.10ZooKeeper 命令行客户端。

6.8.0 配置分类

配置分类允许您自定义应用程序。它们通常对应于应用程序的配置XML文件,例如hive-site.xml。有关更多信息,请参阅 配置应用程序

为处于运行状态的集群中的实例组指定配置时,将发生重新配置操作。Amazon EMR 仅对您修改的分类启动重新配置操作。有关更多信息,请参阅 在正在运行的集群中重新配置实例组

emr-6.8.0 分类
分类 描述 重新配置操作

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

Restarts the ResourceManager service.

container-executor

更改 Hadoop YARN 的 container-executor.cfg 文件中的值。

Not available.

container-log4j

更改 Hadoop 的 container-log4j.prop YARN erties 文件中的值。

Not available.

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

更改 docker 相关设置。

Not available.

emrfs-site

更改EMRFS设置。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

更改 flink-conf.yaml 设置。

Restarts Flink history server.

flink-log4j

更改 Flink log4j.properties 设置。

Restarts Flink history server.

flink-log4j-session

为 Kubernetes/Yarn 会话更改 Flink log4j-session.properties 设置。

Restarts Flink history server.

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

Restarts Flink history server.

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

更改 hadoop ssl 服务器配置

Not available.

hadoop-ssl-client

更改 hadoop ssl 客户端配置

Not available.

hbase

亚马逊EMR精心策划的 Apache 设置。HBase

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

更改环境HBase中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

更改 hbase-HBase log4j.properties 文件中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

更改 hadoop-metrics2-h HBase base.properties 文件中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

更改HBase的 hbase-policy.xml 文件中的值。

Not available.

hbase-site

更改HBase的 hbase-site.xml 文件中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

配置HDFS加密区域。

This classification should not be reconfigured.

hdfs-env

更改HDFS环境中的值。

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

更改的 hdfs-site.xml HDFS 中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

更改环境HCatalog中的值。

Restarts Hive HCatalog Server.

hcatalog-server-jndi

更改HCatalog的 jndi.properties 中的值。

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

更改 proto-hive-site .x HCatalog ml 中的值。

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

更改 HCatalog W 环境ebHCat中的值。

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

更改 HCatalog W ebHCat 的 log4j2.properties 中的值。

Restarts Hive WebHCat server.

hcatalog-webhcat-site

更改 HCatalog W ebHCat 的 webhcat-site.xml 文件中的值。

Restarts Hive WebHCat server.

hive

亚马逊EMR精心策划的 Apache Hive 设置。

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

Not available.

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

Not available.

hive-env

更改 Hive 环境中的值。

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。

Not available.

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。

Not available.

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

Not available.

hive-site

更改 Hive 的 hive-site.xml 文件中的值

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

Not available.

hue-ini

更改 Hue 的 ini 文件中的值

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

更改HTTPFS环境中的值。

Restarts Hadoop Httpfs service.

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

Restarts Hadoop Httpfs service.

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

Not available.

hadoop-kms-env

在 Hadoop KMS 环境中更改值。

Restarts Hadoop-KMS service.

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

Not available.

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

更改 Hudi 环境中的值。

Not available.

hudi-defaults

更改 Hudi 的 hudi-defaults.conf 文件中的值。

Not available.

iceberg-defaults

更改 Iceberg 的 iceberg-defaults.conf 文件中的值。

Not available.

jupyter-notebook-conf

更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。

Not available.

jupyter-hub-conf

更改 jupyterhub_config.py 文件 JupyterHubs中的值。

Not available.

jupyter-s3-conf

配置 Jupyter notebook S3 持久性。

Not available.

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

Not available.

livy-conf

更改 Livy 的 livy.conf 文件中的值。

Restarts Livy Server.

livy-env

更改 Livy 环境中的值。

Restarts Livy Server.

livy-log4j

更改 Livy log4j.properties 设置。

Restarts Livy Server.

mapred-env

更改 MapReduce 应用程序环境中的值。

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

更改 Oozie 的环境中的值。

Restarts Oozie.

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

Restarts Oozie.

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

Restarts Oozie.

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

Not available.

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

Not available.

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

Restarts Phoenix-QueryServer.

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

Not available.

pig-env

更改 Pig 环境中的值。

Not available.

pig-properties

更改 Pig 的 pig.properties 文件中的值。

Restarts Oozie.

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

Not available.

presto-log

更改 Presto 的 log.properties 文件中的值。

Restarts Presto-Server (for PrestoDB)

presto-config

更改 Presto 的 config.properties 文件中的值。

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

Not available.

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

Restarts Presto-Server (for PrestoDB)

presto-node

更改 Presto 的 node.properties 文件中的值。

Not available.

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

Not available.

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

Not available.

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

Not available.

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

Not available.

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

Not available.

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

Not available.

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

Not available.

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

Not available.

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

Not available.

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

Not available.

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

Not available.

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

Not available.

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

Not available.

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

Not available.

trino-log

更改 Trino 的 log.properties 文件中的值。

Restarts Trino-Server (for Trino)

trino-config

更改 Trino 的 config.properties 文件中的值。

Restarts Trino-Server (for Trino)

trino-password-authenticator

更改 Trino 的 password-authenticator.properties 文件中的值。

Restarts Trino-Server (for Trino)

trino-env

更改 Trino 的 trino-env.sh 文件中的值。

Restarts Trino-Server (for Trino)

trino-node

更改 Trino 的 node.properties 文件中的值。

Not available.

trino-connector-blackhole

更改 Trino 的 blackhole.properties 文件中的值。

Not available.

trino-connector-cassandra

更改 Trino 的 cassandra.properties 文件中的值。

Not available.

trino-connector-hive

更改 Trino 的 hive.properties 文件中的值。

Restarts Trino-Server (for Trino)

trino-connector-iceberg

更改 Trino 的 iceberg.properties 文件中的值。

Restarts Trino-Server (for Trino)

trino-connector-jmx

更改 Trino 的 jmx.properties 文件中的值。

Not available.

trino-connector-kafka

更改 Trino 的 kafka.properties 文件中的值。

Not available.

trino-connector-localfile

更改 Trino 的 localfile.properties 文件中的值。

Not available.

trino-connector-memory

更改 Trino 的 memory.properties 文件中的值。

Not available.

trino-connector-mongodb

更改 Trino 的 mongodb.properties 文件中的值。

Not available.

trino-connector-mysql

更改 Trino 的 mysql.properties 文件中的值。

Not available.

trino-connector-postgresql

更改 Trino 的 postgresql.properties 文件中的值。

Not available.

trino-connector-raptor

更改 Trino 的 raptor.properties 文件中的值。

Not available.

trino-connector-redis

更改 Trino 的 redis.properties 文件中的值。

Not available.

trino-connector-redshift

更改 Trino 的 redshift.properties 文件中的值。

Not available.

trino-connector-tpch

更改 Trino 的 tpch.properties 文件中的值。

Not available.

trino-connector-tpcds

更改 Trino 的 tpcds.properties 文件中的值。

Not available.

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

Restarts Ranger KMS Server.

ranger-kms-site

更改 Ran ranger-kms-site KMS ger .xml 文件中的值。

Restarts Ranger KMS Server.

ranger-kms-env

在游侠KMS环境中更改值。

Restarts Ranger KMS Server.

ranger-kms-log4j

更改 Ranger 的 kms-log4j.properties 文件中的值。KMS

Not available.

ranger-kms-db-ca

更改 S3 上我与 Ranger SQL SSL KMS 连接的 CA 文件值。

Not available.

spark

亚马逊EMR精心策划的 Apache Spark 设置。

This property modifies spark-defaults. See actions there.

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

Restarts Spark history server and Spark thrift server.

spark-env

更改 Spark 环境中的值。

Restarts Spark history server and Spark thrift server.

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

Not available.

spark-log4j2

更改 Spark 的 log4j2.properties 文件中的值。

Restarts Spark history server and Spark thrift server.

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

Restarts Spark history server and Spark thrift server.

sqoop-env

更改 Sqoop 的环境中的值。

Not available.

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

Not available.

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

Not available.

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

Restart Oozie and HiveServer2.

yarn-env

更改YARN环境中的值。

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

更改YARN的 yarn-site.xml 文件中的值。

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

更改 Zeppelin 环境中的值。

Restarts Zeppelin.

zeppelin-site

更改 zeppelin-site.xml 中的配置设置。

Restarts Zeppelin.

zookeeper-config

更改 ZooKeeper的 zoo.cfg 文件中的值。

Restarts Zookeeper server.

zookeeper-log4j

更改 ZooKeeper的 log4j.properties 文件中的值。

Restarts Zookeeper server.

6.8.0 更改日志

发行版 6.8.0 的更改日志和发布说明
Date 事件 描述
2023-08-21 更新 在 Hadoop 3.3.3 中添加了一个已知问题。
2023-07-26 更新 新的操作系统版本标签 2.0.20230612.02.0.20230628.0
2022-09-06 部署完成 Amazon EMR 6.8 已完全部署到所有支持的区域
2022-09-06 初次发布 亚马逊 EMR 6.8 发行说明首次发布
2022-08-31 初始版本 亚马逊 EMR 6.8 已在有限的商业区域发布