Amazon EMR 版本 6.12.0
6.12.0 应用程序版本
此发行版支持以下应用程序:Delta
下表列出了此版本的 Amazon EMR 中提供的应用程序版本以及前三个 Amazon EMR 发行版中的应用程序版本(若适用)。
有关每个发行版的 Amazon EMR 的应用程序版本的全面历史记录,请参见以下主题:
emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | |
---|---|---|---|---|
AWS SDK for Java | 1.12.490 | 1.12.446 | 1.12.446 | 1.12.397 |
Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 |
Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 |
Flink | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.4.17 | 2.4.15 | 2.4.15 | 2.4.15 |
HCatalog | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hadoop | 3.3.3 | 3.3.3 | 3.3.3 | 3.3.3 |
Hive | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hudi | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 |
Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 |
Iceberg | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 |
JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 |
JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 |
Livy | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 |
MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 |
Phoenix | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.281 | 0.279 | 0.279 | 0.278 |
Spark | 3.4.0 | 3.3.2 | 3.3.2 | 3.3.1 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 |
Tez | 0.10.2 | 0.10.2 | 0.10.2 | 0.10.2 |
Trino (PrestoSQL) | 414 | 410 | 410 | 403 |
Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 |
ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 |
6.12.0 发布说明
以下发布说明包括有关 Amazon EMR 版本 6.12.0 的信息。更改与 6.11.0 有关。有关发布时间表的更多信息,请参阅 6.12.0 更改日志。
新功能
-
Amazon EMR 6.12.0 supports Apache Spark 3.4.0, Apache Spark RAPIDS 23.06.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.1-amzn-0, Apache Iceberg 1.3.0-amzn-0, Trino 414, and PrestoDB 0.281.
-
Amazon EMR 发布 6.12.0 及更高版本支持 LDAP 通过 HiveServer2(HS2)、Trino、Presto 和 Hue 与 Apache Livy、Apache Live 集成。您还可以在使用 6.12.0 或更高版本的 EMR 集群上安装 Apache Spark 和 Apache Hadoop,并将它们配置为使用 LDAP。有关更多信息,请参阅使用 Active Directory 或 LDAP 服务器通过 Amazon EMR 进行身份验证。
更改、增强功能和解决的问题
-
Amazon EMR 6.12.0 及更高版本为 Flink 提供 Java 11 运行时系统支持。有关更多信息,请参阅 将 Flink 配置为使用 Java 11 运行。
-
6.12.0 版本为运行 Presto 或 Trino 的 EMR 集群的集群扩展工作流程添加了新的重试机制。这一改进降低了由于单个调整大小操作失败而导致集群大小调整无限期停滞的风险。它还可以提高集群利用率,因为您的集群可以更快地向上和向下扩展。
-
6.12.0 版本修复了一个问题,即当处于正常停用状态的核心节点在完全停用之前出于任何原因变得运行不正常时,集群的缩减操作可能会停滞不前。
-
6.12.0 版本改进了集群缩减逻辑,因此您的集群不会尝试将核心节点缩减到低于集群 HDFS 复制因子设置的范围。这符合您的数据冗余要求,并减少了扩展操作可能停滞的机会。
-
6.12.0 版本通过提高记录实例状态变化的速度,提高了 Amazon EMR 运行状况监控服务的性能和效率。这一改进降低了运行多个自定义客户端工具或第三方应用程序的集群节点性能下降的机会。
-
6.12.0 版本提高了 Amazon EMR 的集群上日志管理进程守护程序的性能。因此,对于以高并发度运行步骤的 EMR 集群,性能下降的可能性较小。
-
在 Amazon EMR 6.12.0 版本中,日志管理进程守护程序已升级,可以识别本地实例存储中所有包含打开文件句柄的使用中的日志,以及相关的进程。此次升级可确保 Amazon EMR 在日志存档到 Amazon S3 后正确删除文件并回收存储空间。
-
6.12.0 版本包括日志管理进程守护程序增强功能,可删除本地集群文件系统中空的、未使用的步骤目录。过多的空目录会降低 Amazon EMR 进程守护程序的性能并导致磁盘过度使用。
-
6.12.0 版本支持 YARN Timeline Server 日志的日志轮换。这样可以最大限度地减少磁盘过度使用情况,特别是对于长时间运行的集群。
Amazon EMR 6.10.0 及更高版本的默认根卷大小已增加到 15 GB。早期版本的默认根卷大小为 10 GB。
当您使用 Amazon EMR 5.36 或更高版本、6.6 或更高版本或 7.0 或更高版本的最新补丁版本启动集群时,Amazon EMR 会使用最新的 Amazon Linux 2023 或 Amazon Linux 2 发行版作为默认 Amazon EMR AMI。如需更多信息,请参阅 Using the default Amazon Linux AMI for Amazon EMR。
OsReleaseLabel(Amazon Linux 版本) Amazon Linux 内核版本 可用日期 支持的区域 2.0.20241001.0 4.14.352 2024 年 10 月 4 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲地区(法兰克福)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20240816.0 4.14.350 2024 年 8 月 21 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲地区(法兰克福)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20240809.0 4.14.349 2024 年 8 月 20 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲地区(法兰克福)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20240719.0 4.14.348 2024 年 7 月 25 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲地区(法兰克福)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20240709.1 4.14.348 2024 年 7 月 23 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲地区(法兰克福)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏)、亚太地区(海得拉巴)、中东(阿联酋)、欧洲(西班牙)、欧洲(苏黎世)、亚太地区(墨尔本)、以色列(特拉维夫)、加拿大西部(卡尔加里) 2.0.20240223.0 4.14.336 2024 年 3 月 8 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏)、加拿大西部(卡尔加里) 2.0.20240131.0 4.14.336 2024 年 2 月 14 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏)、加拿大西部(卡尔加里) 2.0.20240124.0 4.14.336 2024 年 2 月 7 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏)、加拿大西部(卡尔加里) 2.0.20240109.0 4.14.334 2024 年 1 月 24 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏)、加拿大西部(卡尔加里) 2.0.20231218.0 4.14.330 2024 年 1 月 2 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20231206.0 4.14.330 2023 年 12 月 22 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20231116.0 4.14.328 2023 年 12 月 11 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20231101.0 4.14.327 2023 年 11 月 16 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20231020.1 4.14.326 2023 年 11 月 7 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20231012.1 4.14.326 2023 年 10 月 26 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20230926.0 4.14.322 2023 年 10 月 19 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、AWS GovCloud(美国西部)、AWS GovCloud(美国东部)、中国(北京)、中国(宁夏) 2.0.20230906.0 4.14.322 2023 年 10 月 4 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫) 2.0.20230822.0 4.14.322 2023 年 8 月 30 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫) 2.0.20230808.0 4.14.320 2023 年 8 月 24 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫) 2.0.20230727.0 4.14.320 2023 年 8 月 14 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫) 2.0.20230719.0 4.14.320 2023 年 8 月 2 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫) 2.0.20230628.0 4.14.318 2023 年 7 月 12 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)
6.12.0 默认 Java 版本
Amazon EMR 6.12.0 及更高版本默认支持所有采用 Amazon Corretto 8 的应用程序,但 Trino 除外。对于 Trino,Amazon EMR 从Amazon EMR 版本 6.9.0 开始默认支持 Amazon Corretto 17。Amazon EMR 还支持某些搭载 Amazon Corretto 11 和 17 的应用程序。下表列出了这些应用程序。如果要更改集群上的默认 JVM,请按照在集群上运行的每个应用程序的 配置应用程序来使用特定 Java 虚拟机 中的说明进行操作。一个集群只能使用一个 Java 运行时系统版本。Amazon EMR 不支持在同一集群的不同运行时系统版本上运行不同的节点或应用程序。
虽然 Amazon EMR 在 Apache Spark、Apache Hadoop 和 Apache Hive 上同时支持 Amazon Corretto 11 和 17,但当您使用这些版本的 Corretto 时,某些工作负载的性能可能会下降。我们建议您在更改默认值之前先测试工作负载。
下表显示 Amazon EMR 6.12.0 中的应用程序的默认 Java 版本:
应用程序 | Java/Amazon Corretto 版本(默认为粗体) |
---|---|
Delta | 17、11、8 |
Flink | 11、8 |
Ganglia | 8 |
HBase | 11、8 |
HCatalog | 17、11、8 |
Hadoop | 17、11、8 |
Hive | 17、11、8 |
Hudi | 17、11、8 |
Iceberg | 17、11、8 |
Livy | 17、11、8 |
Oozie | 17、11、8 |
Phoenix | 8 |
PrestoDB | 8 |
Spark | 17、11、8 |
Spark RAPIDS | 17、11、8 |
Sqoop | 8 |
Tez | 17、11、8 |
Trino | 17 |
Zeppelin | 8 |
Pig | 8 |
Zookeeper | 8 |
6.12.0 组件版本
下面列出了 Amazon EMR 随此发行版一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其它组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emr
或 aws
开头。最新的 Amazon EMR 发行版中的大数据应用程序包通常是在社区中找到的最新版本。我们会尽快在 Amazon EMR 中提供社区发行版。
Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的
的发行版标注。CommunityVersion
-amzn-EmrVersion
从 0 开始。例如,假设已对名为 EmrVersion
myapp-component
的版本 2.2 的开源社区组件进行三次修改,以包含在不同的 Amazon EMR 发行版中,则其发行版将为 2.2-amzn-2
。
组件 | 版本 | 描述 |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark 开发工具包 |
delta | 2.4.0 | Delta lake 是一种适用于超大型分析数据集的开放表格式。 |
delta-standalone-connectors | 0.6.0 | Delta Connectors 提供不同的运行时,将 Delta Lake 与 Flink、Hive 和 Presto 等引擎集成。 |
emr-ddb | 5.1.0 | 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。 |
emr-goodies | 3.5.0 | 适用于 Hadoop 生态系统的方便易用的库。 |
emr-kinesis | 3.9.0 | 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。 |
emr-notebook-env | 1.7.0 | 适用于 EMR Notebooks(可提供 jupyter 企业网关)的 Conda env |
emr-s3-dist-cp | 2.26.0 | 针对 Amazon S3 优化的分布式复制应用程序。 |
emr-s3-select | 2.5.0 | EMR S3 Select 连接器 |
emr-wal-cli | 1.1.0 | 用于 emrwal 列表/删除的 cli。 |
emrfs | 2.57.0 | 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。 |
flink-client | 1.17.0 | Apache Flink 命令行客户端脚本和应用程序。 |
flink-jobmanager-config | 1.17.0 | 为 Apache Flink JobManager 管理 EMR 节点上的资源。 |
ganglia-monitor | 3.7.2 | 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。 |
ganglia-metadata-collector | 3.7.2 | 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。 |
ganglia-web | 3.7.1 | 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。 |
hadoop-client | 3.3.3-amzn-4 | Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。 |
hadoop-hdfs-datanode | 3.3.3-amzn-4 | 用于存储数据块的 HDFS 节点级服务。 |
hadoop-hdfs-library | 3.3.3-amzn-4 | HDFS 命令行客户端和库 |
hadoop-hdfs-namenode | 3.3.3-amzn-4 | 用于跟踪文件名和数据块位置的 HDFS 服务。 |
hadoop-hdfs-journalnode | 3.3.3-amzn-4 | 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。 |
hadoop-httpfs-server | 3.3.3-amzn-4 | 用于 HDFS 操作的 HTTP 终端节点。 |
hadoop-kms-server | 3.3.3-amzn-4 | 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。 |
hadoop-mapred | 3.3.3-amzn-4 | 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。 |
hadoop-yarn-nodemanager | 3.3.3-amzn-4 | 用于管理单个节点上的容器的 YARN 服务。 |
hadoop-yarn-resourcemanager | 3.3.3-amzn-4 | 用于分配和管理集群资源与分布式应用程序的 YARN 服务。 |
hadoop-yarn-timeline-server | 3.3.3-amzn-4 | 用于检索 YARN 应用程序的当前信息和历史信息的服务。 |
hbase-hmaster | 2.4.17-amzn-0 | 适用于负责协调区域和执行管理命令的 HBase 集群的服务。 |
hbase-region-server | 2.4.17-amzn-0 | 用于服务于一个或多个 HBase 区域的服务。 |
hbase-client | 2.4.17-amzn-0 | HBase 命令行客户端。 |
hbase-rest-server | 2.4.17-amzn-0 | 用于向 HBase 提供 RESTful HTTP 终端节点的服务。 |
hbase-thrift-server | 2.4.17-amzn-0 | 用于向 HBase 提供 Thrift 终端节点的服务。 |
hbase-operator-tools | 2.4.17-amzn-0 | Apache HBase 集群的修复工具。 |
hcatalog-client | 3.1.3-amzn-5 | 用于操作 hcatalog-server 的“hcat”命令行客户端。 |
hcatalog-server | 3.1.3-amzn-5 | 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。 |
hcatalog-webhcat-server | 3.1.3-amzn-5 | 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。 |
hive-client | 3.1.3-amzn-5 | Hive 命令行客户端。 |
hive-hbase | 3.1.3-amzn-5 | Hive-hbase 客户端。 |
hive-metastore-server | 3.1.3-amzn-5 | 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。 |
hive-server2 | 3.1.3-amzn-5 | 用于将 Hive 查询作为 Web 请求接受的服务。 |
hudi | 0.13.1-amzn-0 | 增量处理框架,以支持低延迟和高效率的数据管道。 |
hudi-presto | 0.13.1-amzn-0 | 用于运行 Presto 以及 Hudl 的捆绑库。 |
hudi-trino | 0.13.1-amzn-0 | 用于运行 Trino 以及 Hudi 的捆绑库。 |
hudi-spark | 0.13.1-amzn-0 | 用于运行 Spark 以及 Hudi 的捆绑库。 |
hue-server | 4.11.0 | 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序 |
iceberg | 1.3.0-amzn-0 | Apache Iceberg 是一种适用于超大型分析数据集的开放表格式。 |
jupyterhub | 1.4.1 | Jupyter notebook 的多用户服务器 |
livy-server | 0.7.1-incubating | 用于与 Apache Spark 交互的 REST 接口 |
nginx | 1.12.1 | nginx [引擎 x] 是 HTTP 和反向代理服务器 |
mxnet | 1.9.1 | 用于深度学习的灵活的、可扩展且高效的库。 |
mariadb-server | 5.5.68+ | MariaDB 数据库服务器。 |
nvidia-cuda | 11.8.0 | Nvidia 驱动程序和 Cuda 工具包 |
oozie-client | 5.2.1 | Oozie 命令行客户端。 |
oozie-server | 5.2.1 | 用于接受 Oozie 工作流请求的服务。 |
opencv | 4.7.0 | 开源计算机视觉库。 |
phoenix-library | 5.1.3 | 服务器和客户端的 phoenix 库 |
phoenix-connectors | 5.1.3 | Apache Phoenix-Connectors for Spark-3 |
phoenix-query-server | 5.1.3 | 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器 |
presto-coordinator | 0.281-amzn-0 | 用于在 presto-worker 之中接受查询并管理查询的服务。 |
presto-worker | 0.281-amzn-0 | 用于执行查询的各个部分的服务。 |
presto-client | 0.281-amzn-0 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
trino-coordinator | 414-amzn-0 | 用于在 trino-worker 之中接受查询并管理查询的服务。 |
trino-worker | 414-amzn-0 | 用于执行查询的各个部分的服务。 |
trino-client | 414-amzn-0 | Trino 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Trino 服务器)上。 |
pig-client | 0.17.0 | Pig 命令行客户端。 |
r | 4.0.2 | 用于统计计算的 R 项目 |
ranger-kms-server | 2.0.0 | Apache Ranger 密钥管理系统 |
spark-client | 3.4.0-amzn-0 | Spark 命令行客户端。 |
spark-history-server | 3.4.0-amzn-0 | 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。 |
spark-on-yarn | 3.4.0-amzn-0 | 适用于 YARN 的内存中执行引擎。 |
spark-yarn-slave | 3.4.0-amzn-0 | YARN 从属项所需的 Apache Spark 库。 |
spark-rapids | 23.06.0-amzn-0 | 加速 Apache Spark 和 GPU 的 Nvidia Spark RAPIDS。 |
sqoop-client | 1.4.7 | Apache Sqoop 命令行客户端。 |
tensorflow | 2.11.0 | 适用于高性能数值计算的 TensorFlow 开源软件库。 |
tez-on-yarn | 0.10.2-amzn-3 | tez YARN 应用程序和库。 |
tez-on-worker | 0.10.2-amzn-3 | 用于 Worker 节点的 tez YARN 应用程序和库。 |
webserver | 2.4.41+ | Apache HTTP 服务器。 |
zeppelin-server | 0.10.1 | 支持交互式数据分析的基于 Web 的笔记本电脑。 |
zookeeper-server | 3.5.10 | 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。 |
zookeeper-client | 3.5.10 | ZooKeeper 命令行客户端。 |
6.12.0 配置分类
配置分类允许您自定义应用程序。这些通常与应用程序的配置 XML 文件(例如 hive-site.xml
)相对应。有关更多信息,请参阅配置应用程序。
为处于运行状态的集群中的实例组指定配置时,将发生重新配置操作。Amazon EMR 仅为您修改的分类启动重新配置操作。有关更多信息,请参阅 在正在运行的集群中重新配置实例组。
分类 | 描述 | 重新配置操作 |
---|---|---|
capacity-scheduler | 更改 Hadoop 的 capacity-scheduler.xml 文件中的值。 | Restarts the ResourceManager service. |
container-executor | 更改 Hadoop YARN 的 container-executor.cfg 文件中的值。 | Not available. |
container-log4j | 更改 Hadoop YARN 的 container-log4j.properties 文件中的值。 | Not available. |
core-site | 更改 Hadoop 的 core-site.xml 文件中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | 更改 docker 相关设置。 | Not available. |
emrfs-site | 更改 EMRFS 设置。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | 更改 flink-conf.yaml 设置。 | Restarts Flink history server. |
flink-log4j | 更改 Flink log4j.properties 设置。 | Restarts Flink history server. |
flink-log4j-session | 为 Kubernetes/Yarn 会话更改 Flink log4j-session.properties 设置。 | Restarts Flink history server. |
flink-log4j-cli | 更改 Flink log4j-cli.properties 设置。 | Restarts Flink history server. |
hadoop-env | 更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | 更改 Hadoop 的 log4j.properties 文件中的值。 | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | 更改 hadoop ssl 服务器配置 | Not available. |
hadoop-ssl-client | 更改 hadoop ssl 客户端配置 | Not available. |
hbase | 适用于 Apache HBase 的 Amazon EMR 辅助设置。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | 更改 HBase 环境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | 更改 HBase 的 hbase-log4j.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | 更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | 更改 HBase 的 hbase-policy.xml 文件中的值。 | Not available. |
hbase-site | 更改 HBase 的 hbase-site.xml 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | 配置 HDFS 加密区域。 | This classification should not be reconfigured. |
hdfs-env | 更改 HDFS 环境中的值。 | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | 更改 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | 更改 HCatalog 的环境中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | 更改 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | 更改 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | 更改 HCatalog WebHCat 的环境中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | 更改 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | 更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。 | Restarts Hive WebHCat server. |
hive | 适用于 Apache Hive 的 Amazon EMR 辅助设置。 | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | 更改 Hive 的 beeline-log4j2.properties 文件中的值。 | Not available. |
hive-parquet-logging | 更改 Hive parquet-logging.properties 文件中的值。 | Not available. |
hive-env | 更改 Hive 环境中的值。 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | 更改 Hive 的 hive-exec-log4j2.properties 文件中的值。 | Not available. |
hive-llap-daemon-log4j2 | 更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。 | Not available. |
hive-log4j2 | 更改 Hive 的 hive-log4j2.properties 文件中的值。 | Not available. |
hive-site | 更改 Hive 的 hive-site.xml 文件中的值 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | 更改 Hive Server2 的 hiveserver2-site.xml 文件中的值 | Not available. |
hue-ini | 更改 Hue 的 ini 文件中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | 更改 HTTPFS 环境中的值。 | Restarts Hadoop Httpfs service. |
httpfs-site | 更改 Hadoop 的 httpfs-site.xml 文件中的值。 | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | 更改 Hadoop 的 kms-acls.xml 文件中的值。 | Not available. |
hadoop-kms-env | 更改 Hadoop KMS 环境中的值。 | Restarts Hadoop-KMS service. |
hadoop-kms-java-home | 更改 Hadoop 的 KMS java 主页 | Not available. |
hadoop-kms-log4j | 更改 Hadoop 的 kms-log4j.properties 文件中的值。 | Not available. |
hadoop-kms-site | 更改 Hadoop 的 kms-site.xml 文件中的值。 | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | 更改 Hudi 环境中的值。 | Not available. |
hudi-defaults | 更改 Hudi 的 hudi-defaults.conf 文件中的值。 | Not available. |
iceberg-defaults | 更改 Iceberg 的 iceberg-defaults.conf 文件中的值。 | Not available. |
delta-defaults | 更改 Delta 的 delta-defaults.conf 文件中的值。 | Not available. |
jupyter-notebook-conf | 更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。 | Not available. |
jupyter-hub-conf | 更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。 | Not available. |
jupyter-s3-conf | 配置 Jupyter notebook S3 持久性。 | Not available. |
jupyter-sparkmagic-conf | 更改 Sparkmagic 的 config.json 文件中的值。 | Not available. |
livy-conf | 更改 Livy 的 livy.conf 文件中的值。 | Restarts Livy Server. |
livy-env | 更改 Livy 环境中的值。 | Restarts Livy Server. |
livy-log4j2 | 更改 Livy log4j2.properties 设置。 | Restarts Livy Server. |
mapred-env | 更改 MapReduce 应用程序的环境中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | 更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | 更改 Oozie 的环境中的值。 | Restarts Oozie. |
oozie-log4j | 更改 Oozie 的 oozie-log4j.properties 文件中的值。 | Restarts Oozie. |
oozie-site | 更改 Oozie 的 oozie-site.xml 文件中的值。 | Restarts Oozie. |
phoenix-hbase-metrics | 更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。 | Not available. |
phoenix-hbase-site | 更改 Phoenix 的 hbase-site.xml 文件中的值。 | Not available. |
phoenix-log4j | 更改 Phoenix 的 log4j.properties 文件中的值。 | Restarts Phoenix-QueryServer. |
phoenix-metrics | 更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。 | Not available. |
pig-env | 更改 Pig 环境中的值。 | Not available. |
pig-properties | 更改 Pig 的 pig.properties 文件中的值。 | Restarts Oozie. |
pig-log4j | 更改 Pig 的 log4j.properties 文件中的值。 | Not available. |
presto-log | 更改 Presto 的 log.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-config | 更改 Presto 的 config.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 | Not available. |
presto-env | 更改 Presto 的 presto-env.sh 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-node | 更改 Presto 的 node.properties 文件中的值。 | Not available. |
presto-connector-blackhole | 更改 Presto 的 blackhole.properties 文件中的值。 | Not available. |
presto-connector-cassandra | 更改 Presto 的 cassandra.properties 文件中的值。 | Not available. |
presto-connector-hive | 更改 Presto 的 hive.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | 更改 Presto 的 jmx.properties 文件中的值。 | Not available. |
presto-connector-kafka | 更改 Presto 的 kafka.properties 文件中的值。 | Not available. |
presto-connector-lakeformation | 更改 Presto 的 lakeformation.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-connector-localfile | 更改 Presto 的 localfile.properties 文件中的值。 | Not available. |
presto-connector-memory | 更改 Presto 的 memory.properties 文件中的值。 | Not available. |
presto-connector-mongodb | 更改 Presto 的 mongodb.properties 文件中的值。 | Not available. |
presto-connector-mysql | 更改 Presto 的 mysql.properties 文件中的值。 | Not available. |
presto-connector-postgresql | 更改 Presto 的 postgresql.properties 文件中的值。 | Not available. |
presto-connector-raptor | 更改 Presto 的 raptor.properties 文件中的值。 | Not available. |
presto-connector-redis | 更改 Presto 的 redis.properties 文件中的值。 | Not available. |
presto-connector-redshift | 更改 Presto 的 redshift.properties 文件中的值。 | Not available. |
presto-connector-tpch | 更改 Presto 的 tpch.properties 文件中的值。 | Not available. |
presto-connector-tpcds | 更改 Presto 的 tpcds.properties 文件中的值。 | Not available. |
trino-log | 更改 Trino 的 log.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-config | 更改 Trino 的 config.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-password-authenticator | 更改 Trino 的 password-authenticator.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-env | 更改 Trino 的 trino-env.sh 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-node | 更改 Trino 的 node.properties 文件中的值。 | Not available. |
trino-connector-blackhole | 更改 Trino 的 blackhole.properties 文件中的值。 | Not available. |
trino-connector-cassandra | 更改 Trino 的 cassandra.properties 文件中的值。 | Not available. |
trino-connector-delta | 更改 Trino 的 delta.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-connector-hive | 更改 Trino 的 hive.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-exchange-manager | 更改 Trino 的 exchange-manager.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-connector-iceberg | 更改 Trino 的 iceberg.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-connector-hudi | 更改 Trino 的 hudi.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-connector-jmx | 更改 Trino 的 jmx.properties 文件中的值。 | Not available. |
trino-connector-kafka | 更改 Trino 的 kafka.properties 文件中的值。 | Not available. |
trino-connector-localfile | 更改 Trino 的 localfile.properties 文件中的值。 | Not available. |
trino-connector-memory | 更改 Trino 的 memory.properties 文件中的值。 | Not available. |
trino-connector-mongodb | 更改 Trino 的 mongodb.properties 文件中的值。 | Not available. |
trino-connector-mysql | 更改 Trino 的 mysql.properties 文件中的值。 | Not available. |
trino-connector-postgresql | 更改 Trino 的 postgresql.properties 文件中的值。 | Not available. |
trino-connector-raptor | 更改 Trino 的 raptor.properties 文件中的值。 | Not available. |
trino-connector-redis | 更改 Trino 的 redis.properties 文件中的值。 | Not available. |
trino-connector-redshift | 更改 Trino 的 redshift.properties 文件中的值。 | Not available. |
trino-connector-tpch | 更改 Trino 的 tpch.properties 文件中的值。 | Not available. |
trino-connector-tpcds | 更改 Trino 的 tpcds.properties 文件中的值。 | Not available. |
ranger-kms-dbks-site | 更改 Ranger KMS 的 dbks-site.xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-site | 更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-env | 更改 Ranger KMS 环境中的值。 | Restarts Ranger KMS Server. |
ranger-kms-logback | 更改 Ranger KMS 的 kms-logback.xml 文件中的值。 | Not available. |
ranger-kms-db-ca | 更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。 | Not available. |
spark | 适用于 Apache Spark 的 Amazon EMR 辅助设置。 | This property modifies spark-defaults. See actions there. |
spark-defaults | 更改 Spark 的 spark-defaults.conf 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-env | 更改 Spark 环境中的值。 | Restarts Spark history server and Spark thrift server. |
spark-hive-site | 更改 Spark 的 hive-site.xml 文件中的值 | Not available. |
spark-log4j2 | 更改 Spark 的 log4j2.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-metrics | 更改 Spark 的 metrics.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
sqoop-env | 更改 Sqoop 的环境中的值。 | Not available. |
sqoop-oraoop-site | 更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。 | Not available. |
sqoop-site | 更改 Sqoop 的 sqoop-site.xml 文件中的值。 | Not available. |
tez-site | 更改 Tez 的 tez-site.xml 文件中的值。 | Restart Oozie and HiveServer2. |
yarn-env | 更改 YARN 环境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | 更改 YARN 的 yarn-site.xml 文件中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | 更改 Zeppelin 环境中的值。 | Restarts Zeppelin. |
zeppelin-site | 更改 zeppelin-site.xml 中的配置设置。 | Restarts Zeppelin. |
zookeeper-config | 更改 ZooKeeper 的 zoo.cfg 文件中的值。 | Restarts Zookeeper server. |
zookeeper-log4j | 更改 ZooKeeper 的 log4j.properties 文件中的值。 | Restarts Zookeeper server. |
6.12.0 更改日志
Date | 事件 | 描述 |
---|---|---|
2023-07-27 | 更新文档 | 更新 6.12 的 Java 选项并添加 Oozie 教程来更新 JVM |
2023-07-21 | 部署完成 | Amazon EMR 6.12.0 已全面部署到所有支持的区域 |
2023-07-21 | 文档发布 | Amazon EMR 6.12.0 发布说明首次发布 |
2023-07-12 | 初始版本 | Amazon EMR 6.12.0 首次部署到初始商业区域 |