本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
亚马逊EMR版本 6.2.1
6.2.1 应用程序版本
此版本支持以下应用程序:Flink
下表列出了此版本的 Amazon 中可用的应用程序版本EMR和前三个亚马逊版本中的应用程序EMR版本(如果适用)。
要全面了解每个 Amazon 版本的应用程序版本历史记录EMR,请参阅以下主题:
emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | |
---|---|---|---|---|
AWS SDK适用于 Java | 1.11.880 | 1.11.880 | 1.11.828 | 1.11.828 |
Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 |
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 |
Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | - | - |
JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 |
Livy | 0.7.0 | 0.7.0 | 0.7.0 | 0.7.0 |
MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 |
Mahout | - | - | - | - |
Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.238.3 | 0.238.3 | 0.232 | 0.232 |
Spark | 3.0.1 | 3.0.1 | 3.0.0 | 3.0.0 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino(Prest SQL o) | 343 | 343 | 338 | 338 |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
6.2.1 发布说明
此版本旨在修复 Amazon EMR Scaling 无法成功扩展/缩小集群或导致应用程序故障时出现的问题。
更改、增强和解决的问题
修复了 Amaz EMR on 集群上守护程序运行状况检查活动(例如收集YARN节点状态和HDFS节点状态)时,对利用率很高的大型集群的扩展请求失败的问题。之所以发生这种情况,是因为集群上的守护程序无法将节点的运行状况数据传送到内部 Ama EMR zon 组件。
改进了EMR集群上的守护程序,可在重复使用 IP 地址时正确跟踪节点状态,从而提高扩展操作期间的可靠性。
SPARK-29683
。修复了集群缩减期间出现任务失败的问题,因为 Spark 假定所有可用节点都被拒绝列出。 YARN-9011
。修复了集群尝试向上或向下扩展时,由于YARN停用过程中的争用条件而导致任务失败的问题。 通过确保 Amaz EMR on 集群上守护程序和 YARN /之间的节点状态始终保持一致,修复了集群扩展期间步骤或任务失败的问题。HDFS
修复了启用了 Kerberos 身份验证的 Amazon 集群的EMR集群操作(例如缩减和步骤提交)失败的问题。这是因为 Amaz EMR on 集群上守护程序没有续订 Kerberos 票证,而要与主节点上YARN运行的 HDFS /进行安全通信,则需要续订 Kerberos 票证。
较新的Amazon EMR 版本通过降低亚马逊较旧AL2版本的 “最大打开文件数” 限制来解决这个问题EMR。亚马逊EMR发布的5.30.1、5.30.2、5.31.1、5.32.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0及更高版本现在包含一个永久修复程序,其中包含一个具有更高的 “最大打开文件数” 设置的永久修复。
-
HTTPS现在,亚马逊 Linux 存储库已默认启用。如果您使用 Amazon S3 VPCE 策略来限制对特定存储桶的访问,则必须将新的 Amazon Linux 存储桶ARN
arn:aws:s3:::amazonlinux-2-repos-$region/*
添加到您的策略中($region
替换为终端节点所在的区域)。有关更多信息,请在 AWS 讨论论坛中查看此主题。公告:Amazon Linux 2 现在支持HTTPS在连接软件包存储库时使用。
已知问题
当你使用带有 Hive 分区位置格式的 Spark 来读取 Amazon S3 中的数据,并在亚马逊EMR版本 5.30.0 到 5.36.0 和 6.2.0 到 6.9.0 上运行 Spark 时,你可能会遇到一个问题,导致集群无法正确读取数据。如果您的分区具有以下所有特征,会发生这种情况:
-
从同一个表扫描两个或多个分区。
-
至少有一个分区目录路径是至少一个其他分区目录路径的前缀,例如,
s3://bucket/table/p=a
是s3://bucket/table/p=a b
的前缀。 -
另一个分区目录中前缀之后的第一个字符的值为 UTF -8,小于该
/
字符 (U+002F)。例如,在s3://bucket/table/p=a b
中,a 和 b 之间出现的空格字符 (U+0020) 就属于此类。请注意,还有其他 14 个非控制字符:!"#$%&‘()*+,-
。有关更多信息,请参阅 UTF-8 编码表和 Unicode 字符。
解决方法是在
spark-defaults
分类中将spark.sql.sources.fastS3PartitionDiscovery.enabled
配置设置为false
。-
6.2.1 组件版本
下面列出了 Amazon 随此版本EMR安装的组件。一些组件作为大数据应用程序包的一部分安装。其他则是 Amazon 独有的EMR,是为系统流程和功能而安装的。它们通常以 emr
或 aws
开头。Amazon 最新EMR版本中的大数据应用程序包通常是社区中的最新版本。我们会EMR尽快在 Amazon 上发布社区版本。
Amazon 中的某些组件与社区版本EMR不同。这些组件具有以下形式的
的发行版标注。CommunityVersion
-amzn-EmrVersion
从 0 开始。例如,如果EmrVersion
myapp-component
以 2.2 版本命名的开源社区组件经过三次修改以包含在不同的 Amazon EMR 版本中,则其发布版本将列为2.2-amzn-2
。
组件 | 版本 | 描述 |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | 亚马逊 SageMaker Spark SDK |
emr-ddb | 4.16.0 | 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。 |
emr-goodies | 3.1.0 | 适用于 Hadoop 生态系统的方便易用的库。 |
emr-kinesis | 3.5.0 | 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。 |
emr-notebook-env | 1.0.0 | 适用于 EMR Notebooks(可提供 jupyter 企业网关)的 Conda env |
emr-s3-dist-cp | 2.16.0 | 针对 Amazon S3 优化的分布式复制应用程序。 |
emr-s3-select | 2.0.0 | EMRS3Select 连接器 |
emrfs | 2.44.0 | 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。 |
flink-client | 1.11.2 | Apache Flink 命令行客户端脚本和应用程序。 |
flink-jobmanager-config | 1.11.2 | 管理 Apache Flink EMR JobManager 节点上的资源。 |
ganglia-monitor | 3.7.2 | 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。 |
ganglia-metadata-collector | 3.7.2 | 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。 |
ganglia-web | 3.7.1 | 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。 |
hadoop-client | 3.2.1-amzn-2.1 | Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。 |
hadoop-hdfs-datanode | 3.2.1-amzn-2.1 | HDFS用于存储区块的节点级服务。 |
hadoop-hdfs-library | 3.2.1-amzn-2.1 | HDFS命令行客户端和库 |
hadoop-hdfs-namenode | 3.2.1-amzn-2.1 | HDFS用于跟踪文件名和区块位置的服务。 |
hadoop-hdfs-journalnode | 3.2.1-amzn-2.1 | HDFS用于管理 HA 集群上的 Hadoop 文件系统日志的服务。 |
hadoop-httpfs-server | 3.2.1-amzn-2.1 | HTTPHDFS操作端点。 |
hadoop-kms-server | 3.2.1-amzn-2.1 | 基于 Hadoop 的加密密钥管理服务器。 KeyProvider API |
hadoop-mapred | 3.2.1-amzn-2.1 | MapReduce 用于运行 MapReduce 应用程序的执行引擎库。 |
hadoop-yarn-nodemanager | 3.2.1-amzn-2.1 | YARN用于管理单个节点上的容器的服务。 |
hadoop-yarn-resourcemanager | 3.2.1-amzn-2.1 | YARN用于分配和管理群集资源和分布式应用程序的服务。 |
hadoop-yarn-timeline-server | 3.2.1-amzn-2.1 | 用于检索YARN应用程序的当前和历史信息的服务。 |
hbase-hmaster | 2.2.6-amzn-0 | 为负责协调区域和执行管理命令的HBase集群提供服务。 |
hbase-region-server | 2.2.6-amzn-0 | 为一个或多个HBase地区提供服务的服务。 |
hbase-client | 2.2.6-amzn-0 | HBase命令行客户端。 |
hbase-rest-server | 2.2.6-amzn-0 | 为其提供RESTfulHTTP终端节点的服务HBase。 |
hbase-thrift-server | 2.2.6-amzn-0 | 为其提供 Thrift 端点的HBase服务。 |
hcatalog-client | 3.1.2-amzn-3 | 用于操作 hcatalog-server 的“hcat”命令行客户端。 |
hcatalog-server | 3.1.2-amzn-3 | 提供服务HCatalog,为分布式应用程序提供表和存储管理层。 |
hcatalog-webhcat-server | 3.1.2-amzn-3 | HTTP端点为其提供REST接口HCatalog。 |
hive-client | 3.1.2-amzn-3 | Hive 命令行客户端。 |
hive-hbase | 3.1.2-amzn-3 | Hive-hbase 客户端。 |
hive-metastore-server | 3.1.2-amzn-3 | 用于访问 Hive 元数据仓的服务,Hive 元存储库是一个语义存储库,用于存储 Hadoop 操作的SQL元数据。 |
hive-server2 | 3.1.2-amzn-3 | 用于将 Hive 查询作为 Web 请求接受的服务。 |
hudi | 0.6.0-amzn-1 | 增量处理框架,以支持低延迟和高效率的数据管道。 |
hudi-presto | 0.6.0-amzn-1 | 用于运行 Presto 以及 Hudl 的捆绑库。 |
hudi-prestosql | 0.6.0-amzn-1 | 用于使用 Hudi 运行 Presto SQL 的捆绑库。 |
hudi-spark | 0.6.0-amzn-1 | 用于运行 Spark 以及 Hudi 的捆绑库。 |
hue-server | 4.8.0 | 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序 |
jupyterhub | 1.1.0 | Jupyter notebook 的多用户服务器 |
livy-server | 0.7.0-incubating | REST用于与 Apache Spark 交互的接口 |
nginx | 1.12.1 | nginx [engine x] HTTP 是一个反向代理服务器 |
mxnet | 1.7.0 | 用于深度学习的灵活的、可扩展且高效的库。 |
mariadb-server | 5.5.64+ | MariaDB 数据库服务器。 |
nvidia-cuda | 10.1.243 | Nvidia 驱动程序和 Cuda 工具包 |
oozie-client | 5.2.0 | Oozie 命令行客户端。 |
oozie-server | 5.2.0 | 用于接受 Oozie 工作流请求的服务。 |
opencv | 4.4.0 | 开源计算机视觉库。 |
phoenix-library | 5.0.0--2.0 HBase | 服务器和客户端的 phoenix 库 |
phoenix-query-server | 5.0.0--2.0 HBase | 轻量级服务器,提供JDBC对 Avatica 的访问以及协议缓冲区和JSON格式访问 API |
presto-coordinator | 0.238.3-amzn-1 | 用于在 presto-worker 之中接受查询并管理查询的服务。 |
presto-worker | 0.238.3-amzn-1 | 用于执行查询的各个部分的服务。 |
presto-client | 0.238.3-amzn-1 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
prestosql-coordinator | 343 | 用于在 prestosql-worker 之中接受查询并管理查询执行的服务。 |
prestosql-worker | 343 | 用于执行查询的各个部分的服务。 |
prestosql-client | 343 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
pig-client | 0.17.0 | Pig 命令行客户端。 |
r | 3.4.3 | 用于统计计算的 R 项目 |
ranger-kms-server | 2.0.0 | Apache Ranger 密钥管理系统 |
spark-client | 3.0.1-amzn-0.1 | Spark 命令行客户端。 |
spark-history-server | 3.0.1-amzn-0.1 | 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。 |
spark-on-yarn | 3.0.1-amzn-0.1 | 的内存中执行引擎。YARN |
spark-yarn-slave | 3.0.1-amzn-0.1 | YARN从属服务器需要的 Apache Spark 库。 |
spark-rapids | 0.2.0 | Nvidia Spark RAPIDS 插件可以加速 Apache Spark。GPUs |
sqoop-client | 1.4.7 | Apache Sqoop 命令行客户端。 |
tensorflow | 2.3.1 | TensorFlow 用于高性能数值计算的开源软件库。 |
tez-on-yarn | 0.9.2 | tez YARN 应用程序和库。 |
webserver | 2.4.41+ | Apache HTTP 服务器。 |
zeppelin-server | 0.9.0-preview1 | 支持交互式数据分析的基于 Web 的笔记本电脑。 |
zookeeper-server | 3.4.14 | 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。 |
zookeeper-client | 3.4.14 | ZooKeeper 命令行客户端。 |
6.2.1 配置分类
配置分类允许您自定义应用程序。它们通常对应于应用程序的配置XML文件,例如hive-site.xml
。有关更多信息,请参阅 配置应用程序。
为处于运行状态的集群中的实例组指定配置时,将发生重新配置操作。Amazon EMR 仅对您修改的分类启动重新配置操作。有关更多信息,请参阅 在正在运行的集群中重新配置实例组。
分类 | 描述 | 重新配置操作 |
---|---|---|
capacity-scheduler | 更改 Hadoop 的 capacity-scheduler.xml 文件中的值。 | Restarts the ResourceManager service. |
container-executor | 更改 Hadoop YARN 的 container-executor.cfg 文件中的值。 | Not available. |
container-log4j | 更改 Hadoop 的 container-log4j.prop YARN erties 文件中的值。 | Not available. |
core-site | 更改 Hadoop 的 core-site.xml 文件中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | 更改 docker 相关设置。 | Not available. |
emrfs-site | 更改EMRFS设置。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | 更改 flink-conf.yaml 设置。 | Not available. |
flink-log4j | 更改 Flink log4j.properties 设置。 | Not available. |
flink-log4j-yarn-session | 更改 Flink log4 j-yarn-session .properties 设置。 | Not available. |
flink-log4j-cli | 更改 Flink log4j-cli.properties 设置。 | Not available. |
hadoop-env | 更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | 更改 Hadoop 的 log4j.properties 文件中的值。 | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | 更改 hadoop ssl 服务器配置 | Not available. |
hadoop-ssl-client | 更改 hadoop ssl 客户端配置 | Not available. |
hbase | 亚马逊EMR精心策划的 Apache 设置。HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | 更改环境HBase中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | 更改 hbase-HBase log4j.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | 更改 hadoop-metrics2-h HBase base.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | 更改HBase的 hbase-policy.xml 文件中的值。 | Not available. |
hbase-site | 更改HBase的 hbase-site.xml 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | 配置HDFS加密区域。 | This classification should not be reconfigured. |
hdfs-env | 更改HDFS环境中的值。 | Restarts Hadoop HDFS ZKFC. |
hdfs-site | 更改的 hdfs-site.xml HDFS 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | 更改环境HCatalog中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | 更改HCatalog的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | 更改 proto-hive-site .x HCatalog ml 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | 更改 HCatalog W 环境ebHCat中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | 更改 HCatalog W ebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | 更改 HCatalog W ebHCat 的 webhcat-site.xml 文件中的值。 | Restarts Hive WebHCat server. |
hive | 亚马逊EMR精心策划的 Apache Hive 设置。 | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | 更改 Hive 的 beeline-log4j2.properties 文件中的值。 | Not available. |
hive-parquet-logging | 更改 Hive parquet-logging.properties 文件中的值。 | Not available. |
hive-env | 更改 Hive 环境中的值。 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | 更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。 | Not available. |
hive-llap-daemon-log4j2 | 更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。 | Not available. |
hive-log4j2 | 更改 Hive 的 hive-log4j2.properties 文件中的值。 | Not available. |
hive-site | 更改 Hive 的 hive-site.xml 文件中的值 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | 更改 Hive Server2 的 hiveserver2-site.xml 文件中的值 | Not available. |
hue-ini | 更改 Hue 的 ini 文件中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | 更改HTTPFS环境中的值。 | Restarts Hadoop Httpfs service. |
httpfs-site | 更改 Hadoop 的 httpfs-site.xml 文件中的值。 | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | 更改 Hadoop 的 kms-acls.xml 文件中的值。 | Not available. |
hadoop-kms-env | 在 Hadoop KMS 环境中更改值。 | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | 更改 Hadoop 的 kms-log4j.properties 文件中的值。 | Not available. |
hadoop-kms-site | 更改 Hadoop 的 kms-site.xml 文件中的值。 | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | 更改 Hudi 环境中的值。 | Not available. |
jupyter-notebook-conf | 更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。 | Not available. |
jupyter-hub-conf | 更改 JupyterHubs的 jupyterhub_config.py 文件中的值。 | Not available. |
jupyter-s3-conf | 配置 Jupyter notebook S3 持久性。 | Not available. |
jupyter-sparkmagic-conf | 更改 Sparkmagic 的 config.json 文件中的值。 | Not available. |
livy-conf | 更改 Livy 的 livy.conf 文件中的值。 | Restarts Livy Server. |
livy-env | 更改 Livy 环境中的值。 | Restarts Livy Server. |
livy-log4j | 更改 Livy log4j.properties 设置。 | Restarts Livy Server. |
mapred-env | 更改 MapReduce 应用程序环境中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | 更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | 更改 Oozie 的环境中的值。 | Restarts Oozie. |
oozie-log4j | 更改 Oozie 的 oozie-log4j.properties 文件中的值。 | Restarts Oozie. |
oozie-site | 更改 Oozie 的 oozie-site.xml 文件中的值。 | Restarts Oozie. |
phoenix-hbase-metrics | 更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。 | Not available. |
phoenix-hbase-site | 更改 Phoenix 的 hbase-site.xml 文件中的值。 | Not available. |
phoenix-log4j | 更改 Phoenix 的 log4j.properties 文件中的值。 | Restarts Phoenix-QueryServer. |
phoenix-metrics | 更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。 | Not available. |
pig-env | 更改 Pig 环境中的值。 | Not available. |
pig-properties | 更改 Pig 的 pig.properties 文件中的值。 | Restarts Oozie. |
pig-log4j | 更改 Pig 的 log4j.properties 文件中的值。 | Not available. |
presto-log | 更改 Presto 的 log.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-config | 更改 Presto 的 config.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 | Not available. |
presto-env | 更改 Presto 的 presto-env.sh 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-node | 更改 Presto 的 node.properties 文件中的值。 | Not available. |
presto-connector-blackhole | 更改 Presto 的 blackhole.properties 文件中的值。 | Not available. |
presto-connector-cassandra | 更改 Presto 的 cassandra.properties 文件中的值。 | Not available. |
presto-connector-hive | 更改 Presto 的 hive.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | 更改 Presto 的 jmx.properties 文件中的值。 | Not available. |
presto-connector-kafka | 更改 Presto 的 kafka.properties 文件中的值。 | Not available. |
presto-connector-localfile | 更改 Presto 的 localfile.properties 文件中的值。 | Not available. |
presto-connector-memory | 更改 Presto 的 memory.properties 文件中的值。 | Not available. |
presto-connector-mongodb | 更改 Presto 的 mongodb.properties 文件中的值。 | Not available. |
presto-connector-mysql | 更改 Presto 的 mysql.properties 文件中的值。 | Not available. |
presto-connector-postgresql | 更改 Presto 的 postgresql.properties 文件中的值。 | Not available. |
presto-connector-raptor | 更改 Presto 的 raptor.properties 文件中的值。 | Not available. |
presto-connector-redis | 更改 Presto 的 redis.properties 文件中的值。 | Not available. |
presto-connector-redshift | 更改 Presto 的 redshift.properties 文件中的值。 | Not available. |
presto-connector-tpch | 更改 Presto 的 tpch.properties 文件中的值。 | Not available. |
presto-connector-tpcds | 更改 Presto 的 tpcds.properties 文件中的值。 | Not available. |
prestosql-log | 更改 Presto 的 log.properties 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-config | 更改 Presto 的 config.properties 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-env | 更改 Presto 的 presto-env.sh 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-node | 更改 Presto 的 node.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-blackhole | 更改 Presto 的 blackhole.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-cassandra | 更改 Presto 的 cassandra.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-hive | 更改 Presto 的 hive.prop SQL erties 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-connector-jmx | 更改 Presto 的 jmx.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-kafka | 更改 Presto 的 kafka.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-localfile | 更改 Presto 的 localfile.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-memory | 更改 Presto 的内存.propert SQL ies 文件中的值。 | Not available. |
prestosql-connector-mongodb | 更改 Presto 的 mon SQL godb.properties 文件中的值。 | Not available. |
prestosql-connector-mysql | 更改 Presto 的 mysql.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-postgresql | 更改 Presto 的 postgresql.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-raptor | 更改 Presto 的 raptor.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-redis | 更改 Presto 的 redis.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-redshift | 更改 Presto 的 reds SQL hift.properties 文件中的值。 | Not available. |
prestosql-connector-tpch | 更改 Presto 的 tpch.prop SQL erties 文件中的值。 | Not available. |
prestosql-connector-tpcds | 更改 Presto 的 tpcds.prop SQL erties 文件中的值。 | Not available. |
ranger-kms-dbks-site | 更改 Ranger KMS 的 dbks-site.xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-site | 更改 Ran ranger-kms-site KMS ger .xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-env | 在游侠KMS环境中更改值。 | Restarts Ranger KMS Server. |
ranger-kms-log4j | 更改 Ranger 的 kms-log4j.properties 文件中的值。KMS | Not available. |
ranger-kms-db-ca | 更改 S3 上我与 Ranger SQL SSL KMS 连接的 CA 文件值。 | Not available. |
spark | 亚马逊EMR精心策划的 Apache Spark 设置。 | This property modifies spark-defaults. See actions there. |
spark-defaults | 更改 Spark 的 spark-defaults.conf 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-env | 更改 Spark 环境中的值。 | Restarts Spark history server and Spark thrift server. |
spark-hive-site | 更改 Spark 的 hive-site.xml 文件中的值 | Not available. |
spark-log4j | 更改 Spark 的 log4j.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-metrics | 更改 Spark 的 metrics.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
sqoop-env | 更改 Sqoop 的环境中的值。 | Not available. |
sqoop-oraoop-site | 更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。 | Not available. |
sqoop-site | 更改 Sqoop 的 sqoop-site.xml 文件中的值。 | Not available. |
tez-site | 更改 Tez 的 tez-site.xml 文件中的值。 | Restart Oozie. |
yarn-env | 更改YARN环境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | 更改 yarn-site.xml 文件YARN中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | 更改 Zeppelin 环境中的值。 | Restarts Zeppelin. |
zookeeper-config | 更改 ZooKeeper的 zoo.cfg 文件中的值。 | Restarts Zookeeper server. |
zookeeper-log4j | 更改 ZooKeeper的 log4j.properties 文件中的值。 | Restarts Zookeeper server. |