本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
亚马逊EMR版本 6.1.0
6.1.0 应用程序版本
此版本支持以下应用程序:Flink
下表列出了此版本的 Amazon 中可用的应用程序版本EMR和前三个亚马逊版本中的应用程序EMR版本(如果适用)。
要全面了解每个 Amazon 版本的应用程序版本历史记录EMR,请参阅以下主题:
emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | |
---|---|---|---|---|
AWS SDK适用于 Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 |
Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 |
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.11.0 | 1.11.0 | - | - |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 |
Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 |
Livy | 0.7.0 | 0.7.0 | 0.6.0 | 0.6.0 |
MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 |
Mahout | - | - | - | - |
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | - | - |
Presto | 0.232 | 0.232 | 0.230 | 0.230 |
Spark | 3.0.0 | 3.0.0 | 2.4.4 | 2.4.4 |
Sqoop | 1.4.7 | 1.4.7 | - | - |
TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino(Prest SQL o) | 338 | 338 | - | - |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
6.1.0 发布说明
以下发行说明包含有关亚马逊 6.1.0 EMR 版本的信息。更改与 6.0.0 有关。
首次发布日期:2020 年 9 月 4 日
上次更新日期:2020 年 10 月 15 日
受支持的应用程序
AWS SDK for Java 版本 1.11.828
Flink 1.11.0
Ganglia 3.7.2
Hadoop 3.2.1-amzn-1
HBase版本 2.2.5
HBase-operator-tools 1.0.0
HCatalog版本 3.1.2-amzn-0
Hive 3.1.2-amzn-1
Hudi 0.5.2-incubating
Hue 4.7.1
JupyterHub 版本 1.1.0
Livy 0.7.0
MXNet版本 1.6.0
Oozie 5.2.0
Phoenix 5.0.0
Presto 0.232
Presto SQL 版本 338
Spark 3.0.0-amzn-0
TensorFlow 版本 2.1.0
Zeppelin 0.9.0-preview1
Zookeeper 3.4.14
连接器和驱动程序:DynamoDB 连接器 4.14.0
新功能
ARM从亚马逊EMR版本 5.30.0 和亚马EMR逊 6.1.0 版开始支持实例类型。
从 Amazon 6.1.0 和 5.30.0 EMR 版本开始,支持 M6g 通用实例类型。有关更多信息,请参阅 Amazon EMR 管理指南中的支持的实例类型。
从 Amazon EMR 版本 5.23.0 开始,支持EC2置放群组功能作为多个主节点集群的选项。目前,置放群组功能仅支持主节点类型,并会将
SPREAD
策略应用于这些主节点。SPREAD
策略将一小组实例放置在单独的基础硬件上,以防止发生硬件故障时出现多个主节点丢失的问题。有关更多信息,请参阅《Amazon EMR 管理指南》中的与EC2置放群组EMR集成。托管扩展 — 在 Amazon 6.1.0 EMR 版本中,您可以启用 Amazon EMR 托管扩展,根据工作负载自动增加或减少集群中的实例或单元数量。Amazon 会EMR持续评估集群指标,以做出扩展决策,从而优化集群的成本和速度。托管扩展也适用于亚马逊 5.30.0 及更高EMR版本,6.0.0 除外。有关更多信息,请参阅 Amazon EMR 管理指南中的扩展集群资源。
6.1.0 支持 Presto SQL 版本 338。EMR有关更多信息,请参阅 Presto。
只有 EMR 6.1.0 及更高版本支持 Prest SQL o,EMR6.0.0 或 5.x 不支持。EMR
可以继续使用应用程序名称
Presto
在集群上安装 PrestoDB。要SQL在集群上安装 Presto,请使用应用程序名称PrestoSQL
。您可以安装 PrestoDB 或 Presto,但不能SQL在单个集群上同时安装两者。如果在尝试创建集群时同时指定了 PrestoDB 和 SQL Presto,则会发生验证错误,集群创建请求将失败。
单主集群和多主集群都支持 Pre SQL sto。在多主集群上,需要外部 Hive 元数据仓才能运行 Presto 或 PrestoDB。SQL请参阅具有多个主节点的EMR集群中支持的应用程序。
ECRApache Hadoop 和带有 Docker 的 Apache Spark 支持自动身份验证:Spark 用户可以使用 Docker Hub 和亚马逊弹性容器注册表(亚马逊ECR)中的 Docker 镜像来定义环境和库依赖关系。
使用 Ama EMR zon 6.x 配置 Docker 并使用 Docker 运行 Spark 应用程序。
EMR支持 Apache Hive ACID 事务:Amazon EMR 6.1.0 增加了对 Hive ACID 事务的支持,因此它符合数据库的ACID属性。借助此功能,您可以使用 Amazon Simple Storage Service(Amazon S3)中的数据在 Hive 托管表中运行
INSERT, UPDATE, DELETE,
和MERGE
操作。对于流媒体摄取、数据重述、使用批量更新和缓慢更改维度等用例来说MERGE,这是一项关键功能。有关更多信息,包括配置示例和用例,请参阅亚马逊EMR支持 Apache Hiv ACIDe 事务。
更改、增强功能和解决的问题
-
此版本旨在修复 Amazon EMR Scaling 无法成功扩展/缩小集群或导致应用程序故障时出现的问题。
修复了 Amaz EMR on 集群上守护程序运行状况检查活动(例如收集YARN节点状态和HDFS节点状态)时,对利用率很高的大型集群的扩展请求失败的问题。之所以发生这种情况,是因为集群上的守护程序无法将节点的运行状况数据传送到内部 Ama EMR zon 组件。
改进了EMR集群上的守护程序,可在重复使用 IP 地址时正确跟踪节点状态,从而提高扩展操作期间的可靠性。
SPARK-29683
。修复了集群缩减期间出现任务失败的问题,因为 Spark 假定所有可用节点都被拒绝列出。 YARN-9011
。修复了集群尝试向上或向下扩展时,由于YARN停用过程中的争用条件而导致任务失败的问题。 通过确保 Amaz EMR on 集群上守护程序和 YARN /之间的节点状态始终保持一致,修复了集群扩展期间步骤或任务失败的问题。HDFS
修复了启用了 Kerberos 身份验证的 Amazon 集群的EMR集群操作(例如缩减和步骤提交)失败的问题。这是因为 Amaz EMR on 集群上守护程序没有续订 Kerberos 票证,而要与主节点上YARN运行的 HDFS /进行安全通信,则需要续订 Kerberos 票证。
较新的Amazon EMR 版本通过降低亚马逊较旧AL2版本的 “最大打开文件数” 限制来解决这个问题EMR。亚马逊EMR发布的5.30.1、5.30.2、5.31.1、5.32.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0及更高版本现在包含一个永久修复程序,其中包含一个具有更高的 “最大打开文件数” 设置的永久修复。
EMR6.0.0 不支持 Apache Flink,但在 6.1.0 和 Flink 1.11.0 上EMR支持 Apache Flink。这是首个正式支持 Hadoop 3 的 Fink 版本。请参阅 Apache Flink 1.11.0 发布公告
。 Ganglia 已从默认 EMR 6.1.0 软件包捆绑包中移除。
已知问题
-
降低旧版本的 “最大打开文件数” 限制 AL2 [在新版本中已修复]。亚马逊EMR版本:emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 基于较旧版本的 Linux ofAmazon 2 ()AL2,当使用默认版本创建亚马逊集群时,“最大打开文件数” 的用户限制较低。EMR AMI亚马逊EMR发布的版本为5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0及更高版本,包括具有更高的 “最大打开文件数” 设置的永久修复。如果使用打开文件数限制较低的发行版,会在提交 Spark 任务时导致“Too many open files”(打开的文件过多)错误。在受影响的版本中,亚马逊EMR默AMI认 “最大打开文件数” 的ulimit设置为4096,低于Linux 2中的65536个文件限制。 latestAmazon AMISpark 驱动程序和执行程序尝试打开超过 4096 个文件时,“打开的最大文件数”的较低 ulimit 设置会导致 Spark 任务失败。为了解决这个问题,Amazon EMR 提供了一个引导操作 (BA) 脚本,可以在创建集群时调整ulimit设置。
如果您使用的是无法永久修复此问题的旧EMR版 Amazon,则可以使用以下解决方法将实例控制器 ulimit 明确设置为最多 65536 个文件。
从命令行显式设置 ulimit
编辑
/etc/systemd/system/instance-controller.service
,将以下参数添加到 Service (服务) 部分。LimitNOFILE=65536
LimitNPROC=65536
重启 InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
使用引导操作 (BA) 设置 ulimit
您还可以在创建集群时使用引导操作(BA)脚本将实例控制器 ulimit 配置为 65536 个文件。
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
重要
Amazon EMR 6.1.0 和 6.2.0 包含一个性能问题,可能会严重影响 Hudi 的所有插入、更新和删除操作。如果您计划在亚马逊 EMR 6.1.0 或 6.2.0 中使用 Hudi,则应联系 AWS 支持人员获取已修补的 Hudi。RPM
如果您使用
spark.driver.extraJavaOptions
和设置自定义垃圾收集配置spark.executor.extraJavaOptions
,则由于垃圾收集配置冲突,将导致 EMR 6.1 版的驱动程序/执行程序启动失败。在 6.1.0 EMR 版本中,您应该使用属性spark.driver.defaultJavaOptions
为驱动程序和执行程序指定自定义 Spark 垃圾收集配置,改为使用。spark.executor.defaultJavaOptions
在 Apache Spark 运行时环境和在亚马逊 EMR 6.1.0 上配置 Spark 垃圾回收中阅读更多内容。 -
在 Oozie 中使用 Pig(以及在 Hue 中,因为 Hue 使用 Oozie 操作来运行 Pig 脚本)会生成一个错误,即无法加载 native-lzo 库。此错误消息是信息性的,不会阻止 Pig 运行。
Hudi 并发支持:目前 Hudi 不支持并发写入单个 Hudi 表。此外,Hudi 会回滚处于运行状态的写入器所做的所有更改后再允许新写入器启动。并发写入可能会干扰此机制并引入竞争条件,这会导致数据损坏。您应确保作为数据处理工作流程的一部分,任何时候都只有一个 Hudi 写入器对 Hudi 表进行操作。Hudi 支持多个并发读取器对同一 Hudi 表进行操作。
-
具有多个主节点的集群和 Kerberos 身份验证中的已知问题
如果您在 Amazon 5.20.0 及更高EMR版本中运行具有多个主节点和 Kerberos 身份验证的集群,则在集群运行一段时间后,集群操作可能会遇到问题,例如缩小规模或步骤提交。具体时间段取决于您定义的 Kerberos 票证有效期。缩减问题会影响您提交的自动缩减和显式缩减请求。其它集群操作也可能会受到影响。
解决办法:
-
SSH以
hadoop
用户身份访问具有多个主节点的EMR群集的主主节点。 -
运行以下命令,为
hadoop
用户续订 Kerberos 票证。kinit -kt <keytab_file> <principal>
通常情况下,keytab 文件位于
/etc/hadoop.keytab
,而 principal 为hadoop/<hostname>@<REALM>
格式。
注意
此解决方法将在 Kerberos 票证有效期内生效。默认情况下,此持续时间为 10 个小时,但可以通过 Kerberos 设置进行配置。Kerberos 票证过期后,您必须重新运行上述命令。
-
Amazon EMR 6.1.0 中存在一个影响运行 Presto 的集群的问题。经过很长一段时间(天)后,集群可能会抛出错误,例如 “su:failed toexecute /bin/bash:资源暂时不可用” 或 “通道 0 上的 shell 请求失败”。此问题是由亚马逊内部EMR进程 (InstanceController) 引起的,该进程生成了太多的轻量级进程 (LWP),最终导致 Hadoop 用户超出其 nproc 限制。这可以阻止用户打开其它进程。此问题的解决方案是升级到 EMR 6.2.0。
6.1.0 组件版本
下面列出了 Amazon 随此版本EMR安装的组件。一些组件作为大数据应用程序包的一部分安装。其他则是 Amazon 独有的EMR,是为系统流程和功能而安装的。它们通常以 emr
或 aws
开头。Amazon 最新EMR版本中的大数据应用程序包通常是社区中的最新版本。我们会EMR尽快在 Amazon 上发布社区版本。
Amazon 中的某些组件与社区版本EMR不同。这些组件具有以下形式的
的发行版标注。CommunityVersion
-amzn-EmrVersion
从 0 开始。例如,如果EmrVersion
myapp-component
以 2.2 版本命名的开源社区组件经过三次修改以包含在不同的 Amazon EMR 版本中,则其发布版本将列为2.2-amzn-2
。
组件 | 版本 | 描述 |
---|---|---|
aws-sagemaker-spark-sdk | 1.3.0 | 亚马逊 SageMaker Spark SDK |
emr-ddb | 4.14.0 | 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。 |
emr-goodies | 3.1.0 | 适用于 Hadoop 生态系统的方便易用的库。 |
emr-kinesis | 3.5.0 | 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。 |
emr-s3-dist-cp | emrfs | 针对 Amazon S3 优化的分布式复制应用程序。 |
emr-s3-select | 2.0.0 | EMRS3Select 连接器 |
emrfs | 2.42.0 | 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。 |
flink-client | 1.11.0 | Apache Flink 命令行客户端脚本和应用程序。 |
ganglia-monitor | 3.7.2 | 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。 |
ganglia-metadata-collector | 3.7.2 | 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。 |
ganglia-web | 3.7.1 | 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。 |
hadoop-client | 3.2.1-amzn-1 | Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。 |
hadoop-hdfs-datanode | 3.2.1-amzn-1 | HDFS用于存储区块的节点级服务。 |
hadoop-hdfs-library | 3.2.1-amzn-1 | HDFS命令行客户端和库 |
hadoop-hdfs-namenode | 3.2.1-amzn-1 | HDFS用于跟踪文件名和区块位置的服务。 |
hadoop-hdfs-journalnode | 3.2.1-amzn-1 | HDFS用于管理 HA 集群上的 Hadoop 文件系统日志的服务。 |
hadoop-httpfs-server | 3.2.1-amzn-1 | HTTPHDFS操作端点。 |
hadoop-kms-server | 3.2.1-amzn-1 | 基于 Hadoop 的加密密钥管理服务器。 KeyProvider API |
hadoop-mapred | 3.2.1-amzn-1 | MapReduce 用于运行 MapReduce 应用程序的执行引擎库。 |
hadoop-yarn-nodemanager | 3.2.1-amzn-1 | YARN用于管理单个节点上的容器的服务。 |
hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | YARN用于分配和管理群集资源和分布式应用程序的服务。 |
hadoop-yarn-timeline-server | 3.2.1-amzn-1 | 用于检索YARN应用程序的当前和历史信息的服务。 |
hbase-hmaster | 2.2.5 | 为负责协调区域和执行管理命令的HBase集群提供服务。 |
hbase-region-server | 2.2.5 | 为一个或多个HBase地区提供服务的服务。 |
hbase-client | 2.2.5 | HBase命令行客户端。 |
hbase-rest-server | 2.2.5 | 为其提供RESTfulHTTP终端节点的服务HBase。 |
hbase-thrift-server | 2.2.5 | 为其提供 Thrift 端点的HBase服务。 |
hcatalog-client | 3.1.2-amzn-2 | 用于操作 hcatalog-server 的“hcat”命令行客户端。 |
hcatalog-server | 3.1.2-amzn-2 | 提供服务HCatalog,为分布式应用程序提供表和存储管理层。 |
hcatalog-webhcat-server | 3.1.2-amzn-2 | HTTP端点为其提供REST接口HCatalog。 |
hive-client | 3.1.2-amzn-2 | Hive 命令行客户端。 |
hive-hbase | 3.1.2-amzn-2 | Hive-hbase 客户端。 |
hive-metastore-server | 3.1.2-amzn-2 | 用于访问 Hive 元数据仓的服务,Hive 元存储库是一个语义存储库,用于存储 Hadoop 操作的SQL元数据。 |
hive-server2 | 3.1.2-amzn-2 | 用于将 Hive 查询作为 Web 请求接受的服务。 |
hudi | 0.5.2-incubating-amzn-2 | 增量处理框架,以支持低延迟和高效率的数据管道。 |
hudi-presto | 0.5.2-incubating-amzn-2 | 用于运行 Presto 以及 Hudl 的捆绑库。 |
hudi-prestosql | 0.5.2-incubating-amzn-2 | 用于使用 Hudi 运行 Presto SQL 的捆绑库。 |
hudi-spark | 0.5.2-incubating-amzn-2 | 用于运行 Spark 以及 Hudi 的捆绑库。 |
hue-server | 4.7.1 | 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序 |
jupyterhub | 1.1.0 | Jupyter notebook 的多用户服务器 |
livy-server | 0.7.0-incubating | REST用于与 Apache Spark 交互的接口 |
nginx | 1.12.1 | nginx [engine x] HTTP 是一个反向代理服务器 |
mxnet | 1.6.0 | 用于深度学习的灵活的、可扩展且高效的库。 |
mariadb-server | 5.5.64+ | MariaDB 数据库服务器。 |
nvidia-cuda | 9.2.88 | Nvidia 驱动程序和 Cuda 工具包 |
oozie-client | 5.2.0 | Oozie 命令行客户端。 |
oozie-server | 5.2.0 | 用于接受 Oozie 工作流请求的服务。 |
opencv | 4.3.0 | 开源计算机视觉库。 |
phoenix-library | 5.0.0--2.0 HBase | 服务器和客户端的 phoenix 库 |
phoenix-query-server | 5.0.0--2.0 HBase | 轻量级服务器,提供JDBC对 Avatica 的访问以及协议缓冲区和JSON格式访问 API |
presto-coordinator | 0.232 | 用于在 presto-worker 之中接受查询并管理查询的服务。 |
presto-worker | 0.232 | 用于执行查询的各个部分的服务。 |
presto-client | 0.232 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
prestosql-coordinator | 338 | 用于在 prestosql-worker 之中接受查询并管理查询执行的服务。 |
prestosql-worker | 338 | 用于执行查询的各个部分的服务。 |
prestosql-client | 338 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
pig-client | 0.17.0 | Pig 命令行客户端。 |
r | 3.4.3 | 用于统计计算的 R 项目 |
ranger-kms-server | 2.0.0 | Apache Ranger 密钥管理系统 |
spark-client | 3.0.0-amzn-0 | Spark 命令行客户端。 |
spark-history-server | 3.0.0-amzn-0 | 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。 |
spark-on-yarn | 3.0.0-amzn-0 | 的内存中执行引擎。YARN |
spark-yarn-slave | 3.0.0-amzn-0 | YARN从属服务器需要的 Apache Spark 库。 |
sqoop-client | 1.4.7 | Apache Sqoop 命令行客户端。 |
tensorflow | 2.1.0 | TensorFlow 用于高性能数值计算的开源软件库。 |
tez-on-yarn | 0.9.2 | tez YARN 应用程序和库。 |
webserver | 2.4.41+ | Apache HTTP 服务器。 |
zeppelin-server | 0.9.0-preview1 | 支持交互式数据分析的基于 Web 的笔记本电脑。 |
zookeeper-server | 3.4.14 | 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。 |
zookeeper-client | 3.4.14 | ZooKeeper 命令行客户端。 |
6.1.0 配置分类
配置分类允许您自定义应用程序。它们通常对应于应用程序的配置XML文件,例如hive-site.xml
。有关更多信息,请参阅 配置应用程序。
分类 | 描述 |
---|---|
capacity-scheduler | 更改 Hadoop 的 capacity-scheduler.xml 文件中的值。 |
container-executor | 更改 Hadoop YARN 的 container-executor.cfg 文件中的值。 |
container-log4j | 更改 Hadoop 的 container-log4j.prop YARN erties 文件中的值。 |
core-site | 更改 Hadoop 的 core-site.xml 文件中的值。 |
emrfs-site | 更改EMRFS设置。 |
flink-conf | 更改 flink-conf.yaml 设置。 |
flink-log4j | 更改 Flink log4j.properties 设置。 |
flink-log4j-yarn-session | 更改 Flink log4 j-yarn-session .properties 设置。 |
flink-log4j-cli | 更改 Flink log4j-cli.properties 设置。 |
hadoop-env | 更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。 |
hadoop-log4j | 更改 Hadoop 的 log4j.properties 文件中的值。 |
hadoop-ssl-server | 更改 hadoop ssl 服务器配置 |
hadoop-ssl-client | 更改 hadoop ssl 客户端配置 |
hbase | 亚马逊EMR精心策划的 Apache 设置。HBase |
hbase-env | 更改环境HBase中的值。 |
hbase-log4j | 更改 hbase-HBase log4j.properties 文件中的值。 |
hbase-metrics | 更改 hadoop-metrics2-h HBase base.properties 文件中的值。 |
hbase-policy | 更改HBase的 hbase-policy.xml 文件中的值。 |
hbase-site | 更改HBase的 hbase-site.xml 文件中的值。 |
hdfs-encryption-zones | 配置HDFS加密区域。 |
hdfs-env | 更改HDFS环境中的值。 |
hdfs-site | 更改的 hdfs-site.xml HDFS 中的值。 |
hcatalog-env | 更改环境HCatalog中的值。 |
hcatalog-server-jndi | 更改HCatalog的 jndi.properties 中的值。 |
hcatalog-server-proto-hive-site | 更改 proto-hive-site .x HCatalog ml 中的值。 |
hcatalog-webhcat-env | 更改 HCatalog W 环境ebHCat中的值。 |
hcatalog-webhcat-log4j2 | 更改 HCatalog W ebHCat 的 log4j2.properties 中的值。 |
hcatalog-webhcat-site | 更改 HCatalog W ebHCat 的 webhcat-site.xml 文件中的值。 |
hive | 亚马逊EMR精心策划的 Apache Hive 设置。 |
hive-beeline-log4j2 | 更改 Hive 的 beeline-log4j2.properties 文件中的值。 |
hive-parquet-logging | 更改 Hive parquet-logging.properties 文件中的值。 |
hive-env | 更改 Hive 环境中的值。 |
hive-exec-log4j2 | 更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。 |
hive-llap-daemon-log4j2 | 更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。 |
hive-log4j2 | 更改 Hive 的 hive-log4j2.properties 文件中的值。 |
hive-site | 更改 Hive 的 hive-site.xml 文件中的值 |
hiveserver2-site | 更改 Hive Server2 的 hiveserver2-site.xml 文件中的值 |
hue-ini | 更改 Hue 的 ini 文件中的值 |
httpfs-env | 更改HTTPFS环境中的值。 |
httpfs-site | 更改 Hadoop 的 httpfs-site.xml 文件中的值。 |
hadoop-kms-acls | 更改 Hadoop 的 kms-acls.xml 文件中的值。 |
hadoop-kms-env | 在 Hadoop KMS 环境中更改值。 |
hadoop-kms-log4j | 更改 Hadoop 的 kms-log4j.properties 文件中的值。 |
hadoop-kms-site | 更改 Hadoop 的 kms-site.xml 文件中的值。 |
hudi-env | 更改 Hudi 环境中的值。 |
jupyter-notebook-conf | 更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。 |
jupyter-hub-conf | 更改 JupyterHubs的 jupyterhub_config.py 文件中的值。 |
jupyter-s3-conf | 配置 Jupyter notebook S3 持久性。 |
jupyter-sparkmagic-conf | 更改 Sparkmagic 的 config.json 文件中的值。 |
livy-conf | 更改 Livy 的 livy.conf 文件中的值。 |
livy-env | 更改 Livy 环境中的值。 |
livy-log4j | 更改 Livy log4j.properties 设置。 |
mapred-env | 更改 MapReduce 应用程序环境中的值。 |
mapred-site | 更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。 |
oozie-env | 更改 Oozie 的环境中的值。 |
oozie-log4j | 更改 Oozie 的 oozie-log4j.properties 文件中的值。 |
oozie-site | 更改 Oozie 的 oozie-site.xml 文件中的值。 |
phoenix-hbase-metrics | 更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。 |
phoenix-hbase-site | 更改 Phoenix 的 hbase-site.xml 文件中的值。 |
phoenix-log4j | 更改 Phoenix 的 log4j.properties 文件中的值。 |
phoenix-metrics | 更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。 |
pig-env | 更改 Pig 环境中的值。 |
pig-properties | 更改 Pig 的 pig.properties 文件中的值。 |
pig-log4j | 更改 Pig 的 log4j.properties 文件中的值。 |
presto-log | 更改 Presto 的 log.properties 文件中的值。 |
presto-config | 更改 Presto 的 config.properties 文件中的值。 |
presto-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 |
presto-env | 更改 Presto 的 presto-env.sh 文件中的值。 |
presto-node | 更改 Presto 的 node.properties 文件中的值。 |
presto-connector-blackhole | 更改 Presto 的 blackhole.properties 文件中的值。 |
presto-connector-cassandra | 更改 Presto 的 cassandra.properties 文件中的值。 |
presto-connector-hive | 更改 Presto 的 hive.properties 文件中的值。 |
presto-connector-jmx | 更改 Presto 的 jmx.properties 文件中的值。 |
presto-connector-kafka | 更改 Presto 的 kafka.properties 文件中的值。 |
presto-connector-localfile | 更改 Presto 的 localfile.properties 文件中的值。 |
presto-connector-memory | 更改 Presto 的 memory.properties 文件中的值。 |
presto-connector-mongodb | 更改 Presto 的 mongodb.properties 文件中的值。 |
presto-connector-mysql | 更改 Presto 的 mysql.properties 文件中的值。 |
presto-connector-postgresql | 更改 Presto 的 postgresql.properties 文件中的值。 |
presto-connector-raptor | 更改 Presto 的 raptor.properties 文件中的值。 |
presto-connector-redis | 更改 Presto 的 redis.properties 文件中的值。 |
presto-connector-redshift | 更改 Presto 的 redshift.properties 文件中的值。 |
presto-connector-tpch | 更改 Presto 的 tpch.properties 文件中的值。 |
presto-connector-tpcds | 更改 Presto 的 tpcds.properties 文件中的值。 |
prestosql-log | 更改 Presto 的 log.properties 文件中的值。 |
prestosql-config | 更改 Presto 的 config.properties 文件中的值。 |
prestosql-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 |
prestosql-env | 更改 Presto 的 presto-env.sh 文件中的值。 |
prestosql-node | 更改 Presto 的 node.prop SQL erties 文件中的值。 |
prestosql-connector-blackhole | 更改 Presto 的 blackhole.prop SQL erties 文件中的值。 |
prestosql-connector-cassandra | 更改 Presto 的 cassandra.prop SQL erties 文件中的值。 |
prestosql-connector-hive | 更改 Presto 的 hive.prop SQL erties 文件中的值。 |
prestosql-connector-jmx | 更改 Presto 的 jmx.prop SQL erties 文件中的值。 |
prestosql-connector-kafka | 更改 Presto 的 kafka.prop SQL erties 文件中的值。 |
prestosql-connector-localfile | 更改 Presto 的 localfile.prop SQL erties 文件中的值。 |
prestosql-connector-memory | 更改 Presto 的内存.propert SQL ies 文件中的值。 |
prestosql-connector-mongodb | 更改 Presto 的 mon SQL godb.properties 文件中的值。 |
prestosql-connector-mysql | 更改 Presto 的 mysql.prop SQL erties 文件中的值。 |
prestosql-connector-postgresql | 更改 Presto 的 postgresql.prop SQL erties 文件中的值。 |
prestosql-connector-raptor | 更改 Presto 的 raptor.prop SQL erties 文件中的值。 |
prestosql-connector-redis | 更改 Presto 的 redis.prop SQL erties 文件中的值。 |
prestosql-connector-redshift | 更改 Presto 的 reds SQL hift.properties 文件中的值。 |
prestosql-connector-tpch | 更改 Presto 的 tpch.prop SQL erties 文件中的值。 |
prestosql-connector-tpcds | 更改 Presto 的 tpcds.prop SQL erties 文件中的值。 |
ranger-kms-dbks-site | 更改 Ranger KMS 的 dbks-site.xml 文件中的值。 |
ranger-kms-site | 更改 Ran ranger-kms-site KMS ger .xml 文件中的值。 |
ranger-kms-env | 在游侠KMS环境中更改值。 |
ranger-kms-log4j | 更改 Ranger 的 kms-log4j.properties 文件中的值。KMS |
ranger-kms-db-ca | 更改 S3 上我与 Ranger SQL SSL KMS 连接的 CA 文件值。 |
spark | 亚马逊EMR精心策划的 Apache Spark 设置。 |
spark-defaults | 更改 Spark 的 spark-defaults.conf 文件中的值。 |
spark-env | 更改 Spark 环境中的值。 |
spark-hive-site | 更改 Spark 的 hive-site.xml 文件中的值 |
spark-log4j | 更改 Spark 的 log4j.properties 文件中的值。 |
spark-metrics | 更改 Spark 的 metrics.properties 文件中的值。 |
sqoop-env | 更改 Sqoop 的环境中的值。 |
sqoop-oraoop-site | 更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。 |
sqoop-site | 更改 Sqoop 的 sqoop-site.xml 文件中的值。 |
tez-site | 更改 Tez 的 tez-site.xml 文件中的值。 |
yarn-env | 更改YARN环境中的值。 |
yarn-site | 更改 yarn-site.xml 文件YARN中的值。 |
zeppelin-env | 更改 Zeppelin 环境中的值。 |
zookeeper-config | 更改 ZooKeeper的 zoo.cfg 文件中的值。 |
zookeeper-log4j | 更改 ZooKeeper的 log4j.properties 文件中的值。 |