Amazon 6.0.0 EMR版 - Amazon EMR

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

Amazon 6.0.0 EMR版

6.0.0 應用程式版本

此版本支援下列應用程式: Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Oozie, Phoenix, Presto, Spark, TensorFlow, Tez, Zeppelin、 和 ZooKeeper.

下表列出此版本 Amazon 中可用的應用程式版本,EMR以及前三個 Amazon EMR版本 (如適用) 中的應用程式版本。

如需每個版本 Amazon 的應用程式版本完整歷史記錄EMR,請參閱下列主題:

應用程式版本資訊
emr-6.1.1 emr-6.1.0 emr-6.0.1 emr-6.0.0
AWS SDK 適用於 Java 1.11.8281.11.8281.11.7111.11.711
Python 2.7、3.72.7、3.72.7、3.72.7、3.7
Scala 2.12.102.12.102.12.102.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.01.11.0 - -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.52.2.52.2.32.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-10.5.0-incubating-amzn-1
Hue4.7.14.7.14.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.0.01.0.0
Livy0.7.00.7.00.6.00.6.0
MXNet1.6.01.6.01.5.11.5.1
Mahout - - - -
Oozie5.2.05.2.05.1.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.0 - -
Presto0.2320.2320.2300.230
Spark3.0.03.0.02.4.42.4.4
Sqoop1.4.71.4.7 - -
TensorFlow2.1.02.1.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (Presto SQL)338338 - -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

6.0.0 版本備註

下列版本備註包含 Amazon 6.0.0 EMR版的資訊。

初始版本日期:2020 年 3 月 10 日

支援的應用程式
  • AWS SDK for Java 1.11.711 版

  • Ganglia 3.7.2 版

  • Hadoop 3.2.1 版

  • HBase 2.2.3 版

  • HCatalog 3.1.2 版

  • Hive 3.1.2 版

  • Hudi 0.5.0-incubating 版

  • Hue 4.4.0 版

  • JupyterHub 1.0.0 版

  • Livy 0.6.0 版

  • MXNet 1.5.1 版

  • Oozie 5.1.0 版

  • Phoenix 5.0.0 版

  • Presto 0.230 版

  • Spark 2.4.4 版

  • TensorFlow 1.14.0 版

  • Zeppelin 0.9.0 版-SNAPSHOT

  • Zookeeper 3.4.14 版

  • 連接器與驅動程式:DynamoDB 連接器 4.14.0

注意

Flink、Sqoop、Pig 和 Mahout 不適用於 Amazon 6.0.0 EMR版。

新功能
變更、強化功能和已解決的問題
  • 這是一個版本,用於修正 Amazon EMR Scaling 無法成功擴展叢集或導致應用程式失敗的問題。

  • 已修正當 Amazon 叢集EMR上常駐程式正在執行運作運作狀態檢查活動時,大型、高度使用叢集的擴展請求失敗的問題,例如收集YARN節點狀態和HDFS節點狀態。發生這種情況是因為叢集上的精靈無法將節點的運作狀態資料傳遞給內部 Amazon EMR元件。

  • 改善叢集EMR內精靈,以便在重複使用 IP 地址時正確追蹤節點狀態,以提高擴展操作期間的可靠性。

  • SPARK-29683。修正因為 Spark 擔任的所有可用的節點被列入拒絕清單,而導致作業在叢集縮減規模期間失敗的問題。

  • YARN-9011。已修正叢集嘗試擴展或縮減規模時,由於YARN停用競爭條件而導致任務失敗的問題。

  • 透過確保 Amazon 叢集EMR上常駐程式和 YARN/ 之間的節點狀態始終一致,修正叢集擴展期間的步驟或任務失敗問題HDFS。

  • 已修正使用 Kerberos 身分驗證啟用之 Amazon EMR叢集的叢集操作,例如縮減規模和提交步驟失敗的問題。這是因為 Amazon 叢集EMR上常駐程式未更新 Kerberos 票證,這是與主節點上安全通訊HDFS/YARN執行的必要條件。

  • 較新的 Amazon EMR版本會修正 Amazon AL2中較舊版本「開啟檔案上限」限制的問題EMR。Amazon EMR5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更新版本現在包含具有更高「最大開啟檔案」設定的永久修正。

  • Amazon Linux

    • Amazon Linux 2 是 6.x EMR 版本系列的作業系統。

    • systemd 用於服務管理,而不是upstart使用 inAmazon Linux 1。

  • Java 開發套件 (JDK)

    • Corretto JDK 8 是 JDK 6.x EMR 版本系列的預設值。

  • Scala

    • Scala 2.12 可搭配 Apache Spark 與 Apache Livy 使用。

  • Python 3

    • Python 3 現在是 中 Python 的預設版本EMR。

  • YARN 節點標籤

    • 從 Amazon EMR 6.x 版本系列開始,YARN節點標籤功能預設為停用。根據預設,應用程式主程序可以在核心和任務節點上執行。您可以設定下列屬性來啟用YARN節點標籤功能: yarn.node-labels.enabledyarn.node-labels.am.default-node-label-expression。如需詳細資訊,請參閱了解主節點、核心節點和任務節點

已知問題
  • 較舊版本 AL2【修正為較新版本】 的「開啟檔案上限」下限。Amazon EMR版本:emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 是以 ofAmazon Linux 2 (AL2) 的較舊版本為基礎,當 Amazon EMR叢集使用預設 建立時,其「最大開啟檔案」的 ulimit 設定較低。 AMIAmazon EMR5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更新版本包含具有較高「最大開啟檔案」設定的永久修正。提交 Spark 作業時,開放檔限制較低的版本會導致「開放檔案過多」錯誤。在受影響的版本中,Amazon EMR 預設AMI的預設 ulimit 設定為 4096,表示「開啟的檔案上限」低於 latestAmazon Linux 2 中的 65536 檔案限制AMI。當 Spark 驅動程式和執行器嘗試開啟超過 4096 個檔案時,「最大開放檔案」的 ulimit 設定過低會導致 Spark 作業失敗。若要修正此問題,Amazon EMR有一個引導動作 (BA) 指令碼,可在叢集建立時調整 ulimit 設定。

    如果您使用的是沒有此問題永久修正的舊 Amazon EMR版本,則下列解決方法可讓您明確將執行個體控制器的模擬值設定為最多 65536 個檔案。

    從命令列明確設定 ulimit
    1. 編輯 /etc/systemd/system/instance-controller.service 以新增下列參數至「服務」區段。

      LimitNOFILE=65536

      LimitNPROC=65536

    2. 重新啟動 InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    使用引導操作 (BA) 設定 ulimit

    您還可以使用引導操作 (BA) 指令碼,在建立叢集時將執行個體-控制器 ulimit 設定為 65536 個檔案。

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Spark 互動式 shell,包括 PySpark、SparkR 和 spark-shell,不支援搭配其他程式庫使用 Docker。

  • 若要將 Python 3 與 Amazon 6.0.0 EMR版搭配使用,您必須PATH新增至 yarn.nodemanager.env-whitelist

  • 當您使用 AWS Glue Data Catalog 作為 Hive 的中繼存放區時,不支援 Live Long 和 Process (LLAP) 功能。

  • 搭配 Spark EMR 和 Docker 整合使用 Amazon 6.0.0 時,您需要將叢集中的執行個體設定為相同執行個體類型和相同數量的EBS磁碟區,以避免在使用 Docker 執行期提交 Spark 任務時失敗。

  • 在 Amazon EMR 6.0.0 HBase中,Amazon S3 儲存模式會受到 HBASE-24286. 問題的影響。HBase 當叢集使用現有 S3 資料建立時,主伺服器無法初始化。

  • 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

    如果您在 Amazon 5.20.0 版及更新EMR版本中執行具有多個主節點的叢集和 Kerberos 身分驗證,則可能會在叢集執行一段時間後遇到叢集操作的問題,例如縮減規模或提交步驟。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

    解決方法:

    • SSH 作為具有多個主要節點之EMR叢集的主要節點hadoop的使用者。

    • 執行以下命令,以更新 hadoop 使用者的 Kerberos 票證。

      kinit -kt <keytab_file> <principal>

      一般而言,Keytab 檔案位於 /etc/hadoop.keytab,而主體則採用 hadoop/<hostname>@<REALM> 的形式。

    注意

    此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時,但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期,您必須重新執行上述命令。

6.0.0 元件版本

Amazon 使用此版本EMR安裝的元件如下所列。其中有一些屬於大數據應用程式套件。其他則對 Amazon 而言是獨一無二的EMR,並針對系統程序和功能進行安裝。這些通常會以 emraws 開頭。Amazon EMR最新版本中的大數據應用程式套件通常是社群中發現的最新版本。我們會EMR盡快在 Amazon 中提供社群版本。

Amazon 中的某些元件與社群版本EMR不同。這些元件具有版本標籤,格式為 CommunityVersion-amzn-EmrVersionEmrVersion 從 0 開始。例如,如果使用 2.2 版命名myapp-component的開放原始碼社群元件已修改三次,以包含在不同的 Amazon EMR版本中,則其發行版本會列為 2.2-amzn-2

元件 版本 描述
aws-sagemaker-spark-sdk1.2.6Amazon SageMaker Spark SDK
emr-ddb4.14.0適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。
emr-goodies3.0.0適用 Hadoop 生態系統的超便利程式庫。
emr-kinesis3.5.0適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。
emr-s3-dist-cp2.14.0針對 Amazon S3 最佳化的分散式複製應用程式。
emr-s3-select1.5.0EMR S3Select 連接器
emrfs2.39.0適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。
ganglia-monitor3.7.2Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。
ganglia-metadata-collector3.7.2Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。
ganglia-web3.7.1由 Ganglia 中繼資料收集器收集,以檢視指標的 Web 應用程式。
hadoop-client3.2.1-amzn-0Hadoop 命令列用戶端,例如「hdfs」、「Hadoop」或「yarn」。
hadoop-hdfs-datanode3.2.1-amzn-0HDFS 儲存區塊的節點層級服務。
hadoop-hdfs-library3.2.1-amzn-0HDFS command-line 用戶端和程式庫
hadoop-hdfs-namenode3.2.1-amzn-0HDFS 服務,用於追蹤檔案名稱和區塊位置。
hadoop-hdfs-journalnode3.2.1-amzn-0HDFS 服務,用於管理 HA 叢集上的 Hadoop 檔案系統日誌。
hadoop-httpfs-server3.2.1-amzn-0HTTP HDFS操作的端點。
hadoop-kms-server3.2.1-amzn-0以 Hadoop 的 為基礎的密碼編譯金鑰管理伺服器 KeyProvider API。
hadoop-mapred3.2.1-amzn-0MapReduce 執行引擎程式庫,用於執行 MapReduce 應用程式。
hadoop-yarn-nodemanager3.2.1-amzn-0YARN 服務,用於管理個別節點上的容器。
hadoop-yarn-resourcemanager3.2.1-amzn-0YARN 服務,用於配置和管理叢集資源和分散式應用程式。
hadoop-yarn-timeline-server3.2.1-amzn-0擷取YARN應用程式目前和歷史資訊的 服務。
hbase-hmaster2.2.3負責協調區域和執行管理命令的HBase叢集的服務。
hbase-region-server2.2.3服務一或多個HBase區域的服務。
hbase-client2.2.3HBase command-line 用戶端。
hbase-rest-server2.2.3為 提供RESTfulHTTP端點的服務HBase。
hbase-thrift-server2.2.3向 提供 Thrift 端點的服務HBase。
hcatalog-client3.1.2-amzn-0操作 hcatalog-server 的「hcat」命令列用戶端。
hcatalog-server3.1.2-amzn-0為分散式應用程式提供 HCatalog、資料表和儲存管理層的服務。
hcatalog-webhcat-server3.1.2-amzn-0HTTP 端點為 提供REST介面HCatalog。
hive-client3.1.2-amzn-0Hive 命令列用戶端。
hive-hbase3.1.2-amzn-0Hive-hbase 用戶端。
hive-metastore-server3.1.2-amzn-0存取 Hive 中繼存放區的服務,這是在 Hadoop 操作SQL上儲存 中繼資料的語意儲存庫。
hive-server23.1.2-amzn-0依 Web 請求接受 Hive 查詢的服務。
hudi0.5.0-incubating-amzn-1增量處理架構,以低延遲和高效率強化資料管道。
hudi-presto0.5.0-incubating-amzn-1用於使用 Hudi 執行 Presto 的套件程式庫。
hue-server4.4.0使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式
jupyterhub1.0.0適用於 Jupyter 筆記本的多使用者伺服器
livy-server0.6.0-incubatingREST 與 Apache Spark 互動的介面
nginx1.12.1nginx 【引擎 x】 是 HTTP和 反向代理伺服器
mxnet1.5.1靈活有效率的程式庫,具可擴展性,適用於深度學習。
mariadb-server5.5.64+MariaDB 資料庫伺服器。
nvidia-cuda9.2.88Nvidia 驅動程式和 Cuda 工具組
oozie-client5.1.0Oozie 命令列用戶端。
oozie-server5.1.0接受 Oozie 工作流程要求的服務。
opencv3.4.0開放原始碼電腦 Vision 程式庫。
phoenix-library5.0.0-HBase-2.0適用於伺服器和用戶端的 phoenix 程式庫
phoenix-query-server5.0.0-HBase-2.0輕量型伺服器,提供對 Avatica 的JDBC存取以及通訊協定緩衝區和JSON格式存取 API
presto-coordinator0.230在 presto-workers 之間接受查詢和執行管理查詢的服務。
presto-worker0.230執行查詢各部分的服務。
presto-client0.230安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端,該主節點上的 Presto 伺服器未啟動。
r3.4.3統計運算 R 專案
spark-client2.4.4Spark 命令列用戶端。
spark-history-server2.4.4用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。
spark-on-yarn2.4.4的記憶體內執行引擎YARN。
spark-yarn-slave2.4.4從屬所需的 Apache Spark YARN 程式庫。
tensorflow1.14.0TensorFlow 適用於高效能數值運算的開放原始碼軟體程式庫。
tez-on-yarn0.9.2tez YARN 應用程式和程式庫。
webserver2.4.41+Apache HTTP 伺服器。
zeppelin-server0.9.0-SNAPSHOT能進行互動式資料分析,以 Web 為基礎的筆記型電腦。
zookeeper-server3.4.14用於維護組態資訊、命名、提供分散式同步,並提供群組服務的集中化服務。
zookeeper-client3.4.14ZooKeeper 命令列用戶端。

6.0.0 組態類別

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態XML檔案,例如 hive-site.xml。如需詳細資訊,請參閱設定應用程式

emr-6.0.0 分類
分類 描述

capacity-scheduler

變更 Hadoop 中 capacity-scheduler.xml 檔案的值。

container-executor

變更 Hadoop YARN的 container-executor.cfg 檔案中的值。

container-log4j

變更 Hadoop YARN的 container-log4j.properties 檔案中的值。

core-site

變更 Hadoop 中 core-site.xml 檔案的值。

emrfs-site

變更EMRFS設定。

hadoop-env

在 Hadoop 環境中變更所有 Hadoop 元件的值。

hadoop-log4j

變更 Hadoop 中 log4j.properties 檔案的值。

hadoop-ssl-server

變更 hadoop ssl 伺服器組態

hadoop-ssl-client

變更 hadoop ssl 用戶端組態

hbase

Apache 的 Amazon EMR精選設定HBase。

hbase-env

變更 HBase環境中的值。

hbase-log4j

變更 HBase的 hbase-log4j.properties 檔案中的值。

hbase-metrics

變更 HBase的 hadoop-metrics2-hbase.properties 檔案中的值。

hbase-policy

變更 HBasehbase-policy.xml 檔案中的值。

hbase-site

變更 HBasehbase-site.xml 檔案中的值。

hdfs-encryption-zones

設定HDFS加密區域。

hdfs-env

變更HDFS環境中的值。

hdfs-site

變更 HDFShdfs-site.xml 中的值。

hcatalog-env

變更 HCatalog環境中的值。

hcatalog-server-jndi

變更 jndi.properties HCatalog中的值。

hcatalog-server-proto-hive-site

變更 HCatalog. proto-hive-sitexml 中的值。

hcatalog-webhcat-env

變更 HCatalog W ebHCat環境中的值。

hcatalog-webhcat-log4j2

在 HCatalog W ebHCat的 log4j2.properties 中變更值。

hcatalog-webhcat-site

在 HCatalog W ebHCat的 webhcat-site.xml 檔案中變更值。

hive

Apache Hive 的 Amazon EMR精選設定。

hive-beeline-log4j2

變更 Hive 的 beeline-log4j2.properties 檔案中的值。

hive-parquet-logging

變更 Hive 的 parquet-logging.properties 檔案中的值。

hive-env

變更 Hive 環境中的值。

hive-exec-log4j2

變更 Hive hive-exec-log4j2.properties 檔案中的值。

hive-llap-daemon-log4j2

在 Hive 的 llap-daemon-log4j2.properties 檔案中變更值。

hive-log4j2

變更 Hive 的 hive-log4j2.properties 檔案中的值。

hive-site

變更 Hive 的 hive-site.xml 檔案中的值

hiveserver2-site

變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值

hue-ini

變更 Hue 的 ini 檔案中的值

httpfs-env

變更HTTPFS環境中的值。

httpfs-site

變更 Hadoop 中 httpfs-site.xml 檔案的值。

hadoop-kms-acls

變更 Hadoop 中 kms-acls.xml 檔案的值。

hadoop-kms-env

變更 Hadoop KMS環境中的值。

hadoop-kms-log4j

變更 Hadoop 的 kms-log4j.properties 檔案中的值。

hadoop-kms-site

變更 Hadoop 中 kms-site.xml 檔案的值。

jupyter-notebook-conf

變更 Jupyter 筆記本中 jupyter_notebook_config.py 檔案的值。

jupyter-hub-conf

變更 JupyterHubsjupyterhub_config.py 檔案中的值。

jupyter-s3-conf

設定 Jupyter 筆記本 S3 持久性。

jupyter-sparkmagic-conf

變更 Sparkmagic 中 config.json 檔案的值。

livy-conf

變更 Livy 的 livy.conf 檔案中的值。

livy-env

變更 Livy 環境中的值。

livy-log4j

變更 Livy log4j.properties 設定。

mapred-env

變更 MapReduce 應用程式環境中的值。

mapred-site

在 MapReduce 應用程式的 mapred-site.xml 檔案中變更值。

oozie-env

變更 Oozie 環境中的值。

oozie-log4j

變更 Oozie 的 oozie-log4j.properties 檔案中的值。

oozie-site

變更 Oozie 的 oozie-site.xml 檔案中的值。

phoenix-hbase-metrics

變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。

phoenix-hbase-site

變更 Phoenix 的 hbase-site.xml 檔案中的值。

phoenix-log4j

變更 Phoenix 中 log4j.properties 檔案的值。

phoenix-metrics

變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。

presto-log

變更 Presto 的 log.properties 檔案中的值。

presto-config

變更 Presto 的 config.properties 檔案中的值。

presto-password-authenticator

變更 Presto 的 password-authenticator.properties 檔案中的值。

presto-env

變更 Presto 的 presto-env.sh 檔案中的值。

presto-node

變更 Presto 的 node.properties 檔案中的值。

presto-connector-blackhole

變更 Presto 的 blackhole.properties 檔案中的值。

presto-connector-cassandra

變更 Presto 的 cassandra.properties 檔案中的值。

presto-connector-hive

變更 Presto 的 hive.properties 檔案中的值。

presto-connector-jmx

變更 Presto 的 jmx.properties 檔案中的值。

presto-connector-kafka

變更 Presto 的 kafka.properties 檔案中的值。

presto-connector-localfile

變更 Presto 的 localfile.properties 檔案中的值。

presto-connector-memory

變更 Presto 的 memory.properties 檔案中的值。

presto-connector-mongodb

變更 Presto 的 mongodb.properties 檔案中的值。

presto-connector-mysql

變更 Presto 的 mysql.properties 檔案中的值。

presto-connector-postgresql

變更 Presto 的 postgresql.properties 檔案中的值。

presto-connector-raptor

變更 Presto 的 raptor.properties 檔案中的值。

presto-connector-redis

變更 Presto 的 redis.properties 檔案中的值。

presto-connector-redshift

變更 Presto 的 redshift.properties 檔案中的值。

presto-connector-tpch

變更 Presto 的 tpch.properties 檔案中的值。

presto-connector-tpcds

變更 Presto 的 tpcds.properties 檔案中的值。

ranger-kms-dbks-site

變更 Ranger 的 dbks-site.xml 檔案中的值KMS。

ranger-kms-site

變更 Ranger 的 ranger-kms-site.xml 檔案中的值KMS。

ranger-kms-env

在 Ranger KMS環境中變更值。

ranger-kms-log4j

變更 Ranger 的 kms-log4j.properties 檔案中的值KMS。

ranger-kms-db-ca

變更 S3 for MySQL 與 Ranger SSL連線上的 CA 檔案值KMS。

recordserver-env

變更EMR RecordServer 環境中的值。

recordserver-conf

變更 EMR RecordServererver.properties 檔案中的值。

recordserver-log4j

變更 EMR RecordServer的 log4j.properties 檔案中的值。

spark

Apache Spark 的 Amazon EMR精選設定。

spark-defaults

變更 Spark 的 spark-defaults.conf 檔案中的值。

spark-env

變更 Spark 環境中的值。

spark-hive-site

變更 Spark 的 hive-site.xml 檔案中的值

spark-log4j

變更 Spark 中 log4j.properties 檔案的值。

spark-metrics

變更 Spark 中 metrics.properties 檔案的值。

tez-site

變更 Tez 的 tez-site.xml 檔案中的值。

yarn-env

變更YARN環境中的值。

yarn-site

變更 YARN的 yarn-site.xml 檔案中的值。

zeppelin-env

變更 Zeppelin 環境中的值。

zookeeper-config

變更 ZooKeeperzoo.cfg 檔案中的值。

zookeeper-log4j

變更 ZooKeeper的 log4j.properties 檔案中的值。