本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
Amazon 4.4.0 EMR版
4.4.0 應用程式版本
此版本支援下列應用程式: Ganglia
下表列出此版本 Amazon 中可用的應用程式版本,EMR以及上述三個 Amazon EMR版本 (如適用) 中的應用程式版本。
如需每個 Amazon 版本應用程式版本的全面歷史記錄EMR,請參閱下列主題:
emr-4.4.0 | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | |
---|---|---|---|---|
適用於 Java 的AWS SDK | 1.10.27 | 1.10.27 | 1.10.27 | 未追蹤 |
Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 |
Scala | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | - | - | - | - |
Ganglia | 3.7.2 | 3.7.2 | 3.6.0 | - |
HBase | - | - | - | - |
HCatalog | 1.0.0 | - | - | - |
Hadoop | 2.7.1 | 2.7.1 | 2.6.0 | 2.6.0 |
Hive | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 |
Hudi | - | - | - | - |
Hue | 3.7.1 | 3.7.1 | 3.7.1 | 3.7.1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | - | - | - | - |
Livy | - | - | - | - |
MXNet | - | - | - | - |
Mahout | 0.11.1 | 0.11.0 | 0.11.0 | 0.11.0 |
Oozie | - | - | - | - |
Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.0.1 |
Phoenix | - | - | - | - |
Pig | 0.14.0 | 0.14.0 | 0.14.0 | 0.14.0 |
Presto | - | - | - | - |
Presto-Sandbox | 0.136 | 0.130 | 0.125 | 0.119 |
Spark | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.0 |
Sqoop | - | - | - | - |
Sqoop-Sandbox | 1.4.6 | - | - | - |
TensorFlow | - | - | - | - |
Tez | - | - | - | - |
Trino (PrestoSQL) | - | - | - | - |
Zeppelin | - | - | - | - |
Zeppelin-Sandbox | 0.5.6 | 0.5.5 | 0.5.5 | 0.6.0-SNAPSHOT |
ZooKeeper | - | - | - | - |
ZooKeeper-沙盒 | - | - | - | - |
4.4.0 版本備註
下列版本備註包含 Amazon 4.4.0 EMR 版本的資訊。
版本日期:2016 年 3 月 14 日
功能
-
新增 HCatalog 1.0.0
-
新增 Sqoop-Sandbox 1.4.6
-
升級至 Presto 0.136
-
升級至 Zeppelin 0.5.6
-
升級至 Mahout 0.11.1
-
根據預設啟用
dynamicResourceAllocation
。 -
新增版本所有組態分類的資料表。如需詳細資訊,請參閱設定應用程式中的組態分類資料表。
解決先前版本的已知問題
-
修正
maximizeResourceAllocation
設定無法為YARN ApplicationMaster協助程式保留足夠記憶體的問題。 -
修正自訂 遇到的問題DNS。如果
resolve.conf
中的任何項目位在提供的自訂項目之前,則自訂項目無法解決。此行為受到 中的叢集影響,VPC其中預設VPC名稱伺服器插入為 中的頂端項目resolve.conf
。 -
修正預設 Python 改成 2.7 版而 boto 卻未在該版本安裝的問題。
-
修正YARN容器和 Spark 應用程式會產生唯一 Ganglia 循環 robin 資料庫 (rrd) 檔案的問題,導致連接至執行個體的第一個磁碟填滿。由於此修正,YARN容器層級指標已停用,且 Spark 應用程式層級指標已停用。
-
修正日誌推送器會刪除所有空日誌資料夾的問題。效果是 Hive CLI 無法記錄,因為日誌推送器正在移除 下的空
user
資料夾/var/log/hive
。 -
修正影響 Hive 匯入而影響分割並導致匯入時錯誤的問題。
-
已修正 EMRFS和 s3-dist-cp 無法正確處理包含句點的儲存貯體名稱的問題。
-
變更 中的行為,EMRFS使得在啟用版本控制的儲存貯體中,
_$folder$
標記檔案不會持續建立,這可能有助於改善啟用版本控制的儲存貯體的效能。 -
變更 中的行為,EMRFS使其不會使用指示檔案,除了啟用用戶端加密的情況。如果在使用用戶端加密時想要刪除指示檔案,您可以將 emrfs-site.xml 屬性
fs.s3.cse.cryptoStorageMode.deleteInstructionFiles.enabled
設定為 true。 -
變更YARN日誌彙總,以在彙總目的地保留日誌兩天。預設目的地是您的叢集HDFS儲存體。如果您想要變更持續時間,請在建立叢集時使用
yarn.log-aggregation.retain-seconds
組態分類變更yarn-site
之值。一如往常,您可以在建立叢集時使用log-uri
參數將應用程式日誌儲存至 Amazon S3。
套用的修補程式
4.4.0 元件版本
Amazon 使用此版本EMR安裝的元件如下所示。其中有一些屬於大數據應用程式套件。其他則對 Amazon 而言是獨一無二的EMR,並針對系統程序和功能進行安裝。這些通常會以 emr
或 aws
開頭。Amazon EMR最新版本中的大數據應用程式套件通常是社群中發現的最新版本。我們會EMR盡快在 Amazon 中提供社群版本。
Amazon 中的某些元件與社群版本EMR不同。這些元件具有版本標籤,格式為
。CommunityVersion
-amzn-EmrVersion
從 0 開始。例如,如果使用 2.2 版命名EmrVersion
myapp-component
的開放原始碼社群元件已修改三次,以納入不同的 Amazon EMR版本,則其發行版本會列為 2.2-amzn-2
。
元件 | 版本 | 描述 |
---|---|---|
emr-ddb | 3.0.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 |
emr-goodies | 2.0.0 | 適用 Hadoop 生態系統的超便利程式庫。 |
emr-kinesis | 3.1.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 |
emr-s3-dist-cp | 2.2.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 |
emrfs | 2.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 |
ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 |
ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 |
ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集,以檢視指標的 Web 應用程式。 |
hadoop-client | 2.7.1-amzn-1 | Hadoop 命令列用戶端,例如「hdfs」、「Hadoop」或「yarn」。 |
hadoop-hdfs-datanode | 2.7.1-amzn-1 | HDFS 用於儲存區塊的節點層級服務。 |
hadoop-hdfs-library | 2.7.1-amzn-1 | HDFS command-line 用戶端和程式庫 |
hadoop-hdfs-namenode | 2.7.1-amzn-1 | HDFS 服務,用於追蹤檔案名稱和區塊位置。 |
hadoop-httpfs-server | 2.7.1-amzn-1 | HTTP HDFS操作的 端點。 |
hadoop-kms-server | 2.7.1-amzn-1 | 以 Hadoop 的 為基礎的密碼編譯金鑰管理伺服器 KeyProvider API。 |
hadoop-mapred | 2.7.1-amzn-1 | MapReduce 執行引擎程式庫,用於執行 MapReduce 應用程式。 |
hadoop-yarn-nodemanager | 2.7.1-amzn-1 | YARN 服務,用於管理個別節點上的容器。 |
hadoop-yarn-resourcemanager | 2.7.1-amzn-1 | YARN 服務,用於配置和管理叢集資源和分散式應用程式。 |
hcatalog-client | 1.0.0-amzn-3 | 操作 hcatalog-server 的「hcat」命令列用戶端。 |
hcatalog-server | 1.0.0-amzn-3 | 為分散式應用程式提供 HCatalog、資料表和儲存管理層的服務。 |
hcatalog-webhcat-server | 1.0.0-amzn-3 | HTTP 端點提供REST介面給 HCatalog。 |
hive-client | 1.0.0-amzn-3 | Hive 命令列用戶端。 |
hive-metastore-server | 1.0.0-amzn-3 | 存取 Hive 中繼存放區的服務,這是在 Hadoop 操作SQL上存放 中繼資料的語意儲存庫。 |
hive-server | 1.0.0-amzn-3 | 依 Web 請求接受 Hive 查詢的服務。 |
hue-server | 3.7.1-amzn-5 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 |
mahout-client | 0.11.1 | 機器學習程式庫。 |
mysql-server | 5.5 | 我的SQL資料庫伺服器。 |
oozie-client | 4.2.0 | Oozie 命令列用戶端。 |
oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 |
presto-coordinator | 0.136 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 |
presto-worker | 0.136 | 執行查詢各部分的服務。 |
pig-client | 0.14.0-amzn-0 | Pig 命令列用戶端。 |
spark-client | 1.6.0 | Spark 命令列用戶端。 |
spark-history-server | 1.6.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 |
spark-on-yarn | 1.6.0 | 的記憶體內執行引擎YARN。 |
spark-yarn-slave | 1.6.0 | 從屬所需的 Apache Spark YARN 程式庫。 |
sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 |
webserver | 2.4 | Apache HTTP 伺服器。 |
zeppelin-server | 0.5.6-incubating | 能進行互動式資料分析,以 Web 為基礎的筆記型電腦。 |
4.4.0 組態分類
組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態XML檔案,例如 hive-site.xml
。如需詳細資訊,請參閱設定應用程式。
分類 | 描述 |
---|---|
capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 |
core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 |
emrfs-site | 變更EMRFS設定。 |
hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 |
hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 |
hdfs-encryption-zones | 設定HDFS加密區域。 |
hdfs-site | 變更 HDFShdfs-site.xml 中的值。 |
hcatalog-env | 變更 HCatalog環境中的值。 |
hcatalog-server-jndi | 變更 HCatalogjndi.properties 中的值。 |
hcatalog-server-proto-hive-site | 變更 HCatalog's.xml 中的值 proto-hive-site。 |
hcatalog-webhcat-env | 變更 HCatalog W ebHCat環境中的值。 |
hcatalog-webhcat-log4j | 在 HCatalog W ebHCat的 log4j.properties 中變更值。 |
hcatalog-webhcat-site | 變更 HCatalog W ebHCatWebhcat-site.xml 檔案中的值。 |
hive-env | 變更 Hive 環境中的值。 |
hive-exec-log4j | 變更 Hive 的 hive-exec-log4j.properties 檔案中的值。 |
hive-log4j | 變更 Hive 的 hive-log4j.properties 檔案中的值。 |
hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 |
hue-ini | 變更 Hue 的 ini 檔案中的值 |
httpfs-env | 變更HTTPFS環境中的值。 |
httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 |
hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 |
hadoop-kms-env | 在 Hadoop KMS環境中變更值。 |
hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 |
hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 |
mapred-env | 變更 MapReduce 應用程式環境中的值。 |
mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 |
oozie-env | 變更 Oozie 環境中的值。 |
oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 |
oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 |
pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 |
pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 |
presto-log | 變更 Presto 的 log.properties 檔案中的值。 |
presto-config | 變更 Presto 的 config.properties 檔案中的值。 |
presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 |
spark | Apache Spark 的 Amazon EMR精選設定。 |
spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 |
spark-env | 變更 Spark 環境中的值。 |
spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 |
spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 |
sqoop-env | 變更 Sqoop 環境中的值。 |
sqoop-oraoop-site | 變更 Sqoop OraOop的 oraoop-site.xml 檔案中的值。 |
sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 |
yarn-env | 變更YARN環境中的值。 |
yarn-site | 變更 YARN的 yarn-site.xml 檔案中的值。 |
zeppelin-env | 變更 Zeppelin 環境中的值。 |