本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
亚马逊EMR版本 5.2.1
5.2.1 应用程序版本
此版本支持以下应用程序:Flink
下表列出了此版本的 Amazon 中可用的应用程序版本EMR和前三个亚马逊版本中的应用程序EMR版本(如果适用)。
要全面了解每个 Amazon 版本的应用程序版本历史记录EMR,请参阅以下主题:
emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | |
---|---|---|---|---|
AWS SDK适用于 Java | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 |
Python | 未跟踪 | 未跟踪 | 未跟踪 | 未跟踪 |
Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 |
HCatalog | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |
Hadoop | 2.7.3 | 2.7.3 | 2.7.3 | 2.7.3 |
Hive | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |
Hudi | - | - | - | - |
Hue | 3.10.0 | 3.10.0 | 3.10.0 | 3.10.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | - | - | - | - |
Livy | - | - | - | - |
MXNet | - | - | - | - |
Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 |
Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 |
Phoenix | 4.7.0 | 4.7.0 | 4.7.0 | 4.7.0 |
Pig | 0.16.0 | 0.16.0 | 0.16.0 | 0.16.0 |
Presto | 0.157.1 | 0.152.3 | 0.152.3 | 0.152.3 |
Spark | 2.0.2 | 2.0.2 | 2.0.1 | 2.0.1 |
Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 |
TensorFlow | - | - | - | - |
Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 |
Trino(Prest SQL o) | - | - | - | - |
Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 |
ZooKeeper | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 |
5.2.1 发布说明
以下发行说明包含 Amazon EMR 5.2.1 版本的信息。更改与亚马逊 EMR 5.2.0 版本有关。
发布日期:2016 年 12 月 29 日
升级
-
已升级到 Presto 0.157.1。有关更多信息,请参阅 Presto 文档中的 Presto 发布说明
。 -
已升级到 Zookeeper 3.4.9。有关更多信息,请参阅 Apache ZooKeeper 文档中的ZooKeeper发行说明
。
更改和增强功能
-
在亚马逊 4.8.3 及更高EMR版本中增加了对亚马逊 EC2 m4.16xlarge 实例类型的支持,不包括 5.0.0、5.0.3 和 5.2.0。
-
亚马逊EMR发布的版本现在基于亚马逊 Linux 2016.09。有关更多信息,请参阅 https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/
。 -
现在,Flink 和YARN配置路径的位置是默认设置的
/etc/default/flink
,因为您无需设置环境变量FLINK_CONF_DIR
,运行flink
或yarn-session.sh
驱动脚本即可启动 Flink 作业。HADOOP_CONF_DIR
-
增加了对 FlinkKinesisConsumer 类的支持。
早期版本中已解决的已知问题
-
修复了 Hadoop 中的一个问题,即由于在大型集群中复制和删除同一文件之间存在竞争, ReplicationMonitor 线程可能会长时间卡住。
-
修复了任务状态未成功更新时 ControlledJob # toString 失败并出现空指针异常 (NPE) 的问题。
5.2.1 组件版本
下面列出了 Amazon 随此版本EMR安装的组件。一些组件作为大数据应用程序包的一部分安装。其他则是 Amazon 独有的EMR,是为系统流程和功能而安装的。它们通常以 emr
或 aws
开头。Amazon 最新EMR版本中的大数据应用程序包通常是社区中的最新版本。我们会EMR尽快在 Amazon 上发布社区版本。
Amazon 中的某些组件与社区版本EMR不同。这些组件具有以下形式的
的发行版标注。CommunityVersion
-amzn-EmrVersion
从 0 开始。例如,如果EmrVersion
myapp-component
以 2.2 版本命名的开源社区组件经过三次修改以包含在不同的 Amazon EMR 版本中,则其发布版本将列为2.2-amzn-2
。
组件 | 版本 | 描述 |
---|---|---|
emr-ddb | 4.2.0 | 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。 |
emr-goodies | 2.2.0 | 适用于 Hadoop 生态系统的方便易用的库。 |
emr-kinesis | 3.2.0 | 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。 |
emr-s3-dist-cp | 2.4.0 | 针对 Amazon S3 优化的分布式复制应用程序。 |
emrfs | 2.13.0 | 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。 |
flink-client | 1.1.3 | Apache Flink 命令行客户端脚本和应用程序。 |
ganglia-monitor | 3.7.2 | 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。 |
ganglia-metadata-collector | 3.7.2 | 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。 |
ganglia-web | 3.7.1 | 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。 |
hadoop-client | 2.7.3-amzn-1 | Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。 |
hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS用于存储区块的节点级服务。 |
hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS命令行客户端和库 |
hadoop-hdfs-namenode | 2.7.3-amzn-1 | HDFS用于跟踪文件名和区块位置的服务。 |
hadoop-httpfs-server | 2.7.3-amzn-1 | HTTPHDFS操作端点。 |
hadoop-kms-server | 2.7.3-amzn-1 | 基于 Hadoop 的加密密钥管理服务器。 KeyProvider API |
hadoop-mapred | 2.7.3-amzn-1 | MapReduce 用于运行 MapReduce 应用程序的执行引擎库。 |
hadoop-yarn-nodemanager | 2.7.3-amzn-1 | YARN用于管理单个节点上的容器的服务。 |
hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | YARN用于分配和管理群集资源和分布式应用程序的服务。 |
hadoop-yarn-timeline-server | 2.7.3-amzn-1 | 用于检索YARN应用程序的当前和历史信息的服务。 |
hbase-hmaster | 1.2.3 | 为负责协调区域和执行管理命令的HBase集群提供服务。 |
hbase-region-server | 1.2.3 | 为一个或多个HBase地区提供服务的服务。 |
hbase-client | 1.2.3 | HBase命令行客户端。 |
hbase-rest-server | 1.2.3 | 为其提供RESTfulHTTP终端节点的服务HBase。 |
hbase-thrift-server | 1.2.3 | 为其提供 Thrift 端点的HBase服务。 |
hcatalog-client | 2.1.0-amzn-0 | 用于操作 hcatalog-server 的“hcat”命令行客户端。 |
hcatalog-server | 2.1.0-amzn-0 | 提供服务HCatalog,为分布式应用程序提供表和存储管理层。 |
hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP端点为其提供REST接口HCatalog。 |
hive-client | 2.1.0-amzn-0 | Hive 命令行客户端。 |
hive-metastore-server | 2.1.0-amzn-0 | 用于访问 Hive 元数据仓的服务,Hive 元存储库是一个语义存储库,用于存储 Hadoop 操作的SQL元数据。 |
hive-server | 2.1.0-amzn-0 | 用于将 Hive 查询作为 Web 请求接受的服务。 |
hue-server | 3.10.0-amzn-0 | 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序 |
mahout-client | 0.12.2 | 用于机器学习的库。 |
mysql-server | 5.5.52 | 我的SQL数据库服务器。 |
oozie-client | 4.2.0 | Oozie 命令行客户端。 |
oozie-server | 4.2.0 | 用于接受 Oozie 工作流请求的服务。 |
phoenix-library | 4.7.0--1.2 HBase | 服务器和客户端的 phoenix 库 |
phoenix-query-server | 4.7.0--1.2 HBase | 一款轻量级服务器,提供JDBC对 Avatica 的访问权限以及协议缓冲区和JSON格式访问权限 API |
presto-coordinator | 0.157.1 | 用于在 presto-worker 之中接受查询并管理查询的服务。 |
presto-worker | 0.157.1 | 用于执行查询的各个部分的服务。 |
pig-client | 0.16.0-amzn-0 | Pig 命令行客户端。 |
spark-client | 2.0.2 | Spark 命令行客户端。 |
spark-history-server | 2.0.2 | 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。 |
spark-on-yarn | 2.0.2 | 的内存中执行引擎。YARN |
spark-yarn-slave | 2.0.2 | YARN从属服务器需要的 Apache Spark 库。 |
sqoop-client | 1.4.6 | Apache Sqoop 命令行客户端。 |
tez-on-yarn | 0.8.4 | tez YARN 应用程序和库。 |
webserver | 2.4.23 | Apache HTTP 服务器。 |
zeppelin-server | 0.6.2 | 支持交互式数据分析的基于 Web 的笔记本电脑。 |
zookeeper-server | 3.4.9 | 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。 |
zookeeper-client | 3.4.9 | ZooKeeper 命令行客户端。 |
5.2.1 配置分类
配置分类允许您自定义应用程序。它们通常对应于应用程序的配置XML文件,例如hive-site.xml
。有关更多信息,请参阅 配置应用程序。
分类 | 描述 |
---|---|
capacity-scheduler | 更改 Hadoop 的 capacity-scheduler.xml 文件中的值。 |
core-site | 更改 Hadoop 的 core-site.xml 文件中的值。 |
emrfs-site | 更改EMRFS设置。 |
flink-conf | 更改 flink-conf.yaml 设置。 |
flink-log4j | 更改 Flink log4j.properties 设置。 |
flink-log4j-yarn-session | 更改 Flink log4 j-yarn-session .properties 设置。 |
flink-log4j-cli | 更改 Flink log4j-cli.properties 设置。 |
hadoop-env | 更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。 |
hadoop-log4j | 更改 Hadoop 的 log4j.properties 文件中的值。 |
hadoop-ssl-server | 更改 hadoop ssl 服务器配置 |
hadoop-ssl-client | 更改 hadoop ssl 客户端配置 |
hbase | 亚马逊EMR精心策划的 Apache 设置。HBase |
hbase-env | 更改环境HBase中的值。 |
hbase-log4j | 更改 hbase-HBase log4j.properties 文件中的值。 |
hbase-metrics | 更改 hadoop-metrics2-hb HBase aase.properties 文件中的值。 |
hbase-policy | 更改 hbase-policy.xml 文件HBase中的值。 |
hbase-site | 更改HBase的 hbase-site.xml 文件中的值。 |
hdfs-encryption-zones | 配置HDFS加密区域。 |
hdfs-site | 更改的 hdfs-site.xml HDFS 中的值。 |
hcatalog-env | 更改环境HCatalog中的值。 |
hcatalog-server-jndi | 更改 jndi.prop HCatalog erties 中的值。 |
hcatalog-server-proto-hive-site | 更改 proto-hive-site .x HCatalog ml 中的值。 |
hcatalog-webhcat-env | 更改 HCatalog W 环境ebHCat中的值。 |
hcatalog-webhcat-log4j2 | 更改 HCatalog W ebHCat 的 log4j2.properties 中的值。 |
hcatalog-webhcat-site | 更改 HCatalog W ebHCat 的 webhcat-site.xml 文件中的值。 |
hive-beeline-log4j2 | 更改 Hive 的 beeline-log4j2.properties 文件中的值。 |
hive-env | 更改 Hive 环境中的值。 |
hive-exec-log4j2 | 更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。 |
hive-llap-daemon-log4j2 | 更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。 |
hive-log4j2 | 更改 Hive 的 hive-log4j2.properties 文件中的值。 |
hive-site | 更改 Hive 的 hive-site.xml 文件中的值 |
hiveserver2-site | 更改 Hive Server2 的 hiveserver2-site.xml 文件中的值 |
hue-ini | 更改 Hue 的 ini 文件中的值 |
httpfs-env | 更改HTTPFS环境中的值。 |
httpfs-site | 更改 Hadoop 的 httpfs-site.xml 文件中的值。 |
hadoop-kms-acls | 更改 Hadoop 的 kms-acls.xml 文件中的值。 |
hadoop-kms-env | 在 Hadoop KMS 环境中更改值。 |
hadoop-kms-log4j | 更改 Hadoop 的 kms-log4j.properties 文件中的值。 |
hadoop-kms-site | 更改 Hadoop 的 kms-site.xml 文件中的值。 |
mapred-env | 更改 MapReduce 应用程序环境中的值。 |
mapred-site | 更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。 |
oozie-env | 更改 Oozie 的环境中的值。 |
oozie-log4j | 更改 Oozie 的 oozie-log4j.properties 文件中的值。 |
oozie-site | 更改 Oozie 的 oozie-site.xml 文件中的值。 |
phoenix-hbase-metrics | 更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。 |
phoenix-hbase-site | 更改 Phoenix 的 hbase-site.xml 文件中的值。 |
phoenix-log4j | 更改 Phoenix 的 log4j.properties 文件中的值。 |
phoenix-metrics | 更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。 |
pig-properties | 更改 Pig 的 pig.properties 文件中的值。 |
pig-log4j | 更改 Pig 的 log4j.properties 文件中的值。 |
presto-log | 更改 Presto 的 log.properties 文件中的值。 |
presto-config | 更改 Presto 的 config.properties 文件中的值。 |
presto-connector-blackhole | 更改 Presto 的 blackhole.properties 文件中的值。 |
presto-connector-cassandra | 更改 Presto 的 cassandra.properties 文件中的值。 |
presto-connector-hive | 更改 Presto 的 hive.properties 文件中的值。 |
presto-connector-jmx | 更改 Presto 的 jmx.properties 文件中的值。 |
presto-connector-kafka | 更改 Presto 的 kafka.properties 文件中的值。 |
presto-connector-localfile | 更改 Presto 的 localfile.properties 文件中的值。 |
presto-connector-mongodb | 更改 Presto 的 mongodb.properties 文件中的值。 |
presto-connector-mysql | 更改 Presto 的 mysql.properties 文件中的值。 |
presto-connector-postgresql | 更改 Presto 的 postgresql.properties 文件中的值。 |
presto-connector-raptor | 更改 Presto 的 raptor.properties 文件中的值。 |
presto-connector-redis | 更改 Presto 的 redis.properties 文件中的值。 |
presto-connector-tpch | 更改 Presto 的 tpch.properties 文件中的值。 |
spark | 亚马逊EMR精心策划的 Apache Spark 设置。 |
spark-defaults | 更改 Spark 的 spark-defaults.conf 文件中的值。 |
spark-env | 更改 Spark 环境中的值。 |
spark-hive-site | 更改 Spark 的 hive-site.xml 文件中的值 |
spark-log4j | 更改 Spark 的 log4j.properties 文件中的值。 |
spark-metrics | 更改 Spark 的 metrics.properties 文件中的值。 |
sqoop-env | 更改 Sqoop 的环境中的值。 |
sqoop-oraoop-site | 更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。 |
sqoop-site | 更改 Sqoop 的 sqoop-site.xml 文件中的值。 |
tez-site | 更改 Tez 的 tez-site.xml 文件中的值。 |
yarn-env | 更改YARN环境中的值。 |
yarn-site | 更改YARN的 yarn-site.xml 文件中的值。 |
zeppelin-env | 更改 Zeppelin 环境中的值。 |
zookeeper-config | 更改 zoo.cfg 文件 ZooKeeper中的值。 |
zookeeper-log4j | 更改 ZooKeeper的 log4j.properties 文件中的值。 |