Amazon EMR 发行版 5.17.0 - Amazon EMR

Amazon EMR 发行版 5.17.0

5.17.0 应用程序版本

此版本支持以下应用程序:FlinkGangliaHBaseHCatalogHadoopHiveHueJupyterHubLivyMXNetMahoutOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下表列出了此版本的 Amazon EMR 中提供的应用程序版本以及前三个 Amazon EMR 发行版中的应用程序版本(若适用)。

有关每个发行版的 Amazon EMR 的应用程序版本的全面历史记录,请参见以下主题:

应用程序版本信息
emr-5.17.0 emr-5.16.1 emr-5.16.0 emr-5.15.1
AWS SDK for Java 1.11.3361.11.3361.11.3361.11.333
Python 2.7、3.42.7、3.42.7、3.42.7、3.4
Scala 2.11.82.11.82.11.82.11.8
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.5.21.5.01.5.01.4.2
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.61.4.41.4.41.4.4
HCatalog2.3.32.3.32.3.32.3.3
Hadoop2.8.42.8.42.8.42.8.3
Hive2.3.32.3.32.3.32.3.3
Hudi - - - -
Hue4.2.04.2.04.2.04.2.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub0.8.10.8.10.8.10.8.1
Livy0.5.00.5.00.5.00.4.0
MXNet1.2.01.2.01.2.01.1.0
Mahout0.13.00.13.00.13.00.13.0
Oozie5.0.05.0.05.0.05.0.0
Phoenix4.14.04.14.04.14.04.13.0
Pig0.17.00.17.00.17.00.17.0
Presto0.2060.2030.2030.194
Spark2.3.12.3.12.3.12.3.0
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.9.0 - - -
Tez0.8.40.8.40.8.40.8.4
Trino (PrestoSQL) - - - -
Zeppelin0.7.30.7.30.7.30.7.3
ZooKeeper3.4.123.4.123.4.123.4.12

5.17.0 发布说明

以下发布说明包括有关 Amazon EMR 发行版 5.17.0 的信息。更改与 5.16.0 有关。

首次发布日期:2018 年 8 月 30 日

升级
  • Flink 1.5.2

  • HBase 1.4.6

  • Presto 0.206

新功能
  • 添加了对 Tensorflow 的支持。有关更多信息,请参阅TensorFlow

更改、增强功能和解决的问题
已知问题
  • 创建使用 Kerberos 的集群时,如果安装了 Livy,Livy 将失败,并显示未启用简单身份验证的错误。重新启动 Livy 服务器可解决此问题。解决方法是在集群创建过程中添加一个在主节点上运行 sudo restart livy-server 的步骤。

  • 如果您使用基于 Amazon Linux AMI(创建日期为 2018-08-11)的自定义 Amazon Linux AMI,则 Oozie 服务器无法启动。如果您使用 Oozie,请根据具有不同创建日期的 Amazon Linux AMI ID 创建自定义 AMI。您可以使用以下 AWS CLI 命令返回所有 2018.03 版本的 HVM Amazon Linux AMI 的镜像 ID 列表以及发布日期,以便您可以根据需要选择合适的 Amazon Linux AMI。将 MyRegion 替换为您的区域标识符,如 us-west-2。

    aws ec2 --region MyRegion describe-images --owner amazon --query 'Images[?Name!=`null`]|[?starts_with(Name, `amzn-ami-hvm-2018.03`) == `true`].[CreationDate,ImageId,Name]' --output text | sort -rk1

5.17.0 组件版本

下面列出了 Amazon EMR 随此发行版一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其它组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发行版中的大数据应用程序包通常是在社区中找到的最新版本。我们会尽快在 Amazon EMR 中提供社区发行版。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的发行版标注。EmrVersion 从 0 开始。例如,假设已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改,以包含在不同的 Amazon EMR 发行版中,则其发行版将为 2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk1.1.3Amazon SageMaker Spark 开发工具包
emr-ddb4.6.0适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies2.5.0适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis3.4.0适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cp2.10.0针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select1.0.0EMR S3 Select 连接器
emrfs2.26.0适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client1.5.2Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor3.7.2适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector3.7.2用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web3.7.1用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client2.8.4-amzn-1Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode2.8.4-amzn-1用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library2.8.4-amzn-1HDFS 命令行客户端和库
hadoop-hdfs-namenode2.8.4-amzn-1用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-httpfs-server2.8.4-amzn-1用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server2.8.4-amzn-1基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred2.8.4-amzn-1用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager2.8.4-amzn-1用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager2.8.4-amzn-1用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server2.8.4-amzn-1用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster1.4.6适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server1.4.6用于服务于一个或多个 HBase 区域的服务。
hbase-client1.4.6HBase 命令行客户端。
hbase-rest-server1.4.6用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server1.4.6用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client2.3.3-amzn-1用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server2.3.3-amzn-1用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server2.3.3-amzn-1用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client2.3.3-amzn-1Hive 命令行客户端。
hive-hbase2.3.3-amzn-1Hive-hbase 客户端。
hive-metastore-server2.3.3-amzn-1用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server22.3.3-amzn-1用于将 Hive 查询作为 Web 请求接受的服务。
hue-server4.2.0用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub0.8.1Jupyter notebook 的多用户服务器
livy-server0.5.0-incubating用于与 Apache Spark 交互的 REST 接口
mahout-client0.13.0用于机器学习的库。
mxnet1.2.0用于深度学习的灵活的、可扩展且高效的库。
mysql-server5.5.54+MySQL 数据库服务器。
nvidia-cuda9.2.88Nvidia 驱动程序和 Cuda 工具包
oozie-client5.0.0Oozie 命令行客户端。
oozie-server5.0.0用于接受 Oozie 工作流请求的服务。
opencv3.4.0开源计算机视觉库。
phoenix-library4.14.0-HBase-1.4服务器和客户端的 phoenix 库
phoenix-query-server4.14.0-HBase-1.4向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator0.206用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker0.206用于执行查询的各个部分的服务。
pig-client0.17.0Pig 命令行客户端。
r3.4.1用于统计计算的 R 项目
spark-client2.3.1Spark 命令行客户端。
spark-history-server2.3.1用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn2.3.1适用于 YARN 的内存中执行引擎。
spark-yarn-slave2.3.1YARN 从属项所需的 Apache Spark 库。
sqoop-client1.4.7Apache Sqoop 命令行客户端。
tensorflow1.9.0适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn0.8.4tez YARN 应用程序和库。
webserver2.4.25+Apache HTTP 服务器。
zeppelin-server0.7.3支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server3.4.12用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client3.4.12ZooKeeper 命令行客户端。

5.17.0 配置分类

配置分类允许您自定义应用程序。这些通常与应用程序的配置 XML 文件(例如 hive-site.xml)相对应。有关更多信息,请参阅配置应用程序

emr-5.17.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

jupyter-notebook-conf

更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。