本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
亚马逊EMR版本 5.18.0
5.18.0 应用程序版本
此版本支持以下应用程序:Flink
下表列出了此版本的 Amazon 中可用的应用程序版本EMR和前三个亚马逊版本中的应用程序EMR版本(如果适用)。
要全面了解每个 Amazon 版本的应用程序版本历史记录EMR,请参阅以下主题:
emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | |
---|---|---|---|---|
适用于 Java 的AWS SDK | 1.11.393 | 1.11.336 | 1.11.336 | 1.11.336 |
Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 |
Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.6.0 | 1.5.2 | 1.5.2 | 1.5.2 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 |
HCatalog | 2.3.3 | 2.3.3 | 2.3.3 | 2.3.3 |
Hadoop | 2.8.4 | 2.8.4 | 2.8.4 | 2.8.4 |
Hive | 2.3.3 | 2.3.3 | 2.3.3 | 2.3.3 |
Hudi | - | - | - | - |
Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 |
Livy | 0.5.0 | 0.5.0 | 0.5.0 | 0.5.0 |
MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 |
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Phoenix | 4.14.0 | 4.14.0 | 4.14.0 | 4.14.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.210 | 0.206 | 0.206 | 0.206 |
Spark | 2.3.2 | 2.3.1 | 2.3.1 | 2.3.1 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 |
Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 |
Trino(Prest SQL o) | - | - | - | - |
Zeppelin | 0.8.0 | 0.7.3 | 0.7.3 | 0.7.3 |
ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 |
5.18.0 发布说明
以下发行说明包含有关亚马逊 5.18. EMR 0 版本的信息。更改与 5.17.0 有关。
首次发布日期:2018 年 10 月 24 日
升级
Flink 1.6.0
HBase1.4.7
Presto 0.210
Spark 2.3.2
Zeppelin 0.8.0
新特征
从 Amazon EMR 5.18.0 开始,您可以使用 Amazon 构EMR件存储库针对特定亚马逊版本中提供的库和依赖项的确切版本构建任务代码。EMR有关更多信息,请参阅 使用 Amazon EMR 项目存储库检查依赖项。
更改、增强功能和解决的问题
Hive
添加了对 S3 Select 的支持。有关更多信息,请参阅将 S3 Select 与 Hive 结合使用以提高查询性能。
Presto
添加了对 S3 Select
Pushdown 的支持。有关更多信息,请参阅使用 S3 Select Pushdown 搭配 Presto 提高性能。
Spark
Spark 的默认 log4j 配置已更改为 Spark Streaming 任务每小时的滚动容器日志。这有助于防止删除长时间运行的 Spark Streaming 任务的日志。
5.18.0 组件版本
下面列出了 Amazon 随此版本EMR安装的组件。一些组件作为大数据应用程序包的一部分安装。其他则是 Amazon 独有的EMR,是为系统流程和功能而安装的。它们通常以 emr
或 aws
开头。Amazon 最新EMR版本中的大数据应用程序包通常是社区中的最新版本。我们会EMR尽快在 Amazon 上发布社区版本。
Amazon 中的某些组件与社区版本EMR不同。这些组件具有以下形式的
的发行版标注。CommunityVersion
-amzn-EmrVersion
从 0 开始。例如,如果EmrVersion
myapp-component
以 2.2 版本命名的开源社区组件经过三次修改以包含在不同的 Amazon EMR 版本中,则其发布版本将列为2.2-amzn-2
。
组件 | 版本 | 描述 |
---|---|---|
aws-sagemaker-spark-sdk | 1.1.3 | 亚马逊 SageMaker Spark SDK |
emr-ddb | 4.6.0 | 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。 |
emr-goodies | 2.5.0 | 适用于 Hadoop 生态系统的方便易用的库。 |
emr-kinesis | 3.4.0 | 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。 |
emr-s3-dist-cp | 2.10.0 | 针对 Amazon S3 优化的分布式复制应用程序。 |
emr-s3-select | 1.1.0 | EMRS3Select 连接器 |
emrfs | 2.27.0 | 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。 |
flink-client | 1.6.0 | Apache Flink 命令行客户端脚本和应用程序。 |
ganglia-monitor | 3.7.2 | 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。 |
ganglia-metadata-collector | 3.7.2 | 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。 |
ganglia-web | 3.7.1 | 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。 |
hadoop-client | 2.8.4-amzn-1 | Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。 |
hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS用于存储区块的节点级服务。 |
hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS命令行客户端和库 |
hadoop-hdfs-namenode | 2.8.4-amzn-1 | HDFS用于跟踪文件名和区块位置的服务。 |
hadoop-httpfs-server | 2.8.4-amzn-1 | HTTPHDFS操作端点。 |
hadoop-kms-server | 2.8.4-amzn-1 | 基于 Hadoop 的加密密钥管理服务器。 KeyProvider API |
hadoop-mapred | 2.8.4-amzn-1 | MapReduce 用于运行 MapReduce 应用程序的执行引擎库。 |
hadoop-yarn-nodemanager | 2.8.4-amzn-1 | YARN用于管理单个节点上的容器的服务。 |
hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | YARN用于分配和管理群集资源和分布式应用程序的服务。 |
hadoop-yarn-timeline-server | 2.8.4-amzn-1 | 用于检索YARN应用程序的当前和历史信息的服务。 |
hbase-hmaster | 1.4.7 | 为负责协调区域和执行管理命令的HBase集群提供服务。 |
hbase-region-server | 1.4.7 | 为一个或多个HBase地区提供服务的服务。 |
hbase-client | 1.4.7 | HBase命令行客户端。 |
hbase-rest-server | 1.4.7 | 为其提供RESTfulHTTP终端节点的服务HBase。 |
hbase-thrift-server | 1.4.7 | 为其提供 Thrift 端点的HBase服务。 |
hcatalog-client | 2.3.3-amzn-2 | 用于操作 hcatalog-server 的“hcat”命令行客户端。 |
hcatalog-server | 2.3.3-amzn-2 | 提供服务HCatalog,为分布式应用程序提供表和存储管理层。 |
hcatalog-webhcat-server | 2.3.3-amzn-2 | HTTP端点为其提供REST接口HCatalog。 |
hive-client | 2.3.3-amzn-2 | Hive 命令行客户端。 |
hive-hbase | 2.3.3-amzn-2 | Hive-hbase 客户端。 |
hive-metastore-server | 2.3.3-amzn-2 | 用于访问 Hive 元数据仓的服务,Hive 元存储库是一个语义存储库,用于存储 Hadoop 操作的SQL元数据。 |
hive-server2 | 2.3.3-amzn-2 | 用于将 Hive 查询作为 Web 请求接受的服务。 |
hue-server | 4.2.0 | 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序 |
jupyterhub | 0.8.1 | Jupyter notebook 的多用户服务器 |
livy-server | 0.5.0-incubating | REST用于与 Apache Spark 交互的接口 |
nginx | 1.12.1 | nginx [engine x] HTTP 是一个反向代理服务器 |
mahout-client | 0.13.0 | 用于机器学习的库。 |
mxnet | 1.2.0 | 用于深度学习的灵活的、可扩展且高效的库。 |
mysql-server | 5.5.54+ | 我的SQL数据库服务器。 |
nvidia-cuda | 9.2.88 | Nvidia 驱动程序和 Cuda 工具包 |
oozie-client | 5.0.0 | Oozie 命令行客户端。 |
oozie-server | 5.0.0 | 用于接受 Oozie 工作流请求的服务。 |
opencv | 3.4.0 | 开源计算机视觉库。 |
phoenix-library | 4.14.0--1.4 HBase | 服务器和客户端的 phoenix 库 |
phoenix-query-server | 4.14.0--1.4 HBase | 一款轻量级服务器,提供JDBC对 Avatica 的访问权限以及协议缓冲区和JSON格式访问权限 API |
presto-coordinator | 0.210 | 用于在 presto-worker 之中接受查询并管理查询的服务。 |
presto-worker | 0.210 | 用于执行查询的各个部分的服务。 |
pig-client | 0.17.0 | Pig 命令行客户端。 |
r | 3.4.1 | 用于统计计算的 R 项目 |
spark-client | 2.3.2 | Spark 命令行客户端。 |
spark-history-server | 2.3.2 | 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。 |
spark-on-yarn | 2.3.2 | 的内存中执行引擎。YARN |
spark-yarn-slave | 2.3.2 | YARN从属服务器需要的 Apache Spark 库。 |
sqoop-client | 1.4.7 | Apache Sqoop 命令行客户端。 |
tensorflow | 1.9.0 | TensorFlow 用于高性能数值计算的开源软件库。 |
tez-on-yarn | 0.8.4 | tez YARN 应用程序和库。 |
webserver | 2.4.25+ | Apache HTTP 服务器。 |
zeppelin-server | 0.8.0 | 支持交互式数据分析的基于 Web 的 Notebook。 |
zookeeper-server | 3.4.12 | 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。 |
zookeeper-client | 3.4.12 | ZooKeeper 命令行客户端。 |
5.18.0 配置分类
配置分类允许您自定义应用程序。它们通常对应于应用程序的配置XML文件,例如hive-site.xml
。有关更多信息,请参阅 配置应用程序。
分类 | 描述 |
---|---|
capacity-scheduler | 更改 Hadoop 的 capacity-scheduler.xml 文件中的值。 |
container-log4j | 更改 Hadoop 的 container-log4j.prop YARN erties 文件中的值。 |
core-site | 更改 Hadoop 的 core-site.xml 文件中的值。 |
emrfs-site | 更改EMRFS设置。 |
flink-conf | 更改 flink-conf.yaml 设置。 |
flink-log4j | 更改 Flink log4j.properties 设置。 |
flink-log4j-yarn-session | 更改 Flink log4 j-yarn-session .properties 设置。 |
flink-log4j-cli | 更改 Flink log4j-cli.properties 设置。 |
hadoop-env | 更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。 |
hadoop-log4j | 更改 Hadoop 的 log4j.properties 文件中的值。 |
hadoop-ssl-server | 更改 hadoop ssl 服务器配置 |
hadoop-ssl-client | 更改 hadoop ssl 客户端配置 |
hbase | 亚马逊EMR精心策划的 Apache 设置。HBase |
hbase-env | 更改环境HBase中的值。 |
hbase-log4j | 更改 hbase-HBase log4j.properties 文件中的值。 |
hbase-metrics | 更改 hadoop-metrics2-h HBase base.properties 文件中的值。 |
hbase-policy | 更改HBase的 hbase-policy.xml 文件中的值。 |
hbase-site | 更改HBase的 hbase-site.xml 文件中的值。 |
hdfs-encryption-zones | 配置HDFS加密区域。 |
hdfs-site | 更改 hdfs-site.xml HDFS 中的值。 |
hcatalog-env | 更改环境HCatalog中的值。 |
hcatalog-server-jndi | 更改HCatalog的 jndi.properties 中的值。 |
hcatalog-server-proto-hive-site | 更改 proto-hive-site .x HCatalog ml 中的值。 |
hcatalog-webhcat-env | 更改 HCatalog W 环境ebHCat中的值。 |
hcatalog-webhcat-log4j2 | 更改 HCatalog W ebHCat 的 log4j2.properties 中的值。 |
hcatalog-webhcat-site | 更改 HCatalog W ebHCat 的 webhcat-site.xml 文件中的值。 |
hive-beeline-log4j2 | 更改 Hive 的 beeline-log4j2.properties 文件中的值。 |
hive-parquet-logging | 更改 Hive parquet-logging.properties 文件中的值。 |
hive-env | 更改 Hive 环境中的值。 |
hive-exec-log4j2 | 更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。 |
hive-llap-daemon-log4j2 | 更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。 |
hive-log4j2 | 更改 Hive 的 hive-log4j2.properties 文件中的值。 |
hive-site | 更改 Hive 的 hive-site.xml 文件中的值 |
hiveserver2-site | 更改 Hive Server2 的 hiveserver2-site.xml 文件中的值 |
hue-ini | 更改 Hue 的 ini 文件中的值 |
httpfs-env | 更改HTTPFS环境中的值。 |
httpfs-site | 更改 Hadoop 的 httpfs-site.xml 文件中的值。 |
hadoop-kms-acls | 更改 Hadoop 的 kms-acls.xml 文件中的值。 |
hadoop-kms-env | 在 Hadoop KMS 环境中更改值。 |
hadoop-kms-log4j | 更改 Hadoop 的 kms-log4j.properties 文件中的值。 |
hadoop-kms-site | 更改 Hadoop 的 kms-site.xml 文件中的值。 |
jupyter-notebook-conf | 更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。 |
jupyter-hub-conf | 更改 JupyterHubs的 jupyterhub_config.py 文件中的值。 |
jupyter-s3-conf | 配置 Jupyter notebook S3 持久性。 |
jupyter-sparkmagic-conf | 更改 Sparkmagic 的 config.json 文件中的值。 |
livy-conf | 更改 Livy 的 livy.conf 文件中的值。 |
livy-env | 更改 Livy 环境中的值。 |
livy-log4j | 更改 Livy log4j.properties 设置。 |
mapred-env | 更改 MapReduce 应用程序环境中的值。 |
mapred-site | 更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。 |
oozie-env | 更改 Oozie 的环境中的值。 |
oozie-log4j | 更改 Oozie 的 oozie-log4j.properties 文件中的值。 |
oozie-site | 更改 Oozie 的 oozie-site.xml 文件中的值。 |
phoenix-hbase-metrics | 更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。 |
phoenix-hbase-site | 更改 Phoenix 的 hbase-site.xml 文件中的值。 |
phoenix-log4j | 更改 Phoenix 的 log4j.properties 文件中的值。 |
phoenix-metrics | 更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。 |
pig-env | 更改 Pig 环境中的值。 |
pig-properties | 更改 Pig 的 pig.properties 文件中的值。 |
pig-log4j | 更改 Pig 的 log4j.properties 文件中的值。 |
presto-log | 更改 Presto 的 log.properties 文件中的值。 |
presto-config | 更改 Presto 的 config.properties 文件中的值。 |
presto-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 |
presto-env | 更改 Presto 的 presto-env.sh 文件中的值。 |
presto-node | 更改 Presto 的 node.properties 文件中的值。 |
presto-connector-blackhole | 更改 Presto 的 blackhole.properties 文件中的值。 |
presto-connector-cassandra | 更改 Presto 的 cassandra.properties 文件中的值。 |
presto-connector-hive | 更改 Presto 的 hive.properties 文件中的值。 |
presto-connector-jmx | 更改 Presto 的 jmx.properties 文件中的值。 |
presto-connector-kafka | 更改 Presto 的 kafka.properties 文件中的值。 |
presto-connector-localfile | 更改 Presto 的 localfile.properties 文件中的值。 |
presto-connector-mongodb | 更改 Presto 的 mongodb.properties 文件中的值。 |
presto-connector-mysql | 更改 Presto 的 mysql.properties 文件中的值。 |
presto-connector-postgresql | 更改 Presto 的 postgresql.properties 文件中的值。 |
presto-connector-raptor | 更改 Presto 的 raptor.properties 文件中的值。 |
presto-connector-redis | 更改 Presto 的 redis.properties 文件中的值。 |
presto-connector-redshift | 更改 Presto 的 redshift.properties 文件中的值。 |
presto-connector-tpch | 更改 Presto 的 tpch.properties 文件中的值。 |
spark | 亚马逊EMR精心策划的 Apache Spark 设置。 |
spark-defaults | 更改 Spark 的 spark-defaults.conf 文件中的值。 |
spark-env | 更改 Spark 环境中的值。 |
spark-hive-site | 更改 Spark 的 hive-site.xml 文件中的值 |
spark-log4j | 更改 Spark 的 log4j.properties 文件中的值。 |
spark-metrics | 更改 Spark 的 metrics.properties 文件中的值。 |
sqoop-env | 更改 Sqoop 的环境中的值。 |
sqoop-oraoop-site | 更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。 |
sqoop-site | 更改 Sqoop 的 sqoop-site.xml 文件中的值。 |
tez-site | 更改 Tez 的 tez-site.xml 文件中的值。 |
yarn-env | 更改YARN环境中的值。 |
yarn-site | 更改YARN的 yarn-site.xml 文件中的值。 |
zeppelin-env | 更改 Zeppelin 环境中的值。 |
zookeeper-config | 更改 ZooKeeper的 zoo.cfg 文件中的值。 |
zookeeper-log4j | 更改 ZooKeeper的 log4j.properties 文件中的值。 |