Amazon EMR version 5.14.0 - Amazon EMR

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Amazon EMR version 5.14.0

Versions d’application 5.14.0

Les applications suivantes sont prises en charge dans cette version : Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, Tez, Zeppelin, et ZooKeeper.

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois EMR versions précédentes d'Amazon (le cas échéant).

Pour obtenir un historique complet des versions des applications pour chaque version d'AmazonEMR, consultez les rubriques suivantes :

Informations sur la version de l'application
emr-5.14.0 emr-5.13.1 emr-5.13.0 emr-5.12.3
AWS SDKpour Java 1,11,2971,11,2971,11,2971,11,267
Python 2,7, 3,42,7, 3,42,7, 3,42,7, 3,4
Scala 2,11.82,11.82,11.82,11.8
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.4.21.4.01.4.01.4.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.21.4.21.4.21.4.0
HCatalog2.3.22.3.22.3.22.3.2
Hadoop2.8.32.8.32.8.32.8.3
Hive2.3.22.3.22.3.22.3.2
Hudi - - - -
Hue4.1.04.1.04.1.04.1.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub0.8.1 - - -
Livy0,4,00,4,00,4,00,4,0
MXNet1.1.01.0.01.0.01.0.0
Mahout0.13.00.13.00.13.00.13.0
Oozie4.3.04.3.04.3.04.3.0
Phoenix4.13.04.13.04.13.04.13.0
Pig0.17.00.17.00.17.00.17.0
Presto0.1940.1940.1940.188
Spark2.3.02.3.02.3.02.2.1
Sqoop1.4.71.4.61.4.61.4.6
TensorFlow - - - -
Tez0.8.40.8.40.8.40.8.4
Trino (PrestoSQL) - - - -
Zeppelin0.7.30.7.30.7.30.7.3
ZooKeeper3.4.103.4.103.4.103.4.10

Notes de mise à jour 5.14.0

Les notes de mise à jour suivantes contiennent des informations relatives à la EMR version 5.14.0 d'Amazon. Les modifications ont été apportées à la version 5.13.0.

Date de parution initiale : 4 juin 2018

Mises à niveau
  • Mise à niveau d'Apache Flink vers la version 1.4.2

  • Mise à niveau d'Apache MXnet vers la version 1.1.0

  • Mise à niveau d'Apache Sqoop vers la version 1.4.7

Nouvelles fonctionnalités
  • JupyterHub Support ajouté. Pour de plus amples informations, veuillez consulter JupyterHub.

Modifications, améliorations et problèmes résolus
  • EMRFS

    • La userAgent chaîne des demandes adressées à Amazon S3 a été mise à jour pour contenir les informations d'utilisateur et de groupe du principal invocateur. Cela peut être utilisé avec AWS CloudTrail les journaux pour un suivi plus complet des demandes.

  • HBase

    • Inclus HBASE-20447, qui résout un problème susceptible de provoquer des problèmes de cache, en particulier dans le cas de régions divisées.

  • MXnet

    • Ajout des bibliothèques OpenCV.

  • Spark

    • Lorsque Spark écrit des fichiers Parquet sur un emplacement Amazon S3 en utilisantEMRFS, l' FileOutputCommitter algorithme a été mis à jour pour utiliser la version 2 au lieu de la version 1. Cela réduit le nombre de renommages, ce qui améliore les performances de l'application. Cette modification n'affecte pas :

      • Les applications autres que Spark.

      • Applications qui écrivent sur d'autres systèmes de fichiers, tels que HDFS (qui utilisent toujours la version 1 de FileOutputCommitter).

      • Applications utilisant d'autres formats de sortie, tels que le texte ou le csv, qui utilisent déjà l'écriture EMRFS directe.

Problèmes connus
  • JupyterHub

    • L'utilisation de classifications de configuration pour configurer JupyterHub des blocs-notes Jupyter individuels lors de la création d'un cluster n'est pas prise en charge. Modifiez manuellement le fichier jupyterhub_config.py et les fichiers jupyter_notebook_config.py pour chaque utilisateur. Pour de plus amples informations, veuillez consulter Configuration JupyterHub.

    • JupyterHub ne démarre pas sur des clusters au sein d'un sous-réseau privé, ce qui entraîne un échec du messageError: ENOENT: no such file or directory, open '/etc/jupyter/conf/server.crt' . Ce problème est dû à une erreur dans le script qui génère des certificats auto-signés. Utilisez la solution suivante pour générer des certificats auto-signés. Toutes les commandes sont exécutées lorsque vous êtes connecté au nœud primaire.

      1. Copiez le script de génération de certificat du conteneur vers le nœud primaire :

        sudo docker cp jupyterhub:/tmp/gen_self_signed_cert.sh ./
      2. Utilisez un éditeur de texte pour modifier la ligne 23 afin de changer le nom d'hôte public en nom d'hôte local, comme indiqué ci-dessous :

        local hostname=$(curl -s $EC2_METADATA_SERVICE_URI/local-hostname)
      3. Exécutez le script pour générer des certificats auto-signés :

        sudo bash ./gen_self_signed_cert.sh
      4. Déplacez les fichiers de certificat générés par le script vers le répertoire /etc/jupyter/conf/ :

        sudo mv /tmp/server.crt /tmp/server.key /etc/jupyter/conf/

      Vous pouvez vérifier que tail le jupyter.log fichier JupyterHub a redémarré et qu'il renvoie un code de réponse 200. Par exemple :

      tail -f /var/log/jupyter/jupyter.log

      Vous devriez obtenir une réponse similaire à la suivante :

      # [I 2018-06-14 18:56:51.356 JupyterHub app:1581] JupyterHub is now running at https://:9443/ # 19:01:51.359 - info: [ConfigProxy] 200 GET /api/routes
  • Après le redémarrage du nœud principal ou le redémarrage du contrôleur d'instance, les CloudWatch métriques ne seront pas collectées et la fonctionnalité de dimensionnement automatique ne sera pas disponible dans les EMR versions 5.14.0, 5.15.0 ou 5.16.0 d'Amazon. Ce problème est résolu dans Amazon EMR 5.17.0.

Versions des composants 5.14.0

Les composants qu'Amazon EMR installe avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. D'autres sont propres à Amazon EMR et sont installés pour les processus et les fonctionnalités du système. Ceux-ci commencent généralement par emr ou aws. Les packages d'applications Big Data de la dernière EMR version d'Amazon sont généralement les dernières versions disponibles dans la communauté. Nous mettons les publications communautaires à disposition sur Amazon EMR le plus rapidement possible.

Certains composants d'Amazon EMR diffèrent des versions communautaires. Ces composants ont une étiquette de version sous la forme CommunityVersion-amzn-EmrVersion. EmrVersion commence à 0. Par exemple, si un composant communautaire open source nommé myapp-component avec la version 2.2 a été modifié trois fois pour être inclus dans différentes EMR versions d'Amazon, sa version de publication est répertoriée sous le nom2.2-amzn-2.

Composant Version Description
aws-sagemaker-spark-sdk1.0.1Amazon SageMaker Spark SDK
emr-ddb4.5.0Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop.
emr-goodies2.4.0Bibliothèques proposant plus de commodités pour l'écosystème Hadoop.
emr-kinesis3.4.0Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop.
emr-s3-dist-cp2.10.0Application de copie distribuée optimisée pour Amazon S3.
emrfs2.23.0Connecteur Amazon S3 pour les applications de l'écosystème Hadoop.
flink-client1.4.2Applications et scripts client de la ligne de commande Apache Flink.
ganglia-monitor3.7.2Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia.
ganglia-metadata-collector3.7.2Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia.
ganglia-web3.7.1Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia.
hadoop-client2.8.3-amzn-1Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ».
hadoop-hdfs-datanode2.8.3-amzn-1HDFSservice au niveau du nœud pour le stockage de blocs.
hadoop-hdfs-library2.8.3-amzn-1HDFSclient et bibliothèque en ligne de commande
hadoop-hdfs-namenode2.8.3-amzn-1HDFSservice de suivi des noms de fichiers et de l'emplacement des blocs.
hadoop-httpfs-server2.8.3-amzn-1HTTPpoint de terminaison pour HDFS les opérations.
hadoop-kms-server2.8.3-amzn-1Serveur de gestion des clés cryptographiques basé sur Hadoop. KeyProvider API
hadoop-mapred2.8.3-amzn-1MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application.
hadoop-yarn-nodemanager2.8.3-amzn-1YARNservice de gestion des conteneurs sur un nœud individuel.
hadoop-yarn-resourcemanager2.8.3-amzn-1YARNservice d'allocation et de gestion des ressources du cluster et des applications distribuées.
hadoop-yarn-timeline-server2.8.3-amzn-1Service de récupération des informations actuelles et historiques pour les YARN applications.
hbase-hmaster1.4.2Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives.
hbase-region-server1.4.2Service pour desservir une ou plusieurs HBase régions.
hbase-client1.4.2HBaseclient en ligne de commande.
hbase-rest-server1.4.2Service fournissant un RESTful HTTP point de terminaison pourHBase.
hbase-thrift-server1.4.2Service fournissant un point de terminaison Thrift pour. HBase
hcatalog-client2.3.2-amzn-2Client de ligne de commande « hcat » pour la manipulation de hcatalog-server.
hcatalog-server2.3.2-amzn-2Fourniture de servicesHCatalog, table et couche de gestion du stockage pour les applications distribuées.
hcatalog-webhcat-server2.3.2-amzn-2HTTPpoint de terminaison fournissant une REST interface pourHCatalog.
hive-client2.3.2-amzn-2Client de ligne de commande Hive.
hive-hbase2.3.2-amzn-2Client Hive-hbase.
hive-metastore-server2.3.2-amzn-2Service d'accès au métastore Hive, un référentiel sémantique stockant des métadonnées pour SQL les opérations sur Hadoop.
hive-server22.3.2-amzn-2Service pour l'acceptation de requêtes Hive en tant que requêtes web.
hue-server4.1.0Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop
jupyterhub0.8.1Serveur multi-utilisateurs pour blocs-notes Jupyter
livy-server0.4.0-incubatingRESTinterface pour interagir avec Apache Spark
mahout-client0.13.0Bibliothèque pour la technologie Machine Learning.
mxnet1.1.0Bibliothèque flexible, évolutive et efficace pour le deep learning.
mysql-server5.5.54+Mon serveur SQL de base de données.
nvidia-cuda9.1.85Pilotes Nvidia et boîte à outils Cuda
oozie-client4.3.0Client de ligne de commande Oozie.
oozie-server4.3.0Service pour l'acceptation des demandes de flux de travail Oozie.
opencv3.4.0Bibliothèque open source Vision par ordinateur
phoenix-library4,13,0- -1,4 HBaseLes bibliothèques phoenix pour serveur et client
phoenix-query-server4,13,0- -1,4 HBaseUn serveur léger fournissant un JDBC accès ainsi que des tampons de protocole et un accès JSON au format à l'Avatica API
presto-coordinator0.194Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker.
presto-worker0.194Service pour exécuter les éléments d'une requête.
pig-client0.17.0Client de ligne de commande Pig.
r3.4.1Projet R pour les calculs statistiques
spark-client2.3.0Clients de ligne de commande Spark.
spark-history-server2.3.0Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée.
spark-on-yarn2.3.0Moteur d'exécution en mémoire pour. YARN
spark-yarn-slave2.3.0Bibliothèques Apache Spark nécessaires YARN aux esclaves.
sqoop-client1.4.7Client de ligne de commande Apache Sqoop.
tez-on-yarn0.8.4L'YARNapplication Tez et les bibliothèques.
webserver2.4.25+HTTPserveur Apache.
zeppelin-server0.7.3Portable basé sur le web qui permet l'analyse de données interactives.
zookeeper-server3.4.10Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe.
zookeeper-client3.4.10ZooKeeper client en ligne de commande.

Classifications des configurations 5.14.0

Les classifications de configuration vous permettent de personnaliser les applications. Ils correspondent souvent à un XML fichier de configuration de l'application, tel quehive-site.xml. Pour de plus amples informations, veuillez consulter Configuration des applications.

Classifications emr-5.14.0
Classifications Description

capacity-scheduler

Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop.

container-log4j

Modifiez les valeurs dans le fichier container-log4j.properties YARN de Hadoop.

core-site

Modifiez les valeurs dans le fichier core-site.xml de Hadoop.

emrfs-site

Modifiez EMRFS les paramètres.

flink-conf

Modifiez les paramètres flink-conf.yaml.

flink-log4j

Modifiez les paramètres log4j.properties Flink.

flink-log4j-yarn-session

Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4.

flink-log4j-cli

Modifiez les paramètres de propriétés Flink log4j-cli.

hadoop-env

Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop.

hadoop-log4j

Modifiez les valeurs dans le fichier log4j.properties de Hadoop.

hadoop-ssl-server

Modifier la configuration du serveur ssl hadoop

hadoop-ssl-client

Modifier la configuration du client ssl hadoop

hbase

Paramètres EMR sélectionnés par Amazon pour Apache. HBase

hbase-env

Changez les valeurs dans HBase l'environnement.

hbase-log4j

Modifiez les valeurs dans le fichier HBase hbase-log4j.properties.

hbase-metrics

Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties.

hbase-policy

Modifiez les valeurs dans HBase le fichier hbase-policy.xml.

hbase-site

Modifiez les valeurs dans HBase le fichier hbase-site.xml.

hdfs-encryption-zones

Configurez les zones de HDFS chiffrement.

hdfs-site

Modifiez les valeurs dans HDFS le fichier hdfs-site.xml.

hcatalog-env

Changez les valeurs dans HCatalog l'environnement.

hcatalog-server-jndi

Modifiez les valeurs dans le fichier HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml.

hcatalog-webhcat-env

Modifiez les valeurs dans ebHCat l'environnement de HCatalog W.

hcatalog-webhcat-log4j2

Modifiez les valeurs dans le fichier ebHCat log4j2.properties de HCatalog W.

hcatalog-webhcat-site

Modifiez les valeurs dans ebHCat le fichier webhcat-site.xml de HCatalog W.

hive-beeline-log4j2

Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive.

hive-parquet-logging

Modifiez les valeurs dans le fichier parquet-logging.properties de Hive.

hive-env

Modifiez les valeurs dans l'environnement Hive.

hive-exec-log4j2

Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive.

hive-llap-daemon-log4j2

Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive.

hive-log4j2

Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive.

hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Hive

hiveserver2-site

Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2

hue-ini

Modifiez les valeurs dans le fichier ini de Hue

httpfs-env

Modifiez les valeurs dans l'HTTPFSenvironnement.

httpfs-site

Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop.

hadoop-kms-acls

Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop.

hadoop-kms-env

Modifiez les valeurs dans l'environnement Hadoop. KMS

hadoop-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop.

hadoop-kms-site

Modifiez les valeurs dans le fichier kms-site.xml de Hadoop.

jupyter-notebook-conf

Modifiez les valeurs dans le fichier jupyter_notebook_config.py de Jupyter Notebook.

jupyter-hub-conf

Modifiez les valeurs dans JupyterHubs le fichier jupyterhub_config.py.

jupyter-sparkmagic-conf

Modifiez les valeurs dans le fichier config.json de Sparkmagic.

livy-conf

Modifiez les valeurs dans le fichier livy.conf de Livy.

livy-env

Modifiez les valeurs dans l'environnement Livy.

livy-log4j

Modifiez les paramètres Livy log4j.properties.

mapred-env

Modifiez les valeurs dans l'environnement de l' MapReduce application.

mapred-site

Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application.

oozie-env

Modifiez les valeurs dans l'environnement d'Oozie.

oozie-log4j

Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie.

oozie-site

Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie.

phoenix-hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix.

phoenix-hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix.

phoenix-log4j

Modifiez les valeurs dans le fichier log4j.properties de Phoenix.

phoenix-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix.

pig-env

Modifiez les valeurs dans l'environnement Pig.

pig-properties

Modifiez les valeurs dans le fichier pig.properties de Pig.

pig-log4j

Modifiez les valeurs dans le fichier log4j.properties de Pig.

presto-log

Modifiez les valeurs dans le fichier log.properties de Presto.

presto-config

Modifiez les valeurs dans le fichier config.properties de Presto.

presto-env

Modifiez les valeurs dans le fichier presto-env.sh de Presto.

presto-node

Modifiez les valeurs dans le fichier node.properties de Presto.

presto-connector-blackhole

Modifiez les valeurs dans le fichier blackhole.properties de Presto.

presto-connector-cassandra

Modifiez les valeurs dans le fichier cassandra.properties de Presto.

presto-connector-hive

Modifiez les valeurs dans le fichier hive.properties de Presto.

presto-connector-jmx

Modifiez les valeurs dans le fichier jmx.properties de Presto.

presto-connector-kafka

Modifiez les valeurs dans le fichier kafka.properties de Presto.

presto-connector-localfile

Modifiez les valeurs dans le fichier localfile.properties de Presto.

presto-connector-mongodb

Modifiez les valeurs dans le fichier mongodb.properties de Presto.

presto-connector-mysql

Modifiez les valeurs dans le fichier mysql.properties de Presto.

presto-connector-postgresql

Modifiez les valeurs dans le fichier postgresql.properties de Presto.

presto-connector-raptor

Modifiez les valeurs dans le fichier raptor.properties de Presto.

presto-connector-redis

Modifiez les valeurs dans le fichier redis.properties de Presto.

presto-connector-redshift

Modifiez les valeurs dans le fichier redshift.properties de Presto.

presto-connector-tpch

Modifiez les valeurs dans le fichier tpch.properties de Presto.

spark

Paramètres EMR sélectionnés par Amazon pour Apache Spark.

spark-defaults

Modifiez les valeurs dans le fichier spark-defaults.conf de Spark.

spark-env

Modifiez les valeurs dans l'environnement Spark.

spark-hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Spark

spark-log4j

Modifiez les valeurs dans le fichier log4j.properties de Spark.

spark-metrics

Modifiez les valeurs dans le fichier metrics.properties de Spark.

sqoop-env

Modifiez les valeurs d'environnement Sqoop.

sqoop-oraoop-site

Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop.

sqoop-site

Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop.

tez-site

Modifiez les valeurs dans le fichier tez-site.xml de Tez.

yarn-env

Modifiez les valeurs dans l'YARNenvironnement.

yarn-site

Modifiez les valeurs dans YARN le fichier yarn-site.xml.

zeppelin-env

Modifiez les valeurs dans l'environnement Zeppelin.

zookeeper-config

Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg.

zookeeper-log4j

Modifiez les valeurs dans le ZooKeeper fichier log4j.properties.