Amazon EMR version 4.7.0 - Amazon EMR

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Amazon EMR version 4.7.0

Versions de l'application 4.7.0

Les applications suivantes sont prises en charge dans cette version : Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, Mahout, Oozie-Sandbox, Phoenix, Pig, Presto-Sandbox, Spark, Sqoop-Sandbox, Tez, Zeppelin-Sandbox et ZooKeeper-Sandbox.

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois EMR versions précédentes d'Amazon (le cas échéant).

Pour obtenir un historique complet des versions des applications pour chaque version d'AmazonEMR, consultez les rubriques suivantes :

Informations sur la version de l'application
emr-4.7.0 emr-4.6.1 emr-4.6.0 emr-4.5.0
Kit AWS SDK pour Java 1,1,751,1,271,1,271,1,27
Python Non suivieNon suivieNon suivieNon suivie
Scala Non suivieNon suivieNon suivieNon suivie
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink - - - -
Ganglia3.7.23.7.23.7.23.7.2
HBase1.2.11.2.01.2.0 -
HCatalog1.0.01.0.01.0.01.0.0
Hadoop2.7.22.7.22.7.22.7.2
Hive1.0.01.0.01.0.01.0.0
Hudi - - - -
Hue3.7.13.7.13.7.13.7.1
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub - - - -
Livy - - - -
MXNet - - - -
Mahout0.12.00.11.10.11.10.11.1
Oozie - - - -
Oozie-Sandbox4.2.04.2.04.2.04.2.0
Phoenix4.7.0 - - -
Pig0,14,00,14,00,14,00,14,0
Presto - - - -
Presto-Sandbox0.1470.1430.1430.140
Spark1.6.11.6.11.6.11.6.1
Sqoop - - - -
Sqoop-Sandbox1.4.61.4.61.4.61.4.6
TensorFlow - - - -
Tez0.8.3 - - -
Trino (PrestoSQL) - - - -
Zeppelin - - - -
Zeppelin-Sandbox0,5.60,5.60,5.60,5.6
ZooKeeper - - - -
ZooKeeper-Sandbox3.4.83.4.83.4.8 -

notes de publication de la version 4.7.0

Important

Amazon EMR 4.7.0 est obsolète. Utilisez plutôt Amazon EMR 4.7.1 ou version ultérieure.

Date de parution : 2 juin 2016

Fonctionnalités
  • Ajout d'Apache Phoenix 4.7.0

  • Ajout d'Apache Tez 0.8.3

  • Mise à niveau vers la version HBase 1.2.1

  • Mise à niveau vers Mahout 0.12.0

  • Mise à niveau vers Presto 0.147

  • Mise à niveau de la AWS SDK for Java version 1.10.75

  • L'indicateur final a été supprimé de la propriété mapreduce.cluster.local.dir dans mapred-site.xml pour permettre aux utilisateurs d'exécuter Pig en mode local.

  • Les JDBC pilotes Amazon Redshift sont disponibles sur le cluster

    Les JDBC pilotes Amazon Redshift sont désormais inclus sur. /usr/share/aws/redshift/jdbc /usr/share/aws/redshift/jdbc/RedshiftJDBC41.jarest le pilote Amazon JDBC Redshift compatible 4.1 /usr/share/aws/redshift/jdbc/RedshiftJDBC4.jar et le pilote Amazon Redshift JDBC compatible 4.0. Pour plus d'informations, consultez Configurer une JDBC connexion dans le guide de gestion Amazon Redshift.

  • Java 8

    À l'exception de Presto, Open JDK 1.7 est la version par défaut JDK utilisée pour toutes les applications. Cependant, Open JDK 1.7 et 1.8 sont tous deux installés. Pour plus d'informations sur la configuration de JAVA_HOME pour les applications, consultez Configuration d'applications pour utiliser Java 8.

Problèmes connus résolus depuis les versions précédentes
  • Correction d'un problème de noyau qui affectait de manière significative les performances des EBS volumes optimisés pour le débit HDD (st1) pour Amazon EMR dans emr-4.6.0.

  • Correction d'un problème en raison duquel un cluster échouait si une zone de HDFS chiffrement était spécifiée sans choisir Hadoop comme application.

  • La politique d'HDFSécriture par défaut est passée de RoundRobin àAvailableSpaceVolumeChoosingPolicy. Certains volumes n'ont pas été correctement utilisés avec la RoundRobin configuration, ce qui a entraîné la défaillance des nœuds principaux et un manque de fiabilitéHDFS.

  • Correction d'un problème lié au EMRFSCLI, qui provoquait une exception lors de la création de la table de métadonnées DynamoDB par défaut pour des vues cohérentes.

  • Correction d'un problème de blocage EMRFS qui se produisait potentiellement lors d'opérations de renommage et de copie en plusieurs parties.

  • Correction d'un problème en EMRFS raison duquel la CopyPart taille par défaut était de 5 Mo. La valeur par défaut est maintenant correctement définie sur 128 Mo.

  • Résolution d'un problème lié à la configuration upstart dans Zeppelin qui pouvait vous empêcher potentiellement d'arrêter le service.

  • Correction d'un problème lié à Spark et Zeppelin, qui vous empêchait d'utiliser le s3a:// URI schéma car il n'/usr/lib/hadoop/hadoop-aws.jarétait pas correctement chargé dans leur chemin de classe respectif.

  • Rétroporté HUE-2484.

  • J'ai rétroporté un commit depuis Hue 3.9.0 (JIRAil n'existe pas) pour corriger un problème avec l'exemple de HBase navigateur.

  • Rétroporté HIVE-9073.

Versions des composants 4.7.0

Les composants qu'Amazon EMR installe avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. D'autres sont propres à Amazon EMR et installés pour les processus et fonctionnalités du système. Ceux-ci commencent généralement par emr ou aws. Les packages d'applications Big Data de la dernière EMR version d'Amazon sont généralement les dernières versions disponibles dans la communauté. Nous mettons les publications communautaires à disposition sur Amazon EMR le plus rapidement possible.

Certains composants d'Amazon EMR diffèrent des versions communautaires. Ces composants ont une étiquette de version sous la forme CommunityVersion-amzn-EmrVersion. EmrVersion commence à 0. Par exemple, si un composant communautaire open source nommé myapp-component avec la version 2.2 a été modifié trois fois pour être inclus dans différentes EMR versions d'Amazon, sa version de publication est répertoriée sous le nom de2.2-amzn-2.

Composant Version Description
emr-ddb3.1.0Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop.
emr-goodies2.0.0Bibliothèques proposant plus de commodités pour l'écosystème Hadoop.
emr-kinesis3.2.0Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop.
emr-s3-dist-cp2.4.0Application de copie distribuée optimisée pour Amazon S3.
emrfs2.7.1Connecteur Amazon S3 pour les applications de l'écosystème Hadoop.
ganglia-monitor3.7.2Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia.
ganglia-metadata-collector3.7.2Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia.
ganglia-web3.7.1Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia.
hadoop-client2.7.2-amzn-2Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ».
hadoop-hdfs-datanode2.7.2-amzn-2HDFSservice au niveau du nœud pour le stockage de blocs.
hadoop-hdfs-library2.7.2-amzn-2HDFSclient et bibliothèque en ligne de commande
hadoop-hdfs-namenode2.7.2-amzn-2HDFSservice de suivi des noms de fichiers et de l'emplacement des blocs.
hadoop-httpfs-server2.7.2-amzn-2HTTPpoint de terminaison pour HDFS les opérations.
hadoop-kms-server2.7.2-amzn-2Serveur de gestion des clés cryptographiques basé sur Hadoop. KeyProvider API
hadoop-mapred2.7.2-amzn-2MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application.
hadoop-yarn-nodemanager2.7.2-amzn-2YARNservice de gestion des conteneurs sur un nœud individuel.
hadoop-yarn-resourcemanager2.7.2-amzn-2YARNservice d'allocation et de gestion des ressources du cluster et des applications distribuées.
hadoop-yarn-timeline-server2.7.2-amzn-2Service de récupération des informations actuelles et historiques pour les YARN applications.
hbase-hmaster1.2.1Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives.
hbase-region-server1.2.1Service destiné à desservir une ou plusieurs HBase régions.
hbase-client1.2.1HBaseclient en ligne de commande.
hbase-rest-server1.2.1Service fournissant un RESTful HTTP point de terminaison pourHBase.
hbase-thrift-server1.2.1Service fournissant un point de terminaison Thrift pour. HBase
hcatalog-client1.0.0-amzn-5Client de ligne de commande « hcat » pour la manipulation de hcatalog-server.
hcatalog-server1.0.0-amzn-5Fourniture de servicesHCatalog, table et couche de gestion du stockage pour les applications distribuées.
hcatalog-webhcat-server1.0.0-amzn-5HTTPpoint de terminaison fournissant une REST interface pourHCatalog.
hive-client1.0.0-amzn-5Client de ligne de commande Hive.
hive-metastore-server1.0.0-amzn-5Service d'accès au métastore Hive, un référentiel sémantique stockant des métadonnées pour SQL les opérations sur Hadoop.
hive-server1.0.0-amzn-5Service pour l'acceptation de requêtes Hive en tant que requêtes web.
hue-server3.7.1-amzn-7Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop
mahout-client0.12.0Bibliothèque pour la technologie Machine Learning.
mysql-server5.5.46Mon serveur SQL de base de données.
oozie-client4.2.0Client de ligne de commande Oozie.
oozie-server4.2.0Service pour l'acceptation des demandes de flux de travail Oozie.
phoenix-library4,7,0- -1,2 HBaseLes bibliothèques phoenix pour serveur et client
phoenix-query-server4,7,0- -1,2 HBaseUn serveur léger fournissant un JDBC accès ainsi que des tampons de protocole et un accès JSON au format à l'Avatica API
presto-coordinator0.147Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker.
presto-worker0.147Service pour exécuter les éléments d'une requête.
pig-client0.14.0-amzn-0Client de ligne de commande Pig.
spark-client1.6.1Clients de ligne de commande Spark.
spark-history-server1.6.1Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée.
spark-on-yarn1.6.1Moteur d'exécution en mémoire pour. YARN
spark-yarn-slave1.6.1Bibliothèques Apache Spark nécessaires YARN aux esclaves.
sqoop-client1.4.6Client de ligne de commande Apache Sqoop.
tez-on-yarn0.8.3L'YARNapplication Tez et les bibliothèques.
webserver2.4.18HTTPserveur Apache.
zeppelin-server0.5.6-incubatingPortable basé sur le web qui permet l'analyse de données interactives.
zookeeper-server3.4.8Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe.
zookeeper-client3.4.8ZooKeeper client en ligne de commande.

4.7.0 classifications de configuration

Les classifications de configuration vous permettent de personnaliser les applications. Ils correspondent souvent à un XML fichier de configuration de l'application, tel quehive-site.xml. Pour plus d’informations, consultez Configuration des applications.

Classifications emr-4.7.0
Classifications Description

capacity-scheduler

Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop.

core-site

Modifiez les valeurs dans le fichier core-site.xml de Hadoop.

emrfs-site

Modifiez EMRFS les paramètres.

hadoop-env

Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop.

hadoop-log4j

Modifiez les valeurs dans le fichier log4j.properties de Hadoop.

hbase-env

Changez les valeurs dans HBase l'environnement.

hbase-log4j

Modifiez les valeurs dans le fichier HBase hbase-log4j.properties.

hbase-metrics

Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbaase.properties.

hbase-policy

Modifiez les valeurs dans HBase le fichier hbase-policy.xml.

hbase-site

Modifiez les valeurs dans HBase le fichier hbase-site.xml.

hdfs-encryption-zones

Configurez les zones de HDFS chiffrement.

hdfs-site

Modifiez les valeurs dans HDFS le fichier hdfs-site.xml.

hcatalog-env

Changez les valeurs dans HCatalog l'environnement.

hcatalog-server-jndi

Modifiez les valeurs dans le fichier HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml.

hcatalog-webhcat-env

Modifiez les valeurs dans ebHCat l'environnement de HCatalog W.

hcatalog-webhcat-log4j

Modifiez les valeurs dans ebHCat log4j.properties de HCatalog W.

hcatalog-webhcat-site

Modifiez les valeurs dans ebHCat le fichier webhcat-site.xml de HCatalog W.

hive-env

Modifiez les valeurs dans l'environnement Hive.

hive-exec-log4j

Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive.

hive-log4j

Modifiez les valeurs dans le fichier hive-log4j.properties de Hive.

hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Hive

hue-ini

Modifiez les valeurs dans le fichier ini de Hue

httpfs-env

Modifiez les valeurs dans l'HTTPFSenvironnement.

httpfs-site

Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop.

hadoop-kms-acls

Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop.

hadoop-kms-env

Modifiez les valeurs dans l'environnement Hadoop. KMS

hadoop-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop.

hadoop-kms-site

Modifiez les valeurs dans le fichier kms-site.xml de Hadoop.

mapred-env

Modifiez les valeurs dans l'environnement de l' MapReduce application.

mapred-site

Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application.

oozie-env

Modifiez les valeurs dans l'environnement d'Oozie.

oozie-log4j

Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie.

oozie-site

Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie.

phoenix-hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix.

phoenix-hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix.

phoenix-log4j

Modifiez les valeurs dans le fichier log4j.properties de Phoenix.

phoenix-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix.

pig-properties

Modifiez les valeurs dans le fichier pig.properties de Pig.

pig-log4j

Modifiez les valeurs dans le fichier log4j.properties de Pig.

presto-log

Modifiez les valeurs dans le fichier log.properties de Presto.

presto-config

Modifiez les valeurs dans le fichier config.properties de Presto.

presto-connector-hive

Modifiez les valeurs dans le fichier hive.properties de Presto.

spark

Paramètres EMR sélectionnés par Amazon pour Apache Spark.

spark-defaults

Modifiez les valeurs dans le fichier spark-defaults.conf de Spark.

spark-env

Modifiez les valeurs dans l'environnement Spark.

spark-log4j

Modifiez les valeurs dans le fichier log4j.properties de Spark.

spark-metrics

Modifiez les valeurs dans le fichier metrics.properties de Spark.

sqoop-env

Modifiez les valeurs d'environnement Sqoop.

sqoop-oraoop-site

Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop.

sqoop-site

Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop.

tez-site

Modifiez les valeurs dans le fichier tez-site.xml de Tez.

yarn-env

Modifiez les valeurs dans l'YARNenvironnement.

yarn-site

Modifiez les valeurs dans YARN le fichier yarn-site.xml.

zeppelin-env

Modifiez les valeurs dans l'environnement Zeppelin.

zookeeper-config

Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg.

zookeeper-log4j

Modifiez les valeurs dans le ZooKeeper fichier log4j.properties.