Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Amazon EMR version 4.3.0
Versions de l'application 4.3.0
Les applications suivantes sont prises en charge dans cette version : Ganglia
Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois EMR versions précédentes d'Amazon (le cas échéant).
Pour obtenir un historique complet des versions des applications pour chaque version d'AmazonEMR, consultez les rubriques suivantes :
Informations sur la version de l'application | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Kit AWS SDK pour Java | 1,1,27 | 1,1,27 | Non suivie | Non suivie | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Python | Non suivie | Non suivie | Non suivie | Non suivie | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scala | Non suivie | Non suivie | Non suivie | Non suivie | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AmazonCloudWatchAgent | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.6.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 2.7.1 | 2.6.0 | 2.6.0 | 2.6.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 3.7.1 | 3.7.1 | 3.7.1 | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0,14,0 | 0,14,0 | 0,14,0 | 0,14,0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto-Sandbox | 0.130 | 0.125 | 0.119 | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop-Sandbox | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trino (PrestoSQL) | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin-Sandbox | 0,5,5 | 0,5,5 | 0,6,0- SNAPSHOT | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper-Sandbox | - | - | - | - |
notes de publication de la version 4.3.0
Les notes de mise à jour suivantes contiennent des informations relatives à la version EMR 4.3.0 d'Amazon.
Date de parution : 19 janvier 2016
Fonctionnalités
-
Mise à niveau vers Hadoop 2.7.1
-
Mise à niveau vers Spark 1.6.0
-
Mise à niveau de Ganglia vers la version 3.7.2
-
Mise à niveau vers de Presto vers la version 0.130
Amazon EMR a apporté quelques modifications au
spark.dynamicAllocation.enabled
moment où il est défini sur true ; il est défini sur false par défaut. Lorsque ce paramètre est défini sur true, cela a un effet sur les valeurs par défaut définies par le paramètremaximizeResourceAllocation
.-
Si
spark.dynamicAllocation.enabled
est défini sur true,spark.executor.instances
n'est pas défini parmaximizeResourceAllocation
. -
Le paramètre
spark.driver.memory
est désormais configuré en fonction des types d'instances du cluster d'une manière similaire à la façon dontspark.executors.memory
est défini. Cependant, étant donné que l'application du pilote Spark peut s'exécuter sur l'instance principale ou sur l'une des instances principales (par exemple, en mode YARN client et en mode cluster, respectivement), lespark.driver.memory
paramètre est défini en fonction du type d'instance du type d'instance le plus petit entre ces deux groupes d'instances. -
Le
spark.default.parallelism
paramètre est désormais défini sur le double du nombre de CPU cœurs disponibles pour les YARN conteneurs. Dans les versions précédentes, c'était la moitié de cette valeur. -
Les calculs de la surcharge de mémoire réservée aux YARN processus Spark ont été ajustés pour être plus précis, ce qui a entraîné une légère augmentation de la quantité totale de mémoire disponible pour Spark (c'est-à-dire,
spark.executor.memory
).
-
Problèmes connus résolus depuis les versions précédentes
-
YARNl'agrégation des journaux est désormais activée par défaut.
-
Problème résolu : les journaux n'étaient pas transférés vers le compartiment de journaux Amazon S3 pour le cluster lorsque l'agrégation des YARN journaux était activée.
-
YARNles tailles de conteneur ont désormais un nouveau minimum de 32 pour tous les types de nœuds.
-
Résolution d'un problème lié à Ganglia qui entraînait des E/S de disque excessives sur le nœud primaire dans les clusters de grande taille.
-
Résolution d'un problème qui empêchait les journaux des applications d'être transmis à Amazon S3 lorsqu'un cluster s'arrêtait.
-
Correction d'un problème EMRFS CLI qui provoquait l'échec de certaines commandes.
-
Correction d'un problème lié à Zeppelin qui empêchait le chargement des dépendances dans le sous-jacent. SparkContext
-
Résolution d'un problème provoqué par une tentative de redimensionnement pour ajouter des instances.
-
Correction d'un problème dans Hive à cause duquel CREATE TABLE AS SELECT envoyait trop d'appels de liste à Amazon S3.
-
Résolution d'un problème où les grands clusters n'étaient pas provisionnés correctement lorsque Hue, Oozie et Ganglia étaient installés.
-
Résolution d'un problème dans s3-dist-cp où un code de sortie zéro était renvoyé même en cas d'échec avec une erreur.
Versions des composants 4.3.0
Les composants qu'Amazon EMR installe avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. D'autres sont propres à Amazon EMR et installés pour les processus et fonctionnalités du système. Ceux-ci commencent généralement par emr
ou aws
. Les packages d'applications Big Data de la dernière EMR version d'Amazon sont généralement les dernières versions disponibles dans la communauté. Nous mettons les publications communautaires à disposition sur Amazon EMR le plus rapidement possible.
Certains composants d'Amazon EMR diffèrent des versions communautaires. Ces composants ont une étiquette de version sous la forme
. CommunityVersion
-amzn-EmrVersion
commence à 0. Par exemple, si un composant communautaire open source nommé EmrVersion
myapp-component
avec la version 2.2 a été modifié trois fois pour être inclus dans différentes EMR versions d'Amazon, sa version de publication est répertoriée sous le nom de2.2-amzn-2
.
Composant | Version | Description |
---|---|---|
emr-ddb | 3.0.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. |
emr-goodies | 2.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. |
emr-kinesis | 3.1.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. |
emr-s3-dist-cp | 2.1.0 | Application de copie distribuée optimisée pour Amazon S3. |
emrfs | 2.3.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. |
ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. |
ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. |
ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. |
hadoop-client | 2.7.1-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». |
hadoop-hdfs-datanode | 2.7.1-amzn-0 | HDFSservice au niveau du nœud pour le stockage de blocs. |
hadoop-hdfs-library | 2.7.1-amzn-0 | HDFSclient et bibliothèque en ligne de commande |
hadoop-hdfs-namenode | 2.7.1-amzn-0 | HDFSservice de suivi des noms de fichiers et de l'emplacement des blocs. |
hadoop-httpfs-server | 2.7.1-amzn-0 | HTTPpoint de terminaison pour HDFS les opérations. |
hadoop-kms-server | 2.7.1-amzn-0 | Serveur de gestion des clés cryptographiques basé sur Hadoop. KeyProvider API |
hadoop-mapred | 2.7.1-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. |
hadoop-yarn-nodemanager | 2.7.1-amzn-0 | YARNservice de gestion des conteneurs sur un nœud individuel. |
hadoop-yarn-resourcemanager | 2.7.1-amzn-0 | YARNservice d'allocation et de gestion des ressources du cluster et des applications distribuées. |
hive-client | 1.0.0-amzn-2 | Client de ligne de commande Hive. |
hive-metastore-server | 1.0.0-amzn-2 | Service d'accès au métastore Hive, un référentiel sémantique stockant des métadonnées pour SQL les opérations sur Hadoop. |
hive-server | 1.0.0-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. |
hue-server | 3.7.1-amzn-5 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop |
mahout-client | 0.11.0 | Bibliothèque pour la technologie Machine Learning. |
mysql-server | 5.5 | Mon serveur SQL de base de données. |
oozie-client | 4.2.0 | Client de ligne de commande Oozie. |
oozie-server | 4.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. |
presto-coordinator | 0.130 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. |
presto-worker | 0.130 | Service pour exécuter les éléments d'une requête. |
pig-client | 0.14.0-amzn-0 | Client de ligne de commande Pig. |
spark-client | 1.6.0 | Clients de ligne de commande Spark. |
spark-history-server | 1.6.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. |
spark-on-yarn | 1.6.0 | Moteur d'exécution en mémoire pour. YARN |
spark-yarn-slave | 1.6.0 | Bibliothèques Apache Spark nécessaires YARN aux esclaves. |
webserver | 2,4 | HTTPserveur Apache. |
zeppelin-server | 0.5.5-incubating-amzn-1 | Portable basé sur le web qui permet l'analyse de données interactives. |
4.3.0 classifications de configuration
Les classifications de configuration vous permettent de personnaliser les applications. Ils correspondent souvent à un XML fichier de configuration de l'application, tel quehive-site.xml
. Pour plus d’informations, consultez Configuration des applications.
Classifications emr-4.3.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Classifications | Description | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | Modifiez EMRFS les paramètres. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Configurez les zones de HDFS chiffrement. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Modifiez les valeurs dans HDFS le fichier hdfs-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Modifiez les valeurs dans l'environnement Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j | Modifiez les valeurs dans le fichier hive-exec-log 4j.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j | Modifiez les valeurs dans le fichier hive-log4j.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Modifiez les valeurs dans le fichier ini de Hue | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Modifiez les valeurs dans l'HTTPFSenvironnement. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Modifiez les valeurs dans l'environnement Hadoop. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | Paramètres EMR sélectionnés par Amazon pour Apache Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Modifiez les valeurs dans l'environnement Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Modifiez les valeurs dans l'YARNenvironnement. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Modifiez les valeurs dans YARN le fichier yarn-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. |