Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Amazon EMR version 5.10.0
Versions d’application 5.10.0
Les applications suivantes sont prises en charge dans cette version : Flink
Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois EMR versions précédentes d'Amazon (le cas échéant).
Pour obtenir un historique complet des versions des applications pour chaque version d'AmazonEMR, consultez les rubriques suivantes :
emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | |
---|---|---|---|---|
AWS SDKpour Java | 1,11,221 | 1,11,1183 | 1,11,1183 | 1,1,1160 |
Python | 2,7, 3,4 | Non suivie | Non suivie | Non suivie |
Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 |
HCatalog | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 |
Hadoop | 2.7.3 | 2.7.3 | 2.7.3 | 2.7.3 |
Hive | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 |
Hudi | - | - | - | - |
Hue | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | - | - | - | - |
Livy | 0,4,0 | 0,4,0 | 0,4,0 | - |
MXNet | 0.12.0 | - | - | - |
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 |
Phoenix | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0,16,0 |
Presto | 0.187 | 0.184 | 0.184 | 0.170 |
Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 |
Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 |
TensorFlow | - | - | - | - |
Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 |
Trino (PrestoSQL) | - | - | - | - |
Zeppelin | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 |
ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 |
Notes de mise à jour 5.10.0
Les notes de mise à jour suivantes contiennent des informations relatives à la EMR version 5.10.0 d'Amazon. Les modifications concernent la EMR version 5.9.0 d'Amazon.
Mises à niveau
AWS SDK for Java 1,11,221
Hive 2.3.1
Presto 0.187
Nouvelles fonctionnalités
Ajout de la prise en charge de l'authentification Kerberos. Pour plus d'informations, consultez Utiliser l'authentification Kerberos dans le guide de gestion Amazon EMR
Ajout de la prise en charge IAM des rôles pourEMRFS. Pour plus d'informations, consultez Configurer IAM les rôles pour les EMRFS demandes adressées à Amazon S3 dans le guide EMR de gestion Amazon
Ajout de la prise en charge GPU des types d'instances basés sur P2 et P3. Pour plus d'informations, consultez les sections Instances Amazon EC2 P2 et Instances
Amazon EC2 P3 . NVIDIAle pilote 384.81 et CUDA le pilote 9.0.176 sont installés par défaut sur ces types d'instances. Ajout de la prise en charge de Apache MXNet.
Modifications, améliorations et problèmes résolus
Presto
Ajout de la prise en charge de l'utilisation du catalogue de données AWS Glue comme métastore Hive par défaut. Pour plus d'informations, consultez la section Utilisation de Presto avec le catalogue de données AWS Glue.
Ajout de la prise en charge des fonctions géospatiales
. Ajout de la prise en charge du déversement sur le disque
pour les jointures. Ajout de la prise en charge du connecteur Redshift
.
Spark
Rétroporté SPARK-20640
, ce qui rend le délai d'expiration du RPC et les nouvelles tentatives d'enregistrement aléatoire configurables à l'aide des propriétés et des propriétés. spark.shuffle.registration.timeout
spark.shuffle.registration.maxAttempts
Rétroporté SPARK-21549
, qui corrige une erreur survenue lors de l'écriture personnalisée dans des emplacements non OutputFormat localisés. HDFS
Rétroportage de Hadoop-13270
Les bibliothèques Numpy, Scipy et Matplotlib ont été supprimées de la base Amazon. EMR AMI Si vous avez besoin de ces bibliothèques pour votre application, elles sont disponibles dans le référentiel d'applications. Vous pouvez utiliser une action d'amorçage pour les installer sur tous les nœuds à l'aide de
yum install
.La EMR base Amazon AMI ne contient plus de RPM packages d'applications, de sorte que les RPM packages ne sont plus présents sur les nœuds du cluster. Custom AMIs et la EMR base Amazon AMI font désormais référence au référentiel de RPM packages dans Amazon S3.
En raison de l'introduction de la facturation à la seconde sur AmazonEC2, le comportement de réduction par défaut est désormais de terminer la tâche à la fin de la tâche plutôt que de terminer à l'heure de l'instance. Pour plus d'informations, consultez Configuration de la diminution de la capacité des clusters.
Problèmes connus
MXNetn'inclut pas les bibliothèques OpenCV.
Hive 2.3.1 définit
hive.compute.query.using.stats=true
par défaut. Cela entraîne des requêtes pour obtenir des données à partir de statistiques existantes plutôt que directement à partir des données, ce qui peut être déroutant. Par exemple, si vous avez une table avechive.compute.query.using.stats=true
et que vous téléchargez de nouveaux fichiers vers la tableLOCATION
, l'exécution d'une demandeSELECT COUNT(*)
sur la table renvoie le nombre des statistiques, plutôt que de récupérer les lignes ajoutées.Pour contourner ce problème, utilisez la commande
ANALYZE TABLE
pour collecter de nouvelles statistiques, ou définissezhive.compute.query.using.stats=false
. Pour en savoir plus, consultez Statistiques dans Hivedans la documentation Apache Hive.
Versions des composants 5.10.0
Les composants qu'Amazon EMR installe avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. D'autres sont propres à Amazon EMR et sont installés pour les processus et les fonctionnalités du système. Ceux-ci commencent généralement par emr
ou aws
. Les packages d'applications Big Data de la dernière EMR version d'Amazon sont généralement les dernières versions disponibles dans la communauté. Nous mettons les publications communautaires à disposition sur Amazon EMR le plus rapidement possible.
Certains composants d'Amazon EMR diffèrent des versions communautaires. Ces composants ont une étiquette de version sous la forme
. CommunityVersion
-amzn-EmrVersion
commence à 0. Par exemple, si un composant communautaire open source nommé EmrVersion
myapp-component
avec la version 2.2 a été modifié trois fois pour être inclus dans différentes EMR versions d'Amazon, sa version de publication est répertoriée sous le nom2.2-amzn-2
.
Composant | Version | Description |
---|---|---|
emr-ddb | 4.5.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. |
emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. |
emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. |
emr-s3-dist-cp | 2.7.0 | Application de copie distribuée optimisée pour Amazon S3. |
emrfs | 2.20.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. |
flink-client | 1.3.2 | Applications et scripts client de la ligne de commande Apache Flink. |
ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. |
ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. |
ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. |
hadoop-client | 2.7.3-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». |
hadoop-hdfs-datanode | 2.7.3-amzn-5 | HDFSservice au niveau du nœud pour le stockage de blocs. |
hadoop-hdfs-library | 2.7.3-amzn-5 | HDFSclient et bibliothèque en ligne de commande |
hadoop-hdfs-namenode | 2.7.3-amzn-5 | HDFSservice de suivi des noms de fichiers et de l'emplacement des blocs. |
hadoop-httpfs-server | 2.7.3-amzn-5 | HTTPpoint de terminaison pour HDFS les opérations. |
hadoop-kms-server | 2.7.3-amzn-5 | Serveur de gestion des clés cryptographiques basé sur Hadoop. KeyProvider API |
hadoop-mapred | 2.7.3-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. |
hadoop-yarn-nodemanager | 2.7.3-amzn-5 | YARNservice de gestion des conteneurs sur un nœud individuel. |
hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | YARNservice d'allocation et de gestion des ressources du cluster et des applications distribuées. |
hadoop-yarn-timeline-server | 2.7.3-amzn-5 | Service de récupération des informations actuelles et historiques pour les YARN applications. |
hbase-hmaster | 1.3.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. |
hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs HBase régions. |
hbase-client | 1.3.1 | HBaseclient en ligne de commande. |
hbase-rest-server | 1.3.1 | Service fournissant un RESTful HTTP point de terminaison pourHBase. |
hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift pour. HBase |
hcatalog-client | 2.3.1-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. |
hcatalog-server | 2.3.1-amzn-0 | Fourniture de servicesHCatalog, table et couche de gestion du stockage pour les applications distribuées. |
hcatalog-webhcat-server | 2.3.1-amzn-0 | HTTPpoint de terminaison fournissant une REST interface pourHCatalog. |
hive-client | 2.3.1-amzn-0 | Client de ligne de commande Hive. |
hive-hbase | 2.3.1-amzn-0 | Client Hive-hbase. |
hive-metastore-server | 2.3.1-amzn-0 | Service d'accès au métastore Hive, un référentiel sémantique stockant des métadonnées pour SQL les opérations sur Hadoop. |
hive-server2 | 2.3.1-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. |
hue-server | 4.0.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop |
livy-server | 0.4.0-incubating | RESTinterface pour interagir avec Apache Spark |
mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. |
mxnet | 0.12.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. |
mysql-server | 5.5.54+ | Mon serveur SQL de base de données. |
nvidia-cuda | 9.0.176 | Pilotes Nvidia et boîte à outils Cuda |
oozie-client | 4.3.0 | Client de ligne de commande Oozie. |
oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. |
phoenix-library | 4,11,0- -1,3 HBase | Les bibliothèques phoenix pour serveur et client |
phoenix-query-server | 4,11,0- -1,3 HBase | Un serveur léger fournissant un JDBC accès ainsi que des tampons de protocole et un accès JSON au format à l'Avatica API |
presto-coordinator | 0.187 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. |
presto-worker | 0.187 | Service pour exécuter les éléments d'une requête. |
pig-client | 0.17.0 | Client de ligne de commande Pig. |
spark-client | 2.2.0 | Clients de ligne de commande Spark. |
spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. |
spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour. YARN |
spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark nécessaires YARN aux esclaves. |
sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. |
tez-on-yarn | 0.8.4 | L'YARNapplication Tez et les bibliothèques. |
webserver | 2.4.25+ | HTTPserveur Apache. |
zeppelin-server | 0.7.3 | Portable basé sur le web qui permet l'analyse de données interactives. |
zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. |
zookeeper-client | 3.4.10 | ZooKeeper client en ligne de commande. |
Classifications des configurations 5.10.0
Les classifications de configuration vous permettent de personnaliser les applications. Ils correspondent souvent à un XML fichier de configuration de l'application, tel quehive-site.xml
. Pour de plus amples informations, veuillez consulter Configuration des applications.
Classifications | Description |
---|---|
capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. |
core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. |
emrfs-site | Modifiez EMRFS les paramètres. |
flink-conf | Modifiez les paramètres flink-conf.yaml. |
flink-log4j | Modifiez les paramètres log4j.properties Flink. |
flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. |
flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. |
hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. |
hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. |
hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop |
hadoop-ssl-client | Modifier la configuration du client ssl hadoop |
hbase | Paramètres EMR sélectionnés par Amazon pour Apache. HBase |
hbase-env | Changez les valeurs dans HBase l'environnement. |
hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. |
hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. |
hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. |
hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. |
hdfs-encryption-zones | Configurez les zones de HDFS chiffrement. |
hdfs-site | Modifiez les valeurs dans HDFS le fichier hdfs-site.xml. |
hcatalog-env | Changez les valeurs dans HCatalog l'environnement. |
hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. |
hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. |
hcatalog-webhcat-env | Modifiez les valeurs dans ebHCat l'environnement de HCatalog W. |
hcatalog-webhcat-log4j2 | Modifiez les valeurs dans le fichier ebHCat log4j2.properties de HCatalog W. |
hcatalog-webhcat-site | Modifiez les valeurs dans ebHCat le fichier webhcat-site.xml de HCatalog W. |
hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. |
hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. |
hive-env | Modifiez les valeurs dans l'environnement Hive. |
hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. |
hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. |
hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. |
hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive |
hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 |
hue-ini | Modifiez les valeurs dans le fichier ini de Hue |
httpfs-env | Modifiez les valeurs dans l'HTTPFSenvironnement. |
httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. |
hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. |
hadoop-kms-env | Modifiez les valeurs dans l'environnement Hadoop. KMS |
hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. |
hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. |
livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. |
livy-env | Modifiez les valeurs dans l'environnement Livy. |
livy-log4j | Modifiez les paramètres Livy log4j.properties. |
mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. |
mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. |
oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. |
oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. |
oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. |
phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. |
phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. |
phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. |
phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. |
pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. |
pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. |
presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. |
presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. |
presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. |
presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. |
presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. |
presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. |
presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. |
presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. |
presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. |
presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. |
presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. |
presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. |
presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. |
presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. |
presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. |
presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. |
spark | Paramètres EMR sélectionnés par Amazon pour Apache Spark. |
spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. |
spark-env | Modifiez les valeurs dans l'environnement Spark. |
spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark |
spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. |
spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. |
sqoop-env | Modifiez les valeurs d'environnement Sqoop. |
sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. |
sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. |
tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. |
yarn-env | Modifiez les valeurs dans l'YARNenvironnement. |
yarn-site | Modifiez les valeurs dans YARN le fichier yarn-site.xml. |
zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. |
zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. |
zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. |