Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Amazon EMR version 6.3.0
Versions d’application 6.3.0
Les applications suivantes sont prises en charge dans cette version : Flink
Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois EMR versions précédentes d'Amazon (le cas échéant).
Pour obtenir un historique complet des versions des applications pour chaque version d'AmazonEMR, consultez les rubriques suivantes :
emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | |
---|---|---|---|---|
AWS SDKpour Java | 1,1,977 | 1,1880 | 1,1880 | 1,1,828 |
Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 |
Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.6 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 |
Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | - |
JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 |
Livy | 0.7.0 | 0.7.0 | 0.7.0 | 0.7.0 |
MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0,245,1 | 0,238,3 | 0,238,3 | 0.232 |
Spark | 3.1.1 | 3.0.1 | 3.0.1 | 3.0.0 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | 350 | 343 | 343 | 338 |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Notes de mise à jour 6.3.0
Les notes de mise à jour suivantes contiennent des informations relatives à la EMR version 6.3.0 d'Amazon. Les modifications ont été apportées à la version 6.2.0.
Date de parution initiale : 12 mai 2021
Dernière mise à jour : 9 août 2021
Applications prises en charge
AWS SDK for Java version 1.11.977
CloudWatch Version 2.1.0 de l'évier
Connecteur DynamoDB version 4.16.0
EMRFSversion 2.46.0
Amazon EMR Goodies version 3.2.0
Connecteur Amazon EMR Kinesis version 3.5.0
Amazon EMR Record Server version 2.0.0
Amazon EMR Scripts version 2.5.0
Flink version 1.12.1
Ganglia version 3.7.2
AWS Client Glue Hive Metastore version 3.2.0
Hadoop version 3.2.1-amzn-3
HBaseversion 2.2.6-amzn-1
HBase-operator-tools 1.0.0
HCatalogversion 3.1.2-amzn-0
Hive version 3.1.2-amzn-4
Hudi version 0.7.0-amzn-0
Hue version 4.9.0
JDKVersion Java Corretto-8.282.08.1 (version 1.8.0_282-b08)
JupyterHub version 1.2.0
Livy version 0.7.0-incubating
MXNetversion 1.7.0
Oozie version 5.2.1
Phoenix version 5.0.0
Pig version 0.17.0
Presto version 0.245.1-amzn-0
Presto SQL version 350
Apache Ranger KMS (chiffrement transparent multi-maîtres) version 2.0.0
ranger-plugins 2.0.1-amzn-0
ranger-s3-plugin 1.1.0
SageMaker SDKVersion 1.4.1 de Spark
Scala version 2.12.10 (machine virtuelle de serveur ouverte JDK 64 bits, Java 1.8.0_282)
Spark version 3.1.1-amzn-0
spark-rapids 0.4.1
Sqoop version 1.4.7
TensorFlow version 2.4.1
tez version 0.9.2
Zeppelin version 0.9.0
Zookeeper version 3.4.14
Connecteurs et pilotes : Connecteur DynamoDB 4.16.0
Nouvelles fonctionnalités
Amazon EMR prend en charge les points d'accès Amazon S3, une fonctionnalité d'Amazon S3 qui vous permet de gérer facilement l'accès aux lacs de données partagés. En utilisant votre alias Amazon S3 Access Point, vous pouvez simplifier l'accès aux données à grande échelle sur AmazonEMR. Vous pouvez utiliser les points d'accès Amazon S3 avec toutes les versions d'Amazon EMR sans frais supplémentaires dans toutes les AWS régions où Amazon EMR est disponible. Pour en savoir plus sur les points d'accès Amazon S3 et les alias de points d'accès, consultez Utilisation d'un alias de type compartiment pour votre point d'accès dans le Guide de l'utilisateur Amazon S3.
Les nouveaux
DescribeReleaseLabel
ListReleaseLabel
API paramètres fournissent des informations sur les étiquettes EMR de sortie d'Amazon. Vous pouvez répertorier par programmation les versions disponibles dans la région où la API demande est exécutée et répertorier les applications disponibles pour une étiquette de EMR version Amazon spécifique. Les paramètres des étiquettes de version répertorient également les EMR versions d'Amazon qui prennent en charge une application spécifique, telle que Spark. Ces informations peuvent être utilisées pour lancer des clusters Amazon EMR par programmation. Par exemple, vous pouvez lancer un cluster à l'aide de la dernière version des résultats deListReleaseLabel
. Pour plus d'informations, consultez DescribeReleaseLabelet consultez ListReleaseLabelsle Amazon EMR API Reference.Avec Amazon EMR 6.3.0, vous pouvez lancer un cluster qui s'intègre nativement à Apache Ranger. Apache Ranger est un cadre open source permettant d'activer, de surveiller et de gérer la sécurité globale des données sur la plateforme Hadoop. Pour plus d'informations, consultez Apache Ranger
. Grâce à l'intégration native, vous pouvez utiliser votre propre Apache Ranger pour appliquer un contrôle précis de l'accès aux données sur Amazon. EMR Consultez la section Intégrer Amazon EMR à Apache Ranger dans le guide EMR de gestion Amazon. Politiques gérées délimitées : pour s'aligner sur les AWS meilleures pratiques, Amazon EMR a introduit des politiques gérées par défaut EMR définies dans la version v2 en remplacement des politiques qui seront déconseillées. Consultez les politiques EMR gérées par Amazon.
État du support du service de métadonnées d'instance (IMDS) V2 : pour Amazon EMR 6.2 ou version ultérieure, les EMR composants Amazon sont utilisés IMDSv2 pour tous les IMDS appels. Pour les IMDS appels dans le code de votre application, vous pouvez utiliser les deux IMDSv1 etIMDSv2, ou les configurer IMDS pour les utiliser uniquement IMDSv2 pour renforcer la sécurité. Si vous la désactivez IMDSv1 dans les versions antérieures d'Amazon EMR 6.x, cela entraîne un échec du démarrage du cluster.
Modifications, améliorations et problèmes résolus
-
Il s'agit d'une version destinée à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'il ne parvient pas à augmenter ou à réduire la taille d'un cluster ou entraîne des défaillances d'applications.
Correction d'un problème en raison duquel les demandes de dimensionnement échouaient pour un cluster volumineux et très utilisé lorsque des EMR démons Amazon présents sur le cluster exécutaient des activités de vérification de l'état, telles que la collecte de l'état du nœud et HDFS de l'état du YARN nœud. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état de santé d'un nœud aux composants internes d'Amazon. EMR
Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de dimensionnement.
SPARK-29683
. Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus. YARN-9011
. Correction d'un problème en raison duquel des échecs de tâches se produisaient en raison d'une situation de course lors de la YARN mise hors service lorsque le cluster tentait d'augmenter ou de réduire son échelle. Résolution d'un problème lié aux échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en garantissant que les états des nœuds sont toujours cohérents entre les EMR démons Amazon du cluster et/. YARN HDFS
Correction d'un problème en raison duquel les opérations de cluster telles que la réduction et la soumission par étapes échouaient pour les EMR clusters Amazon activés avec l'authentification Kerberos. Cela est dû au fait que le démon Amazon EMR on-cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité HDFS YARN avec/exécuté sur le nœud principal.
Les nouvelles EMR versions d'Amazon résolvent le problème en abaissant la limite maximale de fichiers ouverts sur les anciennes versions AL2 d'AmazonEMR. EMRLes versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
La valeur par défaut du mode d'explication de l'SQLinterface utilisateur de Spark
extended
est passée de àformatted
dans Spark 3.1. Amazon l'EMRa rétabli extended
pour inclure les informations du plan logique dans l'SQLinterface utilisateur de Spark. Ceci peut être inversé en définissantspark.sql.ui.explainMode
surformatted
.-
Les commits suivants ont été rétroportés depuis la branche master de Spark.
- [SPARK-34752] [BUILD] Passez
Jetty au 9.4.37 à l'adresse -2020-27223. CVE - [SPARK-34534]
Corrige l' blockIds ordre lors de l'utilisation FetchShuffleBlocks pour récupérer des blocs. - [SPARK-34681] [SQL]
Correction d'un bogue concernant la jointure par hachage externe complète lors de la construction du côté gauche avec des conditions inégales. - [SPARK-34497] [SQL]
Corrigez les fournisseurs de JDBC connexion intégrés pour rétablir les modifications du contexte de JVM sécurité. Pour améliorer l'interopérabilité avec le RAPIDs plugin Nvidia Spark, une solution de contournement a été ajoutée pour résoudre un problème empêchant le déclenchement de l'élagage dynamique des partitions lors de l'utilisation de Nvidia Spark RAPIDs avec l'exécution adaptative des requêtes désactivée, voir les RAPIDSproblèmes #1378
et # RAPIDS #1386. Pour plus de détails sur la nouvelle configuration spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse
, consultez le RAPIDSnuméro #1386.L'algorithme par défaut du validateur de sortie de fichier a été modifié de l'algorithme v2 à l'algorithme v1 dans Spark 3.1 open source. Pour plus d'informations, consultez cet article Amazon EMR optimisant les performances de Spark : élagage dynamique des partitions
. Amazon EMR est revenu à l'algorithme v2, l'algorithme par défaut utilisé dans les versions précédentes d'Amazon EMR 6.x, pour empêcher la régression des performances. Pour rétablir le comportement de Spark 3.1 open source, définissez
spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version
sur1
. Le Spark open source a apporté cette modification parce que la validation des tâches dans l'algorithme v2 du validateur de sortie de fichier n'est pas atomique, ce qui peut entraîner un problème d'exactitude des données de sortie dans certains cas. Cependant, la validation des tâches dans l'algorithme v1 n'est pas non plus atomique. Dans certains scénarios, la validation des tâches comprend une suppression effectuée avant un changement de nom. Cela peut entraîner un problème silencieux d'exactitude des données.Les problèmes de Managed Scaling rencontrés dans les EMR versions précédentes d'Amazon ont été corrigés et des améliorations ont été apportées afin de réduire de manière significative les taux d'échec des applications.
Le AWS Java SDK Bundle a été installé sur chaque nouveau cluster. Il s'agit d'un fichier jar unique contenant tous les services SDKs et leurs dépendances, au lieu de fichiers jar de composants individuels. Pour plus d'informations, consultez Java SDK Bundled Dependency
.
Problèmes connus
Pour les clusters de sous-réseaux privés Amazon EMR 6.3.0 et 6.2.0, vous ne pouvez pas accéder à l'interface utilisateur Web de Ganglia. Vous recevrez un message d'erreur « accès refusé (403) ». D'autres sites WebUIs, tels que Spark, Hue JupyterHub, Zeppelin, Livy et Tez, fonctionnent normalement. L'accès à l'interface utilisateur Web de Ganglia sur les clusters de sous-réseaux publics fonctionne également normalement. Pour résoudre ce problème, redémarrez le service httpd sur le nœud primaire avec
sudo systemctl restart httpd
. Ce problème est résolu dans Amazon EMR 6.4.0.Lorsque AWS Glue Data Catalog est activé, l'utilisation de Spark pour accéder à une base de données AWS Glue avec un emplacement de chaîne nul URI peut échouer. Cela se produit pour les EMR versions antérieures d'Amazon, mais SPARK -31709 (https://issues.apache. org/jira/browse/SPARK-31709) le rend applicable à un plus grand nombre de cas. Par exemple, lors de la création d'une table dans la base de données AWS Glue par défaut dont l'emplacement URI est une chaîne nulle, le message « Impossible de créer un chemin à partir d'une chaîne vide »
spark.sql("CREATE TABLE mytest (key string) location '/table_path';")
échoue. Pour contourner ce problème, définissez manuellement l'emplacement URI de vos bases de données AWS Glue, puis créez des tables dans ces bases de données à l'aide de Spark.Dans Amazon EMR 6.3.0, Presto SQL est passé de la version 343 à la version 350. Il y a deux changements liés à la sécurité de l'open source qui se rapportent à ce changement de version. Le contrôle d'accès au catalogue basé sur les fichiers passe de
deny
àallow
lorsque les règles de propriété de table, de schéma ou de session ne sont pas définies. De même, le contrôle d'accès au système basé sur les fichiers est modifié pour prendre en charge les fichiers sans règles de catalogue définies. Dans ce cas, tous les accès aux catalogues sont autorisés.Pour plus d'informations, consultez Version 344 (9 octobre 2020)
. Notez que le répertoire utilisateur Hadoop (/) home/hadoop) is readable by everyone. It has Unix 755 (drwxr-xr-x) directory permissions to allow read access by frameworks like Hive. You can put files in /home/hadoop et ses sous-répertoires, mais soyez conscient des autorisations associées à ces répertoires afin de protéger les informations sensibles.
-
Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions]. EMRLes versions Amazon : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions de Linux ofAmazon 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon sont créés avec la valeur par AL2 défaut. EMR AMI EMRLes versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, le paramètre ulimit EMR par défaut d'Amazon AMI est de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 sous Linux 2. latestAmazon AMI Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action bootstrap (BA) qui ajuste le paramètre ulimit lors de la création du cluster.
Si vous utilisez une ancienne EMR version d'Amazon qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement l'ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.
Définir explicitement un ulimit à partir de la ligne de commande
Modifiez
/etc/systemd/system/instance-controller.service
pour ajouter les paramètres suivants à la section Service.LimitNOFILE=65536
LimitNPROC=65536
Redémarrer InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Définissez un ulimit à l'aide de l'action d'amorçage (BA)
Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
Important
EMRles clusters qui exécutent Amazon Linux ou Amazon Linux 2 Amazon Machine Images (AMIs) utilisent le comportement par défaut d'Amazon Linux et ne téléchargent ni n'installent automatiquement les mises à jour importantes et critiques du noyau nécessitant un redémarrage. Ce comportement est identique à celui des autres EC2 instances Amazon qui exécutent Amazon Linux par défautAMI. Si de nouvelles mises à jour logicielles Amazon Linux nécessitant un redémarrage (telles que le noyau et les CUDA mises à jour) sont disponibles après la EMR sortie d'une version d'Amazon, les instances de EMR cluster qui exécutent la version par défaut AMI ne téléchargent ni n'installent automatiquement ces mises à jour. NVIDIA Pour obtenir les mises à jour du noyau, vous pouvez personnaliser votre Amazon EMR AMI pour qu'il utilise la dernière version d'Amazon Linux AMI.
Pour utiliser les actions Spark avec Apache Oozie, vous devez ajouter la configuration suivante à votre fichier Oozie
workflow.xml
. Sinon, plusieurs bibliothèques critiques telles que Hadoop et B EMRFS seront absentes du classpath des exécuteurs Spark lancés par Oozie.<spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
Lorsque vous utilisez Spark avec le formatage de l'emplacement des partitions Hive pour lire des données dans Amazon S3 et que vous exécutez Spark sur Amazon EMR versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0, vous pouvez rencontrer un problème empêchant votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
-
Deux partitions ou plus sont analysées à partir de la même table.
-
Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple,
s3://bucket/table/p=a
est un préfixe des3://bucket/table/p=a b
. -
Le premier caractère qui suit le préfixe dans l'autre répertoire de partitions possède une valeur UTF -8 inférieure au
/
caractère (U+002F). Par exemple, le caractère d'espace (U+0020) qui apparaît entre a et b danss3://bucket/table/p=a b
entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle :!"#$%&‘()*+,-
. Pour plus d'informations, consultez la table de codage UTF -8 et les caractères Unicode.
Pour contourner ce problème, définissez la configuration
spark.sql.sources.fastS3PartitionDiscovery.enabled
surfalse
dans la classificationspark-defaults
.-
Versions des composants 6.3.0
Les composants qu'Amazon EMR installe avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. D'autres sont propres à Amazon EMR et installés pour les processus et les fonctionnalités du système. Ceux-ci commencent généralement par emr
ou aws
. Les packages d'applications Big Data de la dernière EMR version d'Amazon sont généralement les dernières versions disponibles dans la communauté. Nous mettons les publications communautaires à disposition sur Amazon EMR le plus rapidement possible.
Certains composants d'Amazon EMR diffèrent des versions communautaires. Ces composants ont une étiquette de version sous la forme
. CommunityVersion
-amzn-EmrVersion
commence à 0. Par exemple, si un composant communautaire open source nommé EmrVersion
myapp-component
avec la version 2.2 a été modifié trois fois pour être inclus dans différentes EMR versions d'Amazon, sa version de publication est répertoriée sous le nom de2.2-amzn-2
.
Composant | Version | Description |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK |
emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. |
emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. |
emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. |
emr-notebook-env | 1.2.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise |
emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. |
emr-s3-select | 2.1.0 | EMRConnecteur S3Select |
emrfs | 2,46,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. |
flink-client | 1.12.1 | Applications et scripts client de la ligne de commande Apache Flink. |
flink-jobmanager-config | 1.12.1 | Gestion des ressources sur les EMR nœuds pour Apache Flink JobManager. |
ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. |
ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. |
ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. |
hadoop-client | 3.2.1-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». |
hadoop-hdfs-datanode | 3.2.1-amzn-3 | HDFSservice au niveau du nœud pour le stockage de blocs. |
hadoop-hdfs-library | 3.2.1-amzn-3 | HDFSclient et bibliothèque en ligne de commande |
hadoop-hdfs-namenode | 3.2.1-amzn-3 | HDFSservice de suivi des noms de fichiers et de l'emplacement des blocs. |
hadoop-hdfs-journalnode | 3.2.1-amzn-3 | HDFSservice de gestion du journal du système de fichiers Hadoop sur les clusters HA. |
hadoop-httpfs-server | 3.2.1-amzn-3 | HTTPpoint de terminaison pour HDFS les opérations. |
hadoop-kms-server | 3.2.1-amzn-3 | Serveur de gestion des clés cryptographiques basé sur Hadoop. KeyProvider API |
hadoop-mapred | 3.2.1-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. |
hadoop-yarn-nodemanager | 3.2.1-amzn-3 | YARNservice de gestion des conteneurs sur un nœud individuel. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | YARNservice d'allocation et de gestion des ressources du cluster et des applications distribuées. |
hadoop-yarn-timeline-server | 3.2.1-amzn-3 | Service de récupération des informations actuelles et historiques pour les YARN applications. |
hbase-hmaster | 2.2.6-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. |
hbase-region-server | 2.2.6-amzn-1 | Service destiné à desservir une ou plusieurs HBase régions. |
hbase-client | 2.2.6-amzn-1 | HBaseclient en ligne de commande. |
hbase-rest-server | 2.2.6-amzn-1 | Service fournissant un RESTful HTTP point de terminaison pourHBase. |
hbase-thrift-server | 2.2.6-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase |
hcatalog-client | 3.1.2-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. |
hcatalog-server | 3.1.2-amzn-4 | Fourniture de servicesHCatalog, table et couche de gestion du stockage pour les applications distribuées. |
hcatalog-webhcat-server | 3.1.2-amzn-4 | HTTPpoint de terminaison fournissant une REST interface pourHCatalog. |
hive-client | 3.1.2-amzn-4 | Client de ligne de commande Hive. |
hive-hbase | 3.1.2-amzn-4 | Client Hive-hbase. |
hive-metastore-server | 3.1.2-amzn-4 | Service d'accès au métastore Hive, un référentiel sémantique stockant des métadonnées pour SQL les opérations sur Hadoop. |
hive-server2 | 3.1.2-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. |
hudi | 0.7.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. |
hudi-presto | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. |
hudi-prestosql | 0.7.0-amzn-0 | Bibliothèque de bundles pour exécuter Presto SQL avec Hudi. |
hudi-spark | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. |
hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop |
jupyterhub | 1.2.2 | Serveur multi-utilisateurs pour blocs-notes Jupyter |
livy-server | 0.7.0-incubating | RESTinterface pour interagir avec Apache Spark |
nginx | 1.12.1 | nginx [engine x] est HTTP un serveur proxy inverse |
mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. |
mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. |
nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda |
oozie-client | 5.2.1 | Client de ligne de commande Oozie. |
oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. |
opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur |
phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client |
phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un JDBC accès ainsi que des tampons de protocole et un accès JSON au format à l'Avatica API |
presto-coordinator | 0.245.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. |
presto-worker | 0.245.1-amzn-0 | Service pour exécuter les éléments d'une requête. |
presto-client | 0.245.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. |
prestosql-coordinator | 350 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. |
prestosql-worker | 350 | Service pour exécuter les éléments d'une requête. |
prestosql-client | 350 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. |
pig-client | 0.17.0 | Client de ligne de commande Pig. |
r | 4.0.2 | Projet R pour les calculs statistiques |
ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger |
spark-client | 3.1.1-amzn-0 | Clients de ligne de commande Spark. |
spark-history-server | 3.1.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. |
spark-on-yarn | 3.1.1-amzn-0 | Moteur d'exécution en mémoire pour. YARN |
spark-yarn-slave | 3.1.1-amzn-0 | Bibliothèques Apache Spark nécessaires YARN aux esclaves. |
spark-rapids | 0,4.1 | RAPIDSPlugin Nvidia Spark qui accélère Apache Spark avecGPUs. |
sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. |
tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. |
tez-on-yarn | 0.9.2 | L'YARNapplication Tez et les bibliothèques. |
webserver | 2.4.41+ | HTTPserveur Apache. |
zeppelin-server | 0.9.0 | Portable basé sur le web qui permet l'analyse de données interactives. |
zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. |
zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. |
Classifications des configurations 6.3.0
Les classifications de configuration vous permettent de personnaliser les applications. Ils correspondent souvent à un XML fichier de configuration de l'application, tel quehive-site.xml
. Pour de plus amples informations, veuillez consulter Configuration des applications.
Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon lance des actions de reconfiguration EMR uniquement pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter Reconfigurer un groupe d'instances dans un cluster en cours d'exécution.
Classifications | Description | Actions de reconfiguration |
---|---|---|
capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. |
container-executor | Modifiez les valeurs dans le fichier container-executor.cfg YARN de Hadoop. | Not available. |
container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties YARN de Hadoop. | Not available. |
core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Modifiez les paramètres liés au docker. | Not available. |
emrfs-site | Modifiez EMRFS les paramètres. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. |
flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. |
flink-log4j-session | Modifiez les paramètres de Flink log4j-session.properties pour la session Kubernetes/Yarn. | Restarts Flink history server. |
flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. |
hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. |
hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. |
hbase | Paramètres EMR sélectionnés par Amazon pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. |
hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | Configurez les zones de HDFS chiffrement. | This classification should not be reconfigured. |
hdfs-env | Modifiez les valeurs dans l'HDFSenvironnement. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | Modifiez les valeurs dans HDFS le fichier hdfs-site.xml. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | Modifiez les valeurs dans ebHCat l'environnement de HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | Modifiez les valeurs dans le fichier ebHCat log4j2.properties de HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | Modifiez les valeurs dans ebHCat le fichier webhcat-site.xml de HCatalog W. | Restarts Hive WebHCat server. |
hive | Paramètres EMR sélectionnés par Amazon pour Apache Hive. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. |
hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. |
hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. |
hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. |
hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. |
hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. |
hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | Modifiez les valeurs dans l'HTTPFSenvironnement. | Restarts Hadoop Httpfs service. |
httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. |
hadoop-kms-env | Modifiez les valeurs dans l'environnement Hadoop. KMS | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. |
hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. |
jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter_notebook_config.py de Jupyter Notebook. | Not available. |
jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub_config.py. | Not available. |
jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. |
jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. |
livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. |
livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. |
livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. |
mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. |
oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. |
oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. |
phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. |
phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. |
phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. |
pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. |
pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. |
pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. |
presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. |
presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. |
presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. |
presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. |
presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. |
presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. |
presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. |
presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. |
presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. |
presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. |
presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. |
presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. |
presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. |
presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. |
presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. |
presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. |
prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-node | Modifiez les valeurs dans le fichier SQL node.properties de Presto. | Not available. |
prestosql-connector-blackhole | Modifiez les valeurs dans le fichier SQL blackhole.properties de Presto. | Not available. |
prestosql-connector-cassandra | Modifiez les valeurs dans le fichier SQL cassandra.properties de Presto. | Not available. |
prestosql-connector-hive | Modifiez les valeurs dans le fichier SQL hive.properties de Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-connector-jmx | Modifiez les valeurs dans le fichier SQL jmx.properties de Presto. | Not available. |
prestosql-connector-kafka | Modifiez les valeurs dans le fichier SQL kafka.properties de Presto. | Not available. |
prestosql-connector-localfile | Modifiez les valeurs dans le fichier SQL localfile.properties de Presto. | Not available. |
prestosql-connector-memory | Modifiez les valeurs dans le fichier SQL memory.properties de Presto. | Not available. |
prestosql-connector-mongodb | Modifiez les valeurs dans le fichier SQL mongodb.properties de Presto. | Not available. |
prestosql-connector-mysql | Modifiez les valeurs dans le fichier SQL mysql.properties de Presto. | Not available. |
prestosql-connector-postgresql | Modifiez les valeurs dans le fichier SQL postgresql.properties de Presto. | Not available. |
prestosql-connector-raptor | Modifiez les valeurs dans le fichier SQL raptor.properties de Presto. | Not available. |
prestosql-connector-redis | Modifiez les valeurs dans le fichier SQL redis.properties de Presto. | Not available. |
prestosql-connector-redshift | Modifiez les valeurs dans le fichier SQL redshift.properties de Presto. | Not available. |
prestosql-connector-tpch | Modifiez les valeurs dans le fichier SQL tpch.properties de Presto. | Not available. |
prestosql-connector-tpcds | Modifiez les valeurs dans le fichier SQL tpcds.properties de Presto. | Not available. |
ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de RangerKMS. | Restarts Ranger KMS Server. |
ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de RangerKMS. | Restarts Ranger KMS Server. |
ranger-kms-env | Modifiez les valeurs dans l'KMSenvironnement Ranger. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger. KMS | Not available. |
ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour Ma SQL SSL connexion avec RangerKMS. | Not available. |
spark | Paramètres EMR sélectionnés par Amazon pour Apache Spark. | This property modifies spark-defaults. See actions there. |
spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. |
spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. |
spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. |
sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. |
sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. |
tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. |
yarn-env | Modifiez les valeurs dans l'YARNenvironnement. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | Modifiez les valeurs dans YARN le fichier yarn-site.xml. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. |
zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. |
zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. |
zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. |