Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Amazon EMR version 5.30.0
Versions d’application 5.30.0
Les applications suivantes sont prises en charge dans cette version : Flink
Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois EMR versions précédentes d'Amazon (le cas échéant).
Pour obtenir un historique complet des versions des applications pour chaque version d'AmazonEMR, consultez les rubriques suivantes :
Informations sur la version de l'application | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-5.30.0 | mr-5.29.0 | emr-5.28.1 | emr-5.28.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AWS SDKpour Java | 1,1,759 | 1,11,682 | 1,1,659 | 1,1,659 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Python | 2,7, 3,7 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scala | 2,1,12 | 2,1,12 | 2,1,12 | 2,1,12 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AmazonCloudWatchAgent | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | 2.3.6 | 2.3.6 | 2.3.6 | 2.3.6 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 2.8.5 | 2.8.5 | 2.8.5 | 2.8.5 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 2.3.6 | 2.3.6 | 2.3.6 | 2.3.6 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | 0.7.0 | 0.6.0 | 0.6.0 | 0.6.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | 4.14.3 | 4.14.3 | 4.14.3 | 4.14.3 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | 0.232 | 0.227 | 0.227 | 0.227 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 2.4.5 | 2.4.4 | 2.4.4 | 2.4.4 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trino (PrestoSQL) | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Notes de mise à jour 5.30.0
Les notes de mise à jour suivantes contiennent des informations relatives à la EMR version 5.30.0 d'Amazon. Les modifications ont été apportées à la version 5.29.0.
Date de parution initiale : 13 mai 2020
Date de la dernière mise à jour : 25 juin 2020
Mises à niveau
Amélioré AWS SDK for Java vers la version 1.11.759
Mise à niveau d'Amazon SageMaker Spark SDK vers la version 1.3.0
Serveur d'EMRenregistrement mis à niveau vers la version 1.6.0
Mise à niveau de Flink vers la version 1.10.0
Mise à niveau de Ganglia vers la version 3.7.2
Mise à niveau HBase vers la version 1.4.13
Mise à niveau de Hudi vers la version 0.5.2 incubating
Mise à niveau de Hue vers la version 4.6.0
Mise à niveau JupyterHub vers la version 1.1.0
Mise à niveau de Livy vers la version 0.7.0-incubating
Mise à niveau d'Oozie vers la version 5.2.0
Mise à niveau de Presto vers la version 0.232
Mise à niveau de Spark vers la version 2.4.5
Connecteurs et pilotes améliorés : Amazon Glue Connector 1.12.0 ; Amazon Kinesis Connector 3.5.0 ; DynamoDB Connector 4.14.0 EMR
Nouvelles fonctionnalités
EMRBlocs-notes — Lorsqu'ils sont utilisés avec des EMR clusters créés à l'aide de la version 5.30.0, les noyaux des EMR blocs-notes s'exécutent sur le cluster. Cela améliore les performances des blocs-notes et vous permet d'installer et de personnaliser les noyaux. Vous pouvez également installer des bibliothèques Python sur le nœud primaire du cluster. Pour plus d'informations, consultez la section Installation et utilisation des noyaux et des bibliothèques dans le Guide EMR de gestion.
Dimensionnement géré : avec Amazon EMR version 5.30.0 et versions ultérieures, vous pouvez activer le dimensionnement EMR géré pour augmenter ou diminuer automatiquement le nombre d'instances ou d'unités dans votre cluster en fonction de la charge de travail. Amazon évalue EMR en permanence les indicateurs des clusters afin de prendre des décisions de dimensionnement qui optimisent les coûts et la rapidité de vos clusters. Pour plus d'informations, consultez la section Scaling Cluster Resources dans le guide EMR de gestion Amazon.
Chiffrer les fichiers journaux stockés dans Amazon S3 — Avec les EMR versions 5.30.0 et ultérieures d'Amazon, vous pouvez chiffrer les fichiers journaux stockés dans Amazon S3 à l'aide d'un AWS KMS clé gérée par le client. Pour plus d'informations, consultez la section Chiffrer les fichiers journaux stockés dans Amazon S3 dans le guide EMR de gestion Amazon.
Support d'Amazon Linux 2 : dans les EMR versions 5.30.0 et ultérieures, EMR usesAmazon système d'exploitation Linux 2. La nouvelle personnalisation AMIs (Amazon Machine Image) doit être basée sur theAmazon Linux 2AMI. Pour plus d'informations, consultez la section Utilisation d'une personnalisation AMI.
Presto Graceful Auto Scale : les EMR clusters utilisant la version 5.30.0 peuvent être définis avec un délai de mise à l'échelle automatique qui donne aux tâches Presto le temps de terminer leur exécution avant que leur nœud ne soit mis hors service. Pour de plus amples informations, veuillez consulter Utilisation du dimensionnement automatique de Presto avec désaffectation gracieuse.
Création d'une instance de flotte avec une nouvelle option de stratégie d'allocation — Une nouvelle option de stratégie d'allocation est disponible dans les EMR versions 5.12.1 et ultérieures. Cela permet un approvisionnement plus rapide des clusters, une allocation plus précise et moins d'interruptions d'instances Spot. Des mises à jour des rôles de EMR service autres que ceux par défaut sont requises. Consultez Configuration de parcs d'instances.
Commandes sudo systemctl stop et sudo systemctl start : dans les EMR versions 5.30.0 et ultérieures, quel système d'exploitation useAmazon Linux 2 utilise et commande pour redémarrer les services. EMR
sudo systemctl stop
sudo systemctl start
Pour plus d'informations, consultez Comment redémarrer un service sur Amazon EMR ?.
Modifications, améliorations et problèmes résolus
EMRla version 5.30.0 n'installe pas Ganglia par défaut. Lorsque vous créez un cluster, vous pouvez sélectionner expressément l’installation de Ganglia.
Optimisation des performances Spark.
Optimisation des performances Presto.
Python 3 est la EMR version par défaut d'Amazon 5.30.0 et versions ultérieures.
Le groupe de sécurité géré par défaut pour l'accès au service dans les sous-réseaux privés a été mis à jour avec de nouvelles règles. Si vous utilisez un groupe de sécurité personnalisé pour accéder au service, vous devez inclure les mêmes règles que le groupe de sécurité géré par défaut. Pour plus d'informations, consultez Amazon EMR -Managed Security Group for Service Access (sous-réseaux privés). Si vous utilisez un rôle de service personnalisé pour AmazonEMR, vous devez accorder l'autorisation
ec2:describeSecurityGroups
EMR afin de valider si les groupes de sécurité ont été correctement créés. Si vous utilisez leEMR_DefaultRole
, cette autorisation est déjà incluse dans la stratégie gérée par défaut.
Problèmes connus
-
Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions]. EMRLes versions Amazon : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions de Linux ofAmazon 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon sont créés avec la valeur par AL2 défaut. EMR AMI EMRLes versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, le paramètre ulimit EMR par défaut d'Amazon AMI est de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 sous Linux 2. latestAmazon AMI Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action bootstrap (BA) qui ajuste le paramètre ulimit lors de la création du cluster.
Si vous utilisez une ancienne EMR version d'Amazon qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement l'ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.
Définir explicitement un ulimit à partir de la ligne de commande
Modifiez
/etc/systemd/system/instance-controller.service
pour ajouter les paramètres suivants à la section Service.LimitNOFILE=65536
LimitNPROC=65536
Redémarrer InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Définissez un ulimit à l'aide de l'action d'amorçage (BA)
Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
Mise à l'échelle gérée
Les opérations de mise à l'échelle gérées sur des clusters 5.30.0 et 5.30.1 sans Presto installé peuvent provoquer des défaillances d'applications ou empêcher le maintien d'un groupe d'instances ou d'une flotte d'instances uniforme dans l'état
ARRESTED
, en particulier lorsqu'une opération de réduction est rapidement suivie d'une opération d'augementation.Pour contourner le problème, choisissez Presto comme application à installer lorsque vous créez un cluster avec les EMR versions 5.30.0 et 5.30.1 d'Amazon, même si votre travail ne nécessite pas Presto.
-
Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos
Si vous exécutez des clusters avec plusieurs nœuds principaux et une authentification Kerberos dans les EMR versions 5.20.0 et ultérieures d'Amazon, vous risquez de rencontrer des problèmes avec les opérations de cluster, telles que la réduction ou la soumission par étapes, une fois le cluster en cours d'exécution pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées.
Solution :
-
SSHen tant qu'
hadoop
utilisateur du nœud principal du EMR cluster comportant plusieurs nœuds principaux. -
Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur
hadoop
.kinit -kt <keytab_file> <principal>
Généralement, le fichier keytab se trouve dans
/etc/hadoop.keytab
et le principal se présente sous la forme dehadoop/<hostname>@<REALM>
.
Note
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.
-
Le moteur de base de données par défaut pour Hue 4.6.0 estSQLite, ce qui pose des problèmes lorsque vous essayez d'utiliser Hue avec une base de données externe. Pour résoudre ce problème, définissez
engine
de votre configuration de classificationhue-ini
surmysql
. Ce problème a été résolu dans la EMR version 5.30.1 d'Amazon.Lorsque vous utilisez Spark avec le formatage de l'emplacement des partitions Hive pour lire des données dans Amazon S3 et que vous exécutez Spark sur Amazon EMR versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0, vous pouvez rencontrer un problème empêchant votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
-
Deux partitions ou plus sont analysées à partir de la même table.
-
Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple,
s3://bucket/table/p=a
est un préfixe des3://bucket/table/p=a b
. -
Le premier caractère qui suit le préfixe dans l'autre répertoire de partitions possède une valeur UTF -8 inférieure au
/
caractère (U+002F). Par exemple, le caractère d'espace (U+0020) qui apparaît entre a et b danss3://bucket/table/p=a b
entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle :!"#$%&‘()*+,-
. Pour plus d'informations, consultez la table de codage UTF -8 et les caractères Unicode.
Pour contourner ce problème, définissez la configuration
spark.sql.sources.fastS3PartitionDiscovery.enabled
surfalse
dans la classificationspark-defaults
.-
Versions des composants 5.30.0
Les composants qu'Amazon EMR installe avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. D'autres sont propres à Amazon EMR et sont installés pour les processus et les fonctionnalités du système. Ceux-ci commencent généralement par emr
ou aws
. Les packages d'applications Big Data de la dernière EMR version d'Amazon sont généralement les dernières versions disponibles dans la communauté. Nous mettons les publications communautaires à disposition sur Amazon EMR le plus rapidement possible.
Certains composants d'Amazon EMR diffèrent des versions communautaires. Ces composants ont une étiquette de version sous la forme
. CommunityVersion
-amzn-EmrVersion
commence à 0. Par exemple, si un composant communautaire open source nommé EmrVersion
myapp-component
avec la version 2.2 a été modifié trois fois pour être inclus dans différentes EMR versions d'Amazon, sa version de publication est répertoriée sous le nom de2.2-amzn-2
.
Composant | Version | Description |
---|---|---|
aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK |
emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. |
emr-goodies | 2.13.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. |
emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. |
emr-notebook-env | 1.0.0 | Environnement Conda pour bloc-notes emr |
emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. |
emr-s3-select | 1.5.0 | EMRConnecteur S3Select |
emrfs | 2.40.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. |
flink-client | 1.10.0 | Applications et scripts client de la ligne de commande Apache Flink. |
ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. |
ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. |
ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. |
hadoop-client | 2.8.5-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». |
hadoop-hdfs-datanode | 2.8.5-amzn-6 | HDFSservice au niveau du nœud pour le stockage de blocs. |
hadoop-hdfs-library | 2.8.5-amzn-6 | HDFSclient et bibliothèque en ligne de commande |
hadoop-hdfs-namenode | 2.8.5-amzn-6 | HDFSservice de suivi des noms de fichiers et de l'emplacement des blocs. |
hadoop-hdfs-journalnode | 2.8.5-amzn-6 | HDFSservice de gestion du journal du système de fichiers Hadoop sur les clusters HA. |
hadoop-httpfs-server | 2.8.5-amzn-6 | HTTPpoint de terminaison pour HDFS les opérations. |
hadoop-kms-server | 2.8.5-amzn-6 | Serveur de gestion des clés cryptographiques basé sur Hadoop. KeyProvider API |
hadoop-mapred | 2.8.5-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. |
hadoop-yarn-nodemanager | 2.8.5-amzn-6 | YARNservice de gestion des conteneurs sur un nœud individuel. |
hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | YARNservice d'allocation et de gestion des ressources du cluster et des applications distribuées. |
hadoop-yarn-timeline-server | 2.8.5-amzn-6 | Service de récupération des informations actuelles et historiques pour les YARN applications. |
hbase-hmaster | 1.4.13 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. |
hbase-region-server | 1.4.13 | Service destiné à desservir une ou plusieurs HBase régions. |
hbase-client | 1.4.13 | HBaseclient en ligne de commande. |
hbase-rest-server | 1.4.13 | Service fournissant un RESTful HTTP point de terminaison pourHBase. |
hbase-thrift-server | 1.4.13 | Service fournissant un point de terminaison Thrift pour. HBase |
hcatalog-client | 2.3.6-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. |
hcatalog-server | 2.3.6-amzn-2 | Fourniture de servicesHCatalog, table et couche de gestion du stockage pour les applications distribuées. |
hcatalog-webhcat-server | 2.3.6-amzn-2 | HTTPpoint de terminaison fournissant une REST interface pourHCatalog. |
hive-client | 2.3.6-amzn-2 | Client de ligne de commande Hive. |
hive-hbase | 2.3.6-amzn-2 | Client Hive-hbase. |
hive-metastore-server | 2.3.6-amzn-2 | Service d'accès au métastore Hive, un référentiel sémantique stockant des métadonnées pour SQL les opérations sur Hadoop. |
hive-server2 | 2.3.6-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. |
hudi | 0.5.2-incubating | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. |
hudi-presto | 0.5.2-incubating | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. |
hue-server | 4.6.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop |
jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter |
livy-server | 0.7.0-incubating | RESTinterface pour interagir avec Apache Spark |
nginx | 1.12.1 | nginx [engine x] est HTTP un serveur proxy inverse |
mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. |
mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. |
mariadb-server | 5.5.64 | Mon serveur SQL de base de données. |
nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda |
oozie-client | 5.2.0 | Client de ligne de commande Oozie. |
oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. |
opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur |
phoenix-library | 4,14,3- -1,4 HBase | Les bibliothèques phoenix pour serveur et client |
phoenix-query-server | 4,14,3- -1,4 HBase | Un serveur léger fournissant un JDBC accès ainsi que des tampons de protocole et un accès JSON au format à l'Avatica API |
presto-coordinator | 0.232 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. |
presto-worker | 0.232 | Service pour exécuter les éléments d'une requête. |
presto-client | 0.232 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. |
pig-client | 0.17.0 | Client de ligne de commande Pig. |
r | 3.4.3 | Projet R pour les calculs statistiques |
ranger-kms-server | 1.2.0 | Système de gestion des clés Apache Ranger |
spark-client | 2.4.5-amzn-0 | Clients de ligne de commande Spark. |
spark-history-server | 2.4.5-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. |
spark-on-yarn | 2.4.5-amzn-0 | Moteur d'exécution en mémoire pour. YARN |
spark-yarn-slave | 2.4.5-amzn-0 | Bibliothèques Apache Spark nécessaires YARN aux esclaves. |
sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. |
tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. |
tez-on-yarn | 0.9.2 | L'YARNapplication Tez et les bibliothèques. |
webserver | 2.4.25+ | HTTPserveur Apache. |
zeppelin-server | 0.8.2 | Portable basé sur le web qui permet l'analyse de données interactives. |
zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. |
zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. |
Classifications des configurations 5.30.0
Les classifications de configuration vous permettent de personnaliser les applications. Ils correspondent souvent à un XML fichier de configuration de l'application, tel quehive-site.xml
. Pour de plus amples informations, veuillez consulter Configuration des applications.
Classifications emr-5.30.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Classifications | Description | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties YARN de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | Modifiez EMRFS les paramètres. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-conf | Modifiez les paramètres flink-conf.yaml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j | Modifiez les paramètres log4j.properties Flink. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-client | Modifier la configuration du client ssl hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase | Paramètres EMR sélectionnés par Amazon pour Apache. HBase | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-env | Changez les valeurs dans HBase l'environnement. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Configurez les zones de HDFS chiffrement. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Modifiez les valeurs dans HDFS le fichier hdfs-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-env | Modifiez les valeurs dans ebHCat l'environnement de HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-log4j2 | Modifiez les valeurs dans le fichier ebHCat log4j2.properties de HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-site | Modifiez les valeurs dans ebHCat le fichier webhcat-site.xml de HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Modifiez les valeurs dans l'environnement Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Modifiez les valeurs dans le fichier ini de Hue | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Modifiez les valeurs dans l'HTTPFSenvironnement. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Modifiez les valeurs dans l'environnement Hadoop. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hudi-env | Modifiez les valeurs dans l'environnement Hudi. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter_notebook_config.py de Jupyter Notebook. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub_config.py. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-env | Modifiez les valeurs dans l'environnement Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-log4j | Modifiez les paramètres Livy log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-env | Modifiez les valeurs dans l'environnement Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de RangerKMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de RangerKMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-env | Modifiez les valeurs dans l'KMSenvironnement Ranger. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour Ma SQL SSL connexion avec RangerKMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-env | Modifiez les valeurs dans l'EMR RecordServer environnement. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-conf | Modifiez les valeurs dans le EMR RecordServer fichier erver.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-log4j | Modifiez les valeurs dans le EMR RecordServer fichier log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | Paramètres EMR sélectionnés par Amazon pour Apache Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Modifiez les valeurs dans l'environnement Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-env | Modifiez les valeurs d'environnement Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Modifiez les valeurs dans l'YARNenvironnement. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Modifiez les valeurs dans YARN le fichier yarn-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. |