Amazon EMR version 6.0.0 - Amazon EMR

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Amazon EMR version 6.0.0

Versions d’application 6.0.0

Les applications suivantes sont prises en charge dans cette version : Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Oozie, Phoenix, Presto, Spark, TensorFlow, Tez, Zeppelin, et ZooKeeper.

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois EMR versions précédentes d'Amazon (le cas échéant).

Pour obtenir un historique complet des versions des applications pour chaque version d'AmazonEMR, consultez les rubriques suivantes :

Informations sur la version de l'application
emr-6.1.1 emr-6.1.0 emr-6.0.1 emr-6.0.0
AWS SDKpour Java 1,1,8281,1,8281,1,7111,1,711
Python 2,7, 3,72,7, 3,72,7, 3,72,7, 3,7
Scala 2,1,102,1,102,1,102,1,12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.01.11.0 - -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.52.2.52.2.32.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-10.5.0-incubating-amzn-1
Hue4.7.14.7.14.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.0.01.0.0
Livy0.7.00.7.00.6.00.6.0
MXNet1.6.01.6.01.5.11.5.1
Mahout - - - -
Oozie5.2.05.2.05.1.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.0 - -
Presto0.2320.2320.2300.230
Spark3.0.03.0.02.4.42.4.4
Sqoop1.4.71.4.7 - -
TensorFlow2.1.02.1.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)338338 - -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

Notes de mise à jour 6.0.0

Les notes de mise à jour suivantes contiennent des informations relatives à la EMR version 6.0.0 d'Amazon.

Date de parution initiale : 10 mars 2020

Applications prises en charge
  • AWS SDK for Java version 1.11.711

  • Ganglia version 3.7.2

  • Hadoop version 3.2.1

  • HBaseversion 2.2.3

  • HCatalogversion 3.1.2

  • Hive version 3.1.2

  • Hudi version 0.5.0-incubation

  • Hue version 4.4.0

  • JupyterHub version 1.0.0

  • Livy version 0.6.0

  • MXNetversion 1.5.1

  • Oozie version 5.1.0

  • Phoenix version 5.0.0

  • Presto version 0.230

  • Spark version 2.4.4

  • TensorFlow version 1.14.0

  • Zeppelin version 0.9.0- SNAPSHOT

  • Zookeeper version 3.4.14

  • Connecteurs et pilotes : Connecteur DynamoDB 4.14.0

Note

Flink, Sqoop, Pig et Mahout ne sont pas disponibles dans la version 6.0.0 d'Amazon. EMR

Nouvelles fonctionnalités
  • YARNDocker Runtime Support : YARN les applications, telles que les tâches Spark, peuvent désormais s'exécuter dans le contexte d'un conteneur Docker. Cela vous permet de définir facilement les dépendances dans une image Docker sans avoir à installer de bibliothèques personnalisées sur votre EMR cluster Amazon. Pour plus d'informations, consultez Configurer l'intégration de Docker et exécuter des applications Spark avec Docker à l'aide d'Amazon EMR 6.0.0.

  • LLAPSupport Hive - Hive prend désormais en charge le mode LLAP d'exécution pour améliorer les performances des requêtes. Pour plus d'informations, consultez la section Utilisation de Hive. LLAP

Modifications, améliorations et problèmes résolus
  • Il s'agit d'une version destinée à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'il ne parvient pas à augmenter ou à réduire la taille d'un cluster ou entraîne des défaillances d'applications.

  • Correction d'un problème en raison duquel les demandes de dimensionnement échouaient pour un cluster volumineux et très utilisé lorsque des EMR démons Amazon présents sur le cluster exécutaient des activités de vérification de l'état, telles que la collecte de l'état du nœud et HDFS de l'état du YARN nœud. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état de santé d'un nœud aux composants internes d'Amazon. EMR

  • Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de dimensionnement.

  • SPARK-29683. Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.

  • YARN-9011. Correction d'un problème en raison duquel des échecs de tâches se produisaient en raison d'une situation de course lors de la YARN mise hors service lorsque le cluster tentait d'augmenter ou de réduire son échelle.

  • Résolution d'un problème lié aux échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en garantissant que les états des nœuds sont toujours cohérents entre les EMR démons Amazon du cluster et/. YARN HDFS

  • Correction d'un problème en raison duquel les opérations de cluster telles que la réduction et la soumission par étapes échouaient pour les EMR clusters Amazon activés avec l'authentification Kerberos. Cela est dû au fait que le démon Amazon EMR on-cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité HDFS YARN avec/exécuté sur le nœud principal.

  • Les nouvelles EMR versions d'Amazon résolvent le problème en abaissant la limite maximale de fichiers ouverts sur les anciennes versions AL2 d'AmazonEMR. EMRLes versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.

  • Amazon Linux

    • Amazon Linux 2 est le système d'exploitation de la série de versions EMR 6.x.

    • systemdest utilisé pour la gestion des services au lieu de upstart inAmazon Linux 1.

  • Kit de développement Java (JDK)

    • JDKCorretto 8 est la version JDK par défaut pour la série de versions 6.xEMR.

  • Scala

    • Scala 2.12 est utilisé avec Apache Spark et Apache Livy.

  • Python 3

    • Python 3 est désormais la version par défaut de Python dansEMR.

  • YARNétiquettes de nœuds

    • À compter de la série de versions Amazon EMR 6.x, la fonctionnalité d'étiquettes de YARN nœuds est désactivée par défaut. Les processus principaux des applications peuvent s'exécuter à la fois sur les nœuds de noyau et sur les nœuds de tâche par défaut. Vous pouvez activer la fonctionnalité d'étiquettes de YARN nœuds en configurant les propriétés suivantes : yarn.node-labels.enabled etyarn.node-labels.am.default-node-label-expression. Pour plus d'informations, consultez Comprendre les nœuds primaires, les nœuds principaux et les nœuds de tâches.

Problèmes connus
  • Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions]. EMRLes versions Amazon : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions de Linux ofAmazon 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon sont créés avec la valeur par AL2 défaut. EMR AMI EMRLes versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, le paramètre ulimit EMR par défaut d'Amazon AMI est de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 sous Linux 2. latestAmazon AMI Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action bootstrap (BA) qui ajuste le paramètre ulimit lors de la création du cluster.

    Si vous utilisez une ancienne EMR version d'Amazon qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement l'ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

    Définir explicitement un ulimit à partir de la ligne de commande
    1. Modifiez /etc/systemd/system/instance-controller.service pour ajouter les paramètres suivants à la section Service.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Redémarrer InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Définissez un ulimit à l'aide de l'action d'amorçage (BA)

    Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Le shell interactif Spark PySpark, y compris SparkR et spark-shell, ne prend pas en charge l'utilisation de Docker avec des bibliothèques supplémentaires.

  • Pour utiliser Python 3 avec Amazon EMR version 6.0.0, vous devez ajouter PATH àyarn.nodemanager.env-whitelist.

  • Les fonctionnalités Live Long et Process (LLAP) ne sont pas prises en charge lorsque vous utilisez le catalogue de données AWS Glue comme métastore pour Hive.

  • Lorsque vous utilisez Amazon EMR 6.0.0 avec l'intégration de Spark et Docker, vous devez configurer les instances de votre cluster avec le même type d'instance et le même nombre de EBS volumes afin d'éviter toute défaillance lors de la soumission d'une tâche Spark avec Docker Runtime.

  • Dans Amazon EMR 6.0.0, HBase le mode de stockage Amazon S3 est concerné par le problème HBASE-24286. HBasemaster ne peut pas s'initialiser lorsque le cluster est créé à l'aide de données S3 existantes.

  • Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

    Si vous exécutez des clusters avec plusieurs nœuds principaux et une authentification Kerberos dans les EMR versions 5.20.0 et ultérieures d'Amazon, vous risquez de rencontrer des problèmes avec les opérations de cluster, telles que la réduction ou la soumission par étapes, une fois le cluster en cours d'exécution pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées.

    Solution :

    • SSHen tant qu'hadooputilisateur du nœud principal du EMR cluster comportant plusieurs nœuds principaux.

    • Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur hadoop.

      kinit -kt <keytab_file> <principal>

      Généralement, le fichier keytab se trouve dans /etc/hadoop.keytab et le principal se présente sous la forme de hadoop/<hostname>@<REALM>.

    Note

    Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

Versions des composants 6.0.0

Les composants qu'Amazon EMR installe avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. D'autres sont propres à Amazon EMR et installés pour les processus et les fonctionnalités du système. Ceux-ci commencent généralement par emr ou aws. Les packages d'applications Big Data de la dernière EMR version d'Amazon sont généralement les dernières versions disponibles dans la communauté. Nous mettons les publications communautaires à disposition sur Amazon EMR le plus rapidement possible.

Certains composants d'Amazon EMR diffèrent des versions communautaires. Ces composants ont une étiquette de version sous la forme CommunityVersion-amzn-EmrVersion. EmrVersion commence à 0. Par exemple, si un composant communautaire open source nommé myapp-component avec la version 2.2 a été modifié trois fois pour être inclus dans différentes EMR versions d'Amazon, sa version de publication est répertoriée sous le nom de2.2-amzn-2.

Composant Version Description
aws-sagemaker-spark-sdk1.2.6Amazon SageMaker Spark SDK
emr-ddb4.14.0Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop.
emr-goodies3.0.0Bibliothèques proposant plus de commodités pour l'écosystème Hadoop.
emr-kinesis3.5.0Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop.
emr-s3-dist-cp2.14.0Application de copie distribuée optimisée pour Amazon S3.
emr-s3-select1.5.0EMRConnecteur S3Select
emrfs2.39.0Connecteur Amazon S3 pour les applications de l'écosystème Hadoop.
ganglia-monitor3.7.2Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia.
ganglia-metadata-collector3.7.2Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia.
ganglia-web3.7.1Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia.
hadoop-client3.2.1-amzn-0Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ».
hadoop-hdfs-datanode3.2.1-amzn-0HDFSservice au niveau du nœud pour le stockage de blocs.
hadoop-hdfs-library3.2.1-amzn-0HDFSclient et bibliothèque en ligne de commande
hadoop-hdfs-namenode3.2.1-amzn-0HDFSservice de suivi des noms de fichiers et de l'emplacement des blocs.
hadoop-hdfs-journalnode3.2.1-amzn-0HDFSservice de gestion du journal du système de fichiers Hadoop sur les clusters HA.
hadoop-httpfs-server3.2.1-amzn-0HTTPpoint de terminaison pour HDFS les opérations.
hadoop-kms-server3.2.1-amzn-0Serveur de gestion des clés cryptographiques basé sur Hadoop. KeyProvider API
hadoop-mapred3.2.1-amzn-0MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application.
hadoop-yarn-nodemanager3.2.1-amzn-0YARNservice de gestion des conteneurs sur un nœud individuel.
hadoop-yarn-resourcemanager3.2.1-amzn-0YARNservice d'allocation et de gestion des ressources du cluster et des applications distribuées.
hadoop-yarn-timeline-server3.2.1-amzn-0Service de récupération des informations actuelles et historiques pour les YARN applications.
hbase-hmaster2.2.3Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives.
hbase-region-server2.2.3Service pour desservir une ou plusieurs HBase régions.
hbase-client2.2.3HBaseclient en ligne de commande.
hbase-rest-server2.2.3Service fournissant un RESTful HTTP point de terminaison pourHBase.
hbase-thrift-server2.2.3Service fournissant un point de terminaison Thrift pour. HBase
hcatalog-client3.1.2-amzn-0Client de ligne de commande « hcat » pour la manipulation de hcatalog-server.
hcatalog-server3.1.2-amzn-0Fourniture de servicesHCatalog, table et couche de gestion du stockage pour les applications distribuées.
hcatalog-webhcat-server3.1.2-amzn-0HTTPpoint de terminaison fournissant une REST interface pourHCatalog.
hive-client3.1.2-amzn-0Client de ligne de commande Hive.
hive-hbase3.1.2-amzn-0Client Hive-hbase.
hive-metastore-server3.1.2-amzn-0Service d'accès au métastore Hive, un référentiel sémantique stockant des métadonnées pour SQL les opérations sur Hadoop.
hive-server23.1.2-amzn-0Service pour l'acceptation de requêtes Hive en tant que requêtes web.
hudi0.5.0-incubating-amzn-1Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée.
hudi-presto0.5.0-incubating-amzn-1Bibliothèque de solution groupée pour exécuter Presto avec Hudi.
hue-server4.4.0Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop
jupyterhub1.0.0Serveur multi-utilisateurs pour blocs-notes Jupyter
livy-server0.6.0-incubatingRESTinterface pour interagir avec Apache Spark
nginx1.12.1nginx [engine x] est HTTP un serveur proxy inverse
mxnet1.5.1Bibliothèque flexible, évolutive et efficace pour le deep learning.
mariadb-server5.5.64+Serveur de base de données MariaDB.
nvidia-cuda9.2.88Pilotes Nvidia et boîte à outils Cuda
oozie-client5.1.0Client de ligne de commande Oozie.
oozie-server5.1.0Service pour l'acceptation des demandes de flux de travail Oozie.
opencv3.4.0Bibliothèque open source Vision par ordinateur
phoenix-library5,0,0- -2,0 HBaseLes bibliothèques phoenix pour serveur et client
phoenix-query-server5,0,0- -2,0 HBaseUn serveur léger fournissant un JDBC accès ainsi que des tampons de protocole et un accès JSON au format à l'Avatica API
presto-coordinator0.230Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker.
presto-worker0.230Service pour exécuter les éléments d'une requête.
presto-client0.230Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré.
r3.4.3Projet R pour les calculs statistiques
spark-client2.4.4Clients de ligne de commande Spark.
spark-history-server2.4.4Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée.
spark-on-yarn2.4.4Moteur d'exécution en mémoire pour. YARN
spark-yarn-slave2.4.4Bibliothèques Apache Spark nécessaires YARN aux esclaves.
tensorflow1.14.0TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance.
tez-on-yarn0.9.2L'YARNapplication Tez et les bibliothèques.
webserver2.4.41+HTTPserveur Apache.
zeppelin-server0,9,0- SNAPSHOTPortable basé sur le web qui permet l'analyse de données interactives.
zookeeper-server3.4.14Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe.
zookeeper-client3.4.14ZooKeeper client en ligne de commande.

Classifications des configurations 6.0.0

Les classifications de configuration vous permettent de personnaliser les applications. Ils correspondent souvent à un XML fichier de configuration de l'application, tel quehive-site.xml. Pour de plus amples informations, veuillez consulter Configuration des applications.

Classifications emr-6.0.0
Classifications Description

capacity-scheduler

Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop.

container-executor

Modifiez les valeurs dans le fichier container-executor.cfg YARN de Hadoop.

container-log4j

Modifiez les valeurs dans le fichier container-log4j.properties YARN de Hadoop.

core-site

Modifiez les valeurs dans le fichier core-site.xml de Hadoop.

emrfs-site

Modifiez EMRFS les paramètres.

hadoop-env

Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop.

hadoop-log4j

Modifiez les valeurs dans le fichier log4j.properties de Hadoop.

hadoop-ssl-server

Modifier la configuration du serveur ssl hadoop

hadoop-ssl-client

Modifier la configuration du client ssl hadoop

hbase

Paramètres EMR sélectionnés par Amazon pour Apache. HBase

hbase-env

Changez les valeurs dans HBase l'environnement.

hbase-log4j

Modifiez les valeurs dans le fichier HBase hbase-log4j.properties.

hbase-metrics

Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties.

hbase-policy

Modifiez les valeurs dans HBase le fichier hbase-policy.xml.

hbase-site

Modifiez les valeurs dans HBase le fichier hbase-site.xml.

hdfs-encryption-zones

Configurez les zones de HDFS chiffrement.

hdfs-env

Modifiez les valeurs dans l'HDFSenvironnement.

hdfs-site

Modifiez les valeurs dans HDFS le fichier hdfs-site.xml.

hcatalog-env

Changez les valeurs dans HCatalog l'environnement.

hcatalog-server-jndi

Modifiez les valeurs dans le fichier HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml.

hcatalog-webhcat-env

Modifiez les valeurs dans ebHCat l'environnement de HCatalog W.

hcatalog-webhcat-log4j2

Modifiez les valeurs dans le fichier ebHCat log4j2.properties de HCatalog W.

hcatalog-webhcat-site

Modifiez les valeurs dans ebHCat le fichier webhcat-site.xml de HCatalog W.

hive

Paramètres EMR sélectionnés par Amazon pour Apache Hive.

hive-beeline-log4j2

Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive.

hive-parquet-logging

Modifiez les valeurs dans le fichier parquet-logging.properties de Hive.

hive-env

Modifiez les valeurs dans l'environnement Hive.

hive-exec-log4j2

Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive.

hive-llap-daemon-log4j2

Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive.

hive-log4j2

Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive.

hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Hive

hiveserver2-site

Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2

hue-ini

Modifiez les valeurs dans le fichier ini de Hue

httpfs-env

Modifiez les valeurs dans l'HTTPFSenvironnement.

httpfs-site

Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop.

hadoop-kms-acls

Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop.

hadoop-kms-env

Modifiez les valeurs dans l'environnement Hadoop. KMS

hadoop-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop.

hadoop-kms-site

Modifiez les valeurs dans le fichier kms-site.xml de Hadoop.

jupyter-notebook-conf

Modifiez les valeurs dans le fichier jupyter_notebook_config.py de Jupyter Notebook.

jupyter-hub-conf

Modifiez les valeurs dans JupyterHubs le fichier jupyterhub_config.py.

jupyter-s3-conf

Configuration de la persistance S3 de bloc-notes Jupyter.

jupyter-sparkmagic-conf

Modifiez les valeurs dans le fichier config.json de Sparkmagic.

livy-conf

Modifiez les valeurs dans le fichier livy.conf de Livy.

livy-env

Modifiez les valeurs dans l'environnement Livy.

livy-log4j

Modifiez les paramètres Livy log4j.properties.

mapred-env

Modifiez les valeurs dans l'environnement de l' MapReduce application.

mapred-site

Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application.

oozie-env

Modifiez les valeurs dans l'environnement d'Oozie.

oozie-log4j

Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie.

oozie-site

Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie.

phoenix-hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix.

phoenix-hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix.

phoenix-log4j

Modifiez les valeurs dans le fichier log4j.properties de Phoenix.

phoenix-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix.

presto-log

Modifiez les valeurs dans le fichier log.properties de Presto.

presto-config

Modifiez les valeurs dans le fichier config.properties de Presto.

presto-password-authenticator

Modifiez les valeurs dans le fichier password-authenticator.properties de Presto.

presto-env

Modifiez les valeurs dans le fichier presto-env.sh de Presto.

presto-node

Modifiez les valeurs dans le fichier node.properties de Presto.

presto-connector-blackhole

Modifiez les valeurs dans le fichier blackhole.properties de Presto.

presto-connector-cassandra

Modifiez les valeurs dans le fichier cassandra.properties de Presto.

presto-connector-hive

Modifiez les valeurs dans le fichier hive.properties de Presto.

presto-connector-jmx

Modifiez les valeurs dans le fichier jmx.properties de Presto.

presto-connector-kafka

Modifiez les valeurs dans le fichier kafka.properties de Presto.

presto-connector-localfile

Modifiez les valeurs dans le fichier localfile.properties de Presto.

presto-connector-memory

Modifiez les valeurs dans le fichier memory.properties de Presto.

presto-connector-mongodb

Modifiez les valeurs dans le fichier mongodb.properties de Presto.

presto-connector-mysql

Modifiez les valeurs dans le fichier mysql.properties de Presto.

presto-connector-postgresql

Modifiez les valeurs dans le fichier postgresql.properties de Presto.

presto-connector-raptor

Modifiez les valeurs dans le fichier raptor.properties de Presto.

presto-connector-redis

Modifiez les valeurs dans le fichier redis.properties de Presto.

presto-connector-redshift

Modifiez les valeurs dans le fichier redshift.properties de Presto.

presto-connector-tpch

Modifiez les valeurs dans le fichier tpch.properties de Presto.

presto-connector-tpcds

Modifiez les valeurs dans le fichier tpcds.properties de Presto.

ranger-kms-dbks-site

Modifiez les valeurs dans le fichier dbks-site.xml de RangerKMS.

ranger-kms-site

Modifiez les valeurs dans le fichier ranger-kms-site .xml de RangerKMS.

ranger-kms-env

Modifiez les valeurs dans l'KMSenvironnement Ranger.

ranger-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger. KMS

ranger-kms-db-ca

Modifiez les valeurs du fichier CA sur S3 pour Ma SQL SSL connexion avec RangerKMS.

recordserver-env

Modifiez les valeurs dans l'EMR RecordServer environnement.

recordserver-conf

Modifiez les valeurs dans le EMR RecordServer fichier erver.properties.

recordserver-log4j

Modifiez les valeurs dans le EMR RecordServer fichier log4j.properties.

spark

Paramètres EMR sélectionnés par Amazon pour Apache Spark.

spark-defaults

Modifiez les valeurs dans le fichier spark-defaults.conf de Spark.

spark-env

Modifiez les valeurs dans l'environnement Spark.

spark-hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Spark

spark-log4j

Modifiez les valeurs dans le fichier log4j.properties de Spark.

spark-metrics

Modifiez les valeurs dans le fichier metrics.properties de Spark.

tez-site

Modifiez les valeurs dans le fichier tez-site.xml de Tez.

yarn-env

Modifiez les valeurs dans l'YARNenvironnement.

yarn-site

Modifiez les valeurs dans YARN le fichier yarn-site.xml.

zeppelin-env

Modifiez les valeurs dans l'environnement Zeppelin.

zookeeper-config

Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg.

zookeeper-log4j

Modifiez les valeurs dans le ZooKeeper fichier log4j.properties.