Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Amazon EMR version 6.9.0
Versions d’application 6.9.0
Les applications suivantes sont prises en charge dans cette version : Delta
Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois EMR versions précédentes d'Amazon (le cas échéant).
Pour obtenir un historique complet des versions des applications pour chaque version d'AmazonEMR, consultez les rubriques suivantes :
emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | |
---|---|---|---|---|
AWS SDKpour Java | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 |
Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 |
Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | 2.1.0 | - | - | - |
Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.4.13 | 2.4.12 | 2.4.12 | 2.4.4 |
HCatalog | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hadoop | 3.3.3 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 |
Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 |
Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 |
JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 |
JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 |
Livy | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 |
MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 |
Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0,276 | 0,273 | 0,273 | 0,272 |
Spark | 3.3.0 | 3.3.0 | 3.3.0 | 3.2.1 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 |
Tez | 0,1,2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | 398 | 388 | 388 | 378 |
Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0.10.0 |
ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 |
Notes de mise à jour 6.9.0
Les notes de mise à jour suivantes contiennent des informations relatives à la EMR version 6.9.0 d'Amazon. Les modifications concernent la EMR version 6.8.0 d'Amazon. Pour plus d'informations sur le calendrier de publication, consultez le journal des modifications.
Nouvelles fonctions
La EMR version 6.9.0 d'Amazon prend en charge Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398 et Tez 0.10.2.
La EMR version 6.9.0 d'Amazon inclut une nouvelle application open source, Delta Lake la 2.1.0.
L'intégration Amazon Redshift pour Apache Spark est incluse dans les EMR versions 6.9.0 et ultérieures d'Amazon. Auparavant un outil open-source, l'intégration native est un connecteur Spark que vous pouvez utiliser pour créer des applications Apache Spark capables de lire et d'écrire des données sur Amazon Redshift et Amazon Redshift sans serveur. Pour de plus amples informations, veuillez consulter Utilisation de l'intégration d'Amazon Redshift pour Apache Spark avec Amazon EMR .
La EMR version 6.9.0 d'Amazon ajoute la prise en charge de l'archivage des journaux dans Amazon S3 lors de la réduction du cluster. Auparavant, vous pouviez uniquement archiver les fichiers journaux sur Amazon S3 lors de la résiliation du cluster. Cette nouvelle fonctionnalité garantit que les fichiers journaux générés sur le cluster sont conservés sur Amazon S3 même après la résiliation du nœud. Pour plus d'informations, consultez Configuration de la journalisation et du débogage de cluster.
Pour prendre en charge les requêtes de longue durée, Trino inclut désormais un mécanisme d'exécution tolérant aux pannes. L'exécution tolérante aux pannes atténue les échecs des requêtes en réessayant les requêtes qui ont échoué ou les tâches correspondantes. Pour de plus amples informations, veuillez consulter Exécution tolérante aux pannes dans Trino.
Vous pouvez utiliser Apache Flink sur Amazon EMR pour unifier
BATCH
etSTREAM
traiter les tables Apache Hive ou les métadonnées de n'importe quelle source de table Flink telle qu'Iceberg, Kinesis ou Kafka. Vous pouvez spécifier le catalogue de données AWS Glue comme métastore pour Flink à l'aide de AWS Management Console, AWS CLI ou Amazon. EMR API Pour de plus amples informations, veuillez consulter Configuration de Flink sur Amazon EMR.Vous pouvez désormais spécifier des rôles d'exécution AWS Identity and Access Management (IAM) et un contrôle d'accès AWS Lake Formation basé pour les requêtes Apache Spark, Apache Hive et Presto EMR sur Amazon sur des EC2 clusters avec Amazon SageMaker Studio. Pour plus d'informations, consultez Configurer les rôles d'exécution pour Amazon EMR Steps.
Problèmes connus
Pour la EMR version 6.9.0 d'Amazon, Trino ne fonctionne pas sur les clusters activés pour Apache Ranger. Si vous devez utiliser Trino avec Ranger, contactez AWS Support
. Si vous utilisez l'intégration Amazon Redshift à Apache Spark et que vous disposez d'un champ de type heure, timetz, horodatage ou timestamptz avec une précision de l'ordre de la microseconde au format Parquet, le connecteur arrondit les valeurs temporelles à la milliseconde la plus proche. Pour contourner le problème, utilisez le paramètre
unload_s3_format
de format de déchargement du texte.Lorsque vous utilisez Spark avec le formatage de l'emplacement des partitions Hive pour lire des données dans Amazon S3 et que vous exécutez Spark sur Amazon EMR versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0, vous pouvez rencontrer un problème empêchant votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
-
Deux partitions ou plus sont analysées à partir de la même table.
-
Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple,
s3://bucket/table/p=a
est un préfixe des3://bucket/table/p=a b
. -
Le premier caractère qui suit le préfixe dans l'autre répertoire de partitions possède une valeur UTF -8 inférieure au
/
caractère (U+002F). Par exemple, le caractère d'espace (U+0020) qui apparaît entre a et b danss3://bucket/table/p=a b
entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle :!"#$%&‘()*+,-
. Pour plus d'informations, consultez la table de codage UTF -8 et les caractères Unicode.
Pour contourner ce problème, définissez la configuration
spark.sql.sources.fastS3PartitionDiscovery.enabled
surfalse
dans la classificationspark-defaults
.-
Les connexions aux EMR clusters Amazon depuis Amazon SageMaker Studio peuvent échouer par intermittence avec un code de réponse 403 Forbidden. Cette erreur se produit lorsque la configuration du IAM rôle sur le cluster prend plus de 60 secondes. Pour contourner le problème, vous pouvez installer un EMR correctif Amazon pour activer les nouvelles tentatives et augmenter le délai d'expiration à un minimum de 300 secondes. Suivez les étapes ci-dessous pour appliquer l'action d'amorçage lorsque vous lancez votre cluster.
Téléchargez le script et RPM les fichiers bootstrap depuis l'Amazon S3 URIs suivant.
s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
Chargez les fichiers de l'étape précédente sur un compartiment Amazon S3 dont vous êtes propriétaire. Le compartiment doit se trouver à l' Région AWS endroit où vous prévoyez de lancer le cluster.
Incluez l'action d'amorçage suivante lorsque vous lancez votre EMR cluster. Remplacez
bootstrap_URI
andRPM_URI
avec le correspondant URIs provenant d'Amazon S3.--bootstrap-actions "Path=
bootstrap_URI
,Args=[RPM_URI
]"
Avec les EMR versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon,
SecretAgent
les composants duRecordServer
service peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.Pour les versions Amazon EMR 6.6.0 à 6.9.0, utilisez l'action bootstrap suivante lorsque vous lancez un cluster.
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
Pour Amazon EMR 5.36.0, utilisez l'action bootstrap suivante lorsque vous lancez un cluster.
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
-
Apache Flink fournit des FileSystem connecteurs natifs S3 FileSystem et Hadoop, qui permettent aux applications de créer FileSink et d'écrire les données dans Amazon S3. Cela FileSink échoue avec l'une des deux exceptions suivantes.
java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy; at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
Pour contourner le problème, vous pouvez installer un EMR correctif Amazon, qui corrige le problème ci-dessus dans Flink. Suivez les étapes suivantes pour appliquer l'action d'amorçage lors du lancement de votre cluster.
-
Téléchargez le fichier flink-rpm dans votre compartiment Amazon S3. Votre RPM voie l'est
s3://
.DOC-EXAMPLE-BUCKET
/rpms/flink/ -
Téléchargez le script et les RPM fichiers bootstrap depuis Amazon S3 en utilisant ce qui suitURI. Remplacez
par l' Région AWS endroit où vous prévoyez de lancer le cluster.regionName
s3://emr-data-access-control-
regionName
/customer-bootstrap-actions/gcsc/replace-rpms.sh Hadoop 3.3.3 a introduit une modification dans YARN (YARN-9608
) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Dans Amazon EMR 6.8.0 et 6.9.0, cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans le dimensionnement géré activé. Avec Amazon EMR 6.10.0, il existe une solution à ce problème qui consiste à définir la valeur de
yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications
to in.false
yarn-site.xml
Dans les EMR versions 6.11.0 et supérieures d'Amazon, ainsi que dans les versions 6.8.1, 6.9.1 et 6.10.1, la configuration est définiefalse
par défaut pour résoudre ce problème.
-
Modifications, améliorations et problèmes résolus
Pour les EMR versions 6.9.0 et ultérieures d'Amazon, tous les composants installés par Amazon EMR qui utilisent les bibliothèques Log4j utilisent Log4j version 2.17.1 ou ultérieure.
-
Lorsque vous utilisez le connecteur DynamoDB avec Spark on EMR Amazon versions 6.6.0, 6.7.0 et 6.8.0, toutes les lectures de votre table renvoient un résultat vide, même si le split d'entrée fait référence à des données non vides. La EMR version 6.9.0 d'Amazon résout ce problème.
Amazon EMR 6.9.0 ajoute une prise en charge limitée du contrôle d'accès basé sur Lake Formation avec Apache Hudi lors de la lecture de données à l'aide de Spark. SQL Le support concerne les SELECT requêtes utilisant Spark SQL et se limite au contrôle d'accès au niveau des colonnes. Pour plus d'informations, consultez Hudi et Lake Formation.
Lorsque vous utilisez Amazon EMR 6.9.0 pour créer un cluster Hadoop avec les étiquettes de nœuds
activées, les YARNmétriques API renvoient des informations agrégées sur toutes les partitions, au lieu de la partition par défaut. Pour plus d'informations, consultez YARN-11414 . Avec la EMR version 6.9.0 d'Amazon, nous avons mis à jour Trino vers la version 398, qui utilise Java 17. La précédente version prise en charge de Trino pour Amazon EMR 6.8.0 était Trino 388 fonctionnant sous Java 11. Pour plus d'informations sur cette modification, consultez Mises à jour de Trino vers Java 17
sur le blog de Trino. Cette version corrige un problème d'inadéquation des séquences temporelles entre Apache BigTop et Amazon EMR lors de la séquence de démarrage EC2 du cluster. Ce décalage se produit lorsqu'un système tente d'effectuer deux ou plusieurs opérations en même temps au lieu de les effectuer dans le bon ordre. Par conséquent, certaines configurations de cluster ont connu des délais de démarrage des instances et des temps de démarrage des clusters plus lents.
Lorsque vous lancez un cluster avec le dernier correctif d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour Amazon EMR AMI par défaut. Pour plus d'informations, consultez Utiliser le système Amazon Linux par défaut AMI pour Amazon EMR.
Note
Cette version ne reçoit plus de AMI mises à jour automatiques puisqu'elle a été remplacée par une autre version de correctif. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (
6.8.
). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le guide des versions, ou consultez le menu déroulant des EMRversions d'Amazon lorsque vous créez un cluster dans la console, ou utilisez l'1
list-release-labels
CLIactionListReleaseLabels
APIou. Pour être tenu au courant des nouvelles versions, abonnez-vous au RSS fil d'actualité sur le site Quoi de neuf ? page.OsReleaseLabel (version Amazon Linux) Version du noyau Amazon Linux Date de disponibilité Régions prises en charge 2,0.20241001.0 4,14,352 4 octobre 2024 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Asie Pacifique) (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), AWS GovCloud (États-Unis est), Chine AWS GovCloud (Pékin), Chine (Ningxia) 2,0,20240816,0 4,14,350 21 août 2024 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Asie Pacifique) (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), AWS GovCloud (États-Unis est), Chine AWS GovCloud (Pékin), Chine (Ningxia) 2,0,20240809.0 4,1,4349 20 août 2024 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Asie Pacifique) (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), AWS GovCloud (États-Unis est), Chine AWS GovCloud (Pékin), Chine (Ningxia) 2,0,20240719,0 4,14.348 25 juillet 2024 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Asie Pacifique) (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), AWS GovCloud (États-Unis est), Chine AWS GovCloud (Pékin), Chine (Ningxia) 2,0.20240709.1 4,14.348 23 juillet 2024 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Singapour), Asie-Pacifique (Asie Pacifique) (Sydney), Asie-Pacifique (Jakarta), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (centre), (États-Unis ouest), AWS GovCloud (États-Unis est), Chine AWS GovCloud (Pékin), Chine (Ningxia), Asie Pacifique (Hyderabad), Moyen-Orient (UAE), Europe (Espagne), Europe (Zurich), Asie-Pacifique (Melbourne), Israël (Tel Aviv), Canada Ouest (Calgary) 2,0,20230808.0 4,14,320 24 août 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Francfort), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Canada (Centre), Israël (Tel Aviv) 2,0,20230727,0 4,14,320 14 août 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Francfort), Europe (Zurich), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Moyen-Orient (UAE), Canada ( Central), Israël (Tel Aviv) 2,0,20230719,0 4,14,320 02/08/2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Francfort), Europe (Zurich), Europe (Irlande), Europe (Londres), Europe (Paris), Asie-Pacifique (Hong Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Hyderabad), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Jakarta), Asie-Pacifique (Melbourne), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn), Moyen-Orient (UAE), Canada ( Central), Israël (Tel Aviv) 2,0,20230628,0 4,14,318 12 juillet 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) 2,0,20230612,0 4,1,4314 23 juin 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) 2.0.20230504.1 4,14.313 16 mai 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) 2,0,20230418,0 4,14.311 3 mai 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) 2.0.20230404.1 4,14.311 18 avril 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) 2,0.20230404.0 4,14.311 10 avril 2023 USA Est (Virginie du Nord), Europe (Paris) 2,0,20230320,0 4,14,309 30 mars 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) 2,0.20230307.0 4,14,305 15 mars 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) 2,0.20230207.0 4,14,304 22 février 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) 2.0.20221210.1 4,14,301 12 janvier 2023 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn) 2,0.20221103.3 4,14.296 5 décembre 2022 USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), Canada (Centre), Europe (Stockholm), Europe (Irlande), Europe (Londres), Europe (Paris), Europe (Francfort), Europe (Milan), Asie-Pacifique (Hong-Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Jakarta), Asie-Pacifique (Tokyo), Asie-Pacifique (Séoul), Asie-Pacifique (Osaka), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Afrique (Le Cap), Amérique du Sud (São Paulo), Moyen-Orient (Bahreïn)
Versions des composants 6.9.0
Les composants qu'Amazon EMR installe avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. D'autres sont propres à Amazon EMR et sont installés pour les processus et les fonctionnalités du système. Ceux-ci commencent généralement par emr
ou aws
. Les packages d'applications Big Data de la dernière EMR version d'Amazon sont généralement les dernières versions disponibles dans la communauté. Nous mettons les publications communautaires à disposition sur Amazon EMR le plus rapidement possible.
Certains composants d'Amazon EMR diffèrent des versions communautaires. Ces composants ont une étiquette de version sous la forme
. CommunityVersion
-amzn-EmrVersion
commence à 0. Par exemple, si un composant communautaire open source nommé EmrVersion
myapp-component
avec la version 2.2 a été modifié trois fois pour être inclus dans différentes EMR versions d'Amazon, sa version de publication est répertoriée sous le nom de2.2-amzn-2
.
Composant | Version | Description |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK |
delta | 2.1.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. |
emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. |
emr-goodies | 3.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. |
emr-kinesis | 3.6.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. |
emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise |
emr-s3-dist-cp | 2.23.0 | Application de copie distribuée optimisée pour Amazon S3. |
emr-s3-select | 2.2.0 | EMRConnecteur S3Select |
emrfs | 2,54,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. |
flink-client | 1.15.2 | Applications et scripts client de la ligne de commande Apache Flink. |
flink-jobmanager-config | 1.15.2 | Gestion des ressources sur les EMR nœuds pour Apache Flink JobManager. |
ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. |
ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. |
ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. |
hadoop-client | 3.3.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». |
hadoop-hdfs-datanode | 3.3.3-amzn-1 | HDFSservice au niveau du nœud pour le stockage de blocs. |
hadoop-hdfs-library | 3.3.3-amzn-1 | HDFSclient et bibliothèque en ligne de commande |
hadoop-hdfs-namenode | 3.3.3-amzn-1 | HDFSservice de suivi des noms de fichiers et de l'emplacement des blocs. |
hadoop-hdfs-journalnode | 3.3.3-amzn-1 | HDFSservice de gestion du journal du système de fichiers Hadoop sur les clusters HA. |
hadoop-httpfs-server | 3.3.3-amzn-1 | HTTPpoint de terminaison pour HDFS les opérations. |
hadoop-kms-server | 3.3.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur Hadoop. KeyProvider API |
hadoop-mapred | 3.3.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. |
hadoop-yarn-nodemanager | 3.3.3-amzn-1 | YARNservice de gestion des conteneurs sur un nœud individuel. |
hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | YARNservice d'allocation et de gestion des ressources du cluster et des applications distribuées. |
hadoop-yarn-timeline-server | 3.3.3-amzn-1 | Service de récupération des informations actuelles et historiques pour les YARN applications. |
hbase-hmaster | 2.4.13-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. |
hbase-region-server | 2.4.13-amzn-0 | Service destiné à desservir une ou plusieurs HBase régions. |
hbase-client | 2.4.13-amzn-0 | HBaseclient en ligne de commande. |
hbase-rest-server | 2.4.13-amzn-0 | Service fournissant un RESTful HTTP point de terminaison pourHBase. |
hbase-thrift-server | 2.4.13-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase |
hbase-operator-tools | 2.4.13-amzn-0 | Outil de réparation pour les HBase clusters Apache. |
hcatalog-client | 3.1.3-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. |
hcatalog-server | 3.1.3-amzn-2 | Fourniture de servicesHCatalog, table et couche de gestion du stockage pour les applications distribuées. |
hcatalog-webhcat-server | 3.1.3-amzn-2 | HTTPpoint de terminaison fournissant une REST interface pourHCatalog. |
hive-client | 3.1.3-amzn-2 | Client de ligne de commande Hive. |
hive-hbase | 3.1.3-amzn-2 | Client Hive-hbase. |
hive-metastore-server | 3.1.3-amzn-2 | Service d'accès au métastore Hive, un référentiel sémantique stockant des métadonnées pour SQL les opérations sur Hadoop. |
hive-server2 | 3.1.3-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. |
hudi | 0.12.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. |
hudi-presto | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. |
hudi-trino | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. |
hudi-spark | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. |
hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop |
iceberg | 0.14.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. |
jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter |
livy-server | 0.7.1-incubating | RESTinterface pour interagir avec Apache Spark |
nginx | 1.12.1 | nginx [engine x] est HTTP un serveur proxy inverse |
mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. |
mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. |
nvidia-cuda | 11,7.0 | Pilotes Nvidia et boîte à outils Cuda |
oozie-client | 5.2.1 | Client de ligne de commande Oozie. |
oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. |
opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur |
phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client |
phoenix-connectors | 6,0.0- SNAPSHOT | Connecteurs Apache Phoenix pour Spark-3 |
phoenix-query-server | 6.0.0 | Un serveur léger fournissant un JDBC accès ainsi que des tampons de protocole et un accès JSON au format à l'Avatica API |
presto-coordinator | 0.276-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. |
presto-worker | 0.276-amzn-0 | Service pour exécuter les éléments d'une requête. |
presto-client | 0.276-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. |
trino-coordinator | 398-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. |
trino-worker | 398-amzn-0 | Service pour exécuter les éléments d'une requête. |
trino-client | 398-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. |
pig-client | 0.17.0 | Client de ligne de commande Pig. |
r | 4.0.2 | Projet R pour les calculs statistiques |
ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger |
spark-client | 3.3.0-amzn-1 | Clients de ligne de commande Spark. |
spark-history-server | 3.3.0-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. |
spark-on-yarn | 3.3.0-amzn-1 | Moteur d'exécution en mémoire pour. YARN |
spark-yarn-slave | 3.3.0-amzn-1 | Bibliothèques Apache Spark nécessaires YARN aux esclaves. |
spark-rapids | 22.08.0-amzn-0 | RAPIDSPlugin Nvidia Spark qui accélère Apache Spark avecGPUs. |
sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. |
tensorflow | 2.10.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. |
tez-on-yarn | 0.10.2-amzn-0 | L'YARNapplication Tez et les bibliothèques. |
webserver | 2.4.41+ | HTTPserveur Apache. |
zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. |
zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. |
zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. |
Classifications des configurations 6.9.0
Les classifications de configuration vous permettent de personnaliser les applications. Ils correspondent souvent à un XML fichier de configuration de l'application, tel quehive-site.xml
. Pour de plus amples informations, veuillez consulter Configuration des applications.
Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon lance des actions de reconfiguration EMR uniquement pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter Reconfigurer un groupe d'instances dans un cluster en cours d'exécution.
Classifications | Description | Actions de reconfiguration |
---|---|---|
capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. |
container-executor | Modifiez les valeurs dans le fichier container-executor.cfg YARN de Hadoop. | Not available. |
container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties YARN de Hadoop. | Not available. |
core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Modifiez les paramètres liés au docker. | Not available. |
emrfs-site | Modifiez EMRFS les paramètres. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. |
flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. |
flink-log4j-session | Modifiez les paramètres de Flink log4j-session.properties pour la session Kubernetes/Yarn. | Restarts Flink history server. |
flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. |
hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. |
hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. |
hbase | Paramètres EMR sélectionnés par Amazon pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. |
hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | Configurez les zones de HDFS chiffrement. | This classification should not be reconfigured. |
hdfs-env | Modifiez les valeurs dans l'HDFSenvironnement. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | Modifiez les valeurs dans HDFS le fichier hdfs-site.xml. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | Modifiez les valeurs dans ebHCat l'environnement de HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | Modifiez les valeurs dans le fichier ebHCat log4j2.properties de HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | Modifiez les valeurs dans ebHCat le fichier webhcat-site.xml de HCatalog W. | Restarts Hive WebHCat server. |
hive | Paramètres EMR sélectionnés par Amazon pour Apache Hive. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. |
hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. |
hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. |
hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. |
hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. |
hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. |
hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | Modifiez les valeurs dans l'HTTPFSenvironnement. | Restarts Hadoop Httpfs service. |
httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. |
hadoop-kms-env | Modifiez les valeurs dans l'environnement Hadoop. KMS | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. |
hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. |
hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. |
iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. |
delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. |
jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter_notebook_config.py de Jupyter Notebook. | Not available. |
jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub_config.py. | Not available. |
jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. |
jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. |
livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. |
livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. |
livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. |
mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. |
oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. |
oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. |
phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. |
phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. |
phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. |
pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. |
pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. |
pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. |
presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. |
presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. |
presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. |
presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. |
presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. |
presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. |
presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. |
presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. |
presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. |
presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. |
presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. |
presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. |
presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. |
presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. |
presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. |
presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. |
trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) |
trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. |
trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. |
trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. |
trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. |
trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. |
trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. |
trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. |
trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. |
trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. |
trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. |
trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. |
trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. |
trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. |
trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. |
trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. |
ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de RangerKMS. | Restarts Ranger KMS Server. |
ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de RangerKMS. | Restarts Ranger KMS Server. |
ranger-kms-env | Modifiez les valeurs dans l'KMSenvironnement Ranger. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger. KMS | Not available. |
ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour Ma SQL SSL connexion avec RangerKMS. | Not available. |
spark | Paramètres EMR sélectionnés par Amazon pour Apache Spark. | This property modifies spark-defaults. See actions there. |
spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. |
spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. |
spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. |
sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. |
sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. |
tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. |
yarn-env | Modifiez les valeurs dans l'YARNenvironnement. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | Modifiez les valeurs dans YARN le fichier yarn-site.xml. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. |
zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. |
zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. |
zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. |
Journal des modifications 6.9.0
Date | Événement | Description |
---|---|---|
30/08/2023 | Mise à jour des notes de mise à jour | Ajout d'un correctif pour un problème de non-concordance des séquences de synchronisation |
21/08/2023 | Mise à jour des notes de mise à jour | Ajout d'un problème connu avec Hadoop 3.3.3. |
26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. |
13/12 | Mise à jour des notes de mise à jour | Fonctionnalité ajoutée et problème connu d'exécution avec SageMaker |
29/11 | Mise à jour des notes de mise à jour et de la documentation | Ajout d'une fonctionnalité pour l'intégration d'Amazon Redshift pour Apache Spark |
23/11 | Mise à jour des notes de mise à jour | Suppression de l'entrée Log4j |
11/18 | Déploiement terminé | Amazon EMR 6.9 entièrement déployé dans toutes les régions prises en charge |
11/18 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.9 publiées pour la première fois |
14/11 | Première version | Amazon EMR 6.9 déployé dans un nombre limité de régions commerciales |